Customizing Generative AI Models - Maßgeschneiderte LLM-Lösungen entwickeln und produktiv einsetzen

Classroom Schulung | Deutsch | Anspruch

Schulungsdauer: 3 Tage

Ziele

In dieser 3-tägigen Schulung "Customizing Generative AI Models - Maßgeschneiderte LLM-Lösungen entwickeln und produktiv einsetzen" lernen Sie, generative KI-Modelle gezielt für unternehmensspezifische Anwendungsfälle anzupassen. Sie vertiefen Ihre Kenntnisse im modernen Prompt Engineering, in der Evaluierung von LLM-Ausgaben sowie in parameter-effizienten Finetuning-Methoden wie LoRA und IA3. Darüber hinaus entwickeln Sie eigene LLM-gestützte Anwendungen, binden Unternehmensdaten mittels Retrieval-Augmented Generation (RAG) ein und nutzen Tools wie LangChain, LangGraph und DeepEval zur Umsetzung und Qualitätskontrolle. So sind Sie in der Lage, leistungsfähige und auf Ihre Praxis zugeschnittene KI-Lösungen zu konzipieren und produktiv einzusetzen.

Zielgruppe

  • Data Scientists mit Interesse an LLM-basierten Architekturen
  • Softwareentwickler mit Fokus auf KI-Anwendungen
  • KI-Praktiker, die generative Modelle produktiv erweitern und evaluieren wollen

Voraussetzungen

  • Solide Kenntnisse in Python
  • Erste Erfahrungen im Umgang mit generativen KI-Modellen (z. B. ChatGPT, Claude, Gemini, LLaMA, Mistral)
  • Grundverständnis von Modellarchitekturen und API-gestützter Entwicklung

Agenda

Generative AI: Grundlagen & Architektur

  • Aufbau und Funktionsweise moderner LLMs
  • Prompt Engineering, RAG, Agentic Reasoning
  • Open-Weight- vs. Closed-Weight-Modelle

Prompt Engineering in der Praxis

  • Few-Shot-Techniken, Chain-of-Thought, Tree-of-Thought
  • Automatisierte Prompt-Generierung und Fehleranalyse
  • Optimierung mit Feedback- und Testverfahren

Entwicklung LLM-gestützter Anwendungen

  • API-Integration mit LangChain
  • Workflow-Design mit LangGraph
  • Kostenkontrolle und Performance-Tuning

Evaluierung generativer Systeme

  • DeepEval, G-Eval & Metriken für LLMs
  • Benchmarks, Testdaten & Validierung
  • Anwendungsspezifische Bewertungsverfahren

Retrieval-Augmented Generation (RAG)

  • Vektordatenbanken, Embeddings, Indexierung
  • Text Chunking & Dokumentenverarbeitung
  • Retriever-Typen und semantische Abrufstrategien

Finetuning & Datenaugmentation

  • LoRA, IA3 und andere PEFT-Techniken
  • Quantisierung und Ressourcenoptimierung
  • Synthetische Daten erzeugen und bewerten

Ziele

In dieser 3-tägigen Schulung "Customizing Generative AI Models - Maßgeschneiderte LLM-Lösungen entwickeln und produktiv einsetzen" lernen Sie, generative KI-Modelle gezielt für unternehmensspezifische Anwendungsfälle anzupassen. Sie vertiefen Ihre Kenntnisse im modernen Prompt Engineering, in der Evaluierung von LLM-Ausgaben sowie in parameter-effizienten Finetuning-Methoden wie LoRA und IA3. Darüber hinaus entwickeln Sie eigene LLM-gestützte Anwendungen, binden Unternehmensdaten mittels Retrieval-Augmented Generation (RAG) ein und nutzen Tools wie LangChain, LangGraph und DeepEval zur Umsetzung und Qualitätskontrolle. So sind Sie in der Lage, leistungsfähige und auf Ihre Praxis zugeschnittene KI-Lösungen zu konzipieren und produktiv einzusetzen.

Zielgruppe

  • Data Scientists mit Interesse an LLM-basierten Architekturen
  • Softwareentwickler mit Fokus auf KI-Anwendungen
  • KI-Praktiker, die generative Modelle produktiv erweitern und evaluieren wollen

Voraussetzungen

  • Solide Kenntnisse in Python
  • Erste Erfahrungen im Umgang mit generativen KI-Modellen (z. B. ChatGPT, Claude, Gemini, LLaMA, Mistral)
  • Grundverständnis von Modellarchitekturen und API-gestützter Entwicklung

Agenda

Generative AI: Grundlagen & Architektur

  • Aufbau und Funktionsweise moderner LLMs
  • Prompt Engineering, RAG, Agentic Reasoning
  • Open-Weight- vs. Closed-Weight-Modelle

Prompt Engineering in der Praxis

  • Few-Shot-Techniken, Chain-of-Thought, Tree-of-Thought
  • Automatisierte Prompt-Generierung und Fehleranalyse
  • Optimierung mit Feedback- und Testverfahren

Entwicklung LLM-gestützter Anwendungen

  • API-Integration mit LangChain
  • Workflow-Design mit LangGraph
  • Kostenkontrolle und Performance-Tuning

Evaluierung generativer Systeme

  • DeepEval, G-Eval & Metriken für LLMs
  • Benchmarks, Testdaten & Validierung
  • Anwendungsspezifische Bewertungsverfahren

Retrieval-Augmented Generation (RAG)

  • Vektordatenbanken, Embeddings, Indexierung
  • Text Chunking & Dokumentenverarbeitung
  • Retriever-Typen und semantische Abrufstrategien

Finetuning & Datenaugmentation

  • LoRA, IA3 und andere PEFT-Techniken
  • Quantisierung und Ressourcenoptimierung
  • Synthetische Daten erzeugen und bewerten

Diese Seite weiterempfehlen