Customizing Generative AI Models - Maßgeschneiderte LLM-Lösungen entwickeln und produktiv einsetzen
Classroom Schulung | Deutsch | Anspruch
Schulungsdauer: 3 Tage
Ziele
In dieser 3-tägigen Schulung "Customizing Generative AI Models - Maßgeschneiderte LLM-Lösungen entwickeln und produktiv einsetzen" lernen Sie, generative KI-Modelle gezielt für unternehmensspezifische Anwendungsfälle anzupassen. Sie vertiefen Ihre Kenntnisse im modernen Prompt Engineering, in der Evaluierung von LLM-Ausgaben sowie in parameter-effizienten Finetuning-Methoden wie LoRA und IA3. Darüber hinaus entwickeln Sie eigene LLM-gestützte Anwendungen, binden Unternehmensdaten mittels Retrieval-Augmented Generation (RAG) ein und nutzen Tools wie LangChain, LangGraph und DeepEval zur Umsetzung und Qualitätskontrolle. So sind Sie in der Lage, leistungsfähige und auf Ihre Praxis zugeschnittene KI-Lösungen zu konzipieren und produktiv einzusetzen.
Zielgruppe
- Data Scientists mit Interesse an LLM-basierten Architekturen
- Softwareentwickler mit Fokus auf KI-Anwendungen
- KI-Praktiker, die generative Modelle produktiv erweitern und evaluieren wollen
Voraussetzungen
- Solide Kenntnisse in Python
- Erste Erfahrungen im Umgang mit generativen KI-Modellen (z. B. ChatGPT, Claude, Gemini, LLaMA, Mistral)
- Grundverständnis von Modellarchitekturen und API-gestützter Entwicklung
Agenda
Generative AI: Grundlagen & Architektur
- Aufbau und Funktionsweise moderner LLMs
- Prompt Engineering, RAG, Agentic Reasoning
- Open-Weight- vs. Closed-Weight-Modelle
Prompt Engineering in der Praxis
- Few-Shot-Techniken, Chain-of-Thought, Tree-of-Thought
- Automatisierte Prompt-Generierung und Fehleranalyse
- Optimierung mit Feedback- und Testverfahren
Entwicklung LLM-gestützter Anwendungen
- API-Integration mit LangChain
- Workflow-Design mit LangGraph
- Kostenkontrolle und Performance-Tuning
Evaluierung generativer Systeme
- DeepEval, G-Eval & Metriken für LLMs
- Benchmarks, Testdaten & Validierung
- Anwendungsspezifische Bewertungsverfahren
Retrieval-Augmented Generation (RAG)
- Vektordatenbanken, Embeddings, Indexierung
- Text Chunking & Dokumentenverarbeitung
- Retriever-Typen und semantische Abrufstrategien
Finetuning & Datenaugmentation
- LoRA, IA3 und andere PEFT-Techniken
- Quantisierung und Ressourcenoptimierung
- Synthetische Daten erzeugen und bewerten
Ziele
In dieser 3-tägigen Schulung "Customizing Generative AI Models - Maßgeschneiderte LLM-Lösungen entwickeln und produktiv einsetzen" lernen Sie, generative KI-Modelle gezielt für unternehmensspezifische Anwendungsfälle anzupassen. Sie vertiefen Ihre Kenntnisse im modernen Prompt Engineering, in der Evaluierung von LLM-Ausgaben sowie in parameter-effizienten Finetuning-Methoden wie LoRA und IA3. Darüber hinaus entwickeln Sie eigene LLM-gestützte Anwendungen, binden Unternehmensdaten mittels Retrieval-Augmented Generation (RAG) ein und nutzen Tools wie LangChain, LangGraph und DeepEval zur Umsetzung und Qualitätskontrolle. So sind Sie in der Lage, leistungsfähige und auf Ihre Praxis zugeschnittene KI-Lösungen zu konzipieren und produktiv einzusetzen.
Zielgruppe
- Data Scientists mit Interesse an LLM-basierten Architekturen
- Softwareentwickler mit Fokus auf KI-Anwendungen
- KI-Praktiker, die generative Modelle produktiv erweitern und evaluieren wollen
Voraussetzungen
- Solide Kenntnisse in Python
- Erste Erfahrungen im Umgang mit generativen KI-Modellen (z. B. ChatGPT, Claude, Gemini, LLaMA, Mistral)
- Grundverständnis von Modellarchitekturen und API-gestützter Entwicklung
Agenda
Generative AI: Grundlagen & Architektur
- Aufbau und Funktionsweise moderner LLMs
- Prompt Engineering, RAG, Agentic Reasoning
- Open-Weight- vs. Closed-Weight-Modelle
Prompt Engineering in der Praxis
- Few-Shot-Techniken, Chain-of-Thought, Tree-of-Thought
- Automatisierte Prompt-Generierung und Fehleranalyse
- Optimierung mit Feedback- und Testverfahren
Entwicklung LLM-gestützter Anwendungen
- API-Integration mit LangChain
- Workflow-Design mit LangGraph
- Kostenkontrolle und Performance-Tuning
Evaluierung generativer Systeme
- DeepEval, G-Eval & Metriken für LLMs
- Benchmarks, Testdaten & Validierung
- Anwendungsspezifische Bewertungsverfahren
Retrieval-Augmented Generation (RAG)
- Vektordatenbanken, Embeddings, Indexierung
- Text Chunking & Dokumentenverarbeitung
- Retriever-Typen und semantische Abrufstrategien
Finetuning & Datenaugmentation
- LoRA, IA3 und andere PEFT-Techniken
- Quantisierung und Ressourcenoptimierung
- Synthetische Daten erzeugen und bewerten