DeepSeek, ChatGPT, Claude, Gemini & Co. - Sprachmodelle verstehen, bewerten und anwenden

Classroom Schulung | Deutsch | Anspruch

Schulungsdauer: 1 Tag

Ziele

In dieser 1-tägigen Schulung "DeepSeek, ChatGPT, Claude, Gemini und Co. - Funktionsweise, Anwendung und Auswahl" lernen Sie die Grundlagen und Einsatzmöglichkeiten moderner Sprachmodelle kennen. Sie erhalten einen Einblick in die Funktionsweise von LLMs, SLMs und RLMs, verstehen die Unterschiede zwischen Sprach- und Chatmodellen und erfahren, wie diese Technologien in Unternehmen genutzt werden können.

Sie lernen, Anwendungsfälle und Grenzen von LLMs zu bewerten, durch effektives Prompt-Engineering präzisere Ergebnisse zu erzielen und Modelle anhand relevanter Kriterien zu vergleichen. Zudem erfahren Sie, wie sich Sprachmodelle strategisch in Geschäftsprozesse integrieren lassen.

Zielgruppe

Mitarbeiter aller Geschäftsbereiche, die Künstliche Intelligenz (KI) verstehen und anwenden wollen

Voraussetzungen

keine

Agenda

Grundlagen - Was sind LLMs, SLMs und RLMs?

  • Definition und Abgrenzung: LLM (Large Language Model), SLM (Small Language Model), RLM (Reasoning Language Model)
  • Der Unterschied zwischen einem Sprachmodell und einem Chatmodell
  • Architektur und Funktionsweise von LLMs (Transformer, Tokenisierung, Training mit riesigen Datenmengen)

Anwendungsfälle von LLMs in Unternehmen

  • Was kann ich mit LLMs schon heute machen?
    • Textgenerierung, Feedbackanalyse, Textsegmentierung, Zusammenfassungen, Übersetzungen, Code-Generierung
    • Automatisierung von Prozessen
    • Analyse und Verarbeitung großer Textmengen
  • Was kann ich mit LLMs heute noch nicht machen?
    • Grenzen der Modelle und typische Fehlerquellen
    • Sicherheitsrisiken

LLMs: Überblick und Unterschiede

  • DeepSeek, ChatGPT, Claude, Gemini und andere Modellen im Vergleich
  • Unterschiede zwischen Open-Source- und Closed-Source-Modellen

Prompt-Engineering

  • Grundlagen des Prompt-Engineerings
  • Techniken/Grundregeln zur Optimierung von Prompts
  • System-Prompt vs. Benutzerprompt
  • Prompting-Techniken: Rollen für die KI

LLM-Benchmarking: Das richtige Modell für den richtigen Zweck

  • Wie wird die Leistung von Sprachmodellen gemessen?
    • Metriken wie BLEU, ROUGE
    • Benchmarks wie GLUE, SuperGLUE, MMLU, BigBench, BigBench-Hard
    • Vergleichbarkeit und Fallstricke von Benchmarks
  • Was ist das beste Sprachmodell für meinen Anwendungsfall?
    • Abwägung von Kosten, Datenschutz, Leistung und Skalierbarkeit
    • Open-Source vs. kommerzielle Anbieter

Auswahl und Integration von LLMs in Unternehmen

  • Entscheidungsfaktoren: Kosten, Datenschutz, On-Premises vs. Cloud
  • Welche Anbieter gibt es und welche Modelle sind für Unternehmen geeignet?
  • Strategien zur Implementierung von LLMs in bestehende Prozesse

Fazit und Abschluss

  • Best Practices und individuelle Anwendungsfälle aus den Unternehmen
  • Weiterführende Ressourcen und nächste Schritte

Ziele

In dieser 1-tägigen Schulung "DeepSeek, ChatGPT, Claude, Gemini und Co. - Funktionsweise, Anwendung und Auswahl" lernen Sie die Grundlagen und Einsatzmöglichkeiten moderner Sprachmodelle kennen. Sie erhalten einen Einblick in die Funktionsweise von LLMs, SLMs und RLMs, verstehen die Unterschiede zwischen Sprach- und Chatmodellen und erfahren, wie diese Technologien in Unternehmen genutzt werden können.

Sie lernen, Anwendungsfälle und Grenzen von LLMs zu bewerten, durch effektives Prompt-Engineering präzisere Ergebnisse zu erzielen und Modelle anhand relevanter Kriterien zu vergleichen. Zudem erfahren Sie, wie sich Sprachmodelle strategisch in Geschäftsprozesse integrieren lassen.

Zielgruppe

Mitarbeiter aller Geschäftsbereiche, die Künstliche Intelligenz (KI) verstehen und anwenden wollen

Voraussetzungen

keine

Agenda

Grundlagen - Was sind LLMs, SLMs und RLMs?

  • Definition und Abgrenzung: LLM (Large Language Model), SLM (Small Language Model), RLM (Reasoning Language Model)
  • Der Unterschied zwischen einem Sprachmodell und einem Chatmodell
  • Architektur und Funktionsweise von LLMs (Transformer, Tokenisierung, Training mit riesigen Datenmengen)

Anwendungsfälle von LLMs in Unternehmen

  • Was kann ich mit LLMs schon heute machen?
    • Textgenerierung, Feedbackanalyse, Textsegmentierung, Zusammenfassungen, Übersetzungen, Code-Generierung
    • Automatisierung von Prozessen
    • Analyse und Verarbeitung großer Textmengen
  • Was kann ich mit LLMs heute noch nicht machen?
    • Grenzen der Modelle und typische Fehlerquellen
    • Sicherheitsrisiken

LLMs: Überblick und Unterschiede

  • DeepSeek, ChatGPT, Claude, Gemini und andere Modellen im Vergleich
  • Unterschiede zwischen Open-Source- und Closed-Source-Modellen

Prompt-Engineering

  • Grundlagen des Prompt-Engineerings
  • Techniken/Grundregeln zur Optimierung von Prompts
  • System-Prompt vs. Benutzerprompt
  • Prompting-Techniken: Rollen für die KI

LLM-Benchmarking: Das richtige Modell für den richtigen Zweck

  • Wie wird die Leistung von Sprachmodellen gemessen?
    • Metriken wie BLEU, ROUGE
    • Benchmarks wie GLUE, SuperGLUE, MMLU, BigBench, BigBench-Hard
    • Vergleichbarkeit und Fallstricke von Benchmarks
  • Was ist das beste Sprachmodell für meinen Anwendungsfall?
    • Abwägung von Kosten, Datenschutz, Leistung und Skalierbarkeit
    • Open-Source vs. kommerzielle Anbieter

Auswahl und Integration von LLMs in Unternehmen

  • Entscheidungsfaktoren: Kosten, Datenschutz, On-Premises vs. Cloud
  • Welche Anbieter gibt es und welche Modelle sind für Unternehmen geeignet?
  • Strategien zur Implementierung von LLMs in bestehende Prozesse

Fazit und Abschluss

  • Best Practices und individuelle Anwendungsfälle aus den Unternehmen
  • Weiterführende Ressourcen und nächste Schritte

Tags

Diese Seite weiterempfehlen