Diese Schulung vermittelt die Grundlagen der Large Language Models (LLMs) und Transformer-Architekturen mit dem Ziel, dass jeder Teilnehmer nach Abschluss das Gelernte selbständig auf eigene NLP-Probleme anwenden kann.
Am Anfang stehen Tokenisierung, Kontextfenster und Embeddings, die notwendig sind, um Textdaten für eine Verarbeitung durch LLMs aufzubereiten. Danach wenden die Teilnehmer vortrainierte LLMs für verschiedene Aufgaben an, z.B.
- Textklassifikation
- Informationsextraktion
- Textzusammenfassung
- Maschinelle Übersetzung
- Semantische Analyse
Durchgeführt werden die Übungen in Python unter Verwendung von Standardbibliotheken. Für die Arbeit mit Hugging Face Transformers und Deep-Learning-Modellen nutzen die Teilnehmer Jupyter Notebooks mit GPU-Unterstützung, falls nötig. Dabei wird der Fokus auf praxisnahen Workflows gelegt, sodass die erlernten Methoden direkt auf eigene Projekte übertragen werden können.