LLM - Large Language Models & Transformer zur effizienten Textverarbeitung Seminar

Schulung in Textverarbeitung mit Python mit Transformer-Architekturen für den praktischen Einsatz von LLMs und Hugging Face Tools

Dieses zweitägige Seminar (jeweils 9 bis 15 Uhr) vermittelt praxisnah die Grundlagen und moderne Anwendungsmöglichkeiten von Large Language Models (LLMs):

  • Überblick über die Architektur und Funktionsweise von Transformern
  • Nutzung vortrainierter Modelle für Textklassifikation, Informationsextraktion und Textzusammenfassung
  • Tokenisierung, Kontextfenster und Embeddings verstehen und anwenden
  • Pre-Training, Fine-Tuning und effiziente Anpassungsstrategien
  • Praktische Übungen mit Hugging Face Transformers und Python für eigene Projekte

Dieses zweitägige Seminar (jeweils 9 bis 15 Uhr) vermittelt praxisnah die Grundlagen und moderne Anwendungsmöglichkeiten von Large Language Models (LLMs):

  • Überblick über die Architektur und Funktionsweise von Transformern
  • Nutzung vortrainierter Modelle für Textklassifikation, Informationsextraktion und Textzusammenfassung
  • Tokenisierung, Kontextfenster und Embeddings verstehen und anwenden
  • Pre-Training, Fine-Tuning und effiziente Anpassungsstrategien
  • Praktische Übungen mit Hugging Face Transformers und Python für eigene Projekte
(*) zzgl. MwSt  (**) inkl. MwSt
Termin (2 Tage zu 6h) Ort Belegung Preise
Mo 09.03 -
Di 10.03.26
Live-Online
Zoom Meeting
Image 1.000,00  (*)
1.190,00  (**)
Do 18.06 -
Fr 19.06.26
Live-Online
Zoom Meeting
Image 1.000,00  (*)
1.190,00  (**)
Mo 30.11 -
Di 01.12.26
Live-Online
Zoom Meeting
Image 1.000,00  (*)
1.190,00  (**)
Inhouse-/Firmenschulung:
Kundenbewertungen & Erfahrungen zu Enable AI. Mehr Infos anzeigen.
Image

Kurs auf einen Blick

Über die Schulung

  • Dauer: 2 Tage zu 6h (9-15Uhr)
  • Gruppengröße: 3-10
  • Level: Anfänger mit Programmiererfahrung
  • Anteil Coding: 60%
  • Sprache: Python
  • Bibliotheken: Hugging Face Transformers, PyTorch, Keras/TensorFlow
  • Skript: .pdf (Theorie, Aufgaben & Lösungen)

Ihr Trainer für den Kurs

Kursinhalte auf einen Blick

  • Grundlagen von Large Language Models (LLMs) und Transformer-Architekturen
  • Tokenisierung, Kontextfenster und Embeddings verstehen und anwenden
  • Textklassifikation, Informationsextraktion und Zusammenfassung mit LLMs
  • Pre-Training, Fine-Tuning und parameter-effiziente Anpassungsstrategien
  • Praxisorientierte Arbeit mit vortrainierten Modellen
  • Hands-On Übungen mit Python und Hugging Face Transformers
  • Modellvergleich, Analyse von Ergebnissen und Optimierung von Workflows
  • Effiziente Nutzung von GPU-Ressourcen für Training und Inferenz
  • Einblick in moderne NLP-Anwendungsfälle und Best Practices
Image

Beschreibung des LLM / Transformer Seminars

Large Language Models (LLMs) und Transformer-Architekturen sind allgegenwärtig in modernen Anwendungen der Sprachverarbeitung. Hierzu zählen:

  • Automatische Textklassifikation
  • Informationsextraktion aus Dokumenten
  • Textzusammenfassungen
  • Maschinelle Übersetzung
  • Intelligente Suchfunktionen
  • Recommender-Systeme
  • Chat- und Assistenzsysteme

und viele weitere Einsatzfelder. Der Kurs „Large Language Models & Transformer“ führt die Teilnehmer praxisnah durch moderne Verfahren der maschinellen Sprachverarbeitung. Der Kurs vermittelt theoretische Grundlagen unterstützt durch praktische Übungen in vielseitigen Anwendungsbereichen.

Wir beginnen mit einer Einführung in LLMs und Transformer-Architekturen, gefolgt von Tokenisierung, Kontextfenstern und Embeddings, um ein Verständnis dafür zu entwickeln, wie Sprache für Modelle numerisch dargestellt wird. Danach wenden die Teilnehmer vortrainierte LLMs für Aufgaben wie Textklassifikation, Informationsextraktion und Textzusammenfassung an.

Ein weiterer Schwerpunkt liegt auf Pre-Training, Fine-Tuning und modernen, parameter-effizienten Anpassungsmethoden. Die praxisnahen Übungen erfolgen mit Python und Hugging Face Transformers, sodass die erlernten Methoden direkt auf eigene Projekte übertragen werden können. Abschließend werden typische Fehlerbilder analysiert, Modelle verglichen und Optimierungsstrategien vermittelt, um LLMs effizient in produktiven Workflows einzusetzen.

Large Language Models (LLMs) und Transformer-Architekturen sind allgegenwärtig in modernen Anwendungen der Sprachverarbeitung. Hierzu zählen:

  • Automatische Textklassifikation
  • Informationsextraktion aus Dokumenten
  • Textzusammenfassungen
  • Maschinelle Übersetzung
  • Intelligente Suchfunktionen
  • Recommender-Systeme
  • Chat- und Assistenzsysteme

und viele weitere Einsatzfelder. Der Kurs „Large Language Models & Transformer“ führt die Teilnehmer praxisnah durch moderne Verfahren der maschinellen Sprachverarbeitung. Der Kurs vermittelt theoretische Grundlagen unterstützt durch praktische Übungen in vielseitigen Anwendungsbereichen.

Wir beginnen mit einer Einführung in LLMs und Transformer-Architekturen, gefolgt von Tokenisierung, Kontextfenstern und Embeddings, um ein Verständnis dafür zu entwickeln, wie Sprache für Modelle numerisch dargestellt wird. Danach wenden die Teilnehmer vortrainierte LLMs für Aufgaben wie Textklassifikation, Informationsextraktion und Textzusammenfassung an.

Ein weiterer Schwerpunkt liegt auf Pre-Training, Fine-Tuning und modernen, parameter-effizienten Anpassungsmethoden. Die praxisnahen Übungen erfolgen mit Python und Hugging Face Transformers, sodass die erlernten Methoden direkt auf eigene Projekte übertragen werden können. Abschließend werden typische Fehlerbilder analysiert, Modelle verglichen und Optimierungsstrategien vermittelt, um LLMs effizient in produktiven Workflows einzusetzen.

Was lernen Sie im LLM Kurs?

Diese Schulung vermittelt die Grundlagen der Large Language Models (LLMs) und Transformer-Architekturen mit dem Ziel, dass jeder Teilnehmer nach Abschluss das Gelernte selbständig auf eigene NLP-Probleme anwenden kann.

Am Anfang stehen Tokenisierung, Kontextfenster und Embeddings, die notwendig sind, um Textdaten für eine Verarbeitung durch LLMs aufzubereiten. Danach wenden die Teilnehmer vortrainierte LLMs für verschiedene Aufgaben an, z.B.

  • Textklassifikation
  • Informationsextraktion
  • Textzusammenfassung
  • Maschinelle Übersetzung
  • Semantische Analyse

Durchgeführt werden die Übungen in Python unter Verwendung von Standardbibliotheken. Für die Arbeit mit Hugging Face Transformers und Deep-Learning-Modellen nutzen die Teilnehmer Jupyter Notebooks mit GPU-Unterstützung, falls nötig. Dabei wird der Fokus auf praxisnahen Workflows gelegt, sodass die erlernten Methoden direkt auf eigene Projekte übertragen werden können.

  • Diese Schulung vermittelt die Grundlagen der Large Language Models (LLMs) und Transformer-Architekturen mit dem Ziel, dass jeder Teilnehmer nach Abschluss das Gelernte selbständig auf eigene NLP-Probleme anwenden kann.

    Am Anfang stehen Tokenisierung, Kontextfenster und Embeddings, die notwendig sind, um Textdaten für eine Verarbeitung durch LLMs aufzubereiten. Danach wenden die Teilnehmer vortrainierte LLMs für verschiedene Aufgaben an, z.B.

    • Textklassifikation
    • Informationsextraktion
    • Textzusammenfassung
    • Maschinelle Übersetzung
    • Semantische Analyse

    Durchgeführt werden die Übungen in Python unter Verwendung von Standardbibliotheken. Für die Arbeit mit Hugging Face Transformers und Deep-Learning-Modellen nutzen die Teilnehmer Jupyter Notebooks mit GPU-Unterstützung, falls nötig. Dabei wird der Fokus auf praxisnahen Workflows gelegt, sodass die erlernten Methoden direkt auf eigene Projekte übertragen werden können.

Besonderheit dieser Schulung

Insbesondere für die Berechnung von Deep-Learning-Modellen ist eine GPU von großer Bedeutung. Daher arbeitet jeder Teilnehmer im Seminar in der Cloud auf einer eigenen NVIDIA GPU, um neuronale Netze oder Large Language Models eigenständig zu programmieren, zu trainieren und auszuwerten. Der Zugang erfolgt bequem über den Webbrowser, sodass typische Fragestellungen und Probleme, die in der praktischen Anwendung beim Rechnen mit GPUs auftreten, direkt behandelt werden können.

Vergleichen Sie unser Seminarangebot: Viele andere Schulungen bieten keine oder nur leistungsschwache GPUs für die Teilnehmer, was die praktische Umsetzung stark einschränkt.

Insbesondere für die Berechnung von Deep-Learning-Modellen ist eine GPU von großer Bedeutung. Daher arbeitet jeder Teilnehmer im Seminar in der Cloud auf einer eigenen NVIDIA GPU, um neuronale Netze oder Large Language Models eigenständig zu programmieren, zu trainieren und auszuwerten. Der Zugang erfolgt bequem über den Webbrowser, sodass typische Fragestellungen und Probleme, die in der praktischen Anwendung beim Rechnen mit GPUs auftreten, direkt behandelt werden können.

Vergleichen Sie unser Seminarangebot: Viele andere Schulungen bieten keine oder nur leistungsschwache GPUs für die Teilnehmer, was die praktische Umsetzung stark einschränkt.

Rezensionen auf Google
Ilias Seifie
Ich habe an einem einwöchigen Kurs über Deep Learning teilgenommen. Die Kursmaterialien sind sehr gut und vollständig ausgearbeitet. Außerdem haben das Skript und auch der Kurs insgesamt eine sehr gute Struktur. Der Tutor ist sehr engagiert …
Aylin Keskin
Super Seminar ! (...) Die Inhalte waren sehr gut gegliedert und wurden absolut verständlich vermittelt. Insgesamt hat die Kombination aus theoretischen Inhalten und praktischen Übungen ein ganzheitliches Verständnis ermöglicht ...
Marvin
Sehr gutes Verhältnis aus Information und Zeit, sehr gute persönliche Ansprache, sehr angenehmer Vortrag ohne viel Bla-Bla. Insgesamt absolut zufrieden.
Martin Schlederer
Sehr hilfreicher Kurs um die praktischen basics von Künstlicher Intelligenz und neuronalen Netzwerken zu lernen. Theorie und Praxis in schneller Abwechslung um die gelernten Konzepte umzusetzen und zu üben ...
Alicia S.
Ein toller Kurs, durchgeführt mit geballter Expertise und einer Engelsgeduld bei der Beantwortung von Fragen und Behebung von Problemen. Ich habe in diesen drei Tagen enorm viel gelernt, ...
Kursinhalte

Organisatorisches

FAQ
Tag 1
Tag 2
09:00 – 09:15
Begrüßung und Organisatorisches
  • Vorstellungsrunde
  • Erwartungen der Teilnehmer
  • Einrichtung der Jupyter-Notebooks
09:15 – 10:45
Image
Einführung in Large Language Models
  • Überblick über praxisrelevante Problemstellungen mit LLMs
  • Grundlagen von LLMs und Transformer-Architekturen
  • Modellfamilien: Encoder-, Decoder- und hybride Modelle
  • Kontextlänge, Modellgröße und Leistungsfähigkeit
  • Praxisübung: Erste Inferenz mit vortrainierten Modellen in Python
10:45 – 11:00
Kaffeepause
11:00 – 12:30
Image
Transformer-Architektur & Attention
  • Motivation für Transformer gegenüber klassischen RNNs/LSTMs
  • Self-Attention verständlich erklärt
  • Encoder vs. Decoder: Unterschiede und typische Anwendungsfälle
  • Skalierungseffekte bei Transformer-Modellen
  • Übung: Visualisierung von Attention-Gewichten und Analyse von Token-Entscheidungen
12:30 – 13:30
Mittagspause
13:30 - 15:00
Image
Tokenisierung, Kontext & Embeddings
  • Tokenisierung: Bedeutung, Subword-Tokenisierung und Einfluss auf Kontextfenster
  • Embeddings als numerische Sprachrepräsentation
  • Semantische Ähnlichkeit und Vektorraumanalyse
  • Übung: Tokenisierung realer Texte und Vergleich unterschiedlicher Tokenizer
  • Übung: Arbeiten mit Embeddings, Ähnlichkeitsberechnungen und einfache Retrieval-Beispiele
09:00 – 09:15
Rückblick und offene Fragen von Tag 1
09:15 – 10:45
Image
Pre-Training & Fine-Tuning
  • Grundlagen von Pre-Training und Fine-Tuning
  • Selbstüberwachtes Lernen bei LLMs
  • Parameter-effiziente Anpassungsstrategien
  • Praxisübung: Nutzung vortrainierter Modelle für konkrete Aufgaben
  • Übung: Vergleich der Ergebnisse vor und nach Fine-Tuning
10:45 – 11:00
Kaffeepause
11:00 – 12:30
Image
LLM-Werkzeuge & Infrastruktur
  • Überblick über das LLM-Ökosystem
  • Hugging Face Transformers: Laden, Inferenz, Pipelines
  • Hardware-Anforderungen: lokale Nutzung vs. Cloud
  • Effizienz, Laufzeit und Speicherverbrauch
  • Übung: Experimente mit Modellgrößen und Laufzeitvergleichen
12:30 – 13:30
Mittagspause
13:30 - 15:00
Image
NLP-Anwendungsfälle mit LLMs
  • Typische NLP-Aufgaben: Textklassifikation, Informationsextraktion, Textzusammenfassung
  • Analyse typischer Fehlerbilder und Grenzen der Modellqualität
  • Vergleich verschiedener Modelle auf identische Aufgaben
  • Übung: Umsetzung eines vollständigen NLP-Workflows
  • Übung: Optimierung bestehender Workflows und Ableitung von Best Practices

Zielgruppe des Large Language Model Seminars

Dieses Seminar richtet sich an technisch interessierte Fachkräfte, die die Arbeit mit Large Language Models und Transformer-Architekturen praxisnah erlernen möchten. Die Teilnehmer möchten in der Lage sein, vortrainierte Modelle für Aufgaben wie Textklassifikation, Informationsextraktion oder Textzusammenfassung einzusetzen und bei Bedarf anzupassen. Außerdem erwerben sie Kenntnisse im Umgang mit Python, Hugging Face Transformers, PyTorch und Keras / TensorFlow sowie in der effizienten Nutzung von GPUs für Training und Inferenz.

Voraussetzungen für den LLM / Transformer / KI Kurs

Grundkenntnisse in Python oder solide Erfahrung in einer anderen Programmiersprache werden vorausgesetzt. Erste einfache Erfahrung mit Textdaten ist notwendig. Folgende Kenntnisse sind sehr hilfreich: Eine Funktion in Python schreiben, for-Schleife, Laden von Python-Modulen, einen einfachen Plot mit Matplotlib erstellen, Grundfunktionen der Numpy-Bibliothek.

Sehr empfehlenswert sind außerdem grundlegende Vorkenntnisse im Bereich der Statistik (Mittelwert, Median, Standardabweichung, Normalverteilung), Kenntnisse grundlegender mathematischer Symbole und Begriffe (Summenzeichen, Integral, Funktion, Ableitung, Exponentialfunktion).

Jupyter Notebook wird als Programmieroberfläche verwendet. Vorkenntnisse sind nicht notwendig.
Hilfestellung, Dokumentation und weiterführende Informationen im Internet sind meist auf Englisch. Daher sind die Folien im Kurs auf Englisch. Das Seminar selbst wird auf Deutsch gehalten.

Didaktischer Aufbau der Schulung mit Hugging Face

Dieses Seminar für Deep Learning in Python lebt von der Praxis. Die Teilnehmer programmieren direkt mit KI Algorithmen (tiefe neuronale Netze) und verwenden selbstständig Python in der cloud mit Jupyter Notebooks. Das Erklärte kann in diesem Künstliche Intelligenz Training gleich umgesetzt und vertieft werden. Verschiedene Aufgaben werden durch den Trainer begleitet und die Teilnehmer werden bei Fragen aktiv unterstützt.

Technik im LLM Seminar

  • Die Teilnehmer benötigen für die Übungsaufgaben Laptops. Wir empfehlen, Ihren eigenen Laptop mitzubringen. Ein Laptop mit GPU wird nicht benötigt.
  • Bitte prüfen Sie, ob Ihr Firmenlaptop Zugangsbeschränkungen im Internet hat. Die digitalen Unterlagen (Skript, Code, Dateien) werden im Seminar online zum Download zur Verfügung gestellt. Sie erhalten vor dem Seminar per E-Mail den Link zu einer Testdatei zum Download, um dies überprüfen zu können.
  • Das Programmieren und das Trainieren der Algorithmen erfolgt auf GPUs in der Cloud, welche über eine URL direkt im Browser aufgerufen wird. Sie erhalten vor dem Seminar per E-Mail einen Link, um zu testen, ob Einstellungen den Zugriff auf die Cloud beeinträchtigen.
  • Im Seminar wird das Betriebssystem Windows verwendet. Der Umgang mit Ihrem verwendeten Betriebssystem und Laptop sollte bekannt sein. Insbesondere sollten Sie ohne Schwierigkeiten Sonderzeichen auf der Tastatur finden (insbesondere bei Apple Geräten werden auf manchen Tastaturen nicht immer runde, eckige bzw. geschweifte Klammern dargestellt).
Gibt es ein Buch, welches den Kurs ergänzt?

Für das Seminar sind folgende Bücher als Ergänzung hilfreich:

Für den ersten Tag: Delip Rao, Goku Mohandas: Natural Language Processing with PyTorch – Build Intelligent Language Applications Using Deep Learning

Für den zweiten Tag: Lewis Tunstall, Leandro von Werra, Thomas Wolf: Natural Language Processing with Transformers

Grundsätzlich wird alles Wissen und Codebeispiele im Kurs so erklärt, dass es nicht nötig ist vor dem Kurs ein Buch zu lesen. Sie sollten lediglich darauf achten, dass Sie die Voraussetzungen (siehe Reiter Organisatorisches –> Voraussetzungen) erfüllen.

In welchen Städten wird das Seminar angeboten?

Wir bieten den Kurs in folgender Stadt an: Stuttgart, München, Frankfurt, Hamburg, Berlin. Falls Sie die Schulung gerne in einer anderen Stadt oder direkt bei Ihnen im Unternehmen besuchen möchten, kontaktieren Sie uns gerne.

Ich möchte gerne viel coden und hands-on Lernen. Ist das der richtige Kurs?

Definitiv. Sie werden sich im Kurs wohlfühlen. Die erste der Lektionen am ersten Tag schafft die Grundlagen und sie können den Editor gleich selbst ausprobieren. Ab der zweiten Lektion ist mindestens die Hälfte der Zeit zum selbstständigen Üben, so dass Sie das Besprochene direkt coden können und selbst erkennen, wo noch Fragen bestehen, die Sie mit dem Dozenten direkt besprechen können.

Welche Lernmethoden werden verwendet?

Im Seminar enthält jeder Block (meist über etwa 90 Minuten) eine oder mehrere Theorie- und Praxiseinheiten. Die Theorieeinheit dient dazu, Ihnen das nötige Wissen zu vermitteln, um die Übungsaufgaben zu verstehen und selbstständig lösen zu können. Wir verzichten auf langatmige, wissenschaftliche Theorieeinheiten und konzentrieren uns auf den theoretischen Stoff der zu einem besseren Verständnis beiträgt. Der Fokus liegt auf der Praxis, d.h. dem Codeschreiben und Lösen von kleinen Verständnisaufgaben zum Lernstoff. Fragen von Teilnehmern sind jederzeit möglich. Während der Praxiseinheit werden die Fragen individuell vom Dozenten beantwortet. Fragen von allgemeinem Interesse werden allen Teilnehmern erklärt. Die Folien, welche die Theorie und weitere Erklärungen vom Code enthalten erhalten Sie als pdf und in gedruckter Version. Codebeispiele und die Musterlösung der Übungsaufgaben liegen digital vor.

Wie sehen die Übungen für die Teilnehmer aus?

Die Übungen bestehen hauptsächlich aus Coding Aufgaben, d.h. Sie schreiben entweder kurze Codebeispiele oder Sie werden gefragt, Codelücken in einem bestehenden Code zu ergänzen. Letzteres schult auch das Codeverstehen. Die Aufgaben sind so gewählt, dass die wichtigen Aufgaben von allen Teilnehmern in der verfügbaren Zeit gelöst werden können. Wir haben Coding Aufgaben unterschiedlichen Schwierigkeitsgrades vorbereitet, so dass schnellere Teilnehmer oder Teilnehmer mit Vorwissen zusätzlich an weiteren Aufgaben üben können. Desweiteren gibt es für manche Kapitel kurze Kontrollfragen zum Theorieteil.

Bildungsschecks
Bildungsscheck Nordrhein Westfalen
Bildungsprämie
Wir akzeptieren den Bildungsscheck NRW und die Bildungsprämie.
Warum bei Enable AI buchen
Leistungen im Kurs
Image
Durchführungsgarantie

Online ab 2 Teilnehmer und in Präsenz ab 3 Teilnehmer führen wir ein Seminar durch, so dass Sie auch bei kleinerer Gruppengröße intensiv lernen können und Ihren Lernerfolg erzielen können.

Image
Zufriedenheitsgarantie

Sollten Sie in einem mehrtägigen Seminar bis zum Ende des ersten Seminartags merken, dass dieses Seminar nicht Ihren Erwartungen entspricht, sprechen Sie bitte mit dem Kursleiter am ersten Seminartag und es wird Ihnen die volle Kursgebühr inkl. Anreise (30 cent / km bzw. Bahnfahrt 2. Klasse) erstattet. Ohne Wenn und Aber.

Image
Wissensgarantie

Falls Ihr(e) MitarbeiterIn unerwarteterweise innerhalb eines halben Jahres nach dem Besuchen eines Kurses für mehr als 6 Monate (Krankheit, Elternzeit, Sabbatical,...) ihr Unternehmen verlässt, darf kostenlos ein Kollege innerhalb eines Jahres ab dem Verlassen des Kollegens ein stattfindendes Seminar mit demselben Inhalt besuchen.

Image
Hands-on Schulungen

Die Kurse sind hands-on Trainings, mit vielen Coding Übungen (inkl. digitalen Musterlösungen). Denn durch praktische Beispiele lernt man am meisten.

Image
Individuelle Schulungen

Wenn es im Interessen der Schulungsgruppe ist, ändert der Trainer das Seminar nach Ihren Wünschen ab bzw. integriert Ihre Daten nach Rücksprache in den Kurs.

Image
Aktualisierte Schulungen

Sollten Sie eine Schulung zweimal besuchen, wird diese nicht identisch sein. Ihr Feedback wird berücksichtigt und die Schulungen werden an die aktuelle Themen in Forschung und Entwicklung angepasst.

Image
Trainer aus der Praxis

Die Trainer, die in exklusiver Kooperation mit Enable AI zusammen arbeiten, kommen alle aus der Praxis und vermitteln praxisnahes, aktuelles Wissen auf leicht verständliche Art und Weise mit dem Ziel, dass Sie in Ihrer Arbeit das Wissen direkt anwenden können.

Image
Kleine Gruppen

Garantierte maximale Gruppengröße von 10 Teilnehmern. Im Durchschnitt besuchen 3-6 Teilnehmer einen Kurs.

Image
Fundiertes Wissen

Vor der Zusammenarbeit werden unsere Trainer geprüft. Alle besitzen fundierte Kenntnisse, u.a. durch Studium, Promotion und Berufserfahrung in den Bereichen Mathematik, Informatik, Statistik und Machine/Deep Learning.

Ihr Trainer für den Kurs

Unsere Trainer bei EnableAI

Haben Sie noch Fragen
Jan Koehler - Gruender von Enable AI

Jan Köhler - Gründer von Enable AI

  • Fragen zum Inhalt des Seminars?
  • Sind Sie sich unsicher, ob der Kurs Sie weder über- noch unterfordert?
  • Fragen, ob Sie das Wissen aus dem Kurs für Ihre tägliche Arbeit anwenden können?
  • weitere generelle Fragen zur Schulung?
  • einen Terminwunsch?

Rufen Sie uns an oder schreiben Sie uns eine Email

0711-96 88 15 53
[email protected]

Gerne können Sie auch direkt einen Termin mit uns vereinbaren oder eine Nachricht schreiben.

Inhouseschulung / Firmenschulung

Sie suchen einen Large Language Model Intensivkurs als Firmen-Weiterbildung? Der Inhalt der Schulung kann individuell auf Ihre Bedürfnisse angepasst werden. In Abstimmung mit dem Dozenten können Sie Schwerpunkte setzen, einzelne Themen der offenen Schulung auslassen und zusätzliche Inhalte ergänzen.

Vereinbaren Sie einen Termin für ein kostenloses Beratungsgespräch.

Die Firmen-Trainings des LLM-Kurses können Live-Online oder direkt bei Ihnen vor Ort durchgeführt werden. Alternativ können die Schulungen auch in Städten wie München, Stuttgart, Berlin, Hannover, Köln, Hamburg, Düsseldorf, Frankfurt, Dortmund, Münster, Essen, Bonn, Dresden, Leipzig, Bremen, Duisburg, Bochum, Wuppertal, Bielefeld, Mannheim, Freiburg, Braunschweig, Kiel oder Karlsruhe stattfinden.

Image
Thematisch ähnliche
Schulungen
Auswahl ähnlicher Kurse wie der Natural Language Processing Kurs
Data Science Bootcamp Weiterbildung

Sie erlernen einen umfassenden Einstieg in die Programmiersprache Python mit Fokus auf Data Science und Machine Learning. Nach dem Seminar sind sie fähig einfache Datenanalysen in Ihrem Unternehmen durchzuführen und ihre erworbende Kenntnisse selbständig zu vertiefen. U.a. folgende Python Pakete werden erläutert: pandas, numpy, matplotlib, seaborn, scikit-learn, statsmodels.

Deep Learning Kurs Künstliche Intelligenz Schulung

In diesem Kurs lernen Sie die Grundlagen von Deep-Learning kennen (mit Beispielen aus der Bild-, Text- und Sequenzdatenbearbeitung). Sie erstellen und trainieren Neuronale Netze auf GPUs mit dem anwenderfreundlichen und beliebten Framework Keras / Tensorflow (in Python). Vorkommende Neuronale-Netzwerk-Typen umfassen CNNs, RNNs und LSTMs.

Python Bilderkennung KI Deep Learning

In diesem Kurs lernen Sie die Grundlagen von Deep-Learning (mit Beispielen aus der Bildverarbeitung) kennen. Sie erstellen und trainieren Neuronale Netze auf GPUs mit dem anwenderfreundlichen und beliebten Framework Keras / Tensorflow (in Python). Die praktischen Anwendungsfällen umfassen: Bildklassifizierung, Objektdetektierung mit Bounding Boxes, Semantische Segmentierung.

Risikofrei Buchen

Rücktritt bei Nichtgefallen

Sollten Sie in einem mehrtägigen Seminar bis zum Ende des ersten Seminartags merken, dass dieses Seminar nicht Ihren Erwartungen entspricht, sprechen Sie bitte mit dem Kursleiter am ersten Seminartag und es wird Ihnen die volle Kursgebühr inkl. Anreise (30 cent / km bzw. Bahnfahrt 2. Klasse) erstattet. Ohne Wenn und Aber.

Stornierung

Sie können eine Bestellung kostenlos bis 14 Tage vor Beginn der Schulung stornieren.

Bis 7 Tage vor Kursbegin fallen 50% Stornokosten zzgl. MwSt an.

Weniger als 7 Tage vor Kursbegin ist die gesamte Seminargebühr zzgl. MwSt zu zahlen.

Anfallende Stornokosten werden Ihnen bei Umbuchung auf einen anderen Termin oder auf ein anderes Seminar verrechnet.

Sie können einen Ersatzteilnehmer für Ihr gebuchtes Seminar zum gebuchten Termin benennen. In diesem Falle verändern wir Ihre Buchung kostenfrei und tragen den Ersatzteilnehmer ein.

Sie haben bei Stornierung zudem auch die Möglichkeit einen anderen Termin, an dem das Seminar bereits stattfindet (d.h. die Mindestteilnehmerzahl ist erreicht), oder ein anderes Seminar (das aufgrund der Buchungslage bereits stattfindet) kostenfrei bzw. nach Bezahlung des Differenzbetrages, teilzunehmen. Ist das gewählte Seminar preisgünstiger, erstatten wir Ihnen den Differenzbetrag nach Teilnahme am Seminar zurück. Diese Möglichkeit erfolgt aus Kulanz ohne Anerkennung einer Rechtspflicht.

Falls die Buchungslage es ermöglicht, können wir einen Ersatzteilnehmer aus der Warteliste benennen. In diesem Fall ist Ihre Stornierung kostenfrei. Dies ist jedoch nicht garantiert und erfolgt aus Kulanz ohne Anerkennung einer Rechtspflicht.

Schulungsort Live Online

Für unsere Live Online Schulungen verwenden wir die Software Zoom.

Durch die Möglichkeiten die Teilnehmer in Breakout Räumen aufzuteilen und auf die Bildschirme der einzelnen Teilnehmer zu schauen, ist es für uns möglich, Sie auch in einem Live Online Seminar individuell zu betreuen.

Etwa eine Wochen vor Beginn der Schulung erhalten Sie von uns den Zugangslink zu Zoom per Email zugesandt.

Schulungsraum in München

Die Seminarräume in München befinden sich 900m von der S-Bahn Haltestelle Donnersbergerbrücke. Von dort sind es 6 min bis zum Hauptbahnhof München.

Adresse Seminarraum München

Regus
Landsberger Straße 155
80687 München