Building Transformer-Based Natural Language Processing Applications (BNLPA)

 

Kursüberblick

Lernen Sie, wie Sie ein Transformer-basiertes Deep Learning-Modell auf Aufgaben der natürlichen Sprachverarbeitung (NLP) anwenden und fein abstimmen können.

In diesem Kurs lernen Sie:

  • Sie ein neuronales Transformer-Netzwerk in PyTorch zu konstruieren
  • Erstellen einer Anwendung zur Erkennung benannter Personen (NER) mit BERT
  • Einsatz der NER-Anwendung mit ONNX und TensorRT auf einem Triton-Inferenzserver

Nach Abschluss des Kurses sind Sie in der Lage, Transformer-basierte Modelle aufgabenunabhängig einzusetzen.

Dieser Text wurde automatisiert übersetzt. Um den englischen Originaltext anzuzeigen, klicken Sie bitte hier.

Voraussetzungen

  • Erfahrung mit der Programmierung in Python und der Verwendung von Bibliotheksfunktionen und Parametern
  • Grundlegendes Verständnis eines Deep Learning Frameworks wie TensorFlow, PyTorch oder Keras
  • Grundkenntnisse über neuronale Netze

Kursziele

  • Wie Transformatoren als Grundbausteine für moderne LLMs für NLP-Anwendungen verwendet werden
  • Wie die Selbstüberwachung die Transformer-Architektur in BERT, Megatron und anderen LLM-Varianten verbessert, um bessere NLP-Ergebnisse zu erzielen
  • Wie man vortrainierte, moderne LLM-Modelle nutzt, um verschiedene NLP-Aufgaben zu lösen, wie z. B. Textklassifizierung, Erkennung von benannten Einheiten (NER) und Beantwortung von Fragen
  • Nutzung von vortrainierten, modernen NLP-Modellen zur Lösung verschiedener Aufgaben wie Textklassifizierung, NER und Fragenbeantwortung
  • Bewältigung von Inferenzherausforderungen und Bereitstellung verfeinerter Modelle für Live-Anwendungen

Kursinhalt

Einführung
  • Treffen Sie den Ausbilder.
  • Erstellen Sie ein Konto unter courses.nvidia.com/join
Einführung in Transformatoren
  • Erkunden Sie die Funktionsweise der Transformatorarchitektur im Detail:
  • Bauen Sie die Transformator-Architektur in PyTorch auf.
  • Berechnen Sie die Selbstbeobachtungsmatrix.
  • Übersetzen Sie Englisch nach Deutsch mit einem vortrainierten Transformationsmodell.
Selbstüberwachung, BERT und mehr

Erfahren Sie, wie Sie mit NVIDIA NeMo selbstüberwachte transformatorbasierte Modelle auf konkrete NLP-Aufgaben anwenden können:

  • Erstellen Sie ein Textklassifizierungsprojekt, um Abstracts zu klassifizieren.
  • Erstellen Sie ein NER-Projekt zur Identifizierung von Krankheitsnamen in Texten.
  • Verbessern Sie die Projektgenauigkeit mit bereichsspezifischen Modellen.
Inferenz und Einsatz für NLP
  • Erfahren Sie, wie Sie ein NLP-Projekt für Live-Inferenz auf NVIDIA Triton bereitstellen:
  • Bereiten Sie das Modell für den Einsatz vor.
  • Optimieren Sie das Modell mit NVIDIA® TensorRT™.
  • Setzen Sie das Modell ein und testen Sie es.
Abschliessende Überprüfung
  • Besprechen Sie die wichtigsten Erkenntnisse und beantworten Sie Fragen.
  • Schliessen Sie die Bewertung ab und erhalten Sie ein Zertifikat.
  • Nehmen Sie an der Workshop-Umfrage teil.
  • Erfahren Sie, wie Sie Ihre eigene Umgebung einrichten können, und diskutieren Sie über zusätzliche Ressourcen und Schulungen.

Preise & Trainingsmethoden

Online Training

Dauer
1 Tag

Preis
  • auf Anfrage
Klassenraum-Training

Dauer
1 Tag

Preis
  • auf Anfrage
 

Kurstermine

Instructor-led Online Training:   Kursdurchführung online im virtuellen Klassenraum.

Deutsch

Zeitzone: Mitteleuropäische Sommerzeit (MESZ)

Online Training Zeitzone: Mitteleuropäische Sommerzeit (MESZ)
Online Training Zeitzone: Mitteleuropäische Sommerzeit (MESZ)
Online Training Zeitzone: Mitteleuropäische Zeit (MEZ)