Schulungsübersicht

Einführung in QLoRA und Quantisierung

  • Überblick über Quantisierung und ihre Rolle bei der Modelloptimierung
  • Einführung in das QLoRA-Framework und seine Vorteile
  • Kerneigenschaften des Unterschieds zwischen QLoRA und traditionellen Feinjustierungsmethoden

Grundlagen von Large Language Models (LLMs)

  • Einführung in LLMs (Large Language Models) und ihre Architektur
  • Herausforderungen bei der Skalierbarkeit der Feinjustierung großer Modelle
  • Wie Quantisierung die Überwindung von Berechnungsrestriktionen bei der Feinjustierung von LLMs unterstützt

Implementierung von QLoRA für Fine-Tuning LLMs

  • Aufbau des QLoRA-Framework und -Umfeldes
  • Vorbereitung von Datensätzen für die Feinjustierung mit QLoRA
  • Schritt-für-Schritt-Anleitung zur Implementierung von QLoRA auf LLMs unter Verwendung von Python und PyTorch/TensorFlow

Optimierung der Fine-Tuning-Leistung mit QLoRA

  • Wie man den Ausgleich zwischen Modellgenauigkeit und -leistung durch Quantisierung erreicht
  • Messmethoden zur Reduzierung von Rechenkosten und Speichernutzung während der Feinjustierung
  • Strategien für die Feinjustierung mit minimalen Hardwareanforderungen

Bewertung von feingetunten Modellen

  • Wie man die Effektivität von feingetunten Modellen bewertet
  • Häufig verwendete Bewertungsmaße für Sprachmodelle
  • Optimierung der Modellleistung nach der Feinjustierung und Behebung von Problemen

Bereitstellung und Skalierung feingetunter Modelle

  • Beste Praktiken zur Bereitstellung quantisierter LLMs in Produktionsumgebungen
  • Skalierung der Bereitstellung, um Echtzeitanfragen zu bewältigen
  • Tools und Frameworks für die Modellbereitstellung und -überwachung

Echte Welt-Use Cases und Fallstudien

  • Fallstudie: Feinjustierung von LLMs für Kundensupport und NLP-Aufgaben
  • Beispiele der Feinjustierung von LLMs in verschiedenen Branchen wie Gesundheitswesen, Finanzdienstleistungen und E-Commerce
  • Lektionen aus realen Bereitstellungen von QLoRA-basierten Modellen

Zusammenfassung und nächste Schritte

Voraussetzungen

  • Eine Grundverständnis der Maschinenlernen-Grundlagen und neuronaler Netzwerke
  • Erfahrung im Modell-Feintuning und Transfer-Lernen
  • Kenntnisse von großen Sprachmodellen (LSMs) und Tiefenlern-Frameworks (z.B., PyTorch, TensorFlow)

Zielgruppe

  • Maschinenlernen-Engineer
  • AI-Entwickler
  • Datenwissenschaftler
 14 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Kommende Kurse

Verwandte Kategorien