Schulungsübersicht

Einführung in Ollama für den LLM-Einsatz

  • Überblick über die Fähigkeiten von Ollama
  • Vorteile des lokalen Einsatzes von KI-Modellen
  • Vergleich mit Cloud-basierten AI-Hosting-Lösungen

Einrichten der Bereitstellungsumgebung

  • Installation von Ollama und der erforderlichen Abhängigkeiten
  • Konfigurieren von Hardware und GPU-Beschleunigung
  • Dockerizing Ollama für skalierbare Einsätze

Bereitstellen von LLMs mit Ollama

  • Laden und Verwalten von KI-Modellen
  • Einsatz von Llama 3, DeepSeek, Mistral und anderen Modellen
  • Erstellen von APIs und Endpunkten für den Zugriff auf KI-Modelle

Optimieren der LLM-Leistung

  • Feinabstimmung von Modellen für mehr Effizienz
  • Verringerung der Latenz und Verbesserung der Antwortzeiten
  • Verwaltung von Speicher und Ressourcenzuweisung

Integration von Ollama in KI-Arbeitsabläufe

  • Verbindung von Ollama mit Anwendungen und Diensten
  • Automatisieren von KI-gesteuerten Prozessen
  • Verwendung von Ollama in Edge-Computing-Umgebungen

Überwachung und Wartung

  • Verfolgung der Leistung und Behebung von Problemen
  • Aktualisieren und Verwalten von KI-Modellen
  • Gewährleistung von Sicherheit und Compliance bei KI-Einsätzen

Skalierung von KI-Modell-Einsätzen

  • Bewährte Praktiken für den Umgang mit hohen Arbeitsbelastungen
  • Skalierung Ollama für Anwendungsfälle in Unternehmen
  • Zukünftige Fortschritte bei der lokalen Bereitstellung von KI-Modellen

Zusammenfassung und nächste Schritte

Voraussetzungen

  • Grundlegende Erfahrung mit maschinellem Lernen und KI-Modellen
  • Vertrautheit mit Befehlszeilenschnittstellen und Skripting
  • Verständnis von Bereitstellungsumgebungen (lokal, Edge, Cloud)

Zielgruppe

  • KI-Ingenieure, die lokale und Cloud-basierte KI-Implementierungen optimieren
  • ML-Praktiker, die LLMs einsetzen und feinabstimmen
  • DevOps Spezialisten, die die Integration von KI-Modellen verwalten
 14 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Kommende Kurse

Verwandte Kategorien