Vielen Dank für die Zusendung Ihrer Anfrage! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Vielen Dank, dass Sie Ihre Buchung abgeschickt haben! Eines unserer Teammitglieder wird Sie in Kürze kontaktieren.
Schulungsübersicht
1. Verständnis der Klassifizierung mittels nächster Nachbarn
- Der kNN-Algorithmus
- Berechnung des Abstands
- Auswählen eines geeigneten k
- Daten für die Verwendung von kNN vorbereiten
- Warum ist der kNN-Algorithmus träge?
2. Verständnis von Naive Bayes
- Grundlegende Konzepte der Bayes'schen Methoden
- Wahrscheinlichkeit
- Gemeinsame Wahrscheinlichkeit
- Bedingte Wahrscheinlichkeit mit Bayes' Theorem
- Der naive Bayes-Algorithmus
- Die naive Bayes-Klassifikation
- Der Laplace-Schätzer
- Verwendung numerischer Merkmale mit Naive Bayes
3. Entscheidungsbäume verstehen
- Teilen und Erobern
- Der C5.0-Algorithmus für Entscheidungsbäume
- Auswahl der besten Aufteilung
- Beschneiden des Entscheidungsbaums
4. Verständnis der Klassifizierungsregeln
- Trennen und Überwinden
- Der Ein-Regel-Algorithmus
- Der RIPPER-Algorithmus
- Regeln aus Entscheidungsbäumen
5. Regression verstehen
- Einfache lineare Regression
- Gewöhnliche Kleinste-Quadrate-Schätzung
- Korrelationen
- Mehrfache lineare Regression
6. Verständnis von Regressionsbäumen und Modellbäumen
- Hinzufügen von Regression zu Bäumen
7. Neuronale Netze verstehen
- Von biologischen zu künstlichen Neuronen
- Aktivierungsfunktionen
- Netzwerktopologie
- Die Anzahl der Schichten
- Die Richtung der Informationsübertragung
- Die Anzahl der Knoten in jeder Schicht
- Training neuronaler Netze mit Backpropagation
8. Verständnis von Support-Vektor-Maschinen
- Klassifizierung mit Hyperebenen
- Suche nach dem maximalen Spielraum
- Der Fall von linear trennbaren Daten
- Der Fall von nicht linear trennbaren Daten
- Verwendung von Kerneln für nichtlineare Räume
9. Verständnis von Assoziationsregeln
- Der Apriori-Algorithmus für das Lernen von Assoziationsregeln
- Messung des Regelinteresses - Unterstützung und Vertrauen
- Aufbau eines Satzes von Regeln mit dem Apriori-Prinzip
10. Verstehen von Clustering
- Clustering als eine Aufgabe des maschinellen Lernens
- Der k-means Algorithmus für Clustering
- Verwendung von Distanz zur Zuweisung und Aktualisierung von Clustern
- Auswahl der geeigneten Anzahl von Clustern
11. Leistungsmessung bei der Klassifizierung
- Arbeiten mit Klassifikationsvorhersagedaten
- Ein genauerer Blick auf Konfusionsmatrizen
- Verwendung von Konfusionsmatrizen zur Leistungsmessung
- Über die Genauigkeit hinaus - andere Messgrößen der Leistung
- Die Kappa-Statistik
- Sensitivität und Spezifität
- Präzision und Wiedererkennung
- Das F-Maß
- Visualisierung von Leistungsabwägungen
- ROC-Kurven
- Schätzung der zukünftigen Leistung
- Die Holdout-Methode
- Kreuzvalidierung
- Bootstrap Stichproben
12. Tuning von Aktienmodellen für bessere Leistung
- Verwendung von Caret zur automatischen Parameterabstimmung
- Erstellen eines einfachen abgestimmten Modells
- Anpassen des Abstimmungsprozesses
- Verbessern der Modellleistung mit Meta-Lernen
- Verstehen von Ensembles
- Bagging
- Boosten
- Zufällige Wälder
- Training von Random Forests
- Bewertung der Leistung von Random Forests
13. Deep Learning
- Drei Klassen von Deep Learning
- Deep Autoencodern
- Vortrainierte tiefe Neural Networks
- Deep Stacking Netzwerke
14. Diskussion über spezifische Anwendungsbereiche
21 Stunden
Erfahrungsberichte (1)
Very flexible.