Schulungsübersicht
TAG 1 - KÜNSTLICHE NEURONALE NETZE
Einführung und ANN-Struktur.
- BioLogische Neuronen und künstliche Neuronen.
- Modell eines ANNs.
- In ANNs verwendete Aktivierungsfunktionen.
- Typische Klassen von Netzwerkarchitekturen.
Mathematical Grundlagen und Lernmechanismen.
- Erneute Betrachtung der Vektor- und Matrixalgebra.
- Zustandsraum-Konzepte.
- Konzepte der Optimierung.
- Lernen mit Fehlerkorrektur.
- Gedächtnisbasiertes Lernen.
- Hebbsches Lernen.
- Kompetitives Lernen.
Einschichtige Perzeptrons.
- Struktur und Lernen von Perceptrons.
- Musterklassifikator - Einführung und Bayes' Klassifikatoren.
- Perceptron als Musterklassifikator.
- Perceptron-Konvergenz.
- Beschränkungen eines Perceptrons.
Feedforward ANN.
- Strukturen von mehrschichtigen Feedforward-Netzwerken.
- Backpropagation-Algorithmus.
- Rückwärtspropagation - Training und Konvergenz.
- Funktionale Approximation mit Backpropagation.
- Praktische und gestalterische Fragen des Backpropagation-Lernens.
Radiale Basisfunktionsnetze.
- Trennbarkeit von Mustern und Interpolation.
- Regularisierungstheorie.
- Regularisierung und RBF-Netze.
- Entwurf und Training von RBF-Netzen.
- Annäherungseigenschaften von RBF.
Kompetitives Lernen und selbstorganisierende ANN.
- Allgemeine Clustering-Verfahren.
- Lernende Vektorquantisierung (LVQ).
- Algorithmen und Architekturen des kompetitiven Lernens.
- Selbstorganisierende Merkmalskarten.
- Eigenschaften von Merkmalskarten.
Fuzzy Neural Networks.
- Neuro-Fuzzy-Systeme.
- Hintergrund von Fuzzy-Mengen und Logik.
- Entwurf von Fuzzy-Stämmen.
- Entwurf von Fuzzy ANNs.
Anwendungen
- Es werden einige Beispiele von Anwendungen neuronaler Netze, ihre Vorteile und Probleme diskutiert.
TAG -2 MASCHINELLES LERNEN
- Der PAC-Lernrahmen
- Garantien für endliche Hypothesenmengen - konsistenter Fall
- Garantien für endliche Hypothesenmengen - inkonsistenter Fall
- Allgemeinheiten
- Deterministischer Lebenslauf Stochastische Szenarien
- Bayes-Fehler-Rauschen
- Schätz- und Approximationsfehler
- Modellauswahl
- Radmeacher Komplexität und VC - Dimension
- Verzerrung-Varianz-Abgleich
- Regularisierung
- Überanpassung
- Validierung
- Support-Vektor-Maschinen
- Kriging (Gaußscher Prozess Regression)
- PCA und Kernel PCA
- Selbstorganisationskarten (SOM)
- Kernel-induzierter Vektorraum
- Mercer-Kernel und Kernel-induzierte Ähnlichkeitsmetriken
- Reinforcement Learning
TAG 3 - TIEFES LERNEN
Dies wird in Verbindung mit den an Tag 1 und 2 behandelten Themen gelehrt
- Logistische und Softmax-Regression
- Sparse Autoencoder
- Vektorisierung, PCA und Aufhellung
- Selbstgesteuertes Lernen
- Tiefe Netzwerke
- Lineare Dekodierer
- Konvolution und Pooling
- Sparsame Kodierung
- Unabhängige Komponentenanalyse
- Kanonische Korrelationsanalyse
- Demos und Anwendungen
Voraussetzungen
Good Verständnis von Mathematik.
Good Verständnis grundlegender Statistik.
Grundlegende Programmierkenntnisse sind nicht erforderlich, werden aber empfohlen.
Erfahrungsberichte (2)
Working from first principles in a focused way, and moving to applying case studies within the same day
Maggie Webb - Department of Jobs, Regions, and Precincts
Kurs - Artificial Neural Networks, Machine Learning, Deep Thinking
It was very interactive and more relaxed and informal than expected. We covered lots of topics in the time and the trainer was always receptive to talking more in detail or more generally about the topics and how they were related. I feel the training has given me the tools to continue learning as opposed to it being a one off session where learning stops once you've finished which is very important given the scale and complexity of the topic.