Schulungsübersicht

TAG 1 - KÜNSTLICHE NEURONALE NETZE

Einführung und ANN-Struktur.

  • BioLogische Neuronen und künstliche Neuronen.
  • Modell eines ANNs.
  • In ANNs verwendete Aktivierungsfunktionen.
  • Typische Klassen von Netzwerkarchitekturen.

Mathematical Grundlagen und Lernmechanismen.

  • Erneute Betrachtung der Vektor- und Matrixalgebra.
  • Zustandsraum-Konzepte.
  • Konzepte der Optimierung.
  • Lernen mit Fehlerkorrektur.
  • Gedächtnisbasiertes Lernen.
  • Hebbsches Lernen.
  • Kompetitives Lernen.

Einschichtige Perzeptrons.

  • Struktur und Lernen von Perceptrons.
  • Musterklassifikator - Einführung und Bayes' Klassifikatoren.
  • Perceptron als Musterklassifikator.
  • Perceptron-Konvergenz.
  • Beschränkungen eines Perceptrons.

Feedforward ANN.

  • Strukturen von mehrschichtigen Feedforward-Netzwerken.
  • Backpropagation-Algorithmus.
  • Rückwärtspropagation - Training und Konvergenz.
  • Funktionale Approximation mit Backpropagation.
  • Praktische und gestalterische Fragen des Backpropagation-Lernens.

Radiale Basisfunktionsnetze.

  • Trennbarkeit von Mustern und Interpolation.
  • Regularisierungstheorie.
  • Regularisierung und RBF-Netze.
  • Entwurf und Training von RBF-Netzen.
  • Annäherungseigenschaften von RBF.

Kompetitives Lernen und selbstorganisierende ANN.

  • Allgemeine Clustering-Verfahren.
  • Lernende Vektorquantisierung (LVQ).
  • Algorithmen und Architekturen des kompetitiven Lernens.
  • Selbstorganisierende Merkmalskarten.
  • Eigenschaften von Merkmalskarten.

Fuzzy Neural Networks.

  • Neuro-Fuzzy-Systeme.
  • Hintergrund von Fuzzy-Mengen und Logik.
  • Entwurf von Fuzzy-Stämmen.
  • Entwurf von Fuzzy ANNs.

Anwendungen

  • Es werden einige Beispiele von Anwendungen neuronaler Netze, ihre Vorteile und Probleme diskutiert.

TAG -2 MASCHINELLES LERNEN

  • Der PAC-Lernrahmen
    • Garantien für endliche Hypothesenmengen - konsistenter Fall
    • Garantien für endliche Hypothesenmengen - inkonsistenter Fall
    • Allgemeinheiten
      • Deterministischer Lebenslauf Stochastische Szenarien
      • Bayes-Fehler-Rauschen
      • Schätz- und Approximationsfehler
      • Modellauswahl
  • Radmeacher Komplexität und VC - Dimension
  • Verzerrung-Varianz-Abgleich
  • Regularisierung
  • Überanpassung
  • Validierung
  • Support-Vektor-Maschinen
  • Kriging (Gaußscher Prozess Regression)
  • PCA und Kernel PCA
  • Selbstorganisationskarten (SOM)
  • Kernel-induzierter Vektorraum
    • Mercer-Kernel und Kernel-induzierte Ähnlichkeitsmetriken
  • Reinforcement Learning

TAG 3 - TIEFES LERNEN

Dies wird in Verbindung mit den an Tag 1 und 2 behandelten Themen gelehrt

  • Logistische und Softmax-Regression
  • Sparse Autoencoder
  • Vektorisierung, PCA und Aufhellung
  • Selbstgesteuertes Lernen
  • Tiefe Netzwerke
  • Lineare Dekodierer
  • Konvolution und Pooling
  • Sparsame Kodierung
  • Unabhängige Komponentenanalyse
  • Kanonische Korrelationsanalyse
  • Demos und Anwendungen

Voraussetzungen

Good Verständnis von Mathematik.

Good Verständnis grundlegender Statistik.

Grundlegende Programmierkenntnisse sind nicht erforderlich, werden aber empfohlen.

 21 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Erfahrungsberichte (2)

Kommende Kurse

Verwandte Kategorien