Schulungsübersicht

Einführung

  • Überblick über Spark und Hadoop Funktionen und Architektur
  • Verstehen von Big Data
  • Python Grundlagen der Programmierung

Erste Schritte

  • Einrichten von Python, Spark und Hadoop
  • Verstehen der Datenstrukturen in Python
  • Verstehen der PySpark API
  • Verstehen von HDFS und MapReduce

Integrieren von Spark und Hadoop mit Python

  • Implementierung von Spark RDD in Python
  • Datenverarbeitung mit MapReduce
  • Erstellen von verteilten Datensätzen in HDFS

Machine Learning mit Spark MLlib

Verarbeitung von Big Data mit Spark Streaming

Arbeiten mit Recommender Systems

Arbeiten mit Kafka, Sqoop, Kafka und Flume

Apache Mahout mit Spark und Hadoop

Fehlersuche

Zusammenfassung und nächste Schritte

Voraussetzungen

  • Erfahrung mit Spark und Hadoop
  • Python Programmiererfahrung

Zielgruppe

  • Datenwissenschaftler
  • Entwickler
 21 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Erfahrungsberichte (3)

Kommende Kurse

Verwandte Kategorien