Schulungsübersicht

Einführung in Cloud Computing- und Big Data-Lösungen

Apache Hadoop Entwicklung: HDFS, MapReduce, YARN

Installation und Konfiguration von Hadoop im Pseudo-Distributionsmodus

Ausführen von MapReduce-Jobs auf Hadoop-Clustern

Planung, Installation und Konfiguration von Hadoop Clustern

Hadoop Ökosystem: Pig, Hive, Sqoop, HBase

  • Big Data Zukunft: Impala, Cassandra

Voraussetzungen

  • grundlegende Linux Verwaltungskenntnisse
  • grundlegende Programmierkenntnisse
 21 Stunden

Teilnehmerzahl


Price per participant (excl. VAT)

Erfahrungsberichte (5)

Kommende Kurse

Verwandte Kategorien