Von Lehrern geleitete Live-Stream-Processing-Schulungen online oder vor Ort veranschaulichen durch interaktive Diskussionen und praktische Übungen die Grundlagen und fortgeschrittenen Themen der Stream-Verarbeitung. Die Stream-Processing-Schulung ist als „Online-Live-Schulung“ oder „Vor-Ort-Live-Schulung“ verfügbar. Das Online-Live-Training (auch „Remote-Live-Training“) wird über einen interaktiven Remote-Desktop durchgeführt. Live-Schulungen vor Ort können vor Ort beim Kunden in Innsbruck oder in den NobleProg-Schulungszentren in Innsbruck durchgeführt werden. NobleProg – Ihr lokaler Schulungsanbieter
NobleProg Innsbruck
Valiergasse 58, Innsbruck, Austria, 6020
Überblick
Unsere Schulungsräumlichkeiten befinden sich in der Valiergasse 58 in Innsbruck und bieten optimale Trainingsbedingungen für Ihre Bedürfnisse.
Anfahrt
Die NobleProg-Schulungsräumlichkeiten liegen verkehrsgünstig nahe des Hauptbahnhofs, die Autobahnen A12 und A13 sind gut erreichbar.
Parkplätze
Rund um unsere Schulungsräume gibt es in den umliegenden Straßen Parkmöglichkeiten.
Lokale Infrastruktur
Im Bereich der Innenstadt gibt es zahlreiche Restaurants und auch Hotels sind in Laufnähe.
Apache Beam ist ein quelloffenes, einheitliches Programmiermodell für die Definition und Ausführung von parallelen Datenverarbeitungspipelines. Seine Stärke liegt in der Fähigkeit, sowohl Batch- als auch Streaming-Pipelines auszuführen, wobei die Ausführung von einem der von Beam unterstützten verteilten Verarbeitungs-Backends übernommen wird: Apache Apex, Apache Flink, Apache Spark, und Google Cloud Dataflow. Apache Beam ist nützlich für ETL-Aufgaben (Extrahieren, Transformieren und Laden) wie das Verschieben von Daten zwischen verschiedenen Speichermedien und Datenquellen, das Transformieren von Daten in ein gewünschtes Format und das Laden von Daten in ein neues System.
In dieser von einem Trainer geleiteten Live-Schulung (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie sie die Apache Beam-SDKs in einer Java- oder Python-Anwendung implementieren, die eine Datenverarbeitungspipeline zur Zerlegung eines großen Datensatzes in kleinere Teile für eine unabhängige, parallele Verarbeitung definiert.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
Installieren und konfigurieren Apache Beam.
ein einziges Programmiermodell zu verwenden, um sowohl Batch- als auch Stream-Verarbeitung innerhalb ihrer Java oder Python Anwendung auszuführen.
Pipelines über mehrere Umgebungen hinweg auszuführen.
Format des Kurses
Teilweise Vorlesung, teilweise Diskussion, Übungen und umfangreiche praktische Übungen
Hinweis
Dieser Kurs wird in Zukunft Scala verfügbar sein. Bitte kontaktieren Sie uns zur Absprache.
Diese Live-Schulung (vor Ort oder per Fernzugriff) richtet sich an Techniker, die Confluent (eine Distribution von Kafka) verwenden möchten, um eine Echtzeit-Datenverarbeitungsplattform für ihre Anwendungen zu erstellen und zu verwalten.
Am Ende dieser Schulung können die Teilnehmer:
Installieren und konfigurieren Sie Confluent Platform.
Verwenden Sie die Verwaltungstools und -dienste von Confluent, um Kafka einfacher auszuführen.
Speichern und verarbeiten Sie eingehende Stream-Daten.
Optimieren und verwalten Sie Kafka-Cluster.
Sichere Datenströme.
Format des Kurses
Interaktiver Vortrag und Diskussion.
Viele Übungen und Übungen.
Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
Dieser Kurs basiert auf der Open Source-Version von Confluent: Confluent Open Source.
Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
Diese Live-Schulung in Innsbruck (online oder vor Ort) führt die Teilnehmer in die Prinzipien und Ansätze der verteilten Stream- und Batch-Datenverarbeitung ein und führt sie durch die Erstellung einer Echtzeit-Daten-Streaming-Anwendung in Apache Flink.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
Eine Umgebung für die Entwicklung von Datenanalyseanwendungen einrichten.
Verstehen, wie die graphverarbeitende Bibliothek (Gelly) von Apache Flink funktioniert.
Flink-basierte, fehlertolerante Daten-Streaming-Anwendungen paketieren, ausführen und überwachen.
Verschiedene Workloads verwalten.
Fortgeschrittene Analysen durchführen.
Einrichten eines Flink-Clusters mit mehreren Knoten.
Messen und Optimieren der Leistung.
Flink mit verschiedenen Big Data Systemen integrieren.
Flink-Funktionen mit denen anderer Big-Data-Verarbeitungs-Frameworks vergleichen.
In dieser von einem Trainer geleiteten Live-Schulung (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie sie verschiedene Stream Processing Frameworks mit bestehenden Big-Data-Speichersystemen und zugehörigen Softwareanwendungen und Microservices einrichten und integrieren können.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
Installieren und Konfigurieren verschiedener Stream Processing Frameworks, wie Spark Streaming und Kafka Streaming.
Das am besten geeignete Framework für die jeweilige Aufgabe verstehen und auswählen.
Daten kontinuierlich, gleichzeitig und Datensatz für Datensatz verarbeiten.
Lösungen mit bestehenden Datenbanken, Data Warehouses, Data Lakes usw. integrieren Stream Processing.
Integrieren Sie die am besten geeignete Stream-Processing-Bibliothek in Unternehmensanwendungen und Microservices.
Diese von einem Kursleiter geleitete Live-Schulung in Innsbruck (online oder vor Ort) richtet sich an Dateningenieure, Datenwissenschaftler und Programmierer, die die Apache Kafka-Funktionen in Datenströmen mit Python nutzen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein, Apache Kafka zur Überwachung und Verwaltung von Bedingungen in kontinuierlichen Datenströmen mit Python-Programmierung zu verwenden.
Kafka Streams ist eine clientseitige Bibliothek zum Erstellen von Anwendungen und Mikrodiensten, deren Daten an ein und von einem Kafka-Messagingsystem übertragen werden. Traditionell hat sich Apache Kafka auf Apache Spark oder Apache Storm , um Daten zwischen Nachrichtenproduzenten und -konsumenten zu verarbeiten. Durch Aufrufen der Kafka Streams-API aus einer Anwendung heraus können Daten direkt in Kafka verarbeitet werden, ohne dass die Daten zur Verarbeitung an einen separaten Cluster gesendet werden müssen.
In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie Kafka-Streams in eine Reihe von Java Beispielanwendungen integrieren, die Daten zur Stream-Verarbeitung an Apache Kafka und von diesem weitergeben.
Am Ende dieser Schulung können die Teilnehmer:
Verstehen der Funktionen und Vorteile von Kafka Streams gegenüber anderen Frameworks für die Stream-Verarbeitung
Verarbeiten Sie Stream-Daten direkt in einem Kafka-Cluster
Schreiben Sie eine Java oder Scala Anwendung oder einen Microservice, der sich in Kafka und Kafka Streams integrieren lässt
Schreiben Sie prägnanten Code, der Eingabe-Kafka-Themen in Ausgabe-Kafka-Themen umwandelt
Erstellen, packen und implementieren Sie die Anwendung
Publikum
Entwickler
Format des Kurses
Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Anmerkungen
Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren
Diese von einem Kursleiter geleitete Live-Schulung in Innsbruck (online oder vor Ort) richtet sich an Entwickler, die Apache Kafka Stream Processing implementieren möchten, ohne Code zu schreiben.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
Confluent KSQL zu installieren und zu konfigurieren.
eine Stream-Processing-Pipeline nur mit SQL-Befehlen einzurichten (keine Java- oder Python-Codierung).
Datenfilterung, Transformationen, Aggregationen, Joins, Windowing und Sessionization vollständig in SQL durchzuführen.
Interaktive, kontinuierliche Abfragen für Streaming ETL und Echtzeit-Analysen entwerfen und einsetzen.
In dieser von einem Ausbilder geleiteten Live-Schulung in Innsbruck (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie sie Apache NiFi in einer Live-Laborumgebung einsetzen und verwalten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
Apachi NiFi zu installieren und zu konfigurieren.
Daten aus unterschiedlichen, verteilten Datenquellen, einschließlich Datenbanken und Big Data Lakes, zu beschaffen, umzuwandeln und zu verwalten.
Datenflüsse zu automatisieren.
Streaming-Analysen zu ermöglichen.
Wenden Sie verschiedene Ansätze für die Datenerfassung an.
Transformieren Sie Big Data und in Geschäftseinblicke.
In dieser Live-Schulung unter Anleitung in Innsbruck lernen die Teilnehmer die Grundlagen der ablaufbasierten Programmierung, während sie eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren mit Apache NiFi entwickeln.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein:
Die Architektur von NiFi und Datenflusskonzepte zu verstehen.
Erweiterungen mit NiFi und APIs von Drittanbietern zu entwickeln.
Ihren eigenen Apache-NiFi-Prozessor zu entwickeln.
Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen einlesen und verarbeiten.
Diese von einem Kursleiter geleitete Live-Schulung in Innsbruck (online oder vor Ort) richtet sich an Dateningenieure, Datenwissenschaftler und Programmierer, die die Funktionen von Spark Streaming zur Verarbeitung und Analyse von Echtzeitdaten nutzen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein, mit Spark Streaming Live-Datenströme zur Verwendung in Datenbanken, Dateisystemen und Live-Dashboards zu verarbeiten.
Read more...
Last Updated:
Erfahrungsberichte (4)
Genügend praktische Umsetzung, der Trainer ist kompetent
Chris Tan
Kurs - A Practical Introduction to Stream Processing
Maschinelle Übersetzung
Während der Übungen erklärte James mir jeden Schritt detaillierter, wo immer ich festsaß. Ich war komplett neu in NIFI. Er erläuterte den tatsächlichen Zweck von NIFI, sogar die Grundlagen wie Open Source. Er ging alle Konzepte von NIFI von Anfänger- bis Entwickler-Level durch.
Firdous Hashim Ali - MOD A BLOCK
Kurs - Apache NiFi for Administrators
Maschinelle Übersetzung
Dass ich es überhaupt hatte.
Peter Scales - CACI Ltd
Kurs - Apache NiFi for Developers
Maschinelle Übersetzung
Wiederholung/Betrachtung der wesentlichen Punkte der besprochenen Themen.
Paolo Angelo Gaton - SMS Global Technologies Inc.
Kurs - Building Stream Processing Applications with Kafka Streams