From Data to Decision with Big Data and Predictive Analytics Schulung
Publikum
Wenn Sie versuchen, aus den Daten, auf die Sie Zugriff haben, einen Sinn zu machen, oder wenn Sie unstrukturierte Daten analysieren möchten, die im Internet verfügbar sind (z. B. Twitter, Linked in usw.), ist dieser Kurs für Sie.
Es richtet sich hauptsächlich an Entscheidungsträger und Personen, die entscheiden müssen, welche Daten gesammelt und welche analysiert werden sollten.
Es richtet sich nicht an Personen, die die Lösung konfigurieren. Diese Personen werden jedoch vom Gesamtüberblick profitieren.
Lieferungsmodus
Während des Kurses werden den Teilnehmern Arbeitsbeispiele von meist Open Source-Technologien vorgestellt.
Auf kurze Vorträge folgen Präsentationen und einfache Übungen der Teilnehmer
Inhalt und verwendete Software
Die gesamte verwendete Software wird jedes Mal aktualisiert, wenn der Kurs ausgeführt wird. Wir überprüfen daher die neuesten Versionen.
Es umfasst den Prozess vom Abrufen, Formatieren, Verarbeiten und Analysieren der Daten, um zu erklären, wie der Entscheidungsprozess mit maschinellem Lernen automatisiert werden kann.
Schulungsübersicht
Schnelle Übersicht
- Daten-Quellen
- Daten im Blick
- Empfehlende Systeme
- Ziel Marketing
Datentypen
- Strukturiert vs. unstrukturiert
- Statisch vs. gestreamt
- Einstellungsdaten, Verhaltensdaten und demografische Daten
- Datengesteuerte vs. nutzergesteuerte Analytik
- Datenvalidität
- Volumen, Geschwindigkeit und Vielfalt der Daten
Modelle
- Aufbau von Modellen
- Statistische Modelle
- Maschinelles Lernen
Klassifizierung von Daten
- Clustering
- kGroups, k-means, die nächstgelegenen Nachbarn
- Ameisenkolonien, Vogelschwärme
Prädiktive Modelle
- Entscheidungsbäume
- Support-Vektor-Maschine
- Naive Bayes-Klassifizierung
- Neuronale Netze
- Markov-Modell
- Regression
- Ensemble-Methoden
ROI
- Nutzen/Kosten-Verhältnis
- Kosten der Software
- Kosten der Entwicklung
- Potenzieller Nutzen
Erstellung von Modellen
- Datenaufbereitung (MapReduce)
- Bereinigung von Daten
- Auswahl der Methoden
- Entwicklung des Modells
- Testen des Modells
- Bewertung des Modells
- Einsatz und Integration von Modellen
Überblick über Open Source und kommerzielle Software
- Auswahl von R-Projektpaketen
- Python Bibliotheken
- Hadoop und Mahout
- Ausgewählte Apache-Projekte mit Bezug zu Big Data und Analytik
- Ausgewählte kommerzielle Lösung
- Integration mit bestehender Software und Datenquellen
Voraussetzungen
Kenntnisse der traditionellen Datenverwaltungs- und Analysemethoden wie SQL, Data Warehouses, Business Intelligence, OLAP usw. Kenntnisse der grundlegenden Statistik und Wahrscheinlichkeitsrechnung (Mittelwert, Varianz, Wahrscheinlichkeit, bedingte Wahrscheinlichkeit usw. ....)
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
From Data to Decision with Big Data and Predictive Analytics Schulung - Booking
From Data to Decision with Big Data and Predictive Analytics Schulung - Enquiry
From Data to Decision with Big Data and Predictive Analytics - Beratungsanfrage
Beratungsanfrage
Erfahrungsberichte (2)
Der Inhalt, denn ich fand ihn sehr interessant und denke, dass er mir in meinem letzten Jahr an der Universität helfen wird.
Krishan - NBrown Group
Kurs - From Data to Decision with Big Data and Predictive Analytics
Maschinelle Übersetzung
Richard's training style kept it interesting, the real world examples used helped to drive the concepts home.
Jamie Martin-Royle - NBrown Group
Kurs - From Data to Decision with Big Data and Predictive Analytics
Maschinelle Übersetzung
Kommende Kurse
Kombinierte Kurse
Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
21 StundenDieser Kurs richtet sich an Entwickler und Datenwissenschaftler, die KI verstehen und in ihre Anwendungen implementieren wollen. Besonderes Augenmerk wird auf Datenanalyse, verteilte KI und natürliche Sprachverarbeitung gelegt.
Unified Batch and Stream Processing with Apache Beam
14 StundenApache Beam ist ein quelloffenes, einheitliches Programmiermodell für die Definition und Ausführung von parallelen Datenverarbeitungspipelines. Seine Stärke liegt in der Fähigkeit, sowohl Batch- als auch Streaming-Pipelines auszuführen, wobei die Ausführung von einem der von Beam unterstützten verteilten Verarbeitungs-Backends übernommen wird: Apache Apex, Apache Flink, Apache Spark, und Google Cloud Dataflow. Apache Beam ist nützlich für ETL-Aufgaben (Extrahieren, Transformieren und Laden) wie das Verschieben von Daten zwischen verschiedenen Speichermedien und Datenquellen, das Transformieren von Daten in ein gewünschtes Format und das Laden von Daten in ein neues System.
In dieser von einem Trainer geleiteten Live-Schulung (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie sie die Apache Beam-SDKs in einer Java- oder Python-Anwendung implementieren, die eine Datenverarbeitungspipeline zur Zerlegung eines großen Datensatzes in kleinere Teile für eine unabhängige, parallele Verarbeitung definiert.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Installieren und konfigurieren Apache Beam.
- ein einziges Programmiermodell zu verwenden, um sowohl Batch- als auch Stream-Verarbeitung innerhalb ihrer Java oder Python Anwendung auszuführen.
- Pipelines über mehrere Umgebungen hinweg auszuführen.
Format des Kurses
- Teilweise Vorlesung, teilweise Diskussion, Übungen und umfangreiche praktische Übungen
Hinweis
- Dieser Kurs wird in Zukunft Scala verfügbar sein. Bitte kontaktieren Sie uns zur Absprache.
Data Vault: Building a Scalable Data Warehouse
28 StundenIn dieser von einem Ausbilder geleiteten Live-Schulung in Österreich lernen die Teilnehmer, wie man ein Data Vault erstellt.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- die Architektur und die Designkonzepte hinter Data Vault 2.0 und ihre Interaktion mit Big Data, NoSQL und KI zu verstehen.
- Data Vaulting-Techniken anwenden, um Auditing, Tracing und Inspektion von historischen Daten in einem Data Warehouse zu ermöglichen.
- Entwicklung eines konsistenten und wiederholbaren ETL-Prozesses (Extract, Transform, Load).
- Aufbau und Bereitstellung hoch skalierbarer und wiederholbarer Warehouses.
Apache Flink Fundamentals
28 StundenDiese Live-Schulung in Österreich (online oder vor Ort) führt die Teilnehmer in die Prinzipien und Ansätze der verteilten Stream- und Batch-Datenverarbeitung ein und führt sie durch die Erstellung einer Echtzeit-Daten-Streaming-Anwendung in Apache Flink.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
- Eine Umgebung für die Entwicklung von Datenanalyseanwendungen einrichten.
- Verstehen, wie die graphverarbeitende Bibliothek (Gelly) von Apache Flink funktioniert.
- Flink-basierte, fehlertolerante Daten-Streaming-Anwendungen paketieren, ausführen und überwachen.
- Verschiedene Workloads verwalten.
- Fortgeschrittene Analysen durchführen.
- Einrichten eines Flink-Clusters mit mehreren Knoten.
- Messen und Optimieren der Leistung.
- Flink mit verschiedenen Big Data Systemen integrieren.
- Flink-Funktionen mit denen anderer Big-Data-Verarbeitungs-Frameworks vergleichen.
Generative & Predictive AI for Developers
21 StundenDiese von einem Trainer geleitete Live-Schulung in Österreich (online oder vor Ort) richtet sich an Entwickler auf mittlerem Niveau, die KI-gestützte Anwendungen mit Hilfe von prädiktiven Analysen und generativen Modellen erstellen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- die Grundlagen von prädiktiver KI und generativen Modellen zu verstehen.
- KI-gestützte Tools für prädiktive Kodierung, Vorhersage und Automatisierung zu nutzen.
- LLMs (Large Language Models) und Transformatoren für die Text- und Codegenerierung zu implementieren.
- Anwendung von Zeitreihenprognosen und KI-basierten Empfehlungen.
- Entwicklung und Feinabstimmung von KI-Modellen für reale Anwendungen.
- Bewertung ethischer Überlegungen und bewährter Praktiken beim Einsatz von KI.
Introduction to Graph Computing
28 StundenIn dieser von einem Trainer geleiteten Live-Schulung in Österreich lernen die Teilnehmer die Technologieangebote und Implementierungsansätze für die Verarbeitung von Graphdaten kennen. Ziel ist es, Objekte der realen Welt, ihre Eigenschaften und Beziehungen zu identifizieren, diese Beziehungen zu modellieren und sie als Daten mit einem Graph Computing (auch bekannt als Graph Analytics) Ansatz zu verarbeiten. Wir beginnen mit einem breiten Überblick und konzentrieren uns auf spezifische Tools, während wir eine Reihe von Fallstudien, praktischen Übungen und Live-Einsätzen durchführen.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein
- Verstehen, wie Graphdaten persistiert und durchlaufen werden.
- das beste Framework für eine bestimmte Aufgabe auszuwählen (von Graphdatenbanken bis hin zu Stapelverarbeitungs-Frameworks).
- Implementierung von Hadoop, Spark, GraphX und Pregel, um Graphenberechnungen auf vielen Rechnern parallel durchzuführen.
- Big-Data-Probleme aus der realen Welt in Form von Graphen, Prozessen und Traversalen zu betrachten.
Hortonworks Data Platform (HDP) for Administrators
21 StundenDiese Live-Schulung mit Kursleiter in Österreich (online oder vor Ort) führt die Teilnehmer in die Hortonworks Data Platform (HDP) ein und begleitet sie durch den Einsatz der Spark + Hadoop Lösung.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Hortonworks verwenden, um Hadoop in großem Maßstab zuverlässig auszuführen.
- Die Sicherheits-, Governance- und Betriebsfunktionen von Hadoop mit den agilen analytischen Workflows von Spark zu vereinen.
- Verwenden Sie Hortonworks, um jede Komponente in einem Spark-Projekt zu untersuchen, zu validieren, zu zertifizieren und zu unterstützen.
- Verarbeiten Sie verschiedene Datentypen, einschließlich strukturierter und unstrukturierter Daten sowie Daten in Bewegung und im Ruhezustand.
Introduction to Predictive AI
21 StundenDiese von einem Trainer geleitete Live-Schulung in Österreich (online oder vor Ort) richtet sich an IT-Anfänger, die die Grundlagen der prädiktiven KI kennenlernen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Kernkonzepte von Predictive AI und ihre Anwendungen zu verstehen.
- Daten für die prädiktive Analyse sammeln, bereinigen und vorverarbeiten.
- Daten zu erforschen und zu visualisieren, um Erkenntnisse zu gewinnen.
- Grundlegende statistische Modelle zu erstellen, um Vorhersagen zu treffen.
- Bewertung der Leistung von Vorhersagemodellen.
- Anwendung von Predictive AI-Konzepten auf reale Szenarien.
Confluent KSQL
7 StundenDiese von einem Kursleiter geleitete Live-Schulung in Österreich (online oder vor Ort) richtet sich an Entwickler, die Apache Kafka Stream Processing implementieren möchten, ohne Code zu schreiben.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
- Confluent KSQL zu installieren und zu konfigurieren.
- eine Stream-Processing-Pipeline nur mit SQL-Befehlen einzurichten (keine Java- oder Python-Codierung).
- Datenfilterung, Transformationen, Aggregationen, Joins, Windowing und Sessionization vollständig in SQL durchzuführen.
- Interaktive, kontinuierliche Abfragen für Streaming ETL und Echtzeit-Analysen entwerfen und einsetzen.
Apache NiFi for Administrators
21 StundenIn dieser von einem Ausbilder geleiteten Live-Schulung in Österreich (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie sie Apache NiFi in einer Live-Laborumgebung einsetzen und verwalten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Apachi NiFi zu installieren und zu konfigurieren.
- Daten aus unterschiedlichen, verteilten Datenquellen, einschließlich Datenbanken und Big Data Lakes, zu beschaffen, umzuwandeln und zu verwalten.
- Datenflüsse zu automatisieren.
- Streaming-Analysen zu ermöglichen.
- Wenden Sie verschiedene Ansätze für die Datenerfassung an.
- Transformieren Sie Big Data und in Geschäftseinblicke.
Apache NiFi for Developers
7 StundenIn dieser Live-Schulung unter Anleitung in Österreich lernen die Teilnehmer die Grundlagen der ablaufbasierten Programmierung, während sie eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren mit Apache NiFi entwickeln.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein:
- Die Architektur von NiFi und Datenflusskonzepte zu verstehen.
- Erweiterungen mit NiFi und APIs von Drittanbietern zu entwickeln.
- Ihren eigenen Apache-NiFi-Prozessor zu entwickeln.
- Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen einlesen und verarbeiten.
Predictive AI in DevOps: Enhancing Software Delivery
14 StundenDiese von einem Trainer geleitete Live-Schulung in Österreich (online oder vor Ort) richtet sich an fortgeschrittene DevOps-Fachleute, die prädiktive KI in ihre DevOps-Praxis integrieren möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Predictive-Analytics-Modelle zur Vorhersage und Lösung von Herausforderungen in der DevOps-Pipeline zu implementieren.
- KI-gesteuerte Tools für eine verbesserte Überwachung und den Betrieb zu nutzen.
- Techniken des maschinellen Lernens anwenden, um die Arbeitsabläufe bei der Softwarebereitstellung zu verbessern.
- Entwurf von KI-Strategien für die proaktive Problemlösung und Optimierung.
- Sich mit den ethischen Aspekten des Einsatzes von KI in DevOps auseinandersetzen.
Python and Spark for Big Data (PySpark)
21 StundenIn dieser von einem Trainer geleiteten Live-Schulung in Österreich lernen die Teilnehmer anhand praktischer Übungen, wie sie Python und Spark gemeinsam zur Analyse von Big Data einsetzen können.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Lernen, wie man Spark mit Python verwendet, um Big Data zu analysieren.
- An Übungen arbeiten, die reale Fälle nachahmen.
- Verschiedene Tools und Techniken für die Big-Data-Analyse mit PySpark verwenden.
Spark Streaming with Python and Kafka
7 StundenDiese von einem Kursleiter geleitete Live-Schulung in Österreich (online oder vor Ort) richtet sich an Dateningenieure, Datenwissenschaftler und Programmierer, die die Funktionen von Spark Streaming zur Verarbeitung und Analyse von Echtzeitdaten nutzen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein, mit Spark Streaming Live-Datenströme zur Verwendung in Datenbanken, Dateisystemen und Live-Dashboards zu verarbeiten.
Apache Spark MLlib
35 StundenMLlib ist die ML-Bibliothek (Machine Learning) von Spark. Ziel ist es, praktisches maschinelles Lernen skalierbar und einfach zu machen. Es besteht aus allgemeinen Lernalgorithmen und Dienstprogrammen, einschließlich Klassifizierung, Regression, Clustering, kollaborativer Filterung, Dimensionsreduzierung sowie Optimierungsprimitiven auf niedrigerer Ebene und Pipeline-APIs auf höherer Ebene.
Es teilt sich in zwei Pakete:
spark.mllib enthält die ursprüngliche API, die auf RDDs basiert.
spark.ml bietet eine API auf höherer Ebene, die auf DataFrames zum Erstellen von ML-Pipelines basiert.
Publikum
Dieser Kurs richtet sich an Ingenieure und Entwickler, die eine integrierte Maschinenbibliothek für Apache Spark