Apache Kafka for Python Programmers Schulung
Apache Kafka ist eine quelloffene Stream-Processing-Plattform, die eine schnelle, zuverlässige und latenzarme Plattform für die Verarbeitung von Echtzeitdatenanalysen bietet. Apache Kafka kann mit verfügbaren Programmiersprachen wie Python integriert werden.
Diese von einem Trainer geleitete Live-Schulung (online oder vor Ort) richtet sich an Dateningenieure, Datenwissenschaftler und Programmierer, die die Funktionen von Apache Kafka beim Daten-Streaming mit Python nutzen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein, Apache Kafka zur Überwachung und Verwaltung von Bedingungen in kontinuierlichen Datenströmen mit Python-Programmierung zu verwenden.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Praktische Umsetzung in einer Live-Laborumgebung.
Optionen zur Kursanpassung
- Wenn Sie eine maßgeschneiderte Schulung für diesen Kurs wünschen, nehmen Sie bitte Kontakt mit uns auf, um dies zu vereinbaren.
Schulungsübersicht
Einführung
Überblick über Apache Kafka Funktionen und Architektur für Python
- Kern-APIs (Producer, Consumer, Streams, Connector)
- Konzepte und Anwendungen
Accessing Kafka in Python
- Verfügbare Python-Bibliotheken zur Verwendung
- Unterstützte Komprimierungsformate
Installieren Apache Kafka
- Computer-Installation
- Installation von virtuellen privaten Servern und virtuellen Maschinen
Starten von Kafka Broker Server
- Lesen und Bearbeiten mit einer IDE (Integrierte Entwicklungsumgebung)
- Ausführen von Zookeeper
- Ordner "Logs
Erstellen eines Kafka-Topics
- Verbinden mit einem Kafka-Cluster
- Lesen von Topic-Details
Versenden von Nachrichten mit Producern
- Initiieren eines Producers
- Prüfen eingehender Nachrichten
- Ausführen mehrerer Producer
Nachrichten konsumieren
- Kafka-Konsole Verbraucher
- Ausführen mehrerer Consumer
Fehlersuche
Zusammenfassung und Fazit
Voraussetzungen
- Erfahrung mit der Python-Programmiersprache
- Vertrautheit mit Stream-Processing-Plattformen
Zielgruppe
- Daten-Ingenieure
- Datenwissenschaftler
- Programmierer
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
Apache Kafka for Python Programmers Schulung - Booking
Apache Kafka for Python Programmers Schulung - Enquiry
Apache Kafka for Python Programmers - Beratungsanfrage
Beratungsanfrage
Erfahrungsberichte (5)
Genügend praktische Umsetzung, der Trainer ist kompetent
Chris Tan
Kurs - A Practical Introduction to Stream Processing
Maschinelle Übersetzung
Während der Übungen erklärte James mir jeden Schritt detaillierter, wo immer ich festsaß. Ich war komplett neu in NIFI. Er erläuterte den tatsächlichen Zweck von NIFI, sogar die Grundlagen wie Open Source. Er ging alle Konzepte von NIFI von Anfänger- bis Entwickler-Level durch.
Firdous Hashim Ali - MOD A BLOCK
Kurs - Apache NiFi for Administrators
Maschinelle Übersetzung
Sehr gute Fähigkeiten, Beispiele, sehr gute Übungen
Marek Konieczny - G2A.COM Limited
Kurs - Kafka for Administrators
Maschinelle Übersetzung
Dass ich es überhaupt hatte.
Peter Scales - CACI Ltd
Kurs - Apache NiFi for Developers
Maschinelle Übersetzung
Wiederholung/Betrachtung der wesentlichen Punkte der besprochenen Themen.
Paolo Angelo Gaton - SMS Global Technologies Inc.
Kurs - Building Stream Processing Applications with Kafka Streams
Maschinelle Übersetzung
Kommende Kurse
Kombinierte Kurse
Apache Kafka Connect
7 StundenDiese von einem Ausbilder geleitete Live-Schulung (online oder vor Ort) richtet sich an Entwickler, die Apache Kafka in bestehende Datenbanken und Anwendungen zur Verarbeitung, Analyse usw. integrieren möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Nutzen Sie Kafka Connect, um große Datenmengen aus einer Datenbank in Kafka-Themen aufzunehmen.
- Protokolldaten, die von einem Anwendungsserver generiert werden, in Kafka-Themen aufnehmen.
- Die gesammelten Daten für die Stream-Verarbeitung verfügbar machen.
- Daten aus Kafka-Themen in sekundäre Systeme zur Speicherung und Analyse exportieren.
Unified Batch and Stream Processing with Apache Beam
14 StundenApache Beam ist ein quelloffenes, einheitliches Programmiermodell für die Definition und Ausführung von parallelen Datenverarbeitungspipelines. Seine Stärke liegt in der Fähigkeit, sowohl Batch- als auch Streaming-Pipelines auszuführen, wobei die Ausführung von einem der von Beam unterstützten verteilten Verarbeitungs-Backends übernommen wird: Apache Apex, Apache Flink, Apache Spark, und Google Cloud Dataflow. Apache Beam ist nützlich für ETL-Aufgaben (Extrahieren, Transformieren und Laden) wie das Verschieben von Daten zwischen verschiedenen Speichermedien und Datenquellen, das Transformieren von Daten in ein gewünschtes Format und das Laden von Daten in ein neues System.
In dieser von einem Trainer geleiteten Live-Schulung (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie sie die Apache Beam-SDKs in einer Java- oder Python-Anwendung implementieren, die eine Datenverarbeitungspipeline zur Zerlegung eines großen Datensatzes in kleinere Teile für eine unabhängige, parallele Verarbeitung definiert.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Installieren und konfigurieren Apache Beam.
- ein einziges Programmiermodell zu verwenden, um sowohl Batch- als auch Stream-Verarbeitung innerhalb ihrer Java oder Python Anwendung auszuführen.
- Pipelines über mehrere Umgebungen hinweg auszuführen.
Format des Kurses
- Teilweise Vorlesung, teilweise Diskussion, Übungen und umfangreiche praktische Übungen
Hinweis
- Dieser Kurs wird in Zukunft Scala verfügbar sein. Bitte kontaktieren Sie uns zur Absprache.
Building Kafka Solutions with Confluent
14 StundenDiese Live-Schulung (vor Ort oder per Fernzugriff) richtet sich an Techniker, die Confluent (eine Distribution von Kafka) verwenden möchten, um eine Echtzeit-Datenverarbeitungsplattform für ihre Anwendungen zu erstellen und zu verwalten.
Am Ende dieser Schulung können die Teilnehmer:
- Installieren und konfigurieren Sie Confluent Platform.
- Verwenden Sie die Verwaltungstools und -dienste von Confluent, um Kafka einfacher auszuführen.
- Speichern und verarbeiten Sie eingehende Stream-Daten.
- Optimieren und verwalten Sie Kafka-Cluster.
- Sichere Datenströme.
Format des Kurses
- Interaktiver Vortrag und Diskussion.
- Viele Übungen und Übungen.
- Praktische Implementierung in einer Live-Laborumgebung.
Anpassungsoptionen für den Kurs
- Dieser Kurs basiert auf der Open Source-Version von Confluent: Confluent Open Source.
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren.
Building Data Pipelines with Apache Kafka
7 StundenApache Kafka ist eine verteilte Streaming-Plattform. Es ist de facto ein Standard für den Bau von Datenpipelines und löst viele verschiedene Anwendungsfälle im Bereich der Datenverarbeitung: Es kann als Nachrichtenwarteschlange, verteiltes Protokoll, Stream-Prozessor usw. verwendet werden.
Wir beginnen mit einer Theorie hinter Daten-Pipelines im Allgemeinen und fahren dann mit grundlegenden Konzepten hinter Kafka fort. Wir werden auch wichtige Komponenten wie Kafka Streams und Kafka Connect entdecken.
Apache Flink Fundamentals
28 StundenDiese Live-Schulung in Schweiz (online oder vor Ort) führt die Teilnehmer in die Prinzipien und Ansätze der verteilten Stream- und Batch-Datenverarbeitung ein und führt sie durch die Erstellung einer Echtzeit-Daten-Streaming-Anwendung in Apache Flink.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
- Eine Umgebung für die Entwicklung von Datenanalyseanwendungen einrichten.
- Verstehen, wie die graphverarbeitende Bibliothek (Gelly) von Apache Flink funktioniert.
- Flink-basierte, fehlertolerante Daten-Streaming-Anwendungen paketieren, ausführen und überwachen.
- Verschiedene Workloads verwalten.
- Fortgeschrittene Analysen durchführen.
- Einrichten eines Flink-Clusters mit mehreren Knoten.
- Messen und Optimieren der Leistung.
- Flink mit verschiedenen Big Data Systemen integrieren.
- Flink-Funktionen mit denen anderer Big-Data-Verarbeitungs-Frameworks vergleichen.
A Practical Introduction to Stream Processing
21 StundenIn dieser von einem Trainer geleiteten Live-Schulung (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie sie verschiedene Stream Processing Frameworks mit bestehenden Big-Data-Speichersystemen und zugehörigen Softwareanwendungen und Microservices einrichten und integrieren können.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Installieren und Konfigurieren verschiedener Stream Processing Frameworks, wie Spark Streaming und Kafka Streaming.
- Das am besten geeignete Framework für die jeweilige Aufgabe verstehen und auswählen.
- Daten kontinuierlich, gleichzeitig und Datensatz für Datensatz verarbeiten.
- Lösungen mit bestehenden Datenbanken, Data Warehouses, Data Lakes usw. integrieren Stream Processing.
- Integrieren Sie die am besten geeignete Stream-Processing-Bibliothek in Unternehmensanwendungen und Microservices.
Distributed Messaging with Apache Kafka
14 StundenDieser Kurs richtet sich an Unternehmensarchitekten, Entwickler, Systemadministratoren und alle, die ein verteiltes Messagingsystem mit hohem Durchsatz verstehen und verwenden möchten. Wenn Sie spezifischere Anforderungen haben (z. B. nur Systemadministration), kann dieser Kurs besser auf Ihre Bedürfnisse zugeschnitten werden.
Kafka for Administrators
21 StundenDiese von einem Trainer geleitete Live-Schulung (online oder vor Ort) richtet sich an Systemadministratoren, die einen unternehmenstauglichen Kafka-Cluster einrichten, bereitstellen, verwalten und optimieren möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Einrichten und Verwalten eines Kafka-Clusters.
- Die Vor- und Nachteile der Bereitstellung von Kafka vor Ort und in der Cloud abwägen.
- Kafka in verschiedenen On-Premise- und Cloud-Umgebungen mit Hilfe von Tools bereitstellen und überwachen.
Stream Processing with Kafka Streams
7 StundenKafka Streams ist eine clientseitige Bibliothek zum Erstellen von Anwendungen und Mikrodiensten, deren Daten an ein und von einem Kafka-Messagingsystem übertragen werden. Traditionell hat sich Apache Kafka auf Apache Spark oder Apache Storm , um Daten zwischen Nachrichtenproduzenten und -konsumenten zu verarbeiten. Durch Aufrufen der Kafka Streams-API aus einer Anwendung heraus können Daten direkt in Kafka verarbeitet werden, ohne dass die Daten zur Verarbeitung an einen separaten Cluster gesendet werden müssen.
In diesem von Lehrern geführten Live-Training lernen die Teilnehmer, wie sie Kafka-Streams in eine Reihe von Java Beispielanwendungen integrieren, die Daten zur Stream-Verarbeitung an Apache Kafka und von diesem weitergeben.
Am Ende dieser Schulung können die Teilnehmer:
- Verstehen der Funktionen und Vorteile von Kafka Streams gegenüber anderen Frameworks für die Stream-Verarbeitung
- Verarbeiten Sie Stream-Daten direkt in einem Kafka-Cluster
- Schreiben Sie eine Java oder Scala Anwendung oder einen Microservice, der sich in Kafka und Kafka Streams integrieren lässt
- Schreiben Sie prägnanten Code, der Eingabe-Kafka-Themen in Ausgabe-Kafka-Themen umwandelt
- Erstellen, packen und implementieren Sie die Anwendung
Publikum
- Entwickler
Format des Kurses
- Teilvorlesung, Teildiskussion, Übungen und viel praktisches Üben
Anmerkungen
- Um ein individuelles Training für diesen Kurs anzufordern, kontaktieren Sie uns bitte, um dies zu arrangieren
Confluent KSQL
7 StundenDiese von einem Kursleiter geleitete Live-Schulung in Schweiz (online oder vor Ort) richtet sich an Entwickler, die Apache Kafka Stream Processing implementieren möchten, ohne Code zu schreiben.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
- Confluent KSQL zu installieren und zu konfigurieren.
- eine Stream-Processing-Pipeline nur mit SQL-Befehlen einzurichten (keine Java- oder Python-Codierung).
- Datenfilterung, Transformationen, Aggregationen, Joins, Windowing und Sessionization vollständig in SQL durchzuführen.
- Interaktive, kontinuierliche Abfragen für Streaming ETL und Echtzeit-Analysen entwerfen und einsetzen.
Apache NiFi for Administrators
21 StundenIn dieser von einem Ausbilder geleiteten Live-Schulung in Schweiz (vor Ort oder per Fernzugriff) lernen die Teilnehmer, wie sie Apache NiFi in einer Live-Laborumgebung einsetzen und verwalten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Apachi NiFi zu installieren und zu konfigurieren.
- Daten aus unterschiedlichen, verteilten Datenquellen, einschließlich Datenbanken und Big Data Lakes, zu beschaffen, umzuwandeln und zu verwalten.
- Datenflüsse zu automatisieren.
- Streaming-Analysen zu ermöglichen.
- Wenden Sie verschiedene Ansätze für die Datenerfassung an.
- Transformieren Sie Big Data und in Geschäftseinblicke.
Apache NiFi for Developers
7 StundenIn dieser Live-Schulung unter Anleitung in Schweiz lernen die Teilnehmer die Grundlagen der ablaufbasierten Programmierung, während sie eine Reihe von Demo-Erweiterungen, Komponenten und Prozessoren mit Apache NiFi entwickeln.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein:
- Die Architektur von NiFi und Datenflusskonzepte zu verstehen.
- Erweiterungen mit NiFi und APIs von Drittanbietern zu entwickeln.
- Ihren eigenen Apache-NiFi-Prozessor zu entwickeln.
- Echtzeitdaten aus unterschiedlichen und ungewöhnlichen Dateiformaten und Datenquellen einlesen und verarbeiten.
Spark Streaming with Python and Kafka
7 StundenDiese von einem Kursleiter geleitete Live-Schulung in Schweiz (online oder vor Ort) richtet sich an Dateningenieure, Datenwissenschaftler und Programmierer, die die Funktionen von Spark Streaming zur Verarbeitung und Analyse von Echtzeitdaten nutzen möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein, mit Spark Streaming Live-Datenströme zur Verwendung in Datenbanken, Dateisystemen und Live-Dashboards zu verarbeiten.