Apache Iceberg Fundamentals Schulung
Apache Iceberg ist ein Open-Source-Tabellenformat für große Datensätze, das die Zuverlässigkeit und Einfachheit von SQL-Tabellen auf Big Data überträgt. Es wurde entwickelt, um die Herausforderungen bei der Verwaltung von Big Data in Data Lakes zu lösen, die oft den Umgang mit komplexen Schemata, großen Dateien und unterschiedlichen Datenquellen beinhalten.
Diese von einem Trainer geleitete Live-Schulung (online oder vor Ort) richtet sich an Datenexperten auf Anfängerniveau, die sich das Wissen und die Fähigkeiten aneignen möchten, die erforderlich sind, um Apache Iceberg effektiv für die Verwaltung großer Datenmengen, die Sicherstellung der Datenintegrität und die Optimierung von Datenverarbeitungsworkflows zu nutzen.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein:
- Ein gründliches Verständnis der Architektur, der Funktionen und der Vorteile von Apache Iceberg erlangen.
- Sie lernen Tabellenformate, Partitionierung, Schemaentwicklung und Zeitreisefähigkeiten kennen.
- Apache Iceberg in verschiedenen Umgebungen zu installieren und zu konfigurieren.
- Erstellen, Verwalten und Manipulieren von Iceberg-Tabellen.
- Den Prozess der Migration von Daten aus anderen Tabellenformaten nach Iceberg verstehen.
Format des Kurses
- Interaktive Vorlesung und Diskussion.
- Viele Übungen und Praxis.
- Praktische Umsetzung in einer Live-Laborumgebung.
Optionen zur Kursanpassung
- Wenn Sie eine maßgeschneiderte Schulung für diesen Kurs wünschen, nehmen Sie bitte Kontakt mit uns auf, um dies zu vereinbaren.
Schulungsübersicht
Einführung in Apache Iceberg
- Überblick über Apache Iceberg
- Bedeutung und Anwendungsfälle in der modernen Datenarchitektur
- Hauptmerkmale und Vorteile
Kern-Konzepte
- Iceberg-Tabellenformat und -Architektur
- Vergleich mit anderen Tabellenformaten
- Partitionierung und Schemaentwicklung
- Zeitreise und Datenversionierung
Einrichten von Apache Iceberg
- Installation und Konfiguration
- Integration von Iceberg mit verschiedenen Datenverarbeitungsmaschinen
- Einrichten einer Iceberg-Umgebung auf einem lokalen Rechner
Grundlegende Operationen
- Erstellen und Verwalten von Iceberg-Tabellen
- Schreiben in und Lesen aus Iceberg-Tabellen
- Grundlegende CRUD-Operationen
Datenmigration und -integration
- Migration von Daten aus Hive und anderen Systemen nach Iceberg
- Integration mit BI-Werkzeugen
- Migrieren eines Beispieldatensatzes nach Iceberg
Optimierung der Leistung
- Techniken zur Leistungsoptimierung
- Optimierung von Abfragen und Datenscans
- Leistungsoptimierung in Iceberg
Überblick über die erweiterten Funktionen
- Partitionsentwicklung und versteckte Partitionierung
- Tabellenentwicklung und Schemaänderungen
- Zeitreise- und Rollback-Funktionen
- Implementierung von erweiterten Funktionen in Iceberg
Zusammenfassung und nächste Schritte
Voraussetzungen
- Vertrautheit mit Konzepten wie Tabellen, Schemata, Partitionen und Dateneingabe
- Grundlegende Kenntnisse über SQL
Zielgruppe
- Dateningenieure
- Datenarchitekten
- Datenanalysten
- Software-Entwickler
Offene Schulungskurse erfordern mindestens 5 Teilnehmer.
Apache Iceberg Fundamentals Schulung - Booking
Apache Iceberg Fundamentals Schulung - Enquiry
Apache Iceberg Fundamentals - Beratungsanfrage
Beratungsanfrage
Erfahrungsberichte (3)
Der Trainer hatte ein gutes Verständnis für die Konzepte
Josheel - Verizon Connect
Kurs - Amazon Redshift
Maschinelle Übersetzung
analytische Funktionen
khusboo dassani - Tech Northwest Skillnet
Kurs - SQL Advanced
Maschinelle Übersetzung
wie der Trainer sein Wissen im Unterrichtsthema zeigt
john ernesto ii fernandez - Philippine AXA Life Insurance Corporation
Kurs - Data Vault: Building a Scalable Data Warehouse
Maschinelle Übersetzung
Kommende Kurse
Kombinierte Kurse
SQL Advanced
14 StundenThis instructor-led, live training in Schweiz (online or onsite) is aimed at intermediate-level database administrators, developers, and analysts who wish to master advanced SQL functionalities for complex data operations and database management.
By the end of this training, participants will be able to:
- Perform advanced querying techniques using unions, subqueries, and complex joins.
- Add, update, and delete data, tables, views, and indexes with precision.
- Ensure data integrity through transactions and manipulate database structures.
- Create and manage databases efficiently for robust data storage and retrieval.
Amazon Redshift
21 StundenAmazon Redshift ist ein Cloud-basierter Data-Warehouse-Service in AWS im Petabyte-Bereich.
In dieser von einem Trainer geleiteten Live-Schulung lernen die Teilnehmer die Grundlagen von Amazon Redshift kennen.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein,:
- Installieren und Konfigurieren von Amazon Redshift
- Daten mit Amazon Redshift zu laden, zu konfigurieren, bereitzustellen, abzufragen und zu visualisieren
Zielgruppe
- Entwickler
- IT-Fachleute
Format des Kurses
- Teilweise Vorlesung, teilweise Diskussion, Übungen und umfangreiche praktische Übungen
Hinweis
- Wenn Sie eine maßgeschneiderte Schulung für diesen Kurs wünschen, nehmen Sie bitte Kontakt mit uns auf, um dies zu vereinbaren.
Advanced Apache Iceberg
21 StundenDiese von einem Trainer geleitete Live-Schulung in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene Datenexperten, die Datenverarbeitungsabläufe optimieren, Datenintegrität sicherstellen und robuste Data Lakehouse-Lösungen implementieren möchten, die die Komplexität moderner Big Data-Anwendungen bewältigen können.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Ein tiefes Verständnis der Iceberg-Architektur, einschließlich Metadatenmanagement und Dateilayout, zu erlangen.
- Iceberg für eine optimale Leistung in verschiedenen Umgebungen zu konfigurieren und es mit mehreren Datenverarbeitungs-Engines zu integrieren.
- Große Iceberg-Tabellen zu verwalten, komplexe Schemaänderungen durchzuführen und Partitionsentwicklungen zu handhaben.
- Beherrschen von Techniken zur Optimierung der Abfrageleistung und der Effizienz von Datenscans bei großen Datenbeständen.
- Implementierung von Mechanismen zur Sicherstellung der Datenkonsistenz, zur Verwaltung von Transaktionsgarantien und zum Umgang mit Fehlern in verteilten Umgebungen.
Big Data Consulting
21 StundenDiese von einem Trainer geleitete Live-Schulung in Schweiz (online oder vor Ort) richtet sich an IT-Fachleute auf mittlerem Niveau, die ihre Kenntnisse in den Bereichen Datenarchitektur, Governance, Cloud Computing und Big-Data-Technologien erweitern möchten, um große Datenmengen für die Datenmigration in ihrem Unternehmen effektiv zu verwalten und zu analysieren.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein
- Die grundlegenden Konzepte und Komponenten verschiedener Datenarchitekturen zu verstehen.
- ein umfassendes Verständnis der Data-Governance-Prinzipien und ihrer Bedeutung in regulatorischen Umgebungen erlangen.
- Data-Governance-Frameworks wie Dama und Togaf zu implementieren und zu verwalten.
- Cloud-Plattformen für eine effiziente Datenspeicherung, -verarbeitung und -verwaltung zu nutzen.
Big Data & Database Systems Fundamentals
14 StundenDer Kurs ist Teil der Fähigkeiten von Data Scientist (Bereich: Daten und Technologie).
Azure Data Lake Storage Gen2
14 StundenDiese von einem Trainer geleitete Live-Schulung in Schweiz (online oder vor Ort) richtet sich an Dateningenieure auf mittlerem Niveau, die lernen möchten, wie man Azure Data Lake Storage Gen2 für effektive Datenanalyselösungen nutzt.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Die Architektur und die wichtigsten Funktionen von Azure Data Lake Storage Gen2 zu verstehen.
- Optimieren der Datenspeicherung und des Datenzugriffs hinsichtlich Kosten und Leistung.
- Integration von Azure Data Lake Storage Gen2 mit anderen Azure Services für Analysen und Datenverarbeitung.
- Entwickeln Sie Lösungen mit der Azure Data Lake Storage Gen2 API.
- Fehlerbehebung bei allgemeinen Problemen und Optimierung von Speicherstrategien.
Data Vault: Building a Scalable Data Warehouse
28 StundenIn dieser von einem Ausbilder geleiteten Live-Schulung in Schweiz lernen die Teilnehmer, wie man ein Data Vault erstellt.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- die Architektur und die Designkonzepte hinter Data Vault 2.0 und ihre Interaktion mit Big Data, NoSQL und KI zu verstehen.
- Data Vaulting-Techniken anwenden, um Auditing, Tracing und Inspektion von historischen Daten in einem Data Warehouse zu ermöglichen.
- Entwicklung eines konsistenten und wiederholbaren ETL-Prozesses (Extract, Transform, Load).
- Aufbau und Bereitstellung hoch skalierbarer und wiederholbarer Warehouses.
Apache Druid for Real-Time Data Analysis
21 StundenApache Druid ist ein in Java geschriebener, spaltenorientierter, verteilter Open-Source-Datenspeicher. Es wurde entwickelt, um schnell große Mengen an Ereignisdaten aufzunehmen und OLAP-Abfragen mit niedriger Latenz für diese Daten auszuführen. Druid wird häufig in Business Intelligence-Anwendungen verwendet, um große Mengen von Echtzeit- und Verlaufsdaten zu analysieren. Es ist auch gut geeignet, um schnelle, interaktive, analytische Dashboards für Endbenutzer zu erstellen. Druid wird von Unternehmen wie Alibaba, Airbnb, Cisco , eBay, Netflix, Paypal und Yahoo verwendet.
In diesem von Lehrern geführten Live-Kurs werden einige der Einschränkungen von Data Warehouse-Lösungen untersucht und erläutert, wie Druid diese Technologien zu einem flexiblen und skalierbaren Streaming Analytics-Stack ergänzen kann. Wir gehen viele Beispiele durch und bieten den Teilnehmern die Möglichkeit, Druiden-basierte Lösungen in einer Laborumgebung zu implementieren und zu testen.
Format des Kurses
- Teilvorlesung, Teildiskussion, intensive praktische Übungen, gelegentliche Tests zur Beurteilung des Verständnisses
Greenplum Database
14 StundenDiese von einem Trainer geleitete Live-Schulung (online oder vor Ort) richtet sich an Administratoren, die Greenplum Database für Business Intelligence- und Data Warehousing-Lösungen einrichten möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Verarbeitungsanforderungen mit Greenplum erfüllen.
- ETL-Operationen für die Datenverarbeitung durchführen.
- Vorhandene Infrastrukturen für die Abfrageverarbeitung nutzen.
IBM Datastage For Administrators and Developers
35 StundenDiese Live-Schulung in Schweiz (online oder vor Ort) richtet sich an IT-Fachleute auf mittlerem Niveau, die ein umfassendes Verständnis von IBM DataStage sowohl aus der Verwaltungs- als auch aus der Entwicklungsperspektive erlangen möchten, damit sie dieses Tool an ihrem jeweiligen Arbeitsplatz effektiv verwalten und einsetzen können.
Am Ende dieses Kurses werden die Teilnehmer in der Lage sein:
- Die Kernkonzepte von DataStage zu verstehen.
- Lernen, wie man DataStage-Umgebungen effektiv installiert, konfiguriert und verwaltet.
- Verbindung zu verschiedenen Datenquellen herstellen und Daten effizient aus Datenbanken, Flat Files und externen Quellen extrahieren.
- Effektive Datenladetechniken zu implementieren.
Apache Kylin: Real-Time OLAP on Big Data
14 StundenDieses von einem Trainer geleitete Live-Seminar in Schweiz (online oder vor Ort) richtet sich an fortgeschrittene Big-Data-Professionals, die Apache Kylin zur Erstellung von Echtzeit-Datenwarehouses und zum Durchführen multidimensionaler Analysen auf großen Datensätzen nutzen möchten.
Am Ende des Trainings werden die Teilnehmer in der Lage sein:
- Apache Kylin mit Echtzeitanwendungen für Streaming-Dateneingänge einzurichten und zu konfigurieren.
- OLAP-Cubes sowohl für Batch- als auch für Streaming-Daten zu entwerfen und zu erstellen.
- Komplexe Abfragen mit Untersekunden-Latenz über Kylin's SQL-Schnittstelle durchführen.
- Kylin mit BI-Tools integrieren, um interaktive Datenvisualisierungen zu ermöglichen.
- Die Leistung optimieren und die Ressourcen in Kylin effektiv verwalten.
Oracle SQL for Development and Database Management
35 StundenDiese Live-Schulung in Schweiz (online oder vor Ort) richtet sich an Datenbankexperten auf mittlerem Niveau, die ihre Kenntnisse in Oracle SQL Entwicklung und Verwaltung erweitern möchten.
Am Ende dieser Schulung werden die Teilnehmer in der Lage sein:
- Komplexe SQL Abfragen erstellen und optimieren.
- Datenbanken mit Oracle SQL Werkzeugen effizient zu verwalten.
- Best Practices bei der Entwicklung und Wartung von Datenbanken anzuwenden.
- Benutzerzugriff und Datenbanksicherheit in einer Oracle Umgebung zu verwalten.