Menü
Menü
Werden Sie Experte mit dem
Lernen Sie in unserem Airflow Training mit Hands-On Übungen von unseren ausgebildeten Experten. Profitieren Sie von Projekterfahrung unserer Experten und Cloud-Architekten mit Erfahrung direkt aus der Industrie.
Airflow ist ein mächtiges Open Source Workflow-Tool zur Orchestrierung von Jobs. Es ist dabei cloud-agnostisch und kann sowohl nativ in der Cloud als auch in Kubernetes deployed werden. Damit ist Airflow perfekt geeignet für die Automatisierung von Workflows und die Erstellung von skalierbaren ETL-Strecken. In diesem Training werden u.a. Tools wie AWS Step Functions oder Azure App-Service betrachtet - und aufgezeigt, wie sie zur Orchestrierung der Data Lake-Verarbeitung eingesetzt werden können
17.08.23 Airflow Training
14.09.23 Airflow Training
12.10.23 Airflow Training
\* individuelle Termine möglich
Teilnehmer können nach Abschluss…
Der Kurs ist geeignet für Personen mit…
Vorstellung der Airflow Komponenten
Deployment und Architektur
Übung - Setup Airflow
Übung - My first DAG
Airflow Cloud Deployment
Enterprise Readiness
FAQ für individuelle Fragen
Vorstellung der Airflow Komponenten
Deployment und Architektur
Übung - Setup Airflow
Übung - My first DAG
Airflow Cloud Deployment
Enterprise Readiness
FAQ für individuelle Fragen

Die Lerninhalte des Airflow Trainings werden von unseren Experten spannend und eingänglich vermittelt. Zugeschnittene Labs und hands-on Übungen ermöglichen einen sicheren Umgang mit Airflow in der Cloud.
Erfahren Sie mehr zu diesem Training in einem persönlichen Gespräch
Sie setzen mit uns individuelle Schwerpunkte und erhalten ein zugeschnittenes Angebot für Ihre Anforderungen 24h nach dem Termin
Hier finden Sie eine kurze Zusammenstellung von oft gestellten Fragen und den dazugehörigen Antworten.
Apache Airflow ist ein Open-Source-Tool zur Orchestrierung und Automatisierung von Daten-Workflows. Es ermöglicht Entwicklern und Datenanalysten, komplexe Workflows zu definieren, zu planen, auszuführen und zu überwachen.
Mit Apache Airflow können Benutzer Workflows als gerichtete azyklische Graphen (DAGs) definieren, in denen jeder Knoten eine Task darstellt. Diese Tasks können aus verschiedenen Quellen wie Python-Skripten, Bash-Befehlen, SQL-Abfragen und vielen anderen Datenquellen bestehen.
Apache Airflow bringt viele Vorteile mit sich, darunter:
Zusammenfassend bietet Apache Airflow eine leistungsfähige, flexible und skalierbare Plattform zur Automatisierung von Daten-Workflows, die die Produktivität steigern und Unternehmen dabei helfen kann, bessere Entscheidungen auf Basis von Daten zu treffen.