Als Mitglied des Data Mesh Enabling Teams befähigst du Domänenteams, Datenprodukte nach Data-Mesh-Prinzipien zu designen, zu modellieren, zu entwickeln und erfolgreich einzuführen. Du setzt Standards, leitest Workshops und arbeitest eng mit der Enterprise Architektur zusammen.
Aufgaben
- Vorhaben im Unternehmen beim Design, der Modellierung, Entwicklung und Einführung von Datenprodukten unterstützen und begleiten.
- Data-Mesh-Prinzipien (Domain Ownership, Data as a Product, Self-Serve Data Platform, Federated Governance) intern kommunizieren und verankern.
- Arbeitsworkshops zu Data Mesh inhaltlich gestalten und moderieren.
- Enge Zusammenarbeit mit der Enterprise Architektur; architektonische Entscheide abstimmen.
- Datenkontrakte anhand aktueller Spezifikationen / Standards definieren und Reviews durchführen.
- Einführung und Nutzung von Datenkatalogen (z. B. DataHub) unterstützen.
- Datenprodukte auf Basis von Apache Kafka designen und erstellen.
- Daten- und Datenbank-Modellierung sowie Aufbau von Datenpipelines und ETL-Prozessen im Analytics-Umfeld (z. B. Apache Spark, Data Lake, Data Warehouse).
- Fundierte Kenntnisse der theoretischen Grundlagen, Prinzipien und Best Practices von Data Mesh.
- Erfahrung in der Einführung / Begleitung von Data Mesh in Unternehmen.
- Vertrautheit mit Big-Data-Technologien und relevantem Tooling im Analytics-Bereich (z. B. Apache Spark, Data Lake, Data Warehouse).
- Expertise in Daten- / Datenbank-Modellierung, Pipelines und ETL.
- Datenkontrakte : aktuelle Spezifikationen / Standards kennen und bei der Erstellung unterstützen.
- Datenkataloge (z. B. DataHub) – Funktionen kennen und bei der Einführung unterstützen.
- Design und Erstellung von Kafka-basierten Datenprodukten.
- Fähigkeit, Workshops zu Data Mesh zu konzipieren und zu leiten.
- Enge Abstimmung mit der Enterprise Architektur.
- Sehr gute Kommunikations- und Stakeholder-Skills zur internen Verankerung der Prinzipien.