Data Engineer (m/w/d) mit Schwerpunkt Microsoft Fabric
Data Engineer (m/w/d) mit Schwerpunkt Microsoft Fabric
Data Engineer (m/w/d) mit Schwerpunkt Microsoft Fabric
Data Engineer (m/w/d) mit Schwerpunkt Microsoft Fabric
Jobriver HR Service
Internet, IT
Köln
- Art der Beschäftigung: Vollzeit
- 49.000 € – 67.000 € (von XING geschätzt)
- Vor Ort
- Zu den Ersten gehören
Data Engineer (m/w/d) mit Schwerpunkt Microsoft Fabric
Über diesen Job
Data Engineer (m/w/d) mit Schwerpunkt Microsoft Fabric
Beschreibung
Das Unternehmen ist überzeugt, dass Daten weit mehr sind als nur Zahlen – sie bilden die Grundlage für Entscheidungen, treiben Wachstum voran und fördern Innovationen. Die Mission besteht darin, aus Daten echten, messbaren Mehrwert zu schaffen. Hierzu werden moderne Data Pipelines, Datenplattformen, BI-Lösungen und KI-Modelle entwickelt, die sowohl skalierbar als auch langfristig wartbar sind. Die Arbeitsweise ist agil, transparent und wertschätzend, sowohl im internen Team als auch in der Zusammenarbeit mit Kundenteams. Teamgeist wird großgeschrieben, und regelmäßige Veranstaltungen wie Sommerfeste, Teamtreffen und Weihnachtsfeiern sind fester Bestandteil der Unternehmenskultur. Als Data Engineer (m/w/d) mit Schwerpunkt Microsoft Fabric sind Sie verantwortlich für die Entwicklung moderner Lakehouse-Architekturen, Data Pipelines und Datenmodelle innerhalb der Microsoft-Datenplattform. Sie arbeiten eng mit Kundenteams zusammen und gestalten aktiv Lösungen, die echte Wirkung entfalten. Zu Ihren Aufgaben gehören der Aufbau und die Weiterentwicklung von Data Pipelines in Microsoft Fabric, die Modellierung und Strukturierung von Daten für Analytics-, BI- und KI-Use-Cases sowie die Entwicklung von ETL/ELT-Prozessen in der Medallion-Architektur. Zudem optimieren Sie die Performance und das Monitoring innerhalb der Fabric-Umgebung und tragen zum Design moderner Lakehouse-Architekturen bei.
Anforderungen
Der ideale Kandidat bringt umfassende Erfahrungen im Core Engineering mit, insbesondere mit Microsoft Fabric oder den Komponenten der Microsoft-Datenplattform, wie Azure Data Factory, Synapse, Lakehouse und Delta Lake. Gute Kenntnisse in PySpark, SQL und der data-engineering-nahen Entwicklung sind erforderlich, ebenso wie Erfahrung im Aufbau von ETL/ELT-Pipelines, idealerweise in der Medallion-Architektur. Ein sicherer Umgang mit Git und CI/CD-Prozessen sowie Grundlagen der Datenmodellierung, wie Star Schema, 3NF oder Data Vault, sind ebenfalls wichtig. Die Arbeitsweise sollte geprägt sein von Qualitätsbewusstsein, Teamorientierung und klarer Kommunikation, sowie der Wille, sich in moderne Microsoft-Technologien einzuarbeiten und weiterzuentwickeln. Wünschenswert, jedoch nicht zwingend erforderlich, sind Kenntnisse in Fabric-Governance, Power BI, Monitoring & Observability, Streaming-Technologien wie Event Hubs oder Kafka, sowie Erfahrungen mit mehreren Cloud- oder Datenplattform-Ökosystemen und MLflow oder MLOps-Ansätzen.