Senior Data Engineer (m/w/d)
Senior Data Engineer (m/w/d)
Senior Data Engineer (m/w/d)
Senior Data Engineer (m/w/d)
Jobriver HR Service
Internet, IT
Frankfurt am Main
- Art der Beschäftigung: Vollzeit
- 75.500 € – 95.000 € (von XING geschätzt)
- Vor Ort
- Zu den Ersten gehören
Senior Data Engineer (m/w/d)
Über diesen Job
Senior Data Engineer (m/w/d)
Beschreibung
Das Unternehmen ist ein mittelständisches Unternehmen und ein verlässlicher Partner der Industrie, das umfassende technische Expertise liefert. Die Tätigkeiten erstrecken sich entlang der gesamten Prozesskette, von der Planung und Projektierung über die Entwicklung und Konstruktion bis hin zur Fertigung, Montage und Inbetriebnahme. Als Senior Data Engineer sind Sie Teil eines dynamischen Teams, das die Zukunft der Datenverarbeitung mitgestaltet. Ihre Hauptaufgaben umfassen die Entwicklung, den Betrieb und die Optimierung von Datenprodukten sowie Batch- und Streaming-Pipelines in Microsoft Fabric Lakehouses. Sie tragen die End-to-End-Verantwortung für die Datenprodukte, einschließlich Ingestion, Transformation, Tests, Deployment, Scheduling, Monitoring und Workflow-Orchestrierung mit Airflow. Zudem identifizieren Sie Optimierungspotenziale hinsichtlich Time-to-Market, Betriebskosten und Performance. Die Entwicklung von Data-Warehousing-Artefakten, die Sicherstellung der Datenqualität und die Einhaltung der DSGVO sind ebenfalls Teil Ihrer Verantwortung. Sie arbeiten eng im agilen DevOps-Team und sind für die Dokumentation sowie den fachlichen Betrieb zuständig. Das Arbeitsumfeld ist geprägt von innovativen Projekten und der Zusammenarbeit mit namhaften Kunden in Hochtechnologiebranchen. Sie haben die Möglichkeit, Ihre Fähigkeiten in einem kreativen und unterstützenden Team weiterzuentwickeln.
Anforderungen
Der ideale Kandidat hat ein abgeschlossenes Studium im Bereich Informatik, Wirtschaftsinformatik, Data Science oder eine vergleichbare Qualifikation mit starkem IT- und Datenbezug. Sie verfügen über einschlägige Berufserfahrung und haben Kenntnisse in Microsoft Fabric/Azure, der Power-BI-Datenbereitstellung sowie in MySQL und den Grundlagen des Data Warehousing. Erfahrung im Anwendungsbetrieb, in agilen SCRUM-Teams und mit GitLab CI/CD (Build, Test, Deploy, Reviews) sind ebenfalls erforderlich. Sehr gute SQL-Kenntnisse sowie Erfahrung mit Spark (Scala), Delta Lake, Kafka/Event Hubs und Airflow sind von Vorteil. Sie sollten über Know-how in Batch- und Streaming-Architekturen, Performance-Optimierung, Datenqualität und DSGVO verfügen. Optional sind Kenntnisse in AWS (S3, EMR, Lambda), Migrationen Richtung Fabric und Grundlagen der Infrastruktur als Code (IaC) wünschenswert. Sehr gute Deutschkenntnisse (C1/C2) in Wort und Schrift sind unerlässlich, da Deutsch die Arbeitssprache in diesem Projekt ist.