Senior Data Engineer (m/w/d)
Senior Data Engineer (m/w/d)
Senior Data Engineer (m/w/d)
Senior Data Engineer (m/w/d)
Jobriver HR Service
Internet, IT
Mannheim
- Art der Beschäftigung: Vollzeit
- 75.500 € – 87.000 € (von XING geschätzt)
- Vor Ort
- Zu den Ersten gehören
Senior Data Engineer (m/w/d)
Über diesen Job
Senior Data Engineer (m/w/d)
Beschreibung
Das Unternehmen ist ein mittelständischer Anbieter, der umfassende technische Expertise in der Industrie bereitstellt. Als Teil eines dynamischen Teams haben Sie die Möglichkeit, die Zukunft der Datenverarbeitung aktiv mitzugestalten. In Ihrer Rolle als Senior Data Engineer sind Sie verantwortlich für die Entwicklung, den Betrieb und die Optimierung von Datenprodukten sowie von Batch- und Streaming-Pipelines in Microsoft Fabric Lakehouses. Sie übernehmen die End-to-End-Verantwortung für Datenprodukte, einschließlich der Ingestion, Transformation, Tests, Deployment, Scheduling, Monitoring und Workflow-Orchestrierung mit Airflow. Zudem identifizieren Sie Optimierungspotenziale in den Bereichen Time-to-Market, Betriebskosten und Performance. Ihre Aufgaben umfassen auch die Entwicklung von Data-Warehousing-Artefakten und die Sicherstellung von Datenqualität sowie die Einhaltung der DSGVO. Sie arbeiten eng mit einem agilen DevOps-Team zusammen, dokumentieren Ihre Arbeit und kommunizieren mit Stakeholdern. Das Unternehmen bietet Ihnen ein inspirierendes Arbeitsumfeld mit abwechslungsreichen Projekten und namhaften Kunden in Hochtechnologiebranchen, sowie zahlreiche Entwicklungsmöglichkeiten.
Anforderungen
Der ideale Kandidat verfügt über ein abgeschlossenes Studium im Bereich Informatik, Wirtschaftsinformatik, Data Science oder eine vergleichbare Qualifikation mit starkem IT- und Datenbezug. Sie bringen einschlägige Berufserfahrung mit und haben fundierte Kenntnisse in Microsoft Fabric/Azure sowie in der Datenbereitstellung für Power BI und MySQL. Erfahrungen im Anwendungsbetrieb und in agilen SCRUM-Teams sind ebenfalls erforderlich. Sie sollten sehr gute SQL-Kenntnisse sowie praktische Erfahrungen mit Spark (Scala), Delta Lake, Kafka/Event Hubs und Airflow mitbringen. Kenntnisse in Batch- und Streaming-Architekturen, Performance-Optimierung, Datenqualität und DSGVO sind von Vorteil. Optional sind Erfahrungen mit AWS (S3, EMR, Lambda), Migrationen in Richtung Fabric und Grundlagen der Infrastruktur als Code (IaC) wünschenswert. Sehr gute Deutschkenntnisse auf dem Niveau C1/C2 sind eine Voraussetzung für diese Position.