Data Engineer (m/w/d)
Data Engineer (m/w/d)
Data Engineer (m/w/d)
Data Engineer (m/w/d)
Jobriver HR Service
Internet, IT
Berlin
- Art der Beschäftigung: Vollzeit
- 57.500 € – 81.000 € (von XING geschätzt)
- Vor Ort
- Zu den Ersten gehören
Data Engineer (m/w/d)
Über diesen Job
Data Engineer (m/w/d)
Beschreibung
Unser Kunde ist ein innovatives Unternehmen, das sich aus einer langjährigen Leidenschaft für Gesundheit, Heilung und persönliches Wachstum entwickelt hat. Das Unternehmen hat sich zum Ziel gesetzt, natürliche und hochwertige Produkte zu entwickeln, die den höchsten Standards entsprechen. In einem strategischen Partnerschaftsmodell hat der Arbeitgeber eine bedeutende Position als einer der renommiertesten Hersteller in Deutschland eingenommen und betreibt ein eigenes Forschungs- und Entwicklungszentrum in Berlin. Für die kontinuierliche Verbesserung der Produkte arbeitet das Unternehmen eng mit ausgewählten Forschungsinstituten, Wissenschaftlern und Fachverbänden zusammen. Als Data Engineer sind Sie verantwortlich für die Dateninfrastruktur des Unternehmens. Ihre Hauptaufgabe besteht darin, Datenpipelines zu entwerfen, zu bauen und zu warten, um sicherzustellen, dass die Daten zuverlässig und effizient fließen. Sie werden eng mit Datenanalysten, Softwareentwicklern und Geschäftspartnern zusammenarbeiten, um technische Lösungen zu entwickeln, die den Anforderungen des Unternehmens gerecht werden. In dieser Schlüsselposition haben Sie die Möglichkeit, die Art und Weise, wie Daten strukturiert und genutzt werden, erheblich zu beeinflussen. Zudem tragen Sie zur Verbesserung der Cloud-Infrastruktur und der CI/CD-Praktiken bei und bleiben stets über moderne Technologien im Bereich Data Engineering informiert.
Anforderungen
Der ideale Kandidat bringt mehr als 4 Jahre Erfahrung im Bereich Data Engineering, Datenanalyse oder ähnlichen Rollen mit, die komplexe Datenpipelines beinhalten. Ein abgeschlossenes Studium in Informatik, Ingenieurwesen oder einem verwandten Bereich ist erforderlich. Sie sollten über fundierte Kenntnisse in Python und SQL verfügen und nachweisliche Erfahrung im Aufbau von ETL-Pipelines haben. Praktische Erfahrungen mit Google Cloud Platform, insbesondere BigQuery, Cloud Storage und Datastream, sind von Vorteil. Kenntnisse in dbt und Prefect für die Orchestrierung sind wünschenswert. Ein solides Verständnis der technischen Infrastruktur und wie eine Datenplattform mit anderen Systemen integriert wird, ist ebenfalls wichtig. Darüber hinaus sind starke Problemlösungsfähigkeiten, eine hohe Detailgenauigkeit und die Fähigkeit, selbstständig zu arbeiten, unerlässlich. Ausgezeichnete Kommunikations- und Teamfähigkeiten runden Ihr Profil ab.