Data Engineer - Core Systems
Data Engineer - Core Systems
Data Engineer - Core Systems
Data Engineer - Core Systems
Jobriver HR Service
Internet, IT
Berlin
- Art der Beschäftigung: Vollzeit
- 55.000 € – 76.500 € (von XING geschätzt)
- Vor Ort
- Zu den Ersten gehören
Data Engineer - Core Systems
Über diesen Job
Data Engineer - Core Systems
Beschreibung
Unser Kunde sucht einen hochqualifizierten und erfahrenen Data Engineer, der das Core Systems Team verstärkt. In dieser Rolle sind Sie verantwortlich für den Aufbau und die Wartung robuster Datenprodukte sowie der Datenmart-Infrastruktur innerhalb der AWS Redshift Umgebung. Ihre Hauptaufgaben umfassen die Entwicklung skalierbarer Datenprodukte, die bedeutungsvolle Einblicke für die Geschäftsinteressierten bereitstellen, sowie den Aufbau und die Pflege einer stabilen Datenmart-Infrastruktur zur Unterstützung der Reporting-Bedürfnisse. Sie werden effiziente Datenmodelle entwerfen und implementieren, um die Datenspeicherung, -abfrage und -leistung zu optimieren. Zudem entwickeln Sie effiziente ETL-Prozesse, um Daten aus verschiedenen Quellen in die Datenmart zu integrieren und implementieren Datenqualitätsprüfungen, um die Genauigkeit und Integrität der Daten sicherzustellen. Die kontinuierliche Überwachung und Optimierung von Datenpipelines und Abfragen gehört ebenfalls zu Ihren Aufgaben. Sie arbeiten eng mit Datenanalysten, Business Intelligence-Teams und anderen Stakeholdern zusammen, um Datenanforderungen zu verstehen und Lösungen zu liefern. Innovation ist ein wichtiger Bestandteil Ihrer Arbeit, da Sie sich über neue Technologien und Branchentrends im Bereich Data Engineering informieren und innovative Lösungen vorschlagen.
Anforderungen
Der ideale Kandidat bringt einen Hintergrund in Informatik, Ingenieurwesen oder einem verwandten Bereich mit. Sie sollten über mehr als 5 Jahre Erfahrung im Bereich Data Engineering verfügen, mit einem starken Fokus auf die Entwicklung von Datenprodukten und Data Warehousing. Umfassende Erfahrung mit AWS Redshift, einschließlich Datenmodellierung, Leistungstuning und Clusterverwaltung, ist erforderlich. Sie sollten zudem Kenntnisse in ETL-Tools wie Apache Airflow oder AWS Glue haben und starke Programmierkenntnisse in Python oder Java mitbringen. Expertise in SQL für Datenmanipulation und -analyse sowie Erfahrung mit Datenmodellierungstechniken und Best Practices sind ebenfalls wichtig. Ausgezeichnete Problemlösungs- und analytische Fähigkeiten, gepaart mit starken Kommunikations- und zwischenmenschlichen Fähigkeiten, sind notwendig, um effektiv mit funktionsübergreifenden Teams zusammenzuarbeiten. Wünschenswert sind Erfahrungen in der Fintech-Branche, Vertrautheit mit DBT sowie Kenntnisse über Daten-Governance und Sicherheitspraktiken.