Cloud Data Engineer (m/w/d)
Cloud Data Engineer (m/w/d)
Cloud Data Engineer (m/w/d)
Cloud Data Engineer (m/w/d)
Jobriver HR Service
Internet, IT
Frankfurt am Main
- Art der Beschäftigung: Vollzeit
- 68.000 € – 85.500 € (von XING geschätzt)
- Hybrid
- Zu den Ersten gehören
Cloud Data Engineer (m/w/d)
Über diesen Job
Cloud Data Engineer (m/w/d)
Beschreibung
Das Unternehmen ist seit über 35 Jahren ein zuverlässiger Partner für namhafte Kunden aus verschiedenen Branchen, darunter der Finanz- und Bankensektor sowie die Industrie und der Handel. Als Cloud Data Engineer sind Sie Teil eines dynamischen Teams, das sich der Analyse, Konzeption und Entwicklung von Datenlösungen widmet. Ihre Hauptaufgaben umfassen die Entwicklung von Data Pipelines auf Basis moderner Cloud-Architekturen wie Azure und Google Cloud Platform (GCP). Sie optimieren Dateninfrastrukturen und wenden DevOps-Prinzipien an, um den gesamten Datenlebenszyklus zu automatisieren. Zudem arbeiten Sie eng mit Fachabteilungen und Product Ownern zusammen, um anspruchsvolle Projekte im agilen Umfeld zu planen und umzusetzen. Das Unternehmen legt großen Wert auf Wissensaustausch und fördert die Weitergabe von Know-how an Kollegen sowie die Teilnahme an Fachkonferenzen und Seminaren. Darüber hinaus bieten sich Ihnen Entwicklungsmöglichkeiten in Führungspositionen oder als Tech Lead in neuen Technologien. Sie profitieren von einem modernen Arbeitsumfeld, das sowohl Remote-Arbeit als auch Präsenz im Büro ermöglicht, und erhalten zahlreiche Weiterbildungsmöglichkeiten, um Ihre Fähigkeiten kontinuierlich zu erweitern.
Anforderungen
Für die Position des Cloud Data Engineers sollten Sie einen (Fach-)Hochschulabschluss in Informatik oder eine vergleichbare Ausbildung vorweisen können, ergänzt durch mindestens zwei Jahre Berufserfahrung in der Datenverarbeitung. Wünschenswert sind Projekterfahrungen mit den Datenservices großer Public-Cloud-Provider wie Azure und GCP sowie relevante Zertifizierungen. Sie sollten solide Kenntnisse in Programmiersprachen wie Java, Scala oder Python mitbringen und grundlegende Erfahrungen mit CI/CD-Technologien wie Docker, Jenkins oder GitLab haben. Erste Erfahrungen im Aufbau von Data Pipelines auf Hadoop-Clustern (z.B. Spark, Kafka, NiFi) sind von Vorteil, ebenso wie Kenntnisse in Data-Orchestrierung-Frameworks wie Apache Airflow. Ein gutes Verständnis relationaler Datenbanken und ein starkes Interesse an IT-Trends und Technologieentwicklungen runden Ihr Profil ab. Sie sollten über sehr gute Deutschkenntnisse in Wort und Schrift sowie gute Englischkenntnisse verfügen.