Data Engineer (Snowflake)
Data Engineer (Snowflake)
Data Engineer (Snowflake)
Data Engineer (Snowflake)
Coopers Group AG
Personaldienstleistungen und -beratung
Bern
- Art der Beschäftigung: Vollzeit
- 89.500 CHF – 123.500 CHF (von XING geschätzt)
- Vor Ort
- Zu den Ersten gehören
Data Engineer (Snowflake)
Über diesen Job
................
Für unseren Kunden aus der Transportbranche in Bern, suchen wir eine:n analytische:n motivierte:n und aufgeschlossene:n Snwoflake Date Engineer.
In einem innovativen, cloudbasierten Umfeld arbeitest du an der Weiterentwicklung einer modernen Enterprise Analytics Plattform. Der Fokus liegt auf performanten ELT-Pipelines, Datenmodellierung sowie der Integration in komplexe Unternehmenssysteme
Deine Aufgaben:
- Entwicklung, Optimierung und Betrieb von Snowflake Data-Warehouse-Lösungen
- Aufbau und Betreuung von ELT/ETL-Pipelines (dbt, Airflow, Snowpipe, Streams & Tasks)
- Datenmodellierung (Star-Schema, Data Vault) inkl. Erstellung und Optimierung von Tabellen, Views & Schemas
- Performance-Tuning (Clustering, Micro-Partitioning, Query-Optimierung, Warehouse-Sizing)
- Erstellung und Wartung von Daten-Exports & Reports
- Einrichtung von Datenqualitäts-Checks, Monitoring & Alerting
- Integration von Snowflake mit externen Systemen (Cloud Storage, APIs, Streaming)
- Fehleranalyse und Incident-Handling in Data Pipelines & Reports
- Optimierung von Argo-/Kubernetes-Batchprozessen
- Mitarbeit beim Aufbau von Infrastructure as Code (Terraform) und CI/CD
- Dokumentation von Architektur und Datenflüssen sowie Know-how-Transfer
- Unterstützung von Fachbereichen und Support bei technischen Fragestellungen
Dein Profil:
- Abgeschlossenes Studium in Informatik, Data Engineering oder einem verwandten Bereich
- Mindestens 3 Jahre Erfahrung als Snowflake-Entwickler:in in produktiven Projekten
- Sehr gute Kenntnisse in Snowflake (Warehouses, Micro-Partitions, Time Travel, Cloning, Streams/Tasks, Security Features)
- Starke SQL- und Python-Skills; weitere Skriptsprachen von Vorteil
- Erfahrung mit ELT/ETL-Tools (dbt, Airflow, Snowpipe, Prefect)
- Erfahrung mit Cloud-Storage (AWS S3, Azure Blob)
- Kenntnisse in Terraform sowie CI/CD (Tekton oder Jenkins)
- Erfahrung im Umgang mit REST-APIs und Fehleranalyse
- Erfahrung in Kubernetes-/Container-Umgebungen (Argo Workflows)
- Routiniert in Monitoring, Logging und Incident Handling
- Eigenständig, strukturiert, proaktiv und zuverlässig
- Sehr gute Deutsch- und Englischkenntnisse