Cloud Platform / Kubernetes Engineer (w/m/d)
Cloud Platform / Kubernetes Engineer (w/m/d)
Cloud Platform / Kubernetes Engineer (w/m/d)
Cloud Platform / Kubernetes Engineer (w/m/d)
Deutsches Zentrum für Luft- und Raumfahrt e.V. (DLR)
Forschung
Dresden
- Art der Anstellung: Vollzeit
- 53.500 € – 68.500 € (von XING geschätzt)
- Vor Ort
- Zu den Ersten gehören
Cloud Platform / Kubernetes Engineer (w/m/d)
Über diesen Job
Das Institut für Softwaremethoden zur Produkt-Virtualisierung befasst sich mit der Entwicklung von Programmier- und Datenmodellen zur Nutzung aktueller und zukünftiger paralleler Rechnerarchitekturen, stellt Plattformen für multidisziplinäre Produktanalyse und Optimierung bereit und entwickelt dedizierte Softwaremethoden und Technologien zur Realisierung des virtuellen Produkts.
Das erwartet dich
Die Abteilung für Hochleistungsrechnen entwickelt hochskalierbare Simulationssoftware zur effizienten Nutzung aktueller und zukünftiger Hochleistungsrechner-Architekturen. Als Kompetenzzentrum bringt die Abteilung die HPC-Expertise (High Performance Computing, Hochleistungsrechnen) bei der Zusammenarbeit mit anderen DLR-Instituten ein, um spezifische Fragestellungen im Bereich des Hochleistungsrechnens zu lösen.
Deine Forschungsaufgabe ist der Entwurf, die Umsetzung, der Betrieb und die Evaluierung einer neuen Web-Service-Infrastruktur zur Durchführung von Trend-Analysen auf großen Datenmengen.
Deine Aufgaben
- Konzeptionierung eines Software-Stack für das Anwendungsszenario eines Cloud-Analytics-Services für KI-Anwendungen unter Verwendung von etablierter Infrastrukturlösungen (z.B. Containern), Orchestrierung der Container-basierten Architektur mittels Kubernetes, Entwicklung/Anpassungen benötigter Software-Komponenten mittels z.B. Go, Python, Bash
- Monitoring (Datenerhebung), Tuning und Evaluierung des Betriebs sowie der Stabilität des entwickelten Software-Stacks
- Verifikation der entwickelten Software-/Hardware-Infrastruktur anhand ausgewählter Testfälle durch z.B. Prüfung der Plausibilität und Verarbeitungsgeschwindigkeit von Anfragen
- Veröffentlichung auf wissenschaftlichen Tagungen und in renommierten Zeitschriften
Das bringst du mit
- abgeschlossenes wissenschaftliches Hochschulstudium (Master/Diplom Uni) in Informatik, Mathematik oder Ingenieurwissenschaften (z.B. aus der Fachrichtung Informations- und Systemtechnik) oder andere für die Tätigkeit relevanten Studiengänge
- Fachkenntnisse im Bereich Containerisierung und Container-Orchestrierung (z.B. Docker, Kubernetes)
- Forschungserfahrung im Bereich paralleler Programmierung, Hochleistungsrechner (HPC) und verteilter Systeme
- Kenntnisse und Erfahrungen in der Anwendung von spezieller Software wie Programmiersprachen im Cloud-Kontext (z.B. Go, Python, Bash)
- Kenntnisse der englischen Sprache in Wort und Schrift
Die Vergütung erfolgt je nach Qualifikation und Aufgabenübertragung bis Entgeltgruppe 13 TVöD.
Das bieten wir dir
Das DLR steht für Vielfalt, Wertschätzung und Gleichstellung aller Menschen. Wir fördern eigenverantwortliches Arbeiten und die individuelle Weiterentwicklung unserer Mitarbeitenden im persönlichen und beruflichen Umfeld. Dafür stehen dir unsere zahlreichen Fort- und Weiterbildungsmöglichkeiten zur Verfügung. Chancengerechtigkeit ist uns ein besonderes Anliegen, wir möchten daher insbesondere den Anteil von Frauen in der Wissenschaft und Führung erhöhen. Bewerbungen schwerbehinderter Menschen bevorzugen wir bei fachlicher Eignung.
Wir freuen uns darauf, dich kennenzulernen!
Fragen zu dieser Position (Kennziffer 2710) beantwortet dir gerne:
Thomas Gerhold
Tel.: +49 351 210718 103
Beginn der Veröffentlichung: 25.08.2025
Interne Ausschreibungsfrist endet am: 21.09.2025
Gehalts-Prognose
Unternehmens-Details
Bewertung von Mitarbeitenden
Gesamtbewertung
Basierend auf 760 BewertungenVorteile für Mitarbeitende
Unternehmenskultur
Unternehmenskultur
760 Mitarbeitende haben abgestimmt: Sie bewerten die Unternehmenskultur bei Deutsches Zentrum für Luft- und Raumfahrt e.V. (DLR) als modern.Dies stimmt ungefähr mit dem Branchen-Durchschnitt überein.