Aufgaben
- Entwicklung und Wartung skalierbarer, effizienter Backend-Lösungen mit Python und PySpark in einer Databricks-Umgebung
- Erweiterung und Pflege bestehender Backend-Komponenten (z.B. Transformations- und Test-Engine)
- Implementierung von Unit-Tests mit hoher Testabdeckung sowie Integration in CI/CD-Pipelines (z.B. GitLab) im Rahmen eines trunk-basierten Entwicklungsprozesses
- Tätigkeiten in einem heterogenen Umfeld (REST-APIs, Oracle-Datenbanken, Dateiimporte und Docker-Container)
- Automatisierung von Datenvorbereitungsprozessen und lokalen Workflows mit Dagster (Kenntnis von vergleichbaren Orchestrierungstools z.B. Airflow, Databricks Workflows von Vorteil)
- Identifikation von technischen Lücken und Erstellung operativ getriebener Stories
- Übersetzung von fachlichen Anforderungen in technische Spezifikationen, Dokumentation und User Stories
- Aktive Mitarbeit im agilen Scrum-Team, inklusive Teilnahme an Code-Reviews, technischen Diskussionen und kontinuierlicher Verbesserung des Produkts (DevOps)
- Unterstützung im täglichen Betrieb sowie bei der Weiterentwicklung der Datenplattform in einer Cloud-Umgebung (Azure von Vorteil)
Profil
- Fundierte Erfahrung als (Backend) Data Engineer im Versicherungswesen
- Erfahrung in der Arbeit agiler Methoden, vorzugsweise SAFe
- Fließende Deutsch- und Englischkenntnisse
- Fundierte Kenntnisse Python und PySpark
- Erfahrung mit CI/CD-Pipelines und Git
- Kenntnisse in Cloud-Umgebungen (Azure von Vorteil) und Interesse an Know-how-Erweiterung
- Praxis mit Orchestrierungslösungen (z.B. Dagster, Airflow, Databricks Workflows)
- Solide Kenntnisse in Oracle, SQL und REST-APIs
Benefits
- Hays ermöglicht den Einstieg bei innovativen Unternehmen
- Arbeit an einer modernen Datenplattform in der Cloud
- Agile Arbeitsweise in einem motivierten Team
- Remote-Möglichkeit