StellenbeschreibungIn deiner Position entwickelst und optimierst du ETL / ELT-Pipelines mit Azure Data Factory, Azure Databricks oder Synapse Pipelines, um Daten effizient und skalierbar zu verarbeiten.Du kümmerst dich um die Integration verschiedenster Datenquellen – von On-Premise über Cloud und APIs bis hin zu Streaming-Daten – in unseren Data Lake.Wann immer es um die Entwicklung von Datenverarbeitungsprozessen geht, programmierst du in Python, PySpark oder Scala und stellst performante Lösungen sicher.Du unterstützt durch die Automatisierung von Deployment- und Monitoring-Prozessen und sorgst damit für stabile und nachvollziehbare Abläufe.Nicht zuletzt bearbeitest du Supportanfragen und trägst zur kontinuierlichen Verbesserung der Datenplattform und Services bei.Abgeschlossene Ausbildung, z. B. zum Fachinformatiker, oder ein Studium in Informatik, Wirtschaftsinformatik oder Betriebswirtschaftslehre mit Kenntnissen in Data Lake und Bereich Business IntelligenceMehrjährige Berufserfahrung im Bereich Data Engineering, idealerweise mit Fokus auf Microsoft AzureSehr gute Programmierkenntnisse in Python und SQL, idealerweise auch Spark (PySpark / Scala)Verständnis für Geschäftsprozesse, Datenanalyse und Reporting in verschiedenen Branchen und FunktionenPersönlich gefallen uns besonders deine analytische und strukturierte sowie deine kundenorientierte und teamfähige Arbeitsweise.