StellenbeschreibungDurchführung von Aufgaben des fachlichen Betriebs : CVEs lösen, Daten nach prozessieren und StakeholderkommunikationWeiterentwicklung von Datenprodukten (Data Engineering) mit SQL und Spark sowie die Identifikation von Optimierungspotentialen hinsichtlich time-to-market und BetriebskostenSowohl Aufbau und Betrieb von Datenpipelines für Streaming (Kafka / Event Hubs) und Batch (ADLS / S3) als auch Datenaufbereitung in Microsoft Fabric Lakehouses mit Scala Spark und DeltaUmsetzung von Datenprodukten end-to-end sowie Ingestion, Transformation, Tests, Deployment, Scheduling und MonitoringEntwicklung von Data-Warehousing-Artefakten (MySQL), bei Bedarf Star-Schema-Modellierung und Sicherstellung von Datenqualität und Anonymisierung (DSGVO-konform)Orchestrierung der Workflows mit Airflow und Bereitstellung konsumierbarer Datasets für Analytics in Power BIZusammenarbeit in agilen Frameworks (Scrum / SAFe) und saubere Dokumentation