Das erwartet Dich :
- Aufbau, Pflege und Weiterentwicklung von Datenarchitekturen (z. B. Data Warehouses, Data Lakes, Lakehouses)
- Entwicklung und Orchestrierung von ETL / ELT-Prozessen zur Datenintegration
- Datenmodellierung und Optimierung zur Unterstützung von Analyse- und Reporting-Anwendungen
- Integration vielfältiger Datenquellen und Aufbau automatisierter Datenpipelines (Batch- und Streaming-Verarbeitung)
- Enge Zusammenarbeit mit Data Scientists, Analyst : innen und Entwickler : innen zur Entwicklung datengetriebener Lösungen
- Betrieb und Versionierung von Datenprojekten mit Git und Azure DevOps
- Monitoring, Logging und Performance-Tuning von Datenworkloads
Das bringst Du mit :
Fundierte Kenntnisse in SQL sowie praktische Erfahrung mit relationalen und NoSQL-DatenbankenErfahrung in der Arbeit mit Lakehouse-Architekturen (z. B. Microsoft Fabric, Databricks oder ähnliches)Gute Kenntnisse in Python (besonders für die Datenverarbeitung) und Bash-ScriptingErfahrung im Einsatz und der Verwaltung von Orchestrierungstools wie Airflow oder ähnlichemSicherer Umgang mit Git, idealerweise mit Erfahrung in CI / CD-Pipelines in Azure DevOpsVertraut mit Datenmodellierungsprinzipien (z. B. Star Schema, 3NF, Data Vault)Selbstständige und strukturierte Arbeitsweise, ausgeprägter Teamgeist und ein Gespür für sauberen, wartbaren CodeSehr gute Deutsch- und EnglischkenntnisseDarauf kannst Du Dich freuen :
Viel Freiraum durch flexible Arbeitszeiten und einen flexiblen Arbeitsort
– eine digitale Ausstattung für dein mobiles Arbeiten ist bei uns selbstverständlich
300 € jährliches Gesundheitsbudget sowie eine betriebliche AltersvorsorgeKlimaneutrale Mobilität : Bezuschussung beim Jobrad-Leasing und JobticketVergünstigte Mitgliedschaft beim Urban Sports Club"HAPPY" Firmenspecials : Wir machen mehr als nur Sommerfest & Weihnachtsfeier2-tägiges Onboarding-Event für deinen optimalen Start und dein Netzwerk bei uns