StellenbeschreibungDatenintegration & -bereitstellung : Aufbau und Pflege von skalierbaren ETL-Pipelines, um strukturierte und unstrukturierte Daten aus verschiedenen Quellen zu integrieren und für AI-Modelle bereitzustellenDatenarchitektur & -management : Design und Implementierung von Datenbanken, Data Lakes und Data Warehouses (Azure)Datenmodellierung : Entwicklung und Optimierung von Datenmodellen zur Unterstützung von ML- und AI-AnwendungenBig Data & Streaming : Implementierung von Big Data- und Echtzeit-Datenlösungen (z.B. Apache Spark, Kafka), um hochvolumige Datenströme effizient zu verarbeitenDatenqualität & -sicherheit : Sicherstellung der Datenqualität, Governance und Compliance (z.B. DSGVO), sowie Implementierung von Monitoring- und SicherheitsmaßnahmenKollaboration & Beratung : Enge Zusammenarbeit mit AI Engineers, Data Scientists und Kunden, um Datenanforderungen zu verstehen und optimale Lösungen zu entwickeln