Du sorgst für die Bereitstellung reibungsloser Datenprozesse (Entwicklung und Optimierung der Dateninfrastruktur)
Du bist für die Definition und Implementierung von Datenpipelines zuständig
Du schaffst die optimalen Rahmenbedingungen für die Suche und das Abrufen der Daten (Modellierung skalierbarer Datenbanken, um die Daten zu strukturieren)
Du entwickelst / nutzt geeignete Frameworks zur Speicherung und Verwaltung der Flut an Daten, die den Verfügbarkeits-, Integritäts- und Sicherheitsanspruch erfüllen
Du nutzt automatisches Testing, um eine hohe Qualität der erstellten Prozesse und der verarbeiteten Daten sicherzustellen
Das bringst Du mit
Praktische Erfahrung in der Implementierung von Dateninfrastrukturen und -pipelines
Erfahrung im Umgang mit großen Datenmengen und in der Implementierung von ETL-Prozessen
Erfahrung im sicheren Umgang mit Google Cloud, Databricks und Google Looker erwünscht
Sehr gute Kenntnisse in der Modellierung und der Abfrage von relationalen Daten im Big Data Kontext