This is a remote position.
Überblick
Für ein Data Engineering Projekt mit starkem Cloud-Fokus suchen wir ab März einen Data Engineer (m / w / d) mit Erfahrung in der Entwicklung moderner Datenpipelines. Das Projekt ist remote-first mit vereinzelten Workshops in Deutschland .
Rahmenbedingungen
Start : März
Laufzeit : bis mindestens Jahresende (Verlängerung möglich)
Auslastung : 100 %
Modell : Remote-first
Vor Ort : einzelne Workshops in Deutschland
Aufgaben
Entwicklung und Betrieb von ELT- / ETL-Pipelines
Verarbeitung Modellierung und Integration grosser Datenmengen
Umsetzung und Optimierung von Datenmodellen (insb. Data Vault )
Arbeiten in einer GCP Umgebung insbesondere auf :
BigQuery
Dataform
Dataflow
Cloud Run
Workflows
Implementierung von Qualitätschecks Monitoring und stabilen Deployments
Requirements
Berechtigung
Wohnsitz in der EU dem EWR dem Vereinigten Königreich oder der Schweiz
Anforderungen
Ca. 23 Jahre relevante Berufserfahrung als Data Engineer
Sehr gute Kenntnisse in :
SQL
Python
Java
Praktische Erfahrung mit Google Cloud Platform besonders :
BigQuery Dataform Dataflow Cloud Run Workflows
Erfahrung mit Data Vault
Sehr gute Deutsch- und Englischkenntnisse
Nice to have
DBT
Docker
Terraform
Benefits
Als Freelancer bei uns genießt du flexible Arbeitszeiten und die Freiheit deine Projekte selbst auszuwählen. Unsere Plattform bietet dir Zugang zu spannenden Projekten in verschiedenen Branchen und unterstützt dich dabei deine Karriere ßerdem profitierst du von fairer Bezahlung und einem engagierten Team das dir bei Fragen weiterhilft. Arbeite unabhängig und nutze unser starkes Netzwerk um deine beruflichen Ziele zu erreichen.
Key Skills
Apache Hive,S3,Hadoop,Redshift,Spark,AWS,Apache Pig,NoSQL,Big Data,Data Warehouse,Kafka,Scala
Employment Type : Full Time
Experience : years
Vacancy : 1
Data Engineer GCP BigQuery Data Vault • Hamburg, Hamburg, Germany