KEY JOB RESPONSIBILITIES
- Modern Data Platform Architecture : Konzeption und Implementierung skalierender Data Lake und Data Warehouse Architekturen mit AWS Services (Redshift Glue EMR Kinesis) und Snowflake als zentrale Analytics Engine
- Data Pipeline Engineering : Entwicklung hochperformanter fault-toleranter ELT / ETL-Pipelines mit modernen Frameworks wie Apache Spark dbt und AWS Step Functions für komplexe Datenverarbeitungsworkflows
- Snowflake Platform Optimization : Design und Implementierung von Snowflake Data Models Performance-Tuning Multi-Cluster Warehouses und Advanced Features wie Data Sharing und Secure Data Exchange
- Real-time Analytics Solutions : Implementierung von Streaming Analytics Plattformen mit Kinesis Kafka und Snowflake Streams für Echtzeit-Datenverarbeitung und Live-Dashboarding
- Data Integration & Migration : Planung und Durchführung komplexer Datenmigrationsprojekte von Legacy-Systemen zu modernen Cloud Data Platforms mit minimaler Ausfallzeit
- DevOps for Data : Aufbau von DataOps-Praktiken mit Infrastructure as Code (Terraform CloudFormation) CI / CD-Pipelines für Datenverarbeitung und automatisiertem Testing von Data Pipelines
- Performance Engineering : Optimierung von Datenverarbeitungsworkflows Query-Performance Tuning und Cost Optimization für große Datenvolumen in Cloud-Umgebungen
- Technical Consulting : Beratung von Kunden bei Data Strategy Technology Selection und Best Practices für moderne Data Governance und Compliance-Anforderungen
A DAY IN THE LIFE
Dein Tag beginnt oft mit einem Review der nächtlichen Data Pipeline Runs und Performance Monitoring Dashboards um sicherzustellen dass alle kritischen Datenflüsse erfolgreich ausgeführt wurden. Anschließend führst du ein Stand-up mit deinem Data Engineering Team durch um den Fortschritt aktueller Implementierungen zu besprechen und eventuelle Issues zu adressieren.
Der Vormittag wird häufig von Technical Deep-Dive Sessions mit Kunden geprägt in denen du komplexe Datenarchitekturen designst - sei es die Modernisierung eines legacy Data Warehouses oder die Implementierung einer Real-time Analytics Plattform mit Snowflake. Dabei arbeitest du eng mit Data Scientists und Business Analysts zusammen um sicherzustellen dass die technische Lösung auch die fachlichen Anforderungen optimal erfüllt.
Nachmittags konzentrierst du dich auf hands-on Development Work : Du entwickelst neue dbt Models optimierst Spark Jobs für bessere Performance oder implementierst neue Snowflake Features für erweiterte Analytics Use Cases. Ein wichtiger Teil deiner Arbeit ist auch das Code Review und Mentoring von Junior Data Engineers - du teilst deine Expertise in technischen Diskussionen und leitest Workshops zu modernen Data Engineering Patterns.
Den Tag schließt du häufig mit der Arbeit an Innovation Projekten ab wo du neue AWS Services oder Snowflake Features evaluierst Proof-of-Concepts für ML-Pipeline Integration entwickelst oder an der Dokumentation von Best Practices und Learnings für das Team arbeitest.
Qualifications : BASIC QUALIFICATIONS
4 Jahre Erfahrung in Data Engineering ETL / ELT-Entwicklung und Datenplattform-Implementierung mit AWS ServicesNachgewiesene Snowflake-Expertise in Data Modeling Performance Optimization Administration und Advanced FeaturesSolide AWS Data Services Kenntnisse (Redshift Glue EMR Kinesis Lambda S3) und deren Integration in moderne DatenarchitekturenProgrammier-Expertise in Python / Scala / SQL mit Erfahrung in Spark dbt oder vergleichbaren Data Processing FrameworksInfrastructure as Code Kenntnisse (Terraform CloudFormation) für automatisierte Deployment von DateninfrastrukturenAusgezeichnete Kommunikationsfähigkeiten für die Zusammenarbeit mit technischen Teams und Business StakeholdernFließende Deutsch- und Englischkenntnisse für internationale Kundenprojekte und globale ZusammenarbeitPREFERRED QUALIFICATIONS
AWS und Snowflake Zertifizierungen (Data Analytics Data Engineer SnowPro Core / Advanced)Expertise in Real-time Data Processing mit Kafka Kinesis oder anderen Streaming TechnologienMachine Learning Pipeline Erfahrung mit SageMaker MLflow oder Integration von ML-Models in DatenverarbeitungsworkflowsData Governance und Compliance Kenntnisse für regulierte Branchen (GDPR SOX HIPAA)Container- und Orchestration-Erfahrung (Docker Kubernetes ECS) für containerisierte Data Processing WorkloadsIndustry-spezifische Datenmodellierungs-Erfahrung in Bereichen wie Financial Services Retail oder ManufacturingThought Leadership durch Konferenz-Präsentationen über Data Engineering Topics oder Open-Source BeiträgeInternationale Projekterfahrung mit Multi-Region Data Architectures und globalen Compliance-AnforderungenZusätzliche Informationen :
Melde Dich bei unserem Recruiting Team
Durch unsere offene Unternehmenskultur legen wir großen Wert darauf Menschen die Chance zu geben sich zu bewerben auch wenn nicht alle spezifischen Fähigkeiten der Stellenbeschreibung erfüllt werden. Wir sind überzeugt dass jede : r Einzelne durch unsere Unterstützung und ein motiviertes Team sein volles Potenzial entfalten kann.
Wir freuen uns auf Deine Bewerbung!
Remote Work : No
Employment Type : Full-time
Key Skills
Laboratory Experience,Vendor Management,Design Controls,C / C++,FDA Regulations,Intellectual Property Law,ISO 13485,Research Experience,SolidWorks,Research & Development,Internet Of Things,Product Development
Experience : years
Vacancy : 1