DATA ENGINEER (M/W/D) SCHWERPUNKT CLOUD
WAS WIR TUN UND WIE WIR BEI GRENKE DIGITAL ARBEITEN
Die GRENKE AG ist mit über 2100 Mitarbeiter : innen in mehr als 30 Ländern Möglichmacher für kleine und mittelständische Unternehmen.
Wir schaffen schnelle und einfache Finanzierungslösungen, die unseren Kunden helfen, ihre Geschäftsideen in die Tat umzusetzen.
Denn wir sind überzeugt davon, die Geschäftswelt bietet viele Chancen, wenn man den Mut hat diese umzusetzen. Und so agieren auch wir, im Umgang mit unseren Kunden aber auch in unseren starken Teams : Mit Persönlichkeit, unternehmerischem Denken, selbstbestimmt, gesundem Pragmatismus aber auch der nötigen Entschlossenheit.
Das ist Teil unserer Unternehmenskultur und die Möglichkeit beruflich und persönlich zu wachsen.
Bei der GRENKE digital GmbH sind alle Teams gebündelt, die digitale Innovationen für die GRENKE Gruppe entwickeln. Hier werden Inhouse- und Web-Anwendungen, mobile Apps und Datenmanagementsysteme gebaut.
Die Hierarchien sind flach, die Projektsteuerung ist agil und Lösungen entstehen in interdisziplinären Teams. Oder anders gesagt : Wir bieten echten Start-up-Spirit.
Und die besten Bedingungen, um eigene Ideen umzusetzen. Mehr Einblicke über das Arbeiten und den Arbeitsalltag bei der GRENKE digital, gibt es in unserem Podcast :
WAS SIE ERWARTET
Entwurf, Entwicklung und Implementierung von skalierbaren Datenpipelines mittels Azure Data Factory, Python, Spark und SQL
Integration von Daten aus verschiedenen Quellen und Formaten unter Berücksichtigung von Sicherheits- und Datenschutzstandards
Unterstützung bei der Einführung und der Entwicklung unserer neuen Microsoft Fabric basierenden Daten- und Analytics - Plattform und der Entwicklung von ETL & ELT Data Pipelines bis zum Ingestion Layer des One Lake der Analytics Plattform Microsoft Fabric
Mitwirkung in interdisziplinären Projektteams im Analytics Bereich bestehend aus Mitgliedern unterschiedlichen Schwerpunkt der Verantwortung, wie z.
B. Data Warehouse, Master Data Management, Reporting & BI, usw.
Implementierung von Überwachungs- und Fehlerbehebungsmechanismen, um die Integrität und Verfügbarkeit der Datenpipelines sicherzustellen
Enge Zusammenarbeit mit unserem Experten in den Themengebieten Software Entwicklung, Data Platform, Infrastructure as Code & CI / CD
WAS SIE MITBRINGEN
Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik, Data Engineering und einschlägige Berufserfahrung oder eine vergleichbare Qualifikation
Praktische Kenntnisse in der Entwicklung und Umsetzung von Cloud-basierten Datenarchitekturen und Datenpipelines
Kenntnisse in SQL, Python oder Spark
Verständnis von DevOps-Praktiken und Erfahrung mit CI / CD Plattformen (z.B. Azure DevOps) für die kontinuierliche Integration und Bereitstellung von Datenlösungen
Gute Team- und Kommunikationsfähigkeiten, um effektiv mit anderen Teammitgliedern zusammenzuarbeiten und komplexe technische Konzepte verständlich zu vermitteln
Selbstständige Arbeitsweise und Fähigkeit, komplexe Probleme eigenständig zu lösen
Freude, Motivation und Neugier sich in den oben genannten Themengebieten - sowohl durch unsere Experten begleitet, als auch selbstständig weiterzuentwickeln
Sehr gute Deutsch- und Englischkenntnisse
WAS WIR BIETEN
Flexible Arbeitszeitgestaltung, 30 Urlaubstage im Jahr und Möglichkeit zu Remote Work
Ein vielfältiges Angebot an Fort- und Weiterbildungen, u.a. in Form von LinkedIn Learning
Einen zukunftssicheren, unbefristeten Arbeitsplatz in einem modernen, agilen Arbeitsumfeld
Gemeinsame Events zur Steigerung des Teamspirits (Weihnachtsfeiern, After-Work Events, Stammtisch, Grillen auf der Dachterrasse etc.)
Unternehmensweites Networking durch unser Buddy-Programm und Explore Breaks
Zuschuss zum Mittagessen, Müsli und frisches Obst sowie kostenlose Getränke wie Wasser, Tee und Kaffee
Ein vielseitiges Angebot an Gesundheits- und Sportaktivitäten inklusive Arbeitgeberzuschuss
Einen attraktiven Standort mit unkomplizierter Verkehrsanbindung und Parkplätzen