Als eigenfinanziertes Familienunternehmen sind wir mehr als nur ein ca. 4.700 Standorte umspannendes Filialnetz in 34 Ländern, mehr als ca. 8,7 Mrd. Euro Jahresumsatz und mehr als einer der erfolgreichsten Online-Shops für Schuhe in Europa. Deichmann ist Wegbereiter, Förderer und Arbeitgeber von über 49.000 engagierten Mitarbeiterinnen und Mitarbeitern weltweit. Als nachhaltig expandierendes Unternehmen sind wir seit mehreren Jahrzehnten in der Lage, unseren Mitarbeitern einen sicheren Arbeitsplatz zu bieten.Daten sind für Dich nicht nur „Input“, sondern die Basis für gute Entscheidungen? Du möchtest Datenprodukte bauen, die stabil laufen, skalieren und echten Mehrwert liefern – von der Quelle bis zur analytischen Nutzung? Dann werde Teil unseres Data-Teams und gestalte mit uns die Weiterentwicklung unserer Azure-Lakehouse-Plattform.
Aufgaben :
- Du entwickelst, betreibst und optimierst Datenpipelines auf Microsoft Azure, insbesondere mit Azure Databricks (Spark)
- Du baust unsere Data-Lakehouse-Architektur weiter aus – performant, skalierbar und zukunftssicher
- Du konzipierst und implementierst automatisierte ETL / ELT-Prozesse (inkl. Monitoring, Logging, Fehlerhandling)
- Du integrierst Daten aus unterschiedlichen Quellsystemen, transformierst sie und stellst sie für Analytics, BI und Data Science bereit
- Du arbeitest an Datenmodellen (z. B. Kimball, Data Vault) und hilfst dabei, fachliche Anforderungen in robuste Strukturen zu übersetzen
- Du stellst Datenqualität, Konsistenz und Sicherheit entlang des gesamten Datenlebenszyklus sicher
- Du arbeitest eng mit Data Scientists, Analysten, Fachbereichen und IT zusammen – agil, pragmatisch und lösungsorientiert
- Du bringst Dich aktiv in Architektur- und Technologieentscheidungen sowie in die Weiterentwicklung unserer Datenstrategie ein
Dein Profil :
Abgeschlossenes Studium (z. B. (Wirtschafts-)Informatik, Mathematik, Naturwissenschaften) oder eine vergleichbare QualifikationMehrjährige Erfahrung im Data Engineering, idealerweise in Cloud-Umgebungen (Azure)Sehr gute Kenntnisse in Azure Databricks, Spark sowie Python oder ScalaErfahrung mit modernen ETL / ELT-Konzepten, Datenintegration und dem produktiven Betrieb von DatenpipelinesKenntnisse in der Datenmodellierung (z. B. Kimball, Data Vault) und im Umgang mit relationalen & nicht-relationalen DatenbankenDu denkst strukturiert, arbeitest eigenverantwortlich und hast ein gutes Gespür für Qualität und WartbarkeitSehr gute Deutsch- und gute EnglischkenntnisseWas Dich bei uns erwartet :
Ein Umfeld, in dem Du Dinge wirklich bewegen kannst : moderne Datenplattform, relevante Use Cases, viel GestaltungsspielraumKollegiales Teamwork, kurze Wege und pragmatische ZusammenarbeitFachliche Weiterentwicklung durch spannende Projekte, Austausch und QualifizierungBenefits :
30 Tage UrlaubFlexible ArbeitszeitenTageweise mobiles ArbeitenErmäßigtes DeutschlandTicket JobBetriebliche AltersvorsorgeKitaplätzeBistroPersonalrabattUnterstützungskasseSeminare & FortbildungenBetriebliches GesundheitsmanagementFirmeneventsAls (Senior) Data Engineer (m / w / d) verstärkst Du unser Team in Essen. Wenn Du Einsatz zeigst und etwas bewegen willst, dann bist Du bei uns genau richtig. Lerne uns als Arbeitgeber kennen, informiere Dich über Deine beruflichen Möglichkeiten und bewege mit uns großartige Projekte. Bewirb Dich jetzt online mit Angabe Deiner Gehaltsvorstellung und Deines frühestmöglichen Eintrittstermins. Wir freuen uns auf Dich!