Cloud Data Infrastructure Engineer (all genders)
Standorte
Aachen, Augsburg, Berlin, Bonn, Bremen, Dortmund, Dresden, Düsseldorf, Essen, Frankfurt, Hamburg, Hannover, Jena, Karlsruhe, Kiel, Köln, Leipzig, München, Münster, Neumünster, Nürnberg, Paderborn, Potsdam, Rostock, Saarbrücken, Siegen, Stralsund, Stuttgart, Ulm, Walldorf
DEINE ROLLE - DAS WARTET AUF DICH
Wir haben Bock auf Daten! Du auch? Dann gestalte gemeinsam mit uns die Line of Business Data & Analytics. Wir fokussieren uns auf die Daten unserer Kunden und konzipieren Lösungen durch technologieunabhängige Beratung.
Der Bereich Data Platform Solutions ist verantwortlich für die Umsetzung komplexer Big Data und Cloud Analytics Projekte für unsere namhaften Kunden.
In deiner Rolle als Cloud Data Infrastructure Engineer bist du Teil eines innovativen und stetig wachsenden Teams und bis verantwortlich für stabile und nachhaltige Datenplattformen.
Dabei profitierst du von erfahrenen Kolleginnen und Kollegen und absolvierst ein spezielles Ausbildungsprogramm, um dein Wissen auszubauen und zu vertiefen.
Im Detail übernimmst du folgende Aufgaben :
- Konzipierung und Optimierung von nachhaltigen Analytics Plattformen
- Infrastrukturnahe Implementierung von IAM, Security, Netzwerk und CI / CD Konzepten
- Projektbasierte Umsetzung von Cloud und Infrastruktur Anforderungen mit AWS, Azure und GCP
- Design und Implementierung des Monitoring von Data Pipelines und allgemeiner Plattform Stabilität
- Nachhaltige und innovative Entwicklung von technischen Datenplattformen sowie Implementierung von DataOps Konzepten
- Stetige Weiterbildung in Technologien aus dem Cloud-und Software Engineering-Umfeld, um unsere Kunden als Consultant zu beraten
DEINE SKILLS - DAS BRINGST DU MIT
- Bock auf Daten : Mit viel Begeisterung eignest du dir gerne neues Wissen zu Applikationen, Technologien und Tools im Data Analytics Kontext an.
- Basierend auf einem abgeschlossenen Studium (oder Vergleichbarem) hast du bereits Erfahrungen mit dem Cloud Analytics Ökosystem (AWS, Azure, GCP) oder dem Big Data Ökosystem (Hadoop, Kafka, etc.) gesammelt.
- Du verfügst über Know-how in der Softwareentwicklung mit Java, Scala oder Python und hast in diesem Zusammenhang auch erste Erfahrung mit Buildtools und CI / CD Pipelines, wie z.
B. Maven, Sbt, Git oder Gradle sammeln können.
- Du kannst Cloud Strategien wie IaaS, PaaS, und SaaS einordnen, verstehst die unterschiedlichen Konzepte und hast Erfahrung mit IaC Technologien (Terraform, Ansible, Puppet).
- Du kannst SQL Abfragen formulieren und somit gegen verschiedene Datenbanken Abfragen ausführen.