Data Scientist Insurance (all genders)
Standorte
Berlin, Köln, Hamburg, Stuttgart, Dortmund, Frankfurt, München
DEINE ROLLE - DAS WARTET AUF DICH
Du hast Spaß an Machine Learning-Projekten und bereits vielseitige Erfahrungen im Umfeld von Versicherungen sammeln können?
Außerdem automatisierst du gerne Dinge, vor allem ML-Pipelines, Deployments und auch alles andere, was sich automatisieren lässt?
Dann bist du bei adesso genau richtig!
Baue gemeinsam mit uns das Team Data Driven Insurance zu einem Competence Center aus. Dabei sind wir in Richtung Versicherungsmarkt die technische Speerspitze für datengetriebene Lösungen und Consultingleistungen.
In deiner Rolle als Data Scientist konzipierst und entwickelst du als Teil unseres Teams Data Driven Insurance innovative Lösungen, mit denen wir für unsere Versicherungskunden kontinuierlich Geschäftsnutzen aus deren Daten generieren.
Im Detail übernimmst du dabei folgende Aufgaben :
- Du konzipierst und implementierst innovative AI-Lösungen für Versicherungen mit starkem Fokus auf Cloud-Infrastrukturen.
- Du unterstützt uns bei der Optimierung und Automatisierung bestehender AI-Lösungen und sorgst damit für eine kontinuierliche Verbesserung der AI-Produkte unserer Versicherungskunden.
- Du automatisierst Trainings- und Release-Prozesse von ML-Modellen und berätst unsere Kunden bei der Auswahl und Implementierung moderner AI-Plattformen und -Frameworks.
- Du unterstützt uns und unsere Kunden bei der Identifizierung und Umsetzung von innovativen AI Use cases sowie bei der Entwicklung von neuen datengetriebenen Geschäftsmodellen.
DEINE SKILLS - DAS BRINGST DU MIT
- Erfolgreich abgeschlossenes Studium in der Fachrichtung Informatik, Wirtschaftsinformatik oder ein vergleichbares Studium mit relevantem Bezug
- Mindestens zwei Jahre einschlägige Berufserfahrung mit ausgeprägtem ML-Hintergrund und Erfahrung in der Erstellung, Bereitstellung und Pflege von ML-Modellen in der Produktion
- Projekterfahrung bei Versicherungen
- Fortgeschrittene Kenntnisse in Python und den gängigen Machine Learning-Bibliotheken sowie Erfahrungen mit MLOps-Tools wie MLflow, KubeFlow o.ä.
- Von Vorteil sind Erfahrungen im Umgang mit großen Datenmengen sowie im Einsatz von Infrastructure as Code (Terraform, ARM).
- Spaß an der Arbeit in einem agilen Team, "Out of the box"-Denken und hohes Interesse daran, sich mit neuen Themen auseinanderzusetzen.