Tätigkeiten: Kundenerlebnis sichern: Sicherstellen der Software-Qualität in KundenprojektenFehler früh sichtbar machen: Entwurf, Ausführung und Auswertung von TestfällenTestbarkeit herstellen: Review von Anforderungen auf Umsetzbarkeit und RisikenRelease-Sicherheit schaffen: Automatisieren von UI- und API-Tests inkl. Auswertung und Abweichungsanalyse Effizienz im Prozess erhöhen: Integration automatisierter Tests in Azure DevOps Technisches Fundament: Studium im Bereich Software / Informatik oder vergleichbare AusbildungQualitätsfokus: Erfahrung im Bereich Softwaretesting bzw.
Wissenschaftliche Softwareentwicklung: Entwicklung und Optimierung von hochleistungsfähigen numerischen Kernen in modernem C/C++, mit besonderem Augenmerk auf Skalierbarkeit und Portabilität.Entwicklung modularer, wartungsfreundlicher und gut dokumentierter Forschungssoftware.Parallelisierung mittels MPI, GPU-Computing oder verwandter Technologien.Anwendung bewährter Verfahren der Softwareentwicklung (Versionskontrolle, Testen, Reproduzierbarkeit).Beitrag zur Open-Source-Infrastruktur für wissenschaftliches Rechnen. Sie werden Ergebnisse in führenden Fachzeitschriften veröffentlichen, auf internationalen Konferenzen präsentieren und in einem interdisziplinären Umfeld zusammenarbeiten, das Physik, Mathematik, Nanotechnologie und fortgeschrittenes Rechnen umfasst.
B2).Zertifizierung: ISTQB Certified Tester – Foundation Level oder vergleichbar (Spezialisierungen von Vorteil).Flexibilität: Wir bieten dir flexible Arbeitsmodelle mit großzügiger Gleitzeitregelung - wahlweise an einem unserer Standorte oder bis zu 100% mobil innerhalb Deutschlands.Einarbeitung & Entwicklung: Deine individuelle Einarbeitung und Karriereförderung liegen uns am Herzen.
Konzeption, Machbarkeitsanalysen und Evaluation Ihr Profil: Mindestens 3 Jahre Berufserfahrung als ML-Engineer, idealerweise im Versicherungs- oder Sozialversicherungsumfeld Sehr gute Python-Programmierkenntnisse mit mehreren Jahren produktiver Anwendung Erfahrung im Betrieb containerisierter Anwendungen in Produktionsumgebungen (Kubernetes & Docker) Fundierte Kenntnisse in Software-Design & Architektur: API-Design, Service-Schnittstellen, technische Dokumentation Praxis im Testen und Betreiben produktiver KI-Systeme: Unit- & Integrationstests Daten- und Trainingspipelines Training & Deployment Monitoring & Alerting in mindestens einem produktiven System Rahmenparameter: Einsatzort: Remote (80%) & Hannover/München (20%) Laufzeit: 01.04.2026 - 31.12.2026 Auslastung: Vollzeit Ihr GECO-Ansprechpartner freut sich auf Ihre Kontaktaufnahme und über die Zusendung Ihrer aussagekräftigen Projekthistorie sowie Ihrer Honorarvorstellung.
Ihre Aufgaben: Design, Implementierung und Wartung von Datenpipelines für Modelltraining und Inferenz Konzeption, Entwicklung und Überwachung von Datenmodellen sowie ETL Prozessen zur Extraktion, Transformation und Beladung von Daten aus unterschiedlichen Quellen Anbindung und Integration weiterer Datenquellen in bestehende Data Lake und Data Warehouse Strukturen Verantwortung für Betrieb, Monitoring und Optimierung der entwickelten Datenaufbereitungslösungen Erstellung und Pflege von Dashboards zur Visualisierung und Präsentation von Daten Überführung explorativer Prototypen und Notebooks in stabile, automatisierte und produktive Prozesse Kontinuierliche Weiterentwicklung der technologischen Basis zur Verarbeitung großer Datenmengen hinsichtlich Performance, Skalierbarkeit und Stabilität Identifikation und Erprobung neuer Anwendungsfelder für KI gestützte Lösungen inklusive Konzeption, Machbarkeitsanalysen und produktiver Umsetzung Ihr Profil: Mindestens 3 Jahre praktische Berufserfahrung in der Konzeption, Entwicklung und Überwachung von Datenmodellen und Datenpipelines im Umfeld moderner Data Lakes und Data Warehouses Sehr gute Kenntnisse in der Entwicklung von ETL Prozessen sowie im Umgang mit strukturierten und unstrukturierten Datenquellen Erfahrung im produktiven Betrieb von containerisierten Anwendungen in Kubernetes und Docker Umgebungen Fundierte Kenntnisse in Software Design und Architektur sowie im API Design und in der technischen Dokumentation Praxis im Testen, Betreiben und Überwachen produktiver Daten und KI Systeme inklusive Monitoring und Alerting Sehr gute Python Kenntnisse mit mehrjähriger produktiver Anwendung Erfolgreich abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder vergleichbare Ausbildung Deutschkenntnisse auf Niveau B2 oder Muttersprache Rahmenparameter: Einsatzort: Remote (80%) & Hannover/München (20%) Laufzeit: 01.04.2026 - 31.12.2026 Auslastung: Vollzeit Ihr GECO-Ansprechpartner freut sich auf Ihre Kontaktaufnahme und über die Zusendung Ihrer aussagekräftigen Projekthistorie sowie Ihrer Honorarvorstellung.