Unser Mandant hat sich als Beratungspartner und Digitalisierungsexperte für Unternehmen aus der Pharmazie, Kosmetik, Medizintechnik, Lebensmittel und Chemie in DACH einen Namen gemacht, gehört hier zu den TOP Playern mit beeindruckendem Marktanteil und wächst weiter IHR AUFGABENGEBIET Ob Weiterentwicklung der Branchenlösung, Support für internationale Partner oder das Testen und Dokumentieren neuer Features – du packst mit an und sorgst dafür, dass alles rund läuft. Deine Aufgaben: Durchführung von Integrationstests der implementierten Softwarekomponenten sowie Erstellung von funktionaler Dokumentation Unterstützung der internationalen Partner und internen Kolleginnen und Kollegen bei Fragen und Problemstellungen rund um das Produkt Entwicklung von allgemeinen, skalierbaren Lösungen zur Vereinfachung der Kunden- und Partnerinteressen Enge Zusammenarbeit im Team sowie Einbindung erfahrener Consultants und Developer bei komplexen oder technischen Anforderungen IHRE KENNTNISSE Fach-/Hochschulstudium im Bereich Informatik, Wirtschaftsinformatik oder eine vergleichbare Ausbildung Fundierte Erfahrung mit Microsoft Dynamics 365 Business Central Wünschenswert sind Kenntnisse in der Produktentwicklung, idealerweise im Business Central Umfeld.
Tätigkeiten: Kundenerlebnis sichern: Sicherstellen der Software-Qualität in KundenprojektenFehler früh sichtbar machen: Entwurf, Ausführung und Auswertung von TestfällenTestbarkeit herstellen: Review von Anforderungen auf Umsetzbarkeit und RisikenRelease-Sicherheit schaffen: Automatisieren von UI- und API-Tests inkl. Auswertung und Abweichungsanalyse Effizienz im Prozess erhöhen: Integration automatisierter Tests in Azure DevOps Technisches Fundament: Studium im Bereich Software / Informatik oder vergleichbare AusbildungQualitätsfokus: Erfahrung im Bereich Softwaretesting bzw.
Wissenschaftliche Softwareentwicklung: Entwicklung und Optimierung von hochleistungsfähigen numerischen Kernen in modernem C/C++, mit besonderem Augenmerk auf Skalierbarkeit und Portabilität.Entwicklung modularer, wartungsfreundlicher und gut dokumentierter Forschungssoftware.Parallelisierung mittels MPI, GPU-Computing oder verwandter Technologien.Anwendung bewährter Verfahren der Softwareentwicklung (Versionskontrolle, Testen, Reproduzierbarkeit).Beitrag zur Open-Source-Infrastruktur für wissenschaftliches Rechnen. Sie werden Ergebnisse in führenden Fachzeitschriften veröffentlichen, auf internationalen Konferenzen präsentieren und in einem interdisziplinären Umfeld zusammenarbeiten, das Physik, Mathematik, Nanotechnologie und fortgeschrittenes Rechnen umfasst.
B2).Zertifizierung: ISTQB Certified Tester – Foundation Level oder vergleichbar (Spezialisierungen von Vorteil).Flexibilität: Wir bieten dir flexible Arbeitsmodelle mit großzügiger Gleitzeitregelung - wahlweise an einem unserer Standorte oder bis zu 100% mobil innerhalb Deutschlands.Einarbeitung & Entwicklung: Deine individuelle Einarbeitung und Karriereförderung liegen uns am Herzen.
Konzeption, Machbarkeitsanalysen und Evaluation Ihr Profil: Mindestens 3 Jahre Berufserfahrung als ML-Engineer, idealerweise im Versicherungs- oder Sozialversicherungsumfeld Sehr gute Python-Programmierkenntnisse mit mehreren Jahren produktiver Anwendung Erfahrung im Betrieb containerisierter Anwendungen in Produktionsumgebungen (Kubernetes & Docker) Fundierte Kenntnisse in Software-Design & Architektur: API-Design, Service-Schnittstellen, technische Dokumentation Praxis im Testen und Betreiben produktiver KI-Systeme: Unit- & Integrationstests Daten- und Trainingspipelines Training & Deployment Monitoring & Alerting in mindestens einem produktiven System Rahmenparameter: Einsatzort: Remote (80%) & Hannover/München (20%) Laufzeit: 01.04.2026 - 31.12.2026 Auslastung: Vollzeit Ihr GECO-Ansprechpartner freut sich auf Ihre Kontaktaufnahme und über die Zusendung Ihrer aussagekräftigen Projekthistorie sowie Ihrer Honorarvorstellung.
Ihre Aufgaben: Design, Implementierung und Wartung von Datenpipelines für Modelltraining und Inferenz Konzeption, Entwicklung und Überwachung von Datenmodellen sowie ETL Prozessen zur Extraktion, Transformation und Beladung von Daten aus unterschiedlichen Quellen Anbindung und Integration weiterer Datenquellen in bestehende Data Lake und Data Warehouse Strukturen Verantwortung für Betrieb, Monitoring und Optimierung der entwickelten Datenaufbereitungslösungen Erstellung und Pflege von Dashboards zur Visualisierung und Präsentation von Daten Überführung explorativer Prototypen und Notebooks in stabile, automatisierte und produktive Prozesse Kontinuierliche Weiterentwicklung der technologischen Basis zur Verarbeitung großer Datenmengen hinsichtlich Performance, Skalierbarkeit und Stabilität Identifikation und Erprobung neuer Anwendungsfelder für KI gestützte Lösungen inklusive Konzeption, Machbarkeitsanalysen und produktiver Umsetzung Ihr Profil: Mindestens 3 Jahre praktische Berufserfahrung in der Konzeption, Entwicklung und Überwachung von Datenmodellen und Datenpipelines im Umfeld moderner Data Lakes und Data Warehouses Sehr gute Kenntnisse in der Entwicklung von ETL Prozessen sowie im Umgang mit strukturierten und unstrukturierten Datenquellen Erfahrung im produktiven Betrieb von containerisierten Anwendungen in Kubernetes und Docker Umgebungen Fundierte Kenntnisse in Software Design und Architektur sowie im API Design und in der technischen Dokumentation Praxis im Testen, Betreiben und Überwachen produktiver Daten und KI Systeme inklusive Monitoring und Alerting Sehr gute Python Kenntnisse mit mehrjähriger produktiver Anwendung Erfolgreich abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder vergleichbare Ausbildung Deutschkenntnisse auf Niveau B2 oder Muttersprache Rahmenparameter: Einsatzort: Remote (80%) & Hannover/München (20%) Laufzeit: 01.04.2026 - 31.12.2026 Auslastung: Vollzeit Ihr GECO-Ansprechpartner freut sich auf Ihre Kontaktaufnahme und über die Zusendung Ihrer aussagekräftigen Projekthistorie sowie Ihrer Honorarvorstellung.