Bei uns können Sie praktische Erfahrungen sammeln und an innovativen Projekten im Bereich Data Science mitarbeiten, um KSB-Dienstleistungen und -Produkte zu verbessern. Woran Sie arbeiten werden: Entwicklung und Testen neuer Algorithmen, Modelle und Methoden basierend auf maschinellem Lernen oder anderen Techniken in Zusammenarbeit mit dem Data Science Team Evaluierung und Optimierung von Algorithmen und Modellen, Einbringen innovativer Ideen und neuer Methoden ins Data Science Team, Vorbereitung und Prozessieren von Rohdaten zum Erstellen von Modellen Durchführung von Analysen und Präsentation der Ergebnisse vor dem Data Science Team, Entwicklung von qualitativ hochwertigem Code nach dem "Clean code”-Prinzip und KSB-Standards Perfekt vorbereitet | Sie studieren im Bereich Mathematik, Statistik, Data Science, Informatik, Physik oder vglb.
DIES SIND IHRE AUFGABEN: Ganzheitliche Begleitung von BI / Data Projekten: von der Anforderungsaufnahme über Umsetzung und Tests bis zur ProduktivsetzungAnalyse und Aufbereitung von Rohdaten, Entwicklung von Datenmodellen sowie Visualisierung aussagekräftiger InformationenEinsatz von Qlik Sense mit Schwerpunkt auf Data Mining und Data Analytics in Bereichen wie Produktion, Vertrieb, Logistik und ProduktmanagementAnbindung und Nutzung von Datenquellen aus den ERP-System SAP zur Gewährleistung konsistenter AnalysenOptimierung der Datenqualität und Beratung internationaler Fachbereiche zur effektiven Nutzung von Datenanalyse-ToolsÜbernahme von (Teil-)Projektleitungen sowie Koordination interner IT-Ressourcen, externer Dienstleister und FachabteilungenUser Support und Schulungen in Deutsch (Sprache am Firmensitz!)
HV Authorised Person (Experienced with HV Systems) Electrical/Mechanical Engineering HNC or HND (Successfully completed apprenticeship in either) C&G Pts. 1 & 2, equivalent or exceeds. 17th Edition IEE: Wiring and Installation (Ability to attain 18th Edition through additional training) C&G 2391 test and inspection; BS 7671:2001 for inspection, testing and certification. Proven experience in data centre operations management, preferably in a mission-critical environment.
Unbefristeter Arbeitsvertrag Einsatz bei renommierte Kunden/ Weltmarktführer Betreuung vom Bewerbungsgespräch bis zur Einstellung Ihre Aufgaben: Beratung und Unterstützung der Mitarbeiter weltweit in Bezug auf Einsatzmöglichkeiten, Leistungsfähigkeit und optimale Nutzung von vorhandenen Datenanalyse-Tools Unterstützung bei der Analyse und Verbesserung der Datenqualität Verantwortung für die Aufnahme, Bewertung und Festlegung des Leistungsumfanges im Bereich Data Mining und Data Analytics Implementierung, Test, Anwenderabnahme, Dokumentation und Produktivsetzung von Anforderungen im Bereich Data Mining und Data Analytics Identifizierung der entsprechenden Rohdaten, Design der notwendigen Datenmodelle und Automatisierung der Umwandlung dieser Rohdaten in entscheidungsrelevante Informationen Unterstützung bei der Auswahl neuer Softwarelösungen durch Erstellung von Lasten- /Pflichtenheften und Evaluierungsmatrizen sowie durch fachliche Bewertung der Angebote Übernahme der Projekt- bzw.
Das bringst du mit Data Engineering Erfahrung: Mehrjährige Berufserfahrung im Data Engineering und in der Datenmodellierung, idealerweise im Consulting-Umfeld.Snowflake Expertise: Mehrjährige Projekterfahrung mit Snowflake in produktiven Umgebungen inklusive Performance-Optimierung sowie Rollen- und Rechtemodellen.dbt-Erfahrung: Sicherer Umgang mit dbt Core oder dbt Cloud inklusive Makros, Jinja, Tests und strukturierter Dokumentation von Transformationslogiken.Tech Stack: Sehr gute SQL-Kenntnisse auf Advanced-Level sowie praktische Erfahrung mit Python, Cloud-Providern wie AWS, Azure oder GCP und Git für die Zusammenarbeit im Team.Agile Methodik: Erfahrung mit Scrum oder Kanban sowie im strukturierten Anforderungsmanagement im Analytics-Umfeld.Kommunikation und Sprache: Ausgeprägte Kundenorientierung, fließende Deutschkenntnisse (mindestens C1), gute Englischkenntnisse und punktuelle Reisebereitschaft je nach Kundenbedarf.
Tätigkeiten: Potenziale erkennen: Analysiere Kundenanforderungen und entwickle datengetriebene Lösungen – von Analytics über Machine Learning bis GenAI.Strategien entwickeln: Konzipiere individuelle Data-&-AI-Strategien für vielfältige Use Cases.Lösungen skalieren: Entwirf zukunftsfähige Architekturen für Datenplattformen, ML-Pipelines und AI-Systeme.Technologien prüfen: Teste und empfehle passende Technologien, begleite Umsetzungsteams mit klaren Roadmaps.Business ausbauen: Unterstütze Pre-Sales-Aktivitäten, Marktanalysen und die Weiterentwicklung datenbasierter Geschäftsbereiche.Angebote mitgestalten: Bringe deine Ideen in Lösungskonzepte, Kalkulationen und Präsentationen ein.Akademischer Hintergrund: Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik, Computer Science oder eine vergleichbare Qualifikation.Erfahrung: Mehrjährige Erfahrung in der Konzeption und Umsetzung moderner Datenplattformen, ML-Lösungen und AI-Systeme.Technologiekompetenz: Fundierte Erfahrung mit Azure, Databricks oder AWS sowie in Python, SQL, Docker, CI/CD-Pipelines und Infrastructure as Code.Fachliches Know-how: Tiefes Verständnis moderner Datenarchitekturen, MLOps und Data Governance.Arbeitsweise: Kombination aus konzeptioneller Stärke, analytischem Denken und pragmatischer Hands-on-Mentalität.Kommunikationsstärke: Fähigkeit, komplexe Themen klar und überzeugend zu vermitteln – in Deutsch und Englisch.Flexibilität: Wir bieten dir flexible Arbeitsmodelle mit großzügiger Gleitzeitregelung – wahlweise an einem unserer Standorte oder bis zu 100 % mobil innerhalb Deutschlands.Einarbeitung & Entwicklung: Deine individuelle Einarbeitung und Karriereförderung liegen uns am Herzen.
Unsere Stakeholder sind u.a Project Leads, Product Owners, Business Analysts, Security Engineers, Operations Teams, Test Teams. Häufig verwenden unsere Kunden und Projekte u.a. die Technologien Java / SpringBoot, JavaScript / TypeScript, KeyCloak, PostgreSQL, MongoDB, JMS, JSON, REST, Kafka, Quarkus, AWS, AZURE, GCP, Docker, K8S, Gitlab, Github, Maven, Terraform, Helm.
Benefits Senior-Rolle im SAP S4HANA und PLM Umfeld Fokus auf Master Data Governance und Prozessintegration Standort Mülheim an der Ruhr Aufgaben Sie übersetzen Business- und Engineering-Anforderungen in SAP S4HANA MDG M und PLM Lösungen Sie definieren funktionale Spezifikationen und begleiten Tests Sie gestalten und überwachen Data-Governance- und Data-Quality-Regeln Sie analysieren und bereinigen Stammdatenprobleme Sie steuern Schnittstellen zwischen SAP, Teamcenter und angebundenen Systemen Sie erstellen Dokumentation und Trainingsmaterialien für Endanwender Profil Abgeschlossenes Studium im Bereich Informatik, Wirtschaftsinformatik, Maschinenbau oder vergleichbar Mehrjährige Erfahrung in SAP S4HANA MDG M, SAP MM und SAP PP Erfahrung im PLM-Umfeld, idealerweise Teamcenter Sehr gute Kenntnisse in Requirements Engineering und funktionalem Design Erfahrung in Implementierungsprojekten sowie im IT-Projektmanagement Sehr gute Englischkenntnisse Unsicher, ob die Stelle zu Ihnen passt?
Unsere Stakeholder sind u.a Project Leads, Product Owners, Business Analysts, Security Engineers, Operations Teams, Test Teams. Häufig verwenden unsere Kunden und Projekte u.a. die Technologien Java / SpringBoot, JavaScript / TypeScript, KeyCloak, PostgreSQL, MongoDB, JMS, JSON, REST, Kafka, Quarkus, AWS, AZURE, GCP, Docker, K8S, Gitlab, Github, Maven, Terraform, Helm.
Working closely with Product Owners and cross-functional teams, you’ll provide full-cycle A/B test analytical support, create tracking concepts, and translate user behavior and shop performance insights into actionable business recommendations.
Du begleitest Schnittstellen end-to-end: von der Anforderungsaufnahme über Design und Umsetzung bis hin zu Tests, Rollout und Betrieb – gemeinsam mit Deinen Kolleg*innen und externen Partnern. Du arbeitest eng mit unseren Fachbereichen zusammen, priorisierst pragmatisch nach Wirkung und entwickelst Lösungen konsequent aus dem Business heraus.
Dieser Job ist im Rahmen der Arbeitnehmerüberlassung mit Option auf Übernahme bei unserem Auftraggeber zu besetzen. Deine Aufgaben Du entwickelst, wartest und testest Datenpipelines zur neartime-Verarbeitung von Kundendaten nach modernen Software- und Data-Engineering-Prinzipien.Du stellst die Infrastruktur für Datenkonsument:innen sowie Machine-Learning-Modelle bereit und erschließt relevante Datenquellen technisch.Du dokumentierst technische Entscheidungsgrundlagen und bewertest verbundene Risiken.Du bringst Dich aktiv in die Optimierung der Entwicklungsprozesse im Team ein von CI/CD über DevOps bis hin zu MLOps.Du unterstützt dabei, aus Mensch-Maschine-Interaktionen automatisiert zu lernen und Kundenerlebnisse kontinuierlich zu verbessern.
Ihre Aufgaben: Leitung und Mitarbeit von Projekten im Bereich Digitalisierung und Datenanalyse Optimierung, Digitalisierung und Automatisierung der KPI-Landschaft Erstellung und Pflege von Berichten und Echtzeit-Dashboards Implementierung von Monitoringsystemen zur automatischen Abweichungsbenachrichtigung Erstellung von Best Practices und Dokumentationen im Datenmanagement Aktive Beteiligung an Verbesserungsprojekten, Umsetzung von AOS-Bricks und der EDD-Datenstrategie Koordination mit zentraler IT, „Methoden & Tools“ und externen Dienstleistern für Industrialisierung von Anwendungen (Spezifikationen, Tests, Datenprodukte) Organisation und Durchführung von Upskilling-Sessions zur Förderung von Datenkompetenzen Ihr Profil: Abgeschlossenes Studium (mind.
ROAS, CAC, conversion rates) and conduct ad‑hoc analyses to answer specific business questions.You support A/B tests, campaign evaluations, as well as forecasting and scenario analyses.You help ensure data quality, perform plausibility checks, and support tracking concepts and data integrations.You analyze customer journeys as well as lead and B2B funnels (MQL/SQL) and derive data‑driven recommendations to optimize performance.You work closely with performance marketing, eCommerce, and external agencies, and use AI‑driven analysis methods to evaluate user behavior.
Mindestens 6 Jahre praktische Erfahrung in der Implementierung von produktionsreifer Software mit Python, Git, CI/CD, Testing (Unittests und End-to-End Tests) Mindestens 6 Jahre praktische Erfahrung in der Datenanalyse mit SQL oder MDX (TM1) Sehr gute Deutsch Kenntnisse (mind.B2) vorausgesetzt.
Entwicklung datenbasierter Optimierungsvorschläge zur Steigerung der Shop-Performance Erstellung eines verständlichen, umsetzungsorientierten Maßnahmenkatalogs Weiterführende Aufgaben: Durchführung von Usability-Tests Sicherstellung einer benutzerfreundlichen Customer Journey Xovi als SEO- und Online-Marketing-Tool für Keyword-Recherche, Wettbewerbsanalyse, Onpage-Analyse etc.
Job-Orchestrierung, Scheduling und Monitoring Migration bestehender ETL-Strecken aus SAP BI/ BO in SAP Datasphere, inkl. Refactoring, Test und Cutover Integration & Transformation heterogener Quellsysteme (SAP & Non-SAP), inkl. Realtime-Replikation/CDC dort, wo sinnvoll Datenqualität & Governance: Aufbau automatisierter DQ-Checks, Lineage/Metadata-Pflege und Dokumentation Performanceoptimierung (Push-Down, Parallelisierung, Partitionierung), sowie Kosten-/Leistungs-Tuning in Cloud-Szenarien Enge Zusammenarbeit mit Fachbereichen (Anforderungsanalyse, Data Contracts) und Data Analytics-Team (Modellierung, Semantik) Wünschenswert wäre CI/CD & Automatisierung: Versionierung, Build/Deploy-Pipelines, Testautomatisierung und „infrastructure as code“ für Datenstrecken Dokumentation & kontinuierliche Verbesserung der Integrationsarchitektur und Betriebsprozesse IHR PROFIL Studium der (Wirtschafts-)Informatik oder gleichwertige Praxis 3+ Jahre ETL-/Data-Engineering-Erfahrung, davon substantiell mit SAP Data Services und (idealerweise) SAP Datasphere Sehr gute SQL-Kenntnisse (z.
Job-Orchestrierung, Scheduling und Monitoring Migration bestehender ETL-Strecken aus SAP BI/ BO in SAP Datasphere, inkl. Refactoring, Test und Cutover Integration & Transformation heterogener Quellsysteme (SAP & Non-SAP), inkl. Realtime-Replikation/CDC dort, wo sinnvoll Datenqualität & Governance: Aufbau automatisierter DQ-Checks, Lineage/Metadata-Pflege und Dokumentation Performanceoptimierung (Push-Down, Parallelisierung, Partitionierung), sowie Kosten-/Leistungs-Tuning in Cloud-Szenarien Enge Zusammenarbeit mit Fachbereichen (Anforderungsanalyse, Data Contracts) und Data Analytics-Team (Modellierung, Semantik) Wünschenswert wäre CI/CD & Automatisierung: Versionierung, Build/Deploy-Pipelines, Testautomatisierung und „infrastructure as code“ für Datenstrecken Dokumentation & kontinuierliche Verbesserung der Integrationsarchitektur und Betriebsprozesse IHR PROFIL Studium der (Wirtschafts-)Informatik oder gleichwertige Praxis 3+ Jahre ETL-/Data-Engineering-Erfahrung, davon substantiell mit SAP Data Services und (idealerweise) SAP Datasphere Sehr gute SQL-Kenntnisse (z.
Design, build and optimize enterprise Tableau dashboardsDevelop reporting-friendly data models on Cloudera Data Platform (Hadoop) and Azure Databricks (Delta Lake, SQL Warehouses)Implement and tune SQL queries (Hive, Impala, Spark SQL, Databricks SQL) for performance, cost efficiency and concurrencyApply Tableau performance optimization strategies (extract vs live, push-down optimization, query tuning)Design and implement secure enterprise Tableau configurations, including row-level security aligned with role conceptsEnsure compliance with IT security, data governance and regulatory requirementsCollaborate with data platform teams, DataOps, IT security/compliance and controlling solutionsProduce professional documentation: data models, dashboard specifications, data-source definitions, security concepts, test casesConduct testing for accuracy, performance, access control and stability of dashboards and data modelsProvide knowledge transfer, coaching and structured handover to internal teams Strong hands-on experience with Tableau Desktop and Tableau Server/Cloud in enterprise environmentsProven ability to build management-ready dashboards for finance/controlling or other regulated industriesPractical experience with Cloudera Data Platform, Hadoop ecosystems, and Azure Databricks integrationsAdvanced SQL skills across Hive, Impala, Spark SQL, Databricks SQLSolid understanding of Delta Lake, parquet/ORC formats, and BI-oriented data modeling principlesExperience implementing row-level security and with enterprise BI solutionsStrong knowledge of performance optimization in Tableau, Hadoop and Databricks environmentsAbility to operate in regulated financial environments with security, compliance and data governance constraintsExcellent communication and documentation skills in English International clientRemote option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 864486/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
The role ensures that customer processes, data formats, and quality requirements are correctly understood, translated, and implemented in the map handling standard software or related solutions that support semiconductor manufacturing from wafer test through assembly and final test. The professional possesses in depth knowledge of the critical stages of semiconductor manufacturing, with a strong focus on wafer test and chip assembly, and maintains a high level understanding of adjacent process stages, including front end wafer fabrication and final test.Degree in Computer Science, Software Engineering, Electrical Engineering or comparable technical fieldStrong IT / software background with understanding of software architecture, data models and interfaces, system integration, industrial software solutions ideally with a background in manufacturing IT or MES environmentsExperience in semiconductor manufacturing, preferably in Wafer Test / Wafer Sort, Assembly, Final TestSolid knowledge of semiconductor data formats and standards such as SEMI E142, SECS/GEM (E5), E183, G85, STDFAbility to analyze complex technical data flows and translate them into software requirementsExperience working at the interface between customers, engineers and software development teamsStrong analytical and structured communication skillsFluent English required, German skills are a plus Gesundheitsmaßnahmen Mitarbeiterrabatte Aus- und Weiterbildung Betriebliche Altersvorsorge Mitarbeiterevents Unbefristete Arbeitsverträge Workation Flache Hierarchien und kurze Kommunikationswege 30 Tage Urlaub sowie anlassbezogener Sonderurlaub Reduzierte Vollzeit In der znt Zentren für Neue Technologien GmbH in Deutschland sowie in Österreich liegen unsere Vollzeitverträge unter 40 Stunden pro Woche.
Je nach Schwerpunkt unterstützt du bei der Entwicklung moderner Anwendungen, beim strukturierten Koordinieren von Projekten oder beim Testen von Apps und Datenflüssen. Uns ist wichtig, dass du nicht nur mitläufst, sondern aktiv mitarbeitest, Verantwortung übernimmst und dich fachlich weiterentwickeln kannst.
Lesen Sie weiter… Mit Ihren Kenntnissen aus dem Studium und Ihrer Leidenschaft für das Thema können Sie bei den folgenden Aufgaben Erfahrungen bei uns sammeln: Erstellung von automatisierten Analysen und Bewertungen von aufgenommenem Bildmaterial und Datensätzen mittels Methoden aus Statistik und Data Mining sowie u.U. auch unter Miteinbezug von Sensor- und Navigationsdaten Merkmalsextrahierung und Analyse von Datensätzen mittels KI-basierten tiefen neuronalen Netzen Implementierung, Tests und Analyse von Verfahren zur dynamischen Anpassung von Kamera- und Bilddaten für die KI-Algorithmik im Zuge von Flugaufnahmekampagnen Erstellung von Datensätzen und Arbeit mit Datenbanksystemen Pflege von internen Dokumenten- und Wissensverwaltungssystemen Bei Interesse Unterstützung bei der Durchführung von Versuchskampagnen im Feld mehr weniger WAS SIE DAFÜR MITBRINGEN SOLLTEN Immatrikulation in einem Studiengang der Informatik, Computer Vision, Statistik, Data Analytics o.ä.
Datenmigration & Prozessunterstützung Du unterstützt bei Datenmigrationen sowie systemnahen Tests, um die Qualität neuer oder veränderter Daten sicherzustellen. Außerdem dokumentierst du Datenmanagementprozesse und hilfst bei der Erstellung von Trainingsunterlagen für die Stammdatenpflege.
CI/CD-Integration: Integrieren Sie automatisierte Tests in unsere CI/CD Pipeline, um kontinuierliche Tests und schnelles Feedback sicherzustellen. Integration der automatisierten Tests in die Plattform-übergreifende Automatisierungstest-Suite und deren einheitliche Test- und Reportingstruktur.
Responsibilities Full ownership of app marketing campaigns (Facebook, Instagram, Google, Apple) from strategy to execution Define, monitor, and analyze KPIs (e.g., ROAS, CPI) to enable data-driven decisions Manage budgets, forecast performance, and scale campaigns to maximize results Run analyses, A/B tests, and experiments to drive continuous optimization Track industry trends and identify growth opportunities with strategic initiatives Collaborate with Design, Media, Analytics, and Tech teams on creatives and automation Mentor junior team members and share best practices Requirements Degree in business administration or related field (e.g., media management, e-commerce) 1.5+ years of experience in app marketing, ideally in a fast-paced environment Strong analytical skills with ability to interpret data and derive actionable insights Knowledge in app marketing, including campaign setup & targeting; Paid Social (e.g., Meta Advantage+ catalogue ads) is a plus Hands-on experience with Adjust, Meta Business Manager, Google Ads, Apple Search Ads, App Stores, Smartly or similar tools Excellent English skills, both written and spoken Benefits Hybrid working Täglich frisches Obst Sportkurse Exklusive Mitarbeiter Rabatte Kostenlose Getränke Sprachkurse Company Events Relocation Unterstützung Mobilitätszuschlag Zentrale Lage Flexible Arbeitszeiten Betriebliche Altersvorsorge Weiterbildungs- angebote Hunde erlaubt AY Academy Feedbackkultur Firmenfahrrad YOU ARE THE CORE OF ABOUT YOU We take responsibility for creating an inclusive and exceptional environment where all genders, nationalities and ethnicities feel welcomed and accepted exactly as they are.
Designing and maintaining ArcGIS Enterprise environments (portal, hosting/federated servers, datastores) Publishing, configuring, and optimizing services throughout their lifecycle Implementing reliable multi-environment content deployment for databases, services, and applications Automating workflows with arcpy and ArcGIS API for Python for ETL, validation, and spatial processing Architecting and administering enterprise Geodatabases, including rules, domains, subtypes, relationships, and archiving Troubleshooting and resolving Geodatabase performance or data-integrity issues Planning and executing large-scale historical data migrations, including mapping, transformation, and validation Managing migration risks and documenting outcomes for both technical and non-technical audiences Building and troubleshooting integrations using ArcGIS REST APIs and webhooks, including real-time sync logic Providing structured production support, performing first-level RCA, documenting integrations, and contributing to UAT test books ArcGIS Enterprise mastery: deep experience with portal, hosting/federated servers, datastores, plus hands-on service publishing, configuration, and lifecycle management Advanced automation skills: strong proficiency with arcpy and ArcGIS API for Python for ETL, data processing, and deployment workflows Enterprise Geodatabase expertise: architecture/design (rules, domains, subtypes, relationships, archiving) plus proven ability to diagnose and fix performance and integrity issues Historical data migration leadership: large-scale migration planning, mapping, transformation logic, validation, risk mitigation, and documentation for diverse stakeholders Integration & production support: hands-on work with ArcGIS REST APIs, webhooks, real-time sync/reconciliation mechanisms, first-level RCA, and integration architecture analysis Location: 100% Remote Language: English Ihr Kontakt Referenznummer 866056/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
Du probierst aus, testest, optimierst – mit viel Raum für Wachstum und Entwicklung. Du erklärst KI-Lösungen verständlich – für Fachbereiche, IT-Teams und Kunden.
Du probierst aus, testest, optimierst – mit viel Raum für Wachstum und Entwicklung. Du erklärst KI-Lösungen verständlich – für Fachbereiche, IT-Teams und Kunden.
B2B tools and message standards, middleware, SOA concepts, data communications, visibility tools)Ability to analyze and decompose business needs into sets of IT requirementsSolid knowledge of Test Management, Change Management, Configuration ManagementCustomer OrientatedStrong ability to solve problems and propose suitable, alternative solutions and interpersonal and influencing skillsStrong organizational awareness and experience in managing medium scale projects/ consultancy assignments (6-12 months) with direct business impact and firm deadlinesExcellent written and verbal communication skillsProactive WHAT IS THE PLUS POINT(S) ·Java/Angular/NodeJS Web Development Knowledge.
Konzeption und Umsetzung von GenAI-Anwendungen mit Retrieval Augmented Generation (RAG) Entwicklung und Integration von Backend Services in Python Integration von KI-Systemen in bestehende Systemlandschaften und APIs Sicherstellung von Datenqualität und Data Readiness für KI-Anwendungen Umsetzung von Schnittstellen zwischen Datenquellen, KI-Modellen und Zielsystemen Unterstützung bei Freigabeprozessen und Governance Fragen rund um KI-Systeme Aufbau stabiler Fallback- und Fehlerbehandlungsmechanismen Mitwirkung bei Tests, Qualitätssicherung und produktiver Betriebsfähigkeit Zusammenarbeit mit Fachbereichen und IT zur Integration der KI-Lösung Fundierte Python- und Backend-Entwicklungserfahrung, sowie Erfahrung mit Generative AI und RAG-Architekturen Nachweisbare Projekterfahrung mit produktiven KI-Systemen Erfahrung in Systemintegration und API-Anbindungen, sowie Verständnis für Datenqualität und Datenaufbereitung für KI Erfahrung im Umgang mit Schnittstellen, Datenflüssen und Integrationsarchitekturen Erfahrung mit Security- und Datenschutzanforderungen bei KI-Systemen Erfahrung mit Testing-Strategien für KI-Anwendungen Implementierung von Fallback-Logiken und Fehlerbehandlung Erfahrung mit Cloud-naher Umsetzung, idealerweise im Umfeld IONOS Cloud Erfahrung mit Deployment und Betrieb von KI-Systemen Wünschenswert: Erfahrung mit Datenverarbeitung und Data Readiness, Kenntnisse in Logging, Monitoring und Tracing, Verständnis von Contact Center- oder Ticketing-Systemen, Erfahrung mit Observability in Backend-Systemen Eine übertarifliche Bezahlung Jährlicher Urlaubsanspruch von 30 Tagen Hays ermöglicht den Einstieg bei innovativen Unternehmen Ihr Kontakt Ansprechpartner Stepan Karapetyan Referenznummer 866190/1 Kontakt aufnehmen E-Mail: stepan.karapetyan@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Daten Analyse Webanalysen zur Auswertung der Seitennutzung Umsetzung, Testen und Automatisierung von Clusteranalysen zur Segmentierung von Endkunden und BankenAufbereitung von Rohdaten aus verschiedenen QuellenAusführliches Testing und Automatisierung für wiederkehrende ProzesseRetraining und Aktualisierung von Machine-Learning-Modellen Fundierte Kenntnisse in Oracle SQL, Python und Git Sicherer Umgang mit Azure Machine LearningBankenerfahrung / Finance Daten (Must Have)Versiert im Einsatz von PowerBI Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen Ihr Kontakt Referenznummer 864539/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
Arbeitsort: Stuttgart Ihre Aufgaben Übernahme und eigenständige Verantwortung von Teilsystemumfängen im DevOPs unsererHR Planning, Reporting und Data Analytics Produkte - Business Partner Abstimmung und Requirements Engineering DevOps Steuerung über Business Partner - interne IT, inklusive Plattform – externe Provider Applikationsübergreifender Lead für den Rechenzentrumsumzug (DataCenterMove) der HR Planning, Reporting und Analytics Funktionen- Koordination der internen Application-Owner zum DCM (Projekte beantragen, Steuerung …) Abstimmung mit anderen HR Produkten, Plattform und IT Infrastruktur Abstimmung mit ITP DCM Kernteam Orchestrierung der Maßnahmen zusammen mit den internen Application-Ownern Projektleitungsaufgaben für Implementierungsprojekte im Data Analytics und BI Bereich Ihr Profil Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik, Wirtschaftsingenieurwesen oder eine vergleichbare Ausbildung Mehrjährige Erfahrung in Konzeption, Implementierung, Rollout und Betrieb von DataWarehouse Produkten (SAP/ORACLE/Microsoft/IBM/FOSS …) Erfahrung in der Leitung von IT-Projekten, Linienbetrieb und der Steuerung von IT- Lieferanten Erfahrung mit den Prozessen und Methoden der agilen Softwareentwicklung (SCRUM, KANBAN), produktorientierter Zusammenarbeit und DesignThinking Gutes technisches IT Verständnis sowie Affinität zu Softwareentwicklungsmethoden Verhandlungssichere Deutsch- und Englischkenntnisse Erfahrung als Entwickler (m/w/d) für SAP BW on/4 HANA, SAC, SAP DWC Erfahrung mit MS PowerBI, Tableau, QlikView oder anderen Reporting / BigData- Analysetools Erfahrung mit System- und Datenintegrationen Erfahrung mit automatisiertem Testen Analytisch-konzeptionelles Denkvermögen, Problemlösungskompetenz und Kreativität Kommunikations- und Moderationsfähigkeit sowie soziale Kompetenz Strukturierte, eigenverantwortliche Arbeitsweise Integrations- und Teamfähigkeit Ausgeprägte Anwenderorientierung Wir bieten Die Sicherheit eines großen, global tätigen Unternehmens mit hohen Standards für die Arbeitssicherheit Attraktive, der Qualifikation entsprechende Vergütung Unbefristete Anstellung Ein interessantes und vielseitiges Aufgabenfeld Individuelle Weiterbildung und Entwicklungsprogramme sowie vielfältige Karrieremöglichkeiten So geht’s weiter Bewerben Sie sich bitte direkt online, indem Sie auf den Button „JETZT AUF DIESE STELLE BEWERBEN“ klicken.
What you will do: Focus on the design, development, and execution of automated end-to-end tests Manage and prioritize bug reports, keeping their business value in mind Lead regression testing, identify and resolve defects to ensure the stability of high-traffic customer interactions and transactions Analyze complex workflows, data flows, and database interactions to identify potential areas for improvement in test coverage and performance Report bugs and reproduce them throughout the complete bug cycle Coordinate testing efforts to ensure the delivery of quality features Advocate for product quality within cross-functional teams Contribute to ABOUT YOU’s long-term automation strategy in testing Who you are: 4+ years of experience in QA, testing, and debugging REST backend applications, with strong knowledge of HTTP methods, status codes, headers, and error handling Proficient in API validation against OpenAPI/Swagger specifications 4+ years of experience with JavaScript/TypeScript or other OOP languages, using frameworks like Mocha/Playwright, and GitlabCI 2+ years of experience working with relational and NoSQL databases, focusing on integration and data flows Passionate about automation and building maintainable test suites that provide continuous feedback, with strong skills in both exploratory and automated testing Experienced with agile methodologies Excellent communication skills, including fluent written and spoken English for clear collaboration Solid understanding of transaction systems, gateways, customer data, and large-scale database structures Committed to identifying and addressing issues early, ensuring high-quality customer-facing features and services Benefits Hybrid working Fresh fruit every day Sports courses Free access to code.talks Exclusive employee discounts Free drinks Language courses Company parties Help in the relocation process Mobility subsidy Central Location Flexible Working Hours Professional training Dog-friendly office Feedback Culture Job Bikes YOU ARE THE CORE OF ABOUT YOU We take responsibility for creating an inclusive and exceptional environment where all genders, nationalities, and ethnicities feel welcomed and accepted exactly as they are.
Ihre Aufgaben: Entwicklung und Implementierung KI-gestützter Anwendungen mit Schwerpunkt auf Front-End-Lösungen (Machine Learning, NLP, Computer Vision, Generative AI, RAG-Systeme)Design und Programmierung von Softwaremodulen unter Nutzung moderner Sprachen und Frameworks (Python, Java, .NET, TensorFlow, PyTorch)Aufbau und Integration von Datenpipelines für Training und Betrieb von KI-Modellen auf Plattformen wie der Eigenentwicklung AI.nsteinKonzeption und Entwicklung fachspezifischer KI-Agents mittels Prompt-EngineeringZusammenarbeit mit Data Scientists und KI-Architekten bei der Überführung von KI-Modellen in produktive UmgebungenSicherstellung hoher Code-Qualität durch Clean Code-Prinzipien, Unit Tests und automatisierte TestverfahrenDurchführung von Fehleranalysen sowie kontinuierliche Optimierung und Weiterentwicklung bestehender AnwendungenTechnische Dokumentation von Entwicklungen, Architekturen und ErgebnissenEvaluation und Bewertung neuer KI-Technologien, Tools und Frameworks Ihre Qualifikation: Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder eine auf anderem Weg erworbene gleichwertige QualifikationMehrjährige Berufserfahrung in der Softwareentwicklung mit modernen Programmiersprachen (Python, Java, C#, JavaScript)Fundierte Kenntnisse im Bereich Künstliche Intelligenz (Machine Learning, NLP, Generative AI, RAG-Systeme)Ausgeprägte Erfahrung im Prompt-Engineering und in der Entwicklung von KI-AgentsPraktische Erfahrung mit KI-/Datenplattformen (z.B.
Umfangreiche Erfahrung in der Entwicklung komponentenbasierter Webanwendungen (React, TypeScript) 7. Erfahrung im Test-Driven-Development mittels Python für Backend-/ & Frontend-Entwicklung Programming Languages / Experience (* - ***) / Priorization - Typescript / *** / 1 - Python / ** / 2 (Cloud) Technologies / Experience (* - ***) / Priorization - Continuous Integration & Development (CI/CD): GitOps / *** / 1 - Docker / / 2 - Kubernetes (in Azure) / / 3 - Azure Services (u.a.
End-to-End-Verantwortung für Material-/Teilestammdaten in SAP S/4HANASicherstellung von Datenqualität und GovernanceAnlage & Pflege von Materialarten und Stammdaten-SichtenPflege von Basisdaten (Maße/Gewichte, EAN/GTIN, Gefahrstoffe, Zeichnungsstände)Verwaltung von MRP-/DispositionsparameternPflege von Einkaufsdaten (Infosätze, Lieferantenmaterialnummern, Preise)Zusammenarbeit mit Einkauf, SCM, Produktion, QM, Vertrieb, Finance und EngineeringDurchführung von Datenmigrationen inkl. Mapping, Tests und ValidierungReporting & KPIs zur Datenqualität und Prozessleistung Erfahrung im Teilestammdatenmanagement, idealerweise in Industrie/FertigungGute Kenntnisse in SAP ERP / S/4HANA (Materialstamm, Basis-MM-Prozesse)Vertraut mit S/4HANA-Fiori-Apps zur StammdatenpflegeGrundverständnis von End-to-End Supply-Chain-ProzessenSicherer Umgang mit Excel inkl.
Student employees in the course of the master thesis (m/f/d) Topic: Automation of a Test Setup for Optical and Mechanical Qualification of Fiber Array Units Description The objective of this thesis is to design and implement an automated test setup to evaluate the optical and mechanical performance of fiber array units (FAUs).
Das ZuseLab ist bewusst offen für Experimente mit neuen IT-Technologien: Wir evaluieren regelmäßig Tools, setzen Proof-of-Concepts um und testen neue Lösungen. Es ist ausdrücklich erwünscht, eigene Ideen einzubringen und neue Ansätze zu testen. Darüber hinaus dürfen Sie sich auf abwechslungsreiche und vielseitige Aufgaben freuen: Installation, Administration und Dokumentation von Linux und Windows Systemen (Server/Clients), Virtualisierung und Storage.
Aufbau einer Log-Ingestion- und Parsing-Pipeline für mehrgigabytegroße Archive (ZIP/XML/JSON/Windows-Event-Logs), um normalisierte Ereignisdaten zu erzeugenEreigniskorrelation und Datenanreicherung (zeitliche Sortierung, korrelierte Events aus unterschiedlichen Quellen, unscharfer Abgleich mit einer Fehler-/FMEA-Wissensdatenbank)Entwicklung einer Embedding- und Hybrid-Retrieval-Pipeline (Azure OpenAI Embeddings + Keyword-Suche + Vektor-Suche) mit klar definierten Zielen für Latenz und DurchsatzDurchführung von Datenqualitätsprüfungen (Schema-Validierung, Encoding-Checks, Erkennung von Duplikaten) sowie Erstellung einer präzisen technischen Übergabedokumentation Erfahrung in Implementierung von ETL/ELT-Prozessen in Python zur Verarbeitung großer und heterogener Log-DatenmengenKenntnisse Design von Schemas und Datenmodellen für normalisierte Events und Wissensbank-Dokumente (JSON/JSONL + SQL)Aufbau/Optimierung von Vektorindex-Sammlungen und Relevanzbewertungen (BM25/TF-IDF + Cosine Similarity)Performance-Optimierung (Batching, Caching) und Bereitstellung wartbaren Codes inkl. Tests und Git-WorkflowSehr gute Python-Kenntnisse (pandas/NumPy, File I/O, Regex/Textverarbeitung, Performance-Optimierung)Praktische Erfahrung mit SQL und DatenmodellierungErfahrung im Parsing von JSON/XML/CSV und im Umgang mit verschiedenen EncodingsSichere Zusammenarbeit über Git (Pull Requests, Branching)Erfahrung mit Vektor-Datenbanken (z.B.
Aufbau einer Log-Ingestion- und Parsing-Pipeline für mehrgigabytegroße Archive (ZIP/XML/JSON/Windows-Event-Logs), um normalisierte Ereignisdaten zu erzeugen Ereigniskorrelation und Datenanreicherung (zeitliche Sortierung, korrelierte Events aus unterschiedlichen Quellen, unscharfer Abgleich mit einer Fehler-/FMEA-Wissensdatenbank) Entwicklung einer Embedding- und Hybrid-Retrieval-Pipeline (Azure OpenAI Embeddings + Keyword-Suche + Vektor-Suche) mit klar definierten Zielen für Latenz und Durchsatz Durchführung von Datenqualitätsprüfungen (Schema-Validierung, Encoding-Checks, Erkennung von Duplikaten) sowie Erstellung einer präzisen technischen Übergabedokumentation Erfahrung in Implementierung von ETL/ELT-Prozessen in Python zur Verarbeitung großer und heterogener Log-Datenmengen Kenntnisse Design von Schemas und Datenmodellen für normalisierte Events und Wissensbank-Dokumente (JSON/JSONL + SQL) Aufbau/Optimierung von Vektorindex-Sammlungen und Relevanzbewertungen (BM25/TF-IDF + Cosine Similarity) Performance-Optimierung (Batching, Caching) und Bereitstellung wartbaren Codes inkl. Tests und Git-Workflow Sehr gute Python-Kenntnisse (pandas/NumPy, File I/O, Regex/Textverarbeitung, Performance-Optimierung) Praktische Erfahrung mit SQL und Datenmodellierung Erfahrung im Parsing von JSON/XML/CSV und im Umgang mit verschiedenen Encodings Sichere Zusammenarbeit über Git (Pull Requests, Branching) Erfahrung mit Vektor-Datenbanken (z.B.
Wenn Sie mehrere der nachfolgenden Punkte abdecken, haben wir eine solide Basis für ein erstes Gespräch: Fokussierung auf ein oder mehrere Spezialgebiete, wie z.B. automatisiertes Testen, DevOps, User Experience, Microservices, Cloud Computing, Big Data, mobile Apps, Continuous Delivery ... Praktische Erfahrung im Umfeld von Java- und Web-Technologien Kenntnisse in den Bereichen HTML, XML, CSS und JS-Frameworks Wissen im Bereich Datenbanken, Portal- und Application Server Erfahrung in der Leitung von CMS-Projekten Selbständigkeit, Kreativität und Leidenschaft für die gestellten Aufgaben Kundenorientierung Sehr gute Deutsch- und Englischkenntnisse Angebot Unser Mandant bietet: Eine Atmosphäre in der die Mitarbeiter selbständig lernen, kreativ sind und den Status Quo hinterfragen können Interessante und hoch kompetente Kollegen Sorgsame Einarbeitung und gute Entwicklungsmöglichkeiten Flexible Arbeitszeiten, Mitarbeiterevents, Teamgeist, "Social Benefits"
WHAT YOU WILL DO ·Assist resolving issues of minor significance ·Help to liaise with other internal departments or project teams for completion of project deliverables ·Apply standard methodologies when creating new programs and applications (developing and coding from specifications) or when maintaining existing ones ·Assist in customizing Commercial off-the-shelf (COTS) based on pre-determined parameters, and executes customizing tests ·Document work using the required standards, methods and tools e.g. produce program and system documentation ·Work with team/ colleagues to ensure plans, processes and activity are aligned to customer needs ·Actively share knowledge or experience with others ·Provide additional support when colleagues require time away to attend training/ development programs ·Convey consistent stated personal values through actions and decisions ·Apply data analysis and data modeling techniques to establish, modify or maintain a data structure and its associated components ·Design, code, test, correct, and document simple programs, and assist in the implementation of software which forms part of a properly engineered information or communications system APPLICATION YOU WILL USE: ·Java and J2EE frameworks, HTML, CSS, JavaScript, WebLogic, Spring, Hibernate and JSF WHAT YOU SHOULD HAVE: If you are highly motivated, creative and desireto start and develop your IT career in afast-paced environment, you have come to the right place!
WHAT YOU WILL DO Present to or influence customer representatives or vendors and resolve issues Conduct interviews with customers to establish their requirements, presenting concepts and proposals, and providing updates on deliverables Act as a coordinator across projects to prevent delays or misunderstandings Coordinate collaboration with external service providers in terms of assembling own or third-party system components Customize COTS based on pre-determined parameters, and executes customizing tests Document work using the required standards, methods and tools Assist in definition, initiation and design of architecture in projects/ programs Provide expert advice, training and technical assistance to development team, lower level service and support staff May lead others in developing innovative solutions to highly complex problems and contribute to employees’ professional development Act as technical lead of development teams on issues of performance, tools, and standards WHAT YOU SHOULD HAVE 11 years of experience in software engineering with relevant qualifications in IT field and methods including formal methods (e.g.
YOUR TASKS Lead and manage cross‑functional projects with a strong focus on data management and digitalization in quality and logistics operations Analyse user requirements and translate them into structured business blueprints in alignment with IT and business stakeholders Drive global roll‑outs of digital and quality‑related operational processes, including concepts, documentation and training programs Conduct process mapping, process design and process‑mining activities to optimize workflows and operational performance Coordinate and execute user acceptance tests and guide operational functions through validation phases Perform market research, benchmarking and feasibility assessments to evaluate new tools and solutions Develop proof‑of‑concepts and ensure alignment between operational needs, technical capabilities and rollout readiness YOUR PROFILE Several years of project management experience, including at least 3 years in multiple PM roles and complex operational environments Recognized project management certification (GPM IPMA, PMP, SCRUM or equivalent) Proven track record in digitalization projects involving SAP, MES, incident management or comparable systems Strong expertise in process management, including process mapping, design methodologies and process‑mining techniques Deep understanding of operational requirements such as user acceptance testing and design‑to‑operations workflows Highly structured, self‑driven working style with strong execution capabilities in fast‑moving environments Willingness to travel and strong communication skills with fluency in English and German (Spanish is a plus) YOUR BENEFITS In addition to the opportunity to make our world a little more sustainable, we offer you: *Some offers may vary by location Nordex adheres to a policy of equal employment opportunity.
Take over the setup of interfaces (expected 6 endpoints) between Salesforce and MS Project Operations based on Azure FunctionsThe affected data objects for the interfaces are Opportunity, Account and Portfolio (custom object).4 transfers from SF to MSPO are planned - Additionally, 2 transfers from MSPO to SF are planned Support the mapping of the data fields between the two systems via our middleware (Azure Functions)Accompany the integration tests after the setup and take over possible troubleshooting both on the test installation and later on the production environmentSupport our project team in communication with the involved parties (Sales specialist department, IT operations team, IT middleware team, implementation partner for MS Project Operations)Support the IT middleware team and the IT operations team in the setup of meaningful error messages / system feedback in case of errorsAdditionally perform a few smaller adjustments to our existing Salesforce installation (e.g. introduce a new variable or implement a new flow for automation or add 2-3 additional fields)Create documentation of the performed adjustments and the functionality of the interface for our operations team.The Salesforce installation used is a version of Salesforce Manufacturing Cloud - Sales - Unlimited Edition (currently release Winter '26) adapted to the needs of the customerThey have a test instance on which the adjustments should first be implemented and tested, and a separate instance for production on which the changes must later be taken live Solid experience with SalesforceExperience with Azure FunctionsExperience with MS Project Operations Language: English100% RemoteEU Only Ihr Kontakt Referenznummer 864378/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt