Mindestens 6 Jahre praktische Erfahrung in der Implementierung von produktionsreifer Software mit Python, Git, CI/CD, Testing (Unittests und End-to-End Tests) Mindestens 6 Jahre praktische Erfahrung in der Datenanalyse mit SQL oder MDX (TM1) Sehr gute Deutsch Kenntnisse (mind.B2) vorausgesetzt.
Unsere Stakeholder sind u.a Project Leads, Product Owners, Business Analysts, Security Engineers, Operations Teams, Test Teams. Häufig verwenden unsere Kunden und Projekte u.a. die Technologien Java / SpringBoot, JavaScript / TypeScript, KeyCloak, PostgreSQL, MongoDB, JMS, JSON, REST, Kafka, Quarkus, AWS, AZURE, GCP, Docker, K8S, Gitlab, Github, Maven, Terraform, Helm.
DIES SIND IHRE AUFGABEN: Ganzheitliche Begleitung von BI / Data Projekten: von der Anforderungsaufnahme über Umsetzung und Tests bis zur ProduktivsetzungAnalyse und Aufbereitung von Rohdaten, Entwicklung von Datenmodellen sowie Visualisierung aussagekräftiger InformationenEinsatz von Qlik Sense mit Schwerpunkt auf Data Mining und Data Analytics in Bereichen wie Produktion, Vertrieb, Logistik und ProduktmanagementAnbindung und Nutzung von Datenquellen aus den ERP-System SAP zur Gewährleistung konsistenter AnalysenOptimierung der Datenqualität und Beratung internationaler Fachbereiche zur effektiven Nutzung von Datenanalyse-ToolsÜbernahme von (Teil-)Projektleitungen sowie Koordination interner IT-Ressourcen, externer Dienstleister und FachabteilungenUser Support und Schulungen in Deutsch (Sprache am Firmensitz!)
Ihre Aufgaben: Entwicklung und Implementierung KI-gestützter Anwendungen mit Schwerpunkt auf Front-End-Lösungen (Machine Learning, NLP, Computer Vision, Generative AI, RAG-Systeme)Design und Programmierung von Softwaremodulen unter Nutzung moderner Sprachen und Frameworks (Python, Java, .NET, TensorFlow, PyTorch)Aufbau und Integration von Datenpipelines für Training und Betrieb von KI-Modellen auf Plattformen wie der Eigenentwicklung AI.nsteinKonzeption und Entwicklung fachspezifischer KI-Agents mittels Prompt-EngineeringZusammenarbeit mit Data Scientists und KI-Architekten bei der Überführung von KI-Modellen in produktive UmgebungenSicherstellung hoher Code-Qualität durch Clean Code-Prinzipien, Unit Tests und automatisierte TestverfahrenDurchführung von Fehleranalysen sowie kontinuierliche Optimierung und Weiterentwicklung bestehender AnwendungenTechnische Dokumentation von Entwicklungen, Architekturen und ErgebnissenEvaluation und Bewertung neuer KI-Technologien, Tools und Frameworks Ihre Qualifikation: Abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder eine auf anderem Weg erworbene gleichwertige QualifikationMehrjährige Berufserfahrung in der Softwareentwicklung mit modernen Programmiersprachen (Python, Java, C#, JavaScript)Fundierte Kenntnisse im Bereich Künstliche Intelligenz (Machine Learning, NLP, Generative AI, RAG-Systeme)Ausgeprägte Erfahrung im Prompt-Engineering und in der Entwicklung von KI-AgentsPraktische Erfahrung mit KI-/Datenplattformen (z.B.
Benefits Senior-Rolle im SAP S4HANA und PLM Umfeld Fokus auf Master Data Governance und Prozessintegration Standort Mülheim an der Ruhr Aufgaben Sie übersetzen Business- und Engineering-Anforderungen in SAP S4HANA MDG M und PLM Lösungen Sie definieren funktionale Spezifikationen und begleiten Tests Sie gestalten und überwachen Data-Governance- und Data-Quality-Regeln Sie analysieren und bereinigen Stammdatenprobleme Sie steuern Schnittstellen zwischen SAP, Teamcenter und angebundenen Systemen Sie erstellen Dokumentation und Trainingsmaterialien für Endanwender Profil Abgeschlossenes Studium im Bereich Informatik, Wirtschaftsinformatik, Maschinenbau oder vergleichbar Mehrjährige Erfahrung in SAP S4HANA MDG M, SAP MM und SAP PP Erfahrung im PLM-Umfeld, idealerweise Teamcenter Sehr gute Kenntnisse in Requirements Engineering und funktionalem Design Erfahrung in Implementierungsprojekten sowie im IT-Projektmanagement Sehr gute Englischkenntnisse Unsicher, ob die Stelle zu Ihnen passt?
Unsere Stakeholder sind u.a Project Leads, Product Owners, Business Analysts, Security Engineers, Operations Teams, Test Teams. Häufig verwenden unsere Kunden und Projekte u.a. die Technologien Java / SpringBoot, JavaScript / TypeScript, KeyCloak, PostgreSQL, MongoDB, JMS, JSON, REST, Kafka, Quarkus, AWS, AZURE, GCP, Docker, K8S, Gitlab, Github, Maven, Terraform, Helm.
Dieser Job ist im Rahmen der Arbeitnehmerüberlassung mit Option auf Übernahme bei unserem Auftraggeber zu besetzen. Deine Aufgaben Du entwickelst, wartest und testest Datenpipelines zur neartime-Verarbeitung von Kundendaten nach modernen Software- und Data-Engineering-Prinzipien.Du stellst die Infrastruktur für Datenkonsument:innen sowie Machine-Learning-Modelle bereit und erschließt relevante Datenquellen technisch.Du dokumentierst technische Entscheidungsgrundlagen und bewertest verbundene Risiken.Du bringst Dich aktiv in die Optimierung der Entwicklungsprozesse im Team ein von CI/CD über DevOps bis hin zu MLOps.Du unterstützt dabei, aus Mensch-Maschine-Interaktionen automatisiert zu lernen und Kundenerlebnisse kontinuierlich zu verbessern.
Testmethodenentwicklung und -Validierung, Erstellung von Prüfvorschriften, Methodentransfer in andere Abteilungen) Auswertung sowie GMP -konforme Dokumentation der Aktivitäten inklusive Prüfung der Daten und Dokumente (inkl. statistischer Auswertung, Visualisierung der Ergebnisse, Berichterstellung in englischer Sprache in elektronischen Systemen)Teilnahme an lokalen / globalen Meetings und Telekonferenzen (englisch und deutsch)Enge Kommunikation und Zusammenarbeit mit anderen Abteilungen in der Forschung und EntwicklungUnterstützung bei Zusammenarbeit mit externen DienstleisternProbenanforderung, -versand und -lagerung inklusive erforderlicher DokumentationenUnterstützung bei projektspezifischer Infrastrukturbereitstellung und Qualifikationsarbeiten Ausbildung als BTA/MTA/CTA oder Biologie-/Chemielaborant/in mit Berufserfahrung oder Studium der Ingenieurswissenschaften oder vergleichbare Ausbildung im Bereich Physik, Pharmatechnik, Packmitteltechnologie, Materialwissenschaften oder ähnlichesGutes technisches Verständnis für physikalisches und funktionales Testen, Erfahrungen in diesem Bereich, z.B. Kraftmessungen an Materialprüfmaschinen von VorteilHohe soziale Kompetenz, Teamfähigkeit und KommunikationsfähigkeitSehr gute deutsche und englische Sprachkenntnisse in Wort und SchriftEigenständige Planung, Durchführung und Auswertung der Versuche sowie deren Dokumentation.
HV Authorised Person (Experienced with HV Systems) Electrical/Mechanical Engineering HNC or HND (Successfully completed apprenticeship in either) C&G Pts. 1 & 2, equivalent or exceeds. 17th Edition IEE: Wiring and Installation (Ability to attain 18th Edition through additional training) C&G 2391 test and inspection; BS 7671:2001 for inspection, testing and certification. Proven experience in data centre operations management, preferably in a mission-critical environment.
Das bringst du mit Data Engineering Erfahrung: Mehrjährige Berufserfahrung im Data Engineering und in der Datenmodellierung, idealerweise im Consulting-Umfeld.Snowflake Expertise: Mehrjährige Projekterfahrung mit Snowflake in produktiven Umgebungen inklusive Performance-Optimierung sowie Rollen- und Rechtemodellen.dbt-Erfahrung: Sicherer Umgang mit dbt Core oder dbt Cloud inklusive Makros, Jinja, Tests und strukturierter Dokumentation von Transformationslogiken.Tech Stack: Sehr gute SQL-Kenntnisse auf Advanced-Level sowie praktische Erfahrung mit Python, Cloud-Providern wie AWS, Azure oder GCP und Git für die Zusammenarbeit im Team.Agile Methodik: Erfahrung mit Scrum oder Kanban sowie im strukturierten Anforderungsmanagement im Analytics-Umfeld.Kommunikation und Sprache: Ausgeprägte Kundenorientierung, fließende Deutschkenntnisse (mindestens C1), gute Englischkenntnisse und punktuelle Reisebereitschaft je nach Kundenbedarf.
Design, build and optimize enterprise Tableau dashboardsDevelop reporting-friendly data models on Cloudera Data Platform (Hadoop) and Azure Databricks (Delta Lake, SQL Warehouses)Implement and tune SQL queries (Hive, Impala, Spark SQL, Databricks SQL) for performance, cost efficiency and concurrencyApply Tableau performance optimization strategies (extract vs live, push-down optimization, query tuning)Design and implement secure enterprise Tableau configurations, including row-level security aligned with role conceptsEnsure compliance with IT security, data governance and regulatory requirementsCollaborate with data platform teams, DataOps, IT security/compliance and controlling solutionsProduce professional documentation: data models, dashboard specifications, data-source definitions, security concepts, test casesConduct testing for accuracy, performance, access control and stability of dashboards and data modelsProvide knowledge transfer, coaching and structured handover to internal teams Strong hands-on experience with Tableau Desktop and Tableau Server/Cloud in enterprise environmentsProven ability to build management-ready dashboards for finance/controlling or other regulated industriesPractical experience with Cloudera Data Platform, Hadoop ecosystems, and Azure Databricks integrationsAdvanced SQL skills across Hive, Impala, Spark SQL, Databricks SQLSolid understanding of Delta Lake, parquet/ORC formats, and BI-oriented data modeling principlesExperience implementing row-level security and with enterprise BI solutionsStrong knowledge of performance optimization in Tableau, Hadoop and Databricks environmentsAbility to operate in regulated financial environments with security, compliance and data governance constraintsExcellent communication and documentation skills in English International clientRemote option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 864486/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
Tätigkeiten: Potenziale erkennen: Analysiere Kundenanforderungen und entwickle datengetriebene Lösungen – von Analytics über Machine Learning bis GenAI.Strategien entwickeln: Konzipiere individuelle Data-&-AI-Strategien für vielfältige Use Cases.Lösungen skalieren: Entwirf zukunftsfähige Architekturen für Datenplattformen, ML-Pipelines und AI-Systeme.Technologien prüfen: Teste und empfehle passende Technologien, begleite Umsetzungsteams mit klaren Roadmaps.Business ausbauen: Unterstütze Pre-Sales-Aktivitäten, Marktanalysen und die Weiterentwicklung datenbasierter Geschäftsbereiche.Angebote mitgestalten: Bringe deine Ideen in Lösungskonzepte, Kalkulationen und Präsentationen ein.Akademischer Hintergrund: Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik, Computer Science oder eine vergleichbare Qualifikation.Erfahrung: Mehrjährige Erfahrung in der Konzeption und Umsetzung moderner Datenplattformen, ML-Lösungen und AI-Systeme.Technologiekompetenz: Fundierte Erfahrung mit Azure, Databricks oder AWS sowie in Python, SQL, Docker, CI/CD-Pipelines und Infrastructure as Code.Fachliches Know-how: Tiefes Verständnis moderner Datenarchitekturen, MLOps und Data Governance.Arbeitsweise: Kombination aus konzeptioneller Stärke, analytischem Denken und pragmatischer Hands-on-Mentalität.Kommunikationsstärke: Fähigkeit, komplexe Themen klar und überzeugend zu vermitteln – in Deutsch und Englisch.Flexibilität: Wir bieten dir flexible Arbeitsmodelle mit großzügiger Gleitzeitregelung – wahlweise an einem unserer Standorte oder bis zu 100 % mobil innerhalb Deutschlands.Einarbeitung & Entwicklung: Deine individuelle Einarbeitung und Karriereförderung liegen uns am Herzen.
Bei uns können Sie praktische Erfahrungen sammeln und an innovativen Projekten im Bereich Data Science mitarbeiten, um KSB-Dienstleistungen und -Produkte zu verbessern. Woran Sie arbeiten werden: Entwicklung und Testen neuer Algorithmen, Modelle und Methoden basierend auf maschinellem Lernen oder anderen Techniken in Zusammenarbeit mit dem Data Science Team Evaluierung und Optimierung von Algorithmen und Modellen, Einbringen innovativer Ideen und neuer Methoden ins Data Science Team, Vorbereitung und Prozessieren von Rohdaten zum Erstellen von Modellen Durchführung von Analysen und Präsentation der Ergebnisse vor dem Data Science Team, Entwicklung von qualitativ hochwertigem Code nach dem "Clean code”-Prinzip und KSB-Standards Perfekt vorbereitet | Sie studieren im Bereich Mathematik, Statistik, Data Science, Informatik, Physik oder vglb.
Du begleitest Schnittstellen end-to-end: von der Anforderungsaufnahme über Design und Umsetzung bis hin zu Tests, Rollout und Betrieb – gemeinsam mit Deinen Kolleg*innen und externen Partnern. Du arbeitest eng mit unseren Fachbereichen zusammen, priorisierst pragmatisch nach Wirkung und entwickelst Lösungen konsequent aus dem Business heraus.
Datenmigration & Prozessunterstützung Du unterstützt bei Datenmigrationen sowie systemnahen Tests, um die Qualität neuer oder veränderter Daten sicherzustellen. Außerdem dokumentierst du Datenmanagementprozesse und hilfst bei der Erstellung von Trainingsunterlagen für die Stammdatenpflege.
Daten Analyse Webanalysen zur Auswertung der Seitennutzung Umsetzung, Testen und Automatisierung von Clusteranalysen zur Segmentierung von Endkunden und BankenAufbereitung von Rohdaten aus verschiedenen QuellenAusführliches Testing und Automatisierung für wiederkehrende ProzesseRetraining und Aktualisierung von Machine-Learning-Modellen Fundierte Kenntnisse in Oracle SQL, Python und Git Sicherer Umgang mit Azure Machine LearningBankenerfahrung / Finance Daten (Must Have)Versiert im Einsatz von PowerBI Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen Ihr Kontakt Referenznummer 864539/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
Python, Java, .NETz, TensorFlow, PyTorch) Aufbau und Integration von Datenpipelines für das Training und den Betrieb von KI-Modellen Zusammenarbeit mit Data Scientists und KI Architekten bei der Umsetzung von KI-Modellen in produktive Umgebungen Sicherstellung von Codequalität, Testbarkeitund Performance durch Clean Code, Unit Tests und automatisierte Tests Durchführung von Fehleranalysen, Optimierung und Weiterentwicklungen bestehender Anwendungen Dokumentation von Entwicklungen und Ergebnissen Untersützung bei der Evaluation neuer Ki-Technologien und Tools Ihr Profil Berufserfahrunge in der Softwareentwicklung (z.B.
Working closely with Product Owners and cross-functional teams, you’ll provide full-cycle A/B test analytical support, create tracking concepts, and translate user behavior and shop performance insights into actionable business recommendations.
End-to-End-Verantwortung für Material-/Teilestammdaten in SAP S/4HANASicherstellung von Datenqualität und GovernanceAnlage & Pflege von Materialarten und Stammdaten-SichtenPflege von Basisdaten (Maße/Gewichte, EAN/GTIN, Gefahrstoffe, Zeichnungsstände)Verwaltung von MRP-/DispositionsparameternPflege von Einkaufsdaten (Infosätze, Lieferantenmaterialnummern, Preise)Zusammenarbeit mit Einkauf, SCM, Produktion, QM, Vertrieb, Finance und EngineeringDurchführung von Datenmigrationen inkl. Mapping, Tests und ValidierungReporting & KPIs zur Datenqualität und Prozessleistung Erfahrung im Teilestammdatenmanagement, idealerweise in Industrie/FertigungGute Kenntnisse in SAP ERP / S/4HANA (Materialstamm, Basis-MM-Prozesse)Vertraut mit S/4HANA-Fiori-Apps zur StammdatenpflegeGrundverständnis von End-to-End Supply-Chain-ProzessenSicherer Umgang mit Excel inkl.
Ihre Aufgaben: Leitung und Mitarbeit von Projekten im Bereich Digitalisierung und Datenanalyse Optimierung, Digitalisierung und Automatisierung der KPI-Landschaft Erstellung und Pflege von Berichten und Echtzeit-Dashboards Implementierung von Monitoringsystemen zur automatischen Abweichungsbenachrichtigung Erstellung von Best Practices und Dokumentationen im Datenmanagement Aktive Beteiligung an Verbesserungsprojekten, Umsetzung von AOS-Bricks und der EDD-Datenstrategie Koordination mit zentraler IT, „Methoden & Tools“ und externen Dienstleistern für Industrialisierung von Anwendungen (Spezifikationen, Tests, Datenprodukte) Organisation und Durchführung von Upskilling-Sessions zur Förderung von Datenkompetenzen Ihr Profil: Abgeschlossenes Studium (mind.
Unbefristeter Arbeitsvertrag Einsatz bei renommierte Kunden/ Weltmarktführer Betreuung vom Bewerbungsgespräch bis zur Einstellung Ihre Aufgaben: Beratung und Unterstützung der Mitarbeiter weltweit in Bezug auf Einsatzmöglichkeiten, Leistungsfähigkeit und optimale Nutzung von vorhandenen Datenanalyse-Tools Unterstützung bei der Analyse und Verbesserung der Datenqualität Verantwortung für die Aufnahme, Bewertung und Festlegung des Leistungsumfanges im Bereich Data Mining und Data Analytics Implementierung, Test, Anwenderabnahme, Dokumentation und Produktivsetzung von Anforderungen im Bereich Data Mining und Data Analytics Identifizierung der entsprechenden Rohdaten, Design der notwendigen Datenmodelle und Automatisierung der Umwandlung dieser Rohdaten in entscheidungsrelevante Informationen Unterstützung bei der Auswahl neuer Softwarelösungen durch Erstellung von Lasten- /Pflichtenheften und Evaluierungsmatrizen sowie durch fachliche Bewertung der Angebote Übernahme der Projekt- bzw.
WHAT YOU WILL DO Present to or influence customer representatives or vendors and resolve issues Conduct interviews with customers to establish their requirements, presenting concepts and proposals, and providing updates on deliverables Act as a coordinator across projects to prevent delays or misunderstandings Coordinate collaboration with external service providers in terms of assembling own or third-party system components Customize COTS based on pre-determined parameters, and executes customizing tests Document work using the required standards, methods and tools Assist in definition, initiation and design of architecture in projects/ programs Provide expert advice, training and technical assistance to development team, lower level service and support staff May lead others in developing innovative solutions to highly complex problems and contribute to employees’ professional development Act as technical lead of development teams on issues of performance, tools, and standards WHAT YOU SHOULD HAVE 11 years of experience in software engineering with relevant qualifications in IT field and methods including formal methods (e.g.
Aufbau einer Log-Ingestion- und Parsing-Pipeline für mehrgigabytegroße Archive (ZIP/XML/JSON/Windows-Event-Logs), um normalisierte Ereignisdaten zu erzeugenEreigniskorrelation und Datenanreicherung (zeitliche Sortierung, korrelierte Events aus unterschiedlichen Quellen, unscharfer Abgleich mit einer Fehler-/FMEA-Wissensdatenbank)Entwicklung einer Embedding- und Hybrid-Retrieval-Pipeline (Azure OpenAI Embeddings + Keyword-Suche + Vektor-Suche) mit klar definierten Zielen für Latenz und DurchsatzDurchführung von Datenqualitätsprüfungen (Schema-Validierung, Encoding-Checks, Erkennung von Duplikaten) sowie Erstellung einer präzisen technischen Übergabedokumentation Erfahrung in Implementierung von ETL/ELT-Prozessen in Python zur Verarbeitung großer und heterogener Log-DatenmengenKenntnisse Design von Schemas und Datenmodellen für normalisierte Events und Wissensbank-Dokumente (JSON/JSONL + SQL)Aufbau/Optimierung von Vektorindex-Sammlungen und Relevanzbewertungen (BM25/TF-IDF + Cosine Similarity)Performance-Optimierung (Batching, Caching) und Bereitstellung wartbaren Codes inkl. Tests und Git-WorkflowSehr gute Python-Kenntnisse (pandas/NumPy, File I/O, Regex/Textverarbeitung, Performance-Optimierung)Praktische Erfahrung mit SQL und DatenmodellierungErfahrung im Parsing von JSON/XML/CSV und im Umgang mit verschiedenen EncodingsSichere Zusammenarbeit über Git (Pull Requests, Branching)Erfahrung mit Vektor-Datenbanken (z.B.
ROAS, CAC, conversion rates) and conduct ad‑hoc analyses to answer specific business questions.You support A/B tests, campaign evaluations, as well as forecasting and scenario analyses.You help ensure data quality, perform plausibility checks, and support tracking concepts and data integrations.You analyze customer journeys as well as lead and B2B funnels (MQL/SQL) and derive data‑driven recommendations to optimize performance.You work closely with performance marketing, eCommerce, and external agencies, and use AI‑driven analysis methods to evaluate user behavior.
Aufbau einer Log-Ingestion- und Parsing-Pipeline für mehrgigabytegroße Archive (ZIP/XML/JSON/Windows-Event-Logs), um normalisierte Ereignisdaten zu erzeugen Ereigniskorrelation und Datenanreicherung (zeitliche Sortierung, korrelierte Events aus unterschiedlichen Quellen, unscharfer Abgleich mit einer Fehler-/FMEA-Wissensdatenbank) Entwicklung einer Embedding- und Hybrid-Retrieval-Pipeline (Azure OpenAI Embeddings + Keyword-Suche + Vektor-Suche) mit klar definierten Zielen für Latenz und Durchsatz Durchführung von Datenqualitätsprüfungen (Schema-Validierung, Encoding-Checks, Erkennung von Duplikaten) sowie Erstellung einer präzisen technischen Übergabedokumentation Erfahrung in Implementierung von ETL/ELT-Prozessen in Python zur Verarbeitung großer und heterogener Log-Datenmengen Kenntnisse Design von Schemas und Datenmodellen für normalisierte Events und Wissensbank-Dokumente (JSON/JSONL + SQL) Aufbau/Optimierung von Vektorindex-Sammlungen und Relevanzbewertungen (BM25/TF-IDF + Cosine Similarity) Performance-Optimierung (Batching, Caching) und Bereitstellung wartbaren Codes inkl. Tests und Git-Workflow Sehr gute Python-Kenntnisse (pandas/NumPy, File I/O, Regex/Textverarbeitung, Performance-Optimierung) Praktische Erfahrung mit SQL und Datenmodellierung Erfahrung im Parsing von JSON/XML/CSV und im Umgang mit verschiedenen Encodings Sichere Zusammenarbeit über Git (Pull Requests, Branching) Erfahrung mit Vektor-Datenbanken (z.B.
Job-Orchestrierung, Scheduling und Monitoring Migration bestehender ETL-Strecken aus SAP BI/ BO in SAP Datasphere, inkl. Refactoring, Test und Cutover Integration & Transformation heterogener Quellsysteme (SAP & Non-SAP), inkl. Realtime-Replikation/CDC dort, wo sinnvoll Datenqualität & Governance: Aufbau automatisierter DQ-Checks, Lineage/Metadata-Pflege und Dokumentation Performanceoptimierung (Push-Down, Parallelisierung, Partitionierung), sowie Kosten-/Leistungs-Tuning in Cloud-Szenarien Enge Zusammenarbeit mit Fachbereichen (Anforderungsanalyse, Data Contracts) und Data Analytics-Team (Modellierung, Semantik) Wünschenswert wäre CI/CD & Automatisierung: Versionierung, Build/Deploy-Pipelines, Testautomatisierung und „infrastructure as code“ für Datenstrecken Dokumentation & kontinuierliche Verbesserung der Integrationsarchitektur und Betriebsprozesse IHR PROFIL Studium der (Wirtschafts-)Informatik oder gleichwertige Praxis 3+ Jahre ETL-/Data-Engineering-Erfahrung, davon substantiell mit SAP Data Services und (idealerweise) SAP Datasphere Sehr gute SQL-Kenntnisse (z.
Du probierst aus, testest, optimierst – mit viel Raum für Wachstum und Entwicklung. Du erklärst KI-Lösungen verständlich – für Fachbereiche, IT-Teams und Kunden.
What you will do: Focus on the design, development, and execution of automated end-to-end tests Manage and prioritize bug reports, keeping their business value in mind Lead regression testing, identify and resolve defects to ensure the stability of high-traffic customer interactions and transactions Analyze complex workflows, data flows, and database interactions to identify potential areas for improvement in test coverage and performance Report bugs and reproduce them throughout the complete bug cycle Coordinate testing efforts to ensure the delivery of quality features Advocate for product quality within cross-functional teams Contribute to ABOUT YOU’s long-term automation strategy in testing Who you are: 4+ years of experience in QA, testing, and debugging REST backend applications, with strong knowledge of HTTP methods, status codes, headers, and error handling Proficient in API validation against OpenAPI/Swagger specifications 4+ years of experience with JavaScript/TypeScript or other OOP languages, using frameworks like Mocha/Playwright, and GitlabCI 2+ years of experience working with relational and NoSQL databases, focusing on integration and data flows Passionate about automation and building maintainable test suites that provide continuous feedback, with strong skills in both exploratory and automated testing Experienced with agile methodologies Excellent communication skills, including fluent written and spoken English for clear collaboration Solid understanding of transaction systems, gateways, customer data, and large-scale database structures Committed to identifying and addressing issues early, ensuring high-quality customer-facing features and services Benefits Hybrid working Fresh fruit every day Sports courses Free access to code.talks Exclusive employee discounts Free drinks Language courses Company parties Help in the relocation process Mobility subsidy Central Location Flexible Working Hours Professional training Dog-friendly office Feedback Culture Job Bikes YOU ARE THE CORE OF ABOUT YOU We take responsibility for creating an inclusive and exceptional environment where all genders, nationalities, and ethnicities feel welcomed and accepted exactly as they are.
The role ensures that customer processes, data formats, and quality requirements are correctly understood, translated, and implemented in the map handling standard software or related solutions that support semiconductor manufacturing from wafer test through assembly and final test. The professional possesses in depth knowledge of the critical stages of semiconductor manufacturing, with a strong focus on wafer test and chip assembly, and maintains a high level understanding of adjacent process stages, including front end wafer fabrication and final test.Degree in Computer Science, Software Engineering, Electrical Engineering or comparable technical fieldStrong IT / software background with understanding of software architecture, data models and interfaces, system integration, industrial software solutions ideally with a background in manufacturing IT or MES environmentsExperience in semiconductor manufacturing, preferably in Wafer Test / Wafer Sort, Assembly, Final TestSolid knowledge of semiconductor data formats and standards such as SEMI E142, SECS/GEM (E5), E183, G85, STDFAbility to analyze complex technical data flows and translate them into software requirementsExperience working at the interface between customers, engineers and software development teamsStrong analytical and structured communication skillsFluent English required, German skills are a plus Gesundheitsmaßnahmen Mitarbeiterrabatte Aus- und Weiterbildung Betriebliche Altersvorsorge Mitarbeiterevents Unbefristete Arbeitsverträge Workation Flache Hierarchien und kurze Kommunikationswege 30 Tage Urlaub sowie anlassbezogener Sonderurlaub Reduzierte Vollzeit In der znt Zentren für Neue Technologien GmbH in Deutschland sowie in Österreich liegen unsere Vollzeitverträge unter 40 Stunden pro Woche.
Supporto alla qualità del dato e ai processi PLM Collabora alle attività di verifica, manutenzione e miglioramento della qualità del dato materiale, controllando completezza e correttezza rispetto agli standard definiti nel progetto PLM. Supporta inoltre semplici attività di test funzionali e di standardizzazione dei processi di gestione dati. Collaborazione trasversale con le funzioni della Divisione Opera in un contesto trasversale, interfacciandosi con R&D, Supply Chain, Qualità e CSR per la condivisione e l’allineamento delle informazioni sui materiali.
Als integraler Bestandteil unseres Teams gestaltest und entwickelst du innovative Backend-Services auf Basis von Kotlin mit Spring Boot und Ktor, wobei du stets ganzheitlich über den gesamten Stack hinweg denkstMit deinem Know-how gestaltest und implementierst du robuste Schnittstellen (REST/APIs) und modellierst sowie optimierst unsere Datenbanken (PostgreSQL, idealerweise auch Neo4j)Du bist maßgeblich an der Entwicklung, dem Deployment und dem Betrieb unserer Anwendungen in einer modernen Cloud-nativen Umgebung (AWS, Kubernetes) beteiligtDu erstellst und pflegst eigenständig automatisierte Tests, unterstützt unsere CI/CD-Pipelines und arbeitest eng mit Product Ownern und anderen Entwicklungsteams zusammen, um die besten Lösungen zu findenDeine Expertise ist gefragt bei der Fehleranalyse, dem Bugfixing und der kontinuierlichen Verbesserung unserer bestehenden Komponenten, optional bringst du dich auch in die Umsetzung und Pflege von Frontend-Komponenten mit React ein Du verfügst über ein erfolgreich abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder eine vergleichbare Qualifikation und bringst fundierte praktische Erfahrung in der Backend-Entwicklung mit Kotlin, Spring Boot und Ktor mitDer sichere Umgang mit Datenbanken wie PostgreSQL und idealerweise auch Neo4j ist für dich selbstverständlich und du bewegst dich souverän in der Cloud-nativen Welt, mit fundierter Erfahrung in Kubernetes, AWS, GitHub Actions und TerraformIdealerweise hast du bereits Berührungspunkte mit React oder die Motivation, dich in Frontend-Themen einzuarbeiten.Du bist lösungsorientiert, packst Herausforderungen gerne an und bist stets offen für neue Technologien und kontinuierliche WeiterentwicklungSehr gute Deutsch- und Englischkenntnisse in Wort und Schrift, eine strukturierte Arbeitsweise sowie die Freude an der Zusammenarbeit im Team runden dein Profil ab Anspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen BrancheEin hoch motiviertes Team und ein offener Kommunikationsstil Ihr Kontakt Referenznummer 861935/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Supporto alla qualità del dato e ai processi PLM Collabora alle attività di verifica, manutenzione e miglioramento della qualità del dato materiale, controllando completezza e correttezza rispetto agli standard definiti nel progetto PLM. Supporta inoltre semplici attività di test funzionali e di standardizzazione dei processi di gestione dati. Collaborazione trasversale con le funzioni della Divisione Opera in un contesto trasversale, interfacciandosi con R&D, Supply Chain, Qualità e CSR per la condivisione e l’allineamento delle informazioni sui materiali.
Je nach Schwerpunkt unterstützt du bei der Entwicklung moderner Anwendungen, beim strukturierten Koordinieren von Projekten oder beim Testen von Apps und Datenflüssen. Uns ist wichtig, dass du nicht nur mitläufst, sondern aktiv mitarbeitest, Verantwortung übernimmst und dich fachlich weiterentwickeln kannst.
Anforderungsdefinition: Sie definieren und dokumentieren funktionale Anforderungen und Spezifikationen für neue Systementwicklungen und Anpassungen. Funktionale Tests: Sie treiben funktionale Tests von Systemänderungen, Erweiterungen und Schnittstellen voran. Datenqualität: Sie definieren, implementieren und überwachen Datenqualitätsregeln im SAP MDG M.
Lesen Sie weiter… Mit Ihren Kenntnissen aus dem Studium und Ihrer Leidenschaft für das Thema können Sie bei den folgenden Aufgaben Erfahrungen bei uns sammeln: Erstellung von automatisierten Analysen und Bewertungen von aufgenommenem Bildmaterial und Datensätzen mittels Methoden aus Statistik und Data Mining sowie u.U. auch unter Miteinbezug von Sensor- und Navigationsdaten Merkmalsextrahierung und Analyse von Datensätzen mittels KI-basierten tiefen neuronalen Netzen Implementierung, Tests und Analyse von Verfahren zur dynamischen Anpassung von Kamera- und Bilddaten für die KI-Algorithmik im Zuge von Flugaufnahmekampagnen Erstellung von Datensätzen und Arbeit mit Datenbanksystemen Pflege von internen Dokumenten- und Wissensverwaltungssystemen Bei Interesse Unterstützung bei der Durchführung von Versuchskampagnen im Feld mehr weniger WAS SIE DAFÜR MITBRINGEN SOLLTEN Immatrikulation in einem Studiengang der Informatik, Computer Vision, Statistik, Data Analytics o.ä.
Stammdatenpflege, Support, Automatisierungen & Dokumentation).Du konzeptionierst neue und innovative Features, um unser operatives Geschäft auf Systemseite ideal zu unterstützen.Du steuerst und koordinierst unsere externen Dienstleister in der technischen Entwicklung und stellst so die anforderungs-, zeit- und budgetgerechte Umsetzung sicher.Du verantwortest das Test- und Feedback-Management und arbeitest dazu eng mit anderen Abteilungen zusammen.Du entwickelst regelmäßig neue & verständliche Schulungskonzepte und setzt diese proaktiv in die Tat um.Du verfügst über ein abgeschlossenes Studium im Bereich Wirtschaftswissenschaften, Wirtschaftsinformatik, Data / Business Analytics oder vergleichbar.Du bist motiviert, neue Themen selbstständig zu lernen und Innovationen proaktiv anzustoßen.Du konntest idealerweise bereits Erfahrung mit CRM-Systemen (inkl.
Ihre Aufgaben Übersetzung von Business- und Engineering-Anforderungen in funktionale Lösungen in PLM (Teamcenter) und SAP S/4HANA MDG-M Schnittstellenfunktion zwischen Fachbereich, Engineering und IT inkl. aktiver Mitgestaltung von Lösungsdesign und Umsetzbarkeit Erstellung und Dokumentation von fachlichen Anforderungen, Spezifikationen und Lösungskonzepten Steuerung und Durchführung funktionaler Tests (Änderungen, Erweiterungen, Schnittstellen) Definition, Implementierung und Monitoring von Data-Governance- und Datenqualitätsregeln in SAP MDG-M Analyse und Bereinigung von Stammdatenproblemen (Dublette, Klone, Kollisionen) Leitung von Abstimmungen zu Schnittstellen zwischen SAP (MM, PP, optional PM/QM/SD), PLM und angebundenen Systemen Erstellung von Anwenderdokumentationen und Schulungsunterlagen sowie fachliche Eskalationsinstanz Ihr Profil Mindestens 6 Jahre Erfahrung in IT-Implementierungsprojekten, davon 2 Jahre in vergleichbaren Projekten im Engineering-/PLM-/SAP-Umfeld Fundierte Expertise in PLM (idealerweise Teamcenter) und SAP S/4HANA MDG-M inkl.
Deine Aufgaben Du unterstützt die Mitarbeiter*innen umfassend vom Usermanagement über die Betreuung der persönlichen IT-Ausstattung und Arbeitsplätze bis zu Supportanfragen. Du übernimmst Auswahl, Test und die eigenständige Einführung neuer IT-Systeme. Du konfigurierst, überwachst und optimierst unsere Client-, Server- und Cloud-Infrastrukturen zuverlässig und zukunftsorientiert Du bringst dein Know-How gezielt ein, um unsere IT-Sicherheitsstandards sowie bestehende Zertifizierungen (ISO27001) zu sichern und weiterzuentwickeln Das bringst du mit Deine Ausbildung mit IT-Schwerpunkt hast du erfolgreich abgeschossen oder du hast dir vergleichbares Wissen in der Praxis angeeignet Fundierte Kenntnisse cloud-basierender Microsoft-Umgebungen, u.a.
Responsibilities Full ownership of app marketing campaigns (Facebook, Instagram, Google, Apple) from strategy to execution Define, monitor, and analyze KPIs (e.g., ROAS, CPI) to enable data-driven decisions Manage budgets, forecast performance, and scale campaigns to maximize results Run analyses, A/B tests, and experiments to drive continuous optimization Track industry trends and identify growth opportunities with strategic initiatives Collaborate with Design, Media, Analytics, and Tech teams on creatives and automation Mentor junior team members and share best practices Requirements Degree in business administration or related field (e.g., media management, e-commerce) 1.5+ years of experience in app marketing, ideally in a fast-paced environment Strong analytical skills with ability to interpret data and derive actionable insights Knowledge in app marketing, including campaign setup & targeting; Paid Social (e.g., Meta Advantage+ catalogue ads) is a plus Hands-on experience with Adjust, Meta Business Manager, Google Ads, Apple Search Ads, App Stores, Smartly or similar tools Excellent English skills, both written and spoken Benefits Hybrid working Täglich frisches Obst Sportkurse Exklusive Mitarbeiter Rabatte Kostenlose Getränke Sprachkurse Company Events Relocation Unterstützung Mobilitätszuschlag Zentrale Lage Flexible Arbeitszeiten Betriebliche Altersvorsorge Weiterbildungs- angebote Hunde erlaubt AY Academy Feedbackkultur Firmenfahrrad YOU ARE THE CORE OF ABOUT YOU We take responsibility for creating an inclusive and exceptional environment where all genders, nationalities and ethnicities feel welcomed and accepted exactly as they are.
MID – Driving Continuous Transformation Für spannende Projekteinsätze bei unseren Kunden suchen wir erfahrene Softwareentwickler (m/w/d) mit Java und Microservices-Expertise (Full Stack).In Deiner Position als Softwareentwickler:in erwarten Dich abwechslungsreiche und anspruchsvolle Tätigkeiten entlang des gesamten Prozesses der Softwareentwicklung in Projekteinsätzen bei unseren Kunden.Eigenverantwortlich stimmst Du die unterschiedlichen Anforderungsspezifikationen mit unseren Kunden und Fachabteilungen ab.Du wirkst an fachlichen und technischen Systementwürfen von (Web-)Anwendungen mit.Du setzt diese Entwürfe um und verantwortest sowohl die Programmierung als auch die Implementierung der Anwendungen.Dabei bringst Du Deine Expertise und Erfahrung im Umfeld innovativer Softwarelösungen unter Nutzung von Java ein.Die anschließende Qualitätssicherung, Tests, Inbetriebnahme und Unterstützung in verschiedenen Projekten runden Dein Aufgabengebiet ab.Mit Interesse für fachliche Architekturen entwickelst du Services in einer Microservice-Architektur und pflegst bestehende Systeme.Du implementierst CI / CD Pipelines.In deinem Alltag setzt du Clean Code und Clean Architecture ein und unterstützt das Team dabei, diese ebenfalls einzusetzen.Dein Studium im Bereich (Wirtschafts-)Informatik oder einem anderen Studiengang mit IT- und/oder Informatik-Fokus hast Du abgeschlossen, alternativ verfügst Du über eine vergleichbare Qualifikation mit entsprechender IT-Affinität.Du bringst langjährige Berufserfahrung (mind. 5 Jahre) im Bereich Softwareentwicklung mit, davon einschlägige Erfahrung mit Java, Javascript (z.
Additionally, we offer internal training programs and expert lectures conducted by our project team members, covering topics relevant to quality managers, project managers, design engineers, FEM analysts, test engineers, programmers, and automation specialists. uberi zirnij schrift
Designing and maintaining ArcGIS Enterprise environments (portal, hosting/federated servers, datastores) Publishing, configuring, and optimizing services throughout their lifecycle Implementing reliable multi-environment content deployment for databases, services, and applications Automating workflows with arcpy and ArcGIS API for Python for ETL, validation, and spatial processing Architecting and administering enterprise Geodatabases, including rules, domains, subtypes, relationships, and archiving Troubleshooting and resolving Geodatabase performance or data-integrity issues Planning and executing large-scale historical data migrations, including mapping, transformation, and validation Managing migration risks and documenting outcomes for both technical and non-technical audiences Building and troubleshooting integrations using ArcGIS REST APIs and webhooks, including real-time sync logic Providing structured production support, performing first-level RCA, documenting integrations, and contributing to UAT test books ArcGIS Enterprise mastery: deep experience with portal, hosting/federated servers, datastores, plus hands-on service publishing, configuration, and lifecycle management Advanced automation skills: strong proficiency with arcpy and ArcGIS API for Python for ETL, data processing, and deployment workflows Enterprise Geodatabase expertise: architecture/design (rules, domains, subtypes, relationships, archiving) plus proven ability to diagnose and fix performance and integrity issues Historical data migration leadership: large-scale migration planning, mapping, transformation logic, validation, risk mitigation, and documentation for diverse stakeholders Integration & production support: hands-on work with ArcGIS REST APIs, webhooks, real-time sync/reconciliation mechanisms, first-level RCA, and integration architecture analysis Location: 100% Remote Language: English Ihr Kontakt Referenznummer 866056/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
You will also produce test scripts, materials and regression test packs to test new and amended software or services. At DHL IT Services, your talent is our passion.