Als integraler Bestandteil unseres Teams gestaltest und entwickelst du innovative Backend-Services auf Basis von Kotlin mit Spring Boot und Ktor, wobei du stets ganzheitlich über den gesamten Stack hinweg denkstMit deinem Know-how gestaltest und implementierst du robuste Schnittstellen (REST/APIs) und modellierst sowie optimierst unsere Datenbanken (PostgreSQL, idealerweise auch Neo4j)Du bist maßgeblich an der Entwicklung, dem Deployment und dem Betrieb unserer Anwendungen in einer modernen Cloud-nativen Umgebung (AWS, Kubernetes) beteiligtDu erstellst und pflegst eigenständig automatisierte Tests, unterstützt unsere CI/CD-Pipelines und arbeitest eng mit Product Ownern und anderen Entwicklungsteams zusammen, um die besten Lösungen zu findenDeine Expertise ist gefragt bei der Fehleranalyse, dem Bugfixing und der kontinuierlichen Verbesserung unserer bestehenden Komponenten, optional bringst du dich auch in die Umsetzung und Pflege von Frontend-Komponenten mit React ein Du verfügst über ein erfolgreich abgeschlossenes Studium der Informatik, Wirtschaftsinformatik oder eine vergleichbare Qualifikation und bringst fundierte praktische Erfahrung in der Backend-Entwicklung mit Kotlin, Spring Boot und Ktor mitDer sichere Umgang mit Datenbanken wie PostgreSQL und idealerweise auch Neo4j ist für dich selbstverständlich und du bewegst dich souverän in der Cloud-nativen Welt, mit fundierter Erfahrung in Kubernetes, AWS, GitHub Actions und TerraformIdealerweise hast du bereits Berührungspunkte mit React oder die Motivation, dich in Frontend-Themen einzuarbeiten.Du bist lösungsorientiert, packst Herausforderungen gerne an und bist stets offen für neue Technologien und kontinuierliche WeiterentwicklungSehr gute Deutsch- und Englischkenntnisse in Wort und Schrift, eine strukturierte Arbeitsweise sowie die Freude an der Zusammenarbeit im Team runden dein Profil ab Anspruchsvolle und abwechslungsreiche Aufgaben in einer zukunftsträchtigen und innovativen BrancheEin hoch motiviertes Team und ein offener Kommunikationsstil Ihr Kontakt Referenznummer 861935/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Unsere Stakeholder sind u.a Project Leads, Product Owners, Business Analysts, Security Engineers, Operations Teams, Test Teams. Häufig verwenden unsere Kunden und Projekte u.a. die Technologien Java / SpringBoot, JavaScript / TypeScript, KeyCloak, PostgreSQL, MongoDB, JMS, JSON, REST, Kafka, Quarkus, AWS, AZURE, GCP, Docker, K8S, Gitlab, Github, Maven, Terraform, Helm.
Unsere Stakeholder sind u.a Project Leads, Product Owners, Business Analysts, Security Engineers, Operations Teams, Test Teams. Häufig verwenden unsere Kunden und Projekte u.a. die Technologien Java / SpringBoot, JavaScript / TypeScript, KeyCloak, PostgreSQL, MongoDB, JMS, JSON, REST, Kafka, Quarkus, AWS, AZURE, GCP, Docker, K8S, Gitlab, Github, Maven, Terraform, Helm.
HV Authorised Person (Experienced with HV Systems) Electrical/Mechanical Engineering HNC or HND (Successfully completed apprenticeship in either) C&G Pts. 1 & 2, equivalent or exceeds. 17th Edition IEE: Wiring and Installation (Ability to attain 18th Edition through additional training) C&G 2391 test and inspection; BS 7671:2001 for inspection, testing and certification. Proven experience in data centre operations management, preferably in a mission-critical environment.
Working closely with Product Owners and cross-functional teams, you’ll provide full-cycle A/B test analytical support, create tracking concepts, and translate user behavior and shop performance insights into actionable business recommendations.
Mindestens 6 Jahre praktische Erfahrung in der Implementierung von produktionsreifer Software mit Python, Git, CI/CD, Testing (Unittests und End-to-End Tests) Mindestens 6 Jahre praktische Erfahrung in der Datenanalyse mit SQL oder MDX (TM1) Sehr gute Deutsch Kenntnisse (mind.B2) vorausgesetzt.
Tätigkeiten: Potenziale erkennen: Analysiere Kundenanforderungen und entwickle datengetriebene Lösungen – von Analytics über Machine Learning bis GenAI.Strategien entwickeln: Konzipiere individuelle Data-&-AI-Strategien für vielfältige Use Cases.Lösungen skalieren: Entwirf zukunftsfähige Architekturen für Datenplattformen, ML-Pipelines und AI-Systeme.Technologien prüfen: Teste und empfehle passende Technologien, begleite Umsetzungsteams mit klaren Roadmaps.Business ausbauen: Unterstütze Pre-Sales-Aktivitäten, Marktanalysen und die Weiterentwicklung datenbasierter Geschäftsbereiche.Angebote mitgestalten: Bringe deine Ideen in Lösungskonzepte, Kalkulationen und Präsentationen ein.Akademischer Hintergrund: Erfolgreich abgeschlossenes Studium der (Wirtschafts-)Informatik, Computer Science oder eine vergleichbare Qualifikation.Erfahrung: Mehrjährige Erfahrung in der Konzeption und Umsetzung moderner Datenplattformen, ML-Lösungen und AI-Systeme.Technologiekompetenz: Fundierte Erfahrung mit Azure, Databricks oder AWS sowie in Python, SQL, Docker, CI/CD-Pipelines und Infrastructure as Code.Fachliches Know-how: Tiefes Verständnis moderner Datenarchitekturen, MLOps und Data Governance.Arbeitsweise: Kombination aus konzeptioneller Stärke, analytischem Denken und pragmatischer Hands-on-Mentalität.Kommunikationsstärke: Fähigkeit, komplexe Themen klar und überzeugend zu vermitteln – in Deutsch und Englisch.Flexibilität: Wir bieten dir flexible Arbeitsmodelle mit großzügiger Gleitzeitregelung – wahlweise an einem unserer Standorte oder bis zu 100 % mobil innerhalb Deutschlands.Einarbeitung & Entwicklung: Deine individuelle Einarbeitung und Karriereförderung liegen uns am Herzen.
Bei uns können Sie praktische Erfahrungen sammeln und an innovativen Projekten im Bereich Data Science mitarbeiten, um KSB-Dienstleistungen und -Produkte zu verbessern. Woran Sie arbeiten werden: Entwicklung und Testen neuer Algorithmen, Modelle und Methoden basierend auf maschinellem Lernen oder anderen Techniken in Zusammenarbeit mit dem Data Science Team Evaluierung und Optimierung von Algorithmen und Modellen, Einbringen innovativer Ideen und neuer Methoden ins Data Science Team, Vorbereitung und Prozessieren von Rohdaten zum Erstellen von Modellen Durchführung von Analysen und Präsentation der Ergebnisse vor dem Data Science Team, Entwicklung von qualitativ hochwertigem Code nach dem "Clean code”-Prinzip und KSB-Standards Perfekt vorbereitet | Sie studieren im Bereich Mathematik, Statistik, Data Science, Informatik, Physik oder vglb.
Supporto alla qualità del dato e ai processi PLM Collabora alle attività di verifica, manutenzione e miglioramento della qualità del dato materiale, controllando completezza e correttezza rispetto agli standard definiti nel progetto PLM. Supporta inoltre semplici attività di test funzionali e di standardizzazione dei processi di gestione dati. Collaborazione trasversale con le funzioni della Divisione Opera in un contesto trasversale, interfacciandosi con R&D, Supply Chain, Qualità e CSR per la condivisione e l’allineamento delle informazioni sui materiali.
Supporto alla qualità del dato e ai processi PLM Collabora alle attività di verifica, manutenzione e miglioramento della qualità del dato materiale, controllando completezza e correttezza rispetto agli standard definiti nel progetto PLM. Supporta inoltre semplici attività di test funzionali e di standardizzazione dei processi di gestione dati. Collaborazione trasversale con le funzioni della Divisione Opera in un contesto trasversale, interfacciandosi con R&D, Supply Chain, Qualità e CSR per la condivisione e l’allineamento delle informazioni sui materiali.
Du begleitest Schnittstellen end-to-end: von der Anforderungsaufnahme über Design und Umsetzung bis hin zu Tests, Rollout und Betrieb – gemeinsam mit Deinen Kolleg*innen und externen Partnern. Du arbeitest eng mit unseren Fachbereichen zusammen, priorisierst pragmatisch nach Wirkung und entwickelst Lösungen konsequent aus dem Business heraus.
Datenmigration & Prozessunterstützung Du unterstützt bei Datenmigrationen sowie systemnahen Tests, um die Qualität neuer oder veränderter Daten sicherzustellen. Außerdem dokumentierst du Datenmanagementprozesse und hilfst bei der Erstellung von Trainingsunterlagen für die Stammdatenpflege.
Daten Analyse Webanalysen zur Auswertung der Seitennutzung Umsetzung, Testen und Automatisierung von Clusteranalysen zur Segmentierung von Endkunden und BankenAufbereitung von Rohdaten aus verschiedenen QuellenAusführliches Testing und Automatisierung für wiederkehrende ProzesseRetraining und Aktualisierung von Machine-Learning-Modellen Fundierte Kenntnisse in Oracle SQL, Python und Git Sicherer Umgang mit Azure Machine LearningBankenerfahrung / Finance Daten (Must Have)Versiert im Einsatz von PowerBI Abwechslungsreiche Tätigkeit in einem renommierten Unternehmen Ihr Kontakt Referenznummer 864539/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
ROAS, CAC, conversion rates) and conduct ad‑hoc analyses to answer specific business questions.You support A/B tests, campaign evaluations, as well as forecasting and scenario analyses.You help ensure data quality, perform plausibility checks, and support tracking concepts and data integrations.You analyze customer journeys as well as lead and B2B funnels (MQL/SQL) and derive data‑driven recommendations to optimize performance.You work closely with performance marketing, eCommerce, and external agencies, and use AI‑driven analysis methods to evaluate user behavior.
Je nach Schwerpunkt unterstützt du bei der Entwicklung moderner Anwendungen, beim strukturierten Koordinieren von Projekten oder beim Testen von Apps und Datenflüssen. Uns ist wichtig, dass du nicht nur mitläufst, sondern aktiv mitarbeitest, Verantwortung übernimmst und dich fachlich weiterentwickeln kannst.
You manage the backlog, prioritize based on value, and translate epics and features into user stories including clear acceptance criteria.You ensure Definition of Ready and Definition of Done, orchestrate refinement sessions, manage dependencies and testability, and thereby enable efficient, low‑risk delivery.You ensure that requirements contribute directly to customer value, conversion, checkout efficiency, and overall KPI impact.You coordinate deliveries with internal and external development teams (without coding yourself) and ensure high implementation quality.You support the release and quality concept (regression, functional, end‑to‑end testing) and drive the further development of test automation and stable releases across connected systems.You provide management‑level reporting on status, risks, forecasts, and dependencies (e.g. quarterly, depending on governance).You systematically identify growth opportunities, collaborate closely with relevant stakeholders, bridge technical and business perspectives, and actively contribute to further professionalizing and scaling our webshop.
You plan, coordinate, and support interviews, focus groups, and user tests in close alignment with the UX department. You manage the end‑to‑end hypothesis and A/B testing process (intake, prioritization, test design, tracking, evaluation) in collaboration with UX, Marketing, Data, and Development.
Das bringst du mit Data Engineering Erfahrung: Mehrjährige Berufserfahrung im Data Engineering und in der Datenmodellierung, idealerweise im Consulting-Umfeld.Snowflake Expertise: Mehrjährige Projekterfahrung mit Snowflake in produktiven Umgebungen inklusive Performance-Optimierung sowie Rollen- und Rechtemodellen.dbt-Erfahrung: Sicherer Umgang mit dbt Core oder dbt Cloud inklusive Makros, Jinja, Tests und strukturierter Dokumentation von Transformationslogiken.Tech Stack: Sehr gute SQL-Kenntnisse auf Advanced-Level sowie praktische Erfahrung mit Python, Cloud-Providern wie AWS, Azure oder GCP und Git für die Zusammenarbeit im Team.Agile Methodik: Erfahrung mit Scrum oder Kanban sowie im strukturierten Anforderungsmanagement im Analytics-Umfeld.Kommunikation und Sprache: Ausgeprägte Kundenorientierung, fließende Deutschkenntnisse (mindestens C1), gute Englischkenntnisse und punktuelle Reisebereitschaft je nach Kundenbedarf.
End-to-End-Verantwortung für Material-/Teilestammdaten in SAP S/4HANASicherstellung von Datenqualität und GovernanceAnlage & Pflege von Materialarten und Stammdaten-SichtenPflege von Basisdaten (Maße/Gewichte, EAN/GTIN, Gefahrstoffe, Zeichnungsstände)Verwaltung von MRP-/DispositionsparameternPflege von Einkaufsdaten (Infosätze, Lieferantenmaterialnummern, Preise)Zusammenarbeit mit Einkauf, SCM, Produktion, QM, Vertrieb, Finance und EngineeringDurchführung von Datenmigrationen inkl. Mapping, Tests und ValidierungReporting & KPIs zur Datenqualität und Prozessleistung Erfahrung im Teilestammdatenmanagement, idealerweise in Industrie/FertigungGute Kenntnisse in SAP ERP / S/4HANA (Materialstamm, Basis-MM-Prozesse)Vertraut mit S/4HANA-Fiori-Apps zur StammdatenpflegeGrundverständnis von End-to-End Supply-Chain-ProzessenSicherer Umgang mit Excel inkl.
Ihre Aufgaben: Leitung und Mitarbeit von Projekten im Bereich Digitalisierung und Datenanalyse Optimierung, Digitalisierung und Automatisierung der KPI-Landschaft Erstellung und Pflege von Berichten und Echtzeit-Dashboards Implementierung von Monitoringsystemen zur automatischen Abweichungsbenachrichtigung Erstellung von Best Practices und Dokumentationen im Datenmanagement Aktive Beteiligung an Verbesserungsprojekten, Umsetzung von AOS-Bricks und der EDD-Datenstrategie Koordination mit zentraler IT, „Methoden & Tools“ und externen Dienstleistern für Industrialisierung von Anwendungen (Spezifikationen, Tests, Datenprodukte) Organisation und Durchführung von Upskilling-Sessions zur Förderung von Datenkompetenzen Ihr Profil: Abgeschlossenes Studium (mind.
DIES SIND IHRE AUFGABEN: Ganzheitliche Begleitung von BI / Data Projekten: von der Anforderungsaufnahme über Umsetzung und Tests bis zur ProduktivsetzungAnalyse und Aufbereitung von Rohdaten, Entwicklung von Datenmodellen sowie Visualisierung aussagekräftiger InformationenEinsatz von Qlik Sense mit Schwerpunkt auf Data Mining und Data Analytics in Bereichen wie Produktion, Vertrieb, Logistik und ProduktmanagementAnbindung und Nutzung von Datenquellen aus den ERP-System SAP zur Gewährleistung konsistenter AnalysenOptimierung der Datenqualität und Beratung internationaler Fachbereiche zur effektiven Nutzung von Datenanalyse-ToolsÜbernahme von (Teil-)Projektleitungen sowie Koordination interner IT-Ressourcen, externer Dienstleister und FachabteilungenUser Support und Schulungen in Deutsch (Sprache am Firmensitz!)
Unbefristeter Arbeitsvertrag Einsatz bei renommierte Kunden/ Weltmarktführer Betreuung vom Bewerbungsgespräch bis zur Einstellung Ihre Aufgaben: Beratung und Unterstützung der Mitarbeiter weltweit in Bezug auf Einsatzmöglichkeiten, Leistungsfähigkeit und optimale Nutzung von vorhandenen Datenanalyse-Tools Unterstützung bei der Analyse und Verbesserung der Datenqualität Verantwortung für die Aufnahme, Bewertung und Festlegung des Leistungsumfanges im Bereich Data Mining und Data Analytics Implementierung, Test, Anwenderabnahme, Dokumentation und Produktivsetzung von Anforderungen im Bereich Data Mining und Data Analytics Identifizierung der entsprechenden Rohdaten, Design der notwendigen Datenmodelle und Automatisierung der Umwandlung dieser Rohdaten in entscheidungsrelevante Informationen Unterstützung bei der Auswahl neuer Softwarelösungen durch Erstellung von Lasten- /Pflichtenheften und Evaluierungsmatrizen sowie durch fachliche Bewertung der Angebote Übernahme der Projekt- bzw.
Du übernimmst zudem Verantwortung für und Sicherstellung von Performance, Skalierbarkeit und Stabilität der Integrationen und unterstützt bei Tests, Go-Live und Rollouts. Auch die technische Beratung von Fachbereichen, IT-Teams und Management zu Integrationslösungen sowie die Mitarbeit in Integrations- und Digitalisierungsprojekten, Planung und Steuerung des Integrationsteils gehört hier zu Deinem Aufgabenbereich.
Benefits Senior-Rolle im SAP S4HANA und PLM Umfeld Fokus auf Master Data Governance und Prozessintegration Standort Mülheim an der Ruhr Aufgaben Sie übersetzen Business- und Engineering-Anforderungen in SAP S4HANA MDG M und PLM Lösungen Sie definieren funktionale Spezifikationen und begleiten Tests Sie gestalten und überwachen Data-Governance- und Data-Quality-Regeln Sie analysieren und bereinigen Stammdatenprobleme Sie steuern Schnittstellen zwischen SAP, Teamcenter und angebundenen Systemen Sie erstellen Dokumentation und Trainingsmaterialien für Endanwender Profil Abgeschlossenes Studium im Bereich Informatik, Wirtschaftsinformatik, Maschinenbau oder vergleichbar Mehrjährige Erfahrung in SAP S4HANA MDG M, SAP MM und SAP PP Erfahrung im PLM-Umfeld, idealerweise Teamcenter Sehr gute Kenntnisse in Requirements Engineering und funktionalem Design Erfahrung in Implementierungsprojekten sowie im IT-Projektmanagement Sehr gute Englischkenntnisse Unsicher, ob die Stelle zu Ihnen passt?
Aufbau einer Log-Ingestion- und Parsing-Pipeline für mehrgigabytegroße Archive (ZIP/XML/JSON/Windows-Event-Logs), um normalisierte Ereignisdaten zu erzeugenEreigniskorrelation und Datenanreicherung (zeitliche Sortierung, korrelierte Events aus unterschiedlichen Quellen, unscharfer Abgleich mit einer Fehler-/FMEA-Wissensdatenbank)Entwicklung einer Embedding- und Hybrid-Retrieval-Pipeline (Azure OpenAI Embeddings + Keyword-Suche + Vektor-Suche) mit klar definierten Zielen für Latenz und DurchsatzDurchführung von Datenqualitätsprüfungen (Schema-Validierung, Encoding-Checks, Erkennung von Duplikaten) sowie Erstellung einer präzisen technischen Übergabedokumentation Erfahrung in Implementierung von ETL/ELT-Prozessen in Python zur Verarbeitung großer und heterogener Log-DatenmengenKenntnisse Design von Schemas und Datenmodellen für normalisierte Events und Wissensbank-Dokumente (JSON/JSONL + SQL)Aufbau/Optimierung von Vektorindex-Sammlungen und Relevanzbewertungen (BM25/TF-IDF + Cosine Similarity)Performance-Optimierung (Batching, Caching) und Bereitstellung wartbaren Codes inkl. Tests und Git-WorkflowSehr gute Python-Kenntnisse (pandas/NumPy, File I/O, Regex/Textverarbeitung, Performance-Optimierung)Praktische Erfahrung mit SQL und DatenmodellierungErfahrung im Parsing von JSON/XML/CSV und im Umgang mit verschiedenen EncodingsSichere Zusammenarbeit über Git (Pull Requests, Branching)Erfahrung mit Vektor-Datenbanken (z.B.
Dieser Job ist im Rahmen der Arbeitnehmerüberlassung mit Option auf Übernahme bei unserem Auftraggeber zu besetzen. Deine Aufgaben Du entwickelst, wartest und testest Datenpipelines zur neartime-Verarbeitung von Kundendaten nach modernen Software- und Data-Engineering-Prinzipien.Du stellst die Infrastruktur für Datenkonsument:innen sowie Machine-Learning-Modelle bereit und erschließt relevante Datenquellen technisch.Du dokumentierst technische Entscheidungsgrundlagen und bewertest verbundene Risiken.Du bringst Dich aktiv in die Optimierung der Entwicklungsprozesse im Team ein von CI/CD über DevOps bis hin zu MLOps.Du unterstützt dabei, aus Mensch-Maschine-Interaktionen automatisiert zu lernen und Kundenerlebnisse kontinuierlich zu verbessern.
Aufbau einer Log-Ingestion- und Parsing-Pipeline für mehrgigabytegroße Archive (ZIP/XML/JSON/Windows-Event-Logs), um normalisierte Ereignisdaten zu erzeugen Ereigniskorrelation und Datenanreicherung (zeitliche Sortierung, korrelierte Events aus unterschiedlichen Quellen, unscharfer Abgleich mit einer Fehler-/FMEA-Wissensdatenbank) Entwicklung einer Embedding- und Hybrid-Retrieval-Pipeline (Azure OpenAI Embeddings + Keyword-Suche + Vektor-Suche) mit klar definierten Zielen für Latenz und Durchsatz Durchführung von Datenqualitätsprüfungen (Schema-Validierung, Encoding-Checks, Erkennung von Duplikaten) sowie Erstellung einer präzisen technischen Übergabedokumentation Erfahrung in Implementierung von ETL/ELT-Prozessen in Python zur Verarbeitung großer und heterogener Log-Datenmengen Kenntnisse Design von Schemas und Datenmodellen für normalisierte Events und Wissensbank-Dokumente (JSON/JSONL + SQL) Aufbau/Optimierung von Vektorindex-Sammlungen und Relevanzbewertungen (BM25/TF-IDF + Cosine Similarity) Performance-Optimierung (Batching, Caching) und Bereitstellung wartbaren Codes inkl. Tests und Git-Workflow Sehr gute Python-Kenntnisse (pandas/NumPy, File I/O, Regex/Textverarbeitung, Performance-Optimierung) Praktische Erfahrung mit SQL und Datenmodellierung Erfahrung im Parsing von JSON/XML/CSV und im Umgang mit verschiedenen Encodings Sichere Zusammenarbeit über Git (Pull Requests, Branching) Erfahrung mit Vektor-Datenbanken (z.B.
Job-Orchestrierung, Scheduling und Monitoring Migration bestehender ETL-Strecken aus SAP BI/ BO in SAP Datasphere, inkl. Refactoring, Test und Cutover Integration & Transformation heterogener Quellsysteme (SAP & Non-SAP), inkl. Realtime-Replikation/CDC dort, wo sinnvoll Datenqualität & Governance: Aufbau automatisierter DQ-Checks, Lineage/Metadata-Pflege und Dokumentation Performanceoptimierung (Push-Down, Parallelisierung, Partitionierung), sowie Kosten-/Leistungs-Tuning in Cloud-Szenarien Enge Zusammenarbeit mit Fachbereichen (Anforderungsanalyse, Data Contracts) und Data Analytics-Team (Modellierung, Semantik) Wünschenswert wäre CI/CD & Automatisierung: Versionierung, Build/Deploy-Pipelines, Testautomatisierung und „infrastructure as code“ für Datenstrecken Dokumentation & kontinuierliche Verbesserung der Integrationsarchitektur und Betriebsprozesse IHR PROFIL Studium der (Wirtschafts-)Informatik oder gleichwertige Praxis 3+ Jahre ETL-/Data-Engineering-Erfahrung, davon substantiell mit SAP Data Services und (idealerweise) SAP Datasphere Sehr gute SQL-Kenntnisse (z.
Design, build and optimize enterprise Tableau dashboardsDevelop reporting-friendly data models on Cloudera Data Platform (Hadoop) and Azure Databricks (Delta Lake, SQL Warehouses)Implement and tune SQL queries (Hive, Impala, Spark SQL, Databricks SQL) for performance, cost efficiency and concurrencyApply Tableau performance optimization strategies (extract vs live, push-down optimization, query tuning)Design and implement secure enterprise Tableau configurations, including row-level security aligned with role conceptsEnsure compliance with IT security, data governance and regulatory requirementsCollaborate with data platform teams, DataOps, IT security/compliance and controlling solutionsProduce professional documentation: data models, dashboard specifications, data-source definitions, security concepts, test casesConduct testing for accuracy, performance, access control and stability of dashboards and data modelsProvide knowledge transfer, coaching and structured handover to internal teams Strong hands-on experience with Tableau Desktop and Tableau Server/Cloud in enterprise environmentsProven ability to build management-ready dashboards for finance/controlling or other regulated industriesPractical experience with Cloudera Data Platform, Hadoop ecosystems, and Azure Databricks integrationsAdvanced SQL skills across Hive, Impala, Spark SQL, Databricks SQLSolid understanding of Delta Lake, parquet/ORC formats, and BI-oriented data modeling principlesExperience implementing row-level security and with enterprise BI solutionsStrong knowledge of performance optimization in Tableau, Hadoop and Databricks environmentsAbility to operate in regulated financial environments with security, compliance and data governance constraintsExcellent communication and documentation skills in English International clientRemote option Ihr Kontakt Ansprechpartner Eliška Stejskalová Referenznummer 864486/1 Kontakt aufnehmen E-Mail: eliska.stejskalova@hays.at Anstellungsart Freiberuflich für ein Projekt
B2B tools and message standards, middleware, SOA concepts, data communications, visibility tools)Ability to analyze and decompose business needs into sets of IT requirementsSolid knowledge of Test Management, Change Management, Configuration ManagementCustomer OrientatedStrong ability to solve problems and propose suitable, alternative solutions and interpersonal and influencing skillsStrong organizational awareness and experience in managing medium scale projects/ consultancy assignments (6-12 months) with direct business impact and firm deadlinesExcellent written and verbal communication skillsProactive WHAT IS THE PLUS POINT(S) ·Java/Angular/NodeJS Web Development Knowledge.
The role ensures that customer processes, data formats, and quality requirements are correctly understood, translated, and implemented in the map handling standard software or related solutions that support semiconductor manufacturing from wafer test through assembly and final test. The professional possesses in depth knowledge of the critical stages of semiconductor manufacturing, with a strong focus on wafer test and chip assembly, and maintains a high level understanding of adjacent process stages, including front end wafer fabrication and final test.Degree in Computer Science, Software Engineering, Electrical Engineering or comparable technical fieldStrong IT / software background with understanding of software architecture, data models and interfaces, system integration, industrial software solutions ideally with a background in manufacturing IT or MES environmentsExperience in semiconductor manufacturing, preferably in Wafer Test / Wafer Sort, Assembly, Final TestSolid knowledge of semiconductor data formats and standards such as SEMI E142, SECS/GEM (E5), E183, G85, STDFAbility to analyze complex technical data flows and translate them into software requirementsExperience working at the interface between customers, engineers and software development teamsStrong analytical and structured communication skillsFluent English required, German skills are a plus Gesundheitsmaßnahmen Mitarbeiterrabatte Aus- und Weiterbildung Betriebliche Altersvorsorge Mitarbeiterevents Unbefristete Arbeitsverträge Workation Flache Hierarchien und kurze Kommunikationswege 30 Tage Urlaub sowie anlassbezogener Sonderurlaub Reduzierte Vollzeit In der znt Zentren für Neue Technologien GmbH in Deutschland sowie in Österreich liegen unsere Vollzeitverträge unter 40 Stunden pro Woche.
Ihre Aufgaben Entwicklung moderner Cloud-basierter Anwendungen Konzeption und Umsetzung automatisierter Tests zur Sicherstellung der Softwarequalität Teilnahme an fachübergreifenden IIoT-Projekten mit der Möglichkeit einer (Teil-)Projektleitung Pflege, Dokumentation und kontinuierliche Verbesserung der entwickelten Anwendungen Koordination, Abstimmung und Steuerung der Konzepte mit internen und externen Entwicklungspartnern Ihr Profil Abgeschlossenes Hochschulstudium im Bereich Informatik oder Elektrotechnik oder eine vergleichbare informationstechnische Berufsausbildung mit Schwerpunkt Anwendungsentwicklung Gute Kenntnisse im Software-Engineering, Verständnis von Designpattern und Systemarchitekturen Fundierte Programmierkenntnisse (z.B.
Ihre Aufgaben Entwicklung moderner cloud-basierter Anwendungen Konzeption und Umsetzung automatisierter Tests zur Sicherstellung der Softwarequalität Teilnahme an fachübergreifenden IIoT-Projekten mit der Möglichkeit einer (Teil-)Projektleitung Pflege, Dokumentation und kontinuierliche Verbesserung der entwickelten Anwendungen Koordination, Abstimmung und Steuerung der Konzepte mit internen und externen Entwicklungspartnern Ihr Profil Abgeschlossenes Hochschulstudium im Bereich Informatik oder Elektrotechnik oder eine vergleichbare informationstechnische Berufsausbildung mit Schwerpunkt Anwendungsentwicklung Gute Kenntnisse im Software-Engineering, Verständnis von Designpattern und Systemarchitekturen Fundierte Programmierkenntnisse (z.B.
Job description / Your role: Serve as the owner of our Product Quality (QA) and Product Assurance (PA) processes for space electronics Ensure that LEOspace electronic systems are designed, tested, and qualified to perform reliably in the space environment Manage specifications and coordinate test and qualification activities in line with emerging New Space standards Support electrical engineering teams in selecting components suited for space applications, with a strong focus on radiation resilience Provide QA/PA support throughout the entire product lifecycle, from early design phases through production and deployment Lead FMECA (Failure Modes, Effects, and Criticality Analysis) and RAMS (Reliability, Availability, Maintainability, and Safety) workflows across development stages Coordinate with external test providers and support procurement processes for the testing of electronic componentsContribute to industrial process engineering within our Simultaneous Engineering approach, enabling scalable production of space-qualified products Qualification Checklist: University degree (or equivalent) in electrical engineering or a related field Proven experience in the space sector, particularly with electrical systems and components Expertise in requirements engineering and in drafting specifications at the equipment, unit, and component levels Knowledge of COTS (Commercial Off-The-Shelf) component qualification, including delta qualification for space use Familiarity with radiation testing methodologies for COTS components and experience in part screening for space environments Fluency in English (written and spoken) Bonus Qualifications: Hands-on experience in executing radiation testing of electrical parts, covering the entire process from datasheet review and part selection trade-offs to test definition, execution, and data analysis Extensive professional experience, preferably in the space or aerospace industry Strong background in Quality Assurance and Product Assurance for electrical products used in space applications Benefits: Join an innovative space-tech start-up with real impact on strategy and growth Collaborate globally and work hands-on with cutting-edge research and technology Enjoy a flexible, agile work environment with 30 days of vacation and remote work options Access top industry events, continuous learning, and professional development Benefit from relocation assistance to support your move, if requiredBe part of a supportive team with room to grow as we scale together Ihr Ansprechpartner Dr.
Lesen Sie weiter… Mit Ihren Kenntnissen aus dem Studium und Ihrer Leidenschaft für das Thema können Sie bei den folgenden Aufgaben Erfahrungen bei uns sammeln: Erstellung von automatisierten Analysen und Bewertungen von aufgenommenem Bildmaterial und Datensätzen mittels Methoden aus Statistik und Data Mining sowie u.U. auch unter Miteinbezug von Sensor- und Navigationsdaten Merkmalsextrahierung und Analyse von Datensätzen mittels KI-basierten tiefen neuronalen Netzen Implementierung, Tests und Analyse von Verfahren zur dynamischen Anpassung von Kamera- und Bilddaten für die KI-Algorithmik im Zuge von Flugaufnahmekampagnen Erstellung von Datensätzen und Arbeit mit Datenbanksystemen Pflege von internen Dokumenten- und Wissensverwaltungssystemen Bei Interesse Unterstützung bei der Durchführung von Versuchskampagnen im Feld mehr weniger WAS SIE DAFÜR MITBRINGEN SOLLTEN Immatrikulation in einem Studiengang der Informatik, Computer Vision, Statistik, Data Analytics o.ä.
What you will do: Focus on the design, development, and execution of automated end-to-end tests Manage and prioritize bug reports, keeping their business value in mind Lead regression testing, identify and resolve defects to ensure the stability of high-traffic customer interactions and transactions Analyze complex workflows, data flows, and database interactions to identify potential areas for improvement in test coverage and performance Report bugs and reproduce them throughout the complete bug cycle Coordinate testing efforts to ensure the delivery of quality features Advocate for product quality within cross-functional teams Contribute to ABOUT YOU’s long-term automation strategy in testing Who you are: 4+ years of experience in QA, testing, and debugging REST backend applications, with strong knowledge of HTTP methods, status codes, headers, and error handling Proficient in API validation against OpenAPI/Swagger specifications 4+ years of experience with JavaScript/TypeScript or other OOP languages, using frameworks like Mocha/Playwright, and GitlabCI 2+ years of experience working with relational and NoSQL databases, focusing on integration and data flows Passionate about automation and building maintainable test suites that provide continuous feedback, with strong skills in both exploratory and automated testing Experienced with agile methodologies Excellent communication skills, including fluent written and spoken English for clear collaboration Solid understanding of transaction systems, gateways, customer data, and large-scale database structures Committed to identifying and addressing issues early, ensuring high-quality customer-facing features and services Benefits Hybrid working Fresh fruit every day Sports courses Free access to code.talks Exclusive employee discounts Free drinks Language courses Company parties Help in the relocation process Mobility subsidy Central Location Flexible Working Hours Professional training Dog-friendly office Feedback Culture Job Bikes YOU ARE THE CORE OF ABOUT YOU We take responsibility for creating an inclusive and exceptional environment where all genders, nationalities, and ethnicities feel welcomed and accepted exactly as they are.
FMEA, Risk Assessments) im Entwicklungsprozess Nutzung von Lessons Learned zur kontinuierlichen Verbesserung zukünftiger Produktentwicklungen Initiierung und Umsetzung von Verbesserungsmaßnahmen zur Erhöhung der Produktqualität Koordination von Tests und Zertifizierungen mit externen Prüflaboren Sicherstellung aller relevanten regulatorischen und normativen Anforderungen Ansprechpartner:in für Lieferanten bei qualitätsrelevanten Fragestellungen Unterstützung der Projektteams in Qualitätsfragen entlang des gesamten Entwicklungsprozesses Dokumentation aller Qualitätsaktivitäten, Testergebnisse und Konformitätsnachweise Die Kapitel deiner bisherigen Story: Abgeschlossenes technisches Studium oder vergleichbare Qualifikation Mehrjährige Erfahrung im Qualitätsmanagement oder in der Produktentwicklung Gute Kenntnisse relevanter Normen, regulatorischer Anforderungen und Prüfverfahren Erfahrung mit Risikoanalysen (z.
Sprint Planung, unter Berücksichtigung der Besonderheiten und Prozesse von ALDI Nord Verantwortung für die Qualitätssicherung, u.a. durch Testen neuer und bestehender Funktionen sowie Pflege der entsprechenden Dokumentation Analyse und Identifikation möglicher Ursachen für gemeldete Bugs sowie bei Bedarf Aufbereitung der Informationen für das Entwicklerteam Vorbereitung und Durchführung von Datenimporten (via SQL) Support für Endanwender, z.
Sprint Planung, unter Berücksichtigung der Besonderheiten und Prozesse von ALDI Nord Verantwortung für die Qualitätssicherung, u.a. durch Testen neuer und bestehender Funktionen sowie Pflege der entsprechenden Dokumentation Analyse und Identifikation möglicher Ursachen für gemeldete Bugs sowie bei Bedarf Aufbereitung der Informationen für das Entwicklerteam Vorbereitung und Durchführung von Datenimporten (via SQL) Support für Endanwender, z.
• tiefgehendes Wissen über Tools und Methoden der Testautomatisierung sowie Erfahrung im Testen und Debuggen von Anwendungen. • ausgeprägte Problemlösungs-, Kommunikations- und Teamfähigkeiten sowie Erfahrung im Projekt- und Produktmanagement
Responsibilities Full ownership of app marketing campaigns (Facebook, Instagram, Google, Apple) from strategy to execution Define, monitor, and analyze KPIs (e.g., ROAS, CPI) to enable data-driven decisions Manage budgets, forecast performance, and scale campaigns to maximize results Run analyses, A/B tests, and experiments to drive continuous optimization Track industry trends and identify growth opportunities with strategic initiatives Collaborate with Design, Media, Analytics, and Tech teams on creatives and automation Mentor junior team members and share best practices Requirements Degree in business administration or related field (e.g., media management, e-commerce) 1.5+ years of experience in app marketing, ideally in a fast-paced environment Strong analytical skills with ability to interpret data and derive actionable insights Knowledge in app marketing, including campaign setup & targeting; Paid Social (e.g., Meta Advantage+ catalogue ads) is a plus Hands-on experience with Adjust, Meta Business Manager, Google Ads, Apple Search Ads, App Stores, Smartly or similar tools Excellent English skills, both written and spoken Benefits Hybrid working Täglich frisches Obst Sportkurse Exklusive Mitarbeiter Rabatte Kostenlose Getränke Sprachkurse Company Events Relocation Unterstützung Mobilitätszuschlag Zentrale Lage Flexible Arbeitszeiten Betriebliche Altersvorsorge Weiterbildungs- angebote Hunde erlaubt AY Academy Feedbackkultur Firmenfahrrad YOU ARE THE CORE OF ABOUT YOU We take responsibility for creating an inclusive and exceptional environment where all genders, nationalities and ethnicities feel welcomed and accepted exactly as they are.
Designing and maintaining ArcGIS Enterprise environments (portal, hosting/federated servers, datastores) Publishing, configuring, and optimizing services throughout their lifecycle Implementing reliable multi-environment content deployment for databases, services, and applications Automating workflows with arcpy and ArcGIS API for Python for ETL, validation, and spatial processing Architecting and administering enterprise Geodatabases, including rules, domains, subtypes, relationships, and archiving Troubleshooting and resolving Geodatabase performance or data-integrity issues Planning and executing large-scale historical data migrations, including mapping, transformation, and validation Managing migration risks and documenting outcomes for both technical and non-technical audiences Building and troubleshooting integrations using ArcGIS REST APIs and webhooks, including real-time sync logic Providing structured production support, performing first-level RCA, documenting integrations, and contributing to UAT test books ArcGIS Enterprise mastery: deep experience with portal, hosting/federated servers, datastores, plus hands-on service publishing, configuration, and lifecycle management Advanced automation skills: strong proficiency with arcpy and ArcGIS API for Python for ETL, data processing, and deployment workflows Enterprise Geodatabase expertise: architecture/design (rules, domains, subtypes, relationships, archiving) plus proven ability to diagnose and fix performance and integrity issues Historical data migration leadership: large-scale migration planning, mapping, transformation logic, validation, risk mitigation, and documentation for diverse stakeholders Integration & production support: hands-on work with ArcGIS REST APIs, webhooks, real-time sync/reconciliation mechanisms, first-level RCA, and integration architecture analysis Location: 100% Remote Language: English Ihr Kontakt Referenznummer 866056/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Freiberuflich für ein Projekt
YOUR TASKS Act as product owner for Grid Code compliance and ensure full requirement coverage through test cases Transfer Grid Code requirements into abstract software requirements and test cases within the agile development process Support Sales and Project teams with Grid Code compliance assessments and connection topics Define test plans for Grid Code compliance and quality assurance at wind farm, turbine, and component level Perform, evaluate, and document Grid Code compliance tests and analyze test data Specify functions and features to secure and optimize Grid Code compliance on system level Maintain detailed understanding of Nordex product capabilities to evaluate compliance and identify improvements Optimize internal processes related to Grid Code compliance YOUR PROFILE M.Sc. or B.Sc. in Electrical Engineering, Power Systems, or equivalent Experience working with Grid Code requirements and related standards Experience defining test cases, ideally including test‑driven development Knowledge of Grid Code compliance at power plant level and software aspects; OEM experience is an advantage Programming experience in Python or similar for data analysis and automation Structured, solution‑oriented, and self‑responsible working style with strong customer orientation Intercultural competence and ability to collaborate across functions and geographies Fluent English; German or Spanish is an advantage Strong communication skills and proactive, assertive team player mindset YOUR BENEFITS Nordex offers a range of attractive benefits – here’s a selection of what you can look forward to.
Conception: Identifies necessary production processes and capacities.New products and processes: Supports the development department in the construction of new production and construction processes according to lean aspects during the development to ensure an optimized serial production. Production tests: Plans, coordinates and controls production experiments and the implementation of new production lines and processes in cooperation with production.
CI/CD-Integration: Integrieren Sie automatisierte Tests in unsere CI/CD Pipeline, um kontinuierliche Tests und schnelles Feedback sicherzustellen. Integration der automatisierten Tests in die Plattform-übergreifende Automatisierungstest-Suite und deren einheitliche Test- und Reportingstruktur.