Bosch-Gruppe Österreich
Jasmin Grabenschweiger, Data Scientist bei Bosch
Description
Data Scientist bei Bosch Jasmin Grabenschweiger spricht im Interview über ihren Werdegang und gibt Tipps für Neueinsteiger und Einblicke in den Data Science Alltag mit Beispielen.
Beim Videoaufruf stimmst Du der Datenübermittlung an YouTube und der Datenschutzerklärung zu.
Video Zusammenfassung
In "Jasmin Grabenschweiger, Data Scientist bei Bosch" schildert Speaker Jasmin Grabenschweiger ihren Weg von einer wirtschaftlich geprägten Schule über ein Mathematikstudium und einen quantitativen Master in Produktion/Logistik bis zur Promotion und in ihre Rolle als Data Scientist bei Bosch. Sie arbeitet mit großen Entwicklungs- und Produktionsdaten im Mobility-Bereich, nutzt Spark, entwickelt ML-Modelle zur Klassifikation von Schraubkurven und deployt sie via MLflow in automatisierten Pipelines – eng verzahnt mit Domänenexperten im Scrum-Team. Ihr Rat: Freude an Daten und mathematischen Problemstellungen, Offenheit für neue Technologien und praxisnahes Lernen sind zentral; echte Daten sind selten lehrbuchhaft und ein formales Studium ist hilfreich, aber nicht zwingend.
Von kombinatorischer Optimierung zu Industrie‑Data‑Science: Jasmin Grabenschweiger (Bosch‑Gruppe Österreich) über Spark, Schraubkurven und agiles Lernen
Einblicke aus der Session mit „Jasmin Grabenschweiger, Data Scientist bei Bosch“ (Bosch‑Gruppe Österreich)
In unserer DevJobs.at‑Redaktion haben wir Jasmin Grabenschweiger zugehört – „Data Scientist bei Bosch“ in der Bosch‑Gruppe Österreich – und ihre Laufbahn vom mathematischen Studium bis zur datengetriebenen Produkt‑ und Produktionsentwicklung nachgezeichnet. Was sofort auffällt: Ihr Weg ist konsequent quantitativ, ihre Arbeit zugleich sehr praxisnah. Sie bewegt sich zwischen Mathematik, Programmierung, industrieller Realität und Zusammenarbeit mit Prozessexperten – und das in einem agilen Setup.
Im Zentrum stehen echte Produktionsdaten, oft in sehr großen Mengen. Jasmin arbeitet mit Big‑Data‑fähigen Frameworks wie Spark, analysiert Sensorsignale, baut Klassifizierungsmodelle und betreibt diese über MLflow in automatisierten Prediction‑Pipelines. Ein konkretes Beispiel: das Klassifizieren von Schraubkurven aus der Fertigung, damit Prozessexperten schneller die richtigen Maßnahmen ableiten können. Ihr Blick auf den Berufsalltag zeigt, wie Theorie und Praxis zusammenspielen – und wo Praxisdaten ganz bewusst nicht „nach Lehrbuch“ funktionieren.
Von der wirtschaftlichen Ausbildung zum Mathematikstudium
Jasmin beginnt ihre Geschichte mit ihrer schulischen Laufbahn: eine höhere Ausbildung „für wirtschaftliche Berufe“. Inhaltlich war das weniger naturwissenschaftlich oder technisch. Es habe Spaß gemacht, sagt sie, aber es war ihr „doch zu wenig Mathematik“. Dieser Impuls – mehr Mathematik, mehr formales Denken, mehr quantitative Problemstellungen – wird zum Wegweiser.
Sie entscheidet sich für ein Studium und absolviert den Bachelor in Mathematik an der Universität Wien. Damit legt sie das Fundament, auf dem alles Folgende aufbaut: analytisches Denken, Modellierung, Beweisführung und das sichere Arbeiten mit abstrakten Konzepten. Es ist bemerkenswert, wie deutlich hier bereits eine Präferenz sichtbar wird: mathematische Problemstellungen, die nicht nur elegant sind, sondern sich auch in konkrete Lösungen überführen lassen.
Quantitative Vertiefung: Produktion, Logistik und kombinatorische Optimierung
Im Master geht Jasmin in Richtung Betriebswirtschaftslehre, fokussiert aber auf Produktion und Logistik – „alles sehr quantitativ“. Der inhaltliche Schwerpunkt: mathematische Modelle, insbesondere kombinatorische Optimierungsprobleme. Genau hier entstehen die Brücken zwischen Theorie, Algorithmen und Software.
Ein weiterer wichtiger Baustein: Informatik. Sie programmiert Lösungsalgorithmen in Python oder C++. Dieser Punkt ist entscheidend, weil er erklärt, warum der spätere Schritt in die Data‑Science‑Praxis für sie so organisch wirkt. Wer Optimierungsalgorithmen implementiert, lernt, Datenstrukturen effizient zu nutzen, Rechenzeit im Blick zu behalten und von der Modellidee zur robusten Implementierung zu kommen.
Von der Masterarbeit zur Promotion: Zustelllogistik als Experimentierfeld
Ihre Masterarbeit verortet Jasmin in der Zustelllogistik. Das Feld ist reich an kombinatorischer Struktur – Routen, Zeitfenster, Kapazitäten, Störungen. Sie erwähnt, dass „das Ganze in einer Doktorarbeit fortgesetzt“ wird, also eine vertiefte Auseinandersetzung mit denselben oder verwandten Fragestellungen.
Für uns ist wichtig: Dieser akademische Abschnitt ist keine Abkehr von Praxis, sondern die Vertiefung einer Haltung. Eine Haltung, die Probleme als Modelle denkt, Algorithmen darauf ansetzt und Ergebnisse anhand realer Anforderungen bewertet.
Heute: Data Scientist bei Bosch in Engineering und Manufacturing (Mobility)
„Mittlerweile bin ich bei Bosch als Data Scientist“, sagt Jasmin. Ihre Datenquellen kommen aus der Produktentwicklung und der Produktion – also Engineering und Manufacturing – im Mobility‑Bereich. Genau hier treffen Theorie und Industriealltag aufeinander. Die Datenströme sind groß, die Prozesse komplex, die Qualitätsansprüche hoch.
Die natürliche Konsequenz: „Big‑Data‑fähige Frameworks“ sind Pflicht. In ihrem Umfeld ist das „meistens Spark“, das sie fürs „Processen und Streamen der Daten“ einsetzt. Aus Sicht der Redaktion ist das ein guter Realitätscheck: Industrie‑Data‑Science bedeutet oft verteilte Datenverarbeitung, robuste Pipelines und eine möglichst reibungslose Integration ins bestehende Ökosystem der Fertigung und Entwicklung.
Aufgabenvielfalt: Von Vorverarbeitung und Signalanalyse bis Machine Learning
Jasmin beschreibt ihren Aufgabenkanon breit: Algorithmen fürs Pre‑Processing von Daten, Analysen von Sensorsignalen und – in neueren Use Cases – Machine‑Learning‑Ansätze, „was man auch mit AI betiteln könnte“. Die Bandbreite ist bezeichnend: Data Science in der Industrie beginnt selten mit dem Modell. Sie beginnt bei den Daten – beim Messsystem, bei der Entstehung der Signale, bei der Frage, was eine Kurve über den Prozess aussagt.
Dieser Fokus macht auch deutlich, warum Domänenwissen über Verfahren, Maschinen und Produktionsschritte unverzichtbar ist. Modelle können nur so gut sein wie das Verständnis der Daten, die sie füttern.
Ein konkreter Fall: Schraubkurven aus der Fertigung klassifizieren
Besonders plastisch wird es beim Thema „Schraubkurven“ – Drehmoment‑/Weg‑Verläufe aus dem Montageprozess. „Da kann im Schraubprozess was schiefgehen“, erklärt Jasmin. Die Kurve weist dann bestimmte Charakteristika auf. Prozessexperten wollen diese Fälle kategorisiert oder klassifiziert haben. Dafür entwickelt ihr Team ein Klassifizierungsmodell.
Die Logik dahinter ist typisch industriell: Wenn die Kurven automatisch in sinnvolle Klassen fallen, können Experten schneller beurteilen, wo Maßnahmen nötig sind – zum Beispiel, ob ein Bauteil getauscht werden muss oder ob im Prozess etwas nachjustiert werden sollte. Automatisierte Klassifikation schafft Geschwindigkeit und Konsistenz, zwei Eigenschaften, die in der Fertigung direkt in Qualität und Effizienz einzahlen.
Datenarbeit zuerst: Qualität, Struktur, Zusammenhänge
Bevor ein Modell trainiert wird, steht die Analyse an: „Am Anfang mal viel Arbeit, wo man die Datenqualität sich anschaut oder Strukturen und zusammenhängende Daten herausfindet.“ Das klingt unspektakulär, ist aber zentral. Ohne ein Verständnis von Datenqualität und ‑strukturen bleibt jede Modellauswahl blind.
Erst wenn klar ist, welche Signale wie zusammenhängen und wie zuverlässig sie sind, lohnt sich der nächste Schritt. Dann „trainiert man ein Modell“ – mit dem Hinweis, dass es dafür „gute Trainingsdaten“ braucht. Genau dort liegt oft die Herausforderung: Trainingsdaten sind nicht selbstverständlich gut. Sie müssen kuratiert, plausibilisiert, oft auch neu gewonnen werden.
Von Training zu Betrieb: MLflow und die automatisierte Prediction‑Pipeline
Das trainierte Modell „wird dann über MLflow deployed“. Im nächsten Schritt „läuft [es] in einer automatisierten Prediction Pipeline“, sodass neue Schraubkurven automatisch klassifiziert werden. Für die Praktiker auf dem Shopfloor gibt es ein Dashboard, auf dem die Ergebnisse sichtbar werden. Prozessexperten „können entsprechende Maßnahmen ableiten oder Schlussfolgerungen ziehen über den Prozess“ – bis hin zu ganz konkreten Schritten wie dem Austausch von Komponenten.
Dieser End‑to‑End‑Blick zeigt, wie ernst hier Produktionsreife genommen wird: von der Datenaufnahme über das Modelltraining und das Deployment bis zur Integration in Workflows, die Verantwortungsträger tatsächlich nutzen.
Ohne Domänenexpertise geht es nicht: Requirements und Prozessverständnis
Jasmin betont die Zusammenarbeit mit den Prozessexperten mehrfach: „Die sind für uns sehr wichtig und wir arbeiten mit denen auch sehr eng zusammen.“ Gleich zu Beginn eines Use Cases steht das „Requirements Engineering“, damit das Team „überhaupt das Problem versteht“. Ebenso entscheidend: „die Prozesse hinter den Daten“.
Dieser Austausch endet nicht nach der Anforderungsklärung. Er begleitet den gesamten Lebenszyklus – denn Modelle sind nur so nützlich, wie sie in die gelebte Praxis passen. Für uns ist das eine der zentralen Lehren aus der Session: Data Science im industriellen Kontext ist Teamsport mit starken Beiträgen aus der Domäne.
Agiles Arbeiten im Scrum‑Team: kurze Iterationen, schnelle Reaktion
Jasmin arbeitet im Scrum‑Team und entwickelt agil, „in kurzen Iterationen oder sogenannten Sprintzyklen“. Wer aus einer anderen Ecke kommt, findet das „am Anfang ein bisschen ungewohnt“, aber für sie stellte sich schnell der „natürliche Flow“ ein. Besonders die Vorteile überzeugen: „schnell reagieren“, wenn sich Anforderungen ändern – und das passiert in der Zusammenarbeit mit Prozessexperten eben häufig.
Agile Entwicklung ist hier kein Buzzword, sondern Antwort auf reale Dynamik: Prozesse ändern sich, Erkenntnisse aus Datenanalysen verschieben Prioritäten, neue Sensoren oder Änderungen in der Produktion schaffen neue Datenlagen. Sprints geben Struktur und Feedbacktempo.
Überraschung für viele: Praxisdaten funktionieren nicht nach Lehrbuch
Ein Satz bleibt hängen: „Was oft so ein bisschen die Überraschung ist […] ist, dass die Daten oft nicht nach Lehrbuch funktionieren.“ In den Lehrbüchern sind Datensätze sauber, Problemstellungen klar abgesteckt, Labels gut gepflegt. In der Praxis sind Messungen unvollständig, Signale verrauscht, Historien ungleichmäßig und Kontextwissen ist verteilt.
Jasmin dreht diese Diskrepanz nicht ins Negative – im Gegenteil: „Aber das macht es am Ende super spannend.“ Für Data Scientists ist genau das der Reiz: Die Wirklichkeit ist reich, lebendig und fordert uns heraus, robuste Lösungen zu finden.
Offen bleiben, Neues lernen, Theorie auffrischen
Technologien ändern sich „doch oft“. Deshalb ist es zentral, „immer offen [zu] sein für Neues“. Jasmin bewegt sich in „unterschiedlichen Domänen“ – heute Schraubkurven, morgen etwas völlig anderes. Offenheit ist hier kein Soft Skill, sondern eine harte Anforderung an die Lernkurve.
Gleichzeitig empfiehlt sie, „manchmal einen Schritt zurück[zu]gehen“ und „sich in theoretischen Grundlagen wieder [zu] vertiefen“. Online‑Kurse auf E‑Learning‑Plattformen sind dafür ein pragmatischer Weg. Dieser Rhythmus – on the job lernen, Theorie gezielt auffrischen – hält das eigene Werkzeugset scharf.
Einstieg und Skills: Studium nicht zwingend, Neugier Pflicht
Ein bemerkenswert klarer Punkt ihrer Botschaft: „Studium ist nicht zwingend notwendig.“ Eine „entsprechende schulische Ausbildung“ kann ausreichen. Wichtiger ist das „Interesse an technisch‑analytischen Fragestellungen“, die Freude am Arbeiten mit Daten und die Neugier, „was man mit den Daten machen kann“, „was man alles damit rausfinden kann“, und „automatisieren kann“. Diese Motivation trägt durch die unvermeidlichen Hürden realer Projekte.
Für uns als Redaktion ist das eine ermutigende Perspektive für Talente mit vielfältigen Bildungswegen: Entscheidend ist nicht, ob auf dem Papier „Master“ oder „Doktorat“ steht – entscheidend ist die Fähigkeit, Probleme datenbasiert zu denken, zu bauen und im Betrieb zu halten.
Was wir aus „Jasmin Grabenschweiger, Data Scientist bei Bosch“ mitnehmen
Aus der Session mit der Bosch‑Gruppe Österreich lassen sich konkrete Leitlinien ableiten:
- Daten zuerst: Datenqualität, Strukturen und Zusammenhänge verstehen, bevor Modelle entstehen.
- Iterativ denken: Anforderungen ändern sich; Sprints halten die Lernschleifen kurz.
- Domänenwissen einbinden: Prozessexperten sind Co‑Autoren guter Lösungen.
- Produktionsreife ernst nehmen: Deployment (z. B. über MLflow) und automatisierte Pipelines gehören zum Standard.
- Praxisdaten akzeptieren: Nicht alles ist sauber; Robustheit ist wichtiger als Perfektion.
- Kontinuierlich lernen: Offenheit für neue Technologien und gezielte Theorie‑Auffrischung gehören zusammen.
- Freude am Analytischen: Neugier treibt – oft stärker als formale Abschlüsse.
Warum der Schraubkurven‑Use‑Case so lehrreich ist
Der beschriebene Klassifikations‑Use‑Case bündelt viele Elemente, die Industrie‑Data‑Science ausmachen:
- Ein klarer, wiederkehrender Prozessschritt (Schrauben) erzeugt reichhaltige Zeitreihen (Kurven).
- Fehlerfälle haben charakteristische Muster, die sich algorithmisch erkennen lassen.
- Die Menge der Daten rechtfertigt Big‑Data‑Werkzeuge wie Spark, inklusive Streaming.
- Labels und Trainingsdaten sind die Engstelle – ihre Qualität bestimmt den Erfolg.
- Deployment zählt: Nur mit automatisierter Prediction‑Pipeline und Dashboard entsteht Wirkung.
- Domänenfeedback schließt den Kreis: Maßnahmen werden abgeleitet, Prozesse verbessert.
Gerade letzteres zeigt, warum Data Science in der Fertigung so attraktiv ist: Die Schleife von Daten zu Entscheidungen ist kurz und greifbar. Jede Verbesserung spiegelt sich in messbarer Qualität und Effizienz.
Kultur: Zusammenarbeit als Default
Jasmin spricht selbstverständlich vom Team: Scrum, enge Abstimmung, unterschiedliche Kompetenzen. In solchen Setups wird klar, dass Exzellenz selten allein entsteht. Die Schnittstelle zwischen Daten und Domäne ist eine geteilte Verantwortung – und die besten Lösungen entstehen dort, wo Fachlichkeit, Datenverständnis und Software‑Engineering zusammenspielen.
Für Data Scientists ist das eine Einladung, Kommunikations‑ und Übersetzungsarbeit als Teil des Berufs zu sehen: Anforderungen herausarbeiten, Annahmen explizit machen, Ergebnisse verständlich aufbereiten – und immer wieder Rückkopplung suchen.
Praxisimpulse für angehende Data Scientists
Aus dem Gesagten lässt sich praxisnahes Handwerkszeug destillieren:
- Beginne bei der Quelle: Kenne Sensorik, Entstehungsprozess und Kontext der Daten.
- Analysiere die Datenlage: Qualität, Lücken, Ausreißer, Abhängigkeiten – erst verstehen, dann modellieren.
- Denke an den Betrieb: Plane Deployment (z. B. via MLflow) und Monitoring von Beginn an mit.
- Arbeite mit den Domänenprofis: Anforderungen, Labeling, Validierung – nichts davon passiert im luftleeren Raum.
- Nutze die Iteration: Beweise schnell Wert, justiere nach, vertiefe dort, wo es wirkt.
- Pflege dein Fundament: Theorie‑Refreshs gezielt einstreuen, um die Qualität deiner Entscheidungen zu heben.
Diese Punkte sind keine Checkliste für Perfektion, sondern für Robustheit. Genau das braucht es, wenn die Daten „nicht nach Lehrbuch“ kommen.
Fazit: Ein Weg, der Lust auf Realität macht
„Jasmin Grabenschweiger, Data Scientist bei Bosch“ zeigt einen geradlinigen, zugleich offenen Weg in die Industrie‑Data‑Science. Von der Mathematik über die kombinatorische Optimierung und eigene Algorithmik hin zur produktionsnahen Anwendung mit Spark, MLflow und agilen Teams. Die Botschaft ist klar: Freude an Mathematik und an Daten, Respekt für Domänenwissen, Lust auf Lernen – das ist das Kraftfeld, in dem gute Lösungen entstehen.
Und genau dort liegt die Faszination: zwischen Theorie und Werkbank, zwischen Kurven und Konsequenzen, zwischen Modell und Maßnahme. Wer diese Spannung sucht, findet in der industriellen Data‑Science eine Bühne – und in Jasmins Weg eine inspirierende Referenz.
Mehr zur Bosch‑Gruppe: www.bosch.de
Weitere Tech Talks
Weitere Tech Lead Stories
Bosch-Gruppe Österreich Michael Eisenbart, Senior Manager bei Bosch
Der Senior Manager bei Bosch Michael Eisenbart fasst im Interview die wesentlichen Eckpunkte der Teamorgansiation, des Recruitings und der Dev-Technologien zusammen – und warum Gitlab Profile wichtig sind.
Jetzt ansehenBosch-Gruppe Österreich Jürgen Webersinke, Gruppenleiter Softwareapplikation bei Bosch
Gruppenleiter Softwareapplikation bei Bosch Jürgen Webersinke spricht im Interview über den Aufbau des Teams, wie das Recruiting und Onboarding abläuft und wie mit den technologischen Challenges umgegangen wird.
Jetzt ansehenBosch-Gruppe Österreich Florian Berg, Digital Leader bei Bosch
Digital Leader bei Bosch Florian Berg gibt im Interview einen Überblick über die Teamorganisation, den Ablauf des Recruitings und die eingesetzten Technologien.
Jetzt ansehen
Weitere Dev Stories
Bosch-Gruppe Österreich Liam Rafael, Data Engineer bei Bosch
Liam Rafael von Bosch spricht im Interview von seinen ersten Berührungspunkten mit dem Programmieren bis hin zur aktuellen Arbeit als Data Engineer und gibt Tipps für Neueinsteiger.
Jetzt ansehenBosch-Gruppe Österreich Dominik Steininger, DevOps Engineer bei Bosch
DevOps Engineer bei Bosch Dominik Steininger spricht in seinem Interview über seinen Werdegang – angefangen von den ersten Gehversuchen, bis hin zur aktuellen Arbeit – und gibt Ratschläge für Einsteiger.
Jetzt ansehenBosch-Gruppe Österreich Melika Parpinchi, Data Scientist bei Bosch
Melika Parpinchi von Bosch erzählt im Interview über ihren ursprünglichen Zugang zum Programmieren, das Besondere an ihrer aktuellen Arbeit bei Bosch und was ihrer Meinung nach wichtig für Anfänger ist.
Jetzt ansehen