MIC
Clemens Kriechbaumer, Team Manager Data Science bei MIC
Description
Clemens Kriechbaumer von MIC spricht im Interview über den Aufbau des Data Science Teams und dessen Themenschwerpunkte, die dort eingesetzten Technologien und wie dort das Recruiting gestaltet ist.
Beim Videoaufruf stimmst Du der Datenübermittlung an YouTube und der Datenschutzerklärung zu.
Video Zusammenfassung
In "Clemens Kriechbaumer, Team Manager Data Science bei MIC" beschreibt Clemens Kriechbaumer ein achtköpfiges, internationales Data-Science-Team mit zwei Schwerpunkten—Analytics (Data Engineering, Visualisierung) und ML/AI—das end-to-end auf einem modernen Stack arbeitet (Python/PyTorch & Lightning, Kubernetes mit Flyte, TorchSurf für Inference, ClickHouse, Apache Superset; dbt geplant; REST-APIs via Spring Cloud Gateway). Er betont eine kollaborative, englischsprachige Kultur und die strategische Bündelung von Analytics und ML in einer Einheit, um von Training bis Betrieb Verantwortung zu tragen und schnell Prototypen z. B. über LLM-APIs umzusetzen. Im Hiring setzt MIC auf ein entspanntes, praxisnahes Verfahren: auf ein kurzes Erstgespräch folgt ein organisierter „Look and Feel“-Halbtag im Büro (Anreise wird organisiert), bei dem Bewerber:innen eigene Projekte—gern GitHub—präsentieren; bewertet werden Engagement, Präsentationsfähigkeit und technische Tiefe statt Trivia-Fragen.
Data Science bei MIC: Wie Team Manager Clemens Kriechbaumer ein internationales 8‑Personen‑Team zwischen Analytics und AI aufbaut
Ein klarer Fokus: Ein Team, zwei Disziplinen – und eine gemeinsame Mission
In der Session „Clemens Kriechbaumer, Team Manager Data Science bei MIC“ hat uns besonders beeindruckt, wie konsequent MIC Data Science als End‑to‑End‑Disziplin versteht. Das Team existiert in seiner heutigen Form seit rund eineinhalb Jahren und zählt acht Kolleginnen und Kollegen. MIC beschäftigt sich bereits seit mehr als zweieinhalb Jahren mit Analytics und Machine Learning – die Teamgründung war der logische Schritt, das Thema zu bündeln und strategisch zu entwickeln.
Das Team ist bewusst in zwei Bereiche gegliedert:
- Analytics (Data Engineering & Visualisierung): Daten von Plattform A nach B bewegen, modellieren, transformieren, visualisieren
- Machine Learning / Artificial Intelligence: Modelle trainieren, Ergebnisse aufbereiten und präsentieren, Betrieb der inferencingfähigen Systeme
Warum beides in einem Team? Kriechbaumer bringt es auf den Punkt: Auch wenn Modelltraining und Visualisierung unterschiedliche Tätigkeiten sind, müssen sie strategisch zusammengedacht werden. Erst in dieser organisatorischen Nähe entsteht ein kontinuierlicher Pfad von Rohdaten über Transformation und Training bis hin zur Auslieferung von Insights und Modellen. Langfristig sei eine andere organisatorische Form in einer größeren Struktur möglich – aktuell zahlt die Einheitlichkeit auf Geschwindigkeit und Kohärenz ein.
Das Team selbst arbeitet international und spricht Englisch. Diese Offenheit für globale Profile passt zur technologischen Breite und spiegelt den Anspruch wider, mit modernen Open‑Source‑Werkzeugen zu arbeiten und kontinuierlich zu lernen.
Engineering-Kultur: Generalisten, die End‑to‑End denken – und dann gezielt vertiefen
Eine wiederkehrende Botschaft aus der Session: MIC sucht in Data Science Generalisten mit Überblick. Das Technologiespektrum reicht von Python über Kubernetes bis zu Datenbanken, Java‑basierten REST‑APIs und Workflow‑Engines. Wer das Zusammenspiel versteht, kann sich gezielt spezialisieren – etwa in Python für Machine Learning, in Kubernetes‑basierter Orchestrierung oder in Datenmodellierung.
„Das Skillset in unserem Team … sind gewisse Generalisten, die einfach wissen, wie im IT‑Zusammenhang Dinge laufen. Dann kann man sich spezialisieren – Python, Machine Learning oder mehr Kubernetes – aber man muss ein gewisses allgemeines Generalistenwissen haben.“
MIC setzt bewusst auf state‑of‑the‑art Technologien – sowohl im ML‑Training als auch in der Datenplattform. Gleichzeitig ist der Pragmatismus spürbar: APIs für Large‑Language‑Models dort, wo sie Sinn machen; eigene Modelle dort, wo Daten und Spezialisierung im Haus liegen. Dieser Ansatz eröffnet Teammitgliedern echte Ownership entlang der Wertschöpfungskette: vom Design einer Datenpipeline über Modelltraining bis zum Dashboard, das Kundinnen und Kunden selbst bedienen.
Hiring, das Substanz sichtbar macht: „Look and Feel“ statt Trivia-Quiz
Auch im Recruiting spiegelt sich die Kultur wider. Der Prozess startet klassisch mit einer Profildefinition durch HR und Hiring‑Manager, gefolgt vom Pre‑Screening und einem ersten Gespräch (ca. 45 Minuten, online oder vor Ort). Der Unterschied zeigt sich im zweiten Schritt: dem „Look and Feel“ bei MIC.
- Einladung ins Büro (Anreise wird organisiert)
- 2–3 Stunden gemeinsames Kennenlernen – Team stellt sich vor, Projekte und Technologien werden gezeigt
- Kandidat:innen sind eingeladen, eigene Projekte vorzustellen (z. B. GitHub‑Repos)
Kriechbaumer vermeidet klassische Programmier‑Trivia. Stattdessen zählt, was jemand gebaut, erklärt und verteidigt hat. Hier werden Engagement, technische Tiefe und Kommunikationsfähigkeit sichtbar – und wie jemand mit Detailfragen umgeht. Erst wenn beide Seiten überzeugt sind, folgen Rahmenbedingungen, Gehalts‑ und Vertragsgespräch.
„Ich bin ein Fan, wenn jemand ein Projekt auf GitHub hat und das erklärt. Da erkennt man Engagement und ‚Feuer‘ – und man bekommt ein viel besseres Gefühl fürs Skillset als mit klassischen Interviewfragen.“
Das Ergebnis ist ein Recruiting, das reale Kompetenzen bewertet – genau das, was im Alltag zählt.
Machine Learning bei MIC: Python, PyTorch, Kubernetes – und Orchestrierung, die hält, was sie verspricht
Im ML‑Stack setzt MIC auf bewährte Open‑Source‑Pfade und pragmatische Betriebsfähigkeit:
- Sprache: Python – das produktive Rückgrat der AI‑Arbeit
- Training: PyTorch, ergänzt um PyTorch Lightning für sauberes GPU‑Handling
- Infrastruktur: Kubernetes als Abstraktionsschicht für Hardware‑Ressourcen
- Orchestrierung: eine Kubernetes‑spezifizierte Workflow‑Engine (Flight) für die Steuerung langlaufender Trainingsjobs
- Artefaktmanagement: Versionierte Ablage fertiger Modelle, z. B. auf einem S3‑kompatiblen Storage
- Inference: Betrieb des Modells im Kubernetes‑Cluster mit on‑demand GPU‑Ressourcen; aktuell mit TorchSurf aus dem PyTorch‑Ökosystem
Besonders wichtig ist die Fähigkeit, Ressourcen on demand zu aktivieren. Nicht jedes Modell passt auf eine einzelne GPU; manche benötigen mehrere GPUs, große Modelle potenziell mehrere Nodes. Training kann Stunden bis Tage dauern – entsprechend braucht es eine robuste Orchestrierung:
„Jetzt starten wir unsere GPUs, dann den Trainingsprozess, überwachen ihn, machen Post‑Processing und legen das fertige Modell ab. Versioniert, wiederverwendbar.“
Der Betrieb (Inference) wird genauso ernst genommen wie das Training. Modelle müssen verlässlich und skalierbar im Cluster antworten – erst dann schaffen sie Wert im Daily Business.
LLMs mit Augenmaß: APIs für Breite, Feintuning für Tiefe
MIC experimentiert aktiv mit Large‑Language‑Models. Der dabei skizzierte Kurs ist für viele mittelständische Umgebungen relevant:
- Für breite, allgemeine Anwendungsfälle: Nutzung externer APIs (z. B. OpenAI), schnelle Prototypen
- Für spezialisierte Domänen: Trainieren spezieller Modelle, wo eigene Daten vorliegen; Feintuning als realistische Option
Das Entscheidende ist die Balance zwischen Ambition und Realismus: Die wenigsten Unternehmen werden im großen Stil allgemeine LLMs selbst trainieren – aber die Kombination aus API‑basierter Breite und eigenem Feintuning für Kernprozesse verschafft Tempo und Relevanz.
Analytics bei MIC: Von der normalisierten Transaktion zur denormalisierten Analyse
Im Analytics‑Zweig zeigt sich viel Handwerk – und sehr klare Prioritäten:
- Ausgangspunkt: Hochnormalisierte, relationale Datenbanken der operativen Systeme. Dort zählt saubere Transaktionsverarbeitung (ACID), Compliance und In‑Time‑Verfügbarkeit. In MICs Domäne bedeutet das u. a., dass die Software zuerst die Business‑Prozesse korrekt abwickelt (z. B. Zollanmeldungen), nicht, dass sie sofort Monatszahlen für Abgaben ausspielt.
- Zielplattform: ClickHouse als Open‑Source‑Analysedatenbank. Sie ist schnell, einfach zu betreiben und mit geringem Aufwand produktionsfähig – ein wichtiger Faktor für ein kleines, schlagkräftiges Team.
- Bewegung & Orchestrierung: Periodisches Abziehen der Daten in eine Analyseumgebung; auch hier ist der Weg in Richtung Kubernetes vorgezeichnet, inklusive Workflow‑Engine für die wiederkehrenden Jobs.
- Transformation: Denormalisierung für schnelle Abfragen auf flachen Strukturen; geplant ist der Einsatz von DBT als Transformations‑Tool.
- Visualisierung: Apache Superset als Self‑Service‑BI für Dashboards und Charts – ohne Entwicklungsaufwand und mit vielfältigen Visualisierungen.
Der Ansatz zielt klar auf Empowerment. Kunden können Dashboards selbst zusammenstellen, Aggregationen bilden und Daten explorieren. Das Team will ganz bewusst von Excel‑Silos wegführen und stattdessen nachvollziehbare, wiederverwendbare Visualisierungen in einem modernen Tool fördern.
„Wir wollen die Business User ermächtigen, dass sie das selber machen … man klickt sich Dashboards zusammen, gruppiert, aggregiert – ohne Entwicklungsaufwand.“
Dazu passt, dass MIC Transparenz in den Vordergrund stellt: Neben Visualisierungen bietet das Team REST‑APIs an, über die Unternehmen – etwa aus der Automobilindustrie – ihre Daten programmatisch beziehen. Technisch kommt hier weiterhin Java zum Einsatz, inklusive eines Spring Cloud Gateways.
Warum diese Kombination für Talente attraktiv ist
Was macht dieses Set‑up für Data‑ und ML‑Ingenieur:innen interessant? Aus Sicht unseres Redaktionsteams bei DevJobs.at ergeben sich mehrere konkrete Gründe:
- End‑to‑End‑Ownership: Vom relationalen Ursprung über ETL, Transformation und Training bis zur Auslieferung (Dashboard oder API) – hier sieht man die gesamte Wertschöpfung.
- Moderne, praxiserprobte Tools: Python, PyTorch, Kubernetes, ClickHouse, DBT (geplant), Apache Superset, Java‑basierte Gateways – die Werkzeuge sind relevant, offen und in der Industrie angekommen.
- Orchestrierung, die skaliert: Flight für langlaufende ML‑Prozesse im Cluster – mit Kontrolle über Ressourcen, Monitoring und Post‑Processing.
- Reale Betriebsanforderungen: Inference im Cluster mit on‑demand GPUs – nicht nur Prototypen, sondern produktionsnahes Serving.
- LLM‑Pragmatismus: APIs, wo sie Mehrwert schaffen; eigenes Feintuning für die Spezialisierung – sichtbare Prototypen und klare Lernkurven.
- Self‑Service‑Analytics: Apache Superset für kundenseitige Dashboards – wer BI‑Enablement mag, findet hier unmittelbare Wirkung.
- Transparente Datenzugänge: REST‑APIs als First‑Class‑Citizen – Daten sind keine Silos, sondern integriert konsumierbar.
- Internationale, englischsprachige Teamarbeit: Offenheit für globale Profile und eine Zusammenarbeit, die auf Klarheit und Austausch setzt.
- Recruiting, das die Praxis zählt: „Look and Feel“ mit Projekt‑Walkthroughs statt Trivia – wer Substanz zeigen will, bekommt die Bühne.
Kurz: Wer sich als Generalist mit Leidenschaft für robuste, produktionsnahe Data‑ und ML‑Systeme sieht – und der dann fokussiert Tiefe aufbaut –, findet bei MIC viele Ansatzpunkte, Wirkung zu entfalten.
Lernkultur: Kontinuierlich besser werden – und dicht am Fortschritt bleiben
Kriechbaumer erwähnte, dass er nach dem Studium der Wirtschaftsinformatik später noch einen AI‑Master (2019) absolvierte – mit klarem Ziel: neue Technologien verstehen, Entwicklungen frühzeitig mitnehmen. Dieses Lernverständnis prägt auch die Arbeit im Team:
- Up‑to‑date in Machine Learning: neue Frameworks, Trainingsmethoden, Metriken – kontinuierlich bewerten und einsetzen
- Technology Fitness: Kubernetes, Workflow‑Engines, Datenbanken – so viel Standardisierung wie nötig, so viel Offenheit wie möglich
- Prototyping mit LLM‑APIs: schnell ausprobieren, validieren, weiterdenken
Wachstum passiert dabei entlang realer Produktanforderungen. Training allein genügt nicht – es geht um Betrieb, Versionierung, API‑Zugriff, Visualisierung und Kundennutzen. Wer solche Systeme bauen will, lernt bei MIC genau das, was in modernen Data‑Organisationen zählt.
Zusammenarbeit im Alltag: Schnittstellen beherrschen, Ergebnisse präsentieren
Das Team deckt die wesentlichen Schnittstellen ab:
- Data Engineering: Datenflüsse aus operativen Systemen automatisieren, in ClickHouse bereitstellen, Transformationen skalierbar betreiben
- Machine Learning: Modelle trainieren, monitoren, versionieren, deployen und betreiben
- Visualisierung & Enablement: Metriken und KPIs in Dashboards sichtbar machen; Business‑User in die Lage versetzen, selbst zu bauen
- APIs & Integration: REST‑Schnittstellen bereitstellen und absichern, damit Kundensysteme Daten kontrolliert konsumieren können
Presenting matters: Ergebnisse werden nicht nur entwickelt, sondern auch erklärt. Wer Modelle trainiert, präsentiert sie – und beantwortet Detailfragen. Das beginnt schon im Recruiting und setzt sich im Alltag fort.
Erwartungshaltung an neue Teammitglieder
Basierend auf der Session zeichnen sich für Bewerber:innen folgende Erwartungen ab:
- Breites Grundverständnis der IT‑Landschaft (von Datenbankmodellen bis Kubernetes)
- Bereitschaft, sich zu vertiefen (Python/ML, Kubernetes/Orchestrierung, Datenmodellierung/BI)
- Fähigkeit, Arbeitsergebnisse zu präsentieren und diskutieren (inkl. Detailfragen)
- Pragmatismus im Tooling (Open‑Source, APIs, on‑demand Ressourcen)
- Freude an internationaler Zusammenarbeit (Team‑Sprache Englisch)
Wer seine Fähigkeiten zeigen will, sollte ein oder zwei Projekte mitbringen, die die eigene Rolle, Architekturentscheidungen und Ergebnisse nachvollziehbar machen – idealerweise so, dass man sie im „Look and Feel“ erläutern kann.
Ein Blick auf die Domäne: Business-Prozesse zuerst, Analytics als gezielte Ergänzung
Ein wichtiger Realitätscheck aus der Session: Operative Systeme sind für korrekte Transaktionen gebaut. In MICs Welt heißt das beispielsweise, dass Zollanmeldungen sauber verarbeitet werden. Analytics folgt als zweiter Schritt, bei dem Daten transformiert, denormalisiert und für Reporting und Dashboards aufbereitet werden. Diese Reihenfolge ist kein Bug, sondern ein Feature: Nur auf den Schultern sauberer Prozesse liefern Analytics und ML belastbare Mehrwerte.
Fazit: Ein Team, das End‑to‑End denkt – und Talenten viel Verantwortungsraum gibt
„Clemens Kriechbaumer, Team Manager Data Science bei MIC“ zeigte uns eine Organisation, die Data Science nicht als Insel betreibt, sondern als produktionsnahe Disziplin über den gesamten Stack hinweg. Vom Kubernetes‑orchestrierten ML‑Training über on‑demand Inference und versionierte Modellablage bis zur ClickHouse‑basierten Analytics‑Schiene mit Apache Superset und REST‑APIs: Dieses Team vermeidet Brüche, reduziert Reibung und schafft dadurch Geschwindigkeit.
Für Talente, die Verantwortung suchen, ist das attraktiv. Das Recruiting fördert Substanz statt Rätselraten, das Tech‑Set‑up ist zeitgemäß und offen, die Zusammenarbeit international und die Lernkurve steil. Und weil das Team mit acht Personen bewusst schlank ist, bleibt die individuelle Wirkung sichtbar – jeden Tag.
Weitere Tech Talks
MIC Technical Agile Enabling
Pia Otter-Bäck von MIC gibt in ihrem devjobs.at TechTalk Einblick darüber, wie im Unternehmen das Thema Technical Agile Enabling umgesetzt wird.
Jetzt ansehenMIC 7 Powerful Questions to ask your Development Teams
Philipp Dressler von MIC spricht in seinem devjobs.at TechTalk über sieben Grundgedanken, anhand welchen ein Team von Developern reibungslos zusammenarbeiten kann.
Jetzt ansehenMIC The MIC Tech Radar
Wolfgang Gassner von MIC zeigt in seinem devjobs.at TechTalk die Herangehensweise, wie im Unternehmen die riesige Zahl an verwendeten Technologien überschaubar gehandhabt werden.
Jetzt ansehenMIC Organization for Fast Flow
Gerald Schweizer von MIC beleuchtet in seinem devjobs.at TechTalk die wesentlichen Gedanken, wie und warum die Organisation der Development Teams im Unternehmen verändert worden ist.
Jetzt ansehenMIC How our career paths help you grow as a Software Engineer
David Theil von MIC erläutert in seinem devjobs.at TechTalk die grundlegenden Gedanken, welche hinter den verschiedenen Rollen als Software Engineer im Unternehmen stehen.
Jetzt ansehen