Arbeitsplatz Bild smaXtec animal care GmbH

Johannes Pesenhofer, Data Scientist bei smaXtec

Description

Johannes Pesenhofer von smaXtec spricht im Interview darüber, wie er zu seiner aktuellen Arbeit als Data Scientist gekommen ist und was seiner Ansicht nach wichtig für Beginner ist.

Beim Videoaufruf stimmst Du der Datenübermittlung an YouTube und der Datenschutzerklärung zu.

Video Zusammenfassung

In "Johannes Pesenhofer, Data Scientist bei smaXtec" schildert Speaker Johannes Pesenhofer seinen Weg über frühe MySQL-Erfahrungen, eine HTL in Elektrotechnik mit C/C++ und ein gemischtes Informatik-/Elektrotechnikstudium, das ihn nach dem zweiten Semester per Praktikum zu smaXtec führte. Er beschreibt Aufgaben von statischer Datenanalyse mit SQL/Python bis zu Echtzeit-Stream-Processing, bei dem Bolus-Messdaten über Kafka laufen, wobei die Hauptarbeit im Produktivsetzen, Performance-Optimieren und Skalieren auf mehrere hunderttausend Tiere liegt. Sein Rat: Es gibt keinen Einheitsweg—Leidenschaft fürs Problemlösen und Ausdauer zählen; ein Studium kann als Toolbox helfen, ist aber keine Voraussetzung, und man sollte immer vom Problem statt von der „besten“ Sprache ausgehen.

Vom MySQL-Server zur Echtzeit-Pipeline: Erkenntnisse aus „Johannes Pesenhofer, Data Scientist bei smaXtec“ für alle, die Data Science praktisch denken

Unsere Perspektive auf die Session

Wir haben „Johannes Pesenhofer, Data Scientist bei smaXtec“ von smaXtec animal care GmbH als einen Beitrag erlebt, der selten klar und bodenständig beschreibt, wie Data Science im Alltag funktioniert und wie man dort überhaupt landet. Statt Buzzwords liefert er Erfahrungswerte: von den ersten Gehversuchen mit einer MySQL-Datenbank bis hin zur Echtzeitverarbeitung über Kafka – und von der einen tierbasierten Analyse hin zum Stream-Processing über mehrere hunderttausend Tiere. Seine Geschichte ist eine Einladung, Data Science problemorientiert zu denken: mit Sitzfleisch, pragmatischen Werkzeugen wie Python und SQL und einem Verständnis dafür, dass das eigentliche Schwergewicht selten in der Analyse selbst liegt, sondern in der robusten Umsetzung.

Umwege als Antrieb: Frühe Berührungspunkte mit Daten und Technik

„Ich bin eher ein bisschen über Umwege dahin gekommen, dass ich Data Science mache“, sagt Pesenhofer. Diese Umwege beginnen erstaunlich früh:

  • Hauptschule: Erster Kontakt mit Datenbanken, ECDL-Computerführerschein und – besonders prägend – ein privat aufgesetzter Server in der Freundesgruppe, auf dem er erstmals MySQL ausprobierte.
  • HTL: Elektrotechnik als Schwerpunkt, Mikrocontroller-Programmierung, viel C und C++ und damit ein klarer hardware-naher Fokus.

Der rote Faden: Neugier, Praxisnähe und der Wille, Probleme wirklich zu verstehen. Gerade der Kontrast – vom selbstgehosteten MySQL-Spielplatz zur Mikrocontrollerwelt – macht deutlich, dass seine spätere Data-Science-Rolle nicht aus einem Masterplan entstand, sondern aus realen Problemstellungen, die sich Schritt für Schritt ergaben.

Von der Hardware-Welt zur Mathematik-Frage: Studienstart und smaXtec

Nach der HTL startet Pesenhofer ins Studium – mit dem Wunsch, „eigentlich gerne was mit Mathematik“ zu machen, aber ohne klare Vorstellung, welche Jobs daraus entstehen. Entsprechend methodisch geht er vor: Er schaut sich um, entdeckt smaXtec und stößt auf die Rolle „Data Scientist“. Diese Kombination überzeugt ihn, und er entscheidet sich für ein Mischstudium aus Informatik und Elektrotechnik. Ziel: die Programmierkenntnisse ausweiten und das Fundament verbreitern. Bereits nach dem zweiten Semester beginnt er ein Praktikum bei smaXtec.

Diese Etappe vermittelt zwei klare Punkte:

  • Orientierung entsteht oft über konkrete Rollenbilder: „Data Scientist“ wird zur greifbaren Option, nicht zum abstrakten Etikett.
  • Ausbildung kann modulartig gedacht werden: Elektrotechnik für Systemnähe, Informatik für Softwarekompetenz, Mathematik als Denkwerkzeug.

Datenarbeit in zwei Geschwindigkeiten: statische Analyse vs. Streaming

Pesenhofer beschreibt ein Aufgabenspektrum, das wir im Data-Engineering-Alltag häufig sehen, aber selten so nüchtern zusammengefasst hören. Die Bandbreite reicht von „statischer Analyse“ bis „Streaming in Echtzeit“:

  • Statische Analyse: Daten liegen in einer Datenbank, man schreibt Queries (SQL) und analysiert, um „Dinge herauszufinden“. Die Formulierung ist bewusst unaufgeregt – es geht um die geduldige, systematische Arbeit am Datensatz.
  • Streaming: „Wenn der Bolus Daten misst, dann werden diese Messages quasi über Kafka an unser System geschickt und wir müssen die in Echtzeit dann analysieren.“ Hier verschiebt sich die Logik: Der Datenstrom reißt nicht ab, Latenz und Zuverlässigkeit werden zu primären Systemanforderungen.

Dieser Wechsel zwischen Batch- und Stream-Denken prägt die tägliche Arbeit. Es sind nicht zwei Welten, sondern zwei Geschwindigkeiten derselben Disziplin – mit sehr unterschiedlichen Risiken.

Einmalchance im Stream: Robustheit und Performance als Pflicht

Über Streaming sagt Pesenhofer einen Satz, der hängen bleibt: „Wenn die Daten quasi einmal da waren und dann irgendwas schief läuft, dann sind sie weg.“ Und weiter: „Man hat mehr oder weniger nur eine Chance, man hat auch mehrere Chancen, aber das ist dann mit Aufwärmen verbunden.“

Für uns sind hier drei Kernbotschaften drin:

  1. Fehlerkultur im Stream-Processing: Es gibt keine komfortable „später nochmal“-Option. Robustheit ist kein Nice-to-have.
  2. Performance als Systemanforderung: Echtzeit heißt nicht „schnell genug“, sondern „rechtzeitig, verlässlich und stabil“. Optimierungen sind Pflicht.
  3. Betrieb statt Proof-of-Concept: Stream-Processing zwingt dazu, Produktionsqualität als erste Bürgerin des Systems zu behandeln.

Pesenhofer formuliert es nüchtern, aber eindeutig: Diese Herausforderungen sind „eine ganz eigene Challenge, auch was die Performance angeht“, und genau hier steckt „die meiste Arbeit“.

Vom Tier zur Herde: Die eigentliche Arbeit beginnt bei der Skalierung

Einer der prägnantesten Sätze: „Die eigentliche Analyse ist oft sehr schnell erledigt, aber dann dieses Ganze in die Produktion zu bringen … das ist dann schon eine ganz eigene Herausforderung.“ Der Sprung, den er beschreibt, ist in seiner Klarheit bemerkenswert:

  • Ausgangspunkt: Eine Analyse „auf zum Beispiel einem Tier“ – überschaubar, nachvollziehbar, schnell demonstrierbar.
  • Zielzustand: Ein „Stream-Processing-System“, „das dann auf mehreren hunderttausend Tieren rechnet“ – belastbar, skalierbar, dauerhaft.

Zwischen diesen beiden Zuständen liegen Designentscheidungen, Fehlertoleranzen, Backpressure, Liveness-Fragen und die nüchterne Erkenntnis, dass ausgereifte Systeme selten spektakulär wirken – sie funktionieren einfach. Genau diese Verschiebung vom Prototyp zur Infrastruktur ist es, die Pesenhofer als Hauptarbeit markiert.

Werkzeuge, die tragen: Python und SQL im Doppelpack

Auch zur Toolchain bleibt Pesenhofer präzise: „Wir arbeiten eben meistens mit Python, was das Stream-Processing anbelangt und für die anderen Analysen arbeiten wir sowohl mit Python, aber auch mit SQL.“

Diese Aussage enthält zwei pragmatische Richtungen:

  • Python als verbindendes Element zwischen Analyse und Betrieb – insbesondere im Stream-Processing.
  • SQL als Sprache der Datenbank-nahe(n) Analyse – dort, wo Daten zuerst liegen und in Queries gedacht werden.

Die Botschaft ist nicht: „Nimm genau diese Tools“. Die Botschaft ist: Wähle Werkzeuge, die die Aufgabenklasse sauber abbilden, und bleibe konsequent. Für Pesenhofer ist das Python/SQL – in einem Umfeld, das Batch und Streaming verbindet.

Kein „einziger“ Weg: Leidenschaft, Sitzfleisch und ein realistischer Blick

„Ich glaube, diesen einen Weg, den gibt es nicht wirklich“, sagt Pesenhofer. Entscheidend seien vor allem zwei Haltungen:

  • Leidenschaft für Problemlösen
  • „Sitzfleisch“ – dranzubleiben, auch wenn die erste Lösung selten passt

Gerade dieser zweite Punkt bekommt viel zu wenig Platz in Karrierebeschreibungen. Pesenhofer benennt ihn explizit: Man sollte nicht erwarten, dass die erste Lösung „passen wird, weil das tut sie meistens nicht“. Diese Ehrlichkeit ist ein roter Faden seines Vortrags: Data Science ist kein lineares Rezept, sondern ein iterativer Prozess, in dem Beharrlichkeit zählt.

Ausbildung als Toolbox – hilfreich, nicht zwingend

Zur Rolle von Ausbildung und Studium formuliert Pesenhofer eine ausgewogene Sicht:

  • Herkunft: „Man kann von einer HTL kommen und man kann aber auch ein Studium machen.“
  • Wert des Studiums: „Mit einem Studium, finde ich, baut man sich eine Art Toolbox auf, auf die man zugreifen kann.“ Man wird „nicht alles sofort verstehen“, aber man weiß, „was für Techniken es gibt“ und kann sich „im weiteren Zuge immer einlesen“.
  • Voraussetzung? Nein: „Ich glaube, das ist nichts, wo ein Studium eben die Voraussetzung dafür ist. Ich glaube, das kann jeder machen, wenn er genug Motivation aufbringt und sich dort einsetzt.“

Diese Perspektive verbindet Pragmatismus (kein Pflichtstudium) mit einem klaren Nutzenbild (Orientierung, Techniklandkarte, spätere Vertiefbarkeit).

Problem vor Lösung: Technologiewahl ohne Dogma

Besonders deutlich wird Pesenhofers Haltung, wenn es um Programmiersprachen geht: „Es macht nicht viel Sinn, zum Beispiel die beste Programmiersprache zu suchen, weil die gibt es meiner Meinung nach nicht.“ Jeder Problemraum hat „ganz andere Anforderungen“, daher gilt: „Man sollte eher mit dem Problem beginnen und nicht mit der Lösung.“

Für uns ist das eine Entscheidungshilfe in einem Satz. Statt nach universell „richtigen“ Tools zu suchen, richtet sich die Wahl an der konkreten Fragestellung aus – sei es Batch-Analyse mit SQL, Stream-Processing mit Python und Kafka oder der Übergang vom Prototyp zum Produktionssystem.

Vom ersten Kontakt zur Verantwortung: Wie aus Neugier ein Beruf wird

Der Weg von Pesenhofer lässt sich – ohne etwas hinzuzudichten – knapp zusammenfassen:

  1. Frühe Neugier und Praxis (Server mit Freunden, MySQL, ECDL)
  2. Systemnähe in der HTL (Elektrotechnik, Mikrocontroller, C/C++)
  3. Breiteres Interesse im Studium („etwas mit Mathematik“), dann die konkrete Rolle „Data Scientist“ bei smaXtec entdecken
  4. Mischstudium (Informatik + Elektrotechnik), Praktikum bei smaXtec ab dem zweiten Semester
  5. Aufgabenfokus heute: statische Analysen und – vor allem – Streaming in Echtzeit, mit dem Schwerpunkt, aus Analysen produktive, robuste Systeme zu bauen

Die Konstante: Problemorientierung und Dranbleiben – unabhängig vom Bildungsweg.

Was Entwicklerinnen und Entwickler konkret mitnehmen können

Pesenhofers Aussagen lassen sich in praktische Leitlinien übersetzen – ohne etwas zu spekulieren, sondern indem wir seine Kernaussagen ordnen:

  • Starte bei der Problemdefinition:
  • Welche Daten liegen vor (Datenbank, Stream)?
  • Welche Anforderungen sind kritisch (Latenz, Zuverlässigkeit, Skalierung)?
  • Welche Analyse liefert den betrieblichen Mehrwert?
  • Denke in zwei Geschwindigkeiten:
  • Statische Analysen (SQL, Python) für Erkenntnisgewinn
  • Streaming (Kafka, Python) für Echtzeitentscheidungen
  • Plane Produktionsreife von Beginn an ein:
  • Die eigentliche Analyse kann schnell gehen – die harte Arbeit liegt im Übergang in den Betrieb und in der Skalierung
  • Teste den Weg von „ein Tier“ zu „hunderttausende Tiere“ in Gedanken – welche Annahmen brechen?
  • Wähle Werkzeuge passend zum Problem:
  • Suche nicht „die beste Sprache“ – entscheide entlang der Anforderung
  • Python und SQL sind starke Basen – gerade in Kombination
  • Baue Sitzfleisch auf:
  • Rechne damit, dass die erste Lösung selten passt
  • Iterationen sind der Normalfall, nicht die Ausnahme
  • Nutze Ausbildung als Landkarte:
  • Studium kann eine Toolbox bereitstellen; Motivation und Einsatz sind jedoch die eigentlichen Treiber

Diese Punkte sind direkt aus dem Gesagten ableitbar – ohne zusätzliche Versprechen, dafür mit klaren Prioritäten.

Zitat-Highlights, die hängen bleiben

„Ich bin eher ein bisschen über Umwege dahin gekommen, dass ich Data Science mache.“

„Wenn der Bolus Daten misst, dann werden diese Messages quasi über Kafka an unser System geschickt und wir müssen die in Echtzeit dann analysieren.“

„Wenn die Daten quasi einmal da waren und dann irgendwas schief läuft, dann sind sie weg.“

„Die eigentliche Analyse ist oft sehr schnell erledigt, aber dann dieses Ganze in die Produktion zu bringen … das ist dann schon eine ganz eigene Herausforderung.“

„Mit einem Studium … baut man sich eine Art Toolbox auf … Man wird nicht alles sofort verstehen, aber man weiß zumindest, was für Techniken es gibt.“

„Es macht nicht viel Sinn, … die beste Programmiersprache zu suchen … Man sollte eher mit dem Problem beginnen und nicht mit der Lösung.“

Wie sich Denken in Streaming-Realitäten übersetzt

Auch ohne zusätzliche Details wird deutlich, was Streaming in Pesenhofers Alltag bedeutet: Zustandslosigkeit ist keine Option – Systeme müssen zuverlässig Nachrichten empfangen, verarbeiten und innerhalb scharfer Zeitfenster reagieren. Das verändert, wie man Software schreibt, deployt und überwacht. Die Aussage „man hat mehr oder weniger nur eine Chance“ ist keine Panikmache, sondern ein Kompass: Resilienz und Performance sind im Stream erste Ordnung.

Gleichzeitig bleibt die statische Analyse unverzichtbar. Sie ist der Ort, an dem Hypothesen entstehen und Modelle an konkreten Daten überprüft werden. Erst danach kommt der Schritt, diese Erkenntnisse in eine Pipeline zu gießen, die „auf mehreren hunderttausend Tieren rechnet“. Das Denkmodell verschiebt sich von Erkenntniserzeugung zu Erkenntnisbereitstellung – verlässlich, wiederholbar, skalierbar.

Warum dieser Weg ermutigt – auch ohne Standardrezept

Pesenhofers Lebenslauf bestätigt, was viele intuitiv spüren: Man muss nicht von Tag eins an „Data Scientist“ sein wollen, um dort anzukommen. Entscheidend sind:

  • frühe Berührungen mit Daten und Systemen (hier: MySQL, Server, ECDL),
  • ein technisches Fundament (HTL, Mikrocontroller, C/C++),
  • die Bereitschaft, das Interesse (Mathematik) mit einem konkreten Rollenbild (Data Scientist) zu verbinden,
  • und das Dranbleiben in einem Umfeld, in dem Produktion zählt (Streaming, Echtzeit, Skalierung).

Das nimmt den Druck, eine perfekte Roadmap zu haben. Stattdessen zählt, den nächsten sinnvollen Schritt zu gehen – und das Problem vor die Lösung zu stellen.

Fazit: Data Science als Handwerk – und als Haltung

„Johannes Pesenhofer, Data Scientist bei smaXtec“ von smaXtec animal care GmbH zeichnet Data Science nicht als Zauberdisziplin, sondern als Handwerk mit Haltung: problemorientiert, robust, iterativ. Die Tools (Python, SQL, Kafka) sind Mittel zum Zweck. Die eigentliche Leistung liegt darin, eine schnelle Analyse in ein zuverlässiges, performantes System zu überführen – vom Prototyp am Einzeltier bis zur Pipeline für hunderttausende Tiere.

Wer diesen Weg gehen will, findet in Pesenhofers Aussagen eine klare Leitlinie:

  • Starte mit dem Problem, nicht mit der Technologie.
  • Rechne mit Iterationen – und bleib dran.
  • Nutze Ausbildung als Toolbox – Motivation bleibt der entscheidende Motor.

So entsteht Data Science, die wirkt: einsatznah, belastbar und immer dem realen Bedarf verpflichtet.

Weitere Tech Lead Stories

Weitere Dev Stories