apichap
Michael Weißenböck, CTO & Co-Founder von APICHAMP
Description
CTO & Co-Founder von APICHAMP Michael Weißenböck gibt im Interview Einblicke in das Startup, wie das Team aufgebaut ist, auf was bei neuen Bewerbungen geachtet wird und welche Technologien im Einsatz sind.
Beim Videoaufruf stimmst Du der Datenübermittlung an YouTube und der Datenschutzerklärung zu.
Video Zusammenfassung
In "Michael Weißenböck, CTO & Co-Founder von APICHAMP" beschreibt Speaker Michael Weißenböck, wie das zweiköpfige Dev-Team mit Scrum in Wochensprints APICHAMP Core (Java/Spring Boot) entwickelt und parallel den AI‑Part in Python (NLP mit LLMs, Embeddings, Vektordatenbanken, Hosting und Fine‑Tuning) im Rahmen eines von der Forschungsfördergesellschaft Österreich genehmigten Projekts mit dem SCCH vorantreibt, um APIs in Sekunden automatisiert zu erstellen. Gesucht wird ein ML‑Engineer; der Recruiting‑Prozess besteht aus Kennenlern‑ und Fachinterview mit starkem Fokus auf sozialer Passung und Mitgestaltung. Geboten werden hybride Arbeit in der Tabakfabrik Linz und im Homeoffice, flexible Wahl von Betriebssystem und IDE (u. a. IntelliJ), GitLab mit Pipeline‑Driven Development, Mitarbeiterbeteiligung und viel Gestaltungsspielraum.
APIs in Sekundenschnelle: Wie apichap mit APICHAMP Core und AI die Schnittstellenentwicklung neu denkt – Techlead Story mit Michael Weißenböck
Kontext: Ein Deep-Dive in eine junge Engineering-Organisation
In unserer DevJobs.at Techlead-Story „Michael Weißenböck, CTO & Co-Founder von APICHAMP“ (Speaker: Michael Weißenböck, Company: apichap) haben wir einen selten klaren Blick darauf bekommen, wie ein sehr junges Team seine Produktvision, Engineering-Praxis und Hiring-Ansprüche miteinander verzahnt. Der Rahmen ist bewusst schlank: Aktuell bilden zwei Personen das Dev-Team – Dominik (CEO & Founder) und Michael (CTO & Co-Founder). Dennoch ist der Anspruch groß: APIs nicht nur schneller, sondern vollautomatisiert in Sekundenschnelle zu erstellen.
Was uns dabei besonders auffällt: Die Organisation kombiniert fokussierte Produktentwicklung (APICHAMP Core) mit einem fundierten Forschungsansatz für die neue AI-Komponente – inklusive bewilligtem Forschungsprojekt bei der Forschungsfördergesellschaft Österreich und einer Kooperation mit dem SCCH Software Competence Center Hagenberg. Dieses Setup macht die Rolle für ML-Engineers außergewöhnlich spannend: Hier geht es nicht um „Model-Consumption“, sondern um das aktive Erforschen, Antrainieren, Hosten und Integrieren von Sprachmodellen in ein reales Developer-Produkt.
„Wir wollen APIs in Sekundenschnelle vollautomatisiert erstellen und entwickeln.“
Vision: Vollautomatisierte APIs – von der Idee bis zum Deploy
APICHAMP verfolgt eine klare Mission: Die Erstellung von Schnittstellen radikal zu vereinfachen und zu beschleunigen. Schon heute gibt es den APICHAMP Core, der aus einem Config-File eine lauffähige API generiert und deployt. Auf dieser Grundlage baut apichap nun die AI-Komponente, um den Weg von der gewünschten Schnittstelle („Wunsch-Schnittstelle“) bis zum fertigen Deployment zu automatisieren – mit intelligenter Analyse der Datenquelle, semantischem Matching zur Spezifikation und letztlich einer vollautomatisch generierten Konfiguration für den Core.
Die Produktidee ist damit nicht nur Entwickler-freundlich, sondern adressiert einen akuten Engpass: APIs sind das verbindende Gewebe moderner Softwarelandschaften – ihre Erstellung kostet Zeit, Abstimmung und wiederkehrende Handarbeit. APICHAMP will diese Arbeit in Minuten auf Sekunden schrumpfen und gleichzeitig die Qualität sichern, indem die Spezifikation und die Datenstruktur deterministisch miteinander verknüpft werden.
Produktarchitektur: APICHAMP Core trifft AI-Komponente
APICHAMP Core
- Technologische Basis: Java und Spring Boot.
- Funktionsprinzip: Ein Config-File beschreibt die Schnittstelle; der Core setzt diese Beschreibung in eine produktiv nutzbare API um.
AI-Komponente
- Implementierung in Python, organisiert über eine Middleware.
- Schwerpunkt: NLP (Natural Language Processing) mit LLMs (Large Language Models) und Embedding Models.
- Hilfsinfrastruktur: Vektordatenbanken, um eingebettete Informationen strukturiert zu speichern und performant abzurufen.
- Aufgabenfelder: Hosting von LLMs, Fine-Tuning, Antrainieren auf Use-Case-spezifische Anforderungen, Evaluieren und Experimentieren mit unterschiedlichen Modellen.
Diese Aufgabenteilung ist elegant: Der Core bleibt ein robuster, deterministischer Motor in Java/Spring Boot. Die AI-Schicht liefert das semantische Verständnis und die Automatisierung der Konfigurationsgenerierung. Zusammen entsteht ein System, das von einer klar definierten Spezifikation und einer beschriebenen Datenstruktur zu einer lauffähigen API gelangt – ohne dass manuell Zeilen an Boilerplate-Code produziert werden müssen.
Forschungsfundament: Bewilligtes Projekt mit SCCH
apichap setzt auf ein genehmigtes Forschungsprojekt bei der Forschungsfördergesellschaft Österreich und arbeitet mit dem SCCH Software Competence Center Hagenberg zusammen. Dieser Kontext ist für ML-Engineers interessant, weil er Freiräume für echte Problemforschung eröffnet, die nicht nur „Proof-of-Concept“ bleibt, sondern verbindlich in das Produkt zurückfließt.
- Forschungsthemen werden systematisch „aufgearbeitet“ und „getackelt“.
- Erkenntnisse wandern in die Produktentwicklung.
- Die Nähe zur angewandten Forschung beschleunigt das Verständnis für Grenzen, Potenziale und Trade-offs von Modellen – von Hosting-Fragen bis zum Fine-Tuning.
Für Kandidatinnen und Kandidaten bedeutet das: Wer hier einsteigt, gestaltet beides – Forschung und Produkt – mit und sieht die Ergebnisse in kurzer Zeit im realen Einsatz.
Vom Input zur live API: So automatisiert APICHAMP den Weg
Der von Michael skizzierte Prozess macht die Vision greifbar. APICHAMP arbeitet im Kern mit zwei Inputs:
- API-Spezifikation (Wunsch-Schnittstelle)
- Nutzerinnen und Nutzer definieren, wie die Schnittstelle aussehen soll und dokumentieren die gewünschten Endpunkte und Strukturen.
- Datenquelle
- Unterstützt werden unter anderem Datenbanken, andere REST-Schnittstellen, XML-Files oder CSV-Files.
- Wichtig: APICHAMP braucht nicht die Daten selbst, sondern die Datenstruktur.
- Bei Datenbanken: eine Übersicht aller Tables und Felder.
- Bei REST-Schnittstellen: eine Dokumentation der Schnittstelle.
- Bei CSV: die Header-Zeile zur Identifikation der Felder.
Auf Basis dieser Inputs passiert Folgendes:
- Analyse und Interpretation der Felder: Welche Inhalte verbergen sich semantisch hinter welcher Spalte/Property?
- Matching zur Wunsch-Schnittstelle: Die semantisch verstandenen Felder werden mit der Spezifikation zusammengebracht.
- Generierung des Config-Files: Daraus entsteht das vollständige Config-File, mit dem APICHAMP Core die Schnittstelle deployt.
„Was wir da brauchen, sind nicht die Daten, die da drinnen sind, sondern wirklich nur die Datenstruktur.“
Die AI-Komponente ist der Beschleuniger für die „Interpretation und das Matching“ – genau dort, wo traditionell viel Handarbeit, Meetings und Missverständnisse entstehen.
Engineering-Kultur: Schlank, fokussiert und synchron
apichap arbeitet mit Scrum, in wöchentlichen Sprints, und in einer sehr engen Abstimmung. In einem Team dieser Größe ist das mehr als Methode – es ist ein Taktgeber, der schnelle Reaktion auf Entwicklungen und iterative Produktführung ermöglicht.
- Wöchentliche Zyklen sorgen für kurze Feedbackschleifen.
- Enge Abstimmung minimiert Kontextwechsel und Priorisierungsverluste.
- Entscheidungen und Erkenntnisse aus der Forschung fließen schnell in die Umsetzung.
Michael betont, dass die Organisation mit dem Wachstum angepasst wird. Klar ist aber: Der kulturelle Kern – kurze Wege, direkter Austausch, Fokus – ist eine Stärke, die das Team bewusst kultiviert.
Tooling und Entwicklungsumgebung: Autonomie mit klaren Standards
Ein wichtiges Signal an Technik-Talente: Flexibilität bei der Arbeitsumgebung.
- Betriebssystem: freie Wahl.
- IDE: freie Wahl, intern wird IntelliJ bevorzugt.
- Code-Basis: GitLab.
- Vorgehen: Pipeline-Driven Development, um Qualität und Automatisierung in den Delivery-Prozess zu bringen.
Dieses Setup erlaubt persönlichen Flow (OS/IDE nach Wahl) und sichert gleichzeitig Team-Robustheit (Pipelines, GitLab, etablierte Standards).
Schwerpunkt AI: NLP, LLMs, Embeddings und der Realitätscheck im Hosting
Die AI-Arbeit ist kein Buzzword-Fasten, sondern das Durchdringen realer Hürden:
- Welche Sprachmodelle liefern für welche Use Cases die besten Ergebnisse?
- Wie skaliert und sichert man das Hosting von LLMs?
- Wie setzt man Fine-Tuning und Antrainieren zielgerichtet um, damit Modelle das Vokabular und die Strukturen von Datenquellen und Spezifikationen wirklich verstehen?
- Wie werden Embedding Models und Vektordatenbanken orchestriert, um semantische Retrieval-Aufgaben stabil und reproduzierbar zu lösen?
Michael beschreibt die AI-Arbeit als stark experimentell. Genau dort entsteht Mehrwert: durch strukturierte Versuche, Vergleichbarkeit der Ergebnisse und die Übersetzung in funktionierende Produktfeatures.
„Bei den Sprachmodellen und Embedding Modellen [sind wir] ganz stark einfach im Experimentieren damit. Was ist möglich? Was können wir damit bekommen?“
Gesuchte Rolle: ML-Engineer als Brückenbauer zwischen Forschung und Produkt
Der aktuelle Hiring-Fokus liegt klar auf ML-Engineering. Aus der Session lässt sich gut ablesen, was diese Rolle besonders macht:
- Du arbeitest direkt an der AI-Komponente für APICHAMP.
- Du bewegst dich im Spektrum NLP/LLM/Embeddings und bringst Modelle in eine produktive Architektur.
- Du hilfst, das Matching von API-Spezifikation und Datenstruktur zu automatisieren – inklusive Generierung des Config-Files für den Core.
- Du überführst Erkenntnisse aus einem bewilligten Forschungsprojekt in reale Produkt-Funktionalität.
- Du beschäftigst dich mit Hosting, Fine-Tuning und Antrainieren von Sprachmodellen für konkrete Use Cases.
Für Engineers, die weder in reinem Prototyping noch in purer Produktfräse versauern wollen, ist das ein spannender Resonanzraum: Forschungstiefe und Produktverantwortung schließen sich hier nicht aus, sie bedingen sich gegenseitig.
Bewerbungsprozess: Schlank, persönlich und fachlich fokussiert
apichap hält den Recruiting-Prozess bewusst kurz und aussagekräftig.
- Phase 1: Persönliches Gespräch, um einander kennenzulernen und ein Gefühl für das Zusammenspiel zu bekommen.
- Phase 2: Fachliches Interview, um sicherzustellen, dass Skills und Rolle zueinander passen.
„Das muss einfach passen. Es muss ein gutes Zusammenspiel sein. Da muss ein gutes Gefühl da sein. Dann können wir ganz viel erreichen.“
Rekrutiert wird direkt vom Team – kein externer Apparat, keine langen Wege. Für Kandidatinnen und Kandidaten bedeutet das schnelle Entscheidungen und unmittelbaren Draht zu den beiden Gründern.
Arbeitsmodell: Hybrid mit Herz für persönlichen Austausch
Das Team arbeitet hybrid – mit einem Office in der Tabakfabrik Linz und Homeoffice-Option. Der persönliche Austausch im Büro ist erwünscht, weil dort das schnelle gemeinsame Denken und Entscheiden am besten funktioniert. Gleichzeitig bleibt genügend Flexibilität, um konzentriert remote zu arbeiten.
Zusätzlich bietet apichap ein Mitarbeiterbeteiligungsprogramm und „ganz, ganz, ganz viel Spielraum“ – sowohl in der Produktgestaltung als auch in der Organisationsentwicklung.
Warum apichap? Konkrete Gründe, die wir aus der Session mitnehmen
- Klare, messbare Vision: APIs in Sekunden – kein abstrakter Claim, sondern technisch konkret untermauert.
- Reifes Kernprodukt: APICHAMP Core existiert und deployt aus einem Config-File sofort nutzbare Schnittstellen.
- Forschungsstärke: Bewilligtes Projekt bei der Forschungsfördergesellschaft Österreich und Kooperation mit SCCH.
- Tech-Stack mit Wirkung: Java/Spring Boot für Stabilität im Core, Python für schnelle AI-Iteration.
- AI-Fokus mit Substanz: NLP/LLMs/Embeddings, Vektordatenbanken, Hosting, Fine-Tuning.
- Engineering-Kultur: Scrum, wöchentliche Sprints, enge Abstimmung, Pipeline-Driven Development.
- Autonomie: Freie Wahl von Betriebssystem und IDE (IntelliJ beliebt), Ownership über den Arbeitsalltag.
- Wachstumsphase: Gestaltungsspielraum in Produkt, Stack und Organisation.
- Einfacher Prozess: Zwei Interviews, direkter Kontakt, rasche Entscheidungen.
- Standort und Setup: Tabakfabrik Linz + Homeoffice – mit Fokus auf persönlichen Wissensaustausch.
Für wen das besonders gut passt
- Für ML-Engineers, die mehr wollen als Prompt-Engineering: die Modelle hosten, trainieren, fine-tunen und operationalisieren.
- Für Builder-Persönlichkeiten, die gern Verantwortung übernehmen und das Systemende-zu-Ende mitdenken – vom Datenmodell bis zur Deploy-Pipeline.
- Für Generalisten mit AI-Schwerpunkt, die das Wechselspiel aus Forschung und Produkt lieben und keine Berührungsängste mit Java/Spring-Ökosystemen im Umfeld haben.
- Für Startup-Menschen, denen kurze Wege, klare Resultate und ein belastbares Miteinander wichtiger sind als große Abteilungen.
Engineering-Details, die Vertrauen schaffen
- Die Präzision in der Beschreibung des Inputs (Spezifikation + Datenstruktur) und der anschließenden Schritte (Interpretation, Matching, Config-Generierung) zeigt ein tiefes Prozessverständnis – hier wird nicht „AI drübergestülpt“, sondern ein Determinismus (Core) mit Semantik (AI) sinnvoll verheiratet.
- Der explizite Hinweis, dass die Daten selbst nicht benötigt werden, sondern die Struktur, unterstreicht die Architektur-Entscheidung: Schutz der Datenhoheit, Reduktion von Reibung in der Integration.
- Der Fokus auf Hosting und Fine-Tuning adressiert reale Hürden, die oft übersehen werden – genau dort entscheidet sich Produktqualität im AI-Zeitalter.
Was im Alltag zählen wird
Auch wenn apichap bewusst schlank bleibt, ist der Anspruch hoch. Wer hier einsteigt, sollte Freude daran haben, Dinge auszuprobieren, Ergebnisse zu messen und Erkenntnisse schnell in Produktverhalten zu übersetzen. Die wöchentlichen Sprints sind dabei ein Produktivitäts-Booster: Wer liefern will, findet die passende Struktur vor.
Die soziale Komponente ist Michael wichtig – in kleinen Teams ist Vertrauen Produktivkapital.
„Wir brauchen da einfach die richtigen Leute, mit denen wir das Ganze groß machen wollen.“
Ein Blick nach vorne: Wachstum mit Anpassungsfähigkeit
Michael macht deutlich: Wenn apichap wächst, wird die Organisation mitwachsen – nicht dogmatisch, sondern anpassungsfähig. Genau hier liegt eine seltene Chance: Als früher Teamzuwachs prägt man nicht nur Code und Modelle, sondern auch Rituale, Rollen, Definition of Done und Qualitätsmaßstäbe. Wer diese Dynamik schätzt, wird bei apichap nicht „nur eingestellt“, sondern wirkt.
Takeaways aus „Michael Weißenböck, CTO & Co-Founder von APICHAMP“
- apichap kombiniert ein bereits verfügbares Produkt (APICHAMP Core) mit einer ambitionierten AI-Schicht, die aus Spezifikationen und Datenstrukturen automatisch funktionierende APIs erzeugt.
- Das Team setzt auf Scrum, wöchentliche Sprints und enge Abstimmung – kurze Wege, schnelle Entscheidungen.
- Ein bewilligtes Forschungsprojekt und die SCCH-Kooperation geben der AI-Arbeit Tiefe und Richtung.
- Gesucht wird ein ML-Engineer, der Modelle nicht nur evaluiert, sondern hostet, fine-tuned und produktiv integriert.
- Arbeitsmodell: hybrid, Office in der Tabakfabrik Linz, Homeoffice, Mitarbeiterbeteiligungsprogramm, Flexibilität bei OS/IDE.
- Tooling: GitLab und Pipeline-Driven Development.
Fazit: Eine Einladung an Macherinnen und Macher
„Michael Weißenböck, CTO & Co-Founder von APICHAMP“ steht für eine klare Produktvision und eine Engineering-Kultur, die Substanz über Show stellt. Wer in einem kleinen, schlagkräftigen Team APIs wirklich automatisieren will – statt nur Paper-Prototypen zu bauen – findet hier eine Bühne, die Forschung und Produkt miteinander verschmelzen lässt.
apichap bietet die seltene Kombination aus Greenfield-Möglichkeit in der AI-Schicht, robustem Kernprodukt und echter Mitgestaltung – technisch, organisatorisch, kulturell. Oder, um Michaels Tenor aufzugreifen: Wenn das Zusammenspiel passt, ist sehr viel möglich.