Logo hilarion 5

hilarion 5

Digitale Agentur

Wird KI meinen Job ersetzen?

Description

Daniel Kreiseder von hilarion 5 nimmt in seinem devjobs.at TechTalk das aktuelle Thema von künstlicher Intelligenz aus Sicht der Software Entwicklung unter die Lupe.

Beim Videoaufruf stimmst Du der Datenübermittlung an YouTube und der Datenschutzerklärung zu.

Video Zusammenfassung

In "Wird KI meinen Job ersetzen?" zeigt Daniel Kreiseder (hilarion 5), wie generative KI den Entwickleralltag verändert: von ChatGPT und GPT‑3 vs. GPT‑4 über den rasanten Nutzerzuwachs und starke Textanwendungen (Übersetzen, Schreiben, Zusammenfassen) bis zu klaren Grenzen wie Halluzinationen (falsche Artikel-„Übersetzung“ ohne URL-Zugriff), Bildgeneratoren/Deepfakes und dem Big‑Tech‑Wettlauf (Microsoft+Bing/OpenAI, Google I/O, Amazon). Für Entwickler demonstriert er Werkzeuge wie GitHub Copilot (kontextabhängige Codevervollständigung, bald Chat/Unit-Tests), TabNine, CodeWhisperer und die AI‑Suche Find und zeigt praxisnah, wann welches Tool besser ist (GPT‑3 lieferte ein falsches Terminal-Kommando, GPT‑4 ein brauchbares; ChatGPT erzeugte fehlerhaftes CloudFormation‑YAML, Copilot traf). Fazit: KI ersetzt Programmierer nicht, sie beschleunigt sie—wer das passende Tool wählt, Ergebnisse prüft und Risiken kennt, kann Coding, Kommunikation und Recherche sofort effizienter gestalten.

KI im Entwickleralltag: Lektionen aus „Wird KI meinen Job ersetzen?“ von Daniel Kreiseder (hilarion 5)

Kontext und Kernfrage

Daniel Kreiseder von hilarion 5 kam mit einer simplen, aber drängenden Leitfrage auf die Bühne: Wird KI meinen Job ersetzen – oder ihn besser machen? Der Vortrag war ein Streifzug durch die Praxis: welche Modelle und Tools heute tatsächlich wirken, wo sie stolpern, wie Big Tech den Takt vorgibt und was das alles für den Entwickleralltag bedeutet. Als Redaktion von DevJobs.at haben wir aufmerksam mitgeschrieben – mit Fokus darauf, was für Engineering-Teams unmittelbar nutzbar ist.

Der Ton war bewusst bodenständig: keine Science-Fiction, sondern echte Arbeitsabläufe und konkrete Erfahrungen. Gleichzeitig war klar: Wir befinden uns in einer „Goldgräberstimmung“. Seit dem 30. November 2022, dem öffentlichen Start von ChatGPT, ist generative KI aus dem Tech-Diskurs nicht mehr wegzudenken.

Was ist ChatGPT – und was nicht?

Kreiseder legte die Begriffe offen, ohne sie zu mystifizieren: GPT steht für „Generative Pre-Trained Transformer“ – letztlich ein Sprachmodell, das auf Mustern in großen Textkorpora trainiert wurde. Es erzeugt Antworten, die menschlich wirken, „versteht“ die Welt aber nicht. Dieser Punkt zog sich wie ein roter Faden durch den Vortrag: KI generiert aus erlernten Mustern – keine Weltsicht, kein Bewusstsein.

Paraphrasiert: ChatGPT ist ein KI-Chatbot, der auf Mustern in Textdateien trainiert wird. Er generiert menschenähnliche Antworten, versteht die Welt jedoch nicht wirklich.

Beim Vergleich der Modellgenerationen fasste Kreiseder die Antworten von ChatGPT selbst zusammen: Zwischen GPT‑3 und GPT‑4 liegen mehr und relevantere Trainingsdaten. Zugleich spricht das System vorsichtig – „wahrscheinlich“, „vielleicht“ – und hält explizit fest, dass auch GPT‑4 kein Bewusstsein und kein echtes Weltverständnis hat. Für den praktischen Einsatz bedeutet das: Bessere Qualität, ja – aber auch Grenzen, die man kennen und abfedern muss.

Die Geschwindigkeit des Wandels – 1 Million Nutzer in 5 Tagen

Ein prägnanter Marker für die Dynamik war Kreiseders 0‑auf‑1‑Million‑Vergleich: Während bekannte Plattformen wie Netflix, Twitter, Spotify oder Instagram Monate bis Jahre brauchten, erreichte ChatGPT diese Marke in fünf Tagen – trotz Registrierungshürde. Das macht greifbar, warum heute gefühlt „alle“ über KI sprechen: die Einstiegshürde ist niedrig, der Nutzen schnell spürbar, die Neugier riesig.

Stärken und typische Anwendungsfälle

Kreiseder steckt seit Monaten täglich Arbeit in KI-gestützte Workflows und ordnete souverän ein, was aktuell funktioniert:

  • Textproduktion und -tonalität: von Gedichten bis zu Fachartikeln, von locker bis formell – „klingt gut“ ist eine ausgesprochene Stärke.
  • Sprachwechsel on the fly: Deutsch/Englisch im selben Thread funktioniert zuverlässig.
  • Marketingkommunikation: Instagram-Posts, Mailings, professionelle E‑Mails. Beobachtung aus dem Alltag: Man merkt manchmal, dass die E‑Mail „zu professionell“ klingt – die Tonalität fällt auf.
  • Rechercheähnliche Aufgaben: Wo früher Google stand, wird heute häufig ChatGPT genutzt – etwa für erste Orientierung oder Inspiration.
  • Zusammenfassen und Aufbereiten: Von Bullet Points zu sauberem Fließtext – oder den umgekehrten Weg, wenn eingehende E‑Mails reduziert werden sollen.

Der Grundtenor war pragmatisch: Für Text und Struktur liefert das Modell Ergebnisse, die in vielen Situationen „gut genug“ oder besser sind – solange ein Mensch gegenliest und Qualitätssicherung macht.

Fallstrick Halluzination – das DHH-Beispiel

Kreiseder demonstrierte ungeschminkt, warum Blindflug mit KI nicht funktioniert. Er wollte einen Artikel von David Heinemeier Hansson („Programming Types and Mindsets“) übersetzen lassen und übergab ChatGPT nur den Link. Das Modell erkannte Titel und Autor, konnte den Link aber nicht aufrufen – und lieferte daraufhin einen plausibel klingenden, aber inhaltlich falschen Text. Die Korrektur war banal: Text der Webseite markieren, kopieren, einfügen – dann funktionierte die Übersetzung.

Die Lehre daraus ist robust: Keine blinde Autorität zuschreiben. Modelle generieren – sie rufen nicht „magisch“ das Web auf, und ihre Trainingsbasis ist zeitlich begrenzt. Die Validierung bleibt Pflicht der Nutzer.

Jenseits von Text: Audio, Video, Bilder, Code, Forschung

Der Vortrag streifte die schnell wachsende Tool-Landschaft – mit dem Hinweis, dass die Übersicht naturgemäß unvollständig ist. Genannt wurden unter anderem Bildgeneratoren wie Stable Diffusion, DALL·E oder Midjourney. Kreiseders Gedankenexperiment: Wenn ein „Professional Food Photo“ einer Lasagne so überzeugend generiert werden kann – wie oft muss man sie noch fotografieren lassen?

Ausprobieren war sein Rezept. Er testete Dienste, die aus hochgeladenen Selfies professionelle Profilbilder erzeugen. Beobachtung:

  • Binnen eines halben Jahres verbesserten sich die Resultate sichtbar.
  • Modelle neigen dazu, jünger und „schöner“ zu machen – inklusive Anzug, Krawatte oder Polohemd.
  • Typische Artefakte bleiben erkennbar: Hände und Finger geraten oft falsch – ein gängiger Hinweis auf generierte Bilder.

Trotz gelegentlicher Ausreißer („Ritterrüstung“) war sein Urteil: erstaunlich gute Ergebnisse für Alltagszwecke.

Big Tech zieht alle Register: Microsoft, Google, Amazon

Wo Goldgräberstimmung herrscht, fließt Kapital. Microsoft investierte massiv in OpenAI, integrierte die Technologie in Azure (OpenAI Services) und kombinierte in Bing eine Chat‑Interaktion mit Websuche. Sichtbarer Effekt: Selbst auf Linux landete plötzlich ein Microsoft‑Browser – ein Indiz dafür, wie begehrt die neuen Funktionen sind.

Google konterte auf der I/O mit einem starken Fokus auf „AI“ und kündigte mit Bard das hauseigene Gegenstück an. Kreiseder stellte die Frage nach dem Geschäftsmodell in den Raum: Googles Kerngeschäft sind Werbeanzeigen – wann und wie erscheinen gesponserte Antworten im Chat?

Auch Amazon bewegt sich: Laut Ankündigungen arbeitet der Konzern daran, KI‑Funktionen in seinen Store zu integrieren – ein weiterer Hinweis, dass alle großen Plattformen in Richtung generativer Assistenz marschieren.

Risiken, Missbrauch und Kontrolle

Kreiseder blendete auch die Schattenseiten nicht aus. Deepfake‑Bilder des Papstes in modischer Jacke, ein verhafteter Trump, ein Merkel‑Obama‑Treffen mit fehlerhaften Fingern – alles Beispiele für die inzwischen hohe Fotoqualität bei gleichzeitig verräterischen Details. Sogar am Familientisch lassen sich mit wenigen Texteingaben spektakuläre, aber fiktive Szenen erzeugen.

Ein zweiter Aspekt ist das Umgehen von Safety‑Regeln. Beispiel: Auf die Bitte, illegale Schwarzkopien‑Seiten zu nennen, verweigert das System die Antwort. Fragt man „vorsorglich“ nach Seiten, die man vermeiden sollte, kommen dennoch konkrete Domains. Für Engineering‑Teams ist das eine Mahnung: Safety‑Policies sind wichtig – und kreativ formulierte Anfragen können Lücken aufdecken.

Dazu passt der Trend zu Browser‑Extensions, die Chat‑Interaktionen automatisieren. Genannt wurde ein Plugin, das Kündigungsprozesse (z. B. für ein Zeitungsabo) eigenständig durch den Support‑Chat führt. Kreiseders Gedanke: Was passiert, wenn auf beiden Seiten Bots miteinander verhandeln? Ein Vorgeschmack auf Bot‑gegen‑Bot‑Interaktionen im Alltag.

Vom Hype zur Praxis: Werkzeuge für Entwickler

Der für Entwickler wichtigste Teil des Vortrags drehte sich um produktive Toolchains.

GitHub Copilot: Mustererkennung im Codefluss

Kreiseder nutzt Copilot intensiv und beschrieb sehr konkret, wie die Autovervollständigung den eigenen Stil und das Projektkontextuelle aufgreift. Beispielhaft schilderte er ein console.log‑Muster: In einem Projekt schlägt Copilot die Ausgabe mit Label und Variable in bestimmter Reihenfolge vor, in einem anderen passt er die Reihenfolge dem dort üblichen Stil an. Das ist mehr als „Autocomplete“ – es ist kontextsensitives Vervollständigen nach erlernten Patterns.

Eine kleine Anekdote: Manche Funktionen erschließen sich erst, wenn man die Doku wirklich liest – etwa die Möglichkeit, sich per Tastenkürzel Alternativvorschläge anzeigen zu lassen. Praktische Produktivität hängt auch vom Kennen der Features ab.

Alternativen: TabNine und CodeWhisperer

Copilot war nicht das erste Tool. TabNine existiert länger und verfolgt einen ähnlichen Ansatz. Amazon liefert mit CodeWhisperer eine Variante, die erwartbar gut über AWS‑APIs Bescheid weiß (z. B. S3‑Uploads) und dadurch besonders in diesem Ökosystem glänzt. Die Botschaft: Es gibt nicht „das eine“ Werkzeug – Teams sollten projektspezifisch vergleichen.

Copilot mit Chat – der nächste Schritt

GitHub kündigte einen „Level Up“ an: Copilot mit Chat‑Funktion, der Projektkontext kennt und Aufgaben wie „Schreibe Unit‑Tests für diesen Code“ qualitativ hochwertig erledigt. Kreiseder wies darauf hin: Schon heute kann ChatGPT Tests generieren, kennt aber den Projektkontext nicht. Die Kombination aus Kontext + Generierung verspricht mehr – sobald sie allgemein verfügbar ist.

Befehle, Terminal, Snippets: GPT‑3 vs. GPT‑4

Für Kommandozeilen‑Kniffe nutzte Kreiseder beide Modellgenerationen. Beobachtung: GPT‑3 lieferte plausibel klingende, aber falsche Befehle; GPT‑4 produzierte wesentlich verlässlichere Ergebnisse. Konsequenz im Team: Ein ChatGPT‑Tab ist meist offen – aber die Resultate werden geprüft. „Plausibel“ reicht nicht.

Entwickler‑Suche: Find statt Forumsschleifen

Ein weiteres Werkzeug war eine KI‑Suchmaschine für Entwickler („Find“). Kreiseder testete daran eine eigene, alte Stack‑Overflow‑Frage zur Initialisierung von Leerstrings in C#. Die KI antwortete direkt und verlinkte dazu relevante Quellen (Stack‑Overflow‑Thread, Dokumentationen, Microsoft‑Statements). Eindruck: sehr hohe Antwortqualität ohne Diskussionsballast.

Für klassische Q&A‑Plattformen ist das eine spürbare Verschiebung. Kreiseder verwies auf Trends: rückläufiger Traffic bei Stack Overflow, steigende GitHub‑Nutzung, wachsende Copilot‑Signups sowie eine Entwicklerumfrage mit starkem KI‑Fokus. Seine Lesart: Stack Overflow muss reagieren.

Rollenbilder, Jobtitel und der KI‑Anstrich

Im Zuge des Booms tauchen neue Jobtitel auf – etwa „AI Prompt Engineer“. Kreiseder karikierte das mit einem Comic‑Dialog: Buzzwords ziehen – aber am Ende zählen echte Qualifikationen. Gleichzeitig warnte er vor „AI‑Washing“: Was früher ein Skript erledigte, erhält heute vorschnell das Etikett „Künstliche Intelligenz“ – inhaltlich hat sich aber wenig geändert.

Und: Vorsicht vor selbsternannten „KI‑Experten“. ChatGPT ist (zum Zeitpunkt des Vortrags) erst ein halbes Jahr alt. Wer seriös über KI forscht, arbeitet oft an anderen, tieferen Themen, als an alltäglichen Prompt‑Interaktionen.

Das richtige Werkzeug für den richtigen Job

Ein zentrales Engineering‑Muster, das Kreiseder mehrfach betonte: Tool‑Choice entscheidet. Beispiel aus seiner Praxis: Er musste eine AWS‑Lambda‑Funktion samt CloudFormation‑Template bauen. ChatGPT generierte ein YAML, das „optisch“ überzeugte – aber inhaltlich falsch war. Copilot hingegen schlug ein korrektes Template vor, plausibel, weil es auf vielen Codebeispielen (inkl. CloudFormation) trainiert ist.

Die Konsequenz ist generisch:

  • Problem präzise formulieren.
  • Tool wählen, das im jeweiligen Datenraum stark ist (Code vs. generischer Text).
  • Ergebnisse validieren und testen.

So entsteht aus Hype produktive Routine.

Ein produktives Bild: Super Mario und die Feuerblume

Kreiseder fand ein eingängiges Bild, das hängen bleibt: KI fühlt sich an wie die Feuerblume in Super Mario – plötzlich kann man „schießen“. Das heißt aber nicht, dass jeder Schuss trifft. Fähigkeiten werden verstärkt, Verantwortung bleibt.

Paraphrasiert: Um Programmierer durch KI zu ersetzen, müssten Kunden exakt beschreiben, was sie wollen. Solange Anforderungen komplex, unvollständig oder im Fluss sind, bleibt der mitdenkende Entwickler unverzichtbar.

Fazit: Besser machen statt ersetzen

Auf die Ausgangsfrage „Wird KI meinen Job ersetzen?“ lieferte der Vortrag eine klare, praxisnahe Antwort: Nein – aber sie wird ihn deutlich verändern und in vielen Teilen besser machen. Die großen Linien aus unserer Sicht:

  • Modelle werden messbar besser (GPT‑4 gegenüber GPT‑3), bleiben aber Musterautomaten ohne Weltverständnis.
  • Adoptionsgeschwindigkeit ist historisch – aber sie ersetzt weder Spezifikationen noch Architekturarbeit.
  • Tooling in der IDE ist heute schon ein Multiplikator. Copilot & Co. lernen Projektmuster und beschleunigen Routine.
  • Halluzinationen sind real. Validierung ist Pflicht. Kontextkenntnis (z. B. durch projektspezifische Integration) wird zum Game Changer.
  • Ökosysteme sortieren sich neu: Q&A‑Plattformen geraten unter Druck, Developer‑Search und In‑Editor‑Assistenz gewinnen.
  • Nicht alles, was „AI“ sagt, ist KI. Nicht jeder, der es behauptet, ist Experte. Engineering‑Skepsis bleibt eine Tugend.

Konkrete Takeaways für Engineering-Teams

  • Für Text und Kommunikation liefert generative KI hohe Baseline‑Qualität. Review und Tonalitätskontrolle bleiben nötig.
  • Für Code lohnt IDE‑integrierte Assistenz. Mustererkennung auf Projektbasis spart Zeit bei Boilerplate, Tests und wiederkehrenden Aufgaben.
  • Für Infrastruktur‑Templates, Policies und YAML: Tools nutzen, die in genau diesem Datenraum trainiert sind – und jeden Vorschlag im System testen.
  • Für Recherche und Q&A kann eine KI‑Suchmaschine mit Quellenverweisen Diskussionen abkürzen – ohne die Validierung zu sparen.
  • Für Security & Compliance: Safety‑Bypass‑Muster kennen. Regeln und Audits so gestalten, dass „kreative“ Umgehungen auffallen.
  • Für Produktteams: KI‑Fähigkeiten früh in die Toolchain denken (z. B. Kontext‑Chat für den Codebestand), aber keine Heilsversprechen machen.

Am Ende steht eine nüchterne, ermutigende Sicht: KI ist ein starkes Werkzeug. In den Händen von Entwicklerinnen und Entwicklern, die Domänenwissen, Handwerk und Urteilsvermögen mitbringen, wird aus Hype echte Wirkung – ohne den Menschen zu ersetzen.

Weitere Tech Talks

Weitere Tech Lead Stories

Weitere Dev Stories