Was KI nicht kann

Ein Problem aus der Ökonometrie verdeutlicht den Unterschied zwischen künstlicher und menschlicher Intelligenz. Das Verständnis von stillem Wissen und den Grenzen der KI ist entscheidend, um es effektiv und fair einzusetzen.

Als eines der wenigen klaren Gedankenexperimente, die jemals von Ökonometrikern durchgeführt wurden, zeigt das „Roter Bus - Blauer Bus“-Problem einen zentralen Nachteil, der mit der statistischen Schätzung einhergeht, um die Wahrscheinlichkeit zu quantifizieren, dass eine Person eine bestimmte Wahl trifft, wenn sie mehreren Alternativen gegenübersteht. Stellen Sie sich während des Gedankenexperiments vor, dass es Ihnen gleichgültig ist, entweder ein Auto oder einen roten Bus zur Arbeit zu nehmen. Aufgrund Ihrer Gleichgültigkeit ist Einschätzung der Wahrscheinlichkeit eine bestimmt Option zu wählen einem Münzwurf gleichzusetzen. Die Wahrscheinlichkeit, dass Sie mit dem Auto fahren, beträgt 50 Prozent und die Wahrscheinlichkeit, dass Sie den roten Bus nehmen ebenso. Somit stehen Ihre Auswahlchancen 1:1.

Führen Sie nun eine dritte Transportoption in zwei verschiedenen Szenarien ein und nehmen Sie an, dass der Reisende zwischen alternativen Optionen gleichgültig bleibt. Im ersten Szenario wird eine neue Bahnstrecke eröffnet, so dass die Alternativen für den Reisenden Auto, roter Bus und Bahn sind. Die geschätzten Wahrscheinlichkeiten sind jetzt ein Drittel Auto, ein Drittel roter Bus und ein Drittel Zug. Die Quoten sind die gleichen wie beim Zwei-Wahl-Szenario, 1:1:1.

Im zweiten Szenario wird anstelle eines roten Busses angenommen, dass der Bus blau sein könnte. Der Reisende hat also die Wahl, ein Auto zu nehmen, einen roten Bus zu nehmen oder einen blauen Bus zu nehmen. Gibt es einen wirklichen Unterschied zwischen einem roten Bus und einem blauen Bus? Nein, es ist effektiv die gleiche Wahl. Die Wahrscheinlichkeiten sollten sich dann auf 50 Prozent Auto, 25 Prozent Roter Bus, 25 Prozent Blauer Bus und Quoten von zwei zu eins zu eins aufteilen.

Dies liegt daran, dass die tatsächliche Wahl genau die gleiche ist wie beim ersten Zwei-Auswahl-Szenario, d. h. ein Auto oder einen Bus nehmen - mit anderen Worten, ein roter Bus und ein blauer Bus stehen für dieselbe Wahl. Die Farbe des Busses ist für die Verkehrsmittelwahl des Reisenden unerheblich. Die Wahrscheinlichkeit, dass ein Reisender entweder einen roten oder blauen Bus wählt, ist also nur die Hälfte der Wahrscheinlichkeit, dass die Person den Bus nimmt. Die Methode, mit der diese Wahrscheinlichkeiten geschätzt werden, ist jedoch nicht in der Lage, diese irrelevanten Alternativen zu entschlüsseln. Der Algorithmus kodiert Auto, roter Bus, blauer Bus als 1:1:1 wie im Szenario mit der Bahn.

Algorithmische Mängel

Die (Nicht-)Auswahl roter Bus/blauer Bus ist ein gutes Beispiel dafür, wie algorithmische Berechnungen scheitern können. In ihrer Rohform können Modelle keine Feinheiten der sprachlichen Beschreibung unterscheiden. Für einen Menschen ist es intuitiv, warum der rote Bus und der blaue Bus bei der Betrachtung von Transportalternativen identisch sind. Es ist aber klar, dass es einen Unterschied in der Auswahl gibt, wenn ein Zug eingeführt wird anstatt des blauen Buses. Andererseits ist es äußerst schwierig zu beschreiben, warum die Busfarbe als programmierbare Regel in einem algorithmischen Prozess irrelevant ist. Warum ist dies der Fall?

Dieses Rätsel ist ein Beispiel für Polanyis Paradoxon, benannt nach dem Physiker Michael Polanyi. Das Paradoxon, einfach ausgedrückt, lautet: „Wir wissen mehr, als wir sagen können, d. h. viele der von uns ausgeführten Aufgaben beruhen auf stillschweigendem, intuitivem Wissen, das schwer zu kodifizieren und zu automatisieren ist.“ Polanyis Paradoxon tritt immer dann ins Spiel, wenn eine Person etwas tun kann, aber nicht beschreiben kann, wie sie es tut.

Polanyis Paradox erklärt damit, warum Maschinen nicht alle menschlichen Aufgaben übernehmen können.

Evolutionäre Fähigkeiten

Stillschweigende, unbeschreibliche Fähigkeiten sind der Kern eines weiteren Paradoxons, das von den Forschern Hans Moravec, Rodney Brooks und Marvin Minsky formalisiert wurde. Das „Paradox von Moravec“ besagt in kompakter Form:

  • Wir sollten davon ausgehen, dass die Schwierigkeit des Reverse-Engineering einer menschlichen Fertigkeit ungefähr proportional zu der Zeit ist, in der sich diese Fertigkeit bei Tieren entwickelt hat.
  • Die ältesten menschlichen Fähigkeiten sind weitgehend unbewusst und erscheinen uns daher mühelos.
  • Infolgedessen sollten wir erwarten, dass Fähigkeiten, die scheinbar mühelos zu entwickeln sind, schwierig zu rekonstruieren sind, aber Fähigkeiten, die Anstrengung erfordern, müssen nicht unbedingt schwer zu entwickeln sein.

Paradoxerweise erfordern mentales Denken und abstraktes Wissen nur sehr wenig Rechenleistung, aber sensomotorische Fähigkeiten, die Visualisierung zukünftiger Ergebnisse und Wahrnehmungsschlussfolgerungen erfordern riesige Mengen an Rechenressourcen. Es wird damit festgestellt, dass es vergleichsweise einfach ist, Computern bei Intelligenztests eine Leistung auf Erwachsenenniveau zu verleihen, und es ist schwierig oder unmöglich, ihnen die Fähigkeiten eines Einjährigen in Bezug auf Wahrnehmung und Mobilität anzueignen.

Die Zukunft der KI ist komplementär

Für künstliche Intelligenz bilden diese Paradoxien also eine kontraintuitive Schlussfolgerung, die zu einer grundlegenden Frage der Ressourcenallokation führt. Wenn die einfachsten Fähigkeiten für Menschen diejenigen sind, die Maschinen am schwierigsten sind und wenn diese stillen Fähigkeiten schwer oder unmöglich zu kodifizieren sind, dann erfordern die einfachsten Aufgaben, die Menschen unbewusst ausführen, enorme Mengen an Zeit, Mühe und Ressourcen.

Es entsteht eine umgekehrte Beziehung zwischen der Leichtigkeit, mit der eine Fertigkeit von einem Menschen ausgeführt werden kann und sowohl ihrer Beschreibbarkeit als auch ihrer Replizierbarkeit durch Maschinen. Die wichtigste wirtschaftliche Frage lautet also: Lohnt es sich KI zu entwickeln, um intuitive menschliche Aufgaben zu erfüllen? Warum immer mehr Ressourcen investieren, um eine KI zu entwickeln, die immer einfachere Aufgaben erfüllt?

Dies deutet auf eine natürliche Verlangsamung der allgemeinen KI-Entwicklung hin. Wenn die Opportunitätskosten der KI-Forschung, die es Maschinen ermöglicht, immer einfachere menschliche Aufgaben zu erfüllen, zu teuer werden, wird sich die Entwicklung verlangsamen, da die Erträge sinken.

Im Idealfall liegt die Zukunft der KI in ihrer Komplementarität mit menschlichen Fähigkeiten und nicht in ihrer Ersetzbarkeit. Die aktuelle Sichtweise von KI und ihrer Interaktion mit menschlichen Fähigkeiten erfordert ein ernsthaftes Umdenken in Bezug auf die Art der Probleme, für die sie entwickelt wird. Brauchen wir denn wirklich KI, um uns sagen zu können, dass rote Busse gleich blauen Bussen sind?