Was kann KI nicht?

Was kann KI nicht?

Ein Problem aus der Ökonometrie veranschaulicht den Unterschied zwischen künstlicher und menschlicher Intelligenz. Das Verständnis von implizitem Wissen und den Grenzen der KI ist entscheidend für ihren effektiven und fairen Einsatz.

Das Problem "roter Bus - blauer Bus", eines der einzigen anschaulichen Gedankenexperimente, das jemals von Ökonometrikern durchgeführt wurde, veranschaulicht einen zentralen Nachteil, der sich aus der Verwendung statistischer Schätzungen zur Quantifizierung der Wahrscheinlichkeit ergibt, mit der eine Person eine bestimmte Wahl trifft, wenn sie vor mehreren Alternativen steht. Das Gedankenexperiment geht so: Stellen Sie sich vor, dass es Ihnen gleichgültig ist, ob Sie mit dem Auto oder mit dem roten Bus zur Arbeit fahren. Aufgrund Ihrer Gleichgültigkeit lässt sich die Wahrscheinlichkeit, dass Sie sich für eine der beiden Optionen entscheiden, mit einem Münzwurf abschätzen. Es besteht eine 50-prozentige Chance, dass Sie das Auto nehmen, und eine 50-prozentige, dass Sie den roten Bus nehmen. Die Wahrscheinlichkeit der Wahl ist also eins zu eins.

Führen Sie nun in zwei verschiedenen Szenarien eine dritte Verkehrsmittelwahl ein und nehmen Sie an, dass der Reisende zwischen den alternativen Möglichkeiten gleichgültig bleibt. Im ersten Szenario wird eine neue Zugstrecke eröffnet, so dass der apathische Reisende nun die Alternativen Auto, roter Bus und Zug hat. Die geschätzten Wahrscheinlichkeiten sind nun ein Drittel Auto, ein Drittel roter Bus und ein Drittel Zug. Die Chancen sind dieselben wie beim Szenario mit zwei Möglichkeiten, nämlich eins zu eins zu eins.

Im zweiten Szenario wird angenommen, dass der Bus nicht rot, sondern blau sein könnte. Der Reisende steht also vor der Wahl, ein Auto zu nehmen, einen roten Bus oder einen blauen Bus. Gibt es einen wirklichen Unterschied zwischen der Fahrt mit einem roten und einem blauen Bus? Nein, es ist praktisch die gleiche Entscheidung. Die Wahrscheinlichkeiten sollten sich dann wie folgt aufteilen: 50 Prozent Auto, 25 Prozent roter Bus, 25 Prozent blauer Bus und Chancen von zwei zu eins zu eins.

Das liegt daran, dass die tatsächliche Wahl genau dieselbe ist wie beim ersten Szenario mit zwei Möglichkeiten, d. h. mit dem Auto oder mit dem Bus. Mit anderen Worten: Ein roter Bus und ein blauer Bus stellen die gleiche Wahl dar. Die Farbe des Busses ist für die Verkehrsmittelwahl des Reisenden unerheblich. Die Wahrscheinlichkeit, dass der apathische Reisende entweder einen roten oder einen blauen Bus wählt, ist also einfach die Hälfte der Wahrscheinlichkeit, dass die Person den Bus nimmt. Die Methode, mit der diese Wahrscheinlichkeiten geschätzt werden, ist jedoch nicht in der Lage, diese irrelevanten Alternativen zu entschlüsseln. Der Algorithmus kodiert Auto, roter Bus, blauer Bus als eins-zu-eins wie in dem Szenario mit dem Zug.

STILLSCHWEIGENDES WISSEN

  • Der Physiker Michael Polanyi definierte "stillschweigendes Wissen" als ein quantifizierbares oder allgemein verständliches Ergebnis, das ein Mensch bei der Ausführung einer Aufgabe erzielt, die nicht durch eine wiederholbare Regel kodifiziert werden kann. Er unterscheidet zwischen dieser Art von Wissen und abstraktem Wissen, das beschreibbar, regelgebunden und wiederholbar ist. Stillschweigendes Wissen lässt sich nur schwer oder gar nicht formell ausdrücken, weil die Menschen die Fähigkeiten, die es ausmachen, evolutionär entwickelt haben, bevor es formale Kommunikationsmethoden gab. Daher ist es äußerst schwierig, KI für die Ausführung von Aufgaben zu trainieren, die stillschweigendes Wissen erfordern.

Algorithmische Unzulänglichkeiten

Die (Nicht-)Wahl zwischen rotem und blauem Bus ist ein gutes Beispiel dafür, wie algorithmische Berechnungen versagen können. In ihrer Rohform können Modelle nicht die Feinheiten sprachlicher Beschreibungen unterscheiden, die Menschen nur schwer oder gar nicht erfassen können. Für einen Menschen ist es intuitiv zu verstehen, warum der rote und der blaue Bus identisch sind, wenn er Verkehrsmittelalternativen in Betracht zieht. Es ist sicherlich intuitiv, dass es einen Unterschied in der Auswahl gibt, wenn ein Zug und ein blauer Bus vorgestellt werden. Zu beschreiben, warum die Farbe des Busses als programmierbare Regel in einem algorithmischen Prozess irrelevant ist, ist dagegen äußerst schwierig. Warum ist dies der Fall?

Dieses Rätsel ist ein Beispiel für das Polanyi-Paradoxon, benannt nach dem Physiker Michael Polanyi. Das Paradoxon lautet einfach ausgedrückt: "Wir wissen mehr, als wir sagen können." Vollständiger ausgedrückt lautet das Paradoxon: "Wir wissen mehr, als wir sagen können, d. h. viele unserer Aufgaben beruhen auf stillschweigendem, intuitivem Wissen, das sich nur schwer kodifizieren und automatisieren lässt." Polanyis Paradoxon kommt immer dann ins Spiel, wenn eine Person etwas tun kann, aber nicht beschreiben kann, wie sie es tut.

In diesem Fall bedeutet "etwas tun" ein quantifizierbares oder allgemein verständliches Ergebnis, das ein Mensch durch die Ausführung einer Aufgabe erzielt, die nicht durch eine wiederholbare Regel kodifiziert werden kann. Polanyi nennt diese Art der menschlichen Leistung "stillschweigendes Wissen". Er unterscheidet zwischen dieser Art von Wissen und abstraktem Wissen, das beschreibbar, regelgebunden und wiederholbar ist.

Der Wirtschaftswissenschaftler David Autor verwendet Polanyis Paradoxon, um zu erklären, warum nicht alle menschlichen Berufe von Maschinen übernommen wurden. Wäre die Automatisierung nicht auf den abstrakten Bereich des Wissens beschränkt, hätten Maschinen alle menschlichen Aufgaben übernommen und die Zahl der Arbeitsplätze wäre seit den 1980er Jahren stark zurückgegangen. Die Automatisierung hat jedoch nicht zu diesem Ergebnis geführt, denn sie erfordert die Festlegung genauer Regeln, um Computern mitzuteilen, welche Aufgaben sie ausführen sollen. Stillschweigendes Wissen lässt sich jedoch nur schwer oder gar nicht formell ausdrücken, weil die Menschen die Fähigkeiten, die es ausmachen, evolutionär entwickelt haben, bevor es formelle Kommunikationsmethoden gab.

Evolutionäre Fertigkeiten

Stillschweigende, nicht beschreibbare Fähigkeiten sind der Kern eines anderen Paradoxons, das von den Forschern Hans Moravec, Rodney Brooks und Marvin Minsky formuliert wurde. Das "Moravec-Paradoxon" besagt, in kompakter Form, dass

  • Wir sollten davon ausgehen, dass die Schwierigkeit des Reverse-Engineerings einer menschlichen Fähigkeit in etwa proportional zu der Zeit ist, in der sich diese Fähigkeit bei Tieren entwickelt hat.
  • Die ältesten menschlichen Fähigkeiten sind weitgehend unbewusst und erscheinen uns daher mühelos.
  • Folglich sollten wir davon ausgehen, dass Fähigkeiten, die uns mühelos erscheinen, schwer umzuwandeln sind, während Fähigkeiten, die Anstrengung erfordern, nicht unbedingt schwer umzuwandeln sind.

Paradoxerweise erfordern mentales Denken und abstraktes Wissen nur sehr wenig Rechenleistung, während sensomotorische Fähigkeiten, die Visualisierung zukünftiger Ergebnisse und Wahrnehmungsinferenzen enorme Mengen an Rechenleistung erfordern. Wie Moravec in seinem Buch zu diesem Thema feststellt, "ist es vergleichsweise einfach, Computer in Intelligenztests oder beim Damespiel auf das Niveau eines Erwachsenen zu bringen, während es schwierig oder unmöglich ist, ihnen die Fähigkeiten eines Einjährigen in Bezug auf Wahrnehmung und Mobilität zu vermitteln".

Wenn man die Paradoxien von Polanyi und Moravec zu einem gemeinsamen Thema zusammenfasst, dann hat der Mensch das abstrakte Denken erst in den letzten paar tausend Jahren entwickelt, und es erscheint unserer Spezies schwierig, weil es aufgrund seiner relativ schnellen Entwicklung neu und von Natur aus schwer zu begreifen ist. Im Gegensatz dazu hat der Mensch im Laufe seiner Evolutionsgeschichte stillschweigende, intuitive, aber unbeschreibliche Fähigkeiten entwickelt. Sie sind in unserer Umgebung verankert, wurden durch Erfahrung erworben und sind der Erklärung vorausgegangen.

Die Zukunft der KI ist komplementär

Für die künstliche Intelligenz ergibt sich aus diesen Paradoxien eine kontraintuitive Schlussfolgerung, die zu einer grundlegenden Frage der Ressourcenverteilung führt. Wenn die einfachsten Fähigkeiten für den Menschen diejenigen sind, die für Maschinen am schwierigsten sind, und wenn diese stillschweigenden Fähigkeiten schwierig oder unmöglich zu kodifizieren sind, dann erfordern die einfachsten Aufgaben, die Menschen unbewusst ausführen, enorme Mengen an Zeit, Mühe und Ressourcen, um sie Maschinen beizubringen.

Es besteht ein umgekehrtes Verhältnis zwischen der Leichtigkeit, mit der ein Mensch eine Fähigkeit ausführt, und ihrer Beschreibbarkeit und folglich ihrer Reproduzierbarkeit durch Maschinen. Die wichtigste wirtschaftliche Frage lautet also: Lohnt es sich, KI zu entwickeln, um intuitive menschliche Aufgaben zu übernehmen? Warum sollte man immer mehr Ressourcen in die Entwicklung von KI investieren, die immer einfachere Aufgaben ausführt?

Dies deutet auf eine natürliche Verlangsamung der allgemeinen KI-Entwicklung hin. Auch wenn das Mooresche Gesetz darauf hinweist, dass die Rechenleistung von Computern um das Billionenfache zunimmt, hat sich die Logik, nach der wir mit Computern kommunizieren, seit den 1970er Jahren nicht wesentlich verändert. Wenn die Opportunitätskosten der KI-Forschung, die es Maschinen ermöglicht, immer einfachere menschliche Aufgaben zu übernehmen, zu hoch werden, wird sich die Entwicklung verlangsamen, da der Nutzen abnimmt.

Im Idealfall, so Autor, liegt die Zukunft der KI eher in ihrer Komplementarität mit menschlichen Fähigkeiten als in ihrer Substituierbarkeit durch diese. Bis zur Computerrevolution in den 1970er und 1980er Jahren beschäftigten Statistiker beispielsweise ganze Heerscharen von Studenten, die Unmengen von Daten auf Papier von Hand in zusammenfassende Statistiken wie Mittelwerte, Mediane und Standardabweichungen umwandelten. Mit dem Aufkommen elektronischer Taschenrechner und später von Computern konnten Statistiken, die früher Stunden oder Tage menschlicher Arbeit erforderten, in Sekundenschnelle berechnet werden.

Mit dieser Veränderung der Berechnungsmethoden konnten Maschinen die Teams der Statistikforscher ergänzen, indem sie die einfachen, wiederholbaren arithmetischen Aufgaben der Studenten übernahmen. Dadurch wurde für Statistiker und ihre Studenten im Team eine Menge Zeit frei, um nebulösere, offene statistische Probleme zu lösen, die genau die Art von kreativem Denken erfordern, das Computer nicht gut beherrschen. Die derzeitige Sichtweise auf KI und ihre Interaktion mit menschlichen Fähigkeiten bedarf eines ernsthaften Umdenkens im Hinblick auf die Art der Probleme, für die sie entwickelt wird. Brauchen wir denn wirklich eine KI, die uns sagt, dass rote Busse dasselbe sind wie blaue Busse?

Das könnte dich auch interessieren