12.12.2024
Die Mystifizierung von Künstlicher Intelligenz

Algorithmen sehen dich an

Trotz beginnender Ernüchterung wird der Hype um KI-Systeme immer noch mit großem Aufwand aufrechterhalten. Magisches Denken spielt dabei eine wichtige Rolle, was auch die Mystifizierung von Künstlicher Intelligenz als menschlich-übermenschlich zeigt.

Der Informatiker und KI-Experte ­Joseph Weizenbaum konzipierte Mitte der Sechziger ein Dialogprogramm namens »Eliza«, das in engem Rahmen fähig war, in natürlicher Sprache mit Menschen zu interagieren. Die Machart des Programms und die »Gespräche«, die es führen konnte, waren freilich extrem simpel.

Mit ein paar wenigen Triggerbegriffen programmiert, wendete die Software den Trick an, Themen, die der menschliche Gesprächspartner aufbrachte, mit einfachen Rückfragen oder reformulierten Wiederholungen an ihn zurückzuspielen: »Sie haben eben von Ihrem Vater gesprochen. Können Sie mir mehr über Ihre Familie erzählen?« Das reichte aus, um bei Menschen, die mit Eliza »sprachen«, den Eindruck zu erwecken, es mit einer denkenden, empathischen Maschine zu tun zu haben.

Die Nutzung der offen zugänglichen Variante Chat GPT erreichte in kürzester Zeit in schwindelerregende Höhen (100 Millionen Nutzer innerhalb einer Woche), das Stichwort »KI« wurde noch weit inflationärer benutzt als der Begriff »Blockchain« zu den schlimmsten Zeiten des Crypto-Wahns.

Weizenbaum war der Meinung, dass dies eine fundamentale Gefahr im Umgang mit Informatik illus­trierte: das Missverständnis, dass die nur scheinbar sinnhafte Kommunikation mit einer Maschine auf deren Denk- und Empfindungsfähigkeit beruhen müsse. Seine radikale Kritik an dem Missbrauch von Computern entwickelte er 1977 in seinem Buch »Die Macht der Computer und die Ohnmacht der Vernunft«, das immer noch lesenswert ist. Man muss Weizenbaums Standpunkt nicht ganz und gar teilen, um ihn relevant zu finden; man muss sich nur mit dem immer noch anhaltenden jüngsten Hype um Künstliche Intelligenz beschäftigen.

Denn alle Vorsicht war vergessen, als zum Beispiel im November 2022 der Google-Mitarbeiter Blake Lemoine nach Unterhaltungen mit der konzerneigenen KI Lamda (kurz für »Language Model for Dialogue Applications«) zu dem Schluss kam, sie sei »empfindungsfähig«, ein »Kollege« und »eine Person«. Google entließ Lemoine daraufhin, doch das verstärkte eher noch das Aufsehen, das seine Äußerungen erzeugten; jemand, der das Publikum von der Menschenähnlichkeit der KI-Konstrukte überzeugen will, hätte sich keine bessere PR wünschen können. Es mag in diesem Zusammenhang unerheblich sein, dass Lemoine nicht nur KI-Experte, sondern auch Priester ist, aber wenn man sich seine Aussagen von vor zwei Jahren und seitdem anschaut, ist unübersehbar, dass er glaubt, weil er glauben will.

Rhetorik der Überhöhung

Mit der Version 3.5 von GPT (kurz für »Generative Pre-trained Transformer«), entwickelt von Open AI, explodierte dann der Hype regelrecht. Die Nutzung der offen zugänglichen Variante Chat GPT erreichte in kürzester Zeit schwindelerregende Höhen (100 Millionen Nutzer innerhalb einer Woche), das Stichwort »KI« wurde noch weit inflationärer benutzt als der Begriff »Blockchain« zu den schlimmsten Zeiten des Crypto-Wahns.

Firmen, die mit dem KI-Boom in Verbindung gebracht wurden, wie zum Beispiel der Hardware-Hersteller Nvidia, erlebten goldene Zeiten, was Umsatz, Gewinn und Börsenwert anging. Die KI wusste alles, konnte ­alles, und was sie noch nicht konnte, würde sie bald lernen.

Es ist eine ähnliche Entwicklung wie bei all den Wunderdingen, die vorher kamen, also bei Big-Data-Technologien, der »Datenautobahn«, ­Expertensystemen, Fuzzy Logic und neuronalen Netzwerken, Transistoren und wahrscheinlich auch schon Kernspeichern in den fünfziger Jahren. Die Rhetorik der Überhöhung der jeweils neuesten KI-Technologien ist so alt wie das Fachgebiet selbst. Marvin Minsky, der 1965 den Begriff »Künstliche Intelligenz« prägte, sagte jahrzehntelang immer wieder voraus, dass die KI bald die unglaublichsten Dinge ermöglichen werde, und das Scheitern all seiner Voraussagen hielt ihn nicht im Mindesten davon ab, immer weiter in dem Feld tätig zu sein. Sein Buch »The Society of Mind« (1987, auf Deutsch unter dem Titel »Mentopolis« erschienen) ist übrigens ebenfalls noch lesenswert.

Chatbot Eliza

Vom Computer auf die Couch gelegt. 1966 sorgte der erste Chatbot Eliza für Aufsehen

Bild:
Wikimedia Commons

In dem Klima der Vermenschlichung und Verübermenschlichung der neuen Wunderalgorithmen hatten es kritische Stimmen schwer. Zum Beispiel erwähnte Meredith Whittaker, ebenfalls eine ehemalige Google-Angestellte, bereits 2021, dass die fundamentalen Konzepte hinter dem neuen Boom mehrere Jahrzehnte alt sind. Der Unterschied zu ihrem ersten Auftritt in den Acht­zigern und Neunzigern besteht maßgeblich darin, dass sich erst seit etwa 2010 genug Kapital und Rechenpower bei Facebook, Google, Micro­soft et cetera konzentrierten, um über das Internet und besonders über so­ziale Medien gigantische Datenmengen anzusammeln und auszuwerten. Diese lieferten dann das notwendige Futter für die lange bekannten, grund­sätzlich auf statistischen Verfahren beruhenden KI-Algorithmen. Dieser Aspekt der »KI-Revolution« – gewissermaßen ein Akt der ursprünglichen Akkumulation im IT-Bereich – bekam in den öffentlichen Debatten viel zu wenig Aufmerksamkeit. Noch weniger Gehör fand Whittakers logische Schlussfolgerung, dass KI nicht erst in der Anwendung, sondern schon in der Genese eine Überwachungstechnologie ist.

Erst in jüngster Zeit wird die Kritik an der KI-Welle lauter. Das hat sicher damit zu tun, dass die Begeisterung allgemein ein wenig abgekühlt ist, weil die neuen Wunderdinge sich allmählich als doch nicht ganz so leicht zu monetarisieren erweisen. Unter anderem deswegen, weil KIs eine relevante Fehlerrate produzieren, die derzeit auch mit immer mehr Trainingsdaten nicht wesentlich gesenkt werden kann.

Enormer Energieverbrauch, urheberrechtliche Aspekte

Nicht nur das – »mächtigere« KIs tendieren dazu, sich mit größerem Nachdruck auf ihre Fehler zu versteifen. Das bereitet der KI-Community nicht geringe Kopfschmerzen. Und so ist man derzeit eher bereit, Äußerungen wie die des britischen Science-Fiction-Autors Charles Stross zu beachten, der vor einiger Zeit daran erinnerte, dass die neuen KI-Systeme immer noch nur »stochastische Papageien« sind, die schlicht neu kombiniert zurückspielen, was man ihnen vorher eingeflößt hat. Immer mehr Rechen­power und eine immer größere Datenbasis ändern daran nichts.

Apropos »immer mehr Rechen­power« und »immer größere Datenbasis« – verstärkt rückt auch der enorme Energieverbrauch für die KI in den Blick sowie die Frage, wie es eigentlich um die urheberrechtlichen Aspekte der KI-Datensammelei steht. Microsofts oberster KI-Funktionär Mustafa Suleyman rief im Juli ziemlich viel Stirnrunzeln hervor, als er meinte, dass alles, was im Internet offen abrufbar ist, für KI-Training abgesaugt werden könne. Warum das unter anderem mit den Fair-Use-Bestimmungen des US-Urheberrechts kollidiert, hat der ehemalige Open-AI-Mitarbeiter Suchir Balaji jüngst in einer Abhandlung dargelegt.

Einen wesentlichen Beitrag zur Entmystifizierung der KI als vermeintlich menschenähnliches Bewusstsein lieferte neulich eine Untersuchung von Apple, die sich mit der Frage beschäftigte, ob sich bei den fortgeschrittensten KI-Modellen nicht doch so etwas wie echte Kognition und intrinsische Rationalität erkennen lasse.

Bessere Mustererkenner, aber nicht bessere Denker

Die Mitglieder der Apple-Forschungsabteilung traten nicht mit der vorgefassten Meinung an die derzeit besten KI-Systeme heran, sie seien Superintelligenzen, sondern konfrontierten sie mit simplen Fangfragen, wie zum Beispiel: »Oliver pflückt am Freitag 44 Kiwis und 58 Kiwis am Samstag. Am Sonntag pflückt er doppelt so viele Kiwis wie am Freitag, aber fünf von ihnen waren etwas kleiner als der Durchschnitt. Wie viele Kiwis hat Oliver?«

Open AI O1-mini und Meta Llama 3-8B zum Beispiel gaben zur Antwort, dass die fünf kleineren Kiwis von der Endsumme abgezogen werden müssten – ein Fehler, der einem Viertklässler nicht unterlaufen sollte. Der Schluss der Apple-Forscher, die viele solcher Fehlleistungen analysierten: Das Verhalten der KI sei viel besser durch ihre Kernkompetenz »Mustererkennung« zu erklären als durch die Unterstellung rationalen Denkvermögens.

Sogar die Veränderung von Personennamen in den Fangfragen habe erhebliche Abweichungen bei den Resultaten hervorgerufen. Ihrer Überzeugung nach ist das ein grundsätzliches Problem der statistikbasierten KI-Modelle, das mit mehr Daten­material und größerer Rechenpower nicht zu lösen sei – dabei würden höchstens bessere Mustererkenner herauskommen, aber nicht bessere Denker.

Entmysti­fizierung der KI

So erfrischend diese Realitätsprüfung auch ist: Man muss sich darüber im Klaren sein, dass der Entmysti­fizierung der KI mächtige Faktoren entgegenstehen. Da ist zum einen die menschliche Tendenz, etwas, das sprechen kann, auch für einen Jemand zu halten. Der Wunsch nach sinnvoller Kommunikation mit einem Gegenüber ist so dringlich, dass man sogar dort Sinn hineinphantasiert, wo gar kein Gegenüber existiert.

Das schlägt sich auch in der menschlichen Sprache nieder, die denkbar schlecht an Situationen angepasst ist, in denen Maschinen Symbole eigenständig sinnvoll zu verknüpfen scheinen. Ständig ist davon die Rede, dass die KI etwas »kann«, dass sie auf eine bestimmte Weise »handelt«, dass sie Emotionen ausdrücke, Beziehungen eingehe, Strategien der Aggression, des Ausweichens, der Täuschung benutze. Sogar für das offensichtliche Wiederkäuen von Unsinn findet die Sprache eine anthropomorphisierende Formel: Die KI »halluziniert« dann. Die menschliche Sprache steht der nüchternen Einschätzung von Maschinen entgegen, denen man das Sprechen beigebracht hat.

Kern der gegenwärtigen Hysterie

Der zweite, mindestens ebenso mächtige Mythenverstärker sind die ökonomischen und politischen Inter­essen, die sich mit der KI verknüpft haben. Auf allen Kanälen werden ihr menschliche, ja übermenschliche Fähigkeiten attestiert, um mit ihrer Hilfe unmenschliche Dinge zu betreiben. Von der Automatisierung des Überwachungsstaats über die moderne Kriegführung bis zur Perfektionierung von Werbe- und Verkaufsstrategien in einer destruktiven Konsumgesellschaft ist da alles geboten.

Neuerdings will man sogar die Nu­klearwirtschaft wiederbeleben, weil der katastrophale Energiehunger der KI anders nicht zu befriedigen sei. Es sind diese sehr handfesten Interessen, die im Kontrast zu den lächerlichen Heilsversprechen und den ­infantilen Katastrophenphantasien den eigentlichen Kern der gegenwärtigen Hysterie ausmachen.

Ständig ist davon die Rede, dass die KI etwas »kann«, dass sie auf eine bestimmte Weise »handelt«, dass sie Emotionen ausdrücke.

Bei der Kritik der Hysterie sollte aber auch nicht behauptet werden, dass sich seit den Zeiten von Eliza nichts Nennenswertes geändert habe. Damit würde nicht nur den offensichtlichen technischen Fortschritt der vergangenen Jahrzehnte unterschätzt, sondern auch die realen Gefahren verniedlicht, die die neuen KI-Technologien bergen.

Es ist auch nicht sinnvoll, alte anthropozentrische Sprüche aus der Mottenkiste zu holen. »Elektronengehirne können nie intelligent sein« oder »Computer machen nur das, was Programmierer ihnen befehlen« – das sind konservative, schlecht informierte Abwehrreaktionen, die die stetig steigende Komplexität von Computersystemen ausblenden und vor allem nicht berücksichtigen, dass Menschen nichtmenschliche Entitäten für intelligent halten wollen, und zwar nicht erst seit dem Schachroboter, den Wolfgang von Kempelen 1769 entwickele und den er »Schachtürken« nannte.

Nüchtern bleibt festzuhalten: Derzeit gibt es keinen Beleg für die erhoffte oder befürchtete »Emergenz« von echter Kognition bei KI-Systemen. Don’t believe the hype. Die Frage ist: Wer hantiert wann zu welchem Zweck mit KI? Das heißt: Es geht um Aufklärung.