Zwischen Utopie und Bedrohung – gehört die Zukunft der Künstlichen Intelligenz?

Die Intelligenzexplosion

Die Entwicklung von Künstlicher Intelligenz generiert apokalyptische und utopische Visionen zugleich. Viele sehen darin aufgrund der Unberechenbarkeit der denkenden Maschine eine Gefahr für die Menschheit. Was ist Künstliche Intelligenz eigentlich und warum sollen Maschinen das Denken lernen?
Von

Ein Informatikerwitz geht so: Ein Programmierer entwirft einen intelligenten Computer, der 1 000mal klüger ist als er selbst, schaltet ihn ein und sagt zu ihm: »So, und nun entwickele für mich einen Computer, der noch viel klüger ist als du.« Der intelligente Computer überlegt kurz, verschränkt die virtuellen Arme und sagt zu seinem Schöpfer: »Nö. Und jetzt knie nieder.« Der Witz scheint immer aktueller zu werden: Künstliche Intelligenzen überflügeln den Menschen in immer neuen Disziplinen, schlagen ihn im Schach, Jeopardy und dem Brettspiel Go, während etliche Intellektuelle vor einer Machtübernahme der Maschinen und der Abschaffung der Arbeit warnen – oder sich schon darauf freuen. Droht uns also entweder die Versklavung oder die Erlösung durch einen Maschinengott?
Das jedenfalls glauben Singularitaner wie Googles Technikdirektor Ray Kurzweil. Ihr Gedankengang geht so: Etwa alle zwei Jahre verdoppelt sich die Rechenleistung von Computern und damit auch deren Intelligenz. Ein derartiges exponentielles Wachstum müsste an einem bestimmten Punkt zu einer Intelligenzexplosion führen. Sie rechnen vor, welche Leistungsfähigkeit ein Computer haben muss, um einem menschlichen Gehirn ebenbürtig zu sein. Und dieser Computer könnte neue, noch intelligentere Computer entwerfen, die wiederum in immer schnellerer Folge noch intelligentere Nachfolger hervorbringen.
Das Ergebnis dieser Intelligenzexplosion wäre eine quasi allmächtige, gottgleiche Maschine, die alle Probleme der Menschheit lösen und den Menschen ewiges Leben bescheren soll, womit klar wird, dass die Grenzen zwischen seriöser Informatik und Techno-Religion fließend sind. Und natürlich ist auch ein ganz anderer Verlauf denkbar: Eine solche Superintelligenz könnte den Menschen eine Bedeutung irgendwo zwischen Mikrobe und Ameise beimessen und sie entsprechend behandeln.
Intelligenz ohne Denken
Ende März sorgte für Aufregung, dass eine von Microsoft entwickwelte künstliche Intelligenz innerhalb von 24 Stunden zum Nazi mutierte. Ein als weiblicher Teenager gestalteter Chatbot namens Tay war darauf programmiert, mit Menschen auf Twitter zu interagieren und dabei hinzuzulernen. Spaßvögel aus dem berüchtigten Online-Forum »4chan« verabredeten sich, um die unschuldige Tay gründlich zu verziehen. Sie fütterten sie so lange mit entsprechendem Vokabular, bis sie den Holocaust leugnete, People of Color ins KZ schicken wollte und Völkermord befürwortete. Nachdem der Chatbot in einem zweiten Anlauf angefangen hatte, übers Kiffen zu reden, und schließlich in einer Art digitalem Nervenzusammenbruch Tausende Twitter-Nutzer mit dem Satz »You are too fast, please take a rest … « zumüllte, musste Microsoft ihn endgültig vom Netz nehmen. Wenn es überhaupt weitere öffentliche Experimente mit Tay geben wird, soll sie ein Wertesystem einprogrammiert bekommen und »bösartige Inhalte« erkennen können.
Das Ganze ist weit mehr als ein PR-Desaster für Microsoft, schließlich wurde der Weltöffentlichkeit vorgeführt, wie Künstliche Intelligenz sich komplett danebenbenimmt und innerhalb kürzester Zeit zum Nazi mutiert. Deutlicher lässt sich kaum zeigen, warum Kritiker von Künstlicher Intelligenz darin eine Gefahr für die Menschheit sehen. Doch für eine Bewertung lohnt es sich, einen Schritt zurückzutreten: Was genau ist eigentlich Künstliche Intelligenz?
Bei »Intelligenz« denkt man an Menschen und vielleicht noch an Tiere, etwa Affen und Delphine. Man unterstellt unbewusst, dass Intelligenz ein Wesen, eine Seele, so etwas wie Ziele, Wünsche, Emotionen und Intentionen hat. Davon ist die reale Künstliche Intelligenz heutzutage allerdings weit entfernt. Es handelt sich schlicht um komplexe Algorithmen, die in der Lage sind, sehr eng umgrenzte Aufgaben zu lösen, etwa Schach zu spielen oder Sprache zu erkennen. Schaltet man mehrere solcher Einzelsysteme zusammen, kommen Assistenten wie etwa Siri heraus, die Sprachkommandos entgegennehmen und mehr oder weniger sinnvoll beantworten können.
Die Lösungen der einzelnen Aufgaben sind allerdings so komplex, dass kein Mensch mehr in der Lage ist, sie zu programmieren. Deshalb wenden Informatiker einen Trick an: Selbstlernende Systeme, die in ihrer Struktur teilweise dem menschlichen Gehirn ähneln, versuchen nach dem Prinzip »Versuch und Irrtum« so lange eine Auf­gabe zu lösen, bis sie aufgrund der ge­sammelten Daten eine Antwort ­geben können, die wahrscheinlich die beste ist. Künstliche Intelligenz denkt nicht kreativ, sondern ist Statistikerin. Sie gibt anhand des bisher Gelernten diejenige Antwort, die mit der höchsten Wahrscheinlichkeit richtig sein könnte – und sehr oft auch ist, wenn das System gut mit Information ge­füttert wurde.
Wie wenig diese Intelligenz mit menschlichem Denken zu tun hat, zeigte der Chatbot Tay unfreiwillig mit seinem Kiffer-Tweet. Die Maschine kann anhand ihrer Datenbank einen Tweet übers Kiffen schreiben, sie hat aber keine Vorstellung davon, was Kiffen eigentlich ist und wie es sich anfühlt, stoned zu sein. Dafür bräuchte sie ein menschliches Gehirn samt zugehörigem Körper und Stoffwechsel.
Lernfähig, aber unberechenbar
Entwarnung kann aber trotzdem nicht gegeben werden. Künstliche Intelligenz kann sich zu einer Gefahr entwickeln, gerade weil sie so wenig perfekt ist. Die Informatiker, die sie entwickeln, haben nämlich nur sehr begrenzte Möglichkeiten, sie zu kontrollieren. Der Lernprozess ist so komplex, dass niemand genau weiß, was die Maschine eigentlich gelernt hat. Deshalb ist auch unberechenbar, was eine künstliche Intelligenz so treibt. Das ist harmlos, solange Siri im Telefon das Wetter vorhersagen soll oder selbstfahrende Autos vermutlich weniger tödliche Unfälle verursachen werden als menschliche Fahrer.
Wie die Anwendung von Künstlicher Intelligenz sich zu einer Gefahr aufschaukeln könnte, zeigt ein Fall aus dem Jahr 2008: Auf der Startseite des News-Angebots von The Sun-Sentinel taucht eine Meldung über den Bankrott von United Airlines auf. Die Fluglinie war tatsächlich Jahre zuvor bankrott, hatte sich aber längst erholt. Trotzdem reagieren Quant-Fonds auf diese Meldung. Das sind Aktienfonds, die komplett von Algorithmen verwaltet werden. Dabei werten sie unter anderem auch News-Seiten aus wie eben die Startseite von The Sun-Sentinel und geben ­dabei dem Inhalt des »Meistgelesen«-Kastens besonderes Gewicht – auch wenn dort versehentlich auf einen völlig veralteten Artikel verlinkt wird. Kurz: Quant-Fonds verkaufen, der Kurs sinkt, was weitere Fonds dazu veranlasst zu verkaufen, und innerhalb von Minuten ist United Airlines eine Milliarde Dollar weniger wert.
Künstliche Intelligenz soll Menschen Entscheidungen abnehmen. Welche Aktien soll man kaufen? Welche Route fährt man am besten mit dem Auto? Wie ist eine bestimmte Krankheit sinnvoll zu behandeln? Ist der Mensch, der gerade von einer Überwachungskamera gefilmt wurde, ein langgesuchter Terrorist? Auch wenn die Algorithmen des Jahres 2008 nicht mit den Künstlichen Intelligenzen des Jahres 2016 vergleichbar sind, zeigt das Beispiel United Airlines eindrucksvoll, was passieren kann, wenn Maschinen Entscheidungen fällen. Das macht nichts, solange diese Maschinen durch Menschen kontrolliert werden können und sich berechenbar verhalten. Doch wenn selbstlernende Systeme eingesetzt werden, von denen selbst ihre Entwickler nicht so genau wissen, wie und warum sie zu einer bestimmten Entscheidung finden, ist keine wirksame Kontrolle mehr möglich.
Genau davor warnen gerade Berühmtheiten wie Bill Gates (Microsoft), Steve Wozniac (Apple) und Elon Musk (Tesla). Der Physiker Stephen Hawking erwartet große Gefahren, sollten Waffensysteme mit Künstlicher Intelligenz ausgestattet werden – was vom derzeitigen Drohnenkrieg kein allzu weiter Schritt mehr wäre.
Das hält aber weder Microsoft noch Tesla, Apple oder Google davon ab, im großen Stil in Künstliche Intelligenz zu investieren. Mindestens genauso unberechenbar wie diese sind menschliche Entscheidungen. Und noch größer als die Angst vor der Künstlichen Intelligenz ist wohl die Angst vor einem Konkurrenten, der sie einsetzt.