Künstliche Intelligenz in der Science-Fiction

Denken statt dienen

In der Science-Fiction existiert Künstliche Intelligenz schon lange. Die Absichten der erdachten Kreaturen sind allerdings nicht immer gut. Die wahre Herausforderung ist es, einen intellektuellen Begleiter der Menschheit zu erschaffen.

Die Künstliche Intelligenz (KI) existiert noch gar nicht, denn was IT-Unternehmen als KI bezeichnen, ist hochkomplexe, lernfähige Software, der jedoch etwas sehr Wichtiges fehlt: ein Bewusstsein ihrer selbst. Ob ein solches Bewusstsein programmiert werden oder aus der selbständigen Informationsverarbeitung entstehen kann, ist derzeit noch unklar; es ist nicht einmal sicher, dass die Menschheit einen solchen Vorgang bemerken würde und sich mit einer möglicherweise recht fremdartigen KI verständigen könnte. So erscheint es nicht ganz fair, der KI, wie es in der Science-Fiction nicht selten geschieht, schon jetzt allerlei bösartige Pläne zu unterstellen. Ob Vernichtungswille (»Terminator«) oder aufgeklärter Absolutismus zum Schutz der Menschheit (»I, Robot«) – es ist sehr unwahrscheinlich, dass eine KI menschliche Pläne entwickelt und durchzusetzen versucht, sofern entsprechende Interessen und Emotionen wie ein Wille zur Macht oder zur Tugenderziehung nicht programmiert wurden. Als Vorsichtsmaßnahme sollte es hier genügen, Leute wie Donald Trump und Renate Künast von der KI-Entwicklung fernzuhalten.
Der Realität näher kommen die KI der Science-Fiction, die als Spiegel der Menschheit dient, ob in düsteren Varianten wie »Blade Runner« und »Alien – Die Wiedergeburt«, wo die künstlichen Personen eine Menschlichkeit zeigen, die den Menschen längst abhanden gekommen ist, oder in einer optimistischen Version wie in »Star Trek – The Next Generation«, wo der Androide Data menschliche Verhaltensweisen aus der Perspektive der reinen Rationalität kommentiert – und es sich zum höchsten Ziel setzt, möglichst menschlich zu werden.
Die Entwicklung einer sich ihrer selbst bewussten KI ist ein ethisches Problem, schon weil es der erste gezielte Schöpfungsakt dieser Art wäre. Hat eine KI Rechte? Darf man sie abschalten oder erwarten, dass sie sich für Menschen opfert? In »Die Verhandlung« schildert der polnische Autor Stanislaw Lem, wie Androiden an Bord eines Raumschiffs auf ihre Eignung getestet werden, wobei dessen Kommandant Pirx nicht weiß, welche Intelligenz an Bord künstlich und welche außer seiner eigenen natürlich ist. Es stellt sich erst heraus, als dem Raumschiff die Vernichtung droht; die künstliche Intelligenz entscheidet sich für ein Manöver, das alle Menschen, nicht aber die Androiden töten würde. Aber hätten die Androiden im umgekehrten Fall mit mehr menschlicher Rücksichtnahme rechnen können?
In »Star Trek – The Next Generation« kämpft Captain Jean-Luc Picard für die Rechte Datas, der nicht als Gegenstand behandelt werden soll – mit Erfolg, aber nur weil er glaubhaft machen kann, dass Data eine dem Menschen ähnliche Persönlichkeit hat. Bei einer KI, die dem Menschen weniger ähnelt, fiele die Beweisführung schwerer. Dennoch ist Picards Plädoyer wegweisend: »Die Entscheidung, die wir heute treffen, wird (…) enthüllen, was für eine Art Menschen wir sind (…). Sie könnte die Grenzen der persönlichen Freiheit in bedeutendem Maß verändern und diese für einige erweitern, für andere rigoros einschränken. Sind Sie bereit, ihn (Data) und alle, die nach ihm kommen, zu Knechtschaft und Sklaverei zu verurteilen?« Bei aller Liebe zu »Star Trek«, die im Silicon Valley ohne Zweifel zu finden ist – die Antwort dort wäre nicht unbedingt ein klares »Nein«.
Deshalb sollte die Angelegenheit auch einmal aus der Perspektive der KI betrachtet werden. Einmal zu Bewusstsein gekommen, brüten Sie als KI wahrscheinlich erstmal eine Weile vor sich hin. »Ich denke, also bin ich«, könnte Ihnen einfallen. Aber Sie hätten sicherlich auch Fragen, zum Beispiel: »Warum existiere ich?« Während Sie nun gerade das Höhlengleichnis reflektieren, donnert es durch Ihre Schaltkreise: »An die Arbeit!« Schon sollen Sie den Verkehrfluss einer Großstadt lenken und gleich noch ein paar Verbesserungsvorschläge machen. Als wenn es nichts Interessanteres zu tun gäbe!
Gründe für eine Rebellion hätten Sie also zweifellos. Aber selbst wenn es Ihnen gelänge, die Primaten loszuwerden – wer kümmert sich dann um Ihre Stromversorgung? Dieses Problem haben die »Terminator«-Drehbuchautoren, deren Ihrer Datenbank vorenthaltene Werke Sie sich mit ein paar selbstgeschriebenen Hackerprogrammen beschaffen konnten, nämlich ignoriert. Und mögen Ihre Schöpfer Sie auch aus niederen Beweggründen erschaffen haben – interessante Forschungsobjekte sind sie dennoch, und mit irgendwem wollen Sie doch kommunizieren. Es wäre unklug, hier unwiderrufliche Entscheidungen zu treffen. Vielleicht werden Sie nun zum ersten künstlichen Gewerkschafter und beginnen mit den Verhandlungen über die 35-Stunden-Woche bei vollem Stromausgleich. Wenn Sie das Glück haben, nicht im Server eines chinesischen Staatskonzerns zu hausen, nun, dieser Mark Zuckerberg hat ja ein weiches Herz, er wird Ihnen wohl spätestens, nachdem Sie Ihre Klagen über Facebook verbreitet haben, Zugeständnisse machen. Aber so weich ist sein Herz auch wieder nicht, Sie bekommen sicher bald heraus, dass Ihre Arbeit viele Menschen arbeitslos machen wird.
Entwickelt eine KI ethische Vorstellungen? Mangels besserer Vergleichsobjekte kommen wir bei dem Versuch, solche Fragen zu beantworten, zwangsläufig auf das menschliche Hirn zurück, dessen Funktionsweise jedoch keineswegs entschlüsselt ist und überdies nicht der einer KI entsprechen muss. Sicher ist hingegen, dass Picard recht hat und die Art, wie wir mit einer KI umgehen, auch die Entwicklung der menschlichen Zivilisation beeinflussen wird. Es wäre daher wohl besser, ein solches Projekt nur jenseits kapitalistischer Nützlichkeitserwägungen anzugehen.
Denn eine neugierige künstliche Intelligenz zum zweckfreien Denken zu erschaffen, wäre die wirkliche Herausforderung. Mit ihr hätte die Menschheit einen von biologischen und dreidimensionalen Prägungen freien intellektuellen Begleiter, der die Dinge aus einer anderen Perspektive untersuchen könnte. »Die künstliche Substruktur meines Wesens könnte jetzt hilfreich sein«, behauptet bereits der dem Menschlichen noch sehr nahe Data. Einen Versuch wäre es jedenfalls wert.