Sprachlose Maschinen

Zu politisch für den Apparat

Die Künstliche Intelligenz scheiterte Ende der achtziger Jahre an der Sprachverarbeitung. Selten war ein Scheitern lehrreicher als dieses.

Künstliche Intelligenz (KI) heißt der Versuch, Fähig­keiten des Menschen in Maschinen nachzubauen. Es ist ein humanistisches Projekt, wenn auch kein humanitäres. Der Humanismus will wissen, was der Mensch ist. Wer es genau wüsste, müsste ihn nachbauen können. Wer ihn nachbauen könnte, könnte ihn ersetzen. Wer ihn ersetzen könnte, könnte sich viel Ärger und Kosten sparen. So gehen Erkenntnis- und Erwerbsinteresse Hand in Hand.
Man fing ganz oben an. Die merkwürdigste Fähigkeit des Menschen ist sein Gebrauch von symbolischer Sprache. Symbolische Sprache nachzubilden, sollte so schwer nicht sein. Computer verarbeiten Symbole, Menschen verarbeiten Symbole, was sollte uns darin hindern, die eine Sprache in die andere zu übersetzen?

So dachten die Forscher in den sechziger und siebziger Jahren und scheiterten Ende der achtziger auf ganzer Linie. Der völligen Ernüchterung folgte eine Kehrtwende. Die Programme, die danach entwickelt wurden, sollten nicht mehr den hohen Zielen der KI folgen. Sie sollten nicht mehr die natürliche Sprache modellieren, sondern bloß einige praktische Zwecke erfüllen; Informationen ordnen und suchen, formatierte Fragen beantworten, auch übersetzen.
Als vorläufigen Höhepunkt dieser rein praktischen Sprachverarbeitung führen auch die Fachleute die Suchmaschine Google an.
Diese Suchmaschine kann unendlich viel mehr und unendlich viel weniger als ein Mensch. Sie kann Gebirge von Informationen in Sekundenbruchteilen durchsuchen, sie kann falsch geschriebene Wörter automatisch verbessern, sie kann Sprachen erkennen. Übersetzen kann sie allerdings nicht und auf simple Fragen antworten auch nicht. Selbstverständlich ist genau das der Ehrgeiz der Entwickler, denn eine Maschine, die in natürlicher Sprache Auskunft geben, gar sich unterhalten könnte, wäre Gold wert. Damit sind sie aber vor genau dieselben Probleme gestellt, die sie vor 20 Jahren für un­überwindbar gehalten haben.
Um zu verstehen, welcher Art diese Probleme sind, muss man sich kurz vergegenwärtigen, was Sprache sein kann. Was Sprache ist, weiß keiner. Zwei Ansichten konkurrieren miteinander, die eine so reaktionär wie die andere. Die erste ist rela­tivistisch und geisteswissenschaftlich orientiert und stammt aus Deutschland. Sie kommt von Wilhelm von Humboldt und den Junggrammatikern her, einer ihrer Hauptvertreter im 20. Jahrhundert, Leo Weisgerber, dachte Sprache nicht nur mit dem schummrigen »Geist« zusammen, sondern auch mit dem »Volk«; ein Hauptwerk heißt »Die volkhaften Kräfte der Muttersprache«, 2. Auflage 1942. Für Sprachwissenschaftler wie Weisgerber kann kein Ausländer, geschweige denn eine Maschine jemals wie ein Deutscher sprechen oder denken. Sprache ist gewachsen, ist Weltbild.
Das Konkurrenzunternehmen stammt aus den USA, ist universalistisch und naturwissenschaftlich orientiert und mit dem Namen Noam Chomsky verbunden. Chomsky, seit langem der bekannteste Linke der Welt, glaubt, sprachliche Kompetenz werde, zumindest in Grundzügen, vererbt, sie sei eine Sache des Hirns, nicht der Gesellschaft. Demnach sind »Muttersprache«, »volkhafte Kräfte«, sprachliches Weltbild bloß oberflächliche Erscheinungen, viele Chassis, unter denen der gleiche Motor sitzt. Getragen von diesem Glauben baute Chomsky die Syntax der Sprache in bereits sehr maschinenhaften Formalismen nach, mit großem Erfolg. Dieser Erfolg beflügelte die Hoffnung auf eine maschinelle Sprachverarbeitung.

Tatsächlich können Maschinen die syntaktischen Elemente der Sprache erkennen. Bei entsprechend gut gefülltem Speicher können sie auch Substantive und Adjektive bestimmten Qualitäten zuordnen. Sie scheitern an ganz kleinen Wörtchen wie »er«, »sie« oder »hier«, Orientierungswörtchen. Um zu wissen, wer nun gerade »er« ist und was mit »hier« gemeint sein könnte, müssten die Maschinen ein Modell des Kontextes haben und das heißt oft genug ein (wenn auch ganz einfaches) Modell der Welt. Die KI-Abteilung der Linguistik stürzte sich in den siebziger und frühen achtziger Jahren genau auf diese Schwierigkeiten. Um ihrer Herr zu werden, wurden immer komplexere Programme ersonnen. Die Forschung ging daran, nicht bloß Sätze zu analysieren, sondern deren Beziehung zueinander und, wenn auch noch sehr grob, ihre Beziehung zu Personen, Räumen, Handlungen. Am Ende reichte es aber doch nicht.
Heißt das nun, dass die Kulturrelativisten Recht behalten haben und Muttersprache Wurzeln in der Muttererde schlägt? Ach was. Das Argument dafür, dass maschinelle Verarbeitung natürlicher Sprache möglich sein muss, ist ein ganz unchomskyanisches: das Lernen. Wenn ein Mensch sich in der Fremde, in einer fremden Sprache zurechtfinden kann, kann es irgendwann auch eine Maschine. Sprechen ist keine Hexerei und auch übrigens lange nicht so vage, wie manche Schöngeister denken. Wäre sie das, hätte noch nie einer dem andern erklären können, wie er ins Sony-Center findet oder aus diesem heraus. Aber was zu derlei simplen Gesprächen dazugehört, ist verblüffend viel. Weder die eine noch die andere linguistische Schule ist mit der Tatsache zurechtgekommen, dass Sprache eine Angelegenheit zwischen Personen ist, in einer Umwelt, in einer Gesellschaft stattfindet, kurz, dass sie ein fait social ist. Das vorläufige Scheitern des Traums von der Nachbildung natürlicher Sprache ist so gesehen ein Triumph des Politischen.