Algorithmen regieren unser Leben

Unterm Zahlenkommando

Menschen vertrauen bei der Entscheidungsfindung auf Algorithmen. Über den Umgang mit diesen Rechenbefehlen.
Von

Sie bestimmen, welche Bücher uns Amazon als Empfehlung anzeigt, schlagen uns auf Netflix Serien und Filme vor, berechnen die Route im Navi unserer Autos. Sie sagen uns, mit welcher Busverbindung wir pünktlich ans Ziel kommen, entscheiden darüber, wie schnell die nächste Ampel auf rot schaltet und ob wir einen Kredit gewährt bekommen. Sie errechnen unsere Schufa-Auskunft, entscheiden mit, ob unser nächster Vermieter uns in die innere Wahl nimmt und wie hoch unsere monatliche Rate für eine Versicherung ausfällt. Sie fordern uns auf, uns mehr zu bewegen, während sie global in Bruchteilen von Sekunden mit Aktien und Derivaten handeln. Auf unseren Smartphones zeigen sie uns eigens für uns ausgewählt das örtliche Wetter, Kinoprogramm und ein paar Nachrichten. Sie sortieren Spam aus unseren E-Mail-Eingängen, entscheiden darüber, was Facebook uns an Neuigkeiten anzeigt und sagen der Polizei, in welchen Gegenden sie vermehrt Streife fahren sollte.
Diese sehr unvollständige Aufzählung klingt nach den Ideen eines paranoiden Verschwörungstheoretikers. Hinter all dem stecken aber natürlich keine geheimen Verschwörungen, sondern Algorithmen. Und weil viele Menschen nicht genau wissen, was Algorithmen eigentlich sind, werden sie tatsächlich oft wie eine dunkle Macht wahrgenommen, die immer mehr unser Leben bestimmt. Dabei sind Algorithmen nichts weiter als Rechenbefehle, die in der richtigen Reihenfolge ausgeführt ein Problem lösen: Wörter alphabetisch sortieren oder die tausendste Nachkomma­stelle von Pi berechnen. Diese Art zu rechnen geht auf den Gelehrten Mohammed al-Chwarizmi zurück, der um 825 in Bagdad das Buch »Über das Rechnen mit indischen Ziffern« schrieb. Westliche Gelehrte latinisierten seinen Namen zu Algorismi und später zu Algorithmus, weil arithmos das griechische Wort für Zahl ist. Wenn aber Algorithmus demnach nichts anderes bedeutet als »Rechenkunst«, wie konnte es passieren, dass sie wie scheinbare Zahlenmagie unseren Alltag bestimmt?

Die Macht der Algorithmen liegt im Glauben an die Richtigkeit ihrer Ergebnisse. Ein sehr bekanntes Beispiel für eine Sammlung von Algorithmen ist die Astrologie: Man nehme ein Geburtsdatum, natürlich mit möglichst genauer Uhrzeit und errechne daraus die Sternen- und Planetenkonstellationen zur Zeit der Geburt. Aus diesen werden dann Aussagen über Charakter und Schicksal einer Person abgeleitet. Mathematisch gesehen ist der erste Teil völlig korrekt, herbeiphantasiert ist lediglich die Interpretation. Das kann man den antiken Erfindern der Astrologie schlecht vorwerfen. Sie beobachteten beispielsweise den Nachthimmel im August, sahen das Sommerdreieck aus Deneb, Wega und Atair hoch im Süden stehen, während die Sternschnuppen der Perseiden den Himmel kreuzen. Das zeigt jedes Jahr die Erntezeit an. Was da oben passiert, muss also irgendwie zusammenhängen mit dem Leben der Menschen. Doch was bedeutet es, dass fast im ganzen August 2015 außer Saturn kein einziger Planet am Himmel zu sehen war?
Der Mensch neigt dazu, in Mustern und Phänomenen Bedeutungen zu sehen. Im Jahr 2015 wird kein ernsthafter Ingenieur oder Wissenschaftler noch Astrologie betreiben – nach Mustern und ihren Bedeutungen suchen sie aber trotzdem. In riesigen Datenbanken, in denen gewaltige Datenmengen aus immer mehr Quellen über uns und unsere Umwelt gespeichert sind, suchen komplexe Algorithmen nach Auffälligkeiten. Für die Wissenschaft ist diese »Big Data« genannte Vorgehensweise ein Segen. So entdeckten Klimaforscher eine Korrelation zwischen global steigenden Temperaturen und dem Ausstoß an CO2 in die Atmosphäre. Lange war umstritten, ob das nur Zufall ist, schließlich kann es sich mit Korrelationen wie bei der Geburtenrate verhalten, die in Gegenden besonders hoch ist, in denen es viele Störche gibt. In Sachen Klimawandel ist mittlerweile geklärt, dass er stattfindet und mit an Sicherheit grenzender Wahrscheinlichkeit menschengemacht ist, während die Wahrscheinlichkeit, dass Störche Babys bringen, ausgesprochen niedrig ist.

Es ist dieses Spiel mit Wahrscheinlichkeiten, das den modernen Umgang mit Algorithmen und Big Data prägt. Wohnt jemand in einer schlechten Wohngegend, ist die Wahrscheinlichkeit aus Sicht der Statistiker sehr hoch, dass diese Person nicht besonders kreditwürdig ist. Das ist jedoch eine Aussage über alle Menschen in dieser Wohngegend, während vielleicht genau diese eine Person, die den Kredit beantragt, sehr wohl kreditwürdig ist. Statistisch gesehen senkt eine Bank ihr Risiko, wenn sie den Antrag ablehnt – ob die Aussage über den Antragsteller wahr oder falsch ist, wird hingegen niemand erfahren. Hier zeigt sich das Problem mit modernen Algorithmen: Sie dienen nicht selten der Machtausübung und diskriminieren Menschen anhand von Merkmalen, für die sie oft nichts können. Trotzdem kann es sein, dass so ein Algorithmus für alle Beteiligten fairer ist. Bevor es Scoring gab, bei dem die Entscheidungsfindung auf Erfahrungswerten aus Statistiken beruht, entschied vielleicht einfach ein Filialleiter über die Gewährung eines Kredits. Diese Entscheidung fällt er teilweise unbewusst und aus dem Bauch heraus: Trägt der Antragsteller einen Anzug oder wirkt er ungepflegt? Kennt der Filialleiter den Vater vielleicht aus dem Rotary-Club, so dass die Kreditgewährung nur eine Formsache ist? Es sprechen also durchaus Gründe dafür, dass es gerechter zugehen kann, wenn Algorithmen bestimmte Entscheidungen fällen.

Allerdings muss genau hingesehen werden, wie ein Algorithmus im Einzelfall funktioniert und wer ihn programmiert hat. In ein Programm fließt immer auch das Weltbild des Programmierers ein. Kann eine Datenbank nur speichern, ob eine Person weiblich oder männlich ist, oder kennt sie auch weitere Geschlechtszuschreibungen? Und wie lässt ein Programmierer seinen Algorithmus diese Geschlechtszuschreibungen bewerten? In Cambridge konnte die Kinderärztin Dr. Louise Selby nicht die Damenumkleide ihres Fitnessstudios betreten, deren Tür sich nur mit ihrer Kundenkarte öffnen ließ. Das Personal war ratlos, bis der Fehler im System gefunden wurde: Der Algorithmus ging davon aus, dass eine Person mit Doktortitel männlich sein müsse.
Algorithmen entheben Menschen also nicht davon, Entscheidungen zu treffen oder zumindest zu kontrollieren. Es kann immer sein, dass ein Sachbearbeiter die eine Person vor sich hat, die anders ist und den Fehler im System auslöst. Doch dieser Sachbearbeiter ist in vielen Fällen nicht mehr vorhanden oder hat nicht die Befugnis, sich über die Zahl hinwegzusetzen, die der Computer ausspuckt. Und selbst wenn er könnte: Bereits in den neunziger Jahren ergaben Studien, dass Menschen dazu tendieren, einfach zu glauben, was ein Computer anzeigt. Mit der Anwendung komplexer Algorithmen und Big Data hat sich das Problem verschärft.
Die falsche Verbindung von Doktortitel und Geschlecht ist ein einfach zu findender und zu behebender Fehler. Heute werden allerdings in vielen Bereichen neuronale Netze und selbstlernende Algorithmen verwendet. Ein Programmierer entwickelt einen Algorithmus nicht mehr selbst, sondern lässt ein System lernen, das grob dem menschlichen Gehirn nachempfunden ist. Die Kontrolle darüber, nach welchen Kriterien ein solches System später Entscheidungen fällt, geht dabei immer mehr verloren. Es könnte durchaus sein, dass es beispielsweise nach Hautfarbe diskriminiert, ohne dass die Entwickler das beabsichtigt hätten. In den meisten Alltagsdingen spielt das keine große Rolle. Wenn man nach dem Kauf eines Staubsaugers noch wochenlang Werbung für Staubsauger angezeigt bekommt, amüsiert das eher. Bei Entscheidungen mit großer Tragweite können die Folgen für einzelne Personen jedoch katastrophal sein. Je komplexer die Algorithmen werden, desto mehr braucht es eine menschliche Instanz, die man anrufen kann, wenn man sich falsch oder ungerecht behandelt fühlt. Doch genau die wird mit zunehmender Automatisierung eingespart. Ein Computer kann uns mit Leichtigkeit schachmatt setzen. Aber nur, wenn wir nach seinen Regeln spielen.