Selbstfahrende Autos

Roboter im Straßenverkehr

Die selbstfahrenden Autos werden kommen. Das wirft ethische Fragen auf.

Wenn alles so läuft, wie Autohersteller und Konzerne wie Google es sich vorstellen, wird das Autofahren in nur wenigen Jahren gründlich revolu­tioniert: Autonome Fahrzeuge sind im Testbetrieb bereits auf der Straße unterwegs. Dass die Entwicklung von Roboterautos, also Autos, die vollständig selbst fahren und dem Menschen nicht einmal mehr anbieten, in den Betrieb mit Lenkrad oder Pedalen einzugreifen, ethische Fragen aufwirft, deren Beantwortung nicht der Industrie überlassen werden sollte, wird dabei jedoch völlig außer Acht gelassen.
Das liegt nicht nur daran, dass die Vorteile eines Roboterautos auf den ersten Blick so eindeutig erscheinen: Es fährt deshalb sicher, weil der Computer nicht ermüden, viel schneller reagieren, in alle Richtungen gleichzeitig gucken und – hinreichend genaue Karten und ein Livenetzwerk vorausgesetzt – auch sehr viel vorausschauender fahren kann. Und sich, im Gegensatz zu Menschen, an die Verkehrsregeln hält.
Automatische Autos bringen wirtschaftliche Vorteile. Ein Taxiunternehmen braucht keine Fahrer mehr, ebenso wenig ein Speditionsunternehmen; der Roboterkollege spielt seine Anschaffungskosten dadurch sehr schnell wieder ein. Das kostet Arbeitsplätze, aber der Begriff Roboter leitet sich ja nicht umsonst vom slawischen robota ab, was Arbeit oder Frondienst bedeutet. Ethisch mag das problematisch sein, aber diese Frage ist de facto schon seit Jahrzehnten geklärt: Automa­tisierung wird nicht hinter dem Erhalt von Arbeitsplätzen zurückstehen. Die Ethik gebietet außerdem, für die autonomen Fahrzeuge zu sein, wenn sie viel sicherer sind als menschliche Fahrer. Doch darüber hinaus sind es gerade ethische Fragen, die offen sind und dringend diskutiert werden müssen. Google will schließlich schon 2017 die Testphase abgeschlossen haben und Roboterautos anbieten.

Die wichtigste dieser Fragen lautet: Wie soll ein selbstfahrendes Auto in Extremsituationen reagieren? Eine einfache Antwort darauf gibt es nicht. Wenn ein menschlicher Fahrer bemerkt, dass er gleich einen Unfall verursachen wird, dann wird er bremsen und gleichzeitig versuchen auszuweichen. Wohin er ausweicht, wird nach Instinkt entschieden, es bleibt keine Zeit zu überlegen.
Der Computer dagegen braucht nur Bruchteile von Millisekunden, um die wahrscheinlichen Folgen mehrerer Entscheidungen zu berechnen und nach der Lösung mit dem geringsten Schaden zu suchen. Doch wie ist der zu erwartende Schaden zu bewerten? Wenn das Roboterauto feststellen würde, dass ein Crash unvermeidlich ist, muss es sich entscheiden. Nach rechts ausweichen und einen Fußgänger überfahren, nach links lenken und einen Fahrradfahrer anfahren oder weiter geradeaus in den mit einer Kindergruppe besetzten Handwagen einer Kita steuern? Um den Schaden zu minimieren, würde das Auto berechnen, dass bei der einen Entscheidung wahrscheinlich mehrere Menschen sterben würden, bei den anderen beiden Möglichkeiten dagegen jeweils einer. Werden die beiden verbliebenen Optionen zusätzlich darauf heruntergebrochen, zum unweigerlich entstehenden Personen- auch noch den Sachschaden zu berechnen, würde der Computer nach rechts steuern, denn durch die Metallteile des Fahrrads würde das Auto beschädigt werden. Also würde der Fußgänger umgefahren. Und zwar jedes Mal, wenn ein Roboterauto in diese Situation kommt.
Fast noch schlimmer: Hätte der Radfahrer einen Helm auf und damit eine leicht erhöhte Überlebenschance, würde sich das Auto ihn aussuchen, wenn es darauf programmiert wäre, automatisch Todesopfer zu vermeiden. Und das jedes Mal. Der Radfahrer würde also im Prinzip vom Computer dafür bestraft werden, dass er sich besser geschützt hat. Wie soll sich ein Roboter­auto verhalten, wenn es gezwungen wird, sich zwischen dem Leben des Fahrers und dem eines Passanten zu entscheiden? Ein Beispiel: Man fährt eine Straße entlang, links ist eine Klippe, rechts eine Menge Gebüsch. Plötzlich springt ­etwas aus dem Gebüsch auf die Fahrbahn. Man hat die Wahl, auszuweichen und die Klippe hinunterzustürzen oder zu bremsen und das, was da herausgesprungen ist, zu rammen. Die meisten Menschen würden das, was da hervorgesprungen ist, überfahren und vielleicht unbewusst hoffen, dass es ein Tier und kein Kind war. Wenn sie aber genug Zeit hatten, zu erkennen, dass es ein Kind ist, dann fahren schon ein paar mehr über die Klippe. Das autonome Fahrzeug erkennt das Kind natürlich sofort, für wen soll es sich entscheiden, das Kind oder den eigenen Insassen?
Die Hersteller von Roboterautos werden nicht wollen, dass sich das Gefährt im Zweifelsfall gegen den Insassen und damit gegen den eigenen Kunden entscheidet. Denn das wäre sicherlich schlecht fürs Image. Wer kauft schon etwas, das einen im Zweifelsfall in den Tod schickt, ohne dass man selbst Einfluss nehmen kann? Genauso schlimm wäre eine Konfigurationsmöglichkeit, bei der man im Laden angeben muss, wie es sich im Zweifel zu entscheiden hat.
Aber es kommt noch schlimmer. Kommt bei einem Unfall jemand zum Tode, folgt meist eine Gerichtsverhandlung. Ein Roboterauto ist jedoch darauf programmiert, wie es sich zu verhalten hat – und ein Todesfall damit in manchen Situa­tionen eingeplant, also nicht im Affekt verursacht. Wer zahlt gegebenenfalls Schadenersatz an die Hinterbliebenen? Wer ist dann an einem solchen Tod eines Menschen schuld? Der Hersteller? Der Programmierer? Derjenige, der die Regeln festgelegt hat?

Eindeutige Regeln festzulegen, nach denen sich ein Roboterauto zu verhalten hat, ist jedoch nicht so einfach. Denn man darf Menschenleben nicht gegeneinander abwägen. Ein Mensch, der noch eine Lebenserwartung von zwei Wochen hat, ist genauso schützenswert wie ein fünfjähriges Kind. Darf ein Menschenleben geopfert werden, um fünf andere zu retten? Dr. Patrick Lin, Direktor für Ethik an der California Polytechnic State Uni­versity, sagt dazu: »So etwas scheint eine ganze Menge Ähnlichkeit mit einem Zielalgorithmus ­eines automatischen militärischem Waffensystems zu haben.«
Dazu kommt, dass Regeln auch Missbrauchsmöglichkeiten eröffnen. Wahrscheinlich jedes Kind hat sich schon einmal hinter der Couch versteckt und ist, als ein Elternteil sich näherte, hervorgesprungen und hat laut »Buh!« gerufen. Was, wenn jemand das auf der vorher erwähnten Klippenstraße mit einem Roboterauto macht? Wenn der Computer so programmiert ist, dass das Fahrzeug dann automatisch in den Abgrund steuert, könnten die Insassen jederzeit Opfer eines tödlichen, gedankenlosen Scherzes werden.
Die aufzustellenden Regeln werden also sehr komplex sein müssen. Die zwei Jahre, bis etwa Google mit der Entwicklung eines Roboterautos fertig sein will, werden dazu kaum ausreichen und so gibt es schon jetzt erste Vorschläge, das Ganze doch abzukürzen. Der mögliche Schaden könne einfach nicht so genau berechnet, manche Daten könnten einfach weggelassen werden. Oder man könnte bei mehreren fast gleichwertigen Optionen den Zufall entscheiden lassen. Doch wer bestimmt wo die Grenzen für »fast gleichwertig« liegen? Nimmt man sich so nicht gleich wieder die Vorteile, die Computerfahrer bieten können? Professor Dr. Hermann Winner, Leiter des Fachgebiets Fahrzeugtechnik an der TU Darmstadt, hält den Zufall für die fairste Option, wenn man nicht eine Gruppe bevorzugen will. Dr. Lin hält es aber ethisch gesehen für beunruhigend, »es dem Zufall zu überlassen, wenn es gleichzeitig Gründe geben könnte, eine bestimmte Handlungsweise zu bevorzugen, egal wie widerwärtig oder unkomfortabel diese Gründe auch sein mögen«.

Diese Fragen müssten längst diskutiert und geklärt werden. Doch noch ist nicht einmal klar, wer dafür überhaupt zuständig sein wird. Die Gesetzgeber müssen zwar den Rahmen schaffen, nach dem die Roboterautos eine Zulassung für den allgemeinen Straßenverkehr erhalten können, aber kann man alle Ethikfragen wirklich in ein Gesetz gießen? Sollte man das den jeweiligen Herstellern überlassen? Und wie verhindert man, dass es in jedem Land der Welt unterschiedliche Regelungen gibt? Selbst zur Klärung der Verhaltensweise der autonomen Fahrzeuge gibt es Fragen, festgelegt ist bisher nichts.
In einem anderen Bereich gibt es ein ähnliches Problem, das noch lange nicht gelöst ist. Bei Flugzeugen übernehmen Autopiloten einen großen Teil der Arbeit der Piloten, die aber trotzdem noch im Cockpit sitzen und den Computer überstimmen oder gar mehr oder weniger ganz abschalten können. In kritischen Momenten schaltet sich der Autopilot ab und übergibt das Kommando dem Menschen, der dann anhand von Checklisten Maßnahmen einleitet, die – weil er nach definierten Checklisten handelt – der Computer eigentlich auch hätte erledigen können.
Bei einem Roboterauto aber ist diese Vorgehensweise noch abwegiger als im Flugzeug. Einem Insassen, der eine Sekunde Zeit hat, bei einem drohenden Crash Gegenmaßnahmen einzuleiten – während er mit etwas völlig anderem beschäftigt ist, weil er ja selbst nicht fahren muss – eine abgewogene Entscheidung zuzumuten, mit der er hinterher leben kann, dürfte nur aus Sicht des Herstellers eine gute Idee sein, weil dann der Mensch und nicht ihr Produkt für alle Folgen verantwortlich wäre.