Ethik
: Tödliche Algorithmen

Die Debatte über selbstfahrende Autos hat nicht nur praktische Aspekte, sie führt letztlich zu der Frage: Welches Menschenleben ist wie viel wert?

Wenn ein Unfall unausweichlich ist – wer soll dann sterben? Alte oder Junge? Männer oder Frauen?

Es ist der Stoff, aus dem Dystopien, das heißt düstere Zukunftsvorhersagen, gemacht werden: Maschinen, die, gesteuert durch Algorithmen, Menschen töten. Neuen Stoff bekommt die Dystopie von selbstfahrenden Autos in unvermeidbaren Unfallsituationen aktuell durch eine im Magazin Nature veröffentlichte Studie. Wissenschaftler sind dabei in einem Experiment in nahezu allen Weltregionen der Frage nachgegangen: Wenn ein Unfall unausweichlich ist – wer soll dann sterben? Alte oder Junge? Männer oder Frauen? Insassen oder Passanten? Verkehrsteilnehmer, die sich korrekt verhalten oder solche, die bei Rot über die Straße gegangen sind?

Über diese Fragen lassen sich endlose Debatten führen, und einen weltweiten Konsens zu finden dürfte unmöglich sein. Doch die primäre Frage ist eigentlich eine andere. Nicht die, wen der Algorithmus bitte verschonen möchte. Denn das Problem beginnt viel früher: Jedes dieser Szenarien setzt voraus, dass sämtliche Objekte in der Umgebung klassifiziert werden. Andere Fahrzeuge, stehend oder fahrend, Poller und Verkehrsinseln, Sperrmüll und Fahrradständer. Dabei muss nicht nur eindeutig eingeordnet werden, was Kinder- und was Einkaufswagen ist, was Hund oder Rollkoffer, was Werbeschild und was Mensch. Und ob dieser Mensch rauchend vor einem Hauseingang steht, an der Ampel wartet, gleich mit seinem Hooverboard losprescht oder gerade dabei ist, gedankenverloren auf die Straße zu treten. Man müsste auch, denkt man die Ethikdebatte weiter, die Menschen in einzelne Kategorien teilen: nach Alter, nach Geschlecht, nach sozialem Status – unter anderem diese Kriterien wurden in dem Experiment abgefragt. Gesundheitszustand, Vorlieben, soziale Reputation – all das ist davon nicht weit entfernt.

Ob die Software dabei richtig liegt oder nicht, ob sie, wie beim Tesla-Unfall vor zwei Jahren, eine weiße Lkw-Ladewand mit dem hellen Himmel verwechselt, das ist erst der zweite Schritt, und bis es so weit ist, dass die Erkennung der Umgebung einigermaßen zuverlässig funktioniert, dürfte es weitaus länger dauern als bis zu dem Zeitpunkt, zu dem selbstfahrende Autos in nennenswerter Menge auf den Straßen unterwegs sind. Doch bereits Schritt eins, das Klassifizieren an sich, ist problematisch genug. Denn: Was macht eine solche Klassifizierung mit der Gesellschaft?

Nehmen wir an, die Autohersteller werden verpflichtet, ihre Algorithmen entsprechend den – nicht repräsentativen – Ergebnissen des Nature-Experiments zu programmieren, so wie es der Durchschnitt der Teilnehmenden gesehen hat. Dann würden beispielsweise eher Kinder gerettet als Ältere und eher fitte als unfitte Personen. Im besten Fall wäre es transparent, wie die Parameter gestaltet sind, und wer am Verkehr teilnimmt, wüsste darum. Der älteren Dame oder dem Krebspatienten würden also wohl Bedenken kommen, am Verkehr teilzunehmen. Natürlich, das Unfallrisiko wäre vermutlich immer noch deutlich kleiner als heute, und ein Unfall, bei dem ein tödlicher Ausgang unvermeidbar ist, hoffentlich sehr selten. Doch allein das Bewusstsein „Wenn es jemanden trifft, dann mich“ wird zu Ängsten und Stigmatisierung führen. Und schlimmstenfalls dazu, dass sich Menschen nicht mehr auf die Straße trauen, weil sie selbst zur Risikogruppe gehören oder nicht in Begleitung von entsprechenden Personen unterwegs sein wollen. Alte, Kranke, Menschen mit Behinderung – sie hätten es in der Öffentlichkeit noch schwerer als ohnehin schon.

Dazu kommen haufenweise Probleme, die in der Praxis schwer zu lösen sein dürften: Was zum Beispiel ist, wenn ein selbstfahrendes Auto, das etwa in Japan zugelassen und entsprechend den dortigen Regeln legal ist, auf europäischen Straßen fährt? Oder umgekehrt? Oder sollen tatsächlich weltweit einheitliche Regeln gelten? Geht irgendjemand davon aus, dass so etwas realistisch wäre? Auf welcher Basis soll diese Klassifizierung eigentlich erfolgen? Nach Optik? Ernsthaft? Oder tragen alle Menschen Chips mit entsprechenden Informationen? Und Dienstleister, die gegen horrende Summen Hacks anbieten, um aus „Rentnerin“ „Kind“ und aus „unsportlich“ „Marathonläufer“ zu machen, liefern sich ein Wettrennen mit den staatlichen Stellen, die diese Chips ausgeben und manipulationssicher machen wollen? Wer Geld hat, kann sich also ein Mehr an Sicherheit erkaufen? Und die Implantation erfolgt direkt nach der Geburt, um auch das Kind im Kinderwagen zu schützen?

Ja, es klingt nach Dystopie.

Es gibt natürlich eine andere Möglichkeit, und implizit legt sie auch die Ethikkommission in ihrem Bericht „Autonomes und vernetztes Fahren“ nahe. Sie schreibt: „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt.“ Die Konsequenz wäre: ein Zufallsalgorithmus. Und, als gute Nachricht für alle, die davon ausgehen, dass Autohersteller den Insassen zu der umfangreichen Hardware-Panzerung auch ein Software-Äquivalent einbauen wollen, steht im Bericht: „Die an der Erzeugung von Mobilitätsrisiken Beteiligten dürfen Unbeteiligte nicht opfern.“

Natürlich ist auch ein Zufallsalgorithmus nicht ohne Probleme, vor allem, wenn das dem vorherrschenden Gerechtigkeitsempfinden in der Bevölkerung widerspricht. Es muss zudem ein Verfahren geben, das die Algorithmen überprüft, sodass Hersteller nicht doch insgeheim einen stärkeren Schutz für einige Gruppen in den Quelltext schrei­ben. Und ja, es bliebe immer die Frage: Was wäre, wenn in diesem Moment nur eine Kleinigkeit anders gelaufen wäre und das System einen anderen Zufall ausgewürfelt hätte? Genauso also, wie es bei durch Menschen verursachten Unfällen auch heute ist. Doch alles andere, was eine detaillierte Analyse der Personen in der Öffentlichkeit voraussetzen würde, wäre weitaus problematischer.