KI und freies Handeln: Der berechnete Mensch

Von Algorithmen über Textbausteine bis smarte Kühlschränke: KI-Systeme nehmen Einfluss auf Entscheidungen. Wo bleibt da die Autonomie?

Blick in einen prall gefüllten Kühlschrank

Soll die KI entscheiden, womit der Kühlschrank gefüllt ist? Foto: Michael WEber/imago

Fisch oder Fleisch? Auto oder Rad? Berge oder Meer? Jeden Tag muss der Mensch Entscheidungen treffen. Sehr viele sogar. 35.000 sollen es im Durchschnitt am Tag sein. Oft sind es sehr banale Entscheidungen wie die Wahl des Essens oder Outfits. Andere Fragen wiederum, etwa Wahlentscheidungen oder Patientenverfügungen, sind sehr schwerwiegend und folgenreich. Auf die Frage, warum er immer blaue oder graue Anzüge trage, antwortete der ehemalige US-Präsident Barack Obama in einem Interview: „Ich möchte keine Entscheidungen darüber treffen, was ich esse oder anziehe. Ich habe viele andere Entscheidungen zu treffen.“

Gewiss, nicht jeder ist US-Präsident und muss die großen Fragen von Krieg oder Frieden beantworten. Doch in einer Welt, wo es von All inclusive bis zur Zahnzusatzversicherung extrem diverse Optionen gibt, fällt es vielen Menschen schwer, Entscheidungen zu treffen. Was ist das Richtige für mich? Was kann ich mir leisten? Welche Folgen hat mein Handeln für andere?

Auf dieses kollektive Gefühl der Überforderung antworten KI-Systeme mit dem Basta-Rigorismus von gestern. „Mach dir keinen Kopf, wir nehmen dir die Entscheidung ab“ – das ist die unterschwellige Botschaft, die viele Apps und elektronische Helferlein vermitteln. „Manage dein Leben“, so bewirbt der chinesische Technologie-Konzern Huawei seinen persönlichen Assistenten Today. Die Künstliche Intelligenz sendet Updates über die Lieblingsmannschaft, informiert über Verkehrsstörungen und erinnert an das nächste Meeting. Dank digitaler Assistenz kann sich der Nutzer stärker auf die Arbeit fokussieren.

Nun kann man sich generell fragen, ob der tägliche Wahnsinn zwischen Kita, Schulausfall und Zugverspätungen überhaupt managementfähig ist und nicht viel eher eines Neustarts bedürfte. Doch ganz unabhängig von solchen Fragen sind in den Alltag bereits sehr viele subtile Entscheidungshilfen eingebaut.

Algorithmen entscheiden, welche Nachrichten wir morgens auf unserem Handy lesen, über welches Tinder-Profil wir wischen und welchen Heimweg wir nehmen. Mit dieser Vorauswahl erhalten automatisierte Systeme Entscheidungsmacht über das Leben. Bloß: Entscheiden sie im Interesse derer, die sie nutzen? Oder im Interesse der Entwickler und Werbekunden?

Klar, wir geben nicht gleich unsere Autonomie preis, nur weil wir auf den Textbaustein klicken, den die Autovervollständigung aufgrund des Such- und Schreibverhaltens errechnet hat. Auch im analogen Leben trifft man Entscheidungen nicht frei von Zwängen, zum Beispiel, wenn man in der Schlange an der Supermarktkasse doch noch den Schokoriegel aufs Band legt und den Tricks der Industrie auf den Leim geht. Zur Freiheit gehört auch, gegen die eigene Vernunft handeln zu können. Wenn uns aber digitale Spurhalteassistenten zielstrebig von einem Geschäft zum nächsten lotsen, wird aus dem vermeintlich freiheitsstiftenden Konsumerlebnis schnell eine manipulative Kaffeefahrt – eine Art embedded shopping.

Künftig könnten Black-Box-Algorithmen in ethischen Dilemmasituationen sogar zum Richter über Leben und Tod werden. Wenn ein Roboterfahrzeug auf eine Kreuzung zufährt und die Abstandssensoren feststellen, dass es für einen Bremsvorgang zu spät ist, muss der Fahrcomputer entscheiden: Nach links ziehen und den SUV-Fahrer mit der schwangeren Frau auf dem Beifahrersitz rammen? Oder nach rechts ausweichen und den Radfahrer ohne Helm mitnehmen? Auf welcher Grundlage werden solche Entscheidungen getroffen?

Die Ökonomen Ajay Agrawal, Joshua Gans und Avi Goldfarb schreiben in ihrem aktuellen Buch „Power and Prediction“, dass KI als Prognosetechnik dazu diene, alte Regeln durch neue Entscheidungen zu ersetzen. Regeln – die Autoren nennen beispielhaft Obamas Garderobe – seien auch Entscheidungen, die man präemptiv treffe, um die kognitiven Kosten zu senken. Wer vorab die Farben grau und blau festlegt, muss sich keine Gedanken um das Outfit machen. Es gebe aber auch jede Menge implizite Verhaltensregeln, zum Beispiel, einige Stunden früher am Flughafen zu sein, um in Erwartung längerer Wartezeiten bei der Sicherheitskontrolle und Gepäckaufgabe seinen Flieger nicht zu verpassen. Wenn nun mit Apps die genaue Wartezeit vorhergesagt werden könnte, würden Fluggäste weniger Zeit am Gate verbringen und ergo weniger Geld ausgeben.

Stetige Simulation

In den Rechenzentren von Konzernen laufen ständig Simulationen über zukünftige Ereignisse: Staus, Einkäufe, Wetterphänomene. Amazon hat vor einigen Jahren ein Patent für ein vorausschauendes Logistiksystem („anticipatory shipping“) angemeldet. Die Idee: Waren werden verschickt, noch bevor der Kunde auf den Bestellknopf gedrückt hat. Eine KI würde anhand von Daten wie Kaufhistorie, Wunschlisten und Suchverhalten den nächsten Kauf vorhersagen und proaktiv den Versand des Produkts veranlassen. Während der Kunde gerade noch im Sortiment stöbert, ist die Ware längst im Lieferwagen.

Zwar wurde das Patent bislang noch nicht umgesetzt. Trotzdem lohnt es sich, darüber nachzudenken, weil es hier um grundlegende technikphilosophische Fragen von Autonomie und Handlungsfreiheit geht. Ist man noch handelndes Subjekt, wenn die Handlungsfolge dessen, was man als nächstes tun wird, bereits eingetreten ist? Oder schon berechenbares Datenpaket? Ist man noch frei, Nein zu sagen? Oder ist man gezwungen, das Tun zu akzeptieren, weil das, was der Algorithmus errechnet hat, eben „Ich“ ist und man schlecht gegen das Selbst agieren kann, ohne seine Subjektivität zu verleugnen?

Außer Konsum nichts mehr wollen

Der französische Philosoph Gilles Deleuze vertrat die These, dass in der Kontrollgesellschaft Individuen zu Dividuen zerfallen, zu digital steuerbaren, teilbaren Ichs, die in Computern immer wieder neu berechnet und zusammengesetzt werden. Die „numerische Sprache der Kontrolle“, von der Deleuze schrieb, sprechen auch internetfähige Objekte wie der smarte Kühlschrank. Das Gerät betreibt nicht nur permanente Marktforschung, sondern übt auch eine Form der Sozialkontrolle aus. Wer holt morgens schon eine Flasche Bier raus? Wer achtet auf kalorienarme Kost? Wer isst viel Fett? Amazon hat vor Jahren eine Technologie patentieren lassen, die mithilfe von Kameras und Sensoren sogar verdorbene Waren aufspürt.

Der smarte Kühlschrank basiert auf der kybernetischen Idee eines Systems, das sich selbst reguliert. Der Kunde braucht nichts mehr zu entscheiden, er braucht außer Konsum auch nichts mehr zu wollen – er muss nur ein paar Soll-Werte angeben, dann hält sich das System im Gleichgewicht. Beispiel: Der Kühlschrank darf nie weniger als einen Liter Hafermilch und 200 Gramm Käse enthalten. Den Rest erledigt das automatisierte Bestellsystem.

Amazon für die Politik

Unter dem Stichwort „anticipatory government“ werden solche Steuerungsmodelle auch für die Politik diskutiert. Der Gedanke: Die Regierung erlässt in Erwartung einer Nachfrage nach Sicherheit oder Wohnraum proaktiv Maßnahmen, damit man sich die „politics“-Dimension, wie Politikwissenschaftler sagen, also den mühsamen Prozess der Aushandlungen, „spart“. Ein Amazon für die Politik quasi: Das Volk bestellt, die Regierung liefert. Warum auf die Straße gehen, wenn das Hilfspaket schon auf dem Weg ist?

Eine Kybernetisierung des Gemeinwesens liefe jedoch auf ein Ende des Politischen hinaus, weil das, was Politik ausmacht – der Streit, das Ringen um das beste Argument, Streiks – letztlich bloß technische Störungen wären. Dass der smarte Kühlschrank, der seit Jahren auf Technikmessen angepriesen wird, sich bis heute nicht durchsetzen konnte, beweist aber, dass sich die Verbraucher doch noch einen Rest von Entscheidungsmacht vorbehalten.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.