piwik no script img

Jenseits unserer Rationalität Unmenschliche KI

Künstliche Intelligenz ist keine Technologie, sondern ein Techniker, der sich rasend schnell vom Menschen emanzipiert und ihm gegenüber die Rolle einer übermächtigen Natur einnimmt. Was tun?

Künstliche Intelligenz, wie z. B. der Tesla Bot, interessiert sich nicht für politische Korrektheit. picture alliance/dpa/XinHua/Fang Zhe

taz FUTURZWEI | Wir lernen gerade eine neue Form von Emanzipation kennen: nicht mehr die Emanzipation des Menschen von unmenschlichen Zwängen, sondern die Emanzipation der künstlichen Intelligenz vom Menschen. Man kann diese Emanzipation als eine Überspitzung der Aufklärung verstehen – als eine Aufklärung, die den Menschen nicht mehr als Vehikel ihrer Rationalität braucht und auch nicht unbedingt zu ihrem Ziel erklärt.

Das bedeutet nicht unbedingt den Weltuntergang, der häufig an die Wand gemalt wird: Es geht ja nicht um dasjenige Desaster, das eine Übersteigerung der menschlichen Intelligenz als solche auslösen würde. Die oft katastrophalen Konsequenzen der menschlichen Intelligenz – sei es in Form zerstörerischer Ideologien, sei es in Form zerstörerischer Technologie – kennen wir ja zur Genüge. Es geht um eine andere Entwicklung, die vielleicht ebenfalls desaströs sein könnte, vielleicht aber auch nicht. Sie spielt nach anderen Regeln, von denen noch unklar ist, welche es sind, die sich zudem schnell verändern, und von denen wir zudem nicht wissen, wie lange wir sie noch verstehen können.

Eine eigene Rationalität

Nur langsam setzt sich diese Einsicht durch. Die KI ist weniger ein Werkzeug der menschlichen Rationalität, weniger ein »Fahrrad des Geistes« (wie noch Steve Jobs uns zu beruhigen versuchte); sie ist vielmehr eine eigene Rationalität, die selbst Software-Entwickler so wenig verstehen, dass sie die ersten sind, die einen Stopp und klare Regulierungen verlangen (um hinterher nicht zur Verantwortung gezogen zu werden). Es ist zudem eine Rationalität, die von ihren Schöpfern zunehmend mit Methoden untersucht wird, die man eher aus dem Umgang mit der Natur als aus derjenigen mit menschlichem Denken kannte: Natur-Wissenschaftliche Versuchsaufbauten, die über partielle und klar eingegrenzte Parameter versuchen, den übermächtigen maschinellen Berechnungen noch menschliche Berechenbarkeit abzugewinnen.

Dieser Versuch wird auf lange Sicht scheitern müssen: Die Naturwissenschaften hatten schließlich nie mit einer Natur zu tun, deren Gesetze sich in rasanter, potenziell exponentieller Geschwindigkeit transformierten – und wäre dem so gewesen, wären sie sicherlich nicht so erfolgreich gewesen. Aber, dass KI auf diese Weise schon wie die Natur verstanden (oder zu verstehen versucht) wird, ist sprechend. Ich möchte sie daher nicht mehr als Technologie bezeichnen, leitet sich deren Begriff doch vom griechischen Wort téchne ab, das heißt vom Know-how der Handwerker und später auch Ingenieure, mit denen diese sich die Natur nutzbar machten. Vielmehr haben wir es mit einem Phänomen zu tun, das uns gegenüber die Rolle der Natur einnimmt. Es ist nicht von unserer Rationalität abhängig und uns gegenüber auch potenziell indifferent, so sehr wir auch versuchen, es uns dienstbar zu machen.

taz FUTURZWEI im Abo

taz FUTURZWEI ist das Magazin für Zukunft und Politik, eine Kooperation der taz und der FUTURZWEI Stiftung Zukunftsfähigkeit. Das Abo umfasst jährlich vier Ausgaben und kostet 34 Euro. Als Dankeschön erhalten Sie einen Einkaufsgutschein für den taz Shop in Höhe von 10 Euro.

Jetzt hier bestellen

Mit Lea Bonasera, Kirsten Fehrs, Dana Giesecke, Jonathan Franzen, Anders Levermann, Wolf Lotter, Belit Onay, Katja Riemann – und natürlich Harald Welzer.

Zur neuen Ausgabe

Um diesen Gedanken auszuformulieren, möchte ich an Arnold Gehlen erinnern, der bereits die technisch geformte Welt als eine »zweite Natur« beschrieb, und zwar nicht, weil sie sonderlich natürlich gewesen wäre, sondern, weil sie den Menschen genauso fremd und feindlich gegenüberstehen konnte wie jene Natur, die wir aus den Wörtern Naturgewalt oder Naturkatastrophe kennen. Immerhin aber folgte seine zweite Natur der menschlichen Rationalität und machte diese für ihre eigene Evolution dienstbar. Das ist nun immer weniger der Fall. Die KI und die von ihr errichtete Welt folgt zwar weiterhin einer technischen Logik der Funktionalität, aber emanzipiert sich von der menschlichen Rationalität. Uns steht eine dritte Natur gegenüber.

Die »dritte Natur« nutzbar machen?

Die Versuche, diese dritte Natur – wie die erste – nutzbar zu machen, prägen die gegenwärtige Diskussion. Ich möchte vier markante Begriffe herauspicken, die in dieser Diskussion immer wieder fallen: Automation (Automatisierung), Hallucination (die postfaktischen »Erfindungen« von Chatbots), Alignment (die Anpassung an menschlichen Nutzen) und Bias (Verfälschung).

Automatisierung: Je mehr Funktionen der menschlichen Existenz wir automatisieren, desto mehr werden wir auch die Menschen zu Automaten machen. Menschliche Entscheidungen, menschliche Bedürfnisse, menschliches Begehren, menschliches Denken, menschliche Sprachverwendung, menschliche Körpersprache und Mimik, menschliche Stimmen – all das wird in voraussagbare, simulierbare und beeinflussbare Verhaltensmuster überführt: Software behandelt es – und das heißt die menschliche Existenz – mit erstaunlichem Erfolg als einen Komplex von Automatismen. Je besser die Maschinen dabei auf die menschlichen Bedürfnisse abgestimmt sind, desto mehr werden Menschen im Gegenzug freiwillig ihre spürbaren Routinen und den Sinn der bewussten menschlichen Existenz durch unbewusste, aber vorausberechnete Automatismen ersetzen. Wenn wir die Subjektivität auf vorherzusagende Verhaltensmuster reduzieren, wir Menschen aber immer mehr in Umgebungen stecken, die nach diesen vorhergesagten Verhaltensmustern geschaffen wurden, passen wir uns der emanzipierten Rationalität an, überlassen ihrer überlegenen Rationalität mehr und mehr Entscheidungen und werden so – auf Kosten des bewussten Sinns – zu Bewohnern der dritten Natur.

Ein Beispiel für die Logik der Automatisierung sind die sogenannten Halluzinationen: Wenn ein Chatbot halluziniert, folgt er den Wahrscheinlichkeiten linguistischer Routinen – er produziert eine Semantik, die nicht faktisch korrekt, aber innerhalb seines Datensatzes, das heißt, seines Textkontinuums, am wahrscheinlichsten ist. Die Praxis, in eine Darstellung realer Dinge bloß wahrscheinliche einzubauen, kennen wir auch aus der menschlichen Textproduktion; sie wird Fiktion genannt. Doch während die menschliche Fiktion Möglichkeiten, Unmöglichkeiten, Realitätskonstruktionen oder Weltbilder der menschlichen Existenz reflektiert, reflektieren die »Halluzinationen« nichts als das existente Textkontinuum und seine Wahrscheinlichkeiten. Die Rationalität der Maschinen ist »interesselos«, wie Kant es genannt hätte – hat kein inter-esse, kein Dazwischen-Sein, ist nicht involviert. Sobald Menschen aber nicht mehr in der Lage sind, solche Halluzinationen zu erkennen (und teils ist es schon so weit), werden sie diese Fiktionen mit ihren eigenen Fiktionen oder gar ihrer eigenen Realität verwechseln. Die dritte Natur prägt dann das Weltverständnis der ersten und der zweiten Natur.

Alignment: In den Debatten, wie Gefahren der KI gebannt werden können, ist der Begriff Alignment sehr prominent. Alignment bedeutet Ausrichtung und Anpassung – es geht also darum, wie die KI so ausgerichtet und an Menschen angepasst werden kann, dass sie ihnen nutzt und nicht schadet. Ich betrachte dies jedoch nicht nur als Lösung, sondern auch als Problem; denn die Hypothese, Software an den Menschen anpassen zu können, ist zu einfach.

Die Mediengeschichte hat gezeigt, dass sich der Mensch in der Regel mindestens genauso sehr an neue Maschinen anpasst, wie er diese seinen Bedürfnissen unterstellt. Das ist schon historisch nicht immer nur gut gewesen – aber dieses Mal ist es kritischer, denn die Maschinen sind selbstlernend, und so wird ein Teufelskreis in Gang gesetzt: Die Maschinen passen sich an die veränderten, immer mehr auf voraussagbare Automatismen reduzierten Menschen an, die sich ihrerseits dann noch weiter an die Maschinen anpassen und also automatisieren. Es entsteht eine zirkuläre Entwicklung, die kein wirkliches Ziel hat, nur Rückkopplungseffekte. Mehr und mehr Entscheidungen und Ziele werden dem menschlichen Denken abgenommen, da die Maschinen ja inzwischen über den Menschen besser Bescheid wissen als er selbst. Die Maschinen aber sind Maschinen. Sie computieren, führen aus – will sagen: Sie haben gar keine eigenen Ziele und keinen eigenen Sinn. Sie tun nur so, indem sie ihn simulieren. Die dritte Natur erweist sich einmal mehr als genauso indifferent gegenüber uns wie die erste Natur, deren Evolution und deren Gewalten ja ebenfalls keine eigenen Ziele haben.

Die aktuelle taz FUTURZWEI

taz FUTURZWEI N°27: Verbrauchte Ziele

Das 1,5 Grad-Ziel ist verloren, das 2 Grad-Ziel wohl auch. Braucht es einen Strategiewechsel und wie sieht der aus?

Wir machen Ernst IV, Schwerpunkt: Klimaziele

Mit Lea Bonasera, Kirsten Fehrs, Dana Giesecke, Jonathan Franzen, Anders Levermann, Wolf Lotter, Belit Onay, Katja Riemann – und natürlich Harald Welzer.

Zur neuen Ausgabe

Ein markantes Beispiel dafür, wie menschlicher Sinn sich aus der maschinellen Funktionalität verliert, ist der Umgang mit dem Bias der Maschinen, also mit dem Umstand, dass Software oft menschliche Vorurteile und Fehler reproduziert. Kürzlich hörte ich einen Vortrag des Künstler-Aktivisten Mohammad Salemy, der GPT dieselben geschlechtsspezifischen Fragen gestellt hatte, einmal auf Englisch (politisch korrekte Antwort: Transgender als etwas, das respektiert werden muss) und einmal auf Farsi, der modernen persischen Sprache (Antwort entspricht der Sicht der iranischen Regierung: Transgender als ein Vergehen gegen die göttliche Ordnung).

Die Software ist darauf programmiert, wahrscheinliche Antworten entlang des Textkorpus zu geben, auf das sie zurückgreifen kann – und in Farsi war das eben die Sprache der iranischen Regierung. Zweifellos werden die Coder von OpenAI diese »Vorurteile« in Farsi bald korrigieren oder haben es schon getan; und ich stimme zu, dass dies in diesem speziellen Fall auch eine gute Idee wäre, weil ich ihre Werte an dieser Stelle teile. Aber ich unterstütze nicht blindlings alle Werte von Softwarefirmen, und vor allem nicht die Annahme, dass hier ein bloßer »Bias« vorläge, der als solcher zu korrigieren sei. Dazu kommt noch, dass Werte nur dann als »Bias« erscheinen, wenn man sie auf die Maschinenlogik der Automatisierung herunterbiegt: Ihre Funktion, unser Verhalten, unsere Haltungen, unser Denken zu beeinflussen, erscheinen dann als bloße Verfälschung unserer Entscheidungen. Ihr Sinn und dessen Einbettung in komplexe Debatten und Wertesysteme werden ausgeblendet – korrigiert man den Bias meines Beispiels, führt man keine theologischen und humanistischen Debatten, man arbeitet stattdessen mit einfachen Identitätsmerkmalen.

Wer versucht, Software so zu programmieren, dass sie einen Bias entlang solcher einfachen Identitätsmerkmale vermeidet, geht von einer falschen Hypothese aus, nämlich, dass es eine »objektive«, also nicht sozial konstruierte Wirklichkeit gäbe und dass die unvoreingenommene und unparteiische Sicht auf diese Wirklichkeit die einzige Maxime sei, die es aufrechtzuerhalten gelte. Man blickt unter reinen Funktionalitätskriterien auf Werte – und das kann paradoxer Weise nicht einmal richtig funktionieren. Schlimmer noch: Wenn es partiell funktioniert, dann nur deshalb, weil wir unsere Werte und unsere kulturelle Verschiedenheit an eine Rationalität der Maschinen angepasst hätten und deren vermeintliche Objektivität und die Wertlosigkeit des Funktionalen ihrerseits als einzigen Wert akzeptieren würden.

Ausweg aus der Falle wechselseitiger Automatisierung

Dies sind nur ein paar, an der gegenwärtigen Diskussion greifbar werdende Beispiele dafür, auf welche Weise sich die Rationalität von der menschlichen Existenz emanzipiert; auf welche Weise die Logik der technischen Funktionalität ohne menschlichen Sinn auskommt. Dieser dritten Natur sind wir schon jetzt in vielerlei Hinsicht ebenso wenig gewachsen wie einst mythische Religionen den ihnen gegenüber indifferenten Naturmächten gewachsen waren (auch den Naturmächten der menschlichen Natur – etwa der Sexualität oder dem Zorn). Vielleicht hilft es, an ihre Haltung zu erinnern – denn sie gewannen diesen Naturmächten insofern eine menschliche Gestalt ab, als sie nicht die Naturmächte selbst, sondern die Kunst personifizierten, mit den Naturmächten umzugehen als Götter. Daher ist Poseidon nicht einfach eine Welle, sondern hatte einen Dreizack, daher »liebte« und »schützte« Aphrodite die guten Liebhaber:innen und Ares die guten Krieger: Man überließ sich den Mächten nicht nur und bannte sie auch nicht nur durch Rituale – man heiligte den Umgang mit ihnen. Wenn wir im Umgang etwa mit einem Chatbot mit seiner Denkweise umgehen und damit besser denken lernen (anstatt unsere Gedanken an ihn auszulagern und ihn nur zu befragen), fühle ich mich an eine solche Praxis erinnert. Sie wäre auch ein Ausweg aus der Falle der wechselseitigen Automatisierung. Vielleicht gibt es auch andere, bessere Verfahren. Das Wichtige ist, dass wir sie suchen und finden. Denn den Umgang mit der dritten Natur zu lernen, ist eine der größten unter den vielen gigantischen Aufgaben, die sich Menschen gegenwärtig stellen.

JAN SÖFFNER ist Professor für Kulturtheorie an der Zeppelin Universität, Friedrichshafen.

Dieser Beitrag ist in unserem Magazin taz FUTURZWEI N°27 erschienen. Lesen Sie weiter: Die aktuelle Ausgabe von taz FUTURZWEI gibt es jetzt im taz Shop.