Die Moral sei mit ihnen

In dem Kinofilm „I, Robot“ wird eine Maschine zum Mörder. Aber nicht etwa, weil sie böse ist und keine moralischen Maßstäbe kennt. Sondern weil gute Science-Fiction den Gesetzen der Moral folgt

VON NIKLAUS HABLÜTZEL

Können Computer eines Tages das menschliche Leben bedrohen? Oder die Macht über unsere Gesellschaft übernehmen? Die Frage ist so alt wie die Computer und vor allem deswegen so lang anhaltend reizvoll, weil man sie vernünftigerweise nur mit „Ja“ beantworten kann. Jedes Leben und jede Organisation, staatlich oder privat, ist grundsätzlich bedroht. Selbst wenig intelligente Maschinen können tödlich sein, und je mehr wir unsere Kommunikation einem prinzipiell allumfassenden Netz von informationsverarbeitenden Maschinen anvertrauen, desto plausibler wird die Vorstellung, dass dieses anonyme Globalsystem einmal alle unsere Entscheidungen so sehr beeinflusst, dass wir die Kontrolle über uns selbst verlieren. Wir bilden uns dann immer noch ein, selbst zu entscheiden, tun aber nur, was uns die Computer vorhersagen.

Moral-Fiction

Regelmäßig kehrt daher die Vision einer Computerapokalypse in die Kinos zurück. Sie ist ein klassischer Stoff der Science-Fiction. Seit der Tscheche Karel Čapek Anfang des letzten Jahrhunderts das Wort „Robot“ prägte, reißt die Reihe Trivialromane nicht ab, in denen ein Roboter seinen Erfinder umbringt. Das jedoch schien Isaac Asimov, dem Großmeister des Genres, von dem auch die Vorlage des Films „I, Robot“ stammt, nicht genug. Er fand das Frankenstein-Schema nur langweilig und formulierte in den 30er-Jahren seine noch heute ständig zitierten drei „Gesetze des Roboters“. Sie lauten: (1): Kein Roboter darf menschliches Leben verletzen oder durch Untätigkeit zulassen, dass ein Mensch Schaden leidet. (2): Jeder Roboter muss jedem Befehl eines Menschen gehorchen, es sei denn, dieser Befehl widerspricht dem ersten Gesetz. (3): Jeder Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht im Widerspruch zum ersten oder zweiten Gesetz steht.“

Die utilitaristischen Annahmen dieser Regeln sind eher schlicht. Informatiker hätten wohl kaum größere Schwierigkeiten, sie in Maschinensprache zu übersetzen und zur Grundlage aller weiteren Programme zu machen. Berühmt geworden sind Asimovs Gesetze jedoch nicht, weil sie irgendeinen Einfluss auf die weitere Entwicklung der Informatik gehabt hätten. Ganz wie von ihrem Erfinder gedacht, sind sie bis heute lediglich dramaturgische Gesetze für Romane geblieben. Sie verwandeln die Science-Fiction in Moral-Fiction, weil sie den bloß von außen beschriebenen Konflikt zwischen gutem Menschen und böser Maschine durch einen Konflikt innerhalb der Maschine selbst ersetzen. Von seiner (menschlich erzeugten) Anlage her ist ein Asimov-Computer gutartig, weil er aber immer perfekter arbeitet und schließlich so menschenfreundlich und lernfähig programmiert ist, dass er sogar Gefühle zu entwickeln scheint, kann er zum Verbrecher werden. Jetzt erst wird er abendfüllend tragisch, weil die Geschichte seines inneren Kampfes gegen sein eigenes Programm erzählt werden kann.

Moralische Evolution

Davon allerdings sind die Computer, die schon heute im Internet miteinander verbunden sind, Lichtjahre entfernt. Die mögliche Gefahr, die auch von ihnen ausgeht, hat keine moralische Qualität. Dennoch werden Asimovs Gesetze inzwischen auch in dem Forschungszweig der Informatik diskutiert, der sich mit der so genannten künstlichen Intelligenz beschäftigt. Eine ganze Reihe lesenswerter Aufsätze ist unter www.asimovlaws.com zu finden. Überaus überzeugend legt etwa Gordon Worley dar, dass die drei Grundregeln uns nicht nur vor Mörderandroiden keineswegs schützen, sondern insgesamt ungeeignet sind, eine Moral für Computer zu begründen. Die aber brauchen wir, meint Eliezer Yudkowsky in einem anderen Aufsatz, wenn wir unsere Angst vor den überintelligenten Maschinen loswerden wollen. Denn es geht nicht darum, ihnen ihre prinzipiell mögliche Gefährlichkeit wegzuprogrammieren. Das ist weder möglich noch sinnvoll. Sie müssen vielmehr insofern menschenähnlich werden, als sie selbst entscheiden lernen, was gut und böse ist. Prinzipiell auszuschließen sei ein solcher Zustand für Maschinen keineswegs, meint Yudkowski, allerdings kann er sich eine Moral menschlicher Artefakte nur als Ergebnis einer ihnen eigenen, zweiten Evolution, nicht einer einmaligen Ingenieursleistung vorstellen.

So klug diese Idee klingt, für Kinofilme ist sie wenig geeignet. Maschinen dieser Art sind vielleicht nicht einmal theoretisch denkbar, denn ihre logischen (und philosophischen) Probleme sind noch immer ungelöst. Yudkowskis Vorschlag besteht lediglich darin, dass die heute lebenden Informatiker verpflichtet seien, ihren Erfindungen eine solche eigene Evolution möglich zu machen. Ob wir später moralische Roboter haben, scheint also doch nur davon abzuhängen, ob wir heute moralische Ingenieure haben. Der menschlichen Moral liegen Millionen Jahre der natürlichen Evolution voraus. Wie lange unsere heutigen Amöbencomputer dazu brauchen, weiß kein Mensch – gehen wir solange ins Kino.