Turing-Test zum Turing-Jahr: Zu einem knappen Drittel menschlich

Immer wieder werden Chatbots dem Turing-Test unterzogen. Sie werden dabei zunehmend besser, menschliche Kommunikation nachzuempfinden.

Funfact: Nicht wenige Menschen aus der Kontrollgruppe werden beim Turing-Test für Maschinen gehalten. Bild: trepavica/photocase.com

Ende Juni jährte sich der 100. Geburtstag des Computerpioniers Alan Turing, der unter anderem die Verschlüsselungsmaschine „Enigma“ der Nazis austrickste und 1954 im Alter von nur 41 Jahren Selbstmord beging, weil die britische Regierung ihn aufgrund seiner Homosexualität verfolgte und er mit einer Östrogentherapie entstellt wurde.

Auf den genialen Frühinformatiker geht auch der sogenannte Turing-Test zurück: Mit diesem im Jahre 1950 erdachten Verfahren soll sich prüfen lassen, wie nah ein System der künstlichen Intelligenz menschliches Denkvermögen emulieren kann.

Dabei kommen sogenannte Chatbots zum Einsatz, die möglichst naturgetreu auf ein Frage- und Antwort-Spiel eines menschlichen Gegenübers reagieren sollen. Anschließend muss der Juror bewerten, ob er nun mit einem Menschen oder mit einem Computer kommuniziert hat.

150 Testgespräche

Pünktlich zum Jubiläum fand nun auch der bislang größte Turing-Test statt: An historischem Ort, in Bletchley Park in der Nähe der britischen Stadt Milton Keynes, wo Alan Turing während des Zweiten Weltkrieges den „Enigma“-Code knackte. 30 Juroren um die Forscherin Huma Shah von der University of Reading prüften insgesamt fünf besonders gute Chatbot-Programme in 150 einzelnen Gesprächen.

Zum Vergleich: Beim Loebner Prize, der regelmäßig 5000 US-Dollar und eine Wandermedaille vergibt, nehmen normalerweise nur vier menschliche Juroren an, die vier Chatbots bewerten müssen.

Als Testgruppe nahmen auch noch 25 menschliche Chatpartner teil. Laut Turings Regeln legt eine Maschine den Test erfolgreich ab, wenn es ihr in 30 Prozent der Fälle gelingt, ihrem Gegenüber weiszumachen, dass es sich um einen Menschen handelt. Einem der fünf Chatbots, Eugene Goostman des Anbieters Princeton AI, gelang dies zu erstaunlichen 29 Prozent.

Eine festgelegte Persönlichkeit als Trick

Vermutlich liegt dies an einem Trick, den sein Erfinder Vladimir Veselov aus New Jersey, anwendete: Während andere der teilnehmenden Chatbots sich an dem orientierten, was Menschen früher gesagt haben (einer der Bots durchforstet sogar den Kurznachrichtendienst Twitter), wurde für Eugene Goostman eine genaue Persönlichkeit festgelegt.

Es handelt sich um einen 13jährigen Jungen aus der ukrainischen Stadt Odessa, dessen Vater ein Arzt ist. Diese Rolle gibt dem Chatbot die Möglichkeit, den Nutzer emotional zu packen – ihm wird eine Geschichte erzählt, während das Frage- und Antwort-Spiel läuft. Die beiden zweit- und drittplatzierten Konkurrenten, der Jfred-Chat-Server und der Cleverbot, versuchen dagegen, „alles für alle“ zu sein.

Man mag sich fragen, ob ein Chatbot wirklich „intelligent“ sein kann. Für Turing hatte das stets mit der Fähigkeit zu tun, Menschen davon zu überzeugen, dass „man“ keine Maschine ist. Der IT-Pionier glaubte daran, dass es bis zum Jahr 2000 gelingen könnte, die 30-Prozent-Quote zu erreichen.

Mit 29 Prozent und 12 Jahren Verzögerung lag er knapp daneben. Allerdings muss nun noch getestet werden, wie gut Eugene Goostman abschneiden würde, wenn man dem Chatbot seine Persönlichkeit nähme und er allein anhand der Erkennungs- und Antwortroutinen überprüft würde. Einer der Juroren zeigte sich überzeugt, dass die Persönlichkeit durchaus dabei geholfen habe, die Jury zu überzeugen.

Ein Gewinner des „großen“, also vollständigen, Turing-Tests dürfte unterdessen noch länger auf sich warten lassen. Dabei soll der Computer nicht nur auf Texteingaben korrekt und menschenartig reagieren, sondern auch auf die Mimik und Gesichtszüge des per Videobild zugeschalteteb Gegenübers. Gearbeitet wird schon längst daran: Mittlerweile werden Laborroboter getestet, die Emotionen erkennen und ihr Verhalten der Stimmung des Benutzers anpassen können.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.