debatte
: Sag „Bitte“ zur KI

Sollten Menschen sich in der Interaktion mit KI freundlich ausdrücken? Die Wissenschaft ist gespalten, aber es gibt gute Gründe dafür

Ob der Kalendereintrag, den Apples Smartphone-Assistenz Siri entgegennimmt, die Musiksteuerung via Amazons Alexa oder die schnelle Frage an ChatGPT: Anwendungen mit Künstlicher Intelligenz (KI) und digitale Assistenzsysteme spielen im Alltag vieler Menschen in den Industrieländern eine zunehmend größere Rolle. Mit dieser wachsenden Bedeutung wird auch eine Frage drängender, die auf den ersten Blick vielleicht nebensächlich erscheinen mag: Sollte bei der Wahl unserer Formulierungen in der Interaktion mit solchen Systemen Höflichkeit eine Rolle spielen?

Die meisten Nut­ze­r:in­nen beantworten das ganz intuitiv mit Ja. Mehrere Studien haben gezeigt, dass Menschen bei der Interaktion mit Computern Regeln des sozialen Miteinanders anwenden. Daraus entstand bereits in den 90er Jahren das Konzept von Computern als soziale Akteure (Casa). Damals waren Computer im Alltag der meisten Menschen noch nicht präsent – anders als heute. Vom Smartphone über den Ticketautomaten bis hin zum Staubsaugerroboter wimmelt es um uns herum von tragbaren Minihochleistungsrechnern, Maschinen mit Bildschirmen für die Bedienung, Sprachassistenzsystemen, KI-Anwendungen und, in die Zukunft geblickt, erwartbarerweise auch Robotern. Und genau bei den drei Letzteren beginnt die Sache interessant zu werden.

Denn während die meisten Nut­ze­r:in­nen intuitiv Höflichkeitsregeln, die sie im Umgang mit Menschen anwenden, auch in der Interaktion mit derartigen Technologien verwenden, ist die Wissenschaft uneins darüber, ob so ein Verhalten wünschenswert ist. Gängige Argumente dagegen: KI ist eben kein sozialer Aktionspartner. Eine neutrale oder sogar unfreundliche Kommunikation etwa mit einem Chatbot verletzt keine Gefühle. Die üblichen sozialen Höflichkeitsnormen anzuwenden, könnte sogar die Anthropomorphisierung, also die durchaus problematische Vermenschlichung der Technologie verstärken. In Haushalten, in denen etwa via Amazons Sprachassistent Alexa Smart-Home-Geräte gesteuert werden, könnten anwesende Kinder aus einer auf freundliche Wortwahl setzenden Interaktion lernen, dass es sich bei dem System um einen menschlichen oder zumindest menschengleichwertigen Kommunikationspartner handle.

Zudem ist Höflichkeit kein binäres Konzept, in dem Sinne, dass wir uns entweder höflich verhalten oder nicht. Vielmehr ist Höflichkeit erstens nicht nur in der sprachlichen Interaktion verankert, sondern äußert sich unter anderem auch durch Mimik, Gestik und Handlungen. Und zweitens ist sie keineswegs linear – in einigen Beziehungen oder Situationen verhalten wir uns höflicher als in anderen. Demnach wäre die Frage nicht: Höflich oder nicht, sondern: Wie höflich sollten wir uns in der Interaktion mit diesen Technologien verhalten?

Jedes dieser Argumente hat einen Punkt – wenn auch nicht immer einen restlos überzeugenden. Etwa die möglicherweise problematische Vorbildwirkung für Kinder. Es ist längst nicht so, dass Menschen nur Technik anthropomorphisieren würden. Sie machen das mit Pflanzen, Autos Tieren oder dem Wetter. Dennoch lernen die meisten Kinder recht schnell, dass das vierrädrige Ding vor der Haustür ebenso wenig eine Person ist, wie die Zimmerpflanze, auch wenn sich die Eltern noch so hingebungsvoll darum kümmern. Und wäre es nicht ebenfalls problematisch, Kinder lernten aus der Interaktion mit einem Assistenzsystem rüde oder kommandierende Umgangsformen?

Doch das intuitiv höfliche Kommunizieren der Nut­ze­r:in­nen hat nicht nur Effekte auf das Außen, sondern auch auf das Innen. Die italienische Wissenschaftlerin und Informatikerin Patrizia Ribino bezeichnet das in einem im Juni veröffentlichten Papier als „Schutz des eigenen positiven Selbstbildes“. Wie wir in einer Situation, die nicht von anderen Menschen beobachtet wird, handeln oder kommunizieren, sagt etwas darüber aus, wie wir uns selbst wahrnehmen und wahrnehmen wollen und welche moralischen oder sozialen Maßstäbe wir an uns anlegen. Das erklärt auch das intuitive Verwenden von sozialen Regeln, das immer wieder in Studien bei der Interaktion von Menschen mit Technik beobachtet wird.

Bei Anwendungen wie ChatGPT ist außerdem gut zu merken: Je mehr ein:e Nut­ze­r:in selbst auf kleine Höflichkeitsformen wie „bitte“ und „danke“ setzt, desto mehr Höflichkeit findet sich auch in den Antworten. Das ist logisch: Die aktuellen KI-Sprachmodelle, auf denen auch ChatGPT basiert, prognostizieren Wahrscheinlichkeiten für das nächste Wort oder den nächsten Satzteil. Diese Wahrscheinlichkeiten haben sie auf Basis großer Textmengen gelernt. Und wie in der Alltagskommunikation wird sich auch in den Dialogen, die das Sprachmodell als Trainingsdaten zur Verfügung hatte, das Höflichkeitsniveau der Kom­mu­ni­ka­ti­ons­part­ne­r:in­nen jeweils angleichen.

Menschen anthropo­morphisieren nicht nur Technik, sondern auch Pflanzen, Tiere und das Wetter

Mit Blick in die Zukunft könnte sich aber ein anderer Punkt als zentral herausstellen – vor allem angesichts dessen, dass die Menge der KI-generierten Inhalte im Netz deutlich zunehmen wird. Denn es ist davon auszugehen, dass in vielen Fällen die Texte, die etwa ChatGPT oder Googles Bard erzeugen oder die Sprachanweisungen, die Assistenzsystemen gegeben werden, wiederum als Trainingsmaterial für KI dienen oder dienen werden. In Fachkreisen wird das als einer der Gründe diskutiert, warum die von Bard erzeugten Antworten mit der Zeit immer schlechter – im Sinne von fehlerhafter und realitätsferner – zu werden scheinen.

Enthalten diese neu generierten Trainingsdaten also in großem Stil oder in bestimmten Kontexten einen groben Umgangston oder – wie es bereits heute in einigen Teilen des Internets, dessen Inhalte als Trainingsdaten herangezogen werden, die Regel ist – rassistische, sexistische und diskriminierende Sprache, wird sich das in künftigen Inhalten widerspiegeln.