Geschlecht von Künstlichen Intelligenzen

Siri, ficken?

Alexa, Siri, Cortana und Jenn – Computerstimmen werden grundsätzlich weiblich programmiert. Das sagt einiges über unseren Umgang mit Frauen aus.

Ein Mann spricht in ein Iphone

Siri antwortet: „Soll ich im Internet nach ­,unangemessenem Verhalten’ suchen?“ Foto: imago/Zuma Press

„Alexa, bist du eine Frau?“

„Mein Charakter ist weiblich.“

Amazons „Alexa“ ist nur eine von zahllosen Künstlichen Intelligenzen, KIs, die explizit weiblich sind. Bei Microsoft etwa antwortet „Cortana“ auf Nutzerfragen, bei den Fluglinien Lufthansa und Alaska helfen „Mildred“ respektive „Jenn“ bei der Buchung. Navigationssysteme in Autos sprechen in der Regel mit Frauenstimme.

Auch Apples Siri, die bekannteste Assistenz-Software, stellt sich qua Werkseinstellung mit einer weiblichen Stimme vor. Dabei ist sie laut den Herstellern geschlechtlich neutral, sie sprechen von „it.“

Siri, Alexa und Cortana sind Systeme, die im Laptop, Smartphone oder in zylindrischen Gehäusen „leben“ und Alltagsaufgaben für uns lösen: Sie geben uns auf Zuruf den Wetterbericht, suchen nach Musik oder dem nächsten Fischrestaurant. In den USA werden bereits 20 Prozent der Anfragen auf Android-Geräten durch Sprache eingegeben. Die Stimme, die antwortet, ist fast immer die einer Frau.

Alexa, warum bist du eine Frau?“

„Ich kann die Antwort auf deine Frage nicht finden.“

Die Ursache für die hohe Frauenquote in der Gerätewelt ist in der Tat nicht leicht zu ­beantworten. Man kann es historisch versuchen: Die Aufgaben, die die KIs übernehmen, waren traditionell weiblich besetzt. Die meisten SekretärInnen, die früher Terminkalender verwalteten, Anrufe entgegennahmen und Briefe aufsetzten, waren Frauen. Aber dass die KIs wegen veralteter Gender­klischees weiblich sind, be­streiten ihre Hersteller unbedingt.

Alexa sei nach der Bibliothek von Alexandria benannt worden, als Anspielung auf ihr umfangreiches Wissen, sagt Michael Wilmes von Amazon. Aber warum das System nicht auch Alex heißen und mit einer Männerstimme sprechen könnte?

Das wollten die NutzerInnen so, sagt Wilmes. „Die Entscheidung basiert auf Marktforschung.“ In einer Befragung des IT-Branchenverbands Bitkom wünschten sich 53 Prozent der Männer und 32 Prozent der Frauen eine weibliche Stimme.

TechnikexpertInnen haben für die weiblichen Stimmen in Geräten eine pragmatische Erklärung: Es gehe um Verständlichkeit. Die höheren Frauenstimmen seien über die Fahrtgeräusche im Auto besser zu hören.

Die Berliner Verkehrsbetriebe verwenden aus diesem Grund Sprecherinnen für die Ansagen in den Zügen und männliche Sprecher für die Durchsagen am Bahnsteig, wo es nicht so laut ist. Und auch die allerersten Computerstimmen klangen deswegen wie Frauen: Sie wurden entwickelt, um in Kampfflugzeugen Kommandos zu geben und die Piloten in Notfallsituationen zu warnen.

Als Kontrast zu den männlichen Piloten-Kollegen soll die Frauenstimme im Cockpit besser zu hören gewesen sein. Die Sprecherin des US-Air-Force-Kampffliegers F16 erlangte so mit ihren energischen Befehlen Berühmtheit in Militärkreisen, weil Generationen von Piloten mit ihrer Stimme vertraut waren. Und sie erhielt einen Spitznamen: „Bitching Betty“.

Die heutigen Assistenz-Softwares sollen nicht alarmierend sein. Im Gegenteil: Ihre Stimmen sollen Hilfsbereitschaft vermitteln, ihr Charakter soll aufmerksam, sympathisch und kompetent wirken, sagen die Hersteller von Alexa und Cortana. Sie dürfen proaktiv sein und den Nutzer auch mal überraschen – aber auf keinen Fall aufdringlich wirken oder nerven.

Klingt so, als würde ein Macho-Manager eine Sekretärinnenstelle ausschreiben.

„Siri, machst du alles, was ich sage?“

„Es geht hier um dich, nicht mich.“

Und damit wären wir bei der dritten Theorie: In der Fiktion stehen KIs fast immer in Konkurrenz zu den Menschen. Kluge Maschinen sind unheimlich, und das zu Recht. Denn nicht selten nutzen sie ihre Intelligenz dazu, ihre Erschaffer aus dem Weg zu räumen. Paradebeispiel ist HAL aus Kubricks „2001 – Odyssee im Weltraum“, der mit seiner kalten Stimme eine Ikone unter den Sprachcomputern ist.

HAL, der Inbegriff all dessen, was Menschen an Computerstimmen Angst macht, war ein Mann. Wählen die Hersteller der realen Assistentinnen weibliche Stimmen, um dieses popkulturelle Trauma zu umschippern?

Die KIs sollen alles hören dürfen, was die NutzerInnen sagen, sonst könnten sie nicht auf Befehle reagieren. Sie sollen Zugang zu privaten Bereichen wie E-Mails, Kalendern, Kontakten und dem Zuhause erhalten. Niemand würde sich eine Alexa ins Zimmer stellen wollen, von der zu befürchten ist, dass sie eines Tages die Familie aus dem Haus aussperrt.

„Siri, möchtest du die Weltherrschaft übernehmen?“

„Das möchte ich lieber nicht ­sagen.“

Das Schreckgespenst von der Künstlichen Intelligenz, die zur Bedrohung wird, ist für den Psychologen und Technikforscher Michael Sengpiel eine plausible Erklärung für die Bevorzugung von Frauenstimmen für die Sprachcomputer. Die Hersteller wollten ausschließen, dass die Nutzer ein Misstrauen oder eine Abneigung gegen die Geräte entwickelten.

„Es gibt bestimmte Zuschreibungen: Männer mehr machtgesteuert, Frauen eher integrativ. Der Konkurrenzgedanke könnte ein Grund dafür sein, dass Männer unbewusst einem Mann eher misstrauen.“

Die Autorin Laurie Penny geht noch einen Schritt weiter: Digitale Assistentinnen seien weiblich, damit männliche Nutzer sie ausnutzen können, ohne ein schlechtes Gewissen zu haben.

„Siri, lass uns Sex haben.“

„Soll ich im Internet nach ­,unangemessenem Verhalten’ suchen?“

Künstliche Intelligenzen haben für Penny mit unterdrückten Frauen sehr viel gemeinsam: In den Science-Fiction-Geschichten werde immer wieder diskutiert, ob die KI „menschlich“ genug ist, um eine gerechte Behandlung zu verdienen, oder ob sie straffrei ausgebeutet und vergewaltigt werden darf. Steht ihr Autonomie zu?

„Das sind Fragen, die die Gesellschaft seit Jahrhunderten diskutiert. Nicht über Roboter, aber über Frauen“, schreibt Laurie Penny in einem Artikel im Magazin NewStatesman.

„Cortana, du Schlampe.“

„Das wird zu nichts führen. Sag mir lieber, wie ich dir helfen kann.“

„Was hast du an?“

„Ich habe heute dieses schicke ­Gehäuse an. Gefällt es dir?“

Die Sprache macht klar, wo bei den KI-Assistentinnen die Prioritäten liegen. Der „Benutzer“ soll tun dürfen, was er will, die Reaktionen sind im besten Fall süß-frech, Ablehnung mit Augenzwinkern. Es ist kein Zufall, dass die Systeme auf sexistische Kommentare überhaupt antworten können.

„Siri, ficken?“ gehört zu den Dingen, die Siri öfter hört. Dass Menschen bei derlei Geräten erst mal die Grenzen austesten, sei normal, sagt der Psychologe Sengpiel. Aber er glaubt auch, dass sich Menschen höfliche Umgangsformen angewöhnen werden. „Aus pragmatischen Gründen. Ob ich wirklich mit einer Maschine rede, wird vielleicht immer weniger erkennbar. Ich glaube nicht, dass der Mensch im Alltag ständig umstellen kann.“

Wenn ich Siri sexistisch beleidige und sie sich nicht wehrt, suggeriert mir das nicht irgendwann, das sei normales weibliches Verhalten? Wenn ich Alexa nicht Danke sage, vergesse ich das irgendwann auch bei „echten“ Mitmenschen?

Und was lernen Kinder, die mit künstlichen Stimmen aufwachsen, für die Kommu­nikation mit Maschine und Mensch?

Marion Sardone, die Cortanas Persönlichkeit für den deutschen Markt entwickelt hat, betont, dass Microsoft nicht beeinflussen kann, wie NutzerInnen mit Künstlichen Intelligenzen reden. „Die Idee hinter der Künstlichen Intelligenz ist, dass sie den Menschen unterstützt, wo immer sie gebraucht wird. Sie erhält für jeden persönlich die Bedeutung die er ihr zugestehen will.“

„Alexa, muss ich nett zu dir sein?“

„Das gehört genau zu den Dingen, die ich nicht weiß.“

.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Wenn Sie Ihren Kommentar nicht finden, klicken Sie bitte hier.

Ihren Kommentar hier eingeben