Künstliche Intelligenz im Wahlkampf: Wenn Robo-Scholz anruft

Pünktlich zum Super-Wahljahr 2024 ist das Zeitalter der KI angebrochen. Die taz hat sich umgehört, was das für die Wahlen bedeutet.

Olaf Scholz sitzt an einem kleinen ovalen Tisch vor einem hellen Vorhang, er hält den Telefonhörer ans Ohr und schaut ernst in die Kamera

Hier telefoniert noch das Original: Kanzler Olaf Scholz am Hörer Foto: Steffen KuglerBundesregierung/dpa

BERLIN taz | Ein Anruf von Joe Biden, der Wäh­le­r*in­nen vom Wählen abhalten will. Ein neues Lied eines bereits verstorbenen indischen Musikers, das den indischen Präsidenten Narendra Modi preist. Eine Kampagne von mindestens 64 Accounts auf der Plattform X, die russische Propaganda verbreiten. All diese Beispiele haben eins gemeinsam: Sie sind wahrscheinlich mit Hilfe von generativer künstlicher Intelligenz (KI) entstanden.

Welche Rolle wird KI im deutschen Super-Wahljahr 2024 spielen? Es stehen vier hierzulande bedeutsame Wahlen an: Europa, Sachsen, Brandenburg und Thüringen. Grundsätzliches steht zur Debatte. Ist die Demokratie den Angriffen vom rechten Rand gewachsen? Verlieren CDU, SPD, Grüne, Linke und FDP – die Parteien der stabileren Zeiten – dermaßen an Stimmen, dass ohne AfD oder Bündnis Sahra Wagenknecht kaum zu regieren ist? Hält die Brandmauer gegen rechts?

Zudem hat Russland ein Interesse, mitzumischen. Deutschland stehe im Mittelpunkt russischer Einflussoperationen, warnte kürzlich das parlamentarische Kontrollgremium. Dessen Vorsitzender Konstantin von Notz (Grüne) sagte im taz-Interview: „Es wird immer offensichtlicher, dass Russland massiv Einfluss nimmt.“ Man werde das auch bei den Europa- und Landtagswahlen erleben. In diese Gemengelage stößt nun KI.

Experiment aus Stanford

Eine Gruppe Wis­sen­schaft­le­r*in­nen der Universitäten Georgetown und Stanford hat in einem Experiment untersucht, wie überzeugend KI-Propaganda ist. Die Ergebnisse: Desinformation, die der KI-Chatbot GPT-3 formuliert hatte, war fast so überzeugend wie menschliche Desinformation. Nach dem Lesen stimmten etwa 47 Prozent der Untersuchten der menschlichen Desinformation zu und 43,5 Prozent der KI-gemachten. Auch wenn die menschengemachte Desinformation etwas effektiver ist, schließen die For­sche­r*in­nen daraus: „Propagandist*innen könnten GPT-3 dazu nutzen, überzeugende Artikel mit minimalem menschlichen Aufwand zu generieren.“ GPT-3 ist zudem mittlerweile ein veraltetes Modell.

„Desinformation ist jetzt schon einfach zu fabrizieren, aber KI kann sie verstärken“, sagt Edda Humprecht. Die 39-Jährige ist Professorin für digitale Kommunikation und Öffentlichkeit an der Universität Jena. „Wut ist die treibendste Emotion in den sozialen Medien“, sagt Humprecht. KI könne helfen, Inhalten mehr Aufmerksamkeit zu bringen, durch schnell erstellte Bilder etwa, die Emotionen schüren. Zur Täuschung taugen sie laut Humprecht derzeit weniger: „KI-Videos und Texte können aktuell relativ leicht entlarvt werden. Aber eingebettet in größere Erzählungen wird es schwieriger“, sagt die Wissenschaftlerin. „Und hinter diesen Erzählungen stehen Menschen und sie werden von Menschen weiterverbreitet.“

Themen, die laut der Wissenschaftlerin dabei besonders angreifbar sind: Migration, Klima, Pandemie, Gender und Sexualität sowie lokal spezifische Aufreger. „Oft sind Minderheiten oder Frauen im Fokus von Desinformation“, sagt Humprecht.

Die AfD nutzt KI

So setzen auch Teile der AfD schon KI ein. Der Bundestagsabgeordnete Norbert Kleinwächter etwa fiel mit einem KI-generierten Bild auf, das gegen Geflüchtete Stimmung macht. Ein weiteres Bild zeigt Gesundheitsminister Karl Lauterbach (SPD) mit Zombie-Gesicht.

„Die sozialen Medien springen auf Sensationalisierung an, darauf kann man KI gut programmieren“, sagt Edda Humprecht. Dafür müssten die KI-Inhalte nicht mal sonderlich gut sein. „Es geht nicht um perfekte Täuschung, sondern darum, Ideologien zu verstärken.“ So könne man Wahlen zwar nicht entscheiden. Aber man kann Menschen radikalisieren oder apathischer machen und so etwa zu Polarisierung beitragen oder die Wahlbeteiligung beeinflussen.

„KI kann vor allem Unterstützer bestimmter Parteien oder Ideologien ansprechen“, sagt auch Andreas Jungherr. Der 42-Jährige ist Politikwissenschaftler an der Universität Bamberg und untersucht die Auswirkungen von Digitalisierung auf Politik und Gesellschaft.

Jungherr befürchtet, dass vor allem die Parteien der politischen Ränder sich auf die Technologie stürzen. Ähnlich wie bei Tiktok könnten sie sich hier einen Vorteil verschaffen. „Die politischen Ränder brauchen Innovation, weil sie für ihr Überleben davon abhängen, möglichst günstig viel zu erreichen“, sagt Jungherr. Und: „Akteure der Ränder sind experimentier- und risikofreudiger. Sie haben weniger Angst vor negativer Berichterstattung, da Kontroversen ihnen Sichtbarkeit bringen.“

Chancen auf lokaler Ebene

Die etablierten Parteien sollten sich dennoch mit der Technik auseinandersetzen, rät Jungherr: „Wenn Parteien besser darin werden, Menschen zu aktivieren, dann haben wir alle etwas davon.“ Der Wissenschaftler sieht vor allem auf lokaler Ebene Chancen: „Mit generativer KI können kleine Verbände Inhalte erstellen, für die sie früher eine Agentur gebraucht hätten.“ Das könne die politische Kommunikation verbessern. In Agenturen, die für Parteien Kampagnen entwickeln, sei der Einsatz von KI schon Alltag. Jungherr sagt: „Auch die etablierten Parteien sollten ein Verständnis für die Technik erlangen und das nicht Agenturen oder den Rändern überlassen.“

Vom Verzicht auf KI im Wahlkampf hält er daher wenig. Jungherr rät dazu, KI-Inhalte eindeutig zu kennzeichnen, wenn möglich mit digitalen Wasserzeichen. „Das macht es zumindest schwieriger, Inhalte zu kopieren oder zu fälschen.“

Wie also werden die Parteien KI einsetzen? Die mit Digitalisierung in den vergangenen Wahlkampf gezogene FDP antwortet auf Anfrage wenig überraschend: Man werde die Chancen, die KI bietet, für die eigene Kommunikation nutzen. „Künstliche Intelligenz bietet Parteien insbesondere im Bereich der generierenden KI viele Chancen für bürgernahe politische Kommunikation“, schreibt ein Sprecher. Gleichzeitig müssten Risiken wie Fake News entschieden bekämpft werden. Man verpflichte sich zu „absoluter Transparenz“.

Nutzung von KI im Wahlkampf

Die CDU hat noch keine Entscheidung getroffen, in welchem Umfang sie KI in Wahlkämpfen nutzen wird, erfährt die taz auf Anfrage. „Wenn wir KI anwenden, würden wir dies kennzeichnen“, schreibt eine Sprecherin. Man sei offen für Initiativen und diskutiere Handlungsoptionen mit Partnern. Auch die SPD hat noch nicht über KI-Nutzung im Wahlkampf entschieden, hält aber eine Kennzeichnung für erforderlich. „Absehbar“ würden auch eigene Richtlinien erarbeitet.

Auch BSW gibt an, noch nicht über den Einsatz entschieden zu haben. Die Grünen haben nach Angaben einer Sprecherin bereits Richtlinien im Umgang mit KI. Öffentlich machen wollen sie diese jedoch derzeit nicht. Etwas konkreter wird die Sprecherin aber: „Wir kennzeichnen KI-generierte Inhalte transparent und verzichten auf die Verwendung von KI zur Nachahmung von Stimmen oder physischem Erscheinungsbild einer Person – außer wenn die Person ihre ausdrückliche Zustimmung dazu gegeben hat.“ AfD und Linke haben auf taz-Anfragen nicht geantwortet.

Wie bereitet man eine Gesellschaft auf Wahlen im KI-Zeitalter vor? Angela Müller hat Ideen. Müller ist Head of Policy and Advocacy bei der gemeinnützigen Organisation Algorithm Watch. „Man darf die Verantwortung nicht auf Einzelne abwälzen“, sagt Müller. Stattdessen müsse man die Anbieter in die Pflicht nehmen. „Es braucht Regeln – nationale und internationale.“ KI-Unternehmen müssten verpflichtet werden, ihre Produkte umfangreicher auf Risiken zu testen, bevor sie sie auf den Markt bringen, und Rechenschaft über diese Tests ablegen. Zudem sieht sie die Social-Media-Plattformen in der Verantwortung. „Einzelpersonen können nichts viral gehen lassen. Da kommen dann die Algorithmen der Social-Media-Plattformen ins Spiel“, sagt Müller.

Meta, Tiktok, Google

Die großen Tech-Konzerne von Meta, Tiktok und Google bis OpenAI versprechen im AI Elections Accord, gemeinsamgegen KI-Desinformation vorzugehen. Auf eine Nachfrage, wie das konkret bei den Landtags- oder Europawahlen aussehen könnte, kam auf Nachfrage keine Antwort. Dass die Konzerne große Aufmerksamkeit auf Landtagswahlen legen, hält Angela Müller zumindest für fraglich.

Sowohl Müller als auch Jungherr und Humprecht sehen aktuell das größte Potenzial für glaubwürdige Fakes in KI-Stimmgeneratoren. So sind vor der slowakischen Präsidentschaftswahl gefälschte Tonaufnahmen einer Journalistin und eines prowestlichen Politikers aufgetaucht. Joe Bidens Robo-Calls gingen um die Welt. „Diese Modelle laden dazu ein, sie für Missbrauch und Negativkampagnen zu nutzen“, sagt Angela Müller.

Störgeräusche während Anrufen oder auf Tonaufnahmen sind normal und den Hörenden fehlen andere Sinne, um die Echtheit zu überprüfen. Das macht Tonaufnahmen besonders anfällig für Fakes. „Das größte Risiko dafür sehe ich im Lokalen, wo wenige Medien und Ex­per­t*in­nen hinschauen, die Fakes entlarven könnten“, sagt Andreas Jungherr – wie gemacht also für Landtagswahlen.

Inhalte prüfen

Ist grundsätzliches Misstrauen gegenüber digitalen Inhalten also die Zukunft des Diskurses? Zumindest wird es in Zukunft wohl wichtiger, Inhalte über viele Faktoren zu prüfen. Neben Fakes droht darüber hinaus noch eine Kehrseite: Die Ausrede, dass echte Aufnahmen nur KI-Fakes seien. Aktuell steht der AfD-Abgeordnete Petr Bystron im Verdacht, Geld von einem prorussischen Netzwerk bekommen zu haben. Tschechische Geheimdienste sollen Tonaufnahmen dazu besitzen. Gut möglich, dass Menschen wie Bystron in Zukunft versuchen werden, sich mit dem Verweis „Ist doch nur ein KI-Fake“ aus der Affäre ziehen könnten.

„Wir brauchen KI-Modelle, die transparent für Medien und Zivilgesellschaft überprüfbar sind und nicht in erster Linie kommerziellen Interessen dienen“, fordert Angela Müller. Demokratische Meinungsbildung dürfe sich nicht Profit unterordnen. „KI wird nicht die Demokratie zerstören“, sagt sie. „Wenn wir die Demokratie kaputtgehen lassen, tragen wir schon selbst die Verantwortung dafür.“

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.