Midterms in den USA: Push the Button

Am Dienstag wird in den USA gewählt. Facebook will die Leute zum Wählen animieren. Sind wir wirklich so leicht zu manipulieren?

WählerInnen in North Carolina warten auf ihre Stimmabgabe. Bild: dpa

Knöpfe drücken, das ist eben Facebooks Ding. Die Like-Buttons sind längst tief in die Popkultur eingesickert. Im Sommer wurden Psychoexperimente des sozialen Netzwerks bekannt, in denen Facebook herauszufinden suchte, wie Nutzer reagieren, wenn Algorithmen ihnen vor allem positive oder negative Einträge ihrer Freunde anzeigen.

Damit ist vielen Nutzern einmal mehr klar geworden, dass ihr Newsfeed eben nicht eins zu eins darstellt, was ihre Freunde tatsächlich posten – sondern eben das, was Facebooks Algorithmus aus welchen Gründen auch immer für besonders relevant erachtet. Oder eben für die eigenen Forschungszwecke.

Und am Dienstag, anlässlich der Midterm Elections in den USA, wird Facebook auch einmal versuchen, ein paar Knöpfe bei seinen US-Nutzern zu drücken. Knöpfe, die seine User zum Wählen motivieren sollen.

Bereits seit sechs Jahren werkelt Facebook daran herum, wie es seine Nutzer wirksam dazu motiviert zu wählen. Mal mit Buttons mit banalen „Statements“ wie „Ich wähle“ oder „Ich bin Wähler“, mal, dass einigen Nutzern zunehmend Nachrichtentexte in den Feed gespült wurden. Experimente, die wirken: Laut einer Studie, die im Magazin Nature veröffentlicht wurde, motivierten die Wahlbuttons 2010 immerhin zusätzlich 340.000 Menschen, zur Wahl zu gehen.

Nutzer als Versuchskaninchen

Und das gezielte Hochspülen von geteilten Nachrichtentexten soll die Wählerquote in dieser Gruppe sogar um drei Prozent gesteigert haben. Das zumindest haben Recherchen des US-Magazins Mother Jones ergeben. Der Artikel, der seither in den USA für Aufruhr sorgt: Muss Facebook transparenter sein, wie es mit seinen Nutzern experimentiert? Und: Kann das soziale Netzwerk Wahlen entscheiden? Facebook selbst gibt sich bislang wenig auskunftsfreudig über dieses Experiment.

Am Dienstag stimmen die US-Bürger über Repräsentantenhaus, Senat sowie 36 Gouverneure ab. Spannend wird das Rennen um die Macht im Senat: Dort fehlen den Republikanern sechs Sitze, um die Mehrheit von der Partei des US-Präsidenten zu erobern.

Die ersten Wahllokale öffnen an der amerikanischen Ostküste am Dienstag um 12.00 Uhr MEZ. Die letzten Lokale schließen in Alaska und Hawaii am Mittwoch um 6.00 Uhr MEZ. Bis das endgültige Ergebnis für den Senat feststeht, könnte es allerdings aufgrund von Stichwahlen bis Januar dauern. Doch bereits kurz nach Schließung der ersten Wahllokale am Mittwoch um 1.00 Uhr MEZ dürften die großen TV-Sender erste Prognosen und Hochrechnungen präsentieren.

Ein Motiv, das wieder und wieder in der Science-Fiction bemüht worden ist: Der Konzern drückt Knöpfe, die Nutzer reagieren. Der Algorithmus lenkt, die Menschen folgen. Unbehaglich, wenn das nun, heute, im Big-Data-Zeitalter, tatsächlich Realität wird. Die Nutzer als Versuchskaninchen. Der Lenkung der mächtigen Konzerne ausgeliefert, die die Geschicke der Welt lenken. Es wäre eine Antiaufklärung.

Doch nun einmal einen Schritt zurück. Wenn wir nicht über „die Nutzer“ sprechen, sondern von uns ganz persönlich: Funktionieren wir wirklich so billig? Ein paar Knöpfe, ein paar Posts und Links mehr, die man zu einem bestimmten Zeitpunkt in seinem Newsfeed sieht und schon ist man dem unsichtbaren Willen eines bösen Konzerns unterworfen? Im Allgemeinen sind die Leute vielleicht so blöd. Sich selbst nimmt man bei solchen Analysen ja gerne aus.

Das unangenehme Ergebnis diverser Facebook-Studien ist: Ja, so einfach sind wir manipulierbar. So banal und billig funktionieren wir. Manchmal. Wenn man die richtigen Knöpfe drückt. Oder irgendwelche externen Faktoren uns dazu gebracht haben, unser Verhalten zu ändern. 61 Millionen Nutzer waren 2010 Teil von Facebooks Wahlbutton-Experiment, 340.000 mehr gingen wählen. Das sind 0,14 Prozent der Gesamtwählerschaft. Verhaltensänderungen in homöopathischen Dosen. Aber doch Veränderungen – die unter bestimmten Umständen auch einen Wahlausgang mitentscheiden könnten.

Algorithmen liefern Informationen

Und doch bleibt der Kontrollverlust problematisch. Wer sich in Zeitung, Fernsehen oder Radio zu stark im Sinne seiner eigenen Meinung informiert fühlt, kann einfach umschalten oder ein anderes Blatt kaufen. Dass das publizistische Produkt nicht neutral ist, ist transparent – anders als bei Facebook.

Steckt uns Facebook unbemerkt in Filterblasen, während wir uns in unserer Nachrichtenauswahl vom sozialen Empfehlungsstrom leiten lassen, nehmen wir von bestimmten Nachrichten unter Umständen gar keine Notiz mehr. Und fühlen uns zunehmend bestärkt in unserer eigenen Position – weil Facebooks Algorithmus uns mehr und mehr entsprechende Informationen nach oben spült.

Werden wir dann auch noch Gegenstand eines Facebook-Experiments, ohne zu wissen, wie unser Nachrichtenstrom frisiert wurde oder dass wir überhaupt Teil dieses Experiments sind, ist es noch schwerer, sich zu widersetzen.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.