Regeln für Facebook-Beiträge: Hätte, hätte, Nettiquette

Nach welchen Kriterien Zuckerbergs Netzwerk Beiträge löscht, war bisher unklar. Einen Eindruck liefern jetzt interne Schulungsdokumente.

Radiergummi neben dem Facebook-Logo

Besser mal wegradieren? Facebook schult seine Mitarbeiter im Löschen Foto: imago/Steinach

Tipps geben, wie man Frauen das Genick bricht: Kein Problem! Jedenfalls wenn es um keine konkrete Frau aus Politik und Medien geht. So unterscheidet Facebook zwischen Beiträgen, die gelöscht werden müssen, und solchen, die stehen bleiben dürfen – glaubt man internen Schulungsunterlagen des Social-Media-Konzerns, die der britische Guardian veröffentlicht hat.

Facebook hat in den letzten Jahren dem Druck aus Politik und Gesellschaft nachgegeben und zumindest versprochen, Hass und verbale Gewalt schneller und gründlicher zu entfernen. Bisher war allerdings nicht klar, nach welchen Richtlinien Facebook Hassposts oder Gewaltaufrufe entfernt.

Bei den geleakten Dokumenten handelt es sich um Schulungsunterlagen, mit denen Facebook seinen ModeratorInnen beibringt, welche Beiträge zu entfernen und welche zu ignorieren sind. Der Konzern unterscheidet dabei offenkundig zwischen Äußerungen, die „zu Schaden in der realen Welt“ führen, und solchen, die das aus Sicht von Facebook nicht tun.

So sollen ModeratorInnen etwa Gewaltandrohungen stehen lassen, die unrealistisch sind oder sich gegen abstrakte Gruppen richten – es sei denn, diese Gruppen seien besonders „vulnerabel“. Als solche Gruppen definiert Facebook etwa „Zionisten“ und, bezogen auf die Philippinen, Drogendealer.

Gewaltaufrufe gegen Personen des öffentlichen Lebens wiederum sollen entfernt werden, weil in diesem Fall die Wahrscheinlichkeit höher sei, dass diese tatsächlich umgesetzt werden.

Diskurs der Gewalt vs. Meinungsfreiheit

Konkret heißt das: Ein Post, der beschreibt, wie man am besten „einer Schlampe das Genick bricht“, kann stehen bleiben, weil der Gewaltaufruf einerseits zu abstrakt ist und sich andererseits an eine nicht als „vulnerabel“ definierte Gruppe richtet. Dasselbe gilt laut Schulungsfolien für Gewaltaufrufe gegen Rothaarige oder dicke Kinder.

Wer allerdings zum Töten von Donald Trump oder Hillary Clinton aufruft, dessen Post wird entfernt und das Profil unter Umständen gesperrt. Dasselbe gilt für Gewaltandrohungen, die sich gegen Privatpersonen richten und realistisch und konkret formuliert sind. Heißt: Der Wunsch, jemand möge sterben, geht durch. Ist allerdings von einer konkreten Tatwaffe die Rede, wird der Post gelöscht.

Facebook definiert einen kleinsten ­gemeinsamen Nenner für „Hate Speech“

Auch zum Umgang mit der Darstellung von Kindesmisshandlung gibt Facebook Richtlinien vor: Bilder, in denen Kinder misshandelt werden, bleiben erhalten, um zu ermöglichen, dass das Kind „identifiziert und gerettet“ werden könne – das gilt jedoch nicht, wenn das Bild in einer Weise kommentiert wird, die die Misshandlung rechtfertigt oder glorifiziert.

Die Richtlinien unterscheiden also zwischen Äußerungen, von denen Facebook annimmt, dass sie unmittelbar zu Gewalt im echten Leben führen. Äußerungen, die eher mittelbar zu einem Diskurs der Gewalt gegen bestimmte Gruppen beitragen, fallen für Facebook unter die Meinungsfreiheit.

Intransparent und undemokratisch

Das zeigt, dass es dem Konzern vor allem darum geht zu verhindern, dass Gewaltverbrechen passieren, die sich klar mit Inhalten auf Facebook in Verbindung bringen lassen. Ein Mord etwa, zu dem kurz zuvor auf Facebook aufgerufen wurde, könnte dem Netzwerk einen erheblichen Image­schaden einbringen.

Zum anderen zeigen die Richtlinien, dass Facebook als Richterinstanz über freie Meinung einerseits und gefährliche Hasskommentare andererseits überfordert ist. Was etwa eine „vulnerable Gruppe“ ist oder welche Form der Mordandrohung realistisch ist, variiert je nachdem, wo sich die VerfasserIn befindet und wo der Post gelesen wird.

Facebook definiert einen kleinsten gemeinsamen Nenner aus dem, was global unter „Hate Speech“ verstanden wird, und versucht daraus allgemeine Regeln abzuleiten. Dieser Prozess ist intransparent und undemokratisch. Dazu kommt: In all den Fällen, die nicht zufällig in den Schulungsunterlagen stehen, müssen die ModeratorInnen offenbar selbst entscheiden – und damit liegt die Verantwortung bei den Falschen.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.