Chrome-Erweiterung „Tune“ gegen Hass: Google lässt Trolle verschwinden

Der Google-Browser Chrome kann jetzt automatisch Hasskommentare auf Plattformen ausblenden. Dahinter steckt künstliche Intelligenz.

Auf dem Bildschirm eines Laptops sieht man eine bunte Wolke explodieren

Weniger Hass-Explosionen im Netz dank Künstlicher Intelligenz: Eine Chrome-Erweiterung soll helfen Foto: UI8/Unsplash

Sich durchs Netz bewegen ohne dabei dauernd auf hirnlose, beleidigende Kommentare zu stoßen. Das ist unmöglich für diejenigen, die Youtube, Facebook oder Twitter benutzen – also für so ziemlich alle. Niemand konnte das Problem der mit Hass überlaufenden Kommentarspalten bisher lösen: nicht Social-Media-Redaktionen, nicht die Schwarmintelligenz der User, und auch nicht all die Feuilleton-Appelle, doch bitte zu einer zivilen Gesprächskultur zurückzufinden.

Was Menschen alleine nicht konnten, verspricht jetzt eine neue Erweiterung für den Google-Browser Chrome, und zwar mittels künstlicher Intelligenz. „Tune“ heißt die Software, die der Google-Mutterkonzern Alphabet am Dienstag vorgestellt hat, entwickelt wurde sie von dessen Tochterunternehmen „Jigsaw“.

„Tune“ ist verknüpft mit „Perspective“, einer künstlichen Intelligenz, die Jigsaw 2017 entwickelt hat. Perspective erkennt die Art Kommentare, die gemeinhin als „toxisch“ bezeichnet werden: beleidigend, gewaltvoll und wenig hilfreich für eine produktive Diskussion.

Möglich wird das durch maschinelles Lernen: Die Software ist mit einem großen Datensatz aus Kommentaren „gefüttert“ worden, die irgendwann einmal Menschen als „toxisch“ eingestuft haben. Dadurch „lernt“ die Maschine, Texten einen Wert zuzuweisen, wie wahrscheinlich sie „toxisch“ sind. Als Nutzer*in, die „Tune“ installiert hat, kann man dann selbst regeln, ab welchem Schwellenwert die Kommentare ausgeblendet werden. Allerdings funktioniert das Tool bisher nur für Kommentare auf Englisch, denn deutschsprachige „Trainingssätze“ hat bei Google noch niemand zusammengestellt.

Die Maschine kann irren

In den Kommentarspalten der New York Times ist „Perspective“ schon seit Sommer 2017 im Einsatz, weswegen dort das Kommentieren überhaupt erst wieder möglich wurde. Vorher war es für die Social-Media-Redaktion der Zeitung kaum noch möglich, die vielen Kommentare zu kontroversen Themen zu moderieren.

Allerdings liegt hier auch der entscheidende Unterschied: Bei der New York Times trifft die Software eine Vorauswahl, am Ende entscheiden weiter Menschen, ob die Kommentare gesperrt werden. Das ist wichtig, weil die Maschine durchaus irrt. Bei der Chrome-Erweiterung sind die Kommentare dann einfach weg, auch wenn sie vielleicht zu unrecht als „toxisch“ eingestuft worden sind.

Außerdem könnte es sein, dass die lernende Maschine nicht immer mit aktuellen Debatten Schritt hält. Wenn die Trainingsdatensätze noch größtenteils aus der Obama-Zeit stammen, erkennt die Software nicht unbedingt die neuesten Beleidigungs-Moden der Trump-Ära.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.