Sprachforscher über Desinformation: „Keine Zensur, keine Diskriminierung“

Eine neue Software des Fraunhofer Instituts soll in Sozialen Medien selbstlernend Falschnachrichten finden. Unter anderem sollen Sprachfehler darauf hinweisen.

Zwei Hände tippen auf einer Computer-Tastatur

Die Maschine macht das: Ein Algorithmus soll das Internet aufräumen Foto: The Canadian Press/Jonathan Hayward

taz: Warum deuten orthografische Fehler auf Fake News hin?



Ulrich Schade: Natürlich können nur mehrere Indizien in ihrer Kombination auf die Klassifikation „Fake News“ hinweisen. Wenn Sie zum Beispiel eine Hotelbewertung für ein türkisches Hotel sehen und jemand mit einem deutschen Standardnamen gibt vor, in diesem Hotel gewesen zu sein: Wenn in dieser Bewertung dann zum Beispiel ein „süper“ steht mit einem „ü“ anstelle des „u“, dann kann dies ein Indiz dafür sein, dass die Bewertung ein türkischer Muttersprachler geschrieben hat, die Bewertung ein „Fake“ ist und sie eventuell von dem Hotel selbst stammt. 



Wie schließen Sie einfache Schreibfehler oder eine Diskriminierung von Menschen aus, die Deutsch weniger gut beherrschen?

Es wird nicht definitiv gesagt, das sind jetzt „Fake News“, sondern nur, dass es Hinweise darauf gibt. Der Nutzer muss letztlich die Bewertung selbst vornehmen. 



Als Indiz für Fake News haben Sie die Formulierung „die aktuelle Bundeskanzlerin Angela Merkel“ genannt. Warum ist das sinnvoll?



Normalerweise würde man so eine umständliche Beschreibung in einer deutschen Zeitung nicht lesen. Hier in Deutschland weiß jeder, wer mit „Bundeskanzlerin“ gemeint ist. Wenn sie das aus einer auswärtigen Position wie Russland oder den USA schreiben, sieht das anders aus. Daher ist der Zusatz „aktuell“ ein weiterer, minimaler Hinweis, dem man nachgehen sollte.

Dahinter steht die Annahme, dass übersetzte Beiträge tendenziell Fake News sind. 



Nein. Dahinter steht, dass wir zu dritt gezielt nach Beiträgen geschaut haben, die demokratiefeindlich sind. Wir haben entsprechende „Fake News“ aus der sogenannten „Deutschen Tageszeitung“ genommen. Das war eine Internetseite, die zum Teil wie die Seite einer seriösen Zeitung aufgemacht war. Sie wurde aber offenbar von russischen Muttersprachlern erstellt. Das ist eine der Quellen, die wir für das Korpus benutzt haben. Dadurch ergaben sich diese Merkmale. 



Ulrich Schade, 60 Jahre, ist Linguist und Mathematiker am Fraunhofer-Institut für Kommunikation, Informationsverarbeitung und Ergonomie (FKIE). Als Forschungsgruppenleiter hat er zusammen mit einem Wissenschaftler-Team das selbstlernende Fake News-Programm entwickelt. Davor erforschte er Computerlinguistik an der Uni Bielefeld.

Wie beugen Sie vor, dass durch das Training ein „bias“, also menschliche Vorurteile, in die Entscheidung der Software einfließen?



Sie haben in gewisser Weise Recht, dass da ein Bias mit drin ist. Sie müssen zunächst Korpora zusammenstellen. Dafür benötigen Sie ein Korpus mit Material, das sie als „Fake News“ bezeichnen würden, und ebenfalls ein Korpus mit objektiv guten Meldungen, wie zum Beispiel von dpa. Das Tool lernt so, danach zu entscheiden, ob eine neue Nachricht eher die Merkmale einer „guten“ Nachricht oder die von „Fake News“ hat.



Wo sehen Sie Anwendungsmöglichkeiten?



„Fake News“ finden zwar alle interessant, aber wir sehen die Anwendung eher in der Erkennung von Hate Speech. Ein Provider könnte Seiten vom Netz nehmen, wenn jemand, um ein drastisches Beispiel zu wählen, andere etwa als „Nigger“ bezeichnet. Solche Nutzer könnte man anschreiben und sie auffordern, sich bitte an die Regeln zu halten. Allerdings ist die Bewertung von Hate Speech schwieriger, nicht bei Beleidigungen, da sind sich alle einig. Aber wenn es um etwas geht, das im Englischen „offensive speech“ genannt wird, ist das schwieriger. Wir wollen ja keine Zensur und auch keine Diskriminierung.



Wird ihre Anwendung bereits angewandt?



Wir sagen prinzipiell nichts über Kunden, sofern diese das nicht ausdrücklich wünschen.



Ihr Programm ist aber nicht einzigartig?

Sie können davon ausgehen, dass große Unternehmen wie Facebook ihre eigenen Tools haben, und wenigstens ein anderes Fraunhofer-Institut hat auch ein ähnliches Programm entwickelt.

Sie sagen, die Einordnung von Hate Speech sei schwierig. Ist eine technologische Lösung trotzdem für die Herausforderung Fake News geeignet?



Es gibt keine andere Wahl. Sie können sich ja nicht permanent den gesamten Twitter-Stream ansehen. Daher ist es sinnvoll, dass eine Maschine vorsortiert. Aber abschließend muss immer noch ein Mensch rüberschauen, damit nichts falsch läuft.


Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.