Forschung zu sozialen Netzwerken: Ein Lügendetektor für Twitter

Forscher wollen mit der Software Pheme Falschmeldungen filtern. Das soll Journalisten helfen. Aber auch die Medizin könnte davon profitieren.

Pheme, die griechische Göttin der Gerüchte, gossipt in den Dresdner Nachthimmel. Twitter-User tun's per Smartphone. Bild: dpa

BERLIN taz | Soziale Netzwerke sind gespickt mit Halbwahrheiten, Gerüchten - und mit Fakten. Letztere in Echtzeit herauszufiltern, ist bislang unmöglich. Das möchte das europäische Forschungsprojekt Pheme ändern. Seit Januar arbeiten internationale Wissenschaflter an einem Programm, das falsche Tweets in sozialen Netzwerken automatisch aussortieren soll.

„Primär geht es darum, ein Werkzeug zur Verfügung zu stellen, um fragliche und manipulative Inhalte zu identifizieren und damit schnellere und bessere Entscheidungen zu treffen“, sagt Arno Scharl, Professor für Neue Medien Technologie in Wien.

Damit könnte Pheme speziell Daten-Journalisten dabei helfen, mit enormen Datenmengen umzugehen. Bei unübersichtlichen Großereignissen wie zuletzt den Unruhen in der Ukraine sammeln sich in den sozialen Netzerken Unmengen an Informationen. Der Wahrheitsgehalt dieser Nachrichten ist dabei für den Einzelnen meist nur schwer festzustellen. Mit einem algorithmischen Filter könnte Pheme das erleichtern, so die Forscher.

Um das zu erreichen, wollen Scharl und seine Kollegen die Eigendynamik von Nachrichten in den sozialen Netzwerken verstehen. Wie schnell breitet sich ein Thema aus, wie lange dauert es, bis die ersten kritischen Kommentare publiziert werden, wie hoch ist der Anteil der Pro/Contra Argumente. Verbreitungsmuster könnten dann erste Aufschlüsse über den Charakter von Informationen geben. „Aus vergangenen Beobachtungen kann das System dann lernen, jene Quellen und Themen zu identifizieren, die vielfach für Falschmeldungen verantwortlich zeichnen“, so Scharl.

Gerüchte auf Twitter halten sich hartnäckig

Britische Forscher analysierten die Entwicklung von Falschmeldungen auf Twitter während der Straßenunruhen in London vor drei Jahren. Das Ergebnis: Gerüchte, wie das London Eye stünde in Flammen, wurden schnell und unhinterfragt weitergeleitet. Trotz früher Gegendarstellungen war die Falschmeldung erst nach längerer Zeit enttarnt. Twitter-Gerüchte halten sich hartnäckig.

Mit Pheme wollen die Wissenschaftler jetzt programmierbare Merkmale entwickeln, um den Wahrheitsgehalt einer Nachricht schneller zu bestimmen. Die EU fördert das Projekt mit knapp drei Millionen Euro. Ein erster Prototyp der Software soll bereits bis Ende nächsten Jahres fertig sein.

Pheme soll beim Filtern künftig so vorgehen: Zunächst wird ein Tweet selbst auf Aussage, Stil und sprachliche Eigenschaften hin untersucht. Der Inhalt des Textes wird dann mit entsprechenden Informationen von vertrauenswürdigen Online-Datenbanken verglichen. In einem letzten Schritt untersucht Pheme die Verbreitung der Nachricht selbst. Wer schreibt worüber, und von wem wird der Tweet weiterverschickt. So sollen chronische Falschmelder oder falsche Twitter-Accounts möglichst rasch entlarvt werden.

„Wenn das Projekt aus der Menge der Tweets einen Wahrheitsgehalt ableiten will, dann wird womöglich aus einer oft getweeteten Lüge plötzlich die Wahrheit“, sagt Martin Virtel, Datenjournalist bei Open Data City und Dozent für Multimedia-Journalismus. Denn auch Pheme arbeitet am Ende nur mit einem Algorithmus. Dessen Vermögen, Wahrhaftigkeit aus Tweets abzuleiten, ist für Virtel begrenzt: „Wahrheit hat mit dem sozialen Kontext zu tun und mit etwas, das nicht in einem Text steht. Das ist meistens das Dilemma von künstlicher Intelligenz.“

Mehr Erkenntnis? Mehr Daten!

Mediendozent Virtel begrüßt das wachsende Interesse an sozialen Netzwerken. Für ihn stehen Wissenschaftler und Journalisten hier am Anfang ihrer Arbeit: „Eine der größten Herausforderungen ist, informationstechnisch zu verstehen, was da passiert.“ Die Auswertung von Daten durch Filter-Programme führe nicht zu mehr Erkenntnis, sondern vor allem zu neuen Daten. „Wir erfahren nicht mehr über die Welt, wir haben mehr Daten über die Welt“, so Virtel. Das sei ein großer Unterschied. Abseits von ökonomischen Verwertungsinteressen ist es für den Journalisten daher wichtig, die Bedeutung von und die Geschichten hinter den Datenmengen zu erfahren.

Eine weitere Zielgruppe der Pheme-Forscher sind neben Journalisten auch Mediziner. Denn mithilfe der Software sollen nicht nur aktuelle Nachrichtenlagen gefiltert werden. Auch langfristige Prozesse, beispielsweise die Ausbreitung bestimmter Krankheiten und deren Dokumentation in den sozialen Netzwerken, sollen mit dem Programm besser nachzuvollziehen sein. Im Idealfall könnte Pheme so bei der Bekämpfung von Epidemien helfen.

Die Wissenschaftler stehen mit diesen Ideen noch am Beginn ihrer Arbeit. Thierry Declerck vom Deutschen Forschungszentrum für Künstliche Intelligenz sagt: „Wir wollen uns zunächst darauf konzentrieren, wie ungesichertes Wissen und kontrovers diskutierte Ereignisse oder Tatbestände in den sozialen Medien automatisch zu erkennen sind.“ Erst dieses Wissen erlaubt es später, weitere Ideen umzusetzen. Aber auch das geht am Ende nicht vollautomatisch.

Schließlich soll Pheme keine Polizei-Software für das Internet werden. „Am Schluss“, so Declerck, „wird immer ein Mensch eine Entscheidung für seine konkrete Anwendung treffen müssen.“ Für Daten-Journalisten bedeutet das: Pheme könnte schon bald ihre Recherche erleichtern, aber es wird sie ihnen nicht ersparen.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.