Wenn Maschinen berichten

Historisch gesehen ist Journalismus seit jeher von Technologie geprägt. Aber wohin führt uns die algorithmische Textproduktion? Eine Diskussion auf dem taz lab

Sieht so die Zukunft aus? Textroboter sind längst Journalisten. Foto: dpa

von João da Mata

Man stelle sich vor: zwei Autos kollidieren an einem Montagmorgen. Diese Autos, ausgestattet mit moderner Kollisionserkennungstechnologie sowie GPS, senden Informationen über diesen Zusammenstoß an die zuständigen Behörden. Zur gleichen Zeit werden Daten über den Unfall von einem Nachrichtendienst gesammelt, der mithilfe eines Algorithmus die Story als „relevant für den Leser“ bewertet und automatisch einen kurzen Bericht darüber veröffentlicht. Dadurch werden Leser individuell informiert, wie sie auf ihrem Weg zur Arbeit einen Stau vermeiden können.

Dieses Beispiel mag weit hergeholt erscheinen, doch angesichts der technologischen Entwicklungen ist dem nicht so. Journalismus hat sich schon immer an technologische Entwicklungen angepasst. Die Frage ist nur: wie wird sich der Roboterjournalismus weiterentwickeln?

Automatisch generierte Medieninhalte sind bereits präsent in der Berichterstattung. Textroboter sind Journalisten geworden. Zuletzt erst startete die Redaktion von Stuttgarter Zeitung und Stuttgart Nachrichten einen automatisierten Feinstaubradar: jeden Tag werden automatisch 80 Berichte erstellt. Als Autor wird „Ax“ angegeben, nach der Textautomatisierungssoftware „Ax Semantics“. Der Unterschied zwischen Texten, die von Menschen, und denen, die von Maschinen geschrieben werden, ist für die Leser dabei kaum noch zu erkennen. Jan Georg Plavec, Multimedia Redakteur bei der Stuttgarter Zeitung, hat das Projekt von Anfang an geleitet und berichtet: „Der Textroboter führt definitiv nicht zur Reduktion von Kosten, sondern erzeugt sie. Wir bezahlen die Lizenzkosten und müssen die Datenbanken betreiben“, erklärt Plavec. „Unser Ziel ist eigentlich, viel mehr Texte mit der gleichen menschlichen Arbeitskraft zu erzeugen. Die Maschine macht dann eine lästige Arbeit, die für Menschen nicht wirklich befriedigend wäre.“

Ausgangspunkt für Textroboter sind Datenbanken, wie beispielsweise für Sport-, Finanz-, Wetter- oder Verkehrsdaten. Diese Informationen können dann zusammen mit historischen Daten analysiert werden, um zusätzliche Erkenntnisse zu gewinnen, die berichtenswert sind. Sie werden also nach vordefinierten linguistischen und statistischen Regeln zu einem Text verarbeitet. „Häufig füttert man den Algorithmus mit Daten aus nur einer Quelle, die nicht anhand einer anderen Quelle überprüft wird, wie traditionell üblich“, erklärt Julius Reimer, Wissenschaftler am Hans-Bredow-Institut für Medienforschung. „Man muss diskutieren, inwiefern solche journalistischen Qualitätsstandards auch für automatisiert erstellte Beiträge gelten sollen“.

Dazu muss sich aber noch einiges in den Redaktionen ändern. „In der Zukunft werden wir Programmierer, Datenanalysten und auch andere Berufe zusammenarbeiten sehen, die die Technisierung in den Redaktionen begleiten“, erzählt Saim Alkan, CEO von Ax Semantics. „Aufhalten werden wir diese Technologie nicht mehr. Dazu ist sie schon zu weit fortgeschritten.“ Worüber man allerdings sprechen müsse, so Alkan, wäre, wie man das Berufsfeld in einer automatisierten Welt gestaltet. „Man kann ja nicht ältere Mitarbeiter einfach auf der Strecke lassen, sondern man muss sie mitnehmen“.

Angst vor Roboterjournalisten müsse man aber nicht haben, so der Journalist Plavec: „Diese Maschinen können noch nicht selber denken: und selber denken ist eine der wesentlichen Eigenschaften von Journalisten. Solange die Maschine das nicht kann, besteht keine Gefahr“. Doch die Frage, wie sich der Roboterjournalismus weiterentwickeln wird, bleibt noch immer offen.

Mehr dazu auf dem taz lab: 9.15 Uhr, Zelt 2