Neue Initiative in Hamburg: Fragwürdiger Kampf gegen radikale Inhalte
Ein Verein von Ehrenamtlern will mit KI rechtsextreme Netze entlarven – später auch linksextreme Netze. Der Datenschutzbeauftragte will das prüfen.

Auf die Idee sei er im Januar 2024 gekommen, als die Correctiv-Recherchen über ein rechtes Geheimtreffen in Potsdam zu großen Demonstrationen führten, sagt Forthmann im Gespräch mit der taz. „Da wollten viele was tun“, sagt der Wirtschaftsingenieur, der hauptberuflich geschäftsführende Gesellschafter der PR-Agentur „Faktenkontor“ ist.
Es gebe leider zwischen den US-Social-Media-Konzernen und der extremen Rechten in Deutschland ein unheiliges Zusammenspiel. Rechte Posts werden sehr schnell verbreitet und in den Timelines hochgespielt. „Da ist es wichtig, die Taktgeber im Netzwerk zu identifizieren“, sagt er – und das könne seine KI.
Mit dem früheren CDU-Abgeordneten Roland Heintze gründete Forthmann zunächst die Initiative „KI gegen rechts“. Man wolle die eigenen Fähigkeiten im „Medienmonitoring und KI-basierten Analysen“ nutzen, um die zunehmende Rechtskommunikation in sozialen Netzwerken transparent zu machen, die handelnden Akteure und ihre Vernetzung zu identifizieren und um aufzuzeigen, „wie Kommunikation gezielt zur Radikalisierung genutzt wird“, heißt es auf der entsprechenden Website.
Suche nach Spendern für Datenkauf
Privatpersonen und Unternehmen könnten „KI gegen rechts“ unterstützen, gern wolle man sie für ein „Supporter-Paket im Wert von 10.000 Euro gewinnen“.
Vor einigen Monaten wurde nun aus der Initiative der Verein „KI für Demokratie“. „Man gewinnt Unternehmen eher als Unterstützer, wenn man ‚für‘ etwas ist“, erklärt Forthmann den neuen Namen. Mittlerweile unterstützten das Projekt 100 Führungskräfte als ehrenamtliche Helfer, auch aus der Uni Hamburg und der Nordakademie.
Doch man benötige Geld, etwa 5.000 Euro im Monat, um die Rechnerkapazität und den Datenkauf zu bezahlen. Diese beziehe man von einem Pressemonitoring-Unternehmen, das Social-Media-Daten anbietet.
Diese Daten werden anhand einer Liste von rund 500 Signalwörtern überprüft wie etwa „Gewalttäter“, „Great Reset“ oder „Asylmissbrauch“ oder auch „Hitlers Geburtstag“ und bestimmter Emojis. Man durchleuchte im ersten und zweiten Schritt auf Hassrede und rechtsextreme Äußerungen, dann schaue man im dritten Schritt, wer dort mit wem agiert. Man sei sich der hohen Verantwortung eines korrekten Umgangs bewusst, sagt Forthmann. „Wir haben dort auch Beifang, etwa von Menschen, die selbst nur recherchieren.“
Thomas Fuchs, Hamburgs Datenschutzbeauftragter
Öffentlich sind die Analysen nicht, um eine Klagewelle von Rechten zu vermeiden, wie Forthmann sagt. Menschen könnten sich zu Unrecht abgestempelt sehen und eine Verletzung des Persönlichkeitsrechts konstruieren. „Die Klage würde natürlich abgewiesen, aber wir hätten hohe Anwaltskosten.“ Die Anforderungen an den Datenschutz werden aber „vollständig erfüllt“, sagt Forthmann. „Wir sammeln nur öffentliche Posts und haben einen Datenschutzbeauftragten.“
Die Analysen stelle der Verein einzelnen Medien, öffentlichen Institutionen wie der Medienanstalt und NGOs zur Verfügung. Auch erwäge man, Hasskriminalität an Ermittlungsbehörden zu melden. Zudem reagiere der Verein auch auf Anfragen.
Als vor einigen Wochen plötzlich über einen Syrer, der quasi ein Held ist, weil er an Hamburgs Hauptbahnhof half, eine psychisch kranke Messerstecherin zu stoppen, im Netz viele negative Kommentare kursierten, habe eine Redaktion angefragt, ob der Verein helfen könne, das aufzuarbeiten. Und mit der Uni Hamburg betreibe man ein Forschungsprojekt, dass Schulen aktuelle Beispiele von Desinformation für den Unterricht verschafft.
Martin Semmann ist Leiter des „Hub of Computing and Data Science“ (HCDS) der Uni Hamburg und bestätigt die Kooperation: „Wir beteiligen uns an der Initiative auf wissenschaftlicher Basis“, sagt er.
Ein neutrales Werkzeug
Die Zusammenarbeit verlaufe Hand in Hand, beide Seiten hätten eine gemeinsame Plattform, auf der das Projekt umgesetzt wird. KI-Modelle funktionieren über große Datenmengen, erklärt Semmann. „Derzeit beobachten wir eine Zunahme rechter Narrative im Netz – da findet man leicht viele Beispiele.“ Das Tool selbst sei neutral und könne ebenso eingesetzt werden, um Inhalte zu religiösem Extremismus oder Linksextremismus zu analysieren.
Doch das im Hamburger Abendblatt angekündigte nächste Vorhaben scheint zumindest etwas heikel. Ordnet der Verfassungsschutz das Etikett „Linksextremismus“ doch auch Gruppen zu, die selbst gegen rechts kämpfen. Auf die Frage, welche Linksradikalen der Verein in den Blick nehmen möchte und wo Linksextremismus für ihn beginne, sagt Forthmann: „Sie fragen zu früh. Soweit sind wir noch nicht.“
Man habe mit dem Rechtsextremismus angefangen, „denn das ist in meinen Augen die größere Gefahr für die Demokratie“. Wenn es so weit sei, werde man sich in Kooperation mit der Wissenschaft dem nähern. Auf der Homepage schreibt der Verein, es sei von Personen über Unis bis hin zu Unternehmen jeder willkommen, der „zum Kampf gegen die Verbreitung radikaler Inhalte betragen möchte“.
Zugriff staatlicher Stellen problematisch
Auf der Liste der 500 Wörter finden sich auch Begriffe wie „Bürgerrechte“ oder „Weltfriedenstag“. Die Frage ist, was als radikaler Inhalt verfolgt wird und ob so eine KI-Durchleuchtung nicht auch einschüchtert? Forthmann sagt: „Unser Anliegen ist nicht zu verurteilen. Unser Anliegen ist Transparenz.“
Doch der Hamburgische Datenschutzbeauftragte Thomas Fuchs hat zu dem Projekt „KI für Demokratie“ zumindest Fragen. „Grundsätzlich muss auch der hier Beobachtete das Recht und die Möglichkeit haben, der Weitergabe seiner Daten zu widersprechen“, sagt er zur taz. „Ob das bei ‚KI für Demokratie‘ der Fall ist, haben wir noch nicht geprüft.“
Man befinde sich hier in einem Graubereich. „Es ist nicht so, dass ich, nur weil ich etwas öffentlich stelle, zwingend damit rechnen muss, dass jemand anderes diese Äußerung für eigene Zwecke verwendet.“ Der Zugriff staatlicher Stellen wie etwa der Medienanstalt auf ehrenamtlich erhobene Daten gestalte sich „rechtlich als problematisch“, warnt Fuchs. Hier drohten bei fehlender Sorgfalt eines KI-Einsatzes Grundrechtsverletzungen und eine „Überschreitung staatlicher Eingriffsgrenzen“.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
Starten Sie jetzt eine spannende Diskussion!