Digitalpolitikerin über Feminismus: „Technik kann sexistisch sein“

SPD-Politikerin Anna Kassautzki befürwortet eine stärkere Regulierung von Meta, X und Co. Nur so könne man marginalisierte Gruppen vor Hass schützen.

Porträt von SPD-Bundestagsabgeordneter Anna Kassautzki.

SPD-Bundestagsabgeordnete Anna Kassautzki Foto: Uwe Koch/Eibner-Pressefoto/imago

taz: Frau Kassautzki, Sie sind Teil des Digitalausschusses und setzen sich dort besonders für die Rechte von Frauen im Netz ein. Wie würde eine gerechtere digitale Zukunft aussehen?

Anna Kassautzki: Eine gerechte Zukunft wäre eine Welt, in der Menschen gleiche Chancen, Rechte und Zugang zu Wissen und Teilhabe haben, ganz egal woher sie kommen, welches Geschlecht sie haben, wen sie lieben oder wie viel Geld sie oder ihre Eltern haben. Das gilt in der analogen, wie in der digitalen Welt. Wenn wir über Gerechtigkeit sprechen, dann ist es schwierig, die analoge und digitale Welt voneinander zu trennen, denn unser Leben findet in beiden statt. Trotzdem gibt es in der digitalen Welt besondere Herausforderungen.

Welche sind das?

Daten spielen eine viel größere Rolle. Um zum Beispiel Künstliche Intelligenzen und Algorithmen zu trainieren, brauchen wir große Datenmengen. Wenn der verwendete Datensatz sehr männlich ist, dann erhalte ich verzerrte Ergebnisse für Frauen. Es gibt Algorithmen, die beispielsweise in Bewerbungsprozessen helfen und Kan­di­da­t*in­nen aufgrund bestimmter Merkmalen, die nicht zur ausgeschriebenen Stelle passen, aussortieren.

Anna Kassautzki, Jahrgang 1993, ist SPD-Politikerin und stellvertretende Vorsitzende des Digitalausschuss. Sie ist seit 2021 Mitglied des Deutschen Bundestags.

Wenn der Algorithmus aber nur mit Daten von weißen Personen gefüttert worden ist, kann es sein, dass passende Be­wer­be­r*in­nen wegen ihrer Hautfarbe nicht ausgewählt werden. Wir übertragen somit Diskriminierungen von der analogen Welt in die digitale und das unter dem vermeintlichen Deckmantel der Neutralität. Technik kann nämlich rassistisch, sexistisch oder antisemitisch sein.

Wie kann man gegen solche Diskriminierungen vorgehen?

Wir müssen uns bewusst werden, dass es Verzerrungen gibt und Maßnahmen dagegen ergreifen. Ich stecke Hoffnung in sogenannte synthetisierte Datensätze. Ich füttere die KI dann mit Daten, die aus wahren Personenprofilen bestehen und erfundenen Daten, die vorher festgelegten Parametern folgen. Somit stelle ich eine gewisse Diversität sicher, sodass diese Diskriminierungen aus der Vergangenheit nicht auch noch technisch fortgeführt werden.

In der Digitalstrategie der Bundesregierung sprechen Sie von „feministischer Digitalpolitik“. Wie definieren Sie diese?

Wir brauchen einen vielfältigeren Blick auf Digitalpolitik: Wer entscheidet? Über wen wird entschieden? Und auf Basis welcher Daten trifft man die Entscheidungen? In den Reihen der Ent­schei­de­r*in­nen braucht es mehr Frauen, aber auch andere marginalisierte Gruppen. Zudem müssen wir Gruppen-spezifische Problemfelder ausloten. Hass im Netz zum Beispiel trifft Frauen und BPoCs häufiger als weiße Männer.

Sprechen Sie mit Betroffenen?

Ich spreche mit einzelnen Betroffenen und bin im sehr engen Austausch mit der digitalen Zivilgesellschaft, die uns immer wieder auf Fälle von Hass im Netz, digitaler Gewalt, struktureller oder technischer Diskriminierung hinweist. Es gibt einige Organisationen, die die feministische Perspektive auf Digitalpolitik in den Vordergrund setzen. Wir sichten Daten, die zeigen, wer sich wie im Netz bewegt, zum Beispiel. Wir schauen darauf, welche Auswirkungen Gesetze auf verschiedene Gruppen haben können.

Wie divers ist der Digitalausschuss?

Da ist noch Luft nach oben. Im vergangenen Jahr haben wir uns als Frauen im Ausschuss vernetzt und getroffen. Ich würde mich freuen, in der nächsten Legislaturperiode in einem noch vielfältigeren Ausschuss zu sitzen.

In der Digitalstrategie sprechen Sie auch von „Machtstrukturen im digitalen Wandel“. Was ist damit gemeint?

Wir müssen uns anschauen, wer Software und Hardware entwickelt. Ein ganz klassisches Beispiel ist, dass Mobiltelefone oftmals für Frauen unbequemer zu bedienen sind, da sie durchschnittlich kleinere Hände haben. Auch einige Softwares zur Sprach- und Gesichtserkennung funktionieren bei Frauen schlechter.

Das bedeutet, dass wir einerseits mehr Frauen in die MINT-Berufe bekommen müssen, denn je diverser ein Team ist, desto mehr Perspektiven sind schon in der Entwicklung abgebildet und eingebunden. Andererseits braucht es ein gesamtgesellschaftliches Bewusstsein für inklusive Technologie, damit der Wandel nicht auf den Schultern Einzelner lastet.

An welchem konkreten Projekt arbeiten Sie?

Also, eine Sache, die jetzt auf europäischer Ebene beschlossen wurde und noch im Februar in Kraft tritt, ist der Digital Services Act (DSA), wo es um die Regulierung von Plattformen geht und dadurch indirekt auch um Hass im Netz. Gibt es sichere Räume im Netz? Kann ich mich im Netz überhaupt frei bewegen?

Das ist ein Bereich, der überproportional Frauen betrifft, und grundsätzlich marginalisierte Gruppen. Frauen bekommen ganz andere Nachrichten als Männer, das bestätigen mir immer wieder andere Abgeordnete und Freund*innen, die politisch aktiv sind.

Über den DSA hinaus, was braucht es, um Hass im Netz zu minimieren?

Ich habe das auch selbst erlebt, als ich im Wahlkampf nicht nur Beleidigungen, sondern auch Morddrohungen bekommen habe. Was von der Meinungsfreiheit gedeckt, gelöscht, nach NetzDG bei den Plattformen gemeldet oder gar bei der Polizei angezeigt werden sollte, ist nicht immer klar. Ein befreundeter Jurist konnte mir hierbei helfen, aber nicht alle Menschen haben Ju­ris­t*in­nen in ihrem Freundeskreis. Da braucht es einerseits mehr Aufklärung, welche Rechte ich im Netz habe und andererseits eine Ausweitung der Strafverfolgung, damit wir Menschen tatsächlich vor Gewalt im Netz schützen können.

Das EU-Gesetz für digitale Dienste, der so genannte Digital Services Act (DSA), soll Hass im Netz und Falschinformationen verringern. Für 22 Onlinedienste mit jeweils mehr als 45 Millionen aktiven Nut­ze­r*in­nen Monat sieht das Gesetz bereits seit August 2023 Jahr spezielle Vorgaben vor. Dazu gehören Amazon und Zalando, Google, Meta oder X. Ab 17. Februar 2024 müssen nun auch kleinere Anbieter das Gesetz einhalten. Die Plattformen müssen unter anderem Falschinformationen und Darstellungen sexueller Gewalt schneller löschen.

Ganz konkret, wie kann eine Ausweitung der Strafverfolgung aussehen?

Wir brauchen auf Bundes- und Landesebene eine bessere technische und personell ausgestattete Polizei. Mir geht es nicht um mehr Überwachung, sondern darum, dass es genügend Ressourcen gibt, jede Anzeige im Internet, die gestellt wird, auch verfolgt werden kann.

Denn mir bricht immer ein wenig das Herz, wenn Leute Hassnachrichten nicht anzeigen, weil sie nicht an Konsequenzen glauben. Auch die Plattformen müssen mitziehen, eine vernünftige Moderation einführen und bessere Arbeitsbedingungen und psychologische Betreuung für die Mitarbeitenden schaffen, die sich täglich gemeldete Bilder und Videos anschauen müssen.

Um Kindesmissbrauch im Netz zu verhindern, will die EU eine Chatkontrolle einführen. Kri­ti­ke­r*in­nen sehen darin den Beginn einer totalen Überwachung im Netz. Ist eine Chat-Kontrolle ein guter Schutz?

Kindesmissbrauch ist eines der widerwärtigsten Verbrechen, die man sich vorstellen kann. Es ist mir ein wichtiges Anliegen, Kinder im Netz zu schützen. Die Chatkontrolle ist aber nicht die Lösung. Wir brauchen nicht mehr Überwachung im Netz, sondern mehr präventive Maßnahmen. Jeder Darstellung von Kindesmissbrauch geht ein Kindesmissbrauch voraus in der analogen Welt, und das ist der Punkt, wo wir zuallererst ansetzen müssen.

Die meisten Übergriffe auf Kinder finden immer noch im sozialen Nahbereich statt, gleichzeitig denken die allermeisten Menschen, dass es in ihrem eigenen Umfeld nicht sein kann. Es braucht mehr Aufklärung über Missbräuche im Privaten, die Stärkung von Kinderrechten, aber auch mehr Medienbildung für Familien und Schulungen für Lehrkräfte. Die Chatkontrolle wäre ein unverhältnismäßiger Grundrechtseingriff, ein faktisches Aufbrechen von Verschlüsselung und Abschaffung des Rechts auf private Kommunikation.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.