Debatte um Social-Media-Plattformen: Jenseits der Altersgrenze
Es muss nicht unbedingt ein Mindestalter sein: Sollen junge und nicht junge Menschen besser geschützt werden, gibt es diverse Möglichkeiten.
Ob eine Altersgrenze für die Nutzung von Social-Media-Plattformen hilfreich ist in Sachen Jugendschutz, ist in Politik und Wissenschaft umstritten. Kritiker:innen argumentieren, dass ein Mindestalter zwar Kinder und Jugendliche vordergründig aussperrt – die Plattformen aber ihre problematischen Geschäftsmodelle und manipulativen Designs behalten dürfen.
„Verbote sind fast nie die richtige Lösung – vor allem dann nicht, wenn es, wie in Europa, ein sehr gutes Mittel gegen eine Gefährdung von Kindern und Jugendlichen durch Social Media gibt“, sagte der Juraprofessor Matthias Kettemann, der am Leibniz-Institut für Medienforschung in Hamburg zu digitalen Kommunikationsräumen forscht, im Januar der taz.
Kettemann bezieht sich dabei auf den Digital Services Act (DSA). Das EU-Gesetz soll in allen Mitgliedsstaaten für eine „sichere, vorhersehbare und vertrauenswürdige Online-Umgebung“ für die Nutzer:innen sorgen. Der DSA sieht für die großen Anbieter mit monatlich mindestens 45 Millionen Nutzenden innerhalb der EU schon jetzt eine Reihe von Vorgaben für den Jugendschutz vor.
So formulieren die entsprechenden Leitlinien der EU-Kommission unter anderem, dass Funktionen wie Autoplay und Pushnachrichten, die zu übermäßiger Nutzung beitragen, bei Konten, die mutmaßlich Jugendlichen gehören, standardmäßig deaktiviert sein sollen. Ebenso sollen solche Profile standardmäßig auf privat gestellt sein. Die Algorithmen sollen bei Jugendkonten außerdem so gestaltet sein, dass Minderjährige nicht auf Inhalte geleitet werden, die für sie schädlich sein können.
Verfahren noch im Gange
Allerdings: Streng durchgesetzt werden die Leitlinien bislang nicht. Und bei der Durchsetzung von Regeln, von denen alle Nutzenden profitieren – etwa Vorgaben zur Moderation, um illegale Inhalte zu bekämpfen, zur Zusammenarbeit mit Wissenschaftler:innen oder Transparenz bei Werbung, sind erste Verfahren noch im Gange. Zuletzt kündigte die EU-Kommission an, nach der massenhaften Veröffentlichung sexualisierter Deepfakes von Frauen und Kindern mit dem Chatbot Grok von US-Milliardär Elon Musk gegen den Anbieter vorzugehen.
Manche Akteur:innen fordern noch mehr: „Wir sollten darüber sprechen, wie wir die Macht dieser Konzerne begrenzen und alle davon profitieren“, sagte Tom Sulston von der australischen NGO Digital Rights Watch bei einer Diskussion über die Effekte des dortigen Verbots. Als zentrales Element nennt er eine strenge Regulierung der Algorithmen. Die entscheiden darüber, welche Inhalte Nutzer:innen zu sehen bekommen.
Sulston fordert: Nicht die Plattformen, sondern die Nutzenden selbst sollten darüber bestimmen dürfen – und die würden mehrheitlich Hass und Hetze, KI-Müll, Werbung und Propaganda nicht wollen. Auch das Tracking und das Bilden von nutzer:innenbezogenen Profilen ließe sich verbieten. Und: Die Plattformen sollten verantwortlich sein für die Inhalte, die sie verbreiten – genau wie das bei Medienunternehmen bereits der Fall ist. Das würde sie deutlich stärker in die Haftung nehmen.
Gemeinsam für freie Presse
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Alle Artikel stellen wir frei zur Verfügung, ohne Paywall. Gerade in diesen Zeiten müssen Einordnungen und Informationen allen zugänglich sein. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass kritischer, unabhängiger Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert