Facebook-Algorithmen sollen Leben retten: Geht es dir gut?

Facebook betreibt jetzt Suizidprävention. Mit künstlicher Intelligenz werden Posts überprüft. Nebenbei greift das Unternehmen sehr private Daten ab.

Ein Mädchen in blauer Regenjacke hüpft mit nackten Beinen durch die Brandung, die den trüb-grauen Himmel spiegelt

Die Farben trüb, das Motiv heiter – das könnte den Algorithmus verwirren Foto: ap

Tausende Menschen konnten Anfang des Jahres verfolgen, wie sich eine 18-Jährige in Bangkok das Leben nahm. Die junge Frau sprach bei Face­book Live, einer Echtzeitvideofunktion, über die Trennung von ihrem Freund – und beging kurz darauf Suizid. Zuschauer*innen riefen Hilfe, doch die kam zu spät. Allein im Jahr 2017 berichteten englischsprachige Medien über mindestens ein Dutzend solcher Fälle und sprachen von einem „grausamen Trend“; genaue Zahlen sind nicht bekannt.

Dass Menschen ein Facebook-Tool nutzen, um ihren Suizid zu veröffentlichen, ist für das Unternehmen vor allem eines: ein Imageschaden. Im November letzten Jahres hat Face­book deswegen eine neue Technologie eingeführt, die mithilfe künstlicher Intelligenz (KI) Selbsttötungsabsichten der Nutzer*innen frühzeitig erkennen und Suizide verhindern soll.

Eine Win-win-Situation für das Unternehmen, denn der Versuch bringt Facebook nicht nur gute PR, sondern auch viele neue Daten über seine Nut­ze­r*in­nen. Nur ein böser Vorwurf? Oder kann diese neue Technologie wirklich Menschenleben retten?

Mit Mustererkennungstechnologien sollen alle Posts, Kommentare und Videos aller Nutzer*innen gescannt werden. Dabei soll geprüft werden, ob sich darin Inhalte befinden, die auf Suizidabsichten hinweisen könnten. Ausschlaggebend, so steht es in der Pressemitteilung von Facebook, sollen dabei Schlagworte wie „Are you okay?“ oder „Can I help you?“ sein. Tauchen diese auf, wird ein Alarm ausgelöst und der betroffene Post, Kommentar oder das Video wird an ein Team aus geschulten Mo­de­rator*in­nen weitergeleitet. Diese können mit der möglicherweise sui­zid­gefähr­deten Person Kontakt aufnehmen oder im Ernstfall Hilfe durch Freun­d*in­nen, Psycholog*innen oder die Behörden organisieren. Und nebenbei weiß Facebook noch viel mehr über uns als ohnehin schon.

Facebook fürchtet wohl die EU-Datenschutzverordnung

Schon seit zwei Jahren unternimmt das soziale Netzwerk Schritte zur Suizidvorbeugung. Bisher konnten Nut­ze­r*innen suizidgefährdete Freun­d*in­nen melden, und Facebook sendete dann verschiedene Hilfsangebote. Nun soll KI die Präventionsar­beit übernehmen. Nach monatelangen Tests des Systems in den USA soll es nun weltweit eingeführt werden – außer in der EU. Auf Anfrage der taz antwortete Face­book vage, ihnen sei bewusst, dass es sich um ein in Europa „sensibles Thema“ handle.

Matthias Spielkamp von Algorithm Watch vermutet, dass Facebook die Datenschutzgrundverordnung der EU, die im Mai in Kraft tritt, fürchtet. „Face­book weiß aus der Vergangenheit, dass nicht nur der europäische Gesetzgeber, sondern auch europäische Datenschutzaktivisten sehr aggressiv sind und häufig klagen“, sagt Spielkamp. Diese Erfahrung musste Face­book schon mit seinem Gesichtserkennungsprogramm machen. Nach massiven Protesten wurde es in der EU und in Kanada wieder abgeschafft.

Wenn Sie Suizidgedanken haben, sprechen Sie da­rüber mit jemandem.

Sie können sich rund um die Uhr an die Telefonseelsorge wenden, (08 00) 111 0 111 oder (08 00) 111 0 222), oder www.telefonseelsorge.de besuchen

Doch wenn es die technischen Möglichkeiten gibt, mit KI Suizide zu verhindern, sollten sie dann nicht genutzt werden? Zumal dadurch auch Nachahmungstaten verhindert werden könnten?

Spielkamp kritisiert, dass Facebook nur sehr ungenau erkläre, wie das Tool funktioniert. „Einerseits ist es gut, dass wir über das System nicht bis ins kleinste Detail Bescheid wissen“, sagt er. „Sonst gäbe es die Möglichkeit, es zu missbrauchen, etwa indem Menschen eine Suizidgefährdung angedichtet wird, die keine haben.“ Andererseits sei über das Verfahren aber so wenig bekannt, dass man über seine Wirksamkeit keine sinnvollen Aussagen machen könne. „Das macht es unmöglich, das Tool zu bewerten.“

Tool könnte das Thema Suizid enttabuisieren

10.000 Menschen in Deutschland nehmen sich pro Jahr das Leben; so die Statistik des Gesundheitsministeriums. Bei Menschen unter 25 Jahren ist es die zweithäufigste Todesursache. Niko Brockerhoff arbeitet bei [U25], ­einer Onlineberatung der Caritas für suizidgefährdete Jugendliche. Er sieht in dem Tool eine Chance, junge Menschen zu erreichen. „Das Thema Sui­zid ist in unserer Gesellschaft noch immer stark schambesetzt“, sagt er. Bei [U25] melden sich Betroffene aus eigenem Antrieb. Facebook aber kann auch Menschen erreichen, die nicht aktiv nach Hilfe suchen. „Wenn ein Helfender über Facebook eine Person anspricht, kann das dazu führen, dass Menschen ihre Suizidgedanken thematisieren“, sagt Brockerhoff. Doch das Positive des Tools, nämlich Menschen ansprechen zu können, die nicht selber Hilfe suchen, stellt gleichzeitig eine große Gefahr dar.

Wenn Facebook eine als suizid­gefährdet eingestufte Person nicht erreichen kann, schickt das Unternehmen im Notfall die Behörden. Das heißt: Ein falscher Alarm kann äußerst unangenehme Folgen haben; plötzlich steht die Polizei vor der Haustür. Vor allem, wenn die Person gar nicht sui­zidgefährdet ist, kann das folgenschwere Auswirkungen für die Betroffenen haben. „Dafür muss es dann eine gute Rechtfertigung geben“, sagt Spielkamp.

Bei einer Untersuchung zu Instagram wurden 50Prozent der Nichtdepressiven anhand ihrer Fotos fälschlicherweise als psychisch krank markiert

Auch Brockerhoff sieht in der Fehlbarkeit des Tools eine große Gefahr. „Menschen, die mit Suizidgedanken kämpfen, haben Angst, dass ihnen die Mündigkeit genommen wird und sie eingeliefert werden“, sagt er. Da man das Tool nicht abschalten kann, könne der neue Algorithmus die Menschen davon abhalten, ihre Gefühle, Ängste und Sorgen überhaupt auf der Plattform zu teilen, befürchtet Brockerhoff.

Bei [U25] besteht diese Gefahr nicht. Bei der Onlineberatung stehen die ­Klienten im wöchentlichen Mail-Kontakt mit ihren Helfer*innen. „Sie können alle ihre Suizidgedanken loswerden – ohne Angst, dass wir gegen ihren Willen Hilfe rufen“, sagt Brockerhoff. „Denn wenn sie uns keine konkreten Orts- und Zeitangaben für ihren Suizid geben, sind wir machtlos.“ [U25] speichert keine Daten, nicht einmal die IP-Adressen der Nutzer*innen. „Das verschafft uns das Vertrauen der Klienten.“

Selbst der Schutz hat seinen Preis

Mark Zuckerberg postete auf Face­book, dass allein im ersten Monat Kontakt mit 100 suizidgefährdeten Menschen aufgenommen worden sei. Doch wie viele Fehlalarme es gab, darüber informiert Facebook nicht. Wie reell diese Gefahr jedoch ist, zeigen Untersuchungen zu Instagram. Auch hier soll aus Gründen der Suizidprävention vermehrt künstliche Intelligenz eingesetzt werden.

Die Wissenschaftler Christopher Danforth und Andrew Reece von den Universitäten Harvard und Vermont fanden im ­Rahmen ihrer Studie heraus, dass sich am Instagram-Account erkennen lasse, ob eine Person depressiv ist. Depressive Menschen hätten häufiger dunkle oder Schwarz-Weiß-Filter benutzt, während Nichtdepressive hellere und wärme Filter eingesetzt hätten und auf ihren Bildern häufiger Menschen zu sehen gewesen seien. Bei der Auswertung von 43.000 Fotos wurden 70 Prozent der tatsächlich Depressiven erkannt. Gleichzeitig wurden jedoch auch 50 Prozent der Nichtdepressiven fälschlicherweise als psychisch krank markiert.

Wer bei Facebook angemeldet ist, bezahlt mit einem Teil seiner Daten. So funktioniert das soziale Netzwerk. Face­book verfolgt das Verhalten seiner Nut­ze­r*in­nen sehr genau und will nun daraus auf Suizidgefährdung schließen können. Das Unternehmen behauptet, diese Daten nur zum Schutz der Nutzer*innen zu verwenden. „Doch ist es ebenso gut vorstellbar, das entsprechend kategorisierten Nutzern Werbung für stimmungsaufhellende Medikamente gezeigt wird. Wollen wir das wirklich?“, fragt Spielkamp.

Ähnlich wie der Umgang mit ­Hate Speech stellt der Umgang mit Suiziden Facebook vor eine schwierige Aufgabe. Mit seinen zwei Milliarden Nut­zer*in­nen und den Unmengen gesammelter Daten hat das so­ziale Netzwerk viel Macht. Spielkamp wünscht sich, dass sich Facebook mit Wis­sen­schaft­le­r*innen für eine Begleitforschung zusammentut. Diese könnten herausfinden, ob Facebooks Suizidprävention wirklich funktioniert und welche positiven, aber auch negativen Effekte sie hat. „Dann kann Facebook das Tool verbessern. Im schlimmsten Fall muss es wieder eingestellt werden“, meint Spielkamp.

Too big to fail?

Dass das passieren wird, ist jedoch unwahrscheinlich. Zu groß ist der Gewinn für das soziale Netzwerk. Und auch wenn es vor allem auf den ei­genen Vorteil aus ist: Gegen den Versuch, Leben zu retten, lässt sich nur schwer argumentieren. Aber letztlich geht dabei der vermeintliche Schutz Einzelner auf Kosten vieler. Die Frage des ­Datenschutzes rückt in den Hintergrund, und eine deutlich wichtigere ethische Frage kommt zum Vorschein: Wie viel ist ein Menschenleben wert?

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.