Unterhaltungen mit ChatGPT: Löschen verboten
Nach einer US-Gerichtsentscheidung muss der Chatbot alle Eingaben von Nutzenden speichern. Die EU-Aufsichtsbehörde reagiert verhalten.
Hintergrund der Gerichtsentscheidung ist ein Streit um Urheberrechte. Geklagt hat die New York Times. Sie wirft OpenAI vor, Texte ohne Genehmigung verwendet zu haben, um ChatGPT zu trainieren. Das habe dazu geführt, dass Inhalte der New York Times in von ChatGPT generierten Texten aufgetaucht seien. Der Bezirksrichter sah im April in der ersten Instanz die Vorwürfe als belegt an. Und um das Risiko zu vermeiden, dass entsprechende Beweise durch Löschungen von Nutzer:innen verloren gehen, muss OpenAI nun erst mal alle Daten aufbewahren. Betroffen sind nahezu alle Menschen, die den Chatbot verwenden. Nur, wer mit einer speziellen Version für Unternehmen oder Bildungseinrichtungen arbeitet, dessen Daten werden weiterhin gelöscht.
OpenAI gab an, Rechtsmittel gegen die Entscheidung einzulegen. Die Entscheidung „steht im Widerspruch zu den Datenschutzverpflichtungen, die wir gegenüber unseren Nutzern eingegangen sind. Sie verletzt langjährige Datenschutznormen und schwächt den Schutz der Privatsphäre“, teilte Brad Lightcap, OpenAI-Geschäftsführer, im Juni in einem Blogbeitrag mit. Die verpflichtend gespeicherten Daten werden demnach in einem extra System gespeichert, auf das nur ein „kleines, geprüftes Rechts- und Sicherheitsteam von OpenAI“ zugreifen kann – nur für die Erfüllung der rechtlichen Verpflichtungen.
Das Problem ist: Diese Speicherpflicht widerspricht der Datenschutz-Grundverordnung (DSGVO). Die gibt Nutzer:innen unter anderem das Recht, ihre persönlichen Daten löschen zu lassen. OpenAI teilte im Juni mit, man ergreife Maßnahmen, den gesetzlichen Verpflichtungen nachzukommen. Einen neuen Stand gebe es diesbezüglich nicht, antwortete das Unternehmen auf Anfrage der taz.
Irische Aufsichtsbehörde reagiert verhalten
Für ein entsprechendes Verfahren in Europa wäre die irische Datenschutzaufsichtsbehörde (DPC) zuständig, da dort die EU-Niederlassung von OpenAI sitzt. Viele US-Konzerne wählen diesen Standort, da die irische Behörde als wirtschaftsfreundlich bekannt ist und die Datenschutz-Grundverordnung nur sehr vorsichtig anwendet. Die Behörde teilte der taz mit, dass sie aktuell eine Reihe von Beschwerden gegen OpenAI vorliegen habe. Zu deren Inhalt könne sie jedoch nichts bekannt geben, weil es sich um laufende Verfahren handle.
Marco Blocher von der Datenschutz-NGO Noyb rechnet ohnehin nicht damit, dass eine Beschwerde viel bringen würde: „Die irische DPC hält notorisch eine schützende Hand über Big-Tech-Unternehmen aus den USA, die ihre europäische Hauptniederlassung in Irland haben.“ Wahrscheinlich sei, dass die Behörde das Problem aussitze und warte, bis die Speicheranordnung wieder aufgehoben wird.
Eine Alternative wäre der Klageweg vor einem europäischen Gericht. Allerdings: „Wenn die Daten tatsächlich nur zu Beweissicherungszwecken für das Verfahren mit der New York Times gespeichert werden und OpenAI sie sonst nicht anrührt, sind die Risiken für Nutzer:innen womöglich überschaubar, trotz des formalen Konflikts mit der DSGVO.“ Was das Nichtanrühren angeht, äußert Blocher aber, trotz der gegenteiligen Versicherungen von OpenAI, Zweifel: „Wie bei allen KI-Anbietern ist hier ein gewisser Argwohn sicher nicht fehl am Platz.“
Marco Blocher, Datenschutz-Experte
Die von OpenAI eingelegte Berufung könnte darauf abzielen, die umfassende Datenspeicherung als unverhältnismäßig anzugreifen. Eine entsprechende Argumentation deutet das Unternehmen in seinem Blogbeitrag an. Denn tatsächlich dürfte nur ein verschwindend geringer Teil der ChatGPT-Konversationen etwas mit dem Urheberrechtsstreit zu tun haben.
Tipp: So wenig Persönliches wie möglich preiszugeben
So lange haben Nutzer:innen kaum Handhabe: „Momentan kann man als Einzelperson gegen diese Speicherung wenig tun“, sagt Blocher. Er empfiehlt für die Nutzung von KI-Chatbots generell, so wenig Persönliches wie möglich preiszugeben. Denn die eingegebenen Informationen sind nicht unbedingt privat.
So wurde vergangene Woche bekannt, dass einige Konversationen in ChatGPT durch eine fehlerhafte Programmierung im Index der Suchmaschine Google gelandet und damit öffentlich auffindbar waren. Und bei der Google-KI Gemini können standardmäßig Menschen die Chatverläufe zur Qualitätsverbesserung lesen. „Generell ist in Sachen KI ein ‚Wettrüsten‘ im Gange, in dem geltendes Recht achselzuckend ignoriert wird“, kritisiert Blocher.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
meistkommentiert
Parole „From the River to the Sea“
Anwält*innen fordern Ende der Kriminalisierung
Wolfram Weimers Gender-Verbot
Warum ich mich aus meiner Nationalsprache verabschiede
Wahl zum Bundesverfassungsgericht
Brosius-Gersdorf zieht sich zurück
Mitarbeiter von SPD-Mann abgewiesen
Antifa-Shirt im Bundestag unerwünscht
Wolfram Weimers Genderverbot
Weg mit dem Wokismus
Öffentlichkeitsarbeit der ARD
Gehirnwäsche und Selbstlob