piwik no script img

Europäische KI-VerordnungKI-Kängurus nur mit Wasserzeichen

Ein Teil der KI-Verordnung tritt in Kraft, Anbieter müssen künstliche Intelligenz ab August transparent machen. Die Industrie will andere Regeln aufweichen.

Ein garantiert echtes Känguru – 1961 fotografiert Foto: Don Uhrbrock/getty images

Am Flughafen, kurz vor dem Boarding. Eine Passagierin diskutiert verzweifelt gestikulierend mit einer Airline-Angestellten. Dann schwenkt die Kamera von den beiden weg zu einem Känguru mit vermeintlicher Bordkarte in der Hand.

Wird hier etwa einem Menschen samt „emotional support animal“ – ein Tier, das etwa bei psychischen Erkrankungen Halt geben soll – der Zugang verwehrt?

Ende Mai ging dieses Video viral, und wie aus den Kommentarspalten zu entnehmen ist, hielten viele Menschen diesen Fake für authentisch.

Hergestellt wurde der Schnipsel mit künstlicher Intelligenz (KI). Nicht nur durch kurzes Nachdenken wäre man womöglich darauf gekommen – auch das Motto des Instagram-Accounts, „Your Daily Dose of Unreality“ (etwa: Deine tägliche Portion Unrealistisches) ist vielsagend. Das Logo des Kanals ist sogar im Video zu sehen. Doch derartige Checks sind es eben, die beim schnellen Scrollen durch Social Media zu kurz kommen.

wochentaz

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

Strenge Regeln bei Deepfakes

Nun hat es in der Regel keine schlimmen Folgen, auf einen Fake-Känguru-Clip hereinzufallen. Im Gegenteil: Es kann sogar hilfreich sein, wenn dem nächsten Video dann mit größerer Vorsicht begegnet wird. Doch es gibt andere mit KI erstellte Inhalte, bei denen die Folgen gravierend sein können.

Videos, die angebliche Kriegshandlungen oder andere relevante Geschehnisse zeigen sollen – wie das von Trump geteilte Ergebnis künstlicher Intelligenz, das die angebliche Festnahme Barack Obamas zeigt. Oder Deepfakes, bei denen einer Person mit ihrer eigenen, aber KI-generierten Stimme lippensynchron Worte in den Mund gelegt werden. Oder KI-Pornos, in denen Bilder von Frauen, meist Prominenten, auf die Körper von Darstellerinnen montiert werden, ohne dass die Montage ersichtlich ist.

Ab August soll sich das ändern. Dann werden einige Meilensteine des AI Acts, der EU-KI-Verordnung, wirksam. Zentral dabei: Anbieter von KI-Systemen müssen Transparenzpflichten von nun an erfüllen. Chatte ich gerade mit einem Menschen oder einem Bot? Wurde ein Bild, Video oder Audio-Inhalt von einer KI erzeugt? Die Kennzeichnungspflicht gilt auch und noch strenger für Deepfakes.

„Die Neuerungen des AI-Acts tragen maßgeblich zum Schutz von Verbrauchern bei“, sagt der auf Verbraucherfragen spezialisierte Rechtsanwalt Christian Solmecke. In der Pflicht sind vor allem die Anbieter von KI-Systemen, also zum Beispiel ChatGPT oder Gemini. Sie müssen KI-Inhalte kennzeichnen, zunächst „maschinenlesbar“.

Das kann zum Beispiel ein digitales Wasserzeichen sein, das Plattformen wie Instagram oder Tiktok auslesen und den Inhalt entsprechend als KI-generiert markieren können. Bei Verstößen kann es teuer werden: Bußgelder dürfen bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes des Unternehmens betragen.

Auch die Nut­ze­r:in­nen sind gefragt: „Bei Deepfakes, also rea­lis­tisch manipulierten Bildern, Audio- oder Videoinhalten, bei denen eine Person irreführend dargestellt wird, trifft die Pflicht zur Kennzeichnung nicht nur den Anbieter des KI-Systems, sondern auch explizit den ‚Bereitsteller‘, also die Person, die das Deepfake erstellt oder veröffentlicht“, erklärt Solmecke. Diese Kennzeichnung muss auch für Menschen erkennbar sein.

Transparenter sollen auch die Trainingsdaten werden – zumindest ein bisschen. Aus diesen Daten erkennen die Algorithmen Muster, die sie später anwenden. Wenn die Trainingsdaten nicht sorgfältig ausgewählt wurden, können sie zu Verzerrungen führen. Denn eine KI, die beispielsweise nur mit Fotos von weißen, männlichen Ärzten gefüttert wurde, wird wahrscheinlich keine Abbildungen von PoC-Ärztinnen erzeugen.

Hersteller besonders mächtiger KI-Modelle, wie etwa Chat­GPT, müssen den neuen Regeln zufolge zumindest zusammenfassend offenlegen, welche Trainingsdaten verwendet wurden. Ob das tatsächlich dafür sorgt, dass Verzerrungen oder problematische Inhalte frühzeitig erkannt werden, muss sich noch zeigen.

Derweil versuchen Akteure aus der Industrie zunehmend, die KI-Regeln zu schwächen. Für die USA hat Trump am Mittwoch angekündigt, die ohnehin rudimentären Vorgaben abzuschaffen. Und auch in Europa sehen Unternehmen anscheinend Chancen, die Vorgaben zu verwässern.

So forderten Anfang Juli rund 50 Top­ma­na­ge­r:in­nen europäischer Unternehmen, ihre Umsetzung aufzuschieben. Die Regeln „gefährden nicht nur die Entwicklung von europäischen Champions, sondern auch die Möglichkeiten aller Industrien, KI so einzusetzen, wie es der globale Wettbewerb erfordert“, heißt es in dem Schreiben. Unterzeichnet haben unter anderem Verantwortliche von Mercedes-Benz, Siemens Energy, Lufthansa, Südzucker und Ravensburger.

Ein Kodex, der sich langsam wandelt

Da dürfte es die Industrie freuen, dass sich ein wichtiges Verfahren gerade verzögert: nämlich die Erstellung eines Verhaltenskodex für Hersteller von KI-­Systemen. Ursprünglich sollte der seit Mai vorliegen. Doch Anfang Juli teilte die EU-Kommission mit, dass es wohl eher bis Ende des Jahres dauern werde.

Felix Duffy von LobbyControl glaubt nicht, dass hinter der Verschiebung Lobbydruck steht – wohl aber hinter den sich verändernden Inhalten des Kodex. Diese hätten sich mittlerweile in eine deutlich indus­trie­freund­lichere Richtung entwickelt. Etwa wenn es darum geht, welche Maßnahmen Hersteller ergreifen müssen, um die Risiken für Demokratie und Gesellschaft möglichst gering zu halten.

„Was die Schutzmaßnahmen angeht, haben die Konzerne einen viel größeren Handlungsspielraum als ursprünglich vorgesehen“, kritisiert Duffy. Im Ergebnis könnten sich die Hersteller so attestieren, ausreichend präventiv zu arbeiten. Der Experte kritisiert: „Die großen Tech-Konzerne und Betreiber von KI-Modellen hatten privilegierten Zugang zu dem Prozess, in dem der Verhaltenskodex erstellt wurde.“ Derweil hätten zivilgesellschaftliche Akteure nur am Rande mitreden dürfen.

Das sorgte für breiten Protest: Reporter ohne Grenzen etwa gab im April bekannt, die Mitarbeit an dem Kodex zu beenden – unter anderem aufgrund des „überwältigenden Einflusses der Industrie“.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

0 Kommentare

  • Noch keine Kommentare vorhanden.
    Starten Sie jetzt eine spannende Diskussion!