KI-Experte über AI-Gesetz der EU: „Deutliche Verbesserungen“

Die EU hat Regeln für künstliche Intelligenz beschlossen. Wann Ver­brau­che­r:in­nen etwas davon mitkriegen werden, erklärt Experte Miika Blinn.

Screenshot von einem Bildschirm, auf dem ein gesichtserkennungsprogramm vorgeführt wird

Die rechtliche Lage zu Videoüber­wachung mit KI-Gesichtserkennung, hier bei einer Messe in China, bleibt in der EU vertrackt Foto: Qilai Shen/Bloomberg/getty images

taz: Herr Blinn, die neuen EU-Regeln für künstliche Intelligenz (KI) sind nun final beschlossen. Wann werden Ver­brau­che­r:in­nen etwas davon mitbekommen?

Miika Blinn: Die ersten Vorschriften treten schon in einem halben Jahr in Kraft. Damit werden KI-Systeme mit nicht tolerierbarem Risiko verboten, zum Beispiel das Anlegen von Gesichtsdatenbanken mit Bildern aus dem Internet. Richtig etwas merken wird man spätestens in zwei Jahren. Dann müssen zum Beispiel mit KI erzeugte Bilder, Videos oder Texte gekennzeichnet werden. Und: Firmen müssen dann auch kennzeichnen, wenn sie zum Beispiel in einem Service-Chat oder bei einer Telefon-Hotline KI einsetzen. Das kann zum Beispiel mit einem Siegel geschehen, mit einem Button, einem Wasserzeichen oder, bei der Hotline, einer kurzen Erklärung am Anfang des Anrufs.

Es werden sich aber wie immer nicht alle daran halten.

Ja, davon ist auszugehen. Schon heute ist es bei IT-Sicherheit ein Katz-und-Maus-Spiel: Kriminelle und auch manche Unternehmen versuchen, Lücken auszunutzen oder Regeln zu umgehen. Aber das ist kein Grund, auf solche Vorschriften zu verzichten. Schließlich ist es auch im Interesse der Unternehmen, dass Ver­brau­che­r:in­nen KI vertrauen und selbstbestimmt über die Nutzung entscheiden können. Und das geht nicht, wenn die Industrie einfach machen kann, was sie will. Und es null Transparenz gibt.

Miika Blinn

49, beschäftigt sich beim Verbraucherzentrale Bundesverband mit KI und welche rechtlichen Rahmenbedingungen es braucht, damit Ver­brau­che­r:in­nen selbstbestimmte Entscheidungen treffen können.

Es klingt aber trotzdem nicht nach einer großen Verbesserung.

Ist es aber. Der AI Act bringt schon deutliche Verbesserungen für Verbraucher:innen. Zum Beispiel ist vorgeschrieben, dass Ver­brau­che­r:in­nen sich beschweren können müssen. Also eine Behörde, an die sich Betroffene wenden können, wenn sie zum Beispiel glauben, dass ein KI-System gegen die Regeln verstößt. Diese Beschwerdestelle muss die Bundesregierung innerhalb eines Jahres aufbauen und sie sollte möglichst niedrigschwellig und unbürokratisch sein. Und Behörden dürfen KI-Systeme auch überprüfen. Außerdem dürfen zivilgesellschaftliche Organisationen und Verbraucherverbände klagen, wenn sie Verstöße gegen den AI Act sehen.

Wie soll so eine KI-Aufsichtsbehörde schlagkräftig werden, auch mit Hinblick auf kompetentes Personal?

Der Markt an KI-Fachleuten ist tatsächlich sehr leergefegt – und der öffentliche Dienst zahlt natürlich viel schlechter als die Industrie. Wenn jetzt die zuständige KI-Aufsichtsbehörde und vielleicht noch andere öffentliche Stellen KI-Expert:innen suchen, machen sie sich auch noch gegenseitig Konkurrenz. Wir schlagen daher ein nationales Kompetenzzentrum für KI und algorithmische Systeme vor. Das kann die Expertise bündeln und Ex­per­t:in­nen an andere Behörden ausleihen. Wenn es dann zum Beispiel einen großen Finanzskandal gibt, bei dem KI eine Rolle spielt, sind die Fachleute bei der Bundesanstalt für Finanzdienstleistungsaufsicht, und wenn was im Medizinbereich passiert, beim Bundesinstitut für Arzneimittel und Medizinprodukte.

Sprechen wir über zwei Punkte, die während der Verhandlungen umstritten waren. Das eine ist die Haftungsfrage: Wenn eine KI, zum Beispiel eine medizinische Diagnose-KI, eine falsche Entscheidung trifft, muss jemand dafür haften. Wie sieht es da aus?

Das ist ein Problem. Die Haftungsfrage wurde nämlich auf eine Richtlinie ausgelagert – die liegt aber aktuell auf Eis. Wir hoffen, dass die nach der EU-Wahl schnell kommt, aber mit anderen Inhalten, als dort bislang drinstehen. Die bislang vorgesehenen Hürden sind viel zu hoch, da müssten faktisch Ver­brau­che­r:in­nen beweisen, dass das KI-System ­fehlerhaft war. Das ist nicht möglich. Wir brauchen eine Beweislastumkehr: Der Hersteller des Systems muss beweisen, dass es keinen ­Fehler gab.

Dann gibt es bei der Haftung gerade ein Loch?

Ja. Es gibt natürlich die neue Produkthaftungsrichtline, die auch Software umfasst. Aber in Bezug auf KI sind auch hier die Hürden zu hoch. Wir brauchen also dringend eine Regelung, die es Ver­brau­che­r:in­nen ermöglicht, eine Kompensation zu erhalten, wenn sie einen Schaden durch KI erlitten haben.

Ein weiterer Punkt, der in den Verhandlungen stark umstritten war: Überwachung. Wie können Menschen im öffentlichen Raum künftig überwacht werden?

Das ist tatsächlich vertrackt. Grundsätzlich sagt der AI Act: Staatliche Stellen dürfen keine biometrische Videoüberwachung im öffentlichen Raum einsetzen.

Etwa Gesichtserkennung.

Genau. Es gibt aber zahlreiche Ausnahmen für die Strafverfolgung. Ein anderes großes Problem ist: Es gibt eine riesige Ausnahme, denn private Akteure dürfen biometrische Videoüberwachung machen. Zum Beispiel an Tankstellen oder in Einkaufszentren können also künftig Kameras hängen, hinter denen eine biometrische Überwachung steckt. Und das, obwohl bereits in Sachen konventioneller Videoüberwachung Wildwuchs herrscht und jeder macht, was er will. Ver­brau­che­r:in­nen sind dem weitgehend schutzlos ausgeliefert. Beschweren Sie sich mal bei der Datenschutzbehörde über jede Kamera, an der Sie vorbeilaufen – das ist ein Vollzeitjob.

Die EU-Mitgliedstaaten können biometrische Videoüberwachung durch Private aber im nationalen Recht verbieten.

Genau, das ist möglich und es wäre sehr wichtig, dass Deutschland das macht.

Haben Sie da schon Signale aus der Politik?

Bislang nicht – aber wir werben dafür und hoffen, dass gerade Akteure, denen die Freiheitsrechte wichtig sind, hier mitziehen.

Wenn die Regeln schließlich wirksam werden, sind schon wieder ein paar Jahre vergangen. Wird die Welt dann, in Bezug auf KI, nicht schon wieder ganz anders aussehen?

Das ist gut möglich. Aber der AI Act bietet die Möglichkeit, dass die EU-Kommission mit sogenannten delegierten Rechtsakten Anpassungen vornimmt. Wenn dann zum Beispiel ein neues, gefährliches KI-System entwickelt wird, dann ließe sich das zu den verbotenen Hochrisikosystemen einsortieren.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.