Regeln für Künstliche Intelligenz: Was KI von Aliens unterscheidet

Künstliche Intelligenz regulieren? Ein halbes Jahr nach dem Start von ChatGPT erklären Ex­per­t:in­nen im Digitalausschuss, worauf es zu achten gilt.

Ein futuristischer Roboter auf einem Erdbeerenfeld

Wer hat’s gemacht, Mensch oder KI? Die Frage stellt sich auch bei Bildern immer öfter. Dieser Roboter auf Erdbeersuche stammt jedenfalls aus dem KI-Bildgenerator Midjourney Foto: Illustration: Mario Aurich/Imago

BERLIN taz | Bei einer Anhörung im Digitalausschuss des Bundestages haben sich Ex­per­t:in­nen für eine zügige, aber auch gut durchdachte Regulierung von Anwendungen mit künstlicher Intelligenz (KI) ausgesprochen. „Wir müssen die Weichen richtig stellen, damit nicht die USA Weltmeister bei KI und die EU Weltmeister bei der Regulierung werden“, sagte Philipp Hacker, Professor für Recht und Ethik in der Digitalen Gesellschaft an der Europauniversität Viadrina.

Die Regulierung von KI-Anwendungen ist in den Fokus gerückt, nachdem das US-Unternehmen ­OpenAI vor einem halben Jahr seinen Textgenerator ChatGPT für die Öffentlichkeit zugänglich gemacht hat. Damit wurde für die breite Masse erstmals das Potenzial der neuen Technologie erfahrbar – und ihre Gefahr. Schnell zeigte sich, dass der Textgenerator auch Inhalte erzeugt, die nicht den Tatsachen entsprechen und sich beispielsweise in großem Stil Propaganda generieren lässt.

Seitdem bekommt das Thema auch international viel Aufmerksamkeit: So forderte Anfang der Woche die Führungsriege von OpenAI eine klare Regulierung „superintelligenter“ KI-Systeme. „Superintelligenz wird mächtiger sein als andere Technologien, mit denen die Menschheit in der Vergangenheit zu kämpfen hatte“, heißt es in dem Beitrag. Es brauche eine internationale Regulierungsbehörde ähnlich wie die für Atomkraft. Diese müsse etwa Systeme inspizieren, Audits verlangen und die Einhaltung von Sicherheitsnormen überprüfen können.

Zumindest regulativ ist die EU bei diesem Thema ausnahmsweise vorne dran: Mit dem AI Act, einem Gesetz zur Regulierung künstlicher Intelligenz, könnte noch in diesem Jahr das weltweit bislang umfangreichste Regelwerk verabschiedet werden.

Fachleute fordern Verbesserungen

Bei der Anhörung in Berlin zeigte sich jedoch: Viele Ex­per­t:in­nen sind nicht davon überzeugt, dass die Regeln in der aktuell vorliegenden Form sinnvoll sind. So kritisierte Wissenschaftler Hacker, dass der aktuelle Entwurf eher dazu geeignet sei, Technologien auszubremsen oder zu verhindern. Googles Textgenerator Bard sei in 180 Ländern verfügbar – aber in der EU nicht. Hacker formulierte folgendes Beispiel: „Wenn wir uns vorstellen, dass mit einer medizinischen KI außerhalb der EU Leben gerettet werden und in der EU nicht – wollen wir das wirklich?“

Jonas Andrulis, Gründer des KI-Unternehmens Aleph Alpha, sagte: „Bei dem Thema ist inhaltliche und ökonomische Souveränität für Deutschland und für Europa entscheidend.“ Deutschland dürfe in dieser Frage nicht einfach nur Kunde der USA sein. Auch Rasmus Rothe, Vorsitzender des KI-Bundesverbandes, sagte: „Es ist wichtig, dass wir Anwendungen hier in Europa schrei­ben mit unseren Werten.“

Ein Beispiel dafür, was das heißt, gab Sandra Wachter, Professorin für Technologie und Regulierung am Oxford Internet Institute der dortigen Universität: „Jede Designentscheidung spiegelt unsere Werte wider.“ Das beginne schon bei der Auswahl der Trainingsdaten: Sind ausschließlich weiße Gesichter darin oder haben die Ent­wick­le­r:in­nen auf Diversität geachtet?

Schon deshalb sei es so wichtig, dass auch die Unternehmen personell entsprechend hetrogen aufgestellt sind, mit Menschen mit unterschiedlichen Hintergründen. „KI ist kein Alien, das auf unseren Planeten kommt, das eine bestimmte Gestalt hat, und jetzt bitten wir es, dass es unseren Werten entspricht, sondern KI ist etwas, das wir von Anfang an schaffen“, erklärte Wachter.

Wachter gibt auch konkrete Beispiele dafür, was in Sachen Regulierung zu tun wäre: Gehe man in den Supermarkt und kaufe beispielsweise eine Suppendose, müsse da auch draufstehen, was in der Suppe ist. „Das bringt einem aber nur etwas, wenn man auch versteht, was die Inhaltsstoffe sind.“ Daher brauche es zwar Vorgaben zur Transparenz, aber auch ein Wissen über die Technologien.

Und gleichzeitig Grenzen: „Es reicht nicht zu sagen, diese Suppe ist giftig. Es muss eine Verantwortung dafür geben, keine giftige Suppe herzustellen.“ Da die Herstellungsketten nicht nur im Lebensmittelbereich, sondern auch bei KI-Anwendungen lang sein können, sprach Wachter sich dafür aus, in der Regulierung Hersteller entlang der gesamten Kette in die Haftung zu nehmen.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.