Energiebilanz Künstlicher Intelligenz: KI mit Ökofaktor gesucht

Künstliche Intelligenz ist oft wenig nachhaltig – eine Initiative will das ändern. Doch den geplanten EU-Regeln für KI droht die Aufweichung.

Leuchtende Dioden am Gehäuse von Rechnern

Wer eine KI trainieren will, braucht leistungsfähige Hardware Foto: Arnulf Hettrich/imago

BERLIN taz | Energieintensives Training, leistungsfähige Hardware, hoher Ressourcenverbrauch – Anwendungen mit Künstlicher Intelligenz (KI) stehen in dem Ruf, wahre Energieschlucker zu sein. Doch wie hungrig die Technologie tatsächlich ist, ist bislang nicht wirklich bekannt. Ein neuer Vorschlag für einen Nachhaltigkeitsindex soll der erste Schritt sein, daran etwas zu ändern: Die NGO AlgorithmWatch hat diesen in einem gemeinsamen Projekt mit dem Institut für ökologische Wirtschaftsforschung und der TU Berlin entwickelt.

Anwendungen mit Künstlicher Intelligenz werden als großes Zukunftsthema gehandelt. Schon jetzt steckt KI in alltäglich genutzter Software, etwa zur Bildbearbeitung auf dem Smartphone, zur Spracherkennung oder zur Navigation.

Das Problem: Was diese Software an Energie und Ressourcen wie Wasser verbraucht, an Emissionen und Elektroschrott verursacht – das ist nicht transparent. „Es gibt zu wenige Daten und von diesen geben die Tech-Konzerne nicht genug heraus, um ein umfassendes Bild zu bekommen“, kritisiert Andreas Meyer, der an der TU Berlin zu Künstlicher Intelligenz forscht.

Dabei ist der Energiebedarf abhängig vom Modell der KI und dem Moment ihres Einsatzes: So ist davon auszugehen, dass gerade die Trainingsphase, in der bei den Modellen des Maschinellen Lernens große Datenmengen verarbeitet werden und es schnell gehen soll, der Energiebedarf immens ist. Grundsätzlich wird eine Anwendung, die Videos erstellt, mehr verbrauchen, als eine, die nur Sprache verarbeitet und eine Anwendung die Bilder generiert, mehr als eine, die Text ausgibt.

Von Energieverbrauch bis Nicht-Diskriminierung

Die drei Organisationen haben nun einen Kriterienkatalog vorgelegt, der helfen soll, das Nachhaltigkeitsniveau zu bewerten und zu verbessern. 13 Kriterien für Nachhaltigkeit von KI-Systemen sind am Ende herausgekommen. Darunter finden sich Energieverbrauch und der Bedarf an externen Ressourcen genauso wie Datenschutz und Nicht-Diskriminierung. Der Kriterienkatalog soll zum einen eine Handreichung für Unternehmen und Organisationen sein, die solche Systeme einsetzen. Zum anderen soll er Druck auf die Politik ausüben.

Denn auf EU-Ebene ist mit dem AI Act eine KI-Regulierung in Arbeit. Ob und in welchem Maße darin aber Kriterien für Nachhaltigkeit einen Platz finden werden, wird sich zeigen. Mehr noch: Aktuell könnte ein entscheidender Teil der gesamten Gesetzgebung auf der Kippe stehen. Kurz vor der entscheidenden Verhandlungsphase zeichnet sich ab, dass einzelne Länder versuchen, die Regeln aufzuweichen.

So berichtete das Magazin Politico diese Woche, dass Deutschland, Frankreich und Italien einen entscheidenden Teil der KI-Systeme von der Regulierung ausnehmen wollen. Konkret geht es dabei um die sogenannten Basismodelle. Das sind sehr große KI-Modelle, die mit einem breiten Satz an Daten trainiert wurden. Es gibt Basismodelle für verschiedene Bereiche wie Bilder, Videos, Text oder Sprache. Eines der bekanntesten Basismodelle ist GPT für Text. Aus einem Basismodell kann eine Vielzahl anderer Anwendungen entstehen – daher ist ihre Regulierung entscheidend.

Doch die Regierungen der drei Länder sprechen sich dem Bericht zufolge nun dagegen aus, die Basismodelle zu regulieren. Sie argumentieren mit wirtschaftlichen Interessen: Vorschriften könnten verhindern, dass die Basismodelle in Europa entwickelt werden.

Politico zitiert aus einem gemeinsamen Papier der drei Regierungen: Europa brauche einen regulatorischen Rahmen, „der Innovation und Wettbewerb fördert, damit europäische Akteure auftauchen und unsere Stimme und Werte im globalen Wettlauf um KI vertreten können“.

Haftungsfrage ungeklärt

In der Zivilgesellschaft stößt der Vorstoß auf Kritik: „Es gibt eine Reihe von Risiken und Gefahren bei den Basismodellen, die der AI Act regulieren muss“, sagt Kilian Vieth-Ditlmann von AlgorithmWatch. Als wichtigen Punkt nennt er unter anderem das ohnehin schon umstrittene Thema Haftung, also die Frage: Wer ist verantwortlich dafür, wenn etwas schief geht? Wenn etwa die medizinische KI daneben liegt bei der Diagnose und das negative Folgen hat? Ex­per­t:in­nen wie die KI-Forscherin Sandra Wachter von der Universität Oxford plädieren für eine Haftung entlang der Lieferkette – also jedes Unternehmen für den Schritt, den es selbst ausführt.

Würden nun die Basismodelle ausgenommen, dann blieben ausgerechnet die leistungsfähigsten Teile unreguliert. Auch aus Umweltsicht hätte das Nachteile: „Die Entwicklungsphase gerade dieser großen Modelle ist sehr energieintensiv“, sagt Anne Mollen von Algorithmwatch.

Dass einschlägige Vorschriften negative Folgen für die Wirtschaft haben könnten, scheinen indes nicht alle Länder zu befürchten: So erließ US-Präsident Joe Biden kürzlich ein Dekret, das Unternehmen unter anderem Auflagen für die Basismodelle macht.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.