Mozilla-Chefin über KI: „Aufregend und beängstigend“

Künstliche Intelligenz ist die Technologie des Jahrzehnts. Mozilla-Chefin Mitchell Baker über Chancen und warum Open Source ökologischer ist.

KI-generierte Kunst zeigt einen Vogel.

KI-generierte Kunst: mal gut, mal bedrohlich, mal schräg Kunst: Adobe/ap

wochentaz: Frau Baker, seit Jahren kritisieren Sie, dass große Techkonzerne ihre Macht ausnutzen. Nun gibt es mit künstlicher Intelligenz eine neue Technologie, die in den Markt drängt – ist das eine Chance für einen Wandel?

Mitchell Baker: Ja, definitiv. Künstliche Intelligenz ist eine mächtige Technologie. KI hat vermutlich ein noch größeres Potenzial, treibende Kraft für einen echten Wandel zu sein, als wir das aktuell absehen können.

ist CEO der Mozilla-Gesellschaft und Vorsitzende der Mozilla-Stiftung, die hinter dem Fire­fox-­Browser und dem E-Mail­-Programm Thunderbird stehen. Sie gilt als eine der Pio­nie­r:innen des Internets und setzt sich seit Jahrzehnten für ein offenes Netz ein. 2005 wurde Baker vom Time Maga­zine unter die 100 einflussreichsten Menschen der Welt gewählt.

Woran machen Sie das fest?

Nehmen wir den Browser-Markt. Browser sind immer noch für viele Nut­ze­r:in­nen das Tor zum Internet. Und sie wissen ziemlich genau, was sie mit einem Browser machen wollen. Das ist sehr tief verankert, fast schon wie eine Art Muskelgedächtnis. Sie wissen, wo das Feld für die Suchfunktion ist, wo sie für ihre Bookmarks klicken und wo für das Wetter-Widget. Bei Mozilla haben wir immer mal wieder Tests für neue Funktionen gemacht, etwa die Suche so einzubauen, dass Nut­ze­r:in­nen sie schneller finden. Mitunter haben wir dann aber festgestellt: Nein, das passt nicht mit diesem Muskelgedächtnis zusammen. Das ist also alles sehr gelernt und festgefahren. Und jetzt kommt’s: KI ist das erste große Ding, was das Potenzial hat, die Karten komplett neu zu mischen.

Sie meinen, weil etwa Suchmaschinen auf den Markt kommen, die keine Linkliste mehr liefern, sondern Antworten?

Zum Beispiel. Oder weil wir nicht mehr tippen werden, sondern sprechen. Aber man muss auch sagen: Wir reden hier über ein Potenzial. Noch ist es nicht ausgemacht, dass nicht doch wieder Big Tech von heute auch Big Tech von morgen ist.

Was muss denn passieren, damit sich etwas ändert?

Mehrere Dinge. Das Elementare ist: Es braucht ein Ökosystem, das Innovation begünstigt. Denn die kommt in der Regel nicht von den großen, sondern von den kleinen Firmen …

… die dann von den großen aufgekauft werden.

So ein Ökosystem lässt sich extrem fördern, wenn darin Open Source ein große Rolle spielt. Bei KI haben wir das bereits gesehen. Bis zum Frühjahr schien es komplett klar zu sein, dass die großen Konzerne, die in die neue Technologie investiert hatten, unter sich bleiben würden. Google und Microsoft zum Beispiel hatten längst angekündigt, KI in ihre Anwendungen einzubauen. Dann kam das KI-Sprachmodell von Meta heraus – und kurz danach wurde dessen Code geleakt. Ich weiß bis heute nicht, ob das bewusst war oder versehentlich. Und nur wenige Wochen später haben wir eine Flut von Innova­tio­nen und Aktivitäten bei KI gesehen, sogar in Bereichen, die als schwierig oder unmöglich galten. Das war bemerkenswert.

Was war das zum Beispiel?

Was glauben Sie, wie viel Rechenleistung braucht man, damit KI-Anwendungen laufen?

Normalerweise ziemlich viel.

Stimmt. Aber Rechenleistung kostet Geld. Wenn wir im Open-Source-Bereich unterwegs sind, dann müssen wir mit unseren Ressourcen gut haushalten. Und in dieser Innovationsflut stellte sich heraus: KI-Anwendungen lassen sich so ressourcensparend designen, dass sie auf einem Notebook oder sogar lokal auf dem Smartphone laufen. Das ist nicht nur ökologischer, es ermöglicht auch eine ganz andere Art der Nutzung von KI.

Und zwar?

Anwendungen wie ChatGPT, die gerade gehypt werden, haben ein ganz großes Privatsphäreproblem. Denn sie beruhen darauf, dass sie mit großen Datenmengen, in dem Fall Textmengen, trainiert werden. Sie nutzen also alles, was im Internet steht: meine Gedanken, die ich in einem Blog oder auf Social Media formuliert habe, mein geistiges Eigentum, wenn ich vielleicht Autorin bin, meine Kreativität. Und das alles ohne mein Einverständnis, ja, ohne, dass ich auch nur davon weiß. Habe ich jetzt aber ein KI-Modell, das so klein ist, dass es auf meinem Smartphone laufen kann, dann kann ich es selbst trainieren, mit meinen eigenen Daten. Das würde übrigens auch die Machtverhältnisse entscheidend ändern. Denn warum sollte ich dann noch meine Daten in die Hände eines Konzerns legen, der daraus eine Anwendung macht, an der nur er selbst verdient?

Es klingt ein bisschen zu einfach, dass mit Open Source als Basis alles gut wird.

„Jede mächtige Technologie hat beide Seiten in sich – das Gute und das Bedrohliche“

Na ja, so einfach ist es nicht. Erstens fällt Open Source nicht vom Himmel, sondern gedeiht nur dort, wo es ein entsprechendes Ökosystem gibt. Das passiert mit einer guten Regulierung. In diesem Kontext brauchen wir weitere Vorgaben, zum Beispiel Interoperabilität …

… dass man also eine Nachricht von einem zum anderen Dienst schicken können soll.

Die EU hat das in ihrer Plattformregulierung, dem „Digital Markets Act“, unter anderem für Messenger-Dienste vorgeschrieben. Das ist zwar keine Vorgabe, die sich speziell auf KI bezieht, aber sie ist wichtig, weil es ein erster Schritt hin zu mehr Wettbewerb ist.

Für Po­li­ti­ke­r:in­nen scheint es nicht so einfach zu sein, die Dimensionen von KI zu erfassen. Die Branche selbst sendet unterschiedliche Signale. Mal ist KI eine Technologie, die die Menschheit bedroht, mal soll mit ihr alles besser werden. Was denn nun?

Grundsätzlich: Jede mächtige Technologie hat beide Seiten in sich – das Gute und das Bedrohliche. Der Verbrennungsmotor zum Beispiel. Er hat eine enorme wirtschaftliche Entwicklung ermöglicht, doch seine Nutzung bedroht nun das Leben auf diesem Planeten. Man kann natürlich nicht das Bedrohungspotenzial von KI und Klimawandel gleichsetzen. Aber das Disruptionspotenzial, also das Potenzial, Gesellschaften direkt zu verändern, ist bei KI vergleichbar mit dem der industriellen Revolution.

Dann lassen Sie uns ein Stück in die Zukunft schauen – wie wird die Situation in fünf Jahren sein?

Ein paar punktuelle Prognosen: Wir werden Auswirkungen auf den Arbeitsmarkt sehen, einige Jobs werden wegfallen und andere entstehen. Für die Menschen heißt das, dass sie sich um- oder weiterbilden müssen, dass andere Fähigkeiten gefragt sind. Die großen Sprachmodelle, wie GPT-4, die Basis von ChatGPT, werden immer besser, und das wird zu einer ganz essenziellen Frage führen: Wenn hier Gefahren drohen – die Ansätze sehen wir aktuell schon mit Desinformation oder Deep Fakes –, für wen sollen diese Technologien zugänglich sein? Wie offen dürfen sie sein? Das wird eine große Debatte. Ich finde, wenn ein Unternehmen eine Anwendung baut, die zu gefährlich für die Menschheit ist, dann darf dieses Unternehmen, was das Problem überhaupt erst kreiert hat, daraus nicht auch noch Profit ziehen. Wir sehen heute schon viel zu oft, dass Profite bei den Firmen konzentriert sind, während die Risiken auf die Nut­ze­r:in­nen ausgelagert werden.

Wie lässt es sich besser machen?

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

Zum Beispiel mit transparenter oder vertrauenswürdiger KI. Bei vielen KI-Modellen, die wir heute sehen, lässt sich nicht nachvollziehen, warum die Software eine bestimmte Entscheidung getroffen hat. Bei vertrauens­würdiger KI schon, sie macht den Prozess transparent. Und ich sehe aktuell ein viel stärkeres Bewusstsein dafür, vertrauenswürdige Software zu bauen, als das in früheren Generationen der Fall war. Was auch verständlich ist, schließlich sehen wir mittlerweile alle bei Social Media, welche Folgen intransparente Algorithmen haben können.

Sie sind also optimistisch?

Wandel ist aufregend und beängstigend. Aber wir sind immer noch Menschen. Wir haben Emotionen und Hormone, sind rational und irrational, denken nach über unsere Seelen und Spiritualität. Und das wird sich nicht ändern – egal wohin KI uns bringt.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.