Künstliche Intelligenz und Iris-Scan: Das Auge als Ausweis

OpenAI-Chef Sam Altman will die Augen aller Menschen scannen – und sie vor KI schützen. Doch die Speicherung biometrischer Daten schadet eher.

Eine Hand hält eine silberne Metalkugel, die die menschliche Iris scannen kann

Soll den digitalen Weltausweis voranbringen: Irisscanner Orb Foto: Annegret Hilse/reuters

Sam Altman hat eine Mission: Der OpenAI-Chef will die Menschheit vor der künstlichen Intelligenz retten, deren Entwicklung er selbst vorangetrieben hat.

Er fürchtet sich vor dem Tag, an dem eine Superintelligenz übernimmt und Menschen und Maschinen nicht mehr voneinander zu unterscheiden sind. Mit seinem Start-up Worldcoin, dessen gleichnamige Kryptowährung kürzlich lanciert wurde, will er daher ein biometrisches Identifikationssystem (World ID) etablieren, das als eine Art Ausweisdokument fungieren soll.

Für das Projekt, das mit den üblichen Beschwörungen der kalifornischen Ideologie („­giving ownership to every­one“) daherkommt, wurden 1.500 Iriserkennungssysteme in Form verchromter Kugeln in über 35 Städten auf der ganzen Welt aufgestellt.

Die „Orbs“ genannten Kugeln, die ästhetisch an die Todessterne aus „Star Wars“ erinnern, sind mit einem optischen System aus Kameras und Sensoren ausgestattet, welche die einzigartigen biometrischen Merkmale der Iris erfassen und als Code in einer Datenbank speichern.

Nutzer, die ihre Augen scannen, erhalten als Belohnung 25 Tokens in Worldcoin, das entspricht rund 50 Dollar. Biometrie gegen Krypto. Oder wie Sam Altman sagt: „Kapitalismus für alle.“

Das Motto klingt verheißungsvoll. In Kenia und Indien standen die Menschen Schlange, um das digitale „Willkommensgeld“ für die schöne neue Welt zu erhalten. 2,2 Millionen Menschen haben mittlerweile in die Kugel geschaut und ihre Augenpaare ablichten lassen. Geht es nach Altman, ist das erst der Anfang. Der Techvisionär will die Retina von acht Milliarden Menschen auf der Welt scannen, um über die digitale ID ein bedingungsloses Grundeinkommen zu bezahlen.

Massiver Widerstand

Ein Projekt, das so dystopisch und größenwahnsinnig klingt, dass sich die Datensammelwut der NSA dagegen fast schon als bescheiden ausnimmt. Kein Wunder, dass sich gegen Worldcoin massiver Widerstand regt. Die Finanzaufsicht Bafin hat bereits Ermittlungen eingeleitet, in Kenia, wo das Projekt wegen Sicherheits- und Datenschutzbedenken Anfang August gestoppt worden war, hat die Polizei bei einer Razzia Gerätschaften konfisziert.

Zwar betont Worldcoin, dass die Irisscans (gespeichert werden nicht die Bilddateien selbst, sondern ihre kryptografischen Hashwerte) auf einem dezentralen Protokoll hinterlegt werden. Doch IT-Experten haben Zweifel an der Sicherheitsarchitektur. Der Ethereum-Erfinder Vitalik Buterin wies darauf hin, dass Hacker 3-D-Attrappen von „Fakemenschen“ drucken und sich so digitale Identitäten erschleichen könnten. Zudem wisse man nicht, wie die Hardware der Orbs konstruiert sei und ob diese möglicherweise Hintertüren offen ließe.

Schon jetzt blüht der Schwarzmarkt für biometrische Daten. Laut einem Bericht der Kryptoplattform BlockBeats sollen chinesische Nutzer Irisscans von Menschen in Kambodscha und Kenia gekauft haben, um sich in der App zu registrieren, die in China blockiert ist. Kostenpunkt: 30 Dollar für ein Augenpaar.

Vorbild für Worldcoin ist das indische Identifikationssystem Aadhaar, über das Bürger per Fingerabdruck oder Irisscan staatliche Transferleistungen beziehen können. In Indien hat die biometrische Registratur auch ihren Ursprung. Im 19. Jahrhundert führte die britische Kolonialverwaltung dort Hand- und Fingerabdrücke zur Identitätsfeststellung von Pensionsberechtigten ein.

So sollte verhindert werden, dass Renten an eine Person doppelt ausbezahlt werden. Die Iriserkennung wurde erst sehr viel später, in den 1990er Jahren, entwickelt und kam erstmals großflächig im Irakkrieg zum Einsatz, wo US-Marines die von Saddam Hussein aufgebaute Datenbank um Fingerabdrücke und Irisscans anreicherten, um den Zugang zu Städten zu regulieren und Terroristen aufzuspüren. Auch in Afghanistan hat das US-Militär Geräte zur biometrischen Erfassung genutzt.

(Neo)kolo­nia­le Praktiken

Viele Militärtechnologien, die auf den Schlachtfeldern des Globalen Südens erprobt werden, kehren in neuem, schickem Gewand in den Westen zurück – sei es die Eyetrackingtechnologie in Fahrzeugen oder der Fingerabdruckscanner im iPhone. Wenn Worldcoin mithilfe von Vertragsarbeitern, die für jedes Augenpaar eine Provision erhalten, biometrische Daten sammelt, setzt sich die (neo)kolo­nia­le Praktik fort.

Das Krypto-Start-up ist quasi die Ostindien-Kompanie des Informationskapitalismus, die Datenkörper versklavt. Wenngleich Worldcoin nicht der einzige Akteur ist.

So müssen sich auch in UN-Flüchtlingscamps in Jordanien alle Menschen ab fünf Jahren per Irisscan registrieren und legitimieren, um elektronische Gutscheine zu erhalten oder in Supermärkten zu bezahlen. Der UNHCR kooperiert dazu mit der britischen Firma ­IrisGuard, deren Augenscanner auch zur Identifikation von Rentenempfängern im Irak verwendet wird. Die Praxis ist ethisch umstritten. Medientheoretikerin ­Ariana Dongus kritisiert, dass die Flüchtlingscamps „Versuchslabore für biometrische Datenerfassung“ seien.

Datenschutz ist also kein „Nice-to-have“, sondern eine Überlebensgarantie

Die Menschen haben oft keine andere Wahl, als ihre Daten preiszugeben, weil sie sonst auf lebensnotwendige Hilfen verzichten müssten. Wer blind und nicht „maschinenlesbar“ ist, schaut in die Röhre. In Indien zum Beispiel mussten Lepra­kranke, die ihre Finger und ihr Augenlicht verloren hatten, auf Essensrationen verzichten, weil sie sich nicht mit ihrem Körper „ausweisen“ konnten.

Der radikale Materialismus biometrischer Überwachungsregime grenzt Menschen aus und diskriminiert. Für politisch Verfolgte können biometrische Datenbanken sogar zur Lebensgefahr werden. Nachdem die USA 2021 überstürzt aus Afghanistan abgezogen und die hinterlassenen Biometriegeräte den Taliban in die Hände gefallen waren, besteht die Sorge, dass die Fundamentalisten die Datensätze nutzen könnten, um US- und Nato-Helfer wie etwa Ortskräfte zu identifizieren und zu eliminieren.

Quasi zum Abschuss freigegeben

Wie ungeschützt die Daten sind, demonstrierten im vergangenen Jahr Hacker des Chaos Computer Clubs: Sie beschafften sich Gebrauchtgeräte aus dem Afghanistankrieg in Online­auktionshäusern und unterzogen sie einer forensischen Analyse.

Das erschreckende Ergebnis: Die Datenträger waren unverschlüsselt. Auf den Geräten befand sich eine umfassende biometrische Datenbank mit Namen, Fingerabdrücken, Irisscans und Fotos von 2.632 Personen, unter anderem auch Namen von zwei US-Soldaten samt GPS-Daten vergangener Einsatzorte. Wer auf solchen Listen steht, ist quasi zum Abschuss freigegeben. Datenschutz ist also kein „Nice-to-have“, sondern eine Überlebensgarantie.

Was Sam Altman mit den Daten vorhat, ob er sie als Sicherheit für seine Kryptowährung oder als Rohlinge für die nächste Avatargeneration braucht, bleibt sein Geheimnis.

Der Technologieutopist hat ein Monstrum geschaffen, das sich kaum noch kontrollieren lässt – und die Identität von Millionen Menschen bedroht. Es würde nicht verwundern, wenn die verchromten Worldcoin-Kugeln irgendwann auch bei Ebay als Sammlerobjekt zum Verkauf stünden – inklusive lokal gespeicherter Daten. Werden die sensiblen Daten gehackt oder geleakt, ist ihre Kontrolle für immer unmöglich.

Man kann sich ein neues Passwort oder Konto zulegen, aber keinen neuen Finger oder Augapfel.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.