Künstliche Intelligenz als Fotogenerator: Falsche Gesichter

Eine Website erzeugt täuschend echte Fotos von Menschen, die es nicht gibt. Das soll als Warnung dienen, hilft aber vor allem Fake-Accounts und Bots.

Ein weibliches und ein männliches Profil - beide mit Brille

Sie schauen Euch zwar an – aber sie gibt's in Wirklichkeit gar nicht Screenshot: thispersondoesnotexist

Dass sich Fotos von Personen dank Software extrem verändern lassen, ist nicht neu. Und auch nicht, dass Programme Figuren nach menschlichem Vorbild generieren können. Doch was künstliche Intelligenz in Sachen Fälschung – und Täuschung – schon alles kann, da zeigt jetzt die Website thispersondoesnotexist.com (deutsch: Diese Person existiert nicht).

Mit jeder Aktualisierung erstellt die Website ein neues Portraitfoto einer Person, das so in jedem Facebook-Account erscheinen könnte. Manchmal sehen die Bilder aus wie Urlaubsfotos, auf denen am Rand noch die Schulter eines herausgeschnittenen Menschen zu sehen ist. Andere Bilder wirken wie Bewerbungsfotos, die Menschen in formeller Kleidung vor neutralem Hintergrund zeigen. Nur: Die Menschen auf den Fotos gibt es nicht. Sie wurden mithilfe von künstlicher Intelligenz erstellt.

Fälschungen aus echten Gesichtern

Der Vorgang, der hinter dem zufälligen Fake-Face-Generator steckt, macht sich das Prinzip sogenannter Generative Adversarial Networks (GAN) zunutze, das schon hinter den „Deepfakes“, also dem Skandal um Bewegtbildmanipulation, steckte. Im Frühjahr 2018 wurde die Öffentlichkeit auf diese Form der Fälschung aufmerksam, als Buzzfeed ein gefälschtes Video vom damaligen US-Präsidenten Barack Obama veröffentlichte und Internetnutzer*innen die Gesichter von Schauspieler*innen in Pornos hinein montierten.

Die Website mit den falschen Gesichtern erinnert nun daran, dass von Fälschungen nicht nur Prominente betroffen sein können. Auf Grundlage der GAN-Technologie greift ein Algorithmus zunächst auf ein riesiges Datenset von Fotos echter Menschen zu. Verschiedene Merkmale der Bilder werden durchmischt und so zu einem neuen Gesicht zusammengefügt. Im nächsten Schritt prüft ein anderer Algorithmus, ob das Bild echt oder gefälscht ist. Wenn der Computer die Täuschung erkennt, geht das Foto wieder zurück zum ersten Schritt – um es noch besser zu machen.

Urheber der Website ist Philip Wang, der als Software-Ingenieur beim Shuttle-Dienst Uber arbeitet. „Den meisten Menschen ist nicht klar, wie gut künstliche Intelligenz künftig Bilder miteinander verschmelzen können wird“, sagte Wang gegenüber Motherboard in der vergangenen Woche.

Kritiker*innen sind durch die Technik hinter dem zufälligen Fotogenerator alarmiert. Das Problem bleibt seit Jahren dasselbe: Die Technik entwickelt sich schneller, als die Gesellschaft mit Regularien und Medienkompetenz folgen kann. Die zunehmend gute Qualität der Bilder macht es nur noch schwerer, Fake-Profile und Bots von echten Accounts zu unterscheiden – und in der Konsequenz die Glaubwürdigkeit von Inhalten im Netz zu gewährleisten.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.