piwik no script img

Social-Media-App SoraOpenAI startet einen KI-Fake-Feed

OpenAI, das Unternehmen hinter ChatGPT, startet eine neue Social-Media-App. Dort können Use­r*in­nen ausschließlich KI-Videos posten.

Wird irgendwann der Punkt kommen, an dem ich einer KI mein Gesicht, meine Bewegungen und meinen Personalausweis aushändige? Foto: Maria Diachenko/DEEPOL/plainpicture

OpenAi macht jetzt auch Tiktok. Aber nicht auf Tiktok selbst, sondern auf einer eigenen Plattform. Dafür aber mit mehr von dem, was viele ohnehin für Tiktok halten: Fakes. OpenAI ist vor allem bekannt für sein Programm ChatGPT, das in den letzten drei Jahren die Gesellschaft verändert hat. Jetzt hat das Unternehmen eine neue App vorgestellt: Sora. Mit der sollen Use­r*in­nen KI-Videos schnell und einfach erstellen und teilen können. Sortiert werden sie dann von einem Algorithmus. Zumindest Letzteres ist nichts Neues, sondern das Erfolgsprinzip von Facebook, Instagram, Youtube und eben: Tiktok. Ein Strudel, der gefällt, der teils politisiert, teils informiert. Wobei Sora – anders als die aktuellen Giganten – die Inhalte von Freun­d*in­nen priorisieren will. Das bedeutet nicht unbedingt Sicherheit vor Desinformation, sondern erst mal vor allem, dass sie persönlicher daherkommt, weil sie eben der Cousin der Freundin von Janina gepostet hat.

Egal, wie viel Fake, Propaganda, Lüge auf Tiktok und Co. zu sehen ist, selbst wenn viele der Videos dort ebenfalls mit KI bearbeitet wurden: Zwischendrin sind doch immer noch echte Menschen. Bei Sora aber nicht. Alle Videos werden mit einer KI generiert: Sora 2. Das ist eine relativ junge KI von OpenAI. Die Textbefehle zu Videos macht. Die Videos können nachträglich von anderen Use­r*in­nen bearbeitet und wieder geteilt werden. „Remix“ nennt OpenAI dieses Verwenden und Replizieren von Inhalten und tut ein bisschen so, als wäre es eine neue Sache, dabei erstellen Menschen im Internet seit Jahrzehnten Memes.

Bei Sora darf man sogar selbst rein in die Fakes. Wer will, kann sich aufnehmen, dann macht die KI eine schicke, digitale Version von einem, ein sogenanntes „Cameo“. Das kann man dann von der KI in Videos einbetten lassen. Man kann dafür auch die Cameos von anderen nutzen, wobei diese die Inhalte auch wieder löschen können. So sollen die Persönlichkeitsrechte gewahrt bleiben. Spannend, wie überprüft werden soll, dass ich wirklich diese Person bin, deren Video ich hochgeladen habe, um ein Cameo zu erstellen. Wird irgendwann der Punkt kommen, an dem ich einer KI mein Gesicht, meine Bewegungen und meinen Personalausweis aushändige?

OpenAI hat bei der Vorführung der App harmloses Material gezeigt, wie eine Eiskunstläuferin auf einem gefrorenen See. Dabei wird klar: Es fällt schwer, diese Videos als nichtmenschlich zu erkennen. Und es fällt schwer, bei der Vorstellung eines sozialen Mediums, bei dem Menschen ausschließlich KI-Fake-Videos erstellen und teilen, nicht pessimistisch zu werden. Diese Plattform könnte ein bunter Alice im Wunderland“-Strudel werden. Oder eine weitere Stufe abwärts in den modrigen Lügen-Keller.

Vorerst gibt es die App nur in Kanada und den USA, nur auf dem iPhone und nur auf Einladung. Eine Beschränkung wie für ein Experiment, ob man die Cameos wirklich vor Missbrauch schützen kann. Und wie ein Bremsklotz, damit die Plattform sich an langsam wachsende Zugriffsraten und Datenverkehr gewöhnen kann. Vielleicht wird OpenAI währenddessen auch herausfinden, wie sich die App finanziert. Aktuell zahlen Menschen nur selten für KI-Dienste, die allerdings enorme Kosten verursachen. Sora soll laut OpenAI aber vorerst werbefrei sein. Im Internet bedeutet das oft: Die Nut­ze­r*in­nen zahlen mit ihren Daten.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

4 Kommentare

 / 
  • Ganz ehrlich, ich habe wirklich Mitleid mit den jungen Leuten heutzutage. Ich will nicht den Rentner raushängen, aber wir hatten eine Jugend, in der wir mit aufgeschlagenen Knien glücklich nach Hause kamen und uns einen heißen Schokoladentrunk gönnten und danach Karlsson auf dem Dach schauten.

  • Wer kennt die mit Figuren bemalten Bretter und den Löchern zum Gesicht durchstecken nicht? Das ist im Prinzip das gleiche, nur dass man dafür ein paar Atomkraftwerke braucht, um es zu betreiben.

  • Die nächste Stufe ist gezündet. Bald gilt nicht mehr „flood them with shit“, sondern es ist schlicht nicht mehr möglich, annähernde Wahrheit und fake zu unterscheiden. Es endet in einem Informationsdesaster.



    Und weltweit kassieren nur noch wenige Leute ab. Alle anderen sind Sklaven.



    Siehe auch die Folge in der Daily Show zur Humanity technology.

  • Man kann nicht einfach so ein Video einer Person hochladen, um eine digitale Version dieser zu erstellen. Sondern die App scannt wenn gewünscht das eigene Gesicht, man muss den Kopf hin und her bewegen und ein paar Worte sprechen.

    Es erscheint mir unwahrscheinlich, dass man diesen Prozess überlisten kann um eine andere Person zu imitieren.