Ausbeutung im Tech-Sektor: Die KI-Revolution frisst ihre Gig-Worker
Große Firmen lagern das Training künstlicher Intelligenz an Subunternehmen aus. Für die arbeiten weltweit echte Menschen – zu miserablen Bedingungen.
E s war im Dezember 2024, als John einen Nebenjob suchte, um seine Promotion in Literaturwissenschaft zu finanzieren. Da fiel dem Anfang 30-Jährigen aus dem britischen Brighton eine Anzeige von Outlier auf, einem Unternehmen für künstliche Intelligenz, das Menschen suchte, die am Training von sogenannten Large Language Models oder kurz LLMs mitarbeiten.
Outlier, eine US-amerikanische Firma, ist einer der ganz großen Player am KI-Markt. Hauptfinanzier von Outliers Dachgesellschaft Scale AI ist Peter Thiel, der umstrittene ehemalige CEO von PayPal und einst der erste externe Investor bei Facebook.
KI-Systeme sind so gut in der Datenverarbeitung, im Programmieren oder beim Imitieren von Gesprächen, weil Menschen die Modelle zuvor angeleitet haben. Johns Aufgabe würde es sein, Aufträge – sogenannte Prompts – für die KI-Systeme zu formulieren und dann zu bewerten, wie korrekt, prägnant und angemessen die Antworten des Modells waren. Dieser Prozess wird KI-Training genannt und dient dazu, die Ergebnisse der Systeme zu verbessern.
Das KI-Training ist eine florierende Branche. John bekam den Job, der wegen des Homeoffice ziemlich angenehm schien. Doch das Einstiegsgehalt für eine so zukunftsweisende Branche war überraschend niedrig: etwa 14,30 Euro pro Stunde, was zum damaligen Zeitpunkt nur ein paar Cent über dem britischen Mindestlohn lag.
Diese Recherche wurde ermöglicht durch das Algorithmic-Accountability-Reporting-Stipendium der Nichtregierungsorganisation AlgorithmWatch.
Outlier bezahlte John nicht in der Anlernzeit. Nach drei Monaten hatte John 36 Stunden bezahlt gearbeitet und zwölf Stunden mit Schulungen verbracht. Ein Viertel seiner Arbeitszeit blieb also unbezahlt. Damit lag sein Verdienst sogar noch unter dem Mindestlohn. Wenn er mehr Stunden als vorgegeben arbeitete, wurden die Überstunden zu einem geringeren Satz vergütet. Genauso war es, wenn er zusätzliche Arbeit übernahm. Er ließ sich wiederholt für ein Projekt unbezahlt anlernen, nur um dann zu erfahren, dass es nicht zustande kam. John war frustriert: „Aufgewandte Zeit sollte immer angemessen bezahlt werden, egal ob es eine Schulung ist oder nicht.“ Neue Aufgaben bekam er insgesamt nur wenige, mit langen Pausen dazwischen, Unterstützung gab es kaum. „Ich bin immer noch in ihrem System, aber ehrlich gesagt können die mich mal.“
Hunderte Millionen Menschen arbeiten als Gig-Worker
Nicht nur John ging es so. Sehr viele Gig-Worker, die in Europa und den USA am Training großer Sprachmodelle für generative KI arbeiten, werden für Schulungen, Sitzungen, Toilettenpausen, Gespräche mit Vorgesetzten und Urlaub nicht bezahlt. Überstunden werden nicht voll bezahlt. Die Bezahlung auf ein Minimum zu drücken, ist überall in der sogenannten Gig-Economy üblich, in der Selbstständige und Minijobber über eine Onlineplattform kurzfristig kleine Aufträge erhalten.
Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.
Online-Gig-Work hat sich in der Weltwirtschaft schnell etabliert. Einem Bericht der Weltbank von 2023 zufolge macht Gig-Work mittlerweile zwischen 4,4 und 12,5 Prozent der weltweiten Erwerbstätigkeit aus. Insgesamt gibt es 154 bis 435 Millionen Gig-Worker.
Für diese Recherche haben wir mehr als 200 Gig-Worker auf vier Kontinenten kontaktiert und mehr als 50 ausführliche Interviews mit Menschen geführt, die für Outlier und ähnliche Unternehmen arbeiten. Fast alle, mit denen wir gesprochen haben, waren am Training von KI-Modellen beteiligt, etwa indem sie selbst Prompts schrieben oder die Ergebnisse nach Prompts von anderen auswerteten. Für solche Aufgaben können Spezialkenntnisse nötig sein. Weitere Aufgaben der Gig-Worker bestehen darin, „unangemessene“ Antworten zu identifizieren, zum Beispiel Aufrufe zu Gewalt oder andere sensible Inhalte, sachliche oder grammatikalische Fehler oder Verstöße gegen Gesundheits- und Sicherheitsvorschriften.
Outlier-Gig-Worker aus Portugal, den USA, dem Vereinigten Königreich, Argentinien und Deutschland berichten, dass Schulungen und Besprechungen meist nicht bezahlt werden. „Ich verdiene in etwa den Mindestlohn“, sagt ein portugiesischer Sprachspezialist, „aber das variiert von Projekt zu Projekt.“ Wenn er alle Besprechungen sowie Verwaltungs- und Schulungsarbeiten einbeziehe, liege der Verdienst „mit Sicherheit“ unter dem portugiesischen Mindestlohn. Außerdem gebe es keine Sozialleistungen. Andere Outlier-Gig-Worker schätzen ebenfalls, dass ihre Honorare unter dem Mindestlohn liegen: bei etwa 3,50 Euro pro Stunde in Portugal, bei weniger als 4,50 Euro in den USA und bei 6 Euro in Deutschland.
Im Vereinigten Königreich steht in einigen Stellenanzeigen von Outlier sogar offen, dass das KI-Training mit weniger als dem Mindestlohn von 12,21 Pfund, etwa 14 Euro, bezahlt wird. Das Unternehmen erklärt zwar, dass für die Einarbeitung oder Überstunden niedrigere Sätze gelten können, lässt aber unter den Tisch fallen, dass diese niedrigeren Sätze im Einzelfall gegen null tendieren können.
Lohndiebstahl, seit Jahren
Die Soziologin und Informatikerin Milagros Miceli leitet eine Forschungsgruppe am Weizenbaum-Institut in Berlin, das auf Digitalisierung spezialisiert ist. Miceli hat beobachtet, dass Outsourcingunternehmen schon immer so taten, als ob Schulungen eine Form der beruflichen Qualifikation seien, weshalb Gig-Worker sie als Bonus betrachten sollten, für den sie nicht noch extra bezahlt werden müssten. In etwa wie bei einem unbezahlten Praktikum. Der Unterschied: Die bei den Schulungen erworbenen Fähigkeiten seien außerhalb der jeweiligen Projekte meist nutzlos und könnten nicht auf andere Projekte übertragen werden. „Da Gig-Worker für diesen Teil ihrer Arbeit nicht bezahlt werden, werden sie von den Unternehmen ausgebeutet“, sagt Miceli.
Antonio Casilli, Soziologieprofessor am Institut polytechnique de Paris und Autor des Buchs „Waiting for Robots. The Hired Hands of Automation“, spricht in diesem Zusammenhang von Lohndiebstahl, den die Unternehmen und Plattformen seit Jahren begehen.
Für eine Studie haben Forscher*innen des Oxford Internet Institute 2022 Gig-Worker im Globalen Süden interviewt. Die Befragten arbeiteten im Durchschnitt 22,7 Stunden pro Woche auf den Plattformen, von denen 7,8 Stunden unbezahlt waren, also etwa ein Drittel. Ein Outlier-Gig-Worker in Indien, den wir interviewten, arbeitete drei Tage lang fünf Stunden pro Tag: „Ich musste zwei Antworten von zwei verschiedenen KI-Modellen analysieren, validieren und vergleichen, die sie auf einen bestimmten Prompt ausgegeben hatten. Als ich ungefähr 5 Dollar verdient hatte, war das Geld nach einer Woche noch nicht bei mir angekommen. Trotzdem habe ich weitergearbeitet, bis ein Honorar von 20 bis 30 Dollar fällig war. Ich wartete auf die Überweisung, bekam aber eine E-Mail, in der ich beschuldigt wurde, gegen die Richtlinien verstoßen zu haben, weshalb mein Konto gesperrt werde. Als ich dagegen protestierte, bekam ich keine richtige Antwort. Meine Arbeit wurde nicht bezahlt.“
Wir haben Outlier darum gebeten, zu den Lohndiebstahlvorwürfen Stellung zu beziehen. Das Unternehmen hat auf unsere Anfrage zwar geantwortet, ist aber nicht auf die von uns gestellten konkreten Fragen eingegangen.
Outliers Dachgesellschaft ist Scale AI. Sie wurde 2016 von Alexandr Wang, der damals als amerikanisches Techwunderkind galt, gegründet, um Arbeitskräfte zu vermitteln, die Daten kommentieren und annotieren. Inzwischen ist der Unternehmensschwerpunkt aber das Training von großen Sprachmodellen.
Das Sytem schaut ständig über die Schulter
Ein wichtiger Investor von Scale AI ist Peter Thiel, dessen Founders Fund im August 2019 100 Millionen Dollar in Scale AI steckte. Inzwischen sind auch Mark Zuckerbergs Meta und Jeff Bezos’ Amazon als Investoren eingestiegen. Das Unternehmen war 2024 bereits 14 Milliarden Dollar wert und strebte im März dieses Jahres eine Bewertung von 25 Milliarden Dollar an. Zu seinen Kunden gehören der europäische Unternehmensberatungsriese Accenture, SAP und das britische Unternehmen Deloitte. Wir haben alle drei Unternehmen um eine Stellungnahme zu ihrer Beziehung zu Scale AI und Outlier gebeten. Keines hat geantwortet. Auch OpenAI, Anthropic und Microsoft gehören zum Kundenkreis, daneben das kanadische Unternehmen Cohere, das Weiße Haus und das US-Militär.
Outlier wurde 2023 gegründet und „widmet sich der Förderung generativer KI durch spezialisiertes menschliches Fachwissen“, wie der Geschäftsführer Xiaote Zhu sagt. Nach Angaben des Unternehmens biete es Gig-Workern „flexible, unverbindliche Möglichkeiten zu einem zusätzlichen Einkommen“, was ein Euphemismus für prekäre und ungeregelte Arbeit ist. Outlier bezeichnet seine Gig-Worker sogar beschönigend als „Mitwirkende“.
Allein im letzten Jahr hätten Zehntausende aus der ganzen Welt Hunderte von Millionen Dollar bei Outlier verdient, sagt Zhu, was den Eindruck erwecken soll, dass die Milliarden aus dem Unternehmensumsatz zu den Gig-Workern durchgesickert seien. Im Jahr 2023 erklärte Scale AI gegenüber dem Forbes-Magazin stolz, dass die Firma sich verpflichtet fühle, ihnen „einen existenzsichernden Lohn“ zu zahlen. Auf den warten sie allerdings noch immer.
Outlier schirmt seine Kund*innen von den Gig-Workern ab. Kund*innen und Projekte verbergen sich hinter Codewörtern wie „Cabbage Patch“, „Jellyfish Rubrics“ oder „Laurelin Sun“. Meistens wissen die Gig-Worker nicht, wer die Kund*innen sind. Sie dürfen noch nicht einmal darüber spekulieren, welches Unternehmen zu einem Projekt gehören könnte, wie ein in Westeuropa ansässiger Sprachspezialist bei Outlier uns berichtet hat. Outlier-Gig-Worker müssen Vertraulichkeitsvereinbarungen unterschreiben, wie sie auch bei ähnlichen Unternehmen üblich sind. Und Outlier verbietet den Gig-Workern, außerhalb ihrer Arbeitszeit über die Einzelheiten der Projekte zu sprechen.
Wir konnten ein internes Dokument einsehen, in dem Google als Outlier-Kunde aufgeführt ist, vermutlich für das Training des Gemini-Modells. Da die Namen von Meta, OpenAI und Alphabet in einem kalifornischen Gerichtsverfahren genannt werden, scheinen sie allesamt ebenfalls Kund*innen von Outlier zu sein.
Kein verlässlicher Arbeitgeber
Überstunden sind bei Outlier ganz zugunsten des Unternehmens geregelt. Ein automatischer Timer von Hubstaff, einem Softwareunternehmen für mobiles Arbeiten, überwacht die Gig-Worker und erfasst ihre Arbeitszeit. Sie müssen den Timer anhalten, um Pausen zu machen. Selbst Toilettenpausen werden von der Arbeitszeit abgezogen. Die Bezahlung entspricht zudem nicht der den jeweiligen Aufgaben zugeordneten Zeit. Gig-Worker erzählen davon, dass angeblich in einer Stunde zu bewältigende Aufgaben meistens länger dauern, sodass das Honorar dafür verhältnismäßig niedriger ausfällt.
Wenn Gig-Worker mehr Zeit benötigen, können sie entweder die Aufgabe abgeben und werden nicht mehr bezahlt, oder sie arbeiten zu einem reduzierten Satz weiter daran. Viele verfahren dann nach dem Motto „Besser weniger als nichts“ und machen weiter.
Falls die Aufgabe nach einer bestimmten Frist immer noch nicht abgeschlossen ist, werden die Gig-Worker überhaupt nicht bezahlt, wie Mitarbeitende aus verschiedenen Kontinenten berichten. Das sei allerdings nicht bei allen Projekten so. Ein promovierter Lehrer aus den USA beschrieb eine solche Situation so: „Ich hatte zwei Stunden damit verbracht, ein Dokument zu überarbeiten. Das System zeigte mir zwei Fehler an, die ich beheben musste, bevor die Zeit ablief. Einen konnte ich entdecken, den anderen aber nicht. Da war nichts zu machen. Die Zeit lief ab, und ich bekam für diese Aufgabe kein Geld.“
Milagros Miceli zufolge ist die Praxis „sehr verbreitet“, angeblich nicht erledigte Aufgaben nicht zu bezahlen. Gig-Worker seien so sehr daran gewöhnt, dass sie es inzwischen nicht einmal mehr als Lohndiebstahl wahrnähmen und sich sagten, dass das in der Gig Economy nun einmal so sei.
Ein weiteres großes Problem von Gig-Workern ist der Mangel an verlässlichem Einkommen. Durch ihre steigende Zahl seien Aufträge schwerer zu bekommen. Ein Interviewpartner berichtet: „Manche bleiben die ganze Nacht auf, um sich Aufträge zu schnappen. Manchmal kommt gegen 1 Uhr nachts eine E-Mail rein, in der steht, dass Aufträge verfügbar sind. Aber wenn ich morgens aufwache, sind sie schon weg. Es fühlt sich oft wie ein Wettrennen an.“ Es ist die virtuelle Form des allmorgendlichen Gangs von Tagelöhner*innen zum Werkstor: Wer zu spät kommt, wird ausgesperrt.
Der Widerstand wächst
Alle Gig-Worker haben damit zu kämpfen, wenn keine Arbeit verfügbar ist. Einer der Interviewten arbeitet für das in Zypern ansässige malaysische Unternehmen Mindy Support am Training generativer KI-Systeme und berichtet: „Die Honorare sind höher als der Mindestlohn in meinem Land, aber das Auftragsvolumen ist so klein, dass ich davon nicht leben kann.“ Andere Mindy-Support-Gig-Worker kennen das: „Ich liebe es, Daten zu annotieren. Aber manchmal ist einen ganzen Monat lang kein Projekt verfügbar. Ich muss mir wohl bald einen anderen Job suchen.“ Auch Outlier-Gig-Worker in Deutschland beklagen Mangel an Arbeit. Sie müssten lange ohne neue Aufträge oder irgendeine Rückmeldung auskommen, was frustrierend sei.
Mira Wallis erforscht die Erfahrungen von Gig-Workern am Berliner Institut für Migrationsforschung. „Wenn die KI-Firma sie nicht mehr braucht, kann das Arbeitsverhältnis von heute auf morgen zu Ende sein“, sagt Wallis. Manche Gig-Worker hätten ihr aber auch gesagt: „Dieser Job gibt mir Sicherheit. Wenn die Wirtschaft in der Krise ist, kann ich immer online arbeiten.“
Fragwürdige Beschäftigungspraktiken sind in der KI-Branche weitverbreitet. Zwei Unternehmen müssen sich gerade in drei großen kalifornischen Gerichtsverfahren verantworten.
Im Dezember 2024 hat der frühere Outlier-Gig-Worker Steve McKinney vor dem San Francisco County Superior Court wegen Lohndiebstahls und Irreführung Klage gegen Scale AI eingereicht. Der Kläger sagt, das Unternehmen beschäftige ein Heer von unangemessen entlohnten und faktisch selbstständigen Auftragnehmer*innen, die mit ihrer Arbeit den Boom generativer KI möglich machen würden. Die in der Klage formulierten Vorwürfe decken sich mit den Angaben der Gig-Worker, die wir interviewt haben: Steve McKinney berichtet von unbezahlten Schulungen, zu knapp bemessener Arbeitszeit und unbezahlten Überstunden.
Außerdem wird Scale AI einer „Lockvogeltaktik“ im Einstellungsprozess beschuldigt. Steve McKinney sei ein Lohn von 25 US-Dollar pro Stunde versprochen worden, aber davon habe er nur einen Teil erhalten. Scale AI habe deshalb nicht den Mindestlohn nach kalifornischem Recht gezahlt.
Ein „soziales Tauschgeschäft“
Eine weitere Klage wurde im Januar 2025 eingereicht, ebenfalls in Kalifornien. In der Klageschrift heißt es, Scale AI habe dem Kläger aus San Diego, der 2024 für Scale AI Daten annotierte, die nach kalifornischem Recht fälligen Überstundenzuschläge und bezahlten Ruhezeiten vorsätzlich nicht gezahlt. Schon im Oktober 2024 hatten frühere Gig-Worker Scale AI, Outlier und HireArt verklagt. Sie hätten gegen Bundes- und Landesgesetze verstoßen, als sie mehr als 500 Gig-Worker ohne die vorgeschriebene Frist von 60 Tagen entließen. Der Fall wurde vor das zuständige US-Bezirksgericht gebracht.
In den Outlier-Nutzungsbedingungen steht, dass das Unternehmen den Gig-Workern kein verbindliches Arbeitsvolumen verspreche. Sie übernehmen nach ihrem eigenen Ermessen Aufträge, die sie mit eigenen Geräten erledigen. Die Gig-Worker haben so die volle Flexibilität, und das Unternehmen hat keine Verpflichtungen: Es gibt keinen bezahlten Urlaub und keine Elternzeit, keinen Überstundenausgleich und keine der anderen Rechte, für die Gewerkschaften in den letzten 150 Jahren gekämpft haben.
Von daher ist es kaum verwunderlich, dass keine*r der Gig-Worker, mit denen wir sprachen, diese Arbeit als Karrierechance betrachtet. „Es ist eine Verzweiflungstat, um während der Arbeitslosigkeit etwas Geld zu verdienen“, sagt eine Outlier-Sprachspezialistin von der iberischen Halbinsel. Besonders alleinerziehende Frauen oder solche, die Verwandte pflegen, lassen sich darauf ein, da sie diese Arbeit besser mit ihren familiären Verpflichtungen vereinbaren können.
Mira Wallis sagt: „Diese Flexibilität kann prinzipiell als neues soziales Tauschgeschäft funktionieren, zu dem die Menschen bereit sind.“ Mehr Flexibilität und Freiheit gegen weniger Sicherheit. „Gig-Worker müssen aber alle negativen Folgen der Plattformarbeit in Kauf nehmen, um sich diese Flexibilität zu bewahren.“ Viele hätten trotzdem Probleme damit, Pflege oder Kinderbetreuung mit der Plattformlohnarbeit in Einklang zu bringen. „Das Homeoffice macht es nicht einfacher. Eine Frau erzählte mir einmal ihre ganzen Probleme bei der Plattformarbeit, nur um am Ende zu betonen, wie frei sie doch sei.“ Der Mangel an ausreichenden öffentlichen Sozialleistungen für alleinerziehende Mütter sei einer der Gründe, die Gig-Work-Anbietern wie Outlier in die Karten spielten. „Für manche Gig-Worker ist es die beste von ausnahmslos schlechten Alternativen“, sagt Wallis.
Weltweite Entfremdung
Wenn ein Unternehmen wie Outlier eine Plattform in den USA betreibt, während die Gig-Worker über die ganze Welt verteilt sind, fehlt eine Anlaufstelle, um sich zu versammeln, zu organisieren oder Sammelbeschwerden auf den Weg zu bringen. „Selbst Uber-Fahrer*innen oder Essensausliefer*innen treffen sich auf der Straße“, sagt Milagros Miceli. „Gig-Worker kennen sich nicht, außer vielleicht, wenn sie sich in Facebook-Gruppen austauschen. So können keine Tarifverhandlungen stattfinden.“
Die wahren Nutznießer dieses Modells sind die Techkonzerne, denn sie entziehen sich dadurch der Verantwortung, die sie als Endnutzer der Arbeit der Gig-Worker eigentlich übernehmen sollten. Das Outsourcingunternehmen Samasource wurde von Facebook beauftragt, die Analyse sensibler Onlineinhalte durchzuführen, wozu Bilder von Gewalt gehören. Samasource heuerte Menschen in Kenia an, die seither an posttraumatischen Belastungsstörungen leiden und die Facebook-Muttergesellschaft Meta verklagten.
Die EU-Lieferkettenrichtlinie verpflichtet Unternehmen, notwendige Maßnahmen zu ergreifen, um in ihren Wertschöpfungsketten schwerwiegende Verletzungen der sozialen Grundrechte zu verhindern. Auch ausgebeutete Gig-Worker könnten dieses Rechtsmittel nutzen. In Deutschland müssen alle Unternehmen mit mehr als 1.000 Beschäftigten bestimmte Menschenrechtsstandards in ihrer gesamten Lieferkette sicherstellen. Wenn ein großes deutsches Unternehmen also ein in San Francisco ansässiges Unternehmen für die Datenannotierung oder den KI-Support anheuert, müssen die Rechte der Vertragsarbeiter*innen des Unternehmens in San Francisco gewährleistet sein. Noch. Denn CDU und CSU wollen das Lieferkettengesetz verwässern. Und auch die EU-Kommission, einige EU-Mitgliedstaaten und Parlamentarier*innen sind momentan dabei, Kernelemente aus der Richtlinie herauszuoperieren.
Generative künstliche Intelligenz wird als Motor für globales Lohnwachstum und Produktivität verkauft. Der KI-Guru Marc Andreessen meint, dass „KI die Welt retten wird“. Die Produktivität der Weltwirtschaft werde explodieren und für Wachstum, neue Branchen, neue Jobs und steigende Löhne sorgen.
Mit der Realität von KI-Gig-Workern hat das wenig zu tun. Der Soziologe Antonio Casilli sagt, dass die ganze Debatte über KI und Arbeit von einer falschen Vorstellung ausgehe: „Die Gefahr besteht nicht darin, dass Roboter den Menschen die Arbeit wegnehmen, sondern darin, dass die Menschen für Roboter arbeiten müssen.“
John aus Großbritannien hat inzwischen seine Doktorarbeit über Superschurken in der Literatur begonnen, womit er gut vorankommt. „Für Outlier habe ich nicht noch mal gearbeitet“, sagt er.
taz lesen kann jede:r
Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen
Starten Sie jetzt eine spannende Diskussion!