Internetnutzung und KI: Antrainierte Vorurteile

Die Entwicklung von KI bietet Personen mit körperlicher Einschränkung Vorteile. Aber die Inklusion den Maschinen zu überlassen, ist gefährlich.

KI-generiertes Bild eines Blindenhundes mit Sonnenbrille

So etwas kann dabei heraus kommen, wenn man eine KI bittet, das Bild einer sehbehinderten Person zu generieren Foto: Nedrofly Stock/imago

Dass Menschen mit Behinderung das Internet nutzen, ist keine Neuigkeit: Schon seit den Neunzigern gibt es assistive Technologien, die ihnen den Zugang dazu ermöglichen.

Und trotzdem begegnen mir immer wieder technisch versierte Menschen, die davon zum ersten Mal hören und völlig überrascht sind, dass ich als blinde Person zum Beispiel in den sozialen Netzwerken aktiv bin. Noch überraschter sind sie, wenn ich ihnen erzähle, dass ich als Software-Entwicklerin mein Geld verdiene. Ich muss dann oft erklären, dass ich auf die Barrierefreiheit von Programmen und Inhalten angewiesen bin und das auch im Jahr 2024 leider nur selten wirklich reibungslos funktioniert.

„Was kann ich denn da machen, um dir zu helfen?“, werde ich dann gefragt. „Achte darauf, eine Bildbeschreibung bei deinen Fotos hinzuzufügen, wenn du sie mir schickst oder online postest“, antworte ich mittlerweile roboterhaft, denn das, was darauf folgt, ist häufig Unwillen bei den anderen: „Bildbeschreibung? Ich glaube, ich bin dafür zu faul. Kann das nicht eine KI machen?“.

In der Tat gibt es mittlerweile Technologien auf der Basis von künstlicher Intelligenz, die brauchbar gut darin sind, verschiedene Arten von Bildern automatisch und mit ausreichend hohem Detailgrad beschreiben zu können. Das sogenannte „Sprachmodell“ ChatGPT der Firma OpenAI nur ist ein Beispiel dafür. Diese und weitere Technologien haben in den letzten Jahren immer stärker Einzug in mein Leben gehalten.

Völlig neuer Zugang

Nicht nur Bildbeschreibungen kann dieses Sprachmodell erstellen, sondern mir auch bei einer Vielzahl von anderen Aufgaben behilflich sein, zum Beispiel einfache Online-Recherchen zu Fragestellungen wie „Wie heißt der Synchronsprecher von Viktor Hargreeves in ‚The Umbrella Academy?‘ “ oder „Welche Spielerinnen haben gestern die Tore beim FC Bayern München geschossen?“.

Diese Art der Informationsgewinnung gestaltet sich für mich ohne diese Technologie oft schwierig und zeitintensiv, da ich dafür Websites besuchen muss, deren Programmierung so kompliziert ist, dass sie mit meinem Vorleseprogramm nicht funktionieren. Mit dieser Technologie bekomme ich also einen völlig neuen, einfacheren Zugang zu Kultur und damit einhergehend auch mehr gesellschaftliche Teilhabemöglichkeiten.

Auch bei schwierigeren Aufgaben hilft mir das Sprachmodell: Beim Programmieren kann es mir schwierige Routinen zusammenfassen oder die passende Stelle im Code für eine Optimierung suchen, was sonst, verglichen mit meinen sehenden Kolleg*innen, sehr lange dauern würde. Also bekomme ich auch beruflich immer mehr Möglichkeiten, in extrem spezialisierten Jobs auf dem ersten Arbeitsmarkt mitzuhalten. Im Hinblick auf die hohe Arbeitslosigkeit unter Menschen mit Behinderung sind das doch endlich einmal gute Nachrichten.

Aufmerksame Le­se­r*in­nen haben sicher festgestellt, dass das alles klassische Assistenz-Aufgaben sind, die genau so auch ein anderer Mensch übernehmen könnte. Der Unterschied ist, dass diese Assistenz nun immer verfügbar ist und nie müde wird. Die Erleichterung durch die KI hat einen hohen Preis, den auch die Weiterentwicklung dieser Technologien nicht senken wird: Die KI ist nicht rechenschaftsfähig. Macht sie Fehler, können wir sie nicht verklagen. Wir können uns oft nicht mal wirklich für eine alternative KI entscheiden, da es derzeit nur wenige dieser sogenannten „Foundation Models“ gibt, die, wie der Name schon sagt, die Grundlage für viele Anwendungen darstellen.

Behinderte Menschen werden häufig bemitleidet

Die künstliche Intelligenz macht Fehler, die teilweise so gravierend sind, dass sie mir einen großen finanziellen oder persönlichen Schaden zufügen können. Lasse ich mir beispielsweise die Bedienung meiner Waschmaschine von ChatGPT erklären, indem ich Fotos davon zur Verfügung stelle, dann passiert es schnell mal, dass ich eine Wäsche viel zu heiß wasche, weil der Chatbot nicht wirklich denkt, sondern nur eine statistische Wahrscheinlichkeit dafür abgibt, wie weit ich das Einstellungsrad an meinem Gerät drehen soll.

Die Wäsche läuft dann vielleicht ein, verfärbt sich und ist danach nicht mehr zu gebrauchen. Ebenfalls finanziell dramatisch könnte es sein, wenn die KI zum Beispiel bei einer Recherche nach Wechselkursen oder nach Details zu Versicherungen falsche Informationen ausgibt. Genau wie bei einem anderen Menschen eben – deswegen muss ich sehr genau aufpassen, denn als blinde Person bemerke ich mögliche Fehler, die die KI macht, oft gar nicht oder viel später als Sehende.

Auch auf der persönlichen Ebene muss ich beim Umgang mit der KI besonders aufpassen, denn sie unterliegt antrainierten Vorurteilen. Diese sind gerade im Bezug auf behinderte Menschen besonders stark ausgeprägt, denn diese Gruppe wird in den Medien, von denen die KI lernt, immer noch überwiegend von Nichtbehinderten repräsentiert. Behinderte Menschen werden häufig bemitleidet, gerne für alltägliche Dinge, Inspiration Porn wird das auch genannt, und auch Bevormundung erleben sie.

Das alles widerstrebt mir als emanzipierte junge Frau. Frage ich DALL-E 3 – das ist ein KI-Bildgenerator – nach Fotos einer blinden Person, bewusst ohne weitere Details, dann entscheidet er fast immer, einen gut gekleideten Mann abzubilden, der eine Sonnenbrille trägt und mit Blindenstock an Hochhäusern vorbeiläuft. Den Stock hält er dabei immer sehr unnatürlich – aus Mangel an Daten, und weil behinderte Menschen so wenig sichtbar in unserem alltäglichen Leben sind, dass die KI gar nicht wissen kann, wie es richtig wäre. Die Realität ist deutlich vielfältiger, ich selbst bin das beste Beispiel dafür.

Solche Vorurteile und Diskriminierungen kommen bei jeder Antwort einer KI zum Tragen – also auch überall da, wo sie Entscheidungen über mich trifft. Und das wird in der Zukunft immer häufiger passieren. Wie netzpolitik.org berichtet, gibt es seit Neuestem bei der Job-Beratung in Österreich einen Chatbot, der zum Beispiel Frauen eher typisch weibliche Berufe empfiehlt, obwohl das Qualifikationsprofil ganz andere Stärken offenbart. Bei Menschen mit Behinderung ist es ähnlich.

Und es geht noch wei­ter:­Sprach­mo­del­le werden auch dazu eingesetzt, Posts in sozia­len Netzwerken zu moderieren. So hat beispielsweise eine KI bei der Videoplattform TikTok die Reichweite von Menschen mit Behinderung massiv eingeschränkt – angeblich zum Schutz vor Mobbing. Das macht eine Selbstrepräsentation, die frei von Vorurteilen Nichtbehinderter ist, noch schwieriger. So entstehen dann auch keine neuen Daten, die die KI weniger ableistisch machen könnten.

Außerdem müssen wir dringend darauf achten, dass sich Unternehmen diese Technologien als Hilfsmittel nicht auf ableistische Weise aneignen und die Selbstbestimmung dabei auf der Strecke bleibt.

Letztendlich möchte ich die Vielfalt der Welt selbst durch meine eigenen Eindrücke erfahren. Das funktioniert aber nur, wenn Menschen ihre Bilder selbst beschreiben und ich weiterhin ohne die Hilfe von KI-Werkzeugen eine Recherche selbstständig durchführen kann – mit allen Mühen, die damit verbunden sind. Natürlich möchte ich auch wissen, welche Entscheidungen über mich aus welchem Grund getroffen werden – das ist aber bei KI technisch unmöglich. Wir können Inklusion nicht den Maschinen allein überlassen. Sie haben keine Ahnung, was das ist, wie ein großer Teil unserer Gesellschaft auch.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.