KI und ChatGPT: Wenn Maschinen schreiben

Eine künstliche Intelligenz, die schreibt – wird der Mensch als Au­to­r:in bald überflüssig sein?

Ilustration, zeigt einen Laptop, der mit einem Arm auf Papier schreibt

Illustration: Katja Gendikova

Viele sind erschrocken angesichts dessen, was die künstliche Intelligenz (KI) leistet. In einer Gesellschaft, die zutiefst von Schriftlichkeit geprägt ist, ist der Gedanke unangenehm bedrohlich, dass bald etwas, das als genuin menschliche Domäne galt – die Sprache – von Maschinen übernommen werden könnte. Das Schreiben ist eine Kulturtechnik, deren Bedeutung über einfache Kommunikation weit hinausgeht.

Wir würden Ihnen hier gerne einen externen Inhalt zeigen. Sie entscheiden, ob sie dieses Element auch sehen wollen.

Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unserer Datenschutzerklärung.

Wir schreiben aus unendlich vielen Gründen: um uns zu verständigen, um Wichtiges festzuhalten, um uns zu erinnern. Um andere zu verstehen, um die Welt zu verstehen, um uns selbst zu verstehen. Um uns Gehör zu verschaffen, um zu lernen, um zu denken, aus Spaß, aus Wut oder aus Trauer. Geht das verloren, wenn Maschinen anfangen, da mitzumischen?

GPT-3, das Sprachmodell, auf dem die meisten textgenerierenden Anwendungen basieren, wurde von Open AI schon 2020 veröffentlicht. Versuche, natürliche Sprache mithilfe von Maschinen zu simulieren, gehen indes noch viel weiter zurück. Der erste „Chatbot“ war ELIZA, eine Rogerianische Therapeutin, die 1966 von Joseph Weizenbaum entwickelt wurde. Fiktionen von künstlichen Menschen, die wie echte sprechen und sich verhalten, gibt es seit Jahrtausenden.

Doch um Androiden oder Gynoiden soll es in diesem Text nicht gehen. Am Beispiel Universität lässt sich zeigen, vor welch komplizierte Aushandlungsprozesse uns die sogenannte schwache KI stellt. In einer Schreibberatung erkundigte sich ein technikversierter Student, ob er kennzeichnen müsse, dass er GPT-3 seine Forschungsfrage gestellt, die Antworten sortiert und die besten in seine Argumentation eingebaut habe.

Ähnlich wie beim Taschenrechner

Unter den Kol­le­g:in­nen gingen die Meinungen dazu deutlich auseinander: Nein, wenn ich mich mit Kom­mi­li­to­n:in­nen austausche, muss ich ja auch nicht jede Idee ausweisen, die im Gespräch aufkommt, genauso wenn ich online in einem Diskussionsforum nachfrage. Natürlich müssen Hilfsmittel gekennzeichnet werden. Aber geben wir auch die Word-Rechtschreibprüfung oder jede Google-Anfrage an? Es geht ganz viel auch um Konventionen.

Dass Studierende sich untereinander austauschen, dass sie das von den Do­zen­t:in­nen im Seminar Diskutierte verarbeiten, dass sie googeln und Korrekturlesen lassen, ist klar. Wie KI da reinpasst, bleibt vorläufig ungewiss. Die Frage, die sich dabei stellt, lautet: Ist die Kompetenz, aus verschiedenen Argumenten auswählen zu können, gleichwertig dazu, eigene Argumente zu finden? Und daraus folgt schon die nächste Frage: Was ist überhaupt das Ziel der Argumentation?

Der fertige Text, der in sich schlüssig ist und gute Argumente aufweist? Oder der Prozess, bei dem kritisches Denken gefordert ist? KI-basierte Anwendungen wie ChatGPT können an ganz unterschiedlichen Stellen im Schreibprozess zum Einsatz kommen. Im Beispiel mit dem Studenten ging es um Wissen und Ideen: ChatGPT kann mir Sachverhalte erklären, die ich sonst erst recherchieren müsste, und mir Ideen für Argumente liefern, die mir sonst nicht eingefallen wären.

KI-Anwendungen können bei Formulierungen und dabei, meine eigenen Gedanken aufs Papier zu bringen, helfen. Oder lästige Arbeiten loszuwerden, wie das Verfassen von Mails und Abstracts wissenschaftlicher Artikel. Das an eine Maschine auszulagern, wäre eine große Arbeitserleichterung und Zeitersparnis. Ähnliche Diskussionen gab es übrigens bei fast jeder neuen Technologie – man denke an den Taschenrechner.

Nicht für alle Disziplinen geeignet

Wenn die Schü­le­r:in­nen in Klassenarbeiten umständliche Rechenoperationen nicht mehr selbst ausführen müssen, bleibt mehr Zeit für andere Aufgabentypen und Problemlösungen. Andererseits lernen die Schü­le­r:in­nen trotzdem noch Kopfrechnen, bevor sie mit einem Taschenrechner arbeiten dürfen. Bevor ich mir Abstracts von einer KI schreiben lasse, muss ich selbst erst mal verstehen, was dort reingehört.

Wie beim Taschenrechner sollte die Frage also eigentlich nicht lauten: KI-gestütztes Schreiben – ja oder nein?, sondern vielmehr: ab wann? Wie sinnvoll der Einsatz von KI-basierten Schreibtools ist, lässt sich nicht verallgemeinern. Schaut man allein in die Wissenschaft, wird man mit völlig unterschiedlichen Konzepten über das Schreiben konfrontiert, je nachdem, wen man fragt. In der Psychologie gehört hinter jede Aussage ein Beleg. Die KI bringt da wenig, denn GPT-3 ist nicht in der Lage, richtig zu referenzieren.

Wenn es zitiert, dann nur mit Glück auch tatsächlich existierende Texte. Man nennt das mittlerweile ‚Datenhalluzinationen‘. In der Literaturwissenschaft ist es Teil der Leistung, sich eine gute Forschungsfrage zu überlegen, während sie in anderen Fächern vorgegeben wird. Selbst für den Bereich der Hochschule lässt sich also kein allgemeingültiges Rezept dafür geben, wann und wo der Einsatz von künstlicher Intelligenz irgendwie nützlich wäre.

Schreiben ist ein komplexer Prozess, und es zählt nicht nur der fertige Text. Schreiben kann unendlich viele Funktionen haben, es ist auch Denk- und Forschungsinstrument. So vielfältig wie die Gründe sind, aus denen wir schreiben, so kompliziert wird es auch, wenn wir darüber nachdenken, wie sich künstliche Intelligenz darauf auswirkt.

Geduldige Co-Autorin

In der Wissenschaft spielen Quellen- und Literaturverweise eine wichtige Rolle. Wo habe ich eine Information her? Wie man richtig zitiert, gehört zu den ersten Lektionen eines Studiums. Zitieren dient der Transparenz: Je­de:r kann meine Quelle einsehen und nachvollziehen, wo meine Informationen herkommen. Zitieren ist auch eine Absicherung: Das habe ich mir nicht selbst ausgedacht, sondern das geht auf die Forschung anderer zurück. Ich zeige damit auch, dass ich mich im Forschungsdiskurs auskenne und die Erkenntnisse der Wis­sen­schaft­le­r:in­nen, die ich zitiere, anerkenne.

Deshalb ist Au­to­r:in­nen­schaft ein zentrales Thema: Wer ist für ein publiziertes Forschungsergebnis verantwortlich. Dabei geht es natürlich auch um Karrieren, die auch an der Zahl der eigenen wissenschaftlichen Publikationen hängt. In diesem Zusammenhang wird KI dann oft als Kollaborationspartnerin gehandelt: Man gibt sie als Co-Autorin an. Aber so einfach diese Lösung erscheint, sie stellt vieles infrage: Kann man eine KI zitieren, wenn das Ergebnis nicht reproduzierbar ist? Braucht eine KI Wertschätzung? Kann eine KI verantwortlich sein für das, was sie ausgibt?

Es geht um geistiges Eigentum und Urheberschaft, aber es berührt auch Au­to­r:in­nen­schaft als Idee. Dass Au­to­r:in­nen­schaft ein höchst variables Konzept ist, zeigt ein Blick in die Vergangenheit. Im europäischen Mittelalter – zumindest im deutschsprachigen Raum – gab es keine feste Einheit von Text und Autor:in. Viele Texte sind anonym überliefert, und selbst die, die bestimmten und in der Regel männlichen Autoren zugeschrieben werden, weisen in der Überlieferung sogenannte Varianz auf, das bedeutet, dass sie in verschiedenen Handschriften zum Teil völlig anders erscheinen.

Für Erzählungen wird auf Bekanntes zurückgegriffen, Originalität ist nicht besonders wichtig; das Handwerkliche steht im Vordergrund, und die Verfasser rühmen sich vor allem damit, das Alte in neuem, besserem Gewand zu präsentieren. Die Erfindung der künstlerischen Originalität wird gemeinhin dem Sturm und Drang zugeschrieben, in dem das Konzept der ‚Genieästhetik‘ Form annahm.

Davor gab es in der Frühen Neuzeit einen Boom in der Übersetzungspraxis, wo einerseits der Vorlage mit ihrer Einheit aus Sprache, Form und Autor besondere Wertschätzung zukam, während andererseits trotzdem stark in die Texte eingegriffen wurde. Tatsächlich war es noch viel komplizierter. Im Konzept von Au­to­r:in­nen­schaft einer Epoche zeigen sich die Werte einer Kultur oder Gesellschaft, und es zeigt sich auch, wie heterogen diese sein können. Das macht das Ganze mit der KI nicht einfacher.

Das eigene Buch in sieben Tagen

Ob KI als Autorin genannt werden darf, wird in der Wissenschaft gerade entsprechend kontrovers diskutiert, und einige Journals haben es in ihren Richtlinien bereits verboten. Man solle sie lieber im Methodenteil oder in der Danksagung nennen. Aber auch das hat natürlich ganz eigene Implikationen. Die Auseinandersetzung mit schreibender KI bringt uns dazu, uns mit diesen ganz grundlegenden Werten und Prinzipien zu beschäftigen. Wir werden nicht umhinkommen, vieles neu zu definieren.

Aber das muss nicht von heute auf morgen und mit blindem Aktionismus passieren. Etwas mehr Gelassenheit bedeutet gleichzeitig nicht, die Hände in den Schoß zu legen und das mit der schreibenden KI einfach passieren zu lassen. KI kann ein nützliches Hilfsmittel sein, aber auf die ethischen Implikationen bin ich noch gar nicht eingegangen: Was der Technokapitalismus, dessen Ausdruck der emsige Fortschritt im Bereich künstlicher Intelligenz ist, für die Gesellschaft und das Klima bedeutet, haben Kate Craw­ford („Atlas of AI“) und Meredith Broussard („Artificial Unintelligence“) eindrücklich beschrieben.

Künst­le­r:in­nen rufen gerade in Social Media und auf der Kunstplattform ArtStation zum Boykott KI-generierter Bilder auf. Hier geht es um echtes Einkommen, denn diese Künst­le­r:in­nen verdienen ihr Geld über Aufträge. Während Daniel Kehlmann sich in seinem Experiment („Mein Algorithmus und ich“) noch unbeeindruckt vom Können der KI zeigt, sind im Journalismus und beim Copywriting automatisch generierte Texte schon etabliert – inklusive Workshops: „Write your book in 7 days!“

Künstliche Intelligenz war schon immer eine hilfreiche Folie für die Entwicklung dystopischer oder utopischer Gesellschaftsentwürfe. Das ist sie auch jetzt, nur, dass wir langsam den Bereich der Fiktion verlassen. In diesem Text ist übrigens kein von einer KI generierter Absatz, auch wenn das gerade der Running Gag ist. Ob es dem Text gutgetan hätte? Sie können es ja ausprobieren und mir Bescheid geben.

Einmal zahlen
.

Fehler auf taz.de entdeckt?

Wir freuen uns über eine Mail an fehlerhinweis@taz.de!

Inhaltliches Feedback?

Gerne als Leser*innenkommentar unter dem Text auf taz.de oder über das Kontaktformular.

arbeitet am Zentrum für Wissenschafts­didaktik der Ruhr-Universität Bochum im Schreibzentrum zum Thema KI-basierte Schreibtools und Schreibdidaktik.

Ein Kopfhörer - das Symbol der Podcasts der taz

Entdecke die Podcasts der taz. Unabhängige Stimmen, Themen und Meinungen – nicht nur fürs linke Ohr.

Feedback willkommen! Wir freuen uns auf deine Gedanken, Eindrücke und Anregungen.

Schreib uns: podcast@taz.de

Bitte registrieren Sie sich und halten Sie sich an unsere Netiquette.

Haben Sie Probleme beim Kommentieren oder Registrieren?

Dann mailen Sie uns bitte an kommune@taz.de.