piwik no script img

Zwischen Euphorie und DystopieEs gibt keine künstliche Intelligenz

Die KI-Debatte pendelt zwischen Heilsversprechen und der Sorge vor Kontrollverlust. Sie offenbart viel über Ängste und Sehnsüchte unserer Gesellschaft.

Illustration: Alona Horkova/getty images

E s ist gerade zwei Jahrzehnte her, da verblüffte das US-Prognosegenie Ray Kurzweil mit einer für die damaligen Verhältnisse waghalsigen These: In „The singularity is near“, verkündete er, bis spätestens 2045 werde der große „Showdown“ stattfinden – ein gesellschaftlicher Wendepunkt, an dem eine synthetisch erzeugte Intelligenz milliardenfach klüger sein würde als ihre biologischen Schöpfer.

Für Kurzweil war das keine New-Age-Spinnerei, sondern schlicht Ergebnis exponentiellen Wachstums von Rechenleistung, Nanotechnologie und Robotik. „Wir werden uns mit nichtbiologischer Intelligenz vermischen“, sagte er damals dem Spiegel.

Inzwischen dünkt einem, dass dieser mathematische Futurismus womöglich früher eintrifft, als ihn selbst die tollkühnsten Utopisten erwarteten. Kurzweils Vorhersagen zur Weiterentwicklung der KI haben sich überraschend schnell bewahrheitet. In „The Singularity is Nearer“ (2024), dem Sequel der Tech-Bibel von 2005, erklärt der „Director of Engineering“ von Google, warum seine Vorhersagen längst keine Zukunftsmusik mehr sind. Seit den großen Sprachmodellen ab GPT-4 befänden wir uns längst im „Endspurt“ in die Singularität: Smartphones, LLMs, Genetik – das seien für ihn überfällige Wegmarken der Verschmelzung von Mensch und Maschine.

Dass diese „Singularität“ im Valley längst als gängige Praxis gilt und einen realen geistespolitischen Nährboden liefert, zeigt sich nicht nur an Kurzweils Büchern: Bereits 2008 gründete er mit Peter Diamandis im Nasa Ames Research Park, nahe der Alphabet-Zentrale „Googleplex“, die „Singularity University“, einen gewaltigen Campus aus Glas, Stahl und Beton, der von Weitem wie ein gestrandetes Spaceship aus einem Christopher-Nolan-Film wirkt. Die von der Tech-Industrie gesponserte Bildungsstätte verleiht keine akademischen Abschlüsse, bietet aber Führungskräfteseminare mit einwöchigen Kursen für 15.900 Dollar an.

wochentaz

Dieser Text stammt aus der wochentaz. Unserer Wochenzeitung von links! In der wochentaz geht es jede Woche um die Welt, wie sie ist – und wie sie sein könnte. Eine linke Wochenzeitung mit Stimme, Haltung und dem besonderen taz-Blick auf die Welt. Jeden Samstag neu am Kiosk und natürlich im Abo.

Auf dieser Kathedrale des kalifornischen Transhumanismus baut nun die internationale Geldaristokratie ihren Technikaltar – und zelebriert die Weltenrettung. Sie steht sinnbildlich für das Grundmuster des überhitzten KI-Diskurses. In diesem Kulturkampf spiegeln sich weniger der technologische Fortschritt als vielmehr unsere kollektiven Sehnsüchte und Urängste. Wer die Debatte um KI verstehen will, muss in diese Scheinwelt zwischen institutionalisierten Erlösungsfantasien und Technohysterie eintauchen.

Schizophren anmutende Narrative

Seit geraumer Zeit geistert die Idee einer „Menschheit 2.0“ – jenseits von Sterblichkeit, Schmerz und geistiger Begrenztheit – umher, viele aus der Gründerriege des US-Tech-Imperialismus benutzen sie als Glaubensdogma. Der frühere Google-Chef Eric Schmidt etwa lässt keine Gelegenheit verstreichen, um zu betonen, dass KI „underhyped“ sei: Er hält das künftige Leben mit KI für genauso selbstverständlich wie das menschliche Dasein selbst.

Parallel dazu preisen die Big-Tech-Bosse ihre KI-Produkte als Alleskönner, nur um im gleichen Atemzug vor deren Risiken zu warnen. Sam Altman (OpenAI) spricht von Seelenheil und beschwört im nächsten Satz den Untergang der Schöpfung. Tim Cook (Apple) inszeniert „Apple Intelligence“ als digitale Erlösung, warnt jedoch vor einem globalen Datenschutz-Desaster.

Mark Zuckerberg (Meta) lässt seine neuesten KI-Sprachmodelle auf die Menschheit los, nur um sie anderntags als trojanische Pferde zu brandmarken. Und Mustafa Suleyman (Microsoft) hat mit „The Coming Wave“ einen Branchenbestseller verfasst, der sich liest wie das Drehbuch einer postapokalyptischen Netflix-Serie – eine Erde bevölkert von Menschen, die sich wie willenlose Zombies dem übermächtigen KI-Kult unterwerfen.

Diese schizophren anmutenden Narrative sind längst zum einträglichen Geschäftsmodell geworden: Die KI-Industrie verkauft Angst und Erlösung im Doppelpack und verwandelt den Countdown zur eigenen Gottwerdung in ein Spektakel globaler Selbstvermarktung. Dazwischen bleibt kaum Raum für Nüchternheit, nämlich dort, wo unsere Fähigkeit zur Selbstbehauptung im digitalen Zeitalter verläuft: entlang der Grauzone zwischen Euphorie und Dystopie.

Spätestens hier lohnt der Blick auf die eigene Handlungsfähigkeit, auf ein Konzept, das ich KI-Resilienz nenne: eine Haltung, die weder in Technikgläubigkeit noch in Zukunftsangst gipfelt. Sie beschreibt die Fähigkeit, inmitten digitaler Umbrüche handlungsfähig, kritisch und menschlich zu bleiben.

Wir erleben eine Epoche, in der sich gesellschaftliche Macht, ökonomische Interessen und existenzielle Sinnsuche aufs Merkwürdigste überlagern. KI ist aber nicht allmächtige Technologie, sondern vielmehr Projektionsfläche – für die einen mit der Hoffnung auf Unsterblichkeit verbunden, für die anderen mit der Furcht vor dem Ende unserer Existenz. In dieser emotional aufgeladenen Gemengelage verschwimmt, was real ist, mit dem, was wir zu glauben hoffen oder zu fürchten gelernt haben. Damit wir ins Handeln kommen, sollten wir uns schleunigst aus dieser Schockstarre befreien.

Das Imperium der KI

Das sind keine unbilligen Wünsche. Vieles, was die Schattenseiten des KI-Zeitalters betrifft, spielt sich in den USA ab, in jenem Land, das technologische Heilslehren so routiniert abspult wie Fast Food. So kämpft die New York Times, einst Flaggschiff des Liberalismus, heute an vorderster Front gegen die Vereinnahmung durch KI. Ende 2023 verklagte sie OpenAI wegen Urheberrechtsverletzungen – ein symbolträchtiger Versuch, ihren Journalismus gegen die Ausbeutung durch maschinelles Lernen zu verteidigen.

Dieser noch andauernde Rechtsstreit ist Beweis dafür, wo die Grenze zwischen öffentlicher Hysterie und politischer Einflussnahme verläuft: KI wirkt wie ein Brandbeschleuniger in einer ohnehin überhitzten Medienökologie, in der Macht und Meinung, Kontrolle und Anarchie zum toxischen Amalgam werden. Generative KI, so hat es der Medienforscher Martin Andree formuliert, sei „nur die letzte Stufe einer in sich konsistenten Entwicklung, die durch unsere massive Fehlregulierung des digitalen Raums überhaupt erst möglich wurde – und die nun die Grundpfeiler von Journalismus und Demokratie infrage stellt“.

Was auf dem Spiel steht, ist also nicht weniger als die Resilienz unserer Demokratie. Während in Washington die freiheitliche Presse im Gerichtssaal verhandelt wird, entlarvt Karen Hao, Ex-Journalistin des Wall Street Journal, das wahre Machtzentrum im Silicon Valley: die KI-Industrie selbst. In ihrem Buch „Empire of AI“ rechnet sie schonungslos mit den Big-Tech-Eliten ab: KI, so Hao, sei weder künstlich noch intelligent, sondern ein „imperiales Projekt“, vorangetrieben von einer kleinen, einflussreichen Clique. Sie beschreibt bis ins Detail, wie OpenAI und andere KI-Player Ressourcen und Daten ausbeuten, Content-Moderation in den Globalen Süden auslagern und mit Serverfarmen gewaltige ökologische Verwerfungen verursachen.

Resilienz journalistischer Arbeit

Stephan Weichert

ist Medienwissenschaftler und Publizist. Seit 2020 leitet er das gemeinnützige Vocer-Institut für digitale Resilienz. Er lehrt und forscht zum Thema KI-Resilienz.

Doch fangen wir im Kleinen an: Immer mehr Menschen fragen ChatGPT, statt verlässliche journalistische Quellen zu konsultieren. Es sieht so aus, als würden wir in wenigen Jahren eine digitale Gesellschaft erleben, die sich grundlegend von der heutigen unterscheidet. Aber was bedeutet das für Redaktionen und Medien? Dass es umso wichtiger ist, journalistische Qualitätsarbeit sichtbarer, resilienter zu machen – damit sie nicht verschwindet. Denn aus der opaken Funktionsweise von KI erwachsen Folgen, die unsere demokratischen Grundfesten erschüttern.

Dabei entstehen auch neue Abhängigkeiten, mentale wie professionelle. Generative KI schafft kognitive Bequemlichkeitszonen, in denen das mühsame Geschäft der Recherche und Reflexion zunehmend ausgelagert wird. Zwischen Mensch und Maschine entsteht ein paradoxes Vertrauensverhältnis: Weil die Systeme schnell, höflich und scheinbar neutral reagieren, entwickeln wir emotionale Bindungen, die im Moment technischer Fehler in Frustration oder Hilflosigkeit umschlagen.

Die Logik der Plattformen verschiebt sich von Eyeball-Attention zu emotionaler Vereinnahmung. Das Wettrennen um Engagement ist längst ein „Wettrennen um Intimität (Technologie-Ethiker Tristan Harris), bei dem der eigentliche Gegner nicht mehr andere Medien sind, sondern unser Schlaf, der Zweifel, die menschlichen Freunde. „KI-Freundinnen“ und sogar „KI-Liebe“ sind inzwischen so real wie „KI-Therapeuten“ – und gefährlich: Sie trösten, verstärken aber auch Einsamkeit und Suizidalität. KI ahmt parasoziale Beziehungen so gut nach, dass Vertrauen zum knappen Gut digitaler Selbstbespiegelung wird.

Hinzu kommt die Wahrheitstäuschung: Was aus der Black Box KI stammt, erscheint glaubwürdig, weil es den Anschein von Objektivität wahrt. Wahrheit wird so zur Wahrscheinlichkeitsrechnung, die sich als Gewissheit tarnt. Und je häufiger wir die Maschine befragen, desto stärker tritt die Kulturtechnik des Zweifelns in den Hintergrund: das Prüfen, Abwägen, Kontextualisieren. „Medienkompetenz“, dereinst als pädagogische Maßnahme gegen Medienmanipulation ersonnen, wird ihre Grundlage entzogen.

Die öffentliche Sprengkraft der KI-Systeme

Der Konflikt um das Für und Wider von KI ist also kein Exotenthema von Techno-Nerds. Sondern Projektionsraum für Ängste, Sehnsüchte und Hoffnungen. Die Sprengkraft der KI liegt nicht in den düsteren Visionen der „Tech-Bros“, sondern darin, dass die KI schleichend in unsere Mediennutzung einsickert.

Während Kurzweil, Altman und Co den übermenschlichen Cyborg propagieren, sieht die Realität in deutschen Medienhäusern, auf die es jetzt ankäme, vergleichsweise bieder aus: Wer bekommt Zugang zur KI? Wer darf experimentieren, mit welchen Daten? Utopien zerbröseln schnell an Sicherheitsprotokollen, Betriebsratsvereinbarungen, unübersichtlichen Regelwerken. In manchen Redaktionen werden Prompts wie Geheimrezepte gehütet, als ginge es um Betriebsgeheimnisse; anderswo sperrt man die Tools gleich ganz weg, aus Angst vor Datenlecks oder Urheberrechtsverstößen.

So entstehen Informationsasymmetrien im Inneren der Organisationen. Während das Management die goldene Zukunft beschwört, stolpern die unteren Etagen durch halbgare Experimente – desorientiert, ängstlich vor dem Verlust des eigenen Jobs.

Und draußen, im Netz, da verschiebt sich das Machtgefüge aufs Tragischste. Mit dem Aufstieg der sogenannten „Google Zero“-Suche, bei der Antworten direkt aus den KI-Systemen generiert werden, ohne dass jemand mehr auf die Originalquelle klickt, droht der weitverbreitete Linkjournalismus zu kollabieren. Wenn die Maschine den Umweg über den Journalismus erspart, verlieren Medien nicht nur Reichweite – sondern auch ihre ökonomische Grundlage.

Wer also von „Superintelligenz“ träumt, verwechselt technologische Beschleunigung mit einer Projektion tiefsitzender Urängste und Sehnsüchte in eine Maschine, die weder Bewusstsein hat noch Gefühle kennt. Man könnte sagen: Es gibt eigentlich keine „künstliche Intelligenz“, solange sie auf statistischer Wahrscheinlichkeit, menschlicher Kreativität, Daten und Energie beruht. KI ist nur ein Werkzeug, das unsere gesellschaftlichen Stärken und Schwächen schamlos ausnutzt.

Journalismus first, KI second

Im Journalismus zeigt sich das mit tragischer Klarheit. Die Branche, ohnehin angeschlagen durch ökonomische Schieflage, Vertrauensverluste und den permanenten Strukturwandel, reagiert auf KI wie auf jede neue Welle: mit Misstrauen, halben Experimenten, ohne klare Strategie. Doch was im ersten Moment wie Vorsicht wirkt, könnte sich als demokratietheoretischer Bumerang erweisen. Denn wenn Redaktionen nicht offensiv markieren, wer die Verantwortung trägt, und welche Grenzen gezogen werden, wird das Feld den Plattformen und Konzernen überlassen – und damit jenen Kräften, die in unserer Mediennutzung ausschließlich Dollarzeichen sehen.

KI-Resilienz heißt daher keinesfalls, möglichst viele Tools bedienen zu können, sondern die Kompetenz des Zweifelns zu stärken: Was zeigt mir die Maschine, und was verschweigt sie? Wo endet Statistik, wo beginnt Interpretation? Wer den kritischen Umgang mit KI einübt, verteidigt nicht nur journalistische Standards, sondern stärkt auch digitale Souveränität. Für eine „Responsible AI“ sollten wir nicht einen neuen Relotius-Skandal unter KI-Vorzeichen abwarten. Wir müssen jetzt rote Linien formulieren nach dem Motto: Journalismus first, KI second.

Gibt es ein Leben nach der KI? Ja aber nur, wenn wir uns von der Illusion lösen, KI sei eine Naturgewalt. Denn die durch sie erzeugten Assoziationstsunamis spiegeln politische Interessen und Kapitalströme. Das Leben nach der KI beginnt dort, wo wir sie als das begreifen, was sie ist und was nicht: weder Heilsversprechen noch Weltuntergang, sondern ein Kampfplatz um Deutungshoheit, Öffentlichkeit und Demokratie. Dorthin gehört die KI-Debatte – dorthin sollten wir sie jetzt führen.

taz lesen kann jede:r

Als Genossenschaft gehören wir unseren Leser:innen. Und unser Journalismus ist nicht nur 100 % konzernfrei, sondern auch kostenfrei zugänglich. Texte, die es nicht allen recht machen und Stimmen, die man woanders nicht hört – immer aus Überzeugung und hier auf taz.de ohne Paywall. Unsere Leser:innen müssen nichts bezahlen, wissen aber, dass guter, kritischer Journalismus nicht aus dem Nichts entsteht. Dafür sind wir sehr dankbar. Damit wir auch morgen noch unseren Journalismus machen können, brauchen wir mehr Unterstützung. Unser nächstes Ziel: 50.000 – und mit Ihrer Beteiligung können wir es schaffen. Setzen Sie ein Zeichen für die taz und für die Zukunft unseres Journalismus. Mit nur 5,- Euro sind Sie dabei! Jetzt unterstützen

Mehr zum Thema

16 Kommentare

 / 
  • Mal ein Versuch, diese Frage mit NI (natürlicher Intelligenz) anzugehen!

    WENN



    "KI/AI ihre Infos weitgehend aus im Netz zugänglichen Daten" bezieht,



    UND



    "Nach allgemeiner Meinung, HEUTE das Netz mit ca. 50 % Fake-news, KI-Texten, usw. "Geflutet wird"



    DANN



    ist der Zeitpunkt anzusehen, wann KI "ungenießbar" wird & nur noch sich selbst referenziert!



    ----



    Weiter sind den CEO's dieser Anbieter ein paar Sätze "entflutscht", die die Manipulationsfähigkeit dieser Technik belegen! Vergl. "open AI darf jetzt auch sexuelles.....! usw. :-(

    Mein Fazit: KI/AI haben als Werkzeug einen Wert, wenn es z.B. um die "Auswertung großer Datenmengen", z.B. MRT-Bilder geht, doch ...

    ... für unsere "Alltagskommunikation, -information" sind die "kontraproduktiv"!



    Ps. Der "alte Traum: Der Mensch & die Welt ist determinierbar", ist schon zu Zeiten I.Newton's & Pierre-Simon Laplace ein Witz gewesen!

    Auch die heutigen "FAN's" von KI/AI werden lernen müssen, dass das o.a. auch HEUTE noch gültig ist & Wahrscheinlichkeit kein Ersatz für "das IST" seien kann!

  • Der Hype um die KI wird von Wirtschaftsinteressen befeuert und journalistisch genährt. Das emotionale Wechselbad zwischen Angst und Frohlocken ist eine längst eingeübte Methode, um in der Breite Aufmerksamkeit zu gewinnen. So kommt es nicht von ungefähr, wenn „immer mehr Menschen ChatGPT fragen, statt verlässliche journalistische Quellen zu konsultieren“. Wer sich angewöhnt hat, journalistischen Quellen zu vertrauen, hat den Schutzschild gesunder Skepsis schon lange verloren. Bei all den Meldungen, die über die Agenturticker rasen und unzähligen journalistischen Beiträgen, die täglich herausgebracht werden, bleibt für eine gewissenhafte Prüfung der Inhalte kaum mehr Zeit. Diese bilden dann oft auch die Quellen für längeren Beiträge, die mit etwas Zeitversatz veröffentlicht werden. In diesem beklagenswerten Zustand der Nachrichtenwelt bilden die sogenannten KI-Techniken nur eine weitere Möglichkeit noch mehr Inhalte noch schneller zu produzieren. Wer dann bei ChatGPT nachfragt, wird feststellen, dass die KI mit den selben Inhalten gefüttert wurde und nichts Neues beizutragen hat.

    Da hilft nur noch umfassende Bildung. Bildung bieten die Medien und die KI aber gerade nicht.

  • Der Computer denkt nicht. Er verstärkt das menschliche Denken.



    Da gilt dann GIGO. Garbage In Garbage Out.



    Sie glauben noch an Gott? An welchen? Trainieren sie ihr Chatter doch an der Bibel etc.

  • Naja.

    Es ist das erklärte Ziel von Big Tech (und den chinesischen Gegenstücken) AGI und ASI zu entwickeln.

    Mag sein, dass die aktuellen LLMs eine Blase sind.

    Diese aktuellen Systeme (und die hunderten Milliarden die jährlich in die Technik fließen, weltweit) werden aber die Entwicklung massiv beschleunigen und fokussieren.

    Selbst wenn in den nächsten Jahren der Super-GAU "Sich selbst verbessernde KI" ausbleibt, so können KI-Systeme dennoch zum schnellen und abrupten Ende der Zivilisation führen.

    Zum Beispiel indem KI-Systeme die biotechnologische Forschung massiv beschleunigen:

    Man stelle sich nur einen künstlich erzeugten / verbesserten Virus vor, der durch einen Unfall aus einem Labor gelangt.

    No way! Vollkommen absurd. ;)

    Wer was tun möchte: Bleiben Sie informiert! Reden Sie mit anderen! Es gibt da draußen mittlerweile einige Initiativen (PauseAI, ControlAI, StopAI). Man kann da mitmachen.

    Und was man auch machen kann, ist die aktuelle Petition vom Future of Life Institut gegen die Entwicklung Künstlicher Super Intelligenz zu unterschreiben:

    superintelligence-statement.org/

  • Man darf bei KI nicht vergessen, dass sie schon heute Probleme bereitet, die aber durch die apokalyptischen Erzählungen verschleiert werden.

    Der Energiehunger und Ressourcenverbrauch ist riesig und wird sich wahrscheinlich bald auch auf die Strompreise auswirken. Und natürlich sind die Umweltfolgen enorm.

    Schon jetzt verdummen die Menschen, weil KI Hausaufgaben, Masterarbeiten und Arbeitsaufträge schreibt.

    Heute kosten ChatGPT und Co. fast nichts. Wenn aber einmal abhängig sind, werden die Preise kommen, die auf Gewinn erzielen.

    Und - was Nachrichten angeht, wird es irgendwann keine mehr geben, wenn kein Medienhaus mehr existiert um die KI zu füttern.

  • "Kurzweils Vorhersagen zur Weiterentwicklung der KI haben sich überraschend schnell bewahrheitet"

    Naja. Aus "the singularity is near":



    "Based on the above analyses, it is reasonable to expect the hardware that can emulate human-brain functionality to



    be available for approximately one thousand dollars by around 2020"

    Jetzt sind wir in 2025, und wenn wir auch nur die Intelligenz einer Biene emulieren könnten, müssten die Ukrainer ihre Drohnen nicht fernsteuern.

  • Gut gebrüllt, Löwe! Dann mach einfach mal!

    Dein Problem wird werden, schätze ich, dass es in unserer Wettbewerbsgesellschaft kein „wir“ mehr gibt. Es gibt nur noch ein „ich“ und ein „die“. Das alte Führer-Prinzip ist in sofern stark erodiert, dass nun jeder zweite unter uns führen möchte - und die, die sich gern führen lassen wollen, sich nicht darüber einig werden, von wem genau.

    Und nun? Dass der Mensch nichts tun sollte, was er nicht auch allen anderen erlauben kann, wusste Kant bereits vor 240 Jahren. Der Mann hat dafür nicht mal eine KI gebraucht. Nur seine eigene natürliche Intelligenz. Aber klar, man kann auch die natürliche Dummheit hypen, wenn man nur unintelligent genug ist… 🤷

  • Probleme bezüglich der Quellenprüfung bzw. des Informationsinputs würde ich aktuell bezogen auf uns Nicht-JournalistInnen weniger an einer KI-gestützten Recherche festmachen, sonder eher an den vielen Informationen, die wir als Häppchen serviert bekommen - und deren Konsum sich fundamental zu dem einer Recherche unterscheidet. Einen 20 sekündigen Infoclip kann man nicht prüfen oder widerlegen, weil man den Inhalt nicht aktiv reflektiert und kurz danach auch wieder vergisst - nicht aber das Gefühl, die Tendenz, die da hervorgerufen oder verstärkt wurde. Dort kann KI-gestütze Recherche sinnvoll ansetzen, indem sie uns mit einem Klick zu einem Gefühl eine zusätzlichen Komplexitätsebene liefern kann - abends auf dem Sofa sind wir faul. Wir können sehr dankbar sein, dass das Halluzinieren von Anfang an und noch immer als Phänomen existiert und so jede:r früher oder später mit der Erkenntnis konfrontiert wird, dass hier eine gewisse Skepsis nötig ist. Solange die Parameter aber in den Händen einiger Weniger liegen, ist das Einfallstor für eine bewusste Beinflussung der wahrgenommenen Realität durch diese Wenigen (wie beim guten alten Algorithmus) natürlich riesig.

  • Danke, endlich stellt das mal jemand sachlich fest!



    Die KI ist bei Fleißaufgaben eine prima Suchmaschine und kann bei formalisierten Aufgaben wie Programmcode zusammenstellen Vorarbeit leisten, schöpft aber auch aus allen möglichen Quellen und schafft sich ab und an auch eigene Wahrheiten. Schöpferisch aufgrund eigener neuer Ideen ist da nichts.

    • @Axel Schäfer:

      Nur ist Recherche keine stumpfe Fleissarbeit. Wenn KI flächendeckend in Zeitungsredaktionen in die Recherche-Prozesse eingebettet wird, heisst es nichts anderes, als dass zugunsten der Effizienz bewusst Abstriche bei der Richtigkeit der Informationen in Kauf genommen werden. Die KI stellt eine massive Bevormundung bei der Informations- Vorauswahl dar. Und das wird sich rächen.

      Welches KI Modell dabei die geringste Halluzinationsrate hat, ist dann auch eher eine fehlgeleitete Diskussion. Wenn von 100 Zeitungsartikeln "nur" 17 fake news enthalten, ist auch das nicht akzeptabel und man hört auf, die Zeitung zu lesen. Anstatt den Sinn von KI-gestützter Recherche generell in Frage zu stellen, wird das Problem an die "Selbstverantwortung" der Journalisten ausgelagert. Die Journalisten "sollen" alle Behauptungen der KI nochmal nachprüfen aber das dauert wahrscheinlich länger als die herkömmliche Recherche. Da stellen sich Fragen nach dem Sinn des Ganzen.

      Als die chinesische Suchmaschine Deepseek gelauncht wurde, haben alle Medien synchron beklagt, dass die KI das Tianmen Massaker leugnet. Aber den US-KI-Produkten vertrauen wir blindlings!

  • Erst beklagt der Autor, dass Leute Chat GTP statt journalistische Quellen konsultieren- um im Verlauf des Artikels zu offenbaren, dass in Zeitungsredaktionen Prompts wie Geheimrezepte gehütet werden. Warum noch mal soll sich der Leser an "journalistische Quellen" statt KI wenden? Wenn die Zeitungsredaktionen bereits still und leise KI Systeme in ihre Abläufe integriert haben, ohne dies für ihre Leser transparent zu machen? Woran soll der Leser "verlässliche" journalistische Quellen erkennen, wenn die Redaktionen mit Hilfe von KI erstellte Inhalte nicht transparent kennzeichnen?

    KI Modelle haben Halluzinationsraten von bis zu 48%! Ich hatte ein ähnliches Ergebnis, als ich Perplexity eine spezifische Fachfrage gestellt habe. Die Hälfte war halluziniert und die Antwort, die ich bereits kannte, hat mir weder Chatgpt noch Perplexity gegeben.

    Wer KI zur Recherche einsetzt, verlässt sich auf den mangelhaften Filter der KI und liefert sich dem begrenzten Informations-Rahmen aus, den die KI vorgibt. An die "Eigenverantwortung" der Journalisten zu appellieren ist eine reine Floskel.

    • @Schwabinger :

      Ich halte das für einen Strohmann, weil niemand behauptet hat KI könne die Überprüfung von Quellen ersetzen. Ohne Überprüfung von Quellen wäre es so oder so kein Journalismus, egal ob mit oder ohne KI. Als Formulierungshilfe sehe ich hingegen kein Problem, darin sind sie stark.

      • @Klobrille:

        Was für ein Strohmann??

        "Der Tagesspiegel und der Medieninsider haben nun darüber berichtet, dass die sogenannte Premium-Gruppe von Springer, zu der Welt, Politico und Business Insider gehören, einen neuen KI-Plan hat. Der beinhaltet, dass alle Gewerke, also Redaktion wie Nicht-Redaktion bei jedem Arbeitsschritt mit KI arbeiten sollen. Sie soll demnach Standard bei Recherchen werden und bei der Ideenfindung"

        taz.de/KI-und-Jour...Ki%2Bjournalismus/

  • Interessanter Gedanke. Vielleicht ist das Problem gar nicht, dass KI existiert, sondern wie wir sie nutzen. Wie bei Energie: Nicht die Technologie ist das Risiko, sondern der Umgang damit.

  • Die Maschinen gehören den Kapitalisten. Das darf man niemals vergessen!

  • Einblicke in das Weltverständnis des Silicon Valleys bieten auch zwei interessante Podcast-Reihen aus der DLF-Audiothek:



    „Tech Bro Topia“ und „Die Peter Thiel Story“