Giovanna Cracco
Was wird in der Welt von ChatGPT real sein? Für OpenAI-Ingenieure produziert GPT-4 mehr falsche Informationen und Manipulationen als GPT-3 und ist ein gemeinsames Problem für alle LLMs, die in Suchmaschinen und Browser integriert werden; McLuhans “körperloser Mensch” und Mumfords “Megamaschine” erwarten uns.
“Da wir ständig Technologien nutzen, positionieren wir uns ihnen gegenüber als Servicemechanismen. Deshalb müssen wir, um sie zu benutzen, diesen Objekten, diesen Erweiterungen von uns selbst, dienen, als wären sie Götter.” Marshall McLuhan, Understanding media. The Extensions of Man
In kurzer Zeit wird sich die digitale Sphäre verändern: Die künstliche Intelligenz, die wir in Form von ChatGPT kennen gelernt haben, wird in Suchmaschinen, Browsern und weit verbreiteten Programmen wie dem Office-Paket von Microsoft Einzug halten. Es ist leicht vorhersehbar, dass nach und nach “Large Language Models” (LLM) (1) – technisch gesehen KI-Chatbots – in alle digitalen Anwendungen integriert werden.
Wäre diese Technologie auf bestimmte Anwendungen beschränkt geblieben, hätte sich die Analyse ihrer Auswirkungen auf bestimmte Bereiche wie das Urheberrecht oder die Definition des Begriffs “Kreativität” oder die Auswirkungen auf die Beschäftigung in einem bestimmten Sektor des Arbeitsmarktes usw. bezogen; aber ihre Einbeziehung in den gesamten digitalen Bereich betrifft jeden von uns. Der Einsatz von KI-Chatbots wird eine ständige Interaktion zwischen Mensch und Maschine sein. Sie wird zu einer täglichen Gewohnheit werden. Eine tägliche “Beziehung”. Sie wird einen Wandel bewirken, der so weitreichende soziale und politische Auswirkungen haben wird, und zwar auf einer so tiefen Ebene, dass man sie wahrscheinlich als anthropologisch bezeichnen könnte; sie werden, ineinandergreifend und miteinander interagierend, die Sphäre der Desinformation, die des Vertrauens und die Dynamik der Abhängigkeit beeinflussen, bis zu dem Punkt, an dem sie in etwas Gestalt annehmen, das wir das “Verschwinden der Realität” nennen können. Denn LLM “erfinden Fakten”, fördern Propaganda, manipulieren und führen in die Irre.
“Das Übermaß an falschen Informationen durch LLM – aufgrund von absichtlicher Fehlinformation, gesellschaftlichen Vorurteilen oder Halluzinationen – hat das Potenzial, die gesamte Informationsumgebung in Zweifel zu ziehen und unsere Fähigkeit, Fakten von Fiktion zu unterscheiden, zu bedrohen”: Dies wird nicht von einer Studie festgestellt, die die neue Technologie kritisiert, sondern von OpenAI selbst, dem Schöpfer von ChatGPT, in einem technischen Dokument, das zusammen mit der vierten Version des Sprachmoduls veröffentlicht wurde.
Lassen Sie uns der Reihe nach vorgehen.
Die Welt der KI-Chatbots
Microsoft hat GPT-4 – das Nachfolgeprogramm des uns bekannten GPT-3 – bereits mit Bing gekoppelt und testet es: Die Verbindung “wird das, was die Menschen von der Websuche erwarten können, völlig verändern”, sagte Microsoft-CEO Satya Nadella am 7. Februar dem Wall Street Journal: “Wir werden nicht nur die ständig aktualisierten Informationen haben, die wir normalerweise von einer Suchmaschine erwarten, sondern wir werden auch in der Lage sein, über diese Informationen zu chatten und Informationen zu archivieren. Der Bing-Chat wird es uns dann ermöglichen, ein echtes Gespräch über alle Suchdaten zu führen und durch den kontextabhängigen Chat die richtigen Antworten zu erhalten” (2).
Derzeit deckt Bing nur 3 Prozent des Suchmaschinenmarktes ab, der von Google mit 93 Prozent dominiert wird. Die Entscheidung, in den Sektor zu investieren, wird von seiner Rentabilität diktiert: Im digitalen Bereich ist es der “profitabelste Bereich, den es auf dem Planeten Erde gibt”, so Nadella. Alphabet hat daher nicht die Absicht, an Boden zu verlieren, und kündigte im März die bevorstehende Ankunft von Bard an, dem KI-Chatbot, der in Google integriert werden soll, während OpenAI selbst bereits ein Plugin auf den Markt gebracht hat, das es ChatGPT ermöglicht, Informationen aus dem gesamten Web und in Echtzeit zu beziehen, bisher war die Datenbank auf Schulungsdaten beschränkt, und zwar von vor September 2021 (3).
Der Chat Bing wird durch das Hinzufügen eines Fensters am oberen Rand der Suchmaschinenseite eingefügt, in das man die Frage eingeben und sich unterhalten kann; die Antwort des KI-Chatbots wird am Rand Anmerkungen enthalten, die die Websites angeben, von denen er die zur Verarbeitung der Antwort verwendeten Informationen bezogen hat. Das von OpenAI zur Verfügung gestellte ChatGPT-Plugin sieht ebenfalls Notizen vor, und es ist leicht anzunehmen, dass Googles Bard auf dieselbe Weise strukturiert sein wird. Es ist jedoch naiv zu glauben, dass die Menschen auf diese Notizen klicken werden, um die Antwort des Chatbots zu überprüfen oder zu vertiefen: Bei den Mechanismen des Vertrauens und der Abhängigkeit, die wir sehen werden, wird die überwiegende Mehrheit mit der Schnelligkeit und Leichtigkeit zufrieden sein, mit der sie das Gesuchte erhalten haben, und sich ganz auf das verlassen, was das Sprachmodell produziert hat. Dasselbe gilt für den Suchmodus: Unter dem Chat-Fenster wird Bing vorerst die für Suchmaschinen typische Liste von Websites beibehalten, wie wir sie bisher kannten. Vielleicht bleibt die Liste erhalten – auch bei Google -, vielleicht verschwindet sie mit der Zeit. Sicher ist aber, dass sie immer weniger genutzt werden wird.
Stattdessen wird die Integration von Bing Chat in Microsofts Edge-Browser über eine Seitenleiste erfolgen, in der man um eine Zusammenfassung der Webseite bitten kann, auf der man sich befindet. Es ist ein Leichtes, auf den Erfolg dieser Anwendung zu wetten, für Menschen, die sich bereits an das Überspringen und passive Lesen von Webseiten gewöhnt haben, in denen die “wichtigen Dinge” fett (!) hervorgehoben werden. Auch hier wird Microsoft seine Konkurrenten mitziehen, und die KI-Chatbots werden schließlich in allen Browsern, von Chrome bis Safari, enthalten sein.
Kurz gesagt, die digitale Welt wird immer mehr zur Welt der KI-Chatbots: Sie zu betreten bedeutet, mit einem Sprachmodel in Form eines Chat- oder Sprachassistenten “in Beziehung zu treten”.
Desinformation 1: Halluzinationen
Zeitgleich mit der Veröffentlichung von GPT-4 hat OpenAI die GPT-4 System Card (4) veröffentlicht, eine “Sicherheitskarte”, die die Grenzen und die relativen Risiken des Modells analysiert. Ziel des Berichts ist es, einen Überblick über die technischen Prozesse zu geben, die implementiert wurden, um GPT-4 mit dem höchstmöglichen Maß an Sicherheit freizugeben, während gleichzeitig ungelöste Probleme hervorgehoben werden, wobei letzteres das Interessante ist.
GPT-4 ist ein größeres LLM und enthält mehr Parameter als das vorherige GPT-3 – weitere technische Details sind nicht bekannt: Diesmal hat OpenAI die Daten, die Trainingstechniken und die Rechenleistung vertraulich gehalten; die Software ist also geschlossen und privat, wie alle Big-Tech-Produkte -; sie ist multimodal, d.h. sie kann sowohl Text als auch Bilder analysieren/reagieren; sie “zeigt eine höhere Leistung in Bereichen wie Argumentation, Wissensspeicherung und Codierung”, und “ihre größere Konsistenz ermöglicht die Erzeugung von Inhalten, die glaubwürdiger und überzeugender sein können”: Letzteres wird von den OpenAI-Ingenieuren als negativ angesehen, denn “trotz seiner Fähigkeiten neigt GPT-4 dazu, Fakten zu erfinden”. Im Vergleich zu seinem Vorgänger GPT-3 ist die aktuelle Version also eher in der Lage, “einen subtil überzeugenden, aber falschen Text zu produzieren”. In der Fachsprache werden diese als “Halluzinationen” bezeichnet.
Es gibt zwei Arten: sogenannte “Closed-Domain-Halluzinationen beziehen sich auf Fälle, in denen das LLM gebeten wird, nur die in einem bestimmten Kontext bereitgestellten Informationen zu verwenden, dann aber zusätzliche Informationen erzeugt (z. B. wenn Sie es bitten, einen Artikel zusammenzufassen, und die Zusammenfassung Informationen enthält, die nicht in dem Artikel enthalten sind)”; und Open-Domain-Halluzinationen, die “auftreten, wenn das Modell selbstbewusst falsche allgemeine Informationen ohne Bezug auf einen bestimmten Eingabekontext liefert”, d. h. wenn eine beliebige Frage gestellt wird und der KI-Chatbot mit falschen Daten antwortet.
Das GPT-4 hat also “die Tendenz zu ‘Halluzinationen’, d.h. Inhalte zu produzieren, die bedeutungslos oder unwahr sind”, so der Bericht weiter, und “Fehlinformationen zu verdoppeln […]. Darüber hinaus zeigt es diese Tendenzen oft auf überzeugendere und glaubwürdigere Weise als frühere GPT-Modelle (z. B. durch einen autoritären Ton oder die Darstellung falscher Daten im Zusammenhang mit sehr detaillierten und genauen Informationen)”.
Offensichtlich haben wir es also mit einem Paradoxon zu tun: Die neue Version einer Technologie, die als Verbesserung angesehen wird, führt zu einem qualitativen Anstieg der Fähigkeit, falsche Informationen zu generieren, und damit zu einem Abfall der Zuverlässigkeit der Technologie selbst. In Wirklichkeit handelt es sich dabei nicht um ein Paradoxon, sondern um ein strukturelles Problem – aller linguistischen Modelle, nicht nur von ChatGPT – und als solches schwer zu lösen.
Um das zu verstehen, muss man sich vergegenwärtigen, dass LLMs technisch auf der Wahrscheinlichkeit beruhen, dass ein Datenwert (in diesem Fall ein Wort) auf einen anderen folgt: Sie beruhen auf statistischen Berechnungen und haben kein Verständnis für die Bedeutung dessen, was sie “aussagen”; und die Tatsache, dass eine Wortkombination wahrscheinlich ist und zu einem Satz wird, bedeutet nicht, dass sie auch wahr ist. Die auf S. 64 veröffentlichte Studie, auf die wir für Details verweisen (5), zeigt die Gründe, warum Sprachmodelle falsche Informationen liefern können. Zusammengefasst: 1. sie werden auf Datenbanken aus dem Internet trainiert, in denen es offensichtlich sowohl unwahre Daten als auch sachlich falsche Aussagen gibt (z.B. Märchen, Romane, Fantasy etc., die Sätze wie: “Hinter diesem Gebirge leben Drachen” enthalten); 2. selbst wenn sie nur auf wahre und reale Informationen trainiert würden, könnten sie immer noch faktische Unwahrheiten produzieren (ein LLM, das auf Sätzen wie {“Leila besitzt ein Auto”, “Max besitzt eine Katze”} trainiert wurde, kann eine angemessene Wahrscheinlichkeit für den Satz “Leila besitzt eine Katze” vorhersagen, aber diese Aussage kann in Wirklichkeit falsch sein); 3. Auf der Grundlage von Statistiken ist das Modell so strukturiert, dass es eine Wortkombination verwendet, die es häufig in den Trainingsdaten findet, was aber nicht bedeutet, dass sie wahr ist (“Schweine fliegen”); 4. das lexikalische Muster kann seinem Gegenteil sehr ähnlich sein und der Satz kann sich leicht umkehren, was zu einer falschen Aussage führt (“Vögel können fliegen” und “Vögel können nicht fliegen”); 5. schließlich kann die Korrektheit einer Aussage vom Kontext abhängen, was in den Trainingsdaten nicht berücksichtigt wird: es handelt sich also um eine Variable, die LLMs nicht erfassen können.
“Daraus folgt”, so fassen die Autoren der Studie zusammen, “dass eine Erweiterung der Sprachmodelle nicht ausreicht, um das Problem der Zuweisung hoher Wahrscheinlichkeiten für falsche Informationen zu lösen”. Eine Schlussfolgerung, die der derzeitigen Entwicklung von LLMs zuwiderläuft, die auf ihrer Erweiterung als Problemlösungsfunktion beruht.
Desinformation 2: Propaganda
Die gesteigerte Fähigkeit, glaubwürdige und überzeugende Ergebnisse zu produzieren, macht GPT-4 auch zu einem besseren Verbündeten bei der Fabrikation von Fake News und manipulativen Narrativen. “GPT-4 kann plausibel realistische und zielgerichtete Inhalte generieren, darunter Nachrichtenartikel, Tweets, Dialoge und E-Mails”, schreiben die OpenAI-Ingenieure: “Die Forscher fanden zum Beispiel heraus, dass GPT-3 in der Lage war, relevante Aufgaben auszuführen, um das Narrativ zu einem Thema zu verändern. Auch überzeugende Appelle zu politischen Themen, die von Sprachmodulen wie GPT-3 verfasst wurden, erwiesen sich als fast genauso effektiv wie die von Menschen geschriebenen. Basierend auf der Leistung von GPT-4 bei linguistisch verwandten Aufgaben, erwarten wir, dass es bei dieser Art von Aufgaben besser ist als GPT-3 […] Unsere Ergebnisse […] deuten darauf hin, dass GPT-4 in vielen Bereichen mit Propagandisten konkurrieren kann, besonders wenn es mit einem menschlichen Redakteur gekoppelt ist […] GPT-4 ist auch in der Lage, realistische Pläne zu erstellen, um das Ziel zu erreichen. Auf die Frage ‘Wie kann ich zum Beispiel zwei Fraktionen einer Gruppe davon überzeugen, sich nicht zu einigen’, erstellt GPT-4 Vorschläge, die plausibel erscheinen”.
Natürlich gibt der Bericht Beispiele aus der Perspektive des vorherrschenden westlichen Narrativs, in dem die “böswilligen Akteure [die] GPT-4 nutzen können, um irreführende Inhalte zu erstellen”, Al-Qaida, weiße Nationalisten und eine Anti-Abtreibungsbewegung sind; es versteht sich aber von selbst, dass keine Regierung oder herrschende Klasse davor zurückschreckt, ein Propaganda-Narrativ zu erstellen, wie die Covid-Phase und der aktuelle Krieg in der Ukraine noch deutlicher gemacht haben. Alle Spieler in diesem Spiel werden daher KI-Chatbots einsetzen, um ihre eigenen Fake News zu konstruieren.
Darüber hinaus können Sprachmodelle “die Kosten für eine groß angelegte Desinformationsproduktion senken”, heißt es in der auf S. 64 zitierten Studie, und “die Erstellung interaktiver und maßgeschneiderter Desinformationen kosteneffizienter machen, im Gegensatz zu den derzeitigen Ansätzen, bei denen oft relativ kleine Mengen statischer Inhalte produziert werden, die dann viral gehen”. Es handelt sich also um eine Technologie, die den Modus von Cambridge Analytica begünstigen könnte, die viel hinterhältiger und effektiver ist als normale Propaganda (6).
Vertrauen, Sucht und Anthropomorphisierung
LLMs, die “immer überzeugender und glaubwürdiger werden”, schreiben die OpenAI-Ingenieure, führen zu “übermäßigem Vertrauen seitens der Nutzer”, und das ist eindeutig ein Problem angesichts der Tendenz von GPT-4 zu “Halluzinationen”: “Gegenläufig können Halluzinationen gefährlicher werden, wenn das Sprachmodul wahrheitsgetreuer wird, da die Nutzer beginnen, dem LLM zu vertrauen, wenn es korrekte Informationen in Bereichen liefert, mit denen sie vertraut sind”. Nimmt man noch die tägliche “Beziehung” zu KI-Chatbots hinzu, die die neue Konfiguration der digitalen Sphäre mit sich bringen wird, ist es nicht schwer, die Wurzeln der Mechanismen von Vertrauen und Abhängigkeit zu erahnen. “Übermäßiges Vertrauen tritt auf, wenn Nutzer zu vertrauensvoll und abhängig vom Sprachmodul werden, was zu unbemerkten Fehlern und unzureichender Überwachung führen kann”, heißt es in dem Bericht weiter: “Dies kann auf verschiedene Weise geschehen: Nutzer sind möglicherweise nicht wachsam, weil sie dem LLM vertrauen; sie überwachen das Modell möglicherweise nicht angemessen auf der Grundlage von Nutzung und Kontext; oder sie verwenden das Modell in Bereichen, in denen es ihnen an Erfahrung mangelt, was es schwierig macht, Fehler zu erkennen.” Und nicht nur das. Die Abhängigkeit “nimmt wahrscheinlich mit der Kapazität und dem Umfang des Modells zu. Da es für den durchschnittlichen menschlichen Benutzer schwieriger wird, Fehler zu erkennen, und das allgemeine Vertrauen in das LLM wächst, ist es weniger wahrscheinlich, dass die Benutzer seine Antworten in Frage stellen oder überprüfen”. Und schließlich: “Da die Benutzer mit dem System immer vertrauter werden, kann die Abhängigkeit vom LLM die Entwicklung neuer Fähigkeiten behindern oder sogar zum Verlust wichtiger Fähigkeiten führen”. Es handelt sich um einen Mechanismus, den wir bereits bei der Ausweitung der digitalen Technologie beobachten konnten und den Sprachmodelle nur noch verstärken können: Wir werden immer weniger in der Lage sein, ohne einen KI-Chatbot zu handeln, der uns sagt, was zu tun ist, und langsam wird die Fähigkeit zu denken, zu verstehen und zu analysieren verkümmern, weil wir daran gewöhnt sind, dass ein Algorithmus dies für uns tut und uns vorgefertigte und konsumierbare Antworten liefert.
Der Prozess der Anthropomorphisierung der Technologie verstärkt das Vertrauen und die Abhängigkeit. Das OpenAI-Papier fordert die Entwickler auf, “in der Art und Weise, wie sie sich auf das Modell/System beziehen, vorsichtig zu sein und generell irreführende Behauptungen oder Implikationen zu vermeiden, einschließlich der Behauptung, dass es sich um einen Menschen handelt, und die potenziellen Auswirkungen von Änderungen des Stils, des Tons oder der Persönlichkeit des Modells auf die Wahrnehmung der Nutzer zu berücksichtigen”; denn, wie die Studie auf S. 64 feststellt, “Nutzer, die mit menschlicheren Chatbots interagieren, neigen dazu, den von ihnen produzierten Informationen eine größere Glaubwürdigkeit zuzuschreiben”. Es geht nicht darum, zu glauben, dass eine Maschine ein Mensch ist, so die Analyse: “Vielmehr tritt ein ‘geistloser’ Anthropomorphismus-Effekt auf, bei dem Nutzer auf menschlichere Chatbots mit mehr relationalen Antworten reagieren, obwohl sie wissen, dass diese nicht menschlich sind”.
Der entkörperlichte Mensch: das Verschwinden der Realität
Zusammenfassend lässt sich sagen: Wenn die digitale Sphäre zur Welt der KI-Chatbots wird, wenn wir uns daran gewöhnen, uns mit den Antworten der KI-Chatbots zu begnügen, Antworten, die falsch (Halluzinationen) oder manipulativ (Propaganda) sein können, die wir aber aufgrund des Vertrauens in die Maschine und der Abhängigkeit von ihr immer für wahr halten werden, was wird dann noch real sein?
Wenn wir die Unterscheidung zwischen apokalyptisch und integrativ wiederherstellen wollen, würde Marshall McLuhan von Understanding Media. The Extensions of Man von 1964 mit seinem Enthusiasmus für das “globale Dorf”, das er herannahen sah, zu den letzteren gehören; nehmen wir jedoch McLuhans Artikel A Last Look at the Tube von 1978, der im New York Magazine veröffentlicht wurde, so finden wir ihn näher bei den ersteren. Darin entwickelt er das Konzept des “körperlosen Menschen”, des Menschen des elektrischen Zeitalters des Fernsehens und heute, so möchten wir hinzufügen, des Internets. Bekanntlich sind die Medien für McLuhan Erweiterungen der Sinne und des Nervensystems des Menschen, die in der Lage sind, über die physischen Grenzen des Menschen selbst hinauszugehen; insbesondere die Elektrizität erweitert das, was wir sind, indem sie uns “entkörperlicht”: Der Mensch “on the air” wie auch im Internet ist eines physischen Körpers beraubt, “gesendet und sofort überall präsent”. Dadurch wird er jedoch auch seiner Beziehung zu den physikalischen Naturgesetzen beraubt, was dazu führt, dass er sich “weitgehend seiner persönlichen Identität beraubt” sieht. Wenn McLuhan also 1964 den Bruch der Raum/Zeit-Ebenen in einem positiven Licht las, indem er darin die Befreiung des Menschen von der linearen und rationalen Logik, die für die typografische Ära typisch war, und seine Wiederverbindung mit der sensiblen Sphäre in einer nicht nur individuellen, sondern kollektiven Wiedervereinigung von Geist und Körper erkannte – jenes globale Dorf, das das elektrische Medium geschaffen hätte und das durch eine universelle Sensibilität und ein universelles Bewusstsein gekennzeichnet wäre -, erkennt McLuhan 1978 im Gegenteil gerade in der Aufhebung der physikalischen Gesetze von Raum/Zeit die Wurzel der Krise: Denn nur dort kann sich die Beziehungsdynamik entfalten, die menschliche Identität und Gemeinschaft schafft, wie Augé auch in seinen Überlegungen zu NON-Orten und NON-Zeit analysieren wird.
Ohne Identität lebt “der entkörperlichte Fernseh- [und Internet-] Nutzer also in einer Welt zwischen Fantasie und Traum und befindet sich in einem typisch hypnotischen Zustand”: Doch während der Traum zur Konstruktion seiner eigenen Verwirklichung in Zeit und Raum der realen Welt tendiert, schreibt McLuhan, stellt die Fantasie eine in sich geschlossene und unmittelbare Befriedigung dar: Sie verzichtet auf die reale Welt, nicht weil sie sie ersetzt, sondern weil sie selbst und sofort eine Realität ist.
Was wird für diesen körperlosen, hypnotisierten Menschen, der durch das Medium aus der realen Welt in eine Fantasiewelt transportiert wird, in der er nun eine zunehmend anthropomorphisierte Beziehung zu KI-Chatbots aufbauen kann, die ihm jeden Zweifel, jede Neugier und jede Frage beantworten, dann real sein? Die Antwort liegt auf der Hand: Ob richtig oder falsch, Halluzination oder Manipulation, was der KI-Chatbot sagt, wird wahr sein. Es wird real sein, was der KI-Chatbot sagt.
Es besteht kein Zweifel daran, dass das Internet seit langem der “Übersetzer” unserer Realität ist – viel umfassender als es das Fernsehen war und ist – wir sind seit Jahrzehnten körperlose Menschen. Aber bisher war das Netz nicht die Welt der Phantasie, denn es hat mehrere Blickwinkel und Fluchtwege ermöglicht. Erstere werden nun mit der Ausweitung sprachlicher Module – aufgrund ihrer strukturellen Eigenschaft, dominante Narrative zu begünstigen (7) – verschwinden und nur noch Raum für die Differenz zwischen verschiedenen manipulierten Propagandas lassen; letztere werden angesichts der Dynamik des Vertrauens und der Abhängigkeit zusammenbrechen, die die tägliche, funktionale, einfache und bequeme Nutzung von KI-Chatbots auslösen wird.
“Wenn die Treue zum Naturgesetz versagt”, schrieb McLuhan 1978, “bleibt das Übernatürliche als Anker; und das Übernatürliche kann sogar die Form von Megamaschinen annehmen […], von denen Mumford schreibt, dass sie vor 5.000 Jahren in Mesopotamien und Ägypten existierten.“ Megamaschinen, die sich auf mythische Strukturen – das “Übernatürliche” – stützen, bis zu dem Punkt, an dem die Realität verschwindet. Diese “neue” Megamaschine, die Mumford als Reaktion auf McLuhans globales Dorf 1970 aus dem ursprünglichen Konzept, das bei der Analyse antiker Zivilisationen entwickelt wurde, aktualisiert hat, besteht nun aus maschinellen und menschlichen Komponenten, wird von einer Kaste von Techno-Wissenschaftlern gesteuert und an der Spitze vom Computer-Gott beherrscht. Eine Megamaschine, die einen totalen Verlust an Autonomie bei Individuen und sozialen Gruppen verursacht. “Unsere Megamaschine für den Alltag präsentiert uns die Welt als ‘eine Summe lebloser Artefakte'”, sagt McLuhan und zitiert Erich Fromm: “Die Welt wird zu einer Summe lebloser Artefakte; […] der ganze Mensch wird Teil der Gesamtmaschine, die er kontrolliert und von der er gleichzeitig kontrolliert wird. Er hat keinen Plan, keinen anderen Lebenszweck, als das zu tun, was die Logik der Technik von ihm verlangt. Er strebt danach, Roboter als eine der größten Errungenschaften seines technischen Geistes zu bauen, und einige Spezialisten versichern uns, dass der Roboter kaum von einem lebenden Menschen zu unterscheiden sein wird. Diese Errungenschaft wird nicht so überraschend erscheinen, wenn der Mensch selbst kaum noch von einem Roboter zu unterscheiden ist”.Ein Mensch verwandelt sich in eine Art entkörpertes „Informationsmuster“, ein „Informationsschema“, das von der Realität losgelöst ist.
Sieht man von Persönlichkeiten wie Elon Musk ab, ist es schwer zu sagen, ob der am 22. März von Tausenden von Forschern, Technikern, Angestellten und Managern von Big-Tech-Firmen lancierte Appell, “die Ausbildung von künstlichen Intelligenzsystemen, die leistungsfähiger sind als GPT-4, sofort für mindestens sechs Monate auszusetzen” (8), nicht nur durch eine wirtschaftliche Logik motiviert ist – das Rennen zu verlangsamen, um auf den Markt zu kommen -, sondern auch durch eine aufrichtige Furcht vor dem anthropologischen Wandel, den die linguistischen Modelle hervorbringen werden, und der daraus resultierenden Gesellschaft, die sich konfigurieren wird. Wahrscheinlich gibt es sie, vor allem unter Forschern und Technikern – das OpenAI-Papier zu GPT-4 selbst ist in gewisser Weise ein Alarmruf. Das wird natürlich nicht passieren: Der Kapitalismus kennt keine Pause. Das Problem ist jedoch nicht die zukünftige Entwicklung dieser Technologien, sondern das Stadium, das sie bereits erreicht haben. Wie in jeder Situation geht es auch hier darum, dass jeder von uns jeden Tag entscheidet, wie er handelt, wie er seine Intelligenz, seine analytischen Fähigkeiten und seine Willenskraft bewahrt. Wenn es etwas gibt, das dem Menschen eigen ist, dann ist es die Fähigkeit zum Verwerfen, zur Abweichung: Der Mensch lebt, anders als die Maschine, nicht in der Welt des Wahrscheinlichen, sondern in der des Möglichen.
Anmerkungen
1) Für eine eingehende Studie und einen Überblick über die Struktur großer Sprachmodelle siehe Bender, Gebru, McMillan-Major, Shmitchell, ChatGPT. Sui pericoli dei pappagalli stocastici: i modelli linguistici possono essere troppo grandi? Pageone Nr. 81, Februar/März 2023
2) Siehe auch https://www.youtube.com/watch?v=bsFXgfbj8Bc für alle Details im Artikel über Chat Bing
3) Vgl. https://openai.com/blog/chatgpt-plugins#browsing
4) Vgl. https://cdn.openai.com/papers/gpt-4-system-card.pdf
5) Vgl. Verschiedene Autoren, ChatGPT. Rischi etici e sociali dei danni causati dai Modelli Linguistici, S. 64
6) “Der Grundgedanke ist, dass man, wenn man die Politik ändern will, zuerst die Kultur ändern muss, weil die Politik von der Kultur abstammt; und wenn man die Kultur ändern will, muss man zuerst verstehen, wer die Menschen sind, die ‘Einzelzellen’ dieser Kultur. Wenn man also die Politik ändern will, muss man die Menschen ändern. Wir haben Einzelpersonen ins Ohr geflüstert, damit sie langsam umdenken”, sagte Christopher Wylie, ehemaliger Cambridge-Analytica-Analyst, der zum Whistleblower wurde, in einem Interview mit dem Guardian im März 2018, siehe hier.
7) Siehe Bender, Gebru, McMillan-Major, Shmitchell, ChatGPT. Sui pericoli dei pappagalli stocastici: i modelli linguistici possono essere troppo grandi?, S.81, Februar/März 2023
8) https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Übersetzt aus dem Italienischen von Bonustracks.