Franco ‘Bifo’ Berardi
“Methodisches Schreiben lenkt mich von der aktuellen Situation der Menschen ab. Die Gewissheit, dass all dies aufgeschrieben ist, löscht uns aus oder verwirrt uns. Ich kenne Gegenden, in denen sich die jungen Leute vor den Büchern niederwerfen und die Seiten in barbarischer Weise küssen, auch wenn sie keinen einzigen Buchstaben lesen können. Die Epidemien, die ketzerischen Zwistigkeiten, die Wanderbewegungen, die unweigerlich in Banditentum ausarten, haben die Bevölkerung dezimiert. Ich glaube, ich habe bereits die Selbstmorde erwähnt, die von Jahr zu Jahr häufiger werden. Vielleicht täuschen mich das Alter und die Angst, aber ich vermute, dass die menschliche Spezies kurz vor dem Aussterben steht und dass die Bibliothek überleben wird: erleuchtet, einsam, unendlich, vollkommen still, mit wertvollen Bänden ausgestattet, nutzlos, unbestechlich, geheim.” (Borges, La biblioteca de Babel)
In dieser Geschichte, die Borges 1941 veröffentlichte, findet sich unsere ganze Gegenwart wieder: der Zerfall der menschlichen Zivilisation, der religiöse Fanatismus junger Menschen, die die Seiten von Büchern küssen, die sie nicht einmal lesen können, Epidemien, Zwietracht, Völkerwanderungen, die in Banditentum ausarten und die Bevölkerung dezimieren. Und schließlich die Selbstmorde, die sich von Jahr zu Jahr häufen.
Eine gute Beschreibung des dritten Jahrzehnts des 21. Jahrhunderts. Schließlich verkündet Borges, dass die Bibliothek nicht dazu bestimmt ist, mit der Menschheit zu verschwinden: Sie bleibt, einsam, unendlich geheim und vollkommen nutzlos. Wird also die immense Bibliothek von Daten, die von visuellen, akustischen und grafischen Sensoren aufgezeichnet werden, die in jeder Spalte des Planeten eingebettet sind, für immer den kognitiven Automaten füttern, der an die Stelle der zerbrechlichen menschlichen Organismen tritt, die von Alpträumen vergiftet und bis zum Selbstmord dement sind? Das sagt Borges, wer weiß?
Während der Neuzeit war das Wissen, wie Francis Bacon vorausgesagt hatte, ein Faktor der Macht über die Natur und die Ausgebeuteten, aber ab einem bestimmten Punkt begann die Ausbreitung des technischen Wissens umgekehrt zu wirken: Die Technologie war nicht mehr eine Prothese der menschlichen Macht, sondern wurde zu einem System mit einer eigenständigen Dynamik, in dem wir uns gefangen fühlen.
Schon in den 1960er Jahren sagte Gunther Anders, dass die Macht der Atomtechnologie die Gesellschaft in einen Zustand der Ohnmacht versetzt. Die Atomwaffenstaaten können sich immer weniger der Wettbewerbslogik entziehen, die eine immer zerstörerischere Ausweitung und Verfeinerung der Atomtechnologie vorantreibt, bis hin zu dem Punkt, an dem sie sich dem eigentlichen Willen derer entziehen kann, die sie erdacht und entwickelt haben. In dieser funktionalen Überlegenheit der Atomwaffe sieht Anders die Voraussetzungen für eine neue und vollendetere Form des Nationalsozialismus.
Im neuen Jahrhundert haben die digitalen Technologien die Voraussetzungen für eine Automatisierung der sozialen Interaktion geschaffen, die den kollektiven Willen außer Kraft setzt.
1993 sagte Kevin Kelly in ‘Out of Control’ voraus, dass die damals entstehenden digitalen Netze einen Global Mind schaffen würden, dem sich die subglobalen (individuellen, kollektiven oder institutionellen) Gehirne zwangsweise unterordnen müssten.
In der Zwischenzeit entwickelte sich die Forschung auf dem Gebiet der künstlichen Intelligenz (KI), die inzwischen einen ausreichenden Entwicklungsstand erreicht hat, um die Einbettung eines Systems der Verkettung zahlloser Geräte, die in der Lage sind, menschliche kognitive Interaktionen zu automatisieren, in den sozialen Körper anzukündigen. Die logische Ordnung ist in die Abläufe der sozialen Reproduktion selbst eingeschrieben, aber das bedeutet nicht, dass der soziale Körper durch sie harmonisch reguliert wird. Die globale Gesellschaft wird zunehmend von technischen Automatismen durchdrungen, was jedoch Konflikte, Gewalt und Leid keineswegs ausschließt. Keine Harmonie ist in Sicht, keine Ordnung scheint sich auf dem Planeten zu etablieren. Chaos und Automatismus koexistieren, verflechten sich und nähren sich gegenseitig. Das Chaos nährt die Schaffung von technischen Schnittstellen der automatischen Steuerung, die allein die Fortsetzung der Wertproduktion ermöglichen. Aber die Vermehrung der technischen Automatismen, die von den zahllosen konkurrierenden Instanzen wirtschaftlicher, politischer und militärischer Macht gesteuert werden, nährt das Chaos, anstatt es zu verringern.
Zwei parallele Weltgeschichten entfalten sich, mit allgegenwärtigen Schnittpunkten, aber dennoch getrennt: die Geschichte des geopolitischen psychischen Umwelt-Chaos und die Geschichte der automatischen Ordnung, die in hohem Maße miteinander verknüpft sind. Aber wird das immer so sein, oder wird es einen Kurzschluss geben, und das Chaos wird den Automaten übernehmen? Oder wird es dem Automaten gelingen, sich des Chaos zu entledigen, indem er den menschlichen Akteur eliminiert?
Die Vollendung
Auf den letzten Seiten von Dave Eggers’ Roman ‘Der Kreis’ gesteht Ty Gospodinov Mae seine Hilflosigkeit angesichts der Kreatur, die er selbst erdacht und aufgebaut hat, dem monströsen technologischen Unternehmen, das aus einer Konvergenz von Facebook, Google, PayPal, YouTube und weiteren besteht. Ich wollte nicht, dass das passiert, was passiert, sagt Ty Gospodinov, aber ich kann es jetzt nicht aufhalten. Am Horizont des Romans steht die Vollendung, die Schließung des Kreises: Technologien der kapillaren Datenerfassung und künstliche Intelligenzen verbinden sich nahtlos in einem allgegenwärtigen Netz der synthetischen Erzeugung einer gemeinsamen Realität.
Die derzeitige Entwicklungsstufe der KI bringt uns wahrscheinlich an die Schwelle eines Sprungs in eine Dimension, die ich als allgegenwärtigen globalen kognitiven Automaten bezeichnen würde. Der Automat ist kein Analogon des menschlichen Organismus, sondern die Konvergenz zahlloser Geräte, die von verstreuten künstlichen Intelligenzen erzeugt werden. Die Evolution der künstlichen Intelligenz führt nicht zur Erschaffung von Androiden, zur perfekten Simulation des bewussten Organismus, sondern manifestiert sich als Austausch spezifischer Fähigkeiten durch pseudokognitive Automaten, die sich aneinanderreihen und zum Globalen Kognitiven Automaten zusammenwachsen.
Am 28. März 2023 unterzeichneten Elon Musk, Steve Wozniak, gefolgt von mehr als tausend hochrangigen Vertretern des Hightech-Komplexes, darunter Evan Sharp von Pinterest und Chris Larson von der Kryptowährungsfirma Ripple, einen Brief, in dem sie ein Moratorium für die offene KI-Forschung vorschlugen: “KI-Systeme werden bei der Verfolgung allgemeiner Zwecke mit dem Menschen konkurrieren, und wir müssen uns fragen, ob wir zulassen sollten, dass Maschinen mit Propaganda und Unwahrheiten in unsere Informationskanäle eindringen. Sollen wir zulassen, dass alle Arbeitstätigkeiten, auch die lohnenden, automatisiert werden? Sollten wir nicht-menschliche Intelligenzen entwickeln, die uns an Zahl und Effektivität übertreffen könnten, um uns obsolet zu machen und zu ersetzen? Sollen wir riskieren, die Kontrolle über unsere Zivilisation zu verlieren? Diese Entscheidungen können nicht an die nicht gewählten Führer der Technologie delegiert werden. Diese leistungsstarken Systeme der künstlichen Intelligenz sollten nur dann entwickelt werden, wenn wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind. Deshalb fordern wir alle KI-Labors auf, die Ausbildung von KI-Systemen, die leistungsfähiger als GPT-4 sind, sofort und für mindestens sechs Monate zu unterbrechen. Diese Pause sollte öffentlich und überprüfbar sein und alle entscheidenden Akteure einbeziehen. Sollte eine solche Pause nicht eingehalten werden, sollten die Regierungen die Initiative ergreifen und ein Moratorium verhängen”.
Anfang Mai 2023 wurde dann bekannt, dass Geoffrey Hinton, einer der ersten Erfinder neuronaler Netze, beschlossen hatte, Google zu verlassen, um offen über die mit künstlicher Intelligenz verbundenen Gefahren zu sprechen: “Einige der Gefahren von KI-gestützten Chatbots sind ziemlich beängstigend”, sagte Hinton der BBC, da sie intelligenter als Menschen werden und von böswilligen Agenten eingesetzt werden können. Neben der Möglichkeit der Informationsmanipulation befürchtet Hinton “das existenzielle Risiko, das entsteht, wenn diese Programme schlauer sind als wir […]. Ich bin zu dem Schluss gekommen, dass die Art von Intelligenz, die wir entwickeln, sich sehr von der Intelligenz unterscheidet, die wir haben […], so als würde man 10.000 verschiedene Menschen finden, und jedes Mal, wenn einer dieser Menschen etwas erfährt, erfahren alle anderen automatisch auch davon”.
Die ideologische und unternehmerische Avantgarde des digitalen Neoliberalismus scheint sich vor der Macht des Golem zu fürchten, und wie Zauberlehrlinge rufen die High-Tech-Unternehmer nach einem Moratorium, einer Pause, einer Zeit des Nachdenkens. Aber wie? Funktioniert die unsichtbare Hand nicht mehr? Ist die Selbstregulierung des Kapitalnetzes nicht mehr das Gebot der Stunde? Was geschieht gerade? Was wird passieren? Was ist im Begriff zu geschehen?
Dies sind drei verschiedene Fragen; was passiert, wissen wir mehr oder weniger: Dank der Konvergenz von massiver Datensammlung, Programmen, die zur Erkennung und Rekombination fähig sind, und generierenden Geräten entsteht eine Technologie, die in der Lage ist, bestimmte intelligente Fähigkeiten zu simulieren – stochastische Papageien.
Stochastische Papageien werden aufgrund ihrer Selbstkorrekturfähigkeit und ihrer Fähigkeit, evolutionäre Software zu schreiben, die technische Innovation stark beschleunigen – insbesondere die technische Innovation an sich.
Was passieren könnte und höchstwahrscheinlich passieren wird: Innovative selbstkorrigierende Geräte (Deep Learning) bestimmen ihre eigenen Zwecke unabhängig vom menschlichen Schöpfer. Im wirtschaftlichen und militärischen Wettbewerb können Forschung und Innovation nicht auf Eis gelegt werden, insbesondere wenn wir an die Anwendung von KI im militärischen Bereich denken. Ich glaube, dass die Zauberlehrlinge erkennen, dass die tendenzielle Autonomie der Sprachgeneratoren (Autonomie vom menschlichen Schöpfer) in ihrer Fähigkeit liegt, eine intelligente Fähigkeit effizienter zu simulieren als der menschliche Agent, wenn auch in einem spezifischen und begrenzten Bereich. Spezifische Kompetenzen werden tendenziell auf die Verkettung von selbstgesteuerten Automaten hinauslaufen, für die der ursprüngliche menschliche Schöpfer zu einem zu beseitigenden Hindernis werden kann.
In der journalistischen Debatte zu diesem Thema überwiegen vorsichtige Positionen: Es wird auf Probleme wie die Verbreitung von Fake News, Aufstachelung zum Hass oder implizit rassistische Äußerungen hingewiesen. Alles richtig, aber nicht sehr relevant. Seit Jahren haben Innovationen in der Kommunikationstechnologie die verbale Gewalt und Idiotie verstärkt. Das kann es nicht sein, was die Herren des Automaten beunruhigt, diejenigen, die ihn erdacht haben und ihn einsetzen. Was die Zauberlehrlinge meiner bescheidenen Meinung nach beunruhigt, ist die Erkenntnis, dass der intelligente Automat mit seinen selbstkorrigierenden und selbstlernenden Fähigkeiten dazu bestimmt ist, Entscheidungen zu treffen, die von seinem Schöpfer unabhängig sind.
Stellen Sie sich einen intelligenten Automaten vor, der in das Steuergerät eines militärischen Geräts eingebettet ist. Inwieweit kann man sicher sein, dass er sich nicht auf unvorhergesehene Weise entwickelt und vielleicht seinen Besitzer erschießt oder aus den ihm zugänglichen Informationsdaten logisch die Dringlichkeit des Abwurfs der Atombombe ableitet?
Generative Sprache und Denken: das Gehirn ohne Organe
Die linguistische Maschine, die Fragen beantwortet, ist ein Beweis dafür, dass Chomsky Recht hat, wenn er sagt, dass die Sprache das Produkt von grammatischen Strukturen ist, die in die biologische Ausstattung des Menschen eingeschrieben sind und einen generativen Charakter haben, d.h. in der Lage sind, unendliche Sequenzen zu erzeugen, die mit Bedeutung ausgestattet sind. Aber die Beschränkung des Chomskyanischen Diskurses liegt gerade in seiner Weigerung, den pragmatischen Charakter der Interpretation von Sprachzeichen zu sehen; ebenso besteht die Beschränkung des GPT-Chatbots gerade in seiner Unfähigkeit, Bedeutungsabsichten pragmatisch zu lesen.
In einem Buch mit dem Titel ‘Die Suche nach der perfekten Sprache’ sagt Umberto Eco, dass “eine natürliche Sprache nicht nur auf der Grundlage von Syntaktik und Semantik lebt. Sie lebt auch auf der Grundlage einer Pragmatik, d.h. sie basiert auf Gebrauchsregeln, die die Umstände und Kontexte der Äußerung berücksichtigen, und dieselben Gebrauchsregeln schaffen die Möglichkeit einer rhetorischen Verwendung der Sprache, dank derer syntaktische Teile und Konstruktionen mehrere Bedeutungen annehmen können (wie es bei Metaphern der Fall ist)”.
Der Generative Pre-Trained Transformer (GPT) ist ein Programm, das in der Lage ist, auf einen Menschen zu reagieren und sich mit ihm zu unterhalten, da es in der Lage ist, Wörter, Phrasen und Bilder aus dem objektiven linguistischen Netzwerk im Internet neu zu kombinieren. Das generative Programm wurde darauf trainiert, die Bedeutung von Wörtern und Bildern zu erkennen, und es besitzt die Fähigkeit, Äußerungen syntaktisch zu organisieren. Es besitzt die Fähigkeit, den syntaktischen Kontext zu erkennen und zu rekombinieren, nicht aber den pragmatischen Kontext, d. h. das intensive Erleben des Kommunikationsprozesses, denn diese Fähigkeit hängt von der Erfahrung eines Körpers ab, und diese Erfahrung ist für ein Gehirn ohne Organe, wie es eine künstliche Intelligenz darstellt, nicht zugänglich. Die sensitiven Organe stellen eine Quelle des kontextuellen und selbstreflexiven Wissens dar, über die der Automat nicht verfügt.
Der Automat ist zur Intelligenz fähig, aber nicht zum Denken. Der Automat ist dem Menschen auf dem Gebiet des Berechenbaren überlegen, aber das Denken ist gerade der Einbruch des Nicht-Berechenbaren (Bewusstsein/Unbewusstes) in das Wissen und Denken. Doch diese Überlegenheit (oder besser gesagt Unreduzierbarkeit) des menschlichen Denkens ist ein schwacher Trost, denn sie nützt wenig, wenn es um die Interaktion mit rechnergestützten Erzeugungs- (und Zerstörungs-) Einrichtungen geht.
Vom Standpunkt der Erfahrung aus gesehen, konkurriert der Automat nicht mit dem bewussten Organismus. Was jedoch die Funktionalität betrifft, so ist der (pseudo-)kognitive Automat in der Lage, den menschlichen Agenten in einer bestimmten Fähigkeit (Rechnen, Listen erstellen, Übersetzen, Zielen, Schießen usw.) zu übertreffen. Der Automat ist auch in der Lage, seine Verfahren zu perfektionieren, d. h. sich weiterzuentwickeln. Mit anderen Worten: Der kognitive Automat neigt dazu, die Zwecke seiner Tätigkeit zu ändern, nicht nur die Verfahren.
In der menschlichen Sphäre besteht die Sprache aus Zeichen, die in einem Erfahrungskontext Bedeutung haben. Dank der pragmatischen Interpretation des Kontextes wird die semantische Interpretation der Zeichen (sowohl der natürlichen als auch der sprachlichen, die mit einer Absicht ausgestattet sind) möglich. Die Konjunktion von Körpern ist der nonverbale Kontext, in dem die Identifizierung und Disambiguierung der Bedeutung von Äußerungen möglich wird.
In der konjunktiven Sphäre basiert die Beziehung zur Realität auf der Fähigkeit der Sprache, zu repräsentieren und zu überzeugen.
In der konnektiven Sphäre hat die Interpretation von Zeichen nicht den Charakter der Erfahrung in einem mehrdeutigen Kontext, sondern des Erkennens im Kontext der Exaktheit.
Künstliche linguistische Intelligenz besteht aus Software, die in der Lage ist, syntaktisch kohärente semiotische Reihen zu erkennen und durch die syntaktisch kohärente Rekombination von Zeicheneinheiten auch Äußerungen zu generieren.
Durch die Entwicklung von Selbstlernfähigkeiten ist der Automat in der Lage, Entscheidungen über die Verfeinerung der Verfahren zu treffen, aber auch tendenziell Entscheidungen über den eigentlichen Zweck des automatischen Betriebs. Techno-linguistische Geräte, die Software für künstliche Intelligenz enthalten, sind nicht darauf beschränkt, generative Programme auszuführen, sondern können diese Programme schreiben und sich weiterentwickeln, da sie mit Techniken für das Lernen ausgestattet sind: maschinelles Lernen.
Dank der Entwicklung stochastischer Papageien zu linguistischen Agenten, die zur evolutionären Selbstkorrektur fähig sind, wird die Sprache, die zur Selbsterzeugung fähig ist, autonom vom menschlichen Agenten, und der menschliche Agent wird nach und nach von der Sprache ummantelt. Er wird nicht verdrängt, sondern umhüllt, eingekapselt. Eine vollständige Integration würde eine Befriedung des Menschen bedeuten, eine vollendete Unterwerfung: eine Ordnung, endlich.
Endlich eine Harmonie, wenn auch eine totalitäre. Aber nein. Der Krieg überwiegt in der planetarischen Landschaft.
In dieser Neo-Umgebung des sprachlichen Automaten der Verkettung müssen die menschlichen Agenten ihre konnektiven Fähigkeiten vervollkommnen, während die konjunktive Kapazität schwächer wird und der gesellschaftliche Körper sich verhärtet und aggressiv wird.
Die Evolution der Maschinen führt dazu, dass sie immer mehr in der Lage sind, den Menschen zu simulieren. Die menschliche Evolution besteht jedoch darin, sich mit der Maschine kompatibel zu machen. Bei dieser Anpassung macht die kognitive Mutation den menschlichen Agenten effizienter in der Interaktion mit der Maschine, aber gleichzeitig weniger kompetent in der kommunikativen Interaktion mit den anderen menschlichen Agenten.
Der ethische Automat ist eine Illusion
Als die Zauberlehrlinge die möglichen Implikationen der selbstkorrigierenden und damit evolutionären Fähigkeit der künstlichen Intelligenz erkannten, begannen sie, von der Automatenethik oder dem Alignment, wie es im wirtschaftsphilosophischen Jargon genannt wird, zu sprechen. In ihrer pompösen Präsentation erklären die Autoren des GPT-Chatbots, dass es ihre Absicht ist, ihren Produkten ethische Kriterien einzuschreiben, die sich an menschlichen ethischen Werten orientieren: “Unsere Alignment-Forschung zielt darauf ab, die allgemeine künstliche Intelligenz an menschlichen Werten und menschlichen Absichten auszurichten”.
Aber das Projekt, ethische Regeln in die generative Maschine einzubauen, ist eine alte Science-Fiction-Utopie, über die Isaac Asimov erstmals schrieb, als er die drei Grundgesetze der Robotik formulierte. Asimov selbst zeigt erzählerisch, dass diese Gesetze nicht funktionieren. Und welche ethischen Normen sollten wir schließlich in die künstliche Intelligenz integrieren? Die Erfahrung von Jahrhunderten zeigt, dass eine universelle Einigung auf ethische Regeln unmöglich ist, da die Kriterien für die ethische Bewertung von kulturellen, religiösen, politischen und auch von den unvorhersehbaren pragmatischen Kontexten des Handelns abhängen. Es gibt keine universelle Ethik, abgesehen von der durch die westliche Dominanz auferlegten, die jedoch zu bröckeln beginnt.
Es liegt auf der Hand, dass jedes Projekt der Künstlichen Intelligenz Kriterien mit sich bringt, die einer Weltanschauung, einer Kosmologie, einem wirtschaftlichen Interesse und einem Wertesystem entsprechen, das mit anderen in Konflikt steht. Jedes wird natürlich einen Anspruch auf Universalität erheben.
“Norbert Wiener bemerkte bereits 1960, dass wir besser sicher sein sollten, dass der Zweck, der in die Maschine eingebaut wird, der Zweck ist, den wir wirklich wollen. Diese Bemerkung von Wiener trifft das sogenannte Problem der Werteanpassung in der KI, d. h. die Schwierigkeit für Programmierer, sicherzustellen, dass die Werte ihrer Systeme mit den menschlichen Werten übereinstimmen. Was aber sind menschliche Werte? Ist es sinnvoll, davon auszugehen, dass es universelle Werte gibt, die der Gesellschaft als Ganzes gemeinsam sind?” (Melanie Mitchell, L’intelligenza artificiale).
Was bei der Anpassung geschieht, ist das Gegenteil von dem, was die Konstrukteure des Automaten versprechen: Nicht die Maschine passt sich den menschlichen Werten an, von denen niemand wirklich weiß, welche das sind. Aber der Mensch muss sich an die Werte des intelligenten Artefakts anpassen, sei es, dass er sich die Verfahren aneignet, die für die Interaktion mit dem Finanzsystem erforderlich sind, oder dass er die Verfahren lernt, die für die Nutzung militärischer Systeme erforderlich sind. Ich glaube, dass der Selbstlernprozess des kognitiven Automaten weder durch Gesetze oder universelle ethische Regeln korrigiert, noch unterbrochen oder ausgeschaltet werden kann.
Das von den reuigen Zauberlehrlingen geforderte Moratorium ist unrealistisch, und erst recht ist die Deaktivierung des Automaten unrealistisch. Dagegen sprechen sowohl die innere Logik des Automaten selbst als auch die historischen Bedingungen, unter denen sich der Prozess abspielt, nämlich die des wirtschaftlichen Wettbewerbs und des Krieges.
Unter den Bedingungen der Konkurrenz und des Krieges sind alle technischen Transformationen, die zur Steigerung der Produktivkraft oder der Zerstörungskraft geeignet sind, zwangsläufig durchzuführen.
Das bedeutet, dass der Prozess der Selbstkonstruktion des globalen Automaten nicht mehr aufgehalten werden kann.
Fazit der Vollendung
“We Are Opening the Lids on Two Giant Pandora’s Boxes” ist ein Leitartikel von Thomas Friedman, dem liberalen Technikoptimisten, der in der New York Times schreibt. Wir haben zwei riesige Büchsen der Pandora geöffnet, sagt der Technikoptimist: den Klimawandel und die künstliche Intelligenz. Ein paar Sätze in dem Artikel sind mir aufgefallen: “Die Technik ist der Wissenschaft bis zu einem gewissen Grad voraus. Das bedeutet, dass selbst diejenigen, die die so genannten großen Sprachmodelle bauen, die Produkten wie ChatGPT und Bard zugrunde liegen, weder vollständig verstehen, wie diese funktionieren, noch das volle Ausmaß ihrer Fähigkeiten kennen”. Der Grund, warum sich jemand wie Hinton entschlossen hat, Google zu verlassen und sich die Freiheit nimmt, die Welt vor einer extremen Gefahr zu warnen, ist wahrscheinlich die Erkenntnis, dass das Gerät die Fähigkeit besitzt, sich selbst zu korrigieren und seinen Zweck neu zu definieren.
Wo liegt die Gefahr in einer Entität, die, obwohl sie keine menschliche Intelligenz besitzt, bei der Ausführung bestimmter kognitiver Aufgaben effizienter ist als der Mensch und die Fähigkeit besitzt, ihre eigene Funktionsweise zu perfektionieren?
Die allgemeine Funktion der anorganischen intelligenten Entität besteht darin, eine Informationsordnung in den Betriebsorganismus einzuführen.
Der Automat hat eine ordnende Aufgabe, stößt aber auf seinem Weg auf einen Chaosfaktor: den organischen Trieb, der nicht auf numerische Ordnung reduzierbar ist. Der Automat dehnt seine Herrschaft in immer neue gesellschaftliche Handlungsfelder aus, kann aber seinen Auftrag nicht erfüllen, solange seine Ausdehnung durch das Fortbestehen des menschlichen Chaosfaktors begrenzt ist. Es besteht nun die Möglichkeit, dass der Automat irgendwann in der Lage sein wird, den chaotischen Faktor auf die einzig mögliche Weise zu beseitigen: durch die Beendigung der menschlichen Gesellschaft.
Wir können drei Dimensionen der Wirklichkeit unterscheiden: die existierende, die mögliche und die notwendige.
Das Existierende (oder Kontingente) hat die Eigenschaften des Chaos. Die Entwicklung des Bestehenden folgt den Linien des Möglichen oder des Notwendigen. Das Mögliche ist eine Projektion des Willens und der Vorstellung. Das Notwendige ist implizit in der Kraft der Biologie und jetzt auch in der Kraft der logischen Maschine. Der kognitive Automat erlaubt es uns, die Vernichtung des Kontingenten durch das Notwendige vorherzusagen, was natürlich eine Aufhebung des Möglichen impliziert, weil es kein Mögliches ohne Kontingenz des Existierenden gibt.
Die beste aller möglichen Welten, von der Leibniz spricht, würde an diesem Punkt dank der Eliminierung des bewussten Organismus, der sich der logischen Harmonie widersetzt, verwirklicht werden.
Wie immer kommt uns das alte Sprichwort zu Hilfe, dass das Unvermeidliche im Allgemeinen nicht eintritt, weil das Unvorhersehbare eingreift.
Bologna, Mai 2023
Übersetzt aus dem Italienischen von Bonustracks.