Deep Learning und die menschliche Verfügbarkeit

Dan McQuillan

KI ist eine Technologie zur Steuerung von sozialem Mord

KI, wie wir sie kennen, ist nicht nur eine Reihe von algorithmischen Methoden wie Deep Learning, sondern ein vielschichtiges Gefüge von Technologien, Institutionen und Ideologien, die behaupten, Lösungen für viele der schwierigsten Probleme der Gesellschaft zu bieten. Das Angebot der verallgemeinernden Abstraktion und des Handelns in großem Maßstab spricht den Staatsapparat direkt an, da Bürokratie und Staatskunst auf denselben Paradigmen beruhen. Aus der Sicht des Staates werden die Argumente für die angeblichen Effizienzgewinne der KI besonders überzeugend unter den Bedingungen der Sparmaßnahmen, die in den Jahren nach dem Finanzcrash von 2008 von den öffentlichen Verwaltungen verlangt wurden, um die gestiegene Nachfrage zu bewältigen, während ihre Ressourcen bis auf die Knochen gekürzt wurden. Es gibt mehr erwerbstätige Arme, mehr Kinder, die unter der Armutsgrenze leben, mehr psychische Probleme und mehr Benachteiligungen, aber die Budgets der Sozialdienste und der städtischen Behörden wurden gekürzt, weil die Politiker Kürzungen bei den öffentlichen Dienstleistungen der Rechenschaftspflicht der Finanzinstitute vorziehen.

Die Hoffnung der Verantwortlichen besteht darin, dass die algorithmische Steuerung die Quadratur des Kreises zwischen steigender Nachfrage und sinkenden Mitteln ermöglicht und so von der Tatsache ablenkt, dass Sparmaßnahmen eine Umverteilung des Wohlstands von den Ärmsten zu den Eliten bedeuten. In Zeiten der Austerität helfen die Fähigkeiten der KI zur Einstufung und Klassifizierung dabei, zwischen “verdienten” und “unverdienten” Sozialhilfeempfängern zu unterscheiden und ermöglichen eine datengesteuerte Triage der öffentlichen Dienste. Die Umstellung auf algorithmische Ordnung automatisiert das System nicht einfach, sondern verändert es ohne demokratische Debatte. Wie der UN-Sonderberichterstatter für extreme Armut und Menschenrechte berichtet hat, verbergen sich hinter der sogenannten digitalen Transformation und der Umstellung auf algorithmische Verwaltung unzählige strukturelle Veränderungen des Gesellschaftsvertrags. Die digitale Aufrüstung des Staates bedeutet eine Verschlechterung des Sicherheitsnetzes für den Rest von uns.

Ein Beispiel dafür ist die “Transformationsstrategie” der britischen Regierung, die unter dem Deckmantel der Brexit-Turbulenzen im Jahr 2017 eingeführt wurde und vorsieht, dass “die inneren Abläufe der Regierung selbst in einem Vorstoß zur Automatisierung mit Hilfe von Datenwissenschaft und künstlicher Intelligenz transformiert werden”. Die technische und administrative Umrahmung ermöglicht es, selbst symbolische Formen der demokratischen Debatte zu umgehen. Um den Kreis der Antragsteller auf Sozialleistungen einzugrenzen, werden neue und einschneidende Formen der Konditionalität eingeführt, die durch digitale Infrastrukturen und Datenanalyse vermittelt werden. Sparmaßnahmen wurden bereits als Begründung für die Kürzung von Sozialleistungen und die Verschärfung der allgemeinen Bedingungen der Prekarität herangezogen. Die Hinzufügung automatisierter Entscheidungsfindung fügt eine algorithmische Schockdoktrin hinzu, bei der die Krise zum Deckmantel für umstrittene politische Veränderungen wird, die durch die Implementierung von Codes weiter verschleiert werden.

Diese Veränderungen sind Formen des Social Engineering, die schwerwiegende Folgen haben. Die Umstrukturierung der Sozialleistungen in den letzten Jahren unter dem finanziellen Zwang, die öffentlichen Ausgaben zu senken, hat nicht nur zu Armut und Prekarität geführt, sondern auch den Boden für die verheerenden Folgen der Covid-19-Pandemie bereitet, so wie jahrelange Dürreperioden den verheerenden Folgen eines Waldbrandes vorausgehen. Nach einer Untersuchung des Institute of Health Equity im Vereinigten Königreich führte eine Kombination aus Kürzungen bei den Sozial- und Gesundheitsdiensten, Privatisierung und der armutsbedingten Erkrankung eines wachsenden Anteils der Bevölkerung in den zehn Jahren nach dem Finanzcrash unmittelbar dazu, dass das Vereinigte Königreich bei Ausbruch der Pandemie eine Rekordübersterblichkeit aufwies.

Während das unmittelbare Ende der Wohlfahrtssanktionen zunächst auf diejenigen angewandt wird, die als außerhalb des Kreislaufs der Eingliederung lebend angesehen werden, werden die algorithmisch gesteuerten Veränderungen des sozialen Umfelds langfristig alle betreffen. Die sich daraus ergebende Umstrukturierung der Gesellschaft wird von der KI-Signatur der Abstraktion, Distanzierung und Optimierung geprägt sein und zunehmend bestimmen, wie wir leben können oder ob wir überhaupt leben können.

KI wird für diese Umstrukturierung von entscheidender Bedeutung sein, da ihre Operationen die notwendigen Unterteilungen und Differenzierungen skalieren können. Die Kernfunktion der KI, unübersichtliche Komplexität in Entscheidungsgrenzen umzuwandeln, lässt sich direkt auf die Ungleichheiten anwenden, die dem kapitalistischen System im Allgemeinen und der Austerität im Besonderen zugrunde liegen. Indem sie unsere gegenseitigen Abhängigkeiten ignoriert und unsere Unterschiede verschärft, wird die KI zur Automatisierung des Mantras der ehemaligen britischen Premierministerin Margaret Thatcher, dass es “so etwas wie eine Gesellschaft nicht gibt”. Während die KI als eine futuristische Form der produktiven Technologie angepriesen wird, die Wohlstand für alle bringen wird, sind ihre Methoden, die helfen zu entscheiden, wer was, wann und wie bekommt, in Wirklichkeit Formen der Rationierung. In Zeiten der Austerität wird die KI zu einer Maschine zur Reproduktion von Knappheit.

Maschinell erlernte Grausamkeit

Die Fähigkeit der KI zur Ausgrenzung führt nicht nur zu einer Ausweitung der Knappheit, sondern auch zu einer Verschiebung hin zu Ausnahmezuständen. Die allgemeine Idee des Ausnahmezustands ist seit dem Römischen Reich Teil des juristischen Denkens, das die Aussetzung des Rechts in Krisenzeiten erlaubte (necessitas legem non habet – “die Notwendigkeit kennt kein Gesetz”). Klassischerweise wird er durch die Ausrufung des Kriegsrechts oder, in unserer Zeit, durch die Schaffung rechtlicher schwarzer Löcher wie dem Gefangenenlager Guantanamo Bay geltend gemacht.

Das moderne Konzept des Ausnahmezustands wurde von dem deutschen Philosophen und NSDAP-Mitglied Carl Schmitt in den 1920er Jahren eingeführt, der dem Souverän die Aufgabe zuwies, das Recht im Namen des Gemeinwohls auszusetzen. KI neigt von Natur aus dazu, partielle Ausnahmezustände zu schaffen, da sie in der Lage ist, Ausgrenzung durchzusetzen und dabei intransparent zu bleiben. Das Leben der Menschen kann allein durch das Überschreiten einer statistischen Konfidenzgrenze beeinträchtigt werden, ohne dass sie es merken. Die Maßnahmen der KI zur Ausgrenzung und Verknappung können die Kraft des Gesetzes haben, ohne ein Gesetz zu sein, und sie schaffen das, was wir “algorithmische Ausnahmezustände” nennen könnten.

Ein prototypisches Beispiel wäre eine No-Fly-Liste, auf der Menschen aufgrund unerklärlicher und unanfechtbarer Sicherheitskriterien am Betreten von Flugzeugen gehindert werden. In einem durchgesickerten Leitfaden der US-Regierung darüber, wer auf eine Flugverbotsliste gesetzt werden sollte, heißt es: “Unwiderlegbare Beweise oder konkrete Fakten sind nicht erforderlich”, aber “der Verdacht sollte so klar und vollständig entwickelt sein, wie es die Umstände erlauben.” Für Algorithmen bedeutet der Verdacht natürlich Korrelation. Internationale Sicherungssysteme, wie die der EU, setzen zunehmend maschinelles Lernen als Teil ihrer Mechanismen ein. Was KI-Systeme der Logik der Flugverbotsliste hinzufügen werden, sind computergestützte Verdächtigungen auf der Grundlage statistischer Korrelationen.

Regierungen sind bereits dabei, ausschließende Ausnahmestaaten für Flüchtlinge und Asylbewerber einzuführen. Giorgio Agamben verwendet den Begriff “nacktes Leben”, um den Körper im Ausnahmezustand zu beschreiben, der seiner politischen oder bürgerlichen Existenz beraubt ist. Dies ist das Leben derjenigen, die dazu verurteilt sind, ihre Zeit an Orten wie dem Flüchtlingslager Moria in Griechenland oder der informellen Siedlung Calais Jungle in Nordfrankreich zu verbringen. Währenddessen werden Asylbewerber in Italien in “hyper-prekäre” Situationen der legalistischen Nichtexistenz gezwungen, in denen sie keinen Anspruch auf staatliche Unterhaltszahlungen haben. Im Rahmen des britischen “Hostile Environment”-Regimes werden Menschen, die aufgrund ihres Einwanderungsstatus keinen Zugang zu öffentlichen Geldern haben, vom National Health Service mit 150 Prozent der tatsächlichen Behandlungskosten belastet und mit Abschiebung bedroht, wenn sie nicht zahlen. Unter diesen Bedingungen werden KI-Ausnahmezustände das verbreiten, was die Schriftstellerin Flavia Dzodan als “maschinell erlernte Grausamkeit” bezeichnet, und zwar nicht nur an nationalen Grenzen, sondern über die fluktuierenden Grenzen des täglichen Lebens hinweg.

Diese Verbreitung von KI-Ausnahmezuständen wird durch rekursive Redlining-Prozesse erfolgen. Prädiktive Algorithmen werden neue und agile Formen des persönlichen Redlinings hervorbringen, die dynamisch sind und in Echtzeit aktualisiert werden. Das Aufkommen von KI-Redlining lässt sich an Beispielen wie der KI-gesteuerten “Trait Analyzer”-Software von Airbnb ablesen, die jede Reservierung vor ihrer Bestätigung einer Risikobewertung unterzieht. Die Algorithmen durchsuchen öffentlich zugängliche Informationen wie soziale Medien nach antisozialem und prosozialem Verhalten und geben auf der Grundlage einer Reihe von Prognosemodellen eine Bewertung ab. Nutzer mit ausgezeichneten Airbnb-Bewertungen wurden aus “Sicherheitsgründen” gesperrt, die anscheinend durch ihre Freundschafts- und Assoziationsmuster ausgelöst werden, obwohl Airbnb sich weigert, dies zu bestätigen.

Aus dem Airbnb-Patent geht hervor, dass die von der Trait-Analyzer-Software erstellte Bewertung nicht nur auf der Person selbst, sondern auch auf ihren Assoziationen basiert, die in einer “Person-Graph-Datenbank” zusammengefasst werden. Das maschinelle Lernen kombiniert verschiedene gewichtete Faktoren, um die endgültige Punktzahl zu erhalten, wobei zu den bewerteten Persönlichkeitsmerkmalen ”Bösartigkeit, antisoziale Tendenzen, Güte, Gewissenhaftigkeit, Offenheit, Extraversion, Verträglichkeit, Neurotizismus, Narzissmus, Machiavellismus oder Psychopathie” und zu den Verhaltensmerkmalen “das Erstellen eines falschen oder irreführenden Online-Profils” gehören, die Bereitstellung falscher oder irreführender Informationen an den Dienstanbieter, die Einnahme von Drogen oder Alkohol, die Beteiligung an Hass-Websites oder -Organisationen, die Beteiligung an Sexarbeit, die Beteiligung an einem Verbrechen, die Beteiligung an einem Zivilprozess, die Beteiligung als bekannter Betrüger oder Scammer, die Beteiligung an Pornografie oder die Erstellung von Online-Inhalten mit negativer Sprache.”

Der Einsatz des maschinellen Lernens beim Redlining wird auch im Fall der NarxCare-Datenbank deutlich. NarxCare ist eine Analyseplattform für Ärzte und Apotheken in den USA zur “sofortigen und automatischen Identifizierung des Risikos eines Patienten, Opioide zu missbrauchen”. Es handelt sich um ein undurchsichtiges und nicht rechenschaftspflichtiges maschinelles Lernsystem, das medizinische und andere Aufzeichnungen durchforstet, um Patienten einen Überdosis-Risiko-Score zuzuweisen. Ein klassischer Fehler des Systems war die Fehlinterpretation von Medikamenten, die Menschen für kranke Haustiere besorgt hatten; Hunden mit medizinischen Problemen werden oft Opioide und Benzodiazepine verschrieben, und diese tierärztlichen Verschreibungen werden auf den Namen des Besitzers ausgestellt. Dies hat dazu geführt, dass Menschen, die aufgrund ernster Erkrankungen wie Endometriose einen begründeten Bedarf an opioiden Schmerzmitteln haben, von Krankenhäusern und ihren eigenen Ärzten keine Medikamente erhalten.

Die Probleme mit diesen Systemen gehen sogar noch tiefer; frühere Erfahrungen mit sexuellem Missbrauch wurden als Prädiktor für die Wahrscheinlichkeit einer Medikamentenabhängigkeit herangezogen, was bedeutet, dass die anschließende Verweigerung von Medikamenten zu einer Art von Opferbeschuldigung wird. Wie bei so vielen sozial angewandten maschinellen Lernverfahren landen die Algorithmen einfach bei der Identifizierung von Menschen mit komplexen Bedürfnissen, allerdings in einer Weise, die ihre Ausgrenzung noch verstärkt. Viele US-Bundesstaaten zwingen Ärzte und Apotheker unter Androhung beruflicher Sanktionen, Datenbanken wie NarxCare zu nutzen, und Daten über ihre Verschreibungsmuster werden ebenfalls vom System analysiert. Ein vermeintliches System zur Schadensbegrenzung, das auf algorithmischen Korrelationen beruht, führt letztlich zu schädlichen Ausschlüssen.

Diese Art von Systemen ist nur der Anfang. Die Auswirkung algorithmischer Ausnahmezustände wird die Mobilisierung von Strafmaßnahmen sein, die auf der Anwendung willkürlicher sozialer und moralischer Festlegungen in großem Umfang beruhen. In dem Maße, wie die partiellen Ausnahmezustände der KI strenger werden, werden sie ihre soziale Rechtfertigung aus einem erhöhten Maß an Sicherheit ableiten. Versicherheitlichung ist ein Begriff, der im Bereich der internationalen Beziehungen verwendet wird, um den Prozess zu bezeichnen, durch den Politiker eine äußere Bedrohung konstruieren, die die Verabschiedung besonderer Maßnahmen zur Bewältigung der Bedrohung ermöglicht. Die erfolgreiche Verabschiedung von Maßnahmen, die normalerweise gesellschaftlich nicht akzeptabel wären, ergibt sich aus der Konstruktion der Bedrohung als existenzielle Bedrohung – eine Bedrohung der Existenz der Gesellschaft selbst bedeutet, dass mehr oder weniger jede Reaktion legitimiert ist.

Die Versicherheitlichung “entfernt den Fokus auf soziale Ursachen” und “verdeckt strukturelle Faktoren”, schreiben die Wissenschaftler David McKendrick und Jo Finch; mit anderen Worten, sie arbeitet mit der gleichen Geringschätzung für reale soziale Dynamiken wie die KI selbst. Die Rechtfertigungen für KI-gestützte Ausnahmen laufen auf eine Versicherheitlichung hinaus, denn anstatt sich mit den strukturellen Ursachen sozialer Krisen zu befassen, werden diejenigen, die auf die falsche Seite ihrer statistischen Berechnungen fallen, als eine Art existenzielle Bedrohung dargestellt, sei es für die Integrität der Plattform oder für die Gesellschaft als Ganzes.

Die Tech-to-Prison-Pipeline

Ein unmittelbarer Auslöser für algorithmische Ausnahmezustände wird die vorausschauende Polizeiarbeit sein. Die vorausschauende Polizeiarbeit veranschaulicht viele der Aspekte der ungerechten KI. Die Gefahren des Einsatzes von Algorithmen, die die erwarteten Subjekte produzieren, werden beispielsweise in einem System wie ShotSpotter sehr deutlich. ShotSpotter besteht aus Mikrofonen, die alle paar Häuserblocks in Städten wie Chicago angebracht sind, sowie aus Algorithmen, einschließlich KI, die Geräusche wie laute Knalle analysieren, um festzustellen, ob es sich um einen Schuss handelt. Ein menschlicher Analytiker in einem zentralen Kontrollraum trifft die endgültige Entscheidung darüber, ob die Polizei zum Tatort geschickt wird. Natürlich sind die anwesenden Beamten darauf vorbereitet, eine bewaffnete Person zu erwarten, die gerade eine Waffe abgefeuert hat, und die daraus resultierenden hochspannenden Begegnungen wurden in Vorfälle wie die Tötung des dreizehnjährigen Adam Toledo in Chicagos West Side verwickelt, bei der Body-Cam-Aufnahmen zeigten, dass er den Anweisungen der Polizei Folge leistete, kurz bevor er erschossen wurde.

ShotSpotter ist ein anschauliches Beispiel für die Verfestigung von Ungleichheiten durch algorithmische Systeme, die ihren Einsatz in bestimmten ethnischen Gemeinschaften mit einem prädiktiven Verdacht überlagern und unweigerlich zu ungerechtfertigten Verhaftungen führen. Andere prädiktive Polizeisysteme entsprechen eher dem klassischen Science-Fiction-Stil von Filmen wie Minority Report. Das weit verbreitete PredPol-System (das vor kurzem in Geolitica umbenannt wurde) beispielsweise geht auf Modelle der menschlichen Nahrungssuche zurück, die von Anthropologen entwickelt wurden, und wurde als Teil der Aufstandsbekämpfung im Irak in ein Vorhersagesystem umgewandelt. Erst später wurde es zur Vorhersage der Kriminalität in städtischen Gebieten wie Los Angeles eingesetzt.

Der kaskadenartige Effekt von Versicherheitlichung und algorithmischen Ausnahmezuständen besteht in der Ausweitung der Karzeralität, d. h. von Aspekten der Governance, die Gefängnischarakter haben. Die Karzeralität wird durch die KI sowohl in ihrem Umfang als auch in ihrer Form erweitert: Ihre Allgegenwärtigkeit und die riesigen Datenmengen, aus denen sie sich speist, vergrößern die Reichweite der Karzeralität, während die virtuelle Ausgrenzung, die innerhalb der Algorithmen stattfindet, die traditionelle Praxis fortschreibt, indem sie Menschen von Dienstleistungen und Möglichkeiten ausgrenzt. Gleichzeitig trägt KI durch die algorithmische Fesselung von Körpern an Arbeitsplätzen wie Amazon-Lagern und durch die direkte Einbindung von prädiktiver Polizeiarbeit und anderen Technologien der sozialen Kontrolle zu physischer Karzeralität bei, was die Coalition for Critical Technology als “tech to prison pipeline” bezeichnet. Die Logik prädiktiver und präventiver Methoden verschmilzt mit dem bestehenden Fokus auf individualisierte Vorstellungen von Kriminalität, um die Zuschreibung von Kriminalität auf angeborene Eigenschaften der kriminalisierten Bevölkerung auszuweiten. Diese Kombination aus Vorhersage und Essentialismus liefert nicht nur eine Legitimation für karzerale Interventionen, sondern ist auch der Prozess, der abweichende Subjektivitäten überhaupt erst hervorbringt. Künstliche Intelligenz ist nicht nur durch ihre Einverleibung durch die einkerkernden Behörden des Staates, sondern auch durch ihre operativen Merkmale karzeral.

Die Ausmerzung der Herde

Die Art der sozialen Spaltung, die durch KI verstärkt wird, wurde durch Covid-19 ins Rampenlicht gerückt: Die Pandemie ist ein Stresstest für die zugrunde liegende soziale Ungerechtigkeit. Verknappung, Absicherung, Ausnahmezustände und zunehmende Karzeralität verstärken die Strukturen, die die Gesellschaft ohnehin schon brüchig machen, und die zunehmende Polarisierung von Wohlstand und Sterblichkeit während der Pandemie wurde zu einem Vorboten der post-algorithmischen Gesellschaft. Es wird allgemein gesagt, dass das, was nach Covid-19 kommt, nicht dasselbe sein wird wie das, was vorher kam, dass wir uns an eine neue Normalität anpassen müssen; es ist vielleicht weniger klar, inwieweit die neue Normalität von den Normalisierungen neuronaler Netze geprägt sein wird, inwieweit die durch das Virus ausgelöste klinische Triage die langfristige algorithmische Verteilung der Lebenschancen versinnbildlicht.

Ein frühes Warnzeichen war die Art und Weise, wie die KI ihr vermeintliches Potenzial als Vorhersageinstrument völlig verfehlte, als es um Covid-19 selbst ging. Die ersten Tage der Pandemie waren für KI-Experten eine berauschende Zeit, denn es schien, als würden die neuen Mechanismen der datengesteuerten Erkenntnis ihre wahre Stärke zeigen. Insbesondere hoffte man, vorhersagen zu können, wer sich mit dem Virus angesteckt hatte und wer, nachdem er sich angesteckt hatte, ernsthaft krank werden würde. “Ich dachte: ‘Wenn es einen Zeitpunkt gibt, an dem die KI ihre Nützlichkeit unter Beweis stellen kann, dann ist es jetzt. Ich hatte mir große Hoffnungen gemacht”, sagte ein Epidemiologe.

Insgesamt zeigten die Studien, dass keines der vielen Hunderten von Instrumenten, die entwickelt worden waren, einen wirklichen Unterschied machte, und dass einige sogar potenziell schädlich waren. Die Autoren der Studien führten das Problem auf unzureichende Datensätze und auf Konflikte zwischen den unterschiedlichen Forschungsstandards in den Bereichen Medizin und maschinelles Lernen zurück, doch diese Erklärung berücksichtigt nicht die tieferen sozialen Dynamiken, die durch die Reaktion auf die Pandemie deutlich sichtbar wurden, oder das Potenzial der KI, diese Dynamiken voranzutreiben und zu verstärken.

Im Vereinigten Königreich besagten die während der ersten Welle von Covid-19 angewendeten Richtlinien, dass Patienten mit Autismus, geistigen Störungen oder Lernbehinderungen als “gebrechlich” zu betrachten seien, was bedeutet, dass sie bei der Behandlung, z. B. mit Beatmungsgeräten, nicht vorrangig behandelt werden sollten. Einige örtliche Ärzte schickten pauschale “Do-not-resuscitate”-Bescheide an behinderte Menschen. Der soziale Schock der Pandemie brachte die gesellschaftlichen Annahmen über “Fitness” wieder zum Vorschein, die sowohl die Politik als auch die individuelle medizinische Entscheidungsfindung prägten und sich in den Statistiken über den Tod von Menschen mit Behinderungen widerspiegelten. Die britische Regierung verstieß mit ihrer Politik gegen ihre Pflichten gegenüber behinderten Menschen, die sich sowohl aus ihrem eigenen Gleichstellungsgesetz als auch aus der UN-Konvention über die Rechte von Menschen mit Behinderungen ergeben. “Es ist erstaunlich, wie schnell sich sanfte eugenische Praktiken ausbreiten”, sagte Sara Ryan, eine Wissenschaftlerin der Universität Oxford. “Es werden eindeutig Systeme eingeführt, um zu beurteilen, wer behandlungswürdig ist und wer nicht.”

Gleichzeitig wurde deutlich, dass Schwarze und Angehörige ethnischer Minderheiten im Vereinigten Königreich überproportional häufig an Covid starben. Während anfängliche Erklärungsversuche auf genetischen Determinismus und ‘rassenwissenschaftliche’ Muster zurückgriffen, sind diese Arten von gesundheitlichen Ungleichheiten in erster Linie auf die zugrunde liegende Geschichte struktureller Ungerechtigkeit zurückzuführen. Soziale Gesundheitsfaktoren wie ethnische Zugehörigkeit, Armut und Behinderung erhöhen die Wahrscheinlichkeit von Vorerkrankungen wie chronischen Lungenerkrankungen oder Herzproblemen, die Risikofaktoren für Covid-19 sind; schlechte Wohnverhältnisse wie Schimmelpilzbefall verstärken andere Komorbiditäten wie Asthma; und Menschen in prekären Arbeitsverhältnissen können möglicherweise einfach nicht von zu Hause aus arbeiten oder es sich nicht einmal leisten, sich selbst zu isolieren. Viele Krankheiten sind selbst eine Form von struktureller Gewalt, und diese sozialen Determinanten der Gesundheit sind genau die Angriffspunkte, die durch den automatisierten Extraktivismus der KI weiter unter Druck geraten werden.

Indem die Pandemie die Zeitachse der Sterblichkeit komprimierte und die unmittelbare Bedrohung auf alle Gesellschaftsschichten ausdehnte, machte sie das Ausmaß der unnötigen Todesfälle sichtbar, die der Staat für akzeptabel hält. In Bezug auf die Todesfälle, die direkt auf die Politik der britischen Regierung zurückgeführt werden können, können die Opfer der Pandemie zu den geschätzten 120.000 zusätzlichen Todesfällen im Zusammenhang mit den ersten Jahren der Sparmaßnahmen hinzugefügt werden. Die Pandemie hat nicht nur ein kaltes, entlarvendes Licht auf den maroden Zustand der sozialen Versorgung geworfen, sondern auch auf eine staatliche Strategie, die bestimmte Bevölkerungsgruppen als entbehrlich betrachtet. Die öffentliche Darstellung der Pandemie wurde durch ein unausgesprochenes Bekenntnis zum Überleben des Stärkeren untermauert, da der Tod derjenigen, die eine “Grunderkrankung” hatten, als bedauerlich, aber irgendwie unvermeidlich dargestellt wurde. Angesichts des gefühllosen Geschwafels der britischen Regierung über die so genannte “Herdenimmunität” überrascht es nicht, wenn in rechten Zeitungskommentaren behauptet wird, dass “aus einer völlig uninteressierten wirtschaftlichen Perspektive das Covid-19 sich langfristig sogar als leicht vorteilhaft erweisen könnte, da es ältere abhängige Personen überproportional ausmerzt”.

So erschreckend dies an sich auch sein mag, so wichtig ist es, die zugrunde liegende Perspektive genauer zu untersuchen. Es geht nicht nur um wirtschaftliche Optimierung, sondern um ein tieferes soziales Kalkül. Eine tief sitzende Angst, die der Akzeptanz der “Ausmerzung” der eigenen Bevölkerung zugrunde liegt, besteht darin, dass eine ‘schwache’ weiße Bevölkerung ein Risiko darstellt, das die Nation anfällig für den Niedergang und den Austausch durch Einwanderer aus ihren ehemaligen Kolonien macht. Die künstliche Intelligenz ist ein Mitläufer auf dieser Reise der ultranationalistischen Bevölkerungsoptimierung, da sie als Mechanismus der Segregation, Rassifizierung und Ausgrenzung nützlich ist. Denn die grundlegendste Entscheidungsgrenze ist die zwischen denen, die leben können, und denen, die sterben müssen.

Prädiktive Algorithmen unterteilen die Ressourcen bis hinunter auf die Körperebene, indem sie einige als wertvoll und andere als Bedrohung oder Belastung einstufen. KI wird so zu einer Form des Regierens, die der postkoloniale Philosoph Achille Mbembe als Nekropolitik bezeichnet: die Operation “Leben ermöglichen/Sterben lassen”. Nekropolitik ist eine staatliche Macht, die nicht nur bei der Zuteilung von Unterstützung für das Leben diskriminiert, sondern auch die Operationen sanktioniert, die den Tod ermöglichen. Es ist die Dynamik der organisierten Vernachlässigung, bei der Ressourcen wie Wohnraum oder Gesundheitsfürsorge absichtlich verknappt werden und Menschen für Schädigungen anfällig gemacht werden, die ansonsten vermeidbar wären.

Die Bestimmung der Verfügbarkeit kann nicht nur auf die ethnische Zugehörigkeit angewandt werden, sondern entlang jeder Entscheidungsgrenze. Gesellschaftlich angewandte KI wirkt nekropolitisch, indem sie die strukturellen Bedingungen als gegeben akzeptiert und die Eigenschaft, suboptimal zu sein, auf ihre Subjekte projiziert. Entbehrlichkeit wird zu etwas, das dem Individuum angeboren ist. Der Mechanismus, um diese Entbehrlichkeit zu erzwingen, ist im Ausnahmezustand verwurzelt: KI wird zur Verbindung zwischen mathematischer Korrelation und der Idee des Lagers als Zone des bloßen Lebens. In Agambens Philosophie ist das Lager von zentraler Bedeutung, weil es den Ausnahmezustand zu einem permanenten territorialen Merkmal macht. Die Bedrohung durch KI-Ausnahmezustände ist die computergestützte Produktion des virtuellen Lagers als ein allgegenwärtiges Merkmal im Fluss der algorithmischen Entscheidungsfindung. Wie Mbembe sagt, hat das Lager seinen Ursprung in dem Projekt, Menschen zu teilen: Die Form des Lagers taucht in kolonialen Eroberungskriegen, in Bürgerkriegen, unter faschistischen Regimen und jetzt als Sammelpunkt für die großen Bewegungen von Flüchtlingen und Binnenflüchtlingen auf.

Die historische Logik des Lagers ist Ausgrenzung, Vertreibung und, auf die eine oder andere Weise, ein Programm der Eliminierung. Es gibt hier eine lange Verflechtung mit der Mathematik, die die KI antreibt, angesichts der Wurzeln von Regression und Korrelation in der Eugenik der viktorianischen Wissenschaftler Francis Galton und Karl Pearson. Das Konzept der “künstlichen allgemeinen Intelligenz” – die Fähigkeit eines Computers, alles zu verstehen, was ein Mensch verstehen kann – ist untrennbar mit den historischen Bemühungen verbunden, die ‘rassische Überlegenheit’ in einer Ära zu rationalisieren, in der der Besitz von Maschinen zur Durchsetzung kolonialer Herrschaft selbst ein Beweis für die Überlegenheit derer war, die sie einsetzten. Was der KI bevorsteht, ist die Wiedervereinigung von ‘rassischer Überlegenheit’ und maschinellem Lernen in einer Version der maschinellen Eugenik. Alles, was es dazu braucht, ist eine ausreichend schwere soziale Krise. Die Pandemie ist ein Vorgeschmack auf die Ausweitung einer ähnlichen staatlichen Reaktion auf den Klimawandel, bei der datengesteuerte Entscheidungsgrenzen als Mechanismen der globalen Apartheid eingesetzt werden.

Occupy KI 

Es stellt sich also die Frage, wie die Sedimentierung faschistischer sozialer Beziehungen im Betrieb unserer fortschrittlichsten Technologien unterbrochen werden kann. Die tiefste Undurchsichtigkeit des Deep Learning liegt nicht in den Milliarden von Parametern der neuesten Modelle, sondern in der Art und Weise, wie sie die Untrennbarkeit von Beobachter und Beobachtetem sowie die Tatsache verschleiert, dass wir uns alle in einem wichtigen Sinne gegenseitig konstituieren. Die einzige kohärente Antwort auf soziale Krisen ist und war schon immer die gegenseitige Hilfe. Wenn die giftige Ladung des uneingeschränkten maschinellen Lernens der Ausnahmezustand ist, dann ist seine Umkehrung ein Apparat, der Solidarität verordnet.

Dies ist keine einfache Entscheidung, sondern ein Weg des Kampfes, zumal keiner der liberalen Regulierungs- und Reformmechanismen dies unterstützen wird. Nichtsdestotrotz muss unser Ehrgeiz über die zaghafte Idee der KI-Governance hinausgehen, die a priori das akzeptiert, wessen wir bereits unterworfen sind, und stattdessen danach streben, eine transformative technische Praxis zu schaffen, die das Gemeinwohl unterstützt.

Schließlich haben wir unsere eigene Geschichte, auf die wir zurückgreifen können. Während neuronale Netze eine Verallgemeinerbarkeit über Problembereiche hinweg beanspruchen, besitzen wir eine verallgemeinerte Ablehnung von Herrschaft über die Grenzen von Klasse, ethnischer Herkunft und Geschlecht hinweg. Die Frage ist, wie wir dies in Bezug auf KI umsetzen können, wie wir uns in Arbeiterräten und Volksversammlungen so konstituieren können, dass die Wiederholung der Unterdrückung durch die Neuzusammensetzung kollektiver Subjekte unterbrochen wird. Unser Überleben hängt von unserer Fähigkeit ab, die Technik so umzugestalten, dass sie sich an Krisen anpasst, indem sie die Macht an diejenigen überträgt, die dem Problem am nächsten stehen. Wir haben bereits alle Computer, die wir brauchen. Was bleibt, ist die Frage, wie wir sie in eine Maschinerie der Allmende verwandeln können.


Dieser Beitrag erschien im englischsprachigen Original am 22. August 2022 auf Logic Magazine.