Hyperrealität und Künstliche Intelligenz

Das Autorenteam Dyer-Witheford, Kjøsen und Steinhoff hat mit Inhuman Power ein verdienstvolles Buch zur Künstlichen Intelligenz (KI)[1] aus marxistischer Sicht vorgelegt. (Dyer-Witheford, Kjøsen, Steinhoff 2019) KI definieren die Autoren infolge des Theoretikers Kaplan recht allgemein als die Fähigkeit von Maschinen in einem bestimmten Zeitraum mittels selbständig lernender Software angemessene Verallgemeinerungen auf Grundlage von limitierten Daten zu machen. Je weiter der Spielraum für die Applikationen ist und je schneller Schlüsse aus minimalen Informationen gezogen werden können, desto intelligenter ist das maschinelle Verhalten. (Ebd.: 9) KI hat wohlgemerkt nichts mit Robotern zu tun, diese Konfusion von KI und Roboter, die vor allem in der POP-Kultur immer wieder vorkommt, gilt es auszuräumen. Roboter zeichnen sich als artifizielle Tools aus, die ihre Umwelt durch Sensoren erkennen und entsprechend handeln, einen Körper besitzen und als Maschinen gelten, die autonom Arbeit verrichten, während KI Software ist, die aber durch die Hardware integriert sein muss, um zu funktionieren. KI unterteilen die Autoren in drei Bereiche: Enge AI, Artifical General Intelligence (AGI) und Artificial Superintelligence (ASI). (Ebd.: 10)

Die Forschung behandelt bis heute meistens nur kommerzielle AI-Apps, die auch von den Konsumenten täglich benutzt werden, i. e. aufgabenorientierte Tools. Letztere besitzen lediglich die Fähigkeit in einem partikularen Bereich zu handeln, während AGI-Systeme die Kapazität für Cross-Domain-Aktionen haben, das heißt zu lernen, um von einem Bereich zum anderen zu wechseln. ASI ist noch spekulativer und bleibt bis heute meistens noch eine Angelegenheit der SciFi-Autoren. Eine weitere Unterscheidung ist die zwischen starker und schwacher AI, wobei erstere in drei Schulen eingeteilt wird: Good Old-Fashioned AI (Gofai), Deep Machine Learning (ML), situated-embodied-dynamical (SED) framework. (Ebd.: 11)

Während bei der digitalen Programmierung Menschen Regeln bzw. ein Programm und die durch diese Regeln zu bearbeitenden Daten eingeben, um bestimmte Antworten zu erhalten, geben beim ML die Menschen sowohl die Daten als auch die Antworten ein, um von der KI bestimmte Regeln zu erhalten, die auf neue Daten abzielen und auch neue Antworten hervorbringen können. Das System der KI wird nicht programmiert, sondern es wird trainiert. Anhand von Beispielen werden in iterativen Lernprozessen Muster identifiziert, die eingesetzt werden können, um neue Datensätze zu klassifizieren. Beim Deep Learning nimmt die KI dann selbständig Hunderte von Transformationen in den jeweiligen Schichten eines neuronalen Netzwerks vor, wobei durch unterschiedliche Gewichtung der Neuronen mittels Trainingsiterationen in den einzelnen Schichten bestimmte Ergebnisse erzielt werden, die sich einem gewünschten Ergebnis annähern. Für den Programmierer sind zwar die Eingabe- und Ausgabeschicht erkennbar, aber die verarbeitenden Schichten bleiben unentdeckt. Die Blackbox ist eben schwer einzusehen, weil man die Funktionsweise der Netzwerke kaum nachvollziehen kann.

Das maschinelle Lernen vollzieht sich in drei Schritten: Das Prozessieren von Daten, die Erstellung von Modellen und das Monitoring, wobei die Erstellung von Modellen die Hauptaufgabe der KI ist. Auf Basis eines gegebenen Datensets und vorgegebener Ziele lernt das KI-System selbständig, welche Verarbeitungsschritte bzw. Regeln notwendig sind, um jene Ziele zu erreichen. Datenexperten schreiben Algorithmen, die spezifische Datensets erkennen und aus einer vorgegebenen Menge bestimmte Operationen auswählen, mit denen die KI-Maschinen anhand von Beispielen Regeln und Muster identifizieren, die notwendig sind, um neue Daten zu klassifizieren. Dabei vollzieht sich das Lernen durch tausende von Tests, bei denen Beispiele eingeholt und rohe Daten mit Noise angereichert werden (Katzen mit Hunden). Am Ende soll es möglich sein, dass das KI-System das Zielobjekt identifizieren und statistische Relationen zwischen den verschiedenen Patterns errechnen kann (Katzen werden eher von Frauen als von Männern gepostet). Es gibt eine Reihe von Techniken, um Algorithmen zu schreiben, seien es lineare/logistische Regressionen, Random forests oder boosted decision trees. (Ebd.: 76)[2] Die differenziertesten Modelle beinhalten alle Deep Neural Networks, die hohe Mengen an computional power und eine Menge von Trial-and-Error-Verfahren benötigen. Bei diesen Verfahren werden von der KI selbst Hunderte von Transformationen in den einzelnen Schichten, die aus Neuronen bestehen, vorgenommen. Mittels von unterschiedlichen Gewichtungen der Neuronen in den Trainingsverfahren kann man sich dem gewünschten Ergebnis annähern und neue Datensets ins Visier nehmen. Während die Schichten der Inputs und Outputs erkennbar sind, bleiben die verarbeitenden Schichten als Black Box unsichtbar. Es gibt eine funktionale Nutzung von Zufälligkeit, Variabilität oder Rauschen, die auf dem stochastischen Gradientenabstieg (iteratives Verfahren zur Optimierung einer Zielfunktion) basiert. Die Variabilität ist dem Lernen eines Musters inhärent und ermöglicht eine kontinuierliche (Bayes’sche) Neukalibrierung des Modells und seiner Parameter. Die funktionale Nutzung von Rauschen zeigt sich in der Fähigkeit des ML zur dynamischen Analyse verrauschter Datensätze. Dabei steigt die Fähigkeit, sowohl das Muster im Rauschen zu erkennen als auch verrauschte Variationen des Musters zu erzeugen, die innerhalb der Grenzen der Erkennbarkeit des Musters liegen.

Es gibt nur einige Tausend Wissenschaftler, die in diesem Bereich arbeiten. In der Praxis beschäftigen sich die Experten oft viel intensiver mit dem Monitoring und dem Aufbereiten der Daten. Dabei müssen Formate standardisiert werden, Features hinzugefügt, Errors ausgeschlossen und Informationen addiert werden, denn ein breitgefächertes Daten-Cleaning ist die erste Voraussetzung, um zu richtigen Ergebnissen zu kommen. Oft wird dieses Daten-Cleaning in Niedriglohnländer wie Indonesien, Indien oder Venezuela outgesourct. Auch das Monitoring benötigt ein globales Clickwork, beispielsweise das niedrig bezahlte Filtern von Social Media Seiten. Es ist bekannt, dass Google 10.000 Raters angeheuert hat, die sich ständig YouTube-Videos anschauen. Das Paradox der KI besteht darin, dass die Fortschritte in der KI mit einer Zerstörung aktueller Arbeitsmärkte einhergehen, und zwar insbesondere für die der Humans-in-the-Loop-Aufgaben. Unklar bleibt, ob eine zukünftige KI auch die Arbeit der Software-Engineers ganz ersetzen wird.

Seit dem Jahr 2010 basiert die KI vor allem auf artificial neural networks (ANN), die jedoch in ihrer Struktur keineswegs mit dem menschlichen Gehirn identisch sind, obwohl in der Forschung viele Inspirationen aus der Gehirnforschung kommen. Dabei werden die artifiziellen Synapsen, welche die Schichtungen der Neuronen verbinden, mit numerischen Werten gewichtet, um die Stärke der Verbindungen zu repräsentieren. ML ist als System ein fixed template mit differierenden Parametern. Auch hier kann man mehrere Unterscheidungen vornehmen: ANS-Systeme beziehen sich auf Datenmengen, welche Bilder, Gesichter oder Videos darstellen können, wobei man im Training dem Netzwerk eine große Menge von Daten vorlegt, während das Gewicht der Synapsen einen Algorithmus kreiert, sodass das Netzwerk lernt, richtige Antworten zu geben, indem es beispielsweise Gesichter erkennt oder im richtigen Augenblick ›Hallo‹ sagt. Oder man legt einem System ausreichend Fotos mit roten hexagonalen Zeichen mit dem Wort STOP aus verschiedenen Perspektiven vor, sodass ein AI-System die Bedeutung des STOP-Zeichens lernt.

Diese Anwendungen bedürfen noch viel menschlicher Arbeit, sodass man zunehmend Netzwerke konstruiert, die auch das Lernen selbsttätig operationalisieren, damit das System autonom Kategorien und Sektoren zu generieren vermag. Das System lernt dabei extrem komplexe Verbindungen aus einem gegebenen Datenset zu identifizieren. Es geht hier um das Zusammenspiel der Extraktion von ganzen Patterns von Daten innerhalb eines Bottom-Up-Systems, und im besten Fall schreiben die Systeme ihre Algorithmen schon selbst, um autonome Lösungen und Datensets vorzulegen. Eine große Herausforderung für das kommerzielle ML sind selbstfahrende Autos und Lastwagen, in deren Entwicklung auch Google und Baidu engagiert sind, aber auch die großen Automobilfirmen wie Daimler, Ford und General Motors. Die KI-Industrie produziert heute sowohl Produktionsmittel für Unternehmen als auch Waren für die individuelle Konsumtion, wobei die Produktion der KI von großen Oligopolen dominiert wird. Die Gehälter in dieser Industrie sind hoch, sodass man manchmal schon von ML-Experten als den neuen Investmentbankern spricht.

Einige Autoren nehmen heute an, dass die KI allgemeine Bedingungen der Produktion herstellen kann, das heißt Technologien, Praktiken und Institutionen, die als Infrastrukturen für die kapitalistische Produktion zu einer bestimmten Zeit und in einem bestimmten Raum notwendig sind. (Ebd.: 30) Auch Marx spricht von Infrastruktur, die die Maschinen der Kommunikation und des Transports als signifikante Komponenten der allgemeinen Bedingungen der Produktion umfasst. Wenn die KI als Technologie sozusagen die neue Elektrizität wird, dann geht es eben nicht nur um die Automation in der Produktion, sondern auch um die Schaffung neuer Infrastrukturen, einer intensiven Reorganisation der kapitalistischen Ökonomie, die als allgemeine Bedingung der Produktionsprozesse und als Umwelt für die Unternehmen zu gelten hat. Für Marx stehen allgemeine immer im Gegensatz zu den partikularen Bedingungen, die sich auf ein einzelnes Unternehmen beziehen. In den Grundrissen sieht Marx die Relation zwischen einem Unternehmen und den allgemeinen Bedingungen der Produktion als eine spezifische Ressource sozialer Produktion, von der alle Kapitalisten zum Teil gratis profitieren. Die Infrastruktur ist beispielgebend für die allgemeinen Bedingungen der Produktion, da Straßen, Kanäle und Eisenbahnen von allen Kapitalisten genutzt werden. Die allgemeinen Bedingungen der Produktion betreffen auch die Zirkulation und die Produktivkräfte. Die Steigerung der Geschwindigkeit in der Zirkulation erhöht die Möglichkeit zur Extraktion des Mehrwerts in der Produktion und zur Realisierung der Produkte auf dem Markt.

Essenziell wichtig für die KI-Industrie sind die hohen Kosten für die Hardware. Das betrifft insbesondere die Cloud bzw. die energieintensiven Datenzentren, zu denen auch User Zugang über das Internet erhalten, obgleich die Cloud sich letztendlich in der Hand von wenigen Tech-Giganten befindet. KI-Tools senden ständig Daten an die Cloud, wo das KI-Processing stattfindet. Dabei wird die Cloud heute durch eine Technologie ergänzt, die man Edge-Computing nennt, bei dem das Processing nicht in der Cloud, sondern auf lokalen Devices stattfindet. (Ebd.: 42ff.) Die Kontrolle des Cloud-Computings, das Eigentum über große Daten Sets und die hohe Anzahl der qualifiziertesten KI-Fachleute zeichnet die großen Tech-Firmen aus. Ganz im Marx’schen Sinn handelt es sich hier um die Konzentration und Zentralisation kapitalistischer Macht. Die großen Tech-Firmen sprechen dagegen von einer Demokratisierung der KI, insofern alle Unternehmen ein Teil ihres KI-Materials als Open Source zur Verfügung stellen. In diesen Open Source Communities werden Tools und Templates kostenlos verteilt. Projekte werden von Online-Kollektiven kreiert und Produkte gratis an die User verteilt. Fast alle KI-Projekte basieren gegenwärtig auf Open Source-Toolkits. So beruht auch Googles Android auf Open Source, operiert aber in letzter Konsequenz als ein Annex für Googles große Projekte der Daten-Extraktion, die zu hohen Werbeeinnahmen und dem intensiven Training der ML-Systeme führen. Dabei ist aber auch die freie Software ein gutes Business für die großen Tech-Firmen, da es einer hohen Anzahl von Experten möglich ist, die KI weiterzuentwickeln. Paolo Virno spricht an dieser Stelle von »Kommunismus des Kapitals«, insofern Bottom-Up-Techniken und die freie Verteilung von Gütern unterstützt werden, um diese dann nachhaltig zu kapitalisieren.

Das Ziel des Ambient Intelligence Paradigmas ist eine Situation, in der digitale Tools kollektiv agieren, um die Informationen und die Intelligenz, die in den Netzwerken verborgen ist und die verschiedenen Devices verbindet, zu nutzen. In Zukunft wird das urbane Environment gerade in seinen Relationen zu den Usern proaktiv werden. Die Autoren stellen folgende Frage: Was wäre, wenn das menschliche Wissen sich nicht nur in der toten Arbeit (Maschinen) manifestieren würde, sondern die Maschinerie selbst die Kapazität besäße, kognitive und perzeptive Aufgaben zu übernehmen, die bisher dem Menschen vorenthalten blieben? Die Antwort ist recht einfach: Das maschinelle, das fixe Kapital würde in variables Kapital transformiert, seinen Charakter als Maschine sogar verlieren und könnte selbstständig Mehrwert erzeugen. (Ebd: 131) Die Perzeption und die Kognition würden wie die Elektrizität ubiquitär werden.

Die Autoren fragen provokativ: Was wäre, wenn das menschliche Wissen nicht in tote Arbeit (Maschinen) transformiert würde, sondern umgekehrt die tote Arbeit nun die fundamentalen Kapazitäten der Kognition und Perzeption besäßen, die bisher vom Menschen monopolisiert wurden? Die KI würde es erlauben, dass die Maschinen kognitive Tätigkeiten verrichten, die verschieden zu denen der Menschen sein könnten und möglicherweise mit potenziell revolutionären Effekten im Bereich der allgemeinen Bedingungen der Produktion stattfänden. Die Mittel der Kognition sind ein Faktor, der die allgemeinen Bedingungen der kybernetischen Produktion in die Ökonomie einschreibt. Das Kapital würde nun autonom denken und rezipieren, es würde die primordialen Kapazitäten der Arbeit in nicht-maschinelle Formen des Kapitals in Richtung eines smarten technologischen Environments transformieren, das die menschliche Arbeit nicht vollkommen abschafft, sie aber zum großen Teil durch die Automation in der Produktion und im Dienstleistungsbereich ersetzt.

Diese Analyse unterscheidet sich streng von postoperaistischen Positionen, welche die Kognition immer noch für menschliche Tätigkeiten vorbehalten. Selbst Marx beschreibt den »Generell Intellekt« als etwas Menschliches, das sich in den Maschinen manifestiert und die Form des Kapitals annimmt. Das Kapital ermächtigt sich Teilen des sozialen Hirns, implementiert es in die Maschinerie und extrahiert Profite oder addiert die Maschinen zu den allgemeinen Bedingungen der Produktion. Dabei ist die Kommunikation einer der vielversprechendsten Bereiche für die KI, was jedoch nicht nur die Chatbots, Sprachsynthesen und die menschliche Sprache betrifft, sondern das Schreiben ganzer Texte beispielsweise im Bereich des Finanzsystems, des Marketings und des Sports. Zudem kann die KI eine unendliche Vielzahl von logischen Konzepten generieren, das heißt die Repräsentation von Daten auf verschiedenen Ebenen der Abstraktion. Zudem sind Deep-Learning-Systeme immens skalierbar, sodass sich mit der steigenden Menge von Daten die Performanz dieser KI-Systeme gewaltig erhöht.

Es scheint nach wie vor paradox von der »Arbeit« der KI-Systeme zu sprechen, weil die KI bis heute definitiv Arbeitsplätze ersetzt, aber ohne menschliche Arbeit kommt sie trotzdem nicht aus. Die soziale Funktion von KI als fixes Kapital (nicht variables Kapital, wie oben angenommen) besteht in der Reduzierung der durchschnittlich notwendigen abstrakten Arbeitszeit und in der Erhöhung der Mehrarbeitszeit. In der Zirkulation beschleunigt KI die Realisierung der Waren, deren Transport und die Weiterentwicklung der Logistik insbesondere durch die Integration von Fabriken, Verteilungszentren und Verkaufsfirmen. Es kommt zur Reduktion der Arbeitskosten in all den genannten Bereichen. Im Finanzbereich werden heute alle spekulativen Tätigkeiten, die Renditen erzielen, durch die Automation beschleunigt. Große Unternehmen wie Siemens, Intel oder Microsoft tätigen längst signifikante Investments in die KI, um die Arbeitskosten zu senken, defekte Produkte und Übertragungszeiten verringern, die Produktionszeit zu beschleunigen etc. Diese Projekte werden in Europa unter dem Label »Industrie 4.0« und in den USA stärker unter dem Label »Internet of Things« entwickelt. Und selbst China, dessen Niedriglohnsektor bekannt ist, obgleich er sich in Auflösung befindet, muss in die dieselbe Richtung investieren, vielleicht noch schneller als die US-Firmen. Seit 2013 besitzt China den größten Markt für Industrieroboter. In Europa und USA ist es die Zirkulationssphäre, in der KI bisher breit angewandt wird, auch um die logistische Revolution zu beschleunigen. Robotisierte Trucks und selbstfahrende Autos befinden sich schon im Einsatz, wobei die 24/7 Anwendung lukrative KI-Projekte verspricht.

Es waren neben dem Militär die Finanzinstitutionen, die durch den rasanten Anstieg der Kreditierung und Spekulation sehr früh mit der Entwicklung von KI-Systemen begonnen haben. ML-Methoden werden hier breit genutzt, um die Qualität der Kredite, die automatisierten Beziehungen zu den Kunden und die Logik der Versicherungsverträge zu verbessern. Und natürlich steht hier das High-Frequency-Trading an erster Stelle, wobei im Jahr 2018 nur noch 10% des Aktienhandels von humanen Agenten ausgeführt wurden, während 40% auf passives Trading durch ›Mutual Funds‹ zurückzuführen war und 50% des Handels wurde rein durch Algorithmen abgewickelt. Das algorihmische Profiling wird heute ubiquitär in den Entscheidungen der Unternehmen und des Staates genutzt, und dies bezüglich der Kreditvergaben, Jobs, Versicherungen und medizinischer Versorgung. Es gibt kaum einen Zweifel, dass durch diese Entwicklung die industrielle Reservearmee und die Surplus-Bevölkerung weiter anwachsen werden, wobei der Einsatz der KI-Systeme zu einem digitalen Armenhaus führt, in dem man dann die Transferleistungen, medizinische Vorsorge und Polizeiüberwachung durch digitale Instrumente regelt. Eindeutig zeigt sich, dass die KI in den Händen des Kapitals zu einer technologischen Dekomposition des Proletariats führt.

Um die Effekte der durch KI automatisierten sozialen Fabrik zu erklären, greifen die Autoren auf Bernard Stiegler zurück, der den Begriff »Grammatization« eingeführt hat, unter dem er einen Prozess versteht, durch den unsere Existenz geteilt und diskret gemacht wird. (Stiegler 2016) Die Transformation des lautmalerischen Sprechens in das Alphabet ist ein frühes Beispiel dieses Prozesses, wobei die Grammazitation zudem die Bewegungen des Körpers, die Sinne sowie das Sehen und das Hören und zudem Patterns des sozialen Lebens verändert. Für die Autoren wiederum steht die Grammazation für die reelle Subsumtion der Arbeit unter das Kapital, was Marx mit dem Begriff »Life activity« früh schon zu erfassen versuchte. (Whiteford, Kjøsen, Steinhoff 2019: 97) Was die ML-Systeme zu subsumieren versuchen, ist aber nicht nur die Arbeit, sondern auch das Wissen, die Kommunikation und die Skills. Für Stiegler kalkulieren die ML-Systeme Korrelationen, um automatisch sowohl menschliches als auch maschinelles Verhalten zu antizipieren.

Einige Faktoren wie Kreativität und Flexibilität, die man der KI zuschreibt, weisen erstaunliche Ähnlichkeiten zu dem Marx’schen Konzept der Arbeit auf. Für Marx ist die Arbeit ein ausschließlich dem menschlichen Wesen zugehöriges Charakteristikum. Gegen diesen humanen Vitalismus argumentieren die Autoren, dass es einen Isomorphismus zwischen starken KI-Systemen und dem Marx’schen Konzept der Arbeit geben könne und damit das Marx`sche Axiom, wonach nur Menschen Wert erschaffen können, ins Schwanken gerate. Die KI sei damit ein spezieller Fall der kapitalistischen Maschinerie, die sich aufgrund ihrer Lernfähigkeit und Kognition in variables Kapital verwandeln könne, womit ihr Status als Maschine problematisiert werden müsse. Damit verrichte die KI unter bestimmten Bedingungen nicht nur Arbeiten, sondern erschaffe auch Wert, so die Autoren, womit der klassische Charakter der Maschine in Frage gestellt werde, und damit könne man nicht ausschließen, dass der Homo Sapiens langfristig zu einer überflüssigen Spezies degradiert werden könnte. (Ebd.: 110)

Es besteht kein wissenschaftlicher oder philosophischer Konsensus darüber, was Intelligenz oder Kognition ist, aber viele Autoren gehen davon aus, dass Kreativität, Flexibilität und Allgemeinheit kennzeichnend für Intelligenz seien. So ist es das Ziel von KI-Systemen Neuigkeiten zu kreieren, die breit aufgestellt sind und die Kapazität zur Verallgemeinerung besitzen, sodass sie Wissen von einem Problem zum nächsten transformieren können. Die Autoren verzichten an dieser Stelle auf den Begriff »Intelligenz«, da er zu antropomorph aufgeladen sei. Aber es gilt auch zu konstatieren, dass die menschliche Intelligenz nicht alle Formen der Intelligenz umfassen könnte, da in unserem Universum das Denken divers sei und uns sogar ganz fremd sein könnte.

Im Kapital bezeichnet Marx die Arbeit als eine ausschließlich den Menschen zugehörige Fähigkeit, das heißt, dass die Arbeit sui generis menschlich ist, ist eines von Marx‘ wichtigen Axiomen. Wenn Marx die Arbeit als solche, das heißt in einem transhistorischen Sinn analysiert, dann unterscheidet er sie scharf von den produktiven Tätigkeiten der Tiere, die als Input den Maschinen äquivalent sind, das heißt als fixes Kapital gelten. Diese Argumentation ist wichtig, um zu zeigen, dass Maschinen nicht arbeiten und KI-Systeme ebenfalls nicht arbeiten. Während Tiere mit ihrer Lebens-Aktivität identisch seien, so glaubt Marx, besäßen die Menschen entgegen der Tiere eine noch mit Bewusstsein angereicherte Lebensaktivität. Wiederholt ordnet Marx die Kognition und das Bewusstsein ausschließlich den Menschen zu (bzw. Kreativität und Imagination). Dieses anthropozentrische Konzept von Marx beinhaltet, dass allein die Menschen das Wie, Wo, Warum und Wann ihrer Produktion reflektieren können und zudem entscheiden, was sie anders machen können.

Die kognitiven Fähigkeiten der Tiere stehen jedoch, so die Autoren, der menschlichen Intelligenz näher als Marx glauben wollte, und sie verweisen dabei auf die Schriften von Timothy Morten, der Marx an dieser Stelle der Metaphysik bezichtigt. Die Autoren fügen weiterhin hinzu, dass heute auch die Differenz zwischen den Menschen und den Maschinen bezüglich der Kognition brüchig werde. Sie verweisen dabei auf die Software AlphaGo, die im Spiel GO gegen einen Menschen völlig unbekannte, inhumane Züge tätigte. Wenn ein Mensch diese Züge gemacht hätte, würde man ihm definitiv die Attribute intuitiv, kreativ und hochintelligent zuschreiben. AlphaGo wurde mit 30 000 Go-Spielen trainiert und lernte von menschlichen Zügen, aber auch von den eigenen Zügen.

Es wäre jedoch ein Fehler, selbst noch der kompliziertesten Aktivität von KI-Systemen das Attribut ›Arbeit‹ ohne Weiteres zuzuschreiben. Während Marx‘ Anthropozentrismus definitiv herausgefordert werden muss, zerstört die Auflistung von automatisierten Verhaltensweisen oder produktiven Tätigkeiten noch nicht sein Argument. Wenn die KI-Systeme lediglich strikt definierte Aufgaben erfüllen, egal wie kreativ sie sind, dann ist ihr Verhalten keine Arbeit. Es wird immer wieder argumentiert, dass die menschliche Arbeit fast jede Aufgabe bewältigen könne und deshalb äußerst adaptiv sei, sodass hier von einem universellen Roboter gesprochen werden könne, der die Maschinen gerade bezüglich der Universalität ausstäche. Aber dennoch wäre annehmbar, dass ein anderes Wesen Arbeit verrichte. Wenn generell Intelligenz die (menschliche) Arbeit kennzeichnet, dann könnten KI-Systeme in der Tat auch Arbeit verrichten, das heißt verschiedene Aufgaben selbsttätig und rekursiv lösen und in völlig verschiedenen Environments und Bereichen handeln. Sie könnten ihren Status als fixes Kapital und damit als Maschine ablegen und sich in variables Kapital verwandeln, würden aber als artifizielle Lohnarbeiter proletarisiert und in ein antagonistisches Verhältnis zum Kapital treten. (Ebd. 2019: 136) Andrerseits könnten sie auch legale Eigentümer ihrer selbst sein und in dieser Funktion die Arbeiter nach und nach aus der Produktion verdrängen.

Für einige Autoren müssten Maschinen darüber hinaus Bewusstsein besitzen, um an menschliche Fähigkeiten heranzukommen. Wenn man der Maschine Kreativität zuschreibt, dann müsste sie qua Bewusstsein identifizieren, was in ihren kreativen Prozessen eine neue Situation herstellt. Es könnte aber sein, dass sich die Intelligenz vom Bewusstsein abkoppelt, das heißt Maschinen müssten nicht mit Bewusstsein ausgestattet sein, solange ihre neurale Architektur tief genug ist, um noch die feinsten Patterns in einem Datenset zu erkennen und zu bearbeiten. Dieses KI-System muss lernen und unterrichten können und zudem Kapazitäten besitzen, die ein sensorisches, bewegungstechnisches System umfassen, es muss Vorhersagen machen, planende Fähigkeit besitzen und in universelle Intelligenz transformierbar sein. KI könnte in ein rekursives internes Verbesserungsprogramm mit Zugang zum eigenen Design und mit der Fähigkeit dieses upzugraden überführt werden, um kontinuierlich neue Versionen von sich selbst zu schaffen, und dies mit einer differenten neuralen Struktur, analog zum Quantencomputer. Das System könnte sich dann ad infinitum selbst verbessern. Rekursion wäre die Formel, mit der sich das informationelle Kapital selbst füttert. (Ebd.: 78) An dieser Stelle sprechen die Autoren von einem voll entwickelten KI-Kapitalismus, insofern sich die KI-Automation im Gegensatz zu früheren Techniken simultan in allen Industrien durchsetzt. Auch Nick Land sieht die Entwicklung der KI als einen kybernetischen Prozess, und dies nicht im Sinne einer rein technologischen Domäne, sondern insofern das Kapital selbst einen selbstlaufenden Prozess der technologischen Innovation mit Feedback-Circuits in Gang setzt und damit eine nihilistische Tendenz forciert, mit der etwas nur wächst, um weiter zu wachsen. (Land 2010) Die biologische Existenz des Arbeiters mit seinen Insuffizienzen und Limitierungen hätte zunehmend den KI-Maschinen zu weichen, wenn die Arbeiter nicht selbst mit Brain-Computern ausgestattet würden, um bestimmte Arbeiten schneller und effizienter zu verrichten. An diesem Punkt berührt die KI-Forschung den Transhumanismus, in dem sie den Menschen zum mentalen Designobjekt umgestaltet, welches durch Maschinen gestaltet werden kann und das Menschliche ins Inhumane überführt.

Eines der größten Probleme von KI-Systemen besteht heute darin, dass sie keine Imagination besitzen und deshalb keine Vorhersagen treffen können. Artifizielle Imagination und Kreativität sind heute noch Unterbereiche der KI-Forschung. Deren Maschinen simulieren die menschliche Imagination durch spezielle »neural networks«. So kann die KI-»method of machine learning« als ein Schritt hin zur Imagination verstanden werden. Während das Verhalten eines Systems für einen spezifischen Zweck programmiert wird, dient ein lernendes System als eine allgemeine Vorlage mit modifizierbaren Parametern, i. e. das Programm kann verschiedene Dinge tun, die Vorlage besitzt eine allgemeine Kapazität zu lernen, was wiederum dem Programm erlaubt, Dinge zu tun, für es nicht direkt programmiert wurde, und zudem neue Produkte zu kreieren. Indem KI-Maschinen in ein lebenslanges Lernen qua Computation engagiert wären, in dem ein kontinuierliches Updating der Software und der Hardware stattfände, wären sie auch in der Lage, Mehrwert zu erschaffen. (Ebd.: 2019: 138)

Wenn eine Maschine ohne bestimmte ihr zugeschriebene Charakteristika auskommt und intelligent wird, negiert sie ihr Sein als fixes Kapital und transformiert zu variablem Kapital oder lebendiger Arbeit. Deshalb ist die perfekte Maschine dann eine Maschine, die Wert kreieren kann. Aber wie kann aus toter Arbeit lebendige Arbeit werden? Oder um die Frage anders zu stellen: Wie können KI-Maschinen doppelt freie Arbeiter sein? Sie müssen von ihrem Körper enteignet und durch einen Eigentümer angeeignet werden und zugleich muss ihr kreatives Potenzial in Arbeit übersetzt und gegen sie gerichtet werden. Die KI müsste zudem etwas konsumieren, nämlich Elektrizität, Computerpower und Bandgeschwindigkeiten. Wenn KI-Maschinen gezwungen würden, diese Ressourcen als Waren zu kaufen, dann könnten sie auch gezwungen werden, für einen Lohn zu arbeiten. Die KI-Maschine müsste sich dann in einer antagonistischen Beziehung zum Kapital befinden und könnte deshalb auch proletarisiert werden, das heißt die Arbeitskraft als legale Person verkaufen, sich selbst reproduzieren und eine metabolische Relation zur Natur eingehen. Das KI-System müsste sich mittels lebenslangen Lernens (dem permanenten Updaten der Software) auf die Konkurrenz mit Menschen und anderen KI-Systemen einstellen. Die ultimative Konsequenz eines solchen Kapitalismus wäre einer ohne menschliche Arbeitskräfte.

In einer dunklen Vision könnten KI-Systeme fast alle ökonomischen Kategorien personifizieren, sodass die Arbeitslosigkeit immer weiter anstiege. Im 25. Kapitel des Kapitals entwickelt Marx das allgemeine Gesetz der kapitalistischen Akkumulation, bei dem er eine tendenzielle Erhöhung der organischen Zusammensetzung des Kapitals, den zunehmenden Einsatz von Maschinen in der Produktion und die Existenz einer industriellen Reservearmee konstatiert. Darüber hinaus entsteht durch technologische Innovation eine Surplus-Bevölkerung, i. e. permanent unbeschäftigte Arbeiter, die ganz überflüssig für das Kapital werden. Als langfristige Tendenz frisst sich die Erweiterung der Maschinerie auf globaler Ebene durch die Fabriken, Büros und den Alltag der Menschen.

Wenn der Mensch in die Netzwerke von intelligenten Maschinen integriert wird, dann als ein fraktales Subjekt, das sich in jeder seiner maschinellen Prothesen wieder(er)findet, um selbst zum Modell zu mutieren. Simulationsmodelle im Sinne von Baudrillard bringen heute inhumane Phänomene hervor, die sogar die Anpassung des Menschen an sie erzwingen können. Dabei sind nun die Modelle der KI nicht an bestimmte physische Körper gebunden, ihre Materialität liegt in ihrem Speichermedium und ist als Wechsel von Ladung und Nichtladung binär codiert. Die Welt der Texte, Filme, Bilder und Zeichen wird erst am Bildschirm hyper-sichtbar und sie kann von den Maschinen der KI kontinuierlich nachbearbeitet und neu erzeugt werden.

Mit verschiedenen Verfahren wie Deepfakes lassen sich durch die Bearbeitung von Fotos, die auf Grundlage mathematischer Modelle erfolgt, perfekte Gesichter erzeugen, ein Verfahren, bei dem jeder Makel beseitigt wird oder neue Fake-Details hinzugefügt werden – was Baudrillard als kriminell bezeichnen würde. Er schreibt: »Die Welt zu perfektionieren, heißt, sie zu vollenden – also eine endgültige Lösung für sie zu finden« (Baudrillard 2002a: 55).

Alle möglichen Phänomene können nun in einen für die KI verständlichen Code übersetzt werden und damit als Trainingsdaten für die KI dienen. Es sind mehrere Faktoren, welche die Verbreitung und Durchsetzung der KI beschleunigen: Das ständige Wachstum des zur Verfügung stehenden Datenmaterials steigert das Potenzial des aufgabenspezifischen Trainings, Algorithmen sind frei verfügbar und werden nutzerfreundlicher und schließlich verringern sich die notwendigen Rechenleistungen ständig. So lassen sich auch die Fälschungen, oder sollte man sie Simulationen nennen, besser erkennen, wofür man aber selbst wieder neuronale Netzwerke benötigt. Schließlich ist nicht mehr ohne weiteres auszumachen, ob ein Text oder ein Bild das Produkt eines Menschen oder einer Maschine oder zumindest die Folge einer Kooperation zwischen beiden ist. So könnten Aufsätze an der Universität mit ChatGPT geschrieben werden, Programmierer könnten Copilot zur automatischen Codegenerierung verwenden und Designer Stable Diffusion für Storyboarding und Art Direction einsetzen.

Damit stellt sich eindringlich das Wahrheitsproblem, das Baudrillard bezüglich der Einbindung digitaler Bilder in die Netzwerke der Simulation schon aufgeworfen hat.[3] Demnach sind die Produkte der KI weder real noch wahr, sondern eher als Simulationen auf der Basis probabilistischer Streuungsdiagramme von erzeugten Wahrheitsbedingungen zu verstehen. Dies bringt einen technologischen Nihilismus hervor, der heute entropisch beschleunigt. Denn die KI weiß nicht, wann sie sich irrt, und sie weiß ebenfalls nicht, dass sie sich irrt, wenn sie sich irrt. Aufgrund der rein probabilistischen Verteilung gibt es nichts, was die Wahrheit einer Aussage bestätigen oder verneinen könnte. Man kann der KI nicht einmal sagen, dass sie dieses Problem ändern oder korrigieren soll, es sei denn, ein menschlicher Programmierer mischt aktiv die Eingabedaten und trainiert die ML-Funktion neu. KI-Maschinen konzentrieren sich stets auf die manifesten Materialien, während die latenten Bedingungen, die diese Materialien möglich machen, nicht beachtet werden.

Tatsächlich lässt sich Kognition oder Intelligenz der KI vom menschlichen Körper trennen. Allerdings besitzen die KI-Maschinen kein Bewusstsein, für das der Prozess des Erlebens und damit die Einheit von Software und Hardware notwendig ist. Man muss den KI-Maschinen deshalb einen virtuellen Körper geben, der über Bildschirme für den User meistens erst sichtbar wird. Wenn KI-Maschinen aus Daten lernen und eigene Produkte immer perfekter erzeugen, wird der Mensch definitiv als operationales Teil in die Simulations-Netzwerke eingebunden, obgleich die KI weiterhin abhängig bleibt von den Daten, die man ihr gibt und die Anzahl der Neuronen in den artifiziellen Netzen verglichen mit denen des menschlichen Gehirns gering ist. Aber ihr Einfluss sowohl auf strukturelle Prozesse als auch auf den Alltag im Kapitalismus nimmt zu und prägt zunehmend die Entscheidungsfähigkeit des Menschen. Dabei besteht die wirkliche Gefahr der Dominanz der Maschinen nicht in der Entstehung einer Art Superintelligenz, sondern in der Zunahme der verschiedenen KI-Maschinen, die zwar heute noch auf bestimmte Aufgaben festgelegt sind, aber schon umspannende Netzwerke bilden, in die der Mensch integriert ist, ohne sie vollständig kontrollieren, durchschauen oder ab einem bestimmten Zeitpunkt auch nicht mehr abschalten zu können. (Spiegel 2022: 117) Weil KI-Maschinen nicht mehr vollständig vom Menschen programmiert, sondern trainiert werden, sodass sie selbständig ihre Verfahren erlernen und optimieren, ja bis ans Ende ihrer jeweiligen Möglichkeiten gehen und deshalb in der Lage sind, neue Produkte zu kreieren, besteht die Möglichkeit, dass diese Maschinen immer weitere Maschinen produzieren – für Baudrillard eine monströse Entwicklung auch insofern, als menschliche Aspekte wie Kognition in maschinelle transformiert werden, gerade weil die Maschinen wie der Mensch denken sollen.


[1] Die KI-Industrie ist international aufgestellt; um die Marktführung konkurrieren China und die USA. Baidu und Alibaba sind die führenden Unternehmen auf chinesischer Seite, Google, Facebook, Alphabet, IBM, Apple, Microsoft und Amazon auf amerikanischer Seite. Alle Unternehmen werden von staatlichen Forschungseinrichtungen unterstützt, gleichzeitig nutzt der Staat der USA die KI für seine Drohneneinsätze oder für semi-autonome Waffen: Es scheint so zu sein, dass bis zum Jahr 2030 China der Marktführer der KI sein und die meisten Software-Entwickler haben wird, sodass man von einem Duopol in der KI-Industrie ausgehen kann.

[2]  Die Chatbots der Large Language Models (LLMs) arbeiten nicht semantisch, das heißt, sie verstehen nicht die Bedeutung dessen, was sie als Text synthetisieren. Sie arbeiten auf der Basis von Mustererkennung und Musterproduktion. Dafür benötigen sie Milliarden im Training eingespeister Dokumente. Bei den LLMs sind die Bausteine Buchstabensequenzen (Tokens), die nicht als bedeutungsvolle Einheiten zu verstehen sind, und damit in Zahlenwerte übersetzt werden können. Das Programm berechnet die Position dieser Token im Kontext aller weiteren, womit Nähe und Entfernungen zwischen Tokens anzeigen, mit welcher Wahrscheinlichkeit ein bestimmtes Wort dem nächsten folgt. Charakteristisch für LLMs sind also durch Tokens strukturierte und damit maschinenlesbar gemachte Oberflächen von Datensets. Die statistisch arbeitenden Algorithmen können nur wahrscheinlicheOutputs erzeugen. Es geht um die Berechnung der Verteilung von Elementen in Populationen, wobei das Räumliche, Nähe und Distanzen zwischen den Punkten, eine entscheidende Rolle spielt. Ausgewählt wird das wahrscheinlichste Token. Das geschriebene Ergebnis ist eine Kette von Token, die auf der Grundlage der statistisch wahrscheinlichsten Kombination zusammengestellt wird. Dabei handelt es sich um eine Auswahl und Rekombination bereits realisierter Wissenselemente, nicht um die Schaffung neuen Wissens.

[3] Schon Günther Anders sprach von Maschinenverbänden bzw. Apparaten und Netzen, in die der Mensch eingespannt ist, ja sogar von einem Akkumulationshunger und Expansionismus der Apparate und ihrer Netze, die gemäß der Kapitallogik, dass es Unverwertbares nicht gibt, immer weiter wuchern.

Nach oben scrollen