Die Ekstase der Information: Big Tech und Plattformen.

Die Ekstase der Information: Big Tech und Plattformen.

Ekstatische Finanzspekulationen, hohe Schulden, deutlich überbewertete Tech-Aktien, massive Interventionen der Zentralbanken und in manchen Territorien eine staatlich organisierte militarisierte Akkumulation haben die Weltwirtschaft in den letzten Jahren angesichts chronischer Stagnation in der Industrieproduktion bis auf die Ausnahme Chinas am Laufen gehalten und ihre Instabilität verschleiert.

Während die erste Phase der kapitalistischen Globalisierung ab den 1970er Jahren vor allem die Schaffung eines durch die Logistik unterstützten weltweit integrierten Produktions- und Finanzsystems beinhaltete, haben die neue Wellen der Digitalisierung und der Aufstieg von Big-Tech und Plattformunternehmen seit der Finanzkrise von 2008 eine sehr schnelle Transnationalisierung von digital basierten Dienstleistungen ermöglicht. Im Jahr 2017 machten diese Dienstleistungen rund 70 Prozent des gesamten Bruttoweltprodukts aus und umfassten Kommunikation, Informatik, Digital- und Plattformtechnologien, E-Commerce, Finanzdienstleistungen sowie eine Vielzahl anderer nicht materieller Produkte wie Film und Musik. (Robinson 2022a) In den westlichen Ländern sind die Finanzunternehmen auf den Zug der Finanztechnologie (Fintech) aufgesprungen, um technisch ausgereifte Modelle zu nutzen und der drohenden Krise zu entgehen. Während Silicon Valley lange Zeit einen konkurrenzlosen Status genoss, kamen in den 2010er Jahren chinesische Tech-Unternehmen auf den Markt, die unter der Vormundschaft der Kommunistischen Partei Chinas (KPCh) immer weiter gereift sind. Dies gab auch den Anstoß zu Trumps Handelskrieg, der als ein Tech-Krieg zum Schutz des Silicon Valley betrachtet werden sollte. Im zweiten kalten Krieg zwischen den USA und China geht es vor allem um die mobile Kommunikation der fünften Generation (5G) und um Systeme der künstlichen Intelligenz (KI), auf deren Grundlage die künftige datengesteuerte Ökonomie organisiert werden soll.

Die derzeitige digitale Umstrukturierung der globalen Wirtschaft schreitet nach der Schock-Strategie von Corona rasend voran. Nach Angaben der Vereinten Nationen wird die »Sharing Economy« – d. h. die über Plattformen vermittelten Aktivitäten – bis zum Jahr 2025 auf 335 Milliarden Dollar Umsatz ansteigen. Die weltweiten Auslieferungen von 3D-Druckern haben bis Ende 2020 6,7 Millionen erreicht. Der weltweite Wert des elektronischen Handels erreichte im Jahr 2017 schätzungsweise 29 Billionen US-Dollar, was 36 Prozent des globalen BIP entsprach. Die Exporte von digital erbrachten Dienstleistungen beliefen sich im Jahr 2018 auf 2,9 Billionen US-Dollar, was wiederum 50 Prozent der weltweiten Dienstleistungsexporte entsprach. Im Jahr 2019 betrug das Volumen des globalen Internetverkehrs das 66-fache des gesamten globalen Internetverkehrs im Jahr 2005, während der globale Internetprotokoll (IP)-Verkehr, ein Proxy für Datenströme, von etwa 100 Gigabyte (GB) pro Tag im Jahr 1992 auf mehr als 45.000 GB pro Sekunde im Jahr 2017 anstieg. (UNCTAD: 2019) Die Maschine-Maschine-Konnektivität, im speziellen Blockchain, erfordert noch höhere Geschwindigkeiten (bis zu Gigabits pro Sekunde) für die extensive Sammlung und das Prozessieren von Daten. Neben der 5G-Technologie wird dazu auch das Cloud Computing notwendig.

Ausgerechnet die Corona-Pandemie hat gezeigt, wie zentral digitale Dienstleistungen für die Weltwirtschaft geworden sind. Die Pandemie und ihre Folgen, die die digitale Umstrukturierung beschleunigt haben, führen zu einer enormen Ausweitung arbeitsreduzierter digitaler Dienstleistungen, einschließlich aller Arten von neuen Telearbeitsvereinbarungen, Drohnenlieferungen, bargeldlosem Handel, digitalisiertem Finanzwesen, Tracking und automatisierter medizinischer und juristischer Dienstleistungen. Die Pandemie hat die Bemühungen der Technologieunternehmen verstärkt, immer mehr Bereiche der Wirtschaft in diese neuen digitalen Bereiche zu überführen. Es waren neben den Pharmakonzernen insbesondere die Technologieunternehmen, die während der Pandemie einen weiteren Aufschwung zu verzeichnen hatten, da ihre digitalen Dienstleistungen von entscheidender Bedeutung für die Ökonomie wurden, als hunderte von Millionen Arbeiter weltweit im Homeoffice arbeiten mussten.

Die neue Umstrukturierungsphase begann aber schon nach dem Finanzkollaps von 2008. An der Spitze dieser Umstrukturierung standen die großen Technologieunternehmen – darunter Microsoft, Apple, Amazon, Tencent, Alibaba, Facebook und Google, zu denen jetzt auch Zoom und andere Unternehmen hinzugekommen sind, die durch die Pandemie einen Aufschwung zu verzeichnen hatten. Robinson spricht hier von einem neuen Kapitalblock. Apple und Microsoft besaßen im Jahr 2020 eine Marktkapitalisierung von jeweils 1,4 Billionen Dollar, gefolgt von Amazon mit 1,04 Billionen Dollar, Alphabet (der Muttergesellschaft von Google) mit 1,03 Billionen Dollar, Samsung mit 983 Milliarden Dollar, Facebook mit 604 Billionen Dollar und Alibaba und Tencent mit rund 600 Milliarden bzw. 500 Milliarden Dollar. Um eine Vorstellung davon zu vermitteln, wie schnell diese Tech-Giganten gewachsen sind, muss man nur die Marktkapitalisierung von Google betrachten, die von weniger als 200 Milliarden Dollar Ende 2008 auf über eine Billion Dollar Anfang des Jahres 2020 anstieg. In nur zwei Jahren, von 2015 bis 2017, stieg der Gesamtwert aller Plattformunternehmen mit einer Marktkapitalisierung von mehr als 100 Millionen US-Dollar um 67 Prozent auf mehr als 7 Billionen US-Dollar. (Robinson 2022b: 64ff.)

Eine Handvoll größtenteils in den USA ansässiger Tech-Firmen, die Daten generieren, extrahieren und verarbeiten, haben enorme Geldbeträge von transnationalen Investoren aus der ganzen Welt absorbiert, die verzweifelt nach neuen Investitionsmöglichkeiten suchen und Milliarden von Dollar in die Tech- und Plattform-Giganten als Ventil für ihr überschüssiges angesammeltes Kapital gesteckt haben. Die jährlichen Investitionen in den IT-Bereich stiegen von 17 Mrd. US-Dollar im Jahr 1970 auf 65 Mrd. US-Dollar im Jahr 1980, dann auf 175 Mrd. US-Dollar im Jahr 1990, 465 Mrd. US-Dollar im Jahr 2000 und 654 Mrd. US-Dollar im Jahr 2016, um dann 2019 die 800 Mrd. US-Dollar-Marke zu erreichen. (Ebd.: 65) Es kommt zu einer noch engeren Verflechtung der großen globalen Banken und der Investmentfonds mit dem Tech-Kapital, ebenso wie mit Unternehmen aus der ganzen Welt, die auf Cloud Computing und KI spezialisiert sind.

Jeder, der mit Daten arbeitet, ob Ärzte, Anwälte, Lehrer oder Broker, muss in Zukunft infolge der rasenden Entwicklung der KI mit einer algorithmischen Rechenmaschine konkurrieren, die riesige Datenmengen scannt, speichert und verarbeitet und dann möglicherweise sogar unkonventionelle Antworten vorschlägt. Die KI-Revolution könnte die erste technologische Revolution sein, die Arbeitsplätze und Löhne in einem hohen Ausmaß vernichtet. KI tangiert Arbeitsplätze in vielen Branchen und sie betrifft kognitive Arbeiter ebenso sehr wie weniger qualifizierte Arbeiter. Indem man den Maschinen erlaubt, Texte zu scannen und eigene Musteranalysen durchzuführen, wird die Unterscheidung von KI-generierten Texten, Bildern und Audios mit menschlichen Produkten mit der Zeit immer schwieriger werden, zumindest was die Standards angeht. Infolgedessen wird eine große Anzahl von Angestelltenjobs, die ein höheres Maß an Kognition erfordern, obsolet werden. In der Tat hat die KI zunächst Routinearbeiten ersetzt, wird aber zunehmend in der Lage sein, auch kreative Aufgaben zu übernehmen.

Die nächste Phase der Digitalisierung wird hohe Investitionen benötigen, die nur von den großen Tech-Unternehmen geleistet werden können. Schon in den vergangenen Jahrzehnten hat die Computerisierung die fixen Kapitalkosten erhöht, was in vielen Ländern die Profitrate negativ beeinflusst hat. Da die digitalisierten Maschinen teuer sind, sind weitere Versuche des Kapitals zu erwarten, die Lohnquoten zu senken. Weil automatisierte Maschinen vierundzwanzig Stunden lang arbeiten können, aber zumindest Aufsicht durch Experten benötigen, entstehen neue Fragen der Arbeitszeitregelung und -organisation. Es könnte nun auch den globalen Süden eine Welle der Deindustrialisierung treffen, wenn Produktionsauslagerungen in Entwicklungsländer rückgängig gemacht und Produktionsstätten wieder in die kapitalistischen Kernländer verlagert werden.

Der Aufstieg der digitalen Wirtschaft geht einher mit der Verschmelzung des Silicon Valley Imperiums mit dem transnationalen Finanzkapital und dem militärisch-industriellen Sicherheitskomplex, wodurch ein neuer Kapitalblock entsteht, der den Kern des entstehenden post-pandemischen Paradigmas zu bilden scheint. Dieser neue Block wird sogar noch mächtiger sein, als er es zu Beginn der Pandemie war, und eine gewaltige neue Zentralisierung und Konzentration des Kapitals auf globaler Ebene vorantreiben. (Ebd.)

Allseits bekannte Sachverhalte wie Satellitenüberwachung, enorme Rechnerkapazitäten auf Silizium Chips, Sensoren, Netzwerke und Predictive-Analytics sind heute Bestandteile der globalen digitalen Systeme, die auch das Leben und Verhalten der Bevölkerungen gegenwärtig umfassend quantifizieren, analysieren, bewerten und kapitalisieren. Dies sind keine Technologien der Kraft und Energie mehr, sondern mediale Technologien, die Informationen speichern, prozessieren, übertragen und darstellen. Der Exzess dieser medialen Technologien führt zu einem überflüssigen Überfluss, der operationalen und zugleich delirierenden Vollstopfung der Systeme mit Informationen, die bis zur letzten Information gespeichert und aufgezeichnet werden sollen. Baudrillard spricht von einer Fettleibigkeit der Simulation. (Baudrillard 1991: 32)

Dabei sieht sich beispielsweise Google unter dem Druck der Finanzmärkte gezwungen, die Effektivität seines Data-Trackings und seiner durch Maschinenintelligenz erzeugten Analysen ständig zu erhöhen und gerade deswegen jeden Anspruch der Nutzer auf den Schutz der Privatsphäre mit den vielfältigsten Mitteln zu bekämpfen.Dank einer Reihe von Geräten wie Laptops und Smartphones, Kameras und Sensoren sind heute Computer im kapitalisierten Alltag allgegenwärtig; es sind Zeichen lesende Maschinen, die Algorithmen (berechenbare, formal-eindeutige Verfahrensanweisungen) ausführen und ihre volle Kraft erst im Kontext digitaler Medien der Vernetzung entfalten, wofür die programmgesteuerte Gestaltung, Transformation und Reproduktion sämtlicher Medienformate Voraussetzung ist. Insbesondere die sozialen Netzwerke ermöglichen in diesem Spiel eine Art von Ökonomie, die aufgrund der Extraktion von persönlichen Daten, welche zur Konstruktion von Metadaten, Cookies, Tags und anderen Tracking-Technologien führt, eine neue algorithmische Governance etabliert hat. Diese Entwicklung ist vor allem als »Big Data« bekannt geworden, ein System, das auf Vernetzung, Datenbanken und hohen Computerleistungen und -kapazitäten aufbaut.[1] Seit den 2010er Jahren wurden Daten in neuen Dimensionen erzeugt – 2018 waren es 2,5 Trillionen (quintillion) Bytes pro Tag. Allein in den Jahren 2016-2018 wurden 90 Prozent der bis dahin in der Menschheitsgeschichte weltweit erzeugten Datenmengen generiert. Zudem gilt es festzuhalten, dass die KI keineswegs immateriell ist. Do könnte die KI bis 2027 für 4,2 bis 6,6 Milliarden Kubikmeter Wasserentnahme verantwortlich sein. Das ist mehr als die gesamte jährliche Wasserentnahme von Dänemark.

Wie jede Governance, wenn wir sie im Sinne von Foucault denken, implementiert auch die algorithmische Governance spezifische Technologien der Macht, die heute aber nicht mehr auf einer Statistik basieren, die sich auf den Durchschnitt oder die Norm bezieht, stattdessen haben wir es mit einer automatisierten, einer atomaren, pulsierenden und auf Wahrscheinlichkeit beruhenden künstlichen Maschinenintelligenz zu tun, die die Spurensicherung und das Datamining unabhängig vom jeweiligen Medium betreibt – ein automatisches Computing sammelt, erfasst und kapitalisiert in rasender Geschwindigkeit, nahe der des Lichts, mit den Methoden der künstlichen Maschinenintelligenz Daten über das Verhalten der Marktteilnehmer, die mittels der Extraktion ihrer Daten durch Tech-Konzerne kontrolliert werden und deren Verhalten eben auch kapitalisiert wird. Die kontinuierlich Daten sammelnden und Datenspuren lesenden und auswertenden digitalen Maschinen mobilisieren also eine a-normative und eine a-politische Rationalität, die auf der automatischen Analyse und der monetären Valorisierung von enormen Datenmengen besteht, und zwar indem die Verhaltensweisen der Agenten modelliert, antizipiert und damit beeinflusst werden.[2] Man nennt dies heute verharmlosend ubiquitäres Computing, bei dem das Tech-Kapital die Extraktion des Verhaltens der Nutzer und die Herstellung der darauf aufbauenden Vorhersageprodukte, die durch die Algorithmen entstehen, längst nicht mehr nur im Internet, sondern auch in der realen Welt betreibt, um dann die Vorhersageprodukte durch spezielle Verfahren ständig zu diversifizieren und tiefer zu legen. So fließen aus den Automobilen, Kühlschränken, Häusern und Körpern etc. ständig Signale als Daten in die digitalen Netze, die an Werbekunden verkauft werden, die zielgenaue Werbung betreiben. (Zuboff 2018: 225)

Für Zuboff automatisieren Unternehmen wie Google und Facebook das Kaufverhalten der Konsumenten, indem sie es mittels der Feedback-Loops von KI-Maschinen kanalisieren und zielgerichtet an diejenigen Unternehmen binden, die Werbekunden dieser Firmen sind. Allerdings bleibt das targeting von Werbekunden bis heute ungenau. Die verkaufsfördernden Verhaltensmodifikationen, die bei den Nutzern erzielt werden sollen, beruhen auf maschinellen Prozessen und Techniken wie dem tuning (Adaption an ein System), herding (Zurichtung der Masse) und der Konditionierung (das Trainieren von Reiz-Reaktionsmustern), die das Verhalten der Nutzer derart lenken, dass die maschinell konstruierten Vorhersageprodukte deren Aktionen tatsächlich in Richtung der von Google oder Facebook garantierten Intentionen treiben. (Ebd.) Die Vorhersagbarkeit des Verhaltens der Nutzer ist nun eine genuine Profitquelle: Der Konsument, der eine Fitness-App benutzt, soll am besten im Augenblick maximaler Empfänglichkeit, beispielsweise nach dem Jogging, ein gesundes Getränkeprodukt kaufen, das ihm durch zielgerichtete Werbung schmackhaft gemacht wird. So hat der Sportartikelhersteller Nike die Datenanalyse-Firma Zodiac gekauft und nutzt sie in seinen Filialen in New York. Betritt ein Kunde mit Nike-App auf dem Smartphone eine Filiale, so wird er von der Geofencing-Software erkannt und kategorisiert. Sofort verändert sich auch die Startseite der App und anstelle von Online-Angeboten erscheinen auf dem Bildschirm die Neuheiten im Shop, das heißt auf den Kunden zugeschnittene Sonderangebote und Empfehlungen. Besonders treue Kunden erhalten im Shop kleine Geschenke und können sich die gewünschten Waren sogar per Smartphone in die Umkleidekabine liefern lassen.

Dabei ist mit der Systemtheorie davon auszugehen, dass psychische Systeme das rhizomatische Arrangement von Sinn im Internet nicht beobachten können. Die durch Hyperlinks technisierten Sinnverweisungsoperationen produzieren vor allem eines, nämlich Unzusammengehörigkeit, ein fluides auf keine Einheit mehr zu bringendes System, welches das Wissen und die Information auf Festplatten externalisiert. (Fuchs 2023: 259) Das Internet bietet als ein System, dessen Mittelpunkt überall sein kann und dessen Grenze nirgendwo ist, ständig neue Möglichkeiten für Fake, Ressentiment und Imposanzverstärkung an, welche die Enthemmung der Kommunikation und der Simulation geradezu herausfordern, weil es kaum Stop-Regeln oder Haltepunkte im Netzt gibt. Die Metapher des Surfens verweist auf einen fragilen und wilden Trip, mit dem psychische Systeme im Internet sozialisiert werden, um das, was die Simulation sozial operiert, auf psychischer Ebene zu wiederholen, indem sie lernen, das Verhältnis von Realität und Fiktion, wie Fuchs sagt, als Verschwimmung wahrzunehmen. (Ebd.: 267) Diese Verschwimmungen vollziehen sich ohne jede Tiefe und führen zu jenen Grenzunschärfen, die Baudrillard mit seinem Simulationsbegriff umspielt – mittels von Operationen, die die Differenz von vorher so/nachher scheinbar wild und immer wieder anders herstellen, wobei es nicht ganz sicher ist, ob psychische Systeme diese de-ontologisierte Hyperrealität (als hyper-a-soziales System) überhaupt wahrnehmen können.[3] Man erfährt im Surfen nämlich seriell Effekte, akkumuliert sie auf eine Art und Weise, die sich intensiviert und Resonanzen und Interferenzmuster erzeugt, die sich durch die aufeinanderfolgenden verknüpften Links bewegen. Link um Link klicken wir uns in eine Flaute hinein. Diese Flaute ist Ausdruck eines transduktiven Momentums – des Impulses, den Übergang fortzusetzen – und erklärt die seltsame Anziehungskraft des Surfens.

Es geht beim Tech-Kapital längst nicht mehr nur um den Verkauf von Werbung, vielmehr wurde es sehr schnell das Modell für die Kapitalakkumulation in Silicon Valley, das bis heute von nahezu jedem Start-up Unternehmen übernommen wird. Aber das Modell ist nicht nur auf einzelne Unternehmen oder den Internetsektor beschränkt, sondern hat sich auf eine große Anzahl von Unternehmen über verschiedene Sektoren und Branchen hinweg verteilt, eingeschlossen Versicherungen, Gesundheitsvorsorge, Finanzen, Kulturindustrie, Transportwesen etc. Nahezu jedes Produkt oder jede Dienstleistung, die mit dem Wort »smart« oder »personalisiert« beginnt, jedes internetanschlussfähige Gerät, jeder »digitale Assistent« stellt in der Angebotskette der Unternehmen ein Interface für den unsichtbaren Fluss von Verhaltensdaten auf dem Weg zur Vorhersage der Zukunft in einer Überwachungsökonomie dar.

In der Rolle des Investors gab Google schnell die erklärte Antipathie gegen die Werbung auf, stattdessen entschied man sich die Gewinne zu erhöhen, indem man den exklusiven Zugang zu dem Datenabfall der User in Kombination mit analytischen Kapazitäten und hoher Computerpower nutzte, um Vorhersagen über die Klickraten der User, die als Signal für die Relevanz einer Werbung einzuschätzen sind, zu generieren. In operationaler Hinsicht transformierte Google seine wachsenden Datenmengen, um sie als Verhaltensdatenüberschuss »arbeiten« zu lassen, während man gleichzeitige neue Methoden entwickelte, die aggressiv den Verhaltens-Surplus abschöpfen sollen. Dazu gehören auch datenintensive Cloud-Dienste.

Es genügt nicht länger, die Informationsströme, welche die Bevölkerung in der Gegenwart ausleuchten, zu automatisieren, vielmehr besteht das Ziel nun darin, auch noch das zukünftige Verhalten der Bevölkerung so exakt wie möglich vorherzusagen. Diese Prozesse werden ständig neu designt, um jede Möglichkeit zur Selbstbestimmung der User zu eliminieren, was nicht unerheblich für die Kapitalmärkte ist, wenn die Vorhersagen über das Verhalten von Bevölkerungen nicht nur wahrscheinlich sind, sondern sich der Gewissheit annähern, dass das gewünschte Verhalten auch eintritt. Allerdings dürften solche Anpassungsprozesse niemals vollständig gelingen. Je mehr Verhaltenssurplus man sich aber aneignet, desto besser treffen die Vorhersagen ein, und je mehr der Überschuss variiert werden kann, desto höher ist auch der Vorhersagewert. Dieser neue Drive der Ökonomie führt von den Desktops über die Smartphones in die reale Welt – man fährt, läuft, shoppt, sucht einen Parkplatz, das Blut zirkuliert und man zeigt sein Gesicht – alles soll aufgezeichnet, lokalisiert und vermarktet werden.

Es können jetzt auch Ressourcen von Arbeitern angezapft werden, die durch das Kapital schon verbilligt wurden. Die Arbeitskräfte, die in den Centern bei Amazon arbeiten, werden getrackt und beobachtet und stellen so doppelte Zeit für das Unternehmen zur Verfügung, das zum einen von der Arbeit monetär profitiert, während es zum anderen Daten über die Bewegung der Körper im Raum akkumuliert. Dieser magische Trick, mit dem Daten als ein Nebenprodukt verschiedener Arten von billiger Arbeit gesammelt werden, ist ein großer Coup für das Kapital und eine weitere Möglichkeit für die Extraktion jeden menschlichen Rests. Wie Jason E. Moore sagt, erlauben die vier Billigen (Arbeitskraft hier) neue Strategien, um Krisen zu überleben, denn die Verwertung von billigen Daten hilft die stagnierende Produktivität zu reduzieren, und zwar durch das Erfassen aller Arten existierender Arbeiten als Service für Daten produzierende Maschinen. (Moore 2015) Der Anstieg von billigen Daten bezieht sich nicht nur auf die Daten, die aus den menschlichen Verhaltensabläufen gezogen werden. Während Google und Facebook daran arbeiten, die Klicks und Verhaltensweisen zu manipulieren, werden Daten von der Bewegung der Maschinen über das Wachstum von Pflanzen bis hin zu der Bewegung der Zinsraten gesammelt. Diese Daten werden in verschiedenen Weisen benutzt, um lernende maschinelle Systeme zu trainieren, die die Manipulation von Bevölkerungen oder die Kreation neuer Märkte leisten.[4]

Verhaltensüberschüsse entstehen auch daraus, dass mehr Verhaltensdaten als notwendig gerendert werden, um diese in künstlichen Maschinen (Ranking, statistische Modellierung, Vorhersage, Spracherkennung und visuelle Transformation) einzuspeisen, die dann Vorhersagen über Nutzerverhalten produzieren. Diese Vorhersagen bezeichnet Zuboff als Quasi-Derivate, welche das Tech-Kapital auf den Verhaltensterminkontraktmärkten an meistbietende Unternehmen verkauft. (Zuboff 2018: 105) Es lässt sich folgern, dass die algorithmischen Operationen mit Daten solch profitable Produkte, die auf die Vorhersage und Monetarisierung des zukünftigen Verhaltens der Nutzer abzielen, für ganz bestimmte Unternehmen generieren: Die wichtigen Kunden von Google sind diejenigen, die Werbung benötigen und bei Google dafür für zahlen, dass sie ein effektives Angebot von Vorhersageprodukten erhalten, die wiederum auf der umfassenden Überwachung der User beruhen. Diese Produkte beruhen also darauf, dass Google genauestens zu prognostizieren versucht, was die User im Jetzt und in der nahen Zukunft tun, denken und fühlen (ebd. 119), womit auch das Risiko für die Werbekunden eingeschränkt werden soll, sodass relativ sichere Wetten auf zukünftiges Verhalten abgeschlossen werden können. Allerdings sind die Adressaten an den Märkten, an denen Google Vorhersageprodukte verkauft, nicht ausschließlich Werbekunden, sondern es sind im Endeffekt alle, die ein Interesse am Ankauf »probabilistischer Informationen« (ebd.: 120) haben, also zum Beispiel auch Staaten, vor allem ihre Nachrichtendienste, die deshalb ein enges Verhältnis zu den Unternehmen im Silicon Valley pflegen.

Dabei sind die Vorhersagemaschinen eine Art Black Box, deren innere Abläufe wahrzunehmen, die menschlichen Kapazitäten der Perzeption weit übersteigt. Zuboff spricht an dieser Stelle von einem Schattentext, in dem die Maschinen die relevanten Handlungsanweisungen vorgeben, die meistens auf die Beeinflussung des Konsums der Nutzer abzielen. So gehen beispielsweise in die algorithmisierte Auswahl der Bilder, die Instagram einem Nutzer zeigt, Ströme der Verhaltensdaten dieses Nutzers, die Daten seiner Freunde, Daten von Leuten, die demselben Account wie der Nutzer folgen, sowie Daten und Links seiner Aktivitäten auf Facebook ein. (Ebd.: 555). Es gibt eine Vielzahl von Daten und Operationen, welche selbst die Programmierer der Maschinen nicht mehr durchblicken.

Wenn aber Zuboff den Bereich der Enteignung, die Extraktion und die Kontrolle von Daten so weit in den Mittelpunkt stellt, dann beschränkt sie ihre Argumente weitgehend auf eine Kritik der Überwachung und liefert damit keine tiefere Analyse des Verhältnisses von Kapital und Arbeit. Zuboff distanziert sich folgerichtig von den Theorien der »digitalen Arbeit«. Dementsprechend hat Zuboff auch nicht viel über die Extraktion von Mehrwert im digitalen Bereich zu sagen. KI wird als die Fortsetzung von Datenanalysetechniken behauptet, die zunächst von staatlichen Behörden und Militär gefördert, von Geheimdiensten kultiviert und schließlich von Internetunternehmen zu einem planetarischen Geschäft der Überwachung und Vorhersage entwickelt wurde. Diesen Techniken erzeugen Akteure, die lediglich als passive Subjekte der Messung und Kontrolle verstanden werden (nicht als kollektive Akteure). Zuboff stützt sie sich auf Harveys Theorie der »Akkumulation durch Enteignung« und stellt diese als einen fortlaufenden Prozess auch in den digitalen Industrien dar. Wenn Zuboff ausführlich und auch richtigerweise Googles Verfahren zur Gewinnung und Enteignung von Nutzerdaten analysiert, so schreibt sie von einer parasitären Wirtschaftslogik, ohne aber weitere Kapitalisierungsstrategien der Daten weiter zu bedenken. Und Zuboff kann sich nicht vorstellen, dass die Enteignung von Nutzerdaten nicht die alleinige Quelle der exorbitanten Profite von Google ist. Die Rede vom Überwachungskapitalismus bezeichnet nur einen Aspekt der Digitalisierung. Im digitalen Kapitalismus werden die Prozesse der Kapitalakkumulation und der Macht- Konstitution mittels digitaler Technologien organisiert und führen zu digitalen Waren und digitalen Strukturen. Computer sind in Netzwerke integriert, in denen Texte, Videobilder, Websites und Plattformen auf der Basis von relationalen Strukturen und Algorithmen verknüpft werden. Es bildet sich digitale Praktiken und digitale Strukturen als Existenzweisen technischer Netze und Objekte (Simondon), die ihre eigene Logik und Entwicklung in den Bereichen der Produktion, Distribution und Zirkulation haben. Bei den Serverfarmen von Facebook und Google handelt es sich um technologische Strukturen, die hohe Mengen an persönlichen Daten speichern, gleichzeitig bleiben aber auch die Praktiken des Suchens, Klickens, Likens und Uploadens wichtig.

Was Zuboff weiterhin weitgehend unberücksichtigt lässt: Google produziert eine Ware – Echtzeit-Zugang zu den riesigen Informationsmengen menschlichen Wissens -, die billig herzustellen ist, insofern Google die Verleger und Urheber von Inhalten, deren Seiten indexiert werden, nicht für deren Produktion und deren Produkte bezahlt. (Morozov 2022) Google verschenkt seine Suchfunktionen kostenlos, was es wiederum ermöglicht, ein höchst profitables Produkt – die Aufmerksamkeit seiner Nutzer – an Werbekunden zu verkaufen. Zuboff schreibt von indexierten Informationen, die Googles Web-Crawler ohne Bezahlung übernehmen. Es ist leicht zu erkennen, warum diese Funktion nicht Zuboffs eigener Definition von Enteignung entspricht, weil nämlich keine Nutzer beteiligt sind. (Ebd.) Der enorme Erfolg von Googles Geschäftsmodell deutet darauf hin, dass die Praktiken des Unternehmens nicht durch einen »Informationsfeudalismus« gekennzeichnet sind, sondern, wie Morozov schreibt, als »Informationskommunismus« beworben werden. (Ebd.) So kann man das hochgesteckte Ziel, nämlich die unbegrenzte, kostenlose Indizierung von Informationen, die von anderen produziert wurden, rechtfertigen, als ob es keine Eigentumsrechte – einschließlich der Rechte auf Zugang und Nutzung – gäbe.

Oft wird von einer Art Techno-Feudalismus gesprochen, dessen Agenten Renten beziehen. Was der digitalen Wirtschaft ihren neo- und technofeudalen Charakter verleihe, sei die Tatsache, dass es ihr gelänge, analog zu den Feudalherren, sich riesige Teile der globalen Masse des Mehrwerts anzueignen, ohne jemals direkt an der Ausbeutung der Arbeitskraft oder am Produktionsprozess beteiligt zu sein. Auch der französische Ökonom Durand stützt sich auf Zuboffs Arbeit, um die versteckte Herrschaft aufzuzeigen, die die Produzenten von Big Data ausüben, und argumentiert, dass das Geheimnis des Erfolgs von Google in seiner Fähigkeit läge, eine Vielzahl von Datensätzen zu extrahieren, zusammenzustellen und daraus Profit zu schlagen. Aufgrund von Netzwerkeffekten und beeindruckenden Skaleneffekten genießt Google ein effektives Monopol: Das Unternehmen wird von neuen Datensätzen stärker profitieren als ein Start-up-Unternehmen, was den Wettbewerb erheblich erschwert. (Durand 2023)

Der Grundtenor der Argumentation geht jedoch hier zu sehr in Richtung Nutzerorientierung, da Durand, wie auch Zuboff, die entscheidende Rolle der Indexierung für die Gesamttätigkeit von Google ignoriert. Die Seiten Dritter, auf welche Google verlinkt, um seine Suchergebnisse zu produzieren, bleiben das Eigentum ihrer Herausgeber; Google ist nicht Eigentümer der Informationen, die es indexiert. Theoretisch könnte jedes andere kapitalkräftige Unternehmen eine Web-Crawling-Technologie für seine Indizierung entwickeln. Das könnte jedoch extrem teuer sein, aber man sollte solche Hindernisse nicht mit einer mietähnlichen Situation verwechseln: Was für ein Berliner Start-up teuer ist, könnte für eine große Bank relativ erschwinglich sein. Man kann nicht so tun, so Morozov, als ginge es bei Googles Geschäft nur um die Extraktion von Daten, als wäre Google ein reiner Rentier – und nicht auch ein kapitalistisches Unternehmen. (Morozov 2022)

Durchsetzbare Eigentumsrechte, die es dem Eigentümer produktiver Ressourcen wie von Land erlauben, andere Kapitalisten vom Zugang zu diesen Ressourcen auszuschließen, schaffen »Renten«. Diese Renten sind ein Teil des in der kapitalistischen Produktion erzeugten Mehrwerts, obwohl sie keinen direkten Bezug zur Ausbeutung der produktiven Arbeitskraft haben. Der Eigentümer von Bodenressourcen wie von Feldern, Wasserfällen, Mineral- und Kohlenwasserstoffvorkommen etc. hat in seiner Funktion als Rentier einen kostenlosen Vorteil, wenn er Ressourcen ins Spiel bringt, um an dem durch produktive Lohnarbeit erzeugten Mehrwert teilzuhaben. Aber wenn analog die Tech-Unternehmen nur Rentiers sind, die durch die Ausnutzung von geistigen Eigentumsrechten und Netzwerkeffekten Gewinne quasi kostenlos generieren, warum investieren sie dann so viel Geld in etwas, das man als eine Art Produktion bezeichnen kann? Die F&E-Ausgaben von Alphabet in den Jahren 2017, 2018, 2019 und 2020 beliefen sich auf 16,6 Mrd., 21,4 Mrd., 26 Mrd. bzw. 27,5 Mrd. Dollar.[5] (Ebd.) Wenn man akzeptiert, dass Google in der Produktion von Waren mit Suchergebnissen tätig ist – ein Prozess, der massive Kapitalinvestitionen erfordert -, gibt es keine großen Schwierigkeiten, so Morozov, Google als ein kapitalistisches Unternehmen zu behandeln, das in der kapitalistischen Produktion tätig ist. Das soll nicht heißen, dass die digitalen Giganten nicht weitere Strategien und Taktiken anwenden, um ihre Macht zu konsolidieren.[6]

Allerdings fragt Morozov zu wenig nach der Spezifität dieser neuen Tech-Unternehmen. Ausgehend vom militärisch-industriellen Komplex und angetrieben von der Suche nach neuen Märkten, operiert der Cyber-Kapitalismus durch ein materielles Ensemble sozialer Praktiken, Bedeutungen und technologischer Apparate; er ist ein weltumspannendes Konglomerat aus mehreren Schichten von Systemen und Standards, Maschinen und Management, Waren und Kommunikation, Ideologien und Interoperabilität, Produkten und Protokollen. Diese Schichten werden über kybernetische Feedback-Schleifen integriert. Der Cyber-Tech-Sektor ist kapitalistisch strukturiert und wird von der Profitextraktion, dem Wettbewerb, den Investitionen und der Innovation angetrieben; er unterliegt Spekulationsblasen und Booms, die es im Feudalismus nicht gegeben hat – auch wenn er durch vermeintlich nicht-kapitalistische, aber durchaus vertraute Praktiken wie Monopolisierung, Marktmanipulation, Nationalismus und Nähe zum militärisch-industriellen Komplex gekennzeichnet ist. Jedes der großen Tech-Unternehmen hat seine eigenen, strategisch diversifizierten Geschäftsbereiche, die von Social-Media-Werbung über Geschäftslogistik und Videospiele bis hin zur Halbleiterherstellung reichen. Diese Unternehmen unterliegen zudem einem hohen Maß an Volatilität. Hinter ihrem Aufstieg stehen heute große Vermögensverwaltungsfirmen wie Vanguard Group und BlackRock. Auch diese Unternehmen werden durch Verfahren der  Kybernetik, Digitalität und Quantentheorie mitgestaltet. BlackRock führt einen Großteil seines Erfolgs auf sein Big-Data-System Aladdin zurück, das riesige Anlageportfolios nicht nur für BlackRock, sondern auch für seine Konkurrenten Vanguard und State Street sowie für Alphabet, Apple, Microsoft und die großen Versicherungsgesellschaften verwaltet. Über Aladdin kontrolliert BlackRock eine Schlüsselkomponente der digitalen Infrastruktur des Finanzsektors. Diese Verschmelzung von finanzieller Macht und technowissenschaftlicher Beherrschung hebt das Finanzwesen selbst auf eine noch abstraktere Ebene und darf als eine Schlüsselkomponente des Cyber-Kapitalismus gelten.

Plattformen

Der englische Begriff »platform« stammt aus der Software-Branche und verweist auf die Technik der Anwendung (Hardware) oder auf ein Betriebssystem, das wiederum zu einer bestimmten Softwareentwicklung führt. Im Kontext des Internets ist das Konzept der Plattform ein Resultat des Dotcom-Crashs im Jahr 2001. Insbesondere die hoch bewerteten IT-Unternehmen konnten die von den Finanzmärkten vorgegebenen Gewinnerwartungen nicht erfüllen, sodass der IT-Branche ein umfassender finanzieller und symbolischer Kollaps drohte, worauf man als Antwort Plattformen-Unternehmen einführte, um eine Reorganisation des Sektors durchzuführen.

Plattformen sind zunächst als Unternehmen zu verstehen, die Online-Angebote bereitstellen bzw. eine bestimmte Dienstleistung anbieten. Dafür stellen die Unternehmen eine digitale Infrastruktur und Architektur zur Verfügung, über welche die Kommunikation und Interaktion zwischen zwei oder mehreren Akteuren vermittelt werden kann: Fahrer, Kunden, Werbefachleute, Serviceprovider, Produzenten, Logistikfirmen und physische Objekte. Ihre ökonomischen Erfolge generieren die Plattformen mit der Exploitation von Daten und der Verwertung fremder Tätigkeiten. Sie sind Teil der »Share Enonomy«, innerhalb derer Dienstleistungen wie Taxifahrten (Uber), Essenslieferungen (Deliveroo), Wohnungen und Zimmer (Airbnb) etc. über Applikationen so organisiert werden, dass die Kunden über ihr Smartphone bestimmte Leistungen buchen können. Dazu benötigen die Plattformen unbedingt die formal unabhängigen Dienstleister/Beschäftigten und die User (Crowd) und deren Tätigkeiten im Internet, um den Kunden zu generieren, während ihre Beschäftigten für ihre Arbeitsmittel selbst sorgen müssen. Materialkosten und -risiken sind damit an die Beschäftigten ausgelagert, die man deshalb auch als »Kontingenzarbeitskräfte« bezeichnen kann.

Die Plattformen sind nicht für die auf ihren Webseiten produzierten Inhalte verantwortlich, stellen aber die technischen Infrastrukturen bereit und beherrschen damit die Form. Dabei fungieren die Plattformen als algorithmisierte und automatisierte Onlinemärkte und treten als Intermediäre auf, wobei nicht auszuschließen ist, dass sie überflüssig wären, wenn Anbieter und Nachfrager sich direkt treffen würden. Deshalb sind sie strukturell gezwungen, die von den Usern produzierten Datenflüsse zu kontrollieren und die Kommunikationen mit sog. Lock-in-Strategien zu oligopolisieren. Plattformen schieben sich im Zuge spezifischer Konkurrenzmechanismen oft mit Billigangeboten zwischen die Produzenten und die Kunden und über die entsprechenden Netzwerkeffekte kann es zu massiven Oligopolisierungen kommen. Alle Plattformen behalten sich vor, jederzeit die Strukturen ihres Geschäfts zu verändern.

Man kann eine grobe Gliederung der Plattformen vornehmen. Unternehmen wie Alibaba und Amazon greifen von zwei Seiten auf die User zu. Zum einen monetarisieren sie deren Daten und Nachfrage, zum anderen werben sie mit dem Verkauf für ihre Produkte und Dienstleistungen. Es gibt des Weiteren Plattformen, die sich hauptsächlich durch Werbung finanzieren (Google, Facebook), indem sie die Informationen und Daten von Usern extrahieren, um diese zu analysieren und die Resultate zu nutzen, um Plätze für Werbung anzubieten.

Weiter spricht man von Cloud-Plattformen (AWS, Salesforce), die sich als Eigentümer der Hardware und Software von digitalen Geschäften ausweisen und diese vermieten, wenn Nachfrage besteht. Ein weiterer Typ sind die industriellen Plattformen (GE, Siemens), die Hardware und Software herstellen, um traditionelle Produktionsprozesse in Prozesse, die auf dem Internet basieren, umzuwandeln und damit die Produktionskosten zu senken, i. e. Produkte in digitale Serviceleistungen umwandeln. Man spricht von Produktplattformen (Rolls Royce, Spotify), die Profite generieren, indem sie andere Plattformen benutzen, um ein Produkt in eine Serviceleistung umzuwandeln und dafür Renten oder Gebühren zu verlangen. Schließlich gibt es Plattformen (Uber, Airbnb), die fast ohne jedes Eigentum an Assets operieren.

Amazon, Apple und Facebook gehören von ihrer Marktkapitalisierung her zu den großen Unternehmen der Welt, wobei sie eine Distanz zu dem besitzen, was man gewöhnlich als produktive Sphäre der kapitalistischen Ökonomie, in der Waren und Dienstleistungen produziert werden, bezeichnet. Zumindest produziert Apple neben anderen Produkten auch Smartphones, obgleich seine »Produktion« eher ein Design einer Anzahl von Produkten ist, die andere Unternehmen herstellen und die Apple als Oligopolist in einer kaum kontrollierten Marktstruktur verkaufen kann, ganz zu schweigen von seinen umfassenden Tätigkeiten an den Finanzmärkten. Alibaba und Amazon befinden sich als Plattformen, die die Produkte andere Unternehmen verkaufen und dafür eine Gebühr beziehen, im E-Commerce Business. Auch Alibaba ist stark in Finanzgeschäfte involviert, während Amazon ein Big Player in den »cloud computing services« ist. Was diese stark expansiven Unternehmen außer Alibaba gemeinsam haben, das besteht darin, dass sie in den USA angesiedelt sind. Die Dominanz der USA als ein Territorium für diese Top-Unternehmen basiert auf einer großen und relativ wohlhabenden Bevölkerung, die einen Markt ermöglicht, in dem Start-ups immer noch zu Konzernen aufsteigen können, weil sehr reiche Individuen hohe Geldsummen in potenziell erfolgreiche Ideen investieren. Selbst heute noch kommen mehr als die Hälfte der Revenuen von Google/Alphabet aus den USA. Das ist ein Mechanismus, mit dem existierende Privilegien zukünftige Privilegien sichern.

In der »Share Economy« kontrollieren und steuern die digitalen Interfaces, die man heute Plattformen nennt, die Arbeit auf einem ganz neu strukturierten Arbeitsmarkt. So unterscheiden sich die Fahrer und Fahrradkuriere neuer Plattformen wie Uber und Wolt von den abhängigen Beschäftigten der traditionellen Unternehmen dadurch, dass sie selbst eine Dienstleistung anbieten, wobei die Mittel, um die Dienstleistung, die eine App der Plattform ihnen vermittelt, auszuführen, selbst aufzubringen sind, seien es das Auto oder das Fahrrad und auf jeden Fall das Smartphone. Was also während der Ausführung der Dienstleistung verschlissen wird, ist das Eigentum der Fahrer und Kuriere. Dabei stehen die Fahrer, denen beispielsweise Uber ermöglicht, Fahrgäste aufzunehmen, unter strikter digitalisierter Kontrolle und sind auch räumlich dazu gezwungen, den Algorithmen der Plattform zu folgen. Die Routen, die sie fahren, werden nämlich durch das GPS-System diktiert, während ihre Effizienz, Verfügbarkeit sowie ihre Interaktion mit den Fahrgästen Gegenstand ständiger Bewertungen ist, die dann weiterhin bestimmen wie, wann und wo die Fahrer zum Einsatz kommen.

Dabei fungieren die Fahrer und Kuriere nicht als offiziell Beschäftigte, sondern sie sind gegenüber den Unternehmen der Plattformen private Vertragspartner. Weit davon entfernt eine Alternative zur prekären Arbeit anzubieten, oszillieren diejenigen, die den Service für die Kunden letztendlich bereitstellen, im Spannungsfeld zwischen den restriktiven Bedingungen der Lohnarbeit und dem Risiko der Selbstständigkeit. Damit sind die Anbieter von Dienstleistungen, welche die Angebote der Plattformen nutzen, zwar von den Repressionen der Lohnarbeit, aber auch von den mit ihr einhergehenden sozialen Garantien befreit (weil die Plattformen oft keine Sozialabgaben zahlen). Solchermaßen scheinen sie das Epitom neoliberaler Subjekte darzustellen. Zumindest verschwindet die persönliche Abhängigkeit von einem Chef, der einem Arbeitsalltag mit allerhand Befehlen versüßt, denn mit den Organisatoren der Plattform haben die Fahrer nämlich wenig zu tun, selbst im Notfall ist es kaum unmöglich, mit ihnen Kontakt aufzunehmen. Es ist also scheinbar den Fahrern selbst überlassen, wie sie ihren Arbeitsalltag gestalten, aber sie dürfen eben während der Arbeit niemals zu langsam werden und sie müssen unbedingt mit der Konkurrenz mithalten, und deshalb gilt es einfach komme was wolle in die Pedale zu treten.

Die Unternehmen stocken den Stundenlohn für die effektivsten ihrer Fahrer immer etwas auf, was aber nichts Anderes heißt, als dass durch die permanente Überwachung und die automatisierte Auswertung der Performance der Fahrer die Konkurrenz, der Vergleich und die Skalierung auf Dauer sichergestellt sind. So bemisst sich bei den selbstständigen Fahrern der Verdienst an der Anzahl der ausgefahrenen Lieferungen. Und das erhöht für gewöhnlich auch die Risikofreude während des Fahrens und damit wie nebenbei auch noch die Nachfrage der Fahrer nach den Leistungen der Unfallversicherung; die ansteigenden Versicherungsprämien reflektieren den Mut zum Risiko, was wiederum die Leistung der Fahrer beflügelt, denn auch das Geld für die Unfallversicherung muss von ihnen verdient werden. Wenn in einer Schicht keine Bestellungen eingehen, bekommen die Fahrer zwar keinen Lohn, aber ihre Arbeitszeit verwandelt sich dafür bruchlos in freie Zeit. Weil die Kuriere aber mit dieser freien Zeit überhaupt nichts anfangen können und auch nicht wollen – wer will sich schon durch den lähmenden Zeitbrei des Alltags fressen -, sind folgerichtig nicht nur die wirklich stressigen Schichten bei den selbstständigen Fahrern die beliebtesten, sondern diese verlangen andauernd auch noch nach neuen Schichten. So sorgen die Fahrer in der Regel ganz zuverlässig für die sogenannte Markträumung und melden darüber hinaus aufgrund eigener fehlender finanzieller Mittel andauernd weiteren Bedarf nach weiteren Arbeitsschichten an und steigern damit die Nachfrage nach den Kurier-Arbeitsplätzen, weswegen der Algorithmus mit jedem Update die finanziellen Bedingungen für seine Nachfrager weiter verschlechtern kann, was nun aber keineswegs dazu führt, dass die Nachfrage spürbar nachlässt.

Für viele Theoretiker sind die großen Plattformen nichts weiter als die Assemblage kommerzieller Verträge zwischen einer »principal authority«, die im Namen des Unternehmens Verträge abschließt, und einer Multiplizität von Agenten, die selbstständig für die Unternehmen Dienstleistungen bereitstellen. Die Plattformen multiplizieren somit Partnerschaften, die auf rein kommerziellen Begegnungen basieren und aufgrund derer für Dritte Serviceleistungen ohne geregelte Arbeitsverträge und Lohnarbeiter angeboten werden. (Nach wie vor ist es aber einer Reihe von Unternehmen in verschiedenen Branchen kaum möglich, ohne die Einstellung von Lohnarbeitern zu produzieren.) Schließlich sind die Beschäftigten aber nicht nur von ihrer eigenen geleisteten Arbeit, sondern auch von ihrer Einbindung in soziale Netzwerke abhängig, die durch Ratings und Rankings und andere Ordnungsverfahren strukturiert sind, und das heißt auch, dass die Ausbeutung ihrer Arbeitsressourcen und ihr Risikomanagement letztendlich von Bewertungen abhängen, die durch positive Ratings begünstigt werden und deren Akkumulation unbedingt gelingen muss. So bedarf die eigene Arbeitsleistung sowie die Anpreisung der Skills im Zuge der Selbstvermarktung andauernd der positiven Bewertung und der Anerkennung durch die Kunden, die sich in Scores, Likes, Freunden und Followers manifestiert, und diese Bewertungen zu optimieren, ist eine wichtige Aufgabe, die es für einen Fahrer zu erledigen gilt. De Akkumulation des »reputational capitals« muss unbedingt einen effizienten Kreditscore zur Folge haben, um zudem auch das Vertrauen von Banken und Versicherungen zu erlangen. Die Nachhaltigkeit der Operationen der Serviceanbieter hängt damit wesentlich stärker von der Zustimmung der Kreditgeber und Sponsoren ab, als von dem von neoliberalen Ideologen in den Vordergrund gestellten Unternehmerethos oder dem zu steigernden Preis des Humankapitals, wobei die Sponsoren meistens finanzielle Spekulanten sind, die für die Extraktion und die Prognosen bestimmter Ressourcen und Rohstoffe (in diesem Fall die Verhaltensweisen von Usern) auf digitalen Maschinen beruhende Produktionsmittel einsetzen, die der gewinnbringenden Verhaltensmodifikation der Kunden dienen, welche wiederum ohne die totale Kontrolle der Fahrer nicht zu erlangen ist.

Auf den Webpages der Plattformen weisen die Plattformen ihren Serviceleistenden ein spezifisches Set von kontinuierlich zu bewertenden Assets zu, welche die Beschäftigten als Teil ihres »reputational capitals« kombinieren, verschieben und managen müssen. Dabei sehen manche Theoretiker im Management des »reputational capitals« schon die Hauptressource, welche die fahrenden Akteure zu kultivieren haben, um in der Hierarchie des Unternehmens aufsteigen oder schlichtweg überleben zu können. Am Ende werden Dienstleistende, wie Fahrer oder Kuriere, schließlich selbst eine Facebook-Hyperpage führen müssen, auf der die verschiedenen Empfehlungen von Freunden, Mentoren, Kreditgebern, Sponsoren, Kunden und Serviceprovidern dokumentiert sind. Diese offenen, durch Algorithmen designten Profil-Portfolios, ermöglichen es erst, die Attraktivität und Vertrauenswürdigkeit einer Person darzustellen, ihren reputationalen Wert zu bestimmen und damit ihre Fähigkeit für eine Arbeit, eine Kreditlinie oder eine Partnerschaft auszuweisen. Offensichtlich müssen die privaten Asset-Manager nun selbst auf ihr eigenes »reputational capital« spekulieren oder sie müssen den Spekulationen anderer folgen.


[1] Die darin involvierten Prozesse sind laut Bernard Stiegler solche der »Grammatization«. (Stiegler 2016: 19) Im digitalen Stadium führen diese dazu, dass die Individuen durch eine Welt geführt werden, in der ihr Verhalten grammatikalisiert ist, wenn sie mit Computersystemen interagieren, die in Real Time operieren. Die Grammatization beginnt für Stiegler allerdings schon mit den Höhlenmalereien und führt über die Medien Keilschrift, Fotografie, Film und Fernsehen schließlich zum Computer, zum Internet und zum Smartphone. Ergebnis all dessen ist, dass die Datenpfade und -spuren, die mit den heutigen Technologien der Computerisierung erzeugt werden, ternäre aufmerksamkeitsreduzierende Retentionen bzw. Mnemotechniken konstituieren, die spezifische Zeitverfahren und Individuationsprozesse inkludieren, das heißt «Industrialisierungsprozesse des Gedächtnisses« bzw. eine »politische und industrielle Ökonomie, die auf der industriellen Ausbeutung von Bewusstseinszeiten beruht«. (Ebd.: 160f.) Mit der Digitalisierung der Datenwege und -prozesse, die heute mittels Sensoren, Interfaces und anderen Mitteln aufdringlich funktionieren und grundsätzlich als binäre Zahlen und kalkulierbare Daten generiert werden, wird Stiegler zufolge ein automatisierter Gesellschaftskörper geschaffen, in dem selbst noch das menschliche Leben in einen Agenten der hyper-industriellen Ökonomie des Kapitals transformiert wird. Deleuze hat diese Entwicklung in seinem berühmten Essay zu den Kontrollgesellschaften schon vorausgesehen, aber zur vollen Tragkraft kommen die Kontrollformen erst, wenn die digitale Kalkulation die von Deleuze festgestellten Modulationen der Kontrolltechniken in eine algorithmische Governance integriert, die zudem die Automatisierung sämtlicher Existenzen, Lebensweisen und Kognitionen inkludiert

[2] Die neuen automatischen Systeme modellieren das Soziale in Realtime, kontextualisieren und personalisieren die sozialen Interaktionen, sei es nun im Gesundheitswesen, im Business oder in der Administration. Die neue algorithmische Governance umfasst Technologien mit territorialen und räumlichen Dimensionen, welche beispielsweise in den Programmen der »Smart und Sensored Cities« Anwendung finden. Mit Googles Street View macht Google aus dem öffentlichen Raum einen unpersönlichen Raum des Spektakels, verwandelt ihn in eine lebende Tourismusbroschüre, einzig und allein mit dem Ziel der Überwachung und der Extraktion der Daten von Nutzern (Zuboff 2018: 169), sodass letztendlich sogar von einer Enteignung der Wege und des Raums gesprochen werden kann, gerade indem es Google über die Exploitation der Online-Datenquellen hinaus gelingt, das Monitoring der realen Welt immer umfassender flächendeckend vorzunehmen, wenn die Leute eben entlang bestimmter Wege permanent getrackt und über Verhaltensmodifikationsmaschinen gleichzeitig noch zu bestimmten Zielorten gesteuert werden. Diese smarten Instrumente basieren auf »automatic computing« und »ambient computing«, das heißt auf Technologien, deren Unsichtbarkeit die Dividuen noch aktiver und effizienter macht, weil sich diese Technologien unbemerkt und zugleich doch anspornend und das Verhalten verstärkend in die Fabrik des Lebens einweben, bis sie von dieser ununterscheidbar sind. Die algorithmische Governance fokussiert ganz auf Relationen, auf Relationen von Relationen, die wiederum auf Korrelationen reduziert werden, denn die Modelle der künstlichen neuronalen Netze ermitteln insbesondere Korrelationen und Muster, niemals aber Ursachen oder die Erklärung von Kausalitäten; sie dienen der Klassifizierung, der Bündelung und der Optimierung des Verhaltens. Sie beruhen auf stochastischen Random-Walk-Modellen oder Sequenzgeneratoren.

Die Soziologen Berns und Rouvroy zeigen in ihrem Essay zur algorithmischen Governance, dass die Größe, die Geschwindigkeit und die Performativität der Algorithmen – Elemente, die sich auf die relationale Datenbearbeitung beziehen – die Kapazitäten humaner Entscheidung weit übersteigen. Sie beschreiben diese Governance, die durch technologische Performativität gekennzeichnet ist, als eine bestimmte Art von (a)normativer oder (a)politischer Rationalität, die auf der automatisierten Sammlung, Aggregation und Analyse von Big Data beruht, um mögliche Verhaltensweisen zu modellieren, zu antizipieren und präventiv zu beeinflussen. (Berns/ Rouvroy 2013: 177f.) Google kann mühelos voraussagen, dass jemand vermutlich in Kürze einen Anzug kaufen will, und wenn dieser jemand sich in der Nähe eines Schaufensters befindet, hinter dem Anzüge ausgestellt sind, dann ploppt auf dem Handy eine Werbeanzeige auf, die den Kauf eines ausgestellten Anzugs anempfehlt. Das Leben selbst wird immersiv in die Datenproduktion eingebunden, in eine pulsierende Glut von Informationen, aber darüber hinaus sind wir selbst Daten geworden, die in Relation zu Maschinen stehen, die unser Leben einfangen, vereinnahmen und prozessieren, als ob wir selbst Teile seien, die moduliert und für Maschinenintelligenzen bereitgehalten werden. All dies man muss nicht mehr ausdrücklich betonen, denn es ist Teil des Habitus, durch den die Subjekte selbst maschinisiert werden, wenn sie streamen, updaten, einfangen, teilen, verlinken, verifizieren, mappen, sichern, trollen und Trash produzieren, selbst wenn es die höchste Langeweile hervorbringt.

Die Investitionen, die das Dividuum betreffen, erstrecken sich heute bis in die genetische Manipulation hinein. Neurotransmitter, Organe, biologische Komponenten und somatische Identitäten sind zum Tausch freigegeben. Zu erwähnen sind zudem die militärische Umsetzung der Robotik und die Künstliche-Intelligenz-Forschung, der Prozess einer zweiten evolutionären Epoche durch die Artificial-Life-Forschung und eben der von Baudrillard benannte technische Zugriff auf die genetische Grundlage des menschlichen Körpers durch die Molekularbiologie. Eine rasante Ekstase der Risikoproduktion setzt ein. Thomas Metzinger spricht ganz im Sinne von Baudrillard von einer vielschichtigen Eigendynamik dieser Prozesse, die weitgehend unreflektiert und politisch ungesteuert verlaufen. (Metzinger 2023) Deshalb ist gerade auch heute, weil man weiß, dass das Gehirn extim für das Selbst ist, mitzudenken, was ein neuronales Korrelat des Bewusstseins bedeutet. Metzinger führt hier zum Beispiel das Problem der kosmetischen Psychopharmakologie in Form des Dauergebrauchs geeigneter Stimmungsaufheller an. Generell ist mit Bifo Berardi, Metzinger und Baudrillard davon auszugehen, dass das Gehirn des Menschen heute in einem Fluss von medialen Komplexen aus Radio, Fernsehen und Internet treibt; es handelt sich um Systeme und ihre Umwelten, die sich durch immense Eigendynamiken, stetiges Wachstum und steigende Übertragungsgeschwindigkeiten auszeichnen. Während Metzinger hier von einem Dschungel spricht, für den unser Gehirn nicht geschaffen worden ist, nennt Baudrillard dies die Ekstase der Simulation. Und hinzu kommt eben, dass die technischen Systeme nun damit beginnen, die menschlichen Gehirne zu rekonfigurieren.

Es artet in eine umfängliche Begeisterung für die Freiheit aus, wenn der Körper andauernd in Bezug auf das Monetäre filetiert wird. Selbst noch der Körper mutiert also zur gewinnbringenden Firma, man denke an Implantate, Transplantationen und chirurgische Eingriffe, und man tätigt mit ihm Verkäufe, seien es Organe, Blut oder Keimzellen. »Self-Tracking« – die Extraktion, Sammlung, Zählung und Auswertung von Daten über alle nur denkbaren Merkmale und Funktionen des eigenen Körpers durch unterschiedliche Apps und Verfahren – beschreibt eine neuartige Form der Optimierung des eigenen Selbst. Solche Apps und Technologien können alle möglichen Daten automatisch aufzeichnen, katalogisieren und danach grafisch darstellen.

[3] Das Problem, das der Staat und klassische Massenmedien mit dem Internet haben, besteht darin, dass sie mit ihren eigenen Enthemmungsüberbietungen in Konkurrenz zu einer wilden, enthemmten Hyperrealität geraten, der sie per se unterlegen sind. Jetzt verliert der Staat, der stets im Begriff ist, übergriffig zu werden (in dieser dunklen Zone arbeitet die Polizei), das erste Mal sein Monopol. Das Internet bietet nämlich strukturell enthemmte Kommunikation an, es setzt keine Haltepunkte und es ist schlichtweg unmöglich (trotz algorithmischer Machtverfasstheit) seine Eskalationsorgien zu kontrollieren. Man kann es nur abschalten, was dann im Not-Fall auch passiert.

[4] Ein Unternehmen wie Google muss schon bei der Sammlung von Daten, die das Verhalten der Nutzer spiegeln und die zudem dem Tracken von Verhaltensüberschüssen (die Datenabgase bei Google) dienen, bestimmte Größenordnungen der Diversifikationsressourcen erlangen, um die Daten mittels seiner Maschinenintelligenzen effektiv in Vorhersageprodukte umwandeln und zielgerichtet an Werbekunden verkaufen zu können. Die Produkte gehen wie »Wärmesuchraketen« (Zuboff) auf den Nutzer los, um ihm beispielsweise bei einem Puls von 78 genau das richtige Fitnessprodukt via eingeblendete Werbung vorzuschlagen. So muss man mit steigender Diversifikation zum einen eine breite Auffächerung von überwachbaren Themen in der virtuellen Welt erzielen, zum anderen müssen die Extraktionsoperationen aus dem Netz in die reale Welt verlagert werden. Darüber hinaus müssen die algorithmischen Operationen an Tiefe gewinnen, das heißt, sie müssen auf die Intimität der Nutzer zielen, um steuernd und formierend in deren Verhalten einzugreifen, indem die Unternehmen beispielsweise zeit- und zielgerecht Pay-Buttons auf dem Smartphone einblenden oder einen Wagen automatisch sperren, wenn der Betroffene bestimmte Versicherungsbeträge nicht rechtzeitig bezahlt hat.

Der Daten-Fundus, aus dem die Analytiker des Tech-Kapitals mittlerweile schöpfen können, geht ins Unendliche. Man weiß genau, wer wie oft bei Unternehmen reklamiert, bei Hotlines anruft oder in Online-Portalen sich über ein Unternehmen beklagt. Man kennt die Lieblingsgeschäfte, die Lieblingsrestaurants und -kneipen vieler Verbraucher, die Zahl ihrer »Freunde« bei Facebook, den Urheber von Anzeigen, die Social-Media-Nutzer angeklickt haben. Man kennt die Hautfarbe, das Geschlecht, die finanzielle Lage eines Menschen, seine körperlichen Erkrankungen und seelischen Beschwerden.

[5] Auch Amazon gab allein im Jahr 2020 42,7 Milliarden Dollar für Forschung und Entwicklung aus und beschäftigte weltweit über eine Million Menschen. (Morozov 2022) In den USA beschäftigt das Unternehmen mehr Menschen als die gesamte Wohnungsbauindustrie. Morozov fragt, ob die Tech-Kapitalisten wirklich außerhalb der Produktion stehen, wenn sie hohe Geldsummen für Forschung und Entwicklung aufwenden. Noch aufschlussreicher ist, dass eine genaue Analyse der Bilanzen von Google, Amazon und Facebook zeigt, dass sie weniger immaterielle Vermögenswerte besitzen als andere große Unternehmen – tatsächlich besitzen sie heute weniger immaterielle Vermögenswerte als noch vor zehn bis fünfzehn Jahren.

[6] Das Verhaltensüberschuss-Modell und die Metaphern, die es kennzeichnen sollen, wobei die Daten als fließend, kaskadierend und überlaufend beschrieben werden, ignoriert zum Teil auch die Produktion von billigen Daten, die oft genug durch konzentrierte, aber zugleich billige und ermüdende Arbeit gekennzeichnet ist. Wenn die User tausende Bilder von Gesichtern freiwillig uploaden, die dann von den Eigentümern der Plattformen benutzt werden, dann brauchen diese Bilder oft genug ein zusätzliches tagging oder eine Kategorisierung, um für kommerzielle Zwecke brauchbar zu sein, denn die Bilder beschreiben sich nicht von selbst. Hier kommt die billige Arbeit ins Spiel. Die digitale Akkordarbeit von Arbeitern wie die, die bei Amazon’s Mechanical Turk angestellt sind, ist essenziell, um billige Datensammlungen herzustellen, die viele KI-Systeme und Forschungsprojekte benötigen. ImageNet, die wichtigste Datenbank von Bildern, bei der »visual object recognition software development« benutzt wird, basiert auf der Arbeit der MTurk Arbeiter, die Tag für Tag Millionen Bilder sortieren und taggen, um sie zu Datensets zusammenzuführen, die von der militärischen Forschung oder Unternehmen wie IBM, Alibaba, and Sensetime benutzt werden, wobei die beiden letzteren Unternehmen damit die Technologie zur Verfügung stellen, die die chinesische Regierung benutzt, um beispielsweise die minoritäre Bevölkerung der Uighur zu kontrollieren. Neue Untersuchungen haben den Stress und Horror von Arbeitern, die in digitalen Fabriken beschäftigt sind, hervorgehoben, wenn sie beispielsweise Bilder von den Verbrechen der ISIS aussortieren oder tagelang soziale Plattformen nach hate speech und Gewaltvideos scannen müssen. Wie alle billigen Dinge beruhen billige Daten auf massiven Externalitäten, um nach Möglichkeit das Risiko zu schmälern oder es auf andere Leute und Naturen abzuwälzen, während die Profite in die entgegengesetzte Richtung fließen.

Die mentale Beschädigung von Arbeitern ist aber nur eine der Externalitäten, die mit der Jagd nach billigen Daten entstehen. Die billige Energie, die für das Trainieren von KI-Modellen und den massiven Transfer von großen Datenmengen zur und von der Cloud benötigt wird, ist weniger sichtbar als die ausgebeuteten Arbeiter, aber die kumulativen Effekte sind enorm. Untersuchungen schätzen, dass die Energie, die gebraucht wird, um eine einziges KI-Modell zu trainieren den fünffachen CO2 Ausstoß hat wie die Abgaben eines durchschnittlichen Autos während dessen Lebenszeit. Die Hardware, die benötigt wird, um all diese Modelle zu handhaben und die Daten zu sammeln, benötigt eine hohe Menge von wertvollen Metallen und Plastik. Billige Natur wird benötigt, wenn sie von billiger Arbeit extrahiert wird, um die fiber optic cables und Computer herzustellen, welche Daten sammeln und verbinden. (Moore 2015)

Nach oben scrollen