Jenseits der “Kontrollgesellschaften”

Radikale Indifferenz

Die Verhaltens- und Rezeptionsweisen der Massen bestehen heute zumeist aus repetitiven Gewohnheiten, wobei sie als User im Internet aber keineswegs passiv bleiben, sondern sich über die sozialen Netzwerke andauernd ins pseudo-turbulente Geschehen einbringen, um emsig und beschäftigungskonform, zuweilen auch rassistisch Daten und Informationen zu produzieren, welche die großen Medienkonzerne wie Google, Apple oder Facebook extrahieren, quantifizieren und aus- und verwerten. Es ist dabei eine neue Akkumulationslogik entstanden, innerhalb derer das Überwachungskapital Daten über menschliches Verhalten inklusive scheinbar nutzloser Überschüsse von Daten (Fehler, Syntax, Zeichen etc.) extrahiert, das heißt Daten und Fehler aufsaugt und diese ständig mit anderen Daten kombiniert, um mit ihnen intelligente Maschinen zu füttern, die mittels algorithmischer Prozesse Vorhersagen über das künftige Verhalten der User produzieren, Vorhersagen, die als Quasi-Derivate dann auf Verhaltensterminkontraktmärkten angeboten und verkauft werden. (Zuboff 2018: 125) Dabei extrahiert das Überwachungskapital einen Vorhersagewert nicht allein aus dem Inhalt, den ein User postet, sondern auch aus den Ausrufezeichen und Kommas, die er setzt oder nicht setzt, oder, um es anders zu sagen, nicht daraus, wohin jemand geht, sondern wie jemand geht. Die Nutzer mögen die Eigentümer derjenigen Daten bleiben, die sie den Überwachungskapitalisten geben, aber sie bekommen keinen Zugriff auf das Surplus der Daten. Mit den Daten verflüchtigt sich der spezifische Inhalt der Posts, ja die Aussagen mutieren zum austauschbaren und zugleich zum verwertbaren Material. Der Konsument muss zugleich animiert werden, innerhalb des 24/7-Taktes irgendwie am Ball zu bleiben, indem er selbst viele Daten produziert, postet und gepostetes Material kommentiert, liked, tauscht und archiviert, sodass die Überwachungskapitalisten ihn leicht als ein lebende Datengenerierungsmaschine permanent ansaugen und verwerten können. Es herrscht bei Facebook bezüglich der jeweiligen Bedeutungen und Inhalte der Posts eine radikale Indifferenz, die dazu führt, dass der »Content ausschließlich nach Volumen, Diversität und Tiefe des anfallenden Überschusses« (ebd.: 578) beurteilt, quantifiziert und bewertet wird, und zwar anhand der anonymen Maße der »Klicks, Likes und Verweildauern – und das trotz der offensichtlichen Tatsache, dass er (Überschuss) seine zutiefst unterschiedlichen Bedeutungen aus zutiefst unterschiedlichen menschlichen Situationen bezieht« (ebd.: 438).

Die radikale Indifferenz des Überwachungskapitals gegenüber den Inhalten der Posts erfordert von der subjektiven Seite der User gesehen eine Steigerung der organischen Zusammensetzung der Ignoranz (außer der Liebe für sich selbst), die aber beileibe kein individuelles Manko, sondern schlichte Konsequenz der algorithmischen Governance ist, und diese Ignoranz ist wiederum die Voraussetzung dafür, dass das Überwachungskapital so ohne Weiteres ein spezifisches Spekulationskapital handeln kann, das im Modus der Gleichzeitigkeit Ungewissheiten in Risiken transformiert und diese dann auch ständig aktualisiert und bewertet. Der Modus der Aktualisierung darf hier aber keineswegs als der des Virtuellen, wie dies Deleuze vorführt, verstanden werden, vielmehr ist er identisch mit der Momenthaftigkeit, die nun auf Dauer gestellt wird, sodass es eben allein drauf ankommt, was im Jetzt der Gegenwart gerade aktuell ist und was in den Medien zählt.1

Damit hat sich in der Medienwelt auch das Verhältnis von Differenz und Konsolidierung/Standardisierung verschoben. Wir halten uns bei unseren Analysen vielleicht immer noch zu stark an die Versität (Gleichmachung), eine Inversion und Mutation der Diversität, die aber nicht die Eliminierung von Differenz bzw. der sozial-kulturellen Differenzierung inkludiert, ganz im Gegenteil benutzt die Versität die Differenz als ihr reales Substrat, um standardisierte Organisationssysteme zu generieren. Ständig werden damit neue Ordnungssysteme und Machttechnologien geschaffen, welche die Differenzen absorbieren oder zumindest modulieren. Dagegen kommt es bei der Operationalisierung der radikalen Indifferenz zu keiner Modulation und Konsolidierung der Differenzen mehr, vielmehr gelten sämtliche Differenzen, die die unterschiedlichsten Inhalte betreffen, als äquivalent und damit neutralisiert man den Inhalt bzw. die Bedeutung. Diese Art der rigiden Formatierung geht auf ein finanzialisiertes Akkumulationsregime zurück, dessen erster Anspruch nicht mehr Fortschritt oder Entwicklung ist, sondern das in seiner Kurzfristigkeit bzw. in jeder Sekunde das erfolgreiche Management von ständig präsenten Risikomöglichkeiten versprechen muss, egal auf welche Basiswerte die Versicherungen sich denn nun beziehen.2 Dabei kann eben alles und jedes, jedes Ereignis, jeder Inhalt und jede Bedeutung zum Risiko transformiert werden. Analog dazu sind die Inhalte, die sich auf den sozialen Plattformen in Bildern, Videos und Texten materialisieren, der handelbare Rohstoff, den das Überwachungskapital als Daten extrahiert. Es handelt sich hier um einen Überschuss insofern, als auch Daten extrahiert werden, die weit über das hinausgehen, was als Informationsdienst für den Nutzer eigentlich notwendig wäre, aber eben für das Überwachungskapital doch eine Ressource darstellt, die es zu kapitalisieren gilt. Es gelten nun letztendlich alle Differenzen (der Inhalte) als äquivalent, oder, um es anders zu sagen, jede spezifische Bedeutung löst sich im Datenstrom auf, sodass eine radikale Indifferenz herrscht. Differenz istgleich Indifferenz, so lautet nun die magische Formel. Diese Art der die Inhalte neutralisierenden Äquivalenz macht zumindest den sichtbaren, den fließenden Text bei Facebook generell auch anfällig für alle Arten von Fake News, was von den Überwachungskapitalisten, solange keine Einwände von seiten der Politik kommen, meistens hingenommen wird, da schließlich jeder Inhalt für den unsichtbaren Schattentext bzw. die Black Box der Algorithmen als Daten-Rohstoff zählt, den die »Maschinenintelligenz« dann operationalisiert, damit das Überwachungskapital an den Verhaltensderivatmärkten den Werbekunden punktgenaue Vorhersageprodukte anzubieten vermag. Diese Art der Extraktion und Produktion von Daten bzw. Verhaltensüberschüssen erfordert ein Projekt, das weit über die Transformation der Unsicherheit in ein kalkulierbares Risiko hinaus auch unbedingt Gewissheiten herstellen muss, das heißt genaue Formen des Verhaltens von Nutzern nicht nur antizipieren muss, sondern die Nutzer tatsächlich auch zu den vom Überwachungskapital gewünschten Verhaltensweisen motivieren und steuern will.

Dem postfaktischen Zeitalter ist die unaufhörliche Generierung und Interpretation von Daten und Informationen (und ihren Bedeutungen) immanent, was allerdings längst nicht dazu führt, dass die Bedeutung an sich verschwindet. Die Verflüssigung der Bedeutung im endlosen Datenbrei in Folge der permanenten Suche nach Mustern und Korrelationen in den produzierten Datenmengen heißt nicht, wie etwa von Baudrillard mit seiner Simulationstheorie angenommen, dass die Zeichen lediglich noch im Als-Ob zirkulieren, sondern dass die Extraktion von »Bedeutung an sich« immer intensiver um sich greift, gerade aufgrund des Faktums, dass nach wie vor be- und gedeutet werden muss, unabhängig davon, was nun im Einzelnen bedeutet wird. Dies liegt in der letzten Instanz in der auf die Zukunft ausgerichteten Kapitalisierung, die sowohl das Geld als auch die Bits in ihrer Austauschbarkeit als auch eine auf die Zukunft kalkulierende Vermehrung des Kapitals umfasst, einzig zu dem Zweck, alles und jedes als Finanzanlage oder Derivat zu inszenieren, das, unabhängig von der jeweiligen Bestimmtheit eines Basiswerts, auf den sich das Derivat jeweils bezieht, nichts außer Rendite erwirtschaften soll.

Bezüglich der Austauschbarkeit von Bits erweist sich der Computer als ein Zeichentransformator, der reine Information prozessiert, aber nicht ohne Inhalt, sondern mit beliebigem und austauschbarem Inhalt. So wie Geld gegen Ware austauschbar sein muss, gleichgültig, gegen welche, so müssen Bits etwas bedeuten, gleichgültig, was sie bedeuten. Geld und Bits indizieren Kommunikation eben ausschließlich unter dem Aspekt der Negation einer spezifischen Bedeutung.3 Oder, um es anders zu sagen, unter Ausschluss jeder Bedeutung, außer der, dass unaufhörlich bedeutet werden muss, sodass Dassheit und die durchkreuzte Perspektive des Sinns hier eindeutig in den Vordergrund tritt.4 Es kommt deshalb gerade auch bei der gegenwärtigen Dateninvasion zu keinem generellen Bedeutungsverlust, sondern zu einer Bedeutungsüberproduktion, die der durch das Kapital gesetzten Gleichgültigkeit jeder spezifischen Bedeutung gegenüber komplementär ist, aber es muss ja nach wie vor bedeutet werden, ansonsten fiele das System auseinander.5 Diese Art der Bedeutungsüberproduktion macht den wirklichen Verlust an Bedeutung und der Wahrheit aus. Betancourt fasst diese Zusammenhänge als Agnotologie zusammen. Er schreibt: »Das Problem der informationsreichen Gesellschaft besteht nicht im Zugriff auf Information – auf Information zuzugreifen, wird zu einer alltäglichen Angelegenheit durch die ständig aktivierten Computernetzwerke –, sondern ist eine Frage der Kohärenz. Die Agnotologie wirkt in der Erzeugung von Dekohärenz: Sie unterminiert die Fähigkeit, festzustellen, welche Information wahrheitsgemäß und für die Konstruktion von Interpretationen zulässig ist.« (211) »Agnotologie hat die Funktion der Eliminierung des Widerspruchspotenzials.« (234) Als korrekte Bezeichnung für die Konstitution dieses Datenimperiums schlägt Betancourt »agnotologischer Kapitalismus« vor: »ein Kapitalismus, der systematisch auf der Produktion und Erhaltung von Unwissenheit basiert.« (233) Unwissenheit ist also weniger die Folge mangelnder Information, sondern im Gegenteil, Resultat des Überflusses von Information.

So zeichnet sich heute das kreative Vermögen der Hightech-Paranoia weniger durch einen Mangel an Orientierungswissen als durch die Überproduktion von Bedeutung aus, die aus dem Spiel resultiert, dass es überhaupt Bedeutung gibt. Wenn somit Bedeutungen in vielfach zirkulierenden artifiziellen Deutungsverfahren austauschbar werden, woraus die Kämpfe um die Deutungen erst entstehen, dann folgt quasi zwangsläufig eine wahnwitzige Suche nach der Bedeutung. Während das Kapital durchaus mit dieser Art des Bedeutungsverlusts durch die Überproduktion von äquivalenten Bedeutungen leben kann, so ist das für den Staat nicht ohne Weiteres möglich, denn mit ihm ist die Äquivalenz aller Bedeutungen in Frage gestellt, wenn er sich denn als der Standpunkt aller Standpunkte ausweisen will.

Man könnte mit Lacan sagen, dass der ungefilterte Datenstrom der Bereich des Realen ist, während Informationen und Metadaten die Realität wiedergeben, eine durch kognitive Filter und technologische Infrastrukturen intelligibel gemachte Welt, die selbst wiederum aus Registern des Imaginären und Symbolischen zusammengesetzt ist. Unentwegter Anfall von Daten, Informationen und Meinungen, die geradezu hysterisch, insbesondere in den sozialen Netzwerken, aufeinander reagieren, als gleich und als verschieden in jedem Moment, um vor allem Wahnaggregate und Illusionsabfälle jedweder Art zu erzeugen.

Man muss hier von einer Tendenz sprechen, erwirtschaftet doch Google & Alphabet einen Großteil ihres Umsatzes mit Werbung, die auf der Versteigerung und Vermietung von Suchbegriffen beruht, sodass sich sagen lässt, dass Daten zwar der Rohstoff der digitalen Ökonomie sind, aber sprachliche Bedeutungen damit nicht ganz verschwinden, sodass es auch zu einer systematische Kapitalisierung und Monetarisierung sprachlicher Bedeutungen kommen kann. Selbst im Finanzsektor ist man sich darüber einig, dass das Kapital sich nicht in Zahlen, Charts und Modellen erschöpft, die vor allem auf a-signifikanten Semiotiken basieren, sondern dass die Unternehmen semantisch und narrativ aufgeputzt werden müssen.

Zwar kann vor allem der Wert von Markenunternehmen nicht unabhängig von den materiellen Aktiva, der Geschäftspraxis, dem Produktportfolio und dem messbaren und dem erwarteten zukünftigen ökonomischen Erfolg festgelegt werden, aber gerade bei den Marken-Unternehmen spielen Symbolsysteme und Narrative nach wie vor eine Rolle für die Bestimmung des Börsenwerts. Während das Geld als Form des allgemeinen Äquivalents der Waren deren qualitativen Unterschiede nivelliert, versprechen Marken immer das Unvergleichliche und Singuläre, sie verwenden nicht nur Markierungen des Unterschieds, sondern ausdifferenzierte Zeichen- und Symbolsysteme. Hier besitzt das inkommensurable Bedeuten, das kein Äquivalent kennt, selbst noch Bedeutung. Die Marken haben die Aneignung symbolischen Kapitals sogar institutionalisiert, wobei es dem Einzelnen überlassen bleibt, ob er auf die Symbolwelten und das Zeichenrepertoire der Marken zurückgreifen möchte. Zudem ermöglicht es die algorithmische Operationalisierung des lexikalischen Materials, den Wert eines Wortes zu objektivieren, zu quantifizieren und zu monetarisieren. Die Begriffsbörsen übertragen die Mechanismen der Preisbildung auf die Sprache und ihr lexikalisches Material. Jedes Wort, jeder Begriff hat seinen Preis, der in einer digitalen Auktion ermittelt wird. Und dieser monetäre Wert bleibt wiederum insofern nicht ohne Einfluss auf die Wortwahl und den Sprachgebrauch, wobei herausragende Begriffe und Begriffskombinationen bevorzugt werden. Das Geld hat sich der Sprache bemächtigt, während die algorithmische Sprachproduktion gleichzeitig ein hohes Maß an kommunikativer Liquidität und Indifferenz erzeugt.

Quantifizierungsdispositiv

Traditionelle Werkzeuge der Disziplinierung und der Bewertung sind nicht notwendigerweise solche der Quantifizierung. Die neuen Techniken der Quantifizierung erfassen wesentlich mehr, als man sich überhaupt vorstellen kann. Sie sind keine Prothesen des menschlichen Bewusstseins, sondern inhärieren eine Transformation, die weit über die menschliche Perzeption hinausgeht. Während eine Kamera noch eine Vergrößerung für die existierende menschliche Beobachtung anbietet, so erlaubt es beispielsweise ein Fitness-Tracker sich mit der Welt in einer Art und Weise auseinanderzusetzen, welche die bisherigen Subjektivierungsweisen in Frage stellt. Dieser Tracker ist nicht ein Werkzeug für die menschliche Perzeption, sondern ein Instrument der Sensation, dessen Funktion es ist, Prozesse in schier unfassbaren Details zu beobachten, und zwar indem quantitative Daten generiert werden. Fitness-Tracker ersetzen nicht die menschliche Kognition, sondern performen sensorische Aktivitäten von Bewegungen (Schritte, Schlaf, Puls etc.) die bisher noch nicht beobachtet und nicht quantifiziert werden konnten. Sie eröffnen die Möglichkeit, etwas zu erfahren, das dem menschlichen Bewusstsein nicht direkt zugänglich ist. Als Werkzeuge der Sensation anstatt als solche der Perzeption und Evaluation, performen digitale Tracking-Technologien relativ banale Funktionen wie das Zählen, und das so viel wie nur möglich (Quantifizierung), wobei das Vergleichen nicht unbedingt stattfinden muss (Messung). Tragbare Self-Tracking-Technologien haben die Tendenz Aspekte des Humanen, die zählbar sind (Schritte, Inhalationen, Herzpuls etc. ), zu beobachten, und dies sogar in der Abwesenheit von Messungen. Wo diese Bewegungen quantifiziert werden, kann natürlich auch die Messung wieder eingeführt werden, und zwar als das Ziel oder als die Norm einer Anzahl von Schritten. Aber die primäre Aufgabe der Tracker besteht darin, zu zählen und nicht zu vergleichen. Wenn man sich auf die Frage des Pulses sowohl in somatischer als auch in metaphorischer Hinsicht konzentriert, dann kommt man zu dem Schluss, dass eine mögliche Krise der Messung nicht unbedingt eine Krise der Quantifizierung sein muss. Die Anforderungen der sensorischen Tools und der Daten-Analytics sind das, was Lefebvre »internal measures« vom Daten nennt, die ständig in Realtime akkumuliert werden. Dieses Maß existiert notwendigerweise in der Zeit, indem es auf einen Rhythmus rekurriert, der vom Körper oder einem sozialen Kontext ausgeht, wie etwa die Pulsrate. Eine gesunde Pulsrate ist eine, die in Sync mit einer Situation ist, aber auch in einer angemessenen und aufschlussreichen Weise in der Zeit variiert.

Die dem finanziellen Kapital adäquate Regierungsform umfasst heute unbedingt das Quantifizierungs-Dispositiv. Steffen Mau schreibt in seinem Buch Das Metrische Wir: »Die Forderung nach Transparenz bedeutet in ihrer übersteigerten und letztlich totalitären Form, dass jede und jeder von uns legitimerweise in allen Aspekten des Lebens dauerhaft überprüft, beobachtet, klassifiziert und bewertet wird.« (Mau 2017: 231) Die neue totalitäre Massenbewegung wäre demgemäß, wenn man es etwas überspitzt ausdrücken will, die sich permanent selbst zählende und bewertende und umfassend gezählte und bewertete Bevölkerung. Im Kontext der neoliberalen Gouvernementalität, die Foucault so eindringlich beschrieben hat, haben sich aufgrund der Digitalisierung der kapitalistischen Produktionsprozesse, der Staatsapparate und sämtlicher sozialen Institutionen weitreichende Quantifizierungsdispositive sowie Bewertungs-, Kalkulations- und Vergleichs-Dispositive entwickelt, die auf sich ständig modulierende Steigerungs- und Überbietungsverfahren bezüglich der Rentabilität, Effizienz, Leistung und Transparenz von Aktivitäten in allen möglichen sozialen Bereichen setzen und zu einer umfassenden Quantifizierung der ökonomischen, sozialen und politischen Körper führen, die die bisherigen Schichtungen, Klassenspaltungen und ihre symbolischen Distinktionsverfahren aufmischen, durchdringen und überlagern.

Und selbst noch die privatesten Bereiche der Bevölkerung sind heute in diese Quantifizierungsprozesse integriert, wobei man die Akteure als Daten, die wiederum in Zahlen transformiert werden, konstruiert und anschreibt. Diese Überwachungs- und Quantifizierungsprozesse treffen heute auf seltsam passiv-aktive Dividuen, passiv insofern, da sie durch Ranking- und Ratingverfahren ständig geteilt und damit als Dividuen, die konstitutiv für Tests und Stichproben sind, erzeugt werden, aktiv insofern, als sie vom Wunsch motiviert, unermüdlich Individualität simulieren und in diesem Kontext ihre aktive Bereitschaft zur freiwilligen Vergabe von Daten, zur Teilnahme an Rating- und Rankingverfahren und zum Casting tagtäglich demonstrieren. Derartige Teilnahmen sind dem Quantifizierungsdispositiv nicht nur einfach eigen, sondern sie intensivieren andauernd dessen Wirkungen, die nicht lediglich in den durch die Verfahren erzeugten Quantifizierungen und im numerischen Vergleich liegen, sondern zugleich die Konkurrenz zwischen den Bewerteten und Wertenden verstärken.

Im Rahmen der Implementierung des Quantifizierungsdispositivs kommt es also auch zu ständigen Kämpfen der Akteure um ihre Positionen; es kommt zu andauernden Aktionen, die der Verbesserung im Ranking dienen und die durch die kontinuierliche Messung in objektivierte Ordnungen, Hierarchien und Komplexen der Wertigkeit eingeschrieben sind. (Mau 2017: 49ff.) Dieses objektivierte Quantifizierungsdispostiv inkludiert vielfältige Verfahren der Zählung, Bewertung und der Integration, wodurch der Status der Objekte, der Phänomene, der Sachverhalte und der Akteure in die abstrakte Sprache der Zahlen übersetzt wird. In diesem mathematisierten Universum herrschen exakte, das heißt eineindeutige Quantifizierungs- und Ordnungsverhältnisse, innerhalb derer komparative Methoden, Differenzierungen und Skalierungen eine wichtige Rolle spielen. Und gerade deswegen umgibt das Quantifizierungdispositiv in der Öffentlichkeit eine Aura der Neutralität, der korrekten Nachprüfbarkeit und der Exaktheit und bietet damit eine brauchbare und angeblich ideologiefreie Repräsentation der sozio-ökonomischen Verhältnisse an, die, wenn sie von Maschinenintelligenzen prozessiert wird, von menschlichen Entscheidungen und Praktiken, ja selbst von den Machtverhältnissen entkoppelt zu sein scheint, man denke hier etwa an scheinbar objektive Kennziffern wie das Bruttoinlandsprodukt, Arbeitslosenquoten, Kennziffern zur staatlichen Verschuldung und viele weitere Parameter, die auf statistische Verfahren zurückgehen, aber wenn sie ins öffentliche Licht rücken, dennoch zu nicht unerheblichen Verwerfungen in den verschiedenen sozialen Bereichen führen können.

Mittels der kontinuierlichen Einschreibung verschiedener Indikatoren, Daten und Zahlen entfaltet sich das Quantifizierungsdispositiv, dessen Metriken, Bewertungen und Kalkulationen tief in die politischen, ökonomischen und sozialen Felder eindringen und diese durchdringen, strukturieren und regulieren, bis hin zu den verschiedenen Verfahren der Selbstoptimierung der Akteure. Es entsteht eine normalisierende und zugleich performative Ritualisierung all dieser Felder, das heißt eine sozial konstruierte Vermessung mittels der Syntax von Zahlen.

Die Wucherungsprozesse der allgegenwärtigen Quantifizierung lassen sich an Zahlen ablesen, so wird geschätzt, dass die Datenmengen im digitalen Raum in der Zeitperiode von 2005 bis 2020 um den Faktor 300 wachsen (Mau 2017: 41), wobei nicht nur die Produktion der Daten und ihrer Speicherkapazitäten ansteigt, sondern auch das Potenzial zur Herstellung von Verknüpfungen und Clusterbildungen der Daten bei ständiger Verbesserung der algorithmischen Verfahren sowie der Strategien und Prozesse des Big Data (Datenminining und -analyse). Es lässt sich leicht nachweisen, dass das Quantifizierungsdispostiv Teil einer expansiven Kapitalisierung auch von bisher der Profitlogik noch weitgehend entzogenen Bereichen ist, man denke an Bereiche wie Bildung, Verwaltung, Gesundheitswesen und kulturelle Einrichtungen wie Museen, die alle heute einer effizienten Allokation von Ressourcen unterstellt werden, indem man permanent Evaluationen, Tests und Prüfungsverfahren der in diese Einrichtungen integrierten Akteure installiert, die nun selbst einerseits in den Rankings ultravisualisiert und andererseits in den Wettbewerb hineingezwängt werden, der ständige Adaptionen verlangt, wobei die Akteure selbst auf lebende Daten reduziert sind, die vor den flimmernden Bildschirmen sitzend ihr Verhalten in die Computer tippen, wodurch man sie scheinbar nichtsahnend umfassend quantifizieren kann, während sie sich diesen Prozessen aber doch ganz bewusst aussetzen, wenn es um die Vorteile im Ranking und Rating gegenüber der Masse der Mitstreiter geht. Bis ins Feinste tritt die Problematik der Credit Points, der verschiedenen Programme der Evaluierung und der Optimierung ihr sanftes Regime an, wuchert bis in die letzten Ritzen der Büros und in die Unternehmenssituationen hinein, Macht wird fluidal, sie wird »gasförmig«, wie Deleuze sagt, sie organisiert sich in Netzwerken, in denen jeder Knotenpunkt potenziell die Information des Gesamtsystems enthält, sie wird mikrologisch oder gar nanotechnisch, sie gerät »inter-aktiv«, indem sie ein unausgesetztes Spiel von Aktion und Reaktion in Gang setzt, in dem am Ende die Akteure die Lücken und Poren der Fremdkontrolle durch Techniken der Selbstkontrolle stopfen. Dabei generieren der Staat und vor allem die privaten Vermessungsunternehmen permanent in Zahlen transformierte Anreizsysteme, um die Leistungs- und Aussagebereitschaft der Akteure weiter zu verstärken, wobei ganz geschmeidige algorithmische Schattentexte, die für die Nutzer nicht einsehbar sind, die Anpassungsprozesse begleiten, ja dirigieren.

Algorithmische Governance

Allseits bekannte Sachverhalte wie Satellitenüberwachung, enorme Rechnerkapazitäten auf Silizium Chips, Sensoren, Netzwerke und Predictive-Analytics sind heute Bestandteile der globalen digitalen Systeme, die das Leben und Verhalten der Bevölkerungen gegenwärtig umfassend quantifizieren, analysieren, bewerten und kapitalisieren. Dabei sieht sich beispielsweise Google unter dem Druck der Finanzmärkte gezwungen, die Effektivität seines Data-Trackings und seiner durch Maschinenintelligenz erzeugten Analysen ständig zu erhöhen und gerade deswegen jeden Anspruch der Nutzer auf den Schutz der eigenen Privatsphäre mit den vielfältigsten Mitteln zu bekämpfen. Dank einer Reihe von Geräten wie Laptops und Smartphones, Kameras und Sensoren sind heute Computer im kapitalisierten Alltag allgegenwärtig, es sind Zeichen lesende Maschinen, die Algorithmen (unbedingt berechenbare, formal-eindeutige Verfahrensanweisungen) ausführen und ihre volle Kraft erst im Kontext digitaler Medien der Vernetzung entfalten, wofür die programmgesteuerte Gestaltung, Transformation und Reproduktion sämtlicher Medienformate Voraussetzung ist. Insbesondere die sozialen Netzwerke ermöglichen in diesem Spiel eine Art von Ökonomie, die aufgrund die Extraktion von persönlichen Daten, die zur Konstruktion von Metadaten, Cookies, Tags und anderen Tracking-Technologien führt, eine eigenartig neue algorithmische Governance etabliert hat. Diese Entwicklung ist vor allem als »Big Data« bekannt geworden, ein System, das auf Vernetzung, Datenbanken und hohen Computerleistungen und -kapazitäten aufbaut.

Die darin involvierten Prozesse sind laut Bernard Stiegler solche der »Grammatization«. Im digitalen Stadium führen diese dazu, dass die Individuen durch eine Welt geführt werden, in der ihr Verhalten grammatikalisiert ist, wenn sie mit Computersystemen interagieren, die in Real Time operieren. Die Grammatization beginnt für Stiegler allerdings schon mit den Höhlenmalereien und führt über die Medien Keilschrift, Fotografie, Film und Fernsehen schließlich zum Computer, zum Internet und zum Smartphone. Ergebnis all dessen ist, dass die Datenpfade und -spuren, die mit den heutigen Technologien der Computerisierung erzeugt werden, ternäre aufmerksamkeitsreduzierende Retentionen bzw. Mnemotechniken konstituieren, die spezifische Zeitverfahren und Individuationsprozesse inkludieren, das heißt «Industrialisierungsprozesse des Gedächtnisses« bzw. eine »politische und industrielle Ökonomie, die auf der industriellen Ausbeutung von Bewusstseinszeiten beruht«. Mit der Digitalisierung der Datenwege und -prozesse, die heute mittels Sensoren, Interfaces und anderen Mitteln aufdringlich dringlich funktionieren und grundsätzlich als binäre Zahlen und kalkulierbare Daten generiert werden, wird Stiegler zufolge ein automatisierter Gesellschaftskörper geschaffen, in dem selbst noch das Leben in einen Agenten der hyper-industriellen Ökonomie des Kapitals transformiert wird. Deleuze hat diese Entwicklung in seinem berühmten Essay zu den Kontrollgesellschaften schon vorausgesehen, aber zur vollen Tragkraft kommen die Kontrollformen erst, wenn die digitale Kalkulation die von Deleuze festgestellten Modulationen der Kontrolltechniken in eine algorithmische Governance integriert, die zudem die Automatisierung sämtlicher Existenzen, Lebensweisen und Kognitionen inkludiert.

Eines der zentralen Dilemmata des Postfordismus besteht darin, Konformität, Konsens und Kooperation herzustellen, ohne disziplinarische Techniken der Macht einzusetzen, welche die Kreativität und die affektiven Werte zu stark beschädigen. Die Grenzen des Ökonomischen scheinen zu verschwimmen, aber es muss dennoch eine ökonomische Rationalität geben, wenn Unternehmen im Wettbewerb überleben wollen. Postfordistische Kontrollgesellschaften werden nicht länger explizit durch Strategien dominiert, vielmehr besteht das Ideal der Kontrolle darin, die Macht in die Taktiken einwandern zu lassen, um kontingente und emergente Rhythmen des Alltagslebens zu penetrieren, und dies im Sinne einer Kooperation mit den Zielen des Managements.

Die dem Internet zugrunde liegenden Machttechnologien der Protokolle sind a-normativ, da sie selten breit in der Öffentlichkeit debattiert werden, vielmehr scheinen sie der algorithmischen Governance immanent zu sein. Zur Debatte steht nun: Erzeugen Daten digitale Protokolle oder digitale Protokolle Daten? Oder noch enger: Sind Daten digitale Protokolle? Auf jeden Fall hat die Setzung der Daten strukturierenden Charakter, und nicht erst die Resultate der maschinellen Datenbearbeitung. Wie jede Governance, wenn wir sie im Sinne von Foucault denken, implementiert auch die algorithmische Governance spezifische Technologien der Macht, die heute aber nicht mehr auf einer Statistik basieren, die sich auf den Durchschnitt oder die Norm bezieht, stattdessen haben wir es mit einer automatisierten, einer atomaren, pulsierenden und auf Wahrscheinlichkeit beruhenden Maschinenintelligenz zu tun, die die Spurensicherung und das Datamining unabhängig vom Medium betreibt – ein automatisches Computing sammelt, erfasst und mobilisiert in rasender Geschwindigkeit, nahe der des Lichts, mit den Methoden der künstlichen Maschinenintelligenz Daten über das Verhalten der Marktteilnehmer, die mittels der Extraktion ihrer Daten durch Überwachungskonzerne kontrolliert werden und deren Verhalten kapitalisiert wird.6 Die kontinuierlich Daten sammelnden und Datenspuren lesenden und auswertenden digitalen Maschinen mobilisieren also eine a-normative und eine a-politische Rationalität, die auf der automatischen Analyse und der monetären Valorisierung von enormen Datenmengen besteht, und zwar indem die Verhaltensweisen der Agenten modelliert, antizipiert und damit beeinflusst werden. Man nennt dies heute verharmlosend ubiquitäres Computing, bei dem, und darauf ist immer wieder hinzuweisen, das Überwachungskapital die Extraktion des Verhaltens der Nutzer und die Herstellung der darauf aufbauenden Vorhersageprodukte, die durch die Algorithmen des Überwachungskapitals entstehen, längst nicht mehr nur im Internet, sondern in der realen Welt betreibt, um dann die Vorhersageprodukte durch spezielle Verfahren ständig zu diversifizieren und tiefer zu legen. Alles, ob belebt oder unbelebt, lässt sich nun verdaten, verbinden, zählen und berechnen. Und so fließen aus den Automobilen, Kühlschränken, Häusern und Körpern etc. ständig Signale als Daten in die digitalen Netze, die an solche Werbekunden verkauft werden, die zielgenaue Werbung betreiben. (Zuboff 2018: 225).

Um es genauer zu sagen: Das Kapital der Unternehmen Google oder Facebook automatisiert das Kaufverhalten der Konsumenten, kanalisiert es mittels der berühmten Feedback-Loops von KI-Maschinen und bindet es zielgerichtet an Unternehmen, die wiederum Werbekunden des Überwachungskapitals sind. Die verkaufsfördernden Verhaltensmodifikationen, die bei den Nutzern erzielt werden sollen, beruhen auf maschinellen Prozessen und Techniken wie dem tuning (Adaption an ein System), herding (Zurichtung der Masse) und der Konditionierung (das Trainieren von Reiz-Reaktionsmustern), die das Verhalten der Nutzer derart lenken, dass die maschinell konstruierten Vorhersageprodukte deren Verhalten tatsächlich in Richtung der von Google oder Facebook garantierten Intentionen treiben. (Ebd.) Die maximale Vorhersagbarkeit des Verhaltens der Nutzer ist nun eine genuine Profitquelle: Der Konsument, der eine Fitness-App benutzt, soll am besten im Augenblick maximaler Empfänglichkeit, beispielsweise nach dem Jogging, ein gesundes Getränkeprodukt kaufen, das ihm durch zielgerichtete Werbung schmackhaft gemacht wird. So hat der Sportartikelhersteller Nike die Datenanalyse-Firma Zodiac gekauft und nutzt sie in seinen Filialen in New York. Betritt ein Kunde mit Nike-App auf dem Smartphone eine Filiale, so wird er von der Geofencing-Software erkannt und kategorisiert. Sofort verändert sich auch die Startseite der App und anstelle von Online-Angeboten erscheinen auf dem Bildschirm die Neuheiten im Shop, das heißt auf den Kunden zugeschnittene Sonderangebote und Empfehlungen. Besonders treue Kunden erhalten im Shop kleine Geschenke und können sich die gewünschten Waren sogar per Smartphone in die Umkleidekabine liefern lassen.

Es geht beim Überwachungskapital längst nicht mehr nur um den Verkauf von Werbung, vielmehr wurde es sehr schnell das Modell für die Kapitalakkumulation in Silicon Valley, das bis heute von nahezu jedem Start-up Unternehmen übernommen wird. Aber das Modell ist nicht nur auf einzelne Unternehmen oder den Internetsektor beschränkt, sondern hat sich auf eine große Anzahl von Produkten und Serviceleistungen über den ganzen ökonomischen Sektor verteilt, eingeschlossen Versicherungen, Gesundheitsvorsorge, Finanzen, Kulturindustrie, Transportwesen etc. Nahezu jedes Produkt oder jede Dienstleistung, die mit dem Wort »smart« oder »personalisiert« beginnt, jedes internetanschlussfähige Gerät, jeder »digitale Assistent« stellt in der Angebotskette der Unternehmen ein Interface für den unsichtbaren Fluss von Verhaltensdaten auf dem Weg zur Vorhersage der Zukunft in einer Überwachungsökonomie dar.

In der Rolle des Investors gab Google schnell die erklärte Antipathie gegen die Werbung auf, stattdessen entschied man sich die Gewinne zu erhöhen, indem man den exklusiven Zugang zu dem Datenabfall der User in Kombination mit analytischen Kapazitäten und Computerpower nutzte, um Vorhersagen über die Klickraten der User, die als Signal für die Relevanz einer Werbung gesehen werden, zu generieren. Operational bedeutete dies, dass Google seinen wachsenden Datenbestand umfunktionierte, um ihn als Verhaltensdatenüberschuss »arbeiten« zu lassen und gleichzeitige neue Methoden zu entwickeln, die aggressiv nach Quellen der Surplusproduktion suchen. Dieser Datenüberschuss wurde also die Basis für neue Vorhersagen, die »targeted advertising« genant wurden.

Die Überwachungskapitalisten setzten sich zuerst durch Aussagen in Szene, in denen man die privaten »Erfahrungen« der Nutzer als etwas betrachtete, dass man sich einfach nehmen kann, um dann konsequent die »Erfahrungen« in Daten zu übersetzen und diese als Privateigentum anzueignen und für den privaten Wissensgewinn auszunutzen. Google erklärte einfach, dass das Internet lediglich eine Ressource für ihre Suchmaschine ist, und fügte hinzu, dass die privaten Erfahrungen der User den Gewinnen der Firma dienen. Der nächste Schritt sah vor, dass die Surplusoperationen über das Online-Milieu hinaus in die reale Welt vordringen sollten, wo Daten über das persönliche Verhalten als frei gelten, um einfach von Google gestohlen zu werden. Und das Überwachungskapital bedarf der Bevölkerung nicht mehr in ihrer Funktion als Konsumenten, sondern Angebot und die Nachfrage orientieren die Überwachungsfirmen an Geschäften, die auf die Antizipation des Verhaltens der Bevölkerungen, Gruppen und Individuen ausgerichtet sind.

Shoshana Zuboff beschreibt Daten, die von allen möglichen humanen Aktivitäten als verhaltensorientierter Surplus gextrahiert werden, als einen Angriff auf die Erfahrung selbst. Aber welche Erfahrungen denn? Die erfolgreiche Werbung nimmt heute ständig Qualitäten der realen Erfahrung auf. Dies können Konzerte, Multi-Media Events, Spiele und VR-Applications sein. Von 3D bis zu VR, das Ziel besteht darin, jede Barriere zwischen Person und Erfahrung zu eliminieren. Diese dann durch keine Medien mehr gestörten Erfahrungen wird in das übersetzt, was Bernard Stiegler als Konditionierung bezeichnet. Die Ästhetik ist nun Theater und Waffe zugleich. Und all dies resultiert in einer Misere, in der die Konditionierung die Erfahrung substituiert.

Es genügt nicht länger, die Informationsströme, welche die Bevölkerung ausleuchten, zu automatisieren, vielmehr besteht das Ziel nun darin, auch noch das zukünftige Verhalten der Bevölkerung selber zu automatisieren. Diese Prozesse werden ständig neu designt, um jede Möglichkeit zur Selbstbestimmung der User zu eliminieren, was nicht unerheblich für die Kapitalmärkte ist, wenn die Vorhersagen über das Verhalten von Bevölkerungen nicht nur wahrscheinlich sind, sondern sich der Gewissheit annähern, dass das gewünschte Verhalten auch eintritt. Im Konkurrenzkampf um die effizientesten Vorhersageprodukte haben die Überwachungskapitalisten schnell gelernt: Je mehr Verhaltenssurplus man sich aneignet, desto besser treffen die Vorhersagen ein, und je mehr der Überschuss variiert werden kann, desto höher ist der Vorhersagewert. Dieser neue Drive der Ökonomie führt von den Desktops über die Smartphones in die reale Welt – man fährt, läuft, shoppt, sucht einen Parkplatz, das Blut zirkuliert und man zeigt sein Gesicht – alles soll aufgezeichnet, lokalisiert und vermarktet werden.

Zuboff schreibt, dass die Überwachungskapitalisten das Recht zu wissen, zu entscheiden, wer weiß und zu entscheiden, wer entscheidet, ganz allein für sich einfordern. Sie dominieren die Automatisierung des Wissens und seine spezifische Arbeitsteilung. Zuboff schreibt weiter, dass man das Überwachungskapital nicht ohne das Digitale begreifen könne, wobei das Digitale aber auch auch ohne das Überwachungskapital bestehen könne: Das Überwachungskapital sei keine reine Technologie, vielmehr könnten digitale Technologien vielfältige Formen annehmen. Das Überwachungskapital basiere zwar auf Algorithmen und Sensoren, künstlichen Maschinen und Plattformen, aber es sei eben nicht dasselbe wie diese Komponenten.

Die Grenze für billige Daten liegt in der Überlagerung, die über andere Sphären des Lebens gelegt wird, um deren Kräfte abzuziehen. Insoweit können auch Ressourcen von den Leuten und der Natur extrahiert werden, die durch das Kapital schon verbilligt wurden. An diesen Grenzen wird industrielle Arbeitskraft, wie etwa solche, die in den Centern bei Amazon arbeitet, getrackt und beobachtet, und stellt so doppelte Zeit für das Unternehmen zur Verfügung, das zum einen von der Arbeit profitiert, während es zum anderen Daten über die Bewegung der Körper im Raum akkumuliert. Freunde und Familien bieten gegenseitig den notwendigen, aber unbezahlten Support (billige Care) auf den digitalen Plattformen wie Facebook an, um die soziale Kohäsion beizubehalten und die Arbeitskräfte zu reproduzieren, während sie gleichzeitige Massen von verwertbaren Daten für die Eigentümer der Plattformen produzieren. Dieser magische Trick, mit dem Daten als ein Nebenprodukt verschiedener Arten von billiger Arbeit gesammelt werden, ist ein großer Coup für das Kapital und eine weitere Möglichkeit für die Extraktion jeden menschlichen Restes. Wie Moore sagt, erlauben die neuen Billigen (Arbeitskraft hier) neue Strategien, um Krisen zu überleben, denn die Überlagerung von billigen Daten hilft die Krise der stagnierenden Produktivität und des Wachstums zu lösen, und zwar durch das Erfassen aller Arten existierender Arbeiten als Service für Daten produzierende Maschinen.

Der Anstieg von billigen Daten bezieht sich nicht nur auf die Daten, die aus den menschlichen Abläufen gezogen werden. Während Google und Facebook daran arbeiten, die Klicks und Verhaltensweisen zu manipulieren, werden Daten von der Bewegung der Maschinen über das Wachstum von Pflanzen bis hin zu der Bewegung der Zinsraten gesammelt. Diese Daten werden in verschiedenen Weisen benutzt, um Maschinen lernende Systeme zu trainieren, die die Manipulation von Bevölkerungen oder die Kreation neuer Märkte leisten, Daten, welche die Welt jenseits des Lebens gestalten. Wenn Zuboff das menschliche Verhalten als den Bereich der Extraktion und der Kontrolle verabsolutiert, dann beschränkt sie ihre Argumente auf eine Kritik der Überwachung und lässt damit das Kapital und die Arbeit weitgehend nicht untersucht.

Den Verhaltensüberschuss Modell und die Metaphern, die sich um das ranken, was die Daten als fließend, kaskadierend und überlaufend beschreibt, ignorieren die Art und Weisen, mit der die Produktion von billigen Daten oft genug noch konzentrierte und und ermüdende Arbeit zugleich benötigt. Wenn wir tausende Bilder von unseren Gesichtern freiwillig uploaden, die dann von den Eigentümern der Plattformen benutzt werden, dann brauchen diese Bilder oft genug ein zusätzliches tagging oder eine Kategorisierung, um für kommerzielle Zwecke brauchbar zu sein, denn die Bilder beschreiben sich nicht selbst. Hier kommt billige Arbeit ins Bild,

Die digitale Akkordarbeit von Arbeitern wie die, die bei Amazon’s Mechanical Turk angestellt sind, ist essenziell, um billige Datensammlungen herzustellen, die viele AI Systeme und Forschungsprojekte benötigen. ImageNet, die wichtigste Datenbank von Bildern, bei der visual object recognition software development benutzt wird, basiert auf der Arbeit der MTurk Arbeiter, die Tag für Tag Millionen Bilder sortieren und taggen, um sie zu einem Datenset zusammenzuführen, das von der militärischen Forschung über Unternehmen wie IBM, Alibaba, and Sensetime benutzt wird, wobei letztere damit die Technologie zur Verfügung stellen, die die chinesische Regierung benutzt, um beispielsweise die minoritäre Bevölkerung der Uighur zu kontrollieren. Neue Untersuchungen haben den Stress und Horror von Arbeitern, die in digitalen Fabriken beschäftigt sind, hervorgehoben, wenn sie beispielsweise Bilder von den Verbrechen der ISIS aussortieren oder tagelang große soziale Plattformen nach hate speech und Gewaltvideos scannen. Wie alle billigen Dinge beruhen billige Daten auf massiven Externalitäten, um nach Möglichkeit das Risiko zu schmälern oder es auf andere Leute und Naturen abzuwälzen, während die Profite in die entgegengesetzte Richtung fließen.

Die Beschädigung von Arbeitern ist nur eine der Externalitäten, die mit der Jagd nach billigen Daten entstehen. Die billige Energie, die für das Trainieren von AI Modellen und den massiven Transfer von großen Datenmengen zur und von der Cloud benötigt wird, ist weniger sichtbar als die ausgebeuteten Arbeiter, aber die kumulativen Effekte sind enorm. Untersuchungen schätzen, dass die Energie, die gebraucht wird, um eine einziges AI Modell zu trainieren den fünffachen CO2 Ausstoß hat wie die Abgaben eines durchschnittlichen Autos während dessen Lebenszeit. Die Hardware, die benötigt wird, um all diese Modelle zu handhaben und die Daten zu sammeln benötigt hohe Menge von wertvollen Metallen und neuer Plastik. Billige Natur wird benötigt, wenn sie von billiger Arbeit extrahiert wird, um die fiber optic cables und Computer herzustellen, die Daten sammeln und verbinden.

Was passiert wenn billige Daten mit der Zeit teurer werden? Wenn beispielsweise die Löhne für prekäre Arbeiter in der Datenverarbeitung steigen oder verstärkte Kontrollen der Privatheit stattfinden, sodass der Verhaltensüberschuss schwieriger herzustellen ist? Es ist dann davon auszugehen, dass die Extraktion von Daten neue billigere Bereiche und Grenzen benötigt. Dieser Prozess hat mit dem offshoring digitaler Fließbandarbeit schon begonnen, wenn die großen Techfirmen sich im globalen Süden verbreiten, um neue Märkte zu kreieren und Daten von neuen Bevölkerungssegmenten zu extrahieren.

Ein Unternehmen wie Google muss schon bei der Sammlung von Daten, die das Verhalten der Nutzer spiegeln und die zudem dem Tracken von Verhaltensüberschüssen (die Datenabgase bei Google) dienen, bestimmte Dimensionen der Größen- und Diversifikationsressourcen erlangen, um die Daten mittels seiner Maschinenintelligenzen effektiv in Vorhersageprodukte des Nutzerverhaltens umwandeln und zielgerichtet an Werbekunden verkaufen zu können, Die Produkte gehen wie »Wärmesuchraketen« (Zuboff) auf den Nutzer los, um ihm beispielsweise bei einem Puls von 78 genau das richtige Fitnessprodukt via eingeblendeter Werbung vorzuschlagen. So muss man mit steigender Diversifikation zum einen eine breite Auffächerung von überwachbaren Themen in der virtuellen Welt erzielen, zum anderen müssen die Extraktionsoperationen aus dem Netz in die reale Welt verlagert werden. Darüber hinaus müssen die algorithmischen Operationen an Tiefe gewinnen, das heißt, sie müssen auf die Intimität der Nutzer zielen, um steuernd und formierend in deren Verhalten einzugreifen, indem die Unternehmen beispielsweise zeit- und zielgerecht Pay-Buttons auf dem Smartphone einblenden oder einen Wagen automatisch sperren, wenn der Betroffene bestimmte Versicherungsbeträge nicht rechtzeitig bezahlt hat.

Bei einer Suchanfrage zählen Faktoren wie Suchbegriffe, Verweildauer, die Formulierung der Anfrage, Buchstaben und Interpunktion zu den Anhaltspunkten, mit denen man das Verhalten der Nutzer ausspioniert, und so sind selbst noch diese sogenannten Datenabgase valorisierbar, wenn eben dieser Verhaltensüberschuss des Users für zielgerichtete Werbung eingesetzt werden kann, wobei Google den durch algorithmische Wahrscheinlichkeit eruierten meist bezahlenden Werbekunden auch die besten Werbeplätze zuweist, deren Preise sich aus dem Preis pro Klick multipliziert mit der Wahrscheinlichkeit, mit der die Werbung tatsächlich dann auch angeklickt wird, errechnen. In diesen Verfahren findet man letztendlich auch heraus, was ein bestimmtes Individuum an einem bestimmten Ort und zu einem bestimmten Zeitpunkt denkt. Singularität indeed. Jeder Klick auf ein bei Google geschaltetes Werbebanner ist ein Signal für dessen Relevanz und gilt damit als ein Maß für erfolgreiches Targeting (Zuboff) . Dabei ist derzeit bei Google ein Anstieg der bezahlten Klicks und zugleich ein Fall der durchschnittlichen Kosten per Click zu registrieren, was einer Steigerung der Produktivität gleich kommt, da eben das Volumen des Outputs bei gleichzeitigem Fall der Kosten gestiegen ist.

Der Daten-Fundus, aus dem die Analytiker des Überwachungskapitals mittlerweile schöpfen können, geht ins Unendliche. Die Überwachungskapitalisten wissen genau, wer wie oft bei Unternehmen reklamiert, bei Hotlines anruft oder in Online-Portalen über ein Unternehmen herzieht. Sie kennen die Lieblingsgeschäfte, die Lieblingsrestaurants und -kneipen vieler Verbraucher, die Zahl ihrer »Freunde« bei Facebook, den Urheber von Anzeigen, die Social-Media-Nutzer angeklickt haben. Sie kennen die Hautfarbe, das Geschlecht, die finanzielle Lage eines Menschen, seine körperlichen Erkrankungen und seelischen Beschwerden. Sie wissen über das Alter, den Beruf, die Zahl der Kinder, die Wohngegend, die Größe der Wohnung Bescheid – schließlich ist es etwa für ein Unternehmen, das Matratzen herstellt, durchaus interessant zu erfahren, ob ein Kunde Single ist oder im Fall der Fälle wohl gleich fünf Schaumstoffmatten für die gesamte Familie ordern sollte.

Heute ist die therapeutische Gruppe in Facebook materialisiert, in ihren unsichtbaren Algorithmen und hat zugleich eine weitgehend imaginäre Gruppensucht unvorstellbaren Ausmaßes erreicht. Und hier liegt die Theorie der Simulation falsch, denn es ist nichts Falsches an den digitalen Netzwerken, sie sind ganz real und erzeugen für diejenigen, die an die Netzwerke angeschlossen sind, eine unruhige Stabilität, indem die Dinge einfach expandieren, mehr Anfragen, mehr Freunde and so on. Herbert Marcuse schrieb einst, dass es eines der kühnsten Vorhaben des Nationalsozialismus gewesen sei, den Kampf gegen die Tabuisierung des Privaten zu führen. Und gerade die Privatheit ist heute so befreit von jedweder Kuriosität oder jedwedem Geheimnis, dass man ohne jede Bedenken oder geradezu begierig alles auf seine Timewall schreibt, sodass jeder es lesen kann. Wir sind so froh, wenn ein Freund irgendetwas kommentiert. Und man ist andauernd damit beschäftigt, all die Daten-Feeds und Updates zu managen, zumindest muss man ein bisschen Zeit von seinen täglichen Routinen abzweigen. Der Geschmack, die Präferenzen und die Meinungen bekommen einen Preis, den man gerne zahlt.

Neu sind nicht nur die technologischen Machtstrukturen (Protokolle und Algorithmen; das Netzwerk ist die Message), sondern ein Akkumulationsmodell, das sich digitaler Mittel bedient, um alle möglichen Daten, die das Verhalten der Nutzer spiegeln, einzusammeln und daraus deren Verhaltensüberschuss zu extrahieren, sodass künftiges Verhalten möglichst exakt vorhergesagt und zielgerichteter Werbung zugeführt werden kann, wobei Verbesserungen in der Vorhersage wie auf Abruf die Klickraten auf den Werbebannern steigern. Die Verhaltensüberschüsse entstehen auch daraus, dass mehr Verhaltensdaten als notwendig gerendert werden, um diese in künstlichen Maschinen (Ranking, statistische Modellierung, Vorhersage, Spracherkennung und visuelle Transformation) einzuspeisen, die dann Vorhersagen über Nutzerverhalten produzieren, Quasi-Derivate, welche das Überwachungskapital auf den Verhaltensterminkontraktmärkten an meistbietende Unternehmen verkauft. Google führt an diesen Märkten Auktionen durch, bei denen in enormer Anzahl »Derivate von Verhaltensüberschuss« (Zuboff 105) versteigert werden. Es lässt sich folgern, dass die algorithmischen Operationen mit Daten profitable Produkte, die alle auf die Vorhersage und Monetarisierung des zukünftigen Verhaltens der Nutzer abzielen, für ganz bestimmte Unternehmen generieren: Die wichtigen Kunden von Google sind diejenigen, die Werbung benötigen und bei Google dafür für zahlen, dass sie ein effektives Angebot von Vorhersageprodukten erhalten, die wiederum auf der umfassenden Überwachung der User beruhen. Diese Produkte beruhen also darauf, dass Google genauestens zu prognostizieren versucht, was die User im Jetzt und in der nahen Zukunft tun, denken und fühlen (Zuboff 2018: 119), womit auch das Risiko für die Werbekunden eingeschränkt werden soll, sodass relativ sichere Wetten auf zukünftiges Verhalten abgeschlossen werden können. Allerdings sind die Adressaten an den Märkten, an denen Google Vorhersageprodukte verkauft, nicht ausschließlich Werbekunden, sondern es sind im Endeffekt alle, die ein Interesse am Ankauf »probabilistischer Informationen« ( ebd.: 120) haben, also zum Beispiel auch Staaten, vor allem ihre Nachrichtendienste, die deshalb ein enges Verhältnis zu den Unternehmen im Silicon Valley pflegen.

Dabei sind die Vorhersagemaschinen eine Art Black Box, deren innere Abläufe wahrzunehmen, die menschlichen Kapazitäten der Perzeption weit übersteigt. Zuboff spricht an dieser Stelle von einem Schattentext, in dem die Maschinen die relevanten Handlungsanweisungen vorgeben, die meistens auf die Beeinflussung des Konsums der Nutzer abzielen. So gehen beispielsweise in die algorithmisierte Auswahl der Bilder, die Instagram einem Nutzer zeigt, Ströme der Verhaltensdaten dieses Nutzers, die Daten seiner Freunde, Daten von Leuten, die demselben Account wie der Nutzer folgen, sowie Daten und Links seiner Aktivitäten auf Facebook ein. (ebd.: 555). Es gibt eine Vielzahl von Daten und Operationen, welche selbst die Programmierer der Maschinen nicht mehr durchblicken. Facebook kann mit der Abfrage der Likes ein umfassendes Spektrum der persönlichen Verhaltensweisen eines Users erfassen, das den Sex, die politischen Ansichten, das Konsumverhalten, Intelligenzleistungen etc. betrifft. So gesehen setzt das Like-Belohnungssystem im richtigen Timing die notwendigen Dopamin-Spritzen, um die Aktivitäten der User andauernd anzuspornen, weitere Datenströme zu produzieren. Ein Post, der keine Likes erhält, bedeutet für den User den sozialen Tod.

Die neuen automatischen Systeme modellieren das Soziale in Realtime, kontextualisieren und personalisieren die sozialen Interaktionen, sei es nun im Gesundheitswesen, im Business oder in der Administration. Wir sollten mit den französischen Autoren Rouvray und Berns hinzufügen, dass die neu algorithmische Governance zudem Technologien mit territorialen und räumlichen Dimensionen umfasst, welche beispielsweise in den Programmen der »Smart und Sensored Cities« Anwendung finden. Mit Googles Street View macht Google aus dem öffentlichen Raum einen unpersönlichen Raum des Spektakels, verwandelt ihn in eine lebende Tourismusbroschüre, einzig und allein mit dem Ziel der Überwachung und der Extraktion der Daten von Nutzern (ebd.:169), sodass letztendlich sogar von einer Enteignung der Wege und des Raums gesprochen werden kann (die in der flegelhaft einschmeichelnden Sprache des »Smart« zudem noch daher kommt), gerade indem es Google über die Exploitation der Online-Datenquellen hinaus gelingt, das Monitoring der realen Welt immer umfassender flächendeckend vorzunehmen, wenn die Leute eben entlang bestimmter Wege permanent getrackt und über Verhaltensmodifikationsmaschinen gleichzeitig noch zu bestimmten Zielorten gesteuert werden. Diese smarten Instrumente basieren auf »automatic computing« und »ambient computing, das heißt auf Technologien, deren Unsichtbarkeit die Dividuen noch aktiver und effizienter macht, weil sich diese Technologien unbemerkt und zugleich doch anspornend und das Verhalten verstärkend in die Fabrik des Lebens einweben, bis sie von dieser ununterscheidbar sind. Die algorithmische Governance fokussiert ganz auf Relationen, auf Relationen von Relationen, die wiederum auf Korrelationen reduziert werden, denn die Modelle der Künstlichen Neuronalen Netze ermitteln insbesondere Korrelationen und Muster, niemals aber Ursachen oder die Erklärung von Kausalitäten; sie dienen der Klassifizierung, der Bündelung und der Optimierung des Verhaltens, sind aber vom Verstehen weit entfernt.

Es geht also um die aktive Intervention und die Ausformung von Verhaltensweisen der Nutzer in der Zukunft. Und je mehr Datenspuren sie hinterlassen, oder, um es anders zu sagen, je mehr Daten durch die Methoden der Diversifikation und zudem durch eine Tiefe, die weit ins Innere des Nutzers reicht, extrahiert werden, desto präziser können die selbstlernenden algorithmische Maschinen (Stimmsuche, neurale Netzwerke, Feedback etc.) prozessieren, um nicht nur die richtigen Kaufentscheidungen für die Nutzer im Voraus zu treffen, sondern auch ihre Retentionen und Protentionen sanft zu massieren, sie letztendlich aber knallhart zu konditionieren, und das heißt, dass die optimierte Autonomie, die das Überwachungskapital dem Kunden verspricht, eine Pseudo-Autonomie ist, denn sie dient nur als ein mageres Versprechen, weil letztendlich unwidersprochen die gewinnbringenden Vorhersageprodukte automatisiert hergestellt und vertrieben werden.

Die Soziologen Rouvroy und Bern zeigen in ihrem Essay zur algorithmischen Governance, dass die Größe, die Geschwindigkeit und die Performativität der Algorithmen – Elemente, die sich auf die relationale Datenbearbeitung beziehen – die Kapazitäten humaner Entscheidung weit übersteigen. Sie beschreiben diese Governance als »a certain type of (a)normative or (a)political rationality founded on the automated collection, aggregation and analysis of big data so as to model, anticipate and pre-emptively affect possible behaviours.« Google kann mühelos voraussagen, dass jemand vermutlich in Kürze einen Anzug kaufen will, und wenn dieser jemand sich in der Nähe eines Schaufensters befindet, hinter dem Anzüge ausgestellt sind, dann ploppt auf dem Handy pflegegerecht eine Werbeanzeige auf, die den Kauf eines ausgestellten Anzugs anempfehlt. Das Leben selbst wird immersiv in die Datenproduktion eingebunden, in eine pulsierende Glut von Informationen, aber darüber hinaus sind wir selbst Daten geworden, die in Relation zu Maschinen stehen, die unser Leben einfangen, vereinnahmen und prozessieren, als ob wir selbst Teile seien, die moduliert und für Maschinenintelligenzen bereitgehalten werden. All dies man muss nicht mehr ausdrücklich betonen, denn es ist Teil des Habitus, durch den die Subjekte selbst maschinisiert werden, wenn sie streamen, updaten, einfangen, teilen, verlinken, verifizieren, mappen, sichern, trollen und Trash produzieren, selbst wenn es die höchste Langeweile hervorbringt.

Die Investitionen, die das Dividuum betreffen, erstrecken sich heute bis in die genetische Manipulation hinein. Neurotransmitter, Organe, biologische Komponenten und somatische Identitäten sind zum Tausch freigegeben. Es artet in eine umfängliche Begeisterung für die Freiheit aus, wenn der Körper andauernd in Bezug auf das Monetäre filetiert wird. Selbst noch der Körper mutiert also zur gewinnbringenden Firma, man denke an Implantate, Transplantationen und chirurgische Eingriffe, und man tätigt mit ihm Verkäufe, seien es Organe, Blut oder Keimzellen. Gerade dies führt zur Asomatognosie, einem Nichtwissen um den eigenen Körper. Der Begriff bezeichnet den Verlust der Wahrnehmung oder des Gefühls der Zugehörigkeit eigener Teile. »Self-Tracking« – die Extraktion, Sammlung, Zählung und Auswertung von Daten über alle nur denkbaren Merkmale und Funktionen des eigenen Körpers durch unterschiedliche Apps und Verfahren – beschreibt eine neuartige Form der Optimierung des eigenen Selbst. Solche Apps und Technologien können alle möglichen Daten automatisch aufzeichnen, katalogisieren und danach grafisch darstellen. Jede versäumte Joggingrunde, jede überzählige Kalorie, jede verträumte Minute Arbeitszeit wird unmittelbar registriert und angemahnt, um nicht vor sich selbst in den Verdacht zu geraten, nicht das Maximum aus dem Körper herauszuholen.

Virgin Pulse ist ein Produkt für den smarten Arbeitsplatz, das verspricht, eine Technologie für das Auffüllen des modernen Arbeiters mit Energie bereitzustellen. Es ist eine App, die den Beschäftigten erlaubt, das eigene Verhalten in Hinsicht auf Funktionen wie den Schlaf, Aktivität, Glück, Stress und Entspannung zu beobachten, um das Verhalten dahingehend zu verändern, einen gesünderen und glücklicheren Lebensstil zu pflegen. Es handelt sich um eine tragbare Technologie, die in manchen Unternehmen mit personenbezogenen Verbesserungsvorschlägen für jeden Beschäftigten ausgestattet ist, indem »gamification« Techniken mit spezifischer Zielsetzung eingesetzt werden, die zudem noch den Wettbewerb mit anderen Beschäftigten anheizen. Die Pläne stellen nämlich ein Wohlfühl-Data Dashboard her, in das die Manager des Unternehmens Einblick haben. Virgin Pulse stellt aber noch etwas aus, was bisher wenig beachtet wurde, nämlich die Empathie für den Puls im Sinne der Signifikation des konstanten 24/7 Streams von Daten, den das Programm generiert und analysiert, das heißt der Puls einer Organisation, der die Beobachtung vitaler Zeichen erlaubt: Bewegungen, Rhythmen, Patterns, Höhe- und Tiefpunkte. Diese sollten emergent und selbstregierend sein, sodass das Messen und die Disziplin gegenüber der Quantifizierung in den Hintergrund geraten. Indem man das Verhalten trackt, quantifiziert und repräsentiert, verändert diese tragbare Technologie die repetitiven und ordinären Tagesroutinen. Die Signifikanz des Puls und seine Beobachtung ist eher prä-kognitiv als kognitiv und normativ einzustufen und führt zur unbewussten Adaption an das jeweilige Environment.

Gleichzeitig kommt es aber auch zu drei Formen des Vergleichs: Zuerst der Vergleich mit sich selbst, als Fort- oder Rückschritt sichtbar gemacht im Vergleich zu früheren Aktivitäten. Der Vergleich mit (konkreten) Anderen durch den Wettbewerb der Daten. Und der Vergleich mit normierten Durchschnittswerten wie etwa dem Body-Mass-Index. Die Technologien des Self-Trackings ermöglichen es nun erstmalig, den gesamten Körper und seine Organe zu kapitalisieren. Die gesamte Lebensführung wie Essen, Schlaf, Bewegung, Beziehung und Emotionen können nun erforscht und in Zahlen umgesetzt werden – und dies alles in Echtzeit. So werden nicht nur die Schlafqualität oder die körperliche Aktivität aufgezeichnet, sondern es werden auch Langzeit-EKGs durchgeführt, Genome sequenziert, Labor-Scans, Tests auf Herz und Nieren oder zur mentalen Verfassung unternommen. Krankheiten und ihre Entwicklung werden in Realtime analysiert und damit immer genauer vorhersehbar. Es handelt sich um die Quantifizierung des «digital phenotyping», so erscheint jemand, der langsam tippt, als unglücklich und wer sehr schnell auf sein Smartphone einhämmert, befindet sich womöglich in einer manischen Phase.

Alles in allem generiert die algorithmische Governance sowohl ein neues polit-ökonomisches Feld als auch ein neues Regime der Datenbewirtschaftung, das sich durch eine spezifische technologische Performativität auszeichnet, deren wichtigste Punkte wir hier festhalten wollen:

1) Das permanente Einfangen von Daten, siehe Googles Versuch der Digitalisierung von Büchern, die Erfassung persönlicher Daten durch Google Street-View, die Umgehung des Datenschutzes, die Speicherung von Suchdaten, die Übermittlung des Standortes durch das Smartphone, Gesichtserkennung, Körpersensoren, Drohnen, die mit Sensoren ausgestattet sind, und die Generierung von Daten Doubles. Es geht hier um Enteignungsoperationen, denen der Nutzer Tag und Nacht unterworfen ist und damit seiner Erfahrungen, Emotionen und seines Gesichts beraubt wird.

2) Digitale Operationen, die diese Daten verarbeiten. Die maschinelle Bearbeitung dieser Daten beinhaltet die Extraktion und Modifizierung von Verhaltensmerkmalen, die man qua Muster, Clouds und Relationen sortiert und in Rankings integriert, um zudem noch die Korrelationen, die zwischen den Daten der Dividuen bestehen, auszuwerten. Dieses Datamining erscheint als absolut, insofern die Subjekte keine Möglichkeit haben zu intervenieren, sodass von einer total automatisierten Produktion von Protentionen (Erwartungen) gesprochen werden muss, welche die Differenz zwischen performativen und konstativen Verhaltensweisen liquidieren. Die automatisch produzierten Protentionen prozessieren heute in automatisierten und vernetzten KI-Systemen. In diesen Netzwerken gilt keineswegs, dass das Ganze größer als die Summe seiner Teile ist, vielmehr gibt es gar keine Teile mehr, denn das Ganze ist omnipräsent und manifestiert sich »in jedem der in allen Maschinen eingebauten Geräte« (Zuboff 2018: 472). Es handelt sich hier um ein modulares System, innerhalb dessen prinzipiell jede Maschine dieselbe Maschine ist und wie alle anderen Maschinen in derselben Logik operiert, wenn es auch zu Modulationen und Transformationen kommt. Diese künstliche lernenden Maschinen bedürfen wiederum der materiellen Infrastrukturen, oder, um es noch genauer zu sagen, bedürfen der Konfigurationen, die sich aus den Komponenten Hardware, Software, Algorithmen, Sensoren und Konnektivität zusammensetzen – Konfigurationen, die heute alle möglichen Objekte ausstatten und gestalten – Kameras, Chips Nanobots, Fernseher, Drohnen etc. (Ebd.: 156).

Die digitalen Maschinen integrieren die Dividuen in das algorithmisierte Feld, wo sie als autoperformative Effekte der Korrelationen von Daten erscheinen. Und das Feld, in das die automatisierten Aktionen der Dividuen integriert sind, ist nicht in der Gegenwart, sondern in der Zukunft situiert. Gleichzeitig reintegriert die algorithmische Governance durch Methoden der perfekten Adaption, Viralität und Plastizität noch jede Störung und jeden Fehler in das System, um die Modelle und Profile des Verhaltens zu redefinieren. Es scheint, als könne man die Macht des algorithmischen Systems strukturell niemals beunruhigen oder das Unwahrscheinliche nicht stören. Wenn das auch nicht möglich sein wird, zerstört das Überwachungskapital mit dem Einsatz algorithmischer Performativität zumindest die Essenz der Politik.

3) Digitale Doubles (Profile), die ganz das ergreifende Resultat der maschinellen Operationen und Algorithmen sind. Um mit diesen Operationen eine Aktion des Users hervorzukitzeln, müssen dessen digitalem Double lediglich Signale gesendet werden, die beim User wiederum gewünschtes Verhalten, Stimuli und Reflexe provozieren. Das Tragische des Profil-Subjekts besteht darin, dass es, je mehr es durch Einträge die Unverwechselbarkeit seines »Ich selbst« sichtbar machen will, es desto eindringlicher von den algorithmischen Maschinen modelliert wird. Es findet jetzt der K(rampf) um das Permanent- und Performanz-Singularisieren des Profils statt, eine Daueraufgabe, an der das Subjekt letztendlich sang- und klanglos scheitert, weil das modulare Tableau, in das sein Profil eingeschrieben ist, die Vorgaben gibt, wobei die Aktualität dies so instantan ausstellt, dass es einem eigentlich den Atem nehmen müsste. Es könnte noch zehntausend Jahre so weiter gehen. Zudem ist zu beachten, dass der Glamour des Profils nur einer für diejenigen ist, die es auf der ökonomischen Stufenleiter nach oben nicht geschafft haben, denn die wirklich Reichen und Privilegierten bleiben nämlich offline.

Als digitales Double wird nicht nur die Subjektivität, sondern das Subjekt selbst wird durch die Kollektion infra-individueller Daten, die auf supra-individueller Ebene als Profil zusammengesetzt werden, eliminiert. Das Subjekt erscheinst nicht länger. Es kommt immer schon zu spät und kann sich kein Zeugnis über das ablegen, was es ist oder was es in Zukunft tun will, stattdessen verschmelzt es als User mit seinem eigenen Daten-Profil, das in erster Linie eben nicht von ihm, sondern von den Algorithmen automatisch und in Realtime designt wird. Dennoch stellen die User ihre Doubles bzw. ihre Profile irgendwie auch ohne Unterlass aktiv her, als wären sie durch eine unsichtbare Macht getrieben, bleiben aber alles in allem doch die tiefgefrorenen Produkte algorithmisierter Kontrollsysteme, einerseits als Individuen, die eine höchst effektive Nachfrage verkörpern, andererseits als Dividuen, die funktionell in das Generieren der Parameter der Kontrolle involviert sind, um ständig weiter assoziierte Milieus der Kontrolle zu erzeugen. In ihrem FB-Newsfeed bekommen sie dann vor allem jene Posts ihrer »Freunde«´angezeigt, die schon eine hohe Aufmerksamkeit durch die große Anzahl von Aufrufen und Likes auf sich ziehen konnten. Und der User wird scheinbar ganz individuell adressiert, als Singularität, die sich aber als modular erweist, das heißt sich aus diskreten Bestandteilen im Sinne eines Pfad-Trackings zusammensetzt. Konstitutiv für das Überwachungskapital ist das algorithmische Erzeugen von Profilen hinter dem Rücken (die Codes, Algorithmen und Datenbanken, durch die er zusammengesetzt wird, bleiben für den Nutzer unsichtbar und unerreichbar) derer, denen ein für sie maßgeschneidertes Profil zugewiesen wird und die dennoch weiterhin glauben, sie würden das alles aus eigenen und freien Stücken tun, ja die sogar vom Wahn besessen sind, mit den Profilen ihre eigenen Singularitätsansprüche zum Ausdruck zu bringen und sich dabei in narzisstische Erregung versetzen, ohne im geringsten zu ahnen, dass die Art der algorithmischen Behandlung sie schon im voraus definiert und im Remote-Verfahren kontrolliert, wobei die automatisierte Wissensproduktion, die durch lernende digitale Maschinen operationalisiert wird, entgegen aller subjektiven Singularitätsansprüche der in Erregung Versetzten eine nicht zu unterschätzende Objektivität erzeugt. Für den User bleibt es aber bei dem für ihn konstruierten und auf ihn zugeschnittenen Weltausschnitt, der allein für ihn zugänglich ist. Die digitalen Operationen, die das Verhalten betreffen, antizipieren so gerade die individuellen Wünsche und ordnen sie dem Profil zu.

Wunschökonomie und Kontrolle

Nach dem Verlust des Arbeiter-Wissens im 19. Jahrhundert sowie dem Verlust des Wissens vom Leben im 20. Jahrhundert haben wir es im 21.Jahrhundert, wenn wir an dieser Stelle Bernard Stiegler folgen, mit dem Verlust des theoretischen Wissens zu tun, oder, um es genauer zu sagen, es findet eine umfassende Proletarisierung des theoretischen Wissens statt, die eben darauf aufbauen kann, dass die Einschreibung des Arbeiterkörpers in die Maschinerie, wie sie Karl Marx beschrieben hat, zu einer Proletarisierung des Wissens der Arbeiter und damit ihrer Lebensbedingungen geführt hat, während später das Radio und das Fernsehen die Proletarisierung des Wissens vom Leben (der Affekte und der sozialen Relationen,) in Szene gesetzt haben.7 Die Ausbeutung des »seelischen Werts« der Dividuen erreicht heute seinen Peak-Point: Sie betrifft das Denken als solches, seine Konsistenz und damit auch sämtliche Wissenschaften und ihre Modelle und Methoden und darüber hinaus eben auch die Intuition und das Fühlen. Weber, Horkheimer und Adorno haben diese Prozesse der Rationalisierung ausführlich beschrieben, Prozesse, die für sie eindeutig zum Nihilismus führen.

Die Aufmerksamkeit der Subjekte wird heute ganz von der algorithmischen Governance eingefangen, die Stiegler als eine lesende Industrie oder gar als eine entropische Ökonomie der Expression beschreibt, welche die Proletarisierung der Produzenten/Konsumenten intensiviert. Parallel zur Organisation der Konsumtion und der Konstitution der Massenmärkte durch die Kulturindustrie gerinnt die Proletarisierung der Arbeit zur Jobindustrie und definiert die skills nur noch in Bezug auf die Beschäftigung, die jetzt mit der Adaption an volatile Jobs zusammenfällt. Die Proletarisierung bezieht sich aber heute nicht nur auf die ökonomische Verarmung und das Prekarität, sondern auch auf den Verlust der Kontrolle über das Wissen, das Savoir-faire und die Produktion. Das Arbeitswissen und das Wissen vom Leben werden durch KI-Maschinen und die Kommunikation der Informationssysteme ersetzt, um möglichst jedes Wissen in die Automation zu transformieren, wobei die Proletarisierung des Wissens längst auch die Formen der Planung und der Entscheidungsfindung betrifft.8

Es ist heute mehr und mehr die unbezahlte Arbeit der Konsumenten, die eigentlich keine Arbeit, sondern Dividuation und Beschäftigung in unbezahlter Zeit ist, die die Parameter der automatischen und performativen kollektiven Protentionen und Retentionen (Erwatungen und Erinnerungen), die durch den computerisierten Kapitalismus produziert werden, speist, setzt und verstärkt. Dem ging eine Periode voraus, in der sich die Konsumenten einer Massen-Dividuation ausgesetzt sahen, der Proletarisierung des Wissens vom Leben. Die Marketing-Unternehmen produzierten die kollektiven sekundären Retentionen, die das ausführten, was bestimmte Forschungsabteilungen von ihnen forderten. Zu Beginn des 21. Jahrhunderts wurde die analoge durch die digitale Kulturindustrie ersetzt, welche die proletarisierten Konsumenten durch die tausend Fäden der Vernetzung in das digital-technische System integriert und sie gleichzeitig psychisch und sozial des-integriert hat, das heißt, eine aus der Vernetzung resultierende Dividuation erzeugt hat, die die proletarisierten Konsumenten und Produzenten in dem Sinne neu zusammensetzt, dass sie zu nichts weiter als ausführenden Organen der Informationssysteme werden, der Kapitalisierung. Im Jahr 1993 wurde mit dem Internet eine weltweite digitale Infrastruktur etabliert, welche die Telekommunikationstechnologien grundlegend veränderte und zur totalen Vernetzung vieler Territorien auf der Welt führte, wobei man deren Bewohner mit mobilen und/oder fixen Geräten ausstattete, die wiederum kompatibel mit den Netzwerken waren.

Die Entwicklung des Kapitalismus in den Metropolen hat seit Anfang der 1970er Jahre im Zuge der Globalisierung auch zu einem globalen Konsumismus geführt (von dem allerdings vor allem die Surplus-Bevölkerung im globalen Süden weiterhin ganz ausgeschlossen bleibt), der die durchaus positiven Prozesse der Anbindung der Triebe an alle Arten von Objekten, die Teil einer befreienden Sublimierung sind, weitgehend zerstört hat. Der anti-ödipale Wunsch, der das Objekt ökonomisiert, indem er es idealisiert und transindividuiert, geht stets mit der Artifizialisierung des Lebens einher, die das Technische umfasst, und dies verstärkt und intensiviert normalerweise auch die Macht der Sublimierung, wenn das Individuum mit einem transindividuellen Gedächtnis ausgestattet wird, das Simondon die psychische und kollektive Individuation nennt.

Dabei bleibt die vitale Individuation zunächst an eine Ökonomie der Instinkte gebunden, die das animalische Verhalten mit der Rigorosität eines Automatismus kontrolliert, während mit der Herankunft des noetischen Lebens, das durch die libidinale Ökonomie (Fetisch, Kult, Ritual etc.) geformt wird, die Instinkte und Triebe relativ de-automatisiert werden, sodass die gewünschten Objekte ersetzt, verschoben und umgestaltet werden können. Selbst die Instinkte sind damit als artifizielle Organe der Fetischisierung zugänglich und gestalten sich zu Trieben um. Und auf diesem Weg führt die vitale Individuation zu einer kollektiven Individuation, in der die Triebe konstant aufbewahrt und zugleich verändert werden, insofern sie selbst die Objekte der Begierde verändern und damit der Perversion zugänglich sind. Perverse Triebe sind strukturell fluid und heften sich an artifizielle Organe, sie sind fetischistisch und an Objekten orientiert.

Diese spezifische Ökonomie der Libido, die Stiegler durchaus in einem positiven Licht erscheinen lässt, hat das Kapital in den letzten Jahrzehnten vollständig zerstört. Dabei werden die gegenwärtig ins Panische und exzessiv ins Pornographische freigelassenen Triebe von einer Industrie der automatisierten Spurensicherung und -verfolgung in den sozialen Netzwerken kontrolliert und gleichzeitig verstärkt, indem die Triebe einerseits funktionalisiert, das heißt durch mimetische Mechanismen in niemals zu befriedigende konsumistische Triebe transformiert werden, was andererseits die derart ungebundenen Triebe noch destruktiver, unkontrollierbarer und ansteckender macht. Sowohl die Kanalisíerung als auch die Verstärkung der Triebe durch die Applikation mathematischer Algorithmen impliziert eine automatisierte soziale Kontrolle, während gleichzeitig die Triebe auf ein höchst gefährliches Niveau getrieben und durch die Kontrollmechanismen aber auch de-integriert werden. An dieser Stelle spricht Stiegler von einer modernen kapitalistischen Ökonomie der Seele, die auf dem Kommerz und industriellen Technologien aufbaue, wobei wir uns aber genaugenommen inzwischen aber schon in einer hyper-industriellen Epoche befänden, in der ein total (be)rechnendes und quantifizierendes Kapital herrsche. In libidinöser Hinsicht handele es sich hier aber um eine Dis-Ökonomie, die sich überhaupt nicht mehr um das Verhältnis von Libido und Objekten kümmere. Diese absolut berechnende libidinale Dis-Ökonomie ist für Stiegler der komplette Nihilismus, oder, um es anders zu sagen, der strukturelle Effekt der Automation der Libido und des Wissens, der Formalisierungen innerhalb eines kybernetisch-technologischen Systems besteht in einem berechnenden und zählenden Nihilismus. Dieser nihilistische Triebkapitalismus, so schreibt Stiegler, zerstöre das Sublimierungsvermögen der Dividuen, die nun in einen gefährlichen Entsublimierungsprozess hinein getrieben würden, während die automatisierten digitalen Industrien der Wunschökonomie zugleich jedes reale Begehren ausgetrieben hätten. Davon zeugen neben den gestreamten Hardcore-Bilderfluten der US-Pornoindustrie, Gruppenvergewaltigungen, serielle Morde während der Sexspiele, der Kindesmissbrauch in Kirchen, olympischen Sportverbänden und UNO-Camps, der Genderwhansinn etc..

Stiegler schreibt: »Die Libido ist das, was die Triebe bändigt – sobald sie zerstört ist, entfesseln sich die Triebe.« (93) Ist aber nun aber beispielsweise der Bereicherungstrieb wirklich das Resultat einer Libido-Zerstörung, oder handelt es sich doch eher um eine Umbesetzung im Sinne des Abzugs der Energie vom Äquivalenzprinzip oder der Warenästhetik und einer neuen Besetzung des Gewinn- und Profitstrebens mit Energie? Die von Stiegler beschriebenen technischen Objekte wären dann zum Teil hervorragend als Übergangs- und Ersatzobjekte geeignet. Die digitalen Puppen von heute, die mit ihren Iphones und Smartphones auch noch die Daten liefern, sind eine kostbare Ressource der Kapitalisierung – was will das Überwachungskapital noch mehr? Die Libido der User richtet sich auf die begehrten Objekte, für die Überwachungskapitalisten wiederum sind die Daten der User das Objekt der Begierde, auf das ihre »Libido« sich konzentriert. Dass hier nebenbei auch der Todestrieb am Werk ist, der Verbrauch von Naturressourcen und die Zerstörung der Umwelt (via Produktion der technischen Geräte) auf der einen und die Anbindung und Ausbeutung der Konsumenten (zwecks Mehrwertproduktion) auf der anderen Seite – das wird in Kauf genommen einerseits und ist beabsichtigt andrerseits.

Wir alle werden mehr oder wenig dumm (gemacht), ja wir werden sogar zu plagenden und geplagten Biestern. Die verdummenden Mechanismen der industriellen Epoche, die der umfassenden Integration der Arbeiter in das System der Maschinerie geschuldet waren, warfen ihre Schatten voraus, bis später Deleuze, als die dazugehörigen disziplinarischen Maßnahmen und Normen ihre Wirkungskraft nach und nach verloren und das Fernsehen in eine Maschine der totalen sensorischen Regulation umgewandelt wurde, von den neuen Kontrollgesellschaften sprach, die auch zu neuen Formen der Subjektivierung und der maschinellen Unterwerfung führten. Vor allem Guattari hat mit der Einführung des Begriffs »Dividuum« in den 1980er Jahren kurz vor dem von ihm vorausgesehenen langen Winter schon geahnt, dass die ultraliberalen Kontrollmechanismen, die mit dem Computer verbunden sind, die Liquidation des menschlichen Entscheidungs- und Urteilsvermögens nach sich ziehen werden. Sowohl das Verhalten als auch der analytische Verstand werden heute nachhaltig automatisiert und immer stärker der Macht der künstlichen Maschinen sowie den Algorithmen überlassen. Smarte vernetzte Sensoren registrieren und bearbeiten längst auch in der realen Welt jede Art von Kognition und vor allem jedes Verhalten in Realtime, letzteres, ohne dass das Monitoring unbedingt zu Bewusstsein kommen muss. KI-Maschinen analysieren, wie beide Faktoren zu antizipieren und sicher und zielgenau zu verändern sind, sodass bei den ins Visier genommenen Akteuren genau diejenigen Echtzeit-Aktionen hervorgerufen werden, die es den Betreibern von Überwachungsunternehmen erlauben, ihre Verhaltens- und Verstandesmodifikationsprodukte weiter zu perfektionieren. Die Automatisierung von Verhaltensdaten erzeugt innerhalb der Ökonomie der Spurensicherung geradezu eine artifizielle, maschinelle Kunst der Hyper-Kontrolle, die durch die Auslagerung des Denkens in die digitalisierten Netzwerke entfaltet und dort auch monetarisiert wird. Alles läuft auf die Exploitation der ternären Retentionen hinaus, und fast alle Aspekte des Verhaltens der Dividuen generieren nun digitale Spuren, die wiederum zu Objekten der Kalkulation und der Kapitalisierung werden.

Das transdividuelle (nicht transindividuelle) tracking der Daten muss noch genauer beschrieben werden. Man muss sich hier auf die jeweiligen Marktsegmentationen des Marketings beziehen, wobei die viel beschworene Individualisierung der Kunden, die man mit bedarfsgerechter Werbung anspricht, eher einer Dividualisierung gleichkommt, einer infra-individuellen Teilung und einer Dekomposition der kollektiven Individuation. Die Determination des Wunsches durch seine Automatisierung, welche die schlechten Triebe freisetzt und triggert, wobei sie mit Netzwerk-Effekten noch verstärkt werden, wird heute mit den Modellen des Neuro-Marketing, der Neuro-Ökonomie und den mathematischen Modellen der Künstlichen Neuronalen Netze vorangetrieben. Das Neuromarketing versucht beim Konsumenten Aktionen zu generieren, die ganz ohne die Formierung eines autonomen Wunsches auskommen. Und dies basiert unter anderem auf der Eliminierung von konstruktiven Unterbrechungen, die normalerweise erst zu Entscheidungen führen, indem man einen sensomotorischen Loop in das Verhalten einzubauen versucht, sodass es zu keinerlei Verzögerungen zwischen Rezeption und Entscheidung und damit auch zu keiner sozialen differance mehr kommt und somit von einem rein funktionellen Kreislauf oder einem sekundengenauen Feedback-Loop gesprochen werden kann, ja eben im Sinne Skinners von einem reinen Reiz-Reaktion-Muster, das mit deskriptiven und präskriptiven Methoden operiert – beispielsweise ist das Zeitinterval (Verzögerung), das die Rezeption eines Produkts vom Effekt (Kauf) trennt, nicht mehr länger vorhanden. Die Ökonomie der Algorithmisierung von persönlichen Daten reduziert immer weiter die Zeit, die für menschliche Entscheidungsprozesse notwendig ist, und eliminiert damit auch die »nutzlose« Zeit des Denkens und der Kontemplation. Gerade die funktionale Integration der psychischen Individuation durch ein automatisch assoziiertes Milieu, das in Lichtgeschwindigkeit prozessiert, konstituiert für die Individuen eine faktische Naturalisierung des technischen Milieus und zugleich eine artifizielle Naturalisierung, womit die individuellen und kollektiven Individuationen zu kollektiven und psychischen Dividuationen mutieren, die wie eine 24/7 Insekten-Gesellschaft funktionieren.

Die algorithmische Krankheit – für Stiegler ist sie ein Begleiteffekt der Epoche der Hyper-Kontrolle – erzwingt eine fatale Desorientierung: All die großartigen Versprechen der Aufklärung sind heute toxisch geworden, ja sie wurden in Prozesse der generalisierten Hyper-Kontrolle des Denkens überführt. Dies geht über die von Deleuze konstatierte Kontrolle-durch-Modulation weit hinaus, insofern heute selbst noch die noetischen Fakultäten der Theorie mit den aktuellen Operatoren der Proletarisierung, die die ternären Retentionen durchziehen, kurzgeschlossen werden. Wiederum bleiben die ternären Retentionen, egal was ihre Materie und Form sein mag, auf die primäre und sekundäre Retention angewiesen, auf die Wahrnehmung, Imagination, die Erwartung und das Gedächtnis, Faktoren, die in die Prozesse der je schon verschiedenen kollektiven Transindividuation integriert sind.

Schließlich erfordert die Behandlung der Daten in Form der ternären digitalen Retention in Realtime und auf globaler Ebene – ausgeführt von intelligenten Maschinen mit der Rechenkapazität von Billionen von Gigabytes – lernende und vernetzte Systeme, die die Daten absorbieren, modifizieren und kapitalisieren. Wenn aber die psychische und die kollektive Individuation mit den digitalisierten Prozessen einer automatisierten Transindividuation kurzgeschlossen werden, dann können sich auch unberechenbare Individuationen ergeben, aber die automatisierten Triebe bleiben den automatisierten retentionalen Systemen unterstellt, um mittels der Mathematik formalisiert und durch Algorithmen konkretisiert zu werden, das heißt, dass die Datenspuren, die man durch die Überwachung des individuellen und kollektiven Verhalten erzeugt, gesammelt, modifiziert und kapitalisiert werden müssen. Dabei behält Stiegler allerdings seinen Begriff des »pharmakon« immer bei, das heißt er sucht immer auch nach Spuren im Internet, die eine neue Form der kollektiven Individuation anzeigen.

Versicherung und Risikosubjekte

Die Kontrolle der zeitgemäßen Risikosubjekte erfordert heute gewinnorientierte Versicherungen, die ihre Kunden am laufenden Band klassifizieren und bewerten, indem man ihnen Zahlen zuordnet, die sich auf Faktoren wie Konsumeigenschaften, Interaktionen, Gesundheit, Bildung und Kreditfähigkeit beziehen, was die somit zu Stichproben degradierten Kunden, wie wir schon gesehen haben, auch zu geteilten Entitäten, ja zu Dividuen macht. Weil die Versicherungen den Imperativ Unsicherheit soweit wie möglich nicht nur durch Risikokalkulation, sondern auch durch Gewissheit zu ersetzen versuchen, scannen ihre mobilen Apps permanent das Verhalten der Versicherten, beispielsweise das Verhalten von Autofahrern, sodass die Versicherungsbeiträge von Sekunde zu Sekunde fallen oder steigen können, und dies auf der Basis von Informationen, wie schnell man gerade fährt oder ob man beim Fahren telefoniert, wobei Maschinenprozesse die Verstöße gegen fixierte Parameter herausfinden und diese dann auch ahnden. Konsequenterweise gliedert man die Kunden in verhaltensorientierte Tarife auf, während die Maschinenprozesse das Verhalten der Versicherten in Richtung maximaler Profitabilität der Versicherungen drängen, indem abweichendes Verhalten mit Bußgeldern geahndet wird oder Versicherungsbeiträge erhöht werden. (zuboff 249) So haben beispielsweise Krankenversicherungen nicht nur die Gesundheit, sondern längst auch die Fitness zu einem moralischen Imperativ gemacht, sie haben die Risiken unter die Bevölkerung so verteilt, dass die Kranken und Übergewichtigen oder einfach nur solche Personen, die zu wenig auf ihre Gesundheit achten, mit Rückstufungen, Sanktionen, Restriktionen oder gar Ausschluss aus der Versicherung zu rechnen haben.

Silicon Valley hat die Krankheit als Marktpotenzial bzw. als Innovation längst entdeckt. So drängen insbesondere große Unternehmen zielstrebig in diesen Markt, der allein in den USA ein Volumen jenseits der drei Billionen Dollar Grenze erreicht. Amazon gründete unlängst eine Krankenversicherung, baut probeweise Kliniken für die eigene Belegschaft und hat sich die Internetapotheke Pillpack übernommen. Facebook verhandelte bis zum Datenskandal um Cambridge Analytica mit Krankenhäusern über anonymisierte Gesundheitsdaten, um sie mit denen seiner Nutzer abzugleichen. Der avancierteste Player im Rennen um die Gesundheit ist derzeit jedoch Alphabet. Das Mutterschiff von Google entwickelte zuletzt KI-basierte Software-Lösungen, um Krankheitsverläufe und gar den Todeszeitraum von Patienten in Spitälern genauer zu bestimmen. Mit dem Subunternehmen Verily, vormals bekannt als Google Life Sciences, forschte man bereits an einer Kontaktlinse, die mittels Tränenflüssigkeit die Glukosekonzentration misst.Als das beste aller behavioristischen Aufschreibesysteme bewährt sich hier zurzeit das Smartphone, ein multisensorisch-gläsernes Device, auf dessen Oberfläche sich – zumindest für die digitale Gesundheitsavantgarde – das Unbewusste zu spiegeln scheint.

Besonders das Startup Mindstrong Health des früheren Direktors des amerikanischen National Institute of Mental Health und nicht zufällig auch vormaligen Leiters der Abteilung für psychische Gesundheit bei Verily, Thomas Insel, eröffnet ganz neue Sichtachsen. Man analysiert das Tippverhalten des Smartphone-Users – wie er scrollt, klickt oder wischt –, um qua Mustererkennung Verhaltensprofile zu erstellen, die wie Kompassnadeln auf mentale Schwachpunkte verweisen.

Die Versicherungen, die heute über ein breites Repertoire an Modellen und Methoden des Risikomanagements und auch über die entsprechenden Finanzinstrumente verfügen, fassen quantitative Elemente, die das Verhalten der Versicherten definieren, in Tabellen zusammen und setzen sie in höherskalige qualitative Kategorien um, sodass die Elemente ständig neu kombiniert, neue ausgeklügelte Anreiz- und Allokationssysteme geschaffen und somit höhere Profite mittels der Steigerung der Performanz, die die durch Risikoprofile dokumentierten Subjekte selbst zu leisten haben, erzielt werden. (Lee, Martin 2016: 539) Aufgrund von standardisierten Risikodefinitionen erheben also die Versicherungen Daten, um die Risikosubjekte nach ganz gewöhnlichen Kriterien wie Einkommen, familiäre Herkunft, Beruf, Wohnort, Geschlecht und Bildung zu sortieren, zu gliedern und schließlich auszupreisen. Es gibt Unternehmen, die einen Risiko-Score für Personen auf der Basis der Verlaufsgeschichte ihrer Beschäftigung, ihrer angemieteten Wohnungen, ihrer Beziehungen zu Familienmitgliedern und Freunden etc. entwerfen, wobei man sozial prekäre Personen aufgrund der Klassifizierungen und der Auswertung maschineller Verfahren als hoch-risikoreich identifiziert und damit die ökonomische und soziale Ungleichheit algorithmisch re-inskribiert. So sind die Versicherungen fest entschlossen, die Macht über die Versicherten permanent auszuweiten, was sie auch tun, wenn sie mit deren Geldern an den Finanzmärkten als Big Player auftauchen.

Die Erstellung von bestimmten Risikoprofilen ist heute eine Quantifizierungsarbeit sui generis; es gilt zum einen ein quantifiziertes Profil über die Person zu erstellen und zum anderen diese beständig dazu aufzufordern, ihre ökonomischen Positionen zu verbessern. Bezüglich der Körpereffektivierungsarbeit kommt es in diesem Kontext zu einer immer stärkeren Verschmelzung von medizinischen Diagnosen mit den diversen Wellness-, Fitness- und Lifestyleangeboten, indem eine ganze Reihe von tragbaren Geräten den Körper erweitern, um Körperzustände zu quantifizieren, das heißt Zustände und Prozesse zur Bewegung, zum Schlaf- und Stressverhalten und zum Alkohol- und Nikotinkonsum aufzuzeichnen, um schließlich die Kontrolle zu perfektionieren und Anleitungen zur weiteren Selbstoptimierung des Körpers geben. Diese Arbeit am eigenen Körper resultiert in einem persönlichen Aktienkurs der Gesundheit und des Wohlbefindens in Echtzeit (ebd.: 116), was für die Akteure wiederum neue Anreize vermittelt, den Versicherungen und Krankenkassen Informationen für die Ausarbeitung von neuen Tarifmodellen bereitzustellen, die die Versicherungen in personalisierte Kostenberechnungen umwandeln. Diese Art der Selbstvermessung wird von den Versicherungen durch die Entwicklung technischer Applikationen forciert, die ein bestimmtes Verhalten messen, um es in Relation zu den bestehenden Tarifsystemen zu setzen. Es entwickelt sich hier ein fein gesponnenes Netzwerk aus Versicherungen, Kunden und App-Produzenten, innerhalb dessen permanent die Differenzierung und Personalisierung von auf die Gesundheit bezogenen Daten vorangetrieben wird, um weitere monetäre Anreizsysteme zu schaffen und die Mitmachtätigkeit der Dividuen anzustacheln, und dies alles unter dem Aspekt des spielerischen und freien Umgangs mit Daten.

Während die verantwortungsbewussten Risikosubjekte in den einschlägigen Wellnesscentern Tag für Tag hartnäckig mit ihrer individuellen Fitness beschäftigt sind, um sich in infantil-singularisierten Freiheitsritualen kreativ neu zu erfinden (und sich damit meistens nur dem Sachverhalt anpassen, dass sie nicht im geringsten in der Lage sind, etwas verändern zu können, oder es vielleicht auch gar nicht wollen), werden sie von den Versicherungen doch als ziemlich stereotype und einfache Protagonisten eingestuft, die ein ganz gewöhnliches Leben leben, unter Umstände das des »lebendig gewordenen Stelleninserats, eine gelungene Synthese aller Charaktereigenschaften, die sich Personalchefs und Volksschullehrer bei einem Menschen wünschen.« (Pohrt) Und um es noch einmal zu wiederholen: Während also die erfolgreichen und besonders risikoaffinen Subjekte, insbesondere die der Eliten und aus der oberen Mittelschicht, permanent die Befreiung von den Fesseln verkrusteter alter Identitäten und ein neues Singularitätsregime beschwören, gleichzeitig ihre durch und durch algorithmisierten Leidenschaften auch auf alle möglichen analogen Events, auf Live-Konzerte und Musikfestivals in ihrer angeblichen Außeralltäglichkeit richten, auf Sport- und Kunstereignisse, auf all das, was die Event-Industrie Tag für Tag an gewöhnlichen Verbrechen inszeniert, werden sie auch weiterhin äußerst effizient durch Versicherungen und andere private Kontrollfirmen gescannt, quantifiziert und motiviert. Eine gelungene Identität zu besitzen heißt dann, sich als Risikosubjekt zu generieren und als solches zu gewinnen und darin grundsätzlich derselbe zu bleiben: handlungsfähig, opportunistisch und risikobereit, alles in allem eine neue Form der Stupidität, weil der große Andere im Schatten weiterhin unbemerkt waltet und das vom Kapital konstituierte Risikosubjekt sich dem unbewusst zumindest verpflichtet fühlt. Die aufstiegswillige Mittelschicht – ökonomisch nach oben, kulturell nach unten orientiert – findet diesen Oberflächentext extrem chic, und einige ihrer Repräsentanten, die vielleicht sogar auch höhere Funktionen bei den Versicherungen selbst einnehmen, gelingt es im High-Sein des Hedgens ihres Lebens sich gegenseitig zu übertrumpfen, und dies im Zuge eines schnellmachersüchtigen Ausspuckens von Funktionen, Formeln und Slogans, die den eigenen Lebensstil gnadenlos und zugleich doch ziemlich trübselig ornamentieren. Gleichzeitig untersteht die Existenz risikobereiter Subjekte einer von den Versicherungen selbst operationalisierten Kontrollstruktur (Statistiken, Tabellen und Taxonomien), die ihre Kunden strikt nach Risikokategorien eingliedert, klassifiziert und sortiert – zum Zweck der Erstellung eines ordnungsgemäßen und gewinnträchtigen Risikoprofils. Selbstoptimierungsprozesse und Kontrollstrukturen bedingen und verstärken sich also gegenseitig.

Es ist einschlägig, dass Unternehmen, Staaten und private Personen heute weniger durch die Analyse des konkreten Einzelfalls auf ihre Kreditwürdigkeit geprüft werden, sondern anhand einheitlicher quantitativer Indizes, das heißt die Kreditkontrolle durch Prüfung des Einzelfalls wird durch die Erstellung von standardisierten und algorithmisierten Risikoprofilen ersetzt. So wurde zur Evaluation der Verbraucher der Fico Score eingeführt, ein Algorithmus, der generell als ein wichtiges statistisches Instrument zur Kontrolle des neoliberalen Subjekts gelten kann. Zunächst bedeutet Scoring ganz allgemein, dass man bestimmten Entitäten/Subjekten Eigenschaften wie Performanz, Leistungsfähigkeit, Rentabilität oder Zahlungsfähigkeit zuschreibt, worauf man sie nach der Skalierung dieser Kriterien in Gruppen einteilt, sie also klassifiziert und mit Punkten bewertet, die man wiederum gewichtet und zu einer Bonitätsnote zusammenfasst, um dann mit dem Gesamtscore schließlich auch die Kreditvergaben festzulegen. Versicherungen konstruieren mit dem Fico Score die Kreditgeschichten der Kunden, Unternehmen prüfen mit ihm die Stellenbewerbungen und suchen nach optimalen Standortbestimmungen, Krankenversicherungen erheben Prognosen, ob die Patienten die Medikamente ordnungsgemäß einnehmen, Spielcasinos eruieren die gewinnträchtigsten Gäste. Zusammenfassend lässt sich sagen, dass heute ein dichtes Netz von Rankings, Ratings und anderen Evaluationsmechanismen die sozialen Felder durchzieht und sich auf fast alle Tätigkeiten und Bereiche bezieht. Dabei gehen bestimmte Kreditscorings sogar so weit, über den Einsatz geheimer Algorithmen nicht nur Informationen über den Gesundheitszustand, die Mobilität, den Jobwechsel und die persönliche Risikobearbeitung einzuholen und zu bewerten, sondern man zieht sogar Daten aus dem Freundeskreis heran, was je nach deren ökonomischen Status Vorteile oder Nachteile für den Kreditnachfrager bringen kann.

Statistisch-maschinelle Verfahren dienen dazu, die Wahrscheinlichkeit, dass jemand einen Kredit bedient zu eruieren, in dem man den Kunden Bonitätsnoten vergibt, womit nicht nur generell über die Vergabe von Krediten, sondern auch über die genauen Konditionen der Kredite (Laufzeiten, Zinssätze etc.) entschieden wird. Über die Geschichte der Verschuldungen, der Marktaktivitäten und generell die ökonomische Situation der Subjekte liegt heute ein breit zugängliches Datenmaterial vor, das ständig erweitert wird und in die aktuellen Risikokalkulationen und Bewertungen einfließt, wobei der Trend dahin geht, immer weitere Bevölkerungsteile über die sog. credit risk coloniziation in das Kreditsystem zu integrieren und und damit zur Generierung eines Surplus für das finanzielle Kapitals verfügbar zu halten. (Mau 2017: 109) Bei der Kreditvergabe kommen die berüchtigten Apps zum Einsatz, die aus den Anwendungen des Smartphones eines Antragsstellers, aus Postings in den sozialen Medien, aus GPS-Koordinaten und aus E-Mails und Profilen eine Reihe von Daten herauslesen und modulieren, indem Algorithmen Muster konstruieren, die auf die Wahrscheinlichkeit schließen lassen, ob der Antragssteller in Zukunft Kredite auch bedienen kann. (zuboff 202) Und als ob das nicht genug wäre, dienen diese Informationen wiederum zur Verfeinerung des Fico-Algorithmus und eben auch anderer Algorithmen, ein Nebeneffekt, um noch exaktere und umfassendere Persönlichkeitsprofile zu erstellen, die nicht nur den finanziellen Stresspegel eines Nutzers umfassen, sondern vielleicht auch noch dessen Fürze riechen.

Rating und Ranking

Es wird heute ein neues Objektivitätsregime generiert, das nicht nur Unterschiede und Vergleiche sichtbar macht, sondern neue Klassifikationen zur Kontrolle des Systems und der Subjekte einsetzt. Während das Rating dazu dient, bestimmte Objekte, Sachverhalte und Subjekte mittels bestimmter Techniken nach Mustern zu beurteilen und zu bewerten, werden Sachverhalte, Objekt, Personen etc. beim Ranking in eine Rangfolge gebracht. Die Monetarisierung und Ökonomisierung der Ratings und des Rankings führt heute in allen möglichen Bereichen zur permanenten Restrukturierung der Methoden der Effizienz, der leistungsorientierten Mittelvergaben und der Budgetierungen unter den Gesichtspunkten der quantifizierenden Rentabilitätssteigerung mittels der in Zahlen übersetzten Input-Output Matrizen, wobei Bereiche wie Bildung, Gesundheit, Gefängnisse und selbst noch Kriege davon betroffen sind.

Die Subjekte sind zur weiteren Anfeuerung dieser Quantifizierungsprozesse ständig selbst aktiv und präsentieren sich anhand von fabrizierten Daten (man denke an Einkommen, Körper und Gewicht, Laufstrecken, die man zurücklegt, und an die Gesundheit) in den Medien und Institutionen und setzen ihre Daten äußerst gerne in den Vergleich zu denen der Mitkonkurrenten und erzeugen somit in gewisser Weise selbst noch die numerische Hegemonie mit, die stets die Aura des Objektiven mittels der Heroisierung der Zahl umgibt. Dabei sind solche Zählungen und Vergleiche aber längst nicht apriori gegeben, sondern sie werden in quantifizierenden sozialen Prozessen konstruiert, indem unter anderem auf Konsens zielende Messverfahren eingerichtet werden, die gewünschtes Verhalten, das nach metrischen und ordinalen Differenzen in Rangordnungen integriert wird, andauernd nur verstärken. Dabei wird zum einen die Gleichwertigkeit der Verhaltensweisen der Subjekte vorausgesetzt, die einer spezifischen Gleich-Gültigkeit ihnen gegenüber gleichkommt, zum anderen werden hierarchische und die Konkurrenz verstärkende Rang-Ordnungen inszeniert, die das Mehr oder Weniger oder das Besser oder Schlechter des Verhaltens der Subjekte diktieren.

So ziemlich jeder Sachverhalt, jedes Objekt oder Subjekt kann heute qua Ranking in eine Reihenfolge gebracht werden, man denke insbesondere an die situative Festschreibung der Popularität jeder Art von Promi-Stars, seien es Politiker, Fußballspieler, Models bis hin zu den Pornostars, aber das Ranking betrifft natürlich auch die Rentabilität von Unternehmen und Institutionen, die Bildungsleistungen der Universitäten und die Gesundheitsangebote, den Glanz der Städte, den Geschmack des Essens und der Getränke, die Datingseiten und den Lifestyle der Mittelklassen in den Metropolen, die Reputation in den Berufen und es betrifft selbst die Staaten, die nach ihren Verschuldungsgraden hierarchisiert werden. Dabei wird eine scheinbar objektive quantitative Bewertung suggeriert, die sich um qualitative Unterschiede, Nuancen und Abweichungen wenig schert, letztere eher noch sanktioniert, ausschließt oder zumindest in die untereren Ränge des sozialen Körpers verweist. Der Soziologe Mau spricht an dieser Stelle von Objektivitätsgeneratoren, die nicht nur die sozialen Verhältnisse und Subjekte quantifizieren, indem sie sie skalieren, sondern diese Resultate auch noch visualisieren, das heißt in Charts, Diagramme und Tabellen übersetzen, und dabei handelt es sich keineswegs um rein deskriptive Prozesse, vielmehr um performative Praktiken mittels des Einsatzes a-signifikanter Semiologien, die der Abbildung und Generierung von hierarchischen Strukturen und Systemen dienen, die stets politisch, ökonomisch und sozial aufgeladen sind; sie weisen die Subjekte innerhalb einer Rangskala auf bestimmte Plätze, indem sie die Kriterien und Verfahren festlegen, mit denen die Plätze zugeordnet und besetzt werden.

Wir haben gesehen, dass das Rating ein fortlaufendes Procedere ist, mit dem man Subjekte, Objekte und Sachverhalte hinsichtlich bestimmter Merkmale, Leistungs-, Rentabilitäts- und Verhaltensdimensionen, die in Symbole und Zahlen übersetzt werden, beurteilt, evaluiert und bewertet, während das Ranking insofern darüber hinaus geht, als die beurteilten Objekte und Subjekte durch Differenzbildung in eine numerische Reihenfolge gebracht werden. Beides sind objektivierende Klassifizierungsverfahren, mit denen die Fremdbeobachtung und die Selbstbeobachtung in ein System integriert wird, wobei der performative Aspekt darin besteht, dass man die Akteure dazu auffordert, sich permanent zu sich selbst und andern in Beziehung zu setzen. (Mau 2017: 76) Für die kapitalistischen Profiteure des Rankings ist der freie Zugang zu großen Datenbeständen, die die Akteure ja freiwillig liefern, die erste Voraussetzung, um ein Dispositiv zu erzeugen, für das zum Ersten die Identifizierung von Unterschieden und zum Zweiten der Wettbewerb um die exklusiven Platzierungen kennzeichnend sind, wobei letztere per definitionem instabil und relativ sind, sodass der Kampf gegen die eigene Entwertung und für die Überbietung der anderen immer präsent bleibt. Der Zweck dieses stillen Kampfes ist, wenn wir uns die Subjekte anschauen, die Sichtbarmachung der eigenen Position, vor allem, wenn man sich schon im vorderen Bereich des Feldes befindet, und dies zeitigt eben ganz reale und eben nicht nur symbolische Effekte. Die wichtigen Indikatoren, auf die sich diese Vergleichsverfahren beziehen, sind heute definitiv die Rentabilität, die Effizienz und die Produktivität.
Die Quantifizierungsverfahren des Screening und Scoring funktionieren ähnlich, sind aber stärker auf das Individuum oder besser das Dividuum bezogen. Auch hier ordnet man den Dividuen bestimmte Merkmale wie Leistungs- und Zahlungsfähigkeit, Angaben zum Gesundheitszustand und zur Bildung oder zu speziellen Risiken zu, wobei die Ergebnisse von den Unternehmen, Märkten und anderen Organisationen natürlich begierig aufgegriffen werden, um wiederum Selektionen vorzunehmen, die, als ob es ein Naturzustand sei, den einen Vorteile und den anderen Nachteile bringen. Mit der Zuschreibung von bestimmten Eigenschaften werden die Subjekte durch das Screening mittels der Anwendung einer bestimmten Anzahl von Parametern von vornherein geteilt bzw. aus einem größeren Pool von Akteuren selektiert und sind damit nur noch als Stichroben vorhanden, wobei es aber immer zu Einschlüssen und Ausschlüssen kommen muss. Auch beim Scoring werden statistische Daten und Verfahren hinzugezogen, um die Akteure in eine feine Ordnung der Wertigkeit (Ebd.: 104) zu bringen.

Für die Abwicklung der Bewerbungen sind die Verfahren des Screening für die Unternehmen heute essenziell, wobei meistens externe Dienstleister die Ausführung übernehmen, indem sie getreu den Methoden einer Rasterfahndung die Leute ein- und aussortieren. Dabei können die überwachenden Unternehmen auf ein Unzahl von Daten und Informationen zugreifen, die die User in den sozialen Medien permanent produzieren, man denke an ihre Angaben zum Freundeskreis und Wohnumfeld, zur Mobilität und zu dem eigenen Konsumverhalten und vieles mehr. Auch mit diesen Verfahren werden in den verschiedenen Teilbereichen der Ökonomie, der Kultur und der Politik den Subjekten Plätze zugeordnet, womit sie per definitionen zu Geteilten transformieren, und die algorithmischen Zuweisungen bestimmen ihren Zugang zu Optionalitäten, Handlungspotenzialen und generell zu den Möglichkeiten, das Leben als ein positives und zu kapitalisierenden Produkt zu gestalten.

Literatur

Bahr, Hans-Dieter (1970): Kritik der »Politischen Technologie«.Frankfurt/M.

– (1973): Die Klassenstruktur der Maschinerie. Anmerkung zur Wertform. In: Technische Intelligenz im Spätkapitalismus. Vahrenkamp (Hrsg.). Frankfurt/M. 39-72.

-(1983): Über den Umgang mit Maschinen. Tübingen.

Mainzer, Klaus (2014): Die Berechnung der Welt. Von der Weltformel zu Big Data. München

Martin, Randy (2009):The Twin Tower of Financialization: Entanglements of Political and Cultural Economies. In: The Global South 3(1).108-125.

– (2015): Knowledge Ltd: Toward a Social Logic of the Derivative.Philadelphia.

Mau, Steffen (2017): Das metrische Wir. Franfurt/Main 2017.

Sahr, Aaron (2017):Das Versprechen des Geldes. Eine Praxistheorie des Kredits. Hamburg.

Schlaudt, Oliver (2011): Marx als Messtheoretiker. In: Bonefeld, Werner/ Heinrich, Michael (Hg.): Kapital & Kritik. Hamburg.

– (2014a): Was ist empirische Wahrheit?: Pragmatische Wahrheitstheorie zwischen Kritizismus und Naturalismus (Philosophische Abhandlungen). Frankfurt/M.

Strauß, Harald(2013): Signifikationen der Arbeit. Die Geltung des Differenzianten »Wert«. Berlin.

Vief, Bernhard (1991): Digitales Geld. In: Rötzer, Florian (Hg.): Digitaler Schein. Frankfurt/M. S.117-147.

1 Hannah Arendt schreibt s.445 «Es ist durchaus denkbar, daß die Neuzeit, die mit einer so unerhörten und unerhört vielversprechenden Aktivierung aller menschlichen Vermögen und Tätigkeiten begonnen hat, schließlich in der tödlichsten, sterilsten Passivität enden wird, die die Geschichte je gekannt hat.« Mit den digitalen Medien leben wir in einer zunehmend flachen Ontologie, in der jedes Ereignis mit jedem anderen auf meistens gleicher Intensitätstssufe korreliert, sodass ein Netz von Relationen entsteht, indem kein Ereignis mehr eine spezifische Bedeutung aufweisen soll. In der Welt der Updates, Kommentare, Meinungen und Fake-News ersetzt der Begriff der Kommunikation den der Wahrheit.

2 Randy Martin hat in seinem Buch »Empire of Indifference» gezeigt, dass Indifferenz und endlose Zirkulation zusammen gehören und heute selbst noch die asymmetrischen, kleinen Kriege im globalen Netz zirkulieren. (Martin 2007) Mehr noch, die entsprechenden Interventionen drehen sich um die Möglichkeit zu zirkulieren, im Gegensatz zur Möglichkeit Souveränität zu proklamieren. Für Martin handelt es sich dabei um einen ähnlichen Shift wie den vom Shareholder, der die Aktien eines Unternehmens hält, zu dem des Traders von Derivaten, der Reichtum durch des Management von Risiken erzeugt. Die unbeabsichtigte Konsequenz dieses Risikomanagements, das Martin sowohl bei der globalen Finanzialisierung als auch beim US-Empire am Werk sieht, besteht in der bloßen Verschärfung der Volatilität dessen, was sie beinhaltet. Daraus ergibt sich ein Kreislauf der Destabilisierung und der derivativen Kriege, eine Charakterisierung, die Martin das »empire of indifference« nennt. Dieses Empire zeichne sich nicht länger durch Fortschritt oder Entwicklung aus, sondern verspricht seinen Insassen nur noch das Management einer immerwährenden Gegenwart von Risikomöglichkeiten.

3 Laut Bernhard Vief ist dem Äquivalenzprinzip die Analogie eigen, wobei dem Ana-logon eine Schablone entspricht, die man über zwei verschiedene Objekte legt, um sie anzugleichen, und womit natürlich sofort die Frage aufgeworfen wird, was denn nun diese Schablone als sog. tertium comparationis anbieten könnte, um überhaupt einen Vergleich zwischen zwei völlig verschiedenen Objekten zu ermöglichen. (Vgl. Vief 1991: 138) Marx kann sich mit der Fixierung des Dritten auf das Metallgewicht des Geldes qua vergegenständlichter Arbeit, wie das Adam Smith und David Ricardo noch getan hatten, nicht zufrieden geben, stattdessen setzt er auf das Axiom »abstrakte Arbeit« oder »abstrakte Arbeitszeit«, für das er aber wiederum keinen objektives Maß anbietet (was heißt abstrakte Arbeit als immanentes Wertmaß?), weshalb Vief bei Marx selbst einen infiniten Regress eröffnet sieht. Deshalb nimmt Vief an dieser Stelle eine Verschiebung vor und fundiert zumindest das Digitalgeld gleich in der reinen Differenz, was, wie er behauptet, die Abwesenheit eines jeglichen Wertmaßes anzeige, das heute durch den Binärcode ersetzt worden sei, sodass das Geld eben kein allgemeines Äquivalent mehr darstelle, sondern einzig und allein durch Differenz gekennzeichnet sei. (Ebd.: 139) Abgesehen von der fragwürdigen Annahme, Differenz mit Digitalität gleichzusetzen (für Deleuze z. B. gehört die Differenz dem Analogischen an), ist es tatsächlich die Digitalität qua Binärcode, welche heute als mediale Basis der elektronischen Geldform erscheint, sodass das Geld in erster Linie auf bedeutungslosen Daten beruht, die jedoch nach wie vor bedeuten (und verweisen) müssen, und of course benötigen die Geldströme im Raum des Symbolischen, in dem sie zwischen Prozessen und Stasen oszillieren (übertragen und speichern), Materie/Energie, denn schließlich kann die res cogitans ohne res extensa nicht auskommen. (Wenn das Symbolische, obwohl es keine Referenz zum Objekt bzw. zur Arbeit aufweist, dennoch nur am Material stattfinden kann, das dem Kontinuum der Zeit entrissen wird, Operationen daher vornehmlich im Raum des Symbolischen stattfinden, womit die Zeitachse gewissermaßen entmächtigt ist, so brauchen Operationen als instantane Prozesse doch so marginal wie auch immer Zeit, wenn diese auch nicht vergleichbar irreversibel wie die Zeiten außerhalb des Symbolischen ablaufen.) Wie Oliver Schlaudt stellt also auch Bernhard Vief – allerdings in anderer Gewichtung – die Frage nach dem Verweis des Geldes auf ein Drittes. Während Vief jedoch keinerlei Notwendigkeit mehr sieht, auf abstrakte Arbeit überhaupt noch Bezug zu nehmen, führt Schlaudt diesen Verweis als die besondere Leistung der Arbeitswerttheorie an, mit der Marx abstrakte Arbeit als immanentes Wertmaß ausgewiesen hätte. (Vief 1991: 135f./Schlaudt 2011: 265f.) In der Tat stellt sich hier für Marx eine entscheidende Problematik, die wir in den Kapiteln zu Wert und abstrakte Arbeit diskutieren wollen.

4Meinungsfreiheit, das ist das freie Zirkulieren von Meinungen (nicht von Diskursen, Narrrativen und erst recht nicht von Wahrheiten). Die elaborierte Systemtheorie hat das schon früh auf den Punkt gebracht, ohne allerdings die fatalen Folgen zu bedenken: »Jede Kommunikation ist gesellschaftlich, wenn genau davon abgesehen wird, wovon sie handelt, worüber sie spricht, woran sie anschließt, welche Folgen sie hat. Gesellschaftlich ist Kommunikation ausschließlich unter dem Aspekt keiner spezifischen Bedeutung oder besser: unter Ausschluß überhaupt jeglicher Bedeutung, außer der, dass Kommunikation immer etwas bedeutet, besagt.« (Peter Fuchs 2001: 112) Die Meinungsfreiheit ist gewährleistet. Sie zirkuliert wie Öl, Kapital und Dschungelcamp.

5Das heißt nicht, dass Facebook nicht zensieren würde, denn jeder einzelne Post, jeder Kommentar und jede Nachricht wird von Mitarbeiten und/oder Maschinen gelesen und analysiert, um festzustellen, ob sie mit den willkürlichen, weitgehend undefinierten und undurchsichtigen Standards des Unternehmens übereinstimmen. Zudem leitet das Unternehmen Informationen über politische Äußerungen vor allem aus dem linken Umfeld auch an die Polizei und Nachrichtendienste weiter.

6 So wie die Protokolle überall sind, so sind es auch die Standards. Man kann von ökologischen Standards sprechen, von Sicherheits- und Gesundheitsstandards, Gebäudestandards und digitalen und industriellen Standards, deren institutioneller und technischer Status durch die Funktionsweisen der Protokolle möglich wird. Die Kapazität der Standards, hängt von der Kontrolle durch Protokolle ab, einem System der Governance, dessen Organisationstechniken gestalten, wie Wert extrahiert von denen wird, die in die verschiedenen Modi der Produktion integriert sind. Aber es gibt auch die Standards der Protokolle selbst. Das TCP/IP Model des Internets ist ein Protokoll, das ein technischer Standard für die Internet-Kommunikation geworden ist. Es gibt eine spezifische Beziehung zwischen Protokoll, Implementierung und Standard, die den digitalen Prozesse betrifft: Protokolle sind Beschreibungen der präzisen Terme, durch die zwei Computer miteinander kommunizieren können (i.e., a dictionary and a handbook for communicating). Die Implementierung impliziert die Kreation von Software, die das Protokoll benutzt, i. e. die Kommunikation abwickelt (zwei Implementationen, die dasselbe Protokoll benutzen, sollten Daten miteinander austauschen können). Ein Standard definiert, welches Protokoll bei bestimmten Computern für bestimmte Zwecke benutzt werden soll. Er definiert zwar nicht das Protokoll selbst, aber setzt Grenzen für die Veränderung des Protokolls.

7 Die von Lefebvre beschriebene Zersplitterung und zugleich Standardisierung des alltäglichen Lebens führte ab dem Jahr 1970 in eine symbolische Misere, die durch die Dominanz der audiovisuellen, analogen Apparate der Massenmedien gekennzeichnet war, welche eine Periode des strategischen Marketings einläuteten, das dann mittels der Privatisierung des Radios und des Fernsehens umfassend umgesetzt wurde. Die symbolische Misere bzw. die De-Symbolisierung der alltäglichen Narrative, die durch diese Entwicklungen eingeläutet wird, führt laut Stiegler zu einer Proletarisierung der Sensibilitäten und zu einer Vernichtung des Wunsches, oder, was auf das Gleiche herauskommt, zu dem Ruin der libidinalen Ökonomie. Das spekulative Marketing der Finanzindustrie stellt den vorläufigen Höhepunkt dieser Entwicklung dar. Die Mechanisierung der Sensibilität und die Industrialisierung des symbolischen Lebens ist heute in »Kommunikationen« eingeschrieben, die wiederum durch die Unterscheidung zwischen den professionellen Produzenten der Symbole und den proletarisierten und de-symbolisierten Konsumenten gekennzeichnet ist.

8 Wo Stiegler noch von der Proletarisierung des Wissens spricht, sieht Zuboff in der Wissensteilung, welche die Arbeitsteilung überlagert, eine Pathologie, die heute in die Hände einer kleinen Clique von Computerspezialisten geraten sei, einer »Maschinenintelligenz« und ökonomischen Interessen. Wenn all dies richtig ist und auch richtig ist, dass Pathologien die des Systems sind, dann gilt es zu analysieren, wie sich das heutige Kapital zusammensetzt: Produktion qua Ausbeutung, Spekulation qua finanziellem kapital, Plünderung qua Extraktion und Vermarktung von Daten.

Nach oben scrollen