Algorithmische Governance

Allseits bekannte Sachverhalte wie Satellitenüberwachung, enorme Rechnerkapazitäten auf Silizium Chips, Sensoren, Netzwerke und Predictive-Analytics sind heute Bestandteile der globalen digitalen Systeme, die das Leben und Verhalten der Bevölkerungen gegenwärtig umfassend quantifizieren, analysieren, bewerten und kapitalisieren. Dabei sieht sich beispielsweise Google unter dem Druck der Finanzmärkte gezwungen, die Effektivität seines Data-Trackings und seiner durch Maschinenintelligenz erzeugten Analysen ständig zu erhöhen und gerade deswegen jeden Anspruch der Nutzer auf den Schutz der eigenen Privatsphäre mit den vielfältigsten Mitteln zu bekämpfen. Dank einer Reihe von Geräten wie Laptops und Smartphones, Kameras und Sensoren sind heute Computer im kapitalisierten Alltag allgegenwärtig, es sind Zeichen lesende Maschinen, die Algorithmen (unbedingt berechenbare, formal-eindeutige Verfahrensanweisungen) ausführen und ihre volle Kraft erst im Kontext digitaler Medien der Vernetzung entfalten, wofür die programmgesteuerte Gestaltung, Transformation und Reproduktion sämtlicher Medienformate Voraussetzung ist. Insbesondere die sozialen Netzwerke ermöglichen in diesem Spiel eine Art von Ökonomie, die aufgrund die Extraktion von persönlichen Daten, die zur Konstruktion von Metadaten, Cookies, Tags und anderen Tracking-Technologien führt, eine eigenartig neue algorithmische Governance etabliert hat. Diese Entwicklung ist vor allem als »Big Data« bekannt geworden, ein System, das auf Vernetzung, Datenbanken und hohen Computerleistungen und -kapazitäten aufbaut.

Die darin involvierten Prozesse sind laut Bernard Stiegler solche der »Grammatization«. Im digitalen Stadium führen diese dazu, dass die Individuen durch eine Welt geführt werden, in der ihr Verhalten grammatikalisiert ist, wenn sie mit Computersystemen interagieren, die in Real Time operieren. Die Grammatization beginnt für Stiegler allerdings schon mit den Höhlenmalereien und führt über die Medien Keilschrift, Fotografie, Film und Fernsehen schließlich zum Computer, zum Internet und zum Smartphone. Ergebnis all dessen ist, dass die Datenpfade und -spuren, die mit den heutigen Technologien der Computerisierung erzeugt werden, ternäre aufmerksamkeitsreduzierende Retentionen bzw. Mnemotechniken konstituieren, die spezifische Zeitverfahren und Individuationsprozesse inkludieren, das heißt «Industrialisierungsprozesse des Gedächtnisses« bzw. eine »politische und industrielle Ökonomie, die auf der industriellen Ausbeutung von Bewusstseinszeiten beruht«. Mit der Digitalisierung der Datenwege und -prozesse, die heute mittels Sensoren, Interfaces und anderen Mitteln aufdringlich dringlich funktionieren und grundsätzlich als binäre Zahlen und kalkulierbare Daten generiert werden, wird Stiegler zufolge ein automatisierter Gesellschaftskörper geschaffen, in dem selbst noch das Leben in einen Agenten der hyper-industriellen Ökonomie des Kapitals transformiert wird. Deleuze hat diese Entwicklung in seinem berühmten Essay zu den Kontrollgesellschaften schon vorausgesehen, aber zur vollen Tragkraft kommen die Kontrollformen erst, wenn die digitale Kalkulation die von Deleuze festgestellten Modulationen der Kontrolltechniken in eine algorithmische Governance integriert, die zudem die Automatisierung sämtlicher Existenzen, Lebensweisen und Kognitionen inkludiert.

Eines der zentralen Dilemmata des Postfordismus besteht darin, Konformität, Konsens und Kooperation herzustellen, ohne disziplinarische Techniken der Macht einzusetzen, welche die Kreativität und die affektiven Werte zu stark beschädigen. Die Grenzen des Ökonomischen scheinen zu verschwimmen, aber es muss dennoch eine ökonomische Rationalität geben, wenn Unternehmen im Wettbewerb überleben wollen. Postfordistische Kontrollgesellschaften werden nicht länger explizit durch Strategien dominiert, vielmehr besteht das Ideal der Kontrolle darin, die Macht in die Taktiken einwandern zu lassen, um kontingente und emergente Rhythmen des Alltagslebens zu penetrieren, und dies im Sinne einer Kooperation mit den Zielen des Managements.

Die dem Internet zugrunde liegenden Machttechnologien der Protokolle sind a-normativ, da sie selten breit in der Öffentlichkeit debattiert werden, vielmehr scheinen sie der algorithmischen Governance immanent zu sein. Zur Debatte steht nun: Erzeugen Daten digitale Protokolle oder digitale Protokolle Daten? Oder noch enger: Sind Daten digitale Protokolle? Auf jeden Fall hat die Setzung der Daten strukturierenden Charakter, und nicht erst die Resultate der maschinellen Datenbearbeitung. Wie jede Governance, wenn wir sie im Sinne von Foucault denken, implementiert auch die algorithmische Governance spezifische Technologien der Macht, die heute aber nicht mehr auf einer Statistik basieren, die sich auf den Durchschnitt oder die Norm bezieht, stattdessen haben wir es mit einer automatisierten, einer atomaren, pulsierenden und auf Wahrscheinlichkeit beruhenden Maschinenintelligenz zu tun, die die Spurensicherung und das Datamining unabhängig vom Medium betreibt – ein automatisches Computing sammelt, erfasst und mobilisiert in rasender Geschwindigkeit, nahe der des Lichts, mit den Methoden der künstlichen Maschinenintelligenz Daten über das Verhalten der Marktteilnehmer, die mittels der Extraktion ihrer Daten durch Überwachungskonzerne kontrolliert werden und deren Verhalten kapitalisiert wird.1 Die kontinuierlich Daten sammelnden und Datenspuren lesenden und auswertenden digitalen Maschinen mobilisieren also eine a-normative und eine a-politische Rationalität, die auf der automatischen Analyse und der monetären Valorisierung von enormen Datenmengen besteht, und zwar indem die Verhaltensweisen der Agenten modelliert, antizipiert und damit beeinflusst werden. Man nennt dies heute verharmlosend ubiquitäres Computing, bei dem, und darauf ist immer wieder hinzuweisen, das Überwachungskapital die Extraktion des Verhaltens der Nutzer und die Herstellung der darauf aufbauenden Vorhersageprodukte, die durch die Algorithmen des Überwachungskapitals entstehen, längst nicht mehr nur im Internet, sondern in der realen Welt betreibt, um dann die Vorhersageprodukte durch spezielle Verfahren ständig zu diversifizieren und tiefer zu legen. Alles, ob belebt oder unbelebt, lässt sich nun verdaten, verbinden, zählen und berechnen. Und so fließen aus den Automobilen, Kühlschränken, Häusern und Körpern etc. ständig Signale als Daten in die digitalen Netze, die an solche Werbekunden verkauft werden, die zielgenaue Werbung betreiben. (Zuboff 2018: 225).

Um es genauer zu sagen: Das Kapital der Unternehmen Google oder Facebook automatisiert das Kaufverhalten der Konsumenten, kanalisiert es mittels der berühmten Feedback-Loops von KI-Maschinen und bindet es zielgerichtet an Unternehmen, die wiederum Werbekunden des Überwachungskapitals sind. Die verkaufsfördernden Verhaltensmodifikationen, die bei den Nutzern erzielt werden sollen, beruhen auf maschinellen Prozessen und Techniken wie dem tuning (Adaption an ein System), herding (Zurichtung der Masse) und der Konditionierung (das Trainieren von Reiz-Reaktionsmustern), die das Verhalten der Nutzer derart lenken, dass die maschinell konstruierten Vorhersageprodukte deren Verhalten tatsächlich in Richtung der von Google oder Facebook garantierten Intentionen treiben. (Ebd.) Die maximale Vorhersagbarkeit des Verhaltens der Nutzer ist nun eine genuine Profitquelle: Der Konsument, der eine Fitness-App benutzt, soll am besten im Augenblick maximaler Empfänglichkeit, beispielsweise nach dem Jogging, ein gesundes Getränkeprodukt kaufen, das ihm durch zielgerichtete Werbung schmackhaft gemacht wird. So hat der Sportartikelhersteller Nike die Datenanalyse-Firma Zodiac gekauft und nutzt sie in seinen Filialen in New York. Betritt ein Kunde mit Nike-App auf dem Smartphone eine Filiale, so wird er von der Geofencing-Software erkannt und kategorisiert. Sofort verändert sich auch die Startseite der App und anstelle von Online-Angeboten erscheinen auf dem Bildschirm die Neuheiten im Shop, das heißt auf den Kunden zugeschnittene Sonderangebote und Empfehlungen. Besonders treue Kunden erhalten im Shop kleine Geschenke und können sich die gewünschten Waren sogar per Smartphone in die Umkleidekabine liefern lassen.

Es geht beim Überwachungskapital längst nicht mehr nur um den Verkauf von Werbung, vielmehr wurde es sehr schnell das Modell für die Kapitalakkumulation in Silicon Valley, das bis heute von nahezu jedem Start-up Unternehmen übernommen wird. Aber das Modell ist nicht nur auf einzelne Unternehmen oder den Internetsektor beschränkt, sondern hat sich auf eine große Anzahl von Produkten und Serviceleistungen über den ganzen ökonomischen Sektor verteilt, eingeschlossen Versicherungen, Gesundheitsvorsorge, Finanzen, Kulturindustrie, Transportwesen etc. Nahezu jedes Produkt oder jede Dienstleistung, die mit dem Wort »smart« oder »personalisiert« beginnt, jedes internetanschlussfähige Gerät, jeder »digitale Assistent« stellt in der Angebotskette der Unternehmen ein Interface für den unsichtbaren Fluss von Verhaltensdaten auf dem Weg zur Vorhersage der Zukunft in einer Überwachungsökonomie dar.

In der Rolle des Investors gab Google schnell die erklärte Antipathie gegen die Werbung auf, stattdessen entschied man sich die Gewinne zu erhöhen, indem man den exklusiven Zugang zu dem Datenabfall der User in Kombination mit analytischen Kapazitäten und Computerpower nutzte, um Vorhersagen über die Klickraten der User, die als Signal für die Relevanz einer Werbung gesehen werden, zu generieren. Operational bedeutete dies, dass Google seinen wachsenden Datenbestand umfunktionierte, um ihn als Verhaltensdatenüberschuss »arbeiten« zu lassen und gleichzeitige neue Methoden zu entwickeln, die aggressiv nach Quellen der Surplusproduktion suchen. Dieser Datenüberschuss wurde also die Basis für neue Vorhersagen, die »targeted advertising« genant wurden.

Die Überwachungskapitalisten setzten sich zuerst durch Aussagen in Szene, in denen man die privaten »Erfahrungen« der Nutzer als etwas betrachtete, dass man sich einfach nehmen kann, um dann konsequent die »Erfahrungen« in Daten zu übersetzen und diese als Privateigentum anzueignen und für den privaten Wissensgewinn auszunutzen. Google erklärte einfach, dass das Internet lediglich eine Ressource für ihre Suchmaschine ist, und fügte hinzu, dass die privaten Erfahrungen der User den Gewinnen der Firma dienen. Der nächste Schritt sah vor, dass die Surplusoperationen über das Online-Milieu hinaus in die reale Welt vordringen sollten, wo Daten über das persönliche Verhalten als frei gelten, um einfach von Google gestohlen zu werden. Und das Überwachungskapital bedarf der Bevölkerung nicht mehr in ihrer Funktion als Konsumenten, sondern Angebot und die Nachfrage orientieren die Überwachungsfirmen an Geschäften, die auf die Antizipation des Verhaltens der Bevölkerungen, Gruppen und Individuen ausgerichtet sind.

Shoshana Zuboff beschreibt Daten, die von allen möglichen humanen Aktivitäten als verhaltensorientierter Surplus gextrahiert werden, als einen Angriff auf die Erfahrung selbst. Aber welche Erfahrungen denn? Die erfolgreiche Werbung nimmt heute ständig Qualitäten der realen Erfahrung auf. Dies können Konzerte, Multi-Media Events, Spiele und VR-Applications sein. Von 3D bis zu VR, das Ziel besteht darin, jede Barriere zwischen Person und Erfahrung zu eliminieren. Diese dann durch keine Medien mehr gestörten Erfahrungen wird in das übersetzt, was Bernard Stiegler als Konditionierung bezeichnet. Die Ästhetik ist nun Theater und Waffe zugleich. Und all dies resultiert in einer Misere, in der die Konditionierung die Erfahrung substituiert.

Es genügt nicht länger, die Informationsströme, welche die Bevölkerung ausleuchten, zu automatisieren, vielmehr besteht das Ziel nun darin, auch noch das zukünftige Verhalten der Bevölkerung selber zu automatisieren. Diese Prozesse werden ständig neu designt, um jede Möglichkeit zur Selbstbestimmung der User zu eliminieren, was nicht unerheblich für die Kapitalmärkte ist, wenn die Vorhersagen über das Verhalten von Bevölkerungen nicht nur wahrscheinlich sind, sondern sich der Gewissheit annähern, dass das gewünschte Verhalten auch eintritt. Im Konkurrenzkampf um die effizientesten Vorhersageprodukte haben die Überwachungskapitalisten schnell gelernt: Je mehr Verhaltenssurplus man sich aneignet, desto besser treffen die Vorhersagen ein, und je mehr der Überschuss variiert werden kann, desto höher ist der Vorhersagewert. Dieser neue Drive der Ökonomie führt von den Desktops über die Smartphones in die reale Welt – man fährt, läuft, shoppt, sucht einen Parkplatz, das Blut zirkuliert und man zeigt sein Gesicht – alles soll aufgezeichnet, lokalisiert und vermarktet werden.

Zuboff schreibt, dass die Überwachungskapitalisten das Recht zu wissen, zu entscheiden, wer weiß und zu entscheiden, wer entscheidet, ganz allein für sich einfordern. Sie dominieren die Automatisierung des Wissens und seine spezifische Arbeitsteilung. Zuboff schreibt weiter, dass man das Überwachungskapital nicht ohne das Digitale begreifen könne, wobei das Digitale aber auch auch ohne das Überwachungskapital bestehen könne: Das Überwachungskapital sei keine reine Technologie, vielmehr könnten digitale Technologien vielfältige Formen annehmen. Das Überwachungskapital basiere zwar auf Algorithmen und Sensoren, künstlichen Maschinen und Plattformen, aber es sei eben nicht dasselbe wie diese Komponenten.

Die Grenze für billige Daten liegt in der Überlagerung, die über andere Sphären des Lebens gelegt wird, um deren Kräfte abzuziehen. Insoweit können auch Ressourcen von den Leuten und der Natur extrahiert werden, die durch das Kapital schon verbilligt wurden. An diesen Grenzen wird industrielle Arbeitskraft, wie etwa solche, die in den Centern bei Amazon arbeitet, getrackt und beobachtet, und stellt so doppelte Zeit für das Unternehmen zur Verfügung, das zum einen von der Arbeit profitiert, während es zum anderen Daten über die Bewegung der Körper im Raum akkumuliert. Freunde und Familien bieten gegenseitig den notwendigen, aber unbezahlten Support (billige Care) auf den digitalen Plattformen wie Facebook an, um die soziale Kohäsion beizubehalten und die Arbeitskräfte zu reproduzieren, während sie gleichzeitige Massen von verwertbaren Daten für die Eigentümer der Plattformen produzieren. Dieser magische Trick, mit dem Daten als ein Nebenprodukt verschiedener Arten von billiger Arbeit gesammelt werden, ist ein großer Coup für das Kapital und eine weitere Möglichkeit für die Extraktion jeden menschlichen Restes. Wie Moore sagt, erlauben die neuen Billigen (Arbeitskraft hier) neue Strategien, um Krisen zu überleben, denn die Überlagerung von billigen Daten hilft die Krise der stagnierenden Produktivität und des Wachstums zu lösen, und zwar durch das Erfassen aller Arten existierender Arbeiten als Service für Daten produzierende Maschinen.

Der Anstieg von billigen Daten bezieht sich nicht nur auf die Daten, die aus den menschlichen Abläufen gezogen werden. Während Google und Facebook daran arbeiten, die Klicks und Verhaltensweisen zu manipulieren, werden Daten von der Bewegung der Maschinen über das Wachstum von Pflanzen bis hin zu der Bewegung der Zinsraten gesammelt. Diese Daten werden in verschiedenen Weisen benutzt, um Maschinen lernende Systeme zu trainieren, die die Manipulation von Bevölkerungen oder die Kreation neuer Märkte leisten, Daten, welche die Welt jenseits des Lebens gestalten. Wenn Zuboff das menschliche Verhalten als den Bereich der Extraktion und der Kontrolle verabsolutiert, dann beschränkt sie ihre Argumente auf eine Kritik der Überwachung und lässt damit das Kapital und die Arbeit weitgehend nicht untersucht.

Den Verhaltensüberschuss Modell und die Metaphern, die sich um das ranken, was die Daten als fließend, kaskadierend und überlaufend beschreibt, ignorieren die Art und Weisen, mit der die Produktion von billigen Daten oft genug noch konzentrierte und und ermüdende Arbeit zugleich benötigt. Wenn wir tausende Bilder von unseren Gesichtern freiwillig uploaden, die dann von den Eigentümern der Plattformen benutzt werden, dann brauchen diese Bilder oft genug ein zusätzliches tagging oder eine Kategorisierung, um für kommerzielle Zwecke brauchbar zu sein, denn die Bilder beschreiben sich nicht selbst. Hier kommt billige Arbeit ins Bild,

Die digitale Akkordarbeit von Arbeitern wie die, die bei Amazon’s Mechanical Turk angestellt sind, ist essenziell, um billige Datensammlungen herzustellen, die viele AI Systeme und Forschungsprojekte benötigen. ImageNet, die wichtigste Datenbank von Bildern, bei der visual object recognition software development benutzt wird, basiert auf der Arbeit der MTurk Arbeiter, die Tag für Tag Millionen Bilder sortieren und taggen, um sie zu einem Datenset zusammenzuführen, das von der militärischen Forschung über Unternehmen wie IBM, Alibaba, and Sensetime benutzt wird, wobei letztere damit die Technologie zur Verfügung stellen, die die chinesische Regierung benutzt, um beispielsweise die minoritäre Bevölkerung der Uighur zu kontrollieren. Neue Untersuchungen haben den Stress und Horror von Arbeitern, die in digitalen Fabriken beschäftigt sind, hervorgehoben, wenn sie beispielsweise Bilder von den Verbrechen der ISIS aussortieren oder tagelang große soziale Plattformen nach hate speech und Gewaltvideos scannen. Wie alle billigen Dinge beruhen billige Daten auf massiven Externalitäten, um nach Möglichkeit das Risiko zu schmälern oder es auf andere Leute und Naturen abzuwälzen, während die Profite in die entgegengesetzte Richtung fließen.

Die Beschädigung von Arbeitern ist nur eine der Externalitäten, die mit der Jagd nach billigen Daten entstehen. Die billige Energie, die für das Trainieren von AI Modellen und den massiven Transfer von großen Datenmengen zur und von der Cloud benötigt wird, ist weniger sichtbar als die ausgebeuteten Arbeiter, aber die kumulativen Effekte sind enorm. Untersuchungen schätzen, dass die Energie, die gebraucht wird, um eine einziges AI Modell zu trainieren den fünffachen CO2 Ausstoß hat wie die Abgaben eines durchschnittlichen Autos während dessen Lebenszeit. Die Hardware, die benötigt wird, um all diese Modelle zu handhaben und die Daten zu sammeln benötigt hohe Menge von wertvollen Metallen und neuer Plastik. Billige Natur wird benötigt, wenn sie von billiger Arbeit extrahiert wird, um die fiber optic cables und Computer herzustellen, die Daten sammeln und verbinden.

Was passiert wenn billige Daten mit der Zeit teurer werden? Wenn beispielsweise die Löhne für prekäre Arbeiter in der Datenverarbeitung steigen oder verstärkte Kontrollen der Privatheit stattfinden, sodass der Verhaltensüberschuss schwieriger herzustellen ist? Es ist dann davon auszugehen, dass die Extraktion von Daten neue billigere Bereiche und Grenzen benötigt. Dieser Prozess hat mit dem offshoring digitaler Fließbandarbeit schon begonnen, wenn die großen Techfirmen sich im globalen Süden verbreiten, um neue Märkte zu kreieren und Daten von neuen Bevölkerungssegmenten zu extrahieren.

Ein Unternehmen wie Google muss schon bei der Sammlung von Daten, die das Verhalten der Nutzer spiegeln und die zudem dem Tracken von Verhaltensüberschüssen (die Datenabgase bei Google) dienen, bestimmte Dimensionen der Größen- und Diversifikationsressourcen erlangen, um die Daten mittels seiner Maschinenintelligenzen effektiv in Vorhersageprodukte des Nutzerverhaltens umwandeln und zielgerichtet an Werbekunden verkaufen zu können, Die Produkte gehen wie »Wärmesuchraketen« (Zuboff) auf den Nutzer los, um ihm beispielsweise bei einem Puls von 78 genau das richtige Fitnessprodukt via eingeblendeter Werbung vorzuschlagen. So muss man mit steigender Diversifikation zum einen eine breite Auffächerung von überwachbaren Themen in der virtuellen Welt erzielen, zum anderen müssen die Extraktionsoperationen aus dem Netz in die reale Welt verlagert werden. Darüber hinaus müssen die algorithmischen Operationen an Tiefe gewinnen, das heißt, sie müssen auf die Intimität der Nutzer zielen, um steuernd und formierend in deren Verhalten einzugreifen, indem die Unternehmen beispielsweise zeit- und zielgerecht Pay-Buttons auf dem Smartphone einblenden oder einen Wagen automatisch sperren, wenn der Betroffene bestimmte Versicherungsbeträge nicht rechtzeitig bezahlt hat.

Bei einer Suchanfrage zählen Faktoren wie Suchbegriffe, Verweildauer, die Formulierung der Anfrage, Buchstaben und Interpunktion zu den Anhaltspunkten, mit denen man das Verhalten der Nutzer ausspioniert, und so sind selbst noch diese sogenannten Datenabgase valorisierbar, wenn eben dieser Verhaltensüberschuss des Users für zielgerichtete Werbung eingesetzt werden kann, wobei Google den durch algorithmische Wahrscheinlichkeit eruierten meist bezahlenden Werbekunden auch die besten Werbeplätze zuweist, deren Preise sich aus dem Preis pro Klick multipliziert mit der Wahrscheinlichkeit, mit der die Werbung tatsächlich dann auch angeklickt wird, errechnen. In diesen Verfahren findet man letztendlich auch heraus, was ein bestimmtes Individuum an einem bestimmten Ort und zu einem bestimmten Zeitpunkt denkt. Singularität indeed. Jeder Klick auf ein bei Google geschaltetes Werbebanner ist ein Signal für dessen Relevanz und gilt damit als ein Maß für erfolgreiches Targeting (Zuboff) . Dabei ist derzeit bei Google ein Anstieg der bezahlten Klicks und zugleich ein Fall der durchschnittlichen Kosten per Click zu registrieren, was einer Steigerung der Produktivität gleich kommt, da eben das Volumen des Outputs bei gleichzeitigem Fall der Kosten gestiegen ist.

Der Daten-Fundus, aus dem die Analytiker des Überwachungskapitals mittlerweile schöpfen können, geht ins Unendliche. Die Überwachungskapitalisten wissen genau, wer wie oft bei Unternehmen reklamiert, bei Hotlines anruft oder in Online-Portalen über ein Unternehmen herzieht. Sie kennen die Lieblingsgeschäfte, die Lieblingsrestaurants und -kneipen vieler Verbraucher, die Zahl ihrer »Freunde« bei Facebook, den Urheber von Anzeigen, die Social-Media-Nutzer angeklickt haben. Sie kennen die Hautfarbe, das Geschlecht, die finanzielle Lage eines Menschen, seine körperlichen Erkrankungen und seelischen Beschwerden. Sie wissen über das Alter, den Beruf, die Zahl der Kinder, die Wohngegend, die Größe der Wohnung Bescheid – schließlich ist es etwa für ein Unternehmen, das Matratzen herstellt, durchaus interessant zu erfahren, ob ein Kunde Single ist oder im Fall der Fälle wohl gleich fünf Schaumstoffmatten für die gesamte Familie ordern sollte.

Heute ist die therapeutische Gruppe in Facebook materialisiert, in ihren unsichtbaren Algorithmen und hat zugleich eine weitgehend imaginäre Gruppensucht unvorstellbaren Ausmaßes erreicht. Und hier liegt die Theorie der Simulation falsch, denn es ist nichts Falsches an den digitalen Netzwerken, sie sind ganz real und erzeugen für diejenigen, die an die Netzwerke angeschlossen sind, eine unruhige Stabilität, indem die Dinge einfach expandieren, mehr Anfragen, mehr Freunde and so on. Herbert Marcuse schrieb einst, dass es eines der kühnsten Vorhaben des Nationalsozialismus gewesen sei, den Kampf gegen die Tabuisierung des Privaten zu führen. Und gerade die Privatheit ist heute so befreit von jedweder Kuriosität oder jedwedem Geheimnis, dass man ohne jede Bedenken oder geradezu begierig alles auf seine Timewall schreibt, sodass jeder es lesen kann. Wir sind so froh, wenn ein Freund irgendetwas kommentiert. Und man ist andauernd damit beschäftigt, all die Daten-Feeds und Updates zu managen, zumindest muss man ein bisschen Zeit von seinen täglichen Routinen abzweigen. Der Geschmack, die Präferenzen und die Meinungen bekommen einen Preis, den man gerne zahlt.

Neu sind nicht nur die technologischen Machtstrukturen (Protokolle und Algorithmen; das Netzwerk ist die Message), sondern ein Akkumulationsmodell, das sich digitaler Mittel bedient, um alle möglichen Daten, die das Verhalten der Nutzer spiegeln, einzusammeln und daraus deren Verhaltensüberschuss zu extrahieren, sodass künftiges Verhalten möglichst exakt vorhergesagt und zielgerichteter Werbung zugeführt werden kann, wobei Verbesserungen in der Vorhersage wie auf Abruf die Klickraten auf den Werbebannern steigern. Die Verhaltensüberschüsse entstehen auch daraus, dass mehr Verhaltensdaten als notwendig gerendert werden, um diese in künstlichen Maschinen (Ranking, statistische Modellierung, Vorhersage, Spracherkennung und visuelle Transformation) einzuspeisen, die dann Vorhersagen über Nutzerverhalten produzieren, Quasi-Derivate, welche das Überwachungskapital auf den Verhaltensterminkontraktmärkten an meistbietende Unternehmen verkauft. Google führt an diesen Märkten Auktionen durch, bei denen in enormer Anzahl »Derivate von Verhaltensüberschuss« (Zuboff 105) versteigert werden. Es lässt sich folgern, dass die algorithmischen Operationen mit Daten profitable Produkte, die alle auf die Vorhersage und Monetarisierung des zukünftigen Verhaltens der Nutzer abzielen, für ganz bestimmte Unternehmen generieren: Die wichtigen Kunden von Google sind diejenigen, die Werbung benötigen und bei Google dafür für zahlen, dass sie ein effektives Angebot von Vorhersageprodukten erhalten, die wiederum auf der umfassenden Überwachung der User beruhen. Diese Produkte beruhen also darauf, dass Google genauestens zu prognostizieren versucht, was die User im Jetzt und in der nahen Zukunft tun, denken und fühlen (Zuboff 2018: 119), womit auch das Risiko für die Werbekunden eingeschränkt werden soll, sodass relativ sichere Wetten auf zukünftiges Verhalten abgeschlossen werden können. Allerdings sind die Adressaten an den Märkten, an denen Google Vorhersageprodukte verkauft, nicht ausschließlich Werbekunden, sondern es sind im Endeffekt alle, die ein Interesse am Ankauf »probabilistischer Informationen« ( ebd.: 120) haben, also zum Beispiel auch Staaten, vor allem ihre Nachrichtendienste, die deshalb ein enges Verhältnis zu den Unternehmen im Silicon Valley pflegen.

Dabei sind die Vorhersagemaschinen eine Art Black Box, deren innere Abläufe wahrzunehmen, die menschlichen Kapazitäten der Perzeption weit übersteigt. Zuboff spricht an dieser Stelle von einem Schattentext, in dem die Maschinen die relevanten Handlungsanweisungen vorgeben, die meistens auf die Beeinflussung des Konsums der Nutzer abzielen. So gehen beispielsweise in die algorithmisierte Auswahl der Bilder, die Instagram einem Nutzer zeigt, Ströme der Verhaltensdaten dieses Nutzers, die Daten seiner Freunde, Daten von Leuten, die demselben Account wie der Nutzer folgen, sowie Daten und Links seiner Aktivitäten auf Facebook ein. (ebd.: 555). Es gibt eine Vielzahl von Daten und Operationen, welche selbst die Programmierer der Maschinen nicht mehr durchblicken. Facebook kann mit der Abfrage der Likes ein umfassendes Spektrum der persönlichen Verhaltensweisen eines Users erfassen, das den Sex, die politischen Ansichten, das Konsumverhalten, Intelligenzleistungen etc. betrifft. So gesehen setzt das Like-Belohnungssystem im richtigen Timing die notwendigen Dopamin-Spritzen, um die Aktivitäten der User andauernd anzuspornen, weitere Datenströme zu produzieren. Ein Post, der keine Likes erhält, bedeutet für den User den sozialen Tod.

Die neuen automatischen Systeme modellieren das Soziale in Realtime, kontextualisieren und personalisieren die sozialen Interaktionen, sei es nun im Gesundheitswesen, im Business oder in der Administration. Wir sollten mit den französischen Autoren Rouvray und Berns hinzufügen, dass die neu algorithmische Governance zudem Technologien mit territorialen und räumlichen Dimensionen umfasst, welche beispielsweise in den Programmen der »Smart und Sensored Cities« Anwendung finden. Mit Googles Street View macht Google aus dem öffentlichen Raum einen unpersönlichen Raum des Spektakels, verwandelt ihn in eine lebende Tourismusbroschüre, einzig und allein mit dem Ziel der Überwachung und der Extraktion der Daten von Nutzern (ebd.:169), sodass letztendlich sogar von einer Enteignung der Wege und des Raums gesprochen werden kann (die in der flegelhaft einschmeichelnden Sprache des »Smart« zudem noch daher kommt), gerade indem es Google über die Exploitation der Online-Datenquellen hinaus gelingt, das Monitoring der realen Welt immer umfassender flächendeckend vorzunehmen, wenn die Leute eben entlang bestimmter Wege permanent getrackt und über Verhaltensmodifikationsmaschinen gleichzeitig noch zu bestimmten Zielorten gesteuert werden. Diese smarten Instrumente basieren auf »automatic computing« und »ambient computing, das heißt auf Technologien, deren Unsichtbarkeit die Dividuen noch aktiver und effizienter macht, weil sich diese Technologien unbemerkt und zugleich doch anspornend und das Verhalten verstärkend in die Fabrik des Lebens einweben, bis sie von dieser ununterscheidbar sind. Die algorithmische Governance fokussiert ganz auf Relationen, auf Relationen von Relationen, die wiederum auf Korrelationen reduziert werden, denn die Modelle der Künstlichen Neuronalen Netze ermitteln insbesondere Korrelationen und Muster, niemals aber Ursachen oder die Erklärung von Kausalitäten; sie dienen der Klassifizierung, der Bündelung und der Optimierung des Verhaltens, sind aber vom Verstehen weit entfernt.

Es geht also um die aktive Intervention und die Ausformung von Verhaltensweisen der Nutzer in der Zukunft. Und je mehr Datenspuren sie hinterlassen, oder, um es anders zu sagen, je mehr Daten durch die Methoden der Diversifikation und zudem durch eine Tiefe, die weit ins Innere des Nutzers reicht, extrahiert werden, desto präziser können die selbstlernenden algorithmische Maschinen (Stimmsuche, neurale Netzwerke, Feedback etc.) prozessieren, um nicht nur die richtigen Kaufentscheidungen für die Nutzer im Voraus zu treffen, sondern auch ihre Retentionen und Protentionen sanft zu massieren, sie letztendlich aber knallhart zu konditionieren, und das heißt, dass die optimierte Autonomie, die das Überwachungskapital dem Kunden verspricht, eine Pseudo-Autonomie ist, denn sie dient nur als ein mageres Versprechen, weil letztendlich unwidersprochen die gewinnbringenden Vorhersageprodukte automatisiert hergestellt und vertrieben werden.

Die Soziologen Rouvroy und Bern zeigen in ihrem Essay zur algorithmischen Governance, dass die Größe, die Geschwindigkeit und die Performativität der Algorithmen – Elemente, die sich auf die relationale Datenbearbeitung beziehen – die Kapazitäten humaner Entscheidung weit übersteigen. Sie beschreiben diese Governance als »a certain type of (a)normative or (a)political rationality founded on the automated collection, aggregation and analysis of big data so as to model, anticipate and pre-emptively affect possible behaviours.« Google kann mühelos voraussagen, dass jemand vermutlich in Kürze einen Anzug kaufen will, und wenn dieser jemand sich in der Nähe eines Schaufensters befindet, hinter dem Anzüge ausgestellt sind, dann ploppt auf dem Handy pflegegerecht eine Werbeanzeige auf, die den Kauf eines ausgestellten Anzugs anempfehlt. Das Leben selbst wird immersiv in die Datenproduktion eingebunden, in eine pulsierende Glut von Informationen, aber darüber hinaus sind wir selbst Daten geworden, die in Relation zu Maschinen stehen, die unser Leben einfangen, vereinnahmen und prozessieren, als ob wir selbst Teile seien, die moduliert und für Maschinenintelligenzen bereitgehalten werden. All dies man muss nicht mehr ausdrücklich betonen, denn es ist Teil des Habitus, durch den die Subjekte selbst maschinisiert werden, wenn sie streamen, updaten, einfangen, teilen, verlinken, verifizieren, mappen, sichern, trollen und Trash produzieren, selbst wenn es die höchste Langeweile hervorbringt.

Die Investitionen, die das Dividuum betreffen, erstrecken sich heute bis in die genetische Manipulation hinein. Neurotransmitter, Organe, biologische Komponenten und somatische Identitäten sind zum Tausch freigegeben. Es artet in eine umfängliche Begeisterung für die Freiheit aus, wenn der Körper andauernd in Bezug auf das Monetäre filetiert wird. Selbst noch der Körper mutiert also zur gewinnbringenden Firma, man denke an Implantate, Transplantationen und chirurgische Eingriffe, und man tätigt mit ihm Verkäufe, seien es Organe, Blut oder Keimzellen. Gerade dies führt zur Asomatognosie, einem Nichtwissen um den eigenen Körper. Der Begriff bezeichnet den Verlust der Wahrnehmung oder des Gefühls der Zugehörigkeit eigener Teile. »Self-Tracking« – die Extraktion, Sammlung, Zählung und Auswertung von Daten über alle nur denkbaren Merkmale und Funktionen des eigenen Körpers durch unterschiedliche Apps und Verfahren – beschreibt eine neuartige Form der Optimierung des eigenen Selbst. Solche Apps und Technologien können alle möglichen Daten automatisch aufzeichnen, katalogisieren und danach grafisch darstellen. Jede versäumte Joggingrunde, jede überzählige Kalorie, jede verträumte Minute Arbeitszeit wird unmittelbar registriert und angemahnt, um nicht vor sich selbst in den Verdacht zu geraten, nicht das Maximum aus dem Körper herauszuholen.

Virgin Pulse ist ein Produkt für den smarten Arbeitsplatz, das verspricht, eine Technologie für das Auffüllen des modernen Arbeiters mit Energie bereitzustellen. Es ist eine App, die den Beschäftigten erlaubt, das eigene Verhalten in Hinsicht auf Funktionen wie den Schlaf, Aktivität, Glück, Stress und Entspannung zu beobachten, um das Verhalten dahingehend zu verändern, einen gesünderen und glücklicheren Lebensstil zu pflegen. Es handelt sich um eine tragbare Technologie, die in manchen Unternehmen mit personenbezogenen Verbesserungsvorschlägen für jeden Beschäftigten ausgestattet ist, indem »gamification« Techniken mit spezifischer Zielsetzung eingesetzt werden, die zudem noch den Wettbewerb mit anderen Beschäftigten anheizen. Die Pläne stellen nämlich ein Wohlfühl-Data Dashboard her, in das die Manager des Unternehmens Einblick haben. Virgin Pulse stellt aber noch etwas aus, was bisher wenig beachtet wurde, nämlich die Empathie für den Puls im Sinne der Signifikation des konstanten 24/7 Streams von Daten, den das Programm generiert und analysiert, das heißt der Puls einer Organisation, der die Beobachtung vitaler Zeichen erlaubt: Bewegungen, Rhythmen, Patterns, Höhe- und Tiefpunkte. Diese sollten emergent und selbstregierend sein, sodass das Messen und die Disziplin gegenüber der Quantifizierung in den Hintergrund geraten. Indem man das Verhalten trackt, quantifiziert und repräsentiert, verändert diese tragbare Technologie die repetitiven und ordinären Tagesroutinen. Die Signifikanz des Puls und seine Beobachtung ist eher prä-kognitiv als kognitiv und normativ einzustufen und führt zur unbewussten Adaption an das jeweilige Environment.

Gleichzeitig kommt es aber auch zu drei Formen des Vergleichs: Zuerst der Vergleich mit sich selbst, als Fort- oder Rückschritt sichtbar gemacht im Vergleich zu früheren Aktivitäten. Der Vergleich mit (konkreten) Anderen durch den Wettbewerb der Daten. Und der Vergleich mit normierten Durchschnittswerten wie etwa dem Body-Mass-Index. Die Technologien des Self-Trackings ermöglichen es nun erstmalig, den gesamten Körper und seine Organe zu kapitalisieren. Die gesamte Lebensführung wie Essen, Schlaf, Bewegung, Beziehung und Emotionen können nun erforscht und in Zahlen umgesetzt werden – und dies alles in Echtzeit. So werden nicht nur die Schlafqualität oder die körperliche Aktivität aufgezeichnet, sondern es werden auch Langzeit-EKGs durchgeführt, Genome sequenziert, Labor-Scans, Tests auf Herz und Nieren oder zur mentalen Verfassung unternommen. Krankheiten und ihre Entwicklung werden in Realtime analysiert und damit immer genauer vorhersehbar. Es handelt sich um die Quantifizierung des «digital phenotyping», so erscheint jemand, der langsam tippt, als unglücklich und wer sehr schnell auf sein Smartphone einhämmert, befindet sich womöglich in einer manischen Phase.

Alles in allem generiert die algorithmische Governance sowohl ein neues polit-ökonomisches Feld als auch ein neues Regime der Datenbewirtschaftung, das sich durch eine spezifische technologische Performativität auszeichnet, deren wichtigste Punkte wir hier festhalten wollen:

1) Das permanente Einfangen von Daten, siehe Googles Versuch der Digitalisierung von Büchern, die Erfassung persönlicher Daten durch Google Street-View, die Umgehung des Datenschutzes, die Speicherung von Suchdaten, die Übermittlung des Standortes durch das Smartphone, Gesichtserkennung, Körpersensoren, Drohnen, die mit Sensoren ausgestattet sind, und die Generierung von Daten Doubles. Es geht hier um Enteignungsoperationen, denen der Nutzer Tag und Nacht unterworfen ist und damit seiner Erfahrungen, Emotionen und seines Gesichts beraubt wird.

2) Digitale Operationen, die diese Daten verarbeiten. Die maschinelle Bearbeitung dieser Daten beinhaltet die Extraktion und Modifizierung von Verhaltensmerkmalen, die man qua Muster, Clouds und Relationen sortiert und in Rankings integriert, um zudem noch die Korrelationen, die zwischen den Daten der Dividuen bestehen, auszuwerten. Dieses Datamining erscheint als absolut, insofern die Subjekte keine Möglichkeit haben zu intervenieren, sodass von einer total automatisierten Produktion von Protentionen (Erwartungen) gesprochen werden muss, welche die Differenz zwischen performativen und konstativen Verhaltensweisen liquidieren. Die automatisch produzierten Protentionen prozessieren heute in automatisierten und vernetzten KI-Systemen. In diesen Netzwerken gilt keineswegs, dass das Ganze größer als die Summe seiner Teile ist, vielmehr gibt es gar keine Teile mehr, denn das Ganze ist omnipräsent und manifestiert sich »in jedem der in allen Maschinen eingebauten Geräte« (Zuboff 2018: 472). Es handelt sich hier um ein modulares System, innerhalb dessen prinzipiell jede Maschine dieselbe Maschine ist und wie alle anderen Maschinen in derselben Logik operiert, wenn es auch zu Modulationen und Transformationen kommt. Diese künstliche lernenden Maschinen bedürfen wiederum der materiellen Infrastrukturen, oder, um es noch genauer zu sagen, bedürfen der Konfigurationen, die sich aus den Komponenten Hardware, Software, Algorithmen, Sensoren und Konnektivität zusammensetzen – Konfigurationen, die heute alle möglichen Objekte ausstatten und gestalten – Kameras, Chips Nanobots, Fernseher, Drohnen etc. (Ebd.: 156).

Die digitalen Maschinen integrieren die Dividuen in das algorithmisierte Feld, wo sie als autoperformative Effekte der Korrelationen von Daten erscheinen. Und das Feld, in das die automatisierten Aktionen der Dividuen integriert sind, ist nicht in der Gegenwart, sondern in der Zukunft situiert. Gleichzeitig reintegriert die algorithmische Governance durch Methoden der perfekten Adaption, Viralität und Plastizität noch jede Störung und jeden Fehler in das System, um die Modelle und Profile des Verhaltens zu redefinieren. Es scheint, als könne man die Macht des algorithmischen Systems strukturell niemals beunruhigen oder das Unwahrscheinliche nicht stören. Wenn das auch nicht möglich sein wird, zerstört das Überwachungskapital mit dem Einsatz algorithmischer Performativität zumindest die Essenz der Politik.

3) Digitale Doubles (Profile), die ganz das ergreifende Resultat der maschinellen Operationen und Algorithmen sind. Um mit diesen Operationen eine Aktion des Users hervorzukitzeln, müssen dessen digitalem Double lediglich Signale gesendet werden, die beim User wiederum gewünschtes Verhalten, Stimuli und Reflexe provozieren. Das Tragische des Profil-Subjekts besteht darin, dass es, je mehr es durch Einträge die Unverwechselbarkeit seines »Ich selbst« sichtbar machen will, es desto eindringlicher von den algorithmischen Maschinen modelliert wird. Es findet jetzt der K(rampf) um das Permanent- und Performanz-Singularisieren des Profils statt, eine Daueraufgabe, an der das Subjekt letztendlich sang- und klanglos scheitert, weil das modulare Tableau, in das sein Profil eingeschrieben ist, die Vorgaben gibt, wobei die Aktualität dies so instantan ausstellt, dass es einem eigentlich den Atem nehmen müsste. Es könnte noch zehntausend Jahre so weiter gehen. Zudem ist zu beachten, dass der Glamour des Profils nur einer für diejenigen ist, die es auf der ökonomischen Stufenleiter nach oben nicht geschafft haben, denn die wirklich Reichen und Privilegierten bleiben nämlich offline.

Als digitales Double wird nicht nur die Subjektivität, sondern das Subjekt selbst wird durch die Kollektion infra-individueller Daten, die auf supra-individueller Ebene als Profil zusammengesetzt werden, eliminiert. Das Subjekt erscheinst nicht länger. Es kommt immer schon zu spät und kann sich kein Zeugnis über das ablegen, was es ist oder was es in Zukunft tun will, stattdessen verschmelzt es als User mit seinem eigenen Daten-Profil, das in erster Linie eben nicht von ihm, sondern von den Algorithmen automatisch und in Realtime designt wird. Dennoch stellen die User ihre Doubles bzw. ihre Profile irgendwie auch ohne Unterlass aktiv her, als wären sie durch eine unsichtbare Macht getrieben, bleiben aber alles in allem doch die tiefgefrorenen Produkte algorithmisierter Kontrollsysteme, einerseits als Individuen, die eine höchst effektive Nachfrage verkörpern, andererseits als Dividuen, die funktionell in das Generieren der Parameter der Kontrolle involviert sind, um ständig weiter assoziierte Milieus der Kontrolle zu erzeugen. In ihrem FB-Newsfeed bekommen sie dann vor allem jene Posts ihrer »Freunde«´angezeigt, die schon eine hohe Aufmerksamkeit durch die große Anzahl von Aufrufen und Likes auf sich ziehen konnten. Und der User wird scheinbar ganz individuell adressiert, als Singularität, die sich aber als modular erweist, das heißt sich aus diskreten Bestandteilen im Sinne eines Pfad-Trackings zusammensetzt. Konstitutiv für das Überwachungskapital ist das algorithmische Erzeugen von Profilen hinter dem Rücken (die Codes, Algorithmen und Datenbanken, durch die er zusammengesetzt wird, bleiben für den Nutzer unsichtbar und unerreichbar) derer, denen ein für sie maßgeschneidertes Profil zugewiesen wird und die dennoch weiterhin glauben, sie würden das alles aus eigenen und freien Stücken tun, ja die sogar vom Wahn besessen sind, mit den Profilen ihre eigenen Singularitätsansprüche zum Ausdruck zu bringen und sich dabei in narzisstische Erregung versetzen, ohne im geringsten zu ahnen, dass die Art der algorithmischen Behandlung sie schon im voraus definiert und im Remote-Verfahren kontrolliert, wobei die automatisierte Wissensproduktion, die durch lernende digitale Maschinen operationalisiert wird, entgegen aller subjektiven Singularitätsansprüche der in Erregung Versetzten eine nicht zu unterschätzende Objektivität erzeugt. Für den User bleibt es aber bei dem für ihn konstruierten und auf ihn zugeschnittenen Weltausschnitt, der allein für ihn zugänglich ist. Die digitalen Operationen, die das Verhalten betreffen, antizipieren so gerade die individuellen Wünsche und ordnen sie dem Profil zu.

1 So wie die Protokolle überall sind, so sind es auch die Standards. Man kann von ökologischen Standards sprechen, von Sicherheits- und Gesundheitsstandards, Gebäudestandards und digitalen und industriellen Standards, deren institutioneller und technischer Status durch die Funktionsweisen der Protokolle möglich wird. Die Kapazität der Standards, hängt von der Kontrolle durch Protokolle ab, einem System der Governance, dessen Organisationstechniken gestalten, wie Wert extrahiert von denen wird, die in die verschiedenen Modi der Produktion integriert sind. Aber es gibt auch die Standards der Protokolle selbst. Das TCP/IP Model des Internets ist ein Protokoll, das ein technischer Standard für die Internet-Kommunikation geworden ist. Es gibt eine spezifische Beziehung zwischen Protokoll, Implementierung und Standard, die den digitalen Prozesse betrifft: Protokolle sind Beschreibungen der präzisen Terme, durch die zwei Computer miteinander kommunizieren können (i.e., a dictionary and a handbook for communicating). Die Implementierung impliziert die Kreation von Software, die das Protokoll benutzt, i. e. die Kommunikation abwickelt (zwei Implementationen, die dasselbe Protokoll benutzen, sollten Daten miteinander austauschen können). Ein Standard definiert, welches Protokoll bei bestimmten Computern für bestimmte Zwecke benutzt werden soll. Er definiert zwar nicht das Protokoll selbst, aber setzt Grenzen für die Veränderung des Protokolls.

Nach oben scrollen