Mashines

Algorithmische Governance/ Das Überwachungskapital (1)

By

27 Feb , 2019  

Sachverhalte wie Satellitenüberwachung, enorme Rechnerkapazitäten auf Silizium Chips, Sensoren, Netzwerke und Predictive-Analytics sind die Bestandteile von digitalen Systemen (des Überwachungskapitals), die das Leben und Verhalten der Bevölkerungen gegenwärtig umfassend tracken, analysieren und kapitalisieren. Dabei sieht sich beispielsweise Google unter dem Druck der Finanzmärkte gezwungen, die Effektivität seines Data-Trackings und seiner durch Maschinenintelligenz erzeugten Analysen ständig zu erhöhen und gerade deswegen jeden Anspruch der Nutzer auf den Schutz der eigenen Privatsphäre mit den vielfältigsten Mitteln zu bekämpfen. Dank einer Reihe von Geräten wie Laptops und Smartphones, Kameras und Sensoren sind heute Computer im kapitalisierten Alltag allgegenwärtig, es sind zeichenlesende Maschinen, die Algorithmen (unbedingt berechenbare, formal-eindeutige Verfahrensanweisungen) ausführen und ihre volle Kraft erst im Kontext digitaler Medien der Vernetzung entfalten, wofür die programmgesteuerte Gestaltung, Transformation und Reproduktion sämtlicher Medienformate Voraussetzung ist. Insbesondere die sozialen Netzwerke ermöglichen in diesem Spiel eine Art von Ökonomie, die aufgrund die Extraktion von persönlichen Daten, die zur Konstruktion von Metadaten, Cookies, Tags und anderen Tracking-Technologien führt, eine eigenartig neue algorithmische Governance etabliert hat. Diese Entwicklung ist vor allem als »Big Data« bekannt geworden, ein System, das auf Vernetzung, Datenbanken und hohen Computerleistungen und -kapazitäten aufbaut. Die darin involvierten Prozesse sind laut Stiegler solche der »Grammatization«. Im digitalen Stadium führen diese dazu, dass die Individuen durch eine Welt geführt werden, in der ihr Verhalten grammatikalisiert ist, indem sie mit Computersystemen interagieren, die in Real Time operieren. Die Grammatization beginnt für Stiegler allerdings schon mit den Höhlenmalereien und führt über die Medien Keilschrift, Fotografie, Film und Fernsehen schließlich zum Computer, zum Internet und zum Smartphone. Ergebnis all dessen ist, dass die Datenpfade und -spuren, die mit den heutigen Technologien der Computerisierung erzeugt werden, ternäre, aufmerksamkeitsreduzierende Retentionen bzw. Mnemotechniken konstituieren, die spezifische Zeitverfahren und Individuationsprozesse inkludieren, das heißt «Industrialisierungsprozesse des Gedächtnisses» bzw. eine »politische und industrielle Ökonomie, die auf der industriellen Ausbeutung von Bewusstseinszeiten beruht«. Mit der Digitalisierung der Datenwege und -prozesse, die heute mittels Sensoren, Interfaces und anderen Mitteln aufdringlich dringlich funktionieren und grundsätzlich als binäre Zahlen und kalkulierbare Daten generiert werden, wird Stiegler zufolge ein automatisierter Gesellschaftskörper geschaffen, in dem selbst noch das Leben in einen Agenten der hyper-industriellen Ökonomie des Kapitals transformiert wird. Deleuze hat diese Entwicklung in seinem berühmten Essay zu den Kontrollgesellschaften schon vorausgesehen, aber zur vollen Tragkraft kommen die Kontrollformen erst, wenn die digitale Kalkulation die von Deleuze festgestellten Modulationen der Kontrolltechniken in eine algorithmische Governance integriert, die zudem die Automatisierung sämtlicher Existenzen, Lebensweisen und Kognitionen inkludiert.

Die dem Internet zugrunde liegenden Machttechnologien der Protokolle sind a-normativ, da sie selten breit in der Öffentlichkeit debattiert werden, vielmehr scheinen sie der algorithmischen Governance immanent zu sein. Zur Debatte steht nun: Erzeugen Daten digitale Protokolle oder digitale Protokolle Daten? Oder noch enger: Sind Daten digitale Protokolle? Auf jeden Fall haben schon deren Setzungen strukturierenden Charakter, nicht erst die Resultate. Wie jede Governance, wenn wir sie im Sinne von Foucault denken, implementiert auch die algorithmische Governance spezifische Technologien der Macht, die heute aber auf keiner Statistik mehr basieren, die sich auf den Durchschnitt und die Norm bezieht, stattdessen haben wir es mit einer automatisierten, einer atomaren und auf Wahrscheinlichkeit beruhenden Maschinenintelligenz zu tun, die die Spurensicherung und das Datamining unabhängig vom Medium betreibt – ein automatisches Computing sammelt, erfasst und mobilisiert mit den Methoden der künstlichen Maschinenintelligenz Daten über das Verhalten der Marktteilnehmer, die mittels der Extraktion ihrer Daten durch Überwachungskonzerne kontrolliert werden und deren Verhalten kapitalisiert wird.1 Die kontinuierlich Daten sammelnden und Datenspuren lesenden und auswertenden digitalen Maschinen mobilisieren also eine a-normative und eine a-politische Rationalität, die auf der automatischen Analyse und der monetären Valorisierung von enormen Datenmengen besteht, indem die Verhaltensweisen der Bevölkerung modelliert, antizipiert und beeinflusst werden. Man nennt dies heute verharmlosend ubiquitäres Computing, bei dem, und darauf ist immer wieder hinzuweisen, das Überwachungskapital die Extraktion des Verhaltens der Nutzer und die darauf aufbauenden Vorhersageprodukte, die durch die Algorithmen des Überwachungskapitals entstehen, längst nicht mehr nur im Internet, sondern in der realen Welt betreibt, um dann die Vorhersageprodukte durch spezielle Verfahren ständig zu diversifizieren und tiefer zu legen. Alles, ob belebt oder unbelebt, lässt sich verdaten, verbinden, kommunizieren und berechnen. Und aus den Automobilen, Kühlschränken, Häusern und Körpern usw. fließen über die Vermittlung von digitalen Geräten ständig Signale , beruhend also auf Aktivitäten humaner und non-humaner Akteure, die in der realen Welt stattfinden, als Daten in die digitalen Netze und dienen dort der Umwandlung in Vorhersageprodukte, die an solche Werbekunden verkauft werden, die zielgenaue Werbung betreiben. (Zuboff 2018: 225).

Um es genauer zu sagen: Das Überwachungskapital der Unternehmen Google oder Facebook automatisiert damit das Kaufverhalten der Konsumenten, kanalisiert es mittels der berühmten Feedback-Loops ihrer KI-Maschinen und bindet es zielgerichtet an Unternehmen, die wiederum Werbekunden des Überwachungskapitals sind. Die verkaufsfördernden Verhaltensmodifikationen, die bei den Nutzern erzielt werden sollen, beruhen auf maschinellen Prozessen und Techniken wie dem tuning (Adaption an ein System), herding (Zurichtung der Masse) und der Konditionierung (das Trainieren von Reiz-Reaktionsmustern), die das Verhalten der Nutzer derart lenken, dass die maschinell konstruierten Vorhersageprodukte das Verhalten der Nutzer tatsächlich in Richtung der von Google garantierten Intentionen treiben. (Ebd.) Die maximale Vorhersagbarkeit des Verhaltens der Nutzer ist nun eine genuine Profitquelle: Der Konsument, der eine Fitness-App benutzt, soll am besten im Augenblick maximaler Empfänglichkeit, beispielsweise nach dem Jogging, ein gesundes Getränkeprodukt kaufen, das ihm vorher durch zielgerichtete Werbung schmackhaft gemacht wurde. Der Sportartikelhersteller Nike hat die Datenanalyse-Firma Zodiac gekauft und nutzt sie in seinen Filialen in New York. Betritt ein Kunde mit Nike-App auf dem Smartphone eine Filiale, so wird er sofort von der Geofencing-Software erkannt und kategorisiert. Sofort verändert sich auch die Startseite der App und anstelle von Online-Angeboten erscheinen auf dem Bildschirm Neuheiten, das heißt natürlich auf den Kunden zugeschnittene Sonderangebote und Empfehlungen, die in der Filiale gerade angeboten werden. Besonders treue Kunden erhalten gleich im Laden kleine Geschenke und können sich sämtliche Waren per Smartphone in die Umkleidekabine liefern lassen.

Das Überwachungskapital ist längst nicht mehr nur auf die Werbung bezogen, es bekam sejhr schnelle ein Modell für die Kapitalakkumulation in Silicon Valley, das von nahezu jedem Startup übernommen wurde. Aber heute ist es nicht nur auf einzelne Unternehmen oder den Internetsektor beschränkt, sondern hat sich auf eine große Anzahl von Produkten, Serviceleistungen und den ökonomischen Sektor verteilt, eingeschlossen Versicherungen, Gesundheitsvorsorge, Finanzen, Kulturindustrie, Transportwesen etc. Nahezu jedes Produkt oder jede Dienstleistung, die mit dem Wort »smart« oder »personalisiert« beginnt, jedes internetanschlussfähige Gerät, jeder »digitale Assistent« ist in der Angebotskette der Unternehmen ein Interface für den unsichtbaren Fluss von Verhaltensdaten auf dem Weg zur Vorhersage der Zukunft der Bevölkerung in einer Überwachungsökonomie. Als Investor gab Google schnell die erklärte Antipathie gegen die Werbung auf, stattdessen entschied man die Revenuen zu erhöhen, indem man den exklusiven Zugang zu dem Datenabfall der User data logs (once known as “data exhaust”) in Kombination mit substantial analytischen Kapazitäten und maximale Computerpower nutzte, um Vorhersagen der Klickraten der User, die als Signal für die Relevanz einer Werbung angesehen werden, zu generieren. Operational bedeutet dies, dass Google seinen wachsenden Datenbestand umfunktionierte, um in als Verhaltensdatenüberschuss »arbeiten« zu lassen, und gleichzeitige neue Methoden zu entwickeln, um aggressiv nach Quellen der Surplusproduktion zu suchen. Das Unternehmen entwickelte neue Methoden zur Vereinnahmung des geheimen Surplus, indem man Daten, welche die User für privat hielten, aufdeckte und extensiv persönlich Informationen der User kapitalisierte. Und dieser Datensurplus wurde insgeheim auf die Bedeutung hin analysiert, die er für die Vorhersage des Klickverhaltens der User hatte. Dieser Datenüberschuss wurde die Basis für neue Vorhersagen, die »targeted advertising« genant wurden. Hier war der Ursprung des Übrewachungskapitals, Verhaltensüberschuss, materielle Infrastrukturen, Computerpower, algorithmische Systeme und automatisierte Plattformen. Als die Klickraten durch die Decke schossen wurde die Werbung für Google so wichtig wie die Suchmaschine, vielleicht war sie der Einstiegspunkt einer neuen Art des E-Commerce, der von einer breiten Online-Überwachung abhängig war. Der Erfolg dieser neuen Mechanismen wurde sichtbar als Google damit 2004 in die Öffentlichkeit ging.

Die ersten Überwachungskapitalisten setzten sich zuerst durch Deklarationen in Szene, indem sie ganz einfach die privaten Erfahrungen der Nutzer als etwas betrachteten, dass man nehmen kann, um sie in Daten zu übersetzen und diese als Privateigentum anzueignen und für den privaten Wissensgewinn auszunutzen. Überspielt wurde dies mit einer rhetorischen Camouflage und geheimen Erklärungen, von denen niemand als sie selbst Bescheid wussten.Google begann einseitig zu postulieren, dass das Internet lediglich eine Ressource für ihre Suchmaschine war. Mit einer zweiten Deklaration behaupteten sie, dass die private Erfahrung der User ihren Revenuen diente, indem man die persönlichen Schicksale anderen Unternehmen verkaufte. Der nächste Schritt sah vor, dass die Surplusoperationen über das Online-Milieu hinaus in die reale Welt vordringen sollten, wo Daten über das persönliche Verhalten als frei gelten, um einfach von Google gestohlen zu werden. Dies war ein normale Geschichte im Kapitalismus, Dinge, die außerhalb der Marktsphäre liegen aufzuspüren und sie als waren zu generieren. Einmal suchten wir nach Google, nun sucht Google nach uns. Einmal dachten wir, die digitalen Serviceleistungen seinen frei, nun denken die Überwachungskapitalisten wir seien Freiwild.Das Überwachungskapital bedarf der Bevölkerung nicht mehr in ihrer Funktion als Konsumenten, sondern das Angebot und die Nachfrage orientieren die Überwachungsfirmen an Geschäften, die auf die Antizipation des Verhaltens der Bevölkerungen, Gruppen und Individuen ausgerichtet sind. Die Überwachungsfirmen haben in Relation zu ihrer Computerpower (und im Gegensatz zu den frühen industriellen Unternehmen) wenig Mitarbeiter. Das Überwachungskapital ist von der Aushöhlung der individuellen Selbstbestimmung und der Autonomie sowie dem Recht zur freien Entscheidung abhängig, um einen unbeobachteten Strom von Verhaltensdaten zu generieren und die Märkte, die nicht für, sondern gegen die Bevölkerung sind, damit zu füttern. Es genügt nicht länger, die Informationsströme, welche die Bevölkerung ausleuchten, zu automatisieren, vielmehr besteht das Ziel nun darin, die das verhalten der Bevölkerung selbst zu automatisieren. Dies Prozesse werden ständig neu designt, um die Ignoranz, welche die individuelle Beobachtungsfähigkeit betrifft, zu erhöhen und jede Möglichkeit zur Selbstbestimmung zu eliminieren. Das Überwachungskapital legt den Fokus weg von den individuellen Nutzern hinauf Bevölkerungen wie etwa Städten oder eben auf die Ökonomie eines Landes, was nicht unerheblich für die Kapitalmärkte ist, wenn die Vorhersagen über das Verhalten von Bevölkerungen sich nach und nach der Gewissheit ihres Eintreffens annähern. Im Konkurrenzkampf um die effizientesten Vorhersageprodukte haben die Überwachungskapitalisten gelernt, dass, je mehr Verhaltenssurplus sie sich aneignen, desto besser auch die Vorhersagen sind, was die Kapitalisierung im Zuge der economies of scale zu immer neuen Anstrengungen ermuntert. Und je mehr der Überschuss variiert werden kann, desto höher ist der Vorhersagewert. Dieser neue Drive der Ökonomie führt von den Desktops über die Smartphones in die reale Welt – man fährt, läuft, shoppt, sucht einen Parkplatz, das Blut zirkuliert und man zeigt ein Gesicht. Alles soll aufgezeichnet, lokalisiert und vermarktet werden. Und die effizientesten Vorhersagedaten werden mittels der Ökonomie der Aktion gewonnen, wenn es denn gelingt, Systeme zu designen, um in den Status des Verhaltens und der Modifizierung des Verhaltens von Akteuren einzugreifen, um es in Richtung des gewünschten kommerziellen Outputs zu treiben.

Es gibt eine Dualität in der Informationstechnologie zu vermelden, ihre Kapazität zu automatisieren, aber auch zu informatisieren, das heißt Dinge, Prozesse und Verhalten in Information zu übersetzen, i.e. es werden neue Territorien des Wissens aufgrund der informatorischen Kapazität produziert, die auch zum Gegenstand politischer Konflikte werden können; dies betrifft die Verteilung des Wissens, die Entscheidung über das Wissens und die Macht des Wissens. Zuboff schreibt, dass die Überwachungskapitalisten das Recht zu wissen, zu entscheiden, wer weiß und zu entscheiden, wer entscheidet, ganz allein für sich einfordern würden. Sie dominieren die Automatisierung des Wissens und seine spezifische Arbeitsteilung. Zuboff schreibt weiter, dass man das Überwachungskapital nicht ohne das Digitale begreifen könne, wobei das Digitale aber auch auch ohne das Überwachungskapital bestehen könne: Das Überwachungskapital sei, keine reine Technologie, vielmehr könnten digitale Technologien vielfältige Formen annehmen Das Überwachungskapital basiere zwar auf Algorithmen und Sensoren, künstlichen Maschinen und Plattformen, aber es sei eben nicht dasselbe wie diese diese Komponenten.

Ein Unternehmen wie Google muss schon bei der Sammlung von Daten, die das Verhalten der Nutzer spiegeln und die zudem dem Tracken von Verhaltensüberschüssen (die Datenabgase bei Google) dienen, bestimmte Dimensionen von Größen- und Diversifikationsressourcen erreichen, um die Daten dann mittels seiner Maschinenintelligenzen in Vorhersageprodukte des Nutzerverhaltens umwandeln und zielgerichtet an Werbekunden verkaufen zu können, Produkte, die wie Wärmesuchraketen auf den Nutzer losgehen, um ihm beispielsweise bei einem Puls von 78 genau das richtige Fitnessprodukt via eingeblendeter Werbung vorzuschlagen. So muss mit der Diversifikation, die dazu dient, die Qualität der Vorhersageprodukte zu steigern, zum einen eine breite Auffächerung von überwachbaren Themen in der virtuellen Welt erzielt, zum anderen müssen die Extraktionsoperationen aus dem Netz in die reale Welt verlagert werden. Darüber hinaus müssen die algorithmischen Operationen an Tiefe gewinnen, das heißt, sie müssen auf die Intimität der Nutzer zielen, um aktuierend und steuernd, ja formierend in deren Verhalten einzugreifen, indem die Unternehmen beispielsweise zeit- und zielgerecht Pay-Buttons auf dem Smartphone einblenden oder einen Wagen automatisch sperren, wenn der Betroffene Versicherungsbeträge nicht rechtzeitig bezahlt hat.

Der Daten-Fundus, aus dem die Analytiker mittlerweile schöpfen können, ist beinahe unendlich groß. Sie wissen genau, wer wie oft Waren reklamiert, bei Hotlines anruft oder in Online-Portalen über ein Unternehmen herzieht. Sie kennen die Lieblingsgeschäfte, die Lieblingsrestaurants und -kneipen vieler Verbraucher, die Zahl ihrer »Freunde« bei Facebook, den Urheber von Anzeigen, die Social-Media-Nutzer angeklickt haben. Sie wissen, wer in den vergangenen Tagen die Webseite eines Konkurrenten des Auftraggebers einer Anzeige besucht oder bestimmte Waren gegoogelt hat. Sie kennen die Hautfarbe, das Geschlecht, die finanzielle Lage eines Menschen, seine körperlichen Erkrankungen und seelischen Beschwerden. Sie wissen das Alter, den Beruf, die Zahl der Kinder, die Wohngegend, die Größe der Wohnung – schließlich ist es etwa für ein Unternehmen, das Matratzen herstellt, durchaus interessant zu erfahren, ob ein Kunde Single ist oder im Fall der Fälle wohl gleich fünf Schaumstoffmatten für die gesamte Familie ordert.

Heute ist die Gruppe in Facebook materialisiert, in ihren unsichtbare Algorithmen und hat eine weitgehend imaginäre Gruppensucht unvorstellbaren Ausmaßes hervorgerufen. Und hier liegt die Theorie der Simulation falsch, denn es ist nichts Falsches an den digitalen Netzwerken, sie sind ganz real und erzeugen für diejenigen, die an die Netzwerke angeschlossen sind, eine Stabilität, indem die Dinge einfach expandieren, mehr Anfragen, mehr Freunde and so on. Mit der Schließung der Fabriken kam die Öffnung der Daten-Minen. Und die damit einhergehende Verletzung der Privatsphäre ist das systematische Ergebnis einer pathologischen Wissensteilung, bei der der Überwachungskapital weiß, entscheidet und entscheidet, wer entscheidet. Marcuse hat geschrieben, dass es eines der kühnsten Vorhaben des Nationalsozialismus gewesen sei, den Kampf gegen die Tabuisierung des Privaten zu führen. Und gerade Privatheit ist heute so befreit von jedweder Kuriosität oder jedwedem Geheimnis, sodass man ohne jede Bedenken oder geradezu begierig alles auf seine Timewall schreibt, damit jeder es lesen kann. Wir sind so froh, wenn ein Freund irgendetwas kommentiert. Und man ist andauernd damit beschäftigt, all Daten-Feeds und Updates zu managen, zumindest muss man ein bisschen Zeit von seinen täglichen Routinen abzweigen. Der Geschmack, die Präferenzen und die Meinungen sind der Marktpreis, den man zahlt. Aber das Business-Modell der sozialen Medien wird an seine Grenze stoßen und beendet werden, obgleich es immer noch vom Wachstum des Konsumismus gepusht wird. Diese Businessmodell wiederholt immer nach des Dotcom Booms der 1990er Jahre. Wenn das Wachstum stagniert, dann muss das Projekt abgeschlossen werden. Übergangsloses Wachstum des auf den Kunden bezogenen dezentralisierten Marketings ist der Treibstoff, begleitet von mental Verschmutzung der digitalen Umgebungen, die derjenigen der natürlichen Umgebungen entspricht.

Bei einer Suchanfrage wiederum zählen Faktoren wie Suchbegriffe, Verweildauer, die Formulierung der Anfrage, Buchstaben und Interpunktion zu den Anhaltspunkten, mit denen man das Verhalten der Nutzer ausspioniert, und so sind selbst noch diese sogenannten Datenabgase einsammelnswert,um auch diesen Verhaltensüberschuss des Users für zielgerichtete Werbung zu nutzen, wobei Google den durch algorithmische Wahrscheinlichkeit eruierten meist bezahlenden Werbekunden auch die besten Werbeplätze zuweist, deren Preise sich aus dem Preis pro Klick multipliziert mit der Wahrscheinlichkeit, mit der die Werbung tatsächlich dann auch angeklickt wird, errechnen. In diesen Verfahren findet man letztendlich auch heraus, was ein bestimmte Individuum an einem bestimmten Ort und zu einem bestimmten Zeitpunkt denkt. Singularität indeed. Jeder Klick auf ein bei Google geschaltetes Werbebanner ist ein Signal für dessen Relevanz und gilt damit als ein Maß für erfolgreiches Targeting. Dabei ist derzeit bei Google ein Anstieg der bezahlten Klicks und zugleich ein Fall der durchschnittlichen Kosten per Click zu registrieren, was einer Steigerung der Produktivität gleich kommt, da eben das Volumen des Outputs bei gleichzeitigem Fall der Kosten gestiegen ist.


1 So wie die Protokolle überall sind, so sind es auch die Standards. Man kann von ökologischen Standards sprechen, von Sicherheits- und Gesundheitsstandards, Gebäudestandards und digitalen und industriellen Standards, deren inter-institutioneller und technischer Status durch die Funktionsweisen der Protokolle möglich wird. Die Kapazität der Standards, hängt von der Kontrolle durch Protokolle ab, einem System der Governance, dessen Organisationstechniken gestalten, wie Wert extrahiert von denen wird, die in die verschiedenen Modi der Produktion integriert sind. Aber es gibt auch die Standards der Protokolle selbst. Das TCP/IP Model des Internets ist ein Protokoll, das ein technischer Standard für die Internet-Kommunikation geworden ist. Es gibt eine spezifische Beziehung zwischen Protokoll, Implementierung und Standard, die den digitalen Prozesse betrifft: Protokolle sind Beschreibungen der präzisen Terme, durch die zwei Computer miteinander kommunizieren können (i.e., a dictionary and a handbook for communicating). Die Implementierung impliziert die Kreation von Software, die das Protokoll benutzt, i.e. die Kommunikation abwickelt (zwei Implementationen, die dasselbe Protokoll benutzen, sollten Daten miteinander austauschen können). Ein Standard definiert, welches Protokoll bei bestimmten Computern für bestimmte Zwecke benutzt werden soll. Er definiert zwar nicht das Protokoll selbst, aber setzt Grenzen für die Veränderung des Protokolls.

print

, , , , ,

By