Der Quantifizierungs-Totalitarismus (als die dem finanziellen Kapital adäquate Regierungsform) /1

pdf: quantifizierung

Quantifizierungsdispositiv

Die dem finanziellen Kapital adäquate Regierungsform ist der Quantifizierungs-Totalitarismus.  Steffen Mau schreibt in seinem neuen Buch „Das Metrische Wir“ (dem wir hier in weiten Teilen folgen): „Die Forderung nach Transparenz bedeutet in ihrer übersteigerten und letztlich totalitären Form, dass jede und jeder von uns legitimerweise in allen Aspekten des Lebens dauerhaft überprüft, beobachtet, klassifiziert und bewertet wird.” (Mau 2017: 231) Die neue totalitäre Massenbewegung ist demgemäß die sich permanent selbst bewertende und bewertete Masse.

Im Kontext der Gouvernementalität, die Foucault so eindringlich beschrieben hat, haben sich mit der umfassenden Digitalisierung der kapitalistischen Produktionsprozesse, der Staatsapparate und der Reste von sozialen Feldern – vollzogen über die strukturelle Dominanz der Algorithmen, der sozialen Medien und der Plattformen – umfassende hegemoniale Quantifizierungsdispositive, das heißt Bewertungs- und Vergleichs-Dispositive entwickelt, die zudem auf Steigerungs- und Überbietungsverfahren bezüglich der Rentabilität, Effizienz, Leistung und Transparenz in allen möglichen Bereichen setzen und eben zu einer umfassenden Quantifizierung des sozialen Körpers führen, die die Schichtungen, Klassenspaltungen und die alten Distinktionsverfahren überlagern. Und selbst die privaten Bereiche sind längst in diese Quantifizierungsprozesse integriert, indem deren Akteure als Daten, die in Zahlen transformiert werden, konstruiert und angeschrieben werden. Diese strukturellen Prozesse treffen heuteauf aktive Dividuen, die durch die Zahlen selbst geteilt werden, aber nach wie vor Individualität simulieren und in exakt in diesem Kontext Tag für Tag ihre aktive Bereitschaft zur freiwilligen Vergabe von Daten, zur Teilnahme an Rating- und Rankingverfahren und zur Partizipation generell demonstrieren. Derartige Teilnahmeprozeduren sind dem Quantifizierungsdispositiv nicht nur förderlich, sondern sie intensivieren andauernd dessen Wirkungen, die nicht nur in der Quantifizierung und im numerischen Vergleich bestehen, sondern zugleich die Konkurrenz zwischen den Bewerteten und zugleich Wertenden verstärken.

 

Die Zahl

Kommen wir kurz zu grundlegenden Aspekten der Zahl: Mit der Zahl lässt sich das Unvergleichbare vergleichbar machen, lässt sich das singuläre Objekt zum Exemplar einer Menge modifizieren, womit die Verdopplung in Objekt und Zahl statt haben kann. Schon im Ritus ist das Opfertier eines von vielen und damit ist der Bezug auf Name oder Zahl angezeigt. Wie wir wissen, wurde im Verlauf der historischen Entwicklung die Zuordnung des Zeichens/Zahl zum bezeichneten Objekt entkoppelt. Ohne feste Zuordnung zwischen Zahl und Objekt ist jedoch eine gewisse Maß- und Haltlosigkeit zu konstatieren, womit sich nicht entscheiden lässt, ob wir es bei den entstehenden Inkongruenzen mit einem Mehr/Weniger an Zeichen/Zahl oder einem Mehr/Weniger an Objekten zu tun haben. (Vgl. Bahr 1983: 392f.) Wie die Historie gezeigt hat, werden Zahlen schließlich nicht mehr mit Bezug auf eine Referenz, die Abzählbares beinhaltet, sondern rein als logische Symbole definiert. (Wenn nun auch der Name sich als Leere erweist, die durch x-Beliebiges ausgefüllt werden kann und damit beim Namen im Gegensatz zum Eigennamen immer weitere Ausfüllungen durchaus möglich sind, dann lässt sich auch hier eine Relation zum Symbolischen herstellen.) Es existiert also keinerlei strukturelle Ähnlichkeit zwischen Objekt und symbolischer Form mehr, vielmehr werden Zahlen als Elemente von Mengen begriffen, die durch Regeln der Abbildung als Glieder einer Reihe anzuordnen sind. Zahlen werden damit rein durch ihren Stellenwert innerhalb eines symbolischen Ordnungssystems bestimmt. Und heute können wir hinsichtlich des Konstruktion des Symbolischen folgende weitere Differenzierung vornehmen: a) Die Dimensionen der Grammatik zeigen jene Proportionalitäten an, mit denen man Denkformen, Aussagen und Diskurse zu geformten Einheiten, zu Sätzen komponiert; b) die Dimensionalität des Logischen verweist wiederum auf Proportionalitäten, in und mit denen man Sätze in allgemeine, teilbare Relationen transponiert; c) die Dimensionalität des Mathematischen zeigt jene Proportionalitäten an, mit denen sich die Teilbarkeit der allgemeinen Relationen konstruieren, deklinieren und komponieren lässt. Die symbolische Algebra wäre somit weder als Sprache noch als Zahl oder Form zu verstehen, vielmehr stellt sie nun als ein mehrdimensionales offenes Mathem Möglichkeiten bereit, um gegebene Symbolisierungen in eine explizierbare, interpretierbare und kalkulierbare Relation zu anderen Symbolisierungen zu setzen.
Mithin siegt historisch die reine Operationalität des Symbols und im Zuge dessen kann erst das Rechengeld entstehen, dessen allseitige Vermittlungsfunktion qua spezifischer Regeln der Rechengröße bedarf. Schon Marx hat die Entstehung der Rechengröße Geld in symbolischen Kontexten beschrieben. Gold besitzt mit seinem intrinsischen Gewichtsunterschied ein Maß seiner Teilbarkeit, wobei die Fixierung des Maßstabs historisch von Anfang an ein Spiel von Fälschungen ins Werk (Gewichtsmanipulationen) gesetzt hat. Und schließlich ist es die Zahl als Maßeinheit, die die Kommunikabilität (Verteilbarkeit und Vergleichbarkeit) von Waren und Geld zu vermitteln hilft, wobei die monetäre Verständigung über singuläre, über qualitativ völlig verschiedene Dinge und Objekte gerade insofern möglich ist, weil diese ja als je spezifische Größen/Mengen qua diverser Maße (Raum, Zeit, Gewicht, Zahl) schon identifiziert sind, gemessene Objekte, die wiederum über das Geld als allgemeines Maß in Beziehung gesetzt werden. Dabei entspricht das numéraire des Geldes einer Signifikationsmatrix, einer Quantifizierungsmaschine, die in einem bestimmten algebraischen und eben nicht in einem diskursiven Modus rotiert. (Strauß 2013: 37) Neben dem Geld als allgemeinen Äquivalent benötigt man für den Vergleich, für die Konvertierbarkeit und zur Vereinheitlichung eine ganze Reihe weiterer Maße, die insbesondere in wirtschaftlichen Transaktionen dafür sorgen sollen, dass Abweichungen und Ungenauigkeiten vermieden werden und stattdessen Anschlussfähigkeit und Kompatibilität und Universalität bei der Durchsetzung von technischen Normen hergestellt wird. Dies gilt nicht nur für externe Marktprozesse, sondern auch für die internen Operationen der Unternehmen, man denke etwa an an das Management, die Kontrolle der Angestellten, das Controlling und die Leistungsmessung, alles Methoden, um die Effizienz der Arbeitsprozesse zu steigern, Leerzeiten in den Produktionsprozessen zu vermeiden und für einen möglichst reibungslosen Ablauf zu sorgen.

Die abstrakte Sprache der Mathematik bzw. der Zahlen, ihre Eindeutigkeit und ihre Kommensurabilität sind wichtiger Teil des auf exakten Metriken fußenden Quantifizierunsdispositivs, das nicht nur den Vergleich zwischen den verschiedenen Akteuren, Objekten, Subjekten und Entitäten realisiert, sondern darüber hinaus diese eben in eine wettbewerbliche Relation des Besser oder Schlechter überführt, um schließlich die Konkurrenz und ihre Korrekturmechanismen in alle möglichen sozialen Felder zu implementieren. Die Zahlenhysterie, von Ray Brassier als Nihilismus der Zahl gekennzeichnet, kennt heute kaum noch Grenzen und im Rahmen der Implementierung des Quantifizierungsdispositivs in den Wettbewerb kommt es ständigen Kämpfen der Akteure um Positionierungen, Verbesserungen und Übersteigerungen, die über die Einschreibung und kontinuierliche Messungen zu scheinbar objektivierten Ordnungen, Hierarchien und Komplexen der Wertigkeit führen. (Mau 2017: 49ff.) Die Quantifizierung inkludiert im Allgemeinen Verfahren der Klassifizierung, der Bewertung und der Integration, wobei der Status der Objekte, der Phänomene, der Sachverhalte und der Akteuren insbesondere mit Hilfe von Messungen in die abstrakte und standardisierte Sprache der Zahlen übersetzt wird. In diesem mathematisierten Universum herrschen exakte, das heißt eineindeutige Ordnungsverhältnisse, innerhalb derer komparative Methoden und Skalierungen eine wichtige Rolle spielen. Das Quantifizierungdispositiv umgibt heute fast schon eine Aura der Neutralität, der korrekten Nachprüfbarkeit und der Exaktheit, sodass es eine besonders brauchbare und angeblich ideologiefreie Repräsentation der sozio-ökonomischen Verhältnisse anbietet, die als neutrale Verfahrensweise und als Resultat von menschlichen Entscheidungen und Praktiken und den Machtverhältnissen selbst ganz entkoppelt zu sein scheint, man denke etwa an objektive Kennziffern wie das Bruttoinlandsprodukt, Arbeitslosenquoten, Kennziffern zur staatlichen Verschuldung und viele weitere zahlenförmige Ergebnisse, die auf statistische Verfahren zurückgehen und zu nicht unerheblichen Verwerfungen in den verschiedenen sozialen Bereichen führen können. Mittels der Einschreibung verschiedener Indikatoren, Daten und Zahlen in einerseits strukturelle sozio-ökonomische Prozesse, andererseits in die Verfahren der Selbstoptimierung der Akteure, entwickelt sich also das Quantifizierungsdispositiv; dessen Metriken, Bewertungen und Kalkulationen rasant in die politischen, ökonomischen und in weitere soziale Felder eindringen und diese durchdringen, strukturieren und regulieren. Es entsteht über die Quantifizierungsverfahren eine quantitativ normalisierende und zugleich performative Ritualisierung dieser Felder und deren Phänomene, das heißt eine sozial konstruierte Vermessung mittels der Syntax von Zahlen, die wiederum auf den Verfahren der Datenerhebung und der Datenverarbeitung aufsitzen. Dabei sind die Vermessungen Teil der Preisbewegungen und -signale, aber darüber hinaus geht es um ganz spezifische Quantifizierungen und Metriken, die über einen komplexen Differenzierungsmechanismus neue Hierarchien, Wertordnungen und Standards in den verschiedenen sozio-ökonomischen Bereichen in Szene setzen.

Laut Bernhard Vief ist dem Äquivalenzprinzip die Analogie eigen, wobei dem Ana-logon eine Schablone entspricht, die man über zwei verschiedene Objekte legt, um sie anzugleichen, und womit natürlich sofort die Frage aufgeworfen wird, was denn nun diese Schablone als sog. tertium comparationis anbieten könnte, um überhaupt einen Vergleich zwischen zwei völlig verschiedenen Objekten zu ermöglichen. (Vgl. Vief 1991: 138) Marx kann sich mit der Fixierung des Dritten auf das Metallgewicht des Geldes qua vergegenständlichter Arbeit, wie das Adam Smith und David Ricardo noch getan hatten, nicht zufrieden geben, stattdessen setzt er auf das Axiom »abstrakte Arbeit« oder »abstrakte Arbeitszeit«, für das er aber wiederum keinen objektives Maß anbietet (was heißt abstrakte Arbeit als immanentes Wertmaß?), weshalb Vief bei Marx selbst einen infiniten Regress eröffnet sieht. Deshalb nimmt Vief an dieser Stelle eine Verschiebung vor und fundiert zumindest das Digitalgeld gleich in der reinen Differenz, was, wie er behauptet, die Abwesenheit eines jeglichen Wertmaßes anzeige, das heute durch den Binärcode ersetzt worden sei, sodass das Geld eben kein allgemeines Äquivalent mehr darstelle, sondern einzig und allein durch Differenz gekennzeichnet sei. (Ebd.: 139) Abgesehen von der fragwürdigen Annahme, Differenz mit Digitalität gleichzusetzen (für Deleuze z. B. gehört die Differenz dem Analogischen an), ist es tatsächlich die Digitalität qua Binärcode, welche heute als mediale Basis der elektronischen Geldform erscheint, sodass das Geld in erster Linie auf bedeutungslosen Daten beruht, die jedoch nach wie vor bedeuten (und verweisen) müssen, und of course benötigen die Geldströme im Raum des Symbolischen, in dem sie zwischen Prozessen und Stasen oszillieren (übertragen und speichern), Materie/Energie, denn schließlich kann die res cogitans ohne res extensa nicht auskommen. (Wenn das Symbolische, obwohl es keine Referenz zum Objekt bzw. zur Arbeit aufweist, dennoch nur am Material stattfinden kann, das dem Kontinuum der Zeit entrissen wird, Operationen daher vornehmlich im Raum des Symbolischen stattfinden, womit die Zeitachse gewissermaßen entmächtigt ist, so brauchen Operationen als instantane Prozesse doch so marginal wie auch immer Zeit, wenn diese auch nicht vergleichbar irreversibel wie die Zeiten außerhalb des Symbolischen ablaufen.) Wie Oliver Schlaudt stellt also auch Bernhard Vief – allerdings in anderer Gewichtung – die Frage nach dem Verweis des Geldes auf ein Drittes. Während Vief jedoch keinerlei Notwendigkeit mehr sieht, auf abstrakte Arbeit überhaupt noch Bezug zu nehmen, führt Schlaudt diesen Verweis als die besondere Leistung der Arbeitswerttheorie an, mit der Marx abstrakte Arbeit als immanentes Wertmaß ausgewiesen hätte. (Vief 1991: 135f./Schlaudt 2011: 265f.) In der Tat stellt sich hier für Marx eine entscheidende Problematik, die wir in den Kapiteln zu Wert und abstrakte Arbeit diskutieren wollen.

 

Kapital und Maß

Der Vergleich zwischen Objekten findet zuallererst durch das Geld statt, benötigt aber auch eine ganze Reihe weitere Maßstäbe. Vermessungstechniken, und a-signifikanten/Zeichen/Indikatoren, um überhaupt Bewertungen, Klassifizierungen, Differenzierungen und Verrechenbarkeiten herstellen zu können. Das Mathem der Ökonomie besitzt einen assignativen bzw. performativen Aspekt, indem es die Valorisierungsprozesse, deren Kriterien Effizienz und Rentabilität sind, nicht nur aufzeichnet, sondern auch die entsprechenden Zuordnungen zu Unternehmen, Staaten und Haushalten inszeniert. Die zahlenförmige Objektivität, in der diese Vergleiche angeschrieben sind, potenzieren wiederum die Konkurrenz zwischen den bewerteten Akteuren, sodass ein regelrecht inzestiöses Verhältnis zwischen den Verfahren der Differenzierung, Homogenisierung und Hierarchisierung geschaffen wird, in das die Akteure unweigerlich eingebunden sind.

Fasst man das Kapital als einen Gesamtzusammenhang, dann muss die informatorische Entropie, die der »anarchischen« und der privaten Produktion der Einzelkapitale entspringt, notwendigerweise einer Reduktion unterliegen, die unweigerlich das Mathem der Ökonomie als eine Codierung oder Axiomatik von a-signifikanten Zeichen ins Spiel bringt, eine Formalisierung, mit der die ökonomische Akteure mittels der spezifischen Systeme der Mathematik und der Wahrscheinlichkeitsrechnung die Unsicherheit und die Elastizität der verschiedenen ökonomischen Größen permanent zu korrigieren und gleichzeitig zu verwerten versuchen. Dies bedeutet aber auch, dass in der letzten Instanz Messungen durch das Geld stattfinden, die verifizieren, dass eben Durchschnittsbildungen wie auch Abweichungen stattfinden. Das Mathem der Ökonomie ermöglicht Messungen und gibt zugleich eine Interpretationsmatrix, die am Maß der gelungenen marktvermittelten Reproduktion des Kapitals orientiert ist. Eingedenk dessen, dass das ökonomische Gesetz (Durchschnittsbildung) sich nicht unmittelbar in Aktualisierung ausdrücken kann, sind die a-siginifikanten Zeichen (Matheme, Tabellen, Charts, Algorithmen etc.) Virtualisierung von etwas, das sie als Gesetz erzwingt, wobei diese zwar in der Zeit ist, es entstammt aber keineswegs der Addition von Fällen, womit Vertretungen (Mathem) einspringen müssen, sodass dem Begriff des Kapitals unbedingt das Mathem der Ökonomie (Ebd: 69f.) hinzuzufügen ist, das heißt, das (begriffliche) Kapital und sein ökonomisches Mathem (Differenzkalküle) sind zu superponieren.

Die permanente »Kontrolle« der Unternehmen durch das finanzielle Kapital beinhaltet ihre molekulare Bewertung der Leistungsströme auf betriebswirtschaftlicher Ebene, und dies geschieht systematisch durch den Einsatz mathematischer und stochastischer, auf Algorithmen basierenden Modellen, die darauf abzielen, selbst noch diverse partikulare Verfahren, die innerhalb der Produktionsprozesse des Unternehmens eingesetzt werden, zu bewerten und zu optimieren, um weiterhin spezifische Strategien, die der kurzfristigen Profitmaximierung dienen, auszuarbeiten. Das Accounting, die Kontrolle der Leistungsströme im Unternehmen selbst, setzt in seinem strategischen Umgang mit Zahlen neue Standards für das interne Rechnungswesen und die Buchhaltung. Diese Art der Operationalisierung bzw. Optimierung wird durch den Einsatz einer Vielzahl von Instrumenten (Algorithmen, Matheme und Modelle) praktisch durchgeführt. Schließlich müssen Investoren oder Risikokapitalgeber nicht unbedingt etwas von den Logiken und Regeln der Produktionsprozesse selbst verstehen, um den Kapitalbedarf von neuen Unternehmen zu decken, oder um aus Universitäten, Krankenhäusern oder Autobahnen rentable Geldanlagen zu machen. Die neue Management-Elite gehorcht einer algorithmischen Metrik, die ein derivatives, metrisches Maß inkludiert, das die Effizienz der Unternehmen bewertet, um dann mit ihr zu spekulieren. Die Modellierung des Maßes benötigt die komplexe Logik des Algorithmus, die weniger dazu dient, den Wert einer Ware oder eines Unternehmens zu kalkulieren, sondern den Prozess der Kapitalisierung in Gang zu setzen. Randy Martin schreibt in seinem Buch Knowledge Ltd über diese Art der Spekulation: »Während das massenhafte Fließband all seine Inputs an einem Platz versammelte,um eine straff integrierte Ware zu erzeugen, die mehr war als die Summe ihrer Teile, spulte das financial engineering diesen Prozess verkehrt ab, indem es eine Ware in ihre konstituierenden und veränderlichen Elemente zerlegte und diese Attribute zerstreute, um sie zusammen mit den Elementen anderer Waren zu bündeln, die für einen global orientierten Markt des risikogesteuerten Austauschs interessant sind. Alle diese beweglichen Teile werden mit ihren Risiko-Attribute wieder zusammengesetzt, sodass sie als Derivat mehr wert werden als ihre individuellen Waren. Logistik ist nicht mehr zufrieden mit ökonomischen Diagrammen und Flüssen, mit Kalkulation und Voraussagen,mit Repräsentationen, die der Aktion der ManagerInnen vorausgehen.« (Martin 2016) So arbeiten die digitalen Beschäftigten am virtuellen Fließband die Elemente an der ökonomischen Linie ab, ohne überhaupt noch voneinander zu wissen; eine kollektive Einheit bilden die vollkommen vereinzelten Teilarbeiter in keinerlei Hinsicht an sich, sondern nur für ihren Arbeitgeber. Allerdings besitzen die führenden Angestellten, die Unternehmensberatungen und Experten einen privilegierten Zugang zu den Linien, indem sie die quantitativen Darstellungen von Betriebseinheiten, Derivaten und Apparaten beherrschen und konstruieren, wobei es letztendlich egal ist, ob es sich um ein Unternehmen, eine Forschungseínrichtung oder um ein Krankenhaus handelt, wenn es um die Bereitstellung spezifischer Leistungsindikatoren, deren Anzahl im übrigen grotesk zu wuchern beginnt, geht, mit denen man die Kosten, die Profitabilität bewertet und vergleicht.

 

Biomacht und Quantifzierung

Wenn man Foucault zufolge mit den Begriffen Biomacht und Biopolitik der Eintritt des bios, des politischen Lebens in die Felder der Macht und Politik innerhalb einer singulären Geschichte beschreiben kann, dann organisiert die Biomacht in anderer Gewichtung zur Biopolitik die historischen Regulierungen der Körper sowie der Bevölkerungen in einem sozio-ökonomischen Feld, in dem das Kapital und seine Bevölkerung nach der Zerschlagung der Souveränität und ihrer Regierungsformen »frei« sind, um möglichst unbehindert und ungehemmt zu fließen, während im Sinne der Affirmation und Vervielfältigung des Lebens (durch die Biomacht) zugleich Prozesse der Artikulation, Formation und Verdichtung von Interessen zu berücksichtigen sind, und hier ist der Einsatzort der biopolitischen Dispositive anzusiedeln. Die Biopolitik inhäriert Regierungsweisen, die auf die Beschleunigung, Inwertsetzung und Regulierung von Strömungen drängen, auf funktionale Zirkulation von Rohstoffen, Waren, Dienstleistungen, Geld und Kapital, und dies im Sinne einer permanenten Modulation bspw. auch der Arbeitsvermögen und schließlich des Lebens selbst, das zu einem funktionalen Modell der biopolitischen Kalküle und des Macht-Wissens umgebaut wird. War es zwischen vom 17. bis zum 19. Jahrhundert noch die Funktion der Disziplinardispositive, die Orientierung des Individuums an eine geringe Anzahl von konstitutiven Normen zu binden, so sind die Motivationstechniken des 20. und 21. Jahrhunderts viel stärker auf die kontrollierende und kontrollierte Steigerung der Freiheits- und Glaubensgrade von Individuen/Dividuen ausgerichtet. Die Matheme der Macht basieren nun viel weniger auf der verinnerlichten Exekution des Gehorsams, sondern zielen auf die aktive Selbststeigerung der Akteure ab, die sämtliche ihrer Vermögen von der Emotion bis hin zur Kognition wie eine stets ausbeutbare Ressource behandeln, um schließlich Effizienz herzustellen, ja um soziale Produktivität und Subjektivität zu optimieren. (Vgl. Lemke,T. 2013) Es sind schließlich die gelebten Technologien und Subjektivierungsformen des neuen Arbeitskraftunternehmers, die sich immer stärker in Bewusstseine und Psychen festsetzen, sich wahrscheinlich sogar neuronal bahnen, worüber dann die Biopolitiken neoliberaler Regime ihre Steuerungen vornehmen. Foucault zeigt in diesem Zusammenhang, wie in den verschiedenen Varianten des Neoliberalismus begriffliche Instrumente, Diskurse und Technologien entwickelt werden, um nicht nur die Heterogenität zwischen den wirtschaftlichen Maschinen, Institutionen und politischen Einrichtungen auf neuem Niveau einzurichten und zu stabilisieren, sondern um auch neue Formen der Subjektivierungen zu produzieren. Er erwähnt in seinem Buch Die Geburt der Biopolitik allerdings nicht, dass diese Subjektivierungen ganz einschneidend durch die Aussicht getragen sind, Verpflichtungen zu folgen, d. h., »Subjekte« zu werden, die weniger als eingeschlossene »Subjekte« fungieren, sondern als »verschuldete Subjekte« (Deleuze) ihre Schulden auf Lebenszeit zurückzahlen, womit sich das Sicherheitsdispositiv direkt auf die Zukunft auswälzt.
Der Staat spielt bei diesen Prozessen der Gliederung und Klassifizierung der Bevölkerung nach Parametern und Variablen wie Alter, Geschlecht, Beruf und Ethnie eine besonders aktive Rolle, womit eine Lesbarkeit und Sichtbarkeit von sozialen Prozessen erzeugt wird, die jedoch existierende Klassenspaltungen und Schichtungen eher verdeckt als dass sie die Konflikte und Differenzen im sozialen Feld expliziert. Dafür bedarf es eines technologisch hochentwickelten Apparats und einer entwickelten Infrastruktur zur Erhebung von Daten, die in Zahlen transformiert werden, wobei gleichzeitig die Nachfrage nach zahlenförmiger Repräsentation politischer und ökonomischer Prozesse anwächst, der mittels des Einsatzes des umfassenden Instrumentariums der Statistik, der Demografie und neuer Prognosetechniken nachgekommen wird. Dabei entstehen aber auch eine ganze Reihe weiterer Organisationen außerhalb des Staates, die mittels der Operationalisierung von bestimmten Indikatoren, Ratingprozeduren, Messungen und Meinungsumfragen die sozialen Felder transparent und zahlenmäßig lesbar machen, eine Entwicklung, die unbedingt der Digitalisierung und der entsprechenden Ökonomie der Daten und der Informationen bedarf: Es drängt sich jetzt der Verdacht auf, dass die Risikobewertungen und die Verfahren zur Herstellung ökonomischer Daten d den staatlichen Behörden immer weiter entzogen werden und heute zum teil privatisiert sind., wobei ständig bestimmte Ideologien, Richtlinien und Daten zur Arbeitslosigkeit, Geldwertstabilität, zur Verschuldung und Arbeitsmarktflexibilität, zur Austerität und zur Privatisierung in die Medien eingespeist werden, um die Unternehmen, den Staat und die Haushalte hinsichtlich ihrer Bereitschaft zur Effizienz, Wetbewerbsfähigkeit, Rentabilität und Accountability zu testen.

Zu den bewertenden Instanzen gehören die Ratingagenturen, Expertenregime, einflussreiche Lobbygruppen und Thinkthanks, die Akteure des finanziellen Kapitals und Intellektuelle. Die quantifizierende Ökonomisierung (mittels der Statistik und Prognostik) von Bereichen, die bisher der Kapitallogik entzogen waren, vollzieht sich über die Herstellung von Quasi-Märkten, eine Engführung der Profitlogik mit entsprechenden Bilanzierungsverfahren, Input-Output Matrizes und Methoden der Stochastik, um den Wettbewerb in diesen Feldern sozusagen als Objektivität, das heißt über die Erstellung von Kennzahlen, Indikatoren und Modelle, die immer auch Informations- und Preissignale setzen, zu inskribieren. Dazu benötigt es spezifische Parameter der Effizienz, der Leistung und der Profitabilität, die nur dann in das Gesundheitswesen, in die Bildungsinstitutionen und die Behörden eingepflanzt werden können, wenn messbare Daten vorliegen.
Die Wucherungsprozesse der Quantifizierung lassen wiederum selbst an Zahlen ablesen, so wird geschätzt, dass die Datenmengen im digitalen Raum in der Zeitperiode von 2005 bis 2020 um den Faktor 300 wächst (Mau 2017: 41), wobei nicht nur die Speicherkapazitäten anwachsen, sondern auch die Verknüpfungen und Clusterbildungen, bei ständiger Verbesserung der algorithmischen Verfahren und der Strategien und Prozesse des Big Data (Datenminining und -analyse). Die Quantifizierung und Verdatung ist Teil einer expansiven Kapitalisierung und Ökonomisierung von bisher der Profitlogik entzogenen Organisationen und Bereichen, man denke an die Bildung, die Verwaltung ,das Gesundheitswesen und kulturelle Einrichtungen wie Museen, die alle heute einer effizienten Allokation von Ressourcen unterzogen werden sollen, indem zudem permanent Tests, Prüfungsverfahren der in diese Einrichtungen integrierten Akteure installiert werden, die nun einerseits ultravisualisiert werden und andererseits in einen Wettbewerb hineingezwängt werden, der von ihnen ständige Adaptionen, Selektionen und eigene Aktivierungen verlangt, wobei sie doch selbst auf lebende Daten reduziert sind, die vor den flimmernden Bildschirmen sitzend und ihre Leistungen dokumentieren, damit sie vermessen werden können, und sich dabei diesen Prozessen ganz bewusst aussetzen, um Rangvorteile gegenüber den Mitstreitern zu erziielen. Dabei werden vom Staat und anderen Vermessungsinstitutionen permanent in Zahlen transformierte Anreizsysteme eingesetzt, um die Leiitungsbereitschaft der Akteure weiter zu steigern und zugleich geschmeidig die Anpassungsprozesse derselben zu begleiten und zu kommentieren.

 

Versicherung und Risikosubjekte

Die Kontrolle der zeitgemäßen Risikosubjekte erfordert gewinnorientierte Versicherungen, die ihre Kunden permanent, klassifizieren, normalisieren und bewerten, und dies zeigt die Risikosubjekte als Dividuen an, insofern diese spezifische Zahlen zugeordnet bekommen, die sich auf Faktoren wie Konsumeigenschaften, Interaktionen, Gesundheit, Bildung, Kreditfähigkeit beziehen, was sie eben zu geteilten Entitäten, die man Dividuen nennt, macht. Die Versicherungen, die verschiedene Formen des Risikomanagements und andere Finanzinstrumente setzen heute quantitative Elemente, die in Tabellen angeschrieben sind, in noch höherskalige quantitative Kategorien um, um die Elemente ständig neu zu kombinieren und neue Anreiz- und Allokationssysteme zu schaffen und höhere Profite mittels der Steigerung der Performanz, die die durch Risikoprofile dokumentierten Subjekte selbst leisten, zu erzielen (Lee, Martin 2016:539) Die Versicherungen erheben ihre Daten zunächst aufgrund von standardisierten Risikodefinitionen, indem sie die Risikosubjekte nach Kriterien wie Einkommen, familiäre Herkunft, Beruf, Wohnort, Geschlecht und Bildung sortieren, hierarchisieren und auspreisen. Während die Risikosubjekte hartnäckig mit ihrer individuellen Neubildung beschäftigt sind, um sich ständig in Freiheit kreativ neu zu erfinden (und sich damit meistens nur der Tatsache anpassen, dass sie nicht im geringsten an ihrer Lage etwas verändern können, oder es vielleicht auch gar nicht wollen), werden sie von den Versicherungen als ziemlich stereotype Protagonisten betrachtet, die ein ganz gewöhnliches Leben leben, unter Umstände das des »lebendig gewordenen Stelleninserats, eine gelungene Synthese aller Charaktereigenschaften, die sich Personalchefs und Volksschullehrer bei einem Menschen wünschen.« (Pohrt) Während die risikobereiten Subjekte, insbesondere die aus der Mittelschicht, permanent die Befreiung von den Fesseln verkrusteter Identitäten beschwören, werden sie gleichzeitig äußerst effizient durch Versicherungen und andere Kontrollfirmen gescannt und klassifiziert. Die aufstiegswillige Mittelschicht – ökonomisch nach oben, kulturell nach unten orientiert – findet dies sogar chic, und einige ihrer Repräsentanten, die vielleicht höhere Funktionen bei den Versicherungen selbst einnehmen, gelingt es im High-Sein des Hedgens ihres Lebens sich gegenseitig zu übertrumpfen, und dies im Zuge eines schnellmachersüchtigen Ausspuckens von Funktionen, Formeln und Slogans, die den eigenen Lebensstil gnadenlos und zugleich trübselig ornamentieren. Die Existenz risikobereiter Subjekte erfordert gleichzeitig eine von den Versicherungen operationalisierte Kontrollstruktur (Statistiken, Tabellen und Taxonomien), die ihre Kunden nach Risikokategorien eingliedert, klassifiziert und sortiert – zum Zweck der Erstellung eines ordnungsgemäßen Risikoprofils. Selbstoptimierungsprozesse und Kontrollstrukturen bedingen und verstärken sich gegenseitig. Die Unternehmen und Personen werden heute weniger durch die Analyse des konkreten Einzelfalls auf ihre Kreditwürdigkeit geprüft, sondern anhand einheitlicher quantitativer Indizes, das heißt die Kreditkontrolle durch Prüfung des Einzelfalls wird durch die Erstellung von standardisierten Risikoprofilen ersetzt. So wurde zur Evaluation der Verbraucher der Fico Score eingeführt, ein Algorithmus, der als ein wichtiges statistisches Instrument zur Kontrolle des neoliberalen Subjekts gelten kann. Scoring bedeutet, dass bestimmten Entitäten eine Performanz, Leistungsfähigkeit, Rentabilität oder Zahlungsfähigkeit zugeschrieben wird, um sie einzuteilen, zu klassifizieren und andere Zuweisungen vorzunehmen, während bei den Screenings die Entitäten aus einem größeren Pool selektiert werden, um Rangordnungen der Wertigkeit herzustellen. Beides mal wird wird dies heute durch maschinelle Algorithmen prozessiert. Das Subjekt wird nach den oben genannten Kriterien klassifiziert, und auf diese werden wiederum Punkte vergeben, die gewichtet und zu einer Bonitätsnote zusammengefasst werden, um dann mit dem Gesamtscore die Kreditvergaben festzulegen.

Statistische Verfahren dienen dazu, die Wahrscheinlichkeiten für die Bedienung des Kredits oder Kreditausfälle zu modellieren, in dem man Bonitätsnoten vergibt, womit nicht nur über die Vergabe von Krediten, sondern auch über die Konditionen der Kredite Laufzeiten, Zinssätze etc.) entschieden wird. Über die Verschuldungen, Marktaktivitäten und generell die ökonomische Situation der Subjekte liegt heute ein breit zugängliches Datenmaterial vor, das ständig in die jeweiligen Risikokalkulationen und Bewertungem einfließt, wobei der Trend dahin geht, immer weitere Bevölkerungsteile über die sog credit risk coloniziation in dieses Prozesse zu integrieren. (Mau 2017: 109)
Die Versicherungen konstruieren mit dem Fico Score die Kreditgeschichten ihrer Kunden, Unternehmen prüfen mit ihm die Stellenbewerbungen und suchen nach optimalen Standortbestimmungen, Krankenversicherungen erheben Prognosen, ob die Patienten ihre Medikamente auch ordnungsgemäß und regelmäßig einnehmen, Spielcasinos eruieren die gewinnträchtigsten Gäste.

 

Rating und Ranking

Ein weit aufgespanntes und zugleich dichtes Netz von Rankings, Ratings und anderen Evaluationsmechanismen, die ständig zahlenmäßig angeschrieiben und daraufhin auch visualisiert werden, überzieht heute alle gesellschaftlichen Felder und bezieht sich zudem auf fast alle Tätigkeiten, Stimmungen und Affekte der Subjekte, womit wir es hinsichtlich der letzteren mit dem Design einer Aggregation und Rekombination von dividualisierten Verhaltensweisen und Attributen zu tun bekommen, das heißt einer explizit derivativen und asymmetrischen Logik., insofern die Subjekte durch die Mechanismen des Rankings, Screenings und Scorings, der Quantifizierung und der Monetarisierung ihrer Risikoprofile selbst zu dividuierten Produkten transformieren, die wiederum von Managern, Analysten und anderen Personen, die sich paradoxerweise als Individuen wahrnehmen, evaluiert werden. Es wird hier ein neues Objektivitätsregime generiert, das nicht nur Unterschiede und Vergleiche sichtbar macht, sondern neue Hierarchisierungen und Klassifikationen zur Kontrolle des sytems und der Subjekte einsetzt. Während das Rating dazu dient, bestimmte Objekte wie Sachverhalte, Subjekte und Entitäten mittels bestimmter Techniken zu beurteilen und zu bewerten, werden die Objekte beim Ranking in eine bestimmte Rangfolge gebracht. Die Monetarisierung und Ökonomisierung der Ratings und Rankings führt zur permanenten Restrukturierung der Methoden der Effizienzsteigerung, der sog. leistungsorientierten Mittelvergaben und Budgetierungen unter den Gesichtspunkten der quantifizierenden Rentabilitätssteigerung bzw. der der in Zahlen übersetzten Input-Output Matrizen, wobei nun auch zunehmend Bereiche wie Bildung, Gesundheit, Gefängnisse und selbst noch Kriege betroffen sind

Die Subjekte sind in diesen Quantifizierungsprozessen ständig aktiv und präsentieren sich anhand von Daten (man denke an Einkommen, Körper und Gewicht, Laufstrecken, die man zurücklegt, und an die Gesundheit) und setzen diese Daten in den Vergleich zu denen der anderen und erzeugen somit selbst die numerische Hegemonie i mit, die über die Vereinheitlichung spezifischer Unterscheide die Aura des Objektiven qua Zahlen umgibt. Dabei sind solche Vergleichbarkeiten und Numeriken nicht apriori gegeben, sondern sie werden in quantifizierenden sozialen Prozessen konstruiert, indem auf Konsens basierende Maßstäbe hergestellt werden, die dann wieder auf unterschiedliche Entitäten angewandt werden, die nach metrischen und ordinalen Differenzen in Rangordnungen integriert werden. Dabei wird zum einen Gleichwertigkeit vorausgesetzt, zum anderen werden hierarchische Ordnungen inszeniert, die das Mehr oder Weniger oder das Besser oder Schlechter festschreiben Die so hergestellte differenzielle Kommensurabilität verweist auf Äquivalenz und auf das Dritte des Vergleichs, den tertium comparationis, über den dann die Maßstäbe des Mehr oder Weniger gelegt werden, das heißt, es wird Gleichheit unterstellt und zugleich Differenz über bestimmte Beobachtungsformate formuliert.

 

Rating-Agenturen

Die durch die Kapitalisierung strukturierten finanziellen Ereignisse wie die CD0s, aber auch die Unternehmen, Staaten und Haushalte werden an den Finanzmärkten von besonderen Institutionen wie den allseits bekannten Rating-Agenturen und den Analysten der Investmentfonds mit Hilfe von wissenschaftlichen Diskursen, Messkonzepte, Indikatoren, Gewichtungen, Charts, Diagrammen, mathematischen Modellen, politische Begebenheiten etc. interpretiert und quantifiziert, i. e. in Geldzeichen und Preise konvertiert, um die Kreditwürdigkeit und Investitionssicherheit der bewerteten Objekte festzusetzen. Agenturen bewerten gegen die Zahlung von Gebühren unter anderem Kredite und Wertpapiere mit Noten (von AAA bis zu d, d für default), die das Risiko der jeweiligen Investition widerspiegeln sollen. Durch differenzierte Analysen und Ordnung von Informationen werden Urteile hergestellt, die Bewertungen der Bonität und des Risikos der untersuchten Objekte umfassen und eine hohe Signifikanz und einen enormen Signalwert den globalen Märkten besitzen und universelle Vergleichbarkeit konstruieren. Die Wichtigkeit dieser Praxis der Kreditbewertung und der Überwachung der Kreditwürdigkeit der Kreditnehmer zeigt sich daran, dass im Jahr 2001 Versprechen im Wert von 30 Billionen Dollar bewertet wurden, was damals schon anzeigte, dass die Kreditvergabe ohne die großen Agenturen Moody`s, Standard & Poor und Fitch, die zusammen einen Marktanteil von 95% Besitzen, kaum noch möglich war. (Sahr 2017: Kindle-Edition, 5414) Einerseits sind die private Unternehmen, andererseits werden von staatlicher Seite permanent Aufgaben an sie delegiert. Für diese Bewertungen kombinieren die quantitativen Analysten, die meist aus dem Bereich der Naturwissenschaften kommen, heute in spezifischer Weise spezifische Indikatoren und mathematische Modelle mit dem Einsatz der Informationstechnologien, um die Informationen zu verdichten und gleichzeitig Unterscheidungen zwischen unrentablen und rentablen Investitionen zu treffen. Allgemein wird bei den Ratings mit ganz spezielle Bewertungsverfahren das Produktivitäts-, Leistungs- und Effizienzniveau mittels standardisierter Noten beurteilt, wobei im Gegensatz zu den Rankings keine exklusiven Plätze vergeben werden.(Mau 2017: 93) heute enthalten viele Kredit- und Derivatverträge sog. Rating Triggers, die dann in Kraft treten, wenn die Rating der Unternehmen oder der Verträge unter ein gewisses Niveau fallen, womit dann Aufschläge gezahlt werden müssen. (Mau 2017: 97) Die Rating-Agenturen fungieren aber nicht nur als Steuerungs- und Kontrollinstanzen, indem Risiken und Renditechancen vergleichen und bewertet werden, sondern ihre Funktion besteht auch darin, die Konkurrenz zwischen den Unternehmen anzuheizen und damit neue Garde der Beschleunigung in der Konstruktion von kompetitiven Prozessen zu erreichen
Aufgabe der Rating-Agenturen war und ist es unter anderem, die in Pakete gebündelten Wertpapiere zu bewerten (Bewertung des jeweiligen Risikopotenzials eines Wertpapiers sowie Bestimmung des Zinssatzes). Bei CDOs impliziert dies die Bewertung des Risikos selbst. Sahr nennt an dieser Stelle prominent das Beispiel der Ratingagentur Moodys, die zwischen den Jahren 2000 und 2007 sagenhafte 72461 Tranchen mit Hypothekenverbriefungen im Wert von 4,7 Billionen Dollar bewertete (und dies auch mit der Bestnote AAA, die auf ein quasi inexistentes Ausfallrisiko verweist; allerdings waren solch hoch bewertete Versprechen auch relativ knapp im Angebot). (Sahr 2017: Kindle-Edition, 5065) Dabei wurden die CDOs durch spezifische Konstruktionen des Risikos, die an Durchschnitte und Mittelwerte gebunden waren, oft besser bewertet als die Ausgangsportfolios, das heißt sie galten als relativ sicher und wurden insbesondere auch von institutionellen Anlegern wie den Pensionsfonds gekauft, die nur hoch bewertete Papiere kaufen dürfen und an den Finanzmärkten als wichtiger Kapitalproduzent gelten (in den USA erzielen sie einen Umsatz von 10 Billionen Dollar). Der Ertrag der CDOs war oft höher als der von AAA-Staatsanleihen und galt zudem für die Investoren auch als ein relativ sicheres Investment und zugleich als eine gute Sicherheit. Die hinreichende Kreditwürdigkeit der CDOs erwuchs aus der Diversifizierung der Portfolios. Allerdings kann, wie wir an anderer Stelle schon angesprochen haben die Transformation der Unsicherheit in das Risiko die Kontingenz nicht eliminieren, vielmehr lassen sich über prognostische Verfahren nur gewisse Orientierungswerte und Zielvorgaben herstellen,

Generell besteht die entscheidende Funktion der Rating-Agenturen nicht darin, bei den privaten Banken, Unternehmen und Staaten einen massiven Schuldenabbau einzufordern, vielmehr steht das Problem der Regulierung der systemischen Verschuldung und Zahlungsversprechen im Vordergrund, denn diese bleiben die Grundlage für systemische Finanzoperationen, auf Basis derer die Rating-Agenturen ja selbst erst ihre Gewinne realisieren. Damit wird auch der Verlauf von Finanzkrisen verständlicher, die aus der Sicht der Rating-Agenturen zu den besonders lukrativen Situationen gehören. Und somit wird deutlich, dass die Ratings der Agenturen keineswegs »objektive« Bewertungen darstellen, sondern vielmehr die Verdichtung der strategischen Instrumente von mächtigen Finanzorganisationen bezeichnen, denen von den Regierungen und gesetzgebenden Parlamenten die hoheitliche Aufgabe zugewiesen wurde, das Finanzwesen zu bewerten, zu taxieren und teilweise auch zu regulieren. Die spezifische Kooperation von Organisationen, die an den Finanzmärkten als Gläubiger und/oder Schuldner auftreten, mit den großen Rating-Agenturen, zeigt diese aber weniger als ein Kontrollinstrument qua Monitoring an, sondern führt eher zu einer weiteren Überdehnung von Kreditwürdigkeit, das heißt zur Reduzierung desjenigen Interventionspotenzials, das auf die Überwachung der Kreditaktivitäten der Finanzinstitutionen angelegt ist. Man spricht jetzt von einem Drehtüreffekt, insofern die Unternehmen als Schuldner dringend Bewertungen benötigen und die Rating-Agenturen als Kunden der Unternehmen einen Anreiz für gute Bewertungen haben. (Sahr 2017: Kindle-Edition 5462) Viele Unternehmen benötigen unbedingt Rankings (für die Gebühren zu zahlen sind) , um überhaupt Zugang zu den Kapitalmärkten zu erhalten. Da die Kunden bei schlechten Bewertungen die Rating-Agentur wechseln können, obgleich der Markt doch oligopolistisch bzw. hochkonzentriert ist, sind letztere gezwungen, ihre Funktion als Organisationen, die das Vertrauen auf die Zahlungsversprechen der Finanzinstitutionen prekär halten sollen, zu relativieren und treten heute deshalb eher als prozyklische Trendverstärker auf. Es drängt sich jetzt der Verdacht auf, dass die Risikobewertungen und die Kalkulationen der Kapitaldeckung von Unternehmen den staatlichen Behörden mehr oder weniger entzogen und heute privatisiert sind., wobei ständig bestimmte Ideologien, Richtlinien und Daten zur Arbeitslosigkeit, Geldwertstabilität, zur Verschuldung und Arbeitsmarktflexibilität, zur Austerität und zur Privatisierung in die Medien eingespeist werden, um die Unternehmen, den Staat und die Haushalte hinsichtlich Effizienz, Wetbewerbsfähigkeit, Rentabilität und Accountability zu testen. Zu den bewertenden Instanzen gehören allerdings nicht nur die Ratingagenturen, sondern der Staat, Expertenregime, einflussreiche Lobbygruppen und Thinkthanks, die Akteure des finanziellen Kapitals und Intellektuelle. Die quantifizierende Ökonomisierung (mittels der Statistik und Prognostik) von Bereichen, die bisher der Kapitallogik entzogen waren, vollzieht sich über die Herstellung von Quasi-Märkten in exakt diesen Bereichen, eine Engführung der Profitlogik mit entsprechenden Bilanzierungsverfahren, Input-Output Matrizes und der Stochastik, um den Wettbewerb in diesen Feldern sozusagen als Objektivität, das heißt über die Erstellung von Kennzahlen, Indikatoren und Modelle, die immer auch Informations- und Preissignale setzen, zu inskribieren. Dazu benötigt es spezifische Parameter der Effizienz, der Leistung und der Profitabilität, die nur dann in das Gesundheitswesen, Bildungsinstitutionen und Behörden eingepflanzt werden können, wenn messbare Daten vorliegen, die in Ratings, Rankings und in das Scoring übersetzt werden können.

 

Status

So ziemlich jedes Objekt, Subjekt und jede Entität kann heute qua Ranking in eine Reihenfolge gebracht werden, man denke insbesondere an die situative Festschreibung der Popularität jeder Art von Promi-Stars, seien es an Politiker, Fußballspieler, Models bis hin zu den Pornostars, die Rentabilität von Unternehmen und Institutionen, an die Bildungsleistungen des Universitäten und an die Gesundheitsleistungenm an die Städte, den Geschmack des Essens und der Getränke, an Datingseiten und die Lebensqualität der Metropolen, an die Reputation in Berufen und selbst an die Staaten nach ihren Verschuldungsgraden. Dabei wird eine scheinbar objektive Bewertung und Berichterstattung suggeriert, die sich um qualitative Unterschiede, Nuancen und Abweichungen wenig schert, letztere eher sanktioniert und in die untereren Ränge verweist. Mau spricht an dieser Stelle von Objektivitätsgeneratoren, die nicht nur die sozialen Verhältnisse und Entitäten quantifizieren, indem sie sie hierarchisieren, sondern diese Resultate auch noch visualisieren und in Charts, Diagramme und Tabellen übersetzen, und dabei handelt es sich keineswegs um rein deskriptive Prozesse, vielmehr um performative Praktiken der Bildungen von hierarchischen Strukturen und Systemen, die politisch, ökonomisch und sozial aufgeladen sind; sie weisen die Subjekte auf bestimmte Plätze, indem sie zugleich die Kriterien und Verfahren festlegen, mit denen die Plätze zugeordnet und besetzt werden.

Das Rating ist ein Procedere ,mit dem Subjekte, Objekte und Sachverhalte hinsichtlich bestimmter Merkmale, Leistungs-, Rentabilitäts- und Qualitätsdimensionen, mittels bestimmter Symbole und Zahlen beurteilt, evaluiert und bewertet werden, während das Ranking insofern darüber hinaus geht, als die beurteilten Objekte nun durch Differenzbildung in eine Rangfolge gebracht werden. Dies ist ein objektivierendes Klassifizierungsverfahren, mit dem man die Fremdbeobachtung und die Selbstbeobachtung in ein System integriert, wobei der performative Aspekt darin besteht, dass die Akteure aufgefordert werden sich permanent zu sich selbst und andern in Beziehung zu setzen. (Mau 2017: 76) Für die Profieure des Rankings ist heute der freie Zugang zu großen Datenbeständen, die die Akteure freiwillig konstruieren ine erste Voraussetzung, um ein Dispositiv zu erzeugen, für das zum Ersten die Identifizierung von Unterschieden und zum Zweiten der Wettbewerb um die exklusiven Platzierungen notwendig sind, wobei letztere instabil und relativ sind, sodass der Kampf gegen die Entwertung und für die Überbietung des anderen immer präsent ist. Der Zweck dieses stillen Kampfes ist die Sichtbarmachung der eigenen Position, falls sie sich denn im vorderen Bereich befindet, und dies zeitigt ganz reale und eben nicht nur symbolische Effekte an. Die wichtigen Indikatoren, auf die sich diese Vergleichsverfahren beziehen, sind heute definitiv die Rentabilität, die Effizienz und Produktivität.
Die Quantifizierungsverfahren des Screening und Scoring funktionieren ähnlich, sind a aber stärker auf das Individuum oder besser das Dividuum bezogen. Auch hier ordnet man den Dividuen, bestimmte Merkmale wie Leistungs- und Zahlungsfähigkeit, Angaben zum Gesundheitszustand und zur Bildung oder spezielle Risiken zu, wobei die Ergebnisse von den Unternehmen, Märkten und anderen Organisationen begierig aufgegriffen werden, um wiederum Selektionen vorzunehmen, die den einen Vorteile und den anderen Nachteile bringen. Mit der Zuschreibung von bestimmten Eigenschaften werden die Dividuen durch das Screening mittels der Anwendung einer bestimmten Anzahl von Parametern von vornherein geteilt und sind damit als Stichroben vorhanden, und das heißt bezüglich letzterem, dass man sie aus einem größeren Pool von Akteuren selektiert, sodass es immer zu Einschlüssen und Ausschlüssen kommt. Auch beim Scoring werden statistische Daten und Verfahren hinzugezogen, um die Akteure in eine feine Ordnung der Wertigkeit (Ebd.: 104) zu bringen.

Für die Abwicklung der Bewerbungen sind die Verfahren des Screening für die Unternehmen heute essenziell, wobei diese sie meistens an externe Dienstleistern übergeben, die getreu einer Rasterfahndung die Leute ein- und aussortieren. Dabei können die Unternehmen zudem auf ein Unza weiterer Daten und Ínformationen zugreifen, die bspw. in den sozialen Medien permanent produziert werden, man denke an die Angaben zum Freundeskreis und oWhnumfeld, zur Mobilität und dem Konsumverhalten und vieles mehr. Auch mit diesen Verfahren werden in den verschiedenen Teilbereichen der Ökonomie, der Kultur und der Politik den Dividuen Plätze zugeordnet, womit sie per definitionen zu Geteilten transformieren, und diese Zuweisungen bestimmen den Zugang zu Optionalitäten, Handlungspotenzialen und generell die Möglichkeiten, sein Leben zu gestalten. Dabei gehen bspw. bestimmte Kreditscorings so weit, über den Einsatz geheimer Algorithmen nicht nur Informationen über den eigenen Gesundheitszustand, die Mobilität, den Jobwechsel und die persönliche Risikobearbeitung einzuholen und zu bewerten, sondern man zieht sogar die Daten des Freundeskreises ein, was je nach deren ökonomischen Status Vorteile oder Nachteile bringen kann. Die Erstellung von bestimmten Risikoprofilen ist heute eine Quantifizierungsarbeit sui generis, um sich zum einen ein Bild über das jeweilige Dividuum zu machen und zum anderen es beständig dazu aufzufordern, die eigene Position zu verbessern und zu effektivieren. Bezüglich der Körpereffektivierungsarbeit kommt es in diesem Kontext zu einer immer stärkeren Verschmelzung von medizinischen Diagnosen mit verschiedenen Wellnessinszenierungen und Lifestyleangeboten,, wobei eine ganze Reihe von Gadgets und Geräten, die den Körper erweitern und Körperzustände messen, Informationen zur Bewegung, zum Schlaf- und Stressverhalten, zum Alkohol- und Nikotinkonsum aufzeichnen und zugleich Anleitungen zur Selbstoptimierung des Körpers geben. Diese Arbeit am eigenen Körper ergibt einen persönlichen Aktienkurs der Gesundheit und des Wohlbefinden in Echtzeit (Eb.d.: 116), der für die Akteure Anreize vermittelt, den Versicherungen und Krankenkassen Informationen für die Ausarbeitung von neuen Tarifmodellen bereitstellt, um personalisierte Kostenberechnungen zu verfügen. Diese Art der Selbstvermessung wird bspw. von den Versicherungen so strukturiert, dass man technische Applikationen entwickelt, die ein bestimmtes Verhalten messen, um es in Relation zu den Tarifsystemen zu setzen. Es entwickelt sich ein fein gesponnenes Netzwerk aus Versicherungen, Kunden und App-Produzenten, das permanent die Differenzierung und Personalisierung von auf die Gesundheit bezogenen Daten betreibt, um daraufhin monetäre Anreizsysteme zu schaffen und die Mitmachtätigkeit der Dividuen anzustachen, und dies alles unter dem spielerischen Aspekt des Umgangs mit Daten.

 

Literatur

Bahr, Hans-Dieter (1970): Kritik der »Politischen Technologie«.Frankfurt/M.

– (1973): Die Klassenstruktur der Maschinerie. Anmerkung zur Wertform. In: Technische Intelligenz im Spätkapitalismus. Vahrenkamp (Hrsg.). Frankfurt/M. 39-72.

-(1983): Über den Umgang mit Maschinen. Tübingen.

Mainzer, Klaus (2014): Die Berechnung der Welt. Von der Weltformel zu Big Data. München

Martin, Randy (2009):The Twin Tower of Financialization: Entanglements of Political and Cultural Economies. In: The Global South 3(1).108-125.

– (2015): Knowledge Ltd: Toward a Social Logic of the Derivative.Philadelphia.

Mau, Steffen (2017): Das metrische Wir. Franfurt/Main 2017.

Sahr, Aaron (2017):Das Versprechen des Geldes. Eine Praxistheorie des Kredits. Hamburg.

Schlaudt, Oliver (2011): Marx als Messtheoretiker. In: Bonefeld, Werner/ Heinrich, Michael (Hg.): Kapital & Kritik. Hamburg.

– (2014a): Was ist empirische Wahrheit?: Pragmatische Wahrheitstheorie zwischen Kritizismus und Naturalismus (Philosophische Abhandlungen). Frankfurt/M.

Strauß, Harald(2013): Signifikationen der Arbeit. Die Geltung des Differenzianten »Wert«. Berlin.

Vief, Bernhard (1991): Digitales Geld. In: Rötzer, Florian (Hg.): Digitaler Schein. Frankfurt/M. S.117-147.

 

Foto: Bernhard Weber

 

Nach oben scrollen