GenericScience

Bemerkungen zu Stieglers „Automatic Society. The Future of Work“ (4)

By

31 Jul , 2017  

Der 24/7-Takt des Kapitals führt zur progressiven Verminderung von Unterbrechungen, die den Status der Schlafs oder des Tagtraums besitzen. Die Macht Möglichkeiten zu träumen, auf denen der realisierbare Traum insistiert, Möglichkeiten, die zuallererst immer als strukturelle Unmöglichkeiten auftauchen, bezieht sich auf die Erfahrung, Protention und die Projektion, auf dasjenige, das Blanchot das Unwahrscheinliche nennt, und dieses insistiert wiederum auf der Macht zur De-Automatisierung der Automation, die diese Macht konstituiert. Die Macht zu träumen kann sehr wohl die psychischen Automatismen de-automatisieren, man denke an die Triebe, die die Wünsche konstituieren, wobei aber die letzteren die ersteren enthalten und weitertreiben und als solche das Sublime erschaffen, indem quasi-kausal der Zufall, indem die Triebe als blind und als fatale Notwendigkeit existieren, invertiert wird. Diese Art der Wunschproduktion bricht mit der Geschwindigkeit, der Effizienz und der Funktionalität des 24/7 Kapitalismus, der durch die Datenökonomie und seine Automatismen die totale Kontrolle der interaktiven und instantanen Spurenlegung intendiert. Die algorithmische Governance desintegriert im Voraus jede Unterbrechung und liquidiert damit die Unmöglichkeit des Möglichen (Nicht-Antizipierbarkeit und Vorhersehbarkeit) als eines Unwahrscheinlichen, das die Governance weder korrelieren noch identifizieren kann. Der 24/7 Kapitalismus als ein ökonomisches System, für das die algorithmische Governance eine a-politische Realität ist, tendiert dazu, jede Möglichkeit des Traums auszulöschen, den Stiegler als eine primordiale und kollektive Form der Erfahrung und des Testens des Unwahrscheinlichen versteht, als das Unwahrscheinliche, das ein elementares Supplement ist, das in der Erfahrung der Unterbrechung konsistiert.

Das Traumprogramm ist ein skeptisches und fordert, dass die ternären Retentionen einen spezifischen Traum, nämlich den noetischen Traum weiterführen, wenn er das Denken einleitet, ein wahres Denken, das immer negentropisch ist, insofern es die Bedingungen seiner eigenen Realisierung innerhalb eines negentropischen Prozesses denken kann (in Relation zu den Techniken des Selbst und zum Kollektiven, das durch den 24/7 Kapitalismus zerstört wird). Dazu bedarf es einer massiven Neu-Verteilung der Zeit des Denkens, die gerade durch die Automation ermöglicht wird, eine Neu-Verteilung, die keineswegs die Form der Kaufkraft, wie sie durch die Lohnarbeit erzeugt wird, annimmt. Die Organologie des Schlafs ist bei Stiegler in eine Programmatologie integriert, die widerum eine Organologie des Kosmos ist, die Formen des Kalenders einbezieht, welche sui generis Unterbrechungen inhärieren. Es gibt kein alltägliches Leben ohne diese Formen des Kalenders, der die Temporalitäten einer Epoche integriert, inklusive der Unterbrechungen, die eine wichtige Form des sozialen Lebens darstellen, man denke an kollektive Überschreitungen, Aufstände, Feste und delinquente Situationen. Heute will man die Träume objektivieren und zu diskreten Entitäten einfrieren, die man durch entsprechende Techniken aufzeichnen und downloaden kann, sodass sie zu Beständen oder elektronischer Software mutieren, welche man widerum Online als Video versenden kann. Der 24/7 Takt des Kapitals geht uns heute voraus und er übersteigt uns, raubt uns das Recht zu träumen und zu schlafen, ja das Recht auf jede Form der Unterbrechung und damit auf die Zeit, die benötigt wird, um zu denken. Es kommt zur kalkulierten Aufrechterhaltung eines insistierenden Zustands der Übergänge im Namen der technologischen Entwicklung und der Innovation, die jedoch destruktiv und entropisch ist.

Es gibt Formen des Übergangs, die auf den Produktionsformen und dem Konsumismus des Taylorismus beruhen, der die Löhne der Produktivität anpasst und Produzenten generiert, die zugleich Konsumenten sind, welche man mit effektiver Nachfrage ausstattet. Der Taylorismus stellt ein spezifisches Stadium der Automation dar, dass die mechanische ternäre Retention bewirkt.

Antoinette Rouvroy und Thomas Bern haben in ihrem Essay zur algorithmischen Governance gezeigt, dass die Performativität der Algorithmen, die sich auf relationale Daten bezieht, die humane Entscheidung übersteigt. Sie beschreiben diese Governace als »a certain type of (a)normative or (a)political rationality founded on the automated collection, aggregation and analysis of big data so as to model, anticipate and pre-emptively affect possible behaviours.« Als ein räumliches Phänomen produziert die algorithmische Governance »a colonization of public space by a hypertrophied private space«, eine Topologie der Relationen, die sich nicht um die Individuen und Subjekte sorgt, ja diese sogar vernichtet. Für Rouvroy und Berns ist die algorithmische Governance rhizomatisch, wobei ihr Objekt die rhizomatischen Relationen selbst sind und ihr »emanzipatorisches« Potenzial in der Fähigkeit besteht, Vielheiten ohne Alterität zu generieren, worauf Anrew Culp in »Dark Deleuze« dankenswerter Weise noch einmal hingewiesen hat.

Die algorithmische Governance generiert ein polit-ökonomisches Feld und ein neues Wahrheitsregime, das sich durch eine neue technologische Performativität auszeichnet, dem permanenten Einfangen von Daten, den digitalen Operationen, die diese Daten performen und den digitalen Doubles, die Resultat dieser Operationen sind, wobei diese Doubles (Profile) mit denen interagieren, die sie erzeugen. Diese statistischen Doubles sind Produkte von algorithmisierten Kontrollsystemen, welche keineswegs Individuen, sondern Dividuen und Populationen in Realtime hervorbringen, die funktionell und zugleich unsichtbar in das Generieren der Parameter der eigenen Kontrolle involviert sind, um assoziierte Milieus zu erzeugen. Dies Art der Personalisierung basiert immer auch auf dem Profil und der kostenlosen digitalen Arbeit des Users in den sozialen Netzwerken. Im Zusammenhang mit den probabilistischen Methoden des Businessmodells von Google, welches zuerst von Amazon propagiert wurde, sind die sozialen Netzwerke zu sehen, die auf der Spurenproduktion und- sicherung der eigenen User basieren, eine Art des grauenerregenden ferngesteuerten Expressionismus, der hier verwertet wird. Die diesem zugrunde liegenden Machttechnologien der Protokolle sind a-normativ, insofern sie niemals debattiert werden, sondern der algorithmischen Governance immanent ist. Das Subjekt kommt hier immer schon zu spät und kann sich kein Zeugnis über das ablegen, was es ist oder was es in Zukunft will, stattdessen verschmelzt der User mit einem eigenen Profil, das von den Algorithmen automatisch und in Realtime designt wird.

Wie jede Governance im Sinne von Foucault implementiert die algorithmische Governance Technologien der Macht, die heute auf einer Statistik basieren, die sich nicht mehr auf den Durchschnitt und die Norm bezieht. Stattdessen haben wir es mit einer automatisierten, einer atomaren und auf Wahrscheinlichkeit beruhenden Statistik zu tun, die ihre Spurensicherung und das Datamining befreit von jedem Medium betreibt – ein automatisches Computing sammelt, erfasst und mobilisiert mit den Methoden dieser neuen Statistik die Marktteilnehmer, die mittels der Extraktion von Korrelationen (Big Data) kontrolliert werden. Die kontinuierliche Daten sammelnde und Datenspuren lesende und auswertende Statistik mobilisiert eine a-normative und eine a-politische Rationalität, die auf der Verwertung, Aggregation und automatischen Analyse von enormen Datenmengen besteht, um vorausschauend die Verhaltensweisen der Agenten zu modellieren, zu antizipieren und zu beeinflussen. Diese ganz auf die Zukunft ausgerichtete Beeinflussung installiert ein neues Regime der Affekte innerhalb eines Regimes der Wahrheit, indem die Macht des Individuums zu agieren in die automatische Produktion der algorithmischen Systeme transformiert wird, mit der man das Mögliche auf das Wahrscheinliche reduziert. Wir verfolgen damit den Übergang von der statischen Governance zur algorithmischen Governance, was auch den Übergang von der öffentlichen Governance des Staates als die Administration der öffentlichen Dinge hin zur Privatisierung der Statistik betrifft, die sowohl zur Zerstörung des privaten Lebens als auch der Öffentlichkeit führt.

Die neuen automatischen Systeme modellieren das Soziale in Realtime, kontextualisieren und personalisieren die Interaktionen in automatischen Produktionen, sei es im Gesundheitswesen, im Business und in der Administration. Die algorithmische Governance umfasst für Rouvray und Berns drei ubiquitäre, territoriale und räumliche Technologien, welche beispielsweise in den Programmen der »Smart und Sensored Cities« Anwendung finden und dort designt werden, basierend auf dem »automatic computing« und dem »ambient computing, auf Technologien, deren Unsichtbarkeit die Dividuen noch aktiver und effizienter macht, in dem die Technologien sich unbemerkt in die Fabrik des Lebens einweben, bis sie von dieser ununterscheidbar sind. Die algorithmische Governance wird auch auf regionaler Ebenen gemanagt und ausgebeutet, und zwar in einer systematischen und systemischen Weise auf allen Ebenen der Zeit und des  Raums; sie beruht und fokussiert ganz auf Relationen, auf Relationen von Relationen, die wiederum auf Korrelationen reduziert werden, die jedes Potenzial zur Individuation (Disparitäten der psychischen Individuation, mit der diese in die soziale Individuation integriert wird, welche erstere ablehnt, was wiederum in kollektiven Transindividuationen metastabilisiert wird) vernichten, stattdessen ganz auf formalisierbare und zu kalkulierende Korrelationen setzen. Die Modelle der Künstliche Neuronalen Netze ermitteln lediglich Korrelionen, niemals aber Ursachen oder die Erklärung von Kausaliten, und  damit verlängern sie die Vergangenheit in die Zukunft; sie dienen der Klassifizierung, der Bündelung und der Optimierung, sind aber vom Verstehen weit entfernt.

Die algorithmische Governance enthält folgende Ebenen:

1) Die Generierung der Daten Doubles und des Big Data, mit der die Daten durch Prozesse der Enteignung extrahiert und akkumuliert werden. Es geht um die Exploitation der unsortierten Daten, die konstitutiv für das Big Data ist.

2. Die Behandlung dieser Daten, die der Extraktion von gemeinsamen Merkmalen der Dividuen, die man qua Relationen sortiert, folgt, um als Korrelationen, die zwischen den Dividuen bestehen, ausgewertet zu werden. Dieses Datamining erscheint als absolut, insofern die Subjekte nicht intervenieren können, womit es zur automatisierten Produktion von automatisierten Protentionen (Erwartungen) kommt, welche die Differenz zwischen performativen und konstativen Verhaltensweisen liquidieren. Die automatisch produzierten Protentionen prozessieren heute in automatisierten Systemen, die durch verdichtete Netzwerke gekennzeichnet sind, und integrieren die Dividuen selbst als Prozeduren in das algorithmisierte Feld, wo sie als autoperformative Effekte der Korrelationen erscheinen. Das Feld, in das diese automatisierten Aktionen integriert sind, ist nicht in der Gegenwart, sondern in der Zukunft situiert. Die Macht über die individuellen und kollektiven Protentionen, die durch die Produktion von automatisierten, dividuellen Protentionen erzeugt wird, zerstört jeden Versuch aus diesen Protentionen auszuscheren oder die Aktionen auf psychische Protentionen zurückzuführen, die auf sekundären psychischen oder kollektiven Retentionen beruhen. Die perfekte Adaption, Viralität und Plastizität der algorithmischen Governance versucht jede Störung und jeden Fehler in das System zu reintegrieren, um die Modelle und Profile des Verhaltens zu redefinieren und erneut in Gang zu setzen. Es scheint, als könne man die Macht des algorithmischen Systems buchstäblich und strukturell nicht beunruhigen, durch das Unwahrscheinliche nicht stören, wobei letzters nicht nur dasjenige ist, das sich nicht auf das mathematische Modellierung und die Kalkulation bezieht, sondern dasjenige, was sich jeder Kalkulation, Demonstration und Wahrscheinlichkeit entzieht. Die algorithmische Performativität, die in Realtime durch Korrelationen erzeugt wird und in die Feedback-Loops ohne wahrnehmbare Verzögerungen implementiert ist, zerstört die Essenz der Politik.

3. Konstitutiv ist hier das algorithmische Erzeugen von Profilen hinter dem Rücken derer, denen ein Profil zugewiesen wird. Diese Profil ist weder individuell noch sichtbar, wird aber den Dividuen zugeordnet, und mit diesen interagieren sie, ohne es zu wissen. Diese Art der Behandlung bezeichnet sie schon im voraus und kontrolliert sie im Remote-Verfahren, wobei die automatisierte Wissensproduktion, die durch lernende digitale Maschinen operationalisiert wird, eine absolute Objektivität erzeugt. Die digitalen Operationen, die das Verhalten betreffen, antizipieren und entleeren die individuellen Wünsche und ordnen sie dem Profil zu. Die verschiedenen Stufen und Ebenen der algorithmisierten Prozesse bedingen und intensivieren sich innerhalb der automatisierten Kreisläufe gegenseitig, welche wiederum durch die Kalkulation und Kapitalisierung erzeugt werden, und dies betrifft heute nicht nur die Wissenschaften (Big Data), sondern jede Form der Entscheidungsfindung, angefangen vom alltäglichen Leben über das Finanzsystem bis hin zum Militär. Die Kalkulation von Risiken, die jegliche Vitalität an die algorithmische Governance der Assoziationen bindet, bleibt aber immer auf eine ungewisse Zukunft bezogen, deren Potenzial aber gebrochen wird, wenn die Risiken finanzialisiert und zugleich in rassistische, klassen- und geschlechtsspezifische Politiken eingebunden werden.

Eine voll automatisierte Gesellschaft, in der die Beschäftigung nicht mehr existiert und die Löhne nicht mehr Quelle der Kaufkraft sind, womit der Produzent/Konsument verschwindet, erfordert einen neuen Prozess der Redistribution, jedoch nicht den der effektiven Nachfrage, sondern den der Zeit, in der neue Formen des Wissens vom Sozialen geschaffen werden können. Die Produktion des Wissen benötigt Zeit, die Zeit des Schlafs und des Traums sowie die Tageszeit, um in und mit ihr zu agieren, zu reflektieren und die guten und schlechten Träume und Tagträume zu ordnen, um sie daraufhin zu materialisieren und zu übersteigen und um zu kämpfen. Wir müssen die Zeit befreien, um wieder zu entscheiden, indem wir uns selbst in neue Zyklen der Transindividuation einbringen, die durch Träume geformt werden, und indem wir ihren Bifurkationen folgen, welche die Automation de-automatisieren. In einer Ökonomie, in der die Beschäftigung dramatisch zurückgeht (Zizek spricht davon, dass heute schon 80% der Weltbevölkerung für das Kapital nutzlos sind) und der »wesentliche Wert« das Wissen ist, muss man über das Recht zu wissen und das Gesetz des Wissens nachdenken, und zwar als Funktion der Konzeption jeder produktiven Funktion, die der Macht der De-Automatisierung sui generis innewohnt. Dies führt zur Frage nach der Beziehung von Gesetz und Arbeit, wobei das Problem der Arbeit als Frage nach der Interpretation neu gestellt werden muss, weil es ansonstender Unterschied zwischen Fakt und Gesetz verschwindet.

Die Übergänge, die spezifische Unterbrechungen inhärieren, erfordern das Supplement einer politischen Organologie, eine neue soziale Organisation, die durch die digitalen Organe unterstützt werden kann. In den nächsten zwanzig Jahren wird die digitale Integration zu einer generellen Automatisierung und Robotisierung in allen Sektoren der Ökonomie und der Administration führen. Diese Vollautomation beinhaltet die computerisierte Kontrolle der Roboter, wobei man das Design, Entwicklung, Produktion, Logistik und Konsumption in einen Feedback-Loop integrier, der 24 Stunden am Tag und sieben Tage in der Woche auf globaler Ebene läuft. Dagegen gilt es Studien und Konzepte zu entwickeln, die auf eine Organologie und Pharmakologie hinarbeiten, die es erlauben, die Beziehung zwischen Automation und Autonomie neu zu denken, eine Relation, welche die Philosophie bisher meist als Gegensatz begriffen hat. Bei der Organologie handelt es sich um die Industrialisierung der Organisationsweisen, ähnlich dem Protokoll, während die Pharmakologie die Dualität betont, innerhalb derer etwas ein Gift und zugleich ein Heilmittel ist, was sowohl das Leiden als auch die Heilung hervorbringen kann (Derrida). Und Transindividualität bezeichnet den Bereich der Kultur, das kulturelle Unbewusste, ein maschinelles Gedächtnis, das durch die Individuen und die Generationen hindurch geht (Simondon).

Wir benötigen ein Redefinition der Rationalität, die nicht auf das Kapital, die Kalkulation und die szientifistische Apodiktizität reduziert wird, stattdessen sich um das Unwahrscheinliche sorgt. Wirkliche Neuheit besitzt eine ökonomische Funktion, sie konstituiert eine Produktion der Negentropie, in die die Pharmakologie stets einbezogen ist, die toxisch und heilend wirken kann, das heißt entropisch und/oder negentropisch ist. Die Innovation als ein ursprünglich negentropischer Faktor ist heute längst entropisch geworden. Deshalb müssen wir die Frage stellen: Wie kann die Revolution zur Negentropie zurückfinden, zu einer denkenden, technologischen Differentation, um eine zugleich soziale Innovation zu werden, die die Relationen zwischen technischen und sozialen Systemen neu erfindet, wozu es einer teilenden Ökonomie bedarf, einer Erneuerung der Politik, die sämtliche neue technologische Tendenzen erfasst.

Und diese Bewegung bleibt höchst unwahrscheinlich, wobei das Rationale weniger wahrscheinlich als unwahrscheinlich und bereit für die supplementäre Invention ist, die wiederum eine verzögerte Zeit der Transindividuation bedarf, welche im Vergleich mit der digitalen Echtzeit, die uns stets in die Falle der automatisierten Quasi-Kausalität führt, immer zu spät kommt. Letztlich eliminiert die automatisierte Governance jede Quasi-Kausalität, jedes Ereignis oder das Vorkommnis, welches das System unterbricht, beunruhigt oder stört, sie negiert das Unwahrscheinliche, das sich jedem Beweis entzieht und jedem Anzeigen in der Zeit verweigert, weil es niemals in dem Feld erscheint, den der Beweis fordert.

Das Unwahrscheinliche besitzt keineswegs eine höhere oder geringere Wahrscheinlichkeit, weil es nicht im Horizont der Wahrscheinlichkeit und seiner Kalkulationen verbleibt (genau das Verbleiben gilt es Badiou vorzuwerfen, Laruelle hat in seinem Buch »Anti-Badiou« darauf hingewiesen). Die algorithmische Governance macht die User vollkommen blind gegenüber dem Unwahrscheinlichen, insofern sie  im Kontext des 24/7-Kapitalismus im voraus jede Unterbrechung integriert, aber sie auch des-integriert, weil sie das Unwahrscheinliche und das Milieu der noetischen Seele ist, Platons khora, die sich nur in der Unterbrechung erfahren lässt, wie etwa ein fliegender Fisch sein Milieu, das Wasser, nur beobachten kann, wenn er es kurzfristig verlässt, um sofort und fortwährend in das Wasser zurückzukehren. Der fliegende Fisch erfährt für einen Augenblick eine surreale Welt, wie sie Haruki Murakami in seinem Roman »Kafka am Strand« mit den Fischen, die vom Himmel regnen, beschrieben hat, ohne allerdings zu erwähnen, dass die fliegenden Fische stets auf das Reale bezogen sind, insofern sie fortwährend wieder in das noetische Milieu eintauchen müssen, welche das Reale ist, das Wasser, das für den Fisch immer un-wahrscheinlich bleibt. Siehe dazu David Foster Wallace.

Foto: Bernhard Weber

print

, , , , , ,

By


Comments are closed.