GenericScience

Bemerkungen zu Stieglers „Automatic Society. The Future of Work.“ (5)

By

15 Aug , 2017  

 

Die Eliminierung von Fehlern im Zuge der algorithmischen Governance ist das Resultat der Umwandlung der Relationen in Korrelationen und der Integration der letzteren in die performative Vernetzung in Realtime. Die Relation bzw. die Korrelation erhält jetzt den Rang eines Seins. Für Stiegler stellt zumindest die Relation immer etwas dar, das über das hinausgeht, was sie als Elemente zusammenhält, wobei sie gerade dann existiert, wenn es in den relationalen Prozessen Fehler und Kompensationen der Fehler qua Inventionen gibt, wobei es immer wieder zu neuen Fehlern kommt: Es gibt einen dritten Term in den Relationen, einen Faktor im Phase-Shift, der die Relation konstituiert, aber sie auch ruinieren kann, und dies ist für Stiegler das pharmakon, das die wahrscheinlichen Kalkulationen des Kapitals suspendieren oder eine fundamentale Delinquenz ins Spiel bringen will. Wenn es wahr ist, dass wir uns durch unsere Praktiken konstituieren und die kapitalistische Automation uns diese Praktiken aus der Hand nimmt, dann hält man uns nicht nur zum Narren, sondern man macht uns roh, grob und ordinär, brutal und unerzogen, und wir werden dann nur etwas, wenn wir nichts werden, und damit sind wir dem Nichts, der Leere und der Verwüstung des Selbst ausgesetzt. Wir finden dieses Phänomen schon im maschinellen Unbewussten von Guattari vor, wobei die Beziehung zwischen Mensch und Maschinen auch Möglichkeiten zur Entwicklung von Tagträumen bereithält – eine Bedingung des noetischen Wissens -, ínsofern der Automatismus hier immer wieder von Momenten der De-Automatisierung begleitet ist. Solch eine integrierte Politik der De-Automation wäre zur gleichen Zeit eine Politik der Bildung, eine kulturelle Politik, eine Politik der Wissenschaften, eine industrielle Politik, eine Politik der Nicht-Beschäftigung, eine Politik der Unterbrechung und eine konstitutionelle Politik des Rechts. Letztere ist unbedingt notwendig, da die algorithmische Governance heute immer stärker Daten und Informationen im juristischen Vakuum der Fakten verwertet, ja in manchen Bereichen sogar die Bedingungen des Nicht-Gesetzlichen generalisiert, siehe etwa die Drohnenpolitik der US-Regierung.

Die Bedienung des Konsumenten mit Serviceleistungen via Smart Marketing ist nichts weiter als die Adaption des individuellen Bedürfnisses an das Angebot, unter der Voraussetzung, dass der Wunsch überhaupt adaptierbar ist, während er doch der Ausdruck einer nicht-anpassungsfähigen Singularität bleibt – er befindet sich immer in einer shifting Phase, wenn er sich denn individuiert und an der Transindivíduation in vielfältigen Weisen teilnimmt. Wir sollten den Wunsch wirklich nicht an die Angebote der kapitalistischen Unternehmen anpassen, vielmehr sollten wir davon ausgehen, dass er durch die sich selbst erfüllenden Antizipationen der durch die Kulturindustrie triebgesteuerten Phantasien vernichtet wird (Voyeurismus, Exhibitionismus, die Mimesis der artifiziellen Crowds, das Profil, mit dem man sich selbst promoten will, und der Kurzschluss – via der Kalkulation von Korrelationen – der sozialen Prozesse mit der Transindividuation sowie die Automatisierung der Transindividuation).

Die algorithmische Governance kreist nicht um die Frage der Antizipation des Wunsches, sondern die algorithmische Automatisierung intendiert die Zerstörung des Wunsches und den Kurzschluss, indem man das auf dem Trieb basierende Verhalten als Kaufwunsch automatisch triggert und durch sich selbst erfüllende Protentionen kanalisiert, induziert durch die berühmten Feedback Loops (persönliche Werte werden mit statischen Normalverteilungen abgeglichen). So setzt Walmart beispielsweise eine App für das “predictive shopping” ein, mit dem aufgrund der Registration früherer Einkäufe neue Einkaufslisten mit algorithmisch ermittelten Wunschwaren, die den Wunsch automatisieren und verendlichen, erstellt werden, indem man die individuellen Präferenzen qua Musterbildungen abbildet, um künftige Entscheidungen herbeizuführen, die aber die Algorithmen vorschlagen, sodass letztendlich maschinell organisierte Entscheidungen zur Addition weiterer maschinell organisierter Entscheidungen führen, beruhend auf Datenprofilen, die aus der maschinellen Verarbeitung der Einkäufe und der Suchmaschineneingaben der Kunden resultieren. Je mehr Datenspuren der Kunde hinterlässt, desto präziser können selbstlernende algorithmische Maschinen prozessieren, um nicht nur Entscheidungen zu treffen, sondern auch die Protentionen der Kunden sanft zu massieren, sie letztendlich aber knallhart zu determinieren, und das heißt, dass die optimierte Autonomie, die Walmart verspricht, eine Pseudo-Autonomie ist.

Das transdividuelle (nicht transindividuelle) tracking oder trafficking der dividuierten Daten von individuierten psychischen Organen muss genauer beschrieben werden. Sowohl die psychischen Organe, in die die Dividuen zergliedert werden, als auch die desintregrierten psychosozialen Elemente des psychischen Apparats und des sozialen Systems, mutieren heute zu Nicht-Objekten und Nicht-Subjekten. Man muss sich hier auf die oft verkündete Marktsegmentation beziehen, wobei die beschworene Individualisierung einer Dividualisierung gleichkommt, einer infra-individuellen Teilung und einer Dekomposition der Individuation. Die Zerstörung des Wunsches durch die Automatisierung, die die schlechten Triebe freisetzt und getriebene Automatismen triggert, welche den Trieb mit Netzwerk-Effekten verbinden, ist mit den Modellen des Neuro-Marketing, der Neuro-Ökonomie und den mathematischen Modellen der Künstlichen Neuronalen Netze kompatibel. Das Neuromarketing versucht Aktionen zu generieren, die ohne die Formierung eines autonomen Wunsches auskommen. Und dies basiert auf der Eliminierung der Unterbrechung, indem ein sensomotorischer Loop erzeugt wird, bei dem es keinerlei Verzögerungen und keine soziale differance mehr gibt, womit ein rein funktioneller Kreislauf oder ein Feedback-Loop entsteht, der mit deskriptiven und präskriptiven Methoden operiert und der durch die algorithmische Governance des 24/7 Kapitalismus gesteuert wird – das Zeitinterval (Verzögerung), das die Rezeption vom Effekt trennt, ist nichts. Die funktionale Integration der psychischen Individuation durch ein automatisch assoziiertes Milieu, das in Lichtgeschwindigkeit prozessiert, konstituiert eine faktische Naturalisierung des technischen Milieus und eine artifizielle Naturalisierung, womit die individuellen und kollektiven Individuationen zu kollektiven und psychischen Dividuationen mutieren, die wie eine 24/7 Insekten-Gesellschaft funktionieren. Allerdings gilt es an dieser Stelle anzumerken,, dass es die Experten und die User sind, die die Maschinenabläufe bei Störungen wieder instandsetzen und die Abläufe der Systeme weitgehend auch kontrollieren, aber auch auf ihren Sinn hin untersuchen, sodass das Management, wie dies Cornelius Castoriadis immer wieder bekräftigt hat, weiterhin vor dem Problem steht, wie die Ausschließung und die Teilhabe der menschlichen Akteure an den maschinellen Prozessen sich zueinander verhalten. Die Anwender steuern Maschinen, die sie selbst anwenden.

Deleuze/Guattari schreiben, dass eine soziale Maschine, um zu funktionieren, nie zu gut funktionieren dürfe. Wenn man die algorithmische Governance sowohl als ein immanentes System als auch als ein neues mögliches Regime der Wahrheit denkt, so muss man gerade wieder über den Fehler und die Dysfunktion nachdenken – über die shifting phase oder die Unvereinbarkeit bei Simondon, die Delinquenz bei Esposito, die Pathologie bei Canguilhem und das Supplement oder die differance bei Derrida. Bei Simondon erzeugen zwei verschiedenen Sichtweisen auf eine einzige Welt gerade aufgrund ihrer Unvereinbarkeit eine dritte Dimension der Unvereinbarkeit, der spezifische Fall einer Individuation, mit der sich die Ordnung der Größen verändern. In diesem Kontext muss die Beziehung des Individuums zu seinem Milieu nicht als Adaption, sondern als Individuation gedacht werden, die nur dann möglich ist, wenn die Bedingung einer Unvereinbarkeit in der gegenseitigen Beziehung zweier Entitäten vorliegt; wenn die Disparitäten zu stark sind, wird es keine gemeinsame Perspektive geben, aber es kann auch zu transduktiven Formen kommen, die über die differance zur Ko-Individuation und zu Signifikationen führen, die das jeweilige Potenzial einer Situation aktualisieren. Dabei geht es um prä-individuelle Potenzialitäten. Allerdings hat die algorithmische Governance keinen Bedarfan Unvereinbarkeiten, an Individuen und Signifikationen. In und durch die Netzwerke und ihre Effekte sind heute die Bedingungen für Disparitäten gleichgeschaltet, das heißt durch Algorithmen umgelenkt und kurzgeschlossen, sodass es zu psychischen und kollektiven Dividuen kommt und eine neue Ordnung erzeugt wird, in der Bedeutung und Signifikanz ganz verloren gehen. Die automatisierte Transindividuation produziert eine neue Form der Transdividuation, und zwar durch die Dividuation, ein Feature der Kontrollgesellschaften, das die A-Normativität der Hyper-Kontrolle generiert. Wenn die Prozesse der psychischen und kollektiven Individuation, die das Unwahrscheinliche implizieren und Nicht-Kalkulierbares und Unwägbarkeiten hervorbringen, durch die algorithmische Governance zerstört werden, dann kommt es zur toxischen Wiedergeburt eines elektronischen Leviathans. Bedeutung und Signifikation sind das Resultat einer transduktiven Vergrößerung, bei der die Information zur Individuation führt, zu einer Information jenseits der Information, wobei durch ihre Zirkulation die Informationen sich verändern, indem sie ihr Potenzial verstärken oder schwächen, sodass die Alterität die Information in Bedeutung und Signifikanz umschlagen kann, in eine Metastabilisierung, die zur Transindividualität führt, die nichts mehr mit der Information zu tun hat. Das Transinidviduelle ist eine metastabile Relation zwischen Trägermaterialien, deren Instanzen die Nervensysteme der psychischen Individuen sind. Die Träger der Transindividuation werden an psychische Individuen (psychische Retentionen und Protentionen) sowie an kollektive Individuen (kollektive sekundäre Retentionen, die durch ternäre Retentionen metastabilisiert werden) auf- und verteilt. In diesem Sinne produziert die Transindividuation ein kollektives Wissen, das nicht nur einfach Information ist, vielmehr konstituieren Bedeutung und Signifikation das Transindividuelle, indem sie es signifizieren. Die Formation dieser gemeinsamen Dimension wird durch Disparität erzeugt, die der Prozess und der Kreislauf der Transindividuation selbst ist, wobei in diesen Kreisläufen die Organe (psychosomatisch, technisch, sozial) und ihre Arrangements, die sie voraussetzen, ein Regime der Wahrheit bilden. Dies kann auch im Unbewussten stattfinden und kann heute eine maschinelle Dimension annehmen, die sui generis organologisch ist. Noesis ist immer eine technae, die durch die Interiorisierung von Artefakten zustande kommt. Die Passage des noetischen Akts ist nicht die Bewusstwerdung dessen, was zuvor unbewusst war, sondern die Adoption des Unbewussten als eine Individuation der prä-individuellen Materialien, aus denen es besteht.

Die Dreidimensionalität, die durch Disparitäten erzeugt wird, mutiert heute zu einer durch die algorithmische Govornance generierten flachen Zweidimensionalität; es kommt zur Verflachung der psychischen und der kollektiven Individuation, während die Leute so deformiert werden, dass sie sich nur noch als Profil sehen. Das technische Individuelle ist das voll computerisierte System, das eine oligarchische Organisation hervorbringt, die die Implementation der Algorithmen kontrolliert, wobei wir es sind, die die Oligarchie mit Daten bedienen, während wir gleichzeitig des-integriert werden, und die Oligarchie allerdings von der Desintegration keinesfalls ausgeschlossen bleibt, sodass das System total entropisch und insgesamt der Desintegration unterworfen, das heißt zerstückelt und zersetzt wird.

Zurück bleibt das Netz als eine Wüste, die man seit dem Jahr 1993 den Imperativen der Kalkulierbarkeit unterstellt hat und das heute der Logik der Plattformen unterworfen ist. Ursprünglich wurde das Internet durch die Vernetzung und die Technologie der Hyperlinks via peer to peer sowie durch die Webseiten, ermöglicht durch URL Adressen und HTML, konstituiert, wobei es ab dem Jahr 2000 zur Entwicklung des Web.2.0. kam, der Kombination aus einer kollaborativen Produktion von Metadaten, dem Page-Ranking Algorithmus der Google Suchmaschine und den Netzwerkeffekten der sozialen Netzwerke, Faktoren, die zusammen eine vertikale Flatness und eine unsichtbare digitale Wand geschaffen haben, welche im Top-Down Modus funktioniert. Google`s Rank Algorithmus führt zu einer extremen Hierarchie und Vertikalität, i.e es gibt nur wenige Hubs bzw. Knotenpunkte, die das Netz dominieren, und in dieser Hinsicht sind die Unterschiede zu den traditionellen Medien gering. Die kommunitären Aktivitäten auf den Plattformen sind fragil und können jederzeit gemäß der kommerziellen Interessen der Betreiber umgestellt werden, insofern all diese Systeme Daten produzieren, welche die Betreiber mittels der algorithmische Governance verwerten und in ein voll integriertes Computersystem integrieren, das in sich selbst integriert ist. Wobei zu beachten ist, dass Daten Informationen repräsentieren, die erst in pragmatischen Kontexten lesbar werden, das heißt die auf Daten beruhenden Modelle, Berechnungen und Diagrammatiken, die Stiegler unter Korrelationsanalyse und Big Data zusammenfasst, beinhalten Instruktionen, die eben einen pragmatischen Status besitzen, das heißt in die auch menschliche Akteure, meistens eine hohe Anzahl von Experten über Prüfungen und Encodierungen der in den Daten integrierten Referenzen einbezogen sind.

In der Korrelationsanalyse spielen die Künstlichen Neuronalen Netze, die man meist anhand der Funktionsweise von Nervenzellen erklärt, eine wichtige Rolle. Mit Ihnen wird die Differenz zwischen den gewünschten Outputs und den Ist-Outputs solange in den Berechnungen der Modelle wiederholt, bis das Modell stabil ist, und dies heißt, dass die Software selbständig lernt, welche Kriterien und Indikatoren für einen bestimmten Sachverhalt wichtig sind. Neben den verbesserten Algorithmen beruht ihr Erfolg auf den gestiegenen Rechnergeschwindigkeiten, wobei jedoch die Modellierungen der KNN als blackboxes, die tief in den Zahlenmatrizen vergraben sind, für die meisten Akteure nicht nachvollziehbar sind. Die KNN ermitteln lediglich Korrelationen, jedoch keine Ursachen und kausalen Zusammenhänge, und verlängern damit die Vergangenheit in die Zukunft. Sie erschließen auf alle möglichen Arten Daten, aber sie begreifen sie nicht.

Das Cloud Computing ist nicht in den Clouds selbst, sondern in den Datenzentren lokalisiert, die sich in Hochsicherheitszonen, manchmal sogar in Bunkern oder unter Bergen befinden, man denke daran, dass die Schweiz ganz vorne im Cyberbunker Business ist. Diese Infrastrukturen ermöglichen aufgrund ihrer hohen Geschwindigkeiten und ihrer Größenordnung einen exklusiven Zugang zu den Daten, wobei einige wenige Unternehmen wie Google, das ein separiertes Netzwerk ist, ein Parallelwelt zum Internet aufbauen. Auf kleinerer Ebene gibt es dann die Welt der Blogs, die durch die Suchmaschinen evaluiert werden werden und deren Reputation und Empfehlung auf Netzwerkeffekten beruhen, der es den Plattformen erlaubt, Expressionen zu kanalisieren und integral zu funktionalisieren.

Für Stiegler muss eine dritte Stufe des Internet erreicht werden, die auf einer neuen Organologie basiert . abgeleitet von einer supplementären Invention als politischer Technologie, die die Disparitäten repotenzialisiert, das Netz diachronisiert und interpretative Instrumente für die Disparitäten bereitstellt. Es gilt eine neue Tiefe im Netz aufzubauen, und zwar durch Kollektive, die neues Wissen herstellen. Heute beschneidet die Software-Infrastruktur die User stärker als die legalen Verbote, indem sie anzeigt, wie die User die Informationen zu sehen haben, wobei gleichzeitig eine neue Unsichtbarkeit erzeugt wird, die die Regulation, die Regeln und die Träger im Ungewissen hält- eine flache Wüste, die jedes Verhalten nicht nur kontrolliert, sondern antizipiert, oder ein zweidimensionaler Himmel, auf dem alles schon im voraus geschrieben steht und alles kalkuliert ist, als ob das Universum unabhängig von jeder nur möglichen Interpretation funktioniert.

Stiegler bezieht sich hier wie die Autoren Berns und Rouvrey auf Maurizio Lazzarato, der die die von Guattari entwickelte Konzeption der a-signifikanten Semiotik wieder aufgenommen und für die Analyse der zeitgemäßen digitalen Maschinen fruchtbar gemacht hat; Maschinen, in denen Affekte, Emotionen und Perzeptionen als Funktionalitäten gleich den Elementen einer Maschine funktionieren. Die daraus resultierende Dividuation ist das Resultat einer Proletarisierung, wobei die Möglichkeiten einer De-Proletarisíerung, die stets auf Negentropie bezogen ist, allerdings nicht gnz verschwinden, insofern die intelligenten Umgebungen, in denen wir uns befinden, ständig triviale Aufgaben für uns lösen und unser Denken damit auch ein Stück weit von unnötigem Ballast befreien. Diese Automatismen müssen aber in den Dienst der De-Automatisierung gestellt werden, und dies sollte nicht einfach nur zu einer Steigerung der freien Zeit führen, vielmehr ist die Erfindung einer neuen kreativen Tätigkeitsform zu fordern, welche die Software mit strategischem Geschick und genauen Kenntnissen einsetzt, ja die Computer coacht und sie damit als Intelligenzverstärker nutzbar macht. Gerade wenn die Maschinen intelligent werden, können wir sie de-automatisieren und mit ihnen wieder intelligent werden.

Das Bewusstsein selektiert die primären Retentionen, ohne sich dessen bewusst zu sein, und wenn Erfahrung auftreten, dann werden die Selektionen auf der Basis sekundärer Retentionen getätigt und Kriterien für diese Retentionen hergestellt, wobei die primären Retentionen, die aus diesen Selektionen resultieren, eine individuelle Lebenserfahrung enkodieren, während beide Formen der Retention wiederum von ternären Retentionen und Protentionen bearbeitet w, wobei die digitalisierten vernetzten ternären Retentionen heute in Lichtgeschwindigkeiten alle primären und sekundären Retentionen nicht nur kontrollieren, sondern antizipieren und sie jeden Inhalts entleeren und der Datensicherung unterwerfen. Dabei scheint der maschinelle Körper ohne Organe, wie er von Deleuze/Guattari entwickelt wurde, mit Turings abstrakter Maschine durchaus vereinbar, während a-signifikante Semiotiken eher den konkreten Maschinen wie dem Automobil zuzurechnen sind. Zudem scheint auch die rhizomatische Vernetzung eine perfekte Beschreibung für die algorithmische Governance zu liefern.

Heute beruht der reale Reichtum einer Ökonomie immer weniger auf der Arbeit und der Lohnarbeit, sondern auf der Macht der Agencies, die während der Arbeitszeit in Gang gesetzt werden; er basiert zudem eher auf dem generellen Staus der Wissenschaften und dem Fortschritt der Technologie oder der Applikationen, welche die Wissenschaft ins Verhältnis zur Produktion setzen. Wenn die Arbeit aufhört der allgemeine Garant des Reichtums zu sein, dann hört die Arbeitszeit auch auf, das Maß des allgemeinen Reichtums zu sein. Für Marx konstituiert die Arbeit die Produktionsverhältnisse, durch die die Menschen ihre Produktionsmittel und die Mittel ihrer Existenz herstellen, und sie interpretieren damit die Welt nicht nur, sondern sie transformieren sie, das heißt sie verkünstlichen die Welt und realisieren ihre organologischen Fiktionen in Prozessen der psychischen, technischen und sozialen Individuation. Marx hat die Technik oder das Artifizielle als solches und auch das Verhältnis von Fiktion und Technik kaum untersucht.,

Die Arbeit ist immer auch eine Produktion von Retentionen, sie organisiert das Anorganische oder trägt zu dessen Organisation bei, um die ternären Retentionen zu formen, die die sekundären Retentionen unterstützen, um schließlich die Kreisläufe der Transindividuation zu formen, in denen jene metastabilisiert werden. Die Operationen der Arbeit transformieren die Materialien, wobei in diese die Elemente des Systems der Spuren schon eingeschrieben und verteilt sind. Die Elemente werden einerseits durch die organisierte anorganische Materie geformt, welche Utensilien, Maschinen, Werkzeuge und Instrumente konstituieren, und andererseits durch organologische synaptische Kreisläufe, die in die Gehirne der Handarbeiter und der geistigen Arbeiter eingeschrieben sind, und schließlich durch soziale Regeln (institutionelle, unternehmerische, private oder öffentliche), welche auf Basis der ternären Retentionen, die auf die Grammatik bezogen sind, die Momente einer Spurensicherung koordinieren, voraussagen, regulieren, programmieren und standardisieren. Die Operationen der Arbeit eröffnen die Welt als ein System von anorganischen und zerebralen Linien und Spuren, die selbst organisch und organologisch sind, um die elementaren Schichten der Prozesse der Transindividuation zu formen und zu sedimentieren. Die Menschwerdung ist von Anfang an mit der Technisierung des Lebens verbunden, insofern die bíologischen Organe des Menschen das Leben nicht sichern, sodass künstliche Organe gefunden werden müssen, die umgekehrt die zerebralen Organe wieder organologisieren. Hier entsteht das technische und artifizielle Gedächtnis, die ternären Retentionen.

Die Proletarisierung der Handarbeit begann am Ende des 18. Jahrhunderts, als die ersten maschinellen ternären Retentionen auftauchten, die einerseits auf die formalisierten und automatisierten Bewegungen (Vaucanson), andererseits auf die Möglichkeiten Wärme in die Kraft von Motoren umzuwandeln (Watts) zurückgingen. Die Transformation des anorganischen, organischen und psychischen Materials, in denen die psychischen, kollektiven und technischen Individuationen konsistieren, werden nun funktional des-integriert und von der Individuation ausgeschlossen. Dies impliziert, dass das Proletariat auf Beschäftigung und Lohnarbeit reduziert wird, wobei die Retentionen nicht länger die Gehirne der Arbeiter passieren, die deshalb auch nicht länger die Produzenten des Arbeiter-Wissens sind. Mit ihrer De-Singularisierung verkommen die Arbeiter zur reinen Arbeitskraft und zu einem Exemplar, das durch jedes andere Exemplar auf dem Arbeitsmarkt ersetzt werden kann, während die wissenschaftliche Intelligenz von den konkreten Arbeitsabläufen enthoben ist und diese zudem steuert. Der Taylorismus mit seinen Zeitstudien, Regelanweisungen und Modellierungskatalogen besteht in nichts anderem als der Trennung der Konzeption und Leitung der Arbeitsprozesse von deren Ausführung. Beschäftigung ist nun als eine Funktion der Ausbildung gesetzt.

Schon Wiener hat von der Entwertung des menschlichen Gehirns gesprochen und heute erreicht die systemische Verdummungim Kontext des 24/7 Kapitalismus jeden von uns, und erreicht diejenigen laut Stiegler um so stärker, die sich höher in der Hierarchie befinden, eine Hypothese, die es noch zu untersuchen gilt. Das Subjekt ist nun ein Resultat von Protokollen, welche mittels der Maschinen, Apparate, Prozeduren, Managementkontrollen und weiteren Systemen konstituiert werden und selbst wenn das Subjekt nicht angestellt ist, bleibt es kurzgeschlossen mit Algorithmen, welche die psychischen und kollektiven Individuen überholen und ohne jede Kontrolle und ohne jeden Grund existieren und prozessieren. Im Taylorismus wurden die Arbeiter an die Maschinen angeschlossen, um repetitive und fragmentierte Arbeiten zu exekutieren, wobei die Montagen und Werkzeuge schon vorbereitet, die Details im voraus durch Zeit und Motion-Studies gesetzt wurden. Die funktionale Dummheit im speziellen der unskilled Arbeiter ist heute Teil der algorithmischen Governance und durchzieht sogar die intellektuellen Berufe, insofern in ihnen keine kollektiven sekundären Retentionen herzustellen sind, vielmehr werden sie von Zeitstudien, die an die Automation gebunden sind, dominiert. Die kollektiven sekundären Retentionen lassen sich wiederum in ternäre und automatisierte Retentionen transformieren, in Technologien aller Art und erweisen sich damit sowohl als unsichtbar als auch als undenkbar. Im Zuge der Vollautomatisierung kommt es laut Stiegler auch zur Abnahme von Arbeitskräften, die notwendig sind, um die Maschinen zu kontrollieren, bedienen und zu warten; Maschinen, die zunehmend komplett automatisiert sind, muss man als Externalitäten begreifen, welche Linien und Spuren produzieren, die durch vernetzte psychische Individuen, die die Parameter der Produktions- und Verteilungssysteme gemäß der Parameter der algorithmischen Governance bewirtschaften, vermittelt werden. Die maschinellen Systeme seien heute integrierte autonome Komplexe,die nicht von Produzenten, sondern von Konsumenten bedient würden, so Stiegler.

Es ist heute mehr und mehr die unbezahlte Arbeit der Konsumenten, die eigentlich keine Arbeit, sondern reine Dividuation ist, die Beschäftigung unbezahlter Zeit, welche die Parameter der automatischen und performativen kollektiven Protentionen und Retentionen, die durch den computerisierten Kapitalismus produziert werden, speisen, setzen und verstärken. Dem ging eine Periode voraus, in der sich die Konsumenten einer Massen-Dividuation ausgesetzt sahen, der Proletarisierung des Wissens vom Leben. Die Marketing-Unternehmen produzierten die kollektiven sekundären Retentionen, die das ausführten, was bestimmte Forschungsabteilungen forderten. Im 21. Jahrhundert wurde die analoge durch die digitale-vernetzte Kulturindustrie ersetzt, welche die proletarisierten Konsumenten in das digitale technische System durch Vernetzung integriert sowie psychisch und sozial des-integriert, um eine aus der Vernetzung resultierende Dividuation zu erzeugen, die die proletarisierten Konsumenten und Produzenten in dem Sinne konstruiert, dass sie zu ausführenden Organen der Informationssysteme werden, der Kapitalisierung: Im Jahr 1993 wurde mit dem Internet eine Infrastruktur etabliert, die die Telekommunikationstechnologien grundlegend veränderte und zur totalen Vernetzung jeglichen Territoriums führte, die nun alle zu digitalen Territorien transformierten, wobei man ihre Bewohner mit mobilen oder fixen Geräten ausgestattet, die wiederum kompatibel mit den Netzwerken sind. Menschen und Maschinen sind heute 24 Stunden am Tag und sieben Tage in der Woche über den ganzen Globus hinweg miteinander vernetzt, zudem mit den globalen Playern und den Sicherheits- und Geheimdiensten der imperialistischen Staaten.

Heute muss man weniger die Reduzierung der Arbeitszeit, die nur zu einer Zunahme der digitalisierten Freizeit führt, sondern das Ende der Lohnarbeit und der Beschäftigung fordern, was mit einer Redefinition der Arbeit als einer Kraft der De-Automatisierung einhergehen muss, um eine neganthropische Zukunft in einem neuen industriellen Zeitalter herzustellen. Man muss die algorithmische Governance auf ein neues Gesetz der Arbeit, das mit einem neuen Status des Wissens verbunden ist, gründen. Heute killt das Internet mehr Jobs als es schafft.

Der absolute Automat verschiebt die Arbeitswelt von der Manpower hin zur Brainpower. Wie es am Anfang der Industrialisierung zu einer Verkopplung von Hand und Maschine kam, so werden heute das Gehirn und die Maschine in einer neuen Ökonomie verkoppelt, die Stiegler “Iconomy” nennt. Diese Transformation involviert eine transduktive Relation, wobei die Produktion nicht länger auf der Arbeitszeit, sondern auf der Maschinenzeit basiert. Schon mit der Verkopplung von Hand und Maschine ist es die letztere, die arbeitet, und sie tut das blind und automatisch, womit man diesen Prozess kaum nochals Arbeit beschreiben kann, insofern diese immer auch eine Öffnung enthält, während die serielle und automatisierte Produktion immer abgeschlossen ist. Insofern sind die Produkte dann ready-made Waren.

Es geht heute um die Frage, ob die (angebliche) Eskalation der Produktivität, die mit der automatisierten Produktion erreicht wird, in freier Zeit oder in befreiter Arbeit münden soll. Wenn die Automation die Zeit generell befreit, wie vermeiden wir es dann, dass diese befreite und damit verfügbare Zeit eine verfügbare Gehirn-Zeit wird, eine Zeit, die nicht mehr an die Television, sondern an Google, Amazon und Facebook angebunden ist. Der französische Soziologe Andre Gorz schreibt in den 1970er Jahren schon folgendes: »Wenn die „Massengesellschaft“ dazu neigt, sich in Richtung zunehmender Atomisierung der Individuen zu entwickeln, dann ist gleichwohl ungewiß, ob diese Vereinzelung zu einer einfachen Anhäufung isolierter Individuen in den großen Organisationen führt, denn es könnte gut sein, daß sie eine äußerst enge Vernetzung der Individuen befördert, die zu ständigem Gedankenaustausch und wechselseitiger Überwachung unter der Obhut jener überschaubaren Gruppen verpflichtet werden, an denen sie teilzunehmen haben. Darin liegt vielleicht das geheime Ziel dieserallgemeinen Selbst-Verwaltung“, die von einigen unserer Zeitgenossen so leidenschaftlich verfochten wird,« Heute ist die Gruppe in Facebook materialisiert, in ihren unsichtbare Algorithmen und hat eine Gruppensucht unvorstellbaren Ausmaßes hervorgerufen.

Die Aufmerksamkeit wird heute von der algorithmischen Governance eingefangen, die Stiegler entweder als eine lesende Industrie oder als eine entropische Ökonomie der Expression beschreibt, welche die Proletarisierung der Konsumenten intensiviert, während die Lohnarbeit längst Beschäftigung geworden ist und das der Arbeit inhärente Interesse aufgelöst hat. Mit der Taylorisierung und später mit der Organisation der Konsumtion und der Konstitution der Massenmärkte durch die Kulturindustrie gerinnt die Proletarisierung die Arbeit zur Jobindustrie und definiert die skills nur noch in Bezug auf die Beschäftigung, die jetzt mit Adaption zusammenfällt. Die Proletarisierung bezeichnet heute nicht nur die ökonomische Verarmung und das Prekarität, sondern auch den Verlust der Kontrolle über Wissen, Savoir-faire und Produktion. Das Arbeitswissen und das Wissen vom Leben wurden durch Maschinen und die Kommunikation der Informationssysteme ersetzt, um jegliches Wissen in Automation zu transformieren, wobei die Proletarisierung allen Wissens längst auch die Formen der Planung und der Entscheidungsfindung einfängt.

Die Jobs sind heute von jedem Inhalt entleert und geben den Beschäftigten keine Befriedigung mehr, womit als ihr Zweck nur noch die Steigerung der kaufkräftigen Nachfrage übrig bleibt, die nun zum Anliegen sowohl der Arbeit als auch des Kapitals wird, obwohl das durchaus verschiedene Formen annimmt. Das Kapital benötigt die Nachfrage, um Waren zu verkaufen, und die Gewerkschaften verhandeln die Lohnhöhen, um die entsprechenden Kompensationen zu erreichen.

Die Linke bezieht sich zum großen Teil weiterhin positiv auf die Arbeit und setzt sich für die Rechte der Arbeit und der sozialen Sicherung, aber auch für das Recht ausreichend zu konsumieren ein. Die Löhne bleiben hiermit zentral und sie gilt es unbedingt zu verteidigen, weil gerade sie angeblich die Arbeit wünschenswert machen. Anstatt die Lohnarbeit abzuschaffen, macht der sozialdemokratische Diskurs die Lohnarbeit zu einem Instrument, mit dem angeblich der Reichtum gerecht verteilt werden kann und mit dem eine größere soziale Gerechtigkeit erreicht wird. Heute sehen wir uns demgegenüber mit dem Ende der Beschäftigung, der strukturellen Nutzlosigkeit eines großen Teils der Beschäftigten und daher mit einer befreiten Zeit konfrontiert, die allerdings nicht die Arbeit befreit, sondern in eine Gehirnzeit mutiert, die vollkommen verfügbar für die Fabrikation der Produkte der Konsummärkte ist. Sämtliche Verhaltensweisen, Prozeduren und Modelle werden nicht länger durch das soziale System konstituiert, sondern durch die am Marketing orientierten Zeit- und Emotionsstudien.

Befreite Zeit muss befreite Arbeit sein, wobei dabei von der Energie und ihrem Potenzial nicht abstrahiert werden darf, Hand, Gehirn und Energie müssen verbunden werden. Heute sieht es ganz anders aus. Maurizio Lazzarato schreibt: “Um wachsende Einnahmen der Finanzinvestoren zu gewährleisten, muss die Verfügbarkeit für prekarisierte und mangelhafte Beschäftigung wie auch für schlecht entschädigte Arbeitslosigkeit, für Austerität wie auch für „Reformen“, total sein. Arbeit zu verweigern heißt heute, diese Verfügbarkeit zu verneinen, welche die Finanzialisierung gerne hätte, und zwar ohne Limits und Gegenleistung. Die Verweigerung der Arbeit unter den Bedingungen gegenwärtiger Ausbeutung zu praktizieren bedeutet, neue Modalitäten des Kampfes und der Organisation zu erfinden, um nicht nur die ererbten Rechte der historischen Kämpfe gegen die Lohnarbeit zu erhalten, sondern um auch und vor allem neue Rechte durchzusetzen,die an die neuen Modalitäten der Ausbeutung von Zeit angepasst sind, Formen der Solidarität zu konstruieren, die in der Lage sind, die Enteignung von Wissen und Savoir-faire zu verhindern, sowie zu vermeiden, dass die Modalitäten der Produktion von den Erfordernissen finanzieller Valorisierung diktiert werden, der sich weder Kunst noch Kulturindustrien entziehen können.” Es muss außerhalb des Systems der Beschäftigung nach Tätigkeiten im Marx`schen Sinne gesucht werden, die nachhaltigen Reichtum schaffen und die Lohnarbeit zugunsten des Wissens, das in Maschinen materialisiert ist, abschaffen, eines transformierten Wissens, insofern die Zeit durch die Arbeit der De-Automatisierung befreit wird, um eine freie Zeit der Transindividuation zu erreichen, und zwar im Sinne des otiums oder der sholhe, eine Muße, Techniken des Selbst und des Anderen, das heißt für sich selbst und durch den Anderen zu arbeiten. Dazu bedarf es einer organologischen Revolution, der Erfindung neuer Instrumente des Wissens und der Publikation, eine epistemische und epistemologische Revolution, und dies kann dann eben nicht auf die Ausweitung des Dienstleistungssektors oder die Kreation neuer Jobs oder auf ein minimales Grundeinkommen reduziert werden, das der Kapitalisierung, dem Markt und dem Geld unterstellt bleibt. Reichtum ist Zeit und Zeit steht auch für Unterbrechungen zur Verfügung, der Quanten-Sprung für psychische und soziale Individuationen, die wiederum durch Transindividuationen formiert und metastabilisiert werden. Diese Zeit der Unterbrechungen ist wichtig, um eine andere Form der Arbeit zu erfinden, die von der Entropie sich unterscheidet und die Negentropie fördert, eine energeia, eine Passage hin zur Aktion, wobei die Energien wie die fossile Energie immer nur eine Bedingung für die neotische Energie sein können, nicht diese selbst. “Das Mögliche, das Werden und das Ereignis eröffnen Bereiche, die weder von Zeit noch Raum beherrscht sind und die von anderen Geschwindigkeiten animiert werden (unendliche Geschwindigkeiten, würde Guattari sagen), sei es von höchster Geschwindigkeit oder von größter Langsamkeit (Deleuze)… Die Automation hat gerade einen Niedergang der Arbeitsteilung hervorgebracht und eine Transformation der Arbeit. Die scharf abgegrenzte Nettoaufteilung zwischen Anstellung und Arbeitslosigkeit (der Arbeitslosigkeit als Kehrseite der Beschäftigung), deren Institution auf ein ganz anderes Akkumulationsregime zurückgeht (Standardisierung und Kontinuität der Produktion, mithin Stabilität und Kontinuität der Beschäftigung), hat sich in ein immer engeres Ineinandergreifen von Perioden der Anstellung und Perioden der Arbeitslosigkeit gewandelt. Dass die Arbeitslosigkeit strukturell geworden ist, besagt nicht, dass Millionen von Menschen auf einen unbefristeten Vertrag warten: Sie arbeiten, während sie gleichzeitig als arbeitslos gemeldet sind. Arbeitslosigkeit ist nunmehr Teil der Norm der Anstellbarkeit. Arbeitslos zu sein bedeutet, verfügbar und sofort einsetzbar zu sein, und zwar nicht für einen unbefristeten Vertrag, sondern für einen befristeten Vertrag mit einer Laufzeit.”(Lazzarato)

Gorz geht von einem zweigeteilten Einkommen aus, zum einen ein Einkommen aus kreativer Arbeit, das mit der Dauer fällt, und einem sozialen Grundeinkommen. Während Hegel die Arbeit mit der Aufhebung synthetisiert und deshalb keine Proletarisierung kennt, kennt Marx diesen negativen Aspekt der Deproletarisierung sehr wohl, synthetisiert aber die Arbeit im Kommunismus wieder, und eliminiert damit das pharmakon, wobei auch zu bedenken ist, das es nicht die Proletarisierung der Arbeit, sondern das Ende der Beschäftigung kombiniert mit der organologischen Mutation (frei verfügbare Software), die durch die digitale ternäre Retention ermöglicht wird, ist, als ein Sorge-Tragen eines pharmakons, das durch das objektivierte Wissen transindivudualisiert wird. Heute entleert die Macht des Computers – determiniert durch die Geschwindigkeit der Mikroprozessoren und des Datentransfers- die kreative Arbeit und die energeia, wobei Stiegler jedoch nicht zu einer ursprünglichen intuitiven Intelligenz zurück will, weil die Intelligenz sui generis artifiziell, das heißt organologisch ist, i.e. Verkopplung des Lebens mit anorganischen Organen. Gegenwärtig wird das Reale als ein Modus des Zugangs zu Möglichkeiten begriffen, die als Geld aktualisiert werden müssen, ein organologischer und technologischer Modus des Zugangs, bei dem das Potenzial für Transformationen eine Frage der endlosen Aktualisierung von Möglichkeiten ist, und dies im Rahmen der Wahrscheinlichkeitstheorie. Diese spezifische Form des Werdens ohne Ende besitzt gerade keine Zukunft, wobei heute die Differenz zwischen Fakten und Gesetz eliminiert zu sein scheint; es existiert nur noch die Herrschaft der Fakten, die durch den Fake dargestellt wird. Dem setzt Stiegler, um überhaupt Entropie und Negentropie unterscheiden zu können, die spekulative Kosmologie Whiteheads entgegen, eine nicht-inhumane Situation, in der das Werden als eine unwahrscheinliche Síngularität in die Zukunft transformiert wird, um die Proletarisierung der Arbeit, der Freizeit und des Wissens zu de-proletarisieren.

print

, , , , , , , , , ,

By