Automation, Netzwerke und Plattformen (1)

Folgt man einer linear konzipierten Genealogie der Technikgeschichte, so beginnt die erste Epoche der Industrialisierung mit der Dampfmaschine, welche von der Epoche der Elektrifizierung und Taylorisierung und diese wiederum von der dritten Epoche der digitalen Automation und der Einführung von Robotern abgelöst wird. Mit der Online-Vernetzung der Maschinen in Echtzeit (Cyberphysical Systems) wird heute angeblich die vierte Stufe der industriellen Revolution erreicht. »Cyberphysical systems« organisieren sich weitgehend autonom über den Modus intelligenter Schnittstellen, beispielsweise als “smart grids” oder “smart cities”.

Der Begriff »Industrie 4.0« bezieht sich also auf Maschinenkomplexe, die ausnahmslos online vernetzt sind und meistens in einem internen und of course abgesicherten Produktionsnetz prozessieren. Man spricht jetzt vom »Internet der Dinge«. Es ist davon auszugehen, dass in den künftigen »smart factories« hauptsächlich vernetzte Maschinen tätig sind, die sich in den Netzwerken auch weitgehend selbst steuern. Sämtliche Maschinen eines Unternehmens sind nun online und jedes einzelne Maschinenteil kommuniziert, wenn es mit Sensoren, RFID-Chips und spezifischen Softwarefunktionen ausgestattet ist, nicht nur mit anderen Maschinenteilen, sondern in bestimmten Linien und entlang von Linien auch mit den Bereichen Management,Transport, Logistik, Vertrieb und Versand. Es ist nun nicht mehr der Computer, sondern es sind die IT-Netzwerke selbst, die mit den physischen und immateriellen Infrastrukturen zusammenwachsen, und dies vollzieht sich über die jeweiligen Produktionsstätten hinaus auch mit dem externen Environment der Unternehmen, mit Fahrzeugen, Haushaltstechniksystemen oder Supermarktregalen. Schon heute sind Infrastrukturaufgaben und die Funktionsweisen der Logistik derart komplex, dass »Cyberphysical Systems«, was die Selbstorganisation und Automatisierung der Logistik-, Versorgungs-, Gesundheits- und Verkehrssysteme anbetrifft, absolut notwendig sind. Dabei werden lokale Orte wie Fabriken als Datenbanken angezapft, aber die Rechenoperationen selbst finden meistens an entfernten Orten statt. Jedenfalls wandern die Rechenoperationen aus den isolierten Computern in vernetzte Umgebungen aus, wo sie auf der Basis von Sensordaten und -technologien prozessieren, wobei die sensoriellen Maschinen nicht nur Daten sammeln und verteilen, sondern mit ihnen auf der Basis von algorithmischen Verfahren auch zukünftige Ereignisse kalkulieren. Dabei sollen die Maschinen mittels der RFID-Tags permanent adressierbar sein und sich qua Packet Switching-Netzwerke in den globalen Logistikketten eigene Pfade suchen. Die Speicherung, Auswertung und Indexierung der Daten findet wiederum in sog. Clouds der Datencenter statt.

Die online-integrierten humanen Akteure werden mit den Maschinen direkt kommunizieren: Die Maschinen befehlen den Akteuren, was sie gerade zu tun haben und umgekehrt geben die Akteure den Maschinen Befehle, was diese zu tun haben. Es könnte auch sein, dass es in den internen Netzwerken der Unternehmen zu ähnlichen Modulationen, Relationen und Funktionen wie im Internet 2.0 kommt. Prinzipiell könnte jeder Zugriff in den maschinellen Komplexen in Echtzeit vonstatten gehen, jede Maschine ist permanent erreichbar und jede Maschine kann auf der Stelle Signale senden, just in time und je nach Bedarf. Mit der Industrie 4.0 wird eine kundenorientierte Produktion möglich, es wird »on-demand« produziert, i. e. der Konsum wird an dividuierte Individuen angepasst. Dabei erfassen Sensoren gigantische Datenmengen (»Big Data«), um die Produktionsprozesse zu beobachten und zu steuern. An dieser Stelle wäre jedoch sofort die Frage zu stellen, wie zukünftig die Speicherungs- und Zugriffsrechte auf die Daten geregelt sein werden. Wenn nämlich »Big Data« in die Fabrikhallen einwandert, dann werden in den vergleichsweise transparenten Produktionsprozessen auch die Manipulationsmöglichkeiten erleichtert, sodass die hochkomplexen Systeme noch empfindlicher gegenüber Störungen werden – lokale Unregelmäßigkeiten können sich im Sinn der Chaostheorie kaskadenhaft aufschaukeln.

Als modulare Bestandteile von Netzwerken werden humane und non-humane Agenten über den Online-Modus in die Dynamik der permanenten betrieblichen Kommunikation integriert. Die Unterscheidung zwischen analogen Bereichen (carbon-based, offline) und digitalen Bereichen (silicon-based, online) löst sich auf, wobei letztere die ersteren überfluten und sich mit ihnen mischen werden. Diese Phänomene sind bekannt als »Ubiquitous Computing«, »Ambient Intelligence« oder eben als das »Internet der Dinge«. Der Informationstheoretiker Luciano Floridi spricht hier von einer ubiquitären »Onlife-Erfahrung«, dem Drift in das Posthumane oder das Inhumane, bei dem die Grenzen zwischen dem Humanen, der Technik und der Natur verschwimmen, und des Weiteren von einem Shift von der Knappheit hin zur Überfülle an Information, von den Entitäten hin zum Prozess und den Relationen (gegenüber der Substanz). (Vgl. Floridi 2103) Dies alles beinhaltet neue Formen der Kontrolle und der Macht, die in multidimensionalen Dimensionen und Linien verlaufen und korporative, technologische, wissenschaftliche, militärische und kulturelle Elemente mit-einschließen.

Allerdings gilt es, die Bezeichnung »Industrie 4.0« auch zu relativieren. Bei der Existenz der Mikroelektronik hatten wir es von Anfang an mit der Umwälzung der Produktion und der Distribution zu tun, man denke etwa an das »Computer-aided-design« (CAD) oder an die verschiedenen Steuerungstechniken in der Industrie. Und die damit einhergehende Produktivitätssteigerung zog sich durch alle Bereiche der Ökonomie, sei es die industrielle Fertigung, die Agrarproduktion oder die Rohstoffgewinnung inklusive der nicht-produktiven Sektoren des Staates.

Verweisen wir schon an dieser Stelle darauf, dass die Kosten bei der Einrichtung standardisierter bzw. automatisierter Anlagen oft unterschätzt werden, worauf Matthias Martin Becker in seinem Buch “Automation und Ausbeutung”, auf das wir noch ausführlich zu sprechen kommen, hingewiesen hat. Generell ist die Fehlerrate beim Einsatz automatisierter Systeme immer noch hoch, das heißt, diese beschleunigen die Arbeitsprozesse nur, wenn die Beschäftigten sich auf sie voll verlassen können.

Mit der Kostensenkung des elementaren Elements der Computerindustrie, dem Mikrochip, fand eine Verbilligung der Maschinerie statt, die es im Prinzip ermöglichen sollte bei steigender technischer Zusammensetzung des Kapitals die Profitrate zu erhöhen. Zur Herstellung global funktionierender Produktionsstrukturen und -prozesse bedarf es jedoch des Einsatzes flächendeckender und umfassender kybernetischer Systeme und Netzwerke. So fand eben zwar eine Reduktion der Produktionskosten von Mikrochips selbst statt, aber gleichzeitig war ein Anstieg der totalen Kosten für die umfangreichen Systeme, die notwendig sind, um die Chips und andere Produkte überhaupt herzustellen, zu verzeichnen. Die chiproduzierenden Unternehmen wurden immer größer und zugleich immer stärker automatisiert. Im Jahr 1966 kostete eine neue Fabrik noch 14 Millionen Dollar, im Jahr 1995 schon 1,5 Billionen Dollar und heute beläuft sich der Preis auf 6 Billionen Dollar. (Dyer-Whiteford 2015: 1553)Wenn die Fabriken und Büros zu computerisierten “work stations” mutieren, die durch Satelliten, die Logistik und point-of-sale-Plattformen unterstützt werden, dann können die Kosten immens ansteigen. Allein das Updaten der Software von digitaliserten Managementsystemen kann enorme Kosten verursachen, sodass trotz der Verbilligung mancher Komponenten der Computerindustrie die organische Zusammensetzung des Kapitals ansteigt, obgleich dies wieder  durch den Einsatz elektronisch koordinierter Angebotsketten, d die Zugänge zu billiger Arbeit erschließen, durch das Outsourcing und die unentgeltlich geleistete Arbeit im Internet konterkariert werden kann.. George Caffentzis geht in seinem „Gesetz der wachsenden Dispersion der organischen Zusammensetzung des Kapitals“ davon aus, dass jede Steigerung der Zusammensetzung durch den Einsatz neuer Technologien zur Entstehung von industriellen Bereichen führt, in denen die Zusammensetzung wieder sinkt. Dabei erfolgt immer ein Transfer von Wert, beispielsweise von der Produktion der Iphones bei Foxconn in China hin zu den Traumfabriken von Apple im Silicon Valley, wo nur wenige Menschen beschäftigt werden. Im kybernetischen Kapital-Vortex kommt es in den hochentwickelten Industrieländern zum Ersatz von lebendiger Arbeit durch Automation und gleichzeitig komt es zur Absorption neuer Quellen billiger Arbeit insbesondere in Asien und Afrika, während die daraus folgenden Effekte für Produktion und Konsumtion durch die Finanzialisierung qua Schulden und Spekulation kompensiert werden sollen.

Es ist davon auszugehen, dass bei der Analyse der Stückkosten außer den Grenzkosten (einer zusätzlich produzierten Einheit) auch die Umlage für die Fixkosten zu beachten ist, die sich auf die Lebensdauer und Kapazität bestehender Maschinensysteme beziehen, wobei jenseits dieser Faktoren die Kosten wieder sprunghaft ansteigen. Zudem benötigen ausgelastete Maschinensysteme während die Lebensdauer permanente Instandhaltungen, Reparaturen und Um- und Aufrüstungen, wobei dies auch für komplexe Softwaresysteme und ihre Zyklen gilt, die im Rahmen der Konkurrenz und des heutigen Kults zur Innovation einem beschleunigten Verschleißprozess unterliegen, was zu hohen Kosten führt, wenn gerade neue Systeme eingesetzt werden müssen. (Vgl. Fischbach 2017: 36) Eine Kostendegression bei wachsendem Output ist gerade auch bei automatisierten Maschinensystemen nur innerhalb der Lebensdauer und der Kapazitäten dieser Systeme zu beobachten.

Die durch die Automation erzielten Skaleneffekte, das heißt bei gleichbeibenden Kosten einen höheren Output zu erzielen oder qualitativ bessere Produkte zu produzieren, steht im Zentrum aller Rationalisierungsschübe seit dem 19. Jahrhundert, wobei durch die sog. Produkt- und Prozessinnovation (Kraftvervielfältiger wie die Mechanisierung der Werkzeugmaschinen, Elektromotoren, Fließband) massenhaft Arbeitskräfte freigesetzt wurden; letzteres wird sich auch mit der weiteren Durchdringung der Automation durch alle Produktionsbereiche hindurch einstellen, aber sprunghafte Produktivitätsschübe sind doch zu bezweifeln, worauf nicht zuletzt die gegenwärtige Stagnation in großen Teilen der Weltwirtschaft hinweist- Wenn bespielsweise Bernard Stiegler bezüglich der Automation von eskalierenden Produktivitätssprüngen spricht, dann ist das mit Vorsicht zu genießen. Der amerikanische Ökonom Robert Gordon hat in einer im Jahr 2016 erschienenen Studie “The Rise and the Fall of the American Growth” darauf aufmerksam gemacht, dass die Produktivitätsfortschritte, die seit dem Einsatz der Mikroelektronik in den 1980er Jahren erzielt wurden, keineswegs mit denen vergleichbar sind, die durch den Einsatz der Dampfmaschine, der mechanischen Webstühle und Werkzeugmaschinen, der Elektrizität und der fordistischen Massenproduktion erzielt worden sind. Schon bei den ersten Werkzeugmaschinen materialisierte sich das Arbeitswissen in den Maschinen, indem es formalisiert und in Programme übersetzt wurde.

Das beschleunigte, durch Computer und Informationstechnologien vorangetriebene Wachstum nennt man in wissenschaftlichen Fachkreisen “Singularität”, wobei es aber zwischen technischer und wirtschaftlicher Singularität zu unterscheiden gilt. Die ökonomische Singularität bemisst sich daran, wie sich generell die Substituierbarkeit zwischen Information und konventionellen Inputs entwickelt. Der Ökonom William D. Nordhaus hat in einer neuen Studie darauf hingewiesen, dass das wirtschaftliche Wachstum davon abhängig ist, inwieweit sich Stofflichkeit durch Elektronik ersetzen lässt. Zudem gilt es auf gesamtwirtschaftlicher Ebene zu berücksichtigen, dass höhere Produktivität niedrigere Preise nach sich zieht, sodass sich in toto nur dann ein steigender Anteil von produktivitätsstarken Sektoren nachweisen lässt, wenn deren Volumenzuwachs das Sinken der Preise überkompensiert. Auch der Frage der ständigen Substituierbarkeit von bestimmten Produktionsfaktoren durch Information auf der Ebene der Organisation geht Nordhaus nach. (Vgl. Nordhaus 2015) Er belegt, dass dies in der Vergangenheit nicht der Fall war und prognostiziert auch für das 21. Jahrhundert nur eine langsame Entwicklung in Richtung ökonomische Singularität, obgleich die Kapitalintensität weiterhin zugunsten des Kapitalstocks (gegenüber dem Arbeitsaufwand) zunehme und eben damit auch der Anteil des Informationskapitals. Dennoch ist davon auszugehen, dass die digitalen Informations-und Kommunikationstechnologien im neuen Jahrtausend dazu beigetragen haben, ein neues Niveau der Produktivität in Produktion und Distribution zu etablieren, indem sie den Warenaustausch zwischen den Unternehmen verdichten und beschleunigen, Rationalisierungsprozesse in den globalen Wertschöpfungsketten und in der Zuliefererindustrie, die Reorganisation von Bereichen wie Architektur, Städtebau, Gesundheitswesen etc. ermöglichen. Die Software, mit der Managementmethoden, Derivate und digitale Logistik prozessieren, darf man hier durchaus als Basisinnovation verstehen, die in ein neues technisch-ökonomisches Paradigma eingebunden ist.1 (Vgl. Perez 2002: IX)

Im Rahmen des Neo-Imperialismus der weltweit führenden Industriestaaten benötigt man in Zukunft durchaus 4.0.-Industrien, um die eigenen Wettbewerbsvorteile zu sichern. So ist es auch kein Zufall, wenn von deutschen Wissenschaftlern ständig darauf hingewiesen wird, dass aus dem industriellen Internet sowohl für Deutschland als auch für die Europäische Union ein zentraler Standortvorteil erwachsen könne. Auf Grundlage einer weltweit führenden Motoren-, Automobil- und Zulieferungsindustrie gelte es rasch neue Technologien zu entwickeln, mit denen im globalen Maßstab Fabriken, Energie-, Verkehrs- und Datennetze miteinander verbunden werden können. Auch der Staat müsse zur Sicherung des Standortvorteils intensive Forschungs- und Förderungsprogramme zur Verfügung stellen.

Dazu bedarf es einer ausgefeilten und komplexen Logistikindustrie. Die Logistik ist eine Subdisziplin des Operations Management. Sie gewann im Zuge der Containerisierung und ihrer Integration in die Verwertungsketten des globalen Kapitals rasch an Bedeutung. Die Konzentration auf das Produkt, auf dessen Effizienz und Qualität, verliert in den globalisierten Wertschöpfungsketten zunehmend an Bedeutung, stattdessen verläuft die Verwertung des Kapitals stärker entlang von abstrakten Linien, die in Spiralen und kybernetischen Feedbackschleifen prozessieren, die wiederum in die ubiquitäre digitale Vernetzung integriert sind. Dabei spielen Unternehmen wie Google oder Amazon eine immer wichtigere Rolle, wenn sie etwa Sorge dafür tragen, dass die Relation zwischen Produktion und Konsum stärker als das Produkt gewichtet und zugleich in einzigartiger Weise in den betrieblichen Abläufen Horizontalität und Vertikalität miteinander vermischt wird. Vertikalität bezieht sich auf den Line Manager, der die “algorhytmischen” Metriken und Rhythmen zu bedienen oder zu überwachen hat, indem er u.a. die Fehleranfälligkeit und Langsamkeit der humanen Entscheidung zu eliminieren versucht. Der Line Manager arbeitet entlang der betrieblichen Linien, seine Funktion ist in den Produktionsprozessen hauptsächlich die eines Vollstreckungsorgans, das Befehle weitergibt, während zugleich die Rhythmik der Produktionsprozesse durch ihn hindurch operiert. Das Management scheint schließlich hauptsächlich damit beschäftigt zu sein, die algorithmisch organisierten Produktionsprozesse vor dem Widerstand der Arbeiter zu beschützen. Und letztendlich bedeutet on the line zu arbeiten auch, im »progressiven« Modus an der Linie zu arbeiten, um sie ständig zu verbessern, zu erweitern, ihr etwas hinzuzufügen, um eine neue Linie vorzugeben. Darin besteht auch die neue Funktion des leitenden Managements, das keine Manager, sondern nur noch »Leader« kennt. (Vgl. Raunig 2015:173)

Auch im Buch »Automation und Ausbeutung« von Matthias Martin Becker geht es um die algorithmische Govenance, um das Zusammenspiel von Automation und Vernetzung, wobei es gerade die Algorithmen erlauben, Geräte, die man heute gemeinhin als smart und intelligent bezeichnet – vom Smartphone über den Kühlschrank bis zum Automobil – zusammenschließen oder zu vernetzen. Becker sieht in der Robotik, der Sensorik, in der Miniaturisierung und im maschinelle Lernen die technischen Kernbereiche der Automatisierung, wobei er die Modularisierung hätte hinzufügen sollen, die er später im Text aber auch länger anspricht. Zu untersuchen sind die berüchtigten Mensch-Maschinen-Systeme, wobei Becker von vornherein klarstellen will, dass auch die digitalen Maschinen den Arbeitern hinsichtlich Flexibilität, Zuverlässigkeit und effizienter Ökonomie weiterhin unterlegen bleiben

Es sind heute vor allem vernetzte Anlagen, Leichtbauroboter und maschinelle Assistenzsysteme, die sich sowohl in den industriellen Unternehmen als auch in den Büros verbreiten, während die elektronischen Medien gleichzeitig sämtliche Bereiche des alltäglichen Lebens durchdringen und die maschinellen Lernsysteme das Wissen neu konfigurieren. Die Digitalisierung ermöglicht die Produktion von enormen Datenmengen, die gleichzeitig lesbar werden, wobei Geräte, Produkte und Maschinen die Daten erstellen und auch austauschen. Der Arbeitsprozess wird heute über die algorithmische Governance bis in die molekularen Poren hinein geteilt und neu zusammengesetzt, wobei die Arbeitskräfte sich nicht unbedingt länger zusammen an einem Ort, der klassischen Fabrik befinden müssen, um ein oder mehrere Produkte herzustellen und gerade dies konstituiert ganz neue Formen der Arbeitsteilung.

Die durch die Konkurrenz zwischen den Unternehmen erzeugten Rationalisierungswellen betreffen heute vor allem die innerbetriebliche Organisation, die Konfiguration des Wissens und die Makroökonomie. Dabei handelt es bei der Automation um eine neue Stufe der Industrialisierung, insbesondere auch der geistigen Arbeit, die von ihrer Proletarisierung nicht zu trennen ist, eine Produktion der Linien – on the line und Online sein -, deren Flusscharakter zunehmend unsichtbar wird, man denke etwa an die Kommunikation, die auf Funksignalen beruht oder an die Codes der Computerprogramme. In die digitalisierten Industrieanlagen ist die menschliche Arbeit vollkommen integriert und wird dort verdichtet, das heißt man schließt zum einen die Poren und die unproduktiven Zeitlöcher während der Arbeitszeit und erzeugt zum andern eine noch engere Anbindung der menschlichen Akteure an die Maschinen, wobei diese Prozesse ganz im Sinne der Kybernetik über digitalisierte Feedback-Loops gesteuert werden.

Die algorithmische Governance ist immer auch eine algorithmische Steuerung, wobei die Computerprogramme, welche die Produktion über die Vergabe von Aufträgen und lineare Abfolge der Arbeitsschritte steuern, Optimierungsverfahren anhand der Auswertung von Indikatoren berechnen, die sich auf die Leistung beziehen und aus der Vergangenheit stammen, man denke hier etwa an lernende Algorithmen oder selbst optimierende Systeme in der Logistik, die die Transportwege von Produkten und Menschen beschleunigen sollen, wobei die Automatisierung (Software und Roboter) letztendlich auch das leitende und steuernde Management erreichen wird. Damit verändern sich die Betriebsorganisation und die Qualifikationsanforderungen in den Unternehmen und es kommt zu neuen Betriebsformen, die man als Plattformen oder volatile Oligopole bezeichnet.

1Carlota Perez macht in der Binnengeschichte des Kapitals drei Korrelationen von Innovationsschüben im »Realsketor« mit solchen in der Finanzindustrie aus: Industrielle Revolution und lokale Banken in England, fordistische Massenproduktion und Konsumentenkredite und schließlich Kommunikationstechnologien und Derivate. (Perez 2002: Fußnote 118)

Foto: Bernhard Weber

Nach oben scrollen