Zelluläre Automaten und Maschine 4.0

Es war eine der Intentionen von Leibniz, zu zeigen, dass die Welt aus elementaren Automaten gebaut ist, die er »Monaden« nannte. Monaden, die sich jeweils aus Aggregaten zusammensetzen und komplexe Automaten bilden, lassen sich bei Leibniz immer weiter bis ins unendlich Kleine falten, vom Organismus bis hin zu den Elementarteilchen, ohne dass man je zu einem letzten Atom kommt. Und immer schon ist die Monade codiert, insofern ihr die gesamte Gegenwart, Vergangenheit und Zukunft eingeschrieben ist. Wenn heute zelluläre Automaten wie eine universelle Turingmaschine funktionieren sollen, dann heißt dies für fortschrittsgläubige Autoren, die Leibniz im Sinne des Atomismus und nicht wie Deleuze im Kontext der Falte diskutieren, nichts anderes, als dass das Ordnungsprinzip der Welt das des Computers und seiner progressiven Kapazitäten sei, wobei das Mooresche Gesetz die Progression unaufhörlich so vorantreibe, dass man immer wieder aufs Neue alle technischen Probleme zu bewältigen vermöge. In den kleinsten Rechenmaschinen verbergen sich heute eine Menge von elektronischen Komponenten, während es aber immer schwieriger wird, die Energiezufuhr für die digitalen Maschinen zu garantieren und die übermäßige Wärmeentwicklung unter Kontrolle zu bringen. So bleibt das biologische Vorbild, unter ganz anderen Bedingungen, immer noch unerreicht.

Zelluläre Automaten, so schreibt Klaus Mainzer, »bestehen aus schachbrettartigen Gittern, deren Zellen nach ausgewählten Regeln ihre Zustände (z. B. die Farben Schwarz oder Weiß) wechseln und dabei von der Farbverteilung der jeweiligen Zellumgebungen abhängen« (Mainzer 2014: 25). Es handelt sich meistens um zwei-dimensionale Gitter (ein- oder mehrdimensionale Gitter sind aber auch möglich), deren Zellen diskrete Zustände besitzen, die sich jedoch zeitlich verändern können.

Dabei müssen alle Zellen als identisch gelten, sie verhalten sich also nach denselben Regeln. Da zudem alle Regeln schrittweise und diskret ausgeführt werden, arbeitet das Automatennetz synchron und getaktet. Und jede Zelle kann sich nach bestimmten Regeln mit benachbarten Zellen in Beziehung setzen, indem sie mit jedem Zeittakt ihren eigenen Zustand mit dem der anderen Zellen vergleicht, um aus diesen Daten ihren neuen Zustand zu berechnen. So ergibt sich der Zustand der jeweiligen Zelle zu einem Zeitpunkt t aus dem vorangegangenen Zustand t-1 sowie dem Zustand der Nachbarzellen, die wiederum mit weiteren Nachbarzellen in Verbindung stehen. Zelluläre Automaten sind also durch ihre interaktive Dynamik in Zeit und Raum gekennzeichnet.

Im Universum zellulärer Automaten ist der Raum eine diskrete Menge von Zellen (Kette und Gittern), die eine diskrete Anzahl möglicher Zustände besitzen und sich in diskreten Zeitschritten transformieren und aktualisieren. Schließlich lässt sich ein zellulärer Automat folgendermaßen spezifizieren: 1. Zellraum: Größe des Feldes und Zahl der Dimensionen. 2. Randbedingungen. 3. Nachbarschaft und Radius des Einflusses der Zellen aufeinander. 4. Menge möglicher Zustände einer Zelle. 5. Nachbarschaft und Eigenveränderung der Zellen. 6) Umgebungsfunktion, die angibt, mit welchen anderen Zellen eine Zelle verbunden ist. Mit Hilfe starker Computerleistungen können dann Musterentwicklungen der künftigen Generationen von Zellen simuliert werden. Die Zellen eines zellulären Automaten, die auf ihre jeweilige Umgebung reagieren, verhalten sich Mainzer zufolge wie eine Schwarmintelligenz. (Ebd.: 161) Eine solche Musterbildung zellulärer Automaten lässt sich mit Hilfe von Differenzialgleichungen modellieren.

Eine Konfiguration von Zellen ist genau dann als stabil anzusehen, wenn sie mit ihrem Nachfolger übereinstimmt, jedoch verschwindet sie in der nächsten Generation, wenn alle ihre Zellen sich im Zustand »weiß« befinden. Mainzer schreibt: »In diesem Fall ist das Gesamtsystem destabilisiert. Man könnte anschaulich sagen, dass zwei tote isolierte Zellen durch Kopplung und Diffusion zum Leben erweckt werden. Die Erweckung zum Leben wird präzise berechenbar.« (Ebd.: 138) Mainzer nimmt hier wohl an, dass das Leben durch einen einfachen Vorgang, nämlich »durch Kopplung und Diffusion« entstanden sein könnte, obgleich wir es noch nicht mit einem sich selbst erhaltenden »Stoff- und Energieaustausch« eines Organismus zu tun haben. Dennoch scheint es »eine bestimmte Reaktions-Diffusionsgleichung« zu geben, die »einen Grenzzyklus, also eine oszillierende Lösung besitzt« (ebd.: 139). Wenn mit Grenzzyklus so etwas wie eine Innen-Außen-Differenz gemeint ist, so haben wir hier tatsächlich einen Hinweis auf eine spontane Entstehung von Leben. Auch der Begriff der Oszillation, so Mainzer, verweise auf den »Zyklus eines Stoffwechsels«. Und Mainzer hält fest, dass wir hier den Herrschaftsbereich der Entropie verlassen.

Die Unordnung oder Auflösung eines abgeschlossenen Systems lässt sich unter Umständen durch eine spezifische Öffnung des Systems kompensieren, in dem die Zerstörung durch eine unabgeschlossene Neuregelung angegriffen wird, durch eine Abweichung, die auch wieder zur Ordnung führen kann. Die Zeiten der Zerstörung der Ordnung (Thermodynamik) und die Zeiten der Zusammensetzung der Teile (Negentropie) werden in die Thermodynamik offener Systeme integriert. (Serres: 1994: 103) Serres spricht vom Leben als einem vielzeitigen, polychronen Prozess, wobei es als Syrrhese im Fluss mehrerer Zeiten bade. (Ebd.: 104; vgl. Bergson`sche Dauer, Prigogines Abweichung von Reversibilität und Irreversibilität, Darwins Evolution und Boltzmanns Unordnung.) Mit Serres Konzeption einer offenen Polychronie lässt sich schließlich resümieren, dass die Vorstellung, man könne mit Hilfe der Logik zellulärer Automaten die komplexen Formen des Universums kohärent beschreiben, nur eine weitere Variation der philosophischen Entscheidung darstellt, die hier darin besteht, die Möglichkeit der Erfassung der Unendlichkeit der Daten qua einer wissenschaftlich konsistenten Theorie zu affirmieren. Aber ganz so einfach liegen die Dinge eben nicht. Vergegenwärtigen wir uns dazu die Unterscheidung zwischen glatten und gekerbten Räumen, die Deleuze/Guattari in Tausend Plateaus vorgenommen haben. Netzwerke befinden sich weniger im glatten Modus, sie sind eher streng stratifiziert. Und stratifizierte Netzwerke lassen sich eben mit der Logik der zellulären Automaten oder der zellulären Räume vergleichen. Diese Netzwerke wurden in den 1950er Jahren von Wissenschaftlern wie John von Neumann und Nils Aall Barricelli beschrieben. Zelluläre Räume, seien sie nun die erwähnten Gitter oder elastische Topologien, enthalten immer die klaren Unterscheidungen zwischen Links und Knoten sowie zwischen einem Knoten und einem anderen. Man könnte solche Netzwerke nun mit nicht-zellulären Räumen wie Konrad Wachsmanns »grapevine structures« kontrastieren oder mit den Arbeiten des Architekten Lebbeus Woods, in denen keine klare Trennung zwischen Links und Knoten oder zwischen den Knoten untereinander vorzufinden ist. Stattdessen dominiert hier die glatte Form, die von verschiedenen »Logiken« geregelt wird: Hydrauliken, Metallurgien und pure Differenz in der Bewegung, im Strom und in der Variation. (Vgl. Deleuze/Guattari 1992: 409) Es wurde allerdings an anderer Stelle schon darauf hingewiesen, dass diese Art des multilateralen, dynamischen, nomadischen Netzwerks, das Deleuze/Guattari »Rhizom« nennen, mit dem volatilen, in der Verschaltung Aktualisierung-Virtualisierung prozessierenden, real-finanziellen Kapital durchaus kompatibel sein kann.

Wir wollen uns kurz noch mit neuen Tendenzen der Automatisierung befassen, die das Feuilleton heute unter dem Label »Industrie 4.0« zusammenfasst. Folgt man einer linear konzipierten Genealogie der Technikgeschichte, so beginnt die erste Epoche der Industrialisierung mit der Dampfmaschine, welche von der Epoche der Elektrifizierung und Taylorisierung und diese wiederum von der dritten Epoche der digitalen Automation und der Einführung von Robotern abgelöst wird. Mit der Online-Vernetzung der Maschinen in Echtzeit (Cyberphysical Systems) wird heute angeblich die vierte Stufe der industriellen Revolution erreicht. »cyberphysical systems« organisieren sich weitgehend autonom über den Modus intelligenter Schnittstellen, beispielsweise als »smart grids« oder »smart cities«.

Der Begriff »Industrie 4.0« bezieht sich also auf Maschinenkomplexe, die ausnahmslos online vernetzt sind und meistens in einem internen und of course abgesicherten Produktionsnetz prozessieren. Man spricht jetzt vom »Internet der Dinge«. Es ist davon auszugehen, dass in den künftigen »smart factories« hauptsächlich vernetzte Maschinen tätig sind, die sich in den Netzwerken auch weitgehend selbst steuern. Sämtliche Maschinen eines Unternehmens sind nun online und jedes einzelne Maschinenteil kommuniziert, wenn es mit Sensoren, RFID-Chips und spezifischen Softwarefunktionen ausgestattet ist, nicht nur mit anderen Maschinenteilen, sondern in bestimmten Linien und entlang von Linien auch mit den Bereichen Management,Transport, Logistik, Vertrieb und Versand. Es ist nun nicht mehr der Computer, sondern es sind die IT-Netzwerke selbst, die mit den physischen und immateriellen Infrastrukturen zusammenwachsen, und dies vollzieht sich über die jeweiligen Produktionsstätten hinaus auch mit dem externen Environment der Unternehmen, mit Fahrzeugen, Haushaltstechniksystemen oder Supermarktregalen. Schon heute sind Infrastrukturaufgaben und die Funktionsweisen der Logistik derart komplex, dass »Cyberphysical Systems«, was die Selbstorganisation und Automatisierung der Logistik-, Versorgungs-, Gesundheits- und Verkehrssysteme anbetrifft, absolut notwendig sind. Dabei werden lokale Orte wie Fabriken als Datenbanken angezapft, aber die Rechenoperationen selbst finden meistens an entfernten Orten statt. Jedenfalls wandern die Rechenoperationen aus den isolierten Computern in vernetzte Umgebungen aus, wo sie auf der Basis von Sensordaten und -technologien prozessieren, wobei die sensoriellen Maschinen nicht nur Daten sammeln und verteilen, sondern mit ihnen auf der Basis von algorithmischen Verfahren auch zukünftige Ereignisse kalkulieren. Dabei sollen die Maschinen mittels der RFID-Tags permanent adressierbar sein und sich qua Packet Switching-Netzwerke in den globalen Logistikketten eigene Pfade suchen. Die Speicherung, Auswertung und Indexierung der Daten findet wiederum in sog. Clouds der Datencenter statt.

Die online-integrierten humanen Akteure werden mit den Maschinen direkt kommunizieren: Die Maschinen befehlen den Akteuren, was sie gerade zu tun haben und umgekehrt geben die Akteure den Maschinen Befehle, was diese zu tun haben. Es könnte auch sein, dass es in den internen Netzwerken der Unternehmen zu ähnlichen Modulationen, Relationen und Funktionen wie im Internet 2.0 kommt. Prinzipiell könnte jeder Zugriff in den maschinellen Komplexen in Echtzeit vonstatten gehen, jede Maschine ist permanent erreichbar und jede Maschine kann auf der Stelle Signale senden, just in time und je nach Bedarf. Mit der Industrie 4.0 wird eine kundenorientierte Produktion möglich, es wird »on-demand« produziert, i. e. der Konsum wird an dividuierte Individuen angepasst. Dabei erfassen Sensoren gigantische Datenmengen (»Big Data«), um die Produktionsprozesse zu beobachten und zu steuern. An dieser Stelle wäre jedoch sofort die Frage zu stellen, wie zukünftig die Speicherungs- und Zugriffsrechte auf die Daten geregelt sein werden. Wenn nämlich »Big Data« in die Fabrikhallen einwandert, dann werden in den vergleichsweise transparenten Produktionsprozessen auch die Manipulationsmöglichkeiten erleichtert, sodass die hochkomplexen Systeme noch empfindlicher gegenüber Störungen werden – lokale Unregelmäßigkeiten können sich im Sinn der Chaostheorie kaskadenhaft aufschaukeln.

Als modulare Bestandteile von Netzwerken werden humane und non-humane Agenten über den Online-Modus in die Dynamik der permanenten betrieblichen Kommunikation integriert. Die Unterscheidung zwischen analogen Bereichen (carbon-based, offline) und digitalen Bereichen (silicon-based, online) löst sich auf, wobei letztere die ersteren überfluten und sich mit ihnen mischen werden. Diese Phänomene sind bekannt als »Ubiquitous Computing«, »Ambient Intelligence« oder eben als das »Internet der Dinge«. Der Informationstheoretiker Luciano Floridi spricht hier von einer ubiquitären »Onlife-Erfahrung«, dem Drift in das Posthumane oder das Inhumane, bei dem die Grenzen zwischen dem Humanen, der Technik und der Natur verschwimmen, und des Weiteren von einem Shift von der Knappheit hin zur Überfülle an Information, von den Entitäten hin zum Prozess und den Relationen (gegenüber der Substanz). (Vgl. Floridi 2013) Dies alles beinhaltet neue Formen der Kontrolle und der Macht, die in multidimensionalen Dimensionen und Linien verlaufen und korporative, technologische, wissenschaftliche, militärische und kulturelle Elemente mit-einschließen.

Allerdings gilt es, die Bezeichnung »Industrie 4.0« auch zu relativieren. Bei der Existenz der Mikroelektronik hatten wir es von Anfang an mit der Umwälzung der Produktion und der Distribution zu tun, man denke etwa an das »Computer-aided-design« (CAD) oder an die verschiedenen Steuerungstechniken in der Industrie. Und die damit einhergehende Produktivitätssteigerung zog sich durch alle Bereiche der Ökonomie, sei es die industrielle Fertigung, die Agrarproduktion oder die Rohstoffgewinnung inklusive der nicht-produktiven Sektoren des Staates.

Das beschleunigte, durch Computer und Informationstechnologien vorangetriebene Wachstum nennt man in wissenschaftlichen Fachkreisen «Singularität«, wobei es aber zwischen technischer und wirtschaftlicher Singularität zu unterscheiden gilt. Die ökonomische Singularität bemisst sich daran, wie sich generell die Substituierbarkeit zwischen Information und konventionellen Inputs entwickelt. Der Ökonom William D. Nordhaus hat in einer neuen Studie darauf hingewiesen, dass das wirtschaftliche Wachstum davon abhängig ist, inwieweit sich Stofflichkeit durch Elektronik ersetzen lässt. Zudem gilt es auf gesamtwirtschaftlicher Ebene zu berücksichtigen, dass höhere Produktivität niedrigere Preise nach sich zieht, sodass sich in toto nur dann ein steigender Anteil von produktivitätsstarken Sektoren nachweisen lässt, wenn deren Volumenzuwachs das Sinken der Preise überkompensiert. Auch der Frage der ständigen Substituierbarkeit von bestimmten Produktionsfaktoren durch Information auf der Ebene der Organisation geht Nordhaus nach. (Vgl. Nordhaus 2015) Er belegt, dass dies in der Vergangenheit nicht der Fall war und prognostiziert auch für das 21. Jahrhundert nur eine langsame Entwicklung in Richtung ökonomische Singularität, obgleich die Kapitalintensität weiterhin zugunsten des Kapitalstocks (gegenüber dem Arbeitsaufwand) zunehme und eben damit auch der Anteil des Informationskapitals. Dennoch ist davon auszugehen, dass die digitalen Informations-und Kommunikationstechnologien im neuen Jahrtausend dazu beigetragen haben, ein neues Niveau der Produktivität in Produktion und Distribution zu etablieren, indem sie den Warenaustausch zwischen den Unternehmen verdichten und beschleunigen, Rationalisierungsprozesse in den globalen Wertschöpfungsketten und in der Zuliefererindustrie, die Reorganisation von Bereichen wie Architektur, Städtebau, Gesundheitswesen etc. ermöglichen. Die Software, mit der Managementmethoden, Derivate und digitale Logistik prozessieren, darf man hier durchaus als Basisinnovation verstehen, die in ein neues technisch-ökonomisches Paradigma eingebunden ist.3 (Vgl. Perez 2002: IX)

Im Rahmen des Neo-Imperialismus der weltweit führenden Industriestaaten benötigt man in Zukunft durchaus 4.0.-Industrien, um die eigenen Wettbewerbsvorteile zu sichern. So ist es auch kein Zufall, wenn von deutschen Wissenschaftlern ständig darauf hingewiesen wird, dass aus dem industriellen Internet sowohl für Deutschland als auch für die Europäische Union ein zentraler Standortvorteil erwachsen könne. Auf Grundlage einer weltweit führenden Motoren-, Automobil- und Zulieferungsindustrie gelte es rasch neue Technologien zu entwickeln, mit denen im globalen Maßstab Fabriken, Energie-, Verkehrs- und Datennetze miteinander verbunden werden können. Auch der Staat müsse zur Sicherung des Standortvorteils intensive Forschungs- und Förderungsprogramme zur Verfügung stellen.

Dazu bedarf es einer ausgefeilten und komplexen Logistikindustrie. Die Logistik ist eine Subdisziplin des Operations Management. Sie gewann im Zuge der Containerisierung und ihrer Integration in die Verwertungsketten des globalen Kapitals rasch an Bedeutung. Die Konzentration auf das Produkt, auf dessen Effizienz und Qualität, verliert in den globalisierten Wertschöpfungsketten zunehmend an Bedeutung, stattdessen verläuft die Verwertung des Kapitals stärker entlang von abstrakten Linien, die in Spiralen und kybernetischen Feedbackschleifen prozessieren, die wiederum in die ubiquitäre digitale Vernetzung integriert sind. Dabei spielen Unternehmen wie Google oder Amazon eine immer wichtigere Rolle, wenn sie etwa Sorge dafür tragen, dass die Relation zwischen Produktion und Konsum stärker als das Produkt gewichtet und zugleich in einzigartiger Weise in den betrieblichen Abläufen Horizontalität und Vertikalität miteinander vermischt wird. Vertikalität bezieht sich auf den Line Manager, der die »algorhytmischen« Metriken und Rhythmen zu bedienen oder zu überwachen hat, indem er u.a. die Fehleranfälligkeit und Langsamkeit der humanen Entscheidung zu eliminieren versucht. Der Line Manager arbeitet entlang der betrieblichen Linien, seine Funktion ist in den Produktionsprozessen hauptsächlich die eines Vollstreckungsorgans, das Befehle weitergibt, während zugleich die Rhythmik der Produktionsprozesse durch ihn hindurch operiert. Das Management scheint schließlich hauptsächlich damit beschäftigt zu sein, die algorithmisch organisierten Produktionsprozesse vor dem Widerstand der Arbeiter zu beschützen. Und letztendlich bedeutet on the line zu arbeiten auch, im »progressiven« Modus an der Linie zu arbeiten, um sie ständig zu verbessern, zu erweitern, ihr etwas hinzuzufügen, um eine neue Linie vorzugeben. Darin besteht auch die neue Funktion des leitenden Managements, das keine Manager, sondern nur noch »Leader« kennt.

Deleuze, Gilles/Guattari, Félix (1974): Anti-Ödipus. Kapitalismus und Schizophrenie 1. Frankfurt/M.

(1992): Tausend Plateaus. Kapitalismus und Schizophrenie. Berlin.

(1996): Was ist Philosophie. Frankfurt/M.

Floridi, Luciano (2013):The philosophy of Information. Oxford/New York.

Mainzer, Klaus (2014): Die Berechnung der Welt. Von der Weltformel zu Big Data. München

Serres, Michel (1991): Hermes I. Kommunikation. Berlin.

(1993): Hermes IV. Verteilung. Berlin.

(1994): Hermes V. Die Nordwest–Passage. Berlin.

(2008): Aufklärungen. Fünf Gespräche mit Bruno Latour. Berlin.

Nach oben scrollen