Das transklassisch Maschinelle (G. Anders, H.D. Bahr, F. Neyrat, G. Simondon)

Folgt man der Theorie über die technischen Objekte, wie sie der französische Theoretiker Gilbert Simondon (Simondon 2012) entwickelt hat, und daran anschließend den Aussagen Frédéric Neyrats im Sammelband Die technologische Bedingung (Hörl 2011), so gilt es für die heutigen hyper-technisierten Gesellschaften die je schon gestörte Identität von Natur und Technik (weder gibt es eine totale Integration der Natur in die Technik, noch ist die Technik rein als Ausdruck der Natur zu verstehen) grundlegend neu zu konzipieren, indem man die Maschinen bzw. technischen Objekte, die keineswegs die menschlichen Organe prothesenartig verlängern oder dem Menschen nur als Mittel zum Gebrauch dienen, zunächst in ihrer reinen Funktionsweise affirmiert, sodass sie in ihrer unabschließbaren Supplementarität endlich den Status von kohärenten und zugleich individuierten Systemen erlangen können, deren Lokalisierungen in komplexe Maschinenverbände bzw. Netze eingebettet sind.1 (Ebd.: 37) Günther Anders hatte fast zeitgleich mit Gilbert Simondon von Maschinen als Apparaten gesprochen, allerdings von einer Apparatewelt, die den Unterschied zwischen technischen und gesellschaftlichen Gestaltungen hinfällig, ja generell die Unterscheidung zwischen Technik und Gesellschaft gegenstandslos gemacht habe. (Anders 1980: 110) Jedes einzelne technische Gerät sei, so Günther Anders, in ein Ensemble integriert, sei selbst nur ein Geräteteil, ein Teil im System der Geräte – der Apparate –, womit es einerseits die Bedürfnisse anderer Geräte befriedige, andererseits durch seine reine Anwesenheit bei anderen Geräten das Bedürfnis nach neuen Geräten stimuliere. Anders schreibt: »Was von diesen Geräten gilt, gilt mutatis mutandis von allen […] Von diesem System der Geräte, diesem Makrogerät, zu behaupten, es sei ein Mittel, es stehe uns also für freie Zwecksetzung zur Verfügung, wäre vollends sinnlos. Das Gerätesystem ist unsere Welt. Und Welt ist etwas anderes als Mittel. Etwas kategorial anderes.« (Anders 2002: 2) Oder um es mit den Begriffen von Simondon zu sagen, wir sollten angesichts unserer postindustriellen Situation von technischen Objekten sprechen, deren Elemente stets Rekursionen bilden und innere Resonanzen zueinander unterhalten, während die Objekte zugleich in äußeren Resonanzen zu anderen technischen Objekten stehen, um möglicherweise als offene Maschinen die ihnen eigene Technizität in den maschinellen Ensembles ausspielen zu können. Zusätzlich entwickeln viele technische Entitäten eine plurale Funktionalität, exekutieren anstelle einer mehrere Funktionen innerhalb eines Maschinensystems, man denke etwa an den Verbrennungsmotor, dessen Kühlrippen neben der Funktion der Kühlung die der Verstärkung annehmen, wenn sie der Verformung des Zylinderkopfs entgegenwirken. Simondon hat sich der zutiefst pessimistischen Sichtweise über die postindustriellen Technologien, wie sie bei Günther Anders zu finden ist, nicht angeschlossen. Vielmehr hat Simondon in denjenigen technischen Objekten, die sich der hylemorphistischen Gegenüberstellung von Form und Materie, wie sie im Arbeitsmodell (durch Werkzeuge geformte Materie) noch angedacht ist, entziehen, gerade eine Möglichkeit ausgemacht, dass die Technik sich der Autonomie der Natur annähert, eine Tendenz, die zur dynamischen Geschlossenheit der technischen Objekten selbst führt, indem diese u. a. einen Teil der natürlichen Welt inkorporieren, und dies durch die Herstellung assoziierter Milieus, der Verbindung ihres Inneren (Resonanz verschiedener Teile und Multifunktionalität der Teile) mit dem Außen, mit anderen Objekten, seien es natürliche oder künstliche Objekte. Dabei kann sich das technische Objekt nicht komplett von einem Zuviel an Abstraktion trennen, die gerade das sog. artifizielle, heteronome Objekt auszeichnet. Die Kraft zur Abstraktifizierung schreibt Simondon vor allem dem Menschen als seinem konstitutiven Zutun zur Technik zu, der es damit aber gerade verhindert, dass die technischen Objekte sich in offenen Gefügen konkretisieren und ihre Tendenz zur Autonomie ausspielen können.2 (Neyrat 2011: 154) Simondon lässt sich jedoch keineswegs von der These verführen, dass in einer postindustriellen Zukunft rigoros alles Lebendige den offenen technischen Ensembles unterstehen müsse; im Gegenteil befürwortet Simondon ein gesellschaftliches Konzept der technischen Ensembles oder der offenen Maschinenverbände, bei dem das Humane mit der »Gesellschaft der technischen Objekte« koexistiert. Wo aber der Mensch zu determinierend ins Technische eingreift, haben wir es mit heteronomen artifiziellen Objekten zu tun, wohingegen das technische Objekt zumindest zu einer Autonomie tendiert (es kann die Abstraktion nicht ganz aufgeben), die das natürliche Moment inkludiert: i. e. Geschlossenheit und Konsistenz eines maschinellen Systems. Paradoxerweise verhindert für Simondon also gerade das Artifizielle, dass die Technik Autonomie erlangen kann. (Ebd.) Abstrakte Künstlichkeit verweist Simondon zufolge immer auf einen Mangel an Technizität, wohingegen das technische Objekt sich in kohärenten Prozessen konkretisieren soll, wobei es gilt, jede lokale Operation des technischen Objekts in eine übergreifende Anordnung der maschinellen Ensembles zu integrieren. (Hegel definiert das Konkrete als dasjenige, was das Relationale einschließt, während das Abstrakte ihm eher als einseitig oder isoliert gilt. Die Terme »konkret« und »abstrakt« designieren daher keine Typen von Entitäten, wie etwa das Materielle und Immaterielle, sondern man benutzt sie, um die Art und Weise zu bezeichnen, wie das Denken in Relation zu den Entitäten steht. So kann sich, wie Hegel oftmals erläutert, das Abstrakte als das Konkreteste erweisen und das Konkrete als das Abstrakteste. Ein materialistisches Konzept muss erklären können, was die Realität einer begrifflich geformten Abstraktion konstituiert, ohne jedoch die Form hypostasieren zu wollen. Es muss zeigen können, wie Abstraktionen durch soziale Praktiken »behandelt« werden, wobei Letztere mehr als nur die Materie formende Arbeitsprozesse sind, wenn sie sich immer wieder in ganz spezifischer Weise neu aufstellen, d. h., in Relation zu den sich konkretisierenden technischen Objekten auch sich selbst konkretisieren, wie dies Simondon vorschlägt.) So fungiert das technische Objekt stets in assoziierten Milieus, d. h., es steht mit anderen technischen Objekten in Verbindung oder es genügt sich selbst, und dabei muss es stets die Natur beachten.

Simondons technische Objekte verweisen auf ihre Einbettung in Netzwerkstrukturen, wobei er die zeitgenössische Ankopplung der technischen Objekte an die digitale, informations- und rechenintensive Ökologie neuer Medien schon in den 1960er Jahren vorausahnt, das Dispositiv digitaler, transformatorischer und modularer Technologien inklusive einer durch maschinische Geschwindigkeiten verformten, nichtintentionalen und verteilten Neo-Subjektivität. Eine Subjektivität, die an den Schnittstellen der an der Grenze zur Lichtgeschwindigkeit fließenden technologischen und monetären Strömungen situiert ist, wo sie sich durch alle Selbstverhältnisse hindurch bis zum Äußersten als flexibel, modular und rekombinierbar erweist. Fast schon im Gleichklang mit der Kybernetik ist sich Simondon auch bewusst, dass die Maschine nicht als oder wie ein Werkzeug gebraucht wird, vielmehr wird sie bedient. Technische Objekte sind weder Prothesen des Menschen, noch kann umgekehrt der Mensch als Prothese der Maschinen vollständig aufgelöst werden. Zunächst sollte man die technischen Objekte rein in ihrer Funktionsweise konzipieren, und dies hinsichtlich ihrer erklärbaren Genese, in deren Verlauf sie sich Simondon zufolge zunehmend anhand einer immanenten Evolution konkretisieren (nicht abstraktifizieren), jenseits der Adaption und Zweckmäßigkeit ihres Gebrauchs oder ihrer Festschreibung als Mittel. Jedoch ist das technische Objekt kein eigenständiger kreativer Agent, es bleibt in einen ökonomischen und wissenschaftlichen Kontext eingespannt, und der Prozess seiner Konkretisierung macht die Synergetik geltend, das Zusammenwirken mit anderen funktionalen Subsystemen, indem diese die Funktionalität des technischen Objekts modifizieren und komplettieren. Das Movens der Konkretisierung des technischen Objekts inkludiert die Organisation funktionaler Subsysteme, in die das technische Objekt eingeschaltet zum technischen Ensemble reift, das wiederum durch umfassende soziale, ökonomische und technische Prozesse und deren Strukturierungen gekennzeichnet ist. Konkretisierung bedeutet zudem die Tendenz zur Innovation, in der eine Reihe von durchaus konfligierenden Erfordernissen durch multifunktionale Lösungen von individuierten technischen Objekten befriedigt werden, indem diese kausale Kreisläufe herstellen, um die jeweiligen Erfordernisse zu integrieren. Technische Elemente (Teile der Maschine), technische Individuen (Maschine als Ganzes) und technische Ensembles (Maschine als Teil sozialer, technischer und ökonomischer Systeme) stehen je schon in einem dynamischen Verhältnis, das potenziell einen Prozess des technologischen Wandels freisetzt. Dabei wird die Ökonomie jedoch nicht durch die Medien/Maschinen dominiert, vielmehr determiniert das Kapital und seine soziale Ökonomie die technologische Situation weiterhin in der letzten Instanz. Wir haben es mit einem Feedback-Loop zu tun, mit der Ökonomie und ihren sozialen Umgebungen auf der einen Seite, und den Maschinenensembles auf der anderen Seite. Die Ökonomie nährt die Maschinen, setzt die Bedingungen und gebraucht gleichzeitig deren Wissen für die Organisation ihrer Machtfelder, während umgekehrt die Maschinenensembles die Konsistenzen der Ökonomie formen, ihre Kommunikationen und ihre Machtrelationen, ihre Art und Weise, wie sie die sozialen und subjektivierenden Prozesse gestaltet.

Die je schon gestörte Identität zwischen Natur und Technik verweist nach Ansicht des französischen Theoretikers Frédéric Neyrat auf das »Hyperjekt«, das die maschinelle Autonomisierung der Technik gegenüber humanen Aktanten sowie die materielle Substitution des Stofflichen durch das Künstliche bezeichnet, ohne dass man allerdings von einer totalen Integration der Natur in die Technik ausgehen muss. (Ebd.: 168f.) (Technik als Ablösung von der Natur, als Substitution von natürlichen Stoffen durch Kunststoffe und als Ablösung der Technik vom Menschen qua maschineller Autonomisierung. Dabei gilt es davon auszugehen, dass Maschinen und ihre Materialien in einem Verhältnis der Interferenz stehen.) Man kann das Hyperjekt als ein gegenüber Subjekt/Geist und Objekt/Natur eigenständiges Substitutions- und Autonomisierungsmilieu (Materialien und Maschinen) des Technischen identifizieren, wobei man bezüglich der Kontextualisierung der beiden Milieus nicht von Vereinigungen, sondern von Überlagerungen sprechen sollte, wenn man über die inneren und äußeren Resonanzen der technischen Objekte nachdenkt.

Die postindustrielle Technik, bspw. das Konzept der transklassischen Maschine bei Gotthard Günther, hält sich im Dazwischen von Natur und Geist auf, weil es gerade aufgrund der Prozesse der doppelten Ablösung verboten ist, die transklassische Maschine rein auf die wissenschaftlich-humane Kreation zu reduzieren, folgt sie doch einer eigenständigen Reflexionslogik. Es geht um die transklassische Maschine, deren wesentliche Funktion darin besteht, Informationen abzuliefern, zu transformieren und zu übersetzen. [Die Information artikuliert den Unterschied, der einen Unterschied macht, so sieht es Gregory Bateson, aber dies nicht, weil die kleinste Einheit der Information, ein Bit, wie Bateson annimmt, einfach, sondern wie Bernhard Vief in seinem Essay Digitales Geld schreibt, zweifach gegeben ist: Bits sind immaterielle, relative Teiler, sie stehen für eine Bewegung der Differenzialität, die weder anwesend noch abwesend ist, und damit ist auch der Binärcode, die binäre Zahlenfolge, nur als ein Effekt der sie artikulierenden Alternanz positionierbar. Wie Lacan am Beispiel der kybernetischen Maschine gezeigt hat, ist das Artikulierte von derselben Ordnung wie die symbolischen Register, wobei die Schalter der Schaltalgebra das Dritte jener Ordnung darstellen: Die Artikulation, die ja selbst weder offen noch geschlossen ist, zeigt die Möglichkeit der rein stellenwertigen Zustände erst an.]Die transklassische Maschine lässt sich weder auf das Objekt noch auf das Subjekt abbilden, vielmehr inhäriert sie eine dreiwertige Logik: Subjekt, Objekt und die transklassische Maschine als Hyperjekt. Das Hyperjekt gehört also weder der Natur (Objekt) noch dem Geist (Subjekt) an, und damit untersteht es einer Exteriorität, die allerdings keineswegs als die Auslagerung des Inneren eines Subjekts zu verstehen ist, sondern eine unabhängige »Seinsregion« anzeigt – es beinhaltet eine Dreiwertigkeit, die ihre Unvollständigkeit per se ausweist, weil sie die Gegensätze (Subjekt und Objekt) nicht synthetisiert – im Gegenteil bleiben diese nicht-trivialen Maschinen (Heinz von Foerster) der vollständigen Analyse wie auch der Synthetisierung je schon entzogen. Allerdings muss sich das Konzept technischen Seins an dieser Stelle die Frage gefallen lassen, ob das Mediale technischer Objekte als Weisen der Zerstreuung in offene Räume oder der Zerstreuung des Raumes selbst ontologisch erfasst werden kann. Die Second Order Cybernetics hatte im letzten Jahrhundert eine eigene Konstellation von Begriffen geschaffen (Feedback, Autopoiesis, temporale Irreversibilität, Selbstreferenzialität etc.), die längst in die mathematischen Modelle oder in die Computersimulation eingewandert ist. Zwar löst sich damit das materielle Substrat bzw. die Physikalität, auf denen jene Prozesse aufsitzen, keineswegs auf, aber es regieren hier doch die autonom-immanenten Relationen und Interaktionen einer vielfach gestuften Komplexität, wobei in jedem einzelnen kontingenten Prozess Komplexifizierungen stattfinden: Systeme überführen zufällige Ereignisse in Strukturen wie umgekehrt ganz bestimmte Ereignisse Strukturen auch zerstören können, sodass ein Einzelsystem fast in jedem erdenklichen Fall eine kontinuierliche Fluktuation zwischen Desorganisation und Reorganisation wie eben auch zwischen Virtuellem und Aktuellem anzeigt. Gotthard Günther hat vor allem die ontologischen Implikationen dieser Wissensformen darzustellen versucht und dafür den Begriff der Polykontexturalität eingeführt. In einem polykontexturalen Weltzusammenhang sind die transklassischen Maschinen, die in einer Kluft bzw. als das Dritte zwischen Subjekt/Geist oder Objekt/Natur operieren, über eine Vielzahl von Objekten, Qualitäten und Differenzen gestreut. (Neyrat 2011: 165f.) Diese transklassischen Maschinen sind denkbar als Ensembles von Universen, von denen jedes eine gleichwertige Forderung nach Objektivität erheben kann, ohne damit die Forderungen anderer Ensembles abbilden oder gar eliminieren zu müssen. Darin bezeichnet der Begriff der Kontextur ein Kontinuum potenzieller Realität, das mit jeder Quantifizierung seine Gestalt wechselt. Günther spricht daher von der Kontingenz des Objektiven selbst, dessen Differenz keine intelligible Hierarchie vermittelt, mit der Folge, dass wir es in diesen technologischen Feldern weniger mit Klassifikationen oder Taxonomien, sondern mit Entscheidungssituationen und flexiblen Praktiken zu tun bekommen. Hingegen operieren die uns bisher bekannten Computer lediglich autoreferenziell, d. h., sie können den Unterschied zwischen ihren eigenen Operationen und der Umwelt nicht in sich selbst prozessieren.

Frédéric Neyrat führt als eine vierte Ebene des Technischen das sog. Holojekt ein, das im Gegensatz zum Hyperjekt als ein Medium absoluter Anschlussfähigkeit sowohl auf das Subjekt als auch auf das Objekt verweist, auf die Überlagerung von beiden Komponenten, die stets kontinuierlich, instabil und endlos verläuft. (Ebd.: 168f.) Als solches inexistiert das Holojekt, wobei es aber seine Kontinuitätseigenschaften auf das Hyperjekt übertragen und damit diesem Gestalt geben kann, was wir dann schließlich einen organlosen Körper nennen, ein maschinelles Ensemble, das in all seinen Teilen maschinisch ist. Dabei kommt es keineswegs zur Fusionierung von Bereichen (Subjekt/Objekt, Wissen/Ding etc.), vielmehr gilt es hier gemäß der Quantenphysik von Überlagerungen auszugehen, bei denen beispielsweise zwei Wellen ihre Identität beibehalten, wenn sie eine dritte Welle generieren, die allerdings weder eine Synthesis der beiden vorhergehenden Wellen noch deren Zerstörung darstellt, sondern François Laruelle zufolge eine nicht-kommutative Identität anzeigt. Idempotenz, ein Begriff aus der Informatik, inkludiert eine Funktion, die mit sich selbst verknüpft oder durch die Addition weiterer Funktionen unverändert bleibt, sodass die generative Matrix als eine nicht-kommutative Identität durch alle Variationen persistiert, ohne je der Transzendenz zu bedürfen. Der Idempotenz ist das eigen, was das Holojekt laut Neyrat auszeichnet, das »sowohl als auch, als auch, als auch …«, wobei hinsichtlich der Idempotenz vor allem auf die Funktion des »und« abgestellt wird, also auf die Insistenz von konjunktiven Synthesen, und dies führt uns hin zu einer offenen technischen Struktur, in der sich das technische Objekt als ein »Zwischen« je schon mit einer gewissen Verspätung anzeigt sowie als eine unerschöpfliche Reserve des technischen Mediums selbst. In diesem Kontext postuliert McLuhans Formel »Das Medium ist die Botschaft« keine Identität der Terme und ebenso wenig wird die Botschaft zu einem bloßen Effekt technischer Strukturen degradiert, vielmehr klingt im »ist« etwas an, das im Medium als Differenz, Virulenz oder Zerrissenheit wiederkehrt, ohne dass man je stilllegen kann. Die Botschaft des Mediums ereignet sich darin, dass sich die Differenz einem medialen »Zusammen« nur fügt, um als Disparation in ihm wiederzukehren und sich als Differenz zu wiederholen und damit seine bisherigen technischen Modi und Modifikationen zugleich zu unterlaufen. Jean-Luc Nancy spricht an dieser Stelle von einer Ökotechnie der Kreuzungen, Verdrehungen und Spannungen, einer Technik, der das Prinzip der Koordination und der Kontrolle fremd ist, und als Struktion bezeichnet er dieses reine Nebeneinander, diese instabile Zusammenfügung ohne jeden Sinn.

Alexander Galloway hat bezüglich der kybernetischen Situation die Blackbox als einen Apparat definiert, bei dem vornehmlich die Inputs und Outputs bekannt bzw. sichtbar sind, wobei die diversen Interfaces seinen Bezug zum Außen herstellen. Während es bei Marx in der Fetischismus Kritik der Ware noch um die Dechiffrierung der mystischen Hülle ginge, um zum rationalen Kern vorzudringen, sei hingegen bei den heutigen postindustriellen Technologien, die unentwegt die Ware Information hervorbringen, die rein über die Interfaces funktionierende Hülle offen und sichtbar, während gleichzeitig der Kern unsichtbar bleibe. Die interaktiven Interfaces besetzen in den Blackboxes die Oberflächen und gestatten meist nur selektive Durchgänge vom sichtbaren Außen zum undurchsichtigen Innen. Blackboxes fungieren als in Netzwerken integrierte Knotenpunkte, deren externe Konnektivität einer strengen Architektur sowie einem Management unterliegt, das weitgehend im Unsichtbaren bleibt. Laut Vilém Flusser kann der Fotoapparat als exemplarisch für die meisten Apparate und ihre Funktion gelten. Sein Agent beherrscht den Fotoapparat bis zu einem gewissen Maß aufgrund der Kontrolle des Interfaces, also anhand von Input- und Output-Selektionen, jedoch beherrscht der Fotoapparat den Agenten gerade aufgrund der Undurchsichtigkeit des Inneren der Blackbox. Für Simondon wiederum würden sich heute gerade die digitalen Technologien mit ihren visuell attraktiven und »black-boxed« Interfaces als höchst problematisch erweisen. Diese Technologien beziehen ihre Popularität meist aus einer suggestiven Ästhetik der Oberfläche; sie ziehen den User nicht an, weil sie ihm eine Möglichkeit zur Indetermination der Technologie anbieten, zu flexiblen Kopplungen der Maschinen untereinander und mit dem Humanen, wie dies vielleicht Simondon für erachtenswert hält. Simondon hält nämlich daran fest, dass das prinzipielle Movens der technologischen Entwicklung nicht in einer Steigerung der Automation besteht, sondern eher die Emergenz und die Evolution derjenigen offenen Maschinen zu berücksichtigen hat, die für eine gesellschaftliche Regulation empfänglich sind. Bei den Blackboxes haben wir es hingegen mit technologischen Objekten zu tun, die man als Ensembles von lesbaren rationellen Funktionen beschreibt, und dies bezüglich ihrer möglichst reibungslosen Input-Output-Relationen, wobei einerseits ihr Kern unsichtbar bleibt, andererseits ihre dingliche Konstruktion im Diskurs allenfalls als ein eher zu vernachlässigender Referent noch besteht. Simondon fordert uns dagegen dringend auf einen Blick in das Innere der Blackboxes zu werfen.

Darüber hinaus ist das Problem der Konnektivität hinsichtlich der nicht-missionierenden, transmittierenden Maschinen zu beachten, denen eine Pluralität von Verfahren und Effekten eigen ist, und dies zeigt sich als eine Sache von höchster ökonomischer Relevanz an, wenn diese Maschinen entgegen einer eindimensionalen Wirkungskette multiple maschinelle Funktionen und Wirkungen in und mit ihren Komplexen hervorbringen, ja diese Funktionen setzen sogar Sprengungen bisheriger Maschinen frei und stellen damit neue Konjunktionen erst her. »Die Sphären der Produktions- und Energietechnologie, Verkehrs-, Informations- und Humantechnologie geben vage Feldbestimmungen von Maschinen an, in die das Maschinenumwelthafte bereits eingeschrieben ist«, schreibt Hans-Dieter Bahr (Bahr 1983: 277), und im Prinzip lassen sich damit die maschinellen Ensembles und Verfahren als transmittierende Informierungen beschreiben, Informierungen, in die auch natürliche, ökonomische und soziale Strukturen und Prozesse inklusive ihrer Aufschübe, Komplexifizierungen und Schichtenveränderungen eingehen, wobei es längst nicht nur um Kommunikationen, sondern auch um Absorptionen und Filterungen des Informationellen selbst geht, um die Manipulation der Daten qua Algorithmen – und damit wären die jeweiligen Relationen und Programmierungen/Funktionalisierungen auch im Inneren der technischen Objekte selbst zu decodieren, was jedoch die hegemonialen Technikdiskurse geradezu obsessiv zu verhindern wissen. Im Gegensatz zur Verdunkelung des Inneren der Blackboxes plädiert Simondon für einen Diskus, der die vollkommene Transparenz der Maschinen in den Mittelpunkt stellt. Es gilt hier Potenziale und Relationen zu erkennen, die zuweilen in den Maschinen schon kondensiert sind, und die sich dann qua einer funktionalen Überdeterminierung der technischen Objekte konkretisieren. Für Simondon stellen die Maschinen so etwas wie Mediatoren zwischen Natur und Mensch dar, die wir u. a. in den Dikursen über Medien zu erfassen haben. Die Maschine wäre daher, wie Hans-Dieter Bahr das in seiner Schrift Über den Umgang mit Maschinen dargelegt hat, weniger als der Begriff eines Gegenstandes »Maschine«, sondern als eine diskursive Formation zu beschreiben. (Ebd.: 277). Jede (digitale) Maschine wird durch Programmierungen funktionalisiert, wobei sich jedoch sehr schnell zeigt, dass allein mit der Beschreibung und Instandhaltung der konstruktiven Funktionen eine Maschine längst noch nicht »funktionieren« muss, vielmehr sind die vielfältigen Dysfunktionalitäten der Maschinen zu berücksichtigen, die das funktionierende System der Input- und Output-Relationen jederzeit durchkreuzen können, Unfälle, Crashs, Krisen etc. (es kann durchaus vorkommen, dass eine Entschleunigung der Maschinengeschwindigkeit für eine Ökonomie als Ganzes kostensparend ist, man denke etwa an die nicht anfallenden (externen) Klimakosten, obgleich die Entschleunigung für das Einzelkapital Kosten vermehrend wirkt; eine Maschine kann aufgrund der Konkurrenz zwischen den Unternehmen, also unter ökonomischen Gesichtspunkten, durchaus veralten, obwohl sie materialiter noch voll funktionsfähig ist, eine Konstellation, die Marx moralischen Verschleiß nannte). Das Dazwischen der Maschinen bzw. die maschinellen Transmissionen sperren sich ganz gewaltig einer teleologischen Sichtweise: Die Outputs der komplexen Maschinen sind heute weniger denn je Gebrauchsgegenstände, die ja meistens schon weitere Maschineneingaben sind, sondern erzeugen viel stärker Komplexe von Wirkungen inklusive der unbeabsichtigten Nebenwirkungen, womit die Maschinen selbst ins Labyrinthische mutieren und deswegen andauernd neue Programmierungen und Funktionsweisen zur Orientierung und Kontrolle benötigen, um ihre Eingabeselektionen und Outputs instand zu halten, denn funktionieren sollen die Maschinen insbesondere durch die regelgeleitete Zufuhr von Programmen, Stoffen, Informationen und eben durch Steuerung der Input-Output-Relationen.

Mögliche Outputs der Maschinen können Gebrauchswerte, aber eben durchaus auch weitere Dysfunktionalitäten sein, die den kontinuierlichen Betrieb der Maschinen stören – die meisten dieser Outputs sind jedoch Eingaben in andere Maschinen. Maschinen senden also Energie- und Informationsströme aus, die von anderen Maschinen geschnitten oder unterbrochen werden, während die Quellmaschinen der ausgesendeten Ströme ja selbst schon Einschnitte oder Entnahmen aus anderen Strömen vorgenommen haben, die wiederum anderen Quellmaschinen angehören. Jede Aussendung eines Stroms ist also ein Einschnitt in eine andere Aussendung und so weiter und so fort, so sehen es zumindest Deleuze/Guattari im Anti-Ödipus. Gleichzeitig zeichnet sich mit den maschinellen Einschnitten eine doppelte Teilung ab, wobei der Begriff des Einschnitts nicht als Bedeutung aus einem Innen aufsteigt, um sodann ins Innen eines anderen übersetzt oder transportiert zu werden, vielmehr ist in der Mit-teilung des Ein-schnitts etwas angezeigt, das als ein Außen schon »ist«, bspw. ein Netz von maschinellen Serien, die in alle Richtungen fliehen. ( Jede Mit-teilung oder Translation vollzieht sich über einem unausdrücklichen Einschnitt, in den sich das Netz teilt. Diese Teilung bleibt in der Mitteilung zwar unausdrücklich, aber dies nur, weil ein offener Raum eröffnet wird, der es gestattet, dass sich im Prinzip alles mitteilen und ausdrücken lässt. Und diese Teilungen vollziehen sich heute über Interfaces. Gewöhnlicherweise bezeichnet man Interfaces als bedeutende Oberflächen. Eine Erweiterung der Begrifflichkeit findet statt, wenn man sie als Übergange oder Durchgänge konzipiert, als Schwellen, Türen oder Fenster beschreibt oder wenn man sie darüber hinaus im Sinne einer Flexibilisierung der Eingabeselektionen als Felder von Wahlmöglichkeiten versteht, wobei wir dann von einem Intraface sprechen können, das sich als unbestimmte Zone der Translationen von Innen und Außen ausweist. Das Intraface öffnet die maschinellen Gefüge in unbestimmter Weise auf assoziierte Milieus, womit wir es je schon mit offenen Maschinen bzw. Prozessen zu tun bekommen, in welche immer mehrere Intrafaces integriert sind, und zwar als Effekte der Translationen, die funktionieren oder nicht funktionieren, wobei selbst diese Unterscheidung noch fraglich ist, wenn man bedenkt, dass maschinelle Transmissionen ohne vielfältige Nebenwirkungen und Störungen einfach nicht auskommen.

Nun zeichnet sich die kybernetische Hypothese gerade dadurch aus, dass sie das technologische Objekt oder das technische System durch die Summe der Inputs und Outputs definiert, wobei Blackboxes (Computer, Datenobjekte, Interface, Codes) in Permanenz dysfunktionale Inputs zu eliminieren haben. Zu den ungünstigen Inputs zählen u. a. klimatische Verhältnisse, unvollständige Klassifizierungen, Einwirkungen anderer Maschinen, fehlerhafte Programme, Ökonomie, Verschleiß etc., und es liegt an den kybernetischen Maschinen diese Strukturen zu absorbieren und nach eigenen Kriterien zu korrigieren, und diese Transformationen wirken sich wiederum auf die Outputs aus. Wenn Maschinensysteme verschiedene Eingabetypen selektieren und transformieren, dann heißt dies gerade, dass eine Vielzahl von ökonomischen, sozialen, natürlichen, kulturellen, juristischen Funktionen zu ihren Eingaben wie eben auch zu ihren Ausgaben zählen. (Bahr 1983: 281) Hier zeigt sich nun ganz deutlich die disziplinierende Funktion des Rückkoppelungsmodus kybernetischer Regelkreise, der Versuch Outputs so auf Inputs zurückzukoppeln, dass in Zukunft dysfunktionale Inputs ausgeblendet oder eliminiert werden können, oder zumindest funktionalere Selektionen der Eingaben als bisher stattfinden. Die Kybernetik ist also nicht allein nur durch Automatisierung gekennzeichnet, sondern vor allem auch durch den Mechanismus von Eingabeselektionen. Wird nun das humane Element herausgenommen, so spricht man vom Automaten. Dies widerspricht of course einer posthumanen Situation, wie sie sich Gilbert Simondon noch vorgestellt hatte: Wenn Simondons technische Objekte sich individualisieren, dann befinden sie sich stets auch in äußerer Resonanz, wobei die Resonanzen im Dazwischen von technischem Individuum und assoziiertem techno-logischen Milieu insistieren, sie schaffen im Dazwischen eine rekursive Kausalität. Die Kybernetik will aber das Dazwischen ganz ihrem Automatismus oder ihren Eingabeselektionen unterwerfen, wobei man die Identität von Lebewesen und Maschine rein vom Gesichtspunkt des Automaten her denkt, während Simondon die für ihn asymptotische Analogie zwischen Humanem und Maschine aus der Perspektive der je schon auf offene Räume und assoziierte Milieus orientierten Maschinen konzipiert, was wiederum einer gewissen Affirmation nicht-selektionsfähiger Inputs und einer Vielfalt von Strategemen entspricht, die sich selbst als Einschnitte, Teilungen und Durchquerungen der maschinellen Milieus fortschreiben. Technische Objekte sind heute in der Regel in digitale Netzwerke eingebettet, wobei die dazugehörige Architektur der Protokolle ihren Informationsaustausch untereinander regelt, der über eine komplexe Topologie aus Verdichtungen und Verstreuungen wuchert und selbst hieraus würde für Simondon wahrscheinlich noch eine kulturelle Kraft erwachsen. Diese gebraucht nicht die Maschinen, sondern bestätigt, dass die kulturelle Würde gerade in der Anerkennung des reinen Funktionierens der technischen Objekte liegt, womit das Humane erst in einen Dialog mit den technischen Ensembles treten und dieser Dialog zu einer wahren Transindividualität führen kann. Wir sprechen hier generell von Technizität. Werden die Eingabe- und Ausgabeselektionen ausgehend von ihren durchkreuzenden Kontingenzen betrachtet, dann haben wir es nicht mit mehr Automaten, sondern tatsächlich mit offenen Maschinen zu tun – und Konkretisierung heißt dann, die Kontingenz der Funktionen sowie die Abhängigkeit der Elemente voneinander zu würdigen, um ihrer inneren Resonanz gerecht zu werden, was sie zu wahrscheinlichen Maschinen macht, die sich nicht am Ideal der Präzision messen lassen, sondern verschiedene Präzisionsgrade anzeigen, indem sie ihren Verwendungsbereich erweitern, sich auf neue Gebiete ausdehnen, bis sie, wie das im Falle der Computertechnik allerdings auf usurpierende Weise geschehen ist, alle Felder des Sozialen, Kulturellen, Ökonomischen und Technologischen besetzen oder zumindest tangieren. Es ist der Prozess der Disparation zwischen zwei Realitäten, im Sinne von Deleuze die Disparation zwischen Virtuellem und Aktuellem, welche schließlich die Information anders als das Digitale aktiviert und einen Prozess der Individuation in Gang setzt, der aus der Zukunft kommt. Die Information ist weniger auf der homogenen Ebene einer einzigen Realität, sondern mindestens auf zwei oder mehreren disparaten Ebenen angesiedelt, bspw. einer 3-D-Topologie, die unsere posthumane Realität verknotet; es geht um eine Fabrikation der Realität, welche die Vergangenheit und die Zukunft in die Gegenwart faltet, und zwar als eine Individuation der Realität durch Disparation, die in sich selbst Information ist. Wenn die Individuation die Disparation des Virtuellen und Aktuellen umfasst, dann ist die Information immer schon da, schon das Jetzt einer künftigen Gegenwart. Was man Vergangenheit oder Gegenwart nennt, ist also hauptsächlich die Disparation einer immanenten Informationsquelle, die sich immer im Prozess ihrer Auflösung befindet. Für Simondon ist die Vorstellung von der Kapazität oder dem Potenzial eines technischen Objekts eng mit seiner Theorie der Individuation verknüpft. Das individuelle Objekt ist niemals im Voraus gegeben, es muss produziert werden, es muss koagulieren, oder es muss in einem laufenden Prozess Existenz gewinnen. Dabei ist das Präindividuelle kein Stadium, dem es an Identität mangelt, es ist kein undifferenziertes Chaos, sondern eher eine Bedingung, die mehr als eine Einheit oder eine Identität ist, nämlich ein System von höchster Potenzialität bzw. voller Potenziale, ein Exzess oder eine Übersättigung, ein System, das unabhängig vom Denken existiert.

Digitale Netzwerke umspannen heute nicht nur jenen Globus, den sie selbst generieren, sondern sie dringen bis in die sozialen Mikrostrukturen der kapitalistischen Ökonomie vor, deren humane Agenten sie wiederum der permanenten Adressierbarkeit, Online-Anwesenheit und informatorischen Kontrolle unterwerfen. (Lenger 2013) »Online« zu sein wird heute zur hegemonialen Daseinsweise, die permanent mobilisierbare Verfügbarkeit ist Teil einer flexiblen Normalisierung, die die User mit der Ausübung von alltäglichen Wellness-, Kosmetik- und Fitnessprogrammen in toto affirmieren, bis sie im Zuge ihrer permanenten Rekursion mit den Maschinen die Prozesse der Normalisierung schließlich ganz inkorporieren. Im Postskriptum über die Kontrollgesellschaften hatte Deleuze humane Agenten als »Dividuen«, als größtenteils a-physikalische, als endlos teilbare und auf Datenrepräsentation kondensierbare Entitäten beschrieben, die gerade wegen der Effekte von a-humanen Technologien der Kontrolle irgendwann ähnlich wie computerbasierte Systeme agieren. Zum gegenwärtigen Zeitpunkt können wir zumindest davon ausgehen, dass sich eine Homologie zwischen den postfordistischen Managementmethoden, die in heroischen Litaneien nicht-hierarchische Netzwerke, Selbstorganisation, Flexibilität und Innovation propagieren, und den Neurowissenschaften feststellen lässt, die das Gehirn als ein dezentralisiertes Netzwerk von neuronalen Aggregaten beschreiben und eine neurologische Plastizität (Christine Malabou) als Grundlage für kognitive Flexibilität und Adaption hervorheben. Nach Catharine Malabou beeinflussen neuronale und soziale Funktionen einander solange, bis es nicht mehr möglich ist, beide Funktionsweisen noch zu unterscheiden. Zumindest müssen wir von der Möglichkeit ausgehen, dass die menschliche Spezies mit der schnellen Übersetzung ihrer eigenen materiellen Geschichte in Datenströme, vernetzte Konnektivität, künstliche Intelligenz und Satellitenüberwachung tendenziell zu einem Abziehbild des Technologischen gerät. Wenn die Ereignisse – mobile Apps, technologische Geräte, ökonomischen Krisen, digitales Geld, Drohnenkriege etc. – in Lichtgeschwindigkeit prozessieren, dann kommt es definitiv zur Destabilisierung der Bezugssysteme der traditionellen Technodiskurse, deren Definitionen und Hypothesen als brauchbare Indikatoren für das, was die Zukunft eines hyper-beschleunigten Kapitalismus noch bringen könnte, zunehmend ausfallen. Die Verdunklung von klar definierten Grenzen zwischen Körpern und Maschinen, die Interpenetration von menschlicher Wahrnehmung und algorithmischem Code, das aktive Remixen der Bestandteile von Menschen, Tieren, Pflanzen und unbelebten Objekten – all das mündet in der Injektion einer fundamentalen technologischen Drift in das Soziale, Kulturelle und Ökonomische, während aber die Ökonomie und ihre Maschinerien das Technologische nach wie vor determinieren. In die soziale Wirklichkeit implementiert, beinhalten die gegenwärtig wichtigen Signifikanten der technologischen Akzeleration Konzepte wie »Big Data«, »distant reading« und »augmented reality«, mit ihnen schießt das Kapital als Macht die noch an die Schwerkraft gebundenen Worte und Diskurse in den schwerelosen Raum der Regime der Komputation. Es wird in Zukunft noch weitere Abwanderungen in diesen schwerelosen Raum geben, bspw. die der Gedanken in mobile Technologien, und wir werden es gleichzeitig mit einer anwachsenden Volatilität im Bereich der digitalen Finanzökonomie zu tun bekommen, ausgelöst durch Trading-Algorithmen, die auf neuronalen Netzwerken und genetischen Programmierungen basieren, wir werden in die relationalen Netzwerke der Social Media weiter eintauchen und nicht zuletzt wird man uns mit einem komplett distribuierten Gehirn konfrontieren, das durch die Experimente in der Neurotechnologie moduliert wird. Nichts bleibt mehr stabil, alles ist in Bewegung.

1Ein Großteil der Technikgeschichte und -wissenschaften war, wie Simondon feststellt, bis dahin von einem Instrumentalismus beseelt gewesen, dessen restringierende Perspektive die Maschinen entweder als eine Verlängerung bzw. als ein Ersatz der Organe oder als eine Projektion des menschlichen Denkens begriff, und diese Vorstellung basiert auf einem Bild des Denkens, in dem der Einzelne und die Gesellschaft ganz unter dem Gesetz des Mangels stehen.

2 Auch Ernst Bloch hat im Prinzip Hoffnung an dem utopischen Moment des Technischen festgehalten: »Indes ruft nun gerade der Triumph der nicht-euklidischen Praxis, den die Zerstrahlungstechnik darstellt, heilsame Antizipationen aus dem Bild einer nicht mehr verapparatlichten Gesellschaft auf den Plan. Diese konkret utopischen Linien entspringen in der Technik besonders deutlich aus der Aufgabe einer konkreten Subjekt-Objekt-Beziehung.« (Bloch 1979: 777)

Anders, Günther (1980): Die Antiquiertheit des Menschen 2. Über die Zerstörung des Lebens im Zeitalter der dritten industriellen Revolution. München.

  • (2002): Die Antiquiertheit des Menschen 1. Über die Seele im Zeitalter der zweiten industriellen Revolution. München.

Bahr, Hans-Dieter (1983): Über den Umgang mit Maschinen. Tübingen.

Neyrat, Frederic (2011) : In: Hörl, Erich: Die technologische Bedingung. Beiträge zur Beschreibung der technischen Welt. Frankfurt.

Simondon, Gilbert (2012): Die Existenzweise technischer Objekte. Zürich/ Berlin.

Nach oben scrollen