EconoFiction, Lexicon

Gilbert Simondon, Hochfrequenz-Handel und Ökotechnie

By

13 Nov , 2015  

Folgt man der Theorie über die technischen Objekten, wie sie der französische Theoretiker Gilbert Simondon (Simondon 2012) entwickelt hat, und daran anschließend den Aussagen Frédéric Neyrats im Sammelband Die technologische Bedingung (Hörl 2011), so gilt es für die heutigen hypertechnisierten Gesellschaften die je schon gestörte Identität von Natur und Technik (weder gibt es eine totale Integration der Natur in die Technik noch ist die Technik als Ausdruck der Natur zu verstehen) grundlegend neu zu konzipieren, indem man die Maschinen bzw. technischen Objekte, die keineswegs die menschlichen Organe prothesenartig verlängern oder dem Menschen nur als Mittel zum Gebrauch dienen, zunächst in ihrer reinen Funktionsweise affirmiert, sodass sie in ihrer unabschließbaren Supplementarität endlich den Status von kohärenten und zugleich individuierten Systemen erlangen können, deren Lokalisierungen in komplexe Maschinenverbände bzw. Netze eingebettet sind. (Ebd.:37) Günther Anders hatte fast zeitgleich mit Gilbert Simondon von Maschinen als Apparaten gesprochen, allerdings von einer Apparatewelt, die den Unterschied zwischen technischen und gesellschaftlichen Gestaltungen hinfällig und damit generell die Unterscheidung zwischen beiden Bereichen gegenstandslos gemacht habe. (Anders 1980: 110) Jedes einzelne technische Gerät sei, so Günther Anders, in ein Ensemble integriert, sei selbst nur ein Geräte-Teil, ein Teil im System der Geräte – der Apparate -, womit es einerseits die Bedürfnisse anderer Geräte befriedige, andererseits durch seine reine Anwesenheit bei anderen Geräten das Bedürfnis nach neuen Geräten stimuliere. Anders schreibt: »Was von diesen Geräten gilt, gilt mutatis mutandis von allen … Von diesem System der Geräte, diesem Makrogerät, zu behaupten, es sei ein ›Mittel‹, es stehe uns also für freie Zwecksetzung zur Verfügung, wäre vollends sinnlos. Das Gerätesystem ist unsere ›Welt‹. Und ›Welt‹ ist etwas anderes als ›Mittel‹. Etwas kategorial anderes.–« (Anders 2002: 2) Oder um es mit den Begriffen von Simondon zu sagen, wir sollten angesichts unserer postindustriellen Situation von technischen Objekten sprechen, deren Elemente stets Rekursionen bilden und innere Resonanzen zueinander unterhalten, während die Objekte zugleich in äußeren Resonanzen zu anderen technischen Objekten stehen, um als offene Maschinen die ihnen eigene Technizität in Ensembles ausspielen zu können. Zusätzlich entwickeln viele technische Entitäten eine plurale Funktionalität, exekutieren anstatt einer Funktion mehrere Funktionen innerhalb eines Maschinensystems, man denke etwa an den Verbrennungsmotor, dessen Kühlrippen neben der Funktion der Kühlung die der Verstärkung annehmen, wenn sie der Verformung des Zylinderkopfs entgegenwirken. (Vgl. Hörl 2011: 97) Simondon hat sich der zutiefst pessimistischen Sichtweise über die postindustriellen Technologien, wie sie bei Günther Anders zu finden ist, nicht angeschlossen, vielmehr hat Simondon in denjenigen technischen Objekten, die sich der hylemorphistischen Gegenüberstellung von Form und Materie entziehen, wie sie im Arbeitsmodell qua durch Werkzeuge zu formende Materie noch angedacht ist, gerade eine Möglichkeit ausgemacht, dass die Technik sich der Autonomie der Natur annähert, eine Tendenz, die zur dynamischen Geschlossenheit der technischen Objekten selbst führt, indem diese u. a. einen Teil der natürlichen Welt inkoporieren, und dies durch die Herstellung assoziierter Milieus, der Verbindung ihres Inneren (Resonanz verschiedener Teile und Multifuktionalität der Teile) mit dem Außen, mit anderen Objekten, seien es natürliche oder künstliche Objekte. Dabei kann sich das technische Objekt nicht komplett von einem Zuviel an Abstraktion trennen, das gerade das sog. artifzielle, heteronome Objekt auszeichnet, und die Kraft zur Abstraktifizierung schreibt Simondon vor allem dem Menschen als seinem konstitutiven Zutun zur Technik zu, der es damit aber gerade verhindert, dass die technischen Objekte sich in offenen Gefügen konkretisieren und ihre Tendenz zur Autonomie ausspielen können. (Ebd.: 154) Simondon lässt sich jedoch keineswegs von der These verführen, dass in einer postindustriellen Zukunft rigoros alles Lebendige den offenen technischen Ensembles unterstehen müsse, im Gegenteil befürtwortet Simondon ein gesellschaftlches Konzept der technischen Ensembles oder der offenen Maschinenverbände, in denen das Humane mit der »Gesellschaft der technischen Objekte« koexistiert. Wo aber der Mensch zu stark dominierend ins Technische eingreift, haben wir es mit heteronomen artifiziellen Objekten zu tun, wohingegen das technische Objekt zu einer Autonomie zumindest tendiert (es kann die Abstraktion nicht ganz aufgeben), die das natürliche Moment inkludiert, i.e. zur Geschlossenheit und Konsistenz eines maschinellen Systems. Paradoxerweise verhindert für Simondon also gerade das Artifizielle die Technik daran natürlich zu werden. (Ebd.: 154) Abstrakte Künstlichkeit verweist Simondon zufolge immer auf einen Mangel an Technizität, wohingegen das technische Objekt sich in kohärenten Prozessen konkretisieren soll, wobei es gilt jede lokale Operation des technischen Objekts in eine übergreifende Anordnung der maschinellen Ensembles zu integrieren. (Hegel definiert das Konkrete als dasjenige, was das Relationale einschließt, während das Abstrakte ihm eher als einseitig oder isoliert gilt. Die Terme »konkret« und »abstrakt designieren daher keine Typen von Entitäten, wie etwa das Mateielle und Immaterielle, sondern man benutzt sie, um die Art und Weise zu bezeichnen, wie das Denken in Relation zu den Entitäten steht. So kann sich das Abstrakte als das Konkreteste erweisen und das Konkrete als das Abstrakteste. Ein materialistisches Konzept muss erklären können, was die Realität einer begrifflich geformten Abstraktion konstituiert, ohne diese Form zu hypostatisieren. Es muss zeigen können, wie Abstraktionen durch soziale Praktiken behandelt werden, wobei letztere mehr als nur die Materie formende Arbeitsprozesse sind, wenn sie sich letzten Endes in ganz spezifischer Weise neu aufzustellen, das heißt in Relation zu technischen Objekten selbst konkretisieren, wie dies Simondon vorschlägt.) So fungiert das technische Objekt stets in assoziierten Milieus, d.h., es steht mit anderen technischen Objekten in Verbindung oder es genügt sich selbst, und dabei muss es stets die Natur beachten.

Simondos technische Objekte verweisen auf ihre Einbettung in Netz-Strukturen, wobei er die zeitgenössische Ankopplung der technischen Objekte an die digitale, informations- und rechenintensive Ökologie neuer Medien schon in den 1960er Jahren vorausahnt, das Dispositiv digitaler, transformatorischer Technologien inklusive einer durch maschinische Geschwindigkeiten verformten, nichtintentionalen und verteilten Neo-Subjektivität. Fast schon im Gleichklang mit der Kybernetik ist sich Simondon bewusst, dass die Maschine nicht als oder wie ein Werkzeug gebraucht wird, vielmehr wird sie bedient. Technische Objekte sind weder Prothesen des Menschen, noch kann umgekehrt der Mensch als Prothese der Maschinen vollständig aufgelöst werden. Zunächst sollte man die technischen Objekte rein in ihrer Funktionsweise konzipieren, und dies hinsichtlich ihrer erklärbaren Genese, in deren Verlauf sie sich Simondon zufolge zunehmend anhand einer immanenten Evolution konkretisieren (nicht abstraktifizieren), jenseits der Adaption und Zweckmäßigkeit ihres Gebrauchs oder ihrer Festschreibung als Mittel. Jedoch ist das technische Objekt kein eigenständiger kreativer Agent, es bleibt in einen ökonomischen und wissenschaftlichen Kontext eingespannt, und der Prozess seiner Konkretisierung macht die Synergetik geltend, das Zusammenwirken mit anderen funktionalen Subsystemen, indem diese die Funktionalität des technischen Objekts modifizieren und komplettieren. Das Movens der Konkretisierung des technischen Objekts inkludiert die Organisation funktionaler Sub-systeme, in die das technische Objekt eingeschaltet zum technischen Ensemble reift, das wiederum durch umfassende soziale, ökonomische und technische Prozesse und deren Strukturierungen gekennzeichnet ist. Konkretisierung bedeutet zudem die Tendenz zur Innovation, in der eine Reihe von durchaus konfligierenden Erfordernissen durch multifunktionale Lösungen von individuierten technischen Objekten befriedigt werden, indem diese kausale Kreisläufe herstellen, um die jeweiligen Erfordernisse zu integrieren. Technische Elemente (Teile der Maschine), technische Individuen (Maschine als Ganzes) und technische Ensembles (Maschinen als Teil sozialer, technischer und ökonomischer Systeme) stehen je schon in einem dynamischen Verhältnis, das potenziell einen Prozess des technologischen Wandels freisetzt. Dabei wird die Ökonomie jedoch nicht durch die Medien/Maschinen dominiert, vielmehr determiniert das Kapital und seine Ökonomie die technologische Situation.

Die gestörte Identität zwischen Natur und Technik verweist nach Ansicht des französischen Theoretikers Frédéric Neyrat auf das »Hyperjekt«, das die maschinelle Autonomisierung der Technik gegenüber humanen Aktanten sowie die materielle Substitution des Stofflichen durch das Künstliche bezeichnet, ohne dass man allerdings von einer totalen Integration der Natur in die Technik ausgehen muss. (Technik als Ablösung von der Natur, als Substitution von natürlichen Stoffen durch Kunststoffe, und als Ablösung der Technik vom Menschen qua maschineller Autonomisierung. Dabei gilt es davon auszugehen, dass Maschinen und ihre Materialien in einem Verhältnis der Interferenz stehen). Man kann das Hyperjekt als ein gegenüber Subjekt/Geist und Objekt/Natur eigenständiges Substitutions- und Autonomisierungsmilieu (Materialien und Maschinen) des Technischen identifizieren, wobei man bezüglich der Kontextualisierung der beiden Milieus nicht von Vereinigungen, sondern von Überlagerungen sprechen sollte, wenn man über die inneren und äußeren Resonanzen der technischen Objekte nachdenkt.

Die postindustrielle Technik, bspw. das Konzept der transklassischen Maschine bei Gotthard Günther, hält sich im Dazwischen von Natur und Geist auf, weil es gerade aufgrund der Prozesse der doppelten Ablösung verboten ist, die transklassische Maschine rein auf die wissenschaftlich-humane Kreation zu reduzieren, folgt sie doch einer eigenständigen Reflexionslogik. Es geht um die transklassische Maschine, deren wesentliche Funktion darin besteht, Informationen abzuliefern, zu transformieren und zu übersetzen. (Die Information artikuliert den Unterschied, der einen Unterschied macht, so sieht es Gregory Bateson, aber nicht insofern die kleinste Einheit der Information, ein Bit, wie Bateson annimmt, einfach, sondern wie Bernhard Vief in seinem Essay Digitales Geld (Vief 1991) schreibt, zweifach gegeben ist: Bits sind immaterielle, relative Teiler, sie stehen für eine Bewegung der Differentialität, die weder anwesend noch abwesend ist, und damit ist der Binärcode, die binäre Zahlenfolge, als ein Effekt der sie artikulierenden Alternanz positionierbar. Wie Lacan am Beispiel der kybernetischen Maschine gezeigt hat, ist das Artikulierte von derselben Odnung wie die symbolischen Register, wobei die Schalter der Schaltalgebra das Dritte jener Ordnung darstellen: Die Artikulation, die ja selbst weder offen noch geschlossen ist, zeigt die Möglichkeit der rein stellenwertigen Zustände erst an.) Die transklassische Maschine lässt sich weder auf das Objekt noch auf das Subjekt abbilden, vielmehr inhäriert sie eine dreiwertige Logik: Subjekt, Objekt und die transklassische Maschine als Hyperjekt. Das Hyperjekt gehört weder der Natur (Objekt) noch dem Geist (Subjekt) an, und damit untersteht es einer Exteriorität, die allerdings keineswegs als die Auslagerung des Inneren eines Subjekts zu verstehen ist, sondern eine unabhängige »Seinsregion« anzeigt – es beinhaltet eine Dreiwertigkeit, die ihre Unvollständigkeit per se ausweist, weil sie die Gegensätze (Subjekt und Objekt) nicht synthetisiert – im Gegenteil bleiben diese nicht-trivialen Maschinen (Heinz von Foerster) der vollständigen Analyse wie auch der Synthetisierung je schon entzogen. Allerdings muss sich das Konzept technischen Seins an dieser Stelle die Frage gefallen lassen, ob das Mediale technischer Objekte als Weisen der Zerstreuung in offene Räume oder der Zerstreuung des Raumes selbst ontologisch erfasst werden kann. Die Second Order Cybernetics hatte im letzten Jahrhundert eine eigene Konstellation von Begriffen geschaffen (Feedback, Autopoiesis, temporale Irreversibilität, Selbstreferentialität etc.), die längst in mathematische Modelle oder in die Computersimulation eingewandert ist. Zwar löst sich damit das materielle Substrat bzw. die Physikalität, auf denen jene Prozesse aufsitzen, keineswegs auf, aber es regieren hier doch die autonom-immanenten Relationen und Interaktionen einer vielfach gestuften Komplexität, wobei in jedem einzelnen kontingenten Prozess Komplexifikationen stattfinden: Systeme überführen zufällige Ereignisse in Strukturen wie umgekehrt ganz bestimmte Ereignisse Strukturen auch zerstören können, so dass ein Einzelsystem fast in jedem erdenklichen Fall eine kontinuierliche Fluktuation zwischen Desorganisation und Reorganisation wie eben auch zwischen Virtuellem und Aktuellem anzeigt. Gotthard Günther hat vor allem die ontologischen Implikationen dieser Wissensformen darzustellen versucht und dafür den Begriff der Polykontexturalität eingeführt. In einem polykontexturalen Weltzusammenhang sind die transklassischen Maschinen, die in einer Kuft bzw. als das Dritte zwischen Subjekt/Geist oder Objekt/Natur operieren, über eine Vielzahl von Objekten, Qualitäten und Differenzen gestreut. (Ebd.: 165f.) Diese transklassischen Maschinen sind denkbar als Ensembles von Universen, von denen jedes eine gleichwertige Forderung nach Objektivität erheben kann, ohne damit die Forderungen anderer Ensembles abbilden oder gar eliminieren zu müssen. Darin bezeichnet der Begriff der Kontextur ein Kontinuum potenzieller Realität, das mit jeder Quantifizierung seine Gestalt wechselt. Günther spricht daher von der Kontingenz des Objektiven selbst, dessen Differenz keine intelligible Hierarchie vermittelt, mit der Folge, dass wir es in diesen technologischen Feldern weniger mit Klassifikationen oder Taxonomien, sondern mit Entscheidungssituationen und flexiblen Praktiken zu tun bekommen. Hingegen operieren die uns bisher bekannten Computer lediglich autoreferentiell, das heisst sie können den Unterschied zwischen ihren eigenen Operationen und der Umwelt nicht in sich selbst prozessieren.

Frédéric Neyrat führt als eine vierte Ebene des Technischen das sog. Holojekt ein, das im Gegensatz zum Hyperjekt als ein Medium absoluter Anschlussfähigkeit sowohl auf das Subjekt als auch auf das Objekt verweist, auf die Überlagerung von beiden Komponenten, die stets kontinuierlich, instabil und endlos verläuft. (Ebd.: 168f.) Als solches inexistiert das Holojekt, wobei es aber seine Kontinuitätseigenschaften auf das Hyperjekt übertragen und damit diesem Gestalt geben kann, was wir dann schließlich einen organlosen Körper nennen, ein maschinelles Ensemble, das in all seinen Teilen maschinisch ist. Dabei kommt es keineswegs zur Fusionierung von Bereichen (Subjekt/Objekt, Wissen/Ding etc.), vielmehr gibt es hier gemäß der Quantenphysik Überlagerungen, bei denen beispielweise zwei Wellen ihre Identität beibehalten, wenn sie eine dritte Welle generieren, die allerdings weder eine Synthesis der beiden vorhergehenden Wellen noch deren Zerstörung darstellt, sondern François Laruelle zufolge eine nicht-kommutative Identität anzeigt. Das Konzept der Idempotenz, ein Begriff aus der Informatik, inkludiert eine Funktion, die mit sich selbst verknüpft oder durch die Addition weiterer Funktionen unverändert bleibt, sodass die generative Matrix als eine nicht-kommutative Identität durch alle Variationen persistiert, ohne je der Transzendenz zu bedürfen. Der Idempotenz ist das eigen, was das Holojekt laut Neyrat auszeichnet, das »sowohl als auch, als auch, als auch …«, wobei hinsichtlich der Idempotenz vor allem die Funktion des »und« abgestellt wird, also auf die Insistenz von konjunktiven Synthesen, und dies führt uns hin zu einer offenen technischen Struktur, in der sich das technische Objekt als ein »Zwischen« je schon mit einer gewissen Verspätung anzeigt sowie als eine unerschöpfliche Reserve des technischen Mediums selbst. In diesem Kontext postuliert Mc Luhans Formel »Das Medium ist die Botschaft« keine Idenität der Terme und ebenso wenig wird die Botschaft zu einem bloßen Effekt technischer Strukturen degradiert, vielmehr klingt im »ist« etwas an, das im Medium als Differenz, Virulenz oder Zerrissenheit wiederkehrt, ohne je stillgelegt zu werden. (Vgl. Lenger 2013) Die Botschaft des Mediums ereignet sich darin, dass sich die Differenz einem medialen »Zusammen« nur fügt, um als Disparation in ihm wiederzukehren und sich als Differenz zu wiederholen und damit seine bisherigen technischen Modi und Modifikationen zugleich zu unterlaufen. Jean-luc Nancy spricht an dieser Stelle von einer Ökotechnie der Kreuzungen, Verdrehungen und Spannungen, einer Technik, der das Prinzip der Koordination und der Kontrolle fremd ist, und als Struktion bezeichnet er dieses reine Nebeneinander, diese instabile Zusammenfügung ohne jeden Sinn. (Vgl. Hörl 2011: 61)

Alexander Galloway hat bezüglich der kybernetischen Situation die Black Box als einen Apparat definiert, bei dem vornehmlich die Inputs und Outputs bekannt bzw. sichtbar sind, wobei die diversen Interfaces seinen Bezug zum Außen herstellen. Während es in der Fetischismus Kritik der Ware bei Marx noch um die Dechiffrierung der mystischen Hülle ginge, um zum rationalen Kern vorzudringen, sei hingegen bei den heutigen postindustriellen Technologien, die unentwegt neue Waren wie Information hervorbringen, eine rein über Interfaces funktionierende Hülle offen und sichtbar, während gleichzeitig der Kern unsichtbar sei. (Ebd. 269) Die interaktiven Interfaces besetzen in den Black Boxes die Oberflächen und gestatten meist nur selektive Durchgänge vom sichtbaren Außen zum undurchsichtigen Innen. Black Boxes fungieren als in Netzwerken integrierte Knotenpunkte, deren externe Konnektivität einer Architektur sowie einem Management unterliegt, das weitgehend im Unsichtbaren bleibt. Laut Vilém Flusser kann der Fotoapparat als exemplarisch für die meisten Apparate und ihre Funktion gelten. Sein Agent beherrscht den Fotoapparat bis zu einem gewissen Maß aufgrund der Kontrolle des Interfaces, also anhand von Input- und Output-Selektionen, jedoch beherrscht der Fotoapparat den Agenten gerade aufgrund der Undurchsichtigkeit des Inneren der Black Box. Für Simondon würden sich heute gerade die digitalen Technologien mit ihren visuell attraktiven und »black-boxed« Interfaces als höcht problematisch erweisen. Diese Technologien beziehen ihre Popularität meist aus einer suggestiven Ästhetik der Oberfläche, und sie ziehen den User nicht an, weil sie ihm etwa eine befreiende Möglichkeit zur Indetermination der Technologie anbieten, zu flexiblen Kopplungen der Maschinen untereinander und mit dem Humanen, wie dies vielleicht Simondon für erachtenswert hält. Simondon hält nämlich daran fest, dass das prinzipielle Movens der technologischen Entwicklung nicht in einer Steigerung der Automation besteht, sondern eher die Emergenz und die Evolution derjenigen offenen Maschinen zu berücksichtigen hat, die für eine gesellschaftliche Regulation empfänglich sind. Bei den Black Boxes haben wir es hingegen mit technologischen Objekten zu tun, die man als Ensembles von lesbaren rationellen Funktionen beschreibt, und dies bezüglich ihrer möglichst reibungslos zu verlaufenden Input-Output-Relationen, wobei einerseits ihr Kern unlesbar bleibt, andereseits ihre dingliche Konstruktion im Diskurs allenfalls als ein eher zu vernachlässigender Referent noch besteht. Simondon fordert uns dagegen auf einen Blick in das Innere der Black Boxes zu werfen.

Darüber hinaus ist das Problem der Konnektivität hinsichtlich des Aspekts nicht-missionierender, transmittierender Maschinen zu beachten, denen eine Pluralität von Verfahren und Effekten eigen ist, und dies zeigt sich als eine Sache von höchster ökonomischer Relevanz an, wenn diese Maschinen dann entgegen einer eindimensionalen Wirkungskette multiple maschinelle Funktionen und Wirkungen in und mit ihren Komplexen hervorbringen, ja diese Funktionen setzen sogar Sprengungen bisheriger Maschinen frei und stellen damit neue Konjunktionen erst her. »Die Sphären der Produktions- und Energietechnologie, Verkehrs-, Informations- und Humantechnologie geben vage Feldbestimmungen von Maschinen an, in die das Maschinenumwelthafte bereits eingeschrieben ist«, schreibt Hans-Dieter Bahr (Bahr 1983: 277), und im Prinzip lassen sich damit die maschinellen Ensembles und Verfahren als transmittierende Informierungen beschreiben, Informierungen, in die auch natürliche, ökonomische und soziale Strukturen und Prozesse inklusive ihrer Aufschübe, Komplexifizierungen und Schichtenveränderungen eingehen, wobei es längst nicht nur um Kommunikationen, sondern auch um Absorptionen und Filterungen des Informationellen selbst geht, um die Manipulation der Daten qua Algorithmen – und damit wären die jeweiligen Relationen und Programmierungen/Funktionalisierungen auch im Inneren der technischen Objekte selbst zu decodieren, was jedoch die hegemonialen Technik-Diskurse geradezu verhindern. Im Gegensatz zur Verdunkelung des Inneren der Black Boxes plädiert Simondon für einen Diskus, der die vollkommene Transparenz der Maschinen in den Mittelpunkt stellt. Es gilt hier Potenziale und Relationen zu erkennen, die zuweilen in den Maschinen schon kondensiert sind, und die sich dann qua einer funktionalen Überdeterminierung der technischen Objekte konkretisieren. Für Simondon stellen die Maschinen so etwas wie Mediatoren zwischen Natur und Mensch dar, die wir u. a. in den Dikursen über Medien zu erfassen haben. Die Maschine wäre daher, wie Hans-Dieter Bahr das in seiner Schrift Über den Umgang mit Maschinen dargelegt hat, weniger als der Begriff eines Gegenstandes »Maschine«, sondern als eine diskursive Formation zu beschreiben. (Ebd.: 277). Jede (digitale) Maschine wird durch Programmierungen funktionalisiert, wobei sich jedoch sehr schnell zeigt, dass allein mit der Beschreibung und Instandhaltung der konstruktiven Funktionen eine Maschine längst noch nicht »funktionieren« muss, vielmehr sind die vielfältigen Dysfunktionalitäten der Maschinen zu berücksichtigen, die das funktionierende System der Input- und Output-Relationen jederzeit durchkreuzen können, Unfalle, Crashs, Krisen etc. (es kann durchaus vorkommen, dass eine Entschleunigung der Maschinengeschwindigkeit für eine Ökonomie als Ganzes kostensparend ist, man denke etwa an die nicht anfallenden (externen) Klimakosten, obgleich die Entschleunigung für das Einzelkapital kostenvermehrend wirkt; eine Maschine kann aufgrund der Konkurrenz zwischen den Unternehmen, also unter ökonomischen Gesichtspunkten durchaus veralten, obwohl sie materialiter noch voll funktionsfähig ist, eine Konstellation, die Marx moralischen Verschleiß nannte). Das Dazwischen der Maschinen bzw. die maschinellen Transmissionen sperren sich ganz gewaltig einer teleologischen Sichtweise: Die Outputs der komplexen Maschinen sind heute weniger denn je Gebrauchsgegenstände, die ja meistens schon weitere Maschineneingaben sind, sondern erzeugen viel stärker Komplexe von Wirkungen inklusive der unbeabsichtigen Nebenwirkungen, womit die Maschinen selbst ins Labyrinthische mutieren und deswegen andauernd neue Programmierungen und Funktionsweisen zur Orientierung und Kontrolle benötigen, um ihre Eingabeselektionen und Outputs instand zu halten, denn funktionieren sollen die Maschinen durch die Zufuhr von Programmen, Stoffen, Informationen und eben durch Steuerung der Input-Output-Relationen.

Mögliche Outputs der Maschinen können Gebrauchswerte, aber eben durchaus auch weitere Dysfunktionalitäten sein, die den kontinuierlichen Betrieb stören – die meisten dieser Outputs sind jedoch Eingaben in andere Maschinen. Maschinen senden also Energie- und Informationsströme aus, die von anderen Maschinen geschnitten oder unterbrochen werden, während die Quellmaschinen der ausgesendeten Ströme ja selbst schon Einschnitte oder Entnahmen aus anderen Strömen vorgenommen haben, die wiederum anderen Quellmaschine angehören. Jede Aussendung eines Stroms ist also ein Einschnitt in eine andere Aussendung und so weiter und so fort, so sehen es zumindet Deleuze/Guattari im Anti-Ödipus. (Deleuze/Guattari 1974: 11f.) Gleichzeitig zeichnet sich mit den maschinellen Einschnitten eine doppelte Teilung ab, wobei der Begriff des Einschnitts nicht als Bedeutung aus einem Innen aufsteigt, um sodann ins Innen eines anderen übersetzt oder transportiert zu werden, vielmehr ist in der Mit-teilung des Ein-schnitts etwas angezeigt, das als ein Außen schon »ist«, bspw. ein Netz von maschinellen Serien, die in alle Richtungen fliehen. (Lenger 2013) Jede Mit-teilung oder Translation vollzieht sich über einem unausdrücklichen Einschnitt, in den sich das Netz teilt. Diese Teilung bleibt in der Mitteilung zwar unausdrücklich, aber dies nur, weil ein offener Raum eröffnet wird, der es gestattet, dass sich im Prinzip alles mitteilen und ausdrücken lässt. Und diese Teilungen vollziehen sich heute über Interfaces. Gewöhnlicherweise bezeichnet man Interfaces als bedeutende Oberflächen. Eine Erweiterung der Begrifflichkeit findet statt, wenn man sie als Übergange oder Durchgänge konzipiert, als Schwellen, Türen oder Fenster beschreibt oder man sie darüber hinaus im Sinne einer Flexiblisierung der Eingabselektionen als Felder von Wahlmöglichkeiten versteht, wobei wir dann von einem Intraface sprechen können, das sich als unbestimmte Zone der Translationen von Innen und Außen ausweist. (Vgl. Galloway 2012) Das Intraface öffnet die maschinellen Gefüge in unbestimmter Weise auf assoziierte Milieus, womit wir es je schon mit offenen Maschinen bzw. Prozessen zu tun bekommen, in welche immer mehrere Intrafaces integriert sind, und zwar als Effekte der Translationen, die funktionieren oder nicht funktionieren, wobei selbst diese binäre Unterscheidung noch fraglich ist, wenn man bedenkt, dass maschinelle Transmissionen ohne Nebenwirkungen und Störungen einfach nicht auskommen.

Nun zeichnet sich die kybernetische Hypothese gerade dadurch aus, dass sie das technologische Objekt oder das technische System durch die Summe der Inputs und Outputs definiert, wobei Black Boxes (Computer, Datenobjekte, Interface, Codes) in Permanenz dysfunktionale Inputs zu eliminieren haben. Zu den ungünstigen Inputs zählen u. a. klimatische Verhältnisse, unvollständige Klassifizierungen, Einwirkungen anderer Maschinen, fehlerhafte Programme, Verschleiß und es liegt an den kybernetischen Maschinen diese Strukturen zu absorbieren und nach eigenen Kriterien zu korrigieren, und diese Transformationen wirken sich wiederum auf die Outputs aus. Wenn Maschinensysteme verschiedene Eingabetypen selektieren und transformieren, dann heißt dies gerade, dass eine Vielzahl von ökonomischen, sozialen, natürlichen, kulturellen, juristischen Funktionen zu ihren Eingaben wie eben auch zu ihren Ausgaben zählen. (Bahr 1983: 281) Hier zeigt sich nun ganz deutlich die disziplinierende Funktion des Rückkoppelungsmodus kybernetischer Regelkreise, der Versuch Outputs so auf Inputs zurückzukoppeln, dass in Zukunft dysfunktionale Inputs ausgeblendet oder eliminiert werden können, oder zumindest funktionalere Selektionen der Eingaben als bisher stattinden. Die Kybernetik ist also nicht nur durch Automatisierung gekennzeichnet, sondern vor allem auch durch den Mechanismus von Eingabeselektionen. Wird nun das humane Element herausselektiert, so spricht man vom Automaten. Dies widerspricht of course einer posthumanen Situation, wie sie sich Gilbert Simondon noch vorgestellt hatte: Wenn technische Objekte sich individualisieren, dann befinden sie sich stets auch in äußerer Resonanz, wobei die Resonanzen im Dazwischen von technischem Individuum und assoziiertem techno-logischen Milieu insistieren, sie schaffen im Dazwischen eine reskursive Kausalität. Die Kybernetik will aber das Dazwischen ganz seinem Automatismus oder seinen Eingabeselektionen unterwerfen, wobei man die Identität von Lebewesen und Maschine rein vom Gesichtspunkt des Automaten her denkt, während Simondon diese für ihn asymptotische Analogie zwischen Humanem und Maschine aus der Perspektive der je schon auf offene Räume und assoziierte Milieus hin orientierten Maschinen konzipiert, was wiederum einer gewissen Affirmation nicht-selektionsfähiger Inputs und einer Vielfalt von Strategemen entspricht, die sich selbst als Einschnitte, Teilungen und Durchquerungen der maschinellen Milieus fortschreiben. Maschinen als Medien konfigurieren Zwischenwelten, insofern sie eine Vermittlung ohne Extreme oder Pole anzeigen, da die Pole (Inputs und Outputs) sich eben oft als weitere Strategeme erweisen. Technologische Objekte sind heute in der Regel in digitale Netzwerke eingebettet, wobei die dazugehörige Architekur der Protokolle ihren Informationsaustausch untereinander regelt, der also über eine komplexe Topologie aus Verdichtungen und Verstreuungen wuchert und selbst hieraus würde für Simondon wahrscheinlich noch eine kulturelle Kraft erwachsen. Diese gebraucht nicht die Maschinen, sondern bestätigt, dass die kulturelle Würde gerade in der Anerkennung des reinen Funktionierens der technischen Objekte liegt, womit das Humane erst in einen Dialog mit den technischen Ensembles treten und dieser Dialog zu einer wahren Transindividualität führen kann. Wir sprechen hier generell von Technizität. Werden die Eingabe- und Ausgabeselektionen ausgehend von ihren durchkreuzenden Kontingenzen betrachtet, dann haben wir es nicht mit mehr Automaten, sondern tatsächlich mit offenen Maschinen zu tun – und Konkretisierung heißt dann, die Kontingenz der Funktionen sowie die Abhängigkeit der Elemente voneinander zu würdigen, um ihrer inneren Resonanz gerecht zu werden, was sie zu wahrscheinlichen Maschinen macht, die sich nicht am Ideal der Präzision messen lassen, sondern verschiedene Präzisionsgrade anzeigen, indem sie ihren Verwendungsbereich erweitern, sich auf neue Gebiete ausdehnen, bis sie, wie das im Falle der Computertechnik allerdings auf usurpierende Weise geschehen ist, alle Felder des Sozialen, Kulturellen, Ökonomischen und Technologischen besetzen oder zumindest tangieren. Es ist der Prozess der Disparation zwischen zwei Realitäten, im Sinne von Deleuze die Disparation zwischen Virtuellem und Aktuellem, welche schließlich die Information anders als das Digitale aktiviert und einen Prozess der Individuation in Gang setzt, der aus der Zukunft kommt. Die Information ist weniger auf der homogenen Ebene einer einzigen Realität, sondern mindestens auf zwei oder mehreren disparaten Ebenen angesiedelt, bspw. einer 3D-Topologie, die unsere posthumane Realität verknotet; es geht um eine Fabrikation der Realität, welche die Vergangenheit und die Zukunft in die Gegenwart faltet, und zwar als eine Individuation der Realität durch Disparation, die in sich selbst Information ist. Wenn die Individuation die Disparation des Virtuellen und Aktuellen umfasst, dann ist die Information immer schon da, schon das Jetzt einer künftigen Gegenwart. Was man Vergangenheit oder Gegenwart nennt, ist also hauptsächlich die Disparation einer immanenten Informationsquelle, die sich immer im Prozess ihrer Auflösung befindet. Für Simondon ist die Vorstellung von der Kapazität oder dem Potenzial eines technischen Objekts eng mit seiner Theorie der Individuation verknüpft. Das individuelle Objekt ist niemals im Voraus gegeben, es muss produziert werden, es muss koagulieren, oder es muss in einem laufenden Prozess Existenz gewinnen. Dabei ist das Präindividuelle kein Stadium, dem es an Identität mangelt, es ist kein undifferenziertes Chaos, sondern eher eine Bedingung, die mehr als eine Einheit oder eine Identität ist, nämlich ein System von höchster Potenzialität bzw. voller Potenziale, ein Exzess oder eine Übersättigung, ein System, das unabhängig vom Denken existiert.

Digitale Netzwerke umspannen heute nicht nur jenen Globus, den sie selbst generieren, sondern sie dringen bis in die sozialen Mikrostrukturen der kapitalistischen Ökonomie vor, deren humane Agenten sie wiederum der permanenten Adressierbarkeit, Online-Anwesenheit und informatorischen Kontrolle unterwerfen. (Lenger 2013) »Online« zu sein kondensiert heute zur hegemonialen Lebensform, ständig mobilisierbare Verfügbarkeit ist Teil einer flexiblen Normalisierung, die die User in toto mit der Ausübung von alltäglichen Wellness-, Kosmetik- und Fitnessprogrammen affirmieren, bis sie im Zuge ihrer permanenten Rekursion mit den Maschinen die Prozesse der Normalisierung schließlich ganz inkorporieren. Im Postskriptum über die Kontrollgesellschaften hatte Deleuze humane Agenten als »Dividuen«, als größtenteils a-physikalische, als endlos teilbare und auf Datenrepäsentation kondensierbare Entitäten beschrieben, die gerade wegen der Effekte von a-humanen Technologien der Kontrolle irgendwann ähnlich wie computer-basierte Systeme agieren. Zum gegenwärtigen Zeitpunkt können wir davon ausgehen, dass sich eine Homologie zwischen den postfordistischen Mangementmethoden, die in heroischen Litaneien nicht-hierarchische Netzwerke, Selbstorganisation, Flexibilität und Innovation propagieren, und den Neurowissenschaften feststellen lässt, die das Gehirn als ein dezentralisiertes Netzwerk von neuronalen Aggregaten beschreiben und eine neurologische Plastizität (Christine Malabou) als Grundlage für kognitive Flexibilität und Adaption hervorheben. Nach Catharine Malabou beeinflussen neuronale und soziale Funktionen einander solange, bis es nicht mehr möglich ist, sie noch zu unterscheiden. Zumindest gibt es die Möglichkeit, dass die menschliche Species mit der schnellen Übersetzung ihrer eigenen materiellen Geschichte in Datenströme, vernetzte Konnektivität, künstliche Intelligenz und Satellitenüberwachung tendenziell zu einem Abziehbild des Technologischen gerät. Wenn die Ereignisse – mobile Apps, technologische Geräte, ökonomischen Krisen, digitales Geld, Drohnenkriege etc. – in Lichtgeschwindigkeit prozessieren, dann kommt es definitiv zur Destabilisierung der Bezugssysteme der traditionellen Techno-Diskurse, deren Definitionen und Hypothesen als brauchbare Indikatoren für das, was die Zukunft eines hyper-beschleunigten Kapitalismus noch bringen könnte, zunehmend ausfallen. Die Verdunklung von klar definierten Grenzen zwischen Körpern und Maschinen, die Interpenetration von menschlicher Wahrnehmung und algorithmischem Code, das aktive Remixen der Ränder von Menschen, Tieren, Pflanzen und unbelebten Objekten – all das mündet in der Injektion eines fundamentalen technologischen Drifts in das Soziale, Kulturelle und Ökonomische, während aber die Ökonomie und ihre Maschinerien das Technologische nach wie vor determinieren. In die soziale Wirklichkeit implementiert beinhalten die wichtigen Signifikanten der technologischen Akzeleration heute Konzepte wie »Big Data«, »distant reading« und »augmented reality«, sie schließen die noch an die Schwerkraft gebundenen Worte und das Kapital als Macht in den schwerelosen Raum der Regime der Komputation. Es wird in Zukunft noch weitere Abwanderungen in diesen schwerelosen Raum geben, bspw. die der Gedanken in mobile Technologien, und wir werden es gleichzeitig mit einer anwachsenden Volatilität im Bereich der digitalen Finanz-Ökonomie zu tun bekommen, ausgelöst durch Trading-Algorithmen, die auf neuronalen Netzwerken und genetischen Programmierungen basieren, wir werden in die relationalen Netzwerke der Social Media ganz eintauchen, und nicht zuletzt wird man uns mit einem komplett distributierten Gehirn konfrontieren, das die Experimente in der Neurotechnologie modulieren. Nichts bleibt mehr stabil, alles ist in Bewegung.

 

Kommen wir nun zu den gegenwärtigen Maschinenensembles und ihren Umgebungen, zu den digitalen Netzwerken und ihren komplexen Ökologien des Materiellen und des Ökonomischen, in welche der Hochfrequenz-Handel (HFH) integriert ist. Die digitalen Technologien haben längst das gesamte finanzielle System durchdrungen – mit dem HFH hebt die fluide, planetarische Bewegung des finanziellen Kapitals, der ein Drive zur Gewalt der reinen Marktabstraktion eigen ist sowie zur Substitution der materiellen Erfahrung durch die diversen Modelle der Computersimulation, ganz leicht von der Produktion und von den Ordnungen des Konsums ab, um sich in einem geschlossenen, selbstreferentiellen, semiotischen System fortzuschreiben, das die Kalibrierung und Rekalibrierung der Maschine-Maschine-Relationen permanent forciert. Der Prozess der Dezimalisierung (das Auspreisen der Assets qua Dezimalzahl und nicht länger durch Brüche), der an den Finanzmärkten sich selbst beschleunigend etwa seit dem Jahr 2000 ins Rollen gekommen ist und den Spread zwischen den Kaufs- und Verkaufspreisen immer weiter reduziert hat, reflektiert und befeuert die Notwendigkeit immer höhere und zeitintensivere Transaktionssummen an den Finanzmärkten zu bewegen, damit die immer geringer ausfallenden Spreads überhaupt noch kompensiert werden können. Dabei halten die Händler die Positionen der jeweiligen Deals nur noch äußerst minimale Zeitspannen, wobei sie auch nur geringe Spreads realisieren, sodass sich die hohen Gewinne eben allein aus der Menge und der Geschwindigkeit von Transaktionen ergeben. Mit dem sog. direkten Handel, der es vor allem den großen institutionellen Investoren erlaubt, zwischen sich und dem jeweiligen Handelspartner sämtliche Mediatoren (inklusive der Börse) zu umgehen, sowie der Existenz von fast vollkommen automatisierten Infrastrukturen wird es für die Finanzunternehmen immer dringender auf die neuesten technologischen Innovationen zuzugreifen, um sie im Sinne einer akzelerativen Dynamik zu bewirtschaften, zu kontrollieren und wenn überhaupt noch möglich auch zu steuern. So infiltriert im gegenwärtigen HFH die digitale Automatisierung fast jeden Aspekt des Tradingprozesses, von der Analyse über die Ausführung des jeweiligen Geschäfts bis hin zu den Backend-Prozessen, wobei sämtliche Komponenten durch Algorithmen gesteuert werden. Ein HFH-System muss das Fine-Tuning jeder Programmierung sowie das der Speicherkapazitäten leisten, die Manipulation individueller Datenpunkte und -pakete, die Erfassung von Datenbanken und die Selektion der Inputs etc.. Es lässt sich also an den Finanzmärkten eindeutig eine Tendenz zur Hegemonialisierung der Automation feststellen. (Marx hatte zumindest ansatzweise in den Grundrissen die Automation als einen Prozess der Absorption der allgemeinen Produktivkräfte – Teil des sozialen Hirns – in die Maschine bzw. das capital fixe beschrieben, wozu auch das Wissen und die technologischen Fähigkeiten der Arbeitenden gehört (Marx 1974: 603), die nun eher der Logik des Kapitals folgen als dass sie noch Ausdruck der sozialen Arbeit sind.) Wenn man sich die Historie der Relation Kapital und Technologie vergegenwärtigt, dann erscheint es ganz offensichtlich, dass sich die Automation vom thermomechanischen Modell des klassischen Industriekapitalismus entfernt und sich in die elektronisch-berechnenden Netzwerke des zeitgenössischen Kapitalismus integriert hat. Die digitale Automation prozessiert heute en detail das soziale Nervensystem und das soziale Hirn, sie umfasst die Potenziale des Virtuellen, des Simulativen und des Abstrakten, des Feedback und der autonomen Prozesse, sie entfaltet sich in Netzwerken und dessen elektronischen und nervlichen Verbindungen, in denen der Bediener/User als quasi-automatisches Relais der pausenlos fließenden Informationsströme fungiert.

Algorithmen müssen im Kontext dieses neuen Modus der Automation diskutiert werden. Gewöhnlich definiert man den Algorithmus als eine Handlungsvorschrift, mit der ein Problem gelöst wird, und dies geschieht in einer Sequenz von endlichen, wohledefinierten Schritten oder Instruktionen, in Sets von geordneten Schritten, die mit Daten und berechenbaren Strukturen operieren, welche in Computerprogramme implementiert sind. Als solcher ist der Algorithmus eine Abstraktion, seine Existenz ist in die partikulare Programmsprache einer partikularen maschinellen Architektur integriert, die wiederum aus Hardware, Daten, Körpern und Entscheidungen besteht. Dabei verarbeiten die derzeit existierenden Algorithmen immer größere Datenmengen und prozessieren damit eine wachsende Entropie von Datenströmen (Big Data), sie generieren weit mehr als nur Instruktionen, die ausgeführt werden müssen, nämlich potenziell unendliche Mengen an Daten und Informationen, die wiederum mit anderen Algorithmen interferieren, um die diversen algorithmischen Prozesse zu reprogrammieren. Aus der ökonomischen Perspektive betrachtet handelt es sich bei den Algorithmen um eine Form des fixen Kapitals, in das soziales Wissen (extrahiert aus der Arbeit von Mathematikern, Programmierern, aber auch User-Aktivitäten) vergegenständlicht ist, wobei diese Form des fixen Kapitals nicht an sich verwertbar ist, sondern nur insoweit es in die monetäre Kapitalisierung hineingezogen wird, wobei es diese auch weiter antreiben und forcieren kann. Jedenfalls sind Algorithmen nicht als bloße Tools zu verstehen, sondern man sollte endlich begreifen, dass sie aktiv in die Analyse und das Processing der Datenströme eingreifen, um diese in ökonomisch relevante Informationen zu übersetzen und auch zu verwerten bzw. selbstreferentiell die jeweiligen Orders an den Finanzmärkten zu generieren und erfolgreich abzuschließen. Das heißt, der weitaus größere Anteil der finanziellen Transaktionen im Hochfrequenz-Handel läuft heute über eine reine Maschine-Maschine-Kommunikation, die die humanen Aktanten nicht mehr zu beobachten in der Lage sind, weil die Daten- und Informationsströme in a-humanen Hochgeschwindigkeiten über unsichtbare Apparaturen fließen und noch die Unterscheidung zwischen Maschine, Körper und Bild verflüssigen. (Vgl. Wilkins/Dragos 2013) Zwar variiert die Zusammensetzung bzw. Komposition von humanen und ahumanen Entitäten, wie eben auch in den verschiedenen HFH-Systemen, aber im Extremfall eliminieren einige der Finanzunternehmen fast jede menschliche Intervention in die automatisiert ablaufenden Transaktionen, sodass die von den Maschinen selbstreferentiell gelesenen Daten kontinuierlich in die die Prozesse steuernden Algorithmen ein- und zurückfließen, womit die Handelsentscheidungen weitgehend automatisiert ablaufen können. Jede menschliche Intervention kompliziert hingegen selbst diejenigen finanziellen Prozesse, in denen spezielle Fehler und Probleme entstanden sind. Zum Teil implementiert man schon heute die Algorithmen physisch in die Silikonchips: Die Vereinigung von Hardware und Software. Die zeitgenössische finanzielle Ökonomie wird in der Sektion HFH-Systeme also weitgehend unsichtbar durch Algorithmen gestaltet – bspw. scannen bestimmte Programme die Finanzmärkte permanent daraufhin ab, ob die von Algorithmen fixierten Indikatoren bestimmte Levels erreichen, die dann als Kauf- oder Verkaufssignale wirksam werden. Es gibt aktuelle Versionen von Algorithmen wie die »volume-weighted average price Algorithmen« (VWAP), die in Verbindung mit ökonometrischen Verfahren komplexe Randomness-Funktionen generieren, um die Größe und die Ausführungszeiten von monetären Transaktionen im Kontext globaler Handelsvolumina zu optimieren. (Ebd.) Wir haben es mit weiteren Typen von Algorithmen zu tun, die versuchen solche Transaktionen zu identifizieren und zu antizipieren, oder es gibt non-adaptive, low-latency-Algorithmen, die sowohl die Differentiale der Übertragungsgeschwindigkeiten in den globalen Finanznetzwerken »bearbeiten« als auch die korrelierenden materiellen Transformationen, die jene informationellen Relationen ermöglichen. Man setzt genetische Algorithmen ein, um die möglichen Kombinationen von Preisfluktuationen der Finanzderivate und -instrumente zu optimieren und das optimale Finetuning eines jeden Parameters innerhalb eines finanziellen Systems zu gewährleisten. (Ebd.) Die Implementierung der algorithmischen Systeme in die computerisierte Finanzökonomie stellt eine qualitativ neue Phase der reellen Subsumtion der Maschinerie unter das Kapital dar, sie zeigt den Übergang von der Kybernetik zur zeitgenössischen wissenschaftlichen Technizität an, die sog. »nano-bio-info-kognitive« Revolution, die auf verteilten Netzwerken und angeblich friktionsfreien Systemen (Supraleitern, ubiquitäres computing) aufsitzt. (Vgl. Srnicek/Williams 2013) (Reelle Subsumtion unter das Kapitals inkludiert, dass jeder Aspekt des Produktionsprozesses, Technologie, Märkte, Arbeiter, Poriduktionsmittel etc. unter der Dominanz des kapitalistischen Verwertungsprozesses stattfindet, desen Zweck die Selbstverwertung des Kapitals ist.) Dabei bleiben die Tradingprozesse an den Finanzmärkten in eine finanzielle Ökologie von mächtigen dominanten Playern integriert, die die selbstreferentiell operierenden Roboter (solche, die große Positionen liquidieren und solche, die Indexe beobachten) mit Informationen füttern und sie nur zum Teil noch steuern, während die HFH-Systeme zumindest in technischer Hinsicht sich an die Spitze der finanziellen Ökologie gesetzt haben. Die monetäre Seite der finanziellen Ökologie wäre dahingehend zu präzisieren, dass das digitale Geld heute in Serien von referenzlosen Zeichen prozessiert, die in die berechnende Automation von Simulationsmodellen integriert sind, in die Bildschirmmedien mit ihren automatisierten Displays (Graphiken, Indizes etc.) und eben auch in das algorithmische Trading (bot-to-bot Transaktion). Bernhard Vief hat in seinem Essay Digitales Geld (Vief 1991: 120ff.) schon früh darauf hingewiesen, dass es sich beim digitalen Geld um reines Zeichengeld handelt, dass heute wie eben fast alle anderen Zeichensysteme binär kodiert ist. Dabei erfüllen die Bits nicht nur alle Funktionen des bisherigen Geldes, sondern vermitteln darüber hinaus jeden beliebigen Austausch von Informationen. Für Vief sind die Bits Universalzeichen, mit deren Hilfe man verschiedene Zeichen und Zeichensysteme (Ton, Bild, Schrift, Logik, Werte etc.) übersetzen und verrechnen kann. (Ebd.: 120) Bits, reines Zeichengeld, kodieren nicht nur das Geld, sondern sie sind selber Geld und damit gleicht Vief zufolge das Geld einem Code.

Die Bedeutung der Geschwindigkeit war zwar schon immer essentiell für die Finanzmärkte, aber die technischen Infrastukturen ermöglichen heute das maschinelle Processing mit vollkommen a-humanen Geschwindigkeiten und den entsprechenden Beschleunigungen. (Ebd.) Die verwendeten Programme, die als rekursive Schleifen in die Märkte integriert sind, das heißt über Rückkoppelungen auf die Märkte einwirken, bleiben nur für kurze Zeit profitabel, womit die Programme laufend aktualisiert werden müssen, um die Reaktionszeiten weiter zu steigern, sodass nur noch die schnellsten Computersysteme Gewinne generieren, was für die Unternehmen wiederum zu enormen Kosten führt. In den HFH-Systemen werden die Profite hauptsächlich über eine kontinuierlich beschleunigende Fluktuation der jeweiligen Portfolios generiert – finanzielle Entscheidungen fallen in Millisekunden, Mikrosekunden, ja sogar in Nanosekunden. So prozessiert z. B. der neueste iX-eCute chip von Fixnetix heute Trades in nur 740 Nanosekunden. Dieser Chip kann über 330000 Trades in der Zeit eines Wimpernschlags (ca. 250 Millisekunden) abwickeln. Folglich haben die HFH-Systeme längst die temporale Tiefe von Nanosekunden (1 Bilionstel einer Sekunde) erreicht. Und so stieg auch das durchschnittliche tägliche Volumen der finanziellen Transaktionen der NYSE für die Periode 2005–2009 um 300%, während die Anzahl der täglichen Trades in derselben Zeit um 800% anwuchs. (Vgl. Durbin 2010: vi-viii) Obgleich die mit einem Trade in den HFH-Systemen erzielten Profite relativ gering gegenüber anderen Finanzinvestionen wie etwa komplexen Derivatprodukten bleiben, gewähren die durch digitale Maschinen generierten Investitionen doch relativ sichere Einkommen. Der Hochfrequenz-Handel markiert also zumindest in den USA einen wichtigen Einfluss auf die Strúkturen der Finanzmärkte. Man schätzt, dass die HFH-Systeme (ca 100 Unternehmen) derzeit für circa 70% des sog. Equity Market Volumens in den USA verantwortlich sind, für ein Drittel in den UK, und dies mit steigender Tendenz. (Ebd.) Während es siginifikant ist, dass der HFH inzwischen für einen großen Anteil der Markttransaktionen vor allem an den Finanzmärkten in den USA verantwortlich ist, bleibt er jedoch wegen der geringen Profitspannen nicht besonders bedeutend für die dominanten Finanzunternehmen, allenfalls tolerieren diese als mächtige Agenten diejenigen Unternehmen, die im HFH tätig sind, weil diese angeblich die benötigte Liquidität für die Märkte bereitstellen. (Srnicek//Williams) Dennoch partizipiert der Hochfrequenz-Handel an einem systemischen Vorteil, der selbst ein Resultat der Technizität des synthetischen Handels ist, wobei dieser für die sog. Outsider der Finanzmärkte vollkommen opak bleibt.

Heiner Mühlmann hat in seinem Buch Europa im Weltwirtschaftskrieg ausführlich beschrieben, wie der Hochfrequenz-Handel sich im Bereich der CDS-Systeme auswirkt. (Mühlmann 2013: 115f.) Wird bspw. von einem Finanzakteur während der Zeitspanne (to bis tn) zum Zeitpunkt (to) ein versicherungsnehmender CDS und zum Zeitpunkt (tn) ein versicherungsgebender CDS abgeschlossen, wobei der Akteur im ersten Fall eine Gebühr (a) bezahlt, im zweiten Fall eine Gebühr (b) kassiert, dann geht er davon aus, dass die kassierte Gebühr (b) höher ist als die Gebühr (a), weil in der angenommenen Zeitspanne die Wahrscheinlichkeit, dass ein Kreditereignis (Ereignis mit negativen Wirkungen) eintritt, steigt – und damit erhöht sich die Gebühr (b). Die Zeit (tn) ist das Intervall einer Aufschubzeit, an deren jeweiligem Ende ein unvorhersehbares Ereignis steht, das eine qualitativ neue Dynamik ins Spiel bringt. Während dieser Zeitspanne werden die n-Intervalle, die zwischen Versicherungskauf und -verkauf liegen, immer kürzer, oder anders gesagt, die Taktzahl pro Transaktion steigt unaufhörlich. Mühlmann weist auch darauf hin, dass die Gebührenbeträge pro Transaktion klein sind, aber die inverse Verknüpfung von Kauf und Verkauf der CDS bleibt profitabel, weil enorme Geldsummen, zusätzlich angeheizt durch die Politik des billigen Geldes durch die Notenbanken, in den Handel fließen, sodass sowohl die jeweiligen Geldsummen pro Transaktion als auch die Hochfrequenzmultiplikation der Transaktionen die Geringfügigkeit der Gebührengewinne kompensieren. (Ebd.: 155) Insgesamt besitzt die Zeitspanne bis zum Eintritt eines katastrophischen Kreditereignisses eine asymptotische Komponente, insofern man sich über spezifizierte Zeiträume der Katastrophe (Insolvenz etc.) infinitesimal annähert, aber paradoxerweise soll die Katastrophe schließlich doch nicht eintreten, da sie zumindest für bestimmte Teilnehmer unweigerlich zu Verlusten führt.

Das abstrakte Diagramm eines Tradingsystems besteht aus drei wesentlichen Komponenten: a) Tradingstrategien, b) Mathematik, die in Softwareprogramme integriert ist, und c) technologische Infrastruktur. (Srnicek//Williams) Der Hochfrequenz-Handel gilt als ein perfektes Beispiel für distributive Real-Time-Systeme, wobei Patterns aus den Feldern des komplexen Ereignis-Processing ein- und umgesetzt werden, inklusive tausende von individuellen Programmen, die sich zunehmend der Tendenz zur Konzentration des Processings im CPU des Computers widersetzen, indem sie entscheidende Aufgaben des Handels an spezielle Hardwarekomponenten delegieren. (Vgl. Durbin 2010: 8) Längst findet im HFH auch das GPU Computing (Grafikprozessor-beschleunigte Berechnung) Anwendung, bei dem man den Grafikprozessor (GPU) gemeinsam mit der CPU zur Beschleunigung des finanziellen Tradings einsetzt. (Ebd.) Parallelisierung gilt als das entscheidende Konzept aktueller GPUs, das auch in den finanzwissenschaftlichen Diskursen und Praktiken immer weiter perfektioniert wird, um bspw. die Auswertung und Berechnungen der Black Scholes Modelle inklusive aller Komponenten in Realtime zu gewährleisten. Dabei bliebt die Software der Finanzsysteme an die Modularität der jeweils zu bewirtschaftenden Komponenten gebunden und dient zugleich der strukturellen Ankopplung der Unternehmen an spezifische Kommunikationsnetzwerke . (Ebd.: 101-102) Kybernetische Feedbacktechnologien wären heute ohne die Modularität der digitalen Maschinen/Medien gar nicht zu denken, eine Strukturierung, bei der die Module, die alle auf eine identische Bauart zurückgehen, permanent neu zusammengesetzt werden können, ohne jedoch ihre Autonomie zu verlieren. Dabei erfordert der Modus der per se möglichen Neukombination von modularen Konstellationen ständig flexible Tests, mit denen das kontinuierliche Feedback überhaupt erst funktioniert. In den Finanzunternehmen tätige Softwareingenieure entwickeln solche Systeme hinsichtlich der Elastizität, Flexibilität und Profitabilität von finanziellen Ereignissen. Der Drift jede Surplusnanosekunde zu extrahieren, resultiert somit in mühsamen Prozessen des Designs und der Optimierung von Algorithmen und den entsprechenden spezifischen Finanzinstrumenten. (Vgl. Srnicek//Williams).

Während die populäre Perzeption im Kontext finanzwissenschaftlicher Diskurse nach wie vor die Wall Street als die zentrale Lokalisierung der globalen Finance ausmacht, sind es gerade Städte wie New Jersey und Chicago, in denen ein Großteil des amerikanischen Finanzsystems derzeit zumindest physisch angesiedelt ist. HFH-Hubs wie der NYSE-Standort Mahwah beherbergen viele der größten »matching engines« (Maschinen, deren Algorithmen Transaktionen aus der ganzen Welt bewerten, vergleichen, kaufen und verkaufen). (Ebd.: 16) Es gibt durchaus auch eine physische Konzentration der räumlichen Verteilungssysteme globaler Finance, und diese Nicht-Orte, Global Citys, gelten of course als stark zu beschützende Komponenten der jeweiligen nationalen Infrastrukturen. Die materielle Infrastruktur bzw. Hardware der finanziellen Systeme ist intrinsisch verteilt und vernetzt. Und seit die elektronischen Signale über optische Fiberkabel fließen, deren Übertragungsraten im Gigabit- bis Terabit-Bereich liegen, gilt die Distanz zwischen Sender und Empfänger von Informationen als eine Schlüsselvariable der temporalen Latenz der Systeme. Die Konkurrenzsituation zwischen den verschiedenen HFH-Tradern stimuliert also einen rasanten Wettlauf um die kürzesten Reaktionszeiten an den Märkten, was in der Regel dazu führt, dass Finanzunternehmen ihre HFH-Server unmittelbar an den Standorten der Börsenserver lokalisieren, wenn sie denn noch einen börsenorientierten Handel betreiben. Vorausgesetzt bleibt natürlich eine funktional einwandfreie Operationalität der Konnektivität, die den Parasiten, der für die Nichtoperationalität verantwortlich zeichnet, so gut wie möglich auszuschließen hat. Finanzunternehmen sehen sich als komplexe sozio-technische Systeme gezwungen, permanent die Produktion eines parasitären Rauschens zu bearbeiten und die ständig fluktuierenden Informationsgefälle zu reduzieren, indem sie mit einer hohen Rate von Datendurchlaufleistungen und dem Versuch der Glattstellung von Rauschen und Entropie im Rahmen einer finanziellen Ökologie operieren. (Vgl. Wilkins/Dragon 2013)

Ein Signal benötigt gegenwärtig achtzehn Millisekunden, um in Lichtgeschwindigkeit von New York nach London zu gelangen. Dieser temporale Gap bietet für einen Händler in New York eine Zeitspanne an, in der er neue Daten erkennen und bearbeiten kann, noch bevor ein Händler in London dies überhaupt registriert. Aber selbst die Lichtgeschwindigkeit kann im Hochfrequenz-Handel in gewisser Weise zu langsam sein, sodass bei einem Deal, den ein Händler von New York aus gleichzeitig einem Händler in London und Frankfurt anbietet, der Händler in London bevorzugt wird, weil das mit Lichtgeschwindigkeit gesendete Signal bis Frankfurt zu lange benötigt. Um die bestehenden Geschwindigkeitsgrenzen noch zu überschreiten, schneiden bestimmte Unternehmen sozusagen Löcher in sichtbare und unsichtbare Wände, um sich physisch so nahe wie möglich an den »matching engines« der zentralen Handelsplätze zu positionieren. Manche US-Unternehmen gehen heute, um die Latenzzeiten weiter zu verringern, so weit und legen ihre Kommunikationskabel durch Tunnel, die durch Berge geschlagen wurden, um bspw. die Übertragungszeiten zwischen Chicago und New York weiter zu reduzieren. Zur Maximierung der Profite muss man die räumlichen Relationen in der effektivsten Weise nutzen, womit die HFH-Systeme bezüglich ihrer Infrastrukturen tatsächlich parasitär werden, indem sie die Rechenzentren der Host basierten Dienstleistungen permanent im Auge behalten, um wenn möglich selbst diese Strukturen noch zu umgehen. Demzufolge verlangen die Imperative der Akzeleration geradezu danach, dass die Unternehmen alle störenden Intermediäre zunehmend eliminieren. Dies bedingt eine Tendenz zur räumlichen Konzentration der Finanzunternehmen in den hochvernetzten Global Citys, während die Unternehmen gleichzeitig einer Dezentralisierung folgen, die von der Simultaneität der Digitalität abhängt, um die multiplen Austauschsysteme an den Finanzmärkten inklusive ihrer Geschwindigkeiten, Rhythmen, Sequenzen und Metriken überhaupt noch profitkonform bewirtschaften zu können. Der technologische Fortschritt in der digitalen Ökonomie – komplexe, dynamische, integrierte Netzwerke – wird vom finanziellen Kapital diktiert, das heißt, dessen Investitionsentscheidungen bestimmen den Modus, mit und in dem Technologien entwickelt werden. Innovationen verlangen geradezu nach einer wolkigen und dichten Informationsstruktur, die ungeheure Massen an Daten und Informationen aufnimmt, speichert und weitergibt – Rohstoffpreise, Wechselkurse, Zinsraten, politische und soziale Faktoren etc. -, wobei die Medien, die sich im ständigem Austausch mit dem finanziellen Kapital sowie dem Technologiesektor befinden, als informationelle Marketingmaschinerien fungieren, man denke nur an die Endlosschleifen der Aktienkurse, die bei Fernsehkanälen wie CNN oder N-TV bei jeder Nachrichtensendung unter dem Bild mitlaufen, als ob die Aktienkurse das EKG des Körpers des globalen finanziellen Kapitals wären. Die technologisch-informationelle Architektur der HFH-Systeme scheint eine ganz entscheidende Rolle zu spielen, wenn es darum geht, die Latenzzeiten in den Netzwerken der finanziellen Systeme zu minimieren, wobei ein hoher Anteil der Daten und Informationen über aktuelle Preisbewegungen heute nicht über das öffentliche Internet, sondern über eines der größten Netzwerke in der Welt fließt – benannt als »Secure Financial Transaction Infrastructure« (SFTI). Als Teil des NYSE Euronext stellt die Company SFTI ein privates Highspeed-Computernetzwerk für die Finanzunternehmen in den USA, Europa und Asien zur Verfügung. Weil aber die Informationstransmissionen durch die Lichtgeschwindigkeit begrenzt sind, haben Physiker längst damit begonnen, planetarische Koordinaten von optimalen Handelsstandorten zu triangulieren, während andere Forscher glauben, dass Glasfaserkabel zur Optimierung der HFH-Systeme irgendwann zu langsam sind, und deshalb vorschlagen, die Kommunikationsstrecken durch den Erdkern zu führen, um die minimal langsamere Navigation auf der Erdoberfläche zu umgehen. Privatisierte Teilchenbeschleuniger würden dann Neutrinos generieren und enkodieren, um einen sub-molekularen Pfad durch die Erde zu bohren, um noch minimalste Zeitspannen gegenüber den Konkurrenten zu gewinnen. Am Ende könnte selbst die Erde noch zum Hindernis für die akzelerierende Kapitalzirkulation geraten. Bis dahin gilt die Erde zumindest als eine Ressoure des Kapitalismus, auf deren Grundlage die Expansion in einen ortlosen Horizont erfolgen soll, insoweit das Kapial selbst noch das Außen zu ökonomisieren gedenkt, um wenn möglich eine neue planetare Konstellation zu erzeugen. Der dromologische Aspekt der HFH-Systeme (Virilio) berührt demnach ihre unmittelbaren Verkörperungen und die dazugehörigen Standorte und erfordert die Verwandlung des gesamten Planeten in ein beschleunigendes Medium der Kapitalzirkulation, dessen technologisches Dispositv im HFH gegenwärtig multiple Netzwerkstrukturen sind. Das Makrolevel der derzeitigen Zirkulationen des Geldkapitals beinhaltet eine maschinelle Ökologie der Datenzentren und der Softwareprogramme auf der Grundlage einer hochoptimierten materiellen Infrastruktur. Es ist ganz offensichtlich, dass die Finanzunternehmen im Rahmen ihrer algorithmenbasierten und finegetunten HFH-Systeme an den Finanzmärkten um jede mögliche Exploitation der Nanosekunde kämpfen müssen, um schließlich an die Null-Zeit des Kapitals anzurühren. (Die Null-Zeit des Kapitals ist die Zeit der äußersten Beschleunigung. Wir haben es hier aber nicht mehr mit den gegenüberliegenden Polen von Null und Hypergeschwindigkeit zu tun, sondern mit einer (virtuellen) Tendenz zur Verschmelzung der Pole. Sowohl bei absoluter Ruhe als auch bei kontinuierlich wiederholter Hyperaktivität zeigt das zerebrale System bzw. das Elektroenzephalogramm nur noch ein durchschnittliches und flaches Muster an. Die Zeit gleitet endlos eine lineare Strecke entlang, oder sie ist in Kaskaden von entropischen Abfällen gehüllt. Ein weißes Rauschen ohne jegliche Information kennzeichnet schließlich die Situation, und dies sicherlich auch dann, wenn Null und Hypergeschwindigkeit eins zu werden drohen.)

Wenn die HFH-Systeme neben der dromologischen Risiko-Problematik noch weitere hohe Risiken in sich bergen, so lässt sich dies dadurch erklären, dass diese Systeme immer wieder neue Möglichkeitsfelder und damit neue Risiken generieren, deren Bewertung, Exekution und Revision weitere Möglichkeitsfelder eröffnet usw. Was wenige Momente vor einer Händlerentscheidung geschah, ist ebenso unwichtig, wie das, was wenige Minuten später sein wird, und somit ähnelt, so schreibt Arthur Kroker in der Panik-Enzyklopädie, der Handel im Endeffekt den flüssigen Bewegungen von Geldchips, die den Hyperpuls unvorhersagbarer Hochs und Tiefs an den Finanzmärkten in Permanenz modulieren. (Kroker/Kroker/Cook 1999: 104f.). Und wenn noch so kurzfristig ein Gleichgewichtszustand an den Märkten erreicht wird, so impliziert dies nicht notwendigerweise, dass Systeme deshalb auch ihren optimalen Zustand erreicht haben, weil es zu Vernetzungsgraden in den finanziellen Systemen selbst kommen kann, die so enorm komplexen sind, dass sie zwar geradezu perfekt designt aussehen, tatsächlich aber die funktionalen Verbindungen zwischen den Systemen eher stören als dass sie ihnen nützen. Man kann davon ausgehen, dass je näher die maschinellen Systeme an so etwas wie absolute Effizienz heranrücken, desto weniger werden sie die ihnen immanenten Ineffizienzen erkennen, wobei der Markt natürlich niemals vollkommene bzw. absolute Effizienz, die man zudem noch mit Gleichgewichtszuständen assoziiert, erlangen kann. Wenn die Märkte effizienter werden, dann gibt es definitiv auch immer weniger Möglichkeiten für die informierten Trader profitable Arbitrage auszunutzen (u. a. auch die Kalibrierung der Diskrepanz zwischen aktuellen Preisen und Basiswerten), während dann die uninformierten Noise-Trader zunehmend die Finanzmärkte zu dominieren beginnen.

Arbitrage-Möglichkeiten und ihre korrelierten Finanzprodukte existieren heute sowohl innerhalb als auch zwischen den jeweiligen Austauschsystemen. Die statistischen Arbitrage-Strategien und der sie inkludierende angeblich risikofreie Profit basieren auf der simultanen Bearbeitung von Preisdifferenzen für ähnliche oder identische Finanzprodukte an differenten Märkten; man analysiert z. B. die Relationen von zwei Finanzanlagen, um bei Veränderung der jeweiligen Komponenten einer singulären Finanzanlage Profite durch Arbitrage zu generieren. So gilt es zunächst die statistische Signifikanz der Bewegung von zwei Finanzanlagen zu erkennen, wobei es heute allerdings kaum noch um zwei Finanzanlagen geht, sondern meistens um komplexe Systeme, ja multiple Sets von Korrelationen zwischen einer enormen Anzahl von Finanzanlagen, die durch diverse Sektoren, Regionen und Märkte organisiert und strukturiert werden. Arbitrage soll angeblich auch dazu dienen, die an den Märkten auftretende Anomalien zu bewerten, zu nutzen und auszugleichen, um damit generell zu korrekten Preisfindungen an den Märkten beizutragen und Liquidität bereitzustellen – Arbitrage wird aber gerade von durchcomputerisierten Ordersystemen bearbeitet, die enorme Orders automatisiert und simultan auf alle möglichen Handelsplätze werfen und aufsplitten, um spezielle Preisfindungen erfolgreich auszunutzen, sodass Dysfunktionalitäten generell nicht auszuschließen sind. Dabei verschärft sich das Risiko einer Ansteckung des gesamten Verteilungssystems des Hochfrequenz-Handels, wenn die digitalen Netzwerke sehr stark durch die Funktionsweisen der Arbitrage zusammengeschlossen sind, sodass die Angabe eines »falschen« Preises an einem singulären Markt eine Welle von falschen Auspreisungen nach sich ziehen kann. Die Steigerung der Interkonnektivität in den standardisierten HFH-Systemen entspricht einer Ausweitung der Volatilität, was der abstrakten Forderung nach einem effizienten Markt, die darin gipfelt, dass jede Wertpapieranlage denselben Preis an allen Handelsplätzen erzielt, eigentlich widerspricht. Paradoxerweise basiert die Arbitrage gerade auf der Ineffizienz der Märkte, die durch den Einsatz von spezifischen Modellen und Instrumenten, die der strategischen Orientierung der Akteure an den Märkten dienen, reduziert werden soll. Demnach dürften effiziente Märkte die Arbitrage eigentlich gar nicht zulassen. (Vgl. Esposito 2010: 167f.)

Auf einem abstrakt-funktionalen Level operieren die HFH-Systeme, indem sie die Wahrscheinlichkeiten partikularer Transaktionen bewirtschaften und dabei den Nachteil der geringen Profite einer individuellen Transaktion durch die hohe Anzahl von gewinnbringenden Transaktionen zu kompensieren versuchen. Dabei generiert der typische HFH-Trader seine Profite hauptsächlich durch zwei Strategien: (1) Bewirtschaftung der Differenz zwischen Bid/Ask Preisen, (2) wahrscheinlichkeitsbasierte Analyse und in der Folge die Exploitation der Preisbewegungen von verschiedenen Finanzanlagen. (Vgl. Srnicek//Williams) An den Finanzmärkten lässt sich sowohl ein passives als auch ein aktives Trading feststellen, wobei Ersteres die Abgabe einer Order in das System involviert, ohne dass man weiß, ob eine andere Partei überhaupt gewillt ist die andere Seite des Deals zu besetzen, und dafür stellt das HFH-System Programme zur Verfügung, die man Autoquoters nennt, um eben exakt jene Entscheidungsprozesse zu generieren. Auf der anderen Seite besteht aktives Trading darin, die gegnerische Seite von Orders zu besetzen, die in den Orderbooks schon gelistet sind, indem man eine Software benutzt, die electronic eyes heißt. (Durbin 2010: 28-29) Wenn die Profite aus der Differenz von Bid/Ask Preisen resultieren, dann besteht das immanente Risiko genau darin, dass, bevor der Trader überhaupt in der Lage ist einen sog. Roundtrip-Trade (Kaufen und Verkaufen, oder umgekehrt) zu beenden, die Marktpreise sich schon gegen ihn entwickelt haben können und damit für ihn notwendigerweise ein Verlust anfällt. Hiermit zeigt sich erneut an, dass im HFH die Bewirtschaftung der Geschwindigkeit essentiell bleibt, einerseits um die dominanten Market Maker zu schlagen, andererseits um jede Transaktion im Kampf gegen die Konkurrenten so schnell wie möglich erfolgreich abzuschließen. In den HFH-Systemen spielt also neben der Bewirtschaftung der Risiken und Wahrscheinlichkeiten die Geschwindigkeitsproblematik eine enorme Rolle, wobei Finanzunternehmen permanent sich selbst beschleunigende HFH-Systeme einsetzen, um die Risiken/Wahrscheinlichkeiten durch eine nahezu instantane Arbitrage zu eliminieren.

Wenn HFH-Systeme mit ihren komplexen Funktionen akzelerativ interagieren, dann produzieren sie in temporalen Abständen immer wieder auch emergente Phänomene wie Flash Crashs oder ultraschnelle Black Swans (Taleb 2010), letztere verstanden als hochgradig dsyfunktionale Kontingenzen, und dies ganz im Gegensatz zu Prozessen einer strukturierten Randomness, wie sie etwa die Funktionsweise der Spielkasinos auszeichnet. Dabei können die finanziellen Friktionen so stark anschwellen, dass Mikro-Frakturen in einer enormen Anzahl von minimalen Flash-Crashs proliferieren, bis sie die gesamte finanzielle Ökologie anstecken. Darüberhinaus sind in den finanziellen Systemen die algorithmisch basierten Trading-Plattformen gerade aufgrund ihrer verkapselten Logiken, die sie kodieren, intrinsisch offen für missbräuchliche Praktiken – die Plattformen repräsentieren teilweise hochgradig opake und nicht zu 100% von humanen Aktanten kontrollierbare Interfaces. So lassen sich an den Finanzmärkten periodische 1000 Millisekunden-Zirkulationen feststellen, wobei enorme Fluten von Transaktionen entstehen, die einerseits aus den Interaktionen der HFH-Agenten hervorgehen, andererseits aus den emergenten Rhythmen einer weitgehend automatisierten finanziellen Ökologie, wobei die algorithmischen Maschinen die jeweiligen Preisbewegungen in der letzten Instanz determinieren, wenn sie denn selbstreferentielle Strategien in Gang setzen, die wiederum bei den humanen Aktanten ein gewisses Herdenverhalten evozieren können. Die Implementierung lernender Algorithmen in die HFH-Systeme führt zu immer höheren Computerleistungen, zur flexiblen Kodierung der Effizienz und zu einem tieferen Expertenwissen, wobei innerhalb dieses dreigliedrigen Verbundes eine steigende Diversivität und Sicherheit von Tradingstrategien in der Zukunft erzielt werden soll, aber zugleich der Unfall weiterhin insistiert, gerade insofern bestimmte Ereignisse statistisch voraussehbar erscheinen. (Vgl. Wilkins/Dragon 2013) Insofern ist der Unfall weniger die Folge einer Störung, sondern vielmehr ein Ausdruck der Tatsache, dass die Systeme zu perfekt arbeiten. Zu den Tradingstrategien zählt heute das Sammeln von »slow quotes«, was impliziert, dass ein Hochfrequenz-Trader seine Entscheidungen schneller fällt als ein Market Maker seine Quotierungen an die jeweiligen Kursänderungen überhaupt anpassen kann. »Quote stuffing« beinhaltet, dass eine enorme Anzahl von Orders an die Börse gesendet und im nächsten Augenblick schon wieder gelöscht wird, um die Marktpreise kurzfristig in die jeweils beabsichtigte Richtung zu treiben, um dann im nächsten Moment von der Gegenbewegung zu profitieren. Diese Verfahren basieren u. a. auf den Analysen des Unternehmens Nanex, einem Experten zur Erforschung von sog. Handelsanomalien und Anbieter von Software für die Echtzeitanalyse von Aktien-Quoten. Ein ekstatischer Handels-Verkehr kann vom einem einzigen Fehler im Algorithmus ausgelöst werden, sodass die HFH-Systeme ständig spezifischen Stresstests und Qualitätsuntersuchungen unterzogen werden müssen, periodischen Updates und dem bekannten bugfixing. Im Jahr 2003 wurde bspw. ein Unternehmen in sechzehn Sekunden insolvent, als ein »falscher« Algorithmus in Gang gesetzt wurde. (Srnicek//Williams 2013) Der Einsatz eines bestimmten Algorithmus führte auch schon dazu, dass eine immense Zahl an Orders zwar ins System gestellt aber nicht ausgeführt wurde. Laut Nanex hatte dieser Algorithmus allein vier Prozent aller im zentralen Quotierungssystem der US-Börsen (das die an den verschiedenen Handelsplätzen bestehenden Orders addiert) verfügbaren Orders aufgegeben, wovon circa fünfhundert Titel betroffen waren und zehn Prozent der für Quotierungen insgesamt verfügbaren Bandbreite benutzt wurde, woraus man schließen kann, dass der Algorithmus versucht hatte, die Reaktionszeiten von Konkurrenten durch die eigene Beanspruchung enormer Bandbreiten zu verlängern. Mit der Orderflut wurde also für andere Teilnehmer die Bandbreite des elektronischen Handelssystems reduziert, um auf diese Weise die Preisfindungen zu beeinflussen. Manche HFH-Trader programmieren Algorithmen, die eine vierstellige Zahl von Wertpapierhandelsaufträgen pro Sekunde für eine einzelne Aktie generieren und an die Börse senden, wobei die Aufträge zunächst nur sichtbar werden, wenn sie ganz oben im Orderbuch der Börse auftauchen, d.h., zum höchsten Geld- oder zum tiefsten Briefkurs führen. Der Hintergrund befindet sich im Bereich eines unsichtbaren Rauschens. (Bei der sog. Latenzarbitrage geht es um die Bewirtschaftung von Millisekunden, in denen HFH-Trader das Handelssystem absichtlich voll auslasten, sodass der größere Anteil der Händler, die auf sog. CQS-Daten angewiesen sind, über längere Phasen gar nicht wissen, wohin der Markt tendiert.)

Es regiert heute an den Finanzmärkten tatsächlich der Non-Sense eines neo-kybernetischen Mechanismus im Zuge der Hegemonie einer reinen Maschine-Maschine-Interferenz und dies erzeugt innerhalb der dynamischen Abstraktion des finanziellen Kapitals einen Nomos, den z.B. Nick Land als ein Feld von asignifikanten Zahlen vorstellt, die in einem non-repräsentionalen Raum miteinander interagieren. (Vgl. Land 2010) Die Beschleunigung der numerischen Technizität benötigt die HFH-Systeme als Vektoren der Ausstülpung, das heißt, die Produktion für Profit instruiert eine rein technologisch fundierte Produktion für die Produktion qua eines inhumanen Registers (ebd.: 260), wobei dessen metabolischen Prozesse vor allem als und unter der Dominanz der Zirkulation des finanziellen Kapitals unaufhörlich weiter beschleunigen, damit infinitesimale Preisdifferenzen und instantane Arbitrage-Möglichkeiten bewirtschaftet werden können solange es eben geht, während die nomadisierende Liquidität in den globalen Netzwerken beständig ansteigt. Während humane Agenten längst zu langsam agieren, ja zu fleischig sind, um temporale und perzeptuelle Barrieren zu überwinden, generieren die HFH-Systeme feine Nano-Strukturen an den finanziellen Märkten, die längst auch zu kompliziert und zu komplex verflochten sind, um sie qua humaner Aktanten noch exakt beobachten zu können. Offensichtlich ist es gerade auch die virale Automatisierung des Finanziellen durch algorithmische Maschinen, die gegenwärtig eine Vielzahl von Formen der Kapitalisierung infiltriert. Allerdings gilt es den Unterschied zwischen dem bloßen Prozessieren von Daten und der semantischen Bearbeitung von Informationen zu berücksichtigen, oder um es anders zu sagen, die HFH-Systeme encodieren Ketten von finanziellen Transaktionen, die von den Experten des finanziellen Systems zwar in die Wege geleitet werden, aber in den Systemen selbst auf einem autoreferentiellen Daten-Level operieren – das heißt, die Algorithmen der HFH-Systeme operieren als reine Daten-Kalkulatoren, um die Diagramme einer verborgenen Konnektivität auszuwerfen, welche die Netzwerke finanzieller Transaktionensketten selbst erzeugen. Auf der Basis des kognitiven Mappings von Experten bestechen die HFH-Systeme durch ihr Potenzial Unmengen von Trades jenseits der menschlichen Perzeptionsschwellen in Intervallen von Millisekunden zu exekutieren, um damit die Preissignale, die man in den Orderbooks aufgezeichnet hat, zu unterlaufen und die Preisfindungsprozesse andauernd zu transformieren, bevor menschliche Aktanten dies überhaupt beobachten können. Und dies wird gerade in Krisenzeiten, in denen wir es mit einer hohen Volatilität und einer geringen Liquidität zu tun haben, ganz entscheidend.

Angesichts eines möglichen, langfristigen Falls der Profitrate offenbart sich die Verzweiflung der Unternehmen, die sich darin ausdrückt, ihren Profitanteil am sinkenden globalen Wachstum nicht einmal stabilisieren geschweige denn steigern zu können, gerade bezüglich des ubiquitären Modus elaborierter digitaler Bewertungen und Messungen, bei denen es um Nanosekunden hinsichtlich der Gestaltung des Handels geht. Wenn man davon ausgeht, dass diese dromologische Beschleunigung durch keinerlei Gesetze wieder rückgängig zu machen ist (es gibt nur die physikalische Grenze), wobei der wettbewerbliche Vorteil für das einzelne Unternehmen qua Bewirtschaftung der Geschwindigkeit langsam verdampft, dann stellt sich endgültig die Frage nach dem Nihilismus in der kapitalistischen Ökonomie, insofern die dromologische Beschleunigung einen Horizont ohne jede Lokalisierung anvisiert, indem sie nichts anderes als die Hyper-Intensivierung der Kapitalisierung ausführt. Wenn die Lichtgeschwindigkeit nicht überwunden werden kann und die verschiedenen gegeneinander konkurrienden Unternehmen tendenziell alle mit derselben Geschwindigkeit operieren, also der dromologische Wettbewerb zwischen den Finanzunternehmen irgendwann seine immanente Grenze nicht mehr zu übersteigen vermag, dann wachsen für die Unternehmen die monetären Kosten, um eine noch so marginale Erhöhung der Profitrate zu erzielen, immens an. Eine systemimmanente Durchtriebenheit, dieser Problematik zumindest phasenweise zu entkommen, besteht zum Beispiel darin, ultraschnell Orders an den Märkten zu platzieren, um die Preise und die Größe bestimmter anderer Einsätze sichtbar zu machen, noch bevor diese in den sog. Exchange Order Books überhaupt gelistet sind. Manche Algorithmen werden designt, um verräterische Signaturen von anderen Algorithmen freizulegen, um selbst wiederum wettbwerbliche Vorteile zu erzielen; bestimmte Algorithmen entwickeln sich kontinuierlich weiter, indem sie die Ökologie von humanen und nichthumanen Tradern ins Auge fassen, um die entsprechenden Relationen zu bearbeiten. (Vgl. Wilkins/Dragon 2013) Desweiteren simuliert man aufgrund der Auswertung von Daten aus der Vergangenheit Wetterkonstellationen, um bspw. die Ernten von Weizen, Sojabohnen und Mais zu prognostizieren und damit wiederum die Preisfluktuationen, die eventuell mit der Relation Wetter-Ernte zusammenhängen, vorherzusagen zu können. Gleichzeitig werden die HFH-Systeme mit algorithmisierten sensorischen Systemen verlinkt, die in anderen Bereichen der Ökonomie Anwendung finden (Konsumtenanalysen, Datenerhebungen sämtlicher Art, sematisches Web). In all diesen Prozessen vervielfältigen sich die Algorithmen auf unüberschaubare Weise, obgleich menschliche Aktanten sie doch programmieren. Es stellt sich dann zwangsläufig die Frage nach dem Finetuning der Algorithmen, aber was wenn das Finetuning wiederum auf automatisierten Prozessen in Computersystemen beruht? Algorithmen können also durchaus über die Intentionen ihrer Programmierer hinweg ein Eigenleben entwickeln, man denke etwa an das Programm Eureqa, eine Technologie, die intrinsische mathematische Relationen, welche in komplexen Datensets versteckt sind, freilegt und erklärt.

Wenn die Komputation auf Diskretheit (Bit, rekursives algorithmisches Processing, quantifizierte Messung) beruht, dann bleibt der Aspekt des Kontinuierlichen (i. e.Realität) der digitalen Berechnung doch weitgehend fremd. Algorithmen enkodieren eine endliche und iterative Konzeption der Zeit, indem sie diskrete Zahlen benutzen, wobei sie nicht in der Lage sind, etwa geodätische Räumlichkeiten oder non-triviale Kontinuitäten abzubilden. (Srnicek//Williams) Dieses Problem liegt u. a. schon in Freges and Hilberts Projekt einer Axiomatisierung der Geometrie durch die Arithmetik begründet. Somit vermag die Operationalisierung via Komputation nur ein unzureichendes Modell für komplexe soziale, rationale, biologische, chemische und quantenmechanische Systeme abzuliefern. Wenn das reduktive Projekt von Newton und Laplace im Herzen der digitalen Berechnung insistiert, dann muss die Mathematik als eine nicht-royalistische Wissenschaft, wie sie etwa Deleuze/Guattari eingefordert haben, einfach unberücksichtigt bleiben. Weil keine Generativität im algorithmisches Denken herrscht, und wenn, dann nur ordnungsgemäß der Formeln und Modelle der royalistischen Mathematik, bleibt das algorithmische maschinelle Trading an die vorgeschriebenen Regeln gebunden und kann somit keine universelle synthetische Beschleunigung herstellen, wie dies etwa der iranische Philosoph Reza Negastrani oder die englischen Theoretiker Srnicek//Willimas propagieren. (Vgl. Srnicek//Williams) Schließlich war es Turing selbst, der seine ursprüngliche Konzeption des Computers mit einer non-linearen, kontinuierlichen Variante kontrastierte. Man sollte die Berechnungen der in der Ökonomie angewandten Modelle also viel näher an die kontinuierliche, non-iterative Natur des Materiellen/Physikalischen heranführen, an die zeitgenössische Post-Quantenphysik und die komplexen Wissenschaften. Allerdings befeuern schon heute bestimmte Strategeme der Camouflage, der Mimesis und der Täuschung non-adaptive Mutationen im finanziellen Handel – man denke an die nicht-gleichgewichtige Dynamik des »Red Queen Effects« sowie an bestimmte Modellierungen in der evolutionären Spieltheorie via Krypsis (Tarnverhalten). (Vgl. Wilkons/Dragon) Möglicherweise haben wir es aber hier doch nur mit den pathologischen Tendenzen eines hyper-technologischen Kapitalismus zu tun, mit einer thanatopischen Mimikry, die im Zuge der kontinuierlichen Kalibrierung und Redistribution der Finanzinstrumente, der Energie und Information in tödliche Prozesse der Kannibalisierung und der Selbstzerstörung des Kapitals mündet.

Es gäbe vielleicht zwei mögliche globale Szenarios für eine zukünftige Entwicklung der HFH-Systeme zu prognostizieren. Allerdings könnte man, wie Arthur Kroker das tut, auch davon ausgehen, dass die emblematischen Zeichen der neuen Technopoiesis, die uns in ihren Klauen halten, weniger die immer schon imäginären Bilder einer Apokalyse als einen langsamen Selbstmord der posthumanen Species anzeigen. Im ersteren Szenario werden die HFH-Systeme im Zuge einer Serie von katastrophischen finanziellen Apokalypsen weltweit geächtet, weil die unvorhersehbaren und emergenten Effekte des automatisierten Tradings der finanziellen Kriegsmaschinen in Kombination mit der konstitutiven Unverantwortlichkeit der institutionellen Investoren zu einer virtuellen Ausrottung der Technologien und Kapitalsysteme führen könnten, ausgelöst etwa durch eine desaströse Sequenz von automatisierten Trades. Beim zweiten Szenario ersetzen semantisch effektive HFH-Systeme in einem schleichenden Modus die menschlichen Komponente fast vollständig, das Kapital befreit sich schließlich von sämtlichen humanen Widerständen, um noch abstraktere Prozessstrategien zu generieren, inklusive der posthumanen Intelligenzen von selbstreferentiellen finanziellen Instrumenten, die zum Schluß selbst noch solare Systeme zerlegen, um eine maximale »computational power« zu erzielen – vollkommen egal ob am Ende alles in einen absolut deteritorialisierten Strom des Geldkapitals hineingezogen wird, der zu einer Vernichtung kosmischen Ausmaßes führt. (Die Erwähnung einer solaren Ökonomie, der Ökonomie der Sonne als ein Labyrinth des Lebens zieht sich vor allem durch die Schriften von Georges Bataille und Nick Land.) Die menschliche Intelligenz kann mit ihren beschränkten zerebralen Potenzen solch eine Xenoökonomie nicht mehr erfassen, wenn man bedenkt, dass heute selbst schon die neoliberalen finanziellen Systeme phasenweise in eine a-humane Panik geraten, in eine ultra-abstrakte Akkumulation um der Akkumulation willen, um vielleicht in eine rasende Deterritorialisierung des Kapitals überzugehen und darin einem schrecklichen Thanatotopismus zu frönen. Es würde sich beim zweiten Szenario um eine reine dromologische Beschleunigung handeln, eine linear anwachsende Beschleunigung, wie sie annäherungsweise von Paul Virilio und Nick Land beschrieben wurde. Solange diese dromologische Drift nach wie vor dynamische Effekte hinsichtlich einer erfolgreichen Kapitalisierung zeitigt, stellt das gegenwärtige hegemoniale finanzielle Regime die Regeln des Spiels, die es operieren und beherrschen, niemals selbst in Frage, obgleich die Propagierung des »Immer schneller« letzten Endes ins Leere führt, wenn man sie mit den widerspenstigen Spuren, die die beschleunigenden Prozesse selbst hinterlassen, konfrontiert.

Ob es darüber hinaus so etwas wie eine universelle Beschleunigung in einer postkapitalistischen Gesellschaft geben könnte, die sich etwa durch vielfältige und listige Experimente auszeichnet, welche auf Dauer gestellt immer wieder durch Kontingenz zerklüftet werden, das bleibt doch äußerst fraglich, obgleich die infinitesimale Annäherung der HFH-Systeme an die Lichtgeschwindigkeit den Übergang zu einem intelligenteren Paradigma des Experimentellen im sozialen Feld geradezu erfordert. An dieser Stelle gilt es dann auf ein drittes Szenario einzugehen. Ein drittes Szenario, bei dem die finanziellen Automaten von den Dispositiven und Regeln der Kapitalisierung befreit werden, wie dies z.B. im akzelerationischen Manifest von Srnicek//Williams angedacht ist, sodass die Umgestaltung bzw. Umfunktionierung der kapitalistischen Technologien mit ihren Infrastrukturen zu einem Post-Kapitalismus führt (Avanessian 2014: 30), der sich im Rahmen einer universellen planetaren Strategie beispielsweise der Métis bedient, um schließlich so etwas wie einen nomadischen Kommunismus zu erreichen, der das Strategem der Kontingenz jenseits des erstickenden politökonomischen Raums des Kapitals in den Mittelpunkt stellt – dieses Szenario bleibt jedoch mehr als vage. So will man die blinde Akzeleration, die vermittels der gegenwärtigen digitalen Technologien stattfindet, durch eine intensive Akzeleration ersetzen, durch raffinierte Maschinen, die auf einem kontinuierlich neo-rechnenden Format basieren, und diese Maschinen werden eben von einer komplexen Métis begleitet, i. e. eine verschlagene und zugleich wohltemperierte Aktion, die die dynamischen Tendenzen des Materials, mit dem man gerade arbeitet, verstärkt und damit zugleich eine Komplizenschaft mit dem Material, mit dem Kontingenten und dem Unvorhersehbaren propagiert. Aber wenn humane Agenten im hypertechnologischen Kapitalismus und seiner beschleunigten Zukunft mehr und mehr obsolet werden, wer bleibt dann überhaupt noch übrig, um die Maschinen zu reparieren oder umzufunktionieren, wenn sie tatsächlich kollabieren? Und besteht überhaupt noch ein Bedürfnis für das Humane, wenn die Maschinen längst jede soziale Nische des evolutionären Territoriums einer glänzenden Zukunft besetzt haben? Man versucht dieses problem mit einer durchdachten Intervention in die Politiken der Abstraktion zu lösen, die den Kapitalismus politisch und epistemisch herausfordert, obgleich nicht entschieden ist, wie sich eine revolutionäre Praxis mit der theoretischen Erklärung verbinden lässt, ja es werden kaum Aussagen darüber gemacht, wie die kognitiven Funktionen die sozialen Praktiken beeinflussen können.

Wenn noch die intensivste, die letzte graduelle Beschleunigung vom Rauschen bedroht wird, dann kann die Grenze, die Signal und Rauschen voneinander trennt, nur ausgehend von der Kontingenz gedacht werden, allerdings nicht von einer unendlichen Kontingenz, wie dies etwa Massimo de Carolis annimmt (vgl. Hörl 297), sondern eher von einer indefiniten Kontingenz, die ein unbestimmtes Feld und das Mannigfaltige von zeitlichen Funktionen eröffnet. Man hat es dann weder mit einem unendlichen noch mit einem endlichen Feld zu tun, vielmehr muss sich jede diskursive Praktik im Zuge einer Non-Politik als experimentelles Strategem in indefiniten Feldern anzeigen (Bahr 1983: 295ff.), und zwar als eine permanente Virtualisierungpraktik, als ein Register der In-Extension, markiert durch eine indefinite Komprehension. In diesem Feld der unvorhergesehenen Begegnungen kann es ständig auch zu überraschenden Verflechtungen des Neuronal-Politischen mit den liquiden Informationsströmen kommen, zu Verquickungen oder Assoziationen zwischen bislang nicht-assoziierten Kräften, und dies nicht allein im Zuge einer Métis, einer listigen und zugleich zeit-punktgenauen Aktion, die von der Dynamis ihres Materials weiß, mit dem sie um-geht, oder im Zuge des Ergreifens eines sich aktualisierenden kontingenten Ereignisses, das in rhythmische Sequenzen von kontingenten Plots (nicht Plänen) implementiert ist, und in der Aktion der Gegenverwirklichung bedarf. (Gegenverwirklichung als Präzisierung jenes Teils des Ereignisses, das über die gewöhnlichen Verwirklichungen hinausschießt, was durch eine Vervielfachung von praktizierten Orientierungen geschieht, die sich der bloßen Umsetzung oder Vergegenständlichung von Plänen widersetzen, welche die Techniken auf ein Programmraster, dessen Kontingenz begrenzt ist, reduzieren wollen.) Wenn die maschinellen Transmissionen selbst in einem Feld der Begegnungen und Nicht-Begegnungen, der Subfrontation oder pragmatischen Differenzen angesiedelt sind, dann gilt es noch über die Métis hinaus das experimentum machinarum der Strategeme zu bedenken, inklusive einer Logik der Unterbrechungen, die zugleich um die Präzision des Undeutlichen bemüht ist und sich damit gerade dem Ideal des ungestörten Funktionierens verweigert, um schließlich die diskursive Praxis auf komplexe Ensembles von Wirkungen zu lenken, womit sich Maschinen nicht mehr als programmierbare Modelle der Präzision, sondern zumindest als Strategeme verschiedener Präzisionsgrade anzeigen. (Ebd.: 305f.) Der multiple Verwendungsraum der Maschinen, wie ihn Hans-Dieter Bahr vorschlägt, ist Simondons Raum der offenen technischen Objekte ähnlich, insofern die Struktur der Maschinen keineswegs allein über die zu Anfang des Essays angesprochenen kybernetischen Systeme von Input- und Outputverhältnissen und deren Steuerung definiert wird. Wenn die Maschinen prinzipiell eine Vielzahl unberechenbarer Effekte aufweisen, dann können sie nicht bloß als Mittel gebraucht oder wie in der Kybernetik nur bedient werden, noch lassen sich die Maschinensysteme allein über die Relationen der Inputs und Outputs und ihrer rekursiven Lenkungen bestimmen. Es geht hier schon gar nicht um das Nichtfunktionieren der gegenwärtigen informationellen Maschinen, um die Crashs oder Black Swans, die es mit kybernetischen Rückkopplungsschleifen zu reduzieren gilt, sondern um die Anerkennung und Ausnutzung der unberechenbaren Effekte des Maschinellen in der Zeit, die den humanen Aktanten selbst entstellen, wenn er mit seiner asynchronen Präsenz im Modus einer reinen Rhythmisierung in die technischen Systeme hinein geht, um sie vielleicht zu verstimmen oder mit ihnen im Experiment zu musizieren. Von vornherein inhärieren die maschinellen Systeme unberechenbare Effekte. So führte bspw. die Entwicklung handlicher Motoren im zwanzigsten Jahrhundert zur Verhandwerklichung des Massenverkehrs qua Automobil (Bahr 1983: 313), was aber eine Reihe von unerwarteten Effekten nach sich zog, die sich in einer Vielzahl von komplexen maschinellen Systemen, ja bis hin zu sozialen Megamaschinen kondensierten, angefangen von solchen der Verkehrsplanung und -systeme, des Militärs und Fragen der nationalen und internationalen Sicherheit usw., und diese Aufspreizung und Verflechtung pflanzte sich in gewisser Weise bis in das Zeitalter der Computerisierung fort und erreicht damit seinen vorläufigen Höhepunkt. Die Erfindung des Autos führte also zu Straßennetzen, während das Auto selbst ein Resultat der Fertigung in großen Fabriken ist, wie eben auch der Rechtsprechung, welche die Trennung der Fabriken von den Wohngebieten anordnet. Die Autobahnen nahmen in der Tat die heterotopischen kybernetischen Systeme vorweg, was noch nachklingt, wenn man heute von »Datenautobahnen« spricht – und nicht zuletzt lassen die Autobahnen die Gesteuerten zielgerecht qua Straßen, Autoströme, Verkehrszeichen und Navigationsysteme zu ihren Ankunftsorten gleiten; Autobahnen kennen als Effekte ihrer kalkulierten Regelhaftigkeit nur die beiden Gegenpole: die Null-Überraschung und die Verkehrssünde.

Um in einem breiteren Kontext die aktuelle Situation der globalen Finance zu analysieren, gilt es zunächst einige der neoliberalen Dogmen zu zerstören, wie etwa den Glauben an die Effizienz des wettbewerblichen Marktmechanismus, der notorisch zu Gleichgewichtszuständen führen soll, oder das Vertrauen in die Kapazitäten der finanziellen Systeme zur Selbstregulation, oder die Doktrin einer nachhaltigen Entwicklung, die den vierten Hauptsatz der Thermodynamik ignoriert. Wenn die globale Finance angeblich zur vollkommenen Effizienz und gar zur Gerechtigkeit drängt, so kann sie diese Situation doch nicht erreichen, da sie sich unaufhörlich vom Rauschen des Technischen, Ökonomischen und Sozialen ernährt, das durch sämtliche Informationsasymmetrien und strukturale Ungleichheiten insistiert, und diese »Disparitäten« werden heute von den neoliberalen Finanzregimen auf aggressivste Weise aufrechterhalten, um den Surplus fröhlich bis zum nächsten Crash zu extrahieren, der zudem noch die intensive Bewirtschaftung ökologischer Nischen inkludiert. Die Forderung nach Transparenz an den Märkten geht überhaupt nicht weit genug, im Gegenteil, sie fordert letztendlich nur den maximal beschleunigten Finanz-Verkehr bei maximaler Kontrolle ein. Wir sollten uns durch ein bisschen Reduktion des Rauschens auf keinen Fall irritieren lassen. Die Friktion muss umgekehrt und gegen das System gerichtet werden, anstatt in die Dissipation des Marginalen abgeschoben zu werden. Man muss in Zukunft die Exterorität radikal denken, indem eine non-dialektische Negativität in die Systeme selbst eingespielt wird.

Anders, Günther (1980): Die Antiquiertheit des Menschen 2. Über die Zerstörung
des Lebens im Zeitalter der dritten industriellen Revolution. München.
– (2002): Die Antiquiertheit des Menschen 1. Über die Seele im Zeitalter der zweiten
industriellen Revolution. München.

Avanessian, Armen (Hg.) (2013a): Realismus Jetzt. Berlin.
– (2013b): #Akzeleration. Berlin.

Bahr, Hans-Dieter (1983): Über den Umgang mit Maschinen. Tübingen.

Bryan, D. /Rafferty, M. (2006): Capitalism with Derivatives: A Political Economy
of Financial Derivatives, Capital and Class. New York/London.

Deleuze, Gilles/Guattari, Félix (1974): Anti-Ödipus. Kapitalismus und Schizophrenie
1. Frankfurt/M.
– (1992): Tausend Plateaus. Kapitalismus und Schizophrenie. Berlin.
– (1996): Was ist Philosophie. Frankfurt/M.

Durbin, Michael (2010): All About High-Frequency Trading. New York.

Esposito, Elena (2001): Soziales Vergessen: Formen und Medien des Gedächtnisses
der Gesellschaft. Frankfurt/M.
– (2007): Die Fiktion der wahrscheinlichen Realität. Frankfurt/M.
– (2010): Die Zukunft der Futures. Die Zeit des Geldes in Finanzwelt und Gesellschaft.
Heidelberg.

Galloway, Alexander R. (2011): »Black Box, Schwarzer Block«. In: Hörl, Erich: Die technologische Bedingung.
Beiträge zur Beschreibung der technischen Welt. Frankfurt/M. 267–281.

Hörl, Erich (2011): Die technologische Bedingung. Beiträge zur Beschreibung der
technischen Welt. Frankfurt/M.

Land, Nick (2010): Fanged Noumena. Collected Writings 1987–2007. London.

Lenger, Hans-Joachim (2013): Einschnitte des Technischen. In: http://www.hjlenger.de/

Kroker, Arthur/Kroker, Marilouise/Cook, Davis (1999): Panik-Enzyklopädie.
Wien.

LiPuma, Edward/Lee, Benjamin (2004): Financial Derivatives and the Globalization
of Risk. Darham.

Marx, Karl (1974): Grundrisse der Kritik der politischen Ökonomie. Berlin.

Mühlmann, Heiner (2009): Darwin – Kalter Krieg – Weltwirtschaftskrieg.
München.
– (2013): Europa im Weltwirtschaftskrieg. Philosophie der Blasenwirtschaft.
Paderborn.

Neyrat, Frédéric (2011): »Das technologische Unbewusste. Elemente für eine
Deprogrammierung«. In: Hörl, Erich: Die technologische Bedingung. Beiträge
zur Beschreibung der technischen Welt. Frankfurt/M. 147–179.

Rosa, Hartmut (2005): Beschleunigung. Die Veränderung der Zeitstrukturen in der
Moderne. Frankfurt/M.

Simondon, Gilbert (2012): Die Existenzweise technischer Objekte. Zürich/Berlin.

Sotiropoulos, Dimitris P./Milios, John/Lapatsioras, Spyros (2013a): A political
economy of contemporary capitalism and its crisis. New York.

Srnicek, Nick/Williams, Alex (2014): On Cunning Automata: Financial Acceleration at the Limits of the Dromological. In: Collapse. Volume VIII: Casino Real. London.

Taleb, Nassim Nicholas (2010): Der schwarze Schwan. München.

Vief, Bernhard (1991): »Digitales Geld«. In: Rötzer, Florian (Hg.): Digitaler
Schein. Frankfurt/M. S. 117–147.

Wilkins, Inigo/Dragos, Bogdan (2013): »Destructive Destruction? An ecological
study of High Frequency Trading«. In: http://www.metamute.org/editorial/
articles/destructive-destruction-ecological-study-high-frequency-trading

print

, , , , , ,

By