Deleuze/Guattari und die Quanten-Finance

Deleuze/Guattari fordern uns dazu auf, mindestens drei Denk-Modelle auf die theoretische Analyse der Ökonomie anzuwenden, indem sie selbst das Bild der Strömung, das ihrerAnsicht zufolge jedes Modell artikuliert, nachzeichnen. Erst das dritte, das molekular-performative Modell setzt die Kraft-des-Denkens richtig in Szene. (Laruelle setzt den Begriff Kraft-des-Denkens in Kontrast zum Gedanken. Gedanken oder Denken sind „falsche“ Repäsentationen, die in den akademischen Feldern der Konzepte entwickelt und dort auch gehandelt werden. Die Kraft-des-Denkens ist dagegen die wichtigste Erfahrung des Denkens, die dem transzendentalen Axiom des Realen folgt.) Das erste auf die philosophische Klassik bezogene Denkmodell fragt in einer Art philosophischer Selbstvergewisserung permanent nach, wie es dem Baummodell gelingen kann, durch unidirektionale Prozesse unter Umständen auch chaotische Strömungen linear zu verteilen. Ein zentralisierter Baumstamm teilt sich in zwei; eine derartige Binarität leistet die dualistische Verteilung der Ströme. Oder um es anders zu sagen, vom Zentrum der Macht her strahlen die Sprossen mittels eines einheitlichen, synchronisierten Sets von homogenisierten binären Prozessen aus. Digitalisierung, die Teilung der Eins in Zwei, bedeutet, dass zwei Terme, egal welche, zueinander in Relation gesetzt werden: bezüglich der Information erfolgt die Aufteilung in zwei Formen, bezüglich der Sprache die Aufteilung in Repräsentation und Repräsentiertes, bezüglich des Denkens die Aufteilung zwischen Denker und dem, was er denkt. Das Digitale enthält somit das Potenzial die Dinge und Objekte zu trennen und fortlaufend weitere Unterschiede zwischen ihnen zu machen. Mit Alexander Galloway fassen wir das Digitale nicht als Unterscheidung in Null und Eins, vielmehr als die grundlegendere Unterscheidung/Teilung in Eins und Zwei, die es ermöglicht immer weitere Unterscheidungen zu generieren. Und diese Art der Verteilung betrifft selbst noch diejenigen Bäume, die in ihrer organisatorischen Verteilung nicht strikt vertikal angelegt sind.

Auf die Analyse der Ökonomie bezogen heißt dies, dass es darzulegen gilt, wie es dem Baumsystem gelingt, verschiedene ‘Unit Dipole’ (Institutionen, Agenten, Assets etc.), die alle in eine lineare Richtung expandieren, so zu verlinken, dass die von einem Zentrum (Link-Dipol) aus immer schon vorgeschriebenen, euklidischen, etablierten Routen befolgt werden. Dabei geht es Deleuze/Guattari hier nicht ausschließlich um die Untersuchung der Funktionsweisen von Planwirtschaften, sondern es können durchaus auch Analysen über die Funktionsweisen von Institutionen wie die Notenbanken unserer heutigen kapitalistischen Ökonomien als Untersuchungsmaterial angestellt werden. So kombiniert bspw. die amerikanische FED „Open Market Operations“ – eine an den finanziellen Sekundärmärkten und deren Verlaufsformen orientierte Offenmarktpolitik – mit souveränen Entscheidungen (bezüglich der „short term interests rates“), um wurzel- oder baumähnliche Modi der Verteilungen von Geldkapitalströmen zu kreieren. Derlei Aktionen der Notenbanken können die Geldmenge und die Geschwindigkeit der Geldzirkulation durchaus verändern, beeinflussen aber heute in einem geringerem Maß als noch vor 30 Jahren die Preise und Liquidität an den Finanzmärkten, mit der schließlich auch die Preise der klassischen Warenströme manipuliert werden (es besteht weder zwischen Geldbasis und Geldmenge noch zwischen Geldmenge und Inflation ein fester Zusammenhang qua Geldschöpfungsmultiplikator). Die Notenbanken sind als nicht-staatliche Institutionen zugleich von staatlicher Seite her authorisiert, als ein ‘Link-Dipol’ an den Geld- und Kapitalmärkten zu agieren, um mit dem Rest der ‘Unit-Dipole’ der Ökonomie (Waren-, Equity- und Konsumwarenmärkte) zu interferieren. Sie versuchen sog. target-interest rates zu implementieren, womit sie über gewisse Möglichkeiten verfügen, die Geldnachfrage tatsächlich zu regeln (durch den Kauf und Verkauf von Treasuries), und geben damit im Rahmen einer hierarchischen Verteilung von Informationen kontinuierlich Signale an den Märkte ab. In der Tat versuchen die Notenbanken alles, um die Relationen zwischen dem Molaren und dem Molekularen zu kontrollieren und zu regeln, aber sie bleiben letztendlich durch das bestimmt, was ihnen entflieht, oder, um es anders zu sagen, durch ihre Impotenz, die sie darin hindert, die Geldkapitalströme umfassend regulieren zu können und die damit ihre angeblich unumstößlichen Macht- und Einflusszonen immer wieder der Gefahr der Krise aussetzt. Die Vorgabe von Wachstums- und Geldmengenzielen – intermediäre Zielgrößen wie Zins- und Diskontsätze, Bestimmung der Bankrerserven etc. – haben in den letzten Jahrzehnten in den Ökonomien an Wirkung stark eingebüßt und werden nun intensiver denn je vom real-finanziellen Kapital und seinen Maschinen beeinflusst, die im Zuge ihrer ultraschnellen Transaktionsketten die Kreditbewegungen, Zinssätze, Währungsschwankungen und Preise selbst modulieren. Sachverhalte wie die Expansion des Kredits, permanente Zinsschwankungen und die differanzielle Bewegung der Derivatpreise sind dem Zugriff der Notenbanken weitgehend entzogen. Im Gegenteil, die Notenbanken sehen sich nun selbst gezwungen, offensiver denn je Offenmarktpolitik zu betreiben und an den Geldmärkten zu handeln; sie mutieren selbst zu Investoren, wenn nicht gar zu Spekulanten, und dies mit der Konsequenz, dass sich die Festlegung der Geldquantitäten, die als Steuerungsgrößen eine stabile Relation zu Preisbildungsprozessen aufweisen sollen, durch ihre eigenen Aktivtäten immer weiter verschiebt

.Das zweite Denkmodell zeichnet sich Deleuze/Guattari zufolge als ein System der kleinen Wurzeln aus, wie es insbesondere in der Moderne zur Anwendung kommt. Deleuze/Guattari schreiben: “Die Hauptwurzel ist (hier) verkümmert, ihr Ende abgestorben, und schon beginnt eine Vielheit von Nebenwurzeln wild zu wuchern.” Für Deleuze/Guattari unterscheidet sich dieses Modell jedoch nicht wesentlich vom Baummodell, denn das System der kleinen Wurzeln muss wegen einer Reihe von gesellschaftlichen Restriktionen die Idee der Vielheit ganz klar verfehlen; es berücksichtigt zwar die Vielfalt der Erscheinungen der äußeren Welt, aber dennoch scheint es nur einem identischen Subjekt möglich, jene zu koordinieren. Somit wird die prinzipielle Dualität des Denkens überhaupt nicht beseitigt, vielmehr wuchert sie in der fortwährenden Teilung des Objekts sogar noch stärker fort, während das Subjekt zugleich als ein neuer Typ von totalisierender Einheit erfunden wird.

Auch hinsichtlich ökonomischer Analysen findet man in diesem Modell das geheime Einverständnis mit der höheren Einheit vor, und dies jenseits einer Tendenz, die zur molekularen Vielheit führt: Kontingenzen wie sie im Angebot-Nachfrage Verhältnis, der dezentralisierten Kausalität und der Stochastik der Preisbewegungen angelegt sind, dürfen zwar als Beispiele für Vielheit gelten, aber diese Kontingenzen sind begrenzt; sie sollen schließlich den sog. „freien Marktkapitalismus“ als das Modell eines determinierenden, hierarchisch organisierten Kapitals und seines Staates (ideeller Gesamtkapitalist) affirmieren, indem sie umstandslos die Macht der höheren Einheit (Quasi-Transzendentalität des Kapitals) anerkennen, die eine bestenfalls gleichgewichtige Organisation der Verteilung von Geldkapitalströmen zu gewährleisten hat. Es geht Deleuze/Guattari darum zu zeigen, dass das zweite Modell den (apersonalen) „General“ – eine durchaus apersonale Einheit, die jedoch entweder an das Objekt oder an das Subjekt gebunden bleibt – des ersten Modells, der für n-Entitäten notwendig ist, um unisono deren Management zu leisten, angesichts der Funktionsweisen der kapitalistischen Konkurrenz für unerlässlich hält, wenn es darum geht, die Kapitalakkumulation zyklisch stabil bzw. in einem Stadium des Gleichgewichts zu halten.

Kommen wir nun zum dritten Modell. Für Deleuze/Guattari muss das Multiple bzw. die Vielheit andauernd produziert werden, und zwar nicht, indem man den bisherigen Modellen unaufhörlich höhere Dimensionen hinzufügt, sondern indem man umgekehrt in der einfachsten Art und Weise die Einheit vermeidet, also immer n-1 anschreibt. In gewisser Weise ist das Rhizom nicht, es ist allenfalls vielfältige Bewegung unter Ausschluss der zentralen Eins, es leistet eine Subtraktion, die aus jeder Bewegung eliminiert, was sich als Eins bzw. determinierende Einheit präsentieren will. Ein solches Konstrukt bezeichnen Deleuze/Guattari als Rhizom, das durch sechs grundlegende Prinzipien oder Eigenschaften gekennzeichnet ist: a) n-dimensionale Konnektivität, b) Heterogenität, c) Multiplizität oder Vielheit, d) asignifikanter Bruch oder Non-Linearität, e) Kartographie, und f) Decalcomania.

Man könnte sich nun ganze Cluster von Märkten vorstellen, die von vielfältigen Operatoren und Vektoren bevölkert sind, welche at once Hedging, Arbitrage und Spekulation betreiben, und zwar mit Hilfe von verschiedenen Assets und ihren verschiedenen Klassen des Tauschs und den Anforderungen, die durch die ökonomischen Eigenschaften/Objekte der Assets jeweils gegeben sind, um schließlich den Markt kontinuierlich als einen mobilen Horizont von heterogenen, qunatifizierenden Regimen der Zeichen, Diagramme und Technologien zu kreieren. Diese Prozesse nennen Deleuze/Guattari ökonomische Kriegsmaschinen. Dabei gilt es die Volatilität der Preisbewegungen eines Assets bis zu einem gewissen Grad durch die Differenzierung von Konzepten (Innovation eines Derivats bzw. eines Derivatemarkts), Techniken (mathematische Formalisierung bzw. Standardisierung) und Operationen (Strategien wie dynamic hedging) zu regulieren, wofür man Verfahren der ständigen Kalibrierung und Rekalibrierung benötigt, da kalkulierende Prognosen in neue Prognosen geteilt werden können (Derivate werden nicht nur auf Basiswerte, sondern auch auf Derivate geschrieben). Zukünftige Ereignisse gilt es zu identifizieren und zu quantifizieren, ihre Wahrscheinlichkeiten zu evaluieren, um ihnen entsprechende Preise zuzuteilen und auf kommende Investitionsentscheidungen anzuwenden. Dies geschieht heute vornehmlich mittels quantitativer (mathematischer) Operationen, in denen etwa stochastische Reihen Anwendung finden.

In diesem Kontext spricht Randy Martin bezüglich der Derivate von einer neu aufkeimenden Möglichkeit, derivative Sozialität auf planetarischem Niveau einzuführen, oder vom phantasmatischen Bruch mit der linearen Zeit. Er schreibt: „Während Derivate in einer Sprache der futures und forwards, der gegenwärtigen Vorwegnahme dessen, was zukünftig ist, konzipiert sind, […] spricht der Akt der Bündelung von Attributen für eine Orientierung nach allen Seiten hin, die ein Effekt von gegenseitiger Kommensurabilität ist.“ Wir müssen jedoch feststellen, dass die deterritorialisierten bzw. virtualisierten Geldkapitalströme bzw. die Derivate heute längst selbst rhizomatische Eigenschaften prozessieren, i.e. molekulare-dynamische, volatile Prozesse, die in der Lage sind, selbst noch die metrisierten Zahlungsströme mit fungibleren, anexakten und topologischen Strömen des Finance-Geldes zu verlinken, wobei – das scheint hier essenziell zu sein – diese molekularen Kompositionen der Geldkapitalströme die metrisierten Segmente der Ökonomie und ihrer Zahlungsströme heute dominieren, die allerdings nach wie vor wichtige makroökoomische Parameter wie Zinsraten, Verhältnis von Angebot und Nachfrage etc. setzen oder zumindest beeinflussen (letzteres verweist auf die extensive Determination des Werts oder des kardinalen Werts). In den ökonomischen Rechenschaftsberichten und Bilanzierungen werden Linien und Segmente in bestimmten Metriken aufgezeichnet, in numerische Register oder Maße, und dies ausgehend von gegebenen Werten oder Bestandsgrößen. Diese Linien sind stratifiziert; es geht um die gekerbten Metriken der Geldkapitalströme bzw. die dominante Metriken des kardinalen Werts, bspw. empirisch-statistische Daten wie Löhne, Nettoersparnisse, Nettoprofite, Zinsraten, Kapitalforderungen, Investments, Konsumtion etc.: Das ist die klassische Herangehensweise der Wirtschaftswissenschaften Werte zu repräsentieren – kardinale Werte. Die Machtzentren der Ökonomie, wie sie etwa in den Notenbanken verdichtet sind, versuchen permanent die molaren und die molekularen Ströme zu vermitteln. Selbst die quantitative Finance übernimmt hier eine Vermittlungsfunktion. Sie ist eng an die Informatik und Big-Data-Technologien gekoppelt, bedient sich der Forschungen zur künstlichen Intelliigenz oder der evolutionären Algorithmen, die in spieltheoretischen Simulationen eingesetzt werden und der Optimierung der Computerhardware und der Kommunikationsnetze dienen. Das Molare wird durch die Makroökonomie definiert (rigide, veridikal, euklidisch, baumartig etc.). Hingegen zeichnet sich die Mikroökonomie durch Eigenschaften wie Fungibilität, Horizontalität, Topologie, Rhizomatik etc. aus.

Es gibt eine doppelte reziproke Abhängigkeit zwischen den beiden Bereichen zu vermelden: Wann immer eine fixierte Linie identifiziert wird, kann man unter Umständen wahrnehmen, dass sie in einer anderen Form fortwuchert, bspw. als ein quantum flow. In jeder Instanz lässt sich an der Grenze zwischen Molarem und Molekularem ein Machtapparat verorten, der keineswegs durch absolute Machtausübung, sondern durch relative Adaptionen und Konversionen, die bestimmte Effekte in den Geldkapitalströmen nach sich ziehen, gekennzeichnet ist.
Mit dem Begriff des Rhizoms beginnen Deleuze/Guattari ihr Konzept des ordinalen Werts genauer zu skizzieren, das sofort die Frage nach der ökonomischen Quantifizierung, Bewertung und Bewegung von differenziellen Preisen in glatten Räumen aufwirft, die sich der Metrisierung entziehen. Jede Stratifizierung, Repräsentation und Metrisierung, egal, ob sie durch den Preis oder einen anderen ökonomischen Parameter durchgesetzt wird, muss sich heute auf die nicht-quantitative Differentation einer rhizomatischen, finanziellen Ökonomie beziehen. Es könnte sogar sein, so zumindest Deleuze/Guattari, dass in einer Ökonomie der molekularen Kriegsmaschinen selbst noch das Geld, zumindest in seinen Funktionen als Maß und Zirkulationsmittel, durch die es Bewertungen metrisiert und bewegt, nicht länger benötigt wird.

In beiden hier besprochenen Räumen gibt es Punkte, Linien und Oberflächen. Im gekerbten Raum sind die Linien meist den Punkten untergeordnet, i.e Linien stellen nur die Verbindungen zwischen den Punkten her; im glatten Raum finden wir das umgekehrte Prinzip vor, i.e. die Linien gehen durch die Punkte hindurch. Im glatten Raum des Kapitals transformiert die Linie unweigerlich zum Vektor (einer Richtung) – produziert durch örtlich begrenzte Operationen und Richtungsänderungen, und somit ist sie als nicht-dimensional und nicht-metrisch zu fassen. Die Materialien verweisen im glatten Raum auf vielfältige Kräfte oder dienen ihnen als Symbole, während im gekerbten Raum es stets die Formen sind, die die Materie organisieren.Organlose Körper, Entfernungen, symptomatische und einschätzende Wahrnehmung des glatten Raumes stehen dem Organismus und der Organisation, den Maßeinheiten und dem Eigentum des gekerbten Raums gegenüber.

Linien sind als konstitutive Elemente von Dingen und Ereignissen verstehe; die Linie bedeutet nicht Einheit des Einen, sondern eine Einheit, die sich durch Vielfalt auszeichnet (one-all). Das Einzelkapital mit seinen vielfältigen Komponenten zieht im offenen System des Rhizoms (ein Geflecht/Faltung von Linien) unaufhörlich Linien und wird von ihnen im Kontext des Gesamtkapitals gezogen – es nimmt die Linien für die kontinuierliche Effektivierung der Akkumulation in Anspruch, um keineswegs nur statische Produkte zu erzeugen, sondern für sich selbst die Optimierung der Linien im Kontext seiner Kapitalisierung zu erreichen.

Es geht hier in erster Linie nicht länger um die Herstellung von Produkten (Anzahl und Qualität incl. der Input- und Outputs), sondern um die Kreation von profiträchtigen Linien/Wellen/Vektoren, die nicht-linear und spiralförmig verlaufen – infinite und a-lineare Linien, die in alle Richtungen fliehen. Dieser per se virtualisierende Aspekt des Kapitals wird durch das ökonomische Mathem und dessen quantifizierenden Modus supplementiert, aktualisiert und damit immer auch restringiert. Dabei gilt es festzuhalten, dass der Kult um »die« Dialektik als Ariadnefaden zur Beherrschung des Labyrinths des Kapitals im Grunde immer versucht hat, das Algebraische nur als Ableitung des Sprachlich-Begrifflichen zu denken. Darin liegt zwar eine gewisse Notwendigkeit des theoretischen Zugangs, doch wurde dabei die Polarität der Opposition zugunsten des sprachlichen Logos verschoben. Der durch die deterritorialisierten Geldkapitalströme geleistete Differenzierung, Temporalisierung, Modulierung und Glättung des Maßes (des Geldes), korreliert das Mathem der Ökonomie (Modularisierung) bzw. die komplexe Logik des Algorithmus, der heute die Messungen ausführt. An den Derivatmärkten spielt die nicht-quantifizierbare Rhythmisierung eine immer bedeutendere Rolle, obgleich sie durch die an anderer Stelle beschriebenen Algorhythmen, die in diskreten Schritten temporal-rhythmische, derivative „Messungen“ ausführen (Volatilität), inkorporiert und aktualisiert werden muss. Die erste Art der Rhyhtmisierung dient rein der Verwertung des Geldkapitals, das pemanent spekulative Linien zieht, die weniger den Wert der Waren oder der Unternehmen dokumentieren, als die Optimierung des Geldkapitals anstreben.

Um einen direkten Zugriff auf die Preisbildung zu bekommen, die immer stärker ohne die »Latenzzeit« menschlicher Handlungsgeschwindigkeit auskommt, war es zunächst notwendig, die elektronischen Märkte zum Paradigma der Preisbildung zu machen. Einen wichtigen Moment in dieser Entwicklung stellt die Einführung der Art Open Source-Plattform Island, dar, die es erlaubte, buy und sell orders abseits der bekannten Börsenplätze und ihrer Market-Maker zu platzieren. Sie ging 1996 an den Start und machte den Weg für den automatisierten Handel für. Diese Innovation führte nicht nur zu radikalen Veränderungen an den Wertpapierbörsen-Plätzen (etwa der NYSE oder NASDAQ), sondern auch zu einer Verringerung der menschlichen Arbeitskräfte (mit wenigen Ausnahmen), die den Börsenhandel bis zu diesem Zeitpunkt beherrscht hatten: Die auf affektive wie intellektuelle Interaktion aufbauenden Trader, die die Preisbildung am Handelsparkett bestimmten, waren redundant geworden. Der Handel mit der Zukunft in immer mikroskopischeren Gegenwartsmomenten, unter Berücksichtigung gigantischer Mengen von historic data und der Automatisierung des order flow versprach Märkte mit hoher Liquidität und Fairness in der Preisgestaltung. Auch die Regulierungsbehörden waren, wie Haim Bodek betont, davon angetan, führten diese Systeme doch zu einer Verringerung des Spread , der Differenz zwischen Kauf- und Verkaufspreisen, von denen die Market-Maker lebten, und damit zu eine besseren Auftragsausführung für alle Marktteilnehmer, also auch für verhältnismäßig unerfahrene Privatanleger mit kleinen Budgets.

Gerald Raunig spricht neben der rein spekulativen oder virtuellen Linie von einer abstrakt-dividuellen Linie, die die Dinge und Relationen durchquert, er spricht von der sozialen Fabrik der neuen prekarisierten Unternehmen, von deterritorialisierten Hypotheken und Krediten etc., die als Risiken qua Derivate gebündelt und neu zusammengesetzt und in einen singulären cashflow und ein einziges Risiko verwandelt werden, um dieses wieder in Tranchen zu zerlegen (CDO), mit dem Ziel weitere Profite zu generieren. Er zitiert in diesem Kontext Randy Martin, dessen Argumentation hier erneut auf die Dominanz des finanziellen Kapitals gegenüber dem mit ihm untrennbar verbundenen „Realkapital“ verweist. Martin schreibt in seinem Buch Knowledge Ltd: „Während das massenhafte Fließband all seine Inputs an einem Platz versammelte, um eine straff integrierte Ware zu erzeugen, die mehr war als die Summe ihrer Teile, spulte das financial engineering diesen Prozess verkehrt ab, indem es eine Ware in ihre konstituierenden und veränderlichen Elemente zerlegte und diese Attribute zerstreute, um sie zusammen mit den Elementen anderer Waren zu bündeln, die für einen global orientierten Markt für risikogesteuerten Austausch interessant sind. Alle diese beweglichen Teile werden mit ihrem Risiko-Attribut wieder zusammengesetzt, sodass sie als Derivat mehr wert werden als ihre individuellen Waren.“ Das Derivat ist weit mehr als nur ein geschriebener Vertrag, der den Austausch einer Gegenstandes oder Ware zu einem zukünftigen Zeitpunkt und zu einem bestimmten Preis regelt, er ist ein finanzielles Instrument, das entgegen den Vorstellungen der Trennung von finanzieller und realer Ökonomie auf eine dem Geld supplementäre Weise (es muss stets in Geld realisiert werden) eine Art Messung qua Vergleich zukünftiger Geldkapitalströme ermöglicht, und damit die Regulation und Kopplung der verschiedenen ökonomischen Bereiche, Einzelkapitale und Kapitalfraktionen ermöglicht, sie gerade über bestimmte Differenzierungsprozesse miteinander kommensurabel macht, wobei die Derivate eben je schon in Geld realisiert werden und selbst als eine Form des Geldkapitals zu verstehen sind. Randy Martin schreibt über die Differenzierungsprozesse der Derivate:„Während uns die Waren aber als Einheit des Reichtums erscheinen, die Teile in ein Ganzes abstrahieren kann, sind Derivate noch immer ein komplexerer Prozess, in dem Teile nicht mehr einheitlich sind, sondern ständig zerlegt und wieder gesammelt werden, wenn unterschiedliche Attribute gebündelt werden und ihr Wert die ganze Ökonomie übersteigt, unter die sie einst summiert worden waren. Größenverschiebungen vom Konkreten zum Abstrakten oder vom Lokalen zum Globalen sind nicht länger externe Maßstäbe der Äquivalenz, sondern im Inneren der Zirkulation der gebündelten Attribute, die Derivat-Transaktionen vervielfältigen und in Bewegung versetzen.“

Im Diagramm eines synthetischen Assets werden die diskreten Elemente, die ja nichts weiter als die ökonomischen Eigenschaften des Assets (cashflow, Fristigkeit, Preis, Risiko, Volatilität etc.) sind, zueinander in Beziehung gesetzt. Man kann es nun dabei belassen und sagen, die Relationen extistieren vor den Relata, die sich aber nicht auflösen, oder man kann mit Nietzsche sogar noch einen Schritt weitergehen und sagen, dass die Eigenschaften eines Dings nur Effekte auf andere Dinge sind, und wenn man dann den Term „anderes Ding“ wegnimmt, dann hat ein Ding gar keine Eigenschaften mehr, also gibt es definitiv kein Ding ohne andere Dinge. Dinghaftigkeit lösst sich damit ganz in den Flux der differenziellen Ereignisse auf. (Wenn man unter Anerkennung der Dominanz der Relationen gegenüber den Relata diese nicht ganz in Ereignisse auflöst und sie in einer relativen Unbahängigkeit belässt, dann verbleibt dies immer noch innerhalb der Relation „Relation und Relata“. Könnte hingegen mit Heidegger die objektive Partikularität der Relata als abhängig von einem Realen gedacht werden, von einer nicht-objektiven Transzendenz, die jedes Relata in zwei formale unterschiedene Seiten trennt, wobei eine Seite der Entbergung und Verbergung in Richtung des Seins des Seiendem zugeordnet ist, und eine Seite dem Objekt, das indifferent gegenüber der anderen Seite ist. Heidegger stellt hier die Frage nach der Irreversibilität als solche, die sich am Ende nicht selbst verleugnet. Das kantianische Ding an sich ist eine essenzielle Subtraktion, als tautologische Subtraktion in sich selbst als die Essenz des Seins. Nichts nichtet.)

Was ist nun unter einem „quantum flow“ zu verstehen? Es ist ein deterritorialisierter Strom des Finanz-Geldes, der keine Segmente und keine stratifizierten Linien kennt, sondern Singularitäten und Quanten. Dabei gelten die Pole der jeweiligen Ströme als Verdichtungen, an denen Geld kreiert und zerstört wird; Singularitäten bedeuten die nominalen liquiden Assets und die Quanten stehen für Prozesse, etwa Inflation, Deflation und Stagflation. Über Derivate lassen sich bestimmte Verteilungen und entsprechende Ryhtmisierungen der Geldkapitalströme in andere Formen und zur gleichen Zeit beobachten. Für Deleuze/Guattari liegt jeder Quantenstrom „tiefer“ als die Geldkapitalströme, deren Metriken sich auf Elemente von kardinalen Werten beziehen: Es handelt bei den Quantenströmen um mutante, konvulsive, kreativ, zirkulatorische und materielle Strömungen, die an das Begehren gebunden sind und immer tiefer liegen als die soliden Linien und ihre Segmente, die bspw. Zinsraten und das Verhältnis von Angebot und Nachfrage determinieren. Für Deleuze/Guattari gibt es also zwei ökonomische Denkweisen, a) die der ökonomischen Rechnungsführung (Segmente und solide Linien einer molaren Organisation, die determinative Metriken des kardinalen Werts repräsentieren), b) die des Finanz-Geldes, das man heute als Strömung der Finance oder eben als finanzielle Ströme bezeichnet. Miyazaki hat in seinem Buch “Algorhythmus” gegen die Metapher des Strömens den Begriff des Rhythmus ins Spiel gebracht, der für die Beschreibung von digitalen Netzwerken und den Gefügen der Speicherung, Übertragung und Bearbeitung präziser sei, weil er ein diskretes, katastrophisches Fließen anzeige, das als Algorhythmik zwischen dem Diskret-Stoßhaften und dem kontinuierlich-Fließenden anzusiedeln sei. Mittels der algebraischen Logik kann Steuerung und Kontrolle als eine Kette von Schaltungen beschrieben werden, die der Herstellung von Fließgleichgewichten dienen, »wobei der Ausdruck ›Fließen‹ nur verdeckt, daß es sich in jedem Moment nur um mehr oder weniger große Abstände binärer Zustände handelt, bis zum Grenzwert ihres Zusammenfallens.« (Bahr)

Die Problematisierung der Quantenphysik verspricht an dieser Stelle Aufklärung. Sie hat die Grundlagen der klassischen Physik durch die bahnbrechende Einsicht von Max Planck erschüttert, dass Strahlung wie etwa das Licht, das bis dahin als kontinuierliches Phänomen betrachtet wurde, unter bestimmten Bedingungen ein Quantum sein oder diskontinuierlichen Charakter haben könne. Gemäß der klassischen Auffassung verhält sich das Licht wie eine Welle, aber seit Einsteins Entdeckung, dass Licht unter gewissen Umständen sich als Partikel verhalten kann, musste die klassische Position in der Physik anerkennen, dass es Unbestimmtheit gibt, i.e. der Wellen- oder Partikel ähnliche Zustand des Lichts kann nicht zur gleichen Zeit beobachtet werden. Die Visualisierung oder Repräsentation des Quantenphänomens in einem einzigen Bild ist nicht möglich.

Das Konzept der Komplementarität, das von Nils Bohr erfunden wurde, stellt in ähnlicher Weise wie später Derrida (anhaltende Gegensätze zur gleichen Zeit) einen Bezug zwischen Quantenmechanik und Philosophie her. Wenn die Hauptfrage diejenige ist, ob ein Objekt zur gleichen Zeit gegensätzliche Eigenschaften der Welle und des Partikels annehmen kann, so zeigen spätere Experimente, dass dass “wave-like” and “particle-like” nicht einmal Eigenschaften oder Attribute sind, die sich Quantenobjekten zuschreiben lassen, weil diese Designationen auf klassischen Konzepten beruhen, die radikal neue Phänomene zu beschreiben versuchen. Neue Designationen brachten sogar die Frage auf, ob Quantenobjekte überhaupt als Objekte gedacht werden können. Damit war die Physik plötzlich mit dem Unbestimmbaren konfrontiert, das beobachtbar nur in seinen Effekten ist. Die unerkennbaren Objekte von Quantenphänomen wurden als “efficacities” bestimmt, i.e. sie sind uns nur durch ihre Effekte zugänglich, die man aber nur mit den Konzepten der klassischen Physik beobachten und verstehen kann. Die klassische Physik und die ihr eigenen Prinzipien der Kausalität benötigen die Konstrunktion eines Modells, mit dem die Interaktion zwischen natürlichen Objekten und natürlichen Phänomenen beobachtet, gemessen, erklärt und verifiziert werden kann. In der Quantenmechanik wäre ein solches Modell nicht möglich, da nur die Interaktionen zwischen den Effekten of the efficacities (Wirksamkeiten) und den Messinstrumenten beschrieben werden können. Wie Bohr sagt, benötigt all dies eine Abkehr nicht nur vom klassischen Prinzip der Kausalität und seiner Visualisierung, sondern geerelvon der klassischen Einstellung hinsichtlich des Problems der physikalischen Realität. Wenn aber das Nicht-Wissbare nur durch seine Effekte erkennbar ist – durch die Konzepte der klassischen Physik –, dann benötigt solch eine Situation eine Revision dessen, was Realität konstituiert, und somit lässt sich kaum nochdem Modell eines Modells folgen, oder etwa dem Konzept des Modells der klassischen Physik. Im Gegensatz zu klassischen, kausalen und deterministischen Art und Weisen Modelle gemäß Modellen zu konstruieren, bewiesen die Quantenphänomene, dass solche Arten des Modellierens nicht fuktionieren, weil in der Quantenmechanik generell das, was bisher für garantiert gehalten wurde, auf dem Spiel stand. Die Quantentheorie kann aus dieser Perspektive als eine Krise der Repräsentation betrachtet werden, ihrer Modelle und der Mimesis, des platonischen Modells eines Modells, mit dem die Wissenschaft generell fähig war, bestimmte Phänomene als vernünftig zu repräsentieren. Mit dem Aufstieg der Quantentheorie stand die Sichtbarkeit solcher Phänomene und damit ihre Repräsentation auf dem Spiel. In diesem Sinne war Bohr kein Hegelianer; sein Konzept der Komplemetarität stellte nicht nur das hegelsche Konzept der Synthesis grundlegend in Frage, sondern enthielt die Kritik einer Metaphysik der Präsenz. Bohr wäre vielleicht dem Dekonstruktivismus Derridas zuzuordnen, der nur dann Synthesis für möglich hält, wenn man die Metaphysik der Präsenz affirmiert. Für Bohr tat sich an an dieser Stelle wirklichein Abgrund auf. Und Bohr war vielleicht der Bataille der Physik, ein nicht-hegelianischer Hegel, der jede Art der Synthesis zwischen Gegensätzen unterbrach, um sie endlos in ihrem Auseinanderbrechen fortzusetzen.

Geldkapitalströme und ihrer Rhythmiken lassen sich auf der Ebene der Virtualisierung weder indexieren noch können sie durch die gängigen Metriken des betrieblichen Rechnungswesens gemessen werden, und sie können auch nicht durch neue Metriken und Segmente reguliert werden, vielmehr operieren sie zwischen und durch die Pole, um ständig neue Singularitäten und Quanten zu kreieren – sie bestimmen nicht zuletzt die molaren Determinanten der kardinalen Werte. Molekulare Geldströme lassen sich also nicht repräsentieren, sie widerstehen der Metrik und können sogar Fluchtlinien aufzeigen (aus den makroökonomischen Indikatoren), die sich durch Deterritorialisierung, Destruktion und Transformation des klassischen ökonomischen Denkens, Glaubens und des Wunsches auszeichnen, aber in gewisser Weise kommen sie immer auch zu spät, insofern die makroökonomischen Indikatoren die molekularen Bewegungen schon wieder reterritorialisiert haben.

Liquidität erscheint oft als die wichtigste Eigenschaft eines Assets. Man kann diesen Aspekt als Transaktionsliquidität bezeichnen, i.e. ein Asset besitzt Liquidität, wenn es gegen Geld getauscht werden kann (das Objekt besitzt Liquidität). Aber Liquidität kann gerade auch dafür dienen, um jene Kapitalmärkte zu durchdringen, die von differenziellen Varietäten der Assets bevölkert werden. Hier spricht man dann nicht länger von der Liquidität der Assets, sondern von Marktliquidität, um die Liquidität innerhalb eines simulativen Raums für den Tausch zu attributieren, in dem die Marktteilnehmer ihre Positionen schnell genug liquidieren können, ohne exzessive Preisminderungen der involvierten Assets hinnehmen zu müssen (man kann hier einen Shift der Liquidität als eine rein objektive Eigenschaft zu einer Eigenschaft des simulativen Raums mit objektiven Konsequenzen annehmen). Natürlich bezeichnet man die Liquidität auch als eine Eigenschaft, die ganz auf den Schuldner bezogen ist und dann funding liquidity genannt wird. Dies involviert die Kreditwürdigkeit des Schuldners sowie seine Möglichkeiten, Assets zu einer akzeptablen Zinsrate auszuleihen, um nicht die Konversion der Liquidität als Insolvenz zu erleiden.

Die fundamentale Voraussetzung für entwickelte Finanzmärkte ist das sog. sekundäre Trading, das auf dem vertrauen auf hochliquiden Geld-und Kapitalmärkten beruht. Der Preisbildungsprozess, angefange von primitiven Sicherheiten bis hin zu einzelnen finanziellen Innovation (Derivate) verlangt „kontinuierliche“ finanzielle Werte; und „kontinuierliche“ Preisbildung hängt von dem Vorhandensein von finanzierbarer Liquidität ab. Das glatte Funktionieren des finanziellen Systems baut auf der Vorstellung auf, dass die Option zu handeln selbst unter ständig getesteten Bedingungen vollzogen werden kann. Aber liegt auch eines der Probleme für das gegenwärtige finanzielle Kapital, denn obgleich die moderne Finance die Verwertungsbedingungen für das Kapital verbessert, bleibt es stark auf Marktliquidität angewiesen. Wenn diese verdampft, dann wird das ganze Setting schnell brüchig. Mit andere Worten, die Forderung für höhere Disziplin im Rahmen kapitalistischer Machtbeziehungen macht das ökonomische Milieu fragiler und verletzbarer. Liquidität muss dem finanziellen System als endogen zugeordnet werden. In Zeiten der Gefahr tendiert die Bewertung der Risikochancen und die Preise der Assets nach unten, die Marktteilnehmer ziehen ihre Kreditlinien, and/or raise margin requirements, um sich gegen die Risiken, die von Kontrahenten ausgehen, zu schützen, und die Liquidität verschwindet, wenn sie am meisten gebraucht wird, sodass schließlich der gesamte Preisbildungsprozess zusammenbrechen kann. Dies wäre eine Beschreibung, die man Marxens finanzielle Instabilitäts-Hypothese nennen könnte.

Ökonomische Objekte stehen niemals für Prozesse wie Inflation, Deflation etc., vielmehr sind es hier die Relationen, die die preislichen Spreads zwischen den Objekten und dem Imago des Werts (Geld) anzeigen, Relationen, die wiederum auf Prozesse der Inflation oder Deflation verweisen. Auch Quanten sind keine Objekte, sondern eher stochastische Prozesse, durch die ökonomische Objekte den Status der Objektivität erst erlangen. In diesem Kontext unterscheidet sich das Phänomen der Inflation anscheinend zunächst nicht viel von dem des Wetters, es ist eine Haeccietas, es artikuliert die differenzielle Preisbewegung und/oder die Stochastik von Preisbewegungen, die sich wiederum in Objekten verdichten, ohne je auf solche Objekte reduziert werden zu können. Wir können also sagen, dass Quanten-Ströme und ihre Rhythmen oft stochastische Prozesse sind, deren Dynamik um Singularitäten herum gebildet werden, um sich unter Umständen wieder in Linien und Segmente zu refraktieren, in Metriken der Repräsentation bzw. des kardinalen Werts. Dagegen beharrt die Theorie des ordinalen Werts darauf, dass die Geldkapitalströme aus der doppelten reziproken Determination der molekularen und molaren Maschinen emergieren, die jeweils ihre eigenen Modalitäten und zudem zwei ungleiche Referenzsysteme besitzen, obgleich die beiden Zirkulationskreisläufe, die nur analytisch zu trennen sind, materiell verkoppelt bleiben und immer nur als ein Strom fließen.

Die sesshafte Verteilung beschäftigt sich mit Räumen (Märkte) und Objekten im Raum (Assets), mit Territorien (Merkmale und deren Relationen) und deren Zonen und Regionen. Und sie prozessiert wie alle Formen der Verteilung mit Hilfe von Punkten und Pfaden. Die nomadische Verteilung beschäftigt sich zwar auch mit diesen Parametern, sie kann sogar gewöhnlichen Pfaden folgen, von einem Punkt zum anderen, wobei jedoch die Punkte den Pfaden, die sie determinieren, untergeordnet bleiben. Im nomadischen Modus der Verteilung wird ein Punkt nur erreicht, um ihn hinter sich zu lassen, sodass jeder Punkt ein Art Relais darstellt und nur als ein Relais existiert. Somit erlangt das Dazwischen (zwischen den Punkten) oder das Intermezzo eine ganz eigene Konsistenz, ja sogar eine neue Autonomie und Dominanz, die im Bereich der Finanztheorie in der kontinuierlichen Rekalibration der Assets besteht. Ein Werden, dessen kennzeichnendes Merkmal im in-between zwischen zwei Punkten liegt, zeigt in der Praxis das abstrakte Prinzip der cantorschen Mengentheorie an. Die Cantorsche Mengentheorie umfasst einen unendlichen Staub von Punkten, deren fortwährendes Werden einen kontinuierlichen Raum zwischen den Punkten schafft – das Prinzip der Aktivität besteht in der kontinuierlichen Wiederholung der Teilung, sodass die Menge kontinuierlich gegen Null geht, obgleich sie immer in einem endlichen Raum eingeschlossen ist, sodass sie zugleich unendlich vielfältig und sparsam bleibt. Die kontinuierliche Rekalibration ist eine praktische Methode der endlosen Deterritorialisierung.

Mit dem euphorischen Gebrauch des Begriffs des Gefüges oder des Rhizoms wurde eine post-historische, post-romantische, post-genealogische Phantasterei über die Netzwerkgesellschaft eingeleitet, in der sich die verschiedenen Teilbereiche angeblich in koevolutionärer Weise nach vorne entwickeln könten und keinerlei Kausalverhältnisse mehr zu gelten bräuchten, stattdessen die jeweiligen Bereiche als ein buntes Patchwork miteinander verwoben seien. Die Rede vom ökologischen System oder dem Netzwerk durchzieht heute fast jede versierte Gesellschaftsanalyse. So hat David Harvey in seiner Schrift “Das Rätsel des Kapitals entschlüsseln” neben dem Parameter Kapitalakkumulation Faktoren wie Klassenverhältnisse, institutionelle Strukturen, Produktionsprozesse, Beziehungen zur Natur, Reproduktion, Alltagsleben, demographische Entwicklung und  geistige Vorstellungen aufgelistet, die zusammengenommen ein Netzwerk bzw. ein offenes komplexes Ganzes bilden würden. Harvey zufolge kommt es darauf an, zu zeigen, wie diese Bereiche sich gegenseitig beeinflussen, wie sie ihre Relationen organisieren und strukturieren, woraus sich Spannungen, Widersprüche, Evolutionen und erfinderische Prozesse ergeben können, die allerdings keineswegs kausal determiniert, sondern einfach nur kontingent vermittelt sind. Nach Harvey wurde exakt dieses theoretische Gefüge von keinem anderen als Marx selbst im 13. Kapitel des Kapitals Bd1 in Auseinandersetzung mit der Evolutionstheorie Darwins entwickelt. Angeblich kannte Marx kein Primat einer Instanz und er kannte auch nicht den Begriff der Determination. So zeigt sich auch bei Harvey der strategische Einfluss der Netzwerkmetapher, der heute weit über die bloße Beschreibung einer datenorganisierten Infrastruktur und einer relationalen Ökologie hinausgeht. Schließlich ist heute alles Netzwerk, und die beste Antwort auf die Netzwerke sind noch mehr Netzwerke, ja es herrscht fast schon eine paranoide intellektuelle Atmosphäre, nach der alles Netzwerk ist.

In diesem Kontext musste selbst noch der Begriff „Rhizom“ dafür herhalten, dass in der Kunst, Architektur, Computerwissenschaft, Neurobiologie, Ökonomie etc. ein um den Begriff der Virtualität reduziertes Netzwerkmodell in Mode kam (zumindest wurden die Begriffe Virtualität und Digitalität deckungsgleich gebraucht), das der fast schon paranoiden Prämisse folgte, dass alles vernetzt sei. In der Tat sind viele der großen Konzerne heute Netzwerk-Companies. Während Google seine Gestaltungen der Netzwerke durch das Clustern von Algorithmen monetarisiert, überschreibt Facebook Subjektivität und soziale Interaktion entlang der Linien kanalisierter und diskreter Netzwerkdienstleistungen. In der militärischen Theorie besteht die effektivste Atwort auf den Terrorismus im Aufbau von Netzwerken, im Operaismus negrischer Spielart ist die beste Antwort auf das Empire die Multitude, in der Ökologie sind Netzwerke die effektivste Antwort auf die systemische Kolonialisierung der Natur. In den Computerwissenschaften sind die verteilten Architekturen die besten Antworten auf Engpässe in der Konnektivität. In den ökonomischen Wissenschaften sind die heterogenen ökonomischen Spielräume die beste Antwort auf die verteilte Natur der “long tail.” Das ökologische oder systemorientierte Denken erlangte eine bisweilen ungeahnte Popularität, und zwar als eine Art Lösung des Problems der Diachronie, indem der Raum und die Landschaft den Platz der Zeit und Geschichte okkupieren. Der postmoderne “spatial turn” geht mit der Abwertung des temporalen Moments Hand in Hand, man denke an Riemanns komplexe Oberflächen, an den Weg von der Phänomenologie zur Theorie der Assemblagen, vom Zeitbild des Kinos zum datenbasierten Bild im Internet. Schließlich wurde das alte Manta des Historisierens wdurch das Mantra vom beständigen Connecten und Vernetzen ersetzt. (Sloterdijk hat die Phase der Netzwerkverdichtung für den Zeitraum von 1492 bis 1974 angelegt, und verkennt damit gerade das Wesentliche der sog. digitalen Revolution.)

Während des Zeitalters der Uhren wurde das Universum noch als ein Mechanismus gedacht, in dem die Himmel gemäß der Musik der Sphären rotieren. Im Zeitalter der Dampfmaschine mutierte die Welt zu einem Motor von unbeschreiblichen thermodynamischen Kräften. Und nach der voll entwickelten Industrialisierung transformierte der Körper zu einer Fabrik, angereichert mit den verführerischen Metaphern der Technologie und der Infrastruktur. Heute, im Zeitalter der Netzwerke, schreibt sich eine neue Schablone (Paradigma) in alles ein, was als Präsenz sich zeigt, ja noch mehr, die Vorstellung, dass alles Netzwerk sei, eröffnet eine neue Tautologie der Präsenz.

Foto: Bernhard Weber

Nach oben scrollen