Modelle der Wirtschaftswissenschaften

Bei den Wirtschaftswissenschaften handelt es sich um ein regionales Wissen, das man mit Hilfe spezifischer Diskurse und Wissensformen – Mathematik, Statistik und Epistemologie – konstruiert. Es wird Wissen über ein Objekt hergestellt (das angeblich unabhängig vom Diskurs existiert) und unter gewissen Bedingungen bzw. ceteris paribus Umständen lässt sich dieses Wissen als mathematisches Modell präzisieren. Im Vergleich dazu ist Laruelles Konzept der »Ökono-Fiction« bzw. der »generischen Wissenschaft« von den Wirtschaftswissenschaften radikal zu unterscheiden – es handelt sich bei der Ökono-Fiction tatsächlich um eine neue Disziplin, mit der u. a. eine nicht-marxistische Interpretation und eine Transformation des Formalismus der Wirtschaftswissenschaften inklusive der marxistischen Ökonomiekritik angestrebt wird. Die »Ökono-Fiction« beinhaltet ein axiomatisches und generisches Wissen, i. e. eine genuin generische theoretische Praxis. Laruelle definiert das Generische folgendermaßen: »A type of sciences or knowledges [connaissances] sufficiently neutral and devoid of particularity in order to be added to others more determined and co-operate with them, transforming them without destroying them or denying their scientific nature. They are capable of being added to others acquired in a more ›classical‹ way without unsettling what the latter take from their domain of object and legality, i. e. capable of transforming knowledge without philosophically destroying it.«1 (Laruelle 2008)

Es gilt von vornherein folgendes festzuhalten: Die Ökono-Fiction von den Wirtschaftswissenschaften allein deswegen zu unterscheiden, um sie als ein neues regionales Wissen zu positionieren, das wollen wir mit Laruelle tunlichst vermeiden (ansonsten wäre die Ökono-Fiction reine Ökonomie-als-Wissenschaft). Andererseits davon auszugehen, dass es definitiv kein regionales Wissen qua Ökono-Fiction geben kann, das bedeutet wiederum, diese ganz unter die Ägide der Philosophie oder der Nicht-Philosophie zu subsumieren. Ökono-Fiction zielt hingegen auf eine neue theoretische Praxis der Performation ab, auf ein neues Organon, i. e. sie versucht das regionale Wissen der (marxistischen) Wirtschaftswissenschaft in einer nicht-repräsentativen Art und Weise unter anderem durch den Einsatz von Quantentheorie und fraktaler Geometrie zu transformieren und dies impliziert zunächst, jede Common-Sense Ontologie, die selbst noch in der marxistischen Ökonomiekritik anwesend ist, zu destruieren (wie z. B. die marxistische Arbeitswerttheorie). Die Ökono-Fiction erfindet mittels eines spezifischen theoretischen Apparats durchaus eigene wissenschaftliche Modelle, Objekte und Relationen, indem sie insbesondere das marxistische Material der Ökonomiekritik klont. Und wenn sie die Mathematik gebraucht, dann gewiss nicht in der Art eines Badiou, der mit dem Einsatz der Mengentheorie erneut die ultimative Verpflichtung des Wissens zur Ausübung der Ontologie verbindet. Mit der Einsicht, dass Modelle keine (ökonomische) Welt abbilden, ist eine methodologische Debatte eröffnet, welche die Einbindung der mathematischen Modelle in Diskurse (Spieltheorie), Narrative und eben in die ökono-Fiction problematisiert. Mit Laruelle wenden wir uns auch scharf gegen (ökonomische) Theorien, die eine Art transzendenten Numéraire oder eine universelle Substanz einfordern, wie man es im Konzept des Nutzens in der neoklassischen Theorie oder im Konzept der abstrakten gesellschaftlichen Arbeit im Arbeitswertmarxismus vorfindet. Beide Theorien begründen einen Zirkel, der jedes ökonomische Ereignis oder Objekt in seiner eigenartigen Selbstreferenzialität oder Tautologie stagnieren lässt: diese Ware ist X Euro wert, weil sie dem Käufer den Betrag X an Nutzen bringt oder wahlweise, weil Arbeitszeit X in der Ware gespeichert ist, wissen wir, dass der Preis der Ware X Euro lauten muss. 2

Wenn die Ökono-Fiction sich der ökonomischen Strukturen und Objekte annimmt, dann nicht, um diese mittels linguistischer Theorien und Diskurse zu repräsentieren, sondern sie ausschließlich qua Klonen des theoretischen Materials, das viele Quellen haben kann, zu transformieren, und dazu bedarf es definitiv neuer wissenschaftlicher Patterns – Hypothesen, Deduktionen und experimentelle Tests. (Vgl. Laruelle 2014: 66) Eine generische ökonomische Theorie ist unbedingt von ihren philosophischen »Lastern« zu befreien, aber sie sollte sich im Gegenzug keineswegs mit der Empirie vermischen, eher hält sie sich in einem wissenschaftlichen Verständnis an sie, behandelt sie u. a. wie eine Hypothese, die einen theoretischen Raum für Theoreme-ohne-Theorie und Modelle (Matheme-ohne-Mathematik) eröffnet. (Ebd.: 172) Dabei synthetisiert die Theorie die Empirie nicht, wie die Empirie umgekehrt auch nicht das Maß der Theorie ist. Zur Identität von Empirie und Theorie kann es nur in der letzten Instanz kommen, i. e. einzig und allein im beiderseitigen Bezug auf das Reale, womit jede unmittelbare oder imaginäre Synthese oder Vermischung von Empirie und Theorie ausgeschlossen bleibt. In Althussers Begrifflichkeit würde die Rede von der empirischen-theoretischen Erkenntnis auf der imaginären Verschmelzung von Realobjekt und Erkenntnisobjekt beruhen. Die nicht-marxistische »Theorie« besteht hingegen auf der immanent-praktischen Art und Weise Fakten zu erkennen, die immer problematisch sind, und dies bedeutet, dass wir Daten ohne die Hinzunahme von Theorie nicht analysieren können. Zuweilen widerstreben die Begriffe und Kategorien anscheinend der Empirie, sind aber, insofern sie »Wahrheit« behaupten, mit der Empirie stets in Beziehung zu setzen, die hier allerdings nicht als das alleinige Maß oder die richterliche Instanz für die Theorie fungiert. Ohne die Untersuchung der Fakten gibt es keine Entwicklung der Theorie.

Die Ökono-fiction wendet sich dem Gegebenen zu (das schon theoretisches Material ist), um es zu klonen. Dies impliziert keinerlei Spiegelung der ökonomischen Realität, sondern erfordert die transzendental-performative Beschreibung gemäß dem Realen, wobei Laruelle dafür den Term »adäquat-ohne-Korrespondenz« benutzt. Es geht insbesondere hinsichtlich des Marxismus keineswegs darum, ihn seines Inhalts zu entleeren oder ihn alternativ mit neuen Inhalten zu re-arrangieren, um ihn gemäß der gegenwärtigen sozio-ökonomischen Realitäten neu zusammenzusetzen. Sondern man sollte seine materialistischen, ökonomischen und politischen Inhalte als simple Symptome behandeln, die neu interpretiert und schließlich transformiert werden müssen, um das Denken gemäß der Realität (des Kapitals) in ein Denken gemäß dem Realen zu transformieren; wobei das Reale der Realität immer auf die eine oder andere Art und Weise entflieht. Für die Ökono-Fiction heißt dies, dass sie in keinem Austauschverhältnis mit der Kapital-Realität, aber auch nicht mit dem Realen steht.

Jede Verwendung des Terms »ökonomische Welt« als Apriori oder als mnemotechnisches Mapping basiert auf dem philosophischen Denken, man könnte mit Laruelle sogar sagen, dass hier die Worte »Welt« und »Philosophie« austauschbar sind. Wenn nämlich der theoretische Körper der Ökonomie eine »Welt« besitzt, dann impliziert das, dass alle möglichen ökonomischen Diskurse in Philosophie übersetzt werden können, die sich dann wieder einmal als Metadiskurs über dem regionalen Wissen der Ökonomie etabliert. Um diese Hierarchie zu subvertieren, sollte man folgende These in den Raum stellen: Es gibt keine ökonomische Welt! Insofern wäre dann die Ökono-Fiction eher als ein Nicht-Wissen denn als ein Wissen (Episteme/Techne) zu kennzeichnen, und zwar dahingehend, dass die Ökono-Fiction unter anderem das Material der marxistischen Ökonomie und der Sozialwissenschaften de-konzeptualisiert, wobei die unter Umständen daraus resultierenden neuen ökonomischen Modelle die Welt nicht repräsentieren, sondern einer radikalen Kritik unterziehen, indem sie zunächst die bestehenden Theorien und Modelle destruieren und ihren Anspruch auf absolute Hinlänglichkeit durch Kontingenz ersetzen. Ökonomie könnte man dann erst als die Wissenschaft von den nicht-konzeptuellen sozialen Relationen begreifen. Hier wird gerade keine neue ökonomische »Welt« kreiert, sondern, um es mit Roland Barthes zu sagen, in einem ersten Schritt das lingustisch Ausdrückbare nicht ausdrückbar gemacht.

Viele der Probleme, die die Geisteswissenschaften mit den Naturwissenschaften haben, entstehen einfach dadurch, dass man ausschließlich diskursiv oder in Begriffen zu denken gewöhnt ist. Kritisiert wird zum Beispiel die ökonomische Denkfigur des Homo oeconomicus meistens nur aufgrund der ungenügenden Beachtung sozialer und politischer Relationen. Es muss aber möglich sein, radikale Ökonomiekritik ohne den unmittelbaren Einsatz der Politik zu betreiben. Hier stoßen wir sofort auf das Problem der Exogenität. Um ein ökonomisches Modell in aller möglichen Akkuranz zu kreieren, müsste es in der Tat die Modelle aller anderen Wissenschaften einschließen. Ökonomische Modelle behandeln jedoch nur ganz bestimmte Kausalitäten wie Preise, Produktionsfaktoren, humane Agenten, Produktionsverhältnisse, Ökologien etc. Und sie teilen diese Faktoren in endogene Variablen, die im Modell determiniert werden, und in exogene Variablen, die außerhalb des Modells determiniert werden. Die Exogenität bleibt hier aber deswegen interessant, weil sie all die verschiedenen disparaten Ordnungen (politisch, sozial, biologisch etc.) der Kausalität betrifft.

Wenn ein Ökonom eine Liquiditätsprämie statistisch kalkuliert, dann kann er sie indirekt, das heißt gemäß der Variablen eines Modells proportionieren, ohne einen totalisierenden Faktor annehmen zu müssen (proportionieren-ohne-Proportionalität). Ökonometrische Methoden, die nicht diskursiv arbeiten, versuchen im besten Fall über derartige Modelle selbst noch die Werte von exogenen Variablen zu determinieren. Sie referieren nicht »korrekt« auf ein Objekt, sondern sie prozessieren qua eines pragmatischen Gebrauchs von numerischen Eigenschaften im Rahmen eines quasi tautologischen Modells, um bestimmte ökonomische Fälle nicht-totalitär zu generalisieren. Grob gesagt arbeitet die Ökonometrie ausschließlich mit Zahlen und eben nicht mit Worten. Die Philosophie besitzt kein Äquivalent für diese Art und Weise, Exogenität zu bestimmen und muss deshalb alle möglichen Kausalitäten synthetisieren, i.  e. die Philosophie behandelt die Exogenitäten immer nur im Rahmen ihrer eigenen Entscheidungen. Und wenn dann bestimmte Phänomene der Finance wie etwa exotische Derivate nicht in die Sprache der Philosophie übersetzt werden können, hält sie der Philosoph für unerkennbar oder schiebt sie in die »Black Box« des Finanzsystems ab, um vielleicht noch einen moralisierenden Diskurs über die Banker zu eröffnen.

Das Modell macht keinen Unterschied zwischen dem Fakt und der Tatsache, dass etwas ein Fakt ist (Faktizität). Das Modell leistet, wenn es mit dem Einsatz von bestimmten Bedingungen definiert wird, eine quasi-tautologische Deduktion seiner endogenen Relationen, wobei kontinuierlich Differenzen und Objekte nullifiziert oder eliminiert werden. Wenn man von mathematischen Modellen spricht bedeutet dies, dass das konzeptuelle Wissen oder die Episteme auf ein sekundäres Wissen degradiert werden, oder anders gesagt, das konzeptuelle Wissen oder die Episteme sind ein Nebenprodukt der Faktizität. Im besten Fall gibt es dann für eine »Philosophie der Ökonomie« noch epistemologische Fragestellungen, als sie in Beziehungen zur Ökonomie-als-Wissenschaft stehen. Man muss bei ökonometrischen Modellen also konstatieren, dass hauptsächlich Gebrauch von numerischen Eigenschaften gemacht wird, wenn sie einen Fall generalisieren und damit keineswegs etwas repräsentieren. Meistens wird aber selbst in der mathematischen Modelltheorie der korrelationistische Rahmen der Philosophie nicht ganz verlassen, in dem ein »richtiges« ökonomisches Modell genau dasjenige ist, dessen interne Relationen irgendwie noch auf aktuelle ökonomische Objekte referieren. (Vgl. Meillassoux 2008: 25)

Sehen wir uns zunächst grob die Herangehensweise der Modelltheorie an: Mit Hilfe eines radikal pragmatischen, neutralen Gebrauchs der Sprache werden zuerst Axiome eingeführt – man beginnt sozusagen mit der Null und setzt dann eine Serie von Bedingungen für Variablen, die in bestimmten theoretischen Situationen benutzt werden können. In gewisser Weise muss diese Sprache, wenn sie die Ökonomie betrifft, in Mathematik oder Statistik konvertierbar sein, wobei zunächst aber die »Interpretation« eines Sets von ökonomischen Phänomenen vorgenommen und diese jeder Kontingenz entkleidet wird, um eine elaborierte Tautologie qua mathematischer Modelle herzustellen, während gleichzeitig externe Unterscheidungen in exogene Parameter verwandelt werden. Man könnte in laruellschen Termen wohl sagen, dass die Ökonomiekritik sich an dieser Stelle zumindest durch ein ständiges Nicht-Lernen auszeichnet, da das konzeptuelle Wissen in ein Nicht-Wissen transformiert wird. Es entschriftet sich eher, als dass es etwas beschreibt.

Generische Ökonomen starten im Vergleich zu dieser durchaus noch szientifistischen Position mit konzeptuellen Modellen, die auf diskursiven Disziplinen beruhen und reduzieren sie auf ihre nicht-konzeptuelle »Essenz«. Um es analog zu Nils Bohr zu sagen, Ökonomen versuchen zu elaborieren, wie und durch welche wissenschaftlich-technischen Mittel Diskurse die Kapazität besitzen, Bedeutungen hervorzubringen, um diese wiederum in Beziehung zu Modellen der Operativität zu setzen. Man nimmt konzeptuelle Statements aus der Ontologie einer Disziplin (Was ist Ökonomie?) und zeigt im Detail, wie diese zu Recht oder zu Unrecht mit mathematisch konstruierten Modellen interferieren. Heisenberg schrieb aus der Perspektive der Quantenphysik hierzu folgendes: »Was wir beobachten, (ist) nicht die Natur selbst […] , sondern die Natur, die unserer Fragestellung ausgesetzt ist. (Die) wissenschaftliche Arbeit in der Physik besteht darin, Fragen über die Natur in der Sprache zu stellen, die wir besitzen, und zu versuchen eine Antwort zu erhalten durch Experimente, die wir mit den Mitteln ausführen, die uns zur Verfügung stehen.« (Heisenberg 2006: 85) Aus einer korrelationistischen Perspektive betrachtet, konstruiert hingegen der klassische Ökonom ein Modell, ein Gitter oder eine Syntax, um diese über die Welt zu legen, und die Wahrheit ergibt sich dann aus der Korrespondenz von Theorie und Welt.

Gehen wir davon aus, dass es eine Multiplizität von disparaten Diskursen gibt, die bestimmte (theoretische) Phänomene, Probleme und Themen beinhalten. Ein Ökonom wählt aus ihnen ein spezifisches Thema, versucht den Diskurs zu modellieren und dies unter der Voraussetzung, dass bestimmte Beschreibungen des Phänomens Kontingenz eliminieren (bezogen auf Datenprobleme). Es muss eine interne konsistente Modellierung und Interpretation, die die Kontingenz löscht, gefunden werden, womit das Modell als richtig gilt. Ist es »korrekt«, dann inhäriert dies eben die einzige Möglichkeit, wodurch andere Möglichkeiten oder Kontingenzen verschwinden. Exogene Variablen bleiben gegenüber dem Modell dieselben oder besitzen dieselbe Funktion, obgleich sie doch durchaus verschiedene Werte in verschiedenen Situationen annehmen können. Obwohl der Einbezug einer großen Menge von Daten in das Modell erwünscht ist, scheint es nicht ohne weiteres möglich, den Begriff des Experiments auf die Ökonomie anzuwenden, da das (naturwissenschaftliche) Experiment das Wissen zerstört, das vorherige Experimente über das System hervorgebracht haben. Die Ökonomie muss dagegen jedes experimentelle Ereignis in seiner Kontingenz begrenzen, um es nach und nach zu de-konzeptualisieren, bis es in die relationalen Zusammenhänge eines spezifischen Modells integriert werden kann. Zugleich arbeitet die Ökonomie-als-Wissenschaft mit dem operativen Sampling von bestehenden Diskursen und reduziert diese auf unbrauchbare Metaphern. Diese Wissenschaft wäre unter Einbezug der generischen Methode als ein Nicht-Schreiben und ein De-Konzeptualisieren zu verstehen, mit dem die Kontingenz nicht ausgeschlossen, aber zumindest begrenzt wird. (Der Term Ökono-Fiction beschreibt die Ökonomie aus der Sicht einer nicht-korrelationistischen Theorie. Er bezieht sich auf die fiktionalistische Schule der Mathematik.)

Verfolgen wir das Problem der ökonomischen Modellbildung weiter. Yanis Varoufakis hat in seinem Buch Der globale Minotaurus auf ein von ihm mit entwickeltes ökonomisches Theorem verwiesen, das nachweisen will, dass »lösbare ökonomische Modelle nicht Zeit und Komplexität zugleich verarbeiten können.« (Varoufakis 2012: 169) In der ökonomischen Modellbildung achtet man entweder stärker auf die Komplexität (Relationen zwischen Variablen, Koeffizienten und Parametern) und entwickelt meistens statische Gleichgewichtsmodelle oder man bevorzugt die Zeit und entscheidet sich für die Formalisierung von Dynamiken, indem man insbesondere non-lineare Differenzialgleichungen einsetzt und nicht-statische Gleichgewichtsmodelle entwirft. Simultaneität von Komplexität und Zeit bedeutet nun, Modelle zu entwerfen und zu verwerfen, die die Echtzeit-Preisbewegungen und -transaktionen abbilden und damit den Einbezug von Krisenhaftigkeit in die Modelle zu lassen, was nicht gelingen kann, wenn Modelle die Ökonomie transformieren, die ihnen in ihrer Prozesshaftigkeit im gleichen Moment wieder enteilt.

Ökonomische Modelle benutzen den modernen Axiomenbegriff der Mathematik, wobei das Axiom »willkürlich« gesetzt (unter der Voraussetzung von ceteris paribus Annahmen – wenn-dann) und bei der Anwendung rein auf die logische Konsistenz geachtet wird.3

Für eine Operationalisierung der Relationen des Gesamtkapitals bedeutet dies, dass nicht-lineare Dynamiken von hochkomplexen Systemen zu konstruieren sind, die zugleich der Konkurrenz zwischen den Einzelkapitalen »entsprechen«; die Modelle müssen sowohl die vielfältigen Feedbacks in den dynamischen Zeitverläufen als auch die gleichzeitig stattfindenden Interaktionen verschiedener Einzelkapitale berücksichtigen (adäquat-ohne-Korrespondenz). Die Unterscheidung zwischen brauchbaren Verteilungsfunktionen, deren Dynamik mit stochastischen Gleichungen modelliert wird (Makroebene), und der Berechnung der zufälligen Fluktuationen auf der Mikroebene kann dieses Problem nicht lösen. (Vgl. Mainzer 214: 219) Philip Mirowski hat gezeigt, dass das Modell des dynamischen stochastischen allgemeinen Gleichgewichts (DSGE) ein ausgesprochener Sonderfall ist, bei dem eine Ein-Personen-Ökonomie mit dem ökonomischen Gesamtsystem übereinstimmt und es deshalb zu einer Versöhnung von Mikro- und Makroökonomie kommen kann. (Mirowski 2015: Abschnitt 5. Kindle-Edition) Schon die Existenz heterogener Einzelkapitale verlagt nach alternativen Gleichgewichten und lässt die Verallgemeinerung nicht zu. Also müssen ständig neue Axiome hinzugesetzt oder alte subtrahiert werden. Wie kann man aber den unentscheidbaren Sätzen oder den Kräften von unendlichen Mengen begegnen, die sich axiomatisch gar nicht fassen lassen? Wie verhält sich die Axiomatik, die auf zählbaren Modellen beruht, zu einem Kontinuum oder zu Sprüngen? Und wie verhalten sich schließlich die finanzmathematische Axiomatik und die ihr entsprechenden kohärenten Risikomaße gegenüber Strömungen in der Mathematik (Intuitionismus), die dem deterritorialisierten Geld adäquat sind und der Kohärenz des Kalküls gerade entfliehen? Im besten Falle muss dann das messende Maß ins Werden selbst verlegt werden, oder um es anders zu sagen, ein simulatives Modell, das mittels der extrem hohen Rechenleistungen eines Supercomputers erzeugt wird, müsste die Kapazität besitzen, die Geldkapitalströme sowie deren Rhythmiken und monetäre Transaktionen in realtime abzubilden und/oder zu messen (man nimmt heute zumindest von der Betrachtung, Modelle als bloße Abbildung der ökonomischen Realität zu verstehen, Abstand.) Eine Möglichkeit besteht darin, die Modelle selbst Stresstests zu unterziehen, die ihre Robustheit für extrem fluktuierende Szenarien inklusive der Anwesenheit von Sprüngen und Brüchen testen (der schlimmste, sozusagen aus der Reihe tanzende Fall von Modellen verdient besondere Beachtung), um auf der Basis der Sammlung und Auswertung von gigantischen Datenmassen effektive Lösungsverfahren zu finden bzw. Wahrscheinlichkeiten zu berechnen. (Ebd.) Selbst Unwahrscheinlichkeiten, man denke an Talebs schwarzen Schwan, sollen damit noch in die Verteilung und Verwaltung von Risiken integriert werden, insbesondere in die der derivativen Risiken, die mit der Sammlung und Rekombination von großen Massen von Daten entstehen, maschinisch-dividuelle Risiken. Dabei bleiben die Algorithmen immer auf der Jagd nach dem, was außerhalb ihres Territoriums und seiner Wahrscheinlichkeiten liegt; sie sind geradezu definiert durch das, was sie noch nicht sind und was sie möglicherweise auch nie werden können.

Gehen wir einen Schritt weiter. Es gilt als gültiger Tenor der heterodoxen Ökonomie, dass die allgemeine ökonomische Gleichgewichtstheorie die Frage der Dynamik und des krisenhaften Wachstums vernachlässigt und auch ihre erweiterte Methodik nicht zum erhofften Nachweis der Stabilität von Gleichgewichten geführt habe. Darauf verweist insbesondere das Sonnenschein-Debreu-Mantel-Theorem (die Modelle der allgemeinen Gleichgewichtstheorie verleiben stets auf ihem allgemeinen Niveau). In der Ökonomie wurden die diversen Gleichgewichtstheorien oft als Modellierung der Handlungen von rationalen Agenten vorgeführt. Dies ist allerdings mit äußerster Vorsicht zu genießen! Es kann nämlich sein, dass diese Modelle viel zu wenige Faktoren einbeziehen, sodass man aus ihnen stabile ökonomische Gleichgewichte nicht unbedingt ableiten kann. Des Weiteren ist die Annahme der Rationalität der ökonomischen Agenten viel zu großspurig, bedenkt man etwa die Ergebnisse der »Behavorial Economics«, nach denen eher Faktoren wie Herdenverhalten, Nachahmung und Daumenregeln die Handlungen der Agenten mitbestimmen. Neuere Konzepte wie die der »Econophysics« modulieren deshalb die Theorie des rationalen Agenten feiner, bringen im Zuge der Anwendung der Spieltheorie Lösungen für diametrale interaktive Konflikte ein und versuchen damit die Identität des Agenten und dessen Egoismus angesichts der vielen Rollen, die er einzunehmen hat, zu problematisieren, ohne jedoch die subjektivistische bzw. korrelationistische These ganz aufzugeben. Ohne aber exaktere Kriterien für die ökonomische Stabilität angeben zu können, bleibt der Begriff des Gleichgewichts ein reines Modell-Konstrukt. Deshalb wird weitergehend danach gefragt, unter welchen Bedingungen die Interaktionen der Agenten zu einem Gleichgewicht führen können – ob das Smithsche »gravitating« tatsächlich stattfindet. So werden die Modelle immer weiter dynamisiert. Aufgrund der Schwierigkeit, das Problem der Stabilität im Rahmen von Modellen und ihren ceteris paribus Annahmen überhaupt lösen zu können, kommen die Fragen nach der realen Existenz und der Eindeutigkeit von Gleichgewichten erneut auf. An dieser Stelle ist die von Marx und selbst noch von F.A. Hayek formulierte Position, dass es sich bei den makroökonomischen Flussdynamiken um Prozesse handelt, die hinter dem Rücken der Agenten stattfinden, nicht mehr von der Hand zu weisen.

Es lassen sich eine ganze Reihe weiterer Einwände gegen bestimmte Arten und Weisen der Modellierung einbringen. So kann die formale Struktur eines Modells (die Relationen zwischen den Elementen) zu differenziert sein, um noch irgendwie zu »realen ökonomischen Größen« in Beziehung gesetzt werden zu können (das Modell bleibt dann in der Tat rein tautologisch), andererseits kann es auch zu einer internen Simplifizierung des Modells kommen, sodass die Voraussetzungen, die hinsichtlich der Modellbildung gemacht werden, immer stärker ins Gewicht schlagen. Mit kruden Abbildungstheorien, laut denen Modelle die ökonomische Realität abbilden oder sich referenziell auf deren Phänomene beziehen, wird man dem Problem schwerlich beikommen. Wird hingegen der performative Akt des Modells zu stark betont, so muss das Modell unbedingt seinen Einsatzort und seinen operativen Erfolg nachweisen können. Auf dem Spiel steht damit nicht nur die interne, die nicht-diskursive Logik des Modells selbst, sondern ihr Bezug zu einer Realität, die selbst nicht substanziell oder phänomenologisch erfasst werden kann, wenn man der Konvertabilität oder der Reziprozität zwischen Theorie/Modell und Realität entkommen will. Die Realität wäre daher nur unter Vorbehalt als Realität zu bestimmen, sie wäre zumindest mit dem Begriff der Virtualität zu supplementieren. (Vgl Strauß 2013: 180) Realität ist dann weder das Objekt und/oder Resultat einer begrifflich-syntakischen Diskursivität noch das eines nicht-diskursiven Modells. Es geht bei ihrer »Bestimmung« als realen Virtualität schon eher darum, was der Theorie, der Mathematik und dem Modell, und schließlich jeder repräsentationalen Objektivität, entflieht.

Schauen wir uns die verschiedenen Gleichgewichtstheorien und ihre Modelle noch etwas genauer an: Aus der Sichtweise der Physik lässt sich zur statistischen Modelltheorie Folgendes sagen: Verändert ein See seinen Wasserpegel gemäß seines Inputs und Outputs an Wasser, dann studiert die Gleichgewichtstheorie den Wasserpegel des Sees zu einem bestimmten und dann wieder zu einem anderen Zeitpunkt. Das mag zwar für die Bestimmung der Wasserpegel von Seen noch angehen; was diese Theorie jedoch überhaupt nicht erklärt, sind die dynamischen Bewegungen der Wasserfälle und der Stürme. Mit gekrümmtem Wasser oder Wellen konfrontiert, besitzt der Gleichgewichtstheoretiker kein geeignetes mathematisches Instrument, um diese Bewegungen erklären zu können.

Die meisten ökonomischen Schulen enthalten in ihren Diskursen eine Gleichgewichtsversion (ISLM-Keynesianismus, Sweezy-Morishima-Steedman, Equilibrium Marxismus, Marshalls Competitive General Equilibrium; vgl. Freeman 2015/ Sweezy 1971) und eine Nicht-Gleichgewichtsversion oder eine temporale Variante (Keynes und der Temporalismus von Kalecki, temporalistische Interpretationen zur Marx`schen Theorie der Kapitalakkumulation wie die von Andrew Kliman, der österreichische Marginalismus etc.). Aber meistens bleibt die Gleichgewichtstheorie doch das dominante Paradigma. Es handelt sich bei der (statischen) Gleichgewichtstheorie um einen normativen Standard, der die dynamische Bewegung eliminiert – und dies wird mit simultanen Gleichungen zu zeigen versucht, die implizieren, dass alle signifikanten Größen des Modells am Ende einer gegebenen Periode dieselben wie am Anfang sind. Aus all diesen Gleichgewichtstheorien lassen sich kaum krisenhafte Phänomene, die man hier tatsächlich als endogene Features einführen müsste, nachweisen. In der Konsequenz müssen dann für alle Krisenphänomene externe Ursachen außerhalb des Systems angenommen werden, wie etwa eine falsche Geldpolitik, Ölschocks, nicht-kompetente Regierungspolitiken, irrationales Verhalten der ökonomische Agenten etc. Wenn das ökonomische System apriori zur perfekten Reproduktion tendiert, dann kann es logischerweise zu schweren Abweichungen vom ermittelten Gleichgewicht gar nicht kommen. Und wenn Abweichungen auftreten, dann hat die Politik die – durchaus nicht immer perfekten Märkte – so zu regulieren, dass sie schließlich im Einklang mit dem Ideal des Gleichgewichts stehen.

Zumeist teilt man die Variablen des Modells in zwei Gruppen auf: endogene Variablen wie Preise und Quantitäten und exogene Variablen wie Politik, Kultur oder Psychologie. Entscheidend ist hier, dass im Zuge der ökonomischen Gleichgewichtstheorie zwischen endogenen und exogenen Ursachen unterschieden wird. Für einen Naturwissenschaftler wäre hingegen die temporale Heransgehensweise das Basistraining für weitere Übungen. Man kann nun die Modelle erweitern, wenn man etwa Raten des Wandels oder Differenzialkalküle berücksichtigt, x/y (»Ableitung von x in Bezug auf y«). Das Modell funktioniert jetzt qua seiner temporalen Verbindungen, Relationen und Konjunktionen, wofür eventuell sogar der Term Gleichgewicht beibehalten werden kann, wenn er nicht drastisch auf die Festlegung eines Stadiums reduziert wird. Ayache beschreibt das Differenzialkalkül folgendermaßen: »The differential is such that neither of the two entities (dy, dx) that are seemingly related by the differential are present in the differential. The differential is only the relation, not the actual entities. It is only the power of producing, or generating, the co-variation of the two mathematical entities when they come to be actualized. It is a place of repetition and retrieval (extraction) rather than a finished result. It is the place where the function (to be actualized) is determined, that is to say, differentiated, the place where it could have been otherwise yet it is faceted and cut to be this way, the place where the rift separating the variables and orienting their relative differences (in other words, their future co-variation) is first opened and the function is first shaped.« (Ayache 2010a: 293-294)

Setzen wir also voraus, dass ein System/Modell zwei Typen von Variablen enthält, exogene und endogene. Endogene Variablen sind solche, von denen der Ökonom annimmt, sie seien den Märkten intrinsisch zuzurechnen, wie Preise, Mengen, der Input von Arbeitskräften, Zinsraten, Löhne etc. (Wir beziehen uns bei folgender Darstellung auf: Freeman 2015)

Der Zustandsvektor all dieser Variablen zur Zeit t ist: xt={x1t, x2t, …. xnt} (1)

Xt variiert gemäß den Problemen, die untersucht werden, wobei die entscheidende Frage darin besteht, wie das System/Modell sich von einem Punkt zum nächsten bewegt. Dies betrifft das Problem der zeitlichen Annäherung, die hier zunächst noch als Diskretheit gefasst wird. Als Beispiele dürfen etwa die Gravitationsgesetze, Newtons Gesetz der Bewegung, die Gesetze der Thermodynamik etc. gelten. Und in der Ökonomie könnte man Kaleckis Preisgleichungen, Akzelerator-Multiplier-Systeme, die Wachstumsgleichungen von Harrod, die Marxschen Reproduktionsschemata oder die nicht-linearen zyklischen Modelle anführen, die Richard Godwin im Allgemeinen und Joseph Schumpeter und Paul Samuleson im Speziellen in die Ökonomie eingeführt haben. (Zu den Gleichgewichtsbedingungen der Marx`schen Reproduktionsschemata unter Einbeziehung der Matrix-Darstellung, vgl. Willi Semmler 1977: 170f.)

Die exogenen Variablen beinhalten hier grob gesagt den gesamten Rest, den man nicht unter die endogenen Variablen subsumieren kann. In einem marginalistischen Framework sind dies Konsumpräferenzen und Produktionsfunktionen, in einer physikalischen Ökonomie oder dem Framework von Sraffa handelt es sich um die physischen Quantitäten der Inputs und Outputs. In einem Rational Choice Framework sind es die Prognosen der Agenten bezüglich des Angebots und der Nachfrage nach Gütern. Generell gibt es aber keinerlei Grenzen, was hier ein- oder ausgeschlossen werden kann.

Die kritische mathematische Eigenschaft einer exogenen – im Unterschied zu einer endogenen Variable – ist nun die, dass im Zuge der Bejahung der temporalen Kontinuitätshypothese ein Wert i zu einem bestimmten Zeitpunkt t vom Wert zu einem anderen Zeitpunkt abhängig ist.

Der Zustandsvektor all dieser exogenen Variablen zur Zeit t lautet:

at = {a1t,a2t, …. ant} (2)

Man kann nun eine allgemeine dynamische Gleichung in das System einschreiben:

 xt =  f (at;  xt-1) (3)4

Dies ist eine Differenzialgleichung, bei der der Status der endogenen Variablen zur Zeit t unweigerlich in Relation zu Zuständen in der früheren Zeiten t -1 steht. Wenn nun das Zeitintervall infinitesimal wird, sodass ma es mit kontinuierlichen anstatt diskreten Zeiten zu tun bekommt, dann kann man folgende Differenzialgleichung anschreiben:

dx/dt= f(at,x) (4)

In einem temporalen System dient das Modell dazu, den Durchschnitt im Kontext der beobachteten Variablen zu bestimmen, sodass die exoterische Realität folgendermaßen modelliert werden kann:

Xt = f (at; xt-1) (5)

X= X plus ɓ (6)

ɓ gilt hier als ein residualer Term, der die Differenz zwischen beobachteten Werten und dem vorhergesagten Durchschnitt begründet, also diejenigen Faktoren repräsentiert, die das betreffende Modell nicht inkludiert (alle Modelle sind unvollständig).

Im Gleichgewichtssystem kommt es hingegen zu folgendermaßen Modellierung:

 xt* =  f (at;  xt*) (7)

 x= x* + &t* (8)

In diesem System wird angenommen, dass x sich nicht verändert, und das genau beinhaltet sein Problem. In der Gleichung (7) ist die Zeitvariable auf der linken und der rechten Seite identisch. Wenn es nun den endogenen Variablen nicht erlaubt ist, sich innerhalb eines dynamischen Systems zu verändern, dann kann der einzig mögliche Grund des Wandels eben nur ein exogener Grund sein. Es kann keinerlei Bewegung des Systems qua seiner endogenen Eigenschaften geben, weil die Gleichungen unter der Voraussetzung gelöst werden, dass die endogenen Variablen sich nicht verändern, was nichts anderes heißt, als dass der Markt je schon perfekt ist.

Esoterische und exoterische Beschreibungen von ökonomischen Sytemen sind nun mathematisch beschreibbar. XT ist eine exoterische Variable, die beobachtbar ist, was bedeutet, dass alle Elemente eines temporalen Paradigmas direkt beobachtet und gemessen werden können. X* ist hingegen ein esoterisches Ideal, dass de jure nicht beobachtbar ist, weil es ein Stadium repräsentiert, welches das System niemals erreicht. Für dieses diskrete Zeitsystem haben Marshall und Bortkiewicz den Term Sukzession benutzt. Nun gibt die Gleichung (7) zumindest eine Lösung an. Es gibt natürlich mehr als nur eine Lösung, aber diese eine Lösung wird angeführt, um zu erklären, warum das System das wünschenswerte Stadium der Perfektion überhaupt erreichen kann, wobei man sich aber gerade nicht mit der Frage auseinandersetzt, warum es kein perfektes Stadium an sich geben kann. Mit Hilfe der Mathematik wird in den statischen Gleichgewichtstheorien eine universelle Methode etabliert, die es erlaubt, die Rolle einer generellen Metaphysik der Ökonomie zu übernehmen, anstatt lediglich als die Eigenschaft einer partikularen Denkschule ausgewiesen zu werden.

Einige Theoreme beweisen, dass unter allgemeinen Bedingungen eine Lösung für die Gleichungen (2) und (3) möglich ist, die von der Funktion  f und den anfänglichen Werten x0 zu der Zeit t=0 abhängt, was man gewöhnlich als begrenzende Bedingungen thematisiert. Das Gleichgewicht kann nun, wenn es von seinen ideologischen Fallen befreit ist, als eine partikulare, eine restriktive Lösung einer allgemeineren temporalen Gleichung gefasst werden, i. e. als ein hypothetisch angenommener stationärer Zustand, in dem x über die Zeit sich nicht verändert. Dies unter einer weiten Skala von Bedingungen, die ein Set von Theoremen setzt, deren allgemeinstes vielleicht das »Brouwer fixed-point Theorem« ist. (Harzheim 1978) X*t wird aber über die Zeit variieren, und dies wegen der Veränderungen in a, die durch die Gleichung 2 gegeben sind, was hier wiederum als strukturelle Veränderung begriffen wird. In einer allgemeineren temporalen Lösung (5) besitzt xt einen komplexen Trajektor, der von der Überführungsfunktion f () abhängig ist.

Die Theorie des Competitive General Equilibrium (vgl. Freeman 2015) fordert hingegen in ihrer elementaren Form, dass xt= x*t sei. Dies besagt, dass bei einer gegebenen Gleichung (2) die Lösung der Gleichung (1) mit der Lösung der Gleichung (3) identisch sei. Und dies stimmt nicht. Deswegen nimmt CGE wiederum an, dass xt genügend nahe an x*t heranrücken kann; eine Lösung, die von Ökonom zu Ökonom variiert, sodass wir am Ende die Differenzen doch wieder ignorieren können. Eine weitere Schwierigkeit taucht für die Gleichgewichtstheorie auf, wenn die Lösung xt ein Zentrum der Gravitation darstellt, um das das reale X in der Art eines Pendels oszilliert. Dies ist aber eine rhetorische Fiktion, die nur eine restriktive Bandbreite von Bewegungen beschreiben kann. In gewisser Weise wird hier ein letzter Fluchtpunkt für die Gleichgewichtstheorie möglich, wobei die temporale Methode weiterhin ausgeblendet bleibt.

Die neo-ricardianische Literatur (ebd.) vernebelt diesen Punkt noch weiter, indem sie auf spezielle Varianten der »Fixed-Point Theory« wie dem »Perron-Frobenius Theorem« (Hupert 1990) zurückgreift, das es erlauben soll, eine Fixed-Point-Lösung zu finden, wenn f die Form eines linearen Systems annimmt, wobei die Koeffizienten dieses linearen Systems irgendwelche begründbaren Eigenschaften in sich tragen. Diese Eigenschaften indizieren, dass das ökonomische System fähig ist, sich selbst zu reproduzieren, sodass es in der Tat wieder ein partikulares Stadium des Systems gibt, in dem dieses sich nicht verändert, weil es selbst die Lösungen vorgibt, die die Werte oder im Preissystem die Profitrate und die Produktionspreise simultan und einheitlich bestimmen. (Der Satz von Perron-Frobenius befasst sich mit der Existenz eines positiven Eigenvektors zu einem positiven, betragsgrößten Eigenwert von nicht negativen Matrizen.) Dies heißt, dass nur Spezialisten, die die lineare Matrix-Theorie verstanden haben, erkennen, warum diese Theorie funktioniert.5

Letztendlich muss man hinsichtlich der Affirmation einer mathematischen Herleitung des stabilen Marktgleichgewichts immer Virtualität gleich Aktualität setzen, also den Faktor Zeit ganz eliminieren, sodass sich die Realisierungsprozesse von Kapital (Aktualisierung des Virtuellen), die hier stets solche des Gleichgewichts sind, simultan und unverzüglich (unter den ihnen vorhergehenden Bedingungen) vollziehen. Die Möglichkeit wäre jetzt at once ihre Ausführung.6

1 Philosophen wie Klossowski, Deleuze oder Bataille haben sich am Rande auch mit monetären Objekten beschäftigt, aber oft den Formalismus der Wirtschaftswissenschaften nur philosophisch übercodiert. Sie haben weniger über eine generische Theorie bezüglich der Ökonomie-als-Wissenschaft, sondern eher über die Ökonomie als ökonomische Realität in einem quasi-ontologischen Sinn nachgedacht.

2 Die neoklassische Nutzenlehre ist von vornherein rein subjektivistisch angelegt, sie bezieht sich auf die angeblich autonomen Bedürfnisse der individuellen Konsumenten, die aber längst durch vielfältige Instanzen und Kräfte (Marketing, Werbung, Meinungsindustrie etc.) durchdesignt werden. Heute sind Menschen keine Konsumenten mehr, vielmehr werden sie konsumiert, da ihre dividuellen und affektiven Relationen von Tausenden von ökonomischen Maschinen, die tagtäglich qua Algorithmen das notwendige Mapping und Tracking ausführen, als Daten und Zeichen konsumiert werden. Diese maschinellen Systeme »kennen« die intimsten Wünsche und Bedürfnisse der Konsumenten, ihre affektiven Relationen und ihre Dividualität und mit dieser Erkennung gerät das System der Bedürfnisse selbst zum Resultat einer Produktion, die eben noch den Konsumenten konsumiert. Das epistemologische Problem bei dieser Thematik besteht darin, ob die Bedürfnisse tatsächlich den Wünschen der Subjekte entspringen oder die qua Medien und Konsum konstruierten Bedürfnisse vielmehr die Subjekte steuern.

3 Es geht um die Frage, wie sich unter vorausgesetzten Bedingungen in einem bestimmten zeitlichen Verlauf die Wahrscheinlichkeitsverteilung verändert. (Master-Gleichung, vgl. Mainzer 2014: 218) Mit Computersimulationen lassen sich die wandelnden Ströme zweier Populationen analog der Flussdynamik als verschiedene Attraktoren darstellen. Heute haben wir es mit der erhöhten Komplexität der Daten und dem erhöhten Output von Daten in der Zeit zu tun. Wenn man davon ausgeht, dass selbst die bisher bekannten Naturkonstanten (Einsteins Lichtgeschwindigkeit c, Plancks Wirkungsquantum h, die Gravitationskonstante G etc.) keine ewig gültigen Größen sind, diese sich also im Laufe der Evolution verändern können, so ist das erst recht von den Zeitverläufen und Skalen der Ökonomie anzunehmen.

4 Xt kann Differenzen oder Ableitungen seiner anderen Komponenten enthalten, zum Beispiel xt= (pt,  pt-1) oder (pt‘,  pt-1′). Dies ermöglicht, dynamische Relationen auszudrücken, die größer als 1 sind.

5Zur Marx-Sraffa Problematik vgl. Michael Gaul 2015.

6 Wenn auch nicht davon ausgegangen werden darf, dass das finanzielle Kapital das Geld aus dem Nichts erzeugt, so doch zumindest davon, dass Gläubiger heute immer höhere Kredite, Anleihen, Derivate etc. an Schuldner ausgeben, als in der Zukunft gedeckte Sicherheiten, Produktivitätszuwächse und Realisierungsmöglichkeiten von Profiten vorhanden sein werden. Sloterdijk subsumiert in seinem Buch Die schrecklichen Kinder der Neuzeit dieses ökonomische Phänomen unter den angeblich allgemeingültigen zivilsationsdynamischen Hauptsatz, der besagt, dass die Summe der Freisetzung von Energien die Bindungskapazität zivilisatorischer Kräfte per se übersteige. (Sloterdijk 2014: 85ff.) Wenn dem so ist, so gilt es zu fragen, warum das Problem der differanziellen Temporalisierung der Geldkapitalströme in der ökonomischen Theorie meist ausgeblendet bleibt: Um weiterhin die Stabilität des Kapitals zu propagieren und seine immanente Krisenanfälligkeit zu ignorieren. Zwar ahnt man, dass sich mittels der Anwendung einer mathematisch fundierten Axiomatik, die rein auf funktionale Elemente und Relationen abstellt (und daher auf die unterschiedlichsten Bereiche angewandt werden kann), die Möglichkeit von ökonomischen Krisen nicht eliminieren lässt, aber dennoch soll die gleichgewichtsorientierte Axiomatik bestimmte Realisierungsmodelle der Kapitalisierung weiterhin affirmativ erzeugen.

Scroll to Top