Warum ich ein vulgärer Determinist bin

Ich beendete kürzlich ein Posting mit dem Hinweis auf den Begriff der Notwendigkeit. Notwendigkeit scheint heute ein miserables Konzept zu sein, von jedermann verspottet und verachtet. Meiner Ansicht nach scheint es aber angebracht, das Konzept etwas näher zu untersuchen, was ich hier mit der Analyse eines verwandten Terms versuche – Determination –, der in der zeitgenössischen Theorie gleichermaßen verachtet und abgelehnt wird.

In den physikalischen Wissenschaften wird das “Standard”-Modell der Determination folgendermaßen erklärt: (A) Es gibt deterministische Systeme, laplacianische Systeme mit bekannten Gesetzen und berechenbarem Verhalten, und (B) komplexe oder nicht-lineare Systeme – man denke an einen Münzwurf oder das berühmte Beispiel des doppelten Pendels –; diese Systeme sind immer noch Gegenstand bekannter Gesetze, aber dank minimaler Variationen, die unter der Schwelle des menschlich Beobachtbaren liegen, erscheinen sie als chaotisch oder als unvorhersehbar. (Ein Münzwurf randomisiert keineswegs die Gesetze der Physik; nichtsdestotrotz produziert er ein scheinbar zufälliges Resultat im Rahmen deterministischer Gesetze.) Schließlich (C) Systeme, die genuin nicht-deterministisch sind und wirklich vom Laplaceschen Modell abweichen. Die Quantenmechanik ist vielleicht das beste Beispiel für solch ein indeterministisches System.

In der Tat haben die physikalischen Wissenschaften bestimmte Strömungen der gegenwärtigen Theorie inspiriert, man denke etwa an Karen Barad, die die „bizarre Indeterminiertheit“ der Quantenmechanik als eine Möglichkeit begreift, um Queerness in den Atomen und Partikeln der physikalischen Welt zu lokalisieren, oder man denke an andere Theoretiker der materialistischen Tradition, seien sie Deleuzianer oder andere, die ihre Inspiration in der sog. „aleatorischen Materie“ finden. (Und in der Tat referieren Laruelles Schriften aus dem letzten Jahrzehnt auf die Quantentheorie.)

In der politische Theorie wird die Geschichte der Determination in einer anderen Art und Weise erzählt. Ich denke da an die alte Unterscheidung im Marxismus – aber nicht nur im Marxismus – zwischen Determinismus und Voluntarismus, sozusagen zwischen (A) dem Modus der Produktion als einer determinierenden Instanz, und (B) der praktischen Entfaltung des Klassenkampfes – der letztere Begriff verstanden als ein Kampf, der möglicherweise eine neue Gesellschaft (in politischen Kategorien) hervorbringt, während der erstere Begriff einem spezifischen Prozess unterworfen bleibt (in historischen Kategorien).

In dieser Frage wurde ich stark durch die Arbeiten von Frederic Jameson beeinflusst, im besonderen von der Art und Weise, wie der Determinismus in Jameson`s „Ontologie“ persistiert – obgleich ich wenig Zitate benutze, um darauf hinzuweisen, genauer gesagt, Marxisten besitzen keine Ontologien, und in der Tat verlangt der Marxismus unter vielen anderen Dingen nach der Enthaltung von jeder metaphysischen Spekulation. Man könnte sagen, dass Jameson gegen die Methode ist, insofern er selbst niemals irgendeine klare und präzise Methode verkündet hat, die für alle Gelegenheiten gilt. Die einzige quasi-methodologische Kategorie bei Jameson ist die dialektische, aber sie funktioniert in einer sehr eigenartigen Weise. Stattdessen kommt Jameson auf die Vorstellung einer „Bedingung“ zurück. Dinge beziehen sich auf Bedingungen; es existieren materielle Bedingungen etc. Deshalb hat der Determinismus in der marxistischen Tradition mit der determinierenden Natur der materiellen Bedingungen der Existenz zu tun.

Mittlerweile werden Marxisten oft wegen solch eines Standpunktes kritisiert, indem sie angeblich den Determinismus zu einer Art Totalitarismus umformen, zu einem verdammten und dunklen Pessimismus, der mehr das Potenzial des Widerstandes und weniger die Revolution betrifft. Wir brauchen hier nicht die ganze Story zu wiederholen: Theodor Adorno als der Patron Saint des marxistischen Pessimismus, mit anderen – von Louis Althusser über Stuart Hall bis hin zu Judith Butler –, die das Modell in einer Weise verbessert haben, dass es wechselseitige Determinationen erlaubt, oder, was große Begeisterung in den letzten zwanzig Jahre hervorrief, zumindest individuelle Agencies.

Heutzutage verfolgt eine Reihe von interessanten Denkern verschiedene Konzepte der Indeterminiertheit, von Quentin Meillassoux’s Arbeiten zu Kontingenz und Chaos bis hin zu Luciana Parisi’s neuestem Buch Contagious Architecture, das sich auf Randomness und Unberechenbarkeit fokussiert. Ich finde diese Arbeiten faszinierend und ich anerkenne die wichtige Rolle, die Kontingenz in den anti-essenzialistischen Kämpfen spielt. Dennoch, ich kann das Faktum nicht negieren, dass radikale Kontingenz historisch so eng mit dem Aufstieg der Bourgeoisie und sicherlich mit dem Kapitalismus als Ganzem assoziiert war. Kontingenz, Chaos und Indeterminiertheit wurden lange genug als Waffen gegen das Volk eingesetzt, sodass ich die Kategorien kaum in einem neutralen Licht sehen kann. Und in manchen Fällen waren Chaos und Kontingenz de facto mit einer arche-konservativen Position konnektiert. Ich denke an die Art und Weise, wie die Macht des Pöbels von politischen Theoretikern wie Hobbes als chaotisch und gewaltsam betrachtet und degradiert wurde, was eine eigenartige Form der politischen Herablassung hervorgebracht hat, wie sie etwa von Ranciere so großartig in seinem Buch Hatred of Democracy dokumentiert wurde.

Anti-Determinismus ist also mit Schwierigkeiten belastet. Auf der einen Seite ist die Ablehnung der Determination grundlegend für das, was es bedeutet politisch zu sein: „Dinge können auch anders sein“. Auf der anderen Seite, ist die Erosion der Beständigkeit eine der Hauptgründe für die Prekarisierung und die Proletarisierung: „Alles, was solide ist, löst sich in Luft auf“.

Als eine Alternative können wir vielleicht eine leicht differente Art und Weise, die Determination zu denken, heranziehen, keineswegs das Standard Modell der Determination, wie es die physikalischen Wissenschaften kennen, sondern ein “non-standard” Modell der Determination, das von irgendwo anders herkommt.

Ich habe vor kurzem einen Vortrag am UC-Irvine anlässlich einer Konferenz gehalten, bei der es um das Thema der “n-Determination” ging. Ich erfand das Thema nicht, aber ich war fasziniert, weil es ins Zentrum dessen führt, was kritische Theorie heute bedeuten könnte (und umgekehrt, die unausgesprochene Aversion, die viele gegen die kritische Tradition hegen). Auf der Konferenz versuchte ich die Kategorie zu definieren, eine Fußnote erläutere ich hier.

In einfachsten Worten interpretiere ich das Thema der n-Determination als die Theorie des „schwachen Fundamentalismus.“ Oder um es genauer zu sagen, n-Determination bedeutet einen Fundamentalismus der Schwachheit. Aber was bedeutet das?

Zuallererst, n-Determination ist eine Form des Determinismus – das muss man einfach annerkennen. (Und all diejenigen, die annehmen, dass das Ziel aller Theorie und Aktion die Produktion eines höheren Levels an Freiheit in der Welt ist, sie werden von der Theorie der n-Determination nicht besonders begeistert sein.) Man denke an die Algebra und die Notationen von Variablen. N-Determination bedeutet Determination, aber eben nur eine Determination durch n. Es ist keine Determination durch einen Vater oder einen Souverän. Es ist keine Determination durch das transzendentale Subjekt, durch das Weiße oder durch den großen Anderen. Auch nicht durch die Natur oder durch eine Essenz. Mit anderen Worten, der determinierende Faktor befindet sich in einem virtuellen Raum. Synonyme für diese “n-Determination” mögen Kategorien wie „das Generische“, „das Gemeinsame“ oder sogar “the undercommons” sein. In der Tat, ich würde sagen, „Materialismus“ ist ein Synonym für n-Determination.

Um es klarzustellen, n meint nicht „Zahl im Abstrakten.“ N meint nicht Unendlichkeit oder unendlicher Zahlenraum. Wenn wir “n” als Double für universale Identität benutzen, dann liegen wir falsch. N ist nicht abstrakt, universell, unendlich, oder ewig; n ist generisch, endlich, insuffizient und gelebt. N-Determination will keineswegs die Rolle eines ersten Bewegers oder einen absoluten Grundes okkupieren, sondern determiniert „in der letzten Instanz“, wie Althusser oder Laruelle sagen.

Als insuffizient generisch ist diese Art des Materialismus eine „Theorie der Verarmung“, oder wie ich schon gesagt habe, ein „Fundamentalismus der Schwachheit.“ Ich meine das weniger im religiösen Sinne – der Demütige, das Lamm, der Martyrer – sondern im theoretischen Sinne: eine Theorie des Minimalen; eine Theorie der Insuffizienz; eine Theorie der philosophischen Impotenz.

Dies ist eine Form des Pessimismus, aber nur im präzisen etymologischen Sinne des Wortes: das Schlechteste, das Schwächste, das Letzte, das Miserabelste, die Basis, der Boden. Zur gleichen Zeit handelt es sich auch um eine Form der Utopie, die entdeckt wird, wenn man die Suffizienz subtrahiert.

Dies ist eine Art umgekehrter Nietzscheanismus. Ein vor Kraft strotzendes Subjekt, das mutwillig den Bankrott der Welt bewältigt, mag eine radikale Subjektposition in der Vergangenheit gewesen sein. Aber heute besteht die radikalste Geste darin, der Suffizienz der Macht zu widerstehen. Der Suffizienz selbst zu widerstehen.

Man nehme die alte Differenz zwischen transzendentaler Philosophie und generischer Theorie. Transzendentale Philosophie ist transzendental gegenüber (vis-a-vis) dem Realen. Generische Theorie ist im Gegenteil immanent (vis-a-vis) zum Realen. Von einem existenziellen Gesichtspunkt aus gesehen, fragt die Philosophie immer wieder dasselbe, was ist n, oder was ist die Identität von Irgendetwas, was auch immer? Aus ontologischer Perspektive klingt das ähnlich, Alles ist n, oder Alles ist das Prinzip der Einheit, das Irgendetwas, was auch immer, schneidet. ( Die Hauptkrankheiten der Philosophie: Essentialismus, Logozentrismus, Ontotheologie.)

Generische Theorie agiert in einer anderen Art und Weise. Im Gegensatz zur Haltung der Philosophie (was ist n?) ist die existenzielle Frage der generischen Theorie n ist was oder wie ist Irgendetwas, was auch immer, eine Instanz der Identität. Ähnlich heißt die generische ontologische Erfordernis n ist Alles, oder “Irgendetwas, was auch immer” als das Prinzip der Einheit.

Philosophe ist immer inflationär und maximalistisch. Selbst die hartnäckigsten Skeptiker bleiben auf philosophischem Terrain, da sie sufizient zu sich selbst bleiben – der Skeptizismus als „adäquat“ für das Denken. Im Gegensatz dazu kreiert die Theorie einen Minimalismus im Denken. Theorie ist eine rigorose Wissenschaft der Inadäquatheit des materiellen Lebens.

Dies ist der Grund, warum ich ein vulgärer Determinist bin. Für mich ist das weniger eine Frage, den Gesetzen Newtons zu entfliehen, oder von der bizarren Indeterminiertheit der Quantenphänomene gerettet zu werden. Und obwohl ich mich immer noch mit politischen Diskussionen über Determinismus und Voluntarismus beschäftige, bezweifle ich, dass das Geheimnis hier gelüftet wird. Stattdessen müssen wir vielleicht zu Jameson zurückkehren – oder zu Laruelle, oder einer Reihe anderer Denker – und zur Vorstellung eines „absoluten Horizonts“ oder einer generischen Basis.

Am Ende sollte das Emphatische weniger auf den Deterministen, sondern auf das Vulgäre aus sein. Ein vulgärer Determinist; ein Determinismus des Vulgären. Ich werde darauf im nächsten Posting zurückkommen.

Übersetzung Englisch-Deutsch: Achim Szepanski . Originale Links wurden beibehalten. Der englische Text findet sich => hier

Nach oben scrollen