Thomas Nails “THeory of the Object” (4)

Im nächsten Kapitel widmet sich Nail dem intensiven bzw. tensionalen Objekt, das im 16. Jahrhundert endgültig anzeigte, das eine Wissenschaft der quantitativen und qualitativen Veränderung (inkl. der unendlichen Zahlen) entstanden war, die die Prozess-Natur der Objekte ernstnahm. Ein intensives Objekt ist ein Objekt, dessen Quantität nicht festgelegt, sondern variabel ist. Es handelt sich hier um Raten und Grade, die zeigen, wie ein Objekt sich in ein anderes verwandelt. Nail merkt an, dass es für Hegel keine Wissenschaft der intensiven Objekte gibt, da dieser nur endliche Quantitäten kennt.

Bei einer tensionalen Bewegung bewegen sich verlinkte Objekte relativ zueinander, oder, um es anders zu sagen, es geht um eine sich bewegende Proportion zwischen zwei verschiedenen Koordinaten in relativer Spannung zur anderen. Nail nennt hier als Beispiel die verschiedenen Koordinaten des Arms. Es konnten nun Bereiche wie Farbe, Geschwindigkeit und Temperatur quantifiziert werden. Beim Messen einer Kurve können wir zudem immer eine weitere Tangente anlegen, um eine präzisere Messung zu erhalten.

So ist für Nail zum Beispiel der Akt der Koordination von Objekten mit unserem Gehirn und Körper ein Akt Dinge zusammenzuhalten. Jedes gezählte Objekt benötigt ein Akt des Zählens und des Verbindens mit anderen Objekten, Intensive Objekte werden durch nicht-endliche und nicht-diskrete Prozesse komponiert. Endliche kardinale Objekte können niemals diesen Prozess generieren. Unendlich steht für Nail als eine negative Kapazität von Objekten und Prozessen, die der diskreten Numerierung widerstehen.

Für Nail zeichnen sich intensive Objekte weiterhin durch eine kontinuierliche Deformation aus, indem sie immer schon ihre Gestalt verändern. Hier handelt es sich um eine Mathematik der Variation, und nicht wie bei den Griechen um eine Mathematik der Form. Die Form der intensiven Objekte ist intern dynamisch, sie sind der permanenten Bewegung der Veränderung und Deformation unterzogen, wenn man sie übersetzt oder misst. Schließlich werden diese Objekte durch rigide Links wie polygonale Gestalten zusammengehalten.

Im Zuge seiner Kinematik, die Nail als das Studium von Raten, Trajektoren und Patterns sich verändernder Objekte definiert, kommt Nail auf die Objekte des Mittelalters zu sprechen. Im 14. Jahrhundert erfand man in Oxford ein System der Messung der Veränderung von qualitativen Objekten. Es wurde eeiter argumentiert, dass man hinsichtlich der kontinuierlichen Raten oder Grade quantitative und qualitative Raten der Veränderung von Objekten messen könne. Indem sie die Veränderung einer Position eines Objekts mit der Rate der Veränderung zwischen Positionen (Geschwindigkeit) simultan koordinierten, entwickelten sie ein wichtiges Theorem.

Es war Oresme, der die erste geometrische Theorie der intensiven Objekte entwickelte, indem er diese als geometrische Oberflächen behandelte, die aus zwei kontinuierlich wechselnden Dimensionen komponiert wurden. Oresmes Diagramm bestand aus den quantitativen und qualitativen Dimensionen zweier Objekte.

Im Gegensatz zu Oresmes intensiven Objekten versteht Nail diese Objekte nicht ausschließlich intensiv-ordinal und extensiv-kardinal, vielmehr  geht es um die Rate der Veränderung in Serien von Objekten, die graphisch auf einer Fläche dargestellt werden können. Die Rate selbst ist nun das dritte Objekt, das aus koordinierten Serien von kardinalen und ordinalen Objekten entsteht. Es entsteht ein kontinuierlicher Messprozess, der den Wandel und die Deformation von Dingen aufzeichnet.

Im Zuge einer neuen Aktion des Wissens wurde die Aktivität des Objektes selbst einer Untersuchung unterzogen. Hier ist zum einen die Spannung zwischen Aspekten von quantitativen und qualitativen Objekten zu vermerken, und zum anderen die Aufzeichnung der gesamten Sequenz von Objekten hinsichtlich ihrer quantitativen und qualitativen Dimension. Dies zeigt Nail anhand des Pendels und des Teleskops.

Zum Studium der intensiven Objekte gehört auch die Mathematik des Unendlichen. Eine neue Methode der Quantifizierung eines Prozess-Objekts bestand in der Untersuchung der wechselnden Raten zwischen ordinalen und kardinalen Serien. Schon Plotin hatte die Idee von der Bewegung der Natur als einem unendlichen und infinitesimalen Prozess entwickelt. Oresme unterteilt später die Strecke, in der das Objekt sich in Intervallen bewegt, und imaginiert ein Objekt, das seine Geschwindigkeit um die Hälfte in jedem Intervall reduziert. Um die durchschnittliche Geschwindigkeit zu bestimmen, entwickelt er die folgende Serie: ½ + 3/8+1/4+3/16 und dies bis ins Unendliche: Wenn die Serie gegen Null tendiert, wird sie infinitesimal.

Eine wichtige Entdeckung war das Kalkül, das aus der Idee der Raten der Formen und der aktualen Unendlichkeit resultierte. Das Kalkül erlaubte Leibniz und Newton arithmetische und algebraische Operationen an geometrisch unendlichen Objekten mit verschiedenen Raten der Veränderung durchzuführen. Das Kalkül bestimmt das Integral durch eine unendliche Summe von Rechtecken von infinitesimalen Breiten. Das Kalkül determiniert auch die Raten der Variation einer Kurve durch eine unendliche Reihe von Raten über die Zeit. Indem Kurven wie sich bewegende Quantitäten behandelt werden, kkann man eine instantane Rate des Wechsels der Fluxion der Kurve entwickeln.

Die Koordination zwischen infinit und infinitesimal bezeichnete Leibniz als eine Funktion, die aus der Beziehung zwischen dem Input einer Axis und dem Output einer anderen Axis besteht. Eine Art und Weise eine Kurve zu verstehen, besteht wiederum darin, sie sich als eine Unendlichkeit der infinitesimalen Regionen vorzustellen, die gegen Null geht, aber nicht die Null sind.

Die Erfindung von experimentellen Methoden, Modi der praktischen Wissenschaften, war ein weiterer wichtiger Schritt in der Entwicklung der intensiven Wissenschaften. Es gibt dabei generell keinen passiven Platz, von dem aus der Wissenschaftler Objekte beobachten kann. Die Objekte der experimentellen Wissenschaften waren insofern tensional, als es eine dreifache Spannung oder Parallaxe zwischen Subjekt, Instrument und Objekt gab. Im Gegensatz zur Methode der mentalen Deduktion bei Aristoteles entwickelte Francis Bacon die wissenschaftliche Methode als ein aktives Medium des Wissens, das nicht erfunden, sondern ko-kreiert wurde. Dabei war auch das Experiment stets in Bewegung.

Das mechanische Experiment konnte akkurate und wiederholbare Raten der Koordination zwischen den wechselnden Qualtäten des experimentellen Apparats und den quantitativen Markierungen herstellen. Es waren nicht unbedingt Intellektuelle, sondern Mechaniker und Handarbeiter, die experimentelle Methoden erfanden, die auf Induktion, Kalibrierung und Verfeinerung basierten. Es muss selbst die handwerkliche Grundlage der Manufaktur berücksichtigt werden, mit der die betriebliche Arbeitsteilung über lange Phasen über einen gewissen Grad der Komplexität gar nicht hinausgelangen konnte.

Für Bacon spielten die Instrumente eine doppelte Rolle in den Wissenschaften, nämlich als praktische und intellektuelle Objekte. Ein Subjekt ohne diese Objekte war für Bacon undenkbar, insofern das intensive Objekt als Prozess verstanden wurde und das Subjekt selbst als intensive und extensive Koordination zwischen Objekt und Instrument erschien. Unsere Sinne berühren nicht direkt die Natur, sondern die des Experiments bis zu einem gewissen Grad, das wiederum die Natur auch nur bis zu einem gewissen Grad berührt, indem es die Dinge aktuell gestaltet. Das Subjekt berührt das Experiment und dieses die Natur, und in dieser Dreifaltigkeit werden diese Elemente in einer tensionalen Struktur zusammengehalten.

Dann kommt Nail auf das elastische oder potenzielle Objekt zu sprechen, das als bisher abstraktestes Objekt nicht auf eine einzige Serie oder ein singuläres Stadium reduziert werden kann, vielmehr müssen die elastischen Objekte als mögliche Objekte mit einer Breite von noch zu determinierenden Zuständen verstanden werden. Die potenzielle Variationsbreite von Möglichkeiten ist real, weil sie auf bestehenden Ereignissen basiert. So basiert der Würfel auf potenziellen und aktuellen Ereignissen. Potenziell insofern alle Seiten als mögliche Outputs koexistieren und aktuell insofern, dass nur eine Seite in der Zeit sich ereignen kann.

Die Elastizität eines Objekts besteht darin, dass es in einer großen Bandbreite kontrahieren, aber auch expandieren kann, bis es eventuell endet oder auseinanderfällt. Dabei muss schließlich die geometrische Fläche von Raum und Zeit als ein elastisches Feld behandelt werden, wie etwa ein Ballon. Weder sind die Objekte selbst noch die Flächen und Felder ihrer Koordination stabil, vielmehr sind nun die Objekte in Gruppen und Superpositionen organisiert, die die volle Breite von Permutationen eines potenziellen Objekts ermöglichen. Auch das Feld der Möglichkeiten ist elastisch. Nail erwähnt hier Mengentheorie, in der das Powerset die leere Menge und alle Submengen enthält.

Wenn Nail in diesem Abschnitt noch die transzendentalen Quanten erwähnt, so bezieht er sich auf Kant, der das Transzendentale als die Bedingungen der Möglichkeit bezeichnet hat. Quanta bezieht sich auf das Wieviel von etwas. Potenzielle Objekt sind hier als Superpositionen einer Bandbreite von simultan möglichen Objekten zu verstehen.

In den zwei Kapiteln zum modernen Objekt will Nail zeigen, dass die elastischen Patterns und Objekte der Bewegung historisch in verschiedenen modernen Wissenschaften entstanden sind,  und zwar aus den statistischen Wissenschaften, den Anfängen der Quantentheorie, der Relativitätstheorie, der digitalen Logik und der transzendentalen Mathematik. Allerdings vermisst man gerade hier Aussagen zur Historie, insofern die Wissenschaften immer auch im Kontext zu den kapitalistischen Produktionsverhältnissen zu lesen sind. Die experimentelle Naturwissenschaft übersetzt sich nicht eins zu eins in Technik, die so zu einem schlichten Mittel jener degradiert würde, und zudem verhandelt die Ökonomie selbst ganz entscheidend den Status der Technologie und der Technik in der kapitalistischen Realität. Und dennoch deutet sich hier schon eine seltsame Umkehrung an: Der kapitalistische Produktionsprozess wird zu einem Ort der (erweiterten) Reproduktion transformiert, während die produktiven Prozesse (Innovation und Kreation) auch außerhalb der Fabrik stattfinden, wobei sich die wissenschaftlich-experimentelle Forschung mittels ihrer materiell-diskursiven Praktiken und Apparate wiederum in die Struktur der Produktionsprozesse einschreibt.

Mit dem Elektromagnetismus gelang es Wissenschaftlern zum ersten Mal die Elektrizität und den Magnetismus als Medien mit kinetischer oder aktualer Energie zu behandeln. Elektromagnetische Objekte sind nicht nur aktuelle Objekte, sondern potenzielle Felder des Flux, die Objekte und Relationen gestalten. Jede elektrische Ladung erzeugt ein elektrostatisches Feld, das auf andere Ladungen eine Kraft ausübt. Bewegte elektrische Ladungen bilden einen Strom, der ein Magnetfeld erzeugt, welches wiederum auf andere Ströme wirken kann.

Maxwell zeigte dann mit einer mathematischen Formulierung, wie ein sich änderndes elektrisches Feld ein Magnetfeld erzeugt und wiederum ein sich änderndes Magnetfeld ein elektrisches Feld.  Die Änderung der Felder wird sich im Raume ausbreiten, jedoch nicht schneller als mit Lichtgeschwindigkeit. Eine solche Ausbreitung elektromagnetischer Felder im Raume bezeichnet man als „elektromagnetische Wellen“.

Nail erwähnt im Kontext einer kurzen Diskussion über die Entropie geschlossene Systeme, in dem zunehmend ungeordnete Kollisionen im Prozess stattfinden. Über die Zeit werden die sich zufällig bewegenden Objekte zunehmend ihrer Ordnung verlieren, sodass die Entropie ein statistische Tendenz aller geschlossenen Systeme in der Zeit ist. Der Zweite Hauptsatz der Thermodynamik, der das Gesetz vom Wachsen der Entropie in einem geschlossenen System formuliert, gilt aber, wie Görnitz zeigt, nicht für offene Systeme wie etwa Lebewesen. „Lebewesen sind thermodynamisch instabile Systeme, die in der Lage sind, sich durch eine interne Informationsverarbeitung zu stabilisieren. Instabiles ist flexibel, es kann ausweichen, sich anpassen, sich ändern. Unter sich verändernden Umweltbedingungen kann Flexibilität einen großen Vorteil für eine mögliche Existenz bedeuten.“ (Görnitz)

Es war Max Planck, der zum ersten Mal die gesamte Energie elektromagnetischer Wellen eines heißen Körpers als die von diskreten Quanta erkannte, wobei die Größe dieser Energiepakte von der Frequenz der magnetischen Wellen abhängig ist. Planck hat mit dem Wirkungsquantum h eine neue Naturkonstante gefunden. Elektromagnetische Strahlung werden nur in Quanten emittiert. Einstein verwendete diese Idee und postulierte, dass im Gegensatz zur Wellentheorie Maxwells diese Strahlung in manchen Situationen wie ein Strom von Teilchen beschrieben werden muss. Diese Beziehung zwischen Teilchen und Feldern kann man als den Kern der Quantenstrukturen verstehen. Plancks Formel E = E =n h f zeigt, dass sich die Energie, die von einer Strahlungsquelle ausgesendet wird, aus zwei Anteilen zusammensetzt. Diese sind die Frequenz der Photonen und die Anzahl der Photonen. Wird Licht mit einer bestimmten Frequenz f ausgestrahlt, dann kann die Energie E der Strahlung nicht beliebige Werte annehmen, sondern nur festgelegte Quantitäten. Dabei bezeichnet h das Wirkungsquantum und n = 1, 2, 3, … die Anzahl solcher möglichen Portionen, die Anzahl der Quanten.

Nail erwähnt folgend, wenn er auf Heisenberg zu sprechen kommt, nur am Rande die Auseinandersetzung zwischen Bohr und Heisenberg, auf die Karen Barad in ihrem Buch „Meeting the Halfway“ ausführlich eingeht. Für Heisenberg wird bei der Bestimmung der Position eines Elektrons ein bestimmter Wert des Impulses des Elektrons unabhängig von der Messung als gegeben angenommen, aber wir können ihn nicht wissen; wir bleiben unsicher über seinen Wert, aufgrund der unvermeidlichen Störung durch die Wechselwirkung der Messung. Diese Analyse, die auf dem Begriff der Störung beruht, führt Heisenberg zu dem Schluss, dass die Unschärferelation ein epistemisches Prinzip ist – sie besagt, dass es eine Begrenzung für das gibt, was wir wissen können.

Für Barad hört Heisenbergs Analyse genau an dem Punkt auf, an dem Bohrs Analyse beginnt: die Existenz einer Störung ist ein wichtiger Punkt. Hinzu kommt die Frage nach den Bedingungen der Möglichkeit, die Wirkung der Messung zu bestimmen. Für Bohr beruht die Analyse dieser Bedingungen auf der entscheidenden Einsicht, dass Begriffe onot-logisch bestimmt sind, und zwar durch ihre Verkörperung in der physikalischen Anordnung des Apparates.  Für Bohr ist das eigentliche Problem die Frage der Unbestimmtheit, nicht der Unsicherheit. Er versteht die wechselseitige Beziehung zwischen Position und Impuls in onto-logischer Hinsicht, und nur davon abgeleitet in epistemischer Hinsicht. Bohrs Unbestimmtheits-Prinzip lässt sich wie folgt formulieren: Die Werte von komplementären Variablen (Position und Impuls) sind nicht gleichzeitig determiniert. Es geht nicht um die Unbestimmbarkeit an sich, sondern um die Frage, was man sagen kann, dass gleichzeitig etwas existieren kann.

Die Teilchen-Welle-Dualität in der Quantentheorie erläutert Nail zunächst an dem bekannten Doppelspalt-Experiment. Gegen einen Doppelspalt laufen Quanten (Photonen, Elektronen), so, dass immer nur eines von ihnen unterwegs ist. Wenn ein Spalt verschlossen ist, dann gibt es hinter dem offenen Spalt einen Punkt. Sind beide Löcher geöffnet, wird aber kontrolliert, durch welches Loch das Teilchen gelaufen ist, dann wird Information über Möglichkeiten entzogen, was einer Messung entspricht, und es ergibt sich hinter jedem Loch ein Punkt. Erhalten jedoch die Teilchen die Möglichkeit, unkontrolliert durch beide Löcher gehen zu können, dann verhalten sie sich anders, als wenn sie kontrolliert werden.Es gibt dann hinter den beiden Löchern ein interferentes Wellenmuster. In Ermangelung einer inhärenten Trennbarkeit wird im Experiment Objektivität durch die agierende Trennbarkeit sichergestellt. Es gibt keine gesondert determinierten Entitäten mit inhärent determinierten Eigenschaften, wie etwa Einstein glauben machen will.

Nach Bohr ist es notwendig, eine Verbindung zwischen den idealisierten Begriffen “Welle” und “Teilchen” mit empirischen Ergebnissen herzustellen. Mit Hilfe des Prinzips der Superposition ist es möglich, Teilwellen, die jeweils eine genau definierte Wellenlänge haben, zu einem im Raum lokalisierten Wellenpaket zu kombinieren (sie überlagern sich). Teilchen sind Objekte die im Raum lokalisiert sind, während Wellen Störungen sind, die im Raum verteilt sind. Man kann ein Wellenpaket aufbauen, das im Raum lokalisiert ist, und zwar mit endlicher räumlicher Ausdehnung durch Überlagerung (d. h. Addition) einer Reihe verschiedener Wellenkomponenten, jede mit einer anderen bestimmten Wellenlänge.

Der Kernpunkt der Bohr’schen Analyse besteht darin zu zeigen, dass es eine notwendige reziproke Beziehung zwischen der endlichen räumlichen Ausdehnung des Wellenpakets (seiner Lokalisierbarkeit und letztlich seiner Definierbarkeit als “Teilchen”) und der endlichen Ausdehnung der Wellenlängen gibt (seine Definierbarkeit als “Welle”). Das heißt, die Definierbarkeit von “Welle” (“Wellenlänge”) und die Definierbarkeit von “Teilchen” (oder “Lokalisierbarkeit”, d.h. “Position”) stehen in einem wechselseitigen Verhältnis. Bohr erklärt, dass es einfach ist, eine quantitative Beziehung zwischen den beiden abzuleiten.

Anders in der klassischen Vorstellung: Der erste Fall entspricht einem unendlich schmalen Wellenpaket mit einer perfekt definierten Position. So stellen wir uns klassischerweise ein Teilchen vor (d.h. es ist vollständig im Raum lokalisiert und hat keine wohldefinierten Welleneigenschaften), Umgekehrt der zweite Fall entspricht einer monochromatischen Elementarwelle (d.h. einer einzigen Wellenlänge) mit einer vollkommen wohldefinierten Wellenzahl, aber ohne sinnvolle Position, da sie sich gleichmäßig über den gesamten Raum ausbreitet. Klassischerweise stellen wir uns eine Welle so vor.

Es ist wichtig, sich vor Augen zu halten, dass Wellen ganz andere Arten von Phänomenen als Teilchen sind. Klassisch gesprochen sind Teilchen materielle Einheiten, und jedes Teilchen nimmt zu einem bestimmten Zeitpunkt einen Punkt im Raum ein. Wellen hingegen sind keine Dinge an sich, sondern Störungen (die nicht an einem Punkt lokalisiert werden können), die sich in einem Medium (wie Wasser) oder als schwingende Felder (wie elektromagnetische Wellen, das bekannteste Beispiel das Licht) ausbreiten. Im Gegensatz zu Teilchen können sich Wellen an ein und demselben Punkt im Raum überlagern. In diesem Fall verbinden sich ihre Amplituden zu einer zusammengesetzten Wellenform. Wenn sich zum Beispiel zwei Wasserwellen überschneiden, kann die resultierende Welle größer oder kleiner sein als die beiden Wellenkomponenten. Wenn sich zum Beispiel der Scheitelpunkt der einen Welle mit dem Scheitel einer anderen überlappt, ist die resultierende Wellenform größer als die einzelnen Teilwellen. Überschneidet sich hingegen der Scheitelpunkt der einen Welle mit dem einer Welle einer anderen, heben sich die Störungen teilweise  oder in manchen Fällen vollständig auf, sodass ein Gebiet mit relativer Ruhe entsteht. Die resultierende Welle ist also eine Summe der Auswirkungen jeder einzelnen Komponente, d. h. sie ist eine Kombination der Störungen, die von jeder Welle einzeln ausgehen. Diese Art der Kombination von Effekten wird als „Superposition“ bezeichnet. Der Begriff der Superposition ist von zentraler Bedeutung für das Verständnis dessen, was eine Welle ist.

Die Fiktion kleinster Teilchen wurde in der klassischen Physik ergänzt durch die Fiktion gleichzeitig exakter Orte und Geschwindigkeiten. Es existiert aber entweder ein wohlbestimmter Ort oder eine wohlbestimmte Geschwindigkeit – aber niemals beides zugleich. Dies ist der Kern der Heisenberg’schen Unschärferelation, die in einer Gleichung ausgedrückt werden kann.

Für Bohr sind diese Beziehungen als eine quantitative Aussage über die Komplementarität von Position, Impuls und Energie-Zeit zu verstehen. Bohr geht es um die “Definitionsschärfe” von Begriffen (wie “Ort”), die wir in unserer klassischen Weltanschauung bisher als selbstverständlich und unabhängig von jedem experimentellen Kontext angesehen haben, aber aus der Perspektive der Quantenphysik als semantisch determiniert nur für eine gegebene Versuchsanordnung verstanden werden können.

Gemäß der Quantentheorie entwickeln sich nur die Möglichkeiten determiniert, aber nicht das, was dabei als einzelnes Ergebnis in einer Messung faktisch wird. Die Quantentheorie ist in ihrer mathematischen Struktur eine deterministische Theorie, so wie die klassische Physik auch. Görnitz schreibt: “Der große Unterschied besteht jedoch darin, dass sich der Determinismus bei ihr nicht auf eine faktische Entwicklung bezieht, sondern nur auf die möglichen Entwicklungen. Die sich gesetzmäßig verändernden Möglichkeiten geben einen Rahmen vor, innerhalb dessen sich dann die Fakten zufällig realisieren. Das sich daraus ergebende zufällige Auftreten der Fakten ist also keineswegs willkürlich.“

Nail erwähnt in diesem Kontext Paul Dirac, bei dem Möglichkeiten und Aktualitäten in einem Prozess von interagierenden Transitionen alterieren. Potenzielle Wellen sind dabei als Wahrscheinlichkeiten von möglichen Ergebnissen zu verstehen. Mögliche Positionen werden wie die Würfe eines Würfels aktualisiert, wenn man ein Partikel beobachtet. Potenzielle Objekte sind statistische Objekte mit potenziellen und aktuellen Zuständen.

Alle Quantenobjekte haben stets auch „Wellencharakter“ und sind somit auch als ausgedehnt zu verstehen (Felder).  Quantenfeldtheorie bedeutet auch, dass damit zugleich eine Vielfalt von virtuellen Quanten eingeschlossen wird. Ein Teilchen erweist sich damit als dieses Teilchen zusammen mit einem „Ensemble von virtuellen Teilchen-Antiteilchen-Paaren“ sowie mit einer „Wolke“ virtueller Photonen. In der Quantentheorie haben Teilchen einen unendlich-dimensionalen Zustandsraum, somit können Systeme mit einem zweidimensionalen Zustandsraum keinesfalls als Teilchen oder als etwas Teilchenartiges interpretiert werden. (Görnitz)

Die mathematische Struktur, die den wesentlichen Unterschied zwischen Quantentheorie und klassischer Physik begründet, besteht in der Relationalität der Quantentheorie. Durch sie wird ein Ganzes mehr als die Summe seiner Teile. Mathematisch wird dies dadurch erfasst, dass in der klassischen Physik die Zustandsmannigfaltigkeiten additiv zusammengesetzt werden und in der Quantentheorie multiplikativ.  Raum“ bedeutet in der Quantentheorie, dass die Zustände durch Linien oder durch Vektoren bzw. Pfeile dargestellt werden können. Die Anzahl der grundsätzlich verschiedenen Zustände gibt die Dimensionszahl des Zustandsraumes an. Der Raum, indem wir leben, hat mit Länge, Breite und Höhe drei Dimensionen. Wenn Systeme gemäß der Quantentheorie miteinander wechselwirken, so ergibt das ein Gesamtsystem, dessen Dimensionszahl gleich dem Produktder Dimensionszahlen der Teilsysteme ist. Da eine Multiplikation mit 1 nichts verändert, ist 2 die kleinste Dimensionszahl, mit der etwas Größeres und Komplexeres aufgebaut werden kann. (Görnitz)

Für Laruelle sind Superposition, Non- Kommutativität, Indetermination und die Welle/Teilchen Komplementarität sowie Idempotenz (A + A = A) die wichtigsten Prinzipien der Quantentheorie. Idempotenz ist Immanenz unmittelbar in ihrer linearen und “wellenförmigen” Form, nicht in Form eines Punktes oder eines Kreises, wie die Philosophen vermuten. Sie programmiert die Identität eines Begriffs mit sich selbst als Ergebnis. Die Idempotenz simuliert die Identifikation, die einen Begriff auf einen anderen zurückfallen und sie einander im Spiegel oder im Möbiusband sehen lässt. Die Idempotenz ist eine lineare Immanenz, ein Selbes, das als Bedingung die Spannung der Operation der Addition hat, die als arithmetisch verstanden wird. Sie ist die Vektorialität des Gleichen.

Seine erste Wirkung hat die Idempotenz in der Quantenphysik als Prinzip der Superposition. Ein idempotentes Verfahren führt zu demselben Ergebnis, egal ob es einmal oder der mehrfach angewandt wird, zum Beispiel in Form des Flusses. Idempotenz ist halb analytisch, halb synthetisch, oder genauer gesagt, es ist das Analytische nicht mehr als isolierte oder korpuskulare philosophische Operation, eine Analytik, die zum Synthetischen tendiert oder es anstrebt. Komplementär dazu ist es das Synthetische, das nicht mehr so ist, wie es qua isolierter oder korpuskularer Operation in der philosophischen Logik vorkommt.

Der zweite Effekt der Idempotenz ist das Prinzip, das diese Bestimmung von ihrer stets aktiven oder drohenden philosophischen Vergeltung abzieht. Die algebraische Eigenschaft der Nicht-Kommutativität wird in der Quantentheorie in den Status eines Prinzips erhoben (bei dem die inversen Produkte zweier Variablen nicht gleich sind) – befreit von ihrer philosophischen Kombinatorik und auf ihren operativ-algebraischen Kern reduziert, bildet sie zusammen mit der Idempotenz das, was Laruelle eine „unilaterale Komplementarität“ nennt. Das immanente Prinzip der Idempotenz bricht von vornherein mit der klassischen Logik und der Philosophie. Wenn hier mit einem Zusatzterm eine prinzipielle Änderung vorgenommen würde, so würde damit die wichtige Eigenschaft der Quantensysteme, das Superpositionsprinzip (die gleichzeitige Existenz mehrerer Möglichkeiten und die damit verbundene Möglichkeit, einen Quantenzustand in eine Summe von anderen Zuständen zerlegen zu können), verletzt werden.

Deren grundlegende Eigenschaft der Superposition, die additive Kombination von Möglichkeiten, wird dann durchbrochen, wenn man ein Messergebnis erhält. Die Nichtlinearität ist dann insofern konsequent, da ein Ergebnis, ein Faktum, erhalten wird – und Fakten gehören in den Zuständigkeitsbereich der klassischen Physik und die ist in der Regel nichtlinear.

Foto: Sylvia John

Nach oben scrollen