Lexicon, PhiloFiction

Deleuze/Guattaris Diagramm

By

25 Apr , 2017  

Das Wort »Dia-graphein« verwies in der Antike auf die Einschreibung einer Linie, und zwar in geometrische Tabellen, Listen, Notenschriften etc. Mit Hilfe von Linien wurden nicht nur Pläne und Figuren entworfen, sondern es kam auch zu vielfältigen Markierungen und sogar zu Durchstreichungen, die dann die Stabilität des jeweiligen Diagramms in Frage stellten, aber manchmal im Keim auch schon Entwürfe für weitere Diagramme enthielten. Weder Mathematik noch Musik sind als Sprachen zu verstehen, vielmehr inhärieren sie Diagramme, die man nicht unter dem Gesichtspunkt der Repräsentation, sondern der Aktion/Produktion analysieren sollte, wenn sie denn operativ werden, um das Denken und seine Referenten zu verzeitlichen bzw. zu rhythmisieren.1

Diagamme sind heute ein wichtiger integrativer Teil der technisierten Informations- und Wissensproduktion des Kapitals, wobei man sie weniger als Darstellungsmedien, sondern als gespeicherte Zustände von abstrakten Rechenmaschinen, die stets auf dem Sprung sind, operativ zu werden, zu definieren hat. (Vgl. Miyazaki 2013: 30) Als Beispiele für Diagramme seien hier Algorithmen und Algebra, Logik und Topologie, Pläne und Schemata der Datenspeicherung, Schaltungen und Tabellen, Charts und Graphiken der Ökonomie, aber schließlich auch die Partituren der Musik genannt. Gewöhnlich lassen sich in den Wissenschaften hinsichtlich der Definition des Diagramms zwei Positionen benennen: 1) Das Diagramm als eine zumeist in graphischer Form dargestellte Entität, die der Lösung eines Problems bzw. als Hilfsmittel zur Systematisierung dient, wobei eine bestimmte Anzahl von Schlussfolgerungen vorgestellt wird, die wahrnehmungsorientiert sind. 2) Das Diagramm als auflösungsorientierte Kartographie oder als der Multiplikator eines produktiven Entfaltungsprozesses.

Während bei der ersten Definition das visuelle Diagramm, das eine Relation ikonisiert, von seiner Form und seiner Potenz zu veranschaulichen her gedacht wird, favorisiert man bei der zweiten Definition die Herstellung der Relationen, das heißt den Entwurf und seine Verknüpfungen, die Lösungen und Auflösungen, im Allgemeinen den zeitlichen Prozess, oder wie Miyazaki formuliert, die »Algorhythmik« von Ereignissen. (Ebd.: 36) Bei der zweiten Definition betont man also klar die prozessuale Anordnung von Zeichen, Objekten und Schemen, und im postdigitalen Zeitalter ist hier sicherlich das universelle Streaming hinzuzufügen, wobei hier das Diagramm in der Black Box meistens unsichtbar bleibt. Während der erste Diagrammbegriff die retrospektiven Komponenten der Zusammenfassung von Sachverhalten bevorzugt, betont die zweite Definition die projektiven Komponenten, insofern spezifische Zeit-Vektoren mit der Erzeugung von Trajektoren auf zukünftig zu erfassende Richtungen verweisen und damit ein Feld für Handlungen zuallerest eröffnen. Betont man damit zudem noch den Begriff der Operationalität, so gilt es auf den von Miyazaki ins Spiel gebrachten Hybridbegriff »Algorhythmus« hinzuweisen, dessen Medium die gegenüber den Buchstaben und Sätzen weitaus eindeutigeren Zahlen sind. Diagramme integrieren hier, wenn sie denn in Rechenmaschinen gespeichert werden, sequenzielle, zeitlich-messbare und physikalisch-reale Effekte der algorithmisch programmierten symbolischen Logiken. (Ebd.) Dabei führen die Diagramme »Algorythmen« aus, die für die Generierung von Mustern zuständig sind und in offenen Prozessen stets neue Muster erzeugen. Schaltungen, Pläne, Partituren oder Tabellen wandeln sich, wenn sie operativ werden bzw. verzeitlicht agieren, in spezifischen Gefügen zu Rhythmen, die wiederum in reale Maschinen implementiert werden. (Ebd.)

Diagramme bedürfen von vornherein einer relationalen Logik (die Relata sind sekundär gegenüber den Relationen), die dazu dient, nicht-qualifizierte Relationen und Kräfte in eine prozessuale Beziehung zu setzen.2 Im Unterschied zu Peirces` »Ikon der Beziehung« konzipiert Guattari das Diagramm als eine »Konjunktion von Materie und Semiotik«, womit er von vornherein die Betonung auf die Relation und eben nicht auf das Ikon oder die Ähnlichkeit des Diagramms mit dem Gegenstand legt. Guattari schließt die Bildhaftigkeit des Diagramms auf der abstrakten Ebene sogar aus, insofern er das Diagramm von seiner unabgeschlossenen materiell-semiotischen, funktionalen und relationalen Konsistenz her denkt, die sich immer in ganz verschiedenen Alteritätsregistern entfaltet, einem Universum von Virtualitäten und seinen Aktualisierungen. (Guattari 2014: 61) Guattari geht davon aus, dass Diagramme eine Konjunktion zwischen deterritorialisierten Zeichen und deterritorialisierten Objekten herstellen und damit einen direkten Effekt auf die Dinge ausüben, insofern sie eben eine materielle Technologie involvieren und Teil einer komplexen Manipulation von (abstrakten) Zeichen-Maschinen sind. Gemäß einer Definition von Guattari »bilden [abstrakte Maschinen] eine Art Stoff der Veränderung aus – ich nenne ihn ›optionale Materie‹ –, der aus Möglichkeitskristallen besteht, die sowohl in der Welt des Lebendigen wie der des Unbeseelten Verbindungen, Entstratifikationen und Reterritorialisierungen katalysieren« (Guattari 1979: 13). Guattari spricht hier von der Optionalität der Materie, während er zusammen mit Deleuze in Tausend Plateaus wesentlich stärker die Operationalität des Diagramms selbst und darauf folgend sein Wirken im Materiellen betont, wenn es sich denn auf der Höhe der abstrakten Maschine befindet, das heißt jenseits der Unterscheidung zwischen Ausdruck (Linguistik, Semiotik und bedeutungsvolle Performanz) und Gefüge (Materie, Körper, Signal), womit das Diagramm selbst Teil einer reinen Materie-Funktion wird.

Guattari bindet seinen Begriff des Diagramms eng an die sozio-ökonomischen Verhältnisse und die ihnen korrelierenden (digitalen) Maschinen. Diese Maschinen enthalten heterogene und dynamisierte Elemente (Materialisierung von Praktiken), die für die Produktion, Konstruktion oder Transduktion der ökonomischen Prozesse heute absolut notwendig sind: Pläne, Schemata und Notationen. Was die a-signifikanten Semiotiken, ihre Diagrammatiken und ihre Konfigurationen auszeichnet, das ist die Verknüpfung von Abstraktion und Materialität. Mediale Maschinen sind somit als Resultate materieller-semiotischer-diskursiver Praktiken zu verstehen, die sich in wissenschaftlichen Apparaten und Institutionen verdichten und dort zu Verzweigungen, Verschaltungen und Schnitten des Materials führen, womit es zur Einfaltung bestimmter Objekte (und Subjekte) erst kommt, indem man bestimmte Grenzen zieht und damit ontisch-diskursive Unbestimmtheiten auflöst. (Vgl. Barad 2012)

Das Diagramm verweist wiederum auf den Begriff des Agencements, das Deleuze/Guattari zufolge einerseits aus Äußerungen, andererseits aus Maschinen besteht, aus dem, was gesagt werden kann, und dem, was gemacht werden kann. In diesem Kontext zeigen die technologischen Termini »Verzweigungsmuster« und »Verschaltungsinstanz« nicht nur die funktionale und nicht-subjektive Potenzialität des Diagrammatischen an, sondern auch das Moment der Ausführung, das Operative und das Rhythmische. Die oft graphisch orientierte Darstellung des Diagramms ist hier also bereits klar auf die Ausführung hin konzipiert. In seinem Buch L’inconscient machinique geht Guattari direkt auf die produktiven Leistungen der Diagrammatisierung ein, wenn er schreibt, »dass die Figuren des Ausdrucks, die in einen diagrammatischen Prozess involviert sind, nicht mehr darauf abzielen, Bedeutungen oder Bedeutungselemente zu repräsentieren. Die Systeme der algorithmischen, algebraischen und topologischen Logik, die Verfahren der Aufzeichnung, des Speicherns und der informationstechnischen Behandlung, die von Mathematik, Wissenschaft, Technik, harmonischer und polyphoner Musik benutzt werden, haben nicht zum Ziel, die Morpheme eines Referenten, der bereits gegeben ist, zu bezeichnen oder zu imaginieren, sondern ihn qua ihrer eigenen Maschinenhaftigkeit zu erzeugen.« (Guattari 1979: 224) Der Referent des Semio-Maschinellen wird also nicht ausgelöscht, wie dies Jean Baudrillard etwa noch annimmt (Baudrillard 1982), sondern er wird von den diagrammatischen Systemen in nuce erzeugt.3

Ein relationaler Diagrammbegriff, der stets auch die Kräfteverhältnisse betont, die einer sozio-ökonomischen Formation eigen sind, zielt auf die Beschreibung von Prozessen ab, in denen fortlaufend Machtbeziehungen wirken. Macht inkludiert hier einen »Willen-zur-Macht-Pluralismus«, der die Vielheit von Kräften und plurale Machtquanten umfasst. Und Deleuze betont, dass es kein Diagramm gibt, das nicht auf Seiten der Punkte, die es verknüpft, relativ freie oder entkoppelte Punkte freisetzt, Punkte der Invention, des Widerstands und der Möglichkeit einer neuen Verteilung. Gleichzeitig inkludiert das Diagramm die Verteilung der Fähigkeiten, zu affizieren und der Fähigkeiten, affiziert zu werden.

Es ist evident, dass die Organisation der ökonomischen, technologischen und politischen Maschinen, ja sämtlicher Formen des sozialen Lebens ohne Algorithmen heute nicht mehr vorstellbar ist. Der neue technologische Nomos bleibt allerdings heterogen eingefaltet, insoweit er innerhalb des Zusammenspiels der imperialen nationalen Regierungen, von transnationalen Organisationen (IMF, WTO, EZB, NGOs), transnationalen Banken, Hedgefonds, Konzernen und Unternehmen wie Google, Facebook, Apple, Amazon etc. funktioniert und wirkt. Im Rahmen des quasi-transzendentalen Zusammenhangs des Gesamtkapitals (die Ereignislosigkeit der Transzendentalität kann nur in dem Sinn historisch sein, wenn gezeigt wird, wann und wo sie geschichtliches Ereignis wurde) und der Virtualisierung-Aktualisierung-Verschaltungen dienen Algorithmen dazu, die differenziellen Patterns einer einvernehmlichen Welt-Ökonomie zu fundieren, die durch die jeweiligen nationalen und internationalen Akkumulations-, Wettbewerbs- und Konfliktpotenziale markiert wird.

Was man vor einigen Jahren noch als Computer bezeichnete, das ist heute zu einem winzigen und dennoch komplexen Gefüge von Mikroschaltkreisen aus Silizium geschrumpft, das in intelligente Objekte, Geräte, Gadgets, Wände oder selbst in den menschlichen Körper integriert werden kann und damit Teil eines technologischen Environments ist, welches das Kapital als sein ständig fluktuierendes digitales Agencement zu verwerten und gleichzeitig als Machttechnologie anzuwenden versucht. Digitale Medientechnologien haben also längst intelligente Umgebungen geschaffen, Servomechanismen von kybernetischen Netzen, mit denen Arbeitsplätze, private und öffentliche Räume, Büros und Gebäude gestaltet und verschaltet werden, und zwar als komplexe kommunikative Kon-Figurationen, wobei die multimedialen Nervensysteme und Kommunikationsmaschinen alles verbinden, was potenziell zu verbinden ist. Apples »Health Kit« verknüpft Kommunikationsgeräte mit diversen Fitnessgeräten, während Apples »Home Kit« jene mit den verschiedenen Apparaten in den Wohnungen verkoppelt.4

Die digitale Automation funktioniert heute electro-computational, sie erzeugt ständig Simulationen der Feedbacks und andere autonome Prozesse in den verschiedensten gesellschaftlichen Bereichen. (Vgl. Terranova 2014: 127) Sie entfaltet sich in diversen Netzwerken, die aus elektronischen und neuronalen Verbindungen bestehen, in die die Angestellten gleichwie die User als quasi-automatische Relaisstationen in einen pausenlosen Informationsstrom von Maschinen, der in verschiedenen Rhythmen prozessiert, integriert werden. Dabei mobilisiert die digitale Automation bei den Akteuren die Produktion der Seele, sie involviert das Nervensystem und das Gehirn. In diesen Agencements bzw. Netzwerken muss man auch die Algorithmen ansiedeln, wenn man neue Modelle der Automation diskutieren will. Man sollte die Algorithmen also als Teile verschiedener Agencements verstehen, die sowohl materielle Strukturen (Hardware, Daten, Datenbanken, Gedächtnis etc.) als auch Zeichensysteme und Aussagen und darüber hinaus auch die Verhaltensweisen und Aktionen von Personen umfassen. Dabei müssen zeitgemäße Algorithmen immer größere Datenmengen prozessieren, sie stoßen auf eine wachsende Entropie im Datenstrom selbst (Big Data), wobei potenziell unendliche Mengen von Daten und Informationen mit algorithmischen Prozessen interferieren, bis sie im Verbund sogar »Alien«-Regeln produzieren können. Von daher umfassen Algorithmen weder homogene Sets von Techniken, noch garantieren sie die störungsfreie Exekution eines automatischen Prozesses der Kontrolle.

Gewöhnlich fasst man den Algorithmus als eine Methode, mit der eine Aufgabe gelöst wird, und zwar mittels einer endlichen Sequenz bestimmter Instruktionen (Schritt-für-Schritt-Anleitungen); es handelt sich um ein Set von geordneten Schritten und Befehlen, die die Lösung eines Problems exakt beschreiben, wobei man mit Daten und numerischen Strukturen operiert. Im Unterschied zu mathematischen Formeln sprechen wir beim Algorithmus, der eine Rechenanweisung darstellt, stets von einem Prozess (Beschreibung des Ablaufs der jeweiligen Rechenschritte). Eine derartige schriftliche Formalisierung muss folgende Funktionen erfüllen: Speicherung, Operation, Schematisierung und Mitteilbarkeit, oder anders gesagt, sie muss codiert sein (wiederholbar und symbolisch notierbar). Sie darf keinerlei Interpretationen zulassen, sie ist also eindeutig.

Einerseits gilt der Algorithmus als ein Set von endlichen Instruktionen (first-order-cybernetics), das heißt, finite Algorithmen generieren finite komplexe Strukturen, andererseits ist der Algorithmus auch zur Adaption und Variation fähig, wenn er sich auf externe Stimulationen und stets wandelnde Umstände in der Umwelt bezieht (second-order-cybernetics). Man kann nun auf der Metaebene davon ausgehen, dass der erste, der problemorientierte Ansatz, ein abstraktes Konzept favorisiert, i. e. der Algorithmus beinhaltet eine Abstraktion, die eine autonome Existenz besitzt, und zwar unabhängig von den »implementation details«, der Ausführung in partikularen Programmsprachen, die selbst wiederum Teil einer partikularen maschinischen Architektur sind. Algorithmen sind somit im technomathematischen Sinne als abstrakte Denkstrukturen zu verstehen, die eine endliche Folge von eindeutig bestimmten Anweisungen, die den Pfad der Lösung eines Problems exakt sowie vollständig beschreiben, inhärieren. Hingegen betont die maschinenorientierte Variante die Algorithmisierung stärker als einen praktischen Prozess, das heißt Algorithmen im Sinne der praktischen Informatik umfassen abstrakt-symbolische Kontroll- und Steuerungsstrukturen, die man üblicherweise als Pseudocodes oder auch als Flussdiagramme – spezielle Formen mathematischer Konstrukte – notiert. Ihre symbolisch eindeutige Codierung ist hier bereits ganz auf die Ausführung hin konzipiert. Und das unterscheidet einen Algorithmus eben von einer algebraisch notierten mathematischen Formel. Im abstrakten Modell der Turingmaschine spielt die Effizienz eines Algorithmus noch keine Rolle, da hier von einer unbeschränkten Speicherung ausgegangen wird, was aber physikalisch unmöglich ist.

Mit Gödel wurde deutlich, dass es der Mathematik bzw. einer axiomatischen Methode nicht gelingen kann, ein System und dessen Sätze, selbst wenn diese alle wahr wären, ausschließlich immanent und rekursiv vollständig zu verifizieren, sodass spezielle Systeme zur Problemlösung von bestimmten Klassen immer wichtiger wurden, das heißt algorithmisch-praktische Verfahren, die letztendlich einfach nur funktionieren müssen. Die Unvollständigkeit der Methode zeigt auch die Unvollständigkeit der Berechnung an. Damit sind Algorithmen je schon auf ihre zeitliche Effizienz und Komplexität hin zu untersuchen, zwei Faktoren, die in einem inversen Verhältnis zueinander stehen: Neben der Speicherkomplexität ist die Zeitkomplexität zu berücksichtigen, mit der das Problem der Addition der Rechenschritte in Relation zur Symbollänge des Inputs auftaucht. In die jeweilige Laufzeitberechung (O-Notation) eines Algorithmus ist eine Rhythmik integriert, wobei jene diese bestimmt. Die in der Zeit verlaufende Rhythmik des Algorithmus ist also von seiner Laufzeit her zu beschreiben, wobei hier die Effizienz des Algorithmus, des Compilers und der ausführenden Hardware eine Rolle spielt. Und die prädeterminierten symbolisierten Sequenzen von Iterationen (Outputs) können wiederum als Inputs desselben Algorithmus verwendet werden und beeinflussen damit den Ablauf weiterer Sequenzen: Man unterscheidet prädeterminierte iterative, rekursive und rekursiv-bedingte Algorithmen.5 (Vgl. Miyazaki 2013)

Der »Algorhythmus«, ein von Shintaro Miyazaki erfundener Neologismus, der durch die Mischung der Begriffe Algorithmus und Rhythmus entsteht, basiert auf der Aufschreibung der in sequenzieller Form gespeicherten symbolischen Anweisungen oder Codes in Diagrammen, die wiederum in reale Maschinen implementiert werden, wo sie bestimmte rhythmische Muster generieren. (Ebd: 37) Die Aufschreibung der Zeit, die Miyazaki in Beziehung zur Uhr und schließlich zu den Medienwissenschaften insgesamt setzt, lässt sich leichter mit Hilfe der Notationen der Musik als mit denen der Sprache in bestimmte Automaten übersetzen, weil die Musik gegenüber denen der Sprache eine technomathematische Unterkomplexität besitzt. Die Komponente der Zeit und die musikalisch-klanglichen Aspekte sollten laut Miyazaki von vornherein essenziell für das Verständnis der Medien sein. Mit der Erfindung des Telefons fallen schließlich die Medientechnologien Musik und Sprache als elektrisches Signal zusammen. (Ebd.) Gleichzeitig koppeln sich Maschinen als Automaten im Rahmen ihrer Selbsttätigkeit zunehmend stärker von irgendwelchen externen Einwirkungen ab, wobei der kybernetische Automat hier nur eine sehr spezielle, differenzierte Anordnung darstellt. (vgl. Bahr 1983: 442) Selbsttätigkeit muss demnach als eine entscheidende Referenz des Automaten gelten. »Algorhythmen« zeigen an, dass die digitalen Maschinen und ihre Prozesse in Zeiteinheiten geteilt sind. Sie oszillieren im Dazwischen des Kontinuierlichen und des Diskreten, womit sie ein »disruptives Fließen« in den Medienmaschinen der Speicherung, Übertragung und Prozessierung inkludieren; ein Fließen, das Miyazaki in die Nähe von Derridas »différance« rückt, die hier von algorhythmischen Maschinen und Agencements prozessiert wird, um schließlich nicht nur neue Wahrnehmungsweisen, Wissensformen und Habiti zu erzeugen, sondern auch Potenzen und Möglichkeitsfelder, die sowohl Störungen als auch Innovationen im Bereich der Medientechniken eröffnen.

Als Rhythmen des Technisch-Unbewussten erzeugen die Algorhythmen einen trans-sonischen, einen für das menschliche Ohr zumeist unhörbaren Kokon, innerhalb dessen heute die mobilen Smartphones (Mobilität des Internets) als die wichtigsten Empfangsstationen fungieren. Diese trans-sonischen Prozesse lassen sich aber mittels diverser technischer Verfahren durchaus wieder in hörbare Rhythmen transformieren. Und Algorhythmen sind in Calm-Technologies integriert, das heißt in Verschaltungen, dynamische Agencements und Schwärme, sodass man längst von einer Ökologie der Maschinen sprechen muss, in der die digitalen Objekte zunehmend verflüssigt und zu logistischen Prozessen (Streaming) transformiert werden, wobei verschiedene Rhythmen und Potenziale zur Effektivierung und Optimierung von spezifischen Zwecken dienen. Und signalbasierte Agencements (RFID) markieren die jeweiligen Objekte nicht nur mit digitalen Indizes, sondern sie indizieren zudem deren Orte, sodass die Räume mit dem Symbolischen synthetisiert und technomathematisch kontrollierbar werden (Überwachung). Aufschreibe- und Verkabelungssysteme werden je spezifisch synthetisiert, um Speicherung und Übertragung und in der Folge Berechnung sowie Steuerung von Informationen zu optimieren. Dabei kann der Computer, mit dem die Codes geschrieben werden, auf real-physikalische Operationen in der Zeit nicht verzichten, und dies verweist eben auf die Zeitproblematik der Algorithmen, schließlich auf den Algorythmus dieser Maschinen des Wissens. Das industrielle Internet wird erst wirksam, wenn drei wesentliche Komponenten – algorithmische Geräte, algorithmische Systeme und algorythmische Entscheidungsprozesse – in Verbindung mit den physischen Maschinen, Infrastrukturen, Netzwerken und Flotten treten. Man könnte mit Miyazaki sagen, dass die Algorhythmen als physikalisch messbare, als polymorphe Strukturen ek-sistieren, denn im Gegensatz zum rein symbolischen Takt ist der Rhythmus als Operativität, Performativität oder Materialität je schon mit der Realität verkoppelt. So oszilliert das Algorhythmische zwischen dem Symbolischen und der Realität, indem es mit seinen zeitseriell rhythmisierten Kurzschlüssen die Lücke, die Kluft, den Riss zwischen dem Materiellen und dem Immateriellen moduliert. Man darf das Digitale also längst nicht mehr als etwas rein Objekthaftes und/oder rein Statisches verstehen, sondern man sollte insbesondere seine jeweiligen Teilungen, Multiplizierungen und Trajektoren nachverfolgen, wenn heute digitale Scripte spezifische Loops und Felder erzeugen, komplexe Formen des Streamings. Beim Streaming denkt man zunächst an die Bildschirm-Oberflächen, darüber hinaus an den Shift zwischen statischen Desktop-Computern hin zu den mobilen Laptops und Notebooks und den table based devices. (Man kann das Smartphone/Mobiltelefon als privat, das Tablet als semi-öffentlich und das Fernsehen als öffentlich einordnen.) Aber es läuft hinter den Bildschirmoberflächen in den diversen Black Boxes des Computers noch ein weiteres Streaming bzw. Processing ab, eine Bewegung und Trajektorie, Serien von Linien, denen Unternehmen wie Twitter in ganz spezifischer Weise folgen, indem sie diese Prozesse berechnen, auswerten und der monetären Verwertung zugänglich machen. Damit verliert die singuläre Mensch-Maschinen-Schnittstelle gegenüber dem Interface von nonhumanen Agenten und humanen Gefügen zunehmend an Bedeutung.

Algorithmen sind als Teil der inneren Wertform des Kapitals nicht an sich verwertbar, sondern nur, wenn sie als Teil des fixen Kapitals der monetären Kapitalisierung zugänglich sind, und dies heute im Kontext einer sich beschleunigenden Akkumulation des Kapitals im Bereich der Oligopole im Internet. Sie sind unter ökonomischen Gesichtspunkten also als eine Form des fixen Kapitals zu verstehen, das als ein integrativer und konstituierender Teil des Produktionsprozesses zur Herstellung des maschinellen Mehrwerts beiträgt. Insoweit sie fixes und zugleich messendes Kapital konstituieren, sind Algorithmen mit dafür verantwortlich, dass die humane Arbeitskapazität in bestimmten Produktionsbereichen, in denen es darum geht, entlang einer a-linearen, maschinellen Linie den Prozess selbst zu optimieren, eine infinitesimale, eine zunehmend verschwindende Größe darstellt. Der Algorithmus bildet hier ein derivatives, metrisches Maß, das die Produktivität, den Prozess und die Spekulation mit der endlosen Linie, die in Spiralen und Feedbackschleifen verläuft, bewertet, weit davon entfernt, sich noch auf die Stasis des Produkts einzulassen, stattdessen die Linien und Relationen zwischen Produktion, Zirkulation und konsumtion kontinuierlich bearbeitend. (Raunig 2015: 171f.) Zugleich codieren Algorithmen eine bestimmte Quantität des sozialen Wissens, das aus der Arbeit von Wissenschaftlern, insbesondere Mathematikern und Programmierern, sowie aus verschiedenen User-Aktivitäten extrahiert wird. Deleuze/Guattari schreiben im Anti-Ödipus, dass die durch das Kapital deterritorialisierten Codes in der Wissenschaft und Technik einen verflüssigten maschinellen Mehrwert generieren, der die Mehrwertproduktion qua lebendiger Arbeit supplementiert, sodass lebendiger Mehrwert und maschineller Mehrwert die Ganzheit eines Flusses ergeben. (Deleuze/Guattari 1974: 298)

An dieser Stelle unterscheidet Matteo Pasquinelli zwischen zwei Formen der Algorithmen, nämlich Algorithmen, die Information in Information übersetzen und Algorithmen, die Informationen akkumulieren und aus den jeweiligen Ansammlungen Metadaten extrahieren. (Vgl. Pasquinelli 2011) Die ökonomische Bedeutung der Metadaten liegt, ähnlich wie dies bei den Derivaten der Fall ist, in ihrer Funktion, als Geldkapital zu fungieren, und zugleich in ihrer Governancefunktion, mit der in der Finanzindustrie Risiken gestreut, getriggert und normalisiert werden. In Bezug auf die Normalisierung der Risiken können Metadaten in gewisser Weise eine bewertende Funktion ausüben, und gleichzeitig müssen sie in Geld realisiert werden, als dem Maß aller Waren. Die massive Akkumulation von Information und die Extraktion von Metadaten, die täglich in den weltweiten digitalen Netzwerken durchgeführt werden, zeigen neue komplexe Verwertungsfelder an, die heute als »Big Data« bekannt sind.

1 Man bescheinigt beispielsweise dem US-amerikanischen Teilchenphysiker Richard Feynman, dass ihm mit seinen Diagrammen zur Darstellung der Elektronen- und Photonenbewegung, deren Analyse eigentlich eines abstrakten mathemathischesn Instrumentariums bedarf, eine didaktische Leistung ersten Ranges hinsichtlich der Repräsentation gelungen sei. Allerdings lassen sich auch seine Diagramme in Differenzialgleichungen rückübersetzen und in simulative Modellierungen einspeisen, die stärker den Aspekt der Produktion herausstellen.

2 Für Deleuze/Guattari impliziert das revolutionäre Diagramm einen a-strukturellen Prozess der Differenzierung, der nicht mehr über Binarität oder Totalisierung vereinheitlicht wird, sondern über sehr bewegliche Verfahren der Modulation und Variation funktioniert, die sich gegen die festen Machtstrukturen und -diagramme richten.

3 Die Mathematik arbeitet in operativer Relation zu den Modellen der Physik. Mit der Generation komplexer Modelle erfindet die Mathematik selbst noch die Partikel, sie produziert damit eine artifizielle Natur, die in den Experimenten dann unter Umständen bestätigt wird.

4 Hier gilt es anzumerken, dass Apple mit seiner verzweigten Strategie, staatliche Innovationen aufzusaugen, um sie so zu nutzen, dass der Content (Film, Musik, Apps, Adressen) vor allem auf dem eigenen Produkt zugänglich ist (iPod,iPhone, iPad), für den Kunden die Opportunitätskosten beim Kauf eines Geräts, etwa der Konkurrenz von Nokia oder Samsung, erhöht.

5 Ein Prozessor ist eine Maschine, die konstruiert wird, um – in einer für die Maschine verständlichen Struktur formulierte – Algorithmen in der Zeit auszuführen.

Barad, Karen (2012): Agentieller Realismus.Über die Bedeutung materiell-diskursiver Praktiken. Berlin.

– (2015): Verschränkungen. Berlin.

Gangle, Rocco (2013): François Laruelle`s Philosophies of Difference: A Critical Introduction and Guide. Edinburgh.

– (2014): Pragmatics of Non-Philosophy. Explicating Laruelles Suspension of the Principle of sufficient Philosophy with Brandoms Meaning-Use Diagrams. In: ANGELAKI journal of the theoretical humanities volume 19 number 2 june 2014. New York. 45-57.

– (2015): Diagrammatic Immanence. Edinburgh.

Guattari, Félix (1976): Maschine und Struktur. In: Psychotherapie, Politik und die Aufgaben der institutionellen Analyse. Frankfurt/M.

– (1979): L’inconscient machinique. Essays de schizoanalyse. Paris

– (1995): Über Maschinen. In: Henning Schmidgen (Hg.): Ästhetik und Maschinismus. Texte zu und von Félix Guattari. Berlin, 115-132.

– (2014): Chaosmose. Wien.

Miyazaki, Shintaro (2013): Algorhythmisiert. Eine Medienarchäologie digitaler Signale und (un)erhörter Zeiteffekte.Berlin.

Foto: Bernhard Weber

print

, , ,

By


Schreibe einen Kommentar