GenericScience, Lexicon

Luciana Parisi und das Problem der Berechenbarkeit der Unberechenbarkeit

By

2 Mai , 2017  

In ihrem Buch Contagious Architecture fordert Luciana Parisi dazu auf, sich von zwei – bis heute maßgeblichen – metacomputationalen Definitionen zu distanzieren, nach denen a) Algorithmen als endliche Quantitäten, oder b) als evolutionäre interaktive Modelle bestimmt werden, wobei letztere auf Sensoren, Prozessoren und Feedback-Prozessen basieren. Parisi glaubt, dass mit der Affirmation dieser beiden Konzepte das Verständnis von Algorithmen weiterhin unbefriedigend bleibe, insofern jene das Problem der Kalkulation von infiniten Serien von Wahrscheinlichkeiten nicht berücksichtigten; ein Problem, das die Wahrscheinlichkeit oder die Berechnung von Unberechenbarkeiten berührt. (Vgl. Parisi: 2013)

Im Unterschied zur Kybernetik zweiter Ordnung, die den Algorithmus in den Kontext des reflexiv-systemischen, Verschaltungen herstellenden Vermögens und der Reproduktion des Systems im Verhältnis zu seiner Umwelt stellt, um damit die Entstehung von autopoietischen Mediensystemen zu denken, definiert Parisi Algorithmen als »wirkliche Objekte«, als erfassende Wirklichkeiten, die aber keineswegs das Reale spiegeln oder sich durch die Interaktion mit ihm konstituieren. Vielmehr seien Algorithmen je schon vom Realen infiziert/determiniert, ja immanent an das Reale angeheftet bzw. mit ihm in ganz spezifischer Weise vernäht. Parisi stellt an dieser Stelle Whiteheads Begriff der Erfassung ins Zentrum ihrer Überlegungen, ein Begriff, der sowohl den Modus der physischen Empfindung als auch den des konzeptuellen Denkens berücksichtigt. Es lässt sich hier vielleicht sogar von einem immanenten Klonen des nie erreichbaren Realen (Laruelle) sprechen, einem Vorgang, der durch die Unmöglichkeit gekennzeichnet ist, die Erfassung des Wirklichen auf die Spiegelung des Realen zu reduzieren. Mit dem Begriff »Erfassung« setzt sich Parisi deutlich von bestimmten Wahrnehmungs- und Kognitionstheorien ab, die stets eine Reihe von ontologischen Aussagen über das Reale einfordern. Keineswegs ist etwas real, wenn es von Menschen sensomotorisch oder in Form von Qualitäten (Farben, Klängen etc.) wahrgenommen werden kann. Hingegen vermutet Whitehead, dass alles, was Menschen wahrnehmen – oder auch nicht – eine eigene Historie und Transformationskapazität besitze, die sich als die Erfassung von Daten anzeige, die aus der Vergangenheit, der Gegenwart und der Zukunft stammten. (Whitehead 1979.348f.) Das Reale selbst ist nicht von der Wahrnehmung, aber auch nicht von einer Theorie abhängig, die etwa durch die aufklärerische Vernunft spezifiziert ist, der zufolge Dinge als wahr nur prädiziert werden können, wenn sie den Grundsätzen der Logik, Mathematik oder der faktischen Evidenz entsprechen. Erfassung geschieht für Whitehead eindeutig vor der Perzeption und Kognition und ist daher als subpersonal einzuschätzen. (Ebd.) Und der Begriff der Erfassung hat nichts mit Begriff der Projektion oder Reflexion zu tun und als eine spezifische Bearbeitung von Ereignissen, bei der im Prozess Relationen entstehen, verlangt er sui generis nach dem Bruch, nach der Innovation und der Spekulation, letztere als eine Tendenz verstanden, die das Erfasste von dem, was es ist in das transformiert, was es sein könnte.

Der Begriff der Erfassung umfasst auch Medien, die Parisi konsequenterweise als Erfassungsmaschinen definiert, insofern sie nicht nur physische Aufzeichnungs- und Klonierungsmaschinen von Daten darstellen, sondern darüber hinaus auch Affekte, Energien und Informationen einfangen, verarbeiten und selbst produzieren – und damit in der Tendenz fest programmierte Medienstrukturen zu überschreiten vermögen, hin zu etwas, wofür bestimmte Programme unter Umständen gar nicht vorgesehen waren. Man denke hier etwa an Samplingmaschinen, die unaufhörlich Medienmaterial transformieren und dekontextualisieren. Zudem versucht Parisi Medien als aktuelle Welten zu denken, sofern sie keine Attribute von etwas, sondern vielmehr reale Apparate seien.1

Parisi folgt Whitehead auch in dessen Vermutung, dass man sich nicht komplett an den (philosophischen) Formalismus des zureichenden Grundes binden kann, weil jeder Versuch, ob im Zuge des naiven Realismus oder des übersteigerten Sozialkonstruktivismus, eine Übereinstimmung zwischen mentalen Kognitionen und aktuellen Entitäten zu erreichen, die spekulative Kraft der Vernunft unterschätze. Whiteheads spekulative Vernunft ist nicht am zureichenden Grund von Leibniz interessiert, sondern an der finalen Begründung. Finalität beinhaltet aber für Whitehead eher das Kreieren von zukünftigen, bisher unbewiesenen Ideen als das simple Vertrauen auf bestehende Daten und Fakten. Spekulative Vernunft inhäriert ein regelbasiertes System, das gerade Neuheit als ein entscheidendes Kriterium in seine Urteile miteinbezieht, und dies aufgrund des Sachverhalts, dass wir keinen Zugang zu allen Fakten besitzen, aber doch an ein (offenes) Ganzes gebunden sind, das sich immer im Exzess befindet. Allerdings sollte man Whiteheads Konzept des finalen Grundes keineswegs als teleologisch verstehen, sondern als die Affirmation eines offenen und nicht vollständigen Universums, das selbst noch durch die höchsten Anstrengungen der spekulativen Vernunft nicht dargestellt werden kann. Whiteheads Konzept bewegt sich damit weg von formalen und praktischen Gründen, auch weg vom Konzept empirischer Wahrheit und adressiert Gründe an das Problem der Finalität – nicht der kritischen, sondern der instrumentellen Begründung. Wirkliche Einzelwesen, die sich aus Ereignissen zusammensetzen, schaffen im Entwicklungsprozess sich ständig neu und verfolgen damit ein zweckmäßiges Ziel. Für Whitehead impliziert die spekulative Vernunft an dieser Stelle eine asymmetrische Verbindung des effizienten mit dem finalen Grund und muss damit sozusagen als Maschine der Emphase, die stets das Neue zelebriert, verstanden werden.

Diagramme haben sich längst von ihren frühen deduktiven Phasen des Berechnens zu induktiven Modi der Berechnung fortentwickelt. In ihrem Essay Contagious Architecture konstatiert Parisi einen Shift von den frühen Modellen des computationalen Designs, die in ihrer Vorgehensweise auf deduktiven Formen der digitalen Architekturen basierten, hin zu stärker induktiven und zugleich materiellen Formen, mit denen die physikalischen Eigenschaften der Materie selbst die Motoren der Simulation zu sein scheinen, und zwar als lokale Verhaltensweisen des Materiellen, aus denen wiederum komplexe Strukturen emergieren. (Vgl. Parisi 2014) Anstatt auf einem Apriori und einer passiven Akzeptanz von etablierten Wahrheiten zu beharren, erlaubt die Induktion scheinbar die Affirmation der Adaption und das Prozessieren eines von Daten getriebenen Materials, womit sich möglicherweise Influxionen für ein neues Design ergeben können. Diese Form des »Computational Designs« gibt sich ganz bewusst anti-repräsentational, insofern es hier stärker auf die Aktion, die Operation und das Processing ankommt, innerhalb derer die Computation vor allem ein pragmatischer Effekt ist. Anstatt der bloßen Gestaltung der Materie folgt man nun der biophysikalischen Bewegung der Materie, bindet sie in praktische funktionale Termini ein, in einen beständigen Feedback-Loop, um die jeweiligen Simulationen zu stabilisieren. So impliziert die Infiltration von Dynamik und Wirkungsmacht der Materie, ihrer biophysikalischen Zeitlichkeiten in das computationale Design eine ungeheure Multiplizierung der algorithmischen Evolution und der anfallenden Datenmassen, die auf eine beschleunigte, rechnerbasierte Verarbeitung drängen. (Ebd.: 150) Dabei wird die symbolische Logik der deduktiven Verfahren nicht einfach ersetzt, sondern es werden durchaus bestimmte Abstraktions- und Quantifizierungsfunktionen der deduktiven Berechnung beibehalten. (Ebd.) Für Parisi führt dieser abstrakte Materialismus die Algorithmisierung jedoch in immer noch ideeller Weise auf physikalische Ursachen zurück und vernachlässigt damit gerade die Materialität der Berechnung selbst.

Ein anderes Computational Design Thinking hätte laut Parisi hingegen von einem neuen Axiom auszugehen, das besagt, dass von der Wahrnehmung nicht erfassbare abstrakte Daten bzw. »die von algorithmischen Wirkungsmächten (agents) gesteuerte Datenabstraktion die automatisierte Interaktion in vernetzten, verteilten und parallelen Systemem bestimmen.« (Ebd.: 152) Als Moment einer beschleunigten Automation kann die Induktion nicht einfach das Ziel setzen, Vernunft und Grund zu mechanisieren oder zu instrumentalisieren, um damit die formalen Bedingungen zu liefern, von denen aus neue Wahrheiten etabliert werden können, sondern sie muss es eher erlauben, die Unvereinbarkeit der physikalischen Gegebenheiten der Materie mit den formalen und konstitutiven Gründen, Regeln und Patterns auszuweisen, die aus der digitalen Automation von Raum und Zeit emergieren.

Parisi interessiert sich damit weniger für einen neuen Materialismus als für die computerisierte Produktion der physikalisch induzierten Modelle. Es geht ihr nicht um die Simulation des materiellen Verhaltens selbst, das sie noch als eine meta-biologische Form der Berechnung ansieht, mit der die vielfältigen Eigenschaften der Materie für die Datenanalyse gescannt werden, sondern sie favorisiert eindeutig algorithmische Prozesse, welche die Unberechenbarkeit selbst problematisieren, und plädiert für die Analyse von offenen Feedback-Loops, die in das System des computationalen Designs als ein fortwährender Prozess eingehen. Aber letztendlich geht es ihr auch weniger um das Design, sondern um einen Typus der computationalen Argumentation selbst, den sie gebraucht, um die algorithmisch-automatisierten Prozesse und ihre axiomatische Denkweisen und Regeln besser zu verstehen. Schließlich fragt Parisi, was eigentlich die algorithmische Vernunft beinhalte und wie sie funktioniere. Parisi hat also definitiv Probleme mit der induktiven Form eines materialistischen Idealismus, der direkten nahtlosen parmedianisischen Fusion von Denken und Materie. Schließlich zeigt die Diskrepanz zwischen dem, was Algorithmen tun, und unserer Perzeption dieser Prozesse, dass diese Prozesse nicht für uns, nicht für das Subjekt geschaffen sind.

Desweiteren geht es Parisi um das Problem der Unvollkommenheit im Kontext des Gödel Paradoxons. Die Mathematik sei eben nicht komplett, sodass es kein endliches geschlossenes Set von Axiomen oder Regeln geben könne, das den perfekten berechenbaren Algorithmus anbieten könnte, der alle Aspekte der physikalischen Prozesse oder der Daten umfasst. Es gebe immer ein Außen. In diesem Zusammenhang verweist Parisi auf den Mathematiker und Computerspezialisten Gregory Chaitin und dessen Bearbeitung des Problems der Berechung des Unberechenbaren, das dieser auf das Problem der Haltewahrscheinlichkeit der Turing-Maschine bezieht, welches trotz unendlich langer Reihen doch berechenbar zu sein scheint. (Ebd: 158) Die zu berechnende Wahrscheinlichkeit bezeichnet Chaitin als Omega, das meint den Grenzwert einer Folge von Zahlen, die wiederum konvergent, steigend und eben berechenbar sein soll. Dennoch bleibt die Grenze der Berechnung dem Zufall unterworfen; es lassen sich zwar Wahrscheinlichkeiten des Zeitpunkts berechnen, an dem der Computer, nachdem er mit einer Folge zufälliger Bits gespeist wurde, anhält, um eine Lösung zu präsentieren, aber prinzipiell bleibt Omega unberechenbar, weil unendlich viele Stellen in Omega die Tatsache repräsentieren, dass eine Stelle jeweils Eins oder Null sein kann. Kein logischer Prozess kann damit den Zufall a priori synthetisieren, womit dieser sich weder in die deduktive Logik noch in induktive Prozesse integrieren lässt, wobei sich letztere auf physikalische Ursachen beziehen, die selbst wiederum nicht berechnenbar sind. (Ebd.: 160)

Die Realität ist immer komplexer als jeder mathematische Algorithmus, den man vielleicht erfindet, um die Realität einzufangen oder in repräsentationalen Begriffen zu beschreiben. Parisi folgt Whitehead darin, dass wir eine neue spekulative Form der Berechnung benötigen, um mit Endlichkeit und Grenzen umzugehen, eine, die zugleich die Frage nach der Unberechenbarkeit der Teile stellt, die den reproduktiven Mechanismus des Ganzen stören. Überträgt man dieses Problem auf die medialen Maschinen, dann ist hier unter anderem zu fragen, was es heißt, wenn unberechenbare oder nicht-rechenbare reelle Zahlen in die medialen Systeme eindringen. Komplexe mathematische Algorithmen, die alle möglichen Variablen involvieren, zeigen das Problem an: Man nehme beispielsweise den »Monte Carlo« Algorithmus, der anfangs zur Lösung von Problemen in der Nuklearphysik angewendet und später an den Aktienmärkten eingesetzt wurde und den Wissenschaftler heute zum Studium non-linearer technologischer Diffusions-Prozesse benutzen. Die Monte-Carlo-Methode ist ein viel gebrauchter Algorithmus, um die grundlegenden, erregten Zustände von »many-particle systems« zu berechnen; bei Zuständen ohne Knoten ist der Algorithmus numerisch exakt, während in Anwesenheit von Knoten Approximationen eingeführt werden müssen, etwa die »fixed-node-Approximation«.

Unter Umständen wird die Bearbeitung der Komplexität von Daten und Strukturen an einen Punkt führen, an welchem automatische Algorithmen schließlich in der Lage sein werden, ihre finalen Gründe im »computational processing« von infiniten Datenmengen selbst zu prozessieren. Eine post-intentionale Zukunft entsteht genau dann, wenn die Maschinen sich »bewusst« jenseits der menschlichen Intentionen oder affektiven Relationen selbst organisieren, um eine wirkliche Welt auszudrücken, die scheinbar endlos ist. Damit würden Algorithmen (wirkliche Objekte, die Aussagen sind) nicht einfach nur einer maschinellen Logik angehören, wie sie allen bisherigen Mediensystemen entspricht, sondern sie würden über die Medien als solche hinausweisen. Die Kybernetisierung der Medien hat teilweise heute schon zu Erfassungsmaschinen des Unartikulierbaren und Unrepräsentierbaren geführt, die mit Momenten der Subjektivierung, der Aufzeichnung, der Speicherung und Verwertung von infiniter Information spielen. Fortlaufend produzieren die gegenwärtigen medialen Maschinen Serien von flottierenden Empfindungen, Affekten und Meinungen, die bei Facebook als Vorlieben und Abneigungen, als »likes« angezeigt, gespeichert und zudem gehandelt werden. So schaffen die medialen Maschinen ständig ihre eigenen immanenten Klone der Realität, indem sie die in den Affekten flottierenden Differenzen homogenisieren oder eine Homogenisierung nur simulieren, um dadurch das Spiel der (kontrollierten) Differenzen noch zu verstärken. Das regulierende und zugleich inhumane Moment ist hier ein Filterbubble-Algorithmus, der immer mit anwesend ist, er moderiert sozusagen die Kommunikationsflüsse, ohne das es überhaupt noch bemerkt wird; der Algorithmus reguliert und garniert die behavioristische Kommunikationserziehung auf Facebook mit »likes«.

Eine postkybernetische Logik der Computation hat nun zu zeigen, dass Zufälle, Unfälle und Störungen durchaus notwendige Bestandteile des interaktiven Processings (mit unter Umständen kollidierenden Daten) sind, was potenziell zu Abstürzen im System führen kann. Parisi spricht in diesem Kontext von der Programmierung der Krise, die Brian Massumi, auf den sie hier verweist, als eine präemptive Macht oder eine affektive Antizipation der Katastrophe definiert. Parisi will aber nicht auf eine bloße Anti-Logik des Zufall/Unfalls hinaus, denn der Faktor Zufall/Unfall ist eben längst zu einem funktionalen Element des Überlebens der dynamischen, biopolitischen Kontrollsysteme selbst geworden. Als erfassende Wirklichkeiten bieten Algorithmen, so glaubt zumindest Parisi, noch einen anderen Begriff maschineller, numerischer Ästhetik außerhalb der Ontologien des Zufalls/Unfalls an. Diese Ästhetik müsse dann im Sinne einer spezifischen automatischen Denkweise definiert werden, die Parisi wiederum mit Bezug auf Whiteheads Konzept der spekulativen Vernunft diskutiert. Algorithmische Entitäten werden hier als abstrakt und aktuell, jedoch nicht als virtuell verstanden. Als Aktualitäten besitzen sie nicht nur Relationen zu anderen aktuellen Entitäten, sondern sie prozessieren auch auf verschiedene Art und Weise, womit die Kontingenz nicht außerhalb, sondern als intrinsisch im algorithmischen Processing zu denken ist.  Hier nähert sich Parisi Greg Lynns Konzeption der Objektile und der »blobs« an. (Lynn 1998) Lynn argumentiert, dass man generell nicht von geschlossenen Entitäten ausgehen sollte, die exakte Koordinaten im Raum besitzen, vielmehr von Oberflächen, die als Vektoren und Transformationen definiert werden. Objektile sind spatiotemporale Ereignisse. Man sieht, dass sich Parisis Projekt der Neukonzeption digitaler Algorithmen mithilfe des Begriffs der Erfassung auf ein irreflexives, automatisches und zugleich offenes Denken hin bewegen will. Dennoch muss nicht alles auf völlig offene Serien von Prozessen oder absolute Kontingenzen hinauslaufen. Mit dieser Argumentationslinie bezieht sich Parisi immer wieder auf Objekte, von denen sie sagt, dass es immer mehr als eines und weniger als viele gebe, immer mehr als eine geschlossene Einheit und weniger als infinite Serien oder komplett offene Prozesse. Es wird allerdings nicht ganz klar, warum sie in diesem Kontext immer nur von Objekten und nicht von Ereignissen spricht, wie es in Whiteheads Philosophie meist der Fall ist.

1 Es muss hier von der Formierung einer allgemeinen Matrix von Erfassungsmaschinen ausgegangen werden, die in einem differenziellen Verhältnis zum monetären Kapital stehen. Das Verhältnis von technischen und sozio-ökonomischen Maschinen ist ein differenzielles und wird zugleich von diesen in der letzten Instanz determiniert.

Parisi, Luciana (2013): Contagious Architecture. Computation, Aesthetics, and Space.Cambridge MA.

-(2015): Automatisierte Architektur. In: #Akzeleration2#. Hrsg.: Avanessian, Armen/Mackay,Robin. Berlin.

Fotot: Bernhard Weber

print

, ,

By


Schreibe einen Kommentar