Notiz zum Supercomputer und Kittler und so weiter und so fort

2Ob die digitale Simulation und das Instantane (nach Marshall McLuhan ist Elektrizität Instantaneität, d. h. weltweiter Signalaustausch in Lichtgeschwindigkeit) einer Modulation bedarf, die dann einem fiktiven (Gleichgewichts)zustand entspricht, ist recht fraglich. Dieser in den Wirtschaftswissenschaften so verehrte »Augenblick« wäre wohl so etwas wie der aktuelle Querschnitt (der ja selbst noch in Bewegung ist) durch die potenziell unendlichen Geld-Transaktionen, wobei die Bedingungen für das Gleichgewicht allerdings nur dann vollständig erfüllt wären, wenn das System im Sinne von Null-Zeit schließlich ohne ablaufende Zeit existieren könnte, sodass tatsächlich alle Entscheidungen simultan getroffen werden würden. Eine Lösung des Problems der Simultaneität gleich Gleichgewicht besteht nun gerade darin, dass man das Maß in das Werden selbst verlegt, bzw., dass das Maß vom Werden selbst angezeigt wird. Darin besäße das Maß aber keine (zeitlose) Identität mehr, vielmehr wäre das Werden ein sich ständig wandelndes Maß. Uns schlussendlich bedarf es der Entwicklung eines Supercomputers, der das Zeitgefälle in der Tendenz zur Null zusammenschrumpfen lässt, indem er in reiner Simultaneität die Wege und Pfade aller stattfindenden Transaktionen und der sie konstituierenden Fundamentalfaktoren abbildet, die alle notwendigen und relevanten Informationen bereitstellen, damit innerhalb einer angenommenen Superrationalität der Märkte Durchschnitte und homöostatische Gleichgewichte jenseits der realen Kapitalmetamorphosen gebildet werden könnten. Zumindest sind in den Massenmedien längst schon Bild und Abgebildetes zur Eins zusammengeschnurrt, empfangen wir auf der Nadelspitze der Jetztzeit stehend eine reine Gegenwart bzw. formale Simultaneität. Es gilt aber auch zu bedenken: »Aber je mehr anwesend gemacht wird, desto weniger anwesend wird es gemacht.« (Günther Anders) Hinsichtlich der Unmöglichkeit eines Gleichgewichts spricht Baecker davon, dass kommende Gesellschaften nicht mehr auf dem Gleichgewicht sowie dem Austarieren von Störungen basieren würden, sondern man im Gegenteil davon ausgehen sollte, dass Abweichungen sich künftig verstärken werden, womit Systeme nur als unruhige und zugleich anschlussfähige vorstellbar sind. Wie man das Wetter von morgen nicht zu 100 % vorauszusagen vermag, da man dafür eine unendliche Menge von Informationen benötigt, so erscheint es unmöglich, dass jener Supercomputer (der ja zu jeder Variante quasi simultan die Gegenvariante, die noch so kurzfristig das Gleichgewicht stören könnte, in seine Berechnungen einzubeziehen hätte, um Konstanz und Gleichgewicht herzustellen) alle Parameter der Welt und ihrer Kontexte zu berücksichtigen vermag, vielmehr kann er sich auf Grundlage der Theorie der unscharfen Teilmengen dem Gleichgewicht allenfalls infinitesimal annähern – und selbst mit dieser »Stellung« bleibt er ein Parasit, der die Informationscluster der Geldströme versammelt und distributiert, während er gleichzeitig von den digitalen Netzwerken lebt. Schließlich käme, um es mit Friedrich Kittler zu sagen, »Hegels Geist, der ja ebenfalls als Sieger aus der Unmöglichkeit hervorging, das Buchpapier, auf dem er selber stattfand, zu bezeichnen«, wieder zum Zug, womit tatsächlich »Software die einzige Weise wäre, Hardware zu wissen.« (Kittler) Und in Bezug auf die Zeit könnte die Simulation eines Gleichgewichtszustandes durch einen Supercomputer nur dann statthaben, solange dieser die Zeit einer kontingenten Zukunft, um deren Kalkulation es schließlich bei den Finanztransaktionen auch geht, nicht selber verbraucht, d. h., die Differenz zwischen zukünftiger Gegenwart und gegenwärtiger Zukunft müsste in Toto getilgt sein. Für Esposito ist aber erst mit dieser Differenz eine Zukunft, die nie gegeben ist, als »Inaktualitätshorizont« einer nicht dauernden Gegenwart präsent, während in der Gegenwart das Mögliche mit dem Notwendigen stets identisch ist: Zwar ist, was ist, da aber die Zeit sich mit der Zeit ändert, verschiebt sich auch die Gegenwart und damit der Horizont der Zukunft permanent. UndKittler schreibt: »So prinzipiell möglich es wäre, das Wetter von morgen auf Turings Prinzipcomputer von 1936 zu berechnen, so ausgeschlossen wäre es auch, das Ergebnis dieser Vorhersage vor Eintritt des morgigen Wetters selber abzuholen.« In den Worte Espositos mag dies bedeuten, dass die künftigen Gegenwarten, die eintreten werden, nicht den gegenwärtigen Zukünften, die man erwartet, kongruent sind. Im Gegensatz Esposito würde Kittler allerdings diese (unmögliche) Bezogenheit von Datenströmen auf die beiden Zukünfte, wobei deren Simultaneität eben der vollkommenen Austauschbarkeit von Software und Hardware entspräche, auf die Anwesenheit der Hardware selbst zurückführen wollen. Schon Fragen des Speicherplatzes oder der Rechenzeit führen jedwede Form der Nichtbeachtung der Hardware ad absurdum, insofern zeitliche Operationen sich eben nicht auf »syntaktische Verknüpfungen unstrukturierter atomarer Elemente reduzieren (lassen), weil ihre Durchführbarkeit gerade von der Struktur dieser Elemente abhängt.« Und Kittler begründet die Unhintergehbarkeit der Hardware mit Bezug auf die reale Schaltung folgendermaßen: »In der Logik, die seit George Boole zur Schaltalgebra und seit Claude Shannon zur digitalen Schalttechnik mutiert ist, gibt es bekanntlich die Negation. Dem entsprechend geben Schaltgatter, sog. Inverter, am Ausgang den Wert falsch zurück, wenn der Eingangswert wahr hieß, und umgekehrt. In keiner Logik, mithin aber auch in keiner Software, taucht dagegen eine klassische Inverterschaltung auf, die seit Turings Tagen alle Digitalcomputer unbezweifelbar dominiert. Diese Art der Schaltung nämlich spart den Eingang zwar nicht ein, schließt ihn jedoch mit dem Ausgang kurz. ›Sein – unmittelbar Nichts‹, hätte Hegel womöglich kommentiert, aber auch damit den Schaltungstrick nicht getroffen. Denn was in Softwarebegriffen blanke Absurdität wäre, funktioniert als Hardwaretechnologie sehr wohl. Aus dem schlichten physikalischen Grund, dass es seit Einstein eine absolute Geschwindigkeit gibt, sind Eingang und Ausgang nie vollkommen synchron, anders gesagt, sie heben einander weder in blankem Kurzschluss noch in spekulativer Logik auf. Anstelle beider Unmöglichkeiten tritt vielmehr ein Grundbaustein aller lauffähigen Digitalcomputer: die getaktete Zeit. Weil jeder beliebige Eingangszustand der Schaltung nach seiner unvermeidlichen Verzögerung das eigene Gegenteil bewirkt, wechseln die Wahrheitswerte falsch und wahr am Ausgang eines rückgekoppelten Inverters so schnell und so regelmäßig, dass sie allen anderen Hardwarekomponenten eine systeminterne Zeit vorgeben können.« (Kittler) Die Computertechnik bestätigt also Turings Satz, demzufolge wir (im Einklang mit den royalistischen Mathematikwissenschaften und im Gegensatz zu den problematischen) »die Zeit als diskret behandeln.« Kittler Mit dieser Erkenntnis sollte man die Neumann’sche Sequenzialität von Computern von der mathematischen Nachfolgerelation seit Peano absetzen.

  Programmierbare Hardware gründet auf einer technischen Struktur, sozusagen einer konkreten Allgemeinheit, die sowohl von physikalischen Konstanten als auch von der topologischen Geometrie abhängig bleibt. Im Fall rückgekoppelter Inverter hieße diese Topologie wohl »Möbiusband«, im Umkehrfall dynamischer Speicherchips dagegen Torus. (Kittler) Solche Strukturen unterscheiden die programmierbare Hardware nicht nur von jeder Software, deren Topologie immer auf die Eindimensionalität von Eingaben und Ausgaben heruntergerechnet werden kann, sondern auch vom platonischen Ideal durchgängiger Programmiertheit oder etwa vom »Great Zero« bei Lyotard. Für Lyotard ist es der sog. Barr, der auf dem Möbiusband die von der libidinösen Ökonomie so gefürchteten Desintensivierungsprozesse qua Verlangsamung herstellt und die Innenseite von der Außenseite her definiert (eine der wichtigsten Figurationen des Außen stellt der Great Zero dar), wodurch ein genereller Term wie der Great Zero statthaben kann, der für die platonische Welt der Formen, Gott, den authentischen Modus der Produktion, Phallus etc. steht. Um dieses Ideal zu erzwingen, müssten die Hardwarearchitekturen alles, was auch ihnen als atomar vorausgesetzt ist, ihrerseits modulieren,d. h., durch-strukturieren – ein unendlicher Regress der Fraktalbildung, der immer mit den Grenzen technologischer Machbarkeit zu kämpfen hat. In diesem Zusammenhang vertritt der Semiotiker und Mathematiker Brian Rotman die These, dass ein platonisches Konzept der Mathematik und des mathematischen Operierens immer daran glauben muss, dass im Prinzip geht, was in der Wirklichkeit nicht geht. Die Idee einer prinzipiellen Mechanisierbarkeit der Materie basiert also auf einer platonischen Auffassung des Denkens. Der Gedanke einer unendlichen Iterierbarkeit, der die royalistische Mathematik durchdringt und der ihren Platonismus ausmacht, wäre in diesem Falle als antimaterialistisch zu verstehen. Es ist also ein extremer mathematischer Platonismus, welcher der Vorstellung der Mechanisierbarkeit der Materie zugrunde liegt. Indessen scheint sich die Dichotomie zwischen mathematischen Funktionen und technischen Konstruktionen tatsächlich immer mehr aufzuheben. Dabei gilt es zu beachten, dass der Code der Schrift von Anfang an eben nicht nur alphabetisch, sondern alphanumerisch konzipiert war, und der Prozess des Schreibens lief nicht allein linear, sondern auch formal-kalkulatorisch ab. Was sich am Computer als Differenztechnik manifestiert, welche die Null und Eins um den leeren, nicht anschreibbaren, sondern nur umschreibbaren Platz ihrer Verschiebung iterieren lässt, ist eben jenes Faktum, dass es gleichberechtigt neben dem Menschen und einer Vielzahl nonhumaner Objekte noch etwas Drittes gibt, das ganz der Kategorie der Realität angehört, eine unbelebte Maschine aus Kupfer und Silikon. (Während Technologie für Bruno Latour die »Verschmelzung von Wissen, Organisation und Industrie« bedeutet, führt hingegen Michel Serres einen Unterschied zwischen Technik und Technologie ein, der zugleich die Differenz zwischen Kulturtechniken und Medientechnologien beachtet. Michel Serres setzt den harten, auf entropischer Ebene arbeitenden Techniken der industriellen Revolution (Mechanik/Thermodynamik) die »sanfte« Technologie der Datenträger auf negentropischer Ebene entgegen.)

 An dieser Stelle kommt nun die Kybernetik erneut ins Spiel, mit der es möglich wird, Kontrollfunktionen in nichtlinearen Systemen zu etablieren, indem die kybernetischen Maschinen nicht nur Fakten und Sachverhalte speichern, sondern auch Möglichkeiten, womit in jedem singulären Moment neue Zukunftsprojektionen offen zu sein scheinen – und zwar durch den Vergleich von vergangenen Daten mit den sich daraus ergebenden Kalkulationen und neuen Möglichkeiten für die Zukunft. Es ist die problemlösende Maschine, welche in jedem Moment ihre Inputs und Outputs rastert, um eine Serie von Möglichkeiten zu produzieren, die permanent aktualisiert werden und stets auch offenbleiben können. Und hierin bleiben die heutigen Kapitalisierungen und die sie einschließenden Transaktionen eine quasi-transzendentale Voraussetzung (in der letzten Instanz), aber sie bleiben stets auch abhängig von der Aktualisierung von computerisierten Steuerungs- und Rechnungstechniken, die in kybernetischen Feedbackschleifen prozessieren und deren Algorithmen eine immanente Performativität erzeugen, die sich einer Syntax und Grammatik (Softwarecodes) verdankt, Protosprachen, die Praktiken der Schrift, der Statistik und der Mathematik sind. Der maschinelle Code sagt aus, »dass aus etwas etwas anderes wird, nicht nur wie bei Metaphern anders heißt.« (Kittler 2013b) Und Steuerung impliziert stets Kontrolle und umgekehrt, um damit jene Optimierung von Möglichkeiten zu erreichen, die wiederum weitere Möglichkeiten eröffnet. Möglichkeit heißt in diesem Zusammenhang, wie Tiqqun festgestellt haben, immer auch Ordnung: »Worauf die kybernetische Hypothese antwortete, war das metaphysische Problem der Begründung der Ordnung ausgehend von der Unordnung. […] Als Wissen vereinte sie eine Reihe von heterogenen Diskursen, welche gemeinsam das praktische Problem der Beherrschung von Unsicherheitsfaktoren erforschten. Ihnen allen lag, so unterschiedlich ihre Anwendungsbereiche auch waren, ein und derselbe Wunsch zugrunde: daß eine Ordnung wiederhergestellt werden und, mehr noch, auch halten möge.« (Tiqqun) Und mittels der algebraischen Logik kann die Steuerung und Kontrolle als eine Kette von Schaltungen beschrieben werden, welche der Herstellung von Fließgleichgewichten dienen, »wobei der Ausdruck ›Fließen‹ nur verdeckt, daß es sich in jedem Moment nur um mehr oder weniger große Abstände binärer Zustände handelt, bis zum Grenzwert ihres Zusammenfallens.« (Bahr)Ist der Bruch der Mechane mit dem Anthropomorphismus, der die Technik ganz im Sinne der Prothesenhaftigkeit bzw. der Erweiterung oder Verlängerung der menschlichen Organe oder der Projektion des menschlichen Denkens als Resultat einer Mangelontologie auffasst, noch unmittelbar einsichtig, so wären mechane und vor allem die Kybernetik (letztere Technik bezeichnet Helmut Schelsky als »nichtwerkzeughafte Realtechnik«, womit sie sich endgültig vom Denken der Mangelontologie entfernt) in eine dynamische, nicht- aristotelische Theorie der technischen Entwicklung einzuordnen, die sich in immanenten Verwandschaftsreihen und Filiationen fortpflanzt, wie dies z. B. Simondon beschreibt, wenn er auf die wesentliche Unbestimmtheit der Technologie und die Offenheit der technischen Ensembles als Signatur von Technologie abstellt. Nur die Funktionsweise technischer Ensembles, wie sie mit den Informations- und Kommunikationsindustrien gegeben sind, kann die Bedingungen für eine Transindividualität schaffen, die enviromental in die Netzwerke automatisch operierender technischer Objekte eingewebt ist.

Mit dejn Quantencomputern eröffnen sich wiederum neue Dimensionen. Die Elementarobjekte der Quantencomputer sind nicht binäre Schalter, Bits, 1 oder 0, sondern quantenmechanische Objekte (Spin-Systeme) mit binären Basiszuständen, die sich überlagern. Die Quantenschalter, die man Qubits nennt, können gleichzeitig 1 und 0 sein. Werden sie durch Quantengatter geschickt, berechnet die Schrödinger-Gleichung als Resultat das physikalische Ergebnis einer neuen Mischung von 1 und 0.

Das Experiment realisiert nun aber eine Berechnung mit allen möglichen Kombinationen der Anfangszustände der Qubits, die parallel ausgeführt wird. Bei einem Register von Qubits der Länge 4 errechnet der Quantencomputer gleichzeitig die Resultate der Inputs|0,0,0,0,> über |0,0,0,1> bis |1,1,1,1>, das sind 128 verschiedene Inputs. Je länger das Register ist, desto besser ist die Effizienz gegenüber einem Digitalcomputer.

Quantenphysikalische Experimente realisieren also die Schaltelemente von Quantencomputern, die Quantengatter. Quantencomputer sind Analogcomputer. Sie können nur solche Berechnungen verkörpern, für die sich ein physikalisches Experiment erfinden lässt. Eingesetzt werden können sie vor allem für Such- und Sortier-Operationen und Optimierungsprobleme. Es stellen sich hier zwei Fragen: 1) Bei welche komputationalen Problemen und auf Grundlage welcher Algorithmen ein Quantencomputer überhaupt einen signifikanten Geschwindigkeits-Vorteil gegenüber digitalen Computern bietet. 2) Bezüglich des physikalisch-materiellen Aspekts taucht das Problem auf, mittels welcher Maschinen sich die für Qubits nötigen Quanteneffekte technisch überhaupt realisieren lassen.
,

Nach oben scrollen