Biopolitics, Mashines

Die Logik und die Politik der Prävention

By

22 Feb , 2019  

Ganz allgemein ist der Prävention ein spezifisches Zeitschema immanent. Wenn die gegenwärtige Zukunft, die sich auf das bezieht, was man von der Zukunft erwartet, und die künftige Gegenwart, die jene Zukunft bezeichnet, die tatsächlich eintreten wird, nicht deckungsgleich sind, dann wird, wenn man es zunächst ökonomisch betrachtet, durch den Einsatz von performativen mathematischen Kalkulationsverfahren und Derivaten (gegenwärtige Zukunft) immer eine künftige Gegenwart real, mit der sich der Unterschied zu jener Zukunft aktualisiert, die man erwartet und gewissermaßen fixiert und deren Potenziale unter Umständen auch genutzt werden. Das heißt auch, dass die Zukunft keine von der Gegenwart abgetrennte und kontingente Möglichkeit ist, die eintreten kann oder nicht, sondern immer schon im Hier und Jetzt präsent ist. Prävention baut auf dieses Zeitschema auf und modifiziert es: Es soll etwas getan werden, noch bevor ein negativ bewertetes, also unerwünschtes Ereignis eintritt, wobei hier vorausgesetzt wird, dass sich aus der Analyse der Indikatoren eines gegenwärtigen Zustands künftige unerwünschte Zustände und Ereignisse prognostizieren lassen. Auf die Annahme, dass sich künftige Entwicklungen ohne präventive Interventionen auch jeden Fall verschlimmern werden, folgt, dass definitiv eine Art der Risikominimierung ins Spiel gebracht werden muss. (Ebd.: 85ff.) Vorausgesetzt wird also, dass die prognostizierten Fehlentwicklungen ohne zuvorkommende Gegenmaßnahmen wahrscheinlich auch eintreten werden und folglich möglichst frühzeitige Eingriffe die größtmögliche Risikominimierung versprechen. Prävention will also nicht nur schaffen, sie will insbesondere vorbeugen und verhindern. Im Grunde bedeutet Prävention eine Arbeit am Virtuellen: Sie zielt darauf ab, das Werden in seiner angeblich chaotischen Ereignishaftigkeit zu steuern (Kybernetik), um allen möglichen drohenden Gefahren auszuweichen oder zuvorzukommen. Zukünftige, noch nicht geschehene Ereignisse erlangen so eine nicht zu leugnende Präsenz in der Gegenwart.

Um präventive Maßnahmen auch durchsetzen zu können, müssen zunächst ausgewählte und negativ bewertete Phänomen aus der Wirklichkeit herausgeschnitten und isoliert werden, um zwischen diesen und den prognostizierten Ereignissen positive Relationen herzustellen, die oft wahrscheinlichkeitstheoretischer Art sind, worauf schließlich ein Aktionsfeld, das der Verhinderung künftiger Zustände dient, entworfen wird. Dabei kann alles Mögliche als Bedrohung imaginiert und heraus kristallisiert werden. Seien es physische oder psychische Krankheiten, Drogenkonsum, soziale Auffälligkeit, Terroranschläge oder Aufstände, überall lauern Risiken, drohen Ungleichgewichte und Krisen und gerade deshalb bedarf es der Prävention. Diese folgt dem Prinzip der Aufrechterhaltung der Latenz, wobei sie ganz auf die Eliminierung des Negativen abzielt, das von überall und nirgendwo her zu drohen scheint. Die Präventionsmaßnahmen selbst können dabei Momente sowohl der Repression als auch des Produktiven besitzen: Prävention bestraft und belohnt zugleich, sie droht und reizt, sie soll abschrecken und aufklären, sie akkumuliert und eliminiert; sie installiert technische Kontrollsysteme und nutzt soziale Netzwerke.

Wichtige Begriffe zur weiteren Klärung des Terms »Prävention« sind Risiko und Unsicherheit. Kontingent ist das, was unsicher und zugleich veränderbar erscheint, d. h. das, was sein wird, könnte immer auch anders sein. Der Clou dieser Erkenntnis, den die Prävention anwendet, besteht aber genau darin, dass jeder kommende Zustand durch vorbeugendes Handeln auch beeinflussbar ist, wobei vorausgesetzt wird, dass das Kontingente immer auch das Bedrohliche einschließt und gerade deswegen präventives Handeln notwendig sei. Dabei darf das Kontingente keineswegs absolut gesetzt, sondern muss in ein durch Machtverhältnisse konstituiertes Möglichkeitsfeld integriert werden.

Weiterhin ist der Begriff des Risikos zu erklären, das sich gegenüber der nicht kalkulierbaren Unsicherheit, als kalkulierbar erweisen soll. Gerade das Risiko ist dann etwas, wogegen sich Maßnahmen der Prävention treffen lassen, die hier auf ein spezifisches Muster der Rationalität zurückgreifen bzw. auf die Art, wie man bestimmte Objekte und ihre Relationen ordnet, um diese zu kalkulieren, zu vergleichen und zu bewerten und um dann mittels spezifischer Risiko-Technologien im Rahmen des Risiko-Managements auf sie einzuwirken. Zunächst lassen sich zwei Strategien der Bearbeitung von Risiken vorstellen, nämlich zum Ersten die des Verbots- bzw. der Kontrolle, mit der das Risiko durch ein Arsenal von präventiven Regeln eingeschränkt werden soll (Vermeidung von Risiken), und zum Zweiten das Management der Risiken, durch das ein Möglichkeitsfeld konstruiert, rationalisiert und ökonomisiert wird (Risiko-Management). Prävention und Verbote verhalten sich also komplementär zueinander. Beide Strategien können sich überlappen und gegenseitig ergänzen, sodass sie in vielfachen Kombinationen auftreten.1

Es waren die Systemtheoretiker Baecker und Luhmann, die Anfang der 1990er Jahre vorgeschlagen haben, dass die Banken bezüglich ihres Risikomanagements in Zukunft nicht mit der Unterscheidung Risiko/Sicherheit, sondern mit der Unterscheidung Risiko/Gefahr arbeiten sollten. Während bei der Unterscheidung von Risiko/Sicherheit der Term Risiko negativ und der Term Sicherheit positiv bewertet wird, um in Folge dessen mit Hilfe von spezifischen Risikovermeidungsstrategien Sicherheit zu erlangen, induziert die Unterscheidung Risiko/Gefahr das Risiko als den positiven und die Gefahr als den negativen Term. (Vgl. Baecker 2011: 20) Damit können sich die Geschäfte der Hedgefonds und Banken getrost der Produktion, dem Management und der Kalkulation von Risiken und deren Strukturierung zuwenden. Die Produktion der Risiken entspricht deren Kalkulation, wie die soziale Steuerung von Kontingenz selbst als Teil des Risikoproblems gilt. Die Selbstbeobachtung des Systems aus der Sichtweise des Risikos, die als Adaption der Finanzmärkte an das Risiko ganz real auftritt, ist unbedingt notwendig, um die Finanzialisierung der verschiedenen Typen von Anlagen vornehmen und einschätzen zu können. Damit wird der Begriff des Risikos von dem der Gefahr auch wieder unabhängig, insofern ein Risiko nicht durch das Vorhandensein einer festgelegten Gefahr, die von einem Individuum oder einer konkreten Gruppe ausgehen kann, bestimmt wird, sondern als das Ergebnis einer Kombination von abstrakten Formeln, die das Auftreten von unerwünschten oder erwünschten Ereignissen als wahrscheinlich wiedergeben.

Veranschaulichen wir das Problem der Risikobestimmung weiter am Phänomen der Kapitalisierung. Um diese Kapitalisierung in Gang zu setzen, muss die in jeder Investition oder Spekulation involvierte Unsicherheit, die prinzipielle Unvorhersehbarkeit in der Kalkulation eines Risikos, das in gewisser Weise vorhersehbar ist, überführt werden. Praktisch erscheint diese Bewegung als ein je schon volatiler Spread zwischen prinzipieller Unsicherheit und kalkulierbarem Risiko, ein Spread, der einen ausgedehnten Zeithorizont besitzt und es auch ermöglichen soll, seine Volatilität zu glätten. Die von den Unternehmen erwarteten zukünftigen Renditen müssen, da sie ja unbekannt sind, mit spezifischen Risikofaktoren, die wiederum eines Risikoprofils und eines speziellen Risikomanagements bedürfen, zumindest gewichtet und eruiert werden. Heute ist es für das Finanzsystem essenziell, die Unsicherheit, da die Zukunft nicht vorausgesagt werden kann, in eine komplexe Risikokalkulation zu transformieren, und dies heißt, dass die Preise für volatile Zahlungsversprechen (wie Wertpapiere und Derivate) nur eruiert werden können, wenn zukünftig erwartete Gewinn- und Einkommensströme für diese Papiere mit speziellen Risikofaktoren gewichtet und einem Risikomanagement (Portfoliotheorie) unterstellt werden, die Risiken folglich quantifiziert und in Zahlen fixiert werden, um entsprechende Diskontierungen vornehmen zu können.

Die Erstellung von Risikoprofilen lässt sich mit Foucault als ein Prozess der Normalisierung interpretieren. Durch die Erstellung von Profilen werden die Marktteilnehmer einerseits voneinander unterschieden und damit individualisiert und andererseits miteinander verglichen und damit homogenisiert. Wir haben es heute mit äußerst flexiblen Prozessen der Normalisierung an den Finanzmärkten zu tun, wobei jeder Marktteilnehmer ausnahmslos als ein Risikofaktor gedacht wird, den es statistisch zu erfassen und permanent zu bewerten gilt. Allerdings geschieht der Prozess der Risikozuteilung und -bewertung keineswegs auf der Basis einer invarianten Norm, sondern die Normalisierung ist hier als ein variabler Prozess innerhalb eines stark verflochtenen Netzwerks zu verstehen, das von Konstellationen geprägt ist, die sich durch Diversität, flexible Regeln der Modulation, Feedback, Macht und exklusive Hierarchien auszeichnen, wobei ständig neue »Differenzial-Normalitäten« (Foucault) hergestellt werden. Das betrifft beispielsweise das Schuldensystem, dessen Zeitlogik von der Logik der fixierten Rückzahlungen auf die Logik variabler Zahlungen, vom Wahrscheinlichen auf das Mögliche umgestellt wird, auf eine spekulative Zeit, in der Vergangenheit, Gegenwart und Zukunft einer permanenten Revision unterworfen werden können (und dies betrifft selbst noch die privaten Schulden der Haushalte). Die Diversitäten werden mittels spezifischer Quantifizierungen auf einige wenige Indikatoren reduziert, um daraufhin neue Homogenisierungen, Einheiten und Adaptionen zu erzielen. Es lasst sich an dieser Stelle von einer Versität (Gleichmachung) sprechen, was aber keineswegs die Eliminierung der Differenz impliziert, ganz im Gegenteil benutzt die Versität die Differenz als ihr reales Substrat, um daraufhin andauernd standardisierte Organisationssysteme, statistische Systeme und Machttechnologien zu generieren, welche die Differenzen modulieren oder gar absorbieren. Diese spezifischen Formen der Normalisierung beziehen sich auf Marktpopulationen, die zum einen hierarchisch (nicht jeder besitzt Zugang) und zum anderen heterogen sind und gerade deshalb über flexible Verfahren, die mittels Technologien vereinheitlichen und zugleich die Differenz benutzen (Ranking, Rating, Scoring etc.), integriert werden müssen. Es handelt sich bei dieser Art der Risikoverteilung bzw. -zuordnung an bestimmte Risikosubjekte und Risikogruppen um streng quantifizierende Phänomene, die mittels a-signifikanter Zeichen, Zahlen, Tabellen, Modelle, Statistiken, Charts etc. dargestellt werden.

Derivate kapitalisieren eine Volatilität, die sie selbst kreieren. Sämtliche Prozesse der Preisgestaltung der Derivate benötigen die Dimensionierung und die Konstruktion von konkreten und abstrakten Risiken, wobei erstere durch letztere verglichen werden können. Die Finanzmaschinen ermöglichen die Konstruktion, die Verteilung und die Streuung verschiedener konkreter Risiken auf die Marktteilnehmer (die sich in heterogenen Marktpopulationen aufhalten und in Konkurrenzbeziehungen zueinander stehen) sowie die Bündelung der konkreten Risiken, die dann als ein singuläres Risiko einen einzigen Preis und einen einzigen Cashflow erhalten, d. h. ein abstraktes Risiko inkludieren, das als Derivat gehandelt und gegen Geld getauscht wird. Das abstrakte Risiko subsumiert die konkreten Formen des Risikos und vermittelt die Produktion von Konnektivität und Liquidität, die beide für die Derivatmärkte unbedingt notwendig sind. Dabei sind Zeit und Volatilität für die Form des abstrakten Risikos konstitutiv, insofern das Derivat zu einem bestimmten Zeitpunkt geschrieben wird und eine Laufzeit besitzt, in der sein Preis sich verändern kann. Kapitalisierung erfordert einen bestimmten Modus der Identifizierung, der Kalkulation und der Ordnung von ökonomischen Entitäten, von sozio-ökonomischen Ereignissen, die zuerst einmal unterschieden und dann als Risiko-Ereignisse objektiviert werden müssen. Da jeder zukünftige Renditestrom unbekannt ist, kann ohne die Kalkulation, wie das jeweilige konkrete Risiko hinsichtlich einer zukünftigen Generierung von Renditen zu bewerten ist, keine finanzielle Kapitalisierung stattfinden.

Letztendlich kann unabhängig von den Finanzmärkten, aber durchaus der Logik der Kapitalisierung folgend, so ziemlich alles zum Risikosignal werden, was innerhalb eines kybernetischen Feedback-Systems von vorgegebenen Sollwerten abweicht oder, um es genauer zu sagen, was sich als Vorzeichen solcher Abweichungen überhaupt identifizieren lässt. Das können soziale Normen, Subjekte oder Handlungen sein, worauf mittels Statistik Normalverteilungen konstruiert und statistische Mittelwerte erhoben werden, die die Verläufe einschätzen, auf welche die Präventivmaßnahmen sich dann beziehen. Und Prognosen konstruieren die Zukunft heute gerade auch als das Management der Subjekte, die selbst wiederum in Risikokategorien eingeteilt werden, um ihnen Risikoprofile zuzuteilen. An dieser Stelle überlappen sich das Finanzsystem und die präventive Verpolizeilichung sozialer Situationen, die hier weniger die Bevölkerung, sondern das Subjekt markiert. Gerade indem die Subjekte als potenzielle Risiken erfasst werden, werden in der Gegenwart auch ständig neue Risikosubjekte produziert, an denen die Grenzziehungen des zukünftigen Risiko-Daseins in Gewinner einerseits und Verlierer andererseits vorgenommen werden können. Insbesondere Personen und Haushalte, die von Krediten abhängig sind, um ihre Subsistenz zu sichern, und damit finanziellen Risiken ausgesetzt sind, werden von den Fluktuationen und Zyklen an den globalen Finanzmärkten mit voller Härte getroffen. Gegenwärtig reichen heute individualisierte Präventionspolitiken aufgrund der gentechnologischen Möglichkeiten tief in die medizinische Prävention, Nanotechnologie und positive Merkmalsplanung bzw. Optimierung der einzelnen Subjekte hinein. Diese Form einer neoliberalen Eugenik arbeitet weniger mit disziplinären Techniken, sondern wird von neoliberalen Ausleseverfahren, neuen Technologien und der Logik der Selbststeigerung gefüttert, um ihr Programm der sanften Menschenzüchtung durchzusetzen.

Wir haben es, wenn man jetzt darauf folgend das politische Feld und den Staat beobachtet, mit einer Art der permanenten Verpolizeilichung und Versicherheitlichung von Unsicherheit zu tun, wobei die diesbezüglichen Procedere voraussetzen, dass ständig neue Bedrohungslagen, Gefahren und Risikofaktoren aufspürbar sind, die erst die Notwendigkeit und Legitimation präventiven staatlichen Handelns ermöglichen. Solche Präventionspolitik wird dann auch umgesetzt und kann gerade im Falle staatlichen Handelns bis hin zur Liquidierung vermeintlicher Klassenfeinde oder »Volksschädlinge«reichen. Dieser Hyperrationalismus antizipierender Vernunft ist zugleich ein totalitärer Pragmatismus. Er gibt vor, ein Risiko auszurotten, als ob man Ungeziefer vernichten oder Unkraut ausreißen würde. Um heute Verdacht zu erregen, braucht es keine konkreten Symptome des Abnormen, es reicht schlichtweg aus, eine Eigenschaften aufzuweisen, welche von den Experten und Technokraten, die für die Definitionen und Modi der präventiven Politik verantwortlich sind, als Risikofaktor eingestuft wird. Dabei sollen nicht nur einzelne unerwünschte Handlungen antizipiert, sondern die objektiven Bedingungen des Entstehens von Gefahren konstruiert und analysiert werden, um daraufhin neue Interventionsstrategien zu entwerfen. Es entsteht geradezu ein Labor der Risikofaktoren, das eine potenziell unendliche Vervielfachung der Möglichkeiten für Interventionen unter der Voraussetzung schafft, dass die Prävention den Verdacht in den wissenschaftlichen Rang und Modus eines Kalküls von Wahrscheinlichkeiten erhebt. Auf jeden Fall benötigt diese Art der Prävention eine umfassende staatliche Datenerhebung und -verarbeitung (Statistik und Wahrscheinlichkeitsrechnung), um die Bevölkerung zu konstituieren und zugleich zu kontrollieren, und Unsicherheiten jeglicher Art in kalkulierbare wahrscheinliche Risiken zu übersetzen, sodass sich darauf spezifische Apparate des Sicherheitsstaates errichten lassen. Damit erfordern die präventiven Politiken geradezu eine neue Art der Überwachung, nämlich die der systematisierten Ermittlung im Vorfeld, wobei es das intendierte Ziel ist, das Auftreten irgendwelcher unerwünschter Ereignisse wie abweichendes Verhalten oder Widerstand zu antizipieren und zu verhindern. Und diese Überwachung kann ohne jeden Kontakt mit dem zu analysierenden Gefahrenherd und ohne jede unmittelbare Repräsentation von ihm vonstatten gehen. So pumpen die staatlichen Codes ständig Kontingenz in die eigenen Systeme, aber nur um sie einzudämmen. Das Regime der Prävention kreist weiter um das Problem des staatlichen Ausnahmezustands, der aktiv hergestellt und natürlich auch auf Dauer gestellt werden soll. Schließlich kann die Logik der staatlichen Prävention in die antizipierte Säuberung und deren Durchsetzung münden.2

Entsprechend wird das rechtserhaltende Recht ständig umgeschrieben zumindest partiell suspendiert, um auch hier angeblich gefährliche politische Ereignisse abzuwenden, welche die bestehende Rechtsordnung bedrohen oder gar zerstören könnten. Im Namen eines unhinterfragten und angeblich alternativlosen Exzeptionalismus beansprucht der Sicherheitsstaat die Herrschaft über Leben und Tod und radikalisiert die Mechanismen disziplinarischer Zurichtung und postdisziplinärer Kontrolle. Die Diskurse imaginierter Katastrophen (die Terrorismusgefahr und heute insbesondere auch die »Flüchtlingskrise«), die der Staat pausenlos in den medialen Raum pumpt, bedienen heute nahtlos die eigenen protofaschistischen Sicherheitspolitiken, worauf sie in den rechtspopulistischen Bewegungen weiter wuchern, die wiederum die staatlichen Diskurse anheizen und die staatlichen Sicherheitspolitiken vor sich her treiben. Dabei wird diese Art der Präventionspolitik zum Motor eines repressiven Normalismus, der versucht, nicht nur auszuschließen, sondern jedwede Art von Abweichung und Anomalität zu pathologisieren. Normalistische Steuerungsmechanismen, die mittels Datenerhebung, Statistik und Stochastik operieren, um zukünftige instabile Situationen heraus zu präparieren, zu prognostizieren und zu kontrollieren, fangen an, die Gesetze und die bestehenden normativen Reglementierungen zu überlagern. Dafür werden heute spezielle Softwareanwendungen, Algorithmen, Big Data und weitere Technologien benötigt, welche die Granularisierung der Normalitätsfelder und Normwerte beschleunigen, die, wir gesehen haben, sich je schon ändern könnten. Wer vorbeugen will, darf also niemals aufhören zu überwachen, zu prognostizieren und zu kontrollieren. Somit geht es bei der Prävention längst nicht nur um Risikovermeidung, sondern um ein detailliertes aktives Risikomanagement, das einerseits katastrophisch, andererseits wahrscheinlichkeitstheoretisch angelegt ist. Aber es finden noch weitere Transformationen statt, denn analog der Versicherung bzw. der Verbriefung der Schulden im Finanzsystem wird die statistische Kalkulation des Wahrscheinlichen auf die algorithmische Erfassung des Möglichen, das heißt der möglichen Zukünfte umgestellt. Risikomanagement, biometrisches Engineering und Digitalisierung sind Techniken, die einen neuen Modus der Governance und der Modalität der Macht aktivieren, die auf mögliche, projektierte Zukünfte ausgerichtet sind und es erlauben, immer stärker auf präemptive Maßnahmen zu setzen, um in Zukunft vor allem mögliche Schäden zu verhindern.

Da unentwegt neue politische Risiken und soziale Gefährdungslagen auftauchen könnten, muss der aktuelle Sicherheitsstaat zwangsläufig eine paranoide Form annehmen, mit der das Sicherheitsempfinden permanent verunsichert wird, um es politisch erneut zu versichern. Dabei muss die bedrohliche Zukunft in alle möglichen politischen Entscheidungsprozesse eingebunden werden, und so gelangt man schnell vom kriminellen Fall zur kriminogenen Situation, vom pathologischen Fall zur pathogenen Situation, und solche Situationen müssen ständig kontrolliert und überwacht werden. Poulantzas resümiert: »In gewisser Weise wird jeder Bürger a priori verdächtig, denn er ist potentiell kriminell« (Poulantzas 1978: 172). Im Zuge dieser Art der präventiven Kriminalisierung werden die Bürger zudem selbst zur gegenseitigen Denunziation aufgefordert, der sie ja auch, wo ihre autoritäre Formierung gelingt, liebend gerne nachgehen. Solche Mechanismen der präventiven Kriminalisierung gründen an dieser Stelle prinzipiell auf der Konstruktion eines abstrakten und zugleich virtuellen Feindes, der in der Figur des universellen Terroristen, welcher im sozialen Raum omnipräsent und zugleich nicht-individuell ist, sondern etwas konkretisiert wurde. Man stelle sich einen Raum vor, der jetzt ein glatter Raum ist, sodass der Terrorist an jedem beliebigen Ort auftauchen kann, um damit sozusagen zum totalen Feind zu werden, der aber nicht durch eine exklusive Feindschaft übercodiert ist, sondern als eine univoke Figur gilt, die in zahllose Multiplizitäten von möglichen, gleich feindlichen Figuren molekularisiert, geteilt und gestreut werden kann. Diese von uns hier vorgestellte Art der Präventions-Governance, welche schließlich ganz auf die Kontrolle der Bevölkerungen abzielt, wird über Mechanismen der Teilung der Bevölkerung ausgeübt. Das Objekt des Klassenkrieges betrifft nun die Reproduktion von Klasse, Geschlecht, »Rasse« und Subjektivität. Der Krieg gegen die Bevölkerungen wird durch ein virtuell-reales Kontinuum zwischen ökonomisch-finanziellen Operationen und einem neuen Typus der politischen-militärischen Operation erzeugt, das längst nicht mehr auf die Peripherien allein beschränkt ist. Um es zusammenzufassen, der Krieg gegen die Bevölkerungen adressiert nicht nur Terroristen, sondern in seiner pluralen Form ist er längst ein Instrument der Kontrolle, der Normalisierung und der Disziplinierung einer fragmentierten, globalisierten Arbeitskraft.

Die auf die Bevölkerungen abzielende technologisch konfigurierte staatliche Counter Insurgency ist das Synonym für einen sehr spezifischen Krieg, der von der unendlichen Pazifizierung der Konflikte nicht zu trennen ist. So gibt es heute bei militärischen Einsätzen, die durch Algorithmen gesteuert und überwacht werden, auch keine Zielperson mehr, die, direkt durch menschliche Entscheidungen eruiert wird, sondern das militärische »Target« setzt sich infolge einer computergesteuerten Operation aus einer Summe von Metadaten zusammen, aus deren Muster ein Feind errechnet wird. Algorithmen stellen im Dunst der Datenwolken (Clouds) bestimmte Verbindungen und Muster her, und wer diese Muster trägt und reproduziert, der gilt als gefährlich und kann zum Beispiel durch Drohnen liquidiert werden. Suchmaschinen, wie Google oder die chinesische Baidu, operieren mit Algorithmen, die in Folge von Sucheingaben drei Stunden im Voraus prognostizieren können, wo sich eine Menschenansammlung (»kritische Masse«) bilden wird. Und der Programmcode besitzt nun die präemptive Funktion, alle möglichen Konflikte und Störungen aufzufinden.

Auch Poulantzas spricht in seinen Analysen die Prävention an, insbesondere die präventive Überwachung der Bevölkerung durch polizeilich-administrative Prozeduren. Dabei, und das ist für ihn entscheidend, findet ein Übergang statt, von der Bestrafung von Handlungen, die deshalb strafbar sind, weil sie gegen bestehende Gesetze verstoßen, hin zur Konstruktion eines suspekten Falls, »der durch eine flexible, dehnbare und partikularistische administrative Regelung erfasst wird« (Poulantzas 1978: 202).

So ist es auch wenig überraschend, dass gegen sogenannte Gefährder, wie im bayrischen Polizeiaufgabengesetz (PAG) festgeschrieben, künftig Aufenthaltsgebote oder -verbote ausgesprochen, sie mit einer elektronischen Fußfessel überwacht oder lange in Präventivgewahrsam genommen werden können. Auch ihr Vermögen kann die Polizei ihnen vorübergehend entziehen und natürlich darf ihre Kommunikation lückenlos überwacht werden. Gleichzeitig kommt es zu einer Aussortierung meist der linken Szene zugehöriger Staatsfeinde, die bereits abgehört, ausspioniert und künftig daraufhin verhaftet und eingesperrt werden.

Man schaue sich einige der aktuellen Polizeistrategien an. Mit dem Einsatz spezifischer Software lassen sich heute dauerhafte Risikoprognosen erstellen, wobei die Präventionsmaßnahmen im Rahmen der Polizeiarbeit durch die Digitalisierung immer weiter perfektioniert werden. Aber es ist auch die Politik der Sicherheitsbehörden, die diese Maßnahmen aktiv vorantreiben. Es geht nun weniger um die Aufklärung bereits begangener Verbrechen durch die Polizei, sondern diese soll vor allem zukünftige Verbrechen verhindern, wofür sie zum einen den entsprechenden technologischen Apparat und zum anderen immer mehr Eingriffsrechte bekommt. Schon seit den 1980er Jahren werden polizeiliche Befugnisse, die in der Strafprozessordnung fixiert sind, in die Polizeigesetze hinein verlagert, was seinen Grund im Zuge der neuen Präventionspolitiken darin findet, dass die Strafprozessordnung die begangene Straftat behandelt und die Polizeigesetze die (die drohenden, aber bevorstehenden Gefahren). Entsprechend soll die Polizei, ganz der Präventivlogik folgend, immer mehr Maßnahmen selbst ergreifen und Techniken wie beispielsweise die biometrische Gesichtserkennung einsetzen, um drohende Gefahren abzuwehren, ja sie soll, gerade wenn man mit dem Wort »drohend« eine negativ bewertete Zukunft imaginiert, unbedingt aktiv werden, bevor eine als Verbrechen gelabelte Handlung überhaupt begangen wird. Dabei gleicht sich die Arbeit der Polizei immer mehr der Praxis des Inlandsgeheimdienstes an, das heißt, das organisatorische Gefüge der staatlichen Sicherheitsbehörden bzw. die Sicherheitsarchitektur selbst wird umgebaut, indem die Trennung von Nachrichtendienst und Polizei nach und nach aufgehoben wird. Die Konstruktion des präventiven Verdachts sowie seine Materialisierung in der Polizei inkludiert eine Art der Rechtswillkür (vgl. Autonomie Magazin 2018), das heißt, dass hier der Aktivismus der Prävention genau das generiert, was er vorgeblich bekämpfen will; er folgt der Logik der Politik im Konjunktiv und geht meistens vom Schlimmstmöglichen aus. Und wenn es dann eben gilt, das Schlimmste zu vermeiden, dann erscheint fast alles erlaubt.

Es verwundert auch nicht, dass beispielsweise das US-Militär schon im Jahr 2009 das System »Gorgon Stare« entwickelt hat, das mittels Drohnen Städte und insbesondere deren gefährliche Bezirke aus der Luft überwacht. Wenn irgendwo in diesen Bezirken eine Autobombe detoniert, so ist das auf Videoaufnahmen festgehalten und man braucht nur zurückzuspulen, um Annäherungen an das Auto beobachten und Bewegungsmuster ausmachen zu können, um dann auf den Täter zu schließen. Manche dieser neuen Überwachungstechnologien für den urbanen Raum wurden zuerst im Sport entwickelt, wie etwa die Analyse-Software des Unternehmens Harris Corporation, die als »Full-Motion Video Asset Management Engine« bezeichnet wird und Metadaten analysiert, um spezielle Details wie Zeit, Datum und Kameraposition in jedem Videoframe zu decodieren. Die aufwändige manuelle Sichtung von Videomaterial wird durch Algorithmen ersetzt, die jenes in Metadaten aufteilen und es an einen Server senden, wo diese wiederum von einem maschinell lernenden Algorithmus analysiert und in gestückelte und damit leichter analysierbare Informationen zerlegt werden. Gibt man einen Begriff ein, dann durchsucht die Software automatisch das Videomaterial und identifiziert per Objekterkennung den gesuchten Gegenstand. Fahndungsfotos lassen sich ohne Weiteres in eine biometrische Datenbank hochladen und Algorithmen suchen dann im Stream nach dem gewünschten Videomaterial. Akustische Überwachungssysteme, sogenannte ShotSpotter, lokalisieren Schüsse und alarmieren automatisch die Polizei, wobei nicht immer klar ist, ob nur akustisches Material zur Kriminalitätsbekämpfung aufgenommen wird. Das Data Mining, das Informationen aus verschiedenen Quellen zusammenführt, soll derzeit mit Hilfe der Verfahren der Künstlichen Intelligenz (KI) weiter vorangetrieben werden. Erwähnenswert ist der Zugriff der staatlichen Behörden auf Bilder, die via Sattelit aus dem Weltall stammen.

All diese politischen Narrative des Präventivstaates operieren auch über die mediale Konstruktion von inneren und äußeren Feinden: Russland und China werden beispielsweise von den privaten Medien sowie den Staatsmedien als besonders autoritäre Staaten eingestuft, die den »Westen« bedrohen, inzwischen auch durch ihre Kapitalmacht bedrohen, während ihr Autoritarismus nach wie vor durch ihren (Ex-)Sozialismus begründet wird. Der daraus resultierende mögliche Krieg ist ein irregulärer Krieg, der keine Fronten mehr kennt und letztendlich dann doch wieder die Bevölkerung einkreisen und treffen muss.

Diese Ausrichtung der sozialen Polizei auf Präventionspolitik setzte schon vor dem 11. September 2011 ein, aber sie beschleunigte sich nach 9/11 mit dem »Krieg gegen den Terror« zunehmend. Gerade im Zuge des Terrorbekämpfung, der Produktion des inneren und äußeren Feindes, wurden »Precautionary Principles« eingeführt, die von Worst-Case-Scenarien ausgehen und verschiedene Bedrohungen imaginieren, um diese dann auszuforschen, weiter zu projektieren und schließlich zu bekämpfen. Im Namen der Terrorismusbekämpfung werden Lager für die »Orientalen« errichtet und die Frage des Islam wird mit der der Geflüchteten kurzgeschlossen. Der Feind ist hier weniger ein fremder Staat, sondern es geht um die Einkreisung eines unspezifischen und nicht sichtbaren Feindes, eines nicht beschreibbaren Feindes, der inmitten der Bevölkerung agiert. Oder, um es anders zu sagen, es geht um Interventionen gegen einen irregulären Gegner, der insbesondere in den Milieus und Umgebungen globalisierter Armut vermutet wird, im bedrohlichen Terrain der Ghettos, Banlieues und Vorstädte der Surplus-Bevölkerung.3

1Weil auch eine weitreichende Prävention keine absolute Sicherheit garantieren kann, müssen die Risiken zumindest im ökonomischen Bereich durch Versicherungen gemildert werden, die darauf achten, die Zahl und das Ausmaß der Schadensfälle durch vorbeugende Prävention, die ein wahrscheinlichkeitstheoretisches Kalkül beinhaltet, einzugrenzen. Heute werden exakt diese Risiken auch selbstreferenziell an den Finanzmärkten gehandelt und damit breit gestreut und kapitalisiert. Mit dem konservativen Typus der Versicherung will die Prävention schon im Vorfeld unbedingt verhindern, dass ein Schaden überhaupt eintritt, während sie mit dem zweiten Typus des hypermodernen Handels der Risiken die Perspektive der zukünftigen rationalen Kalkulation teilt.

2Die Ökonomisierung des sozialen und politischen Körpers hat den Sozial- oder »Vorsorgestaat« (Ewald 1993) längst in einen »aktivierenden Präventions-Staat« transformiert, der die Bürger nicht nur überwacht, sondern zudem zur Aktivierung ihrer Selbstsorge ermuntert und ihnen zumutet, ihre Leben als ein effektiv zu bewältigendes Risiko zu begreifen und dieses eigenverantwortlich zu managen. Die Prävention wird zunehmend auch den Individuen aufgetragen, die man auffordert, sich selbst ökonomisch zu gestalten, zu regieren und zu erweitern. Die Selbstregulation und Steigerung des kleinen Kapitals x soll Risikominimierung und Maximierung der Selbstpotenziale in einem sein.

3Die Definition eines diffusen, zerstreuten und ausschwärmenden Feindes taucht in der militärischen Literatur schon kurz nach den Ereignissen des Jahres 1968 auf.

read here

buy here

Foto: Bernhard Weber

print

, , , , ,

By