Thu, 09 Jul 2020 21:19:22 +0000 de-DE hourly 1 32 32 The Eternal Return of Revolt – A conversation with Richard Gilman-Opalsky Thu, 09 Jul 2020 21:14:35 +0000

We sat down with Richard Gilman-Opalsky, author of Specters of Revolt, to talk about a “politics against politics”, the continuity of revolt, and the George Floyd rebellion.

* * * * *

Ill Will Editions:  In your work, you have expressed an interest in thinking a “politics against politics”, namely, a form of political experience, action and thinking asymmetrical with the professional forms of ‘classical politics’ in the West. The George Floyd Rebellion  has combined various orders of political action, from symbolic protest-style marches to ballistic clashes with police officers, the destruction of state owned and corporate property through trashing, burning, and looting, as well as the occupation of public spaces and the push for “autonomous zones.” We have the feeling that it is a mistake to lazily conflate all of these different elements into one big “social movement”. Amongst friends, we refer instead to the initial phase of the rebellion, marked by the material attack on capitalist and state infrastructure as the “real movement”, which then (as happened already with Ferguson) devolved or was recuperated into the form of a “social movement” that coheres more tightly with the interests and agendas of established NGO’s and leftist protest managers. This devolution is uneven, of course, and we’ve seen flare ups of the ‘real movement’ amidst the process, for instance in Atlanta, Richmond VA and New York, where riots have continued. But overall the trend seems to be for the real movement to be supplanted by the social movement. How can your idea of a “politics against politics” help us parse and differentiate the current cycle of struggle into its different elements?  

Richard Gilman-Opalsky: The concept of politics against politics is, in many ways, the beating heart of my work. That has been true from the beginning, since my first book on transgressive counterpublics and the Zapatista rebellion in Mexico. [1] One way to elaborate on the concept and your question would  be through what the Latin American thinker Enrique Dussel calls “the political field”. [2] On the political field, Dussel finds the following three figures: potestas, potentia, and hyperpotentia. Potestas refers to the whole institutional apparatus of politics, including the police, prisons, courts, military, etc. Potentia refers to the heterogeneous array of people outside of potestas. The people of potentia are almost everyone on Earth, since potentia is composed of everyone outside the political class. Then there is hyperpotentia, which refers to the various states of rebellion and revolt that break out when sectors of potentia rise up to confront and contest the powers of potestas.

On Dussel’s political field, the institutional apparatus of politics is just one factor. The problem is what Dussel calls the “fetishization of power.” [3] Our pathological attraction to seeing the head of state as the locus of power leads us to think of political power as the private property of the formal institutions of government. When we think the political we therefore think of heads of state and the political class. Dussel warns against this as a corruption that fixes political discourse to elections, public policy, and concepts of justice that pass through the courts. One could say that “politics against politics” means, first of all, breaking the fetishization of the power of the political class. Opposed to their form of politics are the active upheavals of hyperpotentia.

In my work, I generally agree with this, although unlike Dussel, I want to push potestas off the field as such. I insist that potestas is the private property of capital, which means that the governments of the world are in fact already governed by capital and have been for a long time. Essentially, C. Wright Mills was right in 1956 to diagnose the entrenchment of the power elite; we have been living under grotesque permutations of his theory ever since. [4] So, to speak of potestas is to speak of the toolbox of capital. Therefore, the politics that have always interested me most are the ones that materialize abolitionist forces from below. According to political science, these forces are only ever pre-political because they merely aspire to become “real politics.” According to some within radical milieus, these forces are called post-political to highlight their abandoned hope in potestas. But I don’t think we should simply allow our enemies to have the concept of politics entirely to themselves. It cannot be left to them, so we have to think of a politics against politics. This means that we have to find other ways of mobilizing our disaffections than to channel them into legible demands for the established powers of potestas. In the register of legible demands, every protest against capitalist power is either translated into something acceptable to capitalist power, or else it is discarded as irrational violence. Contrary to this, politics against politics means shifting from asking the political class to do something to refuting its power directly; it means experimenting with politics outside of and against the institutional apparatus of politics.

This is all rather abstract, which is where you end up with any kind of categorical rubric. So it is helpful to consider the present cycle of struggle in the US. We could say that the uprisings sparked by the murder of George Floyd mark a passage from potentia to hyperpotentia. That is true, but what we find in the current uprisings is, as you point out, a range of very different things. And some of those things are ultimately fettered to potestas. For example, calls for justice for George Floyd that center on the state’s punishment of the police do not break the fetishization of power. Demands for non-lethal weaponry and body cameras may be helpful, but they are fundamentally conservative initiatives despite the fact that they sometimes announce themselves in the streets. What is more interesting, and more dangerous from the point of view of capitalist power, are some of the other things: calls to defund the police mark the passageway to a more abolitionist position; riots and revolt including property destruction, or looting; the CHOP/CHAZ commune in Seattle. I think that a lot of what is happening in this cycle of revolt does contain some real threats to the existing state of things, which must be abolished.

So yes, lazy conflations are dangerous. We should not defend all #BLM activity as if it were totally pacifist in order to calm the fears of those who are afraid of “violence.” Such people accept the everyday quotidian violence of white supremacy and capitalism. They have no visible opposition to looters like AT&T, or to the long history of looted labor. Guy Debord understood some of the crucial points well fifty-five years ago, while thinking about the 1965 uprising in Watts, Los Angeles: 

“Looting is a natural response to the unnatural and inhuman society of commodity abundance. It instantly undermines the commodity as such, and it also exposes what the commodity ultimately implies: the army, the police and the other specialized detachments of the state’s monopoly of armed violence. What is a policeman? He is the active servant of the commodity, the man in complete submission to the commodity, whose job is to ensure that a given product of human labor remains a commodity, with the magical property of having to be paid for… In rejecting the humiliation of being subject to police, the blacks are at the same time rejecting the humiliation of being subject to commodities.”

Debord’s brilliant analysis was and remains useful, although it is agonizing that it requires fresh repetition decade after decade.

But at the same time, we should be careful about a different kind of conflation which would see the George Floyd uprisings as “the initial phase of the rebellion.” Yes, it is a phase of rebellion, but it is not an initial phase. It is a resumption of revolt that had been interrupted. It is not quite right to say that revolt interrupts everyday life. I think it is fair to say that everyday life interrupts the revolt, the latter of which is ongoing in a sporadic and discontinuous history of struggle.

The concept of a politics against politics is helpful inasmuch as it deepens our understanding and appreciation of the limits of the official institutions of politics, which are now being fetishized by the right and the left in very dangerous ways. While politics against politics can help us to distinguish the demand for greater police accountability from the call for police abolition, it cannot help us differentiate other elements in the current cycle of struggle, such as what differentiates property destruction from looting or an occupation from a commune. But politics against politics does help us to look around for power, to look at each other, instead of always looking up at some kind of Hobbesian Leviathan. We should remember that the original fourteenth century idea of the Leviathan was as a sea monster or Satan, not from above, but from below.

IWE: You’ve suggested that “if the sense and sensibility of capital is what we oppose, let us become capital’s non-sense, its opposite sensibility.” By contrast, the well-known claim that “riots are the language of the unheard” has once again been trotted out in response to the George Floyd rebellions. Is it correct to think of acts such as rioting, looting, and fighting the police as a language? If so, what is communicated therein, and to whom? Is it a good idea to view language as fundamentally communicative? If so, must we broaden our view of ‘communication’? Or, is language perhaps better thought of as occupied enemy territory, a field ruled by dominant forces that conducts power to and across us through nonlinguistic illocutionary factors, as Deleuze and Guattari (following Canetti) famously argued? If the latter, does it make sense to treat riots as ‘communicative’, or should we question the allegedly communicative function of discourse as doing something other than merely communicating,— maybe it’s more about disciplining and controlling us? For instance, we can look at the way the media and Trump speak of the riots: it’s fairly obvious that they have little interest in understanding them, but move directly to dividing and splitting them into ‘good and bad’ protestors, the better to marginalize and repress the fighting forces with these currents? In brief, how are we to parse power and speech, action and meaning, in the current moment? How does what you’ve called a ‘philosophy from below’ approach these questions?

RGO: Yes. We must not strive to make sense according to the logic of capital. If we follow that logic, we can only hope to make sense by presenting measurable results for every action, like citing a policy change in exchange for a protest. The social and political sciences love to measure efficacy that way, such that the current Black-led revolt could only prove its worth if it changes laws. In order to become legible, in order to become sensible, we have to make sense to a cable news anchor who wants us to tell them what we want Trump to do about it. It is better to confuse than to satisfy such logic. It is completely offensive to conclude that the so-called Arab Spring is entirely defeated by the failure of Morsi, or that the Greek revolts are proven false by the limits of Tsipris. No! We have to consider what happens to people, and especially to young people, when they participate in a revolt. Hope can be scarce for good reasons. Not only because of capitalist insecurity, but also because of pandemics and ecological catastrophe, among other things. Nobody thinks they will end racism by burning a cop car. But people are changed by the experience of revolt. Listen to what they say. They are fed up and fighting back. They are experimenting with their own powers, their creative capabilities to fight the reality that threatens them. These existential, cultural, psychic, historic, and political experiences are not nothing. They may end up being everything in the long run.

On the question of reading the revolts or riots, I have always held that we must not convert them into legible texts. No! Martin Luther King Jr.’s claim that “riots are the language of the unheard” is important, but not because he likens the riot to language. It is important because he is telling an audience in Michigan in 1968 that they must not see in the upheaval nothing but inchoate irrationality and barbaric stupidity. That is not only how many people thought in 1968, but still to this day. People who are not communists and anarchists still repeat the old strategic reduction of revolt to irrational violence. For me, the point was never about language. That is how Hamid Dabashi wrote about the Arab Spring, but I do not agree with him. [6] The uprisings do not need to be translated into a university essay. Impoverished Black people in the US know what they are experiencing, thinking, and expressing. When I write about reason and revolt, what I am saying is not that the protest needs to speak a language, but that we need to learn how to understand other ways of speaking. But speaking is only one part of it. Sure, we could say that rioting, looting, and fighting the police are expressions of disaffection, proclamations of indignation and rage. But they are not merely “communiqués.” To say so would be to misunderstand the importance of the passage from potentia to hyperpotentia, the passage from the normal violence of capitalist society to the open revolt against it.

On the question of communication, I resist presenting everything that we like as some kind of perfectly rational “communicative action.” For Habermas, much like Kant his father, the riot doesn’t count. So you could draw that line anywhere to include what you like and exclude what you don’t. But revolts do have something to say, and the vast mass of society outside them (the rest of potentia) needs to listen and learn. You cannot simply erase all communicative content for theoretical reasons. It is in there as part of the revolt. So, what I would say is that the revolt exceeds language.

Consider an example. When the Zapatistas made their rebellion in 1994, there had been roughly seventy years of PRI rule in Mexico. The indigenous people in the mountains had been communicating to the Mexican state and to the people of Mexico in conventional language for decades. Yet few heard them beyond the bounds of Chiapas. As was discussed in those days, they lived in oblivion. So, they found other ways to speak through the rebellion, and people in Mexico suddenly had epiphanies about “the indigenous problem” that they never knew existed. This shows that we must exceed linguistic communication, not conform to it. This is why I have recently written about art and insurrection, about non-textual expressions. [7] And of course, the Zapatistas did not only speak. They also built worlds to live inside of up in the mountains. The making of new worlds always includes and exceeds language.

So I should be clear that with my concept of philosophy from below I am talking about a very particular communist notion of theory, one that I try to develop and defend in my work. Against the idea that the great philosophies always issue from the heads of men like Hegel, I claim that the most provocative questioning of the reality and justice of the world (the classical purview of philosophy) comes better through the revolt than the philosophical text.

IWE: You’ve resisted the tendency to treat revolts as “discrete events” that start at X moment in time at Y place, last a while, then either fizzle out or are crushed. Instead, you see each new revolt as “taking up unfinished business from within the society, from where previous revolts left off.” This links revolts to one another along a sort of volcanic line, where each connects with, responds to, and continues the ‘work’ that others had done. This also allows us to frame revolt as a ‘specter’ that ‘haunts’ society in the interim, and against which state and extra-state forces of order continuously mobilize counter-insurgency in order to anticipate and quash them, just as leftist and liberal organizations continuously attempt to siphon off and capture the social energies of revolt and “convert them into a platform for their own political strategies,” i.e., for the building of their parties and what not. How, amidst these different contending forces, can the energy of revolt carry itself forward after the crest of clashes and battles subsides? How can revolt keep itself alive in the interim, while resisting the forces that seek to flatten or co-opt it?

RGO: When we treat revolts as discrete events that start on one date and end on another, we misunderstand them. We cut them off from a long history of struggle. In my 2016 book, Specters of Revolt, I wrote that “The Ferguson revolt did not take place; the Baltimore revolt is proof.” This was said in the context of a détournement of Deleuze and Guattari’s essay “May ’68 Did Not Take Place.” Today, we must say that the Baltimore revolt did not take place; the George Floyd uprisings are proof. The statement that says the event did not take place means that it was not over when it appeared to have ended. The current wave of revolt is connected with the previous wave, and theory can help us to see that connective tissue. Why would anyone expect the revolt to end if the conditions of existence that it contests remain fully intact? How could we expect the revolt to find a conclusion amidst the continuation of the conditions that give rise to it? That is why I argue that when the revolt is not visibly and actively happening, its specter still haunts.

To return to Dussel, we could say that the possibility of hyperpotentia always haunts the law and order of potestas and potentia. That is why the forces of law and order make plans for revolt even in its absence. The hospitals of the world are now making plans for the next pandemic, which they fully expect to come.

Regarding the social energies of revolt, this is a serious question. The channeling of revolutionary or insurrectionary energies into leftist and liberal organizations is always a risk, as we have seen with what I would call the Jacobin wing of the Democratic Party in the US. There is a lot of good content in that social energy, and its energetic expressions during the Bernie Sanders campaign tell us that capitalist white supremacy is not in fact what everyone desires. But it is long past the deadline when we should expect any real gains through existing capitalist institutions. They suck up and swallow everything good that we give them, and then flush it into their sewers. On the other hand, our own subterranean and more radical alternatives to the mainstream institutions of the left, with all of their rhizomatic hopes, do not mobilize anything at the scale of the Sanders campaign. What I want to say is that this is not an organizational problem with an organizational solution.

We should go back to Rosa Luxemburg’s essay on “The Mass Strike.” [8] Luxemburg argues that the “rigid, mechanical-bureaucratic conception cannot conceive of the struggle save as the product of organization at a certain stage of its strength.” But in fact, the organizations must come out of the uprisings, Luxemburg argues, which she observed “in Russia, where a proletariat almost wholly unorganized created a comprehensive network of organizational appendages in a year-and-a-half of stormy revolutionary struggle.” Luxemburg insists that we “cannot keep historical events in check while making recipes for them.”

Luxemburg makes two crucial points here. First, existing organizations should be ready and able to aid and abet uprisings when they happen, to follow the uprisings, not lead them. Second, when uprisings are sustained over a long period of time, they generate organizations along the way. In this way, I think that organizations, including the formation of parties and unions, are very important, but they have to come out of real movements and follow the lead of actual struggles in the world. Raya Dunayevskaya later developed some of Luxemburg’s ideas into a critique of state capitalism in Russia that more resolutely grounded every major advance in the real and seemingly spontaneous uprisings of women, Black and Brown people, and workers. So I feel that I cannot teach revolt how to stay alive, how to carry itself forward. The only reassurance is that revolt will not ever end until the conditions of this society that give it cause are finally abolished.

Regarding the most recent uprisings, I lament the fact that the virus coincides with the current wave of revolt in the US. We can only wonder how many more people would have joined the uprisings—especially  people with underlying health conditions and risks, or those with young children and others to care for at home—all those whose hearts were with the insurrection while the rest of their bodies were quarantined. Well, we can imagine many things and we must. But a theorist must also go to the real, to the concrete, to the actually happening. That is the only way to consider the difference and the distance between what is and what ought to be, and we have no choice but to think from there. It is either that, or theory becomes nothing but pataphysics. There is perhaps always a pataphysical dimension to radical thinking, but at the same time, the existing reality must end.


[1] Richard Gilman-Opalsky, Unbounded Publics: Transgressive Public Spheres, Zapatismo, and Political Theory (Lanham: Rowman and Littlefield, 2008).

[2] Enrique Dussel, Twenty Theses on Politics (Durham: Duke University Press, 2008).

[3] Ibid, 30-32.

[4] C. Wright Mills, The Power Elite (New York: Oxford University Press, 1956).

[5] Guy Debord, “The Decline and Fall of the Spectacle-Commodity Economy” in Situationist International Anthology (Berkeley: Bureau of Public Secrets, 2006), 197-198.

[6] Hamid Dabashi, The Arab Spring: The End of Postcolonialism (New York: Zed Books, 2012).

[7] Richard Gilman-Opalsky and Stevphen Shukaitis, Riotous Epistemology: Imaginary Power, Art, and Insurrection (Brooklyn: Autonomedia, 2019).[8] Rosa Luxemburg, “The Mass Strike, the Political Party, and the Trade Unions” in Socialism or Barbarism (London: Pluto Press, 2010). The citations that follow are from p. 112 and 122 of this edition.

taken from here

About the NON-Technological Use of Machines Wed, 08 Jul 2020 12:18:16 +0000

In the course of the industrial use of electricity, the emergence of new communication and transport technologies and routes (including their partial nationalization), the creeping process of dissolving the classical machinery of the industrial age or at least its integration into new contexts began towards the end of the 19th century. An expansion of traffic and transport routes takes place due to the emergence of new complexes of energy production and distribution; the driving machines increasingly operate as independent power stations, and finally the individual factory falls back to the status of a machine tool. Production processes are controlled internally and externally by the use of measuring instruments from the field of low current technology, by the mechanization of language and semiotics and their diagrams.
Bahr ascribes to the chemical-technical industry (in Germany) at the beginning of the 20th century the function of enabling and finally realizing a first integrative combination of machinery and scientific apparatus, whereby new measuring instruments and new materialized rules control the production process, which is held together by "conduit, container and other structuring systems, by chemical substance conversion reactions and mechanical transport forms of the resulting goods thing. (Bahr 1973: 54) In the chemical industry, in which not only given substances are treated but also qualitatively new substances are generated (metals and cloth goods are now produced synthetically), there is also an increasingly strong co-development between a field of engineering, which is still based on experience, and a laboratory-oriented scientific dispositive. Bahr describes the scientificization of production as idealized socialization.1 Even the scientific inventions and theories of Faraday and Maxwell indicate a development that is increasingly moving from science to industry. Finally, it must be borne in mind that the replacement of human energy by the utilization of fossil fuels was one of the decisive factors in how capital developed in the 20th century. From the 1950s onwards, qualitatively new internal relations of machinery are emerging, i.e. their integration into electronic-digital networks, which are today regulated and controlled by polystructural algorithms, operating in symbolic, real structures in order to perpetuate and stage the relative added value of capital, a differential added value that can no longer be easily located at a specific point in the machine complex itself or in its relations (differences of intensification, of productivity).
In general, it can be assumed that the data of the natural sciences - their measured values - are the result of a practice mediated by measuring instruments/apparatuses. These material-discursive practices, in turn, incorporate the functional norms of measuring instruments, which are based on the expectability and reproducibility of measured values. (Cf. Schlaudt 2014a: 69) The exactness of the experiment depends on the precision of the measuring instruments, which in turn include mathematical, hypothetical and theoretical moments, in order to finally arrive at the analysis of the measured material or machine activity by carrying out the experiment. It is possible to start from heterogeneous measuring instruments which, in specific historical situations, lead to different concepts of magnitude in so far as they relate to very specific phenomena. The use of measuring machines leads to a kind of reversal of machine tools, because here no longer an external material is processed by the machine, but an external instrument now measures the machines (and their processes), i.e. records their respective states as data. (Bahr 1983: 224) Mechanization in this context means to present any type of machine as the precision of a mechanical process that turns out to be a measurement. From now on a label, a measure, sticks to the machines. (Here reference is to be made to instruments for measuring lengths and areas, to measures of weight, to the telescope and the compass, to the number and finally to the measure of all measures, money). There is, however, no general matrix for all concepts of size, such as a pure quantity or "quantity in abstracto" - a term that can be found in Sohn-Rethel (Sohn-Rethel 1970: 55f.) - at best it can be said that with regard to quantification under capitalism money dominates as the ideal external measure. (Ibid.: 97) The innovations concerning a new way of seeing and knowing promise from the outset a new quantitativism, whose motto is: reduce reality to what can be counted and count the quanta. This quantitative

Reductionism is closely related to a transformed space that can be viewed from outside.
The relationship between the constant capital, which has already been defined in monetary terms, and the objective structure of the machine, which Bahr calls the "inner value form" of the machine, is not based on any direct illustrative context or a direct causal relationship; rather, this relationship must first be "mediated" through the technical-experimental production of the machines' sensory measurements.2
Bahr thus makes an analytical distinction between machinery as constant capital, which is already defined in monetary terms (bought in order to be used in production processes), and machinery as the mode of existence that is materially adequate to capital. This requires a specific structuring/formation, which does not remain alien to Marx when he considers the structuring aspect of the utility value in addition to the first aspect of machinery, for example when he writes: "But it is only since the introduction of machinery that the worker has been fighting the means of labor itself, the material mode of existence of capital. (MEW 23: 451) It is exactly this second aspect that Bahr also focuses on in his early studies of capital machinery. It implies that the capitalist machinery is by no means a neutral means of dominating nature, as if perhaps after a revolution the only thing that matters is the correct use of the machinery in order to further technical progress towards socialism.3
In his essay Die Klassenstruktur der Maschinerie, Bahr distinguishes Note on the value form from 1973, first between the term "expediency", which denotes the receptivity of natural substances, and the term "expediency", which emphasizes technology as a means to ends (of capital). This difference is not immediately visible. Thus, on the one hand, machinery is purposeful, it is material raw material or form for other things, and on the other hand it is functional, i.e. its construction is immanently social form, which Bahr calls "utility form" or "natural form of capital". This, in turn, has a double form: firstly, as constant capital, the machinery as purely formal indicates expediency in terms of the appropriateness of pure functioning or uninterrupted movement, and this appropriateness remains related to the efficacy of economic purposes. (Bahr 1973: 58) As a means of labor it has ever been a means of producing relative surplus value. The capital form is sui generis attached to its form, and thus its state of rest can only be an expression of the economic crisis or its natural or moral wear and tear. Secondly, in addition to its form as constant capital, machinery has a specific form of utility value, whose function is to be able to produce utility values as goods at any time, if the purposes of capital so require. Thus, a double-folded doubling of the machine can be assumed. First, the doubling in natural form and social form and secondly its doubling in value form (constant capital) and utility value form. Bahr calls exactly this folding the class structure of the machinery. (Ibid.: 62f.) Later, Bahr replaced the term "utility value form" with "natural form of capital" and distinguished from the latter in turn the ideal forms of thought. As a kind of intermediate instance, technology/machinery is by no means to be understood as the result of the purpose-rational action or thinking of subjects, just as on the other hand it is not a mode of nature that could then be thought of as the prosthesis of a physical body, rather the machinery incorporates the objectified purpose of capital, whereby it cannot be a purely neutral instrument. The relative surplus value production of capital is constitutive for this kind of objectification, with which the tendency is to accelerate the replacement of variable capital by constant capital.
For the utilization of capital, both the ideal forms of thought and the machine-like natural forms are absolutely necessary. In his above-mentioned essay, Bahr attempts to determine the ideal forms of thought in a quite functionalist manner as constitutive parts of the economic functional areas of production and circulation, and this means asking about the rules of their distribution, communicability and materialization. For Bahr, issues such as pricing, natural sciences, accounting and, to some extent, the value form/natural form of the machinery can be subsumed under the forms of thought. Theoretical categories, the mathematics of economics and even the sensual dimensions of the machinery can also be regarded as parts of the ideal forms of thought. These forms of thought accelerate the unification of the production processes of the

of the capital, which definitely requires theoretical operations such as calculation, planning and computation to inscribe linear time, continuity and uniform movement in the production processes. With this inscription of the sensual measures into the machinery, the ideal form of thought is transformed into an objective form or the material mode of existence of capital. Thus the value form enters directly into production, i.e. the machinery takes on an inner value form.
However, the inner form of value or the sensual measures arise first of all from the form determinations of circulation and exchange (measures of weight and numbers are constitutive for exchange, even if they are second only to money; ibid.: 64). Weighing scales and metal weights were part of a never-ending development of weight money, because after all not all exchangeable things could be related to each other by weight. However, the objects maintained their standardizations in terms of units of measurement, and this was sufficient for these units of measurement to function as a secondary condition for the exchange value, which always remained tied to money. With regard to the products as quantified quantities, Bahr essentially speaks of four units of measurement, which are to be regarded as special equivalent forms, but which, due to their attachment to the bodies of the products, could not from the outset serve as a central measure like disembodied money: Measurements of space, time, weight and numbers (primeval meters, primeval times, primeval kilograms and the number system) - the latter may be regarded as a pure determination of size, as the most "abstract" measure, with which, among other things, universally valid communicability becomes possible. (Bahr 1983: 390) Dimensions are divisible, i.e. their units of measurement allow certain measures, and these are intelligent in that they can be treated as signs. In exchange mediated by money, the central measure is ever already present, i.e. money compares the products neutralized in this way, which at the same time have sensual measures in themselves. (Value measures actually only exist at the level of total capital).
As potential goods, specific measures are assigned to the products, i.e. as exchange values, goods are already compared with each other in specific quantities: 20 cubits of canvas are worth 1 skirt. Here, a certain quantity of the length of the canvas is equated with a certain number of skirts. From this point of view, Marx actually regarded the exchange value form "x commodity A = y commodity B" as follows: "x shares of measure x' (commodity A) = y shares of measure y' (commodity B)." Even with the simple value form, therefore, two different sensory measures are equated; they are to be understood as a specific parergonal structure that is related to the exchange value quantified by money, which per se is articulated in the price relations of two commodities (the quantity of another commodity against which a given commodity can be exchanged).4 Bahr comes to the conclusion that, at the latest with the setting of the general value form, two "social" relations must exist, the sensory measures of the commodities and money.
According to Bahr, the concrete determination of the various sensual measures is therefore first made in the circulation. Capitalist companies, after they have established certain economic relations, produce specific quantities of products for the market, and this is what Bahr calls the form of determinability of quantities. Based on their previous market experience, companies always produce calculated, i.e. relatively exact quantities of products, and thus the sensual measures inevitably migrate into production. (Cf. Bahr 1973: 66) This continues to be the case in that goods which have already had sensory measurements are returned to production through their sale or realisation in circulation. Once this circulation has established itself, then the sensual measurements must necessarily also enter into the determination of the machinery - their units of measurement or measures are signs that adhere to such machines, which "mediate" themselves, the raw materials and the workers with each other through uniform movement, technical control and time measurement. Under certain circumstances, a company may produce only that part of a product which, as a calculated unit, requires sensory measurements in order to be assembled into a whole product in further production processes, whereby repeatable assembly or modulation into a single product must be guaranteed by certain measurements. (Ibid.: 63) The determination of the quantity of goods by sensual measures is thus already co-produced in production.

In the early 1970s, Bahr was probably the first author in the Marxist context to speak of the "inner value form of machinery" or the "natural form of capital".
He then asks how the inner value form of the machinery could become constitutive for production and how the forms of thought helped to shape this development process. For its material production processes, capital requires specifically formed means of production that are carriers of constant capital, while the produced labor force remains a carrier of variable capital. According to Bahr, what is decisive for the question is that the machinery in its objective and structural moments takes on an inner form of value, i.e. the machinery objectively incarnates capital in its logic and class structure. From a certain stage on, the machinery that has ever already been capital-infected enables the further determination of forms of thought. In this way, experiment and the theoretical natural sciences are also related to each other via machinery or apparatuses, and this type of mediation between science and machinery finally asserts itself with the second wave of industrialization at the beginning of the 20th century (chemical industry and electrical industry). Woesler criticizes Bahr at this point because he assumes that on the one hand forms of thinking were directly incorporated into the machinery, but on the other hand that these forms of thinking arose precisely in the discontinuation of industrial production processes and that Bahr is unable to mediate precisely this problem. (Cf. Woesler 1978: 187)
Certain measurements are now recognised as basic measurements in research and its laboratories, and electrical and chemical engineering is constantly generating new, artificial units of measurement. These measurements and units of measurement are the condition for the possibility of uniform industrial standards, which are directly attached to the internal value form of machinery. (Cf. Bahr 1973: 64) The uniformity of the production processes absolutely requires this standardization in order to guarantee the homogenizing technical constructions of the products and the linear process sequences of the machines. This type of production continues into modular construction, the assembly of standardized and recombinable parts on the basis of a prefabricated material. Bahr defines the industrial standard of the machine component as the appropriated and objectified form of the general interchangeability of products, and here too, mediality is immediately apparent. In today's world of barcodes and RFID tags, we can see that it is not only about classifying, measuring and selling products, but also about finding out where they are at any given moment within the global just-in-time management regime. This applies to goods as well as to people. We are all commodified, packaged in digital packages, transported through certain time regimes of control and management.
It is necessary to set off the structure of utility value in terms of dimensions - weight, length, hour or the intelligible form of the number - against the immediate utility value which satisfies a need, and it is the number in particular - in addition to money - which enables us to speak of the general communication capacity of machines. If we assume that the properties of machines require dimensions for their communicability, then it is inevitable that other machines must be produced which coordinate and measure speeds, design, process and material properties, wear, consumption etc. (Bahr 1983: 407) Measurements today require certain digital measuring devices and corresponding axiomatic systems, diagrams, algorithms etc. Uniform dimensions are used as industrial standards in the manufacture of machines. And to these sensual measures are in turn coupled with the procedures of the money calculating machines, or, to put it differently, if machines today produce the conditions of their social communicability themselves (above all qua a-significant semiotics), then the price and money calculating machines can connect to them as abstract communication machines, whose performance is in turn quantitatively determined (Mathem of Economics). Bahr describes the price as a "war machine" sui generis in his book Über den Umgang mit Maschinen. (ibid.: 407)
One can summarize with Bahr at this point: Under capital conditions, the natural material of commodity bodies must not only take on purposeful form for use, but also purposeful form for exchange, which in turn functions as the function co-produced by capital, whereby primarily in production the constitution of adequate forms of utility value of the products takes place. (Ibid.: 64) From this we can conclude: the uniform movement in the machine production of products is not only the result of the

the structural utility value form or the natural form of capital. One should therefore speak of an entity "machinery", which possesses a specific form and temporal form of movement and is at the same time a means of exploitation, constant capital. In his essay Die Klassenstruktur der Maschinerie. Note on the value form, Bahr pointed out that under capitalist conditions, the machinery is also permeated in its "material structure" by the mode of capital relations, whereby the ground is removed from the outset from any ontology of work (of which Bahr also discovered numerous traces in Marx). It is Christine Woesler again who, in one of the few theoretical debates on Bahr's theses, points out that he overestimated the importance of the sensory measures for determining the machinery, whose real determining moments are rather the uniform movement and the measurement of time. (Woesler 1978: 317)
The aim is to present the connection between machinery, capital and natural science in Bahr's context in a very brief way: Bahr speaks of the original formal principle underlying theoretical mechanics and the division of labour (geometric, uniform, self-sustaining movement), but emphasises the non-simultaneous development between theoretical mechanics and the various production practices. Interference between the two fields can only occur when a machinery that has become discursive has completely detached itself from the function that lies in the reinforcement of organ activity and, as a representational technique, translates mathematical-logical knowledge into production. It should be noted that mathematics does not translate itself one-to-one into production, since it has no direct relation to the object as an object of analysis.
In his later work Über den Umgang mit Maschinen, which we will come to in a moment, Bahr clearly distances himself from Sohn-Rethels attempt (Sohn Rethel 1970) to derive forms of thought from the exchange of goods mediated by money and the real abstraction allegedly invested in it, since such a procedure always presupposes what is actually to be derived. To briefly describe this problem: The thought forms result from the exchange mediated by money, with which real abstraction is indicated, but the problem of mediation between exchange and thought form is only named, so that in order to arrive at thought abstraction, Sohn-Rethel must switch on an act of identification, reflection and reversal between commodity form and thought form. With regard to the derivation of the concepts of understanding (as a replacement for Kant's transcendental deductions), Sohn Rethel notes a kind of identification of the agents with the abstract, quantitative nature of money, which even the Greeks were aware of. With regard to the concept of reflection, it must be said that the reflection of a form in another medium, however, already presupposes the mind, which compares the reflected forms with each other in order to arrive at the judgment of the adequacy of form. (Bahr 1973: 65) Concerning the concept of reversal, it must be said that a theoretical practice that gains its object of knowledge through the representation of the inverted conceptual manifestations of the forms of goods, money and capital (whereby it is irrelevant whether reality determines the concepts or the concepts determine reality) and through this representation wants to be at the same time an immanent critique, that precisely this theoretical practice must be able to reveal the inverted reality as the inverted one, and this step obviously requires an extraordinary or enormous consciousness, which succeeds in deciphering in theory the inversion and the value forms on which it is based, in order to describe/decode the real inversion as such, whereby basically the theoretical operation of deciphering can only be the correct reproduction of the inversion in reality.
In this context Christine Woesler has accused Bahr of ignoring the qualitative difference between the form of money and the form of thinking or theoretical knowledge of nature. Woesler, on the other hand, assumes that at least the difference between real abstraction and thought abstraction, as Sohn-Rethel states, even if he has not explained it, is inescapable, since it is impossible for the natural sciences to realize themselves completely in machinery or technical objects, since reality always contains inert matter that resists the natural sciences. (Cf. Woesler 1978: 222) The laws of mathematics, which do not have to call a representational object their own, are related in natural science to real phenomena (light, motion, energy etc.), and this is done through experiment, in which, with the help of apparatuses and material-discursive practices, the laws of mathematics can be applied to real objects.

Christine Woesler mentions the measuring experiment, which in her opinion was first developed by Newton, as a departure from the qualitative, craft-oriented experiment for further clarification. Nevertheless, there is no causal derivation relationship between natural science and technology/engineering, if only because technology, too, remains dependent on "inert" matter, from which the natural sciences, which work with the a priori of mathematics, can also abstract in a certain way (without being able to eliminate the abstract completely). For this reason, according to Woesler, the natural sciences could historically have been created before the machinery. (Ibid.: 214) Woesler himself runs the risk, however, of failing to mention that with quantum theory "matter" is always also constructed and produced, in that mathematics materializes through the use of experimental apparatus. The natural scientist has no absolute power of action over allegedly passive matter, since on the one hand not every intended result is possible by experiment, and on the other hand socio-economic processes constantly intervene in the experimental sciences. Conversely, however, the object does not automatically show the path to be followed that leads to knowledge. Knowledge and matter are then to be understood as interacting "moments" of social practices that produce materializable phenomena, insofar as the material itself becomes part of the discursive manifestation of meaning. (Cf. Barad 2015: 61) The social practices, which consist in the "intraactions" (Barad) between the material and the discursive, are reified in certain technologies that entail real material consequences and can therefore claim objectivity. In general, it can be said that an interweaving of matter and science, as conceived by Karen Barad, for example, seeks to turn away from both naive realistic and purely social constructivist positions by showing that natural sciences do not represent and modulate independent reality, but rather, in the context of economic-semiotic-discursive, material processes qua machine apparatuses, make interventions and folds that entail real consequences in the world of capital. However, Woesler points out that with the experiment and as a result of the schematism embodied in it, a nature that has ever been constituted is changed. This fact complements the natural sciences and their theoretical-mathematical foundations, whose genesis Sohn-Rethel tried to explore solely through money-mediated exchange. Moreover, as Woesler's thesis adds, it must be assumed today that real abstraction and thought abstraction can actually merge in the algorithm.
When Bahr speaks of specific forms of thought and knowledge as moments and results of the movement of capital, he is referring to a stage of the development of capital in which mental labor or the "general intellect" has long since become a constitutive part of the production process and has itself already been subjected to mechanization. One must now indeed proceed from the real subsumption of the (industrial) machinery and all labour under monetary capital. Nevertheless, for Bahr, reason remains both a result of economic processes and a subjectivating and active factor within them. Without the activity of the mind, which produces specific means of cognition, neither the structural utility value form nor technology could come into being. However, understanding itself and its means of cognition were in turn constituted by socio-economic practices. Henryk Grossmann was perhaps a little too hasty in pointing out that deductive forms of thought always referred to the mechanical-dynamic relations of the "machine", in so far as these - as given by nature-analytics - provided the content for formal thinking in a sensual way. (Borkenau follows Grossmann and explains the genesis of theoretical mechanics from the division of labour in the manufactory). In a sense, for Grossmann, practical mechanical synthesis (as evidence) remains a prerequisite for deductive thought forms. Even Bahr in his early phase still speaks of the fact that deductive forms of thought are preceded by practical mechanical synthesis (cf. Bahr 1973: 68), and this must be regarded as a postulate that should lead to the pure contradiction-free functioning of capitalist production processes. Grossmann negates, however, that even in classical mechanics, which only developed in the 17th century, the direct connection between forms of knowledge and mechanical, uniform production did not exist at all.
Schlaudt has shown the connection between deductive thought form and mechanics

(basic form of the machine) in his book What is empirical truth? as parallelism of real genesis and ideal genesis. Real genesis provides the conditions of validity for deductive forms of thought or scientific knowledge, i.e. the latter remains related to material-symbolic means/machines, and at the same time validity must be established through performative explanation within a specific field of technically instructed applications. The scientific theories establish validity in a constructive and anticipatory way by referring performatively to the world/machinery. The deductive form of thinking is intended to construct the scientific construction of the proper functioning of the machinic, and this in turn must entail the transformation of the deductive form of thinking into a practical analytics that must deal with both the disturbances of complex machines and the invention of new sustainable models of machines. Deduction and practical-empirical analytics always remain interrelated, insofar as both areas have to comply with the postulate of the smooth functioning of machinery, and this refers on the one hand to the factor regularity, and on the other hand to the practice of certain causality mechanisms, whereby, as Bahr at least writes, formal logic anticipated techno-logy at this point. (Bahr 1973: 69) Nevertheless, the technical artifact is definitely not a logical argument. (Cf. Schlaudt 2014a:188) And it should be added that the cognition of objects cannot be reduced in a clumsy materialistic way to a co-determination of socio-economic conditions and objects/world, rather the socio-economic conditions determine the (technical) objects and relations in the last instance, because every causality of the relations must be validated by social perception and by socio-economic practices (in laboratories, factories, etc.).1 (Ibid.: 59)
The systematic connection between natural science and technology only came about at the beginning of the 20th century, with the electronics and chemical industries. When at the beginning of the 20th century the scientificization of production finally takes effect, the relationship between knowledge/truth and economy changes. For Marxist theory, the convergence of the two areas is demonstrated by the premise that here, too, the connection between genesis and validity must be understood, i.e. the sciences and their findings must ever already refer back to socio-economic facts (ever already constructed facts) and to the relevance of technical means. (Ibid: 26) This is understandable because all "productions" sui generis are inherent in technological mediation processes that belong to the second nature (the culturally appropriated nature, ibid: 104). It is precisely the natural sciences and their processes of cognition, if one leaves aside the question of empirical truth, which naturalize the economy in order to set itself up as an ahistorical, objectively universally valid and neutral measure and regulator, whereby its unquestioned premises include abstraction, quantification, absurdity, etc. (Cf. Woesler 1978: 218)
According to Woesler, in the 17th century the legal concept of the natural sciences was developed as mathematical rationality and arithmetic, while at the same time the measuring experiment was introduced into the natural sciences as an empirical basis and with it the theory of scientific progress and its usefulness was formulated. (Ibid.: 240) The enforcement of the a priori concept of law led to a relativization of Hume's concept of law, according to which laws revealed nothing more than empirically ascertainable regularities. In a certain contrast to the theses of Christine Woesler, Schlaudt referred to the works of Edgar Zilsel, according to whose statements the scholastic tradition and its symbolizations in its creative connection with the craftsman artist had already been responsible for the emergence of the modern natural sciences in the 14th century. (Schlaudt 2014a: 125f.) According to the studies of the Austrian Marxist Zilsel, even experimental science can be related to this early stage of modern natural sciences, which arose from the synthesis of affirmation of a (divine) natural law qua symbolic means of representation and the practical, quantitative knowledge of the craftsmen and their experimenters. Here, laws of nature possess not only a descriptive but explicitly a prescriptive dimension; they contain the summary of empirically established regularities. (Ibid.) This, according to Schlaudt, says something about the real genesis of the modern natural sciences, to which, however

a theory of ideal genesis had to be added, which in turn could serve to reconstruct real genesis. (Ibid.: 295) The a priori character of modern natural sciences is at least relativized here. The craftsmen of the Renaissance mentioned by Zilsel (Da Vinci, Cellini, Martini etc.) are, however, without exception "artist-engineers", whose mathematics has a static form (characterized by the absence of the concept of time) and, moreover, remains related to craftsmanship and therefore cannot provide a reference point for the emergence of industrial production. The attempt to derive the experimental methods of natural science from the combination of scholastic science and craft must therefore fail.2
Woesler, on the other hand, assumes that it was only Newton with his description of the measuring experiment - albeit with a number of ambivalences - that the integration of mathematics (algebra and arithmetic) and empiricism was halfway successful. With the measuring experiment, the mechanical-geometric image of nature is implemented in reality, whereby, if successful, there are deep cuts whose results are scientific phenomena. It should be noted that for Newton it was still the empirical phenomena rather than the mathematical a priori from which the laws of motion were deduced. With regard to Newton's presentation of the mathematical laws as facts in the experiment, Woesler assumes three steps: 1) The isolation of the phenomena by determining the modes of variation. 2) Deduction of the laws of phenomena by mathematically constructing the modes of variation. 3) The use of induction to enable the applicability of mathematical deduction to other phenomena and to introduce further quantifications for more complex phenomena. Finally, one must be able to transform the mathematical deduction itself. (Cf. Woesler 1978: 277)
Newton used the inertial system to establish the exact measurement of absolute motion as a condition for the real measurement of motion at any time and in any place, assuming space as a homogeneous geometric system. And time is a purely mathematical time, which Netwon calculated via the continuity of number. In absolute space and absolute time, bodies move in their relationships and relations to each other. This transparency of the measurement process itself is considered a criterion of objectivity. It includes the quantification of the force, in that the bodies/masses take on the energetic properties of inertia and attraction and thus receive energy. In order to mathematically extrapolate Galileo's law of inertia (there is no force quantity behind the movement, but it is in it as inertia), Newton did not start from velocity, but from acceleration. In the measuring experiment, therefore, in contrast to the qualitative experiment, which remains related to handicraft production, a calculating calculus is used for the modulation of a second nature, which is related to artificial artifacts or means, i.e. measuring apparatuses which have ever been removed from sensuality and sensory data (which, however, as Sellars says, are themselves already theoretical entities). The measuring experiment cannot do without the a priori of practical mechanics and that of geometry, which is what makes it possible to set constancy. The refinement of quantification and measuring methods always remains related to innovations in mathematics and mechanics. And this includes the predominance of a syntax of forces measured in mechanics via the instrument of the dynamometer, so that one can arrive at the condensation of a quantitative unit in an articulated structure. Quantification is itself the syntactic moment by which elements, results and traces are removed from their concrete time rhythms and translated into pure temporality and spatiality. (Cf. Bahr 1983: 171) A real, continuously divisible and joinable homogeneous space is defined as mathematical space, through which mathematics and physics meet. It is the Euclidean geometry that serves the analysis of motion and space, whereby, due to the law of number, there are fixed relations between dynamic quantities. (The exact measurement of motion at any moment is possible with the infinitesimal system of Leibniz and the inertial system of Newton) And motion is defined by the (measurable) quantities of space and time, whereby the establishment of equilibrium remains the anchor and goal of the measurement. It is not the motion of machines that constitutes the mechanical, but rather it is here Euclidean geometry as a form of motion that is the immovable par excellence, the law. And Bahr sums up: "Mathematical mechanics

"is a cold dream of a paradise of order and stability. (ibid.)
In order that the substitution of the primary, practical-sensual natural relationship, which is essential for modern natural science, by a second natural relationship, produced by qua measuring and experimental methods, can fully assert itself in the social field of capital, a specific constellation of production and circulation is needed, according to Woesler, which can only be that of capital itself. In abstracting from the material (without eliminating the material), Woesler suspected early on a structural similarity between Newton's inertial system and exchange. The uniform movement of monetary capital through all its metamorphoses (including production) would indicate a further analogy between the natural sciences and economics. (Woesler 1978: 275). With the emergence of merchant capital in northern Italy, the 15th century saw the emergence of double-entry bookkeeping, which can still be considered the notational system of the principle of capitalization today. With double-entry bookkeeping, the movement of the monetary capital on the capital account can be clearly fixed as a plus or minus. This leads to the installation of a purely numerical notation system that not only registers the profits and losses of the individual capitals but can also record them in a temporal format. And Sombart notes: "Double-entry bookkeeping is born of the same spirit as Galileo's and Newton's systems, as the teachings of modern physics and chemistry". (quoted after Woesler 1978: 312) Double-entry bookkeeping and Newton's law of inertia, both of which are characterized by the abstraction of the utility value. Against positions such as those of Edgar Zilsel, Woesler insists that the measurement-experimental method cannot be derived from the craft, from the division of labour in the manufactory or directly from the condition of the means of production, but rather from the halfway developed circulation of merchant capital and the related calculation calculations. (Ibid.: 241) In addition, the absolutist state apparatus had played a certain role in the constitution of the scientific experiment, which provides for a specific way of arranging elements and apparatuses that must be constitutive and repeatable for the material-discursive practices. This presupposes observations or prescriptive rules for manipulating objects for practical purposes.
For Woesler, the constellation of the measuring experiment in the 17th century, as presented by Newton as an intellectual exception par excellence, represents in some respects an anticipation of the capitalist production structure, i.e. the development of machinery. (Ibid.: 299) In the 17th century, scientific forms of knowledge or theoretical experimental knowledge of nature could not yet be directly related to the capitalist production process and the structure of the machinery, since one was still dealing with the artisanal or manual production method, which was supplemented by long-distance trade, rural publishing and state production facilities. The forms of knowledge were thus related more to the circulation of merchant capital than to the manual production method, a circulation which, however, already required calculation as an economic principle of action. Woesler also cites various technical utopias as factors in the assertion of the natural sciences, which were to be found in the context of state war technologies, architecture and arts and crafts. And the absolutist state should not be forgotten as an organizing factor of scientific research. Thus, in the 17th century, the ways of thinking and methods of calculation were still mainly related to circulation, while in the 18th century, the expansion of knowledge was related to the differentiation of trade, the expansion of production for markets and the expansion of money trade and its institutions (stock exchange and banks), and this still under the dominance of circulation over industrial production. Finally, the circulation must have generalized (including the commodity labor), the merchant capital or agricultural capital must have transformed into productive capital, that is, both production and circulation must be regulated by the abstract principle of the calculative-quantitative determination of monetary capitalization in order to speak of industrial capital at all. The measurement of the homogeneous movement of monetary capital and its changes correspond to the measurement of the movement and its change (in experiment), which is determined by means of fluxion calculation or

or infinitesimal calculus is performed. Industrialization was the result and not the condition of capital, and it was initiated by agrarian or proto-capital. Ellen Meiksins Wood writes in her book The Origin of Capitalism that in England in the 16th century it was the triad of landlords, capitalist tenants and wage-earning workers that set in motion the laws of movement as specific to capitalism: competitive production for exchange value and profit, competitive market dependence, capital accumulation and the compulsion to increase labour productivity (increase in yield per unit of labour). (Meiksins Wood 2015: 150f.) Meiksins Wood cites the transformation of property relations, the specific logic of production, the size and function of the domestic market, the composition of the population and the dimension of international imperial-driven British trade as the enabling conditions of capital that were more essential than the advancing technologization. (Ibid.:164)
In his essay Die Klassenstruktur der Maschinerie. Recognition as a form of value, Bahr points out that in the 20th century, natural science has adopted the operative pattern of capitalist production processes with regard to the conduct of its experiments: Under identical technical test arrangements and apparatus and by means of a specific composition of the respective elements, identical results should necessarily be achieved in the measurement procedures to be repeated. The empirical truth of a measurement result thus depends on the correctness and repeatability of the measurement procedure and thus on the objectivity of the material discursive practice or production. (Cf. Schlaudt 2014a: 80) It will now also be decisive that it is often the technical apparatus itself and no longer the people who measure things. Thus, an object-object relationship will be installed, which will be technically produced and reconstructed, so that the scientific experiment itself will become an object through its own method. (Cf. Bahr 1970: 37) According to Bahr, the experiment implies the comparison of a nature that has ever been empirically experienced, i.e. structured, with a technically rational structure of the experiment, and if this comparison shows itself as identity, then the subject can be removed from the arrangement of the experiment, from the apparatus and from the knowledge. Bahr's remark that the subject only approaches the experimental experimental arrangement from the outside, while at the same time nature is to be explained by the subject, remains inaccurate. Indeed, the subject cannot be completely faded out of what Oliver Schlaudt calls the production of empirical truth, but the notion of experimental practice as the result of an omniscient epistemic subject must be replaced by the investigation of the historical-material-discursive practices and actions of collectives. Thus, the theorem of physics does not refer directly to nature, but to nature mediated by technology and material-discursive practices, i.e. to the materialized phenomenon of a nature reduced to form. (cf. Schlaudt 2014a: 221) And also entities (waves or particles) are not inherently determined, but are perforated in experiments as phenomena in a variety of ways by differently given conditions. (Barad 2015: 101) If Bahr insists at this point that the experiment must be repeated invariably for each person and situation, whereby the respective technical-experimental experimental arrangement determines the course of the experiment, the subjective moment still plays a certain role, insofar as a certain course of the experiment is expected or predicted by a research team on the basis of given empirical knowledge. Thus the object of knowledge also remains the result of a collective construction process, which, however, is not bound to a totalitarian subject of knowledge, but rather to collective language and semiotics, to the socio-economic rules of scientific operation and its apparatuses and instruments. In this context, Marx's talk of "objective thought forms" then means that the categories of the natural sciences and the reproduction of scientific phenomena under the conditions of experimental (material-discursive) apparatuses, whose place is the laboratory, always attain their validity in relation to specific socio-economic practices of capital. (Cf. Schlaudt 2014a: 192) The measurements are mediated by specific apparatuses, whereby the respective measurement result can be traced back to a regulated use of the respective measuring apparatuses. At the same time, the measurement result can also be used as a

,interpret a prognosis about the future behaviour of experimental measurements. And the measured value that Schlaudt calls "empirem" (ibid.:115) by no means includes the numerical determination of the properties of things, but rather indicates the information about the behavior of an object in relation to a measuring apparatus and the observer, or, as Schlaudt says, in relation to a stable network of different techniques. Under given means or apparatuses a certain effect is to be achieved, and this already includes a rest of subjective purposefulness qua observation. With regard to the stable network, the interaction between object and apparatus, Niels Bohr speaks of the phenomenon. He writes: "Accordingly, the unambiguous description of actual quantum phenomena must in principle include the specification of all relevant features of the experimental arrangement. (Quoted after Barad 2015: 26)

At first glance, Hans-Dieter Bahr's heteronomous concept of machines, which he sketched out in his typeface Umgang mit Maschinen, does not appear to be so far removed from Laruelles conception of techno-fiction. On the one hand a (broken) discourse on the genealogy/archaeology of machines and technical objects, from the trap to baroque slot machines and industrial robots. On the other hand, a likewise shifted genealogy of the concepts of technology and machines and their statements, which in the context of the hegemonic history of science was mostly categorized in philosophical, mechanical, instrumental or anthropological terms and schemes. Bahr, on the other hand, wants to write a non-linear genealogy and archaeology of machines (concepts), one for which, as he says, the decomposition of the concepts of time "now" and "sequence" is necessary to escape any meta-historical position, i.e. the widespread view that everything is in time and that the problem of absence does not exist at all. (Bahr 1983: 19). What Bahr finds disturbing about the concept of genealogy is the all too rigid conception of a law of development that smoothly suppresses the wastes, distortions, twists and turns and indeterminations in the a-linear progressions of machine discourses. (ibid.: 270)
To think the machine in its opacity means to understand that discourses and statements about the machine and the "object" machine are not interchangeable, that the reversibility of reality and ideality, which is always planned by philosophy, need not take place. Reversibility here remains an effect in the imaginary (cf. Laruelle 2014: 105), while Bahr wants to be guided in the symbolic by a search for and reading of traces, which leads him to an "archaeography of machines" (Bahr 1983: 18), in which the machines and the statements about the machines, if one produces both superimposed or superposed without reciprocity, can not only be read or deciphered in their rhythm, but can be intensified or exaggerated in their evidence to such an extent that the dominant discourses on technology simply have to bend and curve. This in fact opens up the space for a new labor-power thinking that refuses the linear writing of technological events, in which it shows that the phylogeny of the machine never ran in a straight line, thus raising the question of when and how certain theorems on technology appear in history; thus, the discourse on the machine, according to which technical objects are projections of bodily, social and cognitive organs and functions, was only possible at the end of the 19th century. Thus the discourse on the machine, according to which technical objects are projections of bodily, social and cognitive organs and functions, did not appear as a common form of discourse until the end of the 19th century, although it was already present in the history of philosophy and technology much earlier, in many insinuations.
These problems with Bahr thus have certain affinities with the concept of generic science with Laruelle, who in his book Non-Photography/Photo-Fiction criticizes the photographic representation with which philosophy has (negotiated) the world to this day by establishing a structural connection between the photographic appearance - objects and the world - and the objects appearing in the photograph plus their discourses, which shows itself in particular as illustration, reflection or representation in the mirror labyrinths of discourses. (Cf. Laruelle 2014: 24) Bahr, for his part, traces this monstrous peculiarity of philosophy to sit down as a mirroring a priori back to the generators of light, which in the course of the methods of the Enlightenment - lighting, seeing through and shining through - would have created a reflexive projection machine in order to repeatedly produce the image or the correspondence between thing and imagination, reality and ideality. (Cf. Bahr 1983: 21) In these discourses, the machine often appears as an intermediate part, whose three-dimensional materiality is used in favour of a (two-dimensional) projection of the human image.

At the same time, the machines should continue to appear as three-dimensional physical projections. (Ibid.: 21) This in turn refers to analyses that have remained virulent to this day, which attempt to link technology to the drive history of the organism or the human will, in so far as one imagines technical objects, machines and tools as depicting and/or extended projections of the body and its biological, psychological and cognitive functions (will), functions that can reinforce the body's spheres of action in certain external technical milieus, while paradoxically the body itself is metaphorically described as a mechanical, instrumental machine. (ibid.: 81) The technical objects are kept available as means in the context of the body's spheres of action, whereby they can also disappear as prostheses in their availability, so that then the technical objects are no longer granted any power to seduce, to change and to put pressure on the body, and thus man, according to the requirements of anthropology, only ever encounters his own knowledge in the technical. 3 (ibid.: 94)
However, the discourse on projection soon had to be broadened, because the first asymmetries between body and technical objects quickly appeared in it. The almost serially constructed representational relationships, be they similarities in shape (forceps, teeth, etc.), structure (heart/pump) or function (computer/brain), and, set apart from this, the objectification of the drive (aggressiveness/war machine) or the rational will (rationality/technical systems), led again and again to the question of the appropriateness of technology (to the body and mind/will). (Ibid.: 82) Technical objects, however, continued to be assumed to have a similarity to the body or the will, which was understood as the projection or as the process of creating and producing tools. It is easy to see, however, that even simple tools, such as the cup, do not duplicate the original function - here the drawing of water with the hands - but virtually dissolve it (the cup is held differently). By and large, the theorem of shape resemblance would degrade the tool to a statue depicting man and his abilities, and in order to avoid this, projection theory had to attribute to the tool at least the potency to lengthen, increase and strengthen bodily organs. At the same time, abstraction continues to be made from the newly created contexts of use of the machines; one thinks, for example, of the machines in mining, whose existence would be inexplicable simply by reference to manual labor. (Ibid.: 96) Finally, in order for the body to be considered an imaging projection center at all, it must at least be described as a driving center. As a result, it becomes impossible to continue to imagine the technical objects as form-like images or quantitative extensions of the body; rather, one must see in them the result of generative projections, of the drive or the will, and ultimately of the human brain, whereby it then depends solely on functional similarities between the machine and the brain, on the projection of brain activities onto the sensory organs and from these onto the external nature. If productivity only exists as the transformation of energies and is not the result of a bodily excess of drive (influence of bodily organs and their functions on the external nature), then one can finally presuppose the meta-physical energy of the mind, which has the ability to recreate duplications, axiomatics and complications of the machines. Only in this way can philosophy fully enter into the discourse of technology! In the end, this discourse condensed in the phantasm of the machine as a projection of constructive human intelligence - machine, as opposed to the statuary of the tool, as a construction of forms of movement.4 (Ibid.:108)
If one does not imagine the labor force, as Marx did, as an ecstatic labor force that generates added value, then due to its physical limitations, the labor force can only redirect the energies present in complex systems, mainly by virtue of its intelligence, whereby the labor force appears less as a productive force, but primarily as a reproductive force. (Ibid.: 106) The labour force is per se integrated into a network of machines, whereby the machines are thought of as parts of a communicating, work-divided body. With this, a socio-economic body is presented that completely overrides the theory of projection, precisely by short-circuiting the organism with inorganic mechanics and finally with the machinery as a system, whereby it is only possible to conceive of work as a pure communicability on a scientific level.

For Bahr, therefore, the first thing to show is that projection theory very soon had to rely on the notion of a non-bodily projection, be it that of instinct or will (as a theory of reflexive knowledge it is two-dimensional and as that of bodily projection it is three-dimensional). If one now imagines the machine as a social body based on the division of labour or as mediality, then the machine must inevitably be integrated into the structure of the ahuman drive or transmission, whereby the drive experiences its final desubjectivation. It is important to emphasize that in such a history of technology, which despite all its breaks is still imagined as linear, there was often an eminent regrouping of concepts, even when the collective subject representing the social or capital as an automatic subject subordinating technology was spoken of, whereby, and this is important to point out, where the subjugating unity is desired, the god of violence always speaks. (Ibid.: 15) It is precisely when these discourses are pushed to their limits or to the margins of their evidence that the genealogical orientation seems to break down. Often then only anthropological morality remains, with which a makeshift attempt is made to neutralize technology in relation to man, whereby morality itself produces indifferent objects, but which decompose precisely those objects as a Manichaean morality, because it is not apparent to the machines who they serve.
Following the philosophical discourse of projection, Bahr brings into play as the next philosophical avatar the discourse of imitation, according to which the machines are the image of an original, namely nature and later the social body. These discourses show themselves either as regression to the origin or as progression, the genesis of the origin. And there is a further differentiation: although the imitation is more original than the origin, the original image is also more original in the creation of the image. (Ibid.:145) The discrepancy closes with the assumption that anticipation is memory and memory is anticipation. Technical objects, according to Cues, do not imitate sensual nature, but are representations of the archetypes initiated by the mind. Bahr points out that ultimately most of these representations, which wander in the mirror labyrinths of the discursivities of the machine-like, grant the derivative greater originality than the original. (Ibid.: 22) This leads to the distinction of imago and simulacra used by Lucretius, whereby in the genealogical chain the common structure of primal image and representation breaks up step by step, and the illusions/simulacra begin to take on a life of their own, so that each mirror image is already a reflection of another mirror image.
The discourse of imitation is shattered at the latest when what is to be depicted as labyrinthine competition including the strategies and motivations within the social, mechanical body that proliferate within it, is itself no longer a fixable structure, that is, when the referent or the archetype becomes blurred. Whether imitation or projection, a social body, to which the game of heterogeneous, controversial and conflicting interests is deeply inscribed, is only partially revealed in the machines. On the one hand, this can lead to the objectification of energetic, temporal, spatial and informative forms of transport (networking), on the other hand to the representation of integrative connections between machine functions and labour. For Bahr, the newly emerging discourses are the birth of a cheerful or theatrical positivism that takes the machines for granted and frees them from their reference to their origin. A theatrical positivism of the machines, however, must prove itself not to be conservative, but rather an experimental (dis)order, a laboratory, even if it is not autonomous in relation to its "cause", the real, i.e. it is quasi forced to the identity of thinking in one and to the power of thinking according to the real. (Laruelle 2014: 101) Bahr constantly speaks here of the textual regrouping of statements with regard to the technical, which inherent the structure of a specific own temporality. If one now no longer speaks of the machine in the sense of a "machina ex deo", but rather of "deus ex machina", only then can the mechane reappear as cunning, trickery and ambush. Bahr writes: "The paradox of causality, however, is that, if it wants to identify all causes that are supposed to represent the whole of the thing 'machine', it would have to allow itself to be understood in the machine also its production and use, but just as much as the possible

…the whole thing becomes indeterminate. The machine as things are neither finite nor infinite, but indefinite and thus their orders are only discursive. (Bahr 1983: 23) With Laruelle one can add that the discursive orders point to the indefinite of a techno-fiction, a conceptual non-technology.
Bahr often shows a certain similarity to the machine conception of Deleuze/Guattari. If one wants to identify all the causes of the machines, one has to consider questions about their manufacture/production and their multiple uses, i.e. the chaosmotic universe of the machinic, which in turn keeps every possible whole of the machines indefinite. And thus implicitly already the concept of the machine as transmission is introduced (transitions and mediations), which for Bahr shows itself as a discursive strategy, blasting and orientation and later and even more consistently as a stratagem. The capacity for transformation is inherent in the machine as an intermediate link that mediates input and output, and this less in terms of the transformation of energies through the production of voltage gradients than in the sense that a technical matrix and mathematical construction is implemented to ensure precise functioning, but this does not exclude the effectiveness of the transformation or disruption. (Ibid.: 138) At this point, reference should be made to digital sampling machines, to new technologies for accessing and processing media material. Here it is no longer a matter of the representation or reproduction of the material, its contexts of meaning and its meanings, but rather of its transformation and modulation, and this by means of a technical-methodical principle that allows direct access to the signal of the transmission media, a third aspect of transformation, besides transmitter and receiver, with which the signal contained in the technical channel is cloned and made accessible for transformation. Sampling as a method undermines the targeted transmission from the source to the target address, as shown in the Shannon model. At this point, the problem of appropriateness or measure reappears, as well as the problem of the disruptive cut in the historical development of technologies, or even the quantum leap, where the aim is to determine when and how a cut in the infinite dynamics of indeterminacy and thus the production of a new phenomenon has occurred. The example of quantum physics clearly shows: Planck or Bohr really could not have predicted that smartphones would one day result from the empirically proven uncertainty in the measurement procedures and the associated theoretical discoveries (which, among other things, eliminate the separability of object and observation instance). Heiner Mühlmann points out that the steps and cuts necessary for this, such as the invention of the semiconductor, the computer, the Arapanet and the Internet, the miniaturization of computers and the mobile application of the Internet, took place discontinuously and largely unpredictably. (Cf. Mühlmann 2013: 26)
So this is what Bahr is interested in above all else: To describe the machines in their differential neutrality or non-neutral indifference, inasmuch as they function as non-causal detonating and jumping machines, in order to process them as the epitome of a new art of disguise beyond the old familiar means-purpose schemes. The coming concept of the machine radically subtracts the philosophical interpretation centred around concepts such as isomorphism, objectification according to the law of nature or the projection of bodily and social organs. The machines are to be questioned not only in terms of their syntax and pragmatics, but also in terms of their semantics. By looking at the semantics, Bahr suggests an archaeological search for traces, which reads from the machine that it can be based not only on an axiomatic theory but also on an axiology, a decision of the manufacturer, who wants to realize an objective norm by building the machine. (Bahr 1983: 189) Finally, it can be the machine itself that (prescribes) the standards, especially when it is coupled with other machines (telephone, filter, radio, etc.) to form installations or networks of devices/apparatuses. In this way, both the technocrats and the critics of technology would have to see the question of the machines' possibilities of choice in a new light (actions beyond the yes/no decision; ibid: 192).
Bahr marks several levels here: First of all, it is a matter of designating the sensual appearances of technical objects until these appearances finally become the carriers of signs, i.e. receive witness status. In order to maintain immanence here, the semantics and pragmatics of the technical objects must in turn be examined by means of the specifics of the object.

Thus, for the first time, methodological principles such as deduction, regulation, and regulatory procedures are more important in the discourses on machinery. (Ibid: 218) The description of technical objects aims (in theoretical mechanics) at the production and guarantee of structural order. And thus, according to Bahr, the effect of the machines and their theoretical representation have reached a congruence. Theoretical mechanics prefers the absolute presence of the uniform machine movement, which is presented in the concept of time as an infinite presence. Uniform motion, which Netwon understood as the product of two compensating changes in speed, refers to the geometry of pure change of location. Here, on the one hand, the machine is given movement, but on the other hand it cannot get beyond the transformation of this movement, i.e. it cannot transform the transformation itself. (Ibid.: 35) The question of causality is replaced by the description of the machine as a purely functional order. Now, in the production of the machine, it is a matter of designing its (mathematical) construction in such a way that it necessarily functions in this way and not otherwise, i.e. the possible is always the ultimately real, entirely in the sense of Hegel, for whom the real ever already contains its own possibilities and potentialities and also realizes them. (Ibid.:138,103)
In the discourses of mechanics, the writing of the syntax of machines in terms of their smooth functioning still remains entirely bound to the binary pattern (static-dynamics, barrier drives, etc.). It is about the axiomatization of rest and movement, which is stabilized in favor of rest by capturing the unsettling aspects of movement (explosion, flight). (Ibid.: 218) Movement - imagined as detonation, flight etc. - must be captured, the trap must be set, and this is the task of theoretical mechanics. If the wheel on the shaft is outwitted, so that the imbalance that always occurs serves to establish a new equilibrium, then the problem of chewing can be transformed into the two-dimensional picture of pure functioning. Corresponding to this image is the presence of an absolute presence of all movement or the idea of time as an infinite presence. The description of functional ordering procedures replaces those machine discourses that still raised the problem of causality, the processes of production and use. A pure functionality of machines assumed in this way must also necessarily exclude the relationship of machines to economy and to external nature. And this leads to the final axiomatization of the machine, which now dominates most theoretical discourses on the machine within the framework of deductive and constructive mechanical engineering. And thus the various theories about the machine disintegrate into an axiomatic functionalism on the one hand, and into the discourses of philosophers, anthropologists, economists, etc. on the other, who now celebrate the appearance of the possibility of the reversibility of discourse and technology under their own steam. As can easily be understood, the discourses on the machine have shifted quite dramatically, especially when the object "machine" is no longer being asked about, but in the technological sense exclusively about the functions of machine transmissions. Deductive and axiomatized descriptions of machines, in which the machines as transformers of energy and information endure, aim at the classification and taxonomies of the machine elements in order to describe the integral of the communicability of the machines among themselves through their recalibration and recomposition. On the basis of exclusively communicative criteria, a general concept of the machine is to be developed, whereby it quickly becomes clear that the general communicability of the machines themselves is only one of their elements (and others are thus excluded). Scientific mechanical engineering defines communicability as the sole criterion regulating and regulating the machines. And it seems that the difference between the machine and the economy, the social and the political also disappears, because the machine now proves to be purely neutral or purely a transmission, without having to refer to external points of contact at all.
At this point, Hans-Dieter Bahr notes that cybernetics does not differ significantly from the mechanical discourse of the machine in terms of its capacity for control and order, whether internal or external. The construction of a control loop, in which every change in a controlled variable that is considered a deviation is compensated by a variable that counteracts it, is based on the Newtonian formulation of the equality of effect and

Counteraction ahead. If we speak of cybernetic systems in terms of the fact that as far as possible no (disturbing) human element is switched on in their processing, and the controlling, which in contrast to an action appears here only as "behaviour", is essentially reduced to the switching on or off of the machine systems by the human agent, then the anthropological scheme is by no means turned its back on the human agent. For one continues to speak of controlling interventions in a control loop, which are perfect interventions precisely when there is no malfunction or accident, whereby the control is in turn reduced in tendency to the maintenance of a linear disturbance-free sequence, which is to correspond to a steady state, which in each of its moments is the respective distance of binary states, up to the limit value of their collapse. (Ibid:: 194) Bahr assumes that, precisely because cybernetics adheres to the term equilibrium, it is essentially a mechanical theory extended to include the processing of order: effects produce counter-actions that are presented as causes. Cybernetic feedback is about whether the disturbances are compensated by the machine complexes automatically or externally by human input. At least in the case of input of set values, even if it is a one-time programming, the human switching element is still present, the instrumental organon that prevents the automaton from becoming pure perpetuum mobile. In cybernetic discourse, the self-regulating automaton thus still remains bound to the coupling of machines and humans, whereby the human decision and control follows a logical structure of either/or, the yes/no decision, and therefore excludes the admission of the infinitesimal difference.
When the machine finally mutates into an information machine, i.e. when it has already informed other machines, then the machines are definitely located in technical environments, in contexts with other machines, in networks, in machine associations and the corresponding procedures and rules, as Simondon, for example, suggested with the concept of the filiation of technical objects. With the cybernetic or system-theoretical discourses on the machine, a theoretical scope is opened up that goes beyond what has been said above, making it possible to describe the machine as a discursive formation (and not just as a purely internal network or, for example, just as a functionality or object). Of course, the discursivity of the machines includes their communicability (initially through mathematical, technical instructions and procedures), whereby the machines today must increasingly have the capacity for procedural plurality, i.e. they must enter a field of possible communications whose procedures appear less as caused and more as strategically motivated by capital. The more economically complex the financing of the machines becomes, the more the plurality of machine processes is required. And therein insists the question of how labour sans phrase can be transposed into possible labour, to which Marx responded with technique and technology that jump into the intervals of the insufficiency of labour (cf. Lenger 2003: 157), which is quite obviously about the transposition and replacement of labour itself. With increasing economic costs incurred in the production of machines, there is thus a growing need to take into account factors such as process plurality and speed, whereby machines are now formulated more in the context of their potentiations. Complex new machine environments are emerging in which the machine processes not only process information of a technical, but also of an economic and, beyond that, social, biological and political nature, and at the same time endure or endure through factors such as accidents, breaks, shifts, shifts and surprises. Information, which expresses the potential of the possible, transforms, when subjected to capitalization, into power-related communication, which today includes the filtering and industrialization of data and information. Technology is thus inevitably related to machine chains, their systems and networks, to operations, functions and procedures, to axiomatics and rules, and even to the totality of machine conjunctions. This means that the concept of "thing" has been definitively dissolved, and even the fixation of the machine on a single process or speed is being given less and less consideration. Thus the empiricism of machines is finally integrated into the field of communicative potentialities, and this leads Bahr to the concept of

strategy, i.e. the option or choice of a certain 'mechanical procedure. All discourses on machines, be it production, information, transport, energy or human technologies, now refer to the ecology of machines or their networks, which are presented as parts of specific environments. In this process, the information is always accompanied by processes of absorption and filtering, in which data and information are selected and redistributed by economic power-oriented processes.
It is obvious that the machine can only be described as a discursive formation. (Cf. Bahr 1983: 277) The characteristics of the machines and their constructive form determinations are, however, still characterized beyond the ability to communicate according to rules, by a certain differential diversity and by a certain susceptibility to disturbances. (Ibid.: 230f.) With regard to the finality of the machines (middle purpose), it is still necessary to consider the difference, for example the difference between technical feasibility and economic profitability with regard to the manufacture and use of machines. The unification of effects, which follows the system necessary production of efficiency, cannot completely eliminate the coincidence, which is involved in the concatenation of the machine, but can only offer orientations for its taming or avoidance. Nevertheless, the maxim is somehow meant to persist that everything ontic consists of coming into being and passing away, while only the object itself, i.e. the logos, exists. (Ibid.: 33) Finally, the content must correspond with the form of the statement, because otherwise the ontic as a coming into being and passing would lose itself in bad infinity instead of being held together by the cause that is existence. But if machines are defined primarily in terms of the functioning of their functions, then they do, after all, constantly produce new conjunctions, and so inevitably a variety of functions emerge, which can be identified as disturbances or side effects, among other things. Here, machine function does not in any case refer to an isolated empirical structure "machine", because the functions produce further multiplication and radiation of the functions, new conjunctions, for example the integration of the automobile machine into the more comprehensive transport system. The primary machine function, the functional efficiency of the automobile machine, is here clearly dominated by the apparently secondary functionality of the transport system, which in turn requires complex machine systems to control and monitor it.5
In order to arrive at an even deeper insight into the multiplication of machine functions, Bahr now asks what could disturb the functions of the machine systems, indeed what could actually cause the machines to break down. It has already been mentioned several times that a machine can become obsolete without having to disintegrate as a material if its use is no longer profitable for individual capital for economic reasons, that is, if its contribution to individual capital is no longer sufficient to realize at least an average profit in differential accumulation or to beat other individual capitals. Factors such as idle time, strikes, change of ownership or mergers also influence the regulated functioning of the machines.
System theory conceives the machine-functioning system as the sum of its inputs and outputs. Money, algorithms, programs, statistics, knowledge, control, industrial standards, maintenance, energy, various substances, locations, interlinking with other technical systems, wear and climate are its inputs, and changed substances, products, orders, money, times and spatial changes are its outputs. In order to simplify these complexities, the discourse of technology reduces the inputs to human control and work, to software programs and means of production, and the outputs to material products or new machine states. Assuming these reductions, all other inputs and outputs can be determined as inappropriate functions, from labour failures and programming errors to adversities such as climatic disasters and economic crises. However, in so far as the machine systems are also supposed to absorb these factors as inputs, their functioning must at the same time produce specific information about the outputs, which in turn not only contain utility values and stable products, but also dysfunctions or waste. If economic function times, losses and wastes are among the inputs and outputs of the machines, it is immediately apparent that in an ordered feedback mechanism it is primarily the inputs that are selected, sorted,

In order to avoid "bad" information of the outputs, which then do not appear as utility values but as dysfunctionalities, especially when the outputs should again be inputs into the system; in order to ensure the smooth functioning of the machinery, the outputs must be fed back to the inputs in such a way that disturbing inputs are eliminated as far as possible. Thus, cybernetics is not to be understood primarily as automation, but primarily as a mechanism for input selection.
In his essay Black Box, Schwarzer Block, Alexander Galloway pointed out that the Black Box has undergone a drastic change of meaning in the course of the hegemonicization of cybernetics, namely from a cipher that has to be decoded or uncovered to a function that is defined exclusively by its inputs and outputs. (Galloway 2011: 273) With this, Marx's critique of fetishism, which seeks to discover the rational core under the mystical shell, has been settled, we are now dealing with a rational/rational surface of machines (interfaces, keyboards, windows, tabs etc.) and a largely invisible black box. These new black boxes are purely functional (the computers, codes, protocols, data objects, etc.) in so far as they are supposed to provide the smooth circulation of inputs and outputs through programming. As techniques of obscuration, the black boxes provide a flawless syntax of surfaces, but leave the inside of the machines largely invisible. Galloway summarizes: "These black boxes have a purely functional existence without essence or transcendental core". (Ibid.: 274) Teleological attributions dissolve completely in this context, because there is neither a collective subject called society nor can capital be assigned subject status.
Inputs and outputs, defined as poles, and the machine, defined as the mediation or transmission of the poles, all of this indicates for Bahr that the machine relations must ultimately disintegrate into a plurality of transmissions, whereby the poles at the end at best still indicate orientations, incisions and intersections, which Bahr summarizes under the term "strategems". With this radical reorientation of the discourse, however, the previous machine discourses are not completely eliminated, but, similar to Laruelle, reduced to pure material. In general, Bahr calls for a different approach to machines when he speaks of the strategems as effects of "the experimental per se, as attempt and becoming attempt" (Bahr 1983: 297), and this neither in an infinite nor in a finite field, but in an indefinite field, a "campus indefinitum". At this point, Bahr also calls for an "archaeography" that confronts the problem of "the overly clear, the ambiguous, the intimated and over-interpreted" (ibid.: 301) in order to escape the philosophical circle of mapping, reflection and representation between reality and discourse. Bahr's labyrinth of monuments, the multiplicity of temporal functions, can also here be brought into a certain theoretical proximity to Laruelles fractal indeterminacy force, which, by itself, makes the given irregular at once, in the campus indefinitium according to the real. (Laruelle 2014: 115) This force, however, must not sink into complete indetermination, but must remain immanently related to the One, i.e. it remains dependent on the Real, which is its immanent cause. This force must identify itself with the Real, while the Real neither mixes with it nor disappears or merges into it. In this way, the ideal of the smooth functioning of the machines is destroyed in a certain sense, so that machinic precision can at best still be understood as a problematic complementation, insofar as the machines have to include further functions, factors, parameters and variables of their field. The machine as a model of precision must definitely evaporate or at least transform itself into a stratagem of degrees of precision, making the machine at least a machine of probability. And mechanical engineering has to face this challenge in order to define the machine not only by its regulated and as smooth as possible functioning, but also by its radiations and distortions in specific economic, social and political spaces of use. Thus the affirmative discourse, which continues to openly propagate linear technical progress, is finally reaching its limits.

Foto: Stefan Paulus

Translated with (free version)

Translated with (free version)

There is no rebellion (there’s only me earning a paycheck) Wed, 08 Jul 2020 08:45:22 +0000

Conspiracy has roared back into American culture, although perhaps it never left. QAnon, "Epstein brain," 9/11 truthers, Russiagate, True Detective S02E06. Fueled by paranoia, the conspiracy theorist finds meaning in every detail, forcing the unrepresentable into the light of day (even if it doesn't exist). When faced with meaninglessness, the conspiracy theorist finds an abundance of meaning at every turn. In a fuzzy picture, or in a fragment of text, tenuous connections resolve into hard links by sheer will of intuition. In this sense, conspiracy theorists think inductively, through association. Conspiracy is a kind of network thinking, appropriate for a networked world. Recall those astounding drawings of power networks by Mark Lombardi, or the detective's bulletin board at the end of Usual Suspects. Somehow, someway...everything connects.

Conspiracies are one of the few ways in which class and anti-capitalism -- otherwise banned from mainline discourse -- pierce through the ideological fog and imprint themselves directly on popular culture. Jason LaRiviere reminded me of "Exiting the Vampire Castle," Mark Fisher's essay on liberal privilege, where Fisher remarked, in a parenthetical aside, that "many of what we call ‘conspiracies’ are the ruling class showing class solidarity." This makes sense to me, that behind every conspiracy is an aborted attempt to speak about class and power. The Epstein case is instructive here. On the one hand it is a story of sexual abuse and exploitation. But in another way, the Epstein case furnishes empirical confirmation of the most outlandish Pizzagate-style lunacy: the deep state and the uber rich *really do* traffic in kiddy sex. Such logic of indirection -- yes/no, wrong in one place but right in another -- is part of the logic of conspiracy. 

Fredric Jameson is also an important reference, particularly his writings from The Geopolitical Aesthetic on the last cycle of conspiracy, the cycle that took place during the 1970s in film -- reaching a crescendo with Alan Pakula's The Parallax View (1974) and All the President's Men (1976) -- but also evident in literature and other arts. As Jameson put it, conspiracy means "a potentially infinite network, along with a plausible explanation of its invisibility." The cabal must be massive and interconnected, yet despite everything the plots remains somehow veiled, just beyond one's grasp.

For this reason, conspiracies thrive in periods of cultural cuckoldry, when people feel weak and impotent, unable to act, or are so oppressed and subdued (by ideology, by the cops) that they can not act. There have been cuck cycles in the past, and we're in a similar cycle today.

I rewatched Under the Silver Lake recently, a fantastic film that deals not so much with real conspiracies but with whether conspiracy itself is some sort of conspiracy. Silver Lake is a shaggy dog story, a kind of baroque, burn-out noir in the spirit of Altman's The Long Goodbye. I have a lot of thoughts about the film, given the abundance of narrative wrinkles, the dry jokes, and the endless visual creativity. But what struck me most about the film is the astounding piano scene (the last clip linked below). This scene is catnip to anyone obsessed with movies and pop culture. I was struck at how well the piano scene in Silver Lake links back to the "primal forces" scene in Sidney Lumet's iconic 1976 film Network, two bookends on a half century of conspiracy. The fact that Silver Lake makes its point through music and melody is all the more interesting.

Sandwiched between them, I thought also of They Live by John Carpenter, with its too-good-to-be-true narrative about ideology critique and counter-cultural rebellion. (Zizek frequently references They Live in his texts and lectures, focusing on the fantasy of being able to "flick the switch" on ideology merely by donning a pair of sunglasses.) And rounding out the quartet, the destruction of office towers at the end of Fight Club, depicted as a kind of rebirth through annihilation, and set to the guitar and backbeat of "Where Is My Mind" by the Pixies. (Listen closely, that Pixies song will return toward the end of the Silver Lake scene.)

I won't try to gloss any of these clips, just leave them here to be screened together as a group. They seem to capture the particular form of insanity that has gripped the world in recent decades. They say a lot about the nature of power, and why those in power are so damned good at keeping it.


Network (1976, d. Lumet)

"You have meddled with the primal forces of Nature!"


They Live (1988, d. Carpenter)

"It's a new morning in America...we don't need pessimism."


Fight Club (1999 d. Fincher)

"Trust me. Everything's gonna be fine."


Under the Silver Lake (2018, d. Mitchell)

"There is no rebellion, there's only me earning a paycheck."

<span data-mce-type="bookmark" style="display: inline-block; width: 0px; overflow: hidden; line-height: 0;" class="mce_SELRES_start"></span>

taken from here

Das Problem – Althusser – Deleuze – Foucault Tue, 07 Jul 2020 10:23:12 +0000

Liest man Deleuze nicht ausschließlich im Kontext einer vernunftkritischen Position, die gemeinhin mit transzendentalem Empirismus umschrieben wird (vgl. Rölli 2003), auch nicht als Befürworter eines ontologischen Realismus (vgl. De Landa 2006), dann ließen sich mit Deleuze (und Guattari) auch sozio-ökonomische, synthetische Strukturen der gegenwärtigen kapitalistischen Ökonomie im Kontext von begrifflichen Problematiken beschreiben, Strukturen, die im Kapitalismus permanent durch Maschinen oder sog. Regime von Attraktoren bearbeitet, geformt und transformiert werden. Der ausgezeichnete Deleuze-Kenner François Zourabichvili hat wiederum darauf hingewiesen, dass es Deleuze mit seiner philsophischen Konzeption keineswegs um ein Denken des Seins ginge, das vielleicht sogar in der Tradition der fundamentalen Ontologie stünde. Dagegen sei, so Zourabichvili, das deleuzianische Objekt ganz woanders angesiedelt, nämlich in der wirklichen und gelebten Erfahrung, die man als Zeichen des Körpers verstehen könne, wobei sie Kräfte seien, die den Körper affizierten, was schließlich die Synthesis der Kräfte durch ein Denken erfordere, das mit einer konzeptuellen Symptomatologie (des Realen) und eben nicht mit einer neuen Ontologie antworte. (Vgl. Zourabichvili 2003) Zourabichvilis Position siedelt einen spinozistischen Deleuze zwischen Vernunftkritik und Ontologie an. Wir visieren eine vierte Ebene bei Deleuze an, der in Koexistenz mit Guattari in den gemeinsamen Texten im Ansatz die Konzeption einer Nicht-Philosophie bzw. Nicht-Ökonomie der (realen) Gesellschaftsmaschinen des Kapitals vorbereitet hat.

Die Fragen an die Realität (der Ökonomie) und deren Symptome, die ja auch Marx mit seiner Kritik und Darstellung des Systems der politischen Ökonomie stellt, sollten sich nach dem bisher beschriebenen Konzept einer Nicht-Philosophie und dem noch zu darstellenden Konzept einer Nicht-Ökonomie als »objektive« Probleme explizieren lassen, insofern man Begriffe wie Struktur, System, Mannigfaltigkeit und Prozess (der kapitalistischen Ökonomie) selbst als äußerst problematische Konstellationen auffassen darf, die sich bei Deleuze alle vom Begriff der Virtualität her schreiben. Deleuzes Konzept des Virtuellen favorisiert keine ewig statischen Ideen, sondern lenkt die gesamte Konzentration auf die generische Existenzweise der Ideen jenseits einer strikten Trennung von Ideellem und Materiellem. Der Begriff der Virtualität geht auf das mittellateinische virtualis zurück, das sich wiederum vom Wort virtus ableitet, welches für Kraft, Potenzial, Vermögen steht. Es bezeichnet seit der scholastischen Philosophie das, was zwar dem Vermögen nach, nicht jedoch in aktualisierter Form existiert. Sofort könnte man nun den Begriff der Virtualität in Nachbarschaft zum Begriff der Möglichkeit setzen, dieser bleibt aber bei Deleuze deutlich vom Begriff der Virtualität abgegrenzt. (Vgl. Deleuze 1992a: 206f.) Das Virtuelle, das volle Realität besitzt, muss jenseits einer probabilistischen Festschreibung als je schon indeterminiert und als offen ausgewiesen werden, insofern es sich in sich teilt und sich in dieser Ungleichzeitigkeit permanent qualitativ verändert. Während das Mögliche, das immer schon vom Wirklichen her bestimmt ist, als das Wahrscheinliche sich verwirklicht, zeigt der Prozesscharakter des Virtuellen eine je schon von ihm differierende Aktualisierung an. Dabei dominiert das Virtuelle das Aktuelle, ohne es jedoch zu umfassen, gerade weil das Virtuelle sich in und mit der Aktualisierung realisieren muss. Und weil das Virtuelle und das Aktuelle immanent bestimmt sind ohne miteinander übereinzustimmen, kann das spezifische Verhältnis von virtueller Struktur und Aktualisierung nicht derart unterlaufen werden, dass man den Begriff der Struktur auf die Möglichkeitsform aktueller Zustände oder Spezifikationen reduziert, im Gegenteil sollte jede Beziehung der Analogie oder Ähnlichkeit zwischen (virtueller) Struktur, Aktualisierung und aktuellen empirischen Fällen ausgeschlossen werden, u. a. weil die Aktualisierungen und ihre Arretierungen potenziell unvorhersehbar bleiben, während das Virtuelle über eine ganz eigene Realität verfügt, die Deleuze zufolge stets ein für alle Mal jeden Prozess der Aktualisierung gemäß einer Zeit und einem Raum befördert, also in dem Sinne, dass das Virtuelle sein Bestimmungspotenzial nur ein einziges Mal ausspielen kann, womit wiederum das Aktuelle gerade nicht zu einem Abbild eines universell Möglichen verkommt. (Ebd.: 268)

Die Virtuell/Aktuell-Verschaltungen koexistieren, indem sie oszillieren, anders gesagt, es spult sich hier ein Spiel der Differenzen ab. Dem Begriff der Differenzierung inskribiert Deleuze den Unterschied zwischen Differentiation – Differenz als Bestimmung der Idee oder des Virtuellen – und Differenzierung – Aktualisierung einer Idee, wobei es sich hier keineswegs um ein bloßes Verfahren des Kopierens handelt, sondern um die Verstreuung von virtuellen Singularitäten in ihrem Differenzial. (Vgl. Nancy/Scherer 2008: 44) Der Differenzierung inhäriert also die Distinktion zwischen der Virtualität (als Idee) und dem Aktuellen, das als geformte Qualitäten, Relationen und Dinge unaufhörlich weiter moduliert und transformiert, indem es gerade auch auf das Virtuelle zurückwirkt. (Ebd.: 44) Jede Aktivität, die das Neue zu erreichen versucht, setzt als ein Vermögen auf Differenz und dies geschieht als heterogene Zeitlichkeit jenseits der chronologischen Zeit, geschieht als Zäsur im je schon verschobenen Augenblick, der den sog. Flexionspunkt der Differenzierung hält, welcher die Differenz selbst ist. Schließlich hat die Differenz keine Basis als sich selbst und ist damit in und mit ihren Teilungsprozessen je schon gefährdet, d. h., es gibt Produktionen von infiniten Serien von Differenzen, von Differenzen »en bloc«, die in sich selbst differieren; es sind Differenzen, die sich wiederholen und folglich in allen Differenzen wiederkehren, aber zumindest immer ein klein wenig anders. (Ebd.: 31) Alles, was geschieht, geschieht nur ein einziges Mal, einiges bleibt sich gleich, aber nie in all seinen Zügen. Für Deleuze ist Virtualität damit nicht alles Mögliche, sondern das, was in einem spezifischen Zeit-Raum möglich ist, möglich war oder möglich sein wird. (Vgl. Zechner 2003: 103) Das Virtuelle verfügt über enorme Wirkungen im Realen und gleichzeitig erweist sich das Virtuelle gerade wegen seiner Anbindung an empirische Kausalmechanismen immer auch als Wirkung einer Wirkung und fungiert somit als eine unkörperliche Quasi-Kausalität, wobei das Virtuelle natürlich auch inaktuell bleiben kann und damit den Status einer Reserve annimmt. Mit dem Begriff der Struktur erfasst Deleuze per se problematische (symbolische) Verhältnisse, die sowohl durch die begriffliche Konstellation der ihnen zugehörigen Relationen und Plätze (ihren Differentationen in einem topologischen Raum) als auch durch ihre Aktualisierungen in Zeit und Raum »Lösungen« finden können, aber selbst wenn Lösungen in spezifische Verhältnisse eingeschrieben werden, insistieren und persistieren die Probleme weiterhin in den Lösungen. (Deleuze 1992a: 203f) Damit ist u. a. angezeigt, dass es keine universelle Diskursart gibt, welche etwa unerwartete Begegnungen, Dispersionen und Kämpfe innerhalb eines Systems zu vermeiden oder gar zu lösen vermag. Und es bleibt festzuhalten, dass Deleuze die Struktur keinesfalls in der Sprache fundiert, sondern vielmehr in der Zeit.1 Sämtliche in der Struktur inhärierten Prozesse, die in der Zeit verlaufen, sind mit den Problemen der Zeit als Zeitigung, dem virtuellen Aspekt der Zeit, verhaftet oder vernäht, sodass Deleuze hier von einer statischen Genese spricht. Und (virtuelle) Strukturen lassen sich Deleuze zufolge als komplexe, d. h., problematische, ja als heterogene und polykontexturale Systeme beschreiben, die den »ideellen« Faktor Zeit bzw. hochtemporalisierte Einheiten integrieren, oder, um es leicht verschoben mit den Begriffen der Systemtheorie zu sagen, Zeit wird hier als notwendig für Systeme verstanden, indem sie Operationen (Unterscheidung von Unterschieden) erlaubt, die Ordnungsrelationen herausbilden, sodass erst strukturelle Kopplungen koevolutionärer Systeme entstehen können. Wenn diese Operationen (Austausch von Informationen) im Rahmen einer Kopplung von Systemen, die mit anderen Systemen in ihren jeweiligen Umwelten operieren, stattfinden, dann befinden wir uns auf der Ebene der Struktur. Unter dem Gesichtspunkt des Räumlichen sind Strukturen topologisch und im Hinblick auf das Zeitliche unendlich. Im Zuge der Differenzierung von Operationen, die etwas ins Licht rücken und anderes eben nicht, lassen sich – das sieht selbst Luhmann, der aber im Rahmen der Zeitbindung in erster Linie auf die Anschlussfähigkeit der Systeme pocht – auch Potenziale erschließen und produktive Differenzen ins Werk setzen, deren Wirkungen man im Voraus ganz und gar nicht bestimmen kann, allerdings unterstehen (soziale) Systeme in der Systemtheorie dem Primat der Komplexitätsreduktion und führen dementsprechend zur dynamischen Stabilisierung von strukturell gekoppelten Systemen.

Deleuze verbindet mit dem sui generis problematischen Begriff Struktur eine differenziell-virtuelle Mannigfaltigkeit der Idee, die in einem quasi-transzendentalen Feld (von ideellen Ereignissen) statt hat und deren virtuelles und zugleich reales Differenzial im Prozess der Aktualisierung sich realisiert, und dies inmitten einer intrinsischen Zeitlichkeit, d. h., mit jeder möglichen Aktualisierung, der immer das Moment der Differenzierung inhärent ist, verschieben sich auch die differenten Relationen der Struktur selbst. (Vgl. Rölli 2003: 307) Strukturen umspannen einen transzendentalen Bereich, der von den endlichen Leistungen des Verstandes oder vom transzendentalen Subjekt gar nicht eingeholt werden kann. Es geht Deleuze mit seiner Version des transzendentalen Empirismus u. a. um die Neufassung des Verhältnisses zwischen Abstraktem und Konkretem, wobei sich die Abstraktion von vornherein nicht mit einer Art Logik der Abbildung erfassen lässt. Vielmehr zeigt sich hier für Deleuze eine vertikale Bewegung im Mathem des »Differenzials« an, dessen Gebrauch in eine Integration der in Relation gesetzten Elemente auf noch abstrakterer Ebene mündet. Für Deleuze stellt sein Denkmodell des Differenzials, das er als Alternative zur Dialektik vorschlägt, so etwas wie die Bedingung zur Formulierung eines Problems dar, insofern er darauf insistiert, dass wir in jedem Ding eine Unendlichkeit von differenziellen Relationen vorfinden, über die das Differenzial Auskunft gibt, in dem es auf die Technik eines nicht-quantitativen Kalküls verweist. In der Folge sind mit der Bestimmung des reinen Differenzials Relationen des Universellen denkbar, in denen keiner ihrer Terme als unabhängige Variablen fixierbar sind. Deleuze schreibt: »Dx ist im Verhältnis zu x völlig unbestimmt, dy im Verhältnis zu y, im Verhältnis zueinander aber sind sie vollkommen bestimmbar. Darum entspricht dem Unbestimmten als solchem ein Prinzip von Bestimmbarkeit.«2 Mit der mathematischen Figur des Differenzials ist ein Prinzip der Wechselbestimmung von dx und dy angezeigt, gewendet als (platonische) Idee einer reziproken Synthese, wobei wir aber von keinerlei reflexionslogischer Bedeutung ausgehen müssen, stattdessen fragt Deleuze an dieser Stelle immer auch nach der Genese des Prinzips im Sinne einer Produktion von Realobjekten, die schließlich bestimmbar sein müssen. Unter der Dominanz des Differenzials wird allerdings nicht in erster Linie über die Objekte, sondern über die Relationen (und Veränderungen in der Zeit) nachgedacht (dx/dt, wobei x für alles mögliche steht). Das von Deleuze selbst als statische Genese bezeichnete Strukturmodell, das den Gegensatz von Struktur und Genese über- oder verwindet, ist mit der Bezugnahme auf die kantianischen Momente der Unbestimmtheit, Bestimmbarkeit und Bestimmung vollkommen differenziert/different-siert - die Frage bleibt, ob das bis zum Ende durchgezogen wird (und ob sich tatsächlich eine grammatische Differenz zwischen den beiden Begriffen erzeugen lässt). Die (virtuellen) Differenziale, welche immer diverse strukturale Reihen und singuläre Punkte implizieren, entsprechen einem problematischen Feld, das ein virtuelles Potenzial anzeigt und die Kommunikation zwischen den heterogenen Reihen und singulären Punkten ermöglicht. (Vgl. Krause 2011: 171f.) Strukturen enthalten also vollkommen unbestimmte Elemente, sie sind als differentsierte Relationen oder reziproke Differenzialverhältnisse, die untrennbar von einem Potenzial sind, bestimmt, und sie aktualisieren sich in raumzeitlichen Verhältnissen. Wir werden später in der Diskussion des Kapitalbegriffs bei Deleuze/Guattari darauf noch zurückkommen.

Wenn Strukturen als autoreferenzielle Systeme zu verstehen sind, indem sie den ideellen Faktor Zeit integrieren, so werden sie von Deleuze zugleich als Virtualität bestimmt, wobei man vermeiden müsse, »den Elementen und Verhältnissen, die eine Struktur bilden, eine Aktualität zuzusprechen, die sie nicht besitzen, und die Realität abzusprechen, über die sie verfügen.« (Deleuze 1992a: 264) Virtuelle Strukturen insistieren Deleuze zufolge als Teile jeden Objekts, nicht nur des Erkenntnis-, sondern auch des Realobjekts, und zwar als ob »das Objekt einen seiner Teile im Virtuellen hätte und darin wie in eine objektive Dimension eingelassen wäre.« (Ebd.: 264) Und sie sind als virtuelle Relationen (was zu einer gegebenen Zeit an einem gegebenen Ort möglich war, möglich ist oder möglich sein wird) der Aktualisierung fähig, und somit stellt auch jede historische Formation eine raumzeitlich gekrümmte Aktualisierung bzw. eine unendliche Anzahl von aktuellen Arretierungen der virtuellen Struktur dar. In Marx'sche Termini übersetzt hieße dies – wie dies im Übrigen auch Adorno erkannt hat –, dass es eine Art von Selbstbewegung und Selbständigkeit des (virtuell-philosophischen) Begriffs gibt, der spezifische ökonomische Kategorien als »objektive Gedankenformen« (Marx) bearbeitet, die wiederum »Daseinsformen, Existenzbestimmungen« (Marx) des offenen Ganzen der Ökonomie in ganz spezifisch differenter Weise ausdrücken. (MEW 23: 90)

Deleuze entwickelt einen Begriff des Problems, dem die Lösungen immer schon immanent sind. Um es ganz lapidar zu formulieren: Wenn ein Problem gut formuliert bzw. konstelliert ist, so ist es nach Deleuze in der Tendenz schon gelöst. (Vgl. Deleuze 1992a: 203f.) Und zwar durch Konzepte und Begriffe gelöst, die in ihren Anordnungen, Rhythmologien und Stellungen denen des jeweiligen Problems entsprechen, aber Begriffe können auch verschiedene Probleme durchqueren, während bestimmte Probleme die Bildung von dispersiven Begriffen nach sich ziehen. Begriffe reagieren auf insistierende Probleme, und dies weniger mit Antworten, sondern eher schon mit einer begrifflichen Auseinanderfaltung der Probleme, wobei Begriffe mit ihren Komponenten, unter denen auch Fragmente anderer Begriffe sich befinden können, selbst eine Entwicklung bzw. ein Werden durchlaufen. Und auf einer Konsistenzebene, dem Umschlagsplatz der Probleme, der die Möglichkeit zur Bildung von Begriffen offeriert, treffen Begriffe auf andere Begriffe, überschneiden einander oder passen sich gegenseitig an, grenzen mit ihrer endlichen Anzahl an Komponenten an andere zusammengesetzte Begriffe an, die wiederum auf bestimmte Probleme verweisen. (Vgl. Deleuze/Guattari 1996: 24) Der durch intensive Ordinaten als fragmentarisch Ganzes zusammengeschlossene Begriff steht zu anderen Begriffen in einem Exo-Verhältnis, das sich über Brücken und Nachbarschaftszonen realisiert, und dies weniger über Sukzession und Korrespondenz, sondern über Resonanzen, die auf unendliche Verweisungszusammenhänge und Relationen zwischen den Begriffen hindeuten. Jedenfalls stellt Deleuzes Virtualitätsphilosophie eine nicht-kreationistische Konstruktion von Problemen, Begriffen und deren Relationen schlichtweg vor die Interpretation derselben. (Ebd.: 42)

Ähnlich hat dies Althusser in mehreren Passagen in der Schrift Das Kapital Lesen 1 formuliert, wenn er schreibt, dass die Produktion einer Problemkonstellation und der sie entfaltenden Begriffe als Effekt einer neuen Theorie zu verstehen sei. Diese neue Theorie entwickelt zuallererst ein Feld der theoretischen Erkenntnisse, innerhalb dessen das Problem konstruiert wird, wozu wiederum die Erfindung ganz bestimmter Begriffe notwendig ist. (Vgl. Althusser/Balibar 1972a: 102) Althusser schließt an, dass erst durch die Herstellung einer gegliederten Ordnung innerhalb einer Problematik Begriffe ihre Stellung in einem Feld, ihre Bedeutung und ihre Konsistenz beziehen, um mit der jeweiligen Problematik zu variieren. Die Problematik ist das »Gravitationszentrum, von dem die Ordnung und die verschiedenen Teile dieses Textes (Gegenstand, Sprache, Terminologie, Methode, Probleme und ihre Lösungen) ausgehen.« (Karsz 1975: 27) Für Althusser stellt schon allein der Versuch, von den Lösungen auszugehen sich insofern als ideologisch dar, als man das Problem dann genau so stellt, dass die Lösung, die man ihm geben will, mit der angeblichen wirklichen Lösung tatsächlich übereinstimmt, d. h., man konstruiert die Problematik ganz im Hinblick auf die Lösung, die aktuell von den sozioökonomischen Verhältnissen gerade gefordert wird. (Vgl. Althusser/Balibar 1972a: 68) Für Althusser wie für Deleuze resultieren dagegen die »Lösungen« aus der Konstellation der das Problem skizzierenden Begriffe, Relationen und Topologien und eben nicht umgekehrt. Die Lösung wird mit der Konfiguration der Komponenten, Parameter und der Relationen von Begriffen, die das Problem artikulieren, immanent produziert, sie unterscheidet sich aber auch vom Problem. Und wie sich die Probleme nicht ohne Weiteres in den Lösungen enthüllen, so können umgekehrt die Lösungen Probleme auch verstellen, was auf dieser Ebene schon auf die komplexen Übersetzungsverfahren von Problemen und Lösungen hinweist. Und die Produktionen von Ordnungen, Konstellationen und Übersetzungsverfahren als Problematiken bzw. die theoretischen Produktionsmittel zur Produktion von Erkenntnissen sind je schon sprachlich/schriftlich organisiert. Auch hinsichtlich der Darstellungsproblematik von ökonomischen Strukturen hat man es ständig mit neuen theoretischen Produktionen zu tun, sodass »veraltete« Produktionen schließlich keinen Platz mehr finden, wobei es zu bedenken gilt, dass man grundsätzlich die Relationen und Elemente der Strukturen in ihrem Zusammenspiel nur bruch- oder krisenhaft auszulegen vermag, i. e. das Werk als »Baustelle« (Balibar 2013: 176). Althussers Verfahren einer »wissenschaftsgeschichtlichen Rekurrenz« (Brühmann 1980: 230), auch »symptomale Lektüre« genannt, verweist in diesem Kontext darauf, dass man keinen Text einer teleologischen Denkweise unterwerfen sollte, die ihn auf ein Ziel ausrichtet. Ganz im Gegenteil sei die jeweilige Unzulänglichkeit in einem internen Vergleich des Textes mit sich selbst zu suchen, der ja immer schon von heterogenen Diskursstrukturen durchzogen sei. Deshalb kann Althusser von der Problematik als einem »begrifflichen Arbeitsinstrument der theoretischen Praxis« (ebd.: 231) schreiben, das sowohl die Objekte (Daten, Informationen, Begriffe, Ideen etc.) als auch die Produktion derselben ständig in Spannung und Offenheit hält. Und er nimmt schließlich bezüglich des jeweiligen Erkenntniseffekts in der Theorie eine Differenzierung zwischen Problematik und wissenschaftlichem Objekt vor: Während die Problematik mit ihrer jeweiligen Struktur das Feld der möglichen Gegenstände absteckt, besitzt die streng wissenschaftliche Theorie ein gegliedertes und hierarchisiertes Ganzes, das sie erst vollständig von sämtlichen Ideologien bzw. überkommenen Vorstellungen ablöst. Und die Aufgabe der Philosophie besteht gerade darin, diese Spaltung zu beschreiben, ohne jedoch selbst in die theoretische Praxis der einzelnen Wissenschaften einzugreifen. Mit ihren Operationen untersucht die Philosophie, so sieht es zumindest der Althusser der mittleren Phase, das Zusammenspiel von Problematiken, Objekten und Diskursen in den Wissenschaften, und dies eben ohne direkte Intervention. Damit zeigt sich für Althusser die epistemologische Struktur einer Wissenschaft erst vor dem Hintergrund einer Philosophie, der es gelingt die Geschichte epistemologischer Strukturen zu problematisieren, insofern die Wissenschaften tatsächlich neue theoretische Objekte hervorbringen. Dies sei bei Marx geschehen, sodass zugleich ein neuer Typus von Philosophie entstehen konnte, der mit der Vermittlung von Geist und Materie bzw. der Subjekt-Objekt-Problematik gebrochen hätte. Allerdings sei es Marx nicht gelungen, die in seiner Theorieproduktion schon untergründig wirksamen wissenschaftlichen Begriffe selbst auszuformulieren und zu entfalten, und gerade dies zu tun, erweise sich heute als die Aufgabe einer marxistischen Philosophie. (Ebd.: 244f.) Dabei hat sich die Philosophie auf keinen Fall im Sinne einer Wissenschaft der Wissenschaften als die ultimative Richterin aufzuspielen, sondern sollte neben der Konstruktion der Geschichte der Wissenschaften die interne Diskursstruktur singulärer Theorien untersuchen und damit zeigen, wie unter bestimmten Bedingungen in der Theorie selbst immanent geregelte und zu regulierende wissenschaftliche Erkenntniseffekte zustande kommen, ohne dass die Philosophie dafür einerseits transzendentale Garantien abgibt, andererseits bloße Ansammlungen historischer Theorien abliefert, mit denen das jeweilige stringente Objekt der Theorie sich nicht erfassen lässt. Der Erkenntniseffekt der philosophischen Analyse bestünde demnach in der Deskription des spezifischen Erkenntniseffekts einer regionalen Wissenschaft mit ihren Axiomen, Hypothesen, schlüssigen Argumentationslinien, kategorialen Prägnanzen, Methoden, experimentellen Apparaten, empirischen Operationalisierbarkeiten, politischen Relevanzen und Problematiken, d. h., all den Diskursivitäten einer Theorie, die anzeigen, »wie ein Wort zum Begriff, ein Begriffssystem zur Problematik und eine theoretische Montage zur Erkenntnis wird«. (Ebd.: 251) Die Theorie hat sich den pragmatisch zu bestimmenden Begründungskriterien zu stellen, ohne eine Letztbegründung zu initiieren. Gleichzeitig sollte die Philosophie ihre Beziehung zur Nicht-Philosophie insofern in Betracht ziehen, als sie selbst von den ökonomischen, politischen und sozialen Bedingungen, die auf sie einwirken und auf die sie einwirkt, nicht zu trennen ist. Deshalb gilt es hier dreierlei zu beachten: a) Die Struktur einer singulären Wissenschaft wäre zu untersuchen, die Eröffnung neuer Problematiken, Begriffsfelder, Methode, Instrumente und Objekte; b) das wissenschaftliche Umfeld wäre abzustecken, das einen theoretischen Bruch beeinflusst hat und von ihm beeinflusst wird; c) es wären die historischen sozio-ökonomischen Verhältnisse selbst in den Blick zu nehmen, in denen die jeweiligen Wissenschaften und ihre Institutionen arbeiten. Obgleich die Philosophie ständig neue Begriffe und Theorien aus den Wissenschaften zieht, in spezifischer Weise absorbiert und darauf folgend immer neue »Objekte« konstruiert, besitzt sie selbst nicht dieselben Objekte wie die Wissenschaften. Und als Philosophie, die den Gestus der traditionellen Philosophie, in letzter Instanz auf die Dualismen von Geist und Materie und/oder Subjekt und Objekt zu rekurrieren, zurückweist, kann sie nur eine »nicht-philosophische Theorie der Philosophie« sein, wie Althusser selbst schreibt, und damit legt er tatsächlich eine Lunte an Laruelles Konzeption der Nicht-Philosophie.

Kommen wir nun zu Deleuze zurück. Wir hatten gesehen, dass man Deleuze zufolge die Genesis der Lösungen als einen differenziellen Prozess der Aktualisierung von (virtuellen) Problemen auffassen sollte. (Vgl. Deleuze 1992a: 228f.) Deleuze befürwortet hier ein Element des Ideellen, das er das »Problematische« nennt, wobei spezifische Lösungen sich nicht anschauen oder ableiten, sondern eben nur aktualisieren lassen, und zwar so, dass das Problem in den Lösungen, die Konzepte oder Begriffe sind, insistiert. Dabei steht das Problem stets in Differenz zu den Lösungen; es ist zugleich immanent in den Lösungen und transzendent in Bezug auf die Lösungen. Auf keinen Fall darf sich jedoch das Problematische als eine fehlende Lösung, bspw. als ein Mangel an Wissen erweisen, den eine Lösung u. U. beseitigen könnte. Das Problem an seiner Lösbarkeit als ein Kriterium für seine Richtigkeit zu orientieren, hieße, jenes seiner produktiven Kraft zu berauben, die sich erst dann voll entfaltet, wenn ein gut gestelltes Problem (es gibt auch schlecht gestellte Probleme) sozusagen seine abstrakteste »Fassung« erreicht hat, wenn das Reale selbst (hier unterschieden vom Realen eines Laruelle) als eine kontinuierliche Streuung bzw. Dissemination von (unpersönlichen, ungegenständlichen) Singularitäten aufscheint, nämlich als Inflexion, die schließlich selbst noch die Unterscheidung von Element und Relation überflüssig macht, insofern das produzierte Objekt vor allem die Relationen selbst ist, die es als Fluktuation, Disparität und divergente Wiederholung durchqueren. (Vgl. Deleuze 1995: 30) Schließlich fasst Deleuze zusammen: »Ein Objekt außerhalb der Erfahrung kann nur in problematischer Form repräsentiert werden; was nicht heißt, dass die Idee kein reales Objekt besitzt, sondern dass das Problem als Problem das reale Objekt der Idee ist.« (Deleuze 1992a: 218) Das Vermögen, das dem Denken innewohnt, sollte sich stets auf reale/objektive Probleme beziehen, indem es zugleich die Erfahrungen auf ihre wirklichen und nicht auf ihre möglichen Bedingungen untersucht und überschreitet. Richtig gestellte Probleme verdanken sich einer spezifischen Konstellation von Begriffen mit ihren jeweiligen Komponenten, Begriffe, die in ihrem Werden wiederum auf andere Begriffe verweisen, wobei sich sämtliche Begriffe auf einer (vorphilosophischen) Ebene verteilen, die Deleuze/Guattari als Konsistenz- oder Immanenzebene bezeichnen, die neben den Begriffen das ihnen korrelierende Diagramm mit seinen jeweiligen Kräften enthält, seien es zentrifugale oder zentripetale Kräfte. Wir haben es also mit dem Problematischen der Idee zu tun, dessen Formalisierungen für Deleuze zunächst nichts anderes sind als Bewerber, die sich in eine evolutionäre Genealogie einschreiben wollen. Genauer gesagt Bewerber als Simulakren, die vorerst noch in einem reinen Status und damit ohne jede Originalität bleiben, wobei sich Spezifizierung aus der Evaluation von Möglichkeiten zur Integration eines Simulakrums, eines Bewerbers in eine der vielen Serien ergibt, aus denen vielfach die heterogenen Gefüge hergestellt werden. (Vgl. Deleuze 1993a: 311f.) Diese Umkehrung des Platonismus zielt auf die Beschreibung eines Simulakrums, das mittels des mathematischen Differenzials kalkuliert werden kann. Die Frage, die Laruelle an dieser Stelle an Deleuze stellt, ist genau diejenige, wie man einen apriorischen und transzendentalen Begriff der Differenz zu entwickeln vermag, der zugleich genetisch und real ist, ohne sich in den Topos der Idee einzuschreiben. (Vgl. Laruelle 2013c: 200) Die Virtualität der Struktur müsste somit von ihrer Idealität ablassen. Für Laruelle handelt es beim philosophischen Konzept von Deleuze immer noch um das Problem eines kontinuierlichen Ideell-Werdens des Realen, während umgekehrt doch ein dispersives Real-Werden der Idealität zu denken wäre, und dies im Zuge der Herstellung von materiellen Äußerungen. (Ebd.: 203)

Wie sind nun die Relationen zwischen den bei Deleuze tragenden Begriffen wie Struktur, Kontingenz, Potenz, Mannigfaltigkeit, Virtualität und Aktualisierung zu verstehen? Für Deleuze zeigt sich Kontingenz als das Sein in Potenz, welches das Sein des Problematischen selbst ist, das als ein unentbehrliche Waffe für all das dient, was je aktuell geschieht. Dabei produziert Kontingenz als »Sinnlosigkeit an sich« einerseits zu viel des Sinns im Realen in Form von überschüssigen Signifikaten und andererseits ein Zuwenig an Sinn, insofern beständig Brüche, Lücken und Poren in den Signifikantenketten auftreten, die wiederum ein Zuviel des Imaginären andeuten. Infolgedessen verweist Kontingenz auf einen die symbolischen Strukturen auszeichnenden Zufallspunkt, der Reales und Imaginäres aufeinander stoßen lässt, und gerade in dieser Eigenschaft deutet Kontingenz das virtuelle (symbolische) Objekt an. (Vgl. Deleuze 1992b: 37ff.)

Dabei unterscheidet Deleuze exakt drei Register der Wirklichkeit: 1) Aktualität – ein Register der Extension = 1; markiert durch eine infinite Komprehension. 2) Potenzialität – ein Register der Extension = ∞; markiert durch finite Komprehension (die diskreten Entitäten sind das Subjekt für probabilistische Verteilungen oder Kontingenz). 3) Virtualität: ein Register der In-Extension; markiert durch indefinite Komprehension. Zur Verdeutlichung könnte man an dieser Stelle das Problem der Instantaneität anführen, eines paradoxalen Werden als Überlappung einer realen Virtualität mit einer Aktualität, wie dies z. B. beim Zusammentreffen zweier Objekte an der Grenze oder im Instantanen geschieht. z. B. lässt sich beim Entzünden von Holz durch ein brennendes Streichholz das Feuer als virtuell und das Holz als aktuell verstehen. Wenn man nun nicht von einer Gleichzeitigkeit des Virtuellen und Aktuellen, aber auch nicht von einem zeitlichen Übergang vom Virtuellen zum Aktuellen ausgehen darf, weil u. a. jeder Übergang nur aktuell sein kann (sodass er von der Virtualität nichts übrig lässt), während Deleuze doch von einem Objekt ausgeht, bei dem der eine Teil virtuell und der andere Teil aktuell ist, dann können wir es schließlich nur mit dem Objekt als Symbol zu tun haben: das Objekt X, das an seinem Platz fehlt und damit je schon verschoben ist. (Vgl. Deleuze 1992a: 138) Dieses der Theorie Lacans entlehnte Symbol trägt schwach signifikative Namen, die Deleuze zufolge (virtuelle) Zeit im Reinzustand dokumentieren; und es enthält Potenziale, mögliche Welten, die die vollkommene Kontingenz zumindest andeuten. Kontingenz in seiner strukturalen Form ist daher an das virtuelle Objekt, i. e. Symbol gebunden, das nie zu einer Identität findet bzw. immer nur anders sein kann. Kontingenz »bedingt« in dieser strukturalen Logik auch die virtuelle Struktur, insofern sie das leere Feld anzeigt, ein virtuelles Potenzial, das die heterogenen Serien von Signifikant und Signifikat unaufhörlich miteinander kommuninizieren lässt. Es handelt sich hier immer um mindestens zwei Serien, die sich nicht durch sich selbst erklären, sondern füreinander durch das paradoxale, dass je schon verschobene Objekt X bestimmt werden, das zwischen beiden Serien zirkuliert, indem es in der einen Serie fehlt und in der anderen überschüssig ist – ein in sich selbst verschobener flottierender Siginifikant, der doch kein echtes Zeichen ist. (Vgl. Deleuze 1992b: 41f.) Hier wäre an Deleuze die Frage zu richten, ob man die Begriffe Objekt X und »leeres Feld« wirklich synonym setzen kann. Jedenfalls bilden Strukturen ein ideelles Reservoir, worin alles in virtueller Gleichzeitigkeit existiert. Und die Struktur freizulegen, bedeutet für Deleuze im Kontext des Strukturalismus »eine Koexistenz der Virtualität zu bestimmen«, die vor den Qualitäten und Termen des jeweils aktualisierten Bereichs existiert. Und wenn jede Struktur eine »Vielzahl von virtueller Koexistenz« (ebd.: 27) ist, so wäre die Virtualität als der Nicht-Modus der Struktur zu verstehen, die sich in einander ausschließende Richtungen zu aktualisieren hat, und es finden immer nur vorübergehende Fixierungen statt, wenn die virtuellen Elemente sich zumindest in zwei Serien organisieren, und dies als arbiträre Verkettung der Ströme von Signifikanten und Signifikate. Und entscheidend für diese Version der strukturalen Theorie bleibt eine Instanz, die eine vorübergehende Verkettung der Serien gewährleistet und zugleich das Zusammenfallen der Serien verhindert, i. e. das bedeutungserzeugende, paradoxe Objekt X, das an seinem Platz fehlt, es symbolisiert einen Nicht-Ort, einen leeren Raum oder einen symbolischen Nullwert, der Virtualisierungen freisetzt, Ordnungen in potenzialis, indem es die beiden Serien durch seine eigene Verschiebung miteinander in Resonanz versetzt. An seinem Platz zu fehlen heißt, in der Verschiebung zu sich selbst in der einen Serie im Überfluss vorhanden zu sein (als leeres Feld) und zugleich in der anderen Serie zu fehlen (als überzählig), womit das paradoxe Objekt X beiden Serien angehört als auch zu keiner der beiden Serien.

Wir wollen an dieser Stelle noch kurz auf den Versuch eingehen, Deleuzes Konzept an die Darstellung einer relationalen Ontologie zu binden, wie dies etwa von Manuel De Landa vorgeführt wird. (De Landa 2006, 2010) Wenn man die Anwesenheit von Objekten nicht ausschließlich mit deren aktueller Präsenz identifiziert, und dies auch unabhängig davon, ob sie von Subjekten perzipiert werden oder nicht, dann haben wir es stets mit singulären Objekten zu tun, die Potenzen und Kräfte in sich tragen, wobei man die Objekte durchaus als Maschinen zu verstehen hat, die mit ihren Potenzen/Kräften alle möglichen verschiedenen Phasen und Nuancen der Differenzierung im Radius ihrer sie strukturierenden Attraktoren und Vektoren zu durchlaufen vermögen. Und wenn man Substanzen als verschieden mögliche Nuancen sowie Differenzierungen ihrer eigenen Trajektoren durch die Attraktoren eines Systems (Attraktoren sind real, aber nicht aktuell; sie besitzen je schon eine virtuelle Dimension) auffasst, dann wäre Substanzialität von Objekten oder Maschinen nicht als bloßes Substratum zu verstehen, vielmehr drückt sie sich in mannigfaltigen Systemen, den Modi und der Organisation der (aktiven und passiven) Kräfte, der Objekte und Maschinen des Systems aus. Dabei sollte man Deleuze keineswegs als Emergenztheoretiker einstufen, weil all das, was wir als Resultat einer Emergenz des Substrats verstehen, durch genau so viele andere Dinge und differenzielle Relationen wie durch das Substrat selbst konditioniert werden kann. In diesem Kontext inkludieren Kräfte die Potenzialität von Objekten/Maschinen, die tun, was sie tun können, aber jene müssen sich nicht unmittelbar in der Welt manifestieren, sodass sie je schon komplexer (und vollständig) im Vergleich zu den verschiedenen (unvollständigen) Aktualisierungen sind. De Landa schreibt in seinem Buch Deleuze: History and Science Folgendes: »In other words, unlike trajectories representing possible histories that may or may not be actualized, attractors can never be actualized since no point of a trajectory can ever reach them. Despite their lack of actuality attractors are nevertheless real since they have definite effects. In particular, they confer on trajectories a strong form of stability, called asymptotic stabilityIt is in this sense that singularities represent only the long term tendencies of a system but never a possible state. Thus, it seems, that we need a new form of physical modality, distinct from possibility and necessity, to account for this double status of singularities: real in their effects but incapable of ever being actual. This is what the notion of virtuality is supposed to achieve.« (De Landa 2010: 150) Wir haben es hier mit einem an die Potenz gekoppelten Determinismus zu tun, der sich weigert, Virtualität mit Indeterminismus gleichzusetzen, insofern (virtuelle) Singularitäten reale Effekte zeitigen, ohne selbst den Status der Aktualität zu erlangen, wie dies auch bei den Attraktoren der Fall ist, die die Trajektoren eines Systems stabilisieren. De Landa geht davon aus, dass Deleuze für seine Theorie der Virtualität eine Reihe von Anleihen bei der Theorie der Strukturen dynamischer Systeme nimmt, einem Tool, das die Wissenschaften nutzen, um Informationen über die Tendenzen eines individuellen Systems ausgehend von ihren aktuellen Zuständen zu gewinnen. Dabei konzentriert man sich zunächst auf ein Diagramm der aktuellen Historie eines Systems und lässt dieses in der Zeitdimension kollabieren. Man verfügt heute über eine Reihe von komplexen Mathematiken, um schließlich relevante Informationen darüber zu erhalten, wie die verschiedenen Variablen, die die Dimensionen des Systems repräsentieren, in der Tendenz miteinander interagieren, indem in verschiedenen Prozessen nach und nach die irrelevanten Informationen, die die aktuellen Interaktionen mit ihren einzelnen Fällen betreffen, eliminiert werden. Dies lässt sich am Beispiel des Pendels kurz erläutern. (Vgl. De Landa 2005: 14) Hier unterscheidet De Landa zwischen den Zeiträumen und den Kräften eines Objekts, wobei ein Zeitraum eine Menge von Punkten darstellt, die durch eine Serie von Variationen aufgefüllt wird, aber es treten niemals alle Punkte zur gleichen Zeit auf (Pendel). Zugleich könnte man Kräfte als diejenigen Punkte deuten, die ein Objekt zu einem gegebenen Zeitraum aktualisiert. Das Pendel impliziert nun eine Fläche, die eine Dimension weniger als ein Graph oder eine Funktion (Wellenfunktion mit Ortsvektor gleich Amplitude, Wellenvektor und Kreisfrequenz) besitzt, und deren Krümmung nichtsdestotrotz die Tendenzen des Systems in Form der differenziellen Relationen zwischen den verschiedenen Variablen beschreibt. Die topologisch signifikanten Features der virtuellen Fläche nennt man Attraktoren (real, aber inaktuell), die sehr oft als Trajektoren, i.e. Linien oder Punkte auf der abgeflachten Version der Fläche aufgezeichnet werden, um die wichtigsten Tendenzen des Systems in ein simplifiziertes Format zu bringen. Der entscheidende Punkt besteht nun darin, dass die virtuelle Fläche niemals gleich der aktuellen Fläche ist, welche die virtuelle Fläche in der realen Zeit durchquert. Wenn man eine universelle Idee als ein Set von qualitativen und quantitativen Dimensionen setzt, die für Darstellung der modalen Features des Typus eines gegebenen Systems relevant sind und man diese Features als real zu begreifen hat, dann wäre die universelle Idee in der Tat gleich einer virtuellen Fläche, die von Punkten und Linien bevölkert wird, welche den individuellen Instanzen auf der abgeflachten Version der Fläche des jeweiligen Typus des Systems korrespondieren. Deleuze nennt jene Punkte Nomaden, da sie den Raum im differenziellen Modus durchqueren, wobei sie von denjenigen Tendenzen geleitet werden, die in den Dimensionen und Wellenbewegungen der virtuellen Fläche (Graph oder Funktion) kodiert sind. Wenn man jetzt die zeitliche Dimension einführt, dann sind die Linien und Punkte als Aufzeichnungen der aktuellen Trajektoren des Graphen zu betrachten, von dem man das dynamische Modell des Virtuellen bezieht. Diese Formalisierung stellt die Grundlage der immanenten Aktualisierung der Virtualität dar. Dabei sind die Ideen als abstrakte Universalien unfähig ihre spezifischen Instanzen zu individuieren. Das wird spätestens dann klar, wenn man sich vor Augen führt, dass jegliche Anzahl von Nomaden dieselbe Position auf der virtuellen Fläche at once bevölkern könnte. Obwohl ihre Position auf der Fläche wichtige Informationen über ihr aktuelles Stadium enthält, müssen diese Informationen andauernd supplementiert werden, um schließlich die Nomaden komplett zu individuieren. Und die Informationen, die notwendig sind, um ein abstraktes Universal in ein konkretes Universal zu transformieren, das zur vollständigen Individuation fähig ist, können hier nur räumliche Informationen sein. Man muss also extensive Dimensionen zur Idee hinzufügen, um Informationen über die räumlichen Relationen zwischen den verschiedenen Instanzen und den Bewegungen der Nomaden zu gewinnen, d. h., es gilt, die disparaten Sets von Punkten, die die virtuellen Fläche durchqueren, in eine aktuelle Fläche zu verschieben. Die Art und Weise wie die aktuelle Fläche sich mit ihrer Durchquerung der höher dimensionierten virtuellen Fläche krümmt, kodiert die relevanten Informationen über die räumlichen Relationen zwischen den Punkten, die sie komponieren. Und dies hat den Effekt, dass jedes singuläre Individuum seine eigene Idee besitzt, die seine modalen Features kodiert, insofern diese eine Region des konkreten Universals sind. Aber das Bild der verschiedenen disparaten Ideen reicht nicht aus, um ihr Zusammenspiel auf einer einzigen Immanenzebene zu erklären, die einen intensiven Raum eröffnet. Deshalb muss den verschiedenen Räumen eine ihnen adäquate einheitliche Zeit korrespondieren, d. h., die realen modalen Features können nur im Kontext des Kollapses der Zeitdimension gedacht werden. Dabei wird Zeit in kontinuierlichen, jedoch zugleich erratischen Bewegungen der aktuellen Fläche auf der virtuellen Fläche aufgespult. Und was in dynamischen Systemen alle Räume zu Teilen einer einzigen Welt oder zu Perspektiven derselben immanenten informatorischen Fläche macht, liegt einfach darin, dass sie dieselbe Spule der Zeit oder die Zeitigung der Zeit (Gleichzeitigkeit) teilen. Dies nennt Deleuze die pure und leere Form der Zeit, i.e. Äon oder die ewige Wiederkehr. (Vgl. Deleuze 1993a: 207) Im Kontext von dynamischen Systemen stellt Deleuze stets den Bezug zu Heteronomien her. Er erwähnt die Produktion des wirklich Neuen, während die Systemtheorie an dieser Stelle von Autopoiesis spricht, wobei es ihr nicht nur um eine in der Zeit identische Struktur geht, sondern um je dieselbe Reproduktion in der Relation von System und Umwelt. Systeme sind zeitbasierte Verkettungen spezifischer Ereignisse und ihrer Komponenten, die vom System selbst produziert werden, womit das System kein Ereignis außerhalb seiner selbst kennt, wenn es denn als autopoietisches System funktioniert, vollständig gleitend. (Vgl. Fuchs 2001: 84) Peter Fuchs spricht hier von Tauto-poiesis (ebd.: 109).

Hinsichtlich des Strukturbegriffs bei Deleuze wäre vor allem das Moment der Idealität der Struktur und ihre Präexistenz gegenüber jedweden Aktualisierungen zu problematisieren, obgleich diesen ja auch eine Wirksamkeit zugestanden wird. Insofern Deleuze die Problematik von Virtualität und Aktualisierung vom Objekt bzw. Bild her denkt, hat er die anstehenden Fragen mit der Konzeption des Kristallbildes in seinem Buch Das Zeit-Bild selbst schon aufgeworfen. (Deleuze 1991: 95f.) Für Deleuze bleibt beim sog. Kristallbild der Unterschied zwischen einem aktuellen und virtuellen Bild zwar de jure bestehen, aber de facto findet ein kontinuierlicher Austausch zwischen aktuellem und virtuellem Bild statt, sodass die Differenz der Kategorien Virtualität und Aktualität offen gehalten wird und in eine phänomenologische Ununterscheidbarkeitszone fällt, die Deleuze interessanterweise »objektive Illusion« nennt. Insofern ist das Kristallbild ein Simultanbild von Vorder- und Rückseite, ein Bild, das umkehrbar ist, wobei es von der jeweiligen Beobachterperspektive abhängt, was denn nun als aktuelles oder als virtuelles Bild erscheint. Mit dem Kristallbild wird im Zuge der Gleichzeitigkeit eine Lücke geschlossen, insofern virtuelles und aktuelles Bild koexistieren, und dies lässt sich wiederum nur nach räumlichen, nicht aber nach zeitlichen Gesichtspunkten festhalten. Zugleich ist Deleuze zufolge immer die Begrenztheit des aktuellen Bildes und die Potenz des virtuellen Bildes zu bedenken. Und schließlich ist diese Zweiheit wiederum Dreiheit, weil aktuelles und virtuelles Bild je schon gerissen bzw. durch eine undarstellbare und unsichtbare Grenze getrennt sind, die sich allerdings auch körperlich manifestieren kann. Es muss also de facto von Simultaneität ausgegangen werden, die im Kristallbild eine adäquate Darstellung findet, aber es bleibt die Frage, ob diese Konzeption einer Bildrelation schließlich hinreicht, um den Komplexionsgrad der Relation von Virtualität und Aktualisierung wirklich entfalten zu können. Hat Laruelle bezüglich seiner nicht-philosophischen Fragestellungen sich immer stärker der Quantentheorie und infolgedessen der Figur der Überblendung zugewandt, so könnte man mit Mirjam Schaub Deleuzes Konzept des Virtuellen in Analogie zur Superstringtheorie dahingehend zuspitzen, dass das Virtuelle so etwas wie einen »schwingenden Resonanzboden der aktuellen Ereignisse« bildet, der die Macht/Potenz besitzt zu totalisieren, ohne jedoch Identität oder Einheit herstellen zu müssen. (Vgl. Schaub 2003: 170) Und die immerwährende Spaltung der Zeit wäre mit der stetigen Gründung der Zeit oder der Zeitigung der Zeit (Virtualität) in ein Verhältnis zu setzen. Die Frage ist nun gerade die, ob wir es hier mit dem Virtuellen als einem Sein oder einem (Seins-)Modus zu tun haben und/oder mit der Zeit als einem metaphysischen Prinzip (Zeit als universeller Wandel), dem die Potenz zu vereinigen eigen ist, indem es die Ereignisse spaltet. Oder, um es anders zu sagen, alles, was geschieht, ist im Verhältnis zu sich selbst je schon verschoben und dies als Effekt der Zeitigung der Zeit (universeller Wandel), wobei man an dieser Stelle der Potenz durchaus auch den Kontext der Determination zuschreiben kann. Virtualität inkludiert dann etwa die Potenz oder Macht zur Machbarkeit oder Verteilbarkeit, wobei dies als die inkonsistente Ausfüllung eines Intervalls geschieht, das zwischen dem, was unter bestimmten Bedingungen möglich ist, und dem, was tatsächlich realisiert wird, aufgespannt bleibt.

Noch eine kurze Bemerkung zu Deleuzes Konzept der kontinuierlich-divergenten Mannigfaltigkeiten, das wir im Abschnitt »Deleuze und das synthetische Wertpapier« noch etwas ausführlicher diskutieren werden. Diese qualitativen Mannigfaltigkeiten sind mit einer (unkörperlichen) Quasi-Kausalität ausgestattet. Quasi, weil sie trotz ihrer Virtualisierungspotenz zugleich von irgendwelchen aktuellen Kausalmechanismen abhängig bleiben, wenn sie miteinander in Relation treten und sich dann je schon um den Preis einer Wesensveränderung beeinflussen und intern teilen. Es gibt bei Deleuze somit keine Relation des Multiplen zur Eins, sondern immer nur die Relation des molekularen Multiplen und des Eins-Alles. Und mit Laruelle wären Deleuzes kontinuierliche Mannigfaltigkeiten weiter zu verschieben, und zwar in Richtung eines begrifflichen Konzepts, das von transzendental-apriorischen, aber zugleich wirklichen, dispersiven Mannigfaltigkeiten ausgeht, und damit eben gerade nicht von ideellen Mannigfaltigkeiten, wie wir dies z. B. auch bei Badiou noch vorfinden.3 Bei Laruelle ist das Multiple nicht selbst multipel, behauptet nicht sich selbst, wobei das Faktum, dass es kein Multiples des Multiplen gibt, nicht heißt, dass das Multiple selbst eine metaphysische Entität formt, vielmehr determiniert das Eine in der letzten Instanz das Multiple als solches oder in seiner Identität.

Die Fragen, die sich nun hinsichtlich des von Deleuze vorgeschlagenen Konzepts des Virtuellen bzw. des Problems stellen lassen, sind u. a. folgende: Besitzt das Problem wirklich eine eigenständige Realität, wenn es durch Lösungen erkannt wird? Und wenn Lösungen, die ja auch immer real sind, stattfinden, ist dann das virtuelle Problem nicht längst ins Aktuelle übergegangen? Wenn nun das Virtuelle volle Realität besitzt, wobei sich mit jeder Aktualisierung seine Konstellationen verändern, dann lässt sich das Virtuelle nicht als eigenständiger ontologischer Bereich vorstellen, dem eine virtuelle Präexistenz mit einem Sinn-Überschuss an Verkettungspotenzialen zukommt, denn, indem es sich differenziert, gefährdet es stets seine eigene Univozität. Hier taucht sofort das Problem der Zeit als eine »Instanz« des Virtuellen auf, indem Zeit, die ja selbst reine Asignifikanz ist, sich in Dimensionen zeitigt, gemäß dessen, was die Differenz zwischen Sein/Aktuellem und Zeichen ausdifferenziert. Dabei sollte man das Problematische der Zeit immer auch als die Frage nach der Gleichzeitigkeit auffassen, wenn man denn bereit ist, eine einzige Zeit zu unterstellen, selbst wenn sie an verschiedensten Orten und Räumen gemessen wird. Das Problem mit der Zeit spult sich genau daran auf, dass mit der Kategorie der Gleichzeitigkeit die Zeit gleichzeitig als Sukzession gedacht werden soll, sodass die Gleichzeitigkeit, mit der im gleichen Atemzug die Zeit auseinandergelegt bzw. deren ständiges Vorübergehen thematisiert wird, scheinbar in keiner Zeit mehr einen Platz hat, womit die Gleichzeitigkeit das Unmögliche der Zeit selbst ist, aber auch die Möglichkeit zur begrifflichen Erfassung der Zeit in sich enthält. (Vgl. Nozsicska 2009: 291) Alfred Nozsicska, an dessen Schrift Die Zeichen, der Automat und die Freiheit des Subjekts die Argumentation sich jetzt orientiert, schreibt zur Kategorie der Gleichzeitigkeit Folgendes: »Die Gleichzeitigkeit als der einigende Ort in der Zeit, der die Zeit gleichzeitig auseinander dividiert.« (Ebd.: 291) Dies könnte man wiederum auf die Schreibweisen der Zeit bei Heidegger beziehen: »Was zeitigt die Zeit? Antwort: Das Gleich-Zeitige, d. h., das auf dieselbe einige Weise in ihr Aufgehende [...] das Gleich-Zeitige der Zeit sind: die Gewesenheit, die Anwesenheit und die Gegen-Wart, die uns entgegenwartet und sonst die Zukunft heißt. Zeitigend entrückt uns die Zeit zumal in ihr dreifältig Gleich-Zeitiges, entrückt dahin, indem sie und das dabei Sichöffnende des Gleich-Zeitigen, die Einigkeit von Gewesen, Anwesen, Gegen-Wart zubringt. Entrückend-zubringend be-wegt sie das, was das Gleich-Zeitige ihr einräumt: den Zeit-Raum. Die Zeit selbst im Ganzen bewegt sich nicht, ruht still.« (Heidegger 1959: 213) Damit wird in erster Linie die dem rechnenden Denken eigene parametrische oder gemessene Zeit, die Uhrzeit, der Gleichzeitigkeit oder der Nullzeit, der Stasis subsumiert.

Simultaneität wäre dann wohl als die Unbewegtheit der Zeit selbst zu verstehen, wobei die verschiedendsten Zeiten sich ereignen können, ohne dass Gleichzeitigkeit je sich auflöste. Und Zeit als universelle Form des Wandels wäre in ihrer Reinform Virtualität, die in all ihren Aktualisierungen Virtualität bliebe, ein Paradox, welches das Problematische der Virtualität selbst anzeigt. Es müssten nämlich Virtuelles und Aktuelles, zumindest als Teil eines virtuellen Objekts – Symbol – gleichzeitig sein, ohne dass sie zugleich existent wären, weil man in der Zeit nicht vom Virtuellen zum Aktuellen übergehen kann, sondern nur vom Aktuellen zum Aktuellen; andererseits wäre diese Gleichzeitigkeit als problematisch anzusehen, weil man eine exteriore Position für diese Erkenntnis einnehmen müsste, und es müssten dann Aktuelles und Virtuelles im Objekt gleichzeitig existent sein. (Vgl. Nozsicska 2009: 293) Badiou schreibt in seinem Deleuze-Buch Der Schrei des Seins, dass für Deleuze das Sein des Virtuellen Aktualisierung sei, während die Aktualisierung der Vollzug des Virtuellen sei, woraus dann wiederum zu folgern wäre, dass Sein und Aktualisierung in irgendeiner Art von Gleichzeitigkeit zusammenfallen würden. An dieser Stelle schließt Deleuze die gesamte Problematik um die Gleichzeitigkeit tatsächlich an die des virtuellen Objekts bzw. Symbols an, insofern Simultaneität sich darin zu repräsentieren hat. Wenn die Zeit selbst paradoxal aufzufassen ist, insofern das Sein-als-Sein (Virtualität) problematisiert wird, dann können Virtualität und Aktualisierung de jure aber nicht zusammenfallen. Jedoch gibt es auch keinen zeitlichen Übergang zu vermelden, insofern dieser (weil jeder Übergang ja nur aktuell sein kann) das Virtuelle auch auslöschen würde. Wir stehen hier vor dem Problem, dass man einerseits im Denken der Zeit auf den Begriff der Gleichzeitigkeit als Zeitigung der Zeit (Virtualität) nicht verzichten sollte, andererseits lässt sich die Gleichzeitigkeit nur dann erfassen, wenn man bedenkt, dass man je schon auf der Seite des Aktuellen ist. Für Deleuze liegt hier die Antwort tatsächlich im virtuellen Objekt, das er vom Bild her denkt: Es gibt das Objekt mit seinem virtuellen und aktuellen Teil, aber es gibt keinen Übergang vom Virtuellen zum Aktuellen. Und dies lässt sich nur vom Symbol her schreiben, das an seinem Platz fehlt. Wie in Lacans Interpretation des entwendeten Briefes bei Edgar Allen Poe repräsentiert das virtuelle Objekt X als stets verschobenes Fragment eine reine Vergangenheit, die nie gegenwärtig war (Deleuze 1992a: 138). Wenn das Objekt X die Relationalität der (seriellen) Struktur garantiert, wobei es in den Serien der Signifikanten und Signifkate anwesend ist, indem es in den Serien sowohl fehlt als auch überzählig ist, dann kann es selbst nicht relational sein, und wenn, dann nur im Verhältnis zu sich selbst. Es ist für Deleuze der nicht-relationale Ort, der aber stets zu sich selbst verschoben bleibt, es gilt als die absolute Verteilungsinstanz der Objekte und ihrer Relationen und es zeigt das Ganze der Strukur aus deren Innenansicht an.

Die Problematik der Virtualisierung (anwesend-abwesend) führt zur Quintessenz der Zeit als Zeitigung der Zeit (Virtualität), die je schon in Beziehung zur Verzeitlichung (Aktualisierung) zu sehen ist. Es kann vom Virtuellen zum Aktuellen keinen identisch gehaltenen Übergang, sondern nur so etwas wie einen Zeitsprung geben. (Nozsicska 2009: 294) Wie die Zeit eine Gleichzeitigkeit als Zeitigung der Zeit mit sich impliziert, so sind sog. Zeitpunkte nur identisch, indem sie geteilte Zeitpunkte sind. Das Zugleich ist nur zugleich, indem es sich in Kontexten verzeitlicht und verräumlicht, womit jede Gleichzeitigkeit unmittelbar einen Raum eröffnet, und zwar als Verräumlichung der Zeit. Und damit stehen wir je schon vor der Singularität von Relationen, die durch Zeichen und Technologien zustande kommen. Dabei wiederholt Zeichen/Technik nicht etwas Gegebenes, sondern Zeichen/Technik wiederholt sich selbst als Wiederholung des Zugleich (Virtualisierung), und dies ist untrennbar von den Einschnitten und vom Geteilten der Zeit. Virtualisierung qua Zeichen/Technik ereignet sich, indem aus Einschnitten hervorgeht, was als Teilung sich aktualisiert. Zugleich inhäriert Virtualisierung inhäriert die Wiederholung als Iteration von offenen Zeiträumen, deren Einschnitte keine letzte Grenze besitzen, sondern die als letzte Grenze selbst am Mehr des Offenen partizipiert. Wenn nun das Zeichen eine Struktur der Verzeitlichung in das Objekt einführt, indem es dieses virtualisiert, so muss das Zeichen vom Objekt getrennt sein, wobei der sog. virtuelle Part, d. h., die Virtualisierungskapazität des Symbols/Zeichens, die Zeitigung der Zeit bzw. den Sprung zeitigt, während wir es gleichzeitig je bloß mit Aktuellem zu tun haben. Zeichen ist also das, was aus dem Objekt herausspringt, indem es das Objekt virtualisiert. (Ebd.: 294f.) Und Virtualisierung markiert den Sprung des Zeichens. Dabei bleibt das Zeichen dem offenen Raum ausgesetzt. Aktualisierung wird wiederum begleitet von Zeichen, ohne dass die Zeit je etwas Zeichenhaftes an sich haben könnte. Zeit ist mit ihrer Virtualisierungskapazität de jure asignifikativ, während Zeichen nicht virtuell sein können, vielmehr virtualisieren die Zeichen das, aus dem sie hervorgehen, und das ist je schon Aktuelles. Und gerade dadurch stellen Zeichen neue Aktualitätswerte her. (Peirce definiert das Zeichen als ein »Objekt« (Repräsentamen), das ein Anderes veranlasst, sich zu einem Zeichenobjekt (Bezeichnetes) zu verhalten, wie dieses »Objekt« selbst sich zu diesem Zeichenobjekt verhält. Das Andere ist im Verhältnis zu diesem »Objekt« ein »Interpretant«. Durch die Veranlassung wird der Interpretant selbst zum Zeichen, und dies vollzieht sich ohne Ende, was heißt, dass die triadische Struktur kontingent bleibt: Repräsentamen, Zeichenobjekt und Interpretant zeigen sich als Spielregeln im Feldern von unabschließbaren Texten und Techniken.) Das Problem um das virtuelle Symbol zeigt deshalb Folgendes: Das Symbol ist einerseits als absolute Aktualität, i.e. Virtualität, zu verstehen, andererseits soll es alles virtualisieren, auch seine eigene Aktualität. Man könnte dies nun dahingehend übersetzen, dass das je schon problematische Symbolische die Problematik des Virtuellen problematisiert, eine Problematik, die in der Zeitigung der Zeit besteht. Aber nur ausgehend vom Aktuellen können Virtualisierungen qua Zeichen/Symbol stattfinden, womit eben durch Virtualisierung neue Aktualitätswerte erzeugt werden, ergo gibt es keine Virtualität, sondern es gibt nur Virtualisierungen. (Ebd.: 295) Das Zeichen ist immer aktuell im Sinne einer Wirkung, die selbst Wirkungen hervorbringt, und dies im Zuge der spezifischen Zeitigung der Zeit (Virtualisierung), womit ausgehend von einem Aktuellen über Virtualisierung neue Aktualitätswerte möglich werden. (Ebd.: 297) Durch Virtualisierung wird über differenzielle Wiederholung aus etwas Aktuellem etwas anderes Aktuelles geschöpft, das mit dem ersten Aktuellen zwar verbunden ist, aber keinerlei Ähnlichkeit mit ihm ausweist. Dementsprechend wäre Virtualisierung im Zuge von differenzieller Wiederholung als ein operativer Eingriff (qua Technologien, Matheme und Zeichen) in aktuelle Verhältnisse zu verstehen, die als Gegebene je schon bewirkt sind, d. h., Wirkung von (ökonomischen) Strukturen sind. Und diese sind wiederum bewirkt, insofern sie in diverse empirische Kausalmechanismen eingebunden bleiben (Strukturen als Quasi-Transzendentalität des Kapitals, die sich über die Aktionen von Einzelkapitalen aktualisieren). Deshalb sollte man die Potenz zur Virtualisierung immer im Zusammenhang mit der Kategorie der Determination-in-der-letzten-Instanz, i. e. Ökonomie, denken. Ökonomische Matheme und ihre Zeichen bestehen rein im Modus der Aktualität, indem sie das virtualisieren, aus dem sie aktuell hervorgehen, um damit neue Aktualisierungen zu generieren. »Virtualität« wird ausgehend vom Aktuellen produziert – insofern handelt es sich bei den(virtuellen) Mannigfaltigkeiten, um es mit De Landa zu sagen, stets auch um passive Entitäten, die von der Empirie und deren diversen Kausalmechanismen abhängig bleiben.4 Wir haben es immer schon mit einem (un)problematischen Aktuellen (Realität) zu tun, das von sich aus in Erscheinung tritt: Es ist das, was es ist, dies aber nur im Kontext der Relation von spezifischer Zeitigung der Zeit/Virtualisierung und Aktualisierung. Und Virtualisierung vermag das ihrem Eingriff Vorausgesetzte, ja das Gegebensein, im Zuge von Wiederholungen zu verändern, womit eine neue aktuelle Strukturierung gegeben ist, die sich nun an einer anderen Zeitstelle ereignet, an der wiederum das ist, was ex post ein Ereignis sein könnte, das entscheidet, ob irgendein Ereignis vorher stattgefunden hat oder nicht. (Vgl. Fuchs 2001: 137f.) Und wenn das Sein vom Denken qua Zeichen gezwungen wird zu sein, dann haben wir es mit der Virtualisierung des Seins durch Sprache/Schrift zu tun. Als absolute Virtualisierung würde dann der Satz (der Satz ist Zeichen einer Virtualisierung) je schon seinen eigenen Referenzapparat aktualisieren, Aktualisierung und Virtualisierung wären mithin zwei Seiten einer Medaille; und insofern dann das Sein vollkommen vom Satz ausgesagt werden könnte, würde das Sein einem Realen begegnen, das nicht ein »being-nothing« (Brassier), sondern reines Nichts wäre. Wenn wir dies nicht denken können, dann haben wir es stets mit verschiedenen Graden der Virtualisierung zu tun, was u. a. heißt, dass gerade dort, wo die Virtualisierung am schwächsten ist, die Differenz von Sein und Realem gegen Null geht.

Nozsicska geht also den umgekehrten Weg wie Deleuze: Davon ausgehend, dass es erschöpfend nur Aktuelles gibt, lässt sich Virtualität selbst nicht als Sein oder als Seinsbereich denken, sei es Symbol, Idee oder Prinzip, womit wir es immer nur mit Virtualisierungen qua Zeichen zu tun haben, die, so wie sie sind, sein können, aber auch anders sein könnten. (Vgl. Nozsicska 2009: 295) Jedes Zeichensystem/Automat enthält ein Minimum von Zeichen, die einer Virtualisierung fähig sind, Leistungen, die auch nicht oder anders sein könnten. Wenn sich im Kapitalismus die Prozesse der Entscheidung, Planung und Programmierung durch einen sog. seelenlosen Automaten vollziehen, der sich aber weder als Hegels Geist noch als automatisches Subjekt definieren lässt, dann haben wir es mit dem Virtuellen eines nicht-quantitativen Werts zu tun, das allerdings nicht als Seinsbereich, sondern als die unbestimmbare Potenz des Werts zur Symbolisierung und Aktualisierung zu verstehen ist. Damit lässt sich Deleuzes Verständnis der Relation »Virtualität und Aktualisierung« modifiziert als eine Heuristik einschleifen, die der begrifflichen Erfassung des kapitalistischen Automaten Hilfestellungen leistet. Und der Automat ist immer im Modus der Aktualität; dies anzuerkennen erlaubt erst Virtualisierung bzw. Gegenaktualisierung, bspw. von aktuellen ökonomischen Quantitäten, die durch Preise virtualisiert werden, um zu den nächsten aktuellen Quantitäten zu gelangen (zumindest können wir vom Preis als einem Faktor der Gegenaktualisierung bei der Untersuchung der synthetischen Derivate ausgehen). Ergo wird das Kapital durch die Prozesse der Aktualisierung-Virtualisierung-Aktualisierung-Verschaltung (qua ökonomischem Mathem) in Permanenz voran geschoben. Und Virtualisierung qua ökonomischem Mathem (Ausdruck der Differentation von Wert) bleibt immer auf das determinierende Kapital in seiner Gesamtkomplexion (Quasi-Transzendentalität) bezogen, das je schon als dieselbe Reproduktion insistiert. Als Seinsmodus oder als reine Simultaneität gedacht würde die Virtualität des Kapitals seinen eigenen Tod bedeuten, wie wir später noch zeigen werden.

Kommen wir nun kurz auf einige Aspekte der Terme Struktur und Prozess in den Theorien von Bichler/Nitzan, Niklas Luhmann und Dieter Wolf zu sprechen, um schließlich zu einem ersten Fazit bezüglich der methodologischen (In)konsistenzen in den angesprochenen Theorieansätzen zu gelangen. Es scheint auf den ersten Blick so, dass wir es bei Deleuzes Konzept der Struktur mit einer komplexen Form der sog. Creorder zu tun, ein Begriff, der an vorderster Front der methodologischen Befunde bei den Ökonomen Bichler/Nitzan auftaucht. (Vgl. Bichler/Nitzan 2009) Wenn sich die Struktur in jedem ihrer Momente (wir werden später noch sehen, warum der Begriff der Maschine zur Untersuchung der Kapitalstruktur hilfreicher und umfassender als der Begriff der Struktur ist) in Prozessen aktualisiert, so belegen Bichler/Nitzan diesen Vorgang mit den Begriff »Creorder« (ebd. 2009: 19f.). Sie halten diesen für einen höchst artifiziellen Begriff, der anzeigen soll, dass sich eine Struktur/Ordnung in der (historischen) Zeit permanent konstruieren und rekonstruieren muss, wie sich eben auch eine Form unaufhörlich zu transformieren hat. Bichler/Nitzan zufolge liegt im Kontext der Creorder der Sinn der Beziehung zwischen dem heraklitischen Werden und dem parmenidischen Sein genau darin, dass die Fusion von Verb und Substantiv den Begriff »Creorder« ergibt: »To have a history is to create order – a verb and a noun whose fusion yields the verb-noun creorder.« (Ebd.: 305) Einerseits mag nun die sog. Creorder vollkommen vertikal bzw. hierarchisch geordnet sein, wie dies etwa in ultrabürokratischen Systemen der Fall ist, andererseits vermag sie auch horizontal zu verlaufen, wie dies etwa in radikalen Demokratien der Fall sein könnte, oder sie befindet sich im Dazwischen von Ordnung und Unordnung. Dabei können die Fluktuationen innerhalb der sog. Creorder fast unwahrnehmbar langsam ablaufen, bis man schließlich den Eindruck einer vollkommenen Stabilität der Ordnung erhält, oder sie vermögen im Gegenteil zu rasanten Beschleunigungen (Erhöhung der Outputs pro Zeiteinheit) und Wachstumsexzessen zu führen, die die Ordnung schließlich unterminieren, wobei die jeweiligen transformativen zeitlichen Patterns kontinuierlich oder diskret oder im Dazwischen prozessieren, etwa im Sinne einer Dedekind-Operation. Dabei gilt es mit Hartmut Rosa (Rosa 2005: 118) festzuhalten, dass im gegenwärtigen Kapitalismus nicht nur immer schneller produziert, distributiert und konsumiert wird, sondern auch immer mehr, wobei es zu einer progressiven Verdichtung oder Verknappung von sozialen und individuellen Zeitressourcen nur dann kommt, wenn die Wachstumsraten der Produktion von Gütern, Dienstleistungen Informationen, Wegstrecken etc. die temporalen Beschleunigungsraten der ihnen korrespondierenden Prozesse übersteigen, ansonsten würden die technologisch forcierten Beschleunigungsprozesse eher zur Freisetzung von sozialen Zeitressourcen führen. Und schließlich mag man sich die temporalen Beschleunigungen sowie die Fluktuationen der Wachstumsraten uniform oder zufällig, singulär oder multifaktoriell vorstellen, aber egal, welche Eigenschaft diese Art von prozessualer Strukturordnung schließlich auszeichnet, die sog. Creorder impliziert für Bichler/Nitzan immerfort eine paradoxale Dualität, nämlich die einer dynamischen Kreation einer an sich statischen Struktur (das Paradoxon eines Systems/Satzes, das/der die Fähigkeit besitzt, sich auf sich selbst zu beziehen). Nun scheinen die meisten hierarchischen Systeme tatsächlich eine außerordentlich hohe Stabilität zu besitzen, womit bspw. ihr akzeleratives Potenzial zumindest restringiert oder eingeschränkt erscheint, wobei dies in der Ökonomie laut Bichler/Nitzan entweder durch materielle Begrenzungen und/oder symbolische Beschränkungen geschieht, in und mit denen sich die permanente Anstrengung des Systems ausdrückt, jede Art von Konflikten, von Klassenkämpfen und Widerständen zu regulieren oder gar zu eliminieren, zumindest aber einen offenen Ausbruch der Konflikte zu verhindern. Nach Bichler/Nitzan hat der Kapitalismus diese Art Restriktion jedoch durch zwei Formen der sich selbst immer weiter beschleunigenden Deterritorialisierung, die jegliche Prinzipien der Bewegung und der Erstarrung noch einmal dynamisieren, entscheidend und wesentlich gelockert und flexibilisiert (ohne sich je des Faktums der Konfliktualität entledigen zu können; d. h., Konflikte bleiben in der Struktur aufgespeichert): a) durch die permanente Revolutionierung der wissenschaftlichen und ideologischen Denkweisen und Mentalitäten, im Zuge von Beschleunigungs- und Wachstumsprozessen und b) durch Prozesse der intensiven monetären Kapitalisierung, die die unaufhörliche Übersetzung von Qualitäten in Quantitäten mit zunehmender Veränderungsgeschwindigkeit (variable Rhythmen, Sequenzen und Metriken) zustande bringen. Und hierin erweist sich Kapitalisierung als die generative Matrix des Kapitalismus selbst, indem sie äußerste Akzeleration und rapides Mengenwachstum von ökonomischen Entitäten ermöglicht, Faktoren, die wiederum miteinander in Beziehung zu setzen sind, wenn man zu schlagkräftigen Aussagen hinsichtlich der Verdichtung der ökonomischen Zeit kommen will. Dabei zeigt sich Kapitalisierung heute als eine rein monetär orientierte Bildung und Kalkulation von (synthetischem) Kapital an, d. h., mit Hilfe von effizienten mathematischen Kalkülen versuchen machtorientierte Kapitalisten die risikobehafteten, in der Zukunft zu erwartenden Gewinne zu diskontieren, zu kalkulieren und zu realisieren. Im ersten Moment scheint es, dass diese Art der Begriffsbildung bei Bichler/Nitzan mit Deleuzes Versuch korrespondiert, unaufhörlich diejenige objektive Illusion zu zertrümmern, die den Prozess hinter der Struktur vergisst, allerdings besitzt in Deleuzes Darstellungen die Struktur selbst eine reale Differenzialität, deren Aktualisierung wiederum sich noch bis in die Mikropartikel der sozialen Realität und ihrer Semiosen und Matheme finden lässt.

In einem ganz anderen Zusammenhang hat sich Luhmann dem Problem der Beziehung zwischen Struktur und Prozess unter den Gesichtspunkten der Reversibilität und Irreversibilität zugewandt und hat allerdings eine vollkommen andere Gewichtung der Terme als bspw. Bichler/Nitzan vorgenommen. Bichler/Nitzan betonen das Wechselspiel zwischen statischer Struktur und dynamischem Prozess, während Luhmann hingegen Folgendes schreibt: »Die Differenz von Reversibilität und Irreversibilität [gehört] mit zu der Ordnungsleistung, die sie [die Handlungssysteme] erbringen. Und gerade das, was sie durch Strukturbildung der Vergänglichkeit des Moments entziehen, wird damit reversibel gemacht: Es dauert, man kann es also ändern. Anders als eine vereinfachte Entgegensetzung von Struktur und Prozess es wahrhaben will, dient gerade die Strukturbildung dem Vorhalten von Änderungsmöglichkeiten, während als Prozeß die Verkettung der Ereignisse erscheint, sofern sie irreversibel wird. Strukturen dienen dem Aufbau von Reversibilität, Prozesse dem Erzeugen von Irreversibilität.Gerade umgekehrt, wie normalerweise angenommen wird, sind Strukturen also dynamischer als Prozesse.« (Luhmann 1998: 132) Strukturbildung erscheint hier gerade untrennbar mit Faktoren wie Dynamik, Emergenz und (relativer) Kontingenz verbunden, wobei Kontingenz allerdings nicht im Kontext von Virtualität bzw. Virtualisierung gelesen wird, welche etwa die basale Unterscheidungsfähigkeit (System-Umwelt) oder die jederzeitige Anschlussfähigkeit des Systems, die Luhmann im Sinne einer creatio continua formuliert, überfordern könnte, vielmehr schreibt die Systemtheorie jede Art von Nicht-Sinn in sinnhafte Ereignisse ein, damit Anschlussfähigkeit im Zuge eines Verfahrens, das sich als work in progress erweist, so oder so sich herstellen lässt. Gleichzeitig kommt die Systemtheorie nicht umhin, dem Begriff des Problematischen einen gewissen Stellenwert einzuräumen, und zwar mit dem Hinweis auf Kalküle, die dem System dazu dienen die eigene Unwahrscheinlichkeitsschwelle in Permanenz zu überwinden. In dieser Hinsicht zeitigt das System die unaufhörliche Entscheidung hinsichtlich der Frage der Zugehörigkeit beziehungsweise der Verwendbarkeit bestimmter Komponenten (Elemente, Relationen, Operationen), um die Erhaltung seiner selbst im Rahmen eines Wahrscheinlichkeitskalküls zu gewährleisten, ein (negentropisches) Kalkül, das es erlaubt, ständig mit der Unzuverlässigkeit der Komponenten zu rechnen und zugleich mit seinen eigenen Operationen eine, wenn auch noch so fragile Zuverlässigkeit des Systems herzustellen. Dabei geht es nicht allein um die Thematik der Problemlösung, sondern vor allem um die Beschreibung der Topik der Beobachtung des Systems in seiner Relation zur Umwelt, die ständig neu justiert werden muss, womit sich dann auch empirisch bestimmen lässt, wie das System operiert, was es denn operieren können muss. Und so schreibt Dirk Baecker auch folgerichtig: »Deswegen, um es noch einmal zu sagen, ist der Systembegriff kein Begriff der Lösung aller Probleme, sondern ein Begriff der Bestimmung und Schärfung aller Probleme, mit denen es Beobachter im Umgang mit der Komplexität selbst organisierender Prozesse aktuell zu tun haben.« (Baecker 2008b: 12) Mit dieser Formulierung nähert Dirk Baecker sich in gewisser Weise Deleuze an, der die begrifflichen Problematiken von sämtlichen Kriterien der Repräsentation durch Lösungen trennt, indem er zeigt, dass die Lösbarkeit einer dem Problem inhärenten, einer begrifflich zu erfassenden Konstellation und Konfiguration der Differenziale entspringt – schließlich werden Lösungen gemäß den Begriffen, deren Relationen und Komponenten, die die problematische Konstellation ausmachen, immanent und zugleich kontingent produziert. Zwar kann auch Kontingenz in der Systemtheorie durchaus die Qualität eines Potenzials annehmen, aber sie bleibt stets an lösbare Probleme gebunden, womit Kontingenz im Infinitum derselben Reproduktion des Systems auftritt, sodass, werden Systemleistungen fristgerecht bewältigt, die Außenseite des Systems immer nur als Umwelt und keinesfalls als Potenzial zur Gegenverwirklichung von Ereignissen aufscheint. Mit der Hypostasierung des Beobachterdispositivs wird schließlich die je schon knappe Zeit, die über ein Fristenwesen kontrolliert wird, dem System und seinen Leistungen untergeordnet, um letztendlich doch den Mechanismen der Aktualisierung/Virtualisierung von divergenten Ereignissen und den ihnen entsprechenden disparaten Wiederholungen zu entkommen, weil eben der Schwerpunkt der Theorie eindeutig auf den Leistungen des Systems selbst liegt, die rein funktional im Medium homogener Zeit Anschlüsse erzeugen, wobei diese stets aktuell und beobachtbar sein sollen. Peter Fuchs hat im Anschluss an Derridas Figur der différance auf den Faktor der Nachträglichkeit, der jener Forderung eigen ist, hingewiesen, allerdings ohne den ultrastabilen Horizont der Systemtheorie ganz zu verlassen, während doch die Begriffsfigur der diffférance als Zeit ohne Zeit auf die virtuelle Macht der Zeit verweist, auf radikale Kontingenz – eine Problematik, die bei Deleuze vor allem als jene permanente Verschaltung von Virtualität und Aktualisierung auftaucht, die es im Sinne der Gegenverwirklichung von (unvorhersehbaren) Ereignissen stets auch zu subvertieren gilt. Gegenverwirklichung von Ereignissen findet vor jenem Bogen der Simultaneität von inkompossiblen Gegenwarten statt, die wie ein Gespenst des Denkbaren dessen erscheinen, was dann als künftige Gegenwart wirklich eintritt. Damit gibt Deleuze dem Unverwirklichten bzw. der Virtualität im Ereignis ernormes Gewicht.

In seinen verschiedenen Beiträgen zur Marx'schen Theorie hat Dieter Wolf immer wieder eingewandt, dass die Darstellung und Kritik der kapitalistischen Ökonomie die Explikation von nicht-intentionalen bzw. unbewussten Strukturen zu berücksichtigen habe,und darüber hinaus obliege die Problematik der Erklärung, auf welche Art und Weise die unbewussten Strukturen die strategisch bewussten oder intentional adressierten Handlungen von Aktanten definieren könnten. Dabei geht es Dieter Wolf um die Darstellung von dynamischen Strukturen, und zwar unter dem Aspekt, dass intelligible Strukturen in der Theorie als problemlösend aufzufassen, mithin »Problem Solving Structures« (Wolf 2013a: 14) sind. So leiste Marx in den ersten drei Kapiteln des Kapitals Bd.1 eine umfassende Analyse der Waren-Struktur, und diese führe zu dem Ergebnis, dass Marx nicht nur die Geldform entwickele, sondern auch zeige, wie mit der »dialektischen Darstellung« des »Widerspruchs« zwischen Gebrauchswert und Wert das für den Kapitalismus grundlegende Problem gelöst werden könne, in welcher Form vereinzelte, konkret-nützliche Arbeiten den gesellschaftlichen Status der allgemeinen, abstrakten Arbeit erlangten. Allerdings droht man mit dieser Art des Problemverständnisses – wie dies übrigens schon viele Spielarten des Marxismus praktiziert haben – das Problem erneut auf ein Schattenbild des Negativen zu reduzieren, insofern das Problem einen Mangel an Stabilität (als gesellschaftliche Ressource) oder einen Widerspruch in der Realität des Kapitalismus anzeigt, der durch die kapitalimmanente Etablierung von struktural zu verstehenden Wertformen bzw. von gesellschaftskonstitutiven Gesetzen wie etwa dem strukturalen Wertgesetz aufgehoben bzw. »gelöst« wird. Dem marxistischen Theoretiker obliegt es, das Wertgesetz als sich selbst setzende Lösung (des Kapitals) hinter der als Kapitalfetisch erscheinenden Oberfläche zu analysieren, zu beschreiben und schließlich der Kritik zuzuführen. Dagegen wollen wir in dieser Schrift davon auszugehen, dass das Problem als begriffliches Instrumentarium, das in spezifischer Weise auf die Symptome der Realität des Kapitals bezogen ist, mit nicht-dialektischen Begriffen und deren Komponenten und Konstellationen zu erfassen ist. So schreibt bspw. der ehemalige DDR-Ökonom Peter Ruben, dass die Definition der Ware als Element einer intensionalen Warenmenge eine logisch-formale Operation beinhalte, die man durch ein Abstraktionsverfahren, das zur Bildung von Äquivalenzklassen mit ihren Merkmalen der Symmetrie, Transitivität und Reflexivität führe, darstellen könne. (Vgl. Ruben 2008: 98) Erfülle nun die Marx'sche Wertformanalyse als Teil einer begrifflichen Problematik diese Voraussetzung, so könne man sie zumindest als die Teil-Beschreibung eines gesellschaftskonstitutiven Systems verstehen, wobei man hier sofort anfügen sollte, dass die logische und logistische Problematik des Kapitals ganz allgemein in der Demonstration dessen besteht, was einen notwendigen Prozess qua differenzieller Strukturierung ausmacht, aber nicht, wie Nietzsche es ausdrückt, »weil Gesetze in ihr (der Welt) herrschen, sondern weil absolut die Gesetze fehlen, und jede Macht in jedem Augenblicke ihre letzte Consequenz zieht.« (Nietzsche 1967: 31) Mit Nietzsche und über Nietzsche hinaus lässt eine nicht-fundamentalistische Sozialtheorie neben dem Faktum der machtorientierten Produktionen von Gesetzen immer auch diejenigen Produktionen anklingen, die die Strukturen gespalten und zerrissen halten, insofern sie einerseits Produktionen innerhalb der Struktur darstellen, andererseits deren Reproduktion je schon entzogen sind, wenn sie etwa auf Begriffe wie Gerechtigkeit, Kooperation und Gemeinwesen verweisen, die sich nicht ontologisieren lassen, sondern gerade das Überschreiten der Gesetze (in der Theorie) selbst bezeichnen. Und es gilt zu bedenken, dass Regime – das Kapitalverhältnis aktualisiert/virtualisiert sich durch eine Reihe von Regimen hindurch – sich nicht allein durch ihre konstitutiven ökonomischen und politischen Systeme, Vektoren, Variablen und Parameter reproduzieren, sondern auch mit den Handlungen der Aktanten sowie allen Sorten sog. nicht-humaner Objekte wie Technologien, Bakterien, Texte, Glasfaserkabel, Autobahnen etc. im doppelten Sinne rechnen müssen.

Schließlich gilt es darauf zu verweisen, dass sowohl zwischen Geltung und Genese als auch zwischen Virtualisierung und Aktualisierung kein Verhältnis der Analogie besteht, sondern stets eine Lücke klafft. In der ersten Relation ist die Frage eingeschlossen, wie Kontingenz in Stabilität übersetzt wird. Wir können festhalten, dass es sich bei den Genesen stets um differenzielle Wiederholungen, Rückkopplungsprozesse und Ansteckungen handelt, während die Festigkeit oder das Greifen einer Beziehung (Sich-Befestigen) eher die Geltung betrifft. Und die Binnengeschichte des Kapitals schiebt sich qua Virtualisierung/Aktualisierung-Verschaltung voran und diese Verschaltung impliziert Wiederholung. Was sich mit ihr im Kapitalismus wiederholt, ist in erster Linie die Struktur, i.e. je dieselbe Reproduktion. Und schließlich ist die kapitalistische Ökonomie als Ganze gegeben oder es gibt sie nicht. Als gegeben ist sie eine soziale Tatsache und kein Faktum im transzendentalen Sinn, ergo keine Bedingung der Möglichkeit von …, sondern stets eine materielle Bedingung der Existenz. Und somit stehen wir, wenn man so will, vor einem doppelten Abgrund der Tatsache, nämlich ihrer Möglichkeit, nicht zu sein, und ihrer Möglichkeit, nicht mehr zu sein. Jedenfalls ist das Kapital als (offenes) Ganzes gegeben, wobei die ökonomische Struktur im Kapitalismus sämtliche Bereiche und Facetten des Gesellschaftlichen und Politischen in letzter Instanz determiniert, und zugleich prozessiert das Kapital über den Mechanismus der Virtualisierung/Aktualisierung, d. h., als Zeitigung der Zeit in der Zeit. Was ist nun wirklich als die Bedingung des Kapitals zu verstehen? Konsequent gilt es in der Kapitalanalyse vom unbezweifelbaren »Es gibt Kapital« als Bedingung des Kapitals auszugehen, ein »Es gibt«, das selbst noch einen Luhmann antreibt, der als Einleitung zur Systemtheorie froh verkündet, dass es zweifelsohne das System gibt. Ganz leger bedient sich Luhmann einer Existenzaussage im Zuge einer auktorialen Performance und das gerade im Hinblick auf die Theorie eines radikal de-ontologischen Systems, das es permanent zu dekonstruieren und zu dementieren gilt, wodurch aber die Figur des Systems nur bestätigt wird. Durch die Konstruktion einer derartigen Theorie wird die anfängliche Entscheidung, die im »Es gibt« besteht, geradezu bestätigt. (Vgl. Fuchs 2001: 116) Wir verhandeln hier das historische Apriori eines Marx, i.e. »Es gibt Kapital«, stärker infolge des Verständnisses eines historischen Apriori bei Foucault, der Bedingung des »Es gibt«, das sich bei Foucault als primär Sagbares und sekundär Sichtbares (je schon Aktuelles) über Virtualisierung in der Zeit andauernd neu aktualisiert. (Vgl. Deleuze 1987: 80f.) Der nicht-philosophische Term »Es gibt« verweist auf das Laruell'sche »Gegeben-ohne-Gegebenheit«, das Reale, das, wie wir gesehen haben, zumindest in einer untergründigen Korrespondenz zum Marx'schen Begriff der ökonomischen Basis als Determination-in-letzter-Instanz steht. Hierbei handelt es sich um eine radikal determinierende Relation (der ökonomischen Basis in Relation zum Überbau), um eine unilaterale Kausalität, die von der ökonomischen Basis zum Überbau führt und eben nicht umgekehrt, ja es darf an dieser Stelle wirklich keinerlei reziproke Beziehung zwischen den Termen angenommen werden. Die Begriffe »Bedingung« und »Determination« sind also im Kontext des »Es gibt« im strengen Sinne zu denken – i.e. irreversibel, unidirektional und »in-der-letzten-Instanz«. Und (historische) Zeitlichkeit heißt nun, dass man von keiner allgemeinen bzw. ideellen Struktur ausgehen darf, sondern die ökonomische Struktur mit aller Vorsicht als ein reales, äußerst variables und doch radikal determinierendes »Quasi-Transzendental«, das in der Zeit wirkt, begrifflich zu entwickeln ist, daher Zeit bewirkend, wie die Struktur auch das Faktum nicht abschütteln kann, dass sie durch Zeit bewirkt wird. Es gilt zu verstehen, dass Kapitale nicht »In der Zeit« sind, sondern in der Zeit sind. Das Apriori ist immer historisch, und Reproduktion hieße dann nicht die eines Subjekts oder Dings, sondern bezeichnete vor allem dieselbe Reproduktion, nämlich die des Kapitals. Der Reichtum erscheint in Gesellschaften, in denen die kapitalistische Produktionsweise herrscht, als eine ungeheure Warensammlung. So beginnt Marx das Kapital. Es gibt also Produkte, die potenziell Waren sind, wenn sie auf der Oberfläche des Kapitals erscheinen, wobei mit dem Wort »erscheinen« schon Zweifel an der Feststellung, dass es Waren gibt, angebracht sind, insofern es tatsächlich ein Problem darstellt, trotz differenter Begehren, Bedürfnisse und Wertungen von einer Existenz der Ware auszugehen, i.e. die Ware ist dynamei, Potenz, und dies bringt Marx mit dem Wort »erscheinen« auch zum Ausdruck. Es gibt aber zweifelsohne das Kapital als Produktionsweise, und dies ist als Apriori einer Gesamtkomplexion (Quasi-Transzendentalität) zu begreifen, die wiederum an Virtualisierungs-Aktualisierungsprozeduren gekoppelt bleibt. Man sollte deshalb nicht, wie dies Generationen von Marxisten getan haben, aus dem ersten Satz im Kapital einen organizistischen, Hegel'schen Anfang mit der Elementarform Ware herauslesen, vielmehr ganz lapidar davon ausgehen, dass die Marx'sche Wissenschaft mit einem (theoretisch) Gegebenen beginnt, das von vornherein nur in Relationen angeschrieben werden kann, als eine Theorie-Architektonik mit Konnotationen zu anderen Theorien und spezifischen theoretischen Praktiken. Um nun jede Art der Verräumlichung des Gesellschaftlichen zu vermeiden (siehe die berühmte Rede von den Einbettungen des Kapitals in das unmögliche Objekt Gesellschaft oder siehe die Figur der Gesellschaft als Behälter für alles Mögliche), setzen wir den Wert als unhintergehbaren Un-Grund für das Gesellschaftliche, der sich im Kapitalismus stets über und durch ein Gefüge (Quasi-Transzendentalität des Kapitals im Sinne der Wirkung von Wirkung) virtualisiert/aktualisiert. Der Wert zeigt die Figur der ultimativen Ungründbarkeit des Gesellschaftlichen an und verhilft diesem zu einer opaken Anwesenheit. Es ist gerade das Kapital als Gesamtkomplexion (Stabilität), das über seine Virtualisierung/Aktualisierung Verschaltung (Kontingenz) in der Zeit anzeigt, dass der Wert (quantitativ) unbestimmt bleiben muss. Stabilität und Kontingenz werden hier durchaus als konstitutive, ja als (logisch) notwendige Ressourcen eines ökonomisch-strukturellen Zusammenhangs begriffen, innerhalb dessen gesellschaftliche Synthesis unaufhörlich unbeständig hergestellt wird.

Die Aussage »Es gibt Kapital« beinhaltet also ein historisches Apriori, wobei sich im Anschluss an Foucault sagen ließe, dass sich dieses auf ein sich in Einzelkapitale aktualisierendes, verzweigendes und distributierendes Gesamtkapital als ein gegebenes und offenes Ganzes bezieht. So schreibt Foucault: »Das Apriori der Positivitäten ist nicht nur das System einer zeitlichen Streuung; es ist selbst ein transformierbares Ganzes.« (Foucault 1981: 185) Und mit Althusser wäre vielleicht dann bezüglich des wichtigen Aspekts einer möglichen Unterbrechung des Ganzen an das ursprungslose und grundlose »Es gibt« von Heidegger anzuschließen, das nicht-kalkulierte »Geben« (wobei der leidenschaftlich-passive Aspekt der Gabe hervorgehoben wird, das, was man nicht gewählt hat zu geben, aber einen offen hält, ja die gegebene Zeit in einem Zeit-Raum offen hält), das der Präsenz des Gegebenen im Sinne einer transzendentalen Kontingenz immer vorausgeht. (Vgl. Althusser 2010: 24) Hier zeigt sich denn auch das Primat der Abwesenheit über die Anwesenheit an (Derrida), und dies nicht als die Rückkehr zu einem Ursprung, sondern als ständigen Aufschub jeden Grundes, als ein unverfügbares und kontingentes »Gesetz«, das paradoxerweise ständig zurückweicht, wenn man es denn greifen will, um sich dann doch erneut an anderer Stelle zu etablieren. Solch ein »Gesetz« wäre, wenn man dessen determinierende Funktion trotzdem bedenkt, dann mit Marx als »Tendenz« zu begreifen, insoweit eine Tendenz nicht die Form oder Figur eines linearen Gesetzes behauptet, sondern sich stets durch Begegnungen mit anderen Tendenzen verzweigt, um u. U. Durchschnitte oder Allgemeinheiten herauszubilden. Was Marx als Tendenz bezeichnet, hat durchaus auch Ähnlichkeiten mit dem, was Deleuze Virtualität nennt, insofern beide Terme vollkommen real, aber nicht aktuell sind. Und zugleich gilt es die determinierende Funktion mitzubedenken.

Wir sollten an dieser Stelle noch kurz die Frage des Methodologischen bei Foucault erwähnen, insofern es unseren Gegenstand hier betrifft. Wir haben wir es bei Foucaults Archäologie bekanntermaßen nicht mit »Dokumenten« zu tun, die etwa Zustände und Ereignisse belegen, sondern mit »Monumenten«, die Zustände und Ereignisse quasi konstruieren. Und Begriffe wie Frequenz, Strom oder Wachstum, auf die wir noch öfters zurückkommen werden, verweisen in diesem Kontext direkt auf Veränderungen in der Zeit, auf Dauer, Tempi, Sequenzen und Rhythmen. (Vgl. Foucault 1981: 15f.) Dabei lassen sich die Monumente immer nur aus einer der Theorie immanenten Perspektive beschreiben, wobei entscheidend für die sog. Adäquatheit der Beschreibung, die der Bewegung wissenschaftlicher Experimente folgen soll, das Kriterium der Stabilität der internen Kohärenzen und Regelmäßigkeiten von Aussagen ist, die sich aus den anfänglichen Axiomen, den darauf folgenden deduktiven Reihen und den so zu eruierenden Konstellationen der empirischen Objekte ergeben, die wiederum solche eines endlichen historischen Korpus sind. Bei Foucault geht es in einem Feld des Sagbaren um die Aussage, die jenseits des Referenten, des Signifikanten oder der Proposition das konstitutive Element für einen jeweils endlichen Korpus von Texten stellt, dessen Aussageregelmäßigkeiten jeweils zu erstellen sind. Foucault schreibt: »Das Referenzial der Aussage bildet den Ort, die Bedingung, das Feld des Auftauchens, die Differenzierungsinstanz der Individuen oder der Gegenstände, der Zustände der Dinge und der Relationen, die durch die Aussage selbst ins Spiel gebracht werden.« (Ebd.: 133) Foucaults Konzeption der Aussagen umfasst nicht in erster Linie wissenschaftliche Theorien, die auf der Analyse empirisch beobachtbarer Phänomene und Strukturen beruhen, sondern sie weist über die Erfassung des Referenzials auf eine zu konstruierende funktionale Strukturalität hin. Der Mensch zeigt sich, »sobald er denkt, seinen eigenen Augen nur in der Form eines Wesens, das bereits in einer notwendig darunterliegenden Schicht, in einer irreduziblen Vorherigkeit, ein Lebewesen, ein Produktionsinstrument, ein Vehikel für ihm präexistente Wörter ist.« (Foucault 1974: 379) Die Funktionalität der Aussage als eine verschiedene Einheiten bildende Diagonale folgt bei Foucault keiner repräsentationalen Logik, sondern sie enthält eher eine Art produktiver Analytik, mit deren Apriori – quasi-transzendentales Prinzip – die historischen Bedingungen der Aussagen und ihrer generative Regeln freizulegen sind. Das Apriori ist historisch. Foucault schreibt weiter zur Aussage und ihren Gegenständen: »[...] es wird ein Gebiet von Objekten sein, die in demselben Augenblick existieren und auf derselben Zeitskala, auf der die Aussage formuliert wird, oder es wird ein Gebiet von Gegenständen sein, das einer ganz anderen Gegenwart zugehört - dasjenige, das durch die Aussage selbst angegeben und konstituiert wird, und nicht das, dem die Aussage auch angehört.« (Foucault 1981: 133) Aussagen sind mit ihrer Subtraktion von der Referenz mit einem sog. Referenzial verbunden, das nicht unbedingt auf vorhandene Dinge, Fakten oder Realitäten hinweisen muss, sondern sich auch auf zu konstruierende Bedingungen und Regelmäßigkeiten (Gesetzen der Möglichkeit) von vergangenen oder zukünftigen Gegenständen bezieht, auf Existenzregeln für Gegenstände, die mit jenen beschrieben werden. Foucaults Bestimmung des Referenzials, bei der von der Referenz abstrahiert wird, könnte man vielleicht analog zu Deleuzes Herleitung des nicht-quantitativen Differenzials als reine Differenz von der Differenz lesen. Und Foucault definiert Aussagen analog der analytischen Logik als Funktionen. Doch sind sie als solche nicht mit einem Korrelat verbunden wie etwa dem Wahrheitswert im Fall von logischen Propositionen oder dem Sinn im Fall von Sätzen in der Pragmatik, vielmehr ist hier durchaus auch eine Nähe zur Konzeption des Erkenntniseffekts bei Althusser zu spüren, der dadurch zustande kommt, dass in einem wissenschaftliches System Begriffe einen spezifischen Platz einnehmen und damit bestimmte Funktionen in einem Netz hergestellt werden, womit ein komplexes, systematisches wissenschaftliches Objekt (laut Deleuze ein musikalisches Netz) erst erzeugt wird, in das auf jeder seiner Stufen Diskurse eingeschrieben sind, die die Anwesenheit oder Abwesenheit des Systems anzeigen. Referenzialität enthält also sowohl minimum-transzendentale wie auch positivierbare Komponenten von Aussagen oder Begriffen, die man schließlich in Übersetzungen an die Empirie zurück binden sollte, ja gemäß dem Realen konstruieren sollte.

1Das Sein kann sich nicht von sich selbst, sondern nur von den Differenzen aussagen.Für Deleuze scheint Differenz identisch mit Sein zu sein. Bei Derrida ist die Leistung, welche die Bewegung des Differierens und Aufschiebens der Präsenz in Gang hält, eine Zeit-Leistung, die sich nur nachträglich oder im Voraus zu sich selbst zeigt. Das Sein verschwimmt. Während Derrida also das Gewicht stärker auf Emergenz und produktive Differenz legt, setzt Deleuze Akzentuierungen in Hinsicht eines Sinns als Idealität. An dieser Stelle könnte man nun einfügen, dass es sich bei Deleuze gerade um keinen Relationalisten handelt, weil seine differenziellen Relationen keine selbständigen Teile haben, desweiteren sollte man ihn auch nicht so ohne weiteres als Prozess-Philosoph verstehen, weil das Werden für ihn kein extensives zeitliches Ereignis enthalten muss.

2Deleuze 1992a: 222. In Bezug auf die Sprache inkludiert das Virtuelle der Struktur das vollständig Ganze des Sagbaren, das sich in den sprachlichen Ausdrücken aber niemals vollkommen aktualisiert, sodass der Sinnüberschuss, der durch die Verkettungsmöglichkeiten von Sätzen entsteht, niemals zur Gänze ausgeschöpft wird. Und die virtuellen Potenziale können nur ein einziges Mal ausgespielt werden, womit die Konstellationen des Virtuellen sich mit jeder Realisierung neu aufstellen müssen, auch weil das Virtuelle das Aktuelle niemals voll und ganz umfasst. Aktualisierung vollzieht sich immer als Differenzierung in der Zeit. Dabei sind die Bedingungen nicht allgemeiner als das Bedingte. Unter diesen Gesichtspunkten greift Deleuze die drei wesentlichen Momente der Idee bei Kant auf – Unbestimmtheit, Bestimmbarkeit und Bestimmung – und bestimmt das Denken als das, was nicht gedacht werden kann, aber gedacht werden muss, also als das letztlich Unbestimmbare. Diese drei Momente lassen sich selbst noch beim cartesianischen Cogito nachweisen: »[...]das Ich bin als unbestimmte Existenz, die Zeit als Form, in der diese Existenz bestimmbar ist, das Ich denke als Bestimmung.« (Deleuze 1992a: 219) Die Bestimmung des Differenzbegriffs als in sich selbst unterscheidend entbirgt die Differenz als Öffnung auf Räume und Zeiten positiver Differenzen (entscheidend ist nicht die Differenz an sich, sondern die Verwandlung der Differenz in sich). Eine divergente Mannigfaltigkeit, die schließlich keine Totalität darstellt, sondern der das Prinzip der Differentiation inhäriert, drückt sich als Quasi-Ursache in jedem aktuellen Objekt bzw. empirischen Zusammenhang aus, der seinerseits als eine Vielzahl von Ursachen, Umständen und Relationen die Manigfaltigkeiten beeinflusst. Für Deleuze ist deswegen das Aktuelle keineswegs mit der Bestimmung von Passivität gleichzusetzen, wie dies z. B. Badiou in seiner Kritik an Deleuze annimmt, wenn er dem deleuzianischen Aktuellen eine rein passive Oberfläche zuschreibt, auf der keinerlei Differenzen produziert werden. So muss schließlich für Badiou das deleuzianische Virtuelle ganz unabhängig von seiner Fähigkeit zur Differentation als eine einzige vereinheitlichende und kreative Kraft erscheinen, als eine reine Quelle der Aktivität.

3Badiou will mit der Gleichung Mathematik=Ontologie eine Mannigfaltigkeit formalisieren, die jenseits jeder Zählung-als-Eins, also jenseits eines operativen Aktes liegt. Dabei impliziert seine Metamathematik ein Zeichensystem, das nur sich selbst als Referenten hat, wobei mit der Ontologisierung die Differenz zwischen Sein und Zeichensystem geschlossen wird. Das Sein ist gezwungen, reine Mannigfaltigkeit zu sein. Badiou identifiziert also Menge und Sein und sieht die finale Priorität der Mengentheorie unter der Überdeterminierung der Ontologie.

4zitiert nach Žiżek 2005, 45.

Foto: Bernhard Weber

Laruelle und die generischen Wissenschaften Mon, 06 Jul 2020 12:25:48 +0000

Laruelle strebt eine nicht-philosophische oder generische Maschine an, die eine ihrer Suffizienz geraubten Philosophie (ohne umfassende Transzendentalität) mit einer ihres mathemathischen Apparats geraubten Quantenphysik (ohne Kalkulation) verbindet. Die Herausdrehung der Nicht-Standard-Philosophie aus der Philosophie und der Nicht-Philosophie mündet für Laruelle in der generischen Wissenschaft, die selbst eine Methode zu entwickeln hat, um die Superposition (Überlagerung) von Wissenschaft und Philosophie unter der Dominanz der ersteren zu produzieren, wobei als Ergebnisse dieser methodischen Operation qua des Einsatzes solcher Instrumente wie Hypothese, Deduktion und Experiment Aspekte und Theoreme anzustreben sind, d. h. geregelte, nachvollziehbare und »richtige« Interpretationen und Transformationen (Äußerungen) des wissenschaftlichen und des philosophischen Materials. (Laruelle 2010b: 262) Jeder wissenschaftliche oder philosophische Diskurs besitzt eine gewisse Materialität und Syntax; der Text selbst ist laut Laruelle ein Ort mit fixierten Teilen und zugleich benötigt er bewegliche Teile zumindest als seine Inputs. Dabei bleiben die methodischen Operationen bei Laruelle nicht auf einen singulären Term als Anker fixiert, wie dies etwa bei Badious leerer Menge noch der Fall ist, sondern sie erfassen die privilegierten Operatoren eines beliebigen theoretischen Materials und entkleiden dessen Operatoren und das Material selbst von unnötigem repräsentationalem Ballast, um es für einen neuen Zweck zu nutzen. Das Ergebnis nennt Laruelle »radikale Konzepte«. Er spricht an dieser Stelle schließlich vom »non-Mandelbrotian fractal«, das von seinen geometrischen und algorithmischen Anforderungen befreit wird, um dem Begriff »Fraktalität« einen nicht-technischen Sinn zu geben und ihn schließlich in eine generische Interpretation umzuleiten, sodass er eine Figur der unteilbaren Selbstähnlichkeit anzeigt, die als Pseudonym für das Reale fungiert. (Vgl. Laruelle 2014: 116 f.) Vom Kontext befreit, vom Inhalt entleert, dient der generische Begriff weniger als Eckpfeiler einer konzeptuellen Architektur, vielmehr zeigt er eine Art schwache Kraft der Identität an: Er dient als das Emblem der Unterdetermination. Diese beinhaltet, dass der Begriff und das Reale letztendlich dasselbe sind, aber nicht als Identität, sondern überlagert (Superposition) in einem Milieu der Interferenzen und der Idempotenz. Was kann nun ein »non-Mandelbrotian fractal« überhaupt bedeuten? Irgendetwas, das man gemäß seiner generischen Fraktalität und seiner Überlappung im Realen als Eines betrachtet. (Ebd.) Während für Badiou der minimale Begriff – die leere Menge – ein absolutes Minimum darstellt (eine strukturierende Kraft), so ist der generische Begriff bei Laruelle nur relativ minimal: gerade einmal minimal genug für (theoretische) Umstände, Konjunkturen und Modelle, die je nach Situation variieren und deshalb multiple generische Operatoren zulassen.

Laruelle benutzt in seinen aktuellen Schriften zur Darstellung der generischen Wissenschaft zwei universelle Quanten-Prinzipien oder Quanten-Axiome, Superposition und Nicht-Kommutativität. (Vgl. Laruelle 2010b) Dabei wird Superposition als Fortsetzung der radikalen Immanenz und Nicht- Kommutativität als Determination-in-der-letzten-Instanz verstanden.(Laruelle 2013a: 126) Diese beide Prinzipien drücken für Laruelle das Reale aus (nicht das Eine, das hier einen metaphysischen Status einnimmt), sie stellen sofort das Reale und die Syntax bereit. Die Ökonomie der generischen Maschine besteht in der Organisation des Materiellen gemäß einer «Quantware« (anstelle von Software), die wiederum am Materiellen partizipiert.(Ebd.: xxv) Allerdings scheint Laruelle sich selbst nicht immer ganz klar in seinen Formulierungen zu sein, wenn er etwa von der »Welle/Teilchen Superposition« und zugleich von der »Determination-in-der-letzten-Instanz« spricht, oder von der »unilateralen Dualität« und zugleich von »Komplementarität« oder schließlich sogar von »unilateraler Komplementarität«. Wobei letztere Wendung offensichtlich ein Problem darstellt, insofern der Bohr`sche Begriff der Komplementarität keineswegs auf Determination, sondern auf Unschärfe und Unbestimmtheit verweist. »Unilaterale Komplementarität« umfasst für Laruelle diverse Dualitäten, die sich auf die primitive Dualität Welle/Partikel beziehen. Die Essenz der primitiven Welle/Teilchen Dualität ist für Laruelle die unilaterale Dualität, wobei er die Welle favorisiert, und eben nicht die Dialektik oder die Unschärfe wie bei Bohr. So können die beiden Variablen zwar reversibel sein, aber dies immer unter dem Gesichtspunkt ihrer Unilateralität. Man kann bezüglich der Determination bzw. der Uni-lateralität durchaus den Term Komplementarität als Supplement beibehalten, insofern das Partikel der Welle (und seiner radikalen Immanenz) hinzugefügt wird, die jenes unter-determiniert. Unilateralität inkludiert das Eine als Eines-in-Einem, ein radikal immanentes Sein, oder ist selbst gegeben als die Eigenschaft des Einen als Eines-in-Einem.

Laut Laruelle sollte man bei der Quantensuperposition, die eine Relation oder besser eine Uni-lation beinhaltet, zunächst also an die Wellenform oder den Rhythmus denken (als zeitliches Pattern), der sich mit den Parametern Zeit, Raum, Frequenz, Amplitude und eben Superpostion charakterisieren lässt. Der Rhythmus integriert die Superposition der Wellen und ihren molekularen Bewegungen, wobei vielfältige Undulationen sich gegenseitig durchqueren, absorbieren und ineinander faden können. Man denke etwa an die Wellen am Strand, die keine Entitäten sind, vielmehr handelt es sich hier um Strömungen, die ausgedehnt im Raum fließen. Wenn zwei Wellen sich überlagern oder überlappen, dann ist die Amplitude der daraus entspringenden Welle (die weder eine Synthese der beiden Wellen noch eine »neue« Welle ist) eine kombinierte Amplitude der beiden ersten Wellen, i. e. die Amplitude der zweiten Welle wird zur ersten Welle addiert, und das Resultat ist eine Welle mit kombinierten Amplituden, die Superposition der beiden Wellen.1 (Vgl. Barad 2015: 88f.) Das Denken orientiert sich hier nicht am Objekt, sondern an der Amplitude. Es geht um die idempotente Addition zweier Wellen, die Wellen vom selben Typus bleiben. Die Superposition kann bezüglich zweier konkreter Wellenphänomene oder abstrakter Objekte (komplexe Zahlen) entweder konstruktiv oder destruktiv sein. Es gilt hinzufügen, dass die Superposition weder zu einer Identifikation von zwei korpuskulären Identitäten, die etwa addiert werden, um ein Ganzes zu formen, noch zu einem Supplement führt, das ein Ganzes durch seine différance überschreiten will, sondern eben zu einer singulären Welle zu jedem Zeitpunkt (Interferenz). Auch das Prinzip der Nicht-Kommutativität entlehnt Laruelle der Quantenphysik. Es beinhaltet, dass zwei inverse Produkte oder physikalische Quantitäten nicht zeitgleich gleich und tauschbar sein können. Es gibt zwar eine Inversion der Produkte von Variablen, aber diese immer unter dem Gesichtspunkt ihrer Nicht-Kommutativität. Insofern gilt die Unilateralität nicht nur für zwei, sondern für vier Terme. (Laruelle 2013a:94) Wenn man nun das Prinzip in eine unilaterale Ordnung einfügt, dann gilt es als generisch.

Den quantenphysikalischen Prinzipien der Superposition und der Nicht-Kommutativität fügt Laruelle noch den Begriff der Idempotenz hinzu. Der Term Idempotenz steht für eine quasi-mathematische Regel, die aus der Informatik stammt und mit der man die Überlagerung zweier Wellen in einer einzigen beschreibt (1+1=1). Dabei ist die Idempotenz keinesfalls als bloße Addition oder als Multplikation mittels der Einheit der Zahl zu verstehen, und sie führt auch nicht zur Synthetisierung der beiden Wellen in einer dritten Welle, sondern sie sagt aus, dass die Wellen stets dieselben Wellen bleiben. Idempotenz inkludiert also die algebraische Eigenschaft bestimmter Operationen (A + A = A) und wird von Laruelle als die phänomenologische Eigenschaft der Superposition und ihrer Immanenz interpretiert. Man kann sie auch das Prinzip der Undulation oder die Apriori-Form des Partikels nennen. Die Undulation bezieht sich hier immer auf die Thematik »Quantum-Welle und Partikel«, letzteres im Gegensatz zum Korpuskel (individueller Körper). Laruelle bevorzugt gegenüber der mathematischen Quantenmechanik nicht das Partikel, sondern die Welle, und er unterscheidet zudem das Korpuskel vom Partikel, das eine generische Form besitzt. Welle und Partikel sind dasselbe und/oder unterschieden, i. e. es gibt die Welle/Partikel-Form gemäß einer objektiven Erscheinung. Welle und Partikel sind insofern nicht dasselbe, als es die Nicht-Kommutativität zwischen Welle und Partikel gibt. Unterschieden sind sie insofern, als die Welle ein radikal immanentes Phänomen (Superposition) ist, und das Partikel für den Exzess einer einfachen Transzendenz steht, die der Immanenz gegenüber nicht abgeschlossen bleibt.

Es dürfte klar sein, dass Laruelle die Quanten-Prinzipien weder als Prinzipien einer ersten Philosophie noch als positive Prinzipien der Mathematik/Physik, sondern als in-der-letzten-Instanz determinierende (exakter unter-determinierende, weil rein formale) Setzungen begreift, die stets gemäß dem Realen anzuwenden sind. Und die generische Wissenschaft hat mit Hilfe dieser zwei Prinzipien so zu operieren, dass sie komplexere Resultate als die von ihr verwendeten Materialien aus der Wissenschaft und der Philosophie hervorbringt, wenn sie denn ihre eigene theoretische Praxis entwickeln, das heißt, eine Relation zwischen Wissenschaften und Philosophie in der Immanenz einer »logischen« Verbindung herstellen will, die Laruelle »unilaterale Dualitat« nennt (unter der Dominanz der generischen Wissenschaft).

In seinen aktuellen Schriften, vor allem in der Schrift Philosophie non-standard. générique,quantique, philo-fiction, mobilisiert Laruelle für diese Art der theoretischen Praxis eine Reihe von Begriffen aus der Quantenphysik, bei denen er allerdings von der mathematisch-quantitativen Artikulation absieht. Eine generische »Quantifizierung« der Philosophie beinhaltet an dieser Stelle allenfalls eine Wissenschaft-in-Zahlen ohne Kalkulation. Auf diese Weise gelangt Laruelle schließlich zu einer Vektor- oder Welle-Teilchen-Konzeption von Begriffen. Darunter versteht er begriffliche Quantenphänomene, die als virtuell einzustufen sind und sich nicht auf die Realität, sondern auf das Reale qua der Immanenz desselben beziehen - das Reale, für das die Prinzipien der Superposition und der Nicht-Kommutativität sowie die Idempotenz unbedingt Geltung besitzen. Diese Prinzipien sollen der theoretischen Praxis Hypothesen, Beschreibungen und Experimente gemäß dem Realen ermöglichen. (Vgl. Laruelle 2010b) Demnach wäre die generische Wissenschaft als eine Quantentheorie zweiten Grades oder als die Quantenphysik makroskopischer Objekte zu verstehen. (Ebd.: 141) Die generische Methode operiert dadurch, dass sie aus den verschiedenen wissenschaftlichen Disziplinen oder Philosophien eine Minimum-Invariante extrahiert, wie etwa die imaginäre Zahl aus der Analysis, die Welle aus der Quantenphysik, das Transzendentale aus der Philosophie, das Kapital aus der Ökonomie etc. Diese Invarianten gilt es zu superponieren, oder, anders gesagt, sie müssen als theoretische Gegebenheiten in den Modus der Superposition eingeführt werden. Die Materialien der Wissenschaften oder der Philosophie sind also einem materiellen, konzeptuellen Formalismus zuzuführen, i. e. sie sind selbst als Vektoren in den Zustand der Superposition zu versetzen, das heißt in den Kontext der generischen Wissenschaft, die eher mit dem (vektoriellen) Begriff der Welle als mit Begriffen wie Korpuskel und Punkt operiert. Die realen theoretischen Gegebenheiten werden quasi als Vektoren im Superpositionszustand behandelt, der in der Quantenphysik mit den imaginären Zahlen indexiert wird. Die vektoriale Dimension wird durch die imaginären Zahlen eingeführt, und dies heißt für Laruelle, dass die theoretischen Gegebenheiten auf der komplexen Ebene als Vektoren mit einem Real- und einem Imaginärteil dargestellt werden. (In der Quantenphysik indexiert man die vektoriale Dimension mit den komplexen, imaginären Zahlen – es handelt sich um Vektoren mit einem realen und einem imaginären Anteil.)  

Nehmen wir zum Beispiel die laruellesche Konzeption des »quarter turn«. Er steht für die geometrische Repräsentation der komplexen, imaginären Zahlen und wird mit der Quadratwurzel -1 denotiert. Eine komplexe Zahl besitzt zwei Teile: einen realen Teil und einen imaginären Teil, so zum Beispiel 2 + 3i. Wen man in der Geometrie eine reale Linie zieht und eine imaginäre Linie im rechten Winkel ansetzt, dann kann man die komplexe Zahl als einen Punkt auf dem Graphen (mit seinen zwei Achsen) darstellen. Eine Zahl mit i zu multplizieren und die Linie im Uhrzeigersinn 90 Grad vom Ursprung zu drehen, das gilt hier als äquivalent. Weiter lässt sich schreiben: 1 * i = 1i, 1i * i = -1 Weil die Quadratwurzel von i -1 ist, so ist n * i * i = n * -1 = -n. Exakt das ist der »quarter-turn«. Um ihn kurz und knapp als Kreisform zu erfassen: Das Reale wird das Imaginäre, das Imaginäre wird das negativ Reale, das negativ Reale wird das negativ Imaginäre, und das negativ Imaginäre wird das Reale.2

Die Wellenfunktion kombiniert Symbole, die der Philosophie entstammen (Eine, Sein, Anderer, Multiplizität, Gegebenheit etc.) oder der Wissenschaft entstammen und durch imaginäre oder komplexe Zahlen »berührt« werden, sodass schließlich ein »quarter turn« oder ein Kreis entsteht, oder um es phänomenologisch zu sagen, eine unilaterale Dualität. Es handelt sich hier immer um einen undulatorischen Prozess und nicht um die Addition von Stadien. Oft spricht man zwar von einem Vektor-Stadium, aber die Vektoralität des Vektors ist selbst ein Prozess und eben nicht das Stadium oder das Objekt einer mathematischen Operation. Als Teil der vektoriellen Form der Immanenz und der Transzendenz konstituiert der »quarter turn« die prä-undulatorische Substanz, zumindest dient er als Material oder als materielle Implementation. Somit gilt er als ein generisches Element der Undulation: Der generischen Superposition des »quarter turn« mit sich selbst und der Superposition mit der Welle müssen zudem noch die Komponenten Direktionalität und Transformation hinzugefügt werden. An dieser Stelle beeilt sich Laruelle darauf hinzuweisen, dass innerhalb der generischen Matrix (die Verbindung von Philosophie und Quantenlogik als Variablen, die in radikaler Immanenz bestehen, sogar im Sinne eines Rhizoms) die Variablen eher als Begriffe oder Konzepte denn als (imaginäre) Zahlen zu verstehen seien, wobei nun von einer komplexen oder imaginären Funktion von Begriffen (der Aspekt der Fiction) auszugehen sei. (Laruelle 2014: 159) Es geht hier nicht darum, mit einer Zahl, die weder positiv noch negativ ist, Gleichungen zu lösen, sondern Laruelle kreist durchaus um ein philosophisches Problem, das allerdings die Mathematik selbst aufwirft.

Der Vektor zeichnet sich durch die beiden Operationen Superposition und Addition (Addition der Pfeile) aus, wobei keineswegs auf ein abgeschlossenes Ganzes gedrängt wird, sondern unabgeschlossene Summierungen angestrebt werden. Entscheidend bleibt hier nach wie vor der erste Term, der auf die unilaterale Dimension des Vektors oder der Welle verweist (Immanenz der Relationen als Uni-Lation; ebd.: 158), wobei das Partikel (zweiter Term) immanent im wellenförmigen Fluss als Klon gesichert wird, in einer wellenförmigen Erhebung, die die transzendental-empirische Dublette oder den ewigen Kreislauf der Zeit außer Kraft setzt. Die unilaterale Dualität stellt wiederum die »Menge« dar, sowohl auf der Seite des Klons als auch auf der Seite des Vektors. Das Ergebnis ist Immanenz, Eins-in-Eins, das die Zwei-in-Eins trägt (Klon=Zwei). (Ebd.: 178)

Laruelle würde wohl Karen Barads postfeministischer, quantentheoretisch inspirierter Technikkonzeption widersprechen, mit der sie im Zuge des Rückgriffs auf die derridasche différance eine quantenmechanische Unbestimmtheit konzipiert, wobei Begriffe wie Relation, Phänomen und Einfaltung zur Bestimmung oder zur Schärfung der Unschärfe wichtige Komponenten des Konzepts darstellen, insofern die Unbestimmtheit relativiert oder geschnitten wird. Das Generische transformiert hingegen bei Laruelle die Relation radikal zur Uni-lation, zum unidirektionalen Prozess, der nie angefangen und aufgehört hat und dem eine Matrix inhärent ist; ein transfiniter Prozess, der sowohl die Vorherrschaft des wissenschaftlichen Einschnitts als auch des philosophisch Infiniten radikal reduziert. Zum einen will Laruelle die begriffliche Ausarbeitung einer generischen Matrix (ebd.:170), die gleich einer Partikelwelle funktioniert, vorantreiben, zum anderen will er damit einen neuen generischen Denk-Apparat installieren, zwei Variablen, die durch inverse Beziehungen miteinander verbunden sind. Der Denk-Apparat wird selbst als ein Teil der generischen Matrix definiert, deren Variablen also die Objekte und die nicht-philosophische und die quantenmechanische Interpretation der Objekte umfassen. Die Klonalität verbindet hier die unilaterale Komplementarität mit Virtualität, dem Schreiben des Klons, der in der letzten Instanz virtuell ist. Dabei generiert das Onto-Vektoriale des Denkapparats selbst eine komplexe Lektüre des Vektoriellen der Objekte, und dies führt hin zu einer onto-vektorialen Interpretation der Theorie als Modell. (Ebd.: 170) Es handelt sich um Vektoren bzw. um imaginäre Begriffe/Philosopheme, die die imaginären Zahlen ersetzen. Als Subtraktion jeder Transzendenz zeigt der Vektor Folgendes an: »Der Vektor zeigt auf die Oberfläche der Realität, die er in einem Tunnel durchquert und mit der er sich vermischt, bevor er sich verlängert, indem er zu sich zurückkehrt und den objektiven Schein eines An-Sich schafft.« (Ebd: 176)3

Für den Nicht-Marxismus heißt dies nun Folgendes: Er definiert sich auf der theoretischen Ebene selbst als ein spezieller Formalismus, den Laruelle der Quantenphysik entlehnt. Dies kann aber keinesfalls die mathematische Quantenphysik sein, insofern der Formalismus in diesem Kontext als real-transzendental und nicht physikalisch begriffen werden muss. (Das Quantum Postulat bezieht sich hier weniger auf die quantifizierbare Ökonomie als auf das Wissen über die Ökonomie. Es erfordert eine materielle Konstante, und zwar als die Basis eines Quanten-Denkens der Ökonomie.) Laruelle nennt Formalismus eine durch Axiome oder durch Matrizen von Axiomen angeleitete Theorie, die a) durch das Reale, das radikal immanent ist, determiniert wird; b) eine Kausalität inhäriert, die unilateral ist oder die DLI beinhaltet; und c) die ihr Objekt in der Ideen-Welt findet, in einer Philosophie, die durch Erfahrung kompliziert wird. Es handelt sich hier um eine Nicht-Theorie oder um eine unmögliche Theorie: Der Formalismus zählt für Laruelle insbesondere als ein theoretischer Stil, der dem Undenkbaren adäquat ist; als eine Form der Theorie, die für das gemacht ist, was innerhalb der gewöhnlichen Ebenen der Theorie und der Formen der Repräsentation unsichtbar bleibt. Und dies erfordert a) die Leere jeder formalen und wissenschaftlichen Struktur im positiven Sinne (Laruelle fordert eher eine Dualyse als eine Analyse, i. e. eine konzeptuelle Dekonstruktion der Philosophie); b) das materielle Apriori der Theorie, das je schon dem Primären des Realen untergeordnet und damit intrinsisch unrepräsentierbar ist, das heißt, dass die Theorie auch vom Theoretiker abstrahiert, der unilateral deduziert wird; c) dass je nach Fall die Theorie nahe an den Symptomen des Marxismus ist.

1 Wenn ψ1 und ψ2 Lösungen für Wellen darstellen, dann ist jede arbiträre lineare Kombination der beiden Lösungen eine Lösung von SE (SE ist eine lineare Gleichung). Wenn nun jede der individuellen Lösungen mit einer arbiträren komplexen Zahl multipliziert wird und man sie zusammenzählt, so ist die Summe wiederum eine Lösung, ψ=aψ1 + bψ2, so lange die Koeffizienten folgendermaßen relationiert sind: /a/2 + /b/2=1 In diesem Fall sind die Lösungen sichtbare Wellenfunktionen. Die Superpostion ist ein Feature des Verhaltens der materiellen Wellen als einer Quantelung der Welt.

2 In der Geometrie ist der Vektor eine Linie mit fixierter Länge, aber er besitzt keine fixierte Position. Man kann ihn daher als einen Kanal denken, der bestimmte Anforderungen stellt, dienicht nur angewendet werden, um verschiedene Knoten zu verbinden, sondern diese Knoten zuallererst auch hervorzubringen. Der Vektor kann auch als Teil eines Vektorfeldes gedacht werden, das eventuell sogar eine verformbare Geometrie besitzt. Was hier jedoch interessiert, das ist nicht die trügerische Dimension, sondern die Taktik und das Experiment. Für Laruelle ist der Vektor a) die Modul-Phasen-Maschine (Immanenz-Transzendenz) der uni-lateralen und keineswegs der bi-linearen Untrennbarkeit, die schneidet/fließt (Deleuze), b) besteht der Vektor aus minimalem oder altem Material des »quarter turn«, i. e. er besteht als Amplitude der Erfahrung des Denkens (nicht der Wunschmaschine), und c) wird er eher durch die Superposition in der letzten Instanz als durch den Körper ohne Organe produziert. Vektorielle Maschinen sind keineswegs als zweiseitig im Stadium der Zugehörigkeit oder als Teil der passiven Synthesis, sondern als radikal immanente Maschinen gegeben.

3 Es handelt sich bei der generischen Wissenschaft um eine durch und durch experimentelle Performance, mit der mittels einer nicht-mathematisierten Wellentheorie undulatorische Interferenzen und Kollisionen von Begriffspartikeln erzeugt werden. Um nun generische Erweiterungen des Ausgangsmodells zu erstellen, muss die »generische Matrix« (einerseits ein »Paradigma« im Sinne von Thomas Kuhn, andererseits ein »Modell« im formalistischen Sinn der Mathematik) selbst in allen Teilen immer wieder neu erfunden werden. Es handelt sich also nicht nur um die Erfindung einer neuen Form des Denkens, sondern insbesondere auch darum, die Form der Erfindung selbst zu untersuchen, oder, um es anders zu sagen, das Generische als Erfindungskraft oder als »Erfindung-in-Person« zu erfinden.

Beyond “Control Societies” Sun, 05 Jul 2020 06:37:14 +0000

Radical indifference

Today, the behavioral and receptive patterns of the masses consist mostly of repetitive habits, although as users on the Internet they by no means remain passive, but are constantly involved in the pseudo-turbulent events via the social networks, in order to busily and employment-conform, sometimes even racist, produce data and information which the large media groups such as Google, Apple or Facebook extract, quantify and exploit. In the process, a new accumulation logic has emerged within which surveillance capital extracts data on human behaviour, including apparently useless surpluses of data (errors, syntax, signs, etc.), i.e. it absorbs data and errors and constantly combines them with other data to feed intelligent machines that use algorithmic processes to produce predictions on the future behaviour of users, predictions that are then offered and sold as quasi-derivatives on behavioural futures markets. (Zuboff 2018: 125) In doing so, surveillance capital extracts a predictive value not only from the content that a user posts, but also from the exclamation marks and commas that he or she sets or does not set, or, to put it another way, not from where someone goes, but how someone goes. Users may remain the owners of the data they give to the surveillance capitalists, but they don't get access to the surplus of data. With the data, the specific content of the posts evaporates, indeed the statements mutate into exchangeable and at the same time usable material. At the same time, the consumer must be encouraged to somehow stay on the ball within the 24/7 cycle by producing, posting and commenting on posted material, liking, exchanging and archiving a lot of data himself, so that the surveillance capitalists can easily suck it in and use it permanently as a living data generation machine. There is a radical indifference in Facebook with regard to the respective meanings and content of the posts, which leads to the fact that the "content is judged, quantified and evaluated solely according to the volume, diversity and depth of the surplus that is generated" (ibid.: 578), and this is done on the basis of the anonymous measures of "clicks, likes and lengths of stay - despite the obvious fact that it (surplus) derives its profoundly different meanings from profoundly different human situations" (ibid.: 438).

The radical indifference of surveillance capital to the contents of the posts requires, from the subjective point of view of the users, an increase in the organic composition of ignorance (apart from love for oneself), which, however, is by no means an individual shortcoming, but rather a simple consequence of algorithmic governance, and this ignorance is in turn the prerequisite for surveillance capital to be able to act in this way without further ado a specific speculative capital, which in the mode of simultaneity transforms uncertainties into risks and then also constantly updates and evaluates them. The mode of actualization here, however, must by no means be understood as that of the virtual, as Deleuze demonstrates, but rather is identical with the momentary nature that is now set for the long term, so that it is solely dependent on what is current in the present and what counts in the media.1

This has also shifted the relationship between difference and consolidation/standardization in the media world. In our analyses, we are perhaps still too strongly adhering to the verse (equalization), an inversion and mutation of diversity, which, however, does not include the elimination of difference or socio-cultural differentiation; on the contrary, the verse uses difference as its real substrate to generate standardized organizational systems. New systems of order and power technologies are constantly being created that absorb or at least modulate differences. On the other hand, the operationalization of radical indifference no longer leads to a modulation and consolidation of differences; rather, all differences that affect the most diverse contents are considered equivalent and thus the content or meaning is neutralized. This kind of rigid formatting goes back to a financialised accumulation regime whose first claim is no longer progress or development, but which in its short-term nature or every second must promise the successful management of constantly present risk possibilities, regardless of the underlying assets to which the insurances refer.2 In this process, anything and everything, every event, every content and every meaning can be transformed into risk. Analogous to this, the content that is available on the social platforms in images, videos and texts materialize, the tradable raw material that surveillance capital extracts as data. This is a surplus in that it also extracts data that goes far beyond what would actually be necessary as an information service for the user, but which is a resource that needs to be capitalized by the surveillance capital. Ultimately, all differences (of content) are considered equivalent, or, to put it another way, every specific meaning dissolves in the data stream, so that a radical indifference prevails. Difference is equal to indifference, this is the magic formula. This kind of content-neutralizing equivalence makes at least the visible, flowing text on Facebook generally susceptible to all kinds of fake news, which is usually accepted by the surveillance capitalists as long as there are no objections from the political side, since after all, any content counts as data raw material for the invisible shadow text or the black box of algorithms, which the "machine intelligence" then operationalizes so that the surveillance capital in the behavioral derivative markets can offer advertisers precise prediction products. This type of extraction and production of data or behavioural surpluses requires a project that must also necessarily produce certainties far beyond the transformation of uncertainty into a calculable risk, i.e. it must not only anticipate precise forms of user behaviour, but also actually motivate and control users to adopt the behaviours desired by the surveillance capital.

The postfactual age is immanent to the incessant generation and interpretation of data and information (and their meanings), but this does not mean that the meaning itself disappears. The liquefaction of meaning in the endless mass of data as a result of the permanent search for patterns and correlations in the produced data does not mean, as Baudrillard and his simulation theory assume, that signs merely circulate in the as-o-ob, but that the extraction of "meaning per se" is becoming increasingly intense, precisely because of the fact that meaning and interpretation are still necessary, regardless of what is now meant in detail. This lies in the last instance in the capitalization oriented towards the future, which includes both money and bits in their exchangeability as well as an increase in capital calculated for the future, with the sole purpose of staging everything and anything as a financial investment or derivative, which, regardless of the respective determinacy of an underlying to which the derivative in each case refers, is to generate nothing but yield.

With regard to the interchangeability of bits, the computer proves to be a character transformer that processes pure information, but not without content, but with arbitrary and interchangeable content. Just as money must be exchangeable for goods, regardless of which, bits must mean something, regardless of what they mean. Money and bits indicate communication exclusively under the aspect of the negation of a specific meaning.3 Or, to put it another way, to the exclusion of any meaning except that it must be meant incessantly, so that the fact that it is and the thwarted perspective of meaning clearly comes to the fore here.4 Therefore, especially in the current data invasion, there is no general loss of meaning, but rather an overproduction of meaning that is complementary to the indifference of capital towards any specific meaning, but it must still be meant, otherwise the system would fall apart.5 This kind of overproduction of meaning constitutes the real loss of meaning and truth. Betancourt summarizes these connections as agnotology. He writes: "The problem of the information-rich society is not access to information - accessing information becomes an everyday matter due to the constantly activated computer networks - but is a question of coherence. Agnotology works in the production of decoherence: it undermines the ability to determine what information is truthful and permissible for the construction of interpretations". (211) "Agnotology has the function of eliminating the potential for contradiction." (234) As a correct term for the constitution of this data empire, Betancourt proposes "agnotological capitalism": "a capitalism systematically based on the production and maintenance of ignorance." (233) Ignorance is thus less the consequence of a lack of information than, on the contrary, the result of an abundance of information.

So draw today, the creative capacity of high-tech paranoia is less due to a lack of orientation knowledge than to the overproduction of meaning resulting from the game that meaning exists in the first place. If meanings thus become interchangeable in multiply circulating artificial interpretative procedures, from which the battles for interpretations first arise, then a mad search for meaning follows quasi inevitably. While capital can certainly live with this kind of loss of meaning through the overproduction of equivalent meanings, this is not readily possible for the state, because with it the equivalence of all meanings is called into question if it wants to prove itself as the standpoint of all standpoints.

One could say with Lacan that the unfiltered data stream is the realm of the real, while information and metadata reflect reality, a world made intelligent by cognitive filters and technological infrastructures, which itself is composed of registers of the imaginary and symbolic. An incessant flow of data, information and opinions, which react to each other in an almost hysterical way, especially in social networks, as equal and as different at every moment, in order to create above all delusional aggregates and illusional waste of any kind.

We have to speak of a trend here, since Google & Alphabet generates a large part of its turnover with advertising based on the auctioning and renting of search terms, so that it can be said that data is the raw material of the digital economy, but linguistic meanings do not disappear completely with it, so that there can also be a systematic capitalisation and monetization of linguistic meanings. Even in the financial sector, there is a consensus that capital is not exhausted in numbers, charts and models based primarily on a-significant semiotics, but that companies need to be dressed up semantically and narratively.

Although the value of brand companies in particular cannot be determined independently of their material assets, business practices, product portfolio and measurable and expected future economic success, symbol systems and narratives still play a role in determining the market value of brand companies in particular. While money as the form of the general equivalent of goods levels out their qualitative differences, brands always promise the incomparable and singular, they do not only use markings of difference, but differentiated systems of signs and symbols. Here, the incommensurable meaning, which has no equivalent, has meaning itself. The brands have even institutionalized the appropriation of symbolic capital, whereby it is up to the individual to decide whether he or she wants to fall back on the symbolic worlds and the repertoire of signs of the brands. Moreover, the algorithmic operationalization of lexical material makes it possible to objectify, quantify and monetarize the value of a word. The term exchanges transfer the mechanisms of price formation to language and its lexical material. Every word, every term has its price, which is determined in a digital auction. And this monetary value in turn does not remain without influence on the choice of words and the use of language, whereby outstanding terms and combinations of terms are preferred. Money has taken possession of language, while the algorithmic production of language simultaneously generates a high degree of communicative liquidity and indifference.

Quantification tool

Traditional tools of disciplining and evaluation are not necessarily those of quantification. The new techniques of quantification cover much more than one can even imagine. They are not prostheses of human consciousness, but rather, they imbed a transformation that goes far beyond human perception. While a camera still offers a magnification for existing human observation, a fitness tracker, for example, allows us to engage with the world in a way that questions previous modes of subjectivation. This tracker is not a tool for human perception, but an instrument of sensation, whose function is to observe processes in almost incomprehensible detail by generating quantitative data. Fitness trackers do not replace human cognition, but perform sensory activities of movements (steps, sleep, pulse, etc.) that have not yet been observed and quantified. They open the possibility to experience something that is not directly accessible to human consciousness. As tools of Sensation

instead of being perceptual and evaluation, digital tracking technologies perform relatively mundane functions such as counting, as much as possible (quantification), without necessarily comparing (measurement). Portable self-tracking technologies tend to observe aspects of the human being that are countable (steps, inhalations, heart rate, etc.), even in the absence of measurement. Where these movements are quantified, measurement can of course be reintroduced as the target or the norm of a number of steps. But the primary task of trackers is to count, not to compare. If one focuses on the question of pulse both somatically and metaphorically, one comes to the conclusion that a possible crisis of measurement does not necessarily have to be a crisis of quantification. The requirements of sensory tools and data analytics are what Lefebvre calls "internal measures" of data that are constantly accumulated in real time. This measure necessarily exists in time, referring to a rhythm that originates from the body or a social context, such as the pulse rate. A healthy heart rate is one that is in sync with a situation, but also varies in time in a reasonable and insightful manner.

Today, the form of government appropriate to financial capital necessarily includes the quantification device. Steffen Mau writes in his book Das Metrische Wir: "The demand for transparency, in its exaggerated and ultimately totalitarian form, means that each and every one of us is legitimately and permanently checked, observed, classified and evaluated in all aspects of life. (Mau 2017: 231) The new totalitarian mass movement would accordingly be, to put it somewhat exaggeratedly, the permanently self-counting and evaluating and comprehensively counted and evaluated population. In the context of neoliberal governmentality, which Foucault described so vividly, far-reaching dispositives of quantification as well as of evaluation, calculation and comparison have developed due to the digitalization of capitalist production processes, the state apparatuses and all social institutions, which rely on constantly modulating processes of increase and outbidding in terms of the profitability, efficiency, performance and transparency of activities in all possible social spheres, leading to a comprehensive quantification of the economic, social and political bodies that stir up, penetrate and superimpose the previous stratifications, class divisions and their symbolic procedures of distinction.

And even the most private sectors of the population are now integrated into these quantification processes, whereby the actors are constructed and written down as data, which in turn are transformed into numbers. These monitoring and quantification processes today encounter strangely passive-active individuals, passive in that they are constantly divided by ranking and rating procedures and thus generated as individuals that are constitutive for tests and samples, active in that they are motivated by desire, tirelessly simulate individuality and, in this context, demonstrate their active willingness to voluntarily provide data, to participate in rating and ranking procedures and to cast every day. Such participation is not only inherent in the quantification system, but it also constantly intensifies its effects, which are not only in the quantifications produced by the methods and in numerical comparison, but also intensify the competition between the people who evaluate and those who are evaluated.

In the context of the implementation of the quantification dispositive, there are thus also constant battles between the actors for their positions; there are ongoing actions that serve to improve ranking and which are inscribed in objectified orders, hierarchies and complexes of valence through continuous measurement. (Mau 2017: 49ff.) This objectified quantification disposition includes manifold procedures of counting, evaluation and integration, whereby the status of objects, phenomena, facts and actors is translated into the abstract language of numbers. In this mathematical universe, exact, i.e. unambiguous, quantification and order relationships prevail, within which comparative methods, differentiations and scaling play an important role. And it is precisely for this reason that the quantification dispositif in public surrounds an aura of neutrality, correct verifiability and exactness, thus offering a useful and supposedly ideology-free representation of socio-economic conditions,

which, when processed by machine intelligence, seems to be decoupled from human decisions and practices, and even from power relations, one thinks here of apparently objective indicators such as gross domestic product, unemployment rates, indicators of public debt and many other parameters that can be traced back to statistical procedures, but which, when they come into the public eye, can nevertheless lead to not inconsiderable distortions in the various social areas.

By means of the continuous inscription of various indicators, data and figures, the quantification dispositive unfolds, whose metrics, evaluations and calculations penetrate deeply into the political, economic and social fields, structuring and regulating them, up to the various procedures of self-optimization of the actors. The result is a normalizing and at the same time performative ritualization of all these fields, i.e. a socially constructed measurement using the syntax of numbers.

The proliferation processes of ubiquitous quantification can be seen in numbers. It is estimated that the amount of data in digital space will grow by a factor of 300 in the period from 2005 to 2020 (Mau 2017: 41), whereby not only the production of the data and its storage capacities will increase, but also the potential for the creation of links and clustering of the data with constant improvement of the algorithmic procedures and the strategies and processes of big data (data mining and analysis). It is easy to demonstrate that the quantification disposition is part of an expansive capitalisation, even in areas that have so far been largely removed from the logic of profit, such as education, administration, health care and cultural institutions such as museums, all of which are now subject to an efficient allocation of resources by permanently installing evaluations, tests and audit procedures of the actors integrated into these institutions, which are now themselves on the one hand ultra-visualized in the rankings and on the other hand forced into the competition, which demands constant adaptations, whereby the actors themselves are reduced to living data, who sit in front of the flickering screens and type their behavior into the computers, whereby they can be quantified in an apparently unsuspectingly comprehensive way, while they are nevertheless quite consciously exposed to these processes when it comes to the advantages in ranking and rating over the mass of competitors. The problem of credit points, the various programs of evaluation and optimization take on their gentle regime to the finest detail, proliferating into the last cracks of offices and corporate situations, power becomes fluid, it becomes "gaseous", as Deleuze says, it organizes itself in networks, in which each node potentially contains the information of the entire system, it becomes micrological or even nanotechnical, it becomes "interactive" by initiating an uninterrupted game of action and reaction, in which the actors end up filling the gaps and pores of external control by means of techniques of self-control. In the process, the state and above all the private surveying companies permanently generate incentive systems transformed into numbers in order to further strengthen the actors' willingness to perform and give evidence, whereby very smooth algorithmic shadow texts, which are not visible to the users, accompany, even direct, the adaptation processes.

Algorithmic governance

Ever-known facts such as satellite monitoring, enormous computer capacities on silicon chips, sensors, networks and predictive analytics are now components of the global digital systems that are currently comprehensively quantifying, analysing, evaluating and capitalising on the lives and behaviour of populations. Under pressure from the financial markets, Google, for example, sees itself forced to constantly increase the effectiveness of its data tracking and its analyses generated by machine intelligence, and precisely for this reason to fight every claim by users to protect their own privacy with the most diverse means. Thanks to a range of devices such as laptops and smartphones, cameras and sensors, computers are now omnipresent in capitalized everyday life; they are character-reading machines that execute algorithms (necessarily computable, formally unambiguous procedural instructions) and only develop their full power in the context of digital media of networking, for which the program-controlled design, transformation and reproduction of all media formats is a prerequisite. In this game, the social networks in particular enable a kind of economy that, due to the extraction of personal data that is used to construct metadata, cookies, tags and other tracking

-technologies, has established a strangely new algorithmic governance. This development has become known above all as "Big Data", a system based on networking, databases and high computing power and capacity.

According to Bernard Stiegler, the processes involved are those of "grammatization". In the digital stage, these lead to individuals being guided through a world in which their behavior is grammatized when they interact with computer systems operating in real time. For Stiegler, however, grammatization begins with cave paintings and leads via the media of cuneiform writing, photography, film and television to the computer, the Internet and the smartphone. The result of all this is that the data paths and traces generated by today's computerization technologies constitute ternary attention-reducing retentions or mnemonic techniques that include specific time procedures and individuation processes, that is, "industrialization processes of memory" or a "political and industrial economy based on the industrial exploitation of times of consciousness. According to Stiegler, the digitalization of data paths and processes, which today function with an urgent urgency by means of sensors, interfaces and other means and are basically generated as binary numbers and calculable data, will create an automated social body in which even life itself is still transformed into an agent of the hyper-industrial economy of capital. Deleuze already foresaw this development in his famous essay on control societies, but the forms of control will only come into full force when digital calculation integrates the modulations of control techniques identified by Deleuze into an algorithmic governance that also includes the automation of all existences, ways of life and cognitions.

One of the central dilemmas of postfordism is to establish conformity, consensus and cooperation without using disciplinary techniques of power that damage creativity and affective values too much. The boundaries of the economic seem to be blurring, but there must still be economic rationality if companies are to survive in competition. Postfordist control societies are no longer explicitly dominated by strategies; rather, the ideal of control consists in letting power infiltrate tactics to penetrate contingent and emergent rhythms of everyday life, in the sense of cooperating with the goals of management.

The power technologies of protocols that underlie the Internet are a-normative, since they are rarely widely debated in the public sphere; rather, they appear to be immanent to algorithmic governance. The debate is now: Do data generate digital protocols or digital protocols generate data? Or more narrowly: are data digital protocols? In any case, the setting of the data has a structuring character, and not only the results of machine data processing. Like any governance, if we think of it in the sense of Foucault, algorithmic governance implements specific technologies of power, but today it is no longer based on statistics that refer to the average or the norm, instead we are dealing with an automated, atomic, pulsating and probability-based machine intelligence, which operates forensics and data mining independently of the medium - automatic computing collects, captures and mobilises data on the behaviour of market participants at breakneck speed, close to that of light, using the methods of artificial machine intelligence, controlled and capitalised by surveillance groups by extracting their data. 6 The digital machines that continuously collect data and read and evaluate data traces thus mobilize an a-normative and an a-political rationality that insists on the automatic analysis and monetary valorization of enormous amounts of data by modeling, anticipating and thus influencing the behavior of the agents. Today this is trivialised as ubiquitous computing, in which, and this must be pointed out again and again, surveillance capital extracts the behaviour of the users and produces the prediction products based on it, which are created by the algorithms of surveillance capital, not only on the Internet but in the real world, and then constantly diversifies and deepens the prediction products through special procedures. Everything, whether animate or inanimate, can now be data, connected, counted and calculated.

And so signals are constantly flowing from cars, refrigerators, houses and bodies etc. as data into the digital networks, which are sold to those advertising customers who carry out targeted advertising. (Zuboff 2018: 225).

To put it more precisely: the capital of the companies Google or Facebook automates the buying behaviour of consumers, channels it by means of the famous feedback loops of AI machines and binds it in a targeted manner to companies, which in turn are advertising customers of the monitoring capital. The promotional behavioural modifications to be achieved among users are based on machine processes and techniques such as tuning (adaptation to a system), herding (targeting the masses) and conditioning (training stimulus-response patterns) that guide user behaviour in such a way that the machine-constructed predictive products actually drive their behaviour towards the intentions guaranteed by Google or Facebook. (ibid.) Maximum predictability of user behavior is now a genuine source of profit: the consumer using a fitness app is best advised to buy a healthy beverage product at the moment of maximum receptivity, for example after jogging, which is made palatable to him by targeted advertising. Sports goods manufacturer Nike, for example, has bought the data analysis company Zodiac and uses it in its New York stores. When a customer enters a store with a Nike app on their smartphone, they are recognized and categorized by the geofencing software. The app's start page also changes immediately and instead of online offers, the new products in the shop appear on the screen, i.e. special offers and recommendations tailored to the customer. Particularly loyal customers receive small gifts in the shop and can even have the desired goods delivered to the changing room by smartphone.

Surveillance capital has long since ceased to be just about the sale of advertising. It very quickly became the model for capital accumulation in Silicon Valley, and is still used by almost every start-up company today. But the model is not limited to individual companies or the Internet sector, but has spread to a wide range of products and services across the entire economic sector, including insurance, health care, finance, cultural industries, transportation, etc. Almost every product or service that begins with the word "smart" or "personalized", every Internet-connected device, every "digital assistant" in the corporate supply chain is an interface for the invisible flow of behavioral data on the way to predicting the future in a surveillance economy.

In the role of investor, Google quickly gave up its declared antipathy to advertising, instead deciding to increase profits by using its exclusive access to users' data drop, combined with analytical capabilities and computer power, to generate predictions about users' click-through rates, which are seen as a signal for the relevance of an advertisement. In operational terms, this meant that Google was transforming its growing database to make it "work" as a behavioral data surplus, while at the same time developing new methods that aggressively seek sources of surplus production. This surplus data thus became the basis for new predictions called "targeted advertising".

The surveillance capitalists first set themselves in scene by making statements in which the private "experiences" of the users were regarded as something that could simply be taken, and then consistently translated the "experiences" into data and appropriated them as private property and exploited for private knowledge gain. Google simply explained that the Internet is merely a resource for their search engine, adding that the private experiences of users serve the company's profits. The next step was to move the surplus operations beyond the online environment to the real world, where data on personal behaviour is considered free to be simply stolen by Google. And the surveillance capital no longer requires the population in their function as consumers; instead, supply and demand orient the surveillance companies towards businesses that are geared towards anticipating the behaviour of populations, groups and individuals.

Shoshana Zuboff describes data extracted from all kinds of human activities as a behavioral surplus as an attack on the experience itself. But what experience? Successful advertising today constantly absorbs qualities of real experience. These can be concerts, multi-media events, games and VR applications. From 3D to

to VR, the aim is to eliminate any barrier between person and experience. These experiences, which are then no longer disturbed by any media, are translated into what Bernard Stiegler calls conditioning. Aesthetics is now both theatre and weapon. And all this results in a misery in which conditioning substitutes experience.

It is no longer enough to automate the streams of information that illuminate the population; the goal now is to automate the future behavior of the population itself. These processes are constantly being redesigned in order to eliminate any possibility of user self-determination, which is not insignificant for the capital markets when predictions about the behavior of populations are not only probable, but approach the certainty that the desired behavior will occur. In competing for the most efficient prediction products, surveillance capitalists have quickly learned that the more behavioural surpluses are appropriated, the more accurate the predictions are, and the more the surplus can be varied, the higher the predictive value. This new drive of the economy leads from the desktops via the smartphones into the real world - you drive, walk, shop, look for a parking space, the blood circulates and you show your face - everything should be recorded, localized and marketed.

Zuboff writes that the surveillance capitalists claim the right to know, to decide who knows and to decide who decides, all by themselves. They dominate the automation of knowledge and its specific division of labour. Zuboff further writes that one cannot understand surveillance capital without the digital, although the digital can also exist without surveillance capital: surveillance capital is not pure technology, but digital technologies can take many forms. Surveillance capital is based on algorithms and sensors, artificial machines and platforms, but it is not the same as these components.

The limit for cheap data lies in the superimposition that is placed over other spheres of life to draw off their forces. In this respect, resources can also be extracted from people and nature that have already been cheapened by capital. At these borders, industrial labour, such as that which works in the centres at Amazon, is tracked and observed, thus providing double time for the company, which on the one hand benefits from the work, while on the other hand accumulating data on the movement of bodies in space. Friends and families offer each other the necessary but unpaid support (cheap care) on digital platforms such as Facebook to maintain social cohesion and reproduce the workforce while producing masses of usable data for the platform owners. This magic trick of collecting data as a by-product of various types of cheap labor is a big coup for capital and another way of extracting every human residue. As Moore says, the new cheap (labor here) allows new strategies to survive crises, because the superimposition of cheap data helps to solve the crisis of stagnant productivity and growth by collecting all kinds of existing work as a service to data producing machines.

The increase of cheap data does not only refer to the data extracted from human processes. While Google and Facebook are working to manipulate clicks and behaviors, data is being collected from the movement of machines to the growth of plants to the movement of interest rates. This data is used in various ways to train machine-learning systems that manipulate populations or create new markets, data that shape the world beyond life. When Zuboff absolutizes human behavior as the realm of extraction and control, she limits her arguments to a critique of surveillance, leaving capital and labor largely unexamined.

The behavioral surplus model and the metaphors that entwine themselves around what the data describes as fluid, cascading and overflowing ignore the ways in which the production of cheap data often enough requires both concentrated and tedious labor. When we voluntarily upload thousands of images of our faces, which are then used by the platform owners, these images often enough need additional tagging or categorization to be useful for commercial purposes, because the

the pictures do not describe themselves. This is where cheap labor comes into the picture,

The digital piecework of workers such as those employed by Amazon's Mechanical Turk is essential to produce the cheap data collections that many AI systems and research projects require. ImageNet, the main database of images using visual object recognition software development, is based on the work of the MTurk workers who sort and tag millions of images day after day to merge them into a data set used by military research through companies such as IBM, Alibaba, and Sensetime, the latter providing the technology used by the Chinese government to control, for example, the Uighur minority population. Recent research has highlighted the stress and horror of workers employed in digital factories as they sort out images of ISIS crimes or scan large social platforms for days on end for hate speech and violent videos. Like all cheap things, cheap data relies on massive externalities to reduce risk or shift it to other people and natures, while profits flow in the opposite direction.

Damage to workers is just one of the externalities that come with the hunt for cheap data. The cheap energy required to train AI models and massively transfer large amounts of data to and from the cloud is less visible than the exploited workers, but the cumulative effects are enormous. Research estimates that the energy required to train a single AI model is five times the CO2 emissions of an average car over its lifetime. The hardware needed to handle all these models and collect the data requires large amounts of valuable metals and new plastics. Cheap nature is needed when it is extracted from cheap labor to make the fiber optic cables and computers that collect and connect data.

What happens when cheap data becomes more expensive over time? For example, if the wages of precarious workers in data processing rise, or if there are increased controls on privacy, making it more difficult to produce the behavioral surplus? It can then be assumed that the extraction of data requires new cheaper areas and boundaries. This process has already begun with the offshoring of digital assembly line work as the big tech companies spread out in the global South to create new markets and extract data from new segments of the population.

A company like Google needs to gain certain dimensions of scale and diversification resources as soon as it starts collecting data that reflects user behavior and also serves to track behavioral surpluses (Google's data offshoots), The products attack the user like "heat-seeking missiles" (Zuboff) in order to suggest exactly the right fitness product to him, for example, at a pulse rate of 78 via inserted advertising. Thus, with increasing diversification, on the one hand a broad diversification of monitorable topics in the virtual world must be achieved, and on the other hand the extraction operations must be shifted from the net to the real world. In addition, algorithmic operations must gain in depth, i.e. they must target the intimacy of the users in order to intervene in their behaviour in a controlling and formative way, for example by displaying pay buttons on the smartphone at the right time and in the right place or by automatically blocking a car if the person concerned has not paid certain insurance amounts on time.

In the case of a search query, factors such as search terms, length of stay, the formulation of the query, letters and punctuation are among the clues used to spy on the behaviour of the users, and even these so-called data emissions can be valorised if this surplus of user behaviour can be used for targeted advertising, whereby Google also allocates the best advertising spaces to the most paying advertisers, determined by algorithmic probability, whose prices are calculated from the price per click multiplied by the probability that the advertising will actually be clicked on. In these procedures, one ultimately also finds out what a particular individual thinks at a particular place and at a particular time. Singularity indeed. Every click on an advertising banner placed on Google is a signal for its relevance and relevance for the

and is therefore a measure of successful targeting (Zuboff) . Google is currently registering an increase in paid clicks and a fall in average costs per click, which is tantamount to an increase in productivity, since the volume of output has risen while costs have fallen.

The pool of data from which analysts of the monitoring capital can now draw is infinite. Surveillance capitalists know exactly who complains to companies, calls hotlines, or talks about a company in online portals, and how often. They know the favourite shops, the favourite restaurants and pubs of many consumers, the number of their "friends" on Facebook, the originators of ads that social media users have clicked on. They know the colour of a person's skin, their sex, their financial situation, their physical illnesses and mental health problems. They know about a person's age, job, number of children, neighborhood, size of apartment - after all, it's interesting for a company that makes mattresses to know whether a customer is single or, if so, should order five foam mats for the entire family.

Today, the therapeutic group is materialized in Facebook, in its invisible algorithms, and at the same time has reached a largely imaginary group addiction of unimaginable proportions. And this is where the theory of simulation is wrong, because there is nothing wrong with digital networks, they are very real and create a restless stability for those connected to the networks, by simply expanding things, more requests, more friends and so on. Herbert Marcuse once wrote that one of the boldest plans of National Socialism was to fight against the tabooing of the private sphere. And it is precisely privacy today that is so free of any curiosity or secret that one writes everything on one's timewall without any reservations or even eagerly, so that everyone can read it. We are so happy when a friend comments on something. And you're constantly busy managing all the data feeds and updates, at least you have to get some time off your daily routines. Your tastes, preferences and opinions get a price you're happy to pay.

What is new is not just the technological power structures (protocols and algorithms; the network is the message), but an accumulation model that uses digital means to collect all kinds of data that reflect user behavior and extract from it the excess of behavior, so that future behavior can be predicted as accurately as possible and targeted advertising can be delivered, with improvements in prediction as well as on-demand increasing click-through rates on the advertising banners. The behavioural surpluses also result from rendering more behavioural data than necessary to feed into artificial machines (ranking, statistical modelling, prediction, speech recognition and visual transformation), which then produce predictions of user behaviour, quasi-derivatives that the monitoring capital on the behavioural futures markets sells to the highest bidding companies. Google conducts auctions on these markets in which an enormous number of "derivatives of behavioral surplus" (Zuboff 105) are auctioned. It can be concluded that the algorithmic operations with data generate profitable products, all aimed at predicting and monetizing the future behavior of users, for very specific companies: Google's key customers are those who need advertising and pay Google to provide them with an effective range of predictive products, which in turn are based on comprehensive user monitoring. These products are therefore based on Google's ability to accurately predict what users will do, think and feel now and in the near future (Zuboff 2018: 119), which also aims to limit the risk for advertisers so that relatively safe bets can be made on future behavior. However, the addressees in the markets in which Google sells prediction products are not exclusively advertisers, but ultimately all those who have an interest in purchasing "probabilistic information" ( ibid: 120), i.e. also states, for example, especially their intelligence services, which therefore maintain a close relationship with companies in Silicon Valley.

The prediction machines are a kind of black box whose internal processes can be perceived far beyond the human capacity of perception. At this point, Zuboff speaks of a shadow text in which the machines provide the relevant action instructions.

which are mostly aimed at influencing the consumption of users. For example, the algorithmized selection of images that Instagram displays to a user includes streams of that user's behavioral data, the data of his friends, data of people who follow the same account as the user, and data and links of his activities on Facebook. (ibid.: 555). There is a multitude of data and operations that even the programmers of the machines can no longer see through. By querying the Likes, Facebook can record a comprehensive spectrum of a user's personal behavior, including sex, political views, consumer behavior, intelligence performance, etc. Seen in this light, the Like reward system sets the necessary dopamine injections at the right timing to constantly spur the activities of users to produce further streams of data. A mail that does not receive Likes means social death for the user.

The new automatic systems model the social in real time, contextualizing and personalizing social interactions, whether in healthcare, business or administration. We should add, with the French authors Rouvray and Berns, that the new algorithmic governance also includes technologies with territorial and spatial dimensions, which are applied, for example, in the programs of "Smart and Sensored Cities". With Google's Street View, Google turns the public space into an impersonal space of spectacle, transforms it into a living tourist brochure, with the sole purpose of monitoring and extracting data from users (ibid. 169), so that in the end one can even speak of an expropriation of the paths and space (which, in the loutishly ingratiating language of the "smart", comes along with it), precisely because Google succeeds, beyond the exploitation of online data sources, in monitoring the real world more and more comprehensively across the board, when people are permanently tracked along certain paths and simultaneously steered to certain destinations via behavior modification machines. These smart instruments are based on "automatic computing" and "ambient computing", i.e. on technologies whose invisibility makes individuals even more active and efficient, because these technologies weave themselves into the factory of life unnoticed and at the same time stimulating and intensifying behaviour until they are indistinguishable from it. Algorithmic governance focuses entirely on relations, on relations of relations, which in turn are reduced to correlations, because the models of artificial neural networks detect correlations and patterns in particular, but never causes or the explanation of causalities; they serve to classify, bundle and optimize behavior, but are far from understanding.

It is therefore a matter of active intervention and the shaping of user behaviour in the future. And the more data traces they leave behind, or, to put it another way, the more data can be extracted by the methods of diversification and, moreover, by a depth that reaches far into the user's interior, the more precisely the self-learning algorithmic machines (voice search, neural networks, feedback, etc.) can be used. The more precisely the self-learning algorithmic machines (voice search, neural networks, feedback, etc.) can process the data in order not only to make the right purchase decisions for the users in advance, but also to gently massage their retentions and protentions, but ultimately to condition them harshly, and this means that the optimized autonomy that the surveillance capital promises the customer is a pseudo-autonomy, because it only serves as a meagre promise, because ultimately the profitable prediction products are automatically produced and distributed without contradiction.

In their essay on algorithmic governance, the sociologists Rouvroy and Bern show that the size, speed and performativity of algorithms - elements related to relational data processing - far exceed the capacities of human decision making. They describe this governance as "a certain type of (a)normative or (a)political rationality founded on the automated collection, aggregation and analysis of big data so as to model, anticipate and pre-emptively affect possible behaviours". Google can easily predict that someone will probably want to buy a suit in the near future, and if that someone is near a shop window behind which suits are displayed, then an advertisement on the mobile phone will pop up, carefully-maintained, recommending that a suit on display be purchased. Life itself is immersively integrated into the production of data, into a pulsating glow of information, but beyond that we ourselves have become data, which are related to machines that make our lives

capture, capture and process as if we ourselves were parts that are modulated and held ready for machine intelligence. There is no need to emphasize all of this anymore, because it is part of the habitus through which the subjects themselves are machinized when they stream, update, capture, share, link, verify, map, save, troll and trash, even if it produces the highest boredom.

The investments affecting the individual now extend to genetic manipulation. Neurotransmitters, organs, biological components and somatic identities are open to exchange. It degenerates into a comprehensive enthusiasm for freedom if the body is constantly filleted in terms of monetary value. Even the body itself mutates into a profitable business, implants, transplants, surgical operations, and sales of organs, blood, and germ cells. This is precisely what leads to asomatognosy, an ignorance of one's own body. The term refers to the loss of perception or the feeling of belonging to one's own parts. "Self-Tracking" - the extraction, collection, counting and evaluation of data on all conceivable features and functions of one's own body by means of various apps and procedures - describes a new form of optimizing one's own self. Such apps and technologies can automatically record, catalogue and then graphically display all kinds of data. Every missed jogging session, every excess calorie, every dreamy minute of work is immediately registered and reminded so as not to be suspected of not getting the maximum out of the body.

Virgin Pulse is a product for the smart workplace that promises to provide a technology for filling the modern worker with energy. It is an app that allows workers to monitor their own behavior in terms of functions such as sleep, activity, happiness, stress and relaxation in order to change behavior to lead healthier and happier lifestyles. It is a portable technology, which in some companies is equipped with personalized suggestions for improvement for each employee, using "gamification" techniques with specific objectives, which also stimulate competition with other employees. In fact, the plans create a feel-good data dashboard that company managers can view. But Virgin Pulse also exhibits something that has received little attention until now, namely empathy for the pulse in the sense of signifying the constant 24/7 stream of data that the program generates and analyzes, i.e. the pulse of an organization that allows the observation of vital signs: movements, rhythms, patterns, highs and lows. These should be emergent and self-regulating, so that measurement and discipline take a back seat to quantification. By tracking, quantifying and representing behaviour, this portable technology changes repetitive and ordinary daily routines. The significance of the pulse and its observation can be classified as pre-cognitive rather than cognitive and normative, leading to unconscious adaptation to the environment.

At the same time, however, three forms of comparison occur: First, the comparison with oneself, made visible as progress or regression compared to previous activities. The comparison with (concrete) others through the competition of data. And the comparison with standardized average values such as the Body Mass Index. The technologies of self-tracking now make it possible for the first time to capitalize on the entire body and its organs. The entire lifestyle such as eating, sleeping, movement, relationships and emotions can now be researched and converted into numbers - and all this in real time. Thus, not only the quality of sleep or physical activity is recorded, but also long-term ECGs are carried out, genomes are sequenced, laboratory scans, tests are carried out on the heart and kidneys or on mental condition. Diseases and their development are analysed in real time and thus become increasingly predictable. This is the quantification of "digital phenotyping", so someone who types slowly seems unhappy and someone who hammers on his smartphone very quickly may be in a manic phase.

All in all, algorithmic governance generates both a new politico-economic field and a new regime of data management, characterized by a specific technological performativity, the most important points of which we will record here:

1) The permanent capture of data, see Google's attempt at

the digitization of books, the collection of personal data through Google Street-View, the circumvention of privacy, the storage of search data, the transmission of location through the smartphone, face recognition, body sensors, drones equipped with sensors, and the generation of data doubles These are expropriation operations to which the user is subjected day and night, depriving him of his experiences, emotions and face.

2) Digital operations that process this data. The machine processing of this data involves the extraction and modification of behavioural characteristics, which are sorted by patterns, clouds and relations and integrated into rankings in order to evaluate the correlations that exist between the data of the individuals. This data mining appears to be absolute, in so far as the subjects have no possibility to intervene, so that we must speak of a totally automated production of protentions (expectations) that liquidate the difference between performative and constativist behavior. The automatically produced protentions are now processed in automated and networked AI systems. In these networks it is by no means true that the whole is greater than the sum of its parts; rather, there are no longer any parts at all, because the whole is omnipresent and manifests itself "in each of the devices built into all machines" (Zuboff 2018: 472). This is a modular system within which, in principle, every machine is the same machine and operates in the same logic as all other machines, even if modulations and transformations do occur. These artificial learning machines in turn require material infrastructures, or, to be more precise, configurations composed of hardware, software, algorithms, sensors and connectivity - configurations that today equip and design all kinds of objects - cameras, chips, nanobots, televisions, drones, etc. (ibid.: 156).

The digital machines integrate the individuals into the algorithmized field, where they appear as autoperformative effects of correlations of data. And the field in which the automated actions of the individuals are integrated is not situated in the present, but in the future. At the same time, through methods of perfect adaptation, virality and plasticity, algorithmic governance still reintegrates every disturbance and error into the system in order to redefine the models and profiles of behavior. It seems that structurally, the power of the algorithmic system can never be disrupted or the improbable can never be disturbed. Although this will not be possible, the surveillance capital, by using algorithmic performativity, at least destroys the essence of politics.

3) Digital doubles (profiles), which are entirely the poignant result of machine operations and algorithms. In order to elicit a user's action through these operations, the user's digital double merely needs to send signals that in turn provoke desired behavior, stimuli and reflexes in the user. The tragedy of the profile subject consists in the fact that the more it wants to make the distinctiveness of its "self" visible through entries, the more forcefully it is modelled by the algorithmic machines. Now the struggle for the permanent and performance singularization of the profile takes place, a permanent task, in which the subject ultimately fails without a sound, because the modular tableau, in which his profile is inscribed, gives the specifications, whereby the actuality makes this so instantaneous that it should actually take your breath away. It could go on like this for ten thousand years. It should also be noted that the glamour of the profile is only one for those who have not made it up the economic ladder, because the truly rich and privileged remain offline.

As a digital double, not only is subjectivity eliminated, but the subject itself is eliminated through the collection of infra-individual data that is assembled as a profile on a supra-individual level. The subject no longer appears. It always arrives too late and cannot bear witness to what it is or what it wants to do in the future; instead, as a user, it merges with its own data profile, which is primarily designed automatically and in real time not by it but by the algorithms. Nevertheless, the users somehow also incessantly create their doubles or their profiles actively, as if they were driven by an invisible power, but all in all they remain the frozen products of algorithmized control systems, on the one hand as individuals who embody a highly effective demand, and on the other hand, as a group of people who are not able to control their data.

In their FB-Newsfeed they get mainly those posts of their "friends", which already attracted a lot of attention due to the large number of calls and likes. And the user is apparently addressed quite individually, as a singularity, but which proves to be modular, i.e. composed of discrete components in the sense of path tracking. Constitutive of the surveillance capital is the algorithmic creation of profiles behind the back (the codes, algorithms and databases through which it is assembled remain invisible and inaccessible to the user) of those who are assigned a profile tailored to their needs and who nevertheless continue to believe that they are doing all this of their own free will, even obsessed by delusion, to express their own singularity claims with the profiles, thereby putting themselves into narcissistic excitement, without the slightest suspicion that the type of algorithmic treatment defines them in advance and controls them remotely, whereby the automated knowledge production, which is operationalized by learning digital machines, produces an objectivity that should not be underestimated, contrary to all the subjective singularity claims of the excited. For the user, however, it remains with the section of the world constructed and tailored for him, which is accessible to him alone. The digital operations concerning behaviour thus anticipate the individual wishes and assign them to the profile.

Desire economy and control

After the loss of worker knowledge in the 19th century and the loss of knowledge of life in the 20th century, we have lost it in the 21st century. Or, to be more precise, a comprehensive proletarianization of theoretical knowledge is taking place, which can build precisely on the fact that the inscription of the worker's body in the machinery, as described by Karl Marx, led to a proletarianization of the knowledge of the workers and thus of their living conditions, while later radio and television staged the proletarianization of the knowledge of life (of affects and social relations).7 The exploitation of the "spiritual value" of the individual reaches its peak today: it concerns thinking as such, its consistency and thus also all sciences and their models and methods, and beyond that also intuition and feeling. Weber, Horkheimer and Adorno have described these processes of rationalization in detail, processes which for them clearly lead to nihilism.

Today, the attention of the subjects is entirely captured by the algorithmic governance that Stiegler describes as a reading industry or even as an entropic economy of expression that intensifies the proletarianization of producers/consumers. Parallel to the organization of consumption and the constitution of mass markets by the culture industry, the proletarization of work coagulates into the job industry and defines skills only in terms of employment, which now coincides with the adaptation to volatile jobs. But proletarization today refers not only to economic impoverishment and precariousness, but also to the loss of control over knowledge, savoir-faire and production. Working knowledge and knowledge of life are being replaced by AI machines and the communication of information systems in order to transform as much knowledge as possible into automation, whereby the proletarianisation of knowledge has long since also affected the forms of planning and decision-making.8

Today, it is more and more the unpaid work of consumers, which is actually not work but rather division and employment in unpaid time, that feeds, sets and reinforces the parameters of the automatic and performative collective protentions and retentions (expectations and memories) produced by computerized capitalism. This was preceded by a period in which consumers were exposed to a mass division, the proletarization of the knowledge of life. The marketing companies produced the collective secondary retentions that carried out what certain research departments demanded of them. At the beginning of the 21st century, the analogue culture industry was replaced by the digital culture industry, which integrated the proletarian consumers into the digital-technical system through the thousand threads of networking and at the same time psychologically and socially dis-integrated them, i.e. produced a division resulting from networking, which reassembled the proletarian consumers and producers in the sense that they became nothing more than executive

Organs of information systems will be, of capitalization. In 1993, the Internet established a worldwide digital infrastructure that radically changed telecommunications technologies and led to the total interconnection of many territories in the world, equipping their inhabitants with mobile and/or fixed devices that were compatible with the networks.

Since the early 1970s, the development of capitalism in the metropolises has also led to a global consumerism in the course of globalisation (from which, however, the surplus population in the global South in particular remains completely excluded), which has largely destroyed the thoroughly positive processes of connecting the drives to all kinds of objects that are part of a liberating sublimation. The anti-Oedipal desire that economizes the object by idealizing and transindividualizing it always goes hand in hand with the artificialization of life, which encompasses the technical, and this usually also reinforces and intensifies the power of sublimation when the individual is endowed with a transindividual memory, which Simondon calls the psychic and collective individuation.

At first, vital individuation remains bound to an economy of instincts, which controls animal behavior with the rigor of an automatism, while with the advent of noetic life, which is formed by the libidinal economy (fetish, cult, ritual, etc.), instincts and drives become relatively de-automated, so that the desired objects can be replaced, shifted and reshaped. Even the instincts are thus accessible as artificial organs of fetishisation and transform themselves into drives. And in this way the vital individuation leads to a collective individuation in which the drives are constantly preserved and at the same time changed, in so far as they themselves change the objects of desire and are thus accessible to perversion. Perverse drives are structurally fluid and attach themselves to artificial organs, they are fetishistic and object-oriented.

This specific economy of the libido, which Stiegler certainly puts in a positive light, has completely destroyed capital in recent decades. The drives currently released into panic and excessively into pornography are controlled and at the same time strengthened by an industry of automated tracking and tracing in the social networks. On the one hand, the drives are functionalized, i.e. transformed by mimetic mechanisms into consumerist drives that can never be satisfied, which on the other hand makes such unbound drives even more destructive, uncontrollable and infectious. Both the channelling and the reinforcement of the drives through the application of mathematical algorithms implies an automated social control, while at the same time the drives are driven to a highly dangerous level and are also de-integrated by the control mechanisms. Here Stiegler speaks of a modern capitalist economy of the soul, based on commerce and industrial technologies, although, strictly speaking, we are now already in a hyper-industrial epoch in which total calculating and quantifying capital reigns. In libidinous terms, however, this is a dis-economy that no longer cares about the relationship between libido and objects. For Stiegler, this absolutely calculating libidinal dis-economy is complete nihilism, or, to put it another way, the structural effect of the automation of libido and knowledge, of formalizations within a cybernetic-technological system consists in a calculating and counting nihilism. This nihilistic driving capitalism, Stiegler writes, destroys the sublimation capacity of individuals, who are now driven into a dangerous process of de-sublimation, while the automated digital industries of the desiring economy have simultaneously driven out all real desire. Witness to this are the streamed hardcore floods of images from the US porn industry, gang rape, serial murders during the sex games, child abuse in churches, Olympic sports federations and UNO camps, gender whansinness, etc.

Stiegler writes: "The libido is what tames the urges - as soon as it is destroyed, the urges are unleashed." (93) But is, for example, the instinct of enrichment really the result of the destruction of the libido, or is it rather a re-occupation in the sense of the deduction of energy from the principle of equivalence or the aesthetics of goods and a new occupation of the striving for profit with energy? The technical objects described by Stiegler would then have to be replaced by

Some of them are excellent as transition and replacement objects. Today's digital puppets, which also provide the data with their Iphones and smartphones, are a precious resource of capitalization - what more does the surveillance capital want? The libido of the users is focused on the objects of desire, for the surveillance capitalists, in turn, the users' data is the object of desire on which their "libido" is focused. The fact that the death instinct is at work here as well, the consumption of natural resources and the destruction of the environment (via the production of technical devices) on the one hand, and the connection and exploitation of consumers (for the purpose of value-added production) on the other - this is accepted on the one hand and is intended on the other.

We all become more or less stupid (made stupid), we even become plagued and tormented beasts. The stupefying mechanisms of the industrial epoch, which were due to the comprehensive integration of workers into the system of the machinery, cast their shadows, until later Deleuze, when the associated disciplinary measures and norms gradually lost their effectiveness and television was transformed into a machine of total sensory regulation, spoke of the new societies of control, which also led to new forms of subjectivation and machine subjection. Guattari in particular, with the introduction of the term "individual" in the 1980s, just before the long winter he predicted, already foresaw that the ultraliberal control mechanisms associated with the computer would lead to the liquidation of human decision and judgment. Both behaviour and the analytical mind are now being automated in a sustainable manner and increasingly left to the power of artificial machines and algorithms. Smart networked sensors have long since registered and processed every type of cognition and, above all, every type of behavior in real time, the latter without monitoring necessarily having to be conscious. AI machines analyze how both factors can be anticipated and safely and accurately modified, so that the targeted actors are triggered to perform precisely those real-time actions that allow operators of surveillance companies to further perfect their behavioral and mind modification products. Within the economy of forensic science, the automation of behavioral data virtually creates an artificial, machine-like art of hyper-control, which unfolds and is also monetarized by the outsourcing of thinking into the digitized networks. Everything amounts to the exploitation of ternary retentions, and almost all aspects of the behavior of individuals now generate digital traces, which in turn become objects of calculation and capitalization.

The transdividual (non-transindividual) tracking of data needs to be described in more detail. One must refer here to the respective market segmentations of marketing, whereby the much conjured up individualization of the customers, whom one addresses with needs-based advertising, is more akin to an individualization, an infra-individual division and a decomposition of collective individuation. The determination of desire through its automation, which releases and triggers the bad urges, while intensifying them with network effects, is today being driven forward with the models of neuro-marketing, neuro-economy and the mathematical models of artificial neural networks. Neuromarketing attempts to generate actions in the consumer that do not require the formation of an autonomous desire. And this is based, among other things, on the elimination of constructive interruptions that normally lead to decisions only by trying to integrate a sensomotoric loop into the behaviour, so that there are no more delays between reception and decision and thus no more social differences and thus we can speak of a purely functional cycle or a feedback loop that is accurate to the second, yes, in Skinner's sense of a pure stimulus-response pattern that operates with descriptive and prescriptive methods - for example, the time interval (delay) that separates the reception of a product from the effect (purchase) is no longer present. The economics of personal data algorithmization continues to reduce the time required for human decision making processes, thus eliminating the "useless" time of thinking and contemplation. It is precisely the functional integration of mental individuation through an automatically associated milieu that processes at the speed of light that

constitutes for the individuals a factual naturalization of the technical milieu and at the same time an artificial naturalization, whereby the individual and collective individuations mutate into collective and psychological divisions that function like a 24/7 insect society.

The algorithmic illness - for Stiegler it is a concomitant effect of the epoch of hyper-control - forces a fatal disorientation: all the great promises of the Enlightenment have become toxic today, indeed they have been transformed into processes of generalized hyper-control of thought. This goes far beyond the control-through-modulation stated by Deleuze, inasmuch as even the noetic faculties of theory are today still short-circuited with the current operators of proletarianization that permeate the ternary retentions. Again, whatever their matter and form, ternary retentions remain dependent on primary and secondary retention, on perception, imagination, expectation and memory, factors that are integrated into the processes of collective transindividuation, which are already different.

Finally, the treatment of data in the form of ternary digital retention in real time and on a global scale - carried out by intelligent machines with the computing capacity of trillions of gigabytes - requires learning and networked systems that absorb, modify and capitalize on the data. But if mental and collective individuation are short-circuited with the digitized processes of automated transindividuation, then unpredictable individuations can also result, but the automated drives remain subordinate to the automated retentional systems, to be formalized by mathematics and concretized by algorithms, that is, the data traces that are generated by monitoring individual and collective behavior must be collected, modified and capitalized. In doing so, however, Stiegler always retains his concept of the "pharmakon", i.e. he always looks for traces on the Internet that indicate a new form of collective individuation.

Insurance and risk subjects

The control of contemporary risk subjects today requires profit-oriented insurance companies that continuously classify and evaluate their customers by assigning them numbers that relate to factors such as consumption characteristics, interactions, health, education and creditworthiness, which, as we have already seen, also makes the customers, who have thus been degraded to random samples, into divided entities, even individuals. Because the insurance companies try to replace the imperative of uncertainty as far as possible not only by risk calculation but also by certainty, their mobile apps permanently scan the behaviour of the insured, for example the behaviour of car drivers, so that insurance premiums can fall or rise from second to second, and this on the basis of information about how fast you are driving at the moment or whether you are on the phone while driving, whereby machine processes find out about violations of fixed parameters and then punish them. Consequently, customers are broken down into behaviour-oriented tariffs, while machine processes push the behaviour of the insured towards maximum insurance profitability by punishing deviating behaviour with fines or increasing insurance premiums. (zuboff 249) Health insurance companies, for example, have long since made not only health but also fitness a moral imperative; they have distributed risks among the population in such a way that the sick and overweight or simply those who pay too little attention to their health can expect downgrading, sanctions, restrictions or even exclusion from insurance.

Silicon Valley has long since discovered the disease as a market potential or innovation. Large companies in particular are pushing single-mindedly into this market, which in the USA alone has a volume in excess of three trillion dollars. Amazon recently founded a health insurance company, is building trial clinics for its own staff and has taken over the Internet pharmacy Pillpack. Until the data scandal surrounding Cambridge Analytica, Facebook negotiated with hospitals about anonymized health data in order to compare it with that of its users. However, the most advanced player in the race for health is currently Alphabet. Google's mothership recently developed AI-based software solutions to more accurately determine the course of illness and even the time of death of patients in hospitals. Together with Verily, a subcontractor formerly known as Google Life Sciences, the company has already been researching a contact lens that uses tear fluid to reduce

The smartphone, a multi-sensory glass device on whose surface the unconscious seems to be reflected - at least for the digital health avant-garde - is currently proving to be the best of all behavioristic recording systems.

In particular, the start-up Mindstrong Health by Thomas Insel, former director of the American National Institute of Mental Health and not by chance also former head of the mental health department at Verily, opens up completely new lines of vision. The typing behavior of the smartphone user - how he scrolls, clicks or wipes - is analyzed to create behavioral profiles using pattern recognition, which like compass needles point to mental weaknesses.

Insurance companies, which today have a broad repertoire of risk management models and methods and also the corresponding financial instruments, summarize quantitative elements that define the behavior of the insured in tables and convert them into higher-scale qualitative categories, so that the elements are constantly recombined, new sophisticated incentive and allocation systems are created and thus higher profits are achieved by means of the increase in performance that the subjects documented by risk profiles have to provide themselves. (Lee, Martin 2016: 539) Based on standardized risk definitions, insurance companies thus collect data in order to sort, classify and finally price risk subjects according to very common criteria such as income, family origin, occupation, place of residence, gender and education. There are companies that design a risk score for individuals based on the history of their employment, their rented apartments, their relationships with family members and friends, etc., whereby socially precarious individuals are identified as high-risk on the basis of the classifications and the evaluation of machine procedures, and thus economic and social inequality is algorithmically re-inscribed. Thus, insurance companies are determined to permanently expand their power over the insured, which they do when they emerge as big players on the financial markets with their money.

Today, the creation of certain risk profiles is a sui generis quantification work; on the one hand, it is necessary to create a quantified profile of the person and, on the other hand, to constantly challenge them to improve their economic positions. In this context, with regard to body activation work, medical diagnoses are increasingly merging with the various wellness, fitness and lifestyle offers, with a whole range of portable devices expanding the body in order to quantify body states, i.e. to record states and processes of movement, sleep and stress behaviour, and alcohol and nicotine consumption, in order to finally perfect control and provide instructions for further self-optimisation of the body. This work on one's own body results in a personal share price of health and well-being in real time (ibid.: 116), which in turn provides new incentives for the actors to provide information to insurance companies and health insurance companies for the elaboration of new tariff models, which the insurance companies convert into personalized cost calculations. This type of self-measurement is being pushed by the insurance companies through the development of technical applications that measure certain behaviour in order to put it in relation to existing tariff systems. A finely woven network of insurance companies, customers and app producers is developing here, within which the differentiation and personalisation of health-related data is constantly being driven forward in order to create further monetary incentive systems and to stimulate the participation of individuals, and all this under the aspect of a playful and free handling of data.

While the responsible risk subjects in the relevant wellness centres are stubbornly occupied day after day with their individual fitness in order to creatively reinvent themselves in infantile-singularised freedom rituals (and thus mostly only adapt themselves to the fact that they are not in the slightest position to be able to change anything, or perhaps even do not want to), they are nevertheless classified by the insurance companies as rather stereotypical and simple protagonists who live a very ordinary life, under circumstances that of the "brought to life job advertisement, a successful synthesis of all the character traits that personnel managers and elementary school teachers wish for in a person. « (Pohrt) And to repeat: So while the successful and especially risk-adverse subjects, especially those of the elites and from

from the upper middle class, constantly invoking the liberation from the shackles of encrusted old identities and a new regime of singularity, while at the same time directing their thoroughly algorithmized passions to all kinds of analog events, to live concerts and music festivals in their allegedly extra-ordinary everyday life, to sports and art events, to all that the event industry stages day after day of ordinary crimes, they continue to be scanned, quantified and motivated extremely efficiently by insurance companies and other private control companies. To possess a successful identity then means to generate and win oneself as a risk subject and to remain basically the same: capable of action, opportunistic and willing to take risks, all in all a new form of stupidity, because the Great Other continues to rule unnoticed in the shadows and the risk subject constituted by capital at least unconsciously feels obliged to it. The upwardly mobile middle class - economically upwardly, culturally downwardly oriented - finds this surface text extremely chic, and some of its representatives, who perhaps even occupy higher functions in the insurance companies themselves, succeed in outdoing each other in the high of hedging their lives, and this in the course of a fast-maker-addicted spewing out of functions, formulas and slogans that mercilessly and at the same time rather mopeyly ornament their own lifestyle. At the same time, the existence of subjects willing to take risks is subject to a control structure (statistics, tables and taxonomies) operationalised by the insurance companies themselves, which classifies, classifies and sorts its clients strictly according to risk categories - for the purpose of establishing a proper and profitable risk profile. Self-optimization processes and control structures are therefore mutually dependent and reinforce each other.

It is pertinent that companies, sovereigns and private individuals today are not so much checked for their creditworthiness by analysing the specific individual case, but rather on the basis of uniform quantitative indices, i.e. credit control by examining the individual case is replaced by the creation of standardised and algorithmised risk profiles. Thus, for the evaluation of consumers, the Fico Score was introduced, an algorithm that can generally be considered an important statistical tool for controlling the neoliberal subject. First of all, scoring in general means attributing characteristics such as performance, efficiency, profitability or solvency to certain entities/subjects, which are then divided into groups according to the scaling of these criteria, i.e. they are classified and evaluated with points, which are in turn weighted and combined to form a credit rating, and finally the total score is used to determine the granting of credit. Insurance companies use the Fico Score to construct the credit histories of customers, companies use it to check job applications and search for optimal locations, health insurance companies use it to make forecasts as to whether patients are taking their medication properly, and casinos use it to identify the most profitable guests. In summary, it can be said that today a dense network of rankings, ratings and other evaluation mechanisms permeates the social fields and applies to almost all activities and areas. Certain credit scorings even go so far as to use secret algorithms not only to obtain and evaluate information on health status, mobility, job changes and personal risk management, but even to draw on data from friends, which, depending on their economic status, can bring advantages or disadvantages for the credit seeker.

Statistical-mechanical procedures are used to determine the probability that someone will service a loan by assigning credit ratings to the customers, which not only decides on the granting of loans in general, but also on the exact conditions of the loans (terms, interest rates, etc.) Today, there is a broadly accessible data material available on the history of debt, market activities and the economic situation of the subjects in general, which is constantly being expanded and incorporated into current risk calculations and evaluations. The trend is to integrate more and more parts of the population into the credit system via so-called credit risk colonization and thus keep them available to generate a surplus for the financial capital. (Mau 2017: 109) When granting loans, the notorious apps are used, which read a range of data from the applications of an applicant's smartphone, from postings in social media, from GPS coordinates and from e-mails and profiles and then use this data to calculate the credit risk.

by using algorithms to construct patterns that indicate the probability that the applicant will be able to service loans in the future (zuboff 202) And as if that wasn't enough, this information is in turn used to refine the Fico algorithm and even other algorithms, a side effect of which is to create even more accurate and comprehensive personality profiles that not only include a user's financial stress level but perhaps even smell their farts.

Rating and Ranking

Today, a new regime of objectivity is generated that not only makes differences and comparisons visible, but also employs new classifications to control the system and the subjects. While rating serves to judge and evaluate certain objects, facts and subjects according to patterns by means of certain techniques, ranking places facts, objects, persons etc. in a ranking. Today, the monetization and economization of ratings and rankings is leading in all possible areas to a permanent restructuring of methods of efficiency, performance-based allocation of resources and budgeting from the point of view of quantifying the increase in profitability by means of input-output matrices translated into figures, whereby areas such as education, health, prisons and even wars are affected.

Subjects are constantly active themselves to further fuel these quantification processes, and present themselves in the media and institutions using fabricated data (such as income, body and weight, distances covered, and health), and are very happy to compare their data with those of their competitors, thus in a way contributing to the numerical hegemony that always surrounds the aura of the objective through the heroicization of number. However, such counts and comparisons are by no means a priori given, but are constructed in quantifying social processes by, among other things, setting up measuring procedures aimed at consensus, which constantly only reinforce desired behaviour that is integrated into rankings according to metric and ordinal differences. This presupposes, on the one hand, the equivalence of the subjects' behaviour, which is equivalent to a specific indifference towards them, and, on the other hand, the staging of hierarchical rankings that reinforce competition and dictate the more or less or the better or worse of the subjects' behaviour.

Today, just about every fact, every object or subject can be put into an order by means of ranking, one thinks in particular of the situational fixation of the popularity of every kind of celebrity star, be it a politician, a football player, a model or even a porn star, but the ranking naturally also affects the profitability of companies and institutions, the educational achievements of universities and health care services, the splendour of cities, the taste of food and drink, the dating sites and the lifestyle of the middle classes in the metropolises, the reputation in the professions and it even affects the states, which are hierarchically ranked according to their debt levels. This suggests an apparently objective quantitative assessment that pays little attention to qualitative differences, nuances and deviations, and rather sanctions, excludes or at least relegates the latter to the lower ranks of the social body. The sociologist Mau speaks at this point of objectivity generators that not only quantify social relations and subjects by scaling them, but also visualize these results, i.e. translate them into charts, diagrams and tables. These are by no means purely descriptive processes, but rather performative practices by means of the use of a-significant semiologies that serve to map and generate hierarchical structures and systems that are always politically, economically and socially charged; they assign subjects to specific places within a ranking scale by defining the criteria and procedures by which the places are assigned and occupied.

We have seen that rating is a continuous procedure by which subjects, objects and facts are judged, evaluated and assessed with regard to certain characteristics, performance, profitability and behavioral dimensions translated into symbols and numbers, while ranking goes beyond this in that the objects and subjects assessed are put into a numerical order by differentiation. Both are objectifying classification procedures with which external observation and self-observation are integrated into a system, whereby the performative aspect consists in

that the actors are asked to relate to themselves and others on a permanent basis. (Mau 2017: 76) For the capitalist profiteers of the ranking, free access to large data sets, which the actors provide voluntarily, is the first prerequisite for creating a dispositive characterized firstly by the identification of differences and secondly by the competition for exclusive placements, the latter being by definition unstable and relative, so that the struggle against one's own devaluation and for outbidding others remains ever present. The purpose of this silent struggle, when we look at the subjects, is to make one's own position visible, especially when one is already in the front of the field, and this produces very real and not just symbolic effects. Today, the important indicators to which these comparative procedures refer are definitely profitability, efficiency and productivity.
The quantification methods of screening and scoring work in a similar way, but they are more individualized, or rather, they are based on the individual. Here too, individuals are assigned certain characteristics, such as performance and solvency, health and education data or special risks, and the results are naturally eagerly taken up by companies, markets and other organisations, which in turn make selections which, as if it were a natural state, give advantages to some and disadvantages to others. With the attribution of certain characteristics, the subjects are divided from the outset or selected from a larger pool of actors by screening through the application of a certain number of parameters, and are thus only present as samples, but there must always be inclusions and exclusions. Statistical data and procedures are also used in scoring to bring the actors into a fine order of importance (ibid: 104).

Screening procedures are essential for the processing of applications for companies today, whereby external service providers usually take over the execution by sorting people in and out, true to the methods of a dragnet search. In doing so, the companies that monitor them can access a vast amount of data and information that users are constantly producing in the social media, such as information about their circle of friends and living environment, mobility and their own consumer behaviour, and much more. Even with these procedures, places are assigned to subjects in the various sub-areas of economy, culture and politics, thus transforming them by definition into what is shared, and the algorithmic assignments determine their access to optionalities, action potentials and, in general, to the possibilities of shaping life as a positive product that is to be capitalized.


Bahr, Hans-Dieter (1970): Critique of "Political Technology".Frankfurt/M.

  • (1973): The Class Structure of Machinery. Note on the value form. In: Technical intelligence in late capitalism. Vahrenkamp (Ed.). Frankfurt/M. 39-72.

-(1983): On the handling of machines. Tübingen.

Mainzer, Klaus (2014): The Calculation of the World. From the world formula to Big Data. Munich

Martin, Randy (2009):The Twin Tower of Financialization: Entanglements of Political and Cultural Economies. In: The Global South 3(1).108-125.

  • (2015): Knowledge Ltd: Toward a Social Logic of the Derivative.Philadelphia.

Mau, Steffen (2017): The Metric We. Frankfurt/Main 2017.

Sahr, Aaron (2017):The promise of money. A practical theory of credit. Hamburg.

Schlaudt, Oliver (2011): Marx as a measurement theorist. In: Bonefeld, Werner/ Heinrich, Michael (Eds.): Capital & Criticism. Hamburg.

  • (2014a): What is empirical truth?: Pragmatic theory of truth between criticism and naturalism (Philosophical treatises). Frankfurt/M.

Strauß, Harald(2013): Significations of Work. The validity of the differentiator "value". Berlin.

Vief, Bernhard (1991): Digital money. In: Rötzer, Florian (Ed.): Digital bill. Frankfurt/M. p.117-147.

1 Hannah Arendt writes p.445 "It is quite conceivable that the modern age, which began with such an outrageous and incredibly promising activation of all human assets and activities, will finally end in the deadliest, most sterile passivity that history has ever known. With the digital media we live in an increasingly flat ontology in which every event correlates with every other event at mostly the same level of intensity, so that a network of relations is created in which no event should have a specific meaning anymore. In the world of updates, comments, opinions and fake news, the concept of communication replaces that of truth.

2 Randy Martin has in his

showed in his book "Empire of Indifference" that indifference and endless circulation belong together and that even today the asymmetric, small wars still circulate in the global net. (Martin 2007) Moreover, the corresponding interventions revolve around the possibility of circulation, as opposed to the possibility of proclaiming sovereignty. For Martin, this is a shift similar to that of the shareholder who holds the shares of a company to that of the trader of derivatives, who generates wealth by managing risk. The unintended consequence of this risk management, which Martin sees at work in both global financialization and the U.S. empire, is that it simply increases the volatility of what it implies. The result is a cycle of destabilization and derivative wars, a characterization that Martin calls the "empire of indifference. This empire is no longer characterized by progress or development, but only promises its occupants the management of a perpetual presence of risk opportunities.

3 According to Bernhard Vief, the principle of equivalence is inherent in the analogy, whereby the ana-logon corresponds to a template that is placed over two different objects in order to align them, and which of course immediately raises the question of what this template could offer as a so-called tertium comparationis in order to enable a comparison between two completely different objects. (Cf. Vief 1991: 138) Marx cannot be satisfied with the third party's fixation on the metal weight of money qua objectified work, as Adam Smith and David Ricardo had still done, instead he relies on the axiom of "abstract work" or "abstract working time", for which he, however, again offers no objective measure (what does abstract work mean as an immanent measure of value?), which is why Vief sees an infinite recourse in Marx himself. This is why Vief makes a shift at this point and bases at least digital money equally on pure difference, which, as he claims, indicates the absence of any measure of value that has today been replaced by the binary code, so that money no longer represents a general equivalent, but is characterized solely by difference. (Ibid.: 139) Apart from the questionable assumption of equating difference with digitality (for Deleuze, for example it is in fact digitality qua binary code that appears today as the medial basis of the electronic form of money, so that money is primarily based on meaningless data, which, however, still have to mean (and refer to), and of course the flows of money need matter/energy in the space of the symbolic, in which they oscillate (transfer and store) between processes and stasis, because, after all, res cogitans cannot do without res extensa. (If the symbolic, although it has no reference to the object or to work, can nevertheless only take place on the material that is wrested from the continuum of time, and operations therefore take place primarily in the space of the symbolic, thus disempowering the time axis to a certain extent, then operations as instantaneous processes need time as marginally as time, even if it is not as irreversible as time outside the symbolic). Like Oliver Schlaudt, Bernhard Vief thus also poses - albeit with a different weighting - the question of the reference of money to a third party. While Vief, however, no longer sees any necessity to refer to abstract labor at all, Schlaudt cites this reference as the special achievement of labor value theory, with which Marx would have identified abstract labor as an immanent measure of value. (Vief 1991: 135f./Schlaudt 2011: 265f.) In fact, a decisive problem arises here for Marx, which we will discuss in the chapters on value and abstract labour.

4Freedom of opinion, that is the free circulation of opinions (not of discourses, narratives and certainly not of truths). The elaborate systems theory put this in a nutshell early on, without, however, considering the fatal consequences: "All communication is social if it disregards exactly what it is about, what it talks about, what it connects to, what consequences it has. Socially, communication is only social from the point of view of no specific meaning or, better, excluding any meaning at all, except that communication always means something. (Peter Fuchs 2001: 112) Freedom of expression is guaranteed. It circulates like oil, capital and jungle camp.

5 This does not mean that Facebook does not censor, because every single post, comment and message is written by employees and/or

machines are read and analyzed to determine if they comply with the company's arbitrary, largely undefined and opaque standards. In addition, the company also forwards information about political statements, especially from the left, to the police and intelligence services.

6 Just as protocols are everywhere, so are standards. One can speak of ecological standards, safety and health standards, building standards, and digital and industrial standards whose institutional and technical status is made possible by the way the protocols function. The capacity of the standards, depends on the control through protocols, a system of governance whose organizational techniques determine how value is extracted from those integrated in the different modes of production. But there are also the standards of the protocols themselves. The TCP/IP model of the Internet is a protocol that has become a technical standard for Internet communication. There is a specific relationship between protocol, implementation and standard that concerns digital processes: protocols are descriptions of the precise terms through which two computers can communicate with each other (i.e., a dictionary and a handbook for communicating). The implementation implies the creation of software that uses the protocol, i.e. that handles communication (two implementations using the same protocol should be able to exchange data). A standard defines which protocol should be used on certain computers for certain purposes. It does not define the protocol itself, but sets limits on how the protocol can be changed.

7 The fragmentation and, at the same time, standardization of everyday life described by Lefebvre led, from 1970 onwards, to a symbolic plight characterized by the dominance of the audiovisual, analog mass media apparatuses, which heralded a period of strategic marketing, which was then fully implemented by means of the privatization of radio and television. According to Stiegler, the symbolic misery or de-symbolization of the everyday narrative heralded by these developments led to a proletarianization of sensibilities and the destruction of desire, or, in the same way, to the ruin of the libidinal economy. The speculative marketing of the financial industry represents the temporary climax of this development. The mechanization of sensibility and the industrialization of symbolic life is today inscribed in "communications", which in turn is characterized by the distinction between the professional producers of symbols and the proletarianized and de-symbolized consumers.

8 Where Stiegler still speaks of the proletarianization of knowledge, Zuboff sees in the division of knowledge, which overlays the division of labor, a pathology that today has fallen into the hands of a small clique of computer specialists, a "machine intelligence" and economic interests. If all this is true, and it is also true that pathologies are those of the system, then it is necessary to analyze the composition of today's capital: production qua exploitation, speculation qua financial capital, plunder qua extraction and marketing of data.

Translated with (free version)

Translated with (free version)

Translated with (free version)

I’ll have to wander all alone – Jacques Derrida on Gilles Deleuze Sat, 04 Jul 2020 13:38:27 +0000

oo much to say, and I don’t have the heart for it today. There is too much to say about what has happened to us here, about what has also happened to me, with the death of Gilles Deleuze, with a death we no doubt feared (knowing him to be so ill), but still, with this death here (cette mort-ci), this unimaginable image, in the event, would deepen still further, if that were possible, the infinite sorrow of another event. Deleuze the thinker is, above all, the thinker of the event and always of this event here (cet evenement-ci). He remained the thinker of the event from beginning to end. I reread what he said of the event, already in 1969, in one of his most celebrated books, The Logic of Sense. He cites Joe Bousquet (“To my inclination for death,” said Bousquet, “which was a failure of the will”), then continues: “From this inclination to this longing there is, in a certain respect, no change except a change of the will, a sort of leaping in place (saut sur place) of the whole body which exchanges its organic will for a spiritual will. It wills now not exactly what occurs, but something in that which occurs, something yet to come which would be consistent with what occurs, in accordance with the laws of an obscure, humorous conformity: the Event. It is in this sense that the Amor fati is one with the struggle of free men” (One would have to quote interminably).

There is too much to say, yes, about the time I was given, along with so many others of my “generation,” to share with Deleuze; about the good fortune I had of thinking thanks to him, by thinking of him. Since the beginning, all of his books (but first of all Nietzsche, Difference and Repetition, The Logic of Sense) have been for me not only, of course, provocations to think, but, each time, the unsettling, very unsettling experience – so unsettling – of a proximity or a near total affinity in the “theses” – if one may say this – through too evident distances in what I would call, for want of anything better, “gesture,” “strategy,” “manner”: of writing, of speaking, perhaps of reading. As regards the “theses” (but the word doesn’t fit) and particularly the thesis concerning a difference that is not reducible to dialectical opposition, a difference “more profound” than a contradiction (Difference and Repetition), a difference in the joyfully repeated affirmation (“yes, yes”), the taking into account of the simulacrum, Deleuze remains no doubt, despite so many dissimilarities, the one to whom I have always considered myself closest among all of this “generation.” I never felt the slightest “objection” arise in me, not even a virtual one, against any of his discourse, even if I did on occasion happen to grumble against this or that proposition in Anti-Oedipus(I told him about it one day when we were coming back together by car from Nanterre University, after a thesis defense on Spinoza) or perhaps against the idea that philosophy consists in “creating” concepts. One day, I would like to explain how such an agreement on philosophical “content” never excludes all these differences that still today I don’t know how to name or situate. (Deleuze had accepted the idea of publishing, one day, a long improvised conversation between us on this subject and then we had to wait, to wait too long.) I only know that these differences left room for nothing but friendship between us. To my knowledge, no shadow, no sign has ever indicated the contrary. Such a thing is so rare in the milieu that was ours that I wish to make note of it here at this moment. This friendship did not stem solely from the (otherwise telling) fact that we have the same enemies. We saw each other little, it is true, especially in the last years. But I can still hear the laugh of his voice, a little hoarse, tell me so many things that I love to remember down to the letter: “My best wishes, all my best wishes,” he whispered to me with a friendly irony the summer of 1955 in the courtyard of the Sorbonne when I was in the middle of failing my agregation exam. Or else, with the same solicitude of the elder: “It pains me to see you spending so much time on that institution (le College International de Philosophie). I would rather you wrote…” And then, I recall the memorable ten days of the Nietzsche colloquium at Cerisy, in 1972, and then so many, many other moments that make me, no doubt along with Jean-Francois Lyotard (who was also there), feel quite alone, surviving and melancholy today in what is called with that terrible and somewhat false word, a “generation.” Each death is unique, of course, and therefore unusual, but what can one say about the unusual when, from Barthes to Althusser, from Foucault to Deleuze, it multiplies in this way in the same “generation,” as in a series – and Deleuze was also the philosopher of serial singuarity – all these uncommon endings?

Yes, we will all have loved philosophy. Who can deny it? But, it’s true, (he said it), Deleuze was, of all those in his “generation,” the one who “did/made” (faisait) it the most gaily, the most innocently. He would not have liked, I think, the word “thinker” that I used above. He would have preferred “philosopher.” In this respect, he claimed to be “the most innocent (the most devoid of guilt) of making/doing philosophy” (Negotiations). This was no doubt the condition for his having left a profound mark on the philosophy of this century, the mark that will remain his own, incomparable. The mark of a great philosopher and a great professor. The historian of philosophy who proceeded with a sort of configurational election of his own genealogy (the Stoics, Lucretius, Spinoza, Hume, Kant, Nietzsche, Bergson, etc.) was also an inventor of philosophy who never shut himself up in some philosophical “realm” (he wrote on painting, the cinema, and literature, Bacon, Lewis Carroll, Proust, Kafka, Melville, etc.). And then, and then I want to say precisely here that I loved and admired his way — always faultless — of negotiating with the image, the newspapers, television, the public scene and the transformations that it has undergone over the course of the past ten years. Economy and vigilant retreat. I felt solidarity with what he was doing and saying in this respect, for example in an interview in Liberationat the time of the publication of A Thousand Plateaus(in the vein of his 1977 pamphlet). He said: “One should know what is currently happening in the realm of books. For several years now, we’ve been living in a period of reaction in every domain. There is no reason to think that books are to be spared from this reaction. People are in the process of fabricating for us a literary space, as well as judicial, economic, and political spaces, which are completely reactionary, prefabricated, and overwhelming/crushing. There is here, I believe, a systematic enterprise that Liberationshould have analyzed.” This is “much worse than a censorship,” he added, but this dry spell will not necessarily last.” Perhaps, perhaps.

Like Nietzsche and Artaud, like Blanchot and other shared admirations, Deleuze never lost sight of this alliance between necessity and the aleatory, between chaos and the untimely. When I was writing on Marx at the worst moment, three years ago, I took heart when I learned that he was planning to do so as well. And I reread tonight what he said in 1990 on this subject: “…Felix Guattari and I have always remained Marxists, in two different manners perhaps, but both of us. It’s that we don’t believe in a political philosophy that would not be centered around the analysis of capitalism and its developments. What interests us the most is the analysis of capitalism as an immanent system that constantly pushes back its proper limits, and that always finds them again on a larger scale, because the limit is Capital itself.”

I will continue to begin again to read Gilles Deleuze in order to learn, and I’ll have to wander all alone in this long conversation that we were supposed to have together. My first question, I think, would have concerned Artaud, his interpretation of the “body without organ,” and the word “immanence” on which he always insisted, in order to make him or let him say something that no doubt still remains secret to us. And I would have tried to tell him why his thought has never left me, for nearly forty years. How could it do so from now on?

 Jacques Derrida

Translated by David Kammerman

Tympanum (c) 1998

The contagion of revolt spreads…Revolts everywhere! Sat, 04 Jul 2020 07:30:36 +0000

Here is the english version of the latest text published by Proletarios Internacionalistas about the revolts happening around the world in the wake of the coronavirus crisis, putting the global state of alarm into question by fighting back against the brutal repression and crushing economic measures which have been imposed. (Enough14)

Since we published our previous text at the end of March, [1] the unfolding of events has only further confirmed what we had there denounced: the war against the coronavirus is a war against the worldwide proletariat. The declaration of the pandemic was the scapegoat, an excellent opportunity and cover for imposing a whole series of brutal measures
that despotically demand the dictatorship of profit. It’s a matter of subjecting the proletariat to all kinds austerity measures, imposing even more intensive and extended workdays upon some proletarians in exchange for increasingly more precarious wages, facilitating layoffs for others, exterminating enormous swathes of excess population, assuring their implementation by means of control and terror, halting the wave of revolts of 2019 and reinitiating a new cycle of

The isolation that capital tries to impose represents the negation of the proletariat as a revolutionary class, the alienation of its community of struggle, in order to destroy not only its current process of associationism, but its future potential (which is already evinced in the current struggles). That is the true objective of the state of alarm: [2] to specify the necessities that are intrinsic to the capitalist social relationship.

Despite the fact that, at first, this whole war had managed to paralyze the proletariat, what’s certain is that our class soon felt to the bone what the whole thing was really about: the material conditions that they suffered all over the world were not due to the “pandemic”3 but due to the necessities of the valorization of capital.

The first signs that the proletariat comprehended this reality were left patently clear in the expressions of the struggle that we saluted in our previous text. The riots and revolts in the jails of numerous countries, the protests in Hubei, the looting and conflicts in Italy or Panama, the extension of acts of disobedience to the measures of the State of alarm and confinement… were the skirmishes which announced that the proletariat was prepared to retake the wave of struggles against capitalism that initiated in 2019.

We also said that the tons of fictitious capital which have maintained, with an ever more decisive importance, the flows of capital for decades already, and which have now been massively injected into real mercantile exchange, with a massive creation of symbols of value without any backing or limit, would create a devaluation without precedents, a
destruction of capital of unforeseeable consequences that would push the proletariat to the limit. Lebanon, the first country to see a revolt spread in its territory against the state of alarm, was at the same time the first to see its coin hit rock bottom. The Lebanese State, which had declared bankruptcy and declared a default on its debts, saw how the dramatic increase in the prices of commodities expressed a drastic reduction in the value that the coin claims to represent (as much as two thirds). The proletarians that still had a few miserable bills available with which to cover a portion of their basic needs (since the grand majority couldn’t even do that) saw how quickly these bills evaporated.
Confined in their homes, with the prohibition of every kind of reunion and with the soldiers sweeping the streets, the situation turned dramatic. The prospects were either to bow the head and, confined, accept the funeral that was being prepared for them, or to bet on life. Once more, the proletariat placed their bets on life by taking to the streets in mass. Since then, the call to revolt has returned to illuminate the darkness of this world, extending to different regions, breaking the confinement, the prohibitions of reunions and mobilizations, the repression and the whole package of measures of the state of emergency. In Iraq, Iran, Panama, France, Columbia, Venezuela, The USA, etc., the wave of struggles initiated in 2019 was retaken, putting the plans of the bourgeoisie for restructuring into question and forcefully presenting a different “new normality” from the one that the worldwide bourgeoisie wants to impose.

From Lebanon to the USA…

The “night of the molotovs” was the first serious backlash that worldwide capitalism received in its “war against the coronavirus”. Towards the middle of April, the major cities of Lebanon experienced protests and confrontations that were responded to by the soldiers with their habitual brutality. On April 26th live rounds were fired on a demonstration, killing the youth Fawaz Fouad and injuring thirty demonstrators. This same night a formidable proletarian response was unleashed, in what was to be called the night of the molotovs. The soldiers found themselves overwhelmed by the generalized rupture of the state of emergency and by the hail of molotov cocktails that took the place of the rocks. From then on, banks, soldiers, police stations and other expressions of capital have suffered every day from the heat of the molotovs while from the windows the shouts and the banging of pots support every fire and demonstration of our class.

In spite of the government having tried to divert the attention by announcing a five stage plan to come out of confinement, proclaiming a sanitary success, [4] the proletarians have not ceased to intensify the revolt, denouncing that the miserable state of life under capital is the real pandemic. The State can’t offer anything but bullets, deaths,
amputations, tortures and misery, which are responded to with the spread of the hoods and molotovs, and at the same time organizing expropriations and networks of aid for the distribution of food and basic products.

Although the first revolt against the worldwide state of alarm took place in Lebanon, this was no more than the crystallization in that territory of the international struggle of the proletariat against the living conditions that capital imposes. [5 ] Though indeed our struggle has always commenced from that reality, in which independently from where it starts, the struggle forms part of a shared global struggle, for the same needs and against the same enemy, it’s certain that the bourgeoisie rolls out all kinds of resources and ideologies in order to isolate, section off, particularize, nationalize, and present as different the diverse expressions of the same struggle, as if they were independent expressions, as if they were alien from each other and of a different nature or origin. But the development of the capitalist catastrophe has not ceased to homogenize the miserable conditions of proletarian existence in an ever more brutal way, complicating the maneuvers of the bourgeoisie.

With the impositions of the global state of alarm, capital made another qualitative leap in this homogenization. Everywhere the same measures, the same sacrifices, the same terrorist attack. The pandemic was the adequate cover to try to hide the generalization of that capitalist attack against the proletariat, [6] the brutal homogenization of our living conditions at an international level.

It was the struggle of the proletariat that unmasked the worldwide bourgeoisie and recognized the pandemic as the cover for making war, for imposing the economic necessities that capital demands above the most basic human needs. The proletarians in struggle openly express that the deaths that capital attributes to COVID–19 are an anecdote compared to the daily massacre of life under capitalism, and that the conditions which were implanted with the state of alarm have done no more than worsen it. Although, as we have said, in Lebanon the first revolt was crystallized since the beginning of the imposition of the state of alarm, synthesizing and amplifying the protests, efforts, and defiance that arose previously in different forms around the world (in the jails, with strikes —also international ones like those of Glovo or Amazon—, with looting, demonstrations…), its crystallization in many other places expresses the development of the international struggle of our class.

Without a doubt, Iraq is another of the places where the struggle has assumed formidable levels. Let’s remember that this region has been one of the bastions of the struggle during the last few months. After an initial impasse provoked by the state of alarm and certain concessions of the State (a release of prisoners, an investigation of police abuses…), the protests resumed at the beginning of April. On these days, various localities of the region began to defy the state of alarm. Baghdad, Diwaniya, Bassora, Nassiruya and Kout were a few of the cities where heavy confrontations with the police unraveled. Soon the protests turned into revolts in the whole region, placing themselves at the point where they had left off before the imposition of the state of emergency. Tahir Square in Baghdad returned to being one of the centers of organization of the struggle in the region. The attempts to assault the “Green Zone” (a strategic spot for the bourgeoisie), the barricades at the entrances to the area around the bridge (al–Jumhuriyah), the stones and the molotovs flying over the heads of the soldiers and exploding into banks, residences of the bourgeois, etc., returned to worry the bourgeoisie.

Just as they worry about how the protests have spread over France as well, especially in the suburbs. In Oise, Amiens, Yvelines, Elbeuf, Compiègne…, proletarians confronted the police with barricades, molotovs and flares. In Mulhouse the street was taken over after some riot cops injured a sixteen year old youth. Like in Ile–de–france, where the rage was unleashed because a police car ran over and killed an eighteen year old youth. In other places like Seine–St.Denis they also organized ambushes on the police and attacked symbols of capital. In order to try to calm thing down, the french State decided to temporarily withdraw the police from the most heated suburbs.

But not only the suburbs are seeing days of struggle. The strikes are happening in many sectors and businesses (Amazon, Nancy, Deliveroo, sanitation workers, health sector workers…), some expropriations have reoccurred in Marseilles and Lille, and the prisons and detention centers incur protests and riots, like in Uzerche, in Rennes, or Correze, where the prisoners destroyed and burned separate parts of the prison and climbed onto the roof.

Even in Mayotte (a french territory in the Indian ocean), where proletarians reject the isolation and the enclosure and break the curfew, the police sent to ensure compliance with the confinement are constantly met with barricades and rocks.

In Belgium, the State showed no mercy in the suburbs in order to put a halt to the proletarian rage, especially after the riots because of the death of a youth during a police control.

With the arrival of the revolt to the USA, the international struggle has acquired new energy. The killing of George Floyd on May 26th by the Minneapolis police was the final straw. Like a volcano in eruption, the proletarians unleashed their pent–up fury and satiated the needs that capital represses. To the cry of “I can’t breath”, our class echoed the words of George Floyd, while at the same time expressing the impossibility of living under the social conditions that capital imposes. What started in Minneapolis soon extended to the whole territory of the USA and beyond its borders.

Attacks on the police, incendiary attacks and assaults on various police stations, looting, the destruction of banks and other entities of capital… Well known symbols and statues of personalities of the ruling class were hit, such as statues of Churchill, of Christopher Columbus, etc. being destroyed or decapitated in numerous cities, not only in the USA but in regions like the United Kingdom or Belgium. In Belgium the protests and manifestations spread to cities like Brussels and Liège, leaving historical monuments in honor of king Leopold II decapitated and destroyed.

The revolt in the USA rapidly acquired such magnitudes that it’s necessary to go many decades back to find a similar affirmation of the proletariat against capital. The State had to declare curfews in many cities and the soldiers of the National Guard were mobilized to intervene. The amount of wounded and killed by the repression continues increasing, like in Atlanta, where the police shot Rayshard Brooks in the back, but the proletarians, far from retreating, respond decisively to every blow from the State.

… happening everywhere

Today we can say, despite the fact that in numerous regions our class has been dazed and subjected to all the fearful paranoia diffused by the various apparatus of the State, that the struggles which the proletarians are developing from one place to another retake the international confrontation initiated before the global state of alarm. The proletariat defend their necessities against those of capital, opposing themselves to its measures: confronting the state of alarm, its exceptional measures, the confinement, the “adjustments”, and what the bourgeoisie call in some regions the “new normality”, [7] etc.

Though we wanted to highlight some of the places where the proletarian revolt has been especially strong, we don’t want at all to detract importance from how the proletariat is expressing the struggle in other places, trying to spread the revolt.

For example, in Venezuela or Columbia the proletariat has expressed their refusal to sacrifice themselves to the necessities of capital by means of the spreading of the protests, the blocking of the streets and looting of markets or food transport trucks, attacks on bank offices…

In Panama the barricades and the fires confront the army in the streets. In Chile, the proletarians retake the struggle that had ebbed little by little by means of riots such as those in Antofagasta or Valparaiso. In Italy, the expropriations have duplicated to the point that the police patrol the supermarkets. Groups of organized proletarians expropriate and vindicate the expropriations because “the money for buying has gone away”. Strikes are also happening, like the recent one at Whirlpool in Naples. As well as the manifestations in solidarity with the prisoners and against the prison policies. In Germany, the protests and manifestations against the measures implemented have been occurring since the end of March (But mainly by fascist groups and far-right conspiracy theorists. That changed after the murder on George Floyd, after that proletarian youths became active in Germany, Enough 14.), like in Iran and a large part of the Middle East. In Uruguay there have been demonstrations during and against the confinement, like the large demonstration in front of the Legislative Palace, and all kinds of resistance coming from different neighborhoods accompanied by slogans like “They don’t want us to be healthy, they want us to be slaves!”. Or in Mexico, where riots have occurred after the death of Giovanni López, a youth who had been detained a month before for not wearing a mask and was beaten to death by the police in the locality of Ixtlahuacán de los Membrillos. The protests commenced on the 4th of June in Jalisco and they extended to the capital and other parts of the region, setting aflame patrol cars, police stations, the Palace of the Government in Guadalajara and other expressions of capital to the cry of “He didn’t die, they killed him!”

We could continue like so, highlighting how the proletariat seeks to affirm the same necessities, the same interests, facing the same enemy, facing the same condition. The international struggle of the proletariat is assuming various levels of crystallization and of force, various forms and places in which to materialize. In this situation, and with the perspective of consolidation and intensification of the class struggle, one of the fundamental aspects for the advancement of the communist project for the abolition of capitalism, of the State, of the social classes, work and money, is to topple the forces that halt the development of the revolutionary perspective from the inside.

We’re referring to the forces that, dressed in false garbs of struggle, distract us from our objectives by driving us down paths that perpetuate this world of death, channeling our power. These forces consolidate and develop upon the basis of our own weaknesses, on the very limits that the struggles contain. To criticize, denounce and overcome these limits is an unavoidable condition for revolutionary affirmation. This is not the place to go deeper and elaborate on all these limits, which on the other hand several comrades and revolutionary minorities have addressed in numerous texts, but we do believe it’s necessary to refer briefly to some of the ones that boast protagonism right now.

Some limitations of the current struggles

Though on one hand we want to propagate the struggle that the spokespersons of capital try to hide by every means, [8] we also want to highlight some of the weaknesses that it contains. The objective is none other than to strengthen the revolutionary direction that our struggle contains, to defend class autonomy in regards to all the attempts at framing, division and frontism. Only by carrying the struggles at hand to their final consequences, knocking down all the elements of contention, not only the most evident ones, such as the repressive action of the State, but also the most enigmatic and dangerous ones, like the ideologies that make bourgeois framing and neutralization possible, can we advance towards the destruction of capitalism.

The presence of particularizing ideologies that focus on social problems as partial aspects which can be solved apart from the totality that generates and needs them, that create specific movements to address them, continues to be one of the impediments of the proletariat. Causing the struggle to tilt towards partial aspects, all these ideologies are a
buttress of capitalism in distancing the struggle from the root of the problem. Antiracism, feminism or environmentalism are a few of the most predominant particularizing ideologies. All of them shift the struggle towards interclassist issues. However, for many proletarians they represent a shared struggle and sentiment, be it against racism, against sexism or against the destruction of the planet. Because they commence from an existing problem, but in an isolated way, without comprehending that it’s capital that organizes and manages such questions. Although male chauvinism, racism or the destruction of a forest are not the objective of any bourgeois, they are elements inherent to the rate of profit and therefore necessary for capital, and for those bourgeois in their ensemble. [9]

The lack of class demarcation has been and is a problem for overcoming the current state of things and also for leaving behind those particularizing and reformist movements that only see Capital as, at the most, a problem like the others. Therefore, it’s not necessary to adjoin the anticapitalist critique to these particularizations, it’s not a matter of uniting the separate, but of warning about the total dimension of the capitalist society that we live in.

When we criticize this or that ideology there will be many comrades who feel attacked, who don’t understand that what we are attacking is an alienating conception of the struggle. In their struggle itself, the proletariat express their own weaknesses through these ideological, interclassist and immediatist questions. But from that same struggle they take lessons and directives, of which our critique is no more than an expression. It’s the process through which the proletariat delimit themselves from their historical enemy and from the ideologies that capitalist life itself affirms, it is their process of constitution as a

Of course the force of these ideologies is not verified at an individual level, but in the movement itself. The same proletarians that fight against capital are propelled to come out by their own material conditions and most of the time they are prisoners of various ideologies. What’s decisive in the struggle is if these ideologies end up dominating and channeling the movement or if they are knocked down in the development of the movement.

In the USA we have suffered from this particularizing ideology in the form of antiracism, attempting to carry the struggle towards a question of races. But all questioning of racism that doesn’t attack the basis of capital leads to nothing more than its reinforcement, because it’s not possible to combat racism —nor understand how it operates— if not commencing from the profound critique of capital. The proletariat in the USA caused this ideology to tremble when proletarians of all races took to the streets to question capital, to impose their needs, to tell capital that it’s not possible to breathe under the weight of its boot. Nevertheless, the force of this ideology continues to be present.

Bourgeois attempts at repolarization

The bourgeoisie has always sought to frame the struggle of the proletariat into two camps that aspire to nothing more than bourgeois and reformist aims. It doesn’t just serve this or that faction to twist the proletarian struggle in favor of their particular interests, but it serves capital in general to neutralize the revolutionary struggle. The fishhook par excellence has always been the false dichotomy fascism–antifascism. The spanish region in the 1930’s gave us the clearest lesson about this polarization when the revolutionary proletariat, which put every form that the State adopted into question, was finally corseted into this deceitful dichotomy, and gunned down between (and by) both sides. The so–called second world war was the corollary of that framing, providing dynamism to capital with the
sacrifice of millions of proletarian lives. Today, in the USA, the State has returned to try to channel the struggle under these labels, by designating “Antifa” as a terrorist organization. It tries to frame the demonstrators under this old polarization in modern garb, while at the same time criminalizing them. Although “Antifa” is not any kind of organization and antifascism as a movement is currently a partial and minoritarian expression of the proletarians in struggle, we can’t keep from pointing out this attempt at framing by the bourgeois State.

But the polarization with greater influence which is forming on the horizon, and which the bourgeoisie of all countries push us towards, is the strain between the factions of capital exasperating against the backdrop of the trade war between the State of the USA and the State of China. It’s being attempted to frame the proletariat into one of the bourgeois camps: the chinese and russian States define themselves as against the power of the western financiers; the western States denounce China as having elaborated the coronavirus, etc.

It’s a matter of making us think, from one side, that material capitalist production is done for our needs and we must defend it from the financial parasitism that oppress it, from the banks, the elite, the 1%; and from the other side, they try to sell us the idea that the material production for our necessities needs the finance money, that money is a tool that can be used for human needs. But the two sides are merely bourgeois alternations. Both factions (which on the other hand are interconnected) are no more than two expressions of capital, two forms under which capital transits in its existence.

We have it clear that capital is not only the bank or money, Rockefeller or Bill Gates, in the same way that it’s not only the factory, the enterprise or the commodity, the large owner or the small one. To believe that some of its expressions, as central as they may be on certain occasions or as much power and pressure that they can exercise on others, are the exclusive personification of capital, takes us off of the revolutionary terrain in considering that capitalism will be erased by simply eliminating the bosses, or the “big families” or even the whole elite of global financiers. Of course it’s necessary to confront all of them, but their social power comes from capital, which is a social relation, and furthermore a subject that dominates and subsumes all human activity and is materialized and personified in multiple forms and levels. Therefore, communism is a movement of social transformation, of suppression and overcoming of the existing conditions.

The perspective and necessity for international structuring

In the current situation that we suffer under and which capital has prepared for us, and the one that is coming, one of the greatest limitations that we have is the weakness in structuring ourselves and internationally structuring the battle, organizing and extending proletarian associationism, and above all organizing the power of the revolution that must oppose and bust the power of capital. This central aspect of the proletarian struggle already supposes our maximum necessity now more than ever, and its affirmation contains the crystallization of our revolutionary potential.

Capital is organizing, structuring, not only in order to obtain the maximum benefit by extracting every drop from our lives until the last breath, but also preparing the mechanisms, legal, policial, social, etc., to repress our fury and our struggles. The democratic dictatorship of capital presents itself today with an extraordinary transparency that vinces, once again, the critique that we revolutionaries have always realized and furthered. [10]

The only alternative to the present and future that the bourgeoisie offers us is the international and revolutionary response that the proletariat attempts to materialize, but it needs to affirm itself as a unitary organized force that is counterposed to bourgeois power.

Despite the differences that exist in our community of struggle, despite the heterogeneity that exists in diverse aspects of the struggle, the basis of our action is the struggle against the conditions that capital imposes, against the state of alarm, against the needs of the economy, of its banks, of its businesses… It is upon this terrain where the various heterogeneities can and need to be addressed, discussed and confronted. And it is there, in the confrontation with the existing order, where the proletariat draws its unity, where the community of struggle has the ecosystem in which to develop and strengthen. There are many forms of expressing class positions, and there are also different forms of perceiving the historical moments and our role within them, but as always, what is fundamental and the starting point for organization is what we do, it’s the practice that we put forward. We start off from the struggle against the conditions that we are subjected to, against the measures of the repressive and bloodsucking State, we start off from negation, from direct confrontation with capital.

Today, we can see a clear–cut example of all of this in the struggle that the proletariat is crystallizing against the global state of alarm and the differences centering around the importance that is given to the virus between the different expressions that struggle. We see expressions in the struggle of our class that place an emphasis on the data that the State gives us and denounce that it’s a central aspect of the capitalist catastrophe and of the worsening of our material
conditions —also giving a lot of relevance to the origin of the virus—, but that doesn’t bring them to negate the true objective of the state of alarm. [11] We see other expressions that denounce that all of this is an exaggeration of the State [12] in order to impose another capitalist turn of the screw, that the main focus should be placed on the measures that take cover behind the declaration of the pandemic and not in the pandemic itself. But beyond the differences, what’s important is that the positions are presented coming from the perspective of the struggle, of the necessities, of the opposition to capital, of confrontation with the state of alarm, with the confinement and all the measures rolled out by capital. Because it’s necessary to assume that the state of alarm (confinement and the rest of the measures) is a state of war against the proletariat. Independently from these differences, these expressions understand, in a more or less clear form, that everything which the States have staged is for the necessities of valorization, and that must be opposed.

Therefore, we find ourselves together fighting in the street, conspiring, breaking confinement, disobeying, discussing, putting the needs of the economy into question and trying to impose human needs. It is upon this terrain where the proletariat has always organized and developed its struggle, but also the necessary polemics and discussions.
Just as we try to do now despite the numerous existing difficulties. It is upon this terrain where the proletariat returns to seat the foundations to affirm itself as a revolutionary class at an international level. Let’s be consistent with that and on every level push forward the international structuring of the proletariat to abolish this old world.




Internationalist Proletarians, June 28th, 2020.

[1] See “Against the capitalist pandemic, social revolution!” in our site:

[2] Under the label of the state of alarm, of emergency, etc. we refer, of course, to all the measures rolled out by the State: confinement, layoffs, adjustments, evictions, scientific and medical terror, masks, disappearances, incarcerations, injections of capital…

[3] We would like to specify that the term “pandemic” is a real pitfall. It’s part of scientific language and has its basis in taking a biological aspect, like the existence of a virus, as the essential factor of a sickness.

Science, from its logic of separation, sees the virus as a threat to the human being, the animals and their environment. Its comprehension of the world, which commences from capitalist rationality, can not perceive the ecosystem as an organic whole, but as isolated beings that act of their own accord. But a virus that is studied in a laboratory doesn’t have anything to do with that same virus in this or that city. A virus developing and cohabiting as a balanced part of a society doesn’t have anything to do with what this virus would do in another place, another society… Under the scientific magnifying glass much more decisive elements than the virus are blurred, like the way in which human beings live and relate. Taking that into account, in our material we indistinctly use the term pandemic with or without quotation marks, with or without nuance. It’s not a matter of going into the field of science in order to discuss the correct use of this terminology, questioning the scientific criteria that they use to define something like a pandemic,
but of understanding that the term itself is a bourgeois interpretation of reality. In history, this terminology has been used to give exclusive responsibility to a virus for this or that evil that afflicted humanity while hiding the truly decisive factors.

[4] The lebanese State has confirmed only thirty deaths associated with COVID–19, a figure that furthermore makes it clear how unsustainable it is to justify the terroristic alarm measures in some places using the pandemic as the excuse.

[5] Let’s remember that Lebanon had already been one of the the places where the proletarian revolt in the autumn of 2019 acted most powerfully. The revolt was as much in opposition to Hezbollah, which came out to make repression, as to the bellicose and religious channeling that the proletariat of the zone has suffered since decades.

[6] There are States like the Philippines that hardly try to save face. In this State they just approved an anti–terrorist law where every person that is simply suspected of being involved with terrorist activities can be detained for two months without an order for arrest, and can be placed under surveillance for another two months on the digital and
telephonic level, which means that any device connected to the internet, a telephone, a computer… is inspected. The legal formulation is of such a magnitude that everything that the suspected might do could be considered a “terrorist act” and be subject to the extra–judicial forms and means of the State.

[7] As if we had at one time abandoned the capitalist normality with the irruption of the state of alarm, when in reality we haven’t experienced anything but another turn of the screw of the dictatorship of the economy over our lives. On its part, the “new normality” represents the consistent development of the state of alarm which, far from improving the material conditions of life, is the direct result of everything that the war on the coronavirus entails. That’s to say, even worse material conditions of survival for the proletarians of the whole world. Everything is presented as the logical capitalist development of the “old normality” which the ideology of the lesser evil yearns for, presenting what are no more than moments of the same miserable existence as realities to choose from.

[8] The obscuring of our struggle by the media doesn’t just consist of trying not to mention this or that revolt, it also consists, particularly when this revolt or protest cannot be ignored because of its repercussions, in distorting it, fragmenting it, covering up its common root.

[9] Slavery and the traffic of slaves have profit as their objective, but racism is an element to materialize them. The destruction of the planet isn’t an objective in itself either, but the maximization of profits can only be realized by means of it. Sexism isn’t a goal in itself either, but the form in which capital manages to reproduce itself effectively. That all of these realities develop as aspects of life under capital evidently entails that they materialize, expand, and express themselves in all human relations in very diverse ways. What’s crucial is that the critique doesn’t rest on just a few of these materializations, but that it arrives to the source, the root, that it be radical.

[10] Democracy is not a political form, it’s the form of life proper to the generalized mercantile world and its essence is the dictatorship of capital, independently from what political level it crystallizes in, be it military government, republic, monarchy, etc. We recommend reading the book by Miriam Qarmat “Contra la democracia”.

[11] That’s to say, they are part of the true community of struggle that fights against capital, against the State, against their measures. We want to clarify this point since we oppose and denounce all those pseudo–revolutionaries who don’t only reproduce the panic that the State sows within themselves, but also collaborate with it or stand in critical support, extending the terror of the state and facilitating the repression. Claiming themselves to be for communism or anarchy, these pseudo–revolutionaries follow the dictates of the State to the letter, defend the confinement and the other control measures, considering suspect the proletarians who refuse to submit, who meet up to struggle, who disobey the State.

[12]Which illustrates the impossibility of verifying or refuting these questions, and shows how our lives slip out of our hands.

taken from here

Program Fri, 03 Jul 2020 07:22:36 +0000

F. Laruelle. “Programme.” La Décision philosophique 1 (1987): 5-43.


translated by Taylor Adkins 7/2/20

  1. A science for philosophy

Let’s suppose that we will formulate a project and that it will be necessary to exposit a program, this would be the manifesto: don’t do like philosophers, invent philosophy! Radically change its practice! Multiply its potentialities! Treat it experimentally as a whatever material! Is this possible? We are posing the problem otherwise: this is real.

We have the means to substitute a non-philosophical practice of philosophy for its “philosophical” practice, to thereby open it to a new career, and, at the same time, to disconnect philosophy from philosophers alone and to give it to man. Against Plato and the Greco-dominant tradition, we can demonstrate that “the multitudes are philosophers.”

Then who are we, we who call ourselves “every man” and “multitudes.” We are only the subjects (of) science. Having ceased being the subjects of philosophy, by it and for it, we finally have the power and the right to treat it as a whatever object and to draw effects from it that philosophy had refused us until then…

We all know this, but philosophy spoke in our stead and substituted its knowledge for ours: there is a form of thought even more primitive than the philosophical, an image of things even more just than it—science. It is not a question of the sciences taken in the regional particularity of their objects and their methods, nor of science [la science], which corresponds to them as this abstract generality that here and there one would like to substitute for philosophy. We recognize it neither in its epistemological transvestism nor in its bad positivist absolution, and we refuse its philosophical image in general. This is a question of “Vision-in-science,” i.e. a question of what every science as such gives and requires of the real in an autonomous way. By the name science, we understand two things. On the one hand, its essence: for it has an essence proper, rigorously distinct from philosophy’s. On the other hand, the science of this essence of science: a particular science located alongside others, yet whose object is their essence-of-science, what we call a transcendental science. Such is the discovery: there is a vision-in-science more primitive in its access to the real than philosophical vision, and a transcendental science that has the power to constitute philosophy into its object without thereby destroying it or transforming it in this operation. Let’s add another effect: it finally delivers us from philosophical falsifications that make science sometimes into a sub-philosophical knowledge, sometimes into a simple substitute of philosophy…We therefore possess a new point of view anterior to philosophy itself. And we can freely draw from this vision effects for philosophy, effects of secondarization, loss of authority, and practical gain.

Several tasks can now be specified. First, and to follow a pedagogical order, to introduce philosophers to the experience of science rather than to impose this new point of view on them, we characterize the ancestral authority of a certain Principle of sufficient philosophy that founds the philosophical Authorities in general or the unitary, Greco-unitary, style in thought.

Then we elucidate the internal reasons that make science into a paradigm of thought completely distinct from the philosophical paradigm, anterior to it and irreducible to its “epistemological” effects. We draw the conclusion from this that, without being dismembered or devalorized, philosophical Decision can fall under a special science and that it constitutes one of the last (if not the last) of the scientific Continents.

Finally, we are describing the other extremity of the program through which it opens onto a radical future: the possibility of an unlimited pragmatics of philosophy. If there’s still a finality, more apparent qua finality than real, it is in fact this: only a radical science provides the foundation and the right of multiple non-philosophical usages of philosophy. Not only does it give the possibility of regarding it (if not from elsewhere, at least from within the optics of a finally rigorous knowledge); but also, freeing its practice from the authority of the Principle of sufficient philosophy, it makes possible a pragmatics finally adapted to philosophical Decision itself. No longer being a sub-product of Decision but founded on science, it is open by definition to non-philosophical possibles. No doubt this means: rather than philosophizing on right, art, science, etc., you can do the inverse and treat philosophy as a jurist, an artist, a scientist, an architect, a man of the people, etc. But on the twofold condition—you can do it now and by way of this science—of respecting the nature and specificity of its operation, and of not injecting it under philosophical authority with simple objects and simple metaphors taken from elsewhere. Science has already programmed this, and you have always done this without knowing it: you come too late, which means you are only philosopher. It is no doubt a question of experimentally treating philosophy based on your needs, your practices, your syntaxes, but on condition of proceeding in a truly “scientific” and consequently “experimental” manner, on condition of really freeing yourself from the grip and bewitchment of the Principle of sufficient philosophy and not circularly reintroducing objects or methods you have already, at some other point, selected for it.

To summarize this opening: insofar as science precedes philosophy and relieves it of any hope of returning, it alone gives you the foundation to treat philosophy in a maximum of distance and in an alterity that you will finally not be given by an arbitrary decision (like philosophers do) but that you will have received as ordinary man, what you are as subject (of) science. This Other-than-philosophy on which you will now be able to ground yourself comes from you, who are from the start nothing but this subject (of) science. It will take on an essential property from science, a property definitively non-negotiable for philosophy, which is namely the property of being uni-lateral and of uni-lateralizing philosophy. This is why, rather than a question of “secondarizing” philosophy, it is a question of uni-lateralizing it or displacing it outside its authority and its spontaneous practice even before it is to be displaced. Philosophy does not have to be displaced, it already is displaced—by you as man. That’s what you guarantee science, but what as philosopher you ignore.

We will establish the economy of this program, its gains and losses, later on. On the losses side, it already fully implies renouncing this dominant auto-referential practice (like the history of philosophy and the labor of texts) or practicing them in a completely different way. Traditionally and in its naïve or spontaneous practice, philosophy, far from being treated within a science and a pragmatics that would result from it, is simply related viciously to itself just as it gives itself the right to do. This auto-philosophical prejudice is called philocentric Faith or Authority and must be unmasked: in general, obviously, but also in its main method, which is the historicizing and textual relation to philosophy. The history of philosophy is not prohibited, but it no longer founds and limits the practice of thought. The most elaborate forms of this naïve practice, like the deconstruction of metaphysical texts, do nothing but lead back to philocentrism and must in turn be founded in science, since the Other-of-philosophy is finally elaborated in its essence and in its reception by the subject qua subject (of) science and stops being supposed arbitrarily as every philosophical Decision left to its natural “play” does. The scientific foundation of philosophy’s deconstruction implies the abandonment of the philosophical forms of deconstruction. And in general, the radical renewal of philosophical practice passes through the scientific abandonment of philosophical Faith and the downfall of the Principle of sufficient philosophy.

On the gains side, this displacement of Decision—insofar as it is acquired by science before philosophy can give a hallucinatory reality to its authoritarian pretention—already opens a field of unlimited experimentations on philosophy, a future without logical restriction, without logos or futurologos.

If we want something…it would first be to put philosophy on its only real base, that of science; to constitute it into the object of a science, for science implies by itself that knowledge is worth more than faith and must take faith as its object; to thereby detach it from itself, its history, and its bewitchment (critique of every philosophy’s transcendental Illusion); finally, to make possible a generalized pragmatics that is connected to philosophy itself.

We will finally know why we philosophize, for we certainly do not know as of yet: for the 2,600 years that there have been thinkers who have done nothing but philosophize “ahead” of the research of a problematic reality, none have been able to give ultimate and rigorous, non-circular or non-philosophical reasons for its endeavor, which remains authoritarian and absurd to the extent of this absence. Philosophizing with awareness of the cause, we will finally do so for positive reasons rather than because of a so-called “need to philosophize” or because of a “call to think” that do nothing but express about man the seduction and prestige of a certain “objective philosophical Appearance”…

read more here

Joseph Schumpeter and the German Historical School Thu, 02 Jul 2020 06:56:08 +0000

Undoubtedly, Joseph Alois Schumpeter ‘was one of the greatest economists of all time’ (Haberler, 1950, p. 1) who made seminal contributions to economics and had a major impact on the development of the discipline in the twentieth century. However, some important aspects of his works remain less widely discussed.

read here

Jenseits der “Kontrollgesellschaften” Tue, 30 Jun 2020 09:03:04 +0000

Radikale Indifferenz

Die Verhaltens- und Rezeptionsweisen der Massen bestehen heute zumeist aus repetitiven Gewohnheiten, wobei sie als User im Internet aber keineswegs passiv bleiben, sondern sich über die sozialen Netzwerke andauernd ins pseudo-turbulente Geschehen einbringen, um emsig und beschäftigungskonform, zuweilen auch rassistisch Daten und Informationen zu produzieren, welche die großen Medienkonzerne wie Google, Apple oder Facebook extrahieren, quantifizieren und aus- und verwerten. Es ist dabei eine neue Akkumulationslogik entstanden, innerhalb derer das Überwachungskapital Daten über menschliches Verhalten inklusive scheinbar nutzloser Überschüsse von Daten (Fehler, Syntax, Zeichen etc.) extrahiert, das heißt Daten und Fehler aufsaugt und diese ständig mit anderen Daten kombiniert, um mit ihnen intelligente Maschinen zu füttern, die mittels algorithmischer Prozesse Vorhersagen über das künftige Verhalten der User produzieren, Vorhersagen, die als Quasi-Derivate dann auf Verhaltensterminkontraktmärkten angeboten und verkauft werden. (Zuboff 2018: 125) Dabei extrahiert das Überwachungskapital einen Vorhersagewert nicht allein aus dem Inhalt, den ein User postet, sondern auch aus den Ausrufezeichen und Kommas, die er setzt oder nicht setzt, oder, um es anders zu sagen, nicht daraus, wohin jemand geht, sondern wie jemand geht. Die Nutzer mögen die Eigentümer derjenigen Daten bleiben, die sie den Überwachungskapitalisten geben, aber sie bekommen keinen Zugriff auf das Surplus der Daten. Mit den Daten verflüchtigt sich der spezifische Inhalt der Posts, ja die Aussagen mutieren zum austauschbaren und zugleich zum verwertbaren Material. Der Konsument muss zugleich animiert werden, innerhalb des 24/7-Taktes irgendwie am Ball zu bleiben, indem er selbst viele Daten produziert, postet und gepostetes Material kommentiert, liked, tauscht und archiviert, sodass die Überwachungskapitalisten ihn leicht als ein lebende Datengenerierungsmaschine permanent ansaugen und verwerten können. Es herrscht bei Facebook bezüglich der jeweiligen Bedeutungen und Inhalte der Posts eine radikale Indifferenz, die dazu führt, dass der »Content ausschließlich nach Volumen, Diversität und Tiefe des anfallenden Überschusses« (ebd.: 578) beurteilt, quantifiziert und bewertet wird, und zwar anhand der anonymen Maße der »Klicks, Likes und Verweildauern – und das trotz der offensichtlichen Tatsache, dass er (Überschuss) seine zutiefst unterschiedlichen Bedeutungen aus zutiefst unterschiedlichen menschlichen Situationen bezieht« (ebd.: 438).

Die radikale Indifferenz des Überwachungskapitals gegenüber den Inhalten der Posts erfordert von der subjektiven Seite der User gesehen eine Steigerung der organischen Zusammensetzung der Ignoranz (außer der Liebe für sich selbst), die aber beileibe kein individuelles Manko, sondern schlichte Konsequenz der algorithmischen Governance ist, und diese Ignoranz ist wiederum die Voraussetzung dafür, dass das Überwachungskapital so ohne Weiteres ein spezifisches Spekulationskapital handeln kann, das im Modus der Gleichzeitigkeit Ungewissheiten in Risiken transformiert und diese dann auch ständig aktualisiert und bewertet. Der Modus der Aktualisierung darf hier aber keineswegs als der des Virtuellen, wie dies Deleuze vorführt, verstanden werden, vielmehr ist er identisch mit der Momenthaftigkeit, die nun auf Dauer gestellt wird, sodass es eben allein drauf ankommt, was im Jetzt der Gegenwart gerade aktuell ist und was in den Medien zählt.1

Damit hat sich in der Medienwelt auch das Verhältnis von Differenz und Konsolidierung/Standardisierung verschoben. Wir halten uns bei unseren Analysen vielleicht immer noch zu stark an die Versität (Gleichmachung), eine Inversion und Mutation der Diversität, die aber nicht die Eliminierung von Differenz bzw. der sozial-kulturellen Differenzierung inkludiert, ganz im Gegenteil benutzt die Versität die Differenz als ihr reales Substrat, um standardisierte Organisationssysteme zu generieren. Ständig werden damit neue Ordnungssysteme und Machttechnologien geschaffen, welche die Differenzen absorbieren oder zumindest modulieren. Dagegen kommt es bei der Operationalisierung der radikalen Indifferenz zu keiner Modulation und Konsolidierung der Differenzen mehr, vielmehr gelten sämtliche Differenzen, die die unterschiedlichsten Inhalte betreffen, als äquivalent und damit neutralisiert man den Inhalt bzw. die Bedeutung. Diese Art der rigiden Formatierung geht auf ein finanzialisiertes Akkumulationsregime zurück, dessen erster Anspruch nicht mehr Fortschritt oder Entwicklung ist, sondern das in seiner Kurzfristigkeit bzw. in jeder Sekunde das erfolgreiche Management von ständig präsenten Risikomöglichkeiten versprechen muss, egal auf welche Basiswerte die Versicherungen sich denn nun beziehen.2 Dabei kann eben alles und jedes, jedes Ereignis, jeder Inhalt und jede Bedeutung zum Risiko transformiert werden. Analog dazu sind die Inhalte, die sich auf den sozialen Plattformen in Bildern, Videos und Texten materialisieren, der handelbare Rohstoff, den das Überwachungskapital als Daten extrahiert. Es handelt sich hier um einen Überschuss insofern, als auch Daten extrahiert werden, die weit über das hinausgehen, was als Informationsdienst für den Nutzer eigentlich notwendig wäre, aber eben für das Überwachungskapital doch eine Ressource darstellt, die es zu kapitalisieren gilt. Es gelten nun letztendlich alle Differenzen (der Inhalte) als äquivalent, oder, um es anders zu sagen, jede spezifische Bedeutung löst sich im Datenstrom auf, sodass eine radikale Indifferenz herrscht. Differenz istgleich Indifferenz, so lautet nun die magische Formel. Diese Art der die Inhalte neutralisierenden Äquivalenz macht zumindest den sichtbaren, den fließenden Text bei Facebook generell auch anfällig für alle Arten von Fake News, was von den Überwachungskapitalisten, solange keine Einwände von seiten der Politik kommen, meistens hingenommen wird, da schließlich jeder Inhalt für den unsichtbaren Schattentext bzw. die Black Box der Algorithmen als Daten-Rohstoff zählt, den die »Maschinenintelligenz« dann operationalisiert, damit das Überwachungskapital an den Verhaltensderivatmärkten den Werbekunden punktgenaue Vorhersageprodukte anzubieten vermag. Diese Art der Extraktion und Produktion von Daten bzw. Verhaltensüberschüssen erfordert ein Projekt, das weit über die Transformation der Unsicherheit in ein kalkulierbares Risiko hinaus auch unbedingt Gewissheiten herstellen muss, das heißt genaue Formen des Verhaltens von Nutzern nicht nur antizipieren muss, sondern die Nutzer tatsächlich auch zu den vom Überwachungskapital gewünschten Verhaltensweisen motivieren und steuern will.

Dem postfaktischen Zeitalter ist die unaufhörliche Generierung und Interpretation von Daten und Informationen (und ihren Bedeutungen) immanent, was allerdings längst nicht dazu führt, dass die Bedeutung an sich verschwindet. Die Verflüssigung der Bedeutung im endlosen Datenbrei in Folge der permanenten Suche nach Mustern und Korrelationen in den produzierten Datenmengen heißt nicht, wie etwa von Baudrillard mit seiner Simulationstheorie angenommen, dass die Zeichen lediglich noch im Als-Ob zirkulieren, sondern dass die Extraktion von »Bedeutung an sich« immer intensiver um sich greift, gerade aufgrund des Faktums, dass nach wie vor be- und gedeutet werden muss, unabhängig davon, was nun im Einzelnen bedeutet wird. Dies liegt in der letzten Instanz in der auf die Zukunft ausgerichteten Kapitalisierung, die sowohl das Geld als auch die Bits in ihrer Austauschbarkeit als auch eine auf die Zukunft kalkulierende Vermehrung des Kapitals umfasst, einzig zu dem Zweck, alles und jedes als Finanzanlage oder Derivat zu inszenieren, das, unabhängig von der jeweiligen Bestimmtheit eines Basiswerts, auf den sich das Derivat jeweils bezieht, nichts außer Rendite erwirtschaften soll.

Bezüglich der Austauschbarkeit von Bits erweist sich der Computer als ein Zeichentransformator, der reine Information prozessiert, aber nicht ohne Inhalt, sondern mit beliebigem und austauschbarem Inhalt. So wie Geld gegen Ware austauschbar sein muss, gleichgültig, gegen welche, so müssen Bits etwas bedeuten, gleichgültig, was sie bedeuten. Geld und Bits indizieren Kommunikation eben ausschließlich unter dem Aspekt der Negation einer spezifischen Bedeutung.3 Oder, um es anders zu sagen, unter Ausschluss jeder Bedeutung, außer der, dass unaufhörlich bedeutet werden muss, sodass Dassheit und die durchkreuzte Perspektive des Sinns hier eindeutig in den Vordergrund tritt.4 Es kommt deshalb gerade auch bei der gegenwärtigen Dateninvasion zu keinem generellen Bedeutungsverlust, sondern zu einer Bedeutungsüberproduktion, die der durch das Kapital gesetzten Gleichgültigkeit jeder spezifischen Bedeutung gegenüber komplementär ist, aber es muss ja nach wie vor bedeutet werden, ansonsten fiele das System auseinander.5 Diese Art der Bedeutungsüberproduktion macht den wirklichen Verlust an Bedeutung und der Wahrheit aus. Betancourt fasst diese Zusammenhänge als Agnotologie zusammen. Er schreibt: »Das Problem der informationsreichen Gesellschaft besteht nicht im Zugriff auf Information – auf Information zuzugreifen, wird zu einer alltäglichen Angelegenheit durch die ständig aktivierten Computernetzwerke –, sondern ist eine Frage der Kohärenz. Die Agnotologie wirkt in der Erzeugung von Dekohärenz: Sie unterminiert die Fähigkeit, festzustellen, welche Information wahrheitsgemäß und für die Konstruktion von Interpretationen zulässig ist.« (211) »Agnotologie hat die Funktion der Eliminierung des Widerspruchspotenzials.« (234) Als korrekte Bezeichnung für die Konstitution dieses Datenimperiums schlägt Betancourt »agnotologischer Kapitalismus« vor: »ein Kapitalismus, der systematisch auf der Produktion und Erhaltung von Unwissenheit basiert.« (233) Unwissenheit ist also weniger die Folge mangelnder Information, sondern im Gegenteil, Resultat des Überflusses von Information.

So zeichnet sich heute das kreative Vermögen der Hightech-Paranoia weniger durch einen Mangel an Orientierungswissen als durch die Überproduktion von Bedeutung aus, die aus dem Spiel resultiert, dass es überhaupt Bedeutung gibt. Wenn somit Bedeutungen in vielfach zirkulierenden artifiziellen Deutungsverfahren austauschbar werden, woraus die Kämpfe um die Deutungen erst entstehen, dann folgt quasi zwangsläufig eine wahnwitzige Suche nach der Bedeutung. Während das Kapital durchaus mit dieser Art des Bedeutungsverlusts durch die Überproduktion von äquivalenten Bedeutungen leben kann, so ist das für den Staat nicht ohne Weiteres möglich, denn mit ihm ist die Äquivalenz aller Bedeutungen in Frage gestellt, wenn er sich denn als der Standpunkt aller Standpunkte ausweisen will.

Man könnte mit Lacan sagen, dass der ungefilterte Datenstrom der Bereich des Realen ist, während Informationen und Metadaten die Realität wiedergeben, eine durch kognitive Filter und technologische Infrastrukturen intelligibel gemachte Welt, die selbst wiederum aus Registern des Imaginären und Symbolischen zusammengesetzt ist. Unentwegter Anfall von Daten, Informationen und Meinungen, die geradezu hysterisch, insbesondere in den sozialen Netzwerken, aufeinander reagieren, als gleich und als verschieden in jedem Moment, um vor allem Wahnaggregate und Illusionsabfälle jedweder Art zu erzeugen.

Man muss hier von einer Tendenz sprechen, erwirtschaftet doch Google & Alphabet einen Großteil ihres Umsatzes mit Werbung, die auf der Versteigerung und Vermietung von Suchbegriffen beruht, sodass sich sagen lässt, dass Daten zwar der Rohstoff der digitalen Ökonomie sind, aber sprachliche Bedeutungen damit nicht ganz verschwinden, sodass es auch zu einer systematische Kapitalisierung und Monetarisierung sprachlicher Bedeutungen kommen kann. Selbst im Finanzsektor ist man sich darüber einig, dass das Kapital sich nicht in Zahlen, Charts und Modellen erschöpft, die vor allem auf a-signifikanten Semiotiken basieren, sondern dass die Unternehmen semantisch und narrativ aufgeputzt werden müssen.

Zwar kann vor allem der Wert von Markenunternehmen nicht unabhängig von den materiellen Aktiva, der Geschäftspraxis, dem Produktportfolio und dem messbaren und dem erwarteten zukünftigen ökonomischen Erfolg festgelegt werden, aber gerade bei den Marken-Unternehmen spielen Symbolsysteme und Narrative nach wie vor eine Rolle für die Bestimmung des Börsenwerts. Während das Geld als Form des allgemeinen Äquivalents der Waren deren qualitativen Unterschiede nivelliert, versprechen Marken immer das Unvergleichliche und Singuläre, sie verwenden nicht nur Markierungen des Unterschieds, sondern ausdifferenzierte Zeichen- und Symbolsysteme. Hier besitzt das inkommensurable Bedeuten, das kein Äquivalent kennt, selbst noch Bedeutung. Die Marken haben die Aneignung symbolischen Kapitals sogar institutionalisiert, wobei es dem Einzelnen überlassen bleibt, ob er auf die Symbolwelten und das Zeichenrepertoire der Marken zurückgreifen möchte. Zudem ermöglicht es die algorithmische Operationalisierung des lexikalischen Materials, den Wert eines Wortes zu objektivieren, zu quantifizieren und zu monetarisieren. Die Begriffsbörsen übertragen die Mechanismen der Preisbildung auf die Sprache und ihr lexikalisches Material. Jedes Wort, jeder Begriff hat seinen Preis, der in einer digitalen Auktion ermittelt wird. Und dieser monetäre Wert bleibt wiederum insofern nicht ohne Einfluss auf die Wortwahl und den Sprachgebrauch, wobei herausragende Begriffe und Begriffskombinationen bevorzugt werden. Das Geld hat sich der Sprache bemächtigt, während die algorithmische Sprachproduktion gleichzeitig ein hohes Maß an kommunikativer Liquidität und Indifferenz erzeugt.


Traditionelle Werkzeuge der Disziplinierung und der Bewertung sind nicht notwendigerweise solche der Quantifizierung. Die neuen Techniken der Quantifizierung erfassen wesentlich mehr, als man sich überhaupt vorstellen kann. Sie sind keine Prothesen des menschlichen Bewusstseins, sondern inhärieren eine Transformation, die weit über die menschliche Perzeption hinausgeht. Während eine Kamera noch eine Vergrößerung für die existierende menschliche Beobachtung anbietet, so erlaubt es beispielsweise ein Fitness-Tracker sich mit der Welt in einer Art und Weise auseinanderzusetzen, welche die bisherigen Subjektivierungsweisen in Frage stellt. Dieser Tracker ist nicht ein Werkzeug für die menschliche Perzeption, sondern ein Instrument der Sensation, dessen Funktion es ist, Prozesse in schier unfassbaren Details zu beobachten, und zwar indem quantitative Daten generiert werden. Fitness-Tracker ersetzen nicht die menschliche Kognition, sondern performen sensorische Aktivitäten von Bewegungen (Schritte, Schlaf, Puls etc.) die bisher noch nicht beobachtet und nicht quantifiziert werden konnten. Sie eröffnen die Möglichkeit, etwas zu erfahren, das dem menschlichen Bewusstsein nicht direkt zugänglich ist. Als Werkzeuge der Sensation anstatt als solche der Perzeption und Evaluation, performen digitale Tracking-Technologien relativ banale Funktionen wie das Zählen, und das so viel wie nur möglich (Quantifizierung), wobei das Vergleichen nicht unbedingt stattfinden muss (Messung). Tragbare Self-Tracking-Technologien haben die Tendenz Aspekte des Humanen, die zählbar sind (Schritte, Inhalationen, Herzpuls etc. ), zu beobachten, und dies sogar in der Abwesenheit von Messungen. Wo diese Bewegungen quantifiziert werden, kann natürlich auch die Messung wieder eingeführt werden, und zwar als das Ziel oder als die Norm einer Anzahl von Schritten. Aber die primäre Aufgabe der Tracker besteht darin, zu zählen und nicht zu vergleichen. Wenn man sich auf die Frage des Pulses sowohl in somatischer als auch in metaphorischer Hinsicht konzentriert, dann kommt man zu dem Schluss, dass eine mögliche Krise der Messung nicht unbedingt eine Krise der Quantifizierung sein muss. Die Anforderungen der sensorischen Tools und der Daten-Analytics sind das, was Lefebvre »internal measures« vom Daten nennt, die ständig in Realtime akkumuliert werden. Dieses Maß existiert notwendigerweise in der Zeit, indem es auf einen Rhythmus rekurriert, der vom Körper oder einem sozialen Kontext ausgeht, wie etwa die Pulsrate. Eine gesunde Pulsrate ist eine, die in Sync mit einer Situation ist, aber auch in einer angemessenen und aufschlussreichen Weise in der Zeit variiert.

Die dem finanziellen Kapital adäquate Regierungsform umfasst heute unbedingt das Quantifizierungs-Dispositiv. Steffen Mau schreibt in seinem Buch Das Metrische Wir: »Die Forderung nach Transparenz bedeutet in ihrer übersteigerten und letztlich totalitären Form, dass jede und jeder von uns legitimerweise in allen Aspekten des Lebens dauerhaft überprüft, beobachtet, klassifiziert und bewertet wird.« (Mau 2017: 231) Die neue totalitäre Massenbewegung wäre demgemäß, wenn man es etwas überspitzt ausdrücken will, die sich permanent selbst zählende und bewertende und umfassend gezählte und bewertete Bevölkerung. Im Kontext der neoliberalen Gouvernementalität, die Foucault so eindringlich beschrieben hat, haben sich aufgrund der Digitalisierung der kapitalistischen Produktionsprozesse, der Staatsapparate und sämtlicher sozialen Institutionen weitreichende Quantifizierungsdispositive sowie Bewertungs-, Kalkulations- und Vergleichs-Dispositive entwickelt, die auf sich ständig modulierende Steigerungs- und Überbietungsverfahren bezüglich der Rentabilität, Effizienz, Leistung und Transparenz von Aktivitäten in allen möglichen sozialen Bereichen setzen und zu einer umfassenden Quantifizierung der ökonomischen, sozialen und politischen Körper führen, die die bisherigen Schichtungen, Klassenspaltungen und ihre symbolischen Distinktionsverfahren aufmischen, durchdringen und überlagern.

Und selbst noch die privatesten Bereiche der Bevölkerung sind heute in diese Quantifizierungsprozesse integriert, wobei man die Akteure als Daten, die wiederum in Zahlen transformiert werden, konstruiert und anschreibt. Diese Überwachungs- und Quantifizierungsprozesse treffen heute auf seltsam passiv-aktive Dividuen, passiv insofern, da sie durch Ranking- und Ratingverfahren ständig geteilt und damit als Dividuen, die konstitutiv für Tests und Stichproben sind, erzeugt werden, aktiv insofern, als sie vom Wunsch motiviert, unermüdlich Individualität simulieren und in diesem Kontext ihre aktive Bereitschaft zur freiwilligen Vergabe von Daten, zur Teilnahme an Rating- und Rankingverfahren und zum Casting tagtäglich demonstrieren. Derartige Teilnahmen sind dem Quantifizierungsdispositiv nicht nur einfach eigen, sondern sie intensivieren andauernd dessen Wirkungen, die nicht lediglich in den durch die Verfahren erzeugten Quantifizierungen und im numerischen Vergleich liegen, sondern zugleich die Konkurrenz zwischen den Bewerteten und Wertenden verstärken.

Im Rahmen der Implementierung des Quantifizierungsdispositivs kommt es also auch zu ständigen Kämpfen der Akteure um ihre Positionen; es kommt zu andauernden Aktionen, die der Verbesserung im Ranking dienen und die durch die kontinuierliche Messung in objektivierte Ordnungen, Hierarchien und Komplexen der Wertigkeit eingeschrieben sind. (Mau 2017: 49ff.) Dieses objektivierte Quantifizierungsdispostiv inkludiert vielfältige Verfahren der Zählung, Bewertung und der Integration, wodurch der Status der Objekte, der Phänomene, der Sachverhalte und der Akteure in die abstrakte Sprache der Zahlen übersetzt wird. In diesem mathematisierten Universum herrschen exakte, das heißt eineindeutige Quantifizierungs- und Ordnungsverhältnisse, innerhalb derer komparative Methoden, Differenzierungen und Skalierungen eine wichtige Rolle spielen. Und gerade deswegen umgibt das Quantifizierungdispositiv in der Öffentlichkeit eine Aura der Neutralität, der korrekten Nachprüfbarkeit und der Exaktheit und bietet damit eine brauchbare und angeblich ideologiefreie Repräsentation der sozio-ökonomischen Verhältnisse an, die, wenn sie von Maschinenintelligenzen prozessiert wird, von menschlichen Entscheidungen und Praktiken, ja selbst von den Machtverhältnissen entkoppelt zu sein scheint, man denke hier etwa an scheinbar objektive Kennziffern wie das Bruttoinlandsprodukt, Arbeitslosenquoten, Kennziffern zur staatlichen Verschuldung und viele weitere Parameter, die auf statistische Verfahren zurückgehen, aber wenn sie ins öffentliche Licht rücken, dennoch zu nicht unerheblichen Verwerfungen in den verschiedenen sozialen Bereichen führen können.

Mittels der kontinuierlichen Einschreibung verschiedener Indikatoren, Daten und Zahlen entfaltet sich das Quantifizierungsdispositiv, dessen Metriken, Bewertungen und Kalkulationen tief in die politischen, ökonomischen und sozialen Felder eindringen und diese durchdringen, strukturieren und regulieren, bis hin zu den verschiedenen Verfahren der Selbstoptimierung der Akteure. Es entsteht eine normalisierende und zugleich performative Ritualisierung all dieser Felder, das heißt eine sozial konstruierte Vermessung mittels der Syntax von Zahlen.

Die Wucherungsprozesse der allgegenwärtigen Quantifizierung lassen sich an Zahlen ablesen, so wird geschätzt, dass die Datenmengen im digitalen Raum in der Zeitperiode von 2005 bis 2020 um den Faktor 300 wachsen (Mau 2017: 41), wobei nicht nur die Produktion der Daten und ihrer Speicherkapazitäten ansteigt, sondern auch das Potenzial zur Herstellung von Verknüpfungen und Clusterbildungen der Daten bei ständiger Verbesserung der algorithmischen Verfahren sowie der Strategien und Prozesse des Big Data (Datenminining und -analyse). Es lässt sich leicht nachweisen, dass das Quantifizierungsdispostiv Teil einer expansiven Kapitalisierung auch von bisher der Profitlogik noch weitgehend entzogenen Bereichen ist, man denke an Bereiche wie Bildung, Verwaltung, Gesundheitswesen und kulturelle Einrichtungen wie Museen, die alle heute einer effizienten Allokation von Ressourcen unterstellt werden, indem man permanent Evaluationen, Tests und Prüfungsverfahren der in diese Einrichtungen integrierten Akteure installiert, die nun selbst einerseits in den Rankings ultravisualisiert und andererseits in den Wettbewerb hineingezwängt werden, der ständige Adaptionen verlangt, wobei die Akteure selbst auf lebende Daten reduziert sind, die vor den flimmernden Bildschirmen sitzend ihr Verhalten in die Computer tippen, wodurch man sie scheinbar nichtsahnend umfassend quantifizieren kann, während sie sich diesen Prozessen aber doch ganz bewusst aussetzen, wenn es um die Vorteile im Ranking und Rating gegenüber der Masse der Mitstreiter geht. Bis ins Feinste tritt die Problematik der Credit Points, der verschiedenen Programme der Evaluierung und der Optimierung ihr sanftes Regime an, wuchert bis in die letzten Ritzen der Büros und in die Unternehmenssituationen hinein, Macht wird fluidal, sie wird »gasförmig«, wie Deleuze sagt, sie organisiert sich in Netzwerken, in denen jeder Knotenpunkt potenziell die Information des Gesamtsystems enthält, sie wird mikrologisch oder gar nanotechnisch, sie gerät »inter-aktiv«, indem sie ein unausgesetztes Spiel von Aktion und Reaktion in Gang setzt, in dem am Ende die Akteure die Lücken und Poren der Fremdkontrolle durch Techniken der Selbstkontrolle stopfen. Dabei generieren der Staat und vor allem die privaten Vermessungsunternehmen permanent in Zahlen transformierte Anreizsysteme, um die Leistungs- und Aussagebereitschaft der Akteure weiter zu verstärken, wobei ganz geschmeidige algorithmische Schattentexte, die für die Nutzer nicht einsehbar sind, die Anpassungsprozesse begleiten, ja dirigieren.

Algorithmische Governance

Allseits bekannte Sachverhalte wie Satellitenüberwachung, enorme Rechnerkapazitäten auf Silizium Chips, Sensoren, Netzwerke und Predictive-Analytics sind heute Bestandteile der globalen digitalen Systeme, die das Leben und Verhalten der Bevölkerungen gegenwärtig umfassend quantifizieren, analysieren, bewerten und kapitalisieren. Dabei sieht sich beispielsweise Google unter dem Druck der Finanzmärkte gezwungen, die Effektivität seines Data-Trackings und seiner durch Maschinenintelligenz erzeugten Analysen ständig zu erhöhen und gerade deswegen jeden Anspruch der Nutzer auf den Schutz der eigenen Privatsphäre mit den vielfältigsten Mitteln zu bekämpfen. Dank einer Reihe von Geräten wie Laptops und Smartphones, Kameras und Sensoren sind heute Computer im kapitalisierten Alltag allgegenwärtig, es sind Zeichen lesende Maschinen, die Algorithmen (unbedingt berechenbare, formal-eindeutige Verfahrensanweisungen) ausführen und ihre volle Kraft erst im Kontext digitaler Medien der Vernetzung entfalten, wofür die programmgesteuerte Gestaltung, Transformation und Reproduktion sämtlicher Medienformate Voraussetzung ist. Insbesondere die sozialen Netzwerke ermöglichen in diesem Spiel eine Art von Ökonomie, die aufgrund die Extraktion von persönlichen Daten, die zur Konstruktion von Metadaten, Cookies, Tags und anderen Tracking-Technologien führt, eine eigenartig neue algorithmische Governance etabliert hat. Diese Entwicklung ist vor allem als »Big Data« bekannt geworden, ein System, das auf Vernetzung, Datenbanken und hohen Computerleistungen und -kapazitäten aufbaut.

Die darin involvierten Prozesse sind laut Bernard Stiegler solche der »Grammatization«. Im digitalen Stadium führen diese dazu, dass die Individuen durch eine Welt geführt werden, in der ihr Verhalten grammatikalisiert ist, wenn sie mit Computersystemen interagieren, die in Real Time operieren. Die Grammatization beginnt für Stiegler allerdings schon mit den Höhlenmalereien und führt über die Medien Keilschrift, Fotografie, Film und Fernsehen schließlich zum Computer, zum Internet und zum Smartphone. Ergebnis all dessen ist, dass die Datenpfade und -spuren, die mit den heutigen Technologien der Computerisierung erzeugt werden, ternäre aufmerksamkeitsreduzierende Retentionen bzw. Mnemotechniken konstituieren, die spezifische Zeitverfahren und Individuationsprozesse inkludieren, das heißt «Industrialisierungsprozesse des Gedächtnisses« bzw. eine »politische und industrielle Ökonomie, die auf der industriellen Ausbeutung von Bewusstseinszeiten beruht«. Mit der Digitalisierung der Datenwege und -prozesse, die heute mittels Sensoren, Interfaces und anderen Mitteln aufdringlich dringlich funktionieren und grundsätzlich als binäre Zahlen und kalkulierbare Daten generiert werden, wird Stiegler zufolge ein automatisierter Gesellschaftskörper geschaffen, in dem selbst noch das Leben in einen Agenten der hyper-industriellen Ökonomie des Kapitals transformiert wird. Deleuze hat diese Entwicklung in seinem berühmten Essay zu den Kontrollgesellschaften schon vorausgesehen, aber zur vollen Tragkraft kommen die Kontrollformen erst, wenn die digitale Kalkulation die von Deleuze festgestellten Modulationen der Kontrolltechniken in eine algorithmische Governance integriert, die zudem die Automatisierung sämtlicher Existenzen, Lebensweisen und Kognitionen inkludiert.

Eines der zentralen Dilemmata des Postfordismus besteht darin, Konformität, Konsens und Kooperation herzustellen, ohne disziplinarische Techniken der Macht einzusetzen, welche die Kreativität und die affektiven Werte zu stark beschädigen. Die Grenzen des Ökonomischen scheinen zu verschwimmen, aber es muss dennoch eine ökonomische Rationalität geben, wenn Unternehmen im Wettbewerb überleben wollen. Postfordistische Kontrollgesellschaften werden nicht länger explizit durch Strategien dominiert, vielmehr besteht das Ideal der Kontrolle darin, die Macht in die Taktiken einwandern zu lassen, um kontingente und emergente Rhythmen des Alltagslebens zu penetrieren, und dies im Sinne einer Kooperation mit den Zielen des Managements.

Die dem Internet zugrunde liegenden Machttechnologien der Protokolle sind a-normativ, da sie selten breit in der Öffentlichkeit debattiert werden, vielmehr scheinen sie der algorithmischen Governance immanent zu sein. Zur Debatte steht nun: Erzeugen Daten digitale Protokolle oder digitale Protokolle Daten? Oder noch enger: Sind Daten digitale Protokolle? Auf jeden Fall hat die Setzung der Daten strukturierenden Charakter, und nicht erst die Resultate der maschinellen Datenbearbeitung. Wie jede Governance, wenn wir sie im Sinne von Foucault denken, implementiert auch die algorithmische Governance spezifische Technologien der Macht, die heute aber nicht mehr auf einer Statistik basieren, die sich auf den Durchschnitt oder die Norm bezieht, stattdessen haben wir es mit einer automatisierten, einer atomaren, pulsierenden und auf Wahrscheinlichkeit beruhenden Maschinenintelligenz zu tun, die die Spurensicherung und das Datamining unabhängig vom Medium betreibt – ein automatisches Computing sammelt, erfasst und mobilisiert in rasender Geschwindigkeit, nahe der des Lichts, mit den Methoden der künstlichen Maschinenintelligenz Daten über das Verhalten der Marktteilnehmer, die mittels der Extraktion ihrer Daten durch Überwachungskonzerne kontrolliert werden und deren Verhalten kapitalisiert wird.6 Die kontinuierlich Daten sammelnden und Datenspuren lesenden und auswertenden digitalen Maschinen mobilisieren also eine a-normative und eine a-politische Rationalität, die auf der automatischen Analyse und der monetären Valorisierung von enormen Datenmengen besteht, und zwar indem die Verhaltensweisen der Agenten modelliert, antizipiert und damit beeinflusst werden. Man nennt dies heute verharmlosend ubiquitäres Computing, bei dem, und darauf ist immer wieder hinzuweisen, das Überwachungskapital die Extraktion des Verhaltens der Nutzer und die Herstellung der darauf aufbauenden Vorhersageprodukte, die durch die Algorithmen des Überwachungskapitals entstehen, längst nicht mehr nur im Internet, sondern in der realen Welt betreibt, um dann die Vorhersageprodukte durch spezielle Verfahren ständig zu diversifizieren und tiefer zu legen. Alles, ob belebt oder unbelebt, lässt sich nun verdaten, verbinden, zählen und berechnen. Und so fließen aus den Automobilen, Kühlschränken, Häusern und Körpern etc. ständig Signale als Daten in die digitalen Netze, die an solche Werbekunden verkauft werden, die zielgenaue Werbung betreiben. (Zuboff 2018: 225).

Um es genauer zu sagen: Das Kapital der Unternehmen Google oder Facebook automatisiert das Kaufverhalten der Konsumenten, kanalisiert es mittels der berühmten Feedback-Loops von KI-Maschinen und bindet es zielgerichtet an Unternehmen, die wiederum Werbekunden des Überwachungskapitals sind. Die verkaufsfördernden Verhaltensmodifikationen, die bei den Nutzern erzielt werden sollen, beruhen auf maschinellen Prozessen und Techniken wie dem tuning (Adaption an ein System), herding (Zurichtung der Masse) und der Konditionierung (das Trainieren von Reiz-Reaktionsmustern), die das Verhalten der Nutzer derart lenken, dass die maschinell konstruierten Vorhersageprodukte deren Verhalten tatsächlich in Richtung der von Google oder Facebook garantierten Intentionen treiben. (Ebd.) Die maximale Vorhersagbarkeit des Verhaltens der Nutzer ist nun eine genuine Profitquelle: Der Konsument, der eine Fitness-App benutzt, soll am besten im Augenblick maximaler Empfänglichkeit, beispielsweise nach dem Jogging, ein gesundes Getränkeprodukt kaufen, das ihm durch zielgerichtete Werbung schmackhaft gemacht wird. So hat der Sportartikelhersteller Nike die Datenanalyse-Firma Zodiac gekauft und nutzt sie in seinen Filialen in New York. Betritt ein Kunde mit Nike-App auf dem Smartphone eine Filiale, so wird er von der Geofencing-Software erkannt und kategorisiert. Sofort verändert sich auch die Startseite der App und anstelle von Online-Angeboten erscheinen auf dem Bildschirm die Neuheiten im Shop, das heißt auf den Kunden zugeschnittene Sonderangebote und Empfehlungen. Besonders treue Kunden erhalten im Shop kleine Geschenke und können sich die gewünschten Waren sogar per Smartphone in die Umkleidekabine liefern lassen.

Es geht beim Überwachungskapital längst nicht mehr nur um den Verkauf von Werbung, vielmehr wurde es sehr schnell das Modell für die Kapitalakkumulation in Silicon Valley, das bis heute von nahezu jedem Start-up Unternehmen übernommen wird. Aber das Modell ist nicht nur auf einzelne Unternehmen oder den Internetsektor beschränkt, sondern hat sich auf eine große Anzahl von Produkten und Serviceleistungen über den ganzen ökonomischen Sektor verteilt, eingeschlossen Versicherungen, Gesundheitsvorsorge, Finanzen, Kulturindustrie, Transportwesen etc. Nahezu jedes Produkt oder jede Dienstleistung, die mit dem Wort »smart« oder »personalisiert« beginnt, jedes internetanschlussfähige Gerät, jeder »digitale Assistent« stellt in der Angebotskette der Unternehmen ein Interface für den unsichtbaren Fluss von Verhaltensdaten auf dem Weg zur Vorhersage der Zukunft in einer Überwachungsökonomie dar.

In der Rolle des Investors gab Google schnell die erklärte Antipathie gegen die Werbung auf, stattdessen entschied man sich die Gewinne zu erhöhen, indem man den exklusiven Zugang zu dem Datenabfall der User in Kombination mit analytischen Kapazitäten und Computerpower nutzte, um Vorhersagen über die Klickraten der User, die als Signal für die Relevanz einer Werbung gesehen werden, zu generieren. Operational bedeutete dies, dass Google seinen wachsenden Datenbestand umfunktionierte, um ihn als Verhaltensdatenüberschuss »arbeiten« zu lassen und gleichzeitige neue Methoden zu entwickeln, die aggressiv nach Quellen der Surplusproduktion suchen. Dieser Datenüberschuss wurde also die Basis für neue Vorhersagen, die »targeted advertising« genant wurden.

Die Überwachungskapitalisten setzten sich zuerst durch Aussagen in Szene, in denen man die privaten »Erfahrungen« der Nutzer als etwas betrachtete, dass man sich einfach nehmen kann, um dann konsequent die »Erfahrungen« in Daten zu übersetzen und diese als Privateigentum anzueignen und für den privaten Wissensgewinn auszunutzen. Google erklärte einfach, dass das Internet lediglich eine Ressource für ihre Suchmaschine ist, und fügte hinzu, dass die privaten Erfahrungen der User den Gewinnen der Firma dienen. Der nächste Schritt sah vor, dass die Surplusoperationen über das Online-Milieu hinaus in die reale Welt vordringen sollten, wo Daten über das persönliche Verhalten als frei gelten, um einfach von Google gestohlen zu werden. Und das Überwachungskapital bedarf der Bevölkerung nicht mehr in ihrer Funktion als Konsumenten, sondern Angebot und die Nachfrage orientieren die Überwachungsfirmen an Geschäften, die auf die Antizipation des Verhaltens der Bevölkerungen, Gruppen und Individuen ausgerichtet sind.

Shoshana Zuboff beschreibt Daten, die von allen möglichen humanen Aktivitäten als verhaltensorientierter Surplus gextrahiert werden, als einen Angriff auf die Erfahrung selbst. Aber welche Erfahrungen denn? Die erfolgreiche Werbung nimmt heute ständig Qualitäten der realen Erfahrung auf. Dies können Konzerte, Multi-Media Events, Spiele und VR-Applications sein. Von 3D bis zu VR, das Ziel besteht darin, jede Barriere zwischen Person und Erfahrung zu eliminieren. Diese dann durch keine Medien mehr gestörten Erfahrungen wird in das übersetzt, was Bernard Stiegler als Konditionierung bezeichnet. Die Ästhetik ist nun Theater und Waffe zugleich. Und all dies resultiert in einer Misere, in der die Konditionierung die Erfahrung substituiert.

Es genügt nicht länger, die Informationsströme, welche die Bevölkerung ausleuchten, zu automatisieren, vielmehr besteht das Ziel nun darin, auch noch das zukünftige Verhalten der Bevölkerung selber zu automatisieren. Diese Prozesse werden ständig neu designt, um jede Möglichkeit zur Selbstbestimmung der User zu eliminieren, was nicht unerheblich für die Kapitalmärkte ist, wenn die Vorhersagen über das Verhalten von Bevölkerungen nicht nur wahrscheinlich sind, sondern sich der Gewissheit annähern, dass das gewünschte Verhalten auch eintritt. Im Konkurrenzkampf um die effizientesten Vorhersageprodukte haben die Überwachungskapitalisten schnell gelernt: Je mehr Verhaltenssurplus man sich aneignet, desto besser treffen die Vorhersagen ein, und je mehr der Überschuss variiert werden kann, desto höher ist der Vorhersagewert. Dieser neue Drive der Ökonomie führt von den Desktops über die Smartphones in die reale Welt - man fährt, läuft, shoppt, sucht einen Parkplatz, das Blut zirkuliert und man zeigt sein Gesicht - alles soll aufgezeichnet, lokalisiert und vermarktet werden.

Zuboff schreibt, dass die Überwachungskapitalisten das Recht zu wissen, zu entscheiden, wer weiß und zu entscheiden, wer entscheidet, ganz allein für sich einfordern. Sie dominieren die Automatisierung des Wissens und seine spezifische Arbeitsteilung. Zuboff schreibt weiter, dass man das Überwachungskapital nicht ohne das Digitale begreifen könne, wobei das Digitale aber auch auch ohne das Überwachungskapital bestehen könne: Das Überwachungskapital sei keine reine Technologie, vielmehr könnten digitale Technologien vielfältige Formen annehmen. Das Überwachungskapital basiere zwar auf Algorithmen und Sensoren, künstlichen Maschinen und Plattformen, aber es sei eben nicht dasselbe wie diese Komponenten.

Die Grenze für billige Daten liegt in der Überlagerung, die über andere Sphären des Lebens gelegt wird, um deren Kräfte abzuziehen. Insoweit können auch Ressourcen von den Leuten und der Natur extrahiert werden, die durch das Kapital schon verbilligt wurden. An diesen Grenzen wird industrielle Arbeitskraft, wie etwa solche, die in den Centern bei Amazon arbeitet, getrackt und beobachtet, und stellt so doppelte Zeit für das Unternehmen zur Verfügung, das zum einen von der Arbeit profitiert, während es zum anderen Daten über die Bewegung der Körper im Raum akkumuliert. Freunde und Familien bieten gegenseitig den notwendigen, aber unbezahlten Support (billige Care) auf den digitalen Plattformen wie Facebook an, um die soziale Kohäsion beizubehalten und die Arbeitskräfte zu reproduzieren, während sie gleichzeitige Massen von verwertbaren Daten für die Eigentümer der Plattformen produzieren. Dieser magische Trick, mit dem Daten als ein Nebenprodukt verschiedener Arten von billiger Arbeit gesammelt werden, ist ein großer Coup für das Kapital und eine weitere Möglichkeit für die Extraktion jeden menschlichen Restes. Wie Moore sagt, erlauben die neuen Billigen (Arbeitskraft hier) neue Strategien, um Krisen zu überleben, denn die Überlagerung von billigen Daten hilft die Krise der stagnierenden Produktivität und des Wachstums zu lösen, und zwar durch das Erfassen aller Arten existierender Arbeiten als Service für Daten produzierende Maschinen.

Der Anstieg von billigen Daten bezieht sich nicht nur auf die Daten, die aus den menschlichen Abläufen gezogen werden. Während Google und Facebook daran arbeiten, die Klicks und Verhaltensweisen zu manipulieren, werden Daten von der Bewegung der Maschinen über das Wachstum von Pflanzen bis hin zu der Bewegung der Zinsraten gesammelt. Diese Daten werden in verschiedenen Weisen benutzt, um Maschinen lernende Systeme zu trainieren, die die Manipulation von Bevölkerungen oder die Kreation neuer Märkte leisten, Daten, welche die Welt jenseits des Lebens gestalten. Wenn Zuboff das menschliche Verhalten als den Bereich der Extraktion und der Kontrolle verabsolutiert, dann beschränkt sie ihre Argumente auf eine Kritik der Überwachung und lässt damit das Kapital und die Arbeit weitgehend nicht untersucht.

Den Verhaltensüberschuss Modell und die Metaphern, die sich um das ranken, was die Daten als fließend, kaskadierend und überlaufend beschreibt, ignorieren die Art und Weisen, mit der die Produktion von billigen Daten oft genug noch konzentrierte und und ermüdende Arbeit zugleich benötigt. Wenn wir tausende Bilder von unseren Gesichtern freiwillig uploaden, die dann von den Eigentümern der Plattformen benutzt werden, dann brauchen diese Bilder oft genug ein zusätzliches tagging oder eine Kategorisierung, um für kommerzielle Zwecke brauchbar zu sein, denn die Bilder beschreiben sich nicht selbst. Hier kommt billige Arbeit ins Bild,

Die digitale Akkordarbeit von Arbeitern wie die, die bei Amazon’s Mechanical Turk angestellt sind, ist essenziell, um billige Datensammlungen herzustellen, die viele AI Systeme und Forschungsprojekte benötigen. ImageNet, die wichtigste Datenbank von Bildern, bei der visual object recognition software development benutzt wird, basiert auf der Arbeit der MTurk Arbeiter, die Tag für Tag Millionen Bilder sortieren und taggen, um sie zu einem Datenset zusammenzuführen, das von der militärischen Forschung über Unternehmen wie IBM, Alibaba, and Sensetime benutzt wird, wobei letztere damit die Technologie zur Verfügung stellen, die die chinesische Regierung benutzt, um beispielsweise die minoritäre Bevölkerung der Uighur zu kontrollieren. Neue Untersuchungen haben den Stress und Horror von Arbeitern, die in digitalen Fabriken beschäftigt sind, hervorgehoben, wenn sie beispielsweise Bilder von den Verbrechen der ISIS aussortieren oder tagelang große soziale Plattformen nach hate speech und Gewaltvideos scannen. Wie alle billigen Dinge beruhen billige Daten auf massiven Externalitäten, um nach Möglichkeit das Risiko zu schmälern oder es auf andere Leute und Naturen abzuwälzen, während die Profite in die entgegengesetzte Richtung fließen.

Die Beschädigung von Arbeitern ist nur eine der Externalitäten, die mit der Jagd nach billigen Daten entstehen. Die billige Energie, die für das Trainieren von AI Modellen und den massiven Transfer von großen Datenmengen zur und von der Cloud benötigt wird, ist weniger sichtbar als die ausgebeuteten Arbeiter, aber die kumulativen Effekte sind enorm. Untersuchungen schätzen, dass die Energie, die gebraucht wird, um eine einziges AI Modell zu trainieren den fünffachen CO2 Ausstoß hat wie die Abgaben eines durchschnittlichen Autos während dessen Lebenszeit. Die Hardware, die benötigt wird, um all diese Modelle zu handhaben und die Daten zu sammeln benötigt hohe Menge von wertvollen Metallen und neuer Plastik. Billige Natur wird benötigt, wenn sie von billiger Arbeit extrahiert wird, um die fiber optic cables und Computer herzustellen, die Daten sammeln und verbinden.

Was passiert wenn billige Daten mit der Zeit teurer werden? Wenn beispielsweise die Löhne für prekäre Arbeiter in der Datenverarbeitung steigen oder verstärkte Kontrollen der Privatheit stattfinden, sodass der Verhaltensüberschuss schwieriger herzustellen ist? Es ist dann davon auszugehen, dass die Extraktion von Daten neue billigere Bereiche und Grenzen benötigt. Dieser Prozess hat mit dem offshoring digitaler Fließbandarbeit schon begonnen, wenn die großen Techfirmen sich im globalen Süden verbreiten, um neue Märkte zu kreieren und Daten von neuen Bevölkerungssegmenten zu extrahieren.

Ein Unternehmen wie Google muss schon bei der Sammlung von Daten, die das Verhalten der Nutzer spiegeln und die zudem dem Tracken von Verhaltensüberschüssen (die Datenabgase bei Google) dienen, bestimmte Dimensionen der Größen- und Diversifikationsressourcen erlangen, um die Daten mittels seiner Maschinenintelligenzen effektiv in Vorhersageprodukte des Nutzerverhaltens umwandeln und zielgerichtet an Werbekunden verkaufen zu können, Die Produkte gehen wie »Wärmesuchraketen« (Zuboff) auf den Nutzer los, um ihm beispielsweise bei einem Puls von 78 genau das richtige Fitnessprodukt via eingeblendeter Werbung vorzuschlagen. So muss man mit steigender Diversifikation zum einen eine breite Auffächerung von überwachbaren Themen in der virtuellen Welt erzielen, zum anderen müssen die Extraktionsoperationen aus dem Netz in die reale Welt verlagert werden. Darüber hinaus müssen die algorithmischen Operationen an Tiefe gewinnen, das heißt, sie müssen auf die Intimität der Nutzer zielen, um steuernd und formierend in deren Verhalten einzugreifen, indem die Unternehmen beispielsweise zeit- und zielgerecht Pay-Buttons auf dem Smartphone einblenden oder einen Wagen automatisch sperren, wenn der Betroffene bestimmte Versicherungsbeträge nicht rechtzeitig bezahlt hat.

Bei einer Suchanfrage zählen Faktoren wie Suchbegriffe, Verweildauer, die Formulierung der Anfrage, Buchstaben und Interpunktion zu den Anhaltspunkten, mit denen man das Verhalten der Nutzer ausspioniert, und so sind selbst noch diese sogenannten Datenabgase valorisierbar, wenn eben dieser Verhaltensüberschuss des Users für zielgerichtete Werbung eingesetzt werden kann, wobei Google den durch algorithmische Wahrscheinlichkeit eruierten meist bezahlenden Werbekunden auch die besten Werbeplätze zuweist, deren Preise sich aus dem Preis pro Klick multipliziert mit der Wahrscheinlichkeit, mit der die Werbung tatsächlich dann auch angeklickt wird, errechnen. In diesen Verfahren findet man letztendlich auch heraus, was ein bestimmtes Individuum an einem bestimmten Ort und zu einem bestimmten Zeitpunkt denkt. Singularität indeed. Jeder Klick auf ein bei Google geschaltetes Werbebanner ist ein Signal für dessen Relevanz und gilt damit als ein Maß für erfolgreiches Targeting (Zuboff) . Dabei ist derzeit bei Google ein Anstieg der bezahlten Klicks und zugleich ein Fall der durchschnittlichen Kosten per Click zu registrieren, was einer Steigerung der Produktivität gleich kommt, da eben das Volumen des Outputs bei gleichzeitigem Fall der Kosten gestiegen ist.

Der Daten-Fundus, aus dem die Analytiker des Überwachungskapitals mittlerweile schöpfen können, geht ins Unendliche. Die Überwachungskapitalisten wissen genau, wer wie oft bei Unternehmen reklamiert, bei Hotlines anruft oder in Online-Portalen über ein Unternehmen herzieht. Sie kennen die Lieblingsgeschäfte, die Lieblingsrestaurants und -kneipen vieler Verbraucher, die Zahl ihrer »Freunde« bei Facebook, den Urheber von Anzeigen, die Social-Media-Nutzer angeklickt haben. Sie kennen die Hautfarbe, das Geschlecht, die finanzielle Lage eines Menschen, seine körperlichen Erkrankungen und seelischen Beschwerden. Sie wissen über das Alter, den Beruf, die Zahl der Kinder, die Wohngegend, die Größe der Wohnung Bescheid - schließlich ist es etwa für ein Unternehmen, das Matratzen herstellt, durchaus interessant zu erfahren, ob ein Kunde Single ist oder im Fall der Fälle wohl gleich fünf Schaumstoffmatten für die gesamte Familie ordern sollte.

Heute ist die therapeutische Gruppe in Facebook materialisiert, in ihren unsichtbaren Algorithmen und hat zugleich eine weitgehend imaginäre Gruppensucht unvorstellbaren Ausmaßes erreicht. Und hier liegt die Theorie der Simulation falsch, denn es ist nichts Falsches an den digitalen Netzwerken, sie sind ganz real und erzeugen für diejenigen, die an die Netzwerke angeschlossen sind, eine unruhige Stabilität, indem die Dinge einfach expandieren, mehr Anfragen, mehr Freunde and so on. Herbert Marcuse schrieb einst, dass es eines der kühnsten Vorhaben des Nationalsozialismus gewesen sei, den Kampf gegen die Tabuisierung des Privaten zu führen. Und gerade die Privatheit ist heute so befreit von jedweder Kuriosität oder jedwedem Geheimnis, dass man ohne jede Bedenken oder geradezu begierig alles auf seine Timewall schreibt, sodass jeder es lesen kann. Wir sind so froh, wenn ein Freund irgendetwas kommentiert. Und man ist andauernd damit beschäftigt, all die Daten-Feeds und Updates zu managen, zumindest muss man ein bisschen Zeit von seinen täglichen Routinen abzweigen. Der Geschmack, die Präferenzen und die Meinungen bekommen einen Preis, den man gerne zahlt.

Neu sind nicht nur die technologischen Machtstrukturen (Protokolle und Algorithmen; das Netzwerk ist die Message), sondern ein Akkumulationsmodell, das sich digitaler Mittel bedient, um alle möglichen Daten, die das Verhalten der Nutzer spiegeln, einzusammeln und daraus deren Verhaltensüberschuss zu extrahieren, sodass künftiges Verhalten möglichst exakt vorhergesagt und zielgerichteter Werbung zugeführt werden kann, wobei Verbesserungen in der Vorhersage wie auf Abruf die Klickraten auf den Werbebannern steigern. Die Verhaltensüberschüsse entstehen auch daraus, dass mehr Verhaltensdaten als notwendig gerendert werden, um diese in künstlichen Maschinen (Ranking, statistische Modellierung, Vorhersage, Spracherkennung und visuelle Transformation) einzuspeisen, die dann Vorhersagen über Nutzerverhalten produzieren, Quasi-Derivate, welche das Überwachungskapital auf den Verhaltensterminkontraktmärkten an meistbietende Unternehmen verkauft. Google führt an diesen Märkten Auktionen durch, bei denen in enormer Anzahl »Derivate von Verhaltensüberschuss« (Zuboff 105) versteigert werden. Es lässt sich folgern, dass die algorithmischen Operationen mit Daten profitable Produkte, die alle auf die Vorhersage und Monetarisierung des zukünftigen Verhaltens der Nutzer abzielen, für ganz bestimmte Unternehmen generieren: Die wichtigen Kunden von Google sind diejenigen, die Werbung benötigen und bei Google dafür für zahlen, dass sie ein effektives Angebot von Vorhersageprodukten erhalten, die wiederum auf der umfassenden Überwachung der User beruhen. Diese Produkte beruhen also darauf, dass Google genauestens zu prognostizieren versucht, was die User im Jetzt und in der nahen Zukunft tun, denken und fühlen (Zuboff 2018: 119), womit auch das Risiko für die Werbekunden eingeschränkt werden soll, sodass relativ sichere Wetten auf zukünftiges Verhalten abgeschlossen werden können. Allerdings sind die Adressaten an den Märkten, an denen Google Vorhersageprodukte verkauft, nicht ausschließlich Werbekunden, sondern es sind im Endeffekt alle, die ein Interesse am Ankauf »probabilistischer Informationen« ( ebd.: 120) haben, also zum Beispiel auch Staaten, vor allem ihre Nachrichtendienste, die deshalb ein enges Verhältnis zu den Unternehmen im Silicon Valley pflegen.

Dabei sind die Vorhersagemaschinen eine Art Black Box, deren innere Abläufe wahrzunehmen, die menschlichen Kapazitäten der Perzeption weit übersteigt. Zuboff spricht an dieser Stelle von einem Schattentext, in dem die Maschinen die relevanten Handlungsanweisungen vorgeben, die meistens auf die Beeinflussung des Konsums der Nutzer abzielen. So gehen beispielsweise in die algorithmisierte Auswahl der Bilder, die Instagram einem Nutzer zeigt, Ströme der Verhaltensdaten dieses Nutzers, die Daten seiner Freunde, Daten von Leuten, die demselben Account wie der Nutzer folgen, sowie Daten und Links seiner Aktivitäten auf Facebook ein. (ebd.: 555). Es gibt eine Vielzahl von Daten und Operationen, welche selbst die Programmierer der Maschinen nicht mehr durchblicken. Facebook kann mit der Abfrage der Likes ein umfassendes Spektrum der persönlichen Verhaltensweisen eines Users erfassen, das den Sex, die politischen Ansichten, das Konsumverhalten, Intelligenzleistungen etc. betrifft. So gesehen setzt das Like-Belohnungssystem im richtigen Timing die notwendigen Dopamin-Spritzen, um die Aktivitäten der User andauernd anzuspornen, weitere Datenströme zu produzieren. Ein Post, der keine Likes erhält, bedeutet für den User den sozialen Tod.

Die neuen automatischen Systeme modellieren das Soziale in Realtime, kontextualisieren und personalisieren die sozialen Interaktionen, sei es nun im Gesundheitswesen, im Business oder in der Administration. Wir sollten mit den französischen Autoren Rouvray und Berns hinzufügen, dass die neu algorithmische Governance zudem Technologien mit territorialen und räumlichen Dimensionen umfasst, welche beispielsweise in den Programmen der »Smart und Sensored Cities« Anwendung finden. Mit Googles Street View macht Google aus dem öffentlichen Raum einen unpersönlichen Raum des Spektakels, verwandelt ihn in eine lebende Tourismusbroschüre, einzig und allein mit dem Ziel der Überwachung und der Extraktion der Daten von Nutzern (ebd.:169), sodass letztendlich sogar von einer Enteignung der Wege und des Raums gesprochen werden kann (die in der flegelhaft einschmeichelnden Sprache des »Smart« zudem noch daher kommt), gerade indem es Google über die Exploitation der Online-Datenquellen hinaus gelingt, das Monitoring der realen Welt immer umfassender flächendeckend vorzunehmen, wenn die Leute eben entlang bestimmter Wege permanent getrackt und über Verhaltensmodifikationsmaschinen gleichzeitig noch zu bestimmten Zielorten gesteuert werden. Diese smarten Instrumente basieren auf »automatic computing« und »ambient computing, das heißt auf Technologien, deren Unsichtbarkeit die Dividuen noch aktiver und effizienter macht, weil sich diese Technologien unbemerkt und zugleich doch anspornend und das Verhalten verstärkend in die Fabrik des Lebens einweben, bis sie von dieser ununterscheidbar sind. Die algorithmische Governance fokussiert ganz auf Relationen, auf Relationen von Relationen, die wiederum auf Korrelationen reduziert werden, denn die Modelle der Künstlichen Neuronalen Netze ermitteln insbesondere Korrelationen und Muster, niemals aber Ursachen oder die Erklärung von Kausalitäten; sie dienen der Klassifizierung, der Bündelung und der Optimierung des Verhaltens, sind aber vom Verstehen weit entfernt.

Es geht also um die aktive Intervention und die Ausformung von Verhaltensweisen der Nutzer in der Zukunft. Und je mehr Datenspuren sie hinterlassen, oder, um es anders zu sagen, je mehr Daten durch die Methoden der Diversifikation und zudem durch eine Tiefe, die weit ins Innere des Nutzers reicht, extrahiert werden, desto präziser können die selbstlernenden algorithmische Maschinen (Stimmsuche, neurale Netzwerke, Feedback etc.) prozessieren, um nicht nur die richtigen Kaufentscheidungen für die Nutzer im Voraus zu treffen, sondern auch ihre Retentionen und Protentionen sanft zu massieren, sie letztendlich aber knallhart zu konditionieren, und das heißt, dass die optimierte Autonomie, die das Überwachungskapital dem Kunden verspricht, eine Pseudo-Autonomie ist, denn sie dient nur als ein mageres Versprechen, weil letztendlich unwidersprochen die gewinnbringenden Vorhersageprodukte automatisiert hergestellt und vertrieben werden.

Die Soziologen Rouvroy und Bern zeigen in ihrem Essay zur algorithmischen Governance, dass die Größe, die Geschwindigkeit und die Performativität der Algorithmen - Elemente, die sich auf die relationale Datenbearbeitung beziehen - die Kapazitäten humaner Entscheidung weit übersteigen. Sie beschreiben diese Governance als »a certain type of (a)normative or (a)political rationality founded on the automated collection, aggregation and analysis of big data so as to model, anticipate and pre-emptively affect possible behaviours.« Google kann mühelos voraussagen, dass jemand vermutlich in Kürze einen Anzug kaufen will, und wenn dieser jemand sich in der Nähe eines Schaufensters befindet, hinter dem Anzüge ausgestellt sind, dann ploppt auf dem Handy pflegegerecht eine Werbeanzeige auf, die den Kauf eines ausgestellten Anzugs anempfehlt. Das Leben selbst wird immersiv in die Datenproduktion eingebunden, in eine pulsierende Glut von Informationen, aber darüber hinaus sind wir selbst Daten geworden, die in Relation zu Maschinen stehen, die unser Leben einfangen, vereinnahmen und prozessieren, als ob wir selbst Teile seien, die moduliert und für Maschinenintelligenzen bereitgehalten werden. All dies man muss nicht mehr ausdrücklich betonen, denn es ist Teil des Habitus, durch den die Subjekte selbst maschinisiert werden, wenn sie streamen, updaten, einfangen, teilen, verlinken, verifizieren, mappen, sichern, trollen und Trash produzieren, selbst wenn es die höchste Langeweile hervorbringt.

Die Investitionen, die das Dividuum betreffen, erstrecken sich heute bis in die genetische Manipulation hinein. Neurotransmitter, Organe, biologische Komponenten und somatische Identitäten sind zum Tausch freigegeben. Es artet in eine umfängliche Begeisterung für die Freiheit aus, wenn der Körper andauernd in Bezug auf das Monetäre filetiert wird. Selbst noch der Körper mutiert also zur gewinnbringenden Firma, man denke an Implantate, Transplantationen und chirurgische Eingriffe, und man tätigt mit ihm Verkäufe, seien es Organe, Blut oder Keimzellen. Gerade dies führt zur Asomatognosie, einem Nichtwissen um den eigenen Körper. Der Begriff bezeichnet den Verlust der Wahrnehmung oder des Gefühls der Zugehörigkeit eigener Teile. »Self-Tracking« – die Extraktion, Sammlung, Zählung und Auswertung von Daten über alle nur denkbaren Merkmale und Funktionen des eigenen Körpers durch unterschiedliche Apps und Verfahren – beschreibt eine neuartige Form der Optimierung des eigenen Selbst. Solche Apps und Technologien können alle möglichen Daten automatisch aufzeichnen, katalogisieren und danach grafisch darstellen. Jede versäumte Joggingrunde, jede überzählige Kalorie, jede verträumte Minute Arbeitszeit wird unmittelbar registriert und angemahnt, um nicht vor sich selbst in den Verdacht zu geraten, nicht das Maximum aus dem Körper herauszuholen.

Virgin Pulse ist ein Produkt für den smarten Arbeitsplatz, das verspricht, eine Technologie für das Auffüllen des modernen Arbeiters mit Energie bereitzustellen. Es ist eine App, die den Beschäftigten erlaubt, das eigene Verhalten in Hinsicht auf Funktionen wie den Schlaf, Aktivität, Glück, Stress und Entspannung zu beobachten, um das Verhalten dahingehend zu verändern, einen gesünderen und glücklicheren Lebensstil zu pflegen. Es handelt sich um eine tragbare Technologie, die in manchen Unternehmen mit personenbezogenen Verbesserungsvorschlägen für jeden Beschäftigten ausgestattet ist, indem »gamification« Techniken mit spezifischer Zielsetzung eingesetzt werden, die zudem noch den Wettbewerb mit anderen Beschäftigten anheizen. Die Pläne stellen nämlich ein Wohlfühl-Data Dashboard her, in das die Manager des Unternehmens Einblick haben. Virgin Pulse stellt aber noch etwas aus, was bisher wenig beachtet wurde, nämlich die Empathie für den Puls im Sinne der Signifikation des konstanten 24/7 Streams von Daten, den das Programm generiert und analysiert, das heißt der Puls einer Organisation, der die Beobachtung vitaler Zeichen erlaubt: Bewegungen, Rhythmen, Patterns, Höhe- und Tiefpunkte. Diese sollten emergent und selbstregierend sein, sodass das Messen und die Disziplin gegenüber der Quantifizierung in den Hintergrund geraten. Indem man das Verhalten trackt, quantifiziert und repräsentiert, verändert diese tragbare Technologie die repetitiven und ordinären Tagesroutinen. Die Signifikanz des Puls und seine Beobachtung ist eher prä-kognitiv als kognitiv und normativ einzustufen und führt zur unbewussten Adaption an das jeweilige Environment.

Gleichzeitig kommt es aber auch zu drei Formen des Vergleichs: Zuerst der Vergleich mit sich selbst, als Fort- oder Rückschritt sichtbar gemacht im Vergleich zu früheren Aktivitäten. Der Vergleich mit (konkreten) Anderen durch den Wettbewerb der Daten. Und der Vergleich mit normierten Durchschnittswerten wie etwa dem Body-Mass-Index. Die Technologien des Self-Trackings ermöglichen es nun erstmalig, den gesamten Körper und seine Organe zu kapitalisieren. Die gesamte Lebensführung wie Essen, Schlaf, Bewegung, Beziehung und Emotionen können nun erforscht und in Zahlen umgesetzt werden – und dies alles in Echtzeit. So werden nicht nur die Schlafqualität oder die körperliche Aktivität aufgezeichnet, sondern es werden auch Langzeit-EKGs durchgeführt, Genome sequenziert, Labor-Scans, Tests auf Herz und Nieren oder zur mentalen Verfassung unternommen. Krankheiten und ihre Entwicklung werden in Realtime analysiert und damit immer genauer vorhersehbar. Es handelt sich um die Quantifizierung des «digital phenotyping», so erscheint jemand, der langsam tippt, als unglücklich und wer sehr schnell auf sein Smartphone einhämmert, befindet sich womöglich in einer manischen Phase.

Alles in allem generiert die algorithmische Governance sowohl ein neues polit-ökonomisches Feld als auch ein neues Regime der Datenbewirtschaftung, das sich durch eine spezifische technologische Performativität auszeichnet, deren wichtigste Punkte wir hier festhalten wollen:

1) Das permanente Einfangen von Daten, siehe Googles Versuch der Digitalisierung von Büchern, die Erfassung persönlicher Daten durch Google Street-View, die Umgehung des Datenschutzes, die Speicherung von Suchdaten, die Übermittlung des Standortes durch das Smartphone, Gesichtserkennung, Körpersensoren, Drohnen, die mit Sensoren ausgestattet sind, und die Generierung von Daten Doubles. Es geht hier um Enteignungsoperationen, denen der Nutzer Tag und Nacht unterworfen ist und damit seiner Erfahrungen, Emotionen und seines Gesichts beraubt wird.

2) Digitale Operationen, die diese Daten verarbeiten. Die maschinelle Bearbeitung dieser Daten beinhaltet die Extraktion und Modifizierung von Verhaltensmerkmalen, die man qua Muster, Clouds und Relationen sortiert und in Rankings integriert, um zudem noch die Korrelationen, die zwischen den Daten der Dividuen bestehen, auszuwerten. Dieses Datamining erscheint als absolut, insofern die Subjekte keine Möglichkeit haben zu intervenieren, sodass von einer total automatisierten Produktion von Protentionen (Erwartungen) gesprochen werden muss, welche die Differenz zwischen performativen und konstativen Verhaltensweisen liquidieren. Die automatisch produzierten Protentionen prozessieren heute in automatisierten und vernetzten KI-Systemen. In diesen Netzwerken gilt keineswegs, dass das Ganze größer als die Summe seiner Teile ist, vielmehr gibt es gar keine Teile mehr, denn das Ganze ist omnipräsent und manifestiert sich »in jedem der in allen Maschinen eingebauten Geräte« (Zuboff 2018: 472). Es handelt sich hier um ein modulares System, innerhalb dessen prinzipiell jede Maschine dieselbe Maschine ist und wie alle anderen Maschinen in derselben Logik operiert, wenn es auch zu Modulationen und Transformationen kommt. Diese künstliche lernenden Maschinen bedürfen wiederum der materiellen Infrastrukturen, oder, um es noch genauer zu sagen, bedürfen der Konfigurationen, die sich aus den Komponenten Hardware, Software, Algorithmen, Sensoren und Konnektivität zusammensetzen – Konfigurationen, die heute alle möglichen Objekte ausstatten und gestalten - Kameras, Chips Nanobots, Fernseher, Drohnen etc. (Ebd.: 156).

Die digitalen Maschinen integrieren die Dividuen in das algorithmisierte Feld, wo sie als autoperformative Effekte der Korrelationen von Daten erscheinen. Und das Feld, in das die automatisierten Aktionen der Dividuen integriert sind, ist nicht in der Gegenwart, sondern in der Zukunft situiert. Gleichzeitig reintegriert die algorithmische Governance durch Methoden der perfekten Adaption, Viralität und Plastizität noch jede Störung und jeden Fehler in das System, um die Modelle und Profile des Verhaltens zu redefinieren. Es scheint, als könne man die Macht des algorithmischen Systems strukturell niemals beunruhigen oder das Unwahrscheinliche nicht stören. Wenn das auch nicht möglich sein wird, zerstört das Überwachungskapital mit dem Einsatz algorithmischer Performativität zumindest die Essenz der Politik.

3) Digitale Doubles (Profile), die ganz das ergreifende Resultat der maschinellen Operationen und Algorithmen sind. Um mit diesen Operationen eine Aktion des Users hervorzukitzeln, müssen dessen digitalem Double lediglich Signale gesendet werden, die beim User wiederum gewünschtes Verhalten, Stimuli und Reflexe provozieren. Das Tragische des Profil-Subjekts besteht darin, dass es, je mehr es durch Einträge die Unverwechselbarkeit seines »Ich selbst« sichtbar machen will, es desto eindringlicher von den algorithmischen Maschinen modelliert wird. Es findet jetzt der K(rampf) um das Permanent- und Performanz-Singularisieren des Profils statt, eine Daueraufgabe, an der das Subjekt letztendlich sang- und klanglos scheitert, weil das modulare Tableau, in das sein Profil eingeschrieben ist, die Vorgaben gibt, wobei die Aktualität dies so instantan ausstellt, dass es einem eigentlich den Atem nehmen müsste. Es könnte noch zehntausend Jahre so weiter gehen. Zudem ist zu beachten, dass der Glamour des Profils nur einer für diejenigen ist, die es auf der ökonomischen Stufenleiter nach oben nicht geschafft haben, denn die wirklich Reichen und Privilegierten bleiben nämlich offline.

Als digitales Double wird nicht nur die Subjektivität, sondern das Subjekt selbst wird durch die Kollektion infra-individueller Daten, die auf supra-individueller Ebene als Profil zusammengesetzt werden, eliminiert. Das Subjekt erscheinst nicht länger. Es kommt immer schon zu spät und kann sich kein Zeugnis über das ablegen, was es ist oder was es in Zukunft tun will, stattdessen verschmelzt es als User mit seinem eigenen Daten-Profil, das in erster Linie eben nicht von ihm, sondern von den Algorithmen automatisch und in Realtime designt wird. Dennoch stellen die User ihre Doubles bzw. ihre Profile irgendwie auch ohne Unterlass aktiv her, als wären sie durch eine unsichtbare Macht getrieben, bleiben aber alles in allem doch die tiefgefrorenen Produkte algorithmisierter Kontrollsysteme, einerseits als Individuen, die eine höchst effektive Nachfrage verkörpern, andererseits als Dividuen, die funktionell in das Generieren der Parameter der Kontrolle involviert sind, um ständig weiter assoziierte Milieus der Kontrolle zu erzeugen. In ihrem FB-Newsfeed bekommen sie dann vor allem jene Posts ihrer »Freunde«´angezeigt, die schon eine hohe Aufmerksamkeit durch die große Anzahl von Aufrufen und Likes auf sich ziehen konnten. Und der User wird scheinbar ganz individuell adressiert, als Singularität, die sich aber als modular erweist, das heißt sich aus diskreten Bestandteilen im Sinne eines Pfad-Trackings zusammensetzt. Konstitutiv für das Überwachungskapital ist das algorithmische Erzeugen von Profilen hinter dem Rücken (die Codes, Algorithmen und Datenbanken, durch die er zusammengesetzt wird, bleiben für den Nutzer unsichtbar und unerreichbar) derer, denen ein für sie maßgeschneidertes Profil zugewiesen wird und die dennoch weiterhin glauben, sie würden das alles aus eigenen und freien Stücken tun, ja die sogar vom Wahn besessen sind, mit den Profilen ihre eigenen Singularitätsansprüche zum Ausdruck zu bringen und sich dabei in narzisstische Erregung versetzen, ohne im geringsten zu ahnen, dass die Art der algorithmischen Behandlung sie schon im voraus definiert und im Remote-Verfahren kontrolliert, wobei die automatisierte Wissensproduktion, die durch lernende digitale Maschinen operationalisiert wird, entgegen aller subjektiven Singularitätsansprüche der in Erregung Versetzten eine nicht zu unterschätzende Objektivität erzeugt. Für den User bleibt es aber bei dem für ihn konstruierten und auf ihn zugeschnittenen Weltausschnitt, der allein für ihn zugänglich ist. Die digitalen Operationen, die das Verhalten betreffen, antizipieren so gerade die individuellen Wünsche und ordnen sie dem Profil zu.

Wunschökonomie und Kontrolle

Nach dem Verlust des Arbeiter-Wissens im 19. Jahrhundert sowie dem Verlust des Wissens vom Leben im 20. Jahrhundert haben wir es im 21.Jahrhundert, wenn wir an dieser Stelle Bernard Stiegler folgen, mit dem Verlust des theoretischen Wissens zu tun, oder, um es genauer zu sagen, es findet eine umfassende Proletarisierung des theoretischen Wissens statt, die eben darauf aufbauen kann, dass die Einschreibung des Arbeiterkörpers in die Maschinerie, wie sie Karl Marx beschrieben hat, zu einer Proletarisierung des Wissens der Arbeiter und damit ihrer Lebensbedingungen geführt hat, während später das Radio und das Fernsehen die Proletarisierung des Wissens vom Leben (der Affekte und der sozialen Relationen,) in Szene gesetzt haben.7 Die Ausbeutung des »seelischen Werts« der Dividuen erreicht heute seinen Peak-Point: Sie betrifft das Denken als solches, seine Konsistenz und damit auch sämtliche Wissenschaften und ihre Modelle und Methoden und darüber hinaus eben auch die Intuition und das Fühlen. Weber, Horkheimer und Adorno haben diese Prozesse der Rationalisierung ausführlich beschrieben, Prozesse, die für sie eindeutig zum Nihilismus führen.

Die Aufmerksamkeit der Subjekte wird heute ganz von der algorithmischen Governance eingefangen, die Stiegler als eine lesende Industrie oder gar als eine entropische Ökonomie der Expression beschreibt, welche die Proletarisierung der Produzenten/Konsumenten intensiviert. Parallel zur Organisation der Konsumtion und der Konstitution der Massenmärkte durch die Kulturindustrie gerinnt die Proletarisierung der Arbeit zur Jobindustrie und definiert die skills nur noch in Bezug auf die Beschäftigung, die jetzt mit der Adaption an volatile Jobs zusammenfällt. Die Proletarisierung bezieht sich aber heute nicht nur auf die ökonomische Verarmung und das Prekarität, sondern auch auf den Verlust der Kontrolle über das Wissen, das Savoir-faire und die Produktion. Das Arbeitswissen und das Wissen vom Leben werden durch KI-Maschinen und die Kommunikation der Informationssysteme ersetzt, um möglichst jedes Wissen in die Automation zu transformieren, wobei die Proletarisierung des Wissens längst auch die Formen der Planung und der Entscheidungsfindung betrifft.8

Es ist heute mehr und mehr die unbezahlte Arbeit der Konsumenten, die eigentlich keine Arbeit, sondern Dividuation und Beschäftigung in unbezahlter Zeit ist, die die Parameter der automatischen und performativen kollektiven Protentionen und Retentionen (Erwatungen und Erinnerungen), die durch den computerisierten Kapitalismus produziert werden, speist, setzt und verstärkt. Dem ging eine Periode voraus, in der sich die Konsumenten einer Massen-Dividuation ausgesetzt sahen, der Proletarisierung des Wissens vom Leben. Die Marketing-Unternehmen produzierten die kollektiven sekundären Retentionen, die das ausführten, was bestimmte Forschungsabteilungen von ihnen forderten. Zu Beginn des 21. Jahrhunderts wurde die analoge durch die digitale Kulturindustrie ersetzt, welche die proletarisierten Konsumenten durch die tausend Fäden der Vernetzung in das digital-technische System integriert und sie gleichzeitig psychisch und sozial des-integriert hat, das heißt, eine aus der Vernetzung resultierende Dividuation erzeugt hat, die die proletarisierten Konsumenten und Produzenten in dem Sinne neu zusammensetzt, dass sie zu nichts weiter als ausführenden Organen der Informationssysteme werden, der Kapitalisierung. Im Jahr 1993 wurde mit dem Internet eine weltweite digitale Infrastruktur etabliert, welche die Telekommunikationstechnologien grundlegend veränderte und zur totalen Vernetzung vieler Territorien auf der Welt führte, wobei man deren Bewohner mit mobilen und/oder fixen Geräten ausstattete, die wiederum kompatibel mit den Netzwerken waren.

Die Entwicklung des Kapitalismus in den Metropolen hat seit Anfang der 1970er Jahre im Zuge der Globalisierung auch zu einem globalen Konsumismus geführt (von dem allerdings vor allem die Surplus-Bevölkerung im globalen Süden weiterhin ganz ausgeschlossen bleibt), der die durchaus positiven Prozesse der Anbindung der Triebe an alle Arten von Objekten, die Teil einer befreienden Sublimierung sind, weitgehend zerstört hat. Der anti-ödipale Wunsch, der das Objekt ökonomisiert, indem er es idealisiert und transindividuiert, geht stets mit der Artifizialisierung des Lebens einher, die das Technische umfasst, und dies verstärkt und intensiviert normalerweise auch die Macht der Sublimierung, wenn das Individuum mit einem transindividuellen Gedächtnis ausgestattet wird, das Simondon die psychische und kollektive Individuation nennt.

Dabei bleibt die vitale Individuation zunächst an eine Ökonomie der Instinkte gebunden, die das animalische Verhalten mit der Rigorosität eines Automatismus kontrolliert, während mit der Herankunft des noetischen Lebens, das durch die libidinale Ökonomie (Fetisch, Kult, Ritual etc.) geformt wird, die Instinkte und Triebe relativ de-automatisiert werden, sodass die gewünschten Objekte ersetzt, verschoben und umgestaltet werden können. Selbst die Instinkte sind damit als artifizielle Organe der Fetischisierung zugänglich und gestalten sich zu Trieben um. Und auf diesem Weg führt die vitale Individuation zu einer kollektiven Individuation, in der die Triebe konstant aufbewahrt und zugleich verändert werden, insofern sie selbst die Objekte der Begierde verändern und damit der Perversion zugänglich sind. Perverse Triebe sind strukturell fluid und heften sich an artifizielle Organe, sie sind fetischistisch und an Objekten orientiert.

Diese spezifische Ökonomie der Libido, die Stiegler durchaus in einem positiven Licht erscheinen lässt, hat das Kapital in den letzten Jahrzehnten vollständig zerstört. Dabei werden die gegenwärtig ins Panische und exzessiv ins Pornographische freigelassenen Triebe von einer Industrie der automatisierten Spurensicherung und -verfolgung in den sozialen Netzwerken kontrolliert und gleichzeitig verstärkt, indem die Triebe einerseits funktionalisiert, das heißt durch mimetische Mechanismen in niemals zu befriedigende konsumistische Triebe transformiert werden, was andererseits die derart ungebundenen Triebe noch destruktiver, unkontrollierbarer und ansteckender macht. Sowohl die Kanalisíerung als auch die Verstärkung der Triebe durch die Applikation mathematischer Algorithmen impliziert eine automatisierte soziale Kontrolle, während gleichzeitig die Triebe auf ein höchst gefährliches Niveau getrieben und durch die Kontrollmechanismen aber auch de-integriert werden. An dieser Stelle spricht Stiegler von einer modernen kapitalistischen Ökonomie der Seele, die auf dem Kommerz und industriellen Technologien aufbaue, wobei wir uns aber genaugenommen inzwischen aber schon in einer hyper-industriellen Epoche befänden, in der ein total (be)rechnendes und quantifizierendes Kapital herrsche. In libidinöser Hinsicht handele es sich hier aber um eine Dis-Ökonomie, die sich überhaupt nicht mehr um das Verhältnis von Libido und Objekten kümmere. Diese absolut berechnende libidinale Dis-Ökonomie ist für Stiegler der komplette Nihilismus, oder, um es anders zu sagen, der strukturelle Effekt der Automation der Libido und des Wissens, der Formalisierungen innerhalb eines kybernetisch-technologischen Systems besteht in einem berechnenden und zählenden Nihilismus. Dieser nihilistische Triebkapitalismus, so schreibt Stiegler, zerstöre das Sublimierungsvermögen der Dividuen, die nun in einen gefährlichen Entsublimierungsprozess hinein getrieben würden, während die automatisierten digitalen Industrien der Wunschökonomie zugleich jedes reale Begehren ausgetrieben hätten. Davon zeugen neben den gestreamten Hardcore-Bilderfluten der US-Pornoindustrie, Gruppenvergewaltigungen, serielle Morde während der Sexspiele, der Kindesmissbrauch in Kirchen, olympischen Sportverbänden und UNO-Camps, der Genderwhansinn etc..

Stiegler schreibt: »Die Libido ist das, was die Triebe bändigt – sobald sie zerstört ist, entfesseln sich die Triebe.« (93) Ist aber nun aber beispielsweise der Bereicherungstrieb wirklich das Resultat einer Libido-Zerstörung, oder handelt es sich doch eher um eine Umbesetzung im Sinne des Abzugs der Energie vom Äquivalenzprinzip oder der Warenästhetik und einer neuen Besetzung des Gewinn- und Profitstrebens mit Energie? Die von Stiegler beschriebenen technischen Objekte wären dann zum Teil hervorragend als Übergangs- und Ersatzobjekte geeignet. Die digitalen Puppen von heute, die mit ihren Iphones und Smartphones auch noch die Daten liefern, sind eine kostbare Ressource der Kapitalisierung – was will das Überwachungskapital noch mehr? Die Libido der User richtet sich auf die begehrten Objekte, für die Überwachungskapitalisten wiederum sind die Daten der User das Objekt der Begierde, auf das ihre »Libido« sich konzentriert. Dass hier nebenbei auch der Todestrieb am Werk ist, der Verbrauch von Naturressourcen und die Zerstörung der Umwelt (via Produktion der technischen Geräte) auf der einen und die Anbindung und Ausbeutung der Konsumenten (zwecks Mehrwertproduktion) auf der anderen Seite – das wird in Kauf genommen einerseits und ist beabsichtigt andrerseits.

Wir alle werden mehr oder wenig dumm (gemacht), ja wir werden sogar zu plagenden und geplagten Biestern. Die verdummenden Mechanismen der industriellen Epoche, die der umfassenden Integration der Arbeiter in das System der Maschinerie geschuldet waren, warfen ihre Schatten voraus, bis später Deleuze, als die dazugehörigen disziplinarischen Maßnahmen und Normen ihre Wirkungskraft nach und nach verloren und das Fernsehen in eine Maschine der totalen sensorischen Regulation umgewandelt wurde, von den neuen Kontrollgesellschaften sprach, die auch zu neuen Formen der Subjektivierung und der maschinellen Unterwerfung führten. Vor allem Guattari hat mit der Einführung des Begriffs »Dividuum« in den 1980er Jahren kurz vor dem von ihm vorausgesehenen langen Winter schon geahnt, dass die ultraliberalen Kontrollmechanismen, die mit dem Computer verbunden sind, die Liquidation des menschlichen Entscheidungs- und Urteilsvermögens nach sich ziehen werden. Sowohl das Verhalten als auch der analytische Verstand werden heute nachhaltig automatisiert und immer stärker der Macht der künstlichen Maschinen sowie den Algorithmen überlassen. Smarte vernetzte Sensoren registrieren und bearbeiten längst auch in der realen Welt jede Art von Kognition und vor allem jedes Verhalten in Realtime, letzteres, ohne dass das Monitoring unbedingt zu Bewusstsein kommen muss. KI-Maschinen analysieren, wie beide Faktoren zu antizipieren und sicher und zielgenau zu verändern sind, sodass bei den ins Visier genommenen Akteuren genau diejenigen Echtzeit-Aktionen hervorgerufen werden, die es den Betreibern von Überwachungsunternehmen erlauben, ihre Verhaltens- und Verstandesmodifikationsprodukte weiter zu perfektionieren. Die Automatisierung von Verhaltensdaten erzeugt innerhalb der Ökonomie der Spurensicherung geradezu eine artifizielle, maschinelle Kunst der Hyper-Kontrolle, die durch die Auslagerung des Denkens in die digitalisierten Netzwerke entfaltet und dort auch monetarisiert wird. Alles läuft auf die Exploitation der ternären Retentionen hinaus, und fast alle Aspekte des Verhaltens der Dividuen generieren nun digitale Spuren, die wiederum zu Objekten der Kalkulation und der Kapitalisierung werden.

Das transdividuelle (nicht transindividuelle) tracking der Daten muss noch genauer beschrieben werden. Man muss sich hier auf die jeweiligen Marktsegmentationen des Marketings beziehen, wobei die viel beschworene Individualisierung der Kunden, die man mit bedarfsgerechter Werbung anspricht, eher einer Dividualisierung gleichkommt, einer infra-individuellen Teilung und einer Dekomposition der kollektiven Individuation. Die Determination des Wunsches durch seine Automatisierung, welche die schlechten Triebe freisetzt und triggert, wobei sie mit Netzwerk-Effekten noch verstärkt werden, wird heute mit den Modellen des Neuro-Marketing, der Neuro-Ökonomie und den mathematischen Modellen der Künstlichen Neuronalen Netze vorangetrieben. Das Neuromarketing versucht beim Konsumenten Aktionen zu generieren, die ganz ohne die Formierung eines autonomen Wunsches auskommen. Und dies basiert unter anderem auf der Eliminierung von konstruktiven Unterbrechungen, die normalerweise erst zu Entscheidungen führen, indem man einen sensomotorischen Loop in das Verhalten einzubauen versucht, sodass es zu keinerlei Verzögerungen zwischen Rezeption und Entscheidung und damit auch zu keiner sozialen differance mehr kommt und somit von einem rein funktionellen Kreislauf oder einem sekundengenauen Feedback-Loop gesprochen werden kann, ja eben im Sinne Skinners von einem reinen Reiz-Reaktion-Muster, das mit deskriptiven und präskriptiven Methoden operiert – beispielsweise ist das Zeitinterval (Verzögerung), das die Rezeption eines Produkts vom Effekt (Kauf) trennt, nicht mehr länger vorhanden. Die Ökonomie der Algorithmisierung von persönlichen Daten reduziert immer weiter die Zeit, die für menschliche Entscheidungsprozesse notwendig ist, und eliminiert damit auch die »nutzlose« Zeit des Denkens und der Kontemplation. Gerade die funktionale Integration der psychischen Individuation durch ein automatisch assoziiertes Milieu, das in Lichtgeschwindigkeit prozessiert, konstituiert für die Individuen eine faktische Naturalisierung des technischen Milieus und zugleich eine artifizielle Naturalisierung, womit die individuellen und kollektiven Individuationen zu kollektiven und psychischen Dividuationen mutieren, die wie eine 24/7 Insekten-Gesellschaft funktionieren.

Die algorithmische Krankheit - für Stiegler ist sie ein Begleiteffekt der Epoche der Hyper-Kontrolle - erzwingt eine fatale Desorientierung: All die großartigen Versprechen der Aufklärung sind heute toxisch geworden, ja sie wurden in Prozesse der generalisierten Hyper-Kontrolle des Denkens überführt. Dies geht über die von Deleuze konstatierte Kontrolle-durch-Modulation weit hinaus, insofern heute selbst noch die noetischen Fakultäten der Theorie mit den aktuellen Operatoren der Proletarisierung, die die ternären Retentionen durchziehen, kurzgeschlossen werden. Wiederum bleiben die ternären Retentionen, egal was ihre Materie und Form sein mag, auf die primäre und sekundäre Retention angewiesen, auf die Wahrnehmung, Imagination, die Erwartung und das Gedächtnis, Faktoren, die in die Prozesse der je schon verschiedenen kollektiven Transindividuation integriert sind.

Schließlich erfordert die Behandlung der Daten in Form der ternären digitalen Retention in Realtime und auf globaler Ebene - ausgeführt von intelligenten Maschinen mit der Rechenkapazität von Billionen von Gigabytes - lernende und vernetzte Systeme, die die Daten absorbieren, modifizieren und kapitalisieren. Wenn aber die psychische und die kollektive Individuation mit den digitalisierten Prozessen einer automatisierten Transindividuation kurzgeschlossen werden, dann können sich auch unberechenbare Individuationen ergeben, aber die automatisierten Triebe bleiben den automatisierten retentionalen Systemen unterstellt, um mittels der Mathematik formalisiert und durch Algorithmen konkretisiert zu werden, das heißt, dass die Datenspuren, die man durch die Überwachung des individuellen und kollektiven Verhalten erzeugt, gesammelt, modifiziert und kapitalisiert werden müssen. Dabei behält Stiegler allerdings seinen Begriff des »pharmakon« immer bei, das heißt er sucht immer auch nach Spuren im Internet, die eine neue Form der kollektiven Individuation anzeigen.

Versicherung und Risikosubjekte

Die Kontrolle der zeitgemäßen Risikosubjekte erfordert heute gewinnorientierte Versicherungen, die ihre Kunden am laufenden Band klassifizieren und bewerten, indem man ihnen Zahlen zuordnet, die sich auf Faktoren wie Konsumeigenschaften, Interaktionen, Gesundheit, Bildung und Kreditfähigkeit beziehen, was die somit zu Stichproben degradierten Kunden, wie wir schon gesehen haben, auch zu geteilten Entitäten, ja zu Dividuen macht. Weil die Versicherungen den Imperativ Unsicherheit soweit wie möglich nicht nur durch Risikokalkulation, sondern auch durch Gewissheit zu ersetzen versuchen, scannen ihre mobilen Apps permanent das Verhalten der Versicherten, beispielsweise das Verhalten von Autofahrern, sodass die Versicherungsbeiträge von Sekunde zu Sekunde fallen oder steigen können, und dies auf der Basis von Informationen, wie schnell man gerade fährt oder ob man beim Fahren telefoniert, wobei Maschinenprozesse die Verstöße gegen fixierte Parameter herausfinden und diese dann auch ahnden. Konsequenterweise gliedert man die Kunden in verhaltensorientierte Tarife auf, während die Maschinenprozesse das Verhalten der Versicherten in Richtung maximaler Profitabilität der Versicherungen drängen, indem abweichendes Verhalten mit Bußgeldern geahndet wird oder Versicherungsbeiträge erhöht werden. (zuboff 249) So haben beispielsweise Krankenversicherungen nicht nur die Gesundheit, sondern längst auch die Fitness zu einem moralischen Imperativ gemacht, sie haben die Risiken unter die Bevölkerung so verteilt, dass die Kranken und Übergewichtigen oder einfach nur solche Personen, die zu wenig auf ihre Gesundheit achten, mit Rückstufungen, Sanktionen, Restriktionen oder gar Ausschluss aus der Versicherung zu rechnen haben.

Silicon Valley hat die Krankheit als Marktpotenzial bzw. als Innovation längst entdeckt. So drängen insbesondere große Unternehmen zielstrebig in diesen Markt, der allein in den USA ein Volumen jenseits der drei Billionen Dollar Grenze erreicht. Amazon gründete unlängst eine Krankenversicherung, baut probeweise Kliniken für die eigene Belegschaft und hat sich die Internetapotheke Pillpack übernommen. Facebook verhandelte bis zum Datenskandal um Cambridge Analytica mit Krankenhäusern über anonymisierte Gesundheitsdaten, um sie mit denen seiner Nutzer abzugleichen. Der avancierteste Player im Rennen um die Gesundheit ist derzeit jedoch Alphabet. Das Mutterschiff von Google entwickelte zuletzt KI-basierte Software-Lösungen, um Krankheitsverläufe und gar den Todeszeitraum von Patienten in Spitälern genauer zu bestimmen. Mit dem Subunternehmen Verily, vormals bekannt als Google Life Sciences, forschte man bereits an einer Kontaktlinse, die mittels Tränenflüssigkeit die Glukosekonzentration misst.Als das beste aller behavioristischen Aufschreibesysteme bewährt sich hier zurzeit das Smartphone, ein multisensorisch-gläsernes Device, auf dessen Oberfläche sich – zumindest für die digitale Gesundheitsavantgarde – das Unbewusste zu spiegeln scheint.

Besonders das Startup Mindstrong Health des früheren Direktors des amerikanischen National Institute of Mental Health und nicht zufällig auch vormaligen Leiters der Abteilung für psychische Gesundheit bei Verily, Thomas Insel, eröffnet ganz neue Sichtachsen. Man analysiert das Tippverhalten des Smartphone-Users – wie er scrollt, klickt oder wischt –, um qua Mustererkennung Verhaltensprofile zu erstellen, die wie Kompassnadeln auf mentale Schwachpunkte verweisen.

Die Versicherungen, die heute über ein breites Repertoire an Modellen und Methoden des Risikomanagements und auch über die entsprechenden Finanzinstrumente verfügen, fassen quantitative Elemente, die das Verhalten der Versicherten definieren, in Tabellen zusammen und setzen sie in höherskalige qualitative Kategorien um, sodass die Elemente ständig neu kombiniert, neue ausgeklügelte Anreiz- und Allokationssysteme geschaffen und somit höhere Profite mittels der Steigerung der Performanz, die die durch Risikoprofile dokumentierten Subjekte selbst zu leisten haben, erzielt werden. (Lee, Martin 2016: 539) Aufgrund von standardisierten Risikodefinitionen erheben also die Versicherungen Daten, um die Risikosubjekte nach ganz gewöhnlichen Kriterien wie Einkommen, familiäre Herkunft, Beruf, Wohnort, Geschlecht und Bildung zu sortieren, zu gliedern und schließlich auszupreisen. Es gibt Unternehmen, die einen Risiko-Score für Personen auf der Basis der Verlaufsgeschichte ihrer Beschäftigung, ihrer angemieteten Wohnungen, ihrer Beziehungen zu Familienmitgliedern und Freunden etc. entwerfen, wobei man sozial prekäre Personen aufgrund der Klassifizierungen und der Auswertung maschineller Verfahren als hoch-risikoreich identifiziert und damit die ökonomische und soziale Ungleichheit algorithmisch re-inskribiert. So sind die Versicherungen fest entschlossen, die Macht über die Versicherten permanent auszuweiten, was sie auch tun, wenn sie mit deren Geldern an den Finanzmärkten als Big Player auftauchen.

Die Erstellung von bestimmten Risikoprofilen ist heute eine Quantifizierungsarbeit sui generis; es gilt zum einen ein quantifiziertes Profil über die Person zu erstellen und zum anderen diese beständig dazu aufzufordern, ihre ökonomischen Positionen zu verbessern. Bezüglich der Körpereffektivierungsarbeit kommt es in diesem Kontext zu einer immer stärkeren Verschmelzung von medizinischen Diagnosen mit den diversen Wellness-, Fitness- und Lifestyleangeboten, indem eine ganze Reihe von tragbaren Geräten den Körper erweitern, um Körperzustände zu quantifizieren, das heißt Zustände und Prozesse zur Bewegung, zum Schlaf- und Stressverhalten und zum Alkohol- und Nikotinkonsum aufzuzeichnen, um schließlich die Kontrolle zu perfektionieren und Anleitungen zur weiteren Selbstoptimierung des Körpers geben. Diese Arbeit am eigenen Körper resultiert in einem persönlichen Aktienkurs der Gesundheit und des Wohlbefindens in Echtzeit (ebd.: 116), was für die Akteure wiederum neue Anreize vermittelt, den Versicherungen und Krankenkassen Informationen für die Ausarbeitung von neuen Tarifmodellen bereitzustellen, die die Versicherungen in personalisierte Kostenberechnungen umwandeln. Diese Art der Selbstvermessung wird von den Versicherungen durch die Entwicklung technischer Applikationen forciert, die ein bestimmtes Verhalten messen, um es in Relation zu den bestehenden Tarifsystemen zu setzen. Es entwickelt sich hier ein fein gesponnenes Netzwerk aus Versicherungen, Kunden und App-Produzenten, innerhalb dessen permanent die Differenzierung und Personalisierung von auf die Gesundheit bezogenen Daten vorangetrieben wird, um weitere monetäre Anreizsysteme zu schaffen und die Mitmachtätigkeit der Dividuen anzustacheln, und dies alles unter dem Aspekt des spielerischen und freien Umgangs mit Daten.

Während die verantwortungsbewussten Risikosubjekte in den einschlägigen Wellnesscentern Tag für Tag hartnäckig mit ihrer individuellen Fitness beschäftigt sind, um sich in infantil-singularisierten Freiheitsritualen kreativ neu zu erfinden (und sich damit meistens nur dem Sachverhalt anpassen, dass sie nicht im geringsten in der Lage sind, etwas verändern zu können, oder es vielleicht auch gar nicht wollen), werden sie von den Versicherungen doch als ziemlich stereotype und einfache Protagonisten eingestuft, die ein ganz gewöhnliches Leben leben, unter Umstände das des »lebendig gewordenen Stelleninserats, eine gelungene Synthese aller Charaktereigenschaften, die sich Personalchefs und Volksschullehrer bei einem Menschen wünschen.« (Pohrt) Und um es noch einmal zu wiederholen: Während also die erfolgreichen und besonders risikoaffinen Subjekte, insbesondere die der Eliten und aus der oberen Mittelschicht, permanent die Befreiung von den Fesseln verkrusteter alter Identitäten und ein neues Singularitätsregime beschwören, gleichzeitig ihre durch und durch algorithmisierten Leidenschaften auch auf alle möglichen analogen Events, auf Live-Konzerte und Musikfestivals in ihrer angeblichen Außeralltäglichkeit richten, auf Sport- und Kunstereignisse, auf all das, was die Event-Industrie Tag für Tag an gewöhnlichen Verbrechen inszeniert, werden sie auch weiterhin äußerst effizient durch Versicherungen und andere private Kontrollfirmen gescannt, quantifiziert und motiviert. Eine gelungene Identität zu besitzen heißt dann, sich als Risikosubjekt zu generieren und als solches zu gewinnen und darin grundsätzlich derselbe zu bleiben: handlungsfähig, opportunistisch und risikobereit, alles in allem eine neue Form der Stupidität, weil der große Andere im Schatten weiterhin unbemerkt waltet und das vom Kapital konstituierte Risikosubjekt sich dem unbewusst zumindest verpflichtet fühlt. Die aufstiegswillige Mittelschicht – ökonomisch nach oben, kulturell nach unten orientiert – findet diesen Oberflächentext extrem chic, und einige ihrer Repräsentanten, die vielleicht sogar auch höhere Funktionen bei den Versicherungen selbst einnehmen, gelingt es im High-Sein des Hedgens ihres Lebens sich gegenseitig zu übertrumpfen, und dies im Zuge eines schnellmachersüchtigen Ausspuckens von Funktionen, Formeln und Slogans, die den eigenen Lebensstil gnadenlos und zugleich doch ziemlich trübselig ornamentieren. Gleichzeitig untersteht die Existenz risikobereiter Subjekte einer von den Versicherungen selbst operationalisierten Kontrollstruktur (Statistiken, Tabellen und Taxonomien), die ihre Kunden strikt nach Risikokategorien eingliedert, klassifiziert und sortiert – zum Zweck der Erstellung eines ordnungsgemäßen und gewinnträchtigen Risikoprofils. Selbstoptimierungsprozesse und Kontrollstrukturen bedingen und verstärken sich also gegenseitig.

Es ist einschlägig, dass Unternehmen, Staaten und private Personen heute weniger durch die Analyse des konkreten Einzelfalls auf ihre Kreditwürdigkeit geprüft werden, sondern anhand einheitlicher quantitativer Indizes, das heißt die Kreditkontrolle durch Prüfung des Einzelfalls wird durch die Erstellung von standardisierten und algorithmisierten Risikoprofilen ersetzt. So wurde zur Evaluation der Verbraucher der Fico Score eingeführt, ein Algorithmus, der generell als ein wichtiges statistisches Instrument zur Kontrolle des neoliberalen Subjekts gelten kann. Zunächst bedeutet Scoring ganz allgemein, dass man bestimmten Entitäten/Subjekten Eigenschaften wie Performanz, Leistungsfähigkeit, Rentabilität oder Zahlungsfähigkeit zuschreibt, worauf man sie nach der Skalierung dieser Kriterien in Gruppen einteilt, sie also klassifiziert und mit Punkten bewertet, die man wiederum gewichtet und zu einer Bonitätsnote zusammenfasst, um dann mit dem Gesamtscore schließlich auch die Kreditvergaben festzulegen. Versicherungen konstruieren mit dem Fico Score die Kreditgeschichten der Kunden, Unternehmen prüfen mit ihm die Stellenbewerbungen und suchen nach optimalen Standortbestimmungen, Krankenversicherungen erheben Prognosen, ob die Patienten die Medikamente ordnungsgemäß einnehmen, Spielcasinos eruieren die gewinnträchtigsten Gäste. Zusammenfassend lässt sich sagen, dass heute ein dichtes Netz von Rankings, Ratings und anderen Evaluationsmechanismen die sozialen Felder durchzieht und sich auf fast alle Tätigkeiten und Bereiche bezieht. Dabei gehen bestimmte Kreditscorings sogar so weit, über den Einsatz geheimer Algorithmen nicht nur Informationen über den Gesundheitszustand, die Mobilität, den Jobwechsel und die persönliche Risikobearbeitung einzuholen und zu bewerten, sondern man zieht sogar Daten aus dem Freundeskreis heran, was je nach deren ökonomischen Status Vorteile oder Nachteile für den Kreditnachfrager bringen kann.

Statistisch-maschinelle Verfahren dienen dazu, die Wahrscheinlichkeit, dass jemand einen Kredit bedient zu eruieren, in dem man den Kunden Bonitätsnoten vergibt, womit nicht nur generell über die Vergabe von Krediten, sondern auch über die genauen Konditionen der Kredite (Laufzeiten, Zinssätze etc.) entschieden wird. Über die Geschichte der Verschuldungen, der Marktaktivitäten und generell die ökonomische Situation der Subjekte liegt heute ein breit zugängliches Datenmaterial vor, das ständig erweitert wird und in die aktuellen Risikokalkulationen und Bewertungen einfließt, wobei der Trend dahin geht, immer weitere Bevölkerungsteile über die sog. credit risk coloniziation in das Kreditsystem zu integrieren und und damit zur Generierung eines Surplus für das finanzielle Kapitals verfügbar zu halten. (Mau 2017: 109) Bei der Kreditvergabe kommen die berüchtigten Apps zum Einsatz, die aus den Anwendungen des Smartphones eines Antragsstellers, aus Postings in den sozialen Medien, aus GPS-Koordinaten und aus E-Mails und Profilen eine Reihe von Daten herauslesen und modulieren, indem Algorithmen Muster konstruieren, die auf die Wahrscheinlichkeit schließen lassen, ob der Antragssteller in Zukunft Kredite auch bedienen kann. (zuboff 202) Und als ob das nicht genug wäre, dienen diese Informationen wiederum zur Verfeinerung des Fico-Algorithmus und eben auch anderer Algorithmen, ein Nebeneffekt, um noch exaktere und umfassendere Persönlichkeitsprofile zu erstellen, die nicht nur den finanziellen Stresspegel eines Nutzers umfassen, sondern vielleicht auch noch dessen Fürze riechen.

Rating und Ranking

Es wird heute ein neues Objektivitätsregime generiert, das nicht nur Unterschiede und Vergleiche sichtbar macht, sondern neue Klassifikationen zur Kontrolle des Systems und der Subjekte einsetzt. Während das Rating dazu dient, bestimmte Objekte, Sachverhalte und Subjekte mittels bestimmter Techniken nach Mustern zu beurteilen und zu bewerten, werden Sachverhalte, Objekt, Personen etc. beim Ranking in eine Rangfolge gebracht. Die Monetarisierung und Ökonomisierung der Ratings und des Rankings führt heute in allen möglichen Bereichen zur permanenten Restrukturierung der Methoden der Effizienz, der leistungsorientierten Mittelvergaben und der Budgetierungen unter den Gesichtspunkten der quantifizierenden Rentabilitätssteigerung mittels der in Zahlen übersetzten Input-Output Matrizen, wobei Bereiche wie Bildung, Gesundheit, Gefängnisse und selbst noch Kriege davon betroffen sind.

Die Subjekte sind zur weiteren Anfeuerung dieser Quantifizierungsprozesse ständig selbst aktiv und präsentieren sich anhand von fabrizierten Daten (man denke an Einkommen, Körper und Gewicht, Laufstrecken, die man zurücklegt, und an die Gesundheit) in den Medien und Institutionen und setzen ihre Daten äußerst gerne in den Vergleich zu denen der Mitkonkurrenten und erzeugen somit in gewisser Weise selbst noch die numerische Hegemonie mit, die stets die Aura des Objektiven mittels der Heroisierung der Zahl umgibt. Dabei sind solche Zählungen und Vergleiche aber längst nicht apriori gegeben, sondern sie werden in quantifizierenden sozialen Prozessen konstruiert, indem unter anderem auf Konsens zielende Messverfahren eingerichtet werden, die gewünschtes Verhalten, das nach metrischen und ordinalen Differenzen in Rangordnungen integriert wird, andauernd nur verstärken. Dabei wird zum einen die Gleichwertigkeit der Verhaltensweisen der Subjekte vorausgesetzt, die einer spezifischen Gleich-Gültigkeit ihnen gegenüber gleichkommt, zum anderen werden hierarchische und die Konkurrenz verstärkende Rang-Ordnungen inszeniert, die das Mehr oder Weniger oder das Besser oder Schlechter des Verhaltens der Subjekte diktieren.

So ziemlich jeder Sachverhalt, jedes Objekt oder Subjekt kann heute qua Ranking in eine Reihenfolge gebracht werden, man denke insbesondere an die situative Festschreibung der Popularität jeder Art von Promi-Stars, seien es Politiker, Fußballspieler, Models bis hin zu den Pornostars, aber das Ranking betrifft natürlich auch die Rentabilität von Unternehmen und Institutionen, die Bildungsleistungen der Universitäten und die Gesundheitsangebote, den Glanz der Städte, den Geschmack des Essens und der Getränke, die Datingseiten und den Lifestyle der Mittelklassen in den Metropolen, die Reputation in den Berufen und es betrifft selbst die Staaten, die nach ihren Verschuldungsgraden hierarchisiert werden. Dabei wird eine scheinbar objektive quantitative Bewertung suggeriert, die sich um qualitative Unterschiede, Nuancen und Abweichungen wenig schert, letztere eher noch sanktioniert, ausschließt oder zumindest in die untereren Ränge des sozialen Körpers verweist. Der Soziologe Mau spricht an dieser Stelle von Objektivitätsgeneratoren, die nicht nur die sozialen Verhältnisse und Subjekte quantifizieren, indem sie sie skalieren, sondern diese Resultate auch noch visualisieren, das heißt in Charts, Diagramme und Tabellen übersetzen, und dabei handelt es sich keineswegs um rein deskriptive Prozesse, vielmehr um performative Praktiken mittels des Einsatzes a-signifikanter Semiologien, die der Abbildung und Generierung von hierarchischen Strukturen und Systemen dienen, die stets politisch, ökonomisch und sozial aufgeladen sind; sie weisen die Subjekte innerhalb einer Rangskala auf bestimmte Plätze, indem sie die Kriterien und Verfahren festlegen, mit denen die Plätze zugeordnet und besetzt werden.

Wir haben gesehen, dass das Rating ein fortlaufendes Procedere ist, mit dem man Subjekte, Objekte und Sachverhalte hinsichtlich bestimmter Merkmale, Leistungs-, Rentabilitäts- und Verhaltensdimensionen, die in Symbole und Zahlen übersetzt werden, beurteilt, evaluiert und bewertet, während das Ranking insofern darüber hinaus geht, als die beurteilten Objekte und Subjekte durch Differenzbildung in eine numerische Reihenfolge gebracht werden. Beides sind objektivierende Klassifizierungsverfahren, mit denen die Fremdbeobachtung und die Selbstbeobachtung in ein System integriert wird, wobei der performative Aspekt darin besteht, dass man die Akteure dazu auffordert, sich permanent zu sich selbst und andern in Beziehung zu setzen. (Mau 2017: 76) Für die kapitalistischen Profiteure des Rankings ist der freie Zugang zu großen Datenbeständen, die die Akteure ja freiwillig liefern, die erste Voraussetzung, um ein Dispositiv zu erzeugen, für das zum Ersten die Identifizierung von Unterschieden und zum Zweiten der Wettbewerb um die exklusiven Platzierungen kennzeichnend sind, wobei letztere per definitionem instabil und relativ sind, sodass der Kampf gegen die eigene Entwertung und für die Überbietung der anderen immer präsent bleibt. Der Zweck dieses stillen Kampfes ist, wenn wir uns die Subjekte anschauen, die Sichtbarmachung der eigenen Position, vor allem, wenn man sich schon im vorderen Bereich des Feldes befindet, und dies zeitigt eben ganz reale und eben nicht nur symbolische Effekte. Die wichtigen Indikatoren, auf die sich diese Vergleichsverfahren beziehen, sind heute definitiv die Rentabilität, die Effizienz und die Produktivität.
Die Quantifizierungsverfahren des Screening und Scoring funktionieren ähnlich, sind aber stärker auf das Individuum oder besser das Dividuum bezogen. Auch hier ordnet man den Dividuen bestimmte Merkmale wie Leistungs- und Zahlungsfähigkeit, Angaben zum Gesundheitszustand und zur Bildung oder zu speziellen Risiken zu, wobei die Ergebnisse von den Unternehmen, Märkten und anderen Organisationen natürlich begierig aufgegriffen werden, um wiederum Selektionen vorzunehmen, die, als ob es ein Naturzustand sei, den einen Vorteile und den anderen Nachteile bringen. Mit der Zuschreibung von bestimmten Eigenschaften werden die Subjekte durch das Screening mittels der Anwendung einer bestimmten Anzahl von Parametern von vornherein geteilt bzw. aus einem größeren Pool von Akteuren selektiert und sind damit nur noch als Stichroben vorhanden, wobei es aber immer zu Einschlüssen und Ausschlüssen kommen muss. Auch beim Scoring werden statistische Daten und Verfahren hinzugezogen, um die Akteure in eine feine Ordnung der Wertigkeit (Ebd.: 104) zu bringen.

Für die Abwicklung der Bewerbungen sind die Verfahren des Screening für die Unternehmen heute essenziell, wobei meistens externe Dienstleister die Ausführung übernehmen, indem sie getreu den Methoden einer Rasterfahndung die Leute ein- und aussortieren. Dabei können die überwachenden Unternehmen auf ein Unzahl von Daten und Informationen zugreifen, die die User in den sozialen Medien permanent produzieren, man denke an ihre Angaben zum Freundeskreis und Wohnumfeld, zur Mobilität und zu dem eigenen Konsumverhalten und vieles mehr. Auch mit diesen Verfahren werden in den verschiedenen Teilbereichen der Ökonomie, der Kultur und der Politik den Subjekten Plätze zugeordnet, womit sie per definitionen zu Geteilten transformieren, und die algorithmischen Zuweisungen bestimmen ihren Zugang zu Optionalitäten, Handlungspotenzialen und generell zu den Möglichkeiten, das Leben als ein positives und zu kapitalisierenden Produkt zu gestalten.


Bahr, Hans-Dieter (1970): Kritik der »Politischen Technologie«.Frankfurt/M.

– (1973): Die Klassenstruktur der Maschinerie. Anmerkung zur Wertform. In: Technische Intelligenz im Spätkapitalismus. Vahrenkamp (Hrsg.). Frankfurt/M. 39-72.

-(1983): Über den Umgang mit Maschinen. Tübingen.

Mainzer, Klaus (2014): Die Berechnung der Welt. Von der Weltformel zu Big Data. München

Martin, Randy (2009):The Twin Tower of Financialization: Entanglements of Political and Cultural Economies. In: The Global South 3(1).108-125.

– (2015): Knowledge Ltd: Toward a Social Logic of the Derivative.Philadelphia.

Mau, Steffen (2017): Das metrische Wir. Franfurt/Main 2017.

Sahr, Aaron (2017):Das Versprechen des Geldes. Eine Praxistheorie des Kredits. Hamburg.

Schlaudt, Oliver (2011): Marx als Messtheoretiker. In: Bonefeld, Werner/ Heinrich, Michael (Hg.): Kapital & Kritik. Hamburg.

– (2014a): Was ist empirische Wahrheit?: Pragmatische Wahrheitstheorie zwischen Kritizismus und Naturalismus (Philosophische Abhandlungen). Frankfurt/M.

Strauß, Harald(2013): Signifikationen der Arbeit. Die Geltung des Differenzianten »Wert«. Berlin.

Vief, Bernhard (1991): Digitales Geld. In: Rötzer, Florian (Hg.): Digitaler Schein. Frankfurt/M. S.117-147.

1 Hannah Arendt schreibt s.445 «Es ist durchaus denkbar, daß die Neuzeit, die mit einer so unerhörten und unerhört vielversprechenden Aktivierung aller menschlichen Vermögen und Tätigkeiten begonnen hat, schließlich in der tödlichsten, sterilsten Passivität enden wird, die die Geschichte je gekannt hat.« Mit den digitalen Medien leben wir in einer zunehmend flachen Ontologie, in der jedes Ereignis mit jedem anderen auf meistens gleicher Intensitätstssufe korreliert, sodass ein Netz von Relationen entsteht, indem kein Ereignis mehr eine spezifische Bedeutung aufweisen soll. In der Welt der Updates, Kommentare, Meinungen und Fake-News ersetzt der Begriff der Kommunikation den der Wahrheit.

2 Randy Martin hat in seinem Buch »Empire of Indifference» gezeigt, dass Indifferenz und endlose Zirkulation zusammen gehören und heute selbst noch die asymmetrischen, kleinen Kriege im globalen Netz zirkulieren. (Martin 2007) Mehr noch, die entsprechenden Interventionen drehen sich um die Möglichkeit zu zirkulieren, im Gegensatz zur Möglichkeit Souveränität zu proklamieren. Für Martin handelt es sich dabei um einen ähnlichen Shift wie den vom Shareholder, der die Aktien eines Unternehmens hält, zu dem des Traders von Derivaten, der Reichtum durch des Management von Risiken erzeugt. Die unbeabsichtigte Konsequenz dieses Risikomanagements, das Martin sowohl bei der globalen Finanzialisierung als auch beim US-Empire am Werk sieht, besteht in der bloßen Verschärfung der Volatilität dessen, was sie beinhaltet. Daraus ergibt sich ein Kreislauf der Destabilisierung und der derivativen Kriege, eine Charakterisierung, die Martin das »empire of indifference« nennt. Dieses Empire zeichne sich nicht länger durch Fortschritt oder Entwicklung aus, sondern verspricht seinen Insassen nur noch das Management einer immerwährenden Gegenwart von Risikomöglichkeiten.

3 Laut Bernhard Vief ist dem Äquivalenzprinzip die Analogie eigen, wobei dem Ana-logon eine Schablone entspricht, die man über zwei verschiedene Objekte legt, um sie anzugleichen, und womit natürlich sofort die Frage aufgeworfen wird, was denn nun diese Schablone als sog. tertium comparationis anbieten könnte, um überhaupt einen Vergleich zwischen zwei völlig verschiedenen Objekten zu ermöglichen. (Vgl. Vief 1991: 138) Marx kann sich mit der Fixierung des Dritten auf das Metallgewicht des Geldes qua vergegenständlichter Arbeit, wie das Adam Smith und David Ricardo noch getan hatten, nicht zufrieden geben, stattdessen setzt er auf das Axiom »abstrakte Arbeit« oder »abstrakte Arbeitszeit«, für das er aber wiederum keinen objektives Maß anbietet (was heißt abstrakte Arbeit als immanentes Wertmaß?), weshalb Vief bei Marx selbst einen infiniten Regress eröffnet sieht. Deshalb nimmt Vief an dieser Stelle eine Verschiebung vor und fundiert zumindest das Digitalgeld gleich in der reinen Differenz, was, wie er behauptet, die Abwesenheit eines jeglichen Wertmaßes anzeige, das heute durch den Binärcode ersetzt worden sei, sodass das Geld eben kein allgemeines Äquivalent mehr darstelle, sondern einzig und allein durch Differenz gekennzeichnet sei. (Ebd.: 139) Abgesehen von der fragwürdigen Annahme, Differenz mit Digitalität gleichzusetzen (für Deleuze z. B. gehört die Differenz dem Analogischen an), ist es tatsächlich die Digitalität qua Binärcode, welche heute als mediale Basis der elektronischen Geldform erscheint, sodass das Geld in erster Linie auf bedeutungslosen Daten beruht, die jedoch nach wie vor bedeuten (und verweisen) müssen, und of course benötigen die Geldströme im Raum des Symbolischen, in dem sie zwischen Prozessen und Stasen oszillieren (übertragen und speichern), Materie/Energie, denn schließlich kann die res cogitans ohne res extensa nicht auskommen. (Wenn das Symbolische, obwohl es keine Referenz zum Objekt bzw. zur Arbeit aufweist, dennoch nur am Material stattfinden kann, das dem Kontinuum der Zeit entrissen wird, Operationen daher vornehmlich im Raum des Symbolischen stattfinden, womit die Zeitachse gewissermaßen entmächtigt ist, so brauchen Operationen als instantane Prozesse doch so marginal wie auch immer Zeit, wenn diese auch nicht vergleichbar irreversibel wie die Zeiten außerhalb des Symbolischen ablaufen.) Wie Oliver Schlaudt stellt also auch Bernhard Vief – allerdings in anderer Gewichtung – die Frage nach dem Verweis des Geldes auf ein Drittes. Während Vief jedoch keinerlei Notwendigkeit mehr sieht, auf abstrakte Arbeit überhaupt noch Bezug zu nehmen, führt Schlaudt diesen Verweis als die besondere Leistung der Arbeitswerttheorie an, mit der Marx abstrakte Arbeit als immanentes Wertmaß ausgewiesen hätte. (Vief 1991: 135f./Schlaudt 2011: 265f.) In der Tat stellt sich hier für Marx eine entscheidende Problematik, die wir in den Kapiteln zu Wert und abstrakte Arbeit diskutieren wollen.

4Meinungsfreiheit, das ist das freie Zirkulieren von Meinungen (nicht von Diskursen, Narrrativen und erst recht nicht von Wahrheiten). Die elaborierte Systemtheorie hat das schon früh auf den Punkt gebracht, ohne allerdings die fatalen Folgen zu bedenken: »Jede Kommunikation ist gesellschaftlich, wenn genau davon abgesehen wird, wovon sie handelt, worüber sie spricht, woran sie anschließt, welche Folgen sie hat. Gesellschaftlich ist Kommunikation ausschließlich unter dem Aspekt keiner spezifischen Bedeutung oder besser: unter Ausschluß überhaupt jeglicher Bedeutung, außer der, dass Kommunikation immer etwas bedeutet, besagt.« (Peter Fuchs 2001: 112) Die Meinungsfreiheit ist gewährleistet. Sie zirkuliert wie Öl, Kapital und Dschungelcamp.

5Das heißt nicht, dass Facebook nicht zensieren würde, denn jeder einzelne Post, jeder Kommentar und jede Nachricht wird von Mitarbeiten und/oder Maschinen gelesen und analysiert, um festzustellen, ob sie mit den willkürlichen, weitgehend undefinierten und undurchsichtigen Standards des Unternehmens übereinstimmen. Zudem leitet das Unternehmen Informationen über politische Äußerungen vor allem aus dem linken Umfeld auch an die Polizei und Nachrichtendienste weiter.

6 So wie die Protokolle überall sind, so sind es auch die Standards. Man kann von ökologischen Standards sprechen, von Sicherheits- und Gesundheitsstandards, Gebäudestandards und digitalen und industriellen Standards, deren institutioneller und technischer Status durch die Funktionsweisen der Protokolle möglich wird. Die Kapazität der Standards, hängt von der Kontrolle durch Protokolle ab, einem System der Governance, dessen Organisationstechniken gestalten, wie Wert extrahiert von denen wird, die in die verschiedenen Modi der Produktion integriert sind. Aber es gibt auch die Standards der Protokolle selbst. Das TCP/IP Model des Internets ist ein Protokoll, das ein technischer Standard für die Internet-Kommunikation geworden ist. Es gibt eine spezifische Beziehung zwischen Protokoll, Implementierung und Standard, die den digitalen Prozesse betrifft: Protokolle sind Beschreibungen der präzisen Terme, durch die zwei Computer miteinander kommunizieren können (i.e., a dictionary and a handbook for communicating). Die Implementierung impliziert die Kreation von Software, die das Protokoll benutzt, i. e. die Kommunikation abwickelt (zwei Implementationen, die dasselbe Protokoll benutzen, sollten Daten miteinander austauschen können). Ein Standard definiert, welches Protokoll bei bestimmten Computern für bestimmte Zwecke benutzt werden soll. Er definiert zwar nicht das Protokoll selbst, aber setzt Grenzen für die Veränderung des Protokolls.

7 Die von Lefebvre beschriebene Zersplitterung und zugleich Standardisierung des alltäglichen Lebens führte ab dem Jahr 1970 in eine symbolische Misere, die durch die Dominanz der audiovisuellen, analogen Apparate der Massenmedien gekennzeichnet war, welche eine Periode des strategischen Marketings einläuteten, das dann mittels der Privatisierung des Radios und des Fernsehens umfassend umgesetzt wurde. Die symbolische Misere bzw. die De-Symbolisierung der alltäglichen Narrative, die durch diese Entwicklungen eingeläutet wird, führt laut Stiegler zu einer Proletarisierung der Sensibilitäten und zu einer Vernichtung des Wunsches, oder, was auf das Gleiche herauskommt, zu dem Ruin der libidinalen Ökonomie. Das spekulative Marketing der Finanzindustrie stellt den vorläufigen Höhepunkt dieser Entwicklung dar. Die Mechanisierung der Sensibilität und die Industrialisierung des symbolischen Lebens ist heute in »Kommunikationen« eingeschrieben, die wiederum durch die Unterscheidung zwischen den professionellen Produzenten der Symbole und den proletarisierten und de-symbolisierten Konsumenten gekennzeichnet ist.

8 Wo Stiegler noch von der Proletarisierung des Wissens spricht, sieht Zuboff in der Wissensteilung, welche die Arbeitsteilung überlagert, eine Pathologie, die heute in die Hände einer kleinen Clique von Computerspezialisten geraten sei, einer »Maschinenintelligenz« und ökonomischen Interessen. Wenn all dies richtig ist und auch richtig ist, dass Pathologien die des Systems sind, dann gilt es zu analysieren, wie sich das heutige Kapital zusammensetzt: Produktion qua Ausbeutung, Spekulation qua finanziellem kapital, Plünderung qua Extraktion und Vermarktung von Daten.

A Baroque Heresy: Notes on Deleuze and Leibniz on the Concept Mon, 29 Jun 2020 08:16:46 +0000

“The other who is nobody…the a priori Other is defined in each system by its expressive value – in other words, its implicit and enveloping value […] The I and the Self, by contrast, are immediately characterised by functions of development or explication: not only do they experience qualities in general as already developed in the extensity of their system, but they tend to explicate or develop the world expressed by the other, either in order to participate in it or deny it.” – Deleuze, Difference and Repetition, 260

The Other, as outlined in What is Philosophy? is understood as a living social relation that is also the condition for the possibility of Thought and the genesis of Concepts. Unlike the Ancient Greek conceptual personae of the friend, it is the other that serves as Deleuze and Guattari’s conceptual personae; as the condition for their own creation of concepts.

What this means, however, is that the condition for the creation of concepts (the condition that makes philosophy a real possibility) is one where the knowing-subject, the ‘philosopher,’ is in an asymmetrical relationship to their conditions. The asymmetry of socio-economic power is the true grounds for philosophy defined as concept creation – and it is for this reason that D&G’s conservatism manifests when they claim that it is only with the Greek city (and neither Empire nor State) that philosophy is born; since it is the City which constitutes the norm of social relations as one that is agonistic and agonistic because to be a citizen of Athens means to be free and equal to others and thus free to lay claim to what potentially belongs to others (property, civic office, etc.). So, if the Other is the contemporary manifestation of the friend in Athenian democracy, it is precisely because the other-as-expression-of-possible-world orientates thinking and acting in the world towards the actualization or integration of a world that exists as asymmetrical, hostile, and fundamentally opposed to the present order of things. But, we may ask, why do Deleuze and Guattari pay homage to Leibniz in their discourse on the Other? As they write, “Obviously, every concept has a history. This concept of the other person goes back to Leibniz, to his possible worlds and to the monad as the expression of the world” (WIP, 17).

If the Other stands in an asymmetry with the I and the Self, with the present order of things, and so forth, then the genesis of concepts on the basis of the possible world expressed by the Other means the creation of a concept that pays homage to Leibniz’s God but also signals its death. Where Leibniz argues for God’s productivity as nothing but following from the order he bestowed upon the best of all possible worlds, as seen in the example in the epigraph that hints toward the calculus, D&G find an instance of praise and suspicion. Praise, insofar as Leibniz has succeeded in creating the concept that pertains to the mathematical means of dealing with probability, modality, and the distribution of chance. That is, Leibniz’s monadology attests to Deleuze and Guattari’s definition of the concept, since the concept of the monad demonstrates the real content of concepts themselves: “the concept’s components are neither constants nor variables but pure and simple variations ordered according to their neighborhood. They are processual, modular…The concept is in a state of survey in relation to its components, endlessly traversing them according to an order without distance…It does not have spatiotemporal coordinates, only intensive ordinates” (WIP, 21). Insofar as Leibniz gave clear expression to the concept understood as the conjunction of heterogenous elements that have an internal consistency with each other, the history of the concept belongs to Leibniz.

However, suspicion arises, since Leibniz only gave expression, or only generated the properly cybernetic concept: everything is ordered, logically related, no matter how different and distant. It is Leibniz’s God that acts as metaphysical guarantee for the best of all possible worlds; one ensured with order, stability, intelligibility, and transparency to the philosophical-subject. Leibniz’s God achieves universal order only because it acts as the cybernetic control/regulation of the social conditions under which the creation of concepts is possible. Given this hypothesis of a logical/conceptual filiation between cybernetic and Leibniz’s thought we should remind ourselves of Deleuze’s remark

“You wonder if we can understand this socially and politically. Certainly, and the baroque was itself linked to a political system, a new conception of politics. The move toward replacing the system of a window and a world outside with one of a computer screen in a closed room is something that’s taking place in our social life: we read the world more than we see it […] Leibniz…makes Harmony a basic concept. He makes philosophy the production of harmonies.” (‘On Leibniz‘, p.157-63).

It is this element of Leibniz’s thought that Deleuze seeks to expiate, since the cybernetic impulses of Leibniz, with its production of harmony and order, are commensurate with the cyberneticians task – “fight the general entropy threatening living beings, machines, and societies” (Cybernetic Hypothesis, p. 12). The metaphysical guarantee of the best of all possible worlds is simple the cybernetic task of capturing the lines of flight that define any social organization. Thus, if the history of the concept begins with Leibniz, the fate of this history is a future where the genesis of concepts vis-a-vis the Other is only possible insofar as philosophy combats the logic of the best of all possible worlds wherever it manifests.

At this point we would not be wrong to see a heresy at work; a heretical Leibniz that prefigures the harmony of cybernetic governance. Heresy, speaking etymologically, signifies the activity of choosing, of a choice made, and within its religious context, a choice made regarding the interpretation of a religious text. Thus, a heretic exists wherever an unorthodox interpretation is being presented. If there is something heretical about Deleuze it is the following claim: life is only possible on the basis of a heresy; the heresy of engendering a death of God within the thought of Leibniz in order to wrest the future of the concept from its history – in order to effectuate a becoming of the concept as opposed to a brute repetition of its history and application. This heresy takes place in the crypt, in the opaqueness and obscurity that it engenders for thought and as antithetical to the clarity, distinctness, and transparency of the cybernetic ordering of Leibniz’s God. The Baroque heresy is the retention of the concept understood as grasping nothing other than ‘pure and simple variations ordered according to their neighborhood’ (WIP, 20), while simultaneously understanding that the concept admits no metaphysical guarantee of pre-established harmony. 

The baroque heresy of Deleuze installs itself at the moment where the genesis of concepts no longer simply means the apprehension of the immanent and non-teleological ordering of the variations that characterize a given society; additionally, the baroque element of Deleuze means that what the cybernetic ordering of society obliges for thought and politics is the development, determination, and conditioning, of the problem of control by way of the concept of what is opaque, obscure, secretive, and hidden. It is also for this reason that Deleuze has bones to pick with the affirmationist Deleuzeans. Deleuze never wanted us to affirm the world of difference-itself for its own sake; only in order to grasp the image of thought and the dogma that threatens every attempt we make to create concepts. Deleuze never wanted to affirm joyous encounters for their own sake; only to combat historical and political conditions that maintain a people in conditions of sadness. Thus, any ‘Deleuzean’ politics, or ethics, or aesthetics, fails at the moment that it hypostatizes affirmation of difference, and of joyous affects, as the heart of Deleuze’s transcendental materialism.

The heresy of Deleuze, which obliges us to think and develop a concept of the obscure, opaque, and secretive, allows us to understand why societies are defined by what flees them and not by their contradictions; or why Deleuze’s work exhibits an unwavering commitment to the necessity of understanding and developing difference-itself understood as the asymmetrical relation between the present world and the possible world expressed by the Other. That is, the baroque heresy of Deleuze allows us to  understand that it is neither affirmation of difference or joy that is important for thought and politics. Rather, Deleuze forces us to comprehend that it is only escape, becoming, evading capture, and introducing a bit of disorder into the world, that thought, philosophy, and politics wrests back ideas of liberation and revolution to which the canon has laid claim. The heresy of Deleuze can be called abolition, a fugitive thought, or the buggery of Leibniz. In any event, it is clear that the Leibniz and the baroque of Deleuze demonstrates the necessity of destroying the world that is implied in any development/explication of the possible world expressed by the Other person.

It is clear by now that to combat this cybernetic-Leibnizianism that develops the world as transparent, clear, and distinctive we must engage in the heresy of the opaque, the obscure, and the secretive. From this, one additional implication exists for the legacy of humanism – since it is the discourse of humanism that is married to the political discourse of the best of all possible worlds at the beginning of the 1990’s and begins at least as early as the thought of Feuerbach:

“Feuerbach calls out to Humanity. He tears the veils from universal History, destroys myths and lies, uncovers the truth of man and restores it to him. The fullness of time has come. Humanity is pregnant of its own being. Let men at last become conscious of this, and they will be in reality what they are in truth: free, equal, and fraternal beings.”

Through the Other, with the explication of its possible world that requires the destruction of the world of the I and the Self (thus producing what Deleuze calls the ‘fractured I’ and ‘dissolved Self’), this vision of humanism gains in reality insofar as it immolates itself on its actualization. That is, Deleuze’s anti-humanism, just as its heretical Leibnizianism, raises the relationship between philosopher and Other to the level of political and social analysis. Thus, Humanism does not signal the reconciliation of humanity with itself but the continuation of the cybernetic integration of humanity with Leibnizian metaphysics. It is for this reason that the heresy of Deleuze obliges us to develop a Baroque Humanism – a humanism that develops the possible world signaled by the Other, which destroys ours, and thus effectuates the equation ‘I is an Other.’ This formula, which belongs to Rimbaud, is what orthodox humanism claims while it never achieves and is the formulation that Deleuze’s heresy makes a living reality for thought itself. “For it is not the other which is another I, but the I which is an other, a fractured I” (DR, 261).

taken from here

Theses on the George Floyd Rebellion Sat, 27 Jun 2020 09:04:37 +0000

taken from ill will editions

“The working class in every country lives its own life, makes its own experiences, seeking always to create forms and realize values which originate directly from its organic opposition to official society.”

—CLR James, Grace Lee Boggs, and Cornelius Castoriadis, “Facing Reality”

1. The George Floyd Rebellion was a Black led multi-racial rebellion. This rebellion cannot be sociologically categorized as exclusively a Black rebellion. Rebels from all racialized groups fought the police, looted and burned property. This included Indigenous people, Latinx people, Asian people, and white people. 

2. This uprising was not caused by outside agitators. Initial arrest data shows that most people were from the immediate areas of the rebellions. If there were people driving in from the ‘suburbs,’ this only reveals the sprawling geography of the American metropolis. 

3. While many activists and organizers participated, the reality is that this rebellion was not organized by the small revolutionary left, neither by the so-called progressive NGOs. The rebellion was informal and organic, originating directly from working class black people’s frustration with bourgeois society, particularly the police.

4. Not only was the police-state caught off-guard by the scope and intensity of the rebellion, but civil society also hesitated and wavered in the face of this popular revolt, which quickly spread to every corner of the country and left the police afraid and in disarray. 

5. The police displayed many weaknesses during the rebellion. Up against a few hundred protesters, departments were easily overwhelmed and forced to concentrate their forces in particular hot-spots. Once police arrived in one area of conflict, people would retreat and move on to another location to do more damage. Conventional warfare, with its emphasis on superior weaponry and technology, failed to counter a series of flexible, decentralized, rapid maneuvers focused on property destruction.

6. The militant phase of the rebellion was from May 26th to June 1st. After June 1st the rebellion was not only repressed through military force, but also politically repressed. Aside from the police, military, and vigilante crackdown, the uprising was politically repressed by elements of the left, which reacted to the riots by blaming them on outside agitators. In some places, “good protesters” went so far as to detain “bad protesters” and hand them over to the police.

7. Black NGOs, including the Black Lives Matter Foundation, had no relationship to the militant phase of the rebellion. In fact, such organizations tended to play a reactionary role, often preventing riots, looting, and attacks on the police from spreading. Black NGOS were the spearhead of the forces dividing the movement into good and bad protestors. The social base of Black NGOs is not the Black proletariat, but the Black middle class and most importantly a segment of the radicalizing white middle class.

8. This rebellion was about racist police violence and racial inequality, but it was also about class inequality, capitalism, COVID-19, Trump, and more.

9. This rebellion opens up a new phase in the history of Turtle Island. A new generation of people have experienced a powerful movement, and in the face of ongoing inequalities and crises people are unlikely to sit back and accept them. The rebellion has produced a new political subjectivity—the George Floyd rebel—initiating a set of processes with many possible outcomes which will be determined by class struggles in the present. The American proletariat has finally emerged and entered history.

10. This rebellion is the tip of the spear in the struggle against the pandemic. The rebellion shows the world that revolutionary struggle can happen even during a pandemic. The pandemic is only going to worsen the living conditions of people around the world, and as a result, we can expect more rebellions across the planet. 

11. The George Floyd rebellion has been put down for the time being. Many NGOs and middle class people will make a buck off the brave efforts of the rebels who fought during that week. But these rebellions will return. They are part of the ongoing class struggles that have been happening in the United States and at a global level since the last global recession (2008-2013). Now the world economy is once again in recession. 

12. The ongoing daytime protests are a contradictory product of the rebellion, drawing in large crowds, more middle class and more white. This composition certainly helps to create a non-violent and “good protestor” type atmosphere, but that is inseparable from the Black leaders who advocate this type of politics. At the same time, the expansion of the day time protests allows for greater participation, which is important.

13. The night time riots had a limit in the sense that they did not draw larger sections of society into their activity. Riots, looting, and attacking the police are a young peoples and poor peoples’ activity. Many working people had sympathy with it, but stayed at home. This shows that riots by themselves are not enough.

14. Many important struggles have merged with this movement, including transit workers refusing to collaborate with the police. Still, it is unclear how this rebellion connects to the simmering workplace struggles, prison struggles, and housing struggles which are unfolding in the context of the pandemic. It seems there are historical and future connections to be made. To what extent were those involved in the prior workplace struggles involved in the riots? To what extent will the rioters go back to work and continue the struggle at work?

15. Unions often view police and prison guards as workers in need of protection, instead of seeing them as the armed thugs of the bourgeoisie that they are. Despite the long history of police being strike-breakers, much work remains to be done on the labor front when it comes to police and prison abolition. Without the transit workers, logistical workers, sanitation workers, medical workers and others, the abolitionist struggle is doomed.

16. Considering the low unionization rates, many workplace struggles will be chaotic, explosive, and unmediated by unions or any other kind of official organization. Unions will come in and attempt to control them and co-opt them. Can the struggles in the workplace feed back into the struggles in the streets? If they do, we will enter a new phase of struggle.

17. In order to reconsolidate its power and prevent revolution, the bourgeoisie scrambles to grant reforms and concessions. Some police get fired and charged; the budgets of some police departments get cut; some schools and universities cancel their contracts with police; some  racist statues are removed; Trump signs an executive order providing more resources for police accountability; the Minneapolis City Council votes to disband its police department. This sequence follows a common pattern in capitalist history – the ruling class responds to revolutionary crises by reorganizing and restructuring itself in a way that allows it to stay in power.

18. What must be done through the self-activity of the proletariat, other elements of society are attempting to do through petitions, voting, legislation, and policy change. Reforms are a commendable goal in a racial capitalist system that clearly prioritizes policing over life. However, we must keep in mind that bourgeois society wants to keep this rebellion as narrow as possible: making it only about George Floyd, about slashing police budgets and redistributing the budget to other areas of society. But this rebellion is about something much more. It is about the deep injustice felt by a people which no amount of reform can extinguish.

19. Abolition entails the material destruction of the range of policing infrastructures built during the era of racial capitalism. Abolition occurred from May 26 to June 1st. As a result of widespread rioting, more has happened in a week to discredit and limit police power than has occurred in many decades of activism. Here we see the potential of abolition in its fullest sense, opening up a brief moment of solidarity between the different racialized fractions of the proletariat, causing a national crisis, and cracking open the door to a new world for a brief moment. 

20. Not everything that took place during the uprising was empowering and liberating. The same problems that existed before, continued during the rebellion —racism, transphobia, homophobia, competition for meager resources. All of that doesn’t suddenly disappear in a rebellion. The crucial work of building a new world remains to be done.

21. We have yet to answer the full meaning of this rebellion. Is the content of Black Lives Matter only about those who are racialized as Black or does the Black struggle take on a larger content?

22. Comparisons of this rebellion to 1968 are wrong. This rebellion is different on many levels. It is Black mayors and Black police commissioners who govern in many cities. It was a multi-racial proletariat which rebelled.

23. Can the Black proletariat lead the other racialized fractions of the proletariat in the upcoming years? This is a question that goes back a century with Du Bois, Haywood, James, Jones, and Hampton all trying to devise various coalitions with other fractions in this country or overseas in an attempt to defeat racial capitalism and empire. They all knew that the Black proletariat could spark a broad rebellion, but could not defeat its enemies on its own. 

24. The unification of the proletariat in a common struggle to eliminate capitalism is the only hope humanity has of saving itself and the earth. This counter-power is based on all people coming together to fight against racism, patriarchy and everything that capitalism brings with it. 

25. The desire for multi-racial solidarity is always fraught, as the histories of racism have shown. The development of solidarity will be tense, difficult, and will depend on objective circumstances and strategic choices. Of greatest concern is that solidarity might come at the expense of Black liberation. To prevent this, efforts must be made to respect and support the autonomy of the Black revolutionary struggle. 

-Shemon and Arturo

June 2020

Pandemie Kriegstagebücher – Ausweitung der Kampfzonen Sat, 27 Jun 2020 07:03:26 +0000

Nein, keine langen Abhandlungen zu Stuttgart. Wohl selten hat sich ein Riot so unvermittelt selbst erklärt. Wer in den letzten Monaten durch dieses Land im Ausnahmezustand mit offenen Augen gegangen ist, konnte es alles sehen. Die ersten Tage der Masseninternierung: In Kreuzberg ausgestorbene Straßen, alle 2 Minuten fährt ein Bullenwagen vorbei, die Insassen mustern dich misstrauisch, wenn du noch unterwegs bist. In den dunklen Ecken der Neubau Ghettos kleine Gruppen von Jugendlichen die nichts anderes mehr haben um sich zu sehen. Die Bullen mit jener letzten Prise von Macht die noch gefehlt hat um endlich allmächtig jeden und jede zurechtzuweisen, kontrollieren und wegsperren zu können. Man hat es ihnen angesehen, Körpersprache verrät mehr als tausend Worte. Es braucht keine Anlässe und Begründungen mehr, das Infektionsschutzgesetz als Handbuch eines totalitären Staates.

Ja, sie waren in der Lage, mal eben Milliarden von Menschen wegzusperren und das Mittelstandspack und eine verblödete Linke standen jeden Abend auf den Balkonen und applaudierten dieser Aufführung. Aber auf dem Höhepunkt seiner Machtentfaltung ist jedes Empire am angreifbarsten, eine historische Erfahrung. Die richtigen Leute haben schnell begriffen, dass die Armen und Schwarzen, die Leute in den beschissenen Jobs, ein vielfaches an Opfer zu beklagen haben und dass man nicht nur an einer scheiss Lungeninfektion ersticken kann, sondern auch wenn die Bullen minutenlang auf einem drauf knien. In Afrika haben sie wochenlang Bullenreviere angezündet, kaum dass der ganze Covid 19 Kram angefangen hatte. Hat hier aber keinen interessiert, ist halt Afrika, da krepieren sie auch an Ebola und Aids und wen juckt das hier schon.

Aber als dann in der größten Militärmacht der Welt die Bullen aus ihrem mittelgroßen Bullenkomplex geflohen sind und das Ding in Flammen aufging, haben das weltweit Millionen sofort mitbekommen und begriffen. Von dort aus war es nur noch ein kleiner Schritt zum Riot in Stuttgart. Neukölln war eine nette Geschichte, aber die wirklich wichtigen Dinge spielen sich schon lange jenseits linker Schachbrett Manöver ab. Ein paar hundert proletarische Jugendliche und die Republik steht Kopf.

Es folgt die Übersetzung eines aktuellen Textes von Cesare Battisti, ehemaliger Militanter des bewaffneten Widerstandes in Italien, der leider derzeit in Italien im Knast sitzt, nachdem es ihm jahrzehntelang gelungen war, dem Verfolgungswahn der italienischen Staatsschutzorgane zu entkommen. Wie erfrischend klar und aussagekräftig, wie so viele Texte aus Frankreich und Italien die zu übersetzen ich die Ehre hatte. Hierzulande werden lieber mal eben dahin plätschernde Bücher im Dutzend zum Thema verlegt. From Berlin with love.

Die Pest

Cesare Battisti

"Das erste, was die Pest unseren Mitbürgern angetan hat, war also das Exil."

Wertvoll sind die Worte von Albert Camus in den Tagen des Coronavirus. Sie lassen uns auf der Haut die Qualen der Familien spüren, die durch die "Pest" von Oran in seinem Nachkriegsalgerien getrennt wurden. Es ist, wie wir wissen, eine nie genug gepriesene Metapher für den Nazismus, der gerade besiegt wurde, dessen tödliche Keime aber weiterhin die Menschheit bedrohen und auf die Wiederholung des nächsten falschen Schritts warten werden.

Die Seuche bricht aus wie ein Krieg oder ein brutaler Regimewechsel. Sie sondert die Menschen ab, schließt sie ein. Ein Unglück, das nicht aus dem Nichts entsteht, sondern in den Zwischenräumen einer schwachen, missbrauchten, berauschten Gesellschaft brütet. Sie liegt in den Häusern, in den Straßen, an den Arbeitsplätzen und in den Büros der Macht, in der Täuschung der Worte, in der Abwesenheit von Rechten, die unserem Populismus so teuer sind. Sie liegt in den Mängeln der Demokratie, deren Lücken von denen gefüllt werden, die unter den gegenwärtigen Umständen die Legitimität haben, auf ihrer Seite Gewalt anzuwenden. Es geht darum, die Augen vor dem Schmerz der anderen zu verschließen.

Die Pest war schon immer hier, vor unserer Haustür, aber wir haben sie nicht gesehen. Wir waren hartnäckig in dem Glauben, dass sie nur entfernte Opfer erntet. Was macht es schon aus, wenn es eine Million Tote sind, wenn man noch nicht einmal einen gesehen hat? Die kulturelle Hegemonie unserer Zeit besteht darin, alles zu vereinfachen und zu trivialisieren, und dies steht im Gegensatz zur Komplexität der Welt, in der wir leben. Man trennt die Dinge von ihrem Kontext, und man findet eine vermeintliche Lösung für dieses kleine Stückchen Realität, als ob es nicht in allem anderen enthalten wäre.

In der Zwischenzeit schnappen die entrechteten Menschen nach Luft. Im Namen von Ordnung und Fortschritt werden die natürlichen Gleichgewichte zerstört. Die Ratten von Camus kommen aus den Abwasserkanälen von Oran, um in der Sonne zu sterben; aus den Höhlen vertrieben, fliehen die Fledermäuse von Wuhan auf der Suche nach dem Licht. Und die Kriege explodieren weiter, der Süden des Planeten ist verwüstet, der faschistische Rassismus ist wieder in Mode. Viren werden im Herzen der Gleichgültigkeit geboren. Und eines Tages, ganz plötzlich, sind wir allein.

Sie sagen uns, dass wir in unseren Häusern eingesperrt bleiben müssen, dass es von nun an verboten sein wird, uns auch nur die Hand zu geben. Vom Fenster aus können wir niemanden mehr sehen, wir vermissen sogar den Verkehrslärm, unter einem zu blau gewordenen Himmel. Es muss ein flüchtiger Moment sein, wir täuschen uns immer noch vor, dass wir das Läuten der Glocke hören können, und wir können unsere Lieben hören, die kurz zuvor auf die Reise gegangen waren. Aber die Zeit vergeht und das Pandämonium wächst, die Abschottung lastet immer schwerer, die Prognosen lassen uns erschauern. Dann bereiten wir uns darauf vor, das Exil zu akzeptieren, unter unerwarteten Fehlern zu leiden und unangemessene Gefühle zurückzuweisen. Auf diese Weise entdecken sich die Exilanten selbst wieder und vermissen die Werte, von denen sie abrupt getrennt wurden. Was offensichtlich und vernachlässigbar war, ist von einem Tag auf den anderen eine unerträgliche Entbehrung. Wir fühlen uns hilflos, wir vertrauen uns dem Master-Staat an, der die Kinder-Menschen täglich im Fernsehen ernährt. Sie sagen uns, dass es vorbei ist, dann, dass es wieder angefangen hat, wegen eines Kusses, der ohne Maske gegeben wurde. Wir müssen auf der Hut sein, Straftäter anprangern. Die Kultur des Misstrauens wird eingeführt, die Erlösung liegt in der Denunziation. Sie befindet sich in der Erholung der Wirtschaft. Mut, das Virus wird gezähmt werden, das Böse hat keine Zukunft, wir werden weiter wachsen, die Welt gehört uns, die Menge strömt auf die Straßen, die Freude kehrt zurück, wir werden alle an den Strand gehen, um unseren nackten Hintern zu wärmen.

Dr. Rieux von Camus bleibt am Fenster. Sehen Sie und seufzen Sie. Er weiß, was die Menge ignoriert und was in Geschichtsbüchern zu lesen ist. Viren und Bazillen sind wie der Faschismus, sie sterben nicht, sie verschwinden nie, sie bleiben verborgen und lauern bis zu dem Tag, an dem zum Unglück der Menschen oder aufgrund schlechter Lehren Ratten und Fledermäuse kommen und ihr Blut in den westlichen Palästen vergießen werden. Und dann wird es nicht einmal mehr ein Land für das Exil geben.

“Rebellious postulations”: from Beyond the Power Principle Fri, 26 Jun 2020 08:14:30 +0000

by François Laruelle
translated from the French by Jeremy R. Smith

this piece first appeared in Barricade: A Journal of Antifascism and Translation

A materialist politics of meaning1 [sens]
1. There are at least two means of making a politics of meaning. A dominant means, which proceeds by extension from the traditional criteria of social reproduction to its production, which is always by this fact its normalization, its identification to signification which falls back onto it, coding, specifying, and marshalling [canalise] it. And a minoritarian and revolutionary means, which draws, within the production of properly-called power, new criteria to determine the origin and the functions of meaning and to distinguish it from significations, representations, and images. For reasons which will appear later on, these criteria are not those of something like “structure,” which nevertheless would already imply one such distinction, but obviously a false distinction, since the structure would finally bring down meaning onto a duplication of denotation through a wholly provisional passage through connotation.

Everything is tied and transformed together: a new definition of meaning, a new definition of politics, a new definition of the classical operations of hermeneutics. These minoritarian mutations are what we will exhibit. But their statement suffices to suppress the appearance of that which we would voluntarily denounce as an overpoliticization of meaning. We define that which is “political” by the essence of power or by the objet (r),2 without ever proceeding in the inverse manner, and we therefore distinguish it from objects, goals, and the processes of bourgeois and Marxist politics. As for meaning: it is the set of complex relations of powers, the ones with the others, something like their functioning as identical to their formation, such, at least, that we have to determine it under the conditions of the objet (r) and the Class Struggle in its “machinic” concept.

Here is the thesis which concentrates some of the effects of these investigations: only a really minor thought is a really political thought, i.e. anti?political,3 too; only a minoritarian power-to-think [pouvoir-penser] renders the political field co-extensive with its internal limits, those of anti?power. As these limits are transcendental in their own way, without consisting in a subject, minoritarian thought is thus universal by dint of poverty, unavoidable by dint of being stray [sans feu ni lieu], and inalienable by dint of being shorn. There is no radical political evil: even the seventh circle of the hell of fascism, the only one to yet be inhabited, contains a rebellious postulation.

On the one hand, politics is the universal element of philosophy: the whole of Western ontology draws life, being, and movement from it, and one wonders by what aberration, distraction, or lack of thought that some philosophies were distinguished as “political.” However, power is only its universal element, and not only its object, considered in its essence: as anti?power and from the point of view of a rebel thought. Under this condition alone, metaphysics or first philosophy, as a dominant thought, can be defined as onto-theo-politics, i.e. as politics, cast back [revient] into the same: sometimes dualist, sometimes monist (Lord/Slave, Prince/Subject, God/Creature, Master/Rebel, Bourgeois/Proletariat, General Will/Particular Will), i.e. with a dominant and fascistic tendency. As for the definition of metaphysics as “onto-theo-logy,” it still participates in the vanity of its object, an infatuation of logos and the dominance of Being.

All is political [Tout est politique], but rightly there is no “all,” [il n’y a pas de «tout»] because the “Political Continent”4 forbids reconstituting politics into a universal of the first position and minoritarian thought into a political vision of the world. Our categories are with a double entente and make the object of a duplicitous usage: metaphysical or vulgar, it is all one, finally minoritarian, and which must decide alone, or almost alone, the meaning of the onto-theo-political. Thus, one will not see in this usage the undue extension of a concept beyond its restrictive, i.e. dominant, meaning, an extension of borders, all things equal otherwise, in the manner of gauchist mistakes. The invention of the Political Continent, i.e. of a radically fractional universal, is what rightly renders impossible every overpoliticization of the subject and thought. This category liquidates the dominant universals of these times (bourgeois economism, castration of psychoanalysis, and Marxist activism), substituting for them a specific Referential of the production of power, i.e. a plastic system of internal criteria which are confounded with the exposition of syntaxes and the materiality of the Continent. Without any doubt, it is a changing of borders of the category of “politics.” But, on the one hand, its extension or generalization is subordinated to its intensification, to a politico-libidinal usage of this category; and on the other hand, they are not its significations (Marxist, bourgeois, Platonic, Freudian) which are modified or extended, but especially its meaning. These two differences define a revolutionary usage of the old categories as minoritarian and no longer dominant generalities. Thus, we have to take up the category of “onto-theo-politics”: as an invention that the Rebel carries out [met au compte] from the technology specific to anti?powers.
2. Let us distinguish between two extreme types of concepts or, rather, categories, i.e. generalities: the dominant (generic but also specific) generalities, material in their fashion, but such that their determined character is secondary in relation to their empirical extension and their comprehension of the concept and signification; and the minor or fractional generalities which subordinate them to their determination, or, in Marxist terms, the unity of contraries to the contradiction (but here, determined as objet (r)). These two kinds of generalities are both material, i.e. in any way determined and individuated: matter is also co-extensive with generic categories. And they both comport, even the second, an element of ideality, which is thus not confounded with the a priori. It is why it is necessary to abandon the denomination of “ideological” for the first and “materialist” for the second, and to substitute with this qualitative-empirical distinction, which in fact supposes the confusion of the real and thought, a political distinction (dominant/minoritarian) which implies between both the pertinent differences in the degree of efficacy or materiality, in materialist and determinant value, and differences in the mode of existence and the form of ideality which belongs to both.

It is necessary to cease from opposing materiality and ideality. This opposition only has meaning with the confusion of the real order and the thought order. It is only their co-belonging in both kinds of generality which is distributed otherwise. Hence, the relation of transversal causality, and in both meanings, between phenomena that dominant materialism, i.e. Marxist, classes into Infrastructure or Superstructure. The univocity, at once of matter and ideality for all of the degrees of determination or the Productive Force, renders necessary the reversibility of the causality between facts of “infrastructure” and “ideological” facts. “Machinic Materialism” only deals with generalities or individuated or materialized categories which are ideal-material multiplicities; it does not know facts opposed to “ideas.” The whole of its critical labor consists in selecting the minor generalities (anti?powers or F.O.P.5 with theoretical effects) and to destroy the dominant generalities (powers) and, among them, even the specific generalities of the most conscious Marxism on these problems. “Matter,” for example, is also a category: sometimes generic, sometimes specific, sometimes trans-specific, i.e. materialized under conditions at once infra- and supra-specific and forming an ideal-material multiplicity. A category like that of “matter” is not solely “materialist” in the banal and facile sense in which Marxism is so often content with, but susceptible to a usage that is itself material (it is necessary to subordinate the materialist moment to the material moment, or the ontological to the ontic). This material determination of materialist categories considered as process will be opposed to the concept of matter produced by abstraction. It is not because matter is not determined in a sensible quality or an intellectual form which is an undetermined category: as the internal and transcendental determination of ideality = generality = unity of contraries, matter is “without” form or figure; it is a “function” but all the more determined as it is determinant.
3. Then, what is the category in a minor hermeneutics if it does not leave itself to be defined by signification and no longer by the signifier, through a process of signifiance?6 It is a knot of significations and signifiers tied by abstract syntaxes or fractional schema: machinic syntaxes of the Relations of Power. This dispositive of the category is profoundly complex, its unity problematic, so that “Politics” becomes a category or an ambiguous generality like “anti?politics” or “onto-theo-politics.” One would comprehend nothing from this attempt at “political” hermeneutics if one would suppose with common sense that these “terms” are concepts or signifieds: one would confound the statements and the hermeneutical categories, which comprehend each other by a revolutionary enunciation (Class Struggle as the cleaving Resistance of the subject) with discourse, the phrase, the process of signification, with connotation or denotation—all of which we have to eliminate in the following of this labor. They are not concepts, they are categories: they especially have meaning, and not only significations; rather, against which their meaning is produced. Thus, “politics” will designate as well, in the whole of this text, the objective reflection of the overdetermined but statist [statistique] unity of dominant politics and anti?politics under dominant power. A fetishist unity of a duplicity and a unity of simulacra is the category in a “politics” (anti?political . . . ) of meaning, a unity as little imaginary and fictive as possible, the overdetermined product of a condensation, and which holds face to face, or in an absolutely im-mediate body, both power and un?power, meaning, and signification, and even other “contraries” . . . Under the unity of the term “politics” (of meaning), a term with a dominant tendency since it still affirms the primacy of the unity of contraries over their difference, and which functions a little like an abbreviation of the relation of complex forces which is a category, is also an “anti?politics”: each time, it is to interpret by seeking the powers of dissimulated resistance which articulate the dominant powers (significations).

The necessity and implications of this “nodal” syntax of the hermeneutic category should be understood. In this specific and exemplary case (but its exemplarity is rightly an objective appearance to interpret and destroy), the unity of the condensation of opposites under one of two terms, which is always, by definition, the dominant term, signifies that “politics” (in the dominant sense of a dominant politics) is the indestructible guise of anti?politics, that power as the Master never will make room for the anti?power which resists it. Never will signification, the guise of meaning, be levied as enchantment by a philosophical method, i.e. a political practice. The hour of the objet (r) or the revolutionary enunciation will never ring; never will they appear in person to the subject, in a last unveiling and an ultimate truth, for it is still very beautiful to say that truth comes out of the well only halfway . . . The whole problem is of understanding how this “half” responds to a calculation or operation which always comports a remainder.

Since there was never any chance for any pure anti?politics, for any absolute liberation, and even for any possible wager for a deposition of Mastery, it is important to not speak of anti?politics as pure and abstract, like a massive levy of mastery. No empirical reason, however obvious, can exhaust it or suffice to explicate it. No empirical reason can, for example, explicate why some “ideological” discourses of liberation make a vicious circle with repression. The true reasons lie in the quad(r)uplicity of anti?politics: History as unique and split. Anti?power, as a process or correlation of Resistance and Revolution, is the transcendental-material element immanent to dominant power: it is that which renders actively possible, and impossible, in the last instance Mastery itself, for it is Mastery’s determinant cause. Duplicity signifies inseparability without mediation. It is necessary to speak of the objet (r) as an immanent limit of destruction and transvaluation of the dominant forms of the hermeneutic; anti?power cannot be abstracted from power or soar over it, etc., otherwise it would be transcendent and not at all transcendental (inseparable from the empirical). The objet (r) resolves the paradox of a “beyond” of power and explicates why there is a question of an inconceivable antinomy for classical onto-theo-politics, in particular for the anti-Marxist dualism of the moderns. “Anti?power” is like the “death instinct”: a contradiction in terms.

If no external empirical reason can contain this impossibility here, it is because there are only reasons of syntax, this syntax which adds under the same yoke of duplicity, and not of duality, power and unpower, and renders equally impossible, in the same gesture, pure, a priori, and eternal Mastery and pure, a priori, and eternal Rebellion. But how can a syntax alone identify the im-mediate opposites without the help of a mediating generality, under a unity which is only condensation, overdetermined and second? The solution results from the difference of this syntax to the objet (r), in which one will otherwise see that it is necessary to determine it progressively and each time anticipatively. The objet (r) is more than this syntax of difference and the immediate condensation of opposites; it is also the material cause of this syntax which articulates the powers and their beyond, thus the material cause of meaning which is produced, in an immanent manner, in the Field of Power. The political determination of meaning ends when its definition as a Relation of Powers between then is completed by its materialist determination. The two operations are “founded” in the complex unity of the objet (r) and make from it the determination in the last instance, immanent and divided, of the material production of meaning.

The last section of this essay develops the implications of this political and materialist theory of meaning. Meaning as the process of resistance against signification undoubtedly results from an intensification or potentialization of the dominant forms of ideality; but here, intensification does not designate accumulation or capitalist outbidding, the capitalization of significations, or the signifiers of culture, but the destruction of these dominant forms: meaning as the limit of destruction and reproduction, or transvaluation, hermeneutics. Transvaluation is a word from Nietzsche, but it has nothing to do with values in the spiritualist sense; it is a category to interpret: rather, it designates a materialist process, the effective production of new values, i.e. the potentials of the determination of the Relations of Power, here of meaning and signification.

Thus, by minor hermeneutics, we intend the reversion from the onto-theo-politics of meaning to its anti?politics, the invention of a technology of meaning which is finally subordinated, with its products, to fractional agents or processes of resistance: against classical hermeneutics, which was always serving dominant powers (perhaps it was also a mask, a ruse, it was in any way its “positivity”—to produce the technology of meaning specific to minoritarian processes.

[next page]

  1. Whilst the typical translation of «sens» can either be “meaning” or “sense,” I have opted for “meaning” for reasons that will become apparent in the note at the end of the translation. As will be seen below in one sentence, I will only note wherever “sense” and “meaning” appear almost interchangeably to clarify.
  2. The objet (r) is, prima facie, a parody of Lacan’s objet a. Laruelle’s conceptualization of the objet (r) is detailed at length in the original text. In the first section, “Introduction to Political Materialism,” Laruelle writes that the objet (r) is designated as “‘resistance’ and as ‘revolution,’ as a minoritarian power, as anti?power, as un?power” (19). The objet (r) is, furthermore, distinguished from the principle of power, which is “at once the ‘reality’ and ‘theory’ of dominant-fascistic power,” with the objet (r) having its own “reality” and “theory” in the form of the Beyond of the power principle (30).
  3. The use of the question mark, in place of the hyphen between prefix and the root word so familiar in Laruelle’s later writings, is a Deleuzian residue peculiar to this period of his writing. See Gilles Deleuze, Difference and Repetition, trans. Paul Patton (New York: Columbia University Press 1994), 64. This period of writing, Philosophy I, is noted by Laruelle as an early implementation of the mature themes played out in his later writings though under the authority of the Principle of Sufficient Philosophy. See François Laruelle, Principles of Non-Philosophy, trans. Nicola Rubczak and Anthony Paul Smith (London: Bloomsbury 2013), 33. Taylor Adkins, in a footnote to one of his translations, notes that “Laruelle’s use of the question mark indicates the variable and unstable status of the orientation of what binds the ‘non(-)’ to the ‘philosophical,’ including the different ways in which the ‘non(-)’ is understood depending on the particular philosophy considered.” (Philosophy and Non-Philosophy, trans. Taylor Adkins, Minneapolis: Univocal Press 2013 118n15). Because this period of Laruelle’s thought is under the authority of philosophical sufficiency, one must simultaneously not confound the spontaneous unitary thought of Philosophy I with that of Philosophy II and the other periods’ real critique of philosophical faith and reckon that these immature formations of Laruelle’s thought are consistent, not teleological, and practical with the other periods.
  4. The Political Continent is another term from Philosophy Iera writings. Althusser once remarked in his interview for L’Unità in 1968, translated as “Philosophy as a Revolutionary Weapon” for New Left Review in 1971, that Marx had discovered the “third continent of scientific knowledge” with History. Laruelle remarks both in this text as well as a previous work, Nietzsche Contre Heidegger (Paris: Payot 1976), that Nietzsche had discovered the continent of Politics. In Nietzsche Contre Heidegger, Laruelle writes: “Under pretext that Nietzsche had still recognized better than Lenin the extension of imperialism and its becoming-fascist, one confounds the critique of this object with the love of this object necessary for its critique, or yet: the Political Continent and its revolutionary margins with fascization co-extensive with this new continent and necessarily discovered with it” (26, my translation). In Beyond, the Political Continent is determined in the last instance by the objet (r), for which both become the components of political materialism. See the following translator’s note at the end of the translation for more details.
  5. F.O.P. stands for “fractional organs of power.” When concerning the material production of power, power becomes a Body (perhaps without-organs) “only if it is first really produced and not assumed given under the form of a class, institution, or a State” (47). These fractional organs of power are one of the three “forms” the Beyond of the Power Principle takes, and make up the “machinic” aspect that is impossible for classes, institutions, and the State to be able to determine; instead, the F.O.P. determine them in the last instance without a reciprocal or mediating relation.
  6. The choice of “signifiance” for «signifiance» is directed from Brian Massumi’s decision in his translation of Gilles Deleuze and Félix Guattari’s A Thousand Plateaus: Capitalism and Schizophrenia (Minneapolis: University of Minnesota Press 1987). An alternative to Massumi’s translation would also be Alphonso Lingis’ translation of Emmanuel Levinas’ Otherwise than Being, or Beyond Essence (The Hague: Martinus Nijhoff Publishers 1981) where «signifiance» is rendered as “signifyingness.”

Was darf Polizeikritik? Thu, 25 Jun 2020 15:17:12 +0000

Heute vor einem Monat, am 25. Mai, wurde George Floyd von der Polizei in Minneapolis brutal ermordet. Passant_innen filmte wie der unbewaffnete Schwarze Mann minutenlang zu Tode gefoltert wurde, während er um sein Leben flehte und immer wieder „I can’t breathe“/“Ich kann nicht atmen“ sagte. Durch die Verbreitung des Videos über soziale Netzwerke schien nun endlich für alle das sichtbar zu werden, was für Schwarze Menschen Lebensrealität ist, dass die Polizei mit der ganzen Gewalt von Rassismus und Staatsmacht Schwarzes Leben jederzeit vernichten kann.

Als Reaktion gab es massive antirassistische und polizeikritische Proteste in Minneapolis und überall in den USA. Der Slogan „I can’t breathe“, der bereits nach der rassistischen Ermordung Eric Garners 2014 ein wichtiger Slogan der Black Lives Matters-Bewegung war, wurde überall skandiert; Am Abend des 28. Mai auch von denjenigen Demonstranten_innen, die die Polizeistation im 3. Bezirk von Minneapolis, besetzten und dann niederbrannte. Das Feuer des antirassistischen Riots war unmittelbare Polizeikritik, die Vernichtung materieller Grundlagen des rassistischen Polizei-Mordens zumindest in jedem Bezirk, in dem George Floyd ermordet wurde.

Der antirassistische Riots schlug damit aber auch genau an einem jener Knotenpunkte ein, wo sich die Macht von institutionellem Rassismus, postkolonialen Ausbeutungsverhältnissen und Kapitalismus überkreuzen, der Polizei. Es war auf einer symbolischen Ebene auch eine Kritik am institutionellen Rassismus des Staates, für den die Polizei die kapitalistische Ordnung bewahren und durchsetzen soll. Indirekt drückte sich damit in dem antirassistischen Riot der Wunsch nach einer Welt ohne Polizeigewalt – und damit in letzter Konsequenz eine ohne Staat und Kapital aus. Das kann als ein welthistorisches Ereignis verstanden werden.

#AbolishPolice, die Auflösung der Polizei wurde zu einem zentralen Diskussionspunkt in den USA. Der Riot hatte zumindest das geschafft, was jahrelange Deliberation im sogenannten „herrschaftsfreien“ Diskurs nicht geschafft hatte; das Ende von rassistischer Polizeigewalt auf die Tagesordnung in der ganzen Welt gesetzt. In der klassischen marxistischen Formulierung war die Waffe der Kritik in die Kritik der Waffen übergangen und hatte damit aber nachhaltig auch die Möglichkeiten der Kritik erweitert. Marx schrieb in der Einleitung Zur Kritik der Hegelschen Rechts-Philosophie: „Die Waffe der Kritik kann allerdings die Kritik der Waffen nicht ersetzen, die materielle Gewalt muß gestürzt werden durch materielle Gewalt, allein auch die Theorie wird zur materiellen Gewalt, sobald sie die Massen ergreift.“ Oder um es polemischer zu sagen, Gewaltverhältnisse lassen sich nicht durch liebes Fragen oder rationale Deliberation verändern.

Staatsapparate Polizei, Lager, Grenzregime als rassistische Institutionen

Die Geschichte des Kapitalismus ist eine Geschichte von Kolonialismus, Imperialismus und postkolonialen Ausbeutungsverhältnissen. Eine Geschichte der Spaltung der Abeiter_innenklassen entlang von race und gender und der besonderen Ausbeutung und gewaltvollen Zurichtung von rassifizierten und feminisierten Körpern. Die Ermordung George Floyds wird mit der Kontinuität von Jahrhunderter langer Gewalt gegen Schwarze ausgeführt. BPOC, die im Mittelmeer durch die Schließung sicherer Fluchtwege in den Tod gestoßen werden, werden mit der ganzen Gewalt von postkolonialen Verhältnissen (ökonomischen, aber auch geopolitischen) ermordet.

Die staatliche Gewalt im Inneren heißt Polizei, die im äußeren Grenzregime. An ihrer Schnittstelle existiert das Lager, in dem die in der kapitalistischen Peripherie Geknechteten zu Teilen der rassifizierten Arbeiter_innenklasse in den Metropolen werden können. Wie die Staaten der kapitalistischen Metropolen Migration durch Grenzregime bekämpft, so das migrantische und rassifizierte Proletariat durch Lager und Polizei. In Europa wurde letzteres insbesondere durch die Banlieu-Riots 2005 in Frankreich sichtbar. Die Polizei hatten die beiden jugendlichen Ziad Benna und Bouna Traoré in den Tod getrieben, woraufhin es 20 Tage erbitterte Straßenschlachten gab. Der damalige Innenminister und spätere Präsident Nicolas Sarkozy bezeichnete die vor allem aufbegehrenden migrantischen Jugendlichen als „Gesindel“ und „Abschaum“, das es „wegzukärchern“ gelte.

Migrantischer Riot und weiße Reaktion

Auch in Deutschland gab es zuletzt – nach dem Aufstand in einem Lager in Ellwangen 2018 – einen antirassistischen Riot. Am Abend des 20. Junis wollten Polizisten in Stuttgart anscheinend eine Drogenkontrolle wegen des Konsums eines Joints durchführen. Schnell solidarisierten sich aber bis zu 200 Personen, vor allem jugendliche Migrant_innen gegen die Polizeischikane. Die Polizei war trotz des Einsatzes von 280 Cops nicht in der Lage die Situation zu kontrollieren. Es wurden 12 Bullenwagen beschädigt und 9 Geschäfte geplündert, es gab auf dem Höhepunkt der Riots ca. 500 Personen, die sich beteiligten.

Gewiss kann der kleine Riot in Stuttgart nicht mit dem großen Riot in Paris oder dem Niederbrennen der Polizeistation in Minnepolis verglichen werden. Aber doch scheint es Parallelen zu geben, in der Art von Reaktion auf racial profiling und Polizeigewalt, insbesondere von migrantischen und rassifizierten Menschen und Jugendlichen. Im Gegensatz zu den Straßenschlachten bei Blockupy in Frankfurt 2015 und dem Riot in Hamburg 2017 gab es diesmal keine besondere Vorbereitung von Linken. Während der reaktionäre Backlash auf die antikapitalistischen Proteste jeweils eine anti-kommunistische/anti-anarchistische/anti-linke Schlagseiten annahm, so gibt es nun eine rassistische und spezifischer antimuslimisch-rassistische Reaktion. Die jugendlichen seien lediglich „Kanaken“, was als rassistischer slur für deklassierte Migrant_innen in Stellung gebracht wird. Der Riot sei u.A. ein „Zivilisationsbruch“, was gleichzeitig den deutschen Faschismus und die Shoa relativiert und die migrantischen Jugendlichen in die Nähe von islamistischen Faschisten rückt.

Vergleichbar ist der reaktionäre Backlash möglicherweise mit dem, der auf die Silvesternacht 2016 in Köln folgte. Während die Inhalte von Stuttgart und Köln grundlegend divergieren, einmal sich Widerstand gegen racial profiling in einen Riot und Looting verwandelt, das andere Mal es zu massenhaft sexistischen Übergriffen kommt, werden beide Male von reaktionärer Seite ein Angriff auf weißen Besitz konstruiert; Einmal auf den „Phantombesitz“ weiße Frauen, die als reproduktive Arbeiter_innen immer noch ein fiktiver Besitz für weiße Männer sein sollen, und einmal auf weiße Polizei & weiße Geschäfte, also Staat und Kapital. Gemeinsam ist dem Backlash die Konstruktion eines homogenen Bildes von rassifizierten Personen als „unzivilisiert“ und „gewaltvoll“.

Der Vorschlag des ehemaligen SPD-Vorsitzenden Sigmar Gabriel eine „Wir sind Polizei“-Kampagne zu schaffen, mag auf den ersten Blick nur absurd und grotesk erscheinen, bringt damit eigentlich nur der Status Quo des Rassismus in Deutschland genau auf den Punkt. Weniger als ein Jahr nach dem rassistischen und antisemitischen Terroranschlag von Halle und kaum 3 Monate nach dem rassistischen und antimuslimischen Terroranschlag in Hanau, ist die Polizei diejenige Gruppe, in der er sich wiederfindet und zu der er sich bekennen möchte. Die deutsche Polizei stützt den deutschen Staat und das deutsche Kapital. Mit diesen Institutionen möchten Sozialdemokraten gerne verschmelzen. Eine Kampagne „Wir sind #Migrantifa“ liegt nicht im Interesse der weiß-deutschen Sozialdemokratie, die vollkommen inkorporiert in den Staat als Wahrer von kapital-rassistischer Ordnung firmiert.

Berufsunfähige Polizist_innen und weiße Paranoia

Während in den USA nun eine breite Bewegung das Konzept des „Defundings“ (der Definanzierung/ Umverteilung von Polizeigelder in soziale Projekte) diskutiert, und von der radikale Linke bis zur Teen Vogue ( die Auflösung der Polizei gefordert wird, hängt sich der deutsche Diskurs an einer satirischen Polizeikritik vollkommen auf. Das niedrige und kleinbürgerliche Diskussionsniveau in Deutschland ist nun nichts Neues, führt in diesem Fall jedoch zu reichlich absurden Konstellationen, die außerhalb von einem Konzept weißer Paranoia wohl kaum mehr verstanden werden können.

Hengameh Yaghoobifarah hatte in einer Kolumne für die Tageszeitung „All cops are berufsunfähig“ (!5689584/) über das kontrafaktische Szenario eine Resozialisierung von faschistischen Polizist_innen im hier und jetzt nachgedacht; Und dabei immer wieder polemisch eingeworfen, warum diese auch beim z.B. Keramik-Tassenmalen noch gefährlich sein würden, wenn sie Hakenkreuze hineinritzen, und schließlich befunden, dass sie nur auf der Mülldeponie niemandem mehr schaden würden. „Spontan fällt mir nur eine geeignete Option ein: die Mülldeponie. Nicht als Müllmenschen mit Schlüsseln zu Häusern, sondern auf der Halde, wo sie wirklich nur von Abfall umgeben sind.“ Daraufhin zeigte die Deutsche Polizeigewerkschaft (DPolG) Hengameh Yaghoobifarah wegen angeblicher „Volksverhetzung“ [sic!] an, die CSU erstellte am 18. Juni auf Twitter einen hetzerischen Steckbrief. Es gab Morddrohungen gegen Hengameh Yaghoobifarah, der rechte Mob wütete.

Am 21. Juni kündige Horst Seehofer – wohl auch um den Riot in Stuttgart reaktionär auszuschlachten – an, Hengameh Yaghoobifarah auch als Innenminister anzeigen zu wollen. „Eine Enthemmung der Worte führt unweigerlich zu einer Enthemmung der Taten und zu Gewaltexzessen, genauso wie wir es jetzt in Stuttgart gesehen haben.“ Zynisch ist gewiss daran, das von einem Mann zu hören, der das Abendland gerne bis zu „letzten Patrone verteidigen möchte“ und seine Freude über Abschiebungen gerne öffentlich bekundet. Zynisch ist es weiterhin, dass es nie analoge Anzeigen gegen neonazistische, faschistisch-völkische und rechtsnationale Kolumnist_innen nach Hanau oder Halle, also realen (weißen) Terror, gab. Es ist auch nicht schwer auszumachen, dass eine Anzeigen wohl keinerlei rechtlichen Erfolg haben dürften, und nur zur Einschüchterung von Journalist_innen of Color dienen soll, die als diskursiver Arm der deklassierten Kanax für den Riot symbolisch zur Rechenschaft gezogen werden sollen. Zynisch ist aber auch, dass einer der mächtigsten deutsche Staatsapparate, das Innenministerium, diese politischen Einschüchterungsversuche für die CSU ohne weiteres androht. Der Staat, dein Mörder und Verleumder.

Während in den USA de facto die Polizeistation niederbrannte und eine Mehrheit der Bevölkerung diese Aktion unterstützte, entlud sich also der weiß-deutsche Volkszorn an einer Person of Color dafür nur nachgedacht zu haben, wie ehemalige faschistische Polizist_innen resozialisiert werden könnten. Auch die TAZ, wo der Artikel erschienen war, antwortete mit reaktionären Positionen, unter anderem durch die ehemalige Leiterin des Parlamentsbüro Bettina Gaus (!5691619/ ) und den heutigen Korrespondenten Stefan Reinicke (!5696446/).

Bettina Gaus geht in einem „liberalen“ Text, der die „Menschenwürde“ der Polizei [sic!] verteidigen will, soweit Solidarität mit der Kolumnist_in als „Korpsgeist“ zu diffamieren. (!5691619/) Patrick Bahners von der FAZ hatte in einem viel beachteten Thread eine ausführliche Verteidigung der Kolumne geschrieben und dargelegt, inwiefern sie nur heutige Gewaltverhältnisse einmal im Sinne der Geknechteten umkehre. ( Er kam allerdings nur zu dem Schluss, dass Gaus aus „Arroganz und Opportunismus“ handeln würde. Dies ist zwar richtig, kann aber nicht den eigentlichen Inhalt ihres Textes erklären. Dieser will zwar gewiss die politisch und sozioökonomisch die TAZ schützen, sich bei Polizei und Staat anbiedern sowie empörte Abonent_innen befrieden, ist aber auch ein dezidierter Punkt in einem inneren Machtkampf bei der TAZ gegen Journalist_innen of Color, die sich nicht an deutsche Diskursstandards halten würden.

Deutlicher wird dies noch beim Text von Stefan Reinicken. Dieser versucht in einem sozialdemokratisch-klassenreduktionistischen Text nämlich nachzuweisen, dass Identitätspolitik neoliberal sei, Diskussionen potentiell verunmöglicht und in die „Barbarei“ [sic!] führe. Das Ganze gipfelt bei ihm in den völlig abstrusen weißen Tränen, „als schwuler, urbaner Migrant“ ließe „sich auf den Aufmerksamkeitsmärkten mehr Kapital generieren als mit einem Dasein als Normalo in Eisenhüttenstadt“. Der durchschnittliche schwule, urbane Migrant hat übrigens niemals den gleichen öffentlichen Einfluss wie der TAZ-Redakteur mit der Macht seiner weiß-männlichen Journo-Netzwerke. Aber alleine die imaginierte Macht führt bei diesen linksliberalen Weißen anscheinend zu massiver Angst und Paranoia. Diese Positionen lassen sich somit nicht nur als chauvinistische Machtausübung, sondern auch als Verteidigung von weißen Privilegien begreifen.

Anti-Identitätspolitik als reaktionäres Derailing

Dieses Diskussionsmuster dürfte aus den #Metoo-Debatten der letzten Jahre schon sehr bekannt sein. Während männliche Gewalt in Deutschland fast jeden 2 Tag eine Frau tötet, hatten liberale und konservative Positionen öfter ein schwerwiegenderes Problem damit, dass sexistische Gewalt als Abfall bezeichnet wurde. Die Twitteruserin #Zugezognovic wurde für einen entsprechenden Tweet, dass Männer Abfall seien, von Springer-Journos sogar angezeigt. Auch damals gab es kaum rechtliche Aussichten für einen Sieg vor Gericht, aber die Einschüchterung und Verleumdung einer migrantischen Frau wurde durch Welt-Redakteure auf eine neue Ebene gehoben. (

Das Thema der sexistischen Gewalt wurde versucht durch einen liberalen „die Menschenwürde von sexistischen Gewalt ist unantastbar“-Diskurs und einen reaktionären, mal konservativen, mal sozialdemokratischen, mal antideutschen „Identitätspolitik ist fundamentalistisch“-Diskurs zu derailen ( In ähnlicher Weise wird nun also versucht die Themen Polizeigewalt und Rassismus zu derailen. Stattdessen wird versucht darüber zu sprechen, dass auch „die Menschenwürde von Polizei-Gewalt unantastbar“ ist. In der Version von Sigmar Gabriel wird damit nämlich auch das „Wir“ der weißen Volksgemeinschaft angegriffen. Das, was leider auch linksradikale Klassenreduktionisten an anti-identitätspolitischen (oder weißen und männlichen identitätspolitischen) Diskurs-Mechanismen mit vorbereitet haben, kann nun ebenso appliziert werden.

Richtig ist natürlich zu sagen, dass nicht nur die einzelnen Polizist_innen berufsunfähig sind, wie es die satirische Kolumne spielerisch darlegt. Die rassistische Polizei exekutieren eher nur das, was Staat und Produktionsstandort als Anforderungsprofil an ihre Schergen stellt. Die Polizei ist nicht eine rassistische Institution, weil sie primär besonders viele rassistisch Bewusstsein akkumuliert, sondern weil die Personen für den Staat permanent rassistisch agieren müssen. Dass das in der Folge auch rassistische und völkische Charaktere anzieht ist eine logische Konsequenz. Dies ist doch die einzige legitime Kritik an dem Text, der in einer eher idealistischen Weise das Bewusstsein der Polizei kritisiert, nicht das Zustandekommen dieses Bewusstseins in seinen materiellen Bedingungen. (Aber hey es ist eine offensichtlich eine satirische Kolumne für alle die unter Polizeigewalt leiden, kein Essay über die historische Funktion der Polizei für Staat und Kapital.)

Schwarze Tote und weiße Tränen

Während das weiße Feuilleton begann erbitterte Tränen zu weinen über den „Angriff“ auf die deutsche Polizei durch eine Kolumne, erschoss diese fast zeitgleich zwei BPOC, eine in Emsland und eine in Bremen. Während die Polizei behauptet in Selbstverteidigung geschossen zu haben, gibt es zumindest in Bezug auf den Mord an Mohammed Idrissi, die erschossene Person in Bremen, Videoaufnahmen, die zeigen, dass er erst mit einem Messer auf die Polizei zulief als diese ihn mit Pfefferspray angegriffen hatte. Mohammed Idrissi litt anscheinend unter einer psychischen Erkrankung und sollte aus seiner Wohnung vertrieben werden. Mehr Informationen gibt es unter dem Account:, eine Solidaritätsdemonstration gibt es in Bremen am Samstag, dem 27.6.

Wahrscheinlich wird es kaum aufgebrachte Feuilleton-Text geben, die Mohammed Idrissis Tod in der gleichen Weise anklagen und betrauern, wie nun der Riot in Stuttgart oder gar nur die satirische Kolumne in der TAZ angeklagt wird. Weiße Diskusstandards und weiße Fensterscheiben werden für das weiße Feuilleton immer mehr wert sein als migrantisches und Schwarzes, deklassiertes von Ableismus betroffenes Leben. Es liegt nicht daran, dass die meisten Redakteur_innen Trash sind, was sie natürlich auch sind, sondern daran, dass auch liberale Zeitung eine Funktion erfüllen zur Aufrechterhaltung von Staat und Kapital. Was Polizeikritik darf oder nicht, einmal die Polizeistation niederbrennen und einmal nicht über die Resozialisierung von Fascho-Cops nachdenken, ist letztlich keine akademische Frage, sondern eine Frage der Kräfteverhältnisse. Je höher die migrantische und Schwarze Selbstorganisierung und je höher das Klassenbewusstsein sind, desto mehr Kritik ist möglich.

Wenn ein Joint einen Riot auslöst Wed, 24 Jun 2020 11:00:59 +0000

Linke und Staatsapparate rätseln über die Ursachen einer Stuttgarter Straßenschlacht, die an die Schwabinger Krawalle erinnert. Kommentar

Straßenschlachten in Stuttgart? Da reiben sich viele die Augen. Denn die Hauptstadt von Baden-Württemberg gilt gemeinhin nicht als Zentrum von politischen Unruhen. Dabei wird vergessen, dass in der Stadt am 30. September 2010 friedliche Demonstranten durch Polizeigewalt schwer verletzt wurden, ein Demonstrant verlor sogar ein Auge.

Damals ließ eine CDU-geführte Landesregierung den Stuttgarter Schlossgarten räumen, wo sich Gegner des Bahnprojekts Stuttgart 21 versammelt hatten, das auch heute noch die Innenstadt als Großbaustelle prägt. Ob einige der Menschen, die sich an den Riots am vergangenen Samstag in der Stuttgarter Innenstadt beteiligt haben, auch Teil der Gegnerschaft zu Stuttgart 21 sind, ist nicht bekannt, aber wahrscheinlich.

Schließlich war die Bewegung gegen Stuttgart 21 über Jahre in der Region prägend. Dass unter einer grünen Regierung das Projekt doch noch realisiert wird, weil sich die Bewegung von Politikern wie Heiner Geissler und Co. eine Gesprächstherapie und einen Volksentschied aufschwatzen ließ, ist für eine ganze Protestgeneration zu einer schmerzliche Erfahrung geworden. Eine kleine Gruppe von S21-Gegnern machte weiter mit den Protesten, ein anderer Teil hat sich aus der politischen Arbeit in die Eventkultur zurückgezogen.

Wenn schon selbst eine große Bewegung es nicht schafft, ein Projekt wie S21 zu verhindern, warum sich dann politisch engagieren, dachten sich viele und prägten damit auch jüngere Menschen. Wenn sie schon nicht für politische Veranstaltungen auf die Straße zu bringen waren, das Feiern wollten sie sich nicht verbieten lassen. So konnte aus einer aufgelösten Party schnell mal ein Riot werden wie in den letzten Tagen. Der unmittelbare Anlass war eine Polizeimaßnahme gegen Jugendliche, die einen Joint rauchten, wie das Hanfjournal erklärte.

Was der Corona-Notstand mit dem Riot zu tun hat

In dem Magazin wird sachlich und ohne Schaum vor dem Mund das politische Klima skizziert, das den Riot möglich machte.

Umso mehr gilt das dieses Jahr, denn die Coronapest steckt uns allen in den Knochen und ganz Deutschland freut sich endlich mal "mit allen Vorsichtsmaßnahmen" raus zu dürfen. Die Politik will das. Wir sollen konsumieren, damit die Wirtschaft nicht zusammenbricht. Natürlich fließen 100erte Hektoliter Bier, Wein und Schnaps. Niemand fragt nach, wieviel Schaden durch den Alkoholkonsum in dieser Nacht entsteht. Es gehört nun mal zur Deutschen "Leidkultur", dass Alkohol eine gute Droge ist. Wie viele deutsche PolitikerInnen sind "Botschafter des Bieres, des Weins des Suffes"? Andere Drogen sind es nicht. Insbesondere Cannabis, das von ca. 15% der Bevölkerung regelmäßig konsumiert wird, wird gnadenlos verfolgt. Die Polizei geht gegen dieses jährlich millionenfach vor.

Aus Hanfjournal

Dort wird auch erklärt, dass viele Jugendliche nicht nur in Stuttgart Erfahrungen mit Polizeigewalt machen, die in den letzten Wochen in den USA zu großen Auseinandersetzungen führten.

Unzählbare Durchsuchungen & Körperkontrollen jedes Jahr, denen ungefähr 100.000 jährliche Verfahren folgen, sind aktenkundig und können nicht geleugnet werden. Insbesondere die jüngere Generation weiß genau, was Ganzkörperkontrolle bedeutet und kennen das Gefühl, wenn ihnen ein uniformierter Mensch von hinten befiehlt: "Und jetzt bitte die Pobacken auseinander" - Ja, sich in der Allerwertesten reinschauen lassen, ist erniedrigend - für das Opfer und auch für den/die Täter.

Aus Hanfjournal

Eine Jugend, die sich nach den coronabedingten Einschränkungen das Feiern nicht verbieten lassen will und auch nicht einsieht, dass ein Joint geahndet wird, hat durchaus über ihre sozialen Netzwerke mitbekommen, wie sich ihre Alterskohorte in den USA gegen Polizeigewalt wehrt.

In den letzten Wochen gab es auch viele Proteste in Deutschland. Dort ging es nicht nur um Polizeigewalt in den USA, sondern auch in Deutschland. Davon sind oft in erster Linie junge Menschen betroffen, die auf den ersten Blick nicht in das "deutsche Reinheitsbild" passen. Doch es sind auch junge Menschen darunter, die feiern wollen und die Polizei nicht dabei haben wollen.

Und dann treffen sie auf Menschen wie den Wissenschaftskabarettisten Vince Ebert, die den Protestierenden vorwerfen, ihr antirassistisches Engagement nur zu simulieren und mit der Freiheit nicht umgehen zu können. Es ist erfreulich, dass sich von solchen Moralpaniken die Jugendlichen in Stuttgart nicht beeindrucken ließen.

Erinnerung an die Schwabinger Krawalle

Nun rätseln die Staatsapparate, Politiker aller Parteien, aber auch manche Linken, wer denn jetzt die Jugendlichen waren, die sich gewehrt haben. Innenminister Seehofer versuchte gleich eine polizeikritische Kolumne in der Taz dafür verantwortlich zu machen, obwohl sicher ein Großteil der Rioter nie von der Taz gehört haben, vom Schwarzen Donnerstag der Polizeigewalt in Stuttgart vor 10 Jahren schon eher.

Kaum jemand dürfte an die Schwabinger Krawalle gedacht haben, als, fast auf den Tag genau vor 58 Jahren, am 21. Juni 1962, eine Polizeiaktion gegen musizierende Jugendliche zu einem tagelangen Riot in der bayerischen Hauptstadt führte.

In einem Beitrag des Bayerischen Rundfunks wird die Atmosphäre geschildert, die zu den damals vielbeachteten Unruhen der "Halbstarke" genannten Jugendlichen führte:

21. Juni 1962, München Schwabing. Musik liegt in der Luft: Der Sommerabend ist lau, und ein paar Jugendliche mit akustischen Gitarren haben noch keine Lust, nach Hause zu gehen. Man spielt russische Volkslieder und findet auf der Leopoldstraße bald ein paar Dutzend geneigte Zuhörer. Doch die Anwohner fühlen sich von den Straßenmusikanten in ihrer Nachtruhe gestört. Sie rufen die Polizei. Um 22.35 Uhr fährt laut Protokoll der erste Funkstreifenwagen vor. Die lässigen Lockenköpfe empfangen die uniformierten Beamten mit Pfiffen und Buhrufen. Von da an schaukeln sich die Ereignisse hoch: Es wird die erste von insgesamt fünf Nächten, in denen sich die Polizei durch die Münchner Innenstadt prügelt. Als "Schwabinger Krawalle" werden die Straßenkämpfe in die Annalen der bayerischen Landeshauptstadt eingehen - und zwar als ein besonders unangenehmes Kapitel: Es sind fünf Nächte, in denen die Obrigkeit zuschlägt, im Nachhinein aber selbst zu Kreuze kriechen muss.

Bayerischer Rundfunk

Freizeit ohne Kontrolle

Die Berichte zeigen, dass sich zwar 58 Jahre später sehr viel im Bereich von Kommunikation und Technik verändert haben mag, das Unbehagen einer Jugend an dem autoritären Gebaren von Staatsapparaten aber ist geblieben. Die "Schwabinger Krawalle" sorgten für viel Aufmerksamkeit, weil damit Jugend im Kapitalismus als eigenständiges Subjekt erst entdeckt worden war. In den USA stand dafür der Schauspieler James Dean.

Der Begriff der Halbstarken machte die Runde und der Kapitalismus begann diese Generation als potentielle Kunden zu entdecken. Der Politikwissenschaftler David Templin sieht in den Schwabinger Krawallen denn auch den Beginn einer Entwicklung, die zur bundesweiten Jugendzentrumsbewegung führte, wie er in seinem Buch "Freizeit ohne Kontrollen. Die Jugendzentrumsbewegung in der Bundesrepublik der 1970er Jahre" darlegt.

Daran hat sich in den letzten Jahrzehnten so viel nicht verändert. Wie die Schwabinger Krawalle waren auch die Stuttgarter Riots nicht un- sondern "vorpolitisch". Nicht wenige der jungen Akteure der Schwabinger Krawalle waren Jahre später in der außerparlamentarischen Bewegung aktiv.

takem from here

Measure, machine, money Mon, 22 Jun 2020 09:17:39 +0000

The aim of the text is to clarify why machines are economically productive only in capitalism and therefore in our society are capitalistic machines. They are capitalist not only because they increase the productive power of the capitalist valorisation, but this valorisation first of all is producing these machines, or at least it produces their productivity and hence ‘the machinic’ of machines. To understand this production of the machinic, we must understand them, as, for example, Heidegger, Simondon or Deleuze and Guattari have shown, from their context: from their non-technical essence, from their connection with other machines and from the social essence of the machinic. But in this context, first of all and in the last instance, we have to understand with Marx their entanglement with the capitalist valorisation. This can be shown for three different types of machines:
the physical machine, the calculation machine and the social machine: money. What all three have in common and almost defines them as machines is that all three naturalise relations by quantifying them. The classical physical machine quantifies the relation of nature, the calculation machine quantifies information and meaning, and the money machine quantifies the relations of our society. I will concentrate on the physical and the money machine only. The technique to quantify is for both the same: measurement. This quantification and naturalisation by measurement is why both are – although or especially because they are opposed types of machines – interfaces to the capitalist valorisation process, and in this functioning as interfaces, we have to search their non-technical essence.

read here

An/Greifbar: Warum BerlinerInnen gegen die Big-Tech-Kolonialisierung ihrer Stadt aufbegehren Sat, 20 Jun 2020 08:17:23 +0000

Unternehmen aus dem Silicon Valley haben seit den 1990er Jahren eine globale Expansion realisiert, die den Kapitalismus als solchen weitreichend transformiert. Die hier dem Profitstreben untergeordnete “digitale Revolution” hat von Anfang an auch Fragen zur Transformation der Stadt aufgeworfen. In diesem SILENT WORKS Interview sprechen Magdalena Taube und Krystian Woznicki anlässlich der Berlin vs. Amazon-Initiative mit dem Aktivisten und Stadtforscher Jochen Becker / metroZones - Zentrum für städtische Angelegenheiten.


Die zunächst utopisch gefärbte Transformation der Stadt im Zeichen der “digitalen Revolution” – wie etwa in “City of Bits” (1995) beschrieben – ist Wirklichkeit geworden. Auch in dem Sinne, dass dafür in den letzten Jahren ein kritisches, politisches Bewusstsein entstanden ist, das über die Zirkel der so genannten Netzgemeinde hinausgeht. Wie haben Sie die Herausbildung dieses Bewusstseins wahrgenommen?

Ich hatte das technoeuphorische Buch City of Bits kürzlich erst gelesen und war erstaunt, wie viele „Prophezeiungen“ eingetreten ist, wenn auch über 20 Jahre später. Man sollte dabei nicht vergessen, dass es schon früher kritische und auch über kleine Zirkel hinaus reichende Debatten zu den gesellschaftspolitischen Fragen an Tech gegeben hat. Die ebenfalls 1995 gegründete nettime-Liste, die viel rezipierte Kritik am Silicon-Valley-Kapitalismus The Californian Ideology von Richard Barbrook und Andy Cameron (ebenfalls 1995) oder auch die Aktivitäten von BüroBert, minimal club (Anti-Weibel, geld*beat*sythetik*) und der Shedhalle Zürich (when techno turns to sound of poetry, Game Girl) noch etwas früher haben damals die Fragen über die Tech-Gemeinde hinaus in die kritische und kulturaffine Linke hineingetragen.

Wichtig war dabei schon immer der ChaosComputerClub – in den 1990ern gemeinsam mit urbanistischen Kulturinitiativen in einem Gebäude in der Kronenstraße. Zudem wurden mit der ‚Digitalen Stadt’ oder – anfangs weit unkritischer – mit der Telepolis (ein Ausstellungs- und Konferenzprojekt von Florian Rötzer und dem Burdakonzern) auch digital-urbane Modelle diskutiert. Verrückt: fast alles startete 1995…. Und landete so gegen 1999ff. im Mülleimer des New Economy-Crashs. Schon damals sah man Tech-Etagen in Kreuzberg kurz aufblühen und kollabieren. Aber es stimmt: Der Feuilleton-getriebene „Tech-Lash“ ist ein Phänomen der letzten Jahre.

Heute wird unter dem Stichwort ‚Tech-Urbanismus’ weit umfassender als früher auf den Verwertungszusammenhang von Tech und Stadt geachtet, auch weil sich dies nun massiv in Form von Gebäuden, Verdrängung, Geschäftsmodellen oder bullshit jobs materialisiert. Für metroZones wurde die „Kreativ-Industrie“ konkret (in concrete) greifbar mit dem Bau des Aufbau-Hauses neben einem Cluster aus Co-Working-Space, Prinzessinnengarten und Hinterhofklitschen rund um den Moritzplatz. Bezeichnenderweise hat die Stadt in direkter Nachbarschaft die breitenbildungs-orientierte Bona Peiser Stadtteilbibliothek zeitgleich abgewickelt.

Aktuell wären die Kämpfe gegen den ‚Google-Campus’ oder gegen den ‚Amazon-Tower’ zu nennen, die gerade mit Bezug auf die urbanen Spaltung in der Bay Area viele BewohnerInnn der Technopolis im doppelten Sinne auf die Straße drängt.

Es scheint, als würde man erst heute die dystopischen Visionen der Cyberpunk-Literatur der 1980er und 1990er – die immer auch Stadt-Dystopien waren – erst richtig verstehen und würdigen können…

Ich habe den Boom der dystopischen, meist in Serie gegangenen „Hollywood“-Filme wie ‚Terminator’ (1984/1991), ‚RoboCop’ (1987/1990), ‚Die Hard’ (1988/1995), ‚Total Recall’ (1990), bis hin zu ‚Matrix’ (1999) oder auch ‚Blade Runner’ (1982) als extrem lehrreich in Erinnerung behalten: Endlich gab es ‚Bilder’ für die kommenden Verhältnisse. Die beiden ersten ‚RoboCop’-Filme empfand ich geradezu als Lehrfilme, wie Immobilienbusiness, Transformation der Industrie in Richtung Robotik, repressive urbane Regierungspraxen und Drogenökonomie zusammenhängen. Und mit ‚Die Hard’ erkannte man, was „smarte“ Haustechnik und polizeiliche Überwachungstechnologien damals schon so alles in der Pipeline hatten. Dagegen war die Futurologie von ‚City of Bits’ geradezu ein Schaumbad.

Das neue, erweiterte Tech-Bewusstsein außerhalb von Tech-Kreisen ermöglicht Klarheit: Woran lässt sich heute, modellhaft gesprochen, eine Transformation der Stadt unter dem Einfluss eines Kapitalismus im Zeichen der Silicon Valley Big Tech Unternehmen erkennen? Was wären Indikatoren und zentralen Probleme?

Mein Aha-Moment war das Statement eines Automobil-Chef, dass Mercedes in Zukunft seine Umsätze nicht mehr mit der Autoproduktion, sondern mit den durch die Autos generierten Daten machen wird. Wir erinnern uns: Die deutsche Automobilindustrie wurde ja im Zuge des Diesel-Skandals als „too big to fail“ angesehen – ohne Automobilindustrie und deren Zuliefer- und Logistikketten gäbe es vermutlich keinen bundesdeutschen Wohlfahrtsstaat.

Autopilotiertes Fahren braucht Rechnerkraft, Sensoren, Daten-Vernetzung, Algorithmen und eine ‚work force’, die all diese Daten zu Karten, Werbung, Anti-Kollisionen und unabsehbar anderen datenextrationsgetriebenen Geschäftsmodellen zusammenrechnen. Hinzu kommt nun alles, was sich in der Stadt bewegt, vom Google-Phone über BerlKönig bis zum Roller. Insbesondere die Stadt wird zum hochverdichteten Datenraum, wo wir alle in Echtzeit gemolken werden: Gegen das permanente Abscannen und Kartieren der Stadt von Innen und Außen, beim Einkaufen, Joggen oder Reisen ist Googles Streetview eine Fußnote der Geschichte. Was alleine meine 19-Euro-Uhr so alles (mit mir) macht, nur weil ich meinen hohen Blutdruck im Augen behalten wollte, ist atemberaubend.

Dann ist die Stadt – und das zeigt ja der heftige Run der Start Ups und Unicorns auf San Francisco, New York, Shenzhen oder Berlin – ein Ballungszentrum der ‚work force’, die all das erst entwickeln sollen. VW und Tesla lassen längst schon in Berlin Werte schöpfen, während der Dreck der Fabrikation in Wolfsburg, Izmir oder Grünheide verbleibt.

Die ‚urban professionals’ wollen wohnen, essen, beliefert werden, was eine bis weit nach Polen reichende urbane Logistik (von Amazon Prime bis Delivery Hero) zu bewerkstelligen hat. Das eingenommene Geld kommt nicht mehr nur auf die N26-Bank oder zum RoboAdviser, sondern wird in Betongold gegossen, was die Verkoppelung von Finanz- und Immobilien-industriellem Komplex künftig so explosiv werden lässt.

Wie verhält sich diese Transformation zum internationalen Siegeszug der Smart City? Worin bestehen Gemeinsamkeiten, bzw. Unterschiede?

Noch gar nicht die Rede war vom chinesischen „Sozialkredit“-System, wo Überwachungskapitalismus und Überwachungsstaat die Daten im Sinne des Strafens und Belohnens zusammenführen wollen. In der aktuellen Corona-Viren-Krise müssen sich nun alle Reisenden registrieren lassen, damit – so die Argumentation – auch im Nachhinein potentiell Infizierte identifiziert werden können. Diese Maßnahme wird – so nehme ich an – auch nach der Gesundheitskrise aufrecht erhalten bleiben.

Konkurrenzdruck übt das „Sozialkreditsystem“ als extrem reicher KI-Daten-Pool auch auf den ‚liberal-demokratischen’ Westen aus, da China über Extraktionen von über einer Milliarde Menschen verfügen kann und so Deep Learning etc. füttert. Gerade verdichtete Agglomerationen sind also Platin-Minen für den autoritären Kapitalismus der Zukunft – insofern erscheinen mir gegenläufig Bewegungen wie in Barcelona, ein Commoning-Modell der Datengewinnung und –prozessierung abseits von Industrie UND Staat zu etablieren, als völlig richtig.

Wo, außer rund um das Silicon Valley herum, zeichnen sich solche Transformationen der Stadt heute? Wo sind sie bereits vollzogen, wo emergieren sie? Wo werden sie (noch nicht) bekämpft?

Chinesische Millionenmetropolen sind neben der Bay Area, New York City oder Israel/Palästina sicherlich einer der wichtigsten Testfelder für Tech-Urbanismus. Hierbei bildet Hong Kong – also eine ehemals britische Kolonie auf dem politischen Pfad in Richtung Mainland China – ein aktuelles Zentrum des Widerstands. Wie der Schweizer Netzökonom und Investigativ-Reporter Hannes Grassegger in seinem Vortrag ‚Hongkong-Proteste – Die Smart City als Feind’ kürzlich deutlich machte, werden die Massenproteste taktisch innovativ sowohl on- wie offline geführt.

Grassegger zeigte Bilder, von gegen Videoobservation durch Regenschirme geschützte Militante, wie diese sogenannte Smart Lampposts umsägten. Das Bild erinnerte mich an die Pariser Commune, wo nach einer Initiative des Malers Gustav Courbet 1871 die Vendôme-Säule mit Napoleon auf der Spitze zu Fall gebracht wurde. Nur wird in Hong Kong nicht mehr nur ein Herrschaftssymbol gestürzt, sondern ein „smartes“ Gerät, gespickt mit Sensoren, welches das städtische Umfeld multiple abdeckt: „Die angebliche Stadt der Zukunft wird zum Feind ihrer Bewohner*innen. Die persönliche Zukunft vieler Bürger*innen Hongkongs hängt davon ab, ob sie die Informationsflüsse über ihr Verhalten Richtung China stoppen können.“

Wenn ich hier noch eine Nachbemerkung machen darf: Ich rate, die „Smart City als Feind“ genau so zu betrachten, und nicht – wie es die ansonsten von mir sehr geschätzte Linken-Politikerin Katalin Gennburg immer wieder publiziert und äußert – den Begriff positiv besetzen zu wollen. Meiner Einschätzung nach ist ein Hegemonie-Kampf um den eh blöden Begriff ‚Smart City’ nicht (mehr) zu gewinnen.

Zu den Transformationen der Stadt unter dem Einfluss eines Kapitalismus im Zeichen der Silicon Valley Big Tech Unternehmen gehört auch eine veränderte Wahrnehmung und Valorisierung von Arbeit. Ein zentrales Anliegen des BG Jahresthemas 2020, das unter dem Titel Silent Works steht, besteht darin, aufzuzeigen, dass Arbeit Teil der Transformation ist, statt einfach nur zu verschwinden. Anders gesagt: Wenn die Rede vom Verschwinden der Arbeit, ermöglicht, das Unsichtbarmachen von Arbeit und von Arbeitsbedingungen zu verschleiern, was lässt sich dann – auf die Transformationsprozesse der Stadt blickend – in puncto Arbeit und Arbeitsbedingungen sichtbarmachen?

metroZones hat in Kooperation mit dem Düsseldorfer Forschungsprojekt Stadt als Fabrik in der HAU-Veranstaltung Stadt als Byte neben den krassen Ausbeutungs- und Wohnverhältnissen der „Arbeiterklasse“ in der Bay Area auch die Arbeitskämpfe der Gig-Economy erkundet. Der Organizer Clemens Melzer von der unabhängigen Deliverunion sowie der Fahrrad-Lieferant „Jacek“ berichteten vom digitalen Gängelband der algorithmischen Arbeitstaktung – so wie dies ArbeiterInnen bei Amazon ebenfalls berichten. Zudem haben wir die Standorte der Start-Up-Industrie mit den Mietpreissteigerungen aug dem Wohnungsmarkt auf einer digitalen Karte visuell zusammengeführt. Insofern wird die „Materialität“ von „Tech-Work“ durch Bauten, Protestaktionen und deren performatives „mapping“ spürbarer und sichtbarer. Das Cluster rund um das Aufbau-Haus am Moritzplatz oder später das Gebäude für den geplanten Google-Cmpus machte diese an/greifbar.

Welchen Stellenwert haben Arbeitskämpfe für die neuen politischen Bewegungen, die sich dem Silicon Valley-Urbanismus entgegenstellen? Inwiefern stellen Arbeitskämpfe einen gemeinsamen Nenner aller beteiligten AkteurInnen bzw. einen entscheidenden Verbindungspunkt unter ihnen dar? Anders gefragt: Taugt die Marx’sche Kategorie ‘Labor’ zum Bindemittel für die emergierende multi-issue Bewegung, die etwa in Berlin aktuell unter dem Banner Berlin vs. Amazon mobil macht?

Bei Berlin vs. Amazon versuchen wir nicht nur, den ‚Amazon-Tower’ an der Warschauer Brücke zu verhindern, sondern die Kämpfe der „Techworker“ zusammenzuführen und zu politisieren. Die Techworker’s Coalition versammelt (zumindest theoretisch) vom Programmierer bis zur Pickerin in einem „Fullfillment Center“ am Rande der Metropolen alle Klassen von Techies, und dazu gehören meiner Ansicht nach auch die Auslieferdienste. Innerhalb der ‚Berlin vs. Amazon’-Kampagne selbst arbeiten viele im IT-Bereich und argumentieren also mit ihrem Wissen auch von Innen heraus. Und wir haben Kontakt zu Amazon-ArbeiterInnen in den „Fullfillment Centern“ von Leipzig und Bad Hersfeld bis nach Posznan. In Polen arbeiten ca. 20.000 Leute bei Amazon und meist in miesen Zeitarbeits-Verträgen, jedoch kann man in Polen gar nicht bei Amazon bestellen.

Das heißt, dass 20.000 ArbeiterInnen dazu da sind, gegen Streiks oder Staus den deutschen Markt zu beliefern. Als ich davon zum ersten Mal hörte, wollte ich es gar nicht glauben…. Aber auch der Tech-Kampf gegen die Verwertungen der Immobilien-Industrie kann durchaus geteilt werden: Einige der polnischen Amazon-AktivistInnen leben in besetzen Häusern. Der Konflikt um die Plattform-Ökonomien ist also reich an möglichen neuen Zusammenhängen und solidarischen Brücken in einer durch die neoliberalen Aufspaltungsdynamiken atomisierten Gesellschaft. In Zukunft müssen und können Mieten-, Tech- oder Arbeitskonflikte zusammen gedacht werden. Wie man hört, soll die 1.-Mai-Demo auch zum Bauplatz des Amazon-Towers geführt werden. Was machen die Gewerkschaften, was die Mieterinitiativen, und was die selbstkritischen Start Ups?


Das Berliner Gazette Jahresthema 2020 untersucht die weitreichende Vermischung von KI als Fantasie und KI als Technologie des Kapitalismus und sucht nach Antworten auf die folgende Frage: Was passiert mit Arbeit im KI-Kapitalismus? Neben einer Text- und Interviewserie, organisieren wir eine Ausstellung und eine Konferenz zum Thema. Mehr dazu hier:

Über Jochen Becker

Arbeitet als Autor, Kurator sowie Dozent und ist Mitbegründer von metroZones | Center for Urban Affairs sowie der station urbaner kulturen. Zuletzt kuratierte er "Chinafrika. under construction" (steirischer herbst, Graz, 2015 & 2016, Galerie für Zeitgenössische Kunst Leipzig, Chinafrika. mobile Kunstfest Weimar 2017, Chinafrika.
blackout Shenzhen Bi-City Biennale of Urbanism/ Architecture 2017/18, Kunstraum im Konfuzius-Institut Nürnberg 2019). Zur Zeit berät er kulturpolitisch, konzeptionell und kuratorisch den Umzug des Düsseldorfer Theaters FFT und entwickelt dort das Projekt "Stadt als Fabrik" sowie "Place Internationale" (2017-21). Zu seinen Publikationen als Autor bzw. Herausgeber zählen: "Copyshop - Kunstpraxis & politische
Öffentlichkeit" (1993), "BIGNES?", "Metropolen" (2001),
"Space//Troubles" (2003), "Hier Entsteht" (2004), "Self-Service City: Istanbul" (2004), "Kabul/Teheran 1979ff" (2006), „Global Prayers“(2014), „Stadt als Fabrik“ (2018) oder „Moments of Rupture“ (2014).

Über metroZones

metroZones – Zentrum für städtische Angelegenheiten hat sich 2007 in Berlin als unabhängige Vereinigung für kritische Großstadtforschung gegründet. An den Schnittstellen zwischen Kunst, Wissenschaft und Politik kombiniert metroZones in seinen Projekten Ansätze der Forschung und Wissensproduktion, kulturelle und kuratorische Praxen sowie politische Interventionen. Ziel ist die öffentliche Thematisierung – und Politisierung – urbaner Belange, Alltagswelten und Konflikte. Dabei setzt metroZones auf transnationale, disziplinüberschreitende und institutionelle Kooperationen. Die Expertise speist sich aus der langjährigen, disziplinär wie regional aufgefächerten Erfahrung seiner Mitglieder: Jochen Becker (Kurator und Kritiker), Christian Hanussek (Künstler und Kurator), Anne Huffschmid (Kulturwissenschaftlerin und Autorin), Stephan Lanz (Stadtforscher und Kurator), Diana Lucas-Drogan (Künstlerin und Architektin), Oliver Pohlisch (Kulturwissenschaftler und Journalist), Katja Reichard (Buchladen Pro qm), Erwin Riedmann (Soziologe und Informatiker), Kathrin Wildner (Stadtethnologin und Kuratorin). URL:

Black Hole Materialism Fri, 19 Jun 2020 11:35:06 +0000

Christopher Neil Gamble University of Washington

Thomas Nail University of Denver

Abstract: The Euro-Western tradition has long considered matter to be essentially non-relational, passive and mechanical. Matter, that is, is thought to consist of elementary particles that remain internally unchanged while moving inside of, or against, an equally unchanging or fixed background of space, time, or both. Consequently, matter’s behavior has been seen as obeying—either fully or probabilistically—preexisting and invariant natural laws.

In our paper, we first take a brief tour through three major traditions of Western materialism in order to demonstrate how this basic picture has remained remarkably stable up to the present. We then argue that recent physics research and quantum gravity theorizing about black holes provide an unprecedented opportunity to revolutionize our understanding of matter by understanding it as inherently relational, indeterminate, and generative. Our aim in doing so is to show that black hole physics has enormous interdisciplinary consequences for the history, philosophy, and science of materialists.

I. The History of Materialism

Classical Mechanics. The first major Euro-Western tradition of materialism was Greek atomism. As is well known, Leucippus, Democritus, and Epicurus all taught that all things—from the biggest stars to the smallest insects or speck of dirt—are formed by the collisions, compositions, and decompositions of tiny, discrete, and indivisible “atoms”[1] careening perpetually through a vast spatial void. Eternal and unchanging, the atoms’ only differentiating attributes were their varying shapes and sizes, which enabled them to join together into countless combinations that resulted in the full scope and diversity of the perceptible world at large. For Leucippus and Democritus, these fundamental particles moved only along unique predetermined trajectories, whereas in Epicurus they occasionally swerved spontaneously onto others. In finding reality to have a fundamentally closed, immutable nature, however, both accounts nevertheless maintained the very same mechanistic conception of matter and its relationship to void or space.

For the atoms, that immutability results in a rather profound irony. Ostensibly, those constituent elements produce all of perceptible reality. Nevertheless, the full range of possible atomic compounds—and hence, of resulting sensible objects—preexists any compound’s realization and so remains just as eternally fixed and unchanging as the atoms own pre-given shapes and sizes. Certain combinations invariably result in lead, for example, whereas others result just as invariably in iron.[2] Accordingly, then, whether they were capable of swerving or not, the atoms exerted zero creative agency over the character of their own productions. Instead, they remained essentially non-generative, non-relational vessels that “create” merely by passively realizing preexisting possibilities.

A similar situation obtains in relation to the immutable (non-)nature of what the atomists called “void.” An infinite background emptiness that persists to a greater or lesser extent in (or as) the space between atoms, void also in fact plays an integral role in constituting the sensible world. For example, in explaining lead’s relatively greater density than iron, Democritus argued that the atoms of the former fit more closely together, and thus permit less void between them, than do those of the latter.[3] As this example illustrates, both metals reliably possess their respective defining properties only on condition that void (a) lacks any positive characteristics of its own (which could differentially interact with the atoms) and (b) remains utterly unaffected by the movements and combinations of the atoms that occur in or through it.

Taken together, the atomists described reality as a closed or bounded system whose productions could be exhaustively explained in terms of specific effects following necessarily and absolutely from particular causes. In doing so, they also positioned themselves as external, objective observers of that closed system, which remained unchanged by their observations of it. From that vantage, they could deduce and discover invariant, preexisting laws that would reveal reality’s underlying causal nature to them.[4]

In short, the atomists’ materialist account of reality entailed a mechanistic conception of matter as inherently non-generative and non-relational, a background-dependent conception of space, and the immutability of both. The importance of this materialist account is difficult to overstate, especially to the history and ongoing practice of science.[5] As we will see, however, as the prevailing cosmology changes, this concept of matter appears increasingly obsolete.

Statistical Mechanics. The second major materialist tradition emerged in the nineteenth century. Treating matter as if it moved randomly, modernist descriptions relied heavily on probability theory and statistics to predict it. However, matter’s seeming randomness was in fact merely due to practical limitations only. Fundamental particles (molecules, atoms, genes, isotopes, and so on) were simply too small and numerous for humans to observe all at once. For Laplace, Boltzmann and others, then, matter continued to be just as fully determined as it was for the atomists (albeit without any Epicurean spontaneity). Moreover, in adopting Newtonian notions of a fixed background of empty absolute space and universal time, modern materialism also continued to see matter as ultimately non-relational, passive, and obedient to invariant natural laws.

Quantum Mechanics. The third major materialism was quantum mechanics. In its initial formulation by Niels Bohr, Erwin Schrödinger and Werner Heisenberg, and much to the disappointment of Albert Einstein, quantum mechanics abandons a deterministic understanding of matter and finds matter instead to be inherently probabilistic. Due to the “measurement problem,” as it has tended to be understood, there is a fundamental limit on the precision with which matter can be known or predicted. As Heisenberg formulated it in his famous uncertainty principle, for example, there is an inherent limit to how precisely it is possible to know both a particle’s position and its momentum simultaneously. Beyond that limit, determinism dissolves into probability distributions.

As developed subsequently in quantum field theory, moreover, particles no longer move within an empty or smooth surface but are understood to be the excitations of fields that constantly jitter like violent waves with the vacuum fluctuations of so-called “virtual particles.” While those vacuum fluctuations are too small to observe directly or individually, collectively they nevertheless exert empirically measurable effects on particles that can be observed.[6]

This account certainly paints a far more lively and dynamic picture of matter’s behavior than what had prevailed previously. Nevertheless, the vacuum fluctuations of the particle-fields of quantum field theory occur only within a preexisting and fixed background spacetime. In other words, quantum field theory works only by ignoringthe gravitational field.[7] Moreover, if the measurement problem is understood as marking a purely epistemological limit,[8] as it generally is, then despite the continual vacuum jittering, matter is still treated as if it cannot generate any novel trajectories for itself. The total set of possible trajectories, in other words, remains just as eternal and unchanging as in the atomists’ account. And thus, matter remains an essentially passive, non-relational substance confined to fixed mathematical and epistemological probability ranges.

Despite their differences, then, all three of these major kinds of materialism nonetheless treat matter as essentially passive and treat space and time as fixed, background givens.

Read on here

Pandemie Kriegstagebücher – Wangenrot Fri, 19 Jun 2020 06:46:56 +0000

There's a sign on the wall

But she wants to be sure

'Cause you know sometimes words have two meanings

Es war nur noch eine Frage der Zeit, es war so absehbar. Seit gestern nun die Hetze in den Berliner Medien über Menschen, die aus welchen Gründen auch immer, beim Betreten eines Geschäftes oder in den öffentlichen Verkehrsmitteln keine Gesichtsmaske tragen. Unterlegt mit Reportagen, in denen der alte Frontstadt Berliner (der scheint einfach nicht aussterben zu wollen) im Chor mit dem Hipster Scum aus Friedrichshain sich über diese Asozialen echauffieren und härteste Verfolgung und Repression einfordern.

An vorderster Front die SPD Gesundheitssenatorin (genau jene, die im März mal eben so nebenbei den Vorschlag präsentierte, Menschen ab einem bestimmten Alter auch gegen ihren Willen in ihrer Gesamtheit präventiv wegzusperren) und die grüne Bezirksbürgermeisterin von Friedrichshain-Kreuzberg, die öffentlich die Etablierung eines Strafkatalogs für diese menschenverachtende Schwerstkriminalität einfordern.

Wenn es nicht alles so traurig wäre, wäre es absurd. Oder vielleicht ist es ja genau beides. Über 98% aller Menschen, die privat, also nicht in einem professionellen Kontext, ihre OP Masken, FFP 2 oder was für ein Selbstgestricktes auch immer benutzen, sind nicht in der Lage oder Willens, die ach so hochwirksamen Dinger so zu gebrauchen, dass sich ihr Nutzen nicht in das Gegenteil verkehrt. Erstens sind die Dinger eigentlich Wegwerfartikel und genau so werden sie auch im klinischen Kontext eingesetzt, aber da diese Dinger, die sonst für Umme zu haben sind, mittlerweile eine Hausse hinter sich haben, von denen selbst die Pharmakonzerne, die an einem Impfstoff für SARS-CoV-2 forschen mit ihren Aktien nur träumen können, werden die Dinger getragen, bis sie auseinander fallen.

Wer sich nur einmal mit den Vorgaben für einen sicheren Umgang mit solchen Masken beschäftigt hat, weiß, dass man die Dinger nur mit garantiert nicht kontaminierten Händen an-und-ablegen sollte, was bedeutet, ausgiebiges Händewaschen und Desinfizieren. Die Maske sollte nach der Abnahme, die geschieht, indem man die Maske nicht frontal anfasst, entweder an der Luft aufgehängt, oder weitgehend steril verwahrt werden. (Wie gesagt, EIGENTLICH weggeschmissen und durch eine neue ersetzt, aber das wäre ja zu teuer.)

Ich habe bei meinen ganzen Feldstudien EINMAL eine Frau im öffentlichen Straßenland gesehen, die das praktiziert hat, der Rest schraubt sich die Dinger irgendwie ins Gesicht und wieder ab, wird schon irgendwie helfen. Was sollen die Leute auch sonst machen...

Aber darum geht es im Kern ja auch, Symbolpolitik und kollektives Wir, seit dem Sommermärchen dürfte es nicht mehr so einen nationalen Taumel gegeben haben, damals hat man sich halt schwarz-rot-gelb ins Gesicht geschmiert, jetzt also diese Lappen. Alle Einwände von den gleichen Experten, die eben noch so gefragt waren, werden beiseite gewischt. Im Kern geht es auch nicht um das Infektionsgeschehen, mittlerweile ist wissenschaftlicher Standard davon auszugehen, dass das eigentliche Problem nicht an der Supermarktkasse besteht (Ich habe schon seit Wochen keine/n Kassier/in mehr mit Maske gesehen, außer in den Biomärkten), sondern ganz woanders.

Aber das Narrativ von der Alternativlosigkeit unterhält sich selbst und morgen würden die Hälfte der Leute und 80 % der Linken minutenlang auf einem Bein durch die Straßen hüpfen, wenn man ihnen verkauft, das würde gegen diese bösen Viren helfen. In Neuseeland, dessen Premierministerin ja weltweit für ihre ach so empathisches Verhalten nach dem Massaker von Christchurch gefeiert wurde, hat sie jetzt das Militär damit beauftragt, die Einreiseformalitäten abzuwickeln: “...unsere Grenzkontrollen müssen Härte zeigen, dort brauchen wir Disziplin… das Militär”. Wir sehen, wir befinden uns weiter im Krieg und wenn wir alle auf Lauterbach und Ditfurth gehört und uns noch ein paar Wochen länger einsperren hätten lassen, um das Virus in diesem ach so schönen Land auszurotten, wäre es doch wieder durch die Hintertür eingeschlichen.

So aber verhandeln wir die Frage, ob wie leben oder überleben wollen, weiter an Fragen wie dem Tragen von Stofffetzen im Gesicht ab. Genug davon, oder besser mehr davon, aber in einem anderen Kontext. Eine Übersetzung eines Textes von Julius Gavroche, der auf autonomies erschien, die eine oder andere Ungenauigkeit bitte ich nachzusehen.

Gesichtsverluste in der Pandemie

Julius Gavroche

Das Gesicht ist präsent in seiner Verweigerung der Verhüllung.

Emmanuel Levinas, Totalité et infini

Maskiert sein oder nicht maskiert sein? Je nach Rechtsprechung blieb dies eine Entscheidungsmöglichkeit vor der COVID-19-Pandemie. Jetzt sind Masken in allen Räumen außerhalb des Hauses (u.a. im Herkunftsland des Autors, d.Ü) vorgeschrieben (und werden mit unterschiedlicher Strenge durchgesetzt). Als Zeichen sind sie mehrdeutig: Sie deuten auf Vorsicht, die Notwendigkeit von Distanz, eine Barriere vor der Ansteckungsgefahr hin; sie sind ein Ornament der Solidarität mit anderen ("Ich werde euch nicht krank machen"), mit Pflege- und Gesundheitspersonal ("Ich helfe denen, die die Krankheit bekämpfen"); sie können auf die Infizierten hinweisen; sie sind Zeichen der Angst. Unabhängig von ihren Varianten warnen sie vor Gefahr, vor der Gefahr, die jeder Mensch für alle anderen ist. Wie eine souveräne Grenze zeichnen sie eine Schutzlinie um das Gesicht, die physische Person, nach, jenseits derer eine Bedrohung besteht und hinter der das individuelle Gesicht verschwindet.

Diejenigen, die darauf bestehen, ihr Gesicht zu zeigen, werden von einigen als unverantwortlich oder mutig angesehen oder bezeugen einfach den Wunsch, zu etwas zurückzukehren, das "normales Leben" genannt wird. Ob maskiert oder unmaskiert, unsere Schritte machen einen großen Bogen um diejenigen, denen wir begegnen.

Masken dienten schon immer dazu, das Gesicht zu verbergen, aber auch dazu, ein Gesicht zu zeigen, eine Persona, die sich von dem unterscheidet, wer oder was wir sind, und dies vermutlich in Wirklichkeit. Im antiken griechischen Theater trägt der Schauspieler eine Maske; im Karneval werden hinter einer Maske Übertretungen begangen; bei Ritualen sind Masken die Vehikel des Besessenseins. Im Gegensatz zu diesen Masken, die die alltäglichen Rollen unterbrechen, bestätigt und verstärkt die medizinische Maske jedoch das Diktat der medizinisch-staatlichen Autorität. Verspieltheit und/oder das Transzendente fehlen, und die Überschreitung drückt sich in diesem Fall durch das Ablegen der Maske aus.

Medizinische Masken kennzeichnen die Polizisten, die Zivilisierten; sie sind eine neue Grenze, die die Zivilisierten von den Barbaren trennt. Sie unterstützen das neue Regime der sozialen Distanzierung und der Biosicherheit: Der Kuss, mit dem die einen die anderen grüßen würden, sowie der Handschlag und die Umarmung werden ausgesetzt. Auf einem solchen Kontakt zu bestehen, bedeutet, den individuellen, atomaren Raum der physischen Sicherheit zu verletzen, der angeblich durch die Maske geschaffen wurde. Letzteres ist ein Schutzschild gegen Ansteckung, eine Hülle, hinter der wir unsere körperliche Unversehrtheit bewahren, die erklärte Tatsache, dass wir unser körperliches Wohlbefinden nicht verlieren. Und da letztere einheitlich ist - Immunität und Ansteckung sind allgemeine Kennzeichen -, gibt die Maske unsere Identitäten gemeinsam wieder. Die Maskierten werden zu einer disziplinierten Masse, zu einer staatlich geschaffenen und verwalteten Masse.

Diese Kommentare mögen vielleicht gedankenlos erscheinen angesichts der vermuteten Wirksamkeit von Masken bei der Eindämmung der Ausbreitung des Coronavirus. Wir schreiben jedoch nicht als Wissenschaftler oder Ärzte; unser Interesse besteht darin, zu versuchen zu verstehen, was der allgemeine Gebrauch medizinischer Masken für die alltäglichen sozialen Beziehungen, ihre Verquickung mit Kontrolltechniken und die Konstitution neuer Subjektivitäten bedeutet. Und ohne vorgeben zu wollen, das Thema erschöpfend behandeln zu wollen, bestehen wir darauf zu fragen, was mit dem Einsatz von medizinischen Masken in "öffentlichen" Räumen verloren geht. (Die Frage, was wir in Bezug auf “Politik auf der Straße,” die Technologien zur Gesichtserkennung und die Aufhebung des Verbot von Gesichtsmasken bei öffentlichen Protesten gewinnen könnten, haben wir beiseite gelassen.)

Die medizinische Gesichtsmaske sieht aus wie eine Schlinge, die über Nase, Mund und Kinn gezogen wird; sie hat die Aufgabe, das Gesicht zu fangen, zurückzuhalten und zu fixieren, um zu verhindern, dass etwas zum Vorschein kommt, dass etwas entweicht. Dies ist mehr als eine Frage der Ähnlichkeiten, mehr als eine Metapher, und es geht um mehr als die Verbreitung eines Virus. Es geht um die Erfahrung des Gesichts in menschlichen Beziehungen.

Ein Gesicht, so wie es allgemein verstanden wird, besteht aus der beobachtbaren Physiognomie der Gesichtszüge. Aber es ist nicht einfach das, was es zu sein scheint. In Anlehnung an den Gedanken von Emmanuel Levinas besitzt das Gesicht eine tiefere Bedeutung: Es offenbart einen anderen, einen anderen, der nach mir ruft oder mich, mich selbst anfleht, sie (die Stimme die das Gesicht repräsentiert) zu hören, sich um sie zu kümmern, Verantwortung für sie zu übernehmen.

Was wir das Gesicht nennen, ist überladen mit Bedeutungen, die in kulturelle, soziale und politische Ordnungen eingewoben sind. Wir können allein aufgrund unseres "Gesichts" nach Geschlecht, ethnische Zugehörigkeit, Klasse, Nationalität usw. unterschieden werden. Aber Levinas' Behauptung ist, dass das Gesicht mehr verkündet als sich selbst; es manifestiert eine Körperlichkeit jenseits seiner selbst, aber auch das, was sich Ordnungen sozialer Bedeutung entzieht. Das Gesicht drückt eine Dimension der menschlichen Existenz aus, die in der Sprache Levinas' unendlich ist, während physiognomische Identitäten das Gesicht in einer Art und Weise befähigen, sich dessen zu entledigen, was es einschränkt und begrenzt. Im letzteren Fall wird das Gesicht unter Totalitäten desselben subsumiert, wie die ethnischen, rassischen, Klassen-, Geschlechtsformen, die von den Machtregimen gewaltsam aufgezwungen und aufrechterhalten werden, während das Gesicht als Unendlichkeit in sich das Potential birgt, zu sein und nicht zu sein; es ist die reine Potentialität, die die konkreten sozialen Beziehungen beherrscht, aber auch das, was diesen Beziehungen entgeht, sie jeder Dauerhaftigkeit entleert und in gewisser Weise ihr Maß an Gerechtigkeit ist, ohne selbst Gerechtigkeit zu sein.

Das grenzenlose Gesicht ist eine Art Schwelle, die durch den ständigen Wechsel von Totalisierungs- und Ausweichprozessen gekennzeichnet ist. Das Gesicht ist in diesem Fall nicht ein Phänomen in der Welt, eine Sache, sondern dieser Übergangspunkt, der die menschliche Existenz für das öffnet, was nicht sozial konstruiert und politisch durchgesetzt ist. Sie macht letztere möglich, aber auch unmöglich als endgültig fixierte Realitäten.

Das Gesicht ist also dasjenige, das die Möglichkeit der Ethik begründet, eine Art und Weise, in der Welt zu sein, die für den anderen empfänglich ist.

Die medizinische Maske, gelesen im Lichte von Levinas, ist dann ein weiteres Mittel, diese Potentialität einzuschränken, sie an Befehle der Immunität und Sicherheit zu binden. Der nun maskierte Andere wird dann als eine mögliche Krankheit markiert, die die physikalisch-biologische Realität in sich trägt, die überwacht, aufgespürt, verfolgt, getrennt, isoliert, unter Quarantäne gestellt, in einigen Fällen sterben gelassen und schließlich allein entsorgt werden muss.

Wenn der Appell des anderen durch das Gesicht die Ethik begründet, verwandelt das maskierte Gesicht den anderen in ein Objekt der Angst, in jemanden, vor dem er fliehen kann. Die medizinische Maske drängt uns, ohne uns zu töten - und ohne uns notwendigerweise auch zu retten -, in eine dunkle Einsamkeit zu flüchten, wo wir möglicherweise taub und blind füreinander werden.

Es gibt keine Gemeinsamkeiten zwischen der Maske gegen Ansteckung und den Masken von Nietzsches "tiefsinnigen Geistern", den notwendigen Mitteln, um sich vor der seichten, alltäglichen Meinung zu verstecken oder sich vor ihr zu schützen. (Jenseits von Gut und Böse, Kap. II, 40) Wir sind auch nicht die Freigeister, die sich offen und mutig dazu bekennen, dass hinter den vielen Masken, die wir sind, keine Wahrheit steckt (Jenseits von Gut und Böse, Kap. IX, 278), denn die medizinische Maske verschmilzt uns mit unserer Biologie und stellt unsere körperliche Gesundheit in den Mittelpunkt der Politik. Diese könnten letztlich zu Nietzsches "monströsen und furchterregenden Masken" werden, die auf der Erde umherwandern, um die neue biopolitische Realität einzuschreiben. (Jenseits von Gut und Böse, Vorwort)

Der Weg dorthin mag in Levinas' Vorstellung liegen, dass das Gesicht des anderen eine Schwelle, eine Nähe ist, die zwischen Heiligtum und Karikatur liegt.

Die Antwort mag woanders liegen, in Levinas' Behauptung, dass das Gesicht des anderen zwischen Heiligkeit und Karikatur liegt. (Totalité et infini) Das heißt, wir müssen lernen, für den anderen ohne Ernsthaftigkeit zu sorgen.

Eines Tages kam er zu seinen Jüngern in Judäa und fand sie sitzend, versammelt und zur Frömmigkeit erzogen vor. Als er [auf] seine Jünger kam, sammelten sich diese, setzten sich hin und brachten Danksagung über dem Brot dar, und da lachte er. Die Jünger sagten zu ihm: "Lehrer, warum lachst du über unser Dankgebet? Was haben wir getan? [Dies] ist das Richtige." Er antwortete und sagte zu ihnen: "Ich lache nicht über euch, auch nicht, dass ihr das nicht aus eigenem Willen tut, sondern dass euer Gott dadurch gepriesen wird.

Das Evangelium des Judas

66 Tage – Die USA zwischen Lockdown und Riots Wed, 17 Jun 2020 14:45:52 +0000

taken from Ajour

66 Tage dauerte es von der ersten Anweisung, zu Hause zu bleiben, bis zum ersten Riot. Neben der Empörung über die Ermordung von George Floyd lässt sich auch eine gewisse Hoffnung darin erkennen, dass die Menschen weiterhin gegen die Ordnung einer Welt kämpfen können, die für sie immer eine Quelle der Gewalt ist, dass sie für das eigene Wohlergehen kämpfen können, dass sie gemeinsam auf der Strasse kämpfen können. 66 Tage lange quälte alle, die ich kenne, zweifellos der Gedanke, diese Möglichkeit könnte verblasst sein. Das ist sie nicht.

Die Ereignisse sind immer noch im Gange und ich möchte keine vorschnellen Schlüsse ziehen. Das Wissen darum, dass alle Theorie aus Kämpfen entspringt, mahnt zur Bescheidenheit: Theorie geht Kämpfen nicht voraus und erst Recht beansprucht sie nicht, sie zu lenken. Für diejenigen von uns, die nicht auf der Strasse sein können, ist es wichtig, das unerträglich Vertraute wahrzunehmen: den Mord von Polizisten an einem Schwarzen; die Lüge, die Polizei habe in Notwehr gehandelt; die Enthüllung, dass diese plumpeste aller Lügen einen Lynchmord verdecken soll. Die Vertrautheit des Geschehens mindert in keiner Weise seine Drastik. Die aussergesetzliche Tötung von schwarzen Menschen ist von zentraler Bedeutung für die gesellschaftliche Ordnung der Vereinigten Staaten, zentral nicht nur für die Aufrechterhaltung der Macht, sondern auch für ihr Selbstverständnis. Die Legitimität und Notwendigkeit der schwarzen Wut ergibt sich zum Teil aus dem Versuch, diese Ordnung zu überleben und ihr eine andere Ordnung entgegenzustellen. Entgegen allem aufgeregten Geblöke von Journalist*innen und Politiker*innen über das Chaos auf den Strassen besteht eine Unordnung nur im wörtlichsten Sinne: als Versuch, die auf rassistischer Gewalt beruhende Ordnung zu überwinden.

Foto: Matthew Roth

Diese Darstellung von Unordnung steht im Übrigen in einer langen, in der Linken leider genauso wie auf der Rechten vorhandenen Tradition des Befindens darüber, was als Politik zählt. Gruppierungen mit klaren Hierarchien und Abstimmungsprozeduren und Finanzierungsquellen, mit Organigrammen und einem Büro irgendwo: Das ist ohne Frage Politik. Riots hingegen nicht, sie gelten als unüberlegte und unkontrollierte Reaktionen auf das unmittelbare Leiden einer Community. Dies geht einher mit der bösartigen Vorstellung des externen Unruhestifters, die verspricht, alle über schlichte Kommunikation hinausgehenden Aspekte von Protest auf das heimliche Wirken von Verschwörer*innen aus einem mysteriösen Anderswo zurückzuführen; von Verschwörer*innen, die zur Durchsetzung eigener politischer Ziele das Chaos und die legitime Trauer und Wut ausnutzen, wobei sie solchen Gefühlen angeblich gleichgültig gegenüberstehen. Alle diese Phantasien haben die gleiche Funktion: Schwarze aus dem Politischen auszuschliessen und sich zu weigern, den Riot als eine der grundlegendsten und ältesten Formen kollektiven Handelns anzuerkennen. Während der Staat immer mehr Gewalt einsetzt, zeichnen die Nachrichtensender und der Stab der Gouverneur*innen mit ihrem entsetzten Geplapper ein Bild, das alles auf den Kopf stellt: Gefühle sind die einzig legitime Politik, Handeln ist irgendwie etwas anderes.

Diese Taktiken der Demobilisierung sind auf entmutigende Weise nur zu bekannt. Gleichzeitig schimmert etwas Neues auf, das wie immer aus den Trümmern des Alten aufgebaut wird. Die Reaktion auf das Corona-Virus liess zwar den Ausbau eines ohnehin schon hochgerüsteten Überwachungsstaates erwarten, doch die Ausserkraftsetzung jedes Vermummungsverbots (das Trump und Konsorten während der grossen Antifa-Krise von 2017 noch verschärfen wollten) scheint nun zumindest grössere Spielräume für öffentlich ausgetragenen Antagonismus zu bieten. Sicherlich ist die Erinnerung daran, dass der Überwachungsstaat noch nicht alle Grenzen überwunden hat und sein Wunsch nach totaler Erfassung angefochten werden kann, für viele eine stärkende Erfahrung gewesen. Da Masken nun zur neuen Normalität in den USA gehören, wie es anderswo schon seit geraumer Zeit der Fall ist, wird sich das Kräfteverhältnis für eine Weile verschieben.

Foto: Kelly Kline

Zu den bizarrsten Merkmalen des Zeitraums von 66 Tagen gehörte etwas, das man als Antistreik bezeichnen könnte: die nachdrückliche kollektive Forderung nach einer Wiederaufnahme der Arbeit, egal zu welchen Löhnen und Bedingungen. In vieler Hinsicht handelte es sich dabei um eine PR-Kampagne, bei der sich nicht die angebliche Arbeiter*in Ausdruck verschaffte, sondern die Unternehmer*in, die die Geldmaschine wieder zum Brummen bringen wollte. Insofern waren solche Pantomimen eine Lüge, die aber die Wahrheit ans Licht gebracht hat, dass der Kapitalismus ausserstande ist, eine Antwort auf die aktuelle Situation zu finden: Was tun, wenn Löhne das Überleben sichern, aber eben diese Funktion der Arbeit, das Proletariat am Leben zu halten, damit es noch mehr arbeiten kann, plötzlich widersprüchlich wird, weil die Arbeit in Wirklichkeit so viele Proletarier*innen töten könnte, dass der Kapitalismus nicht mehr funktioniert? Es wäre eine Genugtuung gewesen, zuzusehen, wie sich die offiziellen und unbezahlten Sprecher*innen des Kapitals in dieser Falle winden, wären die Umstände nicht für Menschen, die wir kennen und lieben, so schrecklich und tödlich gewesen. Die Regierung, deren Rolle als Dienerin des Kapitals noch nie so deutlich war, begann zu kalkulieren, wie genau sie die Parameter für Arbeit und Konsum einzustellen hat, um das Überleben der Wirtschaft zu sichern, wie viele Menschenleben es auch kosten mag. Diese Flickschusterei machte sich der riesige Staatsapparat zu seiner einzigen Aufgabe, bis er gezwungen wurde, den Blick nach Minnesota und dann plötzlich auf zahllose andere Orte zu richten.

Das ganze Szenario hatte ferner den Effekt, dass es das Privateigentum in ein sehr seltsames Licht rückte. Die Offenbarung vom ersten April, dass man einfach… die Mietzahlung einstellen kann, war sicherlich ein wichtiger Riss im ideologischen Schleier; der historisch einmalige Absturz auf eine Erwerbsquote von kaum 50 Prozent zerriss den Schleier weiter. Hinzu kam die Erfahrung mit Waren, den naturalisiertesten Dingen. Wenn Leute auf einmal anfangen, ihre Einkäufe mit chemischen Reinigungstüchern abzuwischen, dann ist das befremdlich. Wenn der gesamte Sektor, der das Geld der Bevölkerung in Waren verwandelt, als genauso unverzichtbar anerkannt wird wie das medizinische Personal und zugleich offensichtlich ist, dass die dort Beschäftigten für diese Verwandlung ihr Leben riskieren müssen, dann ist das ebenfalls befremdlich. Wenn die Regierung offen zugibt, dass sie entgegen ihren obersten Neigungen und Gepflogenheiten Menschen Geld dafür gibt, einkaufen zu gehen und so die Wirtschaft zu retten, dann ist das verdammt befremdlich.

Foto: Jenny Salita

Man muss sich fragen, ob die Dynamik von Plünderungen dadurch nicht eine gewisse Veränderung erfährt. Die üblichen Reaktionär*innen werden die üblichen Dinge sagen, aber wir befinden uns in einer eigentümlichen Situation: Die Frage, wie die Grundgüter aus den Händen der Kapitalist*innen in die Häuser der Proletarier*innen gelangen, wurde noch nie so betont, in den Güterbergen, die sich andernorts auftürmen, wurde noch nie so offensichtlich ein Horten von notwendigem gesellschaftlichem Reichtum erkannt – das ist vielleicht etwas Neues. Dass sich Plünderungen aus verelendeten Vierteln in die Glitzerwelt von Melrose und SoHo verlagert haben, hat zweifellos eben jenen Kommentator*innen Angst eingejagt, die eine solche Verlagerung doch seit langem fordern, indem sie gegen die «Zerstörung der eigenen Community» wettern (als ob eine Gemeinschaft jemals aus Waren bestehen könnte). Gefangen in ihrer Verlogenheit, können sie sich jetzt nur noch die moralische Autorität anmassen, die Aneignung von allem zu verurteilen, was Wert hat, selbst wenn der offensichtliche Zweck im Wiederverkauf besteht, um an Geld für das eigene Überleben zu gelangen – in ihren Augen kann hier von Bedürftigkeit keine Rede mehr sein (als ob sie die Plünderung von Milch und Windeln verteidigen würden). Das alles sollte niemand ernst nehmen, denn bekanntlich heissen diese aufgebrachten Gestalten Plünderungen nur dann gut, wenn ein grosser oder kleiner Jeff Bezos sie verübt. Die Akteur*innen mit guten Absichten sind hier ganz offensichtlich die Plünderer*innen, die an einem Plebiszit über das Überleben teilnehmen. Dies ist nur ein Aspekt davon, wie die Unruhen von 2020 das andere politisch bestimmende Ereignis  des Jahres in den Schatten stellen. Vielleicht lautet die Offenbarung des Jahres 2020 nicht: «Wow, ein Quasi-Sozialist wäre fast Präsidentschaftskandidat geworden», sondern «Klar, die Polizei werden wie niemals abwählen», und auch «Klar, die Barrieren beim Zugang zu lebenswichtigen Gütern sind absurd und inakzeptabel», und schliesslich: «Moment mal, diese beiden Tatsachen gehören ja zusammen.»

Das eindrucksvolle Bild von der Polizeistation in Minneapolis, die überrannt, von den Polizeikräften aufgegeben und schliesslich niedergebrannt wird, ist in der jüngeren US-Geschichte beispiellos. Die Zerstörung der Wache lässt sich als unsere internationalistische Wende sehen; schliesslich wurden vor neun Jahren in Ägypten binnen einer einzigen Nacht 99 Polizeistationen in Brand gesetzt. So viel zur Mär des amerikanischen Exeptionalismus. Die Bilder des Stadtviertels, aus dem die Polizei vollständig vertrieben wurde, haben uns vergegenwärtigt, dass Blockade und Barrikade – beides zentrale Formen von Riots und Zirkulationskämpfen – darauf drängen, von Unterbrechungen des (Waren-)Verkehrs zu Verteidigungslinien von Territorien zu avancieren. Womöglich hallte in der Nacht des 28. Mai, als die Polizeiwache in Minneapolis niedergebrannt wurde, die derzeitige Praxis der Oglala Sioux und der Cheyenne River Sioux wider: Mit Checkpoints schützen sie den Zugang zu ihren angestammten Gebieten, sogar den Gouverneur von South Dakota haben sie einmal abgewiesen. Auch wenn die Begründung für ihre Kontrollposten medizinisch einleuchtend und rechtlich überzeugend ist, sind darin unschwer die Checkpoints dieses Frühjahres zu erkennen, mit denen die noch unkolonisierten Wet’suwet’en-Territorien vor dem anrückenden kanadischen Ölstaat und seinen Polizeikräften verteidigt wurden. Nick Estes und Glenns Sean Coulthard haben mich vor kurzem daran erinnert, dass das American Indian Movement in Minneapolis gegründet wurde und – genau wie die Black Panther Party for Self Defense – mit Community Patrols anfing. Hinter dem Niederbrennen des Polizeipostens in Minneapolis stand die Geschichte der Kämpfe um selbstverwaltetes Territorium, die sich unweigerlich gegen die Polizei in Stellung bringen müssen. Falls es jemals einen Zeitpunkt gab, ein Quartier als autonome Kommune zu etablieren – dies war er. Oder beinahe. Wir alle wussten es: Mehr Schergen würden kommen, bewaffnet mit Knarren und US-Flaggen, während der Präsident seinen imperialen Traum vom Ausnahmezustand träumen würde. Aber wir dürfen annehmen, dass dieser grosse Schritt auf dem Weg zu einem kollektiven Prozess, der es schafft, die Staatsgewalt fernzuhalten, nun auf dem Tisch ist, wenn die Polizeimorde ein Ende und die kollektive Autonomie eine Chance haben sollen.

Foto: Matthew Roth

Wichtig ist, dass es dieses Verständnis des gegenwärtigen Staates und der Besitzverhältnisse bereits gibt. Bei den einen mehr als bei anderen – die rassifizierten unteren Klassen, ganz besonders die Familien, die selbst einmal Besitz waren, tragen die schmerzliche Einsicht mit sich, dass die gegenwärtige Eigentumsordnung Tod bedeutet und dass die Polizei als Hüterin dieses Systems die Hüterin des Todes ist. Ein anderes Urteil über diese Institution ist undenkbar. Die Eigentumsordnung durchzieht fraglos rassifizierte und andere Trennlinien. Und klar ist auch, dass die immer noch anschwellende Welle von Inhaftierungen sich auch aus hauptsächlich von Weissen bewohnten Gegenden nährt, besonders aus Zentren der Opioid-Krise. Die Bedeutung des Polizei-Gefängnis-Komplexes lässt sich dabei unter anderem durch seine Funktion verstehen, soziale Zerstreuung zu erzielen und Löhne zu drücken. Was höflich «Einwirkung durch das Strafrechtssystem» genannt wird, dient dazu, Kollektivität und letztlich das Lohnniveau zu untergraben, wie zuletzt Adam D. Reich und Seth J. Prins in ihrem Beitrag «The Disciplining Effect of Mass Incarceration on Labor Organization» gezeigt haben. Das bedeutet: Cops erzeugen auch Kapital. Sie sind Werkzeuge der Extraktion von Reichtum. Er wird allen Armen abgepresst, wenn auch auf unterschiedliche Weise und teilweise gerade durch solche Unterschiede – ein weiterer Grund, weshalb die Annahme, ein zunächst gegen die Cops gerichteter landesweiter Aufstand müsse ethnisch monolithisch sein, absurd wäre. Das soll allerdings nicht heissen, alle befänden sich in der selben Lage. Mit der staatlich verordneten Immobilität aufgrund der Pandemie und nun den selektiv durchgesetzten Ausgangssperren kehrt die Geschichte der Sklavenjäger*innen zurück: Bestimmte Menschen dürfen sich frei bewegen, andere nicht. Sie spiegelt sich klar im Bild von Derek Chauvins Knie im Nacken von George Floyd.

Noch eine letzte neuartige Entwicklung gilt es zu erwähnen, auch wenn viele andere unerwähnt bleiben. In den letzten Dekaden, in denen sich wiederholt entsetzlich Ähnliches ereignete, kam es nach Polizeimorden zunächst zu lokalen Riots, die sich später, wenn die Täter freigesprochen oder gar nicht erst angeklagt wurden, auf das ganze Land – und darüber hinaus – ausdehnten. Nach diesem Muster entwickelten sich die Ereignisse nach der Prügelorgie gegen Rodney King und nach dem Mord an Michael Brown – die beiden weitreichendsten Episoden seit den Sommern 1967 und 1968. Die Woche nach dem Mord an George Floyd verlief anders: Die Riots haben sich rasch von Minneapolis auf das gesamte Staatsgebiet ausgeweitet. Ich möchte keine zu einfache Erklärung für diese Entwicklung anbieten. Noch überschlagen sich die Ereignisse, und es ist wichtig, zunächst hinzuschauen und aus ihnen zu lernen. Möglicherweise liegt ein Teil der Erklärung im Mord an Ahmaud Arbery, der wenige Monate zuvor auf eine ganz eigene entsetzliche Weise in Georgia stattfand. Wir sollten seinen Namen sagen, und den von Breonna Taylors und der vielen anderen. Als George Floyd ermordet wurde, lag für manche bereits das Grauen des Lynchmords in der Luft, andere empfanden es wie einen Stich ins Herz mit einer Glasscherbe.

Foto: Matthew Roth

Was beim Lynchmob, der Arbery ermordete, heraussticht: Er wurde nicht von den Cops angeführt. Zumindest nicht direkt. Denn die drei weissen Männer standen der Polizei nahe: Gregory McMichael war früher Cop, Travis McMichael ist sein Sohn, Roddie Bryan ein Nachbar, der sich eifrig zum Komplizen machte. Sie warfen dem Ermordeten Diebstahl vor, um ihren Mord zu legitimieren, ein Vorwurf, der weit mehr gefälscht ist, als es ein 20-Dollar-Schein je sein könnte. Das erinnert natürlich an George Zimmermann, der seinen gescheiterten Traum, Polizist zu werden, mit der Exekution des siebzehnjährigen Trayvon Martin auslebte. Noch belastender ist die Tatsache, dass die Polizei mindestens einer Person in der Nachbarschaft mitteilte, bei Problemen solle sie sich an Gregory McMichael wenden, der inzwischen eigentlich nur ein gewöhnlicher Rentner war – ein ekelerregendes Beziehungsgeflecht, in dem Whiteness und Polizeiarbeit aufgrund der Eigentumsordnung wie in einem Mengendiagramm tendenziell zur Deckung kommen. Die Schnittfläche: eine Lizenz zum Töten.

Doch vielleicht wird daran etwas deutlich. In meinem Beruf hatte ich immer Schwierigkeiten damit, den Studierenden den Begriff des strukturellen Rassismus zu vermitteln; uns allen wird ständig nahegelegt, schlechte Taten für eine Folge von schlechten Ideen schlechter Individuen zu halten. Aber die informelle Ernennung von Gregory McMichael, ja im Grunde jeder anderen weissen Person zum Hilfspolizisten belehrt uns eines Besseren. So lag die Kraft der zirkulierenden Bilder des neunminütigen Mordes an George Floyd womöglich nicht in ihrer Besonderheit, sondern im Gegenteil davon. Vielleicht haben alle begriffen, dass es immer so abläuft, mal mehr, mal weniger unvermittelt, aber immer so offensichtlich und brutal. Kein Widerstand, keine abrupten Bewegungen, kein Tasten nach einer vermeintlichen Waffe. Vielleicht ist endlich allen klar geworden, dass die Mörder diese vier Cops waren, aber ebenso der rassistische Kapitalismus, die Eigentumsordnung, die Polizei an sich. Wenn man das endlich erkannt hat, verspürt man unweigerlich ein Verlangen danach, die einzelnen Täter*innen zur Rechenschaft zu ziehen. Gleichzeitig aber ist es kaum vorstellbar, durch solche Massnahmen allgemein Gerechtigkeit herzustellen.

Dieser Text erschien zuerst auf der Website des Verlags Verso. Er wurde für das Ajour Magazin auf Deutsch übersetzt.

Joshua Clover ist Kommunist und ausserdem Professor für Literatur und kritische Theorie an der University of California, Davis. Sein Buch Riot.Strike.Riot erscheint im Herbst 2020 in deutscher Sprache im Verlag Galerie der abseitigen Künste in Zusammenarbeit mit dem Magazin Non.

taken from here

Antiableismus und der linke Corona-Diskurs / Ermöglicht die Erfahrung des »Lockdowns« ein besseres Verständnis der Situation depressiver und ableistisch ausgegrenzter Menschen? Wed, 17 Jun 2020 12:45:36 +0000

Von David Ernesto García Doell und Barbara Koslowski (Erstveröffentlicht in Analyse & Kritik 661 The sound of the Police)

Während die staatlichen Maßnahmen zur Eindämmung von Covid-19 gelockert werden, und sich ein Eindruck relativer »Normalität« einstellt, scheint auch die etwas vorschnelle Corona-Textproduktion zurückgefahren zu werden. Weder war die Corona-Krise eine »Chance«, wie optimistische Linke zunächst meinten. Noch waren staatliche Restriktionsmaßnahmen zur Seuchenbekämpfung der Schritt auf dem Weg in einen absoluten Ausnahmezustand oder Polizeistaat.

Eine Extremform der pessimistischen Positionen nimmt der italienische Philosoph Giorgio Agamben ein, der den linken geisteswissenschaftlichen Diskurs durch seine immer aggressiver werdenden Beiträge stark strukturierte. Für den Theoretiker des Ausnahmezustandes war Covid-19 mit einer normalen Grippe vergleichbar; Hochschullehrer*innen, die sich wegen der Corona-Krise auf das – Zitat Agamben – »Diktat einer Online-Lehre« einließen, das »perfekte Äquivalent« zu denen, die dem italienischen Faschismus 1931 die Treue schworen.

Aber die Corona-Krise ist auch nicht einfach nur »neutral«, wie zum Beispiel der Ex-Maoist und »kommunistische« Ereignistheoretiker Alain Badiou suggerierte. Für ihn war die Pandemie schlicht ein »Nicht-Ereignis«.  Angesichts der Lockerungen der Restriktionsmaßnahmen scheint diese Deutung der Corona-Krise an Überzeugungskraft zu gewinnen. War sie nur ein kurzer Betriebsunfall im globalen Kapitalismus? Und welche Lehren können aus ihr gezogen werden, bevor zum »Business as usual« zurückgekehrt wird?

Zunächst und am offensichtlichsten hat sie gezeigt, dass der Staat auch heute – unter kapitalistischen Bedingungen – Produktion einschränken und verändern kann, Flüge verbieten und vieles mehr, wenn der politische Wille vorhanden ist. Theoretisch ausgedrückt: In der Krise gab es ein Primat der biopolitischen Seuchenbekämpfung gegenüber einer kurzfristigen Kapitalakkumulation. Von Mitte Februar bis Mitte März brach der DAX um etwa 5.000 Punkte (mehr als 35 Prozent) ein. Auch wenn die Restriktionen immer unternehmensfreundlich geregelt, Treffen von mehr als zwei Personen draußen untersagt waren, während Arbeiter*innen in der Re-Produktion einem hohen Ansteckungsrisiko ausgesetzt waren, so war klar erkennbar, dass es einen Wert der relativen Gesundheit der Bevölkerung gibt.

Zweitens und vielleicht nicht ganz so offensichtlich wurde zum ersten Mal für alle potenziell erfahrbar, was es bedeuten kann, grundsätzlich eingeschränkt zu sein – und dass es um die gesellschaftliche Reproduktion möglicherweise nicht gut bestellt ist. Die*der ganz normale weiße Deutsche wie die*der durchschnittliche Aktivist*in kann in Quarantäne die Erfahrung depressiver Einsamkeit genauso machen wie die, temporär eingesperrt zu sein, sich gegebenenfalls als verletzlich und genuin von anderen und der Gesellschaft abhängig zu begreifen und darüber auch die politische Frage stellen, wie be_hinderte oder eingesperrte Personen in einer ableistischen, klassistischen und rassistischen Gesellschaft überhaupt teilhaben können.

Eine Möglichkeit, die in der gegebenen Situation liegt, auch wenn sie jetzt wahrscheinlich nicht erfüllt wird, könnte damit das Erlernen einer grundsätzlich anti-ableistischen Praxis sein. Wie können Menschen in Zukunft allgemein weniger einsam sein oder trotz Einschränkungen an der Gesellschaft, an Re-Produktion und Politik teilhaben? Dabei scheint manchmal eine Projektion zu passieren, bei der Depressive als Minderheit genannt werden, die angeblich besonders schlimm unter den Folgen des Lockdowns leiden würde. Depressive sind als Teilgruppe von Be_hinderten gesellschaftlich als »schwach« markiert, und die Annahme lautet in etwa, dass unter Bedingungen der Krise diese Schwachen am schlimmsten leiden.

Während das für Personen, die physisch zu einer »Risikogruppe« gezählt werden, plausibel erscheint, ist es bei psychischen Erkrankungen und besonders bei Depressionen zumindest unklarer. Es könnte nämlich auch das Gegenteil der Fall sein, dass Personen mit Depressionen Lockdown-ähnliche Erfahrungen im Prinzip die ganze Zeit machen; nur mit dem Unterschied, dass niemand versteht, wie sich das anfühlt und wie schrecklich der reguläre »Ausnahmezustand« einer depressiven Person eigentlich ist. Außerdem haben Depressive möglicherweise in langen Prozessen Care-Netzwerke aufgebaut, bei denen die Sorge um die Anderen oftmals ohnehin online passiert, weil wegen der Depression das Haus kaum verlassen werden kann. Aus depressiver Perspektive wäre den gesunden Personen, die unter den Einschränkungen leiden, gegebenenfalls zu entgegen: Hört auf, Depressive vorzuschieben, und lernt, über eure eigenen Verletzlichkeit zu sprechen.

Das bedeutet, dass sich der Lockdown für Depressive auch wie eine Angleichung der allgemeinen Lebensbedingungen an die der Depression anfühlen kann. Einerseits kann dass zu dem Bewusstsein führen, dass ein dreimonatiger Lockdown im Vergleich zu einer sechsmonatigen schweren Depression wesentlich weniger schlimm erscheint. (In deutschen Verhältnissen war es für durchschnittliche Bürger*innen in der Regel jederzeit möglich, einkaufen und spazieren zu gehen, ohne unter Angstzuständen oder Suizidalität leiden zu müssen.) Zudem bringen nun alle anderen potenziell mehr Verständnis für diese Situation auf, sei es, dass sie selbst unter Einsamkeit leiden oder vielleicht auch einfach nur mehr Zeit haben.

Nun wäre die politische Lektion daraus natürlich nicht, das Leben allgemein dem von Depressiven anzugleichen, wie es auch nicht der Sinn antirassistischer Praxis ist, dass alle in Lagern eingesperrt werden. Es geht viel eher darum, erstens ein Verständnis dafür zu bekommen, dass es – entlang der Achsen class, race, gender, aber eben auch: ability – radikal unterschiedliche Lebens-, Ausschluss und Gewalterfahrungen gibt, die so allerdings nicht notwendig sind. Zweitens geht es um eine symbolische Aufwertung, dass durch äußere Zwangslagen eben potenzielle jede*r in eine solche Situation geraten kann. Depressive sind nicht nur zu »faul« oder zu »dumm«.

Depressionen sind an sich eine »neutrale« Krankheit, aber dass Depressive vollkommen isoliert oder stigmatisiert – in der marx’schen Formulierung »zu geknechteten und verlassenen Wesen« – werden, sich jedes Jahr über 5.000 von ihnen allein in Deutschland suizidieren, ist auch ein politisch-ökonomisches Verhältnis. (1)

Die »Corona-Krise« hat nun potenziell für alle sichtbar gemacht, dass Einsamkeit ein sozialer Skandal ist, wobei das »social distancing«, das so viel kritisiert wurde, eher »nur« ein »physical distancing« war. Sowohl Covid-19 als auch zum Beispiel Depressionen sind in ihrer Entstehung natürlich nicht »neutral«, sondern auch Produkte genau dieser Ausbeutungs- und Entfremdungsverhältnisse.
In dieser Hinsicht kann vielleicht eine spekulative These im Anschluss an Alain Ehrenberg und Gilles Deleuze interessant sein. Sie argumentieren in unterschiedlichen Kontexten etwa, dass die mechanische und kollektivistische Disziplinierung der Arbeiter*innen im Industriekapitalismus einer eher abstrakten und individualistischen Kontrolle im postindustriellen oder digitalen Kapitalismus weicht. Sehr schematisch gesagt: Während die Arbeiter*innen in der Fabrik kollektiv einem direkteren Zwang ausgesetzt sind, müssen sich die prekär scheinselbstständigen Techarbeiter*innen eher individualistisch selbst optimieren. Während der äußere Zwang eher zu Neurosen führe, führten die internalisierten Leistungsnormen eher zu Depressionen.

Gewiss gibt es andere Gründe für Depressionen wie biochemische Prozesse, Gewalt, Krieg, Rassismus, Sexismus etc., aber die Depression ist möglicherweise zum Teil auch die Verinnerlichung der Klassengesellschaft in den Arbeiter*innen. Wenn sich familiäre und andere soziale Beziehung im neoliberalen Kapitalismus tendenziell lösen und sich die Kontrolle internalisiert, können die vollkommen vereinzelten Homeoffice-Abeiter*innen in der Corona-Krise geradezu als Reinform der Subjektivität dieses Re-Produktionsmodells verstanden werden. Gewiss können findige Kapitalist*innen die Corona-Krise als Chance begreifen, einerseits die Maßnahmen zur Regulierung der Gesundheit der Bevölkerung zu vertiefen und andererseits diese Lohnarbeiter*innen produktiver für die Kapitalakkumulation arbeiten zu lassen. Dieser Dystopie ist entgegenzuhalten, dass technologische Arbeitsmittel wie Zoom auch Mittel der sozialen Interaktion und politischen Organisierung sein können.

Entgegen der Position von Agamben begrüßten die meisten Linken die gesundheitspolitische Priorisierung gegenüber bürgerlich-liberalen »Freiheiten«. In bekannter Weise kann der liberale Freiheitsbegriff von links als vor allem konsumentische Freiheit kritisiert werden. Die »Freiheit«, Lohnarbeit und Ski-Urlaub zu machen, ist immer schon eine bürgerliche-ableistische-kapitalistische Freiheit. Eine begrenzte Freiheit an sich und gleichzeitig auch eine Freiheit privilegierteR Personen, besonders im »globalen Norden« oder in den kapitalistischen Metropolen.

Das Problem ist deswegen nicht die Priorisierung von Gesundheit über Konsum, sondern die Ausführung entweder in einer technokratischen oder in einer autoritären Version. Ersteres entspräche einer Auslagerung von politischen Entscheidungen an Expert*innen – hier im Prinzip bestenfalls Epidemolog*innen und eigentlich gerade nicht Virolog*innen – oder der autoritären Version „des starken Mannes“ .

Die Kritik von Agamben ist insofern richtig, dass selbst mit Staatsbürgerschaft privilegierte Bürger*innen von diesem politischen Prozess ausgeschlossen sind. Selbst unter den Normen von parlamentarischen Demokratien erscheint das Ankreuzen des Wahlzettels alle vier Jahre eine vollkommen entfremdete Praxis. Mit und gegen Agamben gilt allerdings festzuhalten, dass dies kein Spezifikum der Corona-Krise ist, wie auch Ausnahmezustand, Grenzregime und Lager ja nicht Corona-Krisen spezifisch sind, sondern viel eher die Regel im biopolitischen, ableistischen und rassistischen Kapitalismus.


1) Insgesamt suizidieren sich in Deutschland etwa 10.000 Personen im Jahr. Es wird geschätzt, dass etwa die Hälfte unter schweren Depressionen leidet. Womöglich ist die Zahl noch höher.