Automation. Zu Jason E. Smiths “Smart Machines and Service Work” (2)

Wenn man die Enthusiasten der Automation fragt, warum man in den letzten beiden Jahrzehnten einen Rückgang der Arbeitsproduktivität konstatieren kann, führen sie Schwierigkeiten bei der Messung der Fortschritte in der Automation in Sektoren wie etwa dem Gesundheitswesen und time-lags bei der Implementierung oder Diffusion der Techniken in die Ökonomie an. Mit dem Intel 4004 Mikrochip begann in den 1070er Jahren der Durchbruch des Computers und es folgte ein exponentielles Wachstum der digitalen Kapazitäten (Mooresches Gesetz), sowie der Einsatz der Glasfaserkabel, begleitet von einem stetigen Fall der Preise für Mikroprozessoren, was zu den digitalen Landschaften führte, die wir heute kennen: Sekundenschnelle Finanztransaktionen, gestreamte Videos, Social Media und die großen Tech-Firmen. Es war der Ökonom Robert Solow, der zuerst von einem Produktivitäts-Paradon sprach, insofern die rapide Digitalisierung seit den 1970er Jahren nicht mit einem Anstieg der Arbeitsproduktivität einherging. Ein neues technologisches Regime, wie die Theoretikerin Carlota Perez schreibt (man denke hier etwa an den Einsatz des elektrischen Dynamo), erfordert den Einsatz von hohem fixen Kapital in Equipment, Maschinen und Fabriken, deren Wert sich erst nach und nach über längere Perioden hinweg amortisiert. (Perez macht in der Binnengeschichte des Kapitals drei Korrelationen von Innovationsschüben im “Realsketor” mit solchen in der Finanzindustrie aus: Industrielle Revolution und lokale Banken in England, fordistische Massenproduktion und Konsumentenkredite und schließlich Kommunikationstechnologien und Derivate.) Es braucht aber auch ein ökonomisches und politisches Umfeld, in dem technologische Schübe sich durchsetzen können. So waren es beispielsweise die spezifischen Bedingungen nach dem 2. Weltkrieg (Kapitalvernichtung etc.), die dafür verantwortlich waren, dass ein neues technologisches Regime sich etablieren konnte.

Das beschleunigte, durch Computer und Informationstechnologien vorangetriebene Wachstum nennt man in wissenschaftlichen Fachkreisen “Singularität”, wobei es aber zwischen technischer und wirtschaftlicher Singularität zu unterscheiden gilt. Die ökonomische Singularität bemisst sich daran, wie sich generell die Substituierbarkeit zwischen Information und konventionellen Inputs entwickelt. Der Ökonom William D. Nordhaus hat in einer neuen Studie darauf hingewiesen, dass das wirtschaftliche Wachstum davon abhängig ist, inwieweit sich Stofflichkeit durch Elektronik ersetzen lässt. Zudem gilt es auf gesamtwirtschaftlicher Ebene zu berücksichtigen, dass höhere Produktivität niedrigere Preise nach sich zieht, sodass sich in toto nur dann ein steigender Anteil von produktivitätsstarken Sektoren nachweisen lässt, wenn deren Volumenzuwachs das Sinken der Preise überkompensiert. Auch der Frage der ständigen Substituierbarkeit von bestimmten Produktionsfaktoren durch Information auf der Ebene der Organisation geht Nordhaus nach. Er belegt, dass dies in der Vergangenheit nicht der Fall war und prognostiziert auch für das 21. Jahrhundert nur eine langsame Entwicklung in Richtung ökonomische Singularität, obgleich die Kapitalintensität weiterhin (Kapitalstock gegenüber dem Arbeitsaufwand) zunehme und eben damit auch der Anteil des Informationskapitals. Dennoch ist für Nordhaus davon auszugehen, dass die digitalen Informations- und Kommunikationstechnologien im neuen Jahrtausend dazu beigetragen haben, ein neues Niveau der Produktivität in Produktion und Distribution zu etablieren, indem sie den Warenaustausch zwischen den Unternehmen verdichten und beschleunigen, Rationalisierungsprozesse in den globalen Wertschöpfungsketten und in der Zuliefererindustrie, die Reorganisation von Bereichen wie Architektur, Städtebau, Gesundheitswesen etc. ermöglichen. Die Software, mit der Managementmethoden, Derivate und digitale Logistik prozessieren, darf man hier durchaus als Basisinnovation verstehen, die in ein neues technisch-ökonomisches Paradigma eingebunden ist.

Dem widerspricht Smith energisch. Seit den 1970er Jahren müsse man von einer Stagnation und einem Rückgang sowohl der Wachstumsraten der Arbeitsproduktivität als auch der des industriellen Investments ausgehen. Smith erwähnt an dieser Stelle wiederum die Einwände einiger Automationstheoretiker wie Paul Mason, der im Rückgriff auf Ernest Mandel sich auf die langen Kondratieff Wellen beziehet, nach denen der Einsatz des Intel Mikroprozessors in einer Phase der ökonomischen Stagnation Mitte der 1970er Jahre Cluster von Innovationen nach sich zog, die spätestens nach 35 Jahren für einen neuen ökonomischen Aufschwung sorgen sollten, der sich dann auch in den entsprechenden ökonomischen Daten (Produktivität, BIP, Investment) ausweist. Dass es dazu zunächst nicht kam, führt Mason auf die Finanzkrise des Jahres 2008 zurück, obgleich er weiterhin von einem exponentiellen takeoff in der Produktivität träumt und dies angesichts der Tatsache, dass wir es seit den 1970er Jahren mit einem Klima der ökonomischen Stagnation und, so Smith, einer anhaltenden technologischen inertia in den entwickelten Ländern zu tun haben. So ist die Zirkulation von Bildern über vernetzte Computerterminals im wesentlichen nur eine Zusammenführung von Innovationen im Feld der Telekommunikation (Radio, Telefon) und bestimmten Bildtechniken (Photographie, bewegende Bilder). Und das Smartphone ist lediglich eine bessere Version von schon vorhandenen Geräten, es ist ein toy und nicht ein tool, eingesetzt vor allem in der Unterhaltungs- und der Freizeitindustrie und mit wenig Effekt auf die Produktivität und Modellierung der Arbeitsplätze – letzendlich haben wir es, so Smith, mit einem Tsunami von infantilen Gadgets für Kinder und Erwachsene zu tun. Facebook und Google repräsentieren für Smith in ökonomischen Terms nichts weiter als verfeinerte “advertising delivery systems”, die ein Großteil ihrer Einnnahmen über den Verkauf von Werbeanzeigen generieren. Zuboff spricht weitergehend jedoch von einer neuen Akkumulationslogik, innerhalb derer das neue Überwachungskapital (Daten über menschliches Verhalten inklusive scheinbar nutzloser Überschüsse von Daten (Fehler, Syntax, Zeichen etc.) extrahiert, das heißt Daten und Fehler aufsaugt und diese ständig mit anderen Daten kombiniert, um mit ihnen intelligente Maschinen zu füttern, die mittels algorithmischer Prozesse Vorhersagen über das künftige Verhalten der User produzieren, Vorhersagen, die als Quasi-Derivate dann auf Verhaltensterminkontraktmärkten angeboten und verkauft werden.

Auch die neuen Plattform-Unternehmen wie Uber, Lyft und AirBnB sind nichts weiter als digital vermittelte Arrangements, in denen User und Provider auf einem digitalen Marktplatz zusammengeführt werden, wobei die Plattform-Unternehmen für jede Transaktion Gebühren einstreichen. Es handelt sich hier allenfalls um neue monopolitstische Business-Modelle, aber nicht um neue innovative Technologien, die im Zusammenhang mit der Anwendung produktiver Arbeit stehen.

Wenn mit der Automation ein neues Zeitalter der technologischen Innovation und des ökonomischen Wachstums wirklich anbräche, dann müssten wir es auch mit steigenden Raten im industriellen Investments und in fixes Kapital zu tun haben. Währenddessen spricht der Ökonom Robert Gordon in seinem Buch The Rise and Fall of American Growth von einem rapiden Fall der Netto-Investments von privaten US-Unternehmen seit dem neuen Jahrtausend. Die Rate des Netto-Investments im Verhältnis zum Kapitalstock fällt seit den 1970er Jahren und dramatisch seit dem Jahr 2002 (von 1970 bis 2002 haben wir es in den USA mit einem Netto-Investment im Durchschnitt von 3,2% zu tun, im Jahr 2013 war es nur 1%). Wenn zudem nach neuesten statistischen Messmethoden auch finanzielle Ausgaben in das intellektuelle Eigentum als Investitionen gelten, also rechtliche Titel für Technologien, um die flows von Revenues zu sichern, dann seien, so Smith, die Investmentraten für neue effizientere Arbeitsprozesse und neue Organisationsmethoden noch niedriger anzusetzen. Smith spricht an dieser Stelle vom Dynamismus von Industrien mit hohem und dichtem Wettbewerb, die konstante Innovationen erfordern, gegenüber nicht wettbewerblichen Sektoren (Antimärkten), in denen die Marktanteile durch die Absicherung von Eigentumsrechten erfolgen. Wie das neue Buch von Katharina Pistor Der Code des Kapital aber gerade zeigt, kann auch die rechtliche Codierung (Eigentums-,Vertrags-, Insolvenzrecht etc.) Kapital schaffen und schützen, Module, die bestimmten Gütern Eigenschaften zuordnen, wie Priorität auf Ansprüche, Beständigkeit, die zeitliche Ansprüche ausdehnt, Universalität, die sie räumlich ausdehnt, und Konvertierbarkeit, die es Kapital- und Vermögenseigentümern erlaubt, Kreditansprüche in Staatsgeld zu verwandeln. Für mache Finanzinstrumente ist der Code selbst das Kapital. In der Diskussion um produktive und unproduktive Arbeit und der Frage der Finance werden wir weiter klären, ob Smith nicht doch einen verkürzten Begriff des Kapitals und der Produktivität zur Anwendung bringt.

In der Diskussion um die sog. Big Tech Firmen weist Smith daraufhin, dass im Jahr 2007 die 10 Firmen mit der höchsten Marktkapitalisierung multinationale Unternehmen aus den Bereichen Finanz, Industrie, Öl, Gas und Telekommunikation waren, während heute sieben Big Tech Firmen wie Apple unter den ersten zehn in der Rangliste der großen Unternehmen zu finden sind, die wenig Innovation zur Produktenetwicklung und zu neuen betrieblichen Organisationsformen beitragen. Im Jahr 2018 hielt Apple Cash-Reserven von 300 Milliarden Dollar, während seit dem Jahr 2012 immerhin 210 Milliarden für Aktienrückkäufe verwendet wurden und eben nicht in die Forschung und Innovation gesteckt wurden. Smith vergisst dabei zu erwähnen, dass Apple auch als Finanzunternehmen aktiv ist, aber wie wir später sehen werden, versteht Smith die Finanzindustrie fälschlichweise als einen rein unproduktiven Sektor. Die heutigen digitalen Technologie- und Internetunternehmen, die alle oligopolistische oder gar monopolitsiche Unternehmen sind, erzielen ihren Erfolg durch die Ausnutzung von Netzwerkeffekten, ihre Assets sind die User, die vernetzt werden, und deren Informationen, die durch den Austasuch entstehen, man extrahiert und verwertet.

Parallel hat man es nach einer Studie der OECD vermehrt mit sog. Zombie-Unternehmen zu tun, die unter normalen Marktbedingungen nicht mehr wettbewerbsfähig wären und von effizienteren und technologisch innovativeren Unternehmen vom Markt gedrängt würden, aber infolge ultraniediger Zinsraten angetrieben durch die Politik der Zentralbanken (QE und billiges Geld) in der Lage sind, sich durch Kreditaufnahmen über Wasser zu halten. Diese Firmen haben selbst Schwierigkeiten über ihre Revenues und Profite ihren Schuldendienst zu leisten. Die Unternehmen, die sich durch eine geringe Produktivität auszeichnen, hängen am Tropf des billigen Kredits, was zu einer nur suboptimalen Allokation von ökonomischen Resourcen für das Gesamtkapital führt. Für neue Firmen mit höherem Innovationspotenzial kann damit der Marrkteintritt sogar erschwert werden. Für Smith jedenfalls sind die zwei charketeristischen Business-Modelle der Zeit nach der Finanzkrise 2008 die Plattform- bzw. Big Tech Unternehmen und die Zombie-Unternehmen. Damit unterschlägt er natürlich die nach wie vor gewichtige Rolle der Finanzunternehmen. Heute sind es in den USA gerade einmal 30 Unternehmen, die ungefähr 50% der Profite börsennotierter Unternehmen einstreichen, Unternehmen, die Bichler/Nitzan in ihrem Konzept des Kapitals als Macht als dominante Unternehmen bezeichnen, während demgegenüber ein Großteil der Unternehmen hohe Kreditbestände aufweist, die durch Finanzinstrumente wie CDL abgesichert und gehandelt werden und die eine ähnliche Dynamik wie die CDOs aufweisen könnten, ein Krisenherd der großen Finanzkrise im Jahr 2008. So sind 85% der ausstehenden Kreditschulden von privaten Unternehmen auf diese Art der Finanzierung zurückzuführen.

Nach der Immobilienkrise verlagerte sich die Nachfrage der Banken auf ein ähnlich risikoreiches Asset, den Collateralized Loan Obligations (CLOs). Ein CLO ist ähnlich wie ein CDO strukturiert, aber anstelle von Darlehen an Hauskäufer werden Darlehen an Unternehmen – insbesondere in Schwierigkeiten geratene Unternehmen – vergeben. CLOs bündeln und strukturieren Leverage-Loans, die Subprime-Hypotheken der Unternehmen. Dabei handelt es sich um Darlehen an Unternehmen, die das Limit ihrer Kreditaufnahme erreicht haben und nicht mehr in der Lage sind, Anleihen direkt an Investoren zu verkaufen oder sich für einen traditionellen Bankkredit zu qualifizieren. Gegenwärtig sind in den USA fremdfinanzierte Darlehen im Wert von mehr als 1 Billion Dollar ausstehend, wobei die Mehrheit als CLOs gehalten wird.

CDOs und CLOs sind sich bemerkenswert ähnlich, denn wie ein CDO hat ein CLO mehrere Ebenen, die separat verkauft werden können: Die untere Ebene ist die riskanteste, die obere die sicherste. Wenn nur einige wenige der Kredite in einem CLO ausfallen, erleidet nur die untere Ebene einen Verlust und die anderen Ebenen bleiben sicher, aber wenn die Ausfälle zunehmen, dann wird die unterste Schicht noch mehr verlieren und die anderen Ebenen werden auch Verluste erleiden, wobei die oberste Schicht jedoch geschützt bleibt, dennsie verliert erst dann Geld, wenn die unteren Schichten ausgelöscht sind.

Vielen Schätzungen zufolge ist der CLO-Markt größer als der Markt für CDOs mit seinen Subprime-Hypotheken auf dem Höchststand. Die Bank für Internationalen Zahlungsausgleich, die die Zentralbanken bei der Sicherung der Finanzstabilität unterstützt, hat die Gesamtgröße des CDO-Marktes im Jahr 2007 auf 640 Milliarden Dollar geschätzt und die Gesamtgröße des CLO-Marktes im Jahr 2018 schätzte sie schon auf 750 Milliarden Dollar.

Im nächsten Kapitel wendet sich Smith der Beschäftigung zu und findet in den USA zunächst das Paradox von fallenden Reallöhnen bei einem gleichzeitigen Anstieg der Beschäftigung. Smith hat die US-Statistiken zur Beschäftigung genauer untersucht und herausgefunden, dass im Jahr 2016 nur 69% der Arbeiter aktiv am Arbeitsmarkt partizipieren, das heißt, 31 % gar nicht mehr nach Jobs gesucht haben. Damit ist die Arbeitslosenquote natürlich höher als offiziell verkündet und liegt laut der Financial Times im Jahr 2017 in den USA bei 20%. Die permanente Stagnation der Löhne hat für Smith ihren Hauptgrund aber nicht in dem Verhältnis von Angebot und Nachfrage nach Arbeit, sondern zum einen im Verhältnis des totalen ökonomischen Outputs zu den Löhnen der Arbeiter. Insofern die Arbeitseinkommen invers zu demjenigen Anteil des Outputs sind, der zu den Kapitalisten als Profit zurückfließt, beeinflusst jede Veränderung in der Verteilung von Arbeits- und Kapitaleinkommen bei gleichbleibender Arbeitsproduktivität beide Anteile, den einen Anteil positiv, den anderen negativ. Es handelt sich hier um einen direkten Ausdruck der Klassenmacht in den kapitalistischen Ökonomien, die infolge der wachsenden Dekomposition der politischen Arbeiterklasse seit den 1970er Jahren zu einem erhöhten Zugriff des Kapitals auf den Output geführt hat. Zum anderen sind die sinkenden Löhne auf eine Reduzierung der Wachstumsraten der Arbeitsproduktivität zurückzuführen. Wenn die Teilung der Einkommen zwischen Kapital und Arbeit konstant bleibt, können die Reallöhne nur dann steigen, wenn die Arbeitsproduktivität steigt (höherer Output pro Arbeiter oder Stunde), sodass die Kosten pro Einheit des Outputs sinken, womit die steigenden Margen bei gleichbleibenden Einkommen zwischen Kapital und Arbeit verteilt werden können, wie diese in den ersten drei Jahrzehnten nach dem 2. Weltkrieg aufgrund des Einsatzes neuer Technologien in den entwickelten Ländern auch der Fall war. Und eine steigende Arbeitsproduktivität ist u.a. auf der Basis von steigenden Raten des Einsatzes des fixen Kapitals pro Arbeiter möglich, dem Investment in die Maschinerie. Und Smith konstatiert, dass in den entwickelten Ländern die Löhne nicht wegen eines Überangebots an Arbeitskräften gefallen sind, sondern weil diese Ökonomien sich im Prozess einer andauernden Stagflation befinden. Es gibt zwar den Diskurs, dass im Zuge der Globalisierung und dem Outsourcing von Unternehmen, der just-in-time-Produktion und der computergestützten Logistik die Produkte billiger und schneller bzw. in kürzeren Intervallen um die Welt zirkulieren als je zuvor, die Logistik- und Verteilungscluster im kommerziellen Verkaufsbereich immer effizienter werden und zugleich immer mehr Arbeitskräfte in diese Bereiche hineingesaugt werden, aber, so Smith, die Zahlen von McKinsey würden demgegenüber zeigen, dass dass Wachstum der Arbeitsproduktivität auf einem niedrigen Level stattfände. Smith konstatiert für das Intervall von 2007 bis 2017 in den USA sogar eine Rate des Produktivitätswachstums von -0,2%.

Smith zitiert Anwar Shaikh, der keine apriori Korrelation zwischen der Bewegung der Löhne und den Produktivitätsraten feststellen kann, letztere seien lediglich eine materielle Bedingung für potenzielle Lohnzuwächse, ohne diese exakt zu determinieren. Für Lohnzuwächse bedarf es bestimmter sozialer Institutionen und Klassenkämpfe. Shaikh spricht für die Periode von 1970 bis 2008 in den USA von einem technologischen Dynanismus mit Produktivitätszuwächsen begleitet von Reallohnsenkungen, was zu einer Erhöhung der Kapitalakkumulation bis zum Jahr 2008 führte, wobei Smith Shaikh vorwirft, dass er nur die Produktivitätsbewegung in der Industrie berücksichtige, aber nicht diejenige in allen Beschäftigungssektoren, in denen in den USA 4 von 5 Arbeitskräften tätig seien. Und gerade in der Serviceindustrie sei es eben zu keinen signifikanten Steigerungen der Arbeitsproduktivität gekommen.

Allerdings ist die Argumentation Shaikhs komplexer. Eine stagnierende oder fallende Profitrate kann für Shaikh zumindest, was die kurzfristige oder mittelfristige Betrachtung der Kapitalakkumulation angeht, nicht allein ausschlaggebend für die Erklärung des Verlaufs eines Booms oder einer Depression sein. Dabei stützt sich Shaikhs Begründung für den längeren Boom in den USA von 1982 bis 1997 einerseits auf den durch neoliberale Strategien produzierten Rückgang der Reallöhne sowie auf den scharfen Fall der Zinsraten – Faktoren, die beide zu einer Erhöhung der Unternehmensgewinne geführt hätten. Hinzu kommt allerdings der Fall der organischen Zusammensetzung des Kapitals, vor allem für diejenige Periode, in der die neuen Mikrotechnologien den Wert des konstanten Kapitals massiv senkten. Der moderate Anstieg der Profitrate zwischen den Jahren 1982 bis 1997 ist also auch bei Shaikh längst nicht nur auf die Erhöhung der Mehrwertrate zurückzuführen, sondern auch auf den zeitweiligen Fall der organischen Zusammensetzung des Kapitals, während seiner Ansicht nach allerdings erst die niedrigen Zinsraten den flachen Boom der Netto-Profitraten und eine relativ konstante Akkumulationsrate ermöglicht hätten. Was also den Boom in den 1980er Jahren in den USA wirklich motivierte bzw. vorantrieb, ist laut Shaikh effektiv der dramatische Fall der allgemeinen Zinsrate gewesen, die von 14 % im Jahr 1981 auf über kaum 1 % im Jahr 2003 fiel. Und exakt dies führte zum Anstieg der Nettoprofitrate, der das kapitalistische Wachstum in den zwei Dekaden nach dem Jahr 1982 wesentlich beschleunigte. Zugleich begünstigten die fallenden Zinsraten u. a. den Anstieg der schuldenfinanzierten Ausgaben der privaten Haushalte, womit das industrielle Wachstum mit den Aufwärtsbewegungen bzw. Blasenbildungen an den Immobilien- und Finanzmärkten parallel lief. Die Zinsraten fielen aber auch in anderen Teilen der Welt, manchmal sogar schneller als in den USA, und dies führte wiederum zu einem internationalen Boom der industriellen Akkumulation und der Finanzialisierung, vor allem in den sog. Schwellenländern. Es war also der Fall der Zinsraten, der u. a. ganz wesentlich für den Anstieg der privaten Verschuldung verantwortlich zeichnete, ohne dabei zumindest phasenweise die Schuldenrückzahlungen der Lohnabhängigen drastisch zu erhöhen.

Part 1 here

Scroll to Top