Im Taumel der Datenfluten (Big Data)

Mit dem Begriff »Big Data« (vgl. Manovich 2012/ Mayer-Schönberger, Cukier 2013) verbindet man sowohl das exponentielle Wachstum der Datenmengen (Verdopplung innerhalb von zwei Jahren) als auch die dazugehörigen Aufzeichnungsmaschinen und Auswertungssysteme der Daten (IT-Lösungen und Management-Systeme), die staatliche, substaatliche und private Institutionen anwenden, um Mechanismen wie Kontrollverfahren, Kapitalverwertung und Machtbeziehungen am Laufen zu halten. Es gibt inzwischen tausende von Unternehmen, deren monetäre Verwertung auf der Erfassung und Bearbeitung von Daten und der Generierung und Verknüpfung von Informationen beruht.

Computer sind syntaktische Maschinen, die keine bedeutungstragenden Informationen, sondern uninterpertierte Daten prozessieren. Mit der Kapazität, Unterschiede und Übereinstimmungen zwischen Elementen zu erzielen, wird ein prosemantsicherAkt installiert. (Floridi 2015: 182f.) Daten sind dann deshalb interessant, weil sie uns im Ansatz informieren. So hat eine erweiterte Definition der Daten sich einzugestehen, dass es sich bei ihnen nicht einfach nur um Fakten, die als Nullen vs. Einsen gegeben sind, handelt, sondern dass sie in ihrer Identität zugleich eine spezifische Relation besitzen (Selbstähnlichkeit oder Negentropie); zunächst ein Streben, dasselbe zu bleiben, aber darüber hinaus eben noch zu informieren. Insofern das Datum nicht einfach dem Nichts entgegengesetzt ist, sondern eine Beziehung zu seiner eigenen Gegebenheit als Etwas besitzt, erscheint das Datum X als x. Und dies wiederum heißt, dass Daten immer auch Information inhärieren: Während beim Begriff »Information« die Wurzel »Form« auf die Beziehung referiert, kapriziert das Präfix »in« auf die Existenz, auf die Aktualisierung der abstrakten Form in eine konkrete Information.

Die Megamaschine des kognitiven Kapitals kann als Agencement bzw. als die Stratifikation von globalen Infrastrukturen der digitalen Berechnung der Daten beschrieben werden; man denke etwa an a) Suchmaschinen und soziale Netzwerke (Google, Facebook), b) logistische Netzwerke und das Internet der Dinge (Amazon, Walmart), c) intelligente Agencies Assets (das Utah Datacenter der NSA und das PRISM Programm) und d) die Institutionen der Klimaforschung. Die beiden ersten Bereiche – das Internet der humanen Agenten und das Internet der Dinge – produzieren als aktive Infrastrukturen jede Millisekunde »Big Data«, und zwar durch lebendige Arbeit, Waren, Maschinen und durch das Tracking der Kommunikation. Nicht nur jede E-Mail, sondern jeder Online-Klick wird in einem exponentiell wachsenden Datenarchiv zum Datenmaterial. Die unter c und d subsumierten Bereiche weisen insofern Ähnlichkeiten auf, als sie »Big Data« und die dazugehörigen globalen Umgebungen registrieren, aufzeichnen und überwachen. Hier wird jede E-Mail oder Adresse als eine elektronische Spur aufgezeichnet und als Metadatum be- und verarbeitet. Zudem regrediert das Datum zum Werbematerial und zugleich werden unbekannte Zukünfte im Kontext der Präventionsforschung eruiert, evaluiert und kalkuliert. Schon die digitale Frage nach einem Arzt kann als Spur dienen, aus der sich im Zusammenspiel mit weiteren Informationen das zukünftige Krankheitsbild eines Menschen erzeugen lässt. Vom rein epistemologischen Standpunkt aus, gibt es hier keinen großen Unterschied zwischen Protokollen, die benutzt werden, um anti-soziales Verhalten und Terrorismus datentechnisch zu eruieren, und Protokollen, die benutzt werden, um etwa die Anomalien des Klimas zu dokumentieren.

»Big Data« umfasst darüber hinaus den Bereich der Auswertung von Tweets, die Erstellung der Korrelation zwischen Preisbewegungen und Meinungen, die Erfassung von Bewegungsdaten der Kunden durch Konzerne der Telekommunikation und Computerhersteller und das Trendmining der Social-Media-Analysen, um neue Entwicklungen auf den Absatz-, Finanz- oder Arbeitsmärkten frühzeitig zu erkennen. »Big Data« dreht sich allerdings nicht nur um die Erfassung und Strukturierung von Online- und Kundendaten sowie nutzergenerierten Inhalten (E-Mails und SMS-Nachrichten etc.), sondern entsteht zugleich an den Schnittstellen der automatisierten Datenverarbeitung durch transaktionale Nutzerdaten, die mittels Webtracking, Handy-Monitoring oder Sensorerfassung generiert werden. Auch die digitale Forschung inklusive ihrer Rechenzentren und Serverfarmen ist als ein Produktionsort zur Herstellung, Verarbeitung und Verwaltung von Daten zu verstehen. Es dürfte heute kein Geheimnis mehr sein, dass vor allem Kontrollgesellschaften unbedingt mediale Technologien der Datenerfassung, -verarbeitung und -überwachung benötigen, die sich diejenigen Unternehmen aneignen, die eine fast schon monopolartige Verfügbarkeit über das Datenwissen besitzen. Es sind die großen Social-Media-Unternehmen, die heute Zugang zu den Transaktionsdaten besitzen und eben nicht die wissenschaftlichen Communities. Das Datenwissen basiert also durchaus auf einer vertikalen und einer ein-dimensionalen Netzkommunikation, dem kontinuierlichen Fluss der Erfassung und Ordnung von Daten und der Etablierung von geschlossenen Wissens- und Kommunikationsräumen für die vektoriale Klasse und ihre Experten, welche die Daten in Information und Kommunikation transformieren.1

Umfangreiche Datenbanken zählen längst zu den wichtigen Elementen der digitalen Wissensproduktion und ihrer Verwertung; sie sind allerdings ohne die Datenerfassung, -bearbeitung und -auswertung und die zur Verfügung stehenden Technologien gar nicht denkbar. »Big Data« darf in diesem Kontext auch als eine normalisierende Technologie der Macht gelten, die auf der spezifischen statistischen Aus- und Verwertung der Daten beruht, wobei hier die Schnittstelle zwischen Wirtschaftsinformatik und kapitalkonzentrierter Datenbewirtschaftung mit den Bereichen Business Intelligence, Data Warehouse und Data Mining entscheidend ist. (Reichert 2013: 53) Es sind das Internet und die darin integrierten Netzwerke, die heute als riesige Datenproduktions-, Datenaufzeichnungs- und Datensammlungsmaschinen fungieren, mit denen dann sowohl die sozialstaatliche Normalisierung und Überwachung als auch die ökonomische Verwertbarkeit betrieben wird.

Die grundlegende epistemologische Voraussetzung für das Phänomen »Big Data« bildet die mathematische Graphentheorie, mit der man unter anderem Muster- und Clusterbildungen in Netzwerken präzise analysieren kann. So lassen sich die Mitglieder einer Gruppe als Netzknoten darstellen, deren Verbindungskanten (Linien) angeben, mit wem sie in und außerhalb der Gruppe Beziehungen unterhalten. Ohne weiteres läst sich der Leader in der Gruppe ausmachen, der bestimmte Cluster (Verdichtungen von Kontakten) um sich schart, selber aber gar nicht Teil der untersuchten Gruppe sein muss. (Vgl. Mainzer 2014: 228) Die Aktivitäten der gegenseitigen Beeinflussungen der jeweiligen Netzknoten lassen sich mit Diffusions-Reaktionsgleichungen beschreiben und dies führt zur Erkennbarkeit von Muster- und Clusterbildungen (z. B. von Krankheitsherden und -verläufen). Es ist auch leicht nachzuvollziehen, dass sich mit Hilfe der Graphentheorie bestimmte Parameter wie Dichte, Relation und Relata von ökonomischen Größen im Kontext der monetären Transaktionen an den Finanzmärkten abbilden bzw. illustrieren lassen. Dabei schaffen die algorithmischen Infrastrukturen bestimmte Bedingungen für die Normalisierung und Standardisierung der jeweiligen Kommunikationen und Transaktionen.

Biopolitische Verfahren der Kontrolle werden qua »Big Data« präventiv eingesetzt, so z. B. über die Auswertung der Daten bei Twitter oder Google, um daraufhin epistemologische Netzwerke aufzubauen, die der staatlichen Biopolitik im globalen Kontext zur Früherkennung von Aufständen und Epidemien aller Art dienen können. (Reichert 2013: 47) Gleichzeitig kommt es zum Zugriff von großen Unternehmen auf Daten, die in den sozialen Netzwerken hergestellt werden. So ermöglicht Twitter bestimmten Unternehmen nicht nur den Zugriff auf die Tweets und deren Inhalte, sondern auch auf Parameter wie Name, Uhrzeit und Ort der Tweets, die Twitter selbst wiederum mit Hilfe seiner Tracking Cookies gewinnt. (Ebd.: 48) In den sozialen Netzwerken sind nämlich riesige Datenmassen (im Bereich der Petabytes) permanent und fluktuierend online verfügbar (bei Facebook qua Newsfeed, Timeline und Graph Search). Es ist das Universum der RFID-Sensoren, der mobilen Netze, der Tweets und der Streamings, das es verunmöglicht, hier allein noch von technischen Objekten zu sprechen, vielmehr sind es sog. technologische Environments.

Und es sind die Techno-Utopisten aus dem Umfeld der Zeitschrift »Wired«, die inzwischen ganz pathetisch »Big Data«-Technologie mit wissenschaftlicher Erkenntnis identifizieren. In der Tat ist davon auszugehen, dass Maschinen zu einem höheren Grad als Menschen fähig sind, die logische Verknüpfung von Daten durchzuführen. Darüber hinaus gilt es festzuhalten, dass heute selbst noch die Versinnlichung der Begriffe oder Schemata qua induktiven Verfahren der Algorithmisierung maschinell geleistet werden kann. Gegenüber der Kausalitätsanalyse setzt man heute in der Wissensproduktion von Daten ganz auf die Korrelationsanalyse, die sich anscheinend rasend schnell multipliziert, ohne je noch falsifiziert oder verifiziert werden zu müssen. Dass es stärker auf die Korrelation bzw. Relation als auf den Inhalt der Daten ankommt, dessen waren die Autoren Kroker/Weinstein sich schon im Jahr 1996 bewusst, als sie von Daten als dem »Anti-Virus der Bedeutung« schrieben, weil die Konzentration auf Bedeutung nur zur Verlangsamung der Kommunikation führe. Dagegen wird das beschleunigte, reibungslose und friktionsfreie Prozessieren der Daten intendiert, ihre Ordnung und Hierarchisierung und schließlich ihre Zusammenfügung zu geschlossenen Räumen der Daten-Kommunikation und des Wissens, und dies ausschließlich für große Unternehmen, Staaten und informelle Gremien und deren Experten. Solch Datenräume hatten Kroker/Weinstein in ihrem Buch Datenmüll als tote elektronische Räume bezeichnet, als digitalen Superhighway, als überdimensionales Grundstücks-Spekulationsobjekt in kybernetischer Form, »bei dem konkurrierende Forderungen nach geistigen Eigentumsrechten in der Schlachtordnung der Multimedia-Kommunikationstechnologien auf dem Spiel stehen« (Kroker/Weinstein 1994: 19). Dabei gehören eine effiziente Server- und Netzwerkinfrastruktur, Bandbreitenkapazität und entsprechende Storage-Systeme zu den technologischen Bedingungen des »Big Data«-Phänomens. Cloud Computing, Filesharing und Smartphones sind Elemente einer Streaming-Prozessologie des Digitalen, auf die auch dann zugegriffen wird, wenn es um die Kostenminimierung, Effizienzsteigerung und Risikogenerierung im Rahmen betrieblicher Abläufe der Unternehmen geht.

Klaus Mainzer hat hinsichtlich des »Big Data«-Phänomens drei wichtige Trends ausgemacht: a) exponentielles Wachstum der Transaktionsdatenmengen und Interaktionsdaten, b) hochskalierbare Software und c) Sensotechnologie. (Vgl. Mainzer 2014: 234) Mainzer erwähnt hinsichtlich der Software den MapReduce-Algorithmus, der mit Hilfe der Parallelrechnung das Problem, wie oft welche Worte in einem Datensatz vorkommen, folgendermaßen löst: Der Gesamttext wird in kleinere Pakete unterteilt, wobei parallel mit der Map-Funktion die Häufigkeit der Worte berechnet und in Listen gespeichert wird. Mittels der Reduce-Funktion werden diese Listen dann wieder zusammengefügt und damit die Häufigkeit des Wortes für den ganzen Text berechnet (Hadopp in Java). Es sind also Algorithmen, welche die Relationen zwischen Daten und ihren Korrelationen berechnen, um Prognosen zu erstellen, für die es immer wieder neuer stochastischer Verfahren bedarf. Um neue Muster zu generieren oder zu selektieren, braucht auf die Inhalte und Bedeutungen der Datensätze gar nicht zurückzugegriffen zu werden, denn die Mustererfassung ist durch Metadatensysteme bereits gewährleistet. So ist bei der Smartphone-Kommunikation nicht der Inhalt der SMS (Daten) entscheidend, sondern das über Funksignale und -sensoren exakt zu berechnende Bewegungsmuster des jeweiligen Smartphone-Nutzers. Dieses Muster komprimiert man als Metadaten (Sender, Empfänger, Zeitpunkt und Ort). Es lassen sich damit ohne weiteres Graphen generieren, mit denen die Häufigkeit der Kontakte, Wege etc., also Muster und Cluster, illustriert werden können (Kreise und Kanten, die für Häufigkeit und Kontakt stehen.) Darüber hinaus dient das Semantic Web – eine spezifische Machttechnologie – dazu, mit Hilfe von sprachtechnologischen Modellen und Methoden Hintergrundinformationen und Kontexte abzusuchen, um Doppeldeutigkeiten in den gelesenen Texten auszuschließen und eine semantische Matrix zu erstellen, also in spezifischen Zeitreihen kollektives Wissen, Repräsentationen und Meinungen zu eruieren und zu evaluieren. Dabei gehen of course Normalisierungstrategien, die man oft als Unsicherheiten in der Hypothesenbildung ausweist (Reichert 2013.: 51) in die Berechnungen mit ein, wenn etwa bei den riesigen Mengen der Datensätze Komplexitätsreduktionen in Echtzeit durchgeführt werden, die wiederum Möglichkeiten anbieten, ganz im Sinne whiteheadscher Erfassungsmaschinen die Zukunft zu kalkulieren. Die hochskalierbaren Methoden und Technologien zur Erfassung polystrukturaler Datenmengen (ebd.: 52) kommen heute in den verschiedensten Bereichen zur Anwendung, um etwa Cluster/Muster bei Wahlen, in der Meinungsforschung, in der modernen Finance und hinsichtlich sozialer Bewegungen frühzeitig zu prognostizieren.

Darüber hinaus werden Datensätze, Zeitpakete und Statistiken als rekombinate Waren in immer schnelleren und intensiveren Dimensionen gehandelt, um einerseits die Kapitalverwertung zu forcieren und um andererseits statistische Prognosen und Messungen von Märkten, Dienstleistungen und Geldkapitalströmen zu gewährleisten.2 Selbst leistungsstarke Softwarearchitekuren und High-Performance-Computing-Datensätze sind noch als rekombinante Waren (in spe) zu verstehen, wenn sie als Teile (als fixes und zirkulierendes Kapital) der globalen Wertschöpfungsketten fungieren, also durch den Verkauf in monetär dominierte Produktionsprozesse eingehen, wo sie wiederum transformiert, re-kombiniert und recycelt werden können. Rekombinante Waren bestehen aus Zeitpaketen und Datensätzen, aus Informationen und generell aus Zeichen, die signifikante Semiologien wie a-signifikante Semiotiken integrieren – eine Zeichenökonomie, die Kroker/Weinstein noch jenseits der Politischen Ökonomie ansiedeln, wenn diese sich »in einer leuchtenden Sternenexplosion zur neuen globalen Astronomie des rekombinanten Zeichens hochkatapultiert.« (Kroker/Weinstein 1996: 47) Kroker/Weinstein bezeichnen die rekombinante Ware als Betriebssystem im algorithmischen Zentrum der virtuellen Ökonomie. (Ebd.: 103) Wir befinden uns nach Auffassung der beiden Autoren längst im Schlepptau einer post-ökonomischen, nomadischen, neuralen und liquiden Ökonomie, die im globalen Maßstab Hard-, Soft- und Wetware rekombiniert oder resequenzialisiert. In dieser Ökonomie prozessiert die rekombinante Ware ohne jede Position, das heißt im Medium der différance bzw. inmitten einer ungeheuerlichen Relationalität, die den elektronischen Netzwerken aufsitzt. Es handelt sich hier um den von Elie Ayache beschriebenen Markt – ein elektronisch simulierter Handelsplatz bzw ein Nicht-Ort, in dem Prozess und Raum/Gleichzeitigkeit sich infintesimal annähern, wobei die jeweiligen kurzfristigen Positionen in hyperschnell zirkulierende Virtualisierung/Aktualisierung-Verschaltungen eingespannt sind. Allerdings ignorieren die Autoren Kroker/Weinstein, dass eine derart rekombinante Ware sich nach wie vor in Geld realisieren lassen muss.

Mainzer hat darauf verwiesen, dass die Echtzeit-Lokalisierung von Automobilen im Verkehrssystem Autobahn Daten zur Verfügung stellt, die bestimmte Unternehmen durchaus profitabel verwerten können. In einem Netz, das auf verschiedenen Parametern/Komponenten basiert (Autotyp, Taxi, Klima, Flussbewegung des Verkehrs, Rhythmik etc.), lassen sich effiziente Flussmodelle berechnen und damit Daten über die zeitliche Verkehrsbelastung der Autobahnen gewinnen, um brauchbare Informationen über die Bewegungen am Arbeitsmarkt und damit für das Kapital verwertbares Wissen zu erhalten. Mittels des sich beschleunigenden Recylings und der Rekalibration der Datensätze lässt sich der maschinelle Mehrwert qua Algorithmen durch folgende Realisierungsmethoden extrahieren: a) Lizenzerhalt zur Benutzung von Daten, b) Analyse von Daten im Kontext der Unternehmensberatungsindustrie und der Werbeagenturen und c) Entwicklung neuer Geschäftsmodelle.

Schließlich geht es bei »Big Data« auch um die ganze Bandbreite von Innovationen, wie sie ansatzweise schon Schumpeter zusammengefasst hatte: 1) Einführung eines neuen bzw. Verbesserung der Qualität eines bestehenden Produkts. 2) neue Innovationen und Produktionsmethoden, die auf Forschung und neue Wissensformen zurückgehen oder einfach auf der effizienteren Bearbeitung des Gegenstandes beruhen. 3) Erschließung neuer Märkte. 4) Entdeckung neuer Rohstoffe. 5) Reorganisation der Märkte und der darin agierenden Einzelkapitale. (Vgl. Napoleoni 1973: 35) An Schumpeter anschließend haben die Autoren Nelson und Winter Zusammenhänge zwischen der Ausdifferenzierung bzw. Wettbewerbsfähigkeit von Unternehmen und ihrer jeweiligen Innovationsbereitschaft und -fähigkeit untersucht. (Vgl. Mazzucato 2014: 52). Dabei gilt es (im Gegensatz zur endogenen Wachstumstheorie), die intensiven Feedback-Effekte zwischen Wachstum, Innovation und Marktentwicklungen zu berücksichtigen. Im Mittelpunkt stehen höhere Skalenerträge, wobei es längst nicht immer so sein muss, dass die innovativsten Unternehmen sich auf dem Markt auch durchsetzen (aufgrund von Restriktionen durch politische Institutionen und das finanzielle Kapital). Für die ökonomischen Wissenschaften gilt es, das Innovationssystem und dessen Aktivitäten zu beobachten, mit denen neue Technologien hervorgebracht, modifiziert, moduliert und verbreitet werden. (Ebd.: 53) Laut Mazzucato lässt sich kein wahrscheinlichkeitstheoretischer Zusammenhang zwischen den Investionen in die Forschung und der Innovation und ihren Realisierungen in der Industrie herstellen, vielmehr bleibt die Innovation per se ungewiss (Knightsche Unsicherheit). Mazzucato geht dabei nicht von der Mikro- oder Makroebene, sondern von der Mesoebene aus, deren analytische Einheit ein Gefüge oder ein Set ist, in das Elemente wie Unternehmen, Konsumenten, Infrastruktur, Staat, Wissen und Logistik und die entsprechenden Relationen integriert sind. Unter Berücksichtigung der Kontingenz sind es die verschiedenen Feedback-Schleifen zwischen Unternehmen, Staat, Wettbewerbsmärkten, Technologie, Wissenschaft und Bildung, welche die Struktur und die wirtschaftliche Kraft der Innovationsnetzwerke bestimmen.

Die Herstellung eines kausalen Zusammenhangs zwischen Innovation und Wachstum erweist sich als nicht zutreffend, wenn nicht bestimmte Konstellationen eintreffen, mit denen innovative Unternehmen in der Lage sind, ihre Innovationen in Produktionsprozesse umzusetzen, i. e. anzuwenden und an den Märkten profitbringend zu realisieren. Zwar bleibt das technologische Niveau der Investitionen eine wichtige Größe für das Wirtschaftswachstum, aber für Mazzucato gibt es keine kausal-lineare Beziehung zwischen den jeweiligen Parametern. Auch die Relation zwischen Forschungsausgaben, Firmengröße, Anzahl der Patente und Investitionsniveau zeige keine Linearität an. (Ebd.: 98) Mazzucato bestätigt letztendlich aber doch die marxistische These, dass die technologische Innovation in Relation zu der Notwendigkeit für das Einzelkapital zu setzen ist, relative Mehrwertproduktion zu betreiben oder Extraprofite zu erzielen, indem Produktivitätsvorsprünge durch Maschinen erzielt und angewendet sowie durch den Verkauf der Produkte auch realisiert werden. Mazzucato spricht schließlich selbst davon, dass es gerade die am schnellsten wachsenden Unternehmen seien, also diejenigen mit der höchsten Profitrate, die direkt Profite aus ihren Forschungsausgaben ziehen können. Oder sie behauptet etwa, dass in Phasen des schärfsten Wettbewerbs innerhalb einer Branche ein Zusammenhang zwischen Wachstum und Forschungsausgaben nachzuweisen sei. (Ed.: 65) In der Krise wiederum und dem darauf folgenden stagnativen Zyklus der Rezession kann es sein, dass die Investitionen in neue Maschinen fast ganz ausbleiben – das Know-How der Arbeitskrafte stagniert und innovative Unternehmen konsolidieren sich erst gar nicht am Markt. Allerdings weist Mazzucato immer wieder darauf hin, dass die Knight`sche Unsicherheit bei Innovationen – eingebunden in den Komplex Investition, versunkene Kosten und hohe Kapitalintensität – der wesentliche Grund dafür sei, dass gerade das private Wagniskapital bei Investitionen in technologische Innovationen sich deutlich zurückhalte und der Staat hier nicht einfach nur in die Bresche springe, sondern mit seinen Ausgaben bestimmte Innovationen und Märkte überhaupt erst generiere. (Ebd.: 213)

1 Das Unternehmen Acxiom handelt mit den Daten von circa 300 Millionen US-Bürgern. Diese Firma besitzt angeblich mehr Daten als das FBI, wahrscheinlich sogar mehr als die NSA. Bei Acxiom werden die Menschen in siebzig Kategorien eingeteilt, um sie wie Waren anzubieten, die eine bestimmte Nachfrage befriedigen. Die unterste Kategorie auf der Skala heißt im übrigen »waste« – Müll, wohingegen unter der Kategorie mit hohem Marktwert die Gruppe »Shooting Stars« subsumiert wird. Ihre Merkmale sind folgende: Zwischen 26 und 45 Jahre alt; dynamisch, und sie stehen früh zum Joggen auf, haben keine Kinder, sind aber unter Umständen verheiratet, pflegen einen veganen Lebensstil, reisen gerne und schauen »intelligenten« Fernsehserien.

2Der Begriff Rekombinanz kommt aus der Vererbungslehre und bezeichnet Veränderungen des Genmaterials bzw. die Kombinatorik von DNA-Strängen. Im ökonomischen Bereich geht es um die differenzielle und zugleich konstant gegebene Zusammensetzbarkeit von Produktlinien.

Literatur:

Floridi, Luciano (2013):The philosophy of Information. Oxford/New York.

Galloway, Alexander R.(2006): Protocol: How Control exists after Decentralisation. Massachusetts.

Kroker, Arthur/Weinstein, Michael A. (1997): Datenmüll. Theorie der virtuellen Klasse.Wien.

Kroker, Arthur/ Kroker, Marilouise/ Cook, Davis (1999): Panik-Enzyklopädie. Wien.

Mainzer, Klaus (2014): Die Berechnung der Welt. Von der Weltformel zu Big Data. München

Mayer-Schönberger, Viktor & Cukier, Kenneth. (2013): Big Data. A Revolution that will transform how we live, work and think. London.

Manovich, Lev (2012): Trending: The promises and the Challenges of Big Social Data. In: Gold, M.K. (Hrsg.): Debates in the Digital Humanities. Minneapolis. 460–475.

Mazzucato, Mariana (2014): Das Kapital des Staates. Eine andere Geschichte von Innovation und Wachstum. München.

Reichert, Ramon (2009): Das Wissen der Börse. Medien und Praktiken des Finanzmarktes. Bielefeld.

– (2013): Die Macht der Vielen. Über den neuen Kult der digitalen Vernetzung. Bielefeld.

Foto: Bernhard Weber

Nach oben scrollen