26,99 €
Ob die Überwachungspraktiken der NSA oder die Geschäftsmodelle von Google, Facebook & Co.: Sie alle basieren auf »Big Data«, der ungeahnten Möglichkeit, riesige Datenmengen wie nie zuvor in der Geschichte zu erheben, zu sammeln und zu analysieren. »Big Data« beschreibt damit nicht nur neuartige wissenschaftliche Datenpraktiken, sondern steht für eine tektonische Verschiebung von Wissen, Medien, Macht und Ökonomie.
Im Unterschied zum Medienhype um »Big Data« schafft der Band einen Reflexionsraum zur differenzierten Auseinandersetzung mit dem datenbasierten Medienumbruch der Gegenwart. International führende Theoretiker der Digital Humanities stellen einen fachübergreifenden Theorierahmen zur Verfügung, der es erlaubt, »Big Data« in seiner gesamten sozialen, kulturellen, ökonomischen und politischen Bandbreite zeitdiagnostisch zu thematisieren.
Mit Beiträgen von David M. Berry, Jean Burgess, Alexander R. Galloway, Lev Manovich, Richard Rogers, Daniel Rosenberg, Bernard Stiegler, Theo Röhle, Eugene Thacker u.a.m.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Veröffentlichungsjahr: 2014
Ob die Überwachungspraktiken der NSA oder die Geschäftsmodelle von Google, Facebook & Co.: Sie alle basieren auf »Big Data«, der ungeahnten Möglichkeit, riesige Datenmengen wie nie zuvor in der Geschichte zu erheben, zu sammeln und zu analysieren. »Big Data« beschreibt damit nicht nur neuartige wissenschaftliche Datenpraktiken, sondern steht für eine tektonische Verschiebung von Wissen, Medien, Macht und Ökonomie.
Im Unterschied zum Medienhype um »Big Data« schafft der Band einen Reflexionsraum zur differenzierten Auseinandersetzung mit dem datenbasierten Medienumbruch der Gegenwart. International führende Theoretiker der Digital Humanities stellen einen fachübergreifenden Theorierahmen zur Verfügung, der es erlaubt, »Big Data« in seiner gesamten sozialen, kulturellen, ökonomischen und politischen Bandbreite zeitdiagnostisch zu thematisieren.
Mit Beiträgen von David M. Berry, Jean Burgess, Alexander R. Galloway, Lev Manovich, Richard Rogers, Daniel Rosenberg, Bernard Stiegler, Theo Röhle, Eugene Thacker u.a.m.
Ramón Reichert (Dr. phil.) ist Professor für Neue Medien am Institut für Theater-, Film- und Medienwissenschaft der Universität Wien. Seine Forschungsschwerpunkte sind Internetkultur, Digitale Ästhetik und Datenkritik. Bei transcript u.a. erschienen: »Amateure im Netz« (2008), »Das Wissen der Börse« (2009) sowie »Die Macht der Vielen« (2013).
http://ramon-reichert.net
Ramón Reichert (Hg.)
Big Data
Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie
MA 7, Gruppe Wissenschaft, 1082 Wien
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
eBook transcript Verlag, Bielefeld 2014
© transcript Verlag, Bielefeld 2014
Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen.
Covergestaltung: Kordula Röckenhaus, Bielefeld
Coverabbildung: Eric Fischer, Data visualisation of Twitter activity, 2012
Korrektorat: Marie-Claire Thun, Unna, Georg Löwen, Bielefeld, Larissa Eliasch, Paderborn
Konvertierung: Michael Rauscher, Bielefeld
ePUB-ISBN: 978-3-7328-2592-9
http://www.transcript-verlag.de
Einführung
Ramón Reichert
1. Big Digital Humanities
Licht und Schatten im digitalen Zeitalter
Programmatische Vorlesung auf dem Digital Inquiry Symposium am Berkeley Center for New Media
Bernard Stiegler
Die Computerwende – Gedanken zu den Digital Humanities
David M. Berry
Trending
Verheißungen und Herausforderungen der Big Social Data
Lev Manovich
Eine neue Betrachtung der Digital Humanities im Kontext originärer Technizität
Federica Frabetti
2. Geschichte und Theorie der Daten
Die Konstruktion von Big Data in der Theorie
Tom Boellstorff
Daten vor Fakten
Daniel Rosenberg
Big Data – Big Humanities?
Eine historische Perspektive
Theo Röhle
Nach dem Cyberspace: Big Data, Small Data
Richard Rogers
3. Digitale Methoden
Twitter-Archive und die Herausforderungen von »Big Social Data« für die Medien- und Kommunikationswissenschaft
Jean Burgess/Axel Bruns
Data-Mining von einem Prozent Twitter – Sammlungen, Basislinien, Stichproben
Carolin Gerlitz/Bernhard Rieder
Der Wert von Big Data für die Erforschung digitaler Medien
Merja Mahrt/Michael Scharkow
Twitter und Wahlen
Zwischen 140 Zeichen und Milliarden von Tweets
Katrin Weller
From Mind to Document and Back Again
Zur Reflexivität von Social-Media-Daten
Johannes Paßmann
4. Dataveillance: Algorithmen, Graphen und Protokolle
Protokoll, Kontrolle und Netzwerke
Alexander Galloway/Eugene Thacker
Der italienische Operaismo und die Informationsmaschine
Matteo Pasquinelli
Infodemiologie – von ›Supply‹ zu ›Demand‹
Google Flu Trends und transaktionale Big Data in der epidemiologischen Surveillance
Annika Richterich
You cannot not Transact – Big Data und Transaktionalität
Christoph Engemann
5. Digitale Technologien und soziale Ordnungsvorstellungen
»All Watched Over by Machines of Loving Grace«
Öffentliche Erinnerungen, demokratische Informationen und restriktive Technologien am Beispiel der »Community Memory«
Stefan Höltgen
(Very) Nervous Systems. Big Mobile Data
Regine Buschauer
Facebooks Big Data
Die Medien- und Wissenstechniken kollektiver Verdatung
Ramón Reichert
Sozio-technische Imaginationen
Social Media zwischen ›Digital Nation‹ und pluralistischem Kosmopolitismus
Martin Doll
Autorinnen und Autoren
Ramón Reichert
In der jüngsten Gegenwart ist »Big Data« zum populären Schlagwort aufgestiegen und wird oft als Sammelbegriff für digitale Technologien verwendet, die in technischer Hinsicht für eine neue Ära digitaler Kommunikation und Verarbeitung und in sozialer Hinsicht für einen gesellschaftlichen Umbruch verantwortlich gemacht werden. Die weit verbreitete Popularität des Buzzwords »Big Data« kann als Hinweis verstanden werden, dass digitale Technologien nicht nur als neutrale Übermittler und passive Objekte firmieren, sondern in einer engen Verbindung mit Diskursen, Akteuren und Netzwerken stehen, die Gesellschaft und Subjekte verändern.
Bisher haben vor allem die Branchen und Anwendungsbereiche von Wirtschaft, Marktforschung, Vertriebs- und Servicesteuerung, Medizin, Verwaltung und Nachrichtendienst die digitalen Methoden und Technologien, die zur Erhebung, Analyse und Modellierung von großen Datenmengen eingesetzt werden, weiterentwickelt und nutzbringend eingesetzt. Dem Sammeln großer Datenmengen ist selbst eine Machtgeschichte der möglichen Herstellung sozialprognostischen Wissens inhärent. An der Schnittstelle von konzernorientierten Geschäftsmodellen und gouvernementalem Handeln experimentieren Biotechnologie, Gesundheitsprognostik, Arbeits- und Finanzwissenschaften, Risiko- und Trendforschung in ihren Social Media-Analysen und Webanalysen mit Vorhersagemodellen von Trends, Meinungsbildern, Stimmungen oder kollektivem Verhalten.
Im Unterschied zum Medienhype um »Big Data«, der seine Entstehung der Möglichkeit zur kollektiven Adressierung durch Massenmedien verdankt, versucht der vorliegende Sammelband, einen Reflexionsraum zur differenzierten Auseinandersetzung mit dem datenbasierten Medienumbruch der Gegenwart zu schaffen. Der Band stellt einen fachübergreifenden Theorierahmen zur Verfügung, der es erlaubt, Big Data in seiner gesamten sozialen, kulturellen, ökonomischen und politischen Bandbreite zu reflektieren. Eine medien- und kulturwissenschaftliche Betrachtung der digitalen Großforschung distanziert sich von den normativen Diskursen des Daten- und Informationsmanagements, welche die Ansicht vertreten, dass die Entwicklung der spätmodernen Gesellschaften einerseits von der zunehmenden Verbreitung und alltäglichen Nutzung Sozialer Medien und andererseits von der Aussagefähigkeit von Großdaten abhängig ist.
Die Big Data-Research differenziert sich innerhalb der letzten Jahre erheblich aus: Zahlreiche Studien betreiben mithilfe maschinenbasierter Verfahren wie der Textanalyse (quantitative Linguistik), der Sentimentanalyse (Stimmungserkennung), der sozialen Netzwerkanalyse oder der Bildanalyse vielschichtige Social Media-Analysen. Damit sollen Wahlentscheidungen (Gayo-Avello, 2012), politische Einstellungen (Conover et al., 2012), Finanztrends und Wirtschaftskrisen (Gilbert und Karahalios, 2010; Zhang, 2010), Psychopathologien (Wald et al., 2012) und Aufstände und Protestbewegungen (Yogatama, 2012) frühzeitig vorhergesagt werden können: »Analysts and consultants argue that advanced statistical techniques will allow the detection of on-going communicative events (natural disasters, political uprisings) and the reliable prediction of future ones (electoral choices, consumption).« (Bur-gess und Puschmann, 2013, S. 4) Von einer systematischen Auswertung der Big Data erwarten sich die Prognostiker eine effizientere Unternehmensführung bei der statistischen Vermessung der Nachfrage- und Absatzmärkte, individualisierte Serviceangebote und eine bessere gesellschaftliche Steuerung. So wertet etwa Google Flu in Zusammenarbeit mit der US-amerikanischen Seuchenbehörde CDC die Häufigkeit bestimmter Suchbegriffe aus, um mit diesem Data Mining die Wahrscheinlichkeit von Grippeerkrankungen und deren Ausbreitung vorhersagen zu können. Zahlreiche Studien beschäftigen sich mit den Auswertungen von Tweets, die Korrelationen zwischen realen Preiserhöhungen und Stimmungen vermessen, Mobilfunkkonzerne und Computerhersteller erfassen die Bewegungsdaten von Kunden, um neue Ansätze für Dienste und Werbevermarktung zu erschließen, und das Trendmining der Social Media-Analysen versucht, Entwicklungen auf den Absatz-, Finanz- oder Arbeitsmärkten frühzeitig zu erkennen. Big Data resultieren nicht nur aus den Onlinedaten, den Kundendaten und den nutzergenerierten Inhalten als ›unstrukturierte Daten‹ (Inhalte von Emails und SMS-Nachrichten etc.), sondern entstehen gleichermaßen an den Schnittstellen der automatisierten Datenverarbeitung. In diesem Sinne spricht man in der angewandten Netzforschung von transaktionalen Nutzerdaten, die durch Webtracking, Handy-Monitoring oder Sensorerfassung entstehen (Bobley, 2011).
Wenn man es so betrachtet, ist das Social Web zur wichtigsten Datenquelle zur Herstellung von Regierungs- und Kontrollwissen geworden. Auch die politische Kontrolle sozialer Bewegungen hat sich in das Netz verschoben, wenn Soziologen und Informatiker gemeinsam etwa an der Erstellung eines Riot Forecasting mitwirken und dabei auf die gesammelten Textdaten von Twitter-Streams zugreifen: »Due to the availability of the dataset, we focused on riots in Brazil. Our datasets consist of two news streams, five blog streams, two Twitter streams (one for politicians in Brazil and one for general public in Brazil), and one stream of 34 macroeconomic variables related to Brazil and Latin America.« (Yogatama, 2012, S. 3)
Seit dem späten 20. Jahrhundert zählen die digitale Großforschung und ihre großen Rechnerzentren und Serverfarmen zu den zentralen Bausteinen der Herstellung, Verarbeitung und Verwaltung von informatischem Wissen. Damit einhergehend rücken mediale Technologien der Datenerfassung und -verarbeitung und Medien, die ein Wissen in Möglichkeitsräumen entwerfen, in die Mitte der Wissensproduktion und der sozialen Kontrolle. In ihrer Einleitung in das »Routledge Handbook of Surveillance Studies« knüpfen die Herausgeber Kirstie Ball, Kevin Haggerty und David Lyon einen Zusammenhang zwischen technologischer und sozialer Kontrolle auf der Grundlage der Verfügbarkeit großer Datenmengen: »Computers with the Power to handle huge datasets, or ›big data‹, detailed satellite imaging and biometrics are just some of the technologies that now allow us to watch others in greater depth, breadth and immediacy.« (2012, S. 2) In diesem Sinne kann man sowohl von datenbasierten als auch von datengesteuerten Wissenschaften sprechen, da die Wissensproduktion von der Verfügbarkeit computertechnologischer Infrastrukturen und der Ausbildung von digitalen Anwendungen und Methoden abhängig geworden ist.
Damit einhergehend verändern sich auch maßgeblich die Erwartungen an die Wissenschaft des 21. Jahrhunderts und es werden zunehmend Forderungen laut, die darauf bestehen, die historisch, kulturell und sozial einflussreichen Aspekte der digitalen Datenpraktiken systematisch aufzuarbeiten– verknüpft mit dem Ziel, diese in den künftigen Wissenschaftskulturen und Epistemologien der Datenerzeugung und -analyse zu verankern. Diesen fachübergreifenden Ansprüchen sieht sich der vorliegende Band verpflichtet und versammelt interdisziplinäre Analysen zum digitalen Wandel von Wissen, Macht und Ökonomie, die den aktuellen Debatten zum Stellenwert der Big Data eine theoretische, kritische und historische Tiefe verleihen wollen.
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
Lesen Sie weiter in der vollständigen Ausgabe!
