Digital Politics - Aleksandra Sowa - E-Book

Digital Politics E-Book

Aleksandra Sowa

0,0
12,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Digitalisierung schlägt Demokratie. Die bequeme und undurchsichtige "Cyberwelt" macht uns mündig und unmündig zugleich. Sie beeiflusst unser Leben, Politik, Wirtschaft und (demokratische) Entscheidungen. In 10 Kapiteln erklärt Aleksandra Sowa, Expertin für Verschlüsselungstechnologien, wo Fallstricke liegen und wie man um sie herumkommt. Statt die Technologie als Ursache des Übels zu verdammen, muss man begreifen, dass jeder für den Schutz seiner Daten selbst verantwortlich ist. Sich zu wehren will gelernt sein! Die Autorin zeigt, wie. Big Data, Hacktivism, Social Bots, Fake News, Roboter, Künstliche Intelligenz und Algorithmen können individuelle Freiheiten bedrohen, aber auch demokratiefördernd wirken. Einige wenige herrschen über die Technologie und horten die Daten. Erst programmieren und speichern, dann nachdenken oder reparieren, heißt die Devise. Was also ist gegen die Enteignung unserer Hardware und digitale Unmündigkeit zu tun? Wie sorgen wir weiterhin für informationelle Selbstbestimmung? Demokratie und der Erhalt bürgerlicher Freiheiten ist harte Arbeit.

Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:

EPUB

Seitenzahl: 208

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Aleksandra Sowa

Digital Politics

So verändert das Netz die Demokratie

10 Wege aus der digitalen Unmündigkeit

Bibliografische Information der Deutschen Bibliothek

Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet unter http://dnb.dnb.de abrufbar.

ISBN 978-3-8012-7010-0

© 2017 by

Verlag J. H. W. Dietz Nachf. GmbH

Dreizehnmorgenweg 24, 53175 Bonn

Umschlaggestaltung: Birgit Sell, Köln

Satz: Kempken DTP-Service| Satztechnik · Druckvorstufe · Mediengestaltung, Marburg

E-Book-Herstellung: Zeilenwert GmbH 2017

Alle Rechte vorbehalten

Besuchen Sie uns im Internet: www.dietz-verlag.de

Inhaltsverzeichnis

Cover

Titel

Impressum

Statt eines Vorworts

Big Data

Aas muss gut sein. Millionen Fliegen können nicht irren!

Folge dem Datenstrom

Ein ziemlich großer Haufen

Wer kumuliert, manipuliert

Das mathematische Genie

Die Filterblasen – gibt es sie wirklich?

Der natürliche Zustand

Big Data contra Datenschutz

Secret racism

Pfui, die Wissenschaft

Der nächste Kanzler wird

tl; dr 1

Was hilft? – Der digitale McGyver

tl; dr 2

Was hilft? – Der digitale McGyver

Anmerkungen

Wählen und Wahrheit

Alles, was erlaubt ist – und auch nicht

Wahlen sind primitiv

Das Versprechen

Try out and excuse later

Viele Hinweise – wenige Beweise

Diktatur der Wahlen

Macher. Medien. Politik

Menschen sind wie Schafe

Nichts als die Wahrheit

Das Kompromat

Aktive Maßnahmen

Menschen sind Raubtiere

Online voting won’t save democracy

tl; dr 3

Was hilft? – Der digitale McGyver

tl; dr 4

Was hilft? – Der digitale McGyver

Anmerkungen

Der Fluch der Automatisierung – oder doch nicht?

Golem, Homunculus und Frankenstein – all together now!

Mein Chef, der Roboter

Von Algorithmen zur Superintelligenz

Die Regierungsmaschine

Hier endet die Moral

Das sozialistische Internet

Die erste Ursache

Seine Hände in Unschuld waschen

Die neue wirtschaftliche Elite

Scheitern. Zum letzten Mal

tl; dr 5

Was hilft? – Der digitale McGyver

Anmerkungen

Real Humans

Der Geist in der Maschine

Esse est computari

Weil diesmal alles anders ist

Nerdonomics

Der subtile Fortschritt

Der Cyborg

Google besiegt Krebs

Das Geschäft der Zukunft? Was mit Daten!

Master and Servant

Quo vadis, Mensch

tl; dr 6

Was hilft? – Der digitale McGyver

tl; dr 7

Was hilft? – Der digitale McGyver

Anmerkungen

Wahlkampf der Datenmaschinen

Die Vermessung der Wähler

Magic Bullet

Klingeln, klicken, Daten sammeln

Das hätte sich auch die Stasi gewünscht

Datenschutz macht Pause

Wird Microtargeting überschätzt?

Lösungen für nicht existierende Probleme

tl; dr 8

Was hilft? – Der digitale McGyver

tl; dr 9

Was hilft? – Der digitale McGyver

tl; dr 10

Anmerkungen

Das Imperium Informaticum

Anstelle eines Schlusswortes

Anmerkungen

Über die Autorin

Statt eines Vorworts

Cypherpunk  A programmer who strongly believes that private citizens posess the right to send a secure, encrypted message to anyone they please and that encryption technology should not be regulated.

(Webster’s Computer Dictionary, 2001)

Cypherpunk  Ein Programmierer, der fest daran glaubt, dass Privatpersonen das Recht haben, sichere, verschlüsselte Nachrichten an jeden zu schicken, an den sie wollen, und dass die Verschlüsselungstechnologie keiner Regulation unterworfen sein sollte.

Big Data

Aas muss gut sein. Millionen Fliegen können nicht irren!

Big data is like teenage sex: everyone talks about it, nobody really knows how to do it, everyone thinks everyone else is doing it, so everyone claims they are doing it …

(Dan Ariely)1

Wenn Roberto Simanowski in Data Love von der »Verdrängung des Theoretischen durch das Faktische« spricht, dann meint der damit die intelligente Datenauswertung – das Big-Data-Mining –, wie »die computergesteuerte Analyse großer Datensammlungen auf bestimmte Gesetzmäßigkeiten und unbekannte Zusammenhänge hin«2 genannt wird. »[D]enken Sie an die Wetterdaten oder die Daten, die eine Turbine in einem Kraftwerk produziert: Da entsteht Big Data mit einem gewaltigen wirtschaftlichen Wert«, setzte sich Paul Nemitz im Interview mit Neue Gesellschaft – Frankfurter Hefte für Big Data ein.3 Ob Gesundheit, Dienstleistungen, Banken und Versicherungen oder Autoindustrie – kein Sektor bleibt von Big Data unberührt, davon sind Investoren überzeugt: »Traditionelle Unternehmen bemühen sich sehr, so viele Daten wie möglich über das Kundenverhalten zu sammeln, um Risikoanalysen zu optimieren und neue Märkte zu identifizieren.«4 Mit Big-Data-Mining wird die Datensammelwut der Technologiekonzerne und der Staaten kanalisiert – und treibt diese zugleich an. Mehr und vor allem neue Daten sollen gesammelt werden. Mehr und neue Geschäftsmodelle sollen durch Einsatz und Auswertung von Big Data möglich sein. Autos sollen sicherer werden, der Gesundheitsbereich effektiver und innovativer, der Staat schneller und unbürokratischer. Die Daten seien das »Öl« des 21. Jahrhunderts, die »Währung«, der »Rohstoff«, heißt es.

Internetkonzerne wie Google und Facebook stehen für die Vorteile, die »eine resolute und effektive Datenakkumulation und -analyse dem Kunden versprechen«.5 Jared Cohen und Eric Schmidt sprechen deswegen in Die Vernetzung der Welt vom Datenstrom als Geschenk für Behörden und Unternehmen, »mit dem sie auf die Bedürfnisse ihrer Bürger und Kunden eingehen, spezifische demografische Gruppen erreichen und mithilfe neuer Methoden künftige Entwicklungen prognostizieren können«.6 Der Datenanalytiker Seth Stephens-Davidowitz ist sogar der Meinung, dass die von Google erfassten Suchabfragen inzwischen die größte Datensammlung zur menschlichen Psyche darstellen, die jemals entstanden ist. Gut genug, dass man es damit wagen könnte, einige der Freud’schen Theorien erstmalig zu validieren. Ob der berühmte Flu-Index von Google, Gesundheitsforschung oder die Platzierung von Werbe-Ads auf Websites: Ziel der Datensammlung und -analyse sei immer der Mensch, und zwar: »die Verbesserung seiner wirtschaftlichen, sozialen, gesundheitlichen Situation«.7 Ob in Form eines sichereren Autos oder effizienteren Gesundheitssystems. Das betonen Internetkonzerne und Behörden gleichermaßen.

Folge dem Datenstrom

Es ist so, weil es so ist, sonst wäre es nicht so.

(Thomas Fischer, Bundesrichter a.D.)

Erstmalig erfolgt die Datenverarbeitung jedoch ohne Theoriebildung. Datenströme werden auf Korrelationen hin ausgewertet, ohne darauf zu achten, ob ein ursächlicher Zusammenhang besteht, sobald zwei Tatsachen zueinander in Beziehung gestellt werden. Was damit gemeint ist, zeigt das Storch-und-Baby-Beispiel. Rudolf Flesch zitiert in Besser schreiben, sprechen, denken einen Statistiker, der entdeckt, dass es eine Korrelation von 0,9 zwischen der Anzahl von Storchennestern und den Geburten in Stockholm während einer bestimmten Anzahl von Jahren gibt.8 Der strengen Wenndann-Logik des Big-Data-Mining folgend, müsste daraus zwangsläufig eine Voraussage resultieren, dass Kinder von Störchen gebracht werden.

Die Notwendigkeit theoriefreier Auswertungen wurde im Rahmen des Diskurses zur Ausgestaltung der europäischen Datenschutzgrundverordnung (DSGVO) als Begründung dafür aufgeführt, dass der Grundsatz der Zweckbestimmung (geltend nach dem deutschen Bundesdatenschutzgesetz) aufgeweicht werden sollte. Genau genommen, erklärte der deutsche CDU-Abgeordnete im Europaparlament, Axel Voss, in einem Gespräch mit Christiane Schulzki-Haddouti, ginge es darum »[…] Big-Data-Geschäftsmodelle nicht zu zerstören, die im kommenden Internet der Dinge eine wichtige Rolle spielen werden«.9 Als Beispiel nannte er die für Auswertung und Analyse von für Big Data gedachten Deep-Learning-Algorithmen, die eigenständig darüber entscheiden sollten, »welchen Zweck die Auswertung verfolgen wird. Ein bestimmter Zweck lässt sich also gar nicht mehr vorab definieren«.10

Schwache oder gar zufällige Korrelationen werden, so Simanowski, durch Big Data zu starken Korrelationen, »die zunächst unerklärlich sein mögen, durch die befragte Datengröße aber auch unleugbar scheinen«.11 Manchmal, gibt Seth Stephens-Davidowitz in Everybody Lies zu, bestätigen neue Daten das Offensichtliche, das Intuitive.12 Manchmal ist die Big-Data-Logik aber auch, wie im Storch-und-Baby-Beispiel, nur die Logik eines Dreijährigen.

Ein ziemlich großer Haufen

Bereits im Jahr 2008 kündigte der Chefredakteur des Magazin Wired, Chris Anderson, das Ende der wissenschaftlichen Methode an.13 Sie würde zukünftig durch die Datenmassen überflüssig werden. Warum schlechte Modelle verwenden, wenn man gar keine Modelle zu verwenden braucht, fragte Anderson. Jahrhundertelang wurde den Adepten der Wissenschaft eingeimpft, dass Korrelation noch keine Kausalität bedeute und dass erst ein Modell, das die Zusammenhänge erklärt, eine Korrelation zu einem plausiblen Zusammenhang macht. Mit Big Data reicht die Korrelation vollkommen aus, so Anderson, keine Kausalität und keine Semantik seien mehr notwendig. Sehr verkürzt gesagt: Mit genügend Zahlen sprechen Daten für sich selbst.

Dabei sind es bei Massendatenauswertungen gerade die Wissenschaft, die Analyse, das Aufstellen von Vermutungen, Hypothesen, Annahmen etc. – genau das, was ein repräsentatives Ergebnis von einem Haufen nutzloser Zahlen unterscheidet. Nur, dass dieser Haufen immer größer wird. Dreißig Jahre Computerisierung und Digitalisierung bewirkten eine Explosion von Quantität und Qualität aller möglichen Arten von Informationen, bemerkte Stephens-Davidowitz.14 Viele stammen aus dem Internet, den Suchmaschinen oder sozialen Medien oder sie sind Produkte zunehmender Digitalisierung der Verwaltung, des Beruflichen und des Privaten. Grundsätzlich gereichen sie der Wissenschaft zum Vorteil. Doch das Hauptproblem mit Big Data liegt daran, dass man, wenn man nach Wissen oder Erkenntnissen mithilfe von Massendatenauswertungen sucht, die sprichwörtliche Nadel in einem immer größer werdenden Datenhaufen suchen muss. Manchmal liefert Big-Data-Mining tatsächlich neue, wertvolle Erkenntnisse. Das aber, so Stephens-Davidowitz, schaffen auch solche Studien, die keine großen Datenmengen verwenden, sondern beispielsweise einen neuen, kreativen Ansatz, eben eine neue Herangehensweise finden. Und es ist tatsächlich der Ansatz – die Theorie –, behauptet Stephens-Davidowitz, der über Google Trends geforscht hat, die das Wesentliche ist. Gerade wegen der wachsenden Menge an verfügbaren Informationen müssen sich Datenanalytiker nun wirklich etwas einfallen lassen, um zu neuen und zugleich verlässlichen Erkenntnissen zu gelangen.

Business Analytics, Forensic Analytics, statistisch-mathematische Auswertungsmethoden, helfen den Menschen seit eh und je – ob nun den Beamten des Kartellamts, der Polizei, der Revision, externen Prüfern, internen Ermittlern oder investigativen Journalisten –, Herr über die Daten zu werden. Sie helfen aber auch den Wahlforschern, Nichtwähler zu identifizieren, die potenzielle Wähler einer bestimmten Partei werden könnten – oder die sich zum Urnengang motivieren ließen (siehe Kapitel Microtargeting). Oder sie unterstützen Google dabei zu bestimmen, welche Werbung auf einer Seite mit einem bestimmten Suchergebnis eingeblendet werden soll. Wie zutreffend das Ergebnis solcher Auswertungen ist, hängt im Wesentlichen von – der Theorie ab. Von der Fragestellung, Hypothese, von Annahmen, Toleranzwerten, der Definition der Suchbegriffe oder Indikatoren etc. Vielleicht das weniger Offensichtliche, was man über wissenschaftliche Investigation wissen muss, ist die Tatsache, dass es sich hierbei nicht so sehr um eine Suche nach Wahrheiten handelt, als vielmehr um die Suche nach Irrtümern. Endgültige Antworten gelten nicht unbedingt als wissenschaftlich. Es ist die Suche nach dem »schwachen Punkt« einer Theorie, das Sich-selbst-infrage-Stellen, das die Wissenschaft und den Fortschritt ausmacht.

Das spiegelt sich in den Methoden wider, mit welchen ein Problem, eine Fragestellung gelöst werden soll. Der australische Pathologe W. I. B. Beveridge beschrieb schon 1957 in seinem Werk The Art of Scientific Investigation15 eine sequenzielle Methode, mit der ein medizinisches oder biologisches Problem gelöst werden kann, und riet unerfahrenen Wissenschaftlern, zuerst mit einfachen Fragen und Problemen zu beginnen:

a)Relevante Literatur wird kritisch geprüft/gesichtet (Recherche).

b)Die Felddaten werden gründlich recherchiert und zusammengestellt oder eine vergleichbare Untersuchung der Versuchsobjekte wird durchgeführt und – falls notwendig – um Laboruntersuchungen ergänzt (Datensammlung).

c)Die gesammelten Informationen werden geordnet und auf Korrelationen untersucht, das Problem wird eingegrenzt und in weiterführende, konkrete Fragen unterteilt (Datenauswertung).

d)Unter Berücksichtigung möglichst vieler Hypothesen werden Annahmen getroffen und Vermutungen definiert (Hypothesenaufstellung).

e)Experimente werden durchgeführt, um die wahrscheinlichste Hypothese bezüglich der wesentlichen/wichtigsten Frage zu prüfen (Prüfung von Hypothesen).

Besondere Betonung legte Beveridge auf die Literaturrecherche, die er als kritischen Prozess der Reflexion sah – notwendig, um die Originalität bei der Vorausschau zu bewahren. Informationen zu sammeln, um sie als eine Art Investition zu verbuchen, sei nicht genug, so Beveridge.16 Kurz gesagt: Man sollte wissen, wonach man sucht und warum, bevor man die Daten durch die Rechner jagt.

Stephens-Davidowitz zeigt, wie Irrtümer entstehen könnten, am Beispiel der Prognose für die Arbeitslosenquote. Zahlen zur Arbeitslosigkeit, die monatlich von der US-Regierung veröffentlicht werden, haben einen signifikanten Einfluss auf die Aktienmärkte, sodass sich Finanzinstitutionen darin zu überbieten versuchen, diese Daten auch nur ein paar Millisekunden früher als die Konkurrenz zu erfahren. Ihre Arbeit wäre um einiges leichter, wenn man die Arbeitslosenrate vorhersagen könnte. Stephens-Davidowitz nutzte Google Correlate, um die Daten aus den Jahren 2004 bis 2011 nach geeigneten Korrelationen zu durchsuchen. Man könnte meinen, steigende Arbeitslosigkeit würde stark mit Suchphrasen wie »Arbeitsamt« oder »neuer Job« korrelieren. Falsch. Die am höchsten mit der Zunahme der Arbeitslosigkeit korrelierte Suchphrasen bei Google waren »Slutload« und »Spider Solitaire«.17 Warum suchen Menschen, die keinen Job haben, verstärkt nach pornografischen Websites und Spielen im Internet? Vermutlich, weil sie mehr Freizeit haben, konzediert Stephens-Davidowitz und fragt sich, ob man anhand dieser Indikatoren den Anstieg der Arbeitslosenzahlen vorhersagen könnte. Mit diesen zwei Korrelationen alleine vermutlich nicht. Doch die Beobachtung, dass ein Zusammenhang besteht zwischen dem Anschauen pornografischer Filme und dem Zustand der US-Ökonomie, ist eine neue – und starke – Beobachtung. Ein Mix aus solchen (schwachen) Korrelationen könnte Teil eines Prognosemodells werden, bestätigt er. Jedenfalls solange, wie die offizielle Arbeitslosenquote nicht schneller von der Regierung bekannt gegeben wird.

Wer kumuliert, manipuliert

Big Data kündigt das Ende der Person und des freien Willens an.

(Byung-Chul Han in Psychopolitik)

☛tl; dr 1

»Big Angst« vor dem Big-Data-Mining liegt einerseits in dem Missbrauchspotenzial begründet, das durch Erfassung und Auswertung personenbezogener Daten möglich ist – und in der potenziellen Beeinflussbarkeit der Statistik durch die Probanden andererseits. Wer Daten kumuliert, kann sie auch manipulieren, sagte Paul Nemitz in Berlin.18 Insbesondere dann, wenn sich die Erkenntnisse aus den Auswertungen auf einzelne Personen zurückführen lassen, wie beim Microtargeting, bei dem riesige Datenmengen aus unterschiedlichen Quellen gesammelt (oder gekauft) und miteinander verknüpft werden, sodass genaue Käufer- oder Wählerprofile entstehen.19 Smarte Datenanalyse hilft dabei, Menschen individuell angepasst anzusprechen, was sich kaum von personalisierter Werbung unterscheidet. Auch nicht in der Wirkung. Der Berliner Professor für Philosophie Byung-Chul Han ist sogar der Auffassung, dass wir heute auf das Zeitalter digitaler Psychopolitik zusteuern: »Big Data ist ein sehr effizientes psychopolitisches Instrument, dass es erlaubt, sehr umfassendes Wissen über die Dynamiken der gesellschaftlichen Kommunikation zu erlangen«20, so Han. Dieses Wissen würde es möglich machen, »in die Psyche einzugreifen und sie auf präreflexiven Ebenen zu beeinflussen«. So wären sich Wahlakt und Kaufakt, Staat und Markt, Bürger und Konsument, immer ähnlicher.

Daten, die heute oft ohne Kontext gesammelt werden, werden ewig leben, warnte einer der bekanntesten Hacker weltweit, Kevin Mitnick. »Der wahre Wert der gesammelten Daten ist nicht eindeutig, aber es ist definitiv ein Vorteil, mehr zu sammeln als die Konkurrenz«21, sagte der amerikanisch-polnische Aktivist Maciej Cegłowski. Und da die Menschen mit der Zeit »eine natürliche Immunität gegenüber neuen Formen des Trackings und der Manipulation entwickeln«22, würden die Unternehmen »immer neue Wege der Ausspähung privater Sphären« suchen. Nicht nur Computer und Smartphone, sondern zunehmend auch das Auto, Fernseher und Kühlschrank werden als Quellen für die Sammlung privater Daten über Nutzer angezapft. Ein Fahrzeug, das heute die Fabrik verlässt, soll im Durchschnitt mit circa 100 Sensoren ausgestattet sein.23 Damit ein Auto von A nach B kommt, ist es notwendig, große Mengen an internen und externen Daten durch die Sensoren zu erfassen und auszuwerten. Was man aber nicht wissen muss, um ans Ziel zu kommen, ist, wer hinter dem Steuer des Fahrzeugs sitzt. Ähnliches gilt für das Prognosemodell zur Vorhersage der Arbeitslosenquote von Stephens-Davidowitz. Auch hier ist es nicht notwendig zu wissen, wer die Pornoseiten besucht oder von welcher IP-Adresse die Suchanfragen nach dem Spiel Solitaire gestartet wurden, um eine Prognose über den Zustand der US-amerikanischen Volkswirtschaft aufzustellen. Daten seien die Währung der Zukunft, bestätigte deshalb Paul Nemitz, doch dies träfe nicht auf die persönlichen Daten zu. Daten mit Personenbezug oder über eine Person dürften nicht wie Wirtschaftsgüter behandelt werden, widersprach er, es ginge dabei um nichts Geringeres als die Freiheit des Einzelnen.24

Dennoch wird das Verhalten von immer mehr Menschen immer genauer aufgezeichnet: »Die gesammelten Informationen bleiben gespeichert – in der Hoffnung, weitere Dollars aus ihnen herausquetschen zu können«25, so beschreibt Cegłowski die Logik des »Überwachungskapitalismus«. Sie bewegt sich weg von passiver Überwachung hin zu effektiver Steuerung, beobachtet Byung-Chul Han: »Wir stellen freiwillig alle möglichen Daten und Informationen über uns ins Netz, ohne zu wissen, wer was wann und bei welcher Gelegenheit über uns weiß«.26 Die Gefahr eines Überwachungsstaates liegt dabei weniger in der Tatsache begründet, dass persönliche Daten gesammelt werden, sondern hängt vielmehr damit zusammen, was mit diesen Daten geschieht, nachdem sie einmal gesammelt wurden, warnt Mitnick. Die Personalisierung der Werbung, individuell zugeschnittene Kaufangebote, aber auch individualisierte Versicherungsangebote, auf einzelne Käufer zugeschnittene Preise oder Personenrankings sind möglich. Von (Preis-)Diskriminierung über Beeinflussung bis hin zur Manipulation sind viele Szenarien denkbar. Wie stark das Interesse der Wirtschaft an relevanten Daten und Personalisierung ist, zeigen die Effekte, die beispielsweise mit personalisierter Werbung erreicht werden können: Die sogenannte Conversion-Rate sagt aus, wie stark die Menschen, nachdem sie eine auf sie zugeschnittene, personalisierte Werbung gesehen haben, danach handeln (ein Kauf tätigen – oder wählen gehen) – und sie liegt gemäß aktueller Forschungen von Stanford-Professor Michal Kosinski bei 1.400 Prozent (!).

Einerseits entstehen durch Big-Data-Mining mit personenbezogenen Daten neue Möglichkeiten der Beeinflussung und Manipulation. Andererseits tendieren aber die Beobachteten dazu, ihr Verhalten zu verändern, wenn sie wissen, dass ihr Nutzerverhalten erfasst wird. Jene »natürliche Immunität«, von der Cegłowski einmal sprach und die Menschen entwickeln, um sich vor der Ausspähung ihrer Privatsphäre zu schützen, manifestiert sich auf unterschiedliche Weisen. Das Campbell’sche Gesetz (Campbells Law) beispielsweise, das nach dem US-amerikanischen Psychologen Donald T. Campbell benannt wurde, besagt, dass die Untersuchungsmethode den Untersuchungsgegenstand manipuliert. Simanowski zeigt am Beispiel der »statistischen Evaluation wissenschaftlicher Qualität«, wie es funktioniert. »Der Wert eines Aufsatzes bemisst sich nach dem Impact Factor ihres Publikationsortes, der sich wiederum daraus ergibt, wie oft Aufsätze in diesem Journal von der wissenschaftlichen Gemeinschaft zitiert werden.«27 Über die Publikation in einem Topjournal entscheiden das Thema und die Quellen, die ein opportunistischer Autor entsprechend den Erwartungen der Herausgeber gestalten kann. Innovative, neue Themen, die noch keine Lobby haben, haben in diesem System Probleme, sich durchzusetzen. Das kann dazu führen, »dass wissenschaftliche Positionen nicht von brillanten Denkern besetzt werden, sondern von Personen mit hoher Systemkompetenz«.28 Im Internet kann dies im Extremfall zur bewussten Schöpfung von digitalen Doppelgängern führen. In sozialen Medien stellen die Nutzer dann nicht ihr reales Leben aus, sondern schaffen eine Person, die sie gerne sein möchten. Gleichwohl hält der Psychologe Kosinski von dieser Möglichkeit der Manipulation nicht viel: »Sich anders zu verhalten, eine Rolle zu spielen, ist anstrengender, als die meisten denken. Darum ist Schauspielerei ein Beruf, und auch den machen viele nicht gut.«29

Und doch, es gibt offenbar noch einfachere Methoden, um Datensammler, Algorithmen – sowie sich selbst – effektiv zu täuschen.

Das mathematische Genie

Dan Kahan von der Yale Law School (und drei weitere Wissenschaftler) bestätigte in einer Reihe von Experimenten, dass eine feste politische Überzeugung sogar unsere analytischen und mathematischen Fähigkeiten beeinträchtigen kann.30 1.100 Teilnehmer eines Experiments erhielten die gleichen Daten und wurden um ihre Analyse gebeten. Diese Daten wurden verwendet, um sie von der Wirksamkeit (oder Unwirksamkeit) eines Hautpflegemittels sowie über die Steigerung (oder Senkung) der Kriminalitätsrate infolge des Verbots von Feuerwaffen in Privathand (ein in den USA heiß diskutiertes Thema) zu überzeugen.

Die Daten bezüglich der Wirkung der Hautcreme wurden fast durchgehend richtig interpretiert, und zwar von den Personen mit besseren mathematischen Kenntnissen besser als von den Teilnehmern mit weniger mathematischen Kenntnissen. Die Wahrscheinlichkeit, dass die Interpretation mit den tatsächlichen Aussagen des Zahlenmaterials übereinstimmte, war relativ hoch. Anders verhielt es sich mit den Ergebnissen bezüglich des Verbots von Feuerwaffen. Die liberalen Demokraten haben die Ergebnisse, welche einen positiven Zusammenhang zwischen dem Verbot und der Senkung der Kriminalität aufzeigten, richtig interpretiert. Legte man ihnen jedoch Daten vor, die auf die steigende Kriminalität aufgrund des Feuerwaffenbesitzverbots zeigten, interpretierten sie die Daten falsch und schlussfolgerten entgegen den Zahlen, dass das Verbot gewirkt hätte (d.h., ein Schusswaffenverbot würde zu weniger Kriminalität führen). Bei den konservativen Republikanern verhielt es sich genau umgekehrt. Die gleichen Daten wurden richtig interpretiert, sobald sie auf einen positiven Zusammenhang zwischen Feuerwaffenbesitz und sinkender Kriminalität hingewiesen haben. Haben die Zahlen das Gegenteil gezeigt, deuteten die Konservativen das Ergebnis ihren politischen Einstellungen entsprechend – und eben nicht den Daten folgend.

Doch damit nicht genug. Die Experimente zeigten, dass je besser die mathematischen Fähigkeiten der Teilnehmer waren, desto schlechter interpretierten sie die Daten beziehungsweise desto selektiver nutzten die mathematischen »Brains« ihre Fähigkeiten, um die Daten im Sinne ihrer Überzeugungen zu interpretieren. Getreu dem Motto, das Peter Watts, ein kanadischer Science-Fiction-Autor, so kommentierte: Falls die Zahlen widerlegen, woran du glaubst, wirst du falsch rechnen. Falls die Zahlen deinen Überzeugungen widersprechen, und du bist auch noch ein mathematisches Genie, wirst du so schlecht rechnen, wie es nur irgendwie geht.

Hierbei sollte es sich um kein gänzlich neues Phänomen handeln: Es begleitet die Gattung Homo sapiens praktisch seit seiner Entstehung und hat sich als eine in der Evolution wenig vorteilhafte Strategie erwiesen. Als Erkenntnisfehler zweiten Grades bekannt, besagt es, dass wir uns weigern, an etwas zu glauben, was es tatsächlich gibt. Im Gegensatz zum Erkenntnisfehler ersten Grades, der besagt, dass man an etwas glaubt, was es nicht gibt – und der sich als evolutorisch dominante Strategie erwies, denn es war besser, bei einem Rauschen im Busch zu glauben, es sei ein Tiger und wegzulaufen, als zu glauben, es sei nichts – und dann von einem Tiger gefressen zu werden.

Die Filterblasen – gibt es sie wirklich?

Heute leben wir bequem in unserer Facebook-Bubble. […] Das erschwert das Abstandnehmen, die Kritik, das selbständige Denken, also all das, was für die europäische Aufklärung wichtig ist.

(Raphael Capurro, Agora 42)

»Menschen neigen dazu, gerne nur das zu sehen, was ihre Meinung bestätigt«, sagte der Psychologe Michal Kosinski im taz-Interview.31 Im Internet sollte es besonders leicht sein, Menschen mit gleicher politischer Gesinnung zu begegnen. Die Technik kann dabei behilflich sein, solche »Begegnungen« zu intensivieren. Schon heute würden die politischen Blogs zu 90 Prozent auf »ähnlich denkende« Websites verlinken, stellte Simanowski fest. So kann »das Gesellschaftliche auf Mathematik reduziert«32 und eine alternative Position aussortiert, ausgefiltert oder blockiert werden. Eli Pariser, US-amerikanischer Jurist und Aktivist, klagte beispielsweise, dass ihm von Facebook nicht die Updates seiner konservativen Freunde angezeigt werden, da der Facebook-Algorithmus erkennt, dass er sich stärker für die Updates seiner linksorientierten Freunde interessiert und ihm nur diese anzeigt. Die Logik des Algorithmus dominiert die Logik des Subjekts, auch schon mal die Meinung der Gegenseite zur Kenntnis nehmen zu wollen. Solch eine Personalisierung des Informationsangebots mag im Hinblick auf Werbung oder Onlineeinkäufe effizient und dem Internetnutzer willkommen sein, jedoch im Politischen, wo die Konfrontation verschiedener Standpunkte »das Lebenselixier der Demokratie« darstellt, mutiert das Internet eventuell zum »gemütlichen Heim der Autopropaganda, die das Subjekt permanent bestätigt und das, was es (noch) nicht ist, unablässig ausblendet«.33

Vor und nach den US-Wahlen wurden solche Filterblasen (beziehungsweise Filterbubbles) angeprangert und für die immer extremere politische Polarisierung verantwortlich gemacht – so beobachteten es die Autoren der Studie in der Süddeutschen Zeitung. Als Filterblasen werden Informationssphären bezeichnet, die in den sozialen Medien entstehen könnten – ob nun mit oder ohne Unterstützung von Algorithmen –, in »denen Nutzer ausschließlich mit zur eigenen Einstellung passenden Informationen konfrontiert werden«.34 Zentrales Ergebnis der Studie: »Auf politischer Ebene gibt es solche Filterblasen im deutschen Facebook praktisch nicht.« Dies ist eine starke Einschränkung, wodurch die Existenz von Filterblasen nicht grundsätzlich verneint wird. Das Nutzerverhalten im Internet zeigt tatsächlich jedoch regionale Unterschiede, wie Kosinski am Beispiel seines Nutzermodels erklärte: »Bestimmte Symbole bedeuten hier und dort etwas ganz anderes. Ein fiktives Beispiel: Ein Auto von BMW bedeutet in den USA vielleicht vor allem für junge ungebildete Männer etwas, in Deutschland aber für ältere gesetzte Herren.«35 So bezieht sich das Ergebnis der Süddeutsche-Zeitung-Recherche zunächst nur für das deutsche politische Internet.

Im deutschen Facebook ließen sich zwischen den Milieus (fast) aller deutschen Parteien Verbindungen feststellen, und die Hypothese der Filterblasen konnte daher verworfen werden. Ausnahme: die Alternative für Deutschland (AfD), »[deren] Sphäre von denen aller anderen Parteien klar isoliert ist«.36 Trotzdem ist auch das AfD-Milieu nicht hermetisch in einer Filterblase abgeschottet, sondern hat Verbindungen nach außen: »Die AfD verharrt eher in einer Echokammer, wie sie fürs Radio genutzt wird, um einen Halleffekt zu erzeugen. Auf das Internet übertragen: in einem abgegrenzten Resonanzraum, in dem Äußerungen im Inneren bleiben und dort verstärkt werden.«37 Die Datenrecherche der Süddeutschen Zeitung bezog sich auf Newsfeed, der als »zentrale[r] Strom des Neuen auf Facebook« gilt. Es wurden drei Gigabyte an Daten und mehr als eine Million Likes von 5.000 Facebook-Nutzern ausgewertet, bezüglich der sieben größeren deutschen Parteien, die die größten Chancen haben, in den 19. Bundestag einzuziehen: die Linke, Bündnis 90/Die Grünen, CDU, SPD, CSU, FDP und AfD.

Der natürliche Zustand

Das Ergebnis der Studie unterstützt die These von Kosinski, der die Meinung vertritt, dass die vielerorts kritisierte Filterblase, in der sich – mit oder ohne Hilfe der Technik – ähnliche Meinungen sammeln, nur Gleichgesinnte austauschen und die zu extremen politischen Polarisierungen führt, nur ein Mythos sei: »Es gibt keinen wissenschaftlichen Beweis dafür«, sagte er der taz.38 »In Filterbubbles zu leben, das ist unser natürlicher Zustand«, so Kosinski. »Früher, als die meisten Menschen auf dem Dorf oder in kleinen Städten lebten, haben wenige Männer das kontrolliert, was an Informationen zugänglich war: der Lehrer, der Bibliothekar, der Priester.« Erst durch das Internet, auch dank Facebook, werden Menschen gezwungen zu sehen, dass es noch andere Haltungen als ihre eigene gibt. Es sei sogar leichter, online Menschen mit anderen politischen Meinungen zu begegnen, als es offline der Fall ist, stellt Stephens-Davidowitz fest. In den USA liegt die Wahrscheinlichkeit, dass zwei Menschen mit verschiedenen politischen Ansichten dieselbe Website besuchen, bei circa 45,2 Prozent. Die Wahrscheinlichkeit, dass ihr Nachbar eine andere politische Meinung vertritt, aber nur bei 40,3 Prozent.39 »De facto hatten wir nie weniger Filterbubble als heute«, nicht zuletzt dank sozialer Medien. Mehr noch: »Im Netz gibt es weniger Filter; alle können mitmachen und Inhalte generieren; es gibt keine Alphajournalisten mit Öffentlichkeitsmonopol«40, zählte der Politikwissenschaftler Thomas Meyer nur einige Vorteile des Netzes gegenüber den traditionellen Medien in Die Unbelangbaren auf. Das Netz biete gar die Gelegenheit, »die sonst weitgehend unbelangbaren Journalisten der etablierten Medien zu kritisieren und zu kontrollieren«.41