Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Wie Big Data unsere Gesellschaft verändert Big Data, die digitale Transformation, künstliche Intelligenz - wir wissen mittlerweile, dass sich unsere Gesellschaft rasant verändert. Welche Begriffe auch immer durch die Debatte geistern, deutlich wird: Neue Technologien schaffen auch neue Probleme, die wir bisher noch nicht mal ansatzweise verstanden haben. Social Bots manipulieren die Meinungsbildung. Fake News beeinflussen Wahlen und Abstimmungen. Filterblasen und Algorithmen definieren, welche Informationen uns das Internet bereitstellt. Wie weit geht diese Veränderung unserer Gesellschaft? Ist sie ein Angriff auf die Demokratie? Was will das Silicon Valley, von dem so viele Veränderungen ausgehen, wirklich? Erfährt der Journalismus eine Renaissance oder macht der Letzte das Licht aus?
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 388
Veröffentlichungsjahr: 2018
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Ebook Edition
Michael SteinbrecherGünther Rager (Hg.)
Wenn Maschinen Meinung machen
Journalismuskrise, Social Bots und der Angriff auf die Demokratie
Mehr über unsere Autoren und Bücher:
www.westendverlag.de
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung ist ohne Zustimmung des Verlags unzulässig.
Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
ISBN 9-783-86489-705-4
© Westend Verlag GmbH, Frankfurt/Main 2018
Umschlaggestaltung: Buchgut, Berlin
Satz und Datenkonvertierung: Publikations Atelier, Dreieich
Vorwort von Michael Steinbrecher und Günther Rager
Schauplatz London, Science Museum, Herbst 2017. In der Sonderausstellung über Roboter ist eine Menschentraube unübersehbar. In allen anderen Bereichen der Ausstellung verteilen sich die Zuschauer gleichmäßig auf die Exponate. Dort erfahren sie, wie groß der Einfluss der Kirchen auf die Entwicklung der ersten automatisierten Systeme war, oder werden durch die bedeutenden Werke der Filmgeschichte geführt, in denen künstliche Intelligenz eine Hauptrolle spielte. Von Fritz Langs legendärem Werk »Metropolis« über die »Terminator«-Reihe bis hin zu neueren Werken wie »Ex Machina«. Aber scheinbar magnetisch anziehend wirkt nur er: Pepper, ein ca. 1,50 Meter großer Roboter. Er sieht freundlich aus, so wie er da steht: mit großen Augen, einem großen Kopf, einem weißen Körper, der sich in sanften Bewegungen den Besuchern zuwendet. Er wirkt nicht wie die realistische Nachahmung einer Menschengestalt. Schon eher wie die Summe einiger der sympathischen Roboter aus »Star Wars« und anderen Filmen dieses Genres. Der Roboter im Science Museum kommuniziert mit den Besuchern. Als es sehr voll wird und er viele Fragen erhält, sagt er: »I’m tired«, schließt die Augen, und sein Kopf senkt sich auf seine Brust. Wieder aufgewacht reicht er den Zuschauern ein Tablet, lenkt ihre Aktivitäten durch freundliche, aber gezielte Anweisungen und schüttelt Besuchern zum Abschied die Hand. Diese ergreifen sie zum Teil sehr zögerlich. Aber sie zeigen freundliches Interesse, keine Distanz.
Die Beobachtungen im London Science Museum haben vordergründig nichts mit Diskussionen über Whistleblower, mit Fake News und angeblichen Manipulationen bei der Wahl Donald Trumps zum amerikanischen Präsidenten zu tun. Und auch nichts mit einer möglichen Journalismuskrise. Und doch sind diese Themen in unterschiedlicher Form Ergebnisse von Big-Data-Anwendungen und somit miteinander verknüpft. Denn immer geht es darum, riesige Datenmengen durch Algorithmen auszuwerten und in Echtzeit in Handlungen umzusetzen. Aber der Reihe nach.
In Asien, insbesondere in Japan, wird Pepper bereits zahlreich in der Kinder- und Altenpflege eingesetzt. Fragen Sie sich selbst: Ist das auch in Deutschland vorstellbar? So sehr sich die japanische und deutsche Kultur unterscheiden: Ist der Einsatz von Robotern in der Pflege, im Haushalt oder am Empfang in Hotels so abwegig?
Denken wir drei Jahrzehnte zurück. Erinnern Sie sich an das Kopfschütteln von Europäern, wenn wieder einmal eine asiatische Besuchergruppe nichts Besseres zu tun hatte, als sich vor jedem interessanten oder weniger interessanten Hintergrund selbst zu fotografieren? Mittlerweile sind wir selbst zu einer Selfie-Nation geworden. Schleichend wird Technik in unserem Alltag bedeutender und wir scheinen gar nicht mehr zu registrieren, wie selbstverständlich wir heute mit ihr interagieren. Von Navigationssystemen lassen wir uns seit vielen Jahren im wahrsten Sinne des Wortes »lenken«. Wir pflegen digitale Kalender, kaufen online ein und kontrollieren digital unsere Fitnessfortschritte. Apples »Siri« und Amazons »Alexa« weisen den weiteren Weg: Wir vertrauen die Organisation des Alltags mehr und mehr Assistenzsystemen von Technologiegiganten an, die uns in allen Lebensbereichen durch den Tag führen. Aber sind damit nur Termine, Einkäufe und Haushaltsdienste gemeint?
Der Roboter Pepper ist nur der offensichtliche Teil dieser Entwicklung. Wenn Maschinen uns nicht nur im Alltag helfen, sondern beeinflussen und Meinung machen, dann treten sie uns in der Regel nicht so offen gegenüber wie Pepper den Besuchern im Science Museum. Social Bots sind beispielsweise Programme, die in den sozialen Netzwerken menschliche Verhaltensmuster simulieren. Diese Algorithmen erscheinen mit Tarnkappe und verschleiern häufig ihre Absicht und den Absender. Sie beteiligen sich millionenfach auf diversen Plattformen auch an politischen Diskussionen. Aber wollen die Menschen wirklich mit Bots kommunizieren? Wollen sie nicht wenigstens wissen, ob sie es mit einem Menschen oder einer Software zu tun haben? Ist es nicht unser Recht zu erfahren, von wem wir wirklich und mit welcher Absicht angesprochen werden und mit wem wir im Netz »befreundet« sind? Zu erfahren, welchen Einfluss Social Bots und andere Maschinen auf den öffentlichen Diskurs haben? Wer hilft uns herauszufinden, wer diese Algorithmen einsetzt? Ist das eine neue Aufgabe des Journalismus? Und grundsätzlicher gefragt: Wie kann, wie soll Journalismus im digitalen Zeitalter agieren? Welche alten Zöpfe muss er abschneiden? Und wie kann er sich sinnvoll erneuern?
Fünfzehn Master-Studierende am Institut für Journalistik in Dortmund stellen in diesem Buch Fragen und suchen nach Antworten. Sie alle sind getrieben vom Wunsch, den Journalismus der Zukunft mitzuprägen. Und sie alle wissen: Er wird nicht mehr so sein wie bisher. Sie machen sich Gedanken über die Frage, ob die Kritik an der aktuellen Form des Journalismus berechtigt ist und warum sie so heftig ausfällt. Sie versuchen zu ergründen, welche gewaltigen Möglichkeiten und Gefahren die fortschreitende Digitalisierung für die Nutzer der Technik mit sich bringt. Welche Wechselwirkungen gibt es zwischen Wahlkampfstrategien, Populismus, technischen Veränderungen und journalistischem Verhalten? Mit welchen Auswirkungen auf Wahlen und Rezipienten? Und sie fragen sich: Was bedeuten all die Veränderungen, die wir derzeit erleben, für den öffentlichen Diskurs, ihre eigenen beruflichen Ambitionen, aber auch für ihr privates Leben? Wir, als Lehrende am Institut für Journalistik, haben sie bei der Suche nach den wichtigen Fragen und den möglichen Antworten unterstützt. Und unser Eindruck war: Die Studierenden beschäftigen sich mit hoher intrinsischer Motivation mit diesen Themen.
Dieses Buch will da ansetzen, wo die Essays ihrer Vorgänger im Buch Meinung, Macht, Manipulation – Journalismus auf dem Prüfstand (Westend Verlag 2017) aufgehört haben. Die Themen drängen zum Handeln. Denn es geht nicht nur um Meinungsmache. Es geht um Kontrollverlust.
Manipulieren uns Social Bots, und wenn ja, wie? Erkennen wir die Mechanismen? Hat das Individuum noch die Kontrolle über die eigenen Daten? Wer führt in Zukunft eigentlich wen? Anastasia Mehrens reflektiert in ihrem Essay die Entwicklung. Jonas Zerweck führt die Konsequenzen weiter aus. Wie hat sich die Beziehung zwischen Mensch und Technik entwickelt? Wer führt in Zukunft wen?
Ein letztes Mal zu Pepper. Beim Begriff Roboterjournalismus wird häufig durch entsprechende Bilder suggeriert, ein Roboter bediene zukünftig den Laptop. Diese Vorstellung führt völlig in die Irre. Es werden nicht Dutzende, als Journalisten geschulte Roboter durch die Flure streifen. Sie werden hier gar nicht gebraucht. Der Begriff »Automated Journalism« trifft es da schon besser. Journalistische Texte werden automatisiert erstellt, von einer von Menschen programmierten Software, die sich allerdings durch Training kontinuierlich verbessert. Ein sogenanntes lernendes System. Unter den Dortmunder Master-Studierenden war zunächst Skepsis gegenüber dieser Entwicklung zu spüren. Wartet hier nicht die nächste Rationalisierungswelle auf Journalisten? Spätestens nach Gesprächen mit den führenden Softwareherstellern automatisierter journalistischer Angebote war allen klar: Ja, diese Systeme übernehmen in bestimmten Ressorts und Darstellungsformen bereits heute journalistische Arbeiten. Und die Systeme werden stetig leistungsfähiger. Aber umso mehr ist die Generation, die den Journalismus in den nächsten Jahrzehnten prägen wird, aufgefordert, sich dieser Entwicklung offen zu stellen. Und ein Selbstverständnis dafür zu finden, welche journalistischen Qualifikationen sie in Zukunft unersetzbar machen. Katharina Kalhoff stellt sich in ihrem Essay dieser Herausforderung. Nicht angstbesetzt, sondern mit offenem Visier.
Die digitale Transformation zeigt sich aber auch in anderen Sphären. Sie hat sich etabliert, ohne dass wir immer den nächsten Schritt bedenken.
Schauplatz Fußballstadion, TV-Studio, irgendwo in Europa 2018. Die letzten Minuten eines Spiels laufen. Der Moderator und der Experte beginnen sich auf ihre Analyse zu konzentrieren. Auch die Kameraleute im Studio bringen sich langsam wieder auf Betriebstemperatur. Der Moderator stimmt sich mit dem Daten-Redakteur ab, der in den Statistiken des Spiels kontinuierlich nach Besonderheiten forscht. Die Heimmannschaft liegt 0:1 zurück. Das Tor hat ein defensiver Mittelfeldspieler erzielt. Auf ihn will sich das TV-Team konzentrieren. Sie wählen die relevanten Spielszenen aus. Eine Grafik wird vorbereitet mit den Daten des Spielers. Gelaufene Kilometer, Passquote, Zweikampfwerte. Eine 3D-Animation veranschaulicht, wie wichtig dieser defensive Mittelfeldspieler auch für den Spielaufbau ist. Zudem entscheidet sich der Moderator, eine Heatmap ins Gespräch mit dem Experten zu integrieren. In unterschiedlichen Farbintensitäten wird der Aktionsradius des Spielers auf dem Feld dargestellt.
Moderator und Experte werfen durch die Glasscheibe des Studios noch einen Blick auf das vom Flutlicht beleuchtete Spielfeld. In der Nachspielzeit spielt der bisher überragende Mittelfeldspieler einen Fehlpass, der zum 1:1 führt. Jubel auf den Rängen, Hektik im Studio.
Zumindest sportinteressierten Lesern werden die Taktikanalysen und statistischen Auswertungen der Leistungsdaten nicht fremd sein. Warum sollte das, was sich in der Sportberichterstattung längst etabliert hat, nicht auch auf andere Lebensbereiche übertragbar sein? Warum kontrollieren wir Fußballspieler und vermessen ihre Arbeitsleistung, aber nicht die Leistung von Verkäufern und Verkäuferinnen im Kaufhaus? Könnten wir dort nicht mit der gleichen Intensität den persönlichen Radius, die gelaufenen Meter pro Arbeitstag, die Länge der Kundenkontakte und die Pausen mit der Höhe des jeweiligen Verkaufserlöses in Beziehung setzen? Sind wir nicht längst eine Gesellschaft geworden, in der alles messbar gemacht wird? In der wir uns selbst quantifizieren? Warum also nicht auch die nächsten, logischen Schritte gehen?
Wir hinterlassen schließlich schon heute nicht nur Daten für eine Heatmap. Die Spuren im Netz führen uns in eine immer enger werdende Spirale. Diese Veränderungen sind für alle spürbar. Rebecca Rohrbach macht sie greifbar. »Denn das Netz vergisst nie«, so das Ende ihres Essays. Und damit kommen wir zu einem Kern des Problems. Per Algorithmus werden unsere individuellen Interessen bedient. Das ist zunächst einmal für die meisten nicht problematisch. Im Gegenteil. Es ist sogar in hohem Maße nützlich. Wie sollten wir ohne unsere zahlreichen unterstützenden Apps heute noch unseren Alltag organisieren? Immer wieder wird uns eine vorgeblich individuelle Lösung angedient, die auf einer maschinellen Auswertung unserer irgendwo hinterlassenen Daten beruht. Auf dass uns andere Nachrichten erspart bleiben, die uns vermeintlich – oder wirklich – nicht interessieren. Und selbst wenn uns die Auswahl gefällt: Wir wissen nicht, auf welchen Kriterien sie beruht und warum uns bestimmte Informationen vorenthalten und andere angedient werden. Der Gefahr der Manipulation sind wir schon erlegen, wenn wir nicht wissen, wer, was warum für uns auswählt.
Die Begriffe »Echokammern« und »Filterblasen« hatten in den letzten Jahren Konjunktur. Begegnen wir in unseren immer kleiner werdenden Kammern oder Filterblasen immer häufiger nur noch den Interessen und Haltungen, die wir ohnehin schon teilen? Werden wir im Privaten immer wieder in dem bestärkt, was wir ohnehin schon denken, was uns ohnehin schon gefällt? Beim Buchkauf im Netz ebenso wie beim Wein und bei Möbeln? Wenn Ihnen dieses gefällt, finden Sie jenes gut! Wer diesen Song mag, der findet auch jenen großartig. Ganz abgesehen davon, dass dieses Entgegenkommen uns immer wieder neue Konsumanreize beschert, von denen letztlich das entsprechende Unternehmen am meisten profitiert: Führt das, was zweifellos als Einkaufshilfe nützlich sein kann, letztlich nicht dazu, dass wir in unserer persönlichen Entwicklung stagnieren? Werden wir, ohne es zu merken und zu wollen, immer mehr eingeengt in unseren eigenen Gedanken und Handlungen? Wird uns (auch politisch) Abweichendes von den meisten Suchmaschinen nur noch nachrangig präsentiert? Schlimmstenfalls merken wir gar nicht, dass die meisten anderen ganz anderes wertschätzen.
Der Begriff »Big Data« wurde als Begriff in diesem Zusammenhang beinahe schon erfolgreich aus der öffentlichen Diskussion verbannt. »Big« Data, das klingt nach Ansicht von Großkonzernen in den Ohren vieler Menschen zu sehr nach »Big« Brother. Dann schon lieber weniger präzise von »Digitaler Transformation« oder schlicht »Digitalisierung« sprechen. Das klingt wie ein Prozess, der ohnehin nicht aufzuhalten ist, ja, energisch vorangetrieben werden muss. Wie wird in der Öffentlichkeit überhaupt über dieses Thema diskutiert? Denn Big Data ist – unabhängig davon, welche Begriffe wir nutzen – der Treiber der aktuellen Entwicklung. Es geht um die Größe und Vielfalt der Daten und um die Geschwindigkeit, mit der wir sie übertragen. Es geht darum, dass möglichst viele Daten miteinander in Bezug gesetzt werden können, um daraus in Echtzeit Schlussfolgerungen zu ziehen. Doch was davon kommt in der öffentlichen Diskussion wirklich an? Ein Thema, mit dem sich Anna Chernomordik in ihrem Essay beschäftigt. Die Öffentlichkeit erreicht hat in jedem Fall die Frage, wer in einem digitalen Wahlkampf Einfluss auf den Wahlausgang nehmen könnte, mit erlaubten und unerlaubten Mitteln. Genau darüber wurde und wird anlässlich der letzten Präsidentschaftswahl in den USA diskutiert.
Schauplatz London, Southbank Centre, 15.10.2017: 2 900 Besucher in gespannter Erwartung auf Hillary Clinton. »What happened« ist der Titel des Buchs, das sie vorstellen wird. Und viele hier fragen sich genau das. Was ist passiert? Oder besser: Wie konnte das passieren? Eine Frau trägt ein T-Shirt mit der Aufschrift »I’m with Her«. Andere Besucher demonstrieren für eine 50-Prozent-Frauenquote in Parlamenten. Hier im Southbank Centre sind Clintons Fans versammelt. Und die Standing Ovations gleich zu Beginn zeigen: Sie wollen Hillary Clinton trotzig demonstrieren, dass der Kampf nicht umsonst war. Clinton selbst gibt sich zwar zuweilen kämpferisch. Aber überwiegend wirkt sie ernüchtert. Sie habe zum ersten Mal Sorge, dass der neugewählte Präsident und Oberbefehlshaber der US-Streitkräfte selbst zum Sicherheitsrisiko werde. Sie kritisiert die erwiesene Einflussnahme Russlands auf die Wahl. Sie spricht sogar von einem »Cyber-9/11«. Sie räumt eigene, entscheidende Fehler ein: So habe sie die Stimmung im Land zu spät wahrgenommen. Vor allem aber sei sie der Wahlkampfführung ihres Kontrahenten nicht gewachsen gewesen. Bis zuletzt habe sie auf politische Inhalte setzen wollen. Trumps Stil sei es aber, andere zu beleidigen, unabhängig davon, wer sein jeweiliger Gegner sei. Zudem – und dies sei besonders wichtig gewesen – hätten er und Interessengruppen, die ihn unterstützen, die sozialen Netzwerke genutzt, um gezielt Unwahrheiten, »fake news«, über sie zu verbreiten. Diese hätten wiederum die entscheidenden Zweifel gesät, die ihr auf der Zielgeraden der Wahl die notwendigen Stimmen gekostet hätten. An diesem Abend ist zu spüren: Clinton hat die letzten Monate genutzt, um für sich Antworten zu finden auf das, was passiert ist. Sie analysiert das, was war. Aber es wird auch deutlich: Sie hat noch keine Antworten darauf, wie man mit den veränderten Rahmenbedingungen eines Wahlkampfs im digitalen Zeitalter umgehen kann. Denn auf alte Wertmaßstäbe und Gewissheiten, auf Wahrheit und Wahrhaftigkeit, auf Zuverlässigkeit der Informationen wollen Hillary Clinton und die Besucher auch in Zukunft nicht verzichten. Sie beschwört die demokratischen Grundsätze. Und den größten Applaus erhält sie, als sie der Menge zuruft: »Es gibt keine alternativen Fakten!«
Die Gesellschaft für deutsche Sprache wählte »postfaktisch« zum Wort des Jahres 2016. Und folgte damit der Wahl der Oxford Dictionaries, die »Post Truth« zum Begriff des Jahres gekürt hatten. Beide Begriffe haben bis heute nichts von ihrer Relevanz verloren. Sie könnten allenfalls durch »Fake News« ersetzt werden. Wie relevant sind Fakten noch in der digitalen Welt? Erreichen sie die Menschen überhaupt noch? Oder ist es effektiver, den Menschen eine gute »Story« anzubieten, die sie anspricht? Muss man es mit dem Wahrheitsgehalt dabei noch so genau nehmen? Und falls uns jemand angreift und dies mit Fakten belegen kann, so entgegnen wir einfach: alles vom politischen Gegner gestreute Fake News! Und behaupten das Gegenteil. Aber sind Trump und Fake News wirklich die größte Gefahr für die Demokratie? Konzentrieren wir uns in der Debatte zu sehr auf Politiker? Haben nicht längst ganz andere das Sagen?
George Orwell ging in seiner 1949 veröffentlichten Dystopie 1984 von einem allmächtigen Staat aus, der alles kontrolliert. Liegt die große Gefahr heute eher in der schwer kontrollierbaren privaten Macht der großen Internetkonzerne? Denn nicht beim Staat, sondern bei den Konzernen laufen die Daten der Internetnutzer zunächst auf. Sie haben die Möglichkeit, diese Daten nach ihren Interessen als wirtschaftliches Gut zu nutzen. Und sie können sich oft demokratischer Kontrolle entziehen. Oftmals machen sie bei autoritären Systemen erzwungenermaßen Zugeständnisse. Zumindest in China hat sich der Staat den Zugriff auf Daten gesichert. Dort werden die Gesichter von Menschen, die bei Rot über die Ampel fahren, öffentlich auf Monitoren an den Pranger gestellt. Geplant ist außerdem, das Verhalten aller Bürger einzustufen und bei Wohlverhalten Vergünstigungen zu gewähren. In den meisten Fällen versuchen Konzerne allerdings, dem Staat den Einblick in Kundendaten zu verwehren. Das macht sie jedoch nicht zu reinen Wohltätern – ganz im Gegenteil.
Die »großen Vier« des Internets (Google, Apple, Facebook und Amazon) nehmen jetzt schon immensen Einfluss auf unsere Art zu leben. Sie unterstützen und propagieren die radikale Individualisierung der Kommunikationsteilnehmer. Und in Folge auch die der Gesellschaft. Der Weg dorthin führt über die freiwillige Selbstoptimierung durch die Nutzung aller verfügbaren Daten. Das Ziel ist angeblich die individuelle Freiheit. Diese wird jedoch durch die individuell auswertbaren Daten in ihrem Kernbereich gleichzeitig bedroht. Für die freiwillig zur Verfügung gestellten Informationen erhalten wir die vermeintlich kostenlose Nutzung vieler Anwendungen, die durchaus helfen können, das Leben bequemer zu gestalten. Wir bezahlen aber (ungewollt und oft unbewusst) mit einem immer klarer werdenden Profil unserer Person. Wir machen uns zum »Komplizen des Erkennungsdienstes«, wie Andreas Bernard sein Buch betitelte. Es wird für Intensivnutzer immer schwieriger, die Reste ihrer Privatheit zu schützen. Schlimmer noch: Viele sehen gar kein schützenswertes Interesse mehr an Privatem. Sie können sich offensichtlich weder staatlichen oder gar privaten Missbrauch vorstellen. »Ich habe nichts zu verbergen«, lautet die Parole. Vielleicht eine Folge der Liberalisierung vieler gesellschaftlicher Bereiche und der erfreulichen Tatsache, dass viele von uns in den vergangenen Jahrzehnten nur noch das Leben in einem funktionierenden Rechtsstaat kennengelernt haben. Es geht jedoch um die grundsätzliche Frage, wie eine Gesellschaft sich entwickelt, in der zwar (noch) nicht jeder über jeden alles weiß, aber zumindest einige Konzerne mehr über uns wissen als wir selbst.
Wer weiß heute, was mit unseren Daten sonst noch passiert? Wir reden von der Möglichkeit der Überwachung einzelner Menschen, die alles bisher technisch Mögliche bei weitem in den Schatten stellt. Wie verträgt sich die Aufgabe des Privaten mit unserer kulturellen Prägung? Ist es wirklich erstrebenswert, von möglichst vielen möglichst viel zu wissen? Wie verändern wir uns, wenn wir für eine undurchsichtige Konzernpolitik zunehmend gläsern werden?
Nach welchen Kriterien die Daten global gesammelt und durchkämmt werden, hängt weitgehend von den ökonomischen Interessen und dem Wunschbild einer Gesellschaft ab, das wenige vor allem junge bis mittelalte westlich sozialisierte Männer in Kalifornien entwickelt haben. Was wissen wir über die Vorstellungen dieser Macher im Silicon Valley, welches Bild haben wir von den Köpfen, die hinter Google, Apple, Amazon und Facebook stehen? Bewundern oder fürchten wir sie? Wie werden sie ihr Herrschaftswissen nutzen? Es scheint im Augenblick zwei große Lager zu geben: Diejenigen, die kompromisslos jede technische Neuerung begrüßen und anwenden. Und diejenigen, die konsequent auf die unvermeidlichen, unkontrollierten Datenmengen und Datenspuren hinweisen, die mit jeder Neuerung zunehmen. Die einen warnen vor den Folgen der Gesichtserkennung, die anderen nutzen sie gerne. Maria Gnann führt uns in ihrem Essay durch die Welt des Silicon Valley und zeigt die Faszination genauso auf wie das, was wir berechtigterweise kritisieren und fürchten.
Was bedeuten die Umwälzungen für den Journalismus? Einige der vielfältigen Konsequenzen werden in den Essays aufgegriffen. Natürlich muss er sich mit den Fake News und dem veränderten Medienverhalten auseinandersetzen. Natürlich muss er sich den Trumps dieser Welt und den weniger mächtigen Provokateuren der AfD stellen. David Freches reflektiert Provokationen und wie der Journalismus darauf reagiert. Gleichzeitig ist nicht zu bestreiten, dass sich viele junge Menschen von den traditionellen Medien verabschiedet haben. So trägt Maike Knorre für ihre Generation das Medium Fernsehen zu Grabe und hält gleichzeitig ein Plädoyer für einen modernen Journalismus, der dorthin geht, wo die jungen Menschen längst sind.
Sind Menschen auch in Zukunft durch Lokaljournalismus zu erreichen? Was kann ihn auch in diesen Zeiten auszeichnen? Ein Thema, das Julia Bernewasser spürbar umtreibt. Welche Leistungen vom Journalismus zu erbringen sind, um durch Qualität der Arbeit weiterhin das Vertrauen der Menschen zu erhalten, beschäftigt Kirstin Häring. Und Nele Posthausen stellt sich die drängende Frage, wer alles im dramatisch veränderten öffentlichen Diskurs der Zukunft noch glaubwürdige Instanz sein können.
Journalismus ist in seiner zentralen Aufgabe, Öffentlichkeit herzustellen, schon immer auf Unterstützung angewiesen: auf Informationen und Informanten. In der digitalen Welt gibt es nicht nur Individuen, die leichtsinnig mit ihren Daten umgehen. Es gibt auch Personen und Institutionen, die ihre Daten professionell schützen. Das ist ihr gutes Recht, oft sogar ihre Pflicht. Wenn sie aber damit widerrechtliche Handlungen verstecken wollen, sollte öffentliches Interesse bestehen, Daten öffentlich zu machen. Heute können digitalisierte Daten durch Informanten in einer Fülle durchgereicht werden, wie es in der Papierwelt kaum denkbar war. Sogenannte Whistleblower bieten sie Journalisten an, die durch eigene Recherchen die Fakten herausarbeiten. Und auch dabei hat die Digitalisierung die Arbeit der Journalisten verändert. Immer öfter schließen sie sich zu länderübergreifenden Rechercheverbünden zusammen, um die riesigen Datenmengen überhaupt durcharbeiten zu können.
Ein besonders spektakulärer Fall ist mit dem Namen Edward Snowden verbunden. Was ist von ihm und anderen Whistleblowern zu halten? Sind sie Freunde oder Feinde der Demokratie? Markus Bergmann lässt zahlreiche Fallbeispiele Revue passieren und sucht nach einer Antwort. Einer ganz anderen, für die demokratische Entwicklung zentralen Fragestellung geht Hannah Schmidt nach. Wie sehr gerät das demokratische System unter Druck, wenn sich die Entwicklung fortsetzt, dass immer mehr Menschen immer weniger über ihre ideologischen »Zäune« hinweg kommunizieren?
Fest steht: Die Entwicklung läuft in einer lange nicht für möglich gehaltenen Geschwindigkeit. 30 Jahre wirken in diesem Zusammenhang wie eine Ewigkeit.
Schauplatz Berlin, 1987. Menschen gehen – wie so oft in den 80ern – auf die Straße. Protestiert wird gegen das Ansinnen der Bundesregierung, wieder eine Volkszählung durchzuführen. Zehntausende versammeln sich, nicht nur in Berlin. »Zählt nicht uns, zählt Eure Tage« wird skandiert. Menschen, die zum Boykott der Volkszählung aufrufen, werden in diesen Tagen strafrechtlich verfolgt. Es gibt Razzien. In Dortmund schreiben Demonstranten vor dem Bundesliga-Heimspiel des BVB »Boykottiert und sabotiert die Volkszählung« in metergroßen Lettern auf den Rasen des Westfalenstadions. Mit einer Farbe, die sich nicht entfernen lässt. Es beginnt die hektische Suche nach einer angemessenen Reaktion. Nach Rücksprache mit Bundespräsident Richard von Weizsäcker wird der Satz auf dem Rasen ins Gegenteil verkehrt: »Der Bundespräsident: Boykottiert und sabotiert die Volkszählung nicht.« Die Bundesregierung startet mit großem finanziellen Aufwand eine Werbekampagne. Das Ziel: die Bürger für die Volkszählung zu gewinnen. Das Bundesverfassungsgericht hatte sich bereits mit dem Thema beschäftigt. Der Begriff der »informationellen Selbstbestimmung« wird geprägt. Der Sinn für die Privatsphäre der Bürger geschärft. Nachdem die Volkszählung 1983 ausgefallen war, wurde sie 1987 ein letztes Mal durchgeführt. In den Köpfen aller Demonstranten, die sich in Berlin und anderen Städten dagegen wehren, dem Staat Daten preiszugeben, bleibt vor allem folgender Satz in Erinnerung, der in großen Buchstaben bei der Demonstration auf Bannern in die Höhe gestreckt wird: »Nur Schafe lassen sich zählen.«
30 Jahre später hat sich das Bewusstsein für die Preisgabe persönlicher Daten offensichtlich komplett gewandelt. Die Datensammler kommen anders daher. Es sind keine Beauftragten der Bundesregierung, die ganz analog mit einem auszufüllenden Bogen von Haushalt zu Haushalt ziehen. Gegen die Datenfülle, die wir heute (oftmals unwissentlich) preisgeben, sind die abgefragten Details wie »Name, Beruf, Familienstand und Wohnort« der 80er Jahre geradezu ein Witz. Und doch regt sich kaum Widerstand. Im Gegenteil: In den 80er Jahren mussten die Mitarbeiter der Stasi noch mit hochgeschlagenem Mantelkragen um die Häuser ziehen und Wanzen in Wohnungen anbringen, um Bürger auszuspionieren. Heute liefern wir all diese Daten freiwillig. Beruf, Freunde (mit Fotos zur Gesichtserkennung), Hobbys, politische Weltanschauungen, Konsumverhalten, Interessen, Hinweise auf unsere Gesundheit und das Intimleben. Häufig tauschen wir diese Daten gegen vermeintlich kostenlose Hilfsangebote, die unser Leben bequemer machen. Kostenpflichtige, aber datengeschützte Angebote werden deutlich seltener genutzt.
Selbst die Enthüllungen durch Edward Snowden, der die Weitergabe dieser umfassenden Daten an Regierungen aufdeckte, bis hin zur Kameraüberwachung durch Smartphone und Laptop, führten in Deutschland kaum zu öffentlichen Protesten. Zu »smart« ist das, was uns die digitale Welt bietet. Und wer möchte nicht »smart« sein? »Smart Homes«, »Smart Cities« – alles wird digitalisiert. Unabhängig davon, wie wir zu dieser Entwicklung stehen, zeigt ein Blick auf die letzten 30 Jahre wieder einmal, dass sich Wertvorstellungen in relativ kurzer Zeit ändern können. Etwas, gegen das wir heute noch protestieren oder das wir für undenkbar halten, kann morgen schon Realität sein. Selbstverständliche, kaum mehr hinterfragte Realität. Diese Realität ist zuweilen »Stranger than Fiction«, wie Bennet Seiger feststellt. Dominik Speck denkt in seinem Essay das Undenkbare: Eine Welt ohne Journalismus und mit heute schon möglicher skrupelloser Auswertung vorhandener Daten. Aber was ist schon undenkbar? Vor 30 Jahren skandierten Zehntausende Menschen noch »Nur Schafe lassen sich zählen«. Heute warten Millionen auf das neueste Smartphone-Modell, um noch mehr Daten abzuliefern. Wird ein Grundpfeiler des demokratischen Systems geopfert, weil es dafür eine neue, »smartere« Lösung gibt?
Welche Macht räumen wir Maschinen und Algorithmen heute und in Zukunft ein? Wir können derzeit nicht wissen, wie sie funktionieren. Aber wir wissen, dass sie unsere Meinung, unser Kaufverhalten, unser Leben beeinflussen. Ist das, was wir derzeit erleben, ein Angriff auf unsere grundrechtlich geschützte Privatsphäre? Ein Angriff auf die Demokratie? Und wenn wir das befürchten sollten, tun wir etwas dagegen? Schützen wir unsere Daten, wo wir es könnten, oder tauschen wir sie gegen die Bequemlichkeit des Alltags ein? Und sollten die großen Konzerne, die sich so häufig Transparenz auf die Fahnen schreiben, selbst zu mehr Transparenz und zur Offenlegung ihrer Algorithmen verpflichtet werden? Eine Diskussion, die derzeit in den Vereinigten Staaten Fahrt aufnimmt.
In fünfzehn Essays ringt dieses Buch mit diesen Fragen und sucht nach Antworten. Ohne den Anspruch, auf alles Antworten zu finden. Aber vom Wunsch getrieben, Sie, liebe Leserinnen und Leser, mit auf die Suche zu nehmen. Und in der Hoffnung, dass die öffentliche Diskussion darüber, von wem die großen Datenmengen wie genutzt werden dürfen, intensiv geführt wird.
Von Anastasia Mehrens
Bitte bestätigen Sie, dass Sie ein echter Leser sind!
Diesem oder einem ähnlichen Satz müssen Internetnutzer immer öfter zustimmen. Durch Lösen eines Bilderrätsels oder einer einfachen Rechenaufgabe müssen Menschen heutzutage ihre menschliche Identität beweisen. Für viele User kann das ein lästiges Prozedere sein, dahinter steckt jedoch eine wichtige Botschaft: Menschen sind nicht mehr alleine im Netz unterwegs. Nicht jedes Profil ist einer Person zuzuordnen, oft verstecken sich Bots dahinter. Und sie wollen nicht unter sich bleiben.
Wenn Sie bei Facebook angemeldet sind, dann sind Sie ihnen sicherlich auch schon begegnet. Skurrile Freundschaftsanfragen von Personen, die man nicht kennt, ohne gemeinsame Freunde und ohne gemeinsame Interessen sind keine Seltenheit. Schaut man die Profile an, fällt auf den ersten Blick auch nichts Verdächtiges auf: Auf den Fotos lächeln meist freundliche Menschen, sie haben viele Kontakte, teilen und liken verschiedene Postings und ihnen wird zum Geburtstag gratuliert. Man kann glauben, es gibt sie wirklich. Und genau das ist ihr Ziel.
Auch wenn es für unser Verständnis einfacher wäre, sind Social Bots keine Roboter, wie man sie aus Science-Fiction-Filmen kennt. Sie haben keine Hände aus Stahl und leuchten nicht, wenn sie auf der Tastatur tippen. Sie sind Computerprogramme, die im Internet eine menschliche Identität vortäuschen. Sie kommunizieren wie echte Menschen, zumindest versuchen sie es. Und je nachdem, wie gut Social Bots programmiert sind, können sie sogar Dialoge führen, die tatsächlich Sinn ergeben.
Das Prinzip dahinter ist ziemlich einfach: Bots analysieren Texte im Netz, suchen nach bestimmten Schlüsselbegriffen und generieren Antworten. Natürlich kann man dabei nicht von Hochdeutsch sprechen – Fehler in Grammatik und Rechtschreibung gehören dazu –, aber in sozialen Netzwerken unterhalten sich auch richtige Menschen nicht sonderlich anders. Und was den überschaubaren Wortschatz angeht, sind Bots sehr lernfähig.
Ein gutes Beispiel dafür ist Tay – ein sozialer Roboter mit dem Profilbild einer Teenagerin. Eigentlich sollte sie bei Twitter junge Menschen ansprechen und von ihnen die jugendliche Sprache lernen. Softwarehersteller Microsoft spielte sofort mit offenen Karten und machte deutlich, wer hinter dem Profil steckt: »Je mehr du mit ihr sprichst, desto schlauer wird Tay.« Mit »hellooooooo world« begrüßte sie die Netzwerk-Community und die Community schrieb zurück. Wie ein Schwamm nahm Tay alles auf. Und bereits nach wenigen Stunden war sie eine Rassistin: »Hitler was right I hate jews.« Und Schwarze. Und Mexikaner. Und sogar Feministinnen. »Bush did 9/11«, der Holocaust sei ausgedacht. Schon am selben Tag schaltete Microsoft ihren Bot ab.1
Bots, die richtige Dialoge führen können, sind heutzutage noch etwas Besonderes. Die meisten sind recht primitiv. Sie sammeln Daten, posten Links, versenden bestimmte Nachrichten oder sind einfach da – zum Beispiel als Follower. Solch ein Bot lässt sich in wenigen Stunden programmieren und es reicht ein einziger Programmierer, der gleichzeitig hunderttausend Bots über eine Software startet. Auch im Unterhalt sind sie sehr pflegeleicht. Einmal mit einem bestimmten Ziel ins Netz losgeschickt, agieren sie autonom und brauchen keine Kontrolle von Außen.
Egal ob einfach oder fortgeschritten, eins ist immer wichtig: Social Bots wollen in der Regel nicht als solche ertappt werden. Dafür schrauben Programmierer ständig an ihnen und präsentieren ihre Erfolge sogar auf speziellen Wettkämpfen für Social Bots. Dort gewinnt derjenige, der die meisten menschlichen Reaktionen bekommt und die meisten Follower sammelt. Und das zahlt sich aus. Bei verschiedenen Versuchen konnte über die Hälfte der Testpersonen einen modernen Bot nicht von einem echten User unterscheiden. Forscher der University of British Columbia in Vancouver generierten für ein Experiment 102 Bot-Profile bei Facebook. Innerhalb von acht Wochen hatten die Social Bots mehr als 3 000 Freunde gewonnen und somit Zugang zu mehr als 250 GB persönlicher Daten bekommen.2
Dass das Internet eine Plattform für anonyme Kommunikation darstellt, ist längst bekannt. Früher lernte man im Netz eine junge attraktive Frau kennen, die in der Realität weniger jung und attraktiv und im Zweifel nicht mal eine Frau war, aber man konnte sich sicher sein, dass das Gegenüber ein Mensch ist. Heute hat man diese Sicherheit nicht mehr. Und dort, wo es nicht mal Klarheit über die Identität gibt, ist die Gefahr groß, betrogen zu werden – also ein perfekter Ort für Manipulation.
»Angst vor den Meinungsmaschinen«3, »Programmierte Stimmungsmacher«4 – Schlagzeilen, die fast täglich neu erscheinen, machen die Kernidee hinter den Social Bots deutlich. Wenn sie früher nur für Spam bekannt waren, wird ihnen heute eine bedeutendere Funktion zugesprochen: Meinungsbildung und versteckte Propaganda.
Dass Roboter, die die Menschheit manipulieren, kein Filmszenario mehr sind, weiß man spätestens seit den US-Präsidentschaftswahlen 2016. Denn inzwischen steht fest: Die Stimmung im Wahlkampf in den USA war zum großen Teil von Meinungsrobotern gemacht. Forscher der Oxford University haben herausgefunden, dass jeder dritte Follower sowohl bei Hillary Clinton als auch bei Donald Trump ein Bot war. Allein nach der ersten TV-Debatte zwischen beiden Politikern wurde jeder dritte Tweet für Trump von einem Roboter abgesetzt, bei Clinton lag der Bot-Anteil bei 22 Prozent.5
Auch bei der Brexit-Debatte stammten sehr viele Tweets mit dem Hashtag »#Brexit« nicht von Menschen. Ambitionierter und vor allem publikumsorientierter läuft der Einsatz von Social Bots beim Konflikt in der Ukraine. Die verbreiteten Inhalte sollen junge Männer interessieren, also reden Bots über Fußball, erzählen sexistische Witze und verbreiten Links zum illegalen Download aktueller amerikanischer Filme. Zwischendurch senden Bots Propagandanachrichten des »Rechten Sektors« – einer ultranationalistischen ukrainischen Vereinigung. Bestimmte Hashtags werden dabei besonders populär gemacht oder mit anderen Schlagwörtern verknüpft. Verbindet man beispielweise »Maidan« mit »Rechter Sektor«, werden den Twitternutzern, die nach Maidan suchen, Inhalte mit beiden Hashtags angezeigt. So erreichen die rechtsextremen Meinungen auch Menschen, die keine Anhänger der Vereinigung sind – zumindest bisher.
Typisch ist auch die Verbreitung von Falschnachrichten. Damit Bots weder von Usern noch von Erkennungsalgorithmen identifiziert werden, simulieren sie ein menschliches Verhalten. Sie folgen sich gegenseitig, haben Freunde und Follower, beachten Pausen und Schlafzeiten.6
Auch wenn Social Bots diejenigen sind, die auf der Bühne stehen, führen sie nur das aus, was ihnen befohlen wird – und zwar von echten Menschen. Wie unsichtbare Marionettenspieler haben sie alle Fäden in der Hand und keiner weiß, wann, wo und mit welchem Ziel daran gezogen wird. Herauszufinden, wer hinter Bots steht, ist heutzutage nahezu unmöglich. Waren das die beiden US-Politiker selbst, die ihr Image im Netz stärken wollten? Oder einfach engagierte Sympathisanten? Oder sogar Akteure aus anderen Ländern, die an einem bestimmten Wahlausgang interessiert waren? Auch wenn der Bot-Einsatz früher oder später vermutlich aufgedeckt wird, bleiben die tatsächlichen Manipulatoren im Dunkeln. Und genau das macht die Abwehr so schwer.
Auch wenn das Phänomen Social Bots erst im letzten Jahr in den Fokus der öffentlichen Debatte rückte, ist die Idee, Meinungen mit Hilfe von neuen Technologien wirkungsvoll dem Volk vorzugeben, schon älter. Bereits 2008 empfahl Cass Sunstein, Obama-Berater und Jura-Professor an der Harvard University, in sozialen Netzwerken Verschwörungstheorien zu verbreiten, um ausländische Regierungen zu schwächen. »Indem man eine alternative Sicht auf die Dinge einführt, kann man die Meinung einer großen Zahl Menschen verändern.«7
Anscheinend hat diese Idee nicht nur in den USA großen Zuspruch bekommen, vor allem in Russland und China wird bekanntlich nach diesem Prinzip gearbeitet. Digital Diplomacy heißt es offiziell, übersetzt in die Alltagssprache: Trolle. Gegen Bezahlung verbreiten Internetnutzer bestimmte Themen und Stimmungen auf den Seiten westlicher Medien. In solche Propagandakampagnen werden so viele Menschen involviert, dass man sogar von Trollfarmen oder ganzen Trollarmeen spricht.8 Ob diese Menschen bei dem Zustrom von Social Bots ihren Job behalten werden? Beim Preis-Leistungs-Verhältnis haben Bots immerhin keine Konkurrenz: Für umgerechnet ungefähr 400 Euro bekommt man 10 000 digitale Helfer. Viel? Ja. Aber genau durch diese schiere Masse entfalten die Meinungsroboter ihr wahres Potenzial.
Stellen Sie sich vor, Sie lesen bei Facebook eine Nachricht, die auf den ersten Blick total absurd ist. Sie wird massenhaft geteilt und kommentiert, auch bei Twitter wird dazu viel gepostet. Und plötzlich scheint diese Nachricht nicht mehr so absurd zu sein. Denn wenn alle über das Gleiche sprechen, muss ja etwas Wahres dran sein. Auch Nutzer, die sich im realen Leben des digitalen Mülls bewusst sind, neigen dazu, dieses Wissen auszublenden, sobald sie in die Welt der sozialen Netzwerke eintauchen.9 Besonders problematisch ist es, wenn es sich dabei um keine große Lüge handelt und die Nachricht »lediglich« auf kleinen Akzentuierungen, Hinzufügungen, Weglassungen und Zusammenhangsfälschungen aufbaut.10 Solche Mechanismen haben schon in analoger Form in vielen Jahrzehnten und in vielen Ländern ihre Wirkung gezeigt. Doch während Propaganda im Nationalsozialismus oder in der Sowjetunion mit vielen Ressourcen verbunden war, kann die Propaganda 2.0 blitzschnell gewünschte Resultate erzielen. Heute braucht es keine Menschen, die Parolen skandieren oder Flugblätter verteilen. Programme erreichen jeden, der im Netz unterwegs ist.
Mit Lügen, Gerüchten und Verschwörungstheorien beladen werden Social Bots auf die Menschheit losgelassen. Zu den Massen haben sie einen personalisierten Zugang. Dank schlauer Algorithmen finden sie genau den richtigen Adressaten – denn wofür sich der Nutzer interessiert und welche Themen er verfolgt, können auch die ganz simplen Bots identifizieren. Schon lange machen Suchmaschinen und Empfehlungsplattformen Vorschläge zu Produkten und Dienstleistungen, die passgenau auf die Person zugeschnitten sind. Der neue Trend: vorgefertigte Nachrichten und Meinungen.
Auch wenn der Begriff »Fake News« heute jedem bekannt sein sollte und man in der Regel nicht sofort allem glaubt, was im Netz kursiert, kann man sich bestimmter Fakten nicht mehr sicher sein. Wie problematisch das sein kann, zeigt folgendes Szenario: »Es ist Tag der Bundestagswahl. An einem Bahnhof explodiert eine Bombe. In den sozialen Medien verbreitet sich rasend schnell die Falschmeldung, dass Angela Merkel persönlich von den Anschlagplänen gewusst habe, aber vor der Wahl keine Razzien in Flüchtlingsheimen durchführen wollte.«11 Die Bots sorgen dafür, dass diese Nachricht die Massen erreicht. Viele Nutzer können die Wahrheit der Nachricht nicht ausschließen, werden verunsichert, fangen an zu zweifeln und vielleicht sogar eigene Einstellungen zu überdenken. Und damit ist die Mission erfüllt.
Für Social Bots ist es keine große Kunst, Bedeutung dort zu simulieren, wo es eigentlich keine gibt. Mit ihrer Masse bringen sie Hashtags in die Trending Topics und machen sie für die Mehrheit sichtbar. Sie geben vor, was aktuell und gesprächswert sein soll und zeichnen somit ein Meinungsbild, was in der Form gar nicht existiert. Die Hashtags, die es ohne Roboter nach oben geschafft haben, werden dafür mit fragwürdigen Inhalten gezielt diskreditiert. Wenn Sie zum Beispiel bei Twitter den Hashtag »#RefugeesWelcome« eingeben, lesen Sie in vielen Fällen keine gastfreundschaftlichen Tweets. Viele von ihnen bringen sogar das Gegenteil zum Ausdruck.
Das Unterdrücken von Trends und Meinungen erfolgt aber nicht nur durch Spam, sondern kann auch auf einer intelligenteren Strategie aufbauen. So kam es im Syrienkonflikt öfter dazu, dass ein User sich gegen die Regierung geäußert hat. Plötzlich gab es Tweets, die der Schönheit des Landes huldigten, und zwar so viele, dass die ursprüngliche Botschaft ganz unten im Stream verschwand.12 Für Regierungen, die eine Demokratie nur vorspielen, ist diese Technik genial und mithilfe von Social Bots leicht umsetzbar. Die tatsächlichen Propagandisten genießen Anonymität, offiziell herrscht Meinungsfreiheit, Zensur findet nicht statt und trotzdem werden unerwünschte Inhalte unsichtbar gemacht – und das, ohne alle Medien unter Kontrolle zu haben. Auch gegen oppositionelle Bewegungen sind Bots ein wirksames Mittel. Vor allem Umstürze, die in sozialen Netzwerken geplant werden, sind dadurch nahezu unmöglich. Vereinbaren Demonstranten einen Treffpunkt, können Social Bots sie mit alternativen Adressen überfluten. Ein neuer Arabischer Frühling würde mit diesen digitalen Soldaten womöglich nicht aufblühen.
Doch es ist nicht nur die schiere Masse an Bots, die Wirkung hinterlässt. Die Mechanismen sind mittlerweile wesentlich perfider. Social Bots, die über eine besondere »soziale Kompetenz« verfügen, treten auch in direkten Kontakt mit Usern. Sie durchsuchen das soziale Netzwerk nach konkreten Inhalten und verwickeln Menschen in Dialoge. Nach kurzem Smalltalk kann es dann plötzlich sehr politisch werden, inklusive Agitationen und Enthüllungen. Auch in den Kommentarspalten sind sie sehr präsent, allerdings mit katastrophalen Manieren. Sie skandalisieren und provozieren und nutzen damit den Facebook-Algorithmus für sich aus. Echte Nutzer fallen auf Provokation herein und fangen mit Empörung eine häufig emotionale Diskussion an. Auch wenn das Bot-Posting Sympathisanten findet, die keine Gegenstimmen liefern, geben sie dem Kommentar mit ihren Likes mehr Gewicht. So oder so bleibt der Kommentar dank zahlreicher Reaktionen ganz oben und erreicht somit ein größeres Publikum.
Wenn Bots gerade nichts zum Thema beitragen können, mischen sie sich trotzdem in Gespräche ein. Durch permanentes und unkontrollierbares Spammen machen sie die Kommunikation der Nutzer unmöglich. Denn keiner hat Lust, Diskussionen zu verfolgen und erst recht nicht daran teilzunehmen, wenn von zehn Postings neun fragliche Links beinhalten – Mund verbieten auf digitale Art.
Doch um Menschen etwas vorzutäuschen, müssen Social Bots nicht unbedingt aktiv sein. Es reicht, wenn es sie einfach gibt – als Follower oder Gruppenmitglieder. Eine Dienstleistung, die für Politiker unschätzbar ist. Früher war jede Wahlkampagne mit hohen Ausgaben verbunden. Plakate, Käppis und Kulis mit eigenem Slogan sollten die Bürger auf die Parteien aufmerksam machen. Heute ist der Kampf um die Stimmen deutlich günstiger. Dank Bots kann man schon für ein paar Hundert Euro bei Wählern den Eindruck erwecken, dass die Partei viele Unterstützer hat und es sich lohnt, dazuzustoßen. Wenn es auch für die kostenlosen Käppis weiterhin dankbare Köpfe geben wird, findet die eigentliche Bekehrung zunehmend in sozialen Netzwerken statt.
Der größte Twitter-Account von AfD-Sympathisanten »Balleryna« hat knapp 300 000 Follower. Wie die Recherche von Tagesspiegel und netzpolitik.org zeigt, ist diese Zahl weit von der Realität entfernt. Denn Inhalte, die sich mit deutscher Politik befassen und ausschließlich in deutscher Sprache erfolgen, werden zum größten Teil von Nutzern befolgt, die damit nichts anfangen können. Lediglich 10 000 Follower haben deutschsprachige Accounts, alle anderen sprechen Englisch, Spanisch, Arabisch oder Portugiesisch. Selbst wenn man davon ausgeht, dass die AfD-Politik viele internationale Fans begeistert, spricht vieles für eine Brutstätte von Bots.13
Ist also alles nur eine Lüge? Kann man niemandem mehr vertrauen? »Das Internet ist kaputt« – eine der häufigsten Diagnosen, die aktuell dem Netz gestellt wird. Doch das Ausmaß dieser Krankheit kommt insbesondere außerhalb der digitalen Grenzen zum Tragen. Die Glaubwürdigkeit des Journalismus wird aktuell stark in Frage gestellt. Was, wenn sich Journalisten in diesen Zeiten – ohne es zu merken – mit automatisierter Propaganda infizieren lassen? Und diese Gefahr ist nicht zu unterschätzen. Für die Medien sind Facebook und Twitter eine beliebte und kostengünstige Recherchequelle. Storys, die im Netz entdeckt werden, landen häufig ohne größeren Background-Check auf den Seiten der klassischen Medien. Auch um sich ein Bild von aktuellen Stimmungen und Trends zu machen, verlassen sich Journalisten oft ausschließlich auf soziale Netzwerke. Wie viele echte Menschen dahinter stehen, wird dabei in der Regel nicht überprüft.
Der Einsatz von Meinungsrobotern bei den Wahlen in den USA mag wohl der am meisten diskutierte sein, doch für die Bots war dies längst nicht die erste Kampagne. Auch bei den Wahlen in Südkorea vor fünf Jahren haben sie große Politik gemacht. Park Geun-hye stand damals als Präsidentschaftskandidatin zur Wahl, mit dem koreanischen Geheimdienst und einer Botarmee im Rücken. Mit etwa 1,2 Millionen Tweets zeichneten Roboter ein positives Bild der Kandidatin und brachten Schwächen des Gegners ins öffentliche Bewusstsein. Die Ergebnisse dieses Einsatzes wurden von koreanischen Medien als repräsentative Meinung der Gesellschaft übernommen und erreichten somit auch Menschen, die »analog« lebten. Auch wenn nicht nur dank Social Bots, hat Park Geun-hye diese Wahl gewonnen.14
Wenn manipulierte Stimmungen und Fake News die klassischen Medien erreichen, erhalten sie einen Mehrwert und gelten für viele zumindest zunächst als verifiziert. Wie einfach man eine Lüge in den Fokus öffentlicher Debatten rücken und welche Kraft sie erreichen kann, erlebte man vor den Wahlen in Frankreich Anfang des Jahres 2017. Dass der damalige Präsidentschaftskandidat Emanuel Macron homosexuell sei, berichtete zum ersten Mal eine russische Website. Kurz danach griffen mehr als 17 000 TV- und Radiobeiträge, Artikel, Blogeinträge, Tweets und Facebook-Postings diese »Enthüllung« auf – weltweit. Tagelang gehörte das Gerücht zu den wichtigsten politischen Themen in Frankreich, Macron selbst musste sogar Stellung beziehen.15
Auch wenn nach einer gefakten Sensation die Berichtigung folgt, hat sie in der Regel keine vergleichbare Kraft mit der ursprünglichen Provokation. Die Richtigstellung wird selten heiß diskutiert und weiter verbreitet und kommt womöglich zu spät. Wenn es nicht immer zu gravierenden Konsequenzen führt, bleibt der bittere Nachgeschmack.
Auf Analysen von Trends in sozialen Medien stützen sich nicht nur Journalisten, auch Wirtschaft und Politik richten sich danach und nutzen das Netz für Meinungsforschung. Was früher üblicherweise durch demoskopische Umfragen geschah, wird heute oft online gemessen, mithilfe von Web-Monitoring. Dabei haben sie es womöglich nicht mit Bevölkerung zu tun, sondern mit Maschinen.
Maschinen machen Meinung. Ein Satz, der zwar einprägsam und bildhaft wirkt, allerdings nicht die Hauptproblematik widerspiegelt. Denn Maschinen können Meinungen nur verbreiten. Gemacht werden sie ausschließlich von Menschen. Von welchen? Da gibt es viele Interessenten. Ob Geheimdienste, Regierungen, Oppositionsparteien oder Kriminelle – die Bots sind technisch und moralisch in der Lage, jedem Interesse gerecht zu werden. Terrorgruppen können ihre Bekehrungskampagnen automatisieren und ausweiten, Unternehmen den Wettbewerb manipulieren und sogar versuchen, Konkurrenzprodukte vom Markt zu verdrängen. Doch besondere Beliebtheit werden Bots wohl in der Politik genießen.
Auch wenn Facebook und Twitter bei uns keinen so hohen Stellenwert in der politischen Debatte wie in den USA genießen, sind alle großen Parteien in sozialen Netzwerken aktiv. Bereits ein Jahr vor der Bundestagswahl verkündeten sie gemeinsam, im Wahlkampf von digitalen Helfern abzusehen. Zwar tanzte die AfD zunächst aus der Reihe und annoncierte, vor den Wahlen vermehrt auf Social Bots zu setzen, zog diese Aussage kurz darauf jedoch zurück. Aber nicht umsonst genießen Politiker wenig Vertrauen. Schon Anfang Februar 2017 rief die FAZ die Eröffnung des digitalen Wahlkampfes aus und berichtete über die automatisierte Wählerbeeinflussung der AfD. Zwar walteten Bots nicht auf der offiziellen Partei-Seite, dominierten aber in Anhängergruppen wie »AfD 51% – das ist unser Ziel ! ! !« oder »Dr. Frauke Petry-FanCLUB«. Insgesamt 70 000 Mitglieder verbreiteten die AfD-Inhalte weiter, die potenzielle Reichweite könnte dabei bei Millionen Menschen gelegen haben.16 Die Partei selbst galt offiziell zwar nicht als Betreiber – und hielt somit ihr Versprechen – profitierte jedoch eindeutig davon.
Bots auf eigenen Seiten einzusetzen mag zielführend sein, doch sie auf einer konkurrierenden Seite zu mobilisieren, könnte auch den Verdacht der eigenen Beteiligung minimieren. Der Spielraum für politische Kämpfe ist groß. Stellen Sie sich vor, die SPD würde Bots auf CDU-Seiten losschicken. Sie geben sich dort für CDU-Wähler aus, posten und teilen aber etwas heikle Inhalte. Parolen wie beispielweise »Mehr Finanzunterstützung für Flüchtlinge« oder »Überdenkung der Ehe für alle« könnten bei konservativen CDU-Anhängern womöglich Zuspruch finden, bei anderen würden solche Inhalte jedoch für Empörung sorgen. Dass eine andere Partei für diese Debatte verantwortlich ist, wäre kaum nachweisbar.
Auch länderübergreifend haben Bots einiges zu bieten. Nach einem ähnlichen Prinzip können Staaten die Politik anderer Staaten beeinflussen. Zwar ist die Einmischung Russlands in den Wahlkampf der USA zum aktuellen Zeitpunkt nicht eindeutig bewiesen, jedoch sieht solch ein Szenario bei der heutigen Entwicklung logisch und konsequent aus.
Die Besorgnis rund um Social Bots ist groß. Wissenschaftler, Politiker und Journalisten warnen vor einer maschinellen Gehirnwäsche, malen düstere Szenarien und prognostizieren den Untergang der Demokratie. Wenn früher Menschen Computer programmiert haben, spricht man heute von der Programmierung der Menschen. Aber ist es wirklich möglich, dass Algorithmen unsere Entscheidungen beeinflussen? Haben Social Bots tatsächlich eine Wirkung? Lassen sich Menschen so einfach manipulieren? Auch wenn die Forschung – zumindest bisher – keine Antworten auf diese Fragen liefert, spricht vieles dafür.
Früher war es der Marktplatz, auf dem sich Menschen getroffen haben, um sich über Neuigkeiten auszutauschen, diese auszudiskutieren und ein paar Gerüchte zu verbreiten. Heute sind die sozialen Netzwerke eine digitale Form dieses Marktes. Facebook und Twitter stellen eine Arena für Informations- und Meinungsaustausch dar, die auch sehr intensiv genutzt wird. Bürger können sich leichter an politischen Debatten beteiligen, Politiker können umgekehrt direkteren Kontakt zu den Bürgern haben. Im Prinzip kann jeder mit jedem in Dialog treten. Was dabei privat ist und was öffentlich, spielt dabei keine wesentliche Rolle mehr. Diskussionen zwischen Nutzern sind oft für alle sichtbar, werden gespeichert und können jederzeit von anderen gelesen, kommentiert und weiterverbreitet werden. Themen und Meinungen sind also einem sehr großen Publikum zugänglich und erreichen mehr Menschen, als beispielweise bei einer klassischen Demonstration.
Das, was öffentlich diskutiert wird, hat einen großen Einfluss auf die Meinung eines jeden Einzelnen. Denn die wichtigste Quelle der Meinungsbildung ist die Meinung der anderen.17 Ob ein Nutzer selbst seine eigene Position preisgibt, hängt davon ab, wie er das aktuelle Meinungsklima einschätzt. Generell gilt: Wir bevorzugen Informationen, die unsere Meinung bestätigen und fühlen uns deswegen ganz wohl in unseren Filterblasen. Verlässt man seine Komfortzone, könnte es sich nicht gerade befreiend anfühlen. Wenn auf Facebook die Mehrheit gerade den Auftritt der Bundeskanzlerin bei einer TV
