2,99 €
Algorithmen können auf Grundlage von Kundendaten messerscharf analysieren, wie eine Erfolg versprechende Geschichte verfasst wird, wie der perfekte Chart-Hit aufgebaut sein muss oder wie ein Blockbuster-Drehbuch auszusehen hat. Künstliche Intelligenz ist obendrein dazu in der Lage, diese Anforderungen auch direkt umzusetzen und zum Beispiel Bilder zu malen oder Songs zu komponieren – der Computer wird zum aktiven Künstler! Doch ist das noch Kunst? Wird der Retorten-Mainstream das menschliche Schaffen verdrängen? Mathias Liegmal beschreibt, mit welchen Umwälzungen der gesamte Kreativbereich durch den Einzug der KI rechnen muss.
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 245
Veröffentlichungsjahr: 2020
MATHIAS LIEGMAL
WENN DER COMPUTER ZUM KÜNSTLER WIRD
Mathias Liegmal
WENN DER COMPUTER ZUM KÜNSTLER WIRD
Wie Big Data und KI die Musik-, Literatur-, Kunst- und Entertainmentbranche revolutionieren
Bibliografische Information der Deutschen Nationalbibliothek:
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://d-nb.de abrufbar.
Für Fragen und Anregungen:
1. Auflage 2020
© 2020 by Redline Verlag, ein Imprint der Münchner Verlagsgruppe GmbH,
Nymphenburger Straße 86
D-80636 München
Tel.: 089 651285-0
Fax: 089 652096
Alle Rechte, insbesondere das Recht der Vervielfältigung und Verbreitung sowie der Übersetzung, vorbehalten. Kein Teil des Werkes darf in irgendeiner Form (durch Fotokopie, Mikrofilm oder ein anderes Verfahren) ohne schriftliche Genehmigung des Verlages reproduziert oder unter Verwendung elektronischer Systeme gespeichert, verarbeitet, vervielfältigt oder verbreitet werden.
Redaktion: Desirée Simeg
Umschlaggestaltung: Marc Fischer, München
Umschlagabbildung: Sweet Art_Handgezeichnete Ölmalerei. Abstrakter Kunsthintergrund. Ölmalerei auf Leinwand. Farbstruktur. Fragment von Kunstwerken. Farbflecken. Pinselstriche aus Farbe. Moderne Kunst. Zeitgenössische Kunst. Farbige Leinwand/ Shutterstock; Edmond de Belamy
Satz: Helmut Schaffer, Hofheim a. Ts.
Druck: GGP Media GmbH, Pößneck
eBook: ePubMATIC.com
ISBN Print 978-3-86881-801-7
ISBN E-Book (PDF) 978-3-96267-233-1
ISBN E-Book (EPUB, Mobi) 978-3-96267-234-8
Weitere Informationen zum Verlag finden Sie unter
www.redline-verlag.de
Beachten Sie auch unsere weiteren Verlage unter www.m-vg.de
Für Melanie.
ANSTELLE EINER EINLEITUNG:
Filme frisch vom Reißbrett
KAPITEL 1
Von Disruptionen und Revolutionen
KAPITEL 2
Die Vermessung der Welt
KAPITEL 3
Kreative Computer
KAPITEL 4
Schwierigkeiten und Gefahren
KAPITEL 5
Die Zukunft der Kultur
KAPITEL 6
Aufstieg und Fall der KI
Über den Autor
Weiterlesen
Quellenverzeichnis
Ein Aufschrei ging 2013 durch das Netz, als die Nachricht die Runde machte: Netflix, der aufsteigende Stern am Streaming-Himmel, habe House of Cards, eine seiner ersten Eigenproduktionen, mithilfe von Datensammlungen und Algorithmen bis ins letzte Detail auf die Vorlieben seiner Zuschauer zugeschnitten. Demnach sei den Machern aufgefallen, dass Menschen, die die Originalserie aus Großbritannien angeschaut und gut bewertet hatten, offenbar auffällig häufig eine Vorliebe für den Schauspieler Kevin Spacey haben.1 Was läge da näher, als für das amerikanische Remake eben diesen Darsteller zu engagieren und dabei die unterbewussten Wunschvorstellungen der Netflix-User zu bedienen?
Auch wenn sich Netflix gegen die Behauptung wehrt, House of Cards sei am Reißbrett entstanden, und sich vielfach darauf beruft, seinen Produzenten schlichtweg mehr kreative Freiheiten einzuräumen als alteingesessene Fernsehsender oder Hollywoodstudios, leugnet das Unternehmen nicht, dass es Massen an Daten sammelt, um seine Zuschauer besser zu verstehen.2 Im Gegenteil: Netflix spielt sogar teilweise offensiv mit dem Wissen, das es über seine Nutzer angehäuft hat. So wurde im Dezember 2017 beispielsweise folgende Nachricht über den offiziellen Twitter-Account des Unternehmens veröffentlicht: »To the 53 people who’ve watched ›A Christmas Prince‹ every day for the past 18 days: Who hurt you?«3 (etwa: »An die 53 Leute, die in den letzten 18 Tagen jeden Tag ›A Christmas Prince‹ gesehen haben: Wer hat Euch verletzt?«) Die Kommentare überschlugen sich – von amüsiert über moralisch entrüstet bis hin zu schockiert waren alle denkbaren Emotionen dabei. Einige User meinten, es sei wenig überraschend, dass ein digitales Unternehmen das Verhalten seiner Kunden erfasst und analysiert. Der Großteil der Twitter-User schien jedoch durchaus überrascht gewesen zu sein.4
Nicht zu leugnen ist jedenfalls der Nachhall an kritischen Artikeln, die der Tweet nach sich zog und die Thematik so aus den sozialen in die klassischen Medien spülte5. Ein offenes Geheimnis schien erstmals ausgesprochen worden zu sein: Die Kultur war vermess- und berechenbar geworden. Doch wie ist es dazu gekommen? Welches Ausmaß hat das Phänomen bereits angenommen, was bedeutet das alles für Kultur und Gesellschaft – und wohin wird es noch führen?
»Unsere Vorfahren hielten sich an den Unterricht, den sie in ihrer Jugend empfangen; wir aber müssen jetzt alle fünf Jahre umlernen, wenn wir nicht ganz aus der Mode kommen wollen.«
–Johann Wolfgang von Goethe, Wahlverwandschaften
Technische Neuerungen kommen mit einer atemberaubenden Geschwindigkeit auf. Dabei werden nicht nur das Militär und die Medizin großen Veränderungen unterworfen sein, sondern ebenso das kulturelle Leben.
Dies ist ein Science-Fiction-Buch. Auch wenn es sachbuchartig anmutet, besteht es doch zu großen Teilen aus Spekulationen, Gedankenexperimenten und Zukunftsvisionen. Die Erfahrung zeigt, dass sich Prognosen häufig als falsch herausstellen. Sie sind – so muss man leider sagen – größtenteils fiktiv. Niemand weiß mit absoluter Sicherheit, wie die Zukunft aussehen wird, und oftmals entpuppen sich sogar sehr vage und vorsichtig formulierte Behauptungen als unzutreffend – selbst, wenn sie von namhaften und angesehen Experten aufgestellt wurden.
Der britische Physiker Lord Kelvin vertrat 1896 beispielsweise die These, dass Flugmaschinen, die schwerer als Luft sind, schlichtweg unmöglich seien.6 Auch Ken Olsen, der 1957 den Computerhersteller DEC gegründet hatte, leistete sich einen groben Schnitzer: 1977 behauptete er, dass es keinen Grund dafür gäbe, dass in jedem Privathaushalt mal ein Computer stehen würde.7 Zu seinem eigenen Glück lag er falsch: DEC mauserte sich in den 80er-Jahren zum zweitgrößten Computerhersteller weltweit. Auf Platz 1 befand sich zu dieser Zeit IBM, dessen Präsident Thomas Watson einmal sagte, es gebe einen Weltmarkt für vielleicht fünf Computer. Robert Metcalfe wiederum, der Erfinder des Ethernets, vertrat noch 1995 die Meinung, dass das Internet im Jahr 1996 kollabieren würde. 1997 wiederum gestand er seinen Fehler öffentlich ein, indem er bei einem Vortrag jenen Artikel, in dem er diese These aufgestellt hatte, wortwörtlich aufaß.8
Wie gesagt: Prognosen sind kompliziert. So sehr man sich bemüht, der Blick in die Zukunft stützt sich viel zu sehr auf die Gegenwart. Komplett neu zu denken ist für den menschlichen Verstand extrem schwierig, da es dem alltäglichen Denken widerspricht, das sich zumeist auf Erfahrungen und Routinen stützt.9 Noch schwieriger wird es, wenn unser Gehirn es nicht mehr mit linearen, sondern mit sich exponentiell entwickelnden Trends zu tun bekommt, die schlagartig auftauchende Sprünge nach sich ziehen können, wie es mittlerweile beim technischen Fortschritt der Fall ist.10
Die Tech-Welt ist durch Umbrüche gekennzeichnet, die in Forschung und Wirtschaft als »Disruption« oder »schöpferische Zerstörung«11 bezeichnet werden: Es geht um Neuerungen, die binnen kürzester Zeit ganze Branchen revolutionieren. Google hat das dazugehörige Denken sogar zu einem firmeneigenen Mantra erhoben und auf die Formel »Think 10x« gebracht: Neue Erfindungen sollen den Status quo nicht nur einfach um 10 Prozent verbessern, sondern zehnmal so gut sein – und damit Branchen über Nacht umkrempeln.
Digitalkameras lösten den analogen Fotofilm ebenso schnell ab, wie Smartphones herkömmliche Handys und WhatsApp die SMS ersetzten. Röhrenmonitore verschwanden in Windeseile, als Flachbildschirme auf den Markt kamen. Die CD verdrängte die Vinylschallplatte; der Discman ersetzte den Walkman und wurde selbst vom MP3-Player abgelöst. Das Streaming veränderte den Musikkonsum erneut maßgeblich. Taxis werden möglicherweise bald durch Uber-Fahrer und Hotels durch Airbnb-Apartments ersetzt – wenngleich dieser Trend in Deutschland aktuell noch vergleichsweise schleppend vorangeht. Vorhergesehen hat diese Entwicklungen so gut wie niemand. Dennoch – und das ist der springende Punkt – sind entsprechende Überlegungen zu möglichen Zukunftsvisionen wichtig: Sie helfen uns, potenzielle Entwicklungslinien durchzuspielen, uns dazu zu positionieren und so zumindest ein bisschen besser auf die Zukunft vorzubereiten. Eine solche Selbstverortung ist heutzutage wichtiger denn je: Der technische Fortschritt hat ein atemberaubendes Tempo erreicht und schreitet exponentiell voran. Sein Einfluss auf das Alltagsleben ist schon jetzt enorm und wird noch viel umfassender und folgenreicher sein, als viele es sich derzeit träumen lassen.
Frank Thelen, einer der bekanntesten deutschen Investoren im Technikbereich, prophezeite in einem Gespräch mit dem Philosophie Magazin für die nächsten Jahre eine nahezu explosionsartige Entwicklung.
Frank Thelen (*1975) ist ein deutscher Unternehmer und Investor mit Fokus auf die Bereiche Technik und Digitales. Er ist Geschäftsführer der Firma Freigeist Capital, die in erfolgversprechende Start-ups investiert. Einer breiteren Masse dürfte er durch seine Auftritte in der Fernsehsendung Die Höhle der Löwen bekannt geworden sein.
Thelen ist der Meinung, dass es nur eine Frage der Zeit ist, bis alles, was aktuell noch in Laboren entwickelt wird, auf den Markt kommen und das Leben der Konsumenten maßgeblich verändern wird. Darin bestünde die größte Herausforderung, der sich die Menschheit jemals gegenübersah. Demnach werde die Frequenz an Innovationen in den nächsten Jahren dermaßen zunehmen, dass die Technik bald sehr vieles besser können wird als der Mensch. Thelen geht sogar so weit zu sagen, dass dieses Ereignis einschneidender sein wird als sämtliche Kriege, Pest oder Cholera.12
An vorderster Front bewegen sich bei dieser Entwicklung die sogenannten GAFA-Riesen, also Google, Amazon, Facebook und Apple. Doch auch andere Unternehmen haben die Zeichen der Zeit längst erkannt und arbeiten fleißig daran, die Zukunft maßgeblich mitzugestalten. Die Futuristin und Autorin Amy Webb spricht beispielsweise von den »Big Nine«, zu denen sie außer den genannten Konzernen noch IBM, Microsoft sowie die aus China stammenden Großunternehmen Alibaba, Baidu und Tencent zählt. Gemeinsam mit diversen Universitäten tüfteln sie alle hinter verschlossenen Türen an allerlei Projekten, die nur darauf warten, unsere Welt auf den Kopf zu stellen. Einzelne Zeitungsmeldungen über aufgekaufte Start-ups oder gezielt gesetzte Ankündigungen der CEOs lassen dabei regelmäßig die Gerüchteküche brodeln.
Schon heute sind schier unglaubliche technologische Neuerungen bereits Realität geworden – nur stehen sie eben noch in den Laboren der Technikriesen und nicht in den Wohn- und Kinderzimmern dieser Welt. Doch sobald die Wege für die Massenproduktion geebnet sind, dringen die neuesten Wunderwerke unaufhaltsam in unser Leben ein. Die Vergangenheit beweist es: In Windeseile verbreiteten sich Autos, Kühlschränke, Radios, Fernseher, Computer, Handys, Smartphones und neuerdings auch Sprachassistenten wie Alexa oder Google Home weltweit.
Im Laufe der Menschheitsgeschichte gab es bereits drei große industrielle Revolutionen, denen zunächst die landwirtschaftliche Revolution vorausging: Der Mensch war nun nicht mehr Jäger und Sammler, sondern begann mit dem Ackerbau und der Domestizierung von Tieren. Die Nahrungsmittelproduktion verbesserte sich, die Weltbevölkerung wuchs. Diese Entwicklungen bildeten die Basis für alles, was danach kam. Die erste industrielle Revolution ist ungefähr zwischen 1760 und 1840 anzusiedeln, wurde durch die Erfindung der Dampfmaschine ausgelöst und führte zu mechanischen Produktionsprozessen. Die zweite industrielle Revolution an der Schwelle zum 20. Jahrhundert war vor allem der Elektrizität geschuldet, die im Zusammenspiel mit Fließbändern die Massenproduktion ermöglichte. Die dritte industrielle Revolution schließlich begann in den 1960er-Jahren mit der Erfindung des Computers, der nach und nach seinen Weg in private Haushalte fand. Auch das Internet wird dazu gezählt.13
Derzeit bahnt sich die vierte industrielle Revolution an, deren Resultat daher folgerichtig auch als Industrie 4.0 bezeichnet wird: Big Data, künstliche Intelligenz, 3D-Drucker, neue Materialien, Quantencomputer – diese und weitere technische Neuerungen entwickeln sich mit rasender Geschwindigkeit und werden die Welt, wie wir sie heute kennen, maßgeblich verändern. Dies gilt sowohl für die Arbeitswelt als auch für unseren Alltag. Wie diese Veränderungen aussehen werden, ist ungewiss. Einig sind sich die Experten nur darin, dass sie ein schier unglaubliches Ausmaß annehmen werden und unausweichlich sind.14
Der bekannte Blogger und Publizist Sascha Lobo sprach in einem seiner Podcasts über die berechtigte Skepsis, die man gegenüber den neuesten Entwicklungen in diesen Bereichen haben dürfe. Auch er sieht die Wende, die uns bevorsteht, als unausweichlich an. Natürlich könne der Einzelne gegen den technischen Fortschritt sein – er werde dennoch kommen. Aus diesem Grund sei es wichtig, sich darum zu kümmern, auf welche Weise die Neuerungen eintreten würden.15
Sascha Lobo (*1975) ist ein deutscher Blogger und Publizist, der sich vor allem mit der Wirkung der Digitalisierung auf die Gesellschaft befasst. Er ist Kolumnist bei Spiegel Online und den Zuschauern von politischen Talk-Runden vermutlich vor allem durch seinen knallroten Irokesen-Haarschnitt bekannt.
Frank Thelen sieht es offenbar ähnlich: Die Skepsis gegenüber technischen Innovationen ändere nichts daran, dass wir uns der Herausforderung stellen müssten. Es gebe keinen Pausenknopf. Selbst wenn Europa sich der Entwicklung verweigern würde, würde die Technologie eben über China und die USA ihren Weg zu uns finden. Aus diesem Grund müssten sich Ingenieure, Politiker und Philosophen zusammensetzen, um gemeinsam die richtigen Wege zu finden.16
Teilweise beherrschen technische Neuerungen bereits den gesellschaftlichen Diskurs. Dank Whistleblower Edward Snowden war das Thema massenhafter Datensammlung bereits einmal 2013 in aller Munde, jedoch ein paar Jahre später schon fast wieder in Vergessenheit geraten. Durch Facebooks Datenskandal im Zusammenhang mit Cambridge Analytica entflammte die Debatte fünf Jahre später erneut. Inzwischen ist man auch hierzulande für das Thema sensibilisiert, wozu auch die Aktualisierung der europäischen Datenschutz-Grundverordnung (DSGVO) im Jahr 2018 ihren Teil beigetragen haben dürfte.
Edward Joseph Snowden (*1983) ist ein ehemaliger CIA-Mitarbeiter. Bekannt wurde er als Whisteblower, der die Abhör- und Spionagetätigkeiten von diversen Geheimdiensten öffentlich machte. Seine Enthüllungen gipfelten im sogenannten NSA-Skandal. Dabei wurde bekannt, dass die USA und Großbritannien massenweise Daten aus Telefonaten und digitalen Kommunikationen auf Vorrat speicherten, ohne überhaupt konkrete Verdachtsfälle zu haben. Auch der BND soll mit der NSA kooperiert haben.17
Die Existenz von Big Data – so das prominent gewordene Schlagwort für riesige, komplexe Datenmengen – ist zur Binsenweisheit geworden. An der weiteren Ausbreitung in Politik und Wirtschaft ändert dies jedoch nichts. Im Gegenteil: Dass die gezielte Sammlung von Daten zwar ab und an für einen kurzen Aufschrei sorgt, anschließend jedoch verhältnismäßig resignierend akzeptiert wird, öffnet jenen, die Daten im großen Stil sammeln möchten, Tür und Tor. Anders formuliert: Das Thema ist der Gesellschaft in der Theorie zwar durchaus bekannt, doch unternommen wird dagegen in der Praxis oftmals erstaunlich wenig. Dabei sind die Zahlen durchaus alarmierend: Studien zufolge verdoppelt sich die Menge der weltweit erhobenen Daten alle zwei Jahre und steigt damit nicht linear, sondern exponentiell an.18
Dies liegt nicht zuletzt daran, dass das Sammeln von Daten zum Geschäftsmodell vieler digitaler Unternehmen gehört. Tech-Riesen haben ein reges Interesse daran, dass ihre Nutzer möglichst lange in ihrer App oder auf ihrer Website verweilen. Netflix beispielsweise beschäftigt zu diesem Zweck eine Gruppe von Mathematikern, Psychologen und Informatikern, und auch Facebook-Gründer Mark Zuckerberg verweist gerne darauf hin, dass das soziale Netzwerk ein Zusammenspiel von Technik und Psychologie sei. Das bedeutet: Wenn Sie Inhalte auf Netflix, Spotify, Facebook und Co. konsumieren, liefern Sie den Unternehmen immerwährend Daten, die dafür genutzt werden können, die Inhalte noch besser auf Sie zuzuschneiden und damit noch länger zu fesseln – ein immerwährender Kampf um Ihre Aufmerksamkeit.
Hinzu kommt, dass Dienste und Branchen, die sich mit relativ wenig Aufwand digitalisieren lassen, zur Monopolbildung neigen. Unternehmen, die sich den sogenannten Netzwerkeffekt zunutze machen, treten in eine Art Kreislauf ein, wodurch sich ihr Wachstum quasi von selbst vorantreibt. Dieser Effekt lässt sich aktiv durch die Unternehmen verstärken, wobei Big Data äußerst hilfreich ist: Gute Datensätze und deren Auswertung helfen dabei, neue Kunden zu gewinnen, durch die wiederum die Datensammlung anwächst. Ein größerer Datensatz führt zu noch besseren Erkenntnissen, die noch bessere Strategien zur Folge haben können, um weitere Kunden zu gewinnen.19
Der Netzwerkeffekt ist ein Begriff aus der Volkswirtschaftslehre. Demnach steigt der Nutzen eines Produkts für einen einzelnen Menschen, wenn andere Menschen das gleiche Produkt erwerben. Ein klassisches Beispiel ist das Telefon: Für einen Einzelnen ist ein Telefon logischerweise relativ nutzlos. Doch je mehr Menschen sich ebenfalls ein Telefon kaufen, umso wertvoller wird es, da sein Nutzen steigt.
Ein weiterer Grund für die schier unglaubliche Menge an Daten, die mittlerweile erhoben werden, liegt darin, dass sogenannte Datenströme an Bedeutung gewinnen: Der entscheidende Faktor für Zukunftsprognosen sind nicht etwa einzelne Daten, sondern deren Zusammenhang. Die Information, dass es heute draußen 22 °C warm ist, bringt allein herzlich wenig. Erst der Kontext, dass gestern 20 °C, vorgestern 18 °C und am Tag zuvor 16 °C gemessen wurden, lassen einen Trend für die Zukunft ableiten. Dieselbe Einzelinformation hätte eine gänzlich andere Bedeutung, wenn gestern 24 °C und vorgestern 26 °C gemessen worden wären. Liegen ausreichend viele Daten vor, können auf Basis der Vergangenheit Prognosen für die Zukunft errechnet werden.20
Mit diesem Beispiel haben wir uns bereits der zweiten technischen Neuerung genähert, die in den nächsten Jahren für zahlreiche Umwälzungen im Bereich der Technik und Informatik sorgen wird: künstliche Intelligenz – kurz KI, gerne auch als »AI« bezeichnet, was auf die englische Bezeichnung »artificial intelligence« zurückgeht. Da der Begriff schon seit Jahrzehnten in der Wissenschaft umherschwirrt, die Vorstellung einer menschenähnlichen Maschine anfangs jedoch nahezu absurd anmutete, fanden Fortschritte in diesem Bereich nur schleichend und ohne großes Aufsehen statt. Heutzutage sind allerorten künstliche Intelligenzen am Werk: in der Auflistung von Suchmaschinenergebnissen, in Schachcomputern, bei der Platzierung von Onlinewerbung, der Anordnung von Facebook-Timelines, der Ermittlung der kürzesten Route bei Google Maps und den Vorschlägen für interessante Filme bei Netflix. Nicht ohne Grund gab Google 2016 sein Credo »Mobile first«, das sich auf die Fokussierung auf mobile Dienste bezog, auf, um es in »AI first« zu ändern.21 In ähnlicher Weise äußerte sich auch Satya Nadella, der Chef von Microsoft, der im selben Jahr verkündete: »Künstliche Intelligenz ist der Kern von allem, was wir tun.«22
So richtig spannend wird es, wenn beide Felder aufeinandertreffen, wenn also riesige Datensammlungen von komplexen, sich selbst weiterentwickelnden Algorithmen verarbeitet werden.
Ein Algorithmus ist als eine Handlungsvorschrift zur Lösung eines Problems definiert. Er besteht aus klar bestimmten Einzelschritten, ist endlich und liefert unter denselben Bedingungen immer dasselbe Ergebnis. Es gibt noch ein paar mehr Eigenschaften, aber diese drei sollen uns zunächst genügen. Die Funktionsweise von Algorithmen lässt sich an der Multiplikation veranschaulichen, die sich in Additionsaufgaben aufspalten lässt, wie etwa die Aufgabe 4 × 3, die in die Einzelschritte 3 + 3 + 3 + 3 aufgelöst werden kann.
In Wahrheit ist ein Algorithmus allerdings komplizierter. So funktioniert dieses Beispiel nur für natürliche Zahlen und würde bei Zahlen im Minusbereich schon Schwierigkeiten bereiten.
Genau genommen müsste man zudem auch die Addition genauer aufschlüsseln: Wenn man einem Rechner die Multiplikation erklären muss, wieso sollte er dann die Addition ohne weitere Anweisung verstehen?
Die Unternehmerin, Juristin und Autorin Yvonne Hofstetter schreibt in ihrem Buch Sie wissen alles treffend, dass Big Data das Rezept ist, das mit den Zutaten Mathematik, Algorithmen und KI auf Supercomputern zubereitet wird.23 Andere nennen Daten das Benzin für den Motor der künstlichen Intelligenz. Wie man es auch formulieren mag: Fest steht, dass Big Data und KI zumeist Hand in Hand gehen. Die größten Umwälzungen finden dabei vermutlich im Militär, in der Medizin und im Verkehrswesen statt: Eigenständig agierende Drohnen, die feindliche Ziele bombardieren oder Pakete ausliefern; Computer, die Röntgenaufnahmen verlässlicher lesen und interpretieren als jeder noch so erfahrene Arzt; selbstfahrende Autos, die nicht nur Taxis, sondern auch Privatautos und Lastwagen ersetzen – hier kommen täglich neue Revolutionen auf uns zu. Auch das große Geld wird vermutlich am ehesten in diesen Bereichen verdient.
Auch wenn das Hauptaugenmerk der Ingenieure, Programmierer und Forscher nicht der Kultur- und Entertainmentbranche gilt, so wird doch immer wieder ein Fitzelchen Technik abfallen, das für die Welt der Buchstaben und Noten, der Plots und Figuren von Bedeutung sein wird. Mit anderen Worten: Technische und industrielle Revolutionen sind häufig auch Medienrevolutionen. Die Erfindung des Buchdrucks gilt hier natürlich als Paradebeispiel, doch auch die Schreibmaschine, der Fernseher, der Computer, der Drucker und natürlich das Internet haben die Medienwelt maßgeblich verändert. Und so, wie uns schon bald eine technische Revolution nach der anderen bevorsteht, erwartet uns auch still und leise eine weitere Medienrevolution.
Als Nebeneffekt technischer Neuerungen in gänzlich anderen Bereichen wird sich die Arbeit von Verlagen, Galerien, Hollywoodstudios und Plattenfirmen, von Musikern, Malern, Filmproduzenten und Autoren wandeln. Doch nicht nur aufseiten der Produzenten, auch für die Konsumenten sind Konsequenzen und neue Bedingungen zu erwarten. Wie sie aussehen werden, kann allein die Zeit zeigen. Doch es gibt schon jetzt zahlreiche Indizien dafür, wie die Kulturwelt in fünf, zehn, zwanzig oder fünfzig Jahren aussehen könnte.
Der Philosoph Hubert Dreyfus sagte einst voraus, ein Computer werde niemals in der Lage sein, Menschen beim Schach zu schlagen, niemals das Intelligenzniveau eines Menschen erreichen und niemals ein überzeugendes Buch verfassen.24 Die erste Behauptung wurde bereits 1996 widerlegt, als der Supercomputer Deep Blue den damaligen Schachweltmeister Garri Kasparow besiegte.25 Die zweite wird in der Fachwelt aktuell heiß diskutiert. Die dritte steht derzeit noch im Schatten der zweiten, wird aber in naher Zukunft ebenfalls an Relevanz gewinnen. Einen ersten Schritt zu einem besseren Verständnis stellt dieses Buch dar. Es geht darum, die möglichen Entwicklungslinien herauszuarbeiten und über die Folgen und deren Bedeutsamkeit zu informieren. Eines ist jedoch gewiss: Die Entertainment- und Kulturbranche wird schon bald eine andere sein.
Es ist nur allzu menschlich, angesichts von Neuerungen, die massive Umwälzungen unseres Alltags zur Folge haben werden, eine gewisse Abwehrhaltung einzunehmen. Schon immer haben derlei Entwicklungen Teile der Menschheit auf die Barrikaden gebracht. Allein die Entstehung der Schrift kam nicht ohne Gegenstimmen aus. Eines der prominentesten Beispiele ist wohl der antike Philosoph Platon, der ein fiktives Gespräch zwischen seinem Lehrer Sokrates und dessen Freund Phaidros wiedergibt, wobei Sokrates sich recht deutlich gegen die Schrift ausspricht.
Platon (*428/427 v. Chr. – †348/347 v. Chr.) war ein griechischer Philosoph und Schüler von Sokrates (*469 v. Chr. – †399 v. Chr.), einem weiteren griechischen Philosophen. Sokrates ist einer der Urväter der Philosophie und prägte das abendländische Denken nachhaltig.
Sokrates zufolge war die Schrift gegenüber dem Mündlichen stets defizitär. Klarheit und Vollständigkeit könne nur die gesprochene Sprache für sich beanspruchen. Maximal könne die Schrift als Gedächtnisstütze dienen. Während Sokrates seine Ausführungen tatsächlich niemals zu verschriftlichen vermochte, hat Platon diesen Dialog ironischerweise aufgeschrieben.
Ähnliche Beispiele finden sich auch für andere technische und kulturelle Revolutionen. Es gab skeptische Stimmen zur Entwicklung des Radios, des Fernsehers, des Computers oder des Internets. Selbst der mechanische Webstuhl war seinerzeit umstritten.26 Dabei wäre es zu kurz gegriffen und vor allem viel zu undifferenziert, den technischen Fortschritt als gänzlich gut oder gänzlich böse zu bezeichnen. Manche Einwände mögen berechtigt sein, andere zeugen lediglich von der Angst vor dem Unbekannten oder bringen Argumentationslinien mit sich, deren genaue Beurteilung letztlich unmöglich erscheint. So äußerten Kritiker beispielsweise die Vermutung, dass die Erfindung des Computers dazu geführt habe, dass sich der literarische Stil der Autoren verschlechtert hat. Die Argumentation: Wer die getippten Worte theoretisch direkt wieder löschen kann, macht sich weniger Gedanken über seine genauen Formulierungen – ganz anders als ein Autor, der Worte nahezu unwiderruflich auf Papier bannt. Der bekannte Literaturkritiker Marcel Reich-Ranicki hielt dem entgegen, dass genau dieser Umstand zu einer Verbesserung des Stils beigetragen habe: Während ein Autor eine schlecht formulierte Passage früher einfach stehenließ, um sie nicht erneut abschreiben zu müssen, könne er nun problemlos zahlreiche Korrekturen vornehmen.
Ähnlich widersprüchlich betrachtete auch Stephen Hawking die aufkommenden neuen Trends der Technologiebranche: Künstliche Intelligenz könne das Beste oder das Schlechteste sein, was der Menschheit je zugestoßen sei.27
Stephen Hawking (*1942 – †2018) war ein britischer Physiker. Mehrere populärwissenschaftliche Veröffentlichungen, in denen er komplexe Sachverhalte in für Laien verständlicher Sprache darlegte, sowie diverse Medienauftritte machten ihn zu einem der bekanntesten Physiker der Welt.
Wie auch immer man technische Neuerungen und ihre Folgen beurteilen mag – eine Debatte darüber scheint in jedem Fall sinnvoll und erhellend. Selbst wenn sie mitunter bedrohlich anmuten, sollten wir nicht die Augen vor ihnen verschließen, sondern uns möglichst offen damit auseinandersetzen. Das gilt für die Erfindung der Schrift ebenso wie für Big Data und künstliche Intelligenz. Sie wollen doch nicht so enden wie Sokrates, oder?
»Die Gedanken sind frei.«
–Walther von der Vogelweide
Immer bessere, schnellere Rechner in Kombination mit riesigen, umfassenden Datenmengen erlauben uns in Zukunft, Kulturprodukte haarklein auf den Konsumenten zuzuschneiden. Bestseller, Chart-Hits und Hollywood-Blockbuster könnten auf diese Weise am Reißbrett konstruiert und am Fließband produziert werden.
Täglich werden weltweit rund 2,5 Milliarden Gigabyte an Daten erfasst, ohne dass sich jemand großartig daran stört.28 Allein ein handelsübliches Smartphone kann mittlerweile nicht nur telefonieren, Fotos machen und ins Internet gehen. Es kann auch die Temperatur und den Luftdruck messen, seine genaue Lage per GPS ermitteln, seine Neigung oder die Erschütterung durch einzelne Schritte erkennen.29 Offensichtlich hat hier ein Gewöhnungsprozess stattgefunden: Wir empfinden Datensammlungen mittlerweile als normal. Oftmals wird Big Data sogar als Heilsbringer dargestellt, schließlich führt die immerwährende Vermessung am Ende zur Rationalisierung und damit zur Optimierung. Und optimiert bedeutet immer auch besser – oder?
Auch weniger optimistisch gestimmte Personen, die Snowden und die NSA durchaus noch im Hinterkopf hatten, sahen Datensammlungen mit der Zeit nur noch als notwendiges Übel an, das stillschweigend hingenommen werden muss – bis Cambridge Analytica kam. Das US-amerikanische Datenanalyse-Unternehmen behauptete, auf Grundlage von Facebook-Daten die Präsidentschaftswahlen von 2016 maßgeblich beeinflusst zu haben. Kritiker sind bis heute skeptisch und vermuten, dass Cambridge Analytica seinen Einfluss massiv überschätzt hat, vermutlich aus Werbegründen. Dennoch reichte der Vorfall aus, um Facebook und dessen CEO Mark Zuckerberg in einen handfesten Skandal zu verwickeln, der unter anderem eine fünfstündige Anhörung im Senat nach sich zog.30 Auch wenn es in diesem Fall letztlich wieder um politische Ziele ging, rückte vor allem das Wirtschaftsunternehmen Facebook in den Vordergrund der gesellschaftlichen Debatte. Datensammlungen wurden nicht mehr nur vor dem Hintergrund politischer, sondern auch privatwirtschaftlicher Interessen debattiert.
Obwohl Vorfälle dieser Art erst im letzten Jahrzehnt das Bewusstsein der Massengesellschaft erreicht haben, so sind Datensammlungen bei Weitem kein neues Phänomen. Den Anfang machten staatliche Institutionen, die die neuen Techniken vor allem im Bereich des Militärs und der Raumfahrt entwickelten und einsetzten. Etwas später zog die Wirtschaft nach und begann damit, Big Data zu nutzen, um Kunden besser zu verstehen, in der Folge Produkte und Marketingstrategien anzupassen und so die Gewinne zu maximieren.31 So tat es auch Netflix seinerzeit. Der Streaming-Dienst startete ursprünglich als Filmverleih und optimierte sein Angebot, indem er verzeichnete, welche Streifen sich ein bestimmter Kunde in der Vergangenheit ausgeliehen hatte, um ihm passende Vorschläge für die Zukunft zu machen. Eine Praxis, die sich bewährte. Mit der zunehmenden Digitalisierung wurde der Prozess auf den späteren Streaming-Dienst übertragen.
Geht man leichtfüßig an dieses Thema heran, so könnte man sich schnell fragen, inwiefern es problematisch sei, dass die Werbung auf Facebook und die Filmempfehlungen auf Netflix an den persönlichen Geschmack angepasst sind. Klingt das nicht nach einem Vorteil? Yvonne Hofstetter warnt in ihrem Buch Sie wissen alles eindringlich vor dieser Sichtweise. Je mehr Daten über einen Menschen gesammelt werden, umso zuverlässiger lässt sich sein Verhalten voraussagen. Im harmloseren Fall erhält dieser Mensch maßgeschneiderte Werbeanzeigen und Medieninhalte. Im schlimmsten Fall wird er rund um die Uhr kontrolliert und parallel dazu finanziell ausgepresst.32
Im Jahr 1976 sorgte der Wissenschaftler Richard Dawkins mit seinem neuen Werk für Aufsehen: In Das egoistische Gen zeichnete er ein Modell der Evolution, das es so noch nicht gegeben hatte. Dawkins ernannte es zu einem seiner Prinzipien, mitunter komplizierte Sachverhalte einfach und verständlich zu erklären, sodass sie auch einem Laienpublikum zugänglich sind. Diesem Umstand ist es möglicherweise geschuldet, dass er ein Gedankenexperiment vorschlug, das unser Verständnis der Evolution deutlich vereinfachen sollte. Er schlug vor, man solle sich Gene als Egoisten vorstellen, die alles dafür tun, sich in dieser Welt durchzusetzen und zu verbreiten. Grundsätzlich ist es natürlich ausgemachter Unsinn, Genen einen eigenen Willen zu unterstellen, doch diese Vorstellung verdeutlicht einige Sachverhalte. Leider übersahen viele Kritikern, dass es sich eben nur um ein Gedankenexperiment handelt, und daher musste der Autor viel Gegenwind einstecken.
Das egoistische Gen ist noch aus einem zweiten Grund bekannt: Der Autor schlägt darin eine Analogie zwischen Natur und Kultur vor. Denn ganz ähnlich wie Gene, so der Forscher, könnten sich auch kulturelle Einheiten verhalten. So wie Gene darum kämpfen, sich immer wieder fortzupflanzen, kämpfen Geschichten oder Lieder um unsere Aufmerksamkeit, um so von Gehirn zu Gehirn, Festplatte zu Festplatte oder Papier zu Papier zu gelangen und sich auf diese Weise gewissermaßen zu reproduzieren. Als Begriff wählte Dawkins damals das Wort »Mem« – analog zum »Gen«.
Die daraus hervorgegangene Memetik ist lediglich ein Modell, um die Welt der Kultur besser verstehen zu können, und bei Weitem keine ausgereifte, wissenschaftliche Theorie. Ihrer Popularität tut das jedoch keinen Abbruch. Mit der Zeit entwickelte sich ein Nebenzweig der Memetik, das »Memetic Engineering«, welches die zugrunde liegende Logik auf den Kopf stellt und genau andersherum fragt: Wenn wir davon ausgehen, dass sich kulturelle Erzeugnisse möglichst weit verbreiten wollen, müsste es doch möglich sein, dafür entscheidende Faktoren ausfindig zu machen. Schließlich konnten Evolutionsbiologen schlussfolgern, dass scharfe Zähne, muskulöse Beine oder Flügel gewissen Tieren einen Vorteil gegenüber ihren Konkurrenten verschafft haben. Sollte dies nicht auch bei Büchern, Liedern und Co. möglich sein, die den Kampf um die menschliche Aufmerksamkeit gegen Millionen andere Bücher und Lieder gewonnen haben? Und müsste es im Anschluss daran nicht möglich sein, kulturelle Werke von Beginn an mit diesen erfolgversprechenden Eigenschaften auszustatten?
Auch wenn aktuelle Veröffentlichungen sich kaum noch direkt auf Dawkins’ Überlegungen beziehen, wird in vielen Bereichen Memetic Engineering betrieben. Fernab von der Memetik versuchen Menschen immer wieder, besonders populäre Muster und Motive zu finden, die dabei helfen, dass etwa ein Buch sich verbreitet. Das Memetic Engineering erlebt derzeit gewissermaßen seinen zweiten Frühling – Big Data sei Dank.
Das Beispiel von Netflix dürfte Ihnen bereits einen ersten Eindruck davon vermittelt haben, in welchem Ausmaß Unternehmen, die an der Schnittstelle zwischen Digitalisierung und Kultur agieren, Datensätze dazu verwenden, ihre Inhalte auf ihre Konsumenten zuzuschneiden. Zahlreiche Algorithmen erfassen, welche Filme und Serien am liebsten geschaut werden, welches Streaming-Angebot bei welcher Minute abgebrochen wird, zu welcher Uhrzeit die meisten Leute streamen, in welcher Sekunde jemand Pause drückt oder noch mal 30 Sekunden zurückspringt, weil die letzte Szene vielleicht zu komplex war.
Informationen über das Sehverhalten seiner Kunden nutzt Netflix unter anderem, um die Startseite für jeden einzelnen Nutzer individuell zu gestalten: Wer in der Vergangenheit besonders viele Kriegsdokus angeschaut hat, wird weitere davon vorgeschlagen bekommen – im Gegensatz zu jemandem, der vor allem romantische Komödien bevorzugt hat. Dabei muss aber weiter differenziert werden: Steht bei den romantischen Komödien eher eine Frau oder ein Mann im Fokus? Spielt die Handlung in London oder in Paris? Und ist überhaupt ein Happyend gewünscht?
