Erhalten Sie Zugang zu diesem und mehr als 300000 Büchern ab EUR 5,99 monatlich.
Model Collapse Die generative KI schmeißt den Turbo an. Sie ist nicht Ursache, sondern Brandbeschleunigerin für Prozesse, die seit Jahrzehnten laufen. Digitalpolitik ist Globalpolitik: Herrschaft über das Digitale bedeutet Kontrolle über Macht, Mittel und Meinung. Für Kunst und Kultur hat all das erhebliche Konsequenzen. Matthias Hornschuh zeigt die volkswirtschaftliche und existenzielle Bedeutung geistigen Schaffens auf, die in der schöpferischen Tätigkeit menschlicher Wissensarbeit gründet. Wollen wir digitaler Technologie den zentralen Platz in unserer gesellschaftlichen Kommunikation einräumen, die ohne menschlichen Geist gar nicht zu funktionieren vermag? Der Einschüchterung, ja Angst, die eine auf schnell erfassbare Oberflächenreize optimierte, hochkomplexe Welt hervorruft, setzt Hornschuh eine grundlegende Orientierung entgegen: Ideelle Wertschöpfung ist kein Luxus. Wir können und dürfen es uns nicht leisten, sie wie nebenbei aufzugeben, wenn wir uns nicht selbst aufgeben wollen. Der Autor: Matthias Hornschuh; Studium der Musik und Musikwissenschaft; Komponist für Film, Hörspiele und akustische Kunst in Köln; unterrichtet an verschiedenen Hochschulen in Deutschland und im europäischen Ausland; engagiert sich in branchen- und kulturpolitischen Funktionen für Kunst, Kultur, Medien und Demokratie.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 87
Veröffentlichungsjahr: 2025
Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:
Matthias Hornschuh
KI, Kultur und die Entwertung der Wissensarbeit
2025
Mitglieder des wissenschaftlichen Beirats des Carl-Auer Verlags:
Prof. Dr. Dr. h. c. Rolf Arnold (Kaiserslautern)
Prof. Dr. Kersten Reich (Köln)
Prof. Dr. Dirk Baecker (Dresden)
Dr. Rüdiger Retzlaff (Heidelberg)
Sebastian Baumann (Mannheim)
Prof. Dr. Wolf Ritscher (Esslingen)
Dr. Michael Bohne (Hannover)
Dr. Dirk Rohr (Köln)
Prof. Dr. Ulrich Clement (Heidelberg)
Dr. Wilhelm Rotthaus (Bergheim bei Köln)
Dr. Carmen Beilfuß (Magdeburg)
Prof. Dr. Arist von Schlippe (Witten/Herdecke)
Prof. Dr. Jörg Fengler (Köln)
Dr. Gunther Schmidt (Heidelberg)
Torsten Groth (Münster)
Prof. Dr. Siegfried J. Schmidt † (Münster)
Reinert Hanswille (Essen)
Jakob R. Schneider (München)
Dr. Barbara Heitger (Wien)
Prof. Dr. Jochen Schweitzer † (Heidelberg)
Prof. Dr. Johannes Herwig-Lempp (Merseburg)
Prof. Dr. Fritz B. Simon (Berlin)
Prof. Dr. Bruno Hildenbrand (Jena)
Dr. Therese Steiner (Embrach)
Prof. Dr. Karl L. Holtz (Heidelberg)
Prof. Dr. Dr. Helm Stierlin † (Heidelberg)
Prof. Dr. Heiko Kleve (Witten/Herdecke)
Karsten Trebesch (Dallgow-Döberitz)
Dr. Roswita Königswieser (Wien)
Bernhard Trenkle (Rottweil)
Prof. Dr. Jürgen Kriz (Osnabrück)
Prof. Dr. Sigrid Tschöpe-Scheffler (Köln)
Prof. Dr. Friedebert Kröger (Heidelberg)
Prof. Dr. Reinhard Voß (Koblenz)
Tom Levold (Köln)
Dr. Gunthard Weber (Wiesloch)
Dr. Dr. Kurt Ludewig (Münster)
András Wienands (Berlin)
Dr. Stella Nkenke (Wien)
Prof. Dr. Rudolf Wimmer (Wien)
Rainer Orban (Osnabrück)
Prof. Dr. Michael Wirsching (Freiburg)
Dr. Burkhard Peter (München)
Prof. Dr. Jan V. Wirth (Meerbusch)
Prof. Dr. Bernhard Pörksen (Tübingen)
Reihe »update gesellschaft«
hrsg. von Matthias Eckoldt
Umschlagentwurf: B. Charlotte Ulrich
Redaktion: Alexander Eckerlin
Layout und Satz: Melanie Szeifert
Printed in Germany
Druck und Bindung: CPI books GmbH, Leck
Erste Auflage, 2025
ISBN 978-3-8497-0613-5 (Printversion)
ISBN 978-3-8497-8559-8 (ePub)
© 2025 Carl-Auer-Systeme Verlag und Verlagsbuchhandlung GmbH, Heidelberg Alle Rechte vorbehalten
Bibliografische Information der Deutschen Nationalbibliothek:
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Informationen zu unserem gesamten Programm, unseren Autoren und zum Verlag finden Sie unter: https://www.carl-auer.de/.
Dort können Sie auch unseren Newsletter abonnieren.
Carl-Auer Verlag GmbH
Vangerowstraße 14 · 69115 Heidelberg
Tel. +49 6221 6438-0 · Fax +49 6221 6438-22
AI Inside?
Produktion und Projektion
Die Grenzen unserer Welt
Einigkeit in Vielfalt
Dafür leben
Davon leben
Sch(r)öpfungshöhe
Unabhängigkeit und Unterwerfung
Das KI-Evangelium
Rechenkraft ohne Rechenschaft
Digitalpolitik ist Machtpolitik
Fortschritt ohne Kontrolle
Digitale Souveränität
Dank
Anmerkungen
Quellenangaben
Who need's the cow, when the milk is free?
Margaret Atwood
Vorbemerkungen: Wenn in diesem Buch von KI die Rede ist, dann ist, soweit nicht anders vermerkt, generative KI gemeint. Wenn in diesem Text gelegentlich nicht gegendert wird, dann nur da, wo überindividuelle Funktions- oder Professionsbeschreibungen im Vordergrund stehen.
–
Dies ist kein Buch über KI, sondern eines über Menschen und Gesellschaften und die Kultur, die sie verbindet.
Einerseits.
Andererseits kommen die unsere Kultur prägenden Heldenerzählungen nicht ohne mächtigen Gegner aus, der in aller Regel der Motor des Geschehens ist. Dieser Gegner ist hier die KI.
Einerseits.
Andererseits wäre das ganz schöner Unsinn, wäre es denn ernst gemeint. Es gibt wahrhaftig Grund zur Sorge, speziell aus Sicht von Kultur, Medien und Bildung, aber auch aus weiteren Perspektiven, die dieser Text aufzeigen wird. Diese Sorge muss sich jedoch auf den Umgang mit der Technologie beziehen, und nicht auf die Technologie an sich.
Dies ist also ein Buch mit KI, wenn es auch gänzlich ohne Einsatz einer solchen entstanden ist. Stellen Sie sich einen Human-made-Sticker auf dem Cover vor. Den dürften wir in den nächsten Jahren häufiger zu sehen bekommen, ebenso wie AI-generated-Kennzeichnungen.
Mit oder ohne KI: Der Unterschied kann Leben retten. Und Karrieren.
Das Magazin nature berichtete im Mai 2025 von einem dramatischen Qualitätsverfall biomedizinischer Forschungsveröffentlichungen. Die Scientific Papers des Fachbereichs enthalten und verbreiten in zunehmendem Maße teilweise grob falsche Aussagen zu medizinischen Fragen, die einer wachsenden Anzahl KI-generierter Veröffentlichungen entstammen und die ihrerseits umgehend in die Trainingskorpora der großen KI-Modelle einfließen. Dort einmal angekommen, lassen sie sich nicht wieder bereinigen: AI can't unlearn. Die als solche erkannten Fehler werden so Teil des vermeintlich in den KI-Produkten repräsentierten Fachwissens. Und der medizinischen Forschung.
Eine ganze Reihe von Studien belegt, dass zur Jahresmitte 2025 gerade die großen, mutmaßlich besonders leistungsfähigen KI-Modelle besonders stark zu dem neigen, was als »Halluzination« oder gelegentlich auch als »Konfabulation« beschrieben wird.
Das alles bedeutet nicht, dass KI-Anwendungen prinzipiell abzulehnen wären. Es bedeutet, dass stets die Frage zu beantworten ist, wer welche KI zu welchem Zweck einsetzt und wo Kontrolle und Verantwortung liegen. Zweifellos kann KI manches unterstützen, doch in vielen Bereichen kann die Technologie den Menschen nicht ersetzen.
Zu einer ähnlichen Erkenntnis dürfte der US-Journalist gekommen sein, der der Chicago Sun-Times einen gut lesbaren Text für die Wochenendbeilage schickte, welcher dort prominent veröffentlicht wurde: Eine Summer Reading List, 15 Lesetipps für den Sommer, einschließlich kurzer Besprechungen der Inhalte. Zehn der 15 Bücher gab es allerdings gar nicht; ein Chatbot hatte sie erfunden und real existierenden Autor:innen angedichtet. Das kann man ihm kaum vorwerfen: Large Language Models (LLMs) kennen die Welt nicht, sie generieren Texte, die den formalen Vorgaben ihrer Auftraggeber:innen entsprechen und sich so lesen, als seien sie sinnbehaftet. Tatsächlich sind sie das nicht: Die KI berechnet die Zeichenfolgen, die uns wie Wörter oder Sätze erscheinen, auf Basis der im trainierten Modell ermittelten Wahrscheinlichkeit der Abfolge einzelner Zeichen. Der Prompter (das ist derjenige, der die Textbefehle für die Steuerung einer KI formuliert) übernahm die Verantwortung: Aufgrund akuten Zeitmangels habe er seine KI einen Text verfassen lassen und den abgeschickt. Ohne ihn zu prüfen … Die entscheidenden Fehler machen die Menschen, wobei in diesem Fall die schlimmstmögliche Folge mutmaßlich in der Frustration einiger Leser:innen gelegen haben mag, die den angepriesenen neuen Isabel-Allende-Roman partout nicht im Handel auftreiben konnten.
Von dem KI-generierten Kochbuch für Pilzsammler haben Sie vermutlich gehört? Ob es Tote oder Verletzte gab, ist nicht überliefert. Immerhin hat irgendjemand sich erbarmt und das Buch aus dem Verkauf genommen. Wobei die Antwort auf die Frage, wer eigentlich im Falle gesundheitlicher Konsequenzen für was gehaftet hätte, spannend ist. Es steht zu befürchten, dass wir sie früher oder später aus gegebenem Anlass erfahren werden.
Ganz konkreter Schaden entsteht, wenn wieder einmal ein Anwalt seiner KI die Vorbereitung einer Klage- oder Verteidigungsschrift überlässt und diese Gott weiß was in plausibler, weil auf Durchschnittsbasis berechneter Juristensprache darlegt. Sowas endet immer wieder mal böse für die Jurist:innen. Den eigentlichen Preis zahlen allerdings natürlich die Prozessbeteiligten, bei denen es durchaus um Existenzielles gehen kann.
Hätten die KI-Anwender:innen in Medizin, Journalismus, Self Publishing und Recht sich mit der Technologie hinter den derzeit gängigen generativen KI-Angeboten befasst, wären sie möglicherweise etwas vorsichtiger gewesen: Die Systeme sind nicht auf faktenbasierte Fehlerfreiheit angelegt, sondern darauf, unter allen Umständen eine Antwort zu geben und mit dieser möglichst zu gefallen, was nebenbei bemerkt ihre Verwendung als Suchmaschinenersatz geradezu fahrlässig erscheinen lässt – und das umso mehr mit einem Blick auf den wahnwitzigen Energieverbrauch. Um keine Plagiate der zum Training herangezogenen Inhalte zu produzieren und um eine gewisse Originalität der Erzeugnisse zu gewährleisten, sind ausnahmslos alle generativen KI-Systeme auf der Compute-Ebene mit Randomisierungsalgorithmen versehen, also mit Zufallsgeneratoren. Was wir »Halluzination« nennen, ist im technologischen Sinne keine Fehlfunktion, sondern nötig: It's not a bug, it's a feature.
Dass wir es »Halluzination« nennen, ist im Übrigen bemerkenswert, denn Halluzinationen wie auch Konfabulationen sind Eigenschaften menschlichen Verhaltens. So wie Empathie, Kreativität und Intelligenz.
Bleiben wir zunächst bei der Intelligenz. Die Komplikationen beginnen bereits beim Begriff, der vor allem als Marketingtrick dient, denn intelligent ist da einstweilen und bis auf Weiteres gar nichts. Und kreativ, und vor allem darum wird es in diesem Buch ja gehen, auch nicht.
Was wir heute unter dem maximal unscharfen Label Künstliche Intelligenz versammeln, beruht nicht auf einer einzigen Technologie, sondern auf einer Vielzahl davon. Dazu zählen neuronale Netze, Machine Learning, aber auch viel Algorithmik. Wir haben es mit Large Language Models wie OpenAIs ChatGPT zu tun oder mit Diffusion Models, zu denen etwa MidJourney oder Dall-E gehören. Tatsächlich wird mit dem Label AI Inside heute jede Menge Technologie verkauft, die bereits existierte, so aber nicht firmierte, bevor uns ab Ende 2022 die sogenannte »KI-Revolution« überrollte.
Die KI-Modelle, in denen die Ergebnisse des KI-Trainings repräsentiert sind, beruhen auf hoch abstrakten Informationen über Muster, Trends und Korrelationen in sehr großen Datenmengen (Big Data) und den darin ermittelten Wahrscheinlichkeiten. Die Informatik spricht von n-dimensionalen Vektorräumen; bereits die vierte Dimension sprengt unsere Vorstellungskraft. KI-Modelle sind ausdrücklich keine Datenbanken. Die Selbstlernprozesse und die Repräsentation der Ergebnisse finden in einer für uns unzugänglichen Black Box statt; es gibt keine Möglichkeit, auf einzelne konkrete Ergebnisse oder Einträge zuzugreifen. Das ist rechtlich bedeutsam, für das Urheberrecht wie auch den Datenschutz.
Die Bezeichnung als »stochastischer Papagei«, als wahrscheinlichkeitsbasierter Imitator, mit der die Neurolinguistin Emily Bender generative KI-Systeme beschreibt, ist nicht unumstritten. Dem deutschen KI-Forscher Björn Ommer zufolge ist KI heute weiter; sie werde von zentraler Bedeutung sein beim Weg von der Informationsgesellschaft zur »echten Wissensgesellschaft«, die auf der Suche nach Wissen nicht länger in den ungeheuren Informationsmengen zu ertrinken drohe.
Doch Benders Metapher bleibt instruktiv: Eine generative KI denkt sich keine sinnbehaftete Antwort aus, sondern reproduziert anhand stochastischer Verfahren eine möglichst wahrscheinliche Folge von Zeichen aus dem, was ihr mitgegeben ist. Autocorrect auf Steroiden. Die KI kennt, weiß und versteht nichts von dem, was sie sagt.
Primär ist KI ein Verkaufsargument – und zwar ein hochgradig irrationales, denn wie empirische Untersuchungen u. a. vom Branchenverband Bitkom ausweisen, ahnen über 60 % der zuständigen Chefs in deutschen Unternehmen zwar, dass sie ganz dringend KI einsetzen sollten, sie wissen nur absolut nicht, wofür.
Als Marketing-Gimmick bietet »die KI« eine einfache Lösung für alles. Krebs, Klima, Küche, Kunst und Kultur: KI übernimmt. »Techno-Solutionismus« nennt sich das Denkmuster, welches sich dadurch auszeichnet, vermeintlich technologischen oder technologisch bedingten Problemen mit technologischen Lösungen beikommen zu wollen. Nur sind die Probleme in aller Regel menschengemacht, denn Technologie macht tatsächlich ja gar nichts, ohne dass wir sie dazu bringen: Atommüllendlagerung, Klimawandel, Wasserknappheit, gesellschaftliche Polarisierung, gruppenbezogene Menschenfeindlichkeit: technikgetrieben, aber menschengemacht.
