29,99 €
Perfekte Formulierungen beeindrucken und verhallen. Daniel Caroppo zeigt, warum glattgebügelte, KI-optimierte Sprache ihre Wirkung verliert. Sein Buch ist ein Plädoyer für Worte, die gemeint sind – nicht glatt, sondern echt. Zugleich macht es sichtbar, wie künstliche Intelligenz Kommunikation in Pressestellen, Unternehmen, Medien und Politik verändert und welche Chancen und Risiken damit verbunden sind. Kommunikation ist mehr als Technik: Sie braucht Verantwortung, Irritation und Haltung. Mit Beispielen aus Praxis und Forschung, klaren Modellen und pointierten Analysen gibt dieses Buch Orientierung für alle, die im digitalen Wandel kommunizieren und wieder Sprache mit Bedeutung füllen wollen. Inhalte: - Muster statt Meinung – Wenn KI in der Kommunikation mitmischt - Worthülsen statt Wirkung – Wenn KI Sprache glättet - Echte Sprache – Was Worte lebendig macht - Verantwortung in der KI-Kommunikation - Wie KI Rollen und Branchen verändert - Selbstbild, Stil und Haltung - Ethik, Demokratie und Ausblick
Das E-Book können Sie in Legimi-Apps oder einer beliebigen App lesen, die das folgende Format unterstützen:
Seitenzahl: 381
Veröffentlichungsjahr: 2025
Alle Inhalte dieses eBooks sind urheberrechtlich geschützt.
Bitte respektieren Sie die Rechte der Autorinnen und Autoren, indem sie keine ungenehmigten Kopien in Umlauf bringen.
Dafür vielen Dank!
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar.
Print:
ISBN 978-3-648-19574-1
Bestell-Nr. 12279-0001
ePub:
ISBN 978-3-648-19575-8
Bestell-Nr. 12279-0100
ePDF:
ISBN 978-3-648-19576-5
Bestell-Nr. 12279-0150
Daniel Caroppo
Perfekt. Glatt. Wirkungslos
1. Auflage, November 2025
© 2025 Haufe-Lexware GmbH & Co. KG
Munzinger Str. 9, 79111 Freiburg
www.haufe.de | [email protected]
Bildnachweis (Cover): © Umschlag: Stoffers Grafik-Design, Leipzig
Produktmanagement: Mirjam Gabler
Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Alle Rechte, insbesondere die der Vervielfältigung, des auszugsweisen Nachdrucks, der Übersetzung und der Einspeicherung und Verarbeitung in elektronischen Systemen, vorbehalten. Der Verlag behält sich auch eine Nutzung des Werks für Text und Data Mining im Sinne von § 44b UrhG vor. Alle Angaben/Daten nach bestem Wissen, jedoch ohne Gewähr für Vollständigkeit und Richtigkeit.
Sofern diese Publikation ein ergänzendes Online-Angebot beinhaltet, stehen die Inhalte für 12 Monate nach Einstellen bzw. Abverkauf des Buches, mindestens aber für zwei Jahre nach Erscheinen des Buches, online zur Verfügung. Ein Anspruch auf Nutzung darüber hinaus besteht nicht.
Sollte dieses Buch bzw. das Online-Angebot Links auf Webseiten Dritter enthalten, so übernehmen wir für deren Inhalte und die Verfügbarkeit keine Haftung. Wir machen uns diese Inhalte nicht zu eigen und verweisen lediglich auf deren Stand zum Zeitpunkt der Erstveröffentlichung.
Nach einer meiner Vorlesungen kam eine Studentin auf mich zu. Sie wirkte offen, neugierig. Ohne Urteil, nur mit einer Frage: »Und was davon schreiben Sie eigentlich noch selbst?«
Ich sagte etwas. Vielleicht war es aufrichtig, vielleicht auch nur das Naheliegendste. Ich weiß es nicht mehr genau. Aber die Frage ist geblieben. Nicht wegen der Technik, sondern wegen dem, was zwischen den Zeilen mitschwang: Wer spricht da eigentlich, wenn Kommunikation so leicht delegiert werden kann? Was bleibt von meiner Stimme, wenn jeder Satz auch das Ergebnis eines ausgeklügelten Prompts sein könnte?
Ich habe länger darüber nachgedacht, als mir lieb ist. Vielleicht, weil ich gespürt habe, wie viel sich gerade verschiebt – und wie wenig davon sichtbar wird, solange die Texte gut klingen.
Dieses Buch ist kein Projekt, das ich geplant habe. Es ist aus dem Gefühl entstanden, dass da etwas kippt – nicht nur in der Art, wie wir schreiben, sondern in dem, was Sprache für uns bedeutet.
Ich arbeite als Pressesprecher, ich lehre an einer Hochschule. Und in beiden Rollen treffe ich auf Menschen, die ausdrücken wollen, was ihnen wichtig ist – während Algorithmen längst schneller sind, präziser, manchmal sogar überzeugender.
Ich sehe Studierende, die sich nicht sicher sind, ob das noch ihr Gedanke war – oder schon der Vorschlag der Maschine. Eine sagte einmal nach der Vorlesung: »Herr Caroppo, die KI klingt besser als ich. Aber fühle ich dann überhaupt noch, was ich schreibe?«
Ich sehe Lehrende, die zwischen Echtheit und Prüfungsordnung aufgerieben werden.
Und Kolleginnen und Kollegen in der Kommunikation, die perfekt klingende Texte bekommen – aber keinen, in dem sich jemand zeigt.
Es klingt alles gut. Aber nichts bleibt.
Wenn Sprache zu glatt wird, verliert sie Nähe. Dann entsteht Abstand, wo eigentlich Vertrauen wachsen sollte. Nicht weil Klarheit falsch ist, sondern weil etwas verschwindet, wenn alles zu rund ist: Haltung.
Ich schreibe dieses Buch, weil Sprache für mich mehr ist als ein Werkzeug. Sie ist der Ort, an dem man sich zeigen kann. Auch wenn man sich dabei manchmal unsicher fühlt. Auch wenn noch nicht alles fertig ist. Entscheidend ist: dass man da ist.
Ich glaube an Sätze, die nicht sofort funktionieren. An Worte, die nicht gefallen wollen, sondern etwas aushalten. An Sprache, die nicht performt, sondern trägt.
Ich erinnere mich an Momente des Zögerns. Sollte ich den sauberen Text nehmen, den mir das Modell vorgeschlagen hat? Oder den rauen, in dem ich mich selbst erkannte? Oft habe ich mich für die glatte Variante entschieden. Und es später bereut.
Vielleicht ist dieses Buch an manchen Stellen ungeschliffen.
Vielleicht zu direkt.
Aber vielleicht spürt man gerade deshalb: Da schreibt jemand.
Es ist kein Technikratgeber. Keine Abrechnung gegen Künstliche Intelligenz. Kein Versprechen auf Besserung. Es ist ein Versuch, das zu benennen, was still verrutscht. Und ein Plädoyer, wieder genauer hinzuhören. Nicht auf das, was möglich ist, sondern auf das, was gemeint ist.
Ich verteufle keine Tools. Ich erinnere nur an etwas Einfaches: Ein guter Text muss nicht fehlerfrei sein. Aber spürbar. Er muss zeigen, dass da jemand steht. Nicht perfekt. Aber aufrecht.
Manchmal reicht ein einziger Satz.
Nicht schön. Aber wahr.
Wer Verantwortung trägt, steht heute oft zwischen allen Seiten. Zwischen Anforderungen, die sofort kommen – und Antworten, für die Zeit fehlen würde. Vielleicht braucht es in solchen Momenten kein weiteres Tool, sondern nur den Mut, die eigene Stimme zu behalten.
Und die beginnt nicht beim perfekten Text.
Sondern beim ehrlichen Satz.
Denn am Ende zählt nicht nur, wie wir sprechen, sondern wofür.
Wer noch hörbar bleibt, während andere längst automatisch senden, wird nicht immer souverän klingen.
Aber vielleicht spürt man gerade deshalb, dass da jemand ist.
Vielleicht ist Echtheit nichts, das man einstellt, sondern etwas, das man jedes Mal neu entscheidet.
Einige dieser Gedanken teilte ich mit Prof. Dr. Annette Leßmöllmann. Sie hat das Manuskript gelesen – und ein Vorwort geschrieben, das nicht antwortet, sondern weiterfragt.
Und auch Prof. Dr. Ute Schmid hat das Thema begleitet – mit einem analytischen Blick aus der KI-Forschung, der verdeutlicht, worum es technisch und gesellschaftlich wirklich geht.
Vielleicht liegt genau darin der Anfang.
Daniel Caroppo, Juli 2025
Anette Leßmöllmann, Professorin für Wissenschaftskommunikation mit dem Schwerpunkt Linguistik am Karlsruher Institut für Technologie (KIT)
»Und was davon schreiben Sie eigentlich noch selbst?«, lautet die sachliche und ernst gemeinte Frage der Studentin in einem der Seminare von Daniel Caroppo. Ich sitze beim Lesen dieser Zeilen sofort kerzengerade und denke: Den Satz kenne ich. In meinem Seminar »Wissenskulturen« am KIT diskutieren wir – jedes Semester aufs Neue, denn die KI ändert sich, die Studierenden ändern sich auch –, was Schreiben und Wissensarbeit heute bedeutet. »Nutzen Sie KI, Frau Leßmöllmann?« Ja, für Recherchen, natürlich mit Faktencheck. Ja, um mich in die Nutzungswelten meiner Studierenden hineinzudenken. Ja, bei vielem.
Aber beim Schreiben? Nein. Das Schreiben ist meins. Das gehört mir, ist Teil meiner Identität. Ich muss aufpassen, nicht emotional zu werden. Die Studierenden sind leicht betroffen. Es geht offenbar um etwas. Geht es vielleicht um alles?
An diesem Schmerzpunkt setzt Daniel Caroppo an. Schreiben und Text, das sind nicht einfach nur linearisierte Wortfolgen, die man syntaktisch korrekt und eventuell zielgruppengerecht, vielleicht sogar leserfreundlich aneinanderreiht. Schreiben ist Wissensarbeit – wenn ich schreibe, bestemple ich das Geschriebene mit meiner Autorschaft; ich stehe auf irgendeine Art und Weise dafür ein. Die Lesenden nehmen diese Beglaubigung auf und arbeiten innerlich mit ihr: »Könnte stimmen.«, »Könnte nicht stimmen.«, »Glaubt die Autorin das wirklich?« Sie hinterfragen oder hinterfragen nicht, aber auf jeden Fall ist ihre stille Grundannahme, dass es prinzipiell im Bereich des Möglichen ist: Sie meint, was sie sagt. Auch, wenn sie ironisch schreibt. Denn das Gemeinte ist ja häufig viel durchschlagender als das Gesagte.
Das macht die generative KI so machtvoll. Denn sie schreibt diese korrekten Sätze, antwortet auf Fragen, liest vermeintlich Gedanken, weil sie das liefert, was der Leser gerade braucht.
Aber sie kann nicht »meinen, was sie sagt«. Das Gemeinte spielt sich zwar im Kopf des Lesers ab, aber das tangiert die generative KI nicht. Trotzdem oder gerade deswegen schreiben Nutzer – besonders Nutzer in Eile – den KI-Produkten gerne mal Faktizität zu: »Wird schon stimmen, klingt gut, weiter im Text.« Das macht die Wirkmacht der KI aus, und da stellt sich natürlich die Frage: Was kann der Mensch als Schreibender besser?
Menschen können Emotionen in Texte fließen lassen, die sie tatsächlich wahrnehmen oder sich vorstellen können. Menschen können Fakten tatsächlich gecheckt haben. Menschen können Einsichten weitergeben, auch so etwas wie Geistesblitze, die über die Mustererkennung hinausgehen.
Das alles kann die generative KI (noch) nicht. Aber ihr Endprodukt, der Text, sieht trotzdem am Ende dem menschlichen verdammt ähnlich. Sie kann das alles kommunikativ simulieren. Das macht sie so stark.
Daniel Caroppos Buch konjugiert diese Grundproblematik für viele Wissensarbeiter durch, die Texte produzieren. Er denkt sich in zahlreiche, relevante Aspekte ein und liefert Gedankenfutter, Reflexionsimpulse, stellt Fragen: Wieso fasziniert generative KI, wieso ist sie verführerisch? Der angenehme Nutzen, das weiße Blatt beschrieben zu sehen, die Leichtigkeit, die Schnelligkeit, die vermeintliche Effizienz. Er wirft auf sympathische Art Sand in dieses hektische Getriebe und lässt nachdenken: Wie viel Strom verbraucht eigentlich diese ganze Prompterei? Was heißt »ethischer Umgang mit KI«? Wie schlägt sich eigentlich Haltung und Verantwortung im Text nieder? Kurz: Wie gehen wir souverän mit generativer KI um? Das Ziel des Buchs: Empowerment, um nicht im Getriebe unterzugehen.
Möglicherweise wird einiges nach kurzer Zeit von der KI-Entwicklung rechts überholt, das in diesem Buch steht. Jetzt schon wird Vertrauen in Tatsachenaussagen durch KI massiv herausgefordert, generativ erzeugte Bilder beglaubigen vermeintliche Ereignisse, KI-generierte Talking Heads auf TikTok sagen Dinge, die die Personen nie gesagt hätten. Die Wissensarbeit gerät in ein permanentes Schleudertrauma, Berufsfelder wie Journalismus und PR müssen sich neu erfinden, die Beziehung zwischen Produzent und Rezipient wird neu sortiert. Caroppo beschreibt, was das aktuell heißt, und gibt Rüstzeug für die Gegenwart, aber auch für eine Zukunft, die technisch noch einmal ganz anders aussehen wird. Es geht tatsächlich um alles, in der Wissensarbeit. Wohltuend, einen Text zu lesen, den wirklich ein Autor geschrieben hat.
Annette Leßmöllmann, Juli 2025
Während Prof. Dr. Annette Leßmöllmann die Frage nach Autorschaft, Identität und Lehre in Zeiten generativer Sprache aufgreift, richtet Prof. Dr. Ute Schmid den Blick auf das Fundament: Was ist generative KI – und wie verändert sie unser Verständnis von Qualität? Als Wissenschaftlerin, die seit Jahrzehnten in der KI-Forschung lehrt, zeigt sie, dass hinter der Faszination für Sprachmodelle auch eine strukturelle Gefahr liegt: der Verlust von Differenz, Tiefe und menschlichem Maß. Ihr Beitrag liefert keinen Alarmismus, sondern Einordnung. Und genau das brauchen wir, wenn wir über Wirkung, Verantwortung und Sprache sprechen.
Ute Schmid, Professorin für Kognitive Systeme an der Otto-Friedrich-Universität Bamberg und Direktorin des Bamberger Zentrums für Künstliche Intelligenz (BaCAI), mit Forschungsschwerpunkten in erklärbarer KI, neuro-symbolischer KI und KI-Bildung
Wer heute KI sagt, bezieht sich meist auf generative Ansätze, insbesondere auf Anwendungen, die große Sprachmodelle nutzen – allen voran Chatbots wie OpenAIs ChatGPT oder Googles Gemini. Im Gegensatz zu diskriminativen Methoden, beispielsweise tiefen neuronalen Netzen, die Bilder klassifizieren, erzeugen generative Methoden komplexe Ausgaben wie Texte oder Bilder. Diskriminative Methoden werden jeweils für eine spezielle Anwendung eingesetzt. Ein Modell wird mit von Menschen annotierten Daten trainiert, beispielsweise um Hautkrebs zu identifizieren. Große Sprachmodelle werden dagegen aus sehr großen Mengen von Daten – oft mit selbstüberwachtem Lernen – so trainiert, dass sie auf viele Aufgaben anwendbar sind. Man spricht hier auch von »Foundation Models«. Die oft beeindruckende Leistung von generativen Modellen in verschiedenen Bereichen wird als Startpunkt dafür gesehen, dass KI-Systeme entwickelt werden können, die über eine allgemeine, der menschlichen Intelligenz vergleichbare Intelligenz verfügen (Artificial General Intelligence).
Allerdings gibt es auch skeptische Stimmen, die darauf verweisen, dass wesentliche Aspekte menschlicher Intelligenz in KI-Systemen generell nicht umsetzbar sind. Dazu gehören Intentionalität und inneres Erleben. Schriftstellerische Werke entstehen aus innerem Antrieb und basieren auf eigenen Erfahrungen. Was zu Papier gebracht wird, wird immer wieder verworfen und überarbeitet, bis es den eigenen Bewertungsmaßstäben genügt. Als ein Fan dem Musiker Nick Cave einen Songtext geschickt hat, den er ChatGPT im Stil von Nick Cave hat schreiben lassen, antwortete dieser: »Mit allem Respekt, der Song ist Bullshit, eine groteske Imitation dessen, was es ist Mensch zu sein.« (Rolling Stone Magazin, 16.01.2023).
Generative Methoden sind ohne spezielle Kenntnisse von allen nutzbar. Sie werden im Arbeitskontext genutzt, um E-Mails zu beantworten, um Marketing-Kampagnen umzusetzen, für Kundenkommunikation und für einfache Programmieraufgaben. Im Bildungskontext nutzen Lehrkräfte ebenso wie Schülerinnen und Schüler generative KI für Hausaufgaben ebenso wie für Korrekturen. Immer mehr Stimmen werden laut, dass die Nutzung von ChatGPT und Co. zum Verlust wesentlicher Kompetenzen führt. Ähnliche Mahnungen gab es auch, als im 18. Jahrhundert immer mehr Menschen Zugang zu Büchern erhielten und im letzten Jahrhundert bezogen auf das Fernsehen. Für diese Medien gilt, dass das Zusammenspiel der Qualität des Inhalts mit der Rezeptionskompetenz der Rezipientinnen und Rezipienten entscheidend dafür ist, ob Menschen mit Gewinn lesen oder Filme sehen. Gewinnbringender Medienkonsum ist neben dem Hinzugewinn an fachlichem oder allgemeinem Wissen auch die Fähigkeit zur Einnahme verschiedener Perspektiven und der Aufbau von Qualitätskriterien. Wer immer nur Fast Food isst, hat nicht die Möglichkeit, die Qualität des Geschmacks einer frischen Frucht zu erkennen und wertzuschätzen. Wer nie die Möglichkeit erhält, sich mit Literatur auseinanderzusetzen, kann die Qualität eines Gedichts wie »Willkommen und Abschied« nicht von der Qualität eines Reims in einem Werbe-Jingle unterscheiden.
In das Training großer Sprachmodelle wie den GPT-Modellen gingen über das Internet verfügbare Daten, insbesondere Texte, ein. Qualitativ hochwertige Sachtexte und literarische Texte machen hier vermutlich nur einen kleinen Prozentsatz in der Menge aller Texte aus. Die Generierung von Ausgaben wird über Wahrscheinlichkeitsverteilungen gesteuert, entsprechend haben durchschnittliche Formulierungen genau wie häufige Inhalte eine höhere Wahrscheinlichkeit, in einem generierten Text zu erscheinen, als seltene Inhalte, Worte und Formulierungen. Berechnet man aus vielen Bildern von Menschen ein Durchschnittsgesicht, blickt einem ein perfekt symmetrisches, glattes Gesicht ohne jede Individualität entgegen. Dasselbe passiert gerade mit Texten. Gehen die generierten Texte selbst wieder als Trainingsdaten in die Modelle ein, verschiebt sich die Wahrscheinlichkeitsverteilung: Was generiert wird, wird immer uniformer – syntaktisch vielleicht perfekt, aber glatt und stereotyp. Wenn wir zunehmend nur noch solche Texte rezipieren, adaptieren sich unsere Qualitätsstandards und wir verlieren, wie bei Fast Food, den Geschmack für Authentizität.
Ein häufig gebrachtes Argument für die Nutzung von generativer KI ist Effizienzsteigerung. Dies ist in einigen Bereichen sicher der Fall – wenn KI-Systeme bei Verwaltungs- und Dokumentationsaufgaben unterstützen, bringt das die Chance, mehr Zeit für Kernaufgaben zu haben – in der Medizin, in der Pflege, bei der Betreuung von Kindern. Der Fokus auf Effizienz sollte aber nicht mit der Ignoranz von Qualität einhergehen. Generative KI ist eingebettet in ein allgemeines digitales Umfeld, das auf schnelle Befriedigung oberflächlicher Bedürfnisse abzielt. Intrinsische Motivation, Problemlösekompetenzen und das Gespür für Qualität, vielleicht auch für Empathie, gehen verloren. Menschen werden so zu Klick-Konsumentinnen und -Konsumenten degradiert. Um es mit Joseph Roth zu sagen: »Der Mangel an geistigem Lebensgehalt bedingt den Mangel an Humanität.«
Der zunehmende Einsatz generativer KI birgt die Gefahr einer Ablösung von der Realität. Wenn eine mit generativer KI erzeugte E-Mail-Anfrage von einem KI-Agenten mittels generativer KI beantwortet wird oder wenn die Rückmeldung und Bewertung für eine KI-generierte Hausaufgabe von einem KI-System erledigt wird, ist der Mensch komplett außen vor. Aufgaben erledigen wir ja aber nicht um des Erledigens selber willen, sondern für einen bestimmten Zweck. Dieser Zweck und die Bewertung, ob der Zweck erreicht wurde, sollten absichtsvoll von Menschen definiert und bezogen auf von Menschen festgelegte Qualitäts- und Erfolgskriterien hin beurteilt werden.
Als jemand, der seit den 1990er-Jahren im Bereich KI lehrt und forscht, bin ich fest davon überzeugt, dass KI-Methoden uns sinnvoll bei komplexen Entscheidungs- und Problemlöseprozessen unterstützen können. Mit gut gestalteten Schnittstellen und Werkzeugen kann generative KI helfen, Kindern gezielte, individuelle Rückmeldungen zu geben, etwa zur Verbesserung eines Aufsatzes oder bei der grammatisch korrekten Formulierung von Sätzen in einer Fremdsprache. Generative KI kann bei der Entwicklung neuer Materialien oder Medikamente unterstützen. Dazu benötigen wir aber sowohl fachliche als auch Bewertungskompetenzen. Bei beidem besteht aktuell die Gefahr, dass diese verloren gehen. Damit dies nicht geschieht, sind unsere Bildungssysteme gefordert, neue Unterrichtskonzepte zu entwickeln, bei denen Verständnis von Konzepten, Beherrschung von Methoden, Problemlöse- und Transferkompetenz und vor allem ein Gespür für Qualität im Fachlichen aber auch im emotionalen Erleben und im sozialen Miteinander aufgebaut werden kann. All dies findet in der analogen Welt statt. Digitale Werkzeuge können hier sinnvoll unterstützen, dürfen aber nie die Steuerfunktion übernehmen.
Daniel Caroppos Buch ist ein Plädoyer dafür, dass die unreflektierte Nutzung von generativer KI nicht dazu führt, dass wir unser Gespür für die Qualität von Sprache und für Echtheit verlieren. Dieses Gespür ist meiner Meinung nach entscheidend dafür, dass wir im Umgang mit KI-Systemen nicht die Zauberlehrlinge sind, sondern die Zauberer.
Ute Schmid, Juni 2025
Wie echt kann Sprache noch sein, wenn sie aus Maschinen kommt?
»Die Sprache ist das Haus des Seins. In ihrer Behausung wohnt der Mensch.«
Martin Heidegger, Brief über den Humanismus (1947)
Was passiert, wenn Worte glänzen, aber nichts mehr bedeuten? Wenn jedes Komma sitzt, aber kein Gedanke hängen bleibt? Dieser Teil geht dem auf den Grund, was Künstliche Intelligenz (KI) mit unserer Sprache macht – mit ihrer Textur, ihrem Tonfall, ihrem inneren Zittern. Hier beginnt die Suche nach EchtheitEchtheit – und nach einer Stimme, die nicht weichgespült wird, nur weil ein Algorithmus sie vorschlägt.
Künstliche Intelligenz ist kein Zukunftsthema mehr. Sie ist mitten unter uns – im Alltag, im Job, im Denken. Vor allem in der KommunikationKommunikation, Beschleunigung macht sie Tempo: BeschleunigungTexte entstehen automatisiert, Prozesse beschleunigen sich, Inhalte passen sich Zielgruppen an. Und trotzdem bleibt eine entscheidende Frage: Was ist KI wirklich – und was heißt das für unseren Umgang mit Sprache?
Nicht alles, was automatisiert oder Daten analysiert, ist gleich KI. Der Begriff bezeichnet ein System, das aus Daten lernt, Muster erkennt, Inhalte erstellt oder Entscheidungen trifft. Besonders spannend – und riskant – wird’s bei den SprachmodellSprachmodellen. Sie formulieren Texte. Grundlage dafür ist ein PromptPrompt: eine Eingabe, eine Frage oder ein Impuls. So weit, so funktional.
Was tun SprachmodellSprachmodelle konkret? Sie berechnen, welches Wort mit größter Wahrscheinlichkeit auf ein anderes folgt – gestützt auf unzählige Daten. Da ist kein Gedanke dahinter. Kein Gefühl. Nur ein Rechenweg. Als würde Sprache bloß gescannt, nicht verstanden. Keine Erinnerung, keine Geschichte. Nur das, was statistisch passt. Und das war’s dann auch.
Was heißt das konkret? Eine PressestellePressestelle kann sich heute in Sekunden ein erstes Statement generieren lassen – klar gegliedert, stilistisch sauber. Klingt nach Effizienz, aber es verändert etwas Grundsätzliches: Wenn der Algorithmus schreibt, wird der Mensch zum Editor. Vom Autor zum Abwäger. Von der Stimme zur Bewertung.
Genau hier liegt das Problem: Künstliche Intelligenz kann schreiben – aber sie versteht nicht. Sie erkennt keine Zwischentöne, keine Brüche, keine Absichten hinter einem Satz. Sie kalkuliert Wahrscheinlichkeiten, nicht Wirkung. Und genau deshalb muss klar sein: Wer professionell kommuniziert, muss wissen, wo Technik hilft – und wo sie nichts verloren hat.
KreativitätEin weitverbreiteter Irrtum: KI macht kreativ. Doch das ist ein Trugschluss. Relevanz entsteht nicht durch Vielfalt, sondern durch Haltung, bewusste Entscheidungen und letztlich durch Verantwortung. KI gleicht jemandem, der jedes Rezept auswendig kennt – aber noch nie selbst am Herd stand.
Sie ist kein harmloses Werkzeug. Sie ist ein BeschleunigungBeschleuniger – für Abläufe, Rollenbilder und Denkweisen. Wer mit ihr arbeitet, braucht Urteilsvermögen. Nur dann bleibt erhalten, was gute Kommunikation ausmacht: Klarheit. Kontext. Und vor allem: Charakter.
Praxisbeispiel: Wenn ein Text richtig klingt – aber falsch wirkt
Der Standort wird geschlossen. Der Betriebsrat ist informiert. Die Entscheidung steht – nicht aber die Worte, mit denen sie getragen werden soll. Die Unternehmenskommunikation steht unter Strom. Die Zeit drängt. Alle warten. Und einer sagt: »Lass die KI machen.«
Der Prompt lautet: »Schreibe einen Newsletter an die Mitarbeitenden zur Schließung eines Standorts. Der Ton: sachlich, aber empathisch.«
Variante 1 – KI-generiert (Simulation)
Betreff: Informationen zur Neuausrichtung unseres Unternehmens
Liebe Kolleginnen und Kollegen,
im Zuge strategischer Überlegungen zur nachhaltigen Zukunftsausrichtung unseres Unternehmens haben wir die Entscheidung getroffen, unseren Standort in Stuttgart zum 30. Juni zu schließen.
Diese Entscheidung ist uns nicht leichtgefallen. Wir möchten allen Mitarbeitenden vor Ort für ihr langjähriges Engagement und ihre Loyalität herzlich danken.
Wir arbeiten derzeit intensiv an sozialverträglichen Lösungen und stehen in engem Austausch mit den zuständigen Gremien.
Bei Fragen wenden Sie sich bitte an Ihre Führungskräfte oder das HR-Team.
Mit freundlichen Grüßen
Ihre Geschäftsleitung
Der Text ist korrekt. Fehlerfrei. Freundlich. Und deshalb gefährlich. Weil er das Entscheidende überspringt: den Schmerz, die Enttäuschung, die Wut, übergangen worden zu sein.
Variante 2 – Menschlich geschrieben (Verantwortung)
Betreff: Eine schwere Entscheidung – und ein ehrliches Wort dazu
Liebe Kolleginnen und Kollegen,
es fällt uns schwer, diese Zeilen zu schreiben. Wir haben lange gerungen, intern wie extern, und doch müssen wir heute eine schmerzhafte Nachricht mit Euch teilen: Unser Standort in Stuttgart wird zum 30. Juni geschlossen.
Diese Entscheidung hat viele Ursachen – aber keine davon macht sie leichter. Wir wissen, was dieser Ort für Euch bedeutet: zehn Jahre Arbeit, Freundschaften, Stolz, Identität. Und wir wissen auch, was diese Nachricht auslöst: Wut, Verunsicherung, vielleicht Misstrauen.
Wir möchten nicht beschönigen, sondern Verantwortung zeigen. Die Gespräche mit dem Betriebsrat laufen. Unser Ziel: für jede und jeden von Euch eine Perspektive zu finden, die trägt.
Ihr habt viel geleistet. Dafür danken wir nicht nur mit Worten – sondern mit konkreten Schritten, die wir nun gehen müssen.
In den kommenden Tagen sind wir für Euch da. Nicht mit Phrasen, sondern mit offenen Ohren.
Für das gesamte Team
Max Lindenmann, Vorstandsvorsitzender der Firma xy
Und was lernen wir daraus?
Die KI hat geliefert, was sie kann: formvollendete Sprache. Aber sie kennt keine Mittagspausen-Stille. Kein Zögern. Kein Stolz, der sich nicht mehr lohnt. Keine Kollegin, die mit Tränen im Blick das Büro verlässt.
Die Maschine spricht – aber sie fühlt nicht. Sie tarnt Gleichgültigkeit als Fürsorge und wirkt dadurch gerade dann hohl, wenn es auf Haltung ankommt.
KommunikationKommunikation, als Beziehung ist kein Text. Kommunikation ist Beziehung. Und Beziehung braucht Mut, Timing und vor allem Fingerspitzengefühl. Das kann man nicht prompten.
Wer KI nutzt, muss verstehen: Nicht jeder perfekte Satz ist auch wahr.
Reflexion: Simulation oder Kommunikation?
Stell dir vor, die KI-Version geht morgen raus – mit deinem Namen darunter. Wärst du damit einverstanden?
Wer spricht hier – und wer hört zu?
Was fehlt zwischen den Zeilen?
Welche Rolle spielt Zeit?
Ein Text, der nichts falsch macht, ist oft ein Text, der nichts wagt. Aber manchmal muss Sprache mutig sein.
Merksatz
Ein Text, der nicht wehtun darf, hilft oft auch nicht weiter.
Fallbeispiel: Rosenthal schließt Standort – und plötzlich wird Kommunikation politisch
Im Februar 2025 gab die Arcturus-Gruppe bekannt, die Produktion beim Porzellanhersteller Rosenthal in Speichersdorf einzustellen. Die offizielle Mitteilung des Unternehmens? Nüchtern. Fast steril. Keine Emotion, keine Verantwortung. Nur der Fakt: Der Standort wird geschlossen.
Doch dann meldete sich Bayerns Wirtschaftsminister Hubert Aiwanger zu Wort. Und er tat, was vielen Pressestellen schwerfällt: Er platzierte sich. Politisch, laut, unmissverständlich:
»Leider ist es traurige Realität, dass sich Firmen in Bayern und Deutschland immer seltener Produktionsstandorte leisten können. Es lohnt sich nicht mehr, weil Deutschland zu langsam und zu teuer ist. Das wird am Beispiel Rosenthal einmal mehr deutlich.«
Unabhängig davon, wie man politisch zu ihm steht: Aiwanger sagte nicht nur etwas, sondern er inszenierte Bedeutung, nutzte den Moment – und füllte die kommunikative Lücke, die das Unternehmen offengelassen hatte.
Die Lehre? KommunikationKommunikation, Wirkung wirkt nicht durch Korrektheit, sondern durch Kontext, durch Tonfall und durch Timing. Während das Unternehmen noch an seiner Formulierung feilte, war Aiwanger längst viral, weil er Haltung zeigte. Oder zumindest: den Eindruck davon.
Das ist der Unterschied zwischen einem Satz und einer Botschaft.
TextgenerierungEs gab eine Zeit, da war die weiße Seite ein vertrauter Feind. Still. Erwartungsvoll. Und manchmal gnadenlos. Wer schreibt, kennt das: Die Deadline steht. Das Thema liegt klar vor einem. Und trotzdem bleibt der Bildschirm leer.
Dieses Ringen war mühsam – aber auch bedeutungsvoll. Heute wirkt es wie ein Relikt, denn die weiße Seite verschwindet. Nicht, weil wir kreativer geworden sind, sondern weil Maschinen schneller schreiben.
Seit SprachmodellSprachmodelle wie GPT, Claude oder Gemini mitmischen, ist der Schreibprozess ein anderer. Was früher Ausdruck von Haltung war, wird jetzt in Sekunden erzeugt. Pressemitteilung? Fertig. Social‑Media-Post? Kein Problem. Statement? In drei Tonlagen – zum Auswählen. Die KI liefert damit den Ton, den Takt und den Rahmen. Der Mensch entscheidet nur noch, was er davon verwenden will. Was bleibt, ist ein seltsames Gefühl irgendwo zwischen Staunen und Entfremdung. Denn nicht nur das Tempo ändert sich, auch die RollenRollenänderung. Früher war die Stimme das, was sprach. Heute ist sie oft nur noch ein Auslöser. Ein Impuls, der eine Maschine starten soll. Aus dem Sagenden wird ein Steuernder – ohne selbst noch zu sprechen.
Ich habe selbst erlebt, wie Künstliche Intelligenz Blockaden löst. Sie bringt Tempo in festgefahrene Gedanken, Struktur in chaotische Skizzen, Varianten für ermüdete Formulierungen. Und manchmal klingt das Ergebnis tatsächlich überzeugender als das, was ich mir mühsam in Stunden abgerungen habe.
Aber da war auch dieser eine Text. Eine kleine Abschiedsmeldung für eine Kollegin, die nach 42 Jahren das Unternehmen verließ. Die KI lieferte auf Knopfdruck eine Variante: freundlich, korrekt, dankend. Doch als ich den Text las, spürte ich nichts. Kein echtes Bedauern. Kein Moment, der hängen blieb. Kein Wort, das persönlich war. Alles war formal stimmig. Aber es klang, als hätte niemand sie je gekannt.
Und genau da wurde mir klar: Ein Text, der funktioniert, ist noch lange kein Text, der verbindet. KI kann Sätze bauen, aber keine Beziehung. KI hat keine Haltung. Sie kennt keine Relevanz. Sie spiegelt, was war – aber sie spürt nicht, was zählt. Sie erkennt Muster – doch sie hat keine Meinung. Kein Wollen. Sie fragt nicht nach einem Warum.
Und genau das ist der entscheidende Unterschied: Ein Tool ist kein Kompass. Es zeigt Wege auf. Aber keine Richtung. Die Richtung gibst du vor.
Gerade in der PressearbeitPressearbeit ist das essenziell. Denn Pressearbeit ist mehr als Textproduktion. Sie ist Verantwortung. Timing. Instinkt. Ein Satz kann sachlich korrekt sein – und doch unpassend wirken. Weil das Echo fehlt. Weil der Ton nicht trifft. Weil der Moment ein anderer ist.
Darum wandelt sich auch die VerantwortungVerantwortung. Wer mit KI arbeitet, muss nicht weniger können, sondern mehr. Nicht nur schreiben, sondern einordnen. Nicht nur verbessern, sondern entscheiden. Und manchmal: ganz bewusst ablehnen.
Die Vorstellung, dass KI kreative Arbeit einfach übernimmt, greift zu kurz. Kommunikation lebt nicht allein von Sprache. Sie lebt von Haltung. Getragen von einer inneren Klarheit. Vom Mut, Position zu beziehen. Und vielleicht auch: vom Nein zum falschen Satz.
KI liefert Sprache. Sie macht Vorschläge – aber ohne zu wissen, wofür. Manchmal trifft sie den Ton. Aber nicht den Moment.
Menschen bleiben unersetzlich, doch ihre Rolle wandelt sich. Ich merke, dass ich anders schreibe als früher. Weniger aus dem Bauch, mehr im Abgleich. Manchmal ist es, als würde ich nicht mehr sagen, was ich denke, sondern nur noch auswählen, was gut klingt. Und das macht was mit mir.
Und manchmal – vielleicht ist genau dies das Wichtigste – bleibt man einfach Mensch. Mit einem Gefühl im Bauch, das sagt: »Dieser Text stimmt.« Oder: »Nein, dieser nicht.«
Die weiße Seite ist verschwunden, aber der Anspruch ist geblieben. Denn aus Leere wurde Vorschlag. Und dieser Vorschlag verlangt mehr als Zustimmung. Er verlangt Urteilskraft. Und manchmal auch: das Schweigen nach dem falschen Satz.
Merksatz
KI ersetzt keine VerantwortungVerantwortung. Sie macht sie nur sichtbarer.
KommunikationsprozessKünstliche Intelligenz verändert unseren Kommunikationsalltag. Nicht auf den großen Bühnen, sondern da, wo jemand am Schreibtisch sitzt und nicht weiß, wie er anfangen soll. Da, wo Druck herrscht. Oder Unsicherheit. Oder einfach zu wenig Zeit für einen guten Satz.
Nicht das große Ganze verändert sich zuerst, sondern der kleine Moment, in dem jemand früher geschrieben hätte – und heute einen Prompt eintippt.
Es geht nicht einfach nur um neue Tools. Es geht um ein neues Tempo. Um verschobene Bedeutungen. Und um eine zentrale Frage: Wer trägt die VerantwortungVerantwortung, wenn Worte nicht mehr ausschließlich von uns stammen?
Wer in PressestellePressestelle, Disruptionn, Agenturen oder Redaktionen arbeitet, erlebt keinen langsamen Wandel, sondern einen Bruch. Plötzlich, tiefgreifend, manchmal überfordernd. Vertraute Abläufe geraten ins Wanken.
Die klassische Reihenfolge – Briefing, Entwurf, Abstimmung, Freigabe, Veröffentlichung – gibt es noch. Aber sie fühlt sich anders an. PromptPrompts ersetzen erste Gedanken. Künstliche Intelligenz produziert die RohtextRohtexte. Rückmeldungen kommen automatisch – nicht aus Erfahrung, sondern aus Algorithmen. Und mittendrin steht der Mensch nicht mehr als Autor, sondern als Kurator. Kein Ursprung mehr, sondern Durchgangsstation. Ein Filter. Man könnte sagen eine Art Schleuse.
Und genau deshalb braucht es heute mehr als Texte. Es braucht Haltung und Urteilskraft. Und vor allem den Mut, nicht alles zu übernehmen, was möglich ist.
Vorher: Ein Text war ein Prozess. Ein Gedanke, ein Wort, ein Entwurf.
Heute: Ein Text ist ein Ausgangspunkt. Schnell erzeugt, vielfach variiert, sofort verfügbar.
Merksatz
Die Kunst liegt nicht mehr im Schreiben, sondern im Entscheiden, welcher Text zählt.
Abb. 1:
Die Einführung von KI in der Kommunikationsstrategie
Kommunikationsstrategie
erfolgt häufig in mehreren Stufen – von der Analyse bis zur automatisierten Umsetzung
Die Folge: Wenn du heute kommuniziert, brauchst du mehr als Sprache. Du brauchst Mut, Gespür für Brüche und die Bereitschaft, nicht perfekt zu sein – aber klar.
Der SchreibprozessSchreibprozess wird schneller, aber auch sprunghafter. Was früher eine klare Linie war, ist heute ein Pingpong – zwischen Mensch und Maschine, zwischen Simulation und Bedeutung, zwischen Entlastung und Kontrollverlust. Das Resultat in der Praxis: Social-Media-Kalender in Minuten – technisch top, aber seelenlos. Zielgruppenanalysen, fein segmentiert – aber ohne Herz. KI erkennt Muster. Doch sie erzählt keine Geschichte. Präzision ersetzt keine Bedeutung.
Praxisbeispiel: Wenn Mensch und Maschine nebeneinander reagieren
Ein Vorstand steht unter Korruptionsverdacht. 9 Uhr morgens. Die Pressestelle wird informiert. Noch bevor sich das Team überhaupt trifft, liegt ein KI-Entwurf auf dem Tisch. Schnell. Korrekt. Empathisch. Und: leer.
Der Ton stimmt – aber das Gefühl fehlt. Kein Hauch von interner Spannung. Keine Ahnung von informellen Gesprächen, die seit Tagen im Flur geführt werden. Keine Spur vom politischen Druck, der längst in der Luft liegt. Der Text klingt richtig. Aber fühlt sich falsch an.
Also schreiben ihn wieder Menschen. Mit Bauch. Mit Haltung. Mit Erfahrung. Und vor allem: mit Verantwortung. Sie schreiben nicht gegen die KI, sondern weiter. Weil Wirkung nicht errechnet werden kann.
Drei weitverbreitete Missverständnisse im KI-WorkflowKI-Workflow:
KI spart Zeit – nur, wenn man sie nicht komplett überarbeiten muss.
KI ist neutral – stimmt nicht. Sie spiegelt Daten und deren Verzerrungen.
KI vereinfacht Abstimmungen – das Gegenteil ist der Fall: Mehr Varianten brauchen mehr Entscheidungen – und mehr Diskussionen darüber, was überhaupt zählt.
Und was heißt das für Führung?
FührungFührung bedeutet nicht, alles fest im Griff zu haben, sondern zu erkennen, wann Kontrolle mehr schadet als schützt. Wann ein Satz zu viel preisgibt – und genau deshalb nötig ist. Und wann man besser nichts abschickt, weil jedes Wort zwar korrekt klingt, aber keine Tragkraft besitzt.
Reflexion: Verantwortung
Wer entscheidet, was nach draußen geht?Verantwortung
Wer steht für einen Text, der makellos formuliert ist – aber leer wirkt?
Und wie baut man Teams auf, die prompten, prüfen, einordnen – ohne sich selbst darin zu verlieren?
Gerade im MonitoringMonitoring zeigt sich das Dilemma: Tools registrieren Bewegungen. Aber sie begreifen sie nicht. Sie zeichnen Kurven – aber keine Stimmung. Sie zählen Kommentare – aber nicht, ob dahinter Wut brennt oder Hoffnung keimt. Du siehst die Daten. Aber weißt du, ob sie kippen? Du erkennst eine Dynamik. Doch spürst du, ob sie eskaliert? Das bleibt deine Aufgabe – deine Verantwortung.
KI verändert die KommunikationKommunikation, Veränderung. Nicht nur technisch, sondern tiefgreifend. Manchmal habe ich das Gefühl, es läuft nicht mehr nacheinander, sondern alles gleichzeitig. Ich sende nicht mehr, ich sortiere. Ich schreibe weniger – und denke dafür mehr darüber nach, was ich weglasse. Und manchmal frage ich mich: Ist das noch mein Prozess? Oder nur meine Rolle darin?
Und die KI? Sie hilft. Aber sie trägt nicht. Sie zeigt uns Optionen. Aber keine Richtung. Kein »Warum jetzt?« – nur ein »Warum nicht?«
Und manchmal braucht Kommunikation keinen klaren Pfad, sondern den Mut, trotzdem loszugehen. Auch wenn es unbequem ist. Auch wenn das Protokoll etwas anderes vorsieht. Auch wenn die KI längst etwas anderes vorgeschlagen hat.
Praxisbeispiel: Wenn KI zu schnell reagiert – und der Mensch zu spät
Ein Tech-Start-up in Tübingen gerät plötzlich ins Zentrum der Aufmerksamkeit. Ein fehlerhaftes Software-Update verursacht massive Störungen – die ersten Kundenbeschwerden lassen nicht lange auf sich warten. Noch bevor intern eine Analyse abgeschlossen ist, reagiert die Social-Media-Abteilung: Sie lässt ein Statement durch die KI formulieren.
»Wir bitten die Unannehmlichkeiten zu entschuldigen und arbeiten mit Hochdruck an einer Lösung. Ihr Vertrauen ist uns wichtig.«
Der Text ist korrekt, freundlich und unangreifbar. Vielleicht sogar zu sehr. Und genau das macht ihn heikel. Denn wenn etwas schiefläuft, wollen Menschen mehr spüren als Worte. Sie wollen Zweifel sehen, ein echtes Bedauern. Kein Perfektionsreflex, sondern einen Moment, der zeigt: Da steht jemand.
Die Netzgemeinde reagiert prompt – und scharf. Das Statement wird geteilt, kommentiert, zerpflückt. Nicht wegen eines Fehlers im Text, sondern wegen seines Tons. Noch bevor jemand reagiert, ist der Hashtag #VertrauenVerloren im Trend.
Die Geschäftsführung erkennt die Schieflage. Spät, aber nicht zu spät. Der CEO spricht selbst – live, ohne Skript, ohne doppelten Boden. Kein Satz für die Pressemappe. Sondern einer, der bleibt:
»Wir waren zu schnell. Und zu glatt. Dafür bitten wir um Entschuldigung.«
Der Satz ist nicht elegant. Aber er wirkt, weil er nicht nur ausdrückt, was passiert ist – sondern auch, dass jemand dafür einsteht.
Was dieses Beispiel zeigt?
KI kann entlasten. Aber sie darf nicht entkoppeln – weder von Haltung noch von Gefühl. Und manchmal ist es besser, einen Moment länger zu warten, bevor man reagiert. Damit man auch etwas zu sagen hat.
Manchmal reicht ein einziger Satz, um VertrauenVertrauen zu kippen. Ein kurzer Kommentar unter einem Social-Media-Post: »Das hat doch sowieso ChatGPT geschrieben.« Drei Sekunden. Ein Klick. Und plötzlich geht es nicht mehr darum, was gesagt wurde, sondern wer es gesagt hat. Und vor allem warum.
Diese Verschiebung ist kein Detail. Sie ist tiefgreifend. Denn Kommunikation lebt nicht nur von Worten. Sie lebt immer von Herkunft. Von VerantwortungVerantwortung. Und von einer klaren Stimme.
Wenn Pressemitteilungen aus Prompts entstehen, wenn Zitate maschinell formuliert werden, wenn Antworten aus Systemen kommen – dann verändert sich etwas. Der AbsenderAbsender bleibt formal derselbe. Aber ist er noch spürbar?
Früher war klar: Ein Text kam von jemandem. Heute kommt er von irgendwo.
Ein CEO-Statement im typischen KI-Stil lässt Fragen offen. Hat sie das wirklich gesagt? Und wenn ja – warum klingt es dann so beliebig? Diese Irritation ist kein Schönheitsfehler. Sie ist ein Warnsignal, denn Glaubwürdigkeit braucht Wiedererkennbarkeit und eine klare Handschrift.
Wenn zu viel automatisiert wird, entsteht ein Graubereich: Texte, die korrekt klingen – aber seelenlos bleiben. Verantwortlich fühlt sich plötzlich niemand mehr.
In manchen Unternehmen stammt inzwischen selbst das spontane Interviewzitat aus einem Prompt.
Praxisbeispiel: Wenn ein Zitat Vertrauen kostet
VertrauenEin Unternehmen verlagert mehrere Standorte. Die Geschäftsführung meldet sich – mit einem Zitat, generiert von einer KI: »Wir bedauern diese Entwicklung zutiefst und danken allen Teams für ihr Engagement in dieser herausfordernden Phase.«
Der Satz klingt stimmig. Aber im Führungskreis heißt es leise: »Das klingt nicht nach ihr.« Und das genügt. Das Vertrauen beginnt zu bröckeln.
Nicht wegen des Inhalts, sondern wegen der fehlenden Stimme. Weil niemand mehr spürbar ist. Und keiner einsteht.
Fazit
Die große EntkopplungEntkopplung ist kein Technikproblem. Sie ist ein Risiko für jede Kommunikation. Denn wenn unklar bleibt, wer spricht, verliert Sprache ihren Halt und Kommunikation ihre Richtung. Deshalb braucht es Prinzipien – nicht gegen KI, sondern für Haltung.
Wer mit KI arbeitet, trägt VerantwortungVerantwortung:
für das, was gesagt wird;
für die Person, die angeblich spricht;
für das, was am Ende bleibt.
Zitate sind kein Deko-Element. Sie sind ein Bekenntnis.
Wer einer Führungskraft Worte zuschreibt, die sie so nie sagen würde, verliert mehr als Stil. Er riskiert Vertrauen.
Deshalb braucht es klare Fragen
Wer spricht hier?
Wer steht dafür ein?
Wer entscheidet, ob das rausgeht?
Diese Fragen sind keine technische Pflichtprüfung. Sie sind menschlich. Und sie sind entscheidend. Ich glaube nicht, dass es reicht, Informationen zu vermitteln. Irgendwann geht es darum, ob jemand dahintersteht – oder ob es nur rauscht. Ein Versprechen auf Klarheit. Und auf jemanden, der sie trägt.
Ein Versprechen, das keine Maschine geben kann. Nur wir – und nur dann, wenn wir es wirklich meinen.
Es gibt Momente in der Kommunikation, da zählt nicht, wie klug ein Satz gebaut ist, sondern, ob er für etwas steht. Ob er spürbar macht: Hier spricht ein Mensch. Nicht perfekt. Aber echt.
KI beeindruckt. Sie schreibt in Sekunden, erkennt Muster, skaliert Prozesse und sie funktioniert – auf einem Niveau, das vor Kurzem noch undenkbar war. Aber: Sie glaubt an nichts. Und sie steht auch für nichts. Genau das macht den Unterschied aus. Kommunikation ist keine Technik. Sie ist EntscheidungKommunikation, als Entscheidung. Wer kommuniziert, wählt Worte, den richtigen Ton und passenden Zeitpunkt. Und oft auch: das bewusste Schweigen. Diese Entscheidungen folgen keinem Algorithmus, sondern Werten. Und Werte lassen sich nicht prompten.
Warum aber greifen wir so oft zur GlätteGlätte?
Weil sie schützt. Wer glatt formuliert, macht sich nicht angreifbar. Wer rund schreibt, fällt nicht auf. Und wer nichts riskiert, kann auch nicht verlieren. Gerade in Unternehmen wird nicht belohnt, wer ehrlich spricht, sondern wer Konflikte vermeidet. Der perfekte Satz soll niemanden stören. Aber genau deshalb bleibt er auch wirkungslos.
Der glatte Satz will gefallen, aber nichts sagen. Er ist rhythmisch, korrekt, freundlich – und vollkommen egal. Man erkennt ihn daran, dass er in jedem Text stehen könnte. Und in keinem fehlen würde.
Beispiel gefällig?
»Wir setzen uns für eine zukunftsfähige Entwicklung ein.«
FloskelDas klingt richtig. Aber es meint nichts. Wer ist »wir«? Was heißt »zukunftsfähig«? Wann beginnt das Einsetzen – und mit welchem Ziel?
Dieser Satz ist wie ein Präsentkorb: schön verpackt, aber unpersönlich.
Ich erinnere mich an eine interne E-Mail einer Kollegin nach einer stressigen Arbeitsphase. Keine Floskeln, keine PR-Sprache. Nur ein ehrlicher Satz:
»Ich bin müde – aber stolz.«
Das war der Satz, über den gesprochen wurde. Weil er stimmte. Und weil man spürte: Hier schreibt ein Mensch.
Ein Text darf stolpern. Eine Formulierung darf anecken. Ein Satz darf zu viel sein – wenn er etwas meint. Denn genau da entsteht Wirkung: im Ungeglätteten. Sie entsteht in der Reibung. Im Mut, nicht nur das zu sagen, was alle hören wollen. Manchmal ist es besser, weniger perfekt zu schreiben – und mehr zu fühlen. Mehr zu meinen.
Die entscheidende Frage ist nicht, was KI alles kann, sondern was wir ihr auf keinen Fall überlassen dürfen. Haltung ist kein schönes Extra, kein überflüssiger Zusatz, sondern der Kern von KommunikationHaltung
