Leichte Sprache, Einfache Sprache, verständliche Sprache - Bettina M. Bock - E-Book

Leichte Sprache, Einfache Sprache, verständliche Sprache E-Book

Bettina M. Bock

0,0

Beschreibung

Während sich "Leichte" und "Einfache Sprache" in der Praxis zunehmend etabliert haben, steht die empirische Erforschung noch immer am Anfang. Das Studienbuch beleuchtet aus der Perspektive unterschiedlicher linguistischer Teildisziplinen den aktuellen Forschungsstand sowie empirische Forschungszugänge. Neben psycho- und textlinguistischen Grundlagen werden auch korpuslinguistische sowie diskurs- und soziolinguistische Zugänge thematisiert. So entsteht erstmals ein multiperspektivischer, empirisch basierter Überblick über Forschungsergebnisse und -zugänge zu diesem neuen Themenfeld, das sich aktuell in verschiedenen linguistischen Disziplinen etabliert. Das Buch bietet eine empirisch fundierte Einführung in Erkenntnisse zu sprachlicher Einfachheit auf Wort-, Satz- und Textebene sowie Untersuchungsergebnisse zum Lesen und Verstehen bei den wichtigsten Zielgruppen "Leichter" und "Einfacher Sprache". Es führt außerdem mithilfe von Anwendungsbeispielen in empirische Forschungsmethoden ein und berücksichtigt dabei sowohl quantitative als auch qualitative Forschungsansätze.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern
Kindle™-E-Readern
(für ausgewählte Pakete)

Seitenzahl: 494

Das E-Book (TTS) können Sie hören im Abo „Legimi Premium” in Legimi-Apps auf:

Android
iOS
Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



Bettina M. Bock / Sandra Pappert

Leichte Sprache, Einfache Sprache, verständliche Sprache

Mit Beiträgen von Pirkko Friederike Dresing, Mathilde Hennig und Cordula Meißner

DOI: https://doi.org/10.24053/9783823391814

 

© 2023 • Narr Francke Attempto Verlag GmbH + Co. KGDischingerweg 5 • D-72070 Tübingen

 

Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetztes ist ohne Zustimmung des Verlages unzulässig und strafbar. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.

 

Alle Informationen in diesem Buch wurden mit großer Sorgfalt erstellt. Fehler können dennoch nicht völlig ausgeschlossen werden. Weder Verlag noch Autor:innen oder Herausgeber:innen übernehmen deshalb eine Gewährleistung für die Korrektheit des Inhaltes und haften nicht für fehlerhafte Angaben und deren Folgen. Diese Publikation enthält gegebenenfalls Links zu externen Inhalten Dritter, auf die weder Verlag noch Autor:innen oder Herausgeber:innen Einfluss haben. Für die Inhalte der verlinkten Seiten sind stets die jeweiligen Anbieter oder Betreibenden der Seiten verantwortlich.

 

Redaktionsschluss: Juni 2022

 

Internet: www.narr.deeMail: [email protected]

 

ISSN 0941-8105

ISBN 978-3-8233-8181-5 (Print)

ISBN 978-3-8233-0488-3 (ePub)

Inhalt

Zur Konzeption dieses StudienbuchsÜbersicht über die Kapitel1 Leichte Sprache? Einfache Sprache? Verständliche Sprache?1.1 Erster Zugang zum GegenstandsbereichBeispiel (1)Beispiel (2)Beispiel (3)Beispiel (4)1.2 Verständliche Sprache als „Dach“1.3 Leichte Sprache1.4 Einfache SpracheWeiterführende LiteraturAufgaben2 Grundlagen2.1 Lesen und Verstehen – psycholinguistische Perspektiven2.1.1 Lesen als kognitiver Prozess2.1.2 Lesen als physiologischer Prozess2.1.3 Visuelle Worterkennung2.1.4 Lesen von Sätzen und Texten2.2 (Text-)Linguistische Perspektiven auf Verstehen und Verständlichkeit2.2.1 Kommunikativ-pragmatische Perspektiven der Textlinguistik2.2.2 Rezeption von psychologischen und kognitionswissenschaftlichen AnsätzenKomplexität als Gegenstand der Linguistik (Mathilde Hennig)Weiterführende Literatur2.4 Über Verständlichkeit hinaus I – AngemessenheitWurzeln in der antiken Rhetorik2.5 Über Verständlichkeit hinaus II – diskurs- und soziolinguistische Perspektiven2.5.1 Diskurslinguistische Perspektiven2.5.2 Soziolinguistische Zugänge3 Leicht, einfach, verständlich – ForschungsstandWort (Cordula Meißner)3.1.1 Wörter aus der Perspektive von Einfachheit und Schwierigkeit betrachten3.1.2 Faktoren der Schwierigkeit auf Wortebene3.1.3 Wortbezogene Schwierigkeitsfaktoren auf Textebene3.1.4 Schwierigkeitsbezogene Wortschatzkonzepte3.1.5 Gibt es leichte bzw. einfache Wörter?Satz (Mathilde Hennig)3.2.1 Leichte Sätze in Leichter Sprache3.2.2 Satzkomplexität aus linguistischer Perspektive3.2.3 Satzkomplexität und Satzverstehen3.3 Text3.3.1 Was ist ein Text?3.3.2 Was ist ein leichter bzw. einfacher Text? Perspektive der Praxis3.3.3 Vier Faktoren der Textverständlichkeit3.3.4 Globale und lokale Kohärenz3.3.5 Textsorte und Textfunktion3.4 Multimodalität: Typografie und Bild3.4.1 Perspektiven der Praxis3.4.2 Multimodalität und Verständlichkeit in der Forschung3.4.3 Typografie und Bild in der Leichte-Sprache-Forschung4 Adressatenkreise4.1 Menschen mit sog. geistiger Behinderung4.1.1 Definition des Personenkreises und Forschung zum Lesen4.1.2 Empirische Forschung mit dem PersonenkreisDaF- und DaZ-Lernende (Pirkko Friederike Dresing)Aufgaben4.3 Gering literalisierte ErwachseneWeiterführende LiteraturAufgaben5 Empirische Zugänge zu Verstehen und Verständlichkeit5.1 Überblick und GrundbegriffeKlassifikationen von ForschungsmethodenKorpusmethoden (Cordula Meißner / Bettina M. Bock)5.2.1 Was ist ein Korpus?5.2.2 Die Struktur von Korpora5.2.3 Korpusbasierte und korpusgeleitete Analysen5.2.4 Korpuslinguistische Analyseverfahren5.3 Quantitative Zugänge zum Leseverstehen5.3.1 Lesbarkeitsindizes5.3.2 Lesen im Experiment5.3.3 Experimentelle Paradigmen5.4 Qualitative Zugänge zum Leseverstehen5.4.1 Auswahl der Studienteilnehmer/innen: Qualitatives Sampling5.4.2 Interviews: Fragen zum Text, WiedergabeverfahrenLautes Denken, Lautes Erinnern (Pirkko Friederike Dresing)5.4.4 Transkription5.5 Partizipatives ForschenWeiterführende LiteraturAufgaben5.6 Forschungsethik5.6.1 Relevanz5.6.2 Ethikkodizes und ethische Grundprinzipien5.6.3 Ethikvotum und Ethikkommissionen6 DesiderateLiteratur und digitale RessourcenKorpora und AnalysesoftwareLiteraturverzeichnis

Zur Konzeption dieses Studienbuchs

Mit diesem Studienbuch möchten wir einen Überblick über relevante linguistische Forschung und Theorien geben, die sich mit Fragen der Verständlichkeit und der sprachlichen Einfachheit auseinandersetzen. Ein besonderes Augenmerk gilt dabei den aktuell viel diskutierten Phänomenen Leichte Sprache und Einfache Sprache. Unser Anliegen ist es, einen möglichst breiten Blick auf das Thema zu werfen und unterschiedliche Forschungsperspektiven zu berücksichtigen. Wir mussten aber natürlich entscheiden, welche Aspekte wir vertieft darstellen und welche wir nur streifen.

Es handelt sich um einen Forschungsgegenstand, der weiterhin zahlreiche Fragen aufwirft, die einerseits die Texte mit den verschiedenen sprachlichen Ebenen und andererseits die heterogene Gruppe der Leserinnen und Leser betreffen. Idealerweise werden diese Fragen interdisziplinär zu beantworten versucht. Entsprechend haben wir uns bemüht, unterschiedliche Forschungsperspektiven zu berücksichtigen und neben relevanten Erkenntnissen aus den Disziplinen auch eine Auswahl an Methoden vorzustellen, die für die künftige Forschung genutzt werden können. Wir hoffen, dass das Studienbuch so auch für diejenigen nützlich ist, die sich nicht speziell für Leichte und Einfache Sprache interessieren, sondern die einen allgemeinen und aktuellen Überblick über die Forschung zu verständlichem Sprachgebrauch suchen.

Auch wenn im Titel des Studienbuchs von Leichter, Einfacher und verständlicher Sprache die Rede ist, geht es eigentlich immer um Phänomene des Sprachgebrauchs. Das bedeutet allerdings nicht, dass wir nur eine (im weitesten Sinne) pragmatische Perspektive berücksichtigen. Es kennzeichnet aber unsere Perspektive auf die aktuell viel diskutierte Leichte Sprache und die zunehmend mit ihr ins Blickfeld gerückte Einfache Sprache: Es handelt sich um spezifische – nicht unbedingt homogene – Formen des Sprachgebrauchs, die es zu beschreiben und die es linguistisch einzuordnen und zu reflektieren gilt.1 Ausgangspunkt unserer Betrachtung sind dabei aber nicht nur die Sprachgebrauchsphänomene selbst, sondern vor allem die Fragen: Was weiß die Linguistik über verständlichen Sprachgebrauch und seine Anwendung in kommunikativen Kontexten, was weiß sie über sprachliche Komplexität und sprachliche Einfachheit? Und wie lassen sich dann Leichte und Einfache Sprache – als vermeintlich festgefügte und etikettierte Phänomene – aus dem Blickwinkel dieser Forschungsbezüge einordnen? Welche Fragen muss man an diese Phänomene eigentlich stellen?

Wer also von diesem Studienbuch einen weiteren Ratgeber erwartet, oder wer sich erhofft, dass wir eine anwendungsorientierte Fundierung und Überprüfung von Regeln und Prinzipien Leichter oder Einfacher Sprache anstreben, den müssen wir enttäuschen. Wir stellen keine neue Definition vor, was Leichte und Einfache Sprache ausmachen sollte. Das bedeutet auch: Wir gleichen die Sprachgebrauchspraxis nicht einfach mit dem linguistischen Forschungsstand ab, sondern gehen von den vielfältigen Erkenntnissen in unterschiedlichen linguistischen Teildisziplinen aus und schauen, wie sich der Forschungsgegenstand – verständliche Sprache, Leichte Sprache, Einfache Sprache – dann darstellt. Was man in unserem Buch finden kann, sind also vielfältige Zugänge, wie man sich überhaupt mit den im Titel genannten Phänomenen auseinandersetzen kann – theoretisch wie empirisch. Wir gehen dabei beschreibend vor und stellen aus unterschiedlichen Blickwinkeln Fragen an das Themenfeld: besonders psycholinguistische, pragma- und systemlinguistische Fragen.

Das Studienbuch richtet sich daher an alle, die an einer Einführung in die aktuelle Forschung zu verständlicher Sprache interessiert sind; die Forschung zu Leichter und Einfacher Sprache sehen wir als einen Teil davon. Wir hoffen daher, dass das Buch nicht nur für Leserinnen und Leser interessant ist, die sich bereits mit den beiden zuletzt genannten Phänomenen auseinandergesetzt haben, sondern auch für diejenigen, die einen allgemeinen Zugang zur Verstehens- und Verständlichkeitsforschung und verwandten Perspektiven suchen.

 

Köln und Heidelberg, im Dezember 2022    Bettina M. Bock und Sandra Pappert

Übersicht über die Kapitel

In Kapitel 1 geben wir anhand von Beispielen zunächst einen Überblick über den Gegenstandsbereich dieses Studienbuchs: Was meinen wir eigentlich, wenn wir von verständlicher, Leichter und Einfacher Sprache sprechen? Der Einblick in die Forschungslandschaft ist relativ knapp gehalten, da viele der Aspekte in späteren Kapiteln wieder – teils mit neuer Perspektive – aufgegriffen werden. In Kapitel 2 folgt dann eine Einführung in verschiedene linguistische Perspektiven auf den Gegenstand: Was muss man über den Leseverstehensprozess wissen und welche Texteigenschaften beeinflussen die Verständlichkeit? Was ist die Perspektive linguistischer Forschung zu Komplexität und inwieweit unterscheidet sie sich von der Verständlichkeitsforschung? Und welche Fragen werfen insbesondere Leichte und Einfache Sprache über die Verständlichkeit hinaus auf? Wann kann man einen Text nicht nur als verständlich, sondern auch als angemessen – also als ‚guten Text‘ – bezeichnen? Inwiefern ist sprachliche Vereinfachung auch ein soziales Phänomen, wie genau kommt es z. B. zum Vorwurf der Stigmatisierung durch Leichte Sprache? Das Kapitel bildet die theoretische Grundlage für die folgenden Ausführungen zu den einzelnen sprachlich-textuellen Ebenen in Kapitel 3.

In diesem Kapitel tragen wir den Forschungsstand zusammen: Welche Erkenntnisse gibt es in der Linguistik dazu, was ein Wort zu einem einfachen Wort macht? Was sind leichte oder einfache Sätze? Was macht einen Text zu einem leicht verständlichen Text, und welche Rolle spielen dabei die nicht-sprachlichen Zeichenressourcen? Es kommen verschiedene Autorinnen zu Wort und das bedeutet, dass auch verschiedene Perspektiven eingenommen werden: Cordula Meißner stellt zur Frage nach der Schwierigkeit von Wörtern Ergebnisse aus der Fremdsprachenerwerbsforschung, der Forschung zur Bildungssprache, der Lesbarkeitsforschung und der Psycholinguistik vor. Sie zeigt, dass die mit Schwierigkeit assoziierten Worteigenschaften (wie z. B. Mehrdeutigkeit, Wortkomplexität, Häufigkeit der Verwendung) in ihrem Zusammenspiel betrachtet und in Bezug auf Kontext und Zielgruppe gewichtet werden müssen.

Im Satz-Kapitel stellt Mathilde Hennig die Frage nach der Einfachheit von Sätzen aus der Perspektive von sprachlicher Komplexität. Dabei geht sie nicht nur auf strukturelle, sondern auch auf semantische Faktoren von Einfachheit und Komplexität auf Satzebene ein und vergleicht den Forschungsstand mit den Praxisannahmen der Leichten Sprache. Kapitel 3.3 und 3.4 hängen eng miteinander zusammen, da sie beide die Text-Ebene betreffen. Bettina M. Bock trägt hier Erkenntnisse aus Textlinguistik sowie linguistischer und psychologischer Verständlichkeitsforschung zusammen und fragt danach, welche sprachlichen und nicht-sprachlichen Eigenschaften das Textverstehen erschweren oder erleichtern. Multimodalität – also die Einsicht, dass Texte nicht nur aus Sprache bestehen, sondern auch Bilder und Typografie umfassen – wird in der Linguistik bislang selten unter dem Gesichtspunkt der Verständlichkeit betrachtet.

Kapitel 4 stellt dann drei der Adressatengruppen vor, die aktuell mit am häufigsten als Zielgruppen vereinfachter Texte angesprochen werden: Menschen mit sog. geistiger Behinderung, funktionale Analphabeten, Lernende von Deutsch als Fremdsprache bzw. Deutsch als Zweitsprache (verfasst von Pirkko Dresing). Wir gehen in den Teilkapiteln jeweils auf Aspekte ein, die für das Lesen und Verstehen von Texten besonders relevant sind, also Aspekte wie Sprach- und Lesekompetenzen innerhalb dieser Gruppen sowie Forschungsdesiderate. Darüber hinaus gehen wir aber auch auf unterschiedliche Definitionen und Schwierigkeiten bei der Abgrenzung dieser Personenkreise ein.

In Kapitel 5 verbinden wir dann erneut verschiedene linguistische Forschungsperspektiven und stellen empirische Zugänge zur Erforschung von Verstehen und Verständlichkeit vor. Das Kapitel kann wieder nur eine Auswahl an Methoden darstellen. Ein besonderes Anliegen war es uns aber, sowohl qualitative als auch quantitative Methoden und die mit ihnen verbundenen linguistischen „Denkweisen“ und Perspektiven zu berücksichtigen. Einen gewissen Sonderstatus hat dabei das Kapitel 5.5 zum partizipativen Forschen. Dieser Ansatz ist wenig verbreitet in Linguistik und Sprachdidaktik. Die Besonderheiten des Leichte-Sprache-Kontexts lassen es aber naheliegend erscheinen, sich mit diesem Forschungsparadigma zu befassen. Das Thema empirisches Forschen wird mit den Bemerkungen zur Forschungsethik abgeschlossen. Das entsprechende Kapitel enthält u. a. Hinweise zur Beantragung eines Ethik-Votums für empirischen Studien.

Das Studienbuch schließt mit einem Blick auf bestehende Forschungsdesiderate in Kapitel 6.

1Leichte Sprache? Einfache Sprache? Verständliche Sprache?

Was ist gemeint, wenn von Leichter Sprache und Einfacher Sprache die Rede ist? Welche weiteren Formen verständlicher Sprache gibt es und was haben sie gemein? Lässt sich eine klare Grenzlinie zwischen Leichter und Einfacher Sprache ziehen, und in welchen Merkmalen unterscheiden sie sich? Was ist die Perspektive der Linguistik, was die Perspektive derjenigen, die vereinfachte Sprache jeden Tag umsetzen? Diesen und ähnlichen Fragen gehen die folgenden Kapitel nach: Nach einer allgemeinen Gegenstandsbestimmung dieses Studienbuches folgt ein Abriss zu Leichter und Einfacher Sprache mit aktuellen Diskussionen aus der linguistischen Forschung. Verständlichkeit bildet dabei das „Dachkonzept“ für die Beschreibung beider Phänomene. Wir folgen dem weit verbreiteten Ansatz, Einfache Sprache in einen Bezug zu Leichter Sprache zu setzen und sie dadurch genauer zu beschreiben.

1.1Erster Zugang zum Gegenstandsbereich

Wir steigen mit einer Reihe von Textbeispielen in dieses Kapitel ein. Sie sollen zur Reflexion anregen: Was macht die Phänomene aus und wo wird die Abgrenzung und schon der Vergleich möglicherweise schwierig? Wir dokumentieren bei jedem Beispiel, welches Etikett sich die Texte selbst gegeben haben. Klar ist dabei: Allein das Etikett, das ein Text trägt, ist noch kein ausreichendes Indiz, mit welchem Phänomen man es zu tun hat. Was haben die folgenden Texte also gemeinsam, worin unterscheiden sie sich?

Beispiel (1)

Die Erbschaft

Dieser Krimi ist in leicht verständlicher Sprache geschrieben,

damit ihn alle Menschen leichter lesen und verstehen können.

[…]

 

Kapitel 1

Die Sonne scheint durch Leonies Fenster

und die Vögel schreien ziemlich laut herum.

 

Leonie ist erst um 2 Uhr in der Früh nach Hause gekommen.

Eigentlich unabsichtlich.

Weil sie an sich nur mit Silvia und Kerstin

ins San Pedro Pizza essen gehen wollte.

 

Aber dann hat Kerstin ein paar SMS bekommen,

dass sie unbedingt noch in die Nachtschicht kommen soll.

Alleine wollte Kerstin nicht in diese Diskothek,

und deshalb sind Silvia und Leonie

in Gottes Namen halt noch mitgegangen.

Und wie das so ist in der Nachtschicht,

hat es eben ein bisschen länger gedauert.

 

Auszug aus: Die Erbschaft. Ein Krimi von Capito. Leicht Lesen, Niveau A2. Graz, 2014, Hervorhebungen im Original.

Beispiel (2)

Großer Polizei·einsatz in Nord·deutschland

In Nord·deutschland war ein großer Polizei·einsatz.

Dieser Polizei·einsatz war:

In Hamburg.

In Schleswig-Holstein.

Und in Niedersachsen.

Bei dem Polizei·einsatz waren 420 Polizisten.

Der Polizei·einsatz war gegen eine Firma.

Diese Firma heißt ZytoService.

Diese Firma ist in Hamburg.

Und diese Firma macht Medikamente.

Zum Beispiel Medikamente für die Behandlung von Krebs.

 

Krebs ist eine schwere Krankheit.

 

Ein Mensch hat Krebs?

 

Dann sind Teile vom Körper sehr krank.

 

Zum Beispiel die Haut.

 

Oder bestimmte Körper·teile.

Die Polizei hat gesagt:

 

Wir haben die Firma durchsucht.

 

Wir glauben nämlich:

 

 

Die Firma hat mit Ärzten zusammengearbeitet.

 

 

Und die Firma und die Ärzte haben zusammen verbotene Sachen gemacht.

 

 

Die Firma hat zum Beispiel Rezepte von den Ärzten bekommen.

Auszug aus: NDR, Nachrichten in Leichter Sprache, 17.12.2019, Einzüge und Auszeichnungen im Original. URL: https://www.ndr.de/fernsehen/service/leichte_sprache/Grosser-Polizeieinsatz-in-Norddeutschland,razzia1394.html [11.07.2022]

Beispiel (3)

Die Konferenz in der Stadt Madrid war die Welt-Klima-Konferenz. Dort haben Fach-Leute darüber gesprochen, wie die Länder die Erwärmung von der Erde begrenzen können. Dafür müssen weniger klima-schädliche Gase in die Luft kommen.

Die Länder haben in Madrid heftig gestritten. Manche Regierungen sagen: Alle müssen viel mehr tun für den Klima-Schutz. Sie wollen zum Beispiel, dass die reichen Länder den armen Ländern Geld geben. Weil in den reichen Ländern oft mehr klima-schädliche Gase entstehen. Aber die armen Länder leiden viel mehr unter dem Klima-Wandel. Zum Beispiel weil es mehr Über-Schwemmungen gibt und mehr Dürren. Viele reiche Länder wollen aber kein Geld geben und nicht mehr für den Klima-Schutz tun.

Deshalb sind viele Organisationen und Politikerinnen und Politiker enttäuscht von der Konferenz. Die deutsche Umwelt-Ministerin heißt Svenja Schulze. Sie hat gesagt: Wir müssen viel mehr tun, um den Klima-Wandel zu stoppen.

Was bedeutet …

Klima-Schutz

Klima-Schutz ist eine Politik. Der Klima-Schutz soll verhindern, dass es auf der Erde immer wärmer wird. Ein wichtiges Mittel im Klima-Schutz ist, weniger Abgase zu produzieren. Die Abgase entstehen zum Beispiel beim Auto-Fahren, aber auch beim Heizen und in Kraft-Werken. Abgase schaden dem Klima. Deshalb bedeutet Klima-Schutz zum Beispiel: Weniger Auto fahren, weniger Flugzeug fliegen, weniger Heizung und Strom verbrauchen.

 

[Es folgen weitere Worterklärungen zu: Klima-Wandel, Erd-Erwärmung, Konferenz, Minister/Ministerin, B.B./S.P.]

 

Auszug aus: Deutschlandfunk, Nachrichtenleicht. Der Wochen-Rückblick in einfacher Sprache, 20.12.2019, Einzüge und Auszeichnungen im Original. https://www.nachrichtenleicht.de/streit-beim-klima-gipfel.2042.de.html?dram:article_id=466229 [11.07.2022]

Beispiel (4)

Grundrechte schützen die Bürgerinnen und Bürger

Das Parlament kann Gesetze machen.

Das Parlament muss sich aber an das Grundgesetz halten.

Niemand kann die Grundrechte ändern.

Auch das Parlament kann die Grundrechte nicht ändern.

Die Grundrechte schützen die Bürger.

Man hat zum Beispiel das Recht auf ein Gerichtsverfahren.

Jeder Mensch kann sich frei entfalten.

Jeder Mensch hat einen freien politischen Willen.

Das alles steht im Grundgesetz.

Es gibt auch Gleichheitsrechte.

Sie legen fest:

Alle Menschen sind vor dem Gesetz gleich.

Das heißt: Die gleichen Rechte gelten für alle Bürger.

Es gibt auch Freiheitsrechte:

Jeder darf frei seine Meinung sagen.

 

Auszug aus: Bahr, Matthias/Wiebel, Alexander (Hrsg.) (2017): Gesellschaft bewusst. Schulbuchtexte in einfacher Sprache für eine Differenzierung im inklusiven Unterricht. Braunschweig: Westermann, Hervorhebungen im Original.

 

Schon beim ersten Lesen und intuitiven Vergleichen ist sicher aufgefallen, wie unterschiedlich die Texte sind – und zugleich wie ähnlich, wenn man sie mit prototypischen Erzählungen, Nachrichten oder Schulbuchtexten vergleicht: Das gilt für den Wortschatz, Satzbau und Satzkomplexität, die Verknüpfung von Sätzen und Textpassagen genauso wie für typografische Merkmale (z. B. die Zeilenaufteilung oder Auszeichnungen).

Am Titel unseres Studienbuches kann man bereits erkennen, dass wir gerade das Gemeinsame dieser sehr unterschiedlichen Texte betonen: Sie alle sind bemüht um Vereinfachung und Verständlichkeit. Dabei sind wir nicht daran interessiert, die verschiedenen Etiketten, die sie sich geben, noch einmal zu definieren. Etiketten wie Leichte Sprache, leicht gesagt, Leicht Lesen usw. haben in der Praxis ihre Funktion: Sie sprechen Leser/innen an und ermöglichen Orientierung. Für die Forschung sind diese Etiketten eher als Beschreibungsobjekte interessant (was wird darunter jeweils gemacht?). Wir beschreiben also, was wir in der Sprachgebrauchspraxis vorfinden können, und reflektieren es mit linguistischem Wissen.

1.2Verständliche Sprache als „Dach“

Anders als Leichte Sprache und Einfache Sprache ist verständliche Sprache kein „Etikett“ zur Bezeichnung eines eng umrissenen Phänomens. Die Verständlichkeit von Kommunikation – besonders schriftlicher Kommunikation – war und ist aber immer wieder Gegenstand linguistischer Betrachtungen, und auch das Verstehen von Sprache wird insbesondere im Hinblick auf zugrunde liegende kognitive Prozesse behandelt. Mit dem Ausdruck verständliche Sprache wird also ein Gegenstandsbereich benannt, der sich allgemein mit den Prozessen und Bedingungen des Verstehens und der Verständlichkeit von Sprache beschäftigt. Dabei können sowohl die Besonderheiten einzelner Domänen (z. B. Sprache des Rechts, der Verwaltung, der Religion, …) im Blick sein als auch die Frage, welche sprachlichen und textuellen Faktoren die Sprachverarbeitung erleichtern oder erschweren. Bei der empirischen Erforschung von Verstehen und Verständlichkeit steht sehr oft der fiktive „Durchschnittsleser“ im Mittelpunkt. Es gibt aber auch Studien, die sich spezifischen Personenkreisen (mit unterschiedlichen Sprachkenntnissen, kognitiven Voraussetzungen etc.) widmen. Darüber hinaus gibt es weitere linguistische Ansätze: Studien, die mit Korpora – also großen Sammlungen von authentischen Sprachbeispielen – arbeiten, analysieren beispielsweise, wie häufig bestimmte Wörter oder Wortformen im Sprachgebrauch vorkommen. Was häufig vorkommt – so kann man dann oftmals schlussfolgern – ist auch vielen Menschen bekannt und insofern verständlich(er). Aber auch stärker theoretische (z. B. grammatiktheoretische) Beschreibungen der Komplexität von Sprache sind hochgradig relevant für die Frage: was ist leicht oder schwer zu verstehen?

Bei Leichter und Einfacher Sprache handelt es sich offensichtlich um Sprachgebrauchsformen, die sich in besonderer Weise um Verständlichkeit bemühen. Bislang werden sie (noch) vorwiegend im Schriftlichen realisiert. Der Fokus unseres Studienbuchs liegt auch deshalb auf dem schriftlichen Sprachgebrauch. Verstehen und Verständlichkeit in mündlicher Kommunikation werden am Rande thematisiert (siehe Exkurs „Verstehen im Gespräch“ in Kap. 5.4.2).

Auf linguistische Erkenntnisse, insbesondere solche aus der Verständlichkeitsforschung, hat man sich bei der Entwicklung Leichter und Einfacher Sprache nicht bezogen. In beiden Fällen handelt es sich um intuitiv in der Praxis entwickelte Ansätze, die nachträglich zum Gegenstand linguistischer Forschung und Fundierung geworden sind. Sowohl Leichte Sprache als auch Einfache Sprache sind „Labels“, mit denen eine bestimmte, wiedererkennbare Praxis der Gestaltung von Texten bezeichnet wird, und die mit spezifischen Personenkreisen oder typischen Verwendungskontexten verbunden sind. Beide sind insofern verwandt, als Verständlichkeit über die weitreichende Reduktion sprachlicher und inhaltlicher Komplexität angestrebt wird, und zwar domänenübergreifend. D.h. die Vereinfachungsprinzipien werden – zumindest theoretisch – über Kommunikationskontexte hinweg tendenziell gleich gehalten. Beide Ansätze folgen insofern der Idee, kontextübergreifend generelle Formen sprachlicher und textueller Einfachheit und Verständlichkeit entwickeln zu können. Leichte Sprache und Einfache Sprache weisen aber auch Unterschiede auf. Sie grenzen sich außerdem teils sehr nachdrücklich voneinander ab. Darauf werden wir in den nächsten Kapiteln noch genauer eingehen.

Wir ordnen sie hier als zwei Ausprägungsformen verständlicher (bzw. um Verständlichkeit bemühter) Sprache ein, die neben anderen Formen stehen, die entweder ebenfalls mit spezifischen Bezeichnungen etikettierbar sind (wie bspw. bürgernahe Sprache, textoptimierte Prüfungsaufgaben (Wagner/Schlenker-Schulte 2015)) oder denen keine Labels zugeordnet werden (bspw. Aufbereitungen von Texten für Kinder oder Texte, die fachliche Inhalte für Laien erklären).

Abb. 1:

Leichte Sprache, Einfache Sprache und verständliche Sprache im Verhältnis zueinander sowie mit anderen Verständlichkeitsbemühungen

Im Bereich des Mündlichen wurde zudem eine Ähnlichkeit zwischen Leichter Sprache und sog. foreigner talk (Xenolekten) sowie baby talk festgestellt (siehe Kap. 2.3.2). Die Gemeinsamkeit liegt darin, dass ganz bestimmte Personenkreise mit vereinfachenden Sprachgebrauchsformen adressiert werden.

1.3Leichte Sprache

Die UN-Behindertenrechtskonvention, die in der Bundesrepublik im Jahr 2009 in Kraft getreten ist, fordert den Einsatz barrierefreier Kommunikationsformen, um Menschen mit Behinderung gesellschaftliche Teilhabe zu ermöglichen. Leichte Sprache ist eine solche Form barrierefreier Kommunikation. Sie zeichnet sich durch maximale inhaltliche und sprachliche Reduktion und Vereinfachung aus, und wurde – mit Wurzeln auf europäischer Ebene – seit den späten 1990er Jahren auch im deutschsprachigen Raum entwickelt. Ein prägender Akteur war hier die Selbstvertretungsbewegung People First bzw. Mensch zuerst. Grundlage waren laienlinguistische Konzepte von Verständlichkeit und sprachlich-textueller Einfachheit. In besonderer Weise in ihren Formen geprägt wurde sie in der Bundesrepublik Deutschland von Institutionen der freien Wohlfahrtspflege, darunter insbesondere die Lebenshilfe und die Arbeiterwohlfahrt (vgl. Zurstrassen 2015). Charakteristisch ist im deutschsprachigen Raum die Annahme, dass durch die Einhaltung kodifizierter sprachlicher und typografischer Regeln gewissermaßen „automatisch“ leicht verständliche Texte entstehen. Es existieren unterschiedliche Regelwerke, die teilweise Überschneidungen aufweisen; sie wurden verschiedentlich vergleichend gegenübergestellt (Bredel/Maaß 2016; vgl. Lieske/Siegel 2014). Auch wenn Leichte Sprache damit einen hohen Normierungsgrad aufweist, also wenig Spielraum bei der jeweiligen Umsetzung lässt, ist die Praxis nicht vollkommen einheitlich: Was von den regelhaft aufgestellten Ge- und Verboten in Leichte-Sprache-Texten tatsächlich umgesetzt wird, ist durchaus unterschiedlich (Bock 2017; Lange 2018; vgl. Lange/Bock 2016).

Die Fokussierung auf kodifizierte Normen scheint zudem eine spezifisch deutsche Erscheinung zu sein, wie beim Blick in die internationale Landschaft deutlich wird (vgl. Lindholm/Vanhatalo 2021). Im schwedischen „lättläst“, das bereits seit den späten 1960er Jahren existiert, gibt es zum Beispiel ebenso wenig vergleichbar einflussreiche Regelkataloge wie im finnischen „selkokieli“, das dort seit den 1980er Jahren seinen Platz hat (vgl. Bohman 2017; Leskelä 2017). Auch im deutschsprachigen Raum gab es diese Idee in den frühen Bemühungen um verständliche Texte für Menschen mit sog. geistiger Behinderung noch nicht: 1998 wurden die „Europäischen Richtlinien für die Erstellung von leicht lesbaren Informationen für Menschen mit geistiger Behinderung“ (Freyhoff/Heß/Kerr/Menzel/Tronbacke/Veken 1998) veröffentlicht, die von der Europäischen Vereinigung der ILSMH erarbeitet und auf verschiedene Sprachen übertragen wurde. In direkter Analogie zum englischsprachigen Konzept easy-to-read sprach man damals noch von leicht lesbar bzw. leicht Lesbarkeit. Im Unterschied zur heutigen Prägung Leichter Sprache hatten diese Richtlinien noch deutlich stärker empfehlenden Charakter. Zugleich waren sie stärker abwägend formuliert. Zwar werden auch dort sprachliche und typografische Merkmale genannt, die die Lesbarkeit verbessern können, z.B.

„Vermeiden Sie abstrakte Begriffe.“, „Verwenden Sie kurze Worte aus der Alltagssprache.“, „Seien Sie vorsichtig mit Redewendungen und Metaphern, wenn sie nicht sehr gebräuchlich sind“

Dieser Abschnitt des Dokuments macht allerdings einen vergleichsweise geringen Anteil aus. Vom Charakter her erscheint er als allgemeiner Orientierungsrahmen. D.h., es werden Aspekte genannt, die im Formulierungs- und Textgestaltungsprozess abzuwägen sind. Wesentlich ausdrücklicher als in späteren Regelwerken geht die – insgesamt knappe – Broschüre auf das Problem der Reduktion und Selektion von Inhalten und auf die adressatenseitigen (Wissens-)Voraussetzungen ein. Lesbarkeit und Verständlichkeit werden nicht als gebunden an universelle ‚Regeln‘ verstanden. Vielmehr hat man ausdrücklich ihre Kontextabhängigkeit und Relativität betont:

Die Frage, ob ein Text leicht lesbar oder verständlich ist, hängt sehr von den Fähigkeiten und Erfahrungen der Leserinnen und Leser ab. Manche Personen können offizielle Dokumente lesen, während andere es als schwierig empfinden, kurze Texte aus Zeitungen oder Zeitschriften zu verstehen. Das Konzept der ‚leicht Lesbarkeit‘ kann deshalb nicht universal sein. Es wird nicht möglich sein, einen Text zu verfassen, der den Fähigkeiten aller Menschen mit Lese- und Verständnisproblemen entspricht. (Freyhoff et al. 1998: 8)

Dieses frühe ILSMH-Dokument benennt also ausdrücklich die heterogenen Voraussetzungen und die Schwierigkeiten, die allein bei der Ansprache einer Zielgruppe auftreten. Im prägenden Regelwerk des Netzwerks Leichte Sprache (2013) ist der Zugang etwas anders: So wird nicht nur die Hauptzielgruppe Menschen mit sog. geistiger Behinderung (= Menschen mit Lernschwierigkeiten, siehe Kap. 4.1) genannt. Vielmehr werden eine Reihe weiterer Zielgruppen mit höchst unterschiedlichen Voraussetzungen aufgezählt: Demenzkranke, „Menschen, die nicht so gut Deutsch sprechen“, „Menschen, die nicht so gut lesen können“ (Netzwerk Leichte Sprache 2013: 2). Alle diese Zielgruppen (und noch weitere) profitieren dem Selbstverständnis nach von Leichter Sprache: „Leichte Sprache verstehen alle besser.“ (Netzwerk Leichte Sprache 2013: 1). Im Unterschied zum ILSMH-Dokument werden also weniger die vielfältigen Herausforderungen und notwendigen Abwägungen im Texterstellungsprozesses fokussiert. Es wird vielmehr ein auf (vermeintliche) Klarheit ausgelegtes Werkzeug an die Hand gegeben: Der sich anschließende Regelkatalog gibt Auskunft, wie verständliche Texte für all diese verschiedenen Personenkreise bzw. „für alle“ zu erreichen seien. Forschungsbasierte Leichte-Sprache-Ansätze schließen sich der breiten Zielgruppenannahme tendenziell an (genannt werden weiterhin z. B. Hörgeschädigte, Aphasiepatient/innen, funktionale Analphabet/innen). Sie betonen aber in der Regel, dass verschiedene Zielgruppen differenzierte Textangebote benötigen. Wie entsprechende Texte gestaltet werden müssen, um die verschiedenen Personenkreise zu erreichen, ist Gegenstand von Untersuchungen und theoretischen Überlegungen (Bock 2019a; vgl. Bredel/Maaß 2016).

Seit dem Projekt „Pathways – Wege zur Erwachsenenbildung für Menschen mit Lernschwierigkeiten“ und den dort erarbeiteten Materialien ist im deutschsprachigen Raum der Regelansatz prägend: Es dominiert die Idee kontextübergreifend gültiger Normkodizes.

Gute Information heißt: / Man kann die Information leicht lesen und leicht verstehen. / Damit man gute Information machen kann, / muss man sich an Regeln halten. / Diese Regeln erklären Ihnen, wie Sie Informationen / leicht lesbar und leicht verständlich machen können. / Egal welche Art von Information es ist. (Inclusion Europe 2009: 7)

Im ersten Zitat aus den ILSMH-Richtlinien wird noch darauf hingewiesen, dass es keine universellen Lösungen gebe, und indirekt wird die Notwendigkeit eines flexiblen Vorgehens angesprochen. Im zweiten Zitat aus der „Pathways“-Broschüre von 2009 findet sich dann schon die auch heute noch prägende Vorstellung, dass die Einhaltung kontextunabhängig geltender Regeln verständliche Texte gewissermaßen garantieren könne.

Das Regelwerk des Netzwerks Leichte Sprache (vgl. Bundesministerium für Arbeit und Soziales 2014; 2013), das die heutige Praxislandschaft maßgeblich geprägt hat und noch immer prägt, hat diese Ausrichtung sogar noch etwas zugespitzt: Die Regeln sind an vielen Stellen noch absoluter formuliert und folgen meist einer richtig/falsch-Dichotomie, die scheinbar eindeutige und einfach umsetzbare Lösungen verspricht (siehe Infokasten).

Auszug aus dem „Ratgeber Leichte Sprache“

Benutzen Sie einfache Wörter.

Schlecht: genehmigen

Gut: erlauben (Bundesministerium für Arbeit und Soziales 2014: 22)

 

Benutzen Sie bekannte Wörter. Verzichten Sie auf Fach-Wörter und Fremd-Wörter. (Bundesministerium für Arbeit und Soziales 2014: 24)

 

Vermeiden Sie den Genitiv. (Bundesministerium für Arbeit und Soziales 2014: 30)

 

Vermeiden Sie Rede-Wendungen und bildliche Sprache. (Bundesministerium für Arbeit und Soziales 2014: 33)

Benutzen Sie aktive Wörter.

Schlecht: Morgen wird der Heim-Beirat gewählt.

Gut: Morgen wählen wir den Heim-Beirat. (Bundesministerium für Arbeit und Soziales 2014: 29)

 

Benutzen Sie positive Sprache.

Vermeiden Sie negative Sprache.

Negative Sprache erkennt man an dem Wort: nicht.

Dieses Wort wird oft übersehen. (Bundesministerium für Arbeit und Soziales 2014: 32, Hervorhebung im Original)

 

Benutzen Sie Bilder.

Bilder helfen Texte zu verstehen.

Die Bilder müssen zum Text passen. (Bundesministerium für Arbeit und Soziales 2014: 67)

In der linguistischen Leichte-Sprache-Forschung gibt es unterschiedliche Positionen zur Frage der Regelbasiertheit. Einerseits wurde die Idee konzeptionell übernommen und linguistisch reformuliert: Bredel und Maaß (2016) beispielsweise fassen Leichte Sprache als regulierte Varietät auf, die sich über explizite, weitgehend kontextunabhängige Normen definieren lässt. Bereits bei Maaß heißt es:

Leichte Sprache ist eine Varietät des Deutschen. Sie hat linguistisch beschreibbare Eigenschaften. Darum gilt vielmehr: Ein Text ist genau dann ein Text in Leichter Sprache, wenn er diese Eigenschaften aufweist. (Maaß 2015: 166)

Auch Bestrebungen wie die vom Bundesministerium für Arbeit und Soziales initiierte DIN-Spec-Verfahren zeugen von Normierungs- und Kodifizierungsintentionen. Einheitliche und verbindliche Regeln gelten als positiv besetztes Ziel.

Auf der anderen Seite gibt es auch kritische Bewertungen der Fokussierung auf Regeln und entsprechende alternative Entwürfe: Leichte Sprache wird dann als funktionale Varietät beschrieben (Bock 2014; Lasch 2017) und es werden Forderungen nach einem höheren Maß an Adaptivität formuliert (Kleinschmidt/Pohl 2017). Bock (2019a) ordnet den verschiedenen Regelwerken den Status eines allgemeinen Orientierungsrahmens zu, wobei über die Anwendung der Regeln in Abhängigkeit von Kontextfaktoren in jedem Textproduktionsprozess neu entschieden werden muss: Welche sprachlichen und grafischen Mittel jeweils angemessen sind, entscheidet sich also in Relation zum jeweiligen Adressatenkreis, zum Thema bzw. Inhalt des Textes, zur Textfunktion, zu situativen Faktoren und zum Sender (siehe Kap. 2.4). Die Perspektive ähnelt den frühen Dokumenten aus der Leichte-Sprache-Praxis.

Eine solche Konzeptualisierung bedeutet, dass Regeln zur sprachlichen und grafischen Gestaltung von verständlichen Texten für enge Anwendungsbereiche natürlich durchaus festgelegt werden können. Ein Beispiel, das nicht direkt aus der Leichten Sprache stammt, wären die Hinweise zur Textoptimierung von Prüfungsaufgaben (die selbst nicht den Ausdruck Regeln wählen, die aber ganz ähnlich aufgebaut sind): Sie beziehen sich auf eine spezifische Adressatengruppe (Hörgeschädigte) und einen klar begrenzten Anwendungsbereich, mit dem Textfunktion und Situation sowie Themenbereich konstant sind (Prüfungsaufgaben in technischen Fächern der beruflichen Bildung) (Wagner/Schlenker-Schulte 2015). In der Leichte-Sprache-Landschaft wird bisher allerdings noch nicht in dieser Weise mit kontextspezifischen Regeln oder Empfehlungen gearbeitet.

Ein großes Thema ist aktuell die empirische Erforschung Leichter Sprache. Aus einer theoretischen Perspektive haben Christiane Maaß und Ursula Bredel die erste umfassende linguistische Fundierung geleistet (Bredel/Maaß 2016; Maaß 2015). In den darauffolgenden Jahren standen dann vor allem empirische Studien im Fokus. Das interdisziplinäre LeiSA-Projekt an der Universität Leipzig hat erste empirische Erkenntnisse zur Verständlichkeit und Wirksamkeit Leichter Sprache erarbeitet (Bock 2019a; Goldbach/Bergelt 2019). Weitere empirische Ergebnisse liegen bei Alexander Lasch (2017) vor; jüngst entstanden in einer Forschungsgruppe um Silvia Hansen-Schirra eine Reihe weiterer empirischer Arbeiten (Hansen-Schirra/Gutermuth 2018; Hansen-Schirra/Maaß 2020). Dennoch gilt nach wie vor, dass eine umfassende empirische Fundierung und Überprüfung der Prinzipien Leichter Sprache noch nicht geleistet sind (Christmann 2017).

Spezifisch für Leichte Sprache ist zudem das sogenannte „Prüfen“ von Texten. Zielgruppen­vertreter/innen werden dabei in den Texterstellungsprozess eingebunden, und zwar meist, indem sie Texte vor ihrer Veröffentlichung auf Verständlichkeit prüfen. Die Umsetzung dieser Praxis ist sehr unterschiedlich (Bergelt/Kaczmarzik 2019; Schiffler 2022). Während das Prüfen in der Leichte-Sprache-Praxis oftmals als konstitutiv für eine adäquate Textproduktion angesehen wird (vgl. Netzwerk Leichte Sprache 2013), gibt es in der Forschung dazu unterschiedliche Positionen. Die eine Sichtweise ordnet das Prüfen bei entsprechender Professionalisierung des Übersetzens als überflüssig ein (Maaß 2015: 167). Auf der anderen Seite gibt es Bemühungen um eine methodische Fundierung von partizipativen Verständlichkeitsprüfungen (Kaczmarzik 2018; 2019).

1.4Einfache Sprache

Was ‚ist‘ Einfache Sprache – im Vergleich zu Leichter Sprache und auch zu anderen Etiketten, die es im Praxisfeld gibt? Wir folgen in diesem Kapitel dem in Forschung und Praxis verbreiteten Ansatz, Leichte und Einfache Sprache zueinander in ein Verhältnis zu setzen und sie dadurch genauer zu beschreiben. Als das Gemeinsame aller erwähnten Labels sehen wir, wie bereits eingangs erwähnt, das besondere Bemühen um (Text-)Verständlichkeit an.

In der jüngeren Zeit hat sich nicht nur in der Forschung der Blick auf Leichte und Einfache Sprache diversifiziert. Auch in der Praxis haben sich die Ansätze ausdifferenziert. Es gibt mittlerweile unterschiedliche Anbieter. Nicht alle, die sich der Leichte-Sprache-Praxis zuordnen lassen, nutzen aber das Etikett Leichte Sprache, und nicht alle setzen auf feste Regeln und eine rigide Umsetzungspraxis. Neben Leichte Sprache werden Texte mit ähnlichen Merkmalen auch unter Bezeichnungen wie leicht lesbar, Leicht Lesen, leicht gesagt u.ä. veröffentlicht; Karin Luttermann hat die Bezeichnung klare Sprache für eine linguistisch fundierte Form Leichter Sprache vorgeschlagen (Luttermann 2017). Auch Texte mit dem Etikett Einfache Sprache erinnern aber teilweise stark an Regeln und Prinzipien Leichter Sprache (siehe Beispiel (4) in Abschnitt 1.1). Wie geht man vor diesem Hintergrund also an eine Abgrenzung heran?

Blickt man zunächst auf die Entstehungsgeschichte Einfacher Sprache fällt auf, dass diese weniger klar nachzuzeichnen ist als die Geschichte Leichter Sprache. Einflussreich bei der Verbreitung und Prägung des Phänomens in seiner heutigen Form war in jedem Fall die Münsteraner „Agentur Klar & Deutlich“ sowie der dazugehörige „Spaß am Lesen Verlag“, die sich auch früh um eine Abgrenzung vom Phänomen Leichte Sprache bemüht haben. Auch Literatur- und Schulbuchverlage, die vereinfachte Literatur publizieren, gehören zu den frühen Akteuren im Feld.

Als Zielgruppen Einfacher Sprache gelten typischerweise Menschen mit geringen Lesekompetenzen.1 Häufig wird auf die einflussreichen Hamburger leo.-Studien zu funktionalem Analphabetismus bzw. geringer Literalität verwiesen (Grotlüschen/Buddeberg 2020; Grotlüschen/Riekmann 2012). Die Zielgruppen­beschreibungen ähneln sich allerdings bei Leichter und Einfacher Sprache zunehmend, d. h. es werden – anders als noch vor einigen Jahren – oftmals keine Abgrenzungen mehr vorgenommen im Sinne von ‚Leichte Sprache richtet sich an Menschen mit Beeinträchtigung‘ vs. ‚Einfache Sprache richtet sich an gering Literalisierte und Deutschlernende‘. Damit wird sicherlich auch der Heterogenität der Personenkreise Rechnung getragen. Tendenziell scheint aber für Einfache Sprache eine breitere Adressatenschaft angenommen zu werden als für Leichte Sprache.2 Baumert (2018) stellt Einfache Sprache (bzw. einfache Sprache) in die Tradition von plain English und versteht sie eher unspezifisch als verständliche Sprache im Kontext von Experten-Laien-Kommunikation (vgl. ähnlich Wagner/Scharff 2014). Bei Leichter Sprache findet sich eine solche globale Einordnung, ganz ohne Zielgruppennennung – gleichwohl sie genauso denkbar wäre – eher nicht. Insgesamt gibt es zu Einfacher Sprache weniger Forschung als zu Leichter Sprache, was ihre präzise Beschreibung zusätzlich erschwert. Linguistische Erörterungen setzen sie – wie wir es hier auch tun – fast immer in Relation zu Leichter Sprache und teilweise weiteren Sprachvarianten.

In welchen Merkmalen sich Texte mit den verschiedenen Labels nun im Einzelnen ähneln und unterscheiden, hat man unter anderem korpuslinguistisch untersucht. Dabei werden große Sammlungen von Texten hinsichtlich verschiedener sprachlicher Merkmale ausgewertet (vgl. auch Kap. 5.2): Quantitativ-korpuslinguistische Analysen können beispielsweise Kennwerte zur verwendeten Lexik, zur Satzkomplexität und zur Satz- und Textlänge ermitteln, aus lexikalischen Merkmalen lassen sich auch Rückschlüsse auf dominante Themen ziehen; pragmatische und eine Reihe semantischer Merkmale, die typisch für Leichte- oder Einfache-Sprache-Texte sein könnten, müssen wiederum eher in qualitativen Analysen ermittelt werden.

Neben Studien mit sehr kleinen Korpora (Fuchs 2019; Jekat/Germann/Lintner/Soland 2017) hat Lange (2018) die bislang umfassendste Korpusstudie vorgelegt. Sie fragt nach typischen Eigenschaften von Texten in Leichter und in Einfacher Sprache. Analysegegenstand der Studie waren Texte, die sich den Etiketten Leichte Sprache, Einfache Sprache sowie Leicht Lesen zuordnen ließen (LeiSA-Korpus, zur Textauswahl und Zusammensetzung: Lange 2018). Wir greifen hier nur die Befunde zu Leichter und Einfacher Sprache auf.

Anhand des Korpus aus authentischen Leichte-Sprache-Texten wurde außerdem überprüft, in welchem Maße die postulierten Regeln in der Praxis tatsächlich umgesetzt werden. Insgesamt zeigt die Untersuchung von Lange, dass die Regelwerke mehrheitlich befolgt werden. Im Falle einiger Regeln jedoch zeigen sich deutliche „Verstöße“ (z. B. beim Negationsverbot). Dies kann als Beleg dafür gedeutet werden, dass die Umsetzung Leichter Sprache bereits flexibler erfolgt als die Regelwerke es konzeptuell vorsehen. Lange weist jedoch auch darauf hin, dass die Vagheit vieler Regeln offenlässt, was genau eine „regelgetreue“ Umsetzung ist.

Beim Vergleich des Leichte-Sprache- und des Einfache-Sprache-Subkorpus ergaben sich u. a. folgende Unterschiede (siehe Tabelle 1): Die Leichte-Sprache-Texte waren im Vergleich zu den Einfache-Sprache-Texten durchschnittlich kürzer (Wortanzahl, Satzanzahl). Auch die Sätze waren kürzer, und der Wortschatz wies eine geringere Variation auf. Diese Werte kann man so interpretieren, dass die Leichte-Sprache-Texte an die Verarbeitung geringere Anforderungen stellen als die Einfache-Sprache-Texte, und in diesem Sinne weniger komplex sind. Die Texte beider Subkorpora waren zudem von einem hohen Anteil an Verben und damit von Verbalstil geprägt. Dies kann man allgemein als Bemühung um eine leicht verständliche Ausdrucksweise interpretieren, da Nominalstil tendenziell als schwerer verständlich gilt. Die Analyse von Wortschatz und häufigen Wortverbindungen ließ die Interpretation zu, dass in der Leichten Sprache vor allem Themen gewählt werden, die aus dem Umfeld eines spezifischen Personenkreises stammen, nämlich Menschen mit sog. geistiger Behinderung. Die thematische Ausrichtung von Einfache-Sprache-Texte ließen hingegen eine breitere Zielgruppenansprache erkennen (zum Aspekt dominanter Themen siehe auch Kap. 2.5.1).

 

Leichte-Sprache-Subkorpus (N = 404 Texte)

Einfache-Sprache-Subkorpus (N = 300 Texte)

Anzahl Wörter (Token)

639.826

779.278

Anzahl Wortformen (Types)

17.725

38.470

Type-Token-Ratio

0,028

0,049

Durchschnittliche Satzanzahl pro Text

171 (s = 300,5)

251 (s = 615,2)

Durchschnittliche Wortanzahl pro Text

1.596 (s = 2691,3)

2.851 (s = 7232,8)

Durchschnittliche Wortanzahl pro Satz

9,36 (s = 7,62)

11,34 (s = 20,47)

Tab. 1:

Ausgewählte Merkmale der Leichte-Sprache- und Einfache-Sprache-Subkorpora im Vergleich (nach Lange 2018)

Eine ganz andere Antwort auf dieselbe Frage – Worin liegen Unterschiede zwischen Leichter und Einfacher Sprache? – bringt die Untersuchung von Definitionen und Erklärungen der beiden Phänomene, wie sie von Anbietern und Institutionen im Praxisfeld formuliert werden. Hier untersucht man gewissermaßen das metasprachlich kommunizierte „Selbstverständnis“ der „Macher“ Leichter und Einfacher Sprache. Schon bei einer ersten Recherche fällt auf: Gerade die Labels Leichte und Einfache Sprache werden rhetorisch häufig in Opposition zueinander gebracht. Gleichzeitig scheint man aber auch Gemeinsamkeiten zu sehen, denn ansonsten entstünde kein Druck sich explizit und (er)klärend abzugrenzen.

Akteure aus beiden Feldern grenzen Leichte und Einfache Sprache teilweise mit großem Nachdruck voneinander ab. Wie zum Beispiel hier:

Achtung: Leichte Sprache und einfache Sprache sind nicht das Gleiche. Es gibt viele Unterschiede. (Netzwerk Leichte Sprache 2014).

Die Tatsache, dass überhaupt eine Abgrenzung thematisiert wird, kann man als ein Anzeichen semantischer Konkurrenz deuten: Akteure konkurrieren um die Deutungshoheit über bestimmte Bezeichnungen. Meist ist so etwas gefolgt von Begriffsbesetzungen, das heißt, Akteure versuchen, „die Bedeutung eines Begriffs […] im eigenen Sinne zu modellieren und diese Bedeutung möglichst kanonisch zu etablieren“ (Klein 2017: 777).

Ein Kriterium, das häufig angeführt wird, um Leichte und Einfache Sprache voneinander abzugrenzen, ist die Kodifizierung: Während Leichte Sprache über ausformulierte Regeln definiert wird, wird Einfache Sprache gerade darüber definiert, dass entsprechende Regelwerke fehlen (vgl. Netzwerk Leichte Sprache 2014). Das Netzwerk Leichte Sprache verbindet mit dem Fehlen verbindlicher Regeln auch eine mangelnde Kontrolle der Textqualität (Netzwerk Leichte Sprache 2014). Gerade an solchen impliziten Wertungen wird deutlich, dass es bei der Konzeption und der Abgrenzung immer auch um semantische Konkurrenz – und über die Sprache hinaus: um Interessenvertretung – geht.

Eine umfassende variationslinguistische Beschreibung vereinfachter Sprachvarietäten steht derzeit noch aus. Bisher wird vor allem darauf hingewiesen, dass Leichte und Einfache Sprache als verortet auf einem Kontinuum verstanden werden können: sei es auf einem Kontinuum ab-/aufsteigender sprachlicher Komplexität, ab-/aufsteigender Verständlichkeit oder einem Kontinuum mit mehr oder weniger sprachlichen Ausdrucksmitteln bzw. Ausdrucksvarianten, die zur Verfügung stehen (Bock 2015a; Bredel/Maaß 2016: 530f.). Ausgehend von der Vorstellung eines Kontinuums wurden dann auch Stufenbeschreibungen abgeleitet (vgl. Bredel/Maaß 2016: 541; Maaß 2020a, siehe auch Kap. 3.2).

Abb. 2:

Kontinuum sprachlich-textueller Komplexität/Verständlichkeit von wenig komplex/leicht verständlich bis sehr komplex/schwerverständlich, am Beispiel der Textsorte Allgemeine Geschäftsbedingungen; eingetragen sind einzelne Textexemplare.

Bredel/Maaß (2016) haben in ihrem einflussreichen Werk Leichte und Einfache Sprache als „Reduktionsvarietäten“ konzipiert, die von der Standardsprache – verstanden als kodifizierte schriftsprachliche Norm (vgl. auch Kap. 2.3.2) – abgeleitet sind (Bredel/Maaß 2016: 529). Sie konzipieren damit sowohl Leichte als auch Einfache Sprache als vom Standard „abweichende“ Varianten und gehen davon aus, dass bestimmte sprachliche und typografische Ausdrucksmöglichkeiten in der Leichten Sprache verboten sind, das Ausdrucksrepertoire also reduziert wird (Reduktionsvarietät). Die Beschreibung Einfacher Sprache erfolgt dann hauptsächlich ausgehend von den Merkmalen Leichter Sprache, die zuvor ausführlich beschrieben und theoretisch fundiert wurden. Einfache Sprache erscheint bei Bredel und Maaß also als von Leichter Sprache abgeleitete „angereicherte“ Varietät (Bredel/Maaß 2016: 533). In ihr werden „verbotene Kategorien sukzessive zugelassen“ und Reduktionen zurückgebaut (Bredel/Maaß 2016: 533). Einfache Sprache verstehen die Autorinnen also als Sprachform, die in ihren sprachlichen und typografischen Mitteln reichhaltiger und variabler ist als Leichte Sprache.

Bredel und Maaß vergleichen in ihrem Ansatz den inneren Variantenreichtum von Leichter und Einfacher Sprache. Ein anderer Zugang ist es, die Textverständlichkeit und die Textkomplexität in den Fokus zu rücken. Dann spielt nicht nur die Reduktion von Ausdrucksmitteln, also das Weglassen, eine Rolle. Es kommt dann auch das Hinzufügen (bspw. von Erklärungen, von grafischen Mitteln zur Orientierung im Text) oder das Ersetzen (bspw. von wenig geläufigen durch geläufige Wörter) als Mittel hinzu, um Textkomplexität zu reduzieren und die Verständlichkeit zu erhöhen (Bock 2019a: 25; vgl. Christmann/Groeben 1996; 1999; Hennig 2017). Leichte und Einfache Sprache werden dann immer noch als Punkte (oder Bereiche) auf einem Komplexitäts- oder Verständlichkeitskontinuum verortet. Sie erscheinen aber zugleich stärker als handlungs- und zielorientierte Phänomene, bei denen verschiedene Strategien im Textproduktionsprozess in vielschichtiger Weise zusammenwirken.

Weiterführende Literatur

Einen Überblick über die Perspektiven der Verständlichkeitsforschung gibt der – nicht mehr ganz neue – Beitrag von Christmann und Groeben; die Perspektive der Forschung zu linguistischer Komplexität wird im Band von Hennig durch eine Reihe von Beiträgen abgebildet.

Christmann, Ursula/Groeben, Norbert (1996): Textverstehen, Textverständlichkeit – ein Forschungsüberblick unter Anwendungsperspektive. In: Krings, Hans P. (Hrsg.): Wissenschaftliche Grundlagen technischer Kommunikation. Tübingen: Narr.

Hennig, Mathilde (Hrsg.) (2017): Linguistische Komplexität – ein Phantom? Tübingen: Stauffenburg.

 

Zwei Konzepte, die im Studienbuch zwar immer wieder angesprochen, aber nicht vertieft werden können, ist das der Textoptimierung sowie der bürgernahen Rechts- und Verwaltungssprache:

Wagner, Susanne/Schlenker-Schulte, Christa (2015): Textoptimierung von Prüfungsaufgaben. Handreichung zur Erstellung leicht verständlicher Prüfungsaufgaben. Halle/Saale: IFTO.

Eichhof-Cyrus, Karin M./Antos, Gerd (Hrsg.) (2008): Verständlichkeit als Bürgerrecht? Die Rechts- und Verwaltungssprache in der öffentlichen Diskussion. Mannheim u.a.: Dudenverlag.

Aufgaben

Analysieren Sie die Beispiele (1) – (4) in Kapitel 1.1 hinsichtlich Ihrer sprachlichen und typografischen Merkmale.

Welche Merkmale gibt es in allen Texten? Welche sind spezifisch für einzelne Texte und wie passt dies zu den Labels, die sie tragen?

Wie erklären Sie sich die Verteilung der Merkmale? Ziehen Sie zur Beantwortung der Frage auch die Kapitel 1.3. und 1.4 heran.

Recherchieren Sie mit den Suchworten Leichte Sprache, Einfache Sprache, verständliche Sprache online nach Textbeispielen.

Welche Arten von Texten werden Ihnen an oberster Stelle angezeigt? Vergleichen Sie die Merkmale mit den Ergebnissen aus korpuslinguistischen Untersuchungen in Kapitel 1.4.

Welche Probleme bei der Abgrenzung, die in diesem Kapitel beschrieben wurden, spiegeln sich in Ihren Suchergebnissen?

Sehen Sie sich Definitionen von verschiedenen Anbietern Leichter und Einfacher Sprache an.

In welche Kontexte setzen Sie die beiden Ansätze?

Welche Rolle spielt in den Definitionen Verständlichkeit und welche alternativen „Dachkonzepte“ werden ggf. angeführt?

2Grundlagen

In diesem Kapitel werfen wir zunächst einen genaueren Blick auf Verstehensprozesse (auf der Leser/innenseite) und Verständlichkeit bzw. Einfachheit (als Eigenschaften von Sprache und Text). Dabei wird es auch darum gehen, die spezifischen Akzentuierungen von Psycholinguistik, Textlinguistik, linguistischer Verständlichkeits- und Komplexitätsforschung zu verdeutlichen, die zu jeweils eigenen Zugängen zum Thema führen: Während die Psycholinguistik vor allem nach generellen Prozessen beim Lesen und Verstehen fragt und diese empirisch untersucht, arbeitet die Komplexitätsforschung vor allem mit der Analyse und Beschreibung sprachlicher Strukturen. Die Textlinguistik wiederum betrachtet den Text in seinem Kontext. Sie betont daher die Relativität von Verständlichkeit, z. B. im Hinblick auf Adressatenkreis oder Verwendungszweck. Hier knüpfen auch die beiden weiterführenden Kapitel an: Sie führen in linguistische Konzepte und Perspektiven ein, die zwar nicht direkt Verstehen und Verständlichkeit behandeln, aber für Leichte, Einfache und verständliche Sprache relevant sind. Zum einen handelt es sich um das Konzept der Angemessenheit – also die übergreifende Frage, was guten Sprachgebrauch ausmacht. Zum anderen wird in diskurs- und soziolinguistische Ansätze eingeführt, und somit auch das Sprechen über (verständliche oder nicht verständliche) Sprache und die soziale Dimension von Sprachgebrauch thematisiert.

2.1Lesen und Verstehen – psycholinguistische Perspektiven

Das Unterkapitel gibt einen Überblick über psycholinguistische Modelle des Lesens und Verstehens auf Wort-, Satz- und Textebene. Welche kognitiven Wissensbestände und Verarbeitungsschritte sind am Lesen und Verstehen beteiligt? In welcher Reihenfolge werden welche Informationen verarbeitet? Welche Ressourcen werden benötigt? Diese Fragen sollen funktionale Modelle des Lesens und Verstehens beantworten. Dabei zeigt sich, dass es häufig konkurrierende Annahmen zum zeitlichen Verlauf der Verarbeitung sowie zu den beteiligten Repräsentationen und Prozessen gibt. Manche Annahmen erscheinen hier plausibler für weniger geübte Leser/innen als andere. Generell fehlt es jedoch derzeit noch an Forschung zur Übertragbarkeit der Modelle auf spezifische Leser/innengruppen. Wir geben zunächst einen generellen Einblick in die Forschungsperspektive der Psycholinguistik. Danach werden die drei Hauptaspekte der Forschung vorgestellt:

physiologische Prozesse beim Lesen

visuelle Worterkennung

Lesen und Verstehen auf Satz- und Textebene

2.1.1Lesen als kognitiver Prozess

Die in das Lesen und Verstehen involvierten kognitiven Repräsentationen (das Wissen) und Prozesse (die Verarbeitung) stehen im Mittelpunkt psycholinguistischer Forschung (Rayner/Pollatsek/Ashby/Clifton 2012). Allgemein wird zwischen „peripheren“ Prozessen, die die visuelle Wahrnehmung und die Blickbewegungen betreffen, und „zentralen“ Prozessen unterschieden (Ellis/Young 1996). Die zentralen Prozesse sind von besonderem Interesse und werden auf verschiedenen sprachlichen Ebenen betrachtet. Auf der lexikalischen Ebene wird die visuelle Worterkennung untersucht. Auf der syntaktischen Ebene geht es um die Verarbeitung von Sätzen, die als Parsing bezeichnet wird (abgeleitet von parts of speech, ‚Wortarten‘, d. h. den Wortarten wird hier in Anlehnung an die Phrasenstrukturgrammatik eine wichtige Funktion zugeschrieben). Auf der textuellen Ebene wird schließlich das Textverstehen untersucht. Auf jeder sprachlichen Ebene ist wiederum von einer Vielzahl verschiedener Teilprozesse auszugehen, die verschiedene sprachliche Einheiten einbeziehen und das Lesen zu einem sehr komplexen kognitiven Prozess machen. Aus der Vielzahl der beteiligten Prozesse ergibt sich eine Vielzahl möglicher Faktoren, die Schwierigkeiten beim Lesen begründen können, sowie eine erhöhte Störanfälligkeit des Lesens.

Psycholinguistische Modelle

Die Psycholinguistik ist eine Disziplin an der Schnittstelle zwischen Linguistik und kognitiver Psychologie. Sie begreift Sprache als eine kognitive Funktion des Menschen. Ihr Ziel ist die Modellierung der Sprachverarbeitung. Klassische funktionale Modelle bilden Repräsentationen und Prozesse in der Form von Kästen und Pfeilen ab. Die Kästen symbolisieren Repräsentations- und Verarbeitungseinheiten, ihre Anzahl variiert von Theorie zu Theorie. Modularen Modellen zufolge arbeiten diese Einheiten unabhängig von anderen Einheiten und sind selektiv störbar (Modularitätshypothese; Fodor, 1983). Interaktive Modelle nehmen hingegen einen regen Informationsaustausch zwischen den relevanten Einheiten an. Ob ein Modell modular oder interaktiv ist, lässt sich in einer Abbildung an den Pfeilen zwischen den genannten Kästen ablesen. Die Pfeile zeigen zum einen an, zwischen welchen Kästen Informationen ausgetauscht werden, zum anderen, in welche Richtung die Informationen fließen: in modularen Modellen in eine Richtung, in interaktiven Modellen hin und zurück. Alternativ zur funktionalen Lokalisation wird Sprache materiell im Gehirn lokalisiert oder statistisch modelliert.

Die Modelle werden abgeleitet aus Patient/innendaten, Fehleranalysen und insbesondere psycholinguistischen Experimenten, die einen Aspekt der Sprachverarbeitung möglichst isoliert herausarbeiten. Die in die Modellbildung einfließenden Erkenntnisse generalisieren über Individuen, sie sollen für Sprecher/innen oder Leser/innen eines Sprach- bzw. Schriftsystems im Allgemeinen gelten. Die meisten Modelle wurden für das Englische entwickelt. Inwiefern sie ohne größere Anpassungen auf andere Sprachen übertragen werden können, wird diskutiert (vgl. Frost 2012).

Aus kognitionswissenschaftlicher Perspektive handelt es sich beim Lesen um einen Prozess der Informationsverarbeitung. Dieser ist mit der Schrift auf einen Input spezialisiert, der Bedeutungen und/oder lautsprachliche Einheiten visuell abbildet. Die Größe der Informationseinheiten ist wesentlich durch die visuelle Wahrnehmung beschränkt. Eine Weiterverarbeitung und Verknüpfung der Einheiten erfolgt in nachgeschalteten Prozessen unter anderem auf der Wort‑, Satz- und Textebene. Dabei ist davon auszugehen, dass das (leise) Lesen nur eine Modalität der Sprachverarbeitung ist, die nicht getrennt von den anderen Modalitäten zu betrachten ist und teilweise dieselben Ressourcen nutzt wie das Hören, das Sprechen und das Schreiben (siehe Abb. 3). Dass am lauten Lesen grundsätzlich neben dem Lesen auch das Sprechen beteiligt ist, ist offensichtlich. Darauf, dass auch das leise Lesen nicht völlig losgelöst vom Sprechen zu betrachten ist, deuten Lippenbewegungen und die Wahrnehmung einer „inneren Stimme“ hin.

Abb. 3:

Lesen als eine Modalität der Sprachverarbeitung

Neben der Psycholinguistik befasst sich auch die Sprachdidaktik mit dem Lesen, Hören, Sprechen und Schreiben. Allerdings unterscheidet sich die Perspektive: Während die Psycholinguistik vorrangig die unbewusst beteiligten Repräsentationen und Prozesse erforscht, ergründet die Sprachdidaktik die für die Sprachverwendung in den Modalitäten benötigten Fertigkeiten sowie die Möglichkeiten ihrer Vermittlung und legt hier einen Fokus auf die Bewusstmachung des bereits verfügbaren sprachlichen Wissens. Besonders gewinnbringend erscheint eine interdisziplinäre Betrachtung des Schriftspracherwerbs, der überwiegend institutionell vermittelt wird und in dessen Verlauf schriftsprachliche Repräsentationen und Prozesse systematisch ausdifferenziert werden. Hier sei auf kognitionswissenschaftlich fundierte Ansätze in der Sprachdidaktik verwiesen (z. B. Roche/Suñer 2017).

Im Folgenden soll es weniger um dynamische Aspekte des Leseerwerbs gehen als um das Leseverhalten geübter Leser/innen, zu dem (anders als zum Leseverhalten der heterogenen Gruppe der weniger geübten Leser/innen) bereits auf umfangreiche Grundlagenforschung zurückgeblickt werden kann. Damit wird zwar nicht direkt etwas über die Verarbeitung Leichter Sprache und anderer vereinfachter Varietäten ausgesagt, es können aber Faktoren identifiziert werden, die für geübte Leser/innen leseerleichternd oder leseerschwerend wirken und damit auch potenziell relevant sind für die weniger geübten Leser/innen.

2.1.2Lesen als physiologischer Prozess

Beim Lesen gleitet der Blick nicht kontinuierlich in Leserichtung über die Zeilen, sondern es kommt zu Wechseln zwischen Fixationen und vorwärts- oder rückwärtsgerichteten Augenbewegungen (Rayner et al. 2012; Rayner/Schotter/Masson/Potter/Treiman 2016; für eine deutschsprachige Übersicht vgl. Radach/Günther/Huestegge 2012). Während einer Fixation bewegen sich die Augen bis auf den physiologischen Nystagmus, das sind kleine unwillkürliche Bewegungen der Augen zur Blickstabilisierung, nicht, und es werden Informationen aufgenommen. Eine Fixation dauert ca. 250 ms, die Dauer variiert aber unter anderem in Abhängigkeit vom Schwierigkeitsgrad des Texts (Rayner et al. 2012: 94–96). Man unterscheidet zwischen fovealem, parafovealem und peripherem Sehen. Im zentralen Bereich der Fixation enthaltene visuelle Informationen werden auf die Fovea, einen Bereich der Netzhaut mit einer hohen Rezeptorendichte, abgebildet (zur Physiologie des Sehens vgl. Goldstein 2015). Der foveale Bereich entspricht einem Winkel bis ca. 1°, d. h. wie viel hier scharf gesehen und entsprechend gut gelesen werden kann, hängt von der Schriftgröße und der Entfernung des Auges vom Medium ab. Foveal kann also nur ein kleiner Ausschnitt gelesen werden, dessen Breite der eines Daumens am ausgestreckten Arm entspricht (Rayner et al. 2016: 7). Parafoveal werden in einem Winkel bis ca. 5° Buchstaben weniger genau wahrgenommen und Leerzeichen als Wortgrenzen identifiziert. Peripher werden keine Buchstaben mehr erkannt, aber es werden Seitenränder und eventuell sonstige markante Formatierungen wahrgenommen, die neben der Information über Leerzeichen zur Identifikation eines geeigneten nächsten Landeplatzes genutzt werden können.

Augenbewegungen sind ballistisch, d. h. sie sind schnell und lassen sich einmal ausgelöst nicht unterbrechen. Aufgrund der ausgeführten „Sprünge“ werden Blickbewegungen auch als Sakkaden bezeichnet. Die meisten Sakkaden sind vorwärtsgerichtet, d. h. sie erfolgen in der Leserichtung, zum Beispiel im deutsch-lateinischen Schriftsystem von links nach rechts und im arabischen Schriftsystem von rechts nach links. Häufig werden insbesondere kürzere Wörter wie Funktionswörter übersprungen. Rückwärtsgerichtete Blickbewegungen, sogenannte Regressionen, sind insgesamt seltener, ihr Anteil variiert jedoch wiederum mit der Schwierigkeit des Textes.

Die Steuerung von Blickbewegungen unterliegt einem komplexen Zusammenspiel aus kognitiven, motorischen und sprachlichen Prozessen (Reichle/Rayner/Pollatsek 2003). Eine zentrale Rolle kommt der visuellen Aufmerksamkeit zu, da sie wesentlich sowohl an der Informationsentnahme während einer Fixation als auch an der Planung der nächsten Sakkade beteiligt ist. Aufmerksamkeitsstörungen werden entsprechend als eine mögliche Ursache für Störungen des Leseerwerbs diskutiert (Radach et al. 2012).

2.1.3Visuelle Worterkennung

Lexikalische Verarbeitung

Das lesende Erkennen von Wörtern ist eine Voraussetzung für das Verstehen von Sätzen und Texten. Der Prozess der visuellen Worterkennung wird generell unterteilt in periphere Prozesse, während derer der Input visuell analysiert wird, und zentrale Prozesse der lexikalischen Verarbeitung, die unterteilt werden in:

den lexikalischen Zugriff, bei dem mit Teilinformationen aus dem visuellen Input womöglich verschiedene Wortkandidaten aktiviert werden,

die lexikalische Selektion (als Worterkennung im engeren Sinne, bei der ein Wortkandidat ausgewählt wird) und

die semantische Integration (Zwitserlood/Bölte 2017: 449, 451).

Die psycholinguistische Forschung konzentriert sich häufig auf die ersten beiden Schritte, also Zugriff und Selektion, und damit auf die Wortformen im Gegensatz zu den Wortbedeutungen. Einflussreich sind hier insbesondere zwei Modelle, die wir im Folgenden vorstellen möchten: das Interaktive Aktivationsmodell sowie die Zwei-Routen-Modelle des (lauten) Lesens.

Wortformen sind in einem Teil des mentalen Lexikons gespeichert (zum mentalen Lexikon vgl. Aitchison 2012). Das mentale Lexikon ist nach semantischen, syntaktischen und morphologischen sowie phonologischen und graphematischen Kriterien organisiert, die jeweils eine Möglichkeit des Zugriffs auf lexikalische Einheiten darstellen. Die verschiedenen Zugriffsmöglichkeiten können wir uns vergegenwärtigen, wenn wir eine Aufgabe lösen, bei der wir nur auf bestimmte Wörter zugreifen und diese aufzählen sollen:

Wörter, die Säugetiere bezeichnen (semantischer Zugriff)

Adjektive (syntaktischer Zugriff)

Substantive, die den Plural auf -en bilden (morphologischer Zugriff)

Wörter, die sich auf Haus reimen (phonologischer Zugriff)

Wörter, die mit einem <P> beginnen (graphematischer Zugriff)

Allerdings könnte es sein, dass wir zunächst auf eine größere Menge Wörter zugreifen und dann diejenigen auswählen, die dem jeweiligen Kriterium entsprechen. Zur Untersuchung der Zugriffsmöglichkeiten bedarf es also anderer Aufgaben, bei denen wir uns eines Kriteriums nicht bewusst sind.

Das Interaktive Aktivationsmodell: Buchstaben- und Worterkennung

Die visuelle Worterkennung beginnt mit einem schriftsprachlichen Input. Man könnte annehmen, dass in Alphabetsprachen (alphabetischen Schriftsystemen) zunächst alle Buchstaben identifiziert werden müssen, bevor ein Wort erkannt wird. Der Wortüberlegenheitseffekt (Reicher 1969) zeigt jedoch, dass Buchstaben in einem Wort zuverlässiger erkannt werden als in Isolation (z. B. wird R in WORT zuverlässiger erkannt, als wenn nur R gezeigt wird). Dieser Befund hat maßgeblich zur Entwicklung eines interaktiven Modells der Worterkennung beigetragen.

Buchstabe oder Graphem?

Vielleicht ist aufgefallen, dass hier (wie auch in der psycholinguistischen Literatur) vereinfachend von der Buchstabenerkennung geschrieben wird, obwohl doch linguistisch zwischen Buchstaben und Graphemen zu unterscheiden ist. Tatsächlich konnte gezeigt werden, dass Leser/innen Buchstaben zu größeren Einheiten gruppieren, die Graphemen entsprechen (z. B. ng in king; Perry/Ziegler/Zorzi 2013).

Das Interaktive Aktivationsmodell (IAM; McClelland/Rumelhart 1981) wird auch als Netzwerkmodell bezeichnet, da es wie ein Netz aus Knoten und Verbindungen besteht (vgl. Abb. 4). Die Knoten repräsentieren auf drei Ebenen (1) Buchstabenmerkmale wie z. B. einen horizontalen Strich oder einen vertikalen Strich (in Abb. 4 unten), (2) positionscodierte Buchstaben wie z. B. ein T am Wortanfang (in Abb. 4 in der Mitte) und (3) Wortformen wie z. B. TAKE im Englischen (in Abb. 4 oben) oder auch TURM im Deutschen. (Groß- und Kleinschreibung wird in dem Modell nicht unterschieden.)

Konkurrierende Knoten hemmen sich gegenseitig, da z. B. T und A nicht gleichzeitig am Wortanfang auftreten können. Wird ein Buchstabenknoten, z. B. T in Abb. 4, durch die Merkmalsknoten aktiviert, gibt er seine Aktivierung bottom-up an die Knoten von Wörtern weiter, die diesen Buchstaben in der betreffenden Position enthalten, also z. B. an TAKE, TRIP, TRAP und TIME in Abb. 4. Wird ein Wortknoten durch mehrere Buchstabenknoten aktiviert, gibt er wiederum etwas Aktivierung zurück an seine Buchstabenknoten, gegebenenfalls auch an solche, die bis dahin noch nicht über Merkmale aktiviert wurden. Würde jetzt also zusätzlich zu dem wortinitialen T ein A an zweiter Position aktiviert, würde TAKE weitere Bottom-up-Aktivierung erfahren, nicht aber TRIP, TRAP und TIME. TAKE könnte dann top-down auch die enthaltenen Buchstaben K in dritter und E in vierter Position aktivieren. Aufgrund dieser Top-down-Prozesse, bei denen lexikalisches Wissen die Buchstabenerkennung befördert, kann die Worterkennung auch bei partiellem Input gelingen (vgl. Radach/Hofmann 2016). D.h., man könnte das Wort TAKE gegebenenfalls auch lesen, wenn das E durch einen Fleck verdeckt wäre.

Abb. 4:

Das Interaktive Aktivationsmodell nach McClelland und Rumelhart (1981: 380). Exzitatorische (aktivierende) Verbindungen werden mit spitzen Pfeilenden markiert, inhibitorische (hemmende) Verbindungen mit runden Pfeilenden. Nachdruck der Abbildung aus McClelland und Rumelhart (1981) mit freundlicher Genehmigung der American Psychological Association.

Die Buchstabenerkennung wurde zum Beispiel schon im Pandämoniummodell (Selfridge/Neisser 1960) als Mustererkennung modelliert, die wie im Interaktiven Aktivationsmodell mit einer Zerlegung der Buchstaben in Merkmale einhergeht. Patient/innen mit aufmerksamkeitsrelatierten Lesestörungen infolge neurologischer Erkrankungen (siehe die Infobox zu erworbenen Dyslexien, S. 36) leiden unter Umständen unter Buchstabenmigrationen (Shallice/Warrington, 1977). D.h., bei ihnen ist die Worterkennung dadurch erschwert, dass sie Buchstaben nicht eindeutig einem Wort zuordnen können. Statt nicht duschen lesen sie zum Beispiel nach Migration des d fälschlich dicht duschen. Recht populär waren zu Beginn des Jahrtausends Beispiele mit sogenanntem „Wortsalat“ (vgl. http://www.mrc-cbu.cam.ac.uk/personal/matt.davis/Cmabrigde/ [11.07.2022]):

Die Bcuhstbaenrehenifloge in eneim Wrot ist eagl.

In solchen Beispielen bleiben nur die Anfangs- und Endbuchstaben von Wörtern in ihrer Position, die anderen Buchstaben wechseln ihre Positionen. Dass für geübte Leser/innen das Lesen von solchen Texten mühelos möglich sei, darf so generell allerdings bezweifelt werden. Vielmehr werden die Texte langsamer gelesen und schlechter verstanden (Rayner et al. 2012: 68-71). Dennoch geht man inzwischen nicht mehr von einer festen „Verdrahtung“ von Buchstaben und Positionen im Wort aus, wie sie im Interaktiven Aktivationsmodell angenommen wird.

Erworbene Dyslexien

Bei erworbenen Dyslexien handelt es sich um Lesestörungen, die nach erfolgreichem Leseerwerb auftreten und die auf eine neurologische Erkrankung wie zum Beispiel einen Schlaganfall zurückzuführen sind. Zum Teil zeigen die Patient/innen sehr spezifische Beeinträchtigungen des Lesens, die Aufschluss geben können über die am unbeeinträchtigten Lesen beteiligten Prozesse. Insbesondere Zwei-Routen-Modelle des (lauten) Lesens wurden auf der Grundlage von Patient/innendaten entwickelt.

Dem Interaktiven Aktivationsmodell zufolge aktivieren Buchstabenrepräsentationen (oder Graphemrepräsentationen) Repräsentationen geschriebener Wortformen. Daten von Patient/innen mit erworbenen Dyslexien zeigen jedoch, dass es mehrere Leserouten gibt (Ellis/Young 1996; Coltheart/ Rastle/Perry/Langdon/Ziegler 2001; vgl. Domahs 2016). Manche Dyslektiker/innen können zwar noch existierende Wörter lesen, aber keine Pseudowörter mehr. Pseudowörter sind phonotaktisch und graphematisch regulär, werden also wie deutsche Wörter gesprochen und geschrieben, existieren aber weder in der gesprochenen noch in der geschriebenen Form, wie z. B. Lase. Sie haben keinen Eintrag im mentalen Lexikon. Dyslektiker/innen, die nur existierende Wörter lesen können, lesen über eine lexikalische Leseroute und greifen direkt auf visuelle Wortformen und ihre Bedeutung zu. Andere Dyslektiker/innen können gut Pseudowörter lesen, haben aber Schwierigkeiten mit der Graphem-Phonem-Zuordnung bei irregulären Wörtern wie Garage. Sie regularisieren diese Wörter und lesen z. B. das zweite <g> als [g]. Da diese Dyslektiker/innen nicht über wortspezifische Aussprachevarianten verfügen, geht man davon aus, dass sie ohne lexikalischen Zugriff über eine Graphem-Phonem-Konversions-Route lesen, d. h. sie ordnen Graphemen Phoneme zu, ohne auf die gesamte Wortform zuzugreifen. Um auch zu verstehen, was sie lesen, müssen sie – gewissermaßen auf einem Umweg – über den phonologischen Code auf das mentale Lexikon zugreifen. Wird Buchstabe für Buchstabe rekodiert, müssen die Phoneme im Arbeitsgedächtnis zwischengespeichert werden, damit sie nicht einzeln („buchstabierend“) gelesen werden (z.B. Ente als E-eN-Te-E), sondern als eine Wortform ausgesprochen werden können. Diese Zwischenspeicherung ist ein ressourcenintensiver Vorgang für das Arbeitsgedächtnis, weshalb man davon ausgehen kann, dass hier gerade bei kognitiven Beeinträchtigungen Schwierigkeiten auftreten.

Zwei-Routen-Modelle: Lexikalisches und phonologisches Lesen

Diese Beobachtungen zu Leseschwierigkeiten bei Wörtern haben zur Entwicklung von Lesemodellen geführt, die zwei Routen des Lesens annehmen (z. B. Dual Route Cascaded Model, kurz DRC; vgl. Abb. 5; Coltheart et al. 2001):

Beim Lesen über die lexikalische Route wird ausgehend von der visuellen Analyse auf das graphematische Input-Lexikon zugegriffen. Mit dem graphematischen Worteintrag kann entweder zunächst auf die Bedeutung im semantischen System zugegriffen werden oder direkt der korrespondierende Eintrag im phonologischen Output-Lexikon aktiviert werden. Schließlich wird die phonologische Wortform im phonologischen Zwischenspeicher für die Artikulation bereitgehalten.

Beim Lesen über die phonologische Route werden die in der Analyse ermittelten Grapheme zunächst in Phoneme konvertiert, und dann werden die Phoneme für die Artikulation zwischengespeichert. Die Modelle betrachten nur das laute Lesen. Für das verstehende Lesen würde man noch vor der Artikulation eine Art inneres Sprechen annehmen, das dann im parallel zu konzipierenden auditiven System (vgl. Ellis/Young 1996) verstanden würde.

Über welche Route vorzugsweise gelesen wird, ist umstritten und eventuell auch von der Transparenz des Schriftsystems abhängig (Frost 1998). Für das Deutsche ist demnach eine Bevorzugung der Graphem-Phonem-Korrespondenz-Route wahrscheinlicher als für das Englische, da im Deutschen die Entsprechung von Graphemen und Phonemen konsistenter realisiert ist. Womöglich variiert die Nutzung der einen oder anderen Route aber auch in Abhängigkeit von wortspezifischen Faktoren wie der Regularität der Graphem-Zuordnung in einem Wort und der Vorkommenshäufigkeit des Worts (siehe Kap. 3.1.2) sowie von individuellen Faktoren wie der Dekodierfähigkeit und dem Wortschatz.

Abb. 5:

Dual-Route-Cascaded-Model (DRC) des lauten Lesens nach Coltheart et al. (2001) mit einer phonologischen Route über Graphem-Phonem-Korrespondenzregeln und einer lexikalischen Route über das graphematische Input- und das phonologische Outputlexikon

Für die Relevanz sublexikalischer Einheiten spricht, dass Buchstaben nicht nur in Wörtern (WORT), sondern auch in grapho- und phonotaktisch regulären Pseudowörtern zuverlässiger erkannt werden (WORB) als in Isolation oder als in einem grapho- und phonotaktisch irregulären Nichtwort (WXRT; sog. Pseudowortüberlegenheitseffekt; vgl. Balota/Yap/Cortese 2006). Es stellt sich allerdings die Frage, ob Grapheme und Phoneme wirklich die sublexikalischen Einheiten sind, die über die phonologische Route rekodiert werden. Eine Alternative sind größere graphematische Einheiten wie graphematische Silben, die über entsprechende Regeln als phonologische Silben rekodiert werden könnten (vgl. Ziegler/Goswami 2005), also <Hose> via <Ho> und <se> als /ˈho:.zə