image

image

Anschrift des Autors:
daniel.zahnd@gmx.ch

Bibliotheksaufnahme

Zahnd, Daniel W.

Kognitive Strategien und Leseleistung: Zum Zusammenhang von Leseschwierigkeiten und Aufmerksamkeitsverhalten.

Bern: Libri, 2000

Stichwörter: Lesen, Legasthenie, Aufmerksamkeit, Diagnostik, Therapie

ISBN 978-3-8423-8556-6

Die vorliegende Publikation ist an der Universität Bern als Inauguraldissertation zur Erlangung der Doktorwürde eingereicht worden und auf Antrag von Prof. Dr. Rudolf Groner und Prof. Dr. Walter Perrig am 31. März 2000 vom Dekan der Philosophisch-historischen Fakultät Prof. Dr. Wolfgang Pross als Promotionsschrift angenommen worden.

Weitere Informationen zu dem im Buch vorgestellten Verfahren zur Generierung von Sprachapproximationen und über die Textgenerierungssoftware TextAPP für Windows können angefordert werden unter der folgenden Internetadresse: www.freudiger.com/textapp.htm

© Daniel Zahnd 2000

Alle Rechte liegen beim Autor

Herstellung: Libri Books on Demand

Printed in Germany

INHALTSVERZEICHNIS

1 Einleitung

2 Lesen – ein komplexer Vorgang

3 Ein Überblick Über ausgewählte Lesemodelle

3.1 Vermittlung zwischen Modalitäten: Morton’s Logogenmodell

3.2 Merkmalshierarchie und Automatisierung nach LaBerge & Samuels

3.3 Eine Sekunde Lesen: Gough

3.4 Lesen als psycholinguistisches Ratespiel: Goodman

3.5 Interaktive Lesemodelle

3.6 Neuropsychologische Lesemodelle

4 Modelle zur Entwicklung des Lesens

4.1 Die Dual Root Theorie der Leseentwicklung

4.2 Leseentwicklung nach dem Modell von Frith

5 Die Erforschung von Leseschwierigkeiten

5.1 Ein kurzer historischer Überblick

5.2 Methoden- und Designforschung

5.3 Visuelle Störungen der Wortverarbeitung

5.4 Die phonologische Defizithypothese

5.5 Der Einfluss von Arbeits- und Kurzzeitgedächtnis

5.6 Verarbeitung von Kontext und Redundanz

5.7 Automatisierung und Aufmerksamkeitsverhalten

5.8 Eigene Untersuchungen

6 Zusammenfassende Betrachtungen und Fragestellungen

6.1 Die Schriftsprache als vernetztes Gebilde

6.2 Die problematische Leseentwicklung

6.3 Fragestellungen

7 Die LegaDia Studie

7.1 Allgemeines zur Datenerhebung

7.2 Rechtliches und Datenschutz

7.3 Organisation und Ablauf

7.4 Beschreibung der erhobenen Variablen

8 Auswertungen und Ergebnisse

8.1 Selektion der Untersuchungsgruppe

8.2 Mittelwertsunterschiede von Untersuchungs- und Kontrollgruppe

8.3 Kognitive und impulsive Aufmerksamkeitsstrategien

8.4 Pseudotext-Leseuntersuchungen

8.5 Sonstige Leseuntersuchungen

8.6 Weitere Variablen

8.7 Pseudotext-Fehleranalysen

8.8 Untersuchung des Therapieeffekts

8.9 Ansatz zur Entwicklung eines Legasthenie-Kriteriums

9 Zusammenfassende Befunde und Schlussfolgerungen

9.1 Zusammenfassung der Befunde

9.2 Überprüfung der Fragestellungen

9.3 Schlussfolgerungen und Ausblick

9.4 Kritik

10 Zusammenfassung

10.1 Theoretischer Teil

10.2 Empirischer Teil

11 Literatur

12 Abbildungsverzeichnis

13 Tabellenverzeichnis

1 Einleitung

Aus den verschiedensten Quellen verlauten in regelmässigen Abständen mehr oder weniger alarmierende Berichte über ungenügende Lesefähigkeiten von weiten Teilen der Bevölkerung in den entwickelten Ländern. Nach Angaben des Unesco-Instituts gibt es in den Industriestaaten eine wachsende Gruppe von Menschen, die nicht richtig lesen und schreiben können. Die Zahl der deutschsprachigen Erwachsenen, die das Lesen und Schreiben nur mangelhaft beherrschen, wird auf drei Millionen geschätzt (OECD, 1996). Die Betroffenen können gerade noch Überschriften lesen oder ihren Namen schreiben. Trotz weitgehend normaler Schulbildung erfüllen sie die gesellschaftlichen Mindestanforderungen an die Beherrschung von Lesen und Schreiben nur knapp oder gar nicht. Berufliche Aufstiegsmöglichkeiten sind ihnen in aller Regel von Anfang an verwehrt und im Alltag sind sie gezwungen, mit allerlei Tricks und Notlügen ihre Leseschwierigkeiten zu kaschieren. Schätzungen über den Anteil von solchen funktionalen Analphabeten in der Bevölkerung bewegen sich, je nach Untersuchung, zwischen 1% und 20% (Stauffacher, 1992; OECD, 1998).

Paradoxerweise wird der funktionale Analphabetismus in den Industriestaaten zunehmend zum Problem, während im Gegensatz dazu die Alphabetisierung in den Entwicklungsländern erfreuliche Fortschritte macht. Eine der Erkenntnisse des kürzlich abgeschlossenen nationalen Forschungsprogrammes 33 „Die Wirksamkeit unserer Bildungssysteme“ war, dass die Schweizer im internationalen Vergleich besonders gut in Mathematik, aber ungenügend in Lesen und in Chemie abschneiden. Offenbar lernt man in der Schweiz zwar immer öfters bereits im Kindergarten Englisch und weiss im Internet zu surfen, während gleichzeitig Gebrauchsanweisungen und andere Fachtexte des Alltags für einen erschreckend grossen Teil der erwachsenen Bevölkerung ein Buch mit sieben Siegeln bleiben. In einschlägigen Studien findet sich, je nach Untersuchung, in der Unterstufe ein bis zu 25% grosser Anteil von Schülern und Schülerinnen, deren Leseleistung deutlich unterhalb des Niveaus liegt, das sie gemäss ihrer Altersstufe und ihren intellektuellen Fähigkeiten haben sollten (Gibson & Levin, 1975).

Die Beobachtung, dass sich offenbar ein zunehmender Teil der Bevölkerung vom Lesen verabschiedet ist um so gravierender, als in den letzten Jahren die Anforderungen unserer modernen Lebensumwelt an die Effizienz und Präzision der Aufgaben, die mit Lesen und den damit verwandten Fähigkeiten und Prozessen zu tun haben, keineswegs kleiner geworden sind. Es wird in unserer zunehmend automatisierten und rationalisierten Umwelt und für die Ausübung von qualifizierten Berufen immer wichtiger, sich in einer bestimmten Situation rasch und ohne „lebendige“ Orientierungshilfen anhand von Wegweisern, Formularen und Handbüchern im Alltag zurechtzufinden. Auf der Suche nach den Gründen für diese Entwicklung werden einerseits soziale Probleme angeführt. Gesellschaftliche Entsolidarisierung und soziale Ungleichheit sowie Jugendarbeitslosigkeit, die in den letzten Jahren zugenommen habe, verhindere die Anwendung der Schreib- und Rechenfähigkeiten, die dann gerade bei Lernschwächeren nach Abschluss der Schulausbildung wieder verlorengingen. Dies wird zusätzlich gefördert durch die Trends in der Entwicklung unserer Kommunikationskultur in Richtung einer rein visuell orientierten Informationsvermittlung, welche sich auf den ersten Blick als effizienter erweist als die schriftsprachliche Kommunikation. In dieser Tendenz spiegelt sich sicher auch die Tatsache, dass die pädagogischen Konzepte zur Vermittlung von Schriftsprache heutzutage einen ausgesprochen hohen Anteil an motivationalen Faktoren enthalten und nur zu einem unwesentlichen Teil den Lesedrill berücksichtigen, der beim Erlernen der Schriftsprache jedoch ebenfalls nötig ist. Die vermeintlich übergrosse Menge an Schulstoff, der den Kindern vermittelt werden muss und die latente Konkurrenz durch die von Konsum und technologischem Fortschrittsdenken geprägte Freizeitbranche verleiten nur allzu oft zu einer oberflächlichen Vermittlung der Wissensinhalte. So gesehen verwundert es nicht, dass trotz der allgemeinen Schulpflicht und fortschrittlichen pädagogischen Konzepten das Phänomen der Leseschwierigkeiten nicht aus der Welt zu schaffen ist.

Betrachtet man demgegenüber die gewaltige Menge von Arbeiten und Publikationen, welche die Leseforschung hervorgebracht hat, so müsste man den Eindruck bekommen, dass in diesem Bereich keine offenen Fragen mehr bestehen und zu jedem Problem eine Antwort zu finden sei. Dem ist aber leider nicht so. Im Gegenteil wird der- oder diejenige, die sich in die Methoden und Erkenntnisse der Leseforschung einlesen will, mit einem gewaltigen Durcheinander von Ansätzen, Modellen und Begriffen konfrontiert. Scheinbar widerspricht jede Studie der anderen und fügt den zahllosen Begriffsumbildungen weitere hinzu. Sich einen Überblick über die existierenden Theorien zu schaffen kann dem Einsteiger in die Leseforschung als schier unmögliches Unterfangen erscheinen. Glücklicherweise haben einige Übersichtswerke in den letzten Jahren diesen Zustand verbessert (beispielsweise Klipcera, 1995). Während in früheren Phasen der Geschichte der Leseforschung noch teilweise heftige Dispute über die jeweiligen Ansichten und Befunde geführt wurden, scheint heute eher ein friedliches Nebeneinander zu herrschen, in dem sich die verschiedenen Protagonisten weniger bekämpfen, sondern eher gegenseitig ignorieren.

In dieser Arbeit soll der Versuch unternommen werden, das Phänomen Leseschwierigkeiten und dessen ursächliche Zusammenhänge weniger in einzelnen fehlerhaften Teilprozessen des Lesens zu isolieren, sondern einem latenten Faktor zuzuordnen, der gewissermassen als metakognitive Haltung die Funktionsweise und die Eigenheiten der Aufmerksamkeitssteuerung beeinflusst, also die Art und Weise, wie ein lesenlernendes Kind an die ihm gestellte Aufgabe herangeht. Die empirische Überprüfung der aus diesem Ansatz hervorgehenden Hypothesen erfolgte anhand von Daten aus der LegaDia Studie, die im Schuljahr 1997/98 durchgeführt wurde. Es handelte sich dabei um ein Weiterbildungsprojekt für Legasthenietherapeutinnen am Institut für Psychologie der Universität Bern. Der theoretische Teil der Weiterbildungsveranstaltungen bestand in einer Einführung in die Psychologie des Lesens und in Aspekte der Testpsychologie, sowie in der Einführung in die standardisierte Durchführung von schulischen Leistungsmessungen, insbesondere Leseuntersuchungen. Im praktischen Teil der Weiterbildung wurden für die Therapeutinnen kleine „Untersuchungsbatterien“ zusammengestellt, welche sie mit den von ihnen betreuten Kindern durchzuführen hatten. Die ursprüngliche Intention der Arbeit, welche die Erweiterung des diagnostischen Instrumentariums zum Ziel hatte, verlagerte sich im Laufe der Zeit in Richtung der Untersuchung des Einflusses der kognitiven Strategie auf das Leseverhalten sowie des Zusammenhangs von Leseschwierigkeiten und Aufmerksamkeitsstrategie. Ein weiterer wichtiger Aspekt der Studie bildete die Untersuchung von Therapiemöglichkeiten aufgrund der Schlussfolgerungen aus den theoretischen Erkenntnissen und den Resultaten der empirischen Untersuchung.

Die erfolgreiche Durchführung und der Abschluss dieser Studie wäre nicht möglich gewesen ohne direkte und indirekte Unterstützung von verschiedenen Personen aus dem universitären, dem beruflichen und dem privaten Umfeld des Autors. Ihnen allen sei an dieser Stelle recht herzlich gedankt. Es sind dies: Rudolf und Marina Groner vom Institut für Psychologie der Universität Bern, Elisabeth Spycher von der kantonalen Erziehungsberatung, Thomas Spuhler und Jean-Paul Jeanneret vom Bundesamt für Statistik, Monique Zahnd-Stocker, Peter Walther-Baccanu, Benjamin Haas und Willy und Rita Zahnd. Für ihre aktive und ausgesprochen engagierte Mitarbeit im empirischen Teil der Arbeit seien ebenfalls die Therapeutinnen der Konferenz der Berner Legasthenietherapeutinnen verdankt. Es sind dies: Josefine Aebersold, Renate Bieri, Renate Brönnimann, Ursula Bühler, Marianne Drück, Anna Gerber, Katrin Gysel, Elisabeth Langenegger, Margrit Lüthi, Eva Rytz, Verena Schürch, Marlise Stalder und Verena Zimmermann.

Und natürlich nicht zu vergessen, einen herzlichen Dank an die an der Studie teilnehmenden Kinder, die, als für den Forscher rare, begehrte und doch gleichzeitig abstrakte, weit entfernte Untersuchungsobjekte mit einigen für sie wahrscheinlich eher befremdlich anmutenden Aufgaben gebeutelt wurden und diese mit Geduld ertrugen. Insbesondere die Pseudotextuntersuchungen fordern Legastheniker sozusagen im Brennpunkt ihrer Leseschwierigkeiten. Die entsprechenden Untersuchungen – und es waren nicht wenige an der Zahl – waren für sie zweifellos mit etwelchen Strapazen verbunden.

Ab und zu scheint, wie mir berichtet wurde, die eine oder andere besonders drollige Textkonstruktion aber dennoch für einen Lacher gereicht zu haben. Ausser bei dem einen Kind, das via seine Therapeutin die folgende handschriftliche Protestnote überreichen liess: „Liber Herr Zahhd; Ich mach bei disen testen nich mer mit.“

2 Lesen – ein komplexer Vorgang

Für die meisten von uns ist Lesen eine völlig alltägliche Angelegenheit. Wir tun es einfach, ohne darüber nachzudenken. Betrachtet man jedoch die beim Lesevorgang ablaufenden Prozesse ein wenig genauer, so zeigt es sich, dass der doch so selbstverständliche Vorgang eine äusserst komplexe Angelegenheit ist, ein kleines Wunder unserer Wahrnehmung. Als literarisches Beispiel für die Beschreibung der Vorgänge beim Lesen einer Tageszeitung sei zum Einstieg ein kurzer Abschnitt aus Agathe Christie´s Buch Nemesis mit der trefflichen Schilderung der die London Times lesenden Miss Marple zitiert:

„Miss Marple widmete ihre Aufmerksamkeit den wichtigen Neuigkeiten auf der Titelseite. Sie hielt sich dabei nicht lange auf, weil sie mit dem übereinstimmten, was sie an diesem Morgen bereits gelesen hatte, obwohl sie etwas würdevoller abgefasst waren. Sie liess ihre Augen dem Inhaltsverzeichnis entlang niedergleiten. Artikel, Kommentare, Wissenschaft, Sport; dann verfolgte sie ihren gewohnten Plan, wendete die Seite und überflog schnell die Geburten, Heiraten und Todesfälle, nach welchen sie sich vornahm, die Seite mit den Leserbriefen aufzuschlagen, auf der sie beinahe immer etwas Erfreuliches fand; von da aus ging sie zu den Hofnachrichten weiter, wobei auf derselben Seite auch die täglichen Auktionsberichte zu finden waren. Oft war ein kurzer wissenschaftlicher Artikel plaziert, aber sie las ihn nicht. Solche Artikel sprachen sie selten an.“

Diese kurze Beschreibung zeigt schön, wie aktiv ein geübter Leser oder eine geübte Leserin während der Lektüre ist. Ausgesprochen selektiv, zielgerichtet und fast wie nach einem bestimmten Plan wird die Zeitung untersucht, wobei je nach den im Text vorgefundenen Informationen mehr oder weniger Zeit mit einer bestimmten Stelle verbracht wird. Meist reicht das kurze Überfliegen der Titel und eventuell der Aufhänger oder die rasche Orientierung über den Inhalt anhand des Inhaltsverzeichnisses. Bei gegebenem Interesse taucht der Leser aber tief ein in die vollständigen Details des Texts, liest unter Umständen einen Abschnitt zwei-, dreimal oder bricht die Lektüre mangels Interesse unvermittelt ab und begibt sich auf den Rest der Reise durch das Dokument. Unnötig zu betonen, dass der nächste Leser dieselbe Zeitung auf komplett andere Weise durchforstet, vielleicht beginnend mit der letzten Seite, dann nur den Sportteil liest, oder aber nur die Bilder anschaut. Es gibt bekanntlich auch grosse Unterschiede bei den Zeitungen, die einen bestehen fast ausschliesslich aus Bildern und Überschriften, die anderen enthalten umfangreiche Texte. Auch muss der gelesene Text keine Zeitung sein, es kann ein Buch, eine Bedienungsanleitung oder eine Skizze mit Notizen sein, die allesamt völlig unterschiedlich bearbeitet und aufgenommen werden. Vielleicht handelt es sich gar um eine nachlässig gekritzelte handschriftliche Notiz, die wir vergeblich zu entziffern versuchen oder nur mit vereinten Kräften, mit der Hilfe einer zweiten Person.

Lesen ist also genauso vielfältig wie es eine Vielfalt von Individuen gibt, die es tun und wie es verschiedene Texte gibt, die gelesen werden. Es gibt nicht die eine, bestimmte Art von Lesen, sondern beliebig verschiedene. Dennoch ist jedem Leseakt vieles gemeinsam. Ein jeder Text enthält in Form von graphischen Zeichen und Symbolen die Gedankengänge seines Autors, die sich der Leser zu Eigen macht. Die geschriebene Sprache stellt externalisierte Gedankengänge dar, die mittels auf Papier aufgebrachter graphischer Zeichen kodiert und zum Leser übertragen werden. Der Leser muss den Kode kennen, mit dem die Information zu ihm übertragen wird, um den Text, dessen Aussagen und Gedanken für sich verständlich zu machen und nachzuvollziehen. Bei genauer Betrachtung sind allerdings verschiedene Ebenen der Kodierung auszumachen: Wir schauen beim Lesen eigentlich ja nur auf eine Ansammlung von geraden und runden Linien, Winkeln und Punkten. Diese bilden aber Buchstaben, Wörter und Satzzeichen. Zusammen ergeben sich Sätze, die eine bestimmte grammatikalische Struktur haben. Mehrere sinnvoll aneinandergereihte Sätze ergeben einen Text, der wiederum als Ganzes ein Kapitel eines Buches, einen Zeitungsausschnitt oder eine Bedienungsanleitung bildet. Für alle diese Stufen der Kodierung muss der Leser über eine komplementäre Struktur zur Dekodierung und Deutung verfügen, die es ihm ermöglicht, schlussendlich die Aussagen des Textes zu verstehen, die darin enthaltenen Gedankengänge nachzuvollziehen und so gewissermassen dem semantischen Pfad des Textes folgen zu können.

Am Anfang jeder einschlägigen Publikation zum Thema steht die Frage nach einer Definition von Lesen. Die allgemeinste und zugleich pragmatischste Antwort lautet „Lesen heisst, Informationen aus Texten entnehmen“. So unterschiedlich wie sich das Phänomen „Informationen“ manifestiert, so unterschiedlich kann auch die Haltung sein, mit der ein Leser an Geschriebenes herangeht (Gibson & Levin, 1975). Die Fähigkeit des Lesens ist uns im Gegensatz zum Instinkt zur mündlichen Kommunikation nicht angeboren, sondern sie entwickelt sich vom lesenlernenden Kind zum reifen Leser über unzählige Stationen und bringt eine zunehmende Spezifizierung der beteiligten Fähigkeiten mit sich. Während in einem frühen Stadium der Leseentwicklung die Information noch unter Aufbietung von Anstrengung zusammengesetzt und entschlüsselt werden muss, genügt dem routinierten Leser ein flüchtiges Überfliegen beispielsweise einer Bedienungsanleitung, um an eine bestimmte Information zu gelangen. Im Laufe der Zeit werden die Strategien immer effizienter und zielgerichteter, Entscheide fallen aufgrund von minimalen Differenzierungen, und die „auf einen Blick“ zusammengefassten Informationseinheiten werden mit zunehmender Lesereife immer grösser. Die wachsende Flexibilität des Lesers, Texte und Informationen zu erfassen, wird aber erst ermöglicht durch die Entwicklung von allgemein-kognitiven Fertigkeiten, etwa durch die Fähigkeit der sinnvollen Zuordnung von Inhalten und Bedeutungen zu bereits vorhandenen Wissensinhalten. Bewusstes Wiederholen, Gruppieren, sich eine Sache bildhaft vorstellen, inhaltliche Beziehungen herstellen und die Fähigkeit zum Transfer von Wissensinhalten sind wichtige kognitive Voraussetzungen für das Erreichen des Stadiums des reifen Lesens.

Die Sprache kann all diese Prozesse abbilden und ausdrücken, weiter noch, sie ist das metakognitive und kommunikative Medium schlechthin. Jede Regung unseres Innern, welcher Art auch immer sie sei, muss, wenn sie kommuniziert werden soll, mehr oder minder über den sprachlichen Kanal nach Aussen gelangen. Sprache hat aber genauso eine Wirkung nach innen, indem sie durch ihre grammatikalischen und linguistischen Regelhaftigkeiten einen strukturierenden Einfluss auf unser Denken ausübt und so als Schema zur Anleitung der geistigen Aktivität eine Rückwirkung auf die Wahrnehmung und Begriffsbildung hat (Whorf, 1956).

3 Ein Überblick über ausgewählte Lesemodelle

Die Leseforschung hat unzählige Modelle und eine ausgesprochen umfangreiche Literatur hervorgebracht für die Beschreibung des Leseprozesses. Geyer (1972) beispielsweise schildert in einem Übersichtsartikel nicht weniger als 48 Lesemodelle und das Standardwerk von Singer & Ruddel (1985) über Lesemodelle umfasst mehr als 900 Seiten. Die verschiedenen Ansätze widerspiegeln nicht zuletzt auch immer die wissenschaftstheoretische Orientierung und die Forschungstradition, der die jeweiligen Autoren verpflichtet sind sowie die Strömungen, die in der Zeit herrschten, in denen die Modelle postuliert wurden. Integrative Ansätze sind eher die Ausnahme als die Regel, was allerdings nicht weiter erstaunen muss angesichts der Komplexität des Themas. Wenn der Versuch einer Unterteilung zwischen den verschiedenen Ansätzen unternommen werden soll, so müssen als erstes die klassischen Lesemodelle genannt werden. Diese im Geiste ihrer Zeit stark von den Einflüssen der kognitiven Psychologie und von der Computer-Methapher geprägten Ansätze, postulieren serielle, hierarchisch organisierte Systeme, welche die Instanzen und Vorgänge, die am Leseprozess beteiligt sind, zu beschreiben versuchen. Die Sichtweise kann dabei entweder entlang der informationsverarbeitenden Stufen als bottom up (Morton, 1964; Laberge & Samuels 1974; Gough, 1972) oder top down (Goodman, 1967) orientiert bezeichnet werden. Mit der Verbesserung der Möglichkeiten im Bereich der rechnergestützten Modellierung wurden interaktive Modelle aktuell (McClelland & Rumelhart, 1981; Seidenberg & McClelland, 1989). Im weiteren sind die an der Untersuchung von Augenbewegungen (Just & Carpenter, 1980; O’Regan, 1990) orientierten und die neuropsychologischen Modelle (Ellis & Young, 1991) zu nennen. In der Folge sollen einige dieser Modelle, die im Hinblick auf die Thematik der vorliegenden Studie interessant erscheinen, kurz referiert werden.

3.1 Vermittlung zwischen Modalitäten: Morton’s Logogenmodell

Dieser Ansatz zur Beschreibung des Leseprozesses versucht, die bei der Wortwahrnehmung beteiligten Prozesse und Modalitäten zu integrierten. In der ursprünglichen Form des Modells (Morton, 1964) stand das sogenannte Logogen-System als universeller Kodewandler im Zentrum, in welchem die über verschiedene Modalitäten eintreffenden Informationen für andere Kanäle aufbereitet werden. Akustische, visuelle, semantische, phonemische Information wird in diesem Wandler ineinander überführt, wobei die einzelnen Wörter oder Morpheme als Logogenknoten repräsentiert sind. Der Kodewandler fungiert als Instanz für die unidirektionale Vermittlung und Umwandlung zwischen den eingehenden visuellen und akustischen Informationen und den aktivierten Kontextbedingungen des Wahrnehmungsprozesses. Je nach Eingangsbedingungen erreicht ein bestimmtes Logogen eine überschwellige Aktivation und stellt dadurch dessen semantische Informationen und beispielsweise einen artikulatorischen Kode zur Generierung einer Aussprache zur Verfügung.

Abbildung 1:

Das Lesemodell nach Morton & Patterson (1980)

image

Obwohl viele empirische Befunde mit dem ursprünglichen Modell erklärt werden konnten, musste das Modell mehrmals erweitert werden. So wurde für den Vorgang des lauten Vorlesens ohne Verstehen ein „grapheme-phoneme conversion“ Kanal und eine „acoustic-phoneme conversion“ angenommen. Für die Verarbeitung von Pseudowörtern, also von künstlichen Wörtern, die keine Bedeutung haben, musste die Bandbreite der Logogene, die ursprünglich nur als Vermittler zwischen Wörtern vorgesehen waren, auch auf kleinere Analyseeinheiten, beispielsweise „spelling-patterns“, also von der Aussprache her generierten Einheiten, angepasst werden und anstatt des semantischen Kontextes musste auch Intrawortredundanz auf Wortebene in Betracht gezogen werden. Auf diese Weise konnte das Logogen-Modell auch auf das Lesen von Pseudowörtern angewendet werden.

Eine spätere, eher der kognitiven Neuropsychologie verpflichtete Darstellung des Modells zeigt Abbildung 1, die zu Beginn der 80er Jahre verwendet wurde zur Erklärung von erworbenen Dyslexien aufgrund von traumatischen Störungen der linken Hirnhemisphäre. Die via die auditiven oder visuellen Kanäle eintreffenden Informationen werden je nach Bedarf unter mehr oder weniger starker Beteiligung der zentralen Prozesse des kognitiven Systems verarbeitet und in einem Antwortpuffer abgelegt.

3.2 Merkmalshierarchie und Automatisierung nach LaBerge & Samuels

Ein weiteres klassisches Modell der Lesewahrnehmung ist auf Aufmerksamkeits- und Automatisierungsaspekte fokussiert. Die Verarbeitung verläuft nach dieser Vorstellung über mehrere informationsverarbeitende Schichten, die je von einer bestimmten Ebene der Merkmalshierarchie gebildet werden. Auf der untersten Ebene erfolgt die Dekodierung von Graphemen. Dies beinhaltet die physikalische Dekodierung der Zeichen, ihrerseits gebildet aus Linien, Winkeln und Kreisen. Auf der nächsthöheren Schicht werden spelling-pattern Kodes aktiviert, dann Wörter-Kodes, Wortgruppen-Kodes und alle weiteren höheren Prozesse. LaBerge und Samuels unterscheiden zwischen automatisierten und nicht automatisierten Stimuli. Dabei wird von der Annahme ausgegangen, dass automatisierte (well-learned) Stimuli kodiert sind, sozusagen fest verdrahtet und demzufolge keinerlei Ressourcen der bewussten Verarbeitung beanspruchen. Die Aufmerksamkeit kann nun auf beliebige Ebenen der sensorischen Prozesse gelenkt werden, aber nur auf einen nicht-automatisierten Prozess auf einmal. Andererseits können jedoch praktisch beliebig viele automatisierte Prozesse im Hintergrund laufen. Aufmerksamkeit kann von Konstrukten angezogen werden, die die entsprechende „Importance“ oder „Pertinence“ (Deutsch & Deutsch, 1963) haben.

Das Schema in Abbildung 2 verdeutlicht beispielhaft die hierarchische Abfolge der Kodeebenen. Dargestellt ist eine Auswahl an möglichen Wegen der Verarbeitung eines visuell dargebotenen Wortes bis zu seiner Bedeutung. Die Aufmerksamkeit ist in der Darstellung augenblicklich auf das Verstehen im semantischen Gedächtnis gerichtet unter Einbezug des Zusammenschlusses von zwei Wortbedeutungskodes. Grundsätzlich kann nur ein Knoten auf einmal mit Aufmerksamkeit belegt werden.

Abbildung 2:

Das Lesemodell nach LaBerge & Samuels (1974)

image

Es sind nun verschiedene Interaktionen zwischen den Ebenen möglich, so etwa die Konstruktion eines neuen Knotens durch Abarbeitung von zwei untergeordneten (bottom up), die Vorbereitung zweier neuer Knoten durch Schaffung eines Höhergelegenen durch Kontext (top down) und die Assoziation zwischen Knoten auf gleicher Ebene. Die verschiedenen Ebenen sind also mehrfach miteinander verbunden, was die Verbindungen zwischen visuellem Gedächtnis und phonemischem Kode einerseits via Laute und Wörter sicherstellt. Vom semantischen Gedächtnis bestehen auch Verbindungen zum visuellen System, was direktes und indirektes Lesen erklären kann. Darauf soll später in Kapitel 4.1 noch genauer eingegangen werden. Als Voraussetzung für einen optimalen Leseprozess, bei dem sich der Leser ausschliesslich dem Leseverständnis widmen kann, nehmen LaBerge & Samuels (1974) an, dass die dem Lesen zugrundeliegenden Prozesse im Hintergrund automatisch, als Kindprozesse ablaufen, ohne Aufmerksamkeit zu beanspruchen, welche ja sonst vom Prozess des Textverstehens abgezogen werden müsste. Dieses trotz allem relativ statische und linear-serielle Modell wurde später erweitert im Sinne einer Parallelisierung der Prozesse und mit Hilfe von zusätzlichen Feedbackschlaufen (Samuels, 1985).

3.3 Eine Sekunde Lesen: Gough

Die Vorstellung der Funktionsweise des Lesevorgangs nach Gough ist ausgesprochen stark an der seriellen Verarbeitung und an den sequentiellen Schritten der Informationsverarbeitung orientiert. Beginnend bei der Aufnahme der Information durch die Augen folgen verschiedene Verarbeitungsprozesse und Repräsentationsformen, bis schlussendlich ein Text verstanden und ausgesprochen wird. Besonders bemerkenswert erscheint die klare Trennung zwischen Prozessen und Repräsentationen, wie sie insbesondere von Marr (1982) auch angewendet und propagiert wurde. Nach der Vorstellung des Autors ist die zeitliche Dauer des Prozesses bis zur Aussprache eines Wortes genau eine Sekunde.

Die visuelle Information, welche in einer ersten Stufe als präkategoriales Bild, als Icon, zusammengesetzt aus Geraden, Kurven, Winkeln vorliegen, werden anschliessend zu Buchstaben verarbeitet und in einem Buchstabenregister (character register) gespeichert, von wo aus mehr oder weniger direkt die Bedeutung erschlossen wird. Es ist jedoch nach heutigem Wissen unwahrscheinlich, dass Bedeutung ausgehend von den Buchstaben erlangt wird, denn dies würde neben einer Adressierung der Bedeutung für gesprochene Sprache ein zusätzliches Adressierungssystem für Buchstaben erfordern. Die weiteren Verarbeitungsschritte verlaufen nach der Vorstellung dieses Modells via eine Art phonemischer Kode durch einen Dekodierer und über ein phonemisches Band (phonemic tape) und einen Bibliothekar mit Zugang zu einem Lexikon, wo auch die phonologischen, syntaktischen und semantischen Informationen vorhanden sind. Die auf diese Weise verstandenen Wörter werden im Primärgedächtnis ablegt. Letzteres bildet das Arbeitsgedächtnis für das Satzverstehen, das sogenannte „comprehension device“.

Abbildung 3:

Das Lesemodell nach Gough (1972)

image

Nach drei Fixationen verfügt der „Merlin“ über genug Wörter, um Verständnis entstehen zu lassen und die verstandenen Sätze werden im „the place where sentences go when they are understood“ (TPWSGWTAU) abgelegt. Die verstandenen Sätze, mit denen immer noch der phonemische Kode assoziiert ist, werden schliesslich via Herausgeber (editor) ausgesprochen.

Gough (1985) bezweifelt selber die Korrektheit seines aus heutiger Sicht reichlich mechanistischen und von der Computer-Metapher geprägten Modells. Er hält aber daran fest, dass es „in die richtige Richtung gegangen sei“. Es ist aus heutiger Sicht nicht korrekt, dass Buchstaben sequentiell von links nach rechts abgetastet werden und die phonologische Rekodierung ist zum Lesen nicht zwingend notwendig. Es fehlt auch völlig die Berücksichtigung des Einflusses von Kontext in diesem ganz und gar bottom-up orientierten Modell. Der Leseprozess kann aber zweifellos auch über top down Prozesse beeinflusst werden.

3.4 Lesen als psycholinguistisches Ratespiel: Goodman

Ein weiteres wichtiges klassisches Modell des Lesens ist das sogenannte „Analyse durch Synthese“-Modell. Danach wird die laufend eintreffende Information ständig auf die bisher verarbeitete bezogen und laufend verglichen. Es werden Hypothesen gebildet über die zu erwartenden Inputs ausgehend von den aktuell vorhandenen Mitteilungen. Anschliessend erfolgt der Vergleich mit den tatsächlich eintreffenden Informationen. Oder wie es Neisser (1974) ausgedrückt hat:

„Man bildet eine Hypothese bezüglich der ursprünglichen Mitteilung, bestimmt mit Hilfe von Regeln, wie die Eingabeinformation in diesem Falle aussehen würde und sieht nach, ob die Eingabeinformation wirklich so aussieht“