© 2019 by Elsevier GmbH

Bitte nutzen Sie das untenstehende Formular um uns Kritik, Fragen oder Anregungen zukommen zu lassen.

Willkommen

Mehr Informationen

B978-3-437-44536-1.00001-2

10.1016/B978-3-437-44536-1.00001-2

978-3-437-44536-1

Sonagramm der Äußerung „Mimi schenkt Titus einen Apfel, obwohl er noch klein ist“

[M780]

Die Lokalisation von Sprache im Gehirn

[E798]

Versprecher und linguistische linguistische Einheiten:und VersprecherEinheiten

Tab. 1.1
Versprecher betroffene linguistische Einheit
Ich hätte gern eine Schugel Koko Phonem
Das Phonem /k/ wurde mit dem Phonem /∫/ vertauscht
Hast Du dir die Fingernägel geschminkt.
Das kannst du im Iran nachlesen
Wort
Das Wort lackieren wurde durch das semantisch ähnliche Wort schminken ersetzt.
Das Wort Koran wurde durch das phonologisch ähnliche Wort Iran ersetzt. (Malapropismus3)
Da machen die Kinde und das Hund das gleiche Gesicht. Morphem
Das Morphem Kind wurde mit dem Morphem Hund vertauscht. Die morphologischen Markierungen von die- Hund-e und das Kind bleiben an der korrekten Stelle bestehen.
Koscholade Silbe
Die Silben scho und ko wurde vertauscht.
Der kleine Hund schenkt der Oma einen Knochen. Phrasen
Die Subjekt-Nominalphrase die Oma wird mit der Objekt-Nominalphrase dem kleinen Hund vertauscht.
Ich gebe nicht locker Sätze
Die Sätze Ich lasse nicht locker und Ich gebe nicht auf wurden vermischt.

Sprachproduktion im Überblick

Tab. 1.2
Ebene Verarbeitungsprozess Ergebnis
Mitteilungsebene
  • Auswahl passender Konzepte

  • Linearisierung

präverbale Repräsentation
Funktionale Ebene
  • Lemmaauswahl

  • grammatische Funktionszuweisung

verbal-syntaktische Repräsentation mit Zugriff auf Lemmas
Phonologisch-morphologische Ebene
  • Lexemauswahl

  • morphologische Markierung

  • Planungsrahmen für Morpheme

morphologische Repräsentation mit Zugriff auf Lexeme
Phonologisch-phonetische Ebene
  • Festlegung der Phonemabfolge

  • Anwendung phonologischer Regeln

  • Planungsrahmen für Artikulationsgesten

phonologische Repräsentation mit Zugriff auf Silben
Artikulatorische Ebene
  • motorischer Plan

Äußerung

Phasen des Kohort-Kohort-Modell:PhasenModells

4

Da es sich um Phoneme und gesprochene Sprache handelt, ist /band/ hier kein Wort der deutschen Sprache.

Tab. 1.3
Input Phase Kohorte
/b/ Aktivierungsphase braun, Ball, bald, Bandage, Bad, blau, Berg, Bund, billig, Banner, Banane, …
/ba/ Deaktivierungsphase Ball, bald, Bandage, Bad, Banner, Banane, …
/ban/ Bandage, Banner, Banane, …
/band/4 Diskriminationspunkt Bandage

Phasen der Sprachverarbeitung:PhasenSprachverarbeitung

Tab. 1.4
Phase Zeit in ms EKP-Effekt Verarbeitungsprozess
Phase 1 100–300 ELAN Integration der Wortkategorie-Infomation in den Phrasenstrukturaufbau
Phase 2 300–500 LAN (N400) Integration der morphosyntaktischen und semantischen Information
Phase 3 500–1.000 P600 Reanalyse und Reparatur

Sprachverarbeitung

Tanja Hüttner

Einleitung

Die Verarbeitung von SprachverarbeitungSprache ist ein sehr komplexer und extrem schnell ablaufender kognitiver Vorgang, zu dem ausschließlich der Mensch in der Lage ist (Herrmann & Fiebach 2004). Sprache wird automatisch und unbewusst im Gehirn verarbeitet. Um Sprache verstehen und produzieren zu können, braucht das Sprachverarbeitungssystem gespeicherte linguistische Einheiten wie Phoneme, Grapheme, Morpheme und Wörter. Zusätzlich zu den linguistischen Einheiten braucht das System Regeln, nach denen es diese Einheiten kombinieren kann. Als Regeln werden hier nicht nur syntaktische und morphologische Regeln bezeichnet, sondern alle Regeln, die sich auf die Kombination linguistischer Einheiten beziehen. Zu den Regeln gehört also auch die phonologische Regel der Phonemabfolge für den Silbenvorspann im Deutschen, die eine kr-Abfolge am Silbenanfang erlaubt, eine rk-Abfolge aber verbietet.
Sowohl die Regeln als auch die linguistischen Einheiten müssen zunächst für die jeweilige Sprache erworben und gespeichert werden, um dem SprachverarbeitungssystemSprachverarbeitungssystem als Information zur Verfügung zu stehen.
Die Verarbeitung von Sprache erfolgt in zwei Richtungen:
  • Bei der SprachproduktionSprachproduktion wird ein Gedanke mithilfe von Wörtern und Regeln in einen Satz umgewandelt. Dieser kann dann in geschriebener oder gesprochener Form produziert werden.

  • Beim SprachverstehenSprachverstehen1

    1

    An dieser Stelle wird bewusst nicht der Begriff Sprachperzeption verwendet, da dieser im deutschsprachigen Raum häufig für den Prozess der Sprachwahrnehmung benutzt wird.

    wird ein akustisches oder visuelles Signal wahrgenommen, d. h. Sprache wird gehört oder gelesen. Dieser Input wird mit den im Gehirn gespeicherten Phonemen oder Graphemen verglichen. Mithilfe von Wörtern und Regeln kann dann die Satzbedeutung entschlüsselt und ein Gedanke generiert werden.

Je nach Input und Output der Verarbeitung ergeben sich die vier Modalitäten Sprechen, Verstehen, Lesen und Schreiben.
Wie schnell die Verarbeitung von Sprache stattfindet, verdeutlicht die sprachliche Äußerung in Abb. 1.1. Das Sonagramm zeigt, wie die klangliche Umsetzung einer Äußerung auf das Ohr eines Zuhörers treffen würde. Die Äußerung Mimi schenkt Titus einen Apfel, obwohl er noch klein ist besteht aus einem Haupt- und einem Nebensatz. Die beiden Sätze bestehen insgesamt aus 10 Wörtern, 12 Morphemen, 15 Silben und 40 Phonemen. Für die Produktion der Äußerung braucht der Sprecher nur 2,8 Sekunden, d. h. er produziert durchschnittlich alle 0,3 Sekunden ein Wort. Da wir Sprache inkrementell, also praktisch online, verarbeiten, braucht ein Zuhörer auch eine ähnlich kurze Zeit, um diese Äußerung zu verstehen (Marslen-Wilson 1973, 1975, ).
In dieser kurzen Zeit müssen viele spezifische Teilprozesse im Sprachverarbeitungssystem aktiviert werden. Zunächst müssen die Wörter aus dem Lexikon auswählt werden. Dann muss das System jedem Wort eine grammatische Funktion und eine morphologische Markierung zuweisen, und es muss die Satzstrukturen für die jeweiligen Sätze festlegen. All dies geschieht in nur 3 Sekunden.
Die Präzision und die Geschwindigkeit, mit der Menschen Sprache verarbeiten, lässt eine modulare Verarbeitung vermuten (Fodor 1983). Kognitive Sprachverarbeitung:ModuleModule haben die Eigenschaft, nur eine spezifische Art von Informationen (z. B. nur Sprache) verarbeiten zu können. Die Verarbeitung verläuft zwangsläufig und automatisch. Man nimmt an, dass das Sprachmodul aus weiteren spezifischen Verarbeitungsmodule:SpracheVerarbeitungsmodulen besteht (Caplan 1992), die jeweils nur auf die im Modul selbst gespeicherten Informationen zugreifen. In einem phonologischen Verarbeitungsmodul sind also die Phoneme einer Sprache gespeichert, und es ist ausschließlich dazu in der Lage, die am Ohr eintreffenden Schallwellen den entsprechenden Phonemen zuzuordnen. Dabei hat die Bedeutung der Phoneme im Wort keinen Einfluss auf die Verarbeitung.
Für die Modularitätsannahme spricht ebenfalls, dass Sprache im Gehirn lokalisierbar ist. Bei den meisten Menschen befinden sich die für die Sprachverarbeitung:HirnregionenSprachverarbeitung relevanten Hirnregionen:SprachverarbeitungHirnregionen in der linken Hemisphäre in der sog. Perisylvischen Region (Abb. 1.2). Grob lässt sich diese Region in zwei Zentren aufteilen:
  • Das Wernicke-Zentrum liegt am hinteren Ende der Lateralfurche (Sylvische Furche) und ist vorrangig für das Sprachverständnis zuständig.

  • Das Broca-Zentrum liegt am unteren Ende der Zentralfurche und ist vorrangig für die Sprachproduktion zuständig.

Sprachproduktion

Bei der SprachproduktionSprachproduktion wird ein Gedanke mithilfe von Wörtern und Regeln in Sprache umgesetzt. Hierbei ist der Output des Sprachverarbeitungsmoduls der motorische Plan für die phonologischen Lautketten beim Sprechen. Wie bereits beschrieben, sind die Anforderungen an das Verarbeitungsmodul sehr hoch. Deshalb kommt es auch bei sprachgesunden Menschen relativ häufig zu Versprechern. Die Analyse von Versprechern lässt interessante Rückschlüsse auf die Verarbeitungseinheiten und die Teilprozesse bei der Produktion von Sprache zu. Diese Tatsache hat zu einem eigenen wissenschaftlichen Forschungszweig geführt, der Versprecherforschung2

2

Zur Versprecherforschung im Deutschen siehe Leuninger (1983) und Wiedemann (1998)

. Versprecher werden im folgenden Abschnitt noch genauer betrachtet.
Basierend auf der Analyse von Versprecherdaten wurden auch Modelle zur Sprachproduktion entwickelt. Als besonders einflussreich haben sich dabei die Modelle von Willem Levelt und Merill Garrett erwiesen. Das von M. F. Garrett in den 1980er-Jahren in den USA entwickelte Modell dient bis heute als Modell für Untersuchungen der Sprachproduktion (Dietrich 2002). Das Modell von Levelt (1989, 1999; Inderfey & Levelt 2000) ist eine detailliertere Fortführung des Modells von Garrett. In ▸ Abschnitt 1.2.2 wird der Prozess der Sprachproduktion daher in Anlehnung an diese Modelle beschrieben.

Sprachproduktion:DefinitionSprachproduktion umfasst die Auswahl von Wörtern, den Aufbau einer syntaktischen Struktur, die morphologische Markierung der Äußerung und das Bilden einer phonologischen Lautkette.

Versprecher

VersprecherVersprecher geben uns Aufschluss über zwei Aspekte der Sprachproduktion:VersprecherSprachproduktion, zum einen über die Größe der Einheiten, die verarbeitet werden, und zum anderen über die Art und Abfolge der Verarbeitungsprozesse. In Tabelle 1.1 werden zunächst die verschiedenen Verarbeitungseinheiten genannt, die durch Versprecher bei der Sprachproduktion betroffen sein können. Auch wenn sich die aufgeführten Beispiele relativ eindeutig bestimmten linguistischen Einheiten zuordnen lassen, ist die Klassifikation von Versprechern oft nicht einfach. Bei einem Versprecher wie be-animieren statt re-animieren ist z. B. keine eindeutige Zuordnung möglich. Es könnte sich gleichermaßen um die Ersetzung eines Phonems /b/, eines Morphems be- oder einer Silbe be handeln. Trotzdem belegen die aufgeführten Versprecher, dass es bei der Sprachproduktion Verarbeitungsprozesse gibt, für die verschiedene linguistische Einheiten relevant sind.3

3

Der Begriff Malapropismus geht auf die Theaterfigur von Mrs. Malaprop (Sheridan 1775) zurück, die gerne falsche Fremdwörter benutzte.

Wenn man Versprecherdaten betrachtet, fällt auf, dass nicht alle potenziell möglichen Versprecher auftreten. Das liegt daran, dass Versprecher:ConstraintsVersprecher Beschränkungen, sog. Constraints:VersprecherConstraints, unterliegen. Ein Versprecher wie Nauzaub statt Bauzaun wäre theoretisch möglich und auch aussprechbar. Er kann aber nicht auftreten, da der Laut /b/ als Anlaut der Silbe bau spezifiziert ist und der Laut /n/ als Auslaut der Silbe zaun. Die Sprachproduktion unterliegt aber der Beschränkung, dass zwei Laute nur vertauscht werden können, wenn sie für dieselbe Position in der Silbe spezifiziert sind. Der mögliche Versprecher wäre also Zaubaun statt Bauzaun. Ähnliche Beschränkungen gibt es auch für das Vertauschen von Wörtern. Wenn zwei Wörter miteinander vertauscht werden, müssen sie der gleichen Kategorie angehören. Ein Nomen kann also nur mit einem Nomen vertauscht werden, ein Verb nur mit einem Verb usw.
Versprecher auf der Wortebene geben außerdem einen Einblick in die Architektur des Lexikons. Da es auf dieser Ebene entweder phonologisch oder semantisch ähnliche Versprecher gibt, muss das Lexikon in einer phonologischen und einer semantischen Ebene gegliedert sein.

Ein Modell der Sprachproduktion

Für die Sprachproduktion:VerarbeitungsebenenSprachproduktion:Modell(e)Sprachproduktion werden fünf Ebenen der Verarbeitungebenen:SprachproduktionVerarbeitung angenommen.
Auf der Mitteilungsebene Mitteilungsebene:Sprachproduktionmuss sich der Sprecher zunächst entscheiden, was und wie er seinem Gesprächspartner etwas mitteilen will. Die Formulierung des Gedankens, dass man an einem bestimmten Problem weiterarbeiten möchte, kann sehr unterschiedlich ausfallen: Das Problem ist noch nicht gelöst, Ich gebe nicht auf, Ich lasse nicht locker oder Ich werde es weiter versuchen sind nur einige Möglichkeiten. In einem ersten Schritt muss das Verarbeitungssystem nun die passenden Konzepte für den Gedanken und die Mitteilungsabsicht auswählen und sie linearisieren. Diese Konzepte werden dann in einer präverbalen Symbolsprache repräsentiert. Der Versprecher Ich gebe nicht locker kann entstehen, weil hier offensichtlich zwei konzeptuell sehr ähnliche präverbale Repräsentationen gleich stark aktiviert wurden.
Auf der nächsten Ebene, der funktionalen funktionale Ebene:SprachproduktionEbene, wird die präverbale Repräsentation in eine verbale Repräsentation umgewandelt. Hierfür werden zunächst Bedeutungseinheiten aus dem mentalen Lexikon aktiviert. Diese Einheiten nennt man LemmasLemmas. Neben der Wortbedeutung enthalten die Lemmas auch Informationen über die Wortart, über das Genus eines Wortes und über wichtige semantische Eigenschaften wie z. B. die Belebtheit eines Nomens. Durch Fehler bei der Lemmaauswahl kommt es zu semantisch ähnlichen Wortersetzungen wie z. B. Fingernägel schminken statt lackieren. Besonders viele Informationen enthalten die Lemmaeinträge von Verben. Hier gibt die sog. Argumentstruktur vor, mit welchen Elementen das Verb im Satz verbunden werden muss. Ein Verb wie zeigen verlangt z. B. drei Argumente: jemanden, der zeigt, jemanden, dem etwas gezeigt wird, und ein Objekt, auf das gezeigt wird. Das Verb zeigen verlangt also ein Subjekt, ein direktes Objekt und ein indirektes Objekt. Auf der funktionalen Ebene wird diese Information dazu genutzt, eine vom Verb ausgehende syntaktische Repräsentation aufzubauen. Dabei wird auch festgelegt, welcher Lemmaeintrag Subjekt oder Objekt des Satzes sein soll. Läuft diese grammatische Funktionszuweisung schief, entsteht ein Versprecher wie Der kleine Hund schenkt der Oma einen Knochen. Hier wurde das Subjekt die Oma zum indirekten Objekt und das indirekte Objekt dem kleinen Hund zum Subjekt. Interessant ist hier, dass die morphologischen Markierungen für Subjekt und Objekt korrekt sind, da diese erst auf einer späteren Ebene zugewiesen werden. Hier zeigt sich die oben beschriebene Eigenschaft von Modulen (Kap. 1.1). Da das Modul der folgenden Ebene keinen Zugriff mehr auf die Lemma-Information hat, weist es die korrekte morphologische Markierung zu, auch wenn die Bedeutung des Satzes falsch ist.
Die phonologisch-morphologische phonologisch-morphologische Ebene:SprachproduktionEbene dient dazu, zu den Lemmas passende LexemeLexeme, d. h. Wortformen, abzurufen und ihre morphologischen Markierungen zu kodieren. Außerdem wird hier ein Planungsrahmen erstellt, in den die einzelnen Morpheme eingesetzt werden. Besonders aufschlussreich für die Verarbeitung auf dieser Ebene ist der Versprecher Da machen die Kinde und das Hund das gleiche Gesicht. Offensichtlich war die Äußerungsabsicht Da machen die Hunde und das Kind das gleiche Gesicht. Die Linearisierung der Äußerung auf der Mitteilungsebene und die Auswahl der Lemmas sind hier jeweils korrekt erfolgt. Auch die Funktionszuweisung (für die Hunde als Subjekt im Nominativ und für das Kind als Objekt im Akkusativ) war erfolgreich. Allerdings ist bei der Einsetzung der einzelnen Morpheme in den Planungsrahmen ein Fehler aufgetreten. Das Morphem die und das Pluralmorphem -e der Subjektphrase die Hund-e stehen an der richtigen Stelle. Allerdings wurde das Morphem Hund mit dem Morphem Kind vertauscht.
Auf der letzten Ebene, der phonologisch-phonetischen phonologisch-phonetische Ebene:SprachproduktionEbene, wird auf der Basis der Morphemabfolge die Anordnung der PhonemePhoneme festgelegt. Hier sind phonologische Regeln wie die Auslautverhärtung im Deutschen wirksam. Und mithilfe von Informationen aus dem Silbenlexikon wird wiederum ein Planungsrahmen für die ArtikulationsgestenArtikulationsgesten erstellt. Durch falsch eingesetzte Artikulationsgesten in den Planungsrahmen kommt es zu Phonemvertauschungen wie bei dem Versprecher Schugel Koko statt Kugel Schoko.
Auf der artikulatorischen artikulatorische Ebene:SprachproduktionEbene werden die Informationen über die einzelnen Artikulationsgesten in einen motorischen Plan umgewandelt, damit die Mitteilung ausgesprochen werden kann. Versprecher auf dieser Ebene wären fehlgebildete Laute.
Tabelle 1.2 zeigt die fünf Ebenen, die Verarbeitungsprozesse:SprachproduktionVerarbeitungsprozesse und die jeweiligen Repräsentationen:SprachproduktionRepräsentationen noch einmal im Überblick.
Inderfrey & Levelt (2000) nehmen zusätzlich zu den oben beschriebenen Ebenen einen Kontrollmechanismus an, der nach dem Aussprechen der Äußerung beginnt. Er würde erklären, weshalb Sprecher sich oft selbst verbessern oder eine Äußerung abbrechen, wenn sie einen Versprecher wahrnehmen. Darüber hinaus vermuten sie, dass ein früherer Kontrollmechanismus:VersprecherKontrollmechanismus bereits vor dem Aussprechen einer Äußerung aktiviert wird, da Sprecher Versprecher manchmal schon korrigieren, bevor sie diese ausgesprochen haben. Leuninger (1993) zufolge können Versprecher:KontrollmechanismusVersprecher wie Ich gebe nicht locker auch deshalb entstehen, weil ein früher Kontroll- und Korrekturmechanismus dafür sorgt, dass die Äußerung lexikalisch und grammatisch so korrekt wie möglich formuliert wird.

Sprachverstehen

Ähnlich wie die Sprachproduktion ist auch das SprachverstehenSprachverstehen ein komplexer und extrem schnell ablaufender kognitiver Prozess, der aus mehreren Teilprozessen besteht. Um eine Äußerung zu verstehen, muss zunächst das kontinuierliche Sprachsignal (vgl. das Sonagramm in Abb. 1.1) wahrgenommen und in Laute segmentiert werden. Diese Lautmuster müssen dann mit den im Lexikon gespeicherten Phonemen abgeglichen werden. Sobald die Phoneme identifiziert sind, ist es möglich, aus der Phonemabfolge Wörter zu segmentieren und die entsprechenden Wortformen im Lexikon zu aktivieren. Um die Bedeutung von ganzen Sätzen zu verstehen, muss zusätzlich auf das grammatische Regelwissen zugegriffen werden. Anhand der syntaktischen Struktur des Satzes lässt sich dann die Bedeutung der Äußerung berechnen.

Sprachverstehen:DefinitionSprachverstehen umfasst die Wahrnehmung und Segmentierung des akustischen Signals, die Aktivierung von Phonemen und Wörtern, den Aufbau einer syntaktischen Struktur und die Zuweisung einer Bedeutung.

Sprachwahrnehmung

Die SprachwahrnehmungWahrnehmung von Sprache erfolgt über ein akustisches Signal, das vom äußeren Ohr über das Mittelohr zum Innenohr gelangt und dort in neuronale Impulse umgewandelt wird. Diese Impulse werden dann zum Gehirn weitergeleitet und vom Hörer interpretiert.
Bei der Wahrnehmung von Phonemen stellen sich gleich mehrere Herausforderungen.
  • Zum einen folgen die akustischen Informationen sehr schnell und kontinuierlich aufeinander, da beim Sprechen keine Pausen zwischen den einzelnen Phonemen und Wörtern gemacht werden.

  • Zum anderen ist gesprochene Sprache nicht immer gleich, sondern sehr variabel. Ein Phonem wird nicht nur von unterschiedlichen Sprechern verschieden realisiert, es hat auch eine andere akustische Realisierung, je nach phonetischem Kontext und Position in der Silbe. Der Übergang von einem Phonem zum nächsten ist meistens fließend, da sich die phonetischen Eigenschaften benachbarter Phoneme vermischen (Höhle 2010).

Wie das Verarbeitungssystem diese Probleme löst, ist bis heute nicht ganz klar.
Eine mögliche Erklärung bietet die kognitive Fähigkeit Wahrnehmung:kategorialeder kategorialen Wahrnehmung. Diese Fähigkeit ermöglicht es, einen gehörten Laut einer bestimmten abstrakt repräsentierten Kategorie zuzuordnen (Pisoni 1977). Die Lautdiskriminierungsfähigkeit wurde auch in neurophysiologischen Experimenten belegt (Abschnitt. 1.4). Als sog. Mismatch Mismatch NegativityNegativity bezeichnet man ein ereigniskorreliertes Potenzial, das im Gehirn auftritt, wenn ein Proband Laute auditiv diskriminiert (Näätänen et al. 2001; Oberecker et al. 2005).
Die Entdeckung von Spiegelneuronen (Rizzolati & Craighero 2004) stützt dagegen eine Annahme aus den 80er-Jahren, der zufolge die Wahrnehmung von Lauten eng mit der Produktion von Lauten verbunden ist. Die sog. MotortheorieMotortheorie (Liberman & Mattingly 1985) geht davon aus, dass Phoneme nicht mit im Lexikon gespeicherten abstrakten Phonemeinträgen verglichen werden, sondern mit ArtikulationsgestenArtikulationsgesten, die zur Produktion eines solchen Lautes führen könnten. Das heißt, der Hörer vollzieht die zur Produktion dieses Lautes notwendigen Artikulationsbewegungen im Gehirn nach. Auch der McGurk-Effekt zeigt, wie eng die Wahrnehmung von Lauten mit den Artikulationsgesten verbunden ist. In einem Experiment sollten Probanden Silben wie /ba/ oder /ga/ identifizieren. Dabei wurde ihnen zum auditiven Stimulus /ba/ ein Gesicht gezeigt, das die Silbe /ga/ artikuliert. McGurk & MacDonald (1976) fanden heraus, dass die Probanden sich von der beobachteten artikulatorischen Geste beeinflussen ließen und die auditive Analyse an die gesehene artikulatorische Geste anglichen.
Eine weitere Erklärung dafür, wie Hörer den variablen und kontinuierlichen Input für die Worterkennung aufbereiten, bieten sog. prälexikalische Input-Repräsentationen:prälexikalischeprälexikalische Input-RepräsentationenRepräsentationen. Dabei handelt es sich um Schnittstellenrepräsentationen zwischen dem akustischen Input und der Worterkennung. Auf dieser prälexikalischen Ebene könnten dann die Phoneme kategorisiert, phonologische Regeln und Segmentierungsstrategien angewendet und prosodische Merkmale identifiziert werden.

Worterkennung

Bei Modellen der WorterkennungWorterkennung geht man grundsätzlich davon aus, dass Wörter als lexikalische Repräsentationen:lexikalischelexikalische RepräsentationenRepräsentationen in einem mentalen Lexikon gespeichert sind. Diese Repräsentationen enthalten zum einen Informationen über die Wortform und zum anderen über die Wortbedeutung. Zusätzlich enthalten sie noch grammatische Informationen wie die Wortart, das Genus bei Nomen oder die Argumentstruktur bei Verben. Levelt (1989) unterscheidet im mentalen Lexikon zwei Ebenen. Auf der Lemma-Ebene sind die semantischen und syntaktischen Informationen eines Wortes gespeichert und auf der Lexem-Ebene die phonologischen und morphologischen Informationen.
Der Prozess der Worterkennung beschreibt nun, wie der physikalische Input, der mit den Sinnesorganen wahrgenommen werden kann, zu diesen lexikalischen Repräsentationen gelangt, um alle Informationen über ein Wort zu bekommen.

Informationen der lexikalischen Repräsentation eines Wortes (Glück 2007)

  • semantische Eigenschaft: Wortbedeutung

  • phonologische Eigenschaft: Lautkette/Wortform

  • morphosyntaktische Eigenschaft: Flektierbarkeit/Flexionsparadigma

  • syntaktische Eigenschaft: Wortart, mögliche syntaktische Funktionen, Argumentstruktur von Verben

Betrachtet man eher den Prozess der Wortsuche an sich, gibt es zwei prominente Modelle, die diesen Teilaspekt besonders detailliert darstellen. Marlsen-Wilson & Welsh (1978) gehen in ihrem seriellen Kohort-Kohort-ModellModell davon aus, dass bereits der erste verarbeitete Laut zunächst eine Kohorte von Wörtern aktiviert, die mit diesem Laut beginnen (Aktivierungsphase). In einer zweiten Phase (Deaktivierungsphase) werden weitere Laute des Inputs analysiert und immer mehr Kandidaten aus der Anfangskohorte ausgeschlossen, wenn sie nicht mehr mit dem Input übereinstimmen (Tab. 1.3). Dies geschieht durch Inhibition bis zum Diskriminationspunkt. An diesem Punkt, an dem nur noch ein Wort in der Kohorte ist, kann auf die vollständige lexikalische Repräsentation zugegriffen werden. Da dieser lexikalische Zugriff oftmals schon erfolgen kann, bevor das Wort zu Ende gesprochen ist, wird das Problem der Segmentierung des kontinuierlichen Lautstroms gelöst. Durch die Vorhersage des Wortendes, die am Diskriminationspunkt möglich ist, lässt sich der Beginn des nächsten Wortes vorhersagen. Diese Strategie wird auch als lexikalische lexikalische SegmentierungSegmentierung bezeichnet. In einer Weiterentwicklung des Kohort-Modells von McQueen et al. (1994) wird eine metrische Segmentierung:lexikalischeSegmentierungsstrategie postuliert. Bei dieser Strategie werden Wörter mit betonter Anfangssilbe stärker aktiviert als Wörter mit unbetonter Anfangssilbe.
Der Vorteil des Kohort-Modells besteht darin, dass es genaue Vorhersagen darüber macht, wann ein Wort erkannt wird und wie die Kandidatenmenge beschaffen ist. Die Annahme, dass die Kandidaten der Anfangskohorte genau den gleichen Anfangslaut haben wie der Input, birgt aber auch Schwierigkeiten. Wenn man den Anfang eines Wortes nicht hört, dürfte das Zielwort eigentlich gar nicht in der Kohorte zur Auswahl stehen. Ein Hörer ist aber sehr wohl in der Lage das Wort …schnbecher online zu identifizieren.
Einen anderen Weg vom Laut zum lexikalischen Zugriff postulieren McClelland & Rumelhart (1981) mit ihrem Modell. TRACE (Netzwerkmodell)TRACE ist ein Netzwerkmodell TRACENetzwerkmodell, das ursprünglich für die Erkennung geschriebener Sprache entwickelt wurde. In der Version für gesprochene Sprache gehen McClelland & Elman (1986) davon aus, dass die erste Ebene des Netzwerks aus Knoten für phonetische Merkmale, die zweite Ebene aus Knoten für Phoneme und die dritte Ebene aus Knoten für Lexeme besteht. Diese neuronenartigen Knoten sind also in drei Ebenen angeordnet. Jeder Knoten ist mit jedem Knoten im Netzwerk verbunden. Dabei gelten die Verbindungen zwischen den Ebenen als fördernde Verbindungen und die Verbindungen innerhalb einer Ebene als hemmende Verbindungen. Wird also das phonetische Merkmal nasal durch den Input aktiviert, hemmt es andere Merkmale auf der Merkmalsebene. Gleichzeitig werden die PhonemePhoneme /m/ und /n/ auf der Phonemebene aktiviert, die wiederum andere Phoneme hemmen. Kommt das Merkmal labial hinzu, wird das Phonem /m/ noch stärker aktiviert und kann so den konkurrierenden Laut /n/ hemmen. Man spricht hier von einer Inhibition innerhalb der Ebene. Der Laut /m/ aktiviert nun durch das erschöpfende Übereinstimmungsprinzip alle LexemeLexeme, in denen ein /m/ vorkommt. Also nicht nur Mund, modisch und meckern, sondern auch Hemd, schlimm und immer. Im Gegensatz zum Kohort-Modell, bei dem die Verarbeitung nur in eine Richtung läuft, wird hier zusätzlich eine Aktivierung von der Wort- zur Phonemebene angenommen.
Das Logogenmodell5

5

Gute grafische Darstellungen des Modells findet man im LEMO-Lexikon Modellorientiert von De Bleser et al. (2004) und in Lese-Rechtschreib-Störungen von Brandenburger & Klemenz (2009).

von Morton (1969) wurde ursprünglich für die visuelle und auditive Worterkennung entwickelt. Hierzu wurden zunächst Leseexperimente mit sprachgesunden und aphasischen Probanden durchgeführt. Um auch die Verarbeitungsprozesse beim Schreiben, Nachsprechen und Benennen von Bildern erklären zu können, wurde das Modell später erweitert. Heute kommt das LogogenmodellLogogenmodell meistens in der Version von Patterson (1988) zur Anwendung. In dieser Version werden zwei prälexikalische Analysesysteme angenommen:
  • Das auditiv-phonologische Analysesystem dient der Mustererkennung für die Identifikation und Kategorisierung von Phonemen.

  • Das visuell-graphematische Analysesystem dient der Erkennung von Graphemen.

Die lexikalischen lexikalische Repräsentationen:Input-/Output-LexikaRepräsentationen der Wörter sind in vier modalitätsspezifischen Lexika gespeichert.
  • Für die Worterkennung werden ein phonologisches Input-Lexikon zum Erkennen gesprochener Wörter und ein graphematisches Input-Lexikon zum Erkennen geschriebener Wörter angenommen.

  • Für die Wortproduktion werden dementsprechend ein phonologisches und graphematisches Output-Lexikon postuliert.

Zusätzlich wird für alle Input- und Output-Lexika ein gemeinsames semantisches System für die Wortbedeutung angenommen (De Bleser et al. 2004). Die einzelnen Wörter sind in den Input- und Output-Lexika als sog. Logogene gespeichert. Diese Logogene haben Schwellenwerte für die Aktivierung. Werden die Phoneme /h/, /a/, /u/ und /s/ vom auditiv-phonologischen Analysesystem erkannt, geben sie die Aktivierung weiter an das phonologische Input-Lexikon und aktivieren dort das Logogen Haus. Ist die Aktivierung so stark, dass der Schwellenwert erreicht wird, „feuert“ das Logogen und aktiviert dadurch die semantische Repräsentation von Haus im semantischen System.
Im Gegensatz zum Kohort-Modell und zum Netzwerkmodell TRACE wird beim Logogenmodell auch eine nicht-lexikalische Verarbeitungsroute angenommen. So kann man mit dem Logogenmodell auch die Verarbeitung von Nichtwörtern erklären.
Lexikalische Effekte
Bei der Verarbeitung von Wörtern treten lexikalische lexikalische EffekteEffekte auf. So zeigt sich z. B. in verschiedenen Aufgaben zur Worterkennung:lexikalische EffekteWortverarbeitung ein FrequenzeffektFrequenzeffekt. Bei diesem Effekt werden Wörter, die generell häufiger aktiviert werden, schneller verarbeitet als Wörter, die nur sehr selten aktiviert werden. Das Wort Haus kann also schneller erkannt werden als das Wort Zorn, obwohl beide Wörter gleich lang sind. Im Logogenmodell wird dieser Effekt dadurch erklärt, dass der Schwellenwert für hochfrequente Wörter niedriger ist. Deshalb „feuert“ das hochfrequente Logogen schneller als ein niedrigfrequentes Logogen. In Netzwerkmodellen wird angenommen, dass ein hochfrequentes Wort stärkere Verbindungen zu den angrenzenden Knoten hat als ein niedrigfrequentes Wort. Diese stärkeren Verbindungen, die sowohl fördernd als auch hemmend sein können, bewirken, dass sich das hochfrequente Wort schneller gegen seine Konkurrenten durchsetzt.
Ein weiterer lexikalischer Effekt ist der Priming-Effekt. Dieser Priming-EffektEffekt entsteht bei der Voraktivierung von Wörtern und führt dazu, dass Wörter, die bereits voraktiviert sind, schneller erkannt werden als nicht voraktivierte Wörter. Das Priming kann direkt oder indirekt erfolgen. Beim direkten Priming wird das spätere Zielwort Haus z. B. erst nachgesprochen und soll anschließend laut gelesen werden. Hier wäre zu erwarten, dass der Proband Haus schneller lesen kann, wenn er dieses Wort vorher nachgesprochen hat. Und es wäre zu erwarten, dass er das Wort langsamer liest, wenn ein vorher gelesenes Wort weder phonologisch noch semantisch mit Haus in Beziehung steht. Denn indirekt lässt sich das Wort Haus auch voraktivieren, indem zunächst ein phonologisch oder semantisch ähnliches Wort wie Laus oder Hütte nachgesprochen wird.
In allen Modellen der Worterkennung:AktivierungWorterkennung wird angenommen, dass mehrere Kandidaten aktiviert werden und dass die Aktivierung einer lexikalischen Repräsentation nur langsam abnimmt. So hat ein einmal aktiviertes Wort für einen gewissen Zeitraum ein erhöhtes Aktivierungslevel. Bei einer erneuten Aktivierung dieses Wortes ist daher weniger Potenzial nötig, um es zu aktivieren.
Außerdem werden bei der Aktivierung eines Wortes phonologisch und semantisch ähnliche Kandidaten mitaktiviert.
Je nach Aufgabenstellung können statt eines Priming-Effekts aber auch lexikalische Wettbewerbseffekte:lexikalischeWettbewerbseffekte auftreten. So führt der Prime Maus zu einer langsameren Verarbeitung des Wortes Haus, wenn anschließend in einer lexikalischen Entscheidungsaufgabe bestimmt werden soll, ob Haus ein Wort oder ein Nichtwort (Neologismus) ist. Anscheinend kommt es hier zu starken, wechselseitig hemmenden Effekten zwischen dem Primewort Maus und dem Zielwort Haus.
Bei der Verarbeitung von Neologismen:VerarbeitungNeologismen kommt es zum sog. WortüberlegenheitseffektWortüberlegenheitseffekt. Vergleicht man die Verarbeitung von Wörtern und von Neologismen, fällt auf, dass Neologismen generell langsamer verarbeitet werden als Wörter. Begründet wird dies damit, dass Neologismen nicht über das lexikalische Verarbeitungssystem verarbeitet werden. Hierfür werden im Logogenmodell die nicht-lexikalischen Verarbeitungsrouten angenommen.
Morphologie
Alle bisher vorgestellten Modelle sind Modelle zur Erkennung monomorphematischer monomorphematische Wörter:ErkennungWörter. Im Sprachgebrauch nutzen wir aber überwiegend morphologisch komplexe Wörter. Im Deutschen dient die Kombination von Morphemen vor allem der grammatischen Markierung. Die Flexion von Verben spielt dabei eine zentrale Rolle. In Kompositionen wie Badewanne oder hellgrün sind aber auch Nomen oder Adjektive miteinander verbunden. Oder Wörter werden durch Derivationsmorpheme in eine andere Wortart überführt (wie bei bürst-en).
Grundsätzlich gibt es zwei Annahmen zur Erkennung polymorphematischer polymorphematische Wörter:ErkennungWörter:
  • Entweder haben alle morphologisch komplexen Wörter einen eigenen lexikalischen Eintrag,

  • oder es gibt Einträge für jedes einzelne Morphem.

Wenn alle polymorphematischen Wörter einen Eintrag hätten, gäbe es jeweils einen Eintrag für kaufen, kaufe, kaufst, kauft, gekauft, kaufte usw. Das heißt, das Verarbeitungssystem würde mono- und polymorphematische Wörter auf die gleiche Weise verarbeiten (Butterworth 1983; Manelis & Tharp 1977). Andererseits müsste man, wenn alle Morpheme einzeln gespeichert sind, einen prälexikalischen morphologischen Analyseprozess bei der Worterkennung annehmen. Für beide Hypothesen gibt es Evidenzen (Schriefers 1999; Zwitselood 1999). Um die widersprüchlichen Evidenzen in Einklang zu bringen, wurden Modelle entwickelt, die einen prälexikalischen Analyseprozess und parallel dazu eine ganzheitliche Verarbeitung von polymorphematischen Wörtern annehmen. Diese parallele Verarbeitung wird u. a. im Augmented Addressed Morphology Augmented Addressed Morphology Model der WortverarbeitungModel von Caramazza (1988) angenommen. Die Verarbeitung eines Wortes erfolgt hier immer über den Prozess, der schneller abläuft. Da für die ganzheitliche Verarbeitung vermutlich weniger Verarbeitungsschritte nötig sind, dürfte meistens dieser Weg genutzt werden.
Hinsichtlich der Verarbeitung polymorphematischer Wörter haben Cholewa & De Bleser (1995) in ihrer Modellierung des erweiterten Logogenmodells zwischen verschiedenen Wortbildungsprozessen unterschieden. Hier findet die Verarbeitung von Wortkompositionen und Derivationen im Lexikon statt, während die Flexion als Teil des phonologischen Verarbeitungsprozesses betrachtet wird.

Satzverarbeitung

Die SatzverarbeitungVerarbeitung von Sätzen wird in der Literatur auch als ParsingParsing (to parse = gliedern) bezeichnet. Ähnlich wie das lexikalische Verarbeitungsmodul dem akustisch-phonologischen Input bei der lexikalischen Verarbeitung Wortformen und Wortbedeutungen zuweist, nimmt man als syntaktisches Verarbeitungsmodule:ParserVerarbeitungsmodul einen Parser an. Der Parser baut mithilfe von syntaktischen Regeln und den grammatischen Informationen der Wörter eine syntaktische Struktur auf. Diese syntaktische Struktur bildet wiederum den Input für das semantische Verarbeitungsmodul, das die Bedeutung des Satzes berechnet (Friederici 2002). Auch hier wird davon ausgegangen, dass es sich beim Parser um ein Modul des Sprachverarbeitungssystem:ParserSprachverarbeitungssystems handelt, das ausschließlich dazu in der Lage ist, einer Wortkette eine syntaktische Struktur zuzuweisen. Dabei wird das Modul nicht von der Bedeutung des Satzes oder von Weltwissen beeinflusst (zu den Eigenschaften von Modulen Kap. 1.1).
Der spezifische Input für den Parser ist das Wort. Der Parser nutzt aber nicht die Bedeutung der Wörter, sondern nur deren grammatische und morphologische Informationen wie Wortkategorie, Verbargumentstruktur und den Kasus des Wortes. Zudem greift der Parser auf syntaktische Regeln der Sprache zu, um die syntaktische Struktur einer Äußerung zu berechnen. Zur schnelleren Satzverarbeitung:inkrementelleVerarbeitung arbeitet der Parser dabei inkrementelle Verarbeitunginkrementell, d. h. gleich nach dem ersten Wort wird ein Teil der syntaktischen Struktur aufgebaut und vom semantischen Modul interpretiert.

Ist das erste Wort z. B. der Artikel Den…, bekommt der Parser die lexikalische Information, dass es sich um einen maskulinen Artikel im Akkusativ-Singular handelt. Mit dieser Information kann der Parser bereits eine Nominalphrase aufbauen, denn eine syntaktische Regel besagt, dass einem Artikel ein Nomen folgen muss. Die Kasusinformation Akkusativ weist auf eine Objekt-Nominalphrase hin. Die syntaktischen Regeln geben dem Parser vor, dass jeder Satz, der ein Objekt hat, auch ein Subjekt haben muss. Der Parser kann also bereits nach dem ersten Wort eine vollständige Satzstruktur mit freien Lücken für Subjekt, Objekt und Verb aufbauen. Diese inkrementelle Verarbeitung ermöglicht es dem Hörer, Sprache praktisch online zu verarbeiten.

Durch diesen syntaktisch geleiteten schnellen Strukturaufbau können aber auch Schwierigkeiten auftreten. Denn der schnelle Aufbau einer bestimmten Struktur geschieht selbst dann, wenn die Bedeutung des Satzes dadurch absurd wird. Bei dem Satz Der Professor küsst die Studentin mit dem Briefbeschwerer scheint die Anbindung der Präpositionalphrase an das Subjekt Der Professor vom Parser bevorzugt zu werden. Dabei ist es eher unwahrscheinlich, dass der Professor mit einem Briefbeschwerer küsst. Auch in dem Satz Das blinde Huhn sieht Gretel interpretiert der Parser das blinde Huhn zunächst als Subjekt, obwohl eine blinde Person nicht sehen kann und das blinde Huhn daher das Objekt des Satzes sein muss.
Diese Beispiele zeigen, dass bei der Satzverarbeitung rein strukturelle Prinzipien Berücksichtigung finden und dass sofort mit dem ersten Wort eine syntaktische Struktur aufgebaut wird. Die Bedeutung der Wörter und das Weltwissen haben offensichtlich keinen Einfluss auf diesen Verarbeitungsprozess.
Ambiguitäten
Die Aufgabe des Parsers ist es, einer Äußerung eine syntaktische Struktur zuzuweisen. Aber schon bei einem scheinbar einfachen Satz wie Lisa kauft den Kuchen ihrer Mutter könnten sich für den Parser Schwierigkeiten ergeben. Spontan würde man den Satz sicherlich so interpretieren, dass Lisa einen Kuchen für ihre Mutter kauft. Den Kuchen wäre hier das direkte Objekt und ihrer Mutter das indirekte Objekt. Wenn allerdings auf einem Schulfest selbstgebackener Kuchen verkauft wird, könnte man den Satz auch so interpretieren, dass Lisa den Kuchen kauft, den ihre Mutter gebacken hat. In diesem Fall wäre den Kuchen ihrer Mutter das direkte Objekt. Es gibt also zwei syntaktische Strukturen und zwei mögliche Interpretationen für diesen Satz.
Sätze dieser Art werden als ambig (mehrdeutig) bezeichnet. AmbiguitätenAmbiguitäten treten in der Sprache sehr häufig auf. Ambig ist z. B. die Bedeutung des Wortes Pony, das sowohl für ein kleines Pferd als auch für eine bestimmte Frisur stehen kann. Auch in der Morphologie gibt es Ambiguitäten. So ist in dem Satz Die Richterinnen küssen die Verbrecher nicht eindeutig, ob die Nominalphrasen die Richterinnen und die Verbrecher im Nominativ oder im Akkusativ stehen. Deshalb könnten beide Nominalphrasen sowohl Subjekt als auch Akkusativ-Objekt des Satzes sein.
Für die Satzverarbeitung:AmbiguitätenSatzverarbeitung besonders interessant sind strukturell-syntaktische Ambiguitäten. Hierbei unterscheidet man zwischen globalen und lokalen Ambiguitäten:globaleAmbiguitäten. Als globale Ambiguitäten werden Sätze bezeichnet, für die es mehr als eine korrekte syntaktische Struktur gibt. Wie bereits beim Beispiel Lisa kauft den Kuchen ihrer Mutter erwähnt, bevorzugt der Parser bei Sätzen mit globaler Ambiguität eine Struktur, sodass die Ambiguität meistens unbemerkt bleibt. Im Gegensatz zu Sätzen mit globalen Ambiguitäten:lokaleAmbiguitäten gibt es für Sätze mit lokalen Ambiguitäten aber immer nur eine mögliche syntaktische Struktur. Vergleicht man die lokal ambigen Sätze aus Bader (1996), stellt man fest, dass Leser für Satz (a) deutlich längere Lesezeiten brauchen als für Satz (b).
    • a.

      Paul berichtete, dass Klaus zugunsten von Petra nie etwas unternommen worden wäre.

    • b.

      Paul berichtete, dass Klaus zugunsten von Petra nie etwas unternommen hat.

Bei einigen lokal ambigen Sätzen können demnach Schwierigkeiten auftreten, die zu einer Zeitverzögerung bei der Verarbeitung führen. Diese Satzverarbeitung:Garden-Path-EffekteVerzögerung wird als Garden-Path-Effekt (Holzweg-Effekt) bezeichnet. Garden-Path-Garden-Path-EffekteEffekte sind ebenfalls ein Beleg dafür, dass die syntaktische Struktur sofort mit dem Einlesen eines Wortes aufgebaut wird. Der Effekt zeigt sich immer dann, wenn eine bereits aufgebaute Struktur verworfen wird und der Satz reanalysiert werden muss. Beim Lesen erscheint ein Satz mit Garden-Path-Effekt zunächst ungrammatisch. Am Punkt der Disambiguierung, also in Satz (a) bei worden wäre, stellt der Leser fest, dass das gerade verarbeitete Wort nicht in die Satzstruktur passt, die der Parser bereits aufgebaut hat. Der Leser kommt ins Stocken und weiß nicht, wie er den Satz interpretieren soll. In beiden Sätzen tritt die lokale Ambiguität bei zugunsten auf. Hier kann zugunsten entweder als Präpositionalphrase Klaus zugunsten oder als Präpositionalphrase zugunsten von Petra analysiert werden. Offensichtlich bevorzugt der Parser die zweite Analyse, sodass es in Satz (a) am Punkt der Disambiguierung bei worden wäre zu einem starken Garden-Path-Effekt kommt (Bader 1996). Obwohl auch in Satz (b) bei zugunsten eine lokale Ambiguität auftritt, kommt es in diesem Satz nicht zu Verarbeitungsschwierigkeiten, da die Disambiguierung hat zur bevorzugten Analyse von zugunsten von Petra als Präpositionalphrase passt. Nicht jeder Satz mit einer lokalen Ambiguität führt also zu einem Garden-Path-Effekt.
Modelle und Prinzipien der Satzverarbeitung
Modelle der Satzverarbeitung:ModelleSatzverarbeitung müssen erklären können, warum bei einigen Sätzen mit lokalen Ambiguitäten ein Garden-Path-Effekt auftritt und warum dieser Effekt manchmal ausbleibt. Geht man davon aus, dass es sich beim Parser um ein Modul handelt, sind mehrere Arten der Verarbeitung möglich, wenn der Parser auf eine Ambiguität stößt. Grundsätzlich kann er sich entweder sofort für eine Struktur entscheiden oder die Entscheidung aufschieben.
  • Entscheidet sich der Parser sofort (serielle Verarbeitung), muss zeitlich nach dem ersten Strukturaufbau zusätzlich eine Reanalyse stattfinden (Frazier 1987).

    • Dieser Reanalyse-Prozess erklärt, warum es bei der Verarbeitung:serielleVerarbeitung von lokalen Ambiguitäten zu Verzögerungen kommen kann. Die Verzögerung tritt auf, weil der Reanalyse-Prozess zusätzlichen Aufwand für den Parser bedeutet.

    • Tritt keine Verzögerung auf, war die erste Analyse des Satzes die richtige.

  • Trifft der Parser die Entscheidung nicht sofort, kann er entweder alle zum Input passenden Strukturen gleichzeitig aufbauen (parallele Verarbeitung) oder die Verarbeitung:verzögerteVerarbeitung:paralleleVerarbeitung so lange verzögern, bis der Punkt der Disambiguierung erreicht ist (verzögerte Verarbeitung). Bei diesen Verarbeitungswegen dürften eigentlich keine Garden-Path-Effekte auftreten. Auch hier sind also zusätzliche Annahmen notwendig, um das Auftreten von Garden-Path-Effekten zu erklären.

    • Bei der parallelen Verarbeitung wird deshalb angenommen, dass bestimmte Strukturen schwerer zugänglich sind. Tritt eine längere Verarbeitungszeit bei der Satzanalyse auf, handelt es sich um eine schwer zugängliche syntaktische Struktur.

    • Eine ähnliche Erklärung wird bei der verzögerten Verarbeitung angenommen; hier geht man von schwerer zu verarbeitenden syntaktischen Strukturen aus.

Mit den oben genannten seriellen, parallelen und verzögerten Verarbeitungsmodi lässt sich also erklären, warum Garden-Path-Garden-Path-EffekteEffekte auftreten oder ausbleiben. Die Verarbeitungsmodi erklären aber nicht, welche der möglichen Strukturen der Parser aufbaut, wenn er auf eine Ambiguität trifft. Um voraussagen zu können, für welche Struktur sich der Parser entscheidet, werden Parsing-Parsing-PrinzipienPrinzipien angenommen.
  • Das Minimal-Attachment-Minimal-Attachment-PrinzipPrinzip besagt, dass der Parser, um die Struktur so einfach wie möglich zu halten, Satzstrukturen mit möglichst wenig Verzweigungen bevorzugt. Schon ein Satzbeginn wie Die Richterinnen … sieht der Verbrecher erfordert eine Reanalyse, da Die Richterinnen zunächst als Subjekt in die Struktur eingebunden wird, weil eine subjekt-initiale Struktur weniger Verzweigungen hat als eine objekt-initiale Struktur.

  • Sollten bei einer Ambiguität beide möglichen Strukturen gleich viele Verzweigungen aufweisen, greift das Late-Closure-Late-Closure-PrinzipPrinzip. Dieses Prinzip besagt, dass das neue Wort sofort in die syntaktische Phrase integriert werden soll, die gerade bearbeitet wird. Für den Beispielsatz (Kap. 1.1) Mimi schenkt Titus einen Apfel, obwohl er noch klein ist erklärt das, warum der Nebensatz … obwohl er noch klein ist auf den Apfel und nicht auf die bereits verarbeitete Nominalphrase Titus bezogen wird.

Die hier aufgeführten Modelle und Prinzipien wurden überwiegend aus Beobachtungen beim Lesen von Sätzen abgeleitet (Townsend & Bever 2001). In der verbalen Kommunikation werden Ambiguitäten meistens durch die Satzintonation oder den Kontext aufgelöst. Neuere Ansätze der Satzverarbeitung gehen daher nicht mehr von einer rein modularen Verarbeitung, sondern eher von einem Netzwerkmodell aus, sodass auch semantische und prosodische Informationen, der Äußerungskontext oder die Frequenz bestimmter Satzstrukturen bei der Verarbeitung berücksichtigt werden können (Truswell et al. 1994, Friederici & Alter 2004).

Sprachverarbeitung in der Neurowissenschaft

Die in den vorangegangenen Abschnitten aufgeführten lexikalischen und syntaktischen Effekte wurden zunächst überwiegend durch Leseexperimente, Grammatikalitätsbeurteilungen oder Messungen der Blickbewegung belegt. All diese Experimente sind sog. Offline-Offline-ExperimenteExperimente, da ihre Messung zeitlich immer erst nach der Verarbeitung im Gehirn erfolgt. Durch die Messung von ereigniskorrelierten ereigniskorrelierte Potenziale\t \"Siehe EKPPotenzialen (EKP) gelingt es in der aktuellen Forschung, das Verarbeitungssystem direkt während der Verarbeitung zu beobachten.
Zur EKP-Messung werden den Probanden Elektroden in einem vorgegebenen Raster auf die Kopfhaut gelegt. Während der Verarbeitung registrieren die Elektroden den Aktivitätsunterschied zwischen verschiedenen Ableitungsorten. Diese sog. Potenzialverschiebungen entstehen, wenn im Gehirn viele Neuronen mit gleicher Ausrichtung aktiviert werden. Da bei der Verarbeitung von Sprache nur sehr minimale Potenzialverschiebungen entstehen, braucht man für ein signifikantes Ergebnis sehr viele Probanden und Testsätze und eine differenzierte Berechnung der erhobenen Daten. Bei sorgfältiger Erhebung und Analyse der Daten können die Ergebnisse von EKP-Messungen sehr differenzierte Informationen über die Verarbeitung von Sprache liefern.
Mit EKP-EKP-Messungen:SprachverarbeitungMessungen konnten viele der in den vorherigen Abschnitten beschriebenen Teilprozesse der Sprachverarbeitung:EKP-MessungenSprachverarbeitung belegt werden. Die hohe zeitliche Auflösung der EKP-Methode ermöglicht eine detaillierte Darstellung des zeitlichen Ablaufs der einzelnen Prozesse. So stützen EKP-Experimente die Annahme eines frühen syntaktischen Strukturaufbaus und der Reanalyse (Friederici 1995, 1999).
Um genaue Daten über den zeitlichen Ablauf der syntaktischen Verarbeitung zu erhalten, präsentierte Friederici den Probanden ungrammatische Sätze (Tab. 1.4). Hierbei zeigte sich, dass es ca. 100–300 ms nach der Präsentation eines ungrammatischen Satzes wie Die Gans wurde im gefüttert zu einer frühen links-anterioren Negativierung (ELAN – early left anterior negativity) kommt (Friederici et al. 1993). Diese EKP-EKP-KomponentenKomponente wurde dahingehend interpretiert, dass sie den initialen Phrasenstrukturaufbau zeigt, der bereits im Garden-Path-Modell von Frazier (1987) angenommen wurde (▸Kap. 1.2.3). Ein weiterer syntaktischer Effekt, der sich bei EKP-Experimenten finden lässt, ist eine links-anteriore Negativierung nach 300–500 ms (LAN – left anterior negativity). Dieser Effekt tritt auf, wenn in einem ungrammatischen Satz eine Kongruenzverletzung wie bei Die Bahn wurde fahren vorliegt. Der Effekt zeigt, dass die Integration von morphologischen Informationen ebenfalls sehr früh im Verarbeitungsprozess stattfindet. Der wohl robusteste EKP-Effekt ist die P600, eine Positivierung nach 500–1.000 ms. Dieser Effekt wird auch Reanalyse-Reanalyse-EffektEffekt genannt, weil er bei allen grammatischen Verletzungen und bei der Präsentation von Garden-Path-Sätzen auftritt (Osterhout & Holcomb 1992, 1993). Münte et al. (1998) fanden diesen Effekt auch bei semantischen Verletzungen wie Die Hexe benutzte ihren Traum, um zum Wald zu fliegen. Offen ist jedoch nach wie vor die Frage, ob sich im P600-Effekt generell das Erkennen eines Problems widerspiegelt oder ob es sich um den syntaktischen Reanalyse-Prozess an sich handelt (Frisch 2000).
Auch der Priming-Effekt konnte mit der EKP-Komponente N400 zusätzlich belegt werden. Als EKP-Komponente, die noch vor der lexikalischen Verarbeitung liegt, tritt die sog. Mismatch Negativity (MMN)Mismatch Negativity etwa 100–250 ms nach der Stimuluspräsentation auf. Die MMN wird als auditive Komponente verstanden. In ihr könnten sich Fähigkeiten wie die kategoriale Lautwahrnehmung widerspiegeln.
Die hier beschriebenen Ergebnisse aus EKP-Studien scheinen direkte Rückschlüsse auf die kognitiven Prozesse der Sprachverarbeitung zuzulassen. Trotzdem sollten die Ergebnisse aus EKP-Studien immer in theoretische Modelle eingebunden sein, die auch durch Offline-Experimente wie Reaktionszeitmessungen geprüft werden können (Frisch 2000; Rugg & Coles 1995). Nur so sind die sehr komplexen Daten aus diesen Studien sinnvoll zu interpretieren.

Ausblick

Hinsichtlich der Sprachverarbeitung muss das Ziel des Spracherwerbs der voll funktionsfähige Ausbau des Sprachverarbeitungsmoduls sein. Hierfür sind zwei Aspekte relevant: Einerseits müssen die linguistischen Einheiten und die Regeln der Sprache erworben werden, und andererseits müssen die einzelnen Verarbeitungsprozesse der Sprachverarbeitung soweit entwickelt sein, dass sie automatisch und schnell funktionieren. Der Aufbau von automatisierten Verarbeitungsroutinen ist aber nur durch den zunehmenden Gebrauch der Sprache möglich.
Und genau hier entsteht eine Schwierigkeit für Kinder und Erwachsene6

6

Hier sind sprachliche Einschränkungen bei Erwachsenen als Spätfolge einer Sprachentwicklungsstörung gemeint.

mit Sprachentwicklungsstörungen. Wenn die linguistischen Einheiten und die Regeln der Sprache unzureichend erworben wurden, kann das Sprachverarbeitungssystem sie nicht nutzen. Die Sprachverarbeitung kann daher nicht schnell und automatisch ablaufen. Das erschwert den Gebrauch der Sprache und führt dazu, dass Kinder und Erwachsene mit Sprachentwicklungsstörungen Sprache nur eingeschränkt als Mittel zur Kommunikation nutzen können. Wird die Sprache nicht genutzt, können sich keine Verarbeitungsroutinen entwickeln. So entsteht eine Negativspirale aus mangelnder Automatisierung und eingeschränktem Gebrauch von Sprache.
Dieser Annahme entspricht auch, dass der Spracherwerb nach Erkenntnissen der neurophysiologischen Sprachverarbeitungsforschung unter anderem nach folgenden Prinzipien erfolgt (Baumgärtner 2013):
  • Use it or lose it!

  • Funktionen werden repetitiv erlernt.

  • Höhere kognitive Leistungen (Gedächtnis, Wahrnehmung, Aufmerksamkeit) beeinflussen die Sprachentwicklung.

In einem schematischen Überblick stellte Friederici (2005) die Entwicklungsschritte des Spracherwerbs parallel zum Nachweis von EKP-EKP-Komponenten:und SpracherwerbKomponenten bei Kindern dar.
  • Die akustische Komponente der Mismatch Negativity konnte in abgewandelter Form bereits bei Neugeborenen und 2 Monate alten Kindern gefunden werden. Man kann sie als neurophysiologische Evidenz für die kategoriale Lautwahrnehmung interpretieren, zu der Kinder in diesem Alter bereits in der Lage sind.

  • Lexikalische Komponenten wie die N400 konnten im 1. Lebensjahr nachgewiesen werden und fallen somit mit dem Erwerb erster Wörter zusammen.

  • Und die syntaktischen EKP-Komponenten, die mit ca. 3 Jahren auftreten, könnten den Stand der Grammatikentwicklung widerspiegeln.

Friederici schließt daraus, dass Kinder in der Sprachentwicklung keine grundlegend anderen Verarbeitungsprozesse nutzen als Erwachsene. Diese Beobachtung würde die Kontinuitätsannahme für den Spracherwerb stützen. Weber et al. (2005) gehen mit den Ergebnissen ihrer Studie sogar so weit, dass sie das Ausbleiben einer Mismatch Negativity bei 5 Monate alten Kindern als Frühindikator für eine Störung des Spracherwerbs interpretieren. Allerdings bleibt hier die Frage offen, ob der neurophysiologische Unterschied zwischen Kindern mit und ohne Spracherwerbsstörung die Ursache oder die Folge der Störung ist (Suchodoletz 2001).
Aber nicht nur die Ergebnisse von EKP-Experimenten beeinflussen die Sichtweise auf Spracherwerbsstörungen:ModelleSpracherwerbsstörungen. Auch die verschiedenen Modelle zur Sprachverarbeitung finden zunehmend mehr Verbreitung in der Diagnostik und Behandlung von Störungen des Spracherwerbs. Rupp et al. (2007) verwenden z. B. ein Netzwerkmodell für die Einteilung lexikalischer Spracherwerbsstörungen und definieren vier mögliche Störungsschwerpunkte bei lexikalischen Störungen. Glück (2007) dagegen kommt mit seinem Modell der Speicher- und Abrufstörungen auf zwei Störungsschwerpunkte. Je nachdem, welches Modell der Sprachverarbeitung man zugrunde legt, können Spracherwerbsstörungen also sehr unterschiedlich gesehen werden. Deshalb gewinnen die Forschungsergebnisse und Modelle der Sprachverarbeitung bei der Betrachtung von Spracherwerbsstörungen zunehmend an Bedeutung.

Literatur

Bader, 1996

M. Bader Sprachverstehen. Syntax und Prosodie beim Lesen 1996 Westdeutscher Verlag Opladen

Baumgärtner, 2013

A. Baumgärtner Logopädie und die Neurowissenschaften Forum Logopädie 27 5 2013 12 19

Brandenburger and Klemenz, 2009

N. Brandenburger A. Klemenz Lese-Rechtschreibstörungen. Eine modellorientierte Diagnostik mit Therapieansatz 2009 Elsevier München

Butterworth, 1983

B. Butterworth Lexical Representation B. Butterworth Language Production 1983 Academic Press London 257 294

Caplan, 1992

D. Caplan Language. Structure, Processing and Disorder 1992 MIT Press Cambridge/MA

Caramazza et al., 1988

A. Caramazza A. Laudanna C. Romaini Relations among regular and irregular morphologically related words in lexicon as revealed by repetition priming Memory and Cognition 13 1988 241 255

Cholewa and De Bleser, 1995

J. Cholewa R. De Bleser Neurolinguistische Evidenz für die Unterscheidung morphologischer Wortbildungsprozesse: Dissoziation zwischen Flexion, Derivation und Komposition Linguistische Berichte 158 1995 259 297

De Bleser et al., 2004

R. De Bleser J. Cholewa N. Stadie S. Tabatabaie LEMO. Lexikon modellorientiert 2004 Elsevier München

Dietrich, 2002

R. Dietrich Psycholinguistik 2002 J. B. Metzler Stuttgart

Frazier, 1987

L. Frazier Sentence Processing: A Tutorial Review M. Coltheart Attention and Performance XII. The Psychology of Reading 1987 Lawrence Erlbaum Associates Hove 559 586

Frazier and Rayner, 1982

L. Frazier K. Rayner Making and Correting Errors during Sentence Comprehension: Eye Movements in the Analysis of Structurally Ambiguous Sentences Cognitive Psychology 14 1982 178 210

Friederici, 1995

A.D. Friederici The time course of syntactic activation during language processing: a model based on neuropsychological and neurophysiological data Brain and Language 50 1995 259 281

Friederici, 1999

A.D. Friederici The neurobiology of language comprehension A. Friederici Language comprehension: A biological perspective 1999 Springer Berlin, Heidelberg, New York 263 301

Friederici, 2002

A.D. Friederici Towards a Neural Basis of Language Comprehension Trends in Cognitive Sciences 6 2002 78 84

Friederici, 2005

A.D. Friederici Neurophysiological markers of early language acquisition: from syllables to sentences Trends in Cognitive Science 9/10 2005 481 488

Friederici and Alter, 2004

A.D. Friederici K. Alter Lateralization of Auditory Language Functions: A Dynamic Dual Pathway Model Brain and Language 89 2004 267 276

Friederici et al., 1993

A.D. Friederici E. Pfeifer A. Hahne Event-related brain potentials during natural speech processing: effects of semantic, morphological and syntactic violations Cognitive Brain Research 1 1993 183 192

Frisch, 2000

S. Frisch Verb-Argument-Struktur, Kasus und thematische Interpretation beim Sprachverstehen. PhD Thesis 2000 Max Planck Institut Leipzig

Fodor, 1983

J.A. Fodor The modularity of mind. An essay on faculty psychology 1983 MIT Press Cambridge/MA

Garrett, 1980

M.F. Garrett Levels of processing in sentence production B. Butterworth Language Production: Vol. 1. Speech and talk 1980 Academic Press London 177 220

Glück, 2007

C. Glück Handbuch Wortschatz und Wortfindungstest für 6- bis 10-Jährige 2007 Elsevier München

Herrmann and Fiebach, 2004

C. Herrmann C. Fiebach Gehirn & Sprache 2004 Fischer Verlag Frankfurt a. M.

Höhle et al., 2009

B. Höhle R. Bijelajac-Babic B. Herold J. Weissenborn T. Nazzi Language specific prosodic preference during the first half year of life: Evidence from German and French infants Infant Behaviour and Development 32 3 2009 262 274

Höhle, 2010

B. Höhle Sprachwahrnehmung B. Höhle Psycholinguistik 2010 Akademie Verlag Berlin 39 50

Kutas et al., 1994

M. Kutas C.K. Van Petten Psycholinguistics electrified: event-related brain potential investigations M.A. Gernsbacher Handbook of Psycholinguistics 1994 Academic Press London 83 143

Leuninger, 1993

H. Leuninger Reden ist Schweigen und Silber ist Gold. Gesammelte Versprecher 5. Aufl. 1993 Ammann Zürich

Levelt, 1989

W. Levelt Speaking: From Intention to Articulation 1989 MIT Press Cambridge/MA

Levelt et al., 1999

W.J.M. Levelt A theory of lexical access in speech production Behavioral and Brain Sciences 22 1 1999 1 75

Liberman and Mattingly, 1985

A.M. Liberman I.G. Mattingly The Motor Theory of Speech Perception Revised Cognition 21 1985 1 36

Manelis and Tharp, 1977

L. Manelis D. Tharp The processing of affixed words Memory and Cognition 5 1977 690 695

Marslen-Wilson, 1973

W.D. Marslen-Wilson Linguistic Structure and Speech Shadowing at Very Short Latencies Nature 244 1973 522 523

Marslen-Wilson, 1975

W.D. Marslen-Wilson Sentence Perception as an Interactive Parallel Process Science 189 1975 226 228

Marslen-Wilson and Welsh, 1978

W.D. Marslen-Wilson A. Welsh Processing interactions and lexical access during word recognition in continuous speech Cognitive Psychology 10 1 1978 29 63

McClelland and Elman, 1986

J.L. McClelland J.L. Elman The TRACE Model of Speech Perception Cognitive Psychology 18 1 1986 1 86

McClelland and Rumelhart, 1981

J.L. McClelland D.E. Rumelhart An interactive activation model of context effects in letter perception, Part 1: an account of basic findings Psychological Review 88 5 1981 375 407

McGurk and MacDonald, 1976

J. McGurk H. MacDonald Hearing Lips and Seeing Voices Nature 264 1976 746 748

McQueen et al., 1994

J.M. McQueen D. Norris A. Cutler Competition in spoken word recognition: Spotting words in other words Journal of Experimental Psychology: Learning, Memory and Cognition 20 3 1994 621 638

Morton, 1969

J. Morton Interaction of information in word recognition Psychological Review 76 1969 165 178

Münte et al., 1998

T.F. Münte A. Szentkuti B.M. Wieringa S. Johannes Brain potentials and syntactic violations revisited: No evidence for specificity of the syntactic positive shift Neuropsychologia 36 1998 217 226

Näätänen et al., 2001

R. Näätänen Primitive intelligence in the auditory cortex Trends in Neuroscience 24 2001 283 288

Oberecker et al., 2005

R. Oberecker Neural correlates of syntactic processing in two year olds Journal of Cognitive Neuroscience 17 2005 1 12

Osterhout and Holcomb, 1992

L. Osterhout P.J. Holcomb Event-related brain potentials elicited by syntactic anomaly Journal of Memory and Language 31 1992 785 804

Osterhout and Holcomb, 1992

L. Osterhout P.J. Holcomb Event-related potentials and syntactic anomaly: Evidence of anomaly detection during the perception of continuous speech Language and Cognitive Processes 8 1992 413 437

Patterson, 1988

K.E. Patterson Acquired disorders of spelling G. Denes C. Semenza P. Bissiachi Perspectives on Cognitive Neuropsychology 1988 Lea & Febiger London

Pisoni, 1977

D.B. Pisoni Identification and discrimination of the relative onset time of two component tones: Implication for voicing perception in stops Journal of the Acoustical Society of America 61 1977 1,352 1,361

Rizzolatti and Craighero, 2004

G. Rizzolatti L. Craighero The Mirror-Neuro System Anual Review of Neuroscience 27 2004 169 192

Rugg and Coles, 1995

M.D. Rugg M.G.H. Coles The ERP and cognitive psychology:conceptual issues M.D. Rugg M.H.G. Coles Electrophysiology of mind: event-related potentials and cognition 1995 Oxford University Press New York 27 39

Rupp et al., 2007

S. Rupp M. Rausch K. Willmes W. Huber Modellgeleitete Diagnostik bei lexikalischen Spracherwerbsstörungen Forum Logopädie 5 21 2007 22 31

Schriefers, 1999

H. Schriefers Morphologie und Worterkennung A.D. Friederici Sprachperzeption 1999 Hogrefe Göttingen 117 153

Suchodoletzv, 2001

W.v. Suchodoletz Sprachentwicklung und Gehirn. Neurobiologische Grundlagen von Sprache und Sprachentwicklungsstörungen 2001 Kohlhammer Stuttgart

Townsend and Bever, 2001

D.J. Townsend T.G. Bever Sentence Comprehension The Integration of Habits and Rules 2001 Cambridge/MA: MIT Press

Trueswell et al., 1994

J.C. Trueswell M.K. Tanenhaus S.M. Gransey Semantic Influences on Parsing: Use of Thematic Role Information in Syntactic Ambiguity Resolution Journal of Memory and Language 33 1994 285 318

Weber et al., 2005

C. Weber Reduced stress pattern discrimination in 5-month-olds as a marker for language impairment: Neurophysiological evidence Cognition Brain Research 25 2005 180 187

Wiedenmann, 1992

N. Wiedenmann Versprecher. Phänomene und Daten. Mit Materialien und Diskette 1992 Wissenschaftsverlag Edition Praesens Wien

Zwitserlood, 1999

P. Zwitserlood Gesprochene Wörter im Satzkontext A.D. Friederici Sprachperzeption 1999 Hogrefe Göttingen 85 116

Holen Sie sich die neue Medizinwelten-App!

Schließen