Allgemeine Psychologie - Denken und Sprache

Kapitelübersicht


Kapitel 1

Einleitung


Zusammenfassung

Denken und Sprache sind kognitive Fähigkeiten des Menschen, die eng mit Intelligenz verbunden sind. Beim Denken werden mentale Zustände neu kombiniert. Sprache erlaubt, durch Zeichen und ihre systematische Kombination Bedeutung auszudrücken. Aus kognitionspsychologischer Sicht ist zentral, wie Menschen die Inhalte des Denkens und sprachliche Informationen repräsentieren und wie sie diese Repräsentationen verarbeiten. Beide Fähigkeiten stehen immer mit anderen psychischen Funktionen in Verbindung: mit Wahrnehmung, mit Aufmerksamkeit und Bewusstsein, mit Lernen und Gedächtnis sowie mit Motivation, Emotion und Motorik. Die Prozesse, die dem Denken und der Sprache zugrunde liegen, werden klassischerweise mit Experimenten untersucht. Hinzu kommen aber auch Computersimulationen und neurowissenschaftliche Untersuchungen. Ziel ist, die funktionale und anatomische Architektur kognitiver Prozesse zu entschlüsseln, welche die oft erstaunlichen geistigen Leistungen des Menschen erst ermöglicht.

 

PDF-Kapitelübersicht 1



Kapitel 2

Induktives Denken


Zusammenfassung

Zum induktiven Denken gehören sowohl verallgemeinernde Schlüsse von einzelnen Instanzen auf Konzepte als auch Schlüsse von einzelnen Kategorien auf andere Kategorien. Beide gehen über gesicherte Informationen hinaus – ein Merkmal, das generell für induktive Schlüsse gilt. Der Erwerb von Konzepten anhand von Instanzen umfasst die Bildung und die Veränderung von Hypothesen. Die Fokus-Strategie beginnt mit der spezifischsten Hypothese und verallgemeinert sie, die Scan-Strategie beginnt mit einer allgemeineren Hypothese und differenziert oder verallgemeinert sie (je nach Situation). Personen fällt es dabei schwer, aus Beispielen, die nicht zum gesuchten Konzept gehören und ihre Konzepthypothese widerlegen, die richtigen Schlüsse zu ziehen. Die Auswahl von Beispielen für die Prüfung einer Hypothese folgt ebenfalls Fokus- oder Scan-Strategien, flexibel angepasst an die Erfordernisse der Aufgabe. Manchmal präferieren Personen eine positive Teststrategie. Dies führt bei bestimmten Aufgaben zu einem confirmation bias.

 

Bei der kategoriebasierten Induktion wird eine Eigenschaft, die für bestimmte Kategorien beobachtet wurde, auf eine Zielkategorie verallgemeinert. Wenn Personen die Sicherheit solcher Verallgemeinerungen beurteilen, sind sie sensitiv für eine Reihe von Faktoren: für die Typikalität der Prämissenkategorien, für die Ähnlichkeit zur Zielkategorie, für die Anzahl und Diversität der Beobachtungen sowie für kausale Verknüpfungen der Eigenschaft, die verallgemeinert werden soll. In den meisten Fällen folgen Personen „vernünftigen“ Regeln bei der Beurteilung induktiver Schlüsse. Es gibt aber auch Ausnahmen von diesen Regeln und klassische Fehlschlüsse wie den Inklusionsfehler. Zwei Arten von Theorien konkurrieren bei der Erklärung all dieser Phänomene: solche, die auf Ähnlichkeit basieren wie das Similarity-coverage-Modell und das merkmalsbasierte Modell, und solche, die induktive Schlüsse als hypothesengeleitet verstehen wie die bayesianischen Ansätze. Alle weisen sie Vor- und Nachteile auf, so dass noch keine klare Entscheidung zugunsten einer der Theorien getroffen werden konnte.

 

PDF-Kapitelübersicht 2



Kapitel 3

Deduktives Denken


Zusammenfassung

Deduktive Schlüsse folgen zwingend aus ihren Prämissen. Beim syllogistischen Schließen beschreiben die Prämissen Beziehungen zwischen Mengen, und zwar mit den Quantoren alle, einige und keine. Bereits der griechische Philosoph Aristoteles hat verschiedene Varianten von Syllogismen nach Quantoren und Figuren unterschieden und analysiert, welche Schlussfolgerungen gültig sind. Ein anschauliches Hilfsmittel hierfür sind Euler-Kreise.

 

Psychologisch sind drei Fragen zentral: Welche Kompetenzen haben Personen zu logischen Schlüssen? Gibt es systematische Abweichungen von der Logik (Biases)? Und nach welchen Mechanismen gehen Personen beim Schließen vor? Untersuchungen zeigen sowohl Kompetenzen als auch Biases. So gibt es Unterschiede zwischen der Alltagssprache und der Logik vor allem im Verständnis des Quantors einige. Auch Beziehungen der Quantoren untereinander werden teils anders beurteilt als in der Logik. Und beim syllogistischen Schließen werden Aufgaben, die eine quantifizierte Antwort erfordern, und solche, deren Figur eine direkte Verbindung der Prämissen erlaubt, häufiger korrekt gelöst als andere.

 

Personen lösen Syllogismen nach unterschiedlichen Strategien. Graphische Strategien sind der Euler-Kreis-Methode ähnlich, nur weniger systematisch. Sprachliche Strategien nutzen Monotonie-Eigenschaften der Quantoren für Umformungen der Prämissen. Eine typische, logisch nicht immer gerechtfertigte Umformung ist die Konversion; andere ergeben sich aus sprachlichen Implikaturen. Die Theorie der mentalen Modelle deckt Kompetenzen und Biases ab, letztere durch eine nicht immer vollständige Repräsentation der logischen Möglichkeiten. Die Atmosphärenheuristik gilt heute als überholt.

 

Kommen schließlich konkrete Inhalte ins Spiel, die eine quantifizierte Aussage vor dem Hintergrund des eigenen Wissens glaubwürdig oder unglaubwürdig erscheinen lassen, so berücksichtigen Personen dieses Wissen für ihre Antwort, was die formal-logische Antwort erleichtern, aber auch verhindern kann (belief bias).

 

PDF-Kapitelübersicht 3



Kapitel 4

Urteilen und Entscheiden


Zusammenfassung

Aus dem weiten Feld der Urteils- und Entscheidungsforschung wurde ein Bereich vorgestellt, in dem der Umgang mit Wahrscheinlichkeiten zentral ist. Formal hilft uns dabei die Wahrscheinlichkeitstheorie. Sie definiert, wie man mit Wahrscheinlichkeiten rechnet. Zugleich dient sie als Norm für korrekte Urteile.

 

Das intuitive Urteilen über Wahrscheinlichkeiten war jahrzehntelang geprägt vom Heuristics-and-biases-Programm von Tversky und Kahneman. Urteile werden demnach anhand von Heuristiken gefällt, was sich an systematischen Abweichungen von der Wahrscheinlichkeitstheorie zeigt. Drei wichtige Heuristiken sind Repräsentativität, Verfügbarkeit sowie Verankerung und Anpassung von Information; klassische Biases sind der Konjunktionsfehler und der Basisratenfehler. Beide lassen sich aber durch geeignete Problemrepräsentationen aufheben. Mit dem Konzept der eingeschränkten, ökologischen Rationalität setzte Gigerenzer einen Gegenpol. Zwar erfolgen Urteile ebenfalls heuristisch, betont wird jedoch die Anpassung an die Informationsverarbeitungskapazität des Menschen und die Informationsstruktur der Umwelt. Zwei Heuristiken, mit denen wir oft klug urteilen, sind recognition und take the best. Ein wichtiges Ergebnis dieser Arbeiten ist der Less-is-more-Effekt: Wir fällen oft bessere Urteile, wenn wir weniger Information berücksichtigen.

 

Bei Entscheidungen unter Unsicherheit wurde der Mensch lange als Homo oeconomicus gesehen: Er entscheide sich rational für die Option mit dem höchsten erwarteten Nutzen und wäge dabei den Wert von Optionen und ihre Wahrscheinlichkeit ab. Studien haben jedoch gezeigt, dass Personen systematisch von diesem Konzept abweichen: Manchmal vernachlässigen sie Wahrscheinlichkeiten, entscheiden intransitiv oder verstoßen gar gegen das Invarianz-Prinzip. Die Prospect-Theorie von Kahneman und Tversky modifizierte das Modell des erwarteten Nutzens durch eine Gewichtung der Wahrscheinlichkeiten und die Unterscheidung zwischen Gewinnen und Verlusten. Damit konnten sie die meisten Befunde erklären, etwa den Sicherheitseffekt oder Rahmungseffekte. Mit der Prioritätsheuristik wurde jüngst eine Alternative vorgeschlagen. Entscheidungen basieren demnach auf einzelnen, nach Priorität geordneten Entscheidungsgründen. Die Theorie kann die klassischen Befunde ebenfalls gut erklären, wird aber noch kritisch diskutiert.

 

PDF-Kapitelübersicht 4



Kapitel 5

Problemlösen und Expertise


Zusammenfassung

Ein Problem entsteht, sobald eine Person in einer Situation ein Ziel erreichen möchte, dem eine Barriere entgegensteht. Das Erkennen eines Problems und seine Definition sind die ersten Schritte auf dem Weg zur Lösung.

 

Den Prozess der Lösungsfindung fasst man nach der Problemraumhypothese als Suche im Problemraum auf. Man unterscheidet unter anderem Breiten- und Tiefensuche, vorwärtsgerichtete und rückwärtsgerichtete Suche sowie allgemeine und heuristische Suche. Die Schwierigkeit eines Problems wird bereits durch seine anfängliche mentale Repräsentation bestimmt; hinzu kommen Gedächtnis-, Planungs- und Ausführungsanforderungen. Beim Problemlösen wird immer auch gelernt: Man beobachtet eine kontinuierliche Routinebildung nach dem Potenzgesetz der Übung, aber auch abrupte Einsichten und einen asymmetrischen Lerntransfer von schweren auf leichte Aufgaben.

 

Experten unterscheiden sich von Anfängern bereits in der Wahrnehmung und der Definition eines Problems, aber auch in der Vorgehensweise; Routineaufgaben gehen sie zum Beispiel bevorzugt mit einer Vorwärts-Strategie an. Die Überlegenheit von Experten geht dabei nicht auf bessere übergreifende (bereichsunspezifische) kognitive Fähigkeiten zurück, sondern vor allem auf ihr umfangreiches und funktional gut organisiertes ereichswissen. Dieses steuert von Anfang an die Wahrnehmung des Problems, die Repräsentation relevanter Informationen und die Lösungsfindung. Zur weiteren Verbesserung des Expertiseniveaus ist es wichtig, zu viel Routine zu vermeiden und immer wieder neue Herausforderungen zu suchen.

 

Komplexe Probleme sind durch fünf Merkmale gekennzeichnet: durch eine große Zahl von Faktoren, ihre Vernetzung, Eigendynamik und Intransparenz sowie durch Polytelie. Zu den psychologischen Anforderungen gehören deshalb ein angemessener Umgang mit der Komplexität, mit Informationen, Zielen und Zeitabläufen. Untersucht wird der Umgang mit komplexen Systemen mithilfe computersimulierter ökologischer oder ökonomischer Szenarien. Hierbei zeigte sich, dass die Anforderungen, die sich aus der Komplexität der Situation ergeben, die Problemlöseleistung massiv beeinflussen und Katastrophen oft nicht vermieden werden können.

 

PDF-Kapitelübersicht 5



Kapitel 6

Analogien


Zusammenfassung

Analogien sind ein wichtiges Element des kreativen Denkens. Eine Analogie beinhaltet eine strukturelle Ähnlichkeit zwischen einer Quellsituation und einer Zielsituation: Elektrizität ist wie Wasser. Anders als oberflächliche Ähnlichkeiten etwa im Aussehen von Objekten beziehen sich strukturelle Ähnlichkeiten zum Beispiel auf gemeinsame Lösungsprinzipien oder die Kausalstruktur, also auf abstrakte Elemente. Die Quellsituation wird dann genutzt, um eine Schlussfolgerung auf das Ziel zu übertragen.

 

Der Abruf einer Analogiequelle aus dem Gedächtnis wird durch oberflächliche Ähnlichkeiten gefördert. Strukturelle Ähnlichkeiten sind hilfreich, sofern sie beim Einprägen der Quellsituation ausreichend beachtet wurden. Bei der Abbildung der Quellsituation auf das Ziel – und damit beim eigentlichen Analogieschluss – sind strukturelle Ähnlichkeiten maßgebend. Personen passen dabei Elemente der Zielsituation korrespondierenden Elementen der Quellsituation an, und zwar in der Regel konsistent und eins zu eins. Da Analogien als induktive Schlüsse eine korrekte Lösung nicht garantieren, muss abschließend ihre Tragfähigkeit bewertet werden. Zudem sind Analogien immer auch Gelegenheiten, etwas zu lernen.

 

Ein Fall, in dem Analogien innerhalb ein und derselben Domäne genutzt werden, ist das schulische Problemlösen auf der Grundlage von Lösungsbeispielen, wie es in den Fächern Mathematik oder Physik häufig vorkommt. Schüler greifen dabei für die Bearbeitung einer neuen Aufgabe auf ausgearbeitete Lösungsbeispiele zurück. Trotz sorgfältig gestalteter Lehrmaterialien gibt es jedoch häufig ein Transferproblem. Dies geht zumindest teilweise auf psychologische Prozesse zurück, die mit dem Lernen aus Fallbeispielen und ihrer Nutzung als Analogien zusammenhängen. Der Transfer auf neue Aufgaben wird erleichtert, wenn man bereits beim Durcharbeiten der Beispiele auf lösungsrelevante, strukturelle Aspekte achtet, indem man sich beispielsweise die Lösungsschritte selbst erklärt und dabei Verständnislücken schließt.

 

PDF-Kapitelübersicht 6



Kapitel 7

Einsicht, Wissenschaft und Kreativität


Zusammenfassung

Das Phänomen Einsicht tritt vor allem bei Nichtroutineaufgaben auf, die produktives Denken verlangen, und zwar wenn einer Person nach erfolglosen Problemlöseversuchen plötzlich klar wird, wie die Lösung aussieht. Dieses Aha-Erlebnis kommt abrupt und ist von positiven Emotionen begleitet. Mit dem Puzzle-Ansatz werden die Ursachen und Randbedingungen von Einsicht beim Problemlösen experimentell untersucht, und zwar indem analysiert wird, wie Personen bestimmte Arten von Rätsel lösen. Dabei fand man heraus, dass es verschiedene Faktoren geben kann, die einer Einsicht entgegenstehen: Wahrnehmungs-, Prozess- oder Wissensfaktoren. Bei visuellen Aufgaben ist es häufig die unwillkürliche Gruppierung von Objekten zu Chunks durch unser Wahrnehmungssystem, die einschränkend wirkt. Bei einem Einstellungseffekt ist es eine gewohnte Lösungsstrategie, die die Entdeckung neuer Strategien hemmt. Und bei der funktionalen Fixierung ist es das Wissen über die normale Funktion eines Objektes, das dessen kreative Verwendung in einer anderen Funktion behindert. Entsprechend kommt Einsicht durch unterschiedliche Prozesse zustande, zum Beispiel durch Dekomposition von Wahrnehmungs-Chunks oder durch selektives Enkodieren, Kombinieren und Vergleichen von Informationen. Gemeinsam ist all diesen Prozessen, dass eine Restrukturierung erfolgt und die Problemrepräsentation geändert wird. Oft hilft auch, ein Problem für eine Weile beiseite zu legen (Inkubation).

 

Einsichtsvolles Problemlösen in der Wissenschaft wird empirisch mit drei Methoden untersucht: mit kognitiv-historischen Analysen erfolgreicher Wissenschaftler (Great-minds-Ansatz), durch direkte Beobachtung des wissenschaftlichen Arbeitens und durch experimentelle Untersuchungen von Teilprozessen des wissenschaftlichen Entdeckens. Jede dieser Methoden, etwas über die kognitiven Prozesse beim wissenschaftlichen Denken herauszufinden, hat Stärken und Schwächen, doch in der Gesamtschau konvergieren die Befunde: Treibende Kraft wissenschaftlichen Arbeitens sind überraschende Phänomene, die eine Erklärung verlangen; beteiligt sind viele kognitive Prozesse, insbesondere die Bildung von Analogien; zudem hat der soziale Kontext einen entscheidenden Einfluss.

 

Eines der erstaunlichsten Merkmale der menschlichen Kognition ist ihre kreative Kapazität. Das Geneplore-Modell beschreibt kreatives Denken durch einen Wechsel zwischen zwei Phasen: In der ersten werden Ideen generiert und repräsentiert, in der zweiten werden sie auf ihren Gehalt exploriert und interpretiert. Beide Phasen werden geleitet durch Anforderungen der Aufgabe. Kreativität ist nach diesem Ansatz weder selten – sie zeigt sich auch im Alltag in vielerlei Weise – noch etwas Besonderes; vielmehr ergibt sie sich aus dem Zusammenspiel aller auch sonst aktiven kognitiven Prozesse.

 

PDF-Kapitelübersicht 7



Kapitel 8

Sprachkompetenz


Zusammenfassung

Sprache ist für den Menschen von zentraler Bedeutung. Sie erfüllt eine Reihe sehr verschiedener Funktionen und ist eine der treibenden Kräfte in der „Menschwerdung“ als Spezies und in der kognitiven Entwicklung von Kindern. Sie bildet die Grundlage sowohl für Kultur als auch für eine Vielzahl kognitiver Leistungen, die im Laufe der Jahrtausende erbracht wurden. In dieser Hinsicht unterscheidet sich der Mensch zumindest graduell, wenn nicht gar prinzipiell von seinen nicht menschlichen Verwandten, die zwar auch kommunizieren, aber nicht Sprache im eigentlichen Sinn verwenden. Die besondere Sprachkompetenz des Menschen lässt sich auf zwei Mutationen im FoxP2-Gen zurückführen, die eine Vergrößerung sprachrelevanter Areale im Gehirn bewirkten.

 

Sprache ist allen Menschen eigen; dennoch unterscheiden sich Sprachen weltweit in so fundamentaler Weise, dass eine gemeinsame Ursprache unplausibel erscheint. Allerdings entwickeln sich auch Sprachen weiter und auseinander. Durch detaillierte Vergleiche lassen sich Sprachverwandtschaften feststellen und gemeinsame „Vorfahren“ rekonstruieren. Strukturelle Ähnlichkeiten auch nicht verwandter Sprachen deuten Forscher wie Chomsky als das Resultat einer Universalgrammatik.

 

Chomsky zufolge ist Wissen über grammatische Prinzipien angeboren, und allein deshalb seien Kinder imstande, sich jede beliebige menschliche Sprache anzueignen. Diese Sichtweise ist umstritten. Unstrittig hingegen ist, dass Kinder mit dem Erwerb des Wortschatzes und der grammatischen Regeln ihrer Sprache Beachtliches leisten. Regelmäßigkeiten helfen ihnen, das Segmentierungsproblem zu lösen, und einschränkende Vorannahmen helfen ihnen, das Bedeutungsproblem zu lösen. Beim Fremdspracherwerb kommen weitere Schwierigkeiten hinzu, vor allem, wenn er nach der sensitiven Phase erfolgt, aber die Lernenden profitieren nun auch von metasprachlichem Wissen und von ihren Erfahrungen mit der Erstsprache.

 

PDF-Kapitelübersicht 8



Kapitel 9

Der Baukasten der Sprache


Zusammenfassung

Zu den wichtigsten der von Hockett identifizierten Designkriterien menschlicher Sprachen gehört, dass Sprache sich auf räumlich und zeitlich entfernte Dinge beziehen kann (Situationsunabhängigkeit) und dass sich mithilfe grammatischer Regeln aus einem begrenzten Inventar unbegrenzt viele korrekte, sinnvolle und neue Äußerungen erzeugen lassen (Produktivität bzw. Generativität). Als Merkmale echter Sprache gelten zudem ihr referentieller und intentionaler Gebrauch. Dennoch ist es schwierig, ein Kriterium zu finden, das alle menschlichen Sprachen einschließlich der Gebärdensprachen umfasst und sie zugleich von allen nicht menschlichen Kommunikationssystemen abgrenzt. Vieles spricht deshalb dafür, dass die Unterschiede eher gradueller als prinzipieller Art sind.

 

Sprache bildet ein System, das aus abstrakten Symbolen und aus Regeln zu ihrer Kombination besteht. Zu den bedeutungs-tragenden Symbolen gehören Wörter und Morpheme, die sich aus kleineren, bedeutungs-unterscheidenden Einheiten, den Phonemen, zusammensetzen. Wie Morpheme zu Wörtern und Wörter zu Phrasen und Sätzen zusammengesetzt werden, ist durch Syntax und Morphologie reguliert. Diese beiden ergänzen einander, denn je weniger rigide die Wortstellung (Syntax), umso wichtiger sind Flexionen (Morphologie), und umgekehrt. Phrasenstrukturregeln bestimmen, wie Wörter zu Phrasen und Phrasen zu Sätzen kombiniert werden, und Transformationsregeln erlauben es, Satzvarianten zu erzeugen, die trotz gleicher Tiefenstruktur verschiedene Oberflächenstrukturen aufweisen (z. B. Passivsätze). Diese linguistischen Komponenten finden in Propositionen eine psychologische Entsprechung. Personen repräsentieren nämlich bevorzugt die Tiefenstruktur und abstrahieren dabei von Merkmalen der Oberflächenstruktur. Wie das Konzept der Universalgrammatik geht auch die generative Transformationsgrammatik auf Noam Chomsky zurück.

 

Eng verknüpft mit der Diskussion um die Universalgrammatik ist die Frage nach sprachlichen Universalien. Bislang gibt es allerdings keine eindeutigen Belege für die Existenz absoluter Universalien, sondern nur für statistische Tendenzen, und bei diesen wiederum handelt es sich meist um Implikationen („Wenn X, dann Y“), die eine Beziehung zwischen zwei Komponenten beschreiben. Rückschlüsse, die sich daraus für die kognitiven Grundlagen der Sprachverarbeitung ziehen lassen, sind von fundamentaler Bedeutung: Offenbar ist das herausragende Merkmal menschlicher Sprachen gerade ihre Vielfalt und Variabilität – und das macht die Annahme eines angeborenen Sprachmoduls mit Voreinstellungen nach ähnlichen Prinzipien zunehmend unwahrscheinlich.

 

PDF-Kapitelübersicht 9



Kapitel 10

Sprachverstehen


Zusammenfassung

Um eine Äußerung verstehen zu können, sind vier grundlegende Aufgaben zu bewältigen: Das Gesprochene muss wahrgenommen und phonemisch analysiert werden, die verwendeten Wörter müssen durch lexikalischen Zugriff identifiziert und beim Parsing syntaktisch zueinander in Beziehung gesetzt werden, und schließlich muss das Gesamtgefüge semantisch interpretiert werden.

 

Der Prozess beginnt damit, den kontinuierlichen Lautstrom in Wörter zu segmentieren. Die phonemische Analyse profitiert von kategorialer Wahrnehmung und – in begrenztem Umfang – auch von Kontextinformationen. Wortbedeutungen werden aus dem mentalen Lexikon abgerufen, und zwar weitgehend automatisch und mit hoher Geschwindigkeit. Auch hierfür spielen Kontextinformationen eine bedeutende Rolle, weshalb der Abruf durch Priming noch beschleunigt werden kann.

 

Beim Parsing wird die Äußerung syntaktisch analysiert. Dieser Prozess setzt zum frühestmöglichen Zeitpunkt ein, erfolgt inkrementell und versucht den weiteren Verlauf der Äußerung zu antizipieren. Die beiden dominierenden Modelltypen, das Holzweg-Modell und die Einschränkungsmodelle, treffen unterschiedliche Annahmen darüber, ob das Parsing in einer oder zwei Stufen abläuft und an welcher Stelle semantische Informationen ins Spiel kommen, nachgeordnet oder von Anfang an. Den wichtigsten Untersuchungskontext zur Klärung solcher Fragen liefern Ambiguitäten. Die derzeitige Befundlage lässt jedoch keine klare Entscheidung zwischen den Modellen zu, weshalb in letzter Zeit zunehmend auch Alternativen wie das Wettlauf-Modell diskutiert werden.

 

Ziel der semantischen Interpretation ist es, die Äußerung umfassend zu verstehen, das heißt, eine mentale Repräsentation von ihr aufzubauen und mit dem zu verknüpfen, was man bereits weiß (manche Autoren vermuten, dass diese Repräsentation weitgehend propositionaler Natur ist). Auch auf dieser Ebene können Ambiguitäten auftreten. Häufigste Quelle hierfür sind die anaphorischen Referenzen, die aber gleichzeitig dazu dienen, Kohäsion über einen größeren Kontext hinweg herzustellen. Für das Verständnis des Inhaltes sind sie deshalb unverzichtbar.

 

PDF-Kapitelübersicht 10



Kapitel 11

Sprachproduktion


Zusammenfassung

Bei der Sprachproduktion lassen sich drei Teilprozesse unterscheiden: Im ersten wird eine Nachricht konzeptualisiert, im zweiten wird sie formuliert, und im dritten wird sie artikuliert. Für jeden dieser Prozesse ist ein spezifisches Modul zuständig, das Input aus dem vorherigen Modul erhält und Output an das nächste liefert. Feedback zwischen den Modulen gibt es vermutlich nicht, wohl aber Monitoring-Prozesse. Beim Konzeptualisieren wird zunächst in mehreren Schritten eine Nachricht als Äußerungsbasis erzeugt: Bei der Fokussierung wird entschieden, worüber man zu sprechen beabsichtigt (Selektion) und in welcher Reihenfolge (Linearisierung); bei der Parameterfixierung werden Aspekte wie Sprache, Dialekt oder Lautstärke ausgewählt; und bei der Formatierung wird eine konkrete Formulierung vorausgewählt.

 

Erst anschließend erfolgt das eigentliche Formulieren der bis dahin nonverbalen Nachricht. Dabei greifen zwei Prozesse ineinander. (1) Bei der Lexikalisierung werden die Konzepte in Wörter übersetzt, und zwar durch lexikalischen Zugriff auf das mentale Lexikon und durch phonologische Enkodierung. Ob diese Teilprozesse sich zeitlich diskret vollziehen oder in Kaskaden, ist nicht restlos geklärt, auch wenn einiges eher für eine kaskadenartige Verarbeitung spricht. Zwei- und Drei-Komponenten-Theorien machen außerdem unterschiedliche Annahmen dazu, ob im mentalen Lexikon nur nonverbale Konzepte und Wortformen oder auch Lemmata verzeichnet sind. (2) Bei der syntaktischen Planung werden die Wörter in einen grammatisch richtigen Satz eingefügt. Dieser Prozess kann durch syntaktisches Priming beeinflusst werden. Als letzter Schritt vor der Artikulation erfolgt die phonologische Enkodierung, bei der unter anderem Silbenstruktur und Betonung bereitgestellt werden.

 

Sprechfehler wie Wort- und Lautvertauschungen liefern Indizien dafür, wie die Prozesse der Sprachproduktion konkret aussehen. Korrekturen solcher Fehler deuten darauf hin, dass sprachliche Äußerungen in syntaktischen Einheiten erzeugt werden. Mit Bild-Wort-Interferenzaufgaben lassen sich Sprechfehler experimentell induzieren; sie zeigen semantische Interferenz vor und phonologische Erleichterung nach der Bildpräsentation. Außerdem werden Wortvertauschungen durch syntaktische Faktoren, Lautvertauschungen durch die Nähe eingeschränkt. Die meisten Befunde sprechen für eine sequentielle Verarbeitung, wie sie von den modular-seriellen Modellen zur Sprachproduktion konzipiert wird. Allerdings werden dabei auch alternative Formulierungen von der Nachrichten-Ebene bis zur phonologischen Ebene parallel verarbeitet.

 

Obwohl Sprachproduktion und -rezeption vermutlich auf das gleiche Lexikon zugreifen, laufen sie nicht einfach spiegelbildlich ab. Gezielt aufeinander beziehen muss man sie bei der Kommunikation. Um vom Gesprächspartner verstanden zu werden, ist es wichtig, bereits bei der Fokussierung dessen Vorwissen mit einzubeziehen und einen common ground zu schaffen. Die Grice’schen Konversationsmaximen zu Quantität, Qualität, Relevanz und Ausdruck helfen dabei. Außerdem bemühen Sprecher sich darum, Ambiguitäten zu vermeiden und so das Verständnis des Hörers zu unterstützen.

 

PDF-Kapitelübersicht 11



Kapitel 12

Denken und Sprache


Zusammenfassung

Die Grammatik einer Sprache strukturiert, wie wir unsere Gedanken in Worte fassen, aber beeinflusst sie auch, welche Gedanken wir haben? Und werden Personen, die unterschiedliche Sprachen sprechen, deshalb auch unterschiedliche Sichtweisen auf die Welt entwickeln? Diese Fragen, die das Prinzip der Linguistischen Relativität skizzieren, werden seit mehr als einem halben Jahrhundert kontrovers diskutiert. Für Anhänger Chomskys muss die Antwort darauf „Nein“ lauten, denn für sie ist Sprache von den übrigen Kognitionen unabhängig. Forscher in der Tradition Whorfs sind hingegen davon überzeugt, dass Sprache das Denken beeinflusst. Belege für einen indirekten Einfluss sind dabei vergleichsweise unstrittig; so verleiten etwa sprachliche Hinweisreize dazu, bestimmte Kausalfaktoren stärker zu gewichten als andere, und die Art einer Formulierung beeinflusst Erinnerungen an Ereignisse und Bilder.

 

Kontrovers sind hingegen die Schlussfolgerungen aus Sprachvergleichen, wobei sich die Beschäftigung mit dem Farblexikon bislang als besonders produktiv erwiesen hat. Entsprechende Studien zeigen, dass es tatsächlich einen Unterschied macht, ob zwischen zwei Farbtönen eine lexikalische Grenze gezogen wird – zwar nicht auf die Farbwahrnehmung selbst, wohl aber auf die Beurteilung der Ähnlichkeit von Farbtönen, auf die schnelle Unterscheidung zwischen Farbtönen, auf das Lernen neuer Farbkategorien und auf das Wiedererkennen von Farbtönen. Diese Effekte lassen sich sogar auf neuronaler Ebene nachweisen. Allerdings sind die meisten dieser Effekte davon abhängig, ob Personen bei der Aufgabenbearbeitung am (inneren) Sprechen gehindert werden oder nicht.

 

Weniger gut untersucht sind die im Whorfschen Sinne eigentlich interessanteren Effekte grammatischer Strukturen auf das Denken. Eines der Beispiele, das auch gesellschaftspolitische Relevanz besitzt, ist das grammatische Geschlecht von Substantiven. Befunde, wonach sich das grammatische Geschlecht eines Objektes darauf auswirke, als wie weiblich oder männlich wir das Objekt einschätzen, konnten für das Deutsche nicht repliziert werden. Bei Personen hingegen scheint die Verwendung des generischen Maskulinums dazu zu verleiten, eher an Männer als an Frauen zu denken.

 

PDF-Kapitelübersicht 12



 

Ihr Suchergebnis leitet Sie auf die Website www.testzentrale.de.