uni-potsdam.de

Sie verwenden einen veralteten Browser mit Sicherheitsschwachstellen und können die Funktionen dieser Webseite nicht nutzen.

Hier erfahren Sie, wie einfach Sie Ihren Browser aktualisieren können.

Ich sehe was, was du nicht siehst – Was unser Gehirn leisten muss, wenn wir die Perspektive wechseln

Versuchsaufbau von XPRAG. Foto: Choonkyu Lee.

Versuchsaufbau von XPRAG. Foto: Choonkyu Lee.

„Mit Ihnen spreche ich anders als mit meiner Kollegin“, sagt Isabell Wartenburger. Die Professorin für Patholinguistik/Neurokognition der Sprache beschreibt damit ziemlich prägnant eines ihrer derzeitigen Forschungsvorhaben. Sie weiß, dass eine Journalistin wenig mit der Fachsprache ihres Arbeitsbereiches anfangen kann. Also wählt sie andere Worte, stellt sich auf ihr Gegenüber ein. Sie wechselt die Perspektive. Was aber verlangt das von ihrem Gehirn? Wie fleißig muss der Kopf arbeiten, um auf solche unterschiedlichen Situationen in der Kommunikation zu reagieren? Genau das wird derzeit an der Universität Potsdam mithilfe verschiedener Methoden bei Kindern und Erwachsenen erfasst. Unter dem Titel „Experimentelle Pragmatik“ (XPRAG) beschäftigen sich deutschlandweit Wissenschaftler in 16 Projekten mit dem Gebrauch und der Bedeutung von Sprache. Der auf sechs Jahre angelegte Forschungsverbund wird von der Deutschen Forschungsgesellschaft (DFG) gefördert.

Im Potsdamer Teilprojekt, das Isabell Wartenburger gemeinsam mit ihrer Kollegin Prof. Dr. Barbara Höhle leitet, untersuchen zwei Postdoktorandinnen und ein Postdoktorand, wie das Wissen darüber, was der Gesprächspartner weiß, das eigene Sprachverständnis beeinflusst. Seit Oktober 2014 gehen sie mit verschiedenen Tests der Frage auf den Grund, wie diese Perspektivübernahme erfolgt. Sie spielen mit ihren Probanden sozusagen „Ich sehe was, was Du nicht siehst“.

Maria Richter, eine der Postdoktorandinnen, erklärt den Versuchsaufbau: „Das experimentelle Design sieht vor, dass der Proband am Computer ein Kommunikationsspiel spielt. Sein Kommunikationspartner ist ein Avatar, also eine künstliche Person. Proband und Avatar sitzen sich virtuell gegenüber und sehen ein Regal mit überwiegend offenen Fächern. In einigen befinden sich Objekte. Der Avatar fordert den Probanden mit Sätzen auf, jeweils ein bestimmtes Zielobjekt per Mausklick zu verschieben.“ Das spannende an dieser Aufgabe sei, dass einige Fächer an der einen Seite abgedeckt sind, so Maria Richter. Diese Objekte sind dann nur für den Probanden sichtbar, nicht aber für den Avatar. Dadurch werde ein Konflikt ausgelöst: Der Avatar sieht nur zwei Objekte einer Gruppe, der Proband aber drei. Fordert der Avatar nun den Probanden auf, zum Beispiel das kleine Schaf nach oben zu bewegen, so muss der Proband berücksichtigen, dass der Avatar nicht über das gleiche Wissen verfügt, wie er selbst. Der Proband sieht drei Schafe unterschiedlicher Größe, der Avatar nur zwei. Das für den Probanden kleine Schaf ist für den Avatar nicht sichtbar, also muss der Proband den Impuls unterdrücken, dieses auszuwählen, und stattdessen das für ihn mittelgroße Schaf wählen. Der Proband muss also die Perspektive des Avatars übernehmen und auf das mittelgroße Schaf zeigen.

Kann man seine egozentrische Sicht aber so einfach ausblenden und wenn ja, wann genau geschieht das? Und wie viel Gehirnleistung „kostet“ es, das kleine Schaf zu ignorieren, das der Avatar nicht sieht? Wie lange und wann genau spielt das kleine Schaf für das Gehirn des Probanden eine Rolle? Das alles wird durch eine Elektroenzephalografie (EEG) sichtbar, das die Gehirnströme während der gesamten Verarbeitungszeit misst.

Maria Richter ist seit März 2015 Teil des XPRAG-Teams und hat bereits große Erfahrung in der Erhebung und Auswertung von neurowissenschaftlichen Daten mithilfe des EEG. Sie erforscht gemeinsam mit der assoziierten Postdoktorandin Lu Zhang, was im Gehirn passiert, wenn wir mit einer anderen Person kommunizieren und diese Kommunikation nur gelingt, wenn wir den Standpunkt oder die Sichtweise unseres Kommunikationspartners einnehmen. „Als Grundlage dient uns die Erkenntnis, dass ein Sprecher nur so viele Informationen gibt, wie aus seiner Sicht nötig sind, um verstanden zu werden – also nicht mehr als notwendig. Der Sprecher muss also mutmaßen, was der Hörer schon weiß. Das bezeichnet man als gemeinsame Wissensgrundlage, als Common Ground. Darüber hinaus können aber sowohl der Sprecher als auch der Hörer über Wissen verfügen, das der jeweils andere nicht hat. Das kann von einer privilegierten Sichtweise herrühren und wird als Privileged Knowledge bezeichnet.“ Wenn ein Wissenskonflikt nicht vom Sprecher korrigiert werde, könne die Kommunikation erschwert sein, betont Maria Richter. „Diese Kommunikationssituation wollen wir durch eine Reihe von Computerexperimenten simulieren und dabei das EEG ableiten“, ergänzt ihre Kollegin Lu Zhang.

Das Experiment der Potsdamer Linguisten ist innerhalb des großangelegten Versuchsfeldes „Experimentelle Pragmatik“ nur eines von vielen Puzzle-Teilen, die zusammen helfen sollen zu verstehen, wie das Gehirn Sprache verarbeitet und wie schnell wir die Perspektive eines anderen übernehmen können. „Dabei stützen wir uns auf die Reaktionen von 20 bis 25 erwachsenen Versuchspersonen“, sagt Isabell Wartenburger. Ähnliche Untersuchungen werden jetzt auch mit Kindern absolviert, um herauszufinden, wie und wann Kinder lernen, dass ihre eigene Perspektive nicht immer mit der des Sprechers übereinstimmt, und wie sie dieses Wissen in ihr Sprachverständnis einbeziehen. Die Kinder sitzen dabei nicht wie die Erwachsenen vor einem Computer, sondern vor einem echten Regal mit echten Plüschtieren. Anhand ihrer Reaktionen wird abgelesen, ab wann Kinder diesen Perspektivwechsel vollziehen können und welche Fehler ihnen dabei unterlaufen.

In einer Eye-Tracking-Studie, in der Blickbewegungen aufgezeichnet und analysiert werden, nimmt sich Postdoktorand Choonkyu Lee der vier- bis fünfjährigen Kinder an. „Wir nutzen ein Regal im Drei-mal-Drei-Raster. Von der einen Seite sind zwei Felder blockiert. Eine sprechende Puppe stellt dem Kind dann eine Aufgabe, wie: ,Nimm das kleine Schaf!‘ Wir überprüfen anhand der Augenbewegungen des Kindes, wie schnell und präzise das richtige Ziel erkannt wird, wenn der Blick der Puppe auf das kleinste Schaf versperrt und damit das eigentlich korrekte Ziel das nächstkleinste Schaf ist“, so Choonkyu Lee. Die Auswertung werde dann zeigen, ob und wie schnell sich Kinder einer bestimmten Altersgruppe in andere hineinversetzen können.

Das Ganze habe erst einmal keinen direkten praktischen Nutzen, betont Isabell Wartenburger. Es spiele aber in der Pragmatikforschung eine große Rolle und könnte in der Zukunft für die Entwicklung von Therapieansätzen aufschlussreich sein oder auch für die sprachliche Interaktion von Computern und Menschen. „Gerade bei Kindern ist es doch interessant, ab wann es ihnen gelingt, von ihrem eigenen Sichtbild zu abstrahieren und zu begreifen, dass andere Menschen ein anderes Wissen, andere Gedanken, andere Gefühle haben als sie selbst, und sie sich darauf einstellen können“, so die Psychologin. Mithilfe des EEG und der Eye-Tracking-Methode wollen die Potsdamer Sprachwissenschaftler ein Modell etablieren, das Aufschluss gibt, wann und wie schnell wir uns in andere hineinversetzen und sagen können: „Ich sehe – auch – das, was du siehst.“

Die Wissenschaftler

Prof. Dr. Barbara Höhle studierte Linguistik an der Technischen Universität Berlin und promovierte und habilitierte sich an der Freien Universität Berlin. Seit 2005 ist sie Professorin für Psycholinguistik/Spracherwerb an der Universität Potsdam.

Kontakt

Universität Potsdam
Department für Linguistik
Karl-Liebknecht-Str. 24–25, 14467 Potsdam
E-Mail: barbara.hoehleuni-potsdamde

Prof. Dr. Isabell Wartenburger studierte Psychologie in Bielefeld, promovierte an der Charité Berlin und war Stiftungs-Juniorprofessorin mit Tenure Track an der Universität Potsdam. Seit 2013 ist sie Professorin für Patholinguistik/Neurokognition der Sprache an der Universität Potsdam.

Kontakt

E-Mail: isabell.wartenburgeruni-potsdamde

Maria Richter studierte an der Universität Potsdam Patholinguistik und trat 2011 eine Doktorandenstelle am Max-Planck-Institut für Kognitions- und Neurowissenschaften in Leipzig an. Seit März 2015 gehört sie zum XPRAG-Team.

Kontakt

E-Mail: marichteuni-potsdamde

Dr. Choonkyu Lee studierte Linguistik und Psychologie an der University of Southern California in Los Angeles (USA) und Psychologie an der Rutgers University New Brunswick (USA) und promovierte dort 2012. Danach war er Postdoc am Utrecht Institute of Linguistics in Utrecht (Niederlande). Seit Oktober 2014 ist er Postdoktorand im XPRAG-Team.

Kontakt

E-Mail: chleeuni-potsdamde

Lu Zhang studierte im M.Sc. Language Science and Technology an der Saarland Universität und trat 2009 eine Doktorandenstelle an der Universität Bielefeld an, seit 2013 ist sie Postdoc an der Berlin School of Mind and Brain und seit Sommer 2014 assoziierte Postdoktorandin im XPRAG-Team.

Kontakt

E-Mail: zhangluhu-berlinde

Das Projekt

Das Schwerpunktprogramm „New Pragmatic Theories based on Experimental Evidence“ (SPP 1727) wird von der DFG gefördert. An der Universität Potsdam sind drei der insgesamt 16 Projekte beheimatet:
• L2PronRes: Syntactic and discourse-level constraints in native and non-native pronoun resolution (PD Dr. Claudia Felser, Universität Potsdam)
• ExCl: Exhaustivity in Cleft Sentences (Prof. Dr. Victor Edgar Onea Gáspár, Universität Göttingen und Prof. Dr. Malte Zimmermann, Universität Potsdam)

Text: Heidi Jäger
Online gestellt: Agnes Bressa
Kontakt zur Online-Redaktion: onlineredaktionuni-potsdamde