Macht Musik schlau?
später, 1874, beschrieb der Breslauer Neurologe Carl Wernicke (1848â1905) andere, für die damalige Zeit nicht weniger spektakuläre Fälle. Diese Patienten konnten zwar alle noch sprechen, aber sie konnten Gesprochenes einfach nicht mehr verstehen. Ebenso wie Paul Broca hat Carl Wernicke die Gehirne der Patienten nach deren Tod untersucht und festgestellt, dass bei ihnen erhebliche strukturelle Schäden in den oberen Schläfenlappenwindungen der linken Hemisphäre vorlagen, weshalb diese Hirnregion fortan als die Region des Sprachverstehens galt und als Wernicke-Areal bezeichnet wurde und immer noch wird. In der Folgezeit nahm die Anzahl der Befunde an neurologischen Patienten zu, nach denen solche Sprachproduktions- und -wahrnehmungsstörungen nur aufzutreten schienen, wenn die Schädigungen in der linken Hemisphäre vorlagen. Deshalb wird bis heute die linke Hemisphäre als die sprachdominante bezeichnet. Schädigungen der rechten Hirnhälfte schienen hingegen zu anderen psychologischen Defiziten zu führen. Insbesondere das Wahrnehmen und Produzieren von Musik scheinen bei Schädigungen in der rechten Hirnhälfte beeinträchtigt zu sein. Damit war eine Dichotomie geboren, die bis heute Bestand hat und nahelegt, dass sprachliche Funktionen in der linken Hirnhälfte und musikalische in der rechten angeordnet sind. Mittlerweile wissen wir allerdings, dass Sprache und Musik wesentlich komplexer im Gehirn verankert sind und auch wichtigeQuerverbindungen zwischen diesen beiden zentralen Funktionen existieren. Bereits in den Abschnitten 8.1 und 8.2 habe ich ja die Amusien dargestellt und dargelegt, dass auch bei Menschen mit Aphasien, die in der Regel durch linksseitige Hirnstörungen hervorgerufen werden, Amusien (also Musikwahrnehmungs- und -produktionsstörungen) hervorgerufen werden. Ich werde im Folgenden auf die Ãberschneidungen und Gemeinsamkeiten von Funktionen eingehen, die bei der Musik- und Sprachverarbeitung bislang bekannt geworden sind. Hierbei werde ich versuchen, nicht die vielen Einzelbefunde zu referieren, sondern sie zu einem konsistenten Ganzen zusammenfassen.
11.1
Funktionen und Module
In den letzten 15 Jahren wurden viele wissenschaftliche Studien publiziert, in denen man den Versuchspersonen unterschiedliches Musik- und Sprachmaterial dargeboten hatte, während gleichzeitig die Hirnaktivität gemessen wurde. Hierbei zeigte sich übereinstimmend, dass neuronale Netzwerke beider Hirnhemisphären bei Musik- und Sprachstimulationen aktiv waren. Entgegen der Annahme des einfachen dichotomen Modells, dass Sprache in der linken und Musik in der rechten Hemisphäre verarbeitet würde, sind offenbar beide Hemisphären jeweils an der Musik- und an der Sprachverarbeitung beteiligt. Es stellte sich heraus, dass es eigentlich keine Hirngebiete gibt, welche ausschlieÃlich für die Verarbeitung von Sprache oder Musik verantwortlich sind. Man stellte vielmehr eine Spezialisierung auf untergeordneten Funktionsebenen fest. So ist z.B. der Hörkortex der linken Hemisphäre darauf spezialisiert, akustische Reize mit sich schnell verändernden Merkmalen (z.B. Silben) zu analysieren, während der Hörkortex der rechten Hemisphäre eher langsamere akustische Ereignisse analysiert und insbesondere auf die Analyse von Frequenzinformationen (z.B. bestimmte Aspekte von Klangfarben und Tonhöhen) spezialisiert ist. Diese spezialisierten Module werden für die Wahrnehmung sowohl von Musik wie auch von Sprache genutzt.
Im Folgenden möchte ich ein Beispiel für einen komplexen Wahrnehmungsvorgang im Zusammenhang mit der Sprachwahrnehmung darstellen. Stellen Sie sich vor, Sie würden die Silbe /ta/ hören. Sie besteht aus zwei wesentlichen Elementen: 1. Der Stimmeinsatzzeit und 2. dem Vokal. Die Stimmeinsatzzeit ist die Zeit von Beginn der Artikulation des/t/ bis zum Beginn des Vokals. Dieses Zeitintervall ist sehr kurz und dauert je nach Silbe bzw. Startkonsonant von etwas mehr als einer Millisekunde bis zu zirka 100 Millisekunden. Die Dauer dieser Stimmeinsatzzeit ist aber charakteristisch für ganz bestimmte Konsonanten. Lange Stimmeinsatzzeiten treten beim /ka/ auf (ca. 80 Millisekunden), kürzere für /ta/ (ca. 50 Millisekunden) und sehr kurze für Silben, die mit stimmhaften Konsonanten beginnen wie das /ba/ (ca. 5 Millisekunden). Für das Erkennen der Silbe und des Eingangskonsonanten muss das Hörsystem diese
Weitere Kostenlose Bücher