x
Loading
+ -

Universität Basel

Wie die Stille tönt.

Text: Yvonne Vahlensieck

Noch ist weitgehend ungeklärt, wie die Verarbeitung von Klängen
im Hirn funktioniert. Im «Brain & Sound Lab» der Universität Basel tasten
sich Forschende Schritt für Schritt an eine Antwort heran.

Das «Brain & Sound Lab» der Universität Basel.
Das «Brain & Sound Lab» der Universität Basel. (Foto: Christian Flierl)

«Völlige Stille erfahren wir in unserem Leben nur sehr, sehr selten», sagt die Neurowissenschaftlerin Tania Barkat. Auch wenn es uns nicht bewusst ist: Ständig sind wir von einer Geräuschkulisse aus Verkehrslärm, Gesprächsfetzen, Vogelgezwitscher, brummenden Kühlschränken, piepsenden Smartphones und vielem mehr umgeben. Trotzdem schafft es das Gehirn, in jeder Situation die Information herauszufiltern, die für uns wichtig ist.

Wie das gelingt, untersucht Barkat mit ihrer Forschungsgruppe im «Brain & Sound Lab» der Universität Basel. «Über das Hören ist noch viel weniger bekannt als über das Sehen», sagt sie. «Die Augen kann man mit einer Brille korrigieren, beim Gehör ist das alles viel komplexer.» Mehr Wissen wäre aber wichtig – etwa, weil durch die immer häufigere Verwendung von Kopfhörern, oft in zu hoher Lautstärke, Probleme auf uns zukommen werden. Oder weil Fehler im Hörprozess auch eine mögliche Ursache von Aufmerksamkeitsstörungen sind.

Hörforschung ist anspruchsvoll

Die Komplexität der auditiven Wahrnehmung ist wohl einer der Gründe, warum sich bis jetzt nur wenige Forschungsgruppen an das Thema herantrauten. Auch technisch sind Experimente zur Klangverarbeitung im Gehirn eine Herausforderung. Denn bei Mäusen, mit denen die meisten Versuche durchgeführt werden, ist das für das Hören zuständige Hirnareal – der auditive Kortex – gerade einmal einen Kubikmillimeter gross und schwer zugänglich.

In den letzten Jahren hat Barkat diese Schwierigkeiten jedoch erfolgreich gemeistert und mit ihrem Team zahlreiche neue Erkenntnisse über das Hören gewonnen. Zum Beispiel, dass am Ende eines Klangs keineswegs Funkstille im Kopf herrscht. Im Gegenteil: Endet ein Ton oder eine bestimmte Klangfrequenz, so reagieren der auditive Kortex sowie weitere Hirnareale darauf mit erhöhter Aktivität. Dieses Phänomen hat die Hirnforscherin Magdalena Solyga während ihrer Doktorarbeit erstmals genauer untersucht. Aufgrund der Resultate glaubt sie, dass diese sogenannte Offset-Antwort eine wichtige Rolle beim Hörprozess spielt.

Für die Versuche brachte Solyga den Mäusen zunächst bei, durch Schlecken an einer Plastikröhre anzuzeigen, dass ein Klang zu Ende ist. Dies gelang in einem zweiwöchigen Trainingsprogramm, bei dem die hungrigen Tiere für die richtige Reaktion mit einem Tropfen Sojamilch belohnt wurden. Für die Experimente platzierte sie die Mäuse dann in eine schalldichte Box und spielte ihnen Töne in verschiedenen Frequenzen und Längen vor. Über im Hirn implantierte Elektroden zeichnete sie dabei die Aktivität von Nervenzellen in verschiedenen Hirnarealen auf.

Aktivität zeigt Stille an

Es zeigte sich, dass die Aktivität der Nervenzellen beim Beginn eines Tons nach oben schnellt und dann rasch auf eine niedrige Basisaktivität abflacht. Erst nach dem Ende des Tons erhöht sich die Aktivität wieder für etwa 50 bis 100 Millisekunden. «Die Nervenzellen signalisieren also nur den Anfang und das Ende eines Tones», so Solyga. Dies sei auf Dauer wohl energiesparender, als wenn die Nervenzellen die ganze Zeit aktiv sind.

Um zu beweisen, dass diese Offset-Antwort tatsächlich nötig ist, schaltete sie die daran beteiligten Nervenzellen gezielt aus. Hierfür setzte sie die Optogenetik ein – mit dieser Technik lassen sich durch genetische Veränderungen bestimmte Nervenzellen durch einen Lichtpuls gezielt ausschalten. Diese Versuchsreihe belegte, dass die Mäuse ohne das Offset-Signal Schwierigkeiten hatten, das Ende eines Tones richtig zu erkennen. «Die Offset-Antwort ist also nicht nur ein Artefakt, sondern hat eine bestimmte Funktion», so Barkat. Beim Menschen sei sie möglicherweise für das Sprachverständnis wichtig. «Auch beim Sprechen gibt es kurze Pausen, die eine Bedeutung haben. Deswegen müssen wir genau wissen, wann ein Laut aufhört.» Und auch um Musik richtig geniessen zu können, müssen wir die kleinsten Pausen wahrnehmen.

Barkat hält es für denkbar, dass mithilfe dieser Erkenntnisse eines Tages die Funktion von Cochlea-Implantaten verbessert werden kann. Die im Ohr platzierten Prothesen ermöglichen gehörlosen Menschen, die gesprochene Sprache zu verstehen − funktionieren aber beispielsweise nicht gut in einer lärmigen Umgebung und beim Hören von Musik. «Vielleicht geht das Offset-Signal bei Cochlea-Implantaten verloren und wir könnten es durch zusätzliche Stimulation von aussen wiederherstellen.»

Vom Einzelversuch zum grossen Bild

Eine solche Anwendung der Forschungsergebnisse im Menschen ist das ultimative Ziel – auch wenn der Weg dorthin noch weit ist. «Natürlich machen wir unsere Experimente letztendlich nicht, um herauszufinden, wie Mäuse hören», sagt Barkat. «Aber unsere Fragestellungen lassen sich nicht direkt im menschlichen Gehirn untersuchen.» Mäuse hingegen sind dafür sehr gut geeignet. Zwar haben sie keine Sprache und hören in einem anderen Frequenzbereich als Menschen, doch die Hirnstrukturen und Signalwege für das Hören funktionieren prinzipiell gleich. Zudem stehen der Hirnforschung für Experimente mit Mäusen zahlreiche gut etablierte Techniken wie die Optogenetik zur Verfügung.

Mit diesen Methoden untersucht das Team von Tania Barkat neben der Offset-Aktivität noch viele weitere Facetten des Hörens: Eine andere Studie ermittelte beispielsweise, wie das Gehirn von passivem Hören auf aktives Zuhören umschaltet. Ein aktuelles Projekt versucht gerade herauszufinden, warum laute Töne als länger empfunden werden als leise.

Und Mäuse mit Cochlea-Implantaten ermöglichen, den Effekt dieser Prothesen auf die Vorgänge im Hirn zu testen. «So verschieden all diese Untersuchungen scheinen, letztendlich haben sie alle mit der Plastizität des Gehirns zu tun», sagt Barkat. «Wir schauen all diese Vorgänge einzeln unter kontrollierten Bedingungen im Laborexperiment an und versuchen sie zu verstehen. Dann erst können wir die Komplexität erhöhen und unter realistischeren Bedingungen untersuchen, wie es das Gehirn schafft, sich beim Hören immer wieder an verschiedene Umgebungen und Aufgaben anzupassen.»

nach oben