Der Autor dieses Beitrages, Prof. Dr. Rudolf Probst, ist an der HNO-Universitätsklinik des Kantonsspitals Baselland tätig und seit 1991 deren Chefarzt. Nach dem Medizinstudium an der Universität Basel und anschliessender Assistenzarzt-Tätigkeit in Innerer Medizin und allgemeiner Chirurgie folgte die Facharzt-Ausbildung in Otorhinolaryngologie an der HNO-Universitätsklinik Basel. Ein Forschungsaufenthalt als Stipendiat des Schweizerischen Nationalfonds zur Förderung der Wissenschaften führte ihn 1984/85 ans Baylor College of Medicine in Houston, Texas/U.S.A. Die darauffolgende Habilitation fand wieder an seiner „Heimat-Uni“ in Basel statt. Prof. Probst´s hauptsächliche klinische Tätigkeit betrifft die Otologie, das Cochlear Implant sowie die Schädelbasis-Chirurgie. Wissenschaftlich liegen seine Schwerpunkte in der normalen und pathologischen Funktion des Gehörs. 1999 werden Projekte über die Interaktion zwischen peripherer Funktion und zentraler Verarbeitung durchgeführt. Die grundsätzliche Analyse des Hörvorgangs und seiner pathologischen Einschränkungen aus fachärztlicher Sicht schien uns für eine Veröffentlichung bedeutsam.
Einleitung
Wichtige Teile der Kommunikation, und damit des sozialen Verhaltens, werden durch den Gehörsinn mitbestimmt. Daneben stellt das Gehör zusätzlich ein richtungs-unabhängiges Warn- und Orientierungs-System dar. Diese Funktionen werden durch Aufnahme und Verarbeitung von periodischen akustischen Luftdruckschwankungen und deren Umwandlung in neurale Signale wahrgenommen. Das Sinnessystem wird eingeteilt in ein peripheres Gehörsystem mit dem äusseren Ohr, dem Mittelohr und dem Innenohr oder der Cochlea, und in ein zentrales Hörsystem, das die Information weiterverarbeitet und insbesondere Schallquellen orten und Schallmuster erkennen kann. Für den Menschen sind die Schallmuster der Sprache besonders wichtig.
Überblick zur Funktion des Gehörs
Das eigentliche Sinnesorgan, das Schallereignisse registriert und in Nervenimpulse umsetzt ist die Cochlea. Dieses Organ enthält Hohlräume, die mit Flüssigkeit gefüllt sind. Es verarbeitet deshalb nicht Luftdruck-Schwingungen sondern periodische Druckschwankungen in einem Flüssigkeits-System. Die akustischen Luft-Schwingungen müssen deshalb in Druckschwankungen des cochlearen Flüssigkeitssystems umgewandelt werden. Dazu dient das Mittelohr.
Diese Umwandlung funktioniert ebenfalls umgekehrt, wenn auch deutlich weniger effektiv, und Schwingungen aus der cochleären Flüssigkeit können in Luft-Schwingungen und akustische Ereignisse umgewandelt werden. Dies geschieht tatsächlich bei den otoakustischen Emissionen (OAE).
In der Cochlea stellt die Umwandlung der akustischen Schwingungen in Nervenpotentiale ein Problem der Zeitstruktur dar. In der zeitlichen Struktur der akustischen Schwingungen liegt viel Information, die nicht verloren gehen soll. Akustische Schwingungen betragen typischerweise mehrere tausend Hertz, während die Nervenfasern eine typische Erholungs- oder Refraktär-Zeit aufweisen, in denen sie nicht erregbar sind. Diese Refraktärzeit erlaubt eine Reizrate von höchstens einigen hundert Impulsen pro Sekunde. Eine zeitliche 1:1 – Übertragung der akustischen Schwingungen in Nervenimpulse ist deshalb zumindest für die hohen Frequenzen nicht möglich. Die Cochlea führt deshalb eine Frequenzanalyse durch, bei der sie die Schwingungen auch aktiv verstärkt.
Im peripheren System wird die auditorische Information möglichst naturgetreu als Gesamtbild erfasst und weitergeleitet. Sie erreichen das ZNS als eine komplexe Mischung der Signale von etwa 30’000 Nervenfasern. Die Aufgabe des zentralen Hörsystems ist es, diese Signale zu trennen und zu erkennen. Dabei können 2 Grundfunktionen unterschieden werden, die Schall-Lokalisation (wo kommt der Schall her?) und die Schallbild-Erkennung (was oder wer erzeugt den Schall?). Diese zwei Funktionen ergänzen sich, sie tragen viel zum „Bewusst-Sein“ des Menschen bei. Wir orientieren uns visuell nur in der Frontalebene, in allen anderen Raumebenen hilft uns das Gehör.
Funktion des äußeren Ohrs
Die Ohrmuschel und der äußere Gehörgang bilden zusammen das äußere Ohr. Seine Funktion ist die einer akustischen Antenne, die Schallwellen differenziert den Mittelohrstrukturen zuführt. Zusammen mit der Cochlea finden sich die Strukturen geschützt tief im Schädelknochen, genauer im Schläfenbein.
Die Ohrmuschel und der Gehörgang bilden zusammen einen Schalltrichter, der gewisse Frequenzbänder durch Resonanz verstärkt. Es sind dies hauptsächlich die Frequenzen um 2 bis 4 kHz, was teilweise die vorwiegende Schädigung des Gehörs durch Lärm in diesem Frequenz-Bereich erklärt. Die Resonanzfrequenz kann durch Faktoren wie Cerumen, Einsteckhörer oder Ohrpassstücke von Hörgeräten verändert werden.
Eine differenzierte Brechung der Schallwellen durch die Form der Ohrmuschel bildet zudem 2 Schallwege, einen direkten über das Cavum conchae und einen indirekten über die Helix und Anthelix. Dieser etwas längere Weg weist eine kurze Schallverzögerung von rund 0.2 ms auf. Diese Verzögerung dient einer gehobenen akustischen Analyse, die insbesondere Bedeutung beim Orten einer Schallquelle in der vertikalen Ebene hat. Daneben wirkt die Ohrmuschel durch Verwirbelung auch als Windbrecher und reduziert so einen andauernden akustischen Einfluss des Windes. Diese Effekte sind aber insgesamt für die auditorische Analyse eher von untergeordneter Bedeutung und der Verlust einer Ohrmuschel stellt keine wesentliche funktionelle Behinderung dar.
Funktion des Mittelohrs
Wie erwähnt verarbeitet die Cochlea nicht Schwingungen in der Luft, sondern in ihren Flüssigkeitsräumen. Die akustische Luftschwingung muss also zuerst auf die Flüssigkeit übertragen werden. Eine direkte Übertragung der Schwingungen von der Luft auf die Flüssigkeit führt zu einer Reflexion der Schallwellen von mehr als 99% an der Flüssigkeits-Oberfläche. Es könnte also weniger als 1% der Schallenergie von der Cochlea aufgenommen und verarbeitet werden. Es ist die Aufgabe des Mittelohrs, diesen Übertragungsverlust möglichst klein zu halten und in bestimmten Frequenzbändern möglichst die gesamte Schwingungs-Energie von der Luft auf die Flüssigkeit zu übertragen. Anders ausgedrückt passt das Mittelohr die Impedanz der Luft-Schallwellen an diejenige der Innenohr-Flüssigkeit an.
Die Impedanzen stellen ein Maß für den Widerstand dar, den die Medien der Schallausbreitung entgegensetzen. Schallwellen breiten sich in Luft und Wasser unterschiedlich aus, diese Medien haben deshalb verschiedene akustische Impedanzen. Um die fast vollständige Reflexion der Luft-Schwingungen an der Flüssigkeitsgrenze zu vermeiden, wandelt das Mittelohr die akustische Impedanz der Schwingungen um. Dabei ist der Unterschied der Übertragungs-Oberflächen vom Trommelfell auf die Steigbügel-Fussplatte der entscheidende Faktor. In den physiologischen Amplituden- und Frequenz-Bereichen geschieht diese Übertragung ohne Verstärkung und ohne Verzerrungen, d.h. passiv und linear.
Wie das äussere Ohr weist auch das Mittelohr als mechanisches System eine Resonanzfrequenz auf, bei der die Schallenergie besonders effektiv übertragen wird. Sie liegt um 1 kHz. Die akustischen Systeme des äußeren Ohrs, des Mittelohrs und des Innenohrs sind so aufeinander abgestimmt, dass unter normalen Bedingungen die Hauptfrequenzen der Sprache besonders effektiv durch das Mittelohr übertragen werden.
Um aber die Impedanzanpassung bei wechselnden Bedingungen effektiv durchführen zu können, muss das Mittelohr eine 2. wichtige Funktion erfüllen: das Trommelfell muss frei schwingen können, d.h. der statische Luftdruck muss im Gehörgang und in der Paukenhöhle etwa gleich sein. Der statische Luftdruck ändert sich durch Wetter und Höhen-Unterschiede dauernd. Ganz besonders erfahren wir mit technischen Mitteln die atmosphärischen Schwankungen des Luftdrucks als Höhen-Unterschiede, sie sind um ein vielfaches größer als die dynamischen Luftdruck-Schwankungen im akustischen Bereich. Ein Höhen-Unterschied von 2 m entspricht einer Druckamplitude bei etwa 120 dB, wobei der statische Druck im Gegensatz zum akustischen Wechseldruck nur in eine Richtung geht. Eine statische Druckverlagerung des Mittelohr-Systems kann aber die Effektivität der Schallübertragung behindern und sogar das Innenohr gefährden. Über die Tuba auditoria (Eustachische Röhre) findet im Normalfall periodisch ein Ausgleich der Druckverhältnisse zwischen der Umgebung und der Paukenhöhle statt, der aber Druckunterschiede am Trommelfell nicht immer verhindern kann. Das Mittelohr muss deshalb auch den statischen Luftdruck ausgleichen können. Innerhalb der Paukenhöhle wird dies durch die gelenkigen Verbindungen der Gehörknöchelchen-Kette sichergestellt. Sie verhindern eine extreme Verlagerung der Stapes-Fussplatte und schützen damit das Innenohr.
Im normalen physiologischen Zustand werden die beiden Hauptfunktionen des Mittelohrs nebeneinander ohne gegenseitige Beeinträchtigung aufrecht erhalten.
Funktion der Cochlea
Die Cochlea löst ihre komplexen Aufgaben der Reiz-Transformation, d.h. Übersetzung der akustischen Schwingungen in Nervenpotentiale, und der Verarbeitung von kleinen Druckamplituden gegen ein bedeutendes Hintergrund-Rauschen zusammen mit sehr viel größeren Druckpegeln mit Hilfe von 2 verschiedenen mechanischen Funktionen:
• Sie führt eine Frequenzanalyse durch und kodiert bestimmte Frequenzen an örtlich bestimmte Nervenfaser (Ortsprinzip oder Tonotopie).
• Sie verstärkt Schwingungen mit niedriger Amplitude biomechanisch (cochleärer Verstärker).
Es kann auch zwischen einer makromechanischen und einer mikromechanisch-zellulären cochleären Funktion unterschieden werden. Grob formuliert kann die makromechanische Funktion mehr der Frequenzanalyse und die mikromechanische mehr der Verstärkerfunktion zugeschrieben werden. Die beiden Funktionen arbeiten allerdings eng verzahnt.
Makromechanische Funktion – Wanderwelle
Die makromechanische Funktion ist eine Folge der besonderen Anordnung der Flüssigkeitsräume in der Cochlea. Zwei Tunnel (Scala vestibuli und Scala tympani) sind einerseits durch eine Struktur mit besonderen physikalischen Eigenschaften (Basilarmembran mit Corti-Organ) voneinander getrennt und andererseits an der Spitze der Cochlea mit einer Öffnung verbunden (Helicotrema). Druckschwankungen in dieser besonderen physikalischen Anordnung führen zu Wanderwellen, die abhängig von der Frequenz eine maximale Auslenkung der Basilarmembran an verschiedenen Orten hervorrufen und die bereits 1928 von Békésy beschrieben wurden. Die Wanderwelle führt zu einer passiven Frequenzanalyse und zur bekannten Tonotopie. Hohe Frequenzen verursachen ein Maximum der Wanderwelle nahe der Basis der Cochlea, tiefe Frequenzen ein Maximum in der Nähe der Spitze. Das Auflösungsvermögen dieser passiven Wanderwellen ist aber für eine differenzierte Gehörfunktion ungenügend.
Mikromechanische Funktion – cochleärer Verstärker
Die Mikromechanik dient einer Feinabstimmung dieser passiven Funktion. Sie findet mit hoher Wahrscheinlichkeit hauptsächlich im Cortischen Organ statt, das der Basilarmembran aufsitzt. Dort sind die eigentlichen Sinneszellen, die Haarzellen zu finden. Es gibt zwei morpholoisch und funktionell verschiedene Haarzell-Typen im Cortischen Organ, die äusseren und die inneren. In einer menschlichen Cochlea sind etwa 3’000 innere und etwa 12’000 äussere Haarzellen vorhanden.
Die rundlichen inneren Haarzellen sind in Stützzellen eingebettet und sie sind entlang dem medialen Rand der Basilarmembran in einer Reihe angeordnet. Die Schwingungen der Basilarmembran übertragen sich dort kaum auf diese Zellen. Die inneren Haarzellen sind aber reichlich mit afferenten Fasern des Hörnervs versehen und es ist deshalb anzunehmen, dass sie die klassische Funktion einer Sinneszelle wahrnehmen, d.h. sie wandeln den physikalischen Reiz der akustischen Schwingung in Nervenpotentiale um. Der adäquate Reiz ist eine Auslenkung der Zilien quer zur Cochlea. Dieser Reiz kommt nicht durch die Schwingung der Basilarmembran direkt zustande, sondern wahrscheinlich durch einen radiären Flüssigkeitsstrom der Endolymphe.
Die äusseren Haarzellen sind in ein kompliziertes Netz von Stützzellen aufgespannt und nur an ihren Enden befestigt. Der längliche Zellkörper wird von Cortilymphe umflossen. Die Zellen zeigen die Fähigkeit zu aktiven, rhythmischen Kontrakturen, die eine Frequenz von bis zu 30’000 Hz erreichen können. Die äusseren Haarzellen sind kaum mit afferenten Hörnerven-Fasern verbunden. Ihre Hauptaufgabe wird deshalb nicht in der klassischen Funktion einer Sinneszelle sondern in der Verstärkung und aktiven Feinabstimmung der Basilarmembran-Schwingungen gesehen.
Die Energie für diesen Prozess wird vom endocochleären Potential bereitgestellt. Dieses Potential kommt durch eine unterschiedliche Ionen-Zusammensetzung von Endo- und Peri-Lymphe zustande. Der Potential-Gradient wird durch aktive Prozesse der Stria vascularis aufrecht erhalten. Die Haarzellen liegen in dieser Spannungsdifferenz, und eine Reduktion der Spannung führt zur Reduktion oder zum Versiegen des aktiven Verstärkerprozesses.
Nichtlineare Funktion – otoakustische Emissionen
Während die passive Wanderwelle proportional zur akustischen Energie wächst, die von aussen zugeführt wird, muss die aktive Verstärkung der akustischen Schwingungen eine Sättigung bei höheren Energien aufweisen. Ähnlich wie bei einem Hörgerät ist eine hohe Verstärkung von kleinen Schwingungen bei gleichzeitig wenig oder keiner Verstärkung von größeren Schwingungen erwünscht. Zudem würde eine gleichförmige Verstärkung von schwachen und starken Schwingungen zu einem instabilen und nicht funktionsfähigen System führen.
Der cochleäre Verstärker arbeitet also nichtlinear und zeigt bei etwa 60 dB SPL eine Sättigung. Je kleiner die Vibrationsenergie, desto größer ist der Verstärkungsfaktor. Solche nichtlinearen Verstärkungen haben auch Nachteile, sie neigen zu Eigenschwingungen und sie zeigen Verzerrungen.
Beide Phänomene können im cochleären Verstärker als otoakustische Emissionen nachgewiesen werden. Spontane Emissionen können als eigenschwingende Rückkopplungen des cochleären Verstärkers bei besonders empfindlichen Frequenzen aufgefasst werden. Diese empfindlichen Frequenzen entsprechen möglicherweise kleinen anatomischen Variationen entlang des cochleären Verstärkers, wie sie durch eine leicht asymmetrische Anordnung der Haarzellen zustande kommen könnten. Transitorisch evozierte Emissionen sind angeregte Nachschwingungen des Verstärkers, wobei empfindliche Frequenzen mit grösserer Amplitude länger schwingen als weniger empfindliche. Distorsionen des Verstärkers können durch eine Stimulation mit 2 Sinustönen direkt nachgewiesen werden.
Klinisch kann die Funktion des cochleären Verstärkers mit den OAE erfasst werden. Das Fehlen von OAE ist Zeichen einer cochleären Schwerhörigkeit, falls die Mittelohr-Übertragung funktioniert. Es kann damit beispielsweise die Funktion der Cochlea beim Neugeborenen schnell und zuverlässig überprüft werden.
Der Ausfall des cochleären Verstärkers ist zumindest teilweise für das Phänomen des pathologischen Lautheits-Ausgleichs oder das Recruitment verantwortlich. Es handelt sich um ein klinisches Zeichen der cochleären Schwerhörigkeit und ist durch eine eingeschränkte Dynamik der Schallverarbeitung bedingt. Leise Schallereignisse werden aufgrund der fehlenden cochleären Verstärkung nicht gehört, laute aber unvermindert laut, da der Verstärker hierfür nicht notwendig ist.
Funktion des zentralen Hörsystems
Die Hörbahn verläuft ab dem Nucleus cochlearis hauptsächlich, aber nicht ausschliesslich kontralateral. Man unterscheidet folgende funktionelle Teile im zentralen Hörsystem, die anatomisch nicht streng getrennt sind:
• Das tonotope System: Die in der Cochlea erfolgte tonotope Zuordnung von bestimmten Frequenzen zu gewissen anatomischen Lokalisationen wird in diesem System bis zur Hirnrinde aufrecht erhalten.
• Das nicht tonotope System: In diesem parallel zum tonotop angelegten System erfolgen andere zentrale Verarbeitungen, die nicht direkt mit der Frequenzanalyse zusammenhängen, beispielsweise die Bearbeitung von zeitlchen Aspekten.
• Das polymodale oder polysensorische System: Darin werden die Verbindungen zu anderen sensorischen und nicht-sensorischen Systemen auf den verschiedenen Stufen des ZNS hergestellt.
Im peripheren System wird die auditorische Information möglichst naturgetreu als Gesamtbild erfasst und weitergeleitet. Sie erreicht das ZNS als komplexe Signalmischung. Die Aufgabe des zentralen Hörsystems ist es, die auditorischen Signale zu trennen und zu erkennen.
Die Anzahl der Neurone, die dieser Analyse dienen, nimmt im Allgemeinen in den höheren Zentren zu, die aufsteigende Hörbahn zeigt also eine Diversifikation. Auch die Verbindungen von höheren zu tieferen Zentren nehmen zu. Während im Hörnerv nur wenige efferente Fasern vorhanden sind sind im ZNS die Verbindungen von höheren Zentren zu den tieferliegenden teilweise zahlreicher als die aufsteigenden. Zudem sind zahlreiche Kollateral-Verbindungen zwischen links und rechts auf allen Niveaus vorhanden. Diese Verbindungen dienen der Analyse und der Kontrolle des Informationsflusses.
Es können 2 Grundfunktionen der Analyse unterschieden werden. Die 2 Funktionen der Schall-Lokalisation und der Schallbild-Erkennung ergänzen sich und lassen sich nicht scharf voneinander trennen. Das Richtungshören bildet eine wesentliche Grundlage für die Schallbild-Erkennung. Sie beruht zu einem grossen Teil auf der Verschaltung der binauralen auditorischen Information im Hirnstamm-Bereich. Sie erlaubt die Bestimmung einer oder verschiedener Schallquellen mehr oder weniger gleichzeitig, ohne dass die Quelle benannt oder identifiziert werden muss. Die Benennung und Identifikation einer Schallquelle oder die Erkennung eines Schallbilds ist eine kognitive Grosshirn-Funktion, die auf Erfahrung und Erlernen beruht. Sie baut auf der Schall-Lokalisation im Hirnstamm auf. Die Schall-Identifikation oder Schallbild-Erkennung schliesst die Trennung von „erwünschten“ auditorischen Informationen oder Schallquellen gegenüber „störenden“ ein, wobei die störenden Schallquellen gemeinhin als „Lärm“ bezeichnet werden.
Im Gegensatz zur visuellen Bilderkennung ist die auditorische haupsächlich dynamisch und transitorisch. Für die menschliche Kommunikation ist die Erkennung von Sprachlauten und deren Zusammensetzung zu
Silben,
Wörtern,
Phrasen und
Sätzen die wichtigste auditorische Bild-Erkennung.
Musik kann als spezialiserte Schallbild-Erkennung aufgefasst werden.
Beim Tinnitus fehlt ein physikalisches Korrelat in der Aussenwelt und es findet auch keine Bild-Erkennung statt. Es entsteht nur „Lärm“ im System.
Autor: Professor Doktor Rudolf Probst
Frei, unabhängig und anspruchsvoll – so soll Ihr Hörsystem in der neuesten Generation aussehen: