Kontakt

Presse & Kommunikation

+49 (0) 441 798-5446

Cocktailpartys und Hörgeräte: Wege zum besseren Hören

von Birger Kollmeier

Schwerhörige und ältere Personen klagen oft über ihre Schwierigkeiten, Sprache unter Störgeräuscheinfluß zu verstehen. Konventionelle Hörgeräte können bei dieser Situation nicht helfen, weil sie Nutzsignale und Störschall in gleicher Weise verstärken. Außerdem beklagen Schwerhörige sich darüber, daß der Schall entweder zu leise oder zu laut ist, so daß der Lautstärkeregler am Hörgerät dauernd betätigt werden muß. Woher dieser Effekt kommt und welche Möglichkeiten "intelligente" Hörgeräte der Zukunft bieten, wird im folgenden Beitrag vorgestellt.

Wieso werden Hörgeräte immer teurer und Walkmen immer billiger?". Diese Frage vom ehemaligen Bundeswirtschaftsminister Manfred Bangemann macht das fehlende Verständnis für die Problematik von Hörstörungen nur allzu deutlich. Während die Brille als Mode-Accessoir längst gesellschaftlich akzeptiert ist, haftet dem Hörgerät das Image der Prothese an, die man am liebsten versteckt oder erst gar nicht trägt. Dabei sind die Auswirkungen von Hörstörungen beispielsweise bei Kleinkindern viel gravierender als etwa Sehstörungen: Im Gegensatz zu blind geborenen Kindern können taub geborene Kinder nur sehr mühsam mit der Umwelt kommunizieren und zeigen bleibende Entwicklungsdefekte, wenn ihre Hörstörung nicht rechtzeitig (am besten innerhalb des ersten Lebensjahrs) behandelt wird. Auch ältere Personen mit Hörproblemen ziehen sich leicht aus dem sozialen Leben zurück und werden isoliert. Dies ist insbesondere auf den gestörten "Cocktail-Party-Effekt" zurückzuführen, d. h. die verlorengegangene Fähigkeit, sich auf einen Sprecher in einer lebhaften, mit Störgeräusch behafteten Situation zu konzentrieren und alle anderen Schallsignale zu unterdrücken.

Herkömmliche Hörgeräte können an diesem Problem nur sehr wenig ändern, weil sie den zugrundeliegenden Defekt, zumeist eine Innenohrschwerhörigkeit, nicht beheben können. Sie sind zwar gut geeignet für die Behandlung einer Schalleitungsschwerhörigkeit (z. B. bei Krankheiten des Außen- oder Mittelohrs, aufgrund derer der Luftschall nur abgeschwächt in das Innenohr gelangen kann). Schwieriger ist die Situation bei der häufigeren Schallempfindungsschwerhörigkeit, die meist auf Schäden im Innenohr zurückzuführen ist. Bei ihr tritt neben der reinen Abschwächung des Schalls auch eine Verzerrung der wahrgenommenen Schallanteile auf. Um wieder den Vergleich mit dem optischen System heranzuziehen: Die Schalleitungsschwerhörigkeit gleicht etwa dem Betrachten der Umwelt durch eine Sonnenbrille. Ein Hörgerät wirkt wie ein zusätzlicher Scheinwerfer, der diesen Defekt wieder ausgleichen kann. Eine Schallempfindungsschwerhörigkeit würde dagegen dem Betrachten der Umwelt durch eine abgedunkelte Milchglasscheibe entsprechen, von der zudem der größte Teil so stark geschwärzt ist, daß man nur einen kleinen Blickwinkel hat. Daß ein Scheinwerfer in dieser Situation keine signifikante Verbesserung bringt, liegt auf der Hand.

Wie arbeitet das menschliche Gehör?

Das Außenohr dient zur richtungsabhängigen Verfärbung (Filterung) des Schalls, der durch das Mittelohr möglichst verlustfrei an das flüssigkeitsgefüllte Innenohr weitergeleitet wird. Dort wird der Schall in verschiedene Frequenzanteile zerlegt, wobei die hohen Frequenzen am Anfang und die tiefen Frequenzen am Ende der Schnecke abgebildet werden. In physikalischer Sichtweise entspricht dies einer Filterbank. Anschließend werden im Innenohr die Schallschwingungen durch die Haarzellen in Nervenerregungen umgewandelt, die dem genauen Verlauf des Schalls nur mit einer gewissen Trägheit folgen können. Physikalisch entspricht dies einer Einhüllenden-Extraktion durch Halbweg-Gleichrichtung und Tiefpaß-Filterung mit anschließender nichtlinearer Adaptation. Der Zeitverlauf der Nervenerregungen im Hörnerv und auf den anschließenden Stationen der Hörbahn im Gehirn wird in verschiedene Rhythmen (Modulationsfrequenzen) aufgespalten, was physikalisch einer Modulations-Filterbank entspricht. Zusammen mit dem "internen" Rauschen des neuronalen Systems bildet der Ausgang der Modulations-Filterbank die "interne Repräsentation" des akustischen Signals nach, d.h. die Spur, die ein akustischer Klang in unserem Gehirn hinterläßt. Sie kann nun als Eingangsgröße für verschiedene Mustererkennungs-Strategien dienen, anhand derer verschiedene Klänge im Gehirn erkannt und unterschieden werden können. Mit einem derartigen Modell der auditorischen Signalverarbeitung versuchen wir als Physiker, die Leistungen des Gehörs von der Detektion eines Tons im Rauschen bis hin zur Sprachwahrnehmung quantitativ zu verstehen.

Audiologie: Was ist defekt im Ohr?

Wenn ein Patient mit einer Hörstörung zum Hals-Nasen-Ohren-Arzt geht, wird nach einer Erhebung des Krankheitsverlaufs die Funktion von Außen- , Mittel- und Innenohr sowie der nachfolgenden Schallverarbeitung im Zentralnervensystem mit audiometrischen und klinischen Routineverfahren gemessen. In den meisten Fällen kann die Art der Störung damit gut eingegrenzt werden, und bei einigen Formen der Schwerhörigkeit (z. B. der Schalleitungsschwerhörigkeit bei Außen- bzw. Mittelohrfunktionsstörungen) bestehen gute Möglichkeiten zur Heilung (z. B. nach einer Mittelohr-Operation) bzw. Kompensation (durch ein Hörgerät). Bei der überwiegenden Zahl von Hörstörungen (insbesondere bei Innenohrschäden und bei Tinnitus, d. h. chronischen Ohrgeräuschen ohne äußere Ursache) sind die Behandlungserfolge jedoch äußerst begrenzt. Die audiometrische Standard-Diagnostik ist nur auf diese Behandlungsmöglichkeiten ausgerichtet und kann daher eine weitere Differenzierung des Hörverlustes nicht leisten. Erst in jüngerer Zeit sind daher unter maßgeblicher Beteiligung unserer Arbeitsgruppe neue Methoden für eine differenziertere Hördiagnostik entwickelt worden, die sich an den verschiedenen Beschwerdebildern von Patienten mit Innenohrschwerhörigkeit orientieren:

Beim "Recruitment-Phänomen" klagt beispielsweise der schwerhörige Patient darüber, bei niedrigen Lautstärken noch nichts zu hören, während bei einer Anhebung der Sprachlautstärke plötzlich die Schmerzgrenze erreicht wird. Herkömmliche Hörgeräte können meistens nicht zu einer befriedigenden Lösung dieses Problems beitragen, so daß der Betroffene bzw. die Betroffene ständig den Lautstärkeregler des Hörgeräts betätigen muß. Um das Recruitment-Phänomen beim individuellen Patienten genau zu erfassen, bedient man sich des psychoakustischen Verfahrens der Hörfeldskalierung: Angeboten werden akustische Signale (z. B. schmalbandige Rausch-Impulse) mit zufällig ausgewählter Lautstärke. Die Aufgabe des Patienten ist es nun, die jeweils empfundene Lautheit auf einer Skala zwischen 0 (nichts gehört) und 50 (zu laut) anzugeben. Die Grafik auf S. 12 (rechts unten) zeigt das Resultat für normalhörende Versuchspersonen (Kurve links) im Vergleich zu dem Resultat bei einem Schwerhörenden mit Recruitment (Meßpunkte und Kurve rechts): Während bei Normalhörenden ein kontinuierlicher Anstieg der empfundenen Lautheit mit zunehmender Lautstärke des akustischen Signals auftritt, zeigt der Schwerhörende erst ab einer erhöhten Schwellenlautstärke einen steilen Anstieg der empfundenen Lautheit mit zunehmender Lautstärke. Der Unterschied zwischen Normalhörenden und individuellem Schwerhörigen kann in "intelligenten" Hörgeräten nun ausgenutzt werden, um für jedes beliebige Eingangssignal dem Schwerhörenden exakt den gleichen Lautheits-Eindruck zu vermitteln, wie einem Normalhörenden. Ein weiteres Beschwerdebild, das von der Standard-Audiometrie bisher nicht erfaßt wurde, ist die verschlechterte Sprachverständlichkeit unter Störgeräuschen, der reduzierte "Cocktail-Party-Effekt". Dabei ist gerade bei einer beginnenden Schwerhörigkeit diese Unfähigkeit, in einer störgeräuschbehafteten Umgebung sich auf einen Sprecher zu konzentrieren und nicht nur "Wortsalat" zu verstehen, eine der häufigsten Beschwerden. Auch in dieser Situation helfen konventionelle Hörgeräte wenig, weil sie Nutz- und Störsignal in gleicher Weise verstärken. In unserer Arbeitsgruppe sind nun verschiedene Testverfahren erprobt und u. a. in einem vom Bundesministerium für Bildung und Forschung (BMBF) gefördertenVerbundprojekt mit mehreren HNO-Universitätskliniken erfolgreich in der Praxis eingesetzt worden. Diese Verfahren messen die Sprachverständlichkeitsschwelle im Störgeräusch, d. h. die Sprachlautstärke, bei dem man unter Störgeräuscheinfluß noch 50 Prozent der Sprache verstehen kann. Die Aufgabe der Versuchsperson ist es, das vorgespielte, im Rauschen versteckte Wort aus einer Liste von Antwort-Alternativen durch Antippen des Touch-Screens zu markieren. Bei Messungen mit innenohrschwerhörigen Patienten stellt sich dabei eine deutlich verschlechterte Sprachverständlichkeitsschwelle im Störgeräusch dar, die allerdings individuell sehr stark schwanken kann. Wichtig für den Cocktail-Party-Effekt ist aber nicht nur die Leistung, die von jedem Ohr allein (monaural) erreicht werden kann, sondern das zweiohrige (binaurale) räumliche Hören: Durch den Vergleich der an beiden Ohren anliegenden Signale ist unser Gehirn in der Lage, Störgeräuschanteile zu unterdrücken, die aus einer Richtung kommen, und Nutzsignalanteile aus einer anderen Richtung zu verstärken. Diesen Effekt kann man quantitativ mit einer Anordnung ausmessen, bei der zunächst Nutz- und Störquelle aus derselben Richtung (z. B. von vorne) eintreffen. Wird nun die Störgeräuschquelle zur Seite ausgelenkt, wird die Sprachverständlichkeits-Schwelle bei Normalhörenden um bis zu 12 dB besser, was zu einer um 100 Prozent besseren Verständlichkeit führen kann. Dies wird zum einen durch die oben beschriebene binaurale Signalverarbeitung (d. h. durch den Vergleich beider Ohrsignale) bewirkt und zum anderen durch den rein monauralen Kopfabschattungseffekt, d. h. auf dem "besseren", der Schallquelle mehr zugewandtem Ohr ist der Nutzschall lauter und der Störschall leiser. Um diese beiden Effekte von einander zu trennen, kann man in der Situation mit getrennter Nutz-und Störschallquelle noch das "schlechtere" (der Nutzschallquelle abgewandte) Ohr abdämpfen, so daß der binaurale Gewinn durch "Hinzuschalten" des "schlechteren" Ohrs ausgemessen werden kann. Besonders elegant läßt sich diese Messung mit einer "virtuellen akustischen Umgebung" durch führen, bei der dem Patienten die Schallsignale über Kopfhörer angeboten werden, so daß das linke und rechte Ohr unabhängig voneinander getestet werden können. Die unterschiedlichen Schall-Einfallsrichtungen werden durch Kunstkopftechnik bzw. auf dem Rechner durch Faltungsoperationen in Echtzeit erzeugt.

Durch diese Meßtechnik kann für den individuellen Patienten der Gewinn von zweiohrigem gegenüber einohrigem Hören quantitativ erfaßt werden. Neben diagnostischen Aussagen über das Zusammenwirken beider Seiten des auditorischen Systems kann daher auch der möglichen Nutzen von zweiseitiger Hörgeräte-Versorgung gegenüber der leider bisher noch überwiegend angewandten einseitigen Hörgeräteversorgung abgeschätzt werden. Außerdem läßt sich der Gewinn durch neuartige, "intelligente" Hörgeräte vorhersagen, die diese binaurale Funktionen mit einbeziehen. Um diese neuen Techniken in die Praxis der Hördiagnostik und Hörgeräteversorgung umzusetzen, sind einige Anstrengungen nötig, die u. a. im Rahmen des klinischen Verbundprojektes bereits initiiert wurden. Sie sollen aber auch im Rahmen des in Gründung befindlichen "Hörzentrums Oldenburg" angewandt werden: Neben der angewandten Hörgeräteforschung ist die Spezial-Diagnostik von Hörstörungen und die Anpassung von speziellen Hörgeräten vorgesehen, sowie die Fort- und Weiterbildung von Personen, die sich beruflich mit diesen Themen beschäftigen.

Intelligente Hörgeräte: 22 Kilogramm Rechenpower

Derzeitige, kommerziell erhältliche Hörgeräte sind zumeist regelbare Verstärker, deren Frequenzgang und Regelcharakteristik nur in gewissen Grenzen vorgegeben werden können, so daß der Schall frequenzabhängig verstärkt wird. Eine erfolgreiche Kompensation des oben beschriebenen "Recruitment"-Phänomens und des gestörten "Cocktail-Party-Effekts" ist jedoch nicht möglich. Die in unserer Arbeitsgruppe entwickelten Hörgeräte-Algorithmen haben jedoch genau dieses Ziel: Wir versuchen, aufgrund unserer Kenntnisse des gestörten und ungestörten Hörvorgangs Signalverarbeitungs-Strategien zu entwickeln, die genau den gestörten Funktionen des Hörvorgangs angepaßt sind und zu einer möglichst vollständigen Rehabilitation Schwerhörender führen sollen. Weil diese Forschung unabhängig von dem derzeit rechentechnisch in tragbarer Form zu leistenden Format ist, wiegt unser derzeitiges Hörgerät stolze 22 Kilogramm! Das Blockschaltbild für einen Hörgerätealgorithmus, der in diesem Hörgerät implementiert wurde, ist rechts dargestellt. Von besonderer Bedeutung ist der prinzipielle binaurale Aufbau: Von den Mikrophonen an beiden Ohren wird das Signal aufgenommen und mit je einem Analog-Digital-Wandler in digitale, für den Computer verarbeitbare Signale umgewandelt. Die weitere digitale Signalverarbeitung führt zunächst eine Frequenzanalyse durch (Kurzzeit-Fourier-Transformation), die in etwa der Frequenzanalyse des menschlichen Gehörs entspricht. Anschließend wird in jedem Frequenzband die interaurale (d. h. zwischen beiden Ohren anliegende) Pegeldifferenz, Phasendifferenz und Kokärenz ermittelt, die als Maß dafür dienen, ob der Schall in dem jeweiligen Frequenzband von vorne oder von der Seite einfällt oder ob ein diffuses Nachhall-Signal vorliegt. Mit Hilfe dieser Kenngrößen kann der von vorne einfallende Signalweg verstärkt werden, während die seitlich einfallenden Schallsignale und der Nachhall abgeschwächt werden. Auf diese Weise kann ein scharfes Richtungsfilter realisiert werden, das nur Schall aus der Blickrichtung des Patienten (Gearadeausrichtung) passieren läßt und sämtliche unerwünschten Schallanteile unterdrückt. Durch diese Signalverarbeitungstechniken ist eine deutliche Verbesserung der Sprachverständlichkeit unter Störgeräuschen und unter Nachhalleinfluß für die meisten der bisher getesteten Schwerhörenden möglich. Je nach Störschall/Nutzschall-Situationen beträgt der Gewinn im Signal-Rauschverhältniss zwischen 2 und 10 dB, was zu einer Verständlichkeits-Verbesserung bei fließender Sprache von 20 bis 80 Prozent führen kann.

Um ebenfalls das oben beschriebene "Recruitment"-Phänomen zu kompensieren, wird mit den störgeräuschunterdrückten Signalen die bei einem Normalhörenden zu erwartende Lautheit berechnet, sowie für jedes Frequenzband derjenige Verstärkungswert, den der individuelle Schwerhörende zur Erzielung des gleichen Lautheitseindrucks benötigt. Für dieses Lautheitsmodell sind eine Reihe von grundlegenden Funktionen des Gehörs aus der Psychoakustik zugrunde gelegt, so daß die entsprechende Berechnung relativ aufwendig ist. Erste Ergebnisse mit derartigen Lautheitsausgleichalgorithmen sind allerdings äußerst vielversprechend: Bei Patienten, die selbst bei hohen Sprachlautstärken keine 100-prozentige Sprachverständlichkeit mehr erlangten, konnte durch Einsatz dieses Algorithmus wieder eine vollständige Sprachverständlichkeit bei mittleren Lautstärken erreicht werden. In einem interdisziplinären, vom BMBF geförderten Verbundprojekt arbeiten wir derzeit an der Umsetzung dieser Algorithmen in ein tragbares Gerät im Format etwa eines Walkman, das auch in Feldtests mit Schwerhörenden eingesetzt werden kann.

Zukünftige Entwicklung: Genius im Ohr für alle?

Der Schritt aber von Hörgeräten in Walkman-Format bis hin zu Sub-Miniatur-Hörgeräten, die im äußeren Gehörgang Platz finden, ist noch beträchtlich. Derzeitig arbeitet die Hörgeräte-Industrie daher noch mit höchster Priorität daran, die derzeit erhältlichen, digital gesteuerten analogen Hörgeräte noch kleiner zu packen und mit höherer Komfortabilität (z. B. besseren Fernbedienungsmöglichkeiten) zu versehen. Eine an den Menschen "angepaßtere" Technik, die möglichst Fernbedienungen überflüssig machen sollte, kann jedoch erst in der nächsten Generation volldigitaler Hörgeräte erreicht werden, deren Hardware in den Entwicklungslabors der Hörgeräte-Industrie bereits konkrete Formen annimmt. Für die Software dieser neuen Generation und das Rahmenkonzept der Gerätegeneration ist jedoch die audiologische Akustik und die interdisziplinäre Zusammenarbeit zwischen Physik, Medizin, Informatik, Psychologie und den Ingenieurwissenschaften unabdingbar. Die bisherigen Erfahrungen zeigen außerdem, daß Hochschulabsolventen mit dieser interdisziplinären Ausrichtung sehr gute Berufschancen haben.

Der Autor

Birger Kollmeier, 36, Prof. Dr. rer. nat, Dr. med., Hochschullehrer am Fachbereich Physik, Arbeitsgruppe Medizinische Physik. Physikstudium 1976 bis 1982 und Medizinstudium 1977 bis 1986 in Göttingen. Forschungsaufenthalt als Fulbright-Stipendiat in St. Louis/USA, 1982/83. Promotion in Physik über Psychoakustik 1986 und in Medizin über Hörgeräte 1989. Habilitation im Fach Physik über "Meßmethodik, Modellierung und Verbesserung der Verständlichkeit von Sprache" 1991 in Göttingen. Seit Sommersemester 1993 Professor für Angewandte Physik/Experimentalphysik am Fachbereich Physik der Universität Oldenburg und Leiter der Arbeitsgruppe "Medizinische Physik", Mitbetreuer des Graduiertenkollegs "Psychoakustik". Forschungsschwerpunkte: Sprachperzeption, Psychoakustik, digitale Signalverarbeitung, medizinisch-physikalische Diagnostik.

(Stand: 19.01.2024)  | 
Zum Seitananfang scrollen Scroll to the top of the page