Kontakt

Leitung

Prof. Dr. Volker Hohmann

+49 441 798 5468

W30 3-301

Carl von Ossietzky Universität Oldenburg
Fakultät VI - Medizin und Gesundheitswissenschaften
Department Medizinische Physik und Akustik
26111 Oldenburg

Administration

Nicole Kulbach

+49 441 798 3326

+49 441 798 3903

W30 2-206

Carl von Ossietzky Universität Oldenburg
Fakultät VI - Medizin und Gesundheitswissenschaften
Department Medizinische Physik und Akustik
26111 Oldenburg

Auditorische Signalverarbeitung und Hörhilfen

Ziel der Arbeit unserer Gruppe ist es, die menschliche akustische Kommunikation unter schwierigen Hörbedingungen mit Lärm, Störgeräuschen und Nachhall besser zu verstehen und dieses Wissen zur Verbesserung der Signalverarbeitung in Hörgeräten zu nutzen. Insbesondere untersuchen wir numerische Modelle der auditiven Szenenanalyse, Methoden zur Hörgerätebewertung in virtuellen interaktiven Umgebungen und Algorithmen für neuartige Hörgeräte.

Auditorische Szenenanalyse:
Wie machen wir uns ein akustisches Bild der Umgebung?

Hören funktioniert unbewusst - kaum jemand macht sich die komplexen Prozesse im Ohr und Gehirn bewußt, die aus Schallwellen "gehörte" Informationen machen. Zu den größten Rätseln zählt dabei, wie wir aus einer Vielzahl von Schallquellen - sprechende Menschen, bellende Hunde, lärmende Autos - die Stimme desjenigen herausfiltern, der etwas erzählt. Bei Gesunden läuft das perfekt ab, bei Schwerhörigen sieht das ganz anders aus: Kommunikation gelingt ihnen nur noch, wenn die Hintergrundgeräusche weitgehend eliminiert sind. Hörgeräte helfen nur teilweise, weil es noch nicht gelungen ist, die komplizierten Vorgänge im Gehör zur Objektbildung technisch nachzubilden.

Eine Cocktailparty: Stimmen, Gläserklirren, dezente Musik. Alle reden miteinander, teilweise zu zweit, teilweise in kleinen Gruppen - aber nicht jeder versteht, was sein Gegenüber sagt. Krampfhaft versucht mancher aus den Lippenbewegungen das Gesprochene abzulesen - umsonst, Gehör und Gehirn sind in dieser akustischen Umgebung überfordert. 15 Prozent aller Deutschen leiden unter einer Innenohr-Schwerhörigkeit; die Tendenz ist steigend, schon deshalb, weil unsere Gesellschaft immer älter wird und Schwerhörigkeit ein klassisches Altersproblem ist. Bei jungen und gesunden Menschen arbeitet das Gehör perfekt und vor allem im Dauerbetrieb.

Im Bereich der auditorischen Signalverarbeitung erstellen wir quantitative numerische Modelle der auditorischen Szenenanalyse und verwenden sie, um verbesserte Methoden zur Sprachverbesserung für Hörgeräte zu demonstrieren.

Hörgeräte und ihre Erprobung
Wie verbessern wir Hörgeräte?

Das erste Hörgerät, das akustische Signale digital verarbeitet, wurde 1996 vorgestellt.  Seitdem haben sich die Hörgeräte ständig weiterentwickelt und die Hersteller bieten inzwischen Geräte an, die eine komplexe Verarbeitung akustischer Signale ermöglichen. Die verfügbare Signalverarbeitungsleistung schreitet fast so schnell voran wie die CPU-Leistung in Heimcomputern oder Mobiltelefonen, und das bei wesentlich höherer Leistungseffizienz.

Computer (z. B. Hörgeräte) können die Fähigkeiten des menschlichen Ohrs noch nicht kopieren. Ein Hörgerät, das alle akustischen Signale gleichmäßig verstärkt, ist in einer Cocktailparty nicht hilfreich. Vielmehr muss es auditorische Objekte trennen und selektiv verstärken. Es hat sich gezeigt, dass neben der hohen Selektivität des Gehörs für Töne unterschiedlicher Frequenz/Tonhöhe die Amplitudenmodulation (schnelle Schallpegelschwankungen) und die Schalllokalisierung wichtige Mechanismen für die Objekttrennung sind. Die Schalllokalisierung ist eng mit dem binauralen Hören (Hören mit zwei Ohren) verbunden.

In der Auditiven Signalverarbeitung untersuchen wir hochgradig räumlich selektive Methoden zur Sprachverbesserung, Methoden zur Steuerung von Hörgeräten durch Nutzerverhalten, z.B. Kopf- und Augenbewegungen, und wir entwickeln Methoden zur Evaluierung solcher komplexen Signalverarbeitungsmethoden mittels audiovisueller virtueller Realität.

 

(Stand: 19.01.2024)  | 
Zum Seitananfang scrollen Scroll to the top of the page