Mehr:

Kontakt:

Jana Roßbach

Medizinische Physik

+49 441 798-3908  (F&P)

  • Mann von hinten, mit Hörgerät im Ohr und Smartphone in der Hand

    Durch die Kopplung mit Smartphones werden auch Hörgeräte immer leistungsfähiger. Das erlaubt zum Beispiel die Nutzung von Spracherkennungssoftware, deren Einsatz Forschende der Universität Oldenburg gerade untersuchen.

Besser hören dank automatischer Spracherkennung?

Spracherkennungssoftware ist dank Smart-Home-Systemen auf dem Vormarsch. Oldenburger Forschende brachten einer Künstlichen Intelligenz jetzt bei, wie ein Mensch zu hören. Das könnte künftig Menschen mit Hörgerät helfen.

Spracherkennungssoftware ist dank Smart-Home-Systemen auf dem Vormarsch. Oldenburger Forschende brachten einer Künstlichen Intelligenz jetzt bei, wie ein Mensch zu hören. Das könnte künftig Menschen mit Hörgerät helfen.

 Automatische Spracherkennung, wie sie im Alltag zum Beispiel bei Sprachassistenzsystemen wie Alexa oder Siri zum Einsatz kommt, könnte in Zukunft Menschen mit Höreinschränkungen zugutekommen. Forschende der Universität Oldenburg haben jetzt einen Beitrag dazu geleistet, diese Technologie perspektivisch dafür zu nutzen, dass Hörgeräte selbstständig die ideale Programmierung für verschiedene Geräuschkulissen einstellen. Darüber berichten Jana Roßbach, Prof. Dr. Birger Kollmeier und Prof. Dr. Bernd T. Meyer vom Oldenburger Exzellenzcluster Hearing4all in der Fachzeitschrift „Journal of the Acoustical Society of America“.

Wer heute ein Hörgerät trägt, kann zwischen verschiedenen Einstellungen wählen, abhängig davon, ob er zum Beispiel ein Gespräch führen oder Musik hören möchte. Die überschaubare Anzahl an voreingestellten Programmen kann jedoch die Realität mit ihren vielfältigen Geräuschkulissen nicht abbilden. Ständig das Hörgerät manuell an die Umgebung anzupassen, ist ebenfalls nicht alltagstauglich.

An dieser Stelle könnte künftig automatische Spracherkennung zum Einsatz kommen, die mit Verfahren der Künstlichen Intelligenz (KI) arbeitet. Um in jeder Situation die ideale Einstellung für den jeweiligen Hörgeräteträger vorzunehmen, müsste die Software lernen, genauso wie die Person zu „hören“ – mit all ihren spezifischen Einschränkungen.  

Dass das möglich ist, zeigten die Oldenburger Forschenden mit einem Versuch, bei dem sie Mensch und Maschine vor die gleiche Aufgabe stellten. Dazu ermittelten sie von 20 Testpersonen mit Hörschädigungen zunächst den individuellen Hörstatus. Die Spracherkennungssoftware trainierten sie derweil mit Audioaufnahmen von Testsätzen und brachten ihr bei, diese in geschriebener Form zu wiederholen. Damit der Computer im Test den gleichen Schwierigkeiten ausgesetzt war wie die Person mit Höreinschränkung, spielten die Forschenden die Testgeräusche mit einem zusätzlichen Rauschen ab, das die individuelle Einschränkung des Menschen simulierte.

Im nun folgenden Test mussten Probandinnen und Probanden sowie die jeweils auf deren Höreigenschaften trainierte KI eingespielte Sätze verstehen und wiedergeben. Das Ergebnis: Wie viele Wörter verstanden wurden, stimmte im Durchschnitt zwischens Mensch und seinem Maschinen-Pendant in hohem Maße überein. Zur Überraschung der Forschenden galt das in allen acht unterschiedlichen Hör-Szenarien, in denen verschiedene Nebengeräusche zum Einsatz kamen, wie sie auch im Alltag häufig das Sprachverstehen erschweren.

Noch stehen sie bei ihren Untersuchungen zum Einsatz von Spracherkennungssoftware in Hörgeräten am Anfang, betonen die Forschenden. „In weiteren Untersuchungen wollen wir jetzt offene Fragen klären und zum Beispiel eine Möglichkeit schaffen, dass die Spracherkennungssoftware selbst erkennt, ob sie mit ihrer Prognose falsch oder richtig liegt“, erklärt die Hörtechnikerin und Audiologin Jana Roßbach.

Das könnte Sie auch interessieren:

Das Foto zeigt das Tiny Observatorium von hinten. Zu erkennen sind auch die Photovoltaikanlage und die Kuppel.
Astronomie Campus-Leben Physik Medizinische Physik und Akustik

Universum für alle

Einen Blick zu den Sternen wagen – die mobile Sternwarte „Tiny Observatorium“ macht es möglich. Das ungewöhnliche Projekt bietet Astronomie zum…

mehr
Ein Mann mit Kopfhörern sitzt vor einem Computermonitor, der viele Regler anzeigt. Der Betrachter blickt dem Mann über die Schulter.
Top-Thema Medizinische Physik und Akustik

Die Mischung macht's

Forschende aus Oldenburg haben das Lautstärkeverhältnis von Leadstimmen in mehr als 700 Songs analysiert. Diese Erkenntnisse sollen dabei helfen,…

mehr
Bernhard Eurich und Mathias Dietz sitzen im Hörlabor vor einem Computer und tragen Kopfhörer.
Top-Thema Medizinische Physik und Akustik

Hören nach Zahlen

Oldenburger Forscher haben ein mathematisches Modell entwickelt, das mit deutlich weniger Rechenleistung das Richtungshören simulieren kann – und sich…

mehr
(Stand: 12.04.2024)  | 
Zum Seitananfang scrollen Scroll to the top of the page