• Mann von hinten, mit Hörgerät im Ohr und Smartphone in der Hand

    Durch die Kopplung mit Smartphones werden auch Hörgeräte immer leistungsfähiger. Das erlaubt zum Beispiel die Nutzung von Spracherkennungssoftware, deren Einsatz Forschende der Universität Oldenburg gerade untersuchen.

Besser hören dank automatischer Spracherkennung?

Spracherkennungssoftware ist dank Smart-Home-Systemen auf dem Vormarsch. Oldenburger Forschende brachten einer Künstlichen Intelligenz jetzt bei, wie ein Mensch zu hören. Das könnte künftig Menschen mit Hörgerät helfen.

Spracherkennungssoftware ist dank Smart-Home-Systemen auf dem Vormarsch. Oldenburger Forschende brachten einer Künstlichen Intelligenz jetzt bei, wie ein Mensch zu hören. Das könnte künftig Menschen mit Hörgerät helfen.

 Automatische Spracherkennung, wie sie im Alltag zum Beispiel bei Sprachassistenzsystemen wie Alexa oder Siri zum Einsatz kommt, könnte in Zukunft Menschen mit Höreinschränkungen zugutekommen. Forschende der Universität Oldenburg haben jetzt einen Beitrag dazu geleistet, diese Technologie perspektivisch dafür zu nutzen, dass Hörgeräte selbstständig die ideale Programmierung für verschiedene Geräuschkulissen einstellen. Darüber berichten Jana Roßbach, Prof. Dr. Birger Kollmeier und Prof. Dr. Bernd T. Meyer vom Oldenburger Exzellenzcluster Hearing4all in der Fachzeitschrift „Journal of the Acoustical Society of America“.

Wer heute ein Hörgerät trägt, kann zwischen verschiedenen Einstellungen wählen, abhängig davon, ob er zum Beispiel ein Gespräch führen oder Musik hören möchte. Die überschaubare Anzahl an voreingestellten Programmen kann jedoch die Realität mit ihren vielfältigen Geräuschkulissen nicht abbilden. Ständig das Hörgerät manuell an die Umgebung anzupassen, ist ebenfalls nicht alltagstauglich.

An dieser Stelle könnte künftig automatische Spracherkennung zum Einsatz kommen, die mit Verfahren der Künstlichen Intelligenz (KI) arbeitet. Um in jeder Situation die ideale Einstellung für den jeweiligen Hörgeräteträger vorzunehmen, müsste die Software lernen, genauso wie die Person zu „hören“ – mit all ihren spezifischen Einschränkungen.  

Dass das möglich ist, zeigten die Oldenburger Forschenden mit einem Versuch, bei dem sie Mensch und Maschine vor die gleiche Aufgabe stellten. Dazu ermittelten sie von 20 Testpersonen mit Hörschädigungen zunächst den individuellen Hörstatus. Die Spracherkennungssoftware trainierten sie derweil mit Audioaufnahmen von Testsätzen und brachten ihr bei, diese in geschriebener Form zu wiederholen. Damit der Computer im Test den gleichen Schwierigkeiten ausgesetzt war wie die Person mit Höreinschränkung, spielten die Forschenden die Testgeräusche mit einem zusätzlichen Rauschen ab, das die individuelle Einschränkung des Menschen simulierte.

Im nun folgenden Test mussten Probandinnen und Probanden sowie die jeweils auf deren Höreigenschaften trainierte KI eingespielte Sätze verstehen und wiedergeben. Das Ergebnis: Wie viele Wörter verstanden wurden, stimmte im Durchschnitt zwischens Mensch und seinem Maschinen-Pendant in hohem Maße überein. Zur Überraschung der Forschenden galt das in allen acht unterschiedlichen Hör-Szenarien, in denen verschiedene Nebengeräusche zum Einsatz kamen, wie sie auch im Alltag häufig das Sprachverstehen erschweren.

Noch stehen sie bei ihren Untersuchungen zum Einsatz von Spracherkennungssoftware in Hörgeräten am Anfang, betonen die Forschenden. „In weiteren Untersuchungen wollen wir jetzt offene Fragen klären und zum Beispiel eine Möglichkeit schaffen, dass die Spracherkennungssoftware selbst erkennt, ob sie mit ihrer Prognose falsch oder richtig liegt“, erklärt die Hörtechnikerin und Audiologin Jana Roßbach.

Das könnte Sie auch interessieren:

Ein Mädchen im Grundschulalter, das ein Cochlea Implantat trägt, sitzt mit Gleichaltrigen in einer schulähnlichen Situation. Alle sitzen mit dem Rücken zum Fotografen, das Mädchen mit dem CI dreht sich zum Betrachter um.
Exzellenzstrategie Sonderpädagogik Hörforschung

Damit schlechtes Hören nicht zu schlechten Noten führt

Selbst wenn schwerhörige Kinder medizinisch optimal versorgt sind, sind sie womöglich auch Jahre später noch auf eine gezielte Wortschatzförderung…

mehr: Damit schlechtes Hören nicht zu schlechten Noten führt
Eine Frau mit langen Haaren sitzt an einem Tisch und schaut in die Kamera, neben ihr sind ein Kopf aus Glas mit einer EEG-Kappe, ein Bildschirm und ein Lautsprecher zu sehen.
Exzellenzstrategie Hörforschung

Wie Zweisprachigkeit das Hörverstehen beeinflusst

Wie wirken sich frühe Spracherfahrungen, insbesondere die Zweisprachigkeit, auf die Verarbeitung von Sprache im Gehirn aus? Das ist das Thema eines…

mehr: Wie Zweisprachigkeit das Hörverstehen beeinflusst
Portrait einer jungen Frau mit langen Haaren vor einem unscharfen, grünen Hintergrund.
Exzellenzstrategie Top-Thema Köpfe Meereswissenschaften

Sinikka Lennartz erhält Heinz Maier-Leibnitz-Preis

Die wichtigste Auszeichnung für Forschende in frühen Karrierephasen geht erstmals nach Oldenburg: Die Geowissenschaftlerin Sinikka Lennartz erhält den…

mehr: Sinikka Lennartz erhält Heinz Maier-Leibnitz-Preis
Presse & Kommunikation (Stand: 09.04.2025)  Kurz-URL:Shortlink: https://uol.de/p82n6105 | # |
Zum Seitananfang scrollen Scroll to the top of the page