Kontakt

Dekanatssekretariat

+49 (0)441 798-2499 

Studiendekanatssekretariat

+49 (0)441 798-2510

V03-0-M027

Öffnungszeiten Studiendekanatssekretariat

Montag u. Mittwoch von 15.00-17.00 Uhr

Donnerstag von 09.00-11.00 Uhr

Anschrift

 

Postanschrift

Carl von Ossietzky Universität Oldenburg 
Fakultät VI Medizin und Gesundheitswissenschaften
Ammerländer Heerstraße 114-118
26129 Oldenburg

Besucheranschrift

Gebäude V03, 3. OG, Flügel M
Ammerländer Heerstraße 138
26129 Oldenburg

Newsletter der Universitätsmedizin Oldenburg (UMO)

Fakultät VI - Medizin und Gesundheits­wissenschaften

Die Fakultät VI Medizin und Gesundheitswissenschaften ist die jüngste Fakultät der Carl von Ossietzky Universität Oldenburg. Sie wurde 2012 gegründet und besteht aus dem Department für Humanmedizin, dem Department für Medizinische Physik und Akustik, dem Department für Neurowissenschaften, dem Department für Psychologie sowie für Versorgungsforschung.

Neue Website der Universitätsmedizin Oldenburg (UMO)

Die Seite „universitätsmedizin-oldenburg.de“ gibt einen Über­blick über die Strukturen der UMO und Neuigkeiten aus der Universitätsmedizin. Sie ergänzt die Websites der Fakultät und der Kooperationskrankenhäuser und vermittelt insbeson­dere Externen einen Eindruck von der Vielfalt und den Allein­stellungsmerkmalen der UMO.

Zur UMO-Website

Mit dem Modellstudiengang Humanmedizin findet erstmals in Deutschland eine Medizinerausbildung grenzüberschreitend statt. 120 Studienplätze stehen derzeit auf Oldenburger Seite jährlich in der European Medical School Oldenburg-Groningen zur Verfügung.

Kennzeichen der Fakultät sind der viel beachtete grenzüberschreitende Modellstudiengang Humanmedizin – die European Medical School Oldenburg-Groningen (EMS) sowie die enge Verzahnung von Grundlagenforschung, klinischer Forschung und Versorgungsforschung. Sie bietet somit Studierenden und Wissenschaftler*innen ein hervorragendes Umfeld, das für die Medizin der Zukunft notwendige Wissen und Können zu erwerben und anzuwenden.

Aktuelles

  iCal

Es gibt keine Veranstaltungen in der aktuellen Ansicht.

Antrittsvorlesungen, Disputationen und Vorträge im Rahmen von Habilitationsverfahren

  iCal

Einblicke in die Fakultät

  • Mann von hinten, mit Hörgerät im Ohr und Smartphone in der Hand

    Durch die Kopplung mit Smartphones werden auch Hörgeräte immer leistungsfähiger. Das erlaubt zum Beispiel die Nutzung von Spracherkennungssoftware, deren Einsatz Forschende der Universität Oldenburg gerade untersuchen.

    Besser hören dank automatischer Spracherkennung?

    Spracherkennungssoftware ist dank Smart-Home-Systemen auf dem Vormarsch. Oldenburger Forschende brachten einer Künstlichen Intelligenz jetzt bei, wie ein Mensch zu hören. Das könnte künftig Menschen mit Hörgerät helfen.

    Spracherkennungssoftware ist dank Smart-Home-Systemen auf dem Vormarsch. Oldenburger Forschende brachten einer Künstlichen Intelligenz jetzt bei, wie ein Mensch zu hören. Das könnte künftig Menschen mit Hörgerät helfen.

     Automatische Spracherkennung, wie sie im Alltag zum Beispiel bei Sprachassistenzsystemen wie Alexa oder Siri zum Einsatz kommt, könnte in Zukunft Menschen mit Höreinschränkungen zugutekommen. Forschende der Universität Oldenburg haben jetzt einen Beitrag dazu geleistet, diese Technologie perspektivisch dafür zu nutzen, dass Hörgeräte selbstständig die ideale Programmierung für verschiedene Geräuschkulissen einstellen. Darüber berichten Jana Roßbach, Prof. Dr. Birger Kollmeier und Prof. Dr. Bernd T. Meyer vom Oldenburger Exzellenzcluster Hearing4all in der Fachzeitschrift „Journal of the Acoustical Society of America“.

    Wer heute ein Hörgerät trägt, kann zwischen verschiedenen Einstellungen wählen, abhängig davon, ob er zum Beispiel ein Gespräch führen oder Musik hören möchte. Die überschaubare Anzahl an voreingestellten Programmen kann jedoch die Realität mit ihren vielfältigen Geräuschkulissen nicht abbilden. Ständig das Hörgerät manuell an die Umgebung anzupassen, ist ebenfalls nicht alltagstauglich.

    An dieser Stelle könnte künftig automatische Spracherkennung zum Einsatz kommen, die mit Verfahren der Künstlichen Intelligenz (KI) arbeitet. Um in jeder Situation die ideale Einstellung für den jeweiligen Hörgeräteträger vorzunehmen, müsste die Software lernen, genauso wie die Person zu „hören“ – mit all ihren spezifischen Einschränkungen.  

    Dass das möglich ist, zeigten die Oldenburger Forschenden mit einem Versuch, bei dem sie Mensch und Maschine vor die gleiche Aufgabe stellten. Dazu ermittelten sie von 20 Testpersonen mit Hörschädigungen zunächst den individuellen Hörstatus. Die Spracherkennungssoftware trainierten sie derweil mit Audioaufnahmen von Testsätzen und brachten ihr bei, diese in geschriebener Form zu wiederholen. Damit der Computer im Test den gleichen Schwierigkeiten ausgesetzt war wie die Person mit Höreinschränkung, spielten die Forschenden die Testgeräusche mit einem zusätzlichen Rauschen ab, das die individuelle Einschränkung des Menschen simulierte.

    Im nun folgenden Test mussten Probandinnen und Probanden sowie die jeweils auf deren Höreigenschaften trainierte KI eingespielte Sätze verstehen und wiedergeben. Das Ergebnis: Wie viele Wörter verstanden wurden, stimmte im Durchschnitt zwischens Mensch und seinem Maschinen-Pendant in hohem Maße überein. Zur Überraschung der Forschenden galt das in allen acht unterschiedlichen Hör-Szenarien, in denen verschiedene Nebengeräusche zum Einsatz kamen, wie sie auch im Alltag häufig das Sprachverstehen erschweren.

    Noch stehen sie bei ihren Untersuchungen zum Einsatz von Spracherkennungssoftware in Hörgeräten am Anfang, betonen die Forschenden. „In weiteren Untersuchungen wollen wir jetzt offene Fragen klären und zum Beispiel eine Möglichkeit schaffen, dass die Spracherkennungssoftware selbst erkennt, ob sie mit ihrer Prognose falsch oder richtig liegt“, erklärt die Hörtechnikerin und Audiologin Jana Roßbach.

    Neuberufene

    • Mann von hinten, mit Hörgerät im Ohr und Smartphone in der Hand

      Durch die Kopplung mit Smartphones werden auch Hörgeräte immer leistungsfähiger. Das erlaubt zum Beispiel die Nutzung von Spracherkennungssoftware, deren Einsatz Forschende der Universität Oldenburg gerade untersuchen.

    Besser hören dank automatischer Spracherkennung?

    Spracherkennungssoftware ist dank Smart-Home-Systemen auf dem Vormarsch. Oldenburger Forschende brachten einer Künstlichen Intelligenz jetzt bei, wie ein Mensch zu hören. Das könnte künftig Menschen mit Hörgerät helfen.

    Spracherkennungssoftware ist dank Smart-Home-Systemen auf dem Vormarsch. Oldenburger Forschende brachten einer Künstlichen Intelligenz jetzt bei, wie ein Mensch zu hören. Das könnte künftig Menschen mit Hörgerät helfen.

     Automatische Spracherkennung, wie sie im Alltag zum Beispiel bei Sprachassistenzsystemen wie Alexa oder Siri zum Einsatz kommt, könnte in Zukunft Menschen mit Höreinschränkungen zugutekommen. Forschende der Universität Oldenburg haben jetzt einen Beitrag dazu geleistet, diese Technologie perspektivisch dafür zu nutzen, dass Hörgeräte selbstständig die ideale Programmierung für verschiedene Geräuschkulissen einstellen. Darüber berichten Jana Roßbach, Prof. Dr. Birger Kollmeier und Prof. Dr. Bernd T. Meyer vom Oldenburger Exzellenzcluster Hearing4all in der Fachzeitschrift „Journal of the Acoustical Society of America“.

    Wer heute ein Hörgerät trägt, kann zwischen verschiedenen Einstellungen wählen, abhängig davon, ob er zum Beispiel ein Gespräch führen oder Musik hören möchte. Die überschaubare Anzahl an voreingestellten Programmen kann jedoch die Realität mit ihren vielfältigen Geräuschkulissen nicht abbilden. Ständig das Hörgerät manuell an die Umgebung anzupassen, ist ebenfalls nicht alltagstauglich.

    An dieser Stelle könnte künftig automatische Spracherkennung zum Einsatz kommen, die mit Verfahren der Künstlichen Intelligenz (KI) arbeitet. Um in jeder Situation die ideale Einstellung für den jeweiligen Hörgeräteträger vorzunehmen, müsste die Software lernen, genauso wie die Person zu „hören“ – mit all ihren spezifischen Einschränkungen.  

    Dass das möglich ist, zeigten die Oldenburger Forschenden mit einem Versuch, bei dem sie Mensch und Maschine vor die gleiche Aufgabe stellten. Dazu ermittelten sie von 20 Testpersonen mit Hörschädigungen zunächst den individuellen Hörstatus. Die Spracherkennungssoftware trainierten sie derweil mit Audioaufnahmen von Testsätzen und brachten ihr bei, diese in geschriebener Form zu wiederholen. Damit der Computer im Test den gleichen Schwierigkeiten ausgesetzt war wie die Person mit Höreinschränkung, spielten die Forschenden die Testgeräusche mit einem zusätzlichen Rauschen ab, das die individuelle Einschränkung des Menschen simulierte.

    Im nun folgenden Test mussten Probandinnen und Probanden sowie die jeweils auf deren Höreigenschaften trainierte KI eingespielte Sätze verstehen und wiedergeben. Das Ergebnis: Wie viele Wörter verstanden wurden, stimmte im Durchschnitt zwischens Mensch und seinem Maschinen-Pendant in hohem Maße überein. Zur Überraschung der Forschenden galt das in allen acht unterschiedlichen Hör-Szenarien, in denen verschiedene Nebengeräusche zum Einsatz kamen, wie sie auch im Alltag häufig das Sprachverstehen erschweren.

    Noch stehen sie bei ihren Untersuchungen zum Einsatz von Spracherkennungssoftware in Hörgeräten am Anfang, betonen die Forschenden. „In weiteren Untersuchungen wollen wir jetzt offene Fragen klären und zum Beispiel eine Möglichkeit schaffen, dass die Spracherkennungssoftware selbst erkennt, ob sie mit ihrer Prognose falsch oder richtig liegt“, erklärt die Hörtechnikerin und Audiologin Jana Roßbach.

    Webmaster (Stand: 18.03.2025)  Kurz-URL:Shortlink: https://uol.de/p29n6105 | # |
    Zum Seitananfang scrollen Scroll to the top of the page