Warum kann ein Mikrofon nicht "hören" wie ein Mensch? Und wie lassen sich die Vorzüge des menschlichen Gehörs technisch nachbilden? Die Interaktion mit Klang haben Oldenburger Forscher um Simon Doclo und Timo Gerkmann mit Partnern eines internationalen Projekts auf einer exklusiven Londoner Wissenschaftsschau präsentiert.
Als einzige deutsche Hochschule war die Universität Oldenburg in diesem Jahr auf der renommierten Wissenschaftsschau "Summer Science Exhibition" der Royal Society vertreten. Ein Expertenteam für Audiosignalverarbeitung um Doclo und Gerkmann sowie die Oldenburger Projektgruppe des Fraunhofer-Instituts für Digitale Medientechnologie präsentierten als Partner im internationalen Forschungsprojekt DREAMS die „Interaktion mit Klang in einer dreidimensionalen Welt“.
Das Projekt DREAMS – die Abkürzung steht zu Deutsch für „Nachhall-Unterdrückung und Nachhall von Audio, Musik und Sprache“ – ist eines von insgesamt 22 Projekten vornehmlich von Universitäten aus dem Vereinigten Königreich, die die Royal Society in diesem Jahr ausgewählt hatte. Neben den Oldenburger Wissenschaftlern sind die Universitäten Leuven (Belgien) und Aalborg (Dänemark), das Imperial College London sowie mehrere Industrieunternehmen an dem Projekt beteiligt.
Ihr Ziel ist es, wissenschaftliche Verfahren zur Unterdrückung von Nachhall und Störgeräuschen möglichst schnell in Produkte wie zum Beispiel Hörgeräte oder Smartphones zu überführen, um sowohl das Sprachverstehen als auch die automatische Spracherkennung in komplexen akustischen Umgebungen zu verbessern. „Die Einladung nach London ist ein Zeichen für die Wertschätzung der Forschung im Projekt DREAMS“, sagt Simon Doclo. „An der Nachhallunterdrückung wird seit rund zehn Jahren gearbeitet, aber die neu entwickelten statistischen Methoden haben einen Durchbruch ermöglicht.“
Die „Summer Science Exhibition“ öffnete eine Woche lang mitten in London ihre Türen – nahe St. James’ Park und Downing Street. Am DREAMS-Ausstellungsstand konnten Besucher an einem Computer ausprobieren, wie sich verhallte Umgebungen anhören – und wie Störgeräusche und Nachhall verschwinden, wenn vom Doclo-Team mitentwickelte Algorithmen, also Rechenvorschriften, eingeschaltet werden. Zu den Exponaten zählte auch ein Roboter, der auf Sprachbefehle hört – und je nach Hall unterschiedlich gut reagiert.