Fakultätsübergreifende Ringvorlesung: Computer, Mensch, Sprache
Organisationsteam
Dr. Kyoko Sugisaki

Digitale Sprachwissenschaft (Institut für Niederländistik und Germanistik)
Prof. Dr. Susanne Boll

Department für Informatik
Hannes Kath

Department für Informatik
Prof. Dr. Katrin Kleinschmidt-Schinke

Institut für Germanistik
Prof. Dr. Esther Ruigendijk

Institut für Niederländistik
Prof. Dr. Wolfram Wingerath

Department für Informatik
Kontakt
Fakultätsübergreifende Ringvorlesung: Computer, Mensch, Sprache
WiSe 2023/2024
Wir laden ganz herzlich zum Besuch unserer hochaktuellen Ringvorlesung ein, die von Kolleg*innen der Institute für Germanistik/Niederlandistik und des Departments für Informatik fakultätsübergreifend nun schon das zweite Mal organisiert wird. Sie ist lokalisiert an der Schnittstelle von Sprachwissenschaft/Korpuslinguistik und Informatik.
Es werden einerseits an dieser Schnittstelle arbeitende Expert*innen der UOL aus den Fakultäten II (Department für Informatik), III (Sprachwissenschaften) sowie VI (Medizin und Gesundheitswissenschaften) mitwirken.
Es werden andererseits Expert*innen (von Universitäten, des Fraunhofer IDMT) aus den Bereichen Computerlinguistik/Digital Linguistics, Korpuslinguistik, digitale Sprachverarbeitung (auch in der Sprachtherapie), Language Models, Language Interfaces mitwirken. Es wird außerdem Vorträge mit schulbezogener/didaktischer Perspektive auf diese Themenbereiche geben.
Die Vorlesung soll die Schlüsselkompetenzen der Studierenden im Bereich der digitalen Forschungsmethoden zur Sprach-Datenerhebung, -verarbeitung, und -analyse sowie im Bereich der Anwendungsperspektiven (in der Wissenschaft, aber auch im Bildungsbereich) stärken. Die Studierenden sollen somit einen interdisziplinären Einblick in Forschung und Anwendungsperspektiven zur Schnittstelle Sprachwissenschaft/Sprachtechnologie/Informatik erhalten und auch deren Chancen und Grenzen reflektieren können. Sie soll auch dazu beitragen, die unterschiedlichen beteiligten Disziplinen und Perspektiven stärker zu vernetzten.
Die Veranstaltung ist im Professionalisierungsbereich lokalisiert und kann von Studierenden aller Fakultäten besucht werden. Im Bachelor ist sie den Modulen pb331 und pb332 (Schlüsselkompetenzen in Sprach- und Literaturwissenschaften und ihren Berufsfeldern) zugeordnet, im Master dem Modul ipb611 (Freies Modul). Die Studierenden finden die Veranstaltung unter der Veranstaltungsnummer 10.31.501 in Stud.IP.
In der Ringvorlesung sind auch interessierte Kolleg*innen der Universität willkommen sowie ebenso externe Gäste.
Die Vorlesung Computer – Mensch – Sprache wird digital angeboten und findet montags von 14:15 Uhr bis 15:45 Uhr statt. Auf einen ca. 60-minütigen Vorlesungsvortrag folgt eine ca. 30-minütige Diskussion zum jeweiligen Themengebiet.
Programm (aktueller Stand)
Online
16. Oktober 2023
Dr. Kyoko Sugisaki
(Digitale Sprachwissenschaft, Universität Oldenburg)
Computer, Mensch und Sprache: Eine Einführung
Dieser Vortrag führt in das Thema der Ringvorlesung "Computer, Mensch, Sprache" ein. Wie sieht interdisziplinäre Forschung im Grenzgebiet zwischen Computer, Mensch und Sprache aus? Dieser Frage werde ich mich anhand von Beispielen aus meiner Forschung in den Bereichen Sprachwissenschaft (Korpuslinguistik), Computerlinguistik und Mensch-Maschine Interaktion (MMI) nähern. Dabei gibt es auch schon Ausblicke und eine erste Verortung kommender Vorträge dieser Ringvorlesung. In der Ringvorlesung und anhand eigener Forschungsprojekte wird deutlich, wie verschieden die einzelnen wissenschaftlichen Gebiete in ihren Zielsetzungen, Methoden, Denkweisen und Diskursen sein können. Für die Forschung stellt dieses Spannungsfeld zwar einige Herausforderungen dar. Gleichzeitig ermöglicht dies interessante Erkenntnisse und Erklärungen in der Sprachwissenschaft, neue Lösungsansätze in der Sprachtechnologie sowie Zielsetzungen in der MMI.
Literaturtipps: How users solve problems with presence and affordance in interactions with conversational agents: A wizard of Oz study
23. Oktober 2023
M.Sc.Cennet Oguz
(Deutsches Forschungszentrum für Künstliche Intelligenz, DFKI)
Titel: TBA
Abstract: TBA
Literaturtipp: TBA
30. Oktober 2023
Prof. Dr. Wolfram Wingerath
(Institut für Informatik, Universität Oldenburg)
What You Say is What You Get – Handsfree Coding in 2023
Software zur Interpretation und Synthese natürlicher Sprache wird täglich von Millionen von Menschen genutzt, die smarte Heimassistenten verwenden oder einfach lieber auf ihrem Mobiltelefon diktieren als tippen. Doch während sich Schnittstellen zur freihändigen Bedienung bei den Verbrauchern längst durchgesetzt haben, werden sie von IT-Fachleuten meist noch als Spielerei betrachtet oder überhaupt nicht für den professionellen Einsatz in Betracht gezogen - völlig zu Unrecht!
In diesem Vortrag beschreibe ich ein Null-Kosten-Setup für freihändiges Programmieren, das extrem leistungsfähig und komfortabel in der Handhabung ist. Zunächst werde ich die Grundlagen der Steuerung des Computers und der Navigation in Anwendungen nur mit der Stimme (und den Augen!) erläutern und über Best Practices und häufige Fallstricke berichten. Um den Lernprozess zu beschleunigen, werde ich in einer kurzen Coding-Session demonstrieren, wie man seine eigene Sprachbefehlsbibliothek per Sprachbefehl erweitern kann. Im Laufe des Vortrags werde ich meine persönlichen Erfahrungen teilen und erklären, wie ich mein eigenes Setup angepasst habe, um individuelle Arbeitsabläufe zu ermöglichen und zu optimieren. Am Ende des Vortrags werde ich darauf eingehen, wie ich Handsfree Coding bei meiner Arbeit einsetze und wie man mit geringem Aufwand in das Thema einsteigen kann.
Software for interpreting and synthesizing natural language is used by millions of people every day who use smart home assistants or simply prefer dictating over typing on their mobile phones. But while hands-free interfaces have found widespread adoption among consumers, IT professionals still mostly consider them gimmicks or do not consider them at all for the purpose of software development – unjustly so!
In this presentation, I will describe a zero-cost setup for hands-free coding that is extremely powerful and convenient to use. First, I will cover the basics of how to control your computer and navigate applications using just your voice (and eyes!), sharing best practices and common pitfalls. To jumpstart the learning process, I will then demonstrate how to use your own voice command library as dog food by extending the default functionality in a brief voice-coding session. Throughout the talk, I will share my personal experiences and explain how I tweaked my own setup to accommodate customized workflows. I will close the talk with how I use hands-free coding at my job and a list of pointers for getting started.
Literaturtipps: Handsfree Coding: Softwareentwicklung ohne Maus und Tastatur
06. November 2023
Dipl.-Ing. Hannes Kath
(Institut für Informatik, Universität Oldenburg)
Lost in Dialogue: A Review and Categorisation of Current Dialogue System Approaches and Technical Solutions
Dialogue systems are an important and very active research area with many practical applications. However, researchers and practitioners new to the field may have difficulty with the categorisation, number and terminology of existing free and commercial systems. Our paper aims to achieve two main objectives. Firstly, based on our structured literature review, we provide a categorisation of dialogue systems according to the objective, modality, domain, architecture, and model, and provide information on the correlations among these categories. Secondly, we summarise and compare frameworks and applications of intelligent virtual assistants, commercial frameworks, research dialogue systems, and large language models according to these categories and provide system recommendations for researchers new to the field.
Literaturtipp: TBA
13. November 2023
M.Sc. Stefan Gerd Fritsch
(Deutsches Forschungszentrum für Künstliche Intelligenz, DFKI)
How Do Computers Learn to "Understand" Natural Language?
Künstliche neuronale Netzwerke zählen heute zu den zentralen Instrumenten für die maschinelle Verarbeitung natürlicher Sprache (NLP). Ihre Anwendungsbereiche erstrecken sich von Sprachübersetzung über Spam-Filterung, Sprachassistenten und Suchmaschinen bis hin zur automatischen Rechtschreibprüfung. Doch wie genau funktionieren diese künstlichen neuronalen Netze? Sind sie wirklich "intelligent"? Wie erfolgt das Lernen aus Daten? Und wie kann ein Computer ein tiefgehendes "Verständnis" für Sprache entwickeln?
Dieser Vortrag zielt darauf ab, diesen Fragen auf den Grund zu gehen. Neben einer Einführung in die grundlegende Funktionsweise neuronaler Netze werden deren vielfältige Anwendungsmöglichkeiten im Bereich der Sprachverarbeitung beleuchtet. Darüber hinaus werfen wir einen Blick auf die jüngsten Fortschritte im Bereich der sogenannten Large Language Models (LLMs) mit Milliarden von Parametern, wie beispielsweise ChatGPT.
Der Vortrag endet mit einer Diskussion des Konzepts der "Intelligenz" im Kontext des Maschinellen Lernen sowie einer eingehenden Auseinandersetzung mit den ethischen Fragen und Herausforderungen, die sich insbesondere seit dem Aufkommen immer mächtigerer LLMs ergeben. Besonderes Augenmerk liegt hierbei auf der Verantwortung und dem sorgfältigen Umgang mit Technologien wie ChatGPT, die nicht nur enorme Potenziale, sondern auch potenzielle Risiken und Gefahren in sich tragen.
Literaturtipp: Podcast – ChatGPT und KI - profitieren wirklich alle?
20. November 2023
Prof. Dr. Sara Rezat & Dr. Sebastian Kilsbach
(Institut für Germanistik und Vergleichende Literaturwissenschaft, Universität Paderborn)
Annotation und Rating argumentativer Lernertexte für die Generierung automatisierten Feedbacks
Argumentieren ist eine wichtige kommunikative Kulturkompetenz. Bezogen auf den Erwerb stellt das schriftliche Argumentieren und insbesondere das Aufgreifen und Entkräften von Gegenargumenten oft eine kritische Fähigkeit in allen Altersgruppen dar. Eine Möglichkeit, um Argumentationskompetenzen im schulischen Kontext zu fördern, stellt computerbasiertes Feedback dar.
An diesem Punkt setzt ein laufendes DFG-Projekt mit dem Titel „Computational Support for Learning Argumentative Writing in Digital School Education“ (Leitung: Sara Rezat/Henning Wachsmuth) an. In dem Projekt werden algorithmische Methoden für die automatische Analyse argumentativer Lernertexte entwickelt mit dem Ziel, automatisch ein lernersensitives Feedback zur Struktur der argumentativen Texte zu generieren.
Dafür ist es notwendig, im ersten Schritt ein Lernerkorpus manuell bezogen auf die argumentative Makro- und Mikrostruktur zu annotieren. Mit einer solchen Kodierung ist eine Orientierung an typischen Mustern sowohl auf makrostruktureller (u.a. Aufbau des Textes aus Argumenten und Gegenargumenten) wie auch mikrostruktureller Ebene (u.a. argumentative Textprozeduren) verbunden – schließlich sollen diese Muster algorithmisch erfasst und weiterverarbeitet werden. Aus computerlinguistischer Sicht ist in einem weiteren Schritt für das Mining der Texte eine Einschätzung der inhaltlichen Qualität der Texte und ein entsprechendes Rating unabdingbar.
Im Vortrag wird zunächst ein Überblick über das Projekt und die Projektziele gegeben. Daran anschließend werden Ergebnisse der ersten beiden Projektphasen vorgestellt, und zwar zur Annotation sowie zum Rating der Lernertexte. Wie lernersensitives automatisiertes Feedback gestaltet werden kann, soll im Ausblick und in der anschließenden Diskussion erörtert werden. Der unten genannte Lektürevorschlag soll eine entsprechende Diskussionsgrundlage dafür bereitstellen.
27. November, 2023
Prof. Dr. Katrin Lehnen
(Institut für Germanistik, Universität Gießen)
Titel: TBA
Abstract: TBA
Literaturtipp: TBA
04. Dezember 2023
Prof. Dr. Rico Sennrich
(Institut für Computerlinguistik, Universität Zürich)
Ein Blick hinter die Kulissen von ChatGPT. Einblicke aus der Maschinellen Übersetzung
Abstract: TBA
Literaturtipp: TBA
11. Dezember 2023 (16:15 - 17:45)
Prof. Dr. Susanne Boll
(Department für Informatik, UOL)
Language Interfaces of the Future: AI in Human-Technology Interaction
Abstract: TBA
Literaturtipp: TBA
18. Dezember 2023
Prof. Dr. Lisa Schüler
(Fakultät für Linguistik und Literaturwissenschaft, Universität Bielefeld )
Tastaturschreiben: Potentiale digitalen Schreibens für das schriftsprachliche Lernen nutzen
Abstract: TBA
Literaturtipp: TBA
08. Januar 2024
Prof. Dr. Anatol Stefanowitsch
(Institut für Englische Philologie, FU Berlin)
Titel: TBA
Abstract: TBA
Literaturtipp: TBA
15. Januar 2024
Prof. Dr. Jörg Peters
(Institut für Germanistik, UOL)
Akustische Messung der Stimmqualität bei nicht-pathologischen Stimmen
Abstract: TBA
Literaturtipp: TBA
22. Januar 2024
Dr. rer. nat. Jens E. Appell, M.Sc. Laura Tuschen & Dipl. -Ing. Jan Wellmann
(Fraunhofer-Institut für Digitale Medientechnologie IDMT)
Sprachverarbeitungstechnologien für die Sprachtherapie /Speech Processing Technologies for Speech and Language Therapy
Abstract: TBA
Literaturtipp: TBA
29. Januar 2024
Vortragende: TBA
Titel: TBA
Abstract: TBA
Literaturtipp: TBA
WiSe 2022/2023 - 1. Durchlauf der Ringvorlesung
Wir laden ganz herzlich zum Besuch einer hochaktuellen Ringvorlesung ein, die von Kolleg*innen der Institute für Germanistik/Niederlandistik und des Departments für Informatik fakultätsübergreifend organisiert wird. Sie ist lokalisiert an der Schnittstelle von Sprachwissenschaft/Korpuslinguistik und Informatik.
Es werden einerseits an dieser Schnittstelle arbeitende Expert*innen der UOL aus den Fakultäten II (Department für Informatik), III (Sprachwissenschaften) sowie VI (Medizin und Gesundheitswissenschaften) eingeladen.
Es werden andererseits Expert*innen (von Universitäten, des Fraunhofer IDMT, aus der Wirtschaft) aus den Bereichen Computerlinguistik, Digital Linguistics, Korpuslinguistik, automatische Spracherkennung, digitale Sprachverarbeitung, Human-Robot/Computer-Interaction mitwirken.
Die Vorlesung soll die Schlüsselkompetenzen der Studierenden im Bereich der digitalen Forschungsmethoden zur Sprach-Datenerhebung, -verarbeitung, und -analyse sowie im Bereich der Anwendungsperspektiven (in der Wissenschaft, aber auch im Bildungsbereich) stärken. Die Studierenden sollen somit einen interdisziplinären Einblick in Forschung und Anwendungsperspektiven zur Schnittstelle Sprachwissenschaft/Sprachtechnologie/Informatik erhalten und auch deren Chancen und Grenzen reflektieren können. Sie soll auch dazu beitragen, die unterschiedlichen beteiligten Disziplinen und Perspektiven stärker zu vernetzten.
Die Veranstaltung ist im Professionalisierungsbereich lokalisiert und kann von Studierenden aller Fakultäten besucht werden. Im Bachelor ist sie den Modulen pb331 und pb332 (Schlüsselkompetenzen in Sprach- und Literaturwissenschaften und ihren Berufsfeldern) zugeordnet, im Master dem Modul ipb611 (Freies Modul). Die Studierenden finden die Veranstaltung unter der Veranstaltungsnummer 10.31.501 in Stud.IP.
In der Ringvorlesung sind auch interessierte Kolleg*innen der Universität willkommen sowie ebenso externe Gäste.
Die Vorlesung Computer – Mensch – Sprache wird digital angeboten und findet montags von 14:15 Uhr bis 15:45 Uhr statt. Auf einen ca. 60-minütigen Vorlesungsvortrag folgt eine ca. 30-minütige Diskussion zum jeweiligen Themengebiet.
17. Oktober 2022
Prof. Dr. Wolfram Wingerath
(Institut für Informatik, Universität Oldenburg)
What You Say is What You Get – Handsfree Coding in 2022
Software zur Interpretation und Synthese natürlicher Sprache wird täglich von Millionen von Menschen genutzt, die smarte Heimassistenten verwenden oder einfach lieber auf ihrem Mobiltelefon diktieren als tippen. Doch während sich Schnittstellen zur freihändigen Bedienung bei den Verbrauchern längst durchgesetzt haben, werden sie von IT-Fachleuten meist noch als Spielerei betrachtet oder überhaupt nicht für den professionellen Einsatz in Betracht gezogen - völlig zu Unrecht!
In diesem Vortrag beschreibe ich ein Null-Kosten-Setup für freihändiges Programmieren, das extrem leistungsfähig und komfortabel in der Handhabung ist. Zunächst werde ich die Grundlagen der Steuerung des Computers und der Navigation in Anwendungen nur mit der Stimme (und den Augen und Mimik und mehr!) erläutern und über Best Practices und häufige Fallstricke berichten. Um den Lernprozess zu beschleunigen, werde ich in einer kurzen Coding-Session demonstrieren, wie man seine eigene Sprachbefehlsbibliothek per Sprachbefehl erweitern kann. Im Laufe des Vortrags werde ich meine persönlichen Erfahrungen teilen und erklären, wie ich mein eigenes Setup angepasst habe, um individuelle Arbeitsabläufe zu ermöglichen und zu optimieren. Am Ende des Vortrags werde ich darauf eingehen, wie ich Handsfree Coding bei meiner Arbeit einsetze wie man mit geringem Aufwand in das Thema einsteigen kann.
Literaturtipps: Sprechen ist das neue Klicken
24. Oktober 2022
Prof. Dr. Kerstin Fischer
(Department of Design and Communication, Social Design & Interaction Research, University of Southern Denmark)
Doing Linguistics Using Robots
Robots make excellent confederates in the experimental investigation of the meanings and functions of linguistic features, especially interactional and interpersonal effects, which are otherwise hard to identify empirically. This is because robots are controllable in ways humans are not and present exactly the same stimuli for all participants in identical ways, while at the same time being embodied and somewhat unknown interaction partners, which makes methodological constraints natural and acceptable.
In this talk, I present examples from several years of work in which I have used robots to study aspects of language and speech.
Literaturtipp: Studying Language Attitudes Using Robots
07. November 2022
Prof. Dr. Noah Bubenhofer
(Deutsches Seminar, Universität Zürich)
Die Sprache gibt es nicht. Das zeigt der Computer.
In der Linguistik werden seit geraumer Zeit umfangreiche Textsammlungen als sog. "Korpora" quantitativ und qualitativ ausgewertet, um Sprachgebrauch modellieren zu können. Damit verbunden ist die Prämisse, dass der Fokus der modernen Linguistik weniger auf der Idee von Sprache als System, sondern von Sprache als Sprachgebrauch in der Gesellschaft verstanden wird. Die statistische Analyse von großen Textkorpora bietet sich bei einer solchen Perspektive besonders an.
Welche Methoden werden nun angewandt, um solche Daten zu analysieren? Und welche Forschungsfragen lassen sich damit beantworten? Im Vortrag zeige ich Forschung aus verschiedenen Bereichen, z.B. zum Sprachgebrauch in der Corona-Pandemie. Deutlich wird dabei, dass es nicht sinnvoll ist anzunehmen, dass es "die Sprache" gibt und diese modellieren zu wollen, sondern dass es plausibler ist, unterschiedliche Sprachgebräuche zu modellieren und zu analysieren. Moderne Methoden der distributionellen Semantik (sog. Word Embeddings auf Basis von neuronalem Lernen) bieten sich hierzu an – allerdings nur dann, wenn damit auch ein entsprechendes theoretisches Verständnis verbunden ist.
Literaturtipps: Exploration semantischer Räume im Corona-Diskurs
14. November 2022
M.Sc. Stefan Gerd Fritsch
(Forschungsbereich Eingebettete Intelligenz, DFKI Kaiserslautern)
Natural Language Processing: How Do Computers Learn to "Understand" Natural Language?
Künstliche neuronale Netze gehören heutzutage zu den wichtigsten Systemen, die zur maschinellen Verarbeitung natürlicher Sprache verwendet werden. Ob Sprachübersetzer, Spam-Filter, Sprachassistenten, Suchmaschinen oder automatische Rechtschreibprüfung - wir verwenden neuronale Netze tagtäglich, oftmals ohne es zu merken. Doch was sind künstliche neuronale Netze überhaupt? Wie funktioniert das Lernen von Daten? Wie können Computer ein "Verständnis" von Sprache entwickeln? Dieser Vortrag möchte diesen Fragen (und einigen weiteren) auf den Grund gehen. Hierzu werden wir neben den sogenannten feedforward neuronalen Netzen auch rekurrente Architekturen und deren Anwenungsmöglichkeiten zur Sprachverarbeitung kennenlernen. Darüber hinaus werden wir die neuesten Entwicklungen im Bereich der Transformer-basierten Sprachmodelle bis hin zu den größten Modellen mit mehreren Milliarden Parametern betrachten. Der Vortrag schließt mit einer kritischen Diskussion ethischer Fragestellungen und Problematiken, die der Einsatz von maschinellem Lernen zum Zwecke der Sprachverarbeitung mit sich bringt.
Literaturtipp: Five sources of bias in natural language processing.
21. November 2022
Prof. Dr. rer. nat. Jochem Rieger
(Angewandte Neurokognitive Psychologie, Universität Oldenburg)
Artificial and biological intelligence: How machine learning can advance our understanding of speech processing in the human brain
Literaturtipps:
- Generalizable dimensions of human cortical auditory processing of speech in natural soundscapes: A data-driven ultra high field fMRI approach
- Encoding and Decoding Models in Cognitive Electrophysiology (Paper & Tutorial)
- Rapid tuning shifts in human auditory cortex enhance speech intelligibility
- Categorical representation of phonemes in the human superior temporal gyrus
28. November 2022 (16:15 – 17:45)
Prof. Dr. Peter Birkholz
(Institut für Akustik und Sprachkommunikation, TU Dresden)
Artikulatorische Sprachsynthese mit VocalTractLab
Dieser Vortrag gibt eine Einführung in die artikulatorische Sprachsynthese mit einem Fokus auf das System VocalTractLab. Im Gegensatz zu den derzeit verbreiteten Verfahren der Verkettungssynthese oder der Sprachsynthese auf Basis neuronaler Vocoder verwendet die artikulatorische Synthese Modelle des Vokaltrakts, der Stimmlippen, der Aerodynamik und Akustik, sowie der Steuerung der Modellartikulatoren. Damit handelt es sich um eine Simulation des Spracherzeugungsprozesses mit einer hohen Flexibilität bezüglich der erzeugten Sprache. Im Vortrag werden die einzelnen Teilmodelle des Systems vorgestellt und erläutert, welche neuen Forschungsfragen sich aus der Simulation ergeben. Außerdem werden verschiedene Anwendungen der artikulatorischen Synthese vorgestellt.
Literaturtipps: Modeling Consonant-Vowel Coarticulation for Articulatory Speech Synthesis
05. Dezember 2022
Dipl.-Ing. Hannes Kath
(Institut für Informatik, Universität Oldenburg)
Erstellung eines maschinell annotierten Sprachkorpus (CARInA); von der Abschlussarbeit in die Wissenschaft
Dieser Vortrag stellt die Ergebnisse und den Prozess einer Diplomarbeit von der Themenfindung bis zur Publikation vor. Gegenstand der Abschlussarbeit war die Erstellung eines deutschen Sprachkorpus, welcher unter anderem für die Sprachsynthese genutzt werden kann und somit Annotationen auf unterschiedlichen Ebenen benötigt. Das Sprachmaterial des Korpus wurde der Plattform Wikipedia entnommen, die Annotationen mit unterschiedlichen Tools automatisch hinzugefügt. Typischer Anwendungsbereich gesprochener Korpora ist das Training neuronaler Modelle zur Spracherkennung, Personenerkennung, Sprachsynthese und Sprachanalyse. Die Erstellung hochwertiger handannotierter Korpora ist sowohl zeit- als auch kostenintensiv, wodurch für viele Anwendungen maschinell erstellte Korpora bevorzugt werden.
Literaturtipp: CARINA – A Corpus of Aligned German Read Speech Including Annotations
12. Dezember 2022
Dr. Thomas Schmidt
(MusicalBits GmbH)
Mündliche Korpora – Manuelle und automatisierte Herangehensweisen an Gespräche und gesprochene Sprache
Mündliche Korpora – also Audio- oder Videoaufnahmen natürlicher, spontaner Interaktion, die durch Transkription und Annotation für eine Analyse erschlossen werden – werden mindestens seit den 1950er Jahren von SprachwissenschaftlerInnen erhoben, um beispielsweise Variation (Dialekte) oder pragmatische Aspekte der verbalen Interaktion zu untersuchen. In vordigitaler Zeit bedeutete die Arbeit mit mündlichen Korpora das Hantieren mit Tonbändern, Schreibmaschinen und Zettelkästen. Heute existieren ausgereifte Workflows, die „digital geborene“ Aufnahmen in teilweise automatischen, teilweise durch digitale Tools unterstützten manuellen Vorgängen schrittweise um Informationen anreichern, um diese dann – wiederum durch digitale Werkzeuge unterstützt – für die Analyse nutzen oder web-basiert weitergeben zu können. Nichtsdestotrotz bleibt die Erhebung und Erschließung von und korpuslinguistische Arbeit mit gesprochener Sprache ein aufwändiges und komplexes Unterfangen.
In meinem Beitrag zur Ringvorlesung werde ich den Workflow vorstellen, der beim Aufbau des Forschungs- und Lehrkorpus Gesprochenes Deutsch (FOLK) zur Anwendung kommt (Schmidt 2016). Anschließend diskutiere ich die Rolle, die maschinelle Methoden wie automatische Spracherkennung und andere Verfahren aus Computerlinguistik, Natural Language Processing oder „Künstlicher Intelligenz“ derzeit in der Arbeit mit mündlichen Korpora spielen und wie sie zukünftig zum Einsatz kommen können.
Literaturtipps: Construction and Dissemination of a Corpus of Spoken Interaction - Tools and Workflows in the FOLK project
09. Januar 2023
M.Sc. Jan Manemann
Dr. Daniel Schlitt
(worldiety GmbH Oldenburg)
AudioCAT – Kompetenzprüfung über sprachgesteuerte Computerdialogsysteme
Eine effektive Kommunikation ist der Grundsatz für eine erfolgreiche Teamarbeit. Dies ist auch maßgeblich, wenn es zu herausfordernden oder stressigen Momenten innerhalb des Berufsfeldes kommt. Sinnbild für diese Problematik ist die aktuelle Situation innerhalb der medizinischen Pflege. Die anspruchsvollen Grundvoraussetzungen sind für die Teams mit unterschiedlichen Muttersprachen und diversen kulturellen Hintergründen oft schwer miteinander zu vereinbaren. Dabei geht es nicht nur um das Fachwissen, sondern auch um die persönlichen Entscheidungswege, die innerhalb eines Teams durch die sogenannten „Soft Skills“ repräsentiert werden.
Das AudioCAT Projekt setzt hier an, indem ein automatisierter Prozess zur Evaluation der Fachkenntnisse und Soft Skills entwickelt wird. AudioCAT ist ein Verbundprojekt der worldiety GmbH, des Fraunhofer IDMT und der Hochschule Flensburg. Gefördert wird das Projekt vom Bundesministerium für Bildung und Forschung.
Kern des AudioCAT Projektes ist die Mensch-Maschine-Interaktion. Proband:innen durchlaufen die Testszenarien als interaktiven Fragebogen. Die Antworten der Proband:innen werden dabei direkt über ein Mikrofon eingesprochen und mit einem Spracherkennungs-Algorithmus transkribiert. Das System kann auch auf Antworten reagieren und - sofern möglich - eine sinnvolle Folgefrage stellen.
Die transkribierten Antworten der Testszenarien werden verwendet, um eine künstliche Intelligenz anzulernen. Für das Training der KI müssen die Antworten zunächst von einem Menschen mit Gut, Mittel oder Schlecht klassifiziert werden. Wenn die KI trainiert ist, soll die KI die Klassifizierung entsprechend selbst neuen Antworten zuordnen können. Dabei gilt es auch zu definieren, welche Metriken und Ausprägungen einer Antwort auf gute Soft Skills hinweisen und welche nicht, um einen möglichst resilienten KI-Algorithmus zu entwickeln, der auch ohne menschliches Zutun langfristig gute Ergebnisse liefert.
Literaturtipps:
16. Januar 2023
Dr. Kyoko Sugisaki
(Digitale Sprachwissenschaft, Universität Oldenburg)
Computer, Mensch, Sprache – Forschung im Grenzgebiet
Wie sieht interdisziplinäre Forschung im Grenzgebiet zwischen Computer, Mensch und Sprache aus? Anhand von Beispielen aus meiner Forschung im Bereich Sprachwissenschaft, Computerlinguistik und Mensch-Maschine Interaktion (MMI) gebe ich Einblicke und nehme Bezug auf vorhergehende Vorträge in der Ringvorlesung. Dabei wird deutlich, wie verschieden die einzelnen wissenschaftlichen Gebiete in ihren Zielsetzungen, Methoden, Denkweisen und Diskursen sein können. Für die Forschung stellt dieses Spannungsfeld zwar einige Herausforderungen dar. Gleichzeitig ermöglicht dies spannende Erkenntnisse und Erklärungen in der Sprachwissenschaft, neue Lösungsansätze in der Sprachtechnologie sowie Zielsetzungen in der MMI.
Literaturtipps:
- Sprachtechnologie: Building a Corpus from Handwritten Picture Postcards: Transcription, Annotation and Part-of-Speech Tagging
- Sprachwissenschaft: Tracing Changes in Thematic Structure of Holiday Picture Postcards from 1950s to 2010s
- Mensch-Maschine Interaktion: How users solve problems with presence and affordance in interactions with conversational agents: A wizard of Oz study
23. Januar 2023
Dr. rer. nat. Jens E. Appell & Laura Tuschen
(Fraunhofer-Institut für Digitale Medientechnologie IDMT)
Sprachtechnologien bei pathologischer Sprache
Der im Jahr 2008 gemeinsam von Prof. Dr. Dr. Birger Kollmeier und Dr. Jens Appell gegründete Fraunhofer-Standort für Hör-, Sprach- und Audiotechnologie (HSA) des Fraunhofer IDMT befasst sich seit seiner Gründung mit Sprachtechnologien von der automatischen Spracherkennung über die Vorhersage der Sprachverständlichkeit unter verschiedensten Bedingungen bis hin zur Entwicklung computergestützter Verfahren zur Stimm- und Sprechanalyse für digitale Anwendungen der Bewertung und des Trainings in den Bereichen Sprachtherapie, Spracherwerb und Sprachenlernen.
Der Vortrag führt in die Arbeiten des HSA im Bereich Sprache ein und legt einen besonderen Schwerpunkt auf die Arbeiten der Gruppe Assistive Sprech- und Sprachanalyse unter der Leitung von Laura Tuschen. Dabei werden grundlegende Konzepte und Ansätze zur Bewertung von Sprache aus einer logopädischen Perspektive vorgestellt und deren Potential für eine computergestützte Bewertung diskutiert. Anhand der in dieser Gruppe laufenden Projekt- und Forschungsarbeiten werden die technologischen Entwicklungen erklärt und in den jeweiligen Anwendungskontext gestellt und diskutiert. Wesentliche technische Elemente sind dabei der Einsatz von Technologien zur automatischen Spracherkennung, klassischer akustischer Maße für die Bewertung von Stimme sowie ganz generell der Einsatz von KI-Methoden bei der Analyse. In der Forschung befindliche Anwendungsszenarien sind u. a. digitale Trainigssysteme zur Förderung der Sprechverständlichkeit nach einem Schlaganfall mit individuellem Feedback sowie automatische Bewertungen der Lesekompetenz bei GrundschülerInnen zur Identifikation individueller Förderungsbedarfe. Akustische Maße werden in automatisierten Analyseansätzen umgesetzt, um die Stimmqualität zu bewerten und derartige Systeme in der Versorgung zur Prävention und Diagnostik zugänglich zu machen. Darüber hinaus wird die gesprochene Sprache als Biomarker untersucht, um über automatisierte Analysen Hinweise auf tiefgreifende Entwicklungsstörungen wie z. B. Autismusspektrumstörungen geben zu können und eine frühe Diagnosestellung bei Betroffenen zu fördern.
Literaturtipps:
- The utility of LENA as an indicator of developmental outcomes for young children with autism
- Intelligent speech technologies for transcription, disease diagnosis, and medical equipment interactive control in smart hospitals: A review
30. Januar 2023
Prof. Dr. Detmar Meurers
(Seminar für Sprachwissenschaft, Universität Tübingen)
Computerlinguistische Analyse sprachlicher Komplexität von Lese- und Lernertexten
Die Komplexität von Sprache ist aus unterschiedlichen Perspektiven
relevant: zur Analyse der Lesbarkeit von Texten oder zur
Charakterisierung der Sprachkompetenz von Individuen anhand ihrer
Sprachproduktion. In diesem Vortrag stellen wir einen empirisch
breiten, computerlinguistischen Ansatz zur automatischen Analyse von
sprachlicher Komplexität vor, der über eine Webapplikation
(http://ctapweb.com) auch allgemein nutzbar ist. Neben einführenden
Analysen diskutieren wir dann einige Faktoren, denen bisher weniger
Aufmerksamkeit geschenkt wurde: Wie wirken sich die Eigenschaften
einer Aufgabe auf die Komplexität des geschriebenen Textes aus? Was
passiert, wenn sprachliche Komplexität auf mathematische Komplexität
in Textaufgaben trifft? Beeinflusst die sprachliche Komplexität eines
Lesetextes die Komplexität eines anschließend geschriebenen Textes?
Literaturtipps:
- Broad linguistic modeling is beneficial for German L2 proficiency assessment
- Schulbuchtexte der Sekundarstufe auf dem linguistischen Prüfstand: Analyse der bildungssprachlichen Komplexität in Abhängigkeit von Schultyp und Jahrgangsstufe
- Weitere Veröffentlichungen zur Thematik: http://www.sfs.uni-tuebingen.de/~dm/complexity.html