Wenn zwei Menschen miteinander sprechen, nehmen sie zweierlei wahr: Den Inhalt des Gesagten, aber auch Emotionen, die dadurch zum Ausdruck kommen, wie etwas gesagt wird. Diese Eigenschaften des Gesprochenen können von Systemen zur automatischen Spracherkennung wie beispielsweise in einer Telefonanlage bisher nicht erkannt werden. Doch das könnte sich schon bald ändern. Denn Stuttgarter Wissenschaftler suchen nach neuen Wegen, damit Sprachcomputer künftig auch Gemütsbewegungen verstehen können.
{1r}
Die Sprachkommunikation besteht aus zwei Ebenen: dem linguistischen sowie dem paralinguistischen Kommunikationskanal. Über den ersten Kanal wird der Inhalt der Sprachkonversation ausgetauscht: Was wurde gesprochen? Über den zweiten Kanal werden alle darüber hinausgehenden Informationen, also der paralinguistische Anteil der Sprachäußerung, kommuniziert: Wie wurde es gesprochen?
Mehr als nur das Gesagte
Solche paralinguistischen Eigenschaften sind beispielsweise das Alter und das Geschlecht der Sprecher, die in einer Sprachäußerung gespiegelte Emotion – normal, Wut, Glück, Trauer, … -, die so genannte Stimmqualität (modal, hauchend, rau, knarrig, …), medizinische Auffälligkeiten in der Stimmgebung oder auch Stress und Nervosität. Auch Informationen über die regionale beziehungsweise soziale Herkunft wie Dialekt gehören zu den paralinguistischen Eigenschaften.
Ein Mensch kann aus einer Sprachkonversation den inhaltlichen wie auch den paralinguistischen Informationsstrom gleichzeitig extrahieren und gemeinsam auswerten. Beim „Gespräch“ zwischen Mensch und Computer – oder wissenschaftlich gesprochen an der akustischen Mensch-Computer-Schnittstelle – hat man sich allerdings bis heute fast ausschließlich auf den ersten Kommunikationskanal konzentriert. Diese automatische Erkennung des gesprochenen Textes aus den Sprachsignalen ist bekannt als Spracherkennung.
Mehrstufiges Vorgehen
Dagegen ist die automatische Erkennung der paralinguistischen Eigenschaften aus Sprachsignalen ein noch junges Forschungsfeld, das zunehmendes Interesse erweckt. Die mathematischen Methoden und Algorithmen, die dies ermöglichen sollen, stammen aus dem Gebiet der Mustererkennung, eines Zweiges der statistischen Signalverarbeitung.
Wie die Spracherkennung besteht auch die Emotionserkennung aus mehreren Schritten: So werden zunächst emotional bewertete Sprachdatenbanken erstellt, anhand derer das Erkennungssystem trainiert werden kann. Dann werden Merkmale aus den Sprachsignalen berechnet, die sich bezüglich verschiedener Emotionen besonders gut unterscheiden lassen.
Es folgen eine Auswahl der sinnvollsten Merkmale sowie der Entwurf und die Optimierung eines lernfähigen Erkennungssystems, das aus den Daten die Entscheidungsregel für die Emotionserkennung selbst extrahiert. Schließlich wird der „Erkenner“ trainiert und mit unbekannten Testdaten bestätigt.
Automatische Emotionserkennung
Bei der Berechnung der Merkmale durch die Wissenschaftler der Universität Stuttgart stellte sich allerdings heraus, dass die in der Spracherkennung etablierten Merkmale für die Emotionserkennung nur bedingt nützlich sind, weil sich die linguistischen und paralinguistischen Informationen an unterschiedlichen Stellen der Sprachsignale verstecken. Bis die automatische Emotionserkennung für einen praktischen Einsatz ausgereift ist, sind deshalb noch viele Forschungsarbeiten nötig.
Doch der Aufwand lohnt sich, denn die Anwendungen für die Emotionserkennung aus Sprachsignalen sind vielfältig. Interessenten finden sich in Callcentern ebenso wie im medizinischen Bereich. In Fahrerassistenzsystemen könnte die Technologie detektieren, ob der Fahrer gerade im Stress ist. Zudem könnte die konventionelle Spracherkennung verbessert werden, weil die emotionale Färbung einer Sprachäußerung oft mit dem Inhalt des Gesagten verbunden ist: Das Schimpfwort „Mist“ und das Grußwort „Herzlichen Glückwunsch“ sind immer mit unterschiedlichen Emotionen verbunden.
In der umgekehrten Richtung sollen die Erkenntnisse aus der Emotionserkennung nach Angaben der Wissenschaftler auch dazu beitragen, die synthetisierte Sprache des Sprachcomputers emotionaler zu gestalten.
(idw – Universität Stuttgart, 19.02.2009 – DLO)