Newsticker

Zahl der Corona-Infizierten in München sinkt unter kritischen Wert
  1. Startseite
  2. Digital
  3. Sprachcomputer sollen Gefühle erkennen

02.06.2009

Sprachcomputer sollen Gefühle erkennen

Sprachcomputer sollen Gefühle erkennen
Bild: DPA

Stuttgart (dpa) ­ Wer im Callcenter anruft, hat oft eine Computerstimme statt einem menschlichen Helfer am Apparat. Und wenn die Maschine nicht versteht, was Anrufer wollen, werden diese schnell sauer. Computer und Gefühle ­ sie wollen nicht recht zusammenpassen.

Doch in Zukunft sollen Sprachcomputer menschliche Gefühlsregungen erkennen können. Dieses Ziel verfolgen Professor Bin Yang und sein Team von der Universität Stuttgart am Lehrstuhl für Systemtheorie und Signalverarbeitung (LSS) nun schon seit über vier Jahren. "Unser Forschungsprojekt versucht den Computer dahin zu bringen, menschliche Emotionen in der Sprache zu verstehen." Bisher registrieren Sprachcomputer nur, was gesagt wird. Wenn Menschen miteinander reden, nehmen sie außer dem Inhalt, automatisch auch die sogenannten paralinguistischen Eigenschaften einer Äußerung wahr. Das können Geschlecht und Alter oder Gemütsbewegungen des Sprechers sein. Wut, Glück oder Trauer spiegeln sich in der Äußerung genauso wie Stress oder Nervosität.

Auf der Basis der sonst für die inhaltliche Spracherkennung genutzten digitalisierten Sprachdaten sollen die paralinguistischen Anteile des Gesagten errechnet werden. Die mathematischen Methoden, mit denen dabei gearbeitet wird, stammen aus der Mustererkennung, eines Zweiges der statistischen Signalverarbeitung. "Die Emotionserkennung erfolgt in mehreren Schritten", erklärt Yang den Ablauf seiner Arbeit.

Zunächst muss der Computer trainiert werden. "Dazu haben wir Mitarbeiter und Studenten unserer Universität, aber auch Studenten einer Nachrichtensprecherschule gebeten, die Texte in verschiedenen Stimmungen sprechen sollten. Außerdem nutzten wir fertige Datenbanken als Trainingsmaterial." So wurden zunächst emotional bewertete Sprachdatenbanken erstellt, anhand derer das Erkennungssystem trainiert werden kann. Danach werden Merkmale aus den Sprachsignalen berechnet, die sich bezüglich verschiedener Emotionen besonders gut unterscheiden lassen. Der Computer entscheidet aber letztendlich selbst, welche Daten er als Entscheidungsregel auswählt und den Emotionen zuordnet.

Sprachcomputer sollen Gefühle erkennen

Die Emotionserkennung funktioniert nach diesem "Training" schon recht gut. "Interessant wird es mit fremden Stimmen, die dem Computer nicht bekannt sind. Hier liegt die Herausforderung für die kommenden Jahre", sagt der 45-jährige Ingenieur der Elektrotechnik. Yang beschäftigt sich schon lange mit der Signalverarbeitung. Nach dem Studium und der Promotion an der Ruhruniversität in Bochum arbeitete der 1981 ausgewanderte Chinese sechs Jahre in der Industrie. Auch dort galt sein Interesse der Signalverarbeitung, vor allem in der Handysparte. 2001 folgte Yang dem Ruf an die Universität Stuttgart, wo er die Leitung des LSS übernahm.

Wann die Technik angewandt werden kann, sei noch unklar. Interessenten gebe es aber bereits: Ärzte erhoffen sich vom neuartigen Sprachcomputer Hilfe bei der Diagnose. Fahrerassistenzsysteme könnten erkennen, ob der Fahrer im Stress oder gar müde ist. Besonders Betreiber von Callcentern könnten mit der ausgereiften Technologie mehr über den Anrufer erfahren. Ein schlauer Computer merkt rechtzeitig, wenn ein Anrufer in der Warteschleife ungeduldig wird und stellt ihn schneller durch, um ihn nicht zu vergraulen.

Im Idealfall soll der Computer also die Emotionen nicht nur erkennen, sondern auch entsprechend darauf reagieren können. "Es gibt Worte, wie "Mist" oder "Herzlichen Glückwunsch", hinter denen immer bestimmte Emotionen stehen", sagt Yang. Erkenne der Rechner die Worte, könne er die entsprechenden Gefühle zuordnen und Sprache und Emotionen verbinden. Der zweifache Familienvater möchte mit seinem Forschungsprojekt dazu beitragen, die Computer menschlicher zu gestalten. So sollen die Erkenntnisse aus der Emotionserkennung auch dazu beitragen, die synthetisierte Sprache des Sprachcomputers emotionaler zu gestalten.  

Lehrstuhl für Systemtheorie und Signalverarbeitung: www.lss.uni-stuttgart.de

Themen folgen

Die Diskussion ist geschlossen.

Das könnte Sie auch interessieren