😁 So zumindest die Annahme der klassischen Emotionspsychologie:
Emotionen werden im Gesicht durch eine bestimmte Anordnung der Gesichtsmuskeln sichtbar. Von den Wahrnehmenden werden sie wie „Wörter auf einer Seite gelesen“. Gesichtsausdrücke sind angeboren und universell. Sie umfassen sechs Grundtypen und zeigen weltweit die gleichen Merkmale, unabhängig von sozialen oder geografischen Kontexten.
😡 Beispielsweise deutet ein heruntergezogenes Augenbrauenpaar, ein starrer Blick, gespannte Lippen, eine Zornesfalte zwischen den Augenbrauen und eventuell geweitete Nasenflügel auf Wut hin. Angst hingegen äußert sich durch hochgezogene Augenbrauen, geweitete Augenlider, einen leicht geöffneten Mund und einen starren Blick.
📍 Aus den Gesichtsausdrücken lässt sich also, so die Annahme, direkt auf die Emotionen einer Person schließen. Unverschlüsselt und direkt. Denn unsere Gesichtsausdrücke sind schneller als der Verstand und werden von uns nicht gesteuert.
🔈 Ähnliche Vorstellungen gibt es auch für den emotionalen Ausdruck in der Stimme. Merkmale wie Tonhöhe, Lautstärke und die Dehnung des Sprachsignals können ebenfalls Aufschluss über unsere Gefühlslage geben – Wut und Angst werden somit auch stimmlich wahrnehmbar.
🤖 Emotion Ai, so die Schlussfolgerung, muss also die Gesichter oder die Sprachsignale nur erkennen und analysieren. Und das tut sie auch schon.
Wo und wie sie jetzt schon eingesetzt wird, in Teil 3 der Reihe zu Emotion AI.
Habt ihr schon Erfahrungen mit Technologien gemacht, die diese Art der Analyse verwenden?
———-
Quellen:
Ekman, Paul, Sorenson, E. Richard /Friesen, Wallace V. (1969), „Pan-Cultural Elements in Facial Displays of Emotion“, Science 164, (3875), 86–88.