Verstand und Gefühl: Möchten wir eine KI, die Gefühle beherrscht?

Emotionserkennungstechnologien sind in vielen Bereichen bereits im Einsatz. Wir erklären, wie Maschinen Ihre Stimmung bestimmen, warum sie es tun und wie sie die Privatsphäre gefährden.

Stellen Sie sich folgendes Szenario vor: Sie kommen eines Tages schlecht gelaunt von der Arbeit nach Hause. Fluchend betreten Sie die Wohnung, während Sie sich darüber ärgern, dass sich die Haustüre nicht schnell genug öffnet und die Glühbirne im Eingangsbereich mal wieder ihren Geist aufgegeben hat. Ohne ihn darum zu bitten, spielt der smarte Lautsprecher auf einmal leise Enspannungsmusik ein und der Kaffeevollautomat bereitet Ihnen einen wohlverdienten Mokka zu. Oder ein anderes Beispiel: Sie betreten ein Geschäft und der Roboterassistent, der sich Ihnen nähern wollte, sieht Ihr unglückliches Gesicht, weicht zurück und hilft stattdessen einem anderen Kunden. Klingt nach Science Fiction?

In der Tat werden Emotionserkennungstechnologien bereits in vielen Bereichen des Lebens eingeführt, und in naher Zukunft könnte unsere Stimmung unter den wachsamen Augen von Gadgets, Haushaltsgeräten und Autos stehen. In diesem Beitrag untersuchen wir, wie solche Technologien funktionieren und wie nützlich (und manchmal gefährlich) sie sein können.

Warum AI das Erkennen von menschlichen Emotionen erlernt

Künstliche Emotionale Intelligenz (EQ)

Die meisten derzeitigen Emotionserkennungssysteme analysieren den Gesichtsausdruck und die Stimme einer Person sowie alle Wörter, die diese sagt oder schreibt. Wenn sich beispielsweise die Mundwinkel einer Person heben, kann die Maschine davon ausgehen, dass die Person gut gelaunt ist, während eine gerümpfte Nase Wut oder Ekel suggeriert. Eine hohe, zitternde Stimme und eine hastige Sprechweise können auf Angst hindeuten, während der Ausruf des Wortes „Prost!“ vermutlich darauf schließen lässt, dass die Person glücklich ist.

Komplexere Systeme analysieren auch Gesten und berücksichtigen neben Mimik und Sprache sogar die Umgebung. Ein solches System erkennt, dass eine Person, die zu einem Lächeln gezwungen wird, wahrscheinlich nicht besonders glücklich ist.

Emotionserkennungssysteme lernen im Allgemeinen die Verbindung zwischen einer Emotion und ihrer externen Manifestation aus großen Arrays von beschrifteten Daten zu bestimmen. Die Daten können Audio- oder Videoaufzeichnungen von Fernsehshows, Interviews und Experimenten mit realen Personen, Clips von Theateraufführungen oder Filmen sowie Dialoge von professionellen Schauspielern umfassen.

Je nach Zweck können einfachere Systeme auf Fotos oder Textkorpora trainiert werden. In diesem Microsoft-Projekt wird beispielsweise versucht, anhand von Fotos die Emotionen, das Geschlecht und das ungefähre Alter von Personen zu erraten.

Wofür die Emotionserkennung?

Laut Gartner wird bis 2022 jedes zehnte Gerät mit Emotionserkennungstechnologien ausgestattet sein. Einige Organisationen verwenden diese jedoch bereits. Wenn Sie beispielsweise ein Büro, eine Bank oder ein Restaurant betreten, werden die Kunden möglicherweise von einem freundlichen Roboter begrüßt. Und das sind nur einige Bereiche, in denen sich solche Systeme als vorteilhaft erweisen könnten.

Sicherheit

Emotionserkennung kann zur Gewaltprävention verwendet werden (sowohl häusliche als auch in anderer Form). Zahlreiche wissenschaftliche Artikel haben sich mit diesem Thema befasst. Es gibt auch schon einige Unternehmer, die solche Systeme bereits an Schulen und andere Institutionen verkaufen.

Selektionsprozess von Bewerbern

Einige Unternehmen setzen KI zur Erkennung von Emotionen als HR-Assistenten ein. Das System wertet Stichwörter, Intonationen sowie die Mimik der Bewerber im ersten und zeitaufwändigsten Stadium des Bewerbungsprozesses aus und erstellt für die Personaler einen Bericht darüber, ob der Bewerber wirklich an der Position interessiert ist, ob er ehrlich ist, usw.

Kundenservice

Die Straßen- und Verkehrsbehörde in Dubai hat in diesem Jahr in ihren Kundendienstzentren ein interessantes System eingeführt, bei dem mit KI ausgestattete Kameras die Gefühle der Menschen beim Betreten und Verlassen des Gebäudes vergleichen, um festzustellen, wie zufrieden sie sind. Wenn die berechnete Punktzahl einen bestimmten Wert unterschreitet, rät das System den Mitarbeitern des Zentrums, Maßnahmen zur Verbesserung der Servicequalität zu ergreifen. (Fotos von Besuchern werden aus Datenschutzgründen nicht gespeichert.)

Sozialisierung von Kindern mit besonderen Bedürfnissen

Ein weiteres Projekt soll Kindern mit Autismus helfen, die Gefühle ihrer Mitmenschen zu deuten. Das System läuft auf der smarten Brille Google Glass. Wenn das Kind mit einer anderen Person interagiert, verwendet die Brille Grafiken und Töne, um Hinweise auf deren Emotionen zu geben. Tests haben gezeigt, dass Kinder mit diesem virtuellen Helfer schneller Kontakte knüpfen können.

Wie effektiv sind Gefühlsdetektoren?

Emotionserkennungstechnologien sind alles andere als perfekt. Ein typisches Beispiel ist die in vielen US-Schulen eingesetzte Technologie zur Erkennung von Aggressionen. Wie sich herausstellt, betrachtet das System ein zu lautes Husten als alarmierender als einen furchteinflößenden Schrei.

Forscher der University of Southern California haben herausgefunden, dass die Gesichtserkennungstechnologie auch leicht zu täuschen ist. Das Gerät verknüpft bestimmte Gesichtsausdrücke automatisch mit bestimmten Emotionen, unterscheidet jedoch ein böswilliges oder unglückliches Lächeln nicht von einem echten.

Daher sind Emotionserkennungssysteme, die den Kontext berücksichtigen, genauer. Sie sind jedoch komplexer und weitaus weniger vertreten.

Von Bedeutung ist nicht nur, worauf die Maschine abzielt, sondern auch worauf sie trainiert wurde. Beispielsweise könnte ein System, das auf geschauspielerte Emotionen trainiert ist, mit der Erkennung von realen Emotionen Probleme haben.

Emotionen als persönliche Daten

Die Verbreitung von Emotionserkennungstechnologien wirft ein weiteres wichtiges Problem auf. Unabhängig davon, wie effektiv sie sind, dringen solche Systeme in den persönlichen Raum der Menschen ein. Stellen Sie sich zum Beispiel das folgende Szenario vor: Sie mögen das Outfit eines zufälligen Passanten, und bevor Sie es wissen, werden Sie mit Werbung für Kleidung der gleichen Marke bombardiert. Oder vielleicht runzeln Sie während einer Besprechung die Stirn und werden anschließend nicht mehr für eine Beförderung in Betracht gezogen.

Laut Gartner möchte mehr als die Hälfte aller Einwohner der USA und Großbritanniens nicht, dass KI ihre Gefühle und Stimmungen analysiert. In der Zwischenzeit sind Emotions- und Gesichtserkennungstechnologien an einigen Orten gesetzlich verboten. Im Oktober beispielsweise führte Kalifornien ein Gesetz ein, das Polizeibeamten verbietet, biometrische Informationen mit den am Körper getragenen Kameras, einschließlich Mimik und Gesten, aufzuzeichnen, zu sammeln und zu analysieren.

Laut einer Stellungsnahme der Gesetzesentwerfer kommt der Einsatz von Gesichtserkennungstechnologien einer sekündlichen Kontrolle des Reisepasses von Passanten gleich. Der Einsatz verstößt gegen die Rechte der Bürger und kann dazu führen, dass Personen, die sich eines geringfügigen Fehlverhaltens schuldig gemacht haben (z. B. ein unbezahlter Parkschein), der Polizei keine schwerwiegenderen Straftaten melden.

Künstliche Gefühllosigkeit

Das Problem der Privatsphäre ist so dringend, dass die Täuschung von Emotionsdetektoren sogar Gegenstand wissenschaftlicher Forschung ist. Beispielsweise haben Wissenschaftler am Imperial College London eine Technologie entwickelt, die die Privatsphäre schützt und Gefühle aus der menschlichen Stimme entfernt. Das Ergebnis ist ein mit Emotionserkennungstechnologie ausgestatteter Sprachassistent, der die Bedeutung des Gesagten verstehen kann, aber die Stimmung des Sprechers nicht interpretiert.

Der KI Grenzen zu setzen, erschwert sicherlich die Entwicklung von Empathie in KI-Systemen, die auch jetzt noch fehleranfällig sind. Aber es ist gut, einen gewissen Schutz zu haben, falls Black Mirror doch noch zur Realität wird und die Maschinen zu tief in unserem Unterbewusstsein schnüffeln. Schließlich sollten wir nicht damit rechnen, dass die Erkennung von Emotionen verworfen wird, zumal die Technologie in einigen Bereichen tatsächlich gute Dienste leistet.

Tipps

So sichern Sie Ihr Smart Home

Wenn Sie möchten, dass Ihr Smart Home mehr Nützliches als Schädliches bewirkt, sollten Sie es richtig konfigurieren und entsprechend absichern. Wir untersuchen die Smart-Home-Sicherheit im Detail.