Können Roboter Gefühle empfinden?
:format(webp)/cloudfront-eu-central-1.images.arcpublishing.com/madsack/FAJKWCQ2TJC2NOT5SKQ2ZT3RQ4.jpg)
Auch, wenn sein Gesicht durchaus etwas ausdrückt: Gefühle empfindet dieser Roboter nicht.
© Quelle: Rock'n Roll Monkey/Unsplash/Montage RND
Zum Glück (noch) nicht! Wie würde sich mein Staubsaugerroboter dann wohl fühlen? Ständig muss er durchs Haus fahren und Schmutz beseitigen. Danken wir es ihm? Nein. Ähnlich geht es den unzähligen Industrierobotern. Und in Zukunft werden immer mehr Aufgaben auf die Maschinen zukommen: Buchhaltung, Steuererklärung, Essen servieren oder Häuser reinigen.
Das heißt nicht, dass die Maschinen nicht sensibler werden. Affective Computing ist der Fachbegriff für die Bestrebung, künstlicher Intelligenz das Verständnis unserer Gefühle beizubringen. Dafür werden unsere Stimme, unsere Mimik und unsere Gestik genau analysiert und daraus Rückschlüsse auf unsere Gefühlslage gezogen. Doch das ist leichter gesagt als getan. Selbst wir Menschen haben oft große Probleme damit, „echte“ Freude unseres Gegenübers von einem falschen Lächeln zu unterscheiden – gerade, wenn uns die Person nicht allzu vertraut ist.
Sensible Roboter
Dennoch ist die künstliche Sensibilität eine wichtige Baustelle bei der Interaktion zwischen Menschen und Maschinen, vielleicht sogar ein entscheidender Faktor für ihre Akzeptanz. Ein einfaches Beispiel: Ein Robotermitarbeiter oder eine automatische KI-Stimme an der Hotline könnte auf einen aufgebrachten Kunden mit leiser und beruhigender Stimme reagieren. Sofort fühlt dieser sich besser verstanden und aufgehoben.
Sie haben eine gute Frage? Schreiben Sie an magazin@rnd.de.