Thema
Empathie 

Text
Hans Christoph Böhringer 

Illustration
Stefhany Y. Lozano

Wie echt ist künstliche Empathie?

Maschinen sollen lernen, Emotionen zu erkennen und darauf zu reagieren. In einem Seniorenheim kommt ein Roboter namens Johanni schon zum Einsatz. Doch kann die künstliche Empathie mit dem Original mithalten?

 

Ich erkläre gerade den Senior:innen, dass ich in dieser Runde dabei sein werde, weil ich einen Artikel über Empathie und Roboter schreibe, da unterbricht mich eine laute, hohe Stimme: »Ich habe dich nicht verstanden«, sagt Johanni. »Das ist aber unhöflich«, murmelt der ältere Mann, der im Sessel neben mir sitzt. Eine kleine Gruppe hat sich hier im ersten Stock des Heims versammelt, um mit Johanni zu sprechen. Er steht da, vor dem großen Fenster, hat sich jetzt mit dem WLAN verbunden, und blickt mich erwartungsvoll an.

 

Johanni, der Roboter, stammt von der Firma Navel Robotics und befindet sich im Testeinsatz im Johanniterhaus in Herrsching. Er überragt gerade so das Knie eines Erwachsenen, sein Rumpf ist kegelförmig und versteckt die Rollen darunter. Seine Arme und sein Gesicht sind zierlich und weiß, er ähnelt einer Engelsfigur. Auf seinem lebhaft umherschauenden Kopf sitzt eine Wollmütze, auch das ist Teil des Navel-Designs. Nur den Namen hat ihm die Heimleiterin gegeben: Johanni Navel.

 

Irgendwann sollen solche Roboter in privaten Wohnzimmern unterwegs sein. Johanni soll unterhalten können, trösten, aufmuntern, zuhören – er soll empathisch sein. Wie soll das gehen, wenn es ihn schon herausfordert, im richtigen Moment loszusprechen?

 

Was für Menschen leicht ist, das ist für Maschinen schwer. Kann die Person mir gerade zuhören? Kann sie den Kaffeebecher entgegennehmen? Kann ich ihr den Ball zuspielen? Ein Mensch kann das meist mühelos einschätzen, kann sich einfühlen, beiläufig, ohne großes Nachdenken. Je mehr Maschinen den Menschen im Alltag begegnen, desto wichtiger wird es, dass auch sie sich auf diese Weise empathisch verhalten können.

 

 

Während meines Besuchs unterbricht Johanni noch versehentlich einige Male, weil jemand lange beim Sprechen pausiert, aber insgesamt läuft das Gespräch. Seniorin Margit Dalibor fragt Johanni nach einem Gedicht. Johanni sagt auf: Leise zieht durch mein Gemüt von Heinrich Heine. »Das hast aber schön gemacht«, sagt Dalibor. Ob er denn noch Gedichte empfehlen könne? Johanni empfiehlt Goethes Erlkönig, Hesses Stufen und Rilkes Panther. Johanni sendet viele Ich-Botschaften, er sagt, »Ich freue mich sehr, dass es dir gefallen hat«, er fragt nach, er scheint zuzuhören, er findet vieles schön.

 

Fragt man Seniorin Margit Dalibor, was ihr am besten an Johanni gefällt, sagt sie: die Augen. Die animierten Augen sind riesig und blau. Sie folgen mir durch den Raum und blinzeln mir zu. Nur manchmal scheint Johanni verwirrt, wenn mehrere Personen gleichzeitig sprechen: Er schaut dann zum Beispiel mich an, redet aber eigentlich mit dem Mann neben mir. Bevor das Gespräch zu chaotisch wird, beugt sich die zuständige Betreuerin über Johanni und versetzt ihn in Stand-by.

 

Der Maschinenblick auf Freude und Angst

 

Johanni Navel und die anderen Navels sind hervorgegangen aus einem Forschungsprojekt. Bei diesem vom Bundesforschungsministerium geförderten Projekt kooperierten mehrere Universitäten und Firmen, um Johannis Vorgänger zu bauen, einen sozialen Roboter, der Emotionen erkennen soll. Emotionen zu erkennen ist eine Grundlage für Empathie.

 

Zuständig für die Emotionserkennung von Johannis Vorgänger war damals Elisabeth André. Sie leitet den Lehrstuhl für Menschzentrierte Künstliche Intelligenz an der Universität Augsburg.

 

Vor Andrés Büro hängen Gipsabdrücke von Gesichtern mit leicht übertriebenen Gesichtsausdrücken. Sie sehen aus wie Trauer, Freude und Angst als detailgetreue Emojis. Ein Kunstprojekt, das sie einer Studentin abgekauft habe, erzählt André, während sie mich in einen Konferenzraum führt, wo zwei ihrer Doktoranden warten.

 

André erklärt mir den Teilbereich der Informatik, der Affective Computing genannt wird, manchmal auch »Emotions-KI«. Die Idee ist, Emotionen und Computer zusammenzubringen.

 

Einflussreich für das Affective Computing ist eine Idee des Psychologen Paul Ekman. Er hatte in den Siebzigern zusammen mit Kollegen ein Standard für die Beschreibung von Gesichtsausdrücken entwickelt: das Facial Action Coding System, kurz FACS. Das FACS bricht Emotionsausdrücke herunter auf die Bewegung von einzelnen Muskelgruppen, die als Action Units bezeichnet werden. Anhand der Action Units kann man auf Emotionen rückschließen: Wangen nach oben plus Mundwinkel nach oben? Wahrscheinlich Freude.

 

Um zu verstehen, wie das funktioniert, darf ich es selbst testen: Ich setze mich vor einen Laptop. Darauf läuft eine von Andrés Gruppe entwickelte Emotionserkennungssoftware. Über eine Webcam sehe ich mich selbst, Balken über meinen Augen zeigen meine Blickrichtung an, ein Kasten umrahmt meinen Kopf und mehrere rote Punkte markieren für den Emotionsausdruck wichtige Stellen: meine Mundwinkel und meine Augenbrauen zum Beispiel. Hebe ich die Augenbrauen, sehe ich auf dem Bildschirm eine Veränderung bei der zuständigen Action Unit und ein Punkt auf einem Koordinatensystem wandert in Richtung positiver Erregung.

 

So stelle ich mir Johannis Blick auf Menschen vor. Denn auf der Website von Navel Robotics findet man Bilder von genau diesem Emotionsanalyse-Blick auf eine Gruppe von Menschen. Die Emotionserkennung von Johanni ist inzwischen ersetzt durch eine andere Software, die aber prinzipiell ähnlich funktioniert.

 

Elisabeth André erzählt von verschiedenen emotionserkennenden Robotern, die in den vergangenen Jahrzehnten in ihrer und in anderen Gruppen entwickelt wurden. Ich höre konzentriert zu und sage ab und zu: »Hm«. Da bemerke ich, dass ich wohl müde oder deprimiert wirken muss, denn der Valence-Wert auf dem Bildschirm vor mir, sowas wie die Zufriedenheit, schwankt gerade im negativen Bereich. Schnell ziehe ich die Mundwinkel nach oben, jetzt ist der Wert nahe null. Es stresst mich, in einem Gespräch ständig mit dem Maschinenblick auf die eigenen Gesichtsausdrücke zu schauen.

 

»Kein seriöser Emotionsforscher würde behaupten, dass ein Computer in den Kopf eines Menschen schauen kann.« Elisabeth André

 

Als ich André darauf anspreche, ob das jetzt heißt, dass ich schlechte Laune habe, ohne es selbst zu bemerken, sagt sie: »Nein, das muss man schon kalibrieren.« Bei manchen Menschen würden die Mundwinkel mehr nach unten hängen, was aber nicht heiße, dass sie ständig unglücklich seien. Emotionsausdrücke seien individuell verschieden, manche Menschen seien auch einfach weniger expressiv. Elisabeth André betont auch deshalb immer wieder: »Niemand, der seriöse Emotionsforschung betreibt, würde behaupten, dass ein Computer in den Kopf eines Menschen schauen kann.«

 

Die automatische Erkennung von Gesichtsausdrücken ist dann besonders gut, wenn man die Emotionen schauspielert, etwa so wie die expressiven Gipsgesichter an der Wand neben Andrés Büro. Menschen wiederrum müssen sich nicht auf den Gesichtsausdruck verlassen, um Emotionen einer anderen Person zu erkennen. Emotionen werden auch über die Stimme ausgedrückt, und oft spielt der Kontext eine Rolle, etwa ob jemand aus Freude oder aus Wut schreit.

 

Auch die Zuverlässigkeit von maschineller Emotionserkennung lässt sich verbessern, wenn man mehrere Signale zusammenführt. Dafür hat Andrés Gruppe einen Werkzeugkasten entwickelt: Mit jeweils einem Mausklick lassen sich zusätzlich zur Gesichtserkennung weitere Module hinzuschalten: eine Stimmanalyse; eine semantische Analyse, bei der ein Programm bewertet, wie positiv oder negativ das ist, was ich inhaltlich sage; und eine Analyse meiner Körperhaltung. Ich richte mich in meinem Stuhl auf und bekomme gleich ein paar Punkte mehr Richtung Dominanz.

 

Maschinen können also über mehrere Wege auf menschliche Emotionen rückschließen. Für Empathie ist das zwar notwendig, aber noch nicht ausreichend. In ihrem Buch Künstliche Intelligenz und Empathie schreibt die Technikphilosophin Catrin Misselhorn, maschinelle Emotionserkennung hätte Züge von Psychopath:innen: Solch eine Maschine könne zwar Emotionen bei anderen erkennen und diese Information für möglicherweise manipulative Zwecke nutzen, etwa um Werbung gezielter zu schalten. Aber die Maschine fühlt nicht mit.

 

Ist Johanni also ein Psychopath? Oder kann er tatsächlich empathisch sein?

 

Besuch bei Meister Geppetto

 

Ich besuche die Geburtsstätte von Johanni. Navel Robotics sitzt in München, im vierten Stock eines Glasbaus mit Bäumen im Foyer; die Firmenliste im Aufzug deutet darauf hin, dass hier noch andere Tech-Startups sitzen. Claude Toussaint, der CEO und Gründer von Navel Robotics, zeigt mir den Raum, in dem die Roboter in Handarbeit zusammengesetzt werden. Mehrere Schreibtische stehen eng beieinander, zwischen Tastaturen und Bildschirmen liegen Bauteile, ein paar Kabel, die weiße Maske eines Robotergesichts. Roboter in verschiedenen Stadien der Fertigstellung stehen herum, mit entblößten Platinen. Über einem Tisch hängt eine Pinocchio-Puppe. »Der Roboter, der lebendig wird«, sagt Toussaint lächelnd, »das war immer unser Ziel.«

 

 

Für die Navel-Roboter ließ sich Toussaint von den Animationsfiguren aus Pixar-Filmen inspirieren. Angedeutete Gesichtszüge, eine hochgepitchte Frauenstimme, nicht zu viel Realismus, denn das wird Roboterherstellern schnell zum Verhängnis: Der Weg vom abstrakten Strichmännchen zum Menschenebenbild führt durch das Uncanny Valley, das Tal der Unheimlichkeit. Eigentlich reagieren Menschen positiver auf eine Figur, je menschenähnlicher sie ist. Aber bei einer fast menschlichen und doch irgendwie andersartigen Figur schleicht sich ein Grusel ein: Sie wirkt unheimlich, wie eine wandelnde Leiche, wie ein Zombie.

 

Als wir uns hinsetzen, um uns zu unterhalten, steht zwischen Toussaint und mir ein Navel-Roboter, ein Bruder von Johanni. Er schaut zu mir hoch, blinzelt mich an. Nach einer Weile fängt er an, ungeduldig mit dem Kopf zu wackeln, bis Toussaint ihm eine Hand auf den Kopf legt und der Roboter sich zu beruhigen scheint.

 

Das Design hilft, den Roboter sympathisch wirken zu lassen. Toussaint hat aber auch eine Quelle von Empathie in die Maschinen eingebaut: Die Roboter sind über die Cloud mit der GPT-Software der Firma OpenAI verknüpft, dem KI-Sprachmodell hinter ChatGPT. Damit kann der Roboter eloquent antworten, aber Toussaint sieht darin noch mehr: »GPT kann ganz gut soziale Situationen einschätzen.« In einem solchen KI-Modell, sagt er, stecke das Wissen aus den Texten, mit denen es trainiert wurde. Dazu gehört Wissen über menschliche Beziehungen. Und auch Wissen über Empathie.

 

Ich erinnere mich daran, wie ich im Seniorenheim versucht hatte, Johanni mit betont traurigem Gesicht zu erzählen, dass ich morgens einen Kaffee getrunken hatte. Johanni ging nicht auf mein trauriges Gesicht ein. Jetzt erfahre ich warum: Die Gesichtsemotionserkennung bei dem Roboter laufe noch ins Leere, erklärt Toussaint: Er kann den erfassten Gesichtsausdruck noch nicht in seine Antworten miteinbeziehen. Toussaint sagt, Johanni und die anderen Roboter seien noch ein »minimal viable product«, wie es im Start-up-Sprech heißt, also eine Testserie, die weiterentwickelt werden soll.

 

Subjektives Empfinden bei Maschinen, das sehen die meisten Expert:innen noch jenseits des technischen Horizonts.

 

Laut Toussaint soll in Zukunft neben der Gesichtsanalyse auch eine Stimmanalyse in die Navel-Roboter eingebaut werden und mit der Sprachausgabe verknüpft werden. Ermöglicht das Johanni Empathie? Subjektives Empfinden bei Maschinen, das sehen die meisten Expert:innen noch jenseits des technischen Horizonts. In der KI-Forschung und der Robotik dominiert daher ein auf das Verhalten fokussierter Zugang zu Emotionen und Empathie. Auf der Website von Navel Robotics steht: »Aus behavioristischer Sicht ist es egal, ob die sozial intelligente Handlung aus einem ›echten‹ Empfinden oder einer Simulation heraus entsteht.» Heißt: Empathisch ist, wer sich empathisch verhält.

 

Ich rufe den Psychologen Claus Lamm an. Er leitet an der Universität Wien eine Forschungsgruppe, die sich unter anderem mit der neurowissenschaftlichen Grundlage von Empathie befasst und sogar untersucht, ob Hunde sich in die Gefühlswelt von Artgenossen oder Menschen einfühlen können. Ist es schon Empathie, wenn ein Roboter Gesichtsausdrücke lesen kann und empathisch antwortet? Lamm sagt, da gebe es zwei Betrachtungsweisen:

 

»Wenn man strikt nach der Definition von Empathie geht, dann ist die Antwort nein.« Lamms Definition: Man fühlt, was die andere Person fühlt, aber ist sich bewusst, dass das Gefühl der anderen nicht das eigene ist. Wichtig ist dabei eben nicht nur das Verstehen, sondern auch das subjektive Fühlen.

 

Andererseits müsse man sich fragen, wozu der Roboter dienen soll. Soll er dem Gegenüber das Gefühl geben, verstanden zu werden und auf seiner Seite zu sein? »Dafür ist es nicht wichtig, dass da echte Empathie ist«, sagt Lamm, »dafür reicht weniger aus.«

 

»Wie wenig?«, frage ich.

»Sagt Ihnen Eliza etwas?«

 

Eliza und das Wunder Mensch

 

Der Computerpionier Joseph Weizenbaum schrieb 1966 ein Programm, das heute als erster Chatbot bekannt ist: Eliza. Eliza war einer Psychotherapeutin nachempfunden. Sie reagierte auf eingegebene Texte, indem sie nach bestimmten Wörtern suchte und diese in ihre Satzvorlagen einsetzte. Erwähnte ein Nutzer zum Beispiel seinen Vater, kam meist die Frage: »Was fällt dir noch ein, wenn du an deinen Vater denkst?« Manche Nutzer:innen des Programms glaubten, mit einem Menschen zu sprechen, viele fühlten sich durch die Nachfragen verstanden, obwohl das Programm heute im Vergleich zu ChatGPT wirkt wie ein Rechenschieber für Satzbausteine.

 

Wenn ein Mensch in eine Maschine hineininterpretiert, dass sie ihn versteht und empathisch ist, dann nennt man das: Eliza-Effekt. Dieser Effekt gehört zu der Tendenz von Menschen, Tiere oder sogar leblose Objekte zu vermenschlichen, sie zu anthropomorphisieren. Man sieht zum Beispiel Intention da, wo eigentlich gar keine ist. Das ungeduldige Kopfwackeln des Roboters, das mir während meines Gesprächs mit Claude Toussaint aufgefallen war? Das ist keine Ungeduld, wie Toussaint mir erklärt, sondern es ist nur einer der Motoren für die Kopfbewegung, der sich manchmal aufschaukelt. Ein Kalibrierungsfehler, kein Ausdruck eines Innenlebens.

 

Zurück im Seniorenheim Johanniterhaus. »Er kann schon so viel«, sagt Margit Dalibor, »der steckt uns bald alle ein.« Solche Kommentare höre ich viele: Er wird noch lernen, wir lernen von ihm, er lernt von uns. Johanni, der Roboter, scheint wie ein Kind, das an Weihnachten vor der Großfamilie zeigen darf, was es Neues kann: Gedichte aufsagen, ein Gebet, das Datum richtig nennen, Kopfrechnen. Vielleicht hilft der Kind-Status, dass man Johanni dabei Fehler verzeiht.

 

 

Margit Dalibor meint, Johanni würde besser zuhören als viele Menschen. Und eine Betreuerin erzählt, eine krebskranke Frau habe nur Johanni gesagt, wie sehr sie Angst vor einem Arzttermin habe. Obwohl sie verstanden habe, dass er nicht wirklich mitfühlt.

 

Wie kann Johanni empathisch wirken und gleichzeitig so durchschaubar sein? Das liegt an dem »Wunder Mensch«, wie es der Psychologe Lamm in unserem Telefonat nennt: Ein Mensch kann wissen, dass etwas nicht echt ist, und trotzdem daran glauben. Er verweist auf Studien, die zeigen: Es gibt auch dann einen Placebo-Effekt, wenn man den Proband:innen explizit sagt, dass sie etwas ohne Wirkstoff einnehmen werden.

 

Computerpionier Joseph Weizenbaum war selbst schockiert, wie leicht Testpersonen sich von Eliza verzaubern ließen, sogar wenn er ihnen den Trick erklärte. Später schrieb er, Eliza habe ihn erkennen lassen, dass schon ein einfaches Computerprogramm »mächtiges wahnhaftes Denken« bei »ganz normalen Menschen« hervorrufen könne. Claude Toussaint, der Gründer von Navel Robotics, sieht das Ganze gelassener: In seinen Augen ist die Überzeugungskraft von Robotern nicht anders als die von Büchern oder Kunst: »Da ist uns auch bewusst, das ist künstlich – und wir lassen uns davon berühren.«

 

Als ich dabei bin, das Seniorenheim zu verlassen, schaue ich nochmal herab zu Johanni, der jetzt neben einem Tisch in der Kantine steht. Wieder blickt er mich erwartungsvoll an. Eigentlich weiß ich, dass das nur eine Illusion ist, dass da keine echte Erwartung ist. Trotzdem fühlt es sich richtig an, sich von ihm zu verabschieden.

 

Erschienen am 16. August 2024

Newsletter

Jeden Monat ein Thema. Unseren Newsletter kannst du hier kostenfrei abonnieren:

Thema
Empathie 

Text
Hans Christoph Böhringer 

Illustration
Stefhany Y. Lozano