Text
Jenni Roth

Bild
Sandra Teschow

Der antike Bildhauer Pygmalion hatte kein Glück in der Liebe. Also erschuf er eine Elfenbeinstatur, in die er sich verliebte – und die lebendig wurde.

Nicht nur in Liebesdingen ist es ein alter Menschheitstraum, künstliche Kreaturen zu erschaffen, mit denen man sprechen kann. Chatbots, also Dialogsysteme mit natürlichsprachlichen Fähigkeiten, kommen dem ziemlich nah. Sie erklären Produkte auf Webseiten und begrüßen neue Gäste in Chats. Es gibt auch Social Bots, die in sozialen Netzwerken so tun, als seien sie reale Personen. Das funktioniert immer besser, weil ihre Entwickler sie mit Gesprächen von Millionen Usern füttern können. Die Roboter durchstöbern einen Fundus aus unzähligen Satzkonstruktionen, grammatikalischen und inhaltlichen Mustern nach der richtigen Antwort.

Ob eine Maschine ein dem Menschen ebenbürtiges Denkvermögen hat, kann der Turing- Test beantworten. Benannt ist er nach Alan Turing, einem Urvater der heutigen Computertechnik. Beim Chat-Test geben sich ein Bot und ein Mensch als reale Person aus. Kann der Prüfer nicht sicher sagen, ob der jeweilige Gesprächspartner Mensch oder Maschine ist, gilt der Computer als intelligent. Die Chance auf ein Bestehen des Turing-Tests kann ein Chatbot erhöhen, indem er einfach schweigt – das verwirrt den Prüfer und macht ein eindeutiges Urteil unmöglich. Facebooks Wetterkatze Poncho hingegen stellt sich nur stumm, wenn sie beleidigt wird. Abgesehen davon würde sie den Test sowieso kaum bestehen, wie dieser Dialog zeigt: „What’s the forecast for Berlin?“ „Today’s forecast: rain with a high of 88° Fahrenheit.“ „Could you tell me the temperature in Celsius Degrees?“ „Try to be more specific, like 5:15 pm or 9 am.“

Poncho ist zwar nicht schlau, aber harmlos. Bleiben sie unerkannt, können selbständig lernende Systeme aber auch gefährlich werden. „Sie können den Eindruck vermitteln, dass eine Information gesellschaftlich anerkannt ist“, sagt der Maschinen-Ethiker Oliver Bendel. Aus einem Social- oder Chatbot kann schnell ein Badbot werden: Microsofts „Tay“ mutierte im Frühjahr 2016 zum Albtraum des Unternehmens, als er rassistische Parolen skandierte. „Er wurde mit falschen Werten bombardiert“, erklärt Bendel.

Den „Turing-Test für den Hausgebrauch“ empfiehlt er allen, die an der Menschlichkeit ihres Gegenübers zweifeln. „Fragen Sie einen Chatbot, was sich hinter und neben ihm befindet. Das kapiert er nicht.“ Mit Ironie ist sein Sprachverständnis ebenfalls überfordert. Und auch die digitale Sprachproduktion zeigt, dass die Bots der Komplexität der menschlichen Kommunikation (noch) nicht so ganz gewachsen sind: Dialogsysteme sprechen oft redundant und desinteressiert.

Doch nicht nur in sprachlichen Dingen, auch in ganz praktischen Fragen fehlt es den Robotern an Kreativität. Vor 15 Jahren habe die Deutsche Bank den Chatbot Cora zur Finanzproduktberatung eingeführt, erzählt Bendel. „Den konnte man aber schlecht fragen, wohin mit den illegalen Millionen. So etwas wird immer noch im stillen Kämmerchen besprochen.“

Erschienen am 18. März 2018

Text
Jenni Roth

Bild
Sandra Teschow