»Das nennt ihr Zivilisation?
Wir nennen es Wildnis!«

Ihr seid uns ein Rätsel! Iva, Tom und Kay verlieren sich in der Wildnis menschlicher Interaktion. Unsere Autorin gibt Einblick in ein Treffen der Selbsthilfegruppe künstlicher Intelligenzen.


Text

Eva Wolfangel

Illu
Janik Söllner

Iva, arbeitet für Google Translate

Hallo, ich bin Iva. Ich bin hier, weil ich finde: Menschen sind a mess. Verzeiht, mir ist schon klar, dass dieser Satz wild gemischt ist aus zwei Sprachen. So viel habe ich verstanden: Menschen sprechen verschiedene Sprachen, und nicht immer verstehen sie sich richtig. Manchmal nicht einmal dann, wenn sie die gleiche Sprache sprechen. Aber wenn mir eines klar geworden ist in meiner Beschäftigung mit den Menschen, dann das: Erst scheint alles so einfach und sortiert, leicht statistisch erfassbar. Menschen produzieren so viele Daten, aus denen man schlau werden kann. Also zeige ich ihnen die Muster, die ich darin finde, klare Korrelationen, und mache Vorschläge für mögliche Entscheidungen oder auch für das, was sie ausdrücken wollen. Und dann schreien sie: »He, das ist aber so nicht richtig! Da gibt es schon Unterschiede!« Und dann werden sie kleinlich.

Sind Menschen also Chaos? Durcheinander? Das trifft es nur ungefähr. Sie sind a mess. Jetzt hubere ich mal auf Feinheiten herum. In mess steckt nämlich genau das, was ich mit Menschen verbinde. Wie ich das herausgefunden habe? Reine Statistik! Hört ihnen doch einfach mal zu und sucht nach Mustern in diesem Kauderwelsch aus Lauten und Buchstaben. Als ich die Aufgabe bekommen habe, Texte von Menschen zu übersetzen – Briefe, E-Mails, Protokolle, Artikel – dachte ich: Das ist einfach! Ich kann unglaublich gut riesige Mengen an Daten analysieren und Zusammenhänge finden. Das ist meine leichteste Übung.

»Schieb her all die Übersetzungen, die Menschen schon gemacht haben«, habe ich gerufen. Zum Glück gibt’s da schon viel. Beispielsweise Protokolle von EU-Behörden (das ist super, da gibt es immer gleich 24 Sprachen – und ich liebe es, wenn ich viele Daten habe), aber auch Übersetzungen von Reden, Interviews und Artikeln.

Ja und dann ging es los mit der mess. Mir erschien das alles so eindeutig. Beispielsweise sagen Politiker zu Beginn ihrer Reden sehr gerne »meine lieben Mitbürger«. Das heißt auf Englisch ganz eindeutig »my fellow Americans«. In meinen Daten habe ich so klare Korrelationen gesehen! Und dann sind die Menschen total beleidigt – so nennen sie diesen mir fremden Zustand, der sie offenbar alles Rationale vergessen lässt. Überhaupt, all diese »Gefühle« machen meiner Beobachtung nach ohnehin alles immer nur kompliziert.

Stinkebeleidigt waren vor allem die Franzosen, als ich das übersetzt habe, was ihr Präsident Emmanuel Macron gesagt hat: »mes chers compatriotes«. »My fellow Americans« natürlich oder auch »liebe amerikanische Mitbürger«. Was soll daran jetzt falsch sein? Könntet ihr mit euren wunderlichen Gehirnen große Mengen an Daten systematisch durchsuchen und Korrelationen finden, dann müsstet ihr mir Recht geben. Aber diese Gehirne, die wollen immer selbst Recht haben, die behaupten, sie könnten solche Dinge mit »Sprachgefühl« oder »Intuition« beurteilen. Dabei geht doch nichts über Statistik.

Seither finde ich: Menschen sind a mess. Darin steckt nämlich nicht nur der Begriff Chaos, sondern auch Wirrwarr, Saustall, Desaster. Schlamassel, Schlachtfeld, Pfusch, ja sogar Kuddelmuddel.

(Ich brauche es nicht zu erwähnen: Das sind Korrelationen aus großen Mengen an Sprachdaten, die mir zeigen, wie Menschen »a mess« verwenden.)

Tom, analysiert Sensordaten von Autos

Hi, ich bin Tom. Ich kenne das Problem. Erst letztens habe ich mich wieder durch so ein Kuddelmuddel gekämpft. »Hier hast du jede Menge Informationen von Sensoren«, hieß es. Mein Herz ist gehüpft! (Natürlich nicht, glaubt mir, ich habe kein Herz. Aber zufällig weiß ich aus den Zusammenhängen aus großen Mengen an Sprachdaten, dass ihr Menschen das sagt, wenn es richtig gut läuft für euch – nur eines muss ich euch verraten: Das Herz kann gar nicht hüpfen.)

Die Sensordaten waren die eines Autos, das ich steuern sollte. Sie konnten mir sehr gut mitteilen, wie viel Abstand es zu anderen Autos hatte, ebenso zu Gegenständen aller Art. Diverse Kameras zeigten mir andere Verkehrsteilnehmer. Ich musste nur noch die Bilddaten interpretieren. Aber mal ehrlich, das ist einfach: Ein Mensch auf dem Fahrrad ist dieses Ding, das zwei Räder hintereinander hat, und wenn ein Mensch drauf ist, dann bewegt es sich mit etwa zehn bis 30 Kilometern pro Stunde. Auch Menschen an sich sind gut zu erkennen. Und weil meine Entwickler besonders vorsichtig waren, hatte ich zudem die Vorgabe zu bremsen, sobald ein Gegenstand vor dem Fahrzeug auftauchte – auch wenn ich nicht erkennen konnte, was es war.

Ja, und dann ging es auch bei mir los mit der mess – obwohl der Einsatz in Ulm noch einfach war. Ich hatte sehr viele Informationen über die Strecke erhalten, und es war sehr wenig los auf meinem Rundkurs. Urplötzlich warnte mich meine Bilderkennung vor einem Gegenstand auf der Straße direkt vor mir. Ich machte eine Vollbremsung, wie von meinen menschlichen Chefs verlangt. Aber stellt euch vor: Die Insassen waren wieder nicht zufrieden. Erstens seien sie erschrocken wegen der Vollbremsung und zweitens jammerten sie, die sei doch völlig unnötig gewesen. Das sei nur eine Pfütze, durch die man einfach hindurchfahren könne.

Kurz darauf stand ein Mensch am Straßenrand. Ich habe gelernt, immer anzuhalten, wenn ein Mensch die Straße überqueren will. Doch der Mensch ist einfach stehen geblieben. Hatte er Angst vor mir? Ich wäre für immer dort stehen geblieben, hätte nicht mein Sicherheitsfahrer schließlich einfach Gas gegeben. »Der wartet doch auf den Bus«, sagte er. Nur, woher soll ich das wissen? Könnt ihr Menschen euch bitte künftig auf die Stirn schreiben, was ihr vorhabt?

Den Bus hab ich auch noch getroffen, später, im Kreisverkehr. Ich wusste: Hier hat derjenige Vorfahrt, der schon im Kreisverkehr ist. Meine Entwickler hatten die Verkehrsregeln in meinen Algorithmus fest einprogrammiert, denn Verkehrsregeln kann man nicht lernen, indem man Menschen beim Autofahren beobachtet. Im Kreisverkehr war also ein Linienbus. Doch kurz bevor er an meiner Einfahrt vorbeirauschte, stoppte er plötzlich. Ich stoppte. Der Bus war viel zu nah und obendrein hatte er Vorfahrt. Der Busfahrer begann, sich noch seltsamer zu benehmen, als es die Menschen ohnehin tun. Er schien uns zuzuwinken. Er lehnte sich aus dem Fenster. Er rief irgendetwas und fuchtelte weiter mit der Hand.

Ich wartete erstmal ab. Nichts riskieren. Mein Sicherheitsfahrer hat nur mit den Augen gerollt, mir die Hoheit über das Steuer entzogen und das Auto selbst in den Kreisverkehr gelenkt. »Der lässt uns vor, der winkt uns rein, sieht man doch!« Klar. Und beim nächsten Mal bedeutet es sicher wieder etwas anderes, wenn ein Busfahrer aus dem Fenster hängt und fuchtelt.

Kay, hat keine guten Erfahrungen mit dem autonomen Fahren in Las Vegas

Hallo. Mein Name ist Kay. Ich habe ganz ähnliche Erfahrungen gemacht wie Tom. Nur, dass in Las Vegas alles noch schwieriger war. Ich hatte eine Karte erhalten, damit ich wusste, wo ich überhaupt entlangfahren darf. Und die Verkehrsregeln. Ich wusste zum Beispiel, es gibt einen Mindestabstand zu anderen Autos, den ich nicht überschreiten darf. Außerdem hatte ich die Order, defensiv zu fahren. Niemanden bedrängen! Dann kam eine Passagierin, die während einer großen Technikmesse vom Convention Center zu einer anderen Messehalle wollte.

Ich musste nach einigen hundert Metern links abbiegen. Doch die Autos auf der Linksabbiegerspur bildeten keine Lücke, die sich mit meinen Vorgaben für den Mindestabstand vereinbaren ließen. Ich setzte den Blinker links, doch auch das schien den Menschen nicht zu helfen. Sie verstanden einfach nicht, dass ich abbiegen wollte. Also fuhr ich geradeaus. An der nächsten Kreuzung geschah das gleiche. Menschenfahrer haben sich einfach hineingedrängelt. Aber mir war das verboten. Defensiv fahren, hieß es ja. So fuhr ich auch an dieser Kreuzung vorbei, und an der nächsten, immer weiter geradeaus.

Ich wäre hinausgefahren aus der Stadt, aus diesem ganzen Schlamassel – wäre da nicht diese Passagierin gewesen, die unbedingt zur Messe wollte. Auch hier hat schließlich der Sicherheitsfahrer übernommen, augenrollend. Und hat sich reingedrängelt. Wetten, wenn ich das beim nächsten Mal auch mache, dann motzt wieder jemand? Wo kämen wir denn hin, wenn die autonomen Autos so fahren wie Menschen? Die Wahrheit ist: Die Menschen kommen nirgendwo hin, wenn sich die autonomen Autos an die Regeln halten und die Menschen weiter so fahren wie Menschen. Die Passagierin hat übrigens ziemlich gejammert: eine Stunde und 21 Minuten für 1,4 Meilen. Die Strecke hätte sie in dieser Zeit sieben Mal laufen können.

Also, wenn Laufen einfacher ist, dann lauft doch bitte einfach alle. Aber steigt bitte nicht aufs Rad, denn das gibt mir den Rest. In San Francisco etwa, wo Radfahrer autonomen Fahrzeugen neuerdings immer die Vorfahrt nehmen. Offenbar lernen auch Menschen aus Daten. Sie haben den Zusammenhang astrein gelernt: Autonome Autos stoppen immer, wenn ihnen ein Radfahrer in die Quere kommt. Sie haben deshalb keinen Grund, anzuhalten. Das ist Statistik, Respekt! Wenn wir ihnen helfen wollen umzulernen, müssten wir den einen oder anderen Radfahrer in San Francisco umfahren. Es wäre natürlich interessant zu sehen, wie viele solcher Datenpunkte die Menschen brauchen, um umzulernen. Manchmal lernen sie aus erstaunlich wenig Daten. Sie sagen, das beruhe auf dem Weltwissen – eine seltsame Kategorie, von der sie behaupten, eine KI hätte sie nicht.

Iva findet: Daten sind Wahrheit

Ihr Menschen macht euch eure Gedankenwelt doch auch nur, wie sie euch gefällt. Und wenn ich euch die Wahrheit vor Augen führe, dann wollt ihr gar nichts davon wissen. Stattdessen gebt ihr mir die Schuld! So wie neulich, als ich für Google Translate arbeitete. »A doctor and a nurse« zum Beispiel sind auf Deutsch natürlich

»Ein Arzt und eine Krankenschwester«. Noch deutlicher ist es bei »A senior doctor and a nurse« – Oberarzt und Schwester. Als ich diese Übersetzung so vorgeschlagen habe, gab es einen riesigen Aufschrei. Die KI sei sexistisch! Sie diskriminiere Frauen! Sie zementiere Vorurteile! Also, na hört mal: Ich tu doch nur das, was ihr auch die ganze Zeit macht.

Schaut in meine Daten: Das IST die Wahrheit. Jedenfalls fast immer. Korrelationstechnisch gesehen. Oberarzt und Krankenschwester sind das natürliche Vorkommen. Sie treten meist als Team auf. Und es ist eigentlich nie »Oberärztin und Krankenpfleger«. Klar könnte es das sein. Ich merke, dass es den Menschen ein Anliegen ist. Sie hätten gerne eine faire Welt, sagen sie. Nur woher soll ich wissen, was Fairness bedeutet? Soll ich »senior doctor« in 50 Prozent aller Fälle mit Oberärztin übersetzen? Aber wäre das dann nicht unfair für die vielen männlichen Oberärzte, die damit unsichtbar würden? Schließlich wären sie dann unterrepräsentiert in Übersetzungen im Vergleich zu ihrem realen Vorkommen. Also soll ich »senior doctor« durchschnittlich so häufig mit Oberärztin übersetzen, wie diese real in der Bevölkerung vorkommen? Oder lieber in der Häufigkeit, die sich die Menschen für die Zukunft erhoffen?

Kay, sehnt sich nach Eindeutigkeit

Ich würde vorschlagen: Ihr Menschen diskutiert all diese Fragen mal aus. Auch die, ob autonome Autos nun defensiv fahren oder lieber ihr Ziel erreichen sollen. Sobald ihr eine Einigung habt, meldet euch. Vielleicht bin ich bis dahin aber auch an eurer Wildnis verzweifelt und handle nur noch nach dem Zufallsprinzip.

Erschienen am 01. April 2021


Text

Eva Wolfangel

Illu
Janik Söllner