Lernen

Dossier: Haben wir einen Termin?

Foto: Marlene Korsgaard Lauritsen (Portrait)
Die New Yorker Firma x.ai hat einen künstlich intelligenten persönlichen Assistenten ent­wickelt. Wie das funktioniert, erklärt Dennis Mortensen, der CEO von x.ai.

Herr Mortensen, hinter ihrem virtuellen Assistenten, der per E-Mail Termine mit Freunden oder Geschäftspartnern vereinbart, steckt eine Software. Damit er in den Mails möglichst menschlich klingt, haben Sie ihn „Andrew“ oder „Amy“ getauft. Warum?

[DENNIS MORTENSEN] Wann immer man einen sogenannten künstlich intelligenten „Agenten“ de­signt, ist es eine der ersten Fragen, die man sich stellen muss: Will man ihn menschlich rüberkommen lassen – wie es ja auch Apple mit Siri gemacht hat –, oder will man, dass sich dieser Agent nach Software anhört, nach einem Computersystem? Und dann muss man den Weg konsequent bis zum Ende gehen. Wenn ein Interface zwar über Sprache kommuniziert, dabei aber nicht ganz, sondern nur halb menschlich klingt, dann wirkt das ganz schnell sehr seltsam.

Wie ein tapsiger Roboter?

[MORTENSEN] So ungefähr. Wir haben uns entschieden, den Assistenten wie einen echten Menschen wirken zu lassen, weil wir glauben, dass das einen großen Wert hat: Unsere Nutzer entwickeln eher eine Beziehung zu ihren virtuellen Assistenten, wenn sie erscheinen wie eine reale Person. Andrew und Amy haben einen vollen Namen – ihr Nachname lautet Ingram –, sie erinnern sich daran, wer man ist, und sie sind immer noch genau diejenigen, die sie waren, als man das letzte Mal mit ihnen kommuniziert hat. Und es funktioniert: Unsere Kunden reden über Amy und Andrew fast immer als „er“ oder „sie“. Ich finde das faszinierend, denn das bedeutet ja, dass selbst die Leute, die wissen, dass sie mit Maschinen kommunizieren, diese lieber so behandeln, als wären sie keine.

Wie genau bringt man einer Software bei, so zu klingen wie ein Mensch?

[MORTENSEN] Wir haben zwei Jahre gebraucht, um Andrew und Amy zum Leben zu er­wecken. Wir haben uns Zehntausende E-Mails angeschaut, die sich Leute geschrieben haben, um Termine auszumachen, und die Gesprächsverläufe genau kartografiert. Nicht so sehr die einzelnen Worte, sondern ganze Sätze. Was schreibt die eine Person, was antwortet die andere? Wie kommen sie zu einem Ergebnis? Und dann haben wir versucht, das zu replizieren.

„Die Anbetung der Heiligen Drei Könige“ von Botticelli, interpretiert von einem Algorithmus des Künstlers Quayola.

Haben Sie für jeden möglichen Gesprächsverlauf Vorlagen entworfen?

[MORTENSEN] So ungefähr, aber dabei gab es eine riesige Herausforderung: Vorlagen können sehr schnell unangenehm robotermäßig klingen, wie bei vielen Telefonsystemen. Aber es fühlt sich in keinem Moment an wie eine echte Unterhaltung mit einem anderen Menschen. Wir haben deshalb extrem viel Zeit in die Entwicklung dynamischer Vorlagen investiert, die nicht jeweils für sich stehen, sondern eingebunden sind in ein größeres Ganzes – in einen Gesamtdialog. Um das hinzubekommen, haben wir übrigens nicht nur Software-Ingenieure eingestellt, sondern auch jemanden, der sich mit Mythologie beschäftigt hat – der also weiß, wie man Charaktere und Figuren genau studiert und entwirft.

Warum war das notwendig?

[MORTENSEN] Wenn man ein Stück im Theater ansieht, erwartet man als Zuschauer ja auch, dass man im Laufe der Zeit eine gewisse Beziehung zu der Hauptfigur entwickelt. Zwischen dem Moment, in dem sie die Bühne betritt, und dem Moment, in dem der Vorhang fällt, soll sie etwas in einem bewegt haben. Es geht dabei nicht allein um die Worte, die Inhalte, die gesprochen werden. Es geht auch um das Wie – um die Vielfalt des Ausdrucks. Wir haben versucht, davon etwas in unser System zu übernehmen, als wir Andrew und Amy gebaut haben. Und sie sind natürlich in vielen Dingen besser als Menschen.

Ach ja?

[MORTENSEN] Sie haben ein perfektes Gedächtnis. Wenn Andrew und Amy einmal wissen, dass Sie in Berlin sitzen, dann vergessen sie das nie. Sie arbeiten sieben Tage die Woche rund um die Uhr und wollen dafür nicht 50 000 Dollar im Jahr, sie wollen nie eine Kaffeepause und haben nie schlechte Laune. Außerdem: Denken Sie mal an den Netzwerkeffekt, stellen Sie sich vor, alle Teil­nehmer würden unsere Assistenten verwenden – dann werden innerhalb einer Sekunde alle Kalender abge­glichen und fertig. Dann muss keine einzige Mail mehr geschrieben werden.

Das klingt aber nicht so super für die menschlichen Assistenten, die dann nicht mehr gebraucht werden.

[MORTENSEN] Na ja, wer von den Menschen, die Sie kennen, hat schon einen persönlichen Assistenten? Die Mehrzahl der Leute macht ihre Termine selbst. Wir wollen die Idee des persönlichen Assistenten demokratisieren. Dazu kommt: Wenn Sie mal echte persönliche Assistenten fragen, wie sehr sie das E-Mail-Pingpong lieben, das sie jede Woche spielen müssen, mit all den Leuten, die dann nicht antworten und denen sie hinterhertelefonieren müssen! Glauben Sie mir: Die hassen das. Sie hätten gerne mehr Zeit für wichtigere Dinge.


Dieser Beitrag ist Teil des Dossiers „Machine-Learning“.

Hier geht’s zurück zur Übersicht >>>


dennis-mortensenDennis Mortensen, CEO von x.ai, hat keine Berührungsängste mit seinen virtuellen Assistenten. Im Gegenteil: Seine Helferlein machen keine Kaffeepausen – und haben nie schlechte Laune.