Alibaba hat einen Sprachassistenten vorgestellt, der in den Augen von Experten besser funktioniert als der von Google. Warum? Weil er auch mit kniffligen Fragen gut umgehen kann. Alibaba gibt dabei einen Einblick, wie die Zukunft der Mensch-KI-Interaktion aussehen könnte.
Im Mai 2018 sorgte Google weltweit für Begeisterungsstürme, als es bei der Entwicklerkonferenz I/O Duplex vorstellte, seinen menschenähnlichen Sprachassistenten, der in der Lage ist, Friseurtermine auszumachen und Restaurantreservierungen vorzunehmen.
Google Duplex schien einen neuen Meilenstein in der Sprachgenerierung und im Verständnis der natürlichen Sprache erreicht zu haben. Aber während Google das Feature nur langsam – und zum Leidwesen vieler Entwickler nur auf Englisch – in einem begrenzten öffentlichen Launch einführt, hat Alibaba’s Sprachassistent bereits größere Sprünge gemacht.
Am 2. Dezember stellte Alibaba auf der Konferenz Neuronale Informationsverarbeitungssysteme 2018 – einem der größten jährlichen Treffen für KI-Forschung – einen KI-Kundenbetreuer für sein Logistikunternehmen Cainiao vor. Jin Rong von Alibaba’s Machine Intelligence and Technology Lab, merkte dabei an, dass der Agent bereits Millionen Kundenanfragen pro Tag bearbeitet.
Bei dem zuvor aufgezeichneten Demo-Anruf fragte der Agent einen Kunden, wohin er sein Paket liefern lassen wolle. Im Hin- und Heraustausch navigierte der Agent erfolgreich durch mehrere Konversationselemente, die die Breite seiner natürlichen Sprachfähigkeiten demonstrierten.
Das Gespräch wurde aus Mandarin übersetzt:
Agent: Hallo, ich bin Cainiaos Sprachassistent. Ich…
Kunde: Hallo.
A: Ja, hallo, Sie haben ein Paket für die morgendliche Lieferung an die 588 Culture West Road geplant. Ist es für Sie ok, diese zu erhalten?
K: Wer sind sie?
A: Ich bin Cainiaos Sprachassistent. Ich möchte Ihre morgendliche Lieferung an die 588 Culture West Road bestätigen. Ist das in Ordnung?
K: Ich bin morgen nicht zu Hause.
A: Haben sie eine andere Adresse, an die wir liefern können?
Innerhalb von 30 Sekunden hat der KI Agent drei gängige, aber durchaus knifflige Gesprächsinhaltsstoffe reibungslos abgewickelt:
Die KI wurde unterbrochen (Hallo, …), die Konversation war nicht linear.
Besonders beeindruckend ist aber die implizite Absicht. Sie entsteht, wenn der Kunde antwortet: “Ich bin morgens nicht zu Hause.” Er sagt nie explizit, was er eigentlich damit meint – nämlich, dass die Hauslieferung nicht funktioniert – aber der KI-Agent ist in der Lage, zwischen den Zeilen zu lesen und sinnerfassend zu reagieren.
In menschlichen Gesprächen mögen diese Inhalte alltäglich sein, aber KIs haben oft Schwierigkeiten, richtig damit umzugehen. Dass Alibaba’s Sprachassistent dies kann, deutet darauf hin, dass er ausgeklügelter ist als Google Duplex, wenn man von ähnlichen Beispielanrufen ausgeht, die von Google vorgeführt wurden.
Alibaba’s Demo-Aufruf wurde – wie Duplex auf der I/O – für die Präsentation auf einer Showbühne konzipiert. Man darf gespannt sein, wie sich der Assistent im realen Betrieb verhält.
Jin spielte darauf an, die riesige Anzahl von Kundenaufzeichnungen, die dem Unternehmen zur Verfügung stehen, zusätzlich zu anderen Ressourcen nutzen zu können. An einem typischen Tag führt das Unternehmen laut Präsentationsfolien durchschnittlich 50.000 Kundendienstanrufe durch – eine Zahl, die sich für den Singles’ Day (11. November), den umsatzstärksten Feiertag des Jahres, verfünffacht.
Alibaba entwickelt seine digitale Assistenten auch für andere Geschäftsfelder. So gibt es beispielsweise bereits einen menschenähnlichen virtuellen Avatar, dem man Fragen zu Alibaba-Produkten stellen kann.
Möglich wird diese Produktentwicklung durch “AliMe“, die vom Machine Intelligence and Technology Lab des Unternehmens entwickelt wurde.
AliMe wurde im Juli 2015 gelauncht und ist ein IHCI (intelligent human-computer Interaction) basierter Shopping Guide und E-Commerce Assistent, der traditionelle Dienste überarbeitet und deren Online-Nutzung verbessert.