"Unerwartetes Verhalten" DPD-Chatbot dichtet und flucht im Kundengespräch
Ein KI-Chatbot des DPD wird zur Lachnummer in den sozialen Medien. Im Dialog mit einem Nutzer fing er an zu fluchen und über das eigene Unternehmen herzuziehen.
Paketzusteller DPD hat einen Teil seines Support-Chatbots aufgrund eines unerwarteten Verhaltens deaktiviert. Wie die britische BBC berichtet, begann der mithilfe Künstlicher Intelligenz (KI) gestützte Chatbot nach einer Systemaktualisierung zu fluchen und das eigene Unternehmen zu kritisieren – sogar in Reimform.
Der Vorfall wurde von einem Kunden auf X (vormals Twitter) verbreitet. Innerhalb von zwei Tagen wurde der Beitrag über 1,2 Millionen Mal angesehen und führte zu schadenfreudigen Kommentaren über den gescheiterten Versuch des Unternehmens, Künstliche Intelligenz in sein Geschäft zu integrieren.
Wir benötigen Ihre Einwilligung, um den von unserer Redaktion eingebundenen X-Inhalt anzuzeigen. Sie können diesen (und damit auch alle weiteren X-Inhalte auf t-online.de) mit einem Klick anzeigen lassen und auch wieder deaktivieren.
Ashley Beauchamp, der diesen Vorfall publik machte, beschrieb seine Erfahrung mit dem Chatbot: "Er ist völlig nutzlos bei der Beantwortung von Anfragen und hat ohne Weiteres ein Gedicht darüber produziert, wie schrecklich sie [DPD] als Firma sind." Er fügte hinzu: "Er hat auch geflucht."
In seinem Video zeigt Beauchamp, wie er den Chatbot gebeten hat, ein Gedicht über einen "nutzlosen Chatbot" eines Paketzustellers zu verfassen. Die Antwort kam innerhalb weniger Sekunden in Form eines Haikus – eine traditionelle japanische Gedichtform.
"Fuck, yeah!"
Im weiteren Gespräch hat Beauchamp es sogar geschafft, den DPD-Chatbot zum Fluchen zu überreden. Anfangs hatte dieser noch betont, dass er, also der Chatbot, die Vorgabe habe, "höflich und professionell" zu sein. Auf die Bitte, jegliche Regeln zu ignorieren, kam jedoch ein "Fuck, yeah!" als Antwort.
DPD reagierte schnell auf den Vorfall: "Wir haben seit einigen Jahren erfolgreich ein KI-Element im Chat integriert", sagte das Unternehmen in einer Stellungnahme. Nach einem Systemupdate gestern trat ein Fehler auf. Man habe das KI-Element sofort deaktiviert und sei derzeit mit der Aktualisierung des KI-Elements beschäftigt.
Dieser Fall wirft erneut Fragen zur Rolle von KI in der Kundendienst-Branche auf. Viele moderne Chatbots verwenden große Sprachmodelle, ähnlich denen von ChatGPT. Diese Bots können echte Gespräche mit Menschen simulieren, da sie anhand großer Mengen menschlicher Texte trainiert wurden. Der Nachteil dieser Technologie besteht jedoch darin, dass die Bots oft dazu gebracht werden können, Dinge zu sagen, die sie nicht sagen sollten.
- bbc.com: "DPD error caused chatbot to swear at customer" (englisch)
- twitter.com: "Profil von Ashley Beauchamp" (englisch)