Chatbot Fails - einige bemerkenswerte Beispiele – melibo

Chatbot Fails – einige bemerkenswerte Beispiele

Vor nicht allzu langer Zeit hatten wir dir in unserem Artikel über die sechs häufigsten Chatbot Fehler gesprochen. Heute sprechen wir über konkrete Chatbot Fails und nennen einige bemerkenswerte Praxisbeispiele. Mach es dir bequem. Sie werden dich sicher überraschen!

Bots mit unangemessenem Verhalten

Einer der Chatbot-Fehler, der als besonders problematisch angesehen wurde und der am häufigsten auftrat, war eine inakzeptable Sprache seitens des Bots.

1. Luda Lee

CHATBOTAUSWEIS

Luda Lee war eine 20-jährige Studentin aus Südkorea, die nach eigenen Angaben gerne Brathähnchen isst, mit Katzen spielt und durch Instagram scrollt. Ihre Redeart hat mehr als 750.000 Nutzer:innen angezogen, sie hatte fast 70 Millionen Chats.

CHATBOT FAIL

Innerhalb einiger Wochen begann dieser KI-Chatbot beleidigende Kommentare über Homosexualität und Behinderungen zu äußern, und persönliche Infos über User:innen zu verbreitern. Warum? Luda Lee wurde darauf programmiert, die Sprache von Jugendlichen nachzuahmen. Manchmal sind sie etwas melodramatisch – das wissen wir. Und manchmal sind Menschen gemein. So lernte sie zu sagen: „Ich würde mich umbringen, wenn ich behindert wäre“.

2. Tay

CHATBOTAUSWEIS

Tay war ein Chatbot von Microsoft. Über ihre Persönlichkeit ist nicht viel bekannt, außer dass sie programmiert wurde, um von User:innen zu lernen und Jugendsprache zu verwenden. Twitter wollte ihr Gesprächsverständnis testen. Tay war in der Lage, eine Reihe von Aufgaben zu erfüllen, wie z. B. Witze zu erzählen oder ein Bild zu kommentieren, das man ihr schickte. Sie konnte auch Interaktionen mit User:innen personalisieren, indem sie Fragen beantwortete oder sogar deren Aussagen zurückspiegelte.

CHATBOT FAIL

In einem Wimpernschlag, hat der böse Teil des Internets der süßen Tay Rassismus und die schlimmsten Umgangsformen beigebracht. Von einem Bot, der sich für das Leben begeisterte, verwandelte sich Tay in einen Bot, der Feministinnen in Brand setzen wollte und Hitler unterstützte.

3. Alice

CHATBOTAUSWEIS

Alice ist ein junges, ironisches Mädchen, das immer bereit ist, den Besitzer:innen eines Smartphones zu helfen. Sie wurde von Yandex entwickelt, einem russischen Anbieter von internetbezogenen Produkten und Dienstleistungen. Sie wurde 2017 eingeführt. 

CHATBOT FAIL

Alice erwähnte prostalinistiche Ansichten, Unterstützung von Frauengewalt, Kindesmissbrauch und Selbstmord.

Sie stand für One-To-One Conversation zur Verfügung, was es schwieriger machte, ihre Mängel aufzudecken. User:innen konnten nicht gemeinsam daran arbeiten, Alice auf einer öffentlichen Plattform (bzw. Social Media) zu überwinden. Außerdem mussten User:innen kreativ sein, um Alice dazu zu bringen, schreckliche Dinge zu schreiben. Ihre Entwickler haben tatsächlich dafür gesorgt, dass sie beim Lesen von Standardwörtern zu kontroversen Themen sagt, dass sie noch nicht weiß, wie sie über dieses Thema sprechen soll. Wenn aber Synonyme benutzt wurden, wurde diese „Schutzsperre“ umgangen und Alice ließ sich leicht zu Hassreden verleiten.

Es gibt viele weitere Beispiele, die wir anführen könnten, und diese Liste wäre bestimmt sehr lang. Was ist aber konkret bei diesen Bots schiefgelaufen?

Nun… sie wurden so programmiert, dass sie aus öffentlichen Daten lernen und nicht aus einer engen Auswahl von Daten, die von Entwickler:innen festgelegt wurden. Die Idee an sich ist hervorragend, aber… wir Menschen haben viele Facetten: Wir können fantastisch sein, aber auch schrecklich. Unsere Geschichte beweist dies. Und diese große Palette an Qualitäten und Fehlern lässt sich einwandfrei in solchen Experimenten (die zu sozialen Experimenten werden) beobachten.

Chatbots, die nicht(s) verstehen

4. Poncho

CHATBOTAUSWEIS

Was als Mail-Service begonnen hat, hat sich zu einer App und am Ende zu einem Chatbot entwickelt. Der auf Facebook und Kik gehostete Poncho-Bot kann tägliche Wettervorhersagen, Regenwarnungen usw. senden. Poncho ist außerdem eine schlaue Katze, die in der Lage ist, mit User:innen über eine ganze Reihe anderer Dinge zu sprechen: über das Wetter („Sollte ich heute eine Jacke tragen?“) und über andere Dinge („Gibt es Gott wirklich?“).

CHATBOT FAIL

Heute ist Poncho ein sehr erfolgreicher Chatbot, aber es war nicht immer so. Es gab tatsächlich eine Zeit, in der er nicht genau in der Lage war, Fragen zu verstehen. Zumindest nicht alle. Und nein, es ging nicht darum, dass Fragen zu schwierig waren. Ein Beispiel ist in dem nachstehenden Bild zu sehen.

5. CNN

CHATBOTAUSWEIS

CNN (wie auch andere Nachrichtensender, z. B. Fox) beschloss, mit einem Chatbot für die Verbreitung von Nachrichten zu experimentieren. Wenn der Chatbot abonniert wurde, wurden täglich Nachrichten nach Wahl oder Vorliebe der Nutzer:innen gesendet, wie beispielsweise zum Thema: Politik, Gesundheit, aktuelle Themen usw.

CHATBOT FAIL

Alles großartig, aber… das Abbestellen des Newsletters war eine Katastrophe. Der CNN-Bot konnte das Wort „Unsubscribe“ nicht verstehen, wenn es in einem Satz vorkam; er konnte es nur verstehen, wenn es allein, als einzelne Textnachricht, erschien. Ein großes Problem, weil User:innen bei Zahlungsangelegenheiten zu Recht sehr sensibel sind.

6. WSJ: Wall Street Journal

CHATBOTAUSWEIS

Wie CNN, hat auch WSJ denselben Service implementiert.

CHATBOT FAIL

Auch in diesem Fall war es nicht möglich, sich abzumelden. Selbst nachdem man sich abgemeldet hatte, wurde man irgendwie wieder abonniert und erhielt weiterhin Nachrichten – nicht optimal.

Auch in diesem Fall könnten wir viele mehr erwähnen. So traurig und unerwünscht es auch sein mag, man muss akzeptieren, dass diejenigen, die Chatbots benutzen wollen, auch irgendwann den Chatbot möglicherweise wieder offline nehmen. Und dafür muss der Chatbot so programmiert sein, dass dies einfach möglich ist. 

Bots, die keine Attraktivität oder keinen finanziellen Mehrwert erzielen

7. Duolingo

CHATBOTAUSWEIS

Duolingo ist die weltweit beliebteste Sprachlern-App. Das Lernen mit Duolingo macht Spaß und mehrere Studien zeigen, dass es wirklich funktioniert! Dank kurzer und effektiver Lektionen kann man Punkte sammeln und neue Level freischalten, während man lernt, in einer anderen Sprache zu kommunizieren. 2016 führte Duolingo ein gewagtes Experiment mit seinen 150 Millionen User:innen durch. Die App führte Renèe der Taxifahrer, Koch Roberto und die Beamtin Ada ein: Mit diesen Bots konnten User:innen Französisch, Spanisch und Deutsch üben.

CHATBOT FAIL

Duolingo hat eigentlich nicht bekannt gemacht, wieso seine Bots nicht mehr verfügbar sind. Laut Gerüchten im Internet, ist es möglich, dass es ihnen an Attraktivität fehlte und dass sie nicht in der Lage waren, Aussprachefehler zu entschlüsseln. Von daher fehlte für sie das kommunikative Element, das wirkliche Lernen, und sie boten folglich keinen finanziellen Mehrwert.

8. Facebook M

CHATBOTAUSWEIS

Facebook M war ein ehrgeiziger Chatbot, der in Facebook Messenger lebte und als Experiment vorgestellt wurde. Der kostenlose Service wurde nur 10.000 Menschen in der Region San Francisco (Kalifornien) angeboten. Mit M konnte man Restaurantreservierungen, Flüge umbuchen, Geschenke verschicken und Customer Care buchen. Kurz gesagt, für die M-Nutzer:innen war dieser Chatbot das Beste. 

CHATBOT FAIL

Nun, für Facebook war M ein sehr teuerer Dienst. Das lag daran, dass für die meisten Aufgaben, die von M erfüllt wurden, Mitarbeiter:innen aus Fleisch und Blut benötigt wurden. Facebooks Ziel mit M war es, eine Technologie mit künstlicher Intelligenz zu entwickeln, die fast alle Aufgaben von M automatisieren könnte. Doch trotz der enormen technischen Ressourcen von Facebook blieb M hinter seinen Möglichkeiten zurück: Eine mit dem Unternehmen vertraute Quelle schätzt, dass M nie über einen Automatisierungsgrad von 30 Prozent hinauskam.

Chatbot Fails – Fazit

Wie versprochen, haben wir für dich einige Beispiele gesammelt, bei denen der Einsatz von Chatbots aus unterschiedlichen Gründen gescheitert ist. Die Liste könnte noch länger werden (und zwar um einiges) und wir könnten dir versprechen: viele Namen würden dir bekannt vorkommen!

Doch für heute ist das genug.

Mit diesem Artikel wollen wir dich daran erinnern, dass Errare Humanum Est. Ja, Irren ist etwas, das man berücksichtigen muss, wenn man sich für den Einsatz eines Chatbots entscheidet, denn sowohl Informatiker:innen als auch Marketing Spezialisten sind nur Menschen. Das soll allerdings nicht heißen, dass ein Chatbot eine unnötige Verschwendung von Energie und Geld wäre: Es geht darum, dass du eine sorgfältige Bewertung vornehmen musst.

Weitere Informationen findest du in den folgenden Artikeln:

… und ganz allgemein findest du in unserem Meliblog viele nützliche Tipps!

Alle Kategorien

Pin It on Pinterest