Konsumentenvertrauen im Zeitalter von Chatbots und AI bewahren

By Published On: Oktober 25th, 2019Categories: conversational ai, kundenkommunikation

Damit Nutzer bereit sind mit einem Chatbot zu interagieren, ist es wichtig, dass sie ihm ein grundlegendes Vertrauen entgegenbringen. Zum einen müssen sie zuversichtlich sein, dass er ihnen mit ihren Problemen und Fragen weiterhelfen kann. Zum anderen müssen Nutzer vertrauen, dass der Chatbot ihre Daten sicher verarbeitet und diese nicht in falsche Hände geraten.

Vor allem in Zeiten, in denen eine zunehmende Verunsicherung bei den Themen Datenschutz und -sicherheit herrscht und viele Nutzer neuen Technologien eher skeptisch gegenüberstehen, ist dies keine leichte Aufgabe.

Wir haben uns mit aktuellen wissenschaftlichen Studien beschäftigt, um die Frage zu beantworten, wie man das Konsumentenvertrauen in Chatbots bewahren und eine vertrauenswürdige Chatbot-Kommunikation gestalten kann.

 

Diese Faktoren steigern das Konsumentenvertrauen in Chatbots

Ein interessantes White Paper der Konferenz The Fifth International Conference on Internet Science“ beschäftigt sich mit der Frage: Welche Faktoren schaffen Vertrauen in Kundenservice-Chatbots?

Die Forscher kommen zu dem Ergebnis, dass vor allem folgende Faktoren eine entscheidende Rolle spielen:

  • Qualität der Bearbeitung von Anfragen und Ratschlägen
  • Menschliche Ähnlichkeit
  • Selbstdarstellung und professionelles Erscheinungsbild
  • Marke des Chatbot-Betreibers
  • Wahrgenommene Sicherheit und Privatsphäre während der Unterhaltung

 

Hieraus leiten die Forscher wiederum folgende Tipps für die Chatbotentwicklung ab:

  1. Priorisieren Sie eine effiziente Abwicklung über den Chatbot.
  2. Seien Sie transparent im Hinblick auf Chatbot-Features und -einschränkungen.
  3. Verbessern Sie das Nutzererlebnis mit menschenähnlichen Unterhaltungen.
  4. Nutzen Sie das Vertrauen, dass in Ihre Marke besteht.
  5. Machen Sie deutlich, dass Datenschutz und die Privatsphäre ernst genommen werden.

 

Einen wissenschaftlichen Blick auf diese Frage bietet auch die Masterarbeit Trust in chatbots for customer service“. Die Arbeit kommt zu dem Ergebnis, dass Konsumentenvertrauen in Chatbots vor allem von drei Bereichen abhängt:

  • Chatbot-Faktoren: Fachwissen, Schnelligkeit der Antwort, menschliches Verhalten, Fernbleiben von Marketingbotschaften
  • Umfeld-Faktoren: geringes Risiko, Marke, Zugang zu einem menschlichen Mitarbeiter
  • Nutzer-Faktoren: Bereitschaft neuen Technologien zu trauen

 

Sollte ein Bot menschlich sein?

Vor allem der Aspekt, wie menschlich ein Bot sein sollte, wird häufig kontrovers diskutiert. Zwar nennen beide Arbeiten die Menschlichkeit von Bots als einen entscheidenden Faktor, allerdings gibt es hier auch gegenläufige Meinungen.

Auf der einen Seite ist ein Bot, der von seinen Formulierungen und seinem Verhalten an einen Menschen erinnert, ein angenehmer Gesprächspartner. Auf der anderen Seite sollte ein Bot nicht zu menschenähnlich sein, bzw. es sollte dem Nutzer nicht vorgetäuscht werden, dass er mit einem Menschen spricht, wenn das nicht der Fall ist.

Wenn ein Nutzer der Überzeugung ist, dass er mit einem menschlichen Mitarbeiter redet und dann rausfindet, dass es nur ein Bot ist, ist die Enttäuschung groß. Und das wiederum färbt auf das Unternehmen ab. Es wird als unglaubwürdig und wenig transparent wahrgenommen, was die Nutzerbindung negativ beeinflussen kann.

Wie lässt sich dieser Zwiespalt nun lösen? Sie können dem Nutzer beispielsweise zu Beginn mitteilen, dass er mit einem Bot redet. So werden keine falschen Erwartungen geweckt. Anschließend können Sie dennoch Ihren Bot möglichst menschlich gestalten, indem Sie mehrere Variationen für eine Antwort erstellen, die Antwortzeiten etwas verzögern oder über den Text Humor vermitteln.

 

Sprachassistenten, Chatbots und künstliche Intelligenz, mit dem kostenlosen Onlim-Newsletter bleiben Sie informiert.

 

Bots FAIR gestalten

Die Fortschritte im Bereich AI machen Chatbots zunehmend intelligenter und vielfältig einsetzbar. Die neuen Möglichkeiten bringen jedoch auch neue Stolperfallen mit sich. Häufig werden Chatbots mit Datenmodellen trainiert und das Ergebnis dieser Trainings ist unklar. Die Gefahr ist groß, einen voreingenommen Chatbot zu entwickeln. Damit Bots in Zukunft nicht rassistisch und unfair werden, müssen Chatbot-Entwickler diesen Trend im Blick behalten und ihre Bots regelmäßig überprüfen.

Im Forrester-Report „The Ethics Of AI: How To Avoid Harmful Bias and Discrimination“ werden vier entscheidende Kriterien definiert, die dabei helfen sollen, dass AI-Modelle und damit auch Chatbots FAIR sind.

 

Hierfür müssen folgende Kriterien erfüllt sein:

  • Fundiert: Das Modell wurde mit unabhängigen und identisch verteilten Trainingsdaten erstellt.
  • Abschätzbar: Entscheidungen sind nachvollziehbar.
  • Inklusiv: Nutzer werden nicht von der Nutzung der Produkte oder Dienstleistungen ausgeschlossen.
  • Reversibel: Das Verhalten des Modells fühlt sich auch für die Entwickler richtig an.
Mehr Beiträge