21.06.2022 – Kategorie: IT
Voice Commerce: Mehr Personalisierung für den Sprachassistenten
Sprachassistenten wie Amazons Alexa sind verbreitet – doch beim Voice Commerce gibt es in Deutschland noch Luft nach oben. Der Grund: Um per Sprache einzukaufen, fehlt vielen das Vertrauen. Das lässt sich ändern – wenn die Stimme des Assistenten zur Persönlichkeit des Kunden oder der Kundin passt.
Voice Commerce in der Praxis: Es ist fast ein bisschen wie im echten Leben. Mit den besten Freund*innen teilen wir Gemeinsamkeiten, Vorlieben und Hobbies – und haben ein großes Vertrauen in sie. Das ist sogar wissenschaftlich erwiesen. So stellt die „Ähnlichkeits-Attraktions-Theorie“ unter Beweis, dass Menschen anderen Menschen sympathischer sind. Und ihnen mehr Vertrauen schenken, wenn diese ihnen selbst ähnlich sind.
Voice Commerce ist mehr als nur Technik
Und das gilt nicht nur für das Zwischenmenschliche, sondern funktioniert auch im Miteinander von Mensch und Technologie. So schreiben Menschen Computern gar menschliche Züge zu, wenn sie mit diesen interagieren. Wer morgens nach dem Aufstehen Alexa nach dem Wetter fragt, spricht also nicht nur mit einem kleinen schwarzen Lautsprecher – sondern auch ein bisschen mit einer Bekannten.
Sprachassistenten sind weit verbreitet: Einer Studie von Beyto zufolge nutzen 55 Prozent der Deutschen regelmäßig Sprachtechnologien. Dabei werden diese bisher hauptsächlich für einfache Aufgaben wie für Recherchezwecke oder zum Abspielen von Musik genutzt. Voice Commerce, also der Online-Einkauf über die Stimme mit dem Sprachassistenten, hinkt deutlich hinterher. Ein Grund: Die Nutzer haben zu wenig Vertrauen in die neue Technologie. Und das könnte auch mit dem Sprachstil zusammenhängen. Viele Sprachassistenten sind mit Standard-Stimmen ausgestattet, die sich immer gleich anhören – ganz egal, wer mit ihnen spricht.
Wie wirkt sich die Stimme auf das Vertrauen aus?
Wir wollten daher wissen: Könnte es sich positiv auswirken, wenn Geschlecht und Stimme von Sprachassistenten an die Nutzer angepasst würden? Vertrauen Frauen weiblichen Stimmen mehr und introvertierte Menschen langsameren, ruhigeren Tönen? Sind extrovertierte Menschen eher bereit, per Sprache einzukaufen, wenn Sprachassistenten laut und schnell sprechen? Anhand einer Studie haben wir daher untersucht, wie sich das Vertrauen ändert, wenn Sprachassistenten nicht mehr klingen wie der Durchschnitt, sondern gezielt mit den Persönlichkeitseigenschaften ihrer Nutzer ausgestattet sind.
Um das herauszufinden, haben wir ein Experiment mit 380 Teilnehmern durchgeführt: Dafür wurden vier verschiedene Sprachassistenten mit unterschiedlichen Geschlechtern und Persönlichkeiten kreiert: „Hans“ mit einer männlichen, tieferen Stimme, „Vicky“ mit einer weiblichen, höheren. Außerdem bekamen sie über die Stimmlage, die Lautstärke und die Schnelligkeit verschiedene Persönlichkeiten zugeordnet: eine schnellere, höhere, lautere Stimme für den extrovertierten Typ, eine langsamere, leisere Stimme für den introvertierten.
Mit jeder der vier Varianten wurde dasselbe Verkaufsgespräch aufgezeichnet, das sich die Teilnehmenden des Experiments anhören sollten. Im nächsten Schritt machten sie Angaben zu ihrer eigenen Person. Daraus errechneten wir die Übereinstimmung zwischen den Charaktereigenschaften von Sprachassistent und Nutzer*in und verglichen auch das Geschlecht.
Keine Einheitsstrategie beim Voice Commerce fahren
Es zeigte sich: Sind sich Nutzer und Sprachassistent in ihrer Persönlichkeit ähnlich, steigt das Vertrauen der Nutzer – und zwar in allen gemessenen Vertrauensdimensionen: Integrität (d.h. der Sprachassistent ist ehrlich), Kompetenz (der Sprachassistent ist in der Lage, seine Aufgabe effektiv zu erfüllen) und Wohlwollen (der Sprachassistent handelt im besten Interesse des Nutzers). Keine signifikante Auswirkung auf das Vertrauen hatte es dagegen, wenn Sprachassistent und Nutzer demselben Geschlecht angehörten. Dieses Ergebnis zeigt, dass bestimmte Übereinstimmungen zwischen den Sprachassistenten und ihren Nutzern effektiver sind als andere.
Für Unternehmen ist das eine wertvolle Erkenntnis: Denn bei der Gestaltung von Sprachassistenten reicht es demnach nicht, sich nur auf technische Komponenten und Inhalte zu konzentrieren. Was Kund*innen wollen, sind keine einheitlichen Standard-Stimmen, sondern personalisierte Angebote, in denen sie sich selbst wiederfinden. Über die Analyse der Nutzer-Stimmen können Unternehmen Daten gewinnen, mit denen sie Rückschlüsse auf die Persönlichkeit ziehen können – und damit den Sprachstil des Assistenten (Tonlage, Lautstärke, Schnelligkeit) an die jeweiligen Kund*innen anpassen.
Künftig wäre dabei sogar noch ein weiterer Schritt denkbar: Indem die Stimme des Nutzenden während der Interaktion unter die Lupe genommen wird, könnten auch Rückschlüsse über seinen oder ihren emotionalen Zustand während des Gesprächs gezogen werden. Ist der/die Kund*in heute entspannt? Oder doch eher frustriert? Im Verlauf der Unterhaltung kann sich der Sprachassistent dann automatisch an den Gefühlszustand der Nutzer anpassen. So, wie ein echter Freund es tut.
(Bild: elaboratum)
(Bild: Karlsruher Institut für Technologie)
Die Autoren: Fabian Reinkemeier ist Senior Consultant bei elaboratum und Doktorand an der Georg-August-Universität Göttingen. Dr. Ulrich Gnewuch ist Postdoc am Karlsruher Institut für Technologie.
Lesen Sie auch: E-Commerce-Investitionen: Das sind die Prioritäten der Einzelhändler
Teilen Sie die Meldung „Voice Commerce: Mehr Personalisierung für den Sprachassistenten“ mit Ihren Kontakten:
Zugehörige Themen:
E-Commerce & Onlinehandel, Handel | Omnichannel | Stationärer Handel, Marketing & Vertrieb