Thema Chatbot: Vorsicht! Maschine schreibt mit

Chatbots sind der neue Online-Marketing-Liebling. Sie sollen helfen, Konsumentenbedürfnisse besser zu befriedigen. Datenschutzrechtlich tun sich allerdings einige Hürden auf, die Unternehmen beim Einsatz der künstlichen Intelligenz bedenken sollten.

Grafik

Intelligenz sind Chatbots bereits auf vielfäl­tige Weise in unterschiedlichen Unternehmenskonzepten eingebunden. Chatbots bieten Unternehmen im Rahmen ihrer Kommunikation dann einen Mehrwert, wenn sie einen schnellen und quasi persönlichen Kundenkontakt und Support gestatten. So können „Personal-Shopper“-Bots Kunden helfen, einen Webshop zu durchsuchen. In einer Unterhaltung klärt der Bot mithilfe gezielter Fragen die Interessenslage des Besuchers und empfiehlt passende Produkte, damit der Kunde schneller zum gewünschten Artikel findet. Der Bot kann den Kunden aber auch positiv überraschen: wenn er bei ihm ein Bedürfnis identifiziert und weckt, das dem Besucher noch gar nicht bewusst war.

Für Unternehmen sind diese Bots also eine interessante Maßnahme zur Umsatzsteigerung. Auch bei standardisierten und durchskalierten Prozessen – wie Buchungen von Reisen oder Konzertkarten – bieten Bots Mehrwerte für Kunden und Unternehmen. Zudem eignen sich Bots hervorragend als Online-Wissensdatenbank sowie für FAQ-Bereiche. Verlässt man jedoch die einfachen, standardisierten Support-Anwendungen. stoßen Bots an Grenzen. Weil ihre künstliche Intelligenz noch nicht ausgereift ist, eignen sie sich nicht für spezielle Problemklärungen.

Chatbots im Licht von ­Datenschutz und Sicherheit

Wenn ein Chatbot zum Einsatz kommt, bestehen die tatsächlichen Hürden weniger in einem mangelnden Anwendungsumfang als in einer möglichen Gefährdung der Datensicherheit. Einer Studie von Bitkom Research vom Januar 2017 zufolge haben mehr als 55 Prozent der Befragten bei Chatbots Bedenken, was Datenschutz und Datensicherheit betrifft. Der Hintergrund ist die Lernfähigkeit der künstlichen Intelligenz. Während es zur größten Stärke von Chatbots gehört, aus Nutzereingaben zu lernen, ist es ihre (Sicherheits-)Schwäche, dass sie dafür Nutzerdaten sammeln und auswerten. Häufig handelt es sich um personenbezogene Daten, die Rückschlüsse auf Verhalten, Präferenzen und Entscheidungsprozesse des Nutzers zulassen. Je nach Anwendungsfall kann ein Chatbot besonders schützenswerte Daten abfragen, etwa zur finanziellen Situation des Nutzers.

Solche Abfragen stellen einen Unterfall des Profilings dar. Profiling hat das Ziel, ein Individuum marktwirtschaftlich zu erschließen, es seinen konkreten Interessen entsprechend zu adressieren und im Idealfall in Richtung der eigenen Produkte oder Dienstleistungen zu beeinflussen. Hierfür sind immense Datenmengen und komplexe Auswertungs­algorithmen notwendig. Im selben Maße ­erhöhen sich die regulatorischen Anforderungen. So sieht insbesondere die Europäische Datenschutzgrundverordnung (DS-GVO), die ab dem 25. Mai 2018 unmittelbare Wirkung in den Europäischen Mitgliedstaaten entfalten wird, eine Beschränkung des Profiling vor. Zielsetzung ist, die Phänomene des Social Profiling, Social Engineering und Social Hacking einzugrenzen.

Letztlich ist das Ziel der erwähnten Maßnahmen natürlich eine marktwirtschaftliche Erschließung des Individuums – das ganz konkret seinen Interessen entsprechend adressiert oder gar in Richtung der eigenen Produkte oder Dienstleistungen beeinflusst werden soll. Beim sogenannten Social Profiling wird anhand der Daten, die man über die Eigenschaften, Handlungen und Neigungen einer Person gesammelt hat, ein Persönlichkeitsprofil erstellt. Dazu dienen spezielle Software-Lösungen oder Analyse-Tools. In einem nächsten Schritt, beim sogenannten Social Engineering, werden diese Persönlichkeitsprofile dann genutzt, um durch bewusste Einflussnahme – etwa via individualisierter Werbebanner oder Angebots-E-Mails – die Zielperson zu einem bestimmten Handeln zu bewegen, etwa zum Kauf bestimmter Produkte oder zur Preisgabe weiterer Informationen. Das Social Hacking verfolgt sogar eine kriminelle Zielsetzung: Es ist letztlich darauf gerichtet, in Computersysteme einzudringen und vertrauliche Daten abzugreifen.

Social Profiling als Forschungstool

So verwerflich Social Hacking ist – das Social Profiling und das Social Engineering sollte man nicht verteufeln. Schließlich handelt es sich dabei lediglich um einen spezifischen Ansatz der Marktforschung: Dienst- und Produktanbieter versuchen dabei nur, den Konsumenten seinen Wünschen und Bedürfnissen gemäß zu adressieren. Sich hier vor der marktwirtschaftlichen Realität zu verschließen, führt letztlich nur zum Verlust von Marktanteilen – oder zum Verlust von Adressatennähe.

Insbesondere die Europäische Datenschutzgrundverordnung (EU-DSGVO) und das neue Bundesdatenschutzgesetz verschärfen die Anforderungen an alle Aspekte des Profilings. Chatbots dürfen danach nur auf gesetzlicher Grund­lage oder nach einer ausdrücklichen Einwilligung durch den Nutzer eingesetzt werden. In solch einer Einwilligung sind der Verarbeitungszweck, die Speicherdauer, der Adressaten- und Nutzerkreis, der Datentransfer (inländisch wie aus­ländisch) und der Verarbeitungsumfang (welche Daten werden erhoben) festzuhalten.

Unternehmen, die keine eigenent­wickelten Chatbots anbieten, müssen den Endnutzer zudem ebenso deutlich über die Ausgestaltung der Einwilligung aufklären wie über seine Nutzerrechte (Auskunfts-, Berichtigungs- und Widerspruchsanspruch). Auch Löschfristen sind zu beachten – ein Aspekt, der Unternehmen häufig verunsichert. Denn aktuell sind Löschfristen noch sehr heterogen und unübersichtlich geregelt. So gelten für allgemeine und Protokolldaten andere Löschfristen (wenige Tage) als für Daten bei Vertragsschluss (über den Abrechnungszeitraum) oder für personenbezogene Daten (gesetzliche Speicherfristen je nach Daten).

Fazit

Auch wenn Sicherheitsbedenken eine Hürde für ihre Nutzung bedeuten: Chatbots stellen für Unternehmen doch eine innovative und ressourcensparende Kommunikationsform dar, die Mehrwerte generiert. Der Dreh- und Angelpunkt für den Chatbot-Einsatz kann aber nicht allein die Technologie sein. Es braucht dazu immer ein Konzept für Marketing und Kommunikation, das mit anderen Konzepten des Unternehmens – etwa zu Informationssicherheit und Datenschutz – in Korrelation steht. ║

Christina Klenke-Liese ist Associate bei Cassini Consulting.
Die Management- und Technologieberatung unterstützt Unternehmen bei
der Entwicklung von digitalen Strategien unter anderem beim Einsatz von KI
und Internet of Things.

Jan Alexander Linxweiler ist Consultant bei Cassini Consulting
mit den Schwerpunkten Datenschutz, IT-Security und Organisationsentwicklung.
www.cassini.de

Weitere Informationen rund um den digitalen Wandel finden Sie hier.

 

0
RSS Feed

Hat Ihnen der Artikel gefallen?
Abonnieren Sie doch unseren Newsletter und verpassen Sie keinen Artikel mehr.

Mit einem * gekennzeichnete Felder sind Pflichtfelder!

Neuen Kommentar schreiben

Entdecken Sie die Printmagazine des WIN-Verlags