Quando i chatbot umani non colgono il segno nelle interazioni del servizio clienti

chatbot, chat bot, bot training

chatbot, chat bot, bot training

I ricercatori dell’Università di Oxford hanno pubblicato un nuovo articolo sul  Journal of Marketing  che esamina l’uso dei chatbot nei ruoli del servizio clienti e rileva che quando i clienti sono arrabbiati, i chatbot umani possono avere un impatto negativo sulla soddisfazione del cliente, sulle valutazioni complessive dell’azienda e sulle successive intenzioni di acquisto.

Lo studio, di prossima pubblicazione sul  Journal of Marketing,  si intitola “ Blame the Bot: Anthropomorphism and Anger in Customer-Chatbot Interactions ” ed è scritto da Cammy Crolic, Felipe Thomaz, Rhonda Hadi e Andrew Stephen.

I chatbot stanno sostituendo sempre più gli agenti del servizio clienti umani sui siti Web delle aziende, sulle pagine dei social media e sui servizi di messaggistica. Progettati per imitare gli umani, questi robot hanno spesso nomi umani (ad es. Alexa di Amazon), aspetti simili a quelli umani (ad es. avatar) e la capacità di conversare come gli umani. Il presupposto è che avere qualità simili a quelle umane renda i chatbot più efficaci nei ruoli del servizio clienti. Tuttavia, questo studio suggerisce che non è sempre così. 

Il team di ricerca ha scoperto che quando i clienti sono arrabbiati, l’implementazione di chatbot simili a umani può avere un impatto negativo sulla soddisfazione del cliente, sulla valutazione complessiva dell’azienda e sulle successive intenzioni di acquisto. Come mai? Perché i chatbot umani generano aspettative non realistiche su quanto saranno utili. 

I ricercatori hanno condotto cinque esperimenti per comprendere meglio l’impatto dei chatbot umani sul servizio clienti.

Lo studio 1 analizza quasi 35.000 sessioni di chat tra il chatbot di un’azienda internazionale di telecomunicazioni mobili ei suoi clienti. I risultati mostrano che quando un cliente era arrabbiato, l’aspetto umano del chatbot aveva un effetto negativo sulla soddisfazione del cliente. 

Lo studio 2 è una serie di finti scenari e chat di servizio clienti in cui 201 partecipanti erano neutrali o arrabbiati e il chatbot era simile a un umano o non umano. Ancora una volta, i clienti arrabbiati hanno mostrato una soddisfazione complessiva inferiore quando il chatbot era simile a quello umano rispetto a quando non lo era.

Lo studio 3 dimostra che l’effetto negativo si estende alle valutazioni complessive dell’azienda, ma non quando il chatbot risolve efficacemente il problema (cioè soddisfa le aspettative). Più di 400 partecipanti arrabbiati si sono impegnati in una chat simulata con un chatbot umano o non umano e i loro problemi sono stati risolti efficacemente o meno durante le interazioni. Come previsto, quando i problemi non sono stati risolti in modo efficace, i partecipanti hanno riportato valutazioni inferiori dell’azienda quando hanno interagito con un chatbot umano rispetto a uno non umano. Eppure, quando i loro problemi sono stati effettivamente risolti, le valutazioni aziendali sono state più alte, senza differenze in base al tipo di chatbot.

Lo studio 4 è un esperimento con 192 partecipanti che fornisce la prova che questo effetto negativo è guidato dalle maggiori aspettative del chatbot umano. Le persone si aspettano che i chatbot umani siano in grado di funzionare meglio di quelli non umani; ma tali aspettative non vengono soddisfatte, portando a una riduzione delle intenzioni di acquisto. 

Lo studio 5 mostra che l’abbassamento esplicito delle aspettative del cliente sul chatbot umano prima della chat riduce la risposta negativa dei clienti arrabbiati ai chatbot umani. Quando le persone non avevano più aspettative irrealistiche su quanto sarebbe stato utile il chatbot umano, i clienti arrabbiati non li penalizzavano più con valutazioni negative. 

I ricercatori affermano che “I nostri risultati forniscono una chiara tabella di marcia su come distribuire al meglio i chatbot quando si ha a che fare con clienti ostili, arrabbiati o che si lamentano. È importante per i professionisti del marketing progettare con attenzione i chatbot e considerare il contesto in cui vengono utilizzati, in particolare quando si tratta di gestire i reclami dei clienti o risolvere i problemi. Le aziende dovrebbero cercare di valutare se un cliente è arrabbiato prima di entrare nella chat (ad esempio, tramite l’elaborazione del linguaggio naturale) e quindi implementare il chatbot più efficace (simile o non umano). Se il cliente non è arrabbiato, assegna un chatbot umano; ma se il cliente è arrabbiato, assegna un chatbot non umano. Se questa strategia sofisticata non è tecnicamente fattibile, le aziende potrebbero assegnare chatbot non umani in situazioni di servizio clienti in cui i clienti tendono ad arrabbiarsi, come i centri reclami. Oppure le aziende potrebbero minimizzare le capacità dei chatbot umani (ad esempio, il chatbot di Slack si presenta dicendo “Cerco di essere utile (ma sono ancora solo un bot. Scusa!” o “Non sono un umano. Solo un bot, un semplice bot, con solo qualche asso nella manica metaforica!”). Queste strategie dovrebbero aiutare a evitare o mitigare la minore soddisfazione del cliente, la valutazione complessiva dell’azienda e le successive intenzioni di acquisto segnalate dai clienti arrabbiati nei confronti dei chatbot umani.

Articolo completosu su:  https://doi.org/10.1177/00222429211045687

%d blogger hanno fatto clic su Mi Piace per questo: