Les chatbots ont encore un bel avenir devant eux
Après l’engouement de 2016-2017, la vogue des chatbots s’est un peu étiolée. Comme souvent, beaucoup a été promis par les fournisseurs de solutions, les directions en charge de la relation client… et les consultants. De nombreux tests et POC se sont lancés depuis 2 ans, de manière désordonnée à de rares exceptions prêt, sans stratégie à long terme. Or, se lancer dans l’utilisation de chatbots nécessite du temps et de la suite dans les idées, le cycle d’apprentissage étant long et surtout sans fin. Au-delà d’un projet, c’est un centre de compétence interne qui doit être créé pour maintenir et faire grandir le bot.
Malheureusement, le mal est fait. Nombre de décideurs ne veulent plus entendre parler d’un gadget répondant à côté de la plaque la plupart du temps, trop d’utilisateurs frustrés par la qualité des réponses en reviennent aux canaux traditionnels : FAQ, mail, téléphone.
Pourtant, les chatbots ont de l’avenir, notamment avec l’ouverture des App de messagerie à ce type de solution. Facebook Messenger avait ouvert la voie en 2016, WhatsApp a suivi l’été dernier en ouvrant une base de 1,5 milliards d’utilisateurs potentiels.
Nous aurions pu nous contenter d’une analyse théorique du sujet, expliquer que :
- 15% des interactions avec le service client seront à 100% gérées par des bots d’ici 2021
- 40% des bots lancés en 2018 seront abandonnés d’ici 2021, les solutions technologiques évoluant rapidement. Ceci signifie que c’est le moment de revoir votre infrastructure technique pour répondre aux besoins futurs de vos clients
- 70% des employés agiront avec un agent conversationnel sur base quotidienne d’ici 2022
Chez Headlink, nous préférons la pratique à la théorie et tester par nous-mêmes ce type de solution. Nous vous proposons donc un voyage dans les coulisses du chatbot de Headlink : ses objectifs, la technologie se cachant derrière et les écueils rencontrés.
Un chatbot oui mais pour quoi faire ? Engager les candidats
La première question était de choisir le cas d’usage pour le chatbot. Pour un cabinet de conseil, outre la production de contenu et la capacité à livrer les projets, un processus clé est le recrutement des talents. Il faut réussir à se faire connaître de manière simple, efficace, en utilisant les outils qu’utilisent au quotidien les jeunes diplômés. Le cas d’usage était donc tout trouvé.
Le chatbot est conçu pour répondre aux questions basiques des candidats et renvoie vers un consultant en cas de besoin :
- Présentation générale du cabinet
- Offres et expertises
- Contenu et publications
- Processus de recrutements
- Réponses aux questions plus « techniques »
Nous nous sommes donc lancés avec un bot sur Facebook Messenger et sur le blog Indeed. Nous avons choisi pour notre expérimentation Chatfuel, une solution simple, bien intégrée à Messenger et ne nécessitant aucune compétence en code. Chatfuel est plutôt ergonomique et permet de construire facilement un dialogue dans Messenger. Nous avions notamment construit tout un parcours avec des boutons de navigations pour guider le parcours utilisateur et nous assurer de répondre à ses questions. Tout était donc réuni pour engager les candidats.
Chatfuel, une interface facile, un bot peut être créé en quelques heures
Les 4 raisons expliquant l’échec de notre chatbot 1.0
Cette première version n’a pourtant pas répondu à nos attentes, avec quelques dizaines d’interactions et finalement très peu d’impact. Nous aurions certainement pu mieux promouvoir le chatbot mais là n’était pas l’essentiel. Les causes de l’échec sont plus structurelles :
- Sur Messenger, il faut s’identifier avec son identifiant Facebook. C’est un frein très important pour de nombreux utilisateurs qui ont peur de l’utilisation de leurs données personnelles, l’affaire Cambridge Analytica est passée par là. Résultat, un nombre important d’utilisateurs potentiels a tout simplement refusé d’utiliser le chatbot.
- Le contenu était complet mais trop riche pour un chatbot. Les réponses doivent être courtes, très précises pour une expérience de navigation fluide. Nous n’avons pas assez travaillé également (faute d’utilisateurs pour le coup) sur la partie sociale du chatbot, toutes ces petites réactions presque humaines rendant l’utilisation du chatbot vraiment agréable.
- Chatfuel offre nativement une navigation intuitive avec des boutons d’actions. Or, les utilisateurs du chatbot ne veulent pas appuyer sur des boutons et entrer dans un parcours balisé, ils veulent poser leurs questions en langage naturel. Notre beau parcours standard s’est donc vite avéré caduque.
- Pour fonctionner en langage naturel, il faut un moteur de règle robuste et des capacités de machine learning voire d’IA pour comprendre le contexte de la question et s’adapter aux fautes de frappes et autres problèmes de la vraie vie. Chatfuel ne propose que des arbres de décision avec reconnaissance de mots clés (nommée abusivement IA d’ailleurs), sans aucune capacité d’apprentissage. Résultat, le chatbot se perd à la première faute de frappe, renvoyant vers un être humain.
Ceci n’est pas de l’IA
Du passé faisons table rase : Hector, le nouveau chatbot de Headlink
Nous avons relancé le projet chatbot avec une nouvelle version, tirant les leçons du passé.
- Plus question de s’identifier désormais, le chatbot nommé Hector est utilisable dès maintenant sur Indeed, sans aucune connexion et sans risque pour les données personnelles.
- Hector repose uniquement sur le langage naturel, il n’y a plus de boutons de navigation. C’est la demande des utilisateurs mais il faudra bien gérer la phase d’apprentissage du chatbot pour couvrir toutes les questions. Il est certain que nous ne couvrons pas tout même pour un cas d’usage aussi simple
- Nous avons changé de solution technique, en adoptant Watson de IBM. Watson, utilisé par de nombreux clients notamment dans le secteur bancaire (RBS, OrangeBank, Bradesco…) est une solution construite autour du langage naturel avec des capacités d’apprentissage et de compréhension du contexte de la question. Nos tests montrent une bonne gestion des fautes de frappe notamment et une capacité à reconnaître des questions divergeant un peu de celles paramétrées.
Il nous reste encore un gros travail de revue et simplification du contenu pour le rendre plus simple et mieux adapté au format chat. Ensuite, nous devrons travailler sur une version en Français et sur un déploiement sur l’ensemble des Messageries supportées par Watson (Messenger, WhatsApp peut-être…).
Mais puisque rien ne remplace l’expérience vécue, nous avons d’ores et déjà lancé notre solution en version alpha sur le blog. N’hésitez pas à tester et à pousser l’outil dans ses retranchements. Ce seront autant d’occasion pour revoir notre modèle et entraîner Hector.
Nous partagerons dans quelques mois un nouveau retour d’expérience sur notre chatbot. A bientôt pour le volume 2 de cet article 🙂