Le traitement du langage naturel dans le retail: comment les marques et les e-commerçants peuvent-ils mieux répondre à leurs consommateurs ?

Les géants du numérique développent d’importants moyens depuis plusieurs années sur les intelligences artificielles dans le domaine du langage naturel avec des résultats de plus en plus précis dans la compréhension de requêtes orales des consommateurs.

Qu’est-ce que cette branche du domaine de l’intelligence artificielle ? Pourquoi même Amazon et Alibaba investissent fortement dessus ? Quels sont impacts et opportunités pour les marques de grande consommation ?

Traitement du langage naturel : de quoi parle-t-on ?

Le traitement automatique du langage naturel ou « natural language processing » (NLP) est une branche de l’intelligence artificielle (IA). Elle regroupe le champ d’études et de recherches visant à développer des programmes informatiques en mesure de maîtriser le langage humain parlé.

Le langage naturel, parlé, comporte un certain nombre d’obstacles pour les programmes informatiques : polysémie de mots, subtilités en fonction de la combinaison d’un mot avec d’autres, grammaire et orthographe parfois non respectés dans leurs usages à l’oral, contextes qui peuvent jouer un rôle majeur, langues vivantes en constante évolution, variations de ton (comme l’ironie ou l’absurde par exemple) … autant de difficultés à la bonne compréhension du sens des requêtes effectuées à l’oral par des humains.

Le NLP s’appuie sur le deep learning : l’outil est alimenté par une masse d’informations et de règles imposées qu’il analyse et traite. Dans son livre blanc sur le NLP, la start-up Vivoka rapproche son fonctionnement de celui d’un cerveau. Une fois ces données analysées, l’outil les relie entre elles de la même manière qu’un système neuronal et peut ainsi répondre aux requêtes d’un utilisateur. Plus le système est alimenté en informations plus il est en mesure d’interpréter une demande orale complexe (du langage technique au jargon local) et d’y répondre de la manière la plus adéquate.

Parmi les modèles de NLP on peut citer BERT de Google arrivé en France en 2020, Ernie du moteur de recherche asiatique Baidu, et Turing Natural Language Generation (T-NLG) de Microsoft.

Les géants de la technologie ont la possibilité de confronter la précision de leur IA via le test GLUE (General Language Understanding Evaluation), pour définir le niveau de qualité et de précision de compréhension du langage naturel par une IA.

Amazon et Alibaba à l’assaut du traitement du langage naturel

En février 2020, les chercheurs en intelligence artificielle d’Amazon ont communiqué leur nouveau modèle TANDA (Transfer and Adapt) de langage naturel basé sur l’architecture Transformer de Google (le modèle BERT). L’e-commerçant américain a pour objectif avec cette IA de mieux répondre aux requêtes de ses clients quel que soit leur langue et le type de langage. Amazon veut mieux anticiper les recherches des utilisateurs pour y répondre de façon plus pertinente et pour venir ainsi compléter la connaissance de ses profils consommateurs. Son modèle TANDA a également pour but d’améliorer les performances de son moteur de recherche et de son assistant vocal Alexa.

 Le système a atteint un niveau de précision entre 92% et 93,7% soit près de 10 points de plus en matière d’exactitude par rapport à la précédente version.

En mars 2020, c’est au tour de la DAMO Academy d’Alibaba de faire une entrée fracassante à la troisième place du test GLUE avec son modèle NLP (StructBert). L’e-commerçant chinois l’utilise dans l’ensemble de son écosystème pour optimiser ses chatbots ainsi que ses moteurs de recherches.

Quels sont les impacts du NLP pour les marques de grande consommation?

3 cas d’usage des progrès du NLP peuvent être identifiés pour le retail à court terme.

L’enrichissement des référentiels de données pour les marques sur l’écosystème digital

Avec le déploiement de son modèle Bert, Google améliore sa compréhension de requêtes complexes formulées en langage naturel par ses utilisateurs. Des phrases ou des expressions entières (et non plus 2-3 mots clés) sont saisies dans le moteur de recherche américain par les consommateurs qui obtiennent des réponses plus pertinentes. Google intègre donc la notion d’intention et notamment celle d’intention d’achat. Il tend à devenir un « moteur de réponses ».

Plus d’un internaute sur deux obtient la réponse précise à sa question sur la page de résultats du moteur de recherche (notamment dans le snippet « autres questions posées ») et ne clique plus sur les sites des marques.

Dès lors, il apparaît indispensable aux marques de ne plus réfléchir uniquement en termes d’optimisation des mots clés mais de requêtes de longue traîne pour être en mesure d’apparaître lors des recherches réalisées en langage naturel. En effet, les requêtes de longue traine ont un taux de conversion 2,5 fois plus important que les mots clés.

Les marques doivent donc constituer leur Knowledge graph, c’est-à-dire leur base de connaissance pour alimenter Google. Il ne s’agit plus d’avoir les bons mots clés répartis sur son site mais d’avoir un contenu complet le plus en adéquation avec les attentes et les requêtes naturelles de ses consommateurs et de ses prospects pour alimenter les réponses de Google.

Le v-commerce ou commerce vocal

Aujourd’hui les assistants vocaux sont majoritairement dominés par Apple avec Siri, Amazon avec Echo et Alexa, et Google Assistant et Google Home du moteur de recherche américain.

Afin d’éviter que leurs interactions avec les consommateurs soient préemptées par ces intermédiaires puissant, les acteurs de la grande consommation doivent investir dans la compréhension de l’expérience client et dans la gestion de la data. Le digital ne constitue pas uniquement un canal de distribution additionnel mais il est devenu un ensemble de points de contacts avec leurs consommateurs avec comme point de départ le langage naturel. Les marques doivent mettre en place leurs propre cas d’usage en fonction du comportement de leurs consommateurs et elles doivent s’approprier les différentes requêtes en langage naturel possibles relatives à leurs produits et services.

En novembre 2019, l’entreprise Interflora est la première à exploiter l’IA d’Amazon pour lancer via Alexa une skill (ou brique logicielle) pour la commande de fleurs via la voix.

Certains groupes de grande consommation, comme Procter & Gamble avec sa marque de lessive Tide par exemple, ont commencé à faire de la publicité sur les assistants vocaux comme Alexa. Les distributeurs initient également des investissements comme Leclerc avec son Mémo Course sur Google Home. A partir de l’historique d’achat d’un consommateur porteur de la carte de fidélité de l’enseigne, l’assistant vocal peut ajouter une référence spécifique issue des produits habituellement achetés dans sa liste de course. Juin 2020, Alexandre Bompard a annoncé le commerce à la voix grâce au partenariat en Google et le groupe Carrefour.  Août 2020, c’est au tour de la marque Pasquier d’annoncer sur ses packagings le développement de son application vocale qui permet au consommateur d’en apprendre plus sur la marque, l’origine et la composition des produits.

Si l’utilisation des assistants vocaux n’en est qu’à ses début (16 millions d’utilisateurs en France) les marques de grande consommation et les distributeurs doivent se préparer pour anticiper le seuil de bascule.

L’optimisation des chatbots

Les chatbots ou assistants conversationnels sont utilisés pour venir compléter tous les services dans la relation client sur les sites de distributeurs ou des marques. A partir de schémas préprogrammés, ils repèrent des mots clés dans les requêtes des utilisateurs pour leur proposer des réponses issues de scénarios pré-établis. Après un engouement certain de la part de nombreuses entreprises pour les chatbots, l’expérience actuelle en sort pour l’instant assez décevante et le téléphone et le mail restent encore les premiers points de contact des services clients.

Certains chatbots plus sophistiqués intègrent des modèles de NLP. L’investissement dans ces nouveaux modèles utilisant l’IA peut donc être une opportunité d’optimisation de la fiabilité de ces agents conversationnels et de leur capacité à répondre correctement à des requêtes formulées en langage naturel.

 

Le traitement du langage naturel via l’IA constitue donc une réelle opportunité pour la grande consommation de mieux appréhender les attentes consommateurs et d’y répondre de façon plus pertinente pour développer la conversion et la fidélisation.

Sources:

Siècledigital.fr Enquête : le service client à l’ère de l’IA et de la digitalisation, Valentin Cimino, 29 mai 2020

CapGemini.com: Innovation in Retail | How voice is altering commerce, Sicco Maathuis, 11 février 2019

CBNews.fr: Bert, un nouvel espace de conversation pour les marques, Jimmy Barens, 29 avril 2020

LeBigData.fr: Traitement naturel du langage: tout savoir sur le natural langage processing, Bastien Lepine, 2 août 2019

Pour aller plus loin:

Le domaine du vocal pour les marketeurs et les utilisateurs – Interview de Sabrina Delale, Camille Montois, 8 mars 2020

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.