En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour vous proposer des services et offres adaptés à vos centres d’intérêts.
Pour en savoir plus et paramétrer les cookies… Fermer

publicité
Roadmap to business : l'intelligence artificielle dans votre entreprise

Quand les centres d'appels prédisent les émotions des clients


Technologie : L'empathie artificielle, un autre domaine d'exploration pour l'IA. La technologie peut ainsi aider les call-centers à identifier les émotions des appelants, mais aussi les symptômes de la dépression. De quoi permettre à l'avenir aux machines d'agir plus humainement ? En France aussi, des chercheurs explorent l'affective computing.

 

Les appels aux services clientèle peuvent s'avérer... exaspérants. Une des raisons tient à la difficulté des humains à interpréter des indices émotionnels subtils, surtout lorsque seule la voix traduit ces émotions. Il n'est pas rare non plus de transmettre par mégarde des signaux émotionnels involontaires, ce qui peut aisément déboucher sur des incompréhensions et de la gêne lors d'échanges téléphoniques. Et si la solution à une meilleure satisfaction client était l'empathie artificielle ?

Une spin-off du MIT, Cogito, exploite l'analyse vocale pour aider les employés des services clientèle à mieux comprendre le ressenti des clients. La technologie à l'origine du produit de Cogito, qui permet de prédire l'état émotionnel d'un client en analysant des modèles de timbres et de voix, a également été utilisée pour identifier les signes de trouble de stress post-traumatique et de dépression chez les vétérans.

Nul besoin de beaucoup d'imagination pour entrevoir comment la même technologie pourrait doter les ordinateurs et les robots d'une version simulée de l'empathie.

L'analyse développée par Cogito est née d'un conflit

En 2001, Alex "Sandy" Pentland, professeur au MIT Media Lab, était en Inde pour lancer Media Lab Asia. "J'ai remarqué que beaucoup des réunions que nous avions eues, en particulier celles du conseil d'administration, étaient épouvantables"  témoignait-il auprès de MIT News qui suivait le lancement de sa société.

Le problème, soupçonnait Pentland, tenait à la façon dont les participants communiquaient leurs idées - pas nécessairement les mots qu'ils utilisaient, mais le ton et l'accent derrière les mots.

De cette expérience a grandi l'engouement de Pentland pour l'analyse de la façon dont les individus s'expriment, ce qui contraste souvent avec ce qu'ils disent effectivement. Pentland voulait ainsi comprendre les signaux subtils dans le discours et le ton, ainsi que le langage corporel, autant d'éléments qui n'ont rien à voir avec le langage lui-même.

Pour aider ses efforts, les chercheurs du MIT ont développé ce qu'ils appellent des sociomètres - des badges équipés de capteurs qui enregistrent des données pour établir des modèles dans la parole et le mouvement du corps pendant une conversation.

Les chercheurs ont pu prédire le résultat d'interactions telles que des entretiens d'embauche à un degré extraordinairement élevé, sans réellement tenir compte des mots prononcés. Chaque interaction produit, indépendamment du langage, une riche couche de communication, comme l'ont découvert depuis longtemps les spécialistes du comportement.

Les recherches de Pentland se sont rapidement tournées vers les soins de santé, où il a découvert que l'analyse vocale pouvait aider à détecter les symptômes de la dépression ou à déterminer la compréhension réciproque entre médecins et patients lors de leurs interactions.

Plus récemment, la DARPA et le département américain des Anciens Combattants ont confié à Cogito, la société formée en 2007 par Joshua Feast, un ancien étudiant du MBA MIT, une évaluation de cette technologie dans l'identification des vétérans souffrant de stress post-traumatique, et ainsi aider les services de l'armée à les accompagner plus efficacement.

Lors d'un essai clinique de 2013 soutenu par la DARPA, Cogito a observé une augmentation des attitudes liées au stress post-traumatique chez les participants du procès de l'attentat du marathon de Boston.

L'argent, bien sûr, réside dans les produits aux entreprises

Environ cinq millions d'Américains travaillent dans des centres d'appels. Cogito a créé un produit, Cogito Dialog, qui analyse les signaux vocaux pour déterminer des éléments comme l'implication et la frustration des clients. Le logiciel fournit aux employés du centre d'appels des informations en temps réel pendant les appels, leur permettant d'ajuster leur approche.

Une étude de cas avec Humana, une grande compagnie d'assurance maladie, a révélé une augmentation de 28% de la satisfaction de la clientèle et une augmentation de 63% de l'implication des employés lors des appels assistés par le suivi de l'analyse vocale.

"Cela aide notre compréhension intuitive lorsque nous écoutons les gens" explique Pentland, "en les aidant à le faire mieux." Cogito compte MetLife et d'autres grands fournisseurs d'assurance parmi ses clients.

Être capable de favoriser la communication et la connexion au-delà du langage pourrait avoir des implications intéressantes dans la diplomatie et la résolution des conflits. Les travaux dans ce domaine pourraient aussi améliorer l'utilisation des assistants personnels et des robots basés sur de l'intelligence artificielle.

Article "Artificial empathy: Call center employees are using voice analytics to predict how you feel" traduit et adapté par Christophe Auffray, caiaibo.com

La France héberge également des chercheurs reconnus dans les domaines de l'analyse vocale et des émotions, parmi lesquels Laurence Devillers, professeure à la Sorbonne IV et chercheuse pour le LIMSI du CNRS. Laurence Devillers est également une intervenante régulière sur les enjeux éthiques de l'intelligence artificielle.

Comme elle le décrivait lors du salon Innorobo 2017 en mai dernier, l'affective computing comporte encore de nombreuses limitations. "C'est très pauvre aujourd'hui (…) Ce qu'on essaie de comprendre, par exemple, c'est si une personne est contente ou non, dépressive sur la base de nombreux facteurs, si elle est en colère ou a peur. C'est autour de ces grandes catégories qu'on sait faire un peu de choses."

"Il faut vraiment vous méfier de procédés qui vous donneraient l'idée qu'on peut reconnaître 25, 30 émotions. C'est très complexe les émotions" mettait-elle par ailleurs en garde pour tempérer les capacités de l'IA dans ce domaine de recherche. "Les émotions sont rarement à l'état primaire, mais au contraire souvent combinées, l'amour-la haine, par exemple."

Laurence Devillers est d'ailleurs intervenue dans des centres d'appels pour aider à l'analyse du comportement au service des agents, métier où le turnover est élevé, "afin qu'ils s'adaptent mieux et répondent mieux."

Son constat pour illustrer la complexité des travaux dans l'affective computing : une tessiture de voix qui correspond à de la souffrance, et en même temps du soulagement au travers d'une voix chaude. Deux opposés. L'analyse de la voix pourra reposer sur l'examen de milliers de paramètres. La résolution des conflits mondiaux grâce à des technologies comme celle de Cogito n'est donc pas pour demain.

Toujours lors d'Innorobo 2017, Serge Tisseron, psychiatre et membre de l'Académie des Technologies, tenait en outre à mettre en garde contre des dérives potentielles découlant de l'analyse des émotions, de l'empathie artificielle et des émotions artificielles.

"La machine peut être dotée d'une apparence humaine, d'un visage humain notamment, qui lui permet de simuler les émotions (…) C'est un formidable outil pour mieux communiquer avec les machines (…) mais ça peut devenir aussi un formidable outil de manipulation. Le robot pourrait alors déterminer, en fonction de son interlocuteur, l'intonation la plus efficace pour le faire acheter un produit, agir sur lui pour l'influencer."

Mais comme le soulignait la chercheuse du LIMSI, l'affective computing n'en est pas aujourd'hui à ce stade. C'est aussi tout l'enjeu des questions d'éthiques, qui doivent précéder la mise en œuvre de certaines technologies pour en prévenir les dérives. Après le privacy et le security by design, place donc à l'ethic by design.

Articles relatifs

Contenus sponsorisés

Contenus partenaires

Réagissez à l'article

1 réponse
Connectez vous ou Enregistrez-vous pour rejoindre la discussion
    
  • Et quand les centres d'appel harcèlent des prospects qui n'ont rien demandés, ils arrivent à ressentir leurs émotions ?
publicité