L’IA émotionnelle : la prochaine tendance des logiciels d’entreprise, mais attention aux risques !

Voter pour ce post

Alors que les entreprises expérimentent l’intégration de l’IA dans tous les domaines, une tendance inattendue émerge : les entreprises se tournent vers l’IA pour aider leurs nombreux nouveaux bots à mieux comprendre les émotions humaines.

Ce domaine est désigné sous le terme d’« IA émotionnelle », selon le nouveau rapport de recherche de PitchBook sur les technologies émergentes dans le secteur des logiciels. Ce rapport prédit que cette technologie est en plein essor.

L’argument se présente ainsi : si les entreprises déploient des assistants IA auprès des dirigeants et des employés, et que les chatbots IA deviennent des agents commerciaux ou des représentants du service client, comment un IA peut-elle performer correctement si elle ne comprend pas la différence entre un « Qu’est-ce que tu veux dire par là ? » exprimé avec colère et un « Qu’est-ce que tu veux dire par là ? » teinté de confusion ?

L’IA émotionnelle se présente comme le frère plus sophistiqué de l’analyse de sentiments, la technologie pré-IA qui tente de distiller l’émotion humaine à partir d’interactions textuelles, en particulier sur les réseaux sociaux. L’IA émotionnelle peut être qualifiée de multimodale, utilisant des capteurs pour des entrées visuelles, audio et autres, combinée avec l’apprentissage automatique et la psychologie pour tenter de détecter l’émotion humaine pendant une interaction.

Les grands fournisseurs de cloud IA proposent des services permettant aux développeurs d’accéder à des capacités d’IA émotionnelle, tels que l’API Emotion des services cognitifs de Microsoft Azure ou le service Rekognition d’Amazon Web Services. (Ce dernier a d’ailleurs suscité des controverses au fil des ans.)

Bien que l’IA émotionnelle, même proposée en tant que service cloud, ne soit pas nouvelle, l’essor soudain des bots dans le milieu du travail lui confère des perspectives d’avenir plus prometteuses que jamais, selon PitchBook.

« Avec la prolifération des assistants IA et des interactions totalement automatisées entre humains et machines, l’IA émotionnelle promet de permettre des interprétations et des réponses plus semblables à celles des humains », écrit Derek Hernandez, analyste senior en technologies émergentes chez PitchBook, dans le rapport.

« Les caméras et les microphones sont des éléments intégrants du matériel de l’IA émotionnelle. Ceux-ci peuvent se trouver sur un ordinateur portable, un téléphone ou être situés individuellement dans un espace physique. De plus, le matériel portable pourrait probablement offrir une autre voie pour utiliser l’IA émotionnelle au-delà de ces appareils », explique Hernandez à TechCrunch. (Ainsi, si ce chatbot de service client demande un accès à la caméra, c’est probablement la raison.)

Dans cette optique, un nombre croissant de startups se lancent dans ce domaine. Cela inclut Uniphore (avec 610 millions de dollars levés au total, dont 400 millions de dollars en 2022 menés par NEA), ainsi que MorphCast, Voicesense, Superceed, Siena AI, audEERING et Opsis, chacune ayant également levé des sommes modestes auprès de divers investisseurs, selon les estimations de PitchBook.

Bien sûr, l’IA émotionnelle représente une approche très Silicon Valley : utiliser la technologie pour résoudre un problème causé par l’utilisation de la technologie avec des humains.

Mais même si la plupart des bots IA acquerront finalement une forme d’empathie automatisée, cela ne signifie pas que cette solution fonctionnera réellement.

En effet, la dernière fois que l’IA émotionnelle a suscité beaucoup d’intérêt en Silicon Valley — vers 2019, lorsque la plupart du monde de l’IA et du ML se concentrait encore sur la vision par ordinateur plutôt que sur le langage génératif et l’art — des chercheurs ont remis en question cette idée. Cette année-là, une équipe de chercheurs a publié une méta-analyse d’études et a conclu que l’émotion humaine ne peut en réalité pas être déterminée par les mouvements faciaux. En d’autres termes, l’idée selon laquelle nous pouvons apprendre à une IA à détecter les émotions humaines en lui apprenant à imiter la façon dont d’autres humains tentent de le faire (lire les visages, le langage corporel, le ton de la voix) repose sur une hypothèse quelque peu erronée.

Il existe également la possibilité que la régulation de l’IA, comme le projet de loi de l’Union Européenne sur l’IA, qui interdit les systèmes de détection émotionnelle par vision par ordinateur pour certains usages comme l’éducation, mette cette idée en péril. (Certaines lois des États, comme la BIPA de l’Illinois, interdisent également la collecte de données biométriques sans autorisation.)

Tout cela offre une perspective plus large sur cet avenir où l’IA est omniprésente que Silicon Valley s’efforce de construire. Ces bots IA vont tenter de comprendre les émotions pour accomplir des tâches comme le service client, la vente et les ressources humaines, ou peut-être ne seront-ils pas très performants pour des tâches nécessitant réellement cette capacité. Peut-être que nous sommes en train d’assister à une vie de bureau peuplée de bots IA du niveau de Siri en 2023. Comparé à un bot de gestion tentant de deviner les sentiments de chacun en temps réel durant les réunions, qui peut dire ce qui est vraiment pire ?

Laisser un commentaire