Comment fonctionnent les technologies de reconnaissance des émotions?

Imaginez le scénario suivant : un jour, vous rentrez du travail de mauvaise humeur. Vous entrez dans l’appartement en maugréant alors que vous êtes agacé par le fait que la porte d’entrée ne s’ouvre pas assez vite et que l’ampoule du hall d’entrée est à nouveau hors d’usage. Sans même lui demander, le haut-parleur intelligent joue soudain une douce musique de relaxation et la machine à café prépare un moka bien mérité. Autre exemple : vous entrez dans un magasin et l’assistant robot qui voulait vous approcher voit votre visage malheureux, sursaute et aide un autre client à votre place. On dirait de la science-fiction?

En fait, les technologies de reconnaissance des émotions sont déjà introduites dans de nombreux domaines de la vie, et dans un avenir proche, notre humeur pourrait être sous l’œil attentif des gadgets, des appareils ménagers et des voitures. Dans cet article, vous pouvez examiner le fonctionnement de ces technologies et leur utilité (et parfois leur danger). Pourquoi l’IA apprend à reconnaître les émotions humaines ?

Intelligence émotionnelle artificielle (QE)

La plupart des systèmes actuels de reconnaissance des émotions analysent l’expression faciale et la voix d’une personne, ainsi que tous les mots qu’elle dit ou écrit. Par exemple, si les coins de la bouche d’une personne se soulèvent, la machine peut supposer que la personne est de bonne humeur, tandis qu’un nez plissé suggère la colère ou le dégoût. Une voix aiguë et tremblante et une façon de parler précipitée peuvent indiquer une anxiété, tandis que l’exclamation du mot “Cheers !” indique probablement que la personne est heureuse.

Des systèmes plus complexes analysent également les gestes et, en plus des expressions faciales et de la parole, tiennent même compte de l’environnement. Un tel système reconnaît qu’une personne forcée de sourire a peu de chances d’être heureuse.

Les systèmes de reconnaissance émotionnelle apprennent généralement à déterminer le lien entre une émotion et sa manifestation externe à partir de grands ensembles de données étiquetées. Les données peuvent comprendre des enregistrements audio ou vidéo d’émissions de télévision, des interviews et des expériences avec des personnes réelles, des extraits de représentations théâtrales ou de films, et des dialogues d’acteurs professionnels.

Chaque fois par objectif, des systèmes plus simples peuvent être formés sur des photographies ou des corpus de textes. Dans ce projet de Microsoft, par exemple, on tente d’utiliser des photos pour deviner les émotions, le sexe et l’âge approximatif des personnes.

Pour quelle raison la reconnaissance des émotions est-elle nécessaire?

D’ici quelques années, un appareil sur dix sera équipé de technologies de reconnaissance des émotions. Toutefois, certaines organisations les utilisent déjà. Par exemple, lorsque vous entrez dans un bureau, une banque ou un restaurant, les clients peuvent être accueillis par un robot sympathique. Et ce ne sont là que quelques-uns des domaines dans lesquels de tels systèmes pourraient s’avérer bénéfiques.

Sécurité

La détection des émotions peut être utilisée pour prévenir la violence (tant domestique qu’autre). De nombreux articles scientifiques ont traité de ce sujet. Certains entrepreneurs vendent déjà de tels systèmes aux écoles et autres institutions.

Procédure de sélection des candidats

Certaines entreprises utilisent l’IA pour la reconnaissance des émotions en tant qu’assistants RH. Le système évalue les mots clés, les intonations ainsi que les expressions faciales des candidats au cours de la première étape, la plus longue, de la procédure de candidature et crée un rapport pour les assistants RH indiquant si le candidat est réellement intéressé par le poste, s’il est honnête, etc. Une société a introduit dans son pays un système intéressant dans ses centres de service à la clientèle, où des caméras équipées d’IA comparent les sentiments des personnes qui entrent et sortent du bâtiment pour déterminer leur degré de satisfaction. Si le score calculé tombe en dessous d’un certain niveau, le système conseille au personnel du centre de prendre des mesures pour améliorer la qualité du service. (Les photos des visiteurs ne sont pas stockées pour des raisons de confidentialité.)

Socialisation des enfants ayant des besoins particuliers

Un autre projet vise à aider les enfants autistes à interpréter les sentiments de leurs semblables. Le système fonctionne sur les lunettes intelligentes. Lorsque l’enfant interagit avec une autre personne, les lunettes utilisent des graphiques et des sons pour donner des indices sur ses émotions. Des tests ont montré que les enfants peuvent entrer en contact plus rapidement avec cette aide virtuelle.

Quelle est l’efficacité des détecteurs d’émotions ?

Les technologies de reconnaissance des émotions sont loin d’être parfaites. Un exemple typique est la technologie de détection des agressions utilisée dans de nombreuses écoles américaines. Il s’avère que le système considère qu’une toux trop forte est plus alarmante qu’un cri effrayant.

Des chercheurs ont découvert que la technologie de reconnaissance faciale est également facile à tromper. L’appareil associe automatiquement certaines expressions faciales à certaines émotions, mais ne distingue pas un sourire malicieux ou malheureux d’un vrai.

C’est pourquoi les systèmes de reconnaissance des émotions qui tiennent compte du contexte sont plus précis. Cependant, elles sont plus complexes et beaucoup moins représentées.

Ce n’est pas seulement ce que la machine vise qui est important, mais aussi ce qu’elle a été formée à faire. Par exemple, un système formé à la mise en scène d’émotions pourrait avoir des difficultés à reconnaître les émotions réelles.

Emotions en tant que données personnelles

La prolifération des technologies de reconnaissance des émotions soulève un autre problème important. Quelle que soit leur efficacité, ces systèmes pénètrent dans l’espace personnel des gens. Imaginez par exemple le scénario suivant : Vous aimez la tenue d’un passant au hasard et avant même de vous en rendre compte, vous êtes bombardé de publicités pour des vêtements de la même marque. Ou peut-être froncez-vous les sourcils pendant une réunion et n’êtes-vous pas pris en considération pour une promotion par la suite.

Certaines personnes ne veulent pas qu’elles se fassent analyser leurs sentiments et leur humeur par l’IA. Parallèlement, les technologies de reconnaissance des émotions et des visages sont interdites par la loi dans certains endroits. Par exemple, la Californie a introduit une loi qui interdit aux policiers d’enregistrer, de collecter et d’analyser des informations biométriques avec des caméras portées sur le corps, y compris les expressions faciales et les gestes.

L’utilisation des technologies de reconnaissance faciale équivaut à vérifier le passeport des passants à chaque seconde. Leur utilisation viole les droits des citoyens et peut amener des personnes qui se sont rendues coupables de fautes mineures (par exemple une contravention de stationnement non payée) à ne pas signaler des crimes plus graves à la police.

Insensibilité artificielle

Le problème de la vie privée est si urgent que la tromperie des détecteurs d’émotion fait même l’objet de recherches scientifiques. Par exemple, des scientifiques à Londres ont mis au point une technologie qui protège la vie privée et supprime les sentiments de la voix humaine. Le résultat est un assistant vocal équipé d’une technologie de détection des émotions qui peut comprendre le sens de ce qui est dit mais n’interprète pas l’humeur de l’orateur.

Fixer des limites à l’IA rend certainement difficile le développement de l’empathie dans les systèmes d’IA qui sont encore sujets à des erreurs. Mais il est bon d’avoir une certaine protection au cas où ce système deviendrait réalité après tout et où les machines renifleraient trop profondément dans son subconscient. Après tout, il ne faut pas s’attendre à ce que la détection des émotions soit écartée, d’autant plus que la technologie fait effectivement du bon travail dans certains domaines.