Divers

L'IA n'est pas douée pour détecter les menteurs à travers leurs expressions faciales

L'IA n'est pas douée pour détecter les menteurs à travers leurs expressions faciales

Les technologies sont de plus en plus utilisées pour façonner les politiques publiques, les entreprises et la vie des gens. Les juges des tribunaux d'Amnesty International aident à décider des peines des criminels et l'IA est utilisée pour attraper les suspects de meurtre et même pour façonner votre police d'assurance.

C'est pourquoi le fait que les ordinateurs ne sont pas doués pour détecter les mensonges devrait être un problème.

Des chercheurs de l'USC Institute for Creative Technologies ont récemment mis à l'épreuve la capacité de l'IA pour la détection de mensonges, et les résultats des tests laissent beaucoup à désirer.

CONNEXES: LES IA CONTINUENT À AGIR DE FAÇON IMPRÉVISIBLE, SI NOUS PANIQUEZ

Mettre les algorithmes à l'épreuve

L'équipe de recherche de l'USC Institute for Creative Technologies a récemment testé des algorithmes à l'aide de tests de base pour les détecteurs de vérité et a constaté que les IA échouaient à ces tests.

Tout d'abord, l'équipe a abordé le fait que nos expressions faciales pourraient ne pas révéler autant ce que nous pensons que les gens le croient:

«Les personnes et les algorithmes de« lecture des émotions »reposent sur une sagesse populaire selon laquelle nos émotions sont écrites sur notre visage», a déclaré Jonathan Gratch, directeur de la recherche humaine virtuelle à ICT dans un communiqué de presse.

«C'est loin d'être la vérité. Les gens sourient lorsqu'ils sont en colère ou bouleversés, ils masquent leurs vrais sentiments, et de nombreuses expressions n'ont rien à voir avec des sentiments intérieurs, mais reflètent des conventions conversationnelles ou culturelles.

Gratch et ses collègues ont présenté leurs résultats de recherche lors de la 8e conférence internationale d'hier sur l'informatique affective et l'interaction intelligente à Cambridge, en Angleterre.

Lecture de la duplicité

Bien sûr, nous savons tous que les gens peuvent mentir sans en montrer des signes évidents sur leur visage. Prenons l'exemple de votre politicien moyen - cela est pratiquement une exigence du poste.

Les gens expriment souvent le contraire de ce qu'ils ressentent pour s'en tenir aux conventions ou pour tromper carrément quelqu'un.

Le problème est que les algorithmes ne captent pas si bien cette duplicité, malgré le fait qu'ils sont de plus en plus utilisés pour lire les émotions humaines.

Les algorithmes sont aujourd'hui utilisés dans les groupes de discussion, les campagnes de marketing, pour la sélection des demandeurs de prêt ou pour l'embauche de personnes pour des emplois. Le département de la sécurité intérieure investit même dans ces types d'algorithmes pour prédire les menaces nationales potentielles.

«Nous essayons de saper le point de vue de la psychologie populaire selon lequel les gens ont que si nous pouvions reconnaître les expressions faciales des gens, nous pourrions dire ce qu'ils pensent», a déclaré Gratch, qui travaille également comme professeur de psychologie.

«Nous utilisons des hypothèses naïves sur ces techniques car il n'y a pas d'association entre les expressions et ce que les gens ressentent vraiment sur la base de ces tests.

Comment l'ont-ils prouvé?

Gratch et Su Lei et Rens Hoegen à ICT, avec Brian Parkinson et Danielle Shore de l'Université d'Oxford, ont réalisé un examen des expressions faciales spontanées dans différentes situations sociales.

Dans une étude, l'équipe a utilisé un jeu qu'elle a conçu dans lequel 700 personnes joué pour de l'argent. Pendant que les sujets jouaient, ils ont capturé l'impact des expressions des gens sur leurs décisions ainsi que la somme d'argent qu'ils ont gagnée.

Ensuite, l'équipe de recherche a demandé aux sujets de répondre à des questions sur leur comportement. Par exemple, ils ont demandé aux sujets s'ils bluffaient souvent, s'ils utilisaient des expressions faciales pour obtenir un avantage et si leurs expressions correspondaient à leurs sentiments.

L'équipe a ensuite examiné les relations entre les expressions faciales spontanées et les moments clés du match. Les sourires étaient l'expression faciale la plus courante, indépendamment de ce que ressentaient réellement les participants. Les joueurs étaient également assez inexacts dans la lecture des émotions des autres.

"Ces découvertes soulignent les limites de l'utilisation de la technologie pour prédire les sentiments et les intentions", a déclaré Gratch. "Lorsque les entreprises et les gouvernements revendiquent ces capacités, l'acheteur doit se méfier car souvent ces techniques intègrent des hypothèses simplistes qui n'ont pas été testées scientifiquement."

Les algorithmes de lecture des émotions couramment utilisés décontextualisent généralement ce qu'ils regardent, affirment les chercheurs.

Il semble que la détection de mensonges dans l'IA soit loin d'être généralisée.


Voir la vidéo: Comment gérer le regard des autres? (Décembre 2021).