Accéder au contenu principal

Micro-expressions à la sauce stress post-traumatique accompagné de son filet de buzz Poutine


Derrière cette métaphore culinaire se cache une histoire assez marrante. Passionné de communication non-verbale et de psychologie du mensonge que je suis, je garde toujours un œil sur l'actualité concernant ces deux domaines. Et voici que je tombe sur un article du Kyiv Post, un journal ukrainien, intitulé « New technique shows Putin lying about MH17 » soit (trad. Pers.) « Une nouvelle technique démontre que Poutine à menti à propos du MH17 ».
Une histoire de mensonge, une technique qui permet de le détecter, un président à la réputation sulfureuse qui serait impliqué... Vous pensez sérieusement que j'ai hésité avant de cliquer ?!
Mais commençons par le commencement. Poutine, l'actuelle président de la Russie, je ne devrais pas avoir besoin de vous le présenter. En revanche cette histoire de MH17, qu'est-ce donc ? MH17, c'est le code AITA (Association Internationale du Transport Aérien), une sorte numéro d'immatriculation, d'un Boeing 777-220ER qui effectuait le vol 17 de Malaysia Airlines joignant Amsterdam à Kuala Lumpur. Cet avion civil à été abattu le 17 juillet 2014 à 16h19 (heure locale, ce qui pour nous donne du 13h19) au-dessus de Donetsk, une région à l'Est de l'Ukraine. A cette époque effectivement, l'Ukraine en effet connaissait un conflit armé, qui n'est d'ailleurs pas terminé, nommé guerre de Dombass, entre l'armée ukrainienne et des ukrainiens séparatistes pro-russes, ce conflit même qui fit suite à un référendum local pour savoir si oui ou non la Crimée devait appartenir à la Russie. Lors du crash du MH17, les ukrainiens et les indépendantistes pro-russes s'accusent l'un l'autre d'avoir abattu l'avion. Au bout de quatre ans d'enquêtes internationales sur cette affaire conclura que le missile Buk venait de la 53ème brigade de défense anti-aérienne (bien que ce point fasse controverse, il semblerait que l'accusation des forces pro-russes ait plus de poids que l'accusation des forces ukrainienne, voir le billet de Bellingcat à ce propos)
Maintenant que vous avez le contexte, de quoi parle exactement l'article du Kyiv Post ? Est relaté comment un ancien officier de la Navy, Aaron Brodsky, à fait la démonstration d'une technologie de détection du mensonge sur une vidéo d'interview de Poutine. Ce la s'est fait à une rencontre public organisé par le think tank American Foreign Policy Council, le 16 juillet à Washington. Brodsky travaille actuellement dans une société, Future Life, qui développe des technologie de détection du mensonge, le logiciel Face2face. Ce logiciel analyse les expressions faciales en les classant parmi les six émotions fondamentales (colère, joie, tristesse, peur, dégoût, surprise) grâce à une intelligence artificielle ainsi qu'en repérant les signe de répression du stress (à partir de l'expérience de psychiatres selon l'article). Les expressions faciales sont analysées tout les 1/15ème de seconde soit toute les 66 millisecondes. J'espère qu'à ce stade la caméra est adaptée. Cette technologie permettrait d'établir une « empreinte émotionnelle » de la personne, sous forme de graphes colorés, chaque couleur correspondant à une émotion. Brodsky n'est d'ailleurs pas avare de compliments, expliquant que son logiciel peut détecter le mensonge avec succès avec un ratio de « 999 sur 1000 » (affirmation sur laquelle je reviendrai plus tard).
Cependant, je note déjà plusieurs bémols :

Premièrement, les micro-expressions ne sont pas liées spécifiquement au mensonge, dans certaines études elles se sont manifestées aussi chez les sujets disant la vérité (Porter & ten Brinke 2008 ; ten Brinke & al, 2012, ten Brinke & Porter, 2012, Porter & al, 2012)  ! La seule exception à ce jour, est une étude de Matsumoto & Hwang (2018) où les sujets mentant à propos d'un acte délictuel future, montraient plus de micro-expressions faciales que les sujets ne mentent pas.
Deuxièmement, la vidéo est une vidéo youtube. Or, pour étudier des expressions faciales réelles, il est conseillé de filmer en haute-vitesse avec un nombre d'image par seconde de 60 minimum (mais 120 à 200 est généralement conseillé). Les caméras utilisée pour les interviews ne sont pas des caméras haute-vitesse, et la transition sur youtube aurait de toute manière diminuée le nombre d'image par seconde. Ça ne signifie pas qu'il est impossible de détecter un micro-expression sur youtube, celle-ci aurait pu être capté par hasard sur la bonne image des 24 images constituant une seconde de vidéo. Simplement, vu qu'il y a des trous entre ces images, il se peut que l'expression faciale est aussi durée pendant ces trous, finissant par avoir la durée d'une macro-expression. Pour illustrer ce point, je vous renvoi sur une vidéo, qui ne concerne d'ailleurs aucunement la communication non-verbale mais qui explique bien la chose. Dans cette vidéo de Maxestla, intitulée DUDE PERFECT ≠ FAKE (réponse à Tsukiyo ?) il analyse une tentative de debunkage de Tsukyo concernant une personne, Dude Perfect sur une tâche où il fait rebondir une balle sur la tête de son club de golf. Vers le time-code 2:15, il commence à expliquer pourquoi entre deux images, la balle semble flotter au-dessus de la tête du club, et ne jamais atterrir. En effet, avec un calcul il déduit la distance parcouru par la balle entre deux images et montre que le moment où la balle frappe la tête du club de golf se situe entre deux images et donc n'est simplement pas enregistré, et non qu'il s'agit d'un montage. De plus, il explique vers le time-code 3:00 que la compression vidéo de youtube est limitée à 60 FPS maximum. Techniquement, c'est le minimum syndicale considéré comme à peu près fiable par la communauté scientifique pour tenter de capter la présence de micro-expressions. On préférerait plus, car même à 60 images par secondes, celle-ci pourrait être entre deux images. La compression youtube est donc moins mauvaise que je ne l'imaginais, mais reste vraiment limite. Encore faut-il que la bande originale soit de 60 images par seconde, ce qui serait étonnant pour une simple interview, et ensuite que ceux qui l'ont postés sur youtube n'est pas fait le choix de la compresser à moins de 60 image par seconde ! Ce qui amène à un second problème, une partie des micro-expressions étaient peut-être produites entre deux images de la bande vidéo, et n'ont donc pas pu être enregistrées.
Ce qui nous amène à l'interprétation de celles-ci. Les micro-expressions (et les expressions faciales émotionnelles), dans le cadre de la théorie des émotions fondamentales, sont sensées indiquer qu'une émotion est indiquée, pas ce qui la provoque. Est-ce vraiment le mensonge ? Ici, ce qui est en cause ce serait des expressions furtives de colère et de mépris. Il mentirait donc sur le fait de ressentir ces émotions, en tentant de les masquer. Ce point là est défendable. Il mentirait donc sur le MH17. Ce point là l'est moins : la colère pourrait être dû à un sentiment d'injustice face à une accusation jugée injuste et le mépris est un sentiment d'être supérieur à autrui, qui pourrait être induit en percevant les interviewers comme des personnes cherchant simplement à faire du buzz sur un scandale au lieu de faire leur métier de journaliste de manière probe et honnête. Vous me direz : « tu te moque de nous ?! Tu as dis que le consensus internationale était que les pro-russes avaient abattus le MH17, donc forcément qu'il ment ! ». Ce à quoi je vous répondrai : quelque soit la véracité de ce fait, ces expressions faciales ne constituent toujours pas une preuve. Plusieurs scenarii sont possible : Poutine pourrait ne pas être au courant (scénario qui paraît improbable), Poutine pourrait être au courant, mais réagir de la même manière quand il est accusé à tort que lorsqu'il est accusé à raison (peut-être le simple fait d'être accusé constitue chez lui un déclencheur émotionnelle, le mettant en colère, et le faisant se sentir supérieur à son accusateur), Poutine pourrait aussi savoir la vérité, mais celle-ci pourrait ne pas correspondre aux reconstitutions établies par l'enquête internationale, ni aux hypothèses accusant les ukrainien. Pour toute ces raisons, les expressions faciales émotionnelles ne sont pas des preuves de mensonge, même si ce sont des micro-expressions, même si la personne tente de les cacher. Ce sont des indices que ce qui est dit, ou que ce que pense la personne à de l'importance pour elle, même si ce à quoi elle pense au même moment peut n'avoir aucun rapoort avec la question elle même ! C'est une invitation à creuser la question, sans présupposés, pour s'assurer Ceci illustre par ailleurs un biais de raisonnement néfaste dans le domaine de la détection du mensonge : Post hoc ergo propter hoc (= à la suite de cela donc à cause de cela). Cela consiste à observer un fait après un autre, et à en déduire un lien de causalité entre les deux. Ici, on à un enquête qui accuse les pro-russes d'avoir abattu un avion. Donc à priori, si quelqu'un sensé être au courant dit le contraire, on peut raisonnablement pensé qu'il ment. Si il ment, alors tout signe un peu étrange qu'il émettra sera sûrement un signe de mensonge. Hors, dans le cas où il mentirait, il pourrait le faire sans que son comportement dénote spécifiquement du mensonge. Et le problème, c'est que bien souvent dans des études de cas, on s'assure qu'à un moment T, ce que dit un sujet soit bien un mensonge, et qu'ensuite ont fasse l'inventaire de ce qui parait étrange et qu'on le classe comme « signe du mensonge ». Alors même que ces comportements auraient pu apparaître aussi dans des situation où le même sujet dit la vérité ! Simplement, ce cas de figure n'étant pas vérifié, on ne le sait pas. Et après, on finit avec des listes de signes du mensonges, des top 10 des gestes qui trahissent ce que votre interlocuteur pense tout bas, fondée sur une ou deux anecdotes. Et ici, en gros, après enquête, il s'avère que c'est les forces pro-russes qui ont abattue le MH17. Donc si Poutine contredit les résultats de son enquête, alors son comportement non-verbal ne peut-être que le fruit du mensonge (oubliant une possible alternative, que ce comportement soit commun aux situation d'accusation, qu'il mente ou qu'il dise la vérité).
Enfin, je dois noter qu'assez ironiquement, je suis tombé sur cet article du Kyiv Post le même jour que la parution d'un article de revue de Feldman Barrett & al (2019) remettant en cause l'utilité des mouvements faciaux pour déterminer qu'elle émotion ressent votre interlocuteur. Ce qui à lui tout seul, est un argument assez sérieux contre la technologie face2face. En effet, il y a deux prémisses de la détection du mensonge qui sont sérieusement débattue dans la recherche :
    1. le mensonge peut-être détecté à partir du comportement non-verbal : En réalité, la fiabilité du comportement non-verbal comme indicateur du mensonge n'est pas scientifiquement établie (Vrij, Hartwig & Granhag, 2019). Si des études en confirme l'utilité, de nombreuses autres ne trouvent rien. Il semble que les stratégies d'entretien et les indices verbaux soient plus fructueux dans cette entreprise. Vrij, Hartwig & Granhag (2019) notent toutefois que cela pourrait être dû au fait que les études sur le comportement non-verbal pourrait n'être pas encore assez fin et élaboré pour mettre à jour des indicateurs non-verbaux du mensonge. Tout n'est pas perdu, mais il faudra plus de recherche de meilleure qualité pour trouver des indicateurs non-verbaux fiables pour l 'évaluation de la crédibilité.
    2. Les expressions faciales universelles et les émotions fondamentales qu'elles expriment existent et exposent directement ce qui est ressenti : Ici, c'est tout une théorie qui est débattue, et il faudrait non pas un, mais plusieurs dossier pour en faire le tour. Mais disons que a) l'universalité des expressions faciales émotionnelles continue à être remise en cause par certaines études (par exemple, Crivelli, Russell, Jarillo & Fernández-Dols, 2016), b) que le problème de la cohérence faciale (une émotion = une expression) n'est pas résolu, et que l'on à depuis observer pas mal de cas ou des expressions faciales ne correspondait pas à une émotion, ni à la bonne émotion, mais aussi des cas ou une émotion ne se manifestait pas par une expression faciale (Durán, Reisenzein & Fernandez-Dols, 2017). Ce qui fait que d'autres théories concurrentes sont en lice.
Si la société Future Life tenait absolument à continuer sur cette voies, elle devrait au minimum prendre en compte les mouvements corporels, les fluctuation de la voie et les mouvements de la tête (Cowen, Sauter, Tracy & Keltner, 2019, publié dans le même numéro que Feldman Barrett & al 2019).

Soulignons aussi les commentaires de Aaron Bodsky sur Poutine, sa maîtrise de sa communication non-verbale, le faite de réprimer ses expressions faciales de colère et de mépris quasi-instantanément, ce qui lui permet de mettre en valeur son logiciel. Je ne me prononcerai pas plus là-dessus, n'ayant pas vu l'interview en question. Cependant il est à noter que Poutine est russe ce qui à son importance. En effet, dans la sphère public tout du moins, les individus russes sont ceux exerçant le plus de contrôle sur leur expressions faciales, plus par exemple que les japonais, pourtant réputés pour cela (Matsumoto, 2006). Cela pourrait expliquer en partie l'effet « poker face » de Poutine, qui teindrait en partie à une habitude culturelle.
Enfin, dernier point, Face2face lui-même. A l'origine, ce logiciel n'a pas été conçu pour la détection du mensonge. Il est utilisé durant les consultations psychologique avec les individus souffrant de PTSD, l'empreinte émotionnelle en fonction des 6 émotions de bases devant aider le clinicien à évaluer l'état du patient, ainsi que son évolution. Je n'ai rien trouvé concernant ce logiciel dans la recherche académique, signifiant qu'il n'y as pas eu d'essais publiés et vérifiés par la communauté scientifique sur sa fiabilité et son utilité. Si recherche il y a eu, elles ont été faites en interne, sans que le chercheur lambda puisse y accéder (d'ailleurs, l'utilisation spécifique de Face2Face sur les sujets souffrant de PTSD à été testé par Alelio, en 2016, qui fait parti du staff, et dont le produit est une thèse non-publiée). Sur le site officiel de l'entreprise - http://www.futurelife.us/ - on remarque tout de même que Face2face est sensé pouvoir servir dans les domaine de la santé (comme vu plus haut), mais aussi dans l'évaluation de la crédibilité, les ressources humaine et le marketing. Sur ce site, un livre blanc – un document présentant un produit ou la philosophie d'une entreprise, d'une association sous forme de rapport ou de guide – est disponible (Future Life Inc, 2019). Ce document nous informe que l'entreprise fait fi des critiques actuelles sur l'universalité des émotions, et considère que les émotions fondamentales et leur expressions sont quasiment gravés dans notre ADN (ce qui est fortement contesté, voir Feldman Barrett & al, 2019). Elle donne une définition des micro-expressions comme une expressions durant 1/15e de secondes (ou 66 ms) là où le consensus scientifique considère que l'on peut commencer à parler de micro-expressions à partir de ½ seconde (ou 500 ms ; Matsumoto & Hwang, 2018) et que la durée moyenne d'une micro-expressions serait de 319,19 ms, avec comme seuil minimum 166,67 ms (Yan & al, 2013), ce qui est bien au-dessus des 66 ms de Face2face.
Le logiciel passerai par la construction d'un modèle 3D du visage filmé qu'il compare à la structure des expressions des six émotions de base et l'apparence du visage lorsqu'il est neutre (= ne montre pas de mouvements faciaux) atteignant ainsi entre 80 et 85% de réussite dans la reconnaissance des dites micro-expressions. Il semble effectivement que l'utilisation de la 3D puisse améliorer les performances de reconnaissance de expressions faciales mais combiné à une analyse de l'image 2D (Li & al, 2015). De plus logiciel intègre une reconnaissance et une classification des mouvements faciaux en fonction des critères du Facial Action Coding System, ce qui est plutôt une bonne idée pour le coup.
Concernant la détection du mensonge, il est possible d'avoir le résultats et la méthodologie dans un résumé d'une étude de 2018, toujours non-publiée dans une revue scientifique par d'Alélio. Dans ce papier (Future Life Inc, 2019), il est fait références aux échecs d'une étude de 2008 qui n'aurait trouvé que 1 sujets sur 3 seulement produisait de micro-expressions faciales émotionnelles et que les concernant, ces micro-expressions ne formaient que 2% de leur production faciale entière ! Une petite référence bibliographique n'aurait ici pas été de trop. L'étude dont ils parlent est celle de Porter & ten Brinke, 2008 que j'ai déjà citée ci-dessus. Une deuxième référence est faite à une étude qui à comparé des personnes suppliant qu'on leur rendent leur proche devant des caméra de télévision et dont la moitié étaient en réalité les meurtriers. Mais laquelle est-ce ? Ten Brinke & Porter (2012). Le résumé ne sépare même pas les deux résumés et ne donne pas la date, du coup si on lit trop vite (et même en lisant avec attention) on croit que les deux articles sont en fait une seule expérience. Enfin, il s'agit d'un résumé ventant les mérites d'un logiciel pour la détection du mensonge, pas d'un article scientifique. Ils pointent ensuite les problèmes de ces études :
    1. le fait que pour utiliser les micro-expressions faciales émotionnelles il faillent les filmer dans un contexte interactif, c'est-à-dire en fonction de la production de macro-expressions (expressions faciale d'une durée supérieure à 500 ms) et d'expressions subtile (en anglais, subtle expressions, mouvement faciaux isolés, bien qu'ici ils les définissent comme des mélangent de micro ou de macro-expression, ils auraient du parler alors d'expressions mixtes, qui peuvent comporter de subtle expressions certes, mais les subtle expressions peuvent aussi se manifester isolément, et non uniquement en plein milieu d'expressions faciales d'une autre émotion).
    2. Le fait que la plupart des analyses se font « à la mains » avec des codeurs humains et un temps de codage long. L'utilisation d'une intelligence artificielle pourrait permettre d'éviter les biais de subjectivité dans la mesure et effectuer cette mesure de l'activité faciale bien plus rapidement.
Avec la collaboration du Dr. Herr et de ses doctorants, tous au Interpersonnal Emotions Lab de l'American University de Washington, ils ont mit au point une expérience. Des étudiants étaient recrutés et devaient mentir ou non sur leur phobie ou leur non-phobie envers les serpents et les araignées. Ce qui donne quatre groupes de 10 sujets :

Phobique / réagit spontanément
Phobique / fais semblant de n'être pas phobique
Non-phobique / réagit spontanément
Non-phobique / fait semblant d'être phobique.

On leur montrait une vidéo de 2 minutes montrant des serpents et des araignées, et pour augmenter l'enjeu, on prétendait au sujet qu'après, il aurait à aller dans une salle adjacente pour tenir une tarentule. Leur visage était filmé par une caméra à haute définition puis analysée avec le logiciel Face2Face par le Dr. Alelio. Après analyse statistique, les résultats montraient que les les deux groupes réagissant spontanément montraient un nombre d'expression faciale de peur significativement différentes l'une de l'autre, mais aussi des deux groupes où le sujets devaient mentir :


      Le groupe montrant spontanément sa phobie (natrual fear, la faute est d'eux pas de moi) montre significativement plus d'expressions de peur que les trois autres groupes. Le groupe montrant spontanément qu'il n'est pas phobique (unafraid), montre significativement moins d'expressions faciales de peur que les trois autres groupes. Les deux groupes où les sujets devaient jouer la comédie montre un taux d'expression faciale de peur similaire. Future Life Inc, FACE2FACE Deception Detection Study #1: Fear, retrouvé le 25 juillet 2019 à : http://www.futurelife.us/files/131657479.pdf
Ce que montre de plus intéressant le graphique, c'est que les sujets devant mentir (les phobique qui devaient cacher leur peur et les non-phobique qui devaient faire semblant d'avoir peur) ont produit un taux d'expressions faciales de peur similaire. Chacune des valeurs étant obtenue avec une valeur de p de 0,001. Dit autrement, cela signifierait que ces résultats n'avaient qu'une chance sur mille d'être dû au hasard, soit 999 sur 1000 d'être une différence dû au fait de mentir ou non en fonction de si on est phobique ou non ! Mais ce 999 chance sur 1000 de détecter le mensonge de M. Brodsky, ne viendrait-il pas de là ? Ce serait malheureux, parce que ça signifierait soit qu'il n'as pas saisit ce que signifierait cette valeur de p (ce qui serait grave, surtout s'il l'utilise comme argument de vente) soit qu'il déforme honteusement une donnée (ce qui ferait de lui... un menteur). Il s'agit ici de 999 chances sur 1000 que le fait que chaque groupe se distingue ou non des autres par son taux d'expressions faciales soit dû à une différence réelle, et non au simple hasard. Ça ne signifie aucunement que ce logiciel a 999 chance sur 1000 : de discriminer quand le même sujet ment ou non (ce qui n'est pas testé, puisque chaque groupe à des sujets différents), qu'il distingue les expressions faciales spontanées des expressions faciales volontaires (ce qui n'est pas testé, puisqu'il s'agit juste de compter le nombre d'expressions faciales de peur)... A ce stade, on peut qualifier l'affirmation de Bodsky de fake news. Mais revenons à nos moutons. En fait c'est à peu près tout. Tout ce que ça montre, c'est qu'un phobique devant faire semblant de ne pas être effrayé échoue à montrer aussi peu d'expressions faciales de peur qu'un non-phobique, et qu'un non-phobique qui joue la comédie n'arrive pas à produire autant d'expressions faciale de peur qu'un vrai phobique. Passons maintenant à la critique :
    1. l'échantillon : 10 personnes par groupe c'est peu ! En règle général, on préférera avoir un minimum de 30 sujets par groupe, et si on atteint 90 ou plus, c'est le jackpot. Sinon le résultat d'un sujet montrant des résultats hors-norme risque de biaiser les résultats !
    2. Le type de sujet : Des étudiants ! Alors qu'on sait que la capacité à mentir varie selon la culture et même les expérience de vie ! Et des phobique dans le tas ! Genre, pour gonfler le résultat y a pas mieux. C'est presqu'un biais expérimental à lui tout seul ! En gros ce que dit cette expérience, c'est que les sujets phobiques arrivent à masquer une part significative des leurs expressions faciale de peur, mais pas toutes. Les non-phobiques arrivent à jouer la phobie, sans toutefois atteindre la prolifique production d'expression de peur d'un phobique.
    3. Le résultat : oui il est significatif, oui il à une valeur p de ,001. Mais n'oublions pas, on nous à promis que les micro-expressions et leur interactions en fonction des macro-expressions et des subtles expressions étaient la clé pour détecter le mensonge. Or, dans les résultats, on à juste la fréquence moyenne d'apparition des expressions faciale de peur, sans distinction entre les différents types (sachant qu'ils on analysé les expressions faciales de moins de 1s, soit un mélange de micro et de macro-expressions). Un peu comme s'ils avaient fait feu de tout bois juste pour gonfler les statistiques. A l'inverse, l'étude de Matsumoto & Hwang (2018) avait montrée des différences entre menteurs et ceux qui disent la vérité spécifiquement en fonction des micro-expressions (expressions de moins de 500 ms).
    4. Le design des groupes : On compare des groupes de personnes différentes, au lieu de comparer des personnes dans différentes situations. Du coup on ne peut écarter entièrement la possibilité que le logiciel, s'il devait comparer la même personne agissant spontanément ou jouant la comédie, permettrait une vrai discrimination des situations de mensonge, encore moins avec « une précision de 999 sur 1000 ». Que ce serait il passer si on avait ensuite demandé à un non-phobique jouant la peur, de faire une deuxième tâche ou il devait réagir spontanément à quelque chose qui lui fait peur ? Est-on sur qu'il n'aurait pas produit autant d'expressions de peur ?

Tout cela fait que si cette étude était répliquée plusieurs fois avec plus de sujets, je ne suis pas certain que les résultats seraient aussi tranchés. Cette expérience en réalité, en dit plus sur les différences entre individus phobiques et non-phobiques, que sur la différence entre personnes qui mentent ou qui réagissent spontanément. Une hypothèse alternative pourrait être simplement que les phobiques sont plus réactifs et expressifs, et donc, que pour d'autres émotions ou d'autres stimuli on aurait le même profil de fréquence d'expressions faciale. Ou alors que les phobiques sont en moyenne plus anxieux, et donc auraient sur-réagit par rapport à un groupe contrôle, même avec un stimuli effrayant non-spécifique à leur phobie.

Au final, beaucoup de vent, la démonstration d'une technologie sur un cas anecdotique, sans prise de risque puisque les suspicions pointent fortement dans une direction, à raison, un défaut de raisonnement faisant passer une corrélation pour une cause dans une sorte de raisonnement circulaire (il ment donc il montrera des signes particuliers de mensonge, des signes particuliers sont là, donc il ment), des déclarations abusives et mensongères et les fondations théoriques et empiriques de cette technologie qui paraissent assez fragile. Je ne doute pas que bien utilisée, cette sorte de technologie puisse être utile, mais je me désole de voir que des décisionnaires ou des personnes d'influences, ici un think tank, se fasse abuser, et finissent par promouvoir des outils inadapté ou non-aboutis, avec tout les risques que cela comporte lors de l'application de tels mesures.

Note de fin : Je viens d'apprendre ce matin que la Sécurité Sociale avait lancé un appel d'offre d'une valeur de 749,999 € hors-taxe (pour l'ensemble de la durée de formation, possiblement reconductible) pour une formation aux « techniques d'audition et/ou détection du mensonge. Il s'agit de former les agents à conduire des auditions, à détecter le mensonge dans les paroles et les écrits. Les formateurs recherchés devront avoir une bonne connaissance de la lutte contre la fraude et contre le traail dissimulé, des métiers de contrôle et d'Officier de police judiciaire. Les agents formé seraient ceux de l'Assurance Maladie, des caisses d'allocation familiale, de la caisse de retraite et de la branche accidents du travail et maladie professionnelle. Des sessions de 2 à 3 jours pour 8 à 12 personnes sont prévues. Sont abordés le langage du corps, les expressions faciales et l'analyse de la voix (voir l'article du Figaro). Selon comment c'est fait, ça pourra être productif ou contre-productif. L'idée de demander une formations sur plusieurs canaux de communication (non-verbal, verbal) et concernant les techniques d'auditions sont de bonnes idées. Ceci dit, une formation de 2 à 3 jours, c'est extrêmement court, et il faudrait un suivi par le formateur, et une supervision avec un retour sur la réussite ou non de la détection du mensonge par l'agent (en s'assurant après-coup que l'usager à menti) afin d'orienté ses efforts et d'améliorer ses compétences dans ce domaine.


Références :

  • Alelio (d'), W. A. Ph.D. 2016 Facial Micro-expression Analysis of Emotion in Support of Triage, Diagnosis, and Treatment of Post-Traumatic Stress Disorder. Non-publié
  • Bellingcat Investigating Team, (17 juillet 2019). JIT Indictments and Reactions: Analyzing New Evidence Linking Separatists and Russian Officials to MH17. Bellingcat. Consulté à : https://www.bellingcat.com/news/uk-and-europe/2019/07/17/jit-indictments-and-reactions-analyzing-new-evidence-linking-separatists-and-russian-officials-to-mh17/
  • Barrett, L. F., Adolphs, R., Marsella, S., Martinez, A. M., & Pollak, S. D. (2019). Emotional expressions reconsidered: Challenges to inferring emotion from human facial movements. Psychological Science in the Public Interest, 20(1), 1-68.
  • Cowen, A., Sauter, D., Tracy, J. L., & Keltner, D. (2019). Mapping the Passions: Toward a High-Dimensional Taxonomy of Emotional Experience and Expression. Psychological Science in the Public Interest, 20(1), 69-90.
  • Crivelli, C., Russell, J. A., Jarillo, S., & Fernández-Dols, J. M. (2016). The fear gasping face as a threat display in a Melanesian society. Proceedings of the National Academy of Sciences, 113(44), 12403-12407.
  • Durán, J. U. A. N. I., Reisenzein, R., & Fernández-Dols, J. M. (2017). Coherence between emotions and facial expressions. The science of facial expression, 107-129.
  • Future Life Inc (2019). FACE2FACE Deception Detection Study #1 : Fear. Retrouvé à : http://www.futurelife.us/files/131657479.pdf
  • Future Life Inc (2019). Future Life, Inc’s Artificial Intelligence Tool Face2Face The Rosetta Stone for People’s Deepest Emotions [White Paper]. Retrouvé le 24 juillet 2019 sur Future Life : http://www.futurelife.us/files/131586982.pdf
  • Krushelnycky, A. (19 juillet 2019). New technique shows Putin lying about MH17. Kyiv Post. Consulté à : https://www.kyivpost.com/ukraine-politics/new-technique-shows-putin-lying-about-mh17.html?cn-reloaded=1
  • Le Figaro (28/07/2019). Fraude : la Sécu veut former ses agents à repérer les assurés menteurs. Le Figaro. Consulté à : http://www.lefigaro.fr/social/fraude-la-secu-veut-former-ses-agents-a-reperer-les-assures-menteurs-20190728
  • Li, H., Ding, H., Huang, D., Wang, Y., Zhao, X., Morvan, J. M., & Chen, L. (2015). An efficient multimodal 2D+ 3D feature-based approach to automatic facial expression recognition. Computer Vision and Image Understanding, 140, 83-92.
  • [Maxesla] (18 mai 2018). DUDE PERFECT ≠ FAKE (réponse à Tsukiyo ?) [Video file]. Consulté à : https://www.youtube.com/watch?v=sxO40TPRHrY
  • Matsumoto, D. (2006). Culture and nonverbal behavior. Handbook of nonverbal communication, 219-235.
  • Porter, S., & ten Brinke, L. (2008). Reading between the lies: Identifying Concealed and Falsified Emotions in Universal Facial Expressions. Psychology Science, 19(5), 508-514 doi: 10.1111/j.1467-9280.2008.02116
  • Porter, S., ten Brinke, L., and Wallace, B. (2012). Secrets and lies: involuntary leakage in deceptive facial expressions as a function of emotional intensity. Journal of Nonverbal Behavior 36, 23– 37.
  • ten Brinke, L., Porter, S., and Baker, A. (2012). Darwin the detective: observable facial muscle contractions reveal emotional high-stakes lies. Evolution of Human Behavior. 33, 411–416. d
  • ten Brinke, L., and Porter, S. (2012). Cry me a river: identifying the behavioral consequences of extremely high-stakes interpersonal deception. Law and Human Behavior. 36,469–477.doi:10.1037/h0093929
  • Vrij, A., Hartwig, M., & Granhag, P. A. (2019). Reading lies: nonverbal communication and deception. Annual review of psychology, 70, 295-317.
  • Yan, W., Wu, Q., Liang, J., Chen, Y., & Fu, X. (2013). How fast are the leaked facial expressions: The duration of micro-expressions. Journal of Nonverbal Behavior, 37(4), 217-230. doi:10.1007/s10919-013-0159-8

Commentaires

Posts les plus consultés de ce blog

Mini-fail de la synergologie : la fente palpébrale

La synergologie se définit comme « la discipline qui permet de décrypter le fonctionnement de l'esprit humain à partir de la structure de son langage corporel afin d'offrir la communication la mieux adapté » (Turchet, 2015). Elle s’appuierait sur un « éthogramme » reliant des milliers de gestes, postures, expressions faciales, zone de démangeaison (visible par l'acte de se gratter) à des significations très précise. Je mets éthogramme entre des guillemets car il me semble qu'en éthologie, si un éthogramme est bien un répertoire de comportements se voulant le plus exhaustif possible, il s'y rajoute un description du contexte et éventuellement de la fonction de ces comportements se voulant le plus objectifs possible. Ainsi on ne parlera pas de l'immobilité tonique du rat (lorsqu'il se fige) comme d'une expression de la peur, mais comme un comportement lors d'une situation de danger. Dans un éthogramme, la boite noire (pensées et émotions) ne sont pas

Lillienfield, un modèle pour les sceptiques et les psychologues.

 L'article qui suit risque de prendre un ton plus personnel. Déjà je me sens particulièrement redevable par rapport à ce psychologue en particulier. De plus, cet article est écrit à la hâte. "A la hâte sans donner de nouvel depuis plusieurs mois!? C'est la meilleure !" Et vous auriez raison. Ce serait parfaitement justifié.  Mr, Scott Owen Lilienfield, est mort à 59 ans, d'un cancer du pancréas, le 30 septembre de l'année 2020. Né le 23 décembre 1960 dans le Queens, il était expert en dans les troubles de la personnalité . Notamment on lui doit des recherches sur le trouble de la personnalité psychopathique.  Finalement, on avait que des données en rapport avec la loi, sur les critères de la psychopathie (sauf les critères de Cleckley et Hare, qui peuvent tout de même recouvrir des réalités hors incarcérations). Lilienfield nous décomposera le trouble de la personnalité en trois axes: la dominance sans crainte , la tendance à la méchanceté , et l' impulsiv

Les mystèrieuses stats du bonheur : 1. La part génétique

Ce billet est le premier d'une série de trois article sur la formule des 50%-40%-10% d'influence - respectivement génétique, de choix d'activité et environnementales – sur le bonheur. La deuxième partie est ici . La troisième partie est en cours de rédaction. Le saviez-vous : 50% de votre bonheur dépend de vos gènes, 10% de vos conditions de vie et 40% de la manière dont vous décidez de conduire votre vie. C'est scientifique, ne discutez pas... Mais comment on le sais ? Et si c'était un de ces chiffres fantaisistes sortis de nulle part et ne servant que d'argument marketing ? Une sorte d'équivalent des seuls 10% du cerveau que nous utiliserions ? J'ai une bonne nouvelle, contrairement au 10% d'utilisation du cerveau, dont on n'a absolument jamais su d'où ça sortait, les pourcentages sur le bonheur viennent bien de quelque part. Plus précisément, ces chiffres sont ceux donnés par Sonja Lyubomirski dans sont ouvrage : The Ho