Derrière cette métaphore culinaire
se cache une histoire assez marrante. Passionné de communication
non-verbale et de psychologie du mensonge que je suis, je garde
toujours un œil sur l'actualité concernant ces deux domaines. Et
voici que je tombe sur un article du Kyiv Post, un journal ukrainien,
intitulé « New technique shows Putin lying about MH17 »
soit (trad. Pers.) « Une nouvelle technique démontre que
Poutine à menti à propos du MH17 ».
Une histoire de mensonge, une
technique qui permet de le détecter, un président à la réputation
sulfureuse qui serait impliqué... Vous pensez sérieusement que j'ai
hésité avant de cliquer ?!
Mais commençons par le
commencement. Poutine, l'actuelle président de la Russie, je ne
devrais pas avoir besoin de vous le présenter. En revanche cette
histoire de MH17, qu'est-ce donc ? MH17, c'est le code AITA
(Association Internationale du Transport Aérien), une sorte numéro
d'immatriculation, d'un Boeing 777-220ER qui effectuait le vol 17 de
Malaysia Airlines joignant Amsterdam à Kuala Lumpur. Cet avion civil
à été abattu le 17 juillet 2014 à 16h19 (heure locale, ce qui
pour nous donne du 13h19) au-dessus de Donetsk, une région à l'Est
de l'Ukraine. A cette époque effectivement, l'Ukraine en effet
connaissait un conflit armé, qui n'est d'ailleurs pas terminé,
nommé guerre de Dombass, entre l'armée ukrainienne et des
ukrainiens séparatistes pro-russes, ce conflit même qui fit suite à
un référendum local pour savoir si oui ou non la Crimée devait
appartenir à la Russie. Lors du crash du MH17, les ukrainiens et les
indépendantistes pro-russes s'accusent l'un l'autre d'avoir abattu
l'avion. Au bout de quatre ans d'enquêtes internationales sur cette
affaire conclura que le missile Buk venait de la 53ème brigade de
défense anti-aérienne (bien que ce point fasse controverse, il
semblerait que l'accusation des forces pro-russes ait plus de poids
que l'accusation des forces ukrainienne, voir le billet
de Bellingcat à ce propos)
Maintenant que vous avez le
contexte, de quoi parle exactement l'article du Kyiv Post ? Est
relaté comment un ancien officier de la Navy, Aaron Brodsky,
à fait la démonstration d'une technologie de détection du
mensonge sur une vidéo d'interview de Poutine. Ce la s'est fait
à une rencontre public organisé par le think tank American
Foreign Policy Council, le 16 juillet à Washington. Brodsky
travaille actuellement dans une société, Future Life, qui
développe des technologie de détection du mensonge, le logiciel
Face2face. Ce logiciel analyse les expressions faciales en les
classant parmi les six émotions fondamentales (colère, joie,
tristesse, peur, dégoût, surprise) grâce à une intelligence
artificielle ainsi qu'en repérant les signe de répression du stress
(à partir de l'expérience de psychiatres selon l'article). Les
expressions faciales sont analysées tout les 1/15ème de seconde
soit toute les 66 millisecondes. J'espère qu'à ce stade la
caméra est adaptée. Cette technologie permettrait d'établir une
« empreinte émotionnelle » de la personne, sous forme de
graphes colorés, chaque couleur correspondant à une émotion.
Brodsky n'est d'ailleurs pas avare de compliments, expliquant que son
logiciel peut détecter le mensonge avec succès avec un ratio de
« 999 sur 1000 » (affirmation
sur laquelle je reviendrai plus tard).
Cependant, je note déjà plusieurs
bémols :
Premièrement, les
micro-expressions ne sont pas liées spécifiquement au mensonge,
dans certaines études elles se sont manifestées aussi chez les
sujets disant la vérité (Porter & ten Brinke 2008 ;
ten Brinke & al, 2012, ten Brinke & Porter, 2012, Porter &
al, 2012) ! La seule exception à ce jour, est une étude de
Matsumoto & Hwang (2018) où les sujets mentant à propos d'un
acte délictuel future, montraient plus de micro-expressions faciales
que les sujets ne mentent pas.
Deuxièmement, la vidéo est une
vidéo youtube. Or, pour étudier des expressions faciales réelles,
il est conseillé de filmer en haute-vitesse avec un nombre
d'image par seconde de 60 minimum (mais 120 à 200 est généralement
conseillé). Les caméras utilisée pour les interviews ne sont
pas des caméras haute-vitesse, et la transition sur youtube aurait
de toute manière diminuée le nombre d'image par seconde. Ça ne
signifie pas qu'il est impossible de détecter un micro-expression
sur youtube, celle-ci aurait pu être capté par hasard sur la
bonne image des 24 images constituant une seconde de vidéo.
Simplement, vu qu'il y a des trous entre ces images, il se peut
que l'expression faciale est aussi durée pendant ces trous,
finissant par avoir la durée d'une macro-expression. Pour
illustrer ce point, je vous renvoi sur une vidéo, qui ne concerne
d'ailleurs aucunement la communication non-verbale mais qui explique
bien la chose. Dans cette vidéo de Maxestla, intitulée DUDE
PERFECT ≠ FAKE (réponse à Tsukiyo ?) il analyse une tentative
de debunkage de Tsukyo concernant une personne, Dude Perfect sur une
tâche où il fait rebondir une balle sur la tête de son club de
golf. Vers le time-code 2:15, il commence à expliquer pourquoi entre
deux images, la balle semble flotter au-dessus de la tête du club,
et ne jamais atterrir. En effet, avec un calcul il déduit la
distance parcouru par la balle entre deux images et montre que le
moment où la balle frappe la tête du club de golf se situe entre
deux images et donc n'est simplement pas enregistré, et non
qu'il s'agit d'un montage. De plus, il explique vers le time-code
3:00 que la compression vidéo de youtube est limitée à 60 FPS
maximum. Techniquement, c'est le minimum syndicale considéré comme
à peu près fiable par la communauté scientifique pour tenter de
capter la présence de micro-expressions. On préférerait plus, car
même à 60 images par secondes, celle-ci pourrait être entre deux
images. La compression youtube est donc moins mauvaise que je ne
l'imaginais, mais reste vraiment limite. Encore faut-il que la bande
originale soit de 60 images par seconde, ce qui serait étonnant pour
une simple interview, et ensuite que ceux qui l'ont postés sur
youtube n'est pas fait le choix de la compresser à moins de 60 image
par seconde ! Ce qui amène à un second problème, une
partie des micro-expressions étaient peut-être produites entre deux
images de la bande vidéo, et n'ont donc pas pu être enregistrées.
Ce qui nous amène à
l'interprétation de celles-ci. Les micro-expressions (et les
expressions faciales émotionnelles), dans le cadre de la théorie
des émotions fondamentales, sont sensées indiquer qu'une émotion
est indiquée, pas ce qui la provoque. Est-ce vraiment le mensonge ?
Ici, ce qui est en cause ce serait des expressions furtives de colère
et de mépris. Il mentirait donc sur le fait de ressentir ces
émotions, en tentant de les masquer. Ce point là est défendable.
Il mentirait donc sur le MH17. Ce point là l'est moins : la
colère pourrait être dû à un sentiment d'injustice face à une
accusation jugée injuste et le mépris est un sentiment d'être
supérieur à autrui, qui pourrait être induit en percevant les
interviewers comme des personnes cherchant simplement à faire du
buzz sur un scandale au lieu de faire leur métier de journaliste de
manière probe et honnête. Vous me direz : « tu te
moque de nous ?! Tu as dis que le consensus internationale était
que les pro-russes avaient abattus le MH17, donc forcément qu'il
ment ! ». Ce à quoi je vous répondrai : quelque
soit la véracité de ce fait, ces expressions faciales ne
constituent toujours pas une preuve. Plusieurs scenarii sont
possible : Poutine pourrait ne pas être au courant (scénario
qui paraît improbable), Poutine pourrait être au courant, mais
réagir de la même manière quand il est accusé à tort que
lorsqu'il est accusé à raison (peut-être le simple fait d'être
accusé constitue chez lui un déclencheur émotionnelle, le mettant
en colère, et le faisant se sentir supérieur à son accusateur),
Poutine pourrait aussi savoir la vérité, mais celle-ci pourrait ne
pas correspondre aux reconstitutions établies par l'enquête
internationale, ni aux hypothèses accusant les ukrainien. Pour toute
ces raisons, les expressions faciales émotionnelles ne sont pas
des preuves de mensonge, même si ce sont des micro-expressions, même
si la personne tente de les cacher. Ce sont des indices que ce
qui est dit, ou que ce que pense la personne à de l'importance pour
elle, même si ce à quoi elle pense au même moment peut n'avoir
aucun rapoort avec la question elle même ! C'est une
invitation à creuser la question, sans présupposés, pour s'assurer
Ceci illustre par ailleurs un biais de raisonnement néfaste dans le
domaine de la détection du mensonge : Post hoc ergo propter
hoc (= à la suite de cela donc à cause de cela). Cela consiste
à observer un fait après un autre, et à en déduire un lien de
causalité entre les deux. Ici, on à un enquête qui accuse les
pro-russes d'avoir abattu un avion. Donc à priori, si quelqu'un
sensé être au courant dit le contraire, on peut raisonnablement
pensé qu'il ment. Si il ment, alors tout signe un peu étrange qu'il
émettra sera sûrement un signe de mensonge. Hors, dans le cas où
il mentirait, il pourrait le faire sans que son comportement dénote
spécifiquement du mensonge. Et le problème, c'est que bien
souvent dans des études de cas, on s'assure qu'à un moment T, ce
que dit un sujet soit bien un mensonge, et qu'ensuite ont fasse
l'inventaire de ce qui parait étrange et qu'on le classe comme
« signe du mensonge ». Alors même que ces comportements
auraient pu apparaître aussi dans des situation où le même sujet
dit la vérité ! Simplement, ce cas de figure n'étant pas
vérifié, on ne le sait pas. Et après, on finit avec des listes de
signes du mensonges, des top 10 des gestes qui trahissent ce que
votre interlocuteur pense tout bas, fondée sur une ou deux
anecdotes. Et ici, en gros, après enquête, il s'avère que c'est
les forces pro-russes qui ont abattue le MH17. Donc si Poutine
contredit les résultats de son enquête, alors son comportement
non-verbal ne peut-être que le fruit du mensonge (oubliant une
possible alternative, que ce comportement soit commun aux
situation d'accusation, qu'il mente ou qu'il dise la vérité).
Enfin, je dois noter qu'assez
ironiquement, je suis tombé sur cet article du Kyiv Post le même
jour que la parution d'un article de revue de Feldman Barrett &
al (2019) remettant en cause l'utilité des mouvements faciaux pour
déterminer qu'elle émotion ressent votre interlocuteur. Ce qui à
lui tout seul, est un argument assez sérieux contre la technologie
face2face. En effet, il y a deux prémisses de la détection du
mensonge qui sont sérieusement débattue dans la recherche :
- le mensonge peut-être détecté à partir du comportement non-verbal : En réalité, la fiabilité du comportement non-verbal comme indicateur du mensonge n'est pas scientifiquement établie (Vrij, Hartwig & Granhag, 2019). Si des études en confirme l'utilité, de nombreuses autres ne trouvent rien. Il semble que les stratégies d'entretien et les indices verbaux soient plus fructueux dans cette entreprise. Vrij, Hartwig & Granhag (2019) notent toutefois que cela pourrait être dû au fait que les études sur le comportement non-verbal pourrait n'être pas encore assez fin et élaboré pour mettre à jour des indicateurs non-verbaux du mensonge. Tout n'est pas perdu, mais il faudra plus de recherche de meilleure qualité pour trouver des indicateurs non-verbaux fiables pour l 'évaluation de la crédibilité.
- Les expressions faciales universelles et les émotions fondamentales qu'elles expriment existent et exposent directement ce qui est ressenti : Ici, c'est tout une théorie qui est débattue, et il faudrait non pas un, mais plusieurs dossier pour en faire le tour. Mais disons que a) l'universalité des expressions faciales émotionnelles continue à être remise en cause par certaines études (par exemple, Crivelli, Russell, Jarillo & Fernández-Dols, 2016), b) que le problème de la cohérence faciale (une émotion = une expression) n'est pas résolu, et que l'on à depuis observer pas mal de cas ou des expressions faciales ne correspondait pas à une émotion, ni à la bonne émotion, mais aussi des cas ou une émotion ne se manifestait pas par une expression faciale (Durán, Reisenzein & Fernandez-Dols, 2017). Ce qui fait que d'autres théories concurrentes sont en lice.
Si la société Future Life tenait
absolument à continuer sur cette voies, elle devrait au minimum
prendre en compte les mouvements corporels, les fluctuation de la
voie et les mouvements de la tête (Cowen, Sauter, Tracy &
Keltner, 2019, publié dans le même numéro que Feldman Barrett &
al 2019).
Soulignons aussi les commentaires de
Aaron Bodsky sur Poutine, sa maîtrise de sa communication
non-verbale, le faite de réprimer ses expressions faciales de colère
et de mépris quasi-instantanément, ce qui lui permet de mettre
en valeur son logiciel. Je ne me prononcerai pas plus là-dessus,
n'ayant pas vu l'interview en question. Cependant il est à noter que
Poutine est russe ce qui à son importance. En effet, dans la sphère
public tout du moins, les individus russes sont ceux exerçant le
plus de contrôle sur leur expressions faciales, plus par exemple que
les japonais, pourtant réputés pour cela (Matsumoto, 2006). Cela
pourrait expliquer en partie l'effet « poker face » de
Poutine, qui teindrait en partie à une habitude culturelle.
Enfin, dernier point, Face2face
lui-même. A l'origine, ce logiciel n'a pas été conçu pour la
détection du mensonge. Il est utilisé durant les consultations
psychologique avec les individus souffrant de PTSD, l'empreinte
émotionnelle en fonction des 6 émotions de bases devant aider le
clinicien à évaluer l'état du patient, ainsi que son évolution.
Je n'ai rien trouvé concernant ce logiciel dans la recherche
académique, signifiant qu'il n'y as pas eu d'essais publiés et
vérifiés par la communauté scientifique sur sa fiabilité et son
utilité. Si recherche il y a eu, elles ont été faites en interne,
sans que le chercheur lambda puisse y accéder (d'ailleurs,
l'utilisation spécifique de Face2Face sur les sujets souffrant de
PTSD à été testé par Alelio, en 2016, qui fait parti du staff, et
dont le produit est une thèse non-publiée). Sur le site officiel de
l'entreprise - http://www.futurelife.us/
- on remarque tout de même que Face2face est sensé pouvoir servir
dans les domaine de la santé (comme vu plus haut), mais aussi dans
l'évaluation de la crédibilité, les ressources humaine et le
marketing. Sur ce site, un livre blanc – un document présentant un
produit ou la philosophie d'une entreprise, d'une association sous
forme de rapport ou de guide – est disponible (Future Life Inc,
2019). Ce document nous informe que l'entreprise fait fi des
critiques actuelles sur l'universalité des émotions, et considère
que les émotions fondamentales et leur expressions sont quasiment
gravés dans notre ADN (ce qui est fortement contesté, voir Feldman
Barrett & al, 2019). Elle donne une définition des
micro-expressions comme une expressions durant 1/15e de secondes (ou
66 ms) là où le consensus scientifique considère que l'on peut
commencer à parler de micro-expressions à partir de ½ seconde (ou
500 ms ; Matsumoto & Hwang, 2018) et que la durée
moyenne d'une micro-expressions serait de 319,19 ms, avec comme seuil
minimum 166,67 ms (Yan & al, 2013), ce qui est bien au-dessus
des 66 ms de Face2face.
Le logiciel passerai par la
construction d'un modèle 3D du visage filmé qu'il compare à la
structure des expressions des six émotions de base et l'apparence du
visage lorsqu'il est neutre (= ne montre pas de mouvements faciaux)
atteignant ainsi entre 80 et 85% de réussite dans la
reconnaissance des dites micro-expressions. Il semble effectivement
que l'utilisation de la 3D puisse améliorer les performances de
reconnaissance de expressions faciales mais combiné à une analyse
de l'image 2D (Li & al, 2015). De plus logiciel intègre une
reconnaissance et une classification des mouvements faciaux en
fonction des critères du Facial Action Coding System, ce qui est
plutôt une bonne idée pour le coup.
Concernant la détection du
mensonge, il est possible d'avoir le résultats et la méthodologie
dans un résumé d'une étude de 2018, toujours non-publiée dans une
revue scientifique par d'Alélio. Dans ce papier (Future Life Inc,
2019), il est fait références aux échecs d'une étude de 2008 qui
n'aurait trouvé que 1 sujets sur 3 seulement produisait de
micro-expressions faciales émotionnelles et que les concernant, ces
micro-expressions ne formaient que 2% de leur production faciale
entière ! Une petite référence bibliographique n'aurait ici
pas été de trop. L'étude dont ils parlent est celle de Porter &
ten Brinke, 2008 que j'ai déjà citée ci-dessus. Une deuxième
référence est faite à une étude qui à comparé des personnes
suppliant qu'on leur rendent leur proche devant des caméra de
télévision et dont la moitié étaient en réalité les meurtriers.
Mais laquelle est-ce ? Ten Brinke & Porter (2012). Le
résumé ne sépare même pas les deux résumés et ne donne pas la
date, du coup si on lit trop vite (et même en lisant avec attention)
on croit que les deux articles sont en fait une seule expérience.
Enfin, il s'agit d'un résumé ventant les mérites d'un logiciel
pour la détection du mensonge, pas d'un article scientifique. Ils
pointent ensuite les problèmes de ces études :
- le fait que pour utiliser les micro-expressions faciales émotionnelles il faillent les filmer dans un contexte interactif, c'est-à-dire en fonction de la production de macro-expressions (expressions faciale d'une durée supérieure à 500 ms) et d'expressions subtile (en anglais, subtle expressions, mouvement faciaux isolés, bien qu'ici ils les définissent comme des mélangent de micro ou de macro-expression, ils auraient du parler alors d'expressions mixtes, qui peuvent comporter de subtle expressions certes, mais les subtle expressions peuvent aussi se manifester isolément, et non uniquement en plein milieu d'expressions faciales d'une autre émotion).
- Le fait que la plupart des analyses se font « à la mains » avec des codeurs humains et un temps de codage long. L'utilisation d'une intelligence artificielle pourrait permettre d'éviter les biais de subjectivité dans la mesure et effectuer cette mesure de l'activité faciale bien plus rapidement.
Avec
la collaboration du Dr. Herr et de ses doctorants, tous au
Interpersonnal Emotions Lab de l'American University de Washington,
ils ont mit au point une expérience. Des
étudiants étaient recrutés et devaient mentir ou non sur leur
phobie ou leur non-phobie envers les serpents et les araignées.
Ce qui donne quatre
groupes de 10 sujets :
Phobique / réagit spontanément |
Phobique / fais semblant de n'être pas phobique |
Non-phobique / réagit spontanément |
Non-phobique / fait semblant d'être phobique. |
On
leur montrait une vidéo
de 2 minutes montrant des serpents et des araignées,
et pour augmenter l'enjeu, on prétendait
au sujet qu'après, il aurait à aller dans une salle adjacente pour
tenir une tarentule.
Leur visage était filmé par une caméra à haute définition puis
analysée avec le logiciel Face2Face par le Dr. Alelio. Après
analyse statistique, les résultats montraient que les les deux
groupes réagissant spontanément montraient un nombre d'expression
faciale de peur significativement différentes l'une de l'autre,
mais aussi des
deux groupes où le sujets devaient mentir :
Le
groupe montrant spontanément sa phobie (natrual fear, la faute est
d'eux pas de moi) montre significativement plus d'expressions de
peur que les trois autres groupes. Le groupe montrant spontanément
qu'il n'est pas phobique (unafraid), montre significativement moins
d'expressions faciales de peur que les trois autres groupes. Les
deux groupes où les sujets devaient jouer la comédie montre un
taux d'expression faciale de peur similaire. Future Life Inc,
FACE2FACE Deception Detection Study #1: Fear,
retrouvé le 25 juillet 2019 à :
http://www.futurelife.us/files/131657479.pdf
Ce
que montre de plus intéressant le graphique, c'est
que les sujets devant mentir
(les phobique qui devaient cacher leur peur et les non-phobique qui
devaient faire semblant d'avoir peur) ont
produit un taux d'expressions faciales de peur similaire.
Chacune des valeurs étant obtenue avec une valeur de p de 0,001. Dit
autrement, cela signifierait que ces résultats n'avaient qu'une
chance sur mille d'être dû au hasard, soit 999
sur 1000 d'être une différence
dû
au fait de mentir ou non en fonction de si on est phobique ou non !
Mais
ce 999 chance sur 1000 de détecter le mensonge de M. Brodsky, ne
viendrait-il pas de là ?
Ce serait malheureux, parce que ça signifierait soit qu'il n'as pas
saisit ce que signifierait cette valeur de p (ce qui serait grave,
surtout s'il l'utilise comme argument de vente) soit qu'il déforme
honteusement une donnée (ce qui ferait de lui... un menteur). Il
s'agit ici de
999 chances sur 1000 que le fait que chaque groupe se distingue ou
non des autres par son taux d'expressions faciales soit dû à une
différence réelle,
et non
au simple hasard.
Ça ne signifie aucunement que ce logiciel a 999 chance sur 1000 :
de discriminer quand le même sujet ment ou non (ce
qui n'est pas testé, puisque chaque groupe à des sujets
différents),
qu'il distingue les expressions faciales spontanées des expressions
faciales volontaires (ce
qui n'est pas testé, puisqu'il s'agit juste de compter le nombre
d'expressions faciales de peur)...
A ce stade, on peut qualifier l'affirmation de Bodsky de fake
news.
Mais revenons à nos moutons. En fait c'est à peu près tout. Tout
ce que ça montre, c'est qu'un phobique devant faire semblant de ne
pas être effrayé échoue à montrer aussi peu d'expressions
faciales de peur qu'un non-phobique, et qu'un non-phobique qui joue
la comédie n'arrive pas à produire autant d'expressions faciale de
peur qu'un vrai phobique. Passons maintenant à la critique :
- l'échantillon : 10 personnes par groupe c'est peu ! En règle général, on préférera avoir un minimum de 30 sujets par groupe, et si on atteint 90 ou plus, c'est le jackpot. Sinon le résultat d'un sujet montrant des résultats hors-norme risque de biaiser les résultats !
- Le type de sujet : Des étudiants ! Alors qu'on sait que la capacité à mentir varie selon la culture et même les expérience de vie ! Et des phobique dans le tas ! Genre, pour gonfler le résultat y a pas mieux. C'est presqu'un biais expérimental à lui tout seul ! En gros ce que dit cette expérience, c'est que les sujets phobiques arrivent à masquer une part significative des leurs expressions faciale de peur, mais pas toutes. Les non-phobiques arrivent à jouer la phobie, sans toutefois atteindre la prolifique production d'expression de peur d'un phobique.
- Le résultat : oui il est significatif, oui il à une valeur p de ,001. Mais n'oublions pas, on nous à promis que les micro-expressions et leur interactions en fonction des macro-expressions et des subtles expressions étaient la clé pour détecter le mensonge. Or, dans les résultats, on à juste la fréquence moyenne d'apparition des expressions faciale de peur, sans distinction entre les différents types (sachant qu'ils on analysé les expressions faciales de moins de 1s, soit un mélange de micro et de macro-expressions). Un peu comme s'ils avaient fait feu de tout bois juste pour gonfler les statistiques. A l'inverse, l'étude de Matsumoto & Hwang (2018) avait montrée des différences entre menteurs et ceux qui disent la vérité spécifiquement en fonction des micro-expressions (expressions de moins de 500 ms).
- Le design des groupes : On compare des groupes de personnes différentes, au lieu de comparer des personnes dans différentes situations. Du coup on ne peut écarter entièrement la possibilité que le logiciel, s'il devait comparer la même personne agissant spontanément ou jouant la comédie, permettrait une vrai discrimination des situations de mensonge, encore moins avec « une précision de 999 sur 1000 ». Que ce serait il passer si on avait ensuite demandé à un non-phobique jouant la peur, de faire une deuxième tâche ou il devait réagir spontanément à quelque chose qui lui fait peur ? Est-on sur qu'il n'aurait pas produit autant d'expressions de peur ?
Tout cela fait que si cette étude
était répliquée plusieurs fois avec plus de sujets, je ne suis pas
certain que les résultats seraient aussi tranchés. Cette expérience
en réalité, en dit plus sur les différences entre individus
phobiques et non-phobiques, que sur la différence entre personnes
qui mentent ou qui réagissent spontanément. Une hypothèse
alternative pourrait être simplement que les phobiques sont plus
réactifs et expressifs, et donc, que pour d'autres émotions ou
d'autres stimuli on aurait le même profil de fréquence
d'expressions faciale. Ou alors que les phobiques sont en moyenne
plus anxieux, et donc auraient sur-réagit par rapport à un groupe
contrôle, même avec un stimuli effrayant non-spécifique à leur
phobie.
Au final, beaucoup de vent, la
démonstration d'une technologie sur un cas anecdotique, sans prise
de risque puisque les suspicions pointent fortement dans une
direction, à raison, un défaut de raisonnement faisant passer une
corrélation pour une cause dans une sorte de raisonnement circulaire
(il ment donc il montrera des signes particuliers de mensonge, des
signes particuliers sont là, donc il ment), des déclarations
abusives et mensongères et les fondations théoriques et empiriques
de cette technologie qui paraissent assez fragile. Je ne doute pas
que bien utilisée, cette sorte de technologie puisse être utile,
mais je me désole de voir que des décisionnaires ou des personnes
d'influences, ici un think tank, se fasse abuser, et finissent par
promouvoir des outils inadapté ou non-aboutis, avec tout les risques
que cela comporte lors de l'application de tels mesures.
Note de fin : Je viens
d'apprendre ce matin que la Sécurité Sociale avait lancé un appel
d'offre d'une valeur de 749,999 € hors-taxe (pour l'ensemble de la
durée de formation, possiblement reconductible) pour une formation
aux « techniques d'audition et/ou détection du mensonge. Il
s'agit de former les agents à conduire des auditions, à détecter
le mensonge dans les paroles et les écrits. Les formateurs
recherchés devront avoir une bonne connaissance de la lutte contre
la fraude et contre le traail dissimulé, des métiers de contrôle
et d'Officier de police judiciaire. Les agents formé seraient ceux
de l'Assurance Maladie, des caisses d'allocation familiale, de la
caisse de retraite et de la branche accidents du travail et maladie
professionnelle. Des sessions de 2 à 3 jours pour 8 à 12 personnes
sont prévues. Sont abordés le langage du corps, les expressions
faciales et l'analyse de la voix (voir l'article
du Figaro). Selon comment c'est fait, ça pourra être productif
ou contre-productif. L'idée de demander une formations sur plusieurs
canaux de communication (non-verbal, verbal) et concernant les
techniques d'auditions sont de bonnes idées. Ceci dit, une formation
de 2 à 3 jours, c'est extrêmement court, et il faudrait un suivi
par le formateur, et une supervision avec un retour sur la réussite
ou non de la détection du mensonge par l'agent (en s'assurant
après-coup que l'usager à menti) afin d'orienté ses efforts et
d'améliorer ses compétences dans ce domaine.
Références :
- Alelio (d'), W. A. Ph.D. 2016 Facial Micro-expression Analysis of Emotion in Support of Triage, Diagnosis, and Treatment of Post-Traumatic Stress Disorder. Non-publié
- Bellingcat Investigating Team, (17 juillet 2019). JIT Indictments and Reactions: Analyzing New Evidence Linking Separatists and Russian Officials to MH17. Bellingcat. Consulté à : https://www.bellingcat.com/news/uk-and-europe/2019/07/17/jit-indictments-and-reactions-analyzing-new-evidence-linking-separatists-and-russian-officials-to-mh17/
- Barrett, L. F., Adolphs, R., Marsella, S., Martinez, A. M., & Pollak, S. D. (2019). Emotional expressions reconsidered: Challenges to inferring emotion from human facial movements. Psychological Science in the Public Interest, 20(1), 1-68.
- Cowen, A., Sauter, D., Tracy, J. L., & Keltner, D. (2019). Mapping the Passions: Toward a High-Dimensional Taxonomy of Emotional Experience and Expression. Psychological Science in the Public Interest, 20(1), 69-90.
- Crivelli, C., Russell, J. A., Jarillo, S., & Fernández-Dols, J. M. (2016). The fear gasping face as a threat display in a Melanesian society. Proceedings of the National Academy of Sciences, 113(44), 12403-12407.
- Durán, J. U. A. N. I., Reisenzein, R., & Fernández-Dols, J. M. (2017). Coherence between emotions and facial expressions. The science of facial expression, 107-129.
- Future Life Inc (2019). FACE2FACE Deception Detection Study #1 : Fear. Retrouvé à : http://www.futurelife.us/files/131657479.pdf
- Future Life Inc (2019). Future Life, Inc’s Artificial Intelligence Tool Face2Face The Rosetta Stone for People’s Deepest Emotions [White Paper]. Retrouvé le 24 juillet 2019 sur Future Life : http://www.futurelife.us/files/131586982.pdf
- Krushelnycky, A. (19 juillet 2019). New technique shows Putin lying about MH17. Kyiv Post. Consulté à : https://www.kyivpost.com/ukraine-politics/new-technique-shows-putin-lying-about-mh17.html?cn-reloaded=1
- Le Figaro (28/07/2019). Fraude : la Sécu veut former ses agents à repérer les assurés menteurs. Le Figaro. Consulté à : http://www.lefigaro.fr/social/fraude-la-secu-veut-former-ses-agents-a-reperer-les-assures-menteurs-20190728
- Li, H., Ding, H., Huang, D., Wang, Y., Zhao, X., Morvan, J. M., & Chen, L. (2015). An efficient multimodal 2D+ 3D feature-based approach to automatic facial expression recognition. Computer Vision and Image Understanding, 140, 83-92.
- [Maxesla] (18 mai 2018). DUDE PERFECT ≠ FAKE (réponse à Tsukiyo ?) [Video file]. Consulté à : https://www.youtube.com/watch?v=sxO40TPRHrY
- Matsumoto, D. (2006). Culture and nonverbal behavior. Handbook of nonverbal communication, 219-235.
- Porter, S., & ten Brinke, L. (2008). Reading between the lies: Identifying Concealed and Falsified Emotions in Universal Facial Expressions. Psychology Science, 19(5), 508-514 doi: 10.1111/j.1467-9280.2008.02116
- Porter, S., ten Brinke, L., and Wallace, B. (2012). Secrets and lies: involuntary leakage in deceptive facial expressions as a function of emotional intensity. Journal of Nonverbal Behavior 36, 23– 37.
- ten Brinke, L., Porter, S., and Baker, A. (2012). Darwin the detective: observable facial muscle contractions reveal emotional high-stakes lies. Evolution of Human Behavior. 33, 411–416. d
- ten Brinke, L., and Porter, S. (2012). Cry me a river: identifying the behavioral consequences of extremely high-stakes interpersonal deception. Law and Human Behavior. 36,469–477.doi:10.1037/h0093929
- Vrij, A., Hartwig, M., & Granhag, P. A. (2019). Reading lies: nonverbal communication and deception. Annual review of psychology, 70, 295-317.
- Yan, W., Wu, Q., Liang, J., Chen, Y., & Fu, X. (2013). How fast are the leaked facial expressions: The duration of micro-expressions. Journal of Nonverbal Behavior, 37(4), 217-230. doi:10.1007/s10919-013-0159-8
Commentaires
Enregistrer un commentaire