BFM Tech

Les algorithmes peuvent-ils vraiment détecter un mensonge?

Un détecteur de mensonge dans le film Bad Times.

Un détecteur de mensonge dans le film Bad Times. - Bad Times

Un détecteur de mensonge basé sur les expressions faciales sera bientôt testé dans des aéroports européens. Ben Sobel, chercheur en droit et technologie à l’université de Harvard (Massachusetts), revient sur les questions soulevées par une telle initiative.

Aux frontières européennes seront bientôt postés des agents virtuels chargés de détecter les éventuels mensonges des entrants sur le territoire. Cette technologie, baptisée iBorderCtrl, a été dévoilée fin octobre par la Commission européenne. Dans un communiqué, l'institution précise qu'une intelligence artificielle étudiera les données liées au "genre, à l'appartenance ethnique et à la langue" des voyageurs interrogés, pour mieux cerner leurs réelles motivations, la nature des bagages transportés ou leur identité. Ben Sobel, chercheur en droit et technologie à l’université de Harvard (Massachusetts) et spécialiste des programmes de reconnaissance faciale, estime que chacun pourrait, à terme, être amené à s'adapter à ce type de technologies.

BFM Tech: Nombreux sont les programmes de reconnaissance faciale à même de tirer des conclusions à partir de caractéristiques physiques. Lesquels vous semblent les plus emblématiques ? 

Ben Sobel: Ces programmes ont désormais un certain succès auprès des autorités, tout en étant assez controversés. Deux d'entre eux ont particulièrement fait parler d'eux : l'un avait pour objectif d'analyser les traits du visage pour en déduire d'éventuelles prédispositions à la criminalité [Rekognition, la reconnaissance faciale d’Amazon, a identifié 28 membres du Congrès comme étant des criminels, ndlr]; l'autre, développé par des chercheurs de Stanford, entendait déduire l'orientation sexuelle d'une personne à partir d'une simple photo. Dans les deux cas, cela revient à partir du principe que certaines caractéristiques physiques conditionnent notre comportement, ce qui manque encore de fond pour la communauté scientifique.

Parler d'algorithmes revient souvent à évoquer les biais qu'ils comportent et perpétuent. Une étude du MIT avait prouvé que les logiciels de reconnaissance faciale étaient efficaces pour déterminer le genre d’une personne, à condition d’être un homme et d’avoir la peau blanche. Dans le cas d'iBorderCtrl, de quelle manière ces mêmes biais pourraient-ils avoir une incidence sur le contrôle des entrants dans l'Union européenne ? 

Une telle technologie pourrait avoir tendance à discriminer systématiquement certaines catégories de population au détriment d'autres. De manière générale, il faut rester très vigilant dès lors qu'on applique les mêmes algorithmes à des groupes de personnes différents. Et concernant les microexpressions caractéristiques du mensonge, il semble difficile de se procurer des bases de données d'une haute fiabilité à ce sujet.

D'autant plus que la Commission européenne précise qu'iBorderCtrl personnalisera ses questions en fonction "du genre, de l'appartenance ethnique et de la langue" du voyageur.

Oui, et pour être honnête, le projet reste encore très flou sur ce point pour lui accorder une grande crédibilité. Le fait que des personnes puissent mentir différemment en fonction de ces caractéristiques physiques devra être sérieusement prouvé avant de déployer une telle technologie. Il faudra faire en sorte que cette solution soit soumise à un audit et mette à profit des données de façon équitable, pour ne pas entraver cette liberté fondamentale qu'est celle de se déplacer.

Sollicité par le New Scientist, Maja Pantic, professeur en informatique comportementale à l'Imperial College de Londres, estime que les gens pourraient apprendre à "mentir différemment" face à iBorderCtrl. Les technologies de reconnaissance faciale étant de plus en plus présentes, faudra-t-il que l'on songe un jour à adopter de nouveaux comportements pour contourner leur influence ?

C'est très probable. Il y a un projet que je trouve fascinant à ce sujet : celui d'un jeune professeur à la New York University, qui avait établi des techniques de maquillage pour faire en sorte qu'un visage ne soit pas reconnu en tant qu'humain par un logiciel de reconnaissance faciale. Le projet, qui portait le nom de CV Dazzle, avait été lancé par un certain Adam Harvey. Un tel camouflage reste néanmoins peu commode dans la vie de tous les jours. J’imagine qu’à terme il y aura des moyens d’exploiter les points faibles des algorithmes pour tirer son épingle du jeu dans un large panel de situations. 

Ces techniques de maquillage permettent de rester incognito face à une caméra, moins face à un individu normalement constitué.
Ces techniques de maquillage permettent de rester incognito face à une caméra, moins face à un individu normalement constitué. © CV Dazzle
https://twitter.com/Elsa_Trujillo Elsa Trujillo Journaliste BFM Tech