BFM Business

Intelligence artificielle: comment la Cnil veut rassurer les Français

Face à l'intelligence artificielle, "comment permettre à l’homme de garder la main?". C'est le titre du rapport qui a été dévoilée par Isabelle Falque-Pierrotin, présidente de la Cnil.

Face à l'intelligence artificielle, "comment permettre à l’homme de garder la main?". C'est le titre du rapport qui a été dévoilée par Isabelle Falque-Pierrotin, présidente de la Cnil. - Éric Piermont - AFP

La Commission nationale de l'informatique et des libertés (Cnil) a présenté son rapport sur l'éthique et l'intelligence artificielle. Une démarche soutenue par Mounir Mahjoubi, secrétaire d’État au Numérique et le député Cédric Villani, qui a été chargé par le gouvernement d’une mission sur l’IA.

Elon Musk, Bill Gates et Stephen Hawking observent l’intelligence artificielle avec méfiance, et ils ne sont pas les seuls. Selon une étude OpinionWay pour VMWare, les Français aussi ont peur des algorithmes. Consciente de cela, la Cnil a rédigé un rapport titré "Comment permettre à l’homme de garder la main?". Ce document de 75 pages, qui a été présenté au public ce vendredi, est la synthèse des 45 rencontres organisées par la commission en 2017 qui ont permis d’identifier les inquiétudes des Français et leur perception des technologies.

Soutenue par Mounir Mahjoubi, secrétaire d’État au numérique, et le député mathématicien Cédric Villani, qui a été chargé par le gouvernement d’une mission sur l’IA, cette démarche vise, selon la Cnil, "à sensibiliser développeurs, entreprises et utilisateurs sur les enjeux éthiques". "Le grand public a pris conscience des algorithmes et a ressenti un malaise face aux possibilités apportées par l’intelligence artificielle", constate Isabelle Falque-Pierrotin, présidente de la Cnil, qui estime que cette défiance repose sur une incompréhension.

Appliquer deux principes: loyauté et vigilance

Dans son rapport, la Cnil donne une définition des algorithmes pour simplifier l'approche. C’est "une suite finie et non ambiguë d'instructions permettant d'aboutir [...] à des résultats sur un moteur de recherche, proposer un diagnostic médical, conduire une voiture d'un point à un autre, détecter des suspects de fraude parmi les allocataires de prestations sociales". Rien que ça!

Quant à l’intelligence artificielle, c’est "une nouvelle classe d'algorithmes", paramétrés non pas par des humains, mais par la machine qui apprend des données qui lui sont fournies. "Leur logique reste incompréhensible et opaque, y compris à ceux qui les construisent", admet néanmoins la Commission qui propose de soumettre l’IA à deux principes: loyauté et vigilance. "Un algorithme doit tenir sa promesse sans nuire à la communauté et, même si les objets connectés doivent susciter la confiance, les utilisateurs doivent rester vigilants".

Cédric Villani: "Sans éthique, l'IA peut être destructrice"

Pour Mounir Mahjoubi, "ce rapport doit influencer le débat public". Rappelant que selon le baromètre du numérique 2017, "52% des Français ne savent pas ce qu’est un algorithme", le secrétaire d’État estime qu’il faut impérativement définir "une vision à la Française du numérique entre performance et humanité". "L’évolution ne peut se faire sans éthique", estime Mounir Mahjoubi.

Quant à Cédric Villani, si l’apprentissage du code n’est pas une fin en soi, elle peut être nécessaire pour démystifier les technologies. "Il n’y a pas de définition précise de l’intelligence artificielle, c’est un ensemble de techniques qui permet de dépasser les compétences humaines". Il admet néanmoins que si l’IA peut aider l’homme à bâtir, "sans éthique elle peut être destructrice et nous avons besoin d’inclusion et de loyauté".

Faudra-t-il s’inspirer pour l'IA des trois lois d’Asimov, l'auteur de romans de science-fiction, qui régissent le comportement des robots? "Ces règles tiennent du roman et sont impossibles à transposer dans la réalité", a répondu le lauréat de la médaille Fields à BFMBusiness.com. Mais il admet tout de même "qu'elles peuvent nous guider". Pour réguler l'IA comme le proposait récemment Elon Musk?

Les trois lois de la robotique d'Isaac Asimov

  1. Un robot ne peut porter atteinte à un être humain, ni en restant passif, permettre qu'un être humain soit exposé au danger ;
  2. Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
  3. Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la première ou la deuxième loi.
https://twitter.com/PascalSamama Pascal Samama Journaliste BFM Éco