BFM Business

L'UE pose des limites à l'intelligence artificielle pour rassurer les Européens

Image d'illustration.

Image d'illustration. - Pixabay

Bruxelles doit dévoiler mercredi un projet de règlementation pour permettre à l'intelligence artificielle de se développer tout en apaisant les craintes.

Véhicules autonomes ou reconnaissance faciale, les systèmes d'intelligence artificielle fascinent autant qu'ils inquiètent. Bruxelles doit dévoiler mercredi après-midi un projet de règlementation pour faire la course en tête dans cette révolution industrielle, tout en rassurant les Européens. "Qu'il soit question d'agriculture de précision, de diagnostics médicaux plus fiables ou de conduite autonome sécurisée, l'intelligence artificielle nous ouvrira de nouveaux mondes. Mais ces mondes ont aussi besoin de règles", avait déclaré en septembre la présidente de la Commission européenne, Ursula von der Leyen.

L'exécutif européen, qui a fait du numérique une priorité, entend honorer la promesse de la présidente de placer "l'humain au centre" de son projet législatif. Bruxelles est convaincue que l'intelligence artificielle, et ses techniques d'automatisation à base de logiciels et de données, ne pourront se développer qu'en apaisant les craintes des Européens. L'UE a raté la révolution de l'internet grand public et ne possède aucun champion équivalent aux géants américains Google, Apple, Facebook, Amazon et Microsoft, les fameux Gafam, ou chinois Baidu, Alibaba, Tencent et Xiaomi.

Mais rien n'est perdu concernant la révolution provoquée par l'irruption massive de l'informatique dans les industries où l'Europe excelle comme les transports, l'agriculture ou le médical. Le projet de règlement, que l'AFP a pu consulter, prévoit d'interdire un nombre restreint d'utilisations qui menacent les droits fondamentaux. Seront prohibés les systèmes de "surveillance généralisée" de la population, ceux "utilisés pour manipuler le comportement, les opinions ou les décisions" des citoyens.

Des autorisations dérogatoires sont cependant prévues pour la lutte antiterroriste et la sécurité publique – les applications militaires ne sont pas concernées.

Pas de systèmes de notation citoyenne

Les peurs sont alimentées à la fois par des technologies non abouties, comme les véhicules autonomes, et les possibilités de contrôle des populations offertes aux régimes autoritaires. Les systèmes de notation citoyenne, comme ceux utilisés en Chine, seront notamment prohibés en Europe. Le texte prévoit d'introduire des tests de conformité aux normes européennes pour des applications jugées "à haut risque" avant leur arrivée sur le marché. Ces exigences viendront s'ajouter aux règles déjà existantes en matière de sécurité des produits.

Le projet, qui sera conjointement présenté par les commissaires à la Concurrence Margrethe Vestager et au Marché intérieur Thierry Breton, dresse une liste précise de ces applications sensibles. Une première catégorie, incluant "l'identification biométrique à distance des personnes dans les lieux publics" et les "éléments de sécurité dans des infrastructures publiques essentielles" se verra imposer des tests de conformité réalisés par une autorité tierce.

Une deuxième catégorie comprend notamment les systèmes de priorisation des services d'urgence, les outils utilisés pour le recrutement, pour déterminer l'accès à des institutions éducatives, ou encore pour évaluer la solvabilité des personnes. Leur conformité sera garantie par une auto-évaluation conduite par l'entreprise, sous le contrôle d'une autorité de surveillance. Les autres usages, considérés comme sans danger, ne se verront imposer quasiment aucune contrainte réglementaire supplémentaire. De lourdes amendes sont prévues pour les entreprises en infraction.

Un équilibre entre protection et innovation

Pour Alexandre de Streel, codirecteur du groupe de réflexion Center on Regulation in Europe (Cerre), il y a un équilibre difficile à trouver entre protection et innovation. Le cadre fixé est "relativement ouvert et tout dépendra de la façon dont il sera interprété" par la justice, estime l'expert redoutant un coup de frein aux efforts de recherche des PME. Les entreprises de technologies saluent en tout cas l'analyse par cas d'usage privilégiée par Bruxelles.

"L'Union européenne poursuit une approche fondée sur le risque pour réglementer l'intelligence artificielle. Ce serait une approche sage et stratégique", estime Christian Borggreen, vice-président du CCIA, un des lobbies du secteur numérique. Mais pour certains, le règlement ne va pas assez loin. "Il autorise encore certaines utilisations problématiques, comme la surveillance biométrique de masse. L'UE doit adopter une position plus ferme (...) et interdire la surveillance indiscriminée de la population sans autoriser d'exceptions", estime Orsolya Reich de l'ONG Liberties.

La nouvelle législation sera encore débattue durant des mois, notamment avec le Parlement européen et les 27 Etats membres, avant la mise en œuvre d'un texte définitif.

J. Br. avec AFP