De la Maison-Blanche à Bercy: l'IA est désormais sous pression politique

Quand les politiques se mêlent de l'intelligence artificielle. Ce 5 mai, le ministre de l'Economie Bruno Le Maire s'entretient avec le patron d'OpenAI, Sam Altman. Même tempo Outre-Atlantique: la vice-présidente des Etats-Unis Kamala Harris rencontre ce 4 mai des responsables de Google, Microsoft et OpenAI.
Des inquiétudes montent concernant des dérives observées de l'intelligence artificielle notamment sur l'utilisation et la réutilisation des données privées, le risque de désinformation ou encore les biais politiques de ces outils. Un chiffre partagé par le ministère de l'Economie français est d'ailleurs assez parlant: 90 milliards de dollars, c'est le montant de l'évaluation des résultats attendus des technologies l'IA dès 2025 contre 7 milliards en 2020.
Face à cette montée en puissance, l'administration Biden entend bien faire pression sur les entreprises pour que celles-ci mettent en place des mesures de protection autour de l'intelligence artificielle et qu'elles atténuent les dommages potentiels causés par les outils d'IA, rapporte Bloomberg.
Au programme ce 4 mai, "une discussion franche sur les risques que nous voyons tous dans le développement actuel et à court terme de l'IA, sur les actions visant à atténuer ces risques pour s'assurer que le peuple américain bénéficie des progrès de l'IA tout en étant protégé de ses effets néfastes", est-il indiqué dans l'invitation consultée par le média.
Se "préparer aux conséquences vertigineuses"
Le ministère du commerce américain avait par ailleurs indiqué qu'il envisageait une réglementation exigeant que les modèles d'IA soient soumis à un processus de certification avant d'être diffusés.
En France, début avril, le ministre de l'Economie Bruno Le Maire s'amusait à demander à ChatGPT de lui écrire un discours sur la Chine. Il a été étonné de constater un texte "intelligent et bien structuré". Au-delà de l'anecdote, il s'agit pour les politiques de comprendre les mécanismes de ces outils pour mieux les encadrer.
Le député européen Raphaël Glucksmann, dénonçait par exemple dans un tweet le 28 mars que "l’absence de cadre clair et le retard de la législation sur l’innovation feront de l’IA une menace pour nos démocraties et notre débat public. Aucune technologie n’est en soi bonne ou mauvaise, mais nous devons nous préparer aux conséquences vertigineuses de cette révolution".
Artificial Intelligence Act
Le gouvernement français a lancé en 2018 une stratégie nationale pour l'intelligence artificielle. Cette initiative a pour objectif de structurer l'écosystème et de faire de la France, une pionnière dans le domaine.
Mais c'est avant tout au niveau européen que tout se joue en ce moment avec l'Artificial Intelligence Act dont l'application est prévue pour 2025. Ce texte a pour objectif d'encadrer l'usage et la commercialisation des outils d'intelligence artificielle. La proposition de règlement présente quatre niveaux de protection allant de ce qui est interdit, en passant par ce qui est à haut risque, et ce qui est à moyen risque jusqu'à ce qui est autorisé.
De son côté, le commissaire européen au Marché de l’intérieur Thierry Breton veut préciser de façon obligatoire si des contenus sont générés par des IA.