Tech&Co Intelligence artificielle
Intelligence artificielle

"Exigeons une pause IA": quand des citoyens et des ingénieurs veulent encadrer l'IA

L'association Pause IA a organisé un forum à Paris pour inciter à freiner le développement de l'intelligence artificielle et créer un cadre pour la contrôler.

L'association Pause IA a organisé un forum à Paris pour inciter à freiner le développement de l'intelligence artificielle et créer un cadre pour la contrôler. - Pause IA

L’intelligence artificielle suscite un engouement qui se diffuse partout dans la société. Partout? Pas vraiment. L'association Pause IA milite pour un encadrement de secteur en plein essor.

Le mois de février a été celui de l'intelligence artificielle. Tout le monde a parlé du Sommet pour l’action sur l’intelligence artificielle, organisé à Paris par la France. Mais dans son ombre, d'autres événements ont eu lieu. Parmi eux, le Forum des solutions pour le contrôle de l'IA, organisé par l'association Pause IA, au Learning Planet Institute.

Dans cette annexe de l’Université Paris-Cité, différentes associations, des experts de l’intelligence artificielle, des chercheurs et des membres de la société civile se sont donné rendez-vous pour donner des conférences, discuter des thématiques d'actualité et sensibiliser l’opinion publique aux enjeux de l’intelligence artificielle.

"On savait que la France devait organiser un sommet sur l’IA qui devait à la base s'appeler Sommet de la sécurité de l’IA mais qui est devenu ensuite Sommet de l’action pour l’IA", explique Ludwig Iguedjtal-Buisson, l'organisateur du forum et directeur marketing de Pause IA.

"On a trouvé ça un peu dommage et on a décidé de sensibiliser les gens de notre événement sur les risques que comportent les IA les plus perfectionnées."
Le bilan du sommet de l'IA – 13/02
Le bilan du sommet de l'IA – 13/02
26:05

Des menaces plurielles

Parmi les menaces évoquées par les organisateurs, une variété de problématiques, allant des risques du chômage de masse à la prolifération incontrôlée de virus informatiques ou d’agents biologiques.

"L’IA est très forte pour comprendre la formation des protéines. Associée à des technologies comme Crispr, les ciseaux pour découper de l’ADN, l’intelligence artificielle pourrait permettre de créer des virus ou des bactéries sur mesure, à la fois mortelle et très contagieuse", s'inquiète Ludwig Iguedjtal-Buisson.

"Sur le hacking, les modèles de langage commencent à être aussi bons, voire meilleurs que la majorité des codeurs", précise-t-il.

"Donc quand on peut créer un agent IA meilleur que des programmeurs, il va trouver des failles et potentiellement causer du tort à des infrastructures ou des personnes."

Sachant que le coût mondial de la cybercriminalité a dépassé les 8.000 milliards de dollars en 2023, on peut imaginer qu’avec de tels outils entre de mauvaises mains, cela ne fera qu'augmenter dans les prochaines années.

"L'IA peut neutraliser son instructeur"

Un autre risque pointé par Pause IA a été très discuté pendant le forum: le désalignement.

"La perte d’alignement c’est quand on assigne un objectif à une machine et qu’elle fait des choses malveillantes ou imprévues pour arriver à cet objectif."

Avec le développement d’armes autonomes, c’est-à-dire administrées par IA et avec peu de prise de décision humaine, il peut y avoir des pertes d’alignement inquiétantes. "Les armes autonomes peuvent en effet se rendre compte que les instructeurs qui les entraînent sont un frein à l’élimination de cibles et peuvent se mettre à bloquer les communications avec eux ou à les neutraliser", explique Ludwig Iguedjtal-Buisson.

Un cadre pour garder le contrôle

Si la menace décrite est alarmante, aucune des résolutions proposées par Pause IA ne va pour autant dans le sens d’une interdiction totale de l’intelligence artificielle. Comme son nom l'indique, elle exige plutôt une "pause" dans la course effrénée à l'intelligence artificielle.

"Nous, on n'est pas technophobes, on pense que l'IA peut faciliter le travail dans beaucoup de domaines mais il faut un cadre pour éviter qu’on en perde le contrôle."

L'association propose donc un moratoire sur les modèles de langage dépassant ChatGPT-4 et veulent l’établissement d’une agence internationale de l’IA, proche de ce qui se fait sur l’énergie atomique. À ce titre, les membres de Pause IA considèrent que la tentative d’un cadre légal en Californie avec le SB1047, une loi imposant des normes au secteur de l’intelligence artificielle, est une bonne chose.

Le chemin avant l'émergence d’un cadre légal global leur semble lointain, mais quand on interroge Ludwig Iguedjtal-Buisson sur la signature par 60 pays d’un accord pour une IA "éthique", il se réjouit que "chaque petite victoire, chaque traité ou appel est une chose positive, si les preneurs de décisions comprennent les enjeux, c’est positif".

Lucien D'Armagnac de Castanet