Tech&Co Intelligence artificielle
Intelligence artificielle

Avec la victoire de Donald Trump, l'intelligence artificielle va-t-elle devenir plus dangereuse?

placeholder video
Le futur président des Etats-Unis a répété à de nombreuses reprises sa volonté de déréguler l'IA. Un choix risqué pour de nombreux experts en cybersécurité.

Cryptomonnaies à foison, amitié avec Elon Musk... Ces derniers mois, Donald Trump a multiplié les signaux et les déclarations pour rallier les figures de la tech à son camp. Et parmi ces nombreuses promesses, le futur président des Etats-Unis a régulièrement plaidé pour une régulation minimale de l'intelligence artificielle (IA) qui infuse toutes les entreprises de la Silicon Valley.

Abroger le "dangereux texte" de Joe Biden

En effet, le 19 juillet dernier, lors de la convention du Parti républicain, le milliardaire évoquait déjà une dérégulation complète du secteur pour atteindre un "nouvel âge d'or". Un passage que l'on retrouve dans son programme, qui promet d'abroger "le dangereux décret de Joe Biden, qui empêche l’innovation en IA et impose des idées de gauche radicale" sur le développement de cette technologie.

Ce texte, adopté en octobre 2023, vise à réguler le secteur. Il impose notamment aux entreprises du secteur de l'IA de transmettre au gouvernement fédéral les résultats de leurs tests de sécurité quand leurs projets posent "un risque sérieux en termes de sécurité nationale, de sécurité économique nationale, ou de santé publique". Une façon d'assurer la surveillance gouvernementale sur l’industrie de l’IA en pleine expansion pour les démocrates... Et une entrave au progrès pour les démocrates.

Pour remplacer ce décret, certains alliés de Donald Trump auraient préparé un nouveau texte. Comme le rapporte le Washington Post, le document prévoit de se "débarrasser des régulations trop lourdes et inutiles" ou encore de créer des agences "dirigées par les entreprises du secteur" pour évaluer les IA et de développer des IA militaires.

"Un signal alarmant"

Une proposition largement soutenue par des proches alliés de Trump, venus tout droit de la Silicon Valley comme Elon Musk ou Marc Andreessen, co-fondateur d'un puissant fonds d'investissement.

Mais les experts en cybersécurité sont d'un tout autre avis. "L’élimination des dispositions de sécurité et de sûreté du décret porterait atteinte à la fiabilité des modèles d’IA qui s’immiscent de plus en plus dans tous les aspects de la vie américaine, des transports et de la médecine à l’emploi et à la surveillance", insistent-ils auprès de Wired.

En effet, si ce texte est proposé puis adopté, les conséquences pourraient être lourdes. "Cela enverrait un signal alarmant", s'inquiète Michael Daniel, ancien conseiller présidentiel en matière de cybersécurité qui dirige désormais la Cyber ​​Threat Alliance, une organisation à but non-lucratif de partage d'informations.

Car comme le démontrent de nombreuses études, l'intelligence artificielle, qui souffre de nombreux biais, est loin d'être sans danger. Désinformation, risques de discrimination dans le recrutement et les soins de santé, risques sur la santé mentale... la liste des risques est longue. Depuis plusieurs mois, l'IA générative est par exemple utilisée pour créer des images pornographiques ou tromper des électeurs lors de grands rendez-vous politiques.

"L'IA recèle un immense potentiel, tant pour le bien que pour le mal. Il est essentiel de sécuriser les systèmes d'IA", insistait ainsi Doreen Bogdan-Martin, directrice de l'Union internationale des télécommunications (UIT) des Nations unies en mai dernier lors d'une conférence à Genève.

Vers un futur apocalyptique?

"Non seulement la mauvaise utilisation de l'IA menace la démocratie, mais elle met également en danger la santé mentale des jeunes et compromet la cybersécurité", prévenait cette fonctionnaire.

Autre risque, celui de la protection des données. Sans régulation, les entreprises de la tech seraient également libres de faire ce qu'elles veulent des données personnelles des utilisateurs. C'est sous la pression des régulateurs européens que Grok, l'intelligence artificielle d'Elon Musk, a cessé d'utiliser les publications sur X des Européens pour améliorer ses résultats.

Certains sont encore plus alarmistes et craignent un futur apocalyptique si l'IA n'est pas régulée. C'est par exemple le cas de Geoffrey Hinton, prix Nobel de physique 2024. En octobre dernier, le chercheur précisait que si l'IA pouvait permettre d'améliorer les conditions de vie et de travail, "elle pourrait bien nous enlever plus que ça."

Dans un article du New York Times en 2023, il dénonçait déjà les "profonds risques pour la société et l’humanité" dus à l’intelligence artificielle: suppressions d’emplois, utilisation par des acteurs malveillants et même des robots meurtriers.

Des arguments réfutés en bloc par le camp républicain. "Il n’existe pas vraiment de preuves massives de problèmes de discrimination liés à l’IA", lance Jacob Helberg, un dirigeant du secteur technologique et passionné d'IA surnommé le "chuchoteur de Trump dans la Silicon Valley.

Salomé Ferraris