La Californie vient d'adopter une loi sur l'intelligence artificielle, qui doit "encourager l’innovation et protéger la sécurité publique"

Le gouverneur de Californie, Gavin Newsom, présente un projet de loi signé relatif au redécoupage des cartes du Congrès de l'État, le 21 août 2025 à Sacramento, en Californie (image d'illustration). - JUSTIN SULLIVAN (AFP)
La Silicon Valley fait désormais face à un cadre légal inédit pour encadrer les risques liés à l’intelligence artificielle. Le gouverneur de Californie, Gavin Newsom, a promulgué le 29 septembre la loi "SB 53", présentée comme un compromis entre "encouragement à l’innovation et protection de la sécurité publique".
Elle impose ainsi aux entreprises développant les modèles les plus avancés d'intelligence artificielle des obligations de transparence inédites : publication des protocoles de sécurité, signalement des incidents graves sous quinze jours et protection renforcée des lanceurs d’alerte.
Ce texte marque une étape majeure, adoptée un an après le rejet d’une première version jugée trop restrictive par les géants technologiques. La nouvelle législation survient alors que des montants colossaux d’investissement affluent dans l’IA, portés par des acteurs clés comme Google, Meta, OpenAI, Anthropic ou encore Nvidia.
Les incidents devront être signalés
Au cœur de la loi figure également l’obligation de prévenir et de déclarer tout comportement dangereux des modèles d’IA. Si un système, par exemple, minimise sciemment l’efficacité de ses garde-fous pour faciliter la production d’armes biologiques ou nucléaires, l’incident devra être signalé. Les promoteurs du texte assurent qu’il s’agit d’une première mondiale, destinée à anticiper des risques aux conséquences potentiellement dramatiques.
"La Californie a prouvé sa capacité à établir des réglementations pour protéger nos communautés tout en garantissant la prospérité du secteur de l'IA, en pleine expansion. Cette législation établit cet équilibre. L'IA représente la nouvelle frontière de l'innovation, et la Californie est non seulement présente, mais elle s'affirme comme un leader national en adoptant la première législation nationale sur la sécurité de l'IA, une législation qui renforce la confiance du public face à l'évolution rapide de cette technologie émergente", a commenté le gouverneur Gavin Newsom.
Le projet a été soutenu par un groupe d’experts recrutés pour évaluer les menaces liées à l’IA, parmi lesquels la chercheuse Fei-Fei Li de l’université Stanford. Ce même texte marque aussi la revanche du sénateur démocrate Scott Wiener, son initiateur : sa première tentative avait été bloquée par le gouverneur en 2024, sous la pression des entrepreneurs de la Silicon Valley, inquiets d’une fuite des innovateurs.
La Californie pionnière
Cette fois, Newsom a trouvé un équilibre, en dépit des critiques passées et du refus de l’administration Trump d’autoriser toute régulation de ce type au niveau des États-Unis. Enfin, la loi SB 53 officialise et étend des engagements déjà pris volontairement par plusieurs géants californiens du secteur. Google, Meta, OpenAI et Anthropic s’étaient en effet engagés à mener des tests de sécurité et à établir des protocoles solides.
Désormais codifiés dans un cadre légal, ces efforts deviennent obligatoires et confèrent à la Californie un rôle de pionnière dans la régulation mondiale de l’intelligence artificielle. Avant, peut-être, d’autres Etats? En Europe, où l’attention se porte aussi sur l’encadrement de l’IA, un règlement européen (AI Act) du 13 juin 2024 prévoit déjà, sur le papier, des obligations pour les fournisseurs de systèmes d’IA à usage général (GPAI) et interdit certains systèmes d’IA portant atteinte aux droits fondamentaux. Mais cela pourrait n’être qu’un début.