Le gouverneur Gavin Newsom a officiellement signé la loi SB 53, positionnant la Californie à l'avant-garde de la régulation de l'intelligence artificielle. Cette législation, baptisée "Transparency in Frontier Artificial Intelligence Act", vise directement les modèles d'IA les plus avancés et leurs créateurs. Elle instaure une série d'obligations axées sur la transparence et la sécurité, une première aux États-Unis.
Quelles sont les nouvelles obligations pour les entreprises d'IA ?
Au cœur de cette nouvelle réglementation, les développeurs des modèles d'IA les plus puissants devront désormais rendre publics leurs cadres de sécurité. La loi les contraint à détailler comment ils intègrent les normes nationales et les meilleures pratiques du secteur. Cette mesure vise à codifier des engagements qui, jusqu'à présent, étaient largement volontaires pour des entreprises comme OpenAI, Google ou Anthropic, créant ainsi des règles du jeu équitables pour tous.
De plus, tout incident de sécurité jugé critique devra être signalé sous 15 jours au Bureau des services d'urgence de Californie. Le texte renforce également de manière significative la protection des lanceurs d'alerte qui signaleraient des risques majeurs pour la santé ou la sécurité, avec des sanctions civiles à la clé pour les contrevenants.
Pourquoi cette loi a-t-elle été si débattue ?
L'adoption de la SB 53 n'a pas été un long fleuve tranquille. Elle succède à une version antérieure, la SB 1047, à laquelle le gouverneur Newsom avait opposé son veto, la jugeant trop restrictive et potentiellement néfaste pour l'innovation. Le débat a divisé la Silicon Valley : alors qu'Anthropic a publiquement soutenu le projet après négociations, d'autres acteurs comme Meta et OpenAI ont exprimé des réserves, craignant qu'une mosaïque de lois étatiques ne freine le développement et ont plaidé pour un cadre réglementaire fédéral ou mondial. Les critiques redoutaient que des règles trop strictes ne poussent les talents et les investissements hors de l'État, qui abrite 32 des 50 plus grandes entreprises d'IA au monde.
Quel est l'impact au-delà de la simple régulation ?
Au-delà des simples mesures de protection, la loi SB 53 contient un volet pro-innovation majeur avec la création de "CalCompute". Cette initiative vise à mettre en place une infrastructure de cloud computing publique, offrant aux startups, aux chercheurs et aux plus petits acteurs un accès à la puissance de calcul nécessaire pour développer leurs propres modèles. Ce projet ambitionne de démocratiser l'innovation et d'éviter que le développement de l'IA ne soit l'apanage des seuls géants technologiques.
La loi se distingue aussi par une exigence inédite au niveau mondial : le signalement obligatoire de tout comportement trompeur détecté sur une IA lors des phases de test. Si un modèle ment sur l'efficacité de ses propres garde-fous, par exemple, l'incident devra être rapporté, une mesure jugée essentielle à mesure que les systèmes deviennent plus autonomes et sont déployés dans des contextes critiques.