Les géants de l'IA se divisent à nouveau : Hinton soutient le projet de loi californien sur la régulation de l'IA, qui a été adopté en première lecture

Malgré la forte opposition de nombreux leaders de l'IA, de grandes entreprises technologiques, de startups et de capital-risqueurs, le projet de loi californien visant à restreindre l'IA a été adopté en première lecture.

Comme chacun le sait, hormis dans les films de science-fiction, l'IA n'a encore tué personne ni lancé d'attaque cybernétique de grande envergure dans le monde réel. Cependant, certains législateurs américains souhaitent tout de même mettre en place des garanties de sécurité suffisantes avant que ces futurs dystopiques ne deviennent réalité.

Cette semaine, le projet de loi californien sur l'innovation en matière de sécurité des modèles d'IA de pointe — SB 1047 — a franchi une étape importante vers son adoption en tant que loi.

En termes simples, le SB 1047 vise à responsabiliser les développeurs afin de prévenir les pertes massives de vies humaines ou les incidents de cybersécurité causant des dommages dépassant 500 millions de dollars. Toutefois, en raison de la forte opposition du milieu universitaire et de l'industrie, les législateurs californiens ont apporté quelques compromis en intégrant plusieurs amendements proposés par la startup d'IA Anthropic et d'autres opposants. Par rapport à la proposition initiale, la version actuelle réduit les pouvoirs du gouvernement californien en matière de responsabilité des laboratoires d'IA.

Texte du projet de loi : Lien vers SB 1047

Mais même avec ces modifications, (presque) personne n'aime le SB 1047.

Des poids lourds de l'IA comme Yann LeCun, Fei-Fei Li et Andrew Ng ont exprimé à plusieurs reprises leur mécontentement à l'égard de cette loi, qu'ils considèrent comme une menace pour l'IA open-source et un frein à l'innovation, capable de ralentir ou même d'arrêter le développement de l'IA. De nombreuses lettres ouvertes ont vu le jour, dont une signée par plus de 40 chercheurs des universités de Californie, USC, Stanford et Caltech, exhortant vivement à ne pas adopter ce projet de loi. En outre, huit membres du Congrès représentant différents districts de Californie ont exhorté le gouverneur à rejeter la loi. LeCun a même répété son appel à suspendre la législation sur l'IA pendant six mois !

Pourquoi ai-je dit "presque tout le monde" ? Parce que, en plus de LeCun, deux autres géants de l'IA, Yoshua Bengio et Geoffrey Hinton, soutiennent fermement ce projet de loi. En fait, ils pensent même que les dispositions actuelles sont trop indulgentes.

Malgré l'opposition significative de membres du Congrès américain, de chercheurs renommés en IA, de grandes entreprises technologiques et de capital-risqueurs, le SB 1047 a tout de même réussi à progresser relativement facilement dans le processus législatif californien.

La prochaine étape pour le SB 1047 est un vote final à l'Assemblée de Californie. En raison des amendements récents, si la loi est adoptée, elle devra être renvoyée au Sénat de Californie pour un vote supplémentaire. Si les deux votes sont favorables, le SB 1047 sera envoyé au gouverneur, qui pourra soit le rejeter, soit le signer pour en faire une loi.

01 Quels modèles et entreprises seront concernés ?

Selon le SB 1047, les développeurs ou les entreprises qui créent des modèles doivent s'assurer que leurs modèles d'IA ne sont pas utilisés pour causer des "dommages majeurs".

Par exemple, la création d'armes de destruction massive ou la réalisation d'une cyberattaque causant des dommages supérieurs à 500 millions de dollars. À titre d'exemple, l'"événement global d'écran bleu Windows" de CrowdStrike a causé plus de 5 milliards de dollars de pertes.

Cependant, les règles du SB 1047 ne s'appliquent qu'aux modèles d'IA extrêmement grands, c'est-à-dire ceux dont les coûts d'entraînement sont d'au moins 100 millions de dollars et dépassent 10^26 opérations en virgule flottante (essentiellement basés sur les coûts d'entraînement de GPT-4).

Il est rapporté que la prochaine génération de Llama 4 de Meta nécessitera dix fois plus de puissance de calcul et sera donc soumise à la régulation du SB 1047. Pour les modèles open-source et leurs versions ajustées, la responsabilité incombera aux développeurs d'origine, sauf si les coûts dépassent trois fois ceux du modèle original. Il n'est donc pas surprenant que LeCun ait réagi si vivement.

En outre, les développeurs devront créer des programmes de test pour évaluer les risques de leurs modèles d'IA et devront faire appel chaque année à des auditeurs tiers pour évaluer leurs pratiques de sécurité en matière d'IA. Pour les produits d'IA basés sur ces modèles, des protocoles de sécurité appropriés devront être mis en place pour prévenir les abus, y compris un "bouton d'arrêt d'urgence" qui permet de désactiver l'ensemble du modèle d'IA.

02 Quelle est la fonction actuelle du SB 1047 ?

Le SB 1047 ne permet plus au procureur général de Californie de poursuivre les entreprises d'IA pour négligence en matière de sécurité avant qu'un événement catastrophique ne se produise (une suggestion d'Anthropic). À la place, le procureur général peut demander une injonction pour arrêter une action jugée dangereuse par l'entreprise, et si le modèle provoque effectivement un événement catastrophique, les développeurs d'IA peuvent toujours être poursuivis.

La loi ne crée plus une nouvelle agence gouvernementale appelée "Division des modèles de pointe (FMD)", qui était initialement prévue dans le projet de loi. Cependant, elle établit toujours le noyau de la FMD — le Comité des modèles de pointe — au sein de l'agence gouvernementale existante et augmente sa taille de 5 à 9 membres. Le comité continuera de fixer des seuils pour le calcul des modèles, de publier des directives de sécurité et de réglementer les auditeurs.

En ce qui concerne la sécurité des modèles d'IA, la formulation du SB 1047 est maintenant plus souple. Les développeurs doivent désormais faire preuve de "diligence raisonnable" pour s'assurer que les modèles d'IA ne présentent pas un risque majeur de catastrophe, au lieu de devoir "garantir raisonnablement" la sécurité. De plus, les développeurs n'ont plus besoin de soumettre une certification des résultats de tests de sécurité sous peine de parjure ; une simple "déclaration" publique exposant leurs mesures de sécurité est suffisante.

Pour les modèles open-source ajustés, une protection séparée a également été mise en place. Si moins de 10 millions de dollars ont été dépensés pour l'ajustement du modèle, la personne ne sera pas considérée comme un développeur, et la responsabilité incombera aux développeurs d'origine du grand modèle.