Los gigantes de Turing vuelven a dividirse: el proyecto de ley de limitación de IA de California, apoyado por Hinton, supera la primera etapa

A pesar de la fuerte oposición de destacados expertos en IA, grandes empresas tecnológicas, startups e inversores de riesgo, el proyecto de ley de "limitación de IA" de California ha superado con éxito la primera etapa.

Como todos sabemos, además de las representaciones en diversas películas de ciencia ficción, la IA en el mundo real no ha matado a nadie ni ha lanzado ataques cibernéticos a gran escala. Sin embargo, algunos legisladores estadounidenses aún desean implementar medidas de seguridad adecuadas antes de que ese futuro distópico se convierta en realidad.

Esta semana, el proyecto de ley de California sobre la "Innovación en Seguridad de Modelos de IA Avanzados" —SB 1047— ha dado un paso importante hacia su conversión en ley.

En resumen, la SB 1047 responsabilizaría a los desarrolladores para prevenir que los sistemas de IA causen pérdidas masivas de vidas o eventos cibernéticos que superen los 500 millones de dólares en daños. Sin embargo, debido a la fuerte oposición de la academia y la industria, los legisladores de California han hecho algunas concesiones, añadiendo varias enmiendas sugeridas por la startup de IA Anthropic y otros opositores. En comparación con la propuesta original, la versión actual reduce el poder del gobierno de California para responsabilizar a los laboratorios de IA.

Enlace al proyecto de ley: SB 1047

Aun así, (casi) nadie está satisfecho con la SB 1047.

Figuras destacadas en IA como Yann LeCun, Fei-Fei Li, y Andrew Ng han expresado repetidamente su descontento con esta ley, considerándola como una medida que sofoca el desarrollo de IA de código abierto y que podría frenar o incluso detener la innovación en IA. Se han firmado numerosas cartas colectivas en contra del proyecto de ley, incluyendo más de 40 investigadores de la Universidad de California, la Universidad del Sur de California, la Universidad de Stanford y el Instituto de Tecnología de California, quienes han instado encarecidamente a que no se apruebe. Además, ocho congresistas que representan diferentes distritos de California han instado al gobernador a vetar el proyecto de ley. LeCun incluso reutilizó la broma anterior que pedía pausar la investigación en IA: ¡por favor, pausen la legislación sobre IA por seis meses!

Entonces, ¿por qué utilizamos la expresión "casi todos"? Porque, a diferencia de LeCun, otros dos gigantes del Turing, Yoshua Bengio y Geoffrey Hinton, apoyan firmemente la aprobación de este proyecto de ley. Incluso consideran que las disposiciones actuales son demasiado indulgentes.

Hoy en día, aunque la SB 1047 enfrenta una fuerte oposición por parte de algunos congresistas estadounidenses, destacados investigadores en IA, grandes empresas tecnológicas e inversores de riesgo, ha sido aprobada relativamente sin problemas en la legislatura de California.

A continuación, la SB 1047 pasará a la votación final en la Asamblea de California. Debido a la incorporación de las enmiendas más recientes, el proyecto de ley, una vez aprobado, deberá ser devuelto al Senado de California para una votación adicional. Si se aprueba en ambas ocasiones, la SB 1047 será enviada al gobernador para su firma o veto final.

01 ¿Qué modelos y empresas estarán sujetos a la ley?

Según los requisitos de la SB 1047, los desarrolladores o las empresas que desarrollen modelos deberán ser responsables de evitar que sus modelos de IA sean utilizados para causar "daños graves".

Por ejemplo, para la fabricación de armas de destrucción masiva o ataques cibernéticos que causen más de 500 millones de dólares en daños. Cabe mencionar que el "evento global de pantallas azules en Windows" de CrowdStrike causó más de 5 mil millones de dólares en daños.

Sin embargo, las normas de la SB 1047 solo se aplican a los modelos de IA de gran escala, es decir, aquellos con un costo de entrenamiento de al menos 100 millones de dólares y que requieren más de 10^26 operaciones de punto flotante (básicamente, una cifra establecida en función del costo de entrenamiento de GPT-4).

Se dice que el próximo Llama 4 de Meta requerirá 10 veces más cálculos, por lo que también estará sujeto a la SB 1047. En el caso de los modelos de código abierto y sus versiones ajustadas, el desarrollador original será el responsable, a menos que el costo supere el triple del modelo original. No es de extrañar que LeCun haya reaccionado con tanta fuerza.

Además, los desarrolladores deben crear programas de prueba para abordar los riesgos del modelo de IA y deberán contratar a auditores externos anualmente para evaluar sus prácticas de seguridad de IA. En cuanto a los productos de IA basados en estos modelos, deberán establecer protocolos de seguridad correspondientes para evitar el uso indebido, incluyendo un botón de "detención de emergencia" que apague todo el modelo de IA.

02 ¿Cuál es la función actual de la SB 1047?

Hoy en día, la SB 1047 ya no permite que el Fiscal General de California demande a las empresas de IA por negligencia en las medidas de seguridad antes de que ocurra un evento catastrófico (según la propuesta de Anthropic). En su lugar, el Fiscal General puede buscar una orden judicial para detener una operación que considere peligrosa y, si el modelo en cuestión causa un evento catastrófico, aún puede demandar al desarrollador de IA.

La SB 1047 ya no establece la creación de una nueva agencia gubernamental, el "Departamento de Modelos Avanzados" (FMD, por sus siglas en inglés) que estaba inicialmente incluido en el proyecto de ley.

Sin embargo, todavía se crea el núcleo del FMD, el Comité de Modelos Avanzados, que estará dentro de la Agencia de Servicios Gubernamentales existente y su tamaño se ampliará de 5 a 9 miembros. El comité seguirá estableciendo umbrales de cálculo para los modelos cubiertos, emitiendo directrices de seguridad y reglamentando a los auditores.

En cuanto a la seguridad de los modelos de IA, la SB 1047 ahora utiliza un lenguaje más flexible. Ahora, los desarrolladores solo deben "tener una atención razonable" para garantizar que los modelos de IA no representen un riesgo de desastre importante, en lugar de la "garantía razonable" requerida anteriormente. Además, los desarrolladores solo deben presentar una "declaración" pública para describir sus medidas de seguridad, sin necesidad de certificar los resultados de las pruebas de seguridad bajo pena de perjurio.

Para los modelos ajustados de código abierto, también existe una protección específica. Si alguien gasta menos de 10 millones de dólares en ajustar un modelo, no será considerado como desarrollador, y la responsabilidad seguirá recayendo en el desarrollador original del modelo grande.