El gobernador de California, Gavin Newsom, ha rechazado el proyecto de ley SB 1047, que intentaba evitar el uso dañino de la inteligencia artificial (IA). Este proyecto, aprobado en la asamblea estatal con un resultado de 41 a 9 el pasado 28 de agosto, buscaba hacer responsables a los desarrolladores de modelos de IA de implementar protocolos de seguridad para prevenir usos catastróficos de su tecnología. La ley proponía severas sanciones financieras para las infracciones, comenzando con multas de 10,00 € millones por la primera infracción, aumentando a 30,00 € millones por infracciones posteriores.
El proyecto se centraba en modelos de IA de gran escala y con un coste de uso de al menos 100,00 € millones y entrenados con 10^26 FLOPS. Las compañías que operan en California estarían sujetas a estas normas si cumplían con estos criterios, incluyendo proyectos derivados que hubieran recibido inversiones de al menos 10,00 € millones.
Sin embargo, el Gobernador Newsom consideró que la ley, aunque bien intencionada, no abordaba adecuadamente cuándo un sistema de IA se despliega en entornos de alto riesgo o se ocupa de decisiones críticas. Según Newsom, aplicar estándares tan estrictos incluso a funciones básicas podría dar una falsa sensación de seguridad al público respecto al control de esta tecnología en rápida evolución y podría frenar la innovación.
La propuesta inicial del SB 1047 creaba la División de Modelos de Vanguardia para aplicar estas reglas. Sin embargo, terminó estableciendo un Consejo de Modelos de Vanguardia dentro de la Agencia de Operaciones de Gobierno para supervisar su aplicabilidad, con miembros elegidos por el legislador y el gobernador del estado.
Senador estatal Scott Wiener, autor del proyecto, expresó su preocupación por esperar a que ocurra un daño significativo antes de tomar medidas. El proyecto recibió el apoyo de destacados investigadores de IA como Geoffrey Hinton y Yoshua Bengio, así como el Centro para la Seguridad de IA.
Pese al veto, Newsom reiteró la necesidad de desarrollar protocolos de seguridad pragmáticos que mantengan el ritmo del desarrollo tecnológico. Sin embargo, el SB 1047 encontró críticas desde el gremio tecnológico, incluido el investigador Fei-Fei Li y el científico jefe de IA de Meta, Yann LeCun, quienes argumentaron que podría frenar nuevas exploraciones de la IA. Compañías como Amazon, Apple y Google, junto a startups, expresaron preocupación por las cargas financieras excesivas que impondría a los innovadores de IA.
En definitiva, el camino hacia una regulación eficaz de la IA sigue siendo un desafío considerable, requiriendo un equilibrio delicado entre seguridad y fomento del avance tecnológico.