Un proyecto de ley de California que exige a los desarrolladores de IA protocolos de seguridad para evitar “daños críticos” a la humanidad ha causado revuelo entre la comunidad tecnológica de Silicon Valley.
La ley californiana “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act”, también conocida como SB 1047, obligaría a los desarrolladores de IA a implantar protocolos de seguridad para evitar sucesos como víctimas en masa o ciberataques graves.
Fue propuesta por legisladores demócratas de California en febrero.
La normativa propuesta también impone un botón de “parada de emergencia” para los modelos de IA, exige auditorías anuales por terceros de las prácticas de seguridad de la IA, crea una nueva División de Modelos Fronterizos (FMD) para supervisar el cumplimiento e impone fuertes sanciones en caso de infracción.

Sin embargo, ha habido oposición desde el Congreso: el congresista estadounidense Ro Khanna publicó una declaración oponiéndose a SB 1047 el 13 de agosto, expresando su preocupación de que “el proyecto de ley, tal como está redactado actualmente, sería ineficaz, castigaría a los empresarios individuales y a las pequeñas empresas, y dañaría el espíritu de innovación de California.”
Khanna, que representa a Silicon Valley, reconoció que hay necesidad de una legislación sobre IA “para proteger a los trabajadores y hacer frente a los riesgos potenciales, incluyendo la desinformación, y un aumento de la disparidad de la riqueza.”
El proyecto de ley también se ha encontrado con la oposición de Silicon Valley; empresas de capital riesgo como Andreessen Horowitz argumentan que supondrá una carga para las startups y ahogará la innovación.
El 2 de agosto, el director jurídico de a16z, Jaikumar Ramaswamy, envió una carta al senador Scott Wiener, uno de los creadores del proyecto de ley, afirmando que “será una carga para las startups por sus umbrales arbitrarios y cambiantes”.
También se han manifestado en contra destacados investigadores del sector, como Fei-Fei Li y Andrew Ng, que creen que perjudicará al ecosistema de la IA y al desarrollo de código abierto.
El 6 de agosto, el informático Li declaró a Fortune:
“Si se aprueba como ley, SB-1047 perjudicará a nuestro incipiente ecosistema de IA, especialmente a las partes del mismo que ya están en desventaja frente a los gigantes tecnológicos actuales: el sector público, el mundo académico y la 'pequeña tecnología'”.
Por su parte, las grandes empresas tecnológicas afirman que regular en exceso la IA restringirá la libertad de expresión y podría expulsar la innovación tecnológica de California.
Yann LeCun, científico jefe de IA de Meta, dijo que la legislación perjudicaría a los esfuerzos de investigación, afirmando que “regular la I+D tendría consecuencias apocalípticas en el ecosistema de la IA” en un post en X en junio.
El proyecto de ley fue aprobado por el Senado con apoyo bipartidista en mayo y ahora se dirige a la Asamblea, donde debe ser aprobado antes del 31 de agosto.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión