Los modelos de inteligencia artificial (IA) están avanzando a un ritmo asombroso. Los principales desarrolladores están logrando avances significativos en mejorar la capacidad de estos modelos para comprender consultas complejas y ofrecer respuestas más perspicaces y bien razonadas.

Esto fue destacado en un anuncio del 12 de septiembre de OpenAI, los creadores del conocido modelo ChatGPT, con respecto a su nuevo modelo "Strawberry".

Este desarrollo, también conocido como la serie de modelos OpenAI o1, permitirá a las personas reflexionar más sobre los problemas antes de responder, "de la misma manera que lo haría una persona".

Los modelos también podrán "refinar su proceso de pensamiento, probar diferentes estrategias y reconocer sus errores", según el desarrollador.

Si bien la IA ciertamente no está tomando el control del mundo, ni ese es el objetivo de quienes desarrollan la tecnología, el rápido avance de la tecnología ha preocupado a los legisladores sobre la capacidad de controlar dichos modelos si se vuelven incontrolables e implementar medidas de seguridad durante las etapas de desarrollo.

Proyectos de ley en discusión

En la última semana, los legisladores de California han continuado aprobando proyectos de ley relacionados con la IA que afectan a los residentes y desarrolladores en California.

Esto incluye la Ley de la Asamblea 1836, que prohíbe las réplicas generadas por IA no autorizadas de personalidades fallecidas sin consentimiento previo para proteger los derechos y la imagen de los artistas.

Sin embargo, uno de los principales proyectos de ley controvertidos entre los expertos de la industria es el Proyecto de ley del Senado (SB)-1047, también conocido como la "Ley de Innovación Segura y Protegida para Modelos de Inteligencia Artificial de Vanguardia".

Si se aprueba, el proyecto de ley afectará principalmente a los principales desarrolladores de IA, como OpenAI, Google y Microsoft, que tienen los recursos para desarrollar modelos de IA que requieran más de 10^26 operaciones de enteros o de coma flotante (FLOP) y que cuesten más de USD 100 millones.

Los desarrolladores deberán entrenar y ajustar los modelos para implementar las características de seguridad establecidas en el proyecto de ley. Esto incluye la capacidad de apagado del modelo de IA, la creación y retención de un protocolo de seguridad por escrito, garantizar auditorías anuales de terceros y presentar declaraciones de cumplimiento e informes de incidentes al fiscal general de California.

El proyecto de ley enfrenta críticas de desarrolladores de todos los tamaños dentro de la industria, quienes afirman que sofoca la innovación. Cointelegraph habló con Dina Blikshteyn, socia del bufete de abogados Haynes Boone, para entender cómo podría suceder esto.

Impacto en los desarrolladores

Blikshteyn dijo que el proyecto de ley también podría extenderse a pequeños desarrolladores que ajusten modelos de IA con una capacidad de cómputo mayor o igual a tres veces 10^25 enteros o FLOP y que puedan permitirse un acceso de USD 10 millones.

"El proyecto de ley tiene como objetivo prevenir desastres causados por modelos de IA, particularmente mediante la implementación de capacidades de apagado", dijo.

"Sin embargo, es posible que no elimine completamente los riesgos, ya que un modelo de IA podría desencadenar una reacción en cadena con consecuencias perjudiciales incluso después del apagado."

También señaló que:

"Si bien la intención del proyecto de ley es positiva, los requisitos para protocolos de seguridad, auditorías e informes de cumplimiento podrían considerarse excesivos, imponiendo potencialmente demandas burocráticas y de divulgación onerosas que podrían obstaculizar la innovación en la industria de la IA en California."

Actualmente, Estados Unidos no tiene un marco federal para regular los resultados de los modelos de IA. Sin embargo, Blikshteyn señala que estados como California y Colorado están promulgando sus propias regulaciones.

Las regulaciones en el escritorio del Gobernador Gavin Newsom afectarían a los californianos que entrenan y acceden a los modelos de IA cubiertos por la ley.

"Las grandes empresas de IA tendrían más personal para manejar los requisitos del proyecto de ley", señaló, "lo que podría considerarse una carga para los recursos de las empresas más pequeñas".

"Si bien es poco probable que las grandes empresas de IA abandonen California, la variación en las leyes estatales y la falta de supervisión federal podrían empujar a los pequeños desarrolladores a reubicarse o realizar trabajos de IA en estados con menos regulaciones sobre la gobernanza de la IA."

California lidera la legislación

No obstante, Blikshteyn destaca lo que muchos en la industria ven como una verdad: "La legislación a nivel federal que establezca requisitos básicos para los modelos de IA potentes sería beneficiosa tanto para los consumidores como para los desarrolladores. También proporcionaría una base para todos los estados en cuanto a cuáles son esos requisitos."

El SB-1047 fue presentado al Gobernador Newsom el 9 de septiembre y todavía está esperando una decisión. Newsom comentó sobre el proyecto de ley diciendo que ha estado trabajando en "una regulación racional que apoye la toma de riesgos, pero no la imprudencia". Sin embargo, también ha expresado preocupación por el posible impacto en la competitividad.

Dado que California es un líder mundial en innovación tecnológica, sus decisiones legales respecto a la IA son algo que el mundo entero observa con gran expectativa.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión