Las figuras de la industria están divididas sobre un controvertido proyecto de ley de inteligencia artificial en California que se aprobó el 28 de agosto.
La nueva legislación obligará a las empresas de IA a implementar nuevos protocolos de seguridad, incluido un botón de "parada de emergencia" para los modelos de IA.
El Acta de Innovación Segura y Protegida para Modelos de Inteligencia Artificial de Vanguardia (SB 1047) fue aprobada por el Senado de California con 29 votos a favor y 9 en contra el 28 de agosto.
El proyecto de ley ahora se dirige al escritorio del gobernador Gavin Newsom para su ratificación.
Elon Musk fue uno de los que expresó su apoyo al proyecto de ley. En X, dijo que era una "decisión difícil", pero favoreció la legislación debido al "riesgo potencial" de la IA.
Fuente: Elon Musk
No todos los líderes tecnológicos están igualmente convencidos, sin embargo. El director de estrategia de OpenAI, Jason Kwon, es uno de los que han criticado la legislación.
Calanthia Mei, cofundadora de la red de IA descentralizada Masa, dijo que no estaba a favor de las nuevas reglas, sugiriendo que eran el resultado de una prisa indebida por legislar.
“Regulaciones prematuras como esta no solo sacarán el talento de California; sacarán el talento de Estados Unidos”, dijo Mei a Cointelegraph. Añadió:
“El riesgo radica en la posibilidad de que los marcos regulatorios actuales y propuestos en Estados Unidos limiten el crecimiento de la industria de la IA”.
Raheel Govindji, CEO del proyecto de IA descentralizada DecideAI, tuvo una opinión contrastante.
“Estamos a favor de la legislación”, dijo Govindji a Cointelegraph.
Govindji afirmó que DecideAI apoya un interruptor de apagado controlado por una organización autónoma descentralizada (DAO), lo que proponen como una forma de democratizar y descentralizar una parada de emergencia.
La IA es una industria de rápido movimiento
La naturaleza de rápido movimiento de la industria de la IA ha despertado temores sobre su desarrollo sin restricciones.
En una carta del 22 de agosto, antiguos empleados y denunciantes de OpenAI advirtieron, “Desarrollar modelos de IA de frontera sin las precauciones de seguridad adecuadas plantea riesgos predecibles de daño catastrófico para el público”.
Pero para otros, el rápido ritmo del desarrollo de la IA es algo que debe celebrarse en lugar de temerse.
“En contraste con otras tecnologías transformadoras, la velocidad de la innovación en IA es inigualable. Los desarrolladores están lanzando nuevos productos, características y aplicaciones todos los días”, dijo Mei.
“Nosotros como desarrolladores ni siquiera sabemos cuál es el límite de la IA; ¿cómo podría saber el gobierno el límite de la IA? Poner límites a tecnologías de alto potencial es imprudente”.
Mei advirtió que el costo final de la legislación sería “ahuyentar el talento de los EE. UU.” tal como “pasó con el sector cripto”.
Los que están a favor
Govindji propone que un “killswitch controlado por una DAO” podría apoyar los requisitos de la legislación mientras mantiene una “toma de decisiones colectiva y transparente”.
El proyecto de ley establece que cualquier modelo de IA debe ser capaz de “realizar un apagado completo de manera inmediata”, pero no define el significado de inmediato, dejando un considerable margen para la interpretación.
Por ahora, se desconoce si un modelo DAO y su sistema de votación democrática serían lo suficientemente rápidos para satisfacer a los legisladores. Govindji confía en que sí lo serán. Según Govindji, DecideAI “estará a la vanguardia en proporcionar IA que sea un bien social”.
La empresa de IA Anthropic también ha apoyado públicamente el proyecto de ley.
En una carta abierta al Gobernador Newsom, el CEO de Anthropic, Dario Amodei, dijo: ”Los sistemas de IA están avanzando en capacidades extremadamente rápido, lo que ofrece tanto una gran promesa para la economía de California como un riesgo sustancial [...] Creemos que el SB 1047, particularmente después de las enmiendas recientes, probablemente presenta una carga de cumplimiento factible para empresas como la nuestra, en vista de la importancia de evitar un uso catastrófico”.
Una versión anterior del proyecto de ley proponía penas criminales para las empresas que no cumplieran. Después de consultar con la industria, esta disposición se suavizó a solo penas civiles.
Proyecto de ley SB 1047
El proyecto de ley SB 1047 solo se aplicará a los “modelos cubiertos”, con la definición de qué modelos están cubiertos cambiando con el tiempo.
Al implementarse, un modelo cubierto será una IA que cueste más de USD 100 millones para desarrollarse o “Un modelo de inteligencia artificial entrenado utilizando una cantidad de poder computacional mayor a 10^26 operaciones enteras o en punto flotante”.
La Agencia de Operaciones del Gobierno Federal adjudicará cualquier cambio en el umbral de poder computacional.
En una carta al Gobernador Newsom, Kwon de OpenAI argumentó que la legislación sobre IA debería ser manejada solo a nivel federal “en lugar de un mosaico de leyes estatales”.
Dada la abrumadora concentración de empresas tecnológicas y de IA en California, el SB 1047 podría considerarse, en la práctica, la legislación nacional por ahora.
La situación podría cambiar si la legislación lleva a las empresas de IA a trasladarse a otros estados, pero para evitar completamente el SB 1047, las empresas también tendrían que cesar todas las operaciones y servicios en California.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.