Las empresas de inteligencia artificial OpenAI y Anthropic recientemente acordaron ofrecer al Instituto de Seguridad de IA de EE. UU. acceso anticipado a cualquier modelo de IA “importante” desarrollado por sus respectivas empresas.
Si bien el acuerdo fue supuestamente firmado debido a preocupaciones mutuas sobre la seguridad, no está claro cuál sería exactamente el papel del gobierno en caso de un avance tecnológico con implicaciones significativas para la seguridad.
Sam Altman, CEO y cofundador de OpenAI, consideró el acuerdo como un paso necesario en una reciente publicación en la plataforma de redes sociales X.
“Estamos contentos de haber llegado a un acuerdo con el Instituto de Seguridad de IA de EE. UU. para las pruebas previas al lanzamiento de nuestros futuros modelos. Por muchas razones, creemos que es importante que esto ocurra a nivel nacional. ¡EE. UU. necesita continuar liderando!”
Modelos de IA de frontera
OpenAI y Anthropic están trabajando hacia el mismo objetivo: el desarrollo de una inteligencia artificial general (AGI). No existe un consenso científico sobre cómo debería definirse exactamente la AGI, pero la idea básica es una IA capaz de hacer cualquier cosa que un humano pudiera hacer dado los recursos necesarios.
Ambas empresas, por separado, tienen estatutos y misiones que explican que su objetivo independiente es crear AGI de manera segura con los intereses de la humanidad en su núcleo. Si una o ambas empresas tuvieran éxito, se convertirían en los guardianes de facto de la tecnología capaz de dotar a las máquinas con la inteligencia de un humano.
Al firmar un acuerdo con el gobierno de EE. UU. para divulgar sus modelos antes de cualquier lanzamiento de productos, ambas empresas han delegado esa responsabilidad al gobierno federal.
Área 51
Como informó recientemente Cointelegraph, OpenAI podría estar al borde de un avance importante. Los proyectos “Strawberry” y “Orion” de la empresa supuestamente son capaces de razonamiento avanzado y nuevas técnicas para abordar el problema de las alucinaciones de la IA.
Según un informe de The Information, el gobierno de EE. UU. ya ha visto estas herramientas y cualquier iteración interna temprana de ChatGPT con ellas implementadas.
Una publicación en el blog del Instituto Nacional de Estándares y Tecnología de EE. UU. indica que este acuerdo y las directrices de seguridad que lo rodean son totalmente voluntarios para las empresas participantes.
El beneficio de esta forma de regulación ligera, según las empresas y los analistas que la apoyan, es que fomenta el crecimiento y permite que el sector se regule a sí mismo. Los defensores, como Altman, citan este acuerdo como un ejemplo de cómo tal cooperación puede beneficiar tanto al gobierno como al mundo corporativo.
Sin embargo, uno de los posibles efectos secundarios preocupantes de la regulación ligera es la falta de transparencia. Si OpenAI o Anthropic tienen éxito en su misión, y el gobierno considera que el público no tiene necesidad de saber, no parece haber ningún impulso legal que requiera divulgación.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.