El desarrollador de inteligencia artificial (IA) OpenAI ha anunciado que pondrá en marcha su "Marco de Preparación", que incluye la creación de un equipo especial para evaluar y predecir riesgos.
El 18 de diciembre, la empresa publicó en su blog que su nuevo "equipo de preparación" será el puente que conecte a los equipos de seguridad y política que trabajan en OpenAI.
Según la empresa, estos equipos, que constituyen casi un sistema de control y equilibrio, ayudarán a proteger contra los "riesgos catastróficos" que podrían plantear modelos cada vez más potentes. OpenAI afirma que sólo desplegará su tecnología si se considera segura.
El nuevo esquema de planes implica que el nuevo equipo asesor revise los informes de seguridad, que luego se enviarán a los ejecutivos de la empresa y al consejo de OpenAI.
Aunque los ejecutivos son técnicamente los encargados de tomar las decisiones finales, el nuevo plan otorga al consejo el poder de revocar las decisiones de seguridad.
Esto se produce después de que OpenAI experimentara un torbellino de cambios en noviembre con el abrupto despido y reincorporación de Sam Altman como CEO. Tras la reincorporación de Altman, ChatGPT alla empresa emitió un comunicado en el que nombraba a su nuevo consejo, que ahora incluye a Bret Taylor como presidente, así como a Larry Summers y Adam D'Angelo.
OpenAI lanzó público en noviembre de 2022 y, desde entonces, ha habido una avalancha de interés en la IA, pero también hay preocupación por los peligros que puede suponer para la sociedad.
En julio, los principales desarrolladores de IA, entre ellos OpenAI, Microsoft, Google y Anthropic, crearon el Frontier Model Forum, cuyo objetivo es supervisar la autorregulación de la creación de IA responsable.
El Presidente de Estados Unidos, Joe Biden, emitió en octubre una orden ejecutiva que establecía nuevas normas de seguridad de la IA para las empresas que desarrollan modelos de alto nivel y su aplicación.
Antes de la orden ejecutiva de Biden, destacados desarrolladores de IA, entre ellos OpenAI, fueron invitados a la Casa Blanca para comprometerse a desarrollar modelos de IA seguros y transparentes.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión