OpenAI, la empresa de investigación e implantación de inteligencia artificial (IA) que está detrás de ChatGPT, pone en marcha una nueva iniciativa para evaluar una amplia gama de riesgos relacionados con IA.

OpenAI está creando un nuevo equipo dedicado a rastrear, evaluar, prever y proteger los posibles riesgos catastróficos derivados de la IA, según anunció la empresa el 25 de octubre.

Denominada "Preparedness", la nueva división de OpenAI se centrará específicamente en las posibles amenazas de la IA relacionadas con amenazas químicas, biológicas, radiológicas y nucleares, así como con la persuasión individualizada, la ciberseguridad y la replicación y adaptación autónomas.

Dirigido por Aleksander Madry, el equipo de Preparación tratará de responder a preguntas como la peligrosidad de los sistemas de IA de vanguardia cuando se utilizan indebidamente y si los actores malintencionados podrían desplegar modelos de IA robados.

"Creemos que los modelos de IA de frontera, que superarán las capacidades actualmente presentes en los modelos existentes más avanzados, tienen el potencial de beneficiar a toda la humanidad", escribió OpenAI, admitiendo que los modelos de IA también plantean "riesgos cada vez más graves". La empresa añadió:

“Nos tomamos en serio todo el espectro de riesgos de seguridad relacionados con IA, desde los sistemas que tenemos hoy hasta los confines más lejanos de la superinteligencia. [...] Para respaldar la seguridad de los sistemas de IA de alta capacidad, estamos desarrollando nuestro enfoque de la preparación ante riesgos catastróficos.”

Según la entrada del blog, OpenAI está buscando talentos con diferentes antecedentes técnicos para su nuevo equipo Preparedness. Además, la empresa ha lanzado un Desafío de Preparación de IA para la prevención del uso indebido catastrófico, y ofrece USD 25,000 en créditos API a sus 10 mejores presentaciones.

OpenAI había anunciado anteriormente que tenía previsto formar un nuevo equipo dedicado a hacer frente a las posibles amenazas de IA en julio de 2023.

Los riesgos potenciales asociados a la inteligencia artificial se han puesto de relieve con frecuencia, junto con los temores de que la IA tenga el potencial de llegar a ser más inteligente que cualquier ser humano. A pesar de reconocer estos riesgos, empresas como OpenAI han estado desarrollando activamente nuevas tecnologías de IA en los últimos años, lo que a su vez ha suscitado nuevas preocupaciones.

En mayo de 2023, la organización sin ánimo de lucro Center for AI Safety publicó una carta abierta sobre el riesgo de la IA, en la que instaba a la comunidad a mitigar los riesgos de extinción de la IA como una prioridad global junto con otros riesgos a escala social, como las pandemias y las guerras nucleares.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión