OpenAI, el desarrollador detrás del chatbot de inteligencia artificial (IA) ChatGPT, ha colaborado con su principal inversor, Microsoft, para prevenir cinco ciberataques vinculados a diferentes actores maliciosos.
Según un informe publicado el miércoles, Microsoft ha vigilado a grupos de hackers vinculados a la inteligencia militar rusa, la Guardia Revolucionaria iraní y los gobiernos chino y norcoreano, que, según afirma, han estado explorando el uso de grandes modelos lingüísticos (LLM) de IA en sus estrategias de hackeo.
Los LLM utilizan vastos conjuntos de datos de texto para crear respuestas que suenan como humanas.
We disrupted five state-affiliated malicious cyber actors’ use of our platform.
— OpenAI (@OpenAI) February 14, 2024
Work done in collaboration with Microsoft Threat Intelligence Center. https://t.co/xpEeQDYjrQ
Hemos desbaratado el uso de nuestra plataforma por parte de cinco ciberdelincuentes afiliados a un Estado. Trabajo realizado en colaboración con el Centro de Inteligencia de Amenazas de Microsoft. https://t.co/xpEeQDYjrQ
OpenAI informó que los cinco ciberataques procedían de dos grupos asociados a China: Charcoal Typhoon y Salmon Typhoon. Los ataques se vincularon a Irán a través de Crimson Sandstorm, a Corea del Norte a través de Emerald Sleet y a Rusia a través de Forest Blizzard.
Los grupos intentaron emplear ChatGPT-4 para investigar herramientas de la empresa y de ciberseguridad, depurar código, generar scripts, realizar campañas de phishing, traducir documentos técnicos, eludir la detección de malware y estudiar la tecnología de comunicación por satélite y radar, según OpenAI. Las cuentas se desactivaron tras la detección.
La empresa reveló el descubrimiento mientras aplicaba una prohibición general a los grupos de hackers respaldados por el Estado que utilizan productos de IA. Aunque OpenAI evitó eficazmente estos sucesos, reconoció el reto que supone evitar cualquier uso malintencionado de sus programas.
Tras una oleada de deepfakes y estafas generadas por IA después del lanzamiento de ChatGPT, los responsables políticos intensificaron el escrutinio de los desarrolladores de IA generativa. En junio de 2023, OpenAI anunció un programa de becas de ciberseguridad de un millón de dólares para mejorar y medir el impacto de las tecnologías de ciberseguridad basadas en IA.
A pesar de los esfuerzos de OpenAI en ciberseguridad y la implementación de salvaguardas para evitar que ChatGPT genere respuestas dañinas o inapropiadas, los hackers han encontrado métodos para eludir estas medidas y manipular el chatbot para producir dicho contenido.
Más de 200 entidades, entre ellas OpenAI, Microsoft, Anthropic y Google, colaboraron recientemente con la Administración Biden para crear el AI Safety Institute y el United States AI Safety Institute Consortium (AISIC). Los grupos se crearon a raíz de la orden ejecutiva del Presidente Joe Biden sobre la seguridad de la IA a finales de octubre de 2023, cuyo objetivo es promover el desarrollo seguro de la IA, combatir las deepfakes generadas por la IA y abordar los problemas de ciberseguridad.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión