El cofundador de Ethereum, Vitalik Buterin, ha advertido sobre los criptoproyectos que utilizan inteligencia artificial para su proceso de gobernanza, ya que actores maliciosos podrían explotar la tecnología.

"Si se utiliza una IA para asignar fondos para contribuciones, la gente pondría jailbreaks que busquen extraer dinero en tantos sitios como puedan", dijo Buterin en un post del sábado en X.

Buterin respondía a un vídeo de Eito Miyamura, creador de la plataforma de datos de IA EdisonWatch, en el que se mostraba que una nueva función añadida el miércoles a ChatGPT de OpenAI podía explotarse para filtrar información privada.

Muchos criptousuarios han adoptado IA para crear complejos bots y agentes de trading para gestionar sus monederos, lo que ha llevado a la idea de que la tecnología podría ayudar a los grupos de gobernanza a gestionar parte o la totalidad de un protocolo de criptomonedas.

Buterin propone una idea alternativa

Buterin afirmó que el último exploit de ChatGPT es la razón por la que "la ingenua ‘gobernanza de la IA’ es una mala idea" y propuso una alternativa llamada "enfoque de infofinanzas".

"Se tiene un mercado abierto en el que cualquiera puede aportar sus modelos, que están sujetos a un mecanismo de control aleatorio que puede ser activado por cualquier persona y evaluado por un jurado humano", explicó.

Buterin escribió sobre las finanzas de la información en noviembre de 2024, diciendo que funcionan partiendo de "un hecho que se quiere conocer" y luego diseñando un mercado "para obtener de forma óptima esa información de los participantes en el mercado", y abogó por los mercados de predicción como una forma de recopilar información sobre eventos futuros.

"Este tipo de enfoque de "diseño institucional", en el que se crea una oportunidad abierta para que personas externas con LLM se conecten, en lugar de codificar tú mismo un único LLM, es intrínsecamente más robusto", afirmó Buterin en su último post en X.

"Te ofrece diversidad de modelos en tiempo real y, además, crea incentivos integrados tanto para los que envían los modelos como para los especuladores externos, para que estén atentos a estos problemas y los corrijan rápidamente", añadió.

La última actualización de ChatGPT supone un "grave riesgo para la seguridad"

El miércoles, OpenAI actualizó ChatGPT para que sea compatible con las herramientas del Protocolo de Contexto de Modelos, un estándar sobre cómo los modelos de IA se integran con otro software para actuar como agentes.

Miyamura afirmó en su post en X que consiguió que el modelo filtrara datos privados de correo electrónico utilizando únicamente la dirección de correo electrónico de la víctima, y añadió que la actualización "supone un grave riesgo para la seguridad".

Dijo que un atacante podría enviar una invitación de calendario al correo electrónico de la víctima con un "mensaje de jailbreak" y, sin que la víctima acepte la invitación, ChatGPT podría ser explotado.

Cuando la víctima le pide a ChatGPT que mire su calendario, la IA lee la invitación con el mensaje y es "secuestrada por el atacante y actuará según sus órdenes", lo que puede utilizarse para buscar correos electrónicos y reenviarlos al atacante.

Miyamura señaló que la actualización requiere la aprobación manual de un humano, "pero la fatiga de tomar decisiones es algo real, y la gente normal simplemente confiará en la IA sin saber qué hacer y hará clic en aprobar".

"La IA puede ser muy inteligente, pero se la puede engañar y suplantar de formas increíblemente tontas para filtrar tus datos", añadió.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.