Opinión de: Jason Jiang, director de negocios de CertiK

Desde su creación, el ecosistema de finanzas descentralizadas (DeFi) se ha definido por la innovación, desde los exchanges descentralizados (DEXs) hasta protocolos de préstamo y endeudamiento, stablecoins y más. 

La innovación más reciente es DeFAI, o DeFi impulsado por inteligencia artificial. Dentro de DeFAI, los bots autónomos entrenados con grandes conjuntos de datos pueden mejorar significativamente la eficiencia al ejecutar trades, gestionar el riesgo y participar en protocolos de gobernanza. 

Sin embargo, como ocurre con todas las innovaciones basadas en la blockchain, DeFAI también puede introducir nuevos vectores de ataque que la comunidad de criptomonedas debe abordar para mejorar la seguridad del usuario. Esto requiere un examen intrincado de las vulnerabilidades que conlleva la innovación para garantizar la seguridad. 

Los agentes DeFAI van un paso más allá de los contratos inteligentes tradicionales 

Dentro de la blockchain, la mayoría de los contratos inteligentes han operado tradicionalmente con una lógica simple. Por ejemplo, “Si ocurre X, entonces se ejecutará Y”. Debido a su transparencia inherente, dichos contratos inteligentes pueden ser auditados y verificados. 

DeFAI, por otro lado, se aparta de la estructura tradicional de los contratos inteligentes, ya que sus agentes de IA son inherentemente probabilísticos. Estos agentes de IA toman decisiones basándose en conjuntos de datos en evolución, entradas previas y contexto. Pueden interpretar señales y adaptarse en lugar de reaccionar a un evento predeterminado. Si bien algunos podrían argumentar con razón que este proceso ofrece una innovación sofisticada, también crea un caldo de cultivo para errores y exploits debido a su incertidumbre inherente. 

Hasta ahora, las primeras iteraciones de bots de trading impulsados por IA en protocolos descentralizados han señalado el cambio hacia DeFAI. Por ejemplo, los usuarios o las organizaciones autónomas descentralizadas (DAOs) podrían implementar un bot para buscar patrones de mercado específicos y ejecutar trades en segundos. Por muy innovador que parezca, la mayoría de los bots operan sobre una infraestructura Web2, lo que introduce en Web3 la vulnerabilidad de un punto centralizado de fallo. 

DeFAI crea nuevas superficies de ataque

La industria no debería dejarse llevar por la emoción de incorporar la IA en los protocolos descentralizados cuando este cambio puede crear nuevas superficies de ataque para las que no está preparada. Los actores maliciosos podrían explotar los agentes de IA mediante manipulación de modelos, envenenamiento de datos o ataques de entrada adversarios. 

Esto se ejemplifica con un agente de IA entrenado para identificar oportunidades de arbitraje entre DEXs

Los actores de amenazas podrían manipular sus datos de entrada, haciendo que el agente ejecute trades no rentables o incluso drene fondos de un pool de liquidez. Además, un agente comprometido podría engañar a un protocolo completo para que crea información falsa o servir como punto de partida para ataques mayores. 

Estos riesgos se agravan por el hecho de que la mayoría de los agentes de IA son actualmente cajas negras. Incluso para los desarrolladores, las capacidades de toma de decisiones de los agentes de IA que crean pueden no ser transparentes. 

Estas características son lo opuesto al ethos de Web3, que se construyó sobre la transparencia y la verificabilidad. 

La seguridad es una responsabilidad compartida

Con estos riesgos en mente, se pueden expresar preocupaciones sobre las implicaciones de DeFAI, incluso pidiendo una pausa en este desarrollo por completo. DeFAI, sin embargo, probablemente continuará evolucionando y verá mayores niveles de adopción. Lo que se necesita entonces es adaptar el enfoque de seguridad de la industria en consecuencia. Los ecosistemas que involucran a DeFAI probablemente requerirán un modelo de seguridad estándar, donde los desarrolladores, usuarios y auditores de terceros determinen los mejores medios para mantener la seguridad y mitigar los riesgos. 

Los agentes de IA deben ser tratados como cualquier otra pieza de infraestructura onchain: con escepticismo y escrutinio. Esto implica auditar rigurosamente su lógica de código, simular los peores escenarios e incluso utilizar ejercicios de equipo rojo para exponer vectores de ataque antes de que los actores maliciosos puedan explotarlos. Además, la industria debe desarrollar estándares de transparencia, como modelos de código abierto o documentación. 

Independientemente de cómo la industria vea este cambio, DeFAI introduce nuevas preguntas en lo que respecta a la confianza de los sistemas descentralizados. Cuando los agentes de IA pueden mantener activos de forma autónoma, interactuar con contratos inteligentes y votar sobre propuestas de gobernanza, la confianza ya no se trata solo de verificar la lógica; se trata de verificar la intención. Esto exige explorar cómo los usuarios pueden asegurarse de que los objetivos de un agente se alineen con los objetivos a corto y largo plazo. 

Hacia una inteligencia segura y transparente

El camino a seguir debe ser el de soluciones multidisciplinares. Las técnicas criptográficas como las zero-knowledge proofs podrían ayudar a verificar la integridad de las acciones de IA, y los marcos de atestación onchain podrían ayudar a rastrear los orígenes de las decisiones. Finalmente, las herramientas de auditoría con elementos de IA podrían evaluar a los agentes de manera tan completa como los desarrolladores actualmente revisan el código de los contratos inteligentes. 

La realidad, sin embargo, es que la industria aún no está ahí. Por ahora, la auditoría rigurosa, la transparencia y las pruebas de estrés siguen siendo la mejor defensa. Los usuarios que consideren participar en protocolos DeFAI deben verificar que los protocolos adopten estos principios en la lógica de IA que los impulsa. 

Asegurando el futuro de la innovación de la IA

DeFAI no es inherentemente inseguro, pero difiere de la mayor parte de la infraestructura actual de Web3. La velocidad de su adopción corre el riesgo de superar los marcos de seguridad en los que la industria confía actualmente. A medida que la industria de las criptomonedas continúa aprendiendo, a menudo por las malas, la innovación sin seguridad es una receta para el desastre. 

Dado que los agentes de IA pronto podrán actuar en nombre de los usuarios, mantener sus activos y dar forma a los protocolos, la industria debe afrontar el hecho de que cada línea de lógica de IA sigue siendo código, y cada línea de código puede ser explotada. 

Si la adopción de DeFAI va a tener lugar sin comprometer la seguridad, debe diseñarse con seguridad y transparencia. Cualquier otra cosa invita a los mismos resultados que la descentralización pretendía evitar. 

Opinión de: Jason Jiang, director de negocios de CertiK.

Este artículo tiene fines de información general y no pretende ser ni debe considerarse asesoramiento legal o de inversión. Las opiniones, pensamientos e ideas expresadas aquí son únicamente del autor y no reflejan ni representan necesariamente las opiniones y puntos de vista de Cointelegraph.