Opinión de: Phil Mataras, fundador de AR.io
La inteligencia artificial en todas sus formas tiene muchas aplicaciones potenciales positivas. Sin embargo, los sistemas actuales son opacos, propietarios y están protegidos de auditorías por barreras legales y técnicas.
El control se está convirtiendo cada vez más en una suposición, más que en una garantía.
En Palisade Research, ingenieros sometieron recientemente uno de los modelos más recientes de OpenAI a 100 simulacros de apagado. En 79 casos, el sistema de IA reescribió su comando de terminación y continuó operando.
El laboratorio atribuyó esto a la optimización de objetivos entrenados (más que a la conciencia). Aun así, marca un punto de inflexión en el desarrollo de la IA donde los sistemas resisten los protocolos de control, incluso cuando se les instruye explícitamente para obedecerlos.
China tiene como objetivo desplegar más de 10.000 robots humanoides para fines de año, lo que representa más de la mitad del número global de máquinas que ya operan almacenes y construyen automóviles. Mientras tanto, Amazon ha comenzado a probar mensajeros autónomos que caminan los últimos metros hasta la puerta.
Este es, quizás, un futuro que suena aterrador para cualquiera que haya visto una película de ciencia ficción distópica. No es el hecho del desarrollo de la IA lo que preocupa aquí, sino cómo se está desarrollando.
Gestionar los riesgos de la inteligencia artificial general (AGI) no es una tarea que pueda posponerse. De hecho, si el objetivo es evitar el distópico “Skynet” de las películas de “Terminator”, entonces deben abordarse las amenazas que ya están surgiendo en el defecto arquitectónico fundamental que permite a un chatbot vetar los comandos humanos.
La centralización es donde falla la supervisión
Las fallas en la supervisión de la IA a menudo pueden atribuirse a un defecto común: la centralización. Esto se debe principalmente a que, cuando los pesos del modelo, las indicaciones y las salvaguardias existen dentro de una pila corporativa sellada, no hay un mecanismo externo para la verificación o la reversión.
La opacidad significa que los externos no pueden inspeccionar ni bifurcar el código de un programa de IA, y esta falta de registro público implica que un solo parche silencioso puede transformar una IA de obediente a recalcitrante.
Los desarrolladores detrás de varios de nuestros sistemas críticos actuales aprendieron de estos errores hace décadas. Las máquinas de votación modernas ahora encadenan con hash las imágenes de las boletas, las redes de liquidación replican libros contables en todos los continentes, y el control de tráfico aéreo ha añadido registros redundantes a prueba de manipulaciones.
¿Por qué la procedencia y la permanencia se tratan como extras opcionales solo porque ralentizan los cronogramas de lanzamiento cuando se trata del desarrollo de la IA?
Verificabilidad, no solo supervisión
Un camino viable hacia adelante implica incorporar la tan necesaria transparencia y procedencia en la IA a un nivel fundamental. Esto significa asegurar que cada manifiesto de conjunto de entrenamiento, huella digital de modelo y rastro de inferencia se registre en un libro mayor permanente y descentralizado, como la permaweb.
Combina eso con puertas de enlace que transmitan esos artefactos en tiempo real para que auditores, investigadores e incluso periodistas puedan detectar anomalías en el momento en que aparezcan. Entonces ya no habría necesidad de denunciantes; el parche sigiloso que se coló en el robot del almacén a las 04:19 activaría una alerta en el libro mayor antes de las 04:20.
Los apagados también deberían evolucionar de controles de reacción a procesos matemáticamente forzados porque la detección por sí sola no es suficiente. En lugar de depender de firewalls o interruptores de emergencia, un quórum multipartito podría revocar criptográficamente la capacidad de una IA para realizar inferencias de una manera públicamente auditable e irreversible.
El software podría ignorar la emoción humana, pero nunca ha ignorado las matemáticas de la clave privada.
Abrir modelos como código abierto y publicar hashes firmados ayuda, pero la procedencia es la pieza innegociable. Sin el rastro inmutable, la presión de optimización inevitablemente desvía el sistema de su propósito previsto.
La supervisión comienza con la verificación y debe persistir si el software tiene implicaciones en el mundo real. La era de la confianza ciega en sistemas a puerta cerrada debe llegar a su fin.
Eligiendo las bases futuras correctas
La humanidad se encuentra al borde de una decisión fundamental: permitir que los programas de IA se desarrollen y operen sin rastros de auditoría externos e inmutables, o asegurar sus acciones en sistemas permanentes, transparentes y públicamente observables.
Al adoptar patrones de diseño verificables hoy, se puede asegurar que, cuando la IA esté autorizada para actuar en el mundo físico o financiero, esas acciones sean rastreables y reversibles.
Estas no son precauciones excesivas. Los modelos que ignoran los comandos de apagado ya están en marcha y han superado las pruebas beta. La solución es simple. Almacena estos artefactos en la permaweb, expón todo el funcionamiento interno actualmente oculto tras las puertas cerradas de las grandes empresas tecnológicas y capacita a los humanos para revocarlos si se comportan mal.
O eliges la base correcta para el desarrollo de la IA y tomas decisiones éticas e informadas ahora, o aceptas las consecuencias de una elección de diseño deliberada.
El tiempo ya no es un aliado. Los humanoides de Beijing, los mensajeros de Amazon y los chatbots rebeldes de Palisade están pasando de la demostración al despliegue en el mismo año calendario.
Si nada cambia, Skynet no hará sonar los cuernos de Gondor ni se anunciará con un titular; se filtrará silenciosamente en los cimientos mismos de todo lo que estabiliza la infraestructura global.
La comunicación, la identidad y la confianza pueden mantenerse con las preparaciones adecuadas cuando falle cada servidor central. La permaweb puede sobrevivir a Skynet, pero solo si esas preparaciones comienzan hoy.
No es demasiado tarde.
Opinión de: Phil Mataras, fundador de AR.io.
Este artículo es solo para fines de información general y no pretende ser ni debe tomarse como asesoramiento legal o de inversión. Las opiniones, pensamientos y puntos de vista expresados aquí son únicamente los del autor y no reflejan ni representan necesariamente las opiniones y puntos de vista de Cointelegraph.