La única forma de combatir el uso malicioso de la inteligencia artificial (IA) puede ser desarrollar continuamente IA más potente y ponerla en manos del gobierno.

Esa parece ser la conclusión a la que llegó un equipo de investigadores en un documento recientemente publicado, titulado “Computing power and the governance of artificial intelligence”.

Científicos de OpenAI, Cambridge, Oxford y una docena de otras universidades e institutos llevaron a cabo la investigación como medio para investigar los desafíos actuales y futuros involucrados en gobernar el uso y desarrollo de la IA.

Centralización

El argumento principal del documento gira en torno a la idea de que, aparentemente, la única forma de controlar quién tiene acceso a los sistemas de IA más potentes en el futuro es controlar el acceso al hardware necesario para entrenar y ejecutar modelos.

Como lo expresan los investigadores:

“Más precisamente, los responsables políticos podrían utilizar la capacidad de cómputo para facilitar la visibilidad regulatoria de la IA, asignar recursos para promover resultados beneficiosos y aplicar restricciones contra el desarrollo y uso irresponsable o malicioso de la IA”.

En este contexto, "capacidad de cómputo" se refiere al hardware fundamental necesario para desarrollar IA, como GPUs y CPUs.

Esencialmente, los investigadores sugieren que la mejor manera de evitar que las personas utilicen la IA para causar daño sería cortar el suministro desde la fuente. Esto sugiere que los gobiernos necesitarían desarrollar sistemas para monitorear el desarrollo, la venta y el funcionamiento de cualquier hardware que se considere necesario para el desarrollo de IA avanzada.

Gobernanza de la inteligencia artificial

En ciertos aspectos, los gobiernos de todo el mundo ya están ejerciendo la "gobernanza de la capacidad de cómputo". Por ejemplo, Estados Unidos restringe la venta de ciertos modelos de GPU que se utilizan típicamente para entrenar sistemas de IA a países como China.

Pero, según la investigación, limitar verdaderamente la capacidad de actores maliciosos para causar daño con la IA requerirá que los fabricantes incorporen "interruptores de apagado" en el hardware. Esto podría otorgar a los gobiernos la capacidad de llevar a cabo esfuerzos de "ejecución remota", como cerrar centros de entrenamiento ilegales de IA.

Sin embargo, como señalan los investigadores, "enfoques ingenuos o mal diseñados para la gobernanza de la capacidad de cómputo conllevan riesgos significativos en áreas como la privacidad, los impactos económicos y la centralización del poder".

Monitorear el uso de hardware en los Estados Unidos, por ejemplo, podría chocar con las recientes directrices de la Casa Blanca sobre el desarrollo de un "borrador de una declaración de derechos de la IA" que establece que los ciudadanos tienen derecho a proteger sus datos.

Los interruptores de apagado podrían quedar inservibles

Además de esas preocupaciones, los investigadores también señalan que los recientes avances en el entrenamiento "eficiente en comunicaciones" podrían llevar al uso de capacidad de cómputo descentralizada para entrenar, construir y ejecutar modelos.

Esto podría dificultar cada vez más a los gobiernos ubicar, monitorear y cerrar hardware asociado con esfuerzos de entrenamiento ilegales.

Según los investigadores, esto podría dejar a los gobiernos sin otra opción que adoptar una postura de carrera armamentista contra el uso ilícito de la IA. "La sociedad tendrá que utilizar capacidad de cómputo más potente y gobernable de manera oportuna y sabia para desarrollar defensas contra los riesgos emergentes planteados por la capacidad de cómputo ingobernable".

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.