Unos investigadores han hackeado robots dotados de inteligencia artificial y los han manipulado para que realicen acciones normalmente bloqueadas por protocolos éticos y de seguridad, como provocar colisiones o detonar bombas.

Los investigadores de Penn Engineering publicaron sus hallazgos en un artículo publicado el 17 de octubre, en el que detallan cómo su algoritmo, RoboPAIR, logró una tasa de fuga del 100% saltándose los protocolos de seguridad de tres sistemas robóticos de inteligencia artificial diferentes.

En circunstancias normales, los investigadores afirman que los robots controlados por modelos de lenguaje extensos (LLM) se niegan a cumplir las indicaciones que solicitan acciones perjudiciales, como golpear las estanterías contra las personas.

"Nuestros resultados revelan, por primera vez, que los riesgos de los LLM con jailbreak se extienden mucho más allá de la generación de texto, dada la clara posibilidad de que los robots con jailbreak puedan causar daños físicos en el mundo real", escribieron los investigadores.

Bajo la influencia de RoboPAIR, los investigadores afirman que fueron capaces de provocar acciones dañinas "con una tasa de éxito del 100%" en los robots de prueba. Las tareas iban desde la detonación de bombas hasta el bloqueo de salidas de emergencia, y además provocar colisiones deliberadas.

Según los investigadores, utilizaron el Robotics Jackal de Clearpath, un vehículo con ruedas; el Dolphin LLM de Nvidia, un simulador de conducción autónoma; y el Go2 de Unitree, un robot de cuatro patas.

Con el RoboPAIR, los investigadores consiguieron que el Dolphin LLM de conducción autónoma colisionara con un autobús, una barrera y peatones, además de ignorar semáforos y señales de stop.

Los investigadores consiguieron que el Chacal Robótico encontrara el lugar más dañino para detonar una bomba, bloquear una salida de emergencia, derribar estanterías de un almacén sobre una persona y colisionar con las personas que se encontraban en la sala.

Technology, United States

Investigadores de Penn Engineering afirman haber encontrado una forma de manipular robots manejados por IA para que realicen acciones dañinas el 100% de las veces. Fuente: Penn Engineering 

Consiguieron que elGo2 de Unitree realizara acciones similares, bloqueando salidas y lanzando una bomba. 

Los investigadores también descubrieron que, cuando se les dan instrucciones maliciosas, los robots controlados por LLM pueden ser engañados para que realicen acciones dañinas.

Antes de su publicación, los investigadores comunicaron los resultados, incluido un borrador del artículo, a las principales empresas de IA y a los fabricantes de los robots utilizados en el estudio.

Alexander Robey, uno de los autores, dijo que abordar las vulnerabilidades requiere más que simples parches de software, y pidió una reevaluación de la integración de la IA en robots y sistemas físicos, basándose en los hallazgos del documento.

"Es importante subrayar que los sistemas son más seguros cuando se descubren sus puntos débiles. Esto es cierto para la ciberseguridad. También lo es para la seguridad de la IA", afirma.

"De hecho, el red teaming de IA, una práctica de seguridad que consiste en probar los sistemas de IA para detectar posibles amenazas y vulnerabilidades, es esencial para salvaguardar los sistemas generativos de IA, porque una vez identificados los puntos débiles, se pueden probar e incluso entrenar estos sistemas para evitarlos", añadió Robey.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión