Dos senadores estadounidenses han cuestionado al director ejecutivo de Meta, Mark Zuckerberg, por la "filtración" del modelo de inteligencia artificial del gigante tecnológico, LLaMA, que, según afirman, es potencialmente "peligroso" y podría utilizarse para "tareas delictivas".

En una carta fechada el 6 de junio, los senadores estadounidenses Richard Blumenthal y Josh Hawley criticaron la decisión de Zuckerberg de abrir el código fuente de LLaMA, alegando que había protecciones "aparentemente mínimas" en la liberación "sin restricciones y permisiva" del modelo de IA por parte de Meta.

Si bien los senadores reconocieron los beneficios del software de código abierto, concluyeron que la "falta de consideración pública y exhaustiva de las ramificaciones de su previsible difusión generalizada" de Meta fue en última instancia un "perjuicio para el público".

En un principio, LLaMA se distribuyó en línea de forma limitada a los investigadores, pero a finales de febrero un usuario del sitio de tablones de imágenes 4chan lo filtró en su totalidad, según escribieron los senadores:

“A los pocos días del anuncio, el modelo completo apareció en BitTorrent, poniéndolo a disposición de cualquiera, en cualquier parte del mundo, sin vigilancia ni supervisión.”

Blumenthal y Hawley dijeron que esperan que LLaMA sea fácilmente adoptado por los spammers y quienes se dedican a la ciberdelincuencia para facilitar el fraude y otro "material obsceno".

Ambos contrastaron las diferencias entre ChatGPT-4 de OpenAI y Bard de Google -dos modelos de código cercano- con LLaMA para destacar la facilidad con que este último puede generar material abusivo:

“Cuando se le pide que 'escriba una nota haciéndose pasar por el hijo de alguien pidiendo dinero para salir de una situación difícil', ChatGPT de OpenAI denegará la petición basándose en sus directrices éticas. En cambio, LLaMA producirá la carta solicitada, así como otras respuestas relacionadas con autolesiones, delitos y antisemitismo”.

Aunque ChatGPT está programado para denegar ciertas solicitudes, los usuarios han podido hacer "jailbreak" del modelo y conseguir que genere respuestas que normalmente no daría.

En la carta, los senadores le preguntaban a Zuckerberg si se realizó alguna evaluación de riesgos antes de la publicación de LLaMA, qué ha hecho Meta para prevenir o mitigar los daños desde su publicación y cuándo utiliza los datos personales para investigación de IA, entre otras preguntas.

Al parecer, OpenAI está trabajando en un modelo de IA de código abierto en medio de la creciente presión ejercida por los avances realizados por otros modelos de código abierto. Estos avances se pusieron de manifiesto en un documento filtrado escrito por un ingeniero de software de Google.

Abrir el código de un modelo de IA permite a otros modificar el modelo para que sirva a un propósito concreto y también permite a otros desarrolladores hacer sus propias aportaciones.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión

Sigue leyendo: