Los grandes modelos lingüísticos (LLM), como ChatGPT y Claude, no van a conducir pronto a una inteligencia artificial (IA) de nivel humano. Al menos, no según Yann LeCun, científico jefe de IA de Meta.

LeCun habló recientemente con la revista Time sobre la inteligencia artificial general (IAG), un término nebuloso utilizado para describir un sistema teórico de IA capaz de realizar cualquier tarea si se le proporcionan los recursos adecuados.

Aunque no hay consenso científico sobre lo que debería ser capaz de hacer un sistema de IA para ser considerado una AGI, el jefe de LeCun, el CEO y fundador de Meta, Mark Zuckerberg, causó sensación recientemente al anunciar que Meta se estaba orientando hacia el desarrollo de la AGI.

"Hemos llegado a la conclusión de que, para construir los productos que queremos construir, tenemos que construir para la inteligencia general", dijo Zuckerberg en una entrevista reciente con The Verge.

La AGI de Zuckerberg y la IA humana de LeCun

LeCun parece discrepar de Zuckerberg, al menos semánticamente. En declaraciones a Time, LeCun dijo que odiaba el término "AGI". Prefiere llamarla "IA a nivel humano", señalando que los humanos tampoco son inteligencias generales.

En cuanto a los LLM, una clase de IA que incluye a Llama-2 de Meta, ChatGPT de OpenAI y Gemini de Google, LeCun cree que ni siquiera se acercan a la inteligencia de un gato. Esto las sitúa muy lejos de la inteligencia humana.

“Cosas que damos por sentado resultan extremadamente complicadas de reproducir para las computadoras. Así que la AGI, o IA a nivel humano, no está a la vuelta de la esquina, sino que requerirá algunos cambios de percepción bastante profundos”.

Optimismo desenfrenado de la IA

LeCun también se puso filosófico sobre el debate en curso acerca de si los sistemas de IA de código abierto, como Llama-2 de Meta, suponen una amenaza para la humanidad.

Rechazó de plano la idea de que la IA suponga una amenaza desproporcionada. Cuando se le preguntó: "¿Y si un humano, con ansias de dominar, programa ese objetivo en la IA?". LeCun afirmó que si existiera esa "IA mala", entonces "habrá IA buenas y más inteligentes que acaben con ellas".

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión