Demis Hassabis, CEO de Google DeepMind, predijo recientemente que los sistemas de inteligencia artificial alcanzarían una cognición de nivel humano en algún momento entre "los próximos años" y "quizá dentro de una década".
Hassabis, que se inició en la industria del gaming, cofundó Google DeepMind (antes DeepMind Technologies), la empresa conocida por desarrollar el sistema de IA AlphaGo, responsable de vencer a los mejores jugadores humanos de Go del mundo.
En una entrevista reciente realizada durante el festival Future of Everything de The Wall Street Journal, Hassabis declaró al entrevistador Chris Mims que cree inminente la llegada de máquinas con un nivel de cognición humano:
"Los avances de los últimos años han sido increíbles. No veo ninguna razón por la que ese progreso vaya a ralentizarse. Creo que incluso puede acelerarse. Así que creo que podríamos estar a sólo unos años, tal vez dentro de una década".
Estos comentarios llegan apenas dos semanas después de que una reestructuración interna llevara a Google a anunciar la fusión de "Google AI" y "DeepMind" en la acertadamente llamada "Google DeepMind".
Cuando se le pidió que definiera "AGI" -inteligencia artificial general -, Hassabis respondió: "Cognición a nivel humano".
En la actualidad no existe ninguna definición, prueba o punto de referencia estandarizado para la AGI ampliamente aceptado por la comunidad STEM. Tampoco existe un consenso científico unificado sobre si la AGI es siquiera posible.
Algunas figuras notables, como Roger Penrose (compañero de investigación de Stephen Hawking durante muchos años), creen que la AGI no puede lograrse, mientras que otros piensan que los científicos e ingenieros podrían tardar décadas o siglos en descifrarla.
Elon Musk y Sam Altman, director ejecutivo de OpenAI, son algunos de los que apuestan por la inteligencia artificial a corto plazo, o por alguna forma similar de inteligencia artificial de nivel humano.
Don’t Look Up … but AGI instead of comet
— Elon Musk (@elonmusk) April 1, 2023
La inteligencia artificial general se ha convertido en un tema muy popular tras el lanzamiento de ChatGPT y otros muchos productos y servicios similares en los últimos meses. A menudo citada como la tecnología del "santo grial", los expertos predicen que la IA a nivel humano alterará todas las facetas de la vida en la Tierra.
Si algún día se consigue una IA de nivel humano, podría trastornar varios aspectos de la industria de las criptomonedas. En el mundo de las criptomonedas, podríamos ver máquinas totalmente autónomas capaces de actuar como empresarios, ejecutivos de alto nivel, asesores y traders con la capacidad de razonamiento intelectual de un ser humano y la habilidad de retener información y ejecutar código de un sistema informático.
Queda por ver si los agentes AGI nos servirían como herramientas potenciadas por la IA o competirían con nosotros por los recursos.
Por su parte, Hassabis no especuló con ningún escenario, pero sí declaró a The Wall Street Journal que "abogaría por desarrollar este tipo de tecnologías AGI de forma cautelosa utilizando el método científico, en el que se intenta hacer experimentos controlados muy cuidadosos para entender lo que hace el sistema subyacente".
Esto podría yuxtaponerse al panorama actual, en el que productos como Google Bard, de su propia empresa, y ChatGPT, de OpenAI, se han puesto recientemente a disposición del público.
Expertos del sector como Sam Altman, CEO de OpenAI, y Nando de Freitas, de DeepMind, han declarado que creen que la inteligencia artificial podría surgir por sí sola si los desarrolladores siguen ampliando los modelos actuales. Recientemente, un investigador de Google se desvinculó de la empresa tras afirmar que un modelo llamado LaMDA ya era inteligente.
Solving these scaling challenges is what will deliver AGI. Research focused on these problems, eg S4 for greater memory, is needed. Philosophy about symbols isn’t. Symbols are tools in the world and big nets have no issue creating them and manipulating them 2/n
— Nando de Freitas ï¸ (@NandoDF) May 14, 2022
Debido a la incertidumbre que rodea el desarrollo de estas tecnologías y su posible impacto en la humanidad, miles de personas, entre ellas Elon Musk y el cofundador de Apple Inc. Steve Wozniak, firmaron recientemente una carta abierta en la que piden a las empresas y particulares que construyen sistemas relacionados con ellas que pausen su desarrollo durante seis meses para que los científicos puedan evaluar su potencial dañino.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.