La inteligencia artificial (IA) nunca llegará a ser un ser consciente debido a la falta de intención, que es endémica de los seres humanos y otras criaturas biológicas, según Sandeep Nailwal, cofundador de Polygon y de la empresa de IA de código abierto Sentient.

"No veo que la IA vaya a tener un nivel significativo de conciencia", declaró Nailwal a Cointelegraph en una entrevista, añadiendo que no cree posible el escenario catastrofista de que la IA llegue a ser consciente de sí misma y se apodere de la humanidad.

El ejecutivo se mostró crítico con la teoría de que la conciencia surge aleatoriamente debido a interacciones o procesos químicos complejos y afirmó que, si bien estos procesos pueden crear células complejas, no pueden crear conciencia.

En cambio, a Nailwal le preocupa que las instituciones centralizadas hagan un mal uso de la inteligencia artificial para la vigilancia y recorten las libertades individuales, por lo que la IA debe ser transparente y democratizarse. Nailwal afirma:

"Esa es mi idea central por la que se me ocurrió la idea de Sentient, que con el tiempo la IA global, que realmente puede crear un mundo sin fronteras, debería ser una IA controlada por cada ser humano".

El ejecutivo añadió que estas amenazas centralizadas son la razón por la que cada individuo necesita una IA personalizada que trabaje en su nombre y sea leal a ese individuo concreto para protegerse de otras IA desplegadas por instituciones poderosas.

Supercomputer

El enfoque de modelo abierto de Sentient para la IA frente al enfoque poco transparente de las plataformas centralizadas. Fuente: Sentient Whitepaper

La IA descentralizada puede ayudar a prevenir un desastre antes de que se produzca

En octubre de 2024, la empresa de IA Anthropic publicó un documento en el que esbozaba escenarios en los que la IA podría sabotear a la humanidad y posibles soluciones al problema.

En última instancia, el documento concluía que la IA no es una amenaza inmediata para la humanidad, pero podría volverse peligrosa en el futuro a medida que los modelos de IA se vuelvan más avanzados.

Supercomputer

Diferentes tipos de escenarios potenciales de sabotaje de la IA esbozados en el documento de Anthropic. Fuente: Anthropic

David Holtzman, antiguo profesional de la inteligencia militar y director de estrategia del protocolo de seguridad descentralizado Naoris, declaró a Cointelegraph que la IA supone un enorme riesgo para la privacidad a corto plazo.

Al igual que Nailwal, Holtzman argumentó que las instituciones centralizadas, incluido el Estado, podrían utilizar la IA para la vigilancia y que la descentralización es un baluarte contra las amenazas de la IA.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.