El cofundador de OpenAI, Sam Altman, supuestamente está buscando recaudar hasta $7 billones para un proyecto que aborde la masiva escasez global de chips de semiconductores, impulsada por el rápido crecimiento en la demanda de inteligencia artificial generativa (GenAI). Pero es mucho más que eso, según Altman:

“Creemos que el mundo necesita más infraestructura de IA —capacidad fab, energía, centros de datos, etc.— de la que actualmente la gente está planeando construir. Construir una infraestructura de IA a gran escala y una cadena de suministro resiliente es crucial para la competitividad económica. ¡OpenAI intentará ayudar!” escribió Altman en un post de X.

Escalar con esta cantidad de dinero implica que todo se construirá en GenAI, con el objetivo final de lograr la inteligencia artificial general, sistemas que superen la inteligencia humana, lo cual es en sí mismo una cuestión discutible.

¿Y por qué necesitaríamos un "escalamiento" masivo de la infraestructura de IA?

“Puedes trabajar duro para ayudar a asegurar nuestro futuro colectivo o puedes escribir sobre por qué vamos a fallar,” agregó Altman en un post posterior.

¿Realmente es para asegurar “nuestro futuro colectivo”? ¿O el futuro de OpenAI?

OpenAI necesita más potencia de cómputo y más centros de datos (actualmente depende de Microsoft) para superar sus limitaciones de crecimiento, particularmente la escasez de chips de IA que son esenciales para entrenar modelos de lenguaje grandes (LLMs) como ChatGPT.

Además de la enorme cantidad de dinero —que es más del PIB de cualquier país excepto Estados Unidos y China— hay algo irresponsable en la “petición” de Altman.

Ninguna tecnología es perfecta, y la IA no es una excepción. El potencial de la IA para traer inmensos beneficios a la sociedad es tan grande como su potencial para causar daño. Los legisladores requieren que las empresas se adhieran a la IA responsable y a la innovación responsable, y nosotros, como sociedad, deberíamos exigirlo.

La innovación responsable es la idea de hacer que las nuevas tecnologías funcionen para la sociedad sin causar más problemas de los que resuelven. Esto se aplica a todas las tecnologías, todas las innovaciones, en todas las organizaciones, industrias y regiones.

¿No estamos yendo demasiado lejos? ¿No deberíamos abordar los riesgos y desafíos que conllevan los sistemas de IA, mitigando y controlando sus riesgos, asegurándonos de que no causen más problemas de los que resuelven, antes de escalarlos?

Riesgos y desafíos de la IA

La IA se basa en datos, y con GenAI estamos hablando de vastas cantidades de datos. Esta dependencia de los datos conlleva muchos riesgos y desafíos críticos. Los datos pueden estar incompletos o ser erróneos, o pueden ser utilizados inapropiadamente, incorrectamente o de manera inexacta. Si la entrada es incorrecta, también lo será la salida: “Basura entra, basura sale”. En el mundo de los LLMs, ahora nos enfrentamos a un “Basura entra, basura sale” potenciado. Cuando los LLMs procesan información deficiente o desactualizada, no solo la replican. La amplifican, haciéndola sonar correcta y plausible. Este fenómeno de “basura potenciada” nos lleva a una encrucijada crucial.

Además, uno de los problemas centrales con los sistemas de IA es el sesgo algorítmico y está bien documentado que conduce a la discriminación. Este problema aún no ha sido abordado adecuadamente, aunque los legisladores han solicitado a las empresas tecnológicas que lo hagan.

Y hay otros problemas, especialmente con GenAI: alucinaciones, desinformación, falta de explicabilidad, estafas, derechos de autor, privacidad del usuario y seguridad de los datos, todos los cuales no han sido completamente abordados ni mitigados. Un problema menos discutido, pero esencial, son las implicaciones ambientales de la IA. Los sistemas de IA son voraces en energía, la cual requieren para la computación y los centros de datos.

La Agencia Internacional de Energía pronosticó que la demanda global de electricidad, impulsada por el crecimiento de la IA, se duplicará para 2026. Este problema podría mitigarse a medida que las computadoras se vuelvan más eficientes, o con técnicas más eficientes para reducir la energía o el uso de energías renovables. Pero estas soluciones potenciales no han sido probadas y muchas aún no han sido completamente desarrolladas.

La administración Biden y la Unión Europea piden una IA responsable

Los legisladores están pidiendo una "IA responsable" —segura, segura y confiable. El presidente Joe Biden firmó una orden ejecutiva en septiembre (EO) que requiere, entre otras cosas, que las empresas 1) desarrollen herramientas de IA para encontrar y corregir vulnerabilidades de ciberseguridad; 2) desarrollen y utilicen técnicas de preservación de la privacidad —como herramientas criptográficas que preserven la privacidad de los individuos de los datos entrenados; 3) protejan a los consumidores, pacientes y estudiantes —para evitar que la IA aumente el riesgo de lesionar, engañar o de alguna otra manera dañar a los estadounidenses; 4) protejan a los trabajadores contra los peligros del aumento de la vigilancia en el lugar de trabajo, el sesgo y la pérdida de empleo; y 5) un enfoque especial en el sesgo algorítmico y la discriminación para asegurarse de que el sesgo algorítmico se aborde a lo largo del desarrollo y entrenamiento de estos sistemas.

En julio de 2023, OpenAI firmó un compromiso voluntario con la administración Biden para gestionar los riesgos que plantea la IA y adherirse a la IA responsable. OpenAI aún no ha demostrado la "IA responsable" accionable que se comprometió a emprender.

La Ley de IA de la Comisión Europea. Fuente: euAIact.com

Al igual que la EO, la Ley de IA de la Unión Europea requiere transparencia en la documentación y auditoría del desarrollo, especialmente para modelos fundacionales y GenAI. Los sistemas de IA no están configurados de manera que proporcionen esta información, y los legisladores no han proporcionado soluciones prácticas. Surge la necesidad de una IA responsable y auditable. Aquí es donde la tecnología blockchain puede ayudar a proporcionar una solución que permita a las empresas cumplir con las solicitudes de los legisladores e implementar una “IA responsable y auditable” —segura, segura y confiable. Tal vez OpenAI podría considerar implementar una solución de este tipo y demostrar la auditabilidad adecuada de los sistemas de IA.

Implementar IA responsable —incluida la auditabilidad de los sistemas de IA y mitigar las implicaciones energéticas—, todo con resultados satisfactorios, debería abordarse antes de escalar estos sistemas, y mucho menos el “escalamiento masivo”.

Innovar de manera responsable y asegurarse de que los sistemas de IA sean —seguros, seguros y confiables asegurará nuestro futuro colectivo. Puede que no sea el camino de Sam Altman, pero es el camino correcto.

Dr. Merav Ozair está desarrollando y enseñando cursos de tecnologías emergentes en la Universidad Wake Forest y la Universidad Cornell. Anteriormente fue profesora de FinTech en la Escuela de Negocios Rutgers, donde enseñó cursos sobre Web3 y tecnologías emergentes relacionadas. Es miembro del consejo asesor académico de la Asociación Internacional para Aplicaciones de Blockchain Confiables (INATBA) y forma parte del consejo asesor de EQM Indexes — Comité del Índice Blockchain. Es fundadora de Emerging Technologies Mastery, una consultora de extremo a extremo de Web3 y IA, y tiene un doctorado de la Escuela de Negocios Stern de NYU.

Este artículo es para fines de información general y no pretende ser ni debe tomarse como asesoramiento legal o de inversión. Las opiniones expresadas aquí son únicamente del autor y no necesariamente reflejan o representan las opiniones de Cointelegraph.