Sam Altman, CEO de OpenAI, Greg Brockman, director de tecnología, e Ilya Sutskever, científico principal, han escrito recientemente un artículo en su blog en el que detallan la postura de OpenAI sobre el desarrollo y la gobernanza de la "superinteligencia". 

Tal vez no resulte sorprendente que la empresa -ampliamente aceptada como líder actual de la industria en tecnologías de inteligencia artificial (IA) generativa- crea que sería más arriesgado no desarrollar IA sobrehumana que seguir adelante con sus esfuerzos:

"Dado el panorama tal y como lo vemos ahora, es concebible que en los próximos diez años los sistemas de IA superen el nivel de destreza de los expertos en la mayoría de los dominios y lleven a cabo tanta actividad productiva como una de las mayores corporaciones actuales".

El potencial de los sistemas de IA para alcanzar el nivel humano (un paradigma a menudo denominado "AGI", o inteligencia artificial general) o, como advierte OpenAI, para superar incluso las capacidades humanas a nivel de experto, sigue siendo objeto de un amplio debate. Muchos expertos afirman que está lejos de ser inevitable que las máquinas alcancen o superen alguna vez nuestras propias capacidades cognitivas.

Parece que los líderes de OpenAI, Altman, Brockman y Sutskever, prefieren pecar de precavidos. Su versión de la cautela, sin embargo, no aboga por la moderación.

La publicación sugiere una mayor supervisión gubernamental, la participación del público en el proceso de toma de decisiones y una mayor colaboración entre desarrolladores y empresas del sector. Estos puntos reflejan las respuestas de Altman a las preguntas de los miembros del subcomité del Senado en una reciente audiencia en el Congreso.

El artículo también señala que, según OpenAI, sería "arriesgado y difícil detener la creación de superinteligencia". El post concluye con: "Tenemos que hacerlo bien".

Para explicar el aparente enigma, los autores sugieren que detener la supuestamente inevitable creación de una IA superinteligente requeriría un régimen de vigilancia global. "E incluso eso", escriben, "no está garantizado que funcione".

En última instancia, los autores parecen concluir que, para desarrollar los controles y mecanismos de gobernanza necesarios para proteger a la humanidad de una IA superinteligente, OpenAI debe seguir trabajando en la creación de una IA superinteligente.

Mientras continúa el debate mundial sobre cómo deben gobernarse y regularse exactamente estas tecnologías y su desarrollo, las comunidades de criptomoneda, blockchain y Web3 siguen atrapadas en un limbo normativo que les resulta familiar.

La IA ha penetrado en todos los sectores tecnológicos, y la tecnología financiera no es una excepción. Con los bots de negociación de criptomonedas creados a partir de ChatGPT y la API de GPT e innumerables exchanges que implementan soluciones de IA en sus plataformas de análisis y atención al cliente, cualquier esfuerzo regulador que afecte al desarrollo de productos de IA orientados al consumidor como ChatGPT podría tener un impacto disruptivo en ambas industrias.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.

Sigue leyendo: