Más de 2,600 líderes tecnológicos e investigadores han firmado una carta abierta instando a una pausa temporal en el desarrollo de la inteligencia artificial (IA), por temor a "profundos riesgos para la sociedad y la humanidad".

El CEO de Tesla, Elon Musk, el cofundador de Apple, Steve Wozniak, y un gran número de CEO, CTO e investigadores de IA se encuentran entre los firmantes de la carta, publicada por el think tank estadounidense Future of Life Institute (FOLI) el 22 de marzo.

El instituto pedía a todas las empresas de IA que "pusieran inmediatamente en pausa" el entrenamiento de sistemas de IA más potentes que la GPT-4 durante al menos seis meses, compartiendo la preocupación de que "la inteligencia humana-competitiva puede plantear profundos riesgos para la sociedad y la humanidad", entre otras cosas.

"La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes. Por desgracia, este nivel de planificación y gestión no se está produciendo", escribió el instituto.

GPT-4 es la última iteración del chatbot de OpenAI basado en inteligencia artificial, que se lanzó el 14 de marzo. Hasta la fecha, ha superado algunos de los exámenes de bachillerato y derecho más rigurosos de Estados Unidos dentro del percentil 90. Se entiende que es 10 veces más avanzado que la versión original de ChatGPT.

Hay una "carrera fuera de control" entre las empresas de IA para desarrollar una IA más potente, que "nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable", afirma la FOLI.

Entre las principales preocupaciones se encuentran que las máquinas puedan inundar los canales de información, potencialmente con "propaganda y falsedad" y que las máquinas "automaticen" todas las oportunidades de empleo.

FOLI llevó estas preocupaciones un paso más allá, sugiriendo que los esfuerzos empresariales de estas compañías de IA pueden conducir a una amenaza existencial:

“¿Deberíamos desarrollar mentes no humanas que con el tiempo podrían superarnos en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización?”

"Tales decisiones no deben delegarse a líderes tecnológicos no elegidos", añade la carta.

El instituto también se mostró de acuerdo con una declaración reciente del fundador de OpenAI, Sam Altman, según la cual debería exigirse una revisión independiente antes de entrenar futuros sistemas de IA.

En su blog del 24 de febrero, Altman destacaba la necesidad de prepararse para los robots de inteligencia general artificial (AGI) y superinteligencia artificial (ASI).

Sin embargo, no todos los expertos en IA se han apresurado a firmar la petición. Ben Goertzel, director general de SingularityNET, explicó en una respuesta en Twitter el 29 de marzo a Gary Marcus, autor de Rebooting.AI, que los modelos de aprendizaje del lenguaje (LLM) no se convertirán en AGI, de los que, hasta la fecha, ha habido pocos avances.

En su lugar, dijo que la investigación y el desarrollo deberían ralentizarse para cosas como las armas biológicas y nucleares:

Además de modelos de aprendizaje del lenguaje como ChatGPT, la tecnología de falsificación profunda (o deep fake) basada en IA se ha utilizado para crear imágenes, audio y vídeo convincentes. La tecnología también se ha utilizado para crear obras de arte generadas por IA, lo que ha planteado algunas preocupaciones sobre si podría violar las leyes de derechos de autor en ciertos casos.

El CEO de Galaxy Digital, Mike Novogratz, dijo recientemente a los inversores que estaba sorprendido por la cantidad de atención regulatoria que se ha prestado a las criptomonedas, mientras que poca ha sido hacia la inteligencia artificial.

"Cuando pienso en la IA, me sorprende que estemos hablando tanto de la regulación de las criptomonedas y nada de la regulación de la IA. Es decir, creo que el gobierno lo tiene completamente al revés", opinó durante una convocatoria de accionistas el 28 de marzo.

FOLI ha defendido que, en caso de que la pausa en el desarrollo de la IA no se promulgue con rapidez, los gobiernos deberían implicarse con una moratoria.

"Esta pausa debería ser pública y verificable, e incluir a todos los actores clave. Si esta pausa no puede aplicarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria", escribió.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión

Sigue leyendo: