Más de 2,600 líderes tecnológicos e investigadores han firmado una carta abierta instando a una pausa temporal en el desarrollo de la inteligencia artificial (IA), por temor a "profundos riesgos para la sociedad y la humanidad".
El CEO de Tesla, Elon Musk, el cofundador de Apple, Steve Wozniak, y un gran número de CEO, CTO e investigadores de IA se encuentran entre los firmantes de la carta, publicada por el think tank estadounidense Future of Life Institute (FOLI) el 22 de marzo.
El instituto pedía a todas las empresas de IA que "pusieran inmediatamente en pausa" el entrenamiento de sistemas de IA más potentes que la GPT-4 durante al menos seis meses, compartiendo la preocupación de que "la inteligencia humana-competitiva puede plantear profundos riesgos para la sociedad y la humanidad", entre otras cosas.
We're calling on AI labs to temporarily pause training powerful models!
— Future of Life Institute (@FLIxrisk) March 29, 2023
Join FLI's call alongside Yoshua Bengio, @stevewoz, @harari_yuval, @elonmusk, @GaryMarcus & over a 1000 others who've signed: https://t.co/3rJBjDXapc
A short on why we're calling for this - (1/8)
Pedimos a los laboratorios de IA que suspendan temporalmente el entrenamiento de modelos potentes. Únete al pedido de FLI junto a Yoshua Bengio, @stevewoz, @harari_yuval, @elonmusk, @GaryMarcus y más de 1000 firmantes: https://t.co/3rJBjDXapc. Una breve explicación sobre por qué pedimos esto - (1/8)
"La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes. Por desgracia, este nivel de planificación y gestión no se está produciendo", escribió el instituto.
GPT-4 es la última iteración del chatbot de OpenAI basado en inteligencia artificial, que se lanzó el 14 de marzo. Hasta la fecha, ha superado algunos de los exámenes de bachillerato y derecho más rigurosos de Estados Unidos dentro del percentil 90. Se entiende que es 10 veces más avanzado que la versión original de ChatGPT.
Hay una "carrera fuera de control" entre las empresas de IA para desarrollar una IA más potente, que "nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable", afirma la FOLI.
BREAKING: A petition is circulating to PAUSE all major AI developments.
— Lorenzo Green 〰️ (@mrgreen) March 29, 2023
e.g. No more ChatGPT upgrades & many others.
Signed by Elon Musk, Steve Wozniak, Stability AI CEO & 1000s of other tech leaders.
Here's the breakdown: pic.twitter.com/jR4Z3sNdDw
NOTICIA: Está circulando una petición para PARAR todos los desarrollos importantes de IA. Por ejemplo, no más actualizaciones de ChatGPT y muchas otras. Está firmada por Elon Musk, Steve Wozniak, el CEO de Stability AI y miles de otros líderes tecnológicos. Este es el desglose: pic.twitter.com/jR4Z3sNdDw
Entre las principales preocupaciones se encuentran que las máquinas puedan inundar los canales de información, potencialmente con "propaganda y falsedad" y que las máquinas "automaticen" todas las oportunidades de empleo.
FOLI llevó estas preocupaciones un paso más allá, sugiriendo que los esfuerzos empresariales de estas compañías de IA pueden conducir a una amenaza existencial:
“¿Deberíamos desarrollar mentes no humanas que con el tiempo podrían superarnos en número, inteligencia, obsolescencia y reemplazo? ¿Debemos arriesgarnos a perder el control de nuestra civilización?”
"Tales decisiones no deben delegarse a líderes tecnológicos no elegidos", añade la carta.
Having a bit of AI existential angst today
— Elon Musk (@elonmusk) February 26, 2023
Hoy tengo un poco de angustia existencial por la IA
El instituto también se mostró de acuerdo con una declaración reciente del fundador de OpenAI, Sam Altman, según la cual debería exigirse una revisión independiente antes de entrenar futuros sistemas de IA.
En su blog del 24 de febrero, Altman destacaba la necesidad de prepararse para los robots de inteligencia general artificial (AGI) y superinteligencia artificial (ASI).
Sin embargo, no todos los expertos en IA se han apresurado a firmar la petición. Ben Goertzel, director general de SingularityNET, explicó en una respuesta en Twitter el 29 de marzo a Gary Marcus, autor de Rebooting.AI, que los modelos de aprendizaje del lenguaje (LLM) no se convertirán en AGI, de los que, hasta la fecha, ha habido pocos avances.
En su lugar, dijo que la investigación y el desarrollo deberían ralentizarse para cosas como las armas biológicas y nucleares:
On the whole, human society will be better off with GPT-5 than GPT-4 -- better to have slightly smarter models around. AIs taking human jobs will ultimately a good thing. The hallucinations and banality will decrease and folks will learn to work around them.
— Ben Goertzel (@bengoertzel) March 29, 2023
En general, la sociedad humana estará mejor con GPT-5 que con GPT-4: es mejor tener modelos ligeramente más inteligentes. En última instancia, que las IA ocupen puestos de trabajo humanos será algo positivo. Las alucinaciones y la banalidad disminuirán y la gente aprenderá a trabajar con ellas.
Además de modelos de aprendizaje del lenguaje como ChatGPT, la tecnología de falsificación profunda (o deep fake) basada en IA se ha utilizado para crear imágenes, audio y vídeo convincentes. La tecnología también se ha utilizado para crear obras de arte generadas por IA, lo que ha planteado algunas preocupaciones sobre si podría violar las leyes de derechos de autor en ciertos casos.
El CEO de Galaxy Digital, Mike Novogratz, dijo recientemente a los inversores que estaba sorprendido por la cantidad de atención regulatoria que se ha prestado a las criptomonedas, mientras que poca ha sido hacia la inteligencia artificial.
"Cuando pienso en la IA, me sorprende que estemos hablando tanto de la regulación de las criptomonedas y nada de la regulación de la IA. Es decir, creo que el gobierno lo tiene completamente al revés", opinó durante una convocatoria de accionistas el 28 de marzo.
FOLI ha defendido que, en caso de que la pausa en el desarrollo de la IA no se promulgue con rapidez, los gobiernos deberían implicarse con una moratoria.
"Esta pausa debería ser pública y verificable, e incluir a todos los actores clave. Si esta pausa no puede aplicarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria", escribió.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión
Sigue leyendo:
- Paxful devolverá los fondos perdidos de Celsius a los usuarios del programa Earn
- Binance ocultó lazos con China durante años, incluso después de la represión de las criptomonedas en 2017: Informe
- MetaMask advierte a los usuarios de los rumores engañosos sobre el lanzamiento del 31 de marzo
- 'La droga se ha ido': Mike Novogratz compara los mercados actuales de Bitcoin con la 'clínica de metadona'
- Qué está sucediendo con los criptomercados, analistas analizan los factores que hay detrás de la caída de 10 días
- De los esquemas de Ponzi a las salidas de ICO, la blockchain de Ethereum ha sido la plataforma de elección para los estafadores
- Los abogados y acreedores de FTX rechazan la petición de SBF de que se le reembolsen los honorarios legales