El cofundador de Ethereum, Vitalik Buterin, sugiere que una “pausa” temporal en la disponibilidad mundial de poder de cómputo podría ser una forma de “ganar más tiempo para la humanidad” en caso de una posible forma dañina de superinteligencia de IA.
En una publicación de su blog del 5 de enero, como seguimiento a su publicación de noviembre de 2023 en la que abogaba por la idea de “aceleracionismo defensivo” o d/acc, Buterin señaló que la IA superinteligente podría estar a tan solo cinco años de distancia, y no hay garantías de que el resultado sea positivo.
Buterin sugiere que una “pequeña pausa” en el hardware informático a escala industrial podría ser una opción para desacelerar el desarrollo de la IA si esto sucede, reduciendo el poder de cómputo global disponible hasta en un 99 % durante 1 o 2 años “para ganar más tiempo y preparar a la humanidad”.
Fuente: Vitalik Buterin
Una superinteligencia es un modelo teórico de IA que generalmente se define como mucho más inteligente que los humanos más brillantes en todos los campos de especialización.
Muchos ejecutivos tecnológicos e investigadores han expresado preocupaciones sobre la IA, con más de 2.600 firmantes instando, en una carta abierta de marzo de 2023, a detener el desarrollo de la IA debido a los “riesgos profundos para la sociedad y la humanidad”.
Buterin señaló que su publicación inicial presentando el concepto de d/acc solo incluía “llamados vagos para no construir formas riesgosas de superinteligencia” y quiso compartir sus pensamientos sobre cómo abordar el escenario en el que “el riesgo de la IA sea alto”.
Sin embargo, Buterin dijo que solo abogaría por una pausa suave en el hardware si estuviera “convencido de que necesitamos algo más ‘muscular’ que las reglas de responsabilidad”, — lo que implicaría que quienes usen, implementen o desarrollen IA puedan ser demandados por los daños causados por el modelo.
Buterin señaló que las propuestas para una pausa en el hardware incluyen localizar los chips de IA y requerir su registro, pero propuso que el hardware de IA a escala industrial podría estar equipado con un chip que solo permita su funcionamiento si recibe un trío de firmas una vez por semana de organismos internacionales importantes.
“Las firmas serían independientes del dispositivo (si se desea, incluso podríamos requerir una prueba de conocimiento cero de que fueron publicadas en una blockchain), por lo que sería todo o nada”, escribió Buterin. “No habría manera práctica de autorizar a un dispositivo para seguir funcionando sin autorizar a todos los demás dispositivos”.
La idea de d/acc respaldada por Buterin aboga por un enfoque cuidadoso en el desarrollo de tecnología, en contraste con el aceleracionismo efectivo o e/acc, que promueve cambios tecnológicos sin restricciones ni límites.
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión.