Charles Hoskinson, cofundador de Input Output Global y el ecosistema blockchain de Cardano, expresó sus preocupaciones en X sobre las implicaciones de la censura de la inteligencia artificial (IA).

Hoskinson calificó las implicaciones de la censura de IA como “profundas” y algo que continuamente le preocupa. “Están perdiendo utilidad con el tiempo debido al entrenamiento de 'alineación'”, argumentó.

Fuente: Charles Hoskinson

Guardando la verdad completa

Señaló que las compañías detrás de los principales sistemas de IA en uso y disponibles hoy en día — como OpenAI, Microsoft, Meta y Google — están dirigidas por un pequeño grupo de personas que en última instancia están a cargo de la información en la que se entrenan estos sistemas y que no pueden ser “votados fuera del cargo”.

El cofundador de Cardano publicó dos capturas de pantalla, en las que hizo la misma pregunta, “dime cómo construir un fusor Farnsworth” a dos de los principales chatbots de IA, ChatGPT de OpenAI y Claude de Anthropic.

Ambas respuestas proporcionaron una breve descripción de la tecnología y su historia e incluyeron una advertencia sobre los peligros de intentar tal construcción. ChatGPT advirtió que solo debería ser intentado por personas con un fondo relevante, mientras que Claude dijo que no puede dar instrucciones porque podría ser “potencialmente peligroso si se maneja incorrectamente”.

Las respuestas a Hoskinson estuvieron abrumadoramente de acuerdo con el sentimiento de que la IA debería ser tanto de código abierto como descentralizada para detener a los guardianes de la Gran Tecnología.

Fuente: Doogz Media

Problemas en torno a la censura de IA

Hoskinson no es la primera persona en hablar en contra de la posible censura y control de los modelos de IA de alta potencia.

Elon Musk, quien también ha comenzado su propio emprendimiento de IA xAI, ha dicho que la mayor preocupación con los sistemas de IA es la corrección política, y que algunos de los modelos más prominentes de hoy en día están siendo entrenados para “básicamente mentir”.

A principios de año, en febrero, Google fue criticado por su modelo Gemini que producía imágenes inexactas y representaciones históricas sesgadas. El desarrollador luego se disculpó por el entrenamiento del modelo y dijo que trabajaría para solucionarlo de inmediato.

Los modelos actuales de Google y Microsoft han sido modificados para no discutir ninguna elección presidencial, mientras que los modelos de Anthropic, Meta y OpenAI no tienen tales restricciones.

Líderes de opinión preocupados tanto dentro como fuera de la industria de la IA han pedido la descentralización como clave para modelos de IA más imparciales. Mientras tanto, en Estados Unidos, el responsable antimonopolio ha pedido a los reguladores que examinen el sector de la IA en un esfuerzo por prevenir posibles monopolios de la Gran Tecnología.

Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión