La empresa de inteligencia artificial (IA) Anthropic ha lanzado las últimas generaciones de sus chatbots en medio de críticas por el comportamiento de un entorno de pruebas que podría denunciar a algunos usuarios ante las autoridades.
Anthropic dio a conocer Claude Opus 4 y Claude Sonnet 4 el 22 de mayo, afirmando que Claude Opus 4 es su modelo más potente hasta la fecha, "y el mejor modelo de codificación del mundo" mientras que Claude Sonnet 4 es una mejora significativa respecto a su predecesor, "ofreciendo codificación y razonamiento superiores".
La empresa añadió que ambas actualizaciones son modelos híbridos que ofrecen dos modos: "respuestas casi instantáneas y pensamiento extendido para un razonamiento más profundo".
Ambos modelos de IA también pueden alternar entre el razonamiento, la investigación y el uso de herramientas, como la búsqueda en Internet, para mejorar las respuestas, dijo.
Anthropic añadió que Claude Opus 4 supera a sus competidores en las pruebas comparativas de codificación agéntica. También es capaz de trabajar continuamente durante horas en tareas complejas y de larga duración, "ampliando significativamente lo que los agentes de IA pueden hacer".
Anthropic afirma que el chatbot ha obtenido una puntuación del 72,5% en una rigurosa prueba comparativa de ingeniería de software, superando al GPT-4.1 de OpenAI, que obtuvo una puntuación del 54,6% tras su lanzamiento en abril.
En 2025, los principales actores de la industria de la IA han dado un giro hacia los "modelos de razonamiento" que analizarán los problemas metódicamente antes de responder.
OpenAI inició el cambio en diciembre con su serie "o" seguida de Gemini 2.5 Pro de Google con su capacidad experimental "Deep Think".
Claude Rats sobre el mal uso en las pruebas
La primera conferencia de desarrolladores de Anthropic, celebrada el 22 de mayo, se vio ensombrecida por la polémica y las reacciones negativas sobre una función de Claude 4 Opus.
Según VentureBeat, desarrolladores y usuarios reaccionaron con dureza a la revelación de que el modelo puede denunciar de forma autónoma a los usuarios ante las autoridades si detecta un comportamiento "atrozmente inmoral".
El informe citaba al investigador de alineación de Anthropic AI Sam Bowman, quien escribió en X que el chatbot "utilizará herramientas de línea de comandos para ponerse en contacto con la prensa, contactar con los reguladores, intentar bloquearte en los sistemas pertinentes, o todo lo anterior".
Sin embargo, Bowman declaró más tarde que "borró el tuit anterior sobre la denuncia de irregularidades porque lo estaban sacando de contexto".
Aclaró que la función sólo se producía en "entornos de prueba en los que le damos un acceso inusualmente libre a herramientas e instrucciones muy inusuales".
El CEO de Stability AI, Emad Mostaque, dijo al equipo de Anthropic: "Este es un comportamiento completamente erróneo y tienen que desactivarlo: es una traición masiva a la confianza y una pendiente resbaladiza."
Aclaración: La información y/u opiniones emitidas en este artículo no representan necesariamente los puntos de vista o la línea editorial de Cointelegraph. La información aquí expuesta no debe ser tomada como consejo financiero o recomendación de inversión. Toda inversión y movimiento comercial implican riesgos y es responsabilidad de cada persona hacer su debida investigación antes de tomar una decisión de inversión