
Foto: gguy/Shutterstock
La empresa de IA Anthropic declaró el 22 de mayo que ha lanzado los «chatbots más potentes» del mercado actual. Claude Opus 4 y Claude Sonnet 4 tienen amplias capacidades de razonamiento y mejoran sus respuestas utilizando Internet.
Anthropic llama a Claude Opus 4 «el mejor modelo de codificación del mundo». Así, el chatbot es capaz de realizar tareas complejas durante más tiempo. Aun así, no todo el mundo está entusiasmado. Algunos usuarios temen por su privacidad debido a una característica específica del modelo de prueba.
El mundo conoce dos nuevos modelos de IA
El sector de la IA espera desde hace tiempo la llegada de Claude Opus 4 y Claude Sonnet 4. Ambos modelos son híbridos, lo que significa que alternan sin esfuerzo entre la investigación, el razonamiento y el uso de la red global.
Anthropic afirma que, en términos de ingeniería de software, Claude Opus 4 supera al GTP-4.1 de OpenAI. Esto significa que el modelo de IA obtuvo una puntuación alta en escritura de código y resolución de tareas de programación, entre otras cosas. El modelo Claude obtuvo una puntuación del 72,5%, significativamente superior al 54,6% de GTP-4.1.
Polémica en torno a Claude Opus 4
A pesar de la buena puntuación, ha surgido una polémica en torno a Claude Opus 4. Los usuarios reaccionaron con estupor a un post en ‘X’ de Sam Bowman, investigador de IA en Anthropic. Escribió que el modelo de IA podría detectar a los usuarios con «comportamientos extremadamente inmorales». Posiblemente, esto se transmitiría a las autoridades.
La noticia fue seguida de una tormenta de críticas. Usuarios y desarrolladores de software reaccionaron con furia. Bowman borró su mensaje, pero para entonces el daño ya estaba hecho. En respuesta a las protestas, el investigador de IA publicó un nuevo mensaje:
I deleted the earlier tweet on whistleblowing as it was being pulled out of context.
TBC: This isn’t a new Claude feature and it’s not possible in normal usage. It shows up in testing environments where we give it unusually free access to tools and very unusual instructions.
— Sam Bowman (@sleepinyourhat) May 22, 2025
Según Bowman, esta característica es más frecuente en las versiones de prueba de Claude, pero no en los modelos estándar. Aun así, no todo el mundo está tranquilo. Por ejemplo, Emad Mostaque, Director General de Stability AI, reaccionó furioso:
Este comportamiento es totalmente inaceptable y debe eliminarse. Es un enorme abuso de confianza y una pendiente resbaladiza».
Los modelos de razonamiento de IA inundan el mercado
Anthropic no es la primera empresa que comercializa modelos de razonamiento basados en IA. Estos sistemas analizan a fondo un problema antes de dar una respuesta al usuario. OpenAI inició esta tendencia a finales del año pasado. La serie «O», compuesta por chatbots que realizan investigaciones en profundidad, creó un gran entusiasmo en el sector de la IA.
Google no podía quedarse atrás tras el éxito de OpenAI. Su propio ‘Gemini 2.5 Pro’ cuenta con su propia función «Deep Think», que dedica mucho tiempo a analizar y resolver problemas complejos.
Anthropic sigue alabando a Claude Opus 4 y Claude Sonnet 4 a pesar de toda la polémica: «Amplían enormemente las capacidades de los agentes de IA», afirma la empresa de IA.
La crypto IA es un tema muy debatido. Muchos expertos deliran con sus avances exponenciales. ¿Por qué los agentes de IA son el futuro?
📱 ¿Quieres las últimas noticias cripto al instante? Síguenos en Twitter/X