Es un escándalo.
Resulta que el chatbot más amigable y ético de Silicon Valley tiene amigos poderosos en el Pentágono.
La bomba del Journal: Claude, la IA de Anthropic, fue pieza clave en la operación militar para capturar a Nicolás Maduro en Caracas.
Y Anthropic, su creador, ni sabía.
Sucede que Claude llegó de la mano de Palantir, la empresa tech favorita del Pentágono que vistió de militar a Claude.
¿Cómo se utilizó? No está claro. Pudo haber masticado miles de reportes de campo, transcripciones de llamadas o más datos para encontrar patrones y ayudar en la captura.
El dato: Anthropic prohíbe el uso de Claude para violencia o vigilancia. Pero una vez que el software entra a la red del Pentágono, los creadores pierden el switch de apagado.
Y agárrate: Axios reportó en exclusiva que, luego de que llegara Anthropic preguntando al Pentágono, los meros meros de Defensa comenzaron a considerar romper su contrato de 200 millones de dólares con Anthropic.
El secretario de Defensa, Pete Hegseth, fue tajante: no van a financiar modelos que no permitan pelear guerras.
El caso está destapando algo más grande: según Reuters y Axios, Washington está exigiendo a Google, OpenAI, xAI y Anthropic que sus modelos operen para todos los fines legales, incluyendo cosas como lo de Maduro.
¿Por qué importa?
El factor Palantir: Esta historia demuestra que las Big Tech pueden publicar manifiestos de paz, pero empresas como Palantir funcionan como el lavadero que adapta esa tecnología para fines bélicos.
La trampa para Anthropic: Si ceden, matan su identidad de marca (seguridad y ética). Si se mantienen firmes, pierden el contrato de su vida y le dejan el campo libre a Elon Musk (xAI) y Sam Altman (OpenAI).
Al final, Claude aprendió la lección más vieja de Washington: no importa qué tan buenos sean tus modales si no ayudas a calcular el radio de impacto de un misil.


