Podemos decir que la inteligencia artificial hoy en día está hasta en la sopa. Se utiliza para crear vídeos virales en internet, para redactar correos electrónicos o para potenciar nuestra sanidad. Sin embargo, los últimos acontecimientos que han saltado a la luz nos hacen enfrentarnos a una realidad incómoda: la inteligencia artificial sirve para mucho más que solo hacernos la vida fácil. Su empleo en las operaciones militares es una realidad que se ha demostrado en los últimos enfrentamientos bélicos.

Los antecedentes: IA en el Departamento de Defensa

En los últimos meses, el público ha dejado de ver a Claude y ChatGPT como asistentes de IA o simples aplicaciones en nuestros móviles.

Anthropic es una empresa de inteligencia artificial que desarrolló Claude, un modelo de lenguaje como ChatGPT, Gemini o Deepseek. Desde finales de 2024, esta empresa ha colaborado con el Departamento de Defensa de los Estados Unidos. En julio de 2025, Anthropic, OpenAI(la empresa creadora de ChatGPT) y xAI firmaron un acuerdo por 200 millones de dólares cada una, para el desarrollo de inteligencia artificial agéntica.

¿Qué es la IA agéntica?

También conocidos como agentes de inteligencia artificial, estos sistemas poseen cierto grado de autonomía para realizar procesos, tomar decisiones y ejecutarlas con una mínima supervisión humana.

Por ejemplo, si le preguntas a un modelo de lenguaje cuáles son los mejores restaurantes de la ciudad, este elaborará una lista con explicaciones. Sin embargo, un agente podría conseguirte una reserva sin que tú tengas que contactar directamente con el establecimiento.

Las líneas rojas de Anthropic

Desde el principio, Dario Amodei, CEO y cofundador de Anthropic, tenía claro que la inteligencia artificial tendría un gran impacto en el mundo. Por eso, cuando firmó el contrato con el Departamento de Defensa incluyó dos líneas rojas: su inteligencia artificial no se podía usar para vigilancia masiva de los ciudadanos estadounidenses, ni para el desarrollo de armamento autónomo.

La captura de Nicolás Maduro

En diciembre de 2025, Estados Unidos anunció la captura de Nicolás Maduro, dictador en Venezuela desde 2013.

Esta operación militar desplegó un bombardeo en la capital y supuso la muerte de 83 personas. Aunque tanto Anthropic como el Departamento de Defensa se negaron a comentar lo sucedido, el Washington Street Journal compartió las declaraciones de una fuente anónima: la herramienta de la empresa de IA, Claude, había sido utilizada durante esta operación militar.

El Pentágono solicita usar Claude“para todos los usos legales”

El acuerdo entre Anthropic y el Departamento de Defensa tenía un inconveniente. Aunque convertía a la empresa en la primera en ser integrada en sistemas clasificados del gobierno, esto significaba que Anthropic no podía ver qué se hacía realmente con su tecnología.

Sin embargo, el gobierno estaba sujeto a las políticas de la propia empresa. Por esto, cuando el Pentágono exigió acceso“para todos los usos legales”, Anthropic se negó, como recoge esta carta del director ejecutivo de la compañía, Dario Amodei.

Esta respuesta desencadenó las amenazas del Pentágono de terminar su contrato con la tecnológica y, más adelante, el Departamento de Defensa catalogó a Anthropic comoriesgo para la cadena de suministro”. La etiqueta no debe ser tomada a la ligera. Es una clasificación con la que se designa a empresas vinculadas a países extranjeros, como la empresa china Huawei o Hikvision, y que representan una amenaza para la seguridad nacional o la privacidad. Nunca se había utilizado para designar a una empresa estadounidense y obliga a que las entidades de gobierno que la utilizaban dejen de trabajar con ella.

Trump ordenó a las agencias federales dejar de usar su tecnología y el Pentágono inició un proceso para desmantelar Claude de sus sistemas en un plazo de seis meses. Sin embargo, tan solo horas después,The Wall Street Journal reportó que se había utilizado Claude para un ataque en Irán.

El vacío que deja Anthropic no duró mucho. Horas después de perder el contrato, OpenAI firmó su propio acuerdo con el Departamento de Defensa.

El boicot a ChatGPT

Sam Altman, CEO de OpenAI, intentó matizar la situación con una rectificación pública. En su cuenta de X publicó un comunicado interno de su empresa en el que explicaba que había llegado a un acuerdo con el Departamento de Defensa por el cual sus sistemas no se utilizarían para vigilancia de ciudadanos estadounidenses, una cláusula que no figuraba en el acuerdo original.

Pero puertas adentro el mensaje fue otro. CNBC reportó que, en una reunión con empleados, llegó a decir que OpenAI no puede decidir qué operaciones militares son“buenas” o“malas” y que las decisiones finales recaen en el secretario de Defensa.

Al día siguiente de firmar el contrato, Claude superó a ChatGPT en el App Store en Estados Unidos por primera vez en la historia.

La campaña“QuitGPT” inició como una respuesta de los ciudadanos estadounidenses que no estaban de acuerdo con el uso de esta tecnología por parte del gobierno. Actualmente, más de 4 millones de personas han tomado acciones como parte del boicot, desde desinstalar ChatGPT hasta compartir la campaña en redes.

Anthropic respondió estrenando una nueva funcionalidad: ahora puedes traspasar la memoria de otro modelo de lenguaje a Claude. Es decir, si tu IA de uso habitual era ChatGPT, ya no tienes que empezar desde cero con Claude. Toda la memoria de tus conversaciones puede mudarse a la nueva aplicación.

En este escenario, parece que por primera vez los usuarios tienen capacidad de decidir. Respuestas como el movimiento QuitGPT son un ejemplo de cómo una movilización puede repercutir en las decisiones de una empresa. Cancelar una suscripción no es tan trivial como parece y los usuarios tenemos el poder de ya no ser simples espectadores. Decirle adiós a ChatGPT no va a detener una guerra, pero sí manda una señal a las empresas que compiten por nuestro tiempo, nuestros datos y nuestro dinero.