
Mientras una gran empresa de IA se retira por motivos éticos, otra refuerza su alianza con el Gobierno de Estados Unidos.
La decisión reabre el debate sobre armas autónomas, vigilancia y responsabilidad tecnológica en un contexto de guerras activas y escasa supervisión política.
La inteligencia artificial vuelve a situarse en el centro de una tormenta política, militar y moral. Esta vez no es por una filtración ni por un fallo técnico, sino por una decisión estratégica que expone hasta dónde están dispuestas a llegar algunas empresas cuando el cliente es el Estado. Mientras una compañía da un paso atrás, otra avanza sin titubeos.
Anthropic se planta ante el Pentágono
La semana pasada, Dario Amodei, CEO de Anthropic, confirmó que su empresa había abandonado las negociaciones con el Departamento de Defensa de Estados Unidos. El motivo no fue económico ni técnico, sino ético: el Pentágono habría pedido flexibilizar las restricciones sobre vigilancia masiva y el uso de IA en armas totalmente autónomas.
Amodei fue directo. Esos escenarios —máquinas que deciden a quién matar sin intervención humana— no entran dentro de lo aceptable. Una postura poco habitual en Silicon Valley, donde los contratos de defensa suelen tratarse con extrema discreción.
La reacción no se hizo esperar. Desde el propio Departamento de Defensa hubo amenazas veladas de represalias regulatorias, y la decisión irritó a sectores clave de la administración.
OpenAI elige otro camino
En contraste, OpenAI optó por avanzar. Su CEO, Sam Altman, celebró públicamente un nuevo acuerdo de colaboración con el Gobierno estadounidense en materia de defensa, asegurando que ambas partes comparten “suficientes principios” como para trabajar juntas.
Altman defendió que OpenAI mantiene límites en vigilancia y sistemas letales, aunque sin detallar cómo se aplican ni qué mecanismos de control existen. Para muchos analistas, ese lenguaje ambiguo deja demasiado margen en un contexto donde las decisiones se toman lejos del escrutinio público.
La credibilidad del mensaje también se ve erosionada por declaraciones recientes del propio Altman, en las que relativizaba el impacto energético y medioambiental de la IA comparándolo con el coste de “entrenar a un ser humano”.
Anthropic marketing team preparing “Our Plagiarism Machine DIDN’T Start World War 3” TV spot
IA, guerra y consecuencias reales
El contexto hace que la decisión resulte aún más inquietante. Apenas horas después del anuncio de Altman, Estados Unidos inició una nueva campaña de bombardeos en Oriente Medio, sin autorización del Congreso y en coordinación con aliados regionales.
El presidente Donald Trump reconoció públicamente la posibilidad de bajas civiles, un recordatorio brutal de que las decisiones tecnológicas no existen en el vacío. Cuando se habla de armas autónomas, no se trata de ciencia ficción, sino de herramientas que pueden integrarse en conflictos activos.
La brecha entre Anthropic y OpenAI deja una pregunta incómoda flotando en el aire: en la carrera por liderar la inteligencia artificial, ¿quién está dispuesto a frenar… y quién a seguir adelante cueste lo que cueste?




