En enero de 2026, el Secretario de Guerra de Estados Unidos, Pete Hegseth, emitió una directiva que exigía que los contratos con empresas desarrolladoras de sistemas de inteligencia artificial (IA) permitieran su uso sin restricciones. Como consecuencia de esta directiva, a finales del pasado mes de febrero, transcendió un enfrentamiento entre la empresa de IA Anthropic y el Departamento de Guerra de Estados Unidos que se convirtió en viral. En el centro de la disputa estaban dos líneas rojas fijadas por el director ejecutivo de Anthropic, Dario Amodei: la negativa a permitir que su modelo de IA, Claude, se utilizara para la vigilancia masiva interna o para sistemas de armas totalmente autónomos. El gobierno de Estados Unidos exigió eliminar estas líneas rojas y cuando Amodei se negó, el gobierno estadounidense respondió declarando a Anthropic “empresa de riesgo” para la seguridad nacional, una clasificación que anteriormente se había aplicado principalmente a adversarios extranjeros como Huawei. El presidente Trump también ordenó a las agencias federales dejar de utilizar los productos de Anthropic, y el Pentágono prohibió a sus contratistas mantener relaciones comerciales con la empresa.
IA y ética en tiempos de guerra: el conflicto que marca el futuro de la gobernanza tecnológica

