IA y ética en tiempos de guerra: el conflicto que marca el futuro de la gobernanza tecnológica

El PaisTecnología06/03/202612 Views

En enero de 2026, el Secretario de Guerra de Estados Unidos, Pete Hegseth, emitió una directiva que exigía que los contratos con empresas desarrolladoras de sistemas de inteligencia artificial (IA) permitieran su uso sin restricciones. Como consecuencia de esta directiva, a finales del pasado mes de febrero, transcendió un enfrentamiento entre la empresa de IA Anthropic y el Departamento de Guerra de Estados Unidos que se convirtió en viral. En el centro de la disputa estaban dos líneas rojas fijadas por el director ejecutivo de Anthropic, Dario Amodei: la negativa a permitir que su modelo de IA, Claude, se utilizara para la vigilancia masiva interna o para sistemas de armas totalmente autónomos. El gobierno de Estados Unidos exigió eliminar estas líneas rojas y cuando Amodei se negó, el gobierno estadounidense respondió declarando a Anthropic “empresa de riesgo” para la seguridad nacional, una clasificación que anteriormente se había aplicado principalmente a adversarios extranjeros como Huawei. El presidente Trump también ordenó a las agencias federales dejar de utilizar los productos de Anthropic, y el Pentágono prohibió a sus contratistas mantener relaciones comerciales con la empresa.

Seguir leyendo

Más vistos
Cargando

Signing-in 3 seconds...

Signing-up 3 seconds...

Esta web utiliza cookies propias y de terceros para su correcto funcionamiento y para fines analíticos y para mostrarte publicidad relacionada con sus preferencias en base a un perfil elaborado a partir de tus hábitos de navegación. Contiene enlaces a sitios web de terceros con políticas de privacidad ajenas que podrás aceptar o no cuando accedas a ellos. Al hacer clic en el botón Aceptar, acepta el uso de estas tecnologías y el procesamiento de tus datos para estos propósitos.
Privacidad