EE. UU. califica a Anthropic como riesgo para cadenas militares

El gobierno de Estados Unidos designó a la firma de IA Anthropic como un riesgo para la seguridad militar, tras alertar sobre posibles alteraciones de sus sistemas en operaciones bélicas.
La firma de inteligencia artificial Anthropic, creadora del modelo Claude, fue señalada por el Departamento de Guerra (DoW) como un “riesgo inaceptable” para las cadenas de suministro militares. La medida se basa en preocupaciones sobre el uso de la IA en operaciones bélicas y su posible manipulación durante conflictos.
Anthropic y la preocupación por la IA militar
El gobierno estadounidense expresó que permitir que Anthropic continúe accediendo a infraestructura de combate podría introducir riesgos críticos en la cadena de suministro del DoW, según documentos judiciales revisados por AFP.
Las autoridades alertaron que los sistemas de IA son vulnerables a manipulación y que la compañía podría alterar el comportamiento de su modelo durante operaciones si considera que se violan sus “líneas rojas” corporativas.
Impacto de la designación
La decisión implica que todos los proveedores del gobierno de EE. UU. tendrían prohibido trabajar con Anthropic, una medida que suele aplicarse a empresas de países considerados adversarios, como Huawei en China.
Anthropic ha impugnado la clasificación ante un tribunal federal en California, argumentando que la decisión limita su participación en contratos gubernamentales y podría afectar su reputación en la industria de IA.
Reacción de la industria tecnológica
Microsoft, que utiliza el modelo Claude de Anthropic y suministra servicios al ejército estadounidense, apoyó a la firma, señalando que “no es el momento de poner en riesgo el ecosistema de IA que la administración ha impulsado”, según un escrito presentado ante el tribunal.
Otras compañías tecnológicas observan de cerca el caso, que podría sentar precedentes sobre el control del uso militar de la inteligencia artificial en Estados Unidos.
Noticias del tema