El Tiempo de Monclova 🔍

MONCLOVA IA Anthropic Monclova Piedras Negras Carbonífera Saltillo Torreón Seguridad

EE. UU. califica a Anthropic como riesgo para cadenas militares

IA Anthropic
Agencias
comparte facebook comparte X comparte WhatsApp comparte Telegram

El gobierno de Estados Unidos designó a la firma de IA Anthropic como un riesgo para la seguridad militar, tras alertar sobre posibles alteraciones de sus sistemas en operaciones bélicas.

La firma de inteligencia artificial Anthropic, creadora del modelo Claude, fue señalada por el Departamento de Guerra (DoW) como un “riesgo inaceptable” para las cadenas de suministro militares. La medida se basa en preocupaciones sobre el uso de la IA en operaciones bélicas y su posible manipulación durante conflictos.

Anthropic y la preocupación por la IA militar

El gobierno estadounidense expresó que permitir que Anthropic continúe accediendo a infraestructura de combate podría introducir riesgos críticos en la cadena de suministro del DoW, según documentos judiciales revisados por AFP.

Las autoridades alertaron que los sistemas de IA son vulnerables a manipulación y que la compañía podría alterar el comportamiento de su modelo durante operaciones si considera que se violan sus “líneas rojas” corporativas.

Impacto de la designación

La decisión implica que todos los proveedores del gobierno de EE. UU. tendrían prohibido trabajar con Anthropic, una medida que suele aplicarse a empresas de países considerados adversarios, como Huawei en China.

Anthropic ha impugnado la clasificación ante un tribunal federal en California, argumentando que la decisión limita su participación en contratos gubernamentales y podría afectar su reputación en la industria de IA.

Reacción de la industria tecnológica

Microsoft, que utiliza el modelo Claude de Anthropic y suministra servicios al ejército estadounidense, apoyó a la firma, señalando que “no es el momento de poner en riesgo el ecosistema de IA que la administración ha impulsado”, según un escrito presentado ante el tribunal.

Otras compañías tecnológicas observan de cerca el caso, que podría sentar precedentes sobre el control del uso militar de la inteligencia artificial en Estados Unidos.

Noticias del tema


    Más leído en la semana