EUA diz que IA da Anthropic representa 'risco inaceitável' para o Exército
A empresa de inteligência artificial Anthropic representa um "risco inaceitável" para as cadeias de suprimentos militares, insistiu o governo dos Estados Unidos na terça-feira (17), ao justificar sua decisão de designá-la como perigosa para o país.
Nas últimas semanas, o modelo de IA Claude, da Anthropic, está na alça de mira tanto por seu suposto uso na identificação dos alvos para bombardeios americanos no Irã quanto pela negativa da empresa de que seus sistemas sejam usados para impulsionar a vigilância em massa nos Estados Unidos ou sistemas de armas letais totalmente autônomos.
Para justificar sua decisão de cortar os laços com a Anthropic em resposta a uma ação judicial da empresa, o Pentágono - renomeado de Departamento de Guerra (DoW) pelo governo do presidente Donald Trump - disse que o preocupava "que permitir que a Anthropic continuasse tendo acesso à infraestrutura de combate técnico e operacional do DoW introduziria um risco inaceitável nas cadeias de suprimentos do DoW", segundo um documento judicial ao qual a AFP teve acesso.
"Os sistemas de IA são especialmente vulneráveis à manipulação", acrescentou o governo em suas alegações perante um tribunal federal da Califórnia.
"A Anthropic poderia tentar desativar sua tecnologia ou alterar preventivamente o comportamento de seu modelo antes ou durante operações bélicas em curso, se a Anthropic — a seu critério — considerar que suas 'linhas vermelhas' corporativas estão sendo ultrapassadas", ressaltou.
A negativa da Anthropic em aceitar que sua tecnologia de IA pudesse ser empregada por militares para "qualquer uso legal" representava, portanto, um "risco inaceitável para a segurança nacional", segundo o documento.
"O comportamento da Anthropic levou o Departamento a questionar se a Anthropic representava um parceiro confiável", disse o governo.
A classificação da Anthropic como "risco para a cadeia de suprimentos”, que a empresa questionou em uma ação contra o Pentágono e outros órgãos do governo federal, implica, teoricamente, que todos os provedores do governo estariam proibidos de fazer negócios com a empresa.
Esta designação costuma ser reservada para organizações de países adversários estrangeiros, como a gigante da tecnologia chinesa Huawei.
Outras grandes empresas tecnológicas americanas, como a Microsoft, que por sua vez usa o modelo Claude, da Anthropic, e abastece o exército americano, se alinharam à companhia de IA.
"Não é o momento de pôr em risco o ecossistema de IA que a administração contribuiu para impulsionar", afirmou a Microsoft em um texto jurídico em separado apresentado ao tribunal na semana passada.
V.Sedlak--TPP