O governo dos Estados Unidos reafirmou, nesta terça-feira (17), que a empresa de inteligência artificial Anthropic representa um “risco inaceitável” para o abastecimento militar do país. A classificação foi justificada após a empresa se recusar a permitir o uso irrestrito de sua IA por militares.
A Anthropic, que desenvolve o modelo de IA Claude, já havia sido rotulada como um risco no início do mês, levando a empresa a processar o governo dos EUA. O Pentágono, anteriormente conhecido como Departamento de Guerra, argumentou que manter o acesso da Anthropic à infraestrutura militar poderia comprometer as cadeias de suprimentos, uma vez que os sistemas de IA são suscetíveis à manipulação.
O governo destacou que a recusa da Anthropic em permitir que sua tecnologia seja utilizada em operações militares é vista como um “risco inaceitável para a segurança nacional”. A classificação da empresa pode resultar em restrições que impeçam fornecedores do governo de negociar com ela, uma designação geralmente reservada para organizações de países adversários.
Grandes empresas de tecnologia, como a Microsoft, manifestaram apoio à Anthropic, argumentando que a decisão pode prejudicar o ecossistema de IA que a administração americana tem buscado desenvolver.


