A Anthropic, uma empresa de inteligência artificial do Vale do Silício, recentemente se recusou a atender ordens do Pentágono, gerando um confronto inédito entre uma empresa de IA e o departamento de Defesa dos EUA. A disputa gira em torno do acesso ético à tecnologia de ponta e levanta questões críticas sobre a delegação de decisões letais a máquinas.
Após a utilização da ferramenta Claude da Anthropic em operações militares, a empresa foi pressionada a fornecer acesso irrestrito à sua tecnologia. A recusa resultou em uma escalada de tensões, com rótulos de ‘risco para a cadeia de suprimentos’ sendo atribuídos à Anthropic.
O CEO da Anthropic, Dario Amodei, defendeu a necessidade de limites éticos em sua tecnologia, destacando que a IA não deve ser utilizada para vigilância em massa ou armas autônomas. Este episódio evidencia uma lacuna significativa na governança da IA em contextos militares e a urgência de regulamentações adequadas.


