Trump Determina Que Órgãos Federais dos EUA Suspendam Uso de IA da Anthropic
O presidente dos Estados Unidos, Donald Trump, anunciou nesta sexta-feira (27) a orientação para que todas as agências federais dos EUA interrompam imediatamente o uso de tecnologias de inteligência artificial desenvolvidas pela Anthropic, empresa americana conhecida por criar o modelo Claude, rival do ChatGPT. Este anúncio intensifica a discussão sobre a aplicação e restrições no uso de IA em contextos militares.
Posicionamento do Governo e da Empresa
A decisão de Trump segue-se à resistência da Anthropic em permitir o uso irrestrito de suas ferramentas para vigilância de cidadãos e armamento autônomo pelo governo americano. Em sua declaração, Trump criticou a postura da empresa, afirmando que “o egoísmo deles está colocando vidas americanas em risco, nossas tropas em perigo e nossa segurança nacional sob ameaça”. Por isso, todas as agências federais devem cancelar o uso de tecnologia da Anthropic, com um período de transição de seis meses para adaptação, especialmente para o Departamento de Guerra.
A Anthropic, por sua vez, afirmou na quinta-feira (26) que, apesar das pressões, não cederá a tais exigências, mantendo seu compromisso ético contra o uso de IA para vigilância em massa e armamentos autônomos. “Essas ameaças não mudam nossa posição: não podemos, em consciência, atender à sua solicitação”, afirmou a empresa.
Contrato e Implicações Éticas
Desde 2025, a Anthropic mantém um contrato de US$ 200 milhões com o Pentágono para fornecer modelos de inteligência artificial para diversas aplicações militares. Contudo, a empresa se manifesta contra a utilização de suas tecnologias para fins de violência ou vigilância, destacando preocupações éticas com a automação de sistemas de armamento. O CEO da Anthropic, Dario Amodei, declarou que “o uso desses sistemas para a vigilância doméstica em massa é incompatível com os valores democráticos”.
O Pentágono havia estabelecido um ultimato para que a empresa permitisse o uso irrestrito de suas soluções tecnológicas, prometendo, caso contrário, obrigá-la a cumprir as exigências com base na Lei de Produção de Defesa. Essa legislação autoriza o governo a impor prioridades em relação a necessidades de segurança nacional. Além disso, a Anthropic poderia ser designada como um risco para a cadeia de suprimentos, o que prejudicaria sua imagem e parceria com o governo.
Resistência e Consequências
A resistência da Anthropic reflete uma linha ética clara em sua operação, buscando evitar o uso de suas tecnologias para ações que comprometam direitos civis e liberdades individuais. Amodei ressaltou que, apesar de suas tecnologias terem sido utilizadas em operações federais para defender o país, o controle de armas letais por IA sem a supervisão humana levanta sérias dúvidas sobre segurança e confiabilidade.
Com este imbróglio, a relação entre a Anthropic e o governo americano vive um momento de tensão, podendo afetar futuras colaborações tecnológicas. O episódio lança luz sobre a crescente importância de discutir e regular o papel da inteligência artificial em contextos militares, onde o equilíbrio entre inovação e ética permanece uma questão complexa e sensível.
Fonte da Notícia: https://g1.globo.com/tecnologia/noticia/2026/02/27/trump-diz-que-esta-orientando-agencias-federais-a-deixarem-de-usar-tecnologia-da-empresa-de-ia-anthropic.ghtml







