Press ESC to close

Anthropic processa governo dos EUA

A empresa de inteligência artificial (IA) Anthropic entrou com uma ação judicial contra o governo dos Estados Unidos após ser classificada como um “risco à cadeia de suprimentos”, medida que levou à proibição do uso de suas ferramentas por órgãos federais. De acordo com informações da BBC, a companhia afirma que a decisão foi tomada como retaliação após divergências sobre o uso de seus sistemas de IA pelo setor militar.

O processo foi protocolado em um tribunal federal da Califórnia, nos Estados Unidos, e envolve diretamente o gabinete do presidente Donald Trump, além de diversas autoridades do governo e cerca de 16 agências federais. Entre os citados estão o secretário de Defesa Pete Hegseth, o secretário de Estado Marco Rubio e o secretário de Comércio Howard Lutnick.

No documento judicial, a Anthropic argumenta que a classificação como risco representa uma medida sem precedentes e não autorizada pela legislação federal. A empresa sustenta que o governo utilizou seu poder institucional para punir a companhia por posicionamentos públicos relacionados ao uso da tecnologia.

A disputa entre a empresa e o Departamento de Defesa começou após a Anthropic se recusar a remover restrições existentes em seus contratos com o governo. Essas limitações, segundo a companhia, sempre fizeram parte dos acordos e incluem restrições relacionadas ao uso de inteligência artificial em sistemas de armas autônomas letais e em programas de vigilância em massa de cidadãos americanos.

De acordo com o processo, o secretário de Defesa teria pressionado a empresa a retirar essas cláusulas para permitir um uso mais amplo da tecnologia em aplicações militares. A Anthropic afirma que chegou a negociar alterações contratuais para atender parte das demandas do Pentágono, mas mantendo salvaguardas relacionadas a armamentos e monitoramento em larga escala.

Enquanto essas negociações avançavam, o presidente ,dos EUA, Donald Trump passou a criticar publicamente a empresa e ordenou que órgãos do governo deixassem de utilizar suas ferramentas. Pouco depois, o Departamento de Defesa classificou formalmente a Anthropic como risco para a cadeia de suprimentos, o que levou à suspensão imediata de contratos e à proibição do uso de seus sistemas por fornecedores que trabalham com o governo federal.

Impactos nos negócios

A empresa afirma que a decisão provocou impactos diretos em seus negócios. Segundo a Anthropic, contratos atuais e futuros com empresas privadas podem ser afetados pela classificação, colocando em risco acordos avaliados em centenas de milhões de dólares.

Além das perdas financeiras potenciais, a companhia argumenta que a medida compromete sua reputação e cria um precedente perigoso para outras empresas do setor de tecnologia. No processo, a Anthropic afirma que a postura do governo pode desencorajar companhias a expressar preocupações sobre o uso de tecnologias avançadas em contextos sensíveis.

Leia mais: Missões militares dos EUA podem ser comprometidas por conta de clausulas restritivas em contratos de IA

Desde 2024, a Anthropic mantém contratos com agências governamentais e foi uma das primeiras empresas de IA a ter ferramentas utilizadas em ambientes classificados dentro do governo dos Estados Unidos. Entre seus produtos mais conhecidos está o Claude, sistema de inteligência artificial adotado por diversas empresas de tecnologia.

Gigantes do setor como Google, Amazon e Microsoft utilizam ferramentas da Anthropic em diferentes projetos internos. Essas empresas também mantêm contratos com o governo americano e indicaram recentemente que continuarão utilizando os sistemas da companhia em atividades fora do escopo de defesa.

O caso também atraiu apoio de profissionais da indústria de inteligência artificial. Um grupo formado por cerca de 40 funcionários de empresas como Google e OpenAI apresentou ao tribunal um documento em apoio à Anthropic. O texto argumenta que sistemas de IA de última geração podem representar riscos quando utilizados em vigilância em massa ou em armamentos autônomos sem supervisão humana.

Apesar da disputa com o governo, a Anthropic não busca compensação financeira no processo. O principal objetivo da ação é que a Justiça declare inválida a decisão do governo e determine a retirada da classificação de risco atribuída à empresa.

Especialistas em direito constitucional afirmam que o caso pode se estender por várias instâncias judiciais e possivelmente chegar à Suprema Corte dos Estados Unidos.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Materia original link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *