Press ESC to close

Missões militares dos EUA podem ser comprometidas por conta de clausulas restritivas em contratos de IA

Restrições operacionais incluídas em contratos comerciais de inteligência artificial (IA) firmados durante o governo Biden podem ter colocado em risco a execução de missões militares dos Estados Unidos. O alerta foi feito por um alto funcionário do Pentágono em entrevista à Reuters.

Segundo Emil Michael, subsecretário de Defesa para Pesquisa e Engenharia, os termos de uso de determinados modelos de IA incorporados a sistemas classificados do Departamento de Defesa continham limitações amplas o suficiente para, na prática, inviabilizar planejamento e condução de operações em tempo real.

Ele relatou ter se surpreendido ao revisar contratos ligados a comandos considerados sensíveis dentro das Forças Armadas, mas não identificou publicamente qual empresa forneceu os modelos avaliados.

Segundo informações da Reuters, durante participação no American Dynamism Summit, em Washington, nos Estados Unidos, evento que reuniu empresas de tecnologia com interesse em projetos de espaço e segurança nacional, Michael afirmou que alguns acordos previam que, caso os termos de serviço fossem violados, o modelo de IA poderia simplesmente interromper seu funcionamento, inclusive no meio de uma operação.

De acordo com ele, as restrições afetavam comandos responsáveis por operações aéreas em regiões como Irã, China e América do Sul. Em determinados cenários, a redação contratual poderia impedir até mesmo o planejamento de ações que envolvessem potencial uso de força letal.

Leia mais: Ataques cibernéticos atingem aplicativos e sites iranianos após ofensiva de EUA e Israel

À época da revisão conduzida por Michael, o modelo Claude, da Anthropic, era o único sistema de IA disponível nos ambientes classificados do Departamento de Defesa.

O tema ganhou ainda mais relevância após divergências entre o Pentágono e a empresa sobre o uso da tecnologia. O presidente Donald Trump decidiu proibir a startup de firmar novos contratos com o governo federal, classificando-a como risco à segurança nacional. O secretário de defesa, Pete Hegseth, também descreveu a companhia como um possível risco na cadeia de suprimentos, após impasses envolvendo restrições relacionadas a armas autônomas e vigilância em massa.

Uso de IA em operações sensíveis

As preocupações de Michael se intensificaram após um executivo de uma empresa de IA, não identificada, questionar se seu software havia sido utilizado em uma operação militar considerada uma das mais bem-sucedidas dos últimos anos.

Reportagens anteriores indicaram que o modelo Claude teria sido empregado no planejamento da ação do governo americano que resultou na captura do ex-presidente da Venezuela, Nicolás Maduro, em janeiro.

Para o subsecretário, permitir que uma empresa privada imponha restrições adicionais além daquelas definidas pelo Congresso poderia comprometer a autonomia operacional das Forças Armadas. Ele afirmou que o governo não pretende aceitar que fornecedores determinem políticas que extrapolem o arcabouço legal aprovado pelo Legislativo.

Horas após a decisão envolvendo a Anthropic, a OpenAI fechou acordo com o Pentágono. Declarações públicas do CEO da empresa, Sam Altman, indicaram que o Departamento de Defesa teria concordado com restrições semelhantes às aplicadas aos modelos da concorrente.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Materia original link

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *