
A Deloitte vai renunciar à parcela final de um contrato de AU$ 439 mil (cerca de R$ 1,5 milhão) com o governo da Austrália após admitir o uso de inteligência artificial em um relatório oficial repleto de erros. O documento, entregue em julho, continha mais de uma dúzia de referências falsas, citações inventadas e estudos que nunca existiram.
O Departamento de Emprego e Relações de Trabalho (DEWR) contratou a consultoria em dezembro de 2024 para auditar um sistema que aplica penalidades automáticas a beneficiários de programas de emprego. Menos de um mês após a publicação do relatório inicial, o acadêmico Christopher Rudge, da Universidade de Sydney, identificou as imprecisões e levantou a hipótese de “alucinações” de IA — fenômeno no qual modelos de linguagem inventam informações para responder consultas.
Após investigação interna, a Deloitte publicou uma versão corrigida do relatório na semana passada e confirmou que parte da análise “incluiu o uso de ferramentas de IA generativa (GPT-4o)”, segundo informações do jornal australiano Financial Review.
Leia também: Tivit anuncia nova liderança no Brasil e LATAM para reforçar integração com Grupo Almaviva
Entre os erros mais notáveis estavam citações a dois relatórios fictícios da professora Lisa Burton Crawford, da Universidade de Sydney, e outras duas referências a trabalhos inexistentes do professor Björn Regnell, da Universidade de Lund, na Suécia. O documento também inventou uma citação sobre decisão do Tribunal Federal australiano e errou a grafia do nome da juíza do caso.
“Não se pode confiar nas recomendações quando a própria base do relatório é construída sobre uma metodologia falha”, afirmou Rudge ao Financial Review. Para o acadêmico, a credibilidade de todo o trabalho ficou comprometida.
O governo australiano confirmou acordo para não pagamento da última parcela do contrato, mas não revelou o valor exato nem se buscará reembolso total. Segundo o DEWR, as recomendações do documento não foram alteradas na versão corrigida.
A Deloitte é considerada uma das principais empresas de consultoria do mundo e enfatiza em suas diretrizes a necessidade de supervisão humana em resultados gerados por IA, prática que parece ter falhado neste caso.
O incidente ocorre em momento de crescente preocupação com o uso não supervisionado de IA no ambiente corporativo. Em junho, o governo do Reino Unido testou o Copilot, da Microsoft, com 20 mil servidores públicos, enquanto o órgão de fiscalização contábil do país alertou que ferramentas automatizadas podem impactar a qualidade de futuras auditorias, segundo o Financial Times.
Com informações do Financial Review e Tecnoblog
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!