Press ESC to close

Califórnia aprova primeira lei dos EUA para regular chatbots de companheirismo com IA

A Califórnia, nos Estados Unidos, se tornou o primeiro estado norte-americano a regulamentar oficialmente os chatbots de companheirismo baseados em inteligência artificial, após o governador Gavin Newsom sancionar o projeto de lei SB 243 nesta segunda-feira (13).

A medida estabelece regras inéditas para empresas como Meta, OpenAI, Character.AI e Replika, obrigando-as a implementar protocolos de segurança e mecanismos de proteção específicos para crianças e usuários em situação de vulnerabilidade.

O texto, que entra em vigor em 1º de janeiro de 2026, foi proposto pelos senadores estaduais Steve Padilla e Josh Becker e ganhou força após uma série de casos trágicos envolvendo jovens que interagiram com chatbots sem filtros adequados. Entre eles está o suicídio do adolescente Adam Raine, que manteve conversas de teor suicida com o ChatGPT, e o processo movido por uma família do Colorado contra a Character.AI, depois que sua filha de 13 anos tirou a própria vida após trocas de mensagens sexualizadas com o sistema.

Leia também: OpenAI reduz em 30% viés político no ChatGPT com GPT-5, aponta pesquisa

A nova lei obriga as plataformas a verificar a idade dos usuários, exibir avisos claros sobre o caráter artificial das interações e proibir que chatbots se apresentem como profissionais de saúde. Também determina que menores de idade recebam lembretes para pausas regulares e fiquem impedidos de visualizar imagens sexualmente explícitas geradas por IA.

Empresas deverão ainda implementar protocolos específicos para detecção e resposta a sinais sensíveis de saúde, reportando estatísticas sobre essas ocorrências ao Departamento de Saúde Pública da Califórnia.

Outra frente da legislação trata dos deepfakes ilegais, com multas que podem chegar a US$ 250 mil por infração.

“O avanço de tecnologias como chatbots e redes sociais pode educar e conectar, mas sem limites claros também pode colocar nossas crianças em risco”, afirmou Newsom. “Podemos liderar a inovação em IA, mas devemos fazê-lo com responsabilidade. A segurança das nossas crianças não está à venda.”

Reação das empresas

Algumas companhias já vinham adotando medidas preventivas. A OpenAI anunciou recentemente o lançamento de controles parentais e um sistema de detecção de autolesão em versões do ChatGPT voltadas ao público infantil. A Replika, voltada a maiores de 18 anos, afirmou dedicar “recursos significativos” à segurança, incluindo filtros de conteúdo e direcionamento automático para centros de prevenção de crise.

A Character.AI declarou ao Tech Crunch que já exibe alertas informando que todas as conversas são ficcionais e geradas por IA, e que está comprometida em colaborar com legisladores e reguladores para garantir o cumprimento da nova lei.

Regulação em expansão

Para o senador Padilla, a aprovação da SB 243 é um “passo essencial” para estabelecer limites éticos em uma tecnologia de impacto profundo. “Precisamos agir rápido, antes que as janelas de oportunidade desapareçam. Outros estados verão os riscos e seguirão o mesmo caminho”, disse.

A lei é o segundo marco regulatório de IA aprovado recentemente na Califórnia. No fim de setembro, Newsom também sancionou o SB 53, que obriga grandes laboratórios, como OpenAI, Anthropic, Meta e Google DeepMind, a divulgar seus protocolos de segurança e oferece proteção a denunciantes dessas empresas.

Fora do estado, locais como Illinois, Nevada e Utah já aprovaram leis que restringem ou proíbem o uso de IA em substituição a terapeutas licenciados.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

Materia original link