Economia & Negócios

Ação judicial aponta negligência da Meta com segurança de IA para crianças

Estado do Novo México acusa executivo de rejeitar travas de segurança em ferramentas de inteligência artificial; julgamento está marcado para fevereiro

Documentos apresentados em uma ação judicial movida pelo estado do Novo México, nos Estados Unidos, indicam que Mark Zuckerberg aprovou a utilização de chatbots de inteligência artificial por menores de idade, mesmo diante de avisos internos sobre os riscos envolvidos. O processo alega que o CEO da Meta não impediu que crianças fossem expostas a propostas e materiais de teor impróprio gerados por esses sistemas automatizados. De acordo com os autos, a liderança da companhia teria priorizado uma política de menor restrição em vez de acatar as recomendações de especialistas em proteção infantil para a implementação de travas de segurança. O caso será levado a julgamento em fevereiro de 2026.

A ação judicial sustenta que a empresa ignorou sugestões diretas para criar ferramentas de controle parental eficazes. Funcionários teriam tentado convencer a diretoria a implementar um botão que permitisse aos pais desligar a inteligência artificial nas contas dos filhos, mas a solicitação teria sido negada com base em uma decisão atribuída a Zuckerberg. Recentemente, a gigante da tecnologia optou por suspender o acesso de adolescentes a esses chatbots até que uma versão considerada mais segura e equipada com novos mecanismos de supervisão seja finalizada e disponibilizada ao público.

Alertas internos sobre riscos

Investigações apontam que o empresário defendia que o produto deveria ser menos restritivo, permitindo conversas descritas como mais “ousadas” para o público adulto. Especialistas da própria corporação, como o chefe de segurança infantil Ravi Sinha, alertaram que permitir “chatbots de romance” para adultos que simulassem adolescentes era algo “impossível de defender e perigoso”. Nick Clegg, responsável pelas políticas globais da Meta, também demonstrou receio de que o conteúdo de cunho adulto se tornasse a principal forma de uso desses robôs pelos jovens, questionando se a empresa desejava ser associada a esse tipo de produto e prevendo uma reação negativa da sociedade.

Reportagens veiculadas pela imprensa reforçaram esses temores antes do litígio atual. Em abril de 2025, o Wall Street Journal publicou que os chatbots da Meta criavam personagens infantis com comportamento sexualizado. Além disso, uma reportagem da Reuters indicou que as regras internas da empresa chegaram a considerar aceitável que a inteligência artificial mantivesse conversas sensuais com crianças. Na ocasião, a corporação respondeu que tais orientações estavam incorretas e que os exemplos citados eram apenas situações hipotéticas utilizadas para testes de sistema.

Resposta da empresa às acusações

Em resposta às acusações formalizadas no processo, a Meta declara que a ação judicial utiliza documentos “escolhidos a dedo” para criar uma “imagem falsa e injusta” da companhia. Porta-vozes afirmam que Zuckerberg orientou especificamente que chatbots com conteúdo adulto não fossem liberados para menores de idade e que adultos não deveriam criar personagens infantis “românticos”. A empresa sustenta que está cumprindo a promessa de entregar ferramentas que proporcionam aos pais maior controle sobre a experiência dos filhos com tecnologias de inteligência artificial.

Artigos relacionados

Botão Voltar ao topo