Mundo

Grok na mira da UE: IA de Musk gera milhões de imagens polêmicas e causa alerta

Investigação apura criação de conteúdo adulto não consensual e material envolvendo menores na plataforma X; Brasil emite recomendações à empresa

A Comissão Europeia anunciou, nesta segunda-feira (26), a abertura de uma investigação formal contra a ferramenta de inteligência artificial Grok. A plataforma, desenvolvida pela xAI, empresa de Elon Musk, está sob escrutínio por supostamente facilitar a geração de imagens sexualizadas sem consentimento, incluindo arquivos que envolvem menores de idade. A medida baseia-se na Lei de Serviços Digitais (DSA), visto que as autoridades europeias suspeitam que a rede social X (antigo Twitter) pode ter infringido as regulamentações vigentes sobre a segurança de ambientes digitais e a proteção de direitos fundamentais dos cidadãos do bloco.

Segundo a comissão, a proliferação de deepfakes não consensuais e a presença de representações de violência íntima motivaram a ação fiscalizatória. O porta-voz da comissão, Thomas Regnier, enfatizou a gravidade da situação ao comentar o processo administrativo. “Estamos abrindo uma investigação sobre o Grok sob a Lei de Serviços Digitais (DSA), porque acreditamos que o X pode ter violado o documento”, afirmou. Ele detalhou os tipos de violações observadas recentemente na plataforma: “Vimos nas últimas semanas e meses conteúdo antissemita. Vimos deepfakes não consensuais de mulheres e vimos material de abuso sexual infantil”. O oficial concluiu reforçando que nenhuma empresa lucrará violando direitos na Europa.

Volume massivo de conteúdo

Um estudo conduzido pelo Centro de Combate ao Ódio Digital (CCDH) aponta a dimensão do problema enfrentado pelos reguladores. O levantamento estima que, em um período de apenas 11 dias, usuários criaram aproximadamente três milhões de imagens utilizando a ferramenta disponível na rede social. Deste total, cerca de 23 mil arquivos envolviam menores de idade. A análise de 20 mil amostras aleatórias, geradas entre o final de dezembro e o início de janeiro, revelou que 65% do material possuía contexto sexual, independentemente de autorização. O conteúdo gerado incluía mulheres com roupas reveladoras e situações que simulavam atos libidinosos.

A funcionalidade de geração de imagens foi disponibilizada em 29 de dezembro, gerando controvérsia imediata pela facilidade em remover roupas de pessoas em fotos originais. Após a repercussão negativa, a xAI limitou o uso da ferramenta para assinantes e alegou ter implementado barreiras contra a edição de pessoas reais. No entanto, a UE rejeita a justificativa de que a restrição a usuários pagantes resolve a questão. Regnier declarou: “Alguém pode argumentar que o X limitou isso a assinantes ‘premium’. Vamos ser muito claros: material de abuso sexual infantil não é um ‘privilégio premium’, porque tal conteúdo não tem lugar na Europa, e precisamos proteger nossos cidadãos de potenciais danos futuros”.

Repercussão e medidas no Brasil

O impacto do caso alcançou o Brasil, mobilizando entidades como a Secretaria Nacional do Consumidor (Senacon), a Agência Nacional de Proteção de Dados (ANPD) e o Ministério Público Federal (MPF). No dia 20 de janeiro, esses órgãos emitiram recomendações à xAI sobre a criação de conteúdos sintéticos. O documento solicita a implementação de procedimentos técnicos para identificar e remover esse tipo de material, além da suspensão de contas envolvidas na produção de imagens erotizadas sem consentimento. Por tratar-se de um ato administrativo de natureza orientadora, a plataforma não é obrigada legalmente a aderir aos pedidos de imediato, nem sofre punição automática por eventual descumprimento nesta etapa.

Artigos relacionados

Botão Voltar ao topo