Mundo

Amazon envia 1 milhão de alertas sobre material ilegal em treino de IA

Empresa detectou volume massivo de conteúdo suspeito envolvendo menores durante a coleta de dados para treinamento de modelos em 2025

A Amazon identificou centenas de milhares de arquivos contendo suspeitas de violência íntima contra menores em suas bases de dados utilizadas para o treinamento de modelos de inteligência artificial. O volume de registros encaminhados ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) resultou em um aumento de 15 vezes nas denúncias relacionadas à tecnologia durante o ano de 2025. A companhia foi a responsável pela maioria desses comunicados, tendo removido o conteúdo antes de sua utilização, embora a falta de informações sobre a origem dos arquivos tenha gerado críticas de especialistas quanto à eficácia das investigações policiais subsequentes.

Durante o período, a empresa enviou mais de um milhão de relatórios referentes a materiais ilícitos ligados à IA, um número expressivamente superior aos 64 mil enviados em 2024. A corporação esclarece que os dados foram coletados de fontes externas e da internet aberta, alegando não possuir detalhes técnicos que auxiliem as autoridades a rastrear os responsáveis. Essa ausência de metadados dificulta a localização de criminosos e o resgate de vítimas, contrastando com a postura de outras empresas do setor, como Google e OpenAI, que enviam menos denúncias, mas fornecem dados detalhados que permitem investigações reais.

Desafios na rastreabilidade de dados externos

Para justificar a quantidade massiva de alertas, a Amazon afirma utilizar uma configuração de busca “muito sensível” com o intuito de garantir que nenhum material impróprio passe despercebido. Essa abordagem acaba gerando muitos falsos positivos, casos que aparentam ser infrações, mas não são. O NCMEC reforça que apenas avisar sobre a existência do crime, sem fornecer pistas sobre a autoria, não auxilia efetivamente na proteção de crianças em perigo imediato. A organização solicita maior transparência sobre como esses bancos de dados são limpos e organizados pelas empresas de tecnologia.

A busca acelerada para lançar novas ferramentas de IA faz com que as companhias extraiam volumes gigantescos de dados da rede sem uma verificação profunda de segurança. Pesquisadores alertam que a prioridade tem sido a velocidade em vez da análise ética sobre o que alimenta esses modelos. Como as informações vêm de terceiros ou são coletadas automaticamente, a responsabilidade sobre quem postou o material criminoso se dilui. Além disso, o perigo de usar dados suspeitos reside na possibilidade de a IA aprender padrões impróprios e ganhar a capacidade de sexualizar fotos de crianças reais ou gerar imagens sintéticas de violência íntima.

Riscos de geração de conteúdo sintético

Até o momento, a Amazon assegura que suas inteligências artificiais não geraram imagens de violência íntima a partir desse treinamento. A detecção foi realizada por um sistema que compara arquivos com um banco de dados de crimes já conhecidos, processo chamado de “hashing”. A empresa prometeu divulgar dados mais detalhados sobre suas práticas de segurança em março de 2026, visando esclarecer as medidas adotadas para mitigar a presença de conteúdos nocivos em seus processos de desenvolvimento tecnológico e colaborar de forma mais efetiva com as autoridades competentes.

Artigos relacionados

Botão Voltar ao topo