A Meta, proprietária do Facebook e do Instagram, enfrenta alegações de líderes globais de que os produtos da empresa prejudicam os usuários jovens. Nos Estados Unidos, milhares de ações judiciais acusam a empresa de projetar produtos viciantes e alimentar uma crise de saúde mental nos jovens.
A estatística sobre imagens explícitas veio de uma pesquisa com usuários do Instagram sobre suas experiências na plataforma, disse Stone, e não de uma análise das próprias publicações.
No final de 2025, a empresa disse que, para usuários adolescentes, removeria imagens e vídeos contendo nudez ou atividade sexual explícita, incluindo quando gerados por IA, com exceções consideradas para conteúdo médico e educacional.
“Estamos orgulhosos do progresso que fizemos e sempre trabalhando para melhorar”, disse Stone.
Cerca de 8% dos usuários na faixa etária de 13 a 15 anos também disseram ter visto alguém se machucar ou ameaçar fazer isso no Instagram, de acordo com o depoimento.
A maioria das imagens sexualmente explícitas foi enviada por meio de mensagens privadas entre usuários, disse Mosseri em seu depoimento, e a Meta deve considerar a privacidade dos usuários ao analisá-las. “Muitas pessoas não querem que a gente leia suas mensagens”, disse ele.







