O Instagram anunciou que notificará os pais caso seus filhos adolescentes realizem buscas repetidas por termos relacionados a suicídio ou automutilação em um curto período de tempo.
A medida foi divulgada nesta quinta-feira (26), em meio a pressões globais para restrições ao uso de redes sociais por menores de idade. A Austrália implementou uma proibição para usuários abaixo de 16 anos em dezembro, enquanto o Reino Unido anunciou em janeiro que considera medidas semelhantes para proteger crianças online.
Países como Espanha, Grécia e Eslovênia também estudam limites ao acesso de adolescentes às plataformas digitais.
A funcionalidade do Instagram, propriedade da Meta, será aplicada a pais inscritos na configuração opcional de supervisão. Os alertas visam proteger adolescentes de conteúdo potencialmente prejudicial, de acordo com a plataforma.
Atualmente, o Instagram bloqueia tais buscas e redireciona usuários para recursos de apoio. A empresa mantém políticas rígidas contra conteúdos que promovam ou glorifiquem suicídio ou automutilação.
Os alertas começarão a ser enviados a partir da próxima semana nos Estados Unidos, Reino Unido, Austrália e Canadá, para aqueles pais que optaram pela supervisão.
Essa iniciativa ocorre em um contexto de crescente preocupação global com os danos online a crianças, incluindo recentes controvérsias com chatbots de IA e implicações de regulamentações para privacidade e liberdade de expressão.
No Instagram, contas para menores de 16 anos exigem permissão dos pais para alterações de configurações, e há opções de monitoramento adicional com consentimento dos adolescentes.








