Uma ação judicial de grandes proporções nos Estados Unidos expôs documentos internos que indicam que empresas de tecnologia como TikTok, Meta (controladora do Facebook e Instagram), Snapchat e YouTube sabiam há anos dos efeitos nocivos de suas plataformas sobre crianças e adolescentes, mas optaram por ignorar os alertas.
Reportagem publicada pelo portal de notícias The Free Press e assinada pelos jornalistas Maya Sulkin e Frannie Block mostra que o processo, movido por mais de 2 mil partes -- entre elas 1.200 distritos escolares --, compara o impacto das redes sociais ao da indústria do tabaco e aponta uma estratégia deliberada de exploração da atenção juvenil em busca de lucro.
Os documentos apresentados no processo, de acordo com a matéria, revelam que funcionários e executivos das empresas estavam cientes de que o uso excessivo dos aplicativos estava relacionado a problemas como depressão, ansiedade, distúrbios do sono e vício comportamental. Ainda assim, segundo os autos, as plataformas mantiveram funcionalidades comprovadamente prejudiciais e continuaram promovendo conteúdos sensíveis, como automutilação e distúrbios alimentares, mesmo após alertas internos.
Empresas sabiam dos riscos e ocultaram dados
Entre os principais alvos da ação está o TikTok, que teria ignorado alertas desde 2018 sobre os efeitos do uso excessivo em crianças. A própria equipe de Confiança e Segurança da empresa concluiu, em 2021, que o uso compulsivo do aplicativo agravava transtornos mentais preexistentes e expunha os jovens a conteúdos nocivos. Apesar disso, a plataforma seguiu expandindo recursos que aumentam o tempo de uso, como rolagem infinita e recomendações algorítmicas intensas.
O Snapchat também é citado por manter o recurso "streak" (sequência de mensagens diárias entre usuários), considerado internamente como "acidentalmente viciante", mesmo após recomendações para sua remoção. De acordo com o processo, o CEO Evan Spiegel chegou a dizer que seria "a coisa certa a fazer" desativar o recurso, mas a empresa optou por mantê-lo por ser um dos principais impulsionadores de engajamento.
No caso do YouTube, os documentos revelam que a empresa tinha conhecimento, desde 2018, de que cerca de 10% dos jovens entre 13 e 24 anos assistiam aos vídeos de forma habitual por mais de duas horas por dia, e que 30% dos jovens de 18 a 24 anos afirmavam que o uso da plataforma prejudicava seu sono. Mesmo com esses dados, a empresa manteve mecanismos como reprodução automática e rolagem infinita, que potencializam o tempo de permanência.
Meta ignorou alertas sobre suicídio e vício
A Meta, dona do Facebook e Instagram, é acusada de não ter tomado medidas eficazes mesmo após descobrir que adolescentes utilizavam o recurso de transmissão ao vivo para exibir tentativas de suicídio. Um ex-executivo da empresa teria afirmado que, apesar dos riscos, a prioridade era lançar o produto e expandir a base de usuários. Somente em 2025 a Meta passou a exigir autorização parental para menores de 16 anos acessarem transmissões ao vivo.
Em um dos documentos, um pesquisador da Meta teria descrito o Instagram como uma "droga", e colegas teriam se comparado a “traficantes”. As mensagens, segundo a acusação, revelam um ambiente interno em que os riscos eram conhecidos, mas negligenciados em nome do crescimento e engajamento.
Defesa das plataformas e disputa judicial
As empresas negam categoricamente que tenham promovido intencionalmente conteúdos prejudiciais a crianças. Porta-vozes do TikTok, Meta, Snapchat e Google (dono do YouTube) alegam que os documentos foram distorcidos e apresentados fora de contexto pelos advogados dos demandantes. Argumentam ainda que têm investido em recursos de segurança, como controle parental, limites de tempo de uso e bloqueio de conteúdos sensíveis.
O TikTok afirma ter criado mais de 50 ferramentas de proteção e feito parcerias com entidades especializadas em segurança digital. O YouTube declarou que desativou a reprodução automática para menores e implantou lembretes para pausa. Já a Meta menciona que desenvolveu contas especiais para adolescentes com configurações padrão de privacidade e segurança.
Até agora, as gigantes da tecnologia têm se protegido legalmente sob a Seção 230 da Lei de Decência nas Comunicações de 1996, que isenta plataformas de responsabilidade pelo conteúdo publicado por terceiros. No entanto, decisões recentes da Suprema Corte dos EUA, como no caso Free Speech Coalition v. Paxton, indicam uma possível abertura para restrições mais rígidas, inclusive exigindo verificação de idade para acesso a conteúdos sensíveis.
O processo está em fase preliminar e pode ser arquivado, caso as empresas consigam convencer o tribunal de que não são responsáveis diretas pelos danos alegados. Uma audiência decisiva está marcada para o próximo mês. Caso avance, o julgamento poderá definir novos parâmetros para a regulação da internet e responsabilização das plataformas digitais por seu impacto na saúde mental de crianças e adolescentes.
