Principais destaques:
- Pesquisas internas da Meta mostraram que o uso de Facebook e Instagram pode aumentar depressão, ansiedade e solidão.
- A empresa teria interrompido o estudo e ocultado as conclusões, comparadas por funcionários a práticas da indústria do tabaco.
- Documentos revelam que políticas internas priorizavam o crescimento da plataforma em detrimento da segurança dos usuários, inclusive menores de idade.
Uma nova leva de documentos judiciais divulgados recentemente trouxe à tona revelações preocupantes sobre como o Facebook e o Instagram podem estar afetando a saúde mental de milhões de pessoas.
Segundo registros obtidos por meio de processos nos Estados Unidos, a Meta, empresa dona das duas redes sociais, teria encerrado um projeto interno depois que seus próprios cientistas encontraram evidências de que o uso das plataformas estava associado a sentimentos mais intensos de depressão, ansiedade e solidão.
O estudo, batizado internamente de “Project Mercury”, foi desenvolvido em parceria com a empresa Nielsen em 2020. O objetivo era entender o impacto de se desconectar temporariamente das redes.
O resultado foi surpreendente: usuários que ficaram uma semana sem acessar o Facebook relataram melhora significativa em seu bem-estar emocional e redução na comparação social.
Mas, em vez de publicar esses achados, a Meta teria decidido interromper o projeto e descartar os resultados, alegando que eles poderiam ter sido “contaminados” pela cobertura negativa da mídia sobre a empresa.
Advertências ignoradas dentro da própria companhia
Ainda assim, documentos internos mostram que alguns funcionários alertaram executivos de alto escalão, incluindo Nick Clegg, então chefe de políticas públicas globais da Meta, de que a pesquisa era válida e confiável.
Um dos cientistas chegou a comparar a atitude da empresa com a da indústria do tabaco, que, no passado, ocultou estudos sobre os riscos dos cigarros.
As semelhanças incomodam ainda mais quando se lembra que o público mais afetado por essas plataformas de acordo com levantamentos anteriores são os jovens e adolescentes.
Essas alegações surgiram dentro de uma ação judicial movida por mais de 1.800 partes prejudicadas, incluindo distritos escolares, pais, crianças e procuradores-gerais de diversos estados norte-americanos.
O processo argumenta que grandes empresas de tecnologia, como Meta, Google, TikTok e Snapchat, ocultaram intencionalmente informações sobre os riscos psicológicos de suas plataformas.
Acusações mais graves: negligência com segurança infantil
Os novos documentos também incluem depoimentos de ex-funcionários, como Vaishnavi Jayakumar, ex-chefe de segurança e bem-estar do Instagram.
Ela declarou ter ficado “chocada” ao descobrir que a Meta possuía uma política que permitia aos usuários infratores reincidir até 16 vezes em casos graves de solicitação sexual antes de ter suas contas suspensas na 17ª infração, um número considerado extremamente alto por padrões da indústria.
Outros relatórios internos apontam que ferramentas de segurança desenvolvidas para proteger jovens usuários eram, muitas vezes, ineficazes ou pouco promovidas.
Mesmo ciente de que seus algoritmos expunham adolescentes a conteúdos prejudiciais, a empresa manteve estratégias voltadas para maximizar o engajamento, uma decisão que, segundo testemunhos, visava preservar o crescimento da plataforma mesmo à custa do bem-estar dos usuários mais vulneráveis.
Mensagens de 2021 atribuídas a Mark Zuckerberg sugerem que, à época, o foco principal do CEO estava no desenvolvimento do metaverso, enquanto temas de segurança infantil ficavam em segundo plano.
O que diz a Meta
Em resposta às acusações, o porta-voz da empresa, Andy Stone, afirmou que o estudo “Project Mercury” foi descontinuado por razões metodológicas, garantindo que a Meta continua comprometida em proteger seus usuários.
Segundo ele, “por mais de uma década, ouvimos os pais, investigamos preocupações reais e implementamos mudanças tangíveis para proteger adolescentes”.
Stone classificou as alegações do processo como “enganosas” e sustentou que as ferramentas de segurança da empresa são “amplamente eficazes”.
Uma audiência sobre o caso está marcada para 26 de janeiro de 2026, no Tribunal Distrital do Norte da Califórnia e pode se tornar um marco na discussão global sobre os limites éticos das redes sociais e a responsabilidade das grandes empresas de tecnologia sobre o impacto que causam na vida das pessoas.



