martphone com a tela de vidro estilhaçada por uma rachadura profunda, mas ainda emitindo uma luz azul brilhante de redes sociais, simbolizando os danos ocultos à saúde mental por trás da interface polida do Instagram, da Meta

Meta ocultou provas de danos do Instagram e Facebook a jovens

Novos documentos alegam que a Meta escondeu dados sobre como Instagram e Facebook prejudicam a saúde mental e ignorou riscos de segurança infantil

Novos documentos judiciais não lacrados revelam que a Meta ocultou pesquisas internas cruciais que confirmavam os danos causados pelo Instagram e Facebook à saúde mental de adolescentes. Os autos, apresentados no Tribunal Distrital do Norte da Califórnia, indicam que a gigante da tecnologia possuía evidências de uma relação causal direta entre o uso de suas plataformas e problemas psicológicos severos, mas optou por omitir essas informações do Congresso dos Estados Unidos e do público. As revelações agravam a crise de reputação da empresa, sugerindo uma estratégia deliberada de ocultação de dados para evitar regulação.

No centro das acusações está o “Projeto Mercury”, um estudo conduzido pela própria companhia que teria comprovado cientificamente os efeitos adversos dos aplicativos na psique dos jovens. Segundo a acusação, embora detivesse esses dados, executivos da Meta informaram aos legisladores que não era possível quantificar se seus produtos prejudicavam garotas adolescentes. A estratégia visava proteger o modelo de negócios da empresa, priorizando o crescimento contínuo em detrimento da divulgação de riscos de segurança conhecidos internamente.

Além da supressão de dados clínicos, os arquivos expõem falhas sistêmicas nas políticas de moderação de conteúdo sensível dentro do Instagram e do Facebook. Depoimentos de ex-funcionários detalham diretrizes internas permissivas, que autorizavam a reincidência de comportamentos predatórios. Os documentos sugerem que a empresa estava ciente de que a otimização de produtos para o engajamento adolescente expunha esse público vulnerável a conteúdos prejudiciais, mas manteve o curso de ação para sustentar as métricas de retenção.

A divulgação desses arquivos ocorre em um momento de alta tensão para a liderança de Mark Zuckerberg, com uma audiência decisiva agendada para o dia 26 de janeiro. O processo busca responsabilizar a corporação por supostamente negligenciar o bem-estar de menores, alegando que iniciativas de segurança foram atrasadas ou preteridas em favor de investimentos em novas frentes, como o desenvolvimento do metaverso. A defesa da Meta, por sua vez, sustenta que as medidas de proteção implementadas são eficazes e contesta a validade metodológica das pesquisas citadas.

O Projeto Mercury e a omissão de dados causais

A peça central das novas evidências é o Projeto Mercury. De acordo com os autores da ação, a Meta utilizou este projeto para investigar a fundo a interação entre seus algoritmos e a saúde mental dos usuários. Os resultados teriam confirmado que o uso intensivo do Instagram e Facebook não apenas se correlacionava, mas causava efeitos negativos, incluindo distúrbios de imagem corporal e ansiedade em jovens.

A gravidade da acusação reside na comunicação da empresa com o governo. Ao ser interpelada pelo Congresso americano, a Meta afirmou ser incapaz de medir tais danos. Os documentos judiciais agora sugerem que essa resposta contradizia o conhecimento interno da empresa. A estratégia legal dos autores do processo é demonstrar que a Meta “enterrou” essas evidências causais para evitar a criação de leis mais rígidas de proteção à criança na internet, mantendo uma narrativa pública de que a ciência sobre o tema era inconclusiva.

A política de “17 infrações” e a segurança no Instagram

Um dos trechos mais contundentes dos documentos refere-se ao depoimento de Vaishnavi Jayakumar, ex-chefe de segurança e bem-estar do Instagram. Jayakumar testemunhou ter ficado “chocada” ao descobrir, em 2020, a existência de uma política interna de “17 infrações” (strikes) aplicada a contas envolvidas em tráfico sexual.

Segundo o depoimento, o sistema de moderação permitia que usuários violassem as políticas contra prostituição e solicitação sexual até 16 vezes antes que uma suspensão definitiva ocorresse na 17ª ofensa. Jayakumar classificou esse limite como “um limite de infrações muito, muito alto por qualquer medida em toda a indústria”. Na prática, essa diretriz permitia que perfis sinalizados como predadores continuassem ativos e interagindo com usuários na plataforma, mesmo após múltiplas detecções de comportamento ilícito.

Engajamento acima da proteção

Os autos também alegam que a Meta desenhou recursos de segurança para jovens que eram intencionalmente ineficazes ou pouco visíveis. Documentos internos indicam que a empresa reconhecia o trade-off: otimizar os produtos para maximizar o tempo de tela dos adolescentes aumentava a exposição a riscos, mas era essencial para o negócio. Mesmo ciente desse ciclo, a companhia teria optado por manter as estratégias de engajamento.

Adicionalmente, iniciativas destinadas a impedir o contato de predadores infantis com menores teriam sido postergadas devido a preocupações com o impacto no “crescimento” da base de usuários. A acusação aponta que a liderança máxima estava ciente dessas escolhas. Uma mensagem de texto de 2021, atribuída ao CEO Mark Zuckerberg, é citada no processo indicando que a segurança infantil não era sua prioridade imediata, pois ele estava “mais focado” em áreas estratégicas de expansão, como a construção do metaverso.

O posicionamento da Meta

A Meta respondeu às alegações defendendo a integridade de suas operações e contestando a interpretação dos documentos vazados. Andy Stone, porta-voz da empresa, afirmou no último sábado que o estudo referente ao Projeto Mercury foi descontinuado internamente devido a “falhas metodológicas”, razão pela qual seus dados não foram considerados conclusivos ou divulgados como fatos comprovados.

Stone reforçou o compromisso da empresa com a segurança, declarando: “O registro completo demonstrará que, por mais de uma década, ouvimos os pais, investigamos questões significativas e implementamos mudanças tangíveis para proteger adolescentes”. A empresa classifica suas atuais medidas de segurança como “amplamente eficazes” e nega ter mentido ao Congresso. A disputa sobre a validade dessas afirmações e a responsabilidade corporativa da Meta será o foco da audiência no final de janeiro.

Fonte: Reuters, IB Times, NY Times

Total
0
Shares
Previous Post
Fluxo vertical de cartões de dados transparentes onde apenas um se destaca em azul vibrante, representando o sistema de ranking e seleção de conteúdo do algoritmo do Instagram

Entenda como funciona o algoritmo do Instagram e o ranking de posts

Next Post
Consoles Xbox Series X e Xbox Series S lado a lado com um módulo de memória RAM em primeiro plano, ilustrando a escassez de componentes que pode pressionar o aumento de preços do hardware da Microsoft

Microsoft pode aumentar preços do Xbox devido à escassez de RAM

Related Posts