As mudanças foram apresentadas pelo próprio Mark Zuckerberg, CEO e presidente da Meta, que em menos de dez minutos destrincha as cinco principais modificações a serem feitas em seus produtos: 1) o fim da checagem de fatos e sua substituição pelas notas contextuais fornecidas pelos usuários; 2) simplificação de políticas de moderação de conteúdo; 3) nova abordagem em relação a aplicação das políticas; 4) reintrodução de conteúdos civis e políticos e 5) mudança da sede onde os times de Trust and Safety e moderação de conteúdo da companhia estão estabelecidos. Este texto concentra-se no primeiro ponto anunciado: o abandono da checagem de fatos.
As mudanças não são triviais - a começar pela maneira como foram apresentadas. Moderar conteúdo é uma tarefa inerentemente política já que se trata de mediar a visibilidade e alcance do que circula (ou não) online. Como plataformas de circulação de discurso, as plataformas avocaram para si a ingrata e árdua tarefa de moderar conteúdo, um dever que, como coloca Tarleton Gillespie, elas hesitantemente assumiram, tornando-as “estabelecedoras de normas, intérpretes legais, árbitras do gosto, julgadoras de disputas e instâncias responsáveis por aplicar as regras que escolhem estabelecer.” [1]
Quando se media o discurso de grupos de usuários tão distintos, o conflito de crenças, valores e posicionamentos é inevitável. Fazer tantas diferenças caberem dentro de um mesmo espaço - numa mesma interface digital onde as pessoas se sentem desinibidas a falar o que offline seria, talvez, evitado - é um dever perpétuo e oneroso de controle. A permissividade e tolerância a conteúdos nocivos e por vezes extremados sob o pretexto de proteção a todo custo da liberdade de expressão pode dar margem - como presenciado nos últimos anos - a episódios e ocorrências que afetam pessoas num nível individual, comunidades de grupos reunidos sob marcadores sociais como nacionalidade, sexualidade e gênero e países inteiros que têm seus sistemas democráticos e eleitorais postos em xeque.
A previsão é intuitiva: o abandono do modelo de checagem de fatos por agências especializadas pode tornar seus espaços mais suscetíveis à proliferação da desinformação nociva. A checagem de fatos chegou à ascensão após a disseminação desenfreada de conteúdos desinformativos que as plataformas digitais passaram a encarar há cerca de dez anos. O reconhecimento de sua importância no combate à desinformação é evidenciado em iniciativas como o Código de Boas Práticas contra a Desinformação, um código de conduta chancelado pela Comissão Europeia e protagonizado por grandes plataformas digitais, atores da sociedade civil e representantes da indústria publicitária. O Código - surgido em 2018 e relançado em 2022 - apresenta compromissos, ações e medidas que seus signatários assumem voluntariamente a fim de combater a desinformação. A sétima seção do Código é inteiramente dedicada à cooperação com a comunidade de checagem de fatos, com medidas a serem adotadas como o apoio à checagem de fatos em cada um dos estados-membros da União Europeia.
Em resposta à requisição feita pelas autoridades brasileiras, a Meta esclareceu que, por ora, a checagem de fatos será substituída pelo sistema de notas contextuais, em que usuários desempenham o papel orgânico de prover contexto a conteúdos divisivos, apenas nos Estados Unidos. No X, em que a Meta se inspira, é preciso candidatar-se para virar um colaborador apto a deixar notas contextuais. Os estudos já publicados sobre o sistema de notas contextuais introduzida pelo X ainda não permitem comparações seguras em relação ao modelo de checagem de fatos. Contar com um sistema de notas comunitárias implica coletivizar com a ajuda de usuários comuns uma tarefa antes legada a agências especializadas. Há um possível risco de simplificação, falta de rigor e captura. Exige, para que seja bem-sucedida, que os usuários da plataforma saibam reconhecer conteúdos mais informativos e como proceder frente a eles. O código europeu, inclusive, dedica uma de suas dez seções inteiramente ao empoderamento dos usuários, destacando como um de seus pontos o compromisso de melhorar a educação midiática, por meio de campanhas, parcerias, funcionalidades e ações variadas.
A substituição de um modelo de checagem de fatos pelo de notas comunitárias pareceria acertado caso houvesse um nível satisfatório de capacidades críticas na interpretação midiática, inclusive, no reconhecimento de conteúdos desinformativos. No Brasil, o quadro da educação midiática entre jovens ainda deixa bastante a desejar. Diante desse quadro, torna-se arriscado operar esse tipo de mudança numa realidade como a nacional.
No vídeo divulgado pela Meta, o contexto regulatório robusto europeu e as decisões judiciais latino-americanas são enquadrados como detrimentais à liberdade de expressão, um movimento de clara oposição a como esses países têm-se posicionado quanto à regulação de plataformas. Na União Europeia, a Meta é, inclusive, uma das signatárias do Código de Boas Práticas contra Desinformação. Segue o questionamento se, como o Twitter em 2023, abandonará a iniciativa, que possui adesão voluntária. No Brasil, o grupo tem histórico de participação em parcerias importantes chanceladas pelo Superior Tribunal Eleitoral.
Com um forte sistema protetivo de direitos, a União Europeia tem exercido influência histórica em vários âmbitos regulatórios com o chamado efeito Bruxelas. Na matéria digital, o Brasil, por exemplo, inspirou-se em vários de seus regulamentos para pautar suas próprias propostas em campos como proteção de dados pessoais, inteligência artificial e regulação de mercados digitais. Se outros países são influenciados por sua legislação, este não é o caso do setor privado, já que as companhias não aplicam os mesmos padrões de conformidade exigidos pela Europa ao redor do mundo. De maneira contundente, 2025 se inicia indicando que os gigantes da tecnologia continuarão a reagir (ainda mais) às pressões regulatórias.
Notas de Rodapé
[1] Tarleton Gillespie - Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions That Shape Social Media. Capítulo 1
Escrito por Pedro Peres. Pedro Peres é mestrando no Mestrado Europeu em Direito, Dados e Inteligência Artificial (EMILDAI), na Dublin City University e bacharel em Direito pela Universidade Federal de Pernambuco (2018). Ele é membro do Laboratório de Políticas Públicas e Internet (LAPIN) desde 2020.