"Algumas pessoas que vão pensar: 'Poxa, porque eu vou falar nessa plataforma e receber uma chuva de comentários ofensivos que a plataforma diz que é liberdade de expressão? Melhor eu não falar nada'", exemplifica.
Ao anunciar as mudanças, o presidente-executivo da big tech, Mark Zuckerberg , disse que esse é o momento de a empresa "voltar às raízes em torno da liberdade de expressão". A decisão foi celebrada por Elon Musk, dono do X, e pelo presidente eleito Donald Trump.
Mas Cruz e outros especialistas ouvidos pelo g1 entendem que o fim do sistema terceirizado de verificação de fatos, a redução dos temas que podem ser alvo de filtros de conteúdo e uma permissividade para discursos ofensivos vão prejudicar os usuários.
Para David Nemer, professor nos departamentos de Estudos de Mídia e Antropologia na Universidade da Virginia, nos EUA, essa mudança de rota leva o Facebook e o Instagram para o caminho do X. E isso não é bom.
Em 2022, já sob a gestão de Musk, o então Twitter intensificou o uso das "notas da comunidade", onde cabe aos usuários — e não a checadores especializados — denunciar conteúdos falsos, ofensivos ou problemáticos. Esse mesmo sistema será seguido agora pela Meta nas suas plataformas, que também incluem o Threads.
Para Pablo Ortellado, professor de gestão de políticas públicas da Universidade de São Paulo (USP), a moderação de conteúdo é indispensável para o funcionamento das mídias digitais. "Caso contrário, elas seriam rapidamente inundadas por spam, pornografia e propaganda ilícita", exemplificou no podcast O Assunto (ouça abaixo).
Em nota assinada por mais de 70 entidades, incluindo o Instituto de Defesa de Consumidor (Idec), divulgada nesta quarta-feira (8), as organizações fazem um alerta no mesmo sentido.
Ao anunciar o fim do programa de checagem de fatos, Zuckerberg disse que os moderadores independentes, que exerciam essa função, são "muito tendenciosos politicamente".
Mas, os checadores não tinham poder de derrubar conteúdo, apenas sinalizavam o que consideravam potencialmente falso para a plataforma, segundo Yasmin Curzi, pesquisadora do Karsh Institute of Democracy da Universidade de Virgínia (EUA).
Os checadores atuam a partir de uma série de critérios, como identificação de fatos e dados oficiais, eles são essenciais para reduzir o grau de incerteza das ações de verificação e moderação da plataforma, argumenta Helena Martins, professora da Universidade Federal do Ceará (UFC) e integrante da Coalizão Direitos na Rede.
Além disso, como o programa de checagem de fatos funcionava através de organizações externas à Meta, ele tinha um papel essencial de possibilitar uma governança mais democrática, plural dos e transparente dos conteúdos, segundo Clara Iglesias Keller, líder de pesquisa em tecnologia, poder e dominação no Instituto Weizenbaum, na Alemanha.
Afrouxamento do 'coração' da moderação de conteúdo
A Meta anunciou também "afrouxamento" dos filtros de verificação, ferramentas de moderação de conteúdos programadas por inteligência artificial para analisar se as publicações estão dentro das regras da plataforma.
Para Cruz, esse sistema de filtro é o "coração da máquina de moderação de conteúdo" e mudanças nele têm potencial de influência muito grande no que circula nas redes.
Uma das principais críticas da Meta em relação a esse sistema é que ele erra e acaba denunciando e removendo conteúdos que estão de acordo com as regras da plataforma, o que era amenizado pelos checadores independentes, segundo Yasmin Curzi.
"As parcerias com agências de checagem sempre foram uma recomendação para evitar a remoção arbitrária de conteúdo", descreve.
Mudanças anunciadas pela Meta:
- a Meta deixa de ter os parceiros de verificação de fatos ("fact checking", em inglês) que auxiliam na moderação de postagens, além da equipe interna dedicada a essa função;
- em vez de pegar qualquer violação à política do Instagram e do Facebook, os filtros de verificação passarão a focar em combater violações legais e de alta gravidade.
- para casos de menor gravidade, as plataformas dependerão de denúncias feitas por usuários, antes de qualquer ação ser tomada pela empresa;
- em casos de conteúdos considerados como de "menor gravidade", os próprios usuários poderão adicionar correções aos posts, como complemento ao conteúdo, de forma semelhante às "notas da comunidade" do X;
- Instagram e Facebook voltarão a recomendar mais conteúdo de política;
- a equipe de "confiança, segurança e moderação de conteúdo" deixará a Califórnia, e a de revisão dos conteúdos postados nos EUA será centralizada no Texas (EUA).
- Como era o serviço de checagem da Meta e quais tipos de postagens eram barradas que agora podem aparecer

Mark Zuckerberg anuncia que Meta vai encerrar sistema de checagem de fatos
Logo da Meta, controladora do Facebook, em foto tirada em 28 de outubro de 2021 — Foto: Justin Sullivan / Getty Images North America / Getty Images via AFP

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
10 meses atrás
23

/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/Y/I/pa7S26TMK4XiuauimSNQ/geladeiras-brastemp-techtudo-showroom.png)


:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro