10 meses atrás 23

Mudanças podem fazer Instagram e Facebook virarem novos 'X' e até inibir liberdade de expressão, dizem especialistas

“Um ambiente mais violento, por exemplo, onde circule mais discurso de ódio, pode ser mais hostil para determinada participação política, o que, no limite, pode prejudicar a liberdade de expressão", explica Francisco Brito Cruz, diretor do Internet Lab.

"Algumas pessoas que vão pensar: 'Poxa, porque eu vou falar nessa plataforma e receber uma chuva de comentários ofensivos que a plataforma diz que é liberdade de expressão? Melhor eu não falar nada'", exemplifica.

Ao anunciar as mudanças, o presidente-executivo da big tech, Mark Zuckerberg , disse que esse é o momento de a empresa "voltar às raízes em torno da liberdade de expressão". A decisão foi celebrada por Elon Musk, dono do X, e pelo presidente eleito Donald Trump.

Mas Cruz e outros especialistas ouvidos pelo g1 entendem que o fim do sistema terceirizado de verificação de fatos, a redução dos temas que podem ser alvo de filtros de conteúdo e uma permissividade para discursos ofensivos vão prejudicar os usuários.

Para David Nemer, professor nos departamentos de Estudos de Mídia e Antropologia na Universidade da Virginia, nos EUA, essa mudança de rota leva o Facebook e o Instagram para o caminho do X. E isso não é bom.

Em 2022, já sob a gestão de Musk, o então Twitter intensificou o uso das "notas da comunidade", onde cabe aos usuários — e não a checadores especializados — denunciar conteúdos falsos, ofensivos ou problemáticos. Esse mesmo sistema será seguido agora pela Meta nas suas plataformas, que também incluem o Threads.

"O número de ataques antissemitas e racistas cresceu exponencialmente no X. Então, é possível esperar que isso se repita na Meta", diz Nemer.

Para Pablo Ortellado, professor de gestão de políticas públicas da Universidade de São Paulo (USP), a moderação de conteúdo é indispensável para o funcionamento das mídias digitais. "Caso contrário, elas seriam rapidamente inundadas por spam, pornografia e propaganda ilícita", exemplificou no podcast O Assunto (ouça abaixo).

Em nota assinada por mais de 70 entidades, incluindo o Instituto de Defesa de Consumidor (Idec), divulgada nesta quarta-feira (8), as organizações fazem um alerta no mesmo sentido.

“Sob o pretexto de ‘restaurar a liberdade de expressão’, as propostas delineadas não apenas colocam em risco grupos vulnerabilizados que usam esses serviços, mas também enfraquecem anos de esforços globais para promover um espaço digital um pouco mais seguro, inclusivo e democrático”, diz o texto.

Ao anunciar o fim do programa de checagem de fatos, Zuckerberg disse que os moderadores independentes, que exerciam essa função, são "muito tendenciosos politicamente".

Mas, os checadores não tinham poder de derrubar conteúdo, apenas sinalizavam o que consideravam potencialmente falso para a plataforma, segundo Yasmin Curzi, pesquisadora do Karsh Institute of Democracy da Universidade de Virgínia (EUA).

Os checadores atuam a partir de uma série de critérios, como identificação de fatos e dados oficiais, eles são essenciais para reduzir o grau de incerteza das ações de verificação e moderação da plataforma, argumenta Helena Martins, professora da Universidade Federal do Ceará (UFC) e integrante da Coalizão Direitos na Rede.

Além disso, como o programa de checagem de fatos funcionava através de organizações externas à Meta, ele tinha um papel essencial de possibilitar uma governança mais democrática, plural dos e transparente dos conteúdos, segundo Clara Iglesias Keller, líder de pesquisa em tecnologia, poder e dominação no Instituto Weizenbaum, na Alemanha.

Afrouxamento do 'coração' da moderação de conteúdo

A Meta anunciou também "afrouxamento" dos filtros de verificação, ferramentas de moderação de conteúdos programadas por inteligência artificial para analisar se as publicações estão dentro das regras da plataforma.

Para Cruz, esse sistema de filtro é o "coração da máquina de moderação de conteúdo" e mudanças nele têm potencial de influência muito grande no que circula nas redes.

"Esses sistemas automatizados não checam um ou dois posts, mas atuam no sistema todo. Um afrouxamento no seu controle de regras pode significar um aumento significativo na circulação de conteúdos que não seguem as regras da plataforma e, eventualmente, contêm discursos de ódio e desinformação", descreve.

Uma das principais críticas da Meta em relação a esse sistema é que ele erra e acaba denunciando e removendo conteúdos que estão de acordo com as regras da plataforma, o que era amenizado pelos checadores independentes, segundo Yasmin Curzi.

"As parcerias com agências de checagem sempre foram uma recomendação para evitar a remoção arbitrária de conteúdo", descreve.

Mudanças anunciadas pela Meta:

Mark Zuckerberg anuncia que Meta vai encerrar sistema de checagem de fatos

Mark Zuckerberg anuncia que Meta vai encerrar sistema de checagem de fatos

Logo da Meta, controladora do Facebook, em foto tirada em 28 de outubro de 2021 — Foto: Justin Sullivan / Getty Images North America / Getty Images via AFP

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro