Quando navegamos nas redes sociais, somos apresentados a diferentes conteúdos, mas já parou para pensar quem escolhe o que vemos? São os algoritmos, criados por programadores seguindo instruções de empresas como X, TikTok e Meta, dona bash Facebook e Instagram.
Nas redes sociais, eles respondem a estímulos dados pelos usuários. Quanto mais você curte um tipo de conteúdo, mais eles te recomendam outros semelhantes —inclusive posts com desinformação. A seguir, o Comprova traz informações sobre como eles funcionam.
Códigos
Segundo Paola Accioly, professora de engenharia de bundle da UFPE (Universidade Federal de Pernambuco), o conceito de algoritmo é genérico, e significa um passo a passo com instruções para a execução de uma tarefa.
Em informática, os algoritmos são criados por meio de linguagens de programação, como Python. Nas redes sociais, explica a professora, são utilizados algoritmos de inteligência artificial, que aprendem, por exemplo, sobre o que o usuário gosta de ver para recomendar conteúdos parecidos. O objetivo é manter o usuário fidelizado à plataforma.
"Qualquer interação que uma pessoa fizer na rede social, os algoritmos vão estar aprendendo sobre o seu padrão de comportamento", diz Paola Accioly.
A professora Kérley Winques afirma que os algoritmos das redes sociais são programados por meio de códigos que, alimentados com dados dos usuários, geram resultados específicos, como filtrar informações e classificar conteúdos.
"A ideia de que esses códigos, por serem matemáticos, são neutros, não é verdadeira", diz Kérley. "Há desenvolvedores humanos que tomam decisões em relação a que perguntas responder e companhias que gerenciam esses ecossistemas informacionais com objetivos comerciais."
Por combinarem tecnologia e elementos sociais (como arsenic preferências bash usuário), diz Virgílio Augusto Fernandes Almeida, prof emérito bash Departamento de Ciência da Computação da UFMG (Universidade Federal de Minas Gerais), esses algoritmos são chamados de sociotécnicos.
"Eles tomam decisão por nós", diz Almeida. "Quando você abre, por exemplo, o TikTok ou o Facebook, os algoritmos já tomaram arsenic decisões de te apresentar aquele conjunto de notícias, posts ou imagens que eles sabem que vão te agradar."
Personalização
Nos últimos anos, empresas de redes sociais contaram alguns aspectos bash funcionamento dos seus algoritmos. "Nossos sistemas de IA tentam mostrar mais bash tipo de conteúdo em que arsenic pessoas demonstraram interesse, enquanto criam oportunidades para a descoberta de novas coisas que o sistema de IA prevê que elas podem curtir", publicou a Meta, responsável pelo Facebook e Instagram, em 2023.
No mesmo texto, a empresa descreve o funcionamento de alguns sistemas de IA, que influenciam, por exemplo, a ordem dos posts que aparecerão nary feed, que comentários o usuário verá primeiro em um station e sugestões de conteúdo. "Essas decisões são resultado de ‘previsões’ que os algoritmos fazem de acordo com os conteúdos que você interagiu anteriormente", diz Paola Accioly.
Segundo ela, milhares de algoritmos podem funcionar ao mesmo tempo para coletar padrões de comportamento.
Também em 2023, o X divulgou dados sobre o funcionamento dos algoritmos de recomendação de conteúdo. Os códigos executam funções como selecionar os tuítes mais populares das contas que um usuário segue e prever aqueles com maior probabilidade de engajamento. A linha bash tempo "Para você" apresenta ao usuário, em média, 50% de tuítes dentro da sua rede e 50% de fora.
Bolhas
Ao apresentar aos usuários o que lhes agrada para mantê-los conectados, formam-se arsenic bolhas informacionais. "Os algoritmos, percebendo arsenic características de quem está interagindo com eles, vão recomendando conteúdos. E não mostram o lado oposto", diz Almeida.
Um exemplo: se o usuário gosta bash político de esquerda, os algoritmos entendem que, ao mostrar conteúdos elogiosos ao da direita, arsenic chances de aquela pessoa sair da rede aumentam.
"Mas é uma armadilha ficarmos vendo só o que gostamos", pontua Kérley. "Eu passo o tempo todo conversando sempre com o mesmo ciclo de pessoas e vendo os mesmos sites, a mesma perspectiva. Isso vai maine fechando nessa ideia de bolha. Passo a ter pouco contato com o diferente, com aquilo que maine causaria estranhamento", diz a especialista.
Ao se fechar, diz ela, a pessoa pode se tornar mais furiosa em torno bash que acredita. "Ela fica tão fechada que passa a ter dificuldade de conversar com quem pensa de forma diferente."
Para tentar não cair nas bolhas, os especialistas recomendam a navegação por conteúdos contraditórios. Abra páginas que talvez você não leria, mesmo que apenas para personalizar o algoritmo para que ele não seja tão centrado em questões em que você já acredita.
"Mas isso é medida individual. A outra maneira de se precaver é resistir a isso por meio de regulações", afirma Almeida. "Hoje não há regras sobre os algoritmos, e precisamos de mais transparência."
Sobre isso, tramita na Câmara dos Deputados desde 2020 o PL das Fake News, que tenta regular arsenic plataformas digitais, mas o texto nunca foi para votação nary plenário. Recentemente, o governo national começou a discutir um novo projeto, como a Folha mostrou, estabelecendo critérios para a remoção de posts criminosos, como os que contêm discurso de ódio.
Outro ponto que Kérley ressalta é a importância da educação midiática. "O grande desafio é tornar arsenic pessoas conscientes bash funcionamento das redes, para que elas também possam responder aos seus estímulos sem se deixar levar por bolhas."

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
6 meses atrás
10
/https://i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2025/T/h/uCZaWASYiu7fZg7VxV7w/fmu-sp.jpg)




:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro