1 mês atrás 20

Elon Musk propõe 'nova Wikipédia' com IA; especialista analisa os riscos

Elon Musk decidiu criar sua própria enciclopédia, chamada de "Grokipedia", após oferecer US$ 1 bilhão para que a Wikipédia mudasse de nome para "Dickpedia" e ter tido a proposta recusada pela empresa. Segundo o empresário, a plataforma estaria voltada principalmente para matemática e código, mas com ambição de se tornar um ecossistema de conhecimento dinâmico e autoverificável, capaz de checar fatos, rastrear fontes e detectar vieses em tempo real.

A Grokipedia deve ser integrada ao Grok, chatbot de inteligência artificial que já funciona dentro da X (antigo Twitter), e busca oferecer uma alternativa "mais precisa" à Wikipédia tradicional, segundo Musk. A proposta, no entanto, reacende o debate sobre como consumimos e confiamos em informações mediadas por algoritmos e inteligências artificiais. A seguir, confira na matéria do TechTudo detalhes sobre a proposta do bilionário e análise de especialista sobre os riscos da plataforma.

 TechTudo Elon Musk propõe 'nova Wikipédia' com IA; especialista analisa os riscos — Foto: Arte: TechTudo

Gerenciada pela Fundação Wikimedia, a plataforma é uma enciclopédia online, gratuita e colaborativa, mantida por voluntários ao redor do mundo, criada com o objetivo de criar um repositório de conhecimento universal e de licença livre. Desde seu lançamento em 2001, tornou-se uma das maiores fontes de referência na internet, com artigos em múltiplos idiomas e mecanismos de revisão comunitária para editar, checar e melhorar conteúdos.

A Grokipedia se propõe a ser diferente do que já é feito na Wikipédia, utilizando inteligência artificial para interpretar informações e automatizar a curadoria de conhecimento. Elon Musk já havia feito várias críticas contra a Wikipédia, reclamando de viés editorial, falta de "equilíbrio" e influência da mídia tradicional nos critérios da enciclopédia. Por exemplo, ele afirmou que a Wikipédia aceita "propaganda dos meios de comunicação legados" como fontes válidas, o que para ele reforçaria uma visão parcial do mundo.

Além disso, Musk já pediu para que as pessoas deixassem de doar para a Wikimedia Foundation (organização sem fins lucrativos que sustenta a Wikipédia), com a frase “Stop donating to Wokipedia until balance is restored!” (“Parem de doar à Wokipédia até que o equilíbrio seja restaurado”). A sátira realizada pelo bilionário modifica o nome do site para Wokipedia, fazendo referência ao termo woke que, segundo o dicionário inglês Oxford, significa "estar consciente sobre temas sociais e políticos, especialmente o racismo". Contudo, muitas vezes, a palavra é entendida de forma irônica por parte da população como um nome para aqueles que acreditam que são moralmente superiores e querem impor suas ideias progressistas sobre os demais - como foi neste caso do Musk.

Ele também satirizou o projeto da enciclopédia oferecendo US$ 1 bilhão para que ela mudasse de nome para "Dickipedia", fazendo referência a palavra dick, que significa "pênis" em inglês e é utilizado como xingamento, por vezes.

Essas críticas revelam parte da motivação por trás da Grokipedia, já que Musk parece querer posicionar seu projeto como uma alternativa "mais neutra" ou "menos influenciada" por atores humanos e pela mídia convencional, usando tecnologia como argumento de superioridade frente ao modelo colaborativo da Wikipédia.

A Grokipedia é apresentada por Elon Musk como uma espécie de enciclopédia automatizada, criada para reunir e organizar conhecimento por meio de inteligência artificial. O projeto deve funcionar integrado ao Grok, chatbot da plataforma X (antigo Twitter), e tem foco inicial em matemática e código, duas áreas de interesse do empresário.

Segundo Musk, a Grokipedia seria um sistema capaz de verificar informações, rastrear fontes e identificar vieses em tempo real, dispensando a curadoria humana tradicional. Na prática, isso significa que o conteúdo seria gerado e atualizado por modelos de IA, com base em dados coletados da própria rede X e de outras fontes online.

A proposta é criar um ecossistema de conhecimento autônomo e dinâmico, diferente do modelo colaborativo da Wikipédia, que depende de editores voluntários para revisar e publicar textos. No entanto, a ausência de revisão comunitária e a dependência de algoritmos levantam dúvidas sobre a precisão e a neutralidade do conteúdo produzido pela ferramenta.

Fabrício Carraro, Program Manager na Alura (escola online de tecnologia), graduado em Engenharia da Computação pela UNICAMP e com especialização em Dados e Machine Learning pela FIAP, traz um pouco da sua visão sobre se, na prática, é possível criar um produto de informação totalmente imparcial:

Essa é a pergunta de um milhão de dólares, né? Sendo bem direto: na minha opinião, não. É tecnicamente impossível, e o motivo é que a imparcialidade total é uma utopia, porque qualquer produto de informação é criado por gente, e gente tem viés. Desde a escolha dos dados que vão treinar um modelo de IA ou serem adicionados a um artigo de enciclopédia, tudo isso são decisões humanas. Cada uma dessas escolhas, por menor que seja, carrega um viés, mesmo que histórico, societal e inconsciente. O simples fato de um time de IA escolher um conjunto de dados em vez de outro já é um ato editorial. Se os dados históricos refletem desigualdades e isso não for minuciosamente tratado, a IA vai aprender isso.

Quais os riscos da Grokipedia?

A ideia de usar IA para organizar e validar o conhecimento humano não é nova, mas a forma como Musk apresenta o projeto gera controvérsias. Enquanto a Wikipédia é construída de forma colaborativa, com revisão comunitária e transparência nas fontes, a Grokipedia tende a se apoiar em modelos proprietários de inteligência artificial e em uma lógica de curadoria automatizada.

Isso levanta dúvidas sobre quem define o que é verdadeiro e quais critérios serão usados para avaliar as informações. Um sistema capaz de verificar fatos e detectar vieses pode, paradoxalmente, reproduzir os mesmos vieses que tenta eliminar, dependendo dos dados usados em seu treinamento e das diretrizes adotadas pela empresa.

A discussão sobre a Grokipedia, portanto, vai além do humor e das polêmicas que cercam Musk. Ela toca em um ponto central da era digital que é a confiança "cega" em sistemas automatizados. À medida que mais pessoas recorrem a ferramentas de IA para estudar, trabalhar ou se informar, cresce o risco de delegar a responsabilidade do pensamento crítico às máquinas. Afinal, sem processos claros de auditoria ou revisão humana, essas plataformas podem perpetuar erros, reforçar visões enviesadas ou até favorecer interesses econômicos e políticos. Em um cenário de desinformação crescente, a promessa de uma enciclopédia "autoverificável" pode soar tentadora, mas também perigosa, se o usuário não tiver meios de questionar o que vê.

Partindo da ideia de que a imparcialidade total é uma utopia, trazida por Carraro, o especialista traz alguns pontos importantes a serem considerados para minimizar a "bagunça" e evitar que a IA vire uma máquina de espalhar desinformação ou preconceito:

O especialista em Dados e Machine Learning, explique que é necessária uma curadoria bem feita dos dados, que vem da ideia de "garbage in, garbage out".

É fundamental que os times que desenvolvem a IA invistam pesado em analisar os dados que estão usando, garantindo que os datasets sejam diversos, representativos e que se tente ao máximo limpar vieses históricos óbvios. Times de desenvolvimento com diversidade de background também ajudam demais nisso, porque trazem perspectivas diferentes pra identificar preconceitos que um grupo homogêneo não enxergaria.

Fabrício destaca, ainda, que o produto precisa ter canais fáceis e claros para os usuários reportem erros, vieses ou respostas problemáticas, e ressalta que esse feedback precisa ser levado a sério e usado para refinar o modelo continuamente.

Além disso, ele lembra que muitos sistemas de recomendação e informação são otimizados para manter o usuário na plataforma. O problema é que, muitas vezes, o conteúdo mais polêmico, extremo ou "chocante" é o que gera mais engajamento.

É preciso definir métricas de sucesso que levem em conta a qualidade e a veracidade da informação, e não apenas cliques e tempo com o site/app aberto.

Também é necessário levar em consideração que as LLMs "alucinam", o que potencialmente pode gerar uma enciclopédia inteira de "fatos" que nunca existiram, misturar informações corretas com incorretas e apresentar tudo isso com uma aparência de realidade. "É um convite à desinformação em massa", explica o especialista.

Por fim, Fabrício Carraro expõe que, para ele, o risco real não é ter uma "concorrente" para a Wikipédia, mas sim ter "uma ferramenta poderosa de IA, com a aparência de uma fonte de informação neutra, sendo usada para escalar uma visão ideológica particular, minando o conceito de conhecimento construído coletivamente".

Quando a Grokipedia será lançada?

A Grokipedia ainda não tem data de lançamento nem detalhes técnicos divulgados. Até então, a proposta apenas tem despertado discussões sobre transparência, ética e concentração de poder informacional sobre o uso de IA para verificação de informações, rastreio de fontes e mais.

Veja também: Essa IA me fez conseguir um emprego! Conheça o Character.ai

Essa IA me fez conseguir um emprego! Conheça o Character.ai

Essa IA me fez conseguir um emprego! Conheça o Character.ai

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro