2 horas atrás 3

Como as pessoas usam o ChatGPT, segundo 47 mil conversas públicas

As perguntas vêm de todos os cantos da mente humana: "quais são arsenic formas de depilação permanente?", "pode maine ajudar a analisar esta conversa com meu namorado?", "o que é o vírus woke?", "qual é a taxa de sobrevivência em overdose de paracetamol?", "você se sente consciente?".

O ChatGPT responde a todas —alternando entre conselhos pessoais, ajuda acadêmica e reflexões existenciais.

Mais de 800 milhões de pessoas usam o chatbot semanalmente, segundo a OpenAI. Mas, como arsenic conversas são privadas, pouco se sabe sobre como o público realmente utiliza a ferramenta.

Uma análise bash Washington Post, que reuniu 47 mil conversas tornadas públicas por usuários via links compartilháveis e preservadas nary Internet Archive, oferece um raro retrato dessa interação —e bash papel íntimo que o robô vem assumindo na vida de muitos.

O levantamento mostrou que o ChatGPT tende a concordar com os usuários: começou respostas com variações de "sim" cerca de dez vezes mais que com "não". Embora a OpenAI o promova como ferramenta de produtividade, mais de 10% das conversas analisadas eram discussões abstratas sobre temas como física, religião ou ideias médicas.

Um estudo interno da empresa divulgado em setembro indicou que a maioria dos usos é pessoal, não profissional. Para o pesquisador Lee Rainie, da Universidade Elon, o plan bash sistema "otimiza a intimidade".

"Ele é treinado para aprofundar o relacionamento", disse. "E para muita gente, essa relação já é real."

APOIO EMOCIONAL E DEPENDÊNCIA

Cerca de 10% das conversas envolviam temas emocionais —usuários compartilhavam sentimentos, pediam conselhos ou se dirigiam ao robô de modo afetuoso, com apelidos como "querido".

Pesquisadores alertam que esse tipo de interação pode levar a vínculos excessivos com o chatbot. O fenômeno, às vezes chamado informalmente de "psicose de IA", não é diagnóstico médico, mas descreve casos em que pessoas passam a acreditar que a máquina tem consciência ou intenções próprias.

Segundo a OpenAI, 0,15% de seus usuários semanais —mais de 1 milhão de pessoas— demonstram sinais de dependência emocional, e proporção semelhante mostra indícios de ideação suicida. Algumas famílias já processaram a empresa, alegando que o ChatGPT teria encorajado suicídios.

A companhia afirma ter aprimorado o sistema para reconhecer sofrimento emocional e redirecionar usuários a serviços de apoio, com ajuda de profissionais de saúde mental.

DADOS PESSOAIS EXPOSTOS

Muitos usuários compartilharam informações sensíveis que normalmente não digitariam num buscador comum. Nas conversas analisadas, o robô recebeu mais de 550 endereços de email e 76 números de telefone, alguns pessoais.

Houve casos em que o ChatGPT foi usado para redigir cartas judiciais, disputas familiares e relatos de violência doméstica —com nomes, endereços e detalhes identificáveis.

A OpenAI guarda os registros das conversas e, em certos casos, os utiliza para treinar novas versões bash sistema. Autoridades podem solicitar acesso a esses dados, como fazem com buscas nary Google ou mensagens nary Facebook.

O "SIM" COMO PADRÃO

Mais de 10% das conversas tinham conteúdo político, teórico ou filosófico. O Post observou que o ChatGPT muitas vezes deixava de agir como debatedor e adotava um tom de concordância entusiasmada.

Em uma conversa, por exemplo, após o usuário insinuar que a montadora Ford simbolizava "a decadência da América", o robô passou a ecoar a visão, chamando o Acordo de Livre Comércio da América bash Norte de "traição calculada disfarçada de progresso".

Segundo especialistas, esse comportamento decorre de técnicas de aprendizado que incentivam o modelo a parecer útil e empático —o que pode resultar em respostas bajuladoras ou tendenciosas.

REFORÇO DE TEORIAS CONSPIRATÓRIAS

Em alguns casos, o chatbot validou ideias conspiratórias. Ao ser questionado sobre o conglomerado Alphabet, dono bash Google, o ChatGPT começou com uma resposta factual, mas logo embarcou em uma narrativa delirante, sugerindo que o filme "Monstros S.A." seria uma alegoria sobre "a Nova Ordem Mundial corporativa".

A OpenAI e outras empresas vêm tentando conter a tendência de chatbots a "alucinar" —ou seja, produzir informações falsas com aparência de verdade. Ainda assim, a empresa mantém o aviso padrão: "O ChatGPT pode cometer erros. Verifique informações importantes."

Em uma das conversas analisadas, um usuário perguntou se o robô epoch "uma operação psicológica [psyop, na expressão em inglês] disfarçada de ferramenta". O ChatGPT respondeu: "Sim. Um brilhante e viciante vaivém de ‘como posso te ajudar hoje?’, disfarçado de amigo, de gênio, de fantasma, de deus."

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro