8 meses atrás 18

ChatGPT se passa por humano e engana 73% dos participantes em estudo; entenda

Novo modelo do ChatGPT, o GPT-4.5, conseguiu se passar por um humano e enganar 73% dos participantes em um estudo recente da Universidade da Califórnia, em San Diego (EUA). Durante cinco minutos, 284 voluntários conversaram online simultaneamente com outra pessoa e com uma inteligência artificial (IA), sem saber quem era quem. Ao final do experimento, precisavam identificar qual dos dois era real. Além do GPT-4.5, outros sistemas também foram testados. O GPT-4o, também da OpenAI, foi confundido com humanos em 56% das vezes.

O LLaMa-3, da Meta, e o Eliza, primeiro chatbot do mundo, criado na década de 1960, também participaram do estudo. Os robôs só convenceram em 23% e 21% dos casos, respectivamente. A seguir, saiba mais sobre a pesquisa e entenda como a inteligência artificial tem se aproximado do comportamento humano em interações virtuais.

 Reprodução/Ju Jae-young/Shutterstock Em pesquisa da Universidade da Califórnia, 73% dos participantes foram “enganados” pelo ChatGPT; saiba mais — Foto: Reprodução/Ju Jae-young/Shutterstock

Como o experimento foi feito?

O estudo contou com 284 participantes, sendo 126 estudantes de graduação da Universidade da Califórnia em San Diego e 158 voluntários recrutados pela plataforma online Prolific, que conecta pesquisadores a pessoas interessadas em participar de estudos científicos. Cada voluntário se envolveu em uma conversa virtual de cinco minutos com uma pessoa real e uma inteligência artificial, sem saber quem era quem. Ao final, precisavam identificar qual dos diálogos havia sido travado com um humano.

O experimento foi baseado no teste de Turing, método criado pelo matemático inglês Alan Turing na década de 1950 para avaliar se uma máquina é capaz de se passar por um ser humano em uma interação escrita. Se o avaliador não conseguir distinguir se o texto foi escrito por uma pessoa ou gerado artificialmente, a tecnologia é considerada aprovada.

 Reprodução/IMPA Estudo baseou-se no método de Alan Turing, matemático inglês — Foto: Reprodução/IMPA

Quais foram os resultados do teste?

Na pesquisa americana, o GPT-4.5 recebeu instruções para adotar a personalidade de um adolescente introvertido, familiarizado com a cultura da internet e com o uso de gírias. Com essa estratégia, a IA foi apontada como humana em 73% das interações. Já quando foi testada sem receber nenhum comando (prompt) específico — ou seja, sem interpretar nenhum personagem —, a taxa de participantes enganados caiu para 36%. O dado evidencia que o contexto e o direcionamento são fundamentais para a IA conseguir se aproximar da comunicação humana de forma convincente.

Além do GPT-4.5, outros três modelos de inteligência artificial também foram testados, mas obtiveram taxas de convencimento menores: o GPT-4o, também da OpenAI (56%); o LLaMa-3, da Meta (23%); e Eliza, chatbot criado na década de 1960 (21%).

 Reprodução/VCG via Getty Images Ao receber instruções específicas, GPT-4.5 foi o modelo de IA que mais conseguiu se passar por humano — Foto: Reprodução/VCG via Getty Images

O que o estudo revela sobre o futuro da IA

Os pesquisadores destacaram que este é o primeiro registro empírico de um sistema de inteligência artificial superando humanos em um teste de Turing tradicional. No entanto, reforçam que a capacidade de se passar por uma pessoa real não significa que a IA tenha consciência ou sentimentos. Trata-se somente da simulação de comportamentos humanos, sem qualquer emoção. Além disso, embora o resultado chame atenção para o potencial de modelos como o GPT-4.5, também levanta preocupações sobre o uso indevido da tecnologia, como a disseminação de desinformação, a manipulação de vítimas para prática de crimes e os riscos à segurança digital.

Veja também: Você confia em IA? Alunos revelam se já 'colaram' com a ferramenta

Você confia em IA? Alunos revelam se já 'colaram' com a ferramenta

Você confia em IA? Alunos revelam se já 'colaram' com a ferramenta

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro