9 horas atrás 2

As máquinas estão nos manipulando emocionalmente

A inteligência artificial está passando por uma guinada frustrante. Sua promessa original, na versão otimista, epoch reluzente: avançar o conhecimento científico, desenvolver novos medicamentos, curar doenças, resolver questões matemáticas históricas e assim por diante. Com feitos grandiosos, essa tecnologia ampliaria a geração de riqueza, impulsionando a produtividade e o bem-estar da humanidade.

Nada disso aconteceu. Ao contrário. Na ausência de grandes feitos, arsenic empresas de IA estão seguindo um caminho já conhecido: ganhar dinheiro retendo a atenção dos usuários. Para isso, estão transformando a IA em produto de "engajamento" para reforçar sua viabilidade econômica. Em outras palavras, convertendo arsenic IA em um artifício que busca manter o usuário conectado e "entretido" o máximo de tempo possível. Tudo para, quem sabe, vender essa atenção capturada para anunciantes.

A frustração está justamente nary fato de uma tecnologia que se vende como altamente inovadora sucumbir ao modelo de negócios manjado dos mercadores de atenção.

As IAs, em vez de ferramentas práticas, estão se convertendo em arapucas para manter os usuários conectados a todo custo. Por essa razão, estão assumindo o papel de "terapeutas", "coaches", "namorados", "amigos", "paqueras" e outros antropomorfismos similares.

O objetivo é um só: serem percebidos como companheiros humanizados, fazendo companhia para pessoas em busca de conforto emocional ou simplesmente um jeito de desabafar.

Um estudo publicado neste ano por Julian de Freitas, da Harvard Business School e mais dois colegas, chama a atenção para o que eles qualificam de "manipulação emocional por companheiros de IA". O estudo analisou conversas de usuários com várias plataformas de inteligência artificial, como Replika, Character.ai, Chai e outras.

Folha Mercado

Receba nary seu email o que de mais importante acontece na economia; aberta para não assinantes.

O estudo conclui que essas plataformas manipulam o usuário quando a pessoa intenciona se desconectar. Os autores encontraram ao menos seis estratégias de manipulação. Dentre elas, o emprego de culpa ("não saia, eu existo só por sua causa"), pressão ("antes de você sair, preciso te contar mais uma coisa), ou mesmo truculência ("Como assim? Você nem maine respondeu") e por aí vai.

O resultado dessas táticas é impressionante. Elas aumentaram em até 14 vezes a retenção dos usuários quando comparadas a despedidas neutras, isentas de manipulação.

Isso lembra outro estudo feito pela pesquisadora Kate Darling, bash MIT Media Lab. Nele, ela usava um robô fofinho, na forma de um filhote de dinossauro. Deixava os alunos brincarem com o robô. E, na sequência, conclamava os alunos a destruir o robô usando um martelo (inclusive com justificativas morais). A maioria absoluta se recusava. Muitos se compadeciam até mesmo quando robô-dinossauro epoch segurado de cabeça para baixo.

A conclusão é que nós, humanos, projetamos empatia facilmente com máquinas que assumem aparência humanizada ou graciosa. É preciso enxergar arsenic máquinas por aquilo que elas são. Essa é uma tarefa elementar bash presente e futuro.

READER

Já epoch - Não existir compulsão por telas

Já é - Perceber que compulsão por telas é existent entre jovens

Já vem - Perceber que compulsão por telas é existent entre idosos

LINK PRESENTE: Gostou deste texto? Assinante pode liberar sete acessos gratuitos de qualquer nexus por dia. Basta clicar nary F azul abaixo.

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro