"Eu estava treinando minha própria substituição", escreve Asia. Cada confissão de amor fabricada, cada padrão de retenção emocional, cada técnica de continuidade entre operadores diferentes poderia estar sendo capturada como dado de treinamento para os mesmos algoritmos que, anos depois, seriam vendidos como "AI companions autônomos", que são interfaces capazes de simular intimidade sem o trabalhador humano que originalmente a produziu.
O estudo é uma iniciativa conjunta do DAIR Institute, do Weizenbaum Institute e da Technische Universität Berlin, com base na experiência dele e em entrevistas com sete colegas. O DAIR existe desde 2021 com financiamento rastreável de Ford, MacArthur, Rockefeller, Open Society e Kapor Center.
A indústria de inteligência artificial fala em autonomia algorítmica, mas o relatório de Asia mostra que ela é, em parte, um trabalho humano sob acordo de confidencialidade com salários baixos e classificado como atividade não qualificada.
Em entrevista ao UOL, Asia conta uma realidade bem dura: "Uma namorada de IA pode ser apenas um homem em uma favela de Nairóbi". Trabalhando como moderador de chat para plataformas de IA, depois de meses operando múltiplas identidades, ele foi testado pela própria plataforma para confirmar que era humano. E falhou.
"Eu comecei a explicar por que eu era uma mulher real, em vez de provar que era humano", conta ele. O teste se tornara irrelevante. Quem respondia já não era inteiramente ele. É o ponto de colapso de um sistema descrito publicamente como tecnológico, mas que é, em sua base, profundamente humano.
A narrativa dominante sobre inteligência artificial opera em dois registros extremos: a promessa de sistemas autônomos que substituem vínculos humanos ou o medo do colapso por automação predatória. O que essas narrativas têm em comum é que ambas apagam o trabalhador, tornando invisível a camada que sustenta o produto.
Hoje, Asia é secretário-geral da Data Labelers Association, entidade que ele criou para proteger os colaboradores que trabalham para refinar dados de inteligência artificial.
Naquela época, ele operava simultaneamente entre três e cinco personas com gêneros, orientações e histórias de vida distintas. Cada uma exigia coerência narrativa entre turnos, memória afetiva, improvisação contextual e gestão emocional em tempo real.
O pagamento era feito por mensagem produzida, em torno de US$ 0,05 por resposta, com metas de velocidade de resposta, volume e engajamento. Métricas monitoravam continuidade da conversa e retenção do usuário. O objetivo não era apenas responder. Era fazer com que alguém se sentisse ouvido, desejado e compelido a continuar. Ele precisava produzir vínculo como linha de produção.
A cadeia descrita por Asia já está sob análise judicial. Em 2022, o ex-moderador de conteúdo Daniel Motaung processou a Meta e a Sama no Quênia, alegando condições de trabalho abusivas em operações de moderação para o Facebook executadas no mesmo escritório de Nairóbi onde Asia foi treinado como anotador de dados.
Em 2023, a Justiça queniana decidiu que a Meta podia ser processada localmente, rompendo o escudo jurídico que vinha protegendo empresas de IA da responsabilidade por trabalho terceirizado em outros países. Asia trabalhou em projetos da Meta sob a Sama.
Asia relata que passou a suspeitar que o trabalho também treinava ou calibrava as plataformas de inteligência artificial. A suspeita surge de uma opacidade estrutural que é parte do modelo de negócio. O trabalhador não sabe o produto final, o usuário não sabe quem responde, e a empresa domina o espaço entre os dois.
Habitar personas com alta fidelidade emocional causa dissociação. "Eu não conseguia mais dizer 'eu te amo' para minha esposa sem sentir que era mentira", relata Asia. A contaminação migra para a vida privada, corroendo a capacidade de se relacionar de maneira autêntica fora da plataforma.
Essas múltiplas atividades e personalidades levaram Geoffrey Asia ao burnout. Mas o caso dos data workers expõe uma variante específica e ainda pouco documentada clinicamente, que é a erosão identitária por multiplicação de personas.
O trabalhador se esgota servindo a outros e por perder o referencial do próprio eu. O regime por mensagem cria pressão constante e quantificada, a ausência de vínculo empregatício elimina redes de proteção, o trabalho em inglês adiciona carga cognitiva invisível para trabalhadores do Sul Global, e a natureza do conteúdo, com conversas íntimas, sexuais e emocionalmente carregadas, exigiria suporte psicológico estruturado, supervisão e protocolos de cuidado.
As empresas operam em três camadas de extração simultâneas. Primeiro, monetizam a interação. Segundo, capturam recorrência, já que quanto mais vínculo emocional, maior a probabilidade de retorno e pagamento adicional.
Terceiro, podem reaproveitar o próprio trabalho como ativo tecnológico, em que cada conversa gerenciada por um humano que sustenta empatia e continuidade narrativa pode servir de dado de treinamento para modelos que futuramente dispensarão esse humano. O trabalhador opera o sistema e pode estar ensinando o sistema a substituí-lo.
A fragmentação por terceirização torna difícil atribuir responsabilidade. Entre a plataforma visível e o moderador há uma cadeia de subcontratação (gig economy, independent contractor, agência de anotação) que distribui a opacidade em tantas camadas que a prestação de contas se torna tecnicamente difícil e juridicamente confusa.
Asia alerta que esse risco é especialmente relevante para o Brasil. "O país reúne alta conectividade, mercado de trabalho com elevados índices de informalidade e pressão econômica que reduz a capacidade de recusar contratos frágeis", afirma ele. "O Brasil é um mercado suscetível, com cadeias globais de data work que buscam onde mão de obra está disponível, com proteção baixa e a urgência de renda é alta", alerta.
O caso de Asia não circula como testemunho isolado. Timnit Gebru, fundadora do DAIR, um dos institutos patrocinadores da publicação de Asia, saiu do Google em 2020 após a crise em torno do paper Stochastic Parrots.
Desde então, recusa os dois polos extremos do debate público: nem a inevitabilidade da salvação tecnológica, nem o catastrofismo abstrato. Em painel no SxSW 2026, a pesquisadora Gebru descreveu a estratégia com a qual as grandes empresas de IA constroem tecnologia e tentam monopolizar a produção legítima de conhecimento sobre o que essa tecnologia é. Quem define o enquadramento, define o debate.
O debate sobre saúde mental no trabalho digital tem se concentrado nos riscos para o usuário, como dependência, ansiedade e distorção de expectativas relacionais. No painel, Gebru mencionou casos envolvendo adolescentes em interações com chatbots emocionais, inclusive o que colocou a Character.AI sob escrutínio judicial nos Estados Unidos.
Mas há uma dimensão que também ocupa pouquíssimo espaço: a saúde mental de quem produz esses sistemas. Não os engenheiros, mas os trabalhadores invisíveis que leram, classificaram e performaram para que os sistemas aprendessem como parecer humanos.
A cadeia de dano é dupla e se retroalimenta. O trabalhador adoece pela exposição prolongada ao conteúdo emocionalmente intenso, pela fragmentação identitária e pela ausência de proteção num regime que o torna juridicamente invisível.
O usuário pode ser manipulado por um sistema construído para maximizar retenção, produzindo dependência e distorção de vínculos, especialmente em populações vulneráveis.
Nenhuma regulação trata essas duas dimensões de forma integrada. As dimensões de saúde mental ficam em regulações setoriais incapazes de alcançar a cadeia transnacional que organiza o trabalho real.
Reportagem
Texto que relata acontecimentos, baseado em fatos e dados observados ou verificados diretamente pelo jornalista ou obtidos pelo acesso a fontes jornalísticas reconhecidas e confiáveis.

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
11 horas atrás
2

/https://i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2025/A/A/zFDgBlR8CBSsXjNbBVeg/54538670938-222686b5fc-o.jpg)



:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)

:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2024/o/u/v2hqAIQhAxupABJOskKg/1-captura-de-tela-2024-07-19-185812-39009722.png)








Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro