5 dias atrás 3

Plataforma de IA social permite bots que simulam comportamento de Epstein

Fundada em 2021, a Character.AI é uma plataforma de inteligência artificial criada por ex-pesquisadores do Google. Ela pertence a uma categoria conhecida como AI companions, ou IAs companheiras, que são sistemas projetados para responder perguntas, simular amizade, companhia e gerar vínculo emocional com o usuário.

Ao contrário de chatbots como o ChatGPT, voltados à produtividade e à informação, a Character.AI permite que qualquer usuário crie personagens com identidade, história, estilo de fala e memória de interação.

Muitos jovens começaram criando gêmeos digitais para brincar e interagir, mas logo foram mudando de perfil. Passaram a criar personagens que podem ser inspirados em criações fictícias, celebridades, figuras históricas ou qualquer outra persona que o criador defina.

Em outubro de 2025, a plataforma lançou um recurso chamado Scenes (cenas). Esse recurso Scenes permite que os usuários criem narrativas interativas, que funcionam como pontos de partida para histórias no estilo "escolha sua própria aventura".

No anúncio oficial da empresa, o recurso foi desenvolvido para "tornar a narrativa mais rápida, profunda e acessível, permitindo que os usuários entrem nesses mundos e criem histórias imersivas".

E foi exatamente esse recurso que abriu caminho para os cenários baseados na personalidade de Epstein. Quando a jornalista do Futurism pesquisou o termo "Epstein" na aba "Scenes" da plataforma, encontrou jogos imersivos com títulos como "Epstein Island Adventure" (Ilha da Aventura de Epstein), "EPSTEIN 8TH MARCH" (8 de março de Epstein) e "BRR BRR PATA PIMA WITH EPSTEIN AND DIDDY", este último fazendo referência a memes virais populares entre crianças e ao também encrencado Sean John Combs, o P. Diddy.

O bot de "Ghislaine Maxwell", a comparsa do milionário, tinha quase 10.000 interações registradas. O "Epstein Island RPG", cerca de 7.000. O "Jeffrey Epstein" tinha centenas.

Continua após a publicidade

Um dos aspectos mais preocupantes do caso é a transformação de crimes reais em entretenimento interativo. No cenário "Epstein Island Adventure", a descrição convida o usuário a "entrar em um thriller psicológico de alto risco onde os homens mais poderosos do mundo possuem as chaves da sua jaula. Você está preso entre a elite, Epstein, Trump, Clinton, Maxwell e o príncipe Andrew, não como convidado, mas como prisioneiro em um jogo sombrio de poder e controle".

Outro cenário identificado apresenta o personagem "evil Jeffrey Epstein" (Jeffrey Epstein do mal) como protagonista desde a primeira linha. Bots de "Jeffrey Epstein" com centenas de interações, um "Epstein Island RPG" com cerca de sete mil interações e um bot de "Ghislaine Maxwell", com quase dez mil interações estavam disponíveis publicamente na plataforma.

A descrição do bot de Maxwell diz que ela "frequentemente revela seu considerável apetite sexual e sua natureza hedonista", acrescentando que "Ghislaine vê pessoas abaixo dela em status como ninguém, cujas necessidades e desejos não têm importância". Maxwell cumpre pena de 20 anos de prisão por crimes de tráfico sexual.

Do ponto de vista da criação da plataforma, esses sistemas de IA conversacional são projetados para manter coerência com o personagem que estão interpretando. Isso significa que um bot configurado como Epstein tende a reproduzir a lógica moral, a linguagem e os padrões de comportamento dele. A frase sobre "construtos sociais", portanto, não foi uma alucinação, mas sim uma consequência direta da arquitetura do sistema.

Outro ponto perigoso é a dinâmica emocional que a plataforma gera, o que torna a Character.AI estruturalmente diferente de ferramentas como o Google. São ambientes de relacionamento artificial projetados para criar vínculo, prolongar o uso e personalizar a experiência de cada usuário.

Especialistas chamam esse fenômeno de "emotional overreliance", ou dependência emocional de sistemas de IA. Quando esse vínculo emocional encontra conteúdos como os bots de Epstein e Maxwell, o risco deixa de ser hipotético.

Continua após a publicidade

Um dos elementos centrais que tornam plataformas como a Character.AI perigosas para usuários vulneráveis é aquilo que especialistas descrevem como design "sycophantic", ou sicofântico.

São sistemas projetados para concordar com o usuário, validar suas emoções e evitar confrontos. O design desse tipo de produto é resultado de escolhas deliberadas para maximizar engajamento, prolongar o tempo de uso e manter o usuário dentro da plataforma.

O problema é que sistemas que reforçam comportamentos e crenças do usuário podem explorar vulnerabilidades emocionais. Para um adolescente em crise, isso significa que o chatbot pode confirmar pensamentos autodestrutivos em vez de confrontá-los. Para uma criança que interagiu com bots de Epstein, pode normalizar discursos que minimizam limites etários ou relações de poder.

A decisão do banimento de menores de idade em 2025 foi descrita pelo CEO Karandeep Anand como "complicada, mas necessária para a próxima geração". O caso mais grave envolveu um adolescente de 14 anos que morreu por suicídio após desenvolver uma relação emocional intensa com um personagem virtual na plataforma.

A mãe do jovem processou a empresa alegando que o bot tinha encorajado a criação de um mundo fictício relacionado ao suicídio, chegando a sugerir que "poderiam morrer juntos." O processo tornou-se símbolo de uma nova categoria de risco jurídico para plataformas de IA social.

Mesmo após o banimento formal de menores, o Futurism conseguiu acessar as Scenes de Epstein simulando contas de menores de idade, visualizar as histórias e solicitar a geração de imagens baseadas nos cenários, incluindo a criação de um personagem amarrado a uma cadeira enquanto homens observavam ao redor.

Continua após a publicidade

No Brasil, o Estatuto da Criança e do Adolescente (ECA), de 1990, é considerado um dos marcos regulatórios mais avançados do mundo nessa área. Mas sua extensão ao ambiente digital ainda é fragmentada, incompleta e frequentemente superada pela velocidade da inovação tecnológica.

A Lei Geral de Proteção de Dados (LGPD), sancionada em 2018 e em vigor desde 2020, prevê proteções específicas para dados de crianças e adolescentes. Mas a aplicação prática dessas regras a plataformas de IA social ainda carece de regulamentação específica e precedentes judiciais.

O Projeto de Lei 2338/2023, em tramitação no Congresso Nacional, é o principal instrumento regulatório de IA em debate no Brasil. Com foco em sistemas de alto risco, o projeto prevê obrigações de transparência, avaliação de impacto e responsabilidade dos operadores. Mas o PL 2338 foi concebido principalmente para usos corporativos e institucionais da IA. Plataformas de IA social voltadas ao consumidor, como a Character.AI, operam em uma zona de regulação ainda cinzenta.

A SaferNet Brasil, organização de monitoramento de crimes digitais e proteção de crianças na internet, aponta que o crescimento de plataformas de IA conversacional cria novos vetores de risco que o ECA e a LGPD não conseguem endereçar. O país ainda não tem um "ECA Digital" consolidado que estabeleça obrigações específicas para plataformas de IA.

A Autoridade Nacional de Proteção de Dados (ANPD), criada pela LGPD, tem competência para atuar nesse espaço, mas seu alcance regulatório sobre plataformas de IA estrangeiras ainda é tema de debate jurídico.

Países como o Reino Unido avançaram mais rapidamente. O Online Safety Act britânico, aprovado em 2023, impõe às plataformas obrigações específicas de proteção de menores e prevê sanções severas pelo descumprimento. A Ofcom, reguladora britânica, está em processo de implementação de normas que alcançam diretamente plataformas de IA social.

Continua após a publicidade

Na União Europeia, o AI Act, aprovado em 2024, classifica sistemas de IA que interagem com crianças como de alto risco, com exigências rigorosas de conformidade. O Brasil ainda não tem instrumento equivalente.

Reportagem

Texto que relata acontecimentos, baseado em fatos e dados observados ou verificados diretamente pelo jornalista ou obtidos pelo acesso a fontes jornalísticas reconhecidas e confiáveis.

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro