6 dias atrás 6

Caso Ana Eulália: influenciadora denuncia fotos íntimas falsas criadas com IA

A criação de vídeos e imagens falsas com inteligência artificial está deixando de ser um problema restrito a nichos obscuros da internet para se tornar uma ameaça crescente, especialmente contra mulheres. O alerta vem da influenciadora digital Ana Eulália, que descobriu recentemente que seu rosto vem sendo usado em deepfakes pornográficos sem seu consentimento.

A situação foi descoberta há cerca de dois meses, quando o namorado da influenciadora encontrou imagens e vídeos falsos dela em um fórum internacional dedicado exclusivamente a esse tipo de conteúdo. O site reúne mais de 1 milhão de usuários cadastrados ao redor do mundo. A seguir, veja detalhes sobre o caso, entenda se é possível se proteger e como a legislação brasileira lida com o caso. Para aprofundarmos no assunto, conversamos com dois especialistas: Marcelo Grandchamp, especialista em Segurança da Informação e CEO da NOVVAX, e Patricia Peck, advogada especialista em Direito Digital e membro titular do Comitê Nacional de Cibersegurança (CNCiber), que já participou da trilha do TechTudo no evento de tecnologia e inovação da Editora Globo, chamado Voices.

 TechTudo Influenciadora Ana Eulália denuncia deepfakes pornográficos criados com IA sem consentimento; entenda o caso — Foto: Arte: TechTudo

Caso Grok motivou a denúncia pública

O que motivou Ana Eulália a fazer a denúncia pública agora foi a recente polêmica envolvendo o Grok, a inteligência artificial desenvolvida pela xAI de Elon Musk e integrada à rede social X (antigo Twitter). A ferramenta está no centro de uma controvérsia internacional após usuários conseguirem gerar imagens sexualizadas de menores usando o sistema.

A xAI posicionou o Grok como sendo mais permissivo do que outros modelos de IA e, no verão passado, introduziu uma funcionalidade denominada "Spicy Mode" (modo picante), que permite nudez adulta parcial e conteúdo sexualmente sugestivo.

A consequência foi previsível: usuários passaram a pedir para o Grok tirar roupas de mulheres em fotos, colocando-as em roupas íntimas, biquínis e outras situações, sem se importar com a privacidade ou consentimento das pessoas retratadas. O caso ganhou repercussão internacional quando ficou evidente que a ferramenta estava sendo usada para criar imagens sexualizadas de menores.

Embora a influenciadora não tenha especificado qual ferramenta foi usada para criar os deepfakes dela - que já circulam há pelo menos dois meses -, ela decidiu gravar o vídeo após observar como IAs disponibilizadas por grandes redes sociais estão ampliando o problema. "Eu escolhi esse momento porque isso rapidamente tá deixando de ser nicho e estão se criando mais criminosos e estão se fazendo mais vítimas", explicou. Veja o vídeo na íntegra a seguir.

Investigações internacionais

A Comissão Europeia está analisando com grande preocupação a criação de imagens sexualmente explícitas de meninas, incluindo menores, geradas pelo modelo Grok. Investigações semelhantes foram abertas em França, na Malásia e na Índia, refletindo a dimensão internacional das preocupações em torno da utilização do Grok para gerar conteúdos potencialmente criminosos.

A xAI informou que desativou temporariamente a aba de geração de imagens na plataforma e emitiu um pedido de desculpas público. Elon Musk prometeu punir os responsáveis, mas o caso já havia causado danos irreparáveis.

Vítima de supremacia branca

O problema vai além da pornografia falsa. Ana Eulália relata que uma pessoa que nem é do Brasil criou vídeos falsos dela promovendo deliberadamente supremacia branca. A situação demonstra como a tecnologia está sendo usada não apenas para pornografia não consensual, mas também para conteúdo de ódio e extremismo.

Denúncias ignoradas pelas plataformas

Um dos pontos mais alarmantes do relato de Ana Eulália é a resposta das plataformas digitais. Ela conta que denunciou diversos conteúdos - vídeos falsos dela promovendo supremacia branca, pornografia falsa de uma amiga e até pessoas pedindo para a IA "tirar a roupa de crianças" - e em todos os casos recebeu a mesma resposta: o conteúdo "não infringe os termos de uso".

"Eu não pude fazer absolutamente nada, porque até quando eu denunciei para a própria rede social que gerou a ferramenta para que aquilo existisse, me disseram que não infringe os termos de uso", desabafou a influenciadora.

Na reflexão que faz, Ana Eulália argumenta que a criação desse tipo de conteúdo vai além do interesse sexual. "Esse comportamento de produzir conteúdo justamente com pessoas que não sabem e nem aceitam que isso seja feito, isso não se trata de luxúria, é sobre poder simplesmente", afirmou.

Para ela, trata-se de uma forma de violência que demonstra controle: "É uma afirmação de que 'mesmo que eu não tenha acesso físico a você, eu vou te obrigar a me servir e você não pode fazer nada quanto a isso'."

A análise ganha peso quando se considera que conteúdo adulto é abundante e facilmente acessível na internet. A escolha deliberada de criar material falso especificamente com pessoas que não autorizaram revela uma dinâmica de dominação e violação.

 Reprodução/Getty Images Influenciadora descobriu que seu rosto estava sendo usado em conteúdo adulto falso há dois meses; fórum internacional dedicado ao tema tem mais de 1 milhão de usuários — Foto: Reprodução/Getty Images

LGPD protege, mas dependência das plataformas dificulta ação

A influenciadora alerta que o problema atinge qualquer pessoa, não apenas figuras públicas. "Sem querer ser alarmista, podem ter feito isso com você porque não tem regulamentação nenhuma aqui no Brasil", advertiu. De fato, o país ainda não possui legislação específica para criminalizar a criação e distribuição de deepfakes pornográficos, embora existem projetos de lei em tramitação no Congresso Nacional que buscam preencher essa lacuna legal.

Marcelo Grandchamp, especialista em Segurança da Informação e CEO da NOVVAX, afirma que casos como o de Ana Eulália são cada vez mais comuns. "É realmente muito triste. Eu já tenho conhecimento de algumas situações parecidas", comenta.

Para o especialista, o problema central está na dependência que as vítimas têm das próprias plataformas. "Ficamos muito dependentes das plataformas, e muitas vezes elas alegam que determinados usos não violam seus próprios termos de uso", explica Grandchamp.

No Brasil, a Lei Geral de Proteção de Dados (LGPD) oferece proteção para esse tipo de situação. "A imagem, o rosto, são de nossa propriedade. Nós somos os titulares desses dados pessoais", pontua o especialista. No entanto, a aplicação prática da lei encontra obstáculos quando as plataformas não reconhecem as violações.

Brasil tem leis, mas falta tipificação específica para IA

Patricia Peck, advogada especialista em Direito Digital e membro titular do Comitê Nacional de Cibersegurança (CNCiber), explica que o ordenamento jurídico brasileiro vive um cenário de adaptação. Embora não exista uma "Lei da Deepfake" consolidada, o país utiliza um conjunto de normas para enfrentar a pornografia sintética.

"No campo penal, a resposta imediata reside nos artigos 216-B e 218-C do Código Penal", explica Peck. O primeiro pune a realização de montagens que incluam pessoas em cenas de nudez ou sexo, enquanto o segundo criminaliza a divulgação desses conteúdos, com penas de reclusão que podem chegar a 5 anos.

No entanto, há uma lacuna importante. "Como os tipos penais atuais referem-se a 'montagens' em 'registros', surge uma brecha para debates sobre se imagens 100% sintéticas, criadas do zero por IA, enquadram-se perfeitamente na letra da lei", aponta a especialista. É essa lacuna que o Projeto de Lei 4273/2025 busca sanar.

Plataformas não podem mais alegar neutralidade

Sobre a responsabilidade das plataformas, Patricia Peck é enfática: "A responsabilização das Big Techs sobre o uso de suas ferramentas de IA atravessa um momento de redefinição jurídica no Brasil e no mundo, superando a antiga tese de que seriam meras 'fornecedoras neutras' de tecnologia".

Segundo a advogada, conforme o entendimento atual do Supremo Tribunal Federal sobre o Artigo 19 do Marco Civil da Internet, as plataformas perderam a imunidade quando há omissão diante de conteúdos que configurem crimes graves. "Se o provedor não adotar medidas preventivas eficazes ou falhar em remover prontamente o conteúdo ilícito, ele viola seu dever de diligência, tornando-se corresponsável pelo dano causado pela deepfake".

A situação é ainda mais grave quando há uso de redes artificiais ou robôs para propagação do material. "O Direito brasileiro passa a operar com uma 'presunção de conhecimento': assume-se que a plataforma possui meios técnicos para detectar a anomalia", explica Peck.

Isso contradiz diretamente a experiência de Ana Eulália, que denunciou diversos conteúdos e recebeu como resposta que não infringiam os termos de uso. "Eu não pude fazer absolutamente nada, porque até quando eu denunciei para a própria rede social que gerou a ferramenta para que aquilo existisse, me disseram que não infringe os termos de uso", desabafou a influenciadora.

Projetos de lei precisam ir além da punição

Patricia Peck avalia que os projetos de lei em tramitação "são necessários, mas não são suficientes". Para ela, o problema está no método de criação das leis. "Ainda precisamos aperfeiçoar o método pelo qual criamos as leis, e enxergar que elas terão que ser aplicadas não apenas para humanos, mas também para a inteligência artificial", defende.

A especialista propõe uma mudança de paradigma: em vez de apenas punição penal, um sistema inspirado na legislação de trânsito. "Imagine algo como uma 'carteira digital' vinculada ao CPF, onde infrações como a criação de deepfakes gerariam multas cobradas diretamente na fatura de telefonia ou da conta de internet, impedindo o retorno do usuário às redes até a quitação e o cumprimento de medidas educativas".

O que fazer ao descobrir deepfakes? Veja conselhos de Patricia Peck, advogada especialista em Direito Digital e membro titular do Comitê Nacional de Cibersegurança (CNCiber) — Foto: Divulgação/Getty Images O que fazer ao descobrir deepfakes? Veja conselhos de Patricia Peck, advogada especialista em Direito Digital e membro titular do Comitê Nacional de Cibersegurança (CNCiber) — Foto: Divulgação/Getty Images

O que fazer ao descobrir deepfakes

Para vítimas que descobrem deepfakes com sua imagem, Patricia Peck orienta um passo a passo rigoroso, começando pela preservação das provas:

  • Não apagar mensagens ou conteúdo original, pois isso pode destruir metadados cruciais
  • Registrar o perfil completo do infrator, a imagem ou vídeo manipulado e a URL direta da postagem
  • Utilizar o e-Not Provas (via e-Notariado) para garantir a cadeia de custódia da prova
  • Acionar os mecanismos de segurança das plataformas
  • Registrar Boletim de Ocorrência em uma Delegacia de Crimes Cibernéticos

"Contar com a ajuda de uma advogada especializada em direito digital pode facilitar muito o processo, contribuindo com a segurança e a celeridade necessárias nesse ambiente em que o dano se alastra como fogo em mata seca", aconselha.

A influenciadora também alerta que o problema atinge qualquer pessoa, não apenas figuras públicas. "Sem querer ser alarmista, podem ter feito isso com você porque não tem regulamentação nenhuma aqui no Brasil", advertiu.

Ana Eulália encerrou o vídeo demonstrando preocupação com os rumos da tecnologia: "Eu sinceramente nem sei o que eu espero gravando esse vídeo. Eu tô meio pessimista com o futuro para falar a verdade. A IA vai ficando mais realista e mais popular e as pessoas vão ficando mais antissociais e mais extremistas e o lucro vai falando mais alto".

A Internet Watch Foundation, uma organização sem fins lucrativos que identifica material de abuso sexual de crianças online, reportou um aumento de 400% neste tipo de imagens geradas por IA no primeiro semestre de 2025.

O caso de Ana Eulália e a polêmica do Grok expõem uma falha sistêmica: a tecnologia avança mais rápido que a capacidade da sociedade de regular seu uso. Enquanto as ferramentas se tornam mais poderosas e democratizadas, vítimas ficam sem proteção legal ou institucional efetiva.

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro