2 horas atrás 3

É #FAKE vídeo de Marcos Palmeira divulgando 'vaquinha' para o caso Orelha; golpe usa IA para manipular imagem e áudio

Assessoria do ator denunciou golpe, que tem link para vítimas 'doarem' entre R$ 30 a R$ 1 mil. Página tem indícios de crime, como apelo emocional extremo e foco em urgência.


É #FAKE vídeo que usa imagem de Marcos Palmeira para pedir doação para o cão Orelha; trata-se de golpe — Foto: Reprodução

Circula nas redes sociais um vídeo no qual o ator Marcos Palmeira supostamente pede "doações" em uma campanha para "responsabilizar" os autores das agressões que levaram à morte do cão Orelha, no início de janeiro, em Florianópolis. É #FAKE.

🛑 Como é a publicação falsa?

  • O vídeo viralizou no Facebook e no Instagram no início deste mês e explora a comoção em torno do caso Orelha, cachorro comunitário que vivia na Praia Brava. Em 5 de janeiro, ele teve de passar por eutanásia devido à gravidade dos ferimentos. Nesta terça-feira (3), a Polícia Civil de Santa Catarina apontou um adolescente como autor da agressão e pediu a internação provisória do jovem.
  • Na parte superior do quatro, há o seguinte enunciado: "Vamos mostrar que isso não passa batido". A tela se divide em duas: à direita, aparece Marcos Palmeira falando diretamente à câmera; à esquerda, há a foto de um cachorro parecido com Orelha e retratos borrados de quatro pessoas (inicialmente, a investigação havia indicado envolvimento de quatro menores de idade no episódio).
  • Mas a fala atribuída ao ator foi criada com inteligência artificial (IA) – leia detalhes abaixo. A versão manipulada diz: "Oi, eu sou o Marcos Palmeira, sou ator, mas sou eu mesmo. Eu quero fazer um convite para vocês. Por favor, é muito importante. Fiquem comigo até o final que é assunto sério. Está acontecendo um movimento no Brasil todo pelo caso do Orelha. Temos menos de 7 dias para a gente conseguir fazer a coisa certa. Um cachorro que levou um fim da pior forma, tal forma que, até para falar, é complicado, dói no coração. Tudo isso, por quatro pessoas desalmadas. Foi aberta uma campanha para levar o caso para a frente com uma equipe de profissionais para que esse caso não seja arquivado e os responsáveis não saiam impunes dessa situação. E eu estou falando, assim, meio urgente, porque temos menos de 7 dias para garantir que esse caso não seja esquecido [...]. Talvez você nunca tenha conhecido Orelha, mas imagine só essas pessoas andando pela rua como nada tivesse acontecido. Conto com a ajuda de todos vocês. Clique aqui no link abaixo e faça sua parte. Vamos fazer o que é certo, aquilo que Deus nos ensinou".
Na parte inferior do quadro, um link direciona o usuário a um site de uma vaquinha solidária on-line com propostas de doações de R$ 30 a R$ 1 mil. O endereço é pouco confiável, segundo uma ferramenta de análise de segurança, e exige um pagamento via PIX. O valor vai para uma intermediadora de pagamentos que não revela o destinatário final dos recursos.
Além disso, a página apresenta sinais típicos de golpe como: apelo emocional extremo; foco em urgência; ausência de CNPJ, razão social, endereço físico ou responsável legal pela campanha; e pagamento fora de plataformas conhecidas ou que permita auditoria.

⚠️ Por que a publicação é falsa?

Ao Fato ou Fake, Marcos Palmeira enviou um e-mail, por meio de sua assessoria de imprensa, desmentindo o material:

“Os criminosos se apropriaram de uma causa importante, que eu apoio, para aplicar o golpe. É uma prática sórdida, que a gente tem que denunciar e combater. Temos que ficar sempre muito atentos, principalmente nesse ano de eleição, que não vai ser fácil". A equipe informou ainda que, provavelmente, os criminosos usaram uma foto do autor como base para criar o vídeo.

O Fato ou Fake submeteu o vídeo ao detector de deepfake da plataforma InVID. A ferramenta apontou 98% de probabilidade de o material conter rosto manipulado por inteligência artificial. — Foto: Reprodução

  • Além disso, uma análise com a ferramenta Hiya, que identifica áudios falsos, detectou 92% de probabilidade de o material ter sido gerado por IA (veja infográfico abaixo).

O áudio foi submetido à ferramenta Hiya, que detectou 92% de probabilidade de o material ter sido gerado por IA. — Foto: Reprodução

  • Por fim, a verificação sites de segurança, como ScamAdviser, indicou que o domínio do site golpista é novo, pouco conhecido e tem índice de confiança baixo (veja infográfico abaixo).

Uma análise por sites de segurança como ScamAdviser aponta que o domínio é novo e pouco conhecido. Além disso, tem índice de confiança baixo. — Foto: Reprodução

Vídeo mostra Orelha andando em calçada após horário estimado da agressão, confirma polícia

Vídeo mostra Orelha andando em calçada após horário estimado da agressão, confirma polícia

É #FAKE vídeo que usa imagem de Marcos Palmeira para pedir doação para o cão Orelha; trata-se de golpe — Foto: Reprodução

É #FAKE vídeo de capivara pegando 'carona' em cima de tatu

É #FAKE vídeo de capivara pegando 'carona' em cima de tatu

VÍDEOS: Os mais vistos agora no g1

Veja os vídeos que estão em alta no g1

Veja os vídeos que estão em alta no g1

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro