Nem sempre as redes sociais removem rapidamente esses vídeos, o que causa prejuízo para os famosos e para as pessoas, que acreditam em vídeos editados, e acabam comprando produtos falsos.
Fala-se na indústria em formas de criar algum tipo de marca d'água ou sinalização de que um conteúdo é deepfake, mas ainda não há nada nesse sentido.
Como geralmente são feitos esses deepfakes
Na internet, há vários serviços — como Voicify e Cover.ai — que permitem treinar uma voz e depois fazer que elas digam um texto em específico. Quanto mais áudios "limpos" da pessoa, mais parecido com o real. Não é difícil achar 10 minutos som de boa qualidade de pessoas famosas que participam em podcasts, por exemplo.
Nos casos de golpe, o que é dito é tirado do contexto e se sobrepõe ao áudio com as imagens em vídeo. Ao reparar bem o vídeo, é possível notar que há falhas de sincronia ou atraso na voz (o som sai antes de a boca se movimentar)
Fazer com que alguém diga um texto com ajuda de inteligência artificial em si não é o problema. A questão é quando se tira do contexto ou se tenta vender algum tipo de produto — o que pode configurar como falsidade ideológica.

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
1 ano atrás
162

:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/T/F/OmyxwLSn2cIWe1IEEMhg/000.jpeg)
:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/f/H/tbdGdsSWS6q0l95EHAdg/ab67e9-92261c293ac84dafaf3d618cd3792a6e-mv2.jpg)
:strip_icc()/i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/7/N/unpqvhSGOUwsphHN9WAA/techtudo-9-.png)

:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro