Nem sempre as redes sociais removem rapidamente esses vídeos, o que causa prejuízo para os famosos e para as pessoas, que acreditam em vídeos editados, e acabam comprando produtos falsos.
Fala-se na indústria em formas de criar algum tipo de marca d'água ou sinalização de que um conteúdo é deepfake, mas ainda não há nada nesse sentido.
Como geralmente são feitos esses deepfakes
Na internet, há vários serviços — como Voicify e Cover.ai — que permitem treinar uma voz e depois fazer que elas digam um texto em específico. Quanto mais áudios "limpos" da pessoa, mais parecido com o real. Não é difícil achar 10 minutos som de boa qualidade de pessoas famosas que participam em podcasts, por exemplo.
Nos casos de golpe, o que é dito é tirado do contexto e se sobrepõe ao áudio com as imagens em vídeo. Ao reparar bem o vídeo, é possível notar que há falhas de sincronia ou atraso na voz (o som sai antes de a boca se movimentar)
Fazer com que alguém diga um texto com ajuda de inteligência artificial em si não é o problema. A questão é quando se tira do contexto ou se tenta vender algum tipo de produto — o que pode configurar como falsidade ideológica.
Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro