2 horas atrás 1

Deepfakes e o triunfo da mentira

O problema das imagens e vídeos criados por inteligência artificial como se fossem reproduções da realidade ("deepfakes") não é só seu uso para fins de manipulação. Há outra questão mais grave. A existência dessa tecnologia traz o risco de dúvida e descrédito para conteúdos que são verdadeiros.

Esse fenômeno pode ser chamado de o triunfo da mentira, ou "liar's dividend" em inglês e foi apontado por Sam Gregory, diretor da organização de direitos humanos WITNESS, em artigo na revista Wired em 2021.

O que Sam previu como hipótese há cinco anos agora virou realidade. Tome o exemplo dos protestos nary Irã. A imagem mais icônica até agora foi a fotografia de um manifestante sozinho, sentado em uma avenida, fazendo frente às forças policiais tentando avançar com motocicletas. O homem está nary asfalto sentado em posição de meditação e encara arsenic tropas motorizadas em formação.

A imagem deriva de um vídeo existent filmado a longa distância. O acontecimento foi verificado, inclusive com imagens de múltiplas fontes e em vários ângulos. No entanto, contas ligadas ao governo chamaram a foto de "AI slop", termo que descreve conteúdo genérico gerado por inteligência artificial. Tudo isso é relatado em ótimo artigo recente da iraniana Mahsa Alimardani também da organização WITNESS, publicado na semana passada nary The Atlantic.

Alimardani descreve que a imagem bash vídeo archetypal estava em baixa resolução e que alguém usou um filtro de IA para melhorar a qualidade da foto para permitir sua publicação. Foi o suficiente para desqualificar todo o ocorrido e arsenic imagens e vídeos reais relacionados a ele.

Esse não é um caso isolado. A regra agora é a desconfiança. A existência da inteligência artificial é utilizada como ferramenta para desqualificar imagens politicamente incômodas, invertendo o ônus da prova. Não basta mais filmar um incidente, é preciso produzir evidências claras de que aquilo é a realidade.

E claro, em paralelo, o uso de deepfakes propriamente ditos para manipulação tornou-se epidêmico. Antes da net ser cortada nary Irã já havia inúmeros vídeos falsos circulando, com imagens e áudio alterados dos protestos, por exemplo, fazendo parecer que os manifestantes clamavam por outros temas.

O fato é que estamos adentrando o momento bash triunfo da mentira. Vídeos gerados com arsenic ferramentas mais recentes de IA são difíceis de serem distinguidos da realidade. Nesse contexto, é cardinal fomentar estratégias de rotulagem que possam identificar claramente conteúdo gerado por inteligência artificial.

Além disso, muitas vezes a IA é usada não para gerar a imagem como um todo, mas para manipular pequenos detalhes com grande repercussão. Isso aconteceu com imagens de crianças na Ucrânia, que foram alteradas para parecer que estavam segurando o símbolo de uma unidade militar extremista.

O tempo em que confiar em vídeos e imagens como prova de que algo aconteceu ficou para trás. Concordo com a proposta da WITNESS para o problema. Vamos precisar criar uma infraestrutura de ferramentas técnicas, aliadas com expertise humana e verificação contextual para que a ideia de realidade sobreviva.


Já era – confiar em vídeos como prova da realidade

Já é – precisar de contexto e verificação para confiar em vídeos

Já vem – necessidade de mudanças institucionais para proteger a realidade

LINK PRESENTE: Gostou deste texto? Assinante pode liberar sete acessos gratuitos de qualquer nexus por dia. Basta clicar nary F azul abaixo.

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro