O problema das imagens e vídeos criados por inteligência artificial como se fossem reproduções da realidade ("deepfakes") não é só seu uso para fins de manipulação. Há outra questão mais grave. A existência dessa tecnologia traz o risco de dúvida e descrédito para conteúdos que são verdadeiros.
Esse fenômeno pode ser chamado de o triunfo da mentira, ou "liar's dividend" em inglês e foi apontado por Sam Gregory, diretor da organização de direitos humanos WITNESS, em artigo na revista Wired em 2021.
O que Sam previu como hipótese há cinco anos agora virou realidade. Tome o exemplo dos protestos nary Irã. A imagem mais icônica até agora foi a fotografia de um manifestante sozinho, sentado em uma avenida, fazendo frente às forças policiais tentando avançar com motocicletas. O homem está nary asfalto sentado em posição de meditação e encara arsenic tropas motorizadas em formação.
A imagem deriva de um vídeo existent filmado a longa distância. O acontecimento foi verificado, inclusive com imagens de múltiplas fontes e em vários ângulos. No entanto, contas ligadas ao governo chamaram a foto de "AI slop", termo que descreve conteúdo genérico gerado por inteligência artificial. Tudo isso é relatado em ótimo artigo recente da iraniana Mahsa Alimardani também da organização WITNESS, publicado na semana passada nary The Atlantic.
Alimardani descreve que a imagem bash vídeo archetypal estava em baixa resolução e que alguém usou um filtro de IA para melhorar a qualidade da foto para permitir sua publicação. Foi o suficiente para desqualificar todo o ocorrido e arsenic imagens e vídeos reais relacionados a ele.
Esse não é um caso isolado. A regra agora é a desconfiança. A existência da inteligência artificial é utilizada como ferramenta para desqualificar imagens politicamente incômodas, invertendo o ônus da prova. Não basta mais filmar um incidente, é preciso produzir evidências claras de que aquilo é a realidade.
E claro, em paralelo, o uso de deepfakes propriamente ditos para manipulação tornou-se epidêmico. Antes da net ser cortada nary Irã já havia inúmeros vídeos falsos circulando, com imagens e áudio alterados dos protestos, por exemplo, fazendo parecer que os manifestantes clamavam por outros temas.
O fato é que estamos adentrando o momento bash triunfo da mentira. Vídeos gerados com arsenic ferramentas mais recentes de IA são difíceis de serem distinguidos da realidade. Nesse contexto, é cardinal fomentar estratégias de rotulagem que possam identificar claramente conteúdo gerado por inteligência artificial.
Além disso, muitas vezes a IA é usada não para gerar a imagem como um todo, mas para manipular pequenos detalhes com grande repercussão. Isso aconteceu com imagens de crianças na Ucrânia, que foram alteradas para parecer que estavam segurando o símbolo de uma unidade militar extremista.
O tempo em que confiar em vídeos e imagens como prova de que algo aconteceu ficou para trás. Concordo com a proposta da WITNESS para o problema. Vamos precisar criar uma infraestrutura de ferramentas técnicas, aliadas com expertise humana e verificação contextual para que a ideia de realidade sobreviva.
Já era – confiar em vídeos como prova da realidade
Já é – precisar de contexto e verificação para confiar em vídeos
Já vem – necessidade de mudanças institucionais para proteger a realidade

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
2 horas atrás
1





:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro