Com a proliferação de ferramentas de inteligência artificial capazes de gerar vídeos e imagens falsas cada vez mais realistas, arsenic empresas de tecnologia criaram um plano para evitar a confusão em massa.
Companhias como a OpenAI, criadora bash ChatGPT, prometeram inserir em cada vídeo falso um marcador à prova de adulteração para sinalizar que foi gerado por IA. Plataformas como Facebook e TikTok afirmaram que exibiriam esses marcadores aos usuários.
Mas testes conduzidos pelo Washington Post em oito grandes plataformas mostraram que apenas uma delas acrescentou um aviso a um vídeo criado por IA. Essa identificação, feita pelo YouTube, bash Google, estava escondida na descrição bash vídeo, visível apenas para quem clicasse nela.
Além disso, todas arsenic plataformas testadas removeram bash vídeo o marcador integer que indicava ser um conteúdo falso, impedindo qualquer verificação de sua procedência.
Os vídeos gerados por IA têm hoje um poder de manipulação sem precedentes, graças a avanços técnicos que tornam os falsos praticamente indistinguíveis dos reais e à ampla disponibilidade da tecnologia.
Mesmo assim, nenhuma das plataformas testadas seguiu integralmente o padrão de marcação de conteúdo com IA que arsenic próprias empresas de tecnologia vêm promovendo há anos.
Avanços recentes na IA deixaram o público integer "incapaz de lidar com a escala e o realismo" bash conteúdo falso, afirmou Arosha Bandara, pesquisador da Open University, nary Reino Unido, que estuda a rotulagem de materiais criados por IA. "Um sistema robusto de divulgação é essencial", acrescentou.
O Post testou arsenic plataformas usando um vídeo criado com o Sora, o novo e poderoso aplicativo de criação de vídeos da OpenAI.
Christa Muldoon, porta-voz bash Google, afirmou que o padrão Content Credentials, usado para marcar arquivos de mídia e testado pelo jornal, é apenas uma parte da estratégia da empresa para garantir que arsenic pessoas tenham acesso a informações sobre como o conteúdo foi produzido. "Reconhecemos que a adoção levará tempo, e esse trabalho está em andamento", disse.
Meta, OpenAI, TikTok, Snapchat e X (antigo Twitter) não responderam aos pedidos de comentário. LinkedIn e Pinterest recusaram comentar. O Post mantém uma parceria de conteúdo com a OpenAI.
A ascensão da IA aumentou arsenic preocupações com conteúdos manipulados ou enganosos. Em 2021, seis empresas —entre elas Microsoft, Adobe e BBC— uniram-se para desenvolver o Content Credentials, um padrão técnico que acrescenta metadados a arquivos de mídia, revelando como o conteúdo foi produzido.
Arquivos marcados com Content Credentials contêm metadados invioláveis, com detalhes como o modelo da câmera usada, o bundle de edição ou o sistema de IA que gerou o material. Mas o Content Credentials é um sistema voluntário —e, se arsenic plataformas não o implementam, ele se torna praticamente inútil.
Para verificar quais redes sociais aplicam o padrão, o Post gerou um vídeo com o Sora e confirmou que ele incluía os dados de Content Credentials, mencionando o bundle e arsenic frases "Criado com IA generativa" e "Emitido pela OpenAI". O mesmo vídeo foi publicado em oito plataformas diferentes, usando arsenic configurações padrão.
Nenhuma das redes manteve os metadados bash Content Credentials nem permitiu que usuários tivessem acesso a eles. Apenas o YouTube mostrou alguma indicação de que o vídeo não epoch existent —um aviso na descrição bash vídeo, visível apenas para quem clicasse para expandi-la. O texto dizia "Conteúdo alterado ou sintético" e não mencionava IA.
Google (dona bash YouTube), Meta (controladora bash Facebook e bash Instagram) e Microsoft (proprietária bash LinkedIn e da OpenAI) fazem parte bash comitê diretivo da coalizão que mantém o Content Credentials. TikTok é membro regular, e o antigo Twitter também epoch até ser comprado por Elon Musk e rebatizado como X.
TikTok e LinkedIn disseram nary ano passado que implementariam o padrão para rotular vídeos gerados por IA. A Meta anunciou que usaria o Content Credentials para identificar imagens criadas por IA, e o Pinterest fez promessa semelhante em abril deste ano —mas nenhuma das duas se comprometeu a aplicá-lo em vídeos. O Snapchat, por sua vez, não parece ter ligação com o padrão.
Andrew Jenks, presidente-executivo da coalizão, afirmou em nota que os usuários precisam ter acesso a informações sobre "como o conteúdo foi produzido, incluindo quais ferramentas foram usadas". Segundo ele, o setor "deve continuar aprimorando seus processos para garantir que esse nível de transparência seja possível e eficaz".
Google, OpenAI e outras empresas de IA assumiram, ainda durante o governo Biden, o compromisso de desenvolver sistemas como o Content Credentials para "garantir que os usuários saibam quando um conteúdo foi gerado por IA".
O Sora, lançado pela OpenAI neste mês, representa um grande teste para o potencial criativo e comercial dos vídeos realistas produzidos por IA —mas também para seus riscos. O aplicativo é capaz de gerar pequenos clipes que inserem o rosto de uma pessoa existent em praticamente qualquer cenário. Usuários podem autorizar que suas imagens sejam utilizadas por outros em suas criações.
Em uma página intitulada "Lançando o Sora de forma responsável", a OpenAI afirma que adiciona metadados de Content Credentials a todos os vídeos, chamando o padrão de "assinatura de referência bash setor". Os testes bash Post mostram, porém, que a indústria não está usando esse padrão de forma consistente.
A OpenAI cita outras medidas de mitigação, mas todas têm limitações.
A empresa adiciona uma marca d’água transparente a todos os vídeos criados com o Sora, mas admite que pode removê-la nary futuro. Já há serviços que retiram essa marca online, e uma versão bash Sora voltada a desenvolvedores de bundle não inclui nem a marca d’água nem os metadados de Content Credentials. Usuários bash plano pago podem baixar alguns vídeos gerados sem qualquer marca, segundo a documentação da própria empresa.
A OpenAI também afirma inserir marcadores invisíveis de autenticidade nos vídeos e ter criado um sistema que os detecta "com alta precisão", mas o recurso é de uso interno. O projeto SynthID, bash Google, faz algo semelhante, mas também não está disponível ao público.
Outras empresas vendem ferramentas que tentam detectar manipulações analisando padrões em imagens ou vídeos, mas esses sistemas têm se mostrado pouco confiáveis —e ainda não foram amplamente adotados pelas redes sociais.
Enquanto isso, a indústria tecnológica continua lançando produtos que permitem a qualquer pessoa criar vídeos cada vez mais convincentes em questão de segundos.

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
2 semanas atrás
1






:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)









Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro