Vídeos gerados por Inteligência Artificial (IA) estão se tornando cada vez mais comuns nas redes sociais, e em muitos casos, o público sequer percebe que o conteúdo não é real. Ferramentas avançadas, como o Sora 2 da OpenAI, conseguem criar pessoas, ambientes e movimentos com alto nível de realismo, o que dificulta distinguir o que foi filmado do que foi sintetizado por computador. Essa capacidade acende um alerta de riscos associados a esse tipo de produção. Vídeos hiper-realistas podem ser usados para manipular emoções, espalhar desinformação ou até enganar pessoas em golpes e campanhas de manipulação online. Além disso, o uso de imagens de figuras falecidas, sem autorização, tem gerado um debate sobre os limites do uso da IA. A seguir, entenda como são produzidos esses vídeos, quais perigos eles trazem e como identificar quando o conteúdo foi criado por uma IA.
Esses vídeos foram feitos por IA, mas você não percebeu; entenda riscos — Foto: Gerada pela IA Gemini Flash Image 2.5 Gerador de vídeos com IA: veja exemplos muito realistas
Muitos dos vídeos gerados por IA são inofensivos, feitos com tom humorístico ou para representar uma situação atípica.
Já outros vídeos levantaram polêmicas por utilizarem figuras famosas, como celebridades, ou pessoas que já faleceram. Filhos de personalidades como Robin Williams e Martin Luther King Jr. já denunciaram o sofrimento de ver a imagem de seus pais transformada em conteúdo de mau gosto ou ofensivo, o que evidencia o poder destrutivo dessas tecnologias sobre a memória coletiva. Apesar de a OpenAI afirmar que há restrições para conteúdos que envolvam pessoas mortas, vídeos com personalidades falecidas ainda circulam sem controle, reacendendo o debate sobre direitos de imagem, herança digital e os limites éticos da IA generativa.
Em alguns casos, a IA foi utilizada para pregar peças em pessoas desavisadas. Uma trend que ficou popular nos Estados Unidos, onde os jovens enviam para seus pais vídeos e fotos de morador de rua que invadiu suas casas. Adolescentes utilizam filtros e IA para gerar falsas situações de perigo apenas para viralizar no TikTok, o que já levou à mobilização desnecessária da polícia e ao risco de tragédias reais. Isso mostra que o avanço da IA não apenas desafia os limites da criatividade, mas também expõe a sociedade a um novo tipo de ameaça digital, onde o falso pode ser indistinguível do real.
A ferramenta é capaz de retratar políticos, como Donald Trump e Vladimir Putin, ou celebridades, como o jogador de futebol Cristiano Ronaldo, em situações inusitadas e completamente fictícias.
Vídeos e imagens geradas por IA estão cada vez mais comuns e realistas — Foto: Reprodução/IA/Gemini Flash 2.5 Quais os riscos da criação de vídeos com IA?
Apesar do realismo, vídeos produzidos por IA deixam pequenas pistas que podem ser identificadas por olhos atentos — Foto: Divulgação/Particle6 Os vídeos criados por IA apresentam problemas que vão muito além do entretenimento. Segundo Paulo Pagliusi, Ph.D., diretor de relacionamento e parceiro executivo da Gartner voltado a segurança da informação (CISOs), os riscos se manifestam em três dimensões: desinformação e manipulação, por conta do potencial de distorção com vídeos convincentes feitos em larga escala; fraude e engenharia social, com deepfakes que podem ser usados para falsificar identidades, comunicações corporativas ou solicitações financeiras; e erosão da confiança digital, por levar o público a questionar até conteúdos legítimos por receio de serem artificiais.
O realismo cada vez mais apurado dessas produções abre espaço para a manipulação emocional e a desinformação em larga escala. Diferentemente dos vídeos antigos feitos com CGI tradicional, recurso limitado a modelagem e renderização manuais, a IA generativa cria a cena do zero, definindo textura, iluminação, movimento e continuidade temporal em um único processo.
"O principal diferencial é que os vídeos gerados por IA são sintetizados integralmente por modelos de aprendizado profundo, que produzem imagem e som de forma autônoma. Esse avanço reduz drasticamente o tempo e o custo de produção, mas também aumenta o potencial de confusão entre o que é real e o que é sintético", explica Pagliusi.
Além disso, a facilidade de acesso a ferramentas como o Sora 2 permite que qualquer usuário crie deepfakes convincentes, o que levanta outro risco grave: o uso malicioso dos vídeos de IA para enganar pessoas ou obter vantagens indevidas. Ou seja, a mesma tecnologia que gera homenagens ou vídeos divertidos, também pode ser usada para disseminar fake news, manipular a opinião pública e até realizar golpes financeiros. Em um contexto de eleições, por exemplo, vídeos falsos podem ser usados para simular discursos de candidatos e influenciar eleitores. Já no ambiente digital, golpistas podem criar vídeos falsos de influenciadores e empresas, induzindo o público a clicar em links perigosos ou transferir dinheiro.
Como identificar vídeos feitos com IA?
Vídeos feitos com Veo 3 ou Sora podem enganar usuários desavisados — Foto: Reprodução/Gemini Distinguir um vídeo real de um conteúdo criado por Inteligência Artificial tem se tornado uma tarefa cada vez mais complexa. As novas ferramentas de geração de vídeo, como o Sora 2 da OpenAI, e Veo 3, do Google, conseguem produzir cenas com texturas de pele, gestos e expressões faciais incrivelmente naturais, confundindo até mesmo espectadores atentos. Contudo, mesmo com a sofisticação desses vídeos, ainda é possível identificar sinais que denunciam sua origem artificial.
Para Paulo Pagliusi, alguns indicadores de que o vídeo é uma IA são: inconsistências físicas, com deformações em objetos, cabelos ou mãos entre quadros; reflexos e sombras incoerentes em superfícies metálicas ou iluminação variável; áudio e mímica facial dessincronizados, com som ambiente ou expressão facial que não correspondem ao contexto; e falta de informações técnicas de captura ou credenciais de conteúdo.
"À medida que os modelos evoluem, a detecção humana se torna menos eficaz — reforçando a importância de verificação técnica automatizada e rotulagem obrigatória", afirmou o especialista. Segundo ele, é importante haver mais formas de regulamentar o uso dessa tecnologia. Para isso, é necessário prezar pela transparência na publicação de vídeos artificiais, responsabilização de criadores, plataformas e desenvolvedores por danos gerados pelos vídeos e cooperação multissetorial, o que envolve, em contextos eleitorais, a proibição de deepfakes e avisos de uso de IA. Projetos de lei como o PL 2338/2023 (Marco Legal da IA) e o PL 2630/2020 (PL das Fake News) indicam o esforço de atualização regulatória em andamento.
Veja também: Você sabe diferenciar um vídeo real ou feito com IA? Testamos o público!
Você sabe diferenciar um vídeo real ou feito com IA? Testamos o público!

German (DE)
English (US)
Spanish (ES)
French (FR)
Hindi (IN)
Italian (IT)
Portuguese (BR)
Russian (RU)
1 mês atrás
4
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/A/4/5IofP6Qd2wLaBNbYSnMg/the-price-of-confession-netflix.webp)
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/I/V/a1SchuT0CDqHnsBj94tg/aaaaqsmlnt1v4hg5xrbiyoqb8nhqpgumhcjskewhivnewnamktahlpi5x7qpeo5pcv-keml7dtx98v4gaz7wt8cuunwltenninupr5x42ed-g-yyks-nn9fx7yt5ybgmn-m-nr5ws2sycpvwxdrff8a-w10y.jpg)
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2025/d/X/U8Dy3ATt2BROIDP4QB9w/stranger-things-quem-pode-morrer.jpg)
/https://i.s3.glbimg.com/v1/AUTH_08fbf48bc0524877943fe86e43087e7a/internal_photos/bs/2023/a/8/PY3WbJRPOYPzmD9ZszWA/lancamentos-semana-atomic-heart-fps-tiro-acao-uniao-sovietica.jpg)

:strip_icc()/i.s3.glbimg.com/v1/AUTH_59edd422c0c84a879bd37670ae4f538a/internal_photos/bs/2023/l/g/UvNZinRh2puy1SCdeg8w/cb1b14f2-970b-4f5c-a175-75a6c34ef729.jpg)










Comentários
Aproveite ao máximo as notícias fazendo login
Entrar Registro