3 meses atrás 28

OpenAI lança app de para competir com TikTok; conheça o Sora 2

A OpenAI apresentou recentemente o Sora 2, um novo aplicativo que usa inteligência artificial para criar vídeos curtos com recursos de deepfake. A novidade promete trazer uma mudança significativa para o mercado de conteúdo digital, ao oferecer aos usuários ferramentas inéditas para produção e remixagem de vídeos. O lançamento da nova rede social da OpenAI pode indicar uma nova fase para as plataformas digitais, na qual a IA passa a desempenhar um papel central na criação de conteúdo.

 Mariana Saguias/TechTudo CHATGPT macbook horizontal marca d'água — Foto: Mariana Saguias/TechTudo

Sora 2 é um modelo avançado de inteligência artificial capaz de transformar descrições textuais em vídeos realistas de até 10 segundos. Entre seus recursos mais inovadores está a função “Cameo”, que permite aos usuários inserir avatares próprios em produções criadas por outras pessoas, sempre mediante autorização prévia. O processo exige verificação de identidade por vídeo e áudio, garantindo segurança e consentimento.

Com uma interface semelhante a outras redes sociais de vídeo curto, o Sora 2 oferece feed personalizado, ferramentas de remixagem e possibilidade de criação a partir de prompts de texto ou imagens (desde que não contenham pessoas). A função “Remix” permite que o usuário interaja com vídeos já publicados, criando novas versões com suas próprias ideias.

O uso de deepfakes levanta desafios importantes relacionados à privacidade e ao consentimento. Embora a plataforma adote mecanismos de autorização e controle. O advogado, Doutor em Direito pela USP e especialista em Direito Digital, Lucas Ruiz Balconi, aponta riscos como criação de conteúdos sem permissão ou manipulação de informações. A moderação e ferramentas de denúncia são elementos centrais para prevenir abusos.

Mais do que um novo competidor para o TikTok, o lançamento de uma ferramenta como o Sora 2 pela OpenAI inaugura um capítulo decisivo na nossa relação com a “realidade digital". Estamos transitando de uma era em que a tecnologia editava a realidade para uma em que ela a gera de forma digital e cada vez mais indistinguível do real.

— Advogado, Doutor em Direito pela USP e especialista em Direito Digital, Lucas Ruiz Balconi.

Apesar da inovação, o especialista alerta para os riscos éticos do uso de deepfake em redes sociais, que podem ser potencializados com o uso de IA's generativas. Para ele, esses fatores operam em diferentes níveis e em três eixos principais: violência simbólica e despersonalização, manipulação política e o fim da Esfera Pública e Crise da autenticidade e do consentimento.

  1. Violência simbólica e despersonalização: No plano individual, o risco mais imediato é o uso de deepfakes para fins maliciosos, como a criação de pornografia não consensual, campanhas de difamação, bullying ou fraudes. Em termos teóricos, isso pode representar uma forma de “assassinato simbólico”: apropria-se da imagem e da voz de uma pessoa – ativos que compõem sua identidade pública – para fazê-la dizer ou fazer algo que ela nunca fez. É uma violação radical do direito fundamental à própria imagem, transformando o indivíduo em uma marionete digital à mercê de terceiros.
  2. Manipulação política e o fim da Esfera Pública: Em uma escala social e coletiva, a ameaça se volta contra a saúde da democracia. A capacidade de criar vídeos falsos de políticos discursando, de fabricar evidências de eventos que nunca ocorreram ou de incitar pânico com simulações de catástrofes, pode destruir o terreno comum de fatos sobre o qual o debate público se assenta. A ética da comunicação é substituída pela estética da manipulação. O objetivo não é mais convencer com argumentos, mas fabricar uma “realidade” que mobilize afetos e confirme vieses, tornando o diálogo impossível.
  3. Crise da autenticidade e do consentimento: O risco mais profundo, a meu ver, é “sócio-existencial”. Se qualquer pessoa pode ter sua imagem e voz perfeitamente simuladas, o que garante nossa unicidade? O consentimento, pilar das relações éticas e dos negócios jurídicos, perde seu valor. Como posso consentir com o uso da minha imagem se ela pode ser “clonada” e usada em contextos que eu jamais autorizaria? Isso afeta desde contratos de publicidade, que dependem da autenticidade de um porta-voz, até a nossa segurança mais básica nas interações digitais.

Outro ponto destacado por Lucas é a como a proliferação de deepfakes pode afetar a confiança dos usuários em conteúdos digitais. Para ele, o aumento dessas produções cria uma suspeita generalizada e, com isso, o problema não será fazer as pessoas acreditarem em uma mentira, mas criar um ambiente onde qualquer verdade pode ser desacreditada. Um áudio ou vídeo real e comprometedor de uma figura pública pode ser facilmente descartado como “é um deepfake”.

Esse fenômeno, conhecido já conhecido como “o dividendo do mentiroso”, inverte o ônus da prova: não é mais o mentiroso que precisa provar sua farsa, mas a verdade que terá dificuldades para provar sua autenticidade. Além disso, do ponto de vista ético, jurídico e jornalístico, os fatos e as imagens sempre foram ativos de alto valor probatório. Um vídeo era uma prova, um registro real e fidedigno de um fato.

Com a popularização dos deepfakes, qualquer imagem ou vídeo passa a existir sob um véu de dúvida. Isso cria um desafio para a justiça, para o jornalismo investigativo e para a memória histórica. Se tudo pode ser fabricado, nada mais é inquestionável, e a própria ideia de “evidência” entra em crise.

A consequência é uma apatia epistêmica e o refúgio nas “Bolhas”. Diante da dificuldade de discernir o real do falso, a tendência humana não será a de se tornar investigadores de mídia, mas sim desistir. Essa “apatia” leva as pessoas a abandonarem a busca por fontes confiáveis e a se refugiarem em suas “bolhas” ideológicas, consumindo apenas o conteúdo que confirma suas crenças pré-existentes e que vem de fontes que elas sentem como confiáveis, independentemente da veracidade.

— Advogado, Doutor em Direito pela USP e especialista em Direito Digital, Lucas Ruiz Balconi.

Assim, segundo o especialista, a verdadeira ameaça de tecnologias como o Sora 2 não é, portanto, a criação de uma mentira específica. Pode ser a diluição sistêmica da “realidade” que sustenta nossos contratos sociais e jurídicos. Do ponto de vista legal, o desafio é considerado complexo, visto que a legislação brasileira foi pensada para o mundo “físico” e em um momento em que a cópia era distinguível do original. Ele ainda acrescenta que hoje, o “original” pode sequer existir.

Quando o Sora 2 chega ao Brasil?

Atualmente, o Sora 2 está disponível somente para iOS, nos Estados Unidos e Canadá, funcionando por meio de convite. Ainda não há uma data oficial para o lançamento no Brasil, mas especialistas indicam que o aplicativo pode chegar ao país nos próximos meses. Considerado um mercado estratégico para redes sociais, o Brasil pode se tornar um dos próximos alvos da expansão global da OpenAI.

Veja também: Você confia em IA? Alunos revelam se já 'colaram' com a ferramenta

Você confia em IA? Alunos revelam se já 'colaram' com a ferramenta

Você confia em IA? Alunos revelam se já 'colaram' com a ferramenta

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro