4 meses atrás 37

Humano ou deepfake? Veja como não cair em golpes com IA

O uso de inteligência artificial (IA) para aplicar golpes está aumentando e preocupa especialistas em cibersegurança. Tecnologias como deepfakes e clonagem de voz já fazem parte da rotina de criminosos que utilizam recursos para se passar por parentes, colegas de trabalho ou representantes de empresas para enganar vítimas e roubando dinheiro ou dados pessoais. O Identity Theft Resource Center (ITRC) revelou um aumento de 148% em golpes de personificação entre abril de 2024 e março de 2025, um salto sem precedentes que inclui sites de negócios falsos, chatbots de atendimento ao cliente realistas e chamadas telefônicas com vozes clonadas que imitam representantes oficiais. A seguir, saiba o que os estudos revelam e veja como se proteger dos golpes que envolvem IA.

 Reprodução/We Live Security Especialistas apontam para aumento do uso de IA em fraudes e golpes; entenda — Foto: Reprodução/We Live Security
 Reprodução/Acronis Especialistas da Acronis apontam crescimento de fraudes envolvendo inteligência artificial — Foto: Reprodução/Acronis

Deepfakes são mídias geradas por inteligência artificial, capazes de replicar rostos, vozes e movimentos de forma cada vez mais realistas. Criados por meio de técnicas avançadas de aprendizado de máquina, como redes neurais generativas, esses conteúdos reproduzem padrões visuais e sonoros com precisão. Pequenas falhas podem ser notadas, como sincronia imperfeita entre boca e áudio ou expressões faciais levemente artificiais, mas essas limitações estão diminuindo. O resultado é que distinguir o que é real e o que é falso se tornou um desafio para usuários atentos e informados.

O relatório Acronis Cyberthreats Report H1 2025 mostra que a engenharia social movida por IA está entre os ataques mais usados e já foi identificada em mais de um milhão de endpoints ao redor do mundo, entre janeiro e junho deste ano. Segundo Chan Wah Ng, gerente sênior de IA da Acronis, a IA possibilita a criação de conteúdos que só dependem parcialmente das características das pessoas representadas nas imagens e sons.

"A tecnologia atual de aprendizado profundo permitiu destilar uma amostra de áudio e vídeo em duas partes: uma dependente da identidade, das informações associadas à pessoa, e outra independente, como expressões faciais, palavras sendo ditas, entonação da voz”, explicou Chan Wah Ng.

 Surface/Unplash Cerca de 25% dos ataques em apps colaborativos, como o Microsoft Teams, já envolvem IA, segundo relatório da Acronis — Foto: Surface/Unplash

Os criminosos encontraram nos deepfakes e na clonagem de voz ferramentas eficazes para aplicar golpes de alto impacto. Muitas fraudes começam com uma ligação ou mensagem urgente em que a voz clonada imita um parente pedindo dinheiro ou um gestor solicitando transferências financeiras. Em empresas, há relatos de funcionários que receberam instruções falsas de superiores em chamadas de vídeo manipuladas, acreditando serem ordens legítimas.

O relatório da Acronis aponta que quase 25% dos ataques em aplicativos de colaboração, como Microsoft Teams e Slack, já envolvem deepfakes ou outras manipulações criadas por IA. Chan Wah Ng explica que aplicativos de videoconferência viraram alvos por usa popularidade e por erros comuns. “As pessoas já estão acostumadas com falhas nessas plataformas, devido, por exemplo, a filtros de fundo virtual ou à instabilidade da largura de banda da internet. Por isso, tendem a ignorar artefatos resultantes de deepfakes", alerta.

Brasil é alvo preferencial de deepfakes

O Brasil aparece de forma recorrente em relatórios como um dos países mais atacados do mundo. Conforme o especialista da Acronis, em 2024, o país foi alvo de 47% dos ataques de ransomware na América Latina, número bem superior ao México (23%) e à Colômbia (8%). Essa posição se explica por fatores como a popularidade do Pix, os mais de 180 milhões de usuários de internet, uma das maiores taxas de uso de smartphones do mundo, um ecossistema de crime cibernético sofisticado e uma cultura de download de conteúdos piratas, que aumenta a exposição a malwares.

Como identificar um deepfake ou voz clonada?

Apesar da evolução, ainda existem sinais que ajudam a identificar quando um conteúdo pode ser manipulado. Em vídeos, é possível perceber expressões faciais rígidas, movimentos labiais fora de sincronia, sombras inconsistentes ou piscadas de olho artificiais. No áudio, a entonação pode soar mecânica, com pausas incomuns, cadência estranha ou pronúncia incorreta. Muitas vezes, a voz clonada transmite uma sensação de “processamento digital”, com timbre pouco natural.

A recomendação é confirmar sempre por outros canais. Se uma ligação ou mensagem soar suspeita, será preciso retornar para o número oficial da pessoa ou empresa. Também é útil solicitar uma chamada de vídeo em tempo real, já que reações espontâneas são difíceis de simular com perfeição. Outra dica é conferir a fonte do conteúdo: mensagens vindas de perfis oficiais ou canais verificados têm menos chance de serem fraudulentas.

Como se proteger de golpes com IA?

 Reprodução/Pexels/Stefan Coders Especialista recomenda uso de VPN para proteção do usuário e seus dispositivos — Foto: Reprodução/Pexels/Stefan Coders

A primeira defesa é desconfiar de pedidos urgentes ou inesperados, especialmente quando envolvem dinheiro. Nenhuma decisão deve ser tomada sem verificar a veracidade da informação. Ativar a autenticação em duas etapas nas contas mais importantes adiciona uma barreira extra contra invasões. Manter softwares atualizados também é essencial, já que falhas conhecidas podem ser exploradas por ferramentas de fraude automatizadas.

Chan Wah Ng recomenda medidas práticas que podem ser adotadas imediatamente. Confira a seguir.

  • Implementar autenticação multifator (MFA) em todos os serviços possíveis, especialmente e-mails, VPNs e contas administrativas;
  • Política de backups 3-2-1, mantendo três cópias dos dados em duas mídias diferentes, sendo uma delas offline;
  • Gerenciamento de patches, aplicando correções assim que liberadas para sistemas e softwares;
  • Limitação de acessos de usuários ao estritamente necessário;
  • Segmentação de rede, isolando sistemas críticos para impedir a propagação de ataques.
  • Desconfiar de mensagens que criam urgência ou oferecem algo bom demais para ser verdade;
  • Usar senhas fortes e únicas, de preferência com apoio de um gerenciador;
  • Manter softwares atualizados, ativando atualizações automáticas;
  • Evitar Wi-Fi público para transações sensíveis, recorrendo à VPN quando necessário;
  • Fazer backup regular de arquivos importantes em nuvem confiável ou HD externo.

Veja também: A IA pode te ajudar no processo seletivo de uma vaga?

A IA pode te ajudar no processo seletivo de uma vaga?

A IA pode te ajudar no processo seletivo de uma vaga?

Leia o artigo inteiro

Do Twitter

Comentários

Aproveite ao máximo as notícias fazendo login
Entrar Registro