novembro 17, 2025
6555114.jpg

Estamos a entrar numa nova era de conteúdo de vídeo online e os especialistas alertam que é potencialmente muito perigoso. Uma onda de vídeos gerados por IA está a varrer as redes sociais, com o engano digital a atingir níveis sem precedentes.

É assim que você pode distinguir entre realidade e falsidade. Um especialista em tecnologia emitiu um alerta sobre ferramentas de vídeo de IA ultra-realistas disponíveis em plataformas como Sora 2, que foram exploradas por fraudadores para alimentar uma onda de golpes deepfake online.

O número de vídeos deepfake disparou de meio milhão em 2023 para mais de oito milhões este ano, de acordo com a empresa de segurança cibernética DeepStrike. As tentativas de fraude aumentaram 3.000% em apenas dois anos.

Os especialistas revelaram que está se tornando cada vez mais difícil diferenciar entre o que é real e o que não é, já que os humanos agora só conseguem detectar deepfakes de alta qualidade uma em cada quatro vezes, o que significa que milhões podem ser enganados sem sequer saberem disso.

O que começou como uma tendência divertida na Internet com deepfakes e vídeos gerados por IA rapidamente se transformou em uma indústria criminosa multibilionária. Os golpistas agora estão usando IA para clonar vozes, rostos e emoções, enganando as vítimas para que se desfaçam de seu dinheiro ou espalhem notícias falsas.

As videochamadas deepfake em tempo real também provavelmente se tornarão mais comuns, com golpistas se passando por entes queridos ou chefes ao vivo na tela, com vozes e gestos clonados. Isso é possível graças a ferramentas disponíveis em plataformas como o Sora, um aplicativo de conversão de texto em vídeo capaz de criar vídeos realistas em menos de um minuto.

Como detectar vídeos falsos

Os gênios da tecnologia da empresa de software Outplayed revelaram alguns sinais importantes para detectar um vídeo gerado por IA. Estes incluem:

  • Piscando e olhos: os participantes piscam menos ou movem os olhos em padrões robóticos.
  • Mãos e dedos: Cuidado com dedos deformados ou fundidos: a IA ainda tem problemas com as mãos.
  • Erros de iluminação: As sombras caem em direções estranhas ou os rostos parecem muito claros.
  • Água e reflexos: O líquido parece “muito perfeito” ou anormalmente parado.
  • Problemas de sincronização labial: os lábios não combinam com as palavras, especialmente nos sons “p” ou “b”.
  • Pele lisa: os rostos da IA ​​parecem plásticos, sem poros ou textura.
  • Planos de fundo com falhas: objetos distorcidos ou bordas tremeluzentes denunciam o jogo junto com marcas d’água visíveis.
  • Movimento do tecido: as roupas se movem de maneira rígida ou não natural com o vento.
  • Transições de cena: saltos desajeitados ou quebras “intermitentes” no meio da cena sugerem edição sintética.
  • Contexto estranho: pessoas aparecendo fora do lugar ou em lugares estranhos.

Intuição: Se não parece certo, provavelmente é.

Um especialista Outplayed alertou as pessoas para reconhecerem a rapidez com que esta forma de tecnologia está avançando.

As vítimas são vítimas de golpistas

“O que antes levava semanas para ser produzido nos estúdios de Hollywood agora pode ser feito por qualquer pessoa com um laptop. Os vídeos das mais recentes ferramentas de IA, como o Sora 2, são quase indistinguíveis da realidade, e isso é assustador nos casos errados em que podem ser usados”, disseram.

As pessoas estão a ser vítimas de fraudes através das redes sociais, em ambientes empresariais e até mesmo em contextos românticos, à medida que estes criminosos exploram a noção tradicional de “acreditar no que vêem”.

O especialista continua: “As pessoas confiam nos vídeos. É por isso que estamos entrando em uma nova era perigosa, com um rápido aumento de deepfakes.

Sora já ultrapassou um milhão de downloads e os usuários geram clipes curtos que já geram debate.

Inúmeras pessoas estão produzindo conteúdo com figuras famosas como Jake Paul e Michael Jackson, obscurecendo de forma perturbadora a fronteira entre fantasia e realidade.

Após o surgimento de vários criadores desrespeitosos de deepfake, os desenvolvedores da plataforma foram forçados a proibir vídeos retratando Martin Luther King Jr, ressaltando os crescentes dilemas morais que cercam essa tecnologia.