janeiro 28, 2026
696906547547f8-15441315.jpeg

Durante os onze dias que Grok atendidos pedidos de criação de imagens sintéticas, foram criadas três milhões de imagens deepfakes. Mais de 65% das imagens eram sexualizadas. que retratava principalmente mulheres ou menores. Apesar da escala destas ações, uma das reações mais repetidas foi que “Se for falso, que diferença faz?”

Na própria Plataforma X, a reação de muitos usuários foi minimizar o problema. Argumentos como ser “arte falsa”, “fictícia” ou “arte muito realista” de qualquer forma afastam o que tem nome: violência sexual digital contra mulheres. “Eles não são mais reais que Tom e Jerry”– escreveu um dos tweets. Com uma diferença, Tom e Jerry não existem. Pessoas cuja imagem foi expropriada se viam despojado e sexualizado sem o seu consentimentoSim.

Por se tratar de uma tecnologia relativamente nova, o aspecto psicológico do uso de modelos que funcionam com inteligência artificialé como ainda estamos aprendendo a chamá-lo. Mas como mencionei em meu ensaio #S3xpidemIA (Blue Lotus, 2025), o dano é real e tem um impacto devastador na vítima. Não há necessidade de se machucar fisicamente O simbólico também nos machuca.

Sendo muito realista, você pode compreender o impacto deles. Ver-se nu ou em posição sexual desencadeia uma identificação imediata (“Mas sou eu”). A imagem pode ser artificial, mas suas características e corpo são reconhecíveispois é baseado em fotografias reais. Conhecimento forçado que evoca sentimento objetificação, vergonha e vulnerabilidade. Se somarmos a isso a motivação da humilhação, os danos psicológicos às vítimas aumentarão.

O que é ainda pior se vídeo em que a pessoa parece estar envolvida em práticas sexuais. Vendo-se dessa forma e sabendo que esse material pode circular descontroladamente e atingir números de pessoas impossíveis de estimar (além de permanecer on-line por tempo indeterminado), causa estresse e ansiedade, sentimentos de desamparo e vulnerabilidade. Isso ainda é uma invasão do mais pessoal, da violência contra o corpo nu, daquilo que reservamos ao íntimo.

Ser uma vítima deepfake Isto não só mina a autoconfiança, mas também mina a confiança no ambiente. Há incerteza sobre quem está por trás da criação ou distribuição sem consentimento, quem pode ter visto. De acordo com estudos como os realizados pesquisadores das Universidades de Messina e Catanzaro (Itália), As consequências psicológicas da divulgação de imagens são comparáveis ​​às violência sexual tradicional.

Mesmo que não haja contato físico. invasão de privacidade e perda de controle sobre a própria imagem são profundamente traumáticas. E isto sem esquecer que existem fatores sociais como a culpabilização das vítimas, a viralidade online e a intensidade da exposição que aumentam o impacto psicológico. Quando, em muitos casos, a vítima conhece os autores (parceiros ou ex-parceiros), acrescenta-se outra camada de violência: traição e danos nos relacionamentos.

Mas Voltando a Tom e Jerry, a comparação é inútil. porque não sofrem e carregam o resto da vida com as consequências do que acontece com eles no final do episódio. Eles não sentem vergonha, medo ou ansiedade porque sua intimidade circula incontrolavelmente. Os danos causados ​​na esfera virtual pelos meios tecnológicos não são fictícios e reversíveis: as vítimas de que falamos têm corpos, emoções e memórias reais. Não são personagens, são pessoas.

Referência