24/01/2026

24 de janeiro de 2026 00:24

  • Home
  • Esportes
  • Deepfakes e o triunfo da mentira – 18/01/2026 – Ronaldo Lemos

Deepfakes e o triunfo da mentira – 18/01/2026 – Ronaldo Lemos

O problema das imagens e vídeos criados por inteligência artificial como se fossem reproduções da realidade (“deepfakes”) não é só seu uso para fins de manipulação. Há outra questão mais grave. A existência dessa tecnologia traz o risco de dúvida e descrédito para conteúdos que são verdadeiros.

Esse fenômeno pode ser chamado de o triunfo da mentira, ou “liar’s dividend” em inglês e foi apontado por Sam Gregory, diretor da organização de direitos humanos WITNESS, em artigo na revista Wired em 2021.

O que Sam previu como hipótese há cinco anos agora virou realidade. Tome o exemplo dos protestos no Irã. A imagem mais icônica até agora foi a fotografia de um manifestante sozinho, sentado em uma avenida, fazendo frente às forças policiais tentando avançar com motocicletas. O homem está no asfalto sentado em posição de meditação e encara as tropas motorizadas em formação.

A imagem deriva de um vídeo real filmado a longa distância. O acontecimento foi verificado, inclusive com imagens de múltiplas fontes e em vários ângulos. No entanto, contas ligadas ao governo chamaram a foto de “AI slop”, termo que descreve conteúdo genérico gerado por inteligência artificial. Tudo isso é relatado em ótimo artigo recente da iraniana Mahsa Alimardani também da organização WITNESS, publicado na semana passada no The Atlantic.

Alimardani descreve que a imagem do vídeo original estava em baixa resolução e que alguém usou um filtro de IA para melhorar a qualidade da foto para permitir sua publicação. Foi o suficiente para desqualificar todo o ocorrido e as imagens e vídeos reais relacionados a ele.

Esse não é um caso isolado. A regra agora é a desconfiança. A existência da inteligência artificial é utilizada como ferramenta para desqualificar imagens politicamente incômodas, invertendo o ônus da prova. Não basta mais filmar um incidente, é preciso produzir evidências claras de que aquilo é a realidade.

E claro, em paralelo, o uso de deepfakes propriamente ditos para manipulação tornou-se epidêmico. Antes da internet ser cortada no Irã já havia inúmeros vídeos falsos circulando, com imagens e áudio alterados dos protestos, por exemplo, fazendo parecer que os manifestantes clamavam por outros temas.

O fato é que estamos adentrando o momento do triunfo da mentira. Vídeos gerados com as ferramentas mais recentes de IA são difíceis de serem distinguidos da realidade. Nesse contexto, é fundamental fomentar estratégias de rotulagem que possam identificar claramente conteúdo gerado por inteligência artificial.

Além disso, muitas vezes a IA é usada não para gerar a imagem como um todo, mas para manipular pequenos detalhes com grande repercussão. Isso aconteceu com imagens de crianças na Ucrânia, que foram alteradas para parecer que estavam segurando o símbolo de uma unidade militar extremista.

O tempo em que confiar em vídeos e imagens como prova de que algo aconteceu ficou para trás. Concordo com a proposta da WITNESS para o problema. Vamos precisar criar uma infraestrutura de ferramentas técnicas, aliadas com expertise humana e verificação contextual para que a ideia de realidade sobreviva.


Já era – confiar em vídeos como prova da realidade

Já é – precisar de contexto e verificação para confiar em vídeos

Já vem – necessidade de mudanças institucionais para proteger a realidade


LINK PRESENTE: Gostou deste texto? Assinante pode liberar sete acessos gratuitos de qualquer link por dia. Basta clicar no F azul abaixo.

Clique aqui para acessar a Fonte da Notícia

VEJA MAIS

Virginia Fonseca posa nua e foto ousada agita as redes sociais: ‘Parece até IA’

Virginia Fonseca, de 26 anos, chamou atenção nas redes sociais ao publicar uma foto ousada…

Antiético, imoral e inconstitucional, diz secretária do MEC sobre fim das cotas raciais em Santa Catarina | Brasil

O fim das cotas raciais em universidades de Santa Catarina é “antiético, imoral e inconstitucional”,…