Criar um vídeo falso, ou Deepfakes, convincente com Tom Cruise e Brad Pitt a lutar demorou dois minutos e duas linhas de texto. Imaginem o que se faz com um rosto anónimo e más intenções.
Os deepfakes deixaram de ser problema dos famosos. A tecnologia que durante anos foi associada a vídeos virais de celebridades ou a sátira política chegou ao cibercrime do dia-a-dia, e os especialistas em segurança informática estão preocupados e com razão. Qualquer pessoa com acesso a ferramentas gratuitas de inteligência artificial consegue hoje fabricar um vídeo falso suficientemente convincente para enganar um familiar, um colega de trabalho ou um sistema de verificação de identidade.
O custo baixou para zero e o risco subiu proporcionalmente.
Dois minutos, duas linhas e um vídeo falso perfeito

O cineasta Ruairi Robinson tornou-se involuntariamente o exemplo perfeito desta nova realidade quando partilhou na rede social X um vídeo em que Tom Cruise e Brad Pitt apareciam numa cena de combate filmada. Era completamente falso e foi gerado a partir de um prompt de duas linhas. O vídeo tornou-se viral, não por ser mau, mas precisamente por ser suficientemente bom para confundir.
Entretanto, a Comissão Europeia e vários países abriram investigações à mesma plataforma X – e ao chatbot Grok, desenvolvido pela empresa de Elon Musk – por geração de imagens sexualizadas não consensuais. Não é a primeira vez que o Grok aparece em títulos por razões erradas, e provavelmente não será a última.
A escala do problema que os relatórios tentam quantificar
O mais recente Internet Safety Report aponta uma conclusão pouco reconfortante: o conteúdo gerado por IA vai tornar-se progressivamente mais persuasivo, seja por melhorias técnicas, por dependência crescente dos utilizadores, ou por treino baseado no comportamento dos próprios utilizadores. Traduzindo: quanto mais pessoas usarem estas ferramentas, melhores elas ficam. E os criminosos usam-nas tanto como os outros.
Konstantin Levinzon, co-fundador da Planet VPN, resume o problema com clareza: “A internet está inundada de imagens e vídeos falsos que podem ser criados em segundos com ferramentas de baixo custo ou mesmo gratuitas. Os cibercriminosos usam deepfakes para uma variedade de ataques, desde burlas com vídeos falsos a fraude de identidade e personificação.”
Deepfakes no trabalho: quando o vosso CEO pede uma transferência
As empresas não estão imunes: um dos esquemas mais documentados dos últimos dois anos envolve vídeos falsos de directores executivos a pedir transferências urgentes a colaboradores das áreas financeiras. O vídeo parece real, a voz parece real, o endereço de e-mail parece real. O dinheiro vai para uma conta que não tem nada de real.
As instituições financeiras enfrentam um desafio semelhante com a verificação de identidade: sistemas que pedem ao utilizador para piscar os olhos ou rodar a cabeça numa câmara para confirmar que é uma pessoa real estão a ser contornados por deepfakes suficientemente sofisticados para passar nesses testes.
Como detectar um Deepfake e porque isso vai ficar mais difícil
A boa notícia é que os deepfakes ainda deixam rastos. A má notícia é que esses rastos estão a desaparecer à medida que a tecnologia melhora. Por agora, vale a pena procurar movimentos faciais pouco naturais, iluminação inconsistente, sombras que não batem certo, e distorções ou desfocagem à volta dos contornos do rosto – especialmente quando a cabeça se move.
Existem serviços especializados na análise de imagens e vídeos para detectar sinais de geração artificial. Procuram artefactos, texturas anómalas e erros nos detalhes. Levinzon deixa um aviso importante: “Estas ferramentas fornecem um resultado probabilístico, não um veredicto exacto.” Ou seja, podem dizer que é provavelmente falso, mas não têm a certeza absoluta. Da mesma forma que podem dizer que é provavelmente real quando não é.
Protecção: o básico que toda a gente ignora
A primeira linha de defesa é comportamental, não tecnológica. Limitar a quantidade de conteúdo de vídeo pessoal disponível publicamente online reduz a matéria-prima disponível para criar deepfakes com o vosso rosto. Os atacantes usam frequentemente material publicado nas redes sociais para construir os seus modelos.
A autenticação multi-factor em todas as contas é outro básico incontornável. Se um cibercriminoso conseguir acesso a uma conta, pode publicar conteúdo a fazer-se passar pelo titular – incluindo imagens ou vídeos gerados por IA. A segunda camada de autenticação não é infalível, mas eleva consideravelmente o custo do ataque.
Uma VPN é também recomendada por Levinzon, que explica que ao encriptar o tráfego de internet “torna muito mais difícil para qualquer pessoa, incluindo o vosso fornecedor de serviços de internet, monitorizar a vossa actividade online. Ao reduzir a exposição de dados, uma VPN pode diminuir o risco de ser alvo não apenas de esquemas relacionados com deepfakes, mas também de outros tipos de fraude.”
Em suma
Os deepfakes não são novidade, mas a democratização das ferramentas que os geram é. O que antes exigia equipas técnicas especializadas e dias de processamento faz-se hoje com um prompt de duas linhas num domingo de tarde. A tecnologia não vai recuar, as ferramentas não vão desaparecer, e os criminosos não vão ignorar uma oportunidade tão óbvia. O que pode mudar é o nível de atenção de quem usa a internet que, convenhamos, nunca foi o ponto forte da espécie.





