Xá das  5
  • NOTÍCIAS
  • Audio
  • RODAS
  • Video + Foto
  • Análises
  • Opinião
  • Mobile
  • Ideias
Sem resultados
Ver todos os resultados
Xá das  5
  • NOTÍCIAS
  • Audio
  • RODAS
  • Video + Foto
  • Análises
  • Opinião
  • Mobile
  • Ideias
Sem resultados
Ver todos os resultados
Xá das  5
Sem resultados
Ver todos os resultados

Deepfakes: o crime ficou mais barato

redacção por redacção
Fevereiro 28, 2026
Rosto humano fragmentado em pixels a ilustrar deepfake gerado por inteligência artificial para fins de fraude e cibercrime

Segurança / Inteligência Artificial

Share on FacebookShare on Twitter

Criar um vídeo falso, ou Deepfakes, convincente com Tom Cruise e Brad Pitt a lutar demorou dois minutos e duas linhas de texto. Imaginem o que se faz com um rosto anónimo e más intenções.

Os deepfakes deixaram de ser problema dos famosos. A tecnologia que durante anos foi associada a vídeos virais de celebridades ou a sátira política chegou ao cibercrime do dia-a-dia, e os especialistas em segurança informática estão preocupados e com razão. Qualquer pessoa com acesso a ferramentas gratuitas de inteligência artificial consegue hoje fabricar um vídeo falso suficientemente convincente para enganar um familiar, um colega de trabalho ou um sistema de verificação de identidade.

O custo baixou para zero e o risco subiu proporcionalmente.

Dois minutos, duas linhas e um vídeo falso perfeito

Deepfakes convincente com Tom Cruise e Brad Pitt

O cineasta Ruairi Robinson tornou-se involuntariamente o exemplo perfeito desta nova realidade quando partilhou na rede social X um vídeo em que Tom Cruise e Brad Pitt apareciam numa cena de combate filmada. Era completamente falso e foi gerado a partir de um prompt de duas linhas. O vídeo tornou-se viral, não por ser mau, mas precisamente por ser suficientemente bom para confundir.

Entretanto, a Comissão Europeia e vários países abriram investigações à mesma plataforma X – e ao chatbot Grok, desenvolvido pela empresa de Elon Musk – por geração de imagens sexualizadas não consensuais. Não é a primeira vez que o Grok aparece em títulos por razões erradas, e provavelmente não será a última.

A escala do problema que os relatórios tentam quantificar

O mais recente Internet Safety Report aponta uma conclusão pouco reconfortante: o conteúdo gerado por IA vai tornar-se progressivamente mais persuasivo, seja por melhorias técnicas, por dependência crescente dos utilizadores, ou por treino baseado no comportamento dos próprios utilizadores. Traduzindo: quanto mais pessoas usarem estas ferramentas, melhores elas ficam. E os criminosos usam-nas tanto como os outros.

Konstantin Levinzon, co-fundador da Planet VPN, resume o problema com clareza: “A internet está inundada de imagens e vídeos falsos que podem ser criados em segundos com ferramentas de baixo custo ou mesmo gratuitas. Os cibercriminosos usam deepfakes para uma variedade de ataques, desde burlas com vídeos falsos a fraude de identidade e personificação.”

Deepfakes no trabalho: quando o vosso CEO pede uma transferência

As empresas não estão imunes: um dos esquemas mais documentados dos últimos dois anos envolve vídeos falsos de directores executivos a pedir transferências urgentes a colaboradores das áreas financeiras. O vídeo parece real, a voz parece real, o endereço de e-mail parece real. O dinheiro vai para uma conta que não tem nada de real.

As instituições financeiras enfrentam um desafio semelhante com a verificação de identidade: sistemas que pedem ao utilizador para piscar os olhos ou rodar a cabeça numa câmara para confirmar que é uma pessoa real estão a ser contornados por deepfakes suficientemente sofisticados para passar nesses testes.

Como detectar um Deepfake e porque isso vai ficar mais difícil

A boa notícia é que os deepfakes ainda deixam rastos. A má notícia é que esses rastos estão a desaparecer à medida que a tecnologia melhora. Por agora, vale a pena procurar movimentos faciais pouco naturais, iluminação inconsistente, sombras que não batem certo, e distorções ou desfocagem à volta dos contornos do rosto – especialmente quando a cabeça se move.

Existem serviços especializados na análise de imagens e vídeos para detectar sinais de geração artificial. Procuram artefactos, texturas anómalas e erros nos detalhes. Levinzon deixa um aviso importante: “Estas ferramentas fornecem um resultado probabilístico, não um veredicto exacto.” Ou seja, podem dizer que é provavelmente falso, mas não têm a certeza absoluta. Da mesma forma que podem dizer que é provavelmente real quando não é.

Protecção: o básico que toda a gente ignora

A primeira linha de defesa é comportamental, não tecnológica. Limitar a quantidade de conteúdo de vídeo pessoal disponível publicamente online reduz a matéria-prima disponível para criar deepfakes com o vosso rosto. Os atacantes usam frequentemente material publicado nas redes sociais para construir os seus modelos.

A autenticação multi-factor em todas as contas é outro básico incontornável. Se um cibercriminoso conseguir acesso a uma conta, pode publicar conteúdo a fazer-se passar pelo titular – incluindo imagens ou vídeos gerados por IA. A segunda camada de autenticação não é infalível, mas eleva consideravelmente o custo do ataque.

Uma VPN é também recomendada por Levinzon, que explica que ao encriptar o tráfego de internet “torna muito mais difícil para qualquer pessoa, incluindo o vosso fornecedor de serviços de internet, monitorizar a vossa actividade online. Ao reduzir a exposição de dados, uma VPN pode diminuir o risco de ser alvo não apenas de esquemas relacionados com deepfakes, mas também de outros tipos de fraude.”

Em suma

Os deepfakes não são novidade, mas a democratização das ferramentas que os geram é. O que antes exigia equipas técnicas especializadas e dias de processamento faz-se hoje com um prompt de duas linhas num domingo de tarde. A tecnologia não vai recuar, as ferramentas não vão desaparecer, e os criminosos não vão ignorar uma oportunidade tão óbvia. O que pode mudar é o nível de atenção de quem usa a internet que, convenhamos, nunca foi o ponto forte da espécie.

Tags: cibercrimeDeepfakesfraude onlineGrokIA generativaidentidade digitalinteligência artificialmusksegurança informáticaVPN
redacção

redacção

Redacção Xá das 5

Próximo artigo
Auriculares HUAWEI FreeBuds Pro 5 em azul sobre uma mesa, com caixa Star Oval aberta, a destacar o design premium e o foco em áudio sem perdas.

HUAWEI FreeBuds Pro 5: silêncio inteligente para o dia-a-dia

Deixe um comentário Cancelar resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Recomendados.

O que são os OPPO Air Glass?

O que são os OPPO Air Glass?

Dezembro 14, 2021
Esqueça o carregador e opte por uma estação de carregamento Hama!

Esqueça o carregador e opte por uma estação de carregamento Hama!

Novembro 25, 2021

Tendências.

No Content Available

Parceiros

TecheNet
Logo-Xá-120

Gadgets, tecnologia, ensaios, opinião, ideias e futuros desvendados

  • Estatuto editorial
  • Política de privacidade , termos e condições
  • Publicidade
  • Ficha Técnica
  • Contacto

© 2025 Xá das 5 - Director: João Gata

Sem resultados
Ver todos os resultados
  • NOTÍCIAS
  • Audio
  • RODAS
  • Video + Foto
  • Análises
  • Opinião
  • Mobile
  • Ideias

© 2025 Xá das 5 - Director: João Gata