Deepfakes disparam e Axis responde: os deepfakes de vídeo deixaram de ser uma curiosidade tecnológica para se tornarem um problema real. E não é um problema pequeno. Nos últimos anos, este tipo de manipulação disparou de forma preocupante, enquanto a capacidade humana para distinguir o que é verdadeiro do que é falso continua a cair.
Num cenário onde já não podemos confiar plenamente no que vemos, a Axis Communications propõe uma abordagem diferente: em vez de tentar detectar o falso depois de ele existir, garantir a autenticidade logo na origem.
O problema dos deepfakes já não é ficção
Os números ajudam a perceber a dimensão da questão. O crescimento de conteúdos manipulados por inteligência artificial tem sido exponencial, e o mais inquietante é que, quando os deepfakes são bem feitos, a maioria das pessoas simplesmente não consegue distingui-los da realidade.
Isto levanta problemas sérios em áreas como justiça, segurança ou até comunicação social, onde a credibilidade das imagens sempre foi um pilar essencial.
Axis aposta na autenticidade desde a captação
A resposta da Axis passa por algo conceptualmente simples, mas tecnicamente exigente: assinar o vídeo no momento em que é captado.
Em vez de verificar se um vídeo foi alterado depois de gravado, a tecnologia cria uma assinatura criptográfica única directamente na câmara. Isso permite garantir que aquele conteúdo é original e que não sofreu alterações desde a sua criação.
Este processo é suportado pela plataforma de segurança da marca, que funciona como uma espécie de cofre digital integrado no próprio equipamento. O resultado é um “selo de autenticidade” que acompanha o vídeo desde o primeiro segundo.
Código aberto para gerar confiança
Um dos pontos mais interessantes desta abordagem é a decisão de disponibilizar ferramentas de verificação em código aberto.
Na prática, isto permite que qualquer entidade, desde autoridades a equipas legais ou até outros fabricantes, possa validar a autenticidade do vídeo sem depender exclusivamente da Axis.
Num tema tão sensível como a veracidade da informação, esta transparência não é apenas bem-vinda, é essencial para gerar confiança.
Regulação europeia e necessidade de prova
Com a entrada em vigor de regulamentação europeia sobre inteligência artificial, a necessidade de distinguir conteúdos reais de conteúdos gerados artificialmente torna-se ainda mais urgente.
Se por um lado será obrigatório identificar conteúdos criados por IA, por outro lado passa a ser igualmente importante provar que algo é genuíno.
E é precisamente aqui que soluções como esta ganham relevância, sobretudo em contextos legais, investigações ou segurança empresarial.
Mais do que detectar o falso, provar o verdadeiro
A abordagem da Axis muda ligeiramente o foco da discussão. Em vez de perguntar “isto é falso?”, a pergunta passa a ser “isto é comprovadamente verdadeiro?”.
Pode parecer uma nuance, mas num mundo saturado de conteúdos manipulados, é uma diferença enorme.
Em suma
Os deepfakes vieram para ficar, e a confiança nas imagens deixou de ser garantida. A solução da Axis não elimina o problema, mas dá um passo importante ao criar um sistema onde a autenticidade pode ser verificada desde a origem. Num mundo digital cada vez mais ambíguo, isso pode ser exactamente o que faz falta para voltar a acreditar no que vemos.





