
Deepfakes: disseminação de imagens falsas. Logo após o início da invasão russa na Ucrânia, em 2022, os fotógrafos ucranianos começaram a registar imagens dos danos nos espaços culturais, ajudando a preservar a memória e a reunir provas para uma futura reconstrução.
Contudo, com a proliferação de imagens falsas relacionadas com o conflito, tornou-se difícil identificar quais imagens eram autênticas.
Para enfrentar essa confusão, os fotógrafos recorreram a novas ferramentas que pudessem confirmar a autenticidade das suas fotografias.
Essas ferramentas evoluíram e originaram a Content Integrity Suite da Microsoft, criada para oferecer uma camada adicional de transparência ao conteúdo online, ajudando a combater os deepfakes — conteúdos gerados por IA que imitam de forma realista pessoas, locais ou eventos, mas que são falsos.
O Que São Deepfakes e Por Que São Perigosos?
Os deepfakes não são uma novidade, mas a IA tornou-os mais fáceis de produzir, aumentando as possibilidades de desinformação.
Estes conteúdos manipulados podem ter um impacto negativo, levando a fraudes, interferência eleitoral e até roubo de identidade.
Com a crescente sofisticação da IA, fica cada vez mais difícil distinguir o que é real do que é falso, colocando em risco a confiança pública.
Ferramentas de Credibilidade da Microsoft
Para enfrentar esses desafios, a Microsoft desenvolveu um conjunto de ferramentas que trazem maior transparência ao conteúdo online. Entre as principais iniciativas, destacam-se:
- Credenciais de Conteúdo: Através de metadados criptograficamente protegidos, os criadores e editores podem adicionar informações sobre quem criou o conteúdo, a data da sua produção e se foi usada IA. Esta abordagem, parte da norma técnica da Coalition for Content Provenance and Authenticity (C2PA), visa permitir que qualquer alteração seja facilmente detetada, mantendo a autenticidade.
- Verificação de Integridade do Conteúdo: Uma ferramenta pública permite ao consumidor verificar a proveniência de uma imagem ou vídeo, através de uma extensão para browser. Estas credenciais oferecem um símbolo visível em plataformas como o LinkedIn, indicando que o conteúdo passou por verificação.
- Ferramentas de IA Responsável: Em produtos como o Designer, Copilot e Paint, a Microsoft exibe um aviso quando a imagem foi criada por IA. Estas medidas incluem a desfocagem de rostos em conteúdos carregados no Copilot, para prevenir o uso abusivo da IA.
A Importância da Transparência nas Eleições de 2024
Este ano, em especial durante o período eleitoral, a Microsoft disponibilizou uma versão de pré-lançamento das suas ferramentas de proveniência para campanhas eleitorais, organizações mediáticas e outros intervenientes, com o objetivo de aumentar a confiança e combater a manipulação de IA.
A Microsoft criou também um portal onde os candidatos podem reportar deepfakes, e lançou um fundo de 2 milhões de dólares, em parceria com a OpenAI, para educar eleitores e comunidades sobre IA.
Como Identificar Deepfakes?
Para os utilizadores que querem melhorar a sua capacidade de detetar conteúdos manipulados, a Microsoft sugere:
- Verificar a Fonte: Pesquisar as credenciais de conteúdo e verificar se a fonte é confiável.
- Analisar a Intenção: Questionar se o conteúdo é feito para informar, entreter ou enganar.
- Detetar Erros Visuais: Procurar inconsistências na iluminação, nos detalhes anatómicos ou em texturas incomuns, típicos de imagens geradas por IA.
Estas orientações integram a série “Building AI Responsibly” da Microsoft, que explora os desafios e as melhores práticas para a IA responsável.





