Xá das  5
  • NOTÍCIAS
  • Audio
  • RODAS
  • Video + Foto
  • Análises
  • Opinião
  • Mobile
  • Ideias
Sem resultados
Ver todos os resultados
Xá das  5
  • NOTÍCIAS
  • Audio
  • RODAS
  • Video + Foto
  • Análises
  • Opinião
  • Mobile
  • Ideias
Sem resultados
Ver todos os resultados
Xá das  5
Sem resultados
Ver todos os resultados

Como combater Deepfakes na guerra da Ucrânia

João Gata por João Gata
Outubro 30, 2024
Como combater Deepfakes na guerra da Ucrânia
Share on FacebookShare on Twitter
deepfake

Deepfakes: disseminação de imagens falsas. Logo após o início da invasão russa na Ucrânia, em 2022, os fotógrafos ucranianos começaram a registar imagens dos danos nos espaços culturais, ajudando a preservar a memória e a reunir provas para uma futura reconstrução.

Contudo, com a proliferação de imagens falsas relacionadas com o conflito, tornou-se difícil identificar quais imagens eram autênticas.

Para enfrentar essa confusão, os fotógrafos recorreram a novas ferramentas que pudessem confirmar a autenticidade das suas fotografias.

Essas ferramentas evoluíram e originaram a Content Integrity Suite da Microsoft, criada para oferecer uma camada adicional de transparência ao conteúdo online, ajudando a combater os deepfakes — conteúdos gerados por IA que imitam de forma realista pessoas, locais ou eventos, mas que são falsos.

O Que São Deepfakes e Por Que São Perigosos?

Os deepfakes não são uma novidade, mas a IA tornou-os mais fáceis de produzir, aumentando as possibilidades de desinformação.

Estes conteúdos manipulados podem ter um impacto negativo, levando a fraudes, interferência eleitoral e até roubo de identidade.

Com a crescente sofisticação da IA, fica cada vez mais difícil distinguir o que é real do que é falso, colocando em risco a confiança pública.

Ferramentas de Credibilidade da Microsoft

Para enfrentar esses desafios, a Microsoft desenvolveu um conjunto de ferramentas que trazem maior transparência ao conteúdo online. Entre as principais iniciativas, destacam-se:

  1. Credenciais de Conteúdo: Através de metadados criptograficamente protegidos, os criadores e editores podem adicionar informações sobre quem criou o conteúdo, a data da sua produção e se foi usada IA. Esta abordagem, parte da norma técnica da Coalition for Content Provenance and Authenticity (C2PA), visa permitir que qualquer alteração seja facilmente detetada, mantendo a autenticidade.
  2. Verificação de Integridade do Conteúdo: Uma ferramenta pública permite ao consumidor verificar a proveniência de uma imagem ou vídeo, através de uma extensão para browser. Estas credenciais oferecem um símbolo visível em plataformas como o LinkedIn, indicando que o conteúdo passou por verificação.
  3. Ferramentas de IA Responsável: Em produtos como o Designer, Copilot e Paint, a Microsoft exibe um aviso quando a imagem foi criada por IA. Estas medidas incluem a desfocagem de rostos em conteúdos carregados no Copilot, para prevenir o uso abusivo da IA.

A Importância da Transparência nas Eleições de 2024

Este ano, em especial durante o período eleitoral, a Microsoft disponibilizou uma versão de pré-lançamento das suas ferramentas de proveniência para campanhas eleitorais, organizações mediáticas e outros intervenientes, com o objetivo de aumentar a confiança e combater a manipulação de IA.

A Microsoft criou também um portal onde os candidatos podem reportar deepfakes, e lançou um fundo de 2 milhões de dólares, em parceria com a OpenAI, para educar eleitores e comunidades sobre IA.

Como Identificar Deepfakes?

Para os utilizadores que querem melhorar a sua capacidade de detetar conteúdos manipulados, a Microsoft sugere:

  • Verificar a Fonte: Pesquisar as credenciais de conteúdo e verificar se a fonte é confiável.
  • Analisar a Intenção: Questionar se o conteúdo é feito para informar, entreter ou enganar.
  • Detetar Erros Visuais: Procurar inconsistências na iluminação, nos detalhes anatómicos ou em texturas incomuns, típicos de imagens geradas por IA.

Estas orientações integram a série “Building AI Responsibly” da Microsoft, que explora os desafios e as melhores práticas para a IA responsável.

Tags: AIDeepfakesDeepfakes IAUcrânia
João Gata

João Gata

Começou em vídeo e cinema, singrou em jornalismo, fez da publicidade a maior parte da vida, ainda editou discos e o primeiro dos livros e, porque o bicho fica sempre, juntou todas estas experiências num blogue.

Próximo artigo
Marantz 10 Series tem novos componentes de referência

Marantz 10 Series tem novos componentes de referência

Deixe um comentário Cancelar resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

Recomendados.

Sonos Move 2

Sonos lança a Move 2, uma coluna portátil com som estéreo e resistente à água

Setembro 6, 2023
Nightflyers

Netflix: todas as novidades para Fevereiro

Janeiro 29, 2019

Tendências.

No Content Available

Parceiros

TecheNet
Logo-Xá-120

Gadgets, tecnologia, ensaios, opinião, ideias e futuros desvendados

  • Estatuto editorial
  • Política de privacidade , termos e condições
  • Publicidade
  • Ficha Técnica
  • Contacto

© 2025 Xá das 5 - Director: João Gata

Sem resultados
Ver todos os resultados
  • NOTÍCIAS
  • Audio
  • RODAS
  • Video + Foto
  • Análises
  • Opinião
  • Mobile
  • Ideias

© 2025 Xá das 5 - Director: João Gata