A Adobe pode lançar futuramente um recurso de identificação de autoria e autenticação de conteúdo digital para combater a recente onda de deepfakes nocivos. O projeto é chamado Iniciativa de Autenticidade de Conteúdo (ou Content Authenticity Initiative, em inglês) e existe há três anos, com foco em parceiros do setor de mídia e tecnologia. O objetivo é criar uma trilha para descobrir quem foi o responsável por produzir um determinado vídeo ou imagem, bem como identificar alterações feitas.
- 10 deepfakes mais impressionantes que confundiram a internet
- Alexa exibe recurso sinistro que imita vozes de pessoas mortas
A premissa é similar aos populares tokens não fungíveis (NFTs) que existem atualmente. Assim como o NFT tem um dono e pertence a uma coleção, cada mídia criada nos softwares de edição teria uma impressão digital do autor.
Segundo reportagem da revista Forbes, este é o segmento que mais tem recebido atenção da Adobe nos últimos anos. Foi também a área que apresentou mais crescimento, já que existe a necessidade real de combater a situação de alguma maneira.
–
Participe do GRUPO CANALTECH OFERTAS no Telegram e garanta sempre o menor preço em suas compras de produtos de tecnologia.
–
A Adobe montou um esforço para reinventar todos os seus produtos usando inteligência artificial e técnicas de aprendizado profundo (deep leaning) — uma iniciativa conhecida internamente como “AI First”. A ideia é não somente criar essas pegadas digitais, mas também facilitar as demoradas edições do Photoshop para ajudar na execução de tarefas simples, como trocar o fundo ou excluir pessoas indesejadas de uma foto.
Recurso ajudaria a identificar o deepfake
A Adobe luta para combater um mal que ela mesmo ajudou a criar indiretamente: o deepfake. A fabricante dos softwares de edição de fotos e vídeos mais populares do mundo enfrenta o dilema de lutar contra recursos vistos como trunfo em um passado não muito distante.
O deepfake é uma técnica de criação de vídeos falsos com um realismo que pode confundir qualquer pessoa. Rostos, expressões faciais, corpos e até vozes podem ser recriadas para ficarem idênticas a das vítimas. A coisa é tão séria que nem inteligências artificiais avançadas são capazes de identificar montagens muito bem feitas.
A companhia tem trabalhado para redesenhar seu mix de produtos usando inteligência artificial e técnicas de aprendizado profundo, mas sem descuidar da segurança. O Photoshop e o Premiere Pro seriam os maiores focos, porque são parte importante das técnicas de deepfake. Os dois produtos, somados ao Illustrator e Acrobat, corresponderam a 73% da receita da empresa em 2021, daí a necessidade de se manter relevante sem abrir mão das IAs.
Deepfake em crescimento
O dilema é porque as manipulações deixaram de ser usadas apenas para brincadeiras e passaram a ser empregadas com viés político-partidário. Montagens de personalidades dizendo algo absurdo ou contrariando suas ideologias se tornam cada vez mais comuns, o que pode ter efeitos desastrosos em democracias, principalmente em período eleitoral.
Recentemente, um exemplo claro da prática: um perfil se passa pela atriz Margot Robbie no TikTok. Os vídeos são voltados para o entretenimento e não atacam a artista, mas poderiam ser eventualmente usados para esta finalidade, tendo em vista o realismo dos conteúdos.
@unreal_margot I like the last one. And you? #margotrobbie #movies #viral #fyp ♬ original sound – Unreal Margot Robbie
Ao mesmo tempo em que precisa se reinventar para combater os rivais, como o Canva, a Adobe precisa ter cautela no uso das IAs de otimização de imagens. Segundo o conselheiro geral e diretor de confiança da Adobe, Dana Rao, as ferramentas podem fazer algo falso se tornar extremamente real.
Rao diz ter se reunido com o diretor de produtos da empresa, Scott Belsky, três anos atrás para tratar deste assunto. “Estávamos analisando todas as inovações que tínhamos na edição de IA, e ambos tivemos o mesmo pensamento ao mesmo tempo: muito em breve, porque a IA pode ser mais poderoso do que a edição humana, você não será capaz de distinguir fato de ficção, realidade de realidade artificial”, explicou na entrevista concedida à Forbes.
Conteúdos falsos e a viralização
A ferramenta de autenticidade poderia minimizar esse problema, mas será que os criminosos não conseguiriam burlar o sistema? Ainda que isto não ocorra, estariam os políticos interessados em saber se um vídeo do candidato rival é falso antes de compartilhá-lo nas redes sociais?
A onda de fake news no Brasil e no mundo mostra que não. É melhor postar algo falso e depois pedir desculpas, somente se a fraude for desmascarada, do que perder a oportunidade de atacar algum desafeto. Vale lembrar que a legislação mundial tem avançado para punir não somente os autores das mentiras, mas responsabilizar o consumidor pela disseminação em redes sociais ou apps de chat.
Em que pese o trabalho jornalístico de apuração, no fim das contas, deve cair no colo das pessoas a obrigação de buscar a verdade. A Adobe faz a parte dela, o Canaltech faz a parte dele, mas o usuário também precisará fazer o dever de casa, caso contrário o mundo poderia virar uma imensa Matrix.
Trending no Canaltech:
- Fiocruz revela qual o risco da próxima pandemia surgir no Brasil
- Qual o preço de um carro da Tesla no Brasil?
- Pneumoescroto | Idoso relata primeiro caso de assobio escrotal do mundo
- É verdade que o Instagram vai mostrar quem visitou seu perfil?
- Xiaomi 12S, 12S Pro e 12S Ultra são lançados com câmeras Leica e alta potência
Fonte: Canaltech