Deepfakes de Barack Obama e Mark Zuckerberg; na técnica, o rosto e/ou a voz de alguém é substituído digitamente pelos traços de outras pessoas

Além dos textos com informações falsas e das imagens fora de contexto, outro tipo de conteúdo pode trazer preocupação para estas eleições, por seu poder de confundir o público. Os deepfakes já circulam há alguns anos na internet e, com o avanço da tecnologia, têm se tornado cada vez mais convincentes.

A tecnologia, se usada com o intuito de propagar desinformação, pode representar riscos neste ano eleitoral. Os deepfakes são, geralmente, vídeos em que o rosto e/ou a voz de alguém é substituído digitalmente pelos traços de outras pessoas. As expressões faciais também podem ser manipuladas, para fazer com que a pessoa retratada aparente estar fazendo ou dizendo algo em um novo contexto.

“Eles são aptos a gerar grande engajamento porque os conteúdos buscam atingir em cheio aspectos emocionais de quem os recebe”, afirma Marcelo Crespo, coordenador do curso de Direito da Escola Superior de Propaganda e Marketing (ESPM). “Difícil é quantificar o quanto isso pode impactar no pleito, mas pode.”

Esses vídeos são criados a partir de uma técnica de inteligência artificial chamada deep learning (aprendizado profundo), em que o computador pode, por exemplo, analisar milhares de imagens de uma pessoa, aprendendo a recriá-la. A mesma técnica pode ser usada para reproduzir o timbre de voz.

A tecnologia, se usada com o intuito de propagar desinformação, pode representar riscos neste ano eleitoral. “Oficialmente, as campanhas não produzirão deepfakes, mas os canais informais ou militantes podem gerar fake news com o uso dessa técnica mais sofisticada de mídia sintética”, avalia Dora Kaufman, professora do Programa de Tecnologias da Inteligência e Design Digital da PUC-SP.

Um vídeo recente com a apresentadora da TV Globo Renata Vasconcellos, que simulava uma notícia dizendo que o presidente Jair Bolsonaro liderava uma pesquisa eleitoral, não era uma deepfake de fato, apesar de ter sido alardeada como tal. Tratava-se de uma edição de vídeo em que o áudio foi recortado e colado em uma ordem distinta, com o intuito de inverter a informação real.

A deepfake como arma de fake news

Um dos fatores que podem contribuir com a disseminação da deepfake desinformativa é a falta de conhecimento do público sobre essas mídias ou a falta de atenção para identificá-las.

“Uma pessoa que esteja olhando com atenção para o vídeo pode detectar que é um deepfake. Mas, como a gente vive com uma atenção que muda constantemente entre um aplicativo e outro, as pessoas podem ver aquilo, não prestar muita atenção, e achar que é verdade. Então, esse é um risco que a gente tem, muito grave, para essas eleições”, diz Diogo Cortiz, professor da PUC-SP e pesquisador no NIC.br (Núcleo de Informação e Coordenação do Ponto BR).

Para Kaufman, os órgãos fiscalizadores, além de iniciativas da grande mídia e de organizações da sociedade civil, estão atentos. Ainda assim, podem existir desafios, considerando a dificuldade de fiscalizar um ambiente tão vasto quanto o online.

Há, hoje, segundo Cortiz, pessoas e grupos que se dedicam a melhorar os algoritmos com o objetivo real de espalhar desinformação. No entanto, afirma, esse foi um “efeito colateral” do surgimento dessa tecnologia, não sua finalidade original.

“O deepfake foi um processo natural da evolução da área de visão computacional, que é o uso de técnicas de IA [inteligência artificial] que trabalham com imagens”, diz o pesquisador. “Então, no processo de exploração, para saber se era possível criar novas imagens ou fazer algum tipo de edição, se chegou a essa tecnologia.”

Técnica também pode divertir e conscientizar

Nem todo deepfake que circula nas redes sociais, porém, tem o intuito de confundir; alguns pretendem provocar o riso ou a reflexão. O jornalista Bruno Sartori trabalha com a tecnologia há anos e já postou, em seu canal de YouTube, diversas paródias protagonizadas por políticos como Jair Bolsonaro, Lula, Sergio Moro e Donald Trump.

Um dos destaques no canal de Sartori foi uma cena da novela mexicana “A Usurpadora” protagonizada por Lula e Bolsonaro, e uma cena do seriado “Chaves” estrelada por Sergio Moro e Pedro Bial.

Outra aplicação positiva, atualmente, é na arte. Kaufman cita exemplos como a reconstituição de obras de arte danificadas, a inserção da face de um ator em cenas protagonizadas por um dublê, como no filme “Rogue One: Uma História Star Wars” com a princesa Leia; e a possibilidade de “reviver” artistas e personalidades falecidas, como na exposição “Eu, Ayrton Senna da Silva”, que recriou a voz do piloto a partir de IA, usada para contar a história do ídolo.

Com informações do Terra