Qualquer um com um iPhone agora pode fazer deepfakes

Por Geoffrey A. Fowler
Do Washington Post

Não estamos prontos para o que acontece a seguir. Vídeos realistas de pessoas fazendo coisas que nunca realmente aconteceram tornaram-se chocantemente fáceis de criar. Agora é a hora de colocar alguns guardrails, ou limites.


Fiz George Washington cantar uma “disco music“ e Marilyn Monroe me dar um beijo. Com apenas uma foto e um aplicativo para iPhone, posso criar um vídeo de qualquer rosto dizendo, ou cantando, o que eu quiser.

E agora você também pode. A tecnologia para criar "deepfakes" — vídeos de pessoas fazendo coisas que nunca aconteceram de verdade — chegou aos smartphones. É simples, divertido... e também preocupante.

Os últimos meses trouxeram avanços nesta tecnologia controversa que eu sabia que estavam por vir, mas ainda estou chocado em ver. Há alguns anos, os vídeos deepfake — nomeados após a inteligência artificial de "deep learning" usada para gerar rostos — exigiam um estúdio de Hollywood ou pelo menos um computador poderoso e louco. Então, por volta de 2020 vieram aplicativos, como um chamado Reface, que permitem mapear seu próprio rosto em um clipe de uma celebridade.

Agora, com uma única foto de origem e zero conhecimento técnico, um aplicativo para iPhone chamado Avatarify permite que você realmente controle o rosto de outra pessoa como um fantoche. Usando a câmera de selfie do seu telefone, o que quer que você faça com seu próprio rosto acontece na deles. Avatarify não faz vídeos tão sofisticados quanto pro fakes de Tom Cruise que têm voado na rede social TikTok — mas foi baixado mais de 6 milhões de vezes desde fevereiro.

Outro aplicativo para dispositivos iPhone e Android chamado Wombo transforma uma foto direta em um vídeo engraçado de música de sincronia labial. Gerou 100 milhões de clipes apenas em suas duas primeiras semanas.

E o MyHeritage, um site de genealogia, permite que qualquer pessoa use tecnologia deepfake para dar vida a fotos antigas. Faça upload de uma foto de um parente ou amigo há muito perdido, e produz um vídeo curto notavelmente convincente deles olhando ao redor e sorrindo. Até as pequenas rugas ao redor dos olhos parecem reais. Eles chamam de "Nostalgia Profunda" e reanimaram mais de 65 milhões de fotos de pessoas nas últimas quatro semanas.

Esses deepfakes podem não enganar a todos, mas ainda é um ponto de inflexão cultural para o qual não estamos prontos. Esqueça as leis para evitar que as falsificações fucem, nós quase nem temos normas sociais para essas coisas.

Todos os três serviços gratuitos mais recentes dizem que estão sendo usados principalmente para fins positivos: sátira, entretenimento e recriações históricas. O problema é que já sabemos que há muitos usos ruins para deepfakes, também.

"É tudo muito fofo quando fazemos isso com as fotos do vovô", diz a professora responsável da Universidade Estadual de Michigan, Anjana Susarla. "Mas você pode tirar a foto de qualquer uma das mídias sociais e fazer imagens manipuladas deles. Isso é o que é preocupante.

Então eu falei com as pessoas que fazem aplicativos deepfake e os especialistas em ética rastreando sua ascensão para ver se podemos descobrir algumas regras para a estrada.

"Você deve ter certeza de que o público está ciente de que isso é mídia sintética", diz Gil Perry, o CEO da D-ID, a empresa de tecnologia que alimenta os deepfakes da MyHeritage. "Temos que definir as diretrizes, os quadros e as políticas para que o mundo saiba o que é bom e o que é ruim."

A tecnologia para alterar digitalmente imagens estáticas — o software de edição do Photoshop da Adobe — existe há décadas. Mas vídeos deepfake criam novos problemas, como ser armado, particularmente contra as mulheres, para criar pornografia falsa humilhante e não consensual.

No início de março, uma mulher em Bucks County, Pa., foi presa sob alegações de que ela enviou aos treinadores de líderes de torcida de sua filha fotos falsas e vídeo de seus rivais para tentar expulsá-los da equipe. A polícia diz que ela usou tecnologia deepfake para manipular fotos de três garotas do esquadrão Victory Vipers para fazê-las parecer que estavam bebendo, fumando e até nuas.

"Há danos potenciais ao espectador. Há danos ao assunto. E então há um dano mais amplo à sociedade em minar a confiança", diz Deborah Johnson, professora emérita de ética aplicada na Universidade da Virgínia.

As redes sociais dizem que os deepfakes não têm sido uma grande fonte de conteúdo problemático. Não devemos esperar que eles se tornem um.

Provavelmente não é realista pensar que a tecnologia deepfake poderia ser banida com sucesso. Um esforço de 2019 no Congresso para proibir alguns usos da tecnologia vacilou.

Mas podemos insistir em alguns guardrails desses aplicativos e serviços de consumo, as lojas de aplicativos que os promovem e as redes sociais tornando os vídeos populares. E podemos começar a falar sobre quando é e não está bem para fazer deepfakes - inclusive quando isso envolve reanimar o vovô.

Instalando limites ou guardrails

O criador de Avatarify, Ali Aliev, um ex-engenheiro da Samsung em Moscou, disse-me que também está preocupado que os deepfakes possam ser mal utilizados. Mas ele não acredita que seu aplicativo atual causará problemas. "Acho que a tecnologia não é tão boa neste momento", ele me disse.

Isso não me deixa à vontade. "Eles se tornarão tão bons", diz Mutale Nkonde, CEO da organização sem fins lucrativos AI For the People e bolsista da Universidade de Stanford. A maneira como os sistemas de IA aprendem sendo treinados em novas imagens, ela diz, "não vai demorar muito para que essas deepfakes sejam muito, muito convincentes".

Os termos de serviço do Avatarify dizem que não pode ser usado de maneiras odiosas ou obscenas, mas não tem nenhum sistema para verificar. Além disso, o aplicativo em si não limita o que você pode fazer as pessoas dizerem ou fazerem. "Não o limitamos porque estamos procurando casos de uso — e eles são principalmente por diversão", diz Aliev. "Se formos muito preventivos, então podemos perder algo."

Hany Farid, professora de ciência da computação da Universidade da Califórnia em Berkeley, diz que já ouviu falar que o ethos de movimentos rápidos e quebras antes de empresas como o Facebook. "Se sua tecnologia vai levar a danos — e é razoável prever esse dano — acho que você tem que ser responsabilizado", diz ela.

Que guardrails podem mitigar os danos? O CEO da Wombo, Ben-Zion Benkhin, diz que os fabricantes de aplicativos deepfake devem ser "muito cuidadosos" em dar às pessoas o poder de controlar o que sai da boca de outras pessoas. Seu aplicativo está limitado a animações deepfake de uma coleção de vídeos musicais com movimentos de cabeça e lábio gravados por atores. "Você não é capaz de escolher algo que é super ofensivo ou que pode ser mal interpretado", diz Benkhin.

MyHeritage não permite que você adicione movimento labial ou vozes aos seus vídeos - embora tenha quebrado sua própria regra usando sua tecnologia para produzir um anúncio com um falso Abraham Lincoln.

Há também preocupações de privacidade sobre o compartilhamento de rostos com um aplicativo, uma lição que aprendemos com o controverso FaceApp de 2019, um serviço russo que precisava de acesso às suas fotos para usar a IA para fazer os rostos parecerem velhos. Avatarify (também russo) diz que nunca recebe suas fotos porque funciona inteiramente no telefone — mas Wombo e MyHeritage tiram suas fotos para processá-las na nuvem.

Lojas de aplicativos que distribuem essa tecnologia podem estar fazendo muito mais para estabelecer padrões. A Apple removeu o Avatarify de sua China App Store, dizendo que ela violou a lei chinesa não especificada. Mas o aplicativo está disponível nos Estados Unidos e em outros lugares — e a Apple diz que não tem regras específicas para aplicativos deepfake, além de proibições gerais de conteúdo difamatório, discriminatório ou mesquinho.

Rótulos ou marcas d'água que deixam claro quando você está olhando para um deepfake pode ajudar, também. Todos esses três serviços incluem marcas d'água visíveis, embora o Avatarify os remova com uma assinatura premium de US$ 2,50 por semana.

Melhor ainda seriam marcas d'água escondidas em arquivos de vídeo que poderiam ser mais difíceis de remover, e poderiam ajudar a identificar falsificações. Todos os três criadores dizem que acham que é uma boa ideia — mas precisam de alguém para desenvolver os padrões.

As redes sociais, também, desempenharão um papel fundamental para garantir que os deepfakes não sejam usados para doenças. Suas políticas geralmente tratam deepfakes como outros conteúdos que desinformam ou podem levar as pessoas a se ofenderem: a política do Facebook e do Instagram é remover a "mídia manipulada", embora tenha uma exceção para paródias.

A política do TikTok é remover "falsificações digitais" que enganam e causam danos ao tema do vídeo ou da sociedade, como informações de saúde imprecisas. A política de "práticas enganosas" do YouTube proíbe conteúdo tecnicamente manipulado que engane e possa representar um sério risco.

Mas não está claro o quão bom é o trabalho que as redes sociais podem fazer para impor suas políticas quando o volume de deepfakes dispara. E se, digamos, um aluno fizer uma piada maldosa de seu professor de matemática - e então o diretor não entender imediatamente que é uma farsa? Todas as empresas dizem que continuarão avaliando suas abordagens.

Uma ideia: as redes sociais poderiam reforçar os guardrails fazendo uma prática de rotular automaticamente deepfakes — um uso para essas marcas d'água escondidas — mesmo que não seja imediatamente óbvio que eles estão causando danos. Facebook e Google têm investido em tecnologia para identificá-los.

"O fardo aqui tem que ser sobre as empresas e nosso governo e nossos reguladores", diz Farid.

Novas normas

Quaisquer que sejam os passos que a indústria e o governo tomam, deepfakes também são onde a tecnologia pessoal atende à ética pessoal.

Você pode não pensar duas vezes antes de tirar ou postar uma foto de outra pessoa. Mas fazer um deepfake deles é diferente. Você está transformando-os em um fantoche.

"Deepfakes brincam com identidade e agência, porque você pode assumir outra pessoa - você pode fazê-los fazer algo que eles nunca fizeram antes", diz Benkhin, de Wombo.

Nkonde, que tem dois adolescentes, diz que as famílias precisam falar sobre normas em torno desse tipo de mídia. "Acho que nossa norma deve ser perguntar às pessoas se você tem sua permissão", diz ela.

Mas isso pode ser mais fácil dizer do que fazer. Criar um vídeo é um direito de liberdade de expressão. E obter permissão nem sempre é prático: um grande uso dos aplicativos mais recentes é surpreender um amigo.

A permissão para criar um deepfake também não é inteiramente o ponto. O que mais importa é como eles são compartilhados.

"Se alguém da minha família quiser tirar minha foto de infância e fazer esse vídeo, então eu ficaria confortável com ele no contexto de um evento familiar", diz Susarla. "Mas se essa pessoa está mostrando isso fora de um círculo familiar imediato, isso tornaria uma proposta muito desconfortável."

A Internet é ótima em tirar as coisas do contexto. Uma vez que um vídeo esteja online, você pode perder rapidamente o controle sobre como ele pode ser interpretado ou mal utilizado.

Então há uma questão mais existencial: como os deepfakes nos mudarão?

Descobri aplicativos deepfake como uma maneira de brincar com meu sobrinho, animando nossas conversas zoom fazendo com que ele parecesse que ele está fazendo coisas patetas.

Mas então comecei a me perguntar: o que estou ensinando a ele? Talvez seja uma lição de vida útil saber que até mesmo vídeos podem ser manipulados - mas ele também vai precisar aprender a descobrir no que deve confiar.

Aliev, do Avatarify, diz que quanto mais cedo todos aprenderem que os vídeos podem ser falsificados, melhor será. "Acho que a abordagem certa é fazer dessa tecnologia uma mercadoria como o Photoshop", disse ele.

Eticistas não têm tanta certeza.

"O que realmente me preocupa é o que você viu acontecer nos últimos anos, onde qualquer fato que seja inconveniente para um indivíduo, um CEO, um político, eles só têm que dizer que é 'falso'", diz Farid.

E correndo o risco de parecer óbvio: não queremos perder de vista o que é real. Algumas pessoas têm compartilhado nas redes sociais que reanimar os mortos com os vídeos de MyHeritage os fez chorar de alegria. Simpatizo com isso. D-ID diz que, em sua própria análise, apenas 5% dos tweets sobre o serviço foram negativos.

Mas quando tentei com a foto de um amigo que morreu há alguns anos, não me senti nada bem. Eu sabia que meu amigo não se movia assim, com o alcance limitado desses maneirismos gerados por computador.

“Eu realmente quero essas pessoas e essa tecnologia mexendo com minhas memórias?”, diz Johnson, o U-Va. Eticista. “Se eu quero fantasmas na minha vida, eu quero os reais.”

Deepfakes também são uma forma de engano que estamos usando em nós mesmos.

Deixar seu comentário

0
termos e condições.
  • Nenhum comentário encontrado

newsletter buton