Um time de cientistas da computação da Universidade de Washington publicou neste mês (via Quartz) uma nova pesquisa que mostra os resultados de um experimento que conseguiu sintetizar um vídeo fotorealista de Barack Obama a partir de faixas de áudio antigas do o ex-presidente americano.

O projeto pode parecer meio confuso, mas utilizou uma rede neural para transformar mais de 17 horas de imagens e áudios de Obama em um modelo virtual da boca do ex-presidente, capaz de se movimentar exatamente como uma boca humana e de acordo com as palavras ditas por Obama no conteúdo armazenado. A “boca virtual” gerada foi aplicada sobre um vídeo com o rosto de Obama, que precisou apenas de alguns ajustes no áudio e imagens para combinar o discurso com a linguagem corporal de Obama.

O resultado pode ser visto no vídeo acima, que mostra como as imagens criadas artificialmente através do processo poderiam, tranquilamente, ser confundidas como algo real.

Na pesquisa, os cientistas indicam que o método poderia ser utilizado para a criação de personagens digitais realistas em filmes e jogos, mas também para criação de modelos virtuais de bocas que poderiam ajudar pessoas com deficiência auditiva a acompanhar uma conversa pelo telefone, por exemplo.

Uma aplicação mais preocupante da tecnologia, no entanto, pode ser para a criação de vídeos falsos, em que pessoas reais poderiam aparecer afirmando coisas que nunca disseram. Já que, na prática, bastaria a coleta de clipes de áudio de uma pessoa para a “construção” de frases falsas, que, em seguida, poderiam ser transformadas em vídeos fotorealistas.

A boa notícia é que isso ainda deve demorar para acontecer, já que a tecnologia ainda exige “várias horas” de clipes de áudio de uma pessoa para poder sintetizar uma boca convincente.