- Update or Die!
- Posts
- A evolução dos Deepfakes
A evolução dos Deepfakes
Os deepfakes são vídeos criados a partir de uma tecnologia que usa inteligência artificial (IA) para atribuir falas e outras ações de pessoas que na realidade nunca fizeram nada disso na vida real. Inicialmente criados como conteúdo pornográfico, o termo surgiu por um usuário do Reddit em 2017 ao utilizar rostos de celebridades em vídeos já existentes fazendo parecer que elas mesmas estavam presentes, agora o uso dessa tecnologia aparenta ser ainda mais real. E pior: está cada vez mais fácil gerar esse tipo de conteúdo, de forma gradualmente mais simples e barata.
O uso voltado a comunicaçãoAlgumas aplicações da tecnologia são feitas de forma branda, como foi o caso da Samsung Moscou. O sistema usado pela empresa nesse caso, basicamente, mapeia as expressões faciais a fim de captar as nuances dos movimentos e assim aplicar a outro quadro, foto ou vídeo.
Outro uso benéfico da tecnologia, porém com outra aplicabilidade, são os MEMOJI da Apple: emojis customizáveis que utilizam uma leitura facial para a personalização de ícones, dando mais personalidade a cada um deles.Existe também a possibilidade do cinema e a indústria audiovisual, no caso de produtores de conteúdo independentes com baixos orçamentos, passarem a ter acesso a tecnologia por um custo mais acessível.
Futuras aplicaçõesSe pensarmos em como essa tecnologia poderá ser usada no futuro, seu potencial destrutivo se mostra extremamente preocupante. Em termos políticos, já existem casos onde os deepfakes foram utilizados: em maio de 2018 um partido político belga criou um vídeo do presidente Donald Trump que viralizou nas redes sociais.
Trump heeft een boodschap voor alle Belgen... #Klimaatpetitie
— Vooruit (@vooruit_nu)
6:35 AM • May 20, 2018
Em tempos em que fakenews influenciam campanhas políticas nas eleições de diversos países e muitos representantes eleitos utilizam estratégias como firehosing (estrutura de comunicação que dissemina notícias falsas nas redes sociais), as deepfakes estão sendo aprimoradas em um contexto preocupante pela dificuldade que é analisá-las. Por exemplo: Se um político se arrepender de algo dito, ele pode alegar utilização de tecnologia na replicação do registro, ou ainda causar conflitos geopolíticos em locais com acesso mais escasso a internet. Entretanto, apesar da melhora de alguns usos dessa tecnologia, alguns ainda podem ser ‘desmascarados’: verificar os olhos para checar se eles estão piscando é um deles, já que alguns algoritmos utilizados não reproduzem muito bem esse aspecto (assim como a respiração da pessoa retratada).Cabe as agências de jornalismo especializadas se atentarem de forma cada vez mais precisa a todas as notícias divulgadas, e aos leitores uma visão ainda mais crítica acerca de todo conteúdo consumido.
Updater: Estevan Sanches
Reply