Notícias recentes não deixam a menor dúvida: as tecnologias de mídia sintética estão avançando rapidamente, tornando muito fácil gerar mídia não-verídica com aparência e som cada vez mais realistas. Agora qualquer pessoa com um smartphone pode fazer deepfakes. E embora o lado ruim da tecnologia tenha sobressaído, até aqui, empresas começam a descobrir usos benéficos para ela.
Sim, existem exemplos positivos de deepfakes. Na Educação, por exemplo, a mídia sintética gerada por IA pode trazer figuras históricas de volta à vida, como tem acontecido nos museus, para proporcionar uma sala de aula mais envolvente e interativa. A Synthesia está trabalhando com uma série de clientes em todos os setores para remodelar a forma como as organizações treinam seus colaboradores, disseminam informações e muito mais.
Na publicidade, a tecnologia vem ajudando as marcas a tornar as experiências de compra mais personalizadas, divertidas e atraentes para os clientes. Vem até mesmo possibilitando a redução dos custos de produção de campanhas. A empresa israelense Canny AI é uma das várias que utiliza a tecnologia para criar edições do mesmo vídeo em diferentes idiomas, de forma automática, sem a necessidade de regravação.
A Rosebud AI, por exemplo, é especializada em fazer imagens brilhantes usadas em comércio eletrônico ou no marketing. Em 2019, a empresa lançou uma coleção de 25.000 fotos de modelagem de pessoas que nunca existiram, junto com ferramentas que podem trocar rostos sintéticos em qualquer foto. Mais recentemente, lançou um serviço que pode colocar roupas fotografadas em manequins em modelos virtuais, mas com aparência real.
Aqui no Brasil, a Omnilogic está trabalhando em protótipos de síntese neural de voz para módulos conversacionais aplicáveis a sites de e-commerce. “Nossa ideia é criar vozes humanas, aparentemente reais, que possam gerar um vínculo emocional com os clientes em diálogos fluidos, sem fricção, ainda que em uma interação homem/máquina”, explica Sinval Nascimento, fundador e CEO da companhia.
Desenvolver personas interativas que possam se envolver em comunicação bidirecional é muito mais difícil que produzir um deepfake simples ou uma persona estática programada para dar um conjunto limitado de respostas. Mas a quantidade de empresas interessadas em criar experiências valiosas (e confiáveis) com personagens digitais tem crescido. A emissora sul coreana MBN, por exemplo, tem usado uma versão deepfake de sua principal âncora em boletins extraordinários, para notícias urgentes.
Na sétima arte, para demonstrar as possibilidades de uso das deepfakes nos sets, a Collider Video apresentou em 2019 uma Deepfake Roundatble que imaginava uma conversa entre versões falsas de George Lucas, Robert Downey Jr, Tom Cruise, Ewan McGregor e Jeff Goldblum, moderada pela personalidade frequente da Collider Video, Mark Ellis.
Na opinião do CEO da Synthesia, Victor Riparbelli, as empresas não poderão contar com o fator novidade por muito mais tempo. Então, convém já começar a olhar mais para aas possibilidades positivas que a tecnologia oferece.
“O conteúdo de vídeo sintético é apenas uma evolução do que vimos em avanços de mídia e tecnologia nos últimos 200 anos. Cada tipo de mídia se torna cada vez mais fácil de fazer”, diz ele.
O foco principal da Synthesia está na arena de vídeos corporativos. Uma área que Riparbelli diz estar madura para a tecnologia, sendo cada vez mais necessária nos dias de hoje, embora cada vez mais cara e demorada de ser produzida usando métodos tradicionais.
“Até mesmo fazer uma simples gravação de vídeo corporativo pode facilmente custar US $ 5 mil e exigir muito tempo e gerenciamento de projeto. Com nossa tecnologia o custo fica na faixa entre US $ 2 mil a US $ 3 mil por vídeo”, afirma.
Quanto mais sofisticada for a tecnologia, mais amplo será o escopo de suas aplicações. Mas mais cuidados serão necessários no seu uso. Apesar de o uso da tecnologia oferecer imensos benefícios sociais e comerciais, as empresas também precisam estar preparadas para desenvolver e executar estratégias de mitigação de riscos. Sem os cuidados necessários, a mesma tecnologia utilizada para aumentar o engajamento pode e será usada para desinformar. Segurança é um dos principais desafios para o uso corporativo dos deefakes.
As mídias sintéticas podem prejudicar quem for impactado por eles, ao enganar ou intimidar; prejudicar os sujeitos causando danos à reputação; e prejudicar a sociedade minando os valores sociais, como a confiança nas instituições. Razão pela qual não devemos poupar esforços para reduzir efeitos nocivos. Uma forma de fazer isso é deixar claro o uso da mídia sintética e do que ela é capaz. O desenvolvimento de técnicas de identificação também vem sendo encorajada como um antídoto poderoso.
Uma forma de proteger personas digitais de ameaças de hacking, por exemplo, é o uso de marcas d’água digitais. Pesquisadores da Universidade de Nova York estão desenvolvendo uma técnica de marca d’água digital que usa redes neurais para autenticar a integridade da imagem. A marca d’água é quebrada se houver qualquer tentativa de alteração. O que funciona bem para vídeos, mas não tanto para áudios.
Outra técnica para identificação de deepfakes de vídeo acaba de ser anunciada por cientistas da computação da Universidade de Buffalo. Em mais um exemplo de IA combatendo a IA, eles criaram um algoritmo, o deepfake-spotting, que analisa reflexos nos olhos das personas para determinar sua autenticidade. A ferramenta provou ser 94% eficaz na identificação de imagens falsas. Para conduzir os experimentos, a equipe de pesquisa obteve imagens reais do Flickr Faces-HQ, bem como imagens falsas de um repositório de rostos gerados por IA
Mas tudo fica mais difícil para os casos de áudio sintético, de alta demanda e ROI imediato. Não é preciso ir muito longe para encontrar falsificações de áudio surpreendentemente convincentes. O canal do YouTube Vocal Synthesis apresenta pessoas conhecidas dizendo coisas que nunca disseram. Alguns dos principais players desse marcado decidiram impor limites éticos ao uso da tecnologia. Mas infelizmente, sabemos que isso não é suficiente.
O uso impróprio tem crescido exponencialmente. Na semana passada, parlamentares holandeses, assim como seus colegas britânicos e bálticos, conversaram via Zoom com uma versão falsa do chefe de gabinete do líder da oposição russa Alexei Navalny. Não por acaso, o FBI chegou a emitir um alerta em março sobre a possibilidade de uso de deepfakes por governos para ajudar a propagar campanhas enganosas nos EUA nas semanas seguintes.
Nesse exato momento, o mundo anda alarmado com a possibilidade do uso inapropriado de deepfakes geográficas. A disseminação de falsas imagens de satélite geradas por IA pode ajudar a fraudar narrativas em vários setores. E a Cartography and Geographic Information Science levantou inclusive a possibilidade de uso de deepfakes para a criação de falsos mapas de cidades. Por outro lado, a equipe de pesquisadores infere que a possibilidade de uso dessa técnica também pode ser aproveitada para avanços científicos.
Existem agora milhares de vídeos deepfake online, de acordo com a startup Deeptrace. Eles criam um campo de distorção da realidade que ameaça adversamente a política, os negócios e a percepção da história, e podem até ser usados em aplicações militares.
Chegou a hora de pensar em pesos e contrapesos que possam contribuir para o uso positivo da tecnologia. Até porque, a produção de deepfakes, de áudio e vídeo, vem se tornando mais simples a cada dia.
A criação desses deepfakes realistas, para uso por corporações em seus negócios, ainda requer conhecimento e hardware significativos. Mas nos últimos dois anos temos assistido a uma verdadeira democratização na oferta de ferramentas capazes de criar mídia sintética sem a necessidade do desenvolvimento de habilidades especiais ou de acesso a poder de computação.
O que tem levado ao surgimento de aplicativos deepfake, disponíveis via Web ou smartphone, a partir dos quais qualquer pessoa pode criar deepfakes que trocam com precisão o rosto de uma celebridade ou recriam os movimentos faciais de um usuário em um vídeo de outra pessoa.
Entre eles estão o Jiggy, que gera GIFs do usuário fazendo diferentes danças com base em uma única foto de seu corpo, e o Avatarify, que permite controlaar o rosto de outra pessoa, como se elaa fosse uma espécie de fantoche. Há ainda o Reface, que permite mapear seu próprio rosto em um clipe de uma celebridade.
O Avatarify não faz vídeos tão sofisticados quanto falsificações profissionais de Tom Cruise – mas foi baixado mais de 6 milhões de vezes desde fevereiro. Os fundadores dizem que 140 milhões de vídeos deepfake foram criados com o auxílio do app só este ano. Existem agora 125 milhões de visualizações de vídeos com a hashtag #avatarify no TikTok. Mas o seu uso inapropriado já provocou uma prisão nos Estados Unidos.
Um pouco mais tosco, o Wombo, que transforma uma foto direta em um vídeo de música engraçado com sincronização labial, gerou 100 milhões de clipes apenas nas duas primeiras semanas depois do lançamento nas lojas de aplicativos da Google e da Apple.
Snapchat, Mug Life e Xpression, completam a lista dos mais conhecidos nas plataformas móveis.
Já na Web, um dos maais conhceidos é o Deepfakes web β, que utiliza Deep Learning para absorver as várias complexidades dos dados faciais. Seu uso é pago: US $ 2. Valor considerável imaginaando que ele pode levar até 4 horas para aprender e treinar o modelo a partir de vídeo e imagens fornecidas pelo usuário, e 30 minutos para trocar faces usando o modelo treinado.
E se você quiser experimentar algo mais sofisticado, o DeepFaceLab, disponível para Windows, pode ser uma boa opção, embora exija habilidades técnicas mais aprimoradas.
Uma legenda não especifica tudo o que está contido em uma imagem, portanto, é necessário que um modelo se baseie em muito bom senso sobre o mundo para preencher os detalhes
Enquanto as técnicas para criar vídeos falsos melhoram, pesquisadores se empenham para criar detectores de deepfakes com Inteligência Artificial
Eles estão cumprindo um papel fundamental agora que a leis de privacidade e proteção de dados tornaram ainda mais difícil o uso de dados reais para treinamento de modelos de IA
Aproveite nossas promoções de renovação
Clique aquiPara continuar navegando como visitante, vá por aqui.
Cadastre-se grátis, leia até 5 conteúdos por mês,
e receba nossa newsletter diária.
Já recebe a newsletter? Ative seu acesso