s
SEGURANÇA

Do Deepfake ao ChatGPT: como a IA impulsiona fraudes e golpes

Foi-se a época em que a ortografia e a gramática inadequadas eram indicadores de um possível golpe. Há necessidade urgente de soluções inovadoras.

Por Cassiano Cavalcanti * 17/05/2024

A cada dia que passa, a sofisticação das fraudes digitais surpreende pela criatividade empregada pelos criminosos. Além da constante evolução em suas metodologias, eles demonstram dedicação e velocidade na adoção de novas tecnologias, como FraudGPT, representando um desafio significativo para as equipes de segurança. O cenário é agravado pelo rápido avanço de tecnologias, como a inteligência artificial generativa, que possibilita a criação de imitações quase perfeitas de pessoas e organizações. Esta conjunção de fatores indica uma iminente evolução dos golpes, tornando a detecção de fraudes sem o auxílio de tecnologia avançada praticamente impossível.

A criatividade persistente dos golpistas, embora tenha uma metodologia relativamente simples, continua a se aprimorar. Os golpes, variando de falsificação de identidade bancária a investimentos fictícios, golpes românticos e falsos suportes técnicos, são cada vez mais diversificados. O objetivo central continua sendo enganar as pessoas para obtenção de dinheiro, informações pessoais ou outros ativos digitais. Essa diversificação e constante inovação nas técnicas ressaltam a urgência de medidas eficazes de segurança para enfrentar as ameaças crescentes.

Segundo uma pesquisa publicada pela Gartner no começo deste ano, a previsão é que, com o aumento dos ataques que utilizam deepfake gerados por IA para burlar a biometria facial, até 2026 cerca de 30% das empresas deixarão de considerar tais soluções de verificação e autenticação de identidade confiáveis isoladamente. “Na última década, ocorreram vários pontos de inflexão nos campos da IA que permitem a criação de imagens sintéticas. Essas imagens geradas artificialmente de rostos de pessoas reais podem ser usadas por pessoas mal-intencionadas para minar a autenticação biométrica ou torná-la ineficiente”, pontua Akif Khan, analista vice-presidente do Gartner. Ele explica que as organizações podem começar a questionar a confiabilidade das soluções de verificação e autenticação de identidade “pois não serão capazes de dizer se o rosto da pessoa que está sendo verificada é uma pessoa viva ou um deepfake.”

Mudanças no setor

Se até recentemente, um consumidor mais atento podia captar pistas de que estava frente a frente com algum tipo de fraude, à medida que os avanços tecnológicos ocorrem, os criminosos cibernéticos passam a ter à sua disposição novas formas de manipular as vítimas – especificamente, com a utilização de deepfakes e grandes modelos de linguagem (Large Language Models ou LLMs), que podem criar conteúdos falsos super realistas e que são difíceis de distinguir de atividades legítimas ou reais. Foi-se a época em que a ortografia e a gramática inadequadas eram indicadores de um possível golpe, já que os LLMs como o ChatGPT podem ajudar a criar e-mails e mensagens de texto sem erros.

  • Deepfake é uma técnica que utiliza a inteligência artificial para manipular imagens, vídeos ou áudios de pessoas reais. A técnica, por exemplo, pode ser utilizada para criar notícias, entrevistas, endossos ou evidências - tudo falso! Já existem muitos exemplos convincentes de deepfakes online, com as imagens de celebridades ou de políticos.
  • Grandes modelos de linguagem (LLMs) são sistemas que utilizam IA para gerar textos em linguagem natural, com base em uma entrada ou prompt, basicamente produzindo um conteúdo coerente e fluido, imitando o estilo, tom ou informação de uma pessoa ou gênero específico. Por exemplo, LLMs podem ser usados para criar chatbots, avaliações, postagens, perfis ou e-mails falsos, além de gerar imagens e até mesmo vídeos.

É a combinação dessas duas técnicas que se tornará um divisor de águas no mundo das fraudes, pois possibilitam golpes mais convincentes e personalizados, e que podem atingir indivíduos ou grupos vulneráveis específicos com comunicações que são virtualmente indistinguíveis de comunicações legítimas.

A hora de agir é agora!

Frente a isso, há uma necessidade urgente de soluções inovadoras que possam ajudar consumidores e empresas a combater a ameaça conjunta de deepfakes e LLMs. Ao combinar os esforços das partes interessadas, a capacidade de identificar futuras ameaças fraudulentas será maximizada. Felizmente, as instituições financeiras e outras organizações podem implementar ou apoiar a disponibilização de tecnologias que já estão no mercado:

  • Indicadores para o consumidor: dicas que podem ajudar os consumidores a discernir quando algo é uma fraude, usando marcas d'água, carimbos de data e hora, rótulos, avisos ou classificações que podem sinalizar a fonte, autenticidade ou confiabilidade do conteúdo, além de ferramentas ou aplicativos que possibilitem pesquisa reversa de imagens, sites de verificação de fatos ou software de detecção de deepfake;
  • Biometria comportamental: ao analisar padrões de comportamento humano, como movimentos do mouse, velocidade de digitação ou pressão em telas sensíveis ao toque, a biometria comportamental pode ser usada para detectar ou prevenir atividades suspeitas, bem como para detectar atividade de contas laranja – um componente crucial para monetizar fraudes – mesmo que seja um participante voluntário;
  • Biometria por voz: essa pode ser uma ferramenta eficaz para rastrear deepfakes de áudio, identificando discrepâncias nas características vocais que não correspondem à voz do locutor original. Essa análise pode ser fundamental para a detecção de fraudes ou golpes que utilizam áudios falsos para obter informações sensíveis.

Os cibercrimes já são um problema dispendioso para os consumidores e para as instituições financeiras e deverão tornar-se ainda mais sofisticadas e desafiadores. Por isso toda a comunidade precisa estar mais consciente e vigilante, e adotar uma postura de trabalho colaborativa, em busca de uma combinação de soluções inovadoras que ajudem a detectar e prevenir estas atividades ilegais.

É inevitável que a tecnologia seja utilizada em ilegalidades, mas os resultados maliciosos discutidos aqui podem ser combatidos de forma eficiente. Felizmente, já possuímos as ferramentas necessárias para evitar que os consumidores sejam sobrecarregados com fraudes e golpes indistinguíveis de contatos e conexões reais. Vivemos um momento único da evolução tecnológica, em que temos a oportunidade e as ferramentas para nos antecipar frente às ameaças. Nós, como comunidade de combatentes à fraude, não podemos e não iremos desperdiçar essa chance.


(*) Cassiano Cavalcanti é especialista em prevenção de fraudes e cibersegurança, e diretor de pré-vendas da BioCatch na América Latina.

Este é um conteúdo exclusivo para assinantes.

Cadastre-se grátis para ler agora
e acesse 5 conteúdos por mês.

É assinante ou já tem senha? Faça login. Já recebe a newsletter? Ative seu acesso.

Do Deepfake ao ChatGPT: como a IA impulsiona fraudes e golpes

Segurança

Do Deepfake ao ChatGPT: como a IA impulsiona fraudes e golpes

Foi-se a época em que a ortografia e a gramática inadequadas eram indicadores de um possível golpe. Há necessidade urgente de soluções inovadoras.

Por Cassiano Cavalcanti *
Não adianta trancar a porta e deixar a janela aberta

Segurança

Não adianta trancar a porta e deixar a janela aberta

Vulnerabilidades conhecidas desempenharam um papel importante nos ataques de 2022

Redes blockchain são seguras?

Segurança

Redes blockchain são seguras?

A tecnologia blockchain foi construída em torno das ideias de consenso, descentralização e criptografia de modo a garantir confiança nas transações. Mas esta é uma cláusula pétrea? Sem ameaças, riscos ou imperfeições?

Cresce a

Segurança

Cresce a "tecnologia hostil" em 2023

A natureza das ameaças cibernéticas está mudando e os métodos tradicionais para prevenir ataques estão falhando rotineiramente. As empresas vão precisar ampliar seu escopo de segurança para proteger os consumidores e minimizar o pote...

A cibersegurança chegou ao board, mas falta trazer o CISO

Segurança

A cibersegurança chegou ao board, mas falta trazer o CISO

Pesquisa com 600 membros de conselhos administrativos de empresas globais mostra que o Brasil é o país que menos conecta responsáveis pela segurança digital com a gestão.

Brasil estagna no ranking de competitividade digital

Segurança

Brasil estagna no ranking de competitividade digital

O país se manteve na posição 51 no IMD World Digital Competitiveness Ranking 2021, que mede indicadores de conhecimento, tecnologia e prontidão futura.

Por Marina Hortélio