Criminosos clonam vítimas nas redes sociais para aplicar golpes
Estelionatários, depois de invadir contas em redes sociais, usam inteligência artificial (IA) para clonar traços e voz da vítima e publicar vídeos falsos a fim de aplicar novos golpes.
Os criminosos usam como isca investimentos com retornos financeiros incríveis ou venda de móveis a preços impraticáveis e certificam a oferta com a credibilidade da pessoa, cujo perfil fora roubado.
Essa tecnologia ficou conhecida nos últimos anos como deepfake e está mais acessível a cada dia com a popularização de IAs generativas, aquelas como o ChatGPT. Hoje, bastam cinco minutos de áudio para copiar uma voz com qualidade aceitável.
Foi assim que parte dos amigos de Fábio José, 31, transferiram dinheiro para uma conta fantasma no Instagram. Para isso, foram ludibriados a repassar valores à falsa assessora de investimento @jaqueline_.investimentos.
A reportagem conversou com a suposta agente e ouviu que a vítima do golpe havia pago pelos serviços, como indicava a propaganda feita com deepfake, o que foi contestado por José.
O caso não é único, no X (ex-Twitter), a Folha encontrou 12 queixas sobre situações semelhantes apenas no Brasil. Nos Estados Unidos, ganhou projeção um golpe que usou o rosto do influenciador mais popular do mundo, MrBeast, que reúne 201 milhões de inscritos em seu canal no YouTube.
O vídeo com um clone de James Stephen “Jimmy” Donaldson, o dono do canal MrBeast, oferecia iPhones 15 em troca de quantias irrisórias no TikTok. O que seria uma abordagem implausível, ganha em persuasão ao se considerar que o famoso distribui prêmios a quem supera desafios em seu canal.
Donaldson é conhecido por esbanjar em situações luxuosas e por ações filantrópicas. Seus vídeos são traduzidos para diversos idiomas para ter alcance aumentado.
Os criminosos usaram a fama do influenciador não só para criar lives no TikTok com deepfakes de MrBeast, como também produziram anúncios com o rosto dele, com promessa de US$ 500 (cerca de R$ 2.500) em troca de inscrição.
As inteligências artificiais geradoras de áudio e vídeo permitem levar os famosos golpes de email, conhecidos como phishing, ao vídeo e ao áudio, de forma verossímil, diz à Folha o pesquisador da empresa de cibersegurança Tenable, Satnam Narang.
Pesquisadores de cibersegurança afirmam que os criminosos podem simular um deepfake sem precisar recorrer à inteligência artificial, usando vídeos das pessoas fora de contexto. Daí, podem retirar um trecho como “investi tudo nisso” e publicá-lo para aplicar golpes.
O único jeito de se prevenir do risco de ser clonado na internet é restringir a circulação de imagens e áudios de si, de acordo com o fundador da empresa de cibersegurança Tempest, Licoln Mattos. Uma opção é tornar a conta privada e limitar a visualização de posts a amigos. A outra é evitar publicar.
A Folha apurou que Nubank, Bradesco e Itaú —três dos seis bancos do Brasil com mais clientes pessoas físicas— já receberam reclamações relacionadas aos golpes descritos na reportagem e adotam protocolos próprios para decidir em quais casos estornar os valores extorquidos de seus clientes no golpe.
Com outra forma de inteligência artificial, as instituições financeiras conseguem determinar contas com altas chances de envolvimento em golpes e enviar avisos de risco aos clientes. Ao fazer um pix para estranhos, esse é um sinal de alerta relevante.
Esses avisos podem chegar por WhatsApp, como é o caso da Bia do Bradesco, ou no próprio aplicativo, como faz o Nubank.
Também é possível contestar a transação e para isso é importante ter documentado passo a passo como foi o golpe. Pessoas com conhecimento sobre o assunto ouvidas pela Folha afirmam que nos casos em que o cliente escolhe ignorar o aviso de transação de risco é mais difícil receber reembolso da transferência.
Pessoas com conhecimento sobre a política interna de estorno afirmam que as instituições financeiras não divulgam os critérios avaliados para devolver o dinheiro por motivos de segurança.
Fonte: Banco Central (jul.23)
Os bancos também afirmam promover campanhas de conscientização sobre fraudes e recomendam que os clientes adicionem segurança em dois fatores para dificultar o roubo de conta.
Para evitar cair nesses golpes, as pessoas, além de desconfiar de ofertas boas demais para ser verdade, precisam se atentar também com quem se fala. Buscar entender se o comportamento do interlocutor é coerente ou, caso o golpista se passe por representante de uma instituição, se o canal é oficial.
A diretora de tecnologia do Bradesco, Cíntia Scovine Barcelos, diz à Folha que hoje é uma preocupação maior identificar as contas envolvidas em golpes que usam a IA, do que em terem seus sistemas burlados de forma direta com inteligência artificial.
“Hoje, o reconhecimento facial considera diversos fatores, como luz, movimento, detalhes da biometria, que ainda são difíceis de se ultrapassar com imagens geradas por computadores, capazes de enganar o olho humano”, diz.
Ainda assim, Barcelos afirma que o advento das inteligências artificiais representa um risco a segurança das instituições. “Ficou mais fácil escrever um código que encontre vulnerabilidades em um sistema com o auxílio do ChatGPT, do que era antigamente.”
Isso não só coloca novos atores no mercado do cibercrime, como também permite que os criminosos já estabelecidos aumentem o volume de ataques cibernéticos.
Fonte: Folha de . Paulo
Foto de ThisIsEngineering/Pexels