Criptomoedas

Deepfake em 2023: três principais cenários de ameaças e como proteger suas criptomoedas

Kaspersky analisa esquemas de fraude mais vistos e dá dicas de como se proteger desses golpes virtuais

28 MAI 2023 • POR Carlos Borges • 11h00
Foto: Reprodução (Freepik)

Com o aumento de 900% em um ano no número de vídeos utilizando deepfake on-line, muitos casos de fraudes com a técnica ganham as manchetes do noticiário, com relatos relacionados a assédio, vingança e golpes com criptomoedas.

Por conta do número elevado, pesquisadores da Kaspersky listaram os três principais esquemas de fraude que utilizam essas técnicas e como esses golpes são realizados, além de trazerem dicas para evitar o aumento de vítimas.

É importante considerar que os deepfakes são um tipo de fraude com um alto custo e que exige grande investimento, como visto em pesquisa anterior da Kaspersky sobre esses conteúdos vendidos na Darknet, com preços por minuto que podem começar em US$ 20 mil.

Se alguém que não possui conhecimentos em tecnologia encontrar um software na Internet e tentar criar esse tipo de material enganoso, o resultado será irreal e óbvio ao olho humano, pois as pessoas perceberão defasagens nas expressões faciais ou borrões no formato do queixo.

Além da estrutura financeira, os cibercriminosos precisarão de uma enorme quantidade de dados: fotos, vídeos e áudios da pessoa que desejam personificar, até diferentes ângulos e expressões faciais.

Tudo isso demanda uma enorme quantidade de recursos, disponíveis apenas para um pequeno número de golpistas. Com isso em mente, a Kaspersky separou três dos principais cenários de ameaças e como eles funcionam.

“Nem sempre o roubo de dados corporativos é a pior ameaça que os deepfakes representam para as empresas. Às vezes, os riscos à reputação podem ter consequências muito graves. Imagine se for publicado um vídeo em que seu executivo (aparentemente) faz declarações polarizadas sobre questões delicadas”, comenta Fabio Assolini, diretor da Equipe Global de Pesquisa e Análise para a América Latina da Kaspersky.

Fraude financeira

Os deepfakes podem ser usados para engenharia social, onde criminosos usam imagens avançadas para representar celebridades e atrair as vítimas para seus golpes. Por exemplo, um vídeo de Elon Musk criado artificialmente que prometia grande retorno de um esquema duvidoso de investimento em criptomoeda viralizou no ano passado, fazendo com que muitos usuários perdessem dinheiro.

Para criar vídeos como esse, os golpistas usam filmagens de celebridades ou juntam vídeos antigos e fazem streamings ao vivo em plataformas de mídias sociais, prometendo dobrar qualquer pagamento em criptomoeda enviado a eles.

Deepfakes de pornografia

Outro uso envolve a violação da privacidade da pessoa. Houve um caso em que surgiram vídeos falsos de celebridades que mostravam seus rostos sobrepostos a corpos de atrizes pornôs em cenas explícitas. Consequentemente, nesses casos, as vítimas dos ataques tiveram sua reputação prejudicada e seus direitos violados.

Riscos de negócios

Muitas vezes, os deepfakes são usados até para atingir empresas para crimes como extorsão dos administradores da empresa, chantagem e espionagem industrial. Por exemplo, há um caso conhecido em que cibercriminosos conseguiram enganar um gerente de banco nos Emirados Árabes Unidos e roubar US$ 35 milhões usando um falsificador de voz – apenas uma pequena gravação da voz do chefe do funcionário foi suficiente para produzir um deepfake convincente.

Em outro caso, o executivo do Binance ficou surpreso quando começou a receber mensagens de agradecimento referente a uma reunião no Zoom da qual não participou. Com suas imagens disponíveis publicamente, os criminosos conseguiram reproduzir a técnica e utilizá-la com êxito em uma reunião on-line, falando em nome do executivo.
 

"No caso de grandes corporações, isso pode causar um colapso imediato nos preços de ações. Porém, apesar do fato de que os riscos de uma ameaça desse tipo sejam extremamente altos, a chance de você sofrer um ataque dessa maneira continua sendo extremamente baixa devido ao custo de criação dessas mentiras e do fato de que poucos golpistas são capazes de criar deepfakes de alta qualidade", conclui Assolini.