Funcionário é quase enganado por áudio deepfake de suposto CEO
Prejuízo de golpes do gênero podem chegar a R$ 1,3 milhões; especialista em segurança cibernética afirma que o Brasil tem grande potencial para a disseminação da prática
Os criminosos virtuais estão aprimorando o uso de inteligência artificial para maior eficácia em seus golpes baseados em deepfake — técnica baseada em inteligência artificial que utiliza imagens ou sons humanos para produzir vídeos realistas. Desta vez, uma empresa que não quis se identificar por questões de segurança quase se tornou vítima após receber um suposto áudio do CEO da companhia, não fosse a desconfiança de um colaborador e uma perícia indicando a falsidade da mensagem de voz.
A história começou em junho, quando um dos funcionários da empresa recebeu uma mensagem de voz, cuja gravação alegava ser do CEO da companhia. O áudio solicitava “assistência imediata para finalizar um negócio urgente”. Desconfiado, ele contatou a companhia, que rapidamente acionou a Nisos, uma empresa de consultoria de segurança.
Após a perícia, constatou-se que se tratava de um áudio sintético. Dev Badlu, pesquisador da Nisos, apontou que haviam muitos picos e quedas no áudio, algo incomum em conversas regulares. “Parece que eles basicamente pegaram cada palavra, cortaram e colaram novamente”, conta Badlu.
O especialista também analisou que, ao reduzir a voz sintética, o som ambiente era “absurdamente silencioso” e não apresentava nenhum ruído, o que representa sinais claros de falsificação.
Outro pesquisador da Nisos, Rob Volkert, acredita que os criminosos estavam testando a tecnologia para observar a reação tomada pelos funcionários. Em tese, era apenas o primeiro passo para uma operação muito mais complexa que poderia acarretar em danos desastrosos.
No final de 2019, uma empresa alemã havia sido vítima de um áudio deepfake imitando a voz do CEO. Estima-se que a companhia teve um prejuízo de € 220 mil (aproximadamente R$ 1,3 milhões).
Deepfakes em ascenção
No começo do ano, a Securisoft, empresa especializada em segurança cibernética, já havia previsto o aumento de casos deepfake por conta do barateamento progressivo de machine learning e do amadurecimento do outsourcing de elementos criminosos.
O diretor da Securitsoft, Eduardo D’Antona, afirma que o Brasil tem um grande potencial para a disseminação da prática. “[O Brasil] é um dos países em que mais se aplica a fusão dos diversos canais digitais com o uso intensivo de engenharia social fortalecida com a automação robótica. Para aderir ao deepfake é apenas questão de um passo adiante”, alerta D’Antona.