A velocidade com que a tecnologia avança é notável. O ChatGPT ganhou uso generalizado apenas alguns meses após seu lançamento. O seu desenvolvimento pode ter alguns resultados positivos, mas há motivo para preocupação quando se trata da aplicação inadequada de inteligência artificial em áreas como clonagem de voz e recuperação de imagem.
Mas, os criminosos estão empregando métodos de ataque cada vez mais sofisticados e aprimorados, com a tecnologia servindo como um facilitador para essa tendência. A Inteligência Artificial permite imitar o comportamento humano, e assim, os hackers estão começando a usá-la para imitar a voz das pessoas.
A premissa básica pode soar como o enredo de um filme de ficção científica ou programa de TV, mas na verdade descreve o mundo em que vivemos agora. Continue lendo e descubra como o ataque acontece e como se proteger dos cibercriminosos.
A Inteligência Artificial utilizada para dar golpes
Pessoas mais conhecidas pela mídia, principalmente pela sua voz, são os alvos mais comuns deste tipo de golpe. Mas, a Inteligência Artificial não passou despercebida por estes cibercriminosos. Assim, o golpe ocorre a partir do momento em que a IA é usada para clonar a voz de uma pessoa para se passar por ela.
A explicação é que vozes conhecidas, como a de um influenciador que publica vídeos no TikTok, são mais suscetíveis a tais ataques. O criminoso rouba um vídeo com a voz de uma pessoa, faz o download e usa ferramentas de manipulação de áudio para torná-lo soar como o de outra pessoa.
Este tipo de golpe também ocorre por ligações telefônicas, onde ligam oferecendo produtos, e com isso, vão gravando a voz da pessoa. Para depois utilizar para pedir dinheiro através de PIX, ou fazer a confirmação de empréstimos, com a voz e imagens coletadas na internet.
Ao gravar vozes, os golpistas podem utilizar a enunciação da voz da frase que desejam regravar com a enunciação da voz clonada e produzir áudio falso. Assim, as mensagens dirigem-se para pessoas que a vítima conhece e confia, como familiares e amigos.
Exemplificando:
Teve um caso em que os pais foram contatados para uma sessão de fotos de R$ 600,00. O pai transferiu os fundos ao mesmo tempo porque pensou que era seu filho que havia ligado.
Como se proteger dos golpes de PIX feitos pela IA
Como a ligação recria uma frase e a voz soa tão parecida com alguém que você conhece, é difícil acreditar que seja uma farsa. Mas é possível tentar evitar completamente: a recomendação é criar uma senha de segurança que só você, seus amigos e sua família sabem.
Então, se alguém entrar em contato com você pedindo dinheiro por transferência via PIX, você deve pedir sua palavra de segurança para ter certeza de que é realmente a pessoa que você acha ser. Afinal, todo cuidado é pouco, já que essa é uma tática comum usada por golpistas.