Bizarrice
Americana quase cai em golpe do sequestro que usou a voz da filha dela clonada por inteligência artificial
A moradora do Arizona (EUA) recebeu uma ligação na qual a filha falava, chorava e gritava como se estivesse sendo sequestrada, mas era apenas uma voz criada por IA
Uma mãe que vive em Scottsdale, no Arizona (EUA), está alertando outros pais sobre um novo golpe por telefone que envolve inteligência artificial (IA): criminosos clonam a voz de um parente para simular sequestro.
Quem passou por esse problema da Era Digital é Jennifer DeStefano. Em entrevista à emissora local WKYT, a americana contou que recebeu uma ligação de um número desconhecido e quase deixou cair na caixa postal. No entanto, como a filha Brie, de 15 anos, estava fora da cidade esquiando, decidiu atender ao telefonema, temendo que fosse alguma emergência.
“Eu pego o telefone e ouço a voz da minha filha, e ela diz: ‘Mãe!’. Ela aparece chorando. Eu perguntei: ‘O que aconteceu?’. E ela disse: 'Mãe, eu errei'', soluçando e chorando”, conta Jennifer. Segundo ela, ainda na ligação, deu para ouvir a voz de um homem dizendo: “Coloque a cabeça para trás, deite-se”.
Logo essa confusão se transformou em terror para a mãe. “Esse homem pegou o telefone e disse: ‘Ouça aqui. Eu tenho sua filha. É assim que vai ser. Se você chamar a polícia ou qualquer um, vou deixá-la entupida de drogas. Vou fazer do meu jeito e deixá-la no México’”, lembrou Jennifer DeStefano à emissora. “E naquele momento, eu simplesmente comecei a tremer. No fundo, dava para ouvir ela dizendo: ‘Ajude-me, mãe. Por favor me ajude’”.
O suposto sequestrador que estava na ligação exigiu dinheiro, primeiro pedindo US$ 1 milhão (R$ 4,9 milhões), mas após a mãe dizer que não tinha recursos, reduziu o resgate para US$ 50.000 (R$ 245.000).
Segundo a WKYT, como Jennifer estava no estúdio de dança de sua outra filha, enquanto atendia à ligação, as mães preocupadas logo se prontificaram a ajudar. Uma ligou para a polícia e outra, para o pai de Brie.
Em apenas quatro minutos, conseguiram confirmar que a adolescente estava segura. “Ela estava em seu quarto e apenas disse: ‘O quê? O que está acontecendo?’. Claro que eu fiquei com raiva desses caras. Isso não é algo com o qual você brinca”, comenta Jennifer DeStefano à emissora.
Assim que percebeu que Brie estava segura, a americana desligou o telefone. Mas não havia dúvida para a mãe de que a voz na ligação de sua filha adolescente. “Claro que era a voz dela. Foi a entonação dela. Era assim que ela teria chorado. Nunca duvidei nem por um segundo que fosse ela. Essa é a parte esquisita que realmente me deixou preocupada”.
O problema é que a garota de 15 anos nunca disse nada disso. A voz usada pelos estelionatários era apenas um clone criado por inteligência artificial.
À WKYT, o professor Subbarao Kambhampati, do curso de Ciência da Computação da Universidade Estadual do Arizona, especializado em IA, lembra que a tecnologia de clonagem de voz está cada vez melhor. “Você não pode mais confiar em seus ouvidos”.
O especialista explica que, anteriormente, criar um áudio do zero precisava de um grande número de amostras da pessoa que estava sendo clonada. Hoje em dia, de acordo com Kambhampati, uma voz pode ser reproduzida com uma amostra de apenas três segundos.
“E com os três segundos, pode chegar perto de como exatamente você fala. A maior parte da clonagem de voz realmente captura a entonação, bem como a emoção”, diz o professor à emissora.
O agente especial Dan Mayo, do escritório do FBI (Polícia Federal dos EUA) em Phoenix, no Arizona, diz à WKYT que os golpistas que usam a tecnologia de clonagem de voz costumam encontrar suas vítimas nas redes sociais.
Para evitar ser vítima de golpes como esse, o agente sugere que se mantenha os perfis privados, fechados para o público em geral – visível apenas para amigos.
“Você tem que manter essas coisas fechadas. O problema é que, se você torna público, está permitindo que pessoas possa te enganar, porque vão procurar perfis públicos que tenham o máximo de informações possíveis e, quando conseguirem, vão usar contra você”, comenta Dan Mayo.