menu
19 de Setembro de 2024
facebook instagram whatsapp
lupa
menu
19 de Setembro de 2024
facebook instagram whatsapp
lupa
fechar

ECONOMIA Quarta-feira, 18 de Setembro de 2024, 14:34 - A | A

Quarta-feira, 18 de Setembro de 2024, 14h:34 - A | A

BANCO FAZ ALERTA

Milhões de pessoas podem ser alvos de golpes de clonagem de voz por IA

Esses tipos de golpes têm o potencial de “pegar milhões de pessoas”, disse o Starling Bank em um comunicado à imprensa na quarta-feira (18)

CNN

 

“Milhões” de pessoas podem ser vítimas de golpes que usam inteligência artificial para clonar suas vozes, alertou um banco do Reino Unido.

O Starling Bank, um credor somente online, disse que os fraudadores são capazes de usar IA para replicar a voz de uma pessoa a partir de apenas três segundos de áudio encontrados, por exemplo, em um vídeo que a pessoa postou online. Os golpistas podem então identificar os amigos e familiares da pessoa e usar a voz clonada por IA para encenar uma ligação telefônica para pedir dinheiro.

Esses tipos de golpes têm o potencial de “pegar milhões de pessoas”, disse o Starling Bank em um comunicado à imprensa na quarta-feira (18).

Eles já afetaram centenas. De acordo com uma pesquisa com mais de 3.000 adultos que o banco conduziu com a Mortar Research no mês passado, mais de um quarto dos entrevistados disseram que foram alvos de um golpe de clonagem de voz por IA nos últimos 12 meses.

A pesquisa também mostrou que 46% dos entrevistados não sabiam que tais golpes existiam e que 8% enviariam tanto dinheiro quanto fosse solicitado por um amigo ou familiar, mesmo que achassem a ligação estranha.

“As pessoas postam regularmente conteúdo online com gravações de suas vozes, sem nunca imaginar que isso as torna mais vulneráveis ​​a fraudadores”, disse Lisa Grahame, diretora de segurança da informação do Starling Bank, no comunicado à imprensa.

O banco está incentivando as pessoas a concordarem com uma “frase segura” com seus entes queridos — uma frase simples, aleatória, fácil de lembrar e diferente de outras senhas — que pode ser usada para verificar sua identidade por telefone.

O credor recomenda não compartilhar a frase segura por mensagem de texto, o que pode facilitar a descoberta por golpistas, mas, se compartilhada dessa forma, a mensagem deve ser apagada assim que a outra pessoa a vir.

À medida que a IA se torna cada vez mais hábil em imitar vozes humanas, aumentam as preocupações sobre seu potencial de prejudicar as pessoas, por exemplo, ajudando criminosos a acessar suas contas bancárias e espalhar informações incorretas.

No início deste ano, a OpenAI, criadora do chatbot de IA generativa ChatGPT, revelou sua ferramenta de replicação de voz , Voice Engine, mas não a disponibilizou ao público naquele momento, citando o “potencial de uso indevido de voz sintética”.

 

 
 
 

> Click aqui e receba notícias em primeira mão.


Comente esta notícia