Em um experimento recente, o escritor do Vice.com, Joseph Cox, usou uma voz gerada por IA para burlar a segurança do Lloyds Bank e acessar sua conta.

Para conseguir isso, Cox usou um serviço gratuito da ElevenLabs , uma empresa de geração de voz de IA que fornece vozes para boletins informativos, livros e vídeos.

Cox gravou cinco minutos de fala e carregou no ElevenLabs. Depois de fazer alguns ajustes, como fazer com que a IA lesse um corpo de texto mais longo para obter uma cadência mais natural, o áudio gerado superou a segurança do Lloyds.

“Eu não conseguia acreditar que tinha funcionado”, escreveu Cox em seu artigo na Vice . “Eu usei uma réplica de voz com inteligência artificial para invadir uma conta bancária. Depois disso, acessei as informações da conta, incluindo saldos e uma lista de transações e transferências recentes.”

Vários bancos dos Estados Unidos e da Europa usam autenticação de voz para acelerar os logins por telefone. Embora alguns bancos afirmem que a identificação por voz é comparável a uma impressão digital, esse experimento demonstra que a segurança biométrica baseada em voz não oferece proteção perfeita.

LEIA TAMBÉM: Inteligência Artificial pode prever Alzheimer com quase 100 por cento de precisão

A ElevenLabs não comentou sobre o hack, apesar de vários pedidos, diz Cox. No entanto, em uma declaração anterior , o cofundador da empresa, Mati Staniszewski, disse que as novas salvaguardas reduzem o uso indevido e ajudam as autoridades a identificar aqueles que infringem a lei.

Prevenindo o uso indevido de voz AI

A tecnologia para neutralizar esse tipo de ataque, pelo menos em teoria, já está no mercado.

A ID R&D desenvolveu um sistema de autenticação biométrica multimodal que verifica passivamente múltiplas biometrias durante uma sessão de chat. Essa tecnologia foi projetada para garantir a autenticidade das conversas, garantindo que apenas pessoas genuínas e não bots estejam falando.

A Nuance Communications também está trabalhando para combater o uso indevido de voz de IA.

Brett Beranek, vice-presidente e gerente geral de segurança e biometria da Nuance, disse que os produtos de IA podem detectar fraudes nas conversas das pessoas durante as sessões de bate-papo ao vivo.

Ele analisa a escolha de palavras, precisão gramatical, convenções de sintaxe e emojis e acrônimos usados. Posteriormente, a IA compara esses elementos com os padrões dos clientes legítimos e com os de fraudadores conhecidos.

“Colocar essas modalidades de biometria com fatores não biométricos, como detecção de ambiente e forense de chamadas, e alimentar as saídas em um mecanismo de risco alimentado por IA permite que as organizações avaliem o risco de cada interação em tempo real”, disse Beranek.






Ter saber é ter saúde.