Em um experimento recente, o escritor do Vice.com, Joseph Cox, usou uma voz gerada por IA para burlar a segurança do Lloyds Bank e acessar sua conta.
Para conseguir isso, Cox usou um serviço gratuito da ElevenLabs , uma empresa de geração de voz de IA que fornece vozes para boletins informativos, livros e vídeos.
Cox gravou cinco minutos de fala e carregou no ElevenLabs. Depois de fazer alguns ajustes, como fazer com que a IA lesse um corpo de texto mais longo para obter uma cadência mais natural, o áudio gerado superou a segurança do Lloyds.
“Eu não conseguia acreditar que tinha funcionado”, escreveu Cox em seu artigo na Vice . “Eu usei uma réplica de voz com inteligência artificial para invadir uma conta bancária. Depois disso, acessei as informações da conta, incluindo saldos e uma lista de transações e transferências recentes.”
Vários bancos dos Estados Unidos e da Europa usam autenticação de voz para acelerar os logins por telefone. Embora alguns bancos afirmem que a identificação por voz é comparável a uma impressão digital, esse experimento demonstra que a segurança biométrica baseada em voz não oferece proteção perfeita.
LEIA TAMBÉM: Inteligência Artificial pode prever Alzheimer com quase 100 por cento de precisão
A ElevenLabs não comentou sobre o hack, apesar de vários pedidos, diz Cox. No entanto, em uma declaração anterior , o cofundador da empresa, Mati Staniszewski, disse que as novas salvaguardas reduzem o uso indevido e ajudam as autoridades a identificar aqueles que infringem a lei.
Prevenindo o uso indevido de voz AI
A tecnologia para neutralizar esse tipo de ataque, pelo menos em teoria, já está no mercado.
A ID R&D desenvolveu um sistema de autenticação biométrica multimodal que verifica passivamente múltiplas biometrias durante uma sessão de chat. Essa tecnologia foi projetada para garantir a autenticidade das conversas, garantindo que apenas pessoas genuínas e não bots estejam falando.
A Nuance Communications também está trabalhando para combater o uso indevido de voz de IA.
Brett Beranek, vice-presidente e gerente geral de segurança e biometria da Nuance, disse que os produtos de IA podem detectar fraudes nas conversas das pessoas durante as sessões de bate-papo ao vivo.
Ele analisa a escolha de palavras, precisão gramatical, convenções de sintaxe e emojis e acrônimos usados. Posteriormente, a IA compara esses elementos com os padrões dos clientes legítimos e com os de fraudadores conhecidos.
“Colocar essas modalidades de biometria com fatores não biométricos, como detecção de ambiente e forense de chamadas, e alimentar as saídas em um mecanismo de risco alimentado por IA permite que as organizações avaliem o risco de cada interação em tempo real”, disse Beranek.