A clonagem de vozes por inteligência artificial (IA) não é novidade, inclusive, alguns softwares já permitem gravar áudios a partir de segundos de fala e estão sendo usados para pegadinhas entre amigos. Mas, a brincadeira pode se tornar perigosa, pois criminosos estão utilizando a ferramenta para aplicar golpes.
Recentemente, a influenciadora digital Mia Dio disse ter descoberto uma traição do namorado usando IA (inteligência artificial). A jovem norte-americana de 22 anos foi apelidada de “gênio” por usuários no TikTok, onde acumula 5,2 milhões de seguidores.
Em vídeo, Mia contou que o namorado estava agindo de forma suspeita, então ela decidiu usar a tecnologia para “clonar” sua voz e ligar para um amigo dele — que confirmou que o rapaz teria beijado outra pessoa. No entanto, tudo não passou de uma brincadeira.
Segundo o Daily Mail, a jovem afirmou que o namorado e o amigo estavam envolvidos no plano desde o início. Ela ainda acrescentou que queria compartilhar o truque para qualquer um que não tivesse certeza sobre o comportamento de seu parceiro.
O vídeo já acumula 2,7 milhões de visualizações e quase 320 mil curtidas. Nos comentários, os seguidores elogiaram a influenciadora: “Garota, você inteligente. Você merece algo melhor!”, disse um.
“Comecei a pensar em cenários da minha própria vida em que uma imitação de voz de IA teria sido útil. Pensei em um ex que havia me traído e como esse tipo de tecnologia teria me poupado muito tempo. Decidimos tentar com a voz dele e ficamos chocados com a proximidade dos resultados – e tivemos a ideia do vídeo fictício da pegadinha juntos”, disse.
Ainda ao tabloide britânico, Mia afirmou ter usado um software chamado ElevenLabs, que custou cerca de US$ 4 (aproximadamente R$ 19,60).
Como é possível copiar a voz de alguém?
As ferramentas mais avançadas exigem conhecimentos de programação, não sendo acessíveis para todos. No entanto, não é difícil encontrar serviços com esta finalidade na internet.
Para fazer essa cópia, pode-se usar a tecnologia do tipo deepfake, em que é possível manipular áudios e simular determinadas vozes, dificultando a distinção se aquela voz é realmente da pessoa.
Quanto melhor a qualidade do áudio de voz e a duração dele, melhor o resultado. Então, a inteligência artificial é usada para aprender com esse áudio e gerar novos arquivos com a voz clonada.
Cuidado com golpes
Desconfie de mensagens com caráter de urgência. Golpistas usam situações emergenciais, como problemas de crédito, situações com parentes, para convencer mais rápido as vítimas.
Use palavras-chave, ou pelo menos faça perguntas pessoais como o nome do primeiro animal de estimação ou a cor do primeiro carro.
Faça chamada de vídeo antes de fazer qualquer tipo de transferência em dinheiro, por exemplo.
Fontes: Rodrigo Aquino, coordenador do Curso de Engenharia de Computação da ESEG- Faculdade do Grupo Etapa. Euclides Lourenço Chuma, do Instituto dos Engenheiros Elétricos e Eletrônicos (IEEE) e pesquisador da Universidade de Linköping, na Suécia. Carlos Cabral, pesquisador da Tempest, empresa especializada em cibersegurança.
*Com reportagem publicada em 12/05/2023