Amazon quer que Alexa fale com as vozes de seus entes queridos mortos

Amazon quer que Alexa fale com as vozes de seus entes queridos mortos

A Amazon está fazendo a Alexa falar com a voz de um ente querido desaparecido e isso preocupa os especialistas em segurança.

Os alto-falantes conectados e seus assistentes digitais ativados por voz permitem uma quantidade impressionante de ação. O único limite parece ser a imaginação dos desenvolvedores. Se na maioria dos casos os novos recursos são muito úteis, alguns deles são um pouco mais questionáveis ​​ou pelo menos estranhos. Este é o caso da mais recente ideia da Amazon para seu assistente de voz Alexa, que permite que ele reproduza vozes .

Amazon faz Alexa falar com a voz de um ente querido desaparecido

Durante a conferência Amazon Re:Mars, o vice-presidente da Alexa, Rohit Prasad, mostrou uma nova capacidade do assistente digital assistido por voz da gigante americana: a capacidade de imitar a voz. Até o momento, não temos indicação de quando esse recurso estará disponível ou mesmo se algum dia se tornará popular.

Ironicamente, a Amazon introduziu esse novo recurso como uma forma de homenagear nossos entes queridos que partiram. Uma empresa dos EUA divulgou um vídeo de Alexa lendo a voz de sua avó recentemente falecida para uma criança. Rohit Prasad explicou que a empresa está procurando maneiras de tornar sua inteligência artificial o mais personalizada possível. “Embora a IA não consiga eliminar a dor da perda, ela pode estender a memória.” Um porta-voz da Amazon disse ao Engadget que essa nova habilidade pode criar uma impressão digital de voz sintética após apenas um minuto de prática com a voz da pessoa que deveria reproduzir.

e preocupa os especialistas em segurança

Os especialistas em segurança há muito expressam preocupação de que essas ferramentas de áudio, que usam tecnologias de conversão de texto em fala para criar vozes sintéticas, possam abrir caminho para novos tipos de fraude. O software de clonagem de voz já causou muitos danos, incluindo um incidente em 2020 nos Emirados Árabes Unidos, onde golpistas enganaram um gerente de banco para transferir US$ 35 milhões depois que ele se fez passar por gerente em voz alta. Dito isto, os crimes sonoros deepfake ainda não são generalizados e as ferramentas disponíveis ainda são relativamente simples.

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *