Amazon vuole che Alexa parli con le voci dei tuoi cari morti

Amazon vuole che Alexa parli con le voci dei tuoi cari morti

Amazon sta facendo parlare Alexa con la voce di una persona cara scomparsa e questo preoccupa gli esperti di sicurezza.

Gli altoparlanti collegati e i relativi assistenti digitali ad attivazione vocale consentono una quantità impressionante di azione. L’unico limite sembra essere la fantasia degli sviluppatori. Se nella maggior parte dei casi le nuove funzionalità sono molto utili, allora alcune di esse sono un po’ più discutibili o almeno strane. Questo è un caso dell’ultima idea di Amazon per il suo assistente vocale Alexa, che vuole fargli riprodurre le voci .

Amazon fa parlare Alexa con la voce di una persona cara scomparsa

Durante la conferenza Amazon Re:Mars, il vicepresidente di Alexa Rohit Prasad ha mostrato una nuovissima capacità dell’assistente digitale assistito dal colosso americano: la capacità di imitare la voce. Finora, non abbiamo indicazioni su quando questa funzione sarà disponibile, o anche se diventerà mai popolare.

Ironia della sorte, Amazon ha introdotto questa nuova funzionalità come un modo per onorare i nostri cari defunti. Un’azienda statunitense ha pubblicato un video di Alexa che legge a un bambino la voce della nonna recentemente deceduta. Rohit Prasad ha spiegato che l’azienda sta cercando modi per rendere la sua intelligenza artificiale il più personalizzata possibile. “Sebbene l’intelligenza artificiale non possa eliminare il dolore della perdita, può estendere la memoria”. Un portavoce di Amazon ha detto a Engadget che questa nuova abilità può creare un’impronta vocale sintetica dopo solo un minuto di pratica con la voce della persona che dovrebbe riprodurre.

e preoccupa gli esperti di sicurezza

Gli esperti di sicurezza hanno da tempo espresso la preoccupazione che tali strumenti audio, che utilizzano tecnologie di sintesi vocale per creare voci sintetiche, possano aprire la strada a nuovi tipi di frode. Il software di clonazione vocale ha già fatto molti danni, incluso un incidente del 2020 negli Emirati Arabi Uniti in cui i truffatori hanno indotto con l’inganno un direttore di banca a trasferire $ 35 milioni dopo che si era spacciato per il manager ad alta voce. Detto questo, i crimini sonori deepfake non sono ancora diffusi e gli strumenti a disposizione sono ancora relativamente semplici.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *