Amazon haluaa Alexan puhuvan kuolleiden läheistesi äänillä

Amazon haluaa Alexan puhuvan kuolleiden läheistesi äänillä

Amazon saa Alexan puhumaan kadonneen rakkaansa äänellä, ja se huolestuttaa turvallisuusasiantuntijoita.

Yhdistetyt kaiuttimet ja niiden mukana tulevat ääniohjatut digitaaliset avustajat mahdollistavat vaikuttavan määrän toimintaa. Ainoa rajana näyttää olevan kehittäjien mielikuvitus. Jos useimmissa tapauksissa uudet ominaisuudet ovat erittäin hyödyllisiä, niin jotkut niistä ovat hieman kyseenalaisia ​​tai ainakin outoja. Tämä on tapaus Amazonin uusimmasta ideasta sen Alexa voice assistantille, joka haluaa antaa sen toistaa ääniä .

Amazon saa Alexan puhumaan kadonneen rakkaan äänellä

Amazon Re:Mars -konferenssin aikana Alexan varapresidentti Rohit Prasad esitteli amerikkalaisen jättiläisen ääniavusteisen digitaalisen avustajan aivan uuden ominaisuuden: kyvyn jäljitellä ääntä. Toistaiseksi meillä ei ole tietoa siitä, milloin tämä ominaisuus tulee saataville tai tuleeko siitä koskaan suosittu.

Ironista kyllä, Amazon esitteli tämän uuden ominaisuuden tapana kunnioittaa kuolleita rakkaitamme. Yhdysvaltalainen yritys on julkaissut videon Alexasta lukemassa äskettäin kuolleen isoäitinsä ääntä lapselle. Rohit Prasad selitti, että yritys etsii tapoja tehdä tekoälystään mahdollisimman henkilökohtaista. ”Vaikka tekoäly ei pääse eroon menetyksen kivusta, se voi laajentaa muistia.” Amazonin tiedottaja kertoi Engadgetille, että tämä uusi taito voi luoda synteettisen äänen sormenjäljen vain minuutin harjoittelun jälkeen sen henkilön äänellä, jonka sen oletetaan. lisääntymään.

ja se huolestuttaa turvallisuusasiantuntijoita

Tietoturvaasiantuntijat ovat pitkään ilmaisseet huolensa siitä, että tällaiset äänityökalut, jotka käyttävät tekstistä puheeksi -tekniikoita synteettisten äänien luomiseen, voisivat tasoittaa tietä uudentyyppisille petoksille. Puheen kloonausohjelmisto on jo aiheuttanut paljon haittaa, mukaan lukien vuonna 2020 tapahtuneen tapauksen Yhdistyneissä arabiemiirikunnissa, jossa huijarit huijasivat pankinjohtajan siirtämään 35 miljoonaa dollaria tämän esiintyneen johtajana ääneen. Deepfake sound -rikokset eivät kuitenkaan ole vieläkään yleisiä, ja käytettävissä olevat työkalut ovat edelleen suhteellisen yksinkertaisia.

Vastaa

Sähköpostiosoitettasi ei julkaista. Pakolliset kentät on merkitty *