Amazon wil dat Alexa spreekt in de stemmen van je overleden dierbaren
Amazon laat Alexa spreken in de stem van een vermiste geliefde, en dat baart beveiligingsexperts zorgen.
Verbonden luidsprekers en hun bijbehorende spraakgestuurde digitale assistenten zorgen voor een indrukwekkende hoeveelheid actie. De enige beperking lijkt de fantasie van de ontwikkelaars te zijn. Als de nieuwe functies in de meeste gevallen erg handig zijn, dan zijn sommige iets twijfelachtiger of op zijn minst raar. Dit is een voorbeeld van het nieuwste idee van Amazon voor zijn Alexa-spraakassistent, die het stemmen wil laten spelen .
Amazon laat Alexa spreken met de stem van een vermiste geliefde
Tijdens de Amazon Re:Mars-conferentie toonde Alexa Vice President Rohit Prasad een geheel nieuwe mogelijkheid van de stemondersteunde digitale assistent van de Amerikaanse reus: de mogelijkheid om stem te imiteren. Tot nu toe hebben we geen indicatie wanneer deze functie beschikbaar zal zijn, of zelfs als deze ooit populair zal worden.
Ironisch genoeg introduceerde Amazon deze nieuwe functie als een manier om onze overleden dierbaren te eren. Een Amerikaans bedrijf heeft een video vrijgegeven waarin Alexa de stem van haar onlangs overleden oma voorleest aan een kind. Rohit Prasad legde uit dat het bedrijf op zoek is naar manieren om zijn kunstmatige intelligentie zo gepersonaliseerd mogelijk te maken. “Hoewel AI de pijn van verlies niet kan wegnemen, kan het geheugen wel worden uitgebreid.” Een Amazon-woordvoerder vertelde Engadget dat deze nieuwe vaardigheid een synthetische stemvingerafdruk kan creëren na slechts een minuut oefenen met de stem van de persoon waarvan het wordt verondersteld te reproduceren.
en het baart beveiligingsexperts zorgen
Beveiligingsexperts hebben lang hun bezorgdheid geuit over het feit dat dergelijke audiotools, die tekst-naar-spraaktechnologieën gebruiken om synthetische stemmen te creëren, de weg kunnen effenen voor nieuwe vormen van fraude. Software voor het klonen van stemmen heeft al veel schade aangericht, waaronder een incident in 2020 in de Verenigde Arabische Emiraten, waar oplichters een bankdirecteur misleidden om 35 miljoen dollar over te maken nadat hij zich hardop had voorgedaan als de manager. Dat gezegd hebbende, deepfake geluidsmisdrijven zijn nog steeds niet wijdverspreid en de beschikbare tools zijn nog steeds relatief eenvoudig.
Geef een reactie