Amazon chce, aby Alexa przemawiała głosami twoich zmarłych bliskich

Amazon chce, aby Alexa przemawiała głosami twoich zmarłych bliskich

Amazon sprawia, że ​​Alexa mówi głosem zaginionej ukochanej osoby, co niepokoi ekspertów ds. Bezpieczeństwa.

Podłączone głośniki i towarzyszący im cyfrowi asystenci aktywowani głosem pozwalają na imponującą ilość akcji. Jedynym ograniczeniem wydaje się być wyobraźnia twórców. Jeśli w większości przypadków nowe funkcje są bardzo przydatne, to niektóre z nich są nieco bardziej wątpliwe lub co najmniej dziwne. Tak jest w przypadku najnowszego pomysłu Amazona na asystenta głosowego Alexa, który chce pozwolić mu odtwarzać głosy .

Amazon sprawia, że ​​Alexa mówi głosem zaginionej ukochanej osoby

Podczas konferencji Amazon Re:Mars wiceprezes Alexa, Rohit Prasad, zaprezentował zupełnie nową funkcję cyfrowego asystenta głosowego amerykańskiego giganta: zdolność naśladowania głosu. Jak dotąd nie mamy żadnych wskazówek, kiedy ta funkcja będzie dostępna, a nawet czy kiedykolwiek stanie się popularna.

Jak na ironię, Amazon wprowadził tę nową funkcję jako sposób na uhonorowanie naszych zmarłych bliskich. Amerykańska firma opublikowała wideo, na którym Alexa czyta dziecku głos swojej niedawno zmarłej babci. Rohit Prasad wyjaśnił, że firma szuka sposobów na maksymalne spersonalizowanie swojej sztucznej inteligencji. „Chociaż sztuczna inteligencja nie może pozbyć się bólu związanego ze stratą, może rozszerzyć pamięć”. Rzecznik Amazon powiedział Engadget, że ta nowa umiejętność może stworzyć syntetyczny odcisk palca po zaledwie minucie ćwiczeń z głosem osoby, za którą się uważa powielać.

i to niepokoi ekspertów ds. bezpieczeństwa

Eksperci ds. bezpieczeństwa od dawna wyrażają zaniepokojenie, że takie narzędzia audio, które wykorzystują technologie zamiany tekstu na mowę do tworzenia syntetycznych głosów, mogą utorować drogę nowym rodzajom oszustw. Oprogramowanie do klonowania głosu wyrządziło już wiele szkód, w tym incydent w 2020 r. w Zjednoczonych Emiratach Arabskich, gdzie oszuści nakłonili kierownika banku do przelania 35 milionów dolarów po tym, jak głośno udawał kierownika. To powiedziawszy, przestępstwa związane z dźwiękiem typu deepfake nadal nie są rozpowszechnione, a dostępne narzędzia są nadal stosunkowo proste.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *