Amazon хоче, щоб Alexa говорила голосами ваших померлих близьких

Amazon хоче, щоб Alexa говорила голосами ваших померлих близьких

Amazon змушує Alexa говорити голосом зниклої коханої людини, і це непокоїть експертів з безпеки.

Підключені динаміки та їхні цифрові помічники з голосовою активацією забезпечують вражаючу кількість дій. Здається, єдиним обмеженням є уява розробників. Якщо в більшості випадків нові функції дуже корисні, то деякі з них трохи сумнівні або, принаймні, дивні. Це приклад останньої ідеї Amazon для свого голосового помічника Alexa, який хоче дозволити йому відтворювати голоси .

Amazon змушує Alexa говорити голосом зниклої коханої людини

Під час конференції Amazon Re:Mars віце-президент Alexa Рохіт Прасад продемонстрував абсолютно нову можливість голосового цифрового помічника американського гіганта: здатність імітувати голос. Поки що ми не маємо жодних відомостей про те, коли ця функція стане доступною або навіть чи стане вона колись популярною.

За іронією долі, Amazon представив цю нову функцію, щоб вшанувати наших близьких, які померли. Американська компанія опублікувала відео, на якому Алекса читає дитині голос своєї нещодавно померлої бабусі. Рохіт Прасад пояснив, що компанія шукає способи зробити свій штучний інтелект максимально персоналізованим. «Хоча штучний інтелект не може позбутися болю втрати, він може розширити пам’ять». Представник Amazon сказав Engadget, що ця нова навичка може створити синтетичний голосовий відбиток пальця лише після хвилини тренування з голосом людини, якій це передбачається. відтворювати.

і це турбує експертів з безпеки

Експерти з безпеки вже давно висловлюють стурбованість тим, що такі аудіоінструменти, які використовують технології перетворення тексту в мовлення для створення синтетичних голосів, можуть прокласти шлях до нових видів шахрайства. Програмне забезпечення для клонування голосу вже завдало багато шкоди, зокрема інцидент 2020 року в Об’єднаних Арабських Еміратах, коли шахраї обманом змусили менеджера банку переказати 35 мільйонів доларів після того, як він вголос видавався за менеджера. З огляду на це, звукові злочини deepfake все ще не є широко поширеними, а доступні інструменти все ще відносно прості.

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *