Amazon möchte, dass Alexa mit den Stimmen Ihrer verstorbenen Lieben spricht

Amazon möchte, dass Alexa mit den Stimmen Ihrer verstorbenen Lieben spricht

Amazon lässt Alexa mit der Stimme eines vermissten geliebten Menschen sprechen, was Sicherheitsexperten beunruhigt.

Vernetzte Lautsprecher und die dazugehörigen sprachaktivierten digitalen Assistenten ermöglichen beeindruckend viel Action. Die einzige Grenze scheint die Vorstellungskraft der Entwickler zu sein. Während die neuen Funktionen in den meisten Fällen sehr nützlich sind, sind einige davon etwas fragwürdiger oder zumindest seltsam. Dabei handelt es sich um Amazons neueste Idee für seinen Sprachassistenten Alexa, der Stimmen abspielen lassen will .

Amazon lässt Alexa mit der Stimme eines vermissten geliebten Menschen sprechen

Während der Amazon Re:Mars-Konferenz stellte Alexa-Vizepräsident Rohit Prasad eine brandneue Funktion des sprachgestützten digitalen Assistenten des amerikanischen Riesen vor: die Fähigkeit, Stimme zu imitieren. Bisher haben wir keine Hinweise darauf, wann diese Funktion verfügbar sein wird oder ob sie jemals populär werden wird.

Ironischerweise hat Amazon diese neue Funktion eingeführt, um unsere verstorbenen Lieben zu ehren. Eine US-Firma hat ein Video veröffentlicht, in dem Alexa einem Kind die Stimme ihrer kürzlich verstorbenen Großmutter vorliest. Rohit Prasad erklärte, dass das Unternehmen nach Möglichkeiten suche, seine künstliche Intelligenz so personalisiert wie möglich zu gestalten. „Obwohl KI den Schmerz des Verlusts nicht loswerden kann, kann sie das Gedächtnis erweitern.“ Ein Amazon-Sprecher sagte gegenüber Engadget, dass diese neue Fähigkeit nach nur einer Minute Übung mit der Stimme der Person, für die sie gedacht ist, einen synthetischen Stimm-Fingerabdruck erstellen kann fortpflanzen.

und es beunruhigt Sicherheitsexperten

Sicherheitsexperten äußern seit langem die Sorge, dass solche Audiotools, die Text-to-Speech-Technologien nutzen, um synthetische Stimmen zu erzeugen, den Weg für neue Arten von Betrug ebnen könnten. Software zum Klonen von Stimmen hat bereits viel Schaden angerichtet, darunter einen Vorfall im Jahr 2020 in den Vereinigten Arabischen Emiraten, bei dem Betrüger einen Bankmanager dazu brachten, 35 Millionen US-Dollar zu überweisen, nachdem er sich lautstark als Manager ausgegeben hatte. Allerdings sind Deepfake-Sound-Verbrechen immer noch nicht weit verbreitet und die verfügbaren Tools sind immer noch relativ einfach.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert