Avatars 2.0-Codec: Meta strebt nach Realismus im Metaversum
Meta-Ingenieure nähern sich mit Codec Avatars 2.0 einer Form von Realismus für das Metaversum, einem Prototyp von VR-Avataren, der fortschrittliche Techniken des maschinellen Lernens nutzt.
Vor drei Jahren stellte Metas Tochtergesellschaft Facebook ihre Arbeit mit Codec Avatars vor. Unterstützt durch mehrere neuronale Netze werden Avatare mithilfe eines speziellen Erfassungsgeräts mit 171 Kameras generiert. Sobald sie erstellt sind, können sie mithilfe eines virtuellen Headset-Prototyps mit fünf Kameras (zwei interne für jedes Auge und drei externe für das untere Gesicht) in Echtzeit gesteuert werden. Seitdem haben die Teams hinter dem Projekt mehrere Verbesserungen am System vorgenommen, darunter realistischere Augen und eine Version, die nur Eye-Tracking und Mikrofoneingabe erfordert.
Im vergangenen April stellte Yaser Sheikh beim MIT-Seminar „Virtual Creatures and Being Virtual“ eine neue Version von Codec Avatars vor. Trotz großer und wichtiger Entwicklungen liegt noch ein langer Weg vor uns: „Ich würde sagen, dass eine der großen Herausforderungen des nächsten Jahrzehnts darin besteht, herauszufinden, ob wir eine Remote-Interaktion ermöglichen können, die nicht von der persönlichen Kommunikation zu unterscheiden ist.“ Während des Workshops stellte er fest, dass es unmöglich sei, vorherzusagen, wann die Codec-Avatare tatsächlich veröffentlicht werden. Er sagte jedoch, dass es zu Beginn des Projekts zehn Wunder zu vollbringen galt, und jetzt glaubt er, dass es fünf sind.
Realistische Avatare mit Avatars Codec 2.0 für Meta
Allerdings handelt es sich bei Codec Avatars 2.0 möglicherweise um eine eigenständige Lösung und nicht um ein direktes Update der aktuellen Cartoon-Avatare. In einem Interview mit Lex Friedman beschrieb CEO Mark Zuckerberg eine Zukunft, in der Benutzer einen Avatar im Cartoon-Stil in Gelegenheitsspielen und einen realistischen Avatar in Geschäftstreffen verwenden könnten.
Schreibe einen Kommentar