Kodek Avatars 2.0: Meta dąży do realizmu w metaverse
Meta-inżynierowie zbliżają się do pewnej formy realizmu w metaverse dzięki Codec Avatars 2.0, prototypowym awatarom VR wykorzystującym zaawansowane techniki uczenia maszynowego.
Trzy lata temu, spółka zależna Meta, Facebook, ujawniła swoją pracę z Codec Avatars. Obsługiwane przez wiele sieci neuronowych awatary są generowane za pomocą specjalistycznego urządzenia przechwytującego ze 171 kamerami. Po utworzeniu można nimi sterować w czasie rzeczywistym za pomocą prototypu wirtualnego zestawu słuchawkowego z pięcioma kamerami (po dwie wewnętrzne dla każdego oka i trzy zewnętrzne dla dolnej części twarzy). Od tego czasu zespoły stojące za projektem wprowadziły do systemu kilka ulepszeń, w tym bardziej realistyczne oczy oraz wersję wymagającą jedynie śledzenia wzroku i wejścia mikrofonowego.
W kwietniu ubiegłego roku na seminarium MIT „Virtual Creatures and Being Virtual” Yaser Sheikh zaprezentował nową wersję Codec Avatars. Pomimo poważnych i ważnych zmian, wciąż jest wiele do zrobienia: „Powiedziałbym, że jednym z największych wyzwań następnej dekady jest sprawdzenie, czy możemy zapewnić zdalną interakcję, która będzie nie do odróżnienia od komunikacji twarzą w twarz”. W trakcie warsztatu zaznaczył, że nie da się przewidzieć, jak szybko Codec Avatary faktycznie zostaną wydane. Powiedział jednak, że kiedy projekt się rozpoczął, było dziesięć cudów do wykonania, a teraz myśli, że jest ich pięć.
Realistyczne awatary z Avatars Codec 2.0 dla Meta
Jednak Codec Avatars 2.0 może być samodzielnym rozwiązaniem, a nie bezpośrednią aktualizacją obecnych awatarów z kreskówek. W rozmowie z Lexem Friedmanem, dyrektor generalny Mark Zuckerberg opisał przyszłość, w której użytkownicy mogliby używać awatara w stylu kreskówek w zwykłych grach i realistycznego awatara podczas spotkań biznesowych.
Dodaj komentarz