Wykrywanie mowy nienawiści oparte na sztucznej inteligencji będzie moderować czat głosowy w Call of Duty

Wykrywanie mowy nienawiści oparte na sztucznej inteligencji będzie moderować czat głosowy w Call of Duty

W środę Activision ogłosiło , że w nadchodzącej premierze Call of Duty: Modern Warfare III, która ukaże się 10 listopada, wprowadzi moderację czatów głosowych w czasie rzeczywistym opartą na sztucznej inteligencji . Firma współpracuje z firmą Modulate w celu wdrożenia tej funkcji, wykorzystując technologię o nazwie ToxMod do identyfikowania mowy nienawiści, zastraszania, molestowania i dyskryminacji i podejmowania działań przeciwko niej.

Choć ogólnobranżowe wyzwanie , jakim jest toksyczne zachowanie w Internecie, nie dotyczy tylko Call of Duty, Activision twierdzi, że skala problemu wzrosła ze względu na ogromną bazę graczy. Dlatego zwracamy się w stronę technologii uczenia maszynowego, która pomoże zautomatyzować rozwiązanie.

ToxMod to system moderacji głosowej oparty na sztucznej inteligencji, zaprojektowany w celu identyfikowania i przeciwdziałania temu, co Activision nazywa „szkodliwym językiem”, który narusza kodeks postępowania gry . Celem jest uzupełnienie istniejących środków antytoksycznych w Call of Duty, które obejmują filtrowanie tekstu w 14 językach oraz system zgłaszania graczy w grze.

Activision twierdzi, że dane z poprzednich działań antytoksycznych ograniczyły czaty głosowe i tekstowe w przypadku ponad 1 miliona kont, które naruszyły jej kodeks postępowania. Co więcej, 20 procent osób, które otrzymały pierwsze ostrzeżenie, nie popełniło ponownie przestępstwa, co sugeruje, że jasna informacja zwrotna jest przydatna w moderowaniu zachowania gracza.

Na pierwszy rzut oka moderowanie głosu w czasie rzeczywistym wydaje się znaczącym postępem w walce z zakłócającymi zachowaniami w grze — zwłaszcza, że ​​w grach wideo prawdopodobnie nie występują problemy związane z prywatnością, które zazwyczaj wiążą się z takim systemem. Celem jest uczynienie gry przyjemniejszą dla wszystkich graczy.

Jednak obecnie systemy wykrywania sztucznej inteligencji są bardzo kapryśne i mogą dawać fałszywe wyniki, szczególnie w przypadku osób, dla których angielski nie jest językiem ojczystym. Biorąc pod uwagę różnice w jakości dźwięku, regionalne akcenty i różne języki, niełatwo jest, aby system wykrywania głosu działał bezbłędnie w takich warunkach. Na szczęście Activision twierdzi , że człowiek będzie na bieżąco informowany o działaniach egzekucyjnych:

„Wykrywanie odbywa się w czasie rzeczywistym, a system kategoryzuje i oznacza toksyczny język w oparciu o Kodeks postępowania Call of Duty w momencie jego wykrycia. Wykryte naruszenia Kodeksu postępowania mogą wymagać dodatkowego przeglądu powiązanych nagrań w celu ustalenia kontekstu przed podjęciem decyzji o egzekwowaniu. Dlatego podjęte działania nie będą natychmiastowe. W miarę rozwoju systemu nasze procesy i czasy reakcji będą ewoluować.

Co więcej, Activision twierdzi, że system moderacji czatu głosowego w Call of Duty „przesyła jedynie raporty dotyczące toksycznych zachowań, podzielone na kategorie według rodzaju zachowania i ocenianego poziomu dotkliwości w oparciu o ewoluujący model”. Następnie ludzie ustalają, czy będą egzekwować naruszenia moderacji czatu głosowego. .

Nowy system moderacji rozpoczął w środę testy beta, obejmujące początkowo Amerykę Północną i skupiające się na istniejących grach Call of Duty: Modern Warfare II i Call of Duty: Warzone. Planowane jest, że pełne wdrożenie technologii moderacji, z wyłączeniem Azji, zbiegnie się z premierą Modern Warfare III, począwszy od języka angielskiego, a z czasem dodawane będą kolejne języki.

Pomimo potencjalnych wad fałszywych alarmów nie można zrezygnować z podsłuchiwania sztucznej inteligencji. Jak czytamy w często zadawanych pytaniach Activision: Gracze, którzy nie chcą, aby ich głos był moderowany, mogą wyłączyć czat głosowy w grze w menu ustawień”.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *