人工智能驅動的仇恨言論檢測將調節《使命召喚》中的語音聊天
週三,動視宣布將在即將於 11 月 10 日發布的《使命召喚:現代戰爭 III》中引入基於人工智能的實時語音聊天審核功能。該公司正在與Modulate合作實施此功能,使用名為ToxMod的技術來識別仇恨言論、欺凌、騷擾和歧視並採取行動。
雖然全行業範圍內有毒在線行為的挑戰並非《使命召喚》所獨有,但動視表示,由於該系列遊戲擁有龐大的玩家基礎,問題的嚴重程度已經加劇。因此,它轉向機器學習技術來幫助實現解決方案的自動化。
ToxMod 是一種人工智能驅動的語音審核系統,旨在識別動視暴雪所說的違反遊戲行為準則的“有害語言”並採取行動。其目的是補充《使命召喚》現有的反毒性措施,其中包括 14 種語言的文本過濾和遊戲內玩家報告系統。
動視暴雪表示,根據其之前反毒措施的數據,超過 100 萬個違反其行為準則的賬戶的語音或文字聊天受到了限制。此外,20% 收到第一次警告的人沒有再犯,這表明明確的反饋對於調節玩家行為很有用。
從表面上看,實時語音審核似乎是對抗遊戲內破壞性行為的顯著進步,特別是因為視頻遊戲中可能不存在此類系統通常帶來的隱私問題。目標是讓所有玩家都能更愉快地玩遊戲。
然而,目前人工智能檢測系統的變化無常,並且可能會產生誤報,尤其是對於非英語母語人士來說。考慮到音頻質量、地區口音和各種語言的差異,語音檢測系統要在這些條件下完美工作是一項艱鉅的任務。幸運的是,動視暴雪表示,人類將繼續參與執法行動:
“檢測是實時進行的,系統會根據檢測到的《使命召喚行為準則》對有毒語言進行分類和標記。發現違反行為準則的行為可能需要對相關記錄進行額外審查,以在確定執行之前確定背景。因此,採取的行動不會是瞬時的。隨著系統的發展,我們的流程和響應時間也會不斷發展。”
此外,動視表示,《使命召喚》的語音聊天審核系統“僅提交有關有毒行為的報告,並根據行為類型和基於不斷發展的模型的嚴重程度進行分類。”然後,人們決定是否會強制執行語音聊天審核違規行為。
新的審核系統從周三開始進行 Beta 測試,最初覆蓋北美地區,重點關注現有遊戲《使命召喚:現代戰爭 II》和《使命召喚:戰區》。審核技術的全面推出(不包括亞洲)計劃與《現代戰爭 III》同時推出,從英語開始,隨著時間的推移會增加其他語言。
儘管存在誤報的潛在缺點,但沒有辦法選擇退出人工智能監聽。正如動視的常見問題解答所述, “不希望自己的聲音受到審核的玩家可以在設置菜單中禁用遊戲內語音聊天。”
發佈留言