AI机器人监听游戏语音聊天中的有害世界——《华尔街日报》
Sarah E. Needleman
《枪战精英》的开发商利用人工智能软件在游戏特定环节实时监控玩家对话。图片来源:枪战精英娱乐公司在电子游戏《枪战精英》中,玩家若在语音聊天中使用种族歧视言论,几秒内就会被禁言。执行审查的并非人工内容审核员或其他玩家——而是一个人工智能机器人。
语音聊天作为电子游戏的重要功能已流行十余年,玩家借此进行社交互动与战术协作。但近期研究显示,近四分之三使用该功能的玩家遭遇过辱骂、霸凌或威胁等不良行为。
新型AI软件正致力于减少此类骚扰。开发者表示,该技术能理解语音对话中的大部分语境,可准确区分玩笑性调侃与实质性威胁。
当玩家违反游戏行为准则时,系统可实时自动对其禁言。禁言时长由开发商设定,通常持续数分钟。若玩家多次违规,AI还可执行封禁账号操作。
三大主机厂商——微软、索尼集团与任天堂均提供语音聊天功能,并明令禁止仇恨言论、性骚扰等不当行为。Meta旗下虚拟现实系统Quest及电脑玩家常用的Discord通讯平台亦遵循相同准则。
目前没有实时监控语音聊天的系统,一些人表示他们对AI驱动的语音聊天审核持谨慎态度,担心其精确性和用户隐私问题。
这项技术正开始被游戏开发商采用。开发《枪战精英》的温哥华小型工作室Gun Raiders娱乐公司,在发现社区准则违规行为远超团队预期后,部署了名为ToxMod的AI软件来协助审核游戏内特定场景的玩家对话。
被AI监控技术处罚的玩家会收到说明原因及申诉方式的提示。图片来源:Gun Raiders娱乐公司"我们震惊于’N开头的种族歧视词汇’出现频率如此之高,“该公司运营总监兼联合创始人贾斯汀·利布雷茨表示。
该工作室八个月前开始测试ToxMod准确识别仇恨言论的能力。利布雷茨称,此后不良行为有所减少,而游戏人气维持不变,但未提供具体数据。
游戏公司并非唯一面临网络言论监控挑战的机构。Twitter、Facebook和Reddit等社交媒体平台多年来始终在艰难应对用户文字、图片及视频内容的监管。尽管它们通过人工与自动化审核来约束用户,但仍被指责要么监管不足,要么矫枉过正。
语音聊天通常更为私密,这使得监管工作更加困难。在热门游戏中,可能有成千上万的人同时边玩边聊天。玩家在游戏中咒骂或威胁要杀人但并不真的有意伤害的情况并不罕见。
传统上,游戏公司依赖玩家举报语音聊天中的问题,但许多人懒得举报,而且每起举报都需要调查。
开发AI监控技术的公司表示,游戏公司可能不知道语音聊天中有多少不良行为,也不了解AI工具可以实时识别并应对这些问题。
马萨诸塞州萨默维尔初创公司Modulate的首席执行官兼联合创始人迈克·帕帕斯说,当他们看到软件能捕捉到的行为时,“他们会有点震惊”。该公司开发的ToxMod程序被用于《枪手突击队》游戏。“我们经常听到的一句话是:‘我知道情况很糟,但没想到这么糟。’”
去年12月对1,022名美国游戏玩家进行的一项调查发现,72%使用过语音聊天的人表示他们遭遇过骚扰事件。这项调查由总部位于赫尔辛基的语音识别公司Speechly Ltd.委托进行,该公司去年开始为视频游戏行业提供语音聊天的AI审核服务。
语音识别公司Speechly的AI语音监控软件仪表盘。图片来源:Speechly青少年尤其容易受到这种对待。反诽谤联盟2022年的一项研究发现,与2021年相比,13至17岁青少年在网络游戏中遭受骚扰的情况增加了6%。
被该技术处罚的玩家可能会看到一条消息,解释原因以及如何提出申诉。游戏公司的工作人员会收到警报,并获取被举报行为的录音。
这项技术并非万无一失。它可能难以识别某些口音和玩家为规避审核使用的"算法黑话”(即暗语)。不同AI监控工具支持的语言数量各异,供应商建议将其与经验丰富的人工审核员配合使用。
“AI目前还无法识别所有内容,“Speechly首席执行官兼联合创始人奥托·索德伦德表示。例如当玩家说"Karen"时,系统难以判断这是人名还是侮辱性用语。
亚马逊公司AWS云服务业务游戏技术解决方案总经理罗伯·舍佩表示,维护语音聊天的和谐对开发者至关重要。
“如果玩家体验不佳,他们就不会再玩这款游戏,“他说。
去年,AWS与开发该技术的Spectrum Labs合作,为游戏工作室的工具套件新增了AI语音聊天审核功能。舍佩先生表示,此次合作是为了响应客户对技术支持的需求。
温哥华游戏工作室高管利布雷格茨先生表示,他最初担心ToxMod对《枪战精英》(该游戏被评为青少年级,可在Meta的Quest等VR系统上游玩)的监控过于侵入性。
“这比我想象的更像’老大哥’监控,“他解释道,因为该技术可能被用于监控玩家与好友的私人对局。
他选择让ToxMod仅监控游戏中面向所有玩家开放的区域,而非私人团队,尽管这意味着某些玩家可能在语音聊天中遭遇种族歧视、霸凌等问题而工作室察觉不到。
“如果我们发现私人游戏中问题频发,可能会重新考虑监控决定,“他表示,“一切以我们认定的最安全方案为准。”
联系作者莎拉·E·尼德尔曼请致信[email protected]
本文发表于2023年3月27日印刷版,标题为《AI机器人正在游戏语音聊天中监管不良言行》。