只要是曾玩过需要团队合作游戏的玩家,应该都有碰过网友口出恶言的经验,这些言语为同场参与的玩家都带来了不好的游戏体验,也因此是游戏经营者经常必须面对的难题。
Kotaku 报导指出,知名射击游戏《守望先锋》(Overwatch)也正在面对这项难题,游戏总监 Jeff Kaplan 近日表示,其实团队一直有在测试机器学习技术,试图让游戏学会辨识哪些是‘有毒’的语言,未来目标是不必再透过玩家检举才能阻挡这些行为。
即使没有机器学习协助,《守望先锋》在这方面也已经取得进展,Kaplan 指出,从一月的数据来看,由于游戏检举及惩罚系统的变化,《守望先锋》的攻击性言论下降了 17%,检举系统使用数则上升了 20%。
这证明《守望先锋》的检举系统是有用的,但还是不足以抵销检举系统的‘原罪’——它们的效率很慢、可能会被滥用,玩家并不总是对检举系统抱有信心,因此监管团队的下一步,便是在玩家申诉前便开始捕捉不良行为。
透过机器学习,暴雪(Blizzard)正在教导游戏 AI 其他国家的语言,长期的目标则是希望它弄清楚有毒的言论看起来像什么,甚至能够分清楚朋友间的‘垃圾话’和网友人身攻击间的区别。
但以目前来说,《守望先锋》将 AI 先调整为应对最极端的情况——那些在暴雪的规范中,无疑必须受到惩罚的言论,而其他内容则是先标记、再针对重复犯进行惩罚。
‘任何涉及检举和惩罚玩家的事情,你都会希望从最极端的情况开始,接着找到方式来向较轻的情况延伸。’
除了惩罚不良玩家,暴雪也和 Riot 和 Twitch 直播平台一样,正在研究硬币的另一面:强化良好行为。游戏开发商都在惩罚举动不当的玩家,但究竟该如何让人们希望在游戏的生态系统中成为更好的参与者?
Kaplan 指出,游戏的通报系统经常都是“Adrian 真的很糟糕,我想惩罚他”,但“Adrian 真的是个很棒的队友,我想奖励他”的机制却很少可见。
‘我们已经可以开始展望未来,并讨论关于正面态度的申报系统设计。’
from:Technews科技新报
0