导入机器学习技术 暴雪打算未来用 AI 自动找出谩骂玩家

2018-04-08 08:08:28   来源:新浪游戏

  只要是曾玩过需要团队合作游戏的玩家,应该都有碰过网友口出恶言的经验,这些言语为同场参与的玩家都带来了不好的游戏体验,也因此是游戏经营者经常必须面对的难题。

  Kotaku 报导指出,知名射击游戏《守望先锋》(Overwatch)也正在面对这项难题,游戏总监 Jeff Kaplan 近日表示,其实团队一直有在测试机器学习技术,试图让游戏学会辨识哪些是‘有毒’的语言,未来目标是不必再透过玩家检举才能阻挡这些行为。

  即使没有机器学习协助,《守望先锋》在这方面也已经取得进展,Kaplan 指出,从一月的数据来看,由于游戏检举及惩罚系统的变化,《守望先锋》的攻击性言论下降了 17%,检举系统使用数则上升了 20%。

  这证明《守望先锋》的检举系统是有用的,但还是不足以抵销检举系统的‘原罪’——它们的效率很慢、可能会被滥用,玩家并不总是对检举系统抱有信心,因此监管团队的下一步,便是在玩家申诉前便开始捕捉不良行为。

  透过机器学习,暴雪(Blizzard)正在教导游戏 AI 其他国家的语言,长期的目标则是希望它弄清楚有毒的言论看起来像什么,甚至能够分清楚朋友间的‘垃圾话’和网友人身攻击间的区别。

  但以目前来说,《守望先锋》将 AI 先调整为应对最极端的情况——那些在暴雪的规范中,无疑必须受到惩罚的言论,而其他内容则是先标记、再针对重复犯进行惩罚。

  ‘任何涉及检举和惩罚玩家的事情,你都会希望从最极端的情况开始,接着找到方式来向较轻的情况延伸。’

  除了惩罚不良玩家,暴雪也和 Riot 和 Twitch 直播平台一样,正在研究硬币的另一面:强化良好行为。游戏开发商都在惩罚举动不当的玩家,但究竟该如何让人们希望在游戏的生态系统中成为更好的参与者?

  Kaplan 指出,游戏的通报系统经常都是“Adrian 真的很糟糕,我想惩罚他”,但“Adrian 真的是个很棒的队友,我想奖励他”的机制却很少可见。

  ‘我们已经可以开始展望未来,并讨论关于正面态度的申报系统设计。’

  from:Technews科技新报

新浪声明:新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。
精彩推荐
相关新闻

VR社交正成为Oculus Home必不可少的关键元素

社交空间对于虚拟现实(VR)社区而言非常重要,因为它正在不断发展壮大,为了应对这种需求增长,Oculus宣布了Oculus Home的新功能...

相关Oasis让你在VR应用间无缝切换虚拟世界
2018-04-07 10:52:31 来自:厂商新闻

Oasis让你在VR应用间无缝切换虚拟世界

Admix宣布与Somnium Space合作开发Oasis,该软件让虚拟现实(VR)用户在不离开应用程序的情况下跨越不同的VR世界。允许将“门户”...

相关Tobii:眼动追踪将成为VR必备交互方式
2018-04-07 10:45:09 来自:硬件前沿

Tobii:眼动追踪将成为VR必备交互方式

据外媒VRFocus报道,自从他们和Tobii讨论了关于眼动追踪技术的潜力,已经过去有一段时间了。在这期间,我们已经看到FOVE和NVIDIA...

相关VR游戏《三国虎将传VR》将于4月18日登陆Steam
2018-04-07 10:31:57 来自:新浪VR频道

热门推荐

HOT RECOMMEND

新浪VR简介 | 论坛社区 | 网站合作 | 广告服务 | 联系我们 | 免责声明 | 招聘信息

Copyright © 1996-2015 SINA Corporation, All Rights Reserved

北京幻世新科网络科技有限公司 版权所有