如何处理不良游戏行为,打造更包容的游戏环境
游戏环境可以更加安全。 Image: Axville/Unsplash
- 到2026年,游戏产业的价值可能达到3210亿美元。
- 但不良内容和辱骂行为对游戏玩家和产业来说都是巨大的伤害。
- 我们必须打造一个既能培养包容性,也能杜绝不良行为的电子游戏社区。
我们都还记得那些简单的游戏时光:通过玩家实际面对面的互动来产生兴奋与刺激的离线游戏。如今,玩家互动的方式和地点都发生了巨大变化,从在线互动到多模态和便携移动平台。目前游戏产业有望保持其近期的快速增长,其产业价值在2026年可能达到3210亿美元。
在产业价值增长的同时,游戏产业也面临着一些挑战,其中最主要的就是不良行为。市场调研公司Reach3 Insights指出,“77%的女性玩家在游戏中会遭遇性别歧视,包括辱骂、受到言语性骚扰、被设立性别门槛等。”不良内容和辱骂对玩家和游戏行业都会造成巨大伤害。另一份报告发现,“28%的在线多人游戏玩家曾在游戏中受到骚扰,也因某些游戏臭名昭著的环境而对其避而远之,22%的玩家则干脆直接不再接触某些游戏。”
全球化妆品品牌美宝莲纽约(Maybelline NY)也强调了游戏中的性别歧视情况,该公司进行了一项实验,观察男性游戏玩家在声音和资料被修改为女性后会受到怎样的对待。两名参与实验的普通玩家受到的对待与他们过去大相径庭:某些玩家在一听到女性声音就退出了游戏,另一些则开始发表不当信息,包括进行侮辱和邀请他们回家做“女性家务”。
虽然在应对此类不良游戏环境方面取得了进展,但挑战依然存在。加强游戏中的信任和安全对于游戏环境的包容性发展至关重要。
在线电子游戏内容审核现状
在电子游戏领域,信任和安全并不是什么新鲜事,但整个行业并没有标准的做法。政策的制定和解释都有很大空间。这种情况下,对主动审核与被动审核的讨论是一个很好的例子,游戏公司都会讨论如何在不失去游戏自治权的同时管控用户的行为。而缺乏政策主动性可能导致游戏玩家在等待合适的报告或升级时接触到不当内容。
随着行业中内容审核实践的发展,我们团队发现了以下一些机遇:
1. 全面但简洁地阐明政策和强制措施
在游戏领域存在内容审核政策的情况下,一些政策在去人性化言论、煽动暴力、极端主义等方面缺乏覆盖、定义和清晰度,而有些政策不易理解。游戏公司在对利益相关者的账号与内容采取任何行动时应给出具体且易于理解的理由,这样更方便他们未来改进自己的行为。根据ADL的数据,59%的成年游戏玩家认为有必要对游戏进行监管,提高游戏公司处理游戏中仇恨、骚扰和极端主义等问题的透明度。
2. 放眼内容政策之外
我们不止应关注游戏内容,还要关注游戏环境,以更广阔的视角看待问题。例如,在多模式游戏中,我们要关注游戏语音、账户创建特征及其他信号,集中关注游戏中产生大多数不良行为的用户群体。
关注这些信号可以立即消除游戏中大量的仇恨内容,因为这种行为来源集中在少数用户身上,在所有类型的平台中,30%至60%的不良内容通常都来自不到3%的用户。处理好散布不良内容的少数玩家,就只要对平台上的大多数游戏玩家采用较为温和的群体行为矫正方式,通过暗示、警告等其他形式的团体行为矫正来阻止任何其他的不良行为。
3. 可操作性
说到安全问题,用户体验在很大程度上可归因于电子游戏政策的定义和操作。如果在平台活跃的市场上将政策告知用户,如果对所有用户采取一致政策,如果能及时裁决用户的举报,如果对反对内容审核决策的用户采取快速有效的补偿机制,电子游戏的内容审核就能得到改善。鉴于该领域短时间内发生变化的速度,游戏平台必须具备灵活性,能够经常修改或补充政策内容。
打造更安全的电子游戏环境
好消息是,我们还有发展和改进的机会。对于刚开始构建信任与安全的新运营机构来说,首要建议之一就是建立一支能反映游戏玩家基础的多元化审核团队。根据国际游戏开发者协会(IGDA)的一项研究,多元化团队能够更好地理解和处理不同玩家群体面临的独特挑战。“对特定群体、主题或背景的无意识偏见可能是由于审核人员群体的代表性不足或缺乏社会多样性导致的。”
调解团队的多样性对平台和用户体验有着可量化的好处。已经证实,审核团队中女性代表的缺失或减少会直接影响最终用户的体验,即本案例中玩家的体验。
随着游戏平台用户基础扩大,利用多元化的审核团队来解决政策实施过程中的隐性偏见问题,对用户有益,能提高玩家对平台的忠诚度,促进游戏平台的发展。但这也提醒我们,多样性不应只停留在内容上,还应体现在组织的各个层面。说到底,需要许多人共同努力才能确保在整个游戏生态中重塑性别规范。“规则的制定是主观的,反映了制定者的偏见和世界观。”
随着我们深入研究内容审核操作的自然演变,第一步是制定清晰透明的社区标准和行为准则,所有玩家在参与之前都必须同意遵守。核心原则是用透明度和强有力的沟通加强玩家对行为后果的认识。
Modulate公司联合创始人兼首席执行官Mike Pappas建议,制定任何面向外部的社区标准或行为准则时都应考虑广泛的受众:“许多孩子或其他玩家,尤其是在游戏中匹配到来自不同文化背景的玩家的人,可能根本不知道哪些行为会得罪人。当我们谈论恶劣行为时,脑海中会浮现出‘网络喷子’的形象,但实际上,50%以上的破坏性内容都来自于这种无意的冒犯。这就意味着,一份清晰易懂、非法律性质的《行为准则》可以成为一件非常强大的工具,帮助调整社区行为期望,减少游戏中的不良行为。
现在也是确定举报协议、授权游戏玩家举报不良行为和培养游戏问责文化的关键时刻。根据公平游戏联盟(Fair Play Alliance)的一项调查,85%的玩家认为举报系统对良好的在线游戏体验至关重要。从一开始就为举报违规内容制定正确的工作流程,可以确保新平台有一个良好的开端,使其走在持续成功的道路上。
与此同时,设计并实施针对违规者的有效处罚,如临时或永久的账号封禁,也能起到震慑作用。如前文所述,对不同的违规行为进行分类并采取相应措施,可以教育社区,培养共同的责任感。坚持执行如劝导、警告、其他形式的群体行为矫正、停用或封禁游戏账号等处罚措施,会传递出一个明确的信息,即对于骚扰行为的零容忍。
利用人工智能(AI)和机器学习算法可以协助内容管理。自动化工具能扫描聊天记录、语音通信和游戏中的行为,识别并标记不当行为。整合利用AI工具,能直接筛选出不良内容,并将其发送至人工干预。不过,这些解决方案应始终与人工审核协同工作,确保决策考虑全面,处理准确。
训练有素的审核人员仍然要优于大型语言模型,特别是在处理极端案例或需要额外信息的情况下。例如,根据Open AI的一个数据集,在仇恨和骚扰等需要更多语言或文化背景的领域,人工智能与人工审核之间的表现差距仍超过20%。一些基于人工智能的工具的设计目的在于让人类和人工智能可以相互补足,人工智能帮助审核人员确定他们应该关注的重点,但最终决定是否采取行动、采取什么行动的权力仍在人类手中。
信任和安全是电子游戏发展的核心
随着游戏行业不断发展,游戏公司必须投资于全面的内容审核策略,优先考虑玩家的安全和游戏体验。通过利用技术、提高社区参与和审核多样性,游戏行业可以努力实现这样一个未来:来自不同背景的玩家都可以尽情享受他们喜爱的游戏,而不必担心受到骚扰或辱骂。
从游戏的玩家、开发者、决策者到审核人员,每个人都应该对创造更安全的游戏环境负责。团结起来,我们就能打造一个既能颂扬多样性,培养包容性,也能杜绝不良行为的电子游戏社区。
本文作者:
Akash Pugalia,Teleperformance游戏信任与安全部门全球总裁
Farah Lalani,Teleperformance信任与安全政策全球副总裁
Maria Polchlopek Mercado,Teleperformance社交媒体客户体验负责人
本文原载于世界经济论坛Agenda博客,转载请注明来源并附上本文链接。
翻译:孙芊
编辑:王灿
不要错过关于此主题的更新
创建一个免费账户,在您的个性化内容合集中查看我们的最新出版物和分析。
许可和重新发布
世界经济论坛的文章可依照知识共享 署名-非商业性-非衍生品 4.0 国际公共许可协议 , 并根据我们的使用条款重新发布。
世界经济论坛是一个独立且中立的平台,以上内容仅代表作者个人观点。