• 全球数十亿人使用的数字平台正被滥用,对人们造成了各种伤害。
  • 人们所紧迫的关注领域,包括对儿童的剥削,突出了当前数字媒体生态系统的根本缺陷。
  • 世界经济论坛新发布的一份报告研究了这些问题,探讨了我们如何解决这些问题以提高在线安全性。

新冠肺炎疫情凸显了在线安全的重要性,因为我们生活的许多方面,包括工作、教育和娱乐,都转到线上了。全球拥有超过47亿的互联网用户,关于人们应该能够在线创建、查看和分享哪些内容的决定已经(并将继续)对世界各地的人们产生重大影响。世界经济论坛的一份新报告《推进数字安全:协调全球行动的框架》探讨了需要解决的基本问题:

应如何评估数字平台的安全性?私营和公共部门在管理在线安全方面的责任是什么?如何衡量整个行业的进步?

虽然世界上许多地方现在正逐步从新冠肺炎疫情中恢复过来,但在这场危机中仍然出现了一些阻碍我们拥有更加安全的线上和线下世界的因素。通过分析以下三个紧迫的潜在危害领域,我们可以开始更好地理解隐私、言论自由、创新、盈利、责任和安全这些目标之间的互动。

错误的健康信息

在线安全面临的一项主要挑战是错误的健康信息的泛滥,尤其是在疫苗方面。研究表明,少数有影响力的人对社交平台上的大部分反疫苗内容负有责任——这些内容似乎触及了广泛的受众。例如,伦敦国王学院的研究发现,英国三分之一的人 (34%)表示他们曾看到或听到过劝阻公众接种冠状病毒疫苗的信息。这对现实世界的影响现在变得越来越清晰。

研究还表明,接触错误信息与接种疫苗的意愿下降有关。事实上,听起来科学的错误信息与疫苗接种意图的下降拥有密切的相关关系。经济和社会研究所(ESRI)行为研究部门最近的一项研究发现,不太可能关注新冠肺炎相关新闻报道的人更有可能对接种疫苗犹豫不决。这些研究发现明显表明,媒体生态系统在处理错误信息和帮助观众增加对疫苗的了解方面都可以发挥重要作用。

这凸显了许多数字平台面临的核心挑战之一:他们应该在多大程度上审核其网站上的内容,尤其是关于反疫苗接种的内容?虽然私营公司有权根据自己的条款和政策调整其平台上的内容,但人们一直在争议全球运营的平台处理的内容是否过多或者过少。

去年,Facebook和其他平台呼吁彻底禁止有关疫苗的错误信息,并一直在努力践行其政策,YouTube也是如此。著名的反疫苗活动家Robert F Kennedy Junior已被禁止使用Instagram,但仍出现在Facebook和Twitter 上,这凸显了这个持续存在的问题。对于一些评论家来说尤其令人不安的是,他将少数民族社区作为目标,以制造对卫生当局的不信任。在考虑平衡言论自由和安全时,必须首先考虑保护弱势群体,包括少数民族和儿童。

剥削和虐待儿童

在新冠肺炎疫情期间,其他令人不安的在线活动也有所激增:报告显示,网络上儿童性剥削和性虐待材料 (CSEAM)的消费和传播大幅上涨。三分之一的儿童在网上接触色情内容,这是儿童在使用网络时面临的最大风险。

鉴于用于促进此类活动的私人消息传递、流媒体和其他数字渠道的作用,人们需要解决隐私与安全之间的紧张关系,以解决此问题。例如,加密是保护隐私不可或缺的工具,但是,通过主动扫描、监控和过滤用户内容来检测非法材料目前无法和加密手段协同发挥作用。

欧盟委员会电子隐私指令的最新变化要求对消息数据的隐私进行更严格的保护,因此,欧盟对于儿童性虐待材料的提及量下降了46%;并且这还是Facebook停止扫描后三周内的数据。虽然此法规已经更新,但很明显,从安全角度来看,为提高隐私而设计的工具、法律和政策可能对不同的用户群体产生积极或消极的影响。随着互联网使用量的增长,解决隐私与安全之间的这种潜在的张力比以往任何时候都更加重要。

暴力极端主义和恐怖主义

这场疫情暴露了根深蒂固的社会和政治分歧,正如全球恐怖主义、暴力和极端主义行为所显示的,这种分歧在 2021 年达到了临界点。在美国,1月6日的国会暴动让人们更深入地了解QAnon等团体如何在线组织活动,这要求我们更深入地了解社交平台与极端主义活动之间的关系。

不幸的是,这不是一个新问题。新西兰皇家委员会的一份报告也强调了YouTube在一些恐怖行为中的激化作用:2019年,恐怖分子于克赖斯特彻奇两座清真寺星期五祈祷期间杀害了51人。这次袭击的视频也在Facebook Live上和之后的24小时内被播放出来,随后,Facebook争先恐后地删除了150万个包含这些镜头的视频。

报告还强调了小型平台的作用,称恐怖分子参与了4chan和8chan等网站上宣扬极右翼和民族主义观点的内容。一些人呼吁政府在解决这个问题上发挥更大的作用,而另一些人则担忧政府滥用扩大权力的风险。要求公司回应内容删除请求的立法增加了公共和私营部门之间共同责任的复杂性。

当立法要求私营部门更快采取行动时(如德国的网络执法法案(NetzDG)等),就会出现有关准确性和过度覆盖的潜在问题,尽管鉴于有害内容(通常)直接的影响,快速行动可能是有益的。无论未来与有害内容有关的决定更多地由公共部门还是私营部门定夺,权力的潜在集中需要相互制衡,以确保在此过程中和在制定任何新立法时对人权的保护。

那么,在解决数字安全问题时,这些看似截然不同的问题有什么共同点?它们均指出,当前数字媒体生态系统在三个关键领域的运作方式存在缺陷:

1.缺乏有意义的保护阈值

平台目前报告的指标主要关注已删除内容的绝对数量,无法根据用户体验提供足够的安全措施;检测或执行内容策略的改进、这些策略和内容类别随时间的变化以及有害内容本身的实际增加都不容易剖析。即使诸如“流行率”之类的衡量标准(定义为用户对有害内容的浏览(根据平台政策)占所有观看次数的比例)也不能反映某些群体是否由于其性别、种族、民族而更易于在平台上接触这些有害内容。

超越内容接收端(例如消费端)以突出信息供应方可能会有所帮助;指标,比如按国家/地区划分的前一万个组或与展示次数共享的前一万个链接,可以显示出有害内容如何而来、从哪里而来、从谁而来。

2.关于推荐系统中不当影响的标准不足

新冠肺炎疫情突出了线上自动推荐中的问题。最近对亚马逊推荐算法的审计显示,他们10.47%的自动推荐都在宣传“误导性健康产品”,其占比排名也高于揭穿这些说法的品项;对错误信息的点击也往往会影响后来的搜索结果。总体而言,在推荐内容方面,目前尚不清楚是否以及如何通过广告机制使此类内容更具经济吸引力,这与个人信息的使用有何关联,以及在用户安全方面是否存在利益冲突 。

3.缺乏跨公私部门投诉的相关协议

关于内容删除、用户封号和其他在线补救措施的决定可能会引起争议。有时监管可能走得太远,有时却还远不够。当用户向平台内部提出投诉时(尤其是可能会带来连锁反应的投诉),什么构成了充分的补救程序?是解决投诉所需的时间、根据既定政策做出决定的准确性、还是当用户不同意结果时再投诉的便利程度?目前,不存在通过行业绩效或其他机制来衡量有效性和效率的投诉协议基线标准,因此无法评估这些标准的充分性。

新框架和前进的道路

世界经济论坛与政府、社会组织、学术界和企业界的50多位专家合作,开发了一个以用户为中心的框架,在新报告中提出了最低伤害阈值、可审计的推荐系统、对用户个人详细信息的使用标准以及充分的投诉协议,以创建使用数字产品和服务的安全基线。

这只是更好地管理影响用户安全的数字平台决策的起点,但公共部门和私营部门之间需要更多协调——新成立的全球数字安全联盟Global Coalition for Digital Safety)便旨在实现这一目标,点击此处了解有关联盟的更多信息以及参与这项工作的方式。

本文作者:

李响,媒体、娱乐与体育产业总监,世界经济论坛

Farah Lalani,媒体、娱乐与信息产业负责人,世界经济论坛

本文原载于世界经济论坛Agenda博客,转载请注明来源并附上本文链接

翻译:张丽莉

校对:王思雨