人工智能如何支持多样性、公平性和包容性?
人工智能必须是公平的、包容的。 Image: Freepik
- 黑人历史月活动于每年二月份在美国、加拿大和英国举行;
- 美国的民权运动和新兴技术密切相关,尤其是从正义的角度来看;
- 人工智能的使用方法必须符合道德和公平准则,以确保它能够赋权社区,并造福社会。
算法中所蕴含的偏见,是一种人类疏忽,而它将带来高昂的代价。 由于算法会对欠代表的边缘化社区造成巨大影响,人类社会将为此付出高昂代价。 随着人工智能继续在各个行业和职能中扩展,它可能会散布这种无意识的偏见。很明显,这些偏见弊大于利。
人工智能伦理学家和负责任的人工智能从业者,经常谈到在人工智能的生命周期中需要更多的透明度和问责制,而黑人历史月通常是组织评估自己已完成的和待完成的去偏见工作的时候。
在由EqualAI的Miriam Vogel和世界经济论坛的Kay Firth-Butterfield共同主持的播客AI We Trust中,人们探讨了扩展负责任人工智能的机遇和挑战。 在今年的黑人历史月节目 《人工智能如何(和应该如何)影响我们的黑人历史月庆典》中,人工智能伦理学家、犯罪学家、哥伦比亚大学社区学者和Urban AI创始人Renee Cummings也加入了他们的对话行列。
这一集的重点是人工智能的公平性和包容性的重要性,以及人工智能与正义以及公民参与的联系。
人工智能伦理学家Renee Cummings说:“很多人工智能和数据科学都与公民权利有关。 当我们想到黑人历史月时,我们会想到历史遗产,以及能够改变世界的美国历史遗产。 而当我们思考人工智能时,算法同样也可以创造遗产”
黑人社区的技术史
在美国的有色人种社区中,存在着对技术不信任的历史——执法、社会服务、住房和医疗保健都表现出种族的差异性和不平等性,尤其是在新冠疫情期间。Cummings解释说,即使是在新近历史中,许多社区在研究中也被当做“小白鼠”对待,因此对于技术的不信任程度,往往是代际传递的、基于创伤的。 部署人工智能等新技术,需要建立和恢复这种信任和正义。
由于人工智能旨在协助和复制人类互动,因此技术创新最不应该做的,其实就是维护过往的人类偏见,并使有害和不准确的刻板印象因技术而永久地固定下来。持续破坏个人未来(特别是BIPOC群体,即黑人、原住民和有色人种)的旧系统,在新技术运用时应该遭到摒弃。
人工智能已经开始被应用到诸多领域,比如决定谁能够获得奖学金、抵押贷款和经济资本,因此人工智能毫无疑问必须要保障公正性和包容性。 在复制人类互动时,它应该复制的是人类所能提供的最好的模式,而不是那些最差的偏见。
AI&You是一家非营利组织,其使命是让边缘化社区参与并教育人工智能。它是这样描述算法偏见的:
“人工智能不知道我们所展示给它的东西是什么,但它仍然试图去理解这些内容。因此,如果我们展示给人工智能的东西本身就是偏见,无论是以种族主义还是以仇外的方式呈现,人工智能将不可避免地会在其算法中重现这种偏见。”
Cummings解释道,技术武器化的一个关键和新近例子是,在 2020 年美国的“黑命贵”(Black Lives Matter)抗议活动期间,“监控技术被用来记录、追踪和恐吓诸多记者、抗议者和活动家——假如缺乏公平或多样性,那么新技术的应用将会带来诸多挑战。”
如果支持面部及语音识别和追踪的人工智能技术,因其数据和设计而存在固有偏见,那么作为识别目标的BIPOC社区(黑人、原住民和有色人种)甚至会在没有意识到的情况下受到伤害。 如果人工智能要被拓展推广,那么它的算法必须是合乎道德和公平的。
对于技术的公众信任和公民参与
大部分人工智能的应用,都是在公众不知情的情况下发生的,因此公众也没有参与到这个过程中。Renee Cummings大力支持公民和社区参与到设计和部署人工智能等新兴技术的过程之中。 为了建立对于技术的信任,公众需要参与到“公共信任技术”的构建之中。
Cummings表示,作为公共利益的守护者,每个人都有责任来确保人工智能是负责任的、值得信赖的。 由于社区最终是允许人工智能系统运行的数据和知识的生产者,因此将他们的声音纳入到人工智能的设计阶段是有意义的。
此外,为了创造一个可持续的未来,我们还需要教育和多样化的声音来实现更具包容性的创新,尤其是涉及公共安全和个人安全的创新。 例如,如果一个社区对执法部门存在长期的不信任,那么当执法部门部署一项新技术时,即使它是有益的,也会被认为是不可信的。
我们很少会看到一项新技术的部署在任何社区中造成(或应该造成)危机的情况。 相反,在部署一个有目的和有意识的包容性新工具(在所有现有工具中)时,它必须赋予社区权力,并能够为整个社会带来好处。
确保人工智能具有包容性的四种方法
多样性:在整个人工智能生命周期中都需要关注其包容性——从构思、设计开发、再到部署和事后监控。 Appen的首席执行官Mark Brayan在世界经济论坛的文章中写道:“创建具有包容性的人工智能,需要在整个算法的开发过程中彻底转变思维方式。”
透明度:不仅是在项目的构思和设计阶段,还是在为项目选择正确的投资和资本时,都需要保障透明度。 科技公司需要公开正在设计的新技术所包含的内容,最重要的是,任何新技术都需要公开可能的受影响者及可能产生的影响。
教育:向代表性不足的社区教授和装备必要的工具和技能,让他们得以了解和应用人工智能。DataEdX创始人、斯坦福PACS从业者研究员和Siegel Family Endowment合作伙伴研究员Brandeis Marshall博士在社区对话中分享道,接触 BIPOC(黑人、原住民和有色人种)社区需要更好的代表性:“如果你看不到它,你就不会成为它 ——因此,让更多人进入人工智能学科,对于欠代表的社区来说至关重要。”
倡导:支持和关注该领域的组织和个人工作,例如Black in AI(计划消除世界各地黑人在人工智能领域所面临的障碍),以及全球人工智能行动联盟 (GAIA)。
本文作者:
Safaa Khan, 世界经济论坛全球人工智能行动联盟项目设计和传播专家
本文原载于世界经济论坛Agenda博客,转载请注明来源并附上本文链接。
翻译:陈达铿
编辑:王思雨
不要错过关于此主题的更新
创建一个免费账户,在您的个性化内容合集中查看我们的最新出版物和分析。
许可和重新发布
世界经济论坛的文章可依照知识共享 署名-非商业性-非衍生品 4.0 国际公共许可协议 , 并根据我们的使用条款重新发布。
世界经济论坛是一个独立且中立的平台,以上内容仅代表作者个人观点。
实时追踪:
系统性种族主义
相关话题:
分享:
每周 议程
每周为您呈现推动全球议程的紧要问题(英文)