人工智能强大继而改变世界的新故事暂时还没有。但是,伴随着各种可能性,危险也悄然到来。虽然我们应该为人工智能改变眼疾和诊断癌症的点子而振奋,抑或是为自动驾驶汽车可能带来的交通革命而高兴,但是我们不能忽略风险,其中最紧迫的一项就是个人偏好。

与穿越时空的杀手机器人不同,人工智能偏好不太可能成为好莱坞的下一个重磅炸弹,但是确是一个潜在的大问题。

人工智能怎么会有偏好?

虽然把人工智能的算法想象成完全无情中立是让人安心的,但显而易见的是,这不太可能。人工智能程序是由遵循规则的算法组成,它们需要学习这些规则,这将通过向算法提供数据实现,然后算法使用这些数据来判断隐藏的模式和不规则性。如果训练数据收集不准确,错误或者不公正的规则可能会成为算法的一部分,即可能导致带偏好的结果。

一些日常生活中的例子可以证实面部识别软件在非白人的面部识别方面表现糟糕语音识别软件无法辨别男声和女声。更令人担心的是,在信用机构和假释委员会中使用人工智能可能造成的种族歧视问题。

信用机构的算法也许可以使用来自预存的信用评级数据或者基于特定群组的贷款偿还记录来开发。或者说,它可以使用互联网上大量的可用数据,例如人们的社交媒体行为或者关于他们居住地社区的一般特征。即使我们的一些数据源存在偏好,但是如果它们包含有关性别、人种、肤色或者种族,或者在我们收集的数据不能无二致地代表所有的利益相关者,那么我们可能会无意中在人工智能里写入偏好。

如果我们向人工智能提供的数据体现出大部分的高级职位由男性担任,那么人工智能会立即反应公司正在招收一名男性职员,即使这并不是标准之一。较差的数据集训练算法可能会得出一些诸如女性不适合担任高管职位、或是来自偏远地区的人很有可能犯罪等结论。

一如我们从基本统计中所知,即使两个特征之间存在相关性,也并不表示二者有因果关系。这些结论可能是无效的,个人不应该因为这些因素而被放在不利位置。相反,这意味着算法使用着不良数据进行训练,这应当予以纠正。

所幸的是,我们可以采取一些关键步骤来防止人工智能形成这类偏好。

1. 偏好意识

认识到人工智能可能会出现偏好是至关重要的第一步。认为由于机器人没有情感所以不可能出现偏好的观点是阻止我们采取必要的措施攻克偏好的主要障碍。忽视我们自己的责任与采取行动的能力也同样可怕。

2. 动机

意识可以为变革提供动力,虽然这不一定对每个人都生效。为消费者制造产品的营利型公司因为经济动机而规避偏好、制造富于包容性的产品;如果,例如某公司最新的智能手机不能提供准确的语音识别,那么不满的消费者将会流向它的竞争对手。即使是这样,也可能会出现存在歧视其他使用者的成本效益分析。

对于那些缺乏经济动机的公司来说,我们需要施加外在压力来创造另一种动机。有偏好的算法对政府的影响会对上百万的公民的生活产生不公平的影响。

在众多合作伙伴部署了人工智能的情况下,我们还需要明确各方的责任的清晰的指导。例如,一个基于私人开发软件的政府程序被第三方重新打包,那么这种情况下是谁的责任呢?我们需要确保我们并非处于一个每个人都在无限贬值、越发劣势的境况之中。

3. 保证我们的数据质量

由有偏好的人工智能算法引起的所有问题都根植于受污染的训练数据。如果我们可以避免在收集数据和导入数据时引入偏好,那么这将会向规避这类事件迈出重要的一步。比如说,对于各种用户和口音一碗水端平的语音识别软件的训练可以帮助确保少数者的权益。

如果人工智能接受的是廉价、易于获得的数据,那么很有可能不会检查偏好问题。数据也许是从一个不具有完全代表性的来源获得。与之相反的是,我们需要确保我们的人工智能是建立在尽可能减轻偏好的收集数据方式的有质量的数据上的。

4. 透明度

AI Now倡议(纽约大学的AI Now研究所提出)相信,如果公共部门不能解释算法或者其得出结论的方法,那么这样的运算就不能被使用。在这样的情况下,我们可以识别出为什么会出现偏好和不公平的决定,让人们有机会对结果提出质疑,从而为解决问题提出适当的反馈。这样还有助于保持责任感、并且防止公司规避责任。

人工智能无疑是强大的,并且有着无限的可能帮助我们的社会发展,我们不能将我们对平等的责任推卸给所谓的全能的人工智能算法。偏好可能在无意中蔓延,但是我们仍旧可以用行动来缓解和预防它们。这需要意识、动机、透明度以及确保使用对的数据。

相关阅读:

作者:Robert Gryn, Codewise的首席执行官

Pawel Rzeszucinski, Codewise的首席数据科学家

以上内容仅代表作者个人观点。

本文由世界经济论坛博客原创,转载请注明来源并附上原文链接

翻译:胡静璇

责编:万鸿嘉

世界经济论坛·达沃斯博客是一个独立且中立的平台,旨在集合各方观点讨论全球、区域及行业性重要话题。