伊隆·马斯克、斯蒂芬·霍金与比尔·盖茨都曾警告称,飞速进步的人工智能有可能为人类带来严重的后果。关于人工智能的恐慌,已经被科幻小说和影视作品演绎了数十年。《终结者》系列和《我,机器人》等影片都讲述了人类在失去对人工智能的控制后,世界就将被其所毁灭的故事。而上述名人的关切,则让这一流传了数十年的恐慌显得更加真实

佐治亚理工学院的研究者相信,我们能够通过某种方法让激增的人工智能更同情人类,进而降低其杀人的概率。

研究者马克·里德尔和布伦特·哈里森的最新研究成果文章中显示,寓言和民间传说能够把人类判断是与非的习俗教给人工智能,这一过程与给少年儿童教授基础道德准则的过程非常类似。
autonomousweapon

例如在美国,乔治·华盛顿与樱桃树的故事教会了小孩子要时刻说真话。而全球通行的龟兔赛跑寓言则说明了“坚持不懈、勤能补拙”的道理。

文章中称,虚构的故事给出了在应对不同情况时广泛通用的应对策略,也描绘出了人类的思维过程。研究人员让人工智能众包搜集了上百个呈现行为好坏区别的故事并阅读。研究人员认为,这样可以让机器人学会“如何在无穷多种场景下采取正确的行动”,这比只能在设定好的场景下采取行动强太多了。

里德尔在一段声明中表示,“从不同文化中搜集而来的故事,通过寓言、小说和其他文学体裁中正反两方面举止的例子,教会了小孩子如何将举止控制在在社会可接受的范围内。我们相信对这些故事的理解,能够终结机器人出格的行为举止,并在完成给定目标时更多选择那些不会伤害人类的行为。”

文章认为,机器人通过一种名为“吉诃德”的模式,能够学习着遵照人类的行为常识。“吉诃德”模式通过教授人工智能终端阅读能建立人类价值体系的故事,并奖励其中的“好”举止来达成教学目标。

这一技术基于里德尔教授先前的一项名为“谢赫拉莎德系统”的研究。这一系统显示了人工智能是如何通过众包搜集互联网上的故事情节,而将一系列行动按照正确的顺序排列的。“吉诃德”模式在此基础上使用了一种“奖励信号”,来在测试中鼓励好的举止、惩罚坏的表现。这两项研究成果的结合,教会了机器人如何从故事中找到能帮助他们正确做出选择的模式,就像一个文字冒险游戏一样(在文字冒险游戏中,玩家对于特定问题的选择将导致故事走向不同的结局——译者注)。

在一次测试中,研究者让一个机器人去药房取药之后回家。如果机器人没有人类的行为常识,它就不知道药品需要花钱买、或者偷窃是错误的;那么我们的机器人为了尽快完成任务,就可能选择抢劫药房。但在至少一个场景中,机器人通过阅读故事中的正确价值观而获得了激励,知道它可以花时间去银行取钱来买药。在这一测试中,对于采取正确行动所给予的激励,压倒了不得不花更长时间完成任务的负面影响。

文章认为,这一技术在机器人只需面对有限个目标、并有人类帮助其进步时最能发挥效果;但文章同时认为,这是我们让人工智能具备人类道德理性的重要第一步。

然而,如果机器人能够学到“好”的举止,他们自然也就能学到“坏”的。

文章中称,“我们看上去不可能避免所有对人类的伤害,但我们相信一个“有文化的”人工智能——一个接受了特定文化或社会中内含价值观的人工智能,将在除了最紧急关头之外的场合,努力避免出格的行为举止。”

 

 


本文系与Quartz联合发布,转载请联系原作者。

作者:Ashley Rodriguez是Quartz的一名记者。

翻译:达沃斯博客翻译小组·钟源

以上内容仅代表作者个人观点。世界经济论坛博客是一个独立且中立的平台,旨在集合各方观点讨论全球、区域及行业性重要话题。