人工智能是如何悄悄接管民主的
现在不仅是政治家大展宏图的最佳时机,更是替政治家工作的机器学习工程师发展的大好时机。
纵观现代历史进程,可供政治候选人为选民“量体温”的工具并不多。很多时候,政治候选人参与选举只能依靠直觉,而非对选民的深入了解。
现在我们可以利用大数据来实现竞选效率的最大化。接下来,人们将把人工智能应用到选举活动和政治生涯中。
机器学习系统已经能够通过对法案文本和其他变量进行算法评估,以此来预测哪份美国国会法案将能够通过,包括某项法案拥有多少支持者,甚至连提交给国会的年份也可以预测。
如今,人们通过在选举活动中谨慎地使用机器智能解决方案来吸引选民,帮助他们了解更多重要的政治问题。
你会因为人工智能而投票吗?
有人或许会借人工智能来操纵个体选民,因此这项技术的使用引发了道德问题。
例如,2016年美国总统大选期间,数据科学公司Cambridge Analytica针对可被说服的选民,发起了一项基于选民个人心理的大型宣传活动。
这项活动利用大数据与机器学习技术,针对选民面对不同论断的敏感度进行预测,再根据此预测结果向他们传递不同信息。偏执狂患者收到了与恐惧相关的广告宣传信息,而有传统倾向的人群则收到了关于传统和社区讨论的广告宣传信息。
该活动的实现得益于该公司成功获取了选民的实时数据。数据的主要来源包括选民在社交媒体上的行为方式、消费模式以及人际关系。该公司利用选民的网络足迹,构建个人行为和心理侧写档案。
该方法的问题不在于这项技术本身,而在于这种活动的内在本质,而且通过这种方式传递出去的政治信息并不真实。唐纳德·特朗普(Donald Trump)总统等候选人的竞选承诺较为灵活,因此他们尤为适合使用这一策略。每一位选民都能收到为其特别定制的信息,强调某一论断的其中一个方面。如此一来,每位选民眼中的特朗普都是不一样的。这种方法的关键在于,要找到正确的情感触发机制,从而激励每一个人采取行动。
对网络机器人程序的攻击
2017年英国大选大量使用了政治网络机器人程序,在社交媒体上散播不实信息和虚假新闻。2016年美国大选以及世界各地的多场重要选举也发生了同样的情况。
网络机器人程序是设定好的自动账户,用于大力传播片面的政治信息,营造出公众支持的假象。通常它们都会伪装成普通人类账户,用于凸显某一位候选人的负面社交媒体信息,并将这些信息传达给他们的潜在支持群体。该做法的主要目的在于劝阻这群人参与选举日的投票活动。
据悉,在2016年大选期间,支持特朗普的网络机器人程序渗透到了希拉里·克林顿(Hillary Clinton)支持者使用的Twitter网站标签和Facebook页面中,进而传播自动化内容。网络机器人程序同样出现在了2017年法国总统大选的关键时刻。候选人埃马纽埃尔·马克龙(Emmanuel Macron)的竞选团队遭遇黑客攻击,大量邮件内容被曝光在Facebook和Twitter上。马克龙表示,这些海量信息还包括有关他金融交易的虚假信息。“# MacronLeaks(马克龙泄露)”标签的目的在于构建一种话语环境,将马克龙塑造成一个骗子和伪君子的形象。这是网络机器人程序的惯用策略,主要是为了对热门话题起到推波助澜的作用,从而占领社交新闻的主体地位。
利用人工智能谋取福利
让人工智能成为全球坏事(和落选)的替罪羔羊并非难事,但人工智能这项技术本身其实是无害的。这一算法工具虽可用于误导人们、提供虚假信息并使人产生困惑,但同样也可用于拥护民主。
我们可以通过更加合理的方式利用人工智能,从而更好地开展竞选活动。用符合道德的方式使用人工智能,可以为选民提供相关信息和服务。如今,Factmata、Avantgarde Analytics等新兴人工智能创业公司已经在提供此类技术服务了。
例如,我们可以设定政治网络机器人程序,当人们分享的文章中包含已被证实的不实信息时,这些程序便可介入其中。它们可以发出警告,提醒人们文章中存在可疑信息,并给出相应理由。如此一来,可以帮助揭穿已知的错误信息。比如有一篇无耻的文章宣称,教皇弗朗西斯(Pope Francis)是特朗普的拥护者。
我们可以利用人工智能更好地倾听人民的呼声,确保他们选出的代表能够清楚地听到他们的心声。基于这些认识,我们可以开展有针对性的活动,让选民了解不同的政治议题,以便他们自主做出决定。
电视辩论和报纸提供了繁杂的政治信息,往往令人应接不暇。人工智能可以根据人们最关心的问题,帮助他们了解每一位候选人的政治立场。例如,如果某位选民对环境政策感兴趣,那么我们可以使用人工智能定向工具,帮助其发现各方对环境问题的看法。
换言之,我们可以利用人工智能技术来对抗计算机宣传,打破回声室效应。尤为关键的是,个人化的政治宣传广告应当以服务选民为宗旨,帮助他们了解更多信息,而非损害他们的利益。
监管中的迷失
此外,还存在另外一种可能性,即强化限制计算机宣传的监管工作。出台更多有关数据保护与算法问责的法规,也可减轻政界滥用机器学习的程度。然而,这也可能会妨碍人工智能创新为人类谋取福利。
相较于技术进步而言,监管的发展总是更为缓慢。欧盟《一般数据保护条例》承诺,当欧盟公民受到自动决策系统的影响时,他们拥有广泛的“获得解释的权利”。
然而,关于该规定能够催生出多少有关算法问责与透明度的新标准这一问题,仍存在着诸多误解。尤为值得注意的是,该立法缺乏对人工智能滥用的精确描述语言,也没有给出定义准确的相关保障措施。与此同时,该条例仅规定了公民拥有被告知的权利,而非可以退出任何数据操作与自动决策系统的权利。
政界在短期内是不会放弃使用人工智能技术的,因为它是政治家及其选举活动的宝贵工具。除了监管机构的长期努力外,政界应当在短期内遵守道德规范,谨慎使用人工智能技术,确保旨在影响选民的举措不会最终破坏民主。既然人工智能已经融入了当今政治,那就让它服务于我们每一个人吧。
作者:Vyacheslav Polonski, 牛津互联网研究院网络科学家
以上内容仅代表作者个人观点
本文由世界经济论坛原创,转载请注明来源并附上原文链接
责编:刘博睿
世界经济论坛·达沃斯博客是一个独立且中立的平台,旨在集合各方观点讨论全球、区域及行业性重要话题
不要错过关于此主题的更新
创建一个免费账户,在您的个性化内容合集中查看我们的最新出版物和分析。
许可和重新发布
世界经济论坛的文章可依照知识共享 署名-非商业性-非衍生品 4.0 国际公共许可协议 , 并根据我们的使用条款重新发布。
世界经济论坛是一个独立且中立的平台,以上内容仅代表作者个人观点。
分享:
每周 议程
每周为您呈现推动全球议程的紧要问题(英文)