盲目应用AI可能会加重底层工作负担
推行日常工作自动化的动力很大程度上来源于对生产力下降的担忧。 Image: 路透社/Temilade Adelaja
Barbara Ribeiro
Associate professor in innovation management and policy and Honorary Lecturer, SKEMA Business School and University of Manchester- 新研究表明,引入自动化流程实际上会使工作更加复杂,并产生新的任务。
- 这项研究是在合成生物学领域进行的,该领域所使用的机器人平台导致研究人员需要考虑额外的假设并进行更多实验。
- 同样的经验可能适用于ChatGPT等工具,有报道称ChatGPT背后的公司专门雇佣了工人来帮助训练并阻止它生成攻击性内容。
人们普遍认为,人工智能(AI)的推行将有助于简化我们的工作。甚至有人担心,AI的使用可能会让我们完全丧失对某些岗位的需求。
但是,我和曼彻斯特大学的三位同事对科学实验室进行的一项研究表明,这些旨在简化工作和解放人们时间的自动化流程也可能会使工作变得更加复杂,反而会带来许多人可能觉得单调平凡的新任务。
这项研究发表在了《研究政策》(Research Policy)上。我们研究了科学家在合成生物学(synthetic biology,简称Synbio)领域的工作。Synbio是关注如何重新设计生物体以获得新能力的学科。其应用场景包括人造肉、新型肥料研发以及新药发现等。
Synbio实验依靠先进的机器人平台来完成重复移动大量样本的工作,另外还要使用机器学习来分析大规模实验的结果,而机器学习本身又会产生大量的数字数据。这个过程被称为“数字化”,即利用数字技术来改变传统的工作方法和方式。
在科学工作中实施自动化和数字化很大程度上是为了能够完成更多的科学任务,为研究人员节省时间,使其专注于更“有价值”的工作。
矛盾的结果
然而,在我们的研究中,科研人员并没有像预期那样得以从重复的、手动的或无聊的任务中解脱出来。相反,机器人平台的使用使得研究人员必须执行的任务变得更多更繁杂。这一现象的出现有几个原因。
其中一个原因是研究人员需要验证的假说和进行的实验增加了。有了自动化方法,研究结果就会出现各种各样的可能性。
科学家表示,自动化让他们能够评估更多的假设,并能对实验设计进行更多微调,但这无疑增加了需要检查、标准化和共享的数据量。
此外,机器人也需要接受“训练”才能完成先前人工进行的实验。人类也需要培养新技能来设计、修理和监督机器人的工作,确保科学工作不出现错误。
科学工作通常是根据同行评议出版物和研究经费资助等产出进行评判的。然而,清理、排除故障和监督自动化系统需要耗费大量时间,使得科研人员难以完成会带来传统产出的科研任务。这些不太受重视的任务也可能在很大程度上是隐形的,特别是因为科研管理人员并不会在实验室里待很多时间,也就对这些单调平凡的工作一无所知。
负责这些任务的合成生物学家也并没有比其上司拥有更好的报酬或更多的自主权。根据基层科研人员的自身评估,其工作量远比上级所承担的要多。
举一反三
合成生物学领域的这些经验有可能也适用于其他领域的工作。最近流行的ChatGPT是一个由人工智能驱动的聊天机器人,可以“学习”网络上的信息,并在用户提出问题时给出翔实可信的答案。
据《时代》杂志报道,为了避免ChatGPT生成具有种族主义、性别歧视或其他令人反感的内容,开发者雇用了肯尼亚的工人来协助过滤机器人提供的有毒内容。
这就是数字化的问题所在。数字基础设施的开发和维护往往需要背后许多不为人所见的工作,构成所谓的“数字化悖论”。也就是说,工作流程自动化后,受到数字化影响的人并不会都变得更有生产力或有更多的自由时间。
企业和政府往往基于对生产力下降的担忧而推动实现日常工作的自动化和数字化。但是,我们不应该轻信这些提高生产力的承诺。
相反,我们应该重新评估我们衡量生产力的方式,要考虑到需要人工完成的那些无形任务,而不仅仅是看到在表面上被奖励的工作内容。
我们还需要考虑如何设计和管理这些流程,让技术能够更积极地增强人类的能力。
本文作者:
Barbara Ribeiro,SKEMA商学院创新管理和政策副教授、曼彻斯特大学荣誉讲师
本文与The Coversation合作发布,原载于世界经济论坛Agenda博客,转载请注明来源并附上本文链接。
翻译:左佳鹭
编辑:江颂贤
不要错过关于此主题的更新
创建一个免费账户,在您的个性化内容合集中查看我们的最新出版物和分析。
许可和重新发布
世界经济论坛的文章可依照知识共享 署名-非商业性-非衍生品 4.0 国际公共许可协议 , 并根据我们的使用条款重新发布。
世界经济论坛是一个独立且中立的平台,以上内容仅代表作者个人观点。