八十年前,艾伦·图灵为电子计算奠定了数学基础,就在十年后,约翰·冯·诺依曼将计算机从理论变成了现实。自此以后,信息技术的发展成为了全球经济增长的基础,在一系列关键核心技术的推动下,我们能够以尽量少的成本投入获得最大的收益产出。

现代手机的存储芯片容量比约翰·冯·诺依曼(图右)1951 年为普林斯顿高等研究院制造的计算机高出了百万倍。

1971 年,英特尔联合创始人戈登·摩尔将这一飞跃式进步称为“摩尔定律”,他预测微芯片上可容纳的晶体管数目约每隔 18-24 个月便会增加一倍。但是摩尔也指出,“指数的性质决定了你一旦开始,就会有不好的事情发生。”

经历了 50 年的辉煌发展,我们发现摩尔定律也迎来了它的黄昏期。我们只有革新核心技术,才能持续、合理地向这个永远渴求更高计算能力的世界来交付创新成果

我们创造的数据每隔两年就会超过历史记录之和,计算机的演进速度再也赶不上我们数据扩张的步伐。

数据曲线援引自“IDC/EMC 2008-2017 年数字宇宙报告:HPE 对计算曲线的分析”

摩尔定律的双刃剑

摩尔定律预测的成本削减和性能提升深刻推动了技术在消费层级的普及。但是,维系这一全球增长引擎需要全球学术界、政府和行业的共同努力。

此外,建造芯片制造工厂所需的资本投资和运营成本也在呈指数级增长,这种趋势被称为“Rock 定律”(摩尔第二定律)。按照这一预测,下一代工厂的成本预计将会超过 200 亿美元。

还有一项比较鲜为人知的重要规律(我们没有延续下来):登纳德定律,即随着晶体管的尺寸缩小(或比例缩减),其功耗和成本也会降低,同时运行速度加快。这一结论由 IBM 研究员罗伯特·登纳德大约在摩尔定律的同一时期得出。

微处理器 40 年的发展趋势数据
Image: Karl Rupp

登纳德缩放比例定律在大约 10 年前就终结了,因为虽然我们可以在芯片上添加更多晶体管,但它们并不会运行得更快或更节能。为继续提升速度和降低功耗,计算机需要更高程度的集成,也就是将曾经分散到多个芯片上的功能集成到容量越来越大的单一芯片上。

只有一小部分架构商和制造商找到了成功的秘诀,即“摩尔定律 + Rock 定律 - 登纳德定律”。在业内的市场领导者圈子不断缩小的当下,圈外的创新力量只能局限于应用在外围设备领域,而然而这些设备的运行速度比高度集成的设备低数千倍。

供应商和架构商方面的整合造成了软件设计的同质性,正如缺乏生物多样性的生态系统容易遭到破坏一样,我们的 IT 系统也容易遭到网络攻击。更糟糕的是,我们的很多技术都是在一个简单、分离的时代中孕育出来的,今天却被用在了关键社会基础设施中。在前一种环境中,技术的缺陷可以得到有效控制,而在后一种环境中,软件故障会像病毒一样传播。

在摩尔定律仍然有效的情况下,不好好利用它就是跟钱过不去,但是这种情况不会持续太久。在摩尔定律长达几十年的寿命中,全球有很多公司扮演了重要角色。如今这些公司一致认为,那个唯晶体管独尊的奢华年代已经一去不复返了,自我革新才是新的出路。

虽然在摩尔定律步入黄昏的今天,我们因各种不确定性而变得迷茫,但却迎来了四十多年难得一遇的机会:挑战传统。

新纪元

随着高歌猛进的摩尔定律时代的终结,我们正面临传统认识的多重、同步颠覆:

  • 训练神经网络将取代编程的应用;
  • 数据将被分发,而不是存储在服务器集群中;
  • 内存将充裕且廉价,不再稀缺和昂贵;
  • 专用计算元素将取代通用微处理器;
  • 信息技术将创造价值,而不是降低成本;
  • 光子将取代电子作为信息载体;
  • 边缘与核心将是一个连续体,而不再分裂。

“管理数据需要很多的精力,而从数据中提取、洞察并付诸行动则需要很强的计算能力。通过当前架构维系这种形势是不可持续的。”—— 安东尼奥·奈里,HPE总裁兼首席执行官在2018 年 1 月的达沃斯世界经济论坛年会上表示

我们正面临传统认知的多重、同步颠覆。在从经典物理学到现代物理学的动荡变迁中,我们的科学变得更加强大,但同时也变得更为隐晦。与之相似,今天我们所面临的一切颠覆有希望带来更为丰厚的回报。我们应当坦然接受摩尔定律时代的终结,拥抱充满多样性和活力的全新机遇。

我们如何在这一颠覆的世界中找到方向?答案是将重心从供给侧转向需求侧。尽管传统技术的指数级性能增长有所下降,然而需求仍继续呈指数级增加。新产生的数据正在呈指数级增加,我们从感知到行动的等待时间也呈指数级下降。

相关阅读:

我们记录的信息总量每两年就翻一番,目前,这些信息中的大部分都记录在传统数据中心,但随着数据继续翻倍增加,这种情况将发生巨大变化。从未记录在数据中心的企业数据五年内可能会从当前的 10% 上升到 70%。每 10 个字节中就有 7 个无需离开“智能边缘”即可被捕获、分析和执行。

我们生活在一个无法等待的世界。不妨想一想“智能”社会基础设施的兴起:智能电网、5G 无线通信、自动驾驶汽车。所有这些系统的信息生命周期从秒降至微秒。

参考这两种趋势,我们不难看清未来的模式:大多数信息将通过人工智能和数据分析算法进行分析,从而指导我们的行动。几乎所有操作都将在分布式信息基础设施中进行。

大部分增长将发生在拥有丰富的新型计算“加速”技术的智能边缘。这些技术包括内存驱动、神经形态、光子、量子和模拟计算,每一种都必不可少。这些技术率先运用在边缘,然后回流到核心数据中心,从而建立从边缘到核心的连续体。

到 2022 年,每创建 10 个数据字节中就有 7 个字节的数据保存在存储边缘

超竞争企业

以这些趋势作为参考,我们可以对潜在的超竞争公共和私营企业加以描述。这些超竞争数字企业具有如下特点:

  • 明白实时数据是打造竞争力和创造经济价值的新来源,有着与基础商品或流程同等或更大的价值;
  • 让每个实体或数字产品、每个工厂制造流程、每个企业业务流程都能产生数据,并利用这些数据提高工作效率和灵活性;
  • 让分析和机器学习能力尽可能接近边缘,以实现实时洞察和行动;
  • 构建从智能边缘到企业核心的连续体,这样每个行动都能在最短的时间内使用最少的能量完成;
  • 通过流程改进、投资战略、客户满意、减少保修频率和直接货币化持续不断地将原始数据转化成经济优势。

新型计算元件的分布式系统必然更复杂,但它们也更合理、安全、可用和可持续。这些特点使得它们更加公正。

伴随而来的经济机遇也可以矫正当前“唯技术论”的单一文化。正如HPE实验室高级研究员斯坦·威廉姆斯在去年 IEEE 重振计算科学技术会议的闭幕辞中所总结的那样:“摩尔定律的终结是自其开始以来计算领域遇到的最棒的事情。金手铐终于解开了!”

作者:Kirk Bresniker,HPE实验室研究员兼首席架构师

以上内容仅代表作者个人观点。

本文由世界经济论坛博客原创,转载请注明来源并附上原文链接
责编:万鸿嘉

世界经济论坛博客是一个独立且中立的平台,旨在集合各方观点,讨论全球、区域及行业性重要话题。