看尽摩尔定律の前世今生

超神经 HyperAI 导读

摩尔定律是计算机科学界有名的趋势法则之一,揭示了硬件发展的高速规律。这个法则曾不断激励硬件生厂商进行产品更新。

不过,近几年来,芯片行业似乎遭遇到技术瓶颈,升级速度不断放缓。于是,不少人认为摩尔定律正在失效。但 AI 的出现,却让摩尔定律再次「活过来」。

什么是摩尔定律?

1965 年,Intel 联合创始人之一 Gordon Moore 戈登·摩尔, 在一篇名为《让集成电路填满更多组件》的文章中首次提出摩尔定律。

摩尔定律:

当价格不变时,集成电路(即芯片)上可容纳的元器件的数目,每隔约 18-24 个月便会增加一倍,性能也将提升一倍。

换言之,每一美元所能买到的电脑性能,将每隔 18-24 个月翻一倍以上。

之后,摩尔每隔十年会对芯片行业的发展做一次预测,1975 年,他预测未来十年内,芯片复杂度将每两年翻一倍。

看尽摩尔定律の前世今生

尽管这种趋势已经持续了超过半个世纪,摩尔定律仍应该被认为是观测或推测,而不是一个物理或自然法。

2010 年国际半导体技术发展路线图的更新增长已经放缓,之后的时间里晶体管数量密度预计只会每三年翻一番。

也有说法认为,这一定律先是建立在经济规律智商,揭示的是信息技术进步的速度,所以,电子行业才能够说服消费者每隔几年就购买一款新产品。

在同一时期,IBM 工程师 Robert Dennard(罗伯特登纳德)在 1974 年,提出摩尔定律的好基友——Dennard Scaling,即登纳德缩放比例定律。

登纳德缩放比例定律:

在增加芯片组件的同时,缩小芯片体积将使芯片运行速度更快,同时降低生产成本和能耗。

就这样,摩尔定律和登纳德缩放比例定律不断激励芯片制造商,增加芯片组件,提高芯片性能,同时缩小芯片体积,引领了芯片行业 30 多年的飞速发展。

摩尔定律为什么会失效?

从 2005 年开始,在摩尔定律的指导下,芯片研发开始进入纳米级,在组件越来越多体积越来越小时,量子隧穿效应(指像电子等微观粒子能够穿入或穿越位势垒的量子行为)逐渐介入。

在该效应的作用下,晶体管漏电现象开始出现,使得芯片在往更小工艺制作时,功耗不减反增,同时也带来严重的散热问题。

为了解决漏电现象,人们开始停止研发微型芯片,转向多核发展,也就是在电脑或手机中同时运行多个芯片。即便如此,该问题到目前仍没得到有效解决。

晶体管漏电现象彻底打破了登纳德缩放比例定律,也引起人们对摩尔定律的质疑。而且,按照目前的芯片研发条件,已经很难再增加晶体管组件,只能对现有芯片进行完善,但芯片制作成本却在不断增加。

MediaTek 联发科高级总监 Chien-Ping Lu 在 2005 年的一篇论文中指出:如今,晶体管数虽然在原来基础上翻了一倍,但处理器整体性能不仅没有太大的提升,研发成本和能耗反而在不断增加。

看尽摩尔定律の前世今生

制造芯片的成本逐年上涨

英特尔也指出,现在成立一家芯片制造厂,成本大概需要 100 亿美元,这对任何一家公司而言,都是一笔巨款。

IBM 研发主管 Dario Gil 则直接表明,摩尔定律已经很难适应未来计算机科学的发展。

英特尔前芯片设计师 Bob Colwell 也认为,芯片产业到 2020 年左右可能会制造出 5 纳米工艺的芯片,但这很可能是目前芯片制作工艺的极限。

21 世纪以来,芯片行业发展迅速,体积越来越小,性能越来越强。但随着制作工艺接近极限,摩尔定律在一定程度上,确实已经失去了对传统芯片的引领作用。

但在 AI 领域,摩尔定律很可能会重新生效。

AI 如何拯救摩尔定律?

AI 的兴起,对计算机核心硬件提出了新的要求:为了满足深度学习训练的要求,硬件需要能在持平目前甚至更小的能耗范围内,用更短的时间处理海量数据。

看尽摩尔定律の前世今生

算力、算法、数据的关系

预计到 2020 年,AI 需要的算力将在现在的基础上再增加 12 倍。这 12 倍的算力,可以让 AI 模型把原来需要几天才能完成的工作缩短到几个小时。但仅依靠现有的芯片,要实现这一切还存在较大难度。

为此,很多公司都在开发 AI 专用处理器,以提高芯片算力,降低使用成本。在众多 AI 硬件开发商里,Nvidia 和 AMD 等主要硬件供应商研发的 GPU,应该算目前为数不多能满足 AI 算力需求的处理器之一。

看尽摩尔定律の前世今生

网友恶搞的燃气灶形状的 Nvidia GPU

作为全球最大的 CPU 制造商,英特尔则希望在未来研发出比现有 GPU 性能更强的 AI 处理器。2016 年,英特尔以 4.08 亿美元收购了 AI 软件公司 Nervana。

就发布了了 ASIC AI 系列,用以提升核心算法的计算效率。据说该芯片在性能上比目前全球顶尖的 Nvidia Maxwell architecture GPU 还要高 10 倍。

此外,Google 也在开发自己的 AI 处理器 TPU,同样是专为 AI 设计,TPU 在处理基准代码执行方面比现有的 AI 处理器快 15~30 倍。

在国内,也有企业前赴后继,都计划在芯片领域大展拳脚,不单单是为了促进 AI 行业的全面发展,也为了弥补国产芯片的空白。

从 CPU 到 GPU 再到 TPU 等,AI 正在用新技术催生更为强大的芯片。从这方面来看,摩尔定律虽然正在传统计算机硬件领域失效,但未来可能在 AI 领域里焕发新生。