速度提升百倍 颠覆大数据处理的光子计算芯片来了 (速度提升百倍动能提升多少倍)
AI对芯片的高算力以及大数据处理的需求,让冯诺依曼架构的电子芯片面临着巨大的挑战。这也让量子计算、神经拟态计算、光子计算这些前沿技术受到了越来越广泛的关注。其实,业界对这些技术的研究都已经有几十年的历史,但出于各种因素,至今都还未大规模应用。
光子计算在三种前沿计算技术中关注度较低,不过情况正在改变。准确率接近电子芯片,完成矩阵乘法所用时间可达到最先进电子芯片1/100以内的光子计算芯片,或将在不远的将来颠覆大数据处理等应用。
光子计算开始引发关注
光纤传输已经普及,但同样使用光子的计算近两年才开始受到关注。曦智科技联合创始人兼CEO沈亦晨接受雷锋网专访时表示,用光做数据传输不是一件新鲜的事情,光纤通信已经成为了业界标准。这反应出用光做数据传输无论是成本、能耗还是带宽都远优于电子。
“我觉得光通信是实现光子计算的必经之路,从半导体的发展来看,也是先做通信再做计算,两者最大的不同在于集成度。”沈亦晨表示。
光通信的一个模块里可能涉及几十到上百个光学元器件,但光子计算一个芯片就需要成千上万个光学元器件,这就会带来体积、封装、控制等一系列的问题。
所谓光子计算,可以理解为将大量光学器件有序组合起来,其作用类似半导体芯片中的晶体管,利用不同波长,相位和强度的光线组合,在复杂的反射镜、滤波器以及棱镜结构所组成的数组中进行信息处理。
理论上,光子芯片规模可以做到很大,也可以做到很小,并且光的特性先天适合线性计算,包含高密度的并行计算。在AI火热的当下,光子芯片运行矩阵乘法效果有机会比现有电子芯片效果好成百上千倍,吸引了学术界和产业界争相探索光子计算带来的机会。
2015年,IBM研究人员发表了针对光子计算的新实验性技术,把硅光子数组集成到与CPU 相同的封装尺寸中。
2016年,麻省理工学院的研究团队与合作研究者提出了使用光子代替电子为理论基础的计算芯片架构。由于光和透镜的交互作用过程本身就是一种复杂的计算——傅立叶变换,利用这个原理,使用多光束干涉技术,可以让干涉结果反应想要的计算结果。
2016年6月,麻省理工学院研究团队研发出针对深度学习的可编程纳米光子处理器在arXiv提出了一份论文,该论文的第一作者及通讯作者正是沈亦晨。该论文最终在2017年发表在《自然-光子学》杂志上。
一年后,英国牛津大学研究人员使用特殊的相变材料与集成光路,模拟人脑的神经突触作用,由此设计出的“光子突触”理论运行速度是人脑的千倍。
“2017年发论文时的光子计算设备体积还比较大,主要是因为当时很多器件都是分离式的,直到2019年初,我们把所有与光相关的分立式器件都集成到一个芯片上,体积就缩小了很多。”沈亦晨表示。
沈亦晨创立的曦智科技,正是当下让光子计算获得更多关注以及推动光子计算进步不可忽略的力量。
业界首款光子计算芯片原型如何诞生?
前面已经提到,光子计算芯片进行矩阵乘法运算的效果比电子芯片好成百上千倍,因此光子芯片非常适合AI计算。但首先需要解决的问题是,如何将体积庞大的光子计算设备变为更适合规模应用的光子计算芯片?
这就得从光子计算的实现方式说起。 沈亦晨介绍,“光子计算实现的方案有很多种,包括空间光、结构光、MEMS、硅光等。我们选择的硅光方式,是用硅作为光子的载体,利用成熟的半导体工艺,不仅集成度和稳定性高,成本也很低。”
据悉,目前硅光芯片一般选用45-90nm的成熟半导体制程,带来成本优势的同时,能够大幅提升集成度。
“如果用传统的空间光的方式做光学器件,体积在毫米或者厘米级别。但使用成熟的半导体制程可以让光学器件的体积缩小到微米级别。”沈亦晨指出。
曦智科技联合创始人兼CEO沈亦晨
除了集成度的大幅提升,硅光相比传统的技术调制解调速率可以从千赫兹或者兆赫兹的级别提升3-4个数量级,也就是调制解调频率可达每秒十亿次甚至百亿次。
集成度提升解决光子计算芯片体积挑战的同时,也带来了新的挑战。 “我们使用的是硅光的方式,但我们并没有做光学晶体管,而是用另外一种方式让光学器件能够进行交互产生计算。光子芯片的集成度提高之后,如何同时控制上万个光学器件就是一个难点。” 沈亦晨说。
“另外,更高的集成度也带来了散热问题。因为之前没有人做过,封装有上万个光学器件的芯片也是一个比较大的挑战。 而曦智的重要创新在于,让上万个光学器件同时可控。 ”
沈亦晨认为,要把光学器件集成到一个芯片上问题不大,但要让硅光芯片不仅能运行,还能满足信噪比等计算需求,就要经过很多次迭代。
而沈亦晨和他的团队敢为人先,是因为他们走在了光子计算研究的前沿。沈亦晨是数学和物理的背景,在麻省理工学院博士期间,他就觉得将光子计算和AI结合是一个很有趣的方向,并且有很大的潜力。随着深入的尝试与探索,他越来越发现这是值得投入更多时间和资源去做的事情。博士毕业后,沈亦晨就和志同道合的朋友开始将研究在产业界进行转化。
于是,2016年,沈亦晨与麻省理工学院的几个博士好友,共同创立了全球首家光子计算公司。他们的目标是利用已经拥有的大量自主知识产权以及包括集成光学器件设计、集成光电系统和深度学习算法在内的核心技术推动光子计算芯片的商业化落地。
成立之初,曦智科技团队就获得了资本的认可,得到了顶级风险投资机构千万美元级别的首轮融资。2018年,他们又在上海成立中国团队,经过两轮总额达3670万美元的融资,曦智科技成为了目前全球融资额最高的光子计算创业公司。
世界第一款光子计算芯片原型板卡Prototype
到了2019年,沈亦晨的团队对外宣布成功开发出世界第一款光子计算芯片原型板卡(Prototype), 并通过视频展示了Prototype运行了Google Tensorflow 自带的卷积神经网络模型来处理 MNIST 数据集。这是一个使用计算机视觉识别手写数字的基准机器学习模型,也是机器学习中最著名的基准数据集之一。
世界第一款光子计算芯片原型板卡运行 MNIST
测试中,整个模型超过 95% 的运算在光子芯片上完成,且光子芯片完成矩阵乘法所用的时间可达到最先进的电子芯片的 1/100 以内。
至于最近进展和成果,沈亦晨只表示下一个分享的系统一定会比上一个好很多,具体时间现在还无法透露。
对于曦智科技为什么能够成为全球最先发布光子计算芯片的公司,沈亦晨解释说他博士期间的研究就是解决用硅光做高速的累乘计算和开发合适光子计算的算法。而曦智科技的其他创始成员在博士甚至博士之前就在研究利用光子的数据搬运和信号处理。
创始团队更早研究光子计算和AI的结合,技术和经验的积累成就了曦智科技的首款光子AI芯片。
但沈亦晨强调,“我们觉得在现在阶段,在开始设计时就需要设计一个光电混合的芯片系统,然后从架构的各方面优化整个系统的性能。并不是先设计一个光子芯片,再加上电子芯片。”
硬件有了,软件将在很大程度影响光子计算芯片能够拓展的边界。
光子芯片即将颠覆大数据处理
为了实现更好的大数据计算,软硬件的融合以及对算法的支持非常重要。沈亦晨表示,“我们的芯片兼容TensorFlow和Caffe等框架的挑战与数字AI芯片非常接近,因为最后和软件交互的也是数字芯片。”
算法方面,雷锋网了解到,曦智科技的光子芯片现在能够兼容绝大部分的机器学习算法,同时,他们也会提供一套算法指导,针对他们的光子芯片来专门优化算法,最大程度发挥光子芯片的优势。
他进一步说,“我们最终要做的是能够商业化广泛应用的芯片,所以需要把框架做得更广一些,希望目标芯片也可以兼容神经网络之外的一些算法。最近也有一些突破,比如把光子芯片应用于优化处理的问题上,像是材料、药物研发以及路径的优化。”
要让光子芯片在不牺牲性能和精度的前提下兼容性更高,有两方面的难点:硬件层面需要把信噪比控制得更好,软件层面需要使用一些精度提升的技术。也就是说,无论是性能还是通用性的提升,都需要系统级的优化,包括光子、电子以及周边器件的共同优化。
随之而来的问题是,光子芯片会带来哪些改变或者说变革?沈亦晨说:“光子芯片整体而言是对电子芯片的补充,在个别场景会是一个颠覆,比如大数据处理以及优化的相关场景。”
服务器和数据中心也正是曦智科技光子芯片落地的首选场景,这是因为数据中心的环境相对可控,并且这一市场会更多地考虑附加值,使光子芯片的算力优势能够更好地发挥出来。
当然,想要在数据中心以及大数据处理相关的场景实现颠覆,光子芯片也面临不少挑战。“首先是技术上的挑战,包括集成度的提升、封装等。其次是软件生态的挑战,要让客户接受新的软件。”沈亦晨认为,“客户对于产品的感兴趣程度一定程度上可能也取决于硬件底层架构的优越性,所以和同类数字芯片初创公司相比,我们在底层硬件上的一些不同点,也是我们的机会所在。”
新的机会自然也不会是光子芯片的专属,量子计算以及神经拟态计算也都是很有前景的技术。 沈亦晨说,光计算与量子计算在应用的探索上有部分重叠,竞争肯定会存在,关键的是哪一种技术能够更快更好地解决挑战。但神经拟态的算法也可以运行在光子芯片上,甚至更适合,所以神经拟态计算和光子计算没有竞争关系。
作为当下最受关注的技术,AI的应用和发展将给众多行业带来颠覆。而AI进步的前提是有性能和能效足够高的AI芯片。为了能够满足AI需求,业界一方面在现有的架构上进行创新,推出更好的数字AI芯片。另一方面,积极探索新的计算技术,包括量子计算、神经拟态计算、光子计算。
虽然光子计算是其中受关注程度最低的,不过随着以曦智科技为代表的公司在该领域上取得更多突破,光子计算将会获得更大的关注,与其它技术一起变革对算力需求更高、满足现有计算技术无法满足的应用需求。
光子计算公司曦智科技完成2600万美元A轮融资,首款芯片将面向数据中心
要用硅光单芯片替代3000块TPU的AI初创公司吸引了比尔盖茨的投资
IBM展示硅光子芯片,消费级超级计算不远了
原创文章,未经授权禁止转载。详情见 转载须知 。