最近,中国科学院半导体研究所集成光电子学国家重点实验室微波光电子课题组李明研究员-祝宁华院士团队研制出一款超高集成度光学卷积处理器。
相关研究成果以Compact optical convolution processing unit based on multimode interference为题,发表在《自然-通讯》(Nature Communications,DOI:10.1038/s41467-023-38786-x)上。
光计算是一种利用光波作为载体进行信息处理的技术,具有大带宽、低延时、低功耗等优点,提供了一种“传输即计算,结构即功能”的计算架构,有望避免冯·诺依曼计算范式中存在的数据潮汐传输问题。
光计算近年来备受关注,但在大部分已报道的光计算方案中,光学元件的数量随着计算矩阵的规模呈二次增长趋势,这使得光计算芯片规模扩展面临挑战。
该团队提出的光学卷积处理单元实验验证了手写数字图像特征提取和分类能力。结果表明,图像特征提取精度达到5 bit;对来自MNIST手写数字数据库的手写数字进行十分类,准确率达92.17%。
与其他光计算方案相比,该方案具有如下优点:(1)高算力密度:将光波分复用技术与光多模干涉技术相结合,采用4个调控单元实现3个2×2实值Kernel并行运算,算力密度达到12.74-T MACs/s/mm2。(2)线性扩展性:调控单元数量随着矩阵规模线性增长,具有很强的大规模集成的潜力。
此前全球龙头的光子计算公司Lightmatter声称,公司已经通过结合电子学、光子学和新型算法,Lightmatter构建了针对AI的下一代计算平台。这种光子计算平台能够节省能源,减少数据的碳足迹和运营成本,为AI的快速发展提供源源不断的动力。
Lightmatter研发了三类光子技术产品:Envise、Passage和Idiom,提供一整套硬件和软件解决方案,旨在释放光子计算和互连技术的优势。
其中,Envise 4S 在服务器中配置了16个Envise芯片,功耗仅为3KW,可以以超高的性能运行目前世界上最大的神经网络,具有可靠性、可用性和可维护性的特点。
Passage为并排集成的晶体管提供了一个功能强大的接口,它使用 CPU、GPU、FPGA、DRAM 和 ASIC 的异构块进行晶圆级处理,内设光子互连,无需连接光纤,降低了高性能计算系统所需的成本。
根据Lightmatter测试数据推算,Envise芯片的运行速度比最先进的NvidiaA100 AI芯片快1.5至10倍,Envise的速度是英伟达(Nvidia)芯片的5倍,并且仅消耗了其六分之一的功率。
限制AI芯片三大瓶颈,摩尔定律天花板将至
半导体光刻工艺水平的发展是以芯片为核心的电子计算机的基石,目前半导体光刻的制造工艺几乎是摩尔定律的物理极限,随着制造工艺的越来越小,芯片内晶体管单元已经接近分子尺度,半导体制作工艺的“瓶颈效应”越来越明显。
随着全球化以及科技特别是近年来人工智能的高速发展,需要处理的数据量在急剧增加,相应的数据处理模型和算法也在不断增加,带来的结果就是对算力和功耗的要求不断提高。
而目前电子计算机存在传输瓶颈、功耗增加以及算力瓶颈等问题,已越来越难以满足大数据时代对算力与功耗的需求,因此提高运算速度同时降低运算功耗是目前面临的紧要问题。
用魔法打败魔法,超越摩尔中明确指出电子芯片难以为继。2019年,美国国防部高级研究计划局 (DARPA) 启动“未来计算系统”项目,目的是研究基于知识/推理的引擎,具备深度学习能力、高算力和低功耗的集成光子芯片。
光计算提升性能和用电优势明显,下一代技术的奠基者
光信号以光速传输,速度提升明显,能承载超大信息传输量
光具有天然的并行处理能力以及成熟的波分复用技术,从而使数据处理能力和容量及带宽大幅度提升
光计算功耗有望低至10~18 J/bit,解决能源紧张等问题。据统计,训练一个大型语言模型所消耗的能量大约比100个美国家庭一年的消耗总量还要多,除非创建一种新的计算范式,否则到本世纪末,AI模型将消耗世界总电力的10%-20%。
并行性运算特点优良,用光学神经网络等算法和硬件架构的发展,为图像识别、语音识别、虚拟现实等人工智能技术对算力的需求提供了最有潜力的解决方案。
来源:摘自东方财富股吧
未经允许不得转载:德讯证顾 » 中科院重大突破!光计算将彻底改变AI芯片游戏规则