(资料图)

今年年初以来,大模型毋庸置疑成为科技最爆点,阿里、百度、腾讯、字节跳动、京东等为互联网大厂,科大讯飞、商汤科技等AI公司,以及同花顺等金融类企业纷纷入局,很快成为各家企业“主旋律”。甚至不少行业人士认为,大模型已成为科技圈最有希望获得增量的领域,而这也成为大模型快速风靡的动因之一。

而热度之下却难免会有人泼凉水,种种原因之下导致国内企业在AI芯片采购上受限,这也让大模型的“基础设施”——算力成为一项难点。为此国内AI芯片替代的呼声愈发高涨,而国内AI芯片公司也由此进入技术路线的比拼阶段,当前国内AI芯片的技术路线主要分为GPGPU、ASIC、NPU三种路线,这也对应了国内AI芯片的三个梯队。

第一梯队当属GPGPU阵营。近年来,随着GPGPU架构产品性能的攀升,它大规模并行计算、快速开发高能效应用的优势快速展现,通用性与易用性也愈发凸显。而且在大模型趋势兴起下,GPGPU俨然成为目前大模型最佳算力选择。而国内GPGPU阵营中,海光DCU也凭借国内唯一全精度计算能力,以及兼容“类CUDA”生态等核心优势,在金融、通信等行业取得广泛应用与认可。而且海光也基于GPGPU架构持续推进DCU系列产品的自主创新迭代,为国产大模型的发展筑造算力底座。

第二梯队则是NPU阵营。随着AI走向消费电子、自动驾驶等领域,在自动驾驶、人脸识别、智能语音等领域具备推理预测性计算优势的NPU芯片,逐渐被应用于智能终端、智能家居、智能驾驶等产业,而国内NPU阵营中的佼佼者当属华为昇腾。华为将自家NPU自身生态深度绑定,完成端到端的完整生态部署。只不过目前NPU的应有场景普遍为8位和16位的低精度计算,难以满足大模型计算对32位精度计算的主流需求,因此并不是大模型趋势下的最佳选择。

第三梯队则是ASIC架构。2016年当谷歌揭晓AlphaGo背后的功臣是TPU时,具备计算快、能耗低优势的ASIC架构随即成为AI芯片领域的“爆款”。寒武纪等国内厂商也是从这时开始跟上脚步,针对云端AI应用推出ASIC架构芯片。但随着AI技术的持续发展,ASIC这种需要根据特定需求进行设计和制造的AI芯片逐渐失去通用性、易用性优势,其计算效率对算法过渡依赖的劣势也愈发明显,这不仅导致ASIC架构的应用场景越来越窄,也促使寒武纪等国内ASIC厂商的商业化之路愈发艰难。

全球大模型训练的高热度下,英伟达凭借自身在GPU产品的多年深耕,收割市场90%的份额,而这也再次证言面对大模型的算力需求,GPU是首选的最优解。而且未来随着AI多模态应用的快速发展,GPU在应用场景上的通用型以及计算精度上的全精度优势也将愈发凸现。

推荐内容