随着AI技术的快速发展与应用,大模型的部署已从云端训练逐渐向边缘端推理和微调延伸。这一转变预示着边缘计算领域将迎来前所未有的机遇与挑战。
6月13日下午,芯原(VeriSilicon)举办以“从云到端,AI触手可及”为主题的技术研讨会,聚焦大模型时代AI技术从云端到边缘端的最新发展趋势。研讨会邀请了乌镇智库、神顶科技(南京)有限公司、电子科技大学等产学研界嘉宾与芯原共同探讨了大模型在边缘端部署的机遇、挑战和实践案例,以及集成电路如何布局AI应用的长远发展。
芯原执行副总裁、IP事业部总经理戴伟进、乌镇智库理事长张晓东、芯原NPU IP研发副总裁查凯南、电子科技大学教授顾舒航、神顶科技(南京)有限公司董事长/CEO袁帝文、芯原高级副总裁、定制芯片平台事业部总经理汪志伟发表了精彩演讲。
大模型推动下边缘计算的机遇与挑战
在开幕演讲中,芯原执行副总裁兼IP事业部总经理戴伟进深入探讨了当前大模型技术带来的变革。他强调,大模型已在各个领域产生了深远影响,从最初AI技术在不同产品上的应用,到将大模型AI引入嵌入式系统,并渗透到边缘设备,如手机、AI-PC和汽车等,这些变化引人瞩目。
戴伟进指出,基于语言的多模态大模型不仅达到了深层智能水平,而且实现了爆发式发展。业内的激烈竞争进一步推动了AI在商业上的应用和大模型技术的快速发展。
他提到,ChatGPT的多模态能力、自然对话、真实信息和通用AI具有核心优势,而OpenAI的Sora视频生成模型和谷歌的Project Astra项目等创新,不仅展示了AI技术的前沿,也预示着未来人机交互的新趋势。
微软CoPilot+PC的算力升级、回溯记忆、实时字幕和渲染交互等新技术,同样引发了业界的广泛关注。特别是AGIBot推出的具身智能机器人“远征A1”,凭借百亿参数大模型和先进的AI技术为机器人领域带来了新的可能性。
他表示,作为行业内的佼佼者,芯原的神经网络处理器(NPU)全球累积出货已超过1亿颗,涵盖AI视觉、AI语音、AI图像、AIoT/智慧家居、AR/VR、自动驾驶、PC、智能手机、监控、数据中心、可穿戴设备、智慧医疗、机器人等应用。芯原图形处理器(GPU)和视频处理器(VPU)也已在全球范围内得到了广泛应用。芯原AI-Computing处理器技术以其可编程、可扩展、高性能和低功耗特点,为数据中心、边缘服务器等领域提供了强大支持。
戴伟进还介绍了芯原AI-Computing软件框架和Project Open Se Cura项目,展示了芯原在边缘与云协同计算领域的创新能力和领先地位。随着大语言模型在云端和移动设备上的不断发展和完善,这些技术将在未来智能时代发挥越来越重要的作用。
大语言模型的原理与未来趋势
乌镇智库理事长张晓东深入剖析了大语言模型的发展脉络。他首先以费曼的“微积分是上帝的语言”为引,提出当今的“上帝语言”已转变为“图灵机”的观点。他指出,图灵作为计算机科学与AI的奠基人,其理论对现今AI发展有着深远影响。
他进一步探讨了大语言模型背后的原理、自然语言处理的进步、多模态大模型的潜力和挑战,以及未来AI的有序发展。
他特别强调了ChatGPT的工作原理——图灵机求逆和生成式AI的核心思想。他提到,图灵机求逆实际上等同于下一个Token的预测,它奠定了大模型的基础。同时,他也指出了Transformer架构的重要性,并探讨了为何OpenAI能在此基础上取得成功。
张晓东还概述了AI发展的三条路线:逻辑主义、联结主义和强化学习,并指出了之间的内在联系。他特别提到Kolmogorov-Arnold叠加定理,证明了三层以上的神经网络可以逼近任意连续函数,从而揭示了深度学习的巨大潜力。
最后,张晓东从摩尔定律和Koomey定律的角度讨论了未来大模型训练成本的趋势,并预测了未来计算能耗的演变。他强调,虽然当前模型训练成本高昂,但随着技术进步,能耗将逐渐降低,将为AI的可持续发展铺平道路。
嵌入式设备Transformer神经网络的视觉感知
芯原NPU IP研发副总裁查凯南分享了当前NPU(神经网络处理器)领域的发展脉络及芯原在该领域的创新成果。他介绍说,自创立以来,芯原便以“视觉-自然语言-图像-语音”为基石,如今已蜕变为专注于“自然语言”处理的行业翘楚,128位客户已在多个场景中成功实现了技术落地。
查凯南指出,近两年NPU技术的演进主要聚焦三大方向:一是DEEP AI,旨在实现AI与其他处理IP在嵌入式设备中的紧密耦合,推动AI-ISP和AI Video的创新;二是注重嵌入式设备的低功耗、高性能及优异的PPA(性能、功耗、面积)平衡;三是以服务器中心,追求高性能TOPS,以应对大规模模型训练和推理需求。
他认为,端侧与云端的大模型应用各有侧重。端侧侧重于隐私保护与低比特量化能力,确保轻量化模型在移动设备上高效运行;云端则追求高性能、多卡多机分布式训练推理能力,以支持超级大模型的构建与应用。作为沟通的桥梁,自然语言有助于端侧与云端模型的无缝对接,为智能应用带来全新变革。
在NPU架构创新方面,芯原针对Transformer模型进行了深度优化,支持4比特、8比特等低比特量化,极大提升了运算效率与带宽利用率。芯原还构建了完善的软件生态,支持PyTorch、VLLM等多种主流框架,自研推理Toolkit等工具链可导入各类框架并量化生成易部署的Binary。此外,芯原还支持ONNX Runtime、多种数据格式,并对接Triton等高级编译语言,致力于开放接入,推动AI技术的广泛应用。
他展望道,未来芯原将继续深耕NPU领域,计划于2024年10月全面接入Triton等高级编译语言,以更开放的姿态拥抱行业生态,推动AI技术的持续进步与广泛应用。
AI-ISP的底层视觉应用实践
电子科技大学教授顾舒航深入解读了AI-ISP技术并分享了应用实践。他指出,随着深度学习在图像复原与增强技术中的突破性应用,ISP作为成像设备的关键部分,正面临前所未有的挑战:成像光学系统的局限性、器件物理特性的局限性和人眼视觉感知的非线性。AI-ISP不仅要求算法具备鲁棒性、灵活性和高效性,还需在硬件架构、网络结构、训练方式等方面实现创新。
他认为,AI-ISP有五大关键技术:领域特定架构(DSA)、硬件感知算法设计、数据工程与无监督训练、神经网络优化与量化技术以及可控神经网络。这些技术不仅可优化图像处理效率,还能提高成像系统智能化水平。
他还提到基于Transformer的全图自相关性计算、生成式模型快速推理和激进量化策略等研究方向,这些技术有望为图像压缩、自动驾驶等领域带来革命性的变化。
机器人大模型的端侧芯片需求和挑战
神顶科技(南京)有限公司董事长/CEO袁帝文深入探讨了机器人大模型对端侧芯片的需求与挑战。他指出,具身智能终端实际上就是机器人、移动出行设备,必须有先进的3D感知、交互和计算能力,尤其是空间计算能力,以实现对真实世界的理解和模拟。
他强调,随着AI大模型和3D空间计算技术的发展,具身智能正迎来前所未有的快速发展。而作为支撑这一发展的关键,端侧芯片面临着诸多挑战,如高算力、低功耗、实时处理等。
他进一步解析了机器人大模型对端侧芯片的具体要求,包括高实时性NPU的算力提升、Transformer运算优化、模型参数量化和压缩等关键技术;3D空间计算处理能力,如深度计算引擎和感知融合引擎,也是不可或缺的部分。
袁帝文最后表示,希望与芯原这样的业界同仁携手合作,共同推动AI技术从数字世界走向物理世界,实现更加智能化和有温度的机器人大模型。
面向AIGC的芯片设计平台和软件解决方案
芯原高级副总裁、定制芯片平台事业部总经理汪志伟分享了芯原面向AIGC的芯片设计平台和软件解决方案。他表示,随着大模型和AIGC技术的飞速发展,对算力的需求呈爆发式增长。这一趋势还从云端延伸到了边缘计算和传感器等各个领域。
作为一家拥有从IP到芯片设计一站式服务能力的公司,芯原深知这一变化对硬件设计的挑战,因此,芯原推出了全面满足从云端到边缘、再到终端算力需求的芯片解决方案。
他介绍说,芯原拥有六大类处理器IP,包括神经网络NPU、图形GPU、视频VPU、音频/语音DSP、图像信号ISP、显示处理,以及超过1500颗数模混合IP和射频IP。这些丰富的IP储备为AIGC相关芯片设计提供了坚实的基础。
在视频处理器领域,芯原市场份额排名第一,编解码已被全球前二十大云平台解决方案提供商采用。芯原的NPU全球累计出货超1亿颗,GPGPU搭载量已近20亿。这些高性能处理器为AI机器人大模型等应用提供了强大的算力支持。
在一站式定制芯片服务方面,芯原拥有从28nm到5nm等先进工艺节点的丰富流片与量产经验。通过SiPaaS系统级芯片设计平台,芯原已帮助众多客户成功设计了高性能芯片,其中不乏全球首批7nm EUV芯片和多款5nm芯片。芯原的该设计平台不仅支持多种处理器架构、总线和存储器,软件SDK进一步提升了芯片整体性能。
在云端芯片设计方面,芯原专注于AI和AIGC相关应用。例如,全球芯片大厂的转码芯片搭载了芯原AI引擎,实现了高效的图像和视频内容生成。芯原还为客户设计了数据中心高性能AIGC芯片,支持多核高性能CPU和GPGPU,满足不断增长的算力需求。
在汽车领域,芯原的自动驾驶芯片已获得车规安全认证,支持高达300TOPs/500TOPs的算力,为车载大模型提供了强大算力支持。芯原还提供从底层到中间层的完整软件协议栈,帮助客户充分挖掘硬件性能,实现高效的推理、训练和芯片间互联。
在算力扩展方面,芯原的Chiplet互联方案提供高达4-6路接口,满足数据中心对算力的极高要求;支持这一方案是相应IP可确保芯片间的高效互联。
在边缘计算和终端应用方面,芯原为客户提供了多种高性能AI-ISP和低功耗安全智能传感芯片等解决方案。这些芯片不仅具备强大算力,还以AI技术提升了图像质量,满足了手机、智能门铃、安全摄像头等多种应用需求。
圆桌讨论:大模型为终端设备赋能
圆桌讨论由芯原创始人、董事长兼总裁戴伟民主持,芯原执行副总裁/IP事业部总经理戴伟进、电子科技大学教授顾舒航、小米集团产业投资部总经理/小米产业基金管理合伙人孙昌旭、神顶科技(南京)有限公司董事长/CEO袁帝文和乌镇智库理事长张晓东等,就“大模型如何赋能终端设备”的热点话题展开热烈讨论。
戴伟民抛砖引玉道,在ChatGPT问世之前,即便棋艺高超的机器也只能被定义为“弱智能”。ChatGPT的出现使我们迈入了“通用AI”时代,迎来了“强智能”的崛起。尽管许多人对此感到忧虑,但我们必须正视并拥抱这一变革。
历史上,我们在前三次工业革命中起步较晚,面对第四次工业革命,如果我们选择回避,将可能永远被时代抛在后面,成为“弱智能”群体。这一变革不仅关乎汽车、手机等行业,而将渗透到社会各个角落。因此,我们别无选择,必须紧跟时代步伐。尽管我们在算力芯片等领域面临一些限制,但通过不懈努力,终将实现突破。