两天完整议程公布!2023全球AI芯片峰会终极预告,英伟达AMD与近30家中国力量同台

   日期:2024-12-26    作者:u40z8 移动:http://mip.riyuangf.com/mobile/quote/40034.html


两天完整议程公布!2023全球AI芯片峰会终极预告,英伟达AMD与近30家中国力量同台

下面我们将 一一介绍每位演讲嘉宾的主题及概要。


开幕式


1、清华大学教授、中国半导体行业协会副理事长、IEEE Fellow魏少军


主题:再谈人工智能芯片的发展


概要 :人工智能的发展在给人们带来惊喜的同时,也在不断推动人工智能芯片向前演进。从早期注重功能实现采用已有芯片,到关注性能的领域专用芯片,再到追求灵活性的可重构人工智能芯片,今天则由于大模型的出现,人工智能芯片的发展目标转向高算力。


我们对人工智能芯片的发展抱有强烈的好奇心,追求高算力,追求灵活性,还是低功耗,或是三者都包括?其实,人工智能作为一种技术,需要通过芯片和系统才能转变为产品,而应用才是最终的驱动力。


2、NVIDIA 解决方案与架构技术总监张瑞华


主题:生成式 AI 与大语言模型时代的 NVIDIA GPU 生态


概要 :随着Transformer的诞生与更新、大语言模型的更迭与优化以及生成式AI的发展与应用,人工智能作为一种新的技术手段应用到各个领域的研究和技术创新中,已经成为学术界和工业界的共识。


气侯天气的研究,新材料新药物的发现,工业领域的智能化建设,都对计算提出了新的挑战。


GPU是数据科学和计算科学的重要引擎。针对不同计算模式的特点和细分行业的需求,NVIDIA致力于GPU生态的研究与创新,旨在从硬件、软件堆栈和应用性研究方面提供更优秀的工具来支持科学探索和技术进步。


演讲内容将主要聚焦AI新时代挑战下,NVIDIA GPU生态中相关工具的重构与优化,以及NVIDIA在AI应用研究中的探索性思考与尝试。


3、燧原科技创始人兼COO 张亚林


主题:生成式人工智能的革命


概要 :大模型和生成式人工智能技术为世界展示了全新的AI研究范式与数字经济未来。新的科技风暴下诞生的全新AI技术生态栈,以"Model-as-a-Service"(MaaS)为关键创新,致力于降低大模型应用门槛,从而实现更高效的业务和应用。


燧原科技致力于从解决在大规模生成式人工智能技术应用趋势下对于算力的更高技术要求,并从全栈产品布局与技术生态构建角度,增强AI算力产品在生成式人工智能场景中的最大价值发挥与性价比落地。


演讲内容将主要聚焦生成式人工智能趋势下对于AI技术生态和算力产品的全新要求,以及燧原科技在相应领域的产品和落地经验。


4、高通AI产品技术中国区负责人万卫星


主题:终端侧AI是AI的未来


概要 :AI行业正处于关键转型期,每一天都有全新模型涌现,在终端侧支持全新功能。随之而来的是出现了有潜力变革广泛产业和人们生活、娱乐方式的新用例、新功能,这也是生成式AI的真正作用。


终端侧AI与云端AI相互配合,是让生成式AI实现全球规模化扩展的关键。当能够在终端侧完成AI推理的时候,我们就能够以更低成本、更加近乎实时地保护隐私,无论是否保持网络连接。云端和终端将协同工作,依托强大、高效且高度优化的AI能力打造下一代用户体验。


如今,具备AI功能的手机、PC和其他品类的便携终端数量已达到数十亿台,利用大规模终端侧AI处理支持生成式AI有着广阔前景,并且将在未来几年稳步增长。凭借赋能数十亿边缘终端的终端侧AI领导力,高通技术公司正在助力打造混合AI新时代。


5、亿铸科技创始人、董事长兼CEO熊大鹏


主题:存算一体超异构AI大算力芯片-破局大模型时代“芯”挑战


概要 :随着大模型时代的到来,数据量越来越大、模型算法越来越复杂,算力要求越来越高,而支撑底层算力的摩尔定律却几近终结。巨大的剪刀差落在AI大算力芯片企业产业链的肩上,带来了巨大的压力:如有效算力的增长率、软件的编译、数据的带宽、存储的成本、能效比、生产工艺等。


亿铸科技作为首个面向数据中心、云计算、自动驾驶等场景的存算一体AI大算力芯片公司,自主研发的存算一体AI大算力芯片凭借“存算一体超异构”架构等创新技术,突破了当前多项技术瓶颈,可以基于成熟工艺制程以低功耗实现单板卡P级算力性能,为大模型时代的AI算力发展开辟了一条新的道路。


6、清华大学交叉信息研究院助理教授、北极雄芯创始人马恺声


主题:Chiplet架构在AI芯片中的商业价值


概要 :先进制程的演进逐渐逼近物理极限,且高性能计算芯片面临研发投入大、量产良率低等商业化难题,Chiplet架构已成为后摩尔时代进一步提升芯片性能的有效路径。随着人工智能应用在各行业渗透率的快速提升,各行业对于高性能计算解决方案的需求日益增长,北极雄芯深耕Chiplet领域多年,采用异构集成的设计理念,从芯片架构底层将各场景需求中的通用模块与专用模块解耦,分别设计制造小芯粒并集成,可支持不同制程模块的互联,并且针对全国产封装供应链进行了优化,能够有效降低各类云边端AI芯片的设计门槛,缓解各行业在差异化需求、算法迭代周期、研发投入等各方面不可兼得的痛点。


本次演讲,马恺声教授将主要分析Chiplet架构在AI芯片中的商业价值,分享推动Chiplet架构在国内的商业化落地以及创造新的高性能计算范式,介绍北极雄芯在Chiplet领域的拓展及实践。


AI芯片架构创新专场


1、AMD人工智能事业部高级总监王宏强


主题:AMD Pervasive AI: 从数据中心、边缘、客户端到终端,AI无限可能


概要 :本次演讲,王宏强将介绍AMD在其全产品线中融合的AI应用,涵盖EPYC™服务器、Ryzen™ CPU、Instinct™/ Radeon™ GPU、自适应SoC和FPGA等领域。深度解析AMD AI产品的领先架构,包括为大规模模型训练和密集推理而设计的CDNA™,以及实现AI强化游戏体验的RDNA™,更有支持可扩展和实时推理的XDNA™(AI引擎)。并分享如何通过AMD AI软件和开放式生态系统赋能激发广大AI开发者的生产力和创造力。


2、奎芯科技联合创始人兼副总裁王晓阳


主题:驱动云/边缘侧算力建设的高性能互联接口方案


概要 :尽管2022 年全球GPU 市场较前一年整体呈负增长,但算力基础设施和智能网联汽车两大新兴应用领域逆势增长。深度学习大模型技术迭代对GPU/AI 算力需求显著增加, 应用于训练服务器、推理服务器等算力基础设施的GPU/AI 市场愈发火热。构建训练和推理所需的超高算力系统离不开高性能、低延迟的互联接口,LPDDR/HBM/D2D等接口在其中扮演着关键的角色,对于提升GPU/AI芯片性能、能效和多样化应用的支持都具有重要意义。奎芯科技是一家专业的集成电路IP和Chiplet产品供应商,在大算力芯片领域,单个芯片只是算力孤岛,多个芯片互联才能实现资源解耦,重组和池化。基于互联底层技术的积累,奎芯能够为客户提供高速互联接口的一站式解决方案。


本次演讲,王晓阳将分享训练/推理算力芯片的宏观趋势以及接口IP的发展趋势,分析LPDDR/HBM/D2D(UCIe)等接口对赋能算力建设的积极推动作用,以及奎芯在高性能接口互联领域的拓展与实践。


3、后摩智能联合创始人、研发副总裁陈亮


主题:存算一体:颠覆性架构重塑AI芯片


概要 :今年5月,后摩智能正式推出了首款存算一体智驾芯片——后摩鸿途™H30。该芯片基于SRAM存储介质,采用数字存算一体架构,在 Int8 数据精度下最高物理算力可达256Tops,典型功耗仅为35W。以存算一体的创新架构实现芯片性能跃升,后摩智能做对了什么?


本次演讲,陈亮博士将从IP设计、量产实现、工程性突破等方面展开分享。


4、安谋科技产品总监杨磊


主题:生成式AI走向终端,探索终端AI算力新边界


概要 :今年以来,以ChatGPT为代表的生成式AI大模型成为了业界关注的焦点。伴随着生成式AI快速融入到人们日常的生产生活,数据处理和存储需求的激增正在快速推动数据中心架构的根本性变革。同时,从GPT-3.5到GPT-4.0,从多模态交互融入到插件的支持,从闭源大模型到开源大模型拓展,AI任务处理正加速从云侧走向端侧,NPU及其生态的发展已进入到全新的阶段。对此,安谋科技打造了兼顾多元化算力需求的自研新一代AI处理器,为AI、物联网、智能汽车等新兴领域不断迭代的计算需求提供更完善的解决方案。


5、鲲云科技联合创始人兼首席技术官 蔡权雄


主题:可重构数据流技术引领AI芯片架构变革


概要 :架构创新越来越成为业界关注的重点。


此次演讲, 蔡权雄 博士将介绍可重构数据流AI芯片技术如何通过底层架构创新,采用无指令架构形式,让数据计算与数据流动重叠,实现芯片利用率和实测性能指标的数量级提升,从而突破冯诺依曼内存墙瓶颈及制程工艺逐步放缓的制约,并通过横向比对,阐述国内外可重构数据流AI芯片技术领域的发展现状。


6、珠海芯动力创始人&CEO李原


主题:RPP芯片架构给AI芯片带来的发展前景及机遇


概要 :人工智能算法发展迅速,行业变动频繁,导致算法、算力需求和市场都在不断变化。为了满足这一需求,芯片需要具备高性能和速度快等特点。然而,芯片研发周期长、投入大,无法适应人工智能市场的快速变动。目前市场上的芯片在高性能和通用性之间存在矛盾,难以兼顾。因此,许多企业需要寻找一款既通用又高性能的芯片来适配,而芯片设计者也在努力寻求高性能和通用性的平衡点。


随着数字经济的迅猛发展,并行计算技术逐渐成为人工智能、大数据等领域的关键支撑。在这个黄金时期,芯动力公司凭借其自主研发的RPP芯片架构,成功抓住了这个机遇。RPP芯片架构以其通用性和高效性,为人工智能用户提供了强大的计算能力,极大为企业缩短产品上市时间。


RPP芯片架构的通用性使其能够适应各种不同的人工智能算法和应用场景,无论是智能驾驶、内容过滤还是工业自动化等,都能够迅速的适配。


借助芯动力的RPP芯片架构,人工智能用户可以更加专注于算法的优化和应用的开发,而无需过多关注底层硬件的适配和优化。这不仅缩短了产品的上市时间,还提高了产品的竞争力和市场占有率。


7、芯至科技联合创始人、首席芯片架构师兼副总裁尹文


主题:AI计算新时代催生芯片架构走向“算力统一场”


概要 :AI计算当前在往大模型、多模态、端边云协同等方向快速演变,智能化的新时代正在催生AI芯片架构的新热点和新机会。基于未来芯片架构领域在开源指令ISA、高效一致性总线、芯片工程新技术及软硬件重构等领域的快速演进,AI芯片架构创新的新黄金时代即将到来,有望推动计算领域的“算力统一场”,重塑软件大生态。


本次演讲,尹文首先会简要回顾AI计算的发展史,再阐述面向未来的AI计算芯片架构新范式要求,然后介绍从AI芯片的微架构和软硬件重构角度看到的新机会。


8、每刻深思CEO邹天琦


主题:“感算共融”智能感知计算芯片


概要 :超低功耗感算共融智能芯片基于模拟计算、边缘持续感知以及感算共融芯片架构打造,利用模拟域简单、高效的处理电路,直接对传感器的模拟输出进行信息的提取和筛选,降低数据转换和接口代价,降低后级系统的处理复杂度。从全感知系统角度降低功耗,使其能够满足能量受限、需要实时常开的传感器节点的要求。超低功耗感算共融智能芯片具有低功耗、低延时、低成本和通用可量产的优势,将为可穿戴设备、AR/VR、智能家电、自动驾驶和智慧城市等行业带来新的感知维度。


AI大算力芯片专场


1、上海交通大学计算机科学与工程系教授梁晓峣


主题:开源GPGPU平台“青花瓷”的技术进展与生态建设


概要 :“青花瓷”是一个开源的GPGPU架构参考设计,是由上海交通大学先进计算机体系结构实验室发起,通过开源公益的方式打造的通用计算芯片平台。“青花瓷”架构以支持大规模并行通用计算、AI计算、科学计算为目标设计,通过兼容CUDA的方式提供灵活的可编程性并保持程序员的编程习惯,最大程度降低软件开发难度。开源硬件模式就是以免费解决“资金”的问题,以开放解决“人才”的问题,以开源解决“时间”的问题。


本次报告,将详细汇报在去年大会正式发布的“青花瓷”平台一年以来的技术进展、生态圈打造和产生的行业影响力。


2、Habana中国区负责人于明扬


主题:利用算力芯片架构解决大模型应用困扰


概要 :本次演讲将分享如何分析和选择不同架构的AI算力芯片对大模型训练和推理带来的价值,通过核心技术要素判断其性价比优势。


3、壁仞科技系统架构副总裁丁云帆


主题:国产大算力GPU如何解决大模型落地挑战


概要 :随着各类大模型的应用落地逐渐铺开,大算力GPU芯片的需求正水涨船高。面对大模型对芯片、软件以及系统层面的特别需求,如何软硬件协同应对成为了目前国产GPU厂商所面临的难题。


本次演讲,丁云帆将介绍壁仞科技对于大算力GPU如何支持大模型创新应用落地的相关观点。


4、千芯科技董事长陈巍


主题:面向大模型部署训练的存算一体架构与多处理器融合


概要 :随着GPT等大语言模型技术的高速发展与普及,单模态与多模态LLM/MLM的部署训练架构、算力芯片成本成为大模型应用落地和企业盈亏ROI的关键分水岭,也给大算力芯片架构带来了巨大的技术和成本挑战。


本次演讲,陈巍博士将分享GPT等大模型在实际生产场景的算力部署与训练架构要点、最新的大算力存算一体架构创新与多处理器融合技术,及其在垂直行业的大模型部署落地案例。涉及存算一体、Chiplet、HBM等技术的整合与计算生态,应用场景涵盖云计算、车用边缘计算和端侧私有化部署。


5、Graphcore中国区产品总负责人朱江


主题:IPU独特架构加速生成式AI爆发式创新


概要 :去年底以来,生成式AI和大模型的热潮使得人工智能再次成为了现象级的话题。而作为人工智能的三大基石之一的算力,在今天的意义显得尤为重要。如何构建高质量的算力,在高性能、通用性、能效比、成本等多个关键维度上做到均衡,并且能持续进行演进,成为了摆在芯片行业面前的一个非常挑战同时又极有意义的课题。


Graphcore(拟未)IPU通过从零设计的创新架构,成功地打破了传统的内存墙问题,专注于为AI技术的推动和应用带来新的突破。与IPU协同从零打造的软件栈Poplar,完全开源,经过不断更新与迭代,已经成为业内继CUDA以来在稳定、成熟且高效方面的翘楚。不同的应用领域可以在这一软件生态中找到适合自己需求的解决方案,进一步提高了IPU的实用性。IPU的通用性特点也为其在更广泛的人工智能领域展现出了重要意义。其通用性使得它能够在各种AI任务中表现出色,为各类应用提供高效支持。


本次演讲,朱江博士将重点介绍IPU的设计和演进思路,以及在生成式AI爆发式创新的当下,IPU独特的架构如何支持创新,帮助开发者innovate out of the box,为未来的生成式AI带来更多的可能性。


6、中科加禾CEO崔慧敏


主题:编译技术从学术研究到产业落地


概要 :人工智能应用的发展对算力需求的多样性和处理能力都有了巨大的需求,也促进了体系结构方面的一系列创新,由此对上层的软件生态造成了诸多的挑战。编译器作为软件生态中的底层环节,在解决当前软件生态碎片化的问题上有广阔的前景。中科加禾作为一家以编译技术为核心的初创公司,定位于通用化、低成本、高性能的基础软件工具链,为用户提供人工智能应用跨多种CPU、GPU、NPU执行的统一软件平台。


在崔慧敏的报告中,她将分享中科加禾在编译器方向上围绕着性能分析与优化的系列技术以及落地的产品规划。


7、芯和半导体联合创始人、高级副总裁代文亮


主题:AIGC时代算力芯片Chiplet设计的EDA解决方案


概要 :生成式人工智能(AIGC)技术的出现是AI演进至2.0时代的重要标志,作为关键要素之一的算力决定了AIGC的运行效率,可靠程度和最终体验,高性能计算芯片受到空前追捧。随着摩尔定律的趋缓,先进工艺制程逐步逼近物理极限且经济效益越来越低,通过传统SoC(System on Chip)架构无法显著提升算力芯片性能、功耗和面积等指标,此时,基于先进封装技术的Chiplet成为突破瓶颈的重要技术之一,采用新型SoC(System of Chiplets)架构的芯片表现出明显优势,如更小的尺寸,更高的良率,不同工艺节点的Chiplet灵活复用大幅缩短上市时间,从而降低成本。


本次演讲,代文亮博士将深入浅出地分享Chiplet技术的特色、实现关键技术以及如何构建EDA解决方案应对Chiplet的设计挑战。


高能效AI芯片专场


1、云天励飞副总裁、芯片业务线总经理李爱军


主题:大模型时代下的边缘计算芯片实现挑战


概要 :本次演讲,李爱军将主要围绕面对大模型带来的新型计算范式以及对大算力、高带宽的的计算,分享在AIGC的大模型时代,边缘计算芯片如何应对各种技术挑战,尤其在国产工艺的现状下,如何采用异构、分布式的方法,满足大模型的计算要求。


2、知存科技业务拓展副总裁詹慕航


主题:大算力需求下存内计算的应用和发展趋势


概要 :存内计算凭借“存”“算”无界的颠覆性架构创新,被认为是突破算力瓶颈的关键技术之一。


本次演讲,詹慕航将从行业现状出发分析当前的算力需求与技术趋势,以知存科技率先量产商用的存内计算芯片和即将发布的边缘侧存内计算芯片为例,介绍存内计算芯片的应用现状和发展趋势。


3、诺磊科技创始人、CEO Raymond Wu


主题:感算一体AI光谱分析芯片阵列技术解析


概要 :诺磊科技2017年创立于美国硅谷,以打造全球最大的创新人工智能芯片企业为宗旨。诺磊在全球创新推出的感算一体AI芯片,集成人工智能、深度学习、神经网络及影像传感器,实现低成本、低功耗、极具性价比的系统解决方案。诺磊即将推出集成CIS/AI/MCU/光谱识别功能的感算一体AI光谱分析芯片阵列技术,超越人类和机器的视觉感知能力,将带来高灵敏度、高精度光谱检测技术的又一次革命。


诺磊光谱分析AI芯片阵列由多个感算一体光谱芯片组成矩阵(MxN),结合世界领先的碳纳米线光谱技术和WLO晶圆级光学加工技术,阵列中每个单元均包含独立高清CIS图像传感器、AI人工智能处理器和碳纳米线光谱组件,可实现覆盖短波、红外波段多个频段光谱同时检测与分析功能,完成不同频段的光谱分析,处理更快、成像更清晰、感光能力更强;体积小巧,分辨率高,图像与光谱协同应用校正,识别结果更可靠;可灵活部署在手机、便携式及可穿戴设备上,广泛应用于食品检测、医药检测、环境监测、文物鉴定、植物育种、智能家居等领域。


4、迈特芯创始人兼CEO黄瀚韬


主题:面向大模型的高能效并行存算大算力芯片


概要 :大模型正以每两年750倍的超摩尔速度增长,如何实现与之匹配的大算力芯片成为现今全球AI芯片挑战。迈特芯顺势研发基于立方脉动并行架构的存算芯片,用最低功耗以及面积实现最高算力,展示了实现100 TOPs/W的高能效算力芯片的有效途径。


本次演讲,黄瀚韬博士将介绍迈特芯如何实现高能效及高面效大算力芯片X-Edge:1)优化及编译多精度多稀疏的大算力网络;2)设计立方脉动的高并行存算架构。X-Edge芯片将为云端及边缘端提供低碳实现智能大模型的基础。


5、肇观电子CEO冯歆鹏


主题:AI视觉芯片打造机器人的核心感知能力


概要 :在机器人爆发的时代,基于AI视觉芯片打造机器人的核心感知能力,解决了如何让机器人全天候全场景看得见、看得清、看得懂世界的问题,以及如何在空间中定位自身并绘制周围三维地图和对世界做语义理解的问题,并展示搭载了AI视觉芯片的机器人的广泛应用。


6、智芯科联合创始人兼CEO顾渝骢


主题:基于SRAM的存内计算CIM在生成式AI推理场景的应用


概要 :随着ChatGPT的火爆,意味着我们迎来了生成式AI的大浪潮。对于生成式AI来讲,算力是生产力,能够提高数据处理、算法训练的速度与规模。生成式AI大模型无论是训练还是推理,都吃算力,AI算力升级已成为趋势,面对生成式AI带来的算力挑战,众多科技公司也都在积极探索新的算力基础架构,智芯科率先提出基于SRAM的存内计算CIM,突破功耗墙和存储墙问题,彻底消除架构瓶颈,满足边缘侧算力、能耗需求,以应对AI大规模的计算需求。


本次演讲,顾渝骢先生将从SRAM CIM在AI计算方面的优势以及场景应用作出解读。


7、原粒半导体联合创始人原钢


主题:AI Chiplet:加速大模型在边缘端多场景落地的新思路


概要 :作为一种有效降低研发和生产成本的新兴技术,芯粒(chiplet)最早主要用于数据中心芯片等高性能服务器端应用场景。随着技术和市场的发展,芯粒技术目前逐步开始进入边缘端芯片领域,使得芯片开发商能够在控制研发成本的基础上,提供多种规格的芯片产品。


近期随着大模型技术的不断演进和垂直应用的深入发展,本地化部署大模型算力的需求逐渐浮现。能效比和性价比是决定边缘端大模型硬件方案成功与否的关键因素之一,传统的单一die SoC设计方法很难在边缘端大模型时代提供足够的能耗比和性价比优势。AI芯粒技术为大模型在边缘端的高效应用落地提供了新思路。通过灵活组合SoC die和专用的AI chiplet,芯片和系统厂商能够为不同的边缘端大模型计算场景提供丰富可扩展的解决方案,实现能效上的巨大提升,并很好地平衡研发和生产成本。


8、九天睿芯副总裁袁野


主题:基于6T SRAM的混合存内计算架构处理器加速多样化应用落地


概要 :随着chatgpt大火,AIGC大模型将会在不远的将来在各行业落地,算力的需求将会大幅度提升。传统冯诺依曼架构或者gpu都不能完全满足算力的需求。更高能效,高面效的存内计算将会是未来最好的算力承载方式之一。我们基于6T SRAM的CIMD(纯数字存内计算)+CIMX(模数混合纯内计算)混合存内计算架构,将算力平均分配到传感器端,SoC端,服务器端,满足int4-int16多计算精度计算需求,同时支持推理及训练。可完全服务于车载,机器人,AIGC大模型垂直落定应用等多个领域,助力全行业产品的智能化升级。


特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。


举报收藏 0评论 0
0相关评论
相关最新动态
推荐最新动态
点击排行
{
网站首页  |  关于我们  |  联系方式  |  使用协议  |  隐私政策  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  网站留言  |  RSS订阅  |  违规举报  |  鄂ICP备2020018471号