AI大模型会对我们的生活带来什么改变?
这似乎是一个难以回答的问题。因为在人工智能出现的这么多年里,普通人的感知很弱,甚至完全没有感知。这与人工智能发展阶段有关,早期人工智能处于“专家系统”阶段,此时人工智能只能跟着预设的规则操作。此后,尽管随着大数据时代到来,人工智能进入“统计学习阶段”有了众多突破,如视觉识别、自然语言理解等,但也很难落地到普通人使用。
在很长一段时间内,人工智能似乎只是人们对未来生活的想象,大部分人对人工智能的第一印象是在影像、电影中看到的“科幻”场景,虚幻、神秘,但触不可及。
这并不是人工智能发展的初衷,最终科技还是要让更多普通人都能用上,这才是人工智能发展的意义。而今,大模型技术打开了通用人工智能的大门。
试想一下,当你需要在短时间内整理一篇论文的主要观点和细节时,通常需要先通读全文再逐句解析,最后才能整理出相关细节。但有了AI大模型辅助后,只需要将文档“投喂”给大模型并提出“文档总结”的需求,不到数秒你就能看到AI大模型整理的相关细节内容。
这或许只是AI大模型做得最浅显的事情,它带来的改变,更多在悄然无声中发生。
未来,或许都不需要人发出指令,AI大模型就能根据你自身习惯给出建议并提前做好各项工作,你要做的则是不断纠错,让大模型更了解自身的个性化需求。
这才是科技企业在人工智能领域不断探索的意义,即让本来离人千里之外的科技“接地气”,真正刷新每个人的生活体验。
而这一切的前提是,AI大模型,要先让普通人有感知、有体验、有用处。
打破壁垒,AI大模型正走进每个人的“口袋”
智能手机——几乎是每个人最常使用、最容易接触的智能设备,但大模型却没能第一时间落地。
不是手机厂商们不想将大模型落地于手机,而是做成这件事的难度系数太高了。
试想一下,如果你在智能手机上使用一次大模型,就会占据全部手机运行内存,其他应用全部受限,甚至手机无响应,最终直接死机。即便能运行,但每次等待回复都要数秒钟,并且耗费大量电量,相信没人愿意在手机上使用这样的大模型。
手机大模型真正的挑战,在于如何在功耗、性能和成本之间找到一个绝妙的平衡。这并不是一件易事,否则也不会大模型出来这么久,还是有很多人无法方便使用大模型。
vivo副总裁、OS产品副总裁,vivo AI全球研究院院长周围曾提到,目前vivo有3亿中国大陆用户,如果这些用户每天用10次大模型,一天的运算成本就有3000万元,一年成本近百亿。
可见,手机厂商要想将大模型落地手机,首先必须降低大模型在手机端的运算成本,这是制约大模型难以落地手机的关键因素。
vivo的解决方式是推出一个大模型矩阵,涵盖10亿、70亿、700亿、1300亿和1750亿,共计5个不同级别的大模型。这个大模型矩阵基本覆盖用户所有使用场景,并实现了10亿和70亿大模型的端侧落地。
功耗,本是另一座难以逾越的“大山”,但端侧大模型的出现,让一切问题全都迎刃而解。
vivo首先加速框架架构设计升级,使得底层运行时的极致性能功耗得到优化,并通过VCAP(vivo自研的移动端AI计算加速平台)使得底层平衡精度与性能采用多种混合精度并行计算。最后,vivo还联合硬件厂商攻关大模型NPU的部署,通过全链路协同异构器件计算加速降低功耗。
在多个层面的共同努力下,vivo将功耗控制在正常范围,从而解决了大模型在智能手机上的长期运行难题,用户也能享受到更快的响应速度,数据安全性也更高。
最后要解决的问题,则是用户感知最直接,也是影响用户体验的关键因素——性能。
用户等待时间过长、操作卡顿等情况,都会直接导致用户放弃交互,严重影响用户使用率。Google DoubleClick研究表明:如果一个移动端页面加载时长超过3秒,用户就会放弃而离开。BBC发现网页加载时长每增加1秒,用户就会流失10%。
这个问题,在大模型矩阵面前,获得了完美的解决方案。例如针对文档总结这类长文本输入场景,vivo的10亿级蓝心大模型就能提供服务,而在实现对话这种短文本输入的场景上,则可通过70亿蓝心大模型为用户服务。
vivo还对蓝心大模型的性能进行了攻关优化。目前,vivo已经做到70亿大模型的模型体积减小至3.2GB,运行内存优化至3.8GB,并且出词性能达到每秒近16个汉字(10token/s),同时平均耗电不超过400mA。
vivo是带着诚意和思考来落地大模型的,就像周围所说,“这次是全面的、系统的、气质上发生改变的一个应用”。
横亘在大模型与智能手机之间的三座“大山”终于搬走了,原本离人千里之外的AI大模型,正在逐渐实现普及化,进入普通人使用的手机中,刷新众多人的生活体验。
AI大模型,需要“接地气”
当AI大模型走入更多人的生活,然后呢?
尽管AI大模型惊讶了业界,但一般消费者对此并没有那么强的感知,大模型具体能帮助自己做什么?生活会有哪些具体变化?“接地气”、能用上,这才是消费者真正能感知到的变化。
落到实处,如果今后只需要通过基于大模型打造的智能化应用提出如“帮我买一张杭州到北京的火车票”的需求,该智能化应用就能为你快速挑出对应的功能或选项;当你浏览文字信息时,它不仅可以基于网页/文档/链接内容进行总结,还可以对文本内容进行问答……
当用户与基于大模型打造的智能化应用长期接触后,它还可以实现更加“懂你”的提供精确化、个性化的智能服务。比如它会帮你找出从杭州到北京的火车票还有哪几班、你常选择的座位还有没有、离你最近的火车站是哪个、到达城市气候如何……
完全按照你的生活习惯,给出有价值的建议。这些“能用上”的智能服务,才是消费者真正感受到的改变。
简单来说,未来搭载AI大模型的智能手机,将从一个“沉默”电子产品,转变为一个“能说会跳”、可感知你情绪、为你“排忧解难”的“陪伴者”。
改变,正在发生。
vivo基于蓝心大模型开发的首款全局智能辅助——蓝心小V,已经将其变为现实。作为一款直接面向用户的具有AI大模型能力的智能化产品,蓝心小V将走入寻常百姓家,成为每个人的专属私人助理。
目前,蓝心小V拥有超能语义搜索、超能问答、超能写作、超能创图、超感智慧交互五大智能辅助能力。这五大能力,对普通人来说都非常“接地气”。
以超能问答这一能力为例,每个人在工作中总会遇到一些新名词、新事物,常理下都会通过传统搜索引擎去查资料了解相关信息,此时输入搜索的“关键词”很重要,因为有时候差一个词,搜索出来答案就有很大差别。此外,在众多网站链接中还要辨别哪些是广告,哪些才是真正靠谱的信息,整个过程难免有些耗时耗力耗心。
这属于传统的“人找服务”交互方式。
但现在,具备海量的参数、复杂的算法和强大训练能力的大模型,如蓝心小V,开始拥有“触类旁通”和“智能涌现”的能力,朝着具备横跨多领域学习能力的通用人工智能进化。这带来的直接改变就是传统服务供应模式向智能、个性化的服务匹配模式的转变,即实现从“人找服务”到“服务找人”的转变。
例如,用户只需要描述具体需求发给蓝心小V,如“XR、VR、AR、MR有哪些区别?”,大模型立刻就能整理好相关答案,并给出专家级的解答。甚至你去某个陌生城市旅游,完全可以让大模型设计旅游线路,如“我想要到威海玩3天,请给出旅游规划与建议”,还能让蓝心小V帮你算出每天所需花销,控制预算。
蓝心小V之外,vivo还自主研发了自然语言对话机器人——蓝心千询。作为一款自然语言对话机器人,蓝心千询支持与用户自然对话、进行知识信息的快速问答、文学创作、中文理解、图片生成,还可以像一名软件工程师去编写应用程序……
当然,大模型能做的事情远不止于此。你完全可以将其当做各个领域的专家、每个城市的当地人、房产谈判专家、面试指导达人……普通人能通过大模型解决更多实际工作生活产生的问题,这才是大模型的价值所在。
一个关键的“分水岭时刻”正在来临。
埋头种因,大模型没有捷径可走
“埋头种因”,这是vivo创始人沈炜常提起的一个词。
在沈炜看来,果不能求亦无须求,因决定果,埋头种因,果自会水到渠成。
2017年,vivo种下了AI的“因”。这一年,AlphaGo震惊业界,沈炜提出一个观点:人工智能是所有技术创新的最底层技术,在未来很长一段时间,我们都应该去“过饱和”地投入。就此,vivo开始布局研究人工智能,组建了AI全球研究院,其也是首批设立专攻人工智能方向研究院的中国手机公司之一。
既然要做,那就本本分分把各个领域研究透,这是vivo一以贯之的价值观。因此,在人工智能的本原包含的五个要素:数据、人力、算法、算力、安全,vivo一直在本分地打牢所有基础。
2018年,vivo正式成立300人规模的人工智能图谱研究院,致力于对人类知识进行图谱建设。到今天,该研究院积累了13000T的多种模态数据,以及2800T高质量中文文本数据。这让vivo满足了如今大模型所必备的完整数据底座。
数据只是基础,如何用好数据,投喂给大模型进行训练与应用才是关键所在。这需要“人力”和“算法”。
vivo在2019年起,始终保持着1000人左右的专业人工智能团队,到2021年vivo已有超过600人专注研发大模型。这支“过饱和”投入的团队没有让vivo失望,目前已经在顶级期刊发布了超70多篇全球顶级论文。
vivo也明白,强大的基础能力是大模型的根基。为此在算法方面,vivo不仅在预训练阶段,就利用最前沿的Transformer架构,在包含了3.3万亿词的大规模多语言数据集上进行训练,还在强化学习阶段,建立了300余名专业人员组成的审核团队,制定了200+的安全审查机制,对模型的输出进行筛查和标注,并借此训练出高质量的奖励模型,保证为用户提供有价值的信息。
vivo用实际行动践行了“本分”的价值观。如今在算力方面,vivo在保证获得CPU、NPU等设备的前提下,还建立了一个150人左右的工程团队,通过信息技术应用创新,充分挖掘算力价值,实现更高效的模型训练和推理部署。
vivo也没有忘记安全的重要性。目前,vivo的内容理解平台内容安全过滤服务,通过了中国信通院内容审核服务系统评测,在文本、语音和视频内容识别需要检测的15个大类中,14个大类获得最高的5星等级,1个获得4星等级。
时隔六年后,当年vivo种下的因,终于在此刻落地,结出了丰硕的果实。
在中文大模型评测领域,vivo大模型在CMMLU榜单、C-Eval(大语言模型的多层次多学科中文评估套件)榜单上都取得了全球中文榜单第一的成绩。近期,在中文通用大模型综合性测评基准(SuperCLUE)最新发布的中文大模型10月榜单中,vivo自研大模型也以70.74的总分位列总排行榜第四,在国内大模型中排行第一。
无论潮水如何变动,科技如何迭代,vivo相信时代不会愧对每一家埋头种“因”、本分创新的企业。科技企业要保持竞争力,没有捷径可走,必须打牢研发底座,做出对普通人真正有用的大模型。事实也证明,在每一轮科技迭代的浪潮中,不走捷径、埋头种因的vivo总能牢牢站稳脚跟、后发先至。今后,vivo仍将站在潮头,让创新科技“接地气”,让每个普通人都能享受科技带来的改变。
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。