在网络访问不畅通的情况下,如何才能获得实时、低延迟的响应?答案是,把生成式AI服务放在端侧,而不是在云、数据中心和端侧节点之间频繁传输。基于SG2300x打造的端侧生成式AI盒子Airbox,Llama-7B的速度可以达到12 tokens/s,StableDiffusion 1s 出图,让生成式AI触手可及。
SG2300X:令人惊喜的端侧生成式AI处理能力
SG2300X处理器拥有24T的算力,能够流畅运行像LLAMA-2 7B这样的生成式AI。
SG2300X惊人的算力使其可以在更短的时间内处理更多的数据,实现更快的响应速度,为用户带来更加流畅和智能的体验。
瑞莎 AirBox:国产化边缘智算设备
瑞莎 Fogwise AirBox是瑞莎计算机团队研发的搭载SG2300X的边缘智算盒子,算力高达 24TOPS@INT8,支持多精度(INT8、FP16/BF16、FP32),支持私有 GPT、文本到图像等主流智能模型部署,配备铝合金外壳,可在恶劣环境中部署。
AirBox 的核心元器件皆采用国产元器件,且瑞莎计算机拥有AirBox的完全知识产权,无惧“卡脖子”。
大算力+大内存,AirBox打开智能本地化潘多拉魔盒
SG2300X中运行的 Llama-7B 模型,权重量化为 INT4,计算采用 FP16,在计算第一个 token 的时候算力利用率最高达到了80%,后续的推理有kvcache 加持,算力需求有所下降,数据搬运的时间完全覆盖了计算的时间,瓶颈从计算来到了带宽上。
而 StableDiffusion 类的模型,全程都会有密集的算力需求,所以如果想要同时高效运行 LLM 和 Stable Diffusion 类模型,大算力和大内存都是需要的,Airbox 采用的主控 SG2300x 拥有 24TOPS 的 INT8、12TFLOPS 的 FP16 以及 16G 的内存、128bit带宽,恰逢其时。
本地运行并且把响应时间控制到 1s 以内,将极大地提升用户体验。以 qwen-7b 模型为例,跑在 Airbox 上的 latency 为 0.6s,后续推理的速度达到 12 token/s,能够满足自然语言问答、语音交互等场景的实时性需求。
Airbox 同时也是一个完整的运行 Ubuntu Linux 的服务器,它可以支持 CASAOS,独立提供服务,只要联网的设备,就能共享它的算力,古董PC机、平板、手机、NAS、音箱、故事机、电视等设备都能拥有生成式AI的能力,”一机多用“ 已成为现实。
¥2699!极致性价比,让每个人都拥有端侧智能设备
对比目前主流的端侧算力产品,AirBox本地运行生成式AI的效率如何呢?
以Nvidia Jetson 系列多款支持生成式AI的设备为例,京东商城上 Jetson Orin 32G版本售价 8015 元,64G 版本 15600 元。
AGX Orin 通过 MLC 加速之后 Llama-7B 47tokens/s,Llama-2-13B 25 tokens/s:airbox 上 Llama2-7B 性能是 12 tokens/s, Llama2-13B 性能是 6 tokens/s,可以支持int4、int8、fp16精度,llama2 及其各种变种模型性能相似;单芯最大可以跑20B-int4的模型。
经测试发现:AGX Orin和AirBox的每人民币(产品售价)可获得的每秒token数(实际性能),AirBox有着显著的优势。
Llama-7B:
AGX Orin(64G)≈0.00301 每秒token数/每人民币
AirBox≈0.00445 每秒token数/每人民币
Llama-13B:
AGX Orin(32G)≈0.00160 每秒token数/每人民币
AirBox≈0.00222 每秒token数/每人民币
AGX Orin上 Stable Diffusion 每张图耗时 2.2s,SDXL 耗时 23.1s;Airbox使用LCM加速之后,SD1.5 耗时 1.1s,SDXL耗时 7.4s。
丰富的生态应用
瑞莎 Fogwise AirBox 可提供卓越的智能性能,满足您对强大计算能力的需求。这款小巧但功能强大的设备可与 Tensorflow、Pytorch 和 Caffe 等领先的深度学习框架无缝兼容,为用户提供便携、高效的智能体验。无论您是制造商、智算爱好者、业余爱好者还是专业人士,Fogwise AirBox都是您的最佳选择。
支持LLama 3:Meta 最新开源生成式AI
Meta 表示,Llama 3 在多个关键基准测试中展现出卓越性能,超越了业内先进的同类模型。无论是在代码生成、复杂推理,还是在遵循指令和可视化想法方面,Llama 3 都实现了全面领先。该模型在以下五个基准测试中均表现出色:
1.MMLU(学科知识理解)
2.GPQA(一般问题解答)
3.HumanEval(代码能力)
4.GSM-8K(数学能力)
5.MATH(高难度数学问题)
面对 Llama 3 如此激动人心的性能,Airbox 团队积极响应,快速将 Llama 3 8B 移植并成功在 Airbox 上运行。
Llama 3 8B 在 Airbox 上的运行表现极为流畅,达到了 9.6 token/s 的处理速度,已充分展现出其实用价值。
AirBox 团队率先推出基于AirBox的Llama 3 8B 的在线体验,欢迎各位切身感受来自 Llama 3 的高超性能与 AirBox所提供的澎湃算力。
关注瑞莎公众号回复【airbox】即可快速体验
(注:服务基于单个 AirBox 部署,如同时体验人数较多,可能会出现排队情况,如需深度体验,建议您在流量低峰时进行)
支持CASA OS:轻量且功能丰富的开源面板系统
通过CASA OS 一键安装 AirBox 生成式AI应用
目前已支持 Stable Diffusion、Whisper、ImageSearch、ChatDoc等热门模型,一键轻松安装,免去繁琐环境配置。
文生图、图生图:为您的灵感增添翅膀
AirBox 团队针对 StableDiffusion 进行深度优化和适配,极速出图。支持在线模型更换。
ChatDoc:让AI读懂你的文件
让 AirBox 成为你的私人数据管家。
Whisper:上百种语言实时转文本
Whisper 这个高效的语音识别模型能够实时将语音转换为文本,支持近百种语言,极大地提升了信息获取的便捷性和准确性。无论是会议记录、实时多语翻译还是为视听障人士提供实时字幕,Whisper 都能提供强大的支持,教育、医疗、法律等多个领域都将受益于其精准和快速的语音转录服务。
未来,以LLaMa、Stable Diffusion、Whisper 等生成式AI模型为基座,将诞生更多模态的交叉应用,催生出前所未见的智算能力,覆盖语音、图像和文本等多个领域。设想这样一个场景:一个全能的智能个人助理,Whisper加TTS模型提供真实的多语种能力,实时翻译和转写全球任何一种语言的对话,同时利用Stable Diffusion创造出视觉内容来辅助沟通,这将彻底改变国际会议、远程教育和全球合作的方式,加速数字世界的到来!
丰富的模型仓库:热门模型一键部署
内置丰富的智能应用实例,开箱即用。
详情请见:https://docs.radxa.com/sophon/airbox
图形化模型转换工具:轻松通过图形界面部署模型至AirBox
为了让用户体验更加丝滑,Airbox 还开发了 Civitai 和 Huggingface 模型一键转换的功能,通过 GUI 界面点点点即可完成 Stable Diffusion 模型在Airbox 上的部署。
凭借模型转换工具,您可以轻松地HuggingFace和Civitai上的开源生成式AI部署至AirBox,拥抱最新的智能技术。
AICore SG2300X:助力企业轻松获得高性能智算产品能力
Radxa AICore SG2300X 是一款配备先进 SOPHON智算处理器 SG2300X 的计算模块,可提供强大的性能来释放您的全部潜力。配备16GB内存,和64GB eMMC存储。Radxa AICore SG2300x 拥有令人印象深刻的24TOPS INT8计算能力,在各种任务中表现出色,并全面支持主流深度学习框架,集成核心电路及元件,可大幅加速产品研发速度,是企业快速开发高性能 AI 产品的首选。
Radxa 为行业伙伴提供ODM/OEM服务,凭借 SG2300X 平台丰富的工程经验,可最大程度加速行业产品化落地。
瑞莎 Fogwise AirBox 现已开放预定
京东:点击此处预定
5月20日前预定用户加赠三重好礼:
1x 20V/3A电源适配器,自带线
1x 英特尔AX200,WIFI6/BT5.2无线模组
1x USB免驱麦克风