Llama3 端侧部署:算丰 SG2300x 与爱芯元智 AX650N

2024-04-30 04:20

本文主要是介绍Llama3 端侧部署:算丰 SG2300x 与爱芯元智 AX650N,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

美国当地时间4月18日,Meta 开源了 Llama3 大模型,包括一个 8B 模型和一个 70B 模型在测试基准中,Llama 3 模型的表现相当出色,在实用性和安全性评估中,与那些市面上流行的闭源模型不相上下。

Llama3 性能指标:

相对于 LLama2,Llama3 的性能有了很大的提高:

Meta 表示,Llama 3 在多个关键基准测试中展现出卓越性能,超越了业内先进的同类模型。无论是在代码生成、复杂推理,还是在遵循指令和可视化想法方面,Llama 3 都实现了全面领先。该模型在以下五个基准测试中均表现出色:

  • MMLU(学科知识理解)

  • GPQA(一般问题解答)

  • HumanEval(代码能力)

  • GSM-8K(数学能力)

  • MATH(高难度数学问题)

根据 Meta 的测试结果,Llama 3 8B 模型在 MMLU、GPQA、HumanEval 等多项性能基准上均超过了 Gemma 7B 和 Mistral 7B Instruct,70B 模型则超越了名声在外的闭源模型 Claude 3 的中间版本 Sonnet,和谷歌的 Gemini Pro 1.5 相比三胜两负。 

算丰 SG2300x:

4月20日,瑞莎宣称:面对 Llama 3 如此激动人心的性能,Airbox 团队积极响应,快速将 Llama3 8B 移植并成功在 Airbox 上运行。

并推出 SOPHON SG2300X SoC 处理器的 Radxa Fogwise AirBox,来作端侧部署:

Radxa Fogwise AirBox
形态尺寸

104mm x 84mm x 52mm

处理器SOPHON SG2300X SoC,八核 Arm® Cortex®-A53(ARMv8)@ 2.3GHz
TPU张量处理单元,计算能力:最高达24TOPS(INT8),12TFLOPS(FP16/BF16)和2TFLOPS(FP32)
支持领先的深度学习框架,包括 TensorFlow、Caffe、PyTorch、Paddle、ONNX、MXNet、Tengine 和 DarkNet
内存16GB LPDDR4X

存储

工业级 64GB eMMC
16MB SPI 闪存
提供高速SD卡的SD卡插槽

多媒体

支持解码32路H.265/H.264 1080p@25fps视频
完全处理32路高清1080P@25fps视频,涉及解码和AI分析
支持编码12路H.265/H.264 1080p@25fps视频
JPEG:1080P@600fps,支持最大32768 x 32768
支持视频后处理,包括图像CSC、调整大小、裁剪、填充、边框、字体、对比度和亮度调整。
连接2x 千兆以太网端口(RJ45)
1x M.2 M Key(2230/2242)用于NVMe SSD
1x M.2 E Key用于WI-FI/BT
工作温度0°C 到 45°C
外壳耐腐蚀的铝合金外壳
散热器PWM调速风扇与定制散热片

 并以视频展示了 Llama3 8B 在 Airbox 上的运行情况:

可以看见,Llama 3 8B 在 Airbox 上的运行表现极为流畅,达到了 9.6 token/s 的处理速度。 

爱芯元智 AX650N:

4月28日,AI 芯片公司爱芯元智宣布,公司 NPU 工具链团队已基于 AX650N 平台完成适配 Meta 发布的 Llama 3 8B 和 Microsoft 发布的 Phi-3-mini 模型。另外,爱芯元智已经完成了 Llama 2、TinyLlama、Phi-2、Qwen1.5、ChatGLM3等国内外主流的开源大语言模型适配,推动 AI 大模型技术应用普及。

AX650N 是一款兼具高算力、高能效比和超强编解码性的 SoC 芯片,集成了八核 A55 CPU,72.0TOPs@INT4 或 18.0TOPs@INT8 高算力的 NPU,支持 8K 30fps 的 ISP,以及 H.264、H.265 编解码的 VPU。

随后我们估计可以在 AX-LLM 项目里找到相关的代码。

该项目由 爱芯元智 主导开发,用于探索业界常用 LLM(Large Language Model) 在已有芯片平台上落地的可行性和相关能力边界,方便社区开发者进行快速评估和二次开发自己的 LLM 应用。

目前支持:AX650A/AX650N 芯片。已支持模型:TinyLLaMa-1.1B 和 Qwen1.5-1.8B。

小结:

随着国内外大模型的飞速发展,大模型的性能和效果越来越好;国内 AI 芯片的处理能力也已经足够优秀,端侧部署也可以达到良好的体验,想必会有越来越多的硬件厂商陆续跟进。

我们拭目以待。

                                                                                         老徐,2024/4/29

这篇关于Llama3 端侧部署:算丰 SG2300x 与爱芯元智 AX650N的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/947894

相关文章

大数据spark3.5安装部署之local模式详解

《大数据spark3.5安装部署之local模式详解》本文介绍了如何在本地模式下安装和配置Spark,并展示了如何使用SparkShell进行基本的数据处理操作,同时,还介绍了如何通过Spark-su... 目录下载上传解压配置jdk解压配置环境变量启动查看交互操作命令行提交应用spark,一个数据处理框架

如何使用Docker部署FTP和Nginx并通过HTTP访问FTP里的文件

《如何使用Docker部署FTP和Nginx并通过HTTP访问FTP里的文件》本文介绍了如何使用Docker部署FTP服务器和Nginx,并通过HTTP访问FTP中的文件,通过将FTP数据目录挂载到N... 目录docker部署FTP和Nginx并通过HTTP访问FTP里的文件1. 部署 FTP 服务器 (

C#集成DeepSeek模型实现AI私有化的流程步骤(本地部署与API调用教程)

《C#集成DeepSeek模型实现AI私有化的流程步骤(本地部署与API调用教程)》本文主要介绍了C#集成DeepSeek模型实现AI私有化的方法,包括搭建基础环境,如安装Ollama和下载DeepS... 目录前言搭建基础环境1、安装 Ollama2、下载 DeepSeek R1 模型客户端 ChatBo

Ubuntu 22.04 服务器安装部署(nginx+postgresql)

《Ubuntu22.04服务器安装部署(nginx+postgresql)》Ubuntu22.04LTS是迄今为止最好的Ubuntu版本之一,很多linux的应用服务器都是选择的这个版本... 目录是什么让 Ubuntu 22.04 LTS 变得安全?更新了安全包linux 内核改进一、部署环境二、安装系统

JAVA集成本地部署的DeepSeek的图文教程

《JAVA集成本地部署的DeepSeek的图文教程》本文主要介绍了JAVA集成本地部署的DeepSeek的图文教程,包含配置环境变量及下载DeepSeek-R1模型并启动,具有一定的参考价值,感兴趣的... 目录一、下载部署DeepSeek1.下载ollama2.下载DeepSeek-R1模型并启动 二、J

Docker部署Jenkins持续集成(CI)工具的实现

《Docker部署Jenkins持续集成(CI)工具的实现》Jenkins是一个流行的开源自动化工具,广泛应用于持续集成(CI)和持续交付(CD)的环境中,本文介绍了使用Docker部署Jenkins... 目录前言一、准备工作二、设置变量和目录结构三、配置 docker 权限和网络四、启动 Jenkins

SpringBoot中整合RabbitMQ(测试+部署上线最新完整)的过程

《SpringBoot中整合RabbitMQ(测试+部署上线最新完整)的过程》本文详细介绍了如何在虚拟机和宝塔面板中安装RabbitMQ,并使用Java代码实现消息的发送和接收,通过异步通讯,可以优化... 目录一、RabbitMQ安装二、启动RabbitMQ三、javascript编写Java代码1、引入

ElasticSearch+Kibana通过Docker部署到Linux服务器中操作方法

《ElasticSearch+Kibana通过Docker部署到Linux服务器中操作方法》本文介绍了Elasticsearch的基本概念,包括文档和字段、索引和映射,还详细描述了如何通过Docker... 目录1、ElasticSearch概念2、ElasticSearch、Kibana和IK分词器部署

部署Vue项目到服务器后404错误的原因及解决方案

《部署Vue项目到服务器后404错误的原因及解决方案》文章介绍了Vue项目部署步骤以及404错误的解决方案,部署步骤包括构建项目、上传文件、配置Web服务器、重启Nginx和访问域名,404错误通常是... 目录一、vue项目部署步骤二、404错误原因及解决方案错误场景原因分析解决方案一、Vue项目部署步骤

Linux流媒体服务器部署流程

《Linux流媒体服务器部署流程》文章详细介绍了流媒体服务器的部署步骤,包括更新系统、安装依赖组件、编译安装Nginx和RTMP模块、配置Nginx和FFmpeg,以及测试流媒体服务器的搭建... 目录流媒体服务器部署部署安装1.更新系统2.安装依赖组件3.解压4.编译安装(添加RTMP和openssl模块