Qwen-WisdomVast (千问-智瀚)

2024-04-12 01:12
文章标签 qwen 千问 wisdomvast 智瀚

本文主要是介绍Qwen-WisdomVast (千问-智瀚),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

请添加图片描述

请添加图片描述

介绍

Qwen-WisdomVast以Qwen1.5-7B为底座,使用 DORA + LORA+ 的训练方法,在100w高质量中文多轮SFT数据 + 20w英文多轮SFT数据 + 2000单轮自我认知数据训练而来的大模型,数学能力相比Qwen1.5-7B-Chat提升了5.16%,在HumanEval数据集上相比Qwen1.5-7B-Chat提升了12.8,在MBPP数据集上提升了11.6%,在BBH数据集上提升了12.44%,全部评测表现见下表。

Github: https://github.com/seanzhang-zhichen/Qwen-WisdomVast

评测表现

ModelMMLUC-EvalGSM8KMATHHumanEvalMBPPBBH
Qwen1.5-7B-Chat60.8870.1854.137.9631.1015.0031.67
Qwen-WisdomVast57.0970.8251.9313.1243.9026.6044.11

说明:

由于官方并未公布Qwen1.5-7B-Chat的评测表现,所以我们自己使用opencompass测试得到以上结果

Qwen-WisdomVast使用和Qwen1.5-7B-Chat一样的参数进行测试

模型下载

ModelDownload
Qwen1.5-7B 🤗 HuggingFace 🤖 ModelScope
Qwen-WisdomVast-Lora 🤗 HuggingFace 🤖 ModelScope
Qwen-WisdomVast (合并好的模型) 🤗 HuggingFace 🤖 ModelScope

合并LORA模型(可跳过)

1、下载 Qwen1.5-7B

git clone https://www.modelscope.cn/qwen/Qwen1.5-7B.git

2、下载Qwen-WisdomVast-Lora

From ModelScope

git lfs install
git clone https://www.modelscope.cn/seanzhang/Qwen-WisdomVast-Lora.git

From HuggingFace

git lfs install
git clone https://huggingface.co/zhichen/Qwen-WisdomVast-Lora

3、合并模型

python merge_lora.py \--base_model path/to/qwen/Qwen1.5-7B \--lora_model path/to/lora/Qwen-WisdomVast-Lora \--output_dir ./Qwen-WisdomVast

下载 Qwen-WisdomVast(合并好的模型)

From ModelScope

git lfs install
git clone https://www.modelscope.cn/seanzhang/Qwen-WisdomVast.git

From HuggingFace

git lfs install
git clone https://huggingface.co/zhichen/Qwen-WisdomVast

命令行推理

python cli_demo.py  --model_path ./Qwen-WisdomVast(换成你自己的合并后的模型路径)

web 推理

python web_demo.py  --model_path ./Qwen-WisdomVast(换成你自己的合并后的模型路径)

vllm web 推理

1、使用vllm部署模型

python -m vllm.entrypoints.openai.api_server --served-model-name Qwen-WisdomVast --model ./Qwen-WisdomVast(换成你自己的合并后的模型路径)

2、在命令行执行

python vllm_web_demo.py --model Qwen-WisdomVast 

复现测试结果

1、使用vllm部署openai api server

部署命令:

python -m vllm.entrypoints.openai.api_server --served-model-name Qwen-WisdomVast --model ./Qwen-WisdomVast(换成你自己的合并后的模型路径)

2、使用opencompass框架进行测试

参考:使用opencompass验证模型效果

按照以上文章修改好后,将eval_qwen_wisdomvast.py文件到 opencompass/configs文件夹下

3、执行测试脚本

python run.py configs/eval_qwen_wisdomvast.py  -w outputs/Qwen-WisdomVast

LICENSE

本项目仅可应用于研究目的,项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。详细请参考免责声明。

Qwen-WisdomVast项目代码的授权协议为 The Apache License 2.0,代码可免费用做商业用途,模型权重和数据只能用于研究目的。请在产品说明中附加Qwen-WisdomVast的链接和授权协议。

这篇关于Qwen-WisdomVast (千问-智瀚)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/895689

相关文章

快速接入通义千问

引言 在探索大型语言模型的使用时,我注意到阿里巴巴推出的"通义千问"不仅提供了强大的功能,还配备了详尽的 SDK 文档,极大地简化了二次开发的过程。 "通义千问"的API文档简洁明了,使得学习曲线平缓,通过简单的API调用即可将先进的语言处理技术集成到自己的项目中。 步骤一:获取API-KEY 首先,你需要在阿里百炼大平台开通服务: 访问[阿里百炼控制台] https://bailian

大模型应用实战3——开源大模型(以Qwen为例)实现多论对话功能

对于国内用户来说,一个比较稳定的下载和部署开源大模型的方法就是使用ModelScope的SDK进行下载,然后再Transformer库进行调用。在代码环境中,ollama则提供了openai API风格的大模型调用方法。在开启ollama服务情况下,我们只需要进一步在代码环境中安装openai库即可完成调用。目前都是用openai风格的api。 !pip install openai from

【AI应用探讨】— 通义千问模型应用场景

目录 一、文字创作 二、文本处理 三、编程辅助 四、翻译服务 五、对话模拟 六、数据可视化 七、电商行业应用 八、教育行业应用 九、开发者与科研工作者应用 一、文字创作 故事、公文、邮件撰写:通义千问能够基于用户的指令和需求,生成符合要求的文本内容,如创作故事、撰写公文或邮件等。剧本、诗歌创作:其强大的文本生成能力也为文艺创作者提供了便利,如辅助创作剧本、诗歌等。

【AI原理解析】— 通义千问模型

目录 1. 技术基础与架构 自然语言处理技术(NLP) 知识图谱 超大规模语言模型 2. 原理与工作流程 输入解析 问题匹配与推理 答案生成 3. 技术特点与优势 高效性 多语言能力 可扩展性 4. 应用场景 1. 技术基础与架构 自然语言处理技术(NLP) 通义千问利用自然语言处理技术,包括文本分类、意图识别、命名实体识别等,来理解和解析用户输入的

【AI】通义千问使用指南:让你快速上手,成为问题解决高手!

大家好,我是木头左。 近日,继文心一言和讯飞星火之后,阿里虽迟但到,直接宣布开源两款“通义千问”大模型。作为国内首个开源且可商用的人工智能大模型,这会给我们带来哪些变化呢? 如何申请阿里通义千问? 本文将详细介绍如何在阿里通义千问申请账号,如以下步骤操作: 步骤1:下载阿里通义千问APP或访问PC端 访问https://qianwen.aliyun.com/,或搜索“阿里通义千问”

通义千问AI+Java

如何提问 Prompt的组成 角色:给 AI 定义一个最匹配任务的角色,比如:「你是一位软件工程师」「你是一位小学老师」指示:对任务进行描述上下文:给出与任务相关的其它背景信息(尤其在多轮交互中)例子:必要时给出举例,[实践证明其对输出正确性有帮助]输入:任务的输入信息;在提示词中明确的标识出输入输出:输出的格式描述,以便后继模块自动解析模型的输出结果,比如(JSON、Java) 先定义角

【多模态大模型教程】在自定义数据上使用Qwen-VL多模态大模型的微调与部署指南

Qwen-VL 是阿里云研发的大规模视觉语言模型(Large Vision Language Model, LVLM)。Qwen-VL 可以以图像、文本、检测框作为输入,并以文本和检测框作为输出。 Qwen-VL-Chat = 大语言模型(Qwen-7B) + 视觉图片特征编码器(Openclip ViT-bigG) + 位置感知视觉语言适配器(可训练Adapter)+ 1.5B的图文数据

Langchain中使用Ollama提供的Qwen大模型进行Function Call实现天气查询、网络搜索

Function Call,或者叫函数调用、工具调用,是大语言模型中比较重要的一项能力,对于扩展大语言模型的能力,或者构建AI Agent,至关重要。 Function Call的简单原理如下: 按照特定规范(这个一般是LLM在训练阶段构造数据的格式),定义函数,一般会包含函数名、函数描述,参数、参数描述、参数类型,必填参数,一般是json格式 将函数定义绑定的大模型上,这一步主要是让LL

Qwen-VL图文多模态大模型LoRA微调指南

大模型相关目录 大模型,包括部署微调prompt/Agent应用开发、知识库增强、数据库增强、知识图谱增强、自然语言处理、多模态等大模型应用开发内容 从0起步,扬帆起航。 大模型应用向开发路径:AI代理工作流大模型应用开发实用开源项目汇总大模型问答项目问答性能评估方法大模型数据侧总结大模型token等基本概念及参数和内存的关系大模型应用开发-华为大模型生态规划从零开始的LLaMA-Factor

Qwen-Agent:Qwen2加持,强大的多代理框架 - 函数调用、代码解释器以及 RAG!

✨点击这里✨:🚀原文链接:(更好排版、视频播放、社群交流、最新AI开源项目、AI工具分享都在这个公众号!) Qwen-Agent:Qwen2加持,强大的多代理框架 - 函数调用、代码解释器以及 RAG! 🌟 Qwen-Agent是一个开发框架。开发者可基于该框架开发 Agent应用 ,充分利用基于通义千问模型(Qwen)的指令遵循、工具使用、规划、记忆能力。该项目也提供了浏览器助手、代