如何使用 Hugging Face 的 Transformers 库来下载并使用一个qwen1.5的预训练模型[框架]

本文主要是介绍如何使用 Hugging Face 的 Transformers 库来下载并使用一个qwen1.5的预训练模型[框架],希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

要使用Hugging Face的Transformers库下载并使用Qwen1.5预训练模型,你可以按照以下步骤操作:
1.安装Transformers库: 确保你已经安装了transformers库的最新版本,至少是4.37.0,因为Qwen1.5已经被集成到这个版本中。如果还没有安装,可以使用以下命令安装:

   pip install transformers

2.导入必要的模块: 在Python代码中,你需要导入AutoTokenizer和AutoModelForCausalLM(或根据你的具体需求选择相应的模型类):

   from transformers import AutoTokenizer, AutoModelForCausalLM

3.加载预训练模型和分词器: 使用AutoTokenizer.from_pretrained和AutoModelForCausalLM.from_pretrained方法加载Qwen1.5模型及其对应的分词器。模型名称应该是qwen1.5:

   tokenizer = AutoTokenizer.from_pretrained("qwen1.5")model = AutoModelForCausalLM.from_pretrained("qwen1.5")

4.准备输入文本: 根据你的应用,创建一个字符串作为输入文本:

   input_text = "你好,我想了解关于人工智能的一些事情。"

 5.编码输入文本: 使用分词器将输入文本转换为模型可接受的格式:

"使用分词器将输入文本转换为模型可接受的格式" 意味着将原始的、未经处理的自然语言文本通过特定的算法分割成一系列基础单元,这些单元可以是单词、子词(subwords)或者字符等,具体取决于所使用的分词器和模型的要求。这个过程对于大多数现代自然语言处理(NLP)模型来说至关重要,因为模型通常需要输入以数字表示的、固定长度的向量,而不是直接理解原始文本。
在Hugging Face的Transformers库中,AutoTokenizer类负责执行这个任务。它的工作流程大致如下:
分词(Tokenization):将文本拆分成一个个基本单元(tokens)。对于中文,这可能涉及按字符或词汇分隔;对于英文和其他语言,可能会进一步细分为子词以处理词汇的多样性。
添加特殊标记:为了帮助模型理解输入序列的结构,分词器会在序列的开始和结束添加特殊的标记,如[CLS]、[SEP]、<s>、</s>等,具体取决于模型的类型和用途。
映射到索引:每个token被映射到一个唯一的整数ID,这个ID在模型的词汇表中代表该token。词汇表是模型训练时建立的,包含所有模型能理解的token及其对应的ID。
转换为张量:最后,这些整数ID会被组织成一个或多个张量(通常是PyTorch或TensorFlow中的张量),以便于在神经网络模型中作为输入使用。
综上所述,"转换为模型可接受的格式"实质上是将文本数据转化为模型能够理解和处理的数字化、结构化形式,确保模型能够高效地进行预测或生成任务。

   inputs = tokenizer(input_text, return_tensors="pt")

6.生成文本: 如果你想让模型生成文本,你可以使用model.generate方法。注意,对于Qwen1.5这样的语言模型,通常需要指定起始种子文本(inputs的input_ids)和一些生成参数,比如最大生成长度:

   # 例如,生成10个字的文本generated_text = model.generate(inputs["input_ids"], max_length=10)

7.解码生成的文本: 将生成的ID序列转换回人类可读的文本:

   generated_text = tokenizer.decode(generated_text[0])print(generated_text)

以上就是使用Hugging Face的Transformers库下载并使用Qwen1.5预训练模型的基本步骤。根据实际应用,你可能还需要调整生成参数,如温度(temperature)、顶级样本(top_k)、顶级概率(top_p)等以控制生成结果的多样性和质量。

# 导入所需库
from transformers import AutoTokenizer, AutoModelForCausalLM# 加载模型和分词器
tokenizer = AutoTokenizer.from_pretrained("qwen1.5")
model = AutoModelForCausalLM.from_pretrained("qwen1.5")# 输入文本
input_text = "你好,我想知道未来人工智能会如何改变我们的生活。"# 使用分词器对输入文本进行编码
# `return_tensors="pt"`使得返回值为PyTorch张量,适用于后续模型的输入
inputs = tokenizer(input_text, return_tensors="pt", padding=True, truncation=True)# 生成文本配置
# 注意:这里的配置是示例性的,具体参数应根据需求调整
max_length = 50  # 生成文本的最大长度
num_return_sequences = 1  # 返回的生成序列数量
temperature = 1.0  # 控制生成的随机性,较低的值使生成结果更确定
top_p = 0.9  # 核心采样参数,控制候选token的选择范围# 生成文本
# 注意:对于某些模型,可能需要调整generate函数的参数,特别是对于有特定接口的模型
generated = model.generate(inputs.input_ids,max_length=max_length + len(inputs["input_ids"][0]),  # 需要考虑输入长度num_return_sequences=num_return_sequences,temperature=temperature,top_p=top_p,pad_token_id=tokenizer.eos_token_id,  # 结束生成的标志
)# 解码生成的文本
# 对于多个生成序列,这里只取第一个
generated_text = [tokenizer.decode(gen, skip_special_tokens=True, clean_up_tokenization_spaces=True) for gen in generated]
print("\nGenerated Text:")
for idx, text in enumerate(generated_text):print(f"Sequence {idx+1}: {text}")

以上为参考代码。具体根据实际,敬请关注,后期将持续完善学习记录。以下代码来自hugging face

from transformers import AutoModelForCausalLM, AutoTokenizer
device = "cuda" # the device to load the model ontomodel = AutoModelForCausalLM.from_pretrained("Qwen/CodeQwen1.5-7B-Chat",torch_dtype="auto",device_map="auto"
)
tokenizer = AutoTokenizer.from_pretrained("Qwen/CodeQwen1.5-7B-Chat")prompt = "Write a quicksort algorithm in python."
messages = [{"role": "system", "content": "You are a helpful assistant."},{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(messages,tokenize=False,add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(device)generated_ids = model.generate(model_inputs.input_ids,max_new_tokens=512
)
generated_ids = [output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

这篇关于如何使用 Hugging Face 的 Transformers 库来下载并使用一个qwen1.5的预训练模型[框架]的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/990537

相关文章

C语言中联合体union的使用

本文编辑整理自: http://bbs.chinaunix.net/forum.php?mod=viewthread&tid=179471 一、前言 “联合体”(union)与“结构体”(struct)有一些相似之处。但两者有本质上的不同。在结构体中,各成员有各自的内存空间, 一个结构变量的总长度是各成员长度之和。而在“联合”中,各成员共享一段内存空间, 一个联合变量

Tolua使用笔记(上)

目录   1.准备工作 2.运行例子 01.HelloWorld:在C#中,创建和销毁Lua虚拟机 和 简单调用。 02.ScriptsFromFile:在C#中,对一个lua文件的执行调用 03.CallLuaFunction:在C#中,对lua函数的操作 04.AccessingLuaVariables:在C#中,对lua变量的操作 05.LuaCoroutine:在Lua中,

一份LLM资源清单围观技术大佬的日常;手把手教你在美国搭建「百万卡」AI数据中心;为啥大模型做不好简单的数学计算? | ShowMeAI日报

👀日报&周刊合集 | 🎡ShowMeAI官网 | 🧡 点赞关注评论拜托啦! 1. 为啥大模型做不好简单的数学计算?从大模型高考数学成绩不及格说起 司南评测体系 OpenCompass 选取 7 个大模型 (6 个开源模型+ GPT-4o),组织参与了 2024 年高考「新课标I卷」的语文、数学、英语考试,然后由经验丰富的判卷老师评判得分。 结果如上图所

Vim使用基础篇

本文内容大部分来自 vimtutor,自带的教程的总结。在终端输入vimtutor 即可进入教程。 先总结一下,然后再分别介绍正常模式,插入模式,和可视模式三种模式下的命令。 目录 看完以后的汇总 1.正常模式(Normal模式) 1.移动光标 2.删除 3.【:】输入符 4.撤销 5.替换 6.重复命令【. ; ,】 7.复制粘贴 8.缩进 2.插入模式 INSERT

Lipowerline5.0 雷达电力应用软件下载使用

1.配网数据处理分析 针对配网线路点云数据,优化了分类算法,支持杆塔、导线、交跨线、建筑物、地面点和其他线路的自动分类;一键生成危险点报告和交跨报告;还能生成点云数据采集航线和自主巡检航线。 获取软件安装包联系邮箱:2895356150@qq.com,资源源于网络,本介绍用于学习使用,如有侵权请您联系删除! 2.新增快速版,简洁易上手 支持快速版和专业版切换使用,快速版界面简洁,保留主

如何免费的去使用connectedpapers?

免费使用connectedpapers 1. 打开谷歌浏览器2. 按住ctrl+shift+N,进入无痕模式3. 不需要登录(也就是访客模式)4. 两次用完,关闭无痕模式(继续重复步骤 2 - 4) 1. 打开谷歌浏览器 2. 按住ctrl+shift+N,进入无痕模式 输入网址:https://www.connectedpapers.com/ 3. 不需要登录(也就是

大语言模型(LLMs)能够进行推理和规划吗?

大语言模型(LLMs),基本上是经过强化训练的 n-gram 模型,它们在网络规模的语言语料库(实际上,可以说是我们文明的知识库)上进行了训练,展现出了一种超乎预期的语言行为,引发了我们的广泛关注。从训练和操作的角度来看,LLMs 可以被认为是一种巨大的、非真实的记忆库,相当于为我们所有人提供了一个外部的系统 1(见图 1)。然而,它们表面上的多功能性让许多研究者好奇,这些模型是否也能在通常需要系

Toolbar+DrawerLayout使用详情结合网络各大神

最近也想搞下toolbar+drawerlayout的使用。结合网络上各大神的杰作,我把大部分的内容效果都完成了遍。现在记录下各个功能效果的实现以及一些细节注意点。 这图弹出两个菜单内容都是仿QQ界面的选项。左边一个是drawerlayout的弹窗。右边是toolbar的popup弹窗。 开始实现步骤详情: 1.创建toolbar布局跟drawerlayout布局 <?xml vers

Android多线程下载见解

通过for循环开启N个线程,这是多线程,但每次循环都new一个线程肯定很耗内存的。那可以改用线程池来。 就以我个人对多线程下载的理解是开启一个线程后: 1.通过HttpUrlConnection对象获取要下载文件的总长度 2.通过RandomAccessFile流对象在本地创建一个跟远程文件长度一样大小的空文件。 3.通过文件总长度/线程个数=得到每个线程大概要下载的量(线程块大小)。

人工和AI大语言模型成本对比 ai语音模型

这里既有AI,又有生活大道理,无数渺小的思考填满了一生。 上一专题搭建了一套GMM-HMM系统,来识别连续0123456789的英文语音。 但若不是仅针对数字,而是所有普通词汇,可能达到十几万个词,解码过程将非常复杂,识别结果组合太多,识别结果不会理想。因此只有声学模型是完全不够的,需要引入语言模型来约束识别结果。让“今天天气很好”的概率高于“今天天汽很好”的概率,得到声学模型概率高,又符合表达