本文主要是介绍transformers调用llama的使用方式,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
transformers调用llama的使用方式
- 不同版本llama对应的transformers库版本
- llama2
- llama3
- Meta-Llama-3-8B-Instruct
- Meta-Llama-3-8B
- llama3.1
- Meta-Llama-3.1-8B-Instruct
不同版本llama对应的transformers库版本
# llama2
pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu116
pip install transformers==4.32.1
pip install accelerate==0.22.0
# llama3
pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu116
pip install transformers==4.35.0
pip install accelerate==0.22.0
# llama3.1
pip install torch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 --index-url https://download.pytorch.org/whl/cu118
pip install transformers==4.43.1
pip install accelerate==0.22.0
llama2
待补充
llama3
Meta-Llama-3-8B-Instruct
可用于QA,summarize,示例代码
from transformers import AutoTokenizer, AutoModelForCausalLM
import torchmodel_id = "meta-llama/Meta-Llama-3-8B-Instruct"tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForCausalLM.from_pretrained
这篇关于transformers调用llama的使用方式的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!