Docker下使用llama.cpp部署带Function calling和Json Mode功能的Mistral 7B模型

本文主要是介绍Docker下使用llama.cpp部署带Function calling和Json Mode功能的Mistral 7B模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

Docker下使用llama.cpp部署带Function calling和Json Mode功能的Mistral 7B模型

说明:

  • 首次发表日期:2024-08-27
  • 参考:
    • https://www.markhneedham.com/blog/2024/06/23/mistral-7b-function-calling-llama-cpp/
    • https://github.com/abetlen/llama-cpp-python?tab=readme-ov-file#function-calling
    • https://github.com/abetlen/llama-cpp-python/tree/main/docker#cuda_simple
    • https://docs.mistral.ai/capabilities/json_mode/
    • https://huggingface.co/MaziyarPanahi/Mistral-7B-Instruct-v0.3-GGUF
    • https://stackoverflow.com/questions/30905674/newer-versions-of-docker-have-cap-add-what-caps-can-be-added
    • https://man7.org/linux/man-pages/man7/capabilities.7.html
    • https://docs.docker.com/engine/containers/run/#runtime-privilege-and-linux-capabilities
    • https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html
    • https://www.cnblogs.com/davis12/p/14453690.html

下载GGUF模型

使用HuggingFace的镜像 https://hf-mirror.com/

方式一:

pip install -U huggingface_hub
export HF_ENDPOINT=https://hf-mirror.comhuggingface-cli download --resume-download MaziyarPanahi/Mistral-7B-Instruct-v0.3-GGUF --include *Q4_K_M.gguf

方式二(推荐):

sudo apt update
sudo apt install aria2 git-lfswget https://hf-mirror.com/hfd/hfd.shchmod a+x hfd.sh./hfd.sh MaziyarPanahi/Mistral-7B-Instruct-v0.3-GGUF --include *Q4_K_M.gguf --tool aria2c -x 16 --local-dir MaziyarPanahi--Mistral-7B-Instruct-v0.3-GGUF

使用Docker部署服务

构建之前需要先安装NVIDIA Container Toolkit

安装NVIDIA Container Toolkit

准备:

curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg \&& curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

安装:

sudo apt-get update
sudo apt-get install -y nvidia-container-toolkit

配置docker

sudo nvidia-ctk runtime configure --runtime=docker

NVIDIA Container Toolkit 安装的更多信息请参考官方文档: https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html

构建镜像

使用官方的Dockerfile: https://github.com/abetlen/llama-cpp-python/blob/main/docker/cuda_simple/Dockerfile

ARG CUDA_IMAGE="12.2.0-devel-ubuntu22.04"
FROM nvidia/cuda:${CUDA_IMAGE}# We need to set the host to 0.0.0.0 to allow outside access
ENV HOST 0.0.0.0RUN apt-get update && apt-get upgrade -y \&& apt-get install -y git build-essential \python3 python3-pip gcc wget \ocl-icd-opencl-dev opencl-headers clinfo \libclblast-dev libopenblas-dev \&& mkdir -p /etc/OpenCL/vendors && echo "libnvidia-opencl.so.1" > /etc/OpenCL/vendors/nvidia.icdCOPY . .# setting build related env vars
ENV CUDA_DOCKER_ARCH=all
ENV GGML_CUDA=1# Install depencencies
RUN python3 -m pip install --upgrade pip pytest cmake scikit-build setuptools fastapi uvicorn sse-starlette pydantic-settings starlette-context# Install llama-cpp-python (build with cuda)
RUN CMAKE_ARGS="-DGGML_CUDA=on" pip install llama-cpp-python# Run the server
CMD python3 -m llama_cpp.server

因为我本地安装的CUDA版本为12.2,所以将base镜像改为nvidia/cuda:12.2.0-devel-ubuntu22.04

docker build -t llama_cpp_cuda_simple .

启动服务

docker run --gpus=all --cap-add SYS_RESOURCE -e USE_MLOCK=0 -e model=/models/downloaded/MaziyarPanahi--Mistral-7B-Instruct-v0.3-GGUF/Mistral-7B-Instruct-v0.3.Q4_K_M.gguf -e n_gpu_layers=-1 -e chat_format=chatml-function-calling -v /mnt/d/16-LLM-Cache/llama_cpp_gnuf:/models -p 8000:8000 -t llama_cpp_cuda_simple

其中:

  • -v 将本地文件夹映射到容器内部文件夹/models
  • --gpus=all 表示使用所有的GPU
  • --cap-add SYS_RESOURCE 表示容器将有SYS_RESOURCE的权限
  • 其中以-e开头的表示设置环境变量,实际上是设置llama_cpp.server的参数,相关代码详见 https://github.com/abetlen/llama-cpp-python/blob/259ee151da9a569f58f6d4979e97cfd5d5bc3ecd/llama_cpp/server/main.py#L79 和 https://github.com/abetlen/llama-cpp-python/blob/259ee151da9a569f58f6d4979e97cfd5d5bc3ecd/llama_cpp/server/settings.py#L17 这里设置的环境变量是大小写不敏感的,见 https://docs.pydantic.dev/latest/concepts/pydantic_settings/#case-sensitivity
    • -e model 指向模型文件
    • -e n_gpu_layers=-1 表示将所有神经网络层移到GPU
      • 假设模型一共有N层,其中n_gpu_layers层被放在GPU上,那么剩下的 N - n_gpu_layers 就会被放在CPU上
    • -e chat_format=chatml-function-calling 设置以支持Function Calling功能

启动完成后,在浏览器打开 http://localhost:8000/docs 查看API文档

调用测试

Function Calling

curl --location 'http://localhost:8000/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer sk-xxxxxxxxxxxxxxxxxxxxxx' \
--data '{"model": "gpt-3.5-turbo","messages": [{"role": "system","content": "You are a helpful assistant.\nYou can call functions with appropriate input when necessary"},{"role": "user","content": "What'\''s the weather like in Mauritius?"}],"tools": [{"type": "function","function": {"name": "get_current_weather","description": "Get the current weather in a given latitude and longitude","parameters": {"type": "object","properties": {"latitude": {"type": "number","description": "The latitude of a place"},"longitude": {"type": "number","description": "The longitude of a place"}},"required": ["latitude", "longitude"]}}}],"tool_choice": "auto"
}'

输出:

{"id": "chatcmpl-50c8e261-2b1a-4285-a6ee-e18a07ce92d9","object": "chat.completion","created": 1724757544,"model": "gpt-3.5-turbo","choices": [{"index": 0,"message": {"content": null,"tool_calls": [{"id": "call__0_get_current_weather_cmpl-97515c72-d214-4ed9-b183-7736199e5be1","type": "function","function": {"name": "get_current_weather","arguments": "{\"latitude\": -20.375, \"longitude\": 57.568} "}}],"role": "assistant","function_call": {"name": "","arguments": "{\"latitude\": -20.375, \"longitude\": 57.568} "}},"logprobs": null,"finish_reason": "tool_calls"}],"usage": {"prompt_tokens": 299,"completion_tokens": 25,"total_tokens": 324}
}

JSON Mode

curl --location "http://localhost:8000/v1/chat/completions" \--header 'Content-Type: application/json' \--header 'Accept: application/json' \--header "Authorization: Bearer sk-xxxxxxxxxxxxxxxxxxxxxx" \--data '{"model": "gpt-3.5-turbo","messages": [{"role": "user","content": "What is the best French cheese? Return the product and produce location in JSON format"}],"response_format": {"type": "json_object"}}'

输出:

{"id": "chatcmpl-bbfecfc5-2ea9-4052-93b2-08f1733e8219","object": "chat.completion","created": 1724757752,"model": "gpt-3.5-turbo","choices": [{"index": 0,"message": {"content": "{\n  \"product\": \"Roquefort\",\n  \"produce_location\": \"France, South of France\"\n}\n  \t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t","role": "assistant"},"logprobs": null,"finish_reason": "stop"}],"usage": {"prompt_tokens": 44,"completion_tokens": 50,"total_tokens": 94}
}

使用以下代码将content部分写入到文本:

text = "{\n  \"product\": \"Roquefort\",\n  \"location\": \"France, South of France\"\n}\n \t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t\t"with open('resp.txt', 'w') as f:f.write(text)

可以看到内容:

{"product": "Roquefort","location": "France, South of France"
}

这篇关于Docker下使用llama.cpp部署带Function calling和Json Mode功能的Mistral 7B模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1112825

相关文章

闲置电脑也能活出第二春?鲁大师AiNAS让你动动手指就能轻松部署

对于大多数人而言,在这个“数据爆炸”的时代或多或少都遇到过存储告急的情况,这使得“存储焦虑”不再是个别现象,而将会是随着软件的不断臃肿而越来越普遍的情况。从不少手机厂商都开始将存储上限提升至1TB可以见得,我们似乎正处在互联网信息飞速增长的阶段,对于存储的需求也将会不断扩大。对于苹果用户而言,这一问题愈发严峻,毕竟512GB和1TB版本的iPhone可不是人人都消费得起的,因此成熟的外置存储方案开

大模型研发全揭秘:客服工单数据标注的完整攻略

在人工智能(AI)领域,数据标注是模型训练过程中至关重要的一步。无论你是新手还是有经验的从业者,掌握数据标注的技术细节和常见问题的解决方案都能为你的AI项目增添不少价值。在电信运营商的客服系统中,工单数据是客户问题和解决方案的重要记录。通过对这些工单数据进行有效标注,不仅能够帮助提升客服自动化系统的智能化水平,还能优化客户服务流程,提高客户满意度。本文将详细介绍如何在电信运营商客服工单的背景下进行

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

如何用Docker运行Django项目

本章教程,介绍如何用Docker创建一个Django,并运行能够访问。 一、拉取镜像 这里我们使用python3.11版本的docker镜像 docker pull python:3.11 二、运行容器 这里我们将容器内部的8080端口,映射到宿主机的80端口上。 docker run -itd --name python311 -p

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

Andrej Karpathy最新采访:认知核心模型10亿参数就够了,AI会打破教育不公的僵局

夕小瑶科技说 原创  作者 | 海野 AI圈子的红人,AI大神Andrej Karpathy,曾是OpenAI联合创始人之一,特斯拉AI总监。上一次的动态是官宣创办一家名为 Eureka Labs 的人工智能+教育公司 ,宣布将长期致力于AI原生教育。 近日,Andrej Karpathy接受了No Priors(投资博客)的采访,与硅谷知名投资人 Sara Guo 和 Elad G

C++11第三弹:lambda表达式 | 新的类功能 | 模板的可变参数

🌈个人主页: 南桥几晴秋 🌈C++专栏: 南桥谈C++ 🌈C语言专栏: C语言学习系列 🌈Linux学习专栏: 南桥谈Linux 🌈数据结构学习专栏: 数据结构杂谈 🌈数据库学习专栏: 南桥谈MySQL 🌈Qt学习专栏: 南桥谈Qt 🌈菜鸡代码练习: 练习随想记录 🌈git学习: 南桥谈Git 🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈🌈�