动手学大模型LLM应用开发之提示词工程(Prompt Engineering)

本文主要是介绍动手学大模型LLM应用开发之提示词工程(Prompt Engineering),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

目录

    • 一、什么是提示词工程(Prompt Engineering)?
    • 二、Prompt 设计的原则及使用技巧
      • 原则一:编写清晰、具体的指令
        • 1、使用分隔符清晰地表示输入的不同部分
        • 2、寻求结构化的输出
        • 3、要求模型检查是否满足条件
        • 4、提供少量示例
      • 原则二:给模型时间去思考
        • 1、指定完成任务所需的步骤
        • 2、指导模型在下结论之前找出一个自己的解法
    • 三、参考资料

一、什么是提示词工程(Prompt Engineering)?

提示工程(Prompt Engineering)是一个相对较新的研究方向,用于研究如何编写和优化提示池,以便更好、更有效地使用大语言模型。
我们每一次访问大模型,给模型的输入就是 Prompt,大模型给我们的返回结果我们称之为 Completion。
在这里插入图片描述

二、Prompt 设计的原则及使用技巧

一个好的 Prompt 设计极大地决定了其能力的上限与下限。设计高效 Prompt 有两个关键原则编写清晰、具体的指令给予模型充足思考时间

原则一:编写清晰、具体的指令

1、使用分隔符清晰地表示输入的不同部分

在编写 Prompt 时,我们可以使用各种标点符号作为“分隔符”,将不同的文本部分区分开来。分隔符就像是 Prompt 中的墙,将不同的指令、上下文、输入隔开,避免意外的混淆。你可以选择用 ```,“”",< >, ,: 等做分隔符,只要能明确起到隔断作用即可。

在以下的例子中,我们给出一段话并要求 LLM 进行总结,在该示例中我们使用 ```来作为分隔符:

(1)、首先,我们调用 OpenAI 的 API ,封装一个对话函数,使用 gpt-3.5-turbo 这个模型。

import os
from openai import OpenAI
from dotenv import load_dotenv, find_dotenv# 如果你设置的是全局的环境变量,这行代码则没有任何作用。
_ = load_dotenv(find_dotenv())client = OpenAI(# This is the default and can be omitted# 获取环境变量 OPENAI_API_KEYapi_key=os.environ.get("OPENAI_API_KEY"),# 访问api的网址,中转api需设置base_url=os.environ.get("OPENAI_BASE_URL")
)# 如果你需要通过代理端口访问,还需要做如下配置
os.environ['HTTPS_PROXY'] = 'http://127.0.0.1:7890'
os.environ["HTTP_PROXY"] = 'http://127.0.0.1:7890'# 一个封装 OpenAI 接口的函数,参数为 Prompt,返回对应结果
def get_completion(prompt,model="gpt-3.5-turbo"):'''prompt: 对应的提示词model: 调用的模型,默认为 gpt-3.5-turbo(ChatGPT)。你也可以选择其他模型。https://platform.openai.com/docs/models/overview'''messages = [{"role": "user", "content": prompt}]# 调用 OpenAI 的 ChatCompletion 接口response = client.chat.completions.create(model=model,messages=messages,temperature=0)return response.choices[0].message.content

(2)、对比分析使用分隔符和不使用分隔符的大模型回答的效果

使用分隔符运行效果:
在这里插入图片描述
不使用分隔符运行效果:
在这里插入图片描述
总结:通过以上实验我们可以看出,使用分隔符能够有效的让大模型明白我们的用途,防止歧义。

2、寻求结构化的输出

有时候我们需要语言模型给我们一些结构化的输出,而不仅仅是连续的文本。希望大模型能够给我们返回按照某种格式组织的内容,例如 JSON、HTML 等,这种结构能够让我们方便在代码中处理。

在以下示例中,我们要求 LLM 生成三本书的标题、作者和类别,并要求 LLM 以 JSON 的格式返回给我们,为便于解析,我们指定了 JSON 的键名。
在这里插入图片描述

3、要求模型检查是否满足条件

如果任务包含不一定能满足的假设(条件),我们可以告诉模型先检查这些假设,如果不满足,则会指出并停止执行后续的完整流程。您还可以考虑可能出现的边缘情况及模型的应对,以避免意外的结果或错误发生。

在如下示例中,我们将分别给模型两段文本,分别是制作茶的步骤以及一段没有明确步骤的文本。我们将要求模型判断其是否包含一系列指令,如果包含则按照给定格式重新编写指令,不包含则回答“未提供步骤”。
在这里插入图片描述
上述示例中,模型可以很好地识别一系列的指令并进行输出。在接下来一个示例中,我们将提供给模型
没有预期指令的输入,模型将判断未提供步骤。
在这里插入图片描述

4、提供少量示例

“Few-shot” prompting(少样本提示),即在要求模型执行实际任务之前,给模型提供一两个参考样例,让模型了解我们的要求和期望的输出样式。

例如,在以下的样例中,我们先给了一个 {<学术>:<圣贤>} 对话样例,然后要求模型用同样的隐喻风格回答关于“孝顺”的问题,可以看到 LLM 回答的风格和示例里<圣贤>的文言文式回复风格是十分一致的。这就是一个 Few-shot 学习示例,能够帮助模型快速学到我们要的语气和风格。
在这里插入图片描述
总结:利用少样本样例,我们可以轻松“预热”语言模型,让它为新的任务做好准备。这是一个让模型快速上手新
任务的有效策略。

原则二:给模型时间去思考

给予语言模型充足的推理时间,是 Prompt Engineering 中一个非常重要的设计原则。提高模型的推理时间,我们可以详细的指定完成任务所需的步骤以及要求模型在下结论之前找出一个自己的解法引导模型深度思考。

1、指定完成任务所需的步骤

接下来我们将通过给定一个复杂任务,给出完成该任务的一系列步骤,来展示这一策略的效果。

首先我们描述了杰克和吉尔的故事,并给出提示词执行以下操作:

  • 首先,用一句话概括三个反引号限定的文本。
  • 第二,将摘要翻译成英语。
  • 第三,在英语摘要中列出每个名称。
  • 第四,输出包含以下键的 JSON 对象:英语摘要和人名个数。要求输出以换行符分隔。

在这里插入图片描述

2、指导模型在下结论之前找出一个自己的解法

在设计 Prompt 时,我们还可以通过明确指导语言模型进行自主思考,来获得更好的效果。
举个例子,假设我们要语言模型判断一个数学问题的解答是否正确。仅仅提供问题和解答是不够的,语
言模型可能会匆忙做出错误判断。

相反,我们可以在 Prompt 中先要求语言模型自己尝试解决这个问题,思考出自己的解法,然后再与提
供的解答进行对比,判断正确性。这种先让语言模型自主思考的方式,能帮助它更深入理解问题,做出
更准确的判断。

接下来我们会给出一个问题和一份来自学生的解答,要求模型判断解答是否正确:

在这里插入图片描述
但是注意,学生的解决方案实际上是错误的。(维护费用项100x应为10x,总费用450x应为360x)。我们可以通过指导模型先自行找出一个解法来解决这个问题。

在接下来这个 Prompt 中,我们要求模型先自行解决这个问题,再根据自己的解法与学生的解法进行对比,从而判断学生的解法是否正确。同时,我们给定了输出的格式要求。通过拆分任务、明确步骤,让
模型有更多时间思考,有时可以获得更准确的结果。
在这里插入图片描述

三、参考资料

llm-universe

这篇关于动手学大模型LLM应用开发之提示词工程(Prompt Engineering)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/916138

相关文章

Android 悬浮窗开发示例((动态权限请求 | 前台服务和通知 | 悬浮窗创建 )

《Android悬浮窗开发示例((动态权限请求|前台服务和通知|悬浮窗创建)》本文介绍了Android悬浮窗的实现效果,包括动态权限请求、前台服务和通知的使用,悬浮窗权限需要动态申请并引导... 目录一、悬浮窗 动态权限请求1、动态请求权限2、悬浮窗权限说明3、检查动态权限4、申请动态权限5、权限设置完毕后

0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型的操作流程

《0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeekR1模型的操作流程》DeepSeekR1模型凭借其强大的自然语言处理能力,在未来具有广阔的应用前景,有望在多个领域发... 目录0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型,3步搞定一个应

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

Spring AI Alibaba接入大模型时的依赖问题小结

《SpringAIAlibaba接入大模型时的依赖问题小结》文章介绍了如何在pom.xml文件中配置SpringAIAlibaba依赖,并提供了一个示例pom.xml文件,同时,建议将Maven仓... 目录(一)pom.XML文件:(二)application.yml配置文件(一)pom.xml文件:首

如何在本地部署 DeepSeek Janus Pro 文生图大模型

《如何在本地部署DeepSeekJanusPro文生图大模型》DeepSeekJanusPro模型在本地成功部署,支持图片理解和文生图功能,通过Gradio界面进行交互,展示了其强大的多模态处... 目录什么是 Janus Pro1. 安装 conda2. 创建 python 虚拟环境3. 克隆 janus

本地私有化部署DeepSeek模型的详细教程

《本地私有化部署DeepSeek模型的详细教程》DeepSeek模型是一种强大的语言模型,本地私有化部署可以让用户在自己的环境中安全、高效地使用该模型,避免数据传输到外部带来的安全风险,同时也能根据自... 目录一、引言二、环境准备(一)硬件要求(二)软件要求(三)创建虚拟环境三、安装依赖库四、获取 Dee

基于Python开发PPTX压缩工具

《基于Python开发PPTX压缩工具》在日常办公中,PPT文件往往因为图片过大而导致文件体积过大,不便于传输和存储,所以本文将使用Python开发一个PPTX压缩工具,需要的可以了解下... 目录引言全部代码环境准备代码结构代码实现运行结果引言在日常办公中,PPT文件往往因为图片过大而导致文件体积过大,

DeepSeek模型本地部署的详细教程

《DeepSeek模型本地部署的详细教程》DeepSeek作为一款开源且性能强大的大语言模型,提供了灵活的本地部署方案,让用户能够在本地环境中高效运行模型,同时保护数据隐私,在本地成功部署DeepSe... 目录一、环境准备(一)硬件需求(二)软件依赖二、安装Ollama三、下载并部署DeepSeek模型选

5分钟获取deepseek api并搭建简易问答应用

《5分钟获取deepseekapi并搭建简易问答应用》本文主要介绍了5分钟获取deepseekapi并搭建简易问答应用,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,需... 目录1、获取api2、获取base_url和chat_model3、配置模型参数方法一:终端中临时将加

使用DeepSeek API 结合VSCode提升开发效率

《使用DeepSeekAPI结合VSCode提升开发效率》:本文主要介绍DeepSeekAPI与VisualStudioCode(VSCode)结合使用,以提升软件开发效率,具有一定的参考价值... 目录引言准备工作安装必要的 VSCode 扩展配置 DeepSeek API1. 创建 API 请求文件2.