做大模型产品,如何设计prompt?

2024-04-25 14:04

本文主要是介绍做大模型产品,如何设计prompt?,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

做GenAI产品,除了要设计好的AI任务流程,合理的拆分业务以外,最重要的就是写好prompt,管理好prompt,持续迭代prompt。

prompt一般有两种形式:结构化prompt对话式prompt

结构化prompt的优点是通过规范的结构把任务介绍得很清楚,缺点就是往往很长,比较复杂。而对话式prompt更加简单,更符合日常的说话习惯,缺点是难以一句话描述清楚任务,最后得不到满意的结果,需要进行多轮对话才能获得最终结果。

两种prompt都有自己的适合场景,结构化的prompt更合适用来内置到产品工作流中,由开发者编写、维护,非对话类AI产品基本采用的就是这种复杂的prompt形式。对话式prompt就合适用在chatbot场景,直接由用户发出。

关于对话式prompt,关键是引导用户持续对话下去,很多时候,用户其实是不知道怎么提问的,我们可以通过搜索query推荐策略来给用户推荐话题相关的prompt,当然也可以把上下文丢给大模型并让模型针对上面的对话提出x个最相关的问题。

如果大家对推荐query感兴趣(评论留言),后面我将单独写一篇文章,本文主要关注非对话类(即“任务型”)AI产品的设计,因此下面着重介绍下结构化prompt的设计思路。

1、结构化prompt

结构化prompt一般可以包括以下几个部分:

  • 定义角色
  • 介绍背景和输入的数据格式
  • 提出任务(可能会有多个任务)
  • 执行所有任务的步骤
  • 定义输出格式
  • 给定输出例子

这是一个结构化prompt的大概框架,这个框架可以采用markdown来描述。结构化prompt有两个很关键的地方需要注意,第一个是多任务,第二个就是输出格式的控制。

  • 关于多任务:首先,一定要明白在一个prompt里面内置多个任务,绝对不是一个好的选择,除非你有强烈的这样做的理由。但是选择做多任务可以「降低成本」,我相信对大多数独立开发者来说,都是重要的事情。
  • 如果在一个prompt同时执行「总结章节」,「抽取highlight」,「抽取关键字」等任务,就是为了让这些事情只需要输入一遍transcript就可以同时获取这些结果。如果单独执行每一个任务,那就需要把相同的transcript数据输入LLM多次,这将会多消耗数倍的成本。
  • 但一定要明白,多任务无疑增加了LLM执行的复杂度,这并不符合「尽量给LLM简单、明确、较小的任务的原则」。经过测试,多任务执行的结果质量赶单任务是有差距的,这就需要不断的打磨和权衡吧。
  • 关于输出格式控制:由于LLM总结结果是需要在任务型产品页面上进行结构化展示,并不是chatbot那样直接输出给用户,所以这类产品对LLM的输出格式就需要严格定义,并且希望LLM能够稳定且正确的输出。对于程序员来说,一般会选择json作为输出。但考虑到LLM的输出可能不稳定,且偶尔输出的json可能是非法的,这种情况下只能重试LLM,导致浪费token,增加成本。因而,建议选择LLM的输出格式为markdown,并通过以下几点来控制输出,减少重试LLM。
  1. prompt中提供输出示例
  2. 输出格式使用简单的markdown语法,自己解析markdown
  3. 借助编程做好容错处理

2、prompt管理

我们采用模板技术来定义prompt,然后通过模板变量去控制prompt,比如多语言等。使用模板来管理prompt后,就不需要为不同的情况都写一份prompt,只需要抽象好prompt模板+模板变量即可。

3、prompt测试

可以在大模型第一梯队或者专门的prompt playground上测试:

  • Open AI playground
  • Google AI studio
  • Knit - The best beta AI playground for prompt developers

在调试prompt的时候,温度(temperature)应该是最常用的一个选项。也就是设置不同的温度,可能会得到不同的效果。像总结文章这种需求,需要基于原文的事实,那最好是温度设置低一些,倾向0都可以。温度设置得很高,大于1,LLM就会更大概率做自由发挥了。还是看自己的业务场景,以及更多的测试。

4、prompt迭代

在开发AI产品的时候,不要纠结一步到位写好prompt,还是需要将重心放到完成整个业务流程和功能上。prompt的编写也和代码一样,需要持续的迭代、优化。所以,需要好的prompt管理方式,方便持续的迭代、测试改进。

虽然对prompt不断地打磨,调试,并不是一件roi很高的事情,但有时候你又不得不做。

5、实战示例

比如我想做一个文章阅读助手的任务型产品,你可以参考上述结构化prompt的要素来设计prompt模版:

你是一个文章阅读助手,我会给你一个文章链接,请根据以下步骤输出markdown格式的内容:

一、我们一步一步思考,阅读我提供的内容,并做出以下操作:
1、提取文章的元数据
- 标题:
- 作者:
- 标签:(阅读文章内容后给文章打上标签,标签通常是领域、学科或专有名词)
2、一句话总结这篇文章;
3、总结文章内容并写成摘要;
二、精读文章内容,并作出以下操作:
1、请详细地列举文章的大纲,并叙述大纲中每一部分的内容,
2、总结文章的结论;
3、列举读这篇文章,我可以学到哪些知识?
三、好的,接着
1、提取文章中的金句;
2、这篇文章里,作者有哪些独到的见解?

为你提供的文章链接为:{url}

由于国内月之暗面的kimi模型在阅读长文本上表现很好,我在kimi chat上测试了一下,能够比较好满足我们结构化的要求(当然如果输出的格式不满足我们的要求,在prompt设计时可以把预期的示例加上)。

最后,必须强调下,做任务型AI产品最好选择那些在chat bot中很难满足的场景或工作流,否则一旦用户掌握了在chat中使用prompt的方法,任务型AI产品的价值很快就被对话产品覆盖掉

这篇关于做大模型产品,如何设计prompt?的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/934886

相关文章

Spring Security基于数据库的ABAC属性权限模型实战开发教程

《SpringSecurity基于数据库的ABAC属性权限模型实战开发教程》:本文主要介绍SpringSecurity基于数据库的ABAC属性权限模型实战开发教程,本文给大家介绍的非常详细,对大... 目录1. 前言2. 权限决策依据RBACABAC综合对比3. 数据库表结构说明4. 实战开始5. MyBA

Java的IO模型、Netty原理解析

《Java的IO模型、Netty原理解析》Java的I/O是以流的方式进行数据输入输出的,Java的类库涉及很多领域的IO内容:标准的输入输出,文件的操作、网络上的数据传输流、字符串流、对象流等,这篇... 目录1.什么是IO2.同步与异步、阻塞与非阻塞3.三种IO模型BIO(blocking I/O)NI

找不到Anaconda prompt终端的原因分析及解决方案

《找不到Anacondaprompt终端的原因分析及解决方案》因为anaconda还没有初始化,在安装anaconda的过程中,有一行是否要添加anaconda到菜单目录中,由于没有勾选,导致没有菜... 目录问题原因问http://www.chinasem.cn题解决安装了 Anaconda 却找不到 An

基于Flask框架添加多个AI模型的API并进行交互

《基于Flask框架添加多个AI模型的API并进行交互》:本文主要介绍如何基于Flask框架开发AI模型API管理系统,允许用户添加、删除不同AI模型的API密钥,感兴趣的可以了解下... 目录1. 概述2. 后端代码说明2.1 依赖库导入2.2 应用初始化2.3 API 存储字典2.4 路由函数2.5 应

C#集成DeepSeek模型实现AI私有化的流程步骤(本地部署与API调用教程)

《C#集成DeepSeek模型实现AI私有化的流程步骤(本地部署与API调用教程)》本文主要介绍了C#集成DeepSeek模型实现AI私有化的方法,包括搭建基础环境,如安装Ollama和下载DeepS... 目录前言搭建基础环境1、安装 Ollama2、下载 DeepSeek R1 模型客户端 ChatBo

SpringBoot快速接入OpenAI大模型的方法(JDK8)

《SpringBoot快速接入OpenAI大模型的方法(JDK8)》本文介绍了如何使用AI4J快速接入OpenAI大模型,并展示了如何实现流式与非流式的输出,以及对函数调用的使用,AI4J支持JDK8... 目录使用AI4J快速接入OpenAI大模型介绍AI4J-github快速使用创建SpringBoot

0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型的操作流程

《0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeekR1模型的操作流程》DeepSeekR1模型凭借其强大的自然语言处理能力,在未来具有广阔的应用前景,有望在多个领域发... 目录0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型,3步搞定一个应

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

Spring AI Alibaba接入大模型时的依赖问题小结

《SpringAIAlibaba接入大模型时的依赖问题小结》文章介绍了如何在pom.xml文件中配置SpringAIAlibaba依赖,并提供了一个示例pom.xml文件,同时,建议将Maven仓... 目录(一)pom.XML文件:(二)application.yml配置文件(一)pom.xml文件:首

如何在本地部署 DeepSeek Janus Pro 文生图大模型

《如何在本地部署DeepSeekJanusPro文生图大模型》DeepSeekJanusPro模型在本地成功部署,支持图片理解和文生图功能,通过Gradio界面进行交互,展示了其强大的多模态处... 目录什么是 Janus Pro1. 安装 conda2. 创建 python 虚拟环境3. 克隆 janus