本文主要是介绍跟大模型对话时 prompt 越礼貌越容易出好结果吗?为什么?,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
今年早些时候,一篇热门研究论文发表题为“质疑 LLaMA-1/2、GPT-3.5/4 只需要原则性指导”,文章中测试了 26 种不同的提示工程原则,其中之一与提示中使用礼貌语言有关。
研究人员在英语、中文和日语任务中测试了提示中礼貌的影响,在这个过程中为每种语言设计了八个提示模板,从非常礼貌到极其不礼貌。
根据论文中的实验结果,语言模型对于提示语句中的礼貌程度确实有较为明显的反应。
以GPT-3.5在MMLU(大型多任务语言理解基准测试)的英语测试为例,当提示语句的礼貌程度为最高(8分)时,模型的得分为60.02%,明显高于最低礼貌程度(1分)时的51.93%。类似的情况也发生在中文和日语测试中。
这也验证了语言模型在处理"礼貌"问题时与人类行为的相似性。
换句话说,我们都知道AI能够在理解和生成语言方面做得很好。但是如何让机器理解我们的需求并给出正确的回答呢?
这就需要用到正确、合适的Prompt。
我们可以将Prompt类比与人类交流中的提示或者线索,帮助大语言模型理解开发者的意图,根据线索提供恰当的响应或者输出。
而Prompt工程则是针对不同场景构造prompt,最大程度发挥出大模型的能力。
模型对于相同语义但不同表述的提示词给出了不同答案
当前市场上AI的产品层出不穷,其实大多数产品都是使用Prompt工程实现。如果说大模型是交通工具,那Prompt工程就是车票船票,帮助我们到达目的地。
因此,输入的Prompt的质量将极大地影响模型的返回结果的质量和对用户需求的满足程度,即“用户表达的需求越清晰,模型更有可能返回更高质量的结果”。
拆解来看,Prompt = 指令(Instruction)+ 输入数据(Input Data)+ 背景信息(Context) + 输出指示器(Output Indicator)。
这些构成了提示词的核心要素,对于设计有效的AI交互至关重要:
1、指令(Instruction):指令直接告诉模型用户希望执行的具体任务;
2、输入数据(Input Data):输入数据是模型需要处理的具体信息;
3、背景信息(Context):背景信息为模型提供了执行任务所需的环境信息或附加细节;
4、输出指示器(Output Indicator):输出指示器定义了模型输出的期望类型或格式;
我们需要深入理解大型模型的特性的基础上,提升撰写升撰写Prompt的技能,即准确表达个人需求与任务的能力,只有兼具这两者,我们才能充分利用这一工具。
重点是学会构造方法和机器,而不是只套模板。
因为Prompt通常是需要不断优化的,在实际使用的过程根据AI的输出,找出问题所在,然后不断迭代和调整Prompt。
这个过程非常像软件开发人员的Debug过程,不同的是,软件开发人员需要通过专业编程语言来完成工作,但我们通常只需要用自然语言来完成,只要保持耐心,就一定能找到合适的Prompt来完成任务。
另外,如果你的问题很复杂、逻辑比较多,我的建议是在提问的时候学会将复杂任务拆解,给AI更多的思考时间。
即将复杂任务重新定义为一个由较简单任务组成的工作流,在这个工作流中,前面任务的输出被用来构建后面任务的输入,形成闭环。
举个简单的例子:假如希望用GPT来帮我们写一篇10000字的项目可行性方案,不管掌握多少Prompt技巧,寄希望于一个超强的Prompt来推动AI输出一个大篇幅的可行性方案,都是不切实际的。
但我们可以先让AI输出一级大纲,然后输出每一个段落的二级大纲、三级大纲,再根据大纲逐段撰写具体内容,这样就可以通过一系列的Prompt,分阶段的完成这个复杂任务了。
在写方案的过程中,详细解释你希望AI做这个方案的原因、动机、结果形式等等,这样AI才能更好地理解你的想法,执行需求。
比如在填充内容的时候,给出类似这样的提示词:应该利用自己的经验,深思熟虑地解释为什么某事很重要,用事实支持主张, 并讨论故事中出现的任何问题的潜在解决方案。
所以,一些好的场景化Prompt通常是比较个性化的,经过努力写好的Prompt,一定要保存下来。当然,如果你本身就是一个技术人员,把这个Prompt程序化、脚本化,使用起来就更加方便了。
这篇关于跟大模型对话时 prompt 越礼貌越容易出好结果吗?为什么?的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!