本文主要是介绍通过Chain Prompts方式将LLM的能力引入测试平台:正交实验测试用例生成,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
通过Chain Prompts方式将LLM的能力引入测试平台:正交实验测试用例生成
Chain Prompts
Chain Prompts是指在一个对话或文本生成任务中,将前一个提示的输出作为下一个提示的输入,形成一个连续的链条。这种方法常常用于创建连贯的、有上下文关联的文本。在对话系统中,这种方法可以模拟真实对话中的连续性,使得生成的回复更加自然和流畅。
利用Chain Prompts,可以将LLM、外部程序、外部数据连接到一起,实现一个完整的解决方案。下面我们使用Chain Prompts的方式实现正交实验测试用例生成。
STEP1:LLM gen参数的边界值
文中使用的LLM是讯飞的星火2.0
首先,借助LLM的能力,设计CoT的Prompt实现让大模型返回每个参数的边界值数组,具体的代码如下:
'''
@des :针对LLM反馈的内容,做一些文本处理,最终仅仅留下边界的数组返回@params : LLM反馈的内容@return : 处理好的,仅仅剩下list类型的边界值列表
'''def get_boundary
这篇关于通过Chain Prompts方式将LLM的能力引入测试平台:正交实验测试用例生成的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!