本文主要是介绍LLM 应用开发入门 - 实现 langchain.js ChatModel 接入火山引擎大模型和实现一个 CLI 聊天机器人(下),希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
书接上回,我们已经实现了一个 langchain.js
接入火山引擎的 ChatModel
。
本文我们实现将这个大模型接入到聊天 CLI 实现和大模型进行交互式问答
需求
我们希望这个简易的聊天 CLI 能够拥有以下功能
- 启动时由用户输入 prompt
- 支持回答流式输出
- 支持连续聊天和清空上下文
聊天 CLI 基础能力实现
由于实现基本的 CLI 输入输出不是本文重点。这里我们直接通过以下代码实现一个简单的 node.js 交互式程序,实现了
- 启动后接收用户输入的 prompt
- 接收
/clear
指令打印清空 - 其它输入后原样打印
import readline from 'node:readline'
import process, { stdin, stdout } from 'node:process'
import { EventEmitter } from 'node:events'class ChatCli extends EventEmitter {constructor() {super()this.input = stdinthis.output = stdoutthis.input.setEncoding('utf-8')this.output.setEncoding('utf-8')}async runInputLoop() {const prompt = await this.prompt('请输入 prompt\n > ')console.log('prompt', prompt)return new Promise((resolve) => {const rl = readline.createInterface(this.input, this.output)rl.setPrompt('> ')rl.prompt()rl.on('line', async (line) => {if (line === '\\clear') {this.write('清空上下文\n')}else {this.write(`xxx ${line}`)this.write('\n')}rl.prompt()})rl.on('close', resolve)rl.on('SIGINT', () => {rl.close()process.emit('SIGINT', 'SIGINT')})})}write(data) {this.output.write(data)}prompt(query = '> ') {return new Promise((resolve) => {const rl = readline.createInterface(this.input, this.output)rl.question(query, (
这篇关于LLM 应用开发入门 - 实现 langchain.js ChatModel 接入火山引擎大模型和实现一个 CLI 聊天机器人(下)的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!