首页
Python
Java
前端
数据库
Linux
Chatgpt专题
开发者工具箱
day05lmdeploy专题
书生·浦语大模型实战营Day05LMDeploy服务
书生·浦语大模型实战营Day05LMDeploy 服务 LMDeploy服务(serve) 在第二章和第三章,我们都是在本地直接推理大模型,这种方式成为本地部署。在生产环境下,我们有时会将大模型封装为API接口服务,供客户端访问。 从架构上把整个服务流程分成下面几个模块。 模型推理/服务。主要提供模型本身的推理,一般来说可以和具体业务解耦,专注模型推理本身性能的优化。可以以模块、API等
阅读更多...