本文主要是介绍828华为云征文|docker部署ollama搭建属于自己的大模型,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
1.介绍
1.1 什么是华为云Flexus X实例
最近华为云828 B2B企业节正在举办,Flexus X实例的促销也非常给力,大家可以去看看。特别是对算力性能有要求,同时对自建MySQL、Redis、Nginx性能有要求的小伙伴,千万不要错过。
Flexus云服务器X实例是新一代面向中小企业和开发者打的柔性算力云服务器,可智能感知业务负载,适用于电商直播、企业建站、开发测试环境、游戏服务器、音视频服务等中低负载场景。
1.2什么是Ollama
Ollama是一个开源的 LLM(大型语言模型)服务工具,用于简化在本地运行大语言模型,降低使用大语言模型的门槛,使得大模型的开发者、研究人员和爱好者能够在本地环境快速实验、管理和部署最新大语言模型,包括如Llama 3、Phi 3、Mistral、Gemma,Qwen等开源的大型语言模型。
2 准备华为云Flexus应用服务器L实例
注册并登录华为云找到华为云Flexus云服务
选择合适的服务器进行购买
选择相应的配置并购买
购买之后找到控制台进行密码修改和远程登陆
使用远程连接工具连接云服务器
3 部署Ollama服务
这里官网提供了三种系统的安装包这里下载安装即可使用。
这里我采用docker部署的方式
docker pull ollama/ollama
查看镜像
docker image ls
运行容器
docker run -itd -p11434:11434 --name ollama ollama/ollama
进入容器中
拉取对应的大模型 (mistral,llama3,qwen2,...)这里以mistral为例
运行对应的大模型 ollama run mistral
4 实现问答对话
这里我们使用Spring AI 快速搭建一个问答服务其中集成了ollama 可以快速链接到ollama服务,记得开放11434的端口
<properties><java.version>17</java.version><spring-ai.version>1.0.0-M1</spring-ai.version></properties><dependencies><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-actuator</artifactId></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-data-redis</artifactId></dependency><dependency><groupId>org.springframework.boot</groupId><artifactId>spring-boot-starter-web</artifactId></dependency><dependency><groupId>org.springframework.ai</groupId><artifactId>spring-ai-ollama-spring-boot-starter</artifactId></dependency></dependencies>
@RestController
@RequestMapping("/chat")
public class ChatController {@Resourceprivate OllamaChatModel ollamaChatModel;@Resourceprivate InMemoryChatMemory inMemoryChatMemory;@Operation(summary = "同步输出")@GetMapping("/question")public String question(@RequestParam String question) {return ollamaChatModel.call(question);}@Operation(summary = "流式输出")@GetMapping(value = "/stream", produces = MediaType.TEXT_EVENT_STREAM_VALUE)public Flux<String> stream(@RequestParam String question) {return ollamaChatModel.stream(question);}@Operation(summary = "连续对话")@GetMapping(value = "/history", produces = MediaType.TEXT_EVENT_STREAM_VALUE)public Flux<String> history(@RequestParam String conversationId, @RequestParam String question) {List<Message> messages = new ArrayList<>();List<Message> conversation = inMemoryChatMemory.get(conversationId, 10);if (conversation != null) {messages.addAll(conversation);}messages.add(new UserMessage(question));Prompt prompt = new Prompt(messages);UserMessage message = new UserMessage(question);List<Message> userMessages = new ArrayList<>();userMessages.add(message);inMemoryChatMemory.add(conversationId, userMessages);return ollamaChatModel.stream(prompt).map((result) -> result.getResult().getOutput().getContent());}
}
这篇关于828华为云征文|docker部署ollama搭建属于自己的大模型的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!