AI智能体研发之路-模型篇(三):中文大模型开、闭源之争

2024-05-28 14:12

本文主要是介绍AI智能体研发之路-模型篇(三):中文大模型开、闭源之争,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

博客导读:

《AI—工程篇》

AI智能体研发之路-工程篇(一):Docker助力AI智能体开发提效

AI智能体研发之路-工程篇(二):Dify智能体开发平台一键部署

AI智能体研发之路-工程篇(三):大模型推理服务框架Ollama一键部署​​​​​​​

AI智能体研发之路-工程篇(四):大模型推理服务框架Xinference一键部署

AI智能体研发之路-工程篇(五):大模型推理服务框架LocalAI一键部署

《AI—模型篇》

AI智能体研发之路-模型篇(一):大模型训练框架LLaMA-Factory在国内网络环境下的安装、部署及使用

AI智能体研发之路-模型篇(二):DeepSeek-V2-Chat 训练与推理实战

AI智能体研发之路-模型篇(三):中文大模型开、闭源之争​​​​​​​ 

AI智能体研发之路-模型篇(四):一文入门pytorch开发

目录

一、引言

二、中文开/闭源大模型概览

三、开源大模型

3.1 优点

3.2 缺点

四、闭源大模型

4.1 优点

4.2 缺点

五、总结


一、引言

周日休息在家,只有码字才能缓解焦虑哈哈哈,闲逛CSDN发现又出新的话题活动啦——《开源大模型和闭源大模型,你怎么看》。“我怎么看?我坐着看,或者躺着看”。OpenAI变成CloseAI,你会发现,虚伪,是全世界的通病。扯远了哈哈,我认为,开源可以短时间让自家的大模型快速得到传播,构建影响力以及让行业内更多的人参与建设,完善技术栈。闭源可以维护较为健康的商业模式,高薪招聘更多优秀的人才继续进行迭代升级。存在即合理,从ios vs android,打到GPT4 vs LLama3,可能永远不会有胜负。今天我们详细聊聊中文大模型开闭源的那些事。

二、中文开/闭源大模型概览

大家先看《2024年中文大模型全景图》,对国内中文大模型开闭源情况有个概念。

Tips:图片引自SuperCLUE中文大模型基准测评2024年4月报告,国内领先的大模型评测公司,高中室友创办的,没想到毕业多年,兜兜转转进入到了一个行业,如需合作需要可以联系我哈

闭源大模型:主要有文心一言、通义千问、腾讯混元、字节云雀、MINIMAX、GLM-4、Baichuan4、Moonshot月之暗面等。

开源大模型:主要有baichuan2-13B-Chat、ChatGLM3-6B、Qwen1.5、Chinese-LLaMA-Alpaca-3等。

从商业模式上讲,又可以分为3类。

  • 以百度、MINIMAX为代表的完全闭源大模型:只提供商业化接口,高版本收费、低版本免费。
  • 以阿里为代表的部分开源、部分闭源:既提供商业化接口,又提供开源模型,两条腿走路,并驾齐驱都在升级迭代。
  • 以百川为代表的前期低版本开源、后期高版本闭源:前期通过baichuan-13B、baichuan2-13B快速打出名气,后来更高版本的baichuan3、baichuan4只提供商业化接口。

目前国内大模型发展可以用“兵荒马乱”来形容,谁能在最后杀出重围,还需要时间去考量,下面针对开、闭源的优缺点,谈一谈个人想法。 

三、开源大模型

3.1 优点

1、创新和灵活性:开源模型鼓励创新,研究人员和开发者可以自由探索和改进模型,推动技术的发展。
2、社区协作:开源社区的力量不可忽视,众多开发者共同参与,能够快速发现和解决问题,加速模型的优化和完善。
3、低成本和可访问性:开源模型通常是免费的,降低了使用门槛,使更多人能够受益于先进的技术。
4、透明度和可解释性:源代码公开,有助于更好地理解模型的工作原理,提高模型的可解释性和可信度。
5、适应多样化需求:开源模型可以根据不同的应用场景和需求进行定制和扩展,满足个性化的要求。

3.2 缺点

1、质量和稳定性:由于开源模型的开发和维护分散,质量和稳定性可能存在一定的差异。
2、缺乏商业支持:开源模型通常没有商业公司提供的专业支持和服务,在遇到问题时可能需要自己解决。
3、训练和部署难度:对于一些复杂的大模型,训练和部署可能需要较高的技术水平和计算资源。
4、数据隐私和安全:开源模型可能涉及数据的共享和使用,需要注意数据隐私和安全问题。
5、知识产权风险:在使用开源模型时,需要注意遵守相关的开源协议,避免知识产权纠纷。

四、闭源大模型

4.1 优点

1、质量和稳定性保障:闭源模型通常由专业的团队开发和维护,经过严格的测试和验证,质量和稳定性相对较高。
2、商业支持和服务:商业公司提供闭源模型时,通常会附带专业的支持和服务,包括培训、技术支持等。
3、易于使用和集成:闭源模型通常提供了友好的用户界面和 API,便于开发者使用和集成到自己的系统中。
4、数据隐私和安全保护:商业公司通常会采取措施保护用户的数据隐私和安全。
5、持续更新和改进:商业公司会不断对闭源模型进行更新和改进,以提供更好的性能和功能。

4.2 缺点

1、成本较高:闭源模型通常需要用户购买许可证或订阅服务,成本相对较高。
2、缺乏透明度:用户无法直接查看模型的源代码,对模型的工作原理和内部机制了解有限。
3、定制和扩展性受限:闭源模型的定制和扩展性可能受到一定的限制,无法完全满足个性化需求。
4、社区参与度低:相比开源模型,闭源模型的社区参与度较低,开发者之间的交流和合作相对较少。
5、依赖供应商:用户对闭源模型的使用和发展较为依赖供应商,一旦供应商出现问题,可能会影响用户的使用。

五、总结

可以看到,开源和闭源模型各有其优缺点,选择适合自己需求的模型需要综合考虑多方面因素。在实际应用中,可以根据具体情况权衡利弊,并结合自身的技术能力和资源来做出决策。此外,随着技术的不断发展,开源和闭源模型的界限也在逐渐模糊,一些商业公司也开始采用开源的模式来推动技术的进步。

对于AI智能体开发而言,个人实际工作中,既使用闭源商业化接口,首先是省心,不用自己申请机器、部署、维护模型服务;其次是省钱,相较于购买GPU显卡,价格战下的商业接口便宜的可怕;最后是真的很好用,一般商业化的接口模型尺寸都要高于开源版,Agent开发过程中调用一些Tools就能达到极好的效果。又使用开源微调私有化部署模型,首先是安全,考量到数据安全,业务数据轻易不能外漏,安全意识很重要,如果外泄未来可能是雷区;其次是可微调,使用较大尺寸的模型,配以精选后的微调数据,画风上明显会有一定提升;最后是杀鸡焉用牛刀,对于一些简单任务,比如任务判断、工具选择、文本处理等一些简单但重复度高的工作,使用私有化部署的模型,长期看是可以节约成本的。

本文首先对国内中文大模型开闭源情况进行概述,其次区分开源、闭源分析优缺点,最后谈了谈工作中的感想,期待您的关注与互动噢,如果还有时间,可以看看我的其他文章:

《AI—工程篇》

AI智能体研发之路-工程篇(一):Docker助力AI智能体开发提效

AI智能体研发之路-工程篇(二):Dify智能体开发平台一键部署

AI智能体研发之路-工程篇(三):大模型推理服务框架Ollama一键部署​​​​​​​

AI智能体研发之路-工程篇(四):大模型推理服务框架Xinference一键部署

AI智能体研发之路-工程篇(五):大模型推理服务框架LocalAI一键部署

《AI—模型篇》

AI智能体研发之路-模型篇(一):大模型训练框架LLaMA-Factory在国内网络环境下的安装、部署及使用

AI智能体研发之路-模型篇(二):DeepSeek-V2-Chat 训练与推理实战

AI智能体研发之路-模型篇(三):中文大模型开、闭源之争​​​​​​​ 

AI智能体研发之路-模型篇(四):一文入门pytorch开发​​​​​​​ 

这篇关于AI智能体研发之路-模型篇(三):中文大模型开、闭源之争的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/1010789

相关文章

Spring AI集成DeepSeek的详细步骤

《SpringAI集成DeepSeek的详细步骤》DeepSeek作为一款卓越的国产AI模型,越来越多的公司考虑在自己的应用中集成,对于Java应用来说,我们可以借助SpringAI集成DeepSe... 目录DeepSeek 介绍Spring AI 是什么?1、环境准备2、构建项目2.1、pom依赖2.2

0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型的操作流程

《0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeekR1模型的操作流程》DeepSeekR1模型凭借其强大的自然语言处理能力,在未来具有广阔的应用前景,有望在多个领域发... 目录0基础租个硬件玩deepseek,蓝耘元生代智算云|本地部署DeepSeek R1模型,3步搞定一个应

Deepseek R1模型本地化部署+API接口调用详细教程(释放AI生产力)

《DeepseekR1模型本地化部署+API接口调用详细教程(释放AI生产力)》本文介绍了本地部署DeepSeekR1模型和通过API调用将其集成到VSCode中的过程,作者详细步骤展示了如何下载和... 目录前言一、deepseek R1模型与chatGPT o1系列模型对比二、本地部署步骤1.安装oll

Spring AI Alibaba接入大模型时的依赖问题小结

《SpringAIAlibaba接入大模型时的依赖问题小结》文章介绍了如何在pom.xml文件中配置SpringAIAlibaba依赖,并提供了一个示例pom.xml文件,同时,建议将Maven仓... 目录(一)pom.XML文件:(二)application.yml配置文件(一)pom.xml文件:首

Java下载文件中文文件名乱码的解决方案(文件名包含很多%)

《Java下载文件中文文件名乱码的解决方案(文件名包含很多%)》Java下载文件时,文件名中文乱码问题通常是由于编码不正确导致的,使用`URLEncoder.encode(filepath,UTF-8... 目录Java下载文件中文文件名乱码问题一般情况下,大家都是这样为了解决这个问题最终解决总结Java下

SpringBoot整合DeepSeek实现AI对话功能

《SpringBoot整合DeepSeek实现AI对话功能》本文介绍了如何在SpringBoot项目中整合DeepSeekAPI和本地私有化部署DeepSeekR1模型,通过SpringAI框架简化了... 目录Spring AI版本依赖整合DeepSeek API key整合本地化部署的DeepSeek

如何在本地部署 DeepSeek Janus Pro 文生图大模型

《如何在本地部署DeepSeekJanusPro文生图大模型》DeepSeekJanusPro模型在本地成功部署,支持图片理解和文生图功能,通过Gradio界面进行交互,展示了其强大的多模态处... 目录什么是 Janus Pro1. 安装 conda2. 创建 python 虚拟环境3. 克隆 janus

本地私有化部署DeepSeek模型的详细教程

《本地私有化部署DeepSeek模型的详细教程》DeepSeek模型是一种强大的语言模型,本地私有化部署可以让用户在自己的环境中安全、高效地使用该模型,避免数据传输到外部带来的安全风险,同时也能根据自... 目录一、引言二、环境准备(一)硬件要求(二)软件要求(三)创建虚拟环境三、安装依赖库四、获取 Dee

DeepSeek模型本地部署的详细教程

《DeepSeek模型本地部署的详细教程》DeepSeek作为一款开源且性能强大的大语言模型,提供了灵活的本地部署方案,让用户能够在本地环境中高效运行模型,同时保护数据隐私,在本地成功部署DeepSe... 目录一、环境准备(一)硬件需求(二)软件依赖二、安装Ollama三、下载并部署DeepSeek模型选

PyCharm接入DeepSeek实现AI编程的操作流程

《PyCharm接入DeepSeek实现AI编程的操作流程》DeepSeek是一家专注于人工智能技术研发的公司,致力于开发高性能、低成本的AI模型,接下来,我们把DeepSeek接入到PyCharm中... 目录引言效果演示创建API key在PyCharm中下载Continue插件配置Continue引言