首页
Python
Java
前端
数据库
Linux
Chatgpt专题
开发者工具箱
nous专题
Nous Hermes 2:超越Mixtral 8x7B的MOE模型新高度
引言 随着人工智能技术的迅猛发展,开源大模型在近几年成为了AI领域的热点。最近,Nous Research公司发布了其基于Mixtral 8x7B开发的新型大模型——Nous Hermes 2,这一模型在多项基准测试中超越了Mixtral 8x7B Instruct,标志着MOE(Mixture of Experts,专家混合模型)技术的新突破。 Huggingface模型下载:https:
阅读更多...