本文主要是介绍阿里通义千问 Qwen2 大模型开源发布,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
阿里通义千问 Qwen2 大模型开源发布
Qwen2 系列模型是 Qwen1.5 系列模型的重大升级。该系列包括了五个不同尺寸的预训练和指令微调模型:Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B 以及 Qwen2-72B。
在中文和英文的基础上,Qwen2 系列的训练数据中还增加了其他27种语言相关的高质量数据。此外,上下文长度的支持进一步扩展,最高可达到128K个 tokens(Qwen2-72B-Instruct)。
据公告称,Qwen2 模型相比 Qwen1.5 在大规模模型实现了非常大幅度的效果提升。在针对预训练语言模型的评估中,Qwen2-72B 在包括自然语言理解、知识、代码、数学以及多语言等多个能力上均显著超越了当前最优的开源模型,如 Llama-3-70B 和 Qwen1.5 最大的模型 Qwen1.5-110B。这得益于其预训练数据和训练方法的优化。
Qwen2-72B 在自然语言理解和逻辑推理等方面,尤其是科学类问题上,表现的优势更为明显。在代码测试中,Qwen2-72B 也取得了不俗的成绩,并且在多个编程语言上具有突出的表现。此外,数学能力也因为预训练数据中数学部分的优化而有了大幅度的提升。值得注意的是,在多语言表现上,Qwen2-72B 在多个领域的多语言评测上也具有一定的优势。这也意味着,Qwen2 有潜力在更多的国家和地区得到实际应用。
项目团队在微调和对齐上投入了大量的精力进行研究。Qwen2 的策略包括广泛采集指令和提示词,并利用合成数据,例如使用拒绝采样、代码执行反馈和回译等方法。
为了进一步与人类偏好保持一致,Qwen2 使用了DPO的方法。除了常见的DPO以及其变体如IPO、KTO,Qwen2 还探索了DPO与在线学习的结合,以提升模型能力上限。而为了降低对齐所产生的 “对齐税”,Qwen2 使用模型合并的方法来缓解这个问题。这一系列的努力最终帮助大幅度提升了指令微调模型的基础能力和智能等级。结果如下所示:
此次 Qwen2 采用了不同的模型许可。除了 Qwen2-72B 仍然使用此前的 Qianwen License 外,其余模型,包括 Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B 以及 Qwen2-57B-A14B 在内,均采用 Apache 2.0 的许可。
这篇关于阿里通义千问 Qwen2 大模型开源发布的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!