首页
Python
Java
前端
数据库
Linux
Chatgpt专题
开发者工具箱
alignbench专题
AlignBench:量身打造的中文大语言模型对齐评测
对齐(Alignment),是指大语言模型(LLM)与人类意图的一致性。换言之,就是让LLM生成的结果更加符合人类的预期,包括遵循人类的指令,理解人类的意图,进而能产生有帮助的回答等。对齐是决定LLM能否在实际场景中得到真正应用的关键因素。因此,评估模型的对齐水平显得至关重要 —— 如果没有评估,我们就无法判断模型的优劣。 然而,至今为止,中文评测领域关于对齐的评测仍然是一片空白。当前广泛使用的
阅读更多...