本文主要是介绍[论文笔记] eval-big-refactor lm_eval 每两个任务使用一个gpu,并保证端口未被使用,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!
1.5B在eval时候两个任务一个gpu是可以的。
7B+在eval belebele时会OOM,所以分配时脚本不同。
eval_fast.py:
import subprocess
import argparse
import os
import socket# 参数列表
task_name_list = ["flores_mt_en_to_id","flores_mt_en_to_vi","flores_mt_en_to_th","flores_mt_en_to_ms","flores_mt_id_to_en","flores_mt_vi_to_en","flores_mt_th_to_en","flores_mt_ms_to_en","ceval","mmlu","arc_challenge","arc_easy","hellaswag","belebele",
]# 解析命令行参数
parser = argparse.ArgumentParser(description="Run evaluation")
parser.add_argument("--model_names", type=str, required=True, help="Space-separated list of model names")
parser.add_argument("--model_path_relatives", type=str, required=True, help="Comma-separated li
这篇关于[论文笔记] eval-big-refactor lm_eval 每两个任务使用一个gpu,并保证端口未被使用的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!