任务要求:
基础任务:
首先创建开发机
进入开发机:
创建测评所需要的环境
conda create -n opencompass python=3.10
conda activate opencompass
cd /root
git clone -b 0.3.3 https://github.com/open-compass/opencompass
cd opencompass
pip install -e .
pip install -r requirements.txt
pip install huggingface_hub==0.25.2
pip install importlib-metadata
评测 API 模型
获取对应的API后进行对应的配置和评测
import os
from opencompass.models import OpenAISDK
internlm_url = 'https://internlm-chat.intern-ai.org.cn/puyu/api/v1/' # 你前面获得的 api 服务地址
internlm_api_key = os.getenv('INTERNLM_API_KEY')
models = [
dict(
# abbr='internlm2.5-latest',
type=OpenAISDK,
path='internlm2.5-latest', # 请求服务时的 model name
# 换成自己申请的APIkey
key=internlm_api_key, # API key
openai_api_base=internlm_url, # 服务地址
rpm_verbose=True, # 是否打印请求速率
query_per_second=0.16, # 服务请求速率
max_out_len=1024, # 最大输出长度
max_seq_len=4096, # 最大输入长度
temperature=0.01, # 生成温度
batch_size=1, # 批处理大小
retry=3, # 重试次数
)
]
配置数据集: 在终端中运行 cd /root/opencompass/
和 touch opencompass/configs/datasets/demo/demo_cmmlu_chat_gen.py
, 然后打开文件, 贴入以下代码:
from mmengine import read_basewith read_base():from ..cmmlu.cmmlu_gen_c13365 import cmmlu_datasets# 每个数据集只取前2个样本进行评测 for d in cmmlu_datasets:d['abbr'] = 'demo_' + d['abbr']d['reader_cfg']['test_range'] = '[0:1]' # 这里每个数据集只取1个样本, 方便快速评测.
完成配置后, 在终端中运行: python run.py --models puyu_api.py --datasets demo_cmmlu_chat_gen.py --debug
. 预计运行10分钟后, 得到结果:
评测本地模型
相关配置
cd /root/opencompass conda activate opencompass conda install pytorch==2.1.2 torchvision==0.16.2 torchaudio==2.1.2 pytorch-cuda=12.1 -c pytorch -c nvidia -y apt-get update apt-get install cmake pip install protobuf==4.25.3 pip install huggingface-hub==0.23.2
为了方便评测,我们首先将数据集下载到本地:
cp /share/temp/datasets/OpenCompassData-core-20231110.zip /root/opencompass/ unzip OpenCompassData-core-20231110.zip
加载本地模型进行评测
在 OpenCompass 中,模型和数据集的配置文件都存放在 configs
文件夹下。我们可以通过运行 list_configs
命令列出所有跟 InternLM 及 C-Eval 相关的配置。
python tools/list_configs.py internlm ceval
打开 opencompass 文件夹下 configs/models/hf_internlm/的 hf_internlm2_5_1_8b_chat.py
文件, 修改如下:
from opencompass.models import HuggingFacewithChatTemplatemodels = [dict(type=HuggingFacewithChatTemplate,abbr='internlm2_5-1_8b-chat-hf',path='/share/new_models/Shanghai_AI_Laboratory/internlm2_5-1_8b-chat/',max_out_len=2048,batch_size=8,run_cfg=dict(num_gpus=1),) ]# python run.py --datasets ceval_gen --models hf_internlm2_5_1_8b_chat --debug
可以通过以下命令评测 InternLM2-Chat-1.8B 模型在 C-Eval 数据集上的性能。由于 OpenCompass 默认并行启动评估过程,我们可以在第一次运行时以 --debug 模式启动评估,并检查是否存在问题。在 --debug 模式下,任务将按顺序执行,并实时打印输出。
输出结果如下: