Olympiadbench
评估指标
average
llm_model
maths_avg.
maths_en_comp
maths_zh_cee
maths_zh_comp
model_url
organization
parameters
physics_avg.
physics_en_comp
physics_zh_cee
release_date
updated_time
评测结果
各个模型在此基准测试上的表现结果
比较表格
模型名称 | average | llm_model | maths_avg. | maths_en_comp | maths_zh_cee | maths_zh_comp | model_url | organization | parameters | physics_avg. | physics_en_comp | physics_zh_cee | release_date | updated_time |
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
模型 1 | 3.65 | LLaVA-NeXT-34B | 4.3 | 3.98 | 4.64 | 2.6 | https://github.com/LLaVA-VL/LLaVA-NeXT | 34B | 2.08 | 1.36 | 2.32 | 2024.1.30 | 2024.6.6 |