HyperAI

Mathematical Reasoning On Frontiermath

Métriques

Accuracy

Résultats

Résultats de performance de divers modèles sur ce benchmark

Nom du modèle
Accuracy
Paper TitleRepository
o1-mini0.01--
o1-preview0.01--
Claude 3.5 Sonnet0.01--
GPT-4o0.01--
o30.252--
Gemini 1.5 Pro (002)0.02FrontierMath: A Benchmark for Evaluating Advanced Mathematical Reasoning in AI-
0 of 6 row(s) selected.