HyperAIHyperAI

Command Palette

Search for a command to run...

vor 7 Tagen

AraLingBench: Ein menschlich annotiertes Benchmark zur Bewertung der arabischen sprachlichen Fähigkeiten von Large Language Models

Mohammad Zbib Hasan Abed Al Kader Hammoud Sina Mukalled Nadine Rizk Fatima Karnib Issam Lakkis Ammar Mohanna Bernard Ghanem

AraLingBench: Ein menschlich annotiertes Benchmark zur Bewertung der arabischen sprachlichen Fähigkeiten von Large Language Models

Abstract

Wir präsentieren AraLingBench: einen vollständig von Menschen annotierten Benchmark zur Bewertung der arabischen sprachlichen Kompetenz großer Sprachmodelle (LLMs). Der Benchmark umfasst fünf zentrale Kategorien – Grammatik, Morphologie, Rechtschreibung, Leseverständnis und Syntax – und basiert auf 150 von Experten entworfenen Multiple-Choice-Fragen, die die strukturelle Sprachverarbeitung direkt testen. Die Evaluation von 35 arabischen und mehrsprachigen LLMs zeigt, dass aktuelle Modelle eine starke Oberflächenkompetenz aufweisen, jedoch Schwierigkeiten bei tiefergehender grammatischer und syntaktischer Schlussfolgerung haben. AraLingBench macht einen anhaltenden Widerspruch zwischen hohen Scores in wissensbasierten Benchmarks und echter sprachlicher Meisterschaft deutlich, wobei sich zeigt, dass viele Modelle ihre Leistung vor allem durch Memorisation oder Mustererkennung erzielen, nicht durch authentisches Verständnis. Durch die Isolierung und Messung grundlegender sprachlicher Fähigkeiten bietet AraLingBench ein diagnostisches Framework zur Weiterentwicklung arabischer LLMs. Der vollständige Evaluierungscode ist öffentlich auf GitHub verfügbar.

KI mit KI entwickeln

Von der Idee bis zum Start — beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und den besten GPU-Preisen.

KI-Co-Coding
Sofort einsatzbereit GPUs
Beste Preise
Jetzt starten

Hyper Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
AraLingBench: Ein menschlich annotiertes Benchmark zur Bewertung der arabischen sprachlichen Fähigkeiten von Large Language Models | Forschungsarbeiten | HyperAI