HyperAIHyperAI

Command Palette

Search for a command to run...

RobeCzech:単言語的な文脈依存型言語表現モデルであるCzech RoBERTa

Milan Straka Jakub Náplava Jana Straková David Samuel

概要

本稿では、チェコ語データ上で学習された単言語型のRoBERTa言語表現モデル「RobeCzech」を紹介する。RoBERTaは、トランスフォーマーに基づく事前学習アプローチのうち、堅牢に最適化されたものである。我々は、RobeCzechが同規模の多言語型およびチェコ語専用の文脈依存型言語表現モデルを著しく上回り、評価された5つの自然言語処理(NLP)タスクすべてにおいて現在の最先端(SOTA)を上回り、そのうち4つのタスクで最先端の性能を達成することを示した。RobeCzechモデルは、https://hdl.handle.net/11234/1-3691 および https://huggingface.co/ufal/robeczech-base にて公開されている。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています