HyperAIHyperAI

Command Palette

Search for a command to run...

mT5:大規模なマルチリンガル事前学習テキストtoテキスト変換器

Linting Xue Noah Constant Adam Roberts Mihir Kale Rami Al-Rfou Aditya Siddhant Aditya Barua Colin Raffel

概要

最近の「Text-to-Text Transfer Transformer」(T5)は、統一されたテキストtoテキスト形式とスケーリングを活用して、多様な英語自然言語処理(NLP)タスクにおいて最先端の性能を達成した。本論文では、101言語をカバーする新しいCommon Crawlベースのデータセットを用いて事前学習された、T5の多言語版であるmT5を紹介する。mT5の設計および修正された学習プロセスを詳細に説明し、多数の多言語ベンチマークにおいて最先端の性能を示すことを実証する。また、ゼロショット設定において生成モデルが予測を誤った言語に(部分的に)翻訳してしまう「誤った翻訳」を防ぐための簡単な手法も提案する。本研究で用いたすべてのコードおよびモデルチェックポイントは、公開されている。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています
mT5:大規模なマルチリンガル事前学習テキストtoテキスト変換器 | 記事 | HyperAI超神経