HyperAIHyperAI

Command Palette

Search for a command to run...

言語モデルの限界を探る

Rafal Jozefowicz; Oriol Vinyals; Mike Schuster; Noam Shazeer; Yonghui Wu

概要

本研究では、大規模言語モデルの中心的なタスクである言語理解における最近のリカレントニューラルネットワーク(RNN)の進歩を探索します。現在のモデルを、このタスクに存在する2つの主要な課題であるコーパスと語彙のサイズ、および言語の複雑で長期的な構造に対処するために拡張しています。10億単語ベンチマークにおいて、キャラクター畳み込みニューラルネットワーク(CNN)や長短期記憶(LSTM)などの技術について詳細な研究を行いました。最良の単一モデルは、パープレキシティを51.3から30.0へと大幅に改善し(パラメータ数を20分の1に削減)、モデルのアンサンブルでは新記録を樹立し、パープレキシティを41.0から23.7へと改善しました。また、これらのモデルをNLPおよびMLコミュニティが研究し、改良できるように公開しています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています