HyperAIHyperAI

Command Palette

Search for a command to run...

GPT-NeoX-20B: オープンソースの自己回帰言語モデル

概要

GPT-NeoX-20Bの導入について紹介します。これは、200億パラメータを持つ自己回帰言語モデルで、Pileデータセット上で訓練されています。当該モデルの重みは、許諾ライセンスを通じて自由に公開されます。当社が知る限り、提出時においてGPT-NeoX-20Bは公開されている重みを持つ最大の密結合自己回帰モデルです。本研究では、モデルのアーキテクチャと訓練方法を説明し、言語理解、数学、知識ベースのタスクにおける性能評価を行います。その結果、GPT-NeoX-20Bは特に強力な少ショット推論能力を持ち、5ショット評価では同規模のGPT-3やFairSeqモデルよりも大幅に性能が向上することがわかりました。また、訓練および評価コード、モデルの重みをオープンソース化し、https://github.com/EleutherAI/gpt-neox で提供しています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています