HyperAI
Command Palette
Search for a command to run...
LLaMA: オープンで効率的な基礎言語モデル
LLaMA: オープンで効率的な基礎言語モデル
概要
私たちは、7Bから65Bのパラメータを持つ基礎言語モデルのコレクションであるLLaMAを紹介します。これらのモデルは、兆単位のトークンで訓練され、公開されているデータセットのみを使用して最先端のモデルを訓練することが可能であることを示しています。特に、LLaMA-13BはほとんどのベンチマークでGPT-3(175B)を上回り、LLaMA-65Bは最優秀なモデルであるChinchilla-70BとPaLM-540Bと同等の性能を発揮します。私たちは、これらのすべてのモデルを研究コミュニティに公開します。