AIの回答を安定化へ Thinking Machines Lab、再現性の鍵を解明
ミラ・ムラティが率いる「Thinking Machines Lab」が、AIモデルの応答の一貫性を高める研究に取り組んでいる。同社は20億ドル(約3000億円)のシード資金を調達し、元OpenAIの研究者らが集結するなど注目を集めている。4月に公開された研究ブログ「Defeating Nondeterminism in LLM Inference」では、AIモデルの応答が不確実になる根本原因に迫った。 現在の大規模言語モデル(LLM)は、同じ質問を繰り返しても異なる回答を返すことが多く、AI界では「非決定性」として広く認識されている。しかし、Thinking Machines Labの研究者ホラス・ヘ氏は、この不確実性の原因が、NvidiaのGPU上で動作する「GPUカーネル」の処理の組み方にあると指摘。推論処理(ChatGPTで「エンター」を押した後の処理)におけるこの層の制御を厳密にすることで、応答の一貫性を実現できると主張している。 一貫性のある応答は、企業や研究機関にとって極めて重要だ。特に強化学習(RL)の文脈では、モデルが正解に近い回答を「報酬」として学習するが、応答がばらつくと学習データにノイズが入り、学習プロセスが不安定になる。ヘ氏は、応答の一貫性がRLの訓練を「滑らか」にすると述べ、同社は今後、企業向けカスタムモデルの開発に強化学習を活用する計画だと明かしている。 ムラティ氏は7月、同社の初の製品が数カ月以内に登場し、「研究者やスタートアップがカスタムモデルを開発する上で役立つ」と語っている。具体的な内容は不明だが、今回の研究が基盤になっている可能性が高い。 Thinking Machines Labは、研究の透明性を重視し、「Connectionism」と題する定期的なブログ発信を予定。オープンな研究文化を掲げ、OpenAIが成長するにつれて閉鎖的になったのとは対照的だ。同社がその約束を果たせるか、そして3000億円規模の評価額を裏付ける実用化技術を生み出せるかが、今後の鍵となる。