11日前
Mol-LLM:グラフ利用性を向上させた多モーダル汎用分子LLM
Chanhui Lee, Hanbum Ko, Yuheon Song, YongJun Jeong, Rodrigo Hormazabal, Sehui Han, Kyunghoon Bae, Sungbin Lim, Sungwoong Kim

要約
大規模言語モデル(LLM)の最近の進展により、化学反応予測や分子性質予測など、多様な分子タスクに取り組むモデルが登場している。大規模な分子指示微調整データセットの利用により、シーケンスのみ(例:SMILESやSELFIES)を入力とする汎用分子LLMが実現されており、研究者たちはさらに性能向上を図るため、分子構造情報を組み込むマルチモーダルアプローチの開発が進められている。しかし、広範な分子タスクをカバーする真正のマルチモーダルで汎用的なLLMは、まだ十分に検討されていない。本研究では、単純な次のトークン予測学習が分子グラフ構造情報を無視するため、LLMが分子グラフを有効に活用できないという課題に着目した。これを解決するために、(i) 分子構造の好み最適化(MolPO)を提案し、正しい分子構造と摂動された構造のペア間での好みを最適化することで、グラフ情報の活用を促進する。また、(ii) MolPOの効果を高めるために、特化した事前学習戦略を採用した高度なグラフエンコーダーを設計した。これらの貢献を基盤として、本研究では、(a) 分子LLMの中で最も広範な分子タスクを処理可能な初めてのマルチモーダル汎用モデルであるMol-LLMを提案する。Mol-LLMは、(b) 明示的に分子構造情報を活用し、(c) 広範な指示微調整を活用する。Mol-LLMは、最も包括的な分子LLMベンチマークにおいて、最先端または同等の性能を達成しており、反応予測および性質予測における分布外データに対しては、従来の汎用分子LLMを大きく上回る結果を示した。