Command Palette
Search for a command to run...
Lianghong Chen Dongkyu Eugene Kim Mike Domaratzki Pingzhao Hu

要約
望ましい性質を有する新規3D分子の設計は、創薬および分子工学の分野において根本的な課題の一つである。従来、拡散モデル(diffusion models)は高品質な3D分子構造の生成において顕著な能力を示しているが、現実世界の応用に不可欠な複雑な多目的制約を効果的に制御する点で課題を抱えている。本研究では、複数の性質最適化目標に向けた3D分子拡散モデルの最適化を支援する、不確実性を意識した強化学習(Reinforcement Learning, RL)フレームワークを提案する。本手法は、予測不確実性を推定可能な代理モデル(surrogate models)を活用し、動的に報酬関数を調整することで、複数の最適化目標間のバランスを実現する。我々は、3つのベンチマークデータセットおよび複数の拡散モデルアーキテクチャ上で本フレームワークを包括的に評価した結果、分子の品質および性質最適化において、従来手法を一貫して上回ることを確認した。さらに、上位候補分子に対する分子動力学(Molecular Dynamics, MD)シミュレーションおよびADMETプロファイリングの結果、既知の表皮成長因子受容体(Epidermal Growth Factor Receptor, EGFR)阻害剤と同等の薬物様性および結合安定性が示された。これらの結果から、強化学習を用いた生成拡散モデルが自動分子設計の高度化に大きな可能性を秘めていることが示された。