HyperAIHyperAI

Command Palette

Search for a command to run...

MolXPT: 分子をテキストでラップして生成的前学習を行う

Zequn Liu Wei Zhang Yingce Xia Lijun Wu Shufang Xie Tao Qin Ming Zhang Tie-Yan Liu

概要

生成事前学習変換器(Generative Pre-trained Transformer: GPT)は、自然言語処理において大きな成功を収め、関連技術が分子モデリングに適応されています。科学的発見における最も重要な記録がテキストであることを考慮し、本論文では、SMILES(分子の系列表現)をテキストでラップしたテキストと分子の統一言語モデルであるMolXPTを提案します。簡潔に説明すると、各系列内の分子名を検出し、それらを対応するSMILESに置き換えます。これにより、SMILESは周囲のテキストから情報を活用でき、逆もまた同様です。上記のラップされた系列、PubMedからのテキスト系列、およびPubChemからのSMILES系列はすべて、言語モデルの事前学習のために入力されます。実験結果は、MolXPTがMoleculeNetでの分子特性予測において強力な基準モデルを上回り、パラメータ数が半分以下の状態で最良のモデルと同等の性能を示すテキスト-分子翻訳を行い、微調整なしでゼロショット分子生成を可能にするという点で示しています。


AIでAIを構築

アイデアからローンチまで — 無料のAIコーディング支援、すぐに使える環境、最高のGPU価格でAI開発を加速。

AI コーディング補助
すぐに使える GPU
最適な料金体系

HyperAI Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています