HyperAIHyperAI
il y a 2 mois

Pré-entraînement de molécules à double vue

Jinhua Zhu; Yingce Xia; Tao Qin; Wengang Zhou; Houqiang Li; Tie-Yan Liu
Pré-entraînement de molécules à double vue
Résumé

Inspirationnée par son succès dans le traitement du langage naturel et la vision par ordinateur, la pré-entraîne a attiré une attention considérable en chimioinformatique et bioinformatique, particulièrement pour les tâches basées sur les molécules. Une molécule peut être représentée soit par un graphe (où les atomes sont connectés par des liaisons), soit par une séquence SMILES (où une recherche en profondeur est appliquée au graphe moléculaire avec des règles spécifiques). Les travaux existants sur la pré-entraîne de molécules utilisent soit uniquement des représentations graphiques, soit uniquement des représentations SMILES. Dans ce travail, nous proposons d'exploiter les deux types de représentations et de concevoir un nouvel algorithme de pré-entraîne, la pré-entraîne moléculaire à double vue (abrégée DMP), qui peut efficacement combiner les forces de ces deux types de représentations moléculaires. Le modèle DMP comprend deux branches : une branche Transformer qui prend en entrée la séquence SMILES d'une molécule, et une branche GNN (Graph Neural Network) qui prend en entrée un graphe moléculaire. La formation de DMP comporte trois tâches : (1) prédire les jetons masqués dans une séquence SMILES grâce à la branche Transformer, (2) prédire les atomes masqués dans un graphe moléculaire grâce à la branche GNN, et (3) maximiser la cohérence entre les deux représentations de haut niveau produites respectivement par les branches Transformer et GNN. Après la pré-entraîne, nous pouvons utiliser soit la branche Transformer (cette dernière étant recommandée selon les résultats empiriques), soit la branche GNN, ou encore les deux pour les tâches en aval. DMP a été testée sur neuf tâches de prédiction des propriétés moléculaires et a obtenu des performances de pointe sur sept d'entre elles. De plus, nous avons testé DMP sur trois tâches de rétro-synthèse et avons obtenu des résultats de pointe sur celles-ci.Note : - "pré-entraîne" est utilisé ici pour traduire "pre-training", bien que "préformation" puisse également être utilisé dans certains contextes.- "Graphe Neural Network" est généralement traduit par "Réseau neuronal graphique" ou "GNN". J'ai choisi "GNN" pour rester fidèle à l'abréviation utilisée dans le texte original.- "jeton" est utilisé pour traduire "token", ce qui est courant dans le domaine du traitement du langage naturel.- "tâche en aval" est utilisé pour traduire "downstream task", ce qui est standard en français dans ce contexte.- "propriétés moléculaires" est utilisé pour traduire "molecular properties".- "rétro-synthèse" est le terme français couramment utilisé pour désigner le processus de conception rétrograde d'une synthèse organique.

Pré-entraînement de molécules à double vue | Articles de recherche récents | HyperAI