
摘要
我们介绍了MolT5——一种用于在大量未标记的自然语言文本和分子字符串上预训练模型的自监督学习框架。MolT5首次探索了传统视觉-语言任务的新颖、有用且具有挑战性的类比,例如分子描述生成和基于文本的从头分子生成(统称为:分子与语言之间的翻译)。由于MolT5在单模态数据上预训练模型,它有助于克服化学领域数据稀缺的问题。此外,我们考虑了多种评估指标,包括一种新的跨模态嵌入式指标,以评估分子描述生成和基于文本的分子生成任务。我们的结果显示,基于MolT5的模型能够生成高质量的输出,包括分子和描述,在许多情况下表现优异。