PhysNet: Ein Neuronales Netzwerk zur Vorhersage von Energien, Kräften, Dipolmomenten und partiellen Ladungen

In den letzten Jahren sind maschinelles Lernen (ML) Methoden in der rechnerischen Chemie zunehmend populär geworden. Nach der Schulung an geeigneten ab-initio-Referenzdaten ermöglichen diese Methoden die genaue Vorhersage von Eigenschaften chemischer Systeme, ohne dass die elektronische Schrödinger-Gleichung explizit gelöst werden muss. Aufgrund ihrer rechnerischen Effizienz und Skalierbarkeit auf große Datensätze sind tiefe Neuronale Netze (DNNs) ein besonders vielversprechender ML-Algorithmus für chemische Anwendungen. Diese Arbeit stellt PhysNet vor, eine DNN-Architektur, die zur Vorhersage von Energien, Kräften und Dipolmomenten chemischer Systeme entwickelt wurde. PhysNet erreicht Stand-des-Wissens-Leistungen bei den Benchmarks QM9, MD17 und ISO17. Zudem werden zwei neue Datensätze generiert, um die Leistungsfähigkeit von ML-Modellen bei der Beschreibung chemischer Reaktionen, langreichweitiger Wechselwirkungen und kondensierter Phasensysteme zu untersuchen. Es wird gezeigt, dass die explizite Berücksichtigung von Elektrostatik in Energievorhersagen entscheidend ist für eine qualitativ korrekte Beschreibung der asymptotischen Bereiche einer potentiellen Energielandschaft (PES). PhysNet-Modelle, die an einem systematisch konstruierten Satz kleiner Peptidfragmente (mit maximal acht schweren Atomen) trainiert wurden, können sich auf erheblich größere Proteine wie Dezaalanin (Ala${10}$) verallgemeinern: Die durch PhysNet vorhergesagte optimierte Geometrie des helicalen Ala${10}$ ist fast identisch mit ab-initio-Ergebnissen (RMSD = 0,21 Å). Durch das Durchführen unverzerrter molekularer Dynamik-(MD)-Simulationen von Ala${10}$ auf der PhysNet-PES im Gasphasenmodell wird festgestellt, dass Ala${10}$ anstatt einer helicalen Struktur in eine kränzenförmige Konfiguration faltet, die laut den Referenz-ab-initio-Rechnungen um 0,46 kcal mol$^{-1}$ stabiler als die helicale Form ist.