HyperAIHyperAI
vor 18 Tagen

AMix-1: Ein Weg zu einem proteinbasierten Grundmodell mit skalierbarer Ausführungsdauer

Changze Lv, Jiang Zhou, Siyu Long, Lihao Wang, Jiangtao Feng, Dongyu Xue, et al
AMix-1: Ein Weg zu einem proteinbasierten Grundmodell mit skalierbarer Ausführungsdauer
Abstract

Wir stellen AMix-1 vor, ein leistungsstarkes Protein-Grundmodell, das auf Bayes’schen Flussnetzwerken basiert und durch eine systematische Trainingsmethodik gestärkt wurde, die Pretraining-Skalierungsgesetze, die Analyse emergenter Fähigkeiten, Mechanismen des Lernens im Kontext sowie einen Skalierungsalgorithmus zur Testzeit umfasst. Um eine robuste Skalierbarkeit zu gewährleisten, leiten wir ein prädiktives Skalierungsgesetz her und zeigen auf, wie sich über die Verlustperspektive eine schrittweise Emergenz struktureller Verständnisfähigkeit nachweisen lässt, was schließlich zu einem leistungsfähigen Modell mit 1,7 Milliarden Parametern führt. Auf dieser Grundlage entwickeln wir eine auf mehrfachen Sequenzalignment (MSA)-Daten basierende Strategie des Lernens im Kontext, die die Proteindesign-Aufgabe in einen allgemeinen Rahmen integriert. Dabei erkennt AMix-1 tiefe evolutionäre Signale innerhalb von MSAs und generiert konsistent strukturell und funktionell kohärente Proteine. Dieser Ansatz ermöglicht den erfolgreichen Entwurf einer stark verbesserten AmeR-Variante mit einer bis zu 50-fach höheren Aktivität im Vergleich zum Wildtyp. Durch die Weiterentwicklung der Proteinengineering-Technologie stärken wir AMix-1 zusätzlich mit einem evolutionären Algorithmus zur Testzeit-Skalierung für die computergestützte gerichtete Evolution, der bei zunehmendem Verifizierungsaufwand erhebliche, skalierbare Leistungssteigerungen liefert und die Grundlage für die nächste Generation von lab-in-the-loop-basierten Proteindesign-Verfahren legt.