HyperAIHyperAI

Command Palette

Search for a command to run...

Vor-Training tiefgangiger bidirektionaler Proteinsequenzrepräsentationen mit strukturellen Informationen

SEONWOO MIN SEUNGHYUN PARK SIWON KIM HYUN-SOO CHOI BYUNGHAN LEE SUNGROH YOON

Zusammenfassung

Die exponentiell wachsende Lücke zwischen der Anzahl nicht annotierter und annotierter Proteinsequenzen wurde in mehreren Studien durch die Anwendung von semi-überwachtem Lernen für die Modellierung von Proteinsequenzen überbrückt. In diesen Studien wurden Modelle mit einer erheblichen Menge an nicht annotierten Daten vortrainiert, und die dargestellten Merkmale wurden auf verschiedene Downstream-Aufgaben übertragen. Die meisten Vortrainingsmethoden basieren ausschließlich auf Sprachmodellen und zeigen oft begrenzte Leistungsfähigkeit. In dieser Arbeit stellen wir ein neues Vortrainingsverfahren vor, das PLUS (Protein sequence representations Learned Using Structural information) genannt wird. PLUS umfasst maske-sprachliches Modellieren und eine ergänzende proteinspezifische Vortrainingsaufgabe, nämlich die Vorhersage von Proteinen aus der gleichen Familie. PLUS kann verwendet werden, um verschiedene Modellarchitekturen vortrainieren zu lassen. In dieser Arbeit verwenden wir PLUS, um ein bidirektionales rekurrentes Neuronales Netzwerk vortrainieren zu lassen, und bezeichnen das resultierende Modell als PLUS-RNN. Unsere Experimentsergebnisse zeigen, dass PLUS-RNN in sechs von sieben weit verbreiteten Proteinbiologieaufgaben anderen vergleichbar großen Modellen, die ausschließlich mit Sprachmodellen vortrainiert wurden, überlegen ist. Darüber hinaus präsentieren wir Ergebnisse unserer qualitativen Interpretationsanalysen, um die Stärken von PLUS-RNN zu veranschaulichen. PLUS bietet einen neuen Ansatz zur Nutzung evolutionärer Beziehungen unter nicht annotierten Proteinen und ist vielseitig anwendbar in verschiedenen Proteinbiologieaufgaben. Wir erwarten, dass die Lücke zwischen der Anzahl nicht annotierter und annotierter Proteine weiterhin exponentiell wachsen wird, und dass das vorgeschlagene Vortrainingsverfahren eine größere Rolle spielen wird.


KI mit KI entwickeln

Von der Idee bis zum Launch – beschleunigen Sie Ihre KI-Entwicklung mit kostenlosem KI-Co-Coding, sofort einsatzbereiter Umgebung und bestem GPU-Preis.

KI-gestütztes kollaboratives Programmieren
Sofort einsatzbereite GPUs
Die besten Preise

HyperAI Newsletters

Abonnieren Sie unsere neuesten Updates
Wir werden die neuesten Updates der Woche in Ihren Posteingang liefern um neun Uhr jeden Montagmorgen
Unterstützt von MailChimp
Vor-Training tiefgangiger bidirektionaler Proteinsequenzrepräsentationen mit strukturellen Informationen | Paper | HyperAI