KI-Modelle aus der Grundlage der Physik treiben wissenschaftliche Entdeckungen voran
Forscher des Polymathic AI-Konsortiums, darunter Wissenschaftler der Universität Cambridge, haben zwei neue künstliche Intelligenzen namens Walrus und AION-1 entwickelt, die nicht auf Text oder Bilder wie ChatGPT, sondern auf reale wissenschaftliche Datensätze aus der Physik trainiert wurden. Diese sogenannten „Grundmodelle“ lernen universelle physikalische Prinzipien und können dieses Wissen zwischen völlig unterschiedlichen Forschungsbereichen übertragen. Walrus analysiert kurze Sequenzen von Zustandsaufnahmen und prognostiziert den nächsten Schritt – etwa bei der Bewegung von Bakterien, akustischen Wellen oder explodierenden Sternen. AION-1 wurde hingegen mit Daten aus astronomischen Himmelsdurchmusterungen wie dem Sloan Digital Sky Survey und Gaia trainiert, die über 200 Millionen Beobachtungen von Sternen, Quasaren und Galaxien umfassen. Mit etwa 100 Terabyte Daten lernt AION-1, aus niedrigauflösenden Bildern von Galaxien mehr Informationen zu extrahieren, indem es physikalische Muster aus Millionen anderer Objekte nutzt. Beide Modelle sind Teil eines größeren Ansatzes, künstliche Intelligenz als universellen Werkzeug für die physikalische Simulation zu entwickeln. Im Gegensatz zu herkömmlichen AI-Modellen, die auf spezifische Probleme zugeschnitten sind, lernen Grundmodelle nicht nur einzelne Phänomene, sondern die zugrunde liegenden physikalischen Gesetze. Dadurch können sie auch bei kleinen Datensätzen oder ungewohnten Experimenten effektiv arbeiten und neue Phänomene schneller verstehen. „Es ist, als würden Sie einem neuen Menschen begegnen und könnten anhand Ihrer Erfahrungen mit anderen Menschen bereits Vermutungen über sein Verhalten anstellen“, sagt Shirley Ho, Leiterin des Polymathic AI-Projekts. Walrus basiert auf dem „Well“-Datensatz, einem umfassenden Datensatz mit 15 Terabyte an Daten aus 19 verschiedenen Szenarien der Fluiddynamik, darunter die Verschmelzung von Neutronensternen oder die Strömung in der Erdatmosphäre. Die Forscher sehen darin einen Meilenstein auf dem Weg zu einer allgemeinen künstlichen Intelligenz für physikalische Simulationen. „Ich bin weiterhin beeindruckt, dass ein multidisziplinäres physikalisches Grundmodell überhaupt funktioniert – geschweige denn auf diesem Niveau“, sagt Dr. Miles Cranmer von der Universität Cambridge. Dr. Payel Mukhopadhyay betont, dass die Open-Source-Veröffentlichung von Code und Daten die wissenschaftliche Gemeinschaft ermutigen soll, darauf aufzubauen. Die Modelle funktionieren ähnlich wie menschliche Sinne: Sie verbinden Informationen aus verschiedenen Quellen, um ein vollständigeres Bild zu erhalten. Wenn eine Messung fehlt, kann das Modell mithilfe anderer Daten Rückschlüsse ziehen. Dies beschleunigt die Forschung erheblich, da Wissenschaftler nicht mehr jedes Mal ein neues Modell von Grund auf aufbauen müssen. „Unser Ziel ist es, mächtige Werkzeuge für Wissenschaftler zu schaffen, die sie direkt im Alltag nutzen können“, sagt Ho. Liam Parker von der University of California, Berkeley, ergänzt: „Diese Grundmodelle ermöglichen es, von einem sehr leistungsfähigen Dateneinbettungspunkt aus zu starten und trotzdem state-of-the-art Ergebnisse zu erzielen – ohne den ganzen Prozess von vorne zu beginnen.“ Die beiden Modelle wurden kürzlich auf der NeurIPS-Konferenz vorgestellt und in Preprint-Servern veröffentlicht. Sie markieren einen wichtigen Schritt hin zu einer neuen Ära der wissenschaftlichen KI, die Wissen zwischen Disziplinen verbindet und die Entdeckungsgeschwindigkeit in der Forschung erheblich steigern kann.
