HyperAI

12 Akademiker Trafen Sich Im CCF HPC China, Um Neue Forschungsparadigmen Zu Diskutieren: Fusion Von Superintelligenz/Fusion Von Computernetzwerken/wissenschaftliches Intelligentes Computing …

vor 9 Monaten
Information
zhaorui
特色图像

Der Turing-Preisträger Jim Gray unterteilte die wissenschaftliche Forschung einst in vier große Paradigmen: experimentelle Wissenschaft, theoretische Wissenschaft, Computerwissenschaft und datenintensive Wissenschaft. Angesichts der explosiven Entwicklung der KI in den letzten Jahren haben einige Branchenkenner gesagt, dass „das fünfte Paradigma der wissenschaftlichen Forschung angebrochen ist“.

In der Iteration wissenschaftlicher Forschungsparadigmen hat sich die zentrale Rolle der Daten nie geändert. Die gute Nachricht ist, dass mit der Verschiebung des wissenschaftlichen Forschungsparadigmas von der Informatik zur KI die Kosten der Datenausgabe weiter sinken und Datenbanken in Bereichen wie Biowissenschaften und Materialchemie exponentiell wachsen.Am Beispiel des Life-Science-Computings: „Die Datenmenge kann sich alle drei Jahre verdoppeln, während sich die Marktgröße des Life-Science-Computings nur alle sechs Jahre verdoppeln kann.“

Professor Kong Lei von der Peking-Universität vermutet, dass der Grund hierfür darin liegen könnte, dass die Kosten für die Datenausgabe schneller gesunken sind als die Geschwindigkeit der Chipentwicklung, sodass viele Daten nicht rechtzeitig und effektiv verarbeitet werden konnten. Er glaubt, dassDie biowissenschaftliche Forschung ist zunehmend auf datengesteuerte Rechenleistung angewiesen und zu einem der wichtigsten Wettbewerbsvorteile der wissenschaftlichen Forschung geworden.

Professor Kong Lei von der Peking-Universität

Es besteht kein Zweifel, dass es sich bei den Ausführungen von Professor Kong Lei um ein Problem handelt, dem man sich in vielen wissenschaftlichen Forschungsfeldern stellen muss. Rechenleistung könnte zum entscheidenden Motor für die Überwindung technischer Engpässe in der wissenschaftlichen Forschung und sogar in technischen Anwendungen werden. In diesem ZusammenhangHigh Performance Computing (HPC) hat viel Aufmerksamkeit erhalten.Als „Krone der Rechenleistung“ wird es auf vielen Gebieten ausgereift eingesetzt, wobei auf seine Vorteile wie hohe Rechenleistung und Parallelverarbeitungstechnologie vertraut wird.

Auf der 20. CCF National High Performance Computing Academic Annual Conference (CCF HPC China 2024), die am 24. September eröffnet wurde,Von eingeladenen Berichten bis hin zu Themenforen tauschten sich Spitzenwissenschaftler und Branchenexperten aus unterschiedlichen Berufsfeldern ausführlich über den Entwicklungsstand und die Trends von HPC aus und konzentrierten sich auf umfangreiche Anwendungsszenarien.

CCF HPC China wählte insbesondere das Motto „Zwanzig Jahre Ruhm, eine neue, hochwertige Zukunft“ und lud 12 Akademiker und über 400 Spitzenwissenschaftler ein. Die Konferenz umfasste außerdem 30 Themenforen und mehr als 30 abwechslungsreiche Rahmenaktivitäten. Die Teilnehmerzahl lag bei über 4.000 und die Kommunikationsatmosphäre vor Ort war intensiv. HyperAI nahm als offizielle Partner-Community an CCF HPC China 2024 teil und brachte Ihnen nützliche Berichte.

Integration wird zum großen Trend

Einige Branchenkenner verwenden die Phrase „den Himmel berechnen, das Meer berechnen, die Erde berechnen und die Menschen berechnen“, um die Allgegenwärtigkeit und die Leistungsfähigkeit von Hochleistungsrechneranwendungen zu beschreiben. In der Praxis kann man jedoch kaum einen Wald aus einem einzelnen Baum machen.Nicht nur ist die Integration von Supercomputing und intelligentem Computing im Hochleistungsrechnen erforderlich, sondern im Prozess der Bereitstellung von Rechenleistungsdiensten ist auch die Integration von Rechenleistung und Netzwerken zu einem allgemeinen Trend geworden, um Rechenleistungsressourcen zu aktivieren.

Fusion von Supercomputing und intelligentem Computing

Wang Huaimin, Mitglied der Chinesischen Akademie der Wissenschaften, Professor an der National University of Defense Technology und Mitglied der China Computer Federation (CCF), sagte in seiner Rede:Im Zeitalter des intelligenten Computing hat „AI for Science“ nicht nur den Fortschritt der wissenschaftlichen Grundlagenforschung gefördert, sondern auch neue Chancen und Herausforderungen für die Entwicklung von Hochleistungsrechnern und Technologien der künstlichen Intelligenz mit sich gebracht. Der aktuelle Schwerpunkt der praktischen Anwendungen von AI for Science liegt auf der Kombination spezifischer Anwendungsszenarien der wissenschaftlichen Forschung und der vollen Ausschöpfung des Potenzials von Hochleistungsrechnen und künstlicher Intelligenz bei Big-Data-Analysen, Simulationsrechnen, intelligenten Vorhersagen und experimenteller Unterstützung.

Der Akademiker Wang Huaimin ist der Ansicht, dass KI für die Wissenschaft und Informatik für die Wissenschaft verwandt sind und beide die Verwendung von Computermethoden für die wissenschaftliche Forschung unterstützen, der Unterschied zwischen beiden jedoch mehr Aufmerksamkeit verdient. Der Unterschied zwischen Supercomputing und intelligentem Computing spiegelt sich nicht nur in den Unterschieden bei Prozessorchips, Computerarchitektur und sogar Systemsoftware wider, sondern, was noch wichtiger ist,Beide stellen völlig unterschiedliche Modellierungsmethoden zum Verständnis der Welt dar.

Er sagte, dass traditionelles Computing für die Wissenschaft eine wissenschaftliche Forschungsmethode sei, die mathematische Gleichungen zur Modellierung der Welt verwende, während AI für die Wissenschaft eine wissenschaftliche Forschungsmethode sei, die maschinelles Lernen zur Modellierung der Welt verwende. Die beiden ergänzen sich.Dies bedeutet auch, dass die Integration von Supercomputing und intelligenter Datenverarbeitung die zukünftige wissenschaftliche Forschung unterstützen wird und große Perspektiven bietet.

Akademiker Wang Huaimin teilte seine Erfahrungen in Form eines Videos

Auch beim Themenforum am 25. gaben viele Experten wunderbare Einblicke in die „Super Intelligence Fusion“. Zum Beispiel,Beim „6. Forum für intelligente Supercomputing-Fusionstechnologie in Anwendungen der numerischen Simulationstechnik“ konzentrierte sich Wang Yishen vom China Electric Power Research Institute Co., Ltd. auf Anwendungsszenarien im Energiebereich und stellte intelligente Computertechnologie für die Energiewissenschaft vor.

Er sagte, dass das derzeitige Energiesystem Merkmale wie große Unsicherheit, hochdimensionale Merkmale, nicht-konvexe Nichtlinearität, mehrere Zeitskalen, komplexe raumzeitliche Merkmale sowie mehrere Ziele und Einschränkungen aufweise. Die Berechnung von Energiesystemen ist mit großen Herausforderungen verbunden, wie etwa einem massiven Wachstum des Umfangs der Systemanalyse, umfangreichen und vielfältigen Methodenkombinationen, Schwierigkeiten bei der verfeinerten Modellierung, komplexen Sicherheitsmechanismen und einer hochdimensionalen Erweiterung von Steuerobjekten und Variablen.

In Anbetracht dessenUm die Mängel traditioneller mathematischer Methoden und allgemeiner KI-Technologie auszugleichen, ist die energiewissenschaftliche intelligente Datenverarbeitung entstanden.Beispielsweise basiert die KI-Technologie auf Trainingsumgebungen und Beispielen, weist eine schwache Generalisierung und Skalierbarkeit auf und ihre Interpretierbarkeit wurde wiederholt kritisiert. Allerdings bietet intelligentes Computing in der Energiewissenschaft, das Mechanismusdaten integriert, viele Vorteile, beispielsweise eine verbesserte Rechenleistung bei analytischen Entscheidungen, eine Verbesserung der verfeinerten Darstellungsmöglichkeiten des Modells und eine Verbesserung der Anpassungs- und Generalisierungsfähigkeiten des Algorithmus.

Integration von Rechenleistung und Netzwerk

Heute ist das Mooresche Gesetz allmählich an einen Engpass gestoßen. Der Spielraum zur Verbesserung der Rechenleistung eines einzelnen Chips wird immer geringer und die Kosten werden immer höher. Daher ist es von entscheidender Bedeutung, vorhandene Rechenleistungsressourcen zu aktivieren. Und genau darin besteht der Vorteil des „Computing Power Network“: Es stellt den Benutzern die am besten geeigneten Rechenleistungsressourcendienste zur Verfügung, d. h. passende Rechenleistungstypen, geeignete Rechenleistungsskalen und optimale Kosteneffizienz der Rechenleistung. Dabei verbindet das Rechenleistungsnetz einzelne Rechenleistungen, wobei die durch „Computing“ erbrachten Leistungen durch das „Netzwerk“ verbunden werden.

Man kann sagen, dassDas Rechenleistungsnetzwerk sollte als Infrastruktur des intelligenten Zeitalters positioniert und von der gesamten Bevölkerung wie Browser und WeChat weithin genutzt werden.Damit eine neue Technologie populär wird, muss sie über eine „Killer“-Anwendung verfügen. Von nun an könnten AIPC- und KI-Mobiltelefone zu intelligenten persönlichen Assistenten werden, die bei der breiten Öffentlichkeit beliebt sind, und in Zukunft könnte es einen echten Bedarf an leistungsstarken Rechennetzwerken geben. Nur wenn die Rechenleistung über das Internet mehr Menschen zur Verfügung steht und die Mehrheit der Benutzer praktische Vorteile aus dem Rechenleistungsnetzwerk ziehen kann, kann sich das Rechenleistungsnetzwerk schnell weiterentwickeln.

Li Guojie, Mitglied der Chinesischen Akademie der Ingenieurwissenschaften und Forscher am Institut für Computertechnologie der Chinesischen Akademie der Wissenschaften, schlug vor, dassMittlerweile unternehmen verschiedene Einheiten unterschiedliche Anstrengungen im Bereich der Rechenleistungsnetzwerke. Die Betreiber konzentrieren sich auf die Cloud-Netzwerkintegration, lokale Regierungen bauen Rechenleistungszentren und die Computerindustrie konzentriert sich auf die Grundlagenforschung im Bereich verteiltes Rechnen. Diese Studien müssen zu einer Synergie zusammengeführt werden.

Der Akademiker Li Guojie sagte in seinem Bericht mit dem Titel „Meta-Denken über das Rechenleistungsnetzwerk“, dass das Vortraining großer Modelle derzeit den größten Bedarf an Rechenleistung stelle, das weiträumige verteilte Rechnen jedoch nicht für das Training großer Modelle geeignet sei. Sich beim Trainieren großer Modelle durch verteiltes Rechnen auf mehrere kleine intelligente Rechenzentren zu verlassen, ist möglicherweise keine Lösung.Die Forschung zu Computernetzwerken erfordert eine Kernabstraktion ähnlich der von Webseiten, bei der „Hyperlinks“ zu „Hypertasks“ entwickelt werden.Bei der theoretischen Abstraktion geht es nicht um schrittweise Leistungsverbesserungen oder SOTA-Rankings, sondern darum, zunächst Durchbrüche in der qualitativen Forschung zu erzielen.

Die Modernisierung des wissenschaftlichen Forschungsparadigmas ist kein Ersatz, sondern eine Ergänzung

Feng Dawei, ein assoziierter Forscher an der National University of Defense Technology, erklärte in seiner Rede, dass die wissenschaftliche Forschung fünf Paradigmen durchlaufen habe, darunter die empirische Wissenschaft, die auf Beobachtung und Induktion basiere und von Wissenschaftlern wie Mendel und Lavoisier vertreten werde, die theoretische Wissenschaft, die auf Hypothesen und logischer Deduktion basiere und von Wissenschaftlern wie Newton und Einstein vertreten werde, und dass in den 1950er Jahren eine dritte wissenschaftliche Forschungsmethode aufgekommen sei, bei der komplexe Phänomene mit Hilfe von Computern simuliert würden. Die Molekulardynamiksimulation sei ein typisches Beispiel hierfür.

Nach dem Jahr 2000 führte die Entwicklung des Internets und des Cloud-Computing zu einem Big Data-basierten wissenschaftlichen Forschungsparadigma, bei dem der Schwerpunkt hauptsächlich auf der Verwaltung, Weitergabe und Gewinnung von Daten liegt. Nach 2020 ist mit der Entwicklung der Technologie der künstlichen Intelligenz, insbesondere der großen Modelle der AlphaFold-Serie und der GPT-Serie, ein KI-gesteuertes wissenschaftliches Forschungsparadigma entstanden.

Feng Dawei schlug vor, dass diese wissenschaftlichen Forschungsmethoden sich nicht gegenseitig ersetzen, sondern vielmehr ergänzen und gemeinsam die Entwicklung der wissenschaftlichen Forschung fördern.

Über CCF HPC China

CCF HPC China wurde 2005 gegründet und findet dieses Jahr zum 20. Mal statt. Heute ist die CCF HPC China eine der drei weltweit einflussreichsten Supercomputing-Veranstaltungen im Bereich des Hochleistungsrechnens, gleichauf mit der SC Supercomputing Conference in den USA und der ISC Supercomputing Conference in Deutschland. In den letzten 20 Jahren hat das High Performance Computing Committee der China Computer Society (nachfolgend „High Performance Computing Committee“ genannt) eine professionelle, hochwertige und umfassende Kommunikationsplattform für die Wissenschaft und Industrie sowie für High Performance Computing-Anwender und ausländische akademische Kollegen über eine akademische Plattform wie CCF HPC China aufgebaut und so die schnelle Entwicklung der chinesischen High Performance Computing-Industrie effektiv gefördert.

Im Jahr 2024 bietet sich für Chinas Hochleistungsrechner eine wichtige Gelegenheit, die enge Beziehung zwischen künstlicher Intelligenz und der neuen Qualitätsproduktivitäts- und Rechenleistungsindustrie eingehend zu untersuchen. Als führendes Branchenevent, das sich kontinuierlich weiterentwickelt, ist CCF HPC China bestrebt, der Expansion der Branche durch umfassenden Austausch und Zusammenarbeit neue Impulse zu verleihen.

HyperAI ist als offizielle Partnergemeinschaft stark in CCF HPC China 2024 eingebunden. Wir werden Sie weiterhin an den praktischen Vorträgen und topaktuellen Ansichten führender Wissenschaftler und Branchenexperten teilhaben lassen. Bleiben Sie dran!