12 Universitaires Se Sont Réunis Au CCF HPC China Pour Discuter De Nouveaux Paradigmes De Recherche : Fusion De Super-intelligence/fusion De Réseaux Informatiques/informatique Intelligente Scientifique...

Jim Gray, lauréat du prix Turing, a un jour divisé la recherche scientifique en quatre grands paradigmes, à savoir la science expérimentale, la science théorique, la science computationnelle et la science à forte intensité de données. Ces dernières années, avec le développement explosif de l’IA, certains initiés du secteur ont déclaré que « le cinquième paradigme de la recherche scientifique est arrivé ».
Dans l’itération des paradigmes de recherche scientifique, le rôle central des données n’a jamais changé. La bonne nouvelle est qu’à mesure que le paradigme de la recherche scientifique passe de l’informatique à l’IA, le coût de la production de données continue de diminuer et les bases de données dans des domaines tels que les sciences de la vie et la chimie des matériaux se développent de manière exponentielle.Prenons l’exemple de l’informatique des sciences de la vie : « la quantité de données peut doubler tous les trois ans, alors que la taille du marché de l’informatique des sciences de la vie ne peut doubler que tous les six ans. »
Le professeur Kong Lei de l'Université de Pékin a suggéré que la raison de ce phénomène pourrait être que le coût de production des données a diminué plus rapidement que la vitesse de progression des puces, de sorte qu'une grande quantité de données n'a pas été traitée efficacement en temps opportun. Il croit queLa recherche en sciences de la vie dépend de plus en plus des données, et la puissance de calcul est devenue l’un des principaux avantages concurrentiels de la recherche scientifique.

Il ne fait aucun doute que ce que le professeur Kong Lei a dit est un problème auquel il faut faire face dans un large éventail de domaines de recherche scientifique. La puissance de calcul pourrait devenir le moteur clé pour surmonter les goulots d’étranglement techniques dans la recherche scientifique et même dans les applications d’ingénierie. Dans ce contexte,Le calcul haute performance (HPC) a reçu beaucoup d’attention.En tant que « couronne de la puissance de calcul », il a été appliqué avec maturité dans de nombreux domaines en s'appuyant sur ses avantages tels qu'une puissance de calcul puissante et une technologie de traitement parallèle.
Lors de la 20e conférence académique annuelle nationale sur le calcul haute performance du CCF (CCF HPC China 2024) qui s'est ouverte le 24 septembre,Des rapports invités aux forums thématiques, les meilleurs universitaires et experts de l'industrie de différents domaines professionnels ont partagé et communiqué en profondeur sur l'état de développement et les tendances du HPC et se sont concentrés sur des scénarios d'application riches.
Plus précisément, le CCF HPC Chine a choisi comme thème « Vingt ans de gloire, un nouvel avenir de qualité » et a invité 12 universitaires et plus de 400 chercheurs de haut niveau. La conférence a également organisé 30 forums thématiques et plus de 30 activités périphériques colorées. Le nombre de participants a dépassé les 4 000 et l’atmosphère de communication sur place était forte. HyperAI a participé au CCF HPC China 2024 en tant que communauté partenaire officielle et vous a apporté des rapports utiles.

L'intégration devient une tendance majeure
Certains initiés du secteur utilisent l'expression « calculer le ciel, calculer la mer, calculer la terre et calculer les gens » pour décrire l'omniprésence et les puissantes capacités des applications de calcul haute performance. Cependant, dans les applications réelles, un seul arbre peut difficilement constituer une forêt.Non seulement l'intégration du supercalcul et du calcul intelligent dans le calcul haute performance est nécessaire, mais dans le processus de fourniture de services de puissance de calcul, afin d'activer les ressources de puissance de calcul, l'intégration de la puissance de calcul et des réseaux est également devenue une tendance générale.
Fusion du supercalcul et de l'informatique intelligente
Wang Huaimin, académicien de l'Académie chinoise des sciences, professeur à l'Université nationale des technologies de défense et membre de la Fédération chinoise de l'informatique (CCF), a déclaré dans son discours :À l’ère de l’informatique intelligente, l’IA pour la science a non seulement favorisé les progrès de la recherche scientifique fondamentale, mais a également apporté de nouvelles opportunités et de nouveaux défis au développement des technologies de calcul haute performance et d’intelligence artificielle. Comment combiner les scénarios d'application spécifiques de la recherche scientifique et exploiter pleinement le potentiel du calcul haute performance et de l'intelligence artificielle dans l'analyse de données volumineuses, le calcul de simulation, la prédiction intelligente et l'assistance expérimentale est l'objectif actuel des applications pratiques de l'IA pour la science.
L'académicien Wang Huaimin estime que l'IA pour la science et l'informatique pour la science sont liées et que toutes deux soutiennent l'utilisation de méthodes informatiques pour la recherche scientifique, mais la différence entre les deux mérite plus d'attention. La différence entre le supercalcul et l’informatique intelligente ne se reflète pas seulement dans les différences entre les puces de processeur, l’architecture informatique et même les logiciels système, mais plus important encore,Les deux représentent des méthodes de modélisation complètement différentes pour comprendre le monde.
Il a déclaré que l'informatique traditionnelle pour la science est une méthode de recherche scientifique qui utilise des équations mathématiques pour modéliser le monde, tandis que l'IA pour la science est une méthode de recherche scientifique qui utilise l'apprentissage automatique pour modéliser le monde. Les deux sont complémentaires.Cela signifie également que l’intégration du supercalcul et de l’informatique intelligente soutiendra la recherche scientifique future et offre de vastes perspectives.

De même, lors du forum thématique du 25, de nombreux experts ont également prononcé de magnifiques discours sur la « Super Intelligence Fusion ». Par exemple,Lors du « 6e Forum sur la technologie de fusion de supercalcul intelligent dans les applications d'ingénierie de simulation numérique », Wang Yishen de China Electric Power Research Institute Co., Ltd. s'est concentré sur les scénarios d'application de l'énergie et a présenté la technologie de calcul intelligent de la science de l'énergie.
Il a déclaré que le système électrique actuel présente des caractéristiques telles qu’une forte incertitude, des caractéristiques de grande dimension, une non-linéarité non convexe, de multiples échelles de temps, des caractéristiques spatio-temporelles complexes et de multiples objectifs et contraintes. Les calculs des systèmes électriques sont confrontés à des défis majeurs tels que la croissance massive de l’échelle d’analyse des systèmes, des combinaisons massives et diversifiées de méthodes, la difficulté de modélisation raffinée, des mécanismes de sécurité complexes et une expansion à grande dimension des objets et des variables de contrôle.
Compte tenu de cela,L’informatique intelligente issue de la science de l’énergie est apparue pour compenser les lacunes des méthodes mathématiques traditionnelles et de la technologie générale de l’IA.Par exemple, la technologie de l’IA s’appuie sur des environnements de formation et des échantillons, présente une faible généralisation et une faible évolutivité, et son interprétabilité a été critiquée à plusieurs reprises. Cependant, l'informatique intelligente en science de l'énergie qui intègre les données des mécanismes présente de nombreux avantages, tels que l'amélioration de l'efficacité informatique de la prise de décision analytique, l'amélioration des capacités de représentation raffinées du modèle et l'amélioration des capacités d'adaptabilité et de généralisation de l'algorithme.
Intégration de la puissance de calcul et du réseau
Aujourd’hui, la loi de Moore a progressivement atteint un goulot d’étranglement. La marge de manœuvre pour améliorer la puissance de calcul d’une seule puce devient de plus en plus étroite, et le coût devient de plus en plus élevé. Il est donc crucial d’activer les ressources de puissance de calcul existantes. Et c'est là l'avantage du « réseau de puissance de calcul » : fournir aux utilisateurs les services de ressources de puissance de calcul les plus adaptés, c'est-à-dire des types de puissance de calcul correspondants, une échelle de puissance de calcul appropriée et une rentabilité optimale de la puissance de calcul. Dans ce processus, le réseau de puissance de calcul connecte la puissance de calcul discrète, avec le calcul produit par « l'informatique » et connecté par le « réseau ».
On peut dire queLe réseau de puissance de calcul doit être positionné comme l’infrastructure de l’ère intelligente et doit être largement utilisé par l’ensemble de la population comme les navigateurs et WeChat.Pour qu’une nouvelle technologie devienne populaire, elle doit avoir une application « révolutionnaire ». Désormais, les téléphones mobiles AIPC et AI pourraient devenir des assistants personnels intelligents populaires auprès du grand public, et à l'avenir, il pourrait y avoir une réelle demande de réseaux de puissance de calcul. Ce n’est qu’en permettant à la puissance de calcul de servir davantage de personnes via Internet et en permettant à la majorité des utilisateurs de bénéficier concrètement des avantages du réseau de puissance de calcul que ce dernier pourra se développer rapidement.
Li Guojie, académicien de l'Académie chinoise d'ingénierie et chercheur à l'Institut de technologie informatique de l'Académie chinoise des sciences, a proposé queAujourd’hui, différentes unités déploient des efforts différents dans le domaine des réseaux de puissance de calcul. Les opérateurs se concentrent sur l’intégration du réseau cloud, les gouvernements locaux construisent des centres de puissance de calcul et l’industrie informatique se concentre sur la recherche fondamentale en informatique distribuée. Ces études doivent être combinées en synergie.

L'académicien Li Guojie a déclaré dans son rapport intitulé « Méta-pensée sur le réseau de puissance de calcul » que la pré-formation de grands modèles est actuellement la principale demande de puissance de calcul, mais que le calcul distribué sur une grande surface n'est pas adapté à la formation de grands modèles. S’appuyer sur plusieurs petits centres de calcul intelligents pour former de grands modèles grâce au calcul distribué n’est peut-être pas une solution.La recherche sur les réseaux informatiques nécessite une abstraction de base similaire aux pages Web, développant des « hyperliens » en « hypertâches ».L’abstraction théorique ne vise pas à améliorer progressivement les performances ou les classements SOTA, mais à réaliser d’abord des percées dans la recherche qualitative.
La mise à niveau du paradigme de la recherche scientifique n’est pas un remplacement mais un complément
Feng Dawei, chercheur associé à l'Université nationale de technologie de la défense, a expliqué dans son discours que la recherche scientifique a traversé cinq paradigmes, dont la science empirique basée sur l'observation et l'induction, représentée par des scientifiques tels que Mendel et Lavoisier, la science théorique basée sur l'hypothèse et la déduction logique, représentée par des scientifiques tels que Newton et Einstein, et dans les années 1950, une troisième méthode de recherche scientifique a émergé qui simulait des phénomènes complexes à l'aide d'ordinateurs, et la simulation de dynamique moléculaire en était un exemple typique.

Après 2000, le développement d’Internet et du cloud computing a donné naissance à un paradigme de recherche scientifique axé sur le Big Data qui met principalement l’accent sur la gestion, le partage et l’exploration des données. Après 2020, avec le développement de la technologie de l'intelligence artificielle, en particulier des grands modèles de la série AlphaFold et de la série GPT, un paradigme de recherche scientifique axé sur l'IA a émergé.
Feng Dawei a proposé que ces méthodes de recherche scientifique ne se substituent pas les unes aux autres, mais se complètent et favorisent conjointement le développement de la recherche scientifique.
À propos de CCF HPC Chine
CCF HPC China a été fondé en 2005 et marque cette année son 20e événement. Aujourd'hui, CCF HPC China est devenu l'un des trois événements de supercalcul les plus influents au monde dans le domaine du calcul haute performance, à égalité avec la SC Supercomputing Conference aux États-Unis et l'ISC Supercomputing Conference en Allemagne. Au cours des 20 dernières années, le Comité de calcul haute performance de la China Computer Society (ci-après dénommé le « Comité de calcul haute performance ») a construit une plate-forme de communication professionnelle, haut de gamme et étendue pour le monde universitaire et l'industrie, ainsi que pour les utilisateurs de calcul haute performance et les pairs universitaires étrangers via une plate-forme académique telle que CCF HPC China, favorisant efficacement le développement rapide de l'industrie chinoise du calcul haute performance.
En 2024, le secteur du calcul haute performance en Chine aura une occasion importante d'étudier en profondeur la relation étroite entre l'intelligence artificielle et les nouvelles industries de productivité et de puissance de calcul de qualité. En tant qu'événement majeur de l'industrie qui continue de progresser, CCF HPC China s'engage à donner un nouvel élan à l'expansion de l'industrie grâce à des échanges et une coopération approfondis.
HyperAI est profondément impliqué dans le CCF HPC China 2024 en tant que communauté de partenaires officiels. Nous continuerons à partager avec vous les discours pratiques et les points de vue avant-gardistes des meilleurs universitaires et experts du secteur. Restez à l'écoute!