Google envisage un futur où l’intelligence artificielle s’entraîne dans l’espace
Google explore une vision ambitieuse pour l’informatique spatiale, avec un projet baptisé Suncatcher, qui imagine des centres de données flottant dans l’espace. Deux CubeSats, lancés depuis la Station spatiale internationale, symbolisent les premiers pas de cette initiative. L’idée repose sur une observation fondamentale : le Soleil fournit une énergie bien supérieure à celle que l’humanité consomme, et dans l’espace, les panneaux solaires peuvent produire jusqu’à huit fois plus d’électricité que sur Terre, grâce à une exposition quasi continue au rayonnement solaire, sans nuit ni obstruction atmosphérique. Cette puissance énergétique illimitée pourrait résoudre l’un des principaux défis de l’intelligence artificielle moderne : la consommation énergétique colossale des systèmes d’apprentissage automatique à grande échelle. Google envisage donc des constellations de satellites autonomes, alimentés par le Soleil, équipés de processeurs et reliés entre eux par des liaisons optiques laser. Ces satellites opéreraient en orbite basse, suivant une trajectoire sol-synchrone, où ils restent presque constamment exposés à la lumière du Soleil, réduisant ainsi la nécessité de batteries volumineuses. Pour que ces satellites fonctionnent comme de véritables centres de données, ils doivent pouvoir communiquer entre eux à des vitesses comparables à celles des infrastructures terrestres. Les charges de travail d’IA exigent des connexions à haut débit et faible latence entre des milliers de processeurs. Google estime que des liaisons optiques capables de transférer des dizaines de téraoctets par seconde sont réalisables grâce à des technologies comme la multiplexage par longueur d’onde dense et le multiplexage spatial. Une démonstration en laboratoire a déjà atteint 1,6 téraoctet par seconde, confirmant la faisabilité du concept. Cependant, pour atteindre ces performances, les satellites devraient voler en formation serrée, séparés par moins d’un kilomètre. À une altitude d’environ 650 kilomètres, cette configuration soulève des défis d’orbite. Google a développé des simulations physiques précises pour analyser les effets de la résistance atmosphérique et des perturbations gravitationnelles non uniformes. Les résultats montrent que des ajustements orbitaux mineurs suffiraient à maintenir la stabilité des formations. Un autre point clé concerne la résistance des composants électroniques à l’environnement spatial. Les processeurs TPU de Google, notamment la version Trillium v6e, ont montré une robustesse étonnante face au rayonnement cosmique. Ils peuvent supporter des doses cumulées près de trois fois supérieures à celles prévues pour une mission de cinq ans avant de présenter des anomalies. Seuls les systèmes de mémoire à haut débit ont montré une sensibilité plus marquée, mais leurs défaillances n’apparaissent qu’après des doses de 2 kilorads, bien au-dessus du seuil de 750 rads prévu pour une mission protégée. Enfin, la viabilité économique dépend fortement de la baisse continue des coûts de lancement. Google estime que si ces coûts descendent en dessous de 200 dollars par kilogramme d’ici la mi-2030, le coût d’exploitation d’un centre de données spatial pourrait être comparable à celui d’un centre terrestre, en tenant compte uniquement de la consommation énergétique. Ce projet, bien qu’encore expérimental, ouvre une nouvelle perspective : peut-être que l’avenir du calcul intensif, et de l’intelligence artificielle, ne se trouve pas sur Terre, mais dans l’ombre du Soleil, à des milliers de kilomètres au-dessus de nos têtes.
