WorldGen : créez des mondes 3D interactifs en un clic, directement depuis un simple texte
Imaginez pouvoir taper une simple requête comme « village médiéval en style dessin animé » ou « station spatiale futuriste sur Mars » et générer, en quelques minutes, un monde 3D interactif et immersif. Ce monde serait cohérent sur le plan stylistique et thématique — pas d’architecture du milieu du XXe siècle dans votre base martienne, ni de meubles victoriens dans votre village médiéval. Il serait aussi fonctionnel, avec des zones connectées de manière logique, permettant à des personnages de se déplacer librement sans se coincer. Il y a encore quelques années, cela semblait sortir de la science-fiction. Mais grâce aux progrès récents des technologies d’intelligence artificielle générative, des courts clips de films sont déjà produits à partir d’un simple prompt textuel ou visuel. Aujourd’hui, nous présentons une avancée majeure : un système capable de générer des mondes 3D entièrement navigables et interactifs, que l’on peut réellement explorer en marchant à l’intérieur. Nous lançons aujourd’hui WorldGen, un système d’avant-garde, entièrement intégré, conçu pour créer des mondes 3D interactifs et navigables à partir d’un seul prompt textuel. WorldGen repose sur une combinaison de raisonnement procédural, de génération 3D par diffusion et de décomposition scènes orientée vers les objets. Le résultat ? Des mondes 3D riches visuellement, géométriquement cohérents, et optimisés pour le rendu, adaptés aux jeux vidéo, aux simulations ou aux environnements sociaux immersifs. Les progrès récents en IA générative ont permis de produire des objets 3D de haute qualité à partir de textes ou d’images. WorldGen va plus loin en combinant et en innovant sur plusieurs technologies existantes, 2D et 3D. Le processus s’organise en plusieurs étapes : planification, génération d’un plan procédural, extraction de la carte de navigation (navmesh), génération d’images de référence, reconstruction, conversion image-to-3D, génération de scène basée sur la navmesh, texturation initiale, décomposition de la scène, extraction des parties avec un modèle accéléré (AutoPartGen), nettoyage des données, puis raffinement de la géométrie et de la texturation. Contrairement à d’autres systèmes qui génèrent des mondes 3D à partir d’un point de vue unique, en s’étendant progressivement autour de ce point central, WorldGen s’appuie sur une image de référence globale ou un plan d’ensemble. Cela permet de maintenir une qualité constante sur de grandes surfaces. Alors que d’autres modèles voient leur qualité chuter dès 3 à 5 mètres de distance, WorldGen produit des scènes entièrement texturées sur une surface de 50 x 50 mètres, avec une cohérence stylistique et géométrique ininterrompue. Nous visons même des mondes plus vastes à l’avenir. Bien que ce projet reste à un stade de recherche et ne soit pas encore disponible pour les développeurs, le contenu généré par WorldGen est directement compatible avec les moteurs de jeu standards comme Unity ou Unreal, sans nécessiter de conversions ou de pipelines de rendu supplémentaires. Bien que WorldGen marque une avancée significative vers la création de mondes virtuels diversifiés, interactifs et navigables, il présente encore certaines limites que nous travaillons à résoudre : notamment l’augmentation de la taille des mondes et la réduction du temps de génération. La création de contenu 3D reste complexe, longue et inaccessible pour beaucoup. WorldGen ouvre la voie à des économies considérables de temps et de coûts dans divers secteurs, tout en rendant la création 3D plus accessible à tous. Cela s’inscrit pleinement dans la vision que nous avons partagée lors de l’événement Connect : un avenir où n’importe qui pourra concevoir des mondes entiers sans jamais écrire une ligne de code. Remerciements : Merci à Dilin Wang†, Hyunyoung Jung, Tom Monnier, Kihyuk Sohn, Chuhang Zou, Xiaoyu Xiang, Yu-Ying Yeh, Di Liu, Zixuan Huang, Thu Nguyen-Phuoc, Yuchen Fan, Sergiu Oprea, Ziyan Wang, Roman Shapovalov, Nikolaos Sarafianos, Thibault Groueix, Antoine Toisoul, Prithviraj Dhar, Xiao Chu, Minghao Chen, Geon Yeong Park, Mahima Gupta, Yassir Azziz, Milton Cadogan, Christopher Ocampo, Sandy Kao, Rakesh Ranjan†, Andrea Vedaldi††, chef de projet.
