NVIDIA dévoile le cadre universel UDR pour une recherche profonde plus transparente et contrôlable
NVIDIA a présenté le cadre Universal Deep Research (UDR), une solution innovante conçue pour répondre aux besoins croissants en matière de recherche approfondie par l’intelligence artificielle générative. Alors que les applications des modèles linguistiques se sont recentrées autour de trois grands axes — le codage, les workflows agents et la recherche approfondie — cette dernière a particulièrement retenu l’attention. Grâce à sa capacité à traiter des requêtes complexes et nuancées, la recherche approfondie permet aux utilisateurs d’obtenir des résultats structurés, comme des rapports synthétiques, des articles scientifiques ou des synthèses en une page, en s’appuyant sur des sources multiples et correctement citées. Un atout majeur de cette approche réside dans sa résistance aux hallucinations et aux biais : puisqu’elle repose sur une démarche de vérification rigoureuse et s’aligne sur les intérêts spécifiques de l’utilisateur, elle produit des résultats plus fiables. Toutefois, cette puissance repose sur une infrastructure technique complexe. Comme l’ont révélé récemment OpenAI, leurs capacités de recherche approfondie s’appuient sur une architecture à plusieurs modèles orchestrés — pour la désambiguïsation, la reformulation, la clarification — ce qui rend le processus très sophistiqué. Le principal inconvénient ? Ce système fonctionne comme une « boîte noire », où l’ensemble des décisions — sélection d’outils, gestion de l’état, raisonnement — est intégré dans un seul modèle. Cela pose des risques importants pour les entreprises, notamment en matière de conformité, de contrôle des données et de dépendance vis-à-vis d’un fournisseur de modèles. C’est ici que le cadre Universal Deep Research (UDR) de NVIDIA se distingue. Il s’agit d’un cadre généraliste et agencé, conçu pour s’insérer autour de n’importe quel modèle linguistique, sans nécessiter de fine-tuning ni d’entraînement supplémentaire. Cette caractéristique garantit une indépendance accrue : les organisations ne sont pas liées à une version spécifique d’un modèle, ni exposées au risque de dépréciation de leur investissement. L’idéal consiste à l’associer à un modèle open source auto-hébergé, ou à une instance privée, offrant ainsi un contrôle total sur les données et les processus. Le cadre UDR repose sur quatre composantes clés. Premièrement, la gestion de l’état : au lieu de s’appuyer sur une fenêtre contextuelle en expansion, UDR stocke toutes les données intermédiaires sous forme de variables nommées dans l’environnement d’exécution. Cette approche permet de fonctionner efficacement dans une fenêtre contextuelle réduite — des tests ont montré qu’une capacité de 8 000 tokens suffisait pour mener à bien des recherches complexes. Deuxièmement, les outils sont appelés via des appels synchrones, offrant transparence et prévisibilité. Grâce à la persistance des données en dehors du contexte du modèle, les résultats des étapes antérieures peuvent être réutilisés à tout moment, même après de longues séquences d’interaction. Troisièmement, le raisonnement n’est plus centralisé dans le modèle linguistique. À la place, celui-ci est utilisé comme une fonctionnalité ciblée — pour la synthèse, le classement ou l’extraction — en accord avec les étapes définies par l’utilisateur. Cette architecture décentralisée permet une meilleure traçabilité et une meilleure gestion des décisions. Enfin, l’utilisateur peut créer, modifier et affiner librement ses propres stratégies de recherche, sans aucune intervention technique ou entraînement supplémentaire. En somme, UDR représente une avancée majeure vers une recherche intelligente, contrôlée, transparente et adaptable — une solution idéale pour les organisations soucieuses de sécurité, de conformité et d’autonomie dans leur utilisation de l’IA générative.
