Claude accède en temps réel au web grâce à une recherche intégrée — mais c’est le modèle qui décide quand, quoi et comment chercher
L’outil de recherche web d’Anthropic permet à Claude d’accéder directement à des contenus en temps réel sur le web, lui permettant de répondre à des questions avec des informations actualisées au-delà de sa date de formation. Cependant, cette fonctionnalité ne peut être déclenchée directement par l’utilisateur : elle doit être intégrée dans la liste des outils d’une requête API via un champ tools, comme suit : json { "type": "web_search_20250305", "name": "web_search", "max_uses": 5 } C’est le modèle lui-même, Claude, qui décide, en fonction du contexte de la question, s’il a besoin d’effectuer une recherche. Cette approche décentralise la prise de décision au sein du modèle, transformant l’agent en un système autonome, flexible et adaptatif. Elle simplifie la création d’applications agenty, car Claude peut enchaîner plusieurs recherches de manière intelligente sans que le développeur doive scripter chaque étape. Tout se déroule côté serveur, dans une seule requête, avec une gestion interne des boucles si nécessaire. Claude utilise Brave Search comme fournisseur de résultats. Une couche de chiffrement est appliquée aux données sensibles, notamment aux extraits de résultats et aux indices de citation, pour garantir la confidentialité, surtout dans les conversations multi-tours. Ces données sont retournées sous forme chiffrée (ex. : ErsSCioIBxgCIiQ0YTBiYzU1Yi03MWUxLTQzOGItOGJiMC1lM2YxMDhjYTI0ZDIS...), ce qui empêche toute exposition directe des contenus sensibles. Anthropic gère ce chiffrement automatiquement, sans que le développeur ait besoin de comprendre les mécanismes cryptographiques sous-jacents. L’effet de cette architecture est une réduction du contrôle traditionnel sur le flux d’exécution — typiquement assuré par un système d’exploitation logiciel (conditions, boucles, frameworks). Ici, la logique décisionnelle est intégrée dans le modèle lui-même, ce qui rend l’application plus fluide mais aussi plus opaque. Si Claude fait une erreur ou décide de rechercher à mauvais escient, cette décision est absorbée dans le « black box » du modèle, augmentant ainsi le risque d’hallucinations ou de décisions biaisées. Le cas d’usage illustré, une requête sur la météo à San Francisco, montre que Claude a automatiquement déclenché une recherche, récupéré plusieurs résultats chiffrés provenant de sites comme Weather Underground, AccuWeather ou The Weather Channel, puis a extrait les informations pertinentes, cité les sources via des indices chiffrés, et résumé les conditions actuelles : température autour de 60–70 °F, vents modérés, ciel nuageux avec soleil l’après-midi, et un climat typique de l’été californien. L’ensemble est fourni en une seule réponse, avec une gestion transparente des citations et des sources. En résumé, cet outil représente une avancée majeure vers des systèmes agents autonomes, mais soulève des enjeux de transparence, de contrôle et de fiabilité. Il réduit la charge du développeur au profit d’une intelligence décisionnelle intégrée, mais déplace le risque vers l’interprétabilité et la confiance dans le modèle. Pour les experts du domaine, cette évolution marque une transition clé vers des applications où le LLM devient non plus un simple outil, mais le cœur opérationnel de l’application elle-même.
