Xcode intègre des agents d'IA d'Anthropic et OpenAI via MCP
Apple a annoncé la mise à jour Xcode 26.3, une version candidate désormais disponible sur le site des développeurs, qui introduit une nouvelle fonctionnalité clé : l’intégration directe d’outils de codage agents, comme Claude Agent d’Anthropic ou Codex d’OpenAI, dans son environnement de développement intégré (IDE). Cette mise à jour s’inscrit dans la continuité de la version Xcode 26 lancée l’année dernière, qui avait déjà permis l’accès à ChatGPT et Claude. Avec cette évolution, les modèles d’intelligence artificielle peuvent désormais interagir plus profondément avec les fonctionnalités de Xcode, grâce à une architecture optimisée pour la performance, notamment en matière d’utilisation des tokens et d’appel d’outils. Le cœur de cette innovation repose sur le protocole Model Context Protocol (MCP), qui permet à Xcode d’exposer ses capacités aux agents externes. Grâce à MCP, les agents peuvent désormais effectuer des tâches complexes telles que l’exploration du projet, la compréhension de sa structure, la gestion des fichiers, la prévisualisation du code, l’accès aux extraits (snippets) ou encore la consultation de la documentation développeur la plus récente d’Apple. Cette intégration garantit que les modèles utilisent les dernières API et respectent les bonnes pratiques de développement. Les développeurs peuvent activer ces fonctionnalités via les paramètres de Xcode, où ils choisissent l’agent souhaité (Claude, Codex ou d’autres compatibles MCP) et se connectent aux fournisseurs d’IA en se connectant à leur compte ou en ajoutant une clé API. Un menu déroulant permet de sélectionner la version du modèle à utiliser, comme GPT-5.2-codex ou GPT-5.1-mini. Une boîte de prompt située sur le côté gauche de l’interface permet aux utilisateurs de formuler leurs demandes en langage naturel, par exemple : « Ajoute une fonctionnalité à mon application utilisant la bibliothèque Core Data avec une interface utilisateur dynamique. » Une fois lancé, l’agent décompose la tâche en étapes plus petites, ce qui rend son raisonnement transparent. Il consulte d’abord la documentation nécessaire avant de commencer à coder. Les modifications sont affichées visuellement dans le code, tandis que le transcript du projet, situé sur le côté, détaille chaque action entreprise. Cette transparence devrait particulièrement aider les débutants à comprendre le processus de développement. Pour accompagner cette sortie, Apple organise une session « code-along » en direct jeudi sur son site dédié, où les utilisateurs peuvent apprendre en temps réel à utiliser ces outils. À la fin de son processus, l’agent vérifie que le code fonctionne correctement via des tests automatisés. S’il détecte des erreurs, il peut itérer pour corriger le code. Apple recommande aux développeurs d’encourager l’agent à planifier avant d’écrire, ce qui améliore la qualité du résultat. Enfin, chaque modification est sauvegardée comme un point de reprise, permettant aux utilisateurs de revenir facilement à l’état initial du projet à tout moment. Grâce au protocole MCP, cette fonctionnalité n’est pas limitée aux seuls modèles d’OpenAI ou d’Anthropic. Elle est conçue pour être ouverte à tout agent compatible, ouvrant la voie à une écosystème plus large d’outils d’IA intégrés à Xcode. Cette avancée marque une étape majeure dans l’évolution du développement logiciel, en rendant l’IA non seulement un assistant, mais un collaborateur actif et responsable dans la création d’applications Apple.
