Anthropic lance Claude pour Chrome, son agent IA qui agit directement dans votre navigateur
Anthropic lance une version expérimentale d’un agent IA baptisé Claude pour Chrome, accessible à un groupe restreint de 1 000 abonnés au plan Max de la société, dont le prix varie entre 100 et 200 dollars par mois. Cette nouvelle fonctionnalité, présentée mardi, s’installe sous forme d’extension dans le navigateur Chrome et permet aux utilisateurs de dialoguer avec Claude dans une fenêtre latérale, tout en conservant le contexte des activités en cours sur leur navigateur. Grâce à une autorisation explicite, l’agent peut même effectuer certaines tâches automatiquement, comme remplir des formulaires ou naviguer sur des sites. Ce déploiement s’inscrit dans la course au contrôle de l’interface principale de navigation : le navigateur. Des acteurs comme Perplexity, avec son navigateur Comet, ou OpenAI, qui préparerait un navigateur intégrant une IA, s’affrontent désormais pour offrir des expériences plus fluides entre l’utilisateur et l’intelligence artificielle. Google, lui, a déjà intégré Gemini dans Chrome, renforçant sa position dans ce domaine stratégique. Ce contexte est d’autant plus tendu que Google fait face à une procédure antitrust majeure. Un juge fédéral pourrait bientôt ordonner la vente de Chrome, ce qui a suscité des rumeurs de rachat. Perplexity aurait ainsi proposé de manière non sollicitée 34,5 milliards de dollars pour le navigateur, tandis que Sam Altman, PDG d’OpenAI, aurait exprimé un intérêt similaire. Anthropic a toutefois mis en garde contre les risques de sécurité liés à ces agents IA capables d’agir directement dans le navigateur. Récemment, l’équipe de sécurité de Brave a révélé qu’un agent de Comet était vulnérable à des attaques par « injection de prompt indirecte », où un code caché sur un site web pourrait tromper l’agent pour le pousser à exécuter des actions malveillantes. Perplexity affirme avoir corrigé ce problème. Pour anticiper ces menaces, Anthropic a mis en place plusieurs mesures de sécurité. Par exemple, les utilisateurs peuvent restreindre l’accès de Claude à certains sites via les paramètres de l’application. Par défaut, l’agent est bloqué sur les sites de services financiers, de contenu adulte ou de contenus piratés. De plus, avant d’effectuer des actions à risque — comme publier, acheter ou partager des données personnelles — Claude demande toujours la confirmation de l’utilisateur. Ce n’est pas la première tentative d’Anthropic d’offrir un agent IA contrôlant l’ordinateur. En octobre 2024, la société avait lancé un prototype similaire, mais celui-ci s’était révélé lent et peu fiable. Depuis, les performances des agents agissants ont nettement progressé. Des tests menés par TechCrunch montrent que des outils comme Comet ou l’agent ChatGPT sont désormais capables de gérer efficacement des tâches simples. Toutefois, ils peinent encore face à des problèmes complexes, ce qui laisse la porte ouverte à de nouvelles améliorations.