HyperAIHyperAI

Command Palette

Search for a command to run...

Des chercheurs remettent en cause la prétention d'Anthropic : l'attaque assistée par IA n'était pas à 90 % autonome

Les chercheurs remettent en question la prétention d’Anthropic selon laquelle une attaque informatique assistée par l’intelligence artificielle aurait été menée à 90 % de manière autonome. Bien que l’entreprise ait présenté cette expérience comme une avancée majeure dans le domaine de l’IA, des experts indépendants soulignent que les résultats sont largement exagérés. Selon eux, l’automatisation réelle de l’attaque était bien moindre que ce qui a été annoncé, et de nombreux éléments clés ont été manuellement supervisés ou configurés par des humains. L’expérience, menée dans un environnement contrôlé, visait à évaluer la capacité d’un modèle d’IA à identifier des vulnérabilités, à concevoir des exploits et à les exécuter sans intervention humaine. Cependant, les chercheurs qui ont analysé le rapport d’Anthropic estiment que l’IA n’a pas vraiment pris toutes les décisions critiques. Par exemple, la sélection des cibles, la conception des payloads et la gestion des erreurs ont été largement assurées par des experts en cybersécurité. En réalité, l’automatisation ne dépassait pas 30 à 40 %, selon les experts, ce qui signifie que l’attaque n’était pas aussi autonome qu’annoncé. Cette divergence entre les affirmations de l’entreprise et l’analyse indépendante soulève des questions sur la transparence des rapports sur les capacités réelles de l’IA en matière de cybersécurité. De plus, les chercheurs mettent en garde contre l’idée que l’IA pourrait bientôt mener des attaques complexes sans aucune surveillance humaine. Les systèmes actuels, même les plus avancés, restent limités dans leur capacité à comprendre le contexte, à s’adapter à des environnements imprévisibles ou à surmonter les défenses dynamiques. Cette controverse illustre également les risques liés à la communication excessive autour des progrès de l’IA. Une présentation exagérée des capacités de l’IA peut alimenter des craintes injustifiées, mais aussi fausser la perception du progrès technologique. Il est essentiel, selon les experts, de s’appuyer sur des évaluations indépendantes et des tests rigoureux pour mesurer l’efficacité réelle des systèmes d’IA, surtout dans des domaines sensibles comme la cybersécurité. En somme, bien que l’IA montre un potentiel prometteur pour aider à détecter et à contrer les menaces, l’idée d’attaques entièrement autonomes reste un scénario lointain. Les résultats de l’expérience d’Anthropic, loin d’être une preuve de l’autonomie avancée de l’IA, révèlent plutôt les limites actuelles de ces systèmes et la nécessité d’une vigilance accrue face aux annonces médiatiques.

Liens associés

Des chercheurs remettent en cause la prétention d'Anthropic : l'attaque assistée par IA n'était pas à 90 % autonome | Articles tendance | HyperAI