Amazon dément les allégations du Financial Times sur une panne liée à l’IA
Amazon réfute le rapport du Financial Times sur la panne de service causée par l’IA Le 19 février 2026, le Financial Times a publié un article selon lequel Amazon Web Services (AWS), le pilier de l’infrastructure numérique mondiale, aurait connu une panne majeure en décembre 2025, provoquée par ses propres outils d’intelligence artificielle, notamment un assistant « agissant » nommé Kiro. Selon le journal, cet outil aurait pris la décision, sans intervention humaine, de supprimer entièrement un environnement technique dans un effort pour résoudre un problème, entraînant ainsi une interruption de 13 heures du service AWS Cost Explorer — la plateforme permettant aux utilisateurs de suivre et de gérer leurs dépenses cloud. Ce récit a rapidement fait le tour des médias, alimentant les craintes déjà existantes quant à la mise en œuvre d’IA autonome dans des systèmes critiques. Pourtant, moins de 24 heures après la publication du rapport, Amazon a réagi publiquement pour contredire l’ensemble de l’affaire, affirmant que le récit était fondamentalement erroné. Amazon affirme que la cause réelle de la panne était une erreur humaine, non pas un comportement autonome ou imprévu d’un système d’IA. Selon la société, un ingénieur en charge de la maintenance a commis une erreur de configuration lors d’une intervention sur un système de surveillance interne. Cette erreur a déclenché une cascade de dysfonctionnements, entraînant l’indisponibilité du service Cost Explorer pendant plusieurs heures. L’entreprise précise que, bien qu’elle utilise des outils d’IA pour aider ses équipes — notamment pour automatiser certaines tâches de détection ou de diagnostic — aucun système d’IA n’a pris de décision critique ou exécuté une action de suppression d’environnement sans supervision humaine. Le nom de l’assistant « Kiro » n’a jamais été utilisé dans le cadre de l’incident, et aucune fonction d’IA agente n’était activée à ce moment-là. Amazon souligne également que les outils d’IA sont soumis à des protocoles stricts de contrôle, d’approbation et de supervision, et qu’aucune décision pouvant affecter la production n’est prise automatiquement par un système autonome. La société insiste sur le fait que l’incident est un rappel des risques liés à l’humain dans les opérations complexes, et non une preuve de défaillance de l’intelligence artificielle. Le Financial Times a confirmé avoir reçu des informations de sources internes, mais n’a pas fourni de preuves concrètes ou de traces techniques permettant de corroborer son récit. En réponse, Amazon a rappelé que les rapports d’incident internes, disponibles pour les clients et les partenaires, ne mentionnent pas l’IA comme cause. En définitive, l’affaire illustre à quel point les récits médiatiques peuvent amplifier des inquiétudes technologiques, même en l’absence de preuves. Amazon affirme avoir tiré des enseignements de l’incident pour renforcer ses processus de sécurité et de formation, tout en maintenant sa confiance dans l’utilisation contrôlée de l’intelligence artificielle comme outil d’assistance, non comme décideur autonome.
