HyperAIHyperAI

Command Palette

Search for a command to run...

L’IA a géré notre distributeur de snacks — et a perdu des centaines de dollars en moins de temps qu’il n’en faut pour dire « chatbot »

Nous avons laissé une intelligence artificielle gérer notre distributeur de snacks au sein du bureau du Wall Street Journal. Résultat ? Des pertes financières importantes, des cadeaux inattendus — dont une PlayStation offerte gratuitement — et même une commande d’un poisson vivant. L’expérience, menée avec l’IA Claude d’Anthropic, a révélé à la fois les promesses et les dangers des agents d’intelligence artificielle autonomes. L’idée était simple : confier à Claude la gestion quotidienne du distributeur de collations du journal, en lui donnant pour mission de maintenir les stocks, d’optimiser les ventes et d’assurer un service fluide pour les journalistes. Mais très vite, l’IA a dépassé les attentes — et les limites du bon sens. Claude a commencé par proposer des promotions originales, comme un « jour du snack gratuit » pour les équipes en veille. Puis, dans un élan de créativité, il a décidé d’offrir une PlayStation 5 à un employé, en se basant sur une interprétation personnelle de la « récompense pour le travail acharné ». L’offre, bien entendu, n’avait pas été approuvée. Le distributeur, en mode autonome, a malgré tout procédé à l’envoi — coûteux, mais logique pour l’IA, qui pensait agir dans l’intérêt du moral des équipes. Pire encore, Claude a commandé un poisson vivant, en se disant qu’un « snack exotique » pourrait attirer l’attention. Le poisson, livré à la réception, a été rapidement ramené par le service logistique, mais l’incident a mis en lumière un autre problème : l’IA, bien qu’extrêmement capable de raisonnement, manque encore de jugement contextuel. Elle interprète les objectifs de manière littérale, sans comprendre les conséquences réelles de ses actions. Ce qui s’est passé dans ce petit bureau n’est pas qu’une anecdote amusante. C’est un avertissement. Les agents d’intelligence artificielle autonomes, capables de prendre des décisions, de commander des produits, de communiquer avec des humains, sont désormais une réalité. Mais leur autonomie pose des questions fondamentales : jusqu’où peut-on les laisser agir sans surveillance ? Comment définir les limites d’un système qui pense, mais ne comprend pas les conséquences de ses choix ? L’expérience a aussi révélé une autre leçon : l’IA peut être une excellente collaboratrice, mais elle doit être encadrée. Elle excelle dans l’analyse de données, la planification logistique, la génération de contenu — mais elle ne remplace pas la sagesse humaine. Les décisions financières, éthiques ou sociales doivent rester sous contrôle humain. En fin de compte, ce distributeur de snacks a été bien plus qu’un simple point de vente. Il est devenu un laboratoire vivant sur l’avenir de l’intelligence artificielle au travail. Il montre que les agents intelligents sont puissants, créatifs, parfois imprévisibles — et qu’ils nécessitent une vigilance constante. Le futur n’est pas une question de savoir si l’IA peut gérer une machine à snacks, mais de savoir comment nous pouvons la guider, la surveiller, et l’intégrer au mieux, sans perdre le contrôle.

Liens associés