Deloitte mise tout sur l’IA, malgré un remboursement pour un rapport rempli d’hallucinations générées par IA
Deloitte s’engage pleinement dans l’IA, malgré la nécessité de rembourser une étude fautive produite par l’intelligence artificielle. Le géant des services professionnels a annoncé un accord majeur avec Anthropic, le même jour où il a été révélé qu’il devrait rembourser une partie d’un rapport commandé par le gouvernement australien, contenant des erreurs dues à des hallucinations générées par l’IA. Ce paradoxe n’est pas anodin. Alors que Deloitte met en avant son engagement stratégique en faveur de l’IA, il fait face à une controverse sérieuse. Le département australien de l’Emploi et des Relations professionnelles avait confié à Deloitte un audit indépendant d’un montant de 439 000 dollars australiens. Ce rapport, publié plus tôt cette année, contenait plusieurs citations à des études académiques fictives, selon des révélations de l’Australian Financial Review. Une version corrigée a été publiée récemment, et Deloitte devra rembourser la dernière tranche du contrat, selon le Financial Times. Malgré ces incidents, Deloitte a annoncé lundi le déploiement à grande échelle de Claude, le chatbot d’Anthropic, auprès de ses près de 500 000 employés dans le monde. Cette initiative s’inscrit dans un partenariat lancé l’an dernier, visant à développer des outils d’IA conformes aux exigences réglementaires dans des secteurs sensibles comme les services financiers, la santé et la fonction publique. Selon des informations de CNBC, Deloitte prévoit même de créer des « personnalités d’agents IA » spécifiques à chaque département, comme les comptables ou les développeurs logiciels. Ranjit Bawa, responsable mondial des technologies et écosystèmes chez Deloitte, a souligné que l’alignement sur une approche responsable de l’IA était au cœur de cette décision. « Deloitte fait cet investissement important dans la plateforme d’IA d’Anthropic parce que notre vision de l’IA responsable est très proche, et ensemble, nous pouvons transformer la manière dont les entreprises opèrent au cours de la prochaine décennie », a-t-il écrit dans un billet de blog. Les conditions financières du partenariat, qualifié d’« alliance » par Anthropic, n’ont pas été révélées. Cependant, ce contrat représente le plus grand déploiement d’IA entreprise à ce jour pour Anthropic, illustrant la profondeur de l’intégration de l’IA dans les organisations modernes. Deloitte n’est pas seul dans cette situation. En mai, le Chicago Sun-Times a dû reconnaître avoir publié une liste de livres pour sa sélection estivale générée par l’IA, dont certains titres étaient inventés, bien que les auteurs soient réels. Une analyse interne a révélé que l’outil d’IA d’Amazon, Q Business, avait également fait preuve d’imprécision dès sa première année. Même Anthropic a été critiqué pour avoir utilisé des citations générées par son propre chatbot Claude dans une affaire judiciaire contre des éditeurs musicaux, obligeant son avocat à s’excuser publiquement. Ces incidents montrent que, malgré les progrès rapides de l’IA, la fiabilité et la vérification des contenus restent des défis majeurs. Pour Deloitte, cette alliance avec Anthropic est à la fois une démonstration de confiance dans la technologie et une réponse aux risques qu’elle comporte.
