HyperAIHyperAI

Command Palette

Search for a command to run...

Deloitte s’excuse et rembourse le gouvernement australien après une rapport d’IA rempli d’hallucinations

Le cabinet de conseil Deloitte a annoncé qu’il rembourserait le gouvernement australien pour un rapport sur l’intelligence artificielle qui contenait des citations fictives, suite à une erreur liée à l’utilisation non déclarée de l’outil d’IA GPT-4o. L’incident a été révélé en août, lorsque des experts ont découvert que le document, censé fournir des analyses approfondies sur les enjeux liés à l’IA, incluait des références à des études et des publications qui n’existaient pas. Face à cette erreur, Deloitte a reconnu publiquement avoir utilisé GPT-4o dans la rédaction du rapport, bien que cette pratique n’ait pas été signalée au client. L’entreprise a qualifié l’incident de « problème de qualité » et a exprimé sa regret pour les inconvénients causés. Elle a précisé que les citations fantaisistes étaient le résultat d’un « hallucination » – un phénomène courant dans les modèles d’intelligence artificielle, où l’outil génère des informations fausses en les présentant comme véridiques. Le gouvernement australien, qui avait commandé le rapport dans le cadre d’un projet visant à évaluer les impacts de l’IA sur l’économie et la société, a confirmé qu’il avait été informé de l’erreur. Il a souligné que l’erreur avait été détectée à temps, avant la diffusion publique du document, et a accepté le remboursement proposé par Deloitte. Cette décision met en lumière les risques liés à l’intégration non contrôlée des outils d’IA dans les processus professionnels, notamment dans des domaines exigeant une rigueur scientifique et une fiabilité absolue. L’affaire a suscité une vive réaction au sein des milieux professionnels et académiques, rappelant les limites actuelles des systèmes d’IA, même les plus avancés. Elle souligne également l’importance d’une supervision humaine rigoureuse, ainsi que la nécessité de transparence quant à l’utilisation des outils d’IA dans les travaux professionnels. Deloitte a indiqué qu’elle renforcerait ses protocoles internes pour éviter de telles erreurs à l’avenir, notamment en imposant des contrôles de vérification des sources et en interdisant l’utilisation non autorisée d’outils d’IA pour la production de documents critiques.

Liens associés