HyperAI

Intelligence Artificielle Explicable (XAI)

L'IA explicable (XAI) est un ensemble de processus et de méthodes qui permettent aux utilisateurs humains de comprendre et de faire confiance aux résultats et aux sorties créés par les algorithmes d'apprentissage automatique. 

XAI est utilisé pour décrire les modèles d’IA, leurs impacts prévus et leurs biais potentiels. Il permet de caractériser la précision, l’équité, la transparence et les résultats du modèle dans la prise de décision de l’IA. L’IA explicable est essentielle pour que les organisations puissent instaurer la confiance lors de la mise en production de modèles d’IA. L’explicabilité de l’IA peut également aider les organisations à adopter une approche responsable du développement de l’IA.

À mesure que l’IA devient plus avancée, les humains sont confrontés au défi de comprendre et de retracer la manière dont les algorithmes sont parvenus à leurs résultats. L’ensemble du processus informatique devient ce que l’on appelle communément une « boîte noire » inexplicable. Ces modèles de boîte noire sont créés directement à partir des données. De plus, même les ingénieurs ou les scientifiques des données qui créent les algorithmes ne peuvent pas comprendre ou expliquer exactement ce qui se passe à l’intérieur d’eux ou comment un algorithme d’IA parvient à un résultat spécifique.

Comprendre comment un système d’IA produit un résultat spécifique présente de nombreux avantages. L’explicabilité peut aider les développeurs à garantir que les systèmes fonctionnent comme prévu, peut être nécessaire pour respecter les normes réglementaires ou peut être importante pour permettre aux personnes concernées par une décision de remettre en question ou de modifier le résultat.

Références

【1】https://www.ibm.com/topics/explainable-ai