Command Palette
Search for a command to run...
Une approche unifiée pour interpréter les prédictions des modèles
Une approche unifiée pour interpréter les prédictions des modèles
Lundberg Scott Lee Su-In
Résumé
Comprendre pourquoi un modèle émet une prédiction donnée peut être aussi crucial que la précision de cette prédiction dans de nombreuses applications. Toutefois, la précision maximale sur de grands jeux de données modernes est souvent atteinte par des modèles complexes, auxquels même les experts ont du mal à se rapporter, comme les modèles d’ensemble ou les modèles d’apprentissage profond, ce qui crée une tension entre précision et interprétabilité. À cette problématique, diverses méthodes ont récemment été proposées afin d’aider les utilisateurs à interpréter les prédictions des modèles complexes, mais il reste souvent difficile de comprendre comment ces méthodes sont liées entre elles, ni quand l’une est préférable à l’autre. Pour répondre à ce défi, nous présentons un cadre unifié pour l’interprétation des prédictions, appelé SHAP (SHapley Additive exPlanations). SHAP attribue à chaque caractéristique une valeur d’importance pour une prédiction particulière. Ses composantes novatrices incluent : (1) l’identification d’une nouvelle classe de mesures d’importance additive des caractéristiques, et (2) des résultats théoriques démontrant qu’il existe une solution unique dans cette classe possédant un ensemble de propriétés souhaitables. Cette nouvelle classe unifie six méthodes existantes, ce qui est particulièrement remarquable, car plusieurs méthodes récentes appartenant à cette catégorie ne satisfont pas les propriétés souhaitables proposées. À partir des insights tirés de cette unification, nous proposons de nouvelles méthodes offrant des performances computationnelles améliorées et/ou une meilleure cohérence avec l’intuition humaine par rapport aux approches antérieures.