10 Problèmes de sécurité et de vie privée dans les grands modèles fondamentaux

Les modèles fondamentaux — tels que GPT, CLIP et DINO — ont connu des progrès révolutionnaires au cours des dernières années et sont généralement considérés comme une approche prometteuse pour l’intelligence artificielle à usage général. En particulier, l’apprentissage auto-supervisé est couramment utilisé pour pré-entraîner un modèle fondamental à l’aide d’un volume important de données non étiquetées. Un modèle fondamental pré-entraîné joue un rôle analogue à un « système d’exploitation » au sein de l’écosystème de l’intelligence artificielle. Plus précisément, un tel modèle peut servir d’extraiteur de caractéristiques pour de nombreuses tâches ultérieures, même avec très peu ou aucune donnée étiquetée. Les études existantes sur les modèles fondamentaux se sont principalement concentrées sur l’amélioration de la performance du modèle pré-entraîné dans des contextes non adversariaux, laissant largement inexplorées les questions de sécurité et de vie privée dans des contextes adversariaux. Une faille de sécurité ou de confidentialité affectant un modèle fondamental pré-entraîné constitue un point de défaillance unique pour l’ensemble de l’écosystème de l’intelligence artificielle. Dans ce chapitre de livre, nous examinons dix problèmes fondamentaux de sécurité et de vie privée liés aux modèles fondamentaux pré-entraînés, comprenant six problèmes de confidentialité, trois problèmes d’intégrité et un problème d’accessibilité. Pour chacun de ces problèmes, nous analysons les opportunités potentielles ainsi que les défis associés. Nous espérons que ce chapitre inspirera des recherches futures sur la sécurité et la vie privée des modèles fondamentaux.