HyperAIHyperAI

Command Palette

Search for a command to run...

南大团队破局AI隐私困局:本地化部署+国产显卡,手机也能跑强模型

L’alerte sur la vie privée liée à l’intelligence artificielle s’est amplifiée en 2023, après que Samsung ait subi plusieurs fuites d’informations sensibles suite à l’intégration de ChatGPT. Des employés ont en effet saisi des données confidentielles — paramètres de semi-conducteurs, code source, taux de rendement de production — directement dans l’interface du modèle, exposant ces informations à la base de données d’entraînement d’OpenAI. Ce type de risque, que l’on retrouve dans les domaines publics, personnels ou industriels, met en lumière les dangers inhérents à l’usage des modèles d’IA centralisés dans le cloud. En effet, la plupart des applications mobiles d’IA fonctionnent en envoyant les requêtes des utilisateurs vers des serveurs distants, ce qui exige l’acceptation de politiques de traitement des données, souvent floues ou peu transparentes. Ce modèle repose sur une dépendance croissante envers quelques plateformes mondiales, menaçant à long terme la sécurité des données et l’autonomie numérique. Face à ce défi, une équipe de l’Institut de l’informatique de l’Université de Nanjing, dirigée par le chercheur Li Meng, a récemment mis au point une avancée majeure : une méthode de déploiement local des grands modèles d’IA, compatible avec les cartes graphiques chinoises, offrant une solution prometteuse pour protéger la vie privée tout en réduisant les coûts matériels. Leur recherche, publiée sur arXiv, s’inscrit dans une vision plus large : rendre l’IA accessible, sécurisée et abordable, même sur des dispositifs à ressources limitées. L’innovation clé repose sur une découverte fondamentale : dans les modèles à experts mixtes (MoE), les experts à faible performance peuvent être remplacés sans perte significative de précision. Cette observation, initialement théorique, a conduit à la conception d’un système original qui augmente de plus de deux fois le taux de succès de la mémoire cache des experts, optimisant ainsi l’utilisation de la mémoire vidéo (VRAM). Cette amélioration permet, par exemple, d’exécuter des tâches qui nécessitaient deux cartes graphiques sur une seule, rendant le déploiement d’IA sur des appareils de petite taille — comme les smartphones ou les serveurs domestiques — bien plus réaliste. Un des enjeux majeurs actuels est la contrainte de mémoire sur les smartphones, dont la mémoire vive est déjà fortement sollicitée par les applications. La plupart des modèles d’IA locaux actuels sont fortement compressés, ce qui nuit à leur performance. Grâce à la stratégie de chargement dynamique des poids du modèle — en ne gardant en mémoire que les parties actuellement utilisées, et en stockant le reste sur le disque —, l’équipe a réussi à réduire de plus de la moitié la consommation de mémoire, sans sacrifier la précision. Cela signifie que des modèles plus puissants pourraient fonctionner sur des smartphones actuels, sans qu’il soit nécessaire d’acheter un modèle à mémoire plus grande. Ce progrès prend tout son sens dans le contexte de la limitation d’accès aux cartes graphiques étrangères, notamment celles d’NVIDIA, en raison de restrictions commerciales. L’équipe a collaboré avec des fabricants chinois de puces, qui, bien que dotés d’une puissance de calcul suffisante, souffrent d’un manque de mémoire vidéo. C’est dans ce cadre qu’ils ont testé et validé leur approche, non seulement sur des cartes chinoises, mais aussi sur des plateformes internationales, prouvant sa robustesse et sa portabilité. Li Meng souligne que cette recherche a profondément changé sa perception des technologies nationales. Avant ce projet, il doutait de la maturité de l’écosystème matériel chinois. Aujourd’hui, il constate une croissance rapide, malgré des défis encore présents dans les outils de développement. L’expérience a renforcé sa conviction : l’avenir de l’IA ne réside pas dans l’optimisation isolée du matériel ou du logiciel, mais dans une co-conception intelligente entre les trois, en un cycle d’itérations continues. Son rêve ? Faire que l’intelligence artificielle devienne aussi abordable que l’eau ou l’électricité. En réduisant le coût unitaire de chaque opération d’IA, il imagine un avenir où des modules de quelques dizaines ou centaines d’euros pourraient doter n’importe quel appareil d’une intelligence avancée. Cela libérerait l’humanité de tâches répétitives, favorisant l’innovation et la créativité. Comme l’arrivée de l’eau courante a transformé la vie quotidienne, Li Meng croit que l’IA au bord du réseau — au niveau du dispositif — pourrait faire de même, rendant la technologie intelligente accessible à tous.

Liens associés

南大团队破局AI隐私困局:本地化部署+国产显卡,手机也能跑强模型 | Articles tendance | HyperAI