HyperAIHyperAI
il y a 17 jours

SHAKTI : un Modèle Linguistique Petit de 2,5 Milliards de Paramètres Optimisé pour l’IA Frontale et les Environnements à Faibles Ressources

Shakhadri, Syed Abdul Gaffar, KR, Kruthika, Aralimatti, Rakshit
SHAKTI : un Modèle Linguistique Petit de 2,5 Milliards de Paramètres Optimisé pour l’IA Frontale et les Environnements à Faibles Ressources
Résumé

Nous présentons Shakti, un modèle linguistique de 2,5 milliards de paramètres spécifiquement optimisé pour les environnements à ressources limitées, tels que les dispositifs embarqués, y compris les smartphones, les appareils portables et les systèmes IoT. Shakti allie performance élevée en traitement du langage naturel (NLP) à une efficacité et une précision optimisées, ce qui en fait une solution idéale pour les applications d’intelligence artificielle en temps réel où les ressources computationnelles et la mémoire sont contraintes. Grâce à sa prise en charge des langues vernaculaires et de tâches spécifiques à certains domaines, Shakti se distingue dans des secteurs tels que la santé, la finance et le service client. Les évaluations sur benchmarks démontrent que Shakti se positionne compétitivement par rapport à des modèles plus volumineux tout en maintenant une latence faible et une efficacité locale sur le dispositif, le plaçant ainsi en tête des solutions innovantes pour l’IA au bord du réseau (edge AI).

SHAKTI : un Modèle Linguistique Petit de 2,5 Milliards de Paramètres Optimisé pour l’IA Frontale et les Environnements à Faibles Ressources | Articles de recherche récents | HyperAI