HyperAIHyperAI

Command Palette

Search for a command to run...

Google lance EmbeddingGemma : un modèle d’embeddings léger et puissant pour les appareils mobiles

Google vient de dévoiler EmbeddingGemma, un nouveau modèle d’encodage de texte open source conçu spécifiquement pour les appareils mobiles. Développé par l’équipe de recherche en apprentissage profond de Google, ce modèle, doté de seulement 308 millions de paramètres, s’impose comme le meilleur modèle multilingue d’encodage de texte pour les architectures de moins de 500 millions de paramètres selon le benchmark MTEB (Massive Text Embedding Benchmark). L’un des atouts majeurs d’EmbeddingGemma réside dans sa performance remarquable malgré sa taille réduite : elle rivalise avec des modèles deux fois plus gros, tout en restant extrêmement léger. Ce modèle est particulièrement adapté aux applications nécessitant une exécution hors ligne, comme les chatbots personnalisés, la recherche de fichiers ou les systèmes de génération renforcée par la recherche (RAG), sans dépendre d’une connexion Internet. Grâce à sa flexibilité, EmbeddingGemma permet d’adapter la dimension de sortie des vecteurs d’encodage entre 768 et 128, offrant une grande souplesse selon les besoins de l’application. Il supporte également une fenêtre contextuelle de 2000 tokens, ce qui permet de traiter efficacement des textes longs tout en maintenant une performance optimale sur des appareils courants comme les smartphones, les ordinateurs portables ou les stations de travail. Le modèle s’intègre aisément à des outils populaires tels que sentence-transformers, MLX ou Ollama, ce qui facilite son intégration dans les pipelines de développement existants. Dans un cadre RAG, EmbeddingGemma transforme les textes en représentations numériques dans un espace vectoriel, permettant de mesurer la similarité sémantique entre les requêtes utilisateurs et les documents stockés. Cette capacité permet de sélectionner les extraits les plus pertinents, garantissant ainsi des réponses précises et contextualisées. Sur le plan technique, EmbeddingGemma a été optimisé pour rapidité et efficacité : son temps de calcul pour une inférence d’encodage est inférieur à 15 millisecondes, ce qui rend possible une interaction en temps réel. Son faible coût en ressources le rend idéal pour les applications mobiles ou les serveurs à faible puissance. Enfin, son fonctionnement hors ligne renforce considérablement la protection de la vie privée des utilisateurs, car les données ne quittent pas l’appareil. Cela en fait un choix privilégié pour les développeurs souhaitant créer des applications intelligentes, sécurisées et autonomes. En résumé, EmbeddingGemma allie petite taille, haute performance, intégration facile et confidentialité. Il ouvre la voie à une nouvelle génération d’applications d’intelligence artificielle accessibles directement sur les appareils mobiles, sans compromis sur la qualité ou la sécurité. Pour en savoir plus : https://developers.googleblog.com/en/introducing-embeddinggemma/

Liens associés

Google lance EmbeddingGemma : un modèle d’embeddings léger et puissant pour les appareils mobiles | Articles tendance | HyperAI