HyperAIHyperAI

Command Palette

Search for a command to run...

xAI dévoile sa nouvelle tarification : modèles avancés, outils intelligents et économies grâce au cache de prompts

xAI propose une gamme de modèles d’intelligence artificielle avec des tarifs clairs basés sur l’utilisation des tokens, des outils et des fonctionnalités avancées. Les modèles linguistiques sont facturés par million de tokens, avec des tarifs variant selon la puissance et la spécialisation. Par exemple, grok-code-fast-1256 coûte 6,000 $ le million de tokens, tandis que grok-4-fast-reasoning et grok-4-fast-non-reasoning sont facturés 2 000 000 $ le million, pour des contextes de 4 millions de tokens. Les modèles comme grok-3-mini et grok-3 ont des limites de contexte de 2M et 4M tokens respectivement, avec des tarifs de 131 072 $ le million. Les modèles vision, tels que grok-2-vision-1212, sont disponibles dans plusieurs régions (us-east-1, eu-west-1) et supportent à la fois le texte et les images, avec des limites de 32 768 tokens. Les modèles d’image générative, comme grok-2-image-1212, sont facturés à 300 $ par image générée. L’utilisation d’outils serveur, tels que la recherche web, l’analyse d’images ou de vidéos, ou l’exécution de code, est facturée séparément. Par exemple, une recherche web ou sur X coûte 10 $ par 1 000 appels, tandis que l’exécution de code Python est également à 10 $ par 1 000 appels. Les outils d’analyse d’image ou de vidéo ne sont pas facturés directement, mais le traitement des tokens associés l’est. Les outils MCP distants ne sont pas facturés à l’appel, mais uniquement en fonction des tokens utilisés. La recherche en temps réel est tarifée à 25 $ par 1 000 sources consultées (Web, X, Actualités, RSS), avec une facturation unique par source par requête, même si plusieurs citations sont retournées. Le nombre de sources utilisées est indiqué dans la réponse API via le champ num_sources_used. Pour la recherche dans des documents ou collections, le coût est de 2,50 $ par 1 000 requêtes. Le stockage de fichiers et de collections est gratuit. Une petite pénalité de 0,05 $ par requête s’applique en cas de violation des règles d’utilisation, bien que ce soit rare. Certains modèles bénéficient d’alias comme <modelname> ou <modelname>-latest, recommandés pour bénéficier automatiquement des dernières améliorations. L’accès aux modèles dépend de la localisation géographique, des limites de compte et des disponibilités en temps réel, consultables sur la console xAI. Chaque modèle a des capacités d’entrée (texte, image) et de sortie (texte, image), avec une fenêtre contextuelle maximale déterminant la quantité de tokens acceptés dans une requête. Pour les conversations, la somme de tous les tokens du historique doit rester inférieure à cette limite. Une fonction de mise en cache des prompts permet de réduire les coûts sur les requêtes répétées, en réutilisant les données stockées. Ce mécanisme est activé par défaut, et la consommation de tokens mis en cache est visible dans l’objet usage. En résumé, xAI offre une infrastructure flexible et transparente, adaptée aux utilisateurs avancés et aux entreprises, avec une tarification modulaire et des fonctionnalités poussées pour les applications complexes. Les experts du secteur soulignent la pertinence de cette approche pour les projets nécessitant une puissance de traitement élevée, notamment en recherche, analyse de données ou développement d’agents autonomes. Les entreprises comme OpenAI ou Anthropic ont des modèles similaires, mais xAI se distingue par son intégration étroite avec X (anciennement Twitter) et ses outils spécialisés pour l’exploration en temps réel.

Liens associés

Hacker NewsHacker News
xAI dévoile sa nouvelle tarification : modèles avancés, outils intelligents et économies grâce au cache de prompts | Articles tendance | HyperAI