Le projet Kimi-VL est un grand modèle de langage publié par l'équipe Kimi en avril 2025. Il s'agit d'un modèle de langage visuel (VLM) open source efficace et mixte d'experts (MoE) qui fournit un raisonnement multimodal avancé, une compréhension du contexte long et de puissantes capacités d'agent. Les résultats pertinents de l'article sontRapport technique Kimi-VL".
Ce tutoriel utilise des ressources RTX 4090 à double carte.
👉 Le projet fournit deux modèles de modèles :
Kimi-VL-A3B-Instruct : Convient pour une utilisation dans la perception et la compréhension multimodales, l'OCR, les longues vidéos et les longs documents, la perception vidéo et les agents.
Kimi-VL-A3B-Réflexion : Convient à une utilisation avec un texte de haut niveau et un raisonnement multimodal (par exemple, les mathématiques).
2. Exemples de projets
3. Étapes de l'opération
1. Après avoir démarré le conteneur, cliquez sur l'adresse API pour accéder à l'interface Web
Si « Modèle » n'est pas affiché, cela signifie que le modèle est en cours d'initialisation. Étant donné que le modèle est grand, veuillez patienter environ 1 à 2 minutes et actualiser la page.
2. Après être entré sur la page Web, vous pouvez démarrer une conversation avec le modèle
❗️Conseils d’utilisation importants :
La vitesse de réponse est plus rapide lorsque vous utilisez le mode Compact.
Lorsque vous utilisez le mode détaillé, le temps de réponse est plus long, environ trois à cinq minutes.
Comment utiliser
4. Discussion
🖌️ Si vous voyez un projet de haute qualité, veuillez laisser un message en arrière-plan pour le recommander ! De plus, nous avons également créé un groupe d’échange de tutoriels. Bienvenue aux amis pour scanner le code QR et commenter [Tutoriel SD] pour rejoindre le groupe pour discuter de divers problèmes techniques et partager les résultats de l'application↓
V. Informations sur la citation
Merci à l'utilisateur Github xxxjjjyyy1 Pour la réalisation de ce tutoriel, les informations de référence du projet sont les suivantes :
@misc{kimiteam2025kimivltechnicalreport,
title={{Kimi-VL} Technical Report},
author={Kimi Team and Angang Du and Bohong Yin and Bowei Xing and Bowen Qu and Bowen Wang and Cheng Chen and Chenlin Zhang and Chenzhuang Du and Chu Wei and Congcong Wang and Dehao Zhang and Dikang Du and Dongliang Wang and Enming Yuan and Enzhe Lu and Fang Li and Flood Sung and Guangda Wei and Guokun Lai and Han Zhu and Hao Ding and Hao Hu and Hao Yang and Hao Zhang and Haoning Wu and Haotian Yao and Haoyu Lu and Heng Wang and Hongcheng Gao and Huabin Zheng and Jiaming Li and Jianlin Su and Jianzhou Wang and Jiaqi Deng and Jiezhong Qiu and Jin Xie and Jinhong Wang and Jingyuan Liu and Junjie Yan and Kun Ouyang and Liang Chen and Lin Sui and Longhui Yu and Mengfan Dong and Mengnan Dong and Nuo Xu and Pengyu Cheng and Qizheng Gu and Runjie Zhou and Shaowei Liu and Sihan Cao and Tao Yu and Tianhui Song and Tongtong Bai and Wei Song and Weiran He and Weixiao Huang and Weixin Xu and Xiaokun Yuan and Xingcheng Yao and Xingzhe Wu and Xinxing Zu and Xinyu Zhou and Xinyuan Wang and Y. Charles and Yan Zhong and Yang Li and Yangyang Hu and Yanru Chen and Yejie Wang and Yibo Liu and Yibo Miao and Yidao Qin and Yimin Chen and Yiping Bao and Yiqin Wang and Yongsheng Kang and Yuanxin Liu and Yulun Du and Yuxin Wu and Yuzhi Wang and Yuzi Yan and Zaida Zhou and Zhaowei Li and Zhejun Jiang and Zheng Zhang and Zhilin Yang and Zhiqi Huang and Zihao Huang and Zijia Zhao and Ziwei Chen},
year={2025},
eprint={2504.07491},
archivePrefix={arXiv},
primaryClass={cs.CV},
url={https://arxiv.org/abs/2504.07491},
}