vLLM+Open WebUIデプロイメントII-Medical-8B医療推論モデル
1. チュートリアルの概要
II-Medical-8B は、Intelligent Internet Company が新たに開発した高度な大規模言語モデルです。医療推論のための AI 機能を強化するために特別に設計されています。これは以前の II-Medical-7B-Preview から大幅に改良されており、医療に関する質問への回答機能が大幅に強化されています。このモデルは Qwen/Qwen3-8B モデルをベースとしており、医療分野固有の推論データセットを使用して SFT (教師あり微調整) を使用し、ハード推論データセットで DAPO (可能な最適化手法) をトレーニングすることで、モデルのパフォーマンスを最適化します。関連する論文の結果は以下の通りである。大規模言語モデルのトレーニングを強化する 140 万のオープンソースの蒸留推論データセット”。
このチュートリアルでは、単一の RTX 4090 カードのリソースを使用します。
2. プロジェクト例

3. 操作手順
1. コンテナを起動した後、API アドレスをクリックして Web インターフェイスに入ります
「モデル」が表示されない場合は、モデルが初期化中であることを意味します。モデルが大きいため、1〜2分ほど待ってからページを更新してください。
2. Web ページに入ると、モデルと会話を開始できます。
利用手順

4. 議論
🖌️ 高品質のプロジェクトを見つけたら、メッセージを残してバックグラウンドで推奨してください。さらに、チュートリアル交換グループも設立しました。お友達はコードをスキャンして [SD チュートリアル] に参加し、さまざまな技術的な問題について話し合ったり、アプリケーションの効果を共有したりできます。

引用情報
Githubユーザーに感謝 xxxjjjyyy1 このチュートリアルの展開。このプロジェクトの引用情報は次のとおりです。
@misc{2025II-Medical-8B,
title={II-Medical-8B: Medical Reasoning Model},
author={Intelligent Internet},
year={2025}
}