Command Palette

Search for a command to run...

vLLM+Open WebUI の導入 KernelLLM-8B

1. チュートリアルの概要

このチュートリアルで使用されるコンピューティング リソースは、単一の RTX 4090 カードです。

KernelLLMは、Meta AIがGPUカーネル開発向けに開発した大規模言語モデルです。PyTorchモジュールを効率的なTritonカーネルコードに自動変換することで、高性能GPUプログラミングのプロセスを簡素化・高速化します。このモデルはLlama 3.1 Instructアーキテクチャをベースとし、80億個のパラメータを持ち、効率的なTritonカーネル実装の生成に重点を置いています。

2. プロジェクト例

3. 操作手順

1. コンテナを起動します

「モデル」が表示されていない場合は、モデルが初期化中であることを意味します。モデルが大きいため、2〜3分ほど待ってページを更新してください。

2. Web ページに入ると、モデルと会話を開始できます。

4. 議論

🖌️ 高品質のプロジェクトを見つけたら、メッセージを残してバックグラウンドで推奨してください。さらに、チュートリアル交換グループも設立しました。お友達はコードをスキャンして [SD チュートリアル] に参加し、さまざまな技術的な問題について話し合ったり、アプリケーションの効果を共有したりできます。

AI で AI を構築

アイデアからローンチまで — 無料の AI 共同コーディング、すぐに使える環境、最適価格の GPU で AI 開発を加速。

AI 共同コーディング
すぐに使える GPU
最適価格
今すぐ始める

Hyper Newsletters

最新情報を購読する
北京時間 毎週月曜日の午前9時 に、その週の最新情報をメールでお届けします
メール配信サービスは MailChimp によって提供されています