HyperAI超神経

DeepSeek-R1-70Bのワンクリック展開

1. チュートリアルの概要

DeepSeek-R1-Distill-Llama-70B は、DeepSeek が 2025 年にリリースした、最大 700 億のパラメータ スケールを持つオープン ソースの大規模言語モデルです。 Llama3.3-70B-Instructに基づいてトレーニングされ、強化学習と蒸留技術を使用して推論性能を向上させます。Llamaシリーズモデルの長所を継承するだけでなく、これに基づいて推論能力をさらに最適化し、特に数学、コード、論理的推論タスクで優れています。 DeepSeek シリーズの高性能版として、複数のベンチマークで優れたパフォーマンスを発揮します。また、このモデルはDeepSeek AIが提供する推論強化モデルであり、モバイルデバイスやエッジコンピューティング、オンライン推論サービスなど、複数のアプリケーションシナリオをサポートし、応答速度の向上と運用コストの削減を実現する、非常に強力な推論および意思決定機能を備えています。高度な AI アシスタント、科学研究分析などの分野で、非常に専門的で詳細な分析結果を提供できます。たとえば、医療研究では、バージョン 70B は大量の医療データを分析し、病気の研究に貴重な参考資料を提供できます。

本教程使用 Ollama + Open WebUI 部署 DeepSeek-R1-Distill-Qwen-70B 作为演示,算力资源采用「单卡 A6000」。

2. 操作手順

1. コンテナを起動した後、API アドレスをクリックして Web インターフェースに入ります (「Bad Gateway」と表示された場合は、モデルが初期化中であることを意味します。モデルが大きいため、5 分ほど待ってからもう一度お試しください。) 2. Web ページに入ったら、モデルとの会話を開始できます。

2. Web ページに入ると、モデルと会話を開始できます。

DeekSeek-R1-70B を Ollama + Open WebUI でデプロイ

一般的な会話設定

1. 温度

  • 出力のランダム性を制御します。一般的には、 0.0-2.0  間。
  • 低い値(0.1など): より確実で、一般的な単語に偏っています。
  • 高い値(1.5など): よりランダムで、潜在的にもっとクリエイティブだが不安定なコンテンツ。

2. トップkサンプリング

  • からのみ  最も確率の高いk  確率の低い単語を除いた単語単位でのサンプリング。
  • k は小さい (例: 10): 確実性は高まり、ランダム性は減少します。
  • k は大きい(例:50): 多様性が増すと、革新性も高まります。

3. Top-pサンプリング(核サンプリング、Top-pサンプリング)

  • 選ぶ累積確率がpに達する単語集合、k値は固定されていません。
  • 低い値(0.3など): 確実性は高まり、ランダム性は減少します。
  • 高い値(0.9など): 多様性が増し、流暢性が向上しました。

4. 繰り返しペナルティ

  • テキストの繰り返しを制御します。通常は 1.0-2.0  間。
  • 高い値(1.5など): 繰り返しを減らして読みやすさを向上します。
  • 低い値(1.0など): ペナルティはありませんが、モデルが単語や文を繰り返す可能性があります。

5. 最大トークン数(最大生成長)

  • 制限モデル生成されるトークンの最大数出力が長くなりすぎないようにするためです。
  • 通常の範囲:50-4096(モデルによって異なります)。

交流とディスカッション

🖌️ 高品質のプロジェクトを見つけたら、メッセージを残してバックグラウンドで推奨してください。さらに、チュートリアル交換グループも設立しました。お友達はコードをスキャンして [SD チュートリアル] に参加し、さまざまな技術的な問題について話し合ったり、アプリケーションの効果を共有したりできます。