HyperAI초신경

Ollama 및 Open WebUI를 사용하여 DeepSeek R1 배포

1. 튜토리얼 소개

DeepSeek-R1은 DeepSeek이 2025년에 출시한 언어 모델 시리즈의 첫 번째 버전으로, 효율적이고 가벼운 자연어 처리 작업에 중점을 두고 있습니다. 이 모델 계열은 지식 증류와 같은 고급 기술을 통해 최적화되어 컴퓨팅 리소스 요구 사항을 줄이는 동시에 높은 성능을 유지하는 것을 목표로 합니다. DeepSeek-R1은 실제 적용 시나리오에 초점을 맞춰 설계되었으며, 빠른 배포와 통합을 지원하고, 텍스트 생성, 대화 시스템, 번역, 요약 생성을 포함한 다양한 작업에 적합합니다.

기술적인 측면에서 DeepSeek-R1은 지식 증류 기술을 사용하여 대규모 모델에서 지식을 추출하여 유사한 성능을 내는 소규모 모델을 훈련합니다. 동시에 효율적인 분산 학습 및 최적화 알고리즘을 통해 학습 시간이 더욱 단축되고 모델 개발의 효율성이 향상됩니다. 이러한 기술적 하이라이트 덕분에 DeepSeek-R1은 실제 응용 분야에서 우수한 성능을 발휘합니다.

本教程预设 DeepSeek-R1-Distill-Qwen-1.5B 、 DeepSeek-R1-Distill-Qwen-7B 、 DeepSeek-R1-Distill-Qwen-8B 、 DeepSeek-R1-Distill-Qwen-32B 四种模型作为演示,算力资源采用「单卡 RTX4090」。

2. 작업 단계

  1. 컨테이너를 복제하고 시작한 후 API 주소를 클릭하여 웹 인터페이스로 들어갑니다("잘못된 게이트웨이"가 표시되면 모델이 초기화 중임을 의미합니다. 모델이 크기 때문에 약 5분 정도 기다린 후 다시 시도하세요).

2. 웹페이지에 접속 후 모델과 대화를 시작할 수 있습니다.

알아채다:

  • 이 튜토리얼은 "온라인 검색"을 지원합니다. 이 기능을 켜면 추론 속도가 느려지는데, 이는 정상적인 현상입니다.
  • 인터페이스의 왼쪽 상단에서 모델을 전환할 수 있습니다.
Ollama+Open-Webui, DeekSeek-R1 배포

일반적인 대화 설정

1. 온도

  • 일반적으로 다음 범위 내에서 출력의 무작위성을 제어합니다. 0.0-2.0  사이.
  • 낮은 값(예: 0.1): 더 확실하고, 흔한 단어에 편향되어 있습니다.
  • 높은 값(예: 1.5): 더 무작위적이고 잠재적으로 더 창의적이지만 불규칙한 콘텐츠입니다.

2. Top-k 샘플링

  • 오직에서  가장 높은 확률을 갖는 k  확률이 낮은 단어를 제외하고 단어 단위로 샘플링합니다.
  • k는 작습니다(예: 10): 확실성은 더 크고 무작위성은 더 적습니다.
  • k가 큽니다(예: 50): 다양성이 더 커지고 혁신도 더 커집니다.

3. Top-p 샘플링(핵 샘플링, Top-p 샘플링)

  • 선택하다누적 확률이 p에 도달하는 단어 집합, k 값은 고정되어 있지 않습니다.
  • 낮은 값(예: 0.3): 확실성은 더 크고 무작위성은 더 적습니다.
  • 높은 값(예: 0.9): 다양성이 높아지고 유창성이 향상되었습니다.

4. 반복 페널티

  • 일반적으로 텍스트 반복을 제어합니다. 1.0-2.0  사이.
  • 높은 값(예: 1.5): 반복을 줄이고 가독성을 향상시킵니다.
  • 낮은 값(예: 1.0): 페널티는 없지만, 모델이 단어와 문장을 반복할 수 있습니다.

5. 최대 토큰(최대 생성 길이)

  • 제한 모델생성된 최대 토큰 수, 지나치게 긴 출력을 피하세요.
  • 일반적인 범위:50-4096(특정 모델에 따라 다름).

교류 및 토론

🖌️ 고품질 프로젝트를 발견하시면, 백그라운드에 메시지를 남겨 추천해주세요! 또한, 튜토리얼 교환 그룹도 만들었습니다. 친구들의 QR코드 스캔과 [SD 튜토리얼] 댓글을 통해 그룹에 가입하여 다양한 기술 이슈에 대해 논의하고 신청 결과를 공유해 주시기 바랍니다.↓