DeepSeek的首代推理模型,其效能可與OpenAI-o1相提並論,包括六個從DeepSeek-R1基於Llama和Qwen模型所精餾出的密集模型。
1.5b 7b 8b 14b 32b 70b 671b
25.5M 拉取次數 更新於 4 週前
7 週前更新
7 週前
1f1bddb1a1a2 · 30GB
model
archqwen2
·
parameters14.8B
·
quantizationF16
30GB
params
{ "stop": [ "<|begin of sentence|>", "<|end of sentence|>",
148B
template
{{- if .System }}{{ .System }}{{ end }} {{- range $i, $_ := .Messages }} {{- $last := eq (len (slice
387B
license
MIT License Copyright (c) 2023 DeepSeek Permission is hereby granted, free of charge, to any perso
1.1kB
Readme
DeepSeek首代推理模型,在數學、程式碼和推理任務中,效能可與OpenAI-o1相提並論。
模型
DeepSeek-R1
ollama run deepseek-r1:671b
精餾模型
DeepSeek團隊已證實,大型模型的推理模式可以精餾至小型模型中,相較於透過小型模型上的強化學習 (RL) 所發現的推理模式,能產生更佳的效能。
以下是透過針對研究社群廣泛使用的數個密集模型進行微調,並使用DeepSeek-R1產生的推理資料所建立的模型。評估結果顯示,精餾出的小型密集模型在基準測試中表現異常出色。
DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b
許可證
模型權重根據 MIT 許可證授權。DeepSeek-R1 系列支援商業用途,允許任何修改和衍生作品,包括但不限於,為了訓練其他 LLM 而進行精餾。請注意,
Qwen 精餾模型衍生自 Qwen-2.5 系列,該系列最初根據 Apache 2.0 許可證授權,現在使用由 DeepSeek-R1 精選的 80 萬個樣本進行微調。
Llama 8B 精餾模型衍生自 Llama3.1-8B-Base,最初根據 llama3.1 許可證授權。
Llama 70B 精餾模型衍生自 Llama3.3-70B-Instruct,最初根據 llama3.3 許可證授權。