DeepSeek 第一代推理模型,效能與 OpenAI-o1 相近,包括六個從 DeepSeek-R1 基於 Llama 和 Qwen 蒸餾出的密集模型。
1.5b 7b 8b 14b 32b 70b 671b
25.5M 拉取次數 更新於 4 週前
更新於 7 週前
7 週前
0db4dcd4c434 · 8.5GB
模型
archllama
·
parameters8.03B
·
quantizationQ8_0
8.5GB
參數
{ "stop": [ "<|begin of sentence|>", "<|end of sentence|>",
148B
範本
{{- if .System }}{{ .System }}{{ end }} {{- range $i, $_ := .Messages }} {{- $last := eq (len (slice
387B
授權條款
MIT License Copyright (c) 2023 DeepSeek Permission is hereby granted, free of charge, to any perso
1.1kB
說明文件
DeepSeek 第一代推理模型,在數學、程式碼和推理任務中,效能與 OpenAI-o1 相近。
模型
DeepSeek-R1
ollama run deepseek-r1:671b
蒸餾模型
DeepSeek 團隊已證明,大型模型的推理模式可以蒸餾到小型模型中,相較於在小型模型上透過 RL 發現的推理模式,能產生更好的效能。
以下是透過微調,針對研究社群中廣泛使用的幾個密集模型,並使用 DeepSeek-R1 生成的推理資料所建立的模型。評估結果顯示,蒸餾出的小型密集模型在基準測試中表現極佳。
DeepSeek-R1-Distill-Qwen-1.5B
ollama run deepseek-r1:1.5b
DeepSeek-R1-Distill-Qwen-7B
ollama run deepseek-r1:7b
DeepSeek-R1-Distill-Llama-8B
ollama run deepseek-r1:8b
DeepSeek-R1-Distill-Qwen-14B
ollama run deepseek-r1:14b
DeepSeek-R1-Distill-Qwen-32B
ollama run deepseek-r1:32b
DeepSeek-R1-Distill-Llama-70B
ollama run deepseek-r1:70b
授權條款
模型權重以 MIT 授權條款授權。DeepSeek-R1 系列支援商業用途,允許任何修改和衍生作品,包括但不限於,為訓練其他 LLM 進行蒸餾。請注意
Qwen 蒸餾模型源自 Qwen-2.5 系列,原始授權為 Apache 2.0 授權條款,現在使用 DeepSeek-R1 整理的 80 萬個樣本進行了微調。
Llama 8B 蒸餾模型源自 Llama3.1-8B-Base,原始授權為 llama3.1 授權條款。
Llama 70B 蒸餾模型源自 Llama3.3-70B-Instruct,原始授權為 llama3.3 授權條款。