更新於 7 個月前
7 個月前
d36b0e4f46c1 · 7.5GB
模型
架構deepseek2
·
參數15.7B
·
量化Q3_K_S
7.5GB
參數
{ "stop": [ "User:", "Assistant:" ] }
32B
模板
{{ if .System }}{{ .System }} {{ end }}{{ if .Prompt }}User: {{ .Prompt }} {{ end }}Assistant:{{ .
111B
許可證
DEEPSEEK 授權協議 版本 1.0,2023 年 10 月 23 日 版權所有 (c) 2023 DeepSeek 第一節:公關
14kB
自述文件
注意:此模型需要 Ollama 0.1.40。
DeepSeek-V2 是一個強大的混合專家 (MoE) 語言模型,其特點是經濟的訓練和高效的推論。
注意:此模型為英文和中文雙語。
此模型有兩種尺寸
- 16B Lite:
ollama run deepseek-v2:16b
- 236B:
ollama run deepseek-v2:236b