一個強大的混合專家 (MoE) 語言模型,總共有 6710 億個參數,每次 token 啟用 370 億個參數。
671b
159.4K 下載次數 更新於 3 週前
更新於 3 週前
3 週前
5da0e2d4a9e0 · 404GB
模型
架構deepseek2
·
參數671B
·
量化Q4_K_M
404GB
參數
{ "stop": [ "<|begin of sentence|>", "<|end of sentence|>",
148B
模板
{{- range $i, $_ := .Messages }} {{- if eq .Role "user" }}<|User|> {{- else if eq .Role "assista
359B
授權條款
DEEPSEEK LICENSE AGREEMENT Version 1.0, 23 October 2023 Copyright (c) 2023 DeepSeek Section I: PR
14kB