一個開源的混合專家模型程式碼語言模型,其效能在特定程式碼任務中可與 GPT4-Turbo 相媲美。
16b 236b
536.5K 拉取次數 更新時間 5 個月前
更新時間 5 個月前
5 個月前
5e86e3ea790e · 9.5GB
model
archdeepseek2
·
parameters15.7B
·
quantizationQ4_K_S
9.5GB
params
{ "stop": [ "User:", "Assistant:" ] }
32B
template
{{- if .Suffix }}<|fim begin|>{{ .Prompt }}<|fim hole|>{{ .Suffix }}<|fim end|> {{
705B
license
MIT License Copyright (c) 2023 DeepSeek Permission is hereby granted, free of charge, to any perso
1.1kB
license
DEEPSEEK LICENSE AGREEMENT Version 1.0, 23 October 2023 Copyright (c) 2023 DeepSeek Section I: PR
14kB
說明文件
DeepSeek-Coder-V2 是一個開源的混合專家模型 (MoE) 程式碼語言模型,其效能在特定程式碼任務中可與 GPT4-Turbo 相媲美。DeepSeek-Coder-V2 更是基於 DeepSeek-Coder-V2-Base 預訓練而來,使用了來自高質量和多來源語料庫的 6 兆個 tokens。