一個開源的混合專家模型程式碼語言模型,在程式碼特定任務中實現與 GPT4-Turbo 相媲美的效能。
16b 236b
722.3K 提取次數 更新於 6 個月前
6 個月前更新
6 個月前
e8d5da110401 · 113GB
model
archdeepseek2
·
parameters236B
·
quantizationQ3_K_M
113GB
params
{ "stop": [ "System:", "User:", "Assistant:", "<|begin_of_text|>
72B
template
{{- if .Suffix }}<|fim_begin|>{{ .Prompt }}<|fim_hole|>{{ .Suffix }}<|fim_end|> {{- else }}{{ .Promp
115B
license
MIT License Copyright (c) 2023 DeepSeek Permission is hereby granted, free of charge, to any perso
1.1kB
license
DEEPSEEK LICENSE AGREEMENT Version 1.0, 23 October 2023 Copyright (c) 2023 DeepSeek Section I: PR
14kB
讀我
DeepSeek-Coder-V2 是一個開源的混合專家模型 (MoE) 程式碼語言模型,在程式碼特定任務中實現與 GPT4-Turbo 相媲美的效能。DeepSeek-Coder-V2 是從 DeepSeek-Coder-V2-Base 進一步預訓練而來,使用了來自高品質和多來源語料庫的 6 兆個 tokens。