一個開源的混合專家程式碼語言模型,其效能與 GPT4-Turbo 在程式碼特定任務中表現相當。
16b 236b
536.5K 下載次數 更新於 5 個月前
更新於 5 個月前
5 個月前
4f831761cd02 · 86GB
模型
archdeepseek2
·
parameters236B
·
quantizationQ2_K
86GB
參數
{ "stop": [ "User:", "Assistant:" ] }
32B
模板
{{- if .Suffix }}<|fim begin|>{{ .Prompt }}<|fim hole|>{{ .Suffix }}<|fim end|> {{
705B
許可證
MIT License Copyright (c) 2023 DeepSeek Permission is hereby granted, free of charge, to any perso
1.1kB
許可證
DEEPSEEK LICENSE AGREEMENT Version 1.0, 23 October 2023 Copyright (c) 2023 DeepSeek Section I: PR
14kB
說明文件
DeepSeek-Coder-V2 是一個開源的混合專家 (MoE) 程式碼語言模型,其效能與 GPT4-Turbo 在程式碼特定任務中表現相當。DeepSeek-Coder-V2 是基於 DeepSeek-Coder-V2-Base 進行進一步預訓練的模型,使用了來自高質量和多來源語料庫的 6 兆個 tokens。