一個開源的混合專家程式碼語言模型,其效能在程式碼特定任務中可媲美 GPT4-Turbo。
16b 236b
536.5K 下載次數 更新於 5 個月前
更新於 5 個月前
5 個月前
63fb193b3a9b · 8.9GB
model
架構deepseek2
·
參數15.7B
·
量化Q4_0
8.9GB
params
{ "stop": [ "User:", "Assistant:" ] }
32B
template
{{- if .Suffix }}<|fim begin|>{{ .Prompt }}<|fim hole|>{{ .Suffix }}<|fim end|> {{
705B
license
MIT License Copyright (c) 2023 DeepSeek Permission is hereby granted, free of charge, to any perso
1.1kB
license
DEEPSEEK LICENSE AGREEMENT Version 1.0, 23 October 2023 Copyright (c) 2023 DeepSeek Section I: PR
14kB
讀我檔案
DeepSeek-Coder-V2 是一個開源的混合專家 (MoE) 程式碼語言模型,其效能在程式碼特定任務中可媲美 GPT4-Turbo。DeepSeek-Coder-V2 是從 DeepSeek-Coder-V2-Base 進一步預訓練而來,使用了來自高品質且多來源語料庫的 6 兆 tokens。