一個開源的專家混合 (MoE) 程式碼語言模型,在程式碼特定任務中達到與 GPT4-Turbo 相媲美的效能。
16b 236b
536.5K 提取次數 更新於 5 個月前
5 個月前更新
5 個月前
317accd37d79 · 122GB
模型
架構deepseek2
·
參數236B
·
量化Q3_K_L
122GB
參數
{ "stop": [ "System:", "User:", "Assistant:", "<|begin_of_text|>
72B
模板
{{- if .Suffix }}<|fim_begin|>{{ .Prompt }}<|fim_hole|>{{ .Suffix }}<|fim_end|> {{- else }}{{ .Promp
115B
許可證
MIT License Copyright (c) 2023 DeepSeek Permission is hereby granted, free of charge, to any perso
1.1kB
授權協議
DEEPSEEK LICENSE AGREEMENT Version 1.0, 23 October 2023 Copyright (c) 2023 DeepSeek Section I: PR
14kB
自述文件
DeepSeek-Coder-V2 是一個開源的專家混合 (MoE) 程式碼語言模型,在程式碼特定任務中達到與 GPT4-Turbo 相媲美的效能。DeepSeek-Coder-V2 基於 DeepSeek-Coder-V2-Base 進一步預訓練,使用了來自高品質和多來源語料庫的 6 兆個 tokens。