一個開源的專家混合 (MoE) 架構程式碼語言模型,在程式碼相關任務中達到與 GPT4-Turbo 相近的效能。
16b 236b
722.3K 下載次數 更新於 6 個月前
更新於 6 個月前
6 個月前
2dc89d24571b · 133GB
模型
架構deepseek2
·
參數數量236B
·
量化Q4_0
133GB
參數
{ "stop": [ "System:", "User:", "Assistant:", "<|begin_of_text|>
72B
範本
{{- if .Suffix }}<|fim_begin|>{{ .Prompt }}<|fim_hole|>{{ .Suffix }}<|fim_end|> {{- else }}{{ .Promp
115B
授權條款
MIT License Copyright (c) 2023 DeepSeek Permission is hereby granted, free of charge, to any perso
1.1kB
授權條款
DEEPSEEK LICENSE AGREEMENT Version 1.0, 23 October 2023 Copyright (c) 2023 DeepSeek Section I: PR
14kB
說明文件
DeepSeek-Coder-V2 是一個開源的專家混合 (MoE) 架構程式碼語言模型,在程式碼相關任務中達到與 GPT4-Turbo 相近的效能。DeepSeek-Coder-V2 是基於 DeepSeek-Coder-V2-Base 額外使用來自高品質和多來源語料庫的 6 兆個 tokens 進行預訓練。