一個開源的混合專家模型程式碼語言模型,在程式碼特定任務中,效能可與 GPT4-Turbo 相提並論。
16b 236b
722.3K 提取次數 已更新 6 個月前
已更新 6 個月前
6 個月前
786659c065fa · 162GB
模型
archdeepseek2
·
parameters236B
·
quantizationQ5_0
162GB
參數
{ "stop": [ "System:", "User:", "Assistant:", "<|begin_of_text|>
72B
範本
{{- if .Suffix }}<|fim_begin|>{{ .Prompt }}<|fim_hole|>{{ .Suffix }}<|fim_end|> {{- else }}{{ .Promp
115B
授權
MIT License Copyright (c) 2023 DeepSeek Permission is hereby granted, free of charge, to any perso
1.1kB
授權
DEEPSEEK LICENSE AGREEMENT Version 1.0, 23 October 2023 Copyright (c) 2023 DeepSeek Section I: PR
14kB
說明文件
DeepSeek-Coder-V2 是一個開源的混合專家 (MoE) 程式碼語言模型,其效能在程式碼特定任務中可與 GPT4-Turbo 相提並論。DeepSeek-Coder-V2 是基於 DeepSeek-Coder-V2-Base 進一步預訓練而成,使用了來自高品質和多來源語料庫的 6 兆個 tokens。