一個開源的混合專家程式碼語言模型,其效能與 GPT4-Turbo 在程式碼相關任務中相媲美。
16b 236b
722.3K 下載次數 更新於 6 個月前
更新於 6 個月前
6 個月前
317accd37d79 · 122GB
模型
archdeepseek2
·
parameters236B
·
quantizationQ3_K_L
122GB
參數
{ "stop": [ "System:", "User:", "Assistant:", "<|begin_of_text|>
72B
範本
{{- if .Suffix }}<|fim_begin|>{{ .Prompt }}<|fim_hole|>{{ .Suffix }}<|fim_end|> {{- else }}{{ .Promp
115B
授權條款
MIT License Copyright (c) 2023 DeepSeek Permission is hereby granted, free of charge, to any perso
1.1kB
授權條款
DEEPSEEK LICENSE AGREEMENT Version 1.0, 23 October 2023 Copyright (c) 2023 DeepSeek Section I: PR
14kB
讀我檔案
DeepSeek-Coder-V2 是一個開源的混合專家 (MoE) 程式碼語言模型,其效能與 GPT4-Turbo 在程式碼相關任務中相媲美。DeepSeek-Coder-V2 基於 DeepSeek-Coder-V2-Base 額外預訓練,從高質量和多來源語料庫中取得 6 兆個 tokens。