一個開源的混合專家程式碼語言模型,其效能與 GPT4-Turbo 在程式碼特定任務中表現相當。

16b 236b

536.5K 5 個月前

說明文件

DeepSeek-Coder-V2 是一個開源的混合專家 (MoE) 程式碼語言模型,其效能與 GPT4-Turbo 在程式碼特定任務中表現相當。DeepSeek-Coder-V2 是基於 DeepSeek-Coder-V2-Base 進行進一步預訓練的模型,使用了來自高質量和多來源語料庫的 6 兆個 tokens。

參考文獻

Hugging Face