一個開源的混合專家程式碼語言模型,其效能與 GPT4-Turbo 在程式碼相關任務中相媲美。

16b 236b

722.3K 6 個月前

讀我檔案

DeepSeek-Coder-V2 是一個開源的混合專家 (MoE) 程式碼語言模型,其效能與 GPT4-Turbo 在程式碼相關任務中相媲美。DeepSeek-Coder-V2 基於 DeepSeek-Coder-V2-Base 額外預訓練,從高質量和多來源語料庫中取得 6 兆個 tokens。

參考文獻

Hugging Face