一個開源的專家混合(Mixture-of-Experts, MoE)程式碼語言模型,其效能可與 GPT4-Turbo 在程式碼特定任務中相媲美。DeepSeek-Coder-V2 是從 DeepSeek-Coder-V2-Base 進一步預訓練而來,使用了來自高品質和多來源語料庫的 6 兆個 tokens。

16b 236b

722.3K 6 個月前

自述文件

DeepSeek-Coder-V2 是一個開源的專家混合(MoE)程式碼語言模型,其效能可與 GPT4-Turbo 在程式碼特定任務中相媲美。DeepSeek-Coder-V2 是從 DeepSeek-Coder-V2-Base 進一步預訓練而來,使用了來自高品質和多來源語料庫的 6 兆個 tokens。

參考文獻

Hugging Face