一個開源的專家混合(Mixture-of-Experts, MoE)程式碼語言模型,在程式碼特定任務中的效能可與 GPT4-Turbo 相提並論。

16b 236b

536.5K 5 個月前

Readme

DeepSeek-Coder-V2 是一個開源的專家混合(MoE)程式碼語言模型,在程式碼特定任務中的效能可與 GPT4-Turbo 相提並論。DeepSeek-Coder-V2 是從 DeepSeek-Coder-V2-Base 經過額外 6 兆個 tokens 的預訓練而來,這些 tokens 來自高品質和多來源的語料庫。

參考資料

Hugging Face