一個開源的專家混合 (MoE) 代碼語言模型,在特定程式碼任務中,效能可與 GPT4-Turbo 相媲美。

16b 236b

536.4K 5 個月前

讀我檔案

DeepSeek-Coder-V2 是一個開源的專家混合 (MoE) 代碼語言模型,在特定程式碼任務中,效能可與 GPT4-Turbo 相媲美。DeepSeek-Coder-V2 是從 DeepSeek-Coder-V2-Base 進一步預訓練而來,使用了來自高品質和多來源語料庫的 6 兆個 tokens。

參考資料

Hugging Face