一個開源的專家混合 (MoE) 架構程式碼語言模型,在程式碼相關任務中達到與 GPT4-Turbo 相近的效能。

16b 236b

722.3K 6 個月前

說明文件

DeepSeek-Coder-V2 是一個開源的專家混合 (MoE) 架構程式碼語言模型,在程式碼相關任務中達到與 GPT4-Turbo 相近的效能。DeepSeek-Coder-V2 是基於 DeepSeek-Coder-V2-Base 額外使用來自高品質和多來源語料庫的 6 兆個 tokens 進行預訓練。

參考資料

Hugging Face