一個開源的專家混合(Mixture-of-Experts, MoE)程式碼語言模型,在程式碼特定任務中的效能可與 GPT4-Turbo 相提並論。
16b 236b
536.5K 下載次數 更新於 5 個月前
更新於 5 個月前
5 個月前
8b62e3f7c4be · 6.4GB
模型
架構deepseek2
·
參數15.7B
·
量化Q2_K
6.4GB
模板
{{- if .Suffix }}<|fim begin|>{{ .Prompt }}<|fim hole|>{{ .Suffix }}<|fim end|> {{
133B
許可證
MIT License Copyright (c) 2023 DeepSeek Permission is hereby granted, free of charge, to any perso
1.1kB
許可證
DEEPSEEK LICENSE AGREEMENT Version 1.0, 23 October 2023 Copyright (c) 2023 DeepSeek Section I: PR
14kB
Readme
DeepSeek-Coder-V2 是一個開源的專家混合(MoE)程式碼語言模型,在程式碼特定任務中的效能可與 GPT4-Turbo 相提並論。DeepSeek-Coder-V2 是從 DeepSeek-Coder-V2-Base 經過額外 6 兆個 tokens 的預訓練而來,這些 tokens 來自高品質和多來源的語料庫。