DeepSeek-Coder-V2 是一個開源的混合專家模型(MoE)程式碼語言模型,在程式碼相關任務中,效能可與 GPT4-Turbo 相提並論。
16b 236b
536.5K 下載次數 更新時間 5 個月前
5 個月前更新
5 個月前
3deb93929590 · 148GB
模型
archdeepseek2
·
parameters236B
·
quantizationQ4_1
148GB
參數
{ "stop": [ "User:", "Assistant:" ] }
32B
範本
{{- if .Suffix }}<|fim begin|>{{ .Prompt }}<|fim hole|>{{ .Suffix }}<|fim end|> {{
705B
授權許可
MIT License Copyright (c) 2023 DeepSeek Permission is hereby granted, free of charge, to any perso
1.1kB
授權許可
DEEPSEEK LICENSE AGREEMENT Version 1.0, 23 October 2023 Copyright (c) 2023 DeepSeek Section I: PR
14kB
讀我檔案
DeepSeek-Coder-V2 是一個開源的混合專家模型(MoE)程式碼語言模型,在程式碼相關任務中,效能可與 GPT4-Turbo 相提並論。DeepSeek-Coder-V2 是基於 DeepSeek-Coder-V2-Base 預訓練而來,使用了來自高品質和多來源語料庫的 6 兆個 tokens。