An open-source Mixture-of-Experts code language model that achieves performance comparable to GPT4-Turbo in code-specific tasks. (開放原始碼的專家混合模型程式碼語言模型,其效能可與 GPT4-Turbo 在程式碼特定任務中相媲美。)
16b 236b
536.5K 下載次數 更新於 5 個月前
更新於 5 個月前
5 個月前
6084bfd4db26 · 11GB
模型
架構deepseek2
·
參數15.7B
·
量化Q5_0
11GB
參數
{ "stop": [ "User:", "Assistant:" ] }
32B
範本
{{- if .Suffix }}<|fim begin|>{{ .Prompt }}<|fim hole|>{{ .Suffix }}<|fim end|> {{
705B
許可證
MIT License Copyright (c) 2023 DeepSeek Permission is hereby granted, free of charge, to any perso (MIT 許可證 2023 DeepSeek 版權所有 特此授權,免費向任何人)
1.1kB
許可證
DEEPSEEK LICENSE AGREEMENT Version 1.0, 23 October 2023 Copyright (c) 2023 DeepSeek Section I: PR (DEEPSEEK 許可協議 1.0 版,2023 年 10 月 23 日 2023 DeepSeek 版權所有 第一節:公關)
14kB
讀我檔案
DeepSeek-Coder-V2 is an open-source Mixture-of-Experts (MoE) code language model that achieves performance comparable to GPT4-Turbo in code-specific tasks. DeepSeek-Coder-V2 is further pre-trained from DeepSeek-Coder-V2-Base with 6 trillion tokens sourced from a high-quality and multi-source corpus. (DeepSeek-Coder-V2 是一個開放原始碼的專家混合模型 (MoE) 程式碼語言模型,其效能可與 GPT4-Turbo 在程式碼特定任務中相媲美。DeepSeek-Coder-V2 是從 DeepSeek-Coder-V2-Base 進一步預訓練而來,使用了來自高品質和多來源語料庫的 6 兆個 tokens。)