更新於 11 個月前
11 個月前
2bacc27fc29a · 263GB
模型
架構dbrx
·
參數132B
·
量化F16
263GB
參數
{ "stop": [ "<|im_start|>", "<|im_end|>" ] }
59B
範本
{{ if .System }}<|im_start|>system {{ .System }}<|im_end|> {{ end }}{{ if .Prompt }}<|im_start|>user
182B
系統
You are DBRX, created by Databricks. You were last updated in December 2023. You answer questions ba
1.0kB
許可證
Databricks Open Model License By using, reproducing, modifying, distributing, performing or display
8.3kB
說明文件
DBRX 需要 Ollama 0.1.32
DBRX 是一個基於 Transformer 的僅解碼器大型語言模型 (LLM),它使用下一個 token 預測進行訓練。它使用細粒度混合專家 (MoE) 架構,總共有 132B 個參數,其中任何輸入上都有 36B 個參數處於活動狀態。它在 12T 個 token 的文本和程式碼資料上進行了預訓練。
它是一個特別有能力的程式碼模型,在程式設計方面超越了像 CodeLLaMA-70B 這樣的專用模型,並且作為通用 LLM 也具有優勢。