DBRX 是由 Databricks 建立的開放通用型 LLM。

132b

1.84 萬 11 個月前

讀我檔案

DBRX 需要 Ollama 0.1.32

DBRX 是一個基於 Transformer 的僅解碼器大型語言模型 (LLM),它使用下一個 token 預測進行訓練。它使用精細化的混合專家 (MoE) 架構,總共有 1320 億個參數,其中在任何輸入上都有 360 億個參數是活躍的。它在 12兆 個 token 的文本和程式碼資料上進行了預訓練。

它是一個特別強大的程式碼模型,在程式設計方面超越了像 CodeLLaMA-70B 這樣的專門模型,並且作為通用型 LLM 也具有優勢。

參考資料

部落格文章

HuggingFace