IBM Granite 1B 和 3B 模型是由 IBM 開發的長上下文混合專家 (MoE) Granite 模型,專為低延遲使用而設計。
工具 1b 3b
20.6K 拉取次數 更新於 2 weeks ago
更新於 2 weeks ago
2 weeks ago
6521a8fa2f7d · 524MB
模型
架構granitemoe
·
參數1.33B
·
量化Q2_K
524MB
系統
Knowledge Cutoff Date: April 2024. You are Granite, developed by IBM.
69B
模板
<|start_of_role|>system<|end_of_role|> {{- if and (gt (len .Messages) 0) (eq (index .Messages 0).Rol
1.4kB
許可證
Apache License Version 2.0, January 2004
11kB
說明文件
Granite 混合專家模型
IBM Granite 1B 和 3B 模型是由 IBM 開發的長上下文混合專家 (MoE) Granite 模型,專為低延遲使用而設計。
這些模型使用超過 10 兆個 token 的資料進行訓練,Granite MoE 模型非常適合部署在裝置端應用程式或需要即時推論的場景中。
參數大小
1B
ollama run granite3.1-moe:1b
3B
ollama run granite3.1-moe:3b
支援的語言
英語、德語、西班牙語、法語、日語、葡萄牙語、阿拉伯語、捷克語、義大利語、韓語、荷蘭語、簡體中文
功能
- 摘要
- 文本分類
- 文本提取
- 問答
- 檢索增強生成 (RAG)
- 程式碼相關任務
- 函數呼叫任務
- 多語言對話用例
- 長上下文任務,包括長文件/會議摘要、長文件問答等。
Granite 密集模型
Granite 密集模型提供 2B 和 8B 參數大小,旨在支援基於工具的用例和檢索增強生成 (RAG),簡化程式碼生成、翻譯和錯誤修復。
了解更多
- 開發者: IBM Research
- GitHub 儲存庫: ibm-granite/granite-language-models
- 網站: Granite Docs
- 發布日期: December 18th, 2024
- 許可證: Apache 2.0。