IBM Granite 1B 和 3B 模型是 IBM 首批混合專家 (MoE) Granite 模型,專為低延遲使用而設計。
工具 1b 3b
34.5K 提取次數 更新於 2 個月前
Readme
Granite 混合專家模型
IBM Granite 1B 和 3B 模型是 IBM 首批混合專家 (MoE) Granite 模型,專為低延遲使用而設計。
這些模型使用超過 10 兆個 tokens 的資料進行訓練,Granite MoE 模型非常適合部署在裝置端應用程式或需要即時推論的情境中。
參數大小
1B
ollama run granite3-moe:1b
3B
ollama run granite3-moe:3b
支援語言
英文、德文、西班牙文、法文、日文、葡萄牙文、阿拉伯文、捷克文、義大利文、韓文、荷蘭文、中文(簡體)
功能
- 摘要
- 文本分類
- 文本擷取
- 問答
- 檢索增強生成 (RAG)
- 程式碼相關
- 函數呼叫
- 多語言對話用例
Granite 稠密模型
Granite 稠密模型提供 2B 和 8B 參數大小,旨在支援基於工具的用例以及檢索增強生成 (RAG)、簡化程式碼生成、翻譯和錯誤修復。
了解更多
- 開發者: IBM Research
- GitHub 儲存庫: ibm-granite/granite-3.0-language-models
- 網站: Granite 文件
- 發布日期: 2024 年 10 月 21 日
- 授權條款: Apache 2.0。