IBM Granite 1B 和 3B 模型是由 IBM 開發的長文本脈絡專家混合模型 (MoE Granite),專為低延遲使用情境設計。
工具 1b 3b
20.6K 下載次數 更新於 2 週前
Readme
Granite 專家混合模型
IBM Granite **1B 和 3B 模型**是由 IBM 開發的長文本脈絡專家混合模型 (MoE Granite),專為低延遲使用情境設計。
這些模型使用超過 10 兆個 tokens 的資料進行訓練,Granite MoE 模型非常適合部署在裝置端應用程式或需要即時推論的情境中。
參數大小
1B
ollama run granite3.1-moe:1b
3B
ollama run granite3.1-moe:3b
支援語言
英語、德語、西班牙語、法語、日語、葡萄牙語、阿拉伯語、捷克語、義大利語、韓語、荷蘭語、簡體中文
功能
- 摘要
- 文本分類
- 文本提取
- 問答
- 檢索增強生成 (RAG)
- 程式碼相關任務
- 函數呼叫任務
- 多語言對話使用案例
- 長文本脈絡任務,包括長文檔/會議摘要、長文檔問答等。
Granite 密集模型
Granite 密集模型提供 **2B 和 8B** 參數大小,旨在支援基於工具的使用案例和檢索增強生成 (RAG),簡化程式碼生成、翻譯和錯誤修復。
了解更多
- **開發者:** IBM Research
- **GitHub 儲存庫:** ibm-granite/granite-language-models
- **網站**: Granite 文件
- **發布日期**: 2024 年 12 月 18 日
- **許可證:** Apache 2.0。