由技術創新研究所 (TII) 建構的大型語言模型,用於摘要、文本生成和聊天機器人。
7b 40b 180b
67.2K Pulls Updated 15 months ago
Updated 15 months ago
15 個月前更新
10c176bb433f · 32GB
模型
archfalcon
·
parameters41.8B
·
quantizationQ5_1
32GB
Readme
Falcon 是由技術創新研究所 (TII) 建構的高效能大型語言模型系列,該研究所是阿布達比政府先進技術研究委員會轄下的研究中心,負責監督技術研究。
CLI
ollama run falcon "Why is the sky blue?"
API
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "falcon",
"prompt": "Why is the sky blue?"
}'
參數計數
參數計數 | 建議記憶體 | ||
---|---|---|---|
70 億 | 8GB | 查看 | ollama run falcon:7b |
400 億 | 32GB | 查看 | ollama run falcon:40b |
1800 億 | 192GB | 查看 | ollama run falcon:180b |
變體
聊天 |
聊天模型在聊天和指令資料集上進行微調,其中混合了多個大型對話資料集。 |
指令 |
指令模型遵循指令,並在 baize 指令資料集上進行微調。 |
文字 |
文字模型是沒有針對對話進行任何微調的基本基礎模型,最適合用於簡單的文字完成。 |
Falcon 180B
截至 2023 年 9 月,1800 億參數模型 Falcon 180B 是效能最佳的公開發布 LLM。它的效能介於 OpenAI 的 GPT 3.5 和 GPT 4 之間。為了運行 Falcon 180B,建議使用至少具有 192GB 總記憶體的強大系統。
注意:Falcon 180B 的發布許可證與其較小的同級產品不同,該許可證限制在特定條件下的商業用途。有關更多資訊,請參閱模型詳細資訊和許可證。