15 個月前更新
15 個月前
f5905a53ed4b · 101GB
模型
架構falcon
·
參數180B
·
量化Q4_0
101GB
許可證
FALCON 180B TII LICENSE VERSION 1.0 September 2023 falconllm.tii.ae 介紹性說明 本許可證
16kB
說明文件
Falcon 是一系列高效能大型語言模型,由技術創新研究院 (TII) 建構,該研究院是阿拉伯聯合大公國阿布達比政府轄下先進技術研究委員會的一部分,負責監督技術研究。
CLI
ollama run falcon "Why is the sky blue?"
API
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "falcon",
"prompt": "Why is the sky blue?"
}'
參數計數
參數數量 | 建議記憶體 | ||
---|---|---|---|
70 億 | 8GB | 查看 | ollama run falcon:7b |
400 億 | 32GB | 查看 | ollama run falcon:40b |
1800 億 | 192GB | 查看 | ollama run falcon:180b |
變體
聊天 |
聊天模型針對聊天和指令數據集進行微調,並混合了多個大型對話數據集。 |
指令 |
指令模型遵循指令,並在 baize 指令數據集上進行微調。 |
文本 |
文本模型是沒有針對對話進行任何微調的基礎模型,最適合用於簡單的文本完成任務。 |
Falcon 180B
截至 2023 年 9 月,擁有 1800 億參數的模型 Falcon 180B,是效能最佳的公開發布 LLM。其效能介於 OpenAI 的 GPT 3.5 和 GPT 4 之間。為了運行 Falcon 180B,建議使用至少 192GB 總記憶體的強大系統。
注意:Falcon 180B 的發布許可證與其較小的同系列模型不同,在特定條件下限制商業用途。 詳情請參閱模型詳細資訊和許可證。