Falcon 是由技術創新研究院 (Technology Innovation Institute, TII) 建置的大型語言模型,可用於摘要、文本生成和聊天機器人。
7b 40b 180b
70.2K 下載次數 更新於 16 個月前
更新於 16 個月前
16 個月前
9ec7eaf6cd59 · 26GB
模型
架構falcon
·
參數41.8B
·
量化Q4_1
26GB
參數
{ "stop": [ "User:", "Assistant:" ] }
31B
模板
{{ .System }} User: {{ .Prompt }} Assistant:
45B
說明文件
Falcon 是由技術創新研究院 (TII) 建置的一系列高效能大型語言模型,TII 是阿拉伯聯合大公國阿布達比政府轄下先進技術研究委員會的研究中心,負責監督技術研究。
CLI
ollama run falcon "Why is the sky blue?"
API
curl -X POST https://#:11434/api/generate -d '{
"model": "falcon",
"prompt": "Why is the sky blue?"
}'
參數計數
參數計數 | 建議記憶體 | ||
---|---|---|---|
70 億 | 8GB | 檢視 | ollama run falcon:7b |
400 億 | 32GB | 檢視 | ollama run falcon:40b |
1800 億 | 192GB | 檢視 | ollama run falcon:180b |
變體
chat |
Chat 模型在聊天和指示資料集上進行微調,其中混合了多個大型對話資料集。 |
instruct |
Instruct 模型遵循指示,並在 baize 指令資料集上進行微調。 |
text |
Text 模型是基礎模型,未針對對話進行任何微調,最適合用於簡單的文本完成。 |
Falcon 180B
截至 2023 年 9 月,擁有 1800 億參數的模型 Falcon 180B 是效能最佳的公開發布 LLM。它的效能介於 OpenAI 的 GPT 3.5 和 GPT 4 之間。若要執行 Falcon 180B,建議使用至少 192GB 總記憶體的強大系統。
注意:Falcon 180B 的授權條款與其較小的同系列模型不同,在特定條件下限制商業用途。請參閱模型詳細資訊和授權條款以取得更多資訊。