Falcon3 代表著 TII 在 10B 參數以下的高效率 AI 模型方面的最新進展,專注於透過創新的訓練技術來增強科學、數學和編碼能力。
1b 3b 7b 10b
42.2K 提取次數 更新於 2 個月前
更新於 2 個月前
2 個月前
5449d006a9c7 · 1.8GB
模型
架構llama
·
參數1.67B
·
量化Q8_0
1.8GB
參數
{ "stop": [ "<|system|>", "<|user|>", "<|end|>", "<|assistant|>"
101B
模板
{{- range $i, $_ := .Messages }} {{- $last := eq (len (slice $.Messages $i)) 1 -}} <|{{ .Role }}|> {
218B
許可證
Falcon 3 TII Falcon 許可證 2024 年 12 月 FalconLLM.tii.ae 前言 本許可證為,在
13kB
說明文件
Falcon3 代表著 TII 在 10B 參數以下的高效率語言模型方面的最新進展,專注於增強科學、數學和程式碼能力,同時保持訓練效率。
主要特色
- 四種尺寸:1B、3B、7B、10B
- 使用深度向上擴展技術,從 7B 模型創建 10B 模型
- 適用於較小模型 (1B、3B) 的知識蒸餾
效能重點
falcon3:1b
的效能優於smollm2:1.7b
,與gemma2:2b
相匹敵falcon3:10b
在 13B 以下類別中達到 SOTA- 擴展上下文長度最多可達 32K tokens(1B 模型為 8K)