Falcon3 是一系列高效能 AI 模型,參數規模小於 100 億,透過創新的訓練技術,在科學、數學和程式碼領域表現出色。
1b 3b 7b 10b
28.4K 下載次數 更新於 6 週前
更新於 6 週前
6 週前
d56712f1783f · 11GB
模型
架構llama
·
參數10.3B
·
量化Q8_0
11GB
參數
{ "stop": [ "<|system|>", "<|user|>", "<|end|>", "<|assistant|>"
101B
範本
{{- range $i, $_ := .Messages }} {{- $last := eq (len (slice $.Messages $i)) 1 -}} <|{{ .Role }}|> {
218B
授權條款
Falcon 3 TII Falcon 授權條款 2024 年 12 月 FalconLLM.tii.ae 前言 本授權條款在於
13kB
讀我檔案
Falcon3 代表 TII 在效率型語言模型方面的最新進展,參數規模小於 100 億,專注於提升科學、數學和程式碼能力,同時保持訓練效率。
主要特色
- 四種尺寸:1B、3B、7B、10B
- 使用深度放大技術,從 7B 模型創建 10B 模型
- 針對較小模型(1B、3B)的知識蒸餾
效能亮點
falcon3:1b
效能優於smollm2:1.7b
,與gemma2:2b
相當falcon3:10b
在小於 13B 參數類別中達到 SOTA- 擴展上下文長度至 32K tokens(1B 模型為 8K)