Falcon3 是一系列參數小於 10B 的高效 AI 模型,透過創新的訓練技術,在科學、數學和編碼方面表現出色。

1b 3b 7b 10b

28.4K 6 週前

讀我檔案

Falcon3 代表 TII 在小於 10B 參數的高效語言模型方面的最新進展,專注於提升科學、數學和程式碼能力,同時保持訓練效率。

主要特色

  • 四種尺寸:1B、3B、7B、10B
  • 使用深度向上擴展技術,從 7B 模型創建 10B 模型
  • 用於較小模型的知識蒸餾(1B、3B)

效能亮點

  • falcon3:1b 的效能優於 smollm2:1.7b,與 gemma2:2b 相當
  • falcon3:10b 在小於 13B 類別中達到 SOTA
  • 擴展上下文長度最多 32K tokens(1B 模型為 8K)

參考資料

Hugging Face