更新於 3 個月前
3 個月前
f08f378f040a · 5.2GB
模型
架構qwen2
·
參數8.55B
·
量化Q4_K_M
5.2GB
參數
{ "stop": [ "<|im_start|>", "<|im_end|>" ] }
59B
模板
{{- range $i, $_ := .Messages }} {{- $last := eq (len (slice $.Messages $i)) 1 -}} <|im_start|>{{ .R
255B
系統
你是一個名為 Sailor2 的 AI 助理,由 Sea AI Lab 創建。作為一個 AI 助理,你可以回答問題
364B
自述檔案
Sailor2 是一個社群驅動的倡議,旨在為東南亞 (SEA) 帶來尖端的多語言模型。我們的研究強調,市場對於生產環境中使用的 8B 和 20B 參數範圍模型以及用於特定應用(例如推測性解碼和研究目的)的 1B 模型有強烈需求。這些模型以 Apache 2.0 許可證發布,旨在提高整個區域對先進語言技術的可及性。
Sailor2 以出色的多語言模型 Qwen 2.5 為基礎構建,並在 500B tokens 上持續預訓練,以更好地支援包含英語、中文、緬甸語、宿霧語、伊洛卡諾語、印尼語、爪哇語、高棉語、寮語、馬來語、巽他語、他加祿語、泰語、越南語和瓦瑞語等 15 種語言的統一模型。通過應對對多樣化、穩健且可訪問的語言模型不斷增長的需求,Sailor2 旨在通過開放、包容且可訪問的多語言 LLM 為 SEA 地區服務不足的群體提供服務。Sailor2 模型提供 1B、8B 和 20B 三種尺寸,它們分別從 Qwen2.5 的 0.5B、7B 和 14B 基礎模型擴展而來。