更新於 3 個月前
3 個月前
ba25188c847d · 9.1GB
模型
archqwen2
·
參數8.55B
·
量化Q8_0
9.1GB
參數
{ "stop": [ "<|im_start|>", "<|im_end|>" ] }
59B
模板
{{- range $i, $_ := .Messages }} {{- $last := eq (len (slice $.Messages $i)) 1 -}} <|im_start|>{{ .R
255B
系統
你是一個名為 Sailor2 的 AI 助手,由 Sea AI Lab 創建。 作為 AI 助手,你可以回答問題
364B
Readme
Sailor2 是一個社群驅動的倡議,旨在為東南亞 (SEA) 帶來尖端的多語言語言模型。我們的研究強調,業界對於8B 和 20B 參數範圍的模型以及用於特定應用(例如推測性解碼和研究目的)的 1B 模型有強烈的需求。這些模型以 Apache 2.0 授權發布,提高了整個區域對先進語言技術的可近性。
Sailor2 以出色的多語言模型 Qwen 2.5 為基礎構建,並在 500B 個 tokens 上持續預訓練,以使用統一模型更好地支持 15 種語言。這些語言包括英語、中文、緬甸語、宿霧語、伊洛卡諾語、印尼語、爪哇語、高棉語、寮語、馬來語、巽他語、他加祿語、泰語、越南語和瓦雷語。透過解決對多樣化、穩健且可訪問的語言模型日益增長的需求,Sailor2 旨在透過開放、包容和可訪問的多語言 LLM 為東南亞地區服務不足的地區提供服務。Sailor2 模型有 1B、8B 和 20B 三種尺寸,它們分別從 Qwen2.5 的 0.5B、7B 和 14B 基礎模型擴展而來。