更新於 3 個月前
3 個月前
b74611e7fe0d · 12GB
模型
archqwen2
·
parameters19.2B
·
quantizationQ4_K_M
12GB
參數
{ "stop": [ "<|im_start|>", "<|im_end|>" ] }
59B
範本
{{- range $i, $_ := .Messages }} {{- $last := eq (len (slice $.Messages $i)) 1 -}} <|im_start|>{{ .R
255B
系統
You are an AI assistant named Sailor2, created by Sea AI Lab. As an AI assistant, you can answer que
364B
Readme
Sailor2 是一個社群驅動的倡議,旨在將尖端的多語言模型帶到東南亞(SEA)。我們的研究強調,對於生產用途,8B 和 20B 參數範圍的模型有強烈需求,同時 1B 模型則適用於專業應用,例如推測解碼和研究目的。這些模型以 Apache 2.0 授權發布,旨在提高整個區域對先進語言技術的可訪問性。
Sailor2 基於出色的多語言模型 Qwen 2.5 的基礎之上構建,並在 500B tokens 上持續預訓練,以透過統一模型更好地支援 15 種語言。這些語言包括英語、中文、緬甸語、宿霧語、伊洛卡諾語、印尼語、爪哇語、高棉語、寮語、馬來語、巽他語、他加祿語、泰語、越南語和瓦瑞語。透過解決對多樣化、穩健且可訪問的語言模型不斷增長的需求,Sailor2 旨在透過開放、包容和可訪問的多語言 LLM 為東南亞地區服務不足的群體提供服務。Sailor2 模型有三種尺寸:1B、8B 和 20B,它們分別從 Qwen2.5 的 0.5B、7B 和 14B 基礎模型擴展而來。