更新於 3 個月前
3 個月前
7b8c8f58ae99 · 1.1GB
模型
archqwen2
·
parameters988M
·
quantizationQ8_0
1.1GB
參數
{ "stop": [ "<|im_start|>", "<|im_end|>" ] }
59B
範本
{{- range $i, $_ := .Messages }} {{- $last := eq (len (slice $.Messages $i)) 1 -}} <|im_start|>{{ .R
255B
系統
You are an AI assistant named Sailor2, created by Sea AI Lab. As an AI assistant, you can answer que
364B
說明
Sailor2 是一個社群驅動的倡議,旨在為東南亞 (SEA) 帶來尖端的多語言語言模型。我們的研究強調,對於生產環境使用,8B 和 20B 參數範圍的模型有強勁需求,同時 1B 模型 適用於專業應用,例如推測性解碼和研究目的。這些模型以 Apache 2.0 授權 發布,為整個地區提供更強大的進階語言技術可近性。
Sailor2 以優異的多語言模型 Qwen 2.5 為基礎建構,並持續在 500B 個 tokens 上進行預訓練,以更完善地支援 15 種語言的統一模型。這些語言包括英語、中文、緬甸語、宿霧語、伊洛卡諾語、印尼語、爪哇語、高棉語、寮語、馬來語、巽他語、他加祿語、泰語、越南語和瓦瑞語。透過滿足對多元、穩健且易於存取的語言模型日益增長的需求,Sailor2 致力於透過開放、包容和可近取的多語言 LLM,為東南亞地區服務不足的群體提供服務。Sailor2 模型有 1B、8B 和 20B 三種尺寸,分別從 Qwen2.5 基礎模型的 0.5B、7B 和 14B 擴展而來。