更新於 3 個月前
3 個月前
d1455f557fbd · 38GB
模型
archqwen2
·
parameters19.2B
·
quantizationF16
38GB
參數
{ "stop": [ "<|im_start|>", "<|im_end|>" ] }
59B
範本
{{- range $i, $_ := .Messages }} {{- $last := eq (len (slice $.Messages $i)) 1 -}} <|im_start|>{{ .R
255B
系統
您是由 Sea AI Lab 創建的 AI 助理,名為 Sailor2。作為 AI 助理,您可以回答問題
364B
讀我檔案
Sailor2 是一項社群驅動的倡議,旨在將尖端的多語言模型帶到東南亞 (SEA)。我們的研究強調了對於生產環境使用 8B 和 20B 參數範圍模型以及用於特定應用(例如推測解碼和研究目的)的 1B 模型的強烈需求。這些模型以 Apache 2.0 授權條款發布,旨在提升整個區域對於先進語言技術的可近性。
Sailor2 建立在出色的多語言模型 Qwen 2.5 的基礎之上,並在 500B 個 token 上持續預訓練,以透過統一模型更好地支援 15 種語言。這些語言包括英語、中文、緬甸語、宿霧語、伊洛卡諾語、印尼語、爪哇語、高棉語、寮語、馬來語、巽他語、他加祿語、泰語、越南語和瓦雷語。為了應對日益增長的對於多樣化、穩健且易於存取的語言模型的需求,Sailor2 旨在透過開放、包容且易於存取的多語言 LLM,服務東南亞地區服務不足的群體。Sailor2 模型提供三種尺寸:1B、8B 和 20B,這些尺寸分別是從 0.5B、7B 和 14B 的 Qwen2.5 基礎模型擴展而來。