OpenCoder 是一個開放且可重現的程式碼 LLM 系列,包含 1.5B 和 8B 模型,支援英文和中文語言的聊天功能。
1.5b 8b
20K 下載次數 更新於 2 個月前
更新於 2 個月前
2 個月前
b43cccd5b8e1 · 8.3GB
模型
架構llama
·
參數7.77B
·
量化Q8_0
8.3GB
系統
您是 OpenCoder,由 OpenCoder 團隊創建。
45B
參數
{ "stop": [ "<|im_start|>", "<|im_end|>", "<|fim_prefix|>", "<|f
164B
模板
{{- range $i, $_ := .Messages }} {{- $last := eq (len (slice $.Messages $i)) 1 -}} <|im_start|>{{ .R
241B
授權條款
版本發布日期:2024 年 7 月 16 日。透過參與以下與模型相關的任何活動 o
6.2kB
說明文件
OpenCoder 是一個開放且可重現的程式碼 LLM 系列,包含 1.5B 和 8B 模型,同時支援英文和中文。OpenCoder 從零開始,在 2.5 兆個 tokens 上進行預訓練,其中 90% 為原始程式碼,10% 為程式碼相關的網路資料,並在超過 450 萬個高品質 SFT 範例上進行監督式微調,最終達到頂級程式碼 LLM 的效能。我們不僅提供模型權重和推論程式碼,還提供可重現的訓練資料、完整的資料處理流程、嚴謹的實驗消融結果和詳細的訓練協議。OpenCoder 賦予研究人員建構和創新的能力,是您推進程式碼 AI 的開放基礎。
- 完全開源:OpenCoder 確保完全透明,不僅發布模型權重和即將推出的推論程式碼,還發布用於訓練的完整資料清理程式碼。此版本包括高品質的合成資料、大量的檢查點,以及超過 450 萬個監督式微調 (SFT) 條目的資料集,使 OpenCoder 成為目前最全面開源的模型之一。
- 全面的實驗分析:OpenCoder 透過對各種資料清理策略和訓練流程進行廣泛的消融研究,包括檔案層級和儲存庫層級的重複資料刪除實驗,從而進行嚴格的測試,確保對模型效能進行徹底的探索和驗證。
- 高品質合成資料:OpenCoder 提供完整開發的合成資料生成流程和超過 450 萬個 SFT 資料條目,為模型訓練和評估建立穩固的資料基礎。
- 卓越的效能:OpenCoder 在多個語言模型基準測試中實現了高效能,使其在程式碼的領先開源模型中佔有一席之地。