Stable Code 3B 是一個程式碼模型,具有指令和程式碼完成變體,可與 Code Llama 7B 等模型相提並論,但模型體積卻小了 2.5 倍。
117K Pulls Updated 10 months ago
Updated 10 months ago
10 months ago
e6b8d206c668 · 1.6GB
Readme
Stable Code 3B 是一個 30 億參數的大型語言模型 (LLM),能夠實現準確且反應靈敏的程式碼完成,其水準可與 Code Llama 7b 等模型相提並論,但模型體積卻小了 2.5 倍。
Key Features
- NEW instruct 模型
ollama run stable-code
- Fill in Middle Capability (FIM)
- 支援長上下文,使用高達 16,384 個序列進行訓練
Model | Size | Python | C++ | Javascript | Java | PHP | Rust |
---|---|---|---|---|---|---|---|
Stable Code | 3B | 32.4% | 30.9% | 32.1% | 32.1% | 24.2% | 23.0% |
CodeLLama | 7B | 30.0% | 28.2% | 32.5% | 31.1% | 25.7% | 26.3% |
Deepseek Coder | 1.3B | 28.6% | 29.2% | 28.7% | 29.0% | 23.6% | 18.5% |
Wizard Coder | 3B | 31.6% | 25.6% | 26.2% | 25.8% | 25.3% | 20.4% |
StarCoder | 3B | 21.6% | 19.8% | 21.5% | 20.5% | 19.0% | 16.9% |
Replit Code V1.5 | 3B | 23.0% | 25.9% | 26.2% | 23.6% | 23.2% | 21.5% |
Deci Coder | 1B | 19.1% | 6.8% | 18.4% | 16.7% | 2.1% | 1.7% |
Model Details
- Developed by: Stability AI
- Model type: stable-code 模型是基於 transformer 解碼器架構的自迴歸語言模型。
- Language(s): 英文、程式碼
- Contact: 如有關於模型的問題和意見,請發送電子郵件至
lm@stability.ai
Model Architecture
該模型是一個僅解碼器的 transformer,類似於 LLaMA (Touvron et al., 2023) 架構,但進行了以下修改
Parameters | Hidden Size | Layers | Heads | Sequence Length |
---|---|---|---|---|
2,796,431,360 | 2560 | 32 | 32 | 16384 |
- Position Embeddings: 旋轉位置嵌入 (Su et al., 2021) 應用於前 25% 的 head embedding 維度,以提高吞吐量,遵循 Black et al. (2022)。
- Tokenizer: 我們使用 GPTNeoX Tokenizer 的修改版本。
NeoX
。 我們添加了特殊 token 來訓練 Fill in the Middle (FIM) 功能,例如<FIM_PREFIX>
和<FIM_SUFFIX>
以及其他特殊 token。
Training
Training Dataset
該資料集包含在 HuggingFace Hub 上提供的開源大型資料集的過濾混合:Falcon RefinedWeb 提取物 (Penedo et al., 2023),以及 CommitPackFT 和 Github Issues (BigCode., 2023) 和 StarCoder (Li et al., 2023)。 我們進一步使用來自數學領域的資料來補充我們的訓練 (Azerbayev, Zhangir, et al., 2023 和 Yu, Longhui, et al., 2023)。
前 18 名程式語言訓練於:- C - CPP - Java - JavaScript - CSS - Go - HTML - Ruby - Rust - Markdown - Shell - Php - Sql - R - Typescript - Python - Jupyter-Clean - RestructuredText
Use and Limitations
Intended Use
該模型旨在用作特定應用程式微調的基礎模型。 開發人員必須評估和微調模型,以確保在下游應用程式中的安全效能。
Limitations and Bias
作為基礎模型,此模型可能會表現出不可靠、不安全或其他不良行為,必須在部署前通過評估和微調來糾正。 即使在應用資料清理篩檢程式後,預訓練資料集也可能包含冒犯性或不適當的內容,這可能會反映在模型產生的文字中。 我們建議使用者在生產系統中使用這些模型時謹慎行事。 如果模型不適合您的應用程式,或任何可能對他人造成有意或無意傷害的應用程式,請勿使用這些模型。