更新於 14 個月前
14 個月前
5501c45c64ca · 21GB
模型
archllama
·
parameters33.7B
·
quantizationQ4_1
21GB
系統
你是一位聰明的程式設計助理。
46B
參數
{ "stop": [ "### System Prompt:", "### User Message:", "### Assistant:"
69B
範本
{{- if .System }} ### System Prompt {{ .System }} {{- end }} ### User Message {{ .Prompt }} ### As
108B
授權
LLAMA 2 社群授權協議 Llama 2 版本發布日期:2023 年 7 月 18 日 「協議」是指
7.0kB
讀我
Phind CodeLlama 是一個程式碼生成模型,基於 CodeLlama 34B 進行微調,適用於指令使用案例。 此模型有兩個版本:v1
和 v2
。 v1
基於 CodeLlama 34B 和 CodeLlama-Python 34B。 v2
是 v1
的迭代版本,額外訓練了 1.5B 個高品質程式設計相關資料的 tokens。
使用方式
CLI
開啟終端機並執行 ollama run phind-codellama
API
範例
curl -X POST http://localhost:11434/api/generate -d '{
"model": "phind-codellama",
"prompt":"Implement a linked list in C++"
}'
記憶體需求
- 34b 模型通常需要至少 32GB 的 RAM