更新於 13 個月前
13 個月前
b8f09c086e17 · 14GB
模型
archllama
·
parameters33.7B
·
quantizationQ2_K
14GB
系統
你是一位聰明的程式設計助理。
46B
參數
{ "stop": [ "### System Prompt:", "### User Message:", "### Assistant:"
69B
模板
{{- if .System }} ### System Prompt {{ .System }} {{- end }} ### User Message {{ .Prompt }} ### As
108B
授權
LLAMA 2 社群授權協議 Llama 2 版本發布日期:2023 年 7 月 18 日 「協議」意指
7.0kB
說明文件
Phind CodeLlama 是一個基於 CodeLlama 34B 的程式碼生成模型,針對指令使用案例進行了微調。 此模型有兩個版本:v1 和 v2。 v1 基於 CodeLlama 34B 和 CodeLlama-Python 34B。 v2 是 v1 的迭代版本,在額外 1.5B 個 tokens 的高品質程式設計相關資料上進行訓練。
用法
CLI
開啟終端機並執行 ollama run phind-codellama
API
範例
curl -X POST https://127.0.0.1:11434/api/generate -d '{
"model": "phind-codellama",
"prompt":"Implement a linked list in C++"
}'
記憶體需求
- 34b 模型通常至少需要 32GB 的 RAM