更新於 14 個月前
14 個月前
eb9f2c7a1c66 · 24GB
模型
archllama
·
參數33.7B
·
量化Q5_K_M
24GB
系統
你是一個聰明的程式設計助理。
46B
參數
{ "stop": [ "### System Prompt:", "### User Message:", "### Assistant:"
69B
範本
{{- if .System }} ### System Prompt {{ .System }} {{- end }} ### User Message {{ .Prompt }} ### As
108B
許可證
LLAMA 2 COMMUNITY LICENSE AGREEMENT Llama 2 Version Release Date: July 18, 2023 「協議」意指
7.0kB
使用說明
Phind CodeLlama 是一個程式碼生成模型,基於 CodeLlama 34B 微調,用於指令用例。此模型有兩個版本:v1 和 v2。v1 基於 CodeLlama 34B 和 CodeLlama-Python 34B。v2 是 v1 的迭代版本,額外訓練了 15 億個高品質程式設計相關資料的 tokens。
使用方式
CLI
打開終端機並執行 ollama run phind-codellama
API
範例
curl -X POST http://localhost:11434/api/generate -d '{
"model": "phind-codellama",
"prompt":"Implement a linked list in C++"
}'
記憶體需求
- 34b 模型通常至少需要 32GB 的 RAM