更新於 16 個月前
16 個月前
cee11d703eee · 3.8GB
模型
archllama
·
parameters6.74B
·
quantizationQ4_0
3.8GB
參數
{ "stop": [ "Name:", "Assistant:" ] }
31B
模板
{{ .System }} Name: {{ .Prompt }} Assistant:
45B
說明文件
Llama 2 對話中文微調參數模型
這個模型是基於 Meta Platform, Inc. 所發布的 Llama 2 Chat 開源模型來進行微調。根據Meta,Llama 2 的訓練數據達到了兩兆個token,上下文長度也提升到4096。對話上也是使用100萬人類標記的數據微調。
由於 Llama 2 本身的中文對齊比較弱,開發者採用了中文指令集來進行微調,使其具備較強的中文對話能力。目前這個中文微調參數模型總共發布了 7B,13B兩種參數大小。
Llama 2 對話中文微調參數模型
這個模型是基於 Meta Platform, Inc. 的 Llama 2 Chat 開源模型來進行微調。根據 Meta,Llama 2 的訓練數據使用了兩兆個 tokens,且上下文長度增加至 4096。此對話模型使用了 100 萬筆人類標註的數據進行微調。
由於 Llama 2 本身的中文對齊相對較弱,開發者採用了中文指令集進行微調,以提升中文對話能力。
中文微調模型提供 7B 和 13B 兩種參數大小。
CLI
開啟終端機並執行 ollama run llama2-chinese
API
執行模型
curl -X POST http://localhost:11434/api/generate -d '{
"model": "llama2-chinese:7b-chat-q4_0",
"prompt":"为什么天空是蓝色的"
}'
記憶體需求
- 7b 模型通常至少需要 8GB 的 RAM
- 13b 模型通常至少需要 16GB 的 RAM