一個基於 Llama 3 Instruct 微調的 LLaVA 模型,在多個基準測試中獲得更好的分數。
視覺 8b
265.5K 下載次數 更新於 9 months ago
更新於 9 個月前
9 個月前
44c161b1f465 · 5.5GB
model
archllama
·
parameters8.03B
·
quantizationQ4_K_M
4.9GB
projector
archclip
·
parameters312M
·
quantizationF16
624MB
params
{ "num_ctx": 4096, "num_keep": 4, "stop": [ "<|start_header_id|>", "<|en
124B
template
{{ if .System }}<|start_header_id|>system<|end_header_id|> {{ .System }}<|eot_id|>{{ end }}{{ if .P
254B
讀我
llava-llama3
是一個基於 Llama 3 Instruct 和 CLIP-ViT-Large-patch14-336 微調的 LLaVA 模型,使用了 XTuner 的 ShareGPT4V-PT 和 InternVL-SFT 數據集。