一個基於 Llama 3 Instruct 微調的 LLaVA 模型,在多項基準測試中獲得更佳的分數。
vision 8b
265.6K Pulls Updated 9 months ago
Updated 9 months ago
9 months ago
7d4b165b1c5e · 17GB
model
archllama
·
parameters8.03B
·
quantizationF16
16GB
projector
archclip
·
parameters312M
·
quantizationF16
624MB
params
{ "num_ctx": 4096, "num_keep": 4, "stop": [ "<|start_header_id|>", "<|en
124B
template
{{ if .System }}<|start_header_id|>system<|end_header_id|> {{ .System }}<|eot_id|>{{ end }}{{ if .P
254B
Readme
llava-llama3
是一個 LLaVA 模型,基於 Llama 3 Instruct 和 CLIP-ViT-Large-patch14-336,並使用 XTuner 透過 ShareGPT4V-PT 和 InternVL-SFT 進行微調。