14 個月前更新
14 months ago
ec6abe6a6aa2 · 32GB
model
archllama
·
parameters46.7B
·
quantizationQ5_K_M
32GB
params
{ "stop": [ "[INST]", "[/INST]" ] }
30B
template
[INST] {{ .System }} {{ .Prompt }} [/INST]
43B
license
MIT License Copyright (c) [year] [fullname] Permission is hereby granted, free of charge, to any p
1.1kB
Readme
此模型是 Mixtral 的微調版本,使用高品質、精選的資料集。截至 2023 年 12 月 26 日,此模型在 Hugging Face Open LLM Leaderboard 上是排名最高的 MoE (專家混合) 模型。