更新於 13 個月前
13 個月前
482c06dc081a · 5.1GB
model
archllama
·
parameters7.24B
·
quantizationQ5_K_M
5.1GB
params
{ "stop": [ "<|system|>", "<|user|>", "<|assistant|>", "</s>"
98B
template
{{- if .System }} <|system|> {{ .System }} </s> {{- end }} <|user|> {{ .Prompt }} </s> <|assistant|>
101B
license
MIT License Copyright (c) [year] [fullname] Permission is hereby granted, free of charge, to any p
1.1kB
讀我檔案
Zephyr 是一系列語言模型,這些模型經過訓練可以作為有用的助手。Zephyr 141B-A35B 是該系列的最新模型,並且是 Mixtral 8x22b 的微調版本。
大小
zephyr:141b
:一個混合專家 (MoE) 模型,總共有 1410 億個參數和 350 億個活動參數。zephyr:7b
:原始的 Zephyr 模型