更新於 9 個月前
9 個月前
468836162de7 · 670MB
模型
archbert
·
parameters334M
·
quantizationF16
670MB
參數
{ "num_ctx": 512 }
16B
許可證
Apache License Version 2.0, January 2004
11kB
說明文件
mxbai-embed-large
截至 2024 年 3 月,此模型在 MTEB 上針對 Bert-large 尺寸模型取得了 SOTA 效能。它的效能超越了 OpenAI 的 text-embedding-3-large
等商業模型,並與尺寸為其 20 倍的模型效能相當。
mxbai-embed-large
的訓練過程中,MTEB 資料沒有重疊,這表示該模型在多個領域、任務和文本長度上具有良好的泛化能力。
使用方式
REST API
curl https://127.0.0.1:11434/api/embeddings -d '{
"model": "mxbai-embed-large",
"prompt": "Represent this sentence for searching relevant passages: The sky is blue because of Rayleigh scattering"
}'
Python 函式庫
ollama.embeddings(model='mxbai-embed-large', prompt='Represent this sentence for searching relevant passages: The sky is blue because of Rayleigh scattering')
Javascript 函式庫
ollama.embeddings({ model: 'mxbai-embed-large', prompt: 'Represent this sentence for searching relevant passages: The sky is blue because of Rayleigh scattering' })