更新於 6 個月前
6 個月前
790764642607 · 1.2GB
模型
架構bert
·
參數567M
·
量化F16
1.2GB
許可證
MIT 許可證 版權所有 (c) [year] [fullname] 特此授權,免費向任何 p
1.1kB
讀我
BGE-M3 基於 XLM-RoBERTa 架構,並以其在多功能性、多語言性和多粒度方面的多樣性而著稱
- 多功能性:它可以同時執行嵌入模型的三種常見檢索功能:密集檢索、多向量檢索和稀疏檢索。
- 多語言性:它可以支援超過 100 種工作語言。
- 多粒度:它能夠處理不同粒度的輸入,範圍從簡短句子到最多 8192 個 token 的長文檔。
來自開源社群的基準測試
@misc{bge-m3,
title={BGE M3-Embedding: Multi-Lingual, Multi-Functionality, Multi-Granularity Text Embeddings Through Self-Knowledge Distillation},
author={Jianlv Chen and Shitao Xiao and Peitian Zhang and Kun Luo and Defu Lian and Zheng Liu},
year={2024},
eprint={2402.03216},
archivePrefix={arXiv},
primaryClass={cs.CL}
}