BGE-M3 是由 BAAI 推出的新模型,以其在多功能性、多語言性和多粒度方面的多樣性而著稱。

嵌入 567m

288.6K 6 個月前

讀我

BGE-M3 基於 XLM-RoBERTa 架構,並以其在多功能性、多語言性和多粒度方面的多樣性而著稱

  • 多功能性:它可以同時執行嵌入模型的三種常見檢索功能:密集檢索、多向量檢索和稀疏檢索。
  • 多語言性:它可以支援超過 100 種工作語言。
  • 多粒度:它能夠處理不同粒度的輸入,範圍從簡短句子到最多 8192 個 token 的長文檔。

來自開源社群的基準測試 image.png

@misc{bge-m3,
      title={BGE M3-Embedding: Multi-Lingual, Multi-Functionality, Multi-Granularity Text Embeddings Through Self-Knowledge Distillation}, 
      author={Jianlv Chen and Shitao Xiao and Peitian Zhang and Kun Luo and Defu Lian and Zheng Liu},
      year={2024},
      eprint={2402.03216},
      archivePrefix={arXiv},
      primaryClass={cs.CL}
}