Snowflake 的前沿嵌入模型。Arctic Embed 2.0 新增了多語言支援,同時不犧牲英文效能或可擴展性。
嵌入 568m
37.2K 下載次數 更新於 3 個月前
更新於 3 個月前
3 個月前
5de93a84837d · 1.2GB
模型
archbert
·
parameters567M
·
quantizationF16
1.2GB
範本
Apache License Version 2.0, January 200
11kB
讀我檔案
Snowflake 很高興宣布推出 Arctic Embed 2.0,這是我們前沿嵌入模型的下一次迭代,現在可以支援多語言搜尋。雖然我們之前的版本已受到我們的客戶、合作夥伴和開源社群的好評,並促成了數百萬次的下載,但我們一直收到一個要求:你們可以讓這個模型支援多語言嗎?Arctic Embed 2.0 建構在我們先前版本的穩固基礎之上,新增了多語言支援,同時不犧牲英文效能或可擴展性,以滿足更廣泛用戶群的需求,這些用戶群涵蓋了廣泛的語言和應用程式。
圖 1. 參數少於 1B 的開源多語言嵌入模型的單向量密集檢索效能。分數是 MTEB 檢索和 CLEF 子集(ELRA,2006 年)中涵蓋英文、法文、西班牙文、義大利文和德文的平均 nDCG@10。
Arctic Embed 2.0 多樣化且強大的功能集
- 企業級吞吐量和效率: Arctic Embed 2.0 模型專為大規模企業需求而建構。即使是我們的「大型」模型,其參數也遠低於 1B,並提供快速、高吞吐量的嵌入能力。根據內部測試,在 NVIDIA A10 GPU 上,它可以輕鬆處理每秒超過 100 個文件(平均),並實現低於 10 毫秒的查詢嵌入延遲,從而在經濟實惠的硬體上實現實際部署。
- 英文和非英文檢索的毫不妥協的品質: 儘管 Arctic Embed 2.0 模型尺寸緊湊,但在各種英文和非英文基準資料集上均取得了令人印象深刻的 NDCG@10 分數,展現了即使對於未包含在訓練配方中的語言也能很好地泛化的能力。這些令人印象深刻的基準分數使 Arctic Embed 2.0 成為前沿檢索模型中的領導者。
- 透過 Matryoshka Representation Learning (MRL) 實現可擴展的檢索: Arctic Embed 2.0 版本包含 Arctic Embed 1.5 中引入的相同量化友善型 MRL 功能,允許用戶在對大型資料集執行搜尋時降低成本並優化規模。使用這兩種模型尺寸,用戶只需每個向量 128 個位元組(比 OpenAI 流行的 text-embedding-3-large 模型1 的未壓縮嵌入小 96 倍)即可實現高品質的檢索。與 Arctic Embed 1.5 一樣,Arctic Embed 2.0 模型在壓縮狀態下也超越了幾個支援 MRL 的同類產品,品質降級幅度更小,基準分數更高。
- 真正的開源: Arctic Embed 2.0 模型在寬鬆的 Apache 2.0 許可證下發布。