一系列為視覺語言理解設計的多模態大型語言模型 (MLLM)。

vision 8b

102.5K 2 months ago

Readme

注意:此模型需要 Ollama 0.3.10 或更高版本。

MiniCPM-V 2.6 是 MiniCPM-V 系列中最新且功能最強大的模型。此模型基於 SigLip-400M 和 Qwen2-7B 構建,總共有 8B 參數。相較於 MiniCPM-Llama3-V 2.5,它在效能上有顯著的提升,並為多圖像和影片理解引入了新功能。MiniCPM-V 2.6 的顯著功能包括

  • 🔥 領先的效能:MiniCPM-V 2.6 在最新版本的 OpenCompass 上取得了平均 65.2 分的成績,OpenCompass 是對 8 個熱門基準的綜合評估。僅使用 8B 參數,它在單圖像理解方面超越了廣泛使用的專有模型,如 GPT-4o mini、GPT-4V、Gemini 1.5 Pro 和 Claude 3.5 Sonnet。

  • 🖼️ 多圖像理解和上下文學習。MiniCPM-V 2.6 也可以對多個圖像執行對話和推理。它在流行的多圖像基準(如 Mantis-Eval、BLINK、Mathverse mv 和 Sciverse mv)上取得了最先進的效能,並在上下文學習能力方面也顯示出前景。

  • 💪 強大的 OCR 能力:MiniCPM-V 2.6 可以處理任何長寬比且高達 180 萬像素(例如,1344x1344)的圖像。它在 OCRBench 上取得了最先進的效能,超越了 GPT-4o、GPT-4V 和 Gemini 1.5 Pro 等專有模型。基於最新的 RLAIF-V 和 VisCPM 技術,它具有值得信賴的行為,在 Object HalBench 上的幻覺率顯著低於 GPT-4o 和 GPT-4V,並支援英語、中文、德語、法語、義大利語、韓語等多種語言能力。

  • 🚀 優越的效率:除了友善的尺寸外,MiniCPM-V 2.6 還展現了最先進的 Token 密度(即編碼到每個視覺 Token 中的像素數量)。在處理 180 萬像素圖像時,它僅產生 640 個 Token,比大多數模型少 75%。這直接提高了推理速度、首個 Token 延遲、記憶體使用量和功耗。

參考文獻

GitHub

Hugging Face