Embedding

Embedding

383 Pulls Updated 5 months ago

Readme

M3E 是 Moka Massive Mixed Embedding 的缩写

Moka,此模型由 MokaAI 训练,开源和评测,训练脚本使用 uniem ,评测 BenchMark 使用 MTEB-zh

Massive,此模型通过千万级 (2200w+) 的中文句对数据集进行训练

Mixed,此模型支持中英双语的同质文本相似度计算,异质文本检索等功能,未来还会支持代码检索

Embedding,此模型是文本嵌入模型,可以将自然语言转换成稠密的向量


仅个人出于方便使用目的上传,如有侵权立刻删除。

官方地址