MokaHR commited on
Commit
35c0fde
1 Parent(s): b342381

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +4 -3
README.md CHANGED
@@ -14,9 +14,10 @@ library_name: sentence-transformers
14
 
15
  M3E 是 Moka Massive Mixed Embedding 的缩写
16
 
17
- * Moka,此文本嵌入模型由 MokaAI 训练并开源,训练脚本使用 [uniem](https://github.com/wangyuxinwhy/uniem/blob/main/scripts/train_m3e.py)
18
- * Massive,此文本嵌入模型通过**千万级**的中文句对数据集进行训练
19
- * Mixed,此文本嵌入模型支持中英双语的同质文本相似度计算,异质文本检索等功能,未来还会支持代码检索
 
20
 
21
  ## 更新说明
22
 
 
14
 
15
  M3E 是 Moka Massive Mixed Embedding 的缩写
16
 
17
+ - Moka,此模型由 MokaAI 训练并开源,训练脚本使用 [uniem](https://github.com/wangyuxinwhy/uniem/blob/main/scripts/train_m3e.py)
18
+ - Massive,此模型通过**千万级** (2200w+) 的中文句对数据集进行训练
19
+ - Mixed,此模型支持中英双语的同质文本相似度计算,异质文本检索等功能,未来还会支持代码检索
20
+ - Embedding,此模型是文本嵌入模型,可以将自然语言转换成稠密的向量
21
 
22
  ## 更新说明
23