File size: 743 Bytes
fba164c 9cade77 fba164c |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 |
---
license: apache-2.0
---
## 介绍
该模型是以[ChatGLM2-6B](https://github.com/THUDM/ChatGLM2-6B)为主干,采用Lora高效参数微调方法,基于[WebCPM_WK](https://huggingface.co/datasets/ZHR123/WebCPM_WK)数据集进行微调后的模型。
相比于原本的ChatGLM2-6B模型,本模型不仅具备原先的强大的多轮对话能力,并且还具备以下两点新的能力:
1. 给定问题和文档,抽取文档中与问题相关知识的能力。
2. 给定参考材料和问题,根据参考材料回答问题的能力。
本项目只开源lora参数,若要使用完整的模型,请再获取[Chatglm2](https://huggingface.co/THUDM/chatglm2-6b)基座模型的参数,并与本项目参数进行合并。
|