--- license: apache-2.0 --- ## 介绍 该模型是以[ChatGLM2-6B](https://github.com/THUDM/ChatGLM2-6B)为主干,采用Lora高效参数微调方法,基于[WebCPM_WK](https://huggingface.co/datasets/ZHR123/WebCPM_WK)数据集进行微调后的模型。 相比于原本的ChatGLM2-6B模型,本模型不仅具备原先的强大的多轮对话能力,并且还具备以下两点新的能力: 1. 给定问题和文档,抽取文档中与问题相关知识的能力。 2. 给定参考材料和问题,根据参考材料回答问题的能力。 本项目只开源lora参数,若要使用完整的模型,请再获取[Chatglm2](https://huggingface.co/THUDM/chatglm2-6b)基座模型的参数,并与本项目参数进行合并。