File size: 743 Bytes
fba164c
 
 
 
 
 
 
 
 
 
 
 
 
 
9cade77
fba164c
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
---
license: apache-2.0
---



## 介绍
该模型是以[ChatGLM2-6B](https://github.com/THUDM/ChatGLM2-6B)为主干,采用Lora高效参数微调方法,基于[WebCPM_WK](https://huggingface.co/datasets/ZHR123/WebCPM_WK)数据集进行微调后的模型。

相比于原本的ChatGLM2-6B模型,本模型不仅具备原先的强大的多轮对话能力,并且还具备以下两点新的能力:

1. 给定问题和文档,抽取文档中与问题相关知识的能力。
2. 给定参考材料和问题,根据参考材料回答问题的能力。

本项目只开源lora参数,若要使用完整的模型,请再获取[Chatglm2](https://huggingface.co/THUDM/chatglm2-6b)基座模型的参数,并与本项目参数进行合并。