File size: 3,450 Bytes
30facf9
 
3852edb
 
 
 
 
 
30facf9
3852edb
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
7d31f7f
 
3852edb
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
---
license: afl-3.0
language:
- zh
tags:
- Chinese Spell Correction
- csc
- Chinese Spell Checking
---

# ChienseBERT-for-csc

中文拼写纠错(Chinese Spell Checking, CSC)模型

该模型源于SCOPE论文的复现。

原论文为:https://arxiv.org/pdf/2210.10996.pdf

原论文官方代码为:https://github.com/jiahaozhenbang/SCOPE

本模型并没有完全复现作者的结果,最终效果比论文中差了一个点,具体原因可参考[#7](https://github.com/jiahaozhenbang/SCOPE/issues/7)。

本模型在SIGHAN2015上的表现如下:

|  | Detect-Acc | Detect-Precision | Detect-Recall | Detect-F1 | Correct-Acc | Correct-Precision | Correct-Recall | Correct-F1 | 
|--|--|--|--|--|--|--|--|--|
| Chararcter-level | - | - | - | 87.16 | - | - | - | 91.39 |
| Sentence-level | 86.27 | 79.75 | 82.99 | 81.34 | 85.45 | 78.15 | 81.33 | 79.71 |


若去掉SCOPE论文中在推理阶段使用的CIC,则在SIGHAN2015上表现如下:

|  | Detect-Acc | Detect-Precision | Detect-Recall | Detect-F1 | Correct-Acc | Correct-Precision | Correct-Recall | Correct-F1 | 
|--|--|--|--|--|--|--|--|--|
| Chararcter-level | - | - | - | 86.46 | - | - | - | 91.13 |
| Sentence-level | 85.36 | 78.19 | 82.44 | 80.22 | 85.55 | 76.53 | 80.78 | 78.60 |


> 本模型非官方模型,将其中SCOPE部分的拼音辅助训练任务和损失函数计算等相关代码去掉,仅保留了ChineseBERT的部分。

# 模型使用方法

[![Open In Colab](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/github/iioSnail/SCOPE/blob/main/ChineseBERT-for-csc_Demo.ipynb)

```
from transformers import AutoTokenizer, AutoModel

tokenizer = AutoTokenizer.from_pretrained("iioSnail/ChineseBERT-for-csc", trust_remote_code=True)
model = AutoModel.from_pretrained("iioSnail/ChineseBERT-for-csc", trust_remote_code=True)

inputs = tokenizer(["我是炼习时长两念半的个人练习生蔡徐坤"], return_tensors='pt')
output_hidden = model(**inputs).logits
print(''.join(tokenizer.convert_ids_to_tokens(output_hidden.argmax(-1)[0, 1:-1])))
```

输出:

```
我是练习时长两年半的个人练习生蔡徐坤
```

你也可以使用本模型封装的`predict`方法,其中封装了作者提出的CIC方法,可以解决连续错字问题。

```
from transformers import AutoTokenizer, AutoModel

tokenizer = AutoTokenizer.from_pretrained("iioSnail/ChineseBERT-for-csc", trust_remote_code=True)
model = AutoModel.from_pretrained("iioSnail/ChineseBERT-for-csc", trust_remote_code=True)

model.set_tokenizer(tokenizer)  # 使用predict方法前,调用该方法
print(model.predict("我是练习时长两念半的鸽仁练习生蔡徐坤", window=0))  # 将窗口设置为0,不使用CIC
print(model.predict("我是练习时长两念半的鸽仁练习生蔡徐坤"))  # window默认为1,可以连续处理两个汉字
```

输出:

```
我是练习时长两年半的鸽人练习生蔡徐坤
我是练习时长两年半的个人练习生蔡徐坤
```

# 常见问题

1. 网络问题,例如:`Connection Error`

解决方案:将模型下载到本地使用。批量下载方案可参考该[博客](https://blog.csdn.net/zhaohongfei_358/article/details/126222999)

2. 将模型下载到本地使用时出现报错:`ModuleNotFoundError: No module named 'transformers_modules.iioSnail/ChineseBERT-for-csc'`

解决方案:将 `iioSnail/ChineseBERT-for-csc` 改为 `iioSnail\ChineseBERT-for-csc`