Update README.md
Browse files
README.md
CHANGED
@@ -15,6 +15,78 @@ dataset_info:
|
|
15 |
download_size: 550489937
|
16 |
dataset_size: 986780351
|
17 |
---
|
18 |
-
# Dataset Card for "ko_wiki"
|
19 |
|
20 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
15 |
download_size: 550489937
|
16 |
dataset_size: 986780351
|
17 |
---
|
|
|
18 |
|
19 |
+
|
20 |
+
# 한국어 위키 데이터셋(Ko_wiki)
|
21 |
+
* 개요
|
22 |
+
- 이 데이터셋은 한국어 위키 데이터를 기반으로 만들어졌습니다. 원본 위키 데이터를 처리하기 위해 wikiextractor.py를 사용하여 텍스트 형식으로 변환하였습니다.
|
23 |
+
- 이 데이터셋을 제작한 주요 취지는 한국어 자연어 처리 연구와 애플리케이션 개발에 사용할 수 있는 광범위한 텍스트 데이터를 제공하기 위함입니다.
|
24 |
+
- 또한,
|
25 |
+
|
26 |
+
* 데이터 구조
|
27 |
+
- text: 위키 문서의 본문을 포함하는 문자열입니다.
|
28 |
+
|
29 |
+
* 사용 방법
|
30 |
+
1. huggingface dataset과 map을 활용하는 방법
|
31 |
+
```python3
|
32 |
+
from datasets import load_dataset
|
33 |
+
ko_dataset = load_dataset("text",
|
34 |
+
"daje/ko_wiki",
|
35 |
+
split="train",
|
36 |
+
streaming=True)
|
37 |
+
|
38 |
+
ko_wiki_tokenized = ko_dataset.map(lambda x : tokenizer(x["text"],
|
39 |
+
max_length=256,
|
40 |
+
padding="max_length",
|
41 |
+
truncation=True),
|
42 |
+
remove_columns=["text"])
|
43 |
+
```
|
44 |
+
|
45 |
+
2. 파이썬 스크립트를 사용하는 방법
|
46 |
+
```
|
47 |
+
import os
|
48 |
+
from tqdm import tqdm
|
49 |
+
from transformers import AutoTokenizer
|
50 |
+
|
51 |
+
import argparse
|
52 |
+
parser = argparse.ArgumentParser()
|
53 |
+
parser.add_argument('--input_path', type=str)
|
54 |
+
parser.add_argument('--output_path', type=str)
|
55 |
+
parser.add_argument('--model_name_or_path', type=str)
|
56 |
+
parser.add_argument('--max_seq_length', type=int, default=256)
|
57 |
+
parser.add_argument('--add_sep', default=True, action='store_true')
|
58 |
+
args = parser.parse_args()
|
59 |
+
|
60 |
+
|
61 |
+
def get_num_lines(fname):
|
62 |
+
res = os.popen(f'wc -l {fname}').read()
|
63 |
+
lines = res.strip().split()[0]
|
64 |
+
return int(lines)
|
65 |
+
|
66 |
+
def main(args):
|
67 |
+
seq_length = args.max_seq_length - 3 # room for [BOS], [EOS], [UNK]
|
68 |
+
input_fs = open(args.input_path, 'r')
|
69 |
+
output_fs = open(args.output_path, 'a')
|
70 |
+
total_line = get_num_lines(args.input_path)
|
71 |
+
tokenizer = AutoTokenizer.from_pretrained(args.model_name_or_path)
|
72 |
+
|
73 |
+
buffer = []
|
74 |
+
for doc in tqdm(input_fs, total=total_line):
|
75 |
+
tokens = tokenizer.tokenize(doc)
|
76 |
+
buffer += tokens
|
77 |
+
if args.add_sep:
|
78 |
+
buffer += [tokenizer.eos_token] # 자신이 사용하는 tokenizer에 맞추어서 eos, sep을 넣으시면 됩니다.
|
79 |
+
|
80 |
+
while len(buffer) > seq_length:
|
81 |
+
text = ' '.join(buffer[:seq_length])
|
82 |
+
output_fs.write(text)
|
83 |
+
output_fs.write('\n')
|
84 |
+
buffer = buffer[seq_length:]
|
85 |
+
|
86 |
+
input_fs.close()
|
87 |
+
output_fs.close()
|
88 |
+
|
89 |
+
if __name__ == '__main__':
|
90 |
+
main(args)
|
91 |
+
```
|
92 |
+
|