daje commited on
Commit
b759886
·
1 Parent(s): 4251638

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +74 -2
README.md CHANGED
@@ -15,6 +15,78 @@ dataset_info:
15
  download_size: 550489937
16
  dataset_size: 986780351
17
  ---
18
- # Dataset Card for "ko_wiki"
19
 
20
- [More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
15
  download_size: 550489937
16
  dataset_size: 986780351
17
  ---
 
18
 
19
+
20
+ # 한국어 위키 데이터셋(Ko_wiki)
21
+ * 개요
22
+ - 이 데이터셋은 한국어 위키 데이터를 기반으로 만들어졌습니다. 원본 위키 데이터를 처리하기 위해 wikiextractor.py를 사용하여 텍스트 형식으로 변환하였습니다.
23
+ - 이 데이터셋을 제작한 주요 취지는 한국어 자연어 처리 연구와 애플리케이션 개발에 사용할 수 있는 광범위한 텍스트 데이터를 제공하기 위함입니다.
24
+ - 또한,
25
+
26
+ * 데이터 구조
27
+ - text: 위키 문서의 본문을 포함하는 문자열입니다.
28
+
29
+ * 사용 방법
30
+ 1. huggingface dataset과 map을 활용하는 방법
31
+ ```python3
32
+ from datasets import load_dataset
33
+ ko_dataset = load_dataset("text",
34
+ "daje/ko_wiki",
35
+ split="train",
36
+ streaming=True)
37
+
38
+ ko_wiki_tokenized = ko_dataset.map(lambda x : tokenizer(x["text"],
39
+ max_length=256,
40
+ padding="max_length",
41
+ truncation=True),
42
+ remove_columns=["text"])
43
+ ```
44
+
45
+ 2. 파이썬 스크립트를 사용하는 방법
46
+ ```
47
+ import os
48
+ from tqdm import tqdm
49
+ from transformers import AutoTokenizer
50
+
51
+ import argparse
52
+ parser = argparse.ArgumentParser()
53
+ parser.add_argument('--input_path', type=str)
54
+ parser.add_argument('--output_path', type=str)
55
+ parser.add_argument('--model_name_or_path', type=str)
56
+ parser.add_argument('--max_seq_length', type=int, default=256)
57
+ parser.add_argument('--add_sep', default=True, action='store_true')
58
+ args = parser.parse_args()
59
+
60
+
61
+ def get_num_lines(fname):
62
+ res = os.popen(f'wc -l {fname}').read()
63
+ lines = res.strip().split()[0]
64
+ return int(lines)
65
+
66
+ def main(args):
67
+ seq_length = args.max_seq_length - 3 # room for [BOS], [EOS], [UNK]
68
+ input_fs = open(args.input_path, 'r')
69
+ output_fs = open(args.output_path, 'a')
70
+ total_line = get_num_lines(args.input_path)
71
+ tokenizer = AutoTokenizer.from_pretrained(args.model_name_or_path)
72
+
73
+ buffer = []
74
+ for doc in tqdm(input_fs, total=total_line):
75
+ tokens = tokenizer.tokenize(doc)
76
+ buffer += tokens
77
+ if args.add_sep:
78
+ buffer += [tokenizer.eos_token] # 자신이 사용하는 tokenizer에 맞추어서 eos, sep을 넣으시면 됩니다.
79
+
80
+ while len(buffer) > seq_length:
81
+ text = ' '.join(buffer[:seq_length])
82
+ output_fs.write(text)
83
+ output_fs.write('\n')
84
+ buffer = buffer[seq_length:]
85
+
86
+ input_fs.close()
87
+ output_fs.close()
88
+
89
+ if __name__ == '__main__':
90
+ main(args)
91
+ ```
92
+