system HF staff commited on
Commit
8ad4605
·
0 Parent(s):

Update files from the datasets library (from 1.2.0)

Browse files

Release notes: https://github.com/huggingface/datasets/releases/tag/1.2.0

.gitattributes ADDED
@@ -0,0 +1,27 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ *.7z filter=lfs diff=lfs merge=lfs -text
2
+ *.arrow filter=lfs diff=lfs merge=lfs -text
3
+ *.bin filter=lfs diff=lfs merge=lfs -text
4
+ *.bin.* filter=lfs diff=lfs merge=lfs -text
5
+ *.bz2 filter=lfs diff=lfs merge=lfs -text
6
+ *.ftz filter=lfs diff=lfs merge=lfs -text
7
+ *.gz filter=lfs diff=lfs merge=lfs -text
8
+ *.h5 filter=lfs diff=lfs merge=lfs -text
9
+ *.joblib filter=lfs diff=lfs merge=lfs -text
10
+ *.lfs.* filter=lfs diff=lfs merge=lfs -text
11
+ *.model filter=lfs diff=lfs merge=lfs -text
12
+ *.msgpack filter=lfs diff=lfs merge=lfs -text
13
+ *.onnx filter=lfs diff=lfs merge=lfs -text
14
+ *.ot filter=lfs diff=lfs merge=lfs -text
15
+ *.parquet filter=lfs diff=lfs merge=lfs -text
16
+ *.pb filter=lfs diff=lfs merge=lfs -text
17
+ *.pt filter=lfs diff=lfs merge=lfs -text
18
+ *.pth filter=lfs diff=lfs merge=lfs -text
19
+ *.rar filter=lfs diff=lfs merge=lfs -text
20
+ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
21
+ *.tar.* filter=lfs diff=lfs merge=lfs -text
22
+ *.tflite filter=lfs diff=lfs merge=lfs -text
23
+ *.tgz filter=lfs diff=lfs merge=lfs -text
24
+ *.xz filter=lfs diff=lfs merge=lfs -text
25
+ *.zip filter=lfs diff=lfs merge=lfs -text
26
+ *.zstandard filter=lfs diff=lfs merge=lfs -text
27
+ *tfevents* filter=lfs diff=lfs merge=lfs -text
README.md ADDED
@@ -0,0 +1,191 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ annotations_creators:
3
+ - found
4
+ language_creators:
5
+ - found
6
+ languages:
7
+ - en
8
+ licenses:
9
+ - unknown
10
+ multilinguality:
11
+ - monolingual
12
+ size_categories:
13
+ - 10K<n<100K
14
+ source_datasets:
15
+ - original
16
+ task_categories:
17
+ - text-classification
18
+ task_ids:
19
+ - topic-classification
20
+ ---
21
+
22
+ # Dataset Card for `prachathai67k`
23
+
24
+ ## Table of Contents
25
+ - [Dataset Description](#dataset-description)
26
+ - [Dataset Summary](#dataset-summary)
27
+ - [Supported Tasks](#supported-tasks-and-leaderboards)
28
+ - [Languages](#languages)
29
+ - [Dataset Structure](#dataset-structure)
30
+ - [Data Instances](#data-instances)
31
+ - [Data Fields](#data-instances)
32
+ - [Data Splits](#data-instances)
33
+ - [Dataset Creation](#dataset-creation)
34
+ - [Curation Rationale](#curation-rationale)
35
+ - [Source Data](#source-data)
36
+ - [Annotations](#annotations)
37
+ - [Personal and Sensitive Information](#personal-and-sensitive-information)
38
+ - [Considerations for Using the Data](#considerations-for-using-the-data)
39
+ - [Social Impact of Dataset](#social-impact-of-dataset)
40
+ - [Discussion of Biases](#discussion-of-biases)
41
+ - [Other Known Limitations](#other-known-limitations)
42
+ - [Additional Information](#additional-information)
43
+ - [Dataset Curators](#dataset-curators)
44
+ - [Licensing Information](#licensing-information)
45
+ - [Citation Information](#citation-information)
46
+
47
+ ## Dataset Description
48
+
49
+ - **Homepage:** https://github.com/PyThaiNLP/prachathai-67k
50
+ - **Repository:** https://github.com/PyThaiNLP/prachathai-67k
51
+ - **Paper:**
52
+ - **Leaderboard:**
53
+ - **Point of Contact:** https://github.com/PyThaiNLP/
54
+
55
+ ### Dataset Summary
56
+
57
+ `prachathai-67k`: News Article Corpus and Multi-label Text Classificdation from Prachathai.com
58
+
59
+ The `prachathai-67k` dataset was scraped from the news site [Prachathai](prachathai.com). We filtered out those articles with less than 500 characters of body text, mostly images and cartoons. It contains 67,889 articles wtih 12 curated tags from August 24, 2004 to November 15, 2018. The dataset was originally scraped by [@lukkiddd](https://github.com/lukkiddd) and cleaned by [@cstorm125](https://github.com/cstorm125). Download the dataset [here](https://www.dropbox.com/s/fsxepdka4l2pr45/prachathai-67k.zip?dl=1). You can also see preliminary exploration in [exploration.ipynb](https://github.com/PyThaiNLP/prachathai-67k/blob/master/exploration.ipynb).
60
+
61
+ This dataset is a part of [pyThaiNLP](https://github.com/PyThaiNLP/) Thai text [classification-benchmarks](https://github.com/PyThaiNLP/classification-benchmarks). For the benchmark, we selected the following tags with substantial volume that resemble **classifying types of articles**:
62
+
63
+ * `การเมือง` - politics
64
+ * `สิทธิมนุษยชน` - human_rights
65
+ * `คุณภาพชีวิต` - quality_of_life
66
+ * `ต่างประเทศ` - international
67
+ * `สังคม` - social
68
+ * `สิ่งแวดล้อม` - environment
69
+ * `เศรษฐกิจ` - economics
70
+ * `วัฒนธรรม` - culture
71
+ * `แรงงาน` - labor
72
+ * `ความมั่นคง` - national_security
73
+ * `ไอซีที` - ict
74
+ * `การศึกษา` - education
75
+
76
+ ### Supported Tasks and Leaderboards
77
+
78
+ multi-label text classification, language modeling
79
+
80
+ ### Languages
81
+
82
+ Thai
83
+
84
+ ## Dataset Structure
85
+
86
+ ### Data Instances
87
+
88
+ {'body_text': '17 พ.ย. 2558 Blognone [1] รายงานว่า กลุ่มแฮคเกอร์ Anonymous ประกาศสงครามไซเบอร์กับกลุ่มหัวรุนแรงหลังจากกลุ่ม IS ออกมาประกาศว่าเป็นผู้อยู่เบื้องหลังการโจมตีกรุงปารีสในคืนวันศุกร์ที่ผ่านมา\n\n\nภาพในคลิปใน YouTube โฆษกของกลุ่มแฮคเกอร์สวมหน้ากากที่เป็นสัญลักษณ์ของกลุ่มได้ออกมาอ่านแถลงเป็นภาษาฝรั่งเศส มีใจความว่า จากการโจมตีของกลุ่ม IS ในกรุงปารีส กลุ่ม Anonymous ทั่วโลกจะตามล่ากลุ่ม IS เหมือนที่เคยทำตอนที่มีการโจมตีสำนักพิมพ์ Charlie Hebdo และครั้งนี้จะเป็นปฏิบัติการโจมตีครั้งใหญ่ที่สุดของกลุ่ม Anonymous เลย นอกจากนี้กลุ่ม Anonymous ยังแสดงความเสียใจต่อครอบครัวผู้สูญเสียในเหตุการณ์ครั้งนี้\nกลุ่ม Anonymous เคยประกาศสงครามกับกลุ่ม IS หลังจากการโจมตีสำนักพิมพ��� Charlie Hebdo ที่ฝรั่งเศสเมื่อต้นปีที่ผ่านมา ซึ่งครั้งนั้นกลุ่ม Anonymous อ้างว่าได้ระงับบัญชีผู้ใช้งานที่เกี่ยวข้องกับ IS ไปหลายพันบัญชี (อ่านรายละเอียดเพิ่มเติม จากBlognone ที่\xa0\xa0กลุ่มแฮคเกอร์ Anonymous ประกาศสงครามไซเบอร์ขอกวาดล้างพวก ISIS [2])', 'culture': 0, 'date': '2015-11-17 18:14', 'economics': 0, 'education': 0, 'environment': 0, 'human_rights': 0, 'ict': 1, 'international': 1, 'labor': 0, 'national_security': 0, 'politics': 0, 'quality_of_life': 0, 'social': 0, 'title': 'แฮคเกอร์ Anonymous ลั่นทำสงครามไซเบอร์ครั้งใหญ่สุดกับกลุ่ม IS', 'url': 'https://prachatai.com/print/62490'}
89
+ {'body_text': 'แถลงการณ์\n\n\xa0\n\nองค์การนักศึกษามหาวิทยาลัยธรรมศาสตร์\n\n\xa0\n\nมหาวิทยาลัยธรรมศาสตร์ก่อตั้งขึ้นภายใต้แนวคิดการให้การศึกษากับประชาชนเพื่อสนับสนุนการปกครองระบอบประชาธิปไตย อีกทั้งยังเป็นสถาบันหนึ่งที่อยู่เคียงข้างประชาชนมาโดยตลอด\n\n\xa0\n\nสถานการณ์สังคมไทยปัจจุบันได้เกิดความขัดแย้งทางการเมือง ทางแนวคิด จนลุกลามเป็นวิกฤตการณ์อันหาทางออกได้ยากยิ่ง องค์กรนักศึกษามหาวิทยาลัยธรรมศาสตร์ขอร้องเรียนและเสนอแนะต่อทุกฝ่าย โดยยึดหลักแนวทางตามรัฐธรรมนูญแห่งราชอาณาจักรไทย พ.ศ. ๒๕๕๐ อันเป็นกฎหมายสูงสุดในการจัดการปกครองรัฐ ที่มีผลบังคับใช้อยู่ในปัจจุบันซึ่งผ่านการประชามติจากปวงชนชาวไทยเมื่อวันที่ ๑๙ สิงหาคม พ.ศ. ๒๕๕๐ แล้วดังต่อนี้\n\n\xa0\n\n๑.การชุมชมโดยสงบและปราศจากอาวุธย่อมได้รับการคุ้มครองตามรัฐธรรมนูญ แต่หากการชุมนุมและเคลื่อนไหวของกลุ่มใดๆ มีการละเมิดสิทธิและเสรีภาพของผู้อื่นหรือก่อให้เกิดความเสียหายต่อชีวิตและทรัพย์สินของบุคคลและส่วนรวมนั้น ไม่สามารถกระทำได้ การใช้ความรุนแรง การกระทำอุกอาจต่างๆ ทั้งต่อบุคคลและทรัพย์สิน การยั่วยุ ปลุกระดมเพื่อหวังผลในการปะทะต่อสู้ จึงควรได้รับการกล่าวโทษ\n\n\xa0\n\nดังนั้นทั้งกลุ่มพันธมิตรประชาชนเพื่อประชาธิปไตย (พธม.) และกลุ่มแนวร่วมประชาธิปไตยไม่เอาเผด็จการแห่งชาติ (นปช.) จึงควรยอมรับกระบวนการตามกฎหมาย และหากถูกกล่าวหาไม่ว่ากรณีใดๆ ก็ควรพิสูจน์ความบริสุทธิ์โดยใช้กระบวนการยุติธรรม และหากจะยังชุมนุมต่อไปก็ยังคงทำได้ภายใต้บทบัญญัติแห่งกฎหมาย\n\n\xa0\n\nองค์กรนักศึกษามหาวิทยาลัยธรรมศาสตร์ จึงร้องขอให้หน่วยงานต่างๆ ที่เกี่ยวข้องดำเนินการตามกระบวนการทางกฎหมายกับการกระทำที่ผิดบทบัญญัติแห่งกฎหมายที่ทุกฝ่ายได้กระทำไป\n\n\xa0\n\n๒.นายสมัคร สุนทรเวช นายกรัฐมนตรี ไม่มีความเหมาะสมในการบริหารราชการแผ่นดินขาดหลักธรรมาภิบาล แต่ทั้งนี้นายสมัคร สุนทรเวช ยังคงยืนยันและกล่าวอ้างความชอบธรรมตามระบอบประชาธิปไตยภายใต้รัฐธรรมนูญ โดยไม่คำนึงถึงกระแสเรียกร้องใดๆ อันส่งผลให้ความขัดแย้งทางสังคมยิ่งบานปลายจนกลายเป็นวิกฤตการณ์เช่นปัจจุบัน ซึ่งก่อให้เกิดความเสียหายต่อประเทศแนวโน้มจะคลี่คลาย\n\n\xa0\n\nองค์การนักศึกษามหาวิทยาลัยธรรมศาสตร์ จึงเห็นว่า ควรใช้สิทธิตามรัฐธรรมนูญแห่งราชอาณาจักรไทย พุทธศักราช ๒๕๕๐ มาตรา ๑๖๔ โดยการเข้าชื่อเพื่อร้องต่อประธานวุฒิสภาเพื่อให้มีมติตามมาตรา ๒๗๔ ให้ถอดถอนนายสมัคร สุนทรเวช ออกจากตำแหน่งนายกรัฐมนตรีตามมาตรา ๒๗๐ ณ ลานโพ มหาวิทยาลัยธรรมศาสตร์ ท่าพระจันทร์ อาคารเรียนรวมสังคมศาสตร์ อาคารปิยชาติ และตึกกิจกรรมนักศึกษา มหาวิทยาลัยธรรมศาสตร์ ศูนย์รังสิต\n\n\xa0\n\n\xa0\n\nด้วยความสมานฉันท์\n\nองค์การนักศึกษามหาวิทยาลัยธรรมศาสตร์', 'culture': 0, 'date': '2008-09-06 03:36', 'economics': 0, 'education': 0, 'environment': 0, 'human_rights': 0, 'ict': 0, 'international': 0, 'labor': 0, 'national_security': 0, 'politics': 1, 'quality_of_life': 0, 'social': 0, 'title': 'แถลงการณ์ อมธ.แนะใช้สิทธิ ตาม รธน.เข้าชื่อร้องต่อประธานวุฒิสภาถอดถอน "สมัคร" จากตำแหน่งนายกฯ', 'url': 'https://prachatai.com/print/18038'}
90
+
91
+ ### Data Fields
92
+
93
+ - `url`: url of the article
94
+ - `date`: date the article was published
95
+ - `title`: title of the article
96
+ - `body_text`: body text of the article
97
+ - `politics`: 1 if sample has this tag else 0
98
+ - `human_rights`: 1 if sample has this tag else 0
99
+ - `quality_of_life`: 1 if sample has this tag else 0
100
+ - `international`: 1 if sample has this tag else 0
101
+ - `social`: 1 if sample has this tag else 0
102
+ - `environment`: 1 if sample has this tag else 0
103
+ - `economics`: 1 if sample has this tag else 0
104
+ - `culture`: 1 if sample has this tag else 0
105
+ - `labor`: 1 if sample has this tag else 0
106
+ - `national_security`: 1 if sample has this tag else 0
107
+ - `ict`: 1 if sample has this tag else 0
108
+ - `education`: 1 if sample has this tag else 0
109
+
110
+ ### Data Splits
111
+
112
+ | | train | valid | test |
113
+ |-------------------|-------|--------|------|
114
+ | # articles | 54379 | 6721 | 6789 |
115
+ | politics | 31401 | 3852 | 3842 |
116
+ | human_rights | 12061 | 1458 | 1511 |
117
+ | quality_of_life | 9037 | 1144 | 1127 |
118
+ | international | 6432 | 828 | 834 |
119
+ | social | 6321 | 782 | 789 |
120
+ | environment | 6157 | 764 | 772 |
121
+ | economics | 3994 | 487 | 519 |
122
+ | culture | 3279 | 388 | 398 |
123
+ | labor | 2905 | 375 | 350 |
124
+ | national_security | 2865 | 339 | 338 |
125
+ | ict | 2326 | 285 | 292 |
126
+ | education | 2093 | 248 | 255 |
127
+
128
+ ## Dataset Creation
129
+
130
+ ### Curation Rationale
131
+
132
+ The data was scraped from the news site [Prachathai](prachathai.com) from August 24, 2004 to November 15, 2018. The initial intention was to use the dataset as a benchmark for Thai text classification. Due to the size of the dataset, it can also be used for language modeling.
133
+
134
+ ### Source Data
135
+
136
+ #### Initial Data Collection and Normalization
137
+
138
+ 67,889 articles wtih 51,797 tags were scraped from the news site [Prachathai](prachathai.com) from August 24, 2004 to November 15, 2018. We filtered out those articles with less than 500 characters of body text, mostly images and cartoons.
139
+
140
+ #### Who are the source language producers?
141
+
142
+ Prachathai.com
143
+
144
+ ### Annotations
145
+
146
+ #### Annotation process
147
+
148
+ Tags are annotated for the news website Prachathai.com
149
+
150
+ #### Who are the annotators?
151
+
152
+ We assume that the reporters who wrote the articles or other Prachathai staff gave each article its tags.
153
+
154
+ ### Personal and Sensitive Information
155
+
156
+ We do not expect any personal and sensitive information to be present since all data are public news articles.
157
+
158
+ ## Considerations for Using the Data
159
+
160
+ ### Social Impact of Dataset
161
+
162
+ - classification benchmark for multi-label Thai text classification
163
+
164
+ ### Discussion of Biases
165
+
166
+ Prachathai.com is a left-leaning, human-right-focused news site, and thus unusual news labels such as human rights and quality of life. The news articles are expected to be left-leaning in contents.
167
+
168
+ ### Other Known Limitations
169
+
170
+ [More Information Needed]
171
+
172
+ ## Additional Information
173
+
174
+ ### Dataset Curators
175
+
176
+ PyThaiNLP
177
+
178
+ ### Licensing Information
179
+
180
+ CC-BY-NC
181
+
182
+ ### Citation Information
183
+
184
+ @misc{prachathai67k,
185
+ author = {cstorm125, lukkiddd },
186
+ title = {prachathai67k},
187
+ year = {2019},
188
+ publisher = {GitHub},
189
+ journal = {GitHub repository},
190
+ howpublished={\\url{https://github.com/PyThaiNLP/prachathai-67k}},
191
+ }
dataset_infos.json ADDED
@@ -0,0 +1 @@
 
 
1
+ {"prachathai67k": {"description": "`prachathai-67k`: News Article Corpus and Multi-label Text Classificdation from Prachathai.com\nThe prachathai-67k dataset was scraped from the news site Prachathai.\nWe filtered out those articles with less than 500 characters of body text, mostly images and cartoons.\nIt contains 67,889 articles wtih 12 curated tags from August 24, 2004 to November 15, 2018.\nThe dataset was originally scraped by @lukkiddd and cleaned by @cstorm125.\nYou can also see preliminary exploration at https://github.com/PyThaiNLP/prachathai-67k/blob/master/exploration.ipynb\n", "citation": "@misc{prachathai67k,\n author = {cstorm125, lukkiddd },\n title = {prachathai67k},\n year = {2019},\n publisher = {GitHub},\n journal = {GitHub repository},\n howpublished={\\url{https://github.com/PyThaiNLP/prachathai-67k}},\n}\n", "homepage": "https://github.com/PyThaiNLP/prachathai-67k/", "license": "", "features": {"url": {"dtype": "string", "id": null, "_type": "Value"}, "date": {"dtype": "string", "id": null, "_type": "Value"}, "title": {"dtype": "string", "id": null, "_type": "Value"}, "body_text": {"dtype": "string", "id": null, "_type": "Value"}, "politics": {"num_classes": 2, "names": ["neg", "pos"], "names_file": null, "id": null, "_type": "ClassLabel"}, "human_rights": {"num_classes": 2, "names": ["neg", "pos"], "names_file": null, "id": null, "_type": "ClassLabel"}, "quality_of_life": {"num_classes": 2, "names": ["neg", "pos"], "names_file": null, "id": null, "_type": "ClassLabel"}, "international": {"num_classes": 2, "names": ["neg", "pos"], "names_file": null, "id": null, "_type": "ClassLabel"}, "social": {"num_classes": 2, "names": ["neg", "pos"], "names_file": null, "id": null, "_type": "ClassLabel"}, "environment": {"num_classes": 2, "names": ["neg", "pos"], "names_file": null, "id": null, "_type": "ClassLabel"}, "economics": {"num_classes": 2, "names": ["neg", "pos"], "names_file": null, "id": null, "_type": "ClassLabel"}, "culture": {"num_classes": 2, "names": ["neg", "pos"], "names_file": null, "id": null, "_type": "ClassLabel"}, "labor": {"num_classes": 2, "names": ["neg", "pos"], "names_file": null, "id": null, "_type": "ClassLabel"}, "national_security": {"num_classes": 2, "names": ["neg", "pos"], "names_file": null, "id": null, "_type": "ClassLabel"}, "ict": {"num_classes": 2, "names": ["neg", "pos"], "names_file": null, "id": null, "_type": "ClassLabel"}, "education": {"num_classes": 2, "names": ["neg", "pos"], "names_file": null, "id": null, "_type": "ClassLabel"}}, "post_processed": null, "supervised_keys": null, "builder_name": "prachathai67k", "config_name": "prachathai67k", "version": {"version_str": "1.1.0", "description": null, "major": 1, "minor": 1, "patch": 0}, "splits": {"train": {"name": "train", "num_bytes": 865848436, "num_examples": 54379, "dataset_name": "prachathai67k"}, "validation": {"name": "validation", "num_bytes": 108641386, "num_examples": 6721, "dataset_name": "prachathai67k"}, "test": {"name": "test", "num_bytes": 110034036, "num_examples": 6789, "dataset_name": "prachathai67k"}}, "download_checksums": {"https://archive.org/download/prachathai67k/data.zip": {"num_bytes": 254240975, "checksum": "e28bd1a15c17eeab8e606aef50463246d46e23f47389b12501c369f99eedb38a"}}, "download_size": 254240975, "post_processing_size": null, "dataset_size": 1084523858, "size_in_bytes": 1338764833}}
dummy/prachathai67k/1.1.0/dummy_data.zip ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:c3244bcb32d2d6c4a6a3dbc0225aafc03a9bcd9b8cca583637966fccde47a0aa
3
+ size 44031
prachathai67k.py ADDED
@@ -0,0 +1,128 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ """`prachathai-67k`: News Article Corpus and Multi-label Text Classificdation from Prachathai.com"""
2
+
3
+ from __future__ import absolute_import, division, print_function
4
+
5
+ import json
6
+ import os
7
+
8
+ import datasets
9
+
10
+
11
+ _CITATION = """\
12
+ @misc{prachathai67k,
13
+ author = {cstorm125, lukkiddd },
14
+ title = {prachathai67k},
15
+ year = {2019},
16
+ publisher = {GitHub},
17
+ journal = {GitHub repository},
18
+ howpublished={\\url{https://github.com/PyThaiNLP/prachathai-67k}},
19
+ }
20
+ """
21
+
22
+ _DESCRIPTION = """\
23
+ `prachathai-67k`: News Article Corpus and Multi-label Text Classificdation from Prachathai.com
24
+ The prachathai-67k dataset was scraped from the news site Prachathai.
25
+ We filtered out those articles with less than 500 characters of body text, mostly images and cartoons.
26
+ It contains 67,889 articles wtih 12 curated tags from August 24, 2004 to November 15, 2018.
27
+ The dataset was originally scraped by @lukkiddd and cleaned by @cstorm125.
28
+ You can also see preliminary exploration at https://github.com/PyThaiNLP/prachathai-67k/blob/master/exploration.ipynb
29
+ """
30
+
31
+
32
+ class Prachathai67kConfig(datasets.BuilderConfig):
33
+ """BuilderConfig for Prachathai."""
34
+
35
+ def __init__(self, **kwargs):
36
+ """BuilderConfig for Prachathai.
37
+
38
+ Args:
39
+ **kwargs: keyword arguments forwarded to super.
40
+ """
41
+ super(Prachathai67kConfig, self).__init__(**kwargs)
42
+
43
+
44
+ class Prachathai67k(datasets.GeneratorBasedBuilder):
45
+ """`prachathai-67k`: News Article Corpus and Multi-label Text Classificdation from Prachathai.com"""
46
+
47
+ _DOWNLOAD_URL = "https://archive.org/download/prachathai67k/data.zip"
48
+ _TRAIN_FILE = "train.jsonl"
49
+ _VAL_FILE = "valid.jsonl"
50
+ _TEST_FILE = "test.jsonl"
51
+
52
+ BUILDER_CONFIGS = [
53
+ Prachathai67kConfig(
54
+ name="prachathai67k",
55
+ version=datasets.Version("1.1.0"),
56
+ description="`prachathai-67k`: News Article Corpus and Multi-label Text Classificdation from Prachathai.com",
57
+ ),
58
+ ]
59
+
60
+ def _info(self):
61
+ return datasets.DatasetInfo(
62
+ description=_DESCRIPTION,
63
+ features=datasets.Features(
64
+ {
65
+ "url": datasets.Value("string"),
66
+ "date": datasets.Value("string"),
67
+ "title": datasets.Value("string"),
68
+ "body_text": datasets.Value("string"),
69
+ "politics": datasets.features.ClassLabel(names=["neg", "pos"]),
70
+ "human_rights": datasets.features.ClassLabel(names=["neg", "pos"]),
71
+ "quality_of_life": datasets.features.ClassLabel(names=["neg", "pos"]),
72
+ "international": datasets.features.ClassLabel(names=["neg", "pos"]),
73
+ "social": datasets.features.ClassLabel(names=["neg", "pos"]),
74
+ "environment": datasets.features.ClassLabel(names=["neg", "pos"]),
75
+ "economics": datasets.features.ClassLabel(names=["neg", "pos"]),
76
+ "culture": datasets.features.ClassLabel(names=["neg", "pos"]),
77
+ "labor": datasets.features.ClassLabel(names=["neg", "pos"]),
78
+ "national_security": datasets.features.ClassLabel(names=["neg", "pos"]),
79
+ "ict": datasets.features.ClassLabel(names=["neg", "pos"]),
80
+ "education": datasets.features.ClassLabel(names=["neg", "pos"]),
81
+ }
82
+ ),
83
+ supervised_keys=None,
84
+ homepage="https://github.com/PyThaiNLP/prachathai-67k/",
85
+ citation=_CITATION,
86
+ )
87
+
88
+ def _split_generators(self, dl_manager):
89
+ arch_path = dl_manager.download_and_extract(self._DOWNLOAD_URL)
90
+ data_dir = os.path.join(arch_path, "data")
91
+ return [
92
+ datasets.SplitGenerator(
93
+ name=datasets.Split.TRAIN,
94
+ gen_kwargs={"filepath": os.path.join(data_dir, self._TRAIN_FILE)},
95
+ ),
96
+ datasets.SplitGenerator(
97
+ name=datasets.Split.VALIDATION,
98
+ gen_kwargs={"filepath": os.path.join(data_dir, self._VAL_FILE)},
99
+ ),
100
+ datasets.SplitGenerator(
101
+ name=datasets.Split.TEST,
102
+ gen_kwargs={"filepath": os.path.join(data_dir, self._TEST_FILE)},
103
+ ),
104
+ ]
105
+
106
+ def _generate_examples(self, filepath):
107
+ """Generate examples."""
108
+ with open(filepath, encoding="utf-8") as f:
109
+ for id_, row in enumerate(f):
110
+ data = json.loads(row)
111
+ yield id_, {
112
+ "url": data["url"],
113
+ "date": data["date"],
114
+ "title": data["title"],
115
+ "body_text": data["body_text"],
116
+ "politics": data["politics"],
117
+ "human_rights": data["human_rights"],
118
+ "quality_of_life": data["quality_of_life"],
119
+ "international": data["international"],
120
+ "social": data["social"],
121
+ "environment": data["environment"],
122
+ "economics": data["economics"],
123
+ "culture": data["culture"],
124
+ "labor": data["labor"],
125
+ "national_security": data["national_security"],
126
+ "ict": data["ict"],
127
+ "education": data["education"],
128
+ }