erhwenkuo commited on
Commit
f6782f8
1 Parent(s): 3dd0a12

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +82 -1
README.md CHANGED
@@ -21,7 +21,88 @@ configs:
21
  data_files:
22
  - split: train
23
  path: 20231001/train-*
 
 
 
 
 
 
 
24
  ---
25
  # Dataset Card for "wikinews-zhtw"
26
 
27
- [More Information needed](https://github.com/huggingface/datasets/blob/main/CONTRIBUTING.md#how-to-contribute-to-the-dataset-cards)
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
21
  data_files:
22
  - split: train
23
  path: 20231001/train-*
24
+ license: cc-by-sa-3.0
25
+ task_categories:
26
+ - text-generation
27
+ language:
28
+ - zh
29
+ size_categories:
30
+ - 1K<n<10K
31
  ---
32
  # Dataset Card for "wikinews-zhtw"
33
 
34
+ 維基新聞(英文:Wikinews)是由一群志願者、即民間記者運營的網路媒體。同時是一個自由內容的維基,屬維基媒體計劃項目,由維基媒體基金會負責運營。維基新聞通過協作新聞學的工作模式去運行,同時亦努力通過中性的觀點報導新聞,包括原創一手獨家報道和採訪。
35
+
36
+ 這個數據集是根據 Wikipedia dumps (https://dumps.wikimedia.org/) 裡頭 `zhwikinews` 的中文下載檔案來建構的。每個範例都包含一篇完整的維基新聞文章的內容,並經過清理以去除不需要的部分。
37
+
38
+ - **Homepage:** [https://dumps.wikimedia.org](https://dumps.wikimedia.org)
39
+ - **zhwiki 下載點:** [https://dumps.wikimedia.org/zhwikinews](https://dumps.wikimedia.org/zhwikinews/)
40
+
41
+ ## 數據 Dump 版本
42
+
43
+ 由於維基百科數據集定期會進行網站數據拋轉,在 `2023/10/10` 的時間點去查看時會有下列的數據可供下載:
44
+
45
+ |數據 Dump 目錄|拋轉時間點|
46
+ |-------------|--------|
47
+ |`20230520/`|01-Jul-2023 09:28|
48
+ |`20230601/`|20-Jul-2023 09:41|
49
+ |`20230620/`|01-Aug-2023 09:35|
50
+ |`20230701/`|20-Aug-2023 09:49|
51
+ |`20230720/`|01-Sep-2023 09:35|
52
+ |`20230801/`|20-Sep-2023 09:46|
53
+ |`20230820/`|01-Oct-2023 09:42|
54
+ |`20230901/`|02-Sep-2023 14:47|
55
+ |`20230920/`|21-Sep-2023 14:41|
56
+ |`20231001/`|10-Oct-2023 03:50|
57
+ |`latest/`|10-Oct-2023 03:50|
58
+
59
+ 本數據集會定期去取得最近有明確的日期來進行下載與清理,便於驗證與使用。
60
+
61
+ ## 數據下載清理
62
+
63
+ 1. 下載 zhwiki 的 data dump 檔案
64
+ 2. 使用 [WikiExtractor](https://github.com/attardi/wikiextractor) 套件來進行文件內容萃取
65
+ 3. 進行數據清理并轉換成 jsonl 格式檔案
66
+ 4. 使用 Huggingface [Datasets](https://pypi.org/project/datasets/) 套件來載入 jsonl 并上傳至 Huggingface Hub
67
+
68
+ ## 資料集結構
69
+
70
+ 範例如下:
71
+
72
+ {'id': '35',
73
+ 'url': 'https://zh.wikinews.org/wiki?curid=35',
74
+ 'title': 'EDWIN與CUELLO遭統一獅隊解約',
75
+ 'text': '曾經打過中國棒球聯賽的兩位外援球員EDWIN(臺譯:愛力)與CUELLO(臺譯:阿-{A|裡}-),昨天傳出...'
76
+ }
77
+
78
+ ## 資料欄位
79
+
80
+ 所有配置中的資料欄位都是相同的:
81
+
82
+ - `id (str)`: 文章的 ID。
83
+ - `url (str)`: 文章的 URL。
84
+ - `title (str)`: 文章的標題。
85
+ - `text (str)`: 文章的文字內容。
86
+
87
+ ## 使用
88
+
89
+ ```python
90
+ from datasets import load_dataset
91
+
92
+ # 請在第二個參數去指定要使用的數據 dump 的日期
93
+ load_dataset("erhwenkuo/wikinews-zhtw", "20231001")
94
+ ```
95
+
96
+ ## 許可資訊
97
+
98
+ 維基百科的大部分文章內容及其許多圖像均根據 `Creative Commons Attribution-ShareAlike 3.0 Unported License (CC BY-SA)` 和 `GNU Free Documentation License (GFDL)` 共同授權。
99
+
100
+ ## Citation
101
+
102
+ ```
103
+ @ONLINE{wikidump,
104
+ author = "Wikimedia Foundation",
105
+ title = "Wikimedia Downloads",
106
+ url = "https://dumps.wikimedia.org"
107
+ }
108
+ ```