|
--- |
|
configs: |
|
- config_name: default |
|
data_files: |
|
- split: train |
|
path: data/train-* |
|
dataset_info: |
|
features: |
|
- name: ar |
|
dtype: string |
|
- name: zh |
|
dtype: string |
|
- name: en |
|
dtype: string |
|
- name: fr |
|
dtype: string |
|
- name: ru |
|
dtype: string |
|
- name: es |
|
dtype: string |
|
- name: de |
|
dtype: string |
|
- name: record |
|
dtype: string |
|
splits: |
|
- name: train |
|
num_bytes: 48622457871 |
|
num_examples: 165840 |
|
download_size: 3906189450 |
|
dataset_size: 48622457871 |
|
--- |
|
# 联合国数字图书馆ODS里爬出来的平行语料 Parallel Corpus from United Nations Digital Library ODS(2000-2023) |
|
|
|
数据源链接(网站逻辑比起爬取这些数据时已经重构更新,可能会有不一致的情况):https://search.un.org/search?collection=ods¤tPageNumber=1&q=*&row=10&sort=relevance |
|
|
|
pandoc转docx出的源文本,所用命令为:pandoc -i {filepath} -t plain -o {outpath} --strip-comments |
|
|
|
这些文本可能仍需一定的步骤去噪,比如去掉全是横线的分隔符、去掉表格元素,才能用于后续的翻译及对齐步骤 |
|
|
|
旧版数据链接 https://huggingface.co/datasets/bot-yaya/undl_text |
|
|
|
因为旧版参数不当,处理的时候丢掉了一部分数据,所以重做了一份重新上传,建议是下载使用这份,而不是旧版 |