Datasets:
language:
- ja
- en
license: cc-by-sa-4.0
size_categories:
- n<1K
task_categories:
- translation
pretty_name: honyaku
dataset_info:
- config_name: passage
features:
- name: id
dtype: int64
- name: en
dtype: string
- name: ja
dtype: string
- name: url_en
dtype: string
- name: url_ja
dtype: string
splits:
- name: train
num_bytes: 34839
num_examples: 33
download_size: 29554
dataset_size: 34839
- config_name: sentence
features:
- name: id
dtype: int64
- name: en
dtype: string
- name: ja
dtype: string
- name: url_en
dtype: string
- name: url_ja
dtype: string
splits:
- name: train
num_bytes: 44734
num_examples: 104
download_size: 26899
dataset_size: 44734
configs:
- config_name: passage
data_files:
- split: train
path: passage/train-*
- config_name: sentence
data_files:
- split: train
path: sentence/train-*
英語Wikipedia記事の冒頭複数文を抽出し、人手で日本語翻訳した文章レベル対訳データセットです。
日英対訳コーパスはライセンスが厳しいものが多く、自由に利用できる高品質なパッセージレベルの対訳データセットが少なかったため作成しました。 翻訳は大体をhpprcが、数件をyano氏が行いました。
passage
サブセットは文章レベルの翻訳(対応する文ごとに改行区切り)を、sentence
サブセットは文ごとの対訳(こちらは代名詞の翻訳の齟齬など誤った翻訳になっている可能性がある)を収載したデータセットです。
翻訳方針
DeepLやGoogle翻訳など、既存の翻訳ツールは翻訳結果を機械学習モデルの入力として使用することを禁じています。
本データセットは機械学習用途にも利用できる寛容なライセンスの元で公開したかったため、安全のため、できるだけこれらのツールを使用せずに英日翻訳を行いました。 その代わり、ライセンスの寛容なLLMによる翻訳結果を参考に翻訳を行いました。 具体的には、日本語における性能が高くライセンスがApache 2.0で配布されているCALM3-22B-ChatおよびQwen 2.5 32Bを利用しました。
翻訳対象としたテキストは、邦訳にある程度の合意が取れそうなものを厳選して利用しました。 具体的には、まず日本語Wikipediaの記事から一般性の高いもの(人名や地名っぽさが過ぎるもの以外)をランダムに選出して、英語に対応する記事が存在するかを調べました。 英語に対応する記事が存在する日本語記事は、内容が大きく異なることが多いため翻訳としては利用できませんが、邦訳の参考としては非常に有用なので、そのようなペアを選んで、対応する英語記事の冒頭の数文を抽出しました。
翻訳については、できるだけ日本語テキストがそれ単体として成り立つように作成しました。 例えば、英語での発音記号が記載されているテキストについては、元の英語表記を残さないと発音記号単体では意味不明となってしまうので、そのような部分を残しました。
日本語においてテクニカルタームが定まっている場合は、できるだけそれを反映した翻訳となるように留意しました。 そのほかにもテキスト中に定型の翻訳が存在しないか確認する作業を全事例に対して行いました。 そのため、翻訳には1件あたり15分程度を要しました。
ライセンス
翻訳元テキストが英語Wikipediaであること、そして人手で翻訳を行なっていることから、本データセットはCC-BY-SA 4.0ライセンスでの配布とします。
Note
翻訳結果に誤りや修正事項がある場合、遠慮なくお教えいただけますと幸いです。