dataset_info:
- config_name: collection
features:
- name: text
dtype: string
- name: text_en
dtype: string
splits:
- name: train
num_bytes: 6691198003
num_examples: 8841823
download_size: 3589163684
dataset_size: 6691198003
- config_name: dataset
features:
- name: anc
dtype: string
- name: anc_en
dtype: string
- name: pos_ids
sequence: int64
- name: neg_ids.japanese-splade-base-v1-mmarco-only.top100
sequence: int64
- name: neg_sims.japanese-splade-base-v1-mmarco-only.top100
sequence: float64
- name: neg_ids.japanese-splade-base-v1-mmarco-only.other100
sequence: int64
- name: neg_sims.japanese-splade-base-v1-mmarco-only.other100
sequence: float64
- name: score.bge-reranker-v2-m3.pos_ids
sequence: float64
- name: >-
score.bge-reranker-v2-m3.neg_ids.japanese-splade-base-v1-mmarco-only.top100
sequence: float64
- name: >-
score.bge-reranker-v2-m3.neg_ids.japanese-splade-base-v1-mmarco-only.other100
sequence: float64
splits:
- name: train
num_bytes: 2481771934
num_examples: 502931
download_size: 2024787258
dataset_size: 2481771934
configs:
- config_name: collection
data_files:
- split: train
path: collection/train-*
- config_name: dataset
data_files:
- split: train
path: dataset/train-*
language:
- ja
- en
msmarco-ja-hard-negatives
hpprc/msmarco-ja で公開されているMS MARCOの日本語翻訳データに、以下の処理を加えたハードネガティブマイニングをしたものです。また、後段タスクとして、情報検索モデルのSPLADEを学習させたモデルで mMARCO との比較を行いました。
データの処理
翻訳データの正規化、フィルタと選択
- 正規化
- ユニコード正規化 (NFKC)
- dataset(query) のフィルタ・選択
- dataset-sim のコサイン類似度が0.98以上のものはほぼ同一のケースが多く、距離が近すぎるので取り除く
- 元の英文を丸々含むデータを取り除く
- 残ったデータで、一番類似度が近いものを選択
- collection の選択
- dataset(query) の pod_ids (正例)が対象の場合、query, doc ペアで BAAI/bge-reranker-v2-m3 のスコアを用い、最もスコアが高いもの選択
- 正例に含まれないデータの場合、同一の id からランダムサンプリング
ハードネガティブの抽出
作成した query, collection を元に、japanese-splade-base-v1-mmarco-only を利用して、類似する collection の上位100件と、101位から1000位までの中から無作為に選んだ100件
スコア付け
query とハードネガティブの collection を元に、bge-reranker-v2-m3 リランカーを用いたスコア
評価
評価実験として、2つのデータセットを比較
- mmacro(ja)(mMARCOデータセットの日本語翻訳データ)
- msmarco-ja(本データセット)
カイ二乗検定による評価
指標 | msmarco-ja | mmarco(ja) | 閾値 | p値 | 統計的有意差 |
---|---|---|---|---|---|
総数 | 502,931 | 391,060 | 0.7 | 0.0006205731 | あり |
Positive数 | 407,162 | 311,394 | 0.7 | 0.0006205731 | あり |
Positive率 | 80.96% | 79.63% | 0.7 | 0.0006205731 | あり |
総数 | 502,931 | 391,060 | 0.8 | 0.0428684718 | あり |
Positive数 | 390,653 | 297,126 | 0.8 | 0.0428684718 | あり |
Positive率 | 77.68% | 75.98% | 0.8 | 0.0428684718 | あり |
dataset(query)と、正例(pos_ids)のcollectionペアが、リランカースコアで見た時に、うまく正例として扱えそうかを閾値0.7または0.8以上で確認します。pos_idsは複数ある場合、スコアのmaxを選択しています。
カイ二乗検定を用いて評価した結果、閾値0.7および0.8のいずれにおいても、msmarco-jaとmmarco(ja)の間に統計的有意差が確認されました(p < 0.05)。具体的には、msmarco-jaの方が一貫して高いPositive率を示し、閾値0.7では約1.33%ポイント(80.96% vs 79.63%)、閾値0.8では約1.70%ポイント(77.68% vs 75.98%)の差が観察されました。
特に閾値0.7での差異は非常に小さいp値(p ≈ 0.0006)を示しており、この違いが偶然によるものである可能性は極めて低いと考えられます。また、より厳格な閾値である0.8においても統計的有意差は維持されています(p ≈ 0.043)。
両データセットとも75-80%という高いPositive率を示しており、わずか1-2%ポイントの差ではありますが、msmarco-jaデータセットが、より高品質な翻訳とフィルタリングによって、mmarco翻訳よりもquery-documentペアの一貫性をより良く保持できている可能性が高いと言えるでしょう。
JMTEBでのデータセットの評価
評価方法
- 両データセットに対して同じ手法でハードネガティブサンプリングとスコア付けを実施
- mmarco/msmacro-ja のみを用いて、同一のパラメータ(正例フィルタリング閾値0.7以上)で日本語SPLADEモデルを学習
- JMTEB retrieval タスクを用い評価
評価結果
--- | JMTEB ret Avg. | jagovfaqs_22k | jaqket | mrtydi | nlp_journal_abs_intro | nlp_journal_title_abs | nlp_journal_title_intro |
---|---|---|---|---|---|---|---|
mmarco(ja) | 0.7390 | 0.6726 | 0.6692 | 0.4449 | 0.8855 | 0.9580 | 0.8040 |
msmacro-ja | 0.7472 | 0.6872 | 0.6734 | 0.4656 | 0.8974 | 0.9726 | 0.7871 |
ほぼ全て項目で、msmarco-ja の方が良好な結果となりました。ただし、カイ二乗検定による評価の項目にある通り、全体のデータセット件数はmmarco-jaの方が多いため、ご注意ください。
データに関する注意事項
ハードネガティブでの抽出した負例は、正例よりもリランカースコアが高い場合が多々あります。反対に正例(pos_ids)なのに、著しくスコアが低い場合も多々あります(そもそも元データが正例として相応しくない、翻訳時に情報が失われた、など)。そのため、それらを「正例」「負例」として学習すると、学習に悪影響を及ぼす可能性が大きいため、リランカースコアを閾値としてフィルターする処理をお勧めします。
また、ハードネガティブサンプリングは SPLADE モデル japanese-splade-base-v1-mmarco-only を利用し行なっています。SPLADEは、単語トークンの距離の近さで類似度を測るため、密ベクトルとは異なった方向のハードネガティブマイニングになります。密ベクトルモデルの学習のために利用する場合、密ベクトルでハードネガティブサンプリングをした方が、より良いハードネガティブを取得できる可能性があります。
ライセンス
MSMARCO と同等のライセンスとします。