hotchpotch's picture
Update README.md
63639ff verified
metadata
dataset_info:
  - config_name: collection
    features:
      - name: text
        dtype: string
      - name: text_en
        dtype: string
    splits:
      - name: train
        num_bytes: 6691198003
        num_examples: 8841823
    download_size: 3589163684
    dataset_size: 6691198003
  - config_name: dataset
    features:
      - name: anc
        dtype: string
      - name: anc_en
        dtype: string
      - name: pos_ids
        sequence: int64
      - name: neg_ids.japanese-splade-base-v1-mmarco-only.top100
        sequence: int64
      - name: neg_sims.japanese-splade-base-v1-mmarco-only.top100
        sequence: float64
      - name: neg_ids.japanese-splade-base-v1-mmarco-only.other100
        sequence: int64
      - name: neg_sims.japanese-splade-base-v1-mmarco-only.other100
        sequence: float64
      - name: score.bge-reranker-v2-m3.pos_ids
        sequence: float64
      - name: >-
          score.bge-reranker-v2-m3.neg_ids.japanese-splade-base-v1-mmarco-only.top100
        sequence: float64
      - name: >-
          score.bge-reranker-v2-m3.neg_ids.japanese-splade-base-v1-mmarco-only.other100
        sequence: float64
    splits:
      - name: train
        num_bytes: 2481771934
        num_examples: 502931
    download_size: 2024787258
    dataset_size: 2481771934
configs:
  - config_name: collection
    data_files:
      - split: train
        path: collection/train-*
  - config_name: dataset
    data_files:
      - split: train
        path: dataset/train-*
language:
  - ja
  - en

msmarco-ja-hard-negatives

hpprc/msmarco-ja で公開されているMS MARCOの日本語翻訳データに、以下の処理を加えたハードネガティブマイニングをしたものです。また、後段タスクとして、情報検索モデルのSPLADEを学習させたモデルで mMARCO との比較を行いました。

データの処理

翻訳データの正規化、フィルタと選択

  • 正規化
    • ユニコード正規化 (NFKC)
  • dataset(query) のフィルタ・選択
    • dataset-sim のコサイン類似度が0.98以上のものはほぼ同一のケースが多く、距離が近すぎるので取り除く
    • 元の英文を丸々含むデータを取り除く
    • 残ったデータで、一番類似度が近いものを選択
  • collection の選択
    • dataset(query) の pod_ids (正例)が対象の場合、query, doc ペアで BAAI/bge-reranker-v2-m3 のスコアを用い、最もスコアが高いもの選択
    • 正例に含まれないデータの場合、同一の id からランダムサンプリング

ハードネガティブの抽出

作成した query, collection を元に、japanese-splade-base-v1-mmarco-only を利用して、類似する collection の上位100件と、101位から1000位までの中から無作為に選んだ100件

スコア付け

query とハードネガティブの collection を元に、bge-reranker-v2-m3 リランカーを用いたスコア

評価

評価実験として、2つのデータセットを比較

  1. mmacro(ja)(mMARCOデータセットの日本語翻訳データ)
  2. msmarco-ja(本データセット)

カイ二乗検定による評価

指標 msmarco-ja mmarco(ja) 閾値 p値 統計的有意差
総数 502,931 391,060 0.7 0.0006205731 あり
Positive数 407,162 311,394 0.7 0.0006205731 あり
Positive率 80.96% 79.63% 0.7 0.0006205731 あり
総数 502,931 391,060 0.8 0.0428684718 あり
Positive数 390,653 297,126 0.8 0.0428684718 あり
Positive率 77.68% 75.98% 0.8 0.0428684718 あり

dataset(query)と、正例(pos_ids)のcollectionペアが、リランカースコアで見た時に、うまく正例として扱えそうかを閾値0.7または0.8以上で確認します。pos_idsは複数ある場合、スコアのmaxを選択しています。

カイ二乗検定を用いて評価した結果、閾値0.7および0.8のいずれにおいても、msmarco-jaとmmarco(ja)の間に統計的有意差が確認されました(p < 0.05)。具体的には、msmarco-jaの方が一貫して高いPositive率を示し、閾値0.7では約1.33%ポイント(80.96% vs 79.63%)、閾値0.8では約1.70%ポイント(77.68% vs 75.98%)の差が観察されました。

特に閾値0.7での差異は非常に小さいp値(p ≈ 0.0006)を示しており、この違いが偶然によるものである可能性は極めて低いと考えられます。また、より厳格な閾値である0.8においても統計的有意差は維持されています(p ≈ 0.043)。

両データセットとも75-80%という高いPositive率を示しており、わずか1-2%ポイントの差ではありますが、msmarco-jaデータセットが、より高品質な翻訳とフィルタリングによって、mmarco翻訳よりもquery-documentペアの一貫性をより良く保持できている可能性が高いと言えるでしょう。

JMTEBでのデータセットの評価

評価方法

  • 両データセットに対して同じ手法でハードネガティブサンプリングとスコア付けを実施
  • mmarco/msmacro-ja のみを用いて、同一のパラメータ(正例フィルタリング閾値0.7以上)で日本語SPLADEモデルを学習
  • JMTEB retrieval タスクを用い評価

評価結果

--- JMTEB ret Avg. jagovfaqs_22k jaqket mrtydi nlp_journal_abs_intro nlp_journal_title_abs nlp_journal_title_intro
mmarco(ja) 0.7390 0.6726 0.6692 0.4449 0.8855 0.9580 0.8040
msmacro-ja 0.7472 0.6872 0.6734 0.4656 0.8974 0.9726 0.7871

ほぼ全て項目で、msmarco-ja の方が良好な結果となりました。ただし、カイ二乗検定による評価の項目にある通り、全体のデータセット件数はmmarco-jaの方が多いため、ご注意ください。

データに関する注意事項

ハードネガティブでの抽出した負例は、正例よりもリランカースコアが高い場合が多々あります。反対に正例(pos_ids)なのに、著しくスコアが低い場合も多々あります(そもそも元データが正例として相応しくない、翻訳時に情報が失われた、など)。そのため、それらを「正例」「負例」として学習すると、学習に悪影響を及ぼす可能性が大きいため、リランカースコアを閾値としてフィルターする処理をお勧めします。

また、ハードネガティブサンプリングは SPLADE モデル japanese-splade-base-v1-mmarco-only を利用し行なっています。SPLADEは、単語トークンの距離の近さで類似度を測るため、密ベクトルとは異なった方向のハードネガティブマイニングになります。密ベクトルモデルの学習のために利用する場合、密ベクトルでハードネガティブサンプリングをした方が、より良いハードネガティブを取得できる可能性があります。

ライセンス

MSMARCO と同等のライセンスとします。