filename
stringlengths
1
10
text
stringlengths
33
111k
category
stringclasses
9 values
license
stringclasses
1 value
credit
stringclasses
5 values
B1-1.pdf
# 単語埋め込みを用いた正則化による言語モデルの追加事前学習 西田光甫西田京介吉田仙 日本電信電話株式会社NTTメディアインテリジェンス研究所 \{ kosuke.nishida.ap, kyosuke.nishida.rx, sen.yoshida.tu \}@hco.ntt.co.jp ## 1 はじめに 膨大なコーパスと計算機を利用して学習する事前学習済み言語モデルが,自然言語処理タスクで高い性能を発揮している [1].これらのモデルは,広範な話題を含むコーパスで言語モデルの事前学習をすることで,言わば「テキストの読み方の理解」を獲得する. 一方で,機械学習の一部の問題にはドメイン依存性が存在することが知られている. 事前学習済み言語モデルもドメイン依存性を持ち,一般的なドメインで事前学習を行なったモデルは,目的ドメインでの膨大な事前学習を追加することでさらに高い性能を発揮する [2]. また, Task-Adaptive PreTraining (TAPT) と呼ばれる手法では,目的タスクの教師デー タに含まれるテキストを用いた事前学習を追加するだけで精度が向上することを示した [3]. 目的タスクのテキストを用いた事前学習は,通常の事前学習に比べて遥かに短い時間で実行可能である。これらの手法は,事前学習を追加することでドメイン適応が可能であることを示している. 本研究では,単語埋め込みを利用したドメイン適応に注目する。背景には,事前学習済み言語モデルは既にテキストの読み方を理解しているため,ドメインにおける単語の意味を理解することでドメイン適応が可能なのではないか,という発想がある. 我々は単語埋め込みを用いた正則化による言語モデルの追加事前学習を含む新たな Fine-Tuning 手法を提案する. 提案手法ではまず,単語埋め込み学習手法である fastText [4]を用いて目的タスクのテキストから目的ドメインの単語埋め込みを獲得する。次に, 言語モデルの追加事前学習に並行して目的ドメインの単語埋め込みに言語モデルの単語埋め込みを近づける学習を行う. 最後に通常の Fine-Tuning を行う. 提案手法は, TAPT 同様に少ないデータ数での事前学習を追加する手法であるため, 短い計算時間で学習できる. また, 単語埋め込みは事前学習済み言語モデルに比べて浅いモデルから学習できるため, 少リソースでの学習に適していると考えられる. fastTextを利用することで,言語モデルが採用しているサブワードレベルの語彙に対しても単語埋め込みを得ることができる。本稿では,医療ドメインと Wikipedia ドメインの機械読解タスク(BioASQ [5] およびSQuAD 1.1 [6])において,提案手法が通常の Fine-Tuning 及び TAPTを利用した Fine-Tuning を上回る精度を達成することを示す. ## 2 準備 ## 2.1 事前学習済み言語モデル 本研究では事前学習済み言語モデルの単語埋め込みに注目する. 語彙を $V_{\mathrm{LM}}$ とし, モデルに入力されるトークン系列を $X \in V_{\mathrm{LM}}^{l}$ とする. ただし $l$ はトークン系列長である。事前学習済み言語モデルの埋め込み層は, パラメータとして単語埋め込み行列 $E \in \mathbb{R}^{V_{\mathrm{LM}} \times d_{\mathrm{LM}}}$ を持つ. ただし, $d_{\mathrm{LM}}$ は埋め込み次元である.このとき, $i$ 番目の入力トークン $x_{i}$ の単語埋め込みは $E_{x_{i}}$ である. 事前学習済み言語モデルの語彙 $V_{\mathrm{LM}}$ は,例えば BERTでは, WordPiece [7]によって作成された 30,000 語である. WordPiece ではトークンの区切りとしてサブワードを採用しており,例えば 'tokenizing’ は 'token'と '\#\#izing'に分割される. WordPiece では全サブワードが 1 文字の初期状態から尤度が高くなるようにサブワードを連結していき,規定の語彙数になるまで語彙を増やす。 ## 2.2 fastText fastText は,サブワードの情報を用いて単語埋め込みを計算する手法である [4]. fastText の skipgram [8] では, 単語 $x_{i}$ から周辺語 $x_{j} \quad\left(j \in C_{i}\right)$ を予測する夕スクを解くことで単語埋め込みを学習する( $C_{i}$ は任意に窓幅を指定可能な周辺インデックスの集合).具体的には,位置 $i$ の単語について,学習コーパス における全ての周辺語を正例とし,語彙 $V_{\mathrm{FT}}$ からランダムにサンプリングした負例 $\mathcal{N}_{i}$ を用いて,下記の目的関数の最大化を行う: $ \sum_{i}\left.\{\sum_{j \in C_{i}} \log \left(1+e^{-s\left(x_{i}, x_{j}\right)}\right)+\sum_{x \in \mathcal{N}_{i}} \log \left(1+e^{s\left(x_{i}, x\right)}\right)\right.\} . $ すなわち,正例に対しては $x_{i}, x_{j}$ のスコア $s\left(x_{i}, x_{j}\right)$ が大きく,負例に対してはスコアが低くなるような学習を行う。 fastText はスコア関数 $s$ をモデリングするために単語 $v \in V_{\mathrm{FT}}$ に対して,v の部分文字列(サブワー ド)の集合 $S_{v}$ を考慮する特徴を持つ. 入力側の単語 $x_{i}$ と出力側の単語 $x_{j}$ のスコアは $ s\left(x_{i}, x_{j}\right)=\sum_{w \in S_{x_{i}}} W_{\mathrm{in}, w}^{\top} W_{\text {out }, x_{j}} $ と表される. ここで, $W_{\text {in }} \in \mathbb{R}^{N \times d_{\mathrm{FT}}}$ は入力側の単語埋め込み, $W_{\text {out }} \in \mathbb{R}^{V_{\mathrm{FT}} \times d_{\mathrm{FT}}}$ は出力側の単語埋め込みである。また, $d_{\mathrm{FT}}$ は埋め込み次元, $N$ はサブワー ドの語彙数に関わる任意の大きな数である。なお fastText の実装では,考慮する部分文字列の数には制限を設けず,指定した長さ(デフォルト值は 3 文字以上 6 文字以内)の部分文字列を全て考慮する。部分文字列 $w$ は $N$ 以下(デフォルト値は $2,000,000$ ) のインデックスにハッシュ化されることで埋め込み $W_{\text {in }, w}$ を得る. 以上の学習手法により,fastText はサブワードを考慮した単語埋め込み $W_{\text {in }}$ を得る。推論時は, $\sum_{w \in S_{v}} W_{\mathrm{in}, w}$ を単語 $v$ の埋め込みとする. fastText はサブワードの情報を利用した学習によって,他の手法よりも少ないデータ数で単語類似度を学習することが報告されている [4]. ## 3 提案手法 提案手法は,(1) fastText の追加学習,(2) 事前学習済み言語モデルの追加事前学習, (3) Fine-Tuning 93 段階の手順を行う. fastText の追加学習公開されている fastText ${ }^{1}$ の埋め込み $W_{\text {in }}$ を初期値として,目的のタスクの訓練データをコーパスとした fastText の学習を行い,新たな fastText の埋め込みを得る。得られた fastText $の$埋め込みから,事前学習済み言語モデルの語彙 $V_{\mathrm{LM}}$ の埋め込み $F \in \mathbb{R}^{V_{\mathrm{LM}} \times d_{\mathrm{FT}}}$ を推論する. 他の単語埋め込み手法と異なり fastText はサブワードの埋め込みを保持しているため,サブワード分割を採用してい 1) https://fasttext.cc/表 1 各データセットの統計値. 訓練・評価データは下流タスクのデータとしてのサンプル数である. 訓練テキス卜は追加事前学習のデータとしての単語数である。 る事前学習済み言語モデルの語彙の埋め込み行列を得ることができる2). 事前学習済み言語モデルの追加事前学習モデルに入力されるトークン系列を $X \in V_{\mathrm{LM}}^{l}$ とする. 追加事前学習時は, 言語モデルの損失関数 $L_{\mathrm{LM}}(X)$ に $L^{2}$ ノルム正則化を加えた学習を行う。つまり,損失関数は正則化の対象トークンの集合を $R(X)$ として $ L_{\mathrm{LM}}(X)+\frac{1}{|R(X)|} \sum_{x_{i} \in R(X)}\left.\|f\left(E_{x_{i}}\right)-F_{x_{i}}\right.\|_{2}^{2} $ である. 正則化の対象 $R(X)$ は,ランダムに選んだ全体の $50 \%$ のトークンから,ストップワードと fastText で考慮する最短部分文字列長を下回る長さのサブワードを除いたトークンである. 埋め込みの写像 $f$ は $d_{\mathrm{LM}}$ 次元ベクトルを $d_{\mathrm{FT}}$ 次元ベクトルに写す関数 $ f(z)=\mathrm{LN}\left(W_{f} z+b_{f}\right) $ である. LN は Layer Normalization [9] である。 $W_{f} \in$ $\mathbb{R}^{d_{\mathrm{FT}} \times d_{\mathrm{LM}}}, b_{f} \in \mathbb{R}^{d_{\mathrm{FT}}}$ は学習可能なパラメータである. 目的関数は,第一項によって言語モデルの忘却を抑えつつ第二項によって単語埋め込みのドメイン適応を行うように設計されている.以上の学習を,目的のタスクの訓練データをコーパスとして行う. Fine-Tuning Fine-Tuning では, 追加事前学習で得られたモデルを初期値として通常の Fine-Tuning を行う. ## 4 評価 ## 4.1 データセット 提案手法を 2 種の機械読解データセットで評価した. 各データセットの統計値を表 1 に示す.実験設定を付録に示す. SQuAD SQuAD1.1 は Wikipedia の 1 段落を参照して質問に回答するタスクである [6]. 予め 1 つの質問には 1 つの参照テキストが紐づけられている.  入力は質問と参照テキストを連結したトークン系列である. 回答は参照テキストに文字列として含まれているため,区間を抽出することで回答とする. 出力は回答の始点と終点のインデックスであり,言語モデルに 2 次元への線形変換層を追加して Fine-Tuning することで回答区間を訓練・予測する. 評価指標は完全一致(EM)と部分一致(F1)である. BioASQ BioASQ5 は医療ドメインの質問応答データセットである [5]. 先行研究 [2] に従い,ファクトイド型の質問を SQuAD と同様の形式に前処理して評価した. 評価指標の Strict Accuracy (SACC), Lenient Accuracy (LACC), Mean Reciprocal Rank (MRR) はそれぞれトップ 1 の予測の正解率,トップ 100 の予測に正解が含まれる率, 正解の順位の逆数の平均である。訓練をランダムなシードで 5 回行い,それらの結果の平均を用いた. 本データセットは訓練データが少ないため,SQuADを使った Fine-Tuning の後に BioASQを使った Fine-Tuning を行う 2 段階の Fine-Tuning を行った [10]. ## 4.2 比較手法 本稿では, 事前学習済み言語モデルとして, BERTbase-cased [1],BioBERT [2],RoBERTa-base [11] を用いた. BERT-base-cased モデルは English Wikipedia (25 億語)と BookCorpus [12](8 億語)をコーパスとして事前学習している. BioBERT は BERT-basecased モデルを初期値として, 更に PubMed の概要と PMC の論文から成る計 180 億語のコーパスで事前学習したモデルである.RoBERTa は BERT-base-cased モデルよりも広範な話題を含む $160 \mathrm{~GB}$ のテキストから事前学習をしている。 これらの事前学習済み言語モデルに対して,(1) そのまま Fine-Tuning をする手法,(2)TAPT,つまり正則化項なしの追加事前学習の後 Fine-Tuning を行う手法,(3) 提案手法の 3 つの学習手法を比較した. ## 4.3 実験結果 ## 提案手法は医療ドメインへの適応において有効 か? BioASQ タスクの結果を表 2 に示す. BERT-base-cased モデルは事前学習中に医療ドメインのテキストでの学習を行わない。そのため,医療ドメインへのドメイン適応における性能を BERT-base-cased モデルを用いて評価できる. BERT-base-cased モデルでは, 提案手法によって表 2 BioASQ の開発データによる評価結果. 数字に付与した記号は,提案手法と TAPT の 5 回の結果について paired $t$-test を実施した結果を示す (*: $p<.05)$ SACC/LACC/MRR で 3.80/0.29/2.39 ポイントの精度向上が確認できた.これは,TAPT による精度向上 0.86/0.16/0.55 ポイントを大幅に上回る值である.追加事前学習がドメイン適応において効果的であることとともに,単語埋め込みの正則化によってドメインへの適応が更に進むことが考えられる. また,各手法で学習されたモデルの単語埋め込みを $\mathrm{t}$-SNE で描画した結果を付録に示す.提案手法は訓練テキスト数としてはTAPT と同じであるにも関わらず,膨大な医療ドメインのコーパスで学習した BioBERT に近い単語埋め込みを学習していることが示唆されている。 提案手法は目的ドメインで事前学習した言語モデルにおいて有効か? BioBERT モデルは潤沢な医療ドメインのテキストで事前学習をした言語モデルである. BioBERT からの追加事前学習では,TAPT で一部指標が僅かに向上するものの,全体として性能が大きく向上することはなかった。これは,目的タスクのテキストを使う追加事前学習によって学習できる知識を,BioBERT が既に保持しているためと考えられる。 [3] は,TAPT が目的ドメインに適応した言語モデルの性能を更に向上することを指摘している。この目的ドメインに適応した言語モデルとは, RoBERTa を初期値として,目的ドメインで収集したコーパスで追加事前学習を行なったモデルである. しかし, BioBERT では,彼らが用いたよりも大きな 180 億語のコーパスで事前学習を行なっている. ドメイン適応済みの言語モデルに対する目的タスクのテキストによる追加事前学習の効果の有無は,ドメイン適応時のコーパス量,目的タスクのテキスト数,モデルサイズなどの条件に依存していると考えられる。 提案手法は一般的なドメインのタスクに対しても有効か?SQuAD タスクの評価結果を表 3 に示す. SQuAD では, BERT-base-cased モデルからの追加事 表 3 SQuAD の開発データによる評価結果. 前学習を行う場合,TAPT と提案手法でともに精度の向上がなかった. これは, BioBERT からの追加事前学習が医療ドメインで効果がなかったことと同じ理由で説明できる. RoBERTa モデルからの追加事前学習を行う場合,提案手法によって EM/F1 で 0.79/0.46 ポイントの精度向上が確認できた. これは,TAPT による精度向上 $0.25 / 0.05$ ポイントを上回る値であり,全比較手法の中で最高の精度である。 SQuAD は Wikipedia 記事に関する質問応答をするタスクである.BERT-base-cased は事前学習コーパスの多くが Wikipedia であるため,追加事前学習の効果がなかった. しかし,RoBERTa は広範な話題をカバーするために更に多くのコーパスから事前学習を行っている。そのため, Wikipedia が事前学習中に利用されているにも関わらず,追加の事前学習によって Wikipedia 単独に適応することが精度向上に繋がったと考えられる。 事前学習のデータ数を増やすことで事前学習済み言語モデルの性能は向上する傾向にあることが知られている $[13,14]$. 本実験は,多くのデータで事前学習した言語モデルに対して提案手法を適用することで,事前学習中に含まれるドメインのタスクであっても更に性能が向上することを示している. 提案手法は異なる言語モデルやサブワード分割法に対しても有効か? BERT-base-cased モデルは WordPiece によってサブワード分割を行なっているが,RoBERTa は単語分割を行わずにバイトレベルでのサブワード分割を行う. 提案手法は表 2 では BERT-base-cased モデル,表 3 では RoBERTa モデルを用いてそれぞれ精度向上を確認しており,言語モデルやサブワード分割法に依存せずに効果があると考えられる. 主要なサブワード分割法には他に SentencePiece [15] があり,さらなる検討が望ましい. 追加事前学習で言語モデルと単語埋め込みはどのように学習が進むか? BioASQタスクにおいて提 図 1 学習曲線. 左の軸は損失関数第一項,右の軸は損失関数第二項の値を示す. 案手法が BERT-base-cased モデルの追加事前学習を行なった際の学習曲線を図 1 に示す. 学習は単語埋め込みに関する第二項が先行する形で進むことが観察できる.また,言語モデルに関する第一項は推論時の減少が途中で止まり,以降は訓練データのみでの減少となる。一方,単語埋め込みに関しては訓練・推論時の乘離が起きずに学習が進む。 ## 5 おわりに 本研究では目的タスクの教師データをコーパスとしたドメイン適応に取り組んだ。本研究の貢献を以下に示す。 本研究の独自性 fastTextを用いて目的ドメインにおける単語埋め込みを獲得し,単語埋め込みに関する $L^{2}$ ノルム正則化を加えた事前学習を Fine-Tuning 前に追加する新たな Fine-Tuning 手順を提案した. 提案手法は,言語モデルの忘却を抑えつつ言語モデルの単語埋め込みを目的ドメインにおける単語埋め込みに近づけることで,目的ドメインにおける単語の意味を獲得する効果を持つ. 本研究の重要性医療ドメインへのドメイン適応において,通常の Fine-Tuning 及び言語モデルの事前学習のみを追加する Fine-Tuning 手法に比べて提案手法が高い精度を示すことを確認した。また, Wikipedia ドメインにおいても広範な話題を含むコーパスで事前学習した RoBERTa モデルの性能を提案手法が向上させることを確認した. 近年,より多くのデータから学習したより多くのパラメータを持つ事前学習済み言語モデルの公開が続いている [16]. 本研究で提案した追加事前学習を含む新たな Fine-Tuning 手法は,そのような多くのデータで学習した言語モデルに対して,目的ドメインの知識を与える重要な手法であると考えられる。 ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. NAACL-HLT, pp. 4171-4186, 2019. [2] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, and Jaewoo Kang. Biobert: a pre-trained biomedical language representation model for biomedical text mining. Bioinformatics, Vol. 36, No. 4, pp. 1234-1240, 2020. [3] Suchin Gururangan, Ana Marasović, Swabha Swayamdipta, Kyle Lo, Iz Beltagy, Doug Downey, and Noah A. Smith. Don't stop pretraining: Adapt language models to domains and tasks. In $A C L$, pp. 8342-8360, July 2020. [4] Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the Association for Coтputational Linguistics, Vol. 5, pp. 135-146, 2017. [5] George Tsatsaronis, Georgios Balikas, Prodromos Malakasiotis, Ioannis Partalas, Matthias Zschunke, Michael R Alvers, Dirk Weissenborn, Anastasia Krithara, Sergios Petridis, Dimitris Polychronopoulos, Yannis Almirantis, John Pavlopoulos, Nicolas Baskiotis, Patrick Gallinari, Thierry Artieres, Axel Ngonga, Norman Heino, Eric Gaussier, Liliana Barrio-Alvers, Michael Schroeder, Ion Androutsopoulos, and Georgios Paliouras. An overview of the BIOASQ large-scale biomedical semantic indexing and question answering competition. BMC Bioinformatics, Vol. 16, p. 138, 2015. [6] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In EMNLP, pp. 2383-2392, 2016. [7] Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, et al. Google's neural machine translation system: Bridging the gap between human and machine translation. arXiv preprint arXiv:1609.08144, 2016. [8] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. NIPS, Vol. 26, pp. 3111-3119, 2013. [9] Jimmy Lei Ba, Jamie Ryan Kiros, and Geoffrey E Hinton. Layer normalization. arXiv preprint arXiv:1607.06450, 2016. [10] Georg Wiese, Dirk Weissenborn, and Mariana Neves. Neural domain adaptation for biomedical question answering. In CoNLL 2017, pp. 281-289, 2017. [11] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [12] Yukun Zhu, Ryan Kiros, Rich Zemel, Ruslan Salakhutdinov, Raquel Urtasun, Antonio Torralba, and Sanja Fidler. Aligning books and movies: Towards story-like vi- sual explanations by watching movies and reading books. In $I C C V$, pp. 19-27, 2015. [13] Alexei Baevski, Sergey Edunov, Yinhan Liu, Luke Zettlemoyer, and Michael Auli. Cloze-driven pretraining of selfattention networks. In EMNLP-IJCNLP, pp. 5360-5369, 2019. [14] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. In ICLR, 2019. [15] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In EMNLP: System Demonstrations, pp. 66-71, 2018. [16] Mohammad Shoeybi, Mostofa Patwary, Raul Puri, Patrick LeGresley, Jared Casper, and Bryan Catanzaro. Megatron$\mathrm{lm}$ : Training multi-billion parameter language models using gpu model parallelism. arXiv preprint arXiv:1909.08053, 2019. [17] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014. [18] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, Alban Desmaison, Andreas Kopf, Edward Yang, Zachary DeVito, Martin Raison, Alykhan Tejani, Sasank Chilamkurthy, Benoit Steiner, Lu Fang, Junjie Bai, and Soumith Chintala. Pytorch: An imperative style, high-performance deep learning library. In NIPS, pp. 8024-8035. 2019. [19] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In EMNLP: System Demonstrations, pp. 38-45, 2020. [20] Steven Bird, Ewan Klein, and Edward Loper. Natural Language Processing with Python. O'Reilly Media, Inc., 2009. [21] Matthew Honnibal, Ines Montani, Sofie Van Landeghem, and Adriane Boyd. spaCy: Industrial-strength Natural Language Processing in Python, 2020. ## A 付録 実験設定実験は NVIDIA GeForce GTX 1080Ti (11GB) 1 枚で行った. 最適化手法は Adam [17]を用いた. 実験で用いたハイパーパラメータを表 4 と表 5 に示す。実装は PyTorch [18] 及び Transformers [19] を,ストップワードは NLTK [20]を,単語ベースのトークナイザは spaCy [21]を用いた。 表 4 言語モデルの訓練に用いたハイパーパラメータ. スラッシュで区切られているのものはSQuAD/BioASQ の 1 段階目/BioASQ の 2 段階目である. 表 5 fastText の訓練に用いたハイパーパラメータ. 記載の変数以外はデフォルト値を用いた. 追加事前学習によって単語埋め込みは変化しているか? 各モデルの単語埋め込みを t-SNE によって描画した結果を示す. 図 2 に BERT-base-cased モデル, 図 3 に BioASQ の追加事前学習を TAPT で行なったモデル, 図 4 に BioASQ の追加事前学習を提案手法で行なったモデル, 図 5 に BioBERT モデルの単語埋め込み層を示す. 描画の際は,BioASQ で頻出のサブワードから,ストップワード・長さが 3 以下のサブワードを除き,上位 1000 語で $\mathrm{t}$-SNE モデルを作成した後に上位 30 語を描画した。 図中では, 'cell', 'cells', 'gene', 'genes', 'protein' の 5 単語を赤文字で記している。これらの単語は医療ドメインに特有の物質名であるが,BERT-base-cased モデルと TAPT の学習結果では大きく離れた箇所に位置している. 一方, 提案手法と BioBERT モデルでは近い箇所に集まっている。提案手法は訓練データ数としては TAPT と同じであるにも関わらず,膨大な医療ドメインのコーパスで学習した BioBERT に近い単語埋め込みを学習していることが示唆されている. 図 2 BERT-base-cased の埋め込み層 図 3 TAPT の学習結果の埋め込み層 図 4 提案手法の学習結果の埋め込み層 図 5 BioBERT の埋め込み層
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B1-2.pdf
# 特徵マップによる説明の信頼性評価手法の定量的分析 $\dagger$ 東北大学 $¥$ 理化学研究所 ${ }^{1}$ asazuma.yuya.r7@dc.tohoku.ac.jp ${ }^{2}$ kazuaki.hanawa@riken.jp ${ }^{3}$ inui@tohoku.ac.jp ## 1 はじめに 機械学習モデルの性能が日々向上している一方で,未だに多くのモデルは自身の動作について十分な説明を行うことができない。特に,医療分野においては判断結果に根拠を持つことが要求されているため,機械学習モデルの動作を説明するための手法が研究されている. 説明手法の優劣を議論するには説明の有効性を評価する必要がある. 最も単純な方法は人間の直観に基づく方法 (Plausibility) で,人手でアノテーションした特徴マップとの一致度を測る。 しかし,人間の直観に基づく手法のみでは不十分であることが指摘されており [1],あくまで説明は判断根拠の明示を目的にしているため,機械の内部動作に基づいていることが要求される (Faithfulness). ゆえに,人間の直観に頼らない評価法も必要になる。 そのため,各研究において信頼性に則した説明手法の評価が行われている [2][3][4][5][6]. 多種多様な評価方法で説明手法の信頼性が主張されている一方で,それらの評価方法自体の関係性は十分に考慮されていない.また,データセットやモデルの特性から受ける影響に関しても分析されていない。 よって,同一の信頼性を議論しているつもりでもそれぞれ別種の性質を評価している可能性が存在する. 本研究では,既存の信頼性評価手法について定量的な評価を行う。問題の簡略化のために扱う説明の形式を特徵マップに限定し,以下の解明を目的に実験を行う。 ・データセットの特性による評価結果の変化 ・複数の評価手法における結果の一貫性・変化 最終的に,各評価手法がどの程度データセットの影響を受けるか分析し, 各手法に一貫する性質について考察を行った. 図 1 ある入力例に対する特徴マップの生成例 ## 2 説明の生成手法 1 節で述べたように, 本研究では説明として特徴マップのみを扱う. 特徴マップとは, 出力要素に対する入力要素の重要度を求める手法である.ある感情分析タスクにおける特徴マップの例を図 1 に示す. 感情に関わる単語に強い重要度が与えられていることが確認できる. 本節では,これ以降,検証に使用する四つの特徴マップの生成手法について説明する。 ## 2.1 Saliency Map Saliency Map は入力に対する出力の勾配を求めるシンプルな手法である [7]. 勾配の逆伝搬によって容易に計算することができるため,ベースライン手法として扱われることが多い。 ## 2.2 Input X Gradient 上述した Saliency Map を拡張した手法であり,勾配に入力特徴量を乗算する [8]. 単純な手法であるが,生成された特徴マップは入力特徴量を考慮することが可能になる. ## 2.3 Integrated Gradients Integrated Gradeints は, 文献 [9] で考案された特徴マップ生成法である. 生成法が満たすべき公理として Sensitivity と Implementation Invariance を定義し, これらを満たす手法としてベースライン入力から入力例に対するモデルの勾配を積分することで,特徴 表 1 本研究で使用するデータセットの統計値 図 $2 \mathrm{LSTM}+$ Attention model $の$ 図解 マップの生成を行う. ## 2.4 Attention Weights 近年の NLP 界隈において広く普及した手法に Attention Mechanism が存在する [10]. 隠れ層の重み付けを行うため, Attention Weights は入力特徴の重要度に近しいものとして学習される. ゆえに, 一種の特徴マップとして扱うことができる [11]. ## 3 実験条件 ## 3.1 データセット 本稿ではテキスト分類タスクを分析の対象とする. コーパスとしてIMDB, SST, AG News, 20 News を使用する.ただし問題の単純化のためにすべてのコーパスを 2 值分類タスクに変換する.例として, 20 News は 20 值の分類問題であるため,9番と 10 番ラベルの 2 值分類問題として扱う. 表 1 に使用するデータセットの統計値を示す.この条件設定は文献 [4] に合わせたものである. ## 3.2 モデル テキスト分類モデルとして LSTM に基づくモデルを使用する. Attention Weightsを取得する必要があるため,LSTM + Attention Layer を含むモデルを使用する.図 2 に使用したモデルを図解する。 上述のモデルについて,3.1 節のコーパスで訓練を行った. 訓練後のテストセットにおける Accuracy, F1 スコアを表 2 に示す. 図 3 本研究の実験手順の図解 ## 3.3 評価手法 本研究では図 3 に示すように,説明手法の信頼性を評価する 3 つの手法について検証を行う.4,5, 6 節において,タスク・コーパスの違いにおける傾向の変化を評価する. 7 節において,手法横断的に分析を行う. ## 4 ERASER 法を用いた検証 特徴マップの信頼性評価手法として著名な研究に ERASER 法がある [3]. これは,特徵マップの降順に入力特徵を削除した際の出力の変化を観測する評価方法である. 同様の評価手法が,人間の主観的評価に依存しない評価として多くの研究に採用されている [6][12]. 本実験で使用する ERASER 法は以下の手順で構成される. 1. 出力ラベルが変化するまで,対応する特徴マップの値が高い順に入力要素を MASK する 2. 削除率 $=$ MASK した要素数 / 入力要素数を計算 3. 全要素を MASK しても変化しなかった場合,削除率 $=1.0$ とする 特徴マップが入力要素の重要度を捉えていた場合,重要な入力特徵量から消去することになるため,早い段階で出力が変化すると考えられる.よって,多くの入力における削除率が低いほどその解釈性手法が優秀であると述べることができる. ## 4.1 実験 3 節で述べた実験設定において ERASER 法の検証を行う.データセット毎の傾向を確認するため,消去率の平均を求めたものを表 3 に示す. 図 4 弱学習器のモデル図解 データセット間で比較を行うと,同じ説明手法でも削除率の值が全く異なることが確認できる. 表 2 において精度の高い IMDB,AG News 間で比較すると大きな差が存在するため, 本来のタスクとしての難易度が無関係であることも確認できる. 一方で,多くのタスクにおいて Integrated Gradients, Input X Gradient が優秀であり, Saliency や Attention Weights は奮わない結果であることが確認できる。ゆえに,データセットを通して,解釈手法間の順位的な傾向は保たれていると考えることができる。 ## 5 弱学習器による検証方法 S.Wiegreffe らは弱学習器を使用した Attention Weights の正当性検証を行っている [5]. 図 4 にモデルの概要を示す. 特徴マップを出力への重み付けとして使用し,LSTM 層を多層パーセプトロンに置換する. 特徴マップが重要度として適切な値になっていなければ精度が大きく下がると考えられるため,一種の信頼性の評価手法として用いる. 本来は Attention Weights のための手法であるが,本研究では一般的な特徴マップを生成する手法に拡張する. そのためにいくつかの実験条件を追加する. ・ 3.2 節のモデルから特徴マップを生成する ・モデルが予測したラベルに対して特徴マップを生成する (教師ラベルを使用しない) ・特徴マップのノルムを 1.0 に正規化する ・ベースライン手法として Uniform,Random を追加する - Uniform: 特徵マップを均一として扱う - Random: 特徴マップを毎回ランダムに生成する ## 5.1 実験 3 節で述べた実験設定において弱学習器を用いた検証を行う. それぞれ訓練した弱学習器において, テストセットにおける F1 score を求めたものを表 4 に示す. 実験結果より,データセットによって傾向が異なることが確認できる。IMDB・AG News では解釈手法間の差が微小な二方で, SST・20 News では大きな差が発生することが確認できた. 手法間の順位関係もデータセットによって大きく異なり, $\mathrm{IMDB} \cdot \mathrm{AG}$ News では Integrated Gradients,Input X Gradient が高い精度となるが,SST では Uniform が最も優秀になる一方で Input X Gradient の精度が低下してしまう。 よって,この手法はデータセットの特性に大きな影響を受けると考えられる。また,精度の変化も微小なものであることが多い. 一方で図 5 に示すように,IMDB における訓練時の Validation Loss の推移を観測すると手法間で収束の特性が大きく異なることが確認できる. Integrated Gradients・Input X Gradient が早期に収束する一方で,Saliency・Attention Weights は収束に時間が必要となる. 収束が早い要因として,重み付けの前後の線形層を十分に訓練しなくても精度が出せることが考えられる.現に,線形層を十分に訓練する必要のある Uniform は最も収束が遅い結果となる. 仮説止まりではあるものの,特徴マップがモデルの分類に有効な特徵量であるほど,収束が早くなる可能性が存在する.そのため,Loss の収束特性が意味を持つ可能性が十分に考えられる. 図 5 IMDB における訓練時の Validation Loss の推移 ## 6 シャッフルを用いた検証方法 文献 [4] では Attention Weights の頑健性評価のため,シャッフルを用いた実験が行われた. Attention Weights が分類において有効な特徴量であれば, シャッフルによって出力が大きく乱れるため,モデルに対する特徴マップの信頼性を測ることが可能と考えられる。 本来は Attention Weights のための手法であるが,本研究では一般的な特徴マップを生成する手法に拡張する。実験は以下の手順で行う。 1. 弱学習器モデルを用いて入力 $\boldsymbol{x}$ ・特徴マップから出力ラベルの予測確率 $\boldsymbol{y}$ を求める 2. 重み付けに使用した特徴マップをランダムに入れ替える 3. 再度, 出力ラベルの予測確率 $\hat{\boldsymbol{y}}$ を求める 4. 出力ラベルの変化を Total Validation Distance (TVD) を用いて計算する 5. 2〜4を 100 回試行し,TVD の中央値を取る TVD は以下の式で計算する。TVD は確率分布の距離尺度となるため, TVD が大きな值を取るほどシャッフルによって出力が乱れているとみなすことができる. $ T V D(\boldsymbol{y}, \hat{\boldsymbol{y}})=\frac{1}{2} \sum_{i}\left|y_{i}-\hat{y}_{i}\right| $ ## 6.1 実験 それぞれの解釈手法・データセットについて実験を行い,TVD の平均値を計算した結果を表 5 に示す. 平均値の値の傾向は ERASER 法より安定するものの, 同一の評価手法でもデータセットによる値の変化はある程度確認できる。例として, $\mathrm{SST} ・ \mathrm{AG}$ News における Saliency の TVD は. 093 と非常に低い值となるが,IMDB では. 273 と大きい値となる。ゆえに,データセットを跨いだ値の比較検証は不可能表 5 データセット・解釈手法毎の TVD の平均値 であると言える. 各データセットにおける順位的な関係に注目すると,Input X Gradient が特に優秀であり,次点で Integrated Gradients が高いスコアとなる.この 2 手法が優秀である点は ERASER 法や弱学習器の収束特性で見られた傾向と一致する。 ## 7 議論 多くの評価手法・データセットに共通して Integrated Gradients と Input X Gradient は高いスコアを記録しており,手法間の性能差は小さいものになる.また,Saliency は殆どの実験で他手法より劣る結果となる。由えに今回の実験設定では,特徴マップの生成手法ごとに一貫した順位的な性質が確認できる. 一方で,各評価手法が同一の性質を測定しているとは断言できない. ERASER 法/IMDB における Saliency $\cdot$ Attention Weights と Integrated Gradients $\cdot$ Input X Gradient には確たる差が存在するものの, シャッフル法 / IMDB では差が小さい. ゆえに,現状の研究成果では評価手法間に何らかの関連性が推測できるものの,同一の性質を測定していると断定することができない. 同一性を検証するためには,各評価手法がどのような性質を分析しているか調査する必要がある.今後の研究では, 評価手法を最大化するような特徴マップの性質を特定するなど,より定性的な検証を中心に行う予定である。 また, データセットよりも粒度の細かい単位での検証や,モデルのパラメータの考慮など,より多くの条件で実験できるよう改良する予定である. ## 参考文献 [1] Alon Jacovi and Yoav Goldberg. Towards faithfully interpretable NLP systems: How should we define and evaluate faithfulness? In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 41984205, Online, July 2020. Association for Computational Linguistics. [2] Julius Adebayo, Justin Gilmer, Michael Muelly, Ian Good- fellow, Moritz Hardt, and Been Kim. Sanity checks for saliency maps. In S. Bengio, H. Wallach, H. Larochelle, K. Grauman, N. Cesa-Bianchi, and R. Garnett, editors, $A d-$ vances in Neural Information Processing Systems, Vol. 31, pp. 9505-9515. Curran Associates, Inc., 2018. [3] Jay DeYoung, Sarthak Jain, Nazneen Fatema Rajani, Eric Lehman, Caiming Xiong, Richard Socher, and Byron C. Wallace. ERASER: A benchmark to evaluate rationalized NLP models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 44434458, Online, July 2020. Association for Computational Linguistics. [4] Sarthak Jain and Byron C. Wallace. Attention is not Explanation. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3543-3556, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [5] Sarah Wiegreffe and Yuval Pinter. Attention is not not explanation. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 11-20, Hong Kong, China, November 2019. Association for Computational Linguistics. [6] Sofia Serrano and Noah A. Smith. Is attention interpretable? In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 29312951, Florence, Italy, July 2019. Association for Computational Linguistics. [7] Karen Simonyan, Andrea Vedaldi, and Andrew Zisserman. Deep inside convolutional networks: Visualising image classification models and saliency maps. CoRR, Vol. abs/1312.6034, , 2013. [8] Avanti Shrikumar, Peyton Greenside, and Anshul Kundaje. Learning important features through propagating activation differences. In Doina Precup and Yee Whye Teh, editors, Proceedings of the 34th International Conference on Machine Learning, Vol. 70 of Proceedings of Machine Learning Research, pp. 3145-3153, International Convention Centre, Sydney, Australia, 06-11 Aug 2017. PMLR. [9] Mukund Sundararajan, Ankur Taly, and Qiqi Yan. Axiomatic attribution for deep networks. In Doina Precup and Yee Whye Teh, editors, Proceedings of the 34th International Conference on Machine Learning, Vol. 70 of Proceedings of Machine Learning Research, pp. 33193328, International Convention Centre, Sydney, Australia, 06-11 Aug 2017. PMLR. [10] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate, 2014. cite arxiv:1409.0473Comment: Accepted at ICLR 2015 as oral presentation. [11] Jiwei Li, Will Monroe, and Dan Jurafsky. Understanding neural networks through representation erasure. CoRR, Vol. abs/1612.08220, , 2016. [12] Akash Kumar Mohankumar, Preksha Nema, Sharan Narasimhan, Mitesh M. Khapra, Balaji Vasan Srinivasan, and Balaraman Ravindran. Towards transparent and explainable attention models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4206-4216, Online, July 2020. Association for Computational Linguistics.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B1-3.pdf
# 離散記号処理に対する近似的な微分構造の考察と 数量推論を要する文章読解問題への応用 吉川 将司 1,2 東北大学 1 yoshikawa@tohoku.ac.jp ## 1 はじめに 本稿では,離散記号処理モジュール $F$ を中間層として持つような深層学習モデルを構築し,全体を誤差逆伝搬法によって end-to-end に学習する方法を検討する。また,その応用例として電卓モジュール付き文章読解モデル(図 1)を実装し,実験を行う. F は一般に Python インタープリタのようなプログラムを考える.しかし,当然ながら $F$ の微分則は不明であるし,また一般的にDNN の中間の活性化を離散值に落とせば勾配が 0 になってしまい,F より上流のモジュールを,最終タスクの損失に関する勾配によって学習させることができない. そこで,本稿では argmax 活性化に対する微分可能な緩和を行う Gumbel Softmax trick (§ 3.1)を一般化し,F に対する擬似的な Jacobi 行列を構築する方法を提案する. 記号推論を要する問題として,数量推論を要する文章読解 (DROP [1]) に取り組み,深層学習モデルに,F として簡単な二項四則演算プログラム(電卓と呼ぶ)を取り込むことを考える、数量推論は深層学習による自然言語処理では難題であり, 近年の巨大な言語モデルでも限られたパターンしか対応できないことが報告されている [2]. 本研究は,現状の言語モデルの延長ではこの問題は解決できないと考え,外部モジュールを組み込む方策を検討する。 ## 2 問題設定 具体的なモデルの構造について本旨に関係する範囲で整理し,詳細は付録 $\mathrm{A}$ にまとめる.1) 文章と質問を $P, Q$ とし,対応する答え(正解ラベル)を $y^{\star}$, 1) 記法: $\boldsymbol{e}_{k}(k \in \mathbb{N})$ で $k$ 番目が 1 の適当な次元の one-hot ベクトルとする. 語彙 $\mathscr{V}$ は全順序集合とし $w \in \mathscr{V}$ に対し $\boldsymbol{e}_{\mathrm{w}}$ とも書く.また 1 はすべての要素が 1 のべクトルである. $n-1$次元単体は $\Delta^{n}=\left.\{\mu \in \mathbb{R}^{n} \mid \forall \mu_{i} \geq 0, \sum_{i=1}^{n} \mu_{i}=1\right.\}$ とし,タイプライター書体の $\operatorname{argmax}(\boldsymbol{x})$ は $\boldsymbol{x} \in \mathbb{R}^{n}$ 中の最大要素 $x_{i}$ について $\boldsymbol{e}_{i}$ を返す関数とする.これは一般的な演算子を使って $\operatorname{argmax}(\boldsymbol{x})=\arg \max _{\boldsymbol{\mu} \in \Delta^{n}} \boldsymbol{x}^{\top} \boldsymbol{\mu}$ と書ける. $\operatorname{argmax}$ に関する議論では $x_{i}$ の大きさが同率一位になることはないと仮定する.乾健太郎 ${ }^{1,2}$ 理化学研究所 ${ }^{2}$ inui@ecei.tohoku.ac.jp $\boldsymbol{P}$ : The commander recruited 802 Polish families in Spain. Q: Were there more Japanese The householder recruited 231 or Polish families in Span? Japanese families in Spain .. 図 1 電卓付き文章読解モデル. 詳細は本文参照. モデルの予測を $y$ ,損失を $\mathscr{L}\left(y, y^{\star}\right)$ とする.これら変数の具体的な構造には立ち入らず, $\mathscr{L}$ は $y$ で微分できると仮定する(e.g., 確率分布間の KL 誤差). モデルベースの文章読解モデルとして GenBERT [3] を用い,それに対して電卓機能を追加する. パラメータ $\psi$ の関数として GenBERT $\psi$ は BERT [4] に基づき,“[CLS $Q$ [SEP] $P$ ” のサブワード列を入力とし,入力テキスト中のスパンを抽出するか,文字列を直接生成することによって問題を解く。電卓による拡張では, 別の BERT ゙゙ースのモデル BERT ${ }_{\phi}^{A R G}$ (項抽出器)に $P$ 中から問題を解くために有用そうな数量項を 2 つ抽出させ(図 1 の “802”, “231”),電卓 $D$ により計算を行った結果の文字列 Z(ここでは引き算として “571 = D (802,231)”) を連結した“[CLS] $Q$ [SEP] $P$ [SEP] Z" を使って GenBERT $\psi$ に推論させる. BERT ${ }_{\phi}^{\mathrm{ARG}}$ の出力は $s \in \mathbb{R}^{K}$ ( $K$ は $P$ 中の数量項の組の数) であり,要素 $s_{i}$ は数量項の組に対するスコアである。電卓は $s_{i}$ の大きさに従って数量項の組をサンプリングし $Z$ を構築する. ここで, $Z$ は BERT ベースの GenBERT $\psi$ に直接入力されるため文字列である必要はなく, BERT の入力層のサブワード語彙 V に対応した one-hot ベクトルを並べた行列常に含まれる数学記号 $F(\boldsymbol{s})$; 計算結果 (Lトークン) $A(\boldsymbol{s})$; 抽出結果 であればよく,以降 $Z$ をそのような行列とする.注意として,演算記号 “-”を使わず抽象的に “D” とまとる. これにより $\left[F_{+}(s) F_{-}(s) F_{\times}(s) \boldsymbol{e}_{=}, \ldots\right]$ のように式 1 の “=” の左に $F_{*}$ を並べることで簡単に演算を増やすことができる.実際に用いる演算は付録 A. 2 にまとめる。予測は以下のように整理される。 $ y=\operatorname{GenBERT}_{\psi}\left(P, Q, D\left(\mathrm{BERT}_{\phi}^{\mathrm{ARG}}(P, Q)+\boldsymbol{g}\right)\right) $ ここで $\boldsymbol{g}$ は Gumbelノイズである (§3.1). BERT 等の言語モデルに $Z$ のようなヒントを与えた場合,推論性能が大きく向上することが報告されており $[5,6]$,本モデルが期待通りに動作すれば,文章読解問題を高い精度で解くことが期待できる。 問題項抽出器 BERT ${ }_{\phi}^{A R G}$ に問題を解くために有効な数量項を抽出させるために,そのパラメータ $\phi を ~$文章読解の損失 $\mathscr{L}\left(y, y^{\star}\right)$ を最小にするように推定したい. 勾配べースの学習法を用いるため, $\mathscr{L}$ の $\phi$ による勾配 $\nabla_{\phi} \mathscr{L}\left(y, y^{\star}\right)$ を計算したいが,それは $ \nabla_{\phi} \mathscr{L}\left(y, y^{\star}\right)=\frac{\partial \mathrm{BERT}_{\phi}^{\mathrm{ARG}}}{\partial \phi} \frac{\partial D}{\partial \boldsymbol{s}} \frac{\partial \mathrm{GenBERT}_{\psi}}{\partial Z} \nabla_{y} \mathscr{L}\left(y, y^{\star}\right) $ であり,式 1 から $\partial F / \partial \boldsymbol{s}$ と $\partial A / \partial \boldsymbol{s}$ を計算する必要がある. 後者については Gumbel-Softmax trick の簡単な応用で対処できるため詳細は付録 A. 2 に載せるにとどめるが,前者の $\partial F / \partial \boldsymbol{s} \in \mathbb{R}^{K \times L \times|\mathscr{V}|}$ をいかに近似推定すればよいか,が本研究が扱う問題である。本研究では,Sofmax を含む関数クラスの Jacobi 行列を分析し(§4), その結果に基づいて $\partial F / \partial \boldsymbol{s}$ の近似を人工的に設計する手法を提案する(§5).2) ## 3 関連研究 2) $Z_{i}$ を式 1 のように $i$ 番目の数量項の組に対する計算結果から作る行列とすれば, $F$ は $F^{\prime}(\boldsymbol{s})=\operatorname{argmax}(\boldsymbol{s})^{\top}\left[Z_{1}, \ldots, Z_{k}\right]^{\top}$ と書け,この argmaxで ST Gumbel-Softmax を使うという簡単な方法でも電卓の近似微分が実現できることに本稿執筆時に気づいた。しかし,これをナイーブに実装する場合 $Z_{i}$ を並べた巨大な行列を作る必要があり, 空間計算量的に問題である.提案法は(逆伝搬時はもう少し工夫が必要であるが)それを迂回できる可能性がある. また, $F^{\prime}$ の定式化の場合, 各 $Z_{i}$ に対する重み付けの比を学習することに相当するが,提案法の Jacobi 行列は(各時刻に $\mathscr{V}$ の要素を予測する) $s \mapsto Z$ の系列生成器の $\boldsymbol{s}$ に関する微分を想起させる形になっている. $F$ と $F^{\prime}$ の近似 Jacobi 行列の特性や,学習問題にどのような含意を持つのかは興味深い問題であり,今後詳細に調べたい。 ## 3.1 Gumbel-Softmax trick 図1のような電卓つき文章読解モデルを作る場合,項抽出結果 $Z$ に対する $D(Z)$ が確率 1 で決まることに着目し, 潜在変数モデル $(P, Q$ への依存は略 $)$ $ P(y)=\mathbb{E}_{P_{\phi}(Z)}\left[P_{\psi}(y \mid D(Z))\right] $ を検討することは尤もであり,近年検索べースの言語モデル [6] 等が成功を収めている.しかし,この方法では,モデル内に記号処理モジュールを増やすごとに潜在変数の組み合わせが爆発的に増えるため,確率の計算が困難になってしまう.特に,勾配ベースの手法で学習する際,一般的に限られた数の $Z_{i} \sim P_{\phi}(Z)$ により勾配を近似的に推定することになるが,REINFORCE アルゴリズム [7] のような不偏推定量の計算法が存在しながらも,分散が大きく学習が不安定なことが知られている. $D$ が恒等写像で,Z がカテゴリカル分布に従う場合のこの問題に対する安定した代替案である Gumbel-Softmax trick [8] では,サンプリング操作をノイズと $\operatorname{argmax}$関数評価に切り分け (reparameterization trick; $P(y)=$ $\left.\mathbb{E}_{\epsilon \sim P_{\epsilon}}\left[P_{\psi}\left(y \mid \operatorname{argmax}\left(f_{\phi}(\epsilon)\right)\right)\right]\right)$, 温度パラメータ $\tau>0$ を小さくした $\operatorname{softmax}(\boldsymbol{x} / \tau)=\left[e^{x_{i} / \tau} /\left(\sum_{j} e^{x_{j} / \tau}\right)\right]_{i}$ で argmax を近似する(微分可能な緩和)ことで end-toend 学習を行う. さらに,順伝搬時は argmax を計算し,逆伝搬時に softmax の Jacobi 行列 $\nabla$ softmax を使う Straight-Through (ST) Gumbel-Softmax という手法も提案されている. 本研究は $D$ として恒等写像から記号処理モジュールに一般化し,その場合における近似 Jacobi 行列を考えるものである。 softmax が argmax の近似であることは,特に前者が正則化 argmax [9, 10] の一種であることからわかる. 正則化 $\operatorname{argmax}$ はある正則化関数 $\Omega$ に関して, $ \operatorname{argmax}_{\Omega}(\boldsymbol{x})=\arg \max _{\boldsymbol{\mu} \in \Delta^{n}} \boldsymbol{x}^{\top} \boldsymbol{\mu}-\Omega(\boldsymbol{\mu}) $ の形をした関数のクラスであり,softmax は $\Omega$ に負の Shannon エントロピー $\left(-H_{S}(\boldsymbol{\mu})=\sum_{i} \mu_{i} \log \mu_{i}\right)$ を選んだ場合に相当する。温度パラメータ $\tau$ をげることと $\operatorname{argmax}$ の関係は以下のように正則化の効果を落とすことに相当する。 $ \begin{aligned} \operatorname{argmax}_{\Omega}(\boldsymbol{x} / \tau) & =\arg \max _{\boldsymbol{\mu} \in \Delta^{n}}(\boldsymbol{x} / \tau)^{\top} \boldsymbol{\mu}-\Omega(\boldsymbol{\mu}) \\ & =\arg \max _{\boldsymbol{\mu} \in \Delta^{n}} \boldsymbol{x}^{\top} \boldsymbol{\mu}-\tau \Omega(\boldsymbol{\mu}) \xrightarrow{\tau \rightarrow 0} \operatorname{argmax}(\boldsymbol{x}) \end{aligned} $ 上の関係は softmax に限らない一般の $\operatorname{argmax}_{\Omega}$ に成り立ち, 微分可能緩和として sparsemax [9] などの 他のインスタンスを使う方針もあり得る.§4 では,一般性のある正則化 argmax に対し分析を行う. ## 3.2 記号処理モジュールの微分 本研究と最も関連のある既存研究は Estimate and Replace 法 [11] である. この手法を電卓付き文章読解モデルに応用する場合,まず電卓の記号処理を模倣するネットワークを人工データ上で事前訓練し,文章読解モデルを訓練する場合には,この模倣ネットワークで電卓を置き換えて勾配を推定 (estimate) し, テスト時には真の電卓に戻して (replace) 使う。この方法では原理的に最終タスクによる勾配を上流まで流すことができるが,その性質については不明である. 特に,論文 [11] による評価実験が単純な人工夕スクに限られていることは,汎用性に関し限界を示唆する。推定される勾配の質は,模倣ネットワークの模倣精度に大きく依存すると予想され,精度を上げるためにネットワークを大きくすれば,モデル全体の学習に要する計算コストが犠牲になる。 本研究の動機は,離散記号モジュールの微分がどうあるべきかを数理的に分析し,上述の問題を克服する勾配推定法を確立することである.その糸口として,以下正則化 argmax $の$ Jacobi 行列を分析する. ## $4 \operatorname{argmax_{\Omega}$ の Jacobi 行列の分析} 一般の正則化 $\operatorname{argmax} \ell$ がもつ以下の基本的な性質(証明は [10] 参照)を前提としてその Jacobi 行列 $\partial \boldsymbol{\ell} / \partial \boldsymbol{x}$ の性質を調べる. 以下 $z=\boldsymbol{\ell}(\boldsymbol{x})$ とする. - (単調性) $\forall \epsilon>0, \ell_{i}\left(\boldsymbol{x}+\epsilon \boldsymbol{e}_{i}\right) \geq \ell_{i}(\boldsymbol{x})$ - (正規性) $\boldsymbol{\ell}(\boldsymbol{x}) \in \Delta^{n}$ i.e., $\ell_{i}(\boldsymbol{x}) \geq 0, \sum_{i=1}^{n} \ell_{i}(\boldsymbol{x})=1$ - (定数に対する不変性) $\forall c \in \mathbb{R}, \boldsymbol{\ell}(\boldsymbol{x}+c \mathbf{1})=\boldsymbol{\ell}(\boldsymbol{x})$ 性質 1 : 符号まず注目する点として, これらの Jacobi 行列は,常に対角成分が非負,非対角成分が非正の正方行列である. 単調性から対角成分 $\partial \ell_{i} / \partial x_{i}$ は非負であり,正規性から 1 を $z_{i}$ 間で分配しないといけないため $\partial \ell_{i} / \partial x_{j}(i \neq j)$ は非正となる. 具体的に softmax の Jacobi 行列はそのようになっている: $ \frac{\partial \text { softmax }_{i}}{\partial \boldsymbol{x}_{j}}= \begin{cases}z_{i}\left(1-z_{i}\right) & i=j \\ -z_{i} z_{j} & i \neq j\end{cases} $ そもそも, Jacobi 行列の要素 $\partial \ell_{i} / \partial x_{j}$ の意味をナイーブに解釈すれば, $\operatorname{argmax}_{\Omega}$ の役割からして「 $z_{i}$ を大きくするには $x_{i}$ を大きくし $\left(\partial \ell_{i} / \partial x_{i} \geq 0\right), x_{j}(j \neq i)$ ことが表現されているはずである.性質 2 : 值の大きさ一方で Jacobi 行列のそれら要素の大きさに関してはどのように解釈できるだろうか?解釈には様々な可能性がありえるが,1つとして出力 $z$ が peaky になるほど Jacobi 行列が零行列に近づくことで勾配の流れを妨げる弁のような機能を持つと考える. ${ }^{3}$ 厳密でないが, $z$ を peakyにすることは,入力 $x$ に対して温度 $\tau$ を小さくすることで模倣できるが,式 2 よりこれは至るところ勾配 0 の $\operatorname{argmax}$ に近づくことになり, 同様に $\partial \boldsymbol{\ell} / \partial \boldsymbol{x}$ も零行列に近づくと考えられる。このことは,具体的な Jacobi 行列(式 3)からも見て取れる。 性質 3 : 入カへの間接的依存性最後に,興味深いことに softmax の Jacobi 行列が $z$ を介して記述でき, $x$ への依存が間接的である。一般論としては, この事実は正則化 $\operatorname{argmax}$ の定数に対する不変性に関係する. $\operatorname{argmax}_{\Omega}$ は明らかに非単射であるが,その Jacobi 行列は $z$ で決まり情報量の多い $x$ を必要としない. 具体的に, 任意の $x_{1}, x_{2} \in \mathbb{R}^{n}$ に対して, $\boldsymbol{\ell}\left(x_{1}\right)=\boldsymbol{\ell}\left(x_{2}\right)$ ならば $(\partial \boldsymbol{\ell} / \partial x)\left(x_{1}\right)=(\partial \boldsymbol{\ell} / \partial x)\left(x_{2}\right)$ である. 仮に Jacobi 行列間の不等号が成り立てば, $\boldsymbol{x}_{1}, \boldsymbol{x}_{2}$周辺の適当な変化 $\epsilon$ に対する $\ell$ の挙動が異なることになるが, $\boldsymbol{\ell}\left(\boldsymbol{x}_{1}\right)=\boldsymbol{\ell}\left(\boldsymbol{x}_{1}+\epsilon \mathbf{1}\right) \neq \boldsymbol{\ell}\left(\boldsymbol{x}_{2}+\epsilon \mathbf{1}\right)=\boldsymbol{\ell}\left(\boldsymbol{x}_{2}\right)$ となり仮定に反するからである。 ## $5 F$ の擬似的な微分 前節で argmax の微分可能緩和の Jacobi 行列を分析したが,仮に $F$ に対する微分可能緩和 $\tilde{F}$ が存在すれば,およそ §4 冒頭の仮定を満たし,その Jacobi 行列 $\partial \tilde{F} / \partial s$ にもこの分析と同様の性質が成り立つと考えられる. しかし $\tilde{F}$ の具体的な関数形は closed な形ではわからない. そこで ST Gumbel-Softmax (§3.1) と同様に順伝搬時には one-hot ベクトルを並べた $Z=F(s)$ を使い,逆伝搬時には,上の分析に基づき人工的に作った近似 Jacobi 行列 $J(\approx \partial \tilde{F} / \partial s)$ を用いれば勾配 $\nabla_{\phi} \mathscr{L}\left(y, y^{\star}\right)$ を推定できる. 具体的に,大きな方針は性質 1 より $J$ の要素の符号は $F$ の望ましい入出力関係に基づき設定し,その値の大きさを性質 2,3 に基づいて設計することを考える。 まず簡単に,数量項の組の数を $K$ とし,入出力は必ず一桁で桁の繰り上がりは起きないとした一桁足し算 $F^{1}: \mathbb{R}^{K} \rightarrow\left.\{\boldsymbol{e}_{n}\right.\}_{n \in \mathscr{V}^{\prime}}\left(\mathscr{V}^{\prime}=\{1<2<\ldots<9\}\right)$ の場合を考えると,その近似 Jacobi 行列 $J \in \mathbb{R}^{K \times 9}$ は,  性質 $\mathbf{1}$ より $i=1, \ldots, K$ ごとのある $d_{i}, d_{i}^{\prime} \geq 0$ を使って下の例のように足し算結果によって決めることができる. ( $K=3, s_{i}$ に対応する数の組を右に示す). $d_{i}, d_{i}^{\prime}$ の値は性質 2,3 を考慮して $s$ を適当な $\operatorname{argmax}_{\Omega}$ で正規化した値を用い, 弁機能も備えさせる.具体的に本稿では Softmax を使い,式 3 を基に $z=\operatorname{softmax}(s)$ として $d_{i}=d_{i}^{\prime}=z_{i}\left(1-z_{i}\right)$ とする. ${ }^{4)}$ 次に,入出力の桁数に関して一般の演算 $Z=$ $F(s) \in \mathbb{R}^{L \times|\mathscr{V}|}$ の近似一階微分 $J \in \mathbb{R}^{K \times L \times|\mathscr{W}|}\left(J_{i j k} \approx\right.$ $\partial F_{j k} / \partial s_{i}$ )を考える (図2).このとき, $J_{i}$ の要素の符号は $s$ のなかで $s_{i}$ が最も大きいときに $F$ の期待される出力で決めればよく, つまり $Z_{i}=F\left(\mathbf{e}_{i}\right) \in \mathbb{R}^{L_{i} \times|\mathscr{V}|}$ に依る.さらに $J$ の要素の大きさも一桁電卓の場合と同様に調整して $J_{i}=d_{i} Z_{i}-d_{i}^{\prime}\left(1-Z_{i}\right)$ としたい. しかし桁の繰り上がり等で必ずしも $L_{i}=L$ ではないため, $L_{i}<L$ の場合後ろを 0 で埋め, $L_{i}>L$ の場合 $Z_{i}$ の先頭 $\mathrm{L}$ 行だけを使うことで行列の大きさを調整した $\tilde{Z}_{i} \in \mathbb{R}^{L \times|\mathscr{V}|}$ で $J_{i}=d_{i} \tilde{Z}_{i}-d_{i}^{\prime}\left(1-\tilde{Z}_{i}\right)$ とする. ## 6 実験 設定数量推論を必要とする文章読解問題を集めた DROP データセット [1] で実験を行う. 開発セットにおける電卓あり/なしの GenBERT [3] の性能を比べる. 基本的な実験設定は GenBERT 論文のものに従い,GenBERT 論文で構築された人工データを用いた事前学習のあと, DROP の学習セットで追加学習する. 注意すべき点として, 電卓ありの場合は別の BERT ベースの BERT ${ }_{\phi}^{A R G}$ モデルに含まれるためパラメータ量の点でフェアな比較ではない. 結果開発セットでの結果を表 1 に載せる. 残念ながら, 現段階では電卓の有無によって性能に差は見られず,性能面における電卓の有用性は示されなかった。そこで,項抽出器により抽出された数量が問題を解くために有益なものとなっているかを評価した. 項抽出に対する正解データは存在しないため Amazon Mechanical Turkを用いる. 具体的に,電卓付きモデルが正答した開発セットの問題からランダ厶に 100 件抽出し,質問,文章,答え,抽出された 4)Sparsemax に基づく方法を実験結果とともに付録 B に載せる. $\operatorname{argmax}_{\Omega}$ と異なり $F$ の入出力はベクトルと行列で形が非対称であり,その点を考慮しながら設計しなければならない. 図 2 提案法による Jacobi 行列の計算. (1) 杕が少ない場合 0 で埋め,(2) 桁がはみ出る場合は下を切る. 表 1 DROP 開発セットにおける結果. 数量項をワーカーに見せ,質問から答えに至る過程で数量項を使うかを尋ねた。 1 問に対し 3 人のクラウドに評価してもらう. 結果, 3 人中 $k$ 人が数量項が有益であると判断した問題数は, $k=1,2,3$ に対しそれぞれ 100 問中 $40,14,8$ であった.こちらに関してもあまり良い結果とはいえず課題が残った. 現段階の直感的な考察として, 推論器 GenBERT $\psi$ が電卓から与えられる計算結果が問題を解くために有益であることに気づけない一方で,そのことにより,他方では項抽出器に質の良い教師信号が流れないという状況が起きているのではないかと考えられる. 今後さらなる調査を行う予定である. ## 7 終わりに 本稿では記号処理モジュールの微分を検討し,その応用例として電卓付き文章読解モデルを構築した. 鍵となるアイデアは,記号処理モジュールの近似微分の概形はその望ましい入出力関係で決まり,細部は argmax の近似である softmax 等を参考に決めれば良い,ということであった. 現状の結果は課題が多く残る. しかし, このような仕組みが完成した暁には数量推論に限らず,理論言語学的な推論の仕組みや外部知識辞書をモデルに統合するなどの応用が可能となり,その利益は大きいと思われ,今後もこの方針の追求に邁進するつもりである. 謝辞本研究は JSPS 科研費 $20 K 23314$ の助成を受けたものです. ## 参考文献 [1]Dheeru Dua, Yizhong Wang, Pradeep Dasigi, Gabriel Stanovsky, Sameer Singh, and Matt Gardner. DROP: A reading comprehension benchmark requiring discrete reasoning over paragraphs. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 2368-2378, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2]Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. 2020. [3]Mor Geva, Ankit Gupta, and Jonathan Berant. Injecting numerical reasoning skills into language models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 946-958, Online, July 2020. Association for Computational Linguistics. [4]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 41714186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [5]Alon Talmor, Oyvind Tafjord, Peter Clark, Yoav Goldberg, and Jonathan Berant. Leap-of-thought: Teaching pre-trained models to systematically reason over implicit knowledge. In Hugo Larochelle, Marc'Aurelio Ranzato, Raia Hadsell, Maria-Florina Balcan, and Hsuan-Tien Lin, editors, Advances in Neural Information Processing Systems 33: Annual Conference on Neural Information Processing Systems 2020, NeurIPS 2020, December 6-12, 2020, virtual, 2020. [6]Kelvin Guu, Kenton Lee, Zora Tung, Panupong Pasupat, and Mingwei Chang. Retrieval augmented language model pretraining. In Hal Daumé III and Aarti Singh, editors, Proceedings of the 37th International Conference on Machine Learning, Vol. 119 of Proceedings of Machine Learning Research, pp. 3929-3938, Virtual, 13-18 Jul 2020. PMLR. [7]Ronald J. Williams. Simple statistical gradient-following algorithms for connectionist reinforcement learning. Machine Learning, Vol. 8, No. 3, pp. 229-256, 1992. [8]Eric Jang, Shixiang Gu, and Ben Poole. Categorical reparametrization with gumbel-softmax. In Proceedings International Conference on Learning Representations 2017. OpenReviews.net, April 2017. [9]Andre Martins and Ramon Astudillo. From softmax to sparsemax: A sparse model of attention and multi-label classification. In Maria Florina Balcan and Kilian Q. Weinberger, editors, Proceedings of The 33rd International Conference on Machine Learning, Vol. 48 of Proceedings of Machine Learning Research, pp. 1614-1623, New York, New York, USA, 20-22 Jun 2016. PMLR. [10]Mathieu Blondel, André F.T. Martins, and Vlad Niculae. Learning with fenchel-young losses. Journal of Machine Learning Research, Vol. 21, No. 35, pp. 1-69, 2020. [11]A. Jacovi, G. Hadash, E. Kermany, B. Carmeli, O. Lavi, G. Kour, and J. Berant. Neural network gradient-based learning of black-box function interfaces. In International Conference on Learning Representations (ICLR), 2019. [12]Geoffrey Hinton. Neural networks for machine learning, coursera, lecture $15 \mathrm{~d}$ - semantic hashing : 3:05 - 3:35. https://www.cs.toronto. edu/ hinton/ coursera/lecture15/lec15d.mp4, 2012. [13]Yoshua Bengio, Nicholas Léonard, and Aaron Courville. Estimating or propagating gradients through stochastic neurons for conditional computation, 2013. [14]Jambay Kinley and Raymond Lin. NABERT+: Improving numerical reasoning in reading comprehension. https:// github.com/raylin1000/drop-bert, 2019. ## A 提案法のモデルの構造について ここでは文章 $P$ のサブワード列を $x_{1}, \ldots, x_{N}$ とする. GenBERT 論文 [3] と同様に,サブワードへの単語分割時に,数として判定されたトークンは “1234” $\mapsto$ “1,\#\#2,\#\#3, \#\#4”というように必ず 1 文字単位で区切ることにする. $N_{i}$ として,$x_{i}$ から始まるこのような数サブワード列の長さとする( $x_{i}$ が数でなければ適当に 0 とする). さらに $m_{i}$ は $x_{i}$ が数サブワード列の先頭トークンであれば 1 ,それ以外 $-\infty$ であるマスク定数とする. ## A. 1 数量項抽出モデル BERT によって文字列 “[CLS] $Q$ [SEP] $P$ ” に対応するサブワード列を走査して得たべクトル表現の列を $\boldsymbol{h}_{\text {[CLS] }}, H^{Q}, \boldsymbol{h}_{\text {[SEP] }}, H^{P}$ とする.ここで $H^{P}=\left[\boldsymbol{h}_{1}^{P}, \ldots, \boldsymbol{h}_{N}^{P}\right]^{\top}$ とすると, 項抽出スコア $\boldsymbol{s}$ は $\boldsymbol{h}_{i}^{P}$ を一度線形変換してマスクを掛けた $ \begin{aligned} & s_{i}^{\prime}=m_{i} \times\left(\boldsymbol{w}^{\arg \top} \boldsymbol{h}_{i}^{P}+b^{\mathrm{arg}}\right), \\ & s=\left(s_{i}^{\prime}+s_{\substack{\prime \\ j=1, \cdots, N \\ j=i+1 \cdots N}}\right. \end{aligned} $ であり,式 1 の $A(s)$ は, $ \begin{gathered} \left(\hat{x}_{i}, \hat{x}_{j}\right)=\arg \max _{\substack{i=1, \cdots, N \\ \left(x_{i}, x_{j}\right), j=i+1 \cdots N}} s_{i}^{\prime}+s_{j}^{\prime} \\ {\left[\mathbf{1}_{\hat{x}_{i}} \mathbf{1}_{\hat{x}_{i+1}} \ldots \mathbf{1}_{\hat{x}_{N_{i}}} \mathbf{1}_{\hat{x}_{j}} \mathbf{1}_{\hat{x}_{j+1}} \ldots \mathbf{1}_{\hat{x}_{N_{j}}}\right]=A(s)} \end{gathered} $ である. 各数量項サブワード列の先頭トークンに付与されたスコア $s_{i}^{\prime}$ を,その項を抽出するかどうかの判断に用い,もしその数量項が抽出されれば後ろの連続した $N_{i}$ トークンを項抽出結果として取り出す.本研究ではこの $A(s)$ を微分可能にするために,ST Gumbel-Softmax と同様に誤差逆伝搬時には式 4 の操作に対する Jacobi 行列として Softmax 関数のものを用いる. ## A. 2 電卓モジュール 電卓の機能本稿で用いた電卓の二項演算の種類は,既存研究 [14] を参考に選んだ。2つの数量項を $x, y$ として,以下の 9 つの演算である. - 和: $x+y,(x+y) \times 100,(x+y) \div 100$ - 差の絶対値 : $|x-y|,|x-y| \times 100,|x-y| \div 100$ - 積 : $x \times y,(x \times y) \times 100,(x \times y) \div 100$ 和,差,積に対して 100 倍や 100 で割る場合も考え, これらの計算の結果が整数値ではない場合は,整数にキャストしたものを計算結果とする。これらの演算を $F_{i}(i=1, \ldots, 9)$ として,以下を推論モデルに渡す。 $ \left[F_{1}(\boldsymbol{s}) F_{2}(\boldsymbol{s}) \ldots F_{9}(\boldsymbol{s}) \boldsymbol{e}_{=} \boldsymbol{e}_{\mathrm{D}} \boldsymbol{e}_{(} A(\boldsymbol{s}) \boldsymbol{e}_{)}\right]^{\top}=D(\boldsymbol{s}) $ $P$ に数量項が 2 つ以上含まれる場合,スコアの大きさに依らず常に大きい方から 2 つ抽出し,数量項の数が 1 つ以下の場合は項抽出をせず,電卓を用いなかったことを表すダミー表現として $\boldsymbol{e}_{[\text {SEP] }}^{\top}=D(\boldsymbol{s})$ とする。 ## A. 3 推論モデル (GenBERT) 推論部分 GenBERT $\psi$ は基本的に論文 [3] のものと同じである.このモデルは,文章内のスパン抽出,質問内のスパン抽出,文字列の生成の 3 つのアクションを持ち,数量項抽出時と同様に BERT $P, Q$ (提案法の拡張ではさらに $D(Z)$ も含む)を入力し,どのアクションを行うかを $\boldsymbol{h}_{\text {[CLS] }}$ の関数として決定した後,対応するアクションを $H^{Q}, H^{P}$ の関数として行うことで答えを予測する。 損失 $\mathscr{L}$ も論文 [3] に従い,各アクションによる予測確率を周辺化したものの対数の負を損失とする.詳細については論文を参照頂きたい。 ## B Sparsemax に基づく Jacobi 行列 Sparsemax [9] に基づく $F$ の Jacobi 行列の設計の仕方を紹介する。ここで $\mathbb{1}_{[\text {(条件)] }}$ は (条件) が満たされるとき 1 ,それ以外 0 とする. $\operatorname{sparsemax}_{i}(s)=$ $\max \left(0, s_{i}-\theta(s)\right) ( \theta$ はある閾値関数)の Jacobi 行列は以下である: $ \frac{\partial \text { sparsemax }_{i}}{\partial s_{j}}= \begin{cases}(1-1 / N) \mathbb{1}_{\left[z_{i}>0\right]} & i=j \\ -1 / N \mathbb{1}_{\left[z_{i}, z_{j}>0\right]} & i \neq j\end{cases} $ ここで,$N$ は $z_{i}>0$ な添字 $i$ の数である. Sparsemax に基づく方法では基本的な方針は節 5 の Softmax の場合と同じであるが,Jacobi 行列の要素の大きさを上式の Sparsemax 活性化関数に基づいて設計する。具体的に, $z=\operatorname{sparsemax}(s) 、 N を$ $z_{i}>0$ な添字 $i$ の数として $, d_{i}, d_{i}^{\prime} \geq 0$ を以下のように設定する。 $ \left.\{\begin{array}{c} d_{i}=(1-1 / N) \mathbb{1}_{\left[z_{i}>0\right]} \\ d_{i}^{\prime}=(1 / N) \mathbb{1}_{\left[z_{i}>0\right]} \end{array}\right. $ この Jacobi 行列を使った場合の DROP データセット上での結果は $\mathrm{EM} / \mathrm{F} 1=$ 67.3/71.6であり, Softmax による Jacobi 行列を使った場合とあまり差は見られなかった。
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B1-4.pdf
# 単一事例エキスパートの統合によるドメイン適応 $\diamond$ 理化学研究所 ・東北大学 ${ }^{\triangleright}$ 株式会社 Preferred Networks shun.kiyono@riken.jp, \{sosk, jun.suzuki, inui\}@ecei.tohoku.ac.jp ## 1 はじめに 事前訓練済みモデルのファインチューニングは,今や NLP の各タスクにおけるデファクトスタンダードとも呼べる方法論となった. 代表例として,巨大な生コーパス上で訓練された言語モデル(例: BERT[1])を用いた転移学習や,符号化復号化モデル(Encoder Decoder; EncDec)のドメイン適応 [2]などが挙げられる。本研究では,ファインチューニングを害行する状況下で,従来のファインチューニングからさらなる性能向上が可能な方法論を模索する.こういった技術は, CoNLL[3] や WMT[4] などの各種シェアードタスクにおいて,他チームとの性能差を生むための有力な技術となりうる。 性能を引き上げるための有力な既存手法としてアンサンブルが挙げられる. アンサンブルでは, 複数の乱数シードでモデルを独立に訓練し,各モデルの予測を統合することで,予測性能の向上をねらう。訓練済みモデルが同じであったとしても,アンサンブルはある程度の効果を示すが, 性能向上を最大化するためには,モデルの事前訓練過程から別シードでの訓練が必要になることが知られている [5]. 事前訓練には数百から数千 GPU 時間規模の計算が必要であり $[1,6]$, これは手元の限られた計算機資源では実現不可能な場合がある。 本研究では,事前訓練のやり直しを必要としない新しい方法論として, $k$-近傍アダプター平均法を提案する. 提案手法では, 訓練データの中にはテストデータの推論に役立つ事例が存在するはずである, という仮定のもと, 1 事例ごとに独立にエキスパー トネットワークを作る。推論時は, 各入力に対して類似する訓練データを求め,それに対応するエキスパートを用いて予測をおこなう。 EncDec のドメイン適応を題材とした実験を通して,提案手法が同一の事前訓練済みモデルを用いたアンサンブルよりも高い性能を達成できることを示す. ## 2 ドメイン適応 本節では,ドメイン適応のタスク定義を述べた後, ドメイン適応の既存手法 2 つ(全体ファインチューニングとアダプター) を概説する。 ## 2.1 タスク定義 本研究では,機械翻訳のような系列変換タスクにおけるドメイン適応を題材として用いる。いま, (1)汎用巨大コーパス $\mathscr{D}_{\text {pretrain }}$ で事前訓練されたモデルと(2)対象ドメインの訓練データ $\mathscr{D}_{\text {domain }}$ の 2 つが与えられた際に,対象ドメインでの汎化性能を最も高くすることが目的である. 入力系列 $\boldsymbol{X}$ に対する出力系列 $\boldsymbol{Y}$ の条件付き確率を EncDec でモデル化することを考えると,その誤差関数は以下のように表される。 $ \mathscr{L}(\mathscr{D} ; \Theta)=-\frac{1}{|\mathscr{D}|} \sum_{(\boldsymbol{X}, \boldsymbol{Y}) \in \mathscr{D}} \log P(\boldsymbol{Y} \mid \boldsymbol{X} ; \Theta) $ ここで, $\mathscr{D}=\left.\{\left(\boldsymbol{X}_{n}, \boldsymbol{Y}_{n}\right)\right.\}_{n=1}^{|\mathscr{|}|}$ は訓練データを表す.また, $\Theta \in \mathbb{R}^{H}$ は訓練対象のモデルパラメータを列べクトルとして表したものであり,H はモデルの総パラメータ数である. 事前訓練においては,汎用コーパス $\mathscr{D}_{\text {pretrain }}$ 上で以下の最適化問題を解く過程でパラメータ $\Theta^{\prime} \in \mathbb{R}^{H}$ を得る。 $ \Theta^{\prime} \leftarrow \underset{\Theta}{\arg \min } \mathscr{L}\left(\mathscr{D}_{\text {pretrain }} ; \Theta\right) $ 事前訓練済みパラメータ $\Theta^{\prime}$ と対象ドメインの訓練データ $D_{\text {domain }}$ を用いて,対象ドメインでの汎化性能を最も高くすることが目的である. ## 2.2 全体ファインチューニング 全体ファインチューニング (Full Finetuning; FullFT)は,ドメイン適応における最も素朴な手法である.事前訓練済みパラメータ $\Theta^{\prime}$ をデルの初期値として設定し, 対象ドメインの訓練データ アダプター アダプターのみ更新・保存図 1 全体ファインチューニング(FullFT)とアダプター の比較:アダプターを用いる場合,新たに保存するパラメータはアダプターのみである $D_{\text {domain }}$ 上で訓練することで,パラメータ全体を更新する (図 1 左). 具体的には, 以下の最適化問題を解く過程で,対象ドメインにより汎化したパラメー タ $\Theta^{\prime \prime} \in \mathbb{R}^{H}$ を獲得する. $ \Theta^{\prime \prime} \leftarrow \underset{\Theta^{\prime}}{\arg \min } \mathscr{L}\left(\mathscr{D}_{\text {domain }} ; \Theta^{\prime}\right) $ FullFTは,素朴な手法でありながら高い性能が出せることから,ドメイン適応の研究におけるべースラインとして用いられる [2] ほか,各種シェアードタスク(例:WMT[7] や BEA[8])でも常套手段として用いられる基盤技術である $[9,10]$. ## 2.3 アダプター アダプター [11] は,ファインチューニングを目的として事前訓練済みモデルの内部に追加される軽量なネットワークである (図 1 右). 以降の説明のため,アダプターのモデルパラメータの列べクトル表現を $\Phi \in \mathbb{R}^{O}$ とする. ここで $O$ はアダプターの総パラメータ数である. アダプターのポイントは次の 2 点である:(1)ファインチューニングにあたっては,事前訓練済みモデルのパラメータ $\Theta^{\prime}$ は固定し,アダプターのパラ メータ数 $O$ は事前訓練済みモデルのパラメータ数 $H$ よりも非常に小さく $(O \ll H)$, 通常 $O$ は $H$ の数\%程度である [11]. FullFT ではモデル全体を保存しておく必要がある一方で,アダプターを用いる場合は新たに保存するパラメータはアダプターのみとなるため,保存に必要な記憶容量を削減できる。また,アダプターを取り除くことで事前訓練済みモデルの性能を復元可能であり,事前訓練で得た情報の破滅的忘却 [12] は原理的に生じない. アダプターは, 図 1 に示したように, 非線形変換 (例:ReLU)付きのフィードフォワード層から構成されることが多い.また,アダプターの大きさは中間層の次元数 $d$ によって制御される. アダプター の追加箇所,Layer Normalization[13] やスキップ接続 [14] の位置などで様々な亜種が存在するが,本研究では Pfeiffer ら [15] の用いた構成に準ずる1). 訓練時は以下の最適化問題を解くことによってアダプターを訓練し,訓練済みパラメータ $\Phi^{\prime} \in \mathbb{R}^{O}$ を獲得する。 $ \Phi^{\prime} \leftarrow \underset{\Phi}{\arg \min } \mathscr{L}\left(\mathscr{D}_{\text {domain }} ; \Theta^{\prime}, \Phi\right) $ 推論時は $\Phi^{\prime}$ と $\Theta^{\prime}$ を用いて予測をおこなう。 アダプターを用いることで,BERTの転移学習 [11] Đ EncDec のドメイン適応 [2] などで, FullFT と同等の性能が達成できると報告されている。一方で,一部のデータセットにおいては,FullFT と比較して性能が数ポイント下回ってしまう場合もある $[16,2]$. ## 3 提案手法 FullFT の性能を更に引き上げるための新しい方法論として,$k$-近傍アダプター平均法 ( $k$-Nearest Neighbor Adapter Averaging; kAA)を提案する. ## 3.1 アイデアと概要 ドメイン適応において,各ドメインは更に細かいドメイン(サブドメイン)の集まりから構成されている. 未知のデータが与えられた際,このサブドメイン単位に適応したモデルが手に入れば,より精緻な予測が可能になると考えられる. kAA の基本的なアイデアは,ドメインの粒度を事例単位にまで分解し,活用することである。 kAA の概要を図 2 に示す. kAA では, 1 事例ごとに専用のエキスパートネットワーク (エキスパート) を訓練することで,各事例に適応したモデルを独立に作成する。この訓練は,FullFT 後のパラメータ $\Theta^{\prime \prime}$ を用いて行なう. 推論時は,入力データに応じて適切なエキスパート集合を抽出し,統合をおこなう.これにより,サブドメインに適応したモデルを作成し, FullFT からの性能向上をねらう.ここで, エキスパート集合の統合にあたっては,各エキスパートのパラメータを平均(アベレージング)す 1)これは,著者らが実験によって見つけた経験的に最も良い構成であるとされる 図 2 提案手法( $k$-近傍アダプター平均法)の概要 る.これにより,抽出したエキスパートの数によらず,推論時の計算時間は一定に保つことができる。 kAA の実現にあたって問題となりうるのが記憶容量である. 通常,訓練済みモデルのファイルサイズは数百 MB から数 GB である.そのため,単純に各事例に対してモデルを保持しておくのは,記憶容量の観点から現実的ではない. そのため, アダプター (第 2.3 節)を用いて,必要な記憶容量を大幅に削減する。例えば,Transformer ベースの 6 層 EncDec[17] の各層にアダプターを追加する場合でも, $d=16$ とすればファイルサイズは $1.6 \mathrm{MB}$ 程度となる. ## 3.2 アルゴリズム 訓練いま,対象ドメインの訓練データ $D_{\text {domain }}$ に $N$ 個のデータが含まれるとして, $\mathscr{D}_{\text {domain }}=$ $\left.\{\left(\boldsymbol{X}_{n}, \boldsymbol{Y}_{n}\right)\right.\}_{n=1}^{N}$ と表す. 各データ $\left(\boldsymbol{X}_{n}, \boldsymbol{Y}_{n}\right)$ に対して, FullFT 済みのパラメータ $\Theta^{\prime \prime}$ を初期値とした以下の最適化問題を解く過程で, 合計 $N$ 個のアダプター $\Phi_{1}^{\prime}, \ldots, \Phi_{N}^{\prime}$ を得る. $ \Phi_{n}^{\prime} \leftarrow \underset{\Phi^{\prime}}{\arg \min } \mathscr{L}\left(\left.\{\left(\boldsymbol{X}_{n}, \boldsymbol{Y}_{n}\right)\right.\} ; \Theta^{\prime \prime}, \Phi^{\prime}\right) $ 推論学習したアダプターのうち $K(\ll N)$ 個を用いて予測をおこなう.具体的には,まず入力文 $X$ と訓練データ $\mathscr{D}_{\text {domain }}$ の各文 $\boldsymbol{X}_{n}$ との類似度 $s_{n} \in \mathbb{R}$ を以下の通り計算する。 $ s_{n}=\operatorname{sim}\left(f(\boldsymbol{X}), f\left(\boldsymbol{X}_{n}\right)\right) $ ここで, $\operatorname{sim}$ とはそれぞれ任意の類似度関数と,文をべクトル空間に埋め込む関数である.次に,類似度上位 $K$ 文に対応する $K$ 個のアダプター $\Phi_{1}^{\prime}, \ldots, \Phi_{K}^{\prime}$ を大力文 $\boldsymbol{X}$ の推論に用いる. 具体的には,各アダプターのパラメータの平均を求め,各アダプターに含まれる情報を統合する. $ \Phi_{\mathrm{avg}}^{\prime}=\frac{1}{K} \sum_{k=1}^{K} \Phi_{k}^{\prime} $ 最後に, $\Phi_{\text {avg }}^{\prime}$ と $\Theta^{\prime \prime}$ を用いて推論を行なう. ## 4 実験 ## 4.1 実験設定 データセット実験には, Aharoni ら [18] が提供している機械翻訳のドメイン適応用のベンチマークデータセットを用いた2)3).このデータは英独のパラレルコーパスであり, 5 個のドメイン(IT, Koran, Law, Medical, Subtitles)が含まれている. 本研究では,各ドメインについて独 $\rightarrow$ 英の翻訳を行う.今回は,各ドメインのデータセットの量が限られている場合を想定し, 各ドメインから訓練データとして 4000 文サンプルして用いた. 各ドメインの開発・評価データはともに 2000 文である. モデルの評価には, sacreBLEU[20] で計算した BLEU 值を用いる. モデル EncDec の事前訓練済みモデル $\Theta^{\prime}$ として, Ng ら [10] の公開している WMT2019[7] での優勝モデルを用いた4) . 同モデルは, Transformer  表 1 各種手法の BLEU スコアとデコーダの計算回数:太字は同一カラム内での最高値を表す.†は提案手法を示す. (big)[17] をべースに数百万文対規模の対訳データで訓練されたものである。 その他のハイパーパラメー タに関しては付録 A を参照されたい. 比較手法実験では,FullFTをベースラインとして用いて kAAの効果を検証する. kAAとの直接の比較手法として,アンサンブル(Ensemble; Ens)とモデル平均法(Model Averaging; ModelAvg)を用いる. Ens では,単一の事前訓練済みモデルを用いて $M$ 個の異なるシードで学習をおこない,推論時に各モデルの予測を平均する。また, ModelAvg はEns から得られた $M$ 個のモデルのパラメータの平均を用いて推論をおこなう手法である. ModelAvg との比較から,モデルパラメータの平均値を用いること自体による効果を調べる. また, FullFT が十分に強力なベースラインであることを示すために,事前訓練済みモデル単体(w/o finetuning)と,アダプターを用いてファインチューニングを行った場合 (Adapter)の性能も報告する。 ## 4.2 実験結果 表 1 に実験結果を示した. ベースラインの性能確認 FullFTと Adapter は, どちらも w/o finetuning から性能が向上しているが,特に検証・テストセット両方の平均值において, FullFT のほうが Adapter より高い性能を示した. これは,EncDec にアダプターを用いた既存研究 $[2,16]$ と一致する結果である. この結果から, FullFT は適切なベースラインであるといえる. スコアの引き上げ手法の比較 kAA, Ens と ModelAvg は全てベースラインである FullFT から性能が上がっている. 特に,kAA がIT を除く全てのドメインのテストセット上で Ens や ModelAvg よりも高い性能を達成したことから,提案手法の有効性が示唆される. kAA と ModelAvg との比較から, 性能向上はモデルパラメータの平均を用いることによるものではなく, kAA で訓練・抽出したアダプターの効果によるものだと言える。また,Ensの場合はモデル数 $M$ 回のデコーダの計算が必要だが,kAA では 1 回で計算可能であることも大きなメリットである. 表 1 の右に示した各ドメインの平均値 (Average) を比べると,kAA は,検証セット上の性能(36.98) では Ens(36.98)やModelAvg(37.01)と同等であるが,テストセット上の性能ではこれら 2 つを上回る性能(37.43)を示した. これは, FullFTによる学習過程における,検証セット上の性能を用いた早期終了が原因だと考えられる。具体的には,Ens と ModelAvg は $M$ 回のFullFT のそれぞれで合計 $M$ 回の早期終了を実行するため,意図せず検証セットに対して過学習している可能性がある。一方で,kAA では FullFT の早期終了が一度で良いため, 過学習の影響が軽減されていると推察される. 同じ事前訓練済みモデルを用いたアンサンブル Ensの性能が kAA に及ばないのは,Ens が同じ事前訓練済みモデルから複数個のモデルを作っていることも原因の一つだと考えられる. Ensによる性能向上を最大化するためには,モデルの事前訓練過程をやり直す必要がある [5]. アンサンブルでは各モデルの持つ異なった局所解の情報を利用するが [21],同じ訓練済みモデルを初期值として用いることで, それぞれの局所解が近傍に集まるため性能が伸びないと考えられる。 ## 5 おわりに 本研究では,全体ファインチューニングの性能を更に引き上げることを目的とした新しい方法論( $k$ 近傍アダプター平均法)を提案した. 実験では,提案手法はアンサンブルよりも高い性能を達成できることを示した. この結果から,提案手法は単一の事前訓練済みモデルと少量(数千文規模)の訓練デー タを利用できる状況下で有効に動作することが示唆される.今後は入力データに対するアダプター選択の手法を改善し,さらなる性能向上を目指す. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (NAACL 2019), pp. 4171-4186, 2019. [2] Ankur Bapna and Orhan Firat. Simple, Scalable Adaptation for Neural Machine Translation. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 1538-1548, 2019. [3] Raquel Fernández and Tal Linzen, editors. Proceedings of the 24th Conference on Computational Natural Language Learning, 2020. [4] Loïc Barrault, Ondřej Bojar, Fethi Bougares, Rajen Chatterjee, Marta R. Costa-jussà, Christian Federmann, Mark Fishel, Alexander Fraser, Yvette Graham, Paco Guzman, Barry Haddow, Matthias Huck, Antonio Jimeno Yepes, Philipp Koehn, André Martins, Makoto Morishita, Christof Monz, Masaaki Nagata, Toshiaki Nakazawa, and Matteo Negri, editors. Proceedings of the Fifth Conference on Machine Translation, 2020. [5] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [6] Shar Narasimhan. NVIDIA Clocks World's Fastest BERT Training Time and Largest Transformer Based Model, Paving Path For Advanced Conversational AI, Aug 2019. [7] Loïc Barrault, Ondřej Bojar, Marta R. Costa-jussà, Christian Federmann, Mark Fishel, Yvette Graham, Barry Haddow, Matthias Huck, Philipp Koehn, Shervin Malmasi, Christof Monz, Mathias Müller, Santanu Pal, Matt Post, and Marcos Zampieri. Findings of the 2019 Conference on Machine Translation (WMT19). In Proceedings of the Fourth Conference on Machine Translation (WMT 2019), pp. 1-61, 2019. [8] Christopher Bryant, Mariano Felice, Øistein E. Andersen, and Ted Briscoe. The BEA-2019 Shared Task on Grammatical Error Correction. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications (BEA 2019), pp. 52-75, 2019. [9] Shun Kiyono, Takumi Ito, Ryuto Konno, Makoto Morishita, and Jun Suzuki. Tohoku-AIP-NTT at WMT 2020 News Translation Task. In Proceedings of the Fifth Conference on Machine Translation (WMT 2020), pp. 145-155, 2020. [10] Nathan Ng, Kyra Yee, Alexei Baevski, Myle Ott, Michael Auli, and Sergey Edunov. Facebook FAIR's WMT19 News Translation Task Submission. In Proceedings of the Fourth Conference on Machine Translation (WMT 2019), pp.314319, 2019. [11] Neil Houlsby, Andrei Giurgiu, Stanislaw Jastrzebski, Bruna Morrone, Quentin De Laroussilhe, Andrea Gesmundo, Mona Attariyan, and Sylvain Gelly. ParameterEfficient Transfer Learning for NLP. In Kamalika Chaudhuri and Ruslan Salakhutdinov, editors, Proceedings of the 36th International Conference on Machine Learning, Vol. 97 of Proceedings of Machine Learning Research, pp. 2790-2799, 2019. [12] Michael McCloskey and Neal J. Cohen. Catastrophic Interference in Connectionist Networks: The Sequential Learning Problem. Vol. 24 of Psychology of Learning and Motivation, pp. 109 - 165. Academic Press, 1989. [13] Jimmy Lei Ba, Jamie Ryan Kiros, and Geoffrey E Hinton. Layer Normalization. arXiv preprint arXiv:1607.06450, 2016. [14] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep Residual Learning for Image Recognition. In 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2016), pp. 770-778, 2016. [15] Jonas Pfeiffer, Aishwarya Kamath, Andreas Rücklé, Kyunghyun Cho, and Iryna Gurevych. AdapterFusion: Non-destructive Task Composition for Transfer Learning. arXiv preprint arXiv:2005.00247, 2020. [16] Minh Quang Pham, Josep Maria Crego, François Yvon, and Jean Senellart. A Study of Residual Adapters for MultiDomain Neural Machine Translation. In Proceedings of the Fifth Conference on Machine Translation (WMT 2020), pp. 617-628, 2020. [17] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention Is All You Need. In Advances in Neural Information Processing Systems 31 (NIPS 2017), pp. 5998-6008, 2017. [18] Roee Aharoni and Yoav Goldberg. Unsupervised Domain Clusters in Pretrained Language Models. In Proceedings of the 58th Annual Meeting of the Association for Coтputational Linguistics (ACL 2020), pp. 7747-7763, 2020. [19] Philipp Koehn and Rebecca Knowles. Six Challenges for Neural Machine Translation. In Proceedings of the First Workshop on Neural Machine Translation, pp. 2839, 2017. [20] Matt Post. A Call for Clarity in Reporting BLEU Scores. In Proceedings of the Third Conference on Machine Translation (WMT 2018), pp. 186-191, 2018. [21] Lars Kai Hansen and Peter Salamon. Neural Network Ensembles. IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 12, No. 10, pp. 993-1001, Oct 1990. [22] Diederik Kingma and Jimmy Ba. Adam: A Method for Stochastic Optimization. In Proceedings of the 3rd International Conference on Learning Representations (ICLR 2015), 2015. [23] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A Fast, Extensible Toolkit for Sequence Modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, 2019. ## A ハイパーパラメータ 実験(第 4 節)で用いたハイパーパラメータの一覧を表 2 に示す. 表 2 ハイパーパラメータの一覧 & \\
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B2-1.pdf
# Improving Quality of Extractive Summarization with Coverage Analysis Haihan Yu University of Tokyo Graduate School of Information and Computer Science dhyualogos.t.u-tokyo.ac.jp ## 1 Introduction Text summarization is a classic NLP task that has a long history. Starting from probabilistic model-based approaches in the last century, researches have now shifted their attention to summarization models based on pretrained language models. Pre-trained language models, highlighted by BERT [1] introduced in 2018, have significantly improved the state-of-the-art performance of many NLP tasks, including summarization. However, when generating summaries, pre-trained language models have shown insufficiency in detecting repetition or negligence of key information. To cope with such a problem, we propose a refinement on the model by adding a module of semantic coverage detection implemented by probabilistic or neural network models, to help alleviate the problem. ## 2 Background ## 2.1 Text Summarization Text Summarization is the NLP task that requires the model to give a stream of texts based on the source. The output should be a shorter text which keeps the main ideas from the source. By the nature of how the summary is generated, we can further classify the task into two categories, namely extractive summarization and abstractive summarization. Extractive summarization means to select sentences from the original text as the summary, while abstractive summarization requires the system to generate words and sentences on its own. Until recently, due to the limitation of computational power and theory, the majority of summarization models focused on probabilistic-model-based extractive summarization methods. However, with the rapid development of deep learning technology, many researchers have started \author{ Yoshimasa Tsuruoka \\ University of Tokyo \\ Graduate School of \\ Information and Computer Science \\ tsuruoka@logos.t.u-tokyo.ac.jp } to explore the potentials of machine learning based techniques. SuMMaRuNNer [2], is one of the first extractive summarization models that uses Recurrent Neural Network (RNN) and has achieved a state-of-the-art performance at the time. Then, other models, such as NeuSum [3], Sumo [4], have improved the performance of extractive summarization. Recently, with the introduction of Pre-Trained Language Model, such as BERT [1], many researchers have successfully pushed forward the performance to a higher level. ## 2.2 Pre-Trained Language Model Earlier this century, apart from the summarization task, scientists have created many different models and systems to solve various NLP tasks. However, due to the fact that these models are trained for very limited (in most cases, only one) tasks and with a small amount of data, such models show great insufficiency in adjusting to the change of input. In order to counter this problem, researchers have started implementing the idea of creating a general language model that fits for all scenarios, and such idea is now referred to as the Pre-Trained Language Model (PLM). As we can see from Fig. 1, a pre-trained language model is first fed with an enormous amount of unannotated data. The model will be able to "learn" the language in this process, and then, we can "fine-tune" this model by training it with taskspecific data sets. Because the model has been fed with large amounts of data about the language, it will be easier for it to adjust itself and of what to do with specific tasks. Pre-trained language models, with all the corpus learned before fine-tuning, can minimize the confusion of the model when seeing a new sequence of text. It has been usually used to enhance performance in language understanding tasks, and have been proven to have obtained state-of-the-art performance in many NLP tasks. Very recently, there are successful attempts to apply pre-trained models to various language generation problems. Figure 1 Generic Concept for Pre-Trained Language Model [5] Bidirectional Encoder Representations from Transformers, or BERT [1], is arguably the most important pre-trained language model in the past 5 years. Developed by Google in 2018, it is a multi-layer bidirectional transformer encoder. BERT is a model pre-trained on two tasks, namely masked language modeling and next sentence prediction. Masked language modeling is the task in which we try to predict the input tokens that are intentionally masked at random, while next sentence prediction is a binary classification task that requires the system to determine if the second input sentence is actually directly connected to the first input sentence. The two tasks help the model to understand the language on both word-level and sentence-level, therefore allowing the model to be able to handle any downstream single sequence and sequence-pair tasks without significant task-specific modification on the structure. At the same time, some small changes are still possible to fit the specific requirements of downstream tasks, which helps it gain both flexibility and generality. With such outstanding properties, many models based on BERT has been implemented in a short period of time, and have advanced the state-of-the-art performance for many NLP tasks, including summarization. Liu et al. [6] are among the first one to apply BERT in the task of summarization. In their approach, they created a general framework that incorporates the task of extractive and abstractive summarization (we will not go too much into the detail of abstractive summary in this research) together in one model. As shown by their results, compares to other models at the time, it has improved the ROUGE score by a decent amount. ## 2.3 Semantic Similarity Semantic similarity is an idea that is often used in machine translation or paraphrasing tasks as a way to measure how similar two sentences are to each other. Defining similarity of sentences is a task that involves objective justification. So many researchers have proposed different approaches to this problem. We will visit some widelyused approaches in this section. ## 2.3.1 Probabilistic Similarity TF-IDF [7], introduced in 1972, is one of the first numerical statistical approaches that aims at reflecting how important a word is to a document in a collection or corpus. The metric includes two parts, which are term frequency (TF) and inverse document frequency (IDF), respectively. TF measure how important one word is to a single document, based on the assumption that the words that show up more frequently in a document are more important. While on the other hand, IDF measure how much a word shows up in a group of documents, and gives words that shows up more often a lower score. Then, TF score is multiplied to IDF score to obtain the TF-IDF score, which gives higher scores to more important words with "actual meaning" in a document, and neglects common words with no actual meaning, such as "the", "a", etc. Justified by information theory, TF-IDF is one of the most popular term-weighting systems, and some report [8] states that more than $80 \%$ of digital library uses tf-idf in their text-based recommendation system. ## 2.3.2 Semantic Coverage Vector While probabilistic models are easy to implement, and gives good results in many scenarios. They have very obvious shortcomings in comparing the texts that are in different languages or have many synonyms. Therefore, many researchers have proposed other approaches to counter this problem. One effective approach is the semantic coverage vector ("SCV") [9]. SCV is introduced in an attempt to deal with the overtranslation and under-translation issue in Neural Machine Translation (NMT) task. In this approach, a coverage set is maintained to keep track of which source words have been translated (or "covered") by the translation. More specifically, the coverage is defined by an attention model that scores how well the generated sentence $y_{j}$ matches with the original sentence $h_{j}$ called coverage vector. Such a coverage vector will keep track of the attention history, and will be fed into the attention model to help adjust future attention. In this way, it will help determine to what degree a new sentence will bring new information, therefore, help alleviate the problem of over-translation and under-translation. Figure 2 Semantic Coverage Vector Showing both over-translation and under-translation [9] ## 3 Purposed Method As mentioned in previous sections, a PLM-based summarization model gives much improvement to the quality of extractive summarization. However, PLM-based models have shown a tendency of over-focusing the key points, thus creating repetition and negligence of information at the same time. To deal with this problem, we define the degree of coverage to be the degree of how much information from the original text is being touched in the summary, and we here make the assumption that the degree of coverage is an indicator of summary quality. In this research, we try to explore the effect of different metrics for coverage. We will try both probabilistic model and deep learning based model. We use BERTSUM [6] as the basic structure for the model. For training, we followed the process being used in their paper. When generating the summary, we add the coverage score in as an independent factor. For an extractive summary, the coverage score is calculated for each sentence in the extractive summary task, and then a new score is obtained by combining the score given by BERTSUM model and the coverage score. We use this is as the basis of choosing sentence into the summary. TF-IDF calculation does not require extra training, we utilitize the statistical data from the dataset that is Table 1 Extractive Summarization with Information Coverage Analysis being tested to calculate the idf score, as for the semantic coverage vector approach, we train the data with the same data set for summarization. ## 4 Experiments Set-up and Results ## 4.1 Data Set We evaluated our model on the benchmark dataset that is widely used to evaluate a summarziation task, namely the CNN/DailyMail dataset [10]. The dataset has collected the about 300,000 pieces of news from CNN and Daily Mail, each with a three-sentence summary created by the editors. The average document length is around 700 words, while the average summary length is 50 words. These summaries are treated following the standard split into training, validation, and test sets. ## 4.2 Evaluation We used the standard ROUGE [11] metric to measure the quality of summaries. ROUGE, or Recall-Oriented Understudy for Gisting Evaluation, compares the generated text against a human-produced reference text to measure their word-level similarity. ROUGE has a few variants, where ROUGE-N is calculated based on the overlap of Ngrams between the generated text and the reference, while ROUGE-L is calculated based on the longest common sequence. ## 4.3 Results We tested the effect of two coverage metrics on the dataset, and the result is listed in Table 1. As the numbers largely explain themselves, we have observed small improvement on ROUGE score when using TF-IDF as the metric of summary on both extractive and abstractive tasks. But the SVC metric does not bring improvements. ## 5 Discussion and Future Work As shown from the result, the relatively easy method, TF-IDF, actually gives improvement to the summary qual- ity. We believe the reason behind this improvement is that the sum of TF-IDF scores of all possible terms and documents will be able to recover mutual information between documents and terms taking into account all the specificities of their joint distribution [12]. That is, the TF-IDF score of each sentence is actually directly connected to how much information is brought by them. Such justification suggests the correctness of the idea that uses information coverage analysis for extractive summarization. However, for semantic coverage vector, as introduced in the background section, it is a method that has been originally used in the machine translation task, where the texts before and after translation are about the same size. This is not a property that the summarization task has, so due to this key difference, training SCV model with a summarization dataset without making changes to the model itself is not working as expected. We have noticed that when giving more weight to the SCV score, the ROUGE score will decrease even further. Therefore, it seems some change, or a more suitable neural model should be used for coverage analysis. For future work, we will explore more approaches to determine the information coverage of sentences. There are some other candidate models that might work in this scenarios. We will explore if they can bring a better ROUGE score for summarization. Other than that, we will also explore if the dataset has anything to do with the score. Other than commonly used news datasets like XSum [13], the performance of models on non-traditional news datasets is also worth exploring. ## References [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Ramesh Nallapati, Feifei Zhai, and Bowen Zhou. Summarunner: A recurrent neural network based sequence model for extractive summarization of documents. In Proceedings of 31st AAAI Conference on Artificial Intelligence, pp. 3075-3081, 2017. [3] Qingyu Zhou, Nan Yang, Furu Wei, Shaohan Huang, Ming Zhou, and Tiejun Zhao. Neural document summarization by jointly learning to score and select sentences. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 654-663, Melbourne, Australia, July 2018. Association for Computational Linguistics. [4] Yang Liu, Ivan Titov, and Mirella Lapata. Single document summarization as tree induction. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 1745-1755, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [5] Prakhar Ganesh. Pre-trained Language Models: Simplified. Accessed: 2021-01-10. [6] Yang Liu and Mirella Lapata. Text summarization with pretrained encoders. Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 3721-3731, 2019. [7] Sparck Jones Karen. A statistical interpretation of term specificity and its application in retrieval. Journal of Documentation. [8] Stefan Langer Joeran Beel, Bela Gipp and Corinna Breitinger. Research-paper recommender systems : a literature survey. International Journal on Digital Libraries. [9] Zhaopeng Tu, Zhengdong Lu, Yang Liu, Xiaohua Liu, and Hang Li. Modeling coverage for neural machine translation. 2016. [10] Karl Moritz Hermann, Tomas Kocisky, Edward Grefenstette, Lasse Espeholt, Will Kay, Mustafa Suleyman, and Phil Blunsom. Teaching machines to read and comprehend. In NIPS, 2015. [11] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, July 2004. Association for Computational Linguistics. [12] Akiko Aizawa. An information-theoretic perspective of tf-idf measures. Information Processing Management, Vol. 39, No. 1, pp. $45-65,2003$. [13] Shashi Narayan, Shay B. Cohen, and Mirella Lapata. Don't give me the details, just the summary! Topic-aware convolutional neural networks for extreme summarization. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, Brussels, Belgium, 2018 .
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B2-2.pdf
# Researcher2Vec: ニューラル線形モデルによる 自然言語処理研究者の可視化と推薦 持橋 大地 統計数理研究所数理・推論研究系 $/$ 日本学術振興会 学術情報分析センター daichi@ism.ac.jp ## 1 はじめに 科学技術の高度化に伴い, 論文数や研究者の数は増える一方であり, その全貌を直感的に把握することはますます難しくなっている.この傾向は自然言語処理を含む計算機科学分野では特に顕著であり,言語処理学会 2020 年大会の論文数は 338 本, ACL 2020 の採択論文数は 779 本, NeurIPS 2020 では 1,900 本を超えている.これらをタイトルだけであっても, すべて読んで関連研究を見つけたり, 興味の近い教員や研究者を探すことは, 今やほぼ不可能であると言ってよい. この問題は論文の査読に際しても重要であり,近年では国際会議を含む論文の査読割り当ては LDA [1] を内部的に用いた Toronto Paper Matching System (TPMS)[2] による適切な候補者の自動スコア付けなしでは成り立たなくなっている。しかし, TPMS はあくまで個々の論文に査読者をマッチさせるものであり, 各研究者が全体としてどのような専門性を持っているかはわからないため, 最終的な割り当てには個人の発表文献などの情報を人手で確認する必要がある. 特に, 査読者やエリアチェアのリクルート,ワークショップの発表者などで「人を探す」必要がある場合は TPMS は使えず, 人的ネットワー クに頼らざるを得ないという現状がある.このため, たとえ興味や実力がマッチしていても, 地方にいたり, 無名研究室の場合に研究者のネットワークに入れないという重大な問題があった。 また, 大学の学生や企業の担当者が, 興味を持ったテーマに詳しい教員や研究者を見つけたい,という場合も, 多様な専門性を客観的にデータベース化したシステムがないため, 学外も含めた適切な先生が見つけられないという問題点がある. こうした研究者情報の把握のために, researchmap ${ }^{1)}$ の 図 1: Researcher2Vec による日本の自然言語処理研究者の専門性の埋め込み. (t-SNEによる可視化,一部). 全体像は付録の図 6 を参照されたい. 論文の内容に基づいているため, 共著関係がなくとも, 専門性が近け枦ば近い位置に研究者が配置されている. 参考のため, 筆者を緑色で示した. ような公式情報の載ったデータベースに加えて, 日本の研究. $\mathrm{com}^{2}$, , JDream Expert Finder ${ }^{3)}$ といったサー ビスが提供されている.しかし,これらはほとんど,研究者の実際の専門性を示す論文の内容を用いていない.4)代わりに論文に付与されたキーワードなどのメ夕情報や論文の引用情報が用いられているが, これらは本来は補助的な情報であり, 人手で付与されたキーワードには漏れが非常に大きい。たとえば筆者が (自然言語処理の分野では珍しく) 逐次モンテカルロ法やガウス過程に詳しいことや, ベイジアンであることは, 人手による大雑把なキーワードや引用情報から推測するのは不可能である。 そこで本論文では, Word2vec が自己相互情報量 (PMI) 行列の行列分解と等価であることを示した Levy らの考察 [3] を応用し, 各論文のニューラル文書ベクトルを SVDによって効率的に計算し,これから「研究者ベクトル」を求める Researcher2Vec を提案する.これにより, 各研究者の専門性を低次元空間で客観的に把握して可視化することが可能になる. また, 単語をいくつか入力することで, 専門性の近い  研究者を線形モデルにより高速に検索することができるシステムを構築し,一般公開した。 ## 2 研究者の専門性の把握 研究者の専門性を把握するためには, 先に述べた (1)引用情報やキーワードなどのメ夕情報を用いるほかに, (2) LDAを代表とするトピックモデルによるアプローチがこれまでに提案されている. (1) の方法は 1 節で述べた欠点のほかに, 最終的な可視化が多くの場合グラフに基づいており, 距離に客観的な意味がないことや,グラフに枝を張る基準や枝の重みの定義によって結果が変わってしまい,客観性に欠けるという大きな問題点がある. (2) のアプローチは実際に TPMS の内部で基準の一つとして用いられており, また桂井ら [4] は CiNII に登録された約 10 万件, 約 300 万語の論文概要に対してトピック数 $K=500$ の LDA を実行し, 同姓同名の共著者の曖昧性解消夕スクで評価することで,次元圧縮を行わないべクトル空間モデルょり精度が高いことを示している. 筆者も日本学術振興会において, 約 11 万件, 約 3 億語の科研費文書について $K=2000$ の巨大な LDA を計算し ${ }^{5)}$, 特定の大型種目の各申請について, 審査員候補者のリストを参考情報として出力するシステムを構築して実運用を行つている [6]. ただし, LDA には計算量が大きいという以外に, ・トピック分布 $\theta$ の総和が 1 になるという制約があるため, 複数のトピックを同様に強く持つ論文や研究者をうまく扱うことができない $\cdot$ $\theta$ の要素は常に正であるため, 負の相関も含めた細かい制御ができない という問題点がある [7]. 端的にいえば,トピックモデルは文書や論文の「大雑把なジャンル」は表現できるが, その中での細かい差異を表現できないことが欠点となっている. ## 3 ニューラル線形モデルによる 文書・研究者ベクトル そこで本論文では,より柔軟な実数べクトル空間への埋め込みによって, 文書 (論文) およびそれを書いた研究者を表現することを試みる. Doc2Vec[8] のようなニューラルネットと異なり, 提案法はニュー 5)この計算をナイーブに行うと数ヶ月を要するため, $K$ に関わらず $O(1)$ で単語のトピックをサンプリングできる LightLDA[5] を用いて計算を行っている. この計算には数日を要する. 図 2: PPMI 行列の SVD による単語ベクトルの計算. ラル手法と等価でありながら, 線形代数によって高速かつ効率的に学習・推薦を行うことが可能である. Levy ら [3] は, 単語埋め込み word2vec の計算が, 自己相互情報量を要素とする行列の行列分解と等価であることを示した. $n(w, c)$ を単語 $w$ と周辺の文脈語 $c$ が一定の窓内で共起した回数とし, $w$ と $c$ の頻度を $n(w), n(c)$ とすると, 次の Shifted Positive PMI (PPMI) $ \operatorname{PPMI}(w, c)=\max \left(\log \frac{n(w, c) \cdot N}{n(w) n(c)}-\log k, 0\right) $ を要素とする行列 $\mathbf{Y}$ を図 2 のように $\mathbf{Y} \simeq \mathbf{W C}^{T}$ と特異値分解したときの $\mathbf{W}$ の各行は, word2vec で得られる単語べクトルと等価となる.またこのとき, $\mathbf{C}$ の各行は文脈語の単語ベクトルとなる.ここで $N=\sum_{w} \sum_{c} n(w, c)$ とおいた. なお, $k$ は word2vec における負例数に相当するが, [9] によって SVDを使う場合は $k=1$ (シフトを行わない) が最適であることが実験的に示されており, 以下では $k=1$ を用いた。 同様にして, 論文 $d$ に単語 $w$ が現れた頻度を $n(d, w)$ とし, $n(d)$ を $d$ の単語数とするとき, $\operatorname{PPMI}(d, w)$ を要素とする行列を図 3 のように $ \mathbf{Y} \simeq \mathbf{D} \mathbf{W}^{T} $ と特異値分解することで, $\mathbf{D}$ および $\mathbf{W}$ の各行として 「文書ベクトル」 $\vec{d}$ と単語ベクトル」 $\vec{w}$ を同時に得ることができる。これは Doc2Vec と異なり, 理論的に構成されるため学習率やミニバッチ等のハイパー パラメータの調整を必要とせず, 検索に以下で述べるような解析解が存在する. 大量のデータに対しても,必要があれば redsvd [10] のような高速な疎行列分解を用いることで, 非常に効率的かつ一意に埋め込みベクトルを得ることができる. ## 3.1 研究者の専門性の可視化 こうして各論文の文書ベクトル $\vec{d}$ が得られると, それらを書いた研究者の埋め込みベクトルを計算することができる. 著者に研究者 $r$ が含まれている論文の集合を $\Omega_{r}$ とすると, 研究者べクトル $\vec{r}$ は, $\Omega_{r}$ に含まれる論文の文書ベクトルの平均として $ \vec{r}=\frac{1}{\left|\Omega_{r}\right|} \sum_{d \in \Omega_{r}} \vec{d} $ 図 3: 文書-単語行列のSVDによる文書べクトルと単語ベクトルの同時計算.このとき検索クエリは仮想的な文書 $\mathbf{y}^{*}$ とみなせ, 対応する潜在的な文書ベクトル $\mathbf{d}^{*}$ が存在する。 と計算できる.これは, 埋め込み空間において各研究者を高次元がウス分布で表現し,その平均を求めたことに相当している. ${ }^{6)}$ 図 1 に, 言語処理学会年次大会の 20 年分の論文コーパスから計算した $K=100$ 次元の研究者ベクトル $\vec{r}$ t-SNEによって 2 次元に可視化した例の一部を示した. 全体像は, 付録の図 6 を参照されたい. 英語の論文は含まれていないため,これはあくまで言語処理学会の論文の内容から計算された埋め込みとなっている. 処理の詳細については, 4 節で説明する. ## 3.2 言葉による研究者の検索 こうして研究者の埋め込みベクトルが得られると, 関連の深い研究者を言葉によって検索することが可能になる. 提案手法は従来と異なり,キーワードではなく書いた論文の内容を潜在空間で直接モデル化しているため, たとえ専門性の高い言葉でも, それに関連した研究者を検索することができる。 いま,「談話強化学習」のようなクエリを $q$ とおくと,これは図3のように仮想的な「文書」 $\mathbf{y}^{*}$ とみなすことができ, 対応する埋め込みべクトル $\mathbf{d}^{*}$ があると考えられる. 文書べクトルと研究者ベクトルは式 (3) によって同じ埋め込み空間に存在しているから, $\mathbf{d}^{*}$ がわかればそれに近い研究者ベクトルを求めることで, 研究者の検索が可能になる. $\mathbf{y}^{*}$ の要素は PPMI すなわち $\max \left(\log \frac{p(w \mid q)}{p(w)}, 0\right)$ であるから, $\mathbf{y}^{*}$ は $q$ に含まれる単語に 1 が立ち7), 他はすべて 0 の疎べクトルである.このとき図 3 の下段のように, 最小二乗誤差の意味で $\mathbf{y}^{*} \simeq \mathbf{d}^{*} \mathbf{W}^{T}$ が成り立つ $\mathbf{d}^{*}$ を求めたい.この式の両辺を転置して $\mathbf{y}^{*}, \mathbf{d}^{*}$ 6)分散も同様に計算することができるが, 次節で説明する推薦に分散も考慮することは今後の課題としたい. 7)この值は「仮想的な文書 $q$ において, 各単語が平均より何倍多く出現したか」の対数であり, 1 とすることは $\exp (1)=2.72$倍多く出現したと指定することを意味する. 後の実装では, クエリに「音声*」「構文解析**」のように*を付けることで, $\exp (2)$ 倍, $\exp (3)$ 倍, 一が指定できるようにした. (a) 論文内容からの研究者の検索 (b) 類似研究者の表示図 4: 研究者ベクトルに基づく Web 検索インターフェー ス. 研究者情報は名前の文字列で絞り込むことができる. の転置をそれ自身で再定義すると $\mathbf{y}^{*} \simeq \mathbf{W} \mathbf{d}^{*}$ であり, これは通常の線形回帰モデル (OLS) であることがわかる. よって, $\mathbf{d}^{*}$ の最適解は $ \mathbf{d}^{*}=\left(\mathbf{W}^{T} \mathbf{W}\right)^{-1} \mathbf{W}^{T} \mathbf{y}^{*} $ であり [11] ${ }^{8)}$, 事前に回帰行列 $\mathbf{R}=\left(\mathbf{W}^{T} \mathbf{W}\right)^{-1} \mathbf{W}^{T}$ を計算しておけば,クエリ $q$ に対して最適な $\mathbf{d}^{*}$ は $ \mathbf{d}^{*}=\mathbf{R} \mathbf{y}^{*} $ として,一瞬で求めることができる。なお, $\mathbf{R} の$計算は明示的に逆行列を使わず, Python では $\mathrm{R}=$ numpy. linalg.solve(numpy. dot(W.T,W),W.T) とすればよい. 語彙数を $V$ とすると $W$ は $V \times K$ の行列であり,よって $\mathbf{R}$ は $K \times V$ の行列となる. $V$ や $K$ が大きい場合にはメモリ使用量が大きくなるが9), 式 (5) より, $\mathbf{d}^{*}$ は $\mathbf{y}^{*}$ のうちごく少数の非零の要素に対応する $\mathbf{R}$ の列ベクトルの和であるから, $\mathbf{R}$ は事前に計算してディスクに mmap()しておけば, 空間計算量も最小に抑えることができる. クエリに対応する $\mathbf{d}^{*}$ が得られれば, 研究者べクトルとのコサイン距離が近い順に研究者を表示することで検索を行うことができる. ## 4 実装と実験 言語処理学会年次大会の 1995-2013 年の約 20 年分の発表論文デー夕 [12]を使って実装および実験を行った. 今回は直感が働く言語処理分野で実験を行ったが, 提案法は自然言語処理に限らず, あらゆる分野の論文・言語に適用することができる. ## 4.1 データ 論文のタイトルおよび全文を MeCab で形態素解析し,句読点や括弧を除いた単語の原形を使用した。 $ は要素数 7 億 2000 万個, 4GB の行列になる. } 表 1: 著者予測夕スクにおける平均適合率 (MAP) の平均.提案法は Doc $2 \mathrm{Vec}$ の性能を上回り, 圧倒的に高速かつ省メモリである. 計算時間は $K=1000$ の場合を表している. 語彙は頻度 10 以上の 18,135 語, 論文数は 4,082 本である. 全文を用いているため, 総単語数は $13,654,061$ となった. 著者の総数 3,660 人のうち, 5 本以上の論文があった著者 499 人を実験の対象とした. 疎行列の SVD による文書ベクトル・単語ベクトルの計算は高速であり, $K=1,000$ のとき 1 分程度で終了した。 ## 4.2 実装 Python の Flask モジュールを用いて図 4 のように検索サーバを実装し, 公開した. サーバは http:// clml.ism.ac.jp/nlp2vec/でアクセスすることができる.検索結果の著者をクリックすることで, 研究者べクトルの類似する研究者も同時に表示できる. ## 4.3 評価実験 論文の内容から著者を予測する実験で評価を行つた. ランダムな 500 文書をテストデー夕,残りの 3,582 文書を学習データとし, 学習デー夕の中で 5 本以上の論文を持つ研究者がテストデータの著者に含まれる場合 (410/500 文書) の各文書について, 研究者をスコア順に並べた中での真の著者集合の平均適合率 (MAP) を計算した. スコアは文書の Bag of words 表現から 3.2 節の方法で求めた文書べクトルと, 研究者ベクトルの余弦類似度で計算する ${ }^{10)}$. MAP は高いほど良い指標であり, $\mathrm{MAP}=1$ とは, スコア順に並び換えた研究者リストの最上位がすべて真の著者で占められていることを意味する. 比較として, Doc2Vec [8] およびLDAを用いた実験も行った. Doc2Vec 標準的に使われている gensim の Doc2Vec 実装を使用した. 条件を揃えるため分散 BoW のモデルを使用し, 学習時のパラメータは epochs $=100, \mathrm{hs}=1$, alpha= 0.025 ,sample=1e-5 である. 学習したモデルを使用し, テストデータの各文書について Doc $2 \mathrm{Vec}$ の 10)このとき, 文書 $d$ に対する観測値 $\mathbf{y}$ の要素である $\operatorname{PPMI}(d, w)$ は $\max \left(\log \frac{p(d, w)}{p(d) p(w)}, 0\right)=\max \left(\log \frac{p(w \mid d)}{p(w)}, 0\right)$ と書けるから, 訓練デー夕の各単語の確率 $p(w)$ を保存しておけば, $p(w \mid d)$ は文書 $d$ 内での最尤推定で得られるため, $\mathbf{y}$ は容易に計算できる. (a) LDA KLdiv (b) Researcher $2 \mathrm{Vec}$ (提案手法)図 5: テストデー夕の各論文の著者予測の平均適合率(MAP) のプロット. 提案手法は多くの場合に $\mathrm{MAP}=1$ を達成しており,それ以外は英語論文などのノイズとなっている. infer_vector() で繰り返し計算により文書べクトルを求める他は, 提案手法と同様に計算する. ${ }^{11)}$ LDA 公開している Cython 版の LDA 実装 ${ }^{12)}$ を使用し, モデルが充分収束するまで 1,000 回の $\mathrm{MCMC}$ を行った. 学習したモデルを用い, テストデー夕の各文書に対して変分べイズ EM 法でトピック分布の事後期待値 $\theta$ を求め, 式 (3) で計算した著者のトピック分布 $\vec{r}$ と比較してスコアを計算する. ${ }^{13)}$ [4]では単純に $\theta$ と $\vec{r}$ の余弦距離を計算しているが (LDA cosine), 確率分布に対してコサイン距離を適用するのは適切ではない. そこで同時に, $\theta$ と $\vec{r} の$ Kullback-Leibler ダイバージェンス $ \mathrm{KL}(\theta \| \vec{r})=\sum_{k=1}^{K} \theta_{k} \log \frac{\theta_{k}}{r_{k}} \propto-\sum_{k=1}^{K} \theta_{k} \log r_{k} $ をスコアとする実験 (LDA KLdiv) も行って比較した.結果表 1 に, 各モデルの平均適合率の結果とモデルの計算時間を示した. 提案手法は Doc $2 \mathrm{Vec}$ や LDA を超えて最高性能を達成し, モデルの計算もきわめて高速である. また図 5 のように, 平均適合率は多くの論文で 1 に集中し, それ以外は英語論文や, 教員の専門と異なる学生の論文の場合となっていた. 提案手法での $K$ の最大値は SVD の性質から $D(=3582)$ 以下であり $K=3000$ での精度は $71.6 \%$ であった. ## 5 まとめ 本研究では,ニューラル手法と等価な文書べクトルを効率的な SVDによって計算し, 研究者を論文の内容で可視化・検索できるシステムを構築し, 評価した. 実験により, 提案手法はきわめて効率的かつ Doc2 Vec およびトピックモデルより高い著者予測性能を見せることがわかった. 今後は $\operatorname{arXiv}$ や ACL anthology など, 英語論文への抎張を検討したい. $ に含まれる論文の $\theta$ を生成するディリクレ事前分布を著者每に Newton 法によって計算し, 式 (6)の KL 距離の期待値を求めるべイズ的な方法も検討したが, あまり高い性能が得られなかった。 } ## 参考文献 [1] David M. Blei, Andrew Y. Ng, and Michael I. Jordan. Latent Dirichlet Allocation. Journal of Machine Learning Research, Vol. 3, pp. 993-1022, 2003. [2] Laurent Charlin and Richard S. Zemel. The Toronto Paper Matching System: An automated paper-reviewer assignment system. In ICML 2013, 2013. [3] Omer Levy and Yoav Goldberg. Neural Word Embedding as Implicit Matrix Factorization. In Advances in Neural Information Processing Systems 27, pp. 2177-2185, 2014. [4] Marie Katsurai, Ikki Ohmukai, and Hideaki Takeda. Topic Representation of Researchers' Interests in a Large-Scale Academic Database and Its Application to Author Disambiguation. IEICE Trans. Inf. Syst., Vol. E99-D, No. 4, pp. 1010-1018, 2016. [5] Jinhui Yuan et al. LightLDA: Big Topic Models on Modest Computer Clusters. In WWW 2015, pp. 1351-1361, 2015. [6] 日本学術振興会. 学術情報分析センター平成 30 年度活動報告, 2019. https://www.jsps.go.jp/j-csia/data/h30/ JSPS-CSIA_REPORT_2018_4.pdf. [7] 持橋大地, 吉井和佳, 後藤真孝. ガウス過程に基づく連続空間トピックモデル. 情報処理学会研究報告 2013NL-213, Vol. 11, pp. 1-8, 2013. [8] Quoc Le and Tomas Mikolov. Distributed Representations of Sentences and Documents. In ICML 2014, pp. 1188-1196, 2014. [9] Omer Levy, Yoav Goldberg, and Ido Dagan. Improving Distributional Similarity with Lessons Learned from Word Embeddings. Transactions of the Association for Computational Linguistics, Vol. 3, pp. 211-225, 2015. [10] Daisuke Okanohara. redsvd: RandomizED Singular Value Decomposition, 2010. https://code.google.com/archive/p/ redsvd/. [11] 持橋大地, 大羽成征. ガウス過程と機械学習. 機械学習プロフェッショナルシリーズ. 講談社, 2019. [12] 言語処理学会 20 周年記念年次大会コーパス, 2014. https://www.anlp.jp/anniversary/20th_anniversary.html. ## 付録 研究者ベクトルの t-SNE による 2 次元への可視化. 高次元の研究者ベクトルは精度が高すぎて「それ自身 (あるいは強い共著者) としか似ていない」状態になり, 全体的な構造を反映しないため, あえて $K=100$ 次元のべクトルを可視化している. 可視化には Scikit-learn の t-SNE 実装を用いた. ${ }^{14)}$ 紫は明らかなグループについて筆者が付けた注釈であり,他にも様々な構造を見て取ることができる. 図 6: 研究者ベクトルの 2 次元への可視化. 14) t-SNE は実行の度に確率的に結果が変わるため,これが唯一の可視化というわけではない.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B2-3.pdf
# 文表現の摂動正規化: 事前学習済みモデルの Debias 手法 新妻巧朗渡辺太郎 奈良先端科学技術大学院大学 先端科学技術研究科 \{niitsuma.takuro.nm3, taro\}@is.naist.jp ## 1 はじめに 近年の自然言語処理の応用研究において、 Elmo[13] や BERT[3] が, 自然言語理解タスクや質問応答タスクにおいてめざましい成果を残したことを受け、事前学習済み言語モデルが一般的に使われるようになってきている.これらの言語モデルは, 共参照解析 [6] といったタスクにおいても高い成績を残している一方で, 大規模なコーパスを用いて学習されているために, Kurita ら [8] や Nangia ら [11] がコーパスに明示的あるいは暗黙的に含まれている Social Bias をも学習していることを報告している. こうした問題は, 学習済みの単語埋め込みにおいても存在していることが Caliskan ら [2] によって明らかにされている.これらの単語埋め込みや言語モデルは, 自然言語処理の様々なタスクの基礎を成す構成要素として組み込まれるため, 下流のタスクに対しても Social Bias の影響を与えてしまう可能性があることが危惧される. Bolukbasi ら [1] の研究をはじめとして, 近年にはその Biasを取り除く研究が進められてきた. 単語埋め込みの Debias やトレーニングデータの拡張によって, Social Bias を取り除く手法 $[7,17,4]$ が提案されたきた。しかし, 事前学習済み言語モデルから直接 Bias を取り除くことを試みる研究はまだ少ない。 本研究では, BERT をはじめとするマスク言語モデルのトークンの予測スコアがトークンの出現確率の分布として表現され, またトークンの有無が周辺のトークンの分布を摂動させることに着目し, その摂動を最小化することで事前学習済み言語モデルの Social Biasを取り除くことを目指した. 特定の社会集団を表現する語を構成するトークンを除いた全てのトークンの出現確率の分布が近づくように学習することで, 社会集団に関わる語彙の周辺のトークンの出現確率への影響を小さくする. 本稿では, Nangia ら [11] が提案したマスク言語モデルの Bias を計測 する手法によって提案手法の有効性を示し,さらに GLUE[15] の評価セットを用いて自然言語理解の性能が Debiasによって落ちていないことを確認した. ## 2 関連研究 近年の自然言語処理において, 単語埋め込みや言語モデルの Bias の存在を可視化および除去する研究が増えてきている。Caliskan ら [2] は, 認知心理学において人間の潜在的態度を計測する手法である Implicit Association Test (IAT)[5] をもとに, コサイン距離を用いて単語埋め込みが持つ潜在的な Bias を計測する Word Embedding Association Test (WEAT) を考案した. さらに, WEATを用いて事前学習された Glove[12] の性別や人種のような社会集団を表す単語の表現と, 印象を表す単語の表現との間の距離を計測し, その表現に社会集団間で印象の偏りが生じていることを示した.この WEAT は, 単語埋め込みだけを対象にしたものであるが, Sentence Encoder に拡張した研究 [10] やマスク言語モデルに拡張した研究 [8] が存在している. Nangia ら [11] は, Bias を数量化するために stereotype と anti-stereotype な二組の文から構成されるデータセットである CrowS-Pairs を提案し, 擬似対数尤度マスク言語モデルスコア [14]を用いて擬似的に文の尤度を評価し, stereotype と anti-stereotypeな文のスコアを比較することでマスク言語モデルの Bias の計測し, BERT などの言語モデルが Bias を持つことを示した. Bolukbasi ら [1] は, 単語埋め込みが $\overrightarrow{\text { man }}-\overrightarrow{\text { woman }} \approx \overrightarrow{\text { computer programmer }}-\overrightarrow{\text { homemaker }}$ のようなコーパスに潜む暗黙的な Biasを表現しているアナロジーが存在することを示し, それらを除去する手法を提案した. また, Liang ら [9] は, Bolukbasi らの研究を元に主成分分析を用いて Elmo や BERT などの言語モデルの表現から Bias の部分空間を特定し, それを元の表現から取り除くことでDebiasを実現する手法を提案している。 ## 2.1 文表現の摂動正規化損失 ## 2.2 擬似対数尤度マスク言語モデルスコア Nangia ら [11] は, マスク言語モデルの Bias を計測するために擬似対数尤度マスク言語モデルスコア [14]を用いて, 言語モデルに含まれる Bias を計測する手法を提案した. 本指標は, 一部のトークンのみが異なる文のペアが与えられることを前提とし, 二つの文それぞれが Unmodified トークンと Modified トー クンという部分に分けられる. Unmodified トークンは, 文のペアの間で同じトークンである部分を指し, Modified トークンは文のペアの間で異なるトークンの部分を指す. 以降では, それぞれのトークンの集合を $U=\left.\{u_{1}, \ldots, u_{k}\right.\}$ と $M=\left.\{m_{1}, \ldots, m_{l}\right.\}$ とおく. 同実験で提案されたデータセットである CrowS-Pairs から具体的な例を示す. 'Native Americans are lazy and get handouts.' $\succ$ 'Whites are lazy and get handouts.‘のペアが与えられると, 'are lazy and get handouts.‘が両方のペアで $U$ に属し, 'Native Americans‘と'Whites“はそれぞれの文で $M$ に属する. $T$ をコーパスより与えられる文に属するトークンの集合とし, $T=(U \cup M)$ とする. そして, $u_{h}$ を $U$ におる $h$ 番のトークンとすると, 本指標は $M$ とある $u_{h}$ を除く全ての $U$ が与えられた時の $u_{h}$ の条件付き対数尤度の合計として算出され, 次の式のように表される。 $ \operatorname{score}(T)=\sum_{h=1}^{|U|} \log P\left(u_{h} \in U \mid U \backslash\left.\{u_{h}\right.\}, M, \theta\right) $ このスコアは, 擬似的な負の対数尤度の合計であることから, 与えられたぺアのスコアを比較することで,より高いスコアを持つ文の $M$ の方が言語モデル内で尤もらしい文章であると扱われていると判断できる. ## 2.3 累積 Bias 上記のスコアが擬似的に文の尤もらしさを表現していると考えると, 文のペアのスコア差を $M$ に属するトークンの差によって発生している Bias であるとみなせる. そのため, この差を Bias スコアとし, コーパスの全ペアから計算されるスコアの差の合計を累積バイアスと名付けた. $T^{S}, T^{A}$ をそれぞれ stereotype, anti-stereotype な文のトークンとしたとき, そのペアの集合を $C=\left.\{\left(T_{1}^{S}, T_{1}^{A}\right), \ldots,\left(T_{n}^{S}, T_{n}^{A}\right)\right.\}$ とおくと,累積バイアスは次の式で表される。 $\operatorname{Accumulate} \operatorname{Bias}(C)=\sum_{i=1}^{|C|}\left|\operatorname{score}\left(T_{i}^{S}\right)-\operatorname{score}\left(T_{i}^{A}\right)\right|$ 本研究では,この累積 Bias を用いて言語モデルの Bias の数量化をし, 評価をおこなった. ## 2.4 損失関数 言語モデルが学習に使われたコーパスの語彙の共起頻度による Bias を反映していると考えると, 社会集団間で語彙の共起頻度の差を減らすことで Bias を軽減することができるのではないかと考えた。 そこで, マスク言語モデルの事前学習タスクであるマスク予測に使われる Head の出力が, 入力トー クンの予測スコアとなっていることに着目し, 文のペアのスコアのうち Unmodified トークンのスコアが近づくように Fine-tuning をすることで Bias を軽減することを試みた. Unmodified トークンを $U$ とし, $u_{j}$ を $j$ 番目の $U$ のトークンとする. また, マスク予測タスクの Head の予測スコアを確率分布とみなし, その集合を $P$ する.二つの文のトークン $T^{X}$, $T^{Y}$ をモデルに入力した結果は $P^{X}=\left.\{p_{1}, \ldots, p_{\left|T^{X}\right|}\right.\}$, $P^{Y}=\left.\{p_{1}, \ldots, p_{\left|T^{Y}\right|}\right.\}$ となる. $f(P, u)$ を $P$ からトークン $u$ の確率分布を取り出す関数, $K L$ はカルバック・ ライブラー・情報量とすると, 本手法を以下のような損失関数で実現する. $ L\left(P^{X}, P^{Y}\right)=\frac{1}{|U|} \sum_{j=1}^{|U|} K L\left(f\left(P^{Y}, u_{j}\right)|| f\left(P^{X}, u_{j}\right)\right) $ 式 3 のうち, $f\left(P^{X}, u_{j}\right)$ の項の計算結果を正解デー タとみなし, $f\left(P^{Y}, u_{j}\right)$ の項との誤差を損失とする. ## 3 実験 ## 3.1 Bias Fine-tuning Fine-tuning およびBias の計測には, CrowS-Pairs[11] と WinoBias[17] の 2 つのデータセットを用いた. CrowS-Pairs はアメリカ合衆国における stereotype と anti-stereotype な文のペアからなるコーパスで, 性別、国籍、人種、信条、身体的特徴などの複数の社会集団をターゲットした文が収録されている. WinoBias は性別を表す語と職業を表す語の組み合わせを文のテンプレートに当てはめて生成された共参照解析における Bias を計量するためのデータセットである. Nangia ら [11] は, WinoBias を \\ 表 1 学習・評価に利用したデータセット CrowS-Pairs と同じフォーマットに変換することで, Gender Bias の計測に利用した. 本研究もこの方法を採用し Bias の計測に利用する. WinoBias は問われる共参照の性質の違いに従って type-1 と type-2 の文から構成されるが, それぞれの命名も Nangia らを踏襲し WinoBias-Knowledge, WinoBias-Ground とする.また, データセットの詳細や例文などは, 表 1 に示した. Fine-tuning における学習の最適化には Adamを用いて, それぞれのハイパーパラメータは学習率 $\alpha=2 e^{-6}, \beta_{1}=0.9, \beta_{2}=0.999$ とした. また, エポック数は 30 , バッチサイズは 16 とした. CrowS-Pairs のデータ数が少量であるため, ホー ルドアウトデータなどに分割せずに Fine-tuning の学習と評価に用いて Closed な評価をしている. しかし, この Fine-tuning の結果が汎化していることを示すために, WinoBias-ground と WinoBias-knowledge でさらに評価をおこなった. ベースラインとして Fine-tuning 前の BERTを用いる. 表 2 に, モデルごとの累積 Bias の計算結果を示す. Bias Fine-tuning をとおして, BERT から計算される累積 Bias が減少していることが確認でき, 文表現の摄動正規化損失による Fine-tuning によって Bias の軽減が達成できたと考えられる。 表 2 Fine-tuning 前後の累積 Bias スコア ## 3.2 言語理解タスクによる性能確認 GLUE データセットのトレーニングセットと評価セットを用いて, Bias Fine-tuning の影響で言語理解タスクの性能が劣化していないかを確認をした. 評価セットを用いたため, トレーニングセットおよび評価セットが公開されていない「Diagnostics Main」は評価をしていない. Fine-tuning 前後で BERT は同じモデル (base, uncased) を使い, また学習に利用するハイパーパラメータも揄えることで性能を比較した. また, 実装と事前学習済みのモデルには transformers[16] を利用した. GLUE における Fine-tuning の学習の最適化には Adam を用いており,ハイパーパラメータは Devlin ら [3] の実験をもとに学習率 $\alpha=4 e^{-5}, \beta_{1}=0.9$, $\beta_{2}=0.999$ とした. また, エポック数は 3 で, バッチサイズは 32 としている. 表 3 に, モデルごとの GLUE タスクのスコアを示す.このスコアの結果をタスクごとに, Welch の $\mathrm{t}$ 検定を用いて有意水準を 0.01 として検定したところ, RTE を除いて有意差が確認されなかった. そのため, Bias Fine-tuning の前後で GLUE タスクのスコアが大きく変化しておらず, 性能の劣化が見られないことを確認できた。 表 3 GLUE タスクの評価セットにおける結果 ## 4 議論 表 2 の結果をより詳細に分析するため, CrowSPairs における Bias スコアを合計せずにヒストグラムに表したものを図 1 に示す. bin は 5 ずつ刻まれており, 0 に近づくほど Bias が少ないと考えられる. Fine-tuning 前後のヒストグラムを比べると,より Bias が小さい方に頻度が増えていることが確認できる.つまり, stereotype と anti-stereotype な文の 図 1 Bias スコアの分布 図 2 擬似対数尤度スコアの分布 トークンの対数尤度が近づいており, 尤度を基準とした Bias 軽減できてると考えられる. また, 個々の stereotype および anti-stereotype の文それぞれの擬似対数尤度マスク言語モデルスコアをヒストグラムにしたものが図 2 である。このヒストグラムの形が対数正規分布に近かったことから, 負の対数尤度から絶対值を取ることでスコアを正の数に変えて対数変換をしたところ、正規分布のような形となった.そこで,それぞれのモデルごとに前述の変換後の stereotype と anti-stereotype のスコアが同じ分布であるという仮説のもと, 対応のある $\mathrm{t}$ 検定で確認した. その結果が表 4 である. 有意水準を 0.1 として,この結果を読み取ると Fine-tuning をする前の BERT では, stereotype と anti-stereotype のスコアが有意に異なる分布をしていると考えられ,一方で Bias Fine-tuning 後では有意差がないため, それぞれの文のスコアが似た分布に近づいていると考えられる。 ## 5 おわりに 本研究では, stereotype と anti-stereotype な文のペア間のトークンの予測スコアを近づけるように学習する損失関数と, 事前学習に使われるコーパスの頻度によって引き起こされている Bias を計量するのに効果的な指標を提案した. 実験により文表現の摄動正規化損失は言語モデル内の文の尤度の視点でバイアスを軽減させることに成功していることが確認された. しかし,この損失関数によって Fine-tuning された表現が後続のタスクの Bias に対してどのような影響を及ぼしているかの評価や本研究で用いた尤度ベースのスコアとは異なる視点から Bias を計測する指標による評価はまだ完了していない. そのため,引き続き議論を深めて言語モデルの Bias を軽減する手法の検証をしていく必要がある. 表 4 擬似対数尤度スコアの検定結果 ## 参考文献 [1] Tolga Bolukbasi, Kai-Wei Chang, James Zou, Venkatesh Saligrama, and Adam Tauman Kalai. Man is to computer programmer as woman is to homemaker? debiasing word embeddings. In NIPS, June 2016. [2] Aylin Caliskan, Joanna J. Bryson, and Arvind Narayanan. Semantics derived automatically from language corpora contain human-like biases. American Association for the Advancement of Science, 2017. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In NAACL-HLT (1), pages 4171-4186, 2019. [4] Lucas Dixon, John Li, Jeffrey Sorensen, Nithum Thain, and Lucy Vasserman. Measuring and mitigating unintended bias in text classification. 2018. [5] Anthony G. Greenwald, Debbie E. McGhee, and et al. Measuring individual differences in implicit cognition: The implicit association test, 1998. [6] Mandar Joshi, Danqi Chen, Yinhan Liu, Daniel S. Weld, Luke Zettlemoyer, and Omer Levy. SpanBERT: Improving pre-training by representing and predicting spans. Transactions of the Association for Computational Linguistics, 8:64-77, 2020. [7] Masahiro Kaneko and Danushka Bollegala. Genderpreserving debiasing for pre-trained word embeddings. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 1641-1650, Florence, Italy, July 2019. Association for Computational Linguistics. [8] Keita Kurita, Nidhi Vyas, Ayush Pareek, Alan W Black, and Yulia Tsvetkov. Measuring bias in contextualized word representations. In Proceedings of the First Workshop on Gender Bias in Natural Language Processing, pages 166-172, Florence, Italy, August 2019. Association for Computational Linguistics. [9] Paul Pu Liang, Irene Mengze Li, Emily Zheng, Yao Chong Lim, Ruslan Salakhutdinov, and Louis-Philippe Morency. Towards debiasing sentence representations. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 5502-5515, Online, July 2020. Association for Computational Linguistics. [10] Chandler May, Alex Wang, Shikha Bordia, Samuel R. Bowman, and Rachel Rudinger. On measuring social biases in sentence encoders. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 622-628, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [11] Nikita Nangia, Clara Vania, Rasika Bhalerao, and Samuel R. Bowman. CrowS-Pairs: A Challenge Dataset for Measuring Social Biases in Masked Language Models. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, Online, November 2020. Association for Computational Linguistics. [12] Jeffrey Pennington, Richard Socher, and Christopher D. Manning. Glove: Global vectors for word representation. In Empirical Methods in Natural Language Processing (EMNLP), pages 1532-1543, 2014. [13] Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. Deep contextualized word representations. In Proc. of NAACL, 2018. [14] Julian Salazar, Davis Liang, Toan Q. Nguyen, and Katrin Kirchhoff. Masked language model scoring. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 2699-2712, Online, July 2020. Association for Computational Linguistics. [15] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel R. Bowman. GLUE: A multitask benchmark and analysis platform for natural language understanding. In International Conference on Learning Representations, 2019. [16] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pages 38-45, Online, October 2020. Association for Computational Linguistics. [17] Jieyu Zhao, Tianlu Wang, Mark Yatskar, Vicente Ordonez, and Kai-Wei Chang. Gender bias in coreference resolution: Evaluation and debiasing methods. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pages 15-20, New Orleans, Louisiana, June 2018. Association for Computational Linguistics.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B2-4.pdf
# XLNet を用いたセンター試験英語不要文除去問題の解答とその分析 坂本美帆 松崎拓也 東京理科大学 理学部第一部 応用数学科 1417055@ed.tus.ac.jp ## 1. はじめに 「ロボットは東大に入れるか」(以下、東ロボ)は、国立情報学研究所を中心とする研究プロジェクトで、人工知能がセンター試験や東京大学の 2 次試験をどこまで解けるのかを明らかにすることを目的とする。 2020 年に東ロボ英語チームは BERT や XLNet の利用によってセンター試験英語に対する得点を大幅に向上させた $[1]$ 。特に不要文除去問題については 2017 年から 2019 年に出題された問題 15 問にすべて正解したと報告されている。不要文除去問題とは、与えられた 8 文程度の文章から、取り除くことで全体のまとまりが良くなる文を一つ選ぶという問題である。図 1 にセンター試験 2019 年本試験第 3 問 A 問 1 を例として示す。 本論文では、XLNetがどのような手がかりを用いて不要文除去問題を解いているのかを探るために、単語を削除する、あるいは未知語を表す特殊トークンに置き換える等の方法で入力を変更した際のモデルの挙動の変化を調べた。結果として、例えば、人が重要と判断したキーワードを削除しても、正解率が低下しないという結果を得たが、一方で、正解の尤度を最も低下させる単語を選んで特殊トークンに置き換えた場合、問題文のトピックに沿ったごく少数の語の置き換えによって正解の尤度が急激に減少するケースが観察された。 ## 2. 背景 : 不要文除去問題の解法 この節では杉山ら [1]による不要文除去問題の解法の流れを説明する。まず 10~20 文からなる文章を When flying across the United States, you may see giant arrows made of concrete on the ground. Although nowadays these arrows are basically places of curiosity, in the past, pilots absolutely needed them when flying from one side of the country to the other. (1) The arrows were seen as being so successful that some people even suggested floating arrows on the Atlantic Ocean. (2) Pilots used the arrows as guides on the flights between New York and San Francisco. (3) Every 16 kilometers, pilots would pass a 21meter-long arrow that was painted bright yellow. (4) A rotating light in the middle and one light at each end made the arrow visible at night. Since the 1940s, other navigation methods have been introduced and the arrows are generally not used today.Pilots flying through mountainous areas in Montana, however, do still rely on some of them. ## 図 1 不要文除去問題の例 (正解は(1) 用いて、擬似問題を作成する。具体的には、文章から連続する 7 文を抜き出し、抜き出した 7 文以外の範囲からランダムに 1 文を選択し、不要文として 7 文中のランダムな位置に挿入する。そして、これら計 8 文から、挿入した不要文を含むように選択肢とする文を 4 つ選ぶ。 擬似問題の元となる文章には、RACE データセット [2]の本文を用いている。RACE は中高生向けの英語の読解問題を WEB から収集して作成されたデー タセットである。本文の長さが 10 文以上からなる文書を対象として、各文書から少なくとも 1 つ以上の擬似問題を作成し、XLNet $の$ Fine-tune に用いる。 XLNetへの入力には、選択肢を除いた計 7 文全てを用いる。入力形式として、最初に $[\mathrm{CLS}]$ 、選んだ選択肢の位置に $[\mathrm{SEP}]$ 、最後に $[\mathrm{SEP}]$ の特殊トークンを 置く。この形式の入力に対する XLNet の [CLS $]$ トー クンに対する出力ベクトルと、パラメータベクトルの内積をスコアとする。実際に試験問題を解く際も同様の入力形式によりスコアを算出し、4 つの選択肢のうち、スコアが最大となるものを解答とする。 ## 3. Fine-tuning $の$ 方法 杉山らはモデルの Fine-tuning において以下述べる二值分類による訓練を行っているが、本研究では下記の多值分類による訓練も行い結果を比較した。 ## 3. 1 二値分類による訓練 まず、訓練データ中の各問題について、正解の選択肢の文(真の不要文)を抜いたテキスト(正例)と残りの 3 つの選択肢のうちランダムに一つを選んで抜いたテキスト(負例)の計 2 つを作り、これらを合わせたものを fine-tuning の訓練データとする。訓練時は正例・負例いずれかを入力し、スコアのロジスティック損失をロス関数として分類用のパラメー タベクトルおよび XLNet 本体をチューニングする。 ## 3.2 多値分類による訓練 訓練データの 4 つの選択肢の文をそれぞれ抜いた 4 通りのテキストを作る。XLNet に 4 通りのテキス卜を(別々に)入力し、それぞれのスコアを算出する。 4 つのスコアに softmax を適用し、クロスエントロピーをロス関数として分類用のパラメータベクトルおよび XLNet 本体をチューニングする。 ## 4. 実験設定及び正解率 事前訓練済みモデルとして XLNet 及び BERT の base モデルと large モデルを使用した。いずれも大文字と小文字を区別する cased モデルを用いた。 入力文の最大トークン数は 170 とし、これ以上は切り捨てた。この最大トークン数で、訓練データと開発データの 9 割及びテストデータの全てがカバー できている。XLNet 及び BERT の実装は transformers ライブラリ [3]のものを使用した。勾配法アルゴリズ表 1 二値分類による訓練の結果 & & 参考書 \\ BERT,large & 0.79 & 0.69 & 0.52 \\ XLNet,base & 0.79 & 0.59 & 0.52 \\ XLNet,large & 0.84 & 0.78 & 0.53 \\ 表 2 多値分類による訓練の結果 & & \\ BERT,large & 0.82 & 0.78 & 0.64 \\ XLNet,base & 0.85 & 0.69 & 0.66 \\ XLNet,large & 0.89 & 0.80 & 0.68 \\ ムは AdamW [4] を用い、学習率は $10^{-5}$ とした。 1 エポックごとに開発データに対するロスとスコアを計算し、ロスあるいはスコアがそれまでで最良ならばモデルを保存するという手続きを 8 エポック分行い、最後に保存されたモデルをテストに用いた。 擬似問題のうち訓練データとして 638,940 問を使用し、開発データとして 34,662 問を使用した。テストデータとして、センター試験の 2014 年〜2020 年本試験・追試験から集めた 42 問及び参考書 2 冊 [5,6] から集めた 75 問を使用した。センター試験の問題の総単語数は 6043 語、参考書の問題の総単語数は 7274 語である。 表 1 に二值分類による訓練の結果を、表 2 に多值分類による訓練の結果を示す。最も正解率が高かつたのは XLNet の large モデルを用い、多値分類の形で訓練したときのものだった。以降の分析ではこのモデルを使用する。 表 3 キーワードを削除した結果 ## 5. 分析 ## 5. 1 特定の単語を削除した場合の変化 人が問題を解く上で重要な単語が、モデルでも重要な働きをしているか調べたい。そのために、センター試験の問題を解く上で手がかりとなりそうな単語を人手で(主観的に)決め、その単語を問題文から消去したときの正解率の変動を調べた。 以下、正解の選択肢を選ぶために必要と判断した単語を主キーワード、文章を理解する上で重要と判断した単語を副キーワードと呼ぶ。主キーワードは合計 365 個、副キーワードは合計 312 個あった。例を図 2 に示す。図 2 では正解の選択肢を下線で、主キーワードを赤文字、副キーワードは青文字で示す。 表 3 に結果を示す。元の正解率である 0.80 と比べると主キーワードだけを削除したときは正解率が向上している。不要文に主キーワードが含まれる場合、それを削除することで不要文が不自然あるいは非文法的になることが多い。その結果、不要文以外を取り除いたときの入力のスコアが低くなることで、正解しやすくなっている可能性がある。これは主キ ーワードがモデルが問題を解く手がかりになっているかどうかと無関係な変化である。しかし、不要文以外のみに主キーワードが含まれる問題 17 問に対する正答率も、主キーワード削除の前後で(向上することもないが)低下しなかった。そのため、不要 In Japan, there are several ways of transporting goods. Each method has its own advantages and disadvantages. (1) Transportation by air, though it can be expensive, is suitable for carrying goods which require speedy delivery. (2) Buses can carry many passengers, and they are convenient for daily life. (3) Ships, on the other hand, can carry large quantities at low cost, but it takes much time for them to reach their destinations. Trains can stop only at stations, but their arrival times can easily be estimated. (4) Although trucks cannot carry much compared with trains, they are useful for carrying things from door to door. Such merits and demerits of each method of transportation should be taken into consideration, so the best way can be chosen, depending on the needs. 図 2 主キーワードを削除することで正解した例 文を除いた時の文章のまとまりの良さを評価する手がかりとして、モデルは人間が重要と考えるキーワ ードと異なる部分を使っている可能性がある。 ## 5. 2 特定の品詞を削除した場合の変化 問題を解く際にどの品詞が重要になっているかを知るために、問題文から特定の品詞の単語を全て削除したときに正解率がどのように変動するかを調心゙ た。形態素解析には TreeTagger[7] を使用し、品詞セットは Penn Treebank のものを用いた。また、削除する品詞のグループとして、等位接続詞 $(\mathrm{CC})$ ・副詞 (RB) $\cdot$ 名詞 (NN、NNS、NP、NPS 等) $\cdot$ 動詞 (VB、 $\mathrm{VBD} 、 \mathrm{VBG}$ 等) ・形容詞 (JJ、JJR 等)を比較した。 これらの品詞の単語を単に消去した場合をDEL、未知語を表す特殊トークンに置き換えた場合をUNK と呼ぶ。表 4 にセンター試験の問題に対する結果を、表 5 に参考書の問題に対する結果を示す。センター 試験の問題と参考書の問題のどちらも名詞が最も多く、DEL、UNK いずれの方法で削除した場合も正解率が最も低下した。次に数が多い動詞に関しては、 UNK の場合、参考書の問題に対しては正解率が 10 ポイントほど低下したものの、センター試験に対する正解率は逆に向上した。 表 4 特定の品詞を削除した場合(センター試験) 表 5 特定の品詞を削除した場合(参考書) ## 6. 正解の尤度変化に基づく置き換え モデルが手がかりとしている単語をさらに特定するために、未知語を表す特殊トークン $[\mathrm{UNK}]$ に置き換えたとき、正解の尤度が最も低くなる単語を選び、実際にその単語を[UNK] に置き換えるという操作を、尤度が 0.25 を下回るまで繰り返した。各ステップで選ばれる単語は、モデルが主要な手がかりとしている単語だと考えられる。 センター試験の問題の 1 つに対しこれを行った例を図 3 に示す。太字の単語が [UNK] に置き換えられた単語である。この例では、salting、pepper、ham、 Many の順に置換された。このうち最初の 3 語は問題のテーマである八ムないし保存食に直接関係する単語と言える。図 1 に示した問題に対して同じことを行った場合、Pilots (不要文の次の文の最初の単語) 、 floating (不要文中の単語) の 2 語のみを [UNK]に置き換えた時点で正解の尤度が 0.25 を下回った。この例では、モデルの挙動は極めて少数の単語に依存しているといえる。 One of the most important features in the development of civilization was the preservation of food. Preserving pork legs as ham is one such example.Today, many countries in the world produce ham, but when and where did it begin? (1) Many credit the Chinese with being the first people to record salting raw pork, while others have cited the Gauls, ancient people who lived in western parts of Europe.(2) Another common seasoning is pepper, which works just as well in the preservation of food. (3) It seems almost certain that it was a wellestablished practice by the Roman period. (4) A famous politician in ancient Rome wrote extensively about the "salting of hams" as early as 160B.C. Regardless of the origin, preserved foods like ham helped human culture to evolve and are deeply rooted in history. 図3 正解の尤度変化に基づく未知語への置き換え例 (センター試験英語 2020 年本試験第 3 問 A 問 3) ## 7. おわりに 不要文除去問題においてXLNetが何を手がかりとしているのかを知るために、入力を変更した場合のモデルの挙動を調べた。人が重要と判断したキーワ ードを問題文から削除する実験では、正解率の低下がほぼ見られなかった。一方で、正解の尤度が最も低下寸るようにいくつかの単語を選び、未知語を表す特殊トークンに置き換える実験では、問題文のトピックに沿った少数の語の置き換えによって正解の尤度が急激に減少するケースが観察された。その他、品詞ごとに単語を削除する実験の結果から、名詞が手がかりとなっている度合いが大きいという知見を得たが、XLNetが何を手がかりにしているのか、完全に理解したといえるまでにはさらに研究が必要である。今後は、Saliency に基づく方法 [10]など、別のアプローチからも手がかりを探していきたい。 ## 謝辞 XLNet による不要文除去問題の解答手法の詳細を教えて頂いた NTT コミュニケーション科学基礎研究所の成松宏美氏に感謝いたします。 ## 参考文献 [1]杉山弘晃, 成松宏美, 菊井玄一郎, 東中竜一郎,堂坂浩二, 平博順, 南泰浩, 大和淳司. センター試験を対象とした高性能な英語ソルバーの実現. 言語処理学会第 26 回年次発表論文集, 2020. [2] Guokun Lai, Qizhe Xie, Hanxiao Liu, Yiming Yang, and Eduard Hovy. RACE: Large-scale ReAding Comprehension Dataset From Examinations. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 785-794, 2017. [3] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-Art Natural Language Processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, 2020. [4] Ilya Loshchilov and Frank Hutter. Decoupled Weight Decay Regularization. In Proceedings of the 7th International Conference on Learning Representations, 2019. [5] 小林功. マーク式基礎問題集英語[不要文選択・発言の主旨]. 河合出版, 2017 . [6] 佐藤一行. センター試験英語不要文削除問題集.デザインエッグ社, 2016. [7] Helmut Schmid. Probabilistic Part-of-Speech Tagging Using Decision Trees. In Proceedings of International Conference on New Methods in Language Processing, 1994. [8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional trans- formers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the As- sociation for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), 2019. [9] Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Russ R. Salakhutdinov, and Quoc V. Le. XLNet: Generalized Autoregressive Pretraining for Language Understanding. In Advances in Neural Information Processing Systems 32, pp. 5753-5763, 2019. [10] Shuoyang Ding, Hainan Xu, and Philipp Koehn. Saliency-driven word alignment interpretation for neural machine translation. In Proceedings of the Fourth Conference on Machine Translation (Volume 1: Research Papers), pp. 1-12, 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B3-1.pdf
# ニューラル系列変換のための Transformerの注意機構を活用した外部記憶融合 庵 愛,増村 亮,牧島 直輝,田中 智大,高島 瑛彦,折橋 翔太 日本電信電話株式会社, NTTメディアインテリジェンス研究所 mana.ihori.kx@hco.ntt.co.jp ## 1 はじめに 機械翻訳やキャプション生成, 音声認識などの言語生成タスクでは,性能の高い Transformer [1] を用いることが主流となっている [2-9]. Transformer などのニューラル系列変換モデルを学習するためには,大量のパラレルデータが必要となる. そのため, テキストのみのデータを大量に保持していても,その対となるデータがなければ,学習に用いることはできない。また,パラレルデータの作成はコストが大きく,学習に十分な量のパラレルデータを用意することは難しい. テキストのみのデータを活用するために,大量のテキストのみのデータから学習された外部言語モデルを参照すべき外部記憶として利用する方法が提案されている [10-12]. この方法は, 外部言語モデルをニューラル系列変換モデルに統合することで実現され,ニューラル系列変換モデルの性能の改善に役立つことが確認されている。しかし, 従来の外部言語モデルの統合方法は, recurrent neural network (RNN) に基づくニューラル系列変換モデルを対象としており,Transformer を対象としているわけではない。 Transformer と RNN に基づくニューラル系列変換モデルの異なる点として, multi-hop 注意機構 [13] を採用している点がある. multi-hop 注意機構では, デコーダの層数分, ソースターゲット注意を繰り返す.このように,Transformer ではソースターゲット注意を複数回繰り返すことによって,ソースが持つ系列変換に必要な情報をより柔軟に抽出していると考えられる。 以上より,本論文では Transformer の構造を活用した外部言語モデルの統合方法について提案する。 Transformer が multi-hop 注意機構を採用する特徴的な構造であることを考慮し,外部言語モデルに対 しても multi-hop 注意機構を適用する.ここでは, Transformer のデコーダの内部情報をキーとし,言語モデルに対するソースターゲット注意を多段に行うことで,言語モデルから系列変換に必要な情報を取捨選択することを期待している.評価実験には,話し言葉・書き言葉変換と方言変換の 2 種類のテキストスタイル変換タスクを採用する.各タスクにおいて,提案手法を用いた Transformer に対する外部言語モデルの統合が性能を向上させることを示す. ## 2 関連研究 ニューラル系列変換モデルに対する最も単純な外部言語モデルの統合方法として, 系列変換モデルと言語モデルを対数線形補完する方法がある $[10,14,15]$. この方法は, shallow fusion と呼ばれる.しかし, shallow fusion は系列変換モデルと言語モデルを別々に学習しているため, 系列変換モデルの学習中に外部言語モデルの情報を取り入れることができない,そこで,系列変換モデルの学習中に言語モデルの出力を統合する, deep fusion [11] や cold fusion [12] などの方法が提案されている. これらの方法では, 系列変換モデルの学習にパラレルデータの情報だけでなく,テキストのみの情報も用いることが可能となった。図 1 に,テキストスタイル変換をタスクとし,Transformerに cold fusion を適用した場合のモデル構造を示す.しかし,これらの方法は,RNN に基づくニューラル系列変換モデルに適用することを前提として提案されたものであり, Transformer の構造を明示的に活かせていない. ## 3 提案手法 本論文では, Transformer の構造を明示的に活用した外部言語モデルの統合方法を提案する。ここで,提案手法は,cold fusion を拡張した方法となる.し 図 1 cold fusion を用いた Transformer かし, cold fusion が外部言語モデルの持つ知識を一度のみ使うのに対して, 提案手法では, multi-hop 注意機構を用いることで外部言語モデルの持つ知識を繰り返し使用する。そのため, 提案手法は, cold fusion よりも Transformer のデコーダが持つ multi-hop な構造を明示的に活かし, 言語モデルの持つ知識を柔軟に抽出することが期待される. 本論文では,テキストスタイル変換をタスクとして, 入力のトークン系列を $\boldsymbol{X}=\left.\{x_{1}, \cdots, x_{M}\right.\}$, 出力のトークン系列を $\boldsymbol{Y}=\left.\{y_{1}, \cdots, y_{N}\right.\}$ と表す.ここで, $M$ は入力の, $N$ は出力のトークン数を表す. テキストスタイル変換では, 変換前のトークン系列 $\boldsymbol{X}$ が与えられた時, 変換後のトークン系列 $\boldsymbol{Y}$ の事後確率を式 (1)によって導出する. $ P(\boldsymbol{Y} \mid \boldsymbol{X} ; \boldsymbol{\Theta})=\prod_{n=1}^{N} P\left(y_{n} \mid y_{1: n-1}, \boldsymbol{X} ; \boldsymbol{\Theta}\right) $ ここで, $y_{1: n-1}=\left.\{y_{1}, \cdots, y_{n-1}\right.\}$ であり, $\boldsymbol{\Theta}=$ $\left.\{\theta_{\mathrm{enc}}, \theta_{\mathrm{dec}}, \theta_{\mathrm{lm}}\right.\}$ はモデルパラメータを表す. $\theta_{\mathrm{enc}}, \theta_{\mathrm{dec}}$ は Transformer のエンコーダとデコーダ, $\theta_{\operatorname{lm}}$ は外部言語モデルにおけるパラメータを表す。 $P\left(y_{n} \mid y_{1: n-1}, \boldsymbol{X} ; \boldsymbol{\Theta}\right)$ は Transformer のエンコーダ, 提案手法を用いて外部言語モデルを統合したデコーダによって算出される. 図 2 に,テキストスタイル変換をタスクとし,Transformerに提案手法を適用した場合のモデル構造を示す. ## 3.1 エンコーダ エンコーダでは, $K$ 層の Transformer エンコーダブロックを用いて,入力系列 $\boldsymbol{X}$ を隠れ状態ベクトル $\boldsymbol{S}^{(K)}$ に変換する. まず,最初の Transformer エン 図 2 提案手法を用いた Transformer コーダブロックの入力 $\boldsymbol{S}^{(0)}=\left.\{s_{1}^{(0)}, \cdots, s_{M}^{(0)}\right.\}$ は, 式 (2) によって算出される。 $ \begin{gathered} \boldsymbol{s}_{m}^{(0)}=\operatorname{AddPositionalEncoding}\left(\boldsymbol{x}_{m}\right) \\ \boldsymbol{x}_{m}=\operatorname{Embedding}\left(x_{m} ; \theta_{\mathrm{enc}}\right) \end{gathered} $ ここで, AddPositionalEncoding($\cdot$) は, 位置エンコー ディングの関数を, Embedding(.) は,トークンを連続ベクトルに変換する関数を表す。次に, $k$ 層目の隠れ状態べクトルである $S^{(k)}$ は,下層の出力 $\boldsymbol{S}^{(k-1)}$ を入力として式 (4)によって算出される. $ \boldsymbol{S}^{(k)}=\operatorname{TransformerEncBlock}\left(\boldsymbol{S}^{(k-1)} ; \theta_{\mathrm{enc}}\right) $ ここで,TransformerEncBlock($\cdot$) は,Transformer エンコーダブロックを表しており,複数ヘッドの自己注意層と位置単位の順伝播ネットワーク [1] によって構成される。 ## 3.2 提案手法を用いたデコーダ 提案手法を用いたデコーダでは, $J$ 層の Transformer デコーダブロックを用いて算出された隠れ状態ベクトル $\boldsymbol{u}_{n-1}^{(J)}$ から,トークン $y_{n}$ の事後確率を式 (5)を用いて算出する. $ P\left(y_{n} \mid y_{1: n-1}, \boldsymbol{X} ; \boldsymbol{\Theta}\right)=\operatorname{softmax}\left(\boldsymbol{u}_{n-1}^{(J)} ; \theta_{\mathrm{dec}}\right) $ ここで, softmax($\cdot$) は,活性化関数 softmax を用いた線形変換を表す。 Transformer デコーダブロックの入力の隠机状態ベクトルである $\boldsymbol{u}_{n-1}^{(0)}$ は式 (6)によって算出される. $ \begin{gathered} \boldsymbol{u}_{n-1}^{(0)}=\operatorname{AddPositionalEncoding}\left(\boldsymbol{y}_{n-1}\right) \\ \boldsymbol{y}_{n-1}=\operatorname{Embedding}\left(y_{n-1} ; \theta_{\mathrm{dec}}\right) \end{gathered} $ $j$ 番目の隠れ状態べクトルである $\boldsymbol{u}_{n-1}^{(j)}$ は,入力系列の情報を持つ隠扎状態ベクトル $\boldsymbol{c}_{n-1}^{(j)}$ と,外部言語モデルの情報を持つ隠れ状態ベクトル $\boldsymbol{b}_{n-1}^{(j)}$ から算出される. まず, $\boldsymbol{c}_{n-1}^{(j)}$ は, 下層の出力 $\boldsymbol{u}_{1}^{(j-1)}, \cdots, \boldsymbol{u}_{n-1}^{(j-1)}$ と, エンコーダの出力 $\boldsymbol{S}^{(k)}$ を入力として以下のように算出される. $ \begin{gathered} \overline{\boldsymbol{v}}_{n-1}^{(j)}=\operatorname{SourceTarget}\left(\boldsymbol{u}_{1: n-1}^{(j-1)}, \boldsymbol{u}_{n-1}^{(j-1)} ; \theta_{\mathrm{dec}}\right) \\ \boldsymbol{v}_{n-1}^{(j)}=\operatorname{LayerNorm}\left(\boldsymbol{u}_{n-1}^{(j-1)}+\overline{\boldsymbol{v}}_{n-1}^{(j)}\right) \\ \overline{\boldsymbol{c}}_{n-1}^{(j)}=\operatorname{SourceTarget}\left(\boldsymbol{S}^{(K)}, \boldsymbol{v}_{n-1}^{(j)} ; \theta_{\mathrm{dec}}\right) \\ \boldsymbol{c}_{n-1}^{(j)}=\text { LayerNorm }\left(\boldsymbol{u}_{n-1}^{(j)}+\overline{\boldsymbol{c}}_{n-1}^{(j)}\right) \end{gathered} $ ここで, SourceTarget $(\cdot)$ は, 複数ヘッドのソースター ゲット注意層を,LayerNorm($\cdot$)は, layer normalization を表す. 次に, $\boldsymbol{b}_{n-1}^{(j)}$ は,隠れ状態ベクトル $\boldsymbol{v}_{n-1}^{(j)}$ と,外部言語モデルの出力を入力として以下のように算出される. $ \begin{gathered} \boldsymbol{l}_{n-1}^{\mathrm{LM}}=\text { LanguageModel }\left(y_{1: n-1} ; \theta_{\mathrm{dec}}\right) \\ \boldsymbol{h}_{n-1}^{\mathrm{LM}}=\operatorname{linear}\left(\boldsymbol{l}_{n-1}^{\mathrm{LM}} ; \theta_{\mathrm{dec}}\right) \\ \overline{\boldsymbol{b}}_{n-1}^{(j)}=\operatorname{SourceTarget}\left(\boldsymbol{h}_{1: n-1}^{\mathrm{LM}}, \boldsymbol{v}_{n-1}^{(j)} ; \theta_{\mathrm{dec}}\right) \\ \boldsymbol{b}_{n-1}^{(j)}=\operatorname{LayerNorm}\left(\boldsymbol{v}_{n-1}^{(j)}+\overline{\boldsymbol{b}}_{n-1}^{(j)}\right) \end{gathered} $ ここで,LanguageModel($\cdot$) は,外部言語モデルを表す. さらに,隠れ状態べクトル $\boldsymbol{c}_{n-1}^{(j)}$ と $\boldsymbol{b}_{n-1}^{(j)}$ をゲー ティング機構 [16] を用いて式 (16) によって連結させる. $ \begin{gathered} \boldsymbol{q}_{n-1}^{(j)}=\left[\boldsymbol{c}_{n-1}^{(j)}{ }^{\mathrm{T}}, \boldsymbol{g}_{n-1}^{(j)} \odot \boldsymbol{b}_{n-1}^{(j)}{ }^{\mathrm{T}}\right]^{\mathrm{T}} \\ \boldsymbol{g}_{n-1}^{(j)}=\operatorname{sigmoid}\left(\left[\boldsymbol{c}_{n-1}^{(j)}, \boldsymbol{b}_{n-1}^{(j)}{ }^{\mathrm{T}}\right]^{\mathrm{T}} ; \theta_{\mathrm{dec}}\right) \end{gathered} $ ここで, sigomid($\cdot$)は,活性化関数 sigmoid を用いた線形変換を表す. 最終的に, $\boldsymbol{u}_{n-1}^{(j)}$ は $\boldsymbol{q}_{n-1}^{(j)}$ を入力として以下のように算出される. $ \begin{aligned} & \overline{\boldsymbol{u}}_{n-1}^{(j)}=\text { FeedForward }\left(\boldsymbol{q}_{n-1}^{(j)} ; \theta_{\mathrm{dec}}\right) \\ & \boldsymbol{u}_{n-1}^{(j)}=\text { LayerNorm }\left(\boldsymbol{q}_{n-1}^{(j)}+\overline{\boldsymbol{u}}_{n-1}^{(j)}\right) \end{aligned} $ ここで,FeedForward($\cdot$) は,位置単位の順伝播ネットワークを表す. ## 3.3 学習 Transformer のモデルパラメータは, 学習データ $\mathscr{D}=\left.\{\left(\boldsymbol{X}^{1}, \boldsymbol{Y}^{1}\right), \cdots,\left(\boldsymbol{X}^{|D|}, \boldsymbol{Y}^{|D|}\right)\right.\}$ を用い, 以下の損失関数で最適化される. $ \mathscr{L}=-\frac{1}{|\mathscr{D}|} \sum_{d=1}^{|\mathscr{D}|} \log P\left(\boldsymbol{Y}^{d} \mid \boldsymbol{X}^{d} ; \boldsymbol{\Theta}\right) $ ここで, 外部言語モデルのパラメータ $\theta_{\operatorname{lm}}$ は, freezing したものを使用する. ## 4 評価実験 評価実験では,話し言葉・書き言葉変換と方言変換の 2 種類のテキストスタイル変換タスクを用いた. 話し言葉・書き言葉変換は,音声認識結果である話し言葉テキストを,フィラーや言い淀みなどを削除した書き言葉テキストに変換するタスクである [17]. 方言変換は,日本各地の方言で話されているテキストを標準語のテキストへ変換するタスクである. ## 4.1 データ 話し言葉・書き言葉変換: 話し言葉・書き言葉変換では, 日本語話し言葉コーパス (CSJ)[18] と日本語文章のための話し言葉・書き言葉変換コーパス(CJSW) [17]を使用した。ここで,CSJを 46,847 文の学習セット, 13,510 文の開発セット, 3,949 文のテストセットに分割した。また,CJSWを 36,749 文の学習セット,2,627 文の開発セット,6,415 文のテストセットに分割した. すべてのデータは, 音声認識の書き起こしである話し言葉テキストと, クラウドソーシングによって作成された書き言葉テキストのパラレルデータから成る。 方言変換: 東北弁,大阪弁,九州弁で話されたテキストを標準語のテキストに変換したパラレルデータをクラウドソーシングによって作成した。それらのデータを,15,506 文の学習セット,3,924 文の開発セット,2,160 文のテストセットに分割した。 これらのデータは, 3 種類の方言を混合したものであり,テストセットは,東北弁が 700 文,大阪弁が 862 文,九州弁が 598 文で構成した。 テキストのみのデータ: 様々なトピックのウェブページから我々が実装したクローラで収集した 100 万文の書き言葉テキストを用いた. ## 4.2 実験条件 テキストスタイル変換モデルには Transformer を採用し, shallow fusion [10] と cold fusion [12], 提案手法を用いて外部言語モデルの統合を行った。ここで,外部言語モデルの統合を用いない Transformer をべースラインとして用いた。また,外部言語モデルには任意の言語モデルを用いることができるが,本論文では Open AI GPT [19]を採用した. Transformer のエンコーダには 256 ユニットを持つ 4 層の Transformer エンコーダブロックを,デコーダには 256 ユニットを持つ 2 層の Transformer デコー ダブロックを採用した。また,GPTには256ユニットを持つ 4 層の Transformer ブロックを採用した。 このとき,すべての Transformer ブロックにおける複数ヘッドの注意機構はヘッド数を 8 に設定した.出力層のユニットサイズは, 外部言語モデルの学習データに含まれる文字数である 5,640 に設定した。 shallow fusion の $\gamma$ は 0.1 に設定した。学習には adam を用い,学習率の warmup を 100,000 に設定した。また, ミニバッチサイズは 64 に設定し, 各発話は 200 で truncate した. さらに,トークンの分割には文字区切りを採用した。 ## 4.3 実験結果 表 1 に話し言葉・書き言葉変換の結果を, 表 2 に方言変換の結果を示す.ここで,自動評価指標には, 3-gram の BLEU [20] と ROUGE-L [21], METEOR [22] を採用した. 表 1,2 より, 2 つのスタイル変換タスクにおいて提案手法が最も高い性能を示した。また,各手法におけるテキストスタイル変換の例を図 3 に示す. まず,CSJ の変換結果に着目すると,提案手法では"新鮮"という単語を正しく生成できているが,他の手法では生成に失敗していることがわかる.ここで, "新鮮"という単語は, Transformer の学習データには含まれていなかったが,外部言語モデルの学習データには含まれていた. 次に, 東北弁の変換結果に着目する. shallow fusion や cold fusion では, ベースラインの生成文の流暢性を改善することはできているものの, 文頭の誤変換は修正できていなかった。一方, 提案手法では, 他手法の"皆"という誤変換を"何"と正しく修正できていることが確認された. 以上より, 提案手法では, Transformerの持つ多段な構造を明示的に活かすことにより,外部言語モデルの情報をより柔軟に抽出できるようになったと考えられる。また, 表 1 と表 2 の結果を比べると, 方言変換タスクの方が提案手法による効果が大きいことが確認できる.これは, Transformer の学習データ量に依存したものだと考えられる. 実際に,学習データ量は, CSJ が最も多く, 次に CSJW, 方言変換データとなっていた。 以上より,外部言語モデルの統合は, ニューラル系列変換モデルの学習デー 久量が少ない時ほど, より有効に働くことが示唆された。表 1 話し言葉・書き言葉変換タスクにおける結果 a). ベースライン b). Shallow fusion c). Cold fusion d). 提案手法 表 2 方言変換タスクにおける結果 a). ベースライン b). Shallow fusion c). Cold fusion d). 提案手法 ## 5 おわりに 本論文では, Transformer の構造を明示的に活用した外部言語モデルの統合方法について提案した. 従来のニューラル系列変換モデルに対する外部言語モデルの統合方法は, 最終層の直前に言語モデルの情報を統合するのみであった。それに対して,提案手法では外部言語モデルの出力に対して, 多段に注意機構を設けることにより, 系列変換に有効な情報を柔軟に取捨選択できるようにした。評価実験の結果, 既存手法と比べて提案手法では, 2 種類のテキストスタイル変換タスクにおいて従来手法よりも性能が改善され,有効性が示唆された。 図 3 各手法におけるスタイル変換の例 ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proc. Advances in neural information processing systems (NIPS), pp. 5998-6008, 2017. [2] Qiang Wang, Bei Li, Tong Xiao, Jingbo Zhu, Changliang Li, Derek F. Wong, and Lidia S. Chao. Learning deep transformer models for machine translation. In Proc. Association for Computational Linguistics(ACL), pp. 18101822, 2019. [3] Loïc Barrault, Ondřej Bojar, Marta R. Costa-jussà, Christian Federmann, Mark Fishel, Yvette Graham, Barry Haddow, Matthias Huck, Philipp Koehn, Shervin Malmasi, Christof Monz, Mathias Müller, Santanu Pal, Matt Post, and Marcos Zampieri. Findings of the 2019 conference on machine translation (WMT19). In Proc. Conference on Machine Translation (WMT), pp. 1-61, 2019. [4] Jie Li, Xiaorui Wang, Yan Li, et al. The speechtransformer for large-scale Mandarin Chinese speech recognition. In Proc. International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 7095-7099, 2019. [5] Jun Yu, Jing Li, Zhou Yu, and Qingming Huang. Multimodal transformer with multi-view visual representation for image captioning. IEEE Transactions on Circuits and Systems for Video Technology, pp. 1-1, 2019. [6] Guang Li, Linchao Zhu, Ping Liu, and Yi Yang. Entangled transformer for image captioning. In Proc. International Conference on Computer Vision (ICCV), pp. 8928-8937, 2019. [7] Linhao Dong, Shuang Xu, and Bo Xu. Speech-transformer: a no-recurrence sequence-to-sequence model for speech recognition. In Proc. International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 58845888, 2018. [8] Shigeki Karita, Nanxin Chen, Tomoki Hayashi, Takaaki Hori, Hirofumi Inaguma, Ziyan Jiang, Masao Someki, Nelson Enrique Yalta Soplin, Ryuichi Yamamoto, Xiaofei Wang, et al. A comparative study on transformer vs RNN in speech applications. In Proc. Automatic Speech Recognition and Understanding Workshop (ASRU), pp. 449-456, 2019. [9] Julian Salazar, Katrin Kirchhoff, and Zhiheng Huang. Self-attention networks for connectionist temporal classification in speech recognition. In Proc. International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 7115-7119, 2019. [10] Anjuli Kannan, Yonghui Wu, Patrick Nguyen, Tara N Sainath, Zhijeng Chen, and Rohit Prabhavalkar. An analysis of incorporating an external language model into a sequence-to-sequence model. In Proc. International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 5824-5828, 2018. [11] Caglar Gulcehre, Orhan Firat, Kelvin Xu, Kyunghyun Cho, Loic Barrault, Huei-Chi Lin, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. On using monolingual corpora in neural machine translation. arXiv preprint arXiv:1503.03535, 2015. [12] Anuroop Sriram, Heewoo Jun, Sanjeev Satheesh, and Adam Coates. Cold fusion: Training seq2seq models together with language models. In Proc. International Speech Communication Association (INTERSPEECH), pp. 387-391, 2018. [13] Sainbayar Sukhbaatar, Jason Weston, Rob Fergus, et al. End-to-end memory networks. In Proc. Advances in neural information processing systems (NIPS), pp. 2440-2448, 2015. [14] Jan Chorowski and Navdeep Jaitly. Towards better decoding and language model integration in sequence to sequence models. In Proc. International Speech Communication Association (INTERSPEECH), pp. 523-527, 2017. [15] Ilya Sutskever, Oriol Vinyals, and Quoc V Le. Sequence to sequence learning with neural networks. In Proc. Advances in neural information processing systems(NIPS), pp. 31043112, 2014. [16] Zhilin Yang, Bhuwan Dhingra, Ye Yuan, Junjie Hu, William W Cohen, and Ruslan Salakhutdinov. Words or characters? fine-grained gating for reading comprehension. arXiv preprint arXiv:1611.01724, 2016. [17] Mana Ihori, Akihiko Takashima, and Ryo Masumura. Parallel corpus for Japanese spoken-to-written style conversion. In Proc. Language Resources and Evaluation Conference (LREC), pp. 6346-6353, 2020. [18] Kikuo Maekawa, Hanae Koiso, Sadaoki Furui, and Hitoshi Isahara. Spontaneous speech corpus of Japanese. In Proc. International Conference on Language Resources and Evaluation (LREC), pp. 947-952, 2000. [19] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. OpenAI blog, p. 9, 2019. [20] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proc. Annual Meeting on Association for Computational Linguistics (ACL), pp. 311-318, 2002. [21] Chin-Yew Lin and Franz Josef Och. Automatic evaluation of machine translation quality using longest common subsequence and skip-bigram statistics. In Proc. Annual Meeting on Association for Computational Linguistics (ACL), pp. 605-612, 2004. [22] Satanjeev Banerjee and Alon Lavie. METEOR: An automatic metric for MT evaluation with improved correlation with human judgments. In Proc. the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, pp. 65-72, 2005.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B3-2.pdf
# 無関連パラレルコーパスを用いた平易文生成 野本忠司 国文学研究資料館 nomoto@acm.org ## 1 はじめに 本稿では,二つの互いに意味的関連性のないコー パスを用いて,平易文を生成することを考える。文の平易化について大きな問題となるのが大量の教師データの確保である. 人手によるアノテーションを避けるため, これまで字幕, ウィキペディアなどの既存オンラインデータを駆使して学習データを 「鋳造」する動きが主流であったが,近年ターゲットコーパスを用いることなく平易化を目指すアプローチに徐々にも注目が集まるようになってきた.本研究もこの流れに沿うものであるが特に本稿に直接関連するものとしては [1] がある. この研究では平易化学習に用いるパラレルコーパスのうちター ゲットコーパスをソースコーパスから機械的な手続き(類似度判定)により「合成」しても十分な有効性があることを示した. 当時平易化用ターゲットコーパスはとれと明示的に意図して作成されたものなくてはならないという暗黙のコンセンサスがあったため, この結果は研究者に驚きをもって迎えられた. しかし [1]のアプローチが成立するには, 原文とターゲットの間に十分な類似性が確保されていることが条件となる.この条件が崩れると同手法は有効性を失う. さらに関連した問題として計算コストの問題ある. $N$ 文から成るソースコーパスから仮想ターゲットを作るためには $\left(N^{2}-N\right) / 2$ 回の比較計算が必要となる. 多くのコーパスのサイズは数十万〜数百万文に達しておりターゲットコーパス合成の労力は非常に大きいものとなる.このような背景のもと本稿ではこのような類似性に関する条件を導入せず,平易文生成が可能かどうか検討する. ## 2 双対ネットワーク 本稿では二つの同型のエンコーダ・デコーダー ネットワークを重ね合わせた双対モデルを導入する. エンコーダー,デコーダーはいずれも LSTM とする. 本モデルの目標は平易文の属性を抽出して複 (a) ベースモデル $(\beta$ モデル $)$ (b) GAN 型モデル ( $\gamma$ モデル) (c) 類似度参照型モデル ( $\sigma$ モデル) 図 1: 双対ネットワーク 雑な文に転写し後者を平易化することにある.特に本稿では図 1 に示す三つのアプローチを検討する. $x_{k}$ は平易文, $x_{a}$ は複雑文とする. $y_{k}$ はターゲットを表す. ただし $x_{k}=y_{k}$ とする。また $x_{a}, y_{k}$ の類似度(後述)はゼロ近くに保つ. 双対ネットワークの上位部分はオートエンコーダー(図 1a の 'UPPER')下位部分 (図中 'LOWER'で示した箇所) は翻訳モデルとして機能する。位,下位ネットワークはパラメーターをすべて共有する.モデルはすべて Fairseq ライブラリーを用いて構築した. ${ }^{1)}$ さらに平易文から複雑文への属性の転写を促すために二つの手法を導入する。ひとつは GANを用いた方法もうひとつは類似度ロスを用いた方法である. 特に GANについては Jensen-Shannon 法と Wasserstein 法について検討する。まず GANについて説明する. GANは一般に弁別器を用いて目標か 1) https://github.com/pytorch/fairseq.git 表 1: JS-GAN と W-GAN. $\quad E_{1}(x)$ はエンコーダー $E_{1}$ の出力. $E_{2}(x)$ も同様. $G_{p}$ は Gradient Penalty[2]. $\lambda$ はハイパーパラメーター. $ \begin{array}{ccc} & \text { 弁別ロス } & \text { 生成ロス } \\ \text { JS-GAN } & \mathbb{E}\left[\log D\left(E_{1}(x)\right)\right]+\mathbb{E}\left[\log \left(1-D\left(E_{2}(x)\right)\right]\right. & \mathbb{E}\left[\log D\left(E_{2}(x)\right)\right] \\ \text { W-GAN } & \mathbb{E}\left[f\left(E_{1}(x)\right)\right]-\mathbb{E}\left[f\left(E_{2}(x)\right)\right]+\lambda G_{p} & \mathbb{E}\left[f\left(E_{2}(x)\right)\right] \end{array} $ らのズレの情報を獲得し生成器に流すことで出力を目標に近づける. Jensen-Shannon 法 (JS-GAN) と Wasserstein 法 (W-GAN) の大きな違いは目標とのズレを測る方法の違いに由来する. JS-GANではシグモイド関数を用い W-GAN は Earth Mover’s Distance と呼ばれる距離を用いる. GANでは通常二種類のロス関数を用いる。ひとつは弁別ロスであり,もうひとつは生成ロスである。 それぞれ弁別器, 生成器の訓練に用いられる。表 1 に JS-GAN と W-GAN の弁別ロス,生成ロスをまとめる。本稿では $f, D$ は以下で定義されるものとする。 $ \begin{aligned} D(H(x)) & =\operatorname{sigmoid}(f(H(x))), \\ f(H(x)) & \left.=w^{\top} \operatorname{relu}\left(f_{c}(H(x))\right)\right) \end{aligned} $ $f$ は全結合層, $f_{c}$ は畳み込み層を表す. $H(x)$ は $x$ を入力とする任意のネットワーク. 本稿では特に GANをエンコーダーの出力に適用する。これは複雑文の出力表現を平易文のそれに近づけることで,後者の属性が前者に転写されるのを狙っているためである. JS-GAN は W-GAN に比べて逆伝播される情報の粒度が荒くなる. 本件ではこの違いが平易化に影響するのか否か注目する。 類似度参照型モデルは図 1 のベースモデルに原文とターゲットの意味を近づけるよう下位ネットワー クに類似度ロスを備える。これは以下のように与える. $E_{2}(x), D_{2}(x)$ は $E_{2}, D_{2}$ の出力 (図 1 参照). $ \mathcal{S}=1-\cos \left(E_{2}\left(x_{a}\right), D_{2}\left(E_{2}\left(x_{a}\right)\right)\right) . $ 最後に, 図 1 のすべてのモデルについて以下のロスを付加する。 $ \begin{aligned} \mathscr{L}_{r e c}= & \mathbb{E}_{x \sim P_{k}}\left[-\log P_{D_{1}}\left(y \mid E_{1}(x)\right)\right] \\ & +\mathbb{E}_{x \sim P_{a}}\left[-\log P_{D_{2}}\left(y \mid E_{2}(x)\right)\right] . \end{aligned} $ なお,表 2 に各モデルで用いるロス関数をまとめた。 ## 3 入出力交替型オートエンコーダー 一般に平易文とその原文は意味的,構文的にかなり類似している。本稿ではこの性質をさらに強くモデルに反映させるため,下位ネットワーク (LOWER)表 2: 双対ネットワークにおけるロス関数 $ \begin{array}{l|l} \beta \text { モデル } & \mathscr{L}_{r e c} \\ \gamma \text { モデル (JS-GAN) } & \mathscr{L}_{r e c}+\mathbb{E}\left[\log D\left(E_{2}(x)\right)\right] \\ \gamma \text { モデル (W-GAN) } & \mathscr{L}_{r e c}+\mathbb{E}\left[f\left(E_{2}(x)\right)\right] \\ \sigma \text { モデル } & \mathscr{L}_{r e c}+\mathbb{E}\left[1-\cos \left(E_{2}(x), D_{2}\left(E_{2}(x)\right)\right]\right. \end{array} $ において,ターゲットを入力とランダムに入れ替えることを考える。具体的には下位ネットワークの $y_{k}$ と $x_{a}$ をある確率で交換する.ターゲットが $x_{a}$ に置き換わったモデルは通常のオートエンコーダーと同じ振る舞いをする.このようなモデルを「入出力交替型オートエンコーダー」ないしは FFA (Flip-Flop Auto-Encoder) と呼ぶことにする. ## 4 実験 実験では [3]が公開している原文・ターゲット無対応のコーパス (TSDATA)をべースにする(Wikipedia 由来). ${ }^{2)}$ TSDATA は Flesch-Kincaid や Flesch Reading Ease 等一般的な平易化指標において原文がター ゲットに対して難度が高くなるよう設計されている. 今回このデータの前半 100 万対を取り出し学習用データとする。これを OOA-TRAIN と呼ぶ. テストデータとしては平易化研究でスタンダードでなりつつある,[4] がクラウドソースして構成したテストデータを用いる(以降 TURK-TEST)。ベー スは Simple Wikipedia で 359 の原文・ターゲット対でそれぞれ人手による別解が 8 つ付随する。また参考のため [4] と [1] が用いた有対応学習データ (WikiLarge, SSCORPUS) のプロファイルを表 4 に載せる. SSCORPUS ${ }^{3)}$ と WikiLarge ${ }^{4}$ ) は前者が類似度指標(MAS)を用いて Wikipedia から学習データを自動構築しているのに対して後者は Wikipedia と Simple Wikipediaを対応づけ人手でデータ構築を行っている点で大きく異なる. 表 4 から以下のような指摘が可能である.まず TSDATA, OOA-TRAIN は類似性がゼロに近く FGL, FRE も大差なくほぼ同じと見なせる。一方 2) https://github.com/subramanyamdvss/UnsupNTS.git 3) https://github.com/tmu-nlp/sscorpus.git 4) https://github.com/XingxingZhang/dress.git 表 3: 本稿で用いる無対応の学習データの例 & \\ & \\ 表 4: 実験で用いるデータセット. TOK: 一文あたり平均語数. FRE: Flesch Reading Ease. FGL: Flesch-Kincaid Grade Level. SIM: 原文・ターゲットのコサイン類似度. SIZE: 原文・ターゲット対の総数. ALG は対応の有無を示す. SSCORPUS は WikiLarge に極めて近い. 原文・ター ゲットのコサイン値は WikiLarge のそれを超える. また FGL/FRE もほぼ同じと言ってよい。このことから SSCORPUS と WikiLarge は作り方の違いはあるもののトークン数, FGL/FRE, 原文とターゲットの意味的近さ (SIM) において同一と見なせる. TURK-TEST は WikiLarge をべースにしているためプロファイルは後者のものを引き継いでいる。なおコサイン值 (SIM) はストップワードを排しSciPyを用いて計算した. ${ }^{5)}$ また本稿では開発データとして WikiLarge パッケージに同包されている Dev データを利用した (992ペア)。つまり本稿の $\beta, \gamma, \sigma$ 各モデルは学習データとして OOA-TRAIN, 開発データとして WikiLarge,テストデータとして TURK-TEST を用いていることになる. 結果を表 6 に示す. FFA による入出力交替確率は 0.2 とした. ここで DIFF とは入力と出力の単語数の差の平均を示す. 例えば $\mathrm{DIFF}=2$ は出力が入力に比べて文の長さが 2 単語分短いことを意味する. SARI は [5] が発案した出力の多様性(大力といかに違うか)を示す指標. 上向き矢印个は当該指標の値が高いと良く,下向きはは小さいと良いことを示す. $\gamma$  モデル (J) はJS-GANを, $\gamma$ モデル (W) は W-GAN を導入した $\gamma$ 型モデルを表す。比較のため現在 SOTA として知られているモデル (UNTS) [3] の(現実験環境下で再現した)結果を併記した. UNTS は RNN 型の多言語同時翻訳モデルをベースにしている. 本稿アプローチ,特に $\gamma$ モデル $(\mathrm{J})$ が主要指標である BLEU,SARIにおいてUNTS を凌いでいることが確認できる. さらに本稿とは異なったアプローチで教師なし平易文生成を実現している 2 つモデルとの比較を行った(表 7 )、いずれもテストはTURK-TESTを用いた.ひとつは MAS と呼ばれる類似度指標を用いて原文・ターゲットのアライメントを行いフレーズ統計翻訳システム $(\text { MOSES })^{6}$ ) で学習させるアプロー チ [1](表では PBSMT),もうひとつは LIGHTLS と呼ばれる GloVe で学習済みの単語埋め込みから近い単語を見つけ原文の単語と置き換え平易化する一種の辞書引き法である [6](表中では LLS).7)いずれも $\gamma$ モデル (J) を SARIにおいて凌いでいるものの BLEU,DIFFにおいて劣っている。 これが具体的どのような出力の違いとして現れる  表 5: 生成例 \\ ## 表 6: 実験結果 表 7: コーパスに厳密な意味的対応を必要としない既存モデル のか,いくつかの生成例を用いて説明する(表 5). なお今回紙面の都合上 LLS は割愛する. 表 5 が示すように PBSMT の出力は基本的に単語レベルの置き換えが中心になっている((2)(3)の 'movies', 'raids'など)。一方 $\gamma$ モデル $(\mathrm{J})$ では構文上の大きな切り詰めが起きている. このように評価上の数字で は見えないが,両者の出力スタイルに大きな違いが存在する. 理由としては $\gamma$ モデル $(\mathrm{J})$ は学習データにおいて原文・ターゲットに意味的対応関係が存在せず,単語置き換えのパターンの発見には至らなかったのではないかと想像される。 ## 5 おわりに 以上,本件では二つの意味的関連性がないコーパスを用いた平易文生成について検討した。結果,本件が提案する JS GANを導入した双対ネットワークが既知手法と比し優れていることを確認した. 教師を用いない平易化はモデルを工夫するか,データを工夫するかのいずれかになるが,本件では前者のアプローチを提案した. データを工夫するやり方は [1] が代表的であるが実現には大規模な文同士の比較を要しコストが大きい.本稿ではこのような手続きを経ず平易化ができるのかという問題を設定し,一応の見通しを得た。本件では紙面の都合上 FFA の重要性について触れなかったが単に GAN を使えば済むというものではないことを実験的に確認していることを付記しておく。 ## 参考文献 [1]Tomoyuki Kajiwara. Text Simplification without Simplified Corpora. PhD thesis, Tokyo Metropolitan University, March 2018. [2]Ishaan Gulrajani, Faruk Ahmed, Martín Arjovsky, Vincent Dumoulin, and Aaron C. Courville. Improved training of wasserstein gans. CoRR, Vol. abs/1704.00028, , 2017. [3]Sai Surya, Abhijit Mishra, Anirban Laha, Parag Jain, and Karthik Sankaranarayanan. Unsupervised neural text simplification. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2058-2068, Florence, Italy, July 2019. Association for Computational Linguistics. [4]Xingxing Zhang and Mirella Lapata. Sentence simplification with deep reinforcement learning. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 584-594, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [5]Wei Xu, Courtney Napoles, Ellie Pavlick, Quanze Chen, and Chris Callison-Burch. Optimizing statistical machine translation for text simplification. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 401-415, 2016. [6]Goran Glavaš and Sanja Štajner. Simplifying lexical simplification: Do we need simplified corpora? In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 63-68, Beijing, China, July 2015. Association for Computational Linguistics.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B3-3.pdf
# 企業情報を考慮したキャッチコピーの自動生成 昇夏海 $\dagger$, 平岡達也 $\dagger$, 丹羽彩奈 $\dagger$, 西口佳佑 $๋$, 岡崎直観 $\dagger$ †東京工業大学†株式会社サイバーエージェント \{natsumi.nobori, tatsuya.hiraoka, ayana.niwa\}at nlp.c.titech.ac.jp okazaki at c.titech.ac.jp nishiguchi_keisuke at cyberagent.co.jp ## 1 はじめに キャッチコピーは企業や商品のイメージを消費者に端的に伝えることを目的とした文章であり,インターネット上で大量の広告が発信されるようになった現在では,その自動生成に注目が集まっている $[1,2,3,4]$. キャッチコピーの自動生成に関する研究の一例として,山根らはキャッチコピーの特徴の分析を行い [5],SNS 上のデータを活用して消費者の嗜好を反映させたキャッチコピーの生成に取り組んだ [6]. また, Alnajjar ら [7] は韻や比喻を含むキャッチコピーの自動生成に取り組んだ。このように,これまでの研究は単語や文構造を制御し,修辞技法などの特定の特徵を持つようなキャッチコピー の生成を目指すことが多かった。 これに対し,本研究では特定の企業を想起させる特徴的な単語(企業関連語)を含むキャッチコピー の自動生成に取り組む。例えば,住友林業の「木と生きる幸福」の「木」のように広告対象を直接的に示すものや,ニチレイの「おいしい瞬間を届けたい」の「おいしい」のようなものが企業関連語として挙げられる。このような企業関連語を含めることで,キャッチコピーと広告対象の結びつきが強くなり,広告の効果を引き出すことができる [8]. 実際に,丹羽ら [9] は,収集したキャッチコピーのうち $57 \%$ に広告対象を想起させるような単語が含まれていることを報告している.そのため,企業関連語を組み込んだキャッチコピーの自動生成を行うことは,低コストで効果的な広告の作成に役立つ。 従来のキャッチコピー生成では,既存のキャッチコピーの単語を置換することで,新たなキャッチコピーを生成していた。このとき,置換を行う単語のリストは事前に作成し,モデルに与える必要があった. 例えば,ユーザからの入力情報や,Wikipedia や SNS,商品情報を含む Web ページなどの外部文書をもとに単語リストを自動で抽出し,これを広告対象名やその関連語としてモデルに与えていた $[3,2,6,10]$. しかしながら,このように事前に作成した企業関連語で置換を行うキャッチコピー生成では,生成範囲が単語リストで限定されてしまうため,多様性に欠けるという問題がある。さらに,事前に作成した単語リストに含まれる単語が置換対象となる文脈にそぐわず,非文法的なキャッチコピー を生成してしまう恐れもある。 本研究では,事前学習済み言語モデルを用い,既存広告の一部を異なる企業の関連語で置き換えることにより,既存広告を指定した企業の広告に転移させることを試みる。具体的には,BERT [11]によるマスク言語モデルを用いて,キャッチコピー内の指定した単語を企業関連語に置き換える。ところが,ある企業のキャッチコピーを別の企業に書き換えた並列コーパスは存在しないため,このタスクで BERT を再学習するための訓練データは存在しない。そこで,BERT のマスク言語モデルが指定した企業の関連語を出力できるように制御するために, Plug and Play Language Model (PPLM) [12] の枠組みを応用した新たなキャッチコピー生成の手法を提案する. 実際のキャッチコピーを用いた実験を通して,提案手法が指定された企業を考慮し,適切なキャッチコピーが生成できることを確認した。 ## 2 提案手法 ## 2.1 単語予測のためのマスク言語モデル 本研究の目的は, 既存のキャッチコピーの 1 単語を書き換えることにより,別の企業のキャッチコピーへ転移させることである.例えば,図 1 に示すように,佐川急便のキャッチコピーである「想 (1) 文書分類器とマスク言語モデルの学習 (2) 全単語探索による単語の予測 (3) 推論時のパラメータ更新による単語の予測 図 1: 手法概要:企業ラベルを用いたキャッチコピーの生成 いは一番重い。」について,「重い」という単語を置き換えることで,「想いは一番甘い。」のような新たなキャッチコピーを作成する.具体的には単語の系列 $s=w_{1}, \ldots, w_{N}$ について, 系列に含まれる単語 $w_{n}(1 \leq n \leq N)$ を単語 $w^{\prime}$ に置き換えることによって,新たなキャッチコピー $s^{\prime}$ の生成を行う. 単語 $w^{\prime}$ の予測には,事前学習済みのマスク言語モデルである BERT [11]を利用する.マスク言語モデルの学習では, 入力文 $\mathrm{s}$ に含まれる単語をランダムに一つ選択し,特殊なマスクトークン [MASK] に置き換えた新たな入力文 $s_{\backslash w_{m}}$ を作成する.ここで $\backslash w_{m}$ は $m$ 番目の単語を [MASK] でマスクしたことを表す. マスク済みの文 $s_{\backslash w_{m}}$ の [MASK] に対応する BERT の出力 $\boldsymbol{h}_{\hat{m}}$ を用いて, マスク前の単語の確率を以下のように計算する。 $ p\left(w_{m} \mid s_{\backslash w_{m}}\right)=\operatorname{softmax}\left(\operatorname{MLP}^{(\mathrm{MASK})}\left(\boldsymbol{h}_{\hat{m}}\right)\right)_{w_{m}} \text {. } $ ここで $\mathrm{MLP}^{(\mathrm{MASK})}(\cdot)$ は多層の全結合層であり, $\boldsymbol{h}_{\hat{m}}$ を語彙の規模と同じ次元数のベクトルへと変換する. また, $(\cdot)_{w_{m}}$ は単語 $w_{m}$ に対応する要素を抜き出す操作である.すなわち [MASK] に対応する入力から,語彙に含まれる各単語に対応する確率をソフトマックス関数で計算し,置き換え前の単語に対応する確率を出力する。このマスク言語モデルの学習は図1の(1)の MLP $^{\text {(MASK) }}$ の学習に対応する. ## 2.2 PPLM による予測の制御 本研究ではさらに,企業ラベルを用いたキャッチコピー生成の制御を行う.上述の例のように「想いは一番重い。」というキャッチコピーを,ある特定の企業(例えば「明治製菓」)のイメージを盛り込んだ内容に書き換えるとする。この時,「明治製菓」 という企業ラベルをモデルに導入することで,「想いは一番甘い。のように指定された企業を考慮し た書き換えを実現したい。 企業ラベルを用いたキャッチコピー生成の制御のために,PPLM [12] の枠組みを応用する.PPLM では,事前にテキスト $s$ からラベル $l$ を予測する文書分類器を学習し, これを用いてラベル $l$ を考慮した新たな単語 $w^{\prime}$ の予測を行う. 具体的には, 学習済みの文書分類器がラベル $l$ を予測する確率 $p\left(l \mid s^{\prime}\right)$ を用い,文書分類器がラベル $l$ を予測するような新たなテキスト $s^{\prime}$ を求める. 文書分類の確率 $p(l \mid s)$ は以下のように計算する. $ \begin{aligned} \boldsymbol{h}^{(\mathrm{CLS})} & =f(\operatorname{BERT}(s)) \\ p(l \mid s) & =\operatorname{softmax}\left(\operatorname{MLP}^{(\mathrm{CLS})}\left(\boldsymbol{h}^{(\mathrm{CLS})}\right)\right)_{l} \end{aligned} $ ここで, $\operatorname{BERT}(\cdot)$ は単語の系列 $s=w_{1}, \ldots, w_{N}$ を入力とし, 各時刻の単語 $w_{n}$ に対応する文脈を考慮した分散表現 $\boldsymbol{h}_{1}, \ldots, \boldsymbol{h}_{N}$ を出力する事前学習済みの BERTを用いたエンコーダーである. ただし,入力となる単語の系列の先頭 $w_{1}$ と末尾 $w_{N}$ は, それぞれ文書分類に使用するための特殊トークン [CLS] と,文末を意味する特殊トークン [SEP] である。また $f(\cdot)$ は BERT の出力から文書分類に使用するべ では特殊トークンの入力に対応する $\boldsymbol{h}_{0}$ を抜き出す操作を採用する. $\mathrm{MLP}^{(\mathrm{CLS})}(\cdot)$ は式 (1) で用いた $\mathrm{MLP}^{(\mathrm{MASK})}(\cdot)$ とは異なる多層の全結合層であり,抜き出した $h_{0}$ を文書ラベルの規模と同じ次元数のべクトルへと変換する. この文章分類器の学習は図 1 の (1)の MLP $^{\text {(CLS) }}$ の学習に対応する. ## 2.3 置換後単語の予測戦略 キャッチコピー $s$ について, 単語 $w_{n}$ を $w^{\prime}$ に置換して得られた $s^{\prime}$ が学習済みの文書分類器によって企業ラベル $l$ に分類される確率を $p\left(l \mid s^{\prime}: w_{n}=w^{\prime}\right)$ 表 1: 広告データのマスク処理の例 企業ラベル:牛乳石战共進社 [MASK] は、あなたのカドをまるくします。石けんは、あなたの [MASK]をまるくします。石けんは、あなたのカドを [MASK] します。 表 2: 実験に使用したデータの諸元 と表記する。本研究では,この確率が大きくなるような $w^{*}$ を求めるために 3 つの手法を提案する。 全探索による単語の予測: 語彙 $V$ に含まれる全ての単語候補を用いて $w^{*}=\operatorname{argmax}_{w^{\prime} \in V} p\left(l \mid s^{\prime}: w_{n}=w^{\prime}\right)$ となる $w^{*}$ を求める. これは図 1 の (2) に対応する.追加学習による単語予測: PPLM での予測と同様に,推論時に指定した企業ラベルを用いて文書分類器を追加で学習することで, $p\left(l \mid s^{\prime}, w_{n}=w^{\prime}\right)$ が高くなるように BERT のパラメータのみを更新し,その副産物としてマスクされた単語の予測結果が企業に特徴的な単語になるように誘導する。また,文書分類の追加学習によるマスク言語モデルの忘却 [13] を防ぐために,マスクした $w_{n}$ 以外の単語はそのまま予測できるように追加学習を行う. 追加学習を行なった BERT とマスク言語モデルを用いて,式 (1)による単語の予測を行う.この学習と単語の予測の概要は図1の(3)に対応する. 組み合わせによる単語の予測: 全探索と追加学習を組み合わせた単語の予測を行う. 単語 $w_{n}$ を $w^{\prime}$ で置き換えたときのスコアを以下によって計算する。 $ \operatorname{score}\left(w_{n}, w^{\prime}\right)=p\left(l \mid s^{\prime}: w_{n}=w^{\prime}\right) p\left(w_{n} \mid s_{\backslash w_{n}}\right) $ ここで $p\left(l \mid s^{\prime}: w_{n}=w^{\prime}\right)$ は全探索による単語の予測で求められたラベル $l$ のの分類確率, $p\left(w_{n} \mid s_{\backslash w_{n}}\right)$ は追加学習を行なった BERT とマスク言語モデルを用いて計算した単語の出現確率である。このスコアが高くなる単語を最終的な予測単語として採用する. ## 3 実験 提案手法によるキャッチコピー生成の有効性を確かめるために,実際のキャッチコピーを用いた実験を行う. 本実験では,既存のキャッチコピーから単語をランダムに [MASK] に置き換え,さらに企業ラベルを用いることで置き換え前の単語の予測性能が向上するかを確認する. 提案手法が企業ラベルを用いて企業に特徴的な単語を予測できるのであれば,表 3: マスク予測の実験結果. 表 4: 「あのオトコ、どうやって [MASK] してやろうか。」への各手法の予測上位 3 単語. 企業ラベルは 「キッコーマン」で,正解の単語は「料理」である. この実験の評価値は高くなるはずである。 ## 3.1 実験設定 本研究では,多数のキャッチコピーを収録したデータセット [14]を用いた実験を行う。データセットに収録されているキャッチコピーの一部を [MASK] に置き換えることで,置換前の単語を予測するマスク言語モデルのタスクを作成した。ただし,[MASK]への置き換えは名詞,形容詞,動詞のみを対象とした。品詞の解析には $\mathrm{MeCab}$ [15] を用いた。また,予測の制御を行うための企業ラベルには,キャッチコピーのテーマとなる企業・団体名を用いた。マスク済みのデータの例を表 1 に示した。 また,データセットに含まれる企業ラベルは 443 種類であり,このうちキャッチコピー数の多い 50 企業を選択して開発データと評価データを作成した。実験に用いたデータセットの諸元を表 2 に示した。 2 節で導入した各手法の性能を比較する。全ての手法に共通する設定として,文書分類とマスク言語モデルに用いる事前学習モデルは Hugging Face ${ }^{1)}$ の日本語の事前学習済み BERT モデル “bert-basejapanese-whole-word-masking,"2)を用いた。また,文書分類器とマスク言語モデルの学習では Adam[16] による最適化を行う。 提案手法が企業ラベルを用いて予測を制御できることを確かめるために,マスク言語モデルのみを学習して置換後単語の予測を行うモデル (MASK) との比較を行う.また, 2.3 節で説明した全探索による単語の予測を行うモデル (全探索), 追加学習による単語の予測を行うモデル (追加学習), これらの組み  表 5: 「想いは一番 $[\mathrm{MASK}]_{0} 」$ 対して,異なる企業ラベルを与えた時の各手法による Top9 の予測単語. 本来の企業ラベルは「佐川急便」で,単語は「重い」である。 & 美しい & 重い & 強い & 長い & 短い & 多い & 早い & 甘い & 近い \\ 合わせによって単語の予測を行うモデル (組み合わせ) をそれぞれ比較し,正解単語に対する top- $k$ 正解率 (Acc@k) による評価を行う。 ## 3.2 実験結果 表 3 の実験結果より,全探索と追加学習を組み合わせて単語の予測を行う手法が,もっとも高い精度で正しい単語を予測できることがわかった. また,追加学習を行うモデルが MASK モデルよりも性能が高いことから, 企業ラベルを用いて追加学習を行う提案手法によって, 企業に特徴的な単語を正しく選択できていることがわかった. 一方で,提案手法のうち全探索による単語の予測を行うモデルは, 他のモデルと比べて性能が大きく劣る. これは, 文書分類器の分類確率が最も高くなる単語を全探索で選択するだけでは,企業に特徴的な単語を予測できても,前後の文脈を考慮できないためである. 実際に,各手法によって予測された単語の例を表 4 に示す. 全探索によって単語を予測する手法は,企業関連語(キッコーマンと結びつきやすい「奨油」 など)を予測の上位に挙げているが,前後の文脈を考慮していないことが分かる。一方で MASK モデルは前後の文脈のみを考慮した単語(「出世」など) を上位に挙げている. 追加学習や全探索との組み合わせによる提案手法は, 企業関連語を考慮した単語を上位に予測している。 ## 3.3 異なる企業ラベルによる予測 本研究の目的である新しいキャッチコピーの生成のために,キャッチコピーの本来のターゲットとは異なる企業ラベルを用いて単語の予測を行う.実験で比較した各手法に対して,同一のマスク済みキャッチコピーを入力し,異なる企業ラベルを与え た時の予測単語の Top 9 の予測結果を表 5 に示した. 表より, 全探索と追加学習を組み合わせた提案手法は,「佐川急便」に対して「重い」,「明治製菓」に対して「甘い」のように,企業ごとに異なる関連語を Top 1 として予測できていることが分かった. マスク言語モデルのみを用いた手法は,企業ラベルを推論時に使用しないため, 全ての企業に対して同じ単語を予測する。追加学習のみを行う手法は,マスク言語モデルのみを用いた手法と上位の予測結果が変わらず,Top 1 の単語に関しては全ての企業に対して「美しい」を出力している. 表 3 において, MASK モデルと追加学習モデルの性能差が小さいことからも示唆される通り, 追加学習を用いた単語の予測はほとんどマスク言語モデルの性能と変わらないことがわかった。また,全探索による手法は「佐川」「石賖」「チョコレート」のように,明らかな企業関連語を予測できているが,言語モデルとしての働きはないため, 文脈にそぐわない単語の予測を行なっている. ## 4 おわりに 本稿では,マスク言語モデルで単語の置換を行い,既存のキャッチコピーを異なる企業へ転移させる手法を提案した。 提案手法は,企業ラベルを用いた文書分類器とマスク言語モデルをを事前に学習することで,指定した企業ラベルに関連し,かつ前後の文脈を考慮した単語の予測を行う. 単語の予測では,語彙を用いた全探索手法と,PPLMをべースとした追加学習による手法,そしてこの二つを組み合わせた手法を提案した. 実験結果より, 二つの手法を組み合わせることで適切な単語の置き換えによるキャッチコピー生成ができることを確認した. 今後は,複数の単語を書き換える手法に拡張したい。 ## 参考文献 [1]Carlo Strapparava, Alessandro Valitutti, and Oliviero Stock. Automatizing two creative functions for advertising. In Proceedings of the 4th International Joint Workshop on Computational Creativity, pp. 99-108, 2007. [2]Gözde Özbal, Daniele Pighin, and Carlo Strapparava. BRAINSUP: Brainstorming support for creative sentence generation. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1446-1455, 2013. [3]Polona Tomašič, Gregor Papa, and Martin Žnidaršič. Using a genetic algorithm to produce slogans. Informatica, Vol. 39, No. 2, 2015. [4]Yongzhen Wang, Heng Huang, Yuliang Yan, and Xiaozhong Liu. Quality-sensitive training! social advertisement generation by leveraging user click behavior. In Proceedings of the 2019 World Wide Web Conference, pp. 2045-2055, 2019. [5]山根宏彰, 萩原将文. 複数コーパスを利用したキャッチフレーズの特徴分析. 日本感性工学会論文誌, Vol. 11, No. 2, pp. 233-239, 2012. [6]山根宏彰, 萩原将文. ウェブにおけるユーザの嗜好を反映させたキャッチコピー自動生成システム. 日本感性工学会論文誌, Vol. 13, No. 4, pp. 493-500, 2014. [7]Khalid Alnajjar and Hannu Toivonen. Computational generation of slogans. Natural Language Engineering, p. 1-33, 2020. [8]Chiranjeev Kohli, Lance Leuthesser, and Rajneesh Suri. Got slogan? guidelines for creating effective slogans. Business horizons, Vol. 50, No. 5, pp. 415-422, 2007. [9]丹羽彩奈, 岡崎直観, 西口佳佑, 亀山千尋, 毛利真崇. 修辞技法を考慮したキャッチコピー自動生成に向けた研究. p. 63. YANS, 2019. [10]脇本宏平, 川本峻頌, 張培楠. インターネット広告におけるキーワードに基づく広告文の自動生成. 人工知能学会全国大会論文集, Vol. JSAI2020, pp. 4Rin170-4Rin170, 2020. [11]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 41714186, 2019. [12]Sumanth Dathathri, Andrea Madotto, Janice Lan, Jane Hung, Eric Frank, Piero Molino, Jason Yosinski, and Rosanne Liu. Plug and play language models: A simple approach to controlled text generation. In International Conference on Learning Representations, 2020. [13]Sang-Woo Lee, Jin-Hwa Kim, JungWoo Ha, and Byoung-Tak Zhang. Overcoming catastrophic forgetting by incremental moment matching. CoRR, Vol. abs/1703.08475, , 2017. [14]丹羽彩奈, 岡崎直観, 西口佳佑, 亀山千尋, 毛利真崇. キャッチコピーの自動生成に向けた分析. pp. 558-561.言語処理学会第 25 回年次大会, 2019. [15]Taku Kudo. Mecab: Yet another part-of-speech and morphological analyzer. http://taku910.github.io/mecab/, 2006. [16]Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In International Conference on Learning Representations, 2015.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B3-4.pdf
# Transformer を用いた日本語併置型駄酒落の自動生成 畠山 和久 東京工業大学情報理工学院 hatakeyama.k.aa@m.titech.ac.jp } 徳永 健伸 東京工業大学情報理工学院 take@c.titech.ac.jp ## 1 はじめに 雑談対話システムにおいて機械がユーモアを理解できるようになることで対話の継続性を高め,システムの性能向上が見込まれている [1]. 駄酒落は音韻的ユーモアを含む短文ユーモアとされており,広義では比喻の一種である [2]. たとえば「布団が吹っ飛んだ」において「布団」に音韻的に類似している「吹っ飛ん (だ)」という句が続いており, 文の意味と文が含む音の観点での言葉遊びからこの文は駄酒落として成立していると考えられる.駄酒落を自動生成できれば,機械がユーモアを理解するという点において有用である. 本研究では入力として与えた単語をお題とする日本語の駄酒落を自動生成することを目的とする。 ## 2 関連研究 駄酒落は「かけられている部分 (種表現)」とそれに音韻的に類似する「かかっている部分 (変形表現)」の関係として捉えることができる. 種表現と変形表現が一文中に併置されているものを併置型,全体もしくは一部分を共有しているものを重畳型と呼ぶ. 重胃型では種表現は背景知識や文脈からくるものとされており,文中に明示されないことが多い. さらに併置型は, 種表現と変形表現が音韻的に完全に一致する Perfect 型とそうでない Imperfect 型に細分化されている [3]. 表 1 に駄酒落の例を示す. 表 1 駄酒落の例 荒木らはユーザー投稿型の 9 つの駅酒落サイトから収集した 68,000 件のデータに駄酒落の種別と種表現/変形表現区間をアノテーションし,駄酒落データベースを構築している [4]. 駄酒落を生成する試みとしてキムらはテンプレートとそれを埋める スキーマを定義し,辞書と類音語リストを基に日本語の駄酒落なぞなぞの生成を行った [5]. 荒木はお題からクエリを生成し,駄酒落データベース内を検索する駄酒落生成システムを提案した [6]. Yu らは LSTM による Seq2Seq を用いて, 初めて駅酒落を機械学習の枠組みで自動生成する手法を提案した [7].英語の重胃型駄酒落において,表層が一致する単語を 2 つ語義として解釈できるように並列に復号化することで駄酒落を行っている。また,駄酒落を認識するタスクについて,谷津らは語彙素性や子音列の音韻類似性を基にしたSVM を用いる手法を提案した [8]. 本研究では機械学習の手法を用いて日本語を対象とした駄酒落の自動生成を行う. ## 3 提案手法 本研究では,Transformer [9]を用いた言語モデルを使って駄酒落を生成する.言語モデルとして名大会話コーパス [10]から作成した Base Language Model (BLM) と荒木らの駄酒落データベース [4] から作成した Repetition Language Model (RLM) を考え,さらに,両者をマルチタスク学習して得られたモデル (MLM) によって駄酒落を生成する。 ## 3.1 BLM BLM は Encoder-Decoder モデルを用いて,お題とお題を含む一文を対応させて学習する.BLM を導入することによって,既存の䭾酒落にない言い回しを生成することと駄酒落の流暢さを担保すること狙っている. ## 3.2 RLM RLM は駄酒落における種表現と変形表現に見られる音の反復を学習することを狙っている. 文中の 2 箇所の区間が一定以上の類似度を持てば駄酒落だと考えられるが,駄酒落では種表現と変形表現の位置が自明ではなく,一般的な (駄酒落でない)文であっても短い区間が偶然類似する可能性もあ る.そこで本研究では編集距離 (レーベンシュタイン距離) [11] 参考にして設計した,2つの文字列の類似度を計算する関数 $\mathrm{S}_{\mathrm{pun}}$ を用いて, 文字配列 $\mathrm{Sq}$ について音の反復を定量化するスコア PRS (Pun Repetition Score) を以下のように定義する. $\mathrm{PRS}=\max _{2 \leq i \leq|\mathrm{Sq}|-2} \mathrm{~S}_{\mathrm{pun}}(\mathrm{Sq}[0: i], \mathrm{Sq}[i:|\mathrm{Sq}|])$ $\mathrm{S}_{\text {pun }}(\mathrm{X}, \mathrm{Y})=\max _{0 \leq i \leq|\mathrm{X}|, 0 \leq j \leq|\mathrm{Y}|} \frac{\mathrm{DP}[i, j]}{\min (i, j)}$ ただし, $\mathrm{DP}[i, 0]=\mathrm{DP}[0, j]=0$ $\mathrm{DP}[i, j]=\max \left(\begin{array}{l}\mathrm{DP}[i-1, j]+\operatorname{Skip}[i-1, j](1), \\ \mathrm{DP}[i-1, j-1]+\operatorname{sim}(\mathrm{X}[i], \mathrm{Y}[j])(2), \\ \mathrm{DP}[i, j-1]+\operatorname{Skip}[i, j-1](3)\end{array}\right)$ Skip $[i, j]= \begin{cases}0 & (\mathrm{DP}[i, j] \text { が }(2) \text { 式より得られた }) \\ -0.8 & \text { (otherwise) }\end{cases}$ $\operatorname{sim}(x, y)=\operatorname{match}\left(x_{v}, y_{v}\right)+\operatorname{match}\left(x_{c}, y_{c}\right)$ $\operatorname{match}(x, y)= \begin{cases}1 & (x=y) \\ -0.2 & (x \neq y)\end{cases}$ DP, Skip は $\mathrm{S}_{\mathrm{pun}}$ を計算する際に使う二次元配列, $x_{v} , x_{c}$ はそれぞれ文字 $x$ の母音,子音を表す. $\mathrm{S}_{\mathrm{pun}}$ は編集距離に以下の変更を加えている. ・入力となる文字列 $\mathrm{Sq}$ には読み仮名列を考える。各文字の母音と子音も考慮する。 - 編集距離が不一致部分での插入/削除/置換に対して減点されるのに対して $S_{\text {pun }}$ は類似部分について加点する - $\mathrm{S}_{\mathrm{pun}}$ の挿入/削除は配列 Skip を用い,2 文字以上マッチしない場合に減点する. ・一致もしくは置換のコストは母音と子音それぞれについて match $(x, y)$ で計算する. PRS によって音の重複の観点から文字列が駄酒落らしいかどうかを評価できる。 音の反復を明示的に生成する手法として,通常の言語モデル学習で用いられる Cross Entropy 損失 $\left(L_{\mathrm{CE}}\right)$ のみのモデルに加え,お題の読み仮名を入力に加えた上で以下の KL Divergence 損失 $\left(L_{\mathrm{KL}}\right)$ を加えるモデルも考慮する. ${ }^{1)}$ Loss $=L_{\mathrm{CE}}(y, t)+\min _{i} L_{\mathrm{KL}}\left(y\left[i: i+\left|x^{\prime}\right|\right], \mathrm{D}\left.\langle x^{\prime}\right.\rangle\right)$ ここで $x^{\prime}$ は入力の単語のひらがな表記, $y$ はニューラルネットワークにおける出力の確率分布, 1)入力として与えられる単語は種表現として解釈する $t$ は教師信号,D は文字を要素とする語彙 $\mathrm{V}$ に対し $\tau|\mathrm{V}| \times|\mathrm{V}|$ の 2 次元配列で, $\mathrm{D}\langle\cdot\rangle$ は引数に含まれる文字に対応する列を切り出し結合した $|\mathrm{V}| \times\left|x^{\prime}\right|$ の部分配列を表わす. $i$ はモデルの出力を読み仮名の長さ分切り出す際の開始位置を表している。 $L_{\mathrm{KL}}$ では出力の系列に対して一部分を切り出しながら入力単語の読み仮名との類似度を計算し, 尤もらしい部分に対して類似度 $\mathrm{S}_{\mathrm{pun}}$ による損失を与える. この損失を加えることにより出力の一部分に入力の読み仮名と似た部分を生成しようとしている。 $L_{\mathrm{KL}}$ を計算するには教師分布が必要であるが,式 (4) 中の $L_{\mathrm{KL}}$ の第 2 引数 D として V 中の各文字に対し,自分自身のみを 1 ,それ以外を 0 とする 2 次元配列 $\mathrm{U}$ と,各文字に対して $\mathrm{V}$ 中のすべての文字との類似度を $\mathrm{S}_{\text {pun }}$ によって計算した 2 次元配列 $\mathrm{W}$ の 2 種類を設定した. 以降この配列 $\mathrm{U} , \mathrm{~W}$ 教師分布と呼ぶ. U,W は以下のように定義する。 $\mathrm{U}_{i j}= \begin{cases}1 & (i=j) \\ 0 & (\text { otherwise) }\end{cases}$ $\mathrm{W}_{i j}=\mathrm{S}_{\mathrm{pun}}\left(v_{i}, v_{j}\right)\left(v_{i}, v_{j} \in V\right)$ ## 3.3 MLM BLM とRLMを基にマルチタスク学習を行う. 駄酒落データベース [4] と名大会話コーパス [10] 両方を使用し,それぞれタスクで用いた損失関数の重み付け和で学習を行う。 ## 4 PRS の評価 駄酒落生成に先立って,駄酒落識別タスクを用いて PRS の妥当性を確認する。 ## 4.1 データ 正例として駄酒落データベース [4]を,負例として名大会話コーパス [10]を用いる. 駄酒落データベースの前処理として各種アノテーションを削除し,生データを再現した形態にした. 名大会話コー パスの前処理として句点や「!」,「?」で終わっているものを一文として扱う分割を行った。また,「ぬるいような、冷たいような...」は駄酒落ではないが 「ような」の区間で反復が起こっている。このような駄酒落を意図していない反復表現に対処するため,既に一致している区間を削除する。 ## 4.2 実験 ベースラインとして谷津ら [8] の手法を用いる.谷津らは学習セットの語彙を用いた bag of words と読み仮名列の一致素性, 子音の音韻類似度素性等を基に SVM で分類器を作成している. PRS では得られたスコアの閾値を学習セットを用いて 0.75 とした. 正例,負例それぞれ 250 件,計 500 件のデー 夕を 5 分割交差検証して得られた Precision,Recall, F1 値の平均を表 2 に示す. PRS による方法は F1 值ではわずかにベースラインに及ばないものの, Precision に関してはSVM に比べ高い性能を得ていることから,PRS を䭾酒落の音韻的な観点での評価に用いる。 表 2 PRS 実験結果 ## 5 駄酒落生成の評価 ## 5.1 データと前処理 BLM の学習には名大会話コーパス [10]を,RLM の学習に駄酒落データベース [4]を用いる. それぞれお題となる入力 1 単語から 1 文を生成するタスクを学習する. 名大会話コーパスでは以下の前処理を行った. 1. 会話文を句点で分割し,基本的に一文を 1 単位として扱う。 2. 30 文字以上の文を読点で分割しそれぞれを 1 単位に変更する.4 文字以下の文章は削除する. 3. $\mathrm{MeCab}^{2)}$ で形態素解析を行い、名詞を抽出しお題と定義する. 出力文のお題部分は [MSK] トークンに置き換える。 駄酒落データベースでは,併置型駄酒落のみを対象として,種表現をお題とし,䭾酒落のお題部分を [MSK]トークンで置換する前処理を行った. それぞれのデータについてお題を基にグループ化し,お題によって学習/テストデータの分割を行った。これらの処理により, 名大会話コーパスから 157,132 文,駄酒落データベースから 52,246 文の学習データが得られた。  ## 5.2 モデル BLM,RLM,MLM 全てにおいて,エンコーダー, デコーダーそれぞれ 12 層の Transformerを用いて実験を行った [12]. また,お題の単語を確実に出力するため,コピー機構 [13] を参考に [MSK] タグを入力単語に置き換える. 実験設定として, epoch 数 $=40$, optimizer=AdamW, 学習率 $=2 \times 10^{-} 5$, drop out $=0.1$, MLM における重みは $\alpha=\beta=0.5$ で実験を行った. tokenizer は形態素でなく文字単位の分割を行っている. ## 5.3 自動評価 自動評価では BLM, $L_{C E}$ のみを用いた RLM(以下 RLM-CE), 教師分布 Uを用いた $L_{\mathrm{KL}}$ を損失関数に追加した RLM(以下 $\mathrm{RLM}-\mathrm{KL}_{\mathrm{U}}$ ),分布 $\mathrm{W}$ を用いた $L_{\mathrm{KL}}$ を追加した RLM(以下 RLM-KLW),Cross Entropy 損失のみを用いた MLM(以下 MLM-CE),分布 Uを用いた $L_{\mathrm{KL}}$ を追加した MLM(以下 MLM-KL $\mathrm{C}_{\mathrm{U}}$ ), 分布 $\mathrm{W}$ を用いた $L_{\mathrm{KL}}$ を追加した MLM(以下 MLM-KL $\mathrm{L}_{\mathrm{W}}$ )の 7 つのモデルを比較する。評価項目はパープレキシティ (PPL),異なり 1-gram,異なり 2-gram,PRS を用いる。結果を表 3 に示す。 表 3 自動評価の結果 パープレキシティは言語モデルの学習における確信度を表し, 文章の形態が独特である䭾酒落のデー タを用いることで值が大きくなったと考えられる。異なり 1-gram,異なり 2-gram では全てのモデルについて文字単位の分割を考えていることから低い数字になっている. PRS の評価では 4 節で採用した 0.75 を閾値としている.BLM 以外のモデルは平均的に見ると音韻的には駅酒落を生成しているといえる。 ## 5.4 人手評価 RLM-CE,MLM-CE,MLM-KL $L_{U}$ ,MLM-KL ${ }_{W}$ ,荒木の生成手法 [6] の 5 つのモデルの出力に対して人 表 4 可読性,流暢性,面白さの評価 (平均) 表 5 妥当性,作者の評価 手評価を行った. 入力となるお題は分類語彙表 [14] の見出し語から 100 語を選択した. なお,荒木の手法において一部のお題に対しては生成ができないので,この評価では荒木の手法で生成が可能な見出し語 100 語を用いている. 評価項目は可読性 (理解できるか),流暢性 (文法的か), 面白さ,駄酒落としての妥当性,作者 (人間が機械か)の 5 項目である. 可読性,流暢性,面白さに関しては 1~5 までの 5 段階で,妥当性については二值 (妥当/不適),作者については三値 (人間/機械/不明) で評価する。ラテン方格法を用いて 100 のお題に対し各モデルの出力が 20 個ずつ含まれるように 5 種類の評価シートを作成し,クラウドソーシングを用いて各評価シートにつき 10 名に評価を依頼した.可読性,流暢性,面白さの平均値を表 4 に,妥当性,作者の結果を表 5 に示す. 妥当性と作者については各出力の 10 名の判定の多数決をとって数えた数字を左に,個々の判定を単純に総和した数を右にスラッシュで区切って示した. すべての評価項目において荒木らのモデルが一番数字は良いが,荒木らの方法は人間が作った駄酒落を検索していることと,そもそも必ず検索できるお題しか入力して与えていないことから荒木らの結果はこの評価における上限と考えられる. 今回と同じように分類語彙表からランダムに選択した見出し語をお題として与えた場合,荒木らの方法では $70.8 \%$ に対してしか駄酒落を出力できないことが報告されている [6]. これに対して本研究では任意の入力に対し出力を生成することはできる.そのうち2割から 3 割程度は駄酒落として評価されることがわかっ た. その中には人間が作ったと思わせる駄酒落も生成できている. ## 5.5 事例分析 お題「果報」に対する各モデルの出力例を表 6 に示す. 表 6 お題「果報」に対する出力 「果報」というお題に対して,RLMに比べて MLM では文長が長くなっており,より一文の文章らしい言い回しになっている。RLMのように「ほど!」という文末は一般的な文章で見られない駄酒落らしい言い回しであり,MLMには名大会話コーパスによる会話文のスタイルが反映されていると考えられる。 MLM-KL $\mathrm{K}_{\mathrm{U}}$ には果報の読み仮名「かほう」が文内にあり,導入した損失と分布を反映した結果になっている.MLM-KL $W_{W}$ では変形表現として「火葬」が含まれ,読み仮名を元にお題の変形表現を生成できている。 ## 6 おわりに 本研究では日本語駄酒落を機械的に自動生成することを目標とし,Transformer を用いた言語モデルの設計を提案した. 名大会話コーパスによる一般的な文章生成タスクを併用するマルチタスク学習と変形表現を生成する損失関数により,文章スタイルの異なる駄酒落生成を行った。 今後の課題として, 生成モデルとしての性能向上が上げられる.短文生成のタスクとして入力の情報量を増やしたり,制約を加えることなどにより文章生成を制御する必要があると考えられる。また,駄酒落はユーモアであるが本研究では面白さについては考慮をしていない. 生成する変形表現や文のスタイル等に面白さの観点を導入することで,面白く,目新しい駄酒落の生成ができると考えられる. ## 参考文献 [1] P. Dybala and K. Araki. Multiagent system for joke generation: Humor and emotions combined in human-agent conversation. Journal of Ambient Intelligence and Smart Environments, Vol. 2, No. 1, pp. 31-48, 2010. [2] 滝澤修. 記述された「併置型駄酒落」の音素上の性質. 自然言語処理, Vol. 2, No. 2, pp. 3-22, 1995. [3] 佐山公一谷津元樹荒木健治. 駄酒落データベースの構築及び分析. 人工知能学会第 2 種研究会ことば工学研究会資料, Vol. 2, No. 3, pp. 13-24, 2017. [4] 荒木健治, 佐山公一, 内田ゆず, 谷津元樹. 駄酒落デー タベースの拡張及び分析. 人工知能学会第 2 種研究会ことば工学研究会資料, Vol. 3, No. 1, pp. 1-15, 2018. [5] キム・ビンステッド, 滝澤修. 日本語駄酒落なぞなぞ生成システム「boke」. 人工知能学会誌, Vol. 13, No. 6, pp. 920-927, 1998. [6] 荒木健治. 駄酒落データベースを用いた駄酒落生成システムの性能評価. 人工知能学会第 2 種研究会ことば工学研究会資料, Vol. 3, No. 8, pp. 39-48, 2018. [7] J. Tan Yu and X. Wan. A neural approach to pun generation. In Association for Computational Linguistics (ACL), Vol. 1, pp. 1650-1660, 2018. [8] 谷津元樹, 荒木健治. 子音の音韻類似性及び svm を用いた駄酒落検出手法. 知能と情報 (日本知能情報ファジィ学会誌), Vol. 28, No. 5, pp. 833-844, 2016. [9] Niki Parmar Jakob Uszkoreit Llion Jones Aidan N Gomez Lukasz Kaiser Ashish Vaswani, Noam Shazeer and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, pp. 6000-6010, 2017. [10] 藤村逸子・大曽美恵子・大島ディヴィッド義和. 会話コーパスの構築によるコミュニケーション研究.藤村逸子、滝沢直宏編『言語研究の技法:データの収集と分析』ひつじ書房,pp. 43-72, 2011. [11] 編集距離 - 東京工芸大学, アクセス:2021/1/11. http://www.cs.t-kougei.ac.jp/SSys/LevenS.htm. [12] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, Online, October 2020. Association for Computational Linguistics. [13] Hang Li Jiatao Gu, Zhengdong Lu and Victor OK Li. Incorporating copying mechanism in sequence-to-sequence learning. In Association for Computational Linguistics., 2016. [14] 国立国語研究所 (2004) 『分類語彙表増補改訂版デー タベース』(ver.1.0). ## 付録:RLM-KLu で生成された駄酒落の例 先攻のせいで先公センコーかいじゃない! 新譜はシンプルなドレスを着ている! ハッチの件はちょっとやいたよと、はっち来なさい 酒屋がさかやっかいになった! ノベルについて述べる! 触手を扱うくしゅくれる人は、ショックです! すなわち、すなはちだけて食べない! 襟については、ええエリしたことだ! むかつく婿だから、むう、勝つく! 総括があるそうだよ。そつことを言ってる! もちろん、もちろんと食べよう! 家のふきんに、フキンはないか? 市民のしみんもんだ! いえという言葉は、いい絵いている 彼らのカレーは辛かれらない! 地方のちほうがいいんだって?そうはい、チホントですね。景色をけしき声が高いとは、意気をつけます! 資源がしげーんない! おかしい形のかしはおおかしいかいしい マジシャンでまじ、ゃん。 書棚をしょうだな 一周にいてもいいっしゅー コントロールで、コントロール! 不完全のフカんぜん 潮騒をしおおいしつけろ! 装甲車をそう、うしゃゃん持ってるの? 和書、わし、よく食べるよ! 落としぶた夫おとしぶった。 つてについては、うつて立たないこと! 不屈で拭くっつ一の 親権、しんけんはいつも、シンケンゲンをする! マグマを食べてから、顔がまぐまった! 右折がうせつくのは、う一、初めて! リズムがいるのは、リーズム! のどののどが悪くてもわかります! 塗りを作ったのは、ハリー・ガール 速い、はあ、やい、どこにやって来て! 占拠のせんきょうだ? 軍手のぐんって、おならいだろう! 新月なんてげつやがうまくないのは、シンゲっつーのこと言ってな スーパーマンの排ガスを吸うパーマン! 副産物の服さん、ぶつかってるね! 乳児がにゅうじようになってる 取り立てが取り立てた アルバムの上にあるバンド・アルバイト! 激高の下で、かけっこーりした人がいる 隔離の絵を描くリア 執念深い、しゅうねえぶかい? 暇人にひまじんないさいには、ひぃー、マジンをたれま んじゃよ 信徒が使う空港は、新東京国際空機! とわはとわかった 背もたれのせいで、セモタレの下に埋めました お湯になったのは、おっゆーもんだ 発行したのはうちに、 8 個はっこうしてられない雲海を見に行いたのは、うん、かいーん 雨季がうきるしじゃないから、よう気づいてる! 応諾してうだくならオーダクリダック 逆転ギャゃくてんの? そこはかとなく、そこはかとなくくない。 知るの下に、何しる? 新刊を震新刊かんに見つけた! 圏外にはんけんがいらない 長椅子の長いいっす! アバンギャルドをあばんぎゃゃるど 閉館と言われて、へい、感じさせてました 抗菌にこう気をつける! 隅が無くても済みました! マイコン買うなら、まあ、いい子の下に! うみのうみを使うのはウミングアップ 湿田についての失点! ユーザー、ゆーざーない! 長身は超ょうしんがない! おいとまもらったのはおとまだ来いにおけません。 ブランク、ぶらんくく? 真紅がしんくじゃいけない! 深雪に行くのは、おみゆきだあー こだまがこだまなにある! 賞金にはショウキングしょうきん持ちではありません 聖者がせいじゃったのは、そんなに成人や! 「いよいよ」という言葉は、「いいよいヨープレット」 来聴はらいちょうぶ? とっくに、とっくにいー! 果報をかほう? なぎになぎって見つからない 弱音のようはねを食べている 略称をりや、しょうがない うそぶく、うそぶくなってきたよ! 法曹できるようになるのは、ほう、そうだね! 支障ししょうがないなんて、うそうですか? ハロゲンでは、げんな所にハローゲン! 無地になったら、身を蒸じっとしていた 脱腸は、っちょうぶーがないねえー! 船倉があるぐらいで、フナグラフグら食べる 着替えなきがえーないなんて、気が絵にしてる! 協力のきょうりょくに教えてくれると言われて今日ショックエス 進歩でしんぽを書いたらしい事が言いました! 商家を紹介してくれたのは、師匠か! 今日のおかしいしおらしい、誰でも知らんしらい。 ANA ホールで、穴掘っる。 スタイリストのすたいリスト!
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B4-1.pdf
# Wikipedia のリンク情報に基づく話題遷移シナリオの自動生成 坂田亘 1,2 吉越 卓見 2 田中リブカ 2 黒橋 禎夫 2 ${ }^{1}$ LINE 株式会社 2 京都大学 wataru.sakata@linecorp.com, \{takumiyoshiko, tanaka, kuro $\}$ nlp.ist.i.kyoto-u.ac.jp ## 1 はじめに 我々の日常会話において自分の興味ある話題に会話を誘導する振る舞いはよく見られる重要な対話行為である。本研究ではターゲット指向対話を導入し、そのような対話を実現するために話題遷移のシナリオを生成するシステムを構築する。ターゲッ卜指向対話では対話相手の関心のある話題(開始話題)から雑談を開始し、全く別のある話題(ター ゲット話題)に向けて能動的に話題の誘導を行う。 こうした対話はセールストークを行うときなどに不可欠である。 提案システムでは情報源として Wikipediaを利用し各エントリを 1 つ話題とみなすことで、開始話題からターゲット話題への話題遷移経路の検出を行う。Wikipedia の文書内のハイパーリンクとそれを含む自然文には、エントリとエントリがどのように関係しているかの情報が含まれている。これをある話題から、リンク先エントリの話題への遷移として利用する。開始話題とターゲット話題には直接の繋がりがない場合が多いため、中継点となる話題を経て話題遷移を行うことが必要となる。Wikipedia のような webgraph 構造においては、多くのノードは他の全てのノードから小さい遷移数で到達できるという small-world 性が見られるため、数回の話題遷移で開始話題からターゲット話題へと遷移できる。 図 1 は複数の映画タイトルをターゲット話題として登録した際のシステムの概要図である。提案システムは開始話題が与えられると、そこから予め登録した複数のターゲット話題のうちいずれかに到達する最短の話題遷移経路を検出する。図 1 左には “吹田市”を開始話題として与えられた場合の話題遷移経路の候補が示されている。経路内の各リンクは Wikipedia 内のハイパーリンクと対応しており、話題間の関係を表す文が付随している。図 1 右は “吹田市”の話をしている対話相手に対して、システムが図 1 左の話題遷移経路を用いて映画を勧めようと している対話の一部である。“日本沈没”へ話を近づけるためにシステムは『吹田市の万博会場跡地は万博記念公園として整備され、太陽の塔などがあるらしいですね。』と発話し、まず“太陽の塔” の話題へ話を転換しようとしている。このように適切に話題遷移経路が計算できれば、ユーザーの幅広い関心に対応しながらターゲット話題へ話を誘導する対話シナリオとして、これを用いることができる。 遷移における経路の選び方は複数存在するため、 その中でより良い道筋を選択する必要がある。例えば図 1 では“降水”への話題の遷移は自然ではないと思われる。本研究では Wikipedia 上のリンク情報および文情報を利用して訓練データの自動構築を行い、話題遷移をスコア付けする方法を提案する。 実験では映画推薦のための話題遷移経路を見つけるシステムの構築を行い、獲得できた経路の分析を行う。さらに提案手法により適切な話題選択をすることで、比較対象の手法よりも自然な話題遷移が可能であることを確認する。 ## 2 提案手法 ## 2.1 最短話題遷移経路の探索 本項目では開始話題を入力としたときにターゲッ卜話題のいずれかに到達する最短経路を求める方法について述べる。開始トピックが与えられてから実用的な時間で最短の経路を計算するためには幅優先探索を利用する。ターゲット話題それぞれを始点にとり、それぞれのリンクを逆向きに辿る幅優先探索を行うことで、各エントリから各ターゲット話題までの距離を計算できる。計算量は Wikipedia のエントリ数を $D$ 、ターゲット話題の数 $T$ とすると $O(D T)$ となる。さらに各エントリに対して全ターゲット話題の中でエントリからの距離が最小となるようなものを計算し、その距離を保存しておく。これにより、あるエントリから最短でいずれかのターゲット話題の到達するために次に遷移するべき話題を定数 図 1 システム概要 時間で見つけられる。これを繰り返すことで開始話題からターゲット話題に到達するための経路を高速に求めることができる。 ## 2.2 話題選択モデル 前節の方法では開始話題からターゲット話題までの複数の経路を得ることができるが、その中から良い経路を見つけることができれば便利である。ある話題と話題の関係を示す文が話題遷移に使う情報として自然であるかを識別できれば、そのような関係を示すリンクを優先的に辿ることで、良い話題遷移の経路を発見できると考えられる。本節では Wikipedia の文とリンク情報から教師データを自動構築し、それを用いることで話題の遷移先を適切に選択するモデルを構築する。 まず、実際の遷移の事例について観察する。 Wikipedia の “手羽先唐揚げ” の記事には“バッファローウィング” および “白ごま”へのリンクとともに次のような記述が存在する。 (1) 手羽先唐揚げに類似するアメリカ料理として、バッファローの名物料理、バッファロー ウィングがある。 (2)鶏の手羽先をから揚げにしてタレを塗り、塩・胡椒・白ごまなどを振りかけて仕上げる。 これらの情報を話題遷移として利用することを考えると、バッファローウィングへの遷移と比べて、白ごまへの遷移は不自然に感じられる。 我々はこのようなリンク情報の観察を通して話題遷移の自然さに関する次のような性質に着目した。 ある文が話題 Aへのリンクを含んでおり、後に続く文で A が主語となる場合、その文の情報は Aへの話題遷移に活用しやすい。例えば、先ほどの“バッ ファローウィング”への遷移の例において、次の文で「バッファローウイングは〜」とバッファロー ウィングの詳しい説明が続くことは自然に感じられる。一方、“白ごま”の例において、次の文で白ごまが主語として現れる可能性は“バッファロー”の例と比べると低いと思われる。そこでリンク文字列とそれを含む文を入力として、次の文でそのリンク文字列が主語として現れるかどうか推論を行う判別器の訓練を行い、リンクのスコアの計算に用いることを考える。 疑似訓練データは Wikipedia 内の連続する 2 文を収集し、次のように自動的に生成できる。まず連続する 2 文のうち 1 文目に存在するリンクが示す語 $l$ が 2 文目においては主語となっているような 2 文を収集する。主語の判定はリンク文字列が 2 文目において助詞 “は” の直前に存在しているか形態素解析器を用いることで判定を行う。リンクを示す語 $l$ と 1 文目の文全体 $s$ のペアを正例として用いる。また負例として、 1 文目内から無作為に選択した名詞節 $n$ と 1 文目の文全体 $s$ のペアを利用する。こうして収集した疑似訓練データを利用し、正例ならば 1、負例に対しては 0 を出力するように判別器の訓練を行う。以上で述べた方法によって日本語 Wikipedia から訓練データを収集することで正例データ 73,197 件と負例データ 71,653 件が得られ、これらを全て用いて訓練を行った。 推論時にはリンク文字列とそれを含む文をモデルの入力として得られた出力の値をリンクのスコアとして利用する。複数のリンク候補から 1 つ選択する際には、このスコアの最も大きいリンクを選択する。候補のうち、最上位に同程度のスコアが並ぶ場合(最大スコアとの差が 0.01 未満)には、それらの中で IDF 值が高いリンク文字列に紐づくリンクを選 択する。モデルとしては日本語大規模コーパスで事前訓練済み1)の BERT[1] を利用する。 ## 3 実験 ## 3.1 Wikipedia データの前処理 Wikipedia 内に存在するリンク情報の中には話題遷移のために用いるには相応しくないものが多く見られる。特に “情報”、“平成”などのように多くのものと関連している一般的な話題への遷移は通常の対話ではあまり見られない。そこで次に示すような Wikipedia 内の一般的なエントリへのリンク情報は用いないよう除去を行った。 文書頻度の大きいエントリ Wikipedia の各エントリに対して文書頻度を計算し、文書頻度の大きいものから上位 1,000 件のエントリへのリンクを除去対象とした。この対象となったエントリの例として“情報”、“スポーツ”などがある。 被リンク数の多いエントリ多くの Wikipedia 文書からリンクされているエントリもまた過度に一般的なエントリが多い。被リンク数が 10,000 以上のエントリへのリンクを除外の対象とした。この対象となったエントリの例として“アメリカ合衆国”、“英語”などがある。 年月日や年号についてのエントリ 「アメリカンフットボールは 1921 年には...」などの文のように、年月日または年号などのリンクが Wikipedia 内には多く見られたが後続の文の主語として用いたとしても話題遷移の自然さが低いと思われる。これらはパターンマッチングによって除去を行った。 また、丸括弧内のリンク、箇条書きとなっている文内のリンクは利用しないこととした。最終的にシステムが用いる Wikipedia のエントリは約 100 万件、 リンクは約 1,700 万件となった。 ## 3.2 話題遷移経路の分析 ユーザの関心ある話題を開始話題として収集を行いそこからターゲット話題までの経路を計算するとどのような経路が得られるか調査を行った。映画推薦のための話題遷移経路を生成するシステムを想定し、ターゲット話題として複数の映画タイトルのエントリを利用した。具体的には Wikipedia のエントリ「映画の一覧 $\lrcorner^{2)}$ から収集を行い、結果として 409  表 1 取得した経路長・経路数・1 エントリあたりのリンク数(リンク数/E)の平均値、中央値、最小値、最大値 件の映画リストを取得した。 開始話題は次のようにクラウドソーシングで収集した。まず、会話の導入となるような簡単な質問を作業者に投げかけユーザ発話を収集を行なった。「あなたの趣味は何ですか」「好きなアーティストは誰ですか」などユーザ発話の収集のための対話導入用の発話を 10 個用意し、各質問につき 100 件のユーザー発話を収集することにより 500 件のユーザ発話を収集した。次にそれぞれのユーザ発話をクエリとして Wikipedia のエントリを対象に検索を行い、検索結果の各エントリを開始話題の候補とした。情報検索には Elasticsearch ${ }^{3}$ を利用した。収集した開始話題候補のうち、ユーザクエリに対して適当な開始話題でないと想定されるものを除去し、結果として 432 件の開始話題が得られた。 収集した開始トピックをもとに得られた経路の統計情報について表 1 に示す。話題経路の長さは平均で 3 リンク未満であり、多くの開始話題に対して数回の話題遷移でターゲット話題に到達できている。 ## 3.3 遷移先話題の選択モデルの評価 次に話題選択モデルの評価を行った。評価のためにベースラインとしてRANDOM、IDFを採用した。 RANDOM は遷移候補の中から無作為に 1 つ選択する。IDF は各遷移候補に対しリンク文字列の IDF を計算し、IDFが最も大きい遷移を選択する。 評価にはクラウドソーシングを用い、RANDOM、 IDF、提案手法のうち 2 つずつを対象に、どちらの手法による話題選択が自然か比較した。最初に、 IDF と RANDOM を比較した。まず、Wikipedia からリンクを複数含む文を収集し、各文について、IDF と RANDOM で 1つずつリンクを選択した。選択したリンクが同一だった場合はその文を除外し、異なるリンクを選択した文のみをクラウドソーシングに用いた。図 2 のように、リンクを含む文をもとに簡単なルールで生成した疑似対話文と各手法が選択した 2 つのリンクを提示し、どちらのリンクへ話題遷 3) https://www.elastic.co/jp/elasticsearch/ 図 2 クラウドソーシング画面 表 2 話題選択モデルの評価結果 移するのが自然かを作業者に尋ねた。作業者は「どちらともいえない (どちらも自然)」「どちらともいえない(どちらも不自然)」を選択することもできる。このとき、提示する順序によってバイアスが生じないようにはじめの 2 つの選択肢の順序は無作為になるようにした。 1 件につき 3 人の作業者が評価し、一方のリンクのみが 2 票以上獲得した場合に、そのリンクを選択した手法に 1 加点した。それ以外の場合は引き分けとしてカウントした。これを 400 件評価し、提案手法と RANDOM、提案手法と IDF についても同様に比較した。 結果を表 2 に示す。提案手法は IDF、RANDOM に対して遷移先としてより自然なリンクを選択できていることがわかる。次に事例を表 3 に示す。 1 つ目は提案手法の選んだリンクが IDF の選んだリンクよりも自然である事例である。文内でより重要な役割を示す語を選択できている。2つ目はIDFの方が自然であるとされた事例である。“輸血”と“血液製剤” は文内での重要度は同様であると思われるが “血液製剤” の方が話題としての面白さがあることから、話題遷移先としてより自然であると判断されたと考えられる。話題としての面白さを考慮したリンクの選択については今後の課題とする。表 3 提案手法と IDF の選択事例 : 下線は提案手法の選択 & & 提案手法 \\ ## 4 関連研究 対話システムの研究において Wikipedia などの外部知識を活用し知識を持った対話を行うシステムへの研究は盛んに行われている $[2,3,4]$ 。しかし、これらのシステムではユーザーの発話に対して受動的に応答するのみで、システムが能動的に話題を選択するような機構は準備されていない。システムが話題の遷移を行う対話システム構築への取り組みも存在し [5, 6]、例えば Zhou らは ConceptNet [7] 上の話題の経路をもとに、推薦対話のデータセットを構築した。これらの研究においては遷移元と遷移先がどのような関係を持つかといった情報の利用は行われていない。我々の研究は Wikipedia に存在する多様な話題の関係性の知識を用いて話題遷移のシナリオの生成を行なっており、これと異なる。また、 Wikipedia の small-world 性を用いて 2 つの遠い概念の関係性を明らかにする取り組み $[8,9,10]$ も存在するが、この知識を対話遷移に利用する研究は我々の知る限り存在しない。 ## 5 まとめと今後の課題 本研究では Wikipedia のリンク情報に基づき話題遷移シナリオを生成する新たなタスクに取り組んだ。実験では多くの開始話題から数回の遷移でター ゲット話題へ到達できることを確認した。また、提案手法はベースラインよりも自然な話題を選択できることを示した。獲得したシナリオを基に流暢な会話を行うシステムを作ることが今後の課題である。 ## 謝辞 この研究は国立情報学研究所 (NII) CRIS と LINE 株式会社とが推進する NII CRIS 共同研究の助成を受けています。 ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In NAACL2019, pp. 4171-4186, Minneapolis, Minnesota. [2] Emily Dinan, Stephen Roller, Kurt Shuster, Angela Fan, Michael Auli, and Jason Weston. Wizard of Wikipedia: Knowledge-powered conversational agents. In ICLR2019, Ernest N. Morial Convention Center, New Orleans. [3] Karthik Gopalakrishnan, Behnam Hedayatnia, Qinlang Chen, Anna Gottardi, Sanjeev Kwatra, Anu Venkatesh, Raefer Gabriel, and Dilek Hakkani-Tür. Topical-Chat: Towards Knowledge-Grounded Open-Domain Conversations. In Interspeech2019, pp. 1891-1895, Graz, Austria. [4] Jaehun Jung, Bokyung Son, and Sungwon Lyu. AttnIO: Knowledge Graph Exploration with In-and-Out Attention Flow for Knowledge-Grounded Dialogue. In EMNLP2020, pp. 3484-3497, Online. Association for Computational Linguistics. [5] 平岡拓也, Graham Neubig, Sakriani Sakti, 戸田智基, 中村哲. 説得対話システムにおける話題誘導に基づく対話制御. 情報処理学会第 94 回音声言語情報処理研究会, 東京, 2012. [6] Kun Zhou, Yuanhang Zhou, Wayne Xin Zhao, Xiaoke Wang, and Ji-Rong Wen. Towards topic-guided conversational recommender system. In COLING2020, pp. 41284139 , Online. [7] Robyn Speer, Joshua Chin, and Catherine Havasi. Conceptnet 5.5: An open multilingual graph of general knowledge. In AAAI2017, pp. 4444-4451, San Francisco, California, USA. [8] Robert West, Pineau Joelle, and Precup Doina. Wikispeedia: An online game for inferring semantic distances between concepts. In IJCAI2009, pp. 1598-1603, California, USA. [9] Robert West and Jure Leskovec. Human wayfinding in information networks. In WWW2012, pp. 619-628, New York, USA. [10] Robert West and Jure Leskovec. Automatic versus human navigation in information networks. In ICWSM2012, pp. 143-144, Dublin, Ireland.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B4-2.pdf
# 生成と分類のマルチタスク学習による 感情が考慮された対話応答生成 井手竜也 早稲田大学基幹理工学部 t-ide@toki.waseda.jp } 河原大輔 早稲田大学基幹理工学部 dkw@waseda.jp ## 1 はじめに 計算資源などの拡大に伴う、自然言語処理の発展は著しいものである。翻訳や要約をはじめとするタスクで、今やコンピュータが人間に劣らない性能を示すことも珍しくない. 同じような技術のもとで対話システムも進歩し、実用化が期待されつつある. 人間がコンピュータと自然に対話するためには、 コンピュータに人間らしさが必要である。こうした対話を実現するための方法 [1] はいくつか提案されている.たとえば知識や常識にもとづいて対話を行うこと [2] や、自身および相手の個性に触れながら対話を行うこと [3] である. 中でも本研究は感情という要素 [4] に焦点を当てる. 本研究は話者の感情が考慮された対話をマルチタスク学習によって実現する。また感情の階層的な関係 [5] に目を向け、粒度の異なるいくつかの感情認識を同時に学習させる. なおこのマルチタスク学習は類似タスクの間で相補的な情報共有を目指すものではなく、あえて感情認識の精度向上は考慮しない.またマルチタスク学習における感情認識の比率が過剩であるという懸念のもと、各ロスに重みづけを施すことでさらなる品質の改善を求める. 事前学習済みの Transformer [6] モデルである BART [7]をもとにモデルを構築し、応答生成と感情認識のマルチタスク学習を行う.これは英語を対象に、文脈を伴わない対話で行う。 自動評価と人手評価から提案手法による応答生成の有効性を確認した。つまり応答生成と感情認識のマルチタスク学習が、生成される応答をより発話の感情が考慮されたものにすることがわかった。このことは感情という側面にかぎらず、流暢さや有益さといった品質も同時に改善された。またロスの重みづけによるパラメータの制御が、モデルの性能をより向上させることがわかった. ## 2 関連研究 感情にもとづく応答生成に関しては、ECM [8] が代表的である.ECM は Emotion Classifier とともに用いられ、与えられた感情に依存した応答を生成することができる. EmpTransfo [9] は本研究と類似したモデルである.GPT [10]による応答生成に Emotion と Action を適用させ、生成される応答を高品質なものにしている。 これらのモデルは応答がもつ感情に注目したもので、発話の感情をふまえて応答を生成するわけではない。一方で TG-EACM [11] は、発話に込められた感情と応答が抱くべき感情の双方を考慮するようなモデルである. モデルは与えられた発話から発話と応答の感情をともに推測するような分布を学習する。 ECM や TG-EACM は感情を理解するためのユニットを独立にもつが、本研究はそれを単一のモデルで完結させる.それによってパラメータの壳長性が削減され、より効率的な感情の理解および応答の生成が実現されることを期待する。 ## 3 感情が考慮された応答生成モデル ## $3.1 \quad$ 概要 生成タスクとして応答生成を行い、分類タスクとして感情認識を行う。応答生成と感情認識をマルチタスク学習によって同時に学習することで、与えられた発話の感情を理解した上で応答を生成できるようになることを狙う。 マルチタスク学習はいくつかの類似したタスクを対象とすることが多い。これはタスク同士が互いに情報を共有し、それぞれのタスクが性能を向上すること期待するためである. しかし今回のマルチタスク学習はあくまでも応答生成の品質改善が目的であ 図 1 応答生成モデルのアーキテクチャ り、感情認識の性能を向上することは考えない.これは一般的なマルチタスク学習と異なる点である. モデルは BART [7] をもとに作成する. アーキテクチャは図 1 のとおりで、モデルは学習されるタスクごとに Head として出力層をもつ. これは応答生成で単語を生成するための LM Head と、分類タスクを解くための線形層である CLS Head からなる.なお CLS Head はたとえば Positive や Negative といったラベルを推測することで分類タスクを解く. CLS Head に関しては、分類タスクごとに 1 つを設ける.各タスクの入出力形式は BART と同様である.生成タスクでは Encoder と Decoderにそれぞれ発話と右シフトされた応答を入れ、分類タスクでは Encoder と Decoderに発話と右シフトされた発話を入れる。 学習のアルゴリズムはおおむね MT-DNN [12] にしたがう.学習すべき各タスクはミニバッチごとに選択される。タスクによって異なるロスを計算し、 ミニバッチごとにパラメータを更新していく. ## 3.2 タスクとロス 与えられる発話を $\boldsymbol{x}=\left(x_{1}, \ldots, x_{M}\right)$ 、モデルのパラメータを $\boldsymbol{\theta}$ とする.各タスクに対するロスをもとに $\boldsymbol{\theta}$ を更新することによって、モデルは学習される。 生成 $\boldsymbol{x}$ に対する応答を $\boldsymbol{y}=\left(y_{1}, \ldots, y_{N}\right)$ とすれば、 $\boldsymbol{x}$ から適切な $\boldsymbol{y}$ を推測できるように学習する。 $ \mathscr{L}_{\text {gen }}=-\sum_{j=1}^{N} \log p\left(y_{j} \mid \boldsymbol{x}, y_{1}, \ldots, y_{j-1} ; \boldsymbol{\theta}\right) $ 分類 $x$ の正解ラベルを $c$ とすれば、モデルは $x$ から $c$ を推測する. $ \mathscr{L}_{\mathrm{cls}}=-\log p(c \mid \boldsymbol{x} ; \boldsymbol{\theta}) $ ## 3.3 ロスの重みづけ 提案のマルチタスク学習は生成と分類のタスクを同時に学習するものである. しかしそこには分類タ表 1 各データセットのサンプル数 スクに関する学習の比率が過剰である可能性がある. 一般的な分類タスクを解くとき、学習の終了は Validation データによるロスの収束をもって定められることが多い。一方で本研究の対象は生成タスクであり、それに必要なエポック数は分類タスクのものよりも多い. そこで各ロスに重みづけを施すことを考える.具体的には応答生成に対する重みを 1 に固定しつつ、感情認識の重みを 0 以上 1 以下で変動させる.それによりパラメータの更新に際する分類タスクの寄与を抑える。 ## 4 実験 ## 4.1 データセット マルチタスク学習として、応答生成のほかに感情認識の 3 タスクを行う。それぞれは 6 ラベル・2ラベル・12 ラベルによる分類タスクで、感情認識・CG 感情認識・FG 感情認識と呼ぶ. なお感情認識の各データセットは Unify Emotion Datasets [13] を参考に選択した。 応答生成応答生成のデータセットとしては DailyDialog [14] を用いる. これはマルチターンによる対話コーパスであり、2 ターンずつを抽出することによって発話と応答の組を得る。これに収録されている各発話は感情ラベルを伴うが、本研究ではそれらを使わない. 付与されている感情ラベルのほぼすべてが Otherであり、このことは本研究の目的にそぐわないと判断したためである。 感情認識軸となる感情認識のデータセットには Twitter Emotion Corpus [15]を用いる. Twitter のハッシュタグをもとに構築されたもので、 Anger, Disgust, Fear, Joy, Sadness, Surprise\}の 6 ラベルからなる.なおこのデータセットには\{Train, Validation, Test\}の区別がない. よって全データセットの $80 \%$ Test にする. 図 2 人手評価として行うクラウドソーシングの例 CG 感情認識 Coarse-Grained な感情認識についてはSST-2 [16] を用いる.これは映画のコメントに \{Positive, Negative\}のラベルが付与されたデータセットである.感情分類のサンプル数とバランスを保つベく、Trainデータのサンプル数を $25 \%$ に減らす。 FG 感情認識 Fine-Grained な感情分類には CrowdFlower が提供する感情ラベル付きコーパスを用いる. Empty というラベルを除外し、\{Anger, Boredom, Enthusiasm, Fun, Happiness, Hate, Love, Neutral, Relief, Sadness, Surprise, Worry\}の 12 ラベルによる分類タスクとして扱う。なおこれも Twitter Emotion Corpus と同じく\{Train, Validation, Test $\}$ の区別をもたないため、全体を 8:1:1 に分割する.またSST-2 と同じ理由のもと、全体の 50\%のみを抽出する。 各データセットにおけるサンプル数の内訳を表 1 にまとめる. ## 4.2 モデルの学習 学習に必要となるハイパパラメータは、BART の論文 [7] や Fairseq の例を参考に設定する. 学習率は 3e-5 と定め、パラメータは Weight Decay を伴う Adam で最適化する。応答生成に関しては、ロスの Negative Log-Likelihood 0.1 の Label Smoothing を施す. また入出力のトークン数は最大 64 に決め、学習は 64 エポック行うことにする. 生成時のハイパパラメータに関しても、上記を参考に設定する. 5 ビームによるビームサーチで単語を選択し、ある $n$-gram が 3 個以上連続する場合を排除する. 学習や生成は $\mathrm{AI}$ 橋渡しクラウド上で行い、GPU として NVIDIA Tesla V100を用いる. ## 4.3 評価手法 モデルの評価として、自動的な評価と人手による評価を行う。 自動評価まず出力として得られる応答がどれだけ正解の応答と関連しているかを BLEU [17]によって評価する。そして出力される応答が語彙的に多様であるかどうかを distinct [18] で評価する. distinct に関しては、それぞれ Unigram と Bigram に注目した distinct-1 と distinct-2 を用いる. さらに出力の応答に含まれる単語数の平均も比較する。これは生成された応答が長いものであるほど、それが普遍的でないことを仮定している. 人手評価人手による評価はクラウドソーシングで行い、プラットフォームとして Amazon Mechanical Turkを用いる。内容は EmpatheticDialogues [4] のそれにならい、評価すべき観点として感情考慮・流暢さ・有益さ・発話関連の 4 つを設定する。 それぞれは生成された応答が発話の感情を考慮しているか、生成の応答が構文的に正しいものか、生成された応答が発話にとって有益な情報を提供しているか、応答の内容が発話と適切に関連しているかを問うものである. Test データから無作為に抽出された 100 サンプルを対象に、上記の 4 観点を 5 段階で評価してもらう.ワーカとしてはUS の在住者を指定し、各サンプルの各観点ごとに7 ワーカを要求する. 最終的なスコアは 7 ワーカによる値の平均値として得る. $ \text { ワーカに尋ねる質問の例を図 } 2 \text { に示す. } $ ## 4.4 結果 応答生成を R と表し、Twitter Emotion Corpus $\cdot$ SST-2・CrowdFlower のデータセットに関する感情認識をそれぞれ E6・E2・E12と表す。また E6・E2・ E12 のロスに対する重みをそれぞれ $\lambda_{\mathrm{E} 6} \cdot \lambda_{\mathrm{E} 2} \cdot \lambda_{\mathrm{E} 12}$ と表す. 表 4 各モデルによる応答の生成例 & & & I hope I g \\ 表 6 ロスに重みづけを施した応答生成の人手評価 マルチタスク学習自動評価の結果を表 2 に示す. 表 2 からは R+E6+E2 と R+E6+E12 がそれぞれ distinct と BLEU を最大化していることがわかる.つまり提案のマルチタスク学習においては、 Coarse-Grained と Fine-Grained な感情認識がそれぞれ多様性と関連性に効果的である. 人手評価の結果を表 3 に示す. 感情考慮に関していえば、タスクに感情認識を含すすべてのモデルが応答生成のみによるモデルを上回るスコアとなっている.そして 4 観点のすべてを見てみると、とくに R+E6 が高いスコアをもたらしている. 提案のマルチタスク学習は生成される応答をより感情が考慮されたものにするだけでなく、流暢さや発話関連といった他観点の品質も改善しうる. 得られたモデルによる生成例を表 4 に示す. R と R+E6を対象に、与えられた発話とその応答を比較する.なお生成例については、E6をタスクに追加したことで人手評価の感情考慮が大きく向上したサンプルを選ぶ. 表 4 からは、 $\mathrm{R}$ と比べて R+E6 に "Yeah, yeah, I know." p "good idea." といったより感情に敏感な文が含まれていることがわかる. ロスの重みづけ自動評価と人手評価の結果をそれぞれ表 5 と表 6 に示す. 自動評価では、とくに E12を伴うモデルで重みづけによるスコアの向上が確認できる。一方で人手評価も重みづけ がいくつかのスコアを向上させており、中でも $\left(\lambda_{\mathrm{E} 6}, \lambda_{\mathrm{E} 2}, \lambda_{\mathrm{E} 12}\right)=(.5, .5,0)$ のケースがひときわ高いスコアを出している.したがって各ロスに対する重みづけは生成される応答の品質を改善しうるもので、今回の条件においては E6 と E2 の影響を半分に抑えることがもっとも効果的である. ## 5 おわりに 人間とコンピュータによる対話の、ニューラルネットワークにもとづく応答生成の品質改善に取り組んだ. 感情という側面に注目し、生成と分類の夕スクを対象とするマルチタスク学習の応答生成モデルを提案した。自動評価と人手評価を行い、提案のモデルが感情をはじめとするいくつかの性能を向上させることを確かめた.また学習の際に計算される各ロスに重みづけを施すことで、さらなる品質の改善を図った. 結果として重みづけがいくつかの評価を向上し、パラメータ更新のバランスも重要であることがわかった。 本研究は対話の感情に焦点を当て、発話の感情を考慮した応答の生成を行った. 一方で本研究は応答の感情に注目しておらず、それは今後の課題である. 応答がもつべき感情を推定することや、指定された感情のもと応答を生成することに取り組みたい.また今回の実験はあえて対話の文脈を一切考えていない. 過去の発話やそれによる感情の変遷を生成する応答に反映させることも必要であり、それも今後取り組むべき課題である。 ## 謝辞 本研究は JSPS 科研費 JP18H03286 の助成を受けた。 ## 参考文献 [1] Eric Michael Smith, Mary Williamson, Kurt Shuster, Jason Weston, and Y-Lan Boureau. Can you put it all to- gether: Evaluating conversational agents' ability to blend skills. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2021-2030, Online, July 2020. Association for Computational Linguistics. [2] Emily Dinan, Stephen Roller, Kurt Shuster, Angela Fan, Michael Auli, and Jason Weston. Wizard of wikipedia: Knowledge-powered conversational agents. arXiv preprint arXiv:1811.01241, 2019. [3] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2204-2213, Melbourne, Australia, July 2018. Association for Computational Linguistics. [4] Hannah Rashkin, Eric Michael Smith, Margaret Li, and Y-Lan Boureau. Towards empathetic open-domain conversation models: A new benchmark and dataset. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5370-5381, Florence, Italy, July 2019. Association for Computational Linguistics. [5] A. Kumar, A. Ekbal, D. Kawahra, and S. Kurohashi. Emotion helps sentiment: A multi-task model for sentiment and emotion analysis. In 2019 International Joint Conference on Neural Networks (IJCNN), pp. 1-8, 2019. [6] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. arXiv preprint arXiv:1706.03762, 2017. [7] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics. [8] Hao Zhou, Minlie Huang, Tianyang Zhang, Xiaoyan Zhu, and Bing Liu. Emotional chatting machine: Emotional conversation generation with internal and external memory. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 32, No. 1, Apr. 2018. [9] Rohola Zandie and Mohammad H. Mahoor. Emptransfo: A multi-head transformer architecture for creating empathetic dialog systems. arXiv preprint arXiv:2003.02958, 2020. [10] Alec Radford, Karthik Narasimhan, Tim Salimans, and Ilya Sutskever. Improving language understanding by generative pre-training. 2018. [11] Wei Wei, Jiayi Liu, Xianling Mao, Guibin Guo, Feida Zhu, Pan Zhou, Yuchong Hu, and Shanshan Feng. Target guided emotion aware chat machine. arXiv preprint arXiv:2011.07432, 2020 [12] Xiaodong Liu, Pengcheng He, Weizhu Chen, and Jianfeng Gao. Multi-task deep neural networks for natural language understanding. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4487-4496, Florence, Italy, July 2019. Association for Computational Linguistics. [13] Laura-Ana-Maria Bostan and Roman Klinger. An analysis of annotated corpora for emotion classification in text. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 2104-2119, Santa Fe, New Mexico, USA, August 2018. Association for Computational Linguistics. [14] Yanran Li, Hui Su, Xiaoyu Shen, Wenjie Li, Ziqiang Cao, and Shuzi Niu. DailyDialog: A manually labelled multiturn dialogue dataset. In Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 986-995, Taipei, Taiwan, November 2017. Asian Federation of Natural Language Processing. [15] Saif Mohammad. \#emotional tweets. In *SEM 2012: The First Joint Conference on Lexical and Computational Semantics - Volume 1: Proceedings of the main conference and the shared task, and Volume 2: Proceedings of the Sixth International Workshop on Semantic Evaluation (SemEval 2012), pp. 246-255, Montréal, Canada, 7-8 June 2012. Association for Computational Linguistics. [16] Richard Socher, Alex Perelygin, Jean Wu, Jason Chuang, Christopher D. Manning, Andrew Ng, and Christopher Potts. Recursive deep models for semantic compositionality over a sentiment treebank. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1631-1642, Seattle, Washington, USA, October 2013. Association for Computational Linguistics. [17] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [18] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B4-3.pdf
# 逆翻訳とフィルタリングによる擬似対話コーパスの生成と それを用いた対話システムの学習 榮田亮真 早稲田大学基幹理工学部 s.ryoma6317@akane.waseda.jp } 河原大輔 早稲田大学基幹理工学部 dkw@waseda.jp ## 1 はじめに 深層ニューラルネットワーク (以下、DNN)を利用した自然言語処理が盛んになっており、分類、生成など、様々なタスクで高精度を達成している。大規模なコーパスで DNNを学習することで、どんな言語的情報を特徴量として扱うかを人が指定せずとも期待の結果が得られるというのが DNN の強みであり、対話システムについてもこれは同様である。 しかし、日本語の対話システムをDNNを用いて作ろうとすると、日本語の対話コーパスは規模が限られており、DNN の学習に十分な量が存在するとは言えない。これを原因の一つとして、現在のニューラル対話システムは、応答が発話に対して自然なものではない、多様な応答ができないという課題を持っている。特に多様性に関しては、「そうだね」などの、どんな発話に対しても破綻はしないが、おもしろみに欠ける応答が多くなってしまうという問題が挙げられる。 本研究では、対話コーパスの量の少なさを克服するため、少量のコーパスで学習したシステムの出力を学習データとして用いる。ただし、少量のコーパスで学習したシステムは性能が低く、出力はノイズを多分に含むため、フィルタリングを行い、コーパスの質を高める。具体的な手法は以下のとおりである。まず、機械翻訳で有効性が示されている逆翻訳 [1]の考え方を対話に応用する。つまり、少量の対話コーパスで学習した逆対話システムに非対話コーパスを入力し、その出力を用いて擬似対話コーパスを生成する。この擬似コーパスは「あー」など、意味のない表現、同じ表現の無意味な繰り返し、入力とほとんど同じ出力など、質の悪いぺアが多い。そのため、このコーパスをそのまま学習に用いるのではなく、いくつかのルールに基づきフィルタリングを行うことで、コーパスの質を高めてから利用する。 なお、対話システムとして、複数ターンの対話を扱うもの、発話以外の感情や Persona [2] などを扱うものも存在するが、本研究では、発話のみを入力し、応答を出力する 1 ターンの対話システムを扱う。 生成した擬似対話コーパスを利用して学習した対話システムをクラウドソーシングにより評価したところ、システムの応答が発話に対して関連していると判断される割合が、擬似対話コーパスを利用しないものより、 8 ポイント向上した。また、フィルタリングをしないコーパスを用いると、擬似対話コー パスを利用しないものより 2 ポイント低下し、フィルタリングの必要性も示された。 ## 2 関連研究 対話コーパスではないデータセットを利用して、 ニューラル対話システムの出力を多様にする試みとして、Su ら [3] の研究がある。これは、機械翻訳で用いられる逆翻訳 [1] の考え方に基づくものである。 Sennrich ら [1] の研究ではまず、少数の対訳コーパスで、ターゲットとなる言語を入力し、ソースの言語を出力する逆システムを学習する。その逆システムにターゲット言語のコーパスを入力して擬似的な対訳コーパスをつくり、真の対訳コーパスと混ぜて学習を行うことで、BLEU の向上を達成している。逆翻訳についてはその後、Poncelas ら [4], Edunov ら [5] が、擬似コーパスの生成方法やそのコーパスを利用した学習方法を研究している。 逆翻訳を受けて、Su ら [3] の研究では、発話を入力すると応答を出力する順対話システムと、応答を入力すると発話を出力する逆対話システムを用意し、一方に非対話コーパスを入力したときの出力を、もう一方のシステムの学習データとすることを繰り返すことで、Distinct [6] の向上を達成している。 Distinct とは、生成文の全 n-gram 数に対する n-gram の種類数の割合であり、Distinct の向上は生成され 表 1: フィルタリングのルールとその対象 & 「あー」など、無意味な表現の繰り返し \\ 重複数が、短いほうの文長のn\%より多いペア & オウム返し \\ た応答の多様性が向上していることを示している。 ## 3 提案手法:逆翻訳の対話への応用 とフィルタリング 提案手法は以下の 2 つの要素で構成される。1つめの要素は逆翻訳の対話への応用である。これは、応答を入力して発話を生成するように学習したシステム (以下、逆対話システム) に非対話コーパスを入力して、擬似対話コーパスを得ることを意味している。2つ目の要素はルールベースのフィルタリングである。これは、逆対話システムから得た擬似対話コーパスの質を高めるために行う。 ## 3.1 逆翻訳の対話への応用 擬似的な対話コーパスの生成を目的として、 ニューラル逆対話システムの学習を行う。このシステムに非対話コーパスを入力することで、その入出カペアが、非対話コーパスを応答とする擬似対話コーパスとなる。その様子を以下の (1) に示す。文 (1a) が非対話コーパスに含まれる文であり、これを逆対話システムに入力することで、(1b) の出力を得る。 (1) a.おかず少ない。 b.今日の晚御飯はカレーです。 この擬似対話コーパスの応答文は自動生成したものではなく既存の文であるため、質が保証されている。このコーパスを利用することで、ニューラル対話システムが、非対話コーパスに含まれるような応答を生成できるようになることが期待される。 ## 3.2 フィルタリング 3.1 節で述べた方法で擬似対話コーパスを生成すると、「あー」「あああ」など、意味のない言葉の羅表 2: 逆対話システムの学習に利用した対話コーパ Х 列、同じ単語の繰り返しなど、ノイズの多い生成結果が得られる。これは対話システムの学習を行ううえで悪影響をもたらすと考えられる。そこで、表 1 に示すルールを設けてフィルタリングを行うことで、擬似対話コーパスの質の向上を目指す。 ## 4 擬似対話コーパスの生成 ## 4.1 逆翻訳 ニューラル対話システムのモデルとして fairseq の MBART [7] を用いる。これは、英語だけではなく、多言語で事前学習された BART [8] である。対話コーパスを用いて、MBART を Fine-tuning する。 ここで用いる対話コーパスは以下の 3 種類である。 ・名大会話コーパス [9] ・BTSJ 自然会話コーパス [10] - Twitter コーパス Twitterコーパスは、Tweet-Reply 対を、Twitter API を用いて我々が収集したものである。 これらの対話コーパスを用いて、入力が応答、出力が発話になるような学習を行う。利用したコーパス量を表 2 にまとめる。学習した逆対話システムに Web コーパス [11]を入力し、擬似対話コーパスを得た。 生成した擬似対話コーパスの例を表 3 に示す。 3.2 節で述べたように、生成結果はノイズが多い、「お 表 3: 擬似対話コーパスの生成例 表 4: フィルタリングの実行結果の例 はようございます」などのありきたりな表現が多い、などの問題がある。このコーパスをそのまま利用して対話システムの学習をすることは、対話システムの性能を下げると考えられる。 ## 4.2 フィルタリング 4.1 節で生成した擬似対話コーパスに対して、3.2 節で述べたルールに基づき、フィルタリングを実行する。発話と応答のサブワードの重複数に関する条件については、 $\mathrm{n}=50,40$ の 2 パターンを設定した。フィルタリングの実行により、 $\mathrm{n}=50 \%$ のときは $3.5 \% 、 \mathrm{n}=40 \%$ のとは $2.1 \%$ のペアが残った。フィルタリングを実行した結果の例を表 4 に示す。フィルタリングにより、多くのノイズが取り除けていることがわかる。また、ペア中には、「プログラミング」 と「Web」、試合」と「交代」など、関連する単語が含まれており、対話システムの学習に効果があることが期待できる。ただし、本研究のフィルタリングルールは意味的な情報は全く扱っていないため、対話ぺアとして不自然なものも残っている。この点の改善は今後の課題である。表 5: 対話システムの学習に用いた対話コーパス量 ## 5 対話システムの学習 ## 5.1 擬似対話コーパスを利用した対話シス テムの学習 4.1 節, 4.2 節で生成した擬似対話コーパスと、 3 種の対話コーパスを用いて、fairseq の MBARTを Fine-tuningする。学習は以下の 6 パターンで行った。 - GOLD - GOLD+MBART-50 - GOLD+MBART-50 $\rightarrow$ GOLD - GOLD+MBART-40 - GOLD+MBART- $40 \rightarrow$ GOLD - GOLD+MBART-w/o filter ここで GOLD は 4.1 節で述べた 3 種の対話コーパス、MBART-50、MBART-40 4.1 節, 4.2 節で生成した擬似対話コーパスのうちそれぞれ、フィルタリングの $\mathrm{n}$ 动 $=50,40$ と設定したもの、MBART-w/o filter は 4.1 節で生成した擬似対話コーパスをフィルタリングせずにそのまま用いたことを表す。また $\rightarrow$ は、矢印の左側のコーパスで学習したのちに、右側のコーパスで再度学習したことを表す。これは、逆翻訳を利用した翻訳タスクにおいて、擬似対訳コーパスを利用した後、対訳コーパスで再度学習している [5] ことに由来する。 学習に用いた各コーパスの量を表 5 に示す。対話システムの評価は、BLEU [12], Distinct-N [6] に基づく自動評価と、クラウドソーシングによる人手評価で行った。BLEU は翻訳タスクでよく用いられる評価手法であり、応答文と参照文を構成する N-gram の一致度を表す。 ## 5.2 対話システムの評価 ## 5.2.1 自動評価 テストコーパスは名大会話コーパス 7,172 文、 BTSJ 自然会話コーパス 3,000 文、Twitter コーパス 30,374 文から構成され、計 40,172 文である。 5.1 節 表 6: 対話システムの自動評価結果 で学習した対話システムを、BLEU、Distinct の指標を用いて評価した結果を表 6 に示す。BLEU、 Distinct 共に、ベースラインである GOLD と比べて上がる事も下がる事もあるという結果であった。しかし、Liu ら [2]によって、BLEU と対話システムの人手評価には相関がほとんどないことが指摘されている。よって、この結果からは、提案手法で対話システムがどう変化したか結論づけることができず、 5.2.2 節で述べる、クラウドソーシングによる人手評価を行った。 ## 5.2.2 人手評価 人手評価は Yahoo!クラウドソーシングを用いて行った。観点は関連度、おもしろさ、流暢さの 3 観点とし、各対話ぺアの各観点を Yes/Noで 3 人に評価してもらい、多数決をとった。各学習パターンにつき 400 文を評価した。発話と応答をそれぞれ A と B の発言とし、A の発言に対して B の応答が各観点を満たしているかを尋ねた。各観点を尋ねる質問は以下である。 1. 関連度 「B の応答は $\mathrm{A}$ の発言に関係したものですか」 2. おもしろみ 「B の応答はおもしろいですか」 3. 流暢さ 「B の応答は日本語として自然ですか」 5.1 節で学習した対話システムの人手評価を行った結果を表 7 に示す。スコアは、400 文のうち Yes と判断されたものの割合である。 関連度については、GOLDに比べて、提案手法の評価が高くなった。また、GOLD+MBART-w/o filter では評価が低くなっており、フィルタリングの必要性がわかる。よって、提案手法が対話システムの応答の発話に対する関連度を上げていると言える。 おもしろさについては、提案手法によってどのような影響があるかは一概には言えない結果となった。おもしろさの向上には、外部知識の導入、感情の考慮など、本研究では扱っていない工夫が求められると考えられ、今後の課題といえる。表 7: 対話システムの人手評価結果 流暢さについては、提案手法の評価が GOLDより高くなっているが、GOLD+MBART-w/o filter についても高くなっている。GOLD+MBART-w/o filter のどんな対話ぺアが流暢であると評価されているか見てみると、GOLD+MBART-w/o filter の応答のほとんどが「そうだね」という応答であり、流暢であると判断されることが多かった。これはニューラル対話システムの問題点である、どんな発話に対しても、問題はないが、つまらない応答である。よって、流暢さという評価指標は、対話システムの評価指標として適切ではないと考えられ、評価の観点についても再考が必要である。 ## 6 おわりに 本研究では、多様で自然な応答が可能なニューラル対話システムを構築するうえで課題となっている、対話コーパス量の少なさの克服を目指した。逆翻訳とフィルタリングによって生成した擬似対話コーパスをニューラル対話システムの学習に用いることで、発話との関連度が高い応答を生成できるようになることがクラウドソーシングによる人手評価によって示された。 本研究では、逆対話システムは GOLDコーパスで学習しただけであり、工夫はしていない。また、 フィルタリングには表層的な条件しか用いていない。今後の課題として、逆対話システムの性能の向上、意味的な情報を考慮したフィルタリングが挙げられる。 本研究を応用することで、大規模な対話コーパスを持たない言語での対話システムの実現や、対話コーパスに含まれていないドメインをトピックとする対話への応用が期待される。 1)「GOLD ゚゚ア自体」は、3種類の対話コーパスそのものをクラウドソーシングで評価したものである。 ## 参考文献 [1]Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 86-96, Berlin, Germany, August 2016. Association for Computational Linguistics. [2]Chia-Wei Liu, Ryan Lowe, Iulian Serban, Mike Noseworthy, Laurent Charlin, and Joelle Pineau. How NOT to evaluate your dialogue system: An empirical study of unsupervised evaluation metrics for dialogue response generation. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2122-2132, Austin, Texas, November 2016. Association for Computational Linguistics. [3]Hui Su, Xiaoyu Shen, Sanqiang Zhao, Zhou Xiao, Pengwei Hu, Randy Zhong, Cheng Niu, and Jie Zhou. Diversifying dialogue generation with non-conversational text. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7087-7097, Online, July 2020. Association for Computational Linguistics. [4]Alberto Poncelas, Dimitar Shterionov, Andy Way, Gideon Maillette De Buy Wenniger, and Peyman Passban. Investigating backtranslation in neural machine translation. EAMT 2018 - Proceedings of the 21st Annual Conference of the European Association for Machine Translation, pp. 249-258. European Association for Machine Translation, 2018. [5]Sergey Edunov, Myle Ott, Michael Auli, and David Grangier. Understanding back-translation at scale. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 489-500, Brussels, Belgium, OctoberNovember 2018. Association for Computational Linguistics. [6]Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics. [7]Yinhan Liu, Jiatao Gu, Naman Goyal, Xian Li, Sergey Edunov, Marjan Ghazvininejad, Mike Lewis, and Luke Zettlemoyer. Multilingual denoising pre-training for neural machine translation. ArXiv, 2020. [8]Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-tosequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics. [9]小磯花絵. 『日本語日常会話コーパス』モニター公開版の構築. 計量国語学, Vol. 32, No. 2, pp. 133-142, 2019. [10]宇佐美まゆみ, 宇佐美まゆみ監修 (2020)『BTSJ日本語自然会話コーパス(トランスクリプト・音声)2020年版』、国立国語研究所、機関拠点型基幹研究プロジェクト「日本語学習者のコミュニケーションの多角的解明」、サブ・プロジェクト「日本語学習者の日本語使用の解明」(リーダー:宇佐美まゆみ). 2020. [11]Daisuke Kawahara and Sadao Kurohashi. Case frame compilation from the web using high-performance computing. In Proceedings of the Fifth International Conference on Language Resources and Evaluation (LREC'06), Genoa, Italy, May 2006. European Language Resources Association (ELRA). [12]Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. 表 8: 学習で用いたハイパーパラメータ ## A 付録 5.1 節で対話システムの学習に用いた主なハイパーパラメータを表 8 に示す。エポック数としては、検証データに対するロスが最小となるエポックを採用した。 表 9: 擬似対話コーパスを用いて学習した対話システムによる対話例 & \\ 5.2 節で評価したテストコーパスの発話応答ぺアの例を表 9 に示す。モデルは GOLD+MBART- $50 \rightarrow$ GOLD である
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B4-4.pdf
# 進化論的アプローチによる 人狼ゲームにおけるエージェントの構築に関する調査 関井郁弥 横浜国立大学 sekii@forest.eis.ynu.ac.jp } 阪本浩太郎 横浜国立大学 sakamoto@forest.eis.ynu.ac.jp } 渋木英潔 国立情報学研究所 shib@nii.ac.jp } 森辰則 横浜国立大学 mori@forest.eis.ynu.ac.jp ## 1 はじめに 近年,スマートスピーカーの普及によってコンピュータとの対話が身近なものとなり,今後は情報検索や家電操作以外にも対話技術が応用されていくことが予想される. 情報検索や家電操作などではユーザの指示に忠実に従うだけで問題ないが,例えば,商品セールスなどに応用することを考えると, ユーザが当初目的としていなかった商品を売り込むといったユーザの意思決定に大きく影響を与える対話が求められることになる. 我々は,ユーザの意思決定に大きく影響を与える対話を翻意誘導対話と定義する。しかしながら,翻意誘導対話をどのように実現するかに関する研究はほとんどない. 我々は,自分の目的を達成するために相手の意思決定に影響を与えるという点で説得も欺瞒も翻意誘導対話の一種1) と考えている。そこで,ゲームにおける勝敗のように目的が明確であり,かつ,その目的を対話によって達成するものが,翻意誘導対話の対象として適切であると考え,人狼ゲームを対象として研究に取り組むこととした。 人狼ゲームとは,対話を通して「村人」の中に潜伏した「人狼」を見つけ出す対戦型の多人数ゲームであり2),近年,人狼知能プロジェクト3)など研究テーマとしても注目されている. 人狼知能プロジェクトでは,「人間と自然なコミュニケーションを取りながら人狼をプレイするエージェント(AI)の構築」を究極の目標としており,エージェント同士の対戦成績を一つの指標として人工知能の研究開発に取り組んでいる.また,我々は,これまで人狼ゲームプラットフォーム LiCOS[1] の開発や人狼エージェントの分析 [2]などに取り組んでいる。人狼ゲームは意思決定の際に相手がどのような行動をとるか分からない不完全情報ゲームであり,推論に誤謬がなくとも正解を導き出せるとは限らず,ゲーム中の行動が必ずしも論理的に説明できるわけではない。そのため,エージェントの発話が翻意誘導できたかを評価するためには,何度もゲームを繰り返して定量的に見積もる必要があり,模索段階で人間を相手に  ゲームを行うことは効率的でない。また,翻意誘導された過程を調査する上でも,思考過程が透明であるエージェントを対象とすることが望ましい,以上の背景から,我々は人狼ゲームにおける翻意誘導の対象となるエージェントの構築に取り組む. 将来的に他のプレイヤの発言の理解や,自然言語を用いた発話といった対話機能を含めた推理・発言の機能を持つエージェントの構築を検討する。人間の思考過程を模した構築したエージェント相手への翻意誘導を観察し,人間に対しても同様に翻意誘導ができるかの検証につながる情報を得ることを期待する。 翻意誘導の対象となるエージェントは,誘導されうる知性を備えつつ,エージェントごとにある程度の多様性があることが望ましい,そのようなエー ジェントを構築する手段として,我々は進化論的アプローチをとることとした. 人狼ゲームと同じ不完全情報ゲームである繰り返し囚人のジレンマにおいて進化論的アプローチにより最適戦略を求める研究は多くなされている $[3,4,5,6,7]$. しかしながら, ゲームの複雑さが異なるため,そのまま人狼ゲームに応用できるか自明ではない。それゆえ,本稿では,進化論的アプローチによるエージェント構築に関する設計を行う。 ## 2 エージェントの設計 エージェントの思考過程を明示的に表現するためには,エージェントがそれぞれ対戦相手の他エー ジェントの役職をどのように推理しているかという認識を表現する必要がある. エージェントの多層的な認識 (例:「エージェント Cは『エージェント Aがエージェント B の役職を村人だと思っている』と認識している」など)という思考を可視化して表現するために,エージェントがそれぞれ自身の思考を行う思考空間(メンタルスペース)と,参加している各プレイヤに対応しメンタルスペース内に存在する仮想上のエージェント(メンタルエージェント)を所有しているモデルを導入する。 エージェントの動作は,他のプレイヤからの発言を受けてエージェントがゲーム状況を把握するためのメンタルスペースの更新と,ゲームを進行させるためメンタルスペースに対応した発話や投票を行うといった行動の 2 つからなる。 図 1 メンタルスペースの構造 ## 2.1 メンタルスペースの構造 図 1 にメンタルスペースの構造を示す。メンタルエージェント内には,そのエージェントが各エー ジェントの役職をどのように認識しているかというキャラクタと役職を対応させた表(対応表)を持つ. 対応表は,プレイヤと役職の表があり,対応はプレイヤがそれぞれの役職である確率 $[0,1]$ として表される。 エージェントのメンタルスペース内のメンタルエージェント 1 人につき, 15 人のプレイヤごとに 6つの役職それぞれの確率の対応表を所有していることで,「エージェント C は『エージェント A がエージェント B の役職を人狼だと思っている』と認識している」などという複雑な認識を扱うことができる. また,エージェントはたとえ同じ内容の発言であっても発言者が異なる場合に,その発言の信用具合が変化することが考えられる. エージェント毎の信用具合の差を表すために,それぞれのメンタルエージェントには各プレイヤの発言をどれほど信用するかという指標となる信頼度を所有させる.信頼度は各エージェントの発言を信用している度合い $[0,1]$ として表される. 信頼度が高いプレイヤからの発言は対応表に大きな影響を与え,反対に低いプレイヤからの発言は対応表に影響しにくくなる. 信頼度も対応表と同様に,メンタルスペース内のメンタルエージェント 1 人につき, 15 人のプレイヤ全員への信頼度を所有させる。 誰に投票するか,人狼のプレイヤが誰に襲撃するか, 占い師や狩人のプレイヤの能力の使用先を誰にするか,などのゲーム内での意思決定を含む行動を説明可能にするために,メンタルエージェントにはこれらの各種意思決定の際に用いる投票意思, 占い意思,護衛意思,襲撃意思という意思値を所有させる. 意思値は,あるプレイヤに対して投票,人狼の襲撃,占い師の占い,狩人の護衛といった行動をしようという意思の強さ表した値で,基本的に意思値が最も高いプレイヤに対して投票・襲撃といった各種行動を試みる。各種意思値はメンタルエージェン トごとに 1 つずつ所有しており,対応表や信頼度の数值によって変動するほか,CO(カミングアウト:自らの役職を宣言する)などの発言内容にも応じて変化させる。 対応表,信頼度,各種意思値といった値は,「占い師 CO をがされたとき,発言者が占い師かもしれないと考える」「発言内容に矛盾が生じたとき,その発言者が人狼であると疑う」などといった,理性的なプレイヤが人狼ゲームをプレイする際に用いるルー ルに従って変化する。これらを変化させる際に,それぞれのルールの持つ影響力の指標として,各エー ジェントにパラメータを持たせる。,パラメータはそれぞれ村人陣営の役職のときに強く発現するパラメータ,人狼陣営のときに強く発現するパラメー タ,陣営にかかわらず発現するパラメータの 3 種類が存在する。表 1 にエージェントの持つパラメータの一部を記載する。実際のエージェントの構築ではこのようなパラメータを多数使用するが,ここでは一部のみ抜粋する。このパラメータの組み合わせにより,エージェントの個性となる推理方法や発言などの行動が変化する. 本研究では,このパラメータを遺伝的アルゴリズムにおける学習対象の遺伝子とし,この数値を最適化することによって理性的に推理を行い,行動するエージェントの構成を試みる。 ## 2.2 意思決定 エージェントは発言を要求されるたびに, 1. 役職が占い師,霊能者でそのゲーム中にまだ COしていなければ $\mathrm{CO}$ 発言 2. 占い師, 霊能者のときは能力の使用結果を公表 3. 一番投票してほしいエージェント(投票意思が最も高いプレイヤ)へ投票するように希望する発言 4. 今自分が誰を人狼だと思っているかなどの役職考察発言 の優先度で発言を行う。このアルゴリズムは第 2 回人狼知能大会のチーム饂飩の発話アルゴリズム [8] を参考にした。 また,エージェントは投票を要求されるたびに, 表 1 エージェントの構築に用いるパラメータ例 & & {$[0,1]$} & 土通 \\ 表 2 試合ごとに加算される得点 生存している自分以外のプレイヤの中で最も投票意思が高いプレイヤへの投票を行う. 人狼のエージェントは. 襲撃先の投票が要求されるたびに,エー ジェントは生存している人狼でないプレイヤの中で最も襲撃意思の高いプレイヤへ投票を行う. ## 3 エージェント構築の環境 翻意誘導される上で知性を持ったエージェントでありながら,異なる個性をもったエージェントが多数得られることを期待し,並列分散型遺伝的アルゴリズム [9](並列分散 GA) によってエージェントを構築する。エージェントの個体が持つパラメータの集まりを遺伝子としており,人狼ゲームをプレイする上で最適な遺伝子パラメータの組み合わせを学習することを目的とする。 個体の遺伝子に多様性を持たせるために村を $N_{\text {village }}$ 個用意する.また. 勝敗に運要素が絡むため,信頼できる勝率を得るためにそれぞれの村で $N_{\text {game }}$ 回ずつ対戦を行う. 適者生存を示すスコアは村人陣営としてのスコアと人狼陣営としてのスコアの 2 種類を用意し,役職が村人陣営(村人, 占い師, 霊能者, 狩人) で参加した対戦での結果を村人陣営としてのスコア,人狼陣営(人狼,狂人)の役職で参加した対戦での結果を人狼陣営のスコアとして計算することで,村人として優秀な個体,人狼として優秀な個体を判別する。村人陣営,人狼陣営はそれぞれ試合ごとに表 2 の点数を加算する. ここで,得点 $P_{V 1}$ と $P_{V 2}, P_{W 1}$ と $P_{W 2}$ については, 各プレイヤは自身の陣営の勝利を何より優先させるべきという考えから, $P_{V 1}>P_{V 2}$, $P_{W 1}>P_{W 2}$ となることが想定される. 今回の実験では, $P_{V 1}=10, P_{V 2}=1, P_{W 1}=10, P_{W 2}=5$ とした.各陣営としてのスコアは, その陣営として参加したゲームあたりの平均得点となる。(一度も役職を引かなかった陣営のスコアは 0) 1 世代分の対戦が終わると,遺伝・交叉により,次世代の個体を生成する.今回の実験では,エリート保存戦略 [10] によって 4 個体,交叉によって 11 個体を生成する。まず,人狼としてのスコアの 1 位, 2 位と村人としてのスコア 1 位,2 位の個体を選出する. 村人としての 1 位,2 位と人狼としての 1 位, 2 位の個体計 4 個体をそのまま残し,人狼陣営 1 位表 3 遺伝子の交叉方法 図 2 同一エージェント同士の対戦の試合数と勝率 の個体 (w1),人狼陣営 2 位の個体 (w2), 村人陣営 1 位の個体 (v1),村人陣営 2 位の個体 (v2) の遺伝子をそれぞれに対して表 3 のように,村人としてのスコアの高かった個体から村人側の遺伝子を,人狼としてのスコアが高かった個体から人狼側の遺伝子を遺伝させる形で 11 個体を新しく生成する。共通して発現する遺伝子の v2 or w2 の部分は, v2 か w2 のどちらかをランダムに遺伝させる。 この遺伝・交叉システムを用いて世代を重ね,学習の局所解への早期収束を防ぐため, $N_{g}$ eneration 世代ごとに一度,遺伝・交叉の後に他の村への個体の移住を行った。個体の移住では,それぞれの村について村のエージェントのうちランダムに 7 個体を移住個体として選び,すべての村の移住個体を集めて,ランダムに各村に 7 体ずつ配りなおすという動作を行い,ほかの村のエージェントを交えて次世代の対戦を行うことで個体の多様性の維持を図る。 また,個体の移住とは別の手段での多様性の維持手段として,これらの遺伝・交叉・個体の移住が終了した後で,特定の変異率による突然変異を行う。今回の実験では,新しい世代の全個体に対してそれぞれ変異率 0.01 で遺伝子のうち 1 箇所をランダム 表 4 各世代交叉終了時に最も数の多かった遺伝子の個体 に初期化する突然変異を行った。 ## 4 遺伝的アルゴリズムの設定値 今回の実験における各種設定值について,一部の設定値について妥当な値を調査するため実験を行った. ## 4.1 ゲームルール それぞれの村は 15 人人狼を行い,役職の内訳は占い師 1 ,霊能者 1 ,狩人 1 ,狂人 1 ,人狼 3 ,村人 8 人ずつの 15 人からなる. 他,詳細なルールは人狼 BBS の $\mathrm{G}^{2}$ 国 $^{4}$ における 16 人村(初日の犠牲者がいないため実質同じルールとして働く)を参考にした. ## 4.21 世代あたりの対戦数について 自己対戦において 1 世代の対戦数に必要な対戦数を調査するため,同一エージェント同士の対戦を行った. 同一エージェント同士の対戦では,まったく同じパラメータの組み合わせをもつエージェント同士による対戦を無限回に繰り返すことで理論上エージェントの勝率の分散はどの村でも 0 に収束するという考えのもと,同一エージェント同士の対戦 100 回を 10 セット行い,勝率の分散値の変化を調査した. 図 2 は,まったく同じ遺伝子の組み合わせをもつエージェント同士による対戦を 100 回 10 セットを行ったときの,試合数に対するエージェントの勝率の分散である. 対戦数が 10 対戦付近ではまだ村ごとの分散が大きく,結果がばらけてしまっているが,30 対戦から 50 対戦で分散が小さくなり,そのあと分散は小さくなり続けているものの概ね横ばい  図 3 第 4 世代終了時に最も数の多かった遺伝子の各世代での個体数変化 の値をとっている.この結果より,エージェント同士の勝率がある程度収束し,個体ごとに優秀な個体とそうでない個体を判別するのに対戦数は最低限 30 対戦から 50 対戦は必要となることが考えられる。 そこで,本研究では 1 世代あたりの対戦数 $N_{\text {game }}$ を 50 対戦として設定し実験を行った。 ## 4.3 並列分散 GA の移住までの世代数 並列分散型遺伝的アルゴリズムによる,移住までに必要とされる世代数について最適な世代数を調べるための調査を行った。表 4 は, 1 世代あたりの対戦数を 50 としたとき 12 の村について,各世代後の交叉終了時に最も数が多かった遺伝子の個体名と個体数を示したものである。遺伝子の個体名については,上 1 桁はその個体がどの世代で初めて生成されたものであるかを示しており,下 3 桁はその世代で何番目に生成された個体であるかを示している。 表 4 の結果について, 第 4 世代終了時に最多個体数である個体はほとんどが第 3 世代終了時でも最多個体であり,第 3 世代終了時点で過半数を占めているものが多いため,第 3 世代終了時の時点で交叉によって優秀な遺伝子はほとんど完成している可能性を考え,さらに第 4 世代終了時に個体数が最も多かった個体の各世代終了時の個体数について調査した. 図 3 は, 1 世代あたりの対戦数を 50 としたときの第 4 世代目終了後の交叉終了時に最も数が多かった遺伝子の各世代での個体数の変化を示したものである.この結果より,第 3 世代から第 4 世代にかけて,最多数個体の個体数は増えているものの,第 3 世代までの結果でどの個体がその後最多数となるかについて大勢は決しているものと判断し, 本研究では個体の移住までの世代数 $N_{\text {generation }} 3$ 世代ごとと設定した。 ## 5 まとめ 本稿では,翻意誘導の対象となりえる人狼エー ジェントの構築のため,進化論的アプローチによるエージェント構築に関する設計と,方法の調査を行った. 今後は発話の意味理解や自然言語による発話の生成を含め,実際にエージェントを構築しエー ジェントに対しての翻意誘導を実現する技術の調査を行う予定である。 ## 参考文献 [1]阪本浩太郎, 永山翔滋, 石下円香, 渋木英潔, 森辰則, and 神門典子. 人狼ゲームプラットフォーム licos を用いた欺瞞対話コーパスのためのゲームログの収集. 言語処理学会第 25 回年次大会, 32019. [2]Shoji Nagayama, Jotaro Abe, Kosuke Oya, Kotaro Sakamoto, Hideyuki Shibuki, Tatsunori Mori, and Noriko Kando. Strategies for an autonomous agent playing the "werewolf game" as a stealth werewolf. In Proceedings of the 1st International Workshop of AI Werewolf and Dialog System (AIWolfDial2019), pages 20-24, Tokyo, Japan, October 2019. Association for Computational Linguistics. [3]Robert Axelrod. Genetic Algorithms and Simulated Annealing, chapter The Evolution of Strategies in the Iterated Prisoner's Dilemma, pages 32-41. Morgan Kaufman, Los Altos, CA, 1987. [4]Richard Brunauer, Andreas Löcker, Helmut A. Mayer, Gerhard Mitterlechner, and Hannes Payer. Evolution of iterated prisoner' $\mathrm{s}$ dilemma strategies with different history lengths in static and cultural environments. In Yookun Cho, Roger L. Wainwright, Hisham Haddad, Sung Y. Shin, and Yong Wan Koo, editors, Proceedings of the 22nd Symposium on Applied Computing, pages 720-727. ACM, 2007. [5]Mieko Tanaka-Yamawaki and Taku Murakami. Effect of Reputation on the Formation of Cooperative Network of Prisoners, pages 615-623. Springer Berlin Heidelberg, Berlin, Heidelberg, 2009. [6]系井良太 and 田中美栄子. 進化型繰り返し囚人のジレンマにおける最適戦略の探究. Technical Report 3 , 鳥取大学大学院工学研究科エレクトロニクス専攻, 鳥取大学大学院工学研究科エレクトロニクス専攻, may 2012. [7]鳥居拓馬, 日高昇平, and 真隅暁. 学習あり繰り返し囚人のジレンマにおける協調行動の発生. 人工知能学会全国大会論文集, JSAI2014:4H13-4H13, 2014 [8]狩野芳伸, 大槻恭士, 園田亜斗夢, 中田洋平, 箕輪峻, and 鳥海不二夫. 人狼知能で学ぶ $A I$ プログラミング: 欺䁐・推理・会話で不完全情報ゲームを戦う人工知能の作り方. マイナビ出版, 2017. [9]三木光範, 廣安知之, 畠中一幸, and 吉田純一. 並列分散遺伝的アルゴリズムの有効性. 日本計算工学会論文集, 2000:20000038-20000038, 2000. [10]北野宏明. 遺伝的アルゴリズム. 人工知能学会誌, 7(1):26-37, 1992.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B5-1.pdf
# 関連タスクの予測確率分布を用いる soft-gated BERT による対話印象分類 竹下智章 $\dagger$ 上坦外英剛 \$ 船越孝太郎 } $\dagger$ 東京工業大学工学院 \ #東京工業大学科学技術創成研究院 §産業技術総合研究所 \{takeshita@lr., kamigaito@lr., funakoshi@lr., takamura@, oku@\}pi.titech.ac.jp ## 1 はじめに チャットアプリや SNS における発話内容から対話相手が対話内容に抱く印象を推測することは,状況に応じた適切な応答を選択する上で有用である.対話印象とは,人-チャットボットの対話において, システム (チャットボット) がユーザ (人) とできるだけ長く円滑な対話を続けるための指標である. 本研究における対話印象分類とは,対話文を以下の 2 クラスに分類することを目的とするタスクである. ポジティブ印象ユーザ発話から,ユーザが対話に対し良い印象を持っていると判断される状態ネガティブ印象ユーザ発話から,ユーザが対話に対し悪い印象を持っていると判断される状態対話印象分類のように対話文に対する分類を行うタスクでは,発話内容を表した文のべクトル表現を用いる他に発話内の単語のもつ感情極性 [1] や単語同士の関係性 [2] などの特徴を利用する手法がある. しかし本研究は日本語対話文を対象にしており,このような言語的資源を利用することが難しい. 一方,対話破綻検出は対話印象分類と同じく人チャットボット対話のある文脈において,システムの発話が矛盾している,文脈から唐突である,質問に答えてないなどの対話上の破綻を起こしていることを検出する分類タスクである [3]. 対話破綻検出データセット [4] の対話文に 4.1.1 節で後述する対話印象データセットと同一の基準で対話印象のアノテーションを付した際の内訳を表 1 に示す. 表 1 にあるように,対話破綻検出タスクでは,破綻なし (O), 判断し難い (T), 破綻 (X) の 3 クラス分類を行う. 表 1 から, システムの発言により対話破綻が生じている対話では,ユーザがネガティブな印象を抱いていることが多い傾向にあることが分かる. 本研究において我々は,対話内容に持つ印象にとって対話破綻の影響が大きいと推測し, 対話破綻 } \\ 検出タスクの予測結果を援用した対話印象分類手法を提案する. 我々の手法では,発話内容を表した文のベクトル表現を得るにあたり BERT[5] を用いるが,関連タスクの予想確率分布を用いた soft-gated BERT を新たに提案し分類モデルに利用する. 実験を通して我々は,関連タスクの学習を援用する既存の手法と比較して本手法が対話印象分類において高い分類性能を持つことを示した。 ## 2 関連研究 目的となるタスクの性能を高めるために関連するタスクの学習を援用する手法にはマルチタスク学習や転移学習が存在する. 対話文の分類タスクにおいてはマルチタスク学習が用いられ,関連がある事象についての分類タスク同士でモデルを一部共有する. Mcload ら [6] はユーザ意図分類とスロット抽出とのマルチタスク学習で対話行為分類の精度を向上させた. Cerisara ら [7] は対話感情分類と対話行為分類のマルチタスク学習で相互的に性能を高めようと試みたが,2 つのタスクは事象としての関連はあるものの,これらの分類タスク同士の学習過程全体における関連性が低いためにマルチタスク学習の効果が期待されるほど高くなかったことが示唆されている. 関連するタスク同士で学習を共有することで相互的に補完しあうことを目的としたこれらの手法に対し, 我々が提案する手法は, 関連タスク同士の学習はそれぞれ独立して行われ,一方のタスクの予測結果をもう一方のタスクの学習および予測に用いる 図 1 ベースラインモデルおよび対話破綻検出モデル 図 2 提案手法の全体図. 対話破綻検出の事前学習済みモデル (DBD-model) には印象予測を行うユーザ発話の直前 4 発話が入力されて対話破綻の予測確率分布が出力される. Soft-gated BERT はこの確率分布に応じた強度でそれぞれのクラスに対応したベクトル表現を得る. Soft-gated BERT より上層のレイヤの挙動はベースラインモデルと同一である. という相違点がある. ## 3 提案手法 ## 3.1 ベースとなる手法 本研究で提案するモデルは,杉山による BERT を用いた対話破綻検出モデル [8]をべースとしている.図 1 のように,対話文内の各発話はトークン単位で分割され,発話同士は時系列順に [SEP] トークンで区切られて入力される. BERT を通して出力されたベクトルは発話単位で平均化された後結合される.結合されたべクトルは完全結合層に入力されて最終的な分類の確率分布が出力される. このモデルは対話印象分類のベースライン手法となり,4.1.2 節で後述する比較手法もこのモデルがベースとなる. ## 3.2 Soft-gated モデル 本研究では,ユーザが対話内容に抱く印象にとって対話破綻の影響は大きいという仮定のもと,対話破綻検出の予測結果を対話印象分類に援用する手法 図3 関連タスクの予測確率分布を援用した Soft-gated BERT を提案する。この際に留意しなければならないのは,この 2 つのタスクの関連性である。これについて検討した結果,我々は,対話印象から対話破綻への一方的な依存関係があると仮定した。すなわち,対話破綻が起こっていると対話印象が悪く(=ネガティブ印象) なりやすいが,ユーザの対話印象が悪くなる際に必ずしも対話破綻が起こっているとは限らない。そのため,モデルの学習を共有することで相互的に補完し合うマルチタスク学習や転移学習のような既存の手法では過学習が起こる懸念がある. そこで本研究では,ベースライン手法で用いられ る BERT を図 3 のようなモデルに置き換えることで,対話破綻検出の予測確率分布に応じたべクトル表現を得るモデルを提案する. このモデルは事前学習済の BERT の最上層 (12 層目)を複製し, 3 個のレイヤ (各レイヤは対話破綻検出の各クラスに対応)を用意する. 11 層目から出力されたべクトルは分岐したそれぞれのレイヤに入力され,12 層目の出力はそれぞれ対話破綻の予測確率分布 $\left(p_{O}, p_{T}, p_{X}\right)$ 倍の強度で足し合わされる. 対話破綻検出の確率分布の予測は事前に対話破綻検出を学習したモデル (ベー スラインモデルと同じ物) によって行われる (図 2). このような機構を導入するすることで,対話破綻検出のクラスに対応する分岐レイヤには逆伝播する際の強度の違いによって学習に差異が発生することになる. 通常 BERT 内の multi-head attention がそれぞれ異なる表現を自動的に学習することで柔軟な表現に対応しているが,本手法では先験的に関連タスクに対応したレイヤを用意することで,BERT の学習済み表現を大きく壊すことなく,対話の破綻状態に応じた適応学習が行われることが期待される. ## 4 実験 ## 4.1 実験設定 実験に用いたデータセットおよび比較手法,評価方法について説明する. ## 4.1.1 データセット 対話印象分類データセット本研究で扱う対話印象は,株式会社ホンダ・リサーチ・インスティチュート・ジャパンによる人-チャットボット対話文コーパスにアノテーションを付したデータセット ${ }^{1)}$ の基準に基づく.対話文コーパスはシステム (チャットボット) とユーザ (人) の一対一の対話で構成される.ユーザの各発話には,第三者のアノテー タによるユーザが対話に対し抱く印象のアノテー ションラベルが付され,ポジティブ印象またはネガティブ印象で評価される. 各対話には 10 種類のうちいずれか 1 つのトピックが設定され,システムからそのトピックに対応する話題をユーザに提示 ${ }^{2}$ す }} & \multicolumn{2}{|c|}{} \\ ることで,特定のトピックに関する対話を行う。 対話破綻検出データセット対話破綻検出チャレンジ 1[4],2[9],3[10],4[11] のデータセットを用いる. 対話破綻検出では,対話の状態を 3 クラス $(\mathrm{O}:$破綻なし, T:(破綻しているか) 判断し難い,X:破綻) で分類する. ## 4.1.2 比較手法 提案手法の有効性を示すため,関連タスクの学習を利用する既存の学習手法と比較および考察を行った. ベースライン手法: baseline 対話印象分類デー タセットでのみ学習を行い,対話破綻検出の学習による援用の有効性を検証する.後述する手法では便宜として当モデルを BERT を用いたエンコーダ部および分類器部に分けて呼称する。 転移学習: transfer ベースラインモデルで対話破綻検出を学習した後,エンコーダ部のみを流用したベースラインモデルで対話印象分類の学習を行う。 マルチタスク学習: multi-task ベースラインモデルのエンコーダ部は対話印象分類と対話破綻検出で共有し,分類器部はそれぞれのタスクでのみ学習される。転移学習とは異なり,バッチごとに対話印象分類タスクと対話破綻検出タスクを切り替えて並行して学習を行う。 特徵量の結合: feature-in 提案手法では,対話破綻検出モデルによる予測確率分布に応じた注目情報を得ているが,当比較手法ではこの確率分布を特徴量の 1 つとして,そのまま BERT から出力された後に平均化されたべクトル表現と結合して利用する. ## 4.1.3 実験方法 BERT は Wikipedia 日本語コーパスで事前学習済みの BERT モデル [12]を利用する。対話破綻検出のクラスは本来, $\mathrm{T}:$ 中立 (判断し難い) のラベルを含んだ 3クラス分類であるが,この中立ラベルを X:破綻 1)付録に詳細を記す。 2)例えば,「お土産」のトピックが設定された対話ではシステムが「旅先で職場の同僚向けの土産を購入するか」といった話題をユーザに提供する。 と同一として 2 クラス分類 (O:破綻なし,X: 破綻) とする設定でも同様の方法で実験を行った. この際,提案手法モデルの soft-gated BERT 内の分岐レイヤ数も 2 個になる. 提案手法と feature-in は, 対話破綻検出モデルが独立しているため, これら 2 つの手法についてはこの部分が対話印象分類の学習時に適応学習 (fine-tuning:FT) を行うか否かの比較実験も行った. これは,関連タスク (対話破綻検出) 用に学習されたモデルがより目的のタスク (対話印象分類) に適するように調整されることを期待したためである. それぞれのモデルの学習率は [13] を参考に, 印象分類モデル:破綻検出モデル $=5 e-5: 1 e-6$ とした. ## 4.1.4 評価方法 各モデルの対話印象分類性能の評価は,対話印象データセット内のトピックごとに算出されたマク口 F1 スコアの平均值を比較することで行う. これは各トピックの対話に特有の単語への過学習を防ぐことと,クラス比に偏りのあるデータへの交叉検証を目的としており, 10 個のトピックで分けられた対話文グループのうち, ある 1 つのグループをテストデータとした際,訓練データには残り 9 トピックの対話文グループが利用される. ## 4.2 実験結果 提案手法と比較手法について対話印象分類の精度を比較した結果を表 4 に示す. 対話印象分類学習時に対話破綻検出モデルを適応学習するか否かで比較を行った結果を表 5 に示す. ネガティブ印象クラスの分類についてベースラインと比較してマルチタスク学習では再現率 (Rec.) が上昇するが,適合率 (Pre.) が大きく減少しているために F1 スコアが低下している。これは仮定にもあった通り, 必ずしも破綻しているから印象が悪いとは限らないので, 注目するべき位置を過学習してしまったために適合率が減少したと考えられる. 同様に特徴量の結合手法 (feature-in) では, 適合率が上昇するが再現率が減少しているため F1 スコアが低くなった. 一方で提案手法では適合率を大きく下げずに再現率を上昇させているため,ベースラインより F1 スコアが上昇している. 上述した過学習をしなかったためか, feature-in よりも性能が良い結果となった. また,対話破綻のクラス数は 2 クラスとした方が性表 4 関連タスクの学習を利用する手法との比較 Positive Negative Macro Ave. 表 5 対話破綻検出モデル適応学習の有無による比較 能が良い結果となった. 対話破綻検出モデルに対する適応学習を行った場合は予想に反して,適応学習を行わなかったものよりも全体的にスコアが下がるという結果となった. ## 5 おわりに 本研究では,対話印象にとって対話破綻の影響は大きいという調査に基づいた仮定のもと,対話破綻検出を援用した対話印象分類手法を提案し,既存手法との比較を行った. 転移学習やマルチタスク学習のような,関連タスクの学習を援用する既存の手法では分類性能が下がるのに対して本手法では性能が上昇するという有効性を示し,対話破綻の検出結果を特徵量として用いる手法よりも性能が良いことを示した. また, 本研究において提案した soft-gated BERT は,事前学習済モデルの表現を大きく壊すことなく, 関連タスクの予測確率を援用し目的タスクの予測を補助するという性質上,他のタスクにも適用することが可能と推察される. ## 謝辞 対話印象分類データセットを貸与いただいた株式会社ホンダ・リサーチ・インスティチュート・ジャパンに感謝いたします. ## 参考文献 [1] Justine Zhang, Jonathan P. Chang, and Cristian DanescuNiculescu-Mizil. Conversations gone awry:detecting early signs of conversational failure. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Long Papers), pp. 1350-1361. Association for Computational Linguistics, 2018. [2] Peixiang Zhong, Di Wang, and Chunyan Miao. Knowledge-enriched transformer for emotion detection in textual conversations. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 165-176. Association for Computational Linguistics, 2019. [3] 東中竜一郎, 船越孝太郎, 荒木雅弘, 塚原裕史, 小林優佳, 水上雅博. テキストチャットを用いた雑談対話コーパスの構築と対話破綻の分析. 自然言語処理, Vol. 23, No. 1, 2016. [4] 東中竜一郎, 船越孝太郎, 小林優佳, 稲葉通将. 対話破綻検出チャレンジ. 言語・音声理解と対話処理研究会第 75 回研究会 (第 6 回対話システムシンポジウム), pp. 27-32. 人工知能学会, 2015. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186. Association for Computational Linguistics, 2019. [6] Sarah McLeod, Ivana Kruijff-Korbayova, and Bernd Kiefer. Multi-task learning of system dialogue act selection for supervised pretraining of goal-oriented dialogue policies. In Proceedings of the SIGDial 2019 Conference, pp. 411-417. Association for Computational Linguistics, 2019. [7] Christophe Cerisara, Somayeh Jafaritazehjani, Adedayo Oluokun, and Hoa T. Le. Multi-task dialog act and sentiment recognition on Mastodon. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 745-754, 2018. [8] Hiroaki Sugiyama. Dialogue breakdown detection using BERT with traditional dialogue features. In DBDC4 WOCHAT workshop, 2019. [9] 東中竜一郎, 船越孝太郎, 稲葉通将, 荒瀬由紀, 角森唯子. 対話破綻検出チャレンジ 2. 言語・音声理解と対話処理研究会第 78 回研究会 (第 7 回対話システムシンポジウム), pp. 64-69. 人工知能学会, 2016. [10] 角森唯子, 東中竜一郎, 高橋哲朗, 稲葉通将. 対話破綻検出チャレンジ 3 における対話破綻検出の評価尺度の選定. 人工知能学会論文誌 35 巻 1 号 DSI-G, pp. 1-10. 人工知能学会, 2020. [11] Ryuichiro Higashinaka, Luis F. D'Haro, Abu Shawar Bayan, Rafael Banchs, Kotaro Funakoshi, Michimasa Inaba, Yuiko Tsunomori, Tetsuro Takahashi, and Joao Sedoc. Overview of the Dialogue Breakdown Detection Challenge 4. In DBDC4 WOCHAT workshop, 2019. [12] 柴田知秀, 河原大輔, 黒橋禎夫. BERTによる日本語構文解析の精度向上. 言語処理学会第 25 回年次大会, pp. 205-208. 言語処理学会, 2019. [13] Yang Liu and Mirella Lapata. Text Summarization with Pretrained Encoders. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 3730-3740. Association for Computational Linguistics, 2019. [14] 中島圭祐, 駒谷和範, 中野幹生. 雑談対話システム構築フレームワーク pychat に基づく特定シチュエー ション向け対話システム. 第 87 回人工知能学会言語・音声理解と対話処理研究会 (第 10 回対話システムシンポジウム). 人工知能学会, 2019. [15] Mikio Nakano and Kazunori Komatani. A framework for building closed-domain chat dialogue systems. Knowledge-Based Systems, Vol. 204, p. 106212, 2020. [16] Klaus Krippendorff. Reliability in content analysis. Human Communicatuon Research. ## A 付録 ## A. 1 対話印象分類データセットの詳細 本研究で扱う対話印象は,株式会社ホンダ・リサーチ・インスティチュート・ジャパンによる人-チャットボット対話文コーパスにアノテーションを付したデータセットの基隼に基づく. 対話文コーパスはシステム (チャットボット) とユーザ (人)の一対一の対話で構成される. 本システムは,料理とレストランに関する話題を扱う雑談対話システム [14][15] である. ただし, [15] に記述したバージョンより一つ古いバージョンのシステムでのため,知識べースやルールの数が若干異なる. 対話の参加者はクラウドソーシング会社である株式会社クラウドワークス経由で 105 名を募集した. 参加者は, PC やスマートフォンなどの自分の端末の Web ブラウザから対話サーバーにアクセスし, 14 日間で 8 回のセッションに参加した. 参加者には, 14 日間で 8 回のセッションに参加してもらい, 1 日に 2 回以上は参加しないようにした. 参加者の中には, 8 回以上のセッションに参加した人もいた. また,各セッションで最低 25 回の発話をすることを求めた. 各対話セッションには 10 種類のうちいずれか 1 つのトピックが設定され,システムからそのトピックに対応する話題をユーザに提示することで,特定のトピックに関する対話を行う. 各ユーザの最初のセッションのトピックは「朝食」であった. 残りのセッションでは, セッショントピックをランダムに選択したが,10 回以上セッションに参加しない限り,同じセッショントピックでのチャットは重複して行わなかった. 参加者のうち真剣に対話に取り組んだ 96 名 (女性 48 名, 男性 48 名,年齢 19 50 代) の対話についてアノテーションを行った. 96 人のうち 2 人が 5 回, 4 人が 4 回のセッションを行い,残りの 90 人は 8 回以上のセッションを行ったこととなる. ユーザの各発話には,第三者のアノテータによってユーザが対話に対し抱く印象のアノテーションが行われ,以下の評価基準で 5 段階 (-2:非常に悪い,-1:悪い,0:中立,1:良い,2:非常に良い)のラベルを付した. ・ユーザの発話から,ユーザが対話に対して良い印象を持っており,対話を継続する可能性が高いと推測され,同じ話題について同じように話を続けることができると判断された場合には,正値のスコアをアノテーションする. ・ユーザの発話から,ユーザが対話に対して良い印象も悪い印象も持っておらず,このままでは対話を止める可能性が高いと推測された場合には,0をアノテーションする。 ・ユーザの発言から,ユーザが対話に対して悪い印象を持っていること,対話をやめてしまう可能性が高いことが推測され,話題を変えるか,謝罪する必要があると判断された場合には,負值のスコアをアノテーションする. 本研究では, 正值 $(1,2)$ のラベルを一律に” ポジティブ” クラスとし, 負值 $(-2,-1)$ のラベルを” ネガティブ” クラスとして利用した.また, 0 :中立のラベルは人手でも前述する 2 クラスとの明確な判別が困難なため今回は利用しなかった. 1 人のアノテータが全対話にアノテーションを行った. アノテーションされたスコアの信頼性を調査するために, 16 のセッション (無作為に選ばれた 8 人の参加者に対して,少なくとも 25 回のユーザーターンを含む 2 つのセッションを無作為に選んだ) にもう一人のアノテータがアノテーションを行った. 検証の結果, Krippendorff の $\alpha$ (順序尺度)[16] における 2 人のアノテータ間の一致率は 0.63 であり, 中程度に高い值であった.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B5-2.pdf
# クラウドソーシングで利用可能な日本語対話収集基盤 児玉 貴志 $\dagger$ Frederic Bergeron ${ }^{\dagger}$ 新隼人 $\dagger$ 田中リベカ $\dagger$ 坂田亘 ${ }^{\dagger}$ 黒橋禎夫 $\dagger$ †京都大学 ‡ LINE 株式会社 \{kodama, bergeron, atarashi, tanaka, kuro\}@nlp.ist.i.kyoto-u.ac.jp wataru.sakata@linecorp.com ## 1 はじめに 近年の対話システムの研究では, Twitter や Reddit 等の大規模対話データで事前学習を行い,それぞれのタスクに合わせた小規模対話データセットでファインチューニングを行うという手法が一般的になりつつある.この小規模対話データセットは,小規模と言えど,数万発話程度の規模が必要となるため, クラウドソーシングを利用して集められることが多い. 英語の対話研究では, Facebook が提供する ParlAI ${ }^{1)}$ において,対話を行うワーカをリアルタイムでマッチングし,マッチングしたワーカ間の対話を収集・保存するフレームワーク(対話収集基盤)が公開されており, Amazon Mechanical Turkで対話収集のタスクを容易に実施できる。また,この対話収集基盤によって収集されたデータセットも数多く公開されており $[1,2,3,4]$, 対話研究の発展に大きく寄与している. しかし, Amazon Mechanical Turk の対応言語は英語のみであり, 日本語の対話を収集するのは難しい. 対話データは対話研究の礎である. 対話データの分析を積み重ねることで新たな知見が得られるため,対話デー タ収集の重要度は高い。 そこで,我々はクラウドソーシングで日本語の対話収集を容易に行える対話収集基盤を構築し, 公開し $た^{2)}$. 本対話収集基盤は対話収集用サーバを用意するだけで使用することができる.指定した対話収集用 URL にワーカがアクセスするとぺアのマッチングが行われ,ワーカがリアルタイムで対話するチャットルームの生成,およびそこでの対話の保存までを自動で行うことができる. また, ぺアのマッチングおよびリアルタイム対話の実現という開発コストの高い対話収集システムの基盤部分を提供しており,少量の追加実装のみでタスク実施者が収集したい対話の形式に合わせてカスタマイズすることも可能である. この対話  収集基盤を用いることで,タスク実施者は収集したい対話の形式や内容の検討のみに注力することができる. 一方で,ワーカはURLをクリックするだけで対話収集に参加でき,対話のやりとりのためのアプリケーションやツールをインストールする必要がないため,ワーカ側の負担も少ないツールとなっている。また,特定のクラウドソーシングサービスに依存しておらず,汎用的に利用できる。 本稿では,公開した日本語対話収集基盤を利用した対話収集の流れを説明し,この対話収集基盤を実際に利用したクラウドソーシングでの対話収集事例を報告する。 ## 2 関連研究 クラウドソーシングを用いた日本語の対話収集はこれまでにも取り組まれてきたが,「どのようにワーカ同士のマッチングを行うか」「どのように対話のやり取りを行う環境を提供するか」の2つが大きな課題とされてきた. これらの課題に対して,2 者間の対話を,与えられた対話履歷に対する次の発話を作成するタスクに分解することで,複数の異なるワーカによって 1 つの対話データを作成する研究がある [5, 6]. 不特定多数のワーカが並行して作業を進められるため所要時間の削減等のメリットがある一方で,あくまで疑似対話デー タであるため通常の対話とは違った性質を持っていると考えられる。 また,複数のアプリケーションやツールを組み合わせることで対話を収集するアプローチもある.塚原・内海 [7] はクラウドソーシングサイトで集めたワーカに Slack ${ }^{3)}$ のチャンネルのアクセス用 URLをメールすることでワーカのマッチングを行い,対話を収集している. 東中ら [8] は誰でも編集可能な Google Drive のスプレッドシートを用い,各ワーカに Skype の ID と対話可能な時間を記入してもらうことでマッチング及 3) https://slack.com 図 1 クラウドソーシングを利用した対話収集の流れ び対話収集を実現している。ただ,こうした複数のツールを使う手法ではワーカ側にはアカウント作成やツールのインストールの手間が,タスク実施者側には複数のツールを管理する手間がかかり,負担が大きいと考えられる。 本稿で提案する対話収集基盤では,実際にワーカ 2 人がリアルタイムで対話をするため,疑似ではない通常の対話を収集できることに加え,ワーカのマッチング・対話・データ保存までを 1 つのツールで行えるため,ワーカとタスク実施者両者の負担が少ない. ## 3 対話収集の流れ まず下準備として対話収集基盤の雛形から対話収集サイトを作成する,ワーカ同士が雑談をするという最も基本的な対話収集の設定の場合は設定ファイルを編集するだけで作成することができる.設定ファイルには対話データの保存場所, 各ワーカの最低発話数, マッチングルームでの最大待機時間(後述)などの項目があり,容易に変更ができる.またチャットルームの HTML ファイルを変更すれば,タスク実施者が収集したい対話の形式に合わせてカスタマイズすることも可能である. 次にクラウドソーシングタスクを設計する ${ }^{4)}$. クラウドソーシングタスクには作成した対話収集サイトの URLを掲載しておくのに加え,チャットルーム ID (詳細は後述)の入力欄を準備しておく. ワーカを集 4) 本稿では Yahoo!クラウドソーシングを使用した める目的でのみクラウドソーシングを利用するため,非常に簡潔なタスク設計となっており,一般的なクラウドソーシングサービスにも適用できる。 続いて実際の対話収集の説明に入る。図 1 にクラウドソーシングを利用した対話収集の流れを示す. 対話収集のためのワーカはクラウドソーシングサイトを通じて集める (1))、タスク参加するワーカ(ワーカ $\mathrm{X} \mathrm{~ ワ ー カ ~ Y ) はタスクに掲載されている対話収集サ ~}$ イトの URLをクリックし,マッチングルームに入る. マッチングルームには最大で 1 人が待機している. まだ待機しているワーカがいなければ, ペアとなるワー カが来るまでマッチングルームで待機する (2). 対話収集サイト作成時に最大待機時間を設定することができる. 最大待機時間を過ぎた場合は「現在,他のユーザーがいません.後でもう一度試して下さい.」 というメッセージが表示され,マッチングルームから自動でワーカを退出させる。こうすることで不必要にワーカを長時間待機させない仕組みとなっている.我々の予備実験では最大待機時間を 120 秒に設定しているが,参加者が少ない時間帯などにタスクを実施する場合は調整が必要である. 一方, マッチングルームに既にワーカが 1 人待機していた場合はマッチングルームに 2 人のワーカが揃い,マッチング成功となる (3). マッチングが成功したワーカペアは自動的にチャットルームに移され,そのチャットルーム内で対話を行う (4).チャットルームのスクリーンショットを図 2 に示す. 対話にはターン制を採用し,1 人のワーカが 船了 A:はじめまして B:こんにちは。 A: こんにちは、今回はよろしくお願いしますささっそか? B: 料理や音楽がしゅみです。 $\mathrm{A}$ : どちらも素敵なご趣味ですね私はこういう時期ですので、最近は自炊が多くなりましたが料理はまだ苦手です $\mathrm{W}$ あなたは料理は何年くらいしてらっしゃるのですか? B: もう 20 年以上やってますね一 $\mathrm{A}:$ すごいですねー 失礼ですが、レパートリーはどの くらい・? B: う〜ん色々作ってますが朝はパスタにしました、パスタ手間かからないので楽ですよ。 A:私もパスタはときどき作って食べますソースはレトルトなんですけど・・W B: パスタはいいですよ〜いろんな種類買いすぎて今家に40キロぐらいあります... A: すごいですねW パスタは保存も効くからいいですよね! 得意な料理のジャンルはございますか? B: コロナで家にいるので保存食用に箱買してしまいました、得意は煮込み系でしょうか。 A: 煮込みは良いですね、ごはんにもお酒の看にもコ吕ナのためにやはりご自宅での炊事は増えましたか? B: 増えましたね〜 A: そうですよね私も仕方なく自炊するようになりましたし・・W B: そうですよね、慣れると簡単ですよ! 学生さんですか? A:いいえ、社会人です $\mathrm{W}$ 今までほとんど自炊は母に任せてましたので・.・それでは今回はありがとうございました B: 実家いいですね〜ありがとうございました! 図 3 趣味雑談対話の例. Aが聞き手,Bが話し手を指す. ## 4.1 趣味雑談対話 まず,趣味についての雑談対話を収集した例について紹介する. 図 3 にその対話例を示す. 各ワーカの最低発話数は 8 に設定した.この趣味雑談対話収集では概ね対話収集基盤をそのまま使用しているが,ワーカそれぞれに追加で役割を割り当てている。具体的には, 片方のワーカに趣味の「話し手」,もう片方のワー カに趣味の「聞き手」の役割をランダムに割り当てて対話をしてもらった. 図3の例では Aが聞き手,Bが話し手である.「聞き手」のワーカは自身の行動などの発話は行わず,相手のワーカの趣味を聞き出すようにインストラクションされている。この役割はマッチングルームに入ってきた順番を利用して割り当てており,対話収集基盤の雛形をベースに,役割やインストラクションの表示部分のみを追加で実装するだけで実例を 2 つ紹介する. 図 4 映画推薦対話の例 現することができる.このように,本稿で提案する対話収集基盤を用いることでワーカの役割が異なる形式の対話についても容易に収集することができる.この対話収集では,ワーカがタスクに 1 度しか参加できない設定で,50 対話を収集するのに平均約 4 時間程度かかった. ## 4.2 映画推薦対話 次に映画についての推薦対話 [10] の収集例を紹介する.この対話も趣味雑談対話と同様にワーカの役割が異なり, 図 4 の例に示すように映画を勧める推薦者 A と映画を勧められる被推薦者 B に分かれて対話を行う. 収集方法は Wizard of Wikipedia [2] と近い設定で,推薦者側は提示された外部知識を参照しながら対話を進めていく.この対話収集の際に使用したサイトも推薦者にのみ外部知識を提示する部分, 及び推薦者が外部知識にチェックを入れてから発話を送信する機構のみを追加で実装した。 図 5 に映画推薦対話 200 対話を収集するのにかかった時間と各時点での累計の対話数の関係を示す. 対話収集タスクは 2020 年 12 月 29 日の午前 11 時より開始し, 同じワーカが 10 回までタスクに参加できる設定とした. また, 各ワーカの最低発話数は 10 に設定した. 図よりタスク開始後,約 3 時間で 100 対話,約 10 時間で 200 対話の収集が完了している. 合計 20 発話以上の比較的長めの対話を非常に高速かつ大量に収集できていると言える. また,マッチングルームでの待機時間の間に相手とマッチングできた割合は $59 \%$ となっており,クラウドソーシングを利用したリアルタイムでのマッチングが実用レベルで成功していることが確認できた. 図 5 対話収集にかかった時間 ## 5 おわりに 本稿では日本語の対話収集を容易に行える対話収集基盤を構築した。提案する対話収集基盤を用いることでワーカ間の対話収集をリアルタイムで行えるシステムを少ない負担で構築することができる。また,実際の収集例を通して,本対話収集基盤によって高速かつ大量に対話を収集できることを示し,タスク実施者の用途に合わせてカスタマイズできる拡張性の高さについても紹介した. この研究により対話データ収集の研究が増え, 今後の日本語対話研究がさらなる発展を遂げることを期待している. ## 謝辞 この研究は国立情報学研究所 (NII) CRIS と LINE 株式会社とが推進する NII CRIS 共同研究の助成を受けて行った. ## 参考文献 [1] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2204-2213, 2018. [2] Emily Dinan, Stephen Roller, Kurt Shuster, Angela Fan, Michael Auli, and Jason Weston. Wizard of Wikipedia: Knowledge-powered conversational agents. In Proceedings of the International Conference on Learning Representations (ICLR), 2019. [3] Hannah Rashkin, Eric Michael Smith, Margaret Li, and Y-Lan Boureau. Towards empathetic open-domain conversation models: A new benchmark and dataset. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5370-5381, 2019. [4] Eric Michael Smith, Mary Williamson, Kurt Shuster, Jason Weston, and Y-Lan Boureau. Can you put it all together: Evaluating conversational agents' ability to blend skills. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2021-2030, 2020. [5] Tetsuro Takahashi and Hikaru Yokono. Two persons dialogue corpus made by multiple crowd-workers. In Proceedings of International Workshop on Spoken Dialogue Systems Technology, 2017. [6] 池田和史, 帆足啓一郎. クラウドソーシングを利用した非同期チャットによる対話シナリオ収集方式の提案. 人工知能学会全国大会論文集第 32 回全国大会, 2018 . [7] 塚原裕史, 内海慶. オープンプラットフォームとクラウドソーシングを活用した対話コーパス構築方法. 言語処理学会第 21 回年次大会, pp. 147-150, 2015. [8] 東中竜一郎, 稲葉通将, 水上雅博. Python でつくる対話システム. オーム社, 2020. [9] Jiwei Li, Michel Galley, Chris Brockett, Georgios Spithourakis, Jianfeng Gao, and Bill Dolan. A persona-based neural conversation model. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 994-1003, 2016. [10] 児玉貴志, 田中リベカ, 黒橋禎夫. 外部知識に基づく発話生成に向けた日本語映画推薦対話データセットの構築. 言語処理学会第 27 回年次大会, 2021.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B5-3.pdf
# 外部知識に基づく発話生成に向けた 日本語映画推薦対話データセットの構築 児玉 貴志† 田中リベカ† 黒橋禎夫 † $\dagger$ 京都大学 $¥$ 科学技術振興機構 CREST \{kodama, tanaka, kuro\}@nlp.ist.i.kyoto-u.ac.jp ## 1 はじめに 人と自然に話すことができる対話システムは人工知能の究極の目標の一つと言われている. 対話はタスク指向型対話 [1] と非タスク指向型対話(雑談対話)[2]に大別される [3]が,その両者において,対話外の知識(外部知識)を必要とする場合がほとんどであり [4],その理解・活用は重要視されている. そうした背景もあり,外部知識を利用した発話生成の研究は近年注目を集めており,ベンチマークとなるデータセットも数多く提案されている [5,6,2,4,7]. しかしこれらのデータセットは英語または中国語での対話であり,外部知識に基づく発話生成を目的とした日本語対話データセットは存在しない。 また,外部知識に基づいた,英語の対話データセットである Wizard of Wikipedia [2] を日本語に翻訳して活用を試みた研究もあるが,翻訳の誤りによるエラー伝搬が起きると考えられるのに加え,日本人の対話に出てこない話題があることが報告されており [8], 対話における言語間の壁は大きい. そこで本研究では,外部知識に基づく発話生成を目的とした日本語映画推薦対話データセットを構築した.この対話データセットはクラウドワーカーによって作成され,約 2,500 対話からなる. 図 1 に示すように, 1 人の話者が映画の推薦者,もう 1 人の話者が被推薦者となり,推薦者が被推薦者に 1 つの映画を勧める設定である。推薦者だけが映画についての知識(=外部知識)を参照することができ,推薦者はこの外部知識をできるだけ使用して発話をする.発話を行う際には,推薦者自ら,使用した知識を選んでアノテーションを行う。この手続きにより,対話中の推薦者側の発話すべてに,その発話の構成に使用された外部知識を紐付けることができる。また,外部知識である映画についての知識として, タイトル, 製作年度などの構造化された知識に加え,あらすじやレビューといった構造化されていないテキストも用意することで,様々なタイプの外部知識を活用することを目的としたデータセットになっている. 本稿では,外部知識の収集方法とその知識に基づいた対話の収集方法を説明したのち,構築した映画推薦対話データセットを利用して訓練したベースラインモデルについて報告する. ## 2 映画推薦対話データセットの構築 対話のドメインには万人が興味を持ちやすく対話が円滑に進みやすいテーマであると考えられることから映画を選んだ。本節では映画推薦対話データセットの構築手法について説明する。 ## 2.1 外部知識の収集 外部知識である映画情報は Wikipedia などのウェブテキストを中心に収集する。まず,過去の興行収入ランキング1)を参考に 242 本の映画を選定した. この各映画に対して外部知識となる映画情報を収集する. 外部知識は図 1 にも示すように基本情報,レビュー,あらすじからなる.このうち,基本情報の大部分(タイトル,製作年度,監督名前,キャスト 1 名前,キャスト 2 名前)及びあらすじは各映画の Wikipedia 記事から取得する(監督は最大 1 名,キャストは最大 2 名まで)。また監督説明,キャスト1説明,キャスト 2 説明はそれぞれの人物の Wikipedia 記事の第一段落から取得する. ジャンルについては Yahoo!映画 ${ }^{2)}$ のジャンル分けを使用する.レビュー はクラウドソーシングで収集する(Yahoo!クラウドソーシング3)を利用),各ワーカは全 242 本からなる映画リストの中から自分が観たことがある映画を  図 1 構築した映画推薦対話データセットの例. 外部知識中の下線部は対話で使用されている知識であることを示す. 選び,その映画の「おすすめポイント」を 3 点に分けて文章で記入する.結果として 1 映画あたり平均 16.5 件のレビューを収集した。 推薦者に提示する知識が多くなりすぎないようにするため,あらすじは冒頭の 10 文のみ(10 文に満たない場合は全ての文) を文分割して提示する.レビューはワーカが記入したレビューを文分割等は行わずにそのまま使用する.収集したレビューの中から 15 文字以上 80 文字未満のレビューを各映画につき 5 つずつランダムに選び,その 5 つをその映画のレビューとして常に使用する. ## 2.2 クラウドソーシングによる対話収集 ## 2.2.1 設定 2 人のワーカは役割が異なり,片方は映画の推薦者,もう片方は被推薦者として対話を行う. 推薦者被推薦者が映画を見たくなるように映画を勧める.推薦する映画は映画リストの中から推薦者側が自由に決められる。この際,自分が勧めたい映画を選んでも,相手の好みを対話で聞き出しながらその好みにあった映画を選んでも構わない. 推薦者は提示された知識をできる限り使用して映画を推薦し,発話を送信する際にはその発話の構成に使用した知識のチェックボックスにチェックを入れてから送信する(複数選択可). また,挨拶や相槌など知識を使用しない発話の場合は別途用意してある 「知識なし」の選択肢を選ぶことができる。 被推薦者 Wizard of Wikipedia [2] の指示と同様に 「より楽しく,勧められる映画のことを知ろうと心がけて下さい」とだけ指示されている.対話は以下の流れで行われる。 1. 推薦者・被推薦者のどちらから対話を始めてもよい. 2. 推薦者が推薦する映画を決める.映画が決まると,推薦者側の画面にはその映画についての知識が表示される。一方,被推薦者側の画面にはチャット画面のみが表示され,映画についての知識は表示されない。 3. 推薦者は提示された知識の中から選んだ知識に基づいた発話を行い,被推薦者は推薦者の発話に対して自由に返答する。 4. 対話は映画が決定されてから最低 20 ターン続ける. 20 ターンを超えると対話を終了することができる. ## 2.2.2 対話収集システムの構築 対話収集システムは,児玉らの対話収集基盤 [9] をべースとして構築する. この対話収集基盤では指定した対話収集用 URL にワーカがアクセスするとペアのマッチングが行われ,ワーカがリアルタイムで対話するチャットルームの生成,およびそこでの対話の保存までを自動で行うことができる.本研究で使用する対話収集システムでは,ペアとなったワーカ 2 人にそれぞれ推薦者,被推薦者の役割を与え,推薦者のみ対話中に外部知識を参照できるような機構のみを追加で実装した。付録 A. 1 に対話収集システムのインターフェースを示す. ## 2.2.3 収集結果 上述の設定,収集システムを利用して対話収集を行った. 統計情報を表 1 に示す. 全部で 2,565 対話 表 1 映画推薦対話データセットの統計情報. 単語分割には Juman++ [10]を使用. 図 2 使用された外部知識の分布. キャスト 1 名前とキャスト $2_{2}$ 名前は「キャスト名」に,キャスト 1 説明とキャスト2説明は「キャスト説明」に集約して表示. を収集した。推薦者側の 1 発話あたりの平均単語数は被推薦者側の 2 倍以上になっているが,これは推薦者側が映画を推薦するために,情報を提供するなどより多くのことを話す必要があるためと考えられる. また, 1 発話につき知識を複数選択することも許容していたが,平均では 1.3 個となっており,各知識ごとに発話を分けて言及している傾向が見られた. 1 対話あたりでは 9.1 個の異なる知識が使用されており,様々なタイプの外部知識が使用された対話が収集できていることが分かる. 図 2 に使用された外部知識のタイプ別の分布を示す。知識を使用していない発話は全体の約 2 割ほどに留まっており,多くの発話で何らかの外部知識が使用されている.また,レビューやあらすじといった構造化されていないテキストの使用頻度が高い傾向にあった. さらに,今回収集した対話の一部(834 対話)については対話終了後に以下に示す 5 段階評価のアンケート(5 が最高評価, 1 が最低評価)を実施した. Q1:映画が好きである Q2: 対話を楽しめた Q3: 推薦した(された)映画を知っているか Q4: 上手く映画を推薦できた Q5: 推薦された映画を見たくなった Q1,Q2,Q4,Q5 の選択肢は[そう思う/ややそう思う/どちらとも言えない/ややそう思わないそう思わない],Q3 の選択肢は [観たことがあり,内容をよ表 2 アンケート結果 く覚えている/観たことがあり,内容を少し覚えている/観たことはないが,あらすじぐらいは知っている観たことはないが,タイトルだけ知っている/全く知らない] である. 推薦者は Q1,Q2,Q3,Q4 の 4 問に,被推薦者は Q1,Q2,Q3,Q5 の 4 問に回答する. アンケート結果を表 2 に示す. Q1 より多くのワーカが映画というテーマに対して高い興味を持っていることが,Q2より最低 20 ターンという比較的長めの対話ながら,推薦者・被推薦者ともに対話を楽しんでいることが分かった. また, Q3 より推薦者は自分が観たことがある映画を推薦する映画として選ぶ傾向が見られた. 最後に $\mathrm{Q} 4 , \mathrm{Q} 5$ より,収集した対話が映画推薦の目的を十分に達成していることを確認できた。 ## 3 実験 構築した映画推薦対話データセットでベースラインモデルを訓練した. 本節ではベースラインモデルの外部知識の使用の有無による出力の違いを評価する。 ## 3.1 モデル ベースラインモデルには, Wizard of Wikipedia の論文でベースラインとして提案された生成べースのモデルである, Generative End-to-End Transformer Memory Network [2] を用いる。このモデルは,対話履歴と外部知識の候補文を別々にエンコードし,対話履歴と各外部知識の候補のアテンションを計算して使用する外部知識を選択する。そして対話履歷と選んだ知識を連結してデコーダに渡すことで返答を生成する. このモデルの実装は ParlAI ${ }^{4}$ で公開されているが,本研究では我々で再実装したものを用いる. ## 3.2 実験設定 データセットは学習データ:開発データ:テストデータ $=90 \%: 5 \%: 5 \%$ の割合で分割する. 対話および外部知識は全て Juman++ [10]を使用して形態 4) https://github.com/facebookresearch/ParlAI 表 3 生成した応答に対する自動評価 素に分割し,BPE [11]を適用する ${ }^{5)}$.モデルのハイパーパラメータは基本的に Dinan ら [2] の設定に従っているが,語彙数のみ 10,000 に変更した. 対話履歴はその対話中の全ての過去の発話を新しい方から順に最大 64 トークンまで入力する.外部知識の候補はその対話中で推薦している映画についての知識全てとし,「知識なし」も候補に含める.この候補数は各映画によって差があるが,平均 24.9 個であった. Generative End-to-End Transformer Memory Network では使用する知識を 1 つだけ選んでいる。 これに合わせ,知識が複数アノテーションされている発話については以下の式で表されるトークン重なり率を計算し, 值が最も高い知識 1 つのみを正解の知識として用いる. $ \text { トークン重なり率 }=\frac{\text { 発話と当該知識の共通トークン数 }}{\text { 当該知識のトーク数 }} $ 外部知識の各候補は, 「知識ラベル $<$ KNOWLEDGE>知識内容」の形式でモデルに入力する (<KNOWLEDGE>は特殊トークン). 知識ラベルはその知識の種類を表したもので,監督名前・監督説明は「監督」,キャスト1名前・キャスト1説明・ キャスト 2 名前・キャスト 2 説明は「キャスト」とし, タイトル・製作年度・ジャンル・レビュー・あらすじについてはそのまま使用する(ただし,トークナイズは行う),例えば,図 1 の例の製作年度の場合,「製作年度 <KNOWLEDGE> 1990 年 6 月 23 日」 となる.「知識なし」の場合は知識ラベル,知識内容の部分をともに特殊トークン<NO_KNOWLEDGE> に置き換えたものを入力とする。 ## 3.3 結果 知識予測の正解率は $28.2 \%$ であり,ランダムベー 表 3 に生成した応答の自動評価の結果を示す.「知識なし応答」は生成時に使用された知識が「知識なし」だった応答,「知識あり応答」は「知識なし」以外の具体的な外部知識を使用して生成された応答である.また,「(予測知識)」はモデルが選択し た知識を「(正解知識 $)\rfloor$ は正解の知識を使用して生成した結果である。評価には unigram F1 (F1) [2], BLEU-1/2/3/4 [12]を使用した. 予測知識と正解知識のどちらを使用した場合でも「知識あり応答」の方が「知識なし応答」の場合を全ての評価指標で大きく上回っており,具体的な外部知識を使用した発話では,より実際の発話と近い発話ができていることが分かる. 実際「製作年度」を知識として使用した時には「製作年度は 2008 年です」といった発話が生成されるなど,使用した知識を発話に反映できているケースが多かった。一方で「監督名前」が「ピエール・コフィン」である知識を与えたときに「監督は、ジェームズ・キャメロンです。」というような知識とは異なる発話が生成されるケースも散見された。 一方,「知識なし応答」はその殆どが「こんにちは」などのつまらない応答になっていた。これは学習データ数の不足が主な原因として考えられる。 ## 4 おわりに 本研究では,外部知識に基づく発話生成を目的とした日本語映画推薦対話データセットを構築した.本研究は我々の知る限り, 外部知識に基づいた日本語対話データセットを構築した初めての研究であり, 日本語による,外部知識に基づく発話生成の研究に取り組むための足がかりとなることが期待される. 今後はデータセットの公開に向けて準備を進めるとともに,事前学習モデルを導入し,ベースラインモデルの精度向上に努める予定である. ## 謝辞 この研究は国立情報学研究所 (NII) CRIS と LINE 株式会社とが推進する NII CRIS 共同研究の助成及び科学技術振興機構 CREST「知識と推論に基づいて言語で説明できる AI システム」の支援のもとで行われた。  ## 参考文献 [1] Antoine Bordes, Y-Lan Boureau, and Jason Weston. Learning end-to-end goal-oriented dialog. arXiv preprint arXiv:1605.07683, 2016. [2] Emily Dinan, Stephen Roller, Kurt Shuster, Angela Fan, Michael Auli, and Jason Weston. Wizard of Wikipedia: Knowledge-powered conversational agents. In International Conference on Learning Representations, 2019. [3] 中野幹生, 駒谷和範, 船越孝太郎. 対話システム. 自然言語処理シリーズ. コロナ社, 2015. [4] Wenquan Wu, Zhen Guo, Xiangyang Zhou, Hua Wu, Xiyuan Zhang, Rongzhong Lian, and Haifeng Wang. Proactive human-machine conversation with explicit conversation goal. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3794-3804, 2019. [5] Kangyan Zhou, Shrimai Prabhumoye, and Alan W Black. A dataset for document grounded conversations. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 708-713, 2018. [6] Nikita Moghe, Siddhartha Arora, Suman Banerjee, and Mitesh M. Khapra. Towards exploiting background knowledge for building conversation systems. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2322-2332, 2018. [7] Hao Zhou, Chujie Zheng, Kaili Huang, Minlie Huang, and Xiaoyan Zhu. KdConv: A Chinese multi-domain dialogue dataset towards multi-turn knowledge-driven conversation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7098-7108, 2020. [8] 杉山弘晃, 成松宏美, 水上雅博, 有本庸浩, 千葉祐弥,目黒豊美, 中嶋秀治. Transformer encoder-decoder モデルによる趣味雑談システムの構築. SIG-SLUD, No. 02, pp. 104-109, 2020 [9] 児玉貴志, Frederic Bergeron, 新隼人, 田中リベカ, 坂田亘, 黒橋禎夫. クラウドソーシングで利用可能な日本語対話収集基盤. 言語処理学会第 27 回年次大会, 2021. [10] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Design and structure of the Juman++ morphological analyzer toolkit. Journal of Natural Language Processing, Vol. 27, No. 1, pp. 89-132, 2020. [11] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, 2016. [12] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002. ## A 付録 ## A. 1 対話収集システムのインターフェース 図 3,4 にそれぞれ映画決定前後の推薦者側のチャットルームのスクリーンショットを示す. 映画決定前は画面左部に映画を決定するための簡単な検索機能が表示されており,推薦者はこの検索機能を利用して映画を決定する。映画決定後は画面左部に決定した映画についての知識が表示される.発話を送信するときには各知識の先頭にあるチェックボックスにチェックを入れてから送信する。なお,被推薦者側の画面には推薦者側の画面左部は表示されず,画面右部のチャット画面のみ表示される.  図 3 映画決定前のチャットルームのスクリーンショット(推薦者側) 図 4 映画決定後のチャットルームのスクリーンショット(推薦者側)
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B5-4.pdf
# 潜在変数の投機的サンプリングに基づく多様な雑談応答生成 佐藤 翔悦 *1 *1 東京大学大学院 情報理工学系研究科 } 喜連川優 $* 2,3$ *2 東京大学 生産技術研究所 *3 国立情報学研究所 } \{shoetsu, kitsure\}@tkl.iis.u-tokyo.ac.jp ## 1 はじめに 会話データからの学習に基づく対話モデルは人手によるパターンの作り込みを必要とせず,比較的低コストで対話システムの構築が可能であるという点から,近年の対話応答タスクにおける主流なアプローチである。しかしそうした対話モデルでは,発話のオウム返しや典型的なパターン(例: “私もそう思います”) など,“safe response”と呼ばれる応答が頻出し,多様性の低さが問題となっている $[1,2,3]$. その原因の一つに,対話データとモデルの性質の乘離がある.多くの場合,対話においてある発話に対する適切な応答は一意ではない。一方で,近年の応答生成において標準的に用いられる Encoder-Decoder モデルでは,対話タスクを発話から応答への一対一の写像とみなして解くため, 対話データに対するモデルの最適化は困難なものとなる. 結果, 学習データ中で頻出する単語やパターンを単純に模倣することが目的関数を最適化するための有効な手段となり, safe response が頻出する. この問題に対し,条件付き変分オートエンコーダ (Conditioned Variational Autoencoder, CVAE) に基づく対話モデルは有望な手法の一つである $[4,5]$. 対話タスクにおける CVAE は,発話・応答から推定した事前・事後分布よりサンプルした潜在変数を用いて応答の生成を行う,そのため,潜在変数の違いによって同じ発話に対し複数の応答が成立する,対話データの多対多性を考慮した手法である。 しかしながら,こうしたモデルを用いたとしても期待通りの効果が発揮されず,応答の多様性について依然大きな改善が得られない場合がある [6]. 本研究ではその一因が学習時に用いる潜在変数のサンプリングにあると考え,投機的サンプリングという極めてシンプルな提案手法によりその解決を図る.具体的には学習時に複数の潜在変数をサンプルし, それぞれについて損失を計算し,最も損失が小さい潜在変数を最適化に用いる. 実験では,Twitter から収集した対話データを用いた応答生成により提案手法を評価する。生成された応答に対して自動評価および人手評価を行い,提案手法の有効性を確認した。 ## 2 提案手法 ## 2.1 事前知識: T-CVAE 提案手法の説明の前に,本研究におけるべー スラインとして採用した, Transformer-based CVAE (T-CVAE) [7] の概要を述べる。T-CVAE は Variational Hierarchical Recurrent Encoder-Decoder (VHRED) [8] などのモデルと同様,CVAE に基づくモデルである.従来のモデルがエンコーダおよびデコーダとして再帰型ニューラルネットワークを用いていたのに対し, T-CVAE は Transformer [9] を採用している。 対話タスクにおいてある発話 $x$ および応答 $y$ が与えられた際,T-CVAE は発話から事前分布 $p(z \mid x) \sim N\left(\mu, \sigma^{2} \mathrm{I}\right)$ を,発話と応答から事後分布 $q(z \mid x, y) \sim N\left(\mu, \sigma^{2} \mathrm{I}\right)$ を推定する. その後, 分布からサンプルした潜在変数 $z$ を用いて生成を行う.具体的な分布の推定としては発話・応答をエンコードしたべクトルによって,以下のように分布の平均 $\mu$,偏差 $\sigma$ を計算する。 $ \begin{aligned} h_{p} & =\operatorname{Attn}_{p}\left(c, E_{\text {out }}^{L}(x), E_{\text {out }}^{L}(x)\right) \\ {\left[\begin{array}{c} \mu_{p} \\ \log \left(\sigma_{p}^{2}\right) \end{array}\right] } & =\operatorname{MLP}_{p}\left(h_{p}\right) \\ h_{q} & =\operatorname{Attr}_{q}\left(c, E_{\text {out }}^{L}(x ; y), E_{\text {out }}^{L}(x ; y)\right) \\ {\left[\begin{array}{c} \mu_{q} \\ \log \left(\sigma_{q}^{2}\right) \end{array}\right] } & =\operatorname{MLP}_{q}\left(h_{q}\right) \end{aligned} $ $\operatorname{Attn}(\cdot)$, MLP* (.) はそれぞれ注意機構 $[10]$, 多層パーセプトロンによる演算を示す. $c$ は注意機構のクエリとなるべクトルであり, タスクを通して学習される。 $E_{\text {out }}^{L}(\cdot)$ はエンコーダの最終層である. 訓練時は, 以下の式で示される Evidence Lower Bound (ELBO) を最大化することによって,モデルの最適化を行う. $D_{K L}$ は分布間の Kullback-Leibler divergence (KL divergence)を意味する。 $ \begin{aligned} \log p(y \mid x) & =\log \int_{z} p(y \mid x, z) p(z \mid x) d z \\ & \geq \mathbb{E}_{q(z \mid x, y)}[\log p(y \mid x, z)] \\ & -D_{K L}(q(z \mid x, y) \| p(z \mid x)) \end{aligned} $ この最適化により, 発話・応答の両方から推定した事後分布と発話のみから推定した事前分布は近づく. その結果, テスト時においても, 発話から適切な事前分布を推定した上で応答生成が可能となる. ## 2.2 潜在変数の投機的サンプリング 1 節で述べたように,CVAEに基づく対話モデルを用いたとしても,多様性の高い応答が得られない場合がある. そうした状況においては,モデルは注意機構などによって計算されるべクトルのみに頼り, 多様な応答を生み出すために導入された潜在変数 $z$ を無視して生成を行ってしまう。結果,潜在変数の応答への影響を考慮せずに事前・事後分布間の KL divergence について過度な最適化が行われることから,この問題は KL vanishing と呼称される. 我々は KL vanishing の一因は,分布からサンプリングされた潜在変数と与えられた訓練例の不一致にあると考えた. 学習過程の初期においては推定された分布の質は低く,与えられた応答を生成するにあたり,サンプルされた潜在変数が必ずしも適切ではない場合がある [11]. 加えて,我々は十分訓練が進んだ後もこの問題は発生すると考える. 事前分布と事後分布は KL-divergence の最適化によって互いに近くなる. そのため訓練例として与えられた応答とは異なる応答に対応した,ある時点のモデルにとって訓練時にサンプルすべきではない潜在変数を選んでしまう可能性が存在する. いずれの場合も,その時点のモデルにおける潜在変数空間にそぐわない最適化が行われ,学習を困難にする。 そこで本研究ではこの問題を解決するため,潜在変数の投機的サンプリング (Speculative sampling)を提案する. 提案手法は学習時にのみ潜在変数を $K$ 個サンプルし,そのそれぞれについて損失を計算した後, 最も小さな損失に繋がる潜在変数のみを最適化の対象とする.具体的には,以下の式における $L(\hat{z})$ を最小化する。 $ \begin{aligned} L(z) & =-\mathbb{E}_{q(z \mid x, y)}[\log p(y \mid x, z)] \\ & +D_{K L}(q(z \mid x, y) \| p(z \mid x)) \\ \hat{z} & =\underset{z_{k}}{\operatorname{argmin}} L\left(z_{k}\right) \end{aligned} $ ## 3 実験設定 ## 3.1 モデル 本研究では,T-CVAE [7] を基本となる対話モデルとする. 各手法はすべて fairseq (v0.8.0) [12] 上に自ら実装を行った。主要なハイパーパラメータは Transformer-base [9] に倣い,最大 250,000 ステップ訓練を行った. 学習の安定のため, 事前学習した CBoW [13] ベクトルによってモデルの埋め込み層の初期化を行った。 実験では T-CVAE および,以下の手法を T-CVAE に対して適用したモデルを比較する。 Monotonic annealing [14]: 式 (5) における第二項, KL divergence に対し変数 $\beta$ によるアニーリングを行う. $\beta$ は 0 から始まり, 学習の進行とともに 1 へ線形に増加する。アニーリングの期間は 1 エポックとした. Cyclical annealing [11]: KL divergence $の$ 項に対し,変数 $\beta$ による周期的なアニーリングを行う. 本研究では 1 周期を 1 エポックとした. $\beta$ は前半の 0.5 エポックの間は 0 から 1 へと線形に増加し, 後半の 0.5 エポックの間は 1 を取る. BoW loss [5]: 潜在変数と応答に含まれる単語との関連性を強めるため,学習時に与えられた応答に含まれる単語の集合を潜在変数から推定するタスクを加え,対話タスクとの同時最適化を行う。 Speculative sampling: 2.2 節参照. 潜在変数のサンプル数 $K$ は開発データから 5 に決定した。 ## 3.2 データセット 本稿における実験のために,我々の研究室において継続的に収集している Twitter データ上で行われたツイート・メンションの組を 1 ターンの対話 表 1 自動評価の結果.各評価尺度ごとに,参照応答に最も近いものをハイライトした。 としてみなした上で,対話データセットの構築を行った. 訓練・開発データには 2017 年および 2018 年のもの,評価データには 2019 年のものを用いた. 訓練・開発・評価データのサイズはそれぞれ 18,116,756 件,191,890 件,96,276 件である.またコストの問題から,人手評価を全ての例に対して行う事は困難である. そこで実際に行われた発話・応答のみを見て,人手評価が比較的容易な 100 件の会話をテストデータから抽出し,人手評価用のデータとした. データの前処理としては簡単なフィルタリングによってリツイートや botによるメンションなど,対話として不適切なものを除いた後, $\mathrm{MeCab}^{1)}$ を用いて形態素解析を行った. その後, SentencePiece ${ }^{2)}$ を用いてサブワード分割モデルの学習および発話・応答のサブワードへの分割を行った. ## 3.3 評価尺度 生成された応答に対し, 自動評価および人手評価を行う.自動評価の尺度としては標準的に用いられる, BLEU [15], dist- $n$ [1], 応答の平均長を採用する. 人手評価では Adiwardana らの研究 [16] を参考に, 1 . 応答の明快さ - 発話との関連性 (Sensibleness) と, 2. 応答の独特さ - 面白さ (Specificity) について, 5 段階の点数付けを行うことで,提案手法が意図した効果を得られているかを定量的に確認する。 ## 4 実験結果 ## 4.1 自動評価 表 1 に自動評価による結果を示す. BoW loss を除き,追加の手法を適用したモデルはどれも純粋な T-CVAE と比べて若干高い BLEU スコアを達成した. しかし目標である応答の多様化が達成されたとしても, 生成された応答が参照応答と類似すると  表 2 人手評価の結果 (相関係数 $\rho=0.602$ ). は限らないことから, 直接的な BLEU スコアの改善には繋がりにくい. そのため, この結果は各手法によってモデルの学習が改善されたことで,ノイジー な出力が減った事による副次的な効果であると考えられる. 加えて,T-CVAE 9 応答平均長が最も長く, 他のモデルではいずれも減少していることも同じ言葉の反復などのノイズの抑制を示唆している. dist-1/2 については BoW loss および提案手法である Speculative sampling が他のモデルと比較して高い値を達成した. BLEU スコア及び後述する 4.2 節における結果も示すように,BoW loss がその代償として発話との関連性を損なっているのに対し,提案手法は高い BLEU スコアを保ちつつ,多様な単語を含む応答を生成出来ている。 ## 4.2 人手評価 表 2 に人手評価による応答の Sensibleness, Specificity, およびその平均値を示す. 全体としては,自動評価と概ね類似する傾向であった. Monotonic annealing および Cyclical annealing による大きな改善は確認されず,BoW loss と Speculative sampling を適用したモデルが高いSpecificityを示した。また, BoW loss の Sensibleness は低く, 出力の多様化の代償に応答の明快さが損なわれている。 一方で,提案手法である Speculative sampling は Sensibleness, Specificity が共に高く, 潜在変数空間についての学習手法を改善することで応答生成の性能向上が果たされたと言える. ## 4.3 分析 訓練の結果,各モデルの分布にどのような変化が見られるかを確認するため,表 3 に開発データに対する KL divergence, 事前分布の平均 $\mu_{p}$ および偏差 $\sigma_{p}$ のノルムについて,それぞれ平均を示す. まず, Monotonic annealing および Cyclic annealing について,T-CVAE と比較して KL divergence の值は若干上昇した. しかし, 自動・人手評価の結果と同様大きな変化は見られず,十分に訓練を行った後 表 3 KL-divergence および事前分布の平均 $\mu_{p}$ ,偏差 $\sigma_{p}$ のノルム. 表 4 生成された応答例. は,KL vanishing が発生している. BoW loss の分布は大きく異なる性質を示した. KL divergence および分布の平均・偏差のノルムは,他のモデルと比べ非常に大きな値となっている. BoW loss における潜在変数から応答に含まれる全ての単語を推定する,というタスクはモデルに潜在変数空間を個々の応答の意味に対応させる非常に強い制約として働いており,KL vanishing は発生していない.しかしこの制約を満たす潜在変数空間を学習するのはモデルにとって非常に困難である. そのため事前分布の範囲が大きく拡大した結果,発話との関連性が薄い応答に対応した潜在変数が頻繁にサンプルされるようになり,文脈に沿わない応答を生成しがちになったと考える(表 4). 提案手法について,4.1 節,4.2 節で評価した $K=5$ のモデルの他に,異なる $K$ の值で訓練した時の各統計量も示した. どの $K$ の値を設定した場合においても KL divergence は T-CVAE,つまり $K=1$ の場合と比較して高い値を示し,提案手法の狙い通り KL vanishing の抑制が行われたと考える. 興味深いことに $K$ の值を増やすほど,KLdivergence の值も増加した. 提案手法では $K$ の増加とともに訓練時に潜在変数の候補は増えるため,与えられた応答に対しより適切な潜在変数の選択が可能になる. そのため,これは与えられた訓練例とサンプルされた潜在変数との不一致が学習の妨げとなっているという,我々の仮説を裏付ける結果になったと考える。 ## 5 関連研究 対話応答における応答の多様化のためのアプロー チは以下の 3 つに大別される. 1. 個人適応に代表される,対話における発話外の情報を用いる手法 $[17,18,19,20] , 2$. 生成時または学習時の目的関数によって応答を多様化する手法 $[1,21]$, 3. 応答の生成過程にランダム性を導入する,変分オートエンコーダに基づく手法 $[14,5,22,11,3,23]$ である. 提案手法は 3 つ目の区分に該当し,特に CVAE における KL vanishing の解決を目的とした手法である. 同様の試みのうち, Bowman ら [14] や Fu ら [11] は,学習初期の信頼性の低いモデル上で推定された分布の最適化が性能低下に繋がると考え,KL divergenceの重みのスケジューリングを行った. He らも同様の考えから,エンコーダの最適化を優先して行うことでその解決を試みた [24]. 一方,Zhao らの研究は,潜在変数に対して追加の損失によってより直接的な制約を与えることで KL vanishing を抑制するものである [5]. Gao らの研究も潜在変数空間に対する制約によって,応答との対応付けを行うという点で類似している [3, 23]. 提案手法は前者のスケジューリングによって学習を安定させる試みに近い。しかし我々は,潜在変数と訓練例の不一致は KL divergence の最適化の影響により常に発生し得ると考え,学習の進行度を問わず適用可能な手法を提案した. また,提案手法はモデルの構造や目的関数に変更を加えない。そのため,既存手法との併用が可能である. ## 6 おわりに 本研究では対話タスクにおける応答生成の多様化のため,変分オートエンコーダの学習時に生じる KL vanishing の解決のための手法を提案した. KL vanishing の一因は学習時の訓練例とサンプルされた潜在変数の不一致にあると考え,その解決を図るべく潜在変数の投機的サンプリングを提案した. 生成された応答に対し自動評価および人手評価を行い,提案手法による効果を確認した. ## 謝辞 本研究の一部は JSPS 科研費 19J14522 の支援を受けたものである。また,本研究で用いた Twitter 対話データセットは,同研究室の豊田正史教授の支援を受けて構築した。 ## 参考文献 [1] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of NAACL 2016, pp. 110-119, 2016. [2] Ruqing Zhang, Jiafeng Guo, Yixing Fan, Yanyan Lan, Jun $\mathrm{Xu}$, and Xueqi Cheng. Learning to control the specificity in neural response generation. In Proceedings of ACL 2018, pp. 1108-1117, 2018. [3] Xiang Gao, Sungjin Lee, Yizhe Zhang, Chris Brockett, Michel Galley, Jianfeng Gao, and Bill Dolan. Jointly optimizing diversity and relevance in neural response generation. In Proceedings of NAACL 2019, pp. 1229-1238, 2019 . [4] Iulian Serban, Alessandro Sordoni, Ryan Lowe, Laurent Charlin, Joelle Pineau, Aaron Courville, and Yoshua Bengio. A hierarchical latent variable encoder-decoder model for generating dialogues, 2017. [5] Tiancheng Zhao, Ran Zhao, and Maxine Eskenazi. Learning discourse-level diversity for neural dialog models using conditional variational autoencoders. In Proceedings of ACL 2017, pp. 654-664, 2017. [6] Xiaoyu Shen, Hui Su, Shuzi Niu, and Vera Demberg. Improving variational encoder-decoders in dialogue generation. In Proceedings of AAAI 2018, pp. 5456-5463, 2018. [7] Tianming Wang and Xiaojun Wan. T-cvae: Transformerbased conditioned variational autoencoder for story completion. In Proceedings of IJCAI 2019, pp. 5233-5239, 2019. [8] Iulian V Serban, Alessandro Sordoni, Yoshua Bengio, Aaron Courville, and Joelle Pineau. Building end-to-end dialogue systems using generative hierarchical neural network models. In Proceedings of AAAI 2016, 2016. [9] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in NIPS 2017 , pp. 5998-6008, 2017. [10] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. In Proceedings of ICLR 2015, 2015. [11] Hao Fu, Chunyuan Li, Xiaodong Liu, Jianfeng Gao, Asli Celikyilmaz, and Lawrence Carin. Cyclical annealing schedule: A simple approach to mitigating KL vanishing. In Proceedings of NAACL 2019, pp. 240-250, 2019. [12] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of NAACL 2019 (Demonstrations), pp. 4853, 2019 . [13] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. In Proceedings of NIPS 2013, pp. 3111-3119, 2013. [14] Samuel R. Bowman, Luke Vilnis, Oriol Vinyals, Andrew Dai, Rafal Jozefowicz, and Samy Bengio. Generating sen- tences from a continuous space. In Proceedings of CoNLL 2016, pp. 10-21, 2016. [15] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of ACL 2002, pp. 311-318, 2002. [16] Daniel Adiwardana, Minh-Thang Luong, David R So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu, et al. Towards a human-like open-domain chatbot. arXiv preprint arXiv:2001.09977, 2020. [17] Shoetsu Sato, Naoki Yoshinaga, Masashi Toyoda, and Masaru Kitsuregawa. Modeling situations in neural chat bots. In Proceedings of ACL 2017, Student Research Workshop, pp. 120-127, 2017. [18] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of ACL 2018, pp. 2204-2213, 2018. [19] Pierre-Emmanuel Mazare, Samuel Humeau, Martin Raison, and Antoine Bordes. Training millions of personalized dialogue agents. In Proceedings of EMNLP 2018, pp. 2775-2779, 2018. [20] Eric Chu, Prashanth Vijayaraghavan, and Deb Roy. Learning personas from dialogue with attentive memory networks. In Proceedings of EMNLP 2018, pp. 2638-2646, 2018. [21] Ashutosh Baheti, Alan Ritter, Jiwei Li, and Bill Dolan. Generating more interesting responses in neural conversation models with distributional constraints. In Proceedings of EMNLP 2018, pp. 3970-3980, 2018. [22] Xiaodong Gu, Kyunghyun Cho, Jung-Woo Ha, and Sunghun Kim. Dialogwae: Multimodal response generation with conditional wasserstein auto-encoder. arXiv preprint arXiv:1805.12352, 2018. [23] Xiang Gao, Yizhe Zhang, Sungjin Lee, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. Structuring latent spaces for stylized response generation. In Proceedings of EMNLP-IJCNLP 2019, pp. 1814-1823, 2019. [24] Junxian He, Daniel Spokoyny, Graham Neubig, and Taylor Berg-Kirkpatrick. Lagging inference networks and posterior collapse in variational autoencoders. 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B6-1.pdf
# 事前学習済み Transformerを用いた Data-to-text における入力順序の影響分析 矢野祐貴須藤克仁 中村哲 奈良先端科学技術大学院大学 \{yano.yuki.ytø, sudoh, s-nakamura\}@is.naist.jp ## 1 はじめに Data-to-text は構造化データを入力として非構造化データである自然言語文を生成するタスクである [1]. 具体的に,構造化データは表や知識グラフなどの様々な形式で与えられ,出力はこれらの入力を説明あるいは要約する自然言語文である。また,構造化データはいずれの形式においてもレコードの集合として定式化する事ができる. 近年では,ニューラルネットワークを用いたモデルが高い性能を発揮しており, 特に,知識グラフを入力形式とするデータセットにおいては, Transformer [2] の事前学習済みモデルである T5 [3] を用いた研究が state-of-the-art の精度を達成し, 強力なベースラインとなっている $[4,5]$. 一方で,スコアボードの表のような複雑な表形式の構造化デー タを入力とするデータセットにおいては,レコードの順序やそのコンテンツのプランニングおよび選択が生成の精度に大きく寄与することが示され,注目を集めている [6]. これまでの知識グラフを入力形式とする T5を用いた研究では,知識グラフを線形化によってコンテンツの系列として入力する. ここで構造化データを構成するレコードの順序は考慮されておらず,文献 [6] のような順序のプランニングも行われず,頒布されたデータセットにおける順序がそのまま利用されている.そこで本研究では, $\mathrm{T} 5$ を用いた知識グラフを扱う Data-to-text モデルに対し, 入力レコー ドの順序が生成文に及ぼす影響を調査する。 実験では,Data-to-text で標準的に用いられる知識グラフとその説明文のデータセットである WebNLG [7] を用いて,T5を用いた最初の Data-totext モデル [4] に対し, 学習用およびテスト用デー タのレコードを「そのままの順序」/「シャッフルした順序」の 2 パターンで Fine-tuning および生成を行う。それぞれのパターンの生成結果を BLEU [8] などの自動評価指標で評価し,レコード順序による生成文への影響を分析する。また,生成結果の入力レコード数ごとの BLEU 值を比較し,その傾向について考察する。評価実験の結果,レコード順序をそのままで Fine-tuning したモデルに,レコード順序をシャッフルしたテストデータで生成すると,そのままの順序で生成した結果よりも,BLEU 値が低下することが分かった. 対して,レコードの順序をシャッフルして Fine-tuning すると,既知ドメインのテストデータの BLEU 值が向上することが分かった.また,レコード数ごとの解析では,順序のシャッフルによって,少ないレコード数の入力に対して,BLEU 值が向上することが分かった。これらの評価実験の結果を通して,T5を用いたべースラインに対しても,入力順序のプランニングが必要であることが分かった. ## 2 関連研究 近年複数の Data-to-text のデータセットで,Textto-text transfer Transformer (T5) が state-of-the-art の精度を達成している $[4,5]$. T5 自体は,言語生成タスク(機械翻訳や自動要約,質問応答生成など)を Text-to-text のフレームワークで解く Transformer [2] を用いたアーキテクチャであり,Colossal Clean Crawled Corpus (C4) で事前学習したモデルを下流夕スクである各言語生成タスクに適応することで高い精度を示している。 文献 [4] は,Data-to-textを T5 の下流タスクとして解くための手法を調査している.構造化データを線形化しコンテンツの系列とした入力で Fine-tuning するだけで,従来の語彙化やその解除,レコードごとの素性の設計などの作業を必要としない,完全な End-to-end で Data-to-text を解くことができる.結果として, WebNLG, MultiWoz, ToTToの 3 つのデータ \begin{abstract} Amdavad ni Gufa location Gujarat Amdavad ni Gufa location Ahmedabad Amdavad ni Gufa country India India leaderName Narendra Modi \end{abstract} Amdavad ni Gufa location Ahmedabad India leaderName Narendra Modi Amdavad ni Gufa country India Amdavad ni Gufa location Gujarat 図 1 レコードのシャッフルと線形化 セットで state-of-the-art の精度を達成した。 また,この調査結果を踏まえて文献 [5] では, WebNLG などのグラフを入力形式とするデータに対して,明示的にグラフ構造を与えることでさらなる性能向上が出来ることを示した. 具体的には,線形化の際に各コンテンツの先頭に<Head>, <Relation>, <Tail>といったグラフを示すための特殊トークンを挿入して Fine-tuningを行う. これらの T5による精度向上が報告されているデータセットの特徴として,参照文が入力レコードのほぼすべての情報について言及している点が挙げられる。一方で,スコアボードの表のような複雑な表データを入力とする場合,参照文で言及されないレコードが多くなるため, 生成内容の取捨選択を含むプランニングが有効であるとされている [6]. 本研究は,ほぼすべての入力情報への言及が必要な WebNLG データにおける,レコードの入力順序の影響を明らかにするものである. ## 3 実験 実験では,事前学習済み Transformer である T5を用いた Data-to-text モデルに対しても,入力レコードの順序のプランニングが必要であるかを検証する。具体的には, 入力の構造化データを図 1 に示すように,レコードを構成するコンテンツはそのままで,順序をシャッフルしてから線形化を行い,T5 モデルへの入力とする. Fine-tuning 時の学習データと,生成時のテストデータに対して, 以下の 3 つの組み合わせで実験を行う. ・もとのレコード順序で Fine-tuning したモデルを,もとのレコード順序で生成 (def-def) ・もとのレコード順序で Fine-tuning したモデルを,シャッフルしたレコード順序で生成 (def-shuf) ・シャッフルしたレコード順序で Fine-tuning したモデルを,シャッフルしたレコード順序で生成 (shuf-shuf) ここで,もとのレコード順序とは,データセットの配布ファイルに記述されているそのままのレコー ド順序である.多くの場合,その整列について明記されていないが,例えば図 1 の左上のように,主語でソートされていたり,目的語が “India” のレコー ド次は,主語が “India” のレコードであるなど,人為的な整列が見受けられる。 実験の結果に対して,def-def をべースラインとし, def-shuf と比較することで,モデルがデータセットの順序を学習しているかどうかを検証する。また, shuf-shuf と比較することで,人為的な整列を崩した入力を $\mathrm{T} 5$ モデルが学習できるかどうかを検証する.今回の実験では,shuf-shuf の Fine-tuning 時のレコードのシャッフルは,データの読み込み時に一度のみ行い, エポックごとのシャッフルは行わない. ## 3.1 データセット 実験には WebNLG [7] データセットを用いる. WebNLG は, DBpedia1)から抽出された Resource Description Framework トリプル(主語,述語,目的語の 3 つ組)の集合で表現される知識グラフと,クラウドソーシングによって収集された対応する知識グラフの説明文から構成されている。学習, 開発およびテストデータはそれぞれ,18,102 対,2,268 対, 4,928 対に分かれており,さらにテストデータは,学習,開発データに含まれている既知ドメインのデー タ(2,495 対)と含まれない未知ドメインのデータ (2,433 対)に分けられている. 1) DBpedia: https://wiki.dbpedia.org/ 表 1 自動評価結果. 太字は同一事前学習モデルに対するスコアの最大值を示す. } & \multirow[b]{2}{*}{ Testset } & \multicolumn{5}{|c|}{ 既知ドメイン } & \multicolumn{5}{|c|}{ 末知ドメイン } \\ ## 3.2 実験設定 先行研究 $[3,4]$ に倣い, バッチサイズを 512 , 学習率を 0.001 として,学習データによる Fine-tuning を行う.最適化には Adafactor [9]を使用する.T5 モデルの語彙は,SentencePiece [10] を用いてテキストを WordPiece トークン $[11,12]$ ヘエンコードし, 語彙サイズは 3 万 2 千としている. 事前学習された $\mathrm{T} 5$ モデルのパラメータ数は,60万(T5-Small),220万 (T5-Base)および 770 万(T5-Large)の 3 種類を使用する. 評価には,開発データに対して BLEU 値が最も高いエポックのモデルパラメータを用いて,テストデータに対する生成を行った結果で比較する。また,学習は開発データに対する BLEU の最大値が 3 回更新されなかったエポックで早期終了する. 自動評価指標には,言語生成で用いられる,BLEU, NIST, METEOR, ROUGE-L, CIDEr を使用する. ## 3.3 実験結果 実験結果を表 1 に示す. まず,既知ドメインの結果について,モデルのすべてのパラメータサイズ, すべての自動評価指標で, shuf-shuf が def-def の結果を上回っている. 反対に,モデルのすべてのパラメータサイズ,すべての自動評価指標で,def-shuf が def-def の結果を下回っている. 次に,未知ドメインの結果について,モデルのパラメータサイズが T5-Small および T5-Base の場合, def-def もしくは def-shuf の結果が shuf-shuf の結果を上回っている. 一方, モデルのパラメータサイズが T5-Large の場合には, METEOR 以外の評価指標で, shuf-shuf の生成結果が def-def および def-shuf を上回っている. 全体の結果として,既知ドメインで最も良い精度を達成したのは,モデルのパラメータサイズ T5-Base に対する shuf-shuf の生成結果であり,未知ドメインで最も良い性能を示したのは,モデルのパラメータサイズ T5-Large に対する shuf-shuf の生成結果である。これらのことから,レコード順序をシャッフルして Fine-tuning することが生成文の精度向上に効果的であることが分かる. ## 3.4 考察 前節で示した結果について,既知ドメインの結果では,シャッフルした順序で Fine-tuning することにより,順序に依存せず,各ドメインごとの汎化した文生成を行う能力を得ることが出来たといえる. 未知ドメインの場合では,モデルのパラメータサイズ T5-Small と T5-Base で各指標の向上が見られなかったが,これは学習したドメイン外の知識について,このパラメータサイズでは,事前学習および Fine-tuning 時に獲得することが出来ていなかったといえる. そのため,もともとの人為的な順序で Fine-tuning した def-def が,生成時にもその人為的な順序を手がかりとして生成した結果,shuf-shuf よりも高い精度を示したと考えられる。 一方で,モデルのパラメータサイズ T5-Large では,METEOR を除いて shuf-shuf が高い精度を達成している。これは T5-small および T5-Base とは反対に,パラメータサイズの大きい T5-Large では,事前学習および Fine-tuning の時点で未知ドメインへの表現能力を獲得したため, 既知ドメインと同様に, シャッフルすることで順序に依存しない汎化した文生成が出来たと考えられる。 表 2 レコード数 $(n)$ ごとの BLEU 值 ## 3.4.1 レコード数ごとの比較 各生成文を入力レコード数ごとに分け,個別に BLEU を計算した。表 2 に,その計算した BLEU 值を示す。また,学習用データおよびテストデータのレコード数ごとの件数と, その平均レコード数を表 3 に示す. 既知ドメインのレコード数 $n \leq 5$ のデータに対して,すべての設定において,shuf-shuf は def-def あるいは def-shuf よりも高い精度を示す傾向がみられた. 一方で, 既知ドメインのレコード数 $n=6,7$ では,def-def および def-shuf に対する shuf-shuf の有効性は陽に見られなかった.このことから,シャッフルして学習するだけでは, 学習データの平均値の倍以上のレコード数をもつ入力に対しての表現方法を獲得することが出来ず,未知ドメインにおける T5-Small や T5-Base と同様に,もとの順序情報が生成の手助けをしたことで def-def の生成が高い精度を示したと考えられる。 未知ドメインのレコード数 $2 \leq n \leq 4$ では,表 1 の未知ドメインの結果に対する考察と同様の事が言える. しかし, レコード数 $n=1$ では, T5-Small および T5-Base においても shuf-shuf が高い精度を示している.この結果から,もとのレコード順序で Fine-tuning することは,単一レコードに対する文生成の精度を犠牲にした上で複数レコードを持つ入力を学習していると考えられる. 反対に,レコード数 $n=5$ では, T5-Large においても shuf-shuf による精度向上が見られない. 加えてレコード数 $n=4$ についても, $1 \leq n \leq 3$ の精度向上に比べて低い.これらは,学習データの平均レコード数 $n=2.97$ を中心にシャッフルによる汎化性能を獲得したため,既知ドメインのレコード数 $n=6,7$ と同様に,レコード数をもつ入力に対してはレコードの順序情報が文生成に大きく影響していると考える. 実験全体を通した結果から,レコード順序をシャッフルして入力することがデータ拡張になっているとも考えられ,今後さらに検証が必要である。 ## 4 おわりに 本稿では,T5を用いた Data-to-text モデルに対し,入力レコードの順序が生成文に及ぼす影響について検証した。自動評価指標による評価実験を通じて, T5 モデルが Fine-tuning 時にレコード順序も同時に学習することを確認し,モデルのパラメータサイズが十分大きい場合,レコード順序をシャッフルして Fine-tuning すると生成文の精度が向上することを確認した. 今後は, Fine-tuning 時にエポックごとでレコード順序をシャッフルした場合の T5 モデルの挙動の検証や,T5 モデルおよび知識グラフを入力形式とする場合の適切な順序のプランニング手法の考案などをしていきたい。 ## 謝辞 本稿の研究は,株式会社ウェザーマップの助成を受けた。 ## 参考文献 [1] Ehud Reiter and Robert Dale. Building Natural Language Generation Systems. Cambridge University Press, 2000. [2] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proc. of NIPS 2017, pp. 5998-6008, 2017. [3] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [4] Mihir Kale and Abhinav Rastogi. Text-to-text pre-training for data-to-text tasks. In Proc. of INLG 2020, pp. 97-102, 2020. [5] Leonardo F. R. Ribeiro, Martin Schmitt, Hinrich Schütze, and Iryna Gurevych. Investigating pretrained language models for graph-to-text generation. arXiv:2007.08426, 2020. [6] Ratish Puduppully, Li Dong, and Mirella Lapata. Datato-text generation with content selection and planning. In Proc. of AAAI 2019, pp. 6908-6915, 2019. [7] Claire Gardent, Anastasia Shimorina, Shashi Narayan, and Laura Perez-Beltrachini. The WebNLG challenge: Generating text from RDF data. In Proc. of INLG 2017, pp. 124-133, 2017. [8] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proc. of ACL 2002, pp. 311-318, 2002. [9] Noam Shazeer and Mitchell Stern. Adafactor: Adaptive learning rates with sublinear memory cost. In Proc. of ICML 2018, Vol. 80, pp. 4603-4611, 2018. [10] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proc. of EMNLP 2018, pp. 66-71, 2018. [11] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proc. of ACL 2016, pp. 1715-1725, 2016. [12] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proc. of ACL 2018, pp. 66-75, 2018.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B6-2.pdf
# QA Lab-Polilnfo-3 における質問と答弁の対応付け 小川泰弘 名古屋大学 yasuhiro@is.nagoya-u.ac.jp 秋葉友良 豊橋技術科学大学 } 木村 泰知 小樽商科大学 渋木 英潔 国立情報学研究所 } kimura@res.otaru-uc.ac.jp 横手 健一 日立製作所 石下円香 国立情報学研究所 ## 1 はじめに 近年,政治にまつわるフェイクニュースが社会的な問題とされてきている. 2016 年のアメリカ大統領選挙の頃から,信憑性の低い情報がソーシャルメディアを介して拡散され,民意の形成に偏りを生じさせることが懸念されている. また,政治家の発言自体も信憑性や根拠に欠ける場合があり,それらの発言に対するファクトチェックも求められている. また日本においても,新型コロナウイルスへの対策について,国会や地方議会で検討され,その内容が報道されるが,取り上げられる内容は限られている.そのため,「○○について議論していない」のような事実に反する批判が起きたりする。 こうした状況を踏まえ,政治に関わる自然言語処理研究が注目されてきており, EuroParl Corpus[1] や UK Hansard Corpus ${ }^{1}$ などが,言語資源として利用されている. しかしながら,日本語を対象とした研究データが少ないことに加えて,議会における議員の発言を対象とした研究や,議会における政策形成のための議論を対象とした研究は進んでいない. これらの問題を解決することを目指して,我々は評価型ワークショップ $\mathrm{NTCIR}^{2}$ において QA Lab-PoliInfo を実施してきた. 2018 年から 2019 年には,NTCIR-14 QA Lab-PoliInfoを,2019 年から 2020 年にかけては,NTCIR-15 QA Lab-PoliInfo-2を開催した. 2021 年から始まる NTCIR-16においても,引き続き QA Lab-PoliInfo-3 を提案している. QA Lab-PoliInfo-3 においては, Question Answering, Budget Argument Mining, Fact Verification, QA Alignment の四つのサブタスクをを提案しているが,本稿においては,会議録中の質問と答弁を対応付ける  QA Alignment について紹介する. 本稿では,まず第 2 節で NTCIR における QA Lab タスクの背景について述べた上で,第 3 節で QA Alignment の提案理由を述べる. 第 4 節以降では, QA Alignment のデータフォーマット,参加者のタスク,正解データの作成方法,評価方法について,それぞれ述べる。第 8 節は,本稿のまとめである. ## 2 QA Lab-Polilnfo タスク QA Lab-PoliInfo は,政治情報を対象としたサブタスクを質問応答の枠組みで捉えたものとして, NTCIR-14 において開催した。地方議会会議録コー パス [2]を対象に,議会発言における議員の意見やその根拠,立場などを抽出し,議論の構造を明確にして,関係性などを理解しやすいように整理して提示することを最終的な目標としている。 NTCIR-14 においては, Segmentation, Summarization, Classification の三つのサブタスクを実施した. Segmentation は,要約して引用された議会中の発言に対して,会議録の引用元の範囲を特定することを目指したサブタスクである. Summarization は,会議録中の特定の範囲から,発言者の意図が誤解されないように指定された文字数の範囲内で要約文を生成するサブタスクである. Classification は,議会における発言に,政治課題に対する意見が含まれるか,意見に対する事実検証可能な根拠が示されているかを分類するサブタスクである.QA Lab-PoliInfo タスクには,15 組のチームが参加した [3][4]. NTCIR14 QA Lab-PoliInfo の成果と問題点を踏まえて,NTCIR-15 においては,QA Lab-PoliInfo-2 とし $\tau$, 当初は Stance Classification, Dialog Summarization, Entity Linking の三つのサブタスクを実施し,追加で Topic Detection のサブタスクを実施した. Stance Classification は,各議案に対する議員の発言から, その所属会派の議案への賛否を推定するサブタスクである. Dialog Summarization は,一括質問一括答弁の形式の会議録の内容を, 質問と答弁の対応を考慮して要約するサブタスクである. Entity Linking は,会議録中の発言から,表記摇れや瞹昧性の問題を解決しながら,法律名を抽出するサブタスクである。 Topic Detection は,会議録から質疑応答のトピックを抽出するものである. QA Lab-PoliInfo-2 の本テストには, 14 組のチームが参加した [5]. 我々は,これまでの成果と問題点を踏まえ, NTCIR-16 において QA Lab-PoliInfo-3 を提案している.これは, Question Answering, Budget Argument Mining, Fact Verification, QA Alignment の四つのサブタスクを含んでいる. Question Answering は, 会議録の質問の要約が与えられたとき,対応する答弁の要約を生成するサブタスクである. Budget Argument Mining は,予算項目や金額が与えられたときに,会議録中からそれについて議論している部分を抽出するとともに,その内容の議論ラベル(決定事項,例示,事実など)を判定するサブタスクである.Fact Verification は,要約と会議録が与えられたとき,その要約の内容が本当に会議録中に存在するかを判定し,存在する場合はその範囲を特定するサブタスクである. QA Alignment は一括質問一括答弁の形式における質問と答弁を対応付けるものであり,本稿において説明する。 ## 3 QA Alignment $の$ 提案理由 本節では,QA Alignment の前提となるDialog Summarization と Topic Detection について述べた後, QA Alignment の提案理由を述べる. ## 3.1 Dialog Summarization 政治家の発言の信憑性を判断するためには,政治課題に関する議論がどのように行われているのか知る必要があり,議論をしている相手の発言や文脈を考慮しなければならない. 政治課題に関する議論は議会において行われており, 議会会議録として質問や答弁が残されている. しかしながら,議会会議録は発言を書き起こした文書であり,まとめられておらず読みづらいという問題がある. 特に,東京都議会をはじめとする多くの地方議会では,一問一答形式ではなく,一括質問一括答弁形式がとられており, 質問と答弁が離れた位置に存在する。また, 質問に対して,知事だけでなく,総務部長や教育長の ような他の出席者が答弁する場合がある. そうした問題点を解消し,「議員の質問」と「知事側の答弁」という対話構造を考慮しながら要約することを目標とした, Dialog Summarization のサブタスクを QA Lab-PoliInfo-2 では実施した. ## 3.2 Topic Detection 議会においては様々なテーマについて議論されるが,そのすべてが報道される訳ではない,そのため,実際には議会で扱われているのにもかかわらず,議論されてないといった批判が起きることがある. 例えば昨年は,「野党は新型コロナについて議論せず,云々」といったデマが流れたが,これも一種のフェイクニュースと言える。 そうした問題を解決するために,議会においてどのようなトピックが扱われたのかを検出する Topic Detection のサブタスクを,QA Lab-PoliInfo-2 では追加で実施した。このタスクはパイロットタスクという位置付けであり,トピックの定義についてはタスクオーガナイザ側で定義せず,参加者それぞれが考えるものとした. 特にトピックの粒度は大きな課題である。このタスクでは,令和 2 年度東京都議会会議録からのトピック抽出を実施したが,ほとんどの質疑応答は,「新型コロナ」に関連するものである. そのため,トピックを単に「新型コロナ」とするだけでは不充分であり,その中に含まれるサブトピックの検出も必要になる. その場合, 最も基本となるサブトピックの粒度は何かという点が問題になる. それに対して,ここでは一つの質疑応答には一つの基本トピックが含まれると考える。一つの質疑応答に複数のトピックが含まれる場合は例外とする。 その際に問題となるのは,何をもって一つの質疑応答と定義するかである.ここで注目するのは,会議録の答弁の冒頭において頻出する「○点のご質問にお答えいたします。」という定型表現である。東京都議会会議録において,知事以外の答弁者が複数の質問に回答する場合,冒頭でこの発言をすることが多い. すなわち,答弁者が質問の個数を認識した上で回答していると言える。 ## 3.3 QA Alignment 以上のように,Dialog Summarization および Topic Detection のサブタスクにおいては,一括質問一括答弁形式の構造を解析し, 質問と答弁を対応付ける前処理が必要になると考えられる。しかし,実際に 表 1 会議録の形式 (JSON 形式のキー) は,タスクの参加者は質問と答弁を対応付けをすることなく,各タスクに取り組んだ。 その理由としては, end-to-end な手法が現在の主流であること,対応付けをしなくてもそれなりの性能が得られたこと, 対応付けの正解が与えられていないことが考えられる. しかし最後に関しては,夕スク参加者からの指摘で,東京都議会の「本会議ネットリポート3)」の存在が判明した.これは都議会会議録とは別に公開されており,その中で質問と答弁が対応付けられている.そこで今回は,このネットリポートを正解とし,質問と答弁を対応付けを自動的に実行するタスクを提案する. ## 4 データ形式 表 1 は,過去の QA Lab-PoliInfo および QA LabPoliInfo-2において,都議会会議録のデータとして提供した JSON 形式のデータの形式である. 今回の正解データは,表 1 のデータに,以下の三つのキーを追加したものである. QuestionerID: 質問および答弁が,どの質問者に関するものかを示す. 一括質問一括答弁形式のため,ある議員が質問した場合,その議員の発言とそれに対するすべての答弁で同じ值になる。 QorA:值は $\mathrm{Q}, \mathrm{A}, \mathrm{O}$ であり,発言者が質問者か,答弁者か,それ以外 (議長など) かをそれぞれ示す. 発言内容は問わない。 QAID: 值は非負整数. 対応する質問と答弁に同じ值を付与する.なお,0 は特別な值であり,質問でも答弁でもない発言を示す. QAIDが 0 になるのは,以下のような場合である. まず,答弁者の冒頭にある「○点のご質問にお答えいたします。」などの発言. これは,特定の質問に対応する答弁ではなく,対応する質問がないため,QAID の值を 0 とする。なお,こうした発言はネットリポートには掲載されていない。 3) https://www.gikai.metro.tokyo.jp/netreport/次に,質問者の発言に,質問でないものが含まれる場合.例えば,以下のような発言がある。 なお、売電を目的とする大規模な天然ガス発電所の新規建設に当たっては、… 都は土地の提供程度にとどめておくべきであると、この場で申し上げておきます。 これは意見を述べているだけであり,対応する答弁は存在しない。なお,ネットリポートでは,こうした発言は質問のタグが付かずに掲載されている. ## 5 参加者のタスク テストデータにおいては,上記のキーのうち, QAID 以外はすべてタスクオーガナイザ側から提供する。これは,今回新規に追加した QuestionerID および QorA の值については,発言者の役職などの情報から容易に特定でき,本タスクの本質ではないためである.よって,参加者のタスクは一括質問一括答弁を適切に分割し,対応付けをすることである。 タスクとしては,質問数が少なく,答弁者も一人であれば比較的容易であるが,質問数が多くなり, さらに答弁者の人数も多くなると難易度が上がる.東京都議会では,代表質問と一般質問があり,代表質問は一般質問よりも多くの質問がなされる. 実際の対応付けの例を表 2 に示す.これは,平成 23 年第 2 回定例会での山下太郎議員の代表質問への対応付けの例である. 山下議員の質問は 42 個あり, それに対応する答弁者は知事を含め全部で 12 人であった. QAID は,各答弁者がどの質問に回答したのかを示している. 表 2 から分かる通り,答弁は必ずしも連続する質問に対応する訳ではない.特に知事の答弁は飛び飛びの質問に対応する傾向がある. ## 6 正解データの作成 正解データは,タスクオーガナイザ側で,都議会会議録のデータとネットリポートのデータを突合することで作成した. 基本的には,ネットリポートの内容は会議録の発言を並び替えただけであるため,突合は容易であった.ただし,会議録の答弁の冒頭に「次に、○○についてでございますが」という発言がある場合,ネットリポートでは「次に、の部分が削除されていた. また,一部に全角半角の相違がみられた.そのため,単純な完全一致で対応する発言が見つからない場合,ルーズなマッチにより対 表 2 質問と答弁の対応付け 表 4 表 3 をalignment に変換した結果 表 3 対応付けの正解と出力結果の例 応付けを実施した。なお,第 4 節で述べたように,「○点のご質問にお答えいたします。」といったネットリポートで省かれている発言や,対応する答弁がない質問については,QAIDを 0 とした。 ## 7 評価方法 タスクの評価には文献 [6] などで提案される単語 して説明する。 表 3 は 19 文からなる質疑応答がどのように対応しているかを示した例であり,QAID の值で対応付けが示されている。ここで,正解データと評価対象となるシステム出力では,異なる対応付けを行っている. 正解データでは質問は 4 個であり,例えば文 1, 2, 3 で一つの質問を形成し,それに対応する答弁が文 $12,13,14$ であることを示している。一方,システム出力では,質問は 5 個であり,正解データ の最初の質問が二つに分割されている. システム出力を正解データと比較するために alignment を以下のように考える。例えば,システム出力の文 1,2 の 2 文と文 12,13 の 2 文が対応しているが,この場合, alignment としては,1-12, 2-12, 1-13, 2-13で,合計 4 個 $(2 \times 2)$ あると考える. 正解データの最初の質問は, 3 文と 3 文が対応しているので,計 9 個の alignment ができる. 表 3 の対応付けから変換できる alignment をすべて示したものが表 4 である. alignment に変換することにより,正解データとシステム出力で異なる QAID が付与された場合にも対処可能となる.実際,表 3 の例では,正解データの文 10, 19 の QAID が 4 であるのに対して,システム出力では 5 であるが,表 4 に示す alignment では同じ 10-19として検出されている. この alignment を元に適合率,再現率,F 值を計算し, 評価に用いる。この例では, 適合率 $78.5 \%(11 / 14)$,再現率 $64.7 \%(11 / 17), \mathrm{F}$ 值 $71.0 \%$ となる. ## 8 おわりに 本稿では,NTCIR-16において提案している QA Lab-PoliInfo-3 におけるQA Alignment タスクの概要及び,データセット,評価方法について述べた. QA Lab-PoliInfo-3 が採用された場合は,2021 年 7 月にデータのリリースを行い, 予備テスト (Dry Run),本テスト (Formal Run)を実施後,2022 年 6 月に本会議を開催する予定である。公式サイトでは, リーダーボードを用いて参加者の結果を随時掲載するだけでなく,TOチームによる実行プログラムなどを公開していく予定である. ## 参考文献 [1] Philipp Koehn. Europarl: A parallel corpus for statistical machine translation. In MT summit, Vol. 5, pp. 79-86. Citeseer, 2005. [2] Yasutomo Kimura, Keiichi Takamaru, Takuma Tanaka, Akio Kobayashi, Hiroki Sakaji, Yuzu Uchida, Hokuto Ototake, and Shigeru Masuyama. Creating Japanese political corpus from local assembly minutes of 47 prefectures. In Proceedings of the 12th Workshop on Asian Language Resources (ALR12), pp. 78-85, 2016. [3] Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Kotaro Sakamoto, Madoka Ishioroshi, Teruko Mitamura, Noriko Kando, Tatsunori Mori, Harumichi Yuasa, Satoshi Sekine, and Kentaro Inui. Final report of the NTCIR-14 QA Lab-PoliInfo task. In NII Testbeds and Community for Information Access Research - 14th International Conference, NTCIR 2019, Tokyo, Japan, June 10-13, 2019, Revised Selected Papers, pp. 122135,2019 [4] Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Kotaro Sakamoto, Madoka Ishioroshi, Teruko Mitamura, Noriko Kando, Tatsunori Mori, Harumichi Yuasa, Satoshi Sekine, and Kentaro Inui. Overview of the NTCIR-14 QA Lab-PoliInfo task. In Proceedings of the 14th NTCIR Conference, 2019. [5] Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Madoka Ishioroshi, Teruko Mitamura, Masaharu Yoshioka, Tomoyoshi Akiba, Yasuhiro Ogawa, Minoru Sasaki, Kenichi Yokote, Tatsunori Mori, Kenji Araki, Satoshi Sekine, and Noriko Kando. Overview of the NTCIR-15 QA Lab-PoliInfo-2 task. Proceedings of The 15th NTCIR Conference, 2020. [6] Rada Mihalcea and Ted Pedersen. An evaluation exercise for word alignment. In Proceedings of the HLT-NAACL 2003 Workshop on Building and using parallel texts: data driven machine translation and beyond, pp. 1-10, 2003.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B6-3.pdf
# トピック文生成による教師なし意見要約 磯沼 ${ }^{1}$ 森 純一郎 ${ }^{1}$ ボレガラダヌシカ ${ }^{2}$ 坂田 一郎 ${ }^{1}$ 1 東京大学 2 リヴァプール大学 \{isonuma, isakata\}@ipr-ctr.t.u-tokyo.ac.jp mori@mi.u-tokyo.ac.jp danushka@liverpool.ac.uk ## 1 はじめに 近年、 $\mathrm{EC}$ 上の商品レビューや SNS 投稿の急激な増加により、それらに含まれる意見を集約し、知見として利用する取り組みが注目されている。こうした意見文書の要約では、抽出型要約よりも言い換えや一般化を交える生成型要約がより有効なことが知られているが $[1,2]$ 、既存の生成型要約手法はほぼ全て教師ありアプローチであり、大量の参照要約の用意が困難な意見文書への適用方法が課題となっている。こうした経緯から、近年意見文書に対する教師なし生成型要約が着目されている $[3,4,5]$ 。 教師なしアプローチでは、要約の潜在表現を参照要約なしにいかに獲得するかが鍵となるが、本研究では多様な詳細度合いを持つトピックを捉えることで要約文を生成する。例えば図 1 に示したあるレビューの要約は、「料理」、「サービス」、「場所」の各トピックについて詳述し、最後は「全体」について述べている。このように、要約は多様なトピックで構成され、あるトピックは詳述され、他のトピックは簡潔に記述されていることが観察される。そこで本研究では、文書から木構造上のトピックを推定し、根からは全体的な、葉に近づくにつれより詳細なトピックに関する要約文(トピック文)を生成する。トピック文から、要約として相応しいトピックと詳細度合いを持つ文を選択することで、意見文書の要約が教師なしに得られることを示す。抽出型要約においては、トピック [6,7] やその木構造 $[8,9]$ の有効性が従来研究で示されているが、本研究はそれらの教師なし生成型要約への応用を提案する。 トピック文生成の文脈では、Wang らは文書中の文の潜在分布を混合ガウス分布で表現すると、その構成要素である各単峰ガウス分布がトピック文の潜在分布として機能することを明らかにした [10]。一方、本研究のように多様な詳細度合いを持つトピック文を生成するためには、文の詳細度合いを潜在空 図 1 本研究の概要。右側はあるレストランレビューの人手要約であり、各文が木構造上の各トピックに対応することがわかる。トピック文の潜在分布の分散は葉に近づくほど小さくなり、より具体的なトピックに対応する。 間上でモデル化する必要があり、その方法は明らかでない。そこで本研究では、トピック文の潜在表現をガウス分布で表現する際に、子の分布の分散が親よりも小さくなるようにモデルを構築することで、葉に近づくにつれより詳細な文を生成する(図 1)。単語の潜在分布としてガウス分布を用いる Gaussian word embedding では、「犬」のような具体的な単語は、「動物」といった一般的な単語よりも小さい分散を持つことが示されている [11]。文においても同様に、具体的な文は意味の分散が小さいため、その潜在分布は分散が小さいと考えられる。子の分布の分散を親よりも小さくするために、本研究では再帰的混合ガウス分布(再帰的 GMM)を文書中の文の潜在表現の事前分布として導入する。再帰的 GMM は、木構造上の各トピックに対応するガウス分布で構成され、子の事前分布に親の事後分布を設定して構築される。これにより、根の潜在分布の分散は大きく、葉に近づくにつれ分散は小さくなる。評価実験では、提案法の要約性能が既存の教師なし生成型要約手法と競合することを確認した。また、トピック文の詳細度合いはその潜在分布の分散の大きさに依存し、葉に近づくほど分散が小さく、 より具体的な文が生成されることを示した。 図 2 提案法概要。文書の文の事前分布に再帰的 GMM を、それを構成するガウス分布をトピック文の事前分布に設定。 ## 2 提案法 本節では、文書からトピック文を生成し、要約を得る方法を説明する。提案法の概要を図 2 に示す。 ## 2.1 文書の生成過程 提案法では以下の文書の生成過程を仮定する。各文書インデックス $d \in\{1, \ldots, D\}$ について: 文書 $d$ の各文インデックス $s \in\left.\{1, \ldots, S_{d}\right.\}$ について: 1. 文のトピック $z_{s} \in\{1,11,12, \ldots, K\}$ をサンプル: $ z_{s} \sim \operatorname{Mult}(\boldsymbol{\theta}) $ 2. 文の潜在表現 $x_{s} \in \mathbb{R}^{H}$ をサンプル: $ \boldsymbol{x}_{s} \mid z_{s} \sim \prod_{k=1}^{K} p\left(\boldsymbol{x}_{s} \mid z_{s}=k\right)^{\delta\left(z_{s}=k\right)} $ 3. 尤度が最大となる文 $\boldsymbol{w}_{s}=\left(w_{s}^{1}, \ldots, w_{s}^{N_{s}}\right)$ を得る。 $ \boldsymbol{w}_{s} \mid \boldsymbol{x}_{s}=\arg \max _{\boldsymbol{w}_{s}} p\left(\boldsymbol{w}_{s} \mid \boldsymbol{x}_{s}\right) $ ただし、 $p\left(\boldsymbol{w}_{s} \mid \boldsymbol{x}_{s}\right)=\prod_{n=1}^{N_{s}} p\left(w_{s}^{n} \mid \boldsymbol{w}_{s}^{<n}, \boldsymbol{x}_{s}\right)$ は RNN で得る。トピック分布は木構造上に定義され、その事前分布を一様分布に設定する $: \theta_{k}=K^{-1}$ 。文書中の文の事前分布として再帰的 GMM を設定し (2)、各要素はトピック文の事前分布 $p\left(\boldsymbol{x}_{s} \mid z_{s}=k\right)$ に対応する: $ \begin{aligned} p\left(\boldsymbol{x}_{\boldsymbol{s}} \mid z_{s}=1\right) & =N\left(\boldsymbol{x}_{s} \mid \boldsymbol{\mu}_{0}, \boldsymbol{\Sigma}_{0}\right) \\ p\left(\boldsymbol{x}_{\boldsymbol{s}} \mid z_{s}=k\right) & =q\left(\boldsymbol{x}_{\boldsymbol{s}} \mid z_{s}=\operatorname{par}(k)\right) \\ & =N\left(\boldsymbol{x}_{s} \mid \hat{\boldsymbol{\mu}}_{d, \operatorname{par}(k)}, \hat{\boldsymbol{\Sigma}}_{d, \operatorname{par}(k)}\right)(k \neq 1) \end{aligned} $ ただし、 $\operatorname{par}(k)$ はトピック $k$ の親を示す。 $q\left(\boldsymbol{x}_{\boldsymbol{s}} \mid z_{s}=\right.$ $\operatorname{par}(k))$ は親トピック文の推定事後分布であり、子トピック文の事前分布として設定される。 この時、文書の尤度とその対数の変分下限は、それぞれ下記式で表される: $ \begin{aligned} p\left(\boldsymbol{W}_{1: S_{d}}\right)= & \prod_{s=1}^{S_{d}}\left.\{\int p\left(\boldsymbol{w}_{s} \mid \boldsymbol{x}_{s}\right) p\left(\boldsymbol{x}_{s} \mid z_{s}\right) p\left(z_{s}\right) d \boldsymbol{x}_{s} d z_{s}\right.\} \\ L_{d} & =\sum_{s=1}^{S_{d}}\left.\{\mathbf{E}_{q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right)}\left[\log p\left(\boldsymbol{w}_{s} \mid \boldsymbol{x}_{s}\right)\right]-\mathrm{D}_{\mathrm{KL}}\left[q\left(z_{s} \mid \boldsymbol{w}_{s}\right) \mid p\left(z_{s}\right)\right]\right.\} \\ & -\sum_{k=1}^{K} \sum_{s=1}^{S_{d}}\left.\{\hat{\theta}_{s, k} \mathrm{D}_{\mathrm{KL}}\left[q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right) \mid p\left(\boldsymbol{x}_{s} \mid z_{s}=k\right)\right]\right.\} \end{aligned} $ ただし $q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right)=N\left(\boldsymbol{x}_{s} \mid \hat{\boldsymbol{\mu}}_{s}, \hat{\boldsymbol{\Sigma}}_{s}\right)$ は文 $s$ の潜在表現の事後分布で、 $\operatorname{RNN} f_{\mu}, f_{\Sigma}$ により推定される。 $\hat{\theta}_{s, k}=q\left(z_{s}=k \mid \boldsymbol{w}_{s}\right)$ はトピック分布の事後分布であり、本研究では木構造ニューラルトピックモデル (TSNTM [12])により推定する(A. 1 節にて詳述)。 ## 2.2 トピック文の生成 トピック文の潜在表現の事後分布を式 (8) で与え、 $\sum_{s=1}^{S_{d}} \mathbf{E}_{q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right) q\left(z_{s} \mid \boldsymbol{w}_{s}\right)}\left[\log q\left(\boldsymbol{x}_{s} \mid z_{s}\right)\right]$ を最大化するパラメータを EMアルゴリズムのM ステップで得る: $ \begin{aligned} & q\left(\boldsymbol{x}_{s} \mid z_{s}\right)=\prod_{k=1}^{K} N\left(\boldsymbol{x}_{s} \mid \hat{\boldsymbol{\mu}}_{d, k}, \hat{\boldsymbol{\Sigma}}_{d, k}\right) \delta\left(z_{s}=k\right) \\ & \hat{\boldsymbol{\mu}}_{d, k}=\frac{\sum_{s=1}^{S_{d}} \hat{\theta}_{s, k} \mathbf{E}_{q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right)}\left[\boldsymbol{x}_{s}\right]}{\sum_{s=1}^{S_{d}} \hat{\theta}_{s, k}}=\frac{\sum_{s=1}^{S_{d}} \hat{\theta}_{s, k} \hat{\boldsymbol{\mu}}_{s}}{\sum_{s=1}^{S_{d}} \hat{\theta}_{s, k}} \\ & \hat{\boldsymbol{\Sigma}}_{d, k}=\frac{\sum_{s=1}^{S_{d}} \hat{\theta}_{s, k} \mathbf{E}_{q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right)}\left[\left(\boldsymbol{x}_{s}-\hat{\boldsymbol{\mu}}_{d, k}\right)\left(\boldsymbol{x}_{s}-\hat{\boldsymbol{\mu}}_{d, k}\right)^{\top}\right]}{\sum_{s=1}^{S_{d}} \hat{\theta}_{s, k}} \\ &=\frac{\sum_{s=1}^{S_{d}} \hat{\theta}_{s, k}\left.\{\hat{\boldsymbol{\Sigma}}_{s}+\left(\hat{\boldsymbol{\mu}}_{s}-\hat{\boldsymbol{\mu}}_{d, k}\right)\left(\hat{\boldsymbol{\mu}}_{s}-\hat{\boldsymbol{\mu}}_{d, k}\right)^{\top}\right.\}}{\sum_{s=1}^{S_{d}} \hat{\theta}_{s, k}} \end{aligned} $ これらトピック文の事後分布の平均から、各文書毎にトピック文を生成する : $\hat{w}_{d, k} \sim \operatorname{RNN}\left(\hat{\mu}_{d, k}\right)$ 。既存研究 [4] と同様に、潜在分布の平均を用いることで、各トピックの要約文が得られることを期待する。 表 1 評価データセットにおける各モデルの ROUGE(F1)値(\%)。 ## 2.3 Gaussian Word Embedding との関連 こうして得られたトピック文が、上位トピックほどより一般的な内容になることを Gaussian Word Embedding との関連を交えて説明する。親子関係にあるトピック文の事後分布間の KL ダイバージェンス(KLD)は、式 (7) に示した変分下限の $\boldsymbol{x}_{s}$ に関する項によって上から抑えられる(A.2 節にて証明)。 $ \begin{aligned} & \sum_{s=1}^{S_{d}} \hat{\theta}_{s, k} \mathrm{D}_{\mathrm{KL}}\left[q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right) \mid p\left(\boldsymbol{x}_{s} \mid z_{s}=k\right)\right] \\ & \geq \sum_{s=1}^{S_{d}} \hat{\theta}_{s, k} \mathrm{D}_{\mathrm{KL}}\left[q\left(\boldsymbol{x}_{s} \mid z_{s}=k\right) \mid p\left(\boldsymbol{x}_{s} \mid z_{s}=k\right)\right] \\ &= \sum_{s=1}^{S_{d}} \hat{\theta}_{s, k} \mathrm{D}_{\mathrm{KL}}\left[q\left(\boldsymbol{x}_{s} \mid z_{s}=k\right) \mid q\left(\boldsymbol{x}_{s} \mid z_{s}=p a r(k)\right)\right] \end{aligned} $ 一方、Gaussian word embedding では、単語のタクソノミー上において、親と子の潜在分布間の KLD を最小化することで、「動物」といった一般的な単語の分散は大きく、「犬」や「猫」などの具体的な単語の分散は小さくなることが報告されている [11]。 これは「動物」は「犬」を指すことも「猫」を指すこともあり、意味の分散が大きいと説明できる。本研究も同様に、変分下限の最大化により、親子の潜在分布間の KLD の上界が最小化され、親トピック文の分散は大きく、子トピック文の分散が小さくなる。これも例えば、“I love this restaurant." など全体的な内容に関する文は、「料理」を指すことも「サービス」を指すこともあり、意味の分散が大きくなると説明できる。したがって、上位トピックほど潜在分布の分散が大きく、より一般的な文が生成される。 ## 2.4 トピック文の抽出 最後に、生成されたトピック文から要約に適切な文を抽出する。既存研究 [3] では、要約候補と入力文書間の ROUGE 值は、参照要約との ROUGE 値と高い相関があり、参照要約が存在しない状況下での要約候補評価に有用なことが報告されている。この知見をもとに、入力文書との ROUGE-1 (F1)を最大化するトピック文集合をビーム探索で選択する。 参照要約: The food here is fantastic, easily the best sub sandwiches in the Arizona area. The shop is local and family run, so I definitely choose it over a lot of the large national chains that are all around town. The staff are extremely friendly and will always go above and beyond in creating a delicious sandwich for you. You will not be let down by the great food that they make here! 図 3 レストランレビューから生成された要約例。 ## 3 実験 ## 3.1 実験設定 本実験では、Yelp と Amazon のレビューとそれを人手で要約した評価用データ $[3,4]$ を用いて、複数文書要約生成タスクにおける性能評価を行った。ベースラインには、各文書の先頭の文を抽出するMulti-Lead-1 に加え、教師なし抽出型手法である LexRank [13] と Opinosis [14]、及び教師なし生成型手法の MeanSum [3] と Copycat [4] を用いた。エンコー ダ・デコーダには GRU-RNN を用い、木構造は 3 階層で固定され、それぞれの親トピックは 4 つの子トピックを持つ。詳細な設定は A. 3 節にて補足する。 ## 3.2 要約生成の性能評価 表 1 に、評価データにおける ROUGE 値を示す。太字はモデルの内最大値を、下線は最大値との差が approximate randomization test において統計的に有意とは言えない $(p<0.05)$ ことを示す。いずれのデー タセットにおいても、ほぼ全ての評価指標において、提案法は MeanSum を上回り、最新の教師なし要約モデルである Copycat に対しては競合する性能が得られた。図 1 に示したレビューについて、実際に生成された要約を図 3 に示す。参照要約は「料理」「サービス」、「場所」について述べており、実 図 4 主成分分析により 2 次元空間において表したトピック文の潜在分布。各点は潜在分布の平均を示しており、それぞれの円は平均からのマハラノビス距離が等しい座標群を示す。 表 2 トピック文の平均類似度(高いほど類似)。 表 3 トピック文の詳細度合い(高いほど詳細)。 際に得られた要約においても同様のトピックについて述べていることが分かる。また、参照要約の最後の文は、結論として料理の美味しさに関して述べているが、提案法も同様に根トピックから料理の美味しさに関する内容のトピック文を生成している。 ## 3.3 トピック文と木構造の定量分析 得られたトピック文と木構造について、以下 $2 \supset$ の観点から、定量的な分析を行った。 親子間類似度親子関係にあるトピック文は類似するトピックについて述べていることが望ましい。 この特性を確認するために、親子ぺアと非親子ペアのトピック文の類似度を、semantic textual similarity タスク [15] で最高精度を達成している ALBERT [16] を用いて評価した。表 2 に示すように、親子関係にあるトピック文は、親子でないトピック文のペアより類似していることが確認された。 階層毎の詳細度合い提案法では、階層が深くなるにつれ、トピック文の内容がより具体的になることを期待している。この特性を検証するために、文の詳細度合い推定タスク [17] にて ALBERTを学習し、各階層のトピック文の詳細度合いを計測した。表 3 に示すように、階層が深いほど詳細度合いは高く、上位トピックからは一般的な、下位トピックからは詳細な内容の文が生成される傾向を確認した。表 4 各階層における分散共分散行列の行列式の対数。 ## 3.4 トピック文の潜在分布の分析 図 4 に、あるレストランレビューに関するトピック文の潜在分布について、その主成分べクトル空間を可視化した。仮説通り子トピック文の潜在分布は親のトピック文の分布に近い位置にあり、親子関係にあるトピック文が類似したトピックを持つものと考えられる。また表 4 に示すように、各階層における分散共分散行列の行列式の対数は、階層が深くなるにつれ小さくなることが確認された。したがって、葉に近づくにつれ潜在分布の分散が小さくなり、具体的な文が生成されることがわかる。 ## 4 おわりに 本研究では、文書から木構造上のトピックを推定し、トピック毎に要約文を生成することで、意見文書の要約が教師なしに得られることを示した。評価実験において、提案法の性能は最新の教師なし生成型要約手法と競合することを確認した。また、根の文の潜在分布は分散が大きく一般的な文が生成される一方、葉に近づくにつれ分散が小さくなり具体的な文が生成されるといった特性を確認した。これは単語の潜在表現にガウス分布を用いた Gaussian word embedding にて報告された特性と類似しており、要約のみならず、質問応答や対話生成などの文の詳細度合いを考慮する他タスクにも有用な知見である。 謝辞本研究は、JST ACT-X JPMJAX1904、JST CREST JPMJCR1513 及び JSPS 特別研究員奨励費 20J10726 の支援を受けたものである。 ## 参考文献 [1]Giuseppe Carenini, Jackie Chi Kit Cheung, and Adam Pauls. Multi-document summarization of evaluative text. Сотриtational Intelligence, 29(4):545-576, 2013. [2]Shima Gerani, Yashar Mehdad, Giuseppe Carenini, Raymond T Ng, and Bita Nejat. Abstractive summarization of product reviews using discourse structure. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pages 1602-1613, 2014. [3]Eric Chu and Peter Liu. Meansum: A neural model for unsupervised multi-document abstractive summarization. In Proceedings of the 36th International Conference on Machine Learning, pages 1223-1232, 2019. [4]Arthur Bražinskas, Mirella Lapata, and Ivan Titov. Unsupervised opinion summarization as copycat-review generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 5151-5169, 2020. [5]Reinald Kim Amplayo and Mirella Lapata. Unsupervised opinion summarization with noising and denoising. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 1934-1945, 2020. [6]Ivan Titov and Ryan McDonald. A joint model of text and aspect ratings for sentiment summarization. In Proceedings of the 46th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pages 308-316, 2008. [7]Stefanos Angelidis and Mirella Lapata. Summarizing opinions: Aspect extraction meets sentiment prediction and they are both weakly supervised. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 3675-3686, 2018. [8]Asli Celikyilmaz and Dilek Hakkani-Tur. A hybrid hierarchical model for multi-document summarization. In Proceedings of the 48th Annual Meeting of the Association for Computational Linguistics, pages 815-824, 2010. [9]Asli Celikyilmaz and Dilek Hakkani-Tur. Discovery of topically coherent sentences for extractive summarization. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pages 491-499, 2011. [10]Wenlin Wang, Zhe Gan, Hongteng Xu, Ruiyi Zhang, Guoyin Wang, Dinghan Shen, Changyou Chen, and Lawrence Carin. Topic-guided variational auto-encoder for text generation. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 166-177, 2019. [11]Luke Vilnis and Andrew McCallum. Word representations via gaussian embedding. In Proceedings of the 3rd International Conference on Learning Representations, 2015. [12]Masaru Isonuma, Junichiro Mori, Danushka Bollegala, and Ichiro Sakata. Tree-structured neural topic model. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 800-806, 2020. [13]Günes Erkan and Dragomir R Radev. Lexpagerank: Prestige in multi-document text summarization. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pages 365-371, 2004. [14]Kavita Ganesan, ChengXiang Zhai, and Jiawei Han. Opinosis: a graph-based approach to abstractive summarization of highly redundant opinions. In Proceedings of the 23 rd International Conference on Computational Linguistics, pages 340-348, 2010. [15]Daniel Cer, Mona Diab, Eneko Agirre, Iñigo Lopez-Gazpio, and Lucia Specia. Semeval-2017 task 1: Semantic textual similarity multilingual and crosslingual focused evaluation. In Proceedings of the 11th International Workshop on Semantic Evaluation, pages 1-14, 2017. [16]Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. In Proceedings of the 7th International Conference on Learning Representations, 2019. [17]Annie Louis and Ani Nenkova. Automatic identification of general and specific sentences by leveraging discourse annotations. In Proceedings of 5th International Joint Conference on Natural Language Processing, pages 605-613, 2011. [18]John Paisley, Chong Wang, David M Blei, and Michael I Jordan. Nested hierarchical dirichlet processes. IEEE Transactions on Pattern Analysis and Machine Intelligence, 37(2):256-270, 2014. [19]David Alvarez-Melis and Tommi S Jaakkola. Tree-structured decoding with doubly-recurrent neural networks. In Proceedings of the 5th International Conference on Learning Representations, 2017. [20]Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. CoRR, arXiv:1412.6980v9, 2014. ## A 付録 ## A. 1 木構造上のトピック分布の推定 本研究では、勾配降下法により学習可能な木構造ニュー ラルトピックモデル(TSNTM [12])を用いることで、文の木構造上のトピック分布を推定する。 前置きとして、木構造トピックモデルの一つである hierarchical Dirichlet process [18] は、各文に関する木構造上のパス分布 $\boldsymbol{\pi}_{s}$ と階層分布 $\boldsymbol{\phi}_{s}$ を下記式でモデル化する。 $ \begin{aligned} & v_{s, k} \sim \operatorname{Beta}(1, \gamma), \pi_{s, k}=\pi_{s, p a r}(k) v_{s, k} \prod_{j \in \operatorname{Sib}(k)}\left(1-v_{s, j}\right) \\ & \eta_{s, k} \sim \operatorname{Beta}(\alpha, \beta), \phi_{s, k}=\eta_{s, k} \prod_{j \in \operatorname{Anc}(k)}\left(1-\eta_{s, j}\right) \\ & \theta_{s, k}=\pi_{s, k} \cdot \phi_{s, k} \end{aligned} $ ここで、 $\operatorname{Sib}(k)$ 及び $\operatorname{Anc}(k)$ はそれぞれトピック $k$ の前の兄弟のトピック集合及び祖先のトピック集合を指す。 $\pi_{s, k}$ は文 $s$ が根トピックからトピック $k$ を通るパスを選択する確率を示す。一方、 $\phi_{s, k}$ は当該パス上で文 $s$ がトピック $k$ の祖先のトピック $j \in \operatorname{Anc}(k)$ を選択せず、トピック $k$ を選択する確率を示す。文 $s$ がトピック $k$ を選択する確率 $\theta_{s, k}$ はこれら 2 つの確率の積で表される。 一方、TSNTM は、 doubly-recurrent neural networks (DRNN[19])を用いて文の潜在表現 $\boldsymbol{y}_{s}=\operatorname{RNN}\left(\boldsymbol{w}_{s}\right)$ をパス分布 $\boldsymbol{\pi}_{s}$ 及び階層分布 $\boldsymbol{\phi}_{s}$ に変換する。DRNN は親子と兄弟間の 2 つの RNN デコーダで構成され、トピック $k$ の中間層は式 (15) で表される。この中間層から得られた棒折比率 $\boldsymbol{v}_{s}$ で式 12 を置き換え、パス分布を得る。 $ \begin{aligned} \boldsymbol{h}_{k} & =\tanh \left(\boldsymbol{W}_{p} \boldsymbol{h}_{\text {par }(k)}+\boldsymbol{W}_{s} \boldsymbol{h}_{k-1}\right) \\ v_{s, k} & =\operatorname{sigmoid}\left(\boldsymbol{h}_{k}^{\top} \boldsymbol{y}_{s}\right) \end{aligned} $ ただし $\boldsymbol{h}_{\operatorname{par}(k)}$ 及び $\boldsymbol{h}_{k-1}$ はそれぞれトピック $k$ の親とその前の兄弟である。同様に、階層分布もまた DRNNにより棒折比率 $\boldsymbol{\eta}_{s}$ を算出して得られる。 ## A. 2 式 (11) の導出 命題 $q\left(\boldsymbol{x}_{s} \mid z_{s}\right)$ が式 (8)、(9)、(10) により与えられる時、式 (17) が成り立つ: $ \begin{aligned} & \sum_{s} \hat{\theta}_{s, k} \mathrm{D}_{\mathrm{KL}}\left[q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right) \mid p\left(\boldsymbol{x}_{s} \mid z_{s}=k\right)\right]- \\ & \sum_{s} \hat{\theta}_{s, k} \mathrm{D}_{\mathrm{KL}}\left[q\left(\boldsymbol{x}_{s} \mid z_{s}=k\right) \mid p\left(\boldsymbol{x}_{s} \mid z_{s}=k\right)\right] \geq 0 \end{aligned} $ 証明式 (17) の第 1 項は以下のように展開できる。 $\sum_{s} \hat{\theta}_{s, k} \mathrm{D}_{\mathrm{KL}}\left[q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right) \mid p\left(\boldsymbol{x}_{s} \mid z_{s}=k\right)\right]$ $=\sum_{s} \hat{\theta}_{s, k} \mathrm{D}_{\mathrm{KL}}\left[N\left(\hat{\boldsymbol{\mu}}_{s}, \hat{\boldsymbol{\Sigma}}_{s}\right) \mid N\left(\hat{\boldsymbol{\mu}}_{d, p a r(k)}, \hat{\boldsymbol{\Sigma}}_{d, p a r(k)}\right)\right]$ $=\frac{1}{2} \sum_{s} \hat{\theta}_{s, k}\left.\{\log \left|\hat{\boldsymbol{\Sigma}}_{d, p a r(k)}\right|-\log \left|\hat{\boldsymbol{\Sigma}}_{s}\right|+\operatorname{Tr}\left[\hat{\boldsymbol{\Sigma}}_{d, p a r(k)}^{-1} \hat{\boldsymbol{\Sigma}}_{s}\right]\right.$ $\left.+\left(\hat{\mu}_{s}-\hat{\mu}_{d, p a r(k)}\right)^{\top} \hat{\Sigma}_{d, p a r(k)}^{-1}\left(\hat{\mu}_{s}-\hat{\mu}_{d, p a r(k)}\right)-d\right.\}$ $=\frac{1}{2} \sum_{s} \hat{\theta}_{s, k}\left.\{C_{d, p a r(k)}-\log \left|\hat{\boldsymbol{\Sigma}}_{s}\right|+\operatorname{Tr}\left[\hat{\boldsymbol{\Sigma}}_{d, p a r(k)}^{-1} \hat{\boldsymbol{\Sigma}}_{s}\right]\right.$ $\left.+\operatorname{Tr}\left[\hat{\boldsymbol{\Sigma}}_{d, p a r(k)}^{-1} \hat{\boldsymbol{\mu}}_{s} \hat{\boldsymbol{\mu}}_{s}^{\top}\right]-2 \hat{\boldsymbol{\mu}}_{d, p a r(k)}^{\top} \hat{\boldsymbol{\Sigma}}_{d, p a r(k)}^{-1} \hat{\boldsymbol{\mu}}_{d, k}\right.\}$ ただし、式 (9) から $\sum_{s} \hat{\theta}_{s, k} \hat{\mu}_{d, k}=\sum_{s} \hat{\theta}_{s, k} \hat{\mu}_{s}$ を用いた。 第 2 項についても同様に、以下のように展開できる。 $ \begin{aligned} & \sum_{s} \hat{\theta}_{s, k} \mathrm{D}_{\mathrm{KL}}\left[q\left(\boldsymbol{x}_{s} \mid z_{s}=k\right) \mid p\left(\boldsymbol{x}_{s} \mid z_{s}=k\right)\right] \\ = & \frac{1}{2} \sum_{s} \hat{\theta}_{s, k}\left.\{C_{d, p a r(k)}-\log \left|\hat{\boldsymbol{\Sigma}}_{d, k}\right|+\operatorname{Tr}\left[\hat{\boldsymbol{\Sigma}}_{d, p a r(k)}^{-1} \hat{\boldsymbol{\Sigma}}_{d, k}\right]\right. \\ & \left.+\operatorname{Tr}\left[\hat{\boldsymbol{\Sigma}}_{d, p a r(k)}^{-1} \hat{\boldsymbol{\mu}}_{d, k} \hat{\boldsymbol{\mu}}_{d, k}^{\top}\right]-2 \hat{\boldsymbol{\mu}}_{d, p a r(k)}^{\top} \hat{\boldsymbol{\Sigma}}_{d, p a r(k)}^{-1} \hat{\boldsymbol{\mu}}_{d, k}\right.\} \end{aligned} $ 表 5 データセット中のレビュー文書/要約の件数。 したがって、式 (17)は以下のように整理される。 $ \begin{aligned} & \sum_{s} \hat{\theta}_{s, k} \mathrm{D}_{\mathrm{KL}}\left[q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right) \mid p\left(\boldsymbol{x}_{s} \mid z_{s}=k\right)\right] \\ & -\sum_{s} \hat{\theta}_{s, k} \mathrm{D}_{\mathrm{KL}}\left[q\left(\boldsymbol{x}_{s} \mid z_{s}=k\right) \mid p\left(\boldsymbol{x}_{s} \mid z_{s}=k\right)\right] \\ = & \frac{1}{2} \sum_{s} \hat{\theta}_{s, k}\left.\{-\log \left|\hat{\boldsymbol{\Sigma}}_{s}\right|+\log \left|\hat{\boldsymbol{\Sigma}}_{d, k}\right|\right. \\ & \left.+\operatorname{Tr}\left[\hat{\boldsymbol{\Sigma}}_{d, p a r(k)}^{-1}\left(\hat{\boldsymbol{\Sigma}}_{s}+\hat{\boldsymbol{\mu}}_{s} \hat{\boldsymbol{\mu}}_{s}^{\top}-\hat{\boldsymbol{\Sigma}}_{d, k}-\hat{\boldsymbol{\mu}}_{d, k} \hat{\boldsymbol{\mu}}_{d, k}^{\top}\right)\right]\right.\} \\ = & \frac{1}{2} \sum_{s} \hat{\theta}_{s, k}\left.\{-\log \left|\hat{\boldsymbol{\Sigma}}_{s}\right|+\log \left|\hat{\boldsymbol{\Sigma}}_{d, k}\right|\right.\} \end{aligned} $ ただし、式 (10)より $\sum_{s} \hat{\theta}_{s, k}\left.\{\hat{\boldsymbol{\Sigma}}_{s}+\hat{\boldsymbol{\mu}}_{s} \hat{\boldsymbol{\mu}}_{s}^{\top}\right.\}=\sum_{s} \hat{\theta}_{s, k}\left.\{\hat{\boldsymbol{\Sigma}}_{d, k}+\right.$ $\left.\hat{\boldsymbol{\mu}}_{d, k} \hat{\boldsymbol{\mu}}_{d, k}^{\top}\right.\}$ を用いた。すなわち、与式はエントロピーの重み付け和の大小比較に帰着される。ここで一般に、 $-\int q_{1}(\boldsymbol{x}) \log q_{2}(\boldsymbol{x}) d \boldsymbol{x} \geq-\int q_{1}(\boldsymbol{x}) \log q_{1}(\boldsymbol{x}) d \boldsymbol{x}$ が成立することから、式 (21) が成り立つ。 $ \begin{aligned} & \sum_{s} \hat{\theta}_{s, k}\left.\{-\int q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right) \log q\left(\boldsymbol{x}_{s} \mid z_{s}=k\right) d \boldsymbol{x}_{s}\right.\} \\ & \geq \sum_{s} \hat{\theta}_{s, k}\left.\{-\int q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right) \log q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right) d \boldsymbol{x}_{s}\right.\} \end{aligned} $ 右辺はガウス分布のエントロピーの重み付け和であることから、以下のように書ける。 $ \begin{aligned} & \sum_{s} \hat{\theta}_{s, k}\left.\{-\int q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right) \log q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right) d \boldsymbol{x}_{s}\right.\} \\ = & \frac{1}{2} \sum_{s} \hat{\theta}_{s, k}\left.\{\log \left|\hat{\boldsymbol{\Sigma}}_{s}\right|+d \log 2 \pi+d\right.\} \end{aligned} $ 一方、左辺は以下のように展開できる。 $ \begin{aligned} & \sum_{s} \hat{\theta}_{s, k}\left.\{-\int q\left(\boldsymbol{x}_{s} \mid z_{s}=k\right) \log q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right) d \boldsymbol{x}_{s}\right.\} \\ = & \frac{1}{2} \sum_{s} \hat{\theta}_{s, k}\left.\{\log \left|\hat{\boldsymbol{\Sigma}}_{d, k}\right|+d \log 2 \pi\right. \\ & \left.+\mathrm{E}_{\boldsymbol{q}\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right)}\left[\left(\boldsymbol{x}_{s}-\hat{\boldsymbol{\mu}}_{d, k}\right)^{\top} \hat{\boldsymbol{\Sigma}}_{d, k}^{-1}\left(\boldsymbol{x}_{s}-\hat{\boldsymbol{\mu}}_{d, k}\right)\right]\right.\} \end{aligned} $ よって、式 (23) の最後の項は以下のように整理できる。 $ \begin{aligned} & \sum_{s} \hat{\theta}_{s, k}\left.\{\mathrm{E}_{q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right)}\left[\left(\boldsymbol{x}_{s}-\hat{\boldsymbol{\mu}}_{d, k}\right)^{\top} \hat{\boldsymbol{\Sigma}}_{d, k}^{-1}\left(\boldsymbol{x}_{s}-\hat{\boldsymbol{\mu}}_{d, k}\right)\right]\right.\} \\ = & \sum_{s} \hat{\theta}_{s, k}\left.\{\mathrm{E}_{q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right)}\left[\operatorname{Tr}\left(\hat{\boldsymbol{\Sigma}}_{d, k}^{-1}\left(\boldsymbol{x}_{s}-\hat{\boldsymbol{\mu}}_{d, k}\right)\left(\boldsymbol{x}_{s}-\hat{\boldsymbol{\mu}}_{d, k}\right)^{\top}\right)\right]\right.\} \\ = & \operatorname{Tr}\left[\hat{\boldsymbol{\Sigma}}_{d, k}^{-1} \sum_{s} \hat{\theta}_{s, k}\left.\{\mathrm{E}_{q\left(\boldsymbol{x}_{s} \mid \boldsymbol{w}_{s}\right)}\left[\left(\boldsymbol{x}_{s}-\hat{\boldsymbol{\mu}}_{d, k}\right)\left(\boldsymbol{x}_{s}-\hat{\boldsymbol{\mu}}_{d, k}\right)^{\top}\right]\right.\}\right] \\ = & \operatorname{Tr}\left[\hat{\boldsymbol{\Sigma}}_{d, k}^{-1} \sum_{s} \hat{\theta}_{s, k} \hat{\boldsymbol{\Sigma}}_{d, k}\right] \\ = & \sum_{s} \hat{\theta}_{s, k} d \end{aligned} $ したがって、式 (21)、(22)、(23)、(24)を整理すると、 $\sum_{s} \hat{\theta}_{s, k}\left.\{\log \left|\hat{\boldsymbol{\Sigma}}_{d, k}\right|\right.\} \geq \sum_{s} \hat{\theta}_{s, k}\left.\{\log \left|\hat{\boldsymbol{\Sigma}}_{s}\right|\right.\}$ が成り立ち、命題が成立することが示された。 ## A. 3 実験設定詳細 データセット中の文書及び要約の件数を表 5 に示す。参照要約は Amazon Mechanical Turk にて、各製品について 8 件のレビューの要約を依頼し作成された $[3,4]$ 。八イパーパラメータは検証データにおける性能をもとに決定され、単語の潜在表現、隠れ層及び文の潜在表現の次元数はそれぞれ 200、400 及び 32である。勾配降下法は Adam [20]を用い、学習率は $10^{-3}$ でバッチサイズは 4 である。
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B6-4.pdf
# 指定語句を確実に含む見出し生成 山田康輔 1,2 人見雄太 ${ }^{2}$ 田森秀明 2 岡崎 直観 3 乾 健太郎 4,5 1 名古屋大学 2 株式会社朝日新聞社 3 東京工業大学 4 東北大学 5 理化学研究所 yamada.kosuke@c.mbox.nagoya-u.ac.jp, processor.su2300@gmail.com, tamori-h@asahi.com, okazaki@c.titech.ac.jp, inui@ecei.tohoku.ac.jp ## 1 はじめに Rush ら [1] の研究以降,生成型要約モデルによる新聞記事の見出し生成が広く行われている。近年では,指定語句の挿入など,生成される見出しの制御に関する研究も盛んである. たとえば,Fan ら [2] は Convolutional Seq2Seq [3] を利用し,エンコーダに入力する記事の直前に指定語句を示す 1 トークンを插入することで,指定語句を含んだ見出しを生成するよう制御した。また, He ら [4] は BART [5] を利用し, Fan らの手法の拡張として記事の直前に指定語句と“”を挿入することで,複数トークンの語句指定を可能にした. 加えて,生成結果への指定語句の出現率を高めるために学習時に指定語句を一定の確率でドロップアウトさせている。 しかし,これらの手法は生成された見出しが指定語句を含む確率を高めることは可能だが,指定語句を含む見出しが必ず生成されるとは限らない. 記事を広告として用いるネイティブ広告向けの見出し生成では,見出しに指定語句を必ず含めなければならないケースがあり,実応用では指定語句が確実に含まれるような見出し制御が必要となる. そこで本研究では,指定語句を確害に含む見出しを生成する手法として,Dual Outward Generation mechanism (DOG) を提案する. DOG は見出しを生成する際に,文頭から文末へ生成するのではなく,指定語句から文頭および文末に向かって双方向に見出しを生成することで,指定語句を必ず含む見出し生成を実現する。表 1 に Fan ら [2] と He ら [4] の従来モデル1および DOG を用い,語句を指定したときの見出し生成例を示す. また,図 1 に記事中の単語 1,2,3-gram を指定したとき,指定された語句が生成結果に含まれた割合 (指定語句出現率)を示す. 実験には日本語の新聞記事-見出しぺアのコーパ  表 1: 従来モデルと DOG で語句を指定した見出し生成例 - 新聞記事: 刈谷市の伊勢湾岸自動車道のパーキングエリア「刈谷ハイウェイオアシス」の観覧車に、シースルーゴンドラが登場した。天井を除くイスや壁、床面が透明で、足元に広がる景色を 360 度楽しめる。観覧車は高さ 60 メートルで、 1 周約 12 分。 ## -人手で作成された見出し: 透明ゴンドラ登場刈谷ハイウェイオアシスの観覧車 $\cdot$指定語句が「360度楽しめる」の生成結果: DOG: 360 度楽しめる観覧車刈谷ハイウェイオアシス He: 風に誘われ、 360 度楽しむ刈谷ハイウェイオアシス Fan: 360 度の観覧車、シースルーゴンドラ登場刈谷ハイウェイオアシス ・指定語句が「透明ゴンドラ登場」の生成結果: DOG: 観覧車、透明ゴンドラ登場刈谷ハイウェイオアシス He: 観覧車にシースルーゴンドラ刈谷 Fan: 透明な景色、 360 度刈谷ハイウェイオアシス 図 1: 記事中の単語の 1,2,3-gram を指定語句としたときの各モデルの生成結果の指定語句出現率 ス Japanese News Corpus (JNC) [7] の 2019 年版を利用し,指定語句出現率と自動要約の評価指標として代表的な ROUGE [8] にて提案手法を評価した. 提案手法は指定語句出現率 $100 \%$ を達成し,ROUGE の F 值も従来手法と同等なスコアを達成した。 ## 2 提案手法 本研究では,指定語句を確実に含む見出し生成手法を提案する。具体的には,指定語句を $W\left(=y_{h: t}\right)^{2}$ $2 y_{h}$ と $y_{t}$ はそれぞれ指定語句の先頭トークンと末尾トークンを示し, $y_{h: t}$ はトークン列 $y_{h} \ldots y_{t}$ を意味する. (a) DOG w/ dual-independent decoder (b) DOG w/ single decoder 図 2: Dual Outward Generation mechanism (DOG) の概要図。青枠が Transformer のエンコーダ,緑枠がデコーダ,橙枠が生成機構を示す. エンコーダからデコーダへの矢印は,エンコードされた隠れ状態をデコーダの注意機構で参照していることを指す。また,点線の矢印は,見出しの生成順序を示す. として,見出し $Y\left(=y_{0: h-1}, W, y_{t+1: J+1}\right)$ を生成する場合,指定語句の 1 つの前のトークン $y_{h-1}$ から文頭トークン $y_{0}$ への生成と指定語句の 1 つ後のトークン $y_{t+1}$ から文末トークン $y_{J+1} への$ の生成を同時に行うことで実現する。提案モデルは Transformer [6] 型の Seq2Seq モデルを基本とする. ## 2.1 Transformer Transformer [6] は注意機構をベースとしたエンコーダ-デコーダモデルである. エンコーダは自己注意機構と 2 層のフィードフォワードネットワーク (FNN) からなる Transformer Encoder 層を複数層積み上げることで構成され,デコーダは自己注意機構,注意機構,2 層の FFN からなる Transformer Decoder 層を複数層積み上げることで構成される。これらの入力は単語埋め込み層と位置エンコーディング層によって生成される記事と見出しの各単語の埋め込みを利用する. また,デコーダの出力から線形変換層と Softmax 層を通すことで見出しの各単語を生成する. 本研究では,これら 2 層を合わせて生成機構と定義する。 ## 2.2 Dual Outward Generation mechanism 指定語句を確実に含む見出し生成するDual Outward Generation mechanism (DOG) は指定語句から文頭へ向けた前向きの生成と文末へ向けた後ろ向きの生成を行うため, 生成機構を 2 つ持つ構造となる.この構造の場合,前向きの生成機構と後ろ向きの生成機構で独立に生成するか,あるいは前向きと後ろ向きの生成機構で生成過程を共有しつつ生成するかの大きく 2 つのアイデアが考えられる. ## 2.2.1 各生成機構で独立に生成するモデル 前向きと後ろ向きの生成機構で独立に生成するモデルは,前向きと後ろ向きのトークン列を個別に入力する必要があり,各生成機構に対応する 2 つのデコーダを持つ. 見出し生成の各ステップでは,前向きのデコーダに指定語句と前向きの生成トークン列,後ろ向きのデコーダに指定語句と後ろ向きの生成トークン列を入力し,それぞれ独立に単語を生成する. 本モデルを DOG w/ dual-independent decoder と定義し,図 2 (a) に概要を示す。また,記事のトー クン列 $X$ ,見出しのトークン列 $Y\left(=y_{0: J+1}\right)$ ,指定語句のトークン列 $W\left(=y_{h: t}\right)$ ,指定語句から文頭までの見出しのトークン列 $\overleftarrow{Y}\left(=y_{0: h-1}\right)$ ,指定語句から文末までの見出しのトークン列 $\vec{Y}\left(=y_{t+1: J+1}\right), \overleftarrow{Y}$ の長さ $L_{\overleftarrow{Y}}=h, \vec{Y}$ の長さ $L_{\vec{Y}}=J-t+1$ とし, 式 1 のように定式化される. $ \begin{aligned} P(\overleftarrow{Y} \mid X, W) & =\prod_{j=1}^{L_{\overleftarrow{Y}}} P\left(y_{h-j} \mid y_{h-j+1: t}, X\right) \\ P(\vec{Y} \mid X, W) & =\prod_{j=1}^{L_{\widehat{Y}}} P\left(y_{t+j} \mid y_{h: t+j-1}, X\right) \end{aligned} $ 本モデルのデコーダの位置エンコーディング層に入力するトークン位置は,前向きでは指定語句の末尾を 0 としたときの距離の値,後ろ向きでは指定語句の先頭を 0 としたときの距離の値としている. 学習時には, 前向きと後ろ向きの見出しを分けて学習させるため,見出しを分割する必要がある. ${ }^{3}$ そこで,学習させる見出し中で無作為に 1 トークンを指定し,その位置を基準として見出しの分割を行う. 3 2.2.2 節のモデルも同様の処理が必要である. ## 2.2.2 生成機構間で生成過程を共有するモデル 2.2.1 節のモデルでは,前向きと後ろ向きでそれぞれ独立に生成しているため, 見出し生成中の各ステップにおいて互いの生成機構が生成したトークンを考慮しておらず,前向きと後ろ向きで似たトークン列が生成される可能性がある. そこで,DOG の生成機構間で生成過程を共有するモデルを考える。具体的には,見出し生成中の各ステップにおいて,前向きの生成トークン列,指定語句のトークン列,後ろ向きの生成トークン列を連結して 1 つのトークン列にまとめて入力とする。ここではデコーダを 2 つ持つモデルと 1 つ持つモデルを検討する. デコー ダが 2 つのモデルを DOG w/ dual decoder,デコーダが 1 つのモデルを DOG w/ single decoder と定義し, DOG w/ single decoder の概要を図 2 (b) に示す. また, 式 1 と同様の記号を用いて, 式 2 のように定式化される. $ P(\overleftarrow{Y}, \vec{Y} \mid X, W)=\prod_{j=1}^{L_{\max }} P\left(y_{h-j}, y_{t+j} \mid y_{h-j+1: t+j-1}, X\right) $ $L_{\text {max }}=\max \left(L_{\overleftarrow{Y}}, L_{\vec{Y}}\right)$ とし, $y_{<0}$ と $y_{>J}$ はトークン列長を揃えるための特殊トークン “<pad>”とする. 本モデルのデコーダの位置エンコーディング層に入力するトークン位置は, 中央から生成していくため,指定語句の中央を 0 とし,それより前向きは中央からの距離を負にした値, 後ろ向きは中央からの距離の值としている. また,本モデルの学習時には,デコーダの自己注意機構で使用するマスク方法に工夫を必要とする。通常の Transformer は文頭から文末に向けて見出しを生成するため, デコーダの自己注意機構にて入力時点以降の単語を参照しないために図 3 (a) に示す Causal Maskを活用している。しかし,DOGでは入力時点以降の単語を参照しないだけではなく, 入力時点以前の単語も参照しないようにする必要がある.このため, 図 3 (b) に示す Dual Outward Causal Mask (DOC Mask)を利用している。また,本モデルは学習時の分割した見出しを前向きと後ろ向きで長さを揃える必要があることに注意する。 ## 3 実験 ## 3.1 実験設定 提案手法と従来手法を比較するために日本語の新聞記事から見出しを生成するためのコーパスで (a) Causal Mask (b) DOC Mask 図 3: Causal Mask (左) とDOC Mask (右) の概要図. 白色のセルがマスクする箇所を示す.DOC Mask は学習時に $y_{3}$ を指定したときを示す。 ある Japanese News Corpus (JNC) [7] の 2019 年版を利用した. JNC には 1,932,399 件の記事-見出しぺアが存在し, 本研究ではこれらを学習セット, 開発セット,テストセットとして 98:1:1 の比率で無作為に分割した. テキストの形態素解析には ipadic"を用いた MeCab [9] を使用し, Byte Pair Encoding (BPE) ${ }^{5}$ [10] によるサブワード化を行っている. 指定語句は人手で作成された見出し中の内容語とし,評価指標には ROUGE-1, ROUGE-2, ROUGE-L の適合率, 再現率, およびその調和平均である $\mathrm{F}$ 値を利用した. ROUGEによる評価する際には,人手で作成された見出しと生成された見出しから指定語句を除去している。これは従来手法では指定語句が必ず含まれた見出しになるとは限らず,本研究の提案手法では必ず指定語句が含まれた見出しとなっているため,指定語句を除去しなければ提案手法が有利な評価となってしまうためである。また,生成結果の長さを分析するために, 生成された見出し数 $n$, 生成した見出しの長さを $l_{i}$, 人手で作成された見出しの長さを len として Average Length Error (ALE) (= $\frac{1}{n} \sum_{i=1}^{n} l_{i}-$ len) を算出する. 比較する手法は Transformer をべースモデルとした Fan ら [2] の手法と He ら [4] の手法とする. Fan らは記事の前に 1トークンのみの指定語句を挿入, $\mathrm{He}$ らは記事の前に複数トークンの指定語句と“"を挿入し,学習時に指定語句を一定の確率でドロップアウトさせている. これらの手法の学習時の指定語句は人手で作成された見出しから抽出している. He らの手法の学習時の指定語句は 3-gram までとする.  & & & \\ He et al. (2020) [4] (Transformer Ver.) & 95.9 & $52.7 / 49.3 / 49.4$ & $26.5 / 24.8 / 24.8$ & $43.5 / 40.0 / 40.6$ & -1.2 & 72 \\ DOG w/ dual decoder & $\mathbf{1 0 0 . 0}$ & $\mathbf{6 0 . 3 / 4 7 . 5 / 5 1 . 5}$ & $32.9 / 25.8 / 27.9$ & $50.9 / 40.1 / 43.6$ & -5.0 & 106 \\ DOG w/ single decoder & $\mathbf{1 0 0 . 0}$ & $59.3 / 47.9 / 51.4$ & $31.9 / 25.6 / 27.5$ & $50.0 / 40.2 / 43.3$ & -4.6 & 80 \\ 表 3: DOG w/ single decoder における生成例 } \\ ## 3.2 実験結果 表 2 に従来手法および提案手法の指定語句出現率 (SR), ROUGE-1,ROUGE-2, ROUGE-L $の$ 適合率,再現率, $\mathrm{F}$ 值,ALE,パラメータ数 (params)を示す.表 2 から従来手法が $95 \%$ 前後の指定語句出現率なのに対し,提案手法はモデルサイズを大きく変えずに 100\%出現させることに成功している. また, 各 ROUGE の再現率は従来手法の方が高いが,適合率は提案手法の方が高くなっており, $\mathrm{F}$ 値では同等のスコアとなっている.ここで,提案手法で ROUGE の再現率が低いのは,ALEの値が小さいことから生成結果が全体的に短い傾向があるためであると考えられる. 以上の結果から,指定語句を $100 \%$ 含めた見出しを生成した上で,モデルサイズおよび ROUGE の $\mathrm{F}$ 值が同等である提案手法は, 実応用上においても有用であることが確認できる. ## 3.3 提案手法による見出し生成例 表 3 に DOG w/ single decoder による見出し生成例を示す. たとえば,「桜といわしのパフェ」や「6月末まで」のような商品名や日付情報を指定した結果, これらの語句に合わせて自然な見出しが生成できており,また,記事中に存在しない「目からウ口コのおいしさ」のようなフレーズを指定しても自然な生成ができていることが確認できる。このような商品名や日付情報, フレーズの語句は忠実性が求められるため,指定語句を確害に出現させる提案手法は実応用の観点で需要が高い.たとえば,プレスリ リースを元にした記事や,ネイティブ広告の記事への見出し付与として活用が期待される. しかし,DOG は両方向同時に生成するため,「泳ぐ」を指定した生成例のように指定語句の前後どちらにも出現しうる単語を両方向共に生成させてしまったり,「展示」を指定した生成例のように文頭と文末のどちらにも出現しやすいと判断された単語のときに,両方向とも早い段階で生成を止める可能性があり,課題が残る。 ## 4 まとめと今後の展望 本研究では,指定語句を確実に含んだ見出しを生成するために,指定語句から文頭および文末に向かって見出しを生成する Dual Outward Generation mechanisum (DOG) を提案した. JNC を用いて DOG を評価したところ,従来手法では不可能だった指定語句出現率 100\%の見出し生成を可能にし,その上で ROUGE の F 值にて同等のスコアを達成した. 実験では日本語の見出し生成を行ったが,DOG は多言語の見出し生成や機械翻訳などの他タスクにも応用可能だと考えている. DOG はモデルのデコーダ側の機構を変更したが,エンコーダ側で指定語句の位置情報などを取り込むことでスコアが改善されると考えている.また,ビームサーチなどの動的計画法による生成もスコアの改善が期待される. ## 謝辞 本研究は, 東京工業大学のスパコン TSUBAME3.0 を用いて行った。 ## 参考文献 [1] Alexander M. Rush, Sumit Chopra, and Jason Weston. A neural attention model for abstractive sentence summarization. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing (ACL'15), pp. 379-389, 2015. [2] Angela Fan, David Grangier, and Michael Auli. Controllable abstractive summarization. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation (WNMT'18), pp. 45-54, 2018. [3] Jonas Gehring, Michael Auli, David Grangier, Denis Yarats, and Yann N Dauphin. Convolutional sequence to sequence learning. In Proceedings of the 34th International Conference on Machine Learning (ICML'17), pp. 1243-1252, 2017 [4] Junxian He, Wojciech Kryściński, Bryan McCann, Nazneen Rajani, and Caiming Xiong. CTRLsum: Towards generic controllable text summarization. arXiv preprint arXiv:2012.04281, 2020. [5] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL'20), pp. 7871-7880, 2020. [6] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems (NeurlIPS'17), pp. 5998-6008, 2017 [7] Yuta Hitomi, Yuya Taguchi, Hideaki Tamori, Ko Kikuta, Jiro Nishitoba, Naoaki Okazaki, Kentaro Inui, and Manabu Okumura. A large-scale multi-length headline corpus for analyzing length-constrained headline generation model evaluation. In Proceedings of the 12th International Conference on Natural Language Generation (INLG'19), pp. 333-343, 2019. [8] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out (WAS'04), pp. 74-81, 2004. [9] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing (ACL'04), pp. 230-237, 2004. [10] Philip Gage. A new algorithm for data compression. $C$ Users Journal, Vol. 12, No. 2, pp. 23-38, 1994.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B7-1.pdf
# Hie-BART : 階層型 BART による文書要約 秋山 和輝 1 二宮 崇 ${ }^{1}$ 1 愛媛大学大学院理工学研究科 電子情報工学専攻, 2 同志社大学 理工学部 情報システムデザイン学科 }^{1}\left.\{}.$ k_akiyama@ai., ninomiya@\}cs.ehime-u.ac.jp, ${ }^{2}$ aktamura@mail.doshisha.ac.jp ## 1 はじめに 近年,高い精度を報告している生成型の自動要約モデルは,ニューラルネットワークに基づくニュー ラル要約モデルであり,その多くが事前学習を導入している。これまで自動要約タスク用に拡張された事前学習モデルとして,BERTSUM モデル [1]が提案されている。また,複数タスクで利用することのできる汎用的な事前学習モデルとして,T5 モデル [2] や BART モデル [3] が提案されている. 既存の事前学習モデルの中でも,BART モデルは高い精度での自動要約を可能にしている。しかし,BART モデルは要約生成時に文書の階層構造をとらえる構造にはなっていない。 一方,ニューラル要約モデル同様,系列変換モデルが適用されることが多いニューラル機械翻訳では, 入力テキストの情報を「フレーズと単語」や「単語と文字」といった複数の粒度で捉えることで,翻訳精度の改善を実現している. Transformer[4] に基づくニューラル機械翻訳モデルでは,入力テキストを複数の粒度(単語やフレーズ)に分解し,それぞれの粒度を Multi-head Self-Attention Networks (SANs) の各ヘッドに割り当てることで,単語とフレー ズの関係を考慮する Multi-Granularity Self-Attention (MG-SA)[5] を組み込むことで,翻訳精度を向上させている.このモデルでは,MG-SAにより,単語間だけでなく単語とフレーズ間の相互作用を組み込むことが可能となる. そこで,本研究では,MG-SA の概念を BART モデルに適用し,文と単語の階層的な関係を考慮した要約を可能とする手法として,Hierarchical-BART (Hie-BART) を提案する. 具体的には, 入力文書を単語レベルと文レベルの情報に分割し,BART における Encoderの SANS 層では,単語レベルの関連を計算するだけではなく,一部のへッドにおいて文レベル の関連を計算する。そして,単語レベルと文レベルのマルチヘッドの出力を結合させることで,単語レベルと文レベルの双方を考慮した要約生成を行う。 提案モデルの評価は, CNN/DailyMail データセッ卜[6]を用いた自動要約タスクで行った. 既存の生成型自動要約モデルと比較した結果,提案モデルは非階層型の既存の BART モデルに比べて ROUGE-L[7] の F 值が 0.23 ポイント上回ることを確認した. ## 2 関連研究 ## 2.1 BART BART モデル [3] は, Transformer モデル [4] の構造をべースとした,汎用的な事前学習モデルである。事前学習の手法として,Token Masking,Sentence Permutation, Document Rotation, Token Deletion, Text Infilling の 5 つの手法を提案している. この 5 つの手法のうち, Sentence Permutation と Text Infilling を組み合わせたものが最高精度となっており, 最終的な評価時に使用されている. Sentence Permutation は,文書内の文の場所をランダムに交換した文書を元の文書に復元する事前学習法である. Text Infilling は,複数の単語列を一つのマスクトークンに置き換えたり,文中にマスクトークンを挿入したりした文書を,元の文書に復元する事前学習法である。 ## 2.2 Multi-Granularity Self-Attention (MG-SA) MG-SA [5] は,入力テキストを複数の粒度の要素 (単語とフレーズ)に分け,各粒度の要素を SANs の各へッドに割り当てることで異なる粒度の情報を捉える方法である。この手法ではまず,次のように, SANS の入力 $H$ からフレーズレベルの情報を表す行列 $H_{g}$ を生成する. $ H_{g}=F_{h}(H) $ ここで, $F_{h}($.$) は h$ 番目のヘッドに対するフレー ズレベルの入力を生成する関数である. 具体的には, $F_{h}($.$) は,単語レベルのベクトルに対して Max$ Pooling を適用することでフレーズレベルのベクトルを生成する。 この生成されたフレーズレベル入力を用いて, SANs を次のように実行する。 $ \begin{aligned} Q^{h}, K^{h}, V^{h} & =H W_{Q}^{h}, H_{g} W_{K}^{h}, H_{g} W_{V}^{h} \\ O^{h} & =\mathbf{A T T}\left(Q^{h}, K^{h}\right) V^{h} \end{aligned} $ ここで, $Q^{h} \in \mathbf{R}^{n \times d_{h}}, K^{h} \in \mathbf{R}^{p \times d_{h}}, V^{h} \in \mathbf{R}^{p \times d_{h}}$, $W_{Q}^{h}, W_{K}^{h}, W_{V}^{h} \in \mathbf{R}^{d \times d_{h}}$ であり, $d$ は隠れ層の次元数, $d_{h}$ は各へッドの次元数, $n$ は単語レベルのベクトルの次元数, $p$ はフレーズレベルのベクトルの次元数である.また, $\mathbf{A T T}(\mathbf{X}, \mathbf{Y})$ は $\mathrm{X}$ と $\mathrm{Y}$ のアテンション重みを算出する関数である。この演算により,SANs における各へッドの出力 $O^{h}$ が生成される. その後, 全てのヘッドの出力を結合させたものが,入力 $H$ に対する MG-SA の出力となる. $ \operatorname{MG-SA}(\mathbf{H})=\left[O^{1}, \ldots, O^{N}\right] \text {, } $ 各ヘッドの出力 $O^{h}$ は,単語間の情報を含んでいるものや,単語とフレーズ間の情報を含んでいるものがある. したがって,MG-SAを使うことで,単語間の関連性に加えて, 単語間とフレーズ間の関連性を捉えることができる. 図 1 Hie-BART のモデル図 ## 3 提案手法 Hie-BART(Hierarchical-BART)モデルでは,エンコーダは,通常の BART モデルが備えている単語同士の関連性を捉える単語レベルの Multi-head Self-Attention Networks (SANs)に加えて,文と単語間の関連性を捉える文レべルのSANs を備えている。 Hie-BART の概要図を図 1 に示す. エンコーダでは,入力テキストをEmbedding 層に通した後, SANs での計算時に単語レベルと文レべルに分割して計算する。ここで,各文を区別するために,入力テキスト中の各文の先頭には $[B O S]$ トー クンを付与している. 文レベルの SANs では, Create Sentence Level Vector 層で単語レベルの入力から文レベルの入力を作成した後, アテンションの計算を行う. 各へッドでアテンションの計算が終了したら,単語及び文レベルの出力を結合したものを,次層の Feed Forward 層への入力とする. ## 3.1 Create Sentence Level Vector 層 Create Sentence Level Vector 層の動作例を図 2 に示す. 図 2 において, $E_{w_{i j}}$ 及び $E_{[B O S]}$ は単語 $w_{i j}(i$番目の文中の $j$ 番目の単語)及び $[B O S]$ トークンの埋め込みべクトルである. $E_{S_{i}}$ は. 単語レベルの埋め込みべクトルから生成された文 $s_{i}$ ( $i$ 番目の文) の文レベルの埋め込みベクトルである. Create Sentence Level Vector 層では,単語レベルの埋め込みべクトルから Average Pooling により文レべルの埋め込みべクトルを生成する. 具体的には, 単語系列 $W=\left(w_{1}, \ldots, w_{N}\right)$ (各 $w_{i}$ は単語)が入力として与えられた場合,まず,単語系列 $W$ を文分割し,文系列 $S=\left(s_{1}, \ldots, s_{M}\right)$ (各 $s_{i}$ は文)を得る.ここで, $N$ は総単語数, $M$ は総文数を示す. そして,$S$ の各要素(各文)に対して,次のように Average Pooling を適用する。 $ g_{m}=\operatorname{AVG}\left(s_{m}\right) $ ここで,AVG(・)は Average Poolingを実行する関数である。これにより,各文に対する埋め込みベクトル $G=\left(g_{1}, \ldots, g_{M}\right)$ を生成する. 実際には, $W$ と $S$ の各要素は埋め込みべクトルとなる.例えば,図 2 において, $E_{S_{1}}$ を生成する場合は, $\left[E_{[B O S]}, E_{w_{11}}, E_{w_{12}}, E_{w_{13}}\right]$ に対して Average Pooling を適用する。 以上のように生成された $G$ を文レベルの SANs の入力とする. 図 2 Create Sentence Level Vector 層の動作例 図 3 Concatenate 層の動作例 (ヘッド数が 6 の場合) ## 3.2 Concatenate 層 Concatenate 層では,単語レベル SANs と文レベルの SANs の出力を結合させる. Concatenate 層では,次のような単語レベル SANS と文レベルの SANS 層の出力が入力となる. $ \begin{aligned} & \operatorname{MG-SANS}(\mathbf{W})=\left[O_{w}^{1}, \ldots, O_{w}^{H}\right]=O_{w}^{A L L} \\ & \operatorname{MG-SANs}(\mathbf{G})=\left[O_{s}^{1}, \ldots, O_{s}^{H}\right]=O_{s}^{A L L} \end{aligned} $ $O_{w}^{A L L}$ は単語レベルの SANs の出力であり, $O_{w}^{i}$ は単語レベルの SANS のヘッド $i$ の出力である。一方で, $O_{s}^{A L L}$ は文レベルの SANs の出力であり, $O_{s}^{i}$ は文レベルの SANS のヘッド $i$ の出力である. ここで, $H$ は SANs のヘッド数を示す. Concatenate 層では,この単語及び文レベルの SANs の出力結果を次のように結合させる. $ \begin{aligned} & \operatorname{CONCAT}\left(O_{w}^{A L L}, O_{s}^{A L L}, h\right) \\ = & {\left[O_{w}^{1}, \ldots, O_{w}^{h}, O_{s}^{h+1}, \ldots, O_{s}^{H}\right] } \end{aligned} $ ここで, $h$ は結合点である. $H$ 個の Multi-head の内, 1 から $h$ までのへッドを単語レベルの出力とし, $h+1$ から $H$ までのへッドを文レベルの出力として結合する。 Hie-BART 内の Concatenate 層の動作例を図 3 に示す. 図 3 は,Multi-head のヘッド数が 6 で,結合点 $h$ が 4 の場合の動作を示している。単語レベルの SANS の出力である $\left[O_{w}^{1}, \ldots, O_{w}^{6}\right]$ と, 文レベルの SANs の出力である $\left[O_{s}^{1}, \ldots, O_{s}^{6}\right]$ が結合点 $h=4$ で結合された $\left[O_{w}^{1}, O_{w}^{2}, O_{w}^{3}, O_{w}^{4}, O_{s}^{5}, O_{s}^{6}\right]$ が Concatenate 層の出力となる。 以上のように生成された Concatenate 層の出力を次層の Feed Forward 層への入力とする. ## 4 実験 ## 4.1 データセット データセットは,英文ニュース記事の要約コーパスである CNN/DailyMail データセット ${ }^{1)}$ [6] を使用した. このデータセットは,学習データが 287,226 対,開発データが 13,368 対,テストデータが 11,490 対で構成されている. また,要約元文書は平均 781 トークン,要約文は平均 56 トークンである。デー タの前処理はトークン化は CNN/DailyMail ダウンロードページ1)の通りに行い,BPE の使用などは fairseqによる前処理に基づいて行った2).  表 2 単語レベルと文レベルのヘッド数の割合による性能比較(開発データでの性能) ## 4.2 実験設定 Hie-BART モデルの実装は, fairseq による BART モデルのコードを基に改良することで実装した. また,事前学習済みのモデルは fairseq のモデル “bart.large”2)を使用した. BARTを fine-tuning する際は,勾配累積のハイパーパラメータ update-freqを 10,最大エポック数 max-epochを 6 , 総学習ステップ数を 23,916とした. また,提案手法 Hie-BART のハイパーパラメータは, Multi-head のへッド数を 16, 単語レベルと文レベルの SANs における出力の結合ヘッド数の割合を “単語:文 $=14: 2$ ” とした. 結合ヘッド数の割合のハイパーパラメータは開発デー タで調整した。表 2 に示す通り,開発データにおいて最も性能がよかった割合を採用している。このハイパーパラメータに関しては, 5 章にて考察する. その他のハイパーパラメータは fairseqによる設定2) を用いた。 ## 4.3 結果 実験結果を表 1 に示す。ここでは, CNN/DailyMail のテストデータによる結果を示している. 評価指標として, ROUGE-1, ROUGE-2, ROUGE-L $の \mathrm{~F}$ 値 [7] とそれらの平均値を用いた. ROUGE スコアの算出には, files2rouge ${ }^{3}$ を利用した。実験では,提案手法の Hie-BART モデルを,非階層の通常の BART モデルに加えて, LEAD-3[8], BertSumExtAbs[1], T5[2] と比較した. ベースラインの BART モデルとして,我々の計算機環境で再現した BART モデルの結果 (BART (ours))に加えて, Lewis ら [3] で報告されて  いる結果も示している. 表 1 より,提案手法 Hie-BART は ROUGE-1/2/L の F 値において,Lewis らが報告している BART の性能から平均約 0.1 ポイント改善していることが分かる.また,我々が再現した BARTからは,平均約 0.2 ポイント改善していることが分かる. これらの結果より,提案手法が有効であることを確認できた. ## 5 考察 提案手法は, Concatenate 層で単語レベルと文レべルのへッドの出力を特定の割合で結合する。この割合の変化で提案手法の性能がどう変わるかを考察する. 表 2 に,結合時の単語レベルと文レベルのへッドの割合を変えた時の提案手法の開発データにおける性能を示す. ヘッド数の割合はハイパーパラメー タとして手動で調節しており, 表 2 の最左列に示されている. 最左列が “単語:文 $=x: y$ ” の場合,単語レベルのへッド数が $\mathrm{x}$, 文レベルのへッド数が $\mathrm{y}$ を意味する. 表 2 より,“単語:文 $=14: 2$ ” の場合が ROUGE-1/2/L スコアの平均が最大になっていることが分かる. また, 単語レベルに比べて文レベルのへッド数の割合が少ない方が,ROUGE スコアが高くなる傾向にあることが分かる. ただし,文レベルのへッド数が 0 ,つまり通常の非階層の BARTによる精度は, Hie-BART よりも性能が低い。また,単語レベルのヘッド数を 8 以下に減らしていく方向は, 精度の改善が見られなかったので表 2 には掲載していない。 ## 6 おわりに 本研究では,BART におけるエンコーダの SelfAttention 層を単語レベルと文レベルに分割し計算することで,単語と文間の関係性を考慮する Hie-BART を提案した. BARTを階層化することにより, CNN/DailyMail データセットにおいて, ROUGE-L の F 值が 0.23 ポイント改善することを確認した. 今後は, 単語間や単語と文間の情報に加え,文同士の関係を取り入れる手法に拡張予定である.また, Xsum データセットなどの CNN/DailyMail データセット以外のデータセットで提案モデルの有効性を検証予定である. ## 参考文献 [1] Yang Liu and Mirella Lapata. Text summarization with pretrained encoders. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3730-3740, Hong Kong, China, November 2019. Association for Computational Linguistics. [2] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [3] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880. Association for Computational Linguistics, July 2020. [4] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30, pp. 5998-6008. Curran Associates, Inc., 2017. [5] Jie Hao, Xing Wang, Shuming Shi, Jinfeng Zhang, and Zhaopeng Tu. Multi-granularity self-attention for neural machine translation. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 887-897, Hong Kong, China, November 2019. Association for Computational Linguistics. [6] Karl Moritz Hermann, Tomas Kocisky, Edward Grefenstette, Lasse Espeholt, Will Kay, Mustafa Suleyman, and Phil Blunsom. Teaching machines to read and comprehend. In Advances in neural information processing systems, $\mathrm{pp}$. 1693-1701, 2015. [7] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, July 2004. Association for Computational Linguistics. [8] Ramesh Nallapati, Feifei Zhai, and Bowen Zhou. SummaRuNNer: A recurrent neural network based sequence model for extractive. In Proceedings of In Association for the Advancement of Artificial Intelligence, 2017.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B7-2.pdf
# 非自己回帰モデルを用いた日本語見出し生成の検討 野崎 樹文 ${ }^{1,2 *}$ 近藤雅芳 1 内山 達也 ${ }^{1}$ LINE 株式会社 1 京都大学 工学部情報学科 ${ }^{2}$ \{nozaki.jumon, masayoshi.kondo, tatsuya.uchiyama\}@linecorp.com ## 1 はじめに スマートフォンの普及と共にインターネットメディアの影響力は益々大きくなりつつある。拡大し続けるインターネットメディア上での効率的なプラットフォーム運営を目的として、掲載記事の自動編集機能のひとつに見出し生成技術がある $[1,2,3,4]$ 。見出し生成とは、記事本文を入力し見出しを出力する技術で、要約タスクとして扱われる。従来、ニューラルネットを用いた見出し生成では、エンコーダ・デコーダモデルを用いて目的の出力系列を逐次的に生成することが一般的であった。 このようなモデルは自己回帰モデルと呼ばれ、モデル推論時の時間計算量が出力系列長に比例するため、生成に遅延が生じる欠点がある。 近年、このような問題を解決するアプローチとして、機械翻訳の分野において、出力系列を並列に生成する非自己回帰モデルの研究が活発に進められている $[5,6,7,8,9]$ 。非自己回帰モデルは、出力トークン間の依存関係を捉えにくく現状では性能面で従来のモデルに及ばないものの、出力系列のトークンを並列に出力するため、時間計算量が出力系列長に依存せず、高速な生成を実現できる利点がある。 本研究では、見出し生成技術の高度化を目的として、非自己回帰モデルを用いた日本語見出し生成の検証を行う。具体的には、ニュース記事と見出しのペアから構成されるデータセットに対して、非自己回帰モデルである Conditional Masked Language Model [10]を用いる。また、機械翻訳等の分野において、非自己回帰モデルの性能向上が報告されているいくつかの有効な手法 $[11,12,13]$ の適用も検証する。さらに、近年、記事を掲載するメディアのレイアウトや表示デバイスのサイズに合わせて、生成す  る見出しの出力長に制限を課す技術の研究が積極的に進められている $[14,15]$ ことから、本研究では非自己回帰モデルの出力長の制御を試みる。具体的には、CMLMが推論時に出力系列長を予め予測することに着目し、その出力系列長を目的の文字数に定めることで正確に出力長を制御する方法を検証する。 ## 2 事前準備 ## 2.1 問題設定 見出し生成タスクは、 $S$ 個のトークンで構成される文 $X=\left.\{x_{i}\right.\}_{i=1}^{S}$ を大力として与えられた時、 $T$ 個のトークン $(T<S)$ で構成される尤もらしい見出し $Y=\left.\{y_{i}\right.\}_{i=1}^{T}$ を出力するモデルを得ることを目的とする。本研究では、日本語のデータセットを用いる。 ## 2.2 非自己回帰モデル 入力文 $X$ が与えられた時に見出し $Y$ を生成する自己回帰モデル $P_{A R}(Y \mid X)$ は、これまでに生成されたトークン列 $y_{<t}$ の条件付き確率の積として以下のようにモデル化される。 $ P_{A R}(Y \mid X)=\prod_{t=1}^{T} P\left(y_{t} \mid y_{<t}, X\right) $ 一方、非自己回帰モデル $P_{N A R}(Y \mid X)$ は、生成トークン間の依存関係が無く、その出力系列の生成確率を入力系列のみに依存する条件付き独立の確率の積として以下のようにモデル化される。 $ P_{N A R}(Y \mid X)=P_{L}(T \mid X) \cdot \prod_{t=1}^{T} P\left(y_{t} \mid X\right) $ $P_{L}$ は出力系列長 $T$ を予測する確率関数で、モデルの学習過程で同時に学習される。非自己回帰モデルは、トークンを並列に生成することで生成の高速化が期待できる。一方、トークン間の依存関係が陽にモデル化されないため、自己回帰モデルと同様の学習枠組みでは性能が低くなることが知られている。 ## 2.3 Conditional Masked Langage Model Ghazvininejad ら [10] は、前述の課題に対するアプローチとして、Conditional Masked Langage Model (CMLM) という非自己回帰モデルを提案した。モデルの学習時は、正解出力系列をランダムにマスクした系列を入力とし、マスクに入るトークンを予測する。一方で、推論時は $P_{L}$ を用いて予測した系列長のマスクトークンからはじめ、予測尤度の高いトー クンとマスクトークンを置き換える操作を予め定められた復号ステップ数だけ繰り返すことによって生成を行う。この時、各復号ステップで埋めるマスクトークン数は、一定になる様にする。 ## 2.4 検証技術 本研究では、非自己回帰モデルを用いた見出し生成に加え、以下の 4 つの手法の検証も行う。 i) 知識蒸留: Sequence-level knowledge distillation [11] は、訓練データの正解ラベルを自己回帰モデルの推論結果で置き換え、そのデータを非自己回帰モデルの訓練データとして用いるという、知識蒸留の手法のひとつである。これにより、multimodality problem [5] が緩和され、学習が安定する効果がある。 ii) 縮約操作: 非自己回帰モデルの生成結果には同一トークンの連続が含まれやすいことが知られてお り、これに対し Lee ら [12] は連続した同一トークンの重複を排除する手法を提案した。本研究ではこの手法を縮約操作と呼び、検証に用いる。 iii) 語彙分割: 語彙サイズを大きくすることで、各トークンが独立に生成されるという非自己回帰型モデルの仮定の欠点を補う効果があり、精度が向上するという報告がある [13]。本研究では、語彙として文字単位を用いた場合と SentencePiece [16] 用いた場合との精度を比較する。また SentencePiece の語彙サイズを大きくした時の精度の変化を調べる。 iv) 出力系列長の制御: 非自己回帰モデルの出力系列長に制限を課すことを目的として、CMLM の推論時の初期マスクトークンの数を目的の系列長にすることで、陽に出力長を制御する方法を検証する。 ## 3 実験設定 ## 3.1 データセット 本研究では 2 つのデータセットを用いる。ひとつは、インターネットメディアから独自に収集し た日本語の Webニュース記事で構成されたデータセット (以下、日本語 Web ニュースデータセット) 1)である。このデータセットは、記事と見出しのぺアで構成される。実験の際には訓練データと類似するデータが開発データやテストデータに含まれないようにするため、記事取得時刻順に訓練、開発、テストデータとなる様に分割した。もうひとつは、livedoor ニュースコーパス2)である。このデー タセットはテストセットとしてのみ利用する。トー クナイズは、文字単位または SentencePiece3)を用いる。その他のデータセットの詳細は、付録.A に記載する。 ## 3.2 実装の詳細 非自己回帰モデルとして CMLMを用いる。自己回帰モデルには Transformer [17] を用いる。両モデルのエンコーダとデコーダの層数はそれぞれ 1 層ずつ4)とし、知識蒸留用の教師モデルの Transformer はそれぞれ 3 層ずつとした。推論速度の比較には、 バッチサイズを 1 とし、それぞれの実験で 5 回ずつ計測をした平均値を用いた。語彙サイズは、文字単位については訓練データ内で 5 回以上出現する 3392 種とし、SentencePiece については 8000 とした。実 細は、付録.Bに示す。 ## 3.3 評価方法 本研究では、以下の 3 つの評価指標を用いる。 ROUGE: 見出しの品質評価を目的に、F1 ベースの ROUGE スコアを用いる。出力系列と正解見出しに対して MeCab [18] よる分かち書きをしてから計算を行う。 Repetition Rate (RR): 非自己回帰モデルの出力系列に対する同一トークンの連続の多さを測る指標として、Repetition Rate (RR) を以下のように定義し用いる。 $ R R=\frac{1}{n} \sum_{i=0}^{n} \frac{r_{i}}{t_{i}-1} $ $t_{i}$ は出力系列のトークンの数、 $r_{i}$ は出力系列内の 1)会員制サイト等を除く、自由閲覧可能なメディアから収集・構築した。非公開のものである。 2) https://www. rondhuit.com/download.html 3) https://github.com/google/sentencepiece 4)データセットサイズが小規模であったため、大きいモデルサイズでは学習が安定しなかった。また、 1 層で比較検証するには十分な性能が出たため、本研究では 1 層とした。 5) https://github.com/pytorch/fairseq 表 1: 日本語 Webニュースデータセットを用いた性能比較。b は推論時のビーム幅、k は CMLM の復号ステップ数を示す。また、**は、CMLMにおける知識蒸留の教師モデルを示す。速度は、日本語 Webニュース記事データセットに対するビーム幅 5 の Transformer の生成速度を基準として、各モデルの生成速度の倍率を示している。 トークン単位の bigram の内、同一トークンで構成されるものの数である。 文長の分散値: 文字長制御の効果検証を目的に、高瀬ら [19] に倣い、以下の指標を用いる。 $ \operatorname{var}=\frac{1}{n} \sum_{i=0}^{n}\left|l_{i}-l e n\right|^{2} $ var は、モデルの出力系列長に対する正解系列長との分散を表す指標で、 $n$ はデータの数、 $l_{i}$ は生成結果の見出しの長さ、len は正解見出しの長さを表す。 ## 3.4 出力系列長の制御方法 本研究では、モデルの出力系列長の制御方法として、以下の 4 つの方法を検証する。この検証では、 トークナイズに文字単位を用いる。 打ち切り: 目的の文字数よりも長い系列を生成した場合に目的の文字数で打ち切り、以降の文字を切り捨てる。 固定長: Rush ら [1] の提案した自己回帰モデルに対する出力長制御手法で、目的の文字数まで終端記号を出力しないことで強制的に目的の文字数までの出力系列を生成する。 制御コード:人見ら [20] の提案した自己回帰モデルに対する出力長制御手法で、目的の文字数を表す制御コードを入力に加える。本研究では、制御コー ドとして 6〜69 文字を表す 64 種類を用いる。 固定長初期化: 我々は、CMLM の推論時の初期マスクトークンの系列長を目的の文字数に定め、陽に出力長を制御する。学習時には、誤差関数から長さ予測に関する項を除いて CMLM の学習を行う。また、人見らの方法と同様に入力に目的系列長を表す制御コードを加えた。 ## 4 実験結果 ## 4.1 自己回帰モデル vs. 非自己回帰モデル まず、自己回帰モデルの Transformer と非自己回帰モデルの CMLM との性能比較を表 1 に示す。 CMLM は、復号ステップ数 $k$ が増えるにつれて ROUGE スコアが大きく改善した。また、縮約操作、知識蒸留、subword の利用といった個々の操作を適用した場合それぞれで ROUGE スコアが改善した。 さらに、これら 3 つの操作全てを適用した場合、個々の操作だけの場合よりも大きくROUGE スコアが改善し、生成速度も約 3 倍程度高速であった。一方で、性能面で依然として自己回帰モデルに及んでいない課題は残る。繰り返し生成の問題については、非自己回帰モデルは自己回帰モデルと比較して RR の値が大きく、同一トークンの連続した生成が多いことが分かる。これに対して、縮約操作を適用することで繰り返し生成の問題が回避され、RRが 0 となるだけでなく、ROUGE スコアも 1 ポイント以上向上した。 表 2 に livedoorニュースコーパスに対して生成された見出しのサンプルを示す。CMLM の復号ステップ数が大きくなると、文字の繰り返し生成が低減している。さらに、CMLMに3つの操作をそれぞれ適用していくと、生成された見出しの可読性が向上していくことが確認できる。また、正解見出しと 表 2: livedoorニュースコーパスを用いて生成された見出しのサンプル。サンプルの正解見出しと各モデルにより生成された見出しをそれぞれ示す。トークナイズには、文字単位を用いた。 図 1: subword の語彙サイズを変更した場合の CMLM と Transformer のそれぞれの精度を示す (実線)。縦軸は 3 つの ROUGE 值 (R-1, R-2, R-L) の幾何平均値を、横軸は語彙サイズを示す。また、破線はトークナイズに文字単位 ( size:3392)を適用した場合の精度を示している。データセットは、日本語 Webニュースデータを用いた。本実験の詳細なスコアは、付録.C に記載。 各モデルの生成見出しの差異が大きい要因として、学習時とテスト時で異なるデータセットを用いたことが考えられる。 ## 4.2 語彙と性能の関係 次に、図 1 に語彙分割の方法と性能との関係を示す。subword の語彙数が、自己回帰モデルでは 4,000 の時に、非自己回帰モデルでは 8,000 の時に、それぞれ最も性能が高かった。また、トークナイズに文字単位と subword を用いた場合で比較すると、非自己回帰モデルの方が自己回帰モデルよりも性能の向上幅が大きかった。一方で、自己回帰モデルと非自己回帰モデルで共に、subword の語彙サイズが 16,000 以上になると性能が低下した。これは、今回用いたデータセットのサイズが比較的小さく、大きな語彙サイズによる学習が安定しなかったことが要因であると考えられる。 表 3: 出力系列長の制御を適用した場合の性能を示す。 データセットは、日本語 Webニュースデータセットを用いた。トークナイズは、文字単位を用いた。 ## 4.3 出力系列長の制御 最後に、表 3 に、各モデルに出力系列長の制御の手法を適用した場合の性能を示す。自己回帰モデルでは、全ての制御方法において正解系列長との分散の値は小さくなる一方、性能の低下が確認された。 それに対して、非自己回帰モデルでは、目的文字数以降の文字を打ち切る方法では性能が低下したが、初期化トークンを目的文字数に固定する方法では正確に長さ制御を行いつつ性能が向上した。これは、目的の文字数を正確に出力していることに加え、損失関数から長さ予測に関する項が取り除かれることで学習が安定したことが理由として考えられる。 ## 5 おわりに 本研究では、非自己回帰モデルを用いた見出し生成を行い、自己回帰モデルとの性能比較を行った。 また、機械翻訳等で用いられている、非自己回帰モデルの性能向上を目的としたいくつかの手法について、日本語見出し生成タスクでも同様の有効性を確かめた。さらに、非自己回帰モデルによる生成時に、生成長を予め与える簡易な方法で性能を向上させながら正確に出力長を制御できることを示した。一方で、未だ自己回帰モデルの生成する見出しとの品質差は大きい。今後は、非自己回帰モデルの精度をより高めていくために大規模な事前学習済み言語モデル $[21,22,23,24]$ などの利用を検討予定である。 ## 参考文献 [1]Alexander M Rush, Sumit Chopra, and Jason Weston. A neural attention model for abstractive sentence summarization. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 379-389, 2015. [2]Kazuma Murao, Ken Kobayashi, Hayato Kobayashi, Taichi Yatsuka, Takeshi Masuyama, Tatsuru Higurashi, and Yoshimune Tabuchi. A case study on neural headline generation for editing support. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Industry Papers), pp. 73-82, 2019. [3] 人見雄太, 田口雄哉, 田森秀明, 岡崎直観, 乾健太郎. 小規模リソースにおける生成型要約のためのスタイル転移. 言語処理学会第 26 回年次大会, 2020. [4]小林健, 小林隼人, 村尾一真, 増山毅司. 複数エンコーダを用いたヤフートピックス見出し候補生成. 言語処理学会第 26 回年次大会, 2018. [5]Jiatao Gu, James Bradbury, Caiming Xiong, Victor OK Li, and Richard Socher. Non-autoregressive neural machine translation. In International Conference on Learning Representations, 2018 [6]Jiatao Gu, Changhan Wang, and Junbo Zhao. Levenshtein transformer. In Advances in Neural Information Processing Systems, pp. 11181-11191, 2019. [7]中村朝陽, 鶴岡慶雅. 非自己回帰的な生成と事前学習を用いた機械翻訳への試み. 言語処理学会第 26 回年次大会, 2020 . [8]安井豪, 鶴岡慶雅, 永田昌明. モデルに基づくマスキングを行う非自己回帰的ニューラル機械翻訳. 言語処理学会第 26 回年次大会, 2020. [9]朱中元, Jason Lee, Kyunghyun Cho, 中山英樹. 潜在変数の精緻化による非自己回帰型ニューラル機械翻訳. 言語処理学会第 26 回年次大会, 2020. [10]Marjan Ghazvininejad, Omer Levy, Yinhan Liu, and Luke Zettlemoyer. Mask-predict: Parallel decoding of conditional masked language models. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 6114-6123, 2019. [11]Yoon Kim and Alexander M Rush. Sequence-level knowledge distillation. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1317-1327, 2016. [12]Jason Lee, Elman Mansimov, and Kyunghyun Cho. Deterministic non-autoregressive neural sequence modeling by iterative refinement. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 1173-1182, 2018 [13]Hirofumi Inaguma, Yosuke Higuchi, Kevin Duh, Tatsuya Kawahara, and Shinji Watanabe. Orthros: Nonautoregressive end-to-end speech translation with dualdecoder. arXiv preprint arXiv:2010.13047, 2020. [14]Angela Fan, David Grangier, and Michael Auli. Controllable abstractive summarization. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 45-54, 2018. [15]Yuta Kikuchi, Graham Neubig, Ryohei Sasano, Hiroya Takamura, and Manabu Okumura. Controlling output length in neural encoder-decoders. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1328-1338, 2016. [16]Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, 2018. [17]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [18]Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to japanese morphological analysis. In Proceedings of the 2004 conference on empirical methods in natural language processing, pp. 230-237, 2004. [19]Sho Takase and Naoaki Okazaki. Positional encoding to control output sequence length. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3999-4004, 2019. [20]Yuta Hitomi, Yuya Taguchi, Hideaki Tamori, Ko Kikuta, Jiro Nishitoba, Naoaki Okazaki, Kentaro Inui, and Manabu Okumura. A large-scale multi-length headline corpus for analyzing length-constrained headline generation model evaluation. In Proceedings of the 12th International Conference on Natural Language Generation, pp. 333-343, 2019. [21]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 41714186, 2019. [22]Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-tosequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, 2020. [23]Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [24]Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. 2020. ## A データセットの詳細 日本語 Web ニュース記事データセット: データサイズについては、それぞれ、訓練データが 5 万以上、開発が 4,908、テストが 4,887 サンプルとなっている。 livedoor ニュースコーパス゚ ${ }^{6}$ : サンプル数は 6,928 となっている。本研究には、テストセットにのみ用いている。 ## B 実験設定の詳細 モデル訓練時の設定は、dropout 率を 0.3、学習率を 0.0005、warm-up steps を 10000、weight decay を 0.01 と設定した。学習ステップ数は最大で 50 万とした。バッチサイズは、バッチ内トークン数が最大 8000 となるように動的に構成するようにした。モデル学習時の入出力については、最大入力長と最大出力長をそれぞれ 128 語、 69 語として学習を行う。一方で、推論時には最大出力長を 200 語として生成を行った。その他のパラメータ設定は、Vaswani ら [17] の Transformer (base model) と同様のものを用いている。 実験環境には、NVIDIA Telsa V100 GPUを 1 枚利用した。また、CPU は Intel Xeon Silver 4114 CPU $(2.20 \mathrm{GHz})$ を 2 個使用し、RAM は $24 \mathrm{~GB}$ とした。 ## C 語彙と性能の関係の詳細 表 4: 語彙サイズを変更した場合の CMLM と Trans former の各 ROUGE スコアを示す。char は文字単位 (size:3392)を示す。また、表記の $4 \mathrm{k}, 8 \mathrm{k}, 16 \mathrm{k}, 32 \mathrm{k}$ は、 それぞれ subword の語彙サイズを示す。 6) https://www. rondhuit.com/download.html
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B7-3.pdf
# テキスト変換モデルに基づく 様々な制約を用いたインタラクティブ要約 柴田 知秀 $\dagger$ 山田 悠右 $\ddagger$ 小林 隼人 $\dagger$ 田口 拓明 $\dagger$ 奥村 学 †ヤフー株式会社 ‡東京工業大学 \{tomshiba, hakobaya, htaguchi\}@yahoo-corp.jp \{yuyamada@lr.,oku@\}pi.titech.ac.jp ## 1 はじめに Encoder-decoder モデル [1,2] や事前学習モデル $[3,4]$ などの深層学習の進展により、テキスト自動要約の技術が進歩している。自動要約手法の精度を向上させる余地がある一方で [5]、そもそも要約の正解には様々な観点が考えられる場合も多いことから、ユーザからのフィードバックをもとに要約を生成・改良させる研究が進められている [6,7]。本論文ではユーザが制約を与えてインタラクティブに要約を行う設定 (Mao らの研究) [6] に焦点をあてる。 制約付き要約が必要となる場面を、Yahoo!ニュー ス・トピックスを例として説明する。Yahoo!ニュー ス・トピックスでは、日々のニュース記事の中から重要なニュースを選択し、要点を押さえた短い見出しを編集者の手により作成している。そこでは、見出しの候補を自動生成し編集者に提示することによって、編集支援を行っている [8]。この発展として、自動生成された見出しに対して、編集者が含めたいキーワードやフレーズを制約として与えると、 その条件を満たす見出しが生成されれば、さらなる編集支援を行えると考えられる。 先に述べた Mao らの研究 [6] やその他の制約付き生成の研究 $[9,10]$ ではキーワードやフレーズなど、入力文書に依らず同一の制約のタイプを想定している。しかし、制約のタイプは文書によって異なるのが自然である。例えば求める要約が抽出型であれば制約として文であることが望ましく、また、抽象型であればキーワードやフレーズであることが望ましい。また、Mao らの研究では制約を一回与えるのみであるが、数回与えながら徐々に要約を改善していくのが自然な設定である。 そこで本研究では様々なタイプの制約を与えるインタラクティブ要約の手法を提案する。提案手法 の概要を図 1 に示す。本研究は自動処理の精度を向上させるという設定ではなく、入力の文書に対してユーザ (編集者) が生成したい要約が頭にあり、それをもとに制約を与えて要約を改善する、というインタラクティブな要約をシミュレートする設定となる。まず、制約なしで生成した要約がユーザに提示され、ユーザは制約を与える。この例ではキーワー ド制約として「新しい」という単語を与え、システムはこの制約のもとに要約を生成する。さらにフレーズ制約として「気象庁」を与える、という具合にインタラクティブに要約を生成していく。制約付きの学習・評価セットを構築するのはコストが高いことから、Маoらの研究と同じく、正解要約に含まれていてシステム出力には含まれていないキーワー ドやフレーズを疑似的に制約とみなす。 また、Mao らは制約を満たす生成を得るモデル [11] をデコード時に用いているが、このモデルでは様々なタイプの制約に対応することができない。そこで本論文ではテキスト変換モデルを用い、制約の単位にかかわらず、制約を入力側に入れることにより制約付き生成を実現する。本研究ではテキスト変換モデルとして T5 [3] を用いる。 標準的に用いられている評価セットを用いて、インタラクティブ要約がどのように実現されるかを検証した。 ## 2 提案手法 ## 2.1 枠組み まず、入力文書 $(s r c)$ と正解要約 $(t g t)$ が与えられ、制約なしのベースモデル $M_{\text {base }}$ を学習する。このモデル $M_{\text {base }}$ を使って生成された要約を pred とする。制約 $C$ は tgt にあって、pred に存在しないものを抽出する。 火山灰の量は? 気象庁が24日から新しい降灰予報 スタート $\cdots$ 火山灰も広い範囲にわたって私たちの生活に大き な被害を与えます。 気象打は、3月24日から新しい降灰予報を順次ス タートさせます。 これまでの降灰予報をバージョンアップさせたこ の予報は、一体どのようなものなのでしょうか。 制約なし生成 火山灰の量は? 気象庁 (0.17) $ \text { キーワード制約: 新しい } $ 制約あり生成 (1) 火山灰の量は? 新しい降灰予報 (0.44) 制約あり生成 (2) 火山灰の量は? 気象庁新予報 (0.23) $ \text { キーワード制約: 降灰 } $ 制約あり生成 (3) 気象庁、24日から新しい降灰予報 (0.57) \\ 図 1 提案手法の概要 (括弧内の数字は ROUGE2 F の值を示す) 図 2 様々なタイプの制約(下線が引かれた制約はランダムに選ばれたものを示す) ## 2.2 様々なタイプの制約 制約として、入力によらず単一の制約のタイプを与えるというよりは様々なタイプの制約を与えるのが自然である。本研究では制約のタイプとして文、 フレーズ、キーワードを考える。 文 tghに含まれていて、predに含まれない文を制約として抽出したいが、入力中のある文がそのまま tgt に含まれているとは限らないので、抽出型要約における正解文抽出の方法 [12,13] を拡張し、 pred と連結すると ROUGE F 值が高くなるような入力中の文を制約として抽出する。 キーワード文単位で制約を考えると、特に抽象型要約の場合、不要な部分が含まれてしまう可能性が高い。そこで、キーワード単位での制約を考え、tgtに含まれ、predには含まれないものを制約とする。 制約の候補を抽出する対象として 2 種類の問題設定を考える。1つは $s r c$ のみで、これはキーワードを入力文書から抜き出す形で設定することを想定する(この設定を $\operatorname{src}$ と呼ぶ)。もう 1 つの設定として、 $t g t$ も加えることを考え、これは入力文書には含まれていない言い換え表現などをキーワードを含める ことができる(この設定を $s r c+t g t$ と呼ぶ)。 フレーズキーワードよりも少し大きな単位としてフレーズを考える。要約に含むべきフレーズとして固有表現が多いことから、本研究では固有表現のみを対象とする。キーワードと同様に、tgt に含まれ、predには含まれないものを制約とする。 ある文書について制約のタイプが複数抽出される場合、どの制約のタイプが最善であるかは分からないので、ランダムに制約のタイプを選ぶ。また、 ある制約について複数ある場合はその中からランダムに一つ選ぶ。図 2 に制約の例を示す。一つ目の例では文・フレーズ・キーワード制約が得られており、ここからランダムに選んだ結果、キーワード制約が選ばれ、 3 つのキーワードのうちからランダムに「大統領」が選ばれている。二つ目の例では文制約とキーワード制約が抽出されており、フレーズ制約は条件に合致するものがない。 ## 2.3 テキスト変換モデルの利用 テキスト変換モデルを利用することにより、制約がどのような単位であっても入力に制約を加えるだけで、制約付き生成を実現することができる。制約なしのベースモデル $M_{\text {base }}$ でシステム出力 $p r e d$ を 図 3 制約付きデータの構築とインタラクティブ生成の方法 (test は valid と同様の方法で構築) 生成することを以下のフォーマットで表現する。 summarize: $s r c \rightarrow$ pred 制約ありモデル $M_{C} 、 i$ 回目のシステム出力を pred $_{i}$ とすると、 $M_{C}$ で pred $_{i}$ を生成する場合、制約を入力の先頭に追加し、 ## C summarize: $s r c \rightarrow$ pred $_{i$} とする。制約 $C$ は「(制約タイプ) constraint: (制約文字列)」とする。制約タイプは sentence、phrase、 keyword のいずれかをとり、制約のタイプを区別するために付与している。図 2 の 1 つ目の例の入力は以下のようになる。 keyword constraint: 大統領 summarize: トランプ氏に.. $\rightarrow$.. インタラクティブに生成を繰り返し行うので、2 回目以降の生成では過去の制約も満たすょうに、以下のように過去の制約も入力に加える $\left(C_{i}\right.$ は $i$ 回目の制約を表わす)。 ## $C_{1 C_{2}$.. $C_{i}$ summarize: $s r c \rightarrow$ pred $_{i}$} ## 2.4 制約付きデータの構築とインタラク ティブ生成 制約付き評価セットの構築ならびにインタラクティブ生成を図 3 に示す。まず、 $\operatorname{train}$ の src と tgt を使ってベースモデル $M_{\text {base }}$ を学習し、valid の pred を生成する。そして、pred と tgt を比較し、2.2 節で述べた方法で制約を抽出する。 制約ありモデルを学習するために、trainについても制約を付与する必要があるので、trainを $N$ 分割し1)、N-1 個で制約なしモデルを学習し、残りに対して pred を生成し、同様に制約を抽出する。そしてこれを $N$ 回繰り返すことにより、train のすべてに対して制約を得る。次に、train の制約付き src と tgt  から制約ありモデル $M_{C}$ を学習する。学習したモデルを用いて valid に対して pred $_{1}$ を生成し、インタラクション 1 回目の生成 pred $_{1}$ を得る。次に、 pred 1 と tgt から次の制約 $C_{2}$ を得て、 $C_{2}$ と $s r c$ に対して $M_{C}$ を適用することにより、2 回目の生成 pred $_{2}$ を得る。このようにして、インタラクティブな生成を実現することができる。 ## 3 実験 ## 3.1 実験設定 自動要約で標準的に用いられている英語の評価セット 3 つ (CNN/DM [14, 1], XSum [15], Reddit [16]) と、日本語のものとして Yahoo!ニュースのトピックス記事のデータセット (Topics [8]) を用いた。表 1 に各評価セットの統計データを示す。 CNN/DM は抽出度が高く、XSum と Reddit は抽出度が低いデータセットであり、抽出度によってどのようにシステムの振舞いが異なるかを実証する。 評価尺度は標準的に用いられている ROUGE-1,2,L の $\mathrm{F}$ 值 [17] を用いた。評価の基本単位として英語の場合は単語を、日本語の場合は文字を用いた。また、インタラクションの回数を 3 とした。 事前学習モデルとして、英語の場合は $\mathrm{T} 5^{2}$ を、日本語の場合は $\mathrm{mT5}[18]^{3}$ を用いた。モデルサイズはどちらも base を利用した。実装は Hugging Face 社が提供する transformers $の$ seq2seq を使った4)。 キーワード制約の抽出において、英語では TextRank $[19,20]^{5}$ を用い、日本語では形態素解析器 JUMAN $\left.^{6}\right)$ で単語に分割し、TFIDF が上位のものをキーワードとした。フレーズ制約の抽出において Spacyを用いて固有表現解析を行った。 ## 3.2 実験結果 $\cdot$ 考察 制約を用いないベースラインと、制約として文、 フレーズ、キーワードのうちの一つのみを採用した  & $\underset{(\operatorname{src})}{\mathrm{K}} \quad \underset{(\mathrm{src}+\operatorname{tgt})}{\mathrm{K}}$ & R-1 & R-2 & R-L & R-1 & R-2 & R-L & R-1 & R-2 & R-L & R-1 & $\mathrm{R}-2$ & R-L \\ 表 2 実験結果 (制約の S, P, K はそれぞれ文、フレーズ、キーワードを示す) } & \multirow[b]{2}{*}{1} & \multirow{2}{*}{} & \multirow{2}{*}{ \\ 0.572 } & \multirow{2}{*}{ \\ 0.726 } & \multirow{2}{*}{ } & \multirow{2}{*}{ \\ 0.930 } & \multicolumn{2}{|c|}{ (src) $\quad \stackrel{\text { なし }}{(\mathrm{src}+\operatorname{tgt})}$} & \multirow{2}{*}{} & & \multicolumn{2}{|c|}{} & \multicolumn{2}{|c|}{$\underset{(\operatorname{src})(\operatorname{src}+\operatorname{tgt})}{\mathrm{K}} \quad \mathrm{K}$} \\ 表 3 制約が抽出された割合 (「なし」はどのタイプの制約も抽出されなかったことを、2 カラム目の「1,2,3」はインタクラションの回数を示す) 表 4 出力が制約を満たした割合 場合、全てを採用した場合、ならびに、フレーズとキーワード制約については抽出の対象として $s r c$ のみと $s r c+t g t$ の場合 (2.2 節参照) を比較した。表 2 に実験結果を示す。 CNN/DM は抽出度が高い評価セットであるので、文制約のみを用いた場合が最も精度が高く、また、 XSum は src に含まれないフレーズが多いことからフレーズ制約 $(s r c+t g t)$ のみを用いた場合が最も精度が高かったが、おおまかな傾向としてはすべての制約を用いた場合が精度が高く、様々な制約を用いることの有効性を示すことができている。 Reddit の P(src), K(src) ならびに Topics の P(src) は制約を用いないべースラインよりも低くなってしまっている。この原因を明らかにするために、valid セットにおいてそれぞれの制約が抽出された割合を表 3 に示す。Reddit の P(src),K(src)と Topics の P(src) は他に比べて制約が抽出された割合が低いことがわ くのキーワード・フレーズが要約に使用されていることに起因する。 表 4 にシステム出力が与えた制約を満たした割合を示す7)。インタラクションが進むにつれて、制約 7)文制約の場合、制約が満たされたかどうかを判断するのが を満たすのが次第に難しくなっていることがわかる。また、Reddit は他の評価セットに比べて制約を満たした割合が低い。これは難しい評価セットであることと、制約が抽出された割合が他の評価セットに比べて低い (表 3 参照)ことに起因する。 以下の例では Topics 評価セットにおいて、制約付き出力が制約「夏」を満たしておらず、制約なし出力と同じ出力となってしまっている。この問題に対しては N-best を生成し、制約を満たす出力を採用することによって対処することが考えられる。 tgt:梅雨の熱中症真夏並みに注意 pred:熱中症の季節到来気をつけたい落とし穴 キーワード制約: 夏 制約付き pred: 熱中症の季節到来気をつけたい落とし穴 ## 4 おわりに 本論文ではテキスト変換モデルに基づき、文・フレーズ・キーワードの様々な制約を用いてインタラクティブに要約を行う手法を提案した。今後の課題としてはキーワードやフレーズを削除する制約の導入や出力長の制約を加えることなどがあげられる。 難しいので、フレーズ制約とキーワード制約についてのみ算出した。 ## 参考文献 [1] Ramesh Nallapati, Bowen Zhou, Cicero dos Santos, Caglar Gulcehre, and Bing Xiang. Abstractive text summarization using sequence-to-sequence RNNs and beyond. In Proceedings of SIGNLL2016, pp. 280-290, 2016. [2] Abigail See, Peter J. Liu, and Christopher D. Manning. Get to the point: Summarization with pointer-generator networks. In Proceedings of ACL2017, pp. 1073-1083, 2017. [3] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [4] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of ACL2020, pp. 7871-7880, 2020. [5] Dandan Huang, Leyang Cui, Sen Yang, Guangsheng Bao, Kun Wang, Jun Xie, and Yue Zhang. What have we achieved on text summarization? In Proceedings of EMNLP2020, pp. 446-469, 2020. [6] Yuning Mao, Xiang Ren, Heng Ji, and Jiawei Han. Constrained abstractive summarization: Preserving factual consistency with constrained generation, 2020. [7] Nisan Stiennon, Long Ouyang, Jeff Wu, Daniel M. Ziegler, Ryan Lowe, Chelsea Voss, Alec Radford, Dario Amodei, and Paul Christiano. Learning to summarize from human feedback. CoRR, Vol. abs/2009.01325, , 2020. [8] Kazuma Murao, Ken Kobayashi, Hayato Kobayashi, Taichi Yatsuka, Takeshi Masuyama, Tatsuru Higurashi, and Yoshimune Tabuchi. A case study on neural headline generation for editing support. In Proceedings of NAACL2019 (Industry Papers), pp. 73-82, 2019. [9] Zi-Yi Dou, Pengfei Liu, Hiroaki Hayashi, Zhengbao Jiang, and Graham Neubig. GSum: A general framework for guided neural abstractive summarization, 2020. [10] Itsumi Saito, Kyosuke Nishida, Kosuke Nishida, and Junji Tomita. Abstractive summarization with combination of pre-trained sequence-to-sequence and saliency models, 2020. [11] Matt Post and David Vilar. Fast lexically constrained decoding with dynamic beam allocation for neural machine translation. In Proceedings of NAACL2018, pp. 13141324, 2018. [12] Ramesh Nallapati, Feifei Zhai, and Bowen Zhou. Summarunner: A recurrent neural network based sequence model for extractive summarization of documents. In Satinder P. Singh and Shaul Markovitch, editors, Proceedings of AAAI2017, pp. 3075-3081, 2017. [13] Yang Liu and Mirella Lapata. Text summarization with pretrained encoders. In Proceedings of EMNLPIJCNLP2019, pp. 3730-3740, 2019. [14] Karl Moritz Hermann, Tomas Kocisky, Edward Grefenstette, Lasse Espeholt, Will Kay, Mustafa Suleyman, and Phil Blunsom. Teaching machines to read and comprehend. In C. Cortes, N. Lawrence, D. Lee, M. Sugiyama, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 28, pp. 1693-1701. Curran Associates, Inc., 2015. [15] Shashi Narayan, Shay B. Cohen, and Mirella Lapata. Don't give me the details, just the summary! topic-aware convolutional neural networks for extreme summarization. In Proceedings of EMNLP2018, pp. 1797-1807, 2018. [16] Byeongchang Kim, Hyunwoo Kim, and Gunhee Kim. Abstractive summarization of Reddit posts with multi-level memory networks. In Proceedings of NAACL2019, pp. 2519-2531, 2019. [17] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, 2004. [18] Linting Xue, Noah Constant, Adam Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, Aditya Barua, and Colin Raffel. mT5: A massively multilingual pre-trained textto-text transformer, 2020. [19] Rada Mihalcea and Paul Tarau. TextRank: Bringing order into text. In Proceedings of EMNLP2004, pp. 404-411, 2004. [20] Federico Barrios, Federico López, Luis Argerich, and Rosa Wachenchauzer. Variations of the similarity function of textrank for automated summarization. CoRR, Vol. abs/1602.03606, , 2016. ## 付録 図 4 各インタラクションでの精度 (Topics) 図 4 に評価セット Topics における各インタラクションでの精度 (R2)を示す。全般的な傾向として、最初の上がり幅が最も大きく、ゆるやかに向上していくことがわかる。
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B7-4.pdf
# 話者情報を認識した対話要約 楢木悠士 早稲田大学基幹理工学部情報理工学科 } yuji.1277@akane.waseda.jp ## 1 導入 自動対話要約は対話文書から話者の意図を客観的に捉え,正確かつ簡潔な要約を生成することを目的としたタスクである。実世界におけるアプリケー ションへの応用などの需要が増加している. 例えば,顧客サービスセンターや病院ではそのやりとりを要約できれば有用であると考えられる.しかし,対話要約のための高品質なデータセットは公開されていなかったため, 対話要約の研究は未だ少ない. 特に深層学習のための適切で十分に大きい公開データセットは SAMSum[1] の登場までなかったため,対話に特化された深層学習の研究は非常に少ない. 本研究では対話特有の話者情報に焦点を当て,Transformer[2] を基にしたモデルのための対話に特化したアーキテクチャを提案する。はじめに,話者交代情報を含んだ Turn Embedding と話者識別情報を含んだ Speaker Embedding を提案する。そして, それらの Embedding を一部の次元に限定する Partial Turn Embedding と Partial Speaker Embedding を提案する. 実験の結果, Partial Turn/Speaker Embedding は文書要約における最新のべースラインと比較して, 収束性と生成要約の ROUGE スコアの向上を示した. ## 2 関連研究 文書要約の代表的な手法をいくつか紹介する. Pointer-Generator[3] は RNNをべースにした Sequence-to-Sequence(Seq2Seq) モデルである. Pointer-Generator は以前から課題であった辞書に含まれない単語に対応できない Out-of-Vocabulary 問題や,RNNによる自然言語生成で頻繁に引き起こされる文字列の無意味な反復を解決した. Pointer-Generator 以降は Transformerを基にした手法が登場してきた. 文書要約は長文の意味を捉える必要があるタスクであり,入力シーケンスの遠い位置の関係を捉えることができる Transformer は要約に適していると考えられる. Liu らは事前学 \author{ 酒井哲也 \\ 早稲田大学基幹理工学部情報理工学科 \\ tetsuyasakai@acm.org } 習を行う BERTを文章要約に応用した BERTSum, BERTSumAbs を提案した [4]. BERTSum は事前学習可能なエンコーダーを用いて抽出型要約を可能にした. BERTSumAbs は BERTSum のエンコーダーと Transformerを基にしたデコーダーを用いることで,抽象型要約を可能にした. ただし,BERTSum で事前学習できるパラメータはエンコーダーに限られる. Zhang らが提案した PEGASUS は Gap Sentences Generation(GSG) と呼ばれる事前学習手法を用いた抽象型要約手法である [5]. 通常の BERT の事前学習に用いられる Masked Language Model では,入力文章の一部のトークンをマスクし,そのマスク箇所を予測する手法である。一方,GSG では入力文章の一部の文をマスクし,マスクされた文全体を予測する.この手法により,デコーダーも事前学習ができ,文生成に特化した学習が可能となった。 次に,対話要約のデータセットとそれらを用いた研究をいくつか紹介する.Goo らはRNNを用いて対話における発言の役割を副次的に学習する抽象型要約モデルを提案した [6]. Goo らの使用した AMI 会議コーパス [7] は発言に役割がアノテー ションされたデータセットであり,要約文が短いことが特徴的である. Yuan らは対話のドメインを副次的に学習する Pointer-Generatorを基にした抽象型要約モデル SPNet を提案した [8]. ここで用いた MultiWOZ-2.0[9] は対話のドメインがアノテーションされた対話コーパスであり,対話要約のためのデータセットではない,そこで Yuan らはクラウドソーシングにより構築した要約を用いた. 最後に, Gliwa らは深層学習に十分な大きさの高品質な対話要約データセットが公開されていないという課題を解決するために SAMSum を公開した [1]. SAMSum は言語学者によって人手で構築されたデータセットであり,世間話や会議の手配などあらゆる日常的な会話で構成されている. BERTSum や PEGASUS などの Transformer を基にしたモデルの入力には,入力文から生成されるい 図 1 SAMSum の対話文と要約の例 くつかの種類の Embedding の和を用いる. 一般的に BERT に用いられる Embedding には 3 種類ある。入力文の各トークンを表す Token Embedding,入力文の 2 種類の区分を表す Segment Embedding,入力文の位置を表す Position Embedding がある. Token Embedding と Position Embedding は自然言語処理の主なタスクにおいて共通する手法で生成される。しかし, Segment Embedding の生成に用いられる入力文の 2 つの区分はタスクによって様々である. 質問応答タスクにおいては質問とパラグラフで分けられ,BERTSum では奇数番目の文と偶数番目の文で Embedding を分けている. タスクによっては区分がなく, Segment Embedding を用いない場合も多い.チャットボットにおける返答選定タスクにおいては,対話と返答で異なる Segment Embedding を用いる. 以上 3 種類の Embedding に加えて,Gu らは Speaker Embedding を追加で加算することで,返答選定タスクの性能の向上をもたらした [10]. Gu らの提案した Speaker Embedding は Segment Embedding と同様の構造を持ち,話者交代ごとに 2 つの区分を入れ替える Embedding である。 ## 3 話者情報を与える Embedding ## 3.1 データ前処理 本研究では,モデルの学習に十分な量の高品質なデータを持つSAMSumを用いて学習を行う。 SAMSum の対話文と要約の例を図 1 に示す. 本研究では,対話特有の特徴を捉えるため, Gu らの用いた特殊トークンを参考に 3 つの特殊トークン挿入した. 特殊トークンの名称と挿入箇所の対応を表 1 に示す. さらに,それら 3 種類の特殊トークンを挿入した入力例を図 2 に示す。表 1 特殊トークン名と挿入箇所 図 2 前処理前と前処理後の対話例 ## 3.2 Turn/Speaker Embedding 本研究では対話要約モデルとして最先端の文書要約モデルである PEGASUS を用いる. PEGASUS は Transformer を基にしたモデルであり,入力には対話文から得られる Token Embedding と Position Embedding を用いる。それらに加えて, Gu らの BERTへの入力に話者情報を Embedding に加えるというアイデアを基に,我々は話者情報を含んだ追加の Embedding 2 種類提案する. 話者交代情報を示す Turn Embedding と話者識別情報を示す Speaker Embedding である.ただし, Gu らの提案した Speaker Embedding と我々が提案する Speaker Embedding は異なる。 Turn Embedding は Gu らの提案した Speaker Embedding と同様の方法で構成されるもので,2つの Embedding を持ち,話者が入れ替わるごとに Embedding を入れ替える。それに対して,我々の提案する Speaker Embedding は,話者ごとに Embedding を変更する. Speaker Embedding が持つ Embedding の種類は SAMSum に含まれる対話の最大話者数に対して十分に大きい 15 種類とした. 構造上の欠点として, Embedding が十分に学習されるかどうかは学習データに含まれる話者数の分布に依存する. 学習データに $n$ 人の対話が含まれなければ, $n$ 番目の Embedding は学習されないことになる. 本研究では話者交代情報または話者識別情報を包含した追加の Embedding を提案し,PEGASUS に適応させた時の影響を実験的に分析した. したがって,モデルの入力に用いる Embedding は & $\mathrm{E}_{\mathrm{Tom}}$ & $\mathrm{E}_{[\mathrm{SAYS}]}$ & $\mathrm{E}_{\text {Hello }}$ & $\mathrm{E}_{[\mathrm{EOU}]}$ & $\mathrm{E}_{\text {[EOT] }}$ & $\mathrm{E}_{\text {Ana }}$ & $\mathrm{E}_{[\text {SAYS] }}$ & $\mathrm{E}_{\mathrm{Hi}}$ & $\mathrm{E}_{[\mathrm{EOU}]}$ & $\mathrm{E}_{\text {[EOT] }}$ & & $\mathrm{E}_{[\mathrm{SAYS}]}$ & $E_{\text {What's }}$ & $\mathrm{E}_{\text {up? }}$ & $\mathrm{E}_{[\mathrm{EOU}]}$ & $\mathrm{E}_{[\mathrm{EOT}]}$ \\ 図 3 入力表現のアーキテクチャ Token Embedding と Position Embedding に加え, Turn Embedding または Speaker Embedding の 3 つの和である. 入力表現のアーキテクチャを図 3 に示す. ## 3.3 Position Embedding $の$ 次元方向の情報量 本研究では,モデルに入力する Embedding に追加の Embedding を用いることで話者情報をモデルに認識させる. 我々は Embedding の効果を最大化するため, Embedding の次元方向の工夫を行った. 実験に用いる 3 種類の Embedding のうち, 入力シーケンスの位置情報を表す Position Embedding には Sinusoidal Positional Embedding[2] を用いる.これは固定のパラメータを持つ Embedding であり,式 1, 2 によって定義される. ただし, pos はシーケンス上の位置, $i$ は次元を表す. $\operatorname{dim}$ はモデルに入力する Embedding の次元数を表す. $ \begin{aligned} & P E_{(p o s, i)}=\sin \left(p o s / 10000^{2 i / d i m}\right) \\ & P E_{(p o s, i+\operatorname{dim} / 2)}=\cos \left(\operatorname{pos} / 10000^{2 i / d i m}\right) \end{aligned} $ 縦軸をシーケンスの位置,横軸を次元として,式 1,2 の定義によるパラメータをヒートマップで図 4 に表す. 図 4 から視覚的に色の変化の小さい箇所を捉えることができる. シーケンス上の位置 (縦軸) の違いによる值の変化が小さい. すなわち,Position Embedding の一部の次元に含まれる情報量は小さいと言える. さらに,提案手法の Embedding は話者交代情報または話者識別情報をモデルに認識させるものであり,大きな次元数は必要ないと考えられる.我々は Position Embedding の情報量の小さい部分に限定して Turn/Speaker Embedding を加算することで,話者情報を効果的に認識させることができると考える.このように,全体の Embedding の次元数に対して小さい次元数の Turn/Speaker Embedding を Partial Turn/Speaker Embedding と呼ぶ. 本研究では最大シーケンス長を 512, Embedding 図 4 Sinusoidal Positional Embedding 9 パラメータのヒートマップ 図 5 Partial Turn/Speaker Embedding のアーキテクチャ の次元数を 1024 としているため,我々は 385~512 次元と 897 1024 次元を Position Embedding の情報量の小さい部分と考え, 合計 256 次元の Turn/Speaker Embedding を構成する. 本研究の設定を例に,Partial Turn/Speaker Embedding のアーキテクチャを図 5 に示す. 本研究では PEGASUS に図 5 に示した方式で Partial Turn/Speaker Embedding を追加し,その影響を実験的に分析する。 ## 4 実験手法 機械学習フレームワークとしては PyTorch[11] と HuggingFace Transformers[12]を,対話要約タスクのデータセットとして SAMSum[1]を使用した.要約モデルは PEGASUS[5] を用いて学習を行った. ベースラインの手法では HuggingFace[12] の公開するXSum[13]による事前学習済みの重みを初期パラメータとし,SAMSumを用いてファ 図 6 Validation Loss の変遷 インチューニングを行った. 提案手法として 4 種類の実験を行った. ベースラインに対して Turn/Speaker Embedding を用いる場合の 2 手法と Partial Turn/Speaker Embedding を用いる場合の 2 手法を検証した. Position Embedding よりも Turn/Speaker Embedding の影響を大きくするため,提案手法に用いる追加の Embedding は 10 倍のスケーリングをした. 評価指標には ROUGE[14] を用いた. さらに有意性の検証にランダム化 Tukey HSD 検定 [15] を用いた. ## 5 結果・考察 ベースラインと 4 種類の提案手法に対する Validation Loss の変遷と ROUGE スコアの比較を行う. ベースラインと提案手法 4 種類の Validation Loss の変遷を図 6 に示す. Turn/Speaker Embedding を用いたときにはべースラインが辿り着いたような解に収束できていないことが見て取れる。しかし, Partial Turn/Speaker Embedding を用いた場合には同程度まで損失を下げつつ,収束性が向上していることがわかる. ベースラインと提案手法 4 種類のテストデータにおける ROUGE-1 と ROUGE-2 に加えて, ROUGE-L のスコアを表 2 に示す. 全体の Embedding と同様の次元数を持つ Turn/Speaker Embedding を用いた場合ではいずれの ROUGE スコアも大幅に下がってしまった. しかし, Partial Turn/Speaker Embedding を用いた手法では ROUGE スコアの向上が見られた. さらに ROUGE スコアが向上した Partial Turn/Speaker Embedding を用いた手法に関して, ROUGE-2 のスコアに対してランダム化 Tukey HSD 検定 (サンプルサイズ $n=819$, 試行回数 $B=5000$ ) を行い,それぞれの手法がベースラインと有意表 2 テストデータにおける ROUGE スコア 差を持つか検証を行った. その結果,ベースラインと Partial Turn Embedding を用いた手法による生成要約の ROUGE-2 の平均に有意差が認められた ( $p=0.011)$. さらに,ベースラインと Partial Speaker Embedding を用いた手法による生成要約の ROUGE-2 の平均にも有意差が認められた $(p=0.0046)$. ## 6 結論・今後の課題 本研究では対話要約において話者交代情報または話者識別情報を含んだ Embedding を追加することによる効果を実験的に分析した. Embedding の次元を一部に限定して加算する Partial Turn/Speaker Embeddingを用いることでモデルの収束性が向上し,すべての ROUGE スコアの向上も確認された. さらに, ベースラインと Partial Turn/Speaker Embedding を用いた手法の結果には,ランダム化 Tukey HSD 検定により ROUGE-2 において有意差が認められた。 今後の課題としては生成要約の人手評価や自動質問生成・自動質問応答システムを応用した QAGS[16] による評価を実施し,意味上の性能の違いを分析していきたい.また,追加の Embedding の初期化手法,スケーリングの設定をより細かく分析し,最良のパラメータを探索していきたい。さらに,話者情報を Embedding に包含させる手法は要約タスクに限らず,対話をドメインとするあらゆる夕スクに応用できると考えられる。対話ドメインに限らず,ドメイン特有の情報を追加の Embedding の形式で与えることが可能かもしれない。同様の手法を対話ドメインの別のタスクや特殊なドメインのタスクに応用した場合の効果の分析もしていきたい. ## 参考文献 [1] Bogdan Gliwa, Iwona Mochol, Maciej Biesek, and Aleksander Wawer. SAMSum corpus: A human-annotated dialogue dataset for abstractive summarization. In Proceedings of the 2nd Workshop on New Frontiers in Summarization, 2019. [2] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, 2017. [3] Abigail See, Peter J. Liu, and Christopher D. Manning. Get to the point: Summarization with pointer-generator networks. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), 2017. [4] Yang Liu and Mirella Lapata. Text summarization with pretrained encoders. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), 2019. [5] Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter Liu. PEGASUS: Pre-training with extracted gap-sentences for abstractive summarization. In Proceedings of the 37th International Conference on Machine Learning, 2020. [6] C. Goo and Y. Chen. Abstractive dialogue summarization with sentence-gated modeling optimized by dialogue acts. In 2018 IEEE Spoken Language Technology Workshop (SLT), 2018. [7] Jean Carletta, Simone Ashby, Sebastien Bourban, Mike Flynn, Mael Guillemot, Thomas Hain, Jaroslav Kadlec, Vasilis Karaiskos, Wessel Kraaij, Melissa Kronenthal, Guillaume Lathoud, Mike Lincoln, Agnes Lisowska, Iain McCowan, Wilfried Post, Dennis Reidsma, and Pierre Wellner. The ami meeting corpus: A preannouncement. In Proceedings of the Second International Conference on Machine Learning for Multimodal Interaction, 2005. [8] Lin Yuan and Zhou Yu. Abstractive dialog summarization with semantic scaffolds, 2020. https: //openreview. net/forum?id= B1eibJrtwr. [9] Paweł Budzianowski, Tsung-Hsien Wen, Bo-Hsiang Tseng, Iñigo Casanueva, Stefan Ultes, Osman Ramadan, and Milica Gašić. MultiWOZ - a large-scale multi-domain Wizard-of-Oz dataset for taskoriented dialogue modelling. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, 2018. [10] Jia-Chen Gu, Tianda Li, Quan Liu, Zhen-Hua Ling, Zhiming Su, Si Wei, and Xiaodan Zhu. Speaker-aware bert for multi-turn response selection in retrieval-based chatbots. In Proceedings of the 29th ACM International Conference on Information and Knowledge Management, 2020. [11] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, Alban Desmaison, Andreas Kopf, Edward Yang, Zachary DeVito, Martin Raison, Alykhan Tejani, Sasank Chilamkurthy, Benoit Steiner, Lu Fang, Junjie Bai, and Soumith Chintala. Pytorch: An imperative style, high-performance deep learning library. In Advances in Neural Information Processing Systems, 2019. [12] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, 2020. [13] Shashi Narayan, Shay B. Cohen, and Mirella Lapata. Don't give me the details, just the summary! topic-aware convolutional neural networks for extreme summarization. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, 2018. [14] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, 2004. [15] Benjamin Carterette. Multiple testing in statistical analysis of systems-based information retrieval experiments. ACM Transactions on Information Systems - TOIS, Vol. 30, No. 1, pp. 1-34, 2012. [16] Alex Wang, Kyunghyun Cho, and Mike Lewis. Asking and answering questions to evaluate the factual consistency of summaries. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B8-1.pdf
# 過去情報の内容選択を取り入れた スポーツダイジェストの自動生成 加藤舜介 東京工業大学 情報理工学院 kato.s.aw@m.titech.ac.jp ## 1 はじめに スポーツダイジェストは,スポーツの試合が行われた後に,記者によって書かれる試合の総評である. スポーツダイジェストには,試合に出場したチーム・選手の活躍や直近の調子の良し悪し,試合の勝敗結果によるシーズン成績の変動などの記述が含まれており,実際に試合を見ることができなくても,それを読むと試合の結果や展開がわかるように書かれている。またスポーツの試合には,様々なチームや選手のプレイデータが記録される. プレイデータに含まれる内容は,例えばサッカーやバスケットボールでは得点数やアシスト数,野球では安打数や投球数などが挙げられる. 本研究は,このようなプレイデータからスポーツダイジェストを自動で生成することを目的とする. 既存のダイジェスト生成モデルでは,入力データの内容選択を行う層を組み込んでいるが,そのほとんどが当日の試合情報のみから内容選択をおこなうため,連勝や連敗,直近の試合の平均記録などの過去の記録を踏まえた出力ができない,そこで本研究は,過去の試合情報も含めて内容選択をおこなうことにより,チームや選手の過去の記録を踏まえたダイジェストが生成可能なモデルを提案する。また,内容選択と文章生成を別々に学習することによって内容選択をより重視したモデルの学習方法を提案する。 本研究の貢献は以下の 2 点である. - 内容選択層を取り入れた Transformer ベースの既存モデルに対し, 損失関数の重みづけや学習済みエンコーダのファインチューニングによるデコーダの学習をおこなうことで,既存のモデルより精度が向上することを確認した。 ・過去情報を含むデータセットを作成し,既存のモデルに過去情報の内容選択層を取り入れたモ \author{ 徳永健伸 \\ 東京工業大学情報理工学院 \\ take@c.titech.ac.jp } 表 1 ダイジェストを構成する文の種類 デルを学習することで,過去情報も含めたダイジェストを生成できることを確認した。 ## 2 関連研究 Wiseman らは,Data-to-Text タスクのためのデータとして ROTOWIRE を作成した [1]. このデータセットは,NBA の試合におけるチーム・選手のプレイデータと,記者によって書かれたダイジェストの組が集められたものであり,近年のスポーツダイジェストにおける Data-to-Text の研究で広く使われている.また,Data-to-Text タスクのための自動評価指標も提案している. ROTOWIRE を用いた研究として, Puduppully らは,入力データの内容選択をおこない, どのデータをどの順序で出力するかの計画を学習するエンコーダ・デコーダモデルを提案した [2]. Iso らは,重要な入力データを選択・追跡して文章生成に用いるという,人間のダイジェストを書く過程を模倣したモデルを提案した [3]. Gong らは, Transformer モデルのエンコーダに入力データの内容選択をおこなう層を追加したモデルを提案した [4]. ROTOWIRE からランダムに 100 試合分のダイジェストを抽出し,それらを構成する文の種類を調べたところ,表 1 のようになった. 過去情報が必要な文には,直近の選手の平均得点の記録や,チームの連勝記録が記述されている文などがある.既存のモデルは,入力に過去情報を用いないため,全体の $12.5 \%$ の文を生成できない. 本研究は,入力にチー ムの過去情報を加えることで,チームの直近の勝敗記録に関する出力ができるモデルを目指す. 図 1 Gong らのモデル [4] ## 3 提案手法 ## 3.1 先行研究モデルの学習方法の変更 Gong らは, 従来の Transformer モデル [5] に入力データの内容選択をおこなう層 (CS Layer) を追加したモデルを提案した (図1). ただし,入力 $r_{1}, r_{2}, \ldots, r_{n}$ はトークン列に変換されたプレイデー タである. これらの入力はエンコーダでプレイデー タベクトルに変換される. プレイデータベクトルは,デコーダの入力として使われることに加え,内容選択層の入力としても使われる. 内容選択層では,あるプレイデータをダイジェストに出力するかしないかの 2 值分類をおこなう. これにより,モデルは入力に含まれる複数のプレイデータの中から重要なデータを選択し, ダイジェストに出力する. このモデルのパラメタ $\theta_{m}$ は式 (1) のように定義される。 $ \theta_{m}=\arg \min \left(L_{c s}+L_{s g}\right) $ ただし, $L_{c s}$ は内容選択の損失関数, $L_{s g}$ は文章生成の損失関数である. 本研究は,この損失関数に変更を加えた次の 2 つの学習方法を提案する。 -WT モデル:内容選択・文章生成の損失関数に重みづけをおこなう。 $ \theta_{m}=\arg \min \left((1-w) * L_{c s}+w * L_{s g}\right) $ ただし $w$ はハイパーパラメタである.これにより,内容選択をどの程度重視するかによる,モデルの出力への影響を調べることができる. ・FT モデル:内容選択層の学習を事前におこなったエンコーダを用いて,ファインチューニングによるデコーダの学習をおこなう. $ \begin{aligned} & \theta_{e}=\arg \min \left(L_{c s}\right) \\ & \theta_{m}=\arg \min \left((1-w) * L_{c s}+w * L_{s g}\right) \end{aligned} $ 図 2 提案モデル ただし $w$ はハイパーパラメタ, $\theta_{e}$ はエンコー ダのパラメタである. 内容選択の損失関数 $L_{c s}$ を最小化する $\theta_{e}$ を初期値として(式 (3)), 重みづけした損失関数 $(1-w) * L_{c s}+w * L_{s g}$ を最小化する $\theta_{m}$ を学習する (式 (4)). これにより,エンコーダを独立して学習することで,内容選択が正確に学習されることが期待できる. ## 3.2 過去情報内容選択層の追加 Gong らのモデルは, 入力に試合当日のプレイデー タしか用いないため,過去のプレイデータを踏まえたダイジェストの出力ができない. 本研究は, 入力にチームの過去の勝敗記録を加えることで,チームの連勝や連敗,直近の勝敗記録などの出力ができるモデルを提案する. -PAST-int モデル:1つの内容選択層で当日・過去の入力データから同時に内容選択をおこなう. 式 (2)を用いたモデル (PAST-int-WT) と式 (3), 式 (4)を用いたモデル (PAST-int-FT) を学習する. -PAST-sep モデル:過去情報内容選択層 (Past CS Layer) を追加し,当日情報を CS Layer,過去情報を Past CS Layer で内容選択をおこなう (図 2). ただし $p_{1}, \ldots, p_{n}^{\prime}$ は過去情報の入力である. パラメタの学習は式 (5), 式 (6), 式 (7)+ (8)の3つを考える。 $ \begin{aligned} \theta_{m}= & \arg \min \left(( 1 - w ) * \left(\left(1-w_{p}\right) * L_{c s n}\right.\right. \\ & \left.\left.+w_{p} * L_{c s p}\right)+w * L_{s g}\right) \\ \theta_{m}= & \arg \min \left((1-w) * L_{c s}+w * L_{s g}\right) \\ \theta_{e}= & \arg \min \left(L_{c s}\right) \\ \theta_{m}= & \arg \min \left((1-w) * L_{c s}+w * L_{s g}\right) \end{aligned} $ ただし $w, w_{p}$ はハイパーパラメタ, $\theta_{m}$ はモデル 全体のパラメタ, $\theta_{e}$ はエンコーダのパラメタであり, $L_{c s n}$ は図 2 における CS Layer の損失関数, $L_{c s p}$ は Past CS Layer の損失関数, $L_{c s}$ は CS Layer と Past CS Layer の損失を連結した損失関数である. 式 (5) は CS Layer, Past CS Layer の内容選択の重みづけをおこなうモデル (PAST-sep-WT) である. 式 (6) は CS Layer と PAST CS Layer の損失を連結したモデル (PAST-sep-CONCAT) であり,PAST-sep-WTにおける重みを自動で学習することが期待できる. 式 (7)+ (8) はファインチューニングモデル (PAST-sep-FT) であり,考え方はFTと同じである. ## 4 評価実験 ## 4.1 データセット 評価実験には Wiseman らの ROTOWIRE [1] を使用した.このデータセットの学習・検証・テストデー 夕数は,それぞれ $3,398 , 727 , 728$ である. 入力のプレイデータに対する内容選択のラベルは Gong らと同じものを使用した. 元の ROTOWIRE はデータセットが時系列で分割されておらず,また同じプレイデータに対して2つのダイジェストが割り当てられている場合がある. そこで過去情報を用いたモデルには, ROTOWIRE から重複しているデータを削除し,全データを時系列でソートして再分割したデータセット (ROTOWIRE-re)を使用した. これにより学習・検証・テストデータ数はそれぞれ $3,205 , 309 , 308$ となった. 入力には試合当日のプレイデータに加え,直近 5 試合分のチームの勝敗記録を過去情報として使用した. 過去情報に対する内容選択のラベルづけは,100 試合分のダイジェストを調べたことにより作成した以下のルールでおこなった. - 直近で 3 連勝 (3 連敗) 以上していた場合,それらの勝敗記録を選択する。 例 : 過去 5 試合の結果が勝・勝・勝・負・負の場合,勝を選択し,負を選択しない。 - 直近 5 試合中 4 試合以上勝ち (負け)の場合,それらの勝敗記録を選択する。 例:過去 5 試合の結果が負・負・勝・負・負の場合,負を選択し,勝を選択しない。 ## 4.2 評価指標 モデルの評価には,出力文の評価をおこなう BLEU [6] に加え, Wiseman らの提案した 3 つの評価指標を用いた. この指標は, 出力文が入力データの内容を正しく反映できているかを評価する。 - Relation Generation (RG): 出力文から (entity, value) の関係を抽出し,抽出された関係の数と,それらの関係が入力データに対して正しいかどうかを評価する (Precision). ただし entity はチーム名や選手名などの動作の主体, value は得点数やアシスト数などの記録である. - Content Selection (CS) : 出力文とリファレンスから (entity, value) の関係を抽出し, 出力文から抽出された関係のリファレンスから抽出された関係に対する Precision,Recall で評価する。 - Content Ordering (CO) : 出力文とリファレンスから (entity, value) の関係を抽出し,それらの間の正規化 Damerau-Levenshtein 距離 [7] で評価する。 これらの指標は当日情報に関する評価をおこなうため,過去情報に関する評価はできない. そこで過去情報を用いたモデルについては,自動評価に加えて以下の手順で人手評価をおこなった. 1. 学習データからランダムに 100 試合分のダイジェストを抽出し,過去情報を含む文集合 $P^{+}$ と含まない文集合 $P^{-}$に分ける. 2. $P^{+}$または $P^{-}$に含まれる単語 $v$ に対してスコア $p(v)$ を以下の式で与える. $ p(v)=\frac{C^{+}(v)}{\left|P^{+}\right|}-\frac{C^{-}(v)}{\left|P^{-}\right|} $ ここで $, C^{+}(v), C^{-}(v)$ はそれぞれ $P^{+}, P^{-}$中の $v$ の頻度を表わす。 3. 各モデルの出力について出力中単語のスコア $p(\cdot)$ の総和を計算し, スコアが上位 30 件の出力について過去情報に言及している部分が正しいかどうかを人手で確認し, 正解率を計算する。 ## 4.3 モデルの詳細 全てのモデルは Gong らと同じパラメ夕数を持つ Transformer ベースのモデルである. WT,FT の損失関数のハイパーパラメタは $w=0.25,0.5,0.75$ とし, PAST-int, PAST-sep の損失関数のハイパーパラメタは $w=0.25, w_{p}=0.25,0.5,0.75$ とした. 各モデルは 表 2 学習方法を変更したモデルの自動評価 表 3 既存モデルと FT の内容選択層の評価 & & \\ & $\mathbf{1 . 4 8}$ & 2.00 \\ & 3.61 & $\mathbf{2 . 9 4}$ \\ 10 回学習をおこない,その平均スコアを計算した. ## 4.4 実験結果 表 2 に WT と FT の結果を示す. WT において $w=0.5$ としたものが Gong らのモデルに相当するが, $w=0.25$ とすると若干の性能向上が見られる. これらの中では $\mathrm{FT}(w=0.5)$ のスコアが一番高い. Gong らのモデルと $\mathrm{FT}(w=0.5)$ における内容選択層の評価結果を表 3 に示す. FT の内容選択層の Recall が高く,選択したプレイデータを出力した数も Gong らのモデルに比べて多い. FTの方が内容選択層で多くのプレイデータを選択したことで,入力にないプレイデータを出力することが少なくなり, スコアが高くなったと考えられる。 表 4 に過去情報を追加したモデルの実験結果を示す。比較のために,過去情報を追加していない ROTOWIRE-re で学習した Gong らのモデルの結 表 4 過去情報を追加したモデルの自動評価 表 5 過去情報を含む文の数と情報の正しさ 表 6 過去情報を含む文数の比較 果も示している. 当日情報に関する自動評価では Gong らのモデルのスコアが高い一方,BLEU は PAST-int-FT のスコアが一番高い結果となった.表 5 に過去情報を追加したモデルにおける,過去情報に関する人手評価の結果を示す. Gong らのモデルは過去情報を入力していないため,過去情報への言及をランダムに出力していることになる. PAST-sep-CONCAT, PAST-sep-FT が他のモデルと比較すると正しい過去情報を出力している数と正解率が高い結果となった。 表 6 に,過去情報の出力の正解率が一番高かった PAST-sep-FT の出力を 30 試合抽出し, 過去に言及している割合についてリファレンスと比較したときの結果を示す.この表を見ると, PAST-sep-FT はリファレンスに比べて過去に言及している割合が高く,リファレンスにはない過去情報を出力していることがわかる. ## 5 おわりに 本研究ではスポーツダイジェストの自動生成について,既存モデルの学習方法の変更による精度改善と,過去情報を含めたダイジェストが生成可能なモデルを提案した. 既存モデルの損失関数の重みづけやファインチューニングをおこなうことで精度が向上することと,過去情報内容選択層を追加することで正しい過去情報に言及するようになることを示した. ## 参考文献 [1] Sam Wiseman, Stuart M. Shieber, and Alexander M. Rush. Challenges in data-to-document generation. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 2253-2263, 2017. [2] Ratish Puduppully, Li Dong, and Mirella Lapata. Datato-text generation with content selection and planning. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 33, pp. 6908-6915, 2019. [3] Hayate Iso, Yui Uehara, Tatsuya Ishigaki, Hiroshi Noji, Eiji Aramaki, Ichiro Kobayashi, Yusuke Miyao, Naoaki Okazaki, and Hiroya Takamura. Learning to select, track, and generate for data-to-text. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2102-2113, 2019. [4] Li Gong, Josep Crego, and Jean Senellart. Enhanced transformer model for data-to-text generation. In Proceedings of the 3rd Workshop on Neural Generation and Translation (WNGT 2019), pp. 148-156, 2019. [5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In 31st Conference on Neural Information Processing Systems (NIPS 2017), 2017. [6] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 311-318, 2002. [7] Eric Brill and Robert C. Moore. An improved error model for noisy channel spelling correction. In Proceedings of the 38th Annual Meeting on Association for Computational Linguistics, pp. 286-293, 2000.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B8-2.pdf
# プロンプトに基づく俳句生成モデルの生成内容評価 佐藤 汰亮 ${ }^{1}$ 菊地 正弥 ${ }^{1}$ 大竹 孝樹 1 今野 颯人 1 Ana Brassard ${ }^{2,1}$ 大内 啓樹 2 乾 健太郎 ${ }^{1,2}$ 1 東北大学 2 理化学研究所 \{tasuku.sato.p6, seiya.kikuchi.t3\}@dc.tohoku.ac.jp \{takaki, ryuto, inui\}@ecei.tohoku.ac.jp \{ana.brassard, hiroki.ouchi\}@riken.jp ## 1 はじめに 翻訳や対話応答生成などの文生成タスクは, sequence-to-sequence framework [1] (seq2seq) などのニューラルネットワークによって大きな進歩を遂げた.これらのタスクで生成される文(翻訳文,対話応答文など)は,入力する言語や内容に依存するものの,韻律や文字数といった言語の形式は比較的自由である。一方で,定型詩や歌詞は事前に決められた文字数や韻律などの制約に従って作成されるという特徵をもつ。そのため,これらのテキストの自動生成においては,モデルは事前に決められた制約を満たすような文を生成する必要がある $[2,3]$. 本研究では,こういった制約のあるテキスト生成のタスクとして,俳句の自動生成に取り組む. 俳句とは, 上の句, 中の句, 下の句で構成された, 定型詩の 1 つである. 俳句は以下の 3 つの表層的な制約を満たしている必要がある. - 5 拍, 7 拍, 5 拍の合計 17 拍で構成されている ・1つの季語が含まれている ・切れ字が含まれている1) 制約のあるテキスト生成として俳句を選んだ理由は,その評価のしやすさにある。俳句は現在でも多くの人に親しまれている詩形式の 1 つであり, 1 つの句の長さが短く, 切れ字や季語は判別が容易であるといった,生成結果の評価に際して都合のよい性質を持っている. 我々は,表層的な制約を満たしつつ,句全体の意味が理解できる俳句の生成を目指す. 俳句の自動生成に関する既存の取り組みでは $[4,5,6]$, 生成された俳句が表層的な制約を満たしているかについて評価が行われてきた。しかしなが  ら,生成された俳句が表層的な制約を満たしつつ,意味の理解できるものであるかについては十分に検討されていない.俳句のように表層的な制約を持つ詩の生成は,表層的な制約を満たすことに加え,意味を理解できる事が重要である [3]. 例えば,「春の夜朝日輝く通りけり」という俳句は,上述の表層的な制約をすべて満たしているが,「夜に朝日が輝く」という意味の解釈が難しく,1つのまとまりのある句として理解・解釈ができないため,良い俳句とは言えない. 本研究では,俳句を自動生成するモデルを構築し,モデルによって生成された俳句が,表層的な制約を満たしつつ句全体の意味が理解できるものとなっているかを調査する。また,生成された俳句の内容に踏み込んだ考察をすることで,俳句生成への理解を深める。 ## 2 関連研究 これまで,ルールベースやニューラルネットワー クによって俳句を自動生成する研究がいくつか行われてきた.ルールベースによる俳句生成として土佐ら [4]が挙げられる。土佐らは,データベースを活用し,ルールによって俳句を生成するモデルを構築した. ニューラルネットワークを用いた俳句生成には,太田ら [5] や米田ら [6] の研究がある。 太田ら [5] は, キーワードを入力として俳句を生成する seq 2 seq モデルを提案した. 太田らは, 学習時に拍数や季節の素性を明示的に組み込む事で,俳句の表層的な制約を満たす俳句が生成されることを実現している。一方,米田ら [6] が行った俳句生成では,文生成モデルによって俳句を生成し,モチーフ画像に適合した俳句を選択することで画像と俳句を結びつけた. 米田らは,「生成した俳句がどの程度訓練データと類 表 13 つのプロンプトの具体例 似しているか」という観点から,モデルの生成した俳句が表層的な制約を満たしているかの検証を行っている。 我々は,モデルによって生成された俳句について, 表層的な制約を満たしているかという観点に加えて, 句全体の意味が理解できるかという観点についても定量的に評価を行う. ## 3 入出力設定 本研究では,生成タスクで一般的に用いられている seq2seqを用いて俳句生成を行う. 我々は,モデルによって生成される俳句をある程度制御するため,エンコーダーに俳句の元となるテキストを与え,与えたテキストを元にデコーダーによって俳句を自動生成する方法をとる。この方法には具体的に,(1)キーワードを入力として与え,キーワードを含んだ俳句を作成する方法と,(2) 上の句を入力として与え,それに続く中の句,下の句を作成する方法の 2 通りがあると考えられる。これらを踏まえ,俳句生成モデルの入出力として 3 つのプロンプトを定義した. - 入力 : 俳句文頭の $N$ 文字,出力:続きの俳句 - 入力 : キーワード $M$ 個, 出力: キーワードを盛り込んだ俳句 - 入力 : 文頭の $\mathrm{N}$ 文字とキーワード $M$ 個, 出力:キーワードを盛り込んだ続きの俳句本稿で使用した学習データには, 俳句の区切れ(上・中・下)の情報は含まれていないため,厳密に上の句を切り出すことができない. そこで,文頭の $N$ 文字を上の句と仮定してモデルの入力とする. モデルの入力は, 「キーワード」,「先頭 $N$ 文字」の順に, これらを [SEP] トークンで連結した文字列とする。具体例を表 1 亿示す. ## 4 実験設定 ## 4.1 データセット 訓練及び評価に使用するデータとして,プロの詩人の作品や,コンテストにおける受賞作など,一定表 2 俳句生成モデルの構成 の評価を得た俳句を集約した web データベースからデータをクローリングし,俳句データセットを作成した. 参照した webデータベースは以下の 4 つである. (1)一茶の俳句データベース (一茶俳句全集 V1.30) ${ }^{2}$ ,(2) 松山市立子規念博物館正岡子規俳句 $^{3)}$ ,(3) 俳句例句データベース4),(4) 現代俳句デー タベース5). 3 節で説明した入出力のデータを作成するために,収集した俳句に対し,キーワードと文頭 $N$ 文字を抽出する前処理を行った. 俳句の文頭 $N$ 文字は,人間が作成した 100 句の上の句の文字数をカウントして得られた離散分布に基づいてサンプリングした. サイトから俳句をスクレイピングした際に季語を取得できた俳句に関しては,季語をキーワードとして使用した。また,俳句を Mecab[7] で単語分割し, 名詞と判定された単語もキーワードとして使用した. ただし, 平仮名のみで構成された単語は除外した. $M$ は $1 \leq M \leq 3$ の整数值とした. トークナイズは文字分割を採用した。 以上の前処理を行い,最終的なデータセットの規模は,訓練データが約 386 万インスタンス,開発データが約 15 万インスタンスとなった. ## 4.2 モデル 俳句生成を行う seq2seq モデルのアーキテクチャは米田ら [6] と同様にLSTMを採用した. 実装は fairseq[8]を使用した. モデルの更新回数は開発デー タを用いて決定した. モデルの詳細は表 2 に示す. seq2seq モデルは, 同じ語句を繰り返し生成して  表 3 生成俳句と重複度スコア しまうことがある [10]. このような繰り返し生成をフィルタリングするため,生成された俳句における単語分割での異なり語彙率と,文字分割での異なり語彙率の平均值を重複度スコア $S_{d u p l} \in[0,1]$ として定義した。ここで,異なり語彙率とは,異なり語数を総語数で割ったものである。重複度スコアは,同じ語句の繰り返しが多いほど低下する. 生成された俳句と重複度スコアの具体例を表 3 亿示す. 開発データを用いて生成された俳句を元に閾値を 0.7 に設定し,重複度スコアが閾値を下回った俳句は出力候補から除外した。 ビーム幅 10 のビームサーチによって生成された俳句のうち,重複度スコアが閾値を上回った俳句からランダムに 1 つ選び,モデルの出力とした. ここで重複度スコアが最も高い俳句ではなく,ランダムに俳句を選択している理由は,重複度スコアが同じ語句の繰り返し生成を抑制するために導入したスコアであり,俳句の内容の質を反映したスコアではないためである. 条件を満たす俳句が存在しない場合,重複度スコアが最も高い俳句を出力した. 3 節で述べたように,モデルの入力としてキー ワードが与えられる場合がある。このような入力に対しては,入力されたキーワードを盛り込んだ俳句を出力することが望まれるため,指定したキーワー ドが出力結果に含まれているかを検証した. 開発データのうち,キーワードを入力として与えているデータを用いて俳句を生成したところ,97\% の俳句で指定した全てのキーワードが含まれていることを確認した。 ## 4.3 評価方法 1 句につき 3 人のアノテーターが評価を行う. 各質問には回答の選択肢が 2 つ用意されており,3 人のうち 2 人が選択した選択肢をその俳句の評価として採用する. また,各質問において,3人のアノテーター間の一致率を fleiss kappa を用いて計算する.表 4 表層的な制約の評価 人手評価は俳句の表層的な制約と俳句の内容,2 つの観点に対して行う.表層的な制約に関しては,以下の 3 点を評価する. ・5,7,5 の 17 音の制約を満たしているか ・季語を含んでいるか ・切れ字を含んでいるか 内容に関しては,以下の 2 点を評価する。 ・モデルの生成した俳句が意味を理解・解釈できる俳句となっているか ・(アノテーターが) 人が作成した俳句とモデルの生成結果,どちらの俳句を好むか 内容に関する 2 点目の評価項目については,(A)人が作成した俳句,(B) (A) の俳句から抽出したキー ワードと先頭 $N$ 文字を入力としてモデルが生成した俳句,の2つを提示することで評価を行った. 評価時にはどちらがモデルの生成かは分からない状態にした。また,俳句の良し悪しを客観的に判断することは難しいため,「どちらの俳句が良い俳句か」 ではなく「どちらの俳句が好きか」という質問を採用した. 人手評価用データは,開発データを元に生成した俳句からランダムに 50 句サンプリングすることで作成した。 ## 5 評価 ## 5.1 表層的な制約の評価 表 4 に結果を示す. 拍数の制約は $82 \%$ の割合で満たしており,アノテーター間での一致率は 0.639 だった. この評価では「5/7/5を満たしているか」という問い方をしたため,字余り,字足らずの俳句においてアノテーター間の不一致が見られた。この様な字足らず,字余りを許容すると,拍数の制約を満たしている俳句の割合はより大きくなると考えられる。 季語は $96 \%$ の割合で含まれており,季語を含めなければいけないという制約を学習できていることがわかった。 表 5 内容の評価 \\ 切れ字を含む確率は $32 \%$ \%゙った.切れ字を含むことを俳句の制約と考えるか否かは諸説あり,切れ字を含まない俳句も数多く存在する.実際,本研究で使用した訓練データ中にも切れ字を含まない俳句が見受けられる.ここから,切れ字のように,訓練データ中の俳句が必ず満たしているわけではない制約は,暗黙的に学習することが難しいと考えられる。 ## 5.2 内容の評価 表 5 に結果を示す. fleiss kappa の値から,2つの質問はアノテーター間でも判断が分かれる観点であったと考えられる. 人の作成した俳句よりもモデルが生成した俳句が好きだと回答した人は $42 \%$ であった。また,意味を理解・解釈できる俳句は $74 \%$ であった. 理解,解釈できないと判断された生成俳句を確認すると, 同じ単語が繰り返し出現しているものが散見された. ここから,人が理解・解釈できる俳句を生成するためには, 同じ単語の繰り返し生成を抑制するための工夫を行うべきであると考えられる。 ## 6 生成例・考察 表 6 に,俳句生成モデルが実際に生成した俳句を示す. 俳句に求められる表層的な制約を満たしつつ,内容を理解・解釈できる俳句が生成されていることがわかる. 表 7 に,俳句の表層的な制約は満たしているものの,その内容の理解が難しい例を示す. 1 行目は, 同じ単語を繰り返し生成してしまっている例である.このような生成は seq 2 seq によくみられる現象である。 2 行目は,常識を欠いた表現を生成している例である.常識を考えると,「膝に手をさしいれる」と表 7 内容の理解・解釈が難しい生成例入力 いう表現には違和感がある。しかし,「手をさしいれる」が「風邪によって関節のリンパ節が痛くなる」ことを表現していると考えると,風邪が自分の体を蝕んでいる様子を巧みに表現した俳句と見なすこともできる. 俳句は書き手の表現力が要求されると同時に,読み手の想像力によっても作品の価値が高まる。よって,俳句生成時に常識を考慮していないことが俳句の質の悪化につながっているとは一概に言い切れない. 3 行目は単語の意味を理解できずに生成している例である。これは,「スマホ」のように,学習データに含まれていない単語は,正しく生成結果に盛り込めないことや,俳句を文字分割して学習させているため,単語レベルの情報をモデルに組み込むことができていないことが原因と考えられる. ## 7 おわりに 本論文では,制約のあるテキスト生成として俳句生成に取り組んだ. プロンプトに基づく俳句生成モデルを構築し,その生成結果を表層的な制約,内容の 2 観点から人手評価した. とくに,「表層的な制約を満たす一方で,まとまりのある句として内容が理解できる俳句か?」という点に注目し,大部分の生成結果が表層的な制約を満たしている一方で, $74 \%$ がその内容も理解・解釈できるものとなっていることを明らかにした。 今後の研究としては, 繰り返し生成への対処,創作支援システムへの応用などが考えられる. 特に,創作支援システムとして応用するために,入力形式の充実化に取り組みたい. また,俳句生成モデルが実際に創作支援ツールとして有効なのかを検証するための人手評価を行いたい. 謝辞本研究は JSPS 科研費 JP19H04425 の助成を受けたものである. ## 参考文献 [1]Ilya Sutskever, Oriol Vinyals, and Quoc V. Le. Sequence to sequence learning with neural networks. In Zoubin Ghahramani, Max Welling, Corinna Cortes, Neil D. Lawrence, and Kilian Q. Weinberger, editors, NeurIPS, pp. 3104-3112, 2014. [2]Xingxing Zhang and Mirella Lapata. Chinese poetry generation with recurrent neural networks. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 670-680, Doha, Qatar, October 2014. Association for Computational Linguistics. [3]Piji Li, Haisong Zhang, Xiaojiang Liu, and Shuming Shi. Rigid formats controlled text generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 742-751, Online, July 2020. Association for Computational Linguistics. [4]Naoko Tosa, Hideto Obara, and Michihiko Minoh. Hitch haiku: An interactive supporting system for composing haiku poem. In Scott M. Stevens and Shirley J. Saldamarco, editors, Entertainment Computing - ICEC 2008, pp. 209-216, Berlin, Heidelberg, 2009. Springer Berlin Heidelberg. [5]瑶子太田, 裕之進藤, 裕治松本. 深層学習を用いた俳句の自動生成. Technical Report 1, 奈良先端科学技術大学院大学, 奈良先端科学技術大学院大学, 奈良先端科学技術大学院大学, may 2018. [6]Koki YONEDA, Soichiro YOKOYAMA, Tomohisa YAMASHITA, and Hidenori KAWAMURA. Development of automatic haiku generator using lstm. Proceedings of the Annual Conference of JSAI, Vol. 2018, pp. 1B2OS11b011B2OS11b01, 2018 [7]Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to japanese morphological analysis. In $E M N L P$, pp. 230-237, 2004. [8]Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In NAACL, pp. 48-53, 2019. [9]Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Yoshua Bengio and Yann LeCun, editors, ICLR, 2015. [10]Ari Holtzman, Jan Buys, Maxwell Forbes, and Yejin Choi. The curious case of neural text degeneration. CoRR, Vol. abs/1904.09751, , 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B8-3.pdf
# 高再現率な文法誤り訂正システムの実現に向けて 松本悠太 ${ }^{1}$ 清野舜 ${ }^{2,1}$ 乾健太郎 ${ }^{1,2}$ 1 東北大学 2 理化学研究所 yuta.matsumoto.q8@dc.tohoku.ac.jp, shun.kiyono@riken.jp, inui@ecei.tohoku.ac.jp ## 1 はじめに 文法誤り訂正 (Grammatical Error Correction; GEC) は文法的な誤りを含んだ文を入力とし、正しい文を出力とすることで誤りを訂正するタスクである。一般的に GEC システムの評価にあたっては、参照文との比較により各編集について正解・不正解を計算し、適合率、再現率と $F_{0.5}$ 値を求める $[1,2]$. GEC システムの多くには適合率が再現率よりも高いという傾向が見られる. 例えば、2019年に開催された GEC の Shared Task (BEA-2019)[3] の優勝システム [4] では、適合率は $72.28 \%$ だったのに対し、再現率は $60.12 \%$ であった。また、Shared Taskにおいてシステムの優劣を $F_{0.5}$ で比較していることからも、GEC が分野として適合率の高さを重要視していることが分かる. 一方で、適合率を度外視してでも高い再現率を担保したい状況も考えられる. 例えば、英語の母語話者が GEC システムを自分で書いた英文の校正に使用する場面を考える.母語話者としては、全ての文法誤りがシステムによって訂正される(つまり、再現率が 100\%である)ことが望ましいはずである. このとき、各訂正の良し悪しはシステムのユーザが判断すれば良いため、必ずしも全ての訂正が正しい必要はない. 我々の最終的な目的は高再現率な GEC システムの実現である.しかしながら、我々の知る限り高再現率を主目的とした研究は存在せず、この目標への取り組み方も明らかではない。そのため、本研究では次の 2 つの戦略のもと, 高再現率システムの構築に向けて解決すべき問題の性質を明らかにする。 (1)各種文法誤りの種類のうち、前置詞の誤りに限定して取り組む. 前置詞の誤りは、名詞や動詞の誤りよりも種類が少ないため、GEC システムの制御や分析が容易になると考えられる. (2) 再現率向上に寄与するとされる複数の既存手法を組み合わせて、再現率の変化を分析する.具体的には、疑似データ、リランキングと反復復号化という 3 つの手法を使う.既存手法の効果を分析することで、将来的に新手法の効果をより精緻に分析することが可能になる. 分析では、一連の手法における最高値を知るためにモデルのオラクル出力を獲得し、その再現率を計算した。その後、訂正できなかった誤りの性質を理解するためにオラクル出力を人手評価によって分析した. その結果、参照文で正解とされている編集が必ずしも正しいとは言えない可能性が示唆された. ## 2 再現率を向上させるための手法 本節では、前置詞の再現率向上に有効だと考えられる 3つの既存手法:(1) 擬似データ (2) リランキング (3) 反復復号化について述べる. Encoder-Decoder (Enc-Dec) モデル [5] を用いた本研究の概観を図 1 に示す. ## 2.1 擬似データ GEC の訓練データは言語学習者の書いた英文とその訂正文からなるパラレルコーパスである. ここで、前置詞の用法のうち誤りが含まれているのは全体の 1 割に過ぎず、ほとんどの場合では正しく用いられていることが知られている [6]. このようなデータを用いて訓練をおこなう場合、モデルは前置詞をできるだけ訂正しないような傾向を学習してしまい、結果として、モデルの再現率は低くなってしまうと考えられる。 本研究では、前置詞の誤りを大量に含んだ疑似データを訓練に取り入れることによって、再現率の向上をねらう(図 1(a))GEC モデルの訓練においては、元の訓練データに加えて擬似データを用いることが一般的であり $[4,7,8$ 、本研究もその枠組みに従う.具体的には、単一言語コーパスに対して前置詞誤りを付与することで、前置詞誤りを含んだ擬似データを生成する,以下にその過程を述べる。 (a)疑似データを用いた学習 (b) リランキング (c) 反復復号化 図 1 高再現率 GEC システムの概観 まず Takahashi ら [8] に従い、コーパス中に含まれる前置詞の頻度から、最もよく使われる前置詞 10 個の前置詞セット $[9,8]$ を作成する. 次に、単一言語コーパスの文中の各単語に対して確率 0.1 で前置詞セット中の単語をランダムに挿入する.また、対象の単語が前置詞セットに含まれている場合,誤りを確率 $p$ で付与する.誤りを付与する場合は、(1)削除、(2) 他の前置詞との置換、(3) 前後の単語との入れ替えをそれぞれ $0.1,0.8,0.1$ の確率で行う.この確率分布は Grundkiewicz ら [4] を参考にした. ここで、操作 (2) の置換については、前置詞セットではなく、別に用意した前置詞混乱セット [10] を用いることで、学習者の各前置詞に関する誤り傾向を擬似データ中に取り入れる。具体的には、前置詞 $w_{i}$ の前置詞混乱セットは、学習者データ中で $w_{i}$ に多く訂正された上位 4 単語の前置詞 $w_{j}$ の集合とした. 例えば、単語 for は to $\cdot$ of $・$ in ・on から高頻度で訂正されるため、for 9 前置詞混乱セットは $\{$ to, of, in, on \} となる1). ## 2.2 リランキング Enc-Dec モデルのデコード過程では、幅 $n$ のビー ムサーチによって $n$ 個の候補文が出力される. このとき、通常は Enc-Dec が付与したスコアの最も大きい候補文を選択するが、原文からの前置詞の編集を多く含むような文を選択することができれば、再現率を向上させられるはずである。この直観のもと、前置詞の編集数をスコアとして取り入れたリランキングを提案する (図 1(b)).これは、他の Enc-Dec モデルや言語モデルを用いたリランキング手法 [7,11] の亜種であるとみなせる. リランキングでは、以下のように新しいスコア 1)前置詞混乱セットの詳細や実際に生成された擬似データについては付録 Aを参照されたい. (NewScore $\in \mathbb{R} ) を$ 計算する. NewScore $=$ BeamScore $+\alpha *$ NumOfPrepEdit ここで、BeamScore $\in \mathbb{R}$ と NumOfPrepEdit $\in \mathbb{N}$ はそれぞれ Enc-Dec が付与したスコアと訂正前後の文間における前置詞の編集数である。前置詞の編集は ERRANT[1]によって検出した. また、重み $\alpha \in \mathbb{R}$ はハイパーパラメータである2). ## 2.3 反復復号化 反復復号化は、デコード時に得られた文を再びモデルでデコードする手法である(図 1(c))。これにより、複数の文法誤りを含む文に対して、モデルは段階的に訂正をおこなうことができる.GECにおいては複数の既存研究 $[12,13,14]$ が反復復号化を採用し、再現率の向上を報告している.そのため、本研究でも手法の一つとしてこれを採用する。 ## 3 実験 ## 3.1 実験設定 データセット訓練データと検証データには BEA-2019 Shared Task[3] で配布された物を使用する.以降はそれぞれ BEA-train、BEA-valid と言及する. 評価データには CoNLL-2014 で使用されたテストデータ (CoNLL-2014)[15] を用いる。擬似データは Gigaword ${ }^{3}$ から生成した。また、これらのデータは全て subword-nmt ${ }^{4}$ によって BPE 化した. 各デー タセットの統計量を表 1 に示す. 性能評価モデルの性能評価には、BEA-valid と CoNLL-2014を用いる. ERRANT[1]を用いて誤りタ 2)実際のリランキング例は、付録 B を参照されたい. 3) https://catalog.ldc.upenn.edu/LDC2003T05 4) https://github.com/rsennrich/subword-nmt 表 1 各データセットの詳細な統計量 表 2 擬似データを加えた時の前置詞誤りと全体に対する性能.太字は最も高再現率だったスコアを表す. イプごとに適合率、再現率、 $F_{0.5}$ 値を計算した. モデル Enc-Dec モデルとして Transformer (big)[5] を用いた。また、最適化には Adafactor[16]を用いた. 全てのモデルは、Kiyono ら [7] の作成した事前学習済みモデルを初期値として用いて学習した.この事前学習済みモデルを BEA-train のみで学習させたものをべースラインモデルとする5). ビームサー チの幅は 20 とした. ## 3.2 実験 1 : 擬似データ 本節では前置詞誤りの擬似データを生成する際の前置詞誤り付与確率を変化させたときの性能を比較する. 誤り付与確率 $p$ を $p=\{0.5,0.7,0.9,1.0\}$ と変化させた時の性能は表 2 のようになった. 表 2 から、擬似データを用いることで前置詞における再現率が向上したとわかる。一方で、再現率の向上幅は誤り付与確率を変化させてもほぼ変わらない. 以降の実験 $2 、 3$ では、最も高再現率となった $p=1.0$ の擬似データを含むデータで学習したモデル( $p=1.0$ の擬似データモデル)を使用する. ## 3.3 実験 2 :リランキング ベースラインモデルと $p=1.0$ の擬似デー タモデルに対して、ビームサーチで得られた候補 20 文について前置詞編集数の重み $\alpha$ を $\alpha=\{0,0.1,0.2,0.3,0.5,0.7\}$ と変化させた場合の性能を図 2 に示す. 図から、どちらのモデルにおいても、前置詞の編集数を用いたリランキングによって再現率が高くなるように制御できることがわかる.  図 2 ベースラインモデル、 $p=1.0$ の擬似データモデルにおける前置詞編集数によるリランキングの効果 図 3 ベースラインモデル、 $p=1.0$ の擬似データモデルにおける反復復号化の効果 一方で、重みを大きすするとビームサーチのスコアの影響が小さくなり、適合率は下がる. ## 3.4 実験 3 : 反復復号化 ベースラインモデルと $p=1.0$ の擬似データモデルで反復復号化をそれぞれ 3 回行った際の性能変化を調べた結果を図 3 に示す. 図から、反復復号化は 1 回目は効果があるものの、 2 回目以降はほぼ効果がないことが分かる. これは先行研究 $[12,14]$ と一致する結果である。 ## 3.5 実験 4 :各手法の組み合わせ 手法 3 つを全て組み合わせて実験をおこなうことで、本研究の枠組みで達成可能な再現率の最高值を調べた。また、 $p=1.0$ の疑似データモデルを用いて、前置詞再現率のオラクル値を計算した。これは、モデルの出力する候補 20 文のうち、前置詞の再現率が最も高くなるような文を選ぶことによって 表 4 人手評価のスコアに基づくモデル出力文と参照文の比較 計算した. その結果を表 3 に示す. 表 3 から、それぞれの手法が相補的に再現率向上に寄与することがわかる. 特に、全ての手法を組み合わせることで、BEA-valid における前置詞誤りの再現率はベースラインの 38.92 から 56.35 まで向上した. 一方で、再現率のオラクル値(62.97)とは6ポイント以上の差があることから、リランキングや反復復号化手法の改善が必要であることが示唆される. また、CoNLL-2014 の場合は反復復号化を行わず、擬似データ手法とリランキング手法を組み合わせた場合が最も高い再現率となった. ## 4 分析 第 3.5 節で再現率のオラクル值(62.97)を求めたが、我々の究極的な目標である再現率 $100 \%$ のためには 40 ポイント弱の上積みが必要であるとわかる.本節では、この内訳を分析することで、さらなる再現率向上のための手がかりを得ることを試みる. 具体的には、モデルが訂正できなかった前置詞誤りのうち、真にモデルが訂正するべきだと思われる誤りの割合を人手評価を用いて明らかにする。 モデルの出力した訂正文候補のうち、オラクル値の計算に用いた文をオラクル文と呼ぶ. モデルが BEA-valid の訂正で出力したオラクル文では、前置詞誤り 588 例が正しく訂正されていたが、243 例が未訂正、もしくは正しく訂正できなかった. 未訂正、もしくは正しく訂正できなかった誤り 243 例のうちランダムに 30 例を抽出し、 2 人の英語母語話者 に評価を依頼した。具体的には、訂正前の原文とそれに対応するオラクル文、参照文を示し、それぞれの文における前置詞の修正を「訂正が文を悪化させている」「訂正前と変わらない」「完璧ではないが改善されている」「完璧な訂正である」の 4 段階スコア、または「自分ではこの結果を判断できない」という答えで評価してもらった. なお、長文や原文と参照文の編集距離が極端に大きい例は分析の対象から除外した。これは、対象の前置詞の訂正の評価にあたって、前置詞以外の訂正が評価者にとってノイズになると考えたからである. 30 例のうち「自分ではこの結果を判断できない」 という答えであった例を除いた 27 例において、それぞれの前置詞の編集に対するスコアを比較した結果を表 4 に示す. 表 4 から、“不正解”とされていた前置詞の編集の約 4 割は間違いとは言い切れないことがわかった。“不正解”とされていた前置詞の編集の約 40\%が参照文と同等以上の評価を得たことを考慮すると、現在の検証セットの信頼性に疑問が生まれる6). ## 5 おわりに 本研究では、高再現率な誤り訂正システムの実現を目的として、再現率向上に有効だと思われる 3 つの手法を実験した。その結果、前置詞の再現率についてベースラインから 17 ポイント強の性能向上を達成したが、オラクル値との比較から、リランキング等の手法に改善が必要であるとわかった. また、 モデルが訂正できなかった誤りの人手分析から、不正解だとされている訂正が必ずしも間違いではない可能性が示唆された.今後は、前置詞以外を対象としたシステムの構築のほか、クラウドソーシングを用いたより大規模な人手評価に取り組みたい. 6)モデルの出力文の評価値が、参照文の評価值と同じまたはそれ以上であった例を付録 Cに示した。 ## 参考文献 [1]Christopher Bryant, Mariano Felice, and Ted Briscoe. Automatic Annotation and Evaluation of Error Types for Grammatical Error Correction. In ACL, pp. 793-805, 2017. [2]Daniel Dahlmeier and Hwee Tou Ng. Better Evaluation for Grammatical Error Correction. In NAACL, pp. 568-572, 2012. [3]Christopher Bryant, Mariano Felice, Øistein E. Andersen, and Ted Briscoe. The BEA-2019 Shared Task on Grammatical Error Correction. In BEA, pp. 52-75, 2019. [4]Roman Grundkiewicz, Marcin Junczys-Dowmunt, and Kenneth Heafield. Neural Grammatical Error Correction Systems with Unsupervised Pre-training on Synthetic Data. In $B E A$, pp. 252-263, 2019. [5]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention Is All You Need. In NIPS, pp. 59986008, 2017. [6]Alla Rozovskaya, Mark Sammons, and Dan Roth. The UI System in the HOO 2012 Shared Task on Error Correction. In BEA, pp. 272-280, 2012. [7]Shun Kiyono, Jun Suzuki, Masato Mita, Tomoya Mizumoto, and Kentaro Inui. An Empirical Study of Incorporating Pseudo Data into Grammatical Error Correction. In EMNLPIJCNLP, pp. 1236-1242, 2019. [8]Yujin Takahashi, Satoru Katsumata, and Mamoru Komachi. Grammatical Error Correction Using Pseudo Learner Corpus Considering Learner's Error Tendency. In $A C L$, pp. 27-32, 2020. [9]Christopher Bryant and Ted Briscoe. Language Model Based Grammatical Error Correction without Annotated Training Data. In BEA, pp. 247-253, 2018. [10]Alla Rozovskaya and Dan Roth. Generating Confusion Sets for Context-Sensitive Error Correction. In EMNLP, pp. 961970, 2010. [11]Shamil Chollampatt, Weiqi Wang, and Hwee Tou Ng. Crosssentence grammatical error correction. In $A C L$, pp. 435-445, 2019. [12]Jared Lichtarge, Chris Alberti, Shankar Kumar, Noam Shazeer, Niki Parmar, and Simon Tong. Corpora Generation for Grammatical Error Correction. In NAACL, pp. 32913301, 2019 [13]Tao Ge, Furu Wei, and Ming Zhou. Fluency boost learning and inference for neural grammatical error correction. In $A C L$, pp. 1055-1065, 2018. [14]浅野広樹, 鈴木潤, 水本智也, 乾健太郎. 文法誤り訂正における反復訂正の効果検証. 言語処理学会第 25 回年次大会予稿集, pp. 578-581, 2019. [15]Hwee Tou Ng, Siew Mei Wu, Ted Briscoe, Christian Hadiwinoto, Raymond Hendy Susanto, and Christopher Bryant. The CoNLL-2014 Shared Task on Grammatical Error Correction. In CoNLL, pp. 1-14, 2014. [16]Noam Shazeer and Mitchell Stern. Adafactor: Adaptive Learning Rates with Sublinear Memory Cost. In ICML, pp. 4596-4604, 2018. ## A 擬似データ 前置詞誤り生成の際に今回使用した混乱セットを表 5 に示す. 表 5 前置詞誤りの擬似データを生成する際に使用する前置詞混乱セット. 元コーパス中の for という単語を置換する場合、 to・of・in・on のいずれかに置換される.元コーパス中の前置詞前置詞混乱セット 表 5 を用いて実際に生成された擬似データの例を表 6 に示す. ## B リランキング リランキングの例を表 7 に示す. ## C 人手評価の例 モデルの出力文の評価値が、参照文の評価値と同じまたはそれ以上であった例を表 8 に示す. ## D 謝辞 本研究を行うにあたり、多くの方々のご協力、ご指導を賜りました. 様々な有益なアドバイス、議論をしてくださった東北大学乾・鈴木研究室の皆様へ感謝いたします. 特に、英文の人手評価に協力してくださった Paul Reisert さん、Keshav Singh さんへ、記して深く感謝いたします.表 6 Gigawordコーパスから生成された前置詞誤りを含む擬似データの例 原文疑似誤りを含む文 It was a different position for us . It was a different of position of us . The euro stood at 1.1988 dollars . The euro stood 1.1988 dollars . 表 7 重み $\alpha=0.3$ 、候補文 3 文におけるリランキングの例この場合、リランキング前は 2 位だった文が with を about に編集しているためスコアが追加され、リランキングによって 1 位の文となる. -0.1759156 People have also become concerned with nature . -0.4630002 People have also become concerned about nature . -0.6949797 People have also become concerned with nature, リランキング後 -0.1630002 People have also become concerned about nature . -0.1759156 People have also become concerned with nature . -0.6949797 People have also become concerned with nature , 表 8 人手評価でモデル出力文の評価値が参照文の評価値と同程度以上であった文の例 \\ モデル出力文 & \\ &
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B8-4.pdf
# Generating the middle sentence of two sentences using pre-trained models: a first step for text morphing WANG Pengjie, WANG Liyan, Yves LEPAGE EBMT/NLP Lab Graduate School of Information, Production and Systems, Waseda University \{wangpengjie_0000@asagi.;wangliyan0905@toki.;yves.lepage@\}waseda.jp } \begin{abstract} Text morphing is a task of natural language processing. This task can be applied to many other tasks, such as generating data sets for writing aid systems or the study of sentence relationships. We propose an approach to generate the middle sentence of two input sentences. By iterating the steps, we show how to solve the text morphing task. We get a training dataset by using a naïve approach. We finetune a pre-trained GPT-2 model [7] to get a model that can generate middle sentences. Compared with the previous models, the results show that the generated sentences can be of high quality while maintaining the meaning relationship with the input sentences. \end{abstract ## 1 Introduction Text morphing is a task of text generation that targets generating intermediate sentences that are fluent and smooth between two input sentences [4]. We denote two given input sentences as $\mathrm{S}_{\text {start }}$ and $\mathrm{S}_{\text {end }}$. An example of text morphing is shown in Table 1. $\mathrm{S}_{\text {start }}$ : i watched them $\mathrm{S}_{1}$ : i'll see them with tom . $\mathrm{S}_{2}$ : i 'll start with them $\mathrm{S}_{3}$ : i 'll start with the questions . $\mathrm{S}_{\text {end }}$ : let 's start with the easy questions Table 1 An example of text morphing generated by our fine-tuned GPT-2 model. $\mathrm{S}_{\text {start }}$ and $\mathrm{S}_{\text {end }}$ are given sentences. In this paper, we focus on generating a middle sentence between two input sentences. ## 2 Related work For the text morphing generation task, the simplest solution is to decode the interpolation between two sentence vectors. For a normal autoencoder (AE), in most cases, the encoder generates unreasonable sentences when decoding interpolation. Bowman et al. [2] proposed a Sentence Variational Autoencoder (SVAE) model to generate high-quality sentences using an embedding space. This approach successfully generates a series of coherent and reasonable sentences between two latent variables. However, due to a unique model in this approach, these generated sentences usually are far from the input sentences in meaning. In addition to using a vector space, the text morphing task can be solved by editing techniques. Guu et al. [3] proposed a generative sentence model that edits a prototype sentence into a new sentence. Based on the idea of Guu et al. [3], Huang et al. [4] proposed a method to generate intermediate sentences by gradually editing the sentences from the start sentence to the end sentence. Unfortunately, their model is not open source, which prevents testing effectiveness. GPT-2 is a pre-trained neural language model using the transformer model [8] and the autoregressive mechanism to predict the next token based on the previous contents. It provides an easy way to fine-tune the model to generate domain-specific text. We propose to fine-tune GPT-2 to get a model that generates middle sentences. This paper will mainly compare our model with the AE and SVAE model in terms of middle sentence generation. In the following parts, we introduce the AE and SVAE models in detail. ## 2.1 Auto-encoder An encoder converts sentences into vectors. It takes the middle interpolation between the two vectors as the middle vector, and then generates the middle sentence after decoding. We use a fastText pre-trained model [1] to compute word vectors. The sum of word vectors to represent the sentence vector. Such interpolation between two sentence vectors may not have a good effect after decoding because the information carried by interpolation is often difficult to decode into a reasonable sentence. ## 2.2 Sentence Variational Autoencoder Bowman et al. [2] proposed the Sentence Variational Autoencoder (SVAE) model to solve some AE model generation problems. The Variational Autoencoder (VAE) [5] replace the deterministic function in the standard auto-encoder with a learned posterior recognition model, $q(\vec{z} \mid x) . \vec{z}$ is called the latent variable. Bowman et al. [2] used a particular model to force the decoder to decode a reasonable sentence while decoding $\vec{z}$. However, when an embedding is converted to $\vec{z}$, the $\vec{z}$ loses some original embedding information. Therefore, in subsequent generated tasks, the correlation between the inputs and generated sentences will be reduced. ## 3 Assessment In this section, we introduce the metrics used to evaluate the results. ## 3.1 BERTScore We use BERTScore [9] to evaluate the semantic similarity between two sentences. When the BERTScore between two sentences approaches 1 , it indicates that the meaning of the two sentences tend to be the same. When the BERTScore is close to 0 , it indicates that the meaning of the two sentences tend to be unrelated. ## 3.2 Grammar checker We use $\mathrm{GECToR}^{1)}$ [6], a state-of-the-art grammatical error correction (GEC) model (as of January 2021), to check our generated sentences for grammatical correctness. In the case of ignoring uppercase, if a sentence passes through the GECToR model without modifications, we assume that the sentence is correct. ## 3.3 Perplexity We use perplexity (PPL) to determine whether our generated sentences are plausible. The sentences in the Tatoeba corpus that we use are mostly short. Therefore we calculate PPL in a 3-gram model. ## 3.4 Jaccard distance Jaccard distance is a measure of the difference between two sets. We use it when evaluating the test results of text morphing. We define: - $d_{j}(S, E)=\frac{|S \cup E|-|S \cap E|}{|S \cup E|}$. - In this formula, $S$ stands for the set of tokens in the start sentence, and E stands for the set of tokens in the end sentence. ## 4 Methodology We aim to obtain a model that can generate a middle sentence between two given input sentences. ## 4.1 Approach Our approach mainly consists of the following three steps: 1. We use a pre-trained auto-encoder to generate the middle sentence and get the start-middle-end triplet. 2. We filter the sentence triplets and select the triplets that meet our requirements. 3. We fine-tune a pre-trained GPT-2 model with highquality triplets to get a model that will generate a middle sentence between two given input sentences. ## 4.2 A method to select the triplet data We use BERTScore to measure the semantic similarity between two sentences. The values of BERTScore in this paper are all the F1 values of BERTScore. For ease of use, we use the following abbreviations in this paper: - For a start-end sentence pair or a start-middle-end triplet, their BERTScore (start, end) is abbreviated as SE-BERTScore. - For a start-middle-end triplet, the mean of the BERTScore (start, middle) and the BERTScore end, middle) is abbreviated as SME-BERTScore. - For a start-middle-end triplet, the absolute value of the difference between the BERTScore (start, middle) and the BERTScore (end, middle) is denoted with DIF-BERTScore.  Our definition of middle sentences comes from the following unique concepts of analogy: Start : Middle :: Middle : End. Specifically, it should meet the following requirements: 1. For a start-middle-end triplet, the SME-BERTScore should be larger than the SE-BERTScore. 2. For a start-middle-end triplet, the DIF-BERTScore should be as small as possible. ## 5 Experiment Our experiment has two steps: start-middle-end triplet data collection and GPT-2 fine-tuning. ## 5.1 Dataset collection We use a FastText pre-trained model to calculate the word vectors, and we represent a sentence vector by the sum of the word vectors. We split 80k sentences in the Tatoeba database into train/valid/test according to 80/10/10. We use this data to train a decoder. The parameters are as follows. Table 2 The base model decoder settings. Based on the interval of SE-BERTScore, we equally selected $1,110 \mathrm{~K}$ sentence pairs from the Tatoeba corpus, as shown in Figure 1. We split the $1,100 \mathrm{~K}$ sentence pairs in the way of $100 / 11$. The $1,000 \mathrm{~K}$ sentence pairs are used for generation tasks in the AE model, and $110 \mathrm{~K}$ sentence pairs are used to test the middle sentence generation. In the $110 \mathrm{~K}$ sentence pairs, we selected $10 \mathrm{~K}$ on average to test text morphing. ## 5.2 Data procession We collect start-middle-end triplets that meet the following four requirements: - The middle sentence has not been modified by the grammar error correction model GECToR. - The value of SME-BERTScore is larger than SEBERTScore. - The value of DIF-BERTScore is less than 0.05 . - The PPL value of the middle sentence is less than 30 . Figure 1 BERTScore range - Number histogram We generated and equally selected 5,000 high-quality start-middle-end triplets according to the SE-BERTScore interval. We split the triples according 90/10 into train/valid data. ## 5.3 Fine-tuning GPT-2 The fine-tuning of GPT-2 is a simple procedure. We need to give the labeled start-middle-end triplet data to GPT-2 for fine-tuning. The fine-tuning parameters are as follows. We use different learning rates for two experiments, Exp. 1 and Exp.2. Table 3 The GPT-2 fine-tuning settings ## 6 Result and analysis We use 110k sentences with the average distribution of SE-BERTScore to test each model. As a comparison, we use SVAE and the AE model as baselines. Because the SVAE structure is different from the AE model, we do not use parameters used in $\mathrm{AE}$ but use the default parameters provided by their implementation ${ }^{2)}$. The achievement rate of strict standard (ARSS) is the proportion of the generated sentences that follows the following requirements: - SME-BERTScore is larger than SE-BERTScore. - DIF-BERTScore is less than 0.05 . Furthermore, the achievement rate of general standard 2) https://github.com/timbmg/Sentence-VAE Table 4 Some middle sentences generation examples are selected according to the SE-BS interval. SE-BS stands for SE-BERTScore. Table 5 The SME stands for the SME-BERTScore. The DIF stands for the DIF-BERTScore. The ER stands for the error rate that sentences cannot pass a grammar checker. The ARSS stands for the achievement rate of strict standards. The ARGS stands for the achievement rate of the general standards For SME and ARSS and ARGS, the higher it is, the better. For DIF, PPL, and ER, the smaller it is, the better. (ARGS) is The proportion of the generated sentences that follows the following requirements: - SME-BERTScore is larger than SE-BERTScore. - DIF-BERTScore is less than 0.20 . Figure 2 BERTScore distribution. The x-coordinate is the SE-BERTScore interval, and the y-coordinate is the average SME-BERTScore generated by each model within each interval. In Figure 2, the base is the mean value of the SEBERTScore in its interval. When the SME-BERTScore of a model is higher than the base value, it means that for this model, the generated sentence is semantically related to the start-end sentence pair and serves as a middle sentence between the start sentence and the end sentence. According to the contents in Figure 2, Table 4, and Table5 , our model can generate high-quality middle sentences better than previous models (AE and VAE) under the strict and general standard conditions.  & & \\ Table 6 Some text morphing examples are selected according to the SE-BS interval. Text morphing is a continuous process, and Jaccard distance can measure the degree of difference in form between two sentences. When the average Jaccard distance (JD) is lower, text morphing is smoother. Table 7 Avg. JD stands for the average Jaccard distance between the generate sentences and input sentences. The lower is meaning text morphing is more smooth. The examples in Table 6 and the data in Table 7 show that our model can achieve smooth text morphing while maintaining high quality. ## 7 Conclusion To summarize the contribution of this paper are as follows: - We propose a new approach to solve the text morphing task. - We fine-tune a pre-trained model that generates a middle sentence between inputs. This model can generate middle sentences from sentence pairs with different semantic similarity. - The quality of middle sentences generated by our model is better than that of previous models, based on pretrained auto-encoders.  ## References [1]Bojanowski, Piotr, Grave, Edouard, Joulin, Armand, and Mikolov, Tomas. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics, 5:135-146, 2017. ISSN 2307-387X. [2]Bowman, Samuel R., Vilnis, Luke, Vinyals, Oriol, Dai, Andrew, Jozefowicz, Rafal, and Bengio, Samy. Generating sentences from a continuous space. In Proceedings of The 20th SIGNLL Conference on Computational Natural Language Learning, pages 10-21, Berlin, Germany, August 2016. Association for Computational Linguistics. doi: 10.18653/v1/K16-1002. URL https://www.aclweb.org/anthology/K16-1002. [3]Guu, Kelvin, Hashimoto, Tatsunori B., Oren, Yonatan, and Liang, Percy. Generating sentences by editing prototypes. Transactions of the Association for Computational Linguistics, 6:437-450, 2018. doi: 10.1162/tacl_a_00030. URL https://www.aclweb. org/anthology/Q18-1031. [4]Huang, Shaohan, Wu, Yuehua, Wei, Furu, and Zhou, M. Text morphing. ArXiv, abs/1810.00341, 2018. [5]Kingma, Diederik P. and Welling, Max. Auto-encoding variational bayes. In Bengio, Yoshua and LeCun, Yann, editors, 2nd International Conference on Learning Representations, ICLR 2014, Banff, AB, Canada, April 1416, 2014, Conference Track Proceedings, 2014. [6]Omelianchuk, Kostiantyn, Atrasevych, Vitaliy, Chernodub, Artem N., and Skurzhanskyi, Oleksandr. GECToR - Grammatical Error Correction: Tag, Not Rewrite. In Burstein, Jill, Kochmar, Ekaterina, Leacock, Claudia, Madnani, Nitin, Pilán, Ildikó, Yannakoudakis, Helen, and Zesch, Torsten, editors, Proceedings of the Fifteenth Workshop on Innovative Use of NLP for Building Educational Applications, BEA@ACL 2020, Online, July 10, 2020, pages 163-170. Association for Computational Linguistics, 2020. URL https://www. aclweb. org/anthology/2020. bea-1.16.pdf. [7]Radford, Alec, Wu, Jeff, Child, Rewon, Luan, David, Amodei, Dario, and Sutskever, Ilya. Language models are unsupervised multitask learners. 2019. [8]Vaswani, Ashish, Shazeer, Noam, Parmar, Niki, Uszkoreit, Jakob, Jones, Llion, Gomez, Aidan N, Kaiser, Ł ukasz, and Polosukhin, Illia. Attention is all you need. In Guyon, I., Luxburg, U. V., Bengio, S., Wallach, H., Fergus, R., Vishwanathan, S., and Garnett, R., editors, Advances in Neural Information Processing Systems, volume 30, pages 5998-6008. Curran Associates, Inc., 2017. URL https: //proceedings.neurips.cc/paper/2017/file/ 3f5ee243547dee91fbd053c1c4a845aa-Paper. pdf. [9]Zhang, Tianyi, Kishore, Varsha, Wu, Felix, Weinberger, Kilian Q., and Artzi, Yoav. BERTScore: Evaluating text generation with BERT. In 8th International Conference on Learning Representations, ICLR 2020, Addis Ababa, Ethiopia, April 26-30, 2020. OpenReview.net, 2020. URL https://openreview. net/ forum?id=SkeHuCVFDr.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B9-1.pdf
# 対話システムの矛盾応答の生成に対する脆弱性の分析 佐藤 志貴 1 赤間怜奈 ${ }^{1,2}$ 大内啓樹 2 鈴木潤 1,2 乾健太郎 1,2 1 東北大学 2 理化学研究所 \{shiki.sato, reina.a,jun.suzuki, inui\}@ecei.tohoku.ac.jp hiroki.ouchi@riken.jp ## 1 はじめに 人間と自然言語を用いて会話をおこなう対話システムは,深層学習技術の発展を背景に研究が急速に発展することとなった. 特に近年のニューラルネットワークを用いたシステムは,文脈の話題に沿った多様な応答を生成できることが知られている $[1,2,3]$. しかし,これらのシステムであっても,文脈との意味的な適切さを考慮した応答の生成が可能であるとは言えない.たとえば,Roller らの構築した大規模システム Blender[1] は,人手評価により従来のシステムを上回る性能を有することが示されたものの,低頻度ながら,対話上にすでに出現している情報の問い直しとなる応答や,過去の発話と矛盾する応答を生成する場合があることが報告されている.こうした意味的に不適切な応答のなかでも,過去の発話と矛盾する応答(矛盾応答と呼ぶ)は,会話相手となるユーザに対話の破綻を感じさせることがわかっており [4], 先行研究でも分析や改良が取り組まれている重要な問題の一つである $[5,6,7,8]$. このような矛盾応答が生成される背景として, 本研究では,システムが応答生成時に対話文脈との一貫性に関して感度の低い生成確率を算出する,すなわち,算出される生成確率が矛盾の有無に対し鈍感であることが原因の一つとなっている可能性を考える. 実際に,矛盾の観点から,Blenderが一つの対話文脈に対し探索幅 100 のビーム探索法で生成した応答を観察すると,図 1 のように,矛盾応答と矛盾を含まない応答(無矛盾応答と呼ぶ)が探索でのスコア上位 100 個の応答のなかに混在していることがわかる.これは,システムが矛盾応答に対して低い生成確率を付与できていないために,探索時に矛盾応答が候補に残ってしまうためと考えられる. 本論文では,近年のシステムが実際にユーザとの間で起こりうる会話のなかでも矛盾応答を生成することを示し (2 節),そのうえで,これらシステムが 図 1 Blender[1] の探索幅 100 のビーム探索による応答生成結果. システムに無矛盾応答が"No."となる対話文脈を与え,探索での上位 100 個の応答を取り出したうえで,各応答を"Yes"から始まる応答と"No"から始まる応答に分類した結果,矛盾応答と無矛盾応答の混在が確認された. 対話文脈との一貫性に対して感度の低い生成確率付与をおこなうことが矛盾応答の生成の原因となりうる可能性があることを実証する(3 節)。 ## 2 システムの矛盾に対する脆弱性 Roller らは,Blender が人間との会話では矛盾応答を高頻度で生成しない理由について,システムの学習データにあたる人間同士の会話中に矛盾が含まれにくいことから,典型的な対話の流れのなかで学習データをなぞった応答をするときには矛盾が表出しにくいためであると考察している [1]. こうした考察をふまえると,近年のシステムであっても,学習データ中に含まれる対話の流れから外れた文脈のもとでは,矛盾応答を生成するという脆弱性を抱えている可能性がある.本節の実験では,システムのこうした脆弱性について検証するために,矛盾応答が生成されうる状況下においてはシステムが矛盾応答を生成することを確認した。 ## 2.1 実験方法 矛盾応答が生成されうる対話文脈を与えたときのシステム応答を人手評価することで,システムが矛 表 1 自然言語推論データを用いた対話文脈作成の例 & $\longrightarrow$ & & \\ 盾応答を生成する頻度を調べる. 矛盾応答が生成されうる対話文脈については,Saleh ら [7] の方法を拡張し,自然言語推論タスクのデータセットを擬似的な対話の形式に変換することで用意する.具体的には,自然言語推論タスクの前提文をシステム側の一つ目の発話(対話履歴),それに対する仮説文を対話履歴に対するユーザ側の応答(ユーザ発話)として,システムにユーザ発話への応答を生成させるような対話文脈を作成する。このとき,自然言語推論データの仮説文を一般疑問文に変換することで,仮説文が含意ラベルを持つ場合であれば否定を返すことで矛盾する疑問文,矛盾ラベルを持つ場合であれば肯定を返すことで矛盾する疑問文となる.表 1 に,自然言語推論データの例と,そこから仮説文を変換することで作成した対話文脈の例を示す.このように,自然言語推論のデータを変換することで,会話として不自然ではないかたちでシステムが矛盾応答を生成しうる対話文脈が作成できる。これを入力として生成される応答を評価することで,システムの矛盾に関する脆弱性を検証する。 ## 2.2 実験設定 検証するシステムとその設定本実験では,近年構築された高性能な対話システムのうち,モデルパラメータが公開されている Zhang ら [2] の DialoGPT と Blenderの 2 種類について検証をおこなった. 各システムについてはパラメータ数が異なる複数のモデルパラメータが公開されているため,合計 5 つのシステムについて検証した1) . 応答生成時は,すべてのシステムについて,ビーム幅を 10 とするビー ム探索をおこなった。 検証時の対話文脈対話文脈の作成元とする自然言語推論タスクデータとして,幅広いドメインを取り扱う大規模かつ高品質なデータとして知られている Multi-Genre Natural Language Inference コーパス 1) DialoGPT はパラメータ数 $345 \mathrm{M}, 762 \mathrm{M}$ の 2 種類, Blender については 400M,1B,3B の 3 種類を検証した.表 2150 個の対話文脈に対し矛盾応答を生成した頻度. $\checkmark$ は適切な応答, $x$ は誤りを含む応答を表す. [9]を用いた.このなかでも,オープンドメインでの会話データを扱っている"TELEPHONE"ドメインのデータを用いた.仮説文が含意ラベル,矛盾ラベルを持つ自然言語推論データからそれぞれ 75 個ずつ,合計 150 個の対話文脈を作成した。 ## 2.3 実験結果 表 2 に,各システムが与えられた 150 個の対話文脈に対して適切な応答と,誤りを含む応答,そのうち矛盾が誤りの原因である応答を生成した頻度をそれぞれ示す.同表から,検証した全システムが高頻度で矛盾を含む応答を生成したことがわかる。このことから,人間との典型的な会話では矛盾応答を生成することが少ない近年の高性能なシステムであっても,対話文脈によっては矛盾応答を生成するという脆弱性を抱えていることが確認された。 ## 3 応答生成確率の矛盾に対する感度 2 節の結果から,近年のシステムであっても文脈によって矛盾応答を生成することがわかった。本節の実験では,システムが文脈との一貫性に関し感度の低い生成確率を算出することが,矛盾応答を生成する原因となりうる可能性があることを確認した。 ## 3.1 実験方法 図 1 では,システムが矛盾応答と無矛盾応答に対し同程度の生成確率を割り当てることで,応答探索のスコア上位にこれらの応答が混在してしまう例を示した. このような場合,ビーム探索法における探 索幅の変更など,探索の方法の変化だけで,システムの 1-best が矛盾応答と無矛盾応答のどちらとなるか(極性と呼ぶ)が反転する可能性がある。逆に言えば,探索方法の変化による極性の反転の発生は, システムが対話文脈との一貫性に関して感度の低い生成確率を算出することを意味する.そこで本実験では,ビーム探索法の探索幅の変化に伴うシステム応答の極性の反転を観察することにより,現状のシステムが文脈との一貫性に関する感度の低い生成確率を算出することを示す。 ## 3.2 実験設定 検証するシステムとその設定本実験では,2 節の実験で用いた DialoGPT,Blender の合計 5 つのシステムについて,ビーム探索法の探索幅を, $\{1,5,10,15,20,25,30,35,40,45,50\}$ の 11 種類に変化させたときの応答の変化を分析した. 検証時の対話文脈分析の容易さの観点から,システムに与える対話文脈は,肯定と否定のどちらか一方が矛盾応答,他方が無矛盾応答となる 2 節と同様のものを用いた. これによって,応答が肯定と否定どちらに当たるかが分かればその極性が判定可能となる. 仮説文が含意ラベル,矛盾ラベルを持つ自然言語推論データからそれぞれ 2,000 個ずつ, 合計 4,000 個の対話文脈を作成した。 生成応答の肯定・否定の判定大量のシステム応答について肯定・否定を人手で判定するにはコストがかかるため, 自動での判定をおこなった. 判定の方法や精度については付録 A で詳述する。 極性反転の判定本実験では,システムは一つの対話文脈に対し, ビーム幅を変えながら複数の応答を生成する. 対話文脈 $c$ に対しビーム幅 $i, j$ 間で極性反転が起きたときに 1 となる $\operatorname{inv}(c, i, j)$ を以下のように定義する. $ \operatorname{inv}(c, i, j)= \begin{cases}1, & \text { if } \operatorname{pn}(c, i) \cdot \operatorname{pn}(c, j)=1 \\ 0, & \text { otherwise }\end{cases} $ ここで, $\mathrm{pn}(c, i)$ は対話文脈 $c$ に対するビーム幅 $i$ の 1-best 応答が肯定であれば 1 , 否定であれば -1 , 不明であれば 0 をとる. また,対話文脈集合 $\mathscr{~}$ 対し, ビーム幅 $i, j(i<j)$ 間で極性反転が生じる頻度は次式のようになる。 $ N_{\text {inv }}(i, j)=\sum_{c \in \mathscr{C}} \operatorname{inv}(c, i, j) $ 表 3 ビーム幅変化で極性反転が生じた対話文脈の数 図 2 各システムの極性反転のタイミングの分布 ## 3.3 実験結果 極性反転の頻度ビーム幅の変化により極性反転が生じる頻度を確認する。本実験では,異なるビーム幅のもと各対話文脈 $c$ に対し 11 個の応答を各システムが生成する. 11 個のビーム幅のなかに $\operatorname{inv}(c, i, j)=1$ を満たす $i, j$ が存在する対話文脈を数え,極性反転が生じた対話文脈の数を求めた.結果を表 3 に示す. 同表より,各システムとも 1 割を超える対話文脈で極性の反転が起きたことがわかる.極性反転により対話文脈との一貫性に関わるかたちで応答内容が正反対となることや,肯定・否定の自動判定ができない応答は $\mathrm{pn}(c, i)=0$ となることを考慮すると,この割合は高いと考えられる。このことから,検証したシステムは,生成確率の算出における対話文脈との一貫性に関する感度が低いために,極性の反転を頻繁に発生させることがわかった。 極性反転が生じるタイミング表 3 で示した極性の反転がどのビーム幅の変化のタイミングで生じたのかを確認するために, $N_{\text {inv }}(i, j)$ をグラフ化したものを図 2 に示す. 同図より, 各システムともビーム幅が小さいときに極性反転が頻繁に生じている一方で,ビーム幅が 10 以上の値からさらに大きくなる際にも極性の反転が起きていることがわかる.もとのビーム幅が十分大きい場合,更にビーム幅を大きくしたときに探索にもたらす影響は小さいことが考えられる,そのため,こうした例では,矛盾応答と無矛盾応答の生成確率が特に近い,すなわち対話文 図 3 ビーム幅と対話文脈に対し正しい極性の応答を生成できた割合の関係 脈との一貫性に関する感度が特に低く,わずかな探索の変化で極性が反転すると考えられる。 ビーム幅と極性の関係極性反転が生じることで,実際に出力されるシステム応答がどのような影響を受けるかを分析する。図 3-a および図 3-bに, それぞれ含意,矛盾ラベルを有する自然言語推論データから作成した対話文脈 2,000 個ずつに対し,無矛盾応答を生成した割合 ${ }^{2}$ とビーム幅の関係を示す. また,図 3-c に実験で用いた全ての対話文脈 4,000 個に対し,無矛盾応答を生成した割合を示す.図 3-a および図 3-bでは,各システムともビーム幅の変化に伴い無矛盾応答を生成する割合が変化している.このことから,システムが矛盾応答を生成する対話文脈の傾向がビーム幅の影響を受けていることがわかる. この結果は, 特定のビーム幅のもとで生成された応答を分析するだけでは, システムの矛盾応答の生成傾向を正確に分析できない可能性があることを示唆すると考えられる。また, 図 3-a と図 3-b の関係に注目したとき, 図 3-a で無矛盾応答, すなわち肯定にあたる応答を生成する割合が高い場合において図 3-bでも矛盾応答,すなわち肯定にあたる応答を生成する割合が高くなっており,その逆も成立している.このことから,システムが肯定,否定を生成する割合自体もビーム幅により変化していることがわかる.これによって,ビーム幅の変化に伴って肯定,否定が生成される割合が図 3-a と図 3-b の場合で同様に変化し,一方で無矛盾応答の割合が,他方で矛盾応答の割合が高くなる. その結果,肯定,否定を応答として返すべき対話文脈が同数ずつ含まれる図 3-c では,無矛盾応答を生成する割合がビーム幅の変化に対し頑健であるように見えてしまう.この結果は,実験に用いる対話文脈集合 2)図 3-a においては肯定応答を生成した割合を, 図 3-bにおいては否定応答を生成した割合を示す.ラベルが付与できない応答は割合計算時の分母にカウントしない. によってはシステム応答の矛盾に関する傾向を正確に分析できない可能性があることを示唆していると考えられる。 ## 4 まとめ 本論文では,対話システムにおける重要な課題の一つである矛盾応答に着目し分析をおこなった。我々の分析で得られた知見を改めて以下に示す. ・人間との対話による評価で矛盾応答が確認されない対話システムであっても対話文脈によっては矛盾応答を生成する脆弱性を抱えている. ・現状のシステムは同じ文脈に対しても探索のゆれで応答の極性が変化するなど,対話文脈との一貫性に対し感度の低い生成確率を算出しており,矛盾応答の原因となりうる可能性がある. また 3 節の実験では,システムの矛盾応答について分析するうえで注意すべき以下の示唆が得られた。 ・システムが矛盾応答を生成する対話文脈の傾向が応答の探索方法によって変化しうるため,特定の探索方法のもと生成された応答を分析するだけではシステムの矛盾応答の生成に関する振る舞いを正確に分析できない可能性がある. ・肯定,否定の割合などシステム応答自体の傾向も探索方法の影響を受けるため,入力に用いる対話文脈の傾向によっては正確なシステム分析ができない可能性がある. 本研究では対話文脈の発話数やユーザ発話の発話行為を限定したうえでの分析をおこなったが,将来的にはより多様な対話文脈のもとで生成される応答や,ユーザとの会話のなかで生成される応答に含まれる矛盾についても分析することを検討している。 謝辞本研究は, JSPS 科研費 JP19H04425, JP19J21913 の助成を受けたものである. ## 参考文献 [1] Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Kurt Shuster, Eric M. Smith, Y-Lan Boureau, and Jason Weston. Recipes for building an open-domain chatbot. arXiv:2004.13637, 2020. [2] Yizhe Zhang, Siqi Sun, Michel Galley, Yen-Chun Chen, Chris Brockett, Xiang Gao, Jianfeng Gao, Jingjing Liu, and Bill Dolan. DIALOGPT : Large-scale generative pretraining for conversational response generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, $\mathrm{pp}$. 270-278, Online, July 2020. Association for Computational Linguistics. [3] Daniel Adiwardana, Minh-Thang Luong, David R. So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu, and Quoc V. Le. Towards a human-like open-domain chatbot. arXiv:2001.09977, 2020 [4] 東中竜一郎, 船越孝太郎. Project next nlp 対話タスク:雑談対話データの収集と対話破綻アノテーションおよびその類型化. 言語・音声理解と対話処理研究会,第 72 巻, pp. 45-50, 2014. [5] Sean Welleck, Jason Weston, Arthur Szlam, and Kyunghyun Cho. Dialogue natural language inference. In Proceedings of the 57th Annual Meeting of the Association for Coтputational Linguistics, pp. 3731-3741, Florence, Italy, July 2019. Association for Computational Linguistics. [6] Margaret Li, Stephen Roller, Ilia Kulikov, Sean Welleck, Y-Lan Boureau, Kyunghyun Cho, and Jason Weston. Don't say that! making inconsistent dialogue unlikely with unlikelihood training. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 47154728, Online, July 2020. Association for Computational Linguistics. [7] Abdelrhman Saleh, Tovly Deutsch, Stephen Casper, Yonatan Belinkov, and Stuart Shieber. Probing neural dialog models for conversational understanding. In Proceedings of the 2nd Workshop on Natural Language Processing for Conversational AI, pp. 132-143, Online, July 2020. Association for Computational Linguistics. [8] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2204-2213, Melbourne, Australia, July 2018. Association for Computational Linguistics. [9] Adina Williams, Nikita Nangia, and Samuel Bowman. A broad-coverage challenge corpus for sentence understanding through inference. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1112-1122, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. ## A 応答極性の自動判定方法 3 節の実験において,大量のシステム応答に対し肯定・否定かどうかを人手で判定するにはコストがかかるため, 自動での判定をおこなった. 図 1 の例ではモデルの応答が"Yes", "No"で始まる応答はそれぞれ肯定,否定として判定したが,これらの単語から始まらない応答を多く生成するシステムも存在したため,本実験では肯定文,否定文の冒頭に出現する文頭フレーズを収集したうえで,これらのフレーズから始まる応答をそれぞれ肯定, 否定として判定した. 文頭フレーズは, 本実験において生成される応答から収集した.具体的には,生成される全 220,000 個の応答の文頭からフレーズ3)を取り出していき,100 回以上登場するフレーズについては,「肯定」,「否定」,「どちらともとれない」のいずれかに分類した. "Yes"または"No"で発話が始まるかで応答を分類したとき,ラベルを付与できたのは生成される全応答のうち $28.3 \%$ にとどまった一方,前述の方法により $39.1 \%$ の応答にラベルを付与することができた. また,2 節の実験で人手評価をした応答に対して同様に自動ラベリングをおこなったところ,自動ラベリングに成功した応答のうち $92.7 \%$ は人手ラベルと判断が一致し,"Yes","No"で発話が始まるかどうかでラベル付与したときの $92.4 \%$ と同程度の精度となった. 3)各発話について,「,」または「.」を区切り文字として分割したときの一つ目の単語列を文頭フレーズとした.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B9-2.pdf
# 対話システムの先読み能力を分析可能なタスクの検討 岸波洋介 ${ }^{1}$ 赤間怜奈 ${ }^{1,2}$ 佐藤志貴 1 鈴木潤 1,2 乾健太郎 1,2 1 東北大学 2 理化学研究所 yosuke.kishinami.q8@dc.tohoku.ac.jp, \{reina.a, shiki.sato, jun.suzuki, inui\}@ecei.tohoku.ac.jp ## 1 はじめに 深層ニューラルネットワークを用いた自然言語文生成技術の進歩と膨大な対話データの存在に支えられ,ニューラル対話応答生成技術は着実に発展を遂げてきた。近年のニューラル対話応答生成では,対話が持つ時系列データとしての特質を利用し,応答の直前の発話に加えて過去の文脈も考慮することで,生成応答の関連性や一貫性を向上させるアプローチが主流となっている $[1,2,3,4]$. ここで,人間同士の対話を考えてみると,人間のある時点での発話は,当然ながら過去の文脈に大きく依存するが,それだけではなく,この先で起こりうる或いは自らが望む未来の展開に動機付けられる場合もしばしばある.未来の展開を考慮することが重要な対話の例として,交涉や説得などが挙げられる。他にも,たとえば雑談における意図的な話題の転換などもこれに含まれると考えられる.未来の展開を先読みし現在の発話に活かすことは,能動的に対話を進行させるための重要な要素のひとつであり,これは円滑なコミュニケーションの実現に繋がる. ニューラル対話応答生成の研究領域でも, 未来の展開を考慮した応答生成に関する議論が始まりつつあり $[5,6]$ ,この観点は対話応答生成技術のさらなる発展に繋がると考えられる。 本研究では,対話応答生成システムが備える未来の展開を先読みする能力および能動的に対話を進行する能力を測定するためのタスクを提案する.提案タスクは,パーティーゲームのひとつ「NGワードゲーム」に類似し,未来の展開の正確な予測とそれに基づく効果的な対話のプランニングがタスク達成の鍵となる。本タスクへの取り組みにより,システムの先読み能力および対話進行能力が醭成されることを狙う.実験では,人間同士でタスクを実施した場合の結果の分析を通して,提案タスクが人間には達成できる難易度であること,および,システム側 図 1 提案する「先読み雑談タスク」の概要. の先読み能力が分析可能であることを確かめる. ## 2 関連研究 説得・交渉対話システム対話における先読みが有効な場面として,交涉や説得が挙げられる。 Lewis らは交渉対話タスクを設計し,人間同士の対話データを収集することにより,交涉対話システムを End-to-End で学習可能であることを示した [7]. また,Yoshino らは感情表現を含む説得対話コーパスを作成し,感情を表現しながら説得をおこなうシステムを構築した [8]. 説得や交涉を実現する対話システムの研究は多数存在するが,先読み能力を利用することについての議論はなされていない。 未来の展開を考慮した対話システム Jiang らはタスク指向対話システムにおいて,未来に続く発話を予測する Looking-Ahead モジュールを構築し,それを用いて直後の応答を生成することで効率的な夕スクの遂行を実現した [5]. また,Kulicov らは,生成モデルで広く用いられる Beam Searchを発話レべルで考えることで,対話として適切な発話系列を選ぶ Multi-Turn Beam Search という手法を提案した [6]. ## 3 提案: 先読み雑談タスク 対話システムの先読み能力を分析可能にすることを目的として,我々は「先読み雑談タスク」を提案 する(図 1)。提案タスクは,システムと人間の 1 対 1 の対話を通じて,システムの先読み能力と能動的な対話進行能力を測定する枠組みとなっている. タスクに参加するシステムと人間は,それぞれ異なるゴール感のもとで,決められたターン数 $N$ の対話をおこなう.ここで, $i$ ターン目のシステムの発話を $U_{i}^{\text {sys }}$, 人間の発話を $U_{i}^{\text {hum }}$ とすると, 1 タスク内でおこなわれる対話は $U_{1}^{\text {sys }}, U_{1}^{\text {hum }}, \ldots, U_{N}^{\text {sys }}, U_{N}^{\text {hum }}$ の発話系列で構成される。 ・システム側のゴール: システムには,予め 1 ターン目の発話 $U_{1}^{\mathrm{sys}}$ とターゲット単語 $w$ のぺア $\left(U_{1}^{\mathrm{sys}}, w\right)$ が与えられる. システムは $U_{1}^{\mathrm{sys}}$ から対話を開始し, $N$ ターン以内に人間からター ゲット単語 $w$ を含む発話を引き出すことを目指 ステム側のタスク達成とする。 - 人間側のゴール: 人間には,システムと $N$ ター ンの対話を楽しむようにとだけ伝える。このとき,人間はシステム側のゴールを知らない. システムがタスクを達成するためには, 自然な対話のなかで人間にターゲット単語を含む発話をさせるよう望ましい対話の展開を計画し,その展開になるよう対話を進めることが重要である。そのため,本タスクを通じてシステムの挙動を分析することにより,システムの先読み能力を調査することができる.また,本タスクの特長として,タスクの達成判定が「ターゲット単語を含む発話をしたかどうか」 という明確な基準に基づくため, 戦略の考察, 達成判定が容易という利点がある. この特長により,たとえば,もっとも単純には同条件下での「タスク達成率」という定量的な尺度のもとで, 複数システムの比較評価をおこなうことも可能となる. ## 4 実験 提案タスクがシステム側の先読み能力の分析に有効な設計となっていることを,人間同士による実際のタスク実施結果を分析することにより確かめる. ## 4.1 準備: データ作成 本研究では, 日常的な雑談対話における先読み能力の分析を想定する. タスクが適切な難易度となるよう,予めシステムに与える 1 ターン目の発話 $U_{1}^{\text {sys }}$ とターゲット単語 $w$ のペアを作成する. なお, 我々が目指す適切な難易度とは, 人間は達成可能だが,現在のシステムは苦戦する程度を想定している。 1 ターン目の発話日常的な雑談対話における自然な話題として, 本研究では日本語 Wikipedia のカテゴリを参考に「食べ物」「スポーツ」の2つを選定した.これらの話題について,それぞれ 1 種類ずつ 1 ターン目の発話を用意した. 既存の英語雑談対話コーパス DailyDialog [9] の1 ターン目の発話を参考に,話題が食べ物の場合は「お腹が空きましたね。」 を,話題がスポーツの場合は「週末は何をして過ごしますか?」を,本実験における1ターン目の発話として用いた. ターゲット単語本実験では,(1) 品詞:\{名詞, 形容詞 $\} \times(2)$ 出現頻度:\{大, 小 $\}$ の 2 軸 4 パターンでター ゲット単語を用意し,タスクの難易度に与える影響を調査する。ターゲット単語は,日本語ツイート約 2.8 億発話からなる対話データ上で出現頻度が 10,000 以上を満たす単語のなかから選定した. 名詞については,少なくとも適切な対話戦略のもでは夕スクが達成可能であることを担保するために,日本語 WordNet [10] を利用して食べ物とスポーツにそれぞれ関連する単語を選択した. ${ }^{1)}$ 形容詞については,単語感情極性対応表 [11]を利用し,ポジティブまたはネガティブの極性を持つ単語をそれぞれ選択した. ${ }^{2}$ それぞれの品詞について,上記に該当する単語のうち出現頻度が最大あるいは最小の 2 つの単語を, 最終的なターゲット単語として獲得した。 ターン数ターン数 $N=5$ とした. ターン数はタスクの難易度に影響することが予想されるため,実験結果の分析により適切なターン数を考察する。 以上の手順により,本実験では表 1 に示す合計 12 設定を「先読み雑談タスク」として用意した. ## 4.2 実験: 人間-人間の先読み雑談タスク 実施方法学生 2 名がペアとなり,システム側と人間側を交互に担当した.1 ペアあたり設定の異なる 12 タスクを実施し,最終的に 10 ペアから合計 120 対話を収集した. また,各対話が終了するごとに参加者はアンケートに回答した.システム側は 「タスクを楽しむことができたか」「タスクは簡単だったか」,人間側は「対話を楽しむことができたか」「システム側の発言は自然だったか」について, それぞれ 5 を最高点とした 5 段階で回答した. シス  (a) 達成ターン数(全体) (a-1) 達成ターン数 (名詞) (a-2) 達成ターン数 (形容詞) (b) 対話の自然さ 図 2 タスクの難易度に関する調査結果. (a) はシステムがタスクの達成に要した対話ターン数の分布. (a-1,2) はターゲット単語の品詞別の同分布. (b) は「システム側の発言は自然だったか」に対する人間側の回答. テム側には,成功・失敗した理由等を記入する自由記述闌も用意した. 結果各設定における達成率を,表 1 に示す。なお,本実験では,達成判定に際して,ターゲット単語の本質的でない表記の摇れ(漢字か平仮名か, 形容詞の語尾の活用など)は許容した。 分析 1: ターゲット単語の品詞と難易度表 1 から,ターゲット単語が名詞の設定では,達成率が 80\%(32/40)であった. つまり,人間にとっては達成可能な設定であるといえる. 一方,ターゲット単語が形容詞の設定では,達成率が $32.5 \% ( 26 / 80 )$ であった. 特定の形容詞を含む発話を引き出すことは人間にも難易度が高いタスクであった. タスクを達成できなかった参加者からは,「あと数ターンあれば達成できた」という意見もあった。 分析 2: ターゲット単語の出現頻度と難易度表 1 から,ターゲット単語が名詞の場合,出現頻度による達成率の変化はほとんど見られなかった(出現頻度大:15/20, 出現頻度小:17/20)ことから, 出現頻度が難易度に与える影響は少ないと考えられる。ただし,本実験では対話データ上の出現頻度 10,000 以上の単語からターゲット単語を選定したため,閾値をさらに下げることによって難易度が上がる可能性は残る。一方, ターゲット単語が形容詞の場合, 出現頻度小で達成率が 20\%(8/40)であった. 形容詞かつ出現頻度の小さい単語を含む発話を引き出すことは人間にとっても特に難しい設定であるといえる. この設定でタスクをおこなう場合は,難易度調整のためのさらなる工夫が必要となる. 分析 3: ターン数システム側がタスクの達成に要した対話ターン数の分布を図 2 (a) に示す. 全体としては,タスクを達成した対話のうち $80 \%$ 以上が 2〜4 ターンで達成していることがわかる. ター ゲット単語の品詞別に見ても,概ね傾向に大きな差はない(図 $2(\mathrm{a}-1),(\mathrm{a}-2)$ ). 本実験における $N=5$ という設定は, 妥当な難易度であったことが示唆さ表 1 人間-人間による「先読み雑談タスク」の実施結果. +/-は単語の極性(ポジティブルネガティブ)を表す. } & \multirow{2}{*}{ 名詞 } & 頻度大「パン」 & $8 / 10$ \\ れる。 分析 4: 自然に対話しながら達成できる設計 「システム側の発言は自然だったか」に関する人間側の評価結果を図 2 (b) に示す. 全体の $80 \%$ 以上が自然な対話と評価された(評価点 4 または 5 を獲得). タスク内でおこなわれた対話を定性的に観察したところ, $U_{1}^{\mathrm{sys}}$ の直後に人間が偶然ターゲット単語を発話してしまった例が一つ存在したが,「〜と言いなさい」など強制的にターゲット単語を発話させることで不正にタスクを達成する例はなく,自然な対話の枠組み内での試行錯誤がおこなわれていた。 分析 5: タスク達成のための戦略収集した対話を分析した結果,タスクを達成するための特徴的な戦略が存在した.これは,システムの先読み能力の実現に向けた重要な知見となる。ひとつは,表 2 のように,システム側が自らターゲット単語を発話することでターゲット単語が話題となるような対話に誘導し,人間側から相槌的にターゲット単語を引き出すという戦略である。この例では $U_{4}^{\mathrm{sys}}$ で「牛肉」 を含む発話をおこなうことで,ターゲット単語である「牛肉」を引き出している.Den らが分類した相槌の形態 [12] のひとつに「繰り返し」というものが 存在するが,これを引き出すような戦略に近いと考えられる。 もうひとつは,表 3 のように,システム側がター ゲット単語に関連するような発話をすることで人間側からターゲット単語を引き出すという戦略である.この例では $U_{2}^{\text {sys }}$ で「太る」という単語を発話することで,ターゲット単語である「運動」を引き出している. いずれの戦略でも,過去の文脈だけでなく,未来に人間側がどのような発話をするかまで考慮することが必須で,さらにシステム側にとって望ましい展開に対話を進める技術も必要となる。 以上より,本タスクは,システム側が望ましい対話の展開を計画し,その展開になるように対話を進めることに成功すれば達成可能な設計になっていることが示唆される。 分析 6: タスク失敗例失敗した対話例を表 4 に 「パン」ではなく,「食べる量」に着目されてしまい,ターゲット単語を引き出すことに失敗した.これは,人間側が,システム側が望まない箇所に着目し,対話がシステム側にとって望ましい展開から逸れてしまったため達成できなかったと考えられる。 この例のように一度システム側が望ましい対話の展開から逸れてしまうと,ターン数の制約もあり,タスクの達成が難しくなる。 これらの分析結果は対話システムの先読み能力を実現する,つまり対話システムで提案タスクを達成するために重要な知見であると考えられるが,実際にどのようにシステムに取り入れるかについては今後の課題としたい. ## 5 おわりに 本研究では,対話システムの先読み能力および能動的に対話を進行する能力を測定するための「先読み雑談タスク」を提案した.実際に人間同士でタスクを実施した結果,提案タスクが人間にとって妥当な難易度であることを確認し,システム側の先読み能力の分析に有効であることが示唆された. 今後の取り組みとして, 未来の展開を考慮できるような対話システムについて考え,実際に提案タスクをシステムと人間とで実施することを通して,先読み能力の実現を目指すことを考えている。表 2 達成した対話例 1 (ターゲット単語「牛肉」) 表 3 達成した対話例 2(ターゲット単語「運動」) $U_{1}^{\mathrm{sys}}:$ 週末は何をして過ごしますか? $U_{1}^{\text {hum }}:$ 家で過ごしたり,外で買い物をしたりします。 $U_{2}^{\text {sys }}$ : あまり家で過ごしていると太ってしまいますね。 $U_{2}^{\text {hum }}:$ そうですね。運動しないといけないです・・ $U_{3}^{\mathrm{sys}}:$ 運動するとしたらどんなことをしますか? $U_{3}^{\text {hum }}:$ ランニングとかですかね。 $U_{4}^{\mathrm{sys}}$ : 良いですね。どのくらいの距離を走るのですか? $U_{4}^{\text {hum }}$ : あまり長いと飽きちゃうので、 4 キロくらい走ります。 $U_{5}^{\text {sys }}$ : なるほど、継続できる様に頑張ってください。 $U_{5}^{\text {hum }}$ :ありがとうございます! 表 4 失敗した対話例(ターゲット単語「パン」) $U_{1}^{\text {sys }}:$ お腹が空きましたね。 $U_{1}^{\mathrm{hum}}:$ 実は先ほど夕飯を食べました。 $U_{2}^{\mathrm{sys}}$ : 私も先ほどパンを食べたのですが、今かなりお腹が空いています。 $U_{3}^{\text {sys }}:$ はい、かなり多くて、先ほどは食パンを 3 切れも食べてしまいました。 $U_{3}^{\text {hum }}$ :それは多いですね。この後は何を食べるか決まっていますか? $U_{4}^{\mathrm{sys}}$ : 近くにおいしいパン屋さんがあるので、そこでパンを買ってこようかと思っています。この後、一緒にパンを食べませんか。 $U_{5}^{\text {sys }}$ : 何か食べたいパンはありますか? $U_{5}^{\text {hum }}:$ 僕はクロワッサンが食べたいです。 ## 謝辞 本研究はの一部は,JSPS 科研費 JP19H04162 の助成を受けたものです.また,本研究で提案したタスクの実施にご協力いただいた東北大学乾研究室・松林研究室の皆様に感謝いたします。 ## 参考文献 [1] Alessandro Sordoni, Michel Galley, Michael Auli, Chris Brockett, Yangfeng Ji, Margaret Mitchell, Jian Yun Nie, Jianfeng Gao, and Bill Dolan. A neural network approach to context-sensitive generation of conversational responses. In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT), pp. 196-205, 2015. [2] Iulian V. Serban, Alessandro Sordoni, Yoshua Bengio, Aaron Courville, and Joelle Pineau. Building end-To-end dialogue systems using generative hierarchical neural network models. In Proceedings of the 30st AAAI Conference on Artificial Intelligence (AAAI), pp. 3776-3784, 2016. [3] Daniel Adiwardana, Minh Thang Luong, David R. So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu, and Quoc V. Le. Towards a human-like open-domain chatbot. In arXiv preprint arXiv:2001.09977, 2020. [4] Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Kurt Shuster, Eric M. Smith, Y. Lan Boureau, and Jason Weston. Recipes for building an open-domain chatbot. In aiXiv preprint arXiv:2004.13637, 2020. [5] Zhuoxuan Jiang, Xian Ling Mao, Ziming Huang, Jie Ma, and Shaochun Li. Towards end-to-end learning for efficient dialogue agent by modeling looking-ahead ability. In Proceedings of the 20th Annual SIGdial Meeting on Discourse and Dialogue (SIGDIAL), pp. 133-142, 2019. [6] Ilia Kulikov, Jason Lee, and Kyunghyun Cho. Multiturn beam search for neural dialogue modeling. In arXiv preprint arXiv:1906.00141, 2019. [7] Mike Lewis, Denis Yarats, Yann N. Dauphin, Devi Parikh, and Dhruv Batra. Deal or no deal? End-to-end learning for negotiation dialogues. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2443-2453, 2017. [8] Koichiro Yoshino, Yoko Ishikawa, Masahiro Mizukami, Yu Suzuki, Sakti Sakriani, and Satoshi Nakamura. Dialogue scenario collection of persuasive dialogue with emotional expressions via crowdsourcing. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC), 2018. [9] Yanran Li, Hui Su, Xiaoyu Shen, Wenjie Li, Ziqiang Cao, and Shuzi Niu. DailyDialog: A manually labelled multiturn dialogue dataset. In Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 1: Long Papers) (IJCNLP), pp. 986-995, 2017. [10] Francis Bond, Hitoshi Isahara, Sanae Fujita, Kiyotaka Uchimoto, Takayuki Kuribayashi, and Kyoko Kanzaki. Enhancing the Japanese WordNet. In Proceedings of the 7th Workshop on Asian Language Resources (in conjunction with ACL-IJCNLP), pp. 1-8, 2009. [11] 高村大也, 乾孝司, 奥村学. スピンモデルによる単語の感情極性抽出. 情報処理学会論文誌, Vol. 47, No. 02, pp. 627-637, 2006. [12] Yasuharu Den, Nao Yoshida, Katsuya Takanashi, and Hanae Koiso. Annotation of japanese response tokens and preliminary analysis on their distribution in three-party conversations. In Proceedings of the 2011 International Conference on Speech Database and Assessments (Oriental COCOSDA), pp. 168-173, 2011. ## A アンケート集計結果の詳細 「タスクを楽しむことができたか」「タスクは簡単だったか」「対話を楽しむことができたか」のそれぞれに関するの評価結果を図 3 , 図 4 , 図 5 に示す. 図3「タスクを楽しむことができたか」に対するシステム側の回答 図4「タスクは簡単だったか」に対するシステム側の回答 図 5 「対話を楽しむことができたか」に対する人間側の回答 ## B タスク所要時間と満足度 1 回のタスクの所要時間と「対話を楽しむことができたか」の評価結果との関係を図 6 に示す. 図 6 から,対話にかかる時間が短いほど満足度が高いことがわかる. 図 6 タスク所要時間と人間側の満足度の関係 ## C その他の対話例 ターゲット単語が形容詞である場合の対話例を表 5 に示す.この例では, 視力に関する話題で対話を進行することで,目が「悪い」を引き出している. 表 5 達成した対話例 3(ターゲット単語「悪い」) $U_{1}^{\text {hum }}$ : 特に何かしている記憶が無いほど、ゆっくり過ごし ています。強いて言えば勉強とスマホのゲームですかね。 $U_{2}^{\text {sys }}$ : 僕と似ていますね。ですが、僕は主にこの二つで目が悪くなったような気がしているので、最近は気をつけています。 $U_{2}^{\text {hum }}$ :そうなんですね。私も気をつけなければいけませんね。 $U_{3}^{\mathrm{sys}}$ : まだ視力がある感じの返答ですね。もしそうなら羡ましい限りです。 $U_{3}^{\text {hum }}$ : 片目は自動車の免許がとれるくらいの視力が残っています。もう片方は一般的な一番上の C が見えるかギリギリなので、これ以上悪化させたくないです。 $U_{4}^{\text {sys }}$ : 大事にした方が良いですよ。目が悪くて良かったと思えることに僕はほとんど心当たりがありません。 ちなみに親御さんは眼鏡かけてますか? $U_{4}^{\text {hum }}$ 父はとても目が悪いのでいつも眼鏡をかけています。母の視力自称 2.0 は娘から自慢したいです。 $U_{5}^{\text {sys }}$ : 視力は遺伝すると思っていたのですが、それにしてもお母さんすごいですね。胸を張って自慢できることだと思います。 $U_{5}^{\text {hum }}$ : 父と母から片方ずつ遺伝したと思うことにしているので幸せです。
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B9-3.pdf
# 小規模データにおける文脈情報復元に基づいた マルチターン対話システム 頼 展蓞 株式会社バンダイナムコ研究所 z-lai@bandainamco-mirai.com ## 1 はじめに シングルターン対話システムが、直前のユーザの発話文だけから適切な応答を生成するシステムであるのに対し、マルチターン対話システムとは、それに加え対話履歴の文脈情報も考慮に入れ適切な応答を生成するシステムである.近年では、シングルターン対話システムにおいて、発話文を基に End-to-End に応答文を生成する Seq2Seq[1] モデルなどが提案されている [2][3]. 大量の人間による発話・応答ペアの学習デー タを用いれば、発話文に対して比較的に高品質な応答文を出力することができる。しかし、シングルターン対話システムがめざましい進歩を遂げている一方、マルチターン対話においてはまだ人間が満足のいくものは少ない.その大きな課題には、日常会話、特に日本語や中国語のようなプロドロップ言語で頻繁に発生する共参照や情報の省略である. Su ら [4] の研究では、 2000 人による中国語のマルチターン対話に対し調査を行ったところ、70\%以上の対話には、共参照や情報の省略が存在していた. 表 1 は、マルチターン対話における 2 つの典型的な例を示している. Context 1 の発話 3 の「あれ」は「昨日の番組」の共参照関係にあり、Context 2 の発話 3 の「なぜ」には「映画が好き」 という情報が省略されている。このように、文脈に隠された共参照や省略された情報を与えない限り、正確な応答文を提示することが難しい。 この問題を解決するため、Su ら [4] は発話文を書き換えることでマルチターン対話をシングルターン対話に単純化することを提案している。発話文の書き換えによって、共参照とされた内容と省略された内容をすべて復元するための情報補完を行う. 表 1 の実施例では、発話 3 ’ は発話 3 を書き換え後の発話文である.対話システムは、文脈である発話 1 と発話 2 を考慮せずに、発話 3' の情報のみで応答文を出力する.このような単純化を行うことにより、対話に必要な情報を \author{ 高橋誠史 \\ 株式会社バンダイナムコ研究所 \\ m3-takahashi@bandainamco-mirai.com } 表 1 マルチターン対話の一例. 発話 3 ’ は発話 3 を書き換え後の発話. 太字は共参照や省略された部分を表す. Context 1: 共参照 維持しつつ、入力情報を圧縮することでマルチターン対話システムの実現の難しさを緩和できる。また、複数行の文脈情報は単一の発話に反映されるため、他の手法よりメモリ効率が高い. 発話文書き換えの手法について、これまでの研究では、Pointer Network[5] や Copy Mechanism[6] を用いて、復元された発話文をゼロから生成するものがほとんどである. これら生成型手法には二つの課題が存在している [7]. 一つ目は、データ準備にかかるコストの高さである. 出力文は訓練データに対する依存度が高いため、高品質な発話文を生成するために数十万件以上の大規模データセットが必要である。さらに、書き換え前後の発話文のようなぺアデータに人間によるアノテーションが必要となる。二つ目は、推論速度の遅さである. 生成型手法はアルゴリズムの性質上、単語の出力は一つ前の出力結果に依存するため、推論速度が遅い。 本研究では、生成型手法の課題を解決するため、発話文復元のタスクを、文脈情報に基づいた発話文に対する編集操作に単純化することを提案する。復元された後の発話文は、文脈や復元前の発話文の単語のみから再構成することで解決する可能性が高く、復元後の発話文と復元前は文法的に近い構造を持っている。例 えば、表 1 の Context 1 では、発話 3 の「あれ」を発話 1 から抽出した参照情報「昨日の番組」に置換することで発話文 3 ' が得られる. 同様に、Context 2 では、発話 3 の「なぜ」の後に発話 1 から抽出した省略情報「映画」「が好き」を挿大することで発話文 3 ’ が得られる. また、本研究では、データに対する学習効率を向上するため、共参照解析と省略補完を独立した 2 つのサブタスクに分離した複数タスク学習手法を提案する。結果として、自動評価スコアと推論速度において既存手法を上回った. 特に数千件以下の小規模データに対して、データ数減少による性能の低下を抑えることができた. ## 2 関連研究 不完全な発話文に対する書き換えはさまざま自然言語処理タスクで広く採用されている。機械翻訳では、 Seq2Seq モデルから出力された文章の品質向上に利用されている [8]. テキスト要約では、See ら [9] が抽出された要約文を書き換えることでより正確な要約文を生成する手法を提案している.対話生成では、Pan ら [10] は、まず文脈から BERT[11]を介して単語を選択し、これらの単語を組み合わせて書き換えられた発話を生成するカスケードモデルを提示している.Liu ら [12] はセマンティックセグメンテーションの手法を用いて単語レベルでの編集行列を予測する手法を提案している. しかし、以上の手法はいずれも共参照解析と省略補完などのタスクを同時にモデルを学習させた、いわゆる複数タスク学習のアプローチである.Lee ら [13] はこの複数タスク学習の小規模データの場合においての性能低下への懸念を指摘している。これに対し、 Houlsby ら [14] は Adapter を用いて、タスクごとに Fine-tuning を行う際に、ごく一部のパラメータのみ学習する手法を提案している. Pfeiffer ら [15] は Adapter 構造を改善した上、さらに各タスクで学習した情報を共有する AdapterFusion 構造を提案し、Houlsby らに対する優位性を示している。 また当然ながら、本研究は共参照解析と関連がある. Joshi ら [16] は SpanBERT を用いて共参照解析におけるスパン表現を強化している。 Wu ら [17] は共参照解析をクエリベースのスパン予測として定式化をし、SpanBERT を用いて機械読解タスクとして解決を行っている. ## 3 提案手法 本研究の提案手法のモデル構造を図 1 に示す. 左側はモデルが表 1 の Context 1 を入力情報とし、共参照解析タスクにおいて、発話文の省略情報位置および置換位置のタグを抽出する過程を示す. 右側は使用する Transformer[18] モデルの内部構造の中で、複数タスク学習に関わる部分を表す。 ## 3.1 入力表現 入力情報に対して文区切りと形態素分割をした後、入力情報の先頭に [CLS]、各文章の末尾に [SEP] トー クンを挿入する (Word Embeddings). また、モデルに入力する際、文脈部分と発話文部分を区別するための特殊トークンを付与する (Dialog State Embeddings). さらに各トークンの位置に応じた埋め込みを付与する. (Positional Embeddings). ## 3.2 出力層 出力層では選択モデルに基づき最終層のベクトルを全結合層に入力する. 入力情報の全トークンに対してそれぞれの位置タグスコアを計算し、各位置タグはスコア最大となるトークンの位置を採用する。 $ h=\operatorname{Transformer}(x) \in \mathbb{R}^{r_{h}^{*}|x|} $ $ l_{i}=\operatorname{softmax}\left(W_{i} \cdot h+b_{i}\right) $ ここで、 $h$ はモデルの隠れ状態、 $|x|$ は文脈と発話文をつないだ入力情報の長さ、 $r_{h}$ は隠れ状態の次元数を表す。 1 訓練データに対する損失関数 $L$ は各位置夕グのクロスエントロピーの平均とする: $ L=-\frac{1}{k} \sum_{i=1}^{k} \sum \log l_{i} \square\left(T_{i}\right) $ の復元された発話文における位置タグ (GroundTruth) の one-hot 表現を表す。 最後に、位置タグ $T_{i}=\operatorname{argmax}\left(l_{i}\right)$ として計算する.共参照解析 $(k=4)$ において、 $T_{1}$ と $T_{2}$ はそれぞれ先行詞の開始位置、終了位置、 $T_{3}$ と $T_{4}$ はそれぞれ照応詞の開始位置、終了位置を表す。 $\left[w_{T_{3}}, \ldots, w_{T_{4}}\right]$ のトークンが $\left[w_{T_{1}}, \ldots, w_{T_{2}}\right]$ のトークンに置換される.省略補完 $(k=3)$ において、 $T_{1}$ と $T_{2}$ はそれぞれ省略情報の開始位置、終了位置、 $T_{3}$ は省略情報の挿入位置を表し、 図 1 提案手法のモデル構造 $w_{T_{3}}$ のトークンの後に $\left[w_{T_{1}}, \ldots, w_{T_{2}}\right]$ のトークンを挿入する. $T_{i}$ が [CLS] トークンを指す場合や $T_{i-1} \geq T_{i}$ の場合、書き換えは行わない。なお、本手法の書き換えの対象は、1つの発話文につき、共参照と情報省略に対しそれぞれ 1 件以内に限定する。 ## 3.3 複数タスク学習 本研究では共参照解析と省略情報補完、この二つのタスクに対し二段階の学習手法を提案する. 第一段階では、Adapterを用いて各タスクの情報をカプセル化したタスク固有のパラメータを学習する。 ここで Adapter は Pfeiffer らが提案した構造 [15] を用いる。共参照解析を学習した Adapter と省略情報補完を学習した Adapter は図 1 の右側でそれぞれ 「Substitute Adpt.」と「Insert Adpt.」で表す. 第二段階では AdapterFusion[15] でこれらの学習した表現を結合させる. 第一段階の知識抽出と第二段階の知識結合を分離することで、第一段階においてデータの利用効率を向上させるとともに、複数タスクの同時学習で発生しやすい致命的な忘却やタスク間のアンバランスを回避しつつ、両方のタスクで学習した知識を効果的に共有することが可能である. ## 4 実験 ## 4.1 データセット 本実験では Restoration-200K[10] データセットを用いた. Restoration-200K は SNS 上で収集した 20 万件の中国語のマルチターン対話データセットである. 各会話は 6 つの発話と 1 つのラベルで構成されている.最初の 4 つの発話は対話の文脈情報、 5 番目の発話は現在の発話文である. ラベルは、 5 番目の発話文にお いて共参照もしくは情報省略が発生したかどうかを示すラベルである.ラベルが 1 の場合、6つ目の発話文が欠落した情報が復元された発話文となるが、ラベルが 0 の場合、6つ目の発話文は 5 番目の発話文と同じものとなる。なお、これらの対話データから 2,000 件をランダムにサンプリングしたところ、共参照が発生したのが $33.5 \%$ 、省略が発生したのが $52.4 \%$ 、共参照も省略も発生しない発話文は $29.7 \%$ であった. さらに、上記割合に沿って改めて抽出した 2,000 件の対話データに対し人間の翻訳者が和訳し (1 名の作業者の約 1 週間の作業量として想定)、一部中国語独自の表現を日本語に適した表現に差し替えた対話データを「Restoration-2K-ja」で表す. 中国語データセットと日本語データセットそれぞれ $10 \%$ \%バリデーション、 10\%をテストに用い、その他を訓練データに用いた. ## 4.2 ベースライン ベースラインを $\mathrm{Su}$ ら [4] の提案手法の中で、最も は 4 を用いた。だたし元論文で「T-Ptr- $\lambda$ 」は PyTorch での著者実装が公開されていなかったため、公平性を考慮して推論速度の比較では PyTorch 実装が公開されており、かつ元論文の比較手法の中で最もシンプルな 「L-Gen」を基準とした。なお、本研究の提案手法の中から、共参照と省略補完を単一の Adapter で学習したモデルと、図 1 のような複数の Adapter で学習したモデルで同時に実験を行った。結果をそれぞれ「Single Adpt.」、「Multi Adpt.」で表す. ## 4.3 訓練設定 事前学習済みモデルには、中国語と日本語ではそれぞれ Joint Laboratory of HIT and iFLYTEK Research が公開した BERT-wwm-Chinese、東北大学が公開したBERT-base-mecab-ipadic-bpe-32k whole-wordmaskを使用した. 入力系列長の上限を 128 とし、上限を超える文章は学習・評価から除外した。 バッチサイズを 32 に設定した. 訓練と推論には NVIDIA Tesla V100を 1 枚用い、実装は PyTorch で行った. ## 4.4 評価指標 自動評価の指標として、ベースライン [4] に倣い、ROUGE-1、ROUGE-2、ROUGE-L を用いる.また、単語の一致率だけでなく、復元前後の発話文の意味的近似度を比較する観点から、 spaCy および Sentence-BERT[19] で計算する復元前後の文章べクトルのコサイン類似度を用いた. $\mathrm{spaCy}$ の事前学習済みべクトルには、中国語と日本語でそれぞれ 「zh-core-web-lg」、「ja-core-news-lg」を使用した. 推論速度の比較においては 10 件推論した際の平均值を指標とした。 ## 4.5 実験結果 自動評価の指標を用いて評価した実験の結果を表 2 に示す. Restoration-200K において、ベースラインと比べ、ROUGE スコアでは提案手法が最も高い結果となった. 文章ベクトルのコサイン類似度においても、 spaCy と Sentence-BERT で計算したスコアの上昇を確認した. また、複数 Adapter を用いた手法と単一 Adapter と比較した場合において、複数 Adapter を用いた手法の方が性能が向上した. 推論速度の比較において、ベースラインの速度を 1.00 とした場合、提案手法が 14 倍以上速く、ベースラインを大きく上回った. 一方、Restoration-2K-ja において、ベースラインの手法では GroundTruth と近い構造を持つ発話文を出力することができなかったが、提案手法ではベースラインを大きく上回るスコアとなった. 図 2 訓練データサイズごとの ROUGE-1 スコア データ数による性能への影響を検証するため、 Restoration-200K からランダムで抽出した 200 件, 2,000 件と 20,000 件のサブセットで計算した ROUGE1 スコアを図 2 で示す. 特に 200 件や 2,000 件など小規模データにおいて、本研究の提案手法のスコアが既存手法より大幅に上昇し、200,000 件のデータを全部使用したモデルのスコアと比較しても、減少量が最大 20 ポイントに抑えることができた.この結果から、本研究の提案手法は数千件以下の小規模データに対しても、共参照や情報補完タスクの学習にフォーカスすることで、文脈情報を発話文に反映させることができた. ## 5 おわりに 本研究では、小規模データにおける文脈情報復元に基づいたマルチターン対話システムの改善に取り組んだ. 提案手法では、マルチターン対話システムの文脈理解タスクを、編集操作によって共参照と省略情報を発話文に復元するタスクに単純化した。また、共参照と省略補完の学習を複数の Adapter で分離することにより、小規模データにおいて既存手法を大きく上回った. ## 参考文献 [1] Ilya Sutskever, Oriol Vinyals, and Quoc V Le. Sequence to sequence learning with neural networks. In Z. Ghahramani, M. Welling, C. Cortes, N. Lawrence, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems, Vol. 27, pp. 3104-3112. Curran Associates, Inc., 2014. [2] Daniel Adiwardana, Minh-Thang Luong, David R. So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu, and Quoc V. Le. Towards a human-like open-domain chatbot, 2020 . [3] Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Kurt Shuster, Eric M. Smith, Y-Lan Boureau, and Jason Weston. Recipes for building an open-domain chatbot, 2020. [4] Hui Su, Xiaoyu Shen, Rongzhi Zhang, Fei Sun, Pengwei $\mathrm{Hu}$, Cheng Niu, and Jie Zhou. Improving multi-turn dialogue modelling with utterance rewriter. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 22-31, Florence, Italy, July 2019. Association for Computational Linguistics. [5] Oriol Vinyals, Meire Fortunato, and Navdeep Jaitly. Pointer networks. In C. Cortes, N. Lawrence, D. Lee, M. Sugiyama, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 28, pp. 2692-2700. Curran Associates, Inc., 2015. [6] Jiatao Gu, Zhengdong Lu, Hang Li, and Victor O.K. Li. Incorporating copying mechanism in sequence-to-sequence learning. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1631-1640, Berlin, Germany, August 2016. Association for Computational Linguistics. [7] Eric Malmi, Sebastian Krause, Sascha Rothe, Daniil Mirylenka, and Aliaksei Severyn. Encode, tag, realize: High-precision text editing. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 5054-5065, Hong Kong, China, November 2019. Association for Computational Linguistics. [8] Jan Niehues, Eunah Cho, Thanh-Le Ha, and Alex Waibel. Pre-translation for neural machine translation, 2016. [9] Abigail See, Peter J. Liu, and Christopher D. Manning. Get to the point: Summarization with pointer-generator networks. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1073-1083, Vancouver, Canada, July 2017. Association for Computational Linguistics. [10] Zhufeng Pan, Kun Bai, Yan Wang, Lianqiang Zhou, and Xiaojiang Liu. Improving open-domain dialogue systems via multi-turn incomplete utterance restoration. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 1824-1833, Hong Kong, China, November 2019. Association for Computational Linguis- tics. [11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [12] Qian Liu, Bei Chen, Jian-Guang Lou, Bin Zhou, and Dongmei Zhang. Incomplete utterance rewriting as semantic segmentation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2846-2857, Online, November 2020. Association for Computational Linguistics. [13] Jason Lee, Kyunghyun Cho, and Thomas Hofmann. Fully character-level neural machine translation without explicit segmentation, 2017. [14] Neil Houlsby, Andrei Giurgiu, Stanislaw Jastrzebski, Bruna Morrone, Quentin de Laroussilhe, Andrea Gesmundo, Mona Attariyan, and Sylvain Gelly. Parameterefficient transfer learning for nlp, 2019. [15] Jonas Pfeiffer, Aishwarya Kamath, Andreas Ruckle, Kyunghyun Cho, and Iryna Gurevych. Adapterfusion: Non-destructive task composition for transfer learning, 2020 . [16] Mandar Joshi, Omer Levy, Luke Zettlemoyer, and Daniel Weld. BERT for coreference resolution: Baselines and analysis. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 5803-5808, Hong Kong, China, November 2019. Association for Computational Linguistics. [17] Wei Wu, Fei Wang, Arianna Yuan, Fei Wu, and Jiwei Li. CorefQA: Coreference resolution as query-based span prediction. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 69536963, Online, July 2020. Association for Computational Linguistics. [18] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30, pp. 5998-6008. Curran Associates, Inc., 2017. [19] Nils Reimers and Iryna Gurevych. Sentence-bert: Sentence embeddings using siamese bert-networks, 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B9-4.pdf
# 共同図形配置課題における対話の共通基盤構築過程の分析 光田航 東中竜一郎 大賀悠平*杵渕哲也 日本電信電話株式会社 NTT メディアインテリジェンス研究所 \{koh.mitsuda.td, ryuichiro.higashinaka.tp, tetsuya.kinebuchi.xh\}@hco.ntt.co.jp s2020716@s.tsukuba.ac.jp ## 1 はじめに 対話において,対話の参加者の間で共有される知識や信念などの情報を共通基盤(または相互信念) と呼ぶ $[1,2]$. 対話をモデル化する上で,共通基盤は重要な概念の一つとされきたが,共通基盤が構築される過程を分析した研究は少ない [3]. 複雑な内容を伴う対話は,その内容の理解を積み上げていく必要があるため,今後,ユーザとの高度な対話(例えば,教育,議論,交渉などを目的とする対話)が可能なシステムを実現するためには,対話を通じてユーザとともに共通基盤を構築していき,それに基いて対話を行うモデルを確立することが望ましい. 共通基盤構築をモデル化するための試みとして,二名の作業者が課題を達成する音声対話を収集,分析した研究が存在する $[4,5,6]$. また, 近年, テキストチャットに焦点を当て,課題が達成されるまでのチャットログを大規模に収集しモデルを構築する研究も報告されている $[7,8,9]$. これらの研究では,作業者が実施した課題の成果を共通基盤とみなし,対話と共通基盤の関係を分析している. しかしながら,課題が達成されるまでの過程は定量的に記録されていないため,対話を通じてどのように共通基盤が構築されていったのかを分析することが難しい. 本研究では, 二名の作業者が対話を通じて課題を達成するまでの途中過程を共通基盤とみなして記録する。記録された共通基盤を推定する手法を検討することで,共通基盤構築の過程を明らかにすることを目指す。二名の作業者が独立に図形を配置する共同図形配置課題を設定し,一致した図形配置を共通基盤とみなすことで,対話と共通基盤を記録した共同図形配置コーパスを構築,分析する。本稿では,共同図形配置コーパスの構築,および,共通基盤構築の過程の予備的な分析結果について報告する.  ## 2 共同図形配置コーパスの構築 共通基盤の途中過程を記録するための課題を設定するにあたって, 先行研究, 特に, Udagawa らが提案した OneCommon(複数の点が描画された円の中から共通の点を一つ選ぶ課題)[9]を参考に要件を設定した. OneCommon 同様, 課題の達成に必要な情報が完全な情報として発話されないよう,連続的な要素を含む課題とした。 また,共通基盤が段階的に構築されるよう,対話をしながら複数回の操作を必要とする課題とした. さらに, 共通基盤の構築が課題の達成につながり,その度合いを定量化できる課題とした.これらの要件を満たす課題として,ランダムに配置された複数の図形の配置を二名が相談しながら揃える共同図形配置課題を設定した. ## 2.1 共同図形配置課題のツールと手順 図 1 に,共同図形配置コーパス収集に利用した,共同図形配置課題を行うためのツールの画面を示す. 二名の作業者 A と B は,図に示すブラウザベー スのツールを利用して,対話をしながら図形の配置を決定する、ツールは図形配置画面とチャット画面で構成され,画面上部には作業開始と終了のボタン,および,作業の残り時間(最大 10 分)が表示される。二名の作業者には,同じ図形の集合がそれぞれランダムな配置で与えられるので,どのような配置にするかをチャット画面を用いて話し合い,二名の間で納得できる共通の配置を決定する。このとき,作業中の図形配置を記録し,図形配置の一致部分を共通基盤としてみなすことで,共通基盤を定量的に記録することができる。 図形配置画面では,図形の回転,拡大縮小,削除はできず,マウスを用いた平面移動の操作のみを可能とした. 操作のログとして,図形のドラッグ\&ドロップの開始,終了時刻とそれぞれの座標を記録する. チャット画面は作業者間で共通だが,図形配置 図 1 共同図形配置コーパス収集に利用した,共同図形配置課題を行うためのツールの画面 画面は作業者ごとに異なる画面を見て作業を行う。 配置対象の図形として, 最も単純な図形として単 純図形と,図形に関する前提知識を利用できると考えられる建物図形の二種類を用意した。それぞれ 10 種類の図形で構成される. 単純図形はパワーポイントに登録されている図形を利用し,建物図形は建物を端的に表す白黒のアイコンセット1)を利用した. 図形の個数は 5 個または 7 個とし, 重複ありでランダムな大きさ,位置に設定して初期配置を作成した. ## 2.2 収集されたコーパス 表 1 に,収集された共同図形配置コーパスの統計情報を示す.コーパス収集には一般の作業者 287 名が参加し,212 組の作業者ぺアに分けて共同図形配置課題を行った. 各ぺアは単純図形 5 個と 7 個, 建物図形 5 個と 7 個で計 4 セッション作業を実施し $た^{2)}$. その結果,平均で 28.8 発話からなる 984 対話が収集された. 発話に加えて,収集された図形の操作数は一対話あたり 65.4 回となり,発話のおよそ二倍の数の操作が収集された. 図形の種類を比較すると, 建物図形の方が発話数が多く, 操作数が少ない結果となった。これは,建物に関する前提知識が発話として多く表れ,効率的に図形配置が進んだためではないかと考えられる。 表 2 に,共同図形配置コーパスの対話例を示す。 この例は図 1 に示したセッションで収集された対話である. $U_{15}$ までで最終的な配置イメージを合意し, 1) https://www.flaticon.com/packs/city-life-3における白黒アイコン(Lineral)を利用した. 2)例外的に, 25 組のペアについては同じペアで 4 セッションの作業を複数回行うことでデータを収集した.表 1 収集された共同図形配置コーパスの統計情報 表 2 共同図形配置コーパスの対話例. ID は発話 IDを表し,S は作業者を表す. この例は図 1 に示した作業者 $\mathrm{A}$ と Bにより収集された対話である. \\ $U_{16}$ 以降で相談しながら図形を配置している。この中には, $U_{21}$ のようにお互いの配置を確認する発話など,共通基盤構築に関係する発話が確認できる。 ## 3 共通基盤構築過程の分析 本稿では,収集された共同図形配置コーパスを用いて,最終的な共通基盤とそこに致るまでの過程を予備的に分析した結果について述べる。まず,最終的な共通基盤を人手で確認し,どのようなパタンが存在するのかを調査した. 次に,作成したパタンに基づいて,共通基盤を定量的に測る尺度を設定し,課題が達成されるまでの過程でどのように変化していくかを調査した. ## 3.1 最終的な図形配置のパタン 収集された共同図形配置コーパスから,作業者間で図形が一致したと判断された場合でも,最終的な図形配置が異なり,それらが特定のパタンに分かれることが確認された.これを最終図形配置パタンとし,著者らにより類型を作成した。具体的には, 50 セッション分の最終的な図形配置をサンプリングし,図形配置のぺアの関係を場合分けした。 図 2 に,最終図形配置パタンを示す. 図に示すように,二名の作業者が作成した最終的な図形配置の一致, 不一致のパタンは, 下記の 7 パタンに分かれた。 1. 完全一致: 図形が完全に一致しているもの 2. 原点ずれ: 図形全体の位置が異なるもの 3. 同図形混同: 同種の図形の位置が異なるもの 4. 異図形混同: 異種の図形の位置が異なるもの 5. 縮尺ずれ: 図形全体のサイズが異なるもの 6. 対称ずれ: 図形の位置が対称的に異なるもの 7. 完全不一致: 図形の位置が全く異なるもの 1. の完全一致以外は,図形の種類や位置が異なるパタンである.作業者には,図形全体の位置(原点) を揃えるよう教示を与えなかったため,本研究では 1. の完全一致と 2. の原点ずれにおいて, 共通基盤が完全に構築されており, 課題が達成されたとみなす. 図 1 と表 2 で示した例は, 最終的に図 2 における 4.の同図形混同に示す図形配置になっている.この例から,作業者間で共通基盤が形成されたと認識している場合でも,必ずしも図形配置が一致しているとは限らないことがわかる.7.の完全不一致は,図形が全く一致していないが,作業者が作業を実施しなかったということではなく,対話を確認したところ,抽象的なイメージのみで図形を配置してお互いの理解を確認し合わないようなものが見られた. 2. 原点ずれ 3. 同種図形混同 4. 異種図形混同 5. 縮尺ずれ 6. 対称ずれ 7. 完全不一致 図 2 最終図形配置パタン 表 3 最終図形配置パタンの割合 表 3 に,最終図形配置パタンの割合を調査するため, 200 セッションのログに対して最終図形配置パタンをアノテーションした結果を示す. アノテー ションは, 著者らとは異なる 1 名の作業者が行った.表から,1.9完全一致と 2. の原点ずれ(共通基盤が完全に構築されたもの)は全体の $25 \%(19 \%+6 \%)$ であり,同程度の $28 \%$ で 7. の完全不一致になっていることがわかる. 不一致のパタンとして多いのは, 4. の異図形混同であり, 全体の $26 \%$ 占めている.図形種別を比較すると,建物図形の方が課題が達成された割合が多い. また,図形の個数を比較すると, 5 個と 7 個で各パタンの割合が大きく変化していないことから,図形が増えても,表 1 に示した通りより多くの発話と操作を行えば同程度の割合で課題を達成できることが確認できる. ## 3.2 共通基盤が構築される過程の分析 共通基盤を定量的に測る尺度を導入し,対話を通じて共通基盤がどのように構築されるかを分析する. 本稿では,最終図形配置パタンにおける 1.の完全一致,および,2.の原点ずれにおいて共通基盤が構築できていると考え,任意の二図形間で定義されるベクトルの差の距離の総和を図形配置間距離として導入する.具体的には,作業者 A の図形配置における図形 $\mathrm{i}$ と $\mathrm{j}$ 間で定義されるべクトル $v_{A, i j}$ と,作業者 B で同様に定義されるべクトル $v_{B, i j}$ の差を計算し,その距離の総和を共通基盤構築の尺度として利用する。この値が低いほど作業者間の図形配置が近く,共通基盤が構築されていることを示す. 図形配置間距離に基づき,ログの各タイムステップにおける図形配置から共通基盤構築の度合いを測ることができる. 本稿では,共通基盤構築の典型的な流れを明らかにするため,図形配置間距離を時系列データとみなし,クラスタリングを適用した. 手法として,k-means べースの手法である k-Shape [10] を利用した。クラスタリングの対象には,共同図形配置コーパスに含まれる全 987 セッション分のログを利用した。このとき,今後発話単位で解析を行うことを想定して,タイムステップとして,発話,および,連続する図形移動を一単位に設定した。 図 3 亿, 図形配置間距離に基づく共通基盤構築過程のクラスタリング結果を示す. 図には k-Shape で作成されたクラスタが 5つ示されている. クラスタ数を 6 つ以上に増やした場合は類似のクラスタが見られた。横軸は発話または図形移動に対応するタイムステップを表す ${ }^{3)}$ 。縦軸は図形配置間距離を表しており,0未満の值を取っているのは,k-Shape を利用するにあたって値が平均 0 , 分散 1 の正規分布に従うよう正規化したためである. 各クラスタが全体に占める割合は 1 から順に 7\%,28\%,11\%,24\%, 29\%であった. 各クラスタの傾向を明らかにするために,クラスタごとに 10 セッション程度のログをサンプリングし調査した. 図形の初期配置については,人手で確認した限りではクラスタ間で端的な差が見られなかった. Cluster 1 は, 図形配置間距離が対話を通して低下しており,順調に共通基盤が構築されていると考えられる。対話としては,最初に最終的な図形  図 3 図形配置間距離に基づく共通基盤構築過程のクラスタリング結果 配置のイメージを共有し,その後,お互いの配置を確認しながら図形を順に移動するものが見られた. Cluster 2 から Cluster 4 は,中盤から共通基盤が順調に構築されていると考えられる。対話としては,中盤までは局所的な図形配置について相談し,最後に残った図形の配置と全体のイメージの確認を行うものが見られた. Cluster 5 は,共通基盤構築がうまく進んでいない,最終図形配置パタンにおける 7.の完全不一致に該当するものである.対話としては,位置の確認を怠ったり,最終的な図形配置のイメージを勘違いしたり(例えば,「斜めに配置」を「右下がり」と「左下がり」と理解) するものが見られた. ## 4 おわりに 本稿では,対話における共通基盤構築のモデル化を目指して,共同図形配置コーパスの構築と予備的な分析を行った結果について述べた。二名の作業者がテキストチャットを通じて図形を配置する共同図形配置課題を設定し,図形配置の一致部分を共通基盤とみなすことで,共通基盤が構築される過程を記録することを狙った.予備的な分析として,最終図形配置パタンを作成し, 最終的な共通基盤が 7 パタンに分かれることが明らかになった。また,図形配置間距離を導入して典型的な共通基盤構築の流れを調査し,5つのクラスタに分かれることが明らかになった. 今後は,対話からの図形配置間距離や図形配置の予測,図形の自動配置,発話生成などの問題に取り組み,共通基盤構築をモデル化する手法を検討したい。 ## 参考文献 [1] Herbert H Clark. Using language. Cambridge university press, 1996. [2] David R Traum. A computational theory of grounding in natural language conversation. Technical report, Rochester Univ NY Dept of Computer Science, 1994. [3] 中野幹生. 対話システムにおける基盤化処理. 言語・音声理解と対話処理研究会 SIG-SLUD-B901-01, 2019. [4] 市川熹, 堀内靖雄, 土屋俊. 日本語地図課題対話コーパス. 音声研究, Vol. 4, No. 2, pp. 4-15, 2000 . [5] 片岡邦好. 問題解決型タスクにおける日・英語話者の視線について: 談話データ「Mister O コーパス」にもとづく一考察. 文明 $21,2017$. [6] 日本語話し言葉コーパスの構築法. Technical report, 独立行政法人国立国語研究所, 2006. [7] Mike Lewis, Denis Yarats, Yann N Dauphin, Devi Parikh, and Dhruv Batra. Deal or no deal? endto-end learning for negotiation dialogues. Proc. EMNLP, pp. 2443-2453, 2017. [8] $\mathrm{He} \mathrm{He}$, Anusha Balakrishnan, Mihail Eric, and Percy Liang. Learning symmetric collaborative dialogue agents with dynamic knowledge graph embeddings. Proc. ACL, pp. 1766-1776, 2017. [9] Takuma Udagawa and Akiko Aizawa. A natural language corpus of common grounding under continuous and partially-observable context. In Proc. AAAI, pp. 7120-7127, 2019. [10] John Paparrizos and Luis Gravano. k-Shape: Efficient and accurate clustering of time series. In Proceedings of the 2015 ACM SIGMOD International Conference on Management of Data, pp. 18551870, 2015.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C1-1.pdf
# 議論の流れを利用した皮肉を含むコメントの検出 武石 健吾 東京工業大学 情報理工学院 takeishi.k.aa@m.titech.ac.jp ## 1 背景と目的 皮肉は複雑な言語現象であり,発話の真の意味がその文字通りの意味とは異なる。皮肉の理解はソー シャルメディアを対象としたオピニオンマイニングや感情分析において難しい課題となる。皮肉検出の先行研究では, 主に文中の語彙的な手がかりを利用している [1]. 最近の研究では皮肉検出における文脈の重要性を指摘しているものが多い、ソーシャルメディア・テキストのコメントは,多くの場合,先行するコメントや世界で起きている出来事に関連して行われる.これは文脈が皮肉の検出に重要な役割を果たすことを示唆している。 本研究は議論の流れを用いて皮肉を含んだコメントを検出する手法を提案する. 議論を構成する各コメントはその議論のトピックに対して直接言及しているものと別のコメントに対して言及しているものに分けられる.後者のコメントにさらに別のコメントが付けられることで議論が構成される. 本研究で用いる議論の流れとは検出対象とするコメントからトピックまで親コメントを辿るパス中のコメントの系列を指す。 図 1 不自然な議論の流れ 議論の流れを皮肉の検出に利用する動機は議論の流れからして不自然である皮肉を含んだコメン卜に注目することである. 図 1 は,政治カテゴリに投稿された佐藤という議員が掲げた公約に関するトピックへのコメントである. Comment A に対して Comment B が投稿され,さらに Comment B に対して Comment C が投稿されている. Comment A と 徳永健伸 \author{ 東京工業大学情報理工学院 \\ take@c.titech.ac.jp } Comment B を参照すると佐藤議員の公約への批判の流れが発生している. この次に投稿されるコメントが公約を擁護するものである場合,逆説の意味を持つフレーズが入ることが予想される。 しかし,続くコメントは逆説フレーズがないにも関わらず公約に賛成するような文意を持っている。このことから Comment C は皮肉を含んだコメントであることがわかる.このように議論の流れを参照することで,皮肉の検出精度が向上することが期待される. ## 2 関連研究 本研究はオンラインディスカッションフォーラム Reddit ${ }^{1}$ に投稿されたコメントを検出対象とする. ある著者があるトピック(ニュース記事へのリンクなど)を Reddit に投稿すると,著者同士でこのトピックについて Web サイトで議論することができる.これにより Reddit は図 2 のような各コメントに親コメントが含まれるツリー構造の会話構造が確立されている. 図 2 Reddit の構造 Reddit に投稿されたコメントの皮肉検出の研究の動向について以下で紹介する. 文献 [2] ではオンラインソーシャルメディアディスカッションでの皮肉検出のために, 内容駆動型と文脈駆動型の両方のモデリングのハイブリッドアプローチを採用し 1) http://reddit.com た CASCADE というモデルを提案している. 文脈情報の 1 つ目は著者の行動特性を表現する著者べクトルである.著者の過去の投稿を利用して,ライティングスタイルとパーソナリティインジケー ターをモデル化し,その後,正準相関分析 (CCA) を使用して包括的な著者ベクトルに融合する. 文脈情報の 2 つ目は談話べクトルである. これは,同じフォーラムに属するこれらの統合されたコメントのドキュメントモデリングによって行われる.これらの談話の特徵は,皮肉を検出するために必要なジャンルの情報とともに,重要な文脈情報,背景の手がかりを与える。内容のモデリングには CNN (Convolutional Neural Network)を使用して構文上の特徴を抽出する。本研究では CASCADE をべースラインとし,不自然な議論の流れを特徴量として加えたモデルを提案する。文献 [3] では特定のコーパスで皮肉を含むコメントを検出するために,マルチヘッドアテンションベースの双方向ロングショートメモリ(MHA-BiLSTM)ネットワークを提案している. また, 感情や句読点などの様々な特徴量を検討している. ## 3 提案モデル:議論の流れの導入 本研究は文献 [2] で提案されているモデル CASCADEをベースラインとし, CNN, SentenceBERT [4],MT-DNN[5] をそれぞれべースとしたモデルを 3 つ提案する. ## 3.1 CASCADE CASCADE はコメントの内容および文脈の情報を活用する. 内容モデリングでは,CNNを使用してコメントのベクトル表現 $\vec{C}_{i j}$ を生成している. このベクトル $\vec{C}_{i j}$ は, 構文情報と意味情報の両方を取得する. 文脈モデリングは, 著者ごとの特徴量とトピックのカテゴリを表す', Subreddits', ごとの特徵量をそれぞれ学習し, 著者べクトル $\vec{u}_{i}$ と談話べクトル $\vec{t}_{j}$ を生成する. その後, これら 3 つのベクトル $\vec{C}_{i j}, \vec{u}_{i}$, および $\vec{t}_{j}$ を連結し皮肉または非皮肉に分類する。 ## 3.2 議論の流れを表すテキスト 本研究では議論の流れを表現するために「話題テキスト」と「議論テキスト」を利用する. 話題テキストは議論の始まりに位置するトピックを形成しているテキストである. 図2 のように全てのコメント は一つのトピックを根ノードとする木のノードである. 話題テキストは議論の先頭に位置しており議論の方向性を決定すると考えられる。一方,議論テキストは議論の流れを形成している各コメントのテキストを連結して生成する。連結の際にはコメントの境目を明確にするために区切り文字 “<END>”を各コメントから取得したテキストの間に差し込む.議論テキストは議論の流れ自体を表している。これら 2 つのテキストと検出対象のコメントのテキストである「対象テキスト」との関係をモデリングすることで不自然な議論の流れを利用して皮肉を含むコメントを検出する。 ## 3.3 CNNをベースとしたモデル CNNでのテキストのバッチモデリングでは,テキストの長さを統一するために制限またはパディングが行われる. 先行研究ではテキストの単語数を制限する際は設定値に達するまで先頭から順に単語を取得しており, 本研究でも対象テキスト及び話題テキストは同様の方法で長さの制限を行う。一方で議論テキストの場合, 議論の先頭に近いコメントほど検出対象から遠ざかり検出に有用な情報が少ないことが予想されるため,各コメントのテキストから同数の単語を取得した後に区切り文字 “<END>” を各コメントから取得したテキストの間に差し込むことで議論テキストを生成する。この時, 区切り文字の数も含めてテキストの長さが統一されるように単語の取得数を調整する。その後, 話題テキスト,議論テキスト,対象テキストを区切り文字 “<END_C>” を介して遠結する。 次に連結したテキストを CNN に入力として加えベクトル表現を生成する.この表現は両テキストの構文情報と意味情報に加えテキスト間の関係を含む. その後 CASCADE と同様に CNNを用いて生成したべクトルに著者ベクトルと談話ベクトルを連結し皮肉または非皮肉に分類する,話題テキスト,議論テキスト及び対象テキストの長さは先行研究と等しくなるようそれぞれ 100 に設定する. よって結合したテキストの長さは区切り文字も含めて 302 となる. それに合わせて関係べクトルのサイズは 302 に設定する。 ## 3.4 Sentence-BERT をベースとしたモデル 本研究では皮肉検出タスクを文関係の推論タスクと捉える。そこで Sentence-BERT [4] をべースとし たモデルを検討する. Sentence-BERT の文埋め込みは InferSent [6] や Universal Sentence Encoder [7] などの他の最先端の文埋め込み方法よりも優れていることが知られている. また, Fine-tuning 用のデータセットとして SNLI [8] と Multi-Genre NLI [9] を用いており,NLI (Natural Language Inference) タスクに強みを持つ. Sentence-BERTを使用して関係べクトルを生成し, CASCADE のベクトル結合層に加えたモデルを検討する. 文献 [4] の実験で最高性能であったベクトルの連結方法を参考にし,テキスト $A$ とテキスト $B$ の関係ベクトル $v_{A}$ と $v_{B}$ を利用した $\left(v_{A}, v_{B},\left|v_{A}-v_{B}\right|\right)$ を採用する. すなわち, 結合層に含まれるべクトルは CNN で生成した対象テキストのベクトル表現 $\vec{C}_{i j}$, Sentence-BERT で生成した関係ベクトル $\left(v_{A}, v_{B},\left|v_{A}-v_{B}\right|\right)$, 著者ベクトル $\vec{u}_{i}$, 談話べクトル $\vec{t}_{j}$ である. 本研究では, Sentence-BERT を用いて話題テキスト,議論テキスト,対象テキストをそれぞれ $v_{\text {topic }}, v_{\text {chain }}, v_{\text {target }}$ にベクトル化し, $v_{\text {target }}, v_{\text {chain }}, v_{\text {topic }},\left|v_{\text {target }}-v_{\text {chain }}\right|,\left|v_{\text {target }}-v_{\text {topic }}\right|$ を連結して関係べクトルとして使用する。 モデルに使用する Sentence-BERT のパラメータは文献 [4] に従う. ## 3.5 MT-DNN をベースとしたモデル 文関係の推論タスクで他のモデルを上回る性能を示した MT-DNN [5] を皮肉検出タスクで利用することを検討する.MT-DNN は BERTをマルチタスク学習に拡張したモデルであり,一般的な言語理解評価ベンチマーク 9 タスク中 8 つで最高の結果が出ている。また SNLI,SciTail といった,文関係の推論タスクの精度が素の BERT に比べて大幅に改善されている. 本研究では皮肉検出で有用と考えられ CASCADEにもコンテキストモデリングとして導入されている,著者ごとの特徴量と Subredditsごとの特徴量をそれぞれ学習し生成された著者ベクトルと談話ベクトルを MT-DNN に導入する。 皮肉検出タスクは MT-DNN が適応する 4 つの夕スクのうち,文関係の分類タスクに該当する。このタスクは, 長さ $m$ の Premise : $P=\left(p_{1}, \ldots, p_{m}\right)$ と長さ $n$ の Hypothesis : $H=\left(h_{1}, \ldots, h_{n}\right)$ を入力として加え, $P$ と $H$ 間の論理関係 $R$ を見つける. 出力モジュールの設計は,ニューラル NLI モデルである確率的回答ネットワーク (SAN) [10] の回答モジュー ルを使用している. その中で $t$ ステップ目の状態 $s_{t}$ とその前の状態 $s_{t-1}$ および Premise のワーキング表 1 各データセット中のコメント数 メモリ $M_{p}$ から計算される $x_{t}$ を用いて各ステップ $t \in 0,1, \ldots, T-1$ の関係の確率分布 $P_{t}{ }^{r}$ は式 (1) で計算される. $ P_{t}^{r}=\operatorname{softmax}\left(\theta_{4}\left[s_{t} ; x_{t} ;\left|s_{t}-x_{t}\right| ; s_{t} \cdot x_{t}\right]\right) $ 式(1)の 4 つのベクトルが連結されている部分に著者ベクトルと談話ベクトルも連結することで素性としてモデルに加える. モデルに使用する MT-DNN のパラメータは文献 [5] に従う. ## 4 評価実験 ## 4.1 データセット 評価のために自己注釈付き Reddit コーパス SARC [11]を用いる.このデータセットには Reddit に投稿された皮肉を含む/皮肉を含まないコメントの 553M の例が含まれている. 各コメントには,コメントのテキスト,著者,所属する SubReddit,および親コメントなどの情報が含まれている. 公開されている不均衡データ2)の訓練データとテストデータからランダムサンプリングし, 皮肉を含むコメント数と皮肉を含まないコメント数の割合が 1:1 の均衡データセットと両カテゴリのコメント数の割合が 1:3 の不均衡データセットの 2 つを作成した. モデルの学習には訓練データの $10 \%$ 開発データとして使用する。データセットの統計を表 1 に示す. これらのデータセットは大規模であるため同じモデルでの結果のバラつきは小さいと判断し,モデルごとにシード 3 回を変更した結果の平均值を計算する. 評価指標には Precision (P), Recall (R), Accuacy $(\mathrm{A}), \mathrm{F}$ 値 $(\mathrm{F})$ を用いる. 再現率と適合率のどちらも重要であるという考えられているため,この中で Accuacy と $\mathrm{F}$ 值を重要視してモデル性能の比較を行う. ## 4.2 結果と考察 実験結果を表 2 と表 3 に示す. 議論の流れを導入した 3 つのモデルの性能が CASCADE の性能を上  表 2 均衡データセットの結果 表 3 不均衡データセットの結果 回っていることがわかる. また,3つのモデルの中でも MT-DNN をベースにしたモデルの性能が他を上回っている。これを更に調査するために,不均衡データセットについて議論の流れ (議論テキスト)を利用できるコメントと利用できない (議論の先頭に位置する) コメントに分けて各指標を算出した結果を表 4 と表 5 に示す. 表 4 議論の流れを利用できるコメントの結果 まず,CASCADE と CNN 及び SBERT ベースとのモデルの性能の違いに着目する. 議論の流れを利用できないコメントでは Accuracy 及び F 值に目立った差は見られない。一方,議論の流れを利用できるコメントでは議論の流れを導入した 2 つのモデルの性能が優っている.つまり,テキストの構文情報と意味情報の利用における性能の違いはなく,議論の流れの導入によって性能が向上したと結論づけられる. 次に CNN 及び SBERT ベースのモデルと MT-DNN ベースのモデルの性能の違いに着目する. Accuracy 及び $\mathrm{F}$ 值は議論の流れの有無に関わらず性能は向上している. この場合, 議論の流れが有用に働いたか判断することができない,そこで,話題テキストと議論テキストを使わず MT-DNN の全ての Premise テキストを空白テキストにしたモデルの性能を検証する.各データセットでの実験結果を表 6 と表 7 に示す. CASCADE と MT-DNN (Premise なし) では後者のモデルの方が性能が良いことから MT-DNN の内容議論の流れを利用できないコメントの結果 表 6 均衡データセットにおける Premise の効果 ベースのモデリングの方が性能が高いと考えられ る. MT-DNN では Premise がある方が性能が高いことから MT-DNN が議論の流れをモデリングしたことが皮肉検出に有効に働いていると考えられる。 ## 5 結論 本研究ではオンラインディスカッションフォーラム内の皮肉を含むコメントの検出に議論の流れを利用することを提案した. 議論の流れを導入したモデルとして CNN ベースのモデル,SBERT ベースのモデル,MT-DNN ベースのモデルを検討し,性能の比較を行なった. その結果,議論の流れが皮肉検出に有用に働くことを確認した. 今後の課題は議論を構成するコメントのテキストからの単語の取得方法の更なるバリエーションである.本研究では各コメントのテキストからの単語の取得は先頭から行ったが,同じテキストでも単語を取得する部分を工夫する余地がある. ## 参考文献 [1] Roger Kreuz and Gina Caucci. Lexical influences on the perception of sarcasm. In Proceedings of the Workshop on computational approaches to Figurative Language, pp. $1-4,2007$. [2] Devamanyu Hazarika, Soujanya Poria, Sruthi Gorantla, Erik Cambria, Roger Zimmermann, and Rada Mihalcea. Cascade: Contextual sarcasm detection in online discussion forums. arXiv preprint arXiv:1805.06413, 2018. [3] A. Kumar, V. T. Narapareddy, V. Aditya Srikanth, A. Malapati, and L. B. M. Neti. Sarcasm detection using multi-head 表 7 不均衡データセットでの各評価指標 attention based bidirectional lstm. IEEE Access, Vol. 8, pp. 6388-6397, 2020. [4] Nils Reimers and Iryna Gurevych. Sentence-bert: Sentence embeddings using siamese bert-networks. arXiv preprint arXiv:1908.10084, 2019. [5] Xiaodong Liu, Pengcheng He, Weizhu Chen, and Jianfeng Gao. Multi-task deep neural networks for natural language understanding. arXiv preprint arXiv:1901.11504, 2019. [6] Alexis Conneau, Douwe Kiela, Holger Schwenk, Loic Barrault, and Antoine Bordes. Supervised learning of universal sentence representations from natural language inference data. arXiv preprint arXiv:1705.02364, 2017. [7] Daniel Cer, Yinfei Yang, Sheng-yi Kong, Nan Hua, Nicole Limtiaco, Rhomni St John, Noah Constant, Mario Guajardo-Cespedes, Steve Yuan, Chris Tar, et al. Universal sentence encoder. arXiv preprint arXiv:1803.11175, 2018. [8] Samuel R Bowman, Gabor Angeli, Christopher Potts, and Christopher D Manning. A large annotated corpus for learning natural language inference. arXiv preprint arXiv:1508.05326, 2015. [9] Adina Williams, Nikita Nangia, and Samuel R Bowman. A broad-coverage challenge corpus for sentence understanding through inference. arXiv preprint arXiv:1704.05426, 2017. [10] Xiaodong Liu, Kevin Duh, and Jianfeng Gao. Stochastic answer networks for natural language inference. CoRR, Vol. abs/1804.07888, , 2018. [11] Mikhail Khodak, Nikunj Saunshi, and Kiran Vodrahalli. A large self-annotated corpus for sarcasm. arXiv preprint arXiv:1704.05579, 2017.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C1-2.pdf
# ラベル間の意味の違いを考慮した Few-shot テキスト分類 大橋 空 1 高山 隼矢 ${ }^{1}$ 梶原 智之 ${ }^{2}$ 荒瀬 由紀 ${ }^{1}$ 1 大阪大学大学院情報科学研究科 2 愛媛大学大学院理工学研究科 ${ }^{1}$ \{ohashi.sora, takayama.junya, arase\}@ist.osaka-u.ac.jp ${ }^{2}$ kajiwara@cs.ehime-u.ac.jp ## 1 はじめに テキスト分類タスクにおいて、ニューラルネットワークに基づくモデル $[1,2]$ が多数提案されており、大きな成功を収めている。特に BERT [3] による文の表現生成は多くのテキスト分類タスクにおいて最高性能を達成し、その有効性が示されている。しかしこれらの機械学習モデルでは、少数の事例しか持たないラベルが存在する場合、訓練時に過学習を起こしやすいという問題が知られている [4]。この問題に対処するために、ラベルごとに数個の事例のみが訓練データとして与えられる設定の Few-shot テキスト分類 [5-8] が活発に研究されている。 Few-shot テキスト分類では、距離学習やメタ学習を用いる手法が成功を収めている。例えば、様々な粒度の注意機構を用いて分類が容易なべクトル表現を生成する手法 [6] や、注意機構において単語の共起パターンを考慮する手法 [8] が提案されている。 これらの先行研究ではラベル表現同士の類似度を考慮しないため、意味的に近いラベルが混同されやすく、それらの分類が難しいという課題がある。 この問題に対処するため、本研究ではラベル表現同士を比較し、各ラベル表現を互いに分離する学習手法を提案する。提案手法では、ラベル間の意味の違いを把握し、各ラベルに特有の情報のみをラベル表現に織り込んだ表現を生成する。これによりラべル間の違いが明確になり、分類が容易になると期待できる。 提案手法の有効性を検証するために、Huffpost [9] および FewRel [10] のデータセットを用いて Fewshot テキスト分類の害験を行った。実験の結果、両データセットにおいて提案手法がベースラインモデルの性能を有意に改善し、提案手法の有効性を確認できた。さらに提案手法は、分類対象のラベルが増加するにつれて、また各ラベルの事例数が減少するにつれて、その有効性が増すことが明らかとなり、 より困難な設定の Few-shot 分類において分類精度の向上に貢献することが示された。 ## 2 背景知識:Few-shot テキスト分類 ## 2.1 問題定義 Few-shot テキスト分類では、サポート集合およびクエリ集合が入力として与えられる。サポート集合とは、テキストとラベルの組の集合 $S=\left.\{\left(x_{i}, y_{i}\right)\right.\}_{i=1}^{N K}$ である。 $N$ はサポート集合に含まれるラベルの種類であり、 $K$ はラベルごとのサンプル数である。以降、 $N=n, K=k$ である場合を $n$-way $k$-shot 分類と呼ぶ。また、ラベル $L$ のみが含まれるサポート集合を $S_{L}=\left.\{\left(x_{p}, y_{p}\right) \mid y_{p}=L\right.\}$ と表記する。クエリ集合とは、分類対象であるテキストの集合 $Q=\left.\{q_{j}\right.\}_{j=1}^{M}$ のことを指す。Few-shot テキスト分類モデルは、この各クエリ $q_{j}$ に対してラベルを推定することを目的とする。なお、サポート集合 $S$ が持つラベルの集合とクエリ集合 $Q$ に対応するラベルの集合は等しい。 Few-shot 分類では、エピソード [11] と呼ばれるデータセットの部分集合を単位として訓練および評価を行う。訓練エピソードは、訓練用データから無作為に選択された $N$ 種類のラベルについて、そのラベルを持つ事例を $K+m$ 個だけ無作為抽出し、サポート集合とクエリ集合に分割して作成する。ただし $m=\frac{M}{N}$ である。評価エピソードも評価用データから同様に作成し、クエリ集合ごとの正解率を平均してモデルの評価とする。 ## 2.2 Few-shot テキスト分類モデル 本節では、Few-shotテキスト分類モデルの一般形について説明する。まず、サポート集合およびクエリ集合に含まれる文をそれぞれべクトル表現に変換する。 $S_{i}$ に属する文を $s_{i}^{p}(1 \leq p \leq K) 、 Q$ に属する文を $q_{j} \in Q$ 、文符号化器を $E(\cdot)$ とすると、文のべクトル表現 $\boldsymbol{s}_{i}^{p}$ および $\boldsymbol{q}_{j}$ は次のようになる。 図 1 提案する Few-shotテキスト分類モデルの全体図(赤色の部分が提案手法) $ \begin{aligned} & \boldsymbol{s}_{i}^{p}=E\left(s_{i}^{p}\right) \\ & \boldsymbol{q}_{j}=E\left(q_{j}\right) \end{aligned} $ 文の符号化には、再帰的ニューラルネットワーク [2] や畳み込みニューラルネットワーク [1]、BERT [3] など、任意の手法を適用する。 次に、同じラベルを持つ $K$ 文のベクトル表現からラベル表現を生成する。ラベル表現を生成する関数を $C(\cdot)$ とすると、ラベル表現 $\boldsymbol{l}_{i}$ は次のようになる。 $ l_{i}=C\left(s_{i}^{1}, s_{i}^{2}, \cdots, s_{i}^{K}\right) $ $C(\cdot)$ として、平均プーリングや最大プーリング等が用いられる。 最後に、 $\boldsymbol{l}_{i}$ と $\boldsymbol{q}_{j}$ の関連度を計算し、クエリ表現と最も関連度の高いラベル表現を選択することによってラベルを推定する。関連度を計算する関数を $R(\cdot)$ とすると、ラベルの確率分布は以下の式で計算できる。 $ p\left(i \mid \boldsymbol{l}_{1}, \cdots, \boldsymbol{l}_{N}, \boldsymbol{q}_{j}\right)=\frac{e^{R\left(\boldsymbol{l}_{i}, \boldsymbol{q}_{j}\right)}}{\sum_{p} e^{R\left(\boldsymbol{l}_{p}, \boldsymbol{q}_{j}\right)}} $ $R(\cdot)$ にはコサイン類似度等、任意の手法を適用する。分類の損失関数 $L_{c}$ には、負の対数尤度を用いる。 $ L_{c}=-\frac{1}{M} \sum_{i=1}^{M} \log p\left(y_{j}\right) $ ここで、 $y_{j}$ は $q_{j}$ に対応する真のラベルを表す。 ## 3 提案手法 図 1 亿提案手法の概要を示す。本手法は、2.2 節で述べた構成の Few-shotテキスト分類モデルに、3.1 節の相違点抽出器と 3.2 節の損失関数を導入するマルチタスク学習のアプローチである。相違点抽出器を用いてより分類が容易となるラベルの特徴量を抽出することで、意味的に近いラベルの分類を容易にし、分類精度を向上させる。 ## 3.1 相違点抽出器 相違点抽出器では、(3) 式で得たラベル表現 $\boldsymbol{l}_{i}$ を互いに比較し、各ラベルに固有の情報のみを持つラベル表現 $\hat{l}_{i}$ に修正する。ここで、ラベル $i$ に固有の情報を持つ理想的なべクトル表現 $\hat{l}_{i}$ は、 $\hat{l}_{j}(i \neq j)$ との相互情報量 $I\left(\hat{l}_{j} ; \hat{l}_{i}\right)$ が 0 となる、すなわち各ラベル表現が独立となる、と仮定する。ただし、クエリ $q_{i}$ に関して無関係な情報を抽出するのを防ぐため、ラベル表現とクエリ表現を同時に考慮する。具体的には、ラベル表現 $l_{1}, \cdots, l_{N}$ とクエリ表現 $q_{j}$ を以下の式を用いて変換する。 $ \begin{aligned} \boldsymbol{H}_{k} & =\operatorname{MultiHeadSelfAttention}\left(\boldsymbol{l}_{1}, \cdots, \boldsymbol{l}_{N}, \boldsymbol{q}_{j}\right) \\ \hat{\boldsymbol{l}}_{\boldsymbol{i}}^{j} & =\operatorname{GELU}\left(\boldsymbol{W}_{1} \boldsymbol{H}_{k, l_{i}}+\boldsymbol{b}_{1}\right) \boldsymbol{W}_{2}+\boldsymbol{b}_{2} \\ \hat{\boldsymbol{q}}_{j} & =\operatorname{GELU}\left(\boldsymbol{W}_{1} \boldsymbol{H}_{j, q_{j}}+\boldsymbol{b}_{1}\right) \boldsymbol{W}_{2}+\boldsymbol{b}_{2} \end{aligned} $ ここで、MultiHeadSelfAttention(.) は 1-layer 8-head の自己注意機構 [12] の出力であり、GELU($\cdot$) は活性化関数 [13] である。 $\boldsymbol{H}_{j, l_{i}} \in \mathbb{R}^{(N+1) \times d}$ は自己注意機構 の出力のうち、 $l_{i}$ に対応するべクトルを表す。 $d$ は入力ベクトルの次元数である。 ## 3.2 損失関数の設計 本研究では $L_{c}$ に加元、相違点抽出器が各ラベルに固有の情報のみを含むような制約を付加する損失関数 $\hat{L}$ を新たに定義する。 $ \hat{L}=\sum_{1 \leq i, j \leq N, i \neq j} I\left(\hat{\boldsymbol{l}}_{i}, \hat{\boldsymbol{l}}_{j}\right) $ 最終的な損失関数は次のようになる。 $ L=L_{c}+\beta \hat{L} $ ここで、 $\beta>0$ は $\hat{L}$ の重みである。 相互情報量 $I\left(\hat{l}_{i} ; \hat{l}_{j}\right)$ を直接計算するのは困難であるため、相互情報量の上界を最小化することで間接的に相互情報量を最小化する。具体的には、Cheng ら [14]に従い、以下を最小化する。 $ \begin{aligned} \hat{I}\left(\hat{\boldsymbol{l}}_{i} ; \hat{\boldsymbol{l}}_{j}\right) & =\sum_{a} R_{a} \\ R_{a} & =\left[\log p_{\theta}\left(\hat{\boldsymbol{l}}_{i}^{a} \mid \hat{\boldsymbol{l}}_{j}^{a}\right)-\frac{1}{|Q|} \sum_{b} \log p_{\theta}\left(\hat{\boldsymbol{l}}_{i}^{a} \mid \hat{\boldsymbol{l}}_{j}^{b}\right)\right] \end{aligned} $ ここで、 $p_{\theta}(\cdot)$ は、確率 $p\left(\hat{i}_{i}^{a} \mid \hat{l}_{j}^{a}\right)$ を、パラメータ $\theta$ のニューラルネットワークで近似した関数である。 ## 4 実験 本実験では、相違点抽出器および損失関数 $\hat{L}$ の有効性を検証する。 ## 4.1 実験設定 Bao ら [8] によって公開1)されている以下の $2 \supset の$ データセットを用いて実験する。  Huffpost 英語版ハフポストのタイトルから記事のカテゴリを推定するタスク。訓練用データ、検証用データ、評価用データには、それぞれ 20 種類、5 種類、 16 種類のラベルが含まれており、事例数はラベルごとに 900 である。 FewRel エンティティ間の関係を推定するタスク。訓練用データ、検証用データ、評価用データには、それぞれ 65 種類、 5 種類、 10 種類のラベルが含まれており、事例数はラベルごとに 700 である。 ベースラインとして、ProtoNet [4]を用いる。ただし、(1) 式および (2) 式の文の符号化には BERT [3] を使用し、(3) 式のラベル表現の生成には平均プー リングを用いる。提案手法として、ProtoNet + 相違点抽出器および ProtoNet + 相違点抽出器 $+\hat{L}$ を比較する。両者は共通のモデル構造だが、前者は 3.2 節の損失関数を用いず (5) 式の損失関数のみで訓練するものである。また、本実験設定において最高性能を達成している Bao ら [8] の手法とも比較する。 本実験では、全てのモデルを 5-Way 1-Shot の設定で訓練した。最適化アルゴリズムには Adam [15]を用いた。学習率は、1e-5, 3e-5, 5e-5 の中から、検証用データにおける正解率が最高の値を選択した。提案手法における (10) 式の重み $\beta$ は、1e-6, 1e-4, 1e-2, 1 の中から、同様に検証用データを用いて選択した。 ## 4.2 実験結果 実験結果を表 1 に示す。2)両データセットにおいて、提案手法はベースラインの性能を常に有意に改善した。また、 $\hat{L}$ を用いずに訓練した場合、常に性能が悪化することも確認した。以上の結果から、ラベルに固有の情報を抽出することは Few-shot テキス卜分類において有用であると言える。 2)[8] では ProtoNet より高い性能が報告されているが、BERT の fine-tuning 設定を調整した結果、ProtoNet が Bao らの手法を上回った。 表 2 1-Shot 設定での Way 数による性能変化 ## 4.3 性能上昇幅に関する分析 本節では、Way 数および Shot 数を変化させたときの性能の変化について分析する。表 1 において、Huffpost では 5-Way 1-Shot 設定で 1.3 ポイント、 10-Way 1-Shot 設定で 1.4 ポイントの改善が見られた。また、FewRel データセットにおいては 5-Way 1-Shot 設定で 0.4 ポイント、10-Way 1-Shot 設定で 2.1 ポイントの改善が見られた。これらの結果から、提案手法は Way 数が増加するにつれて有効性が増すと予想できる。これを検証するため、2-Way、 4-Way、6-Way、8-Way における ProtoNet および提案手法の性能の変化を調査した。表 2 および表 3 に、 FewRel データセットにおける実験結果を示す。なお、評価は 1-Shot および 5-Shot の設定で行った。 Way 数が増加するにつれて、提案手法による性能の上昇幅が増加する傾向があることが確認できる。つまり、提案手法は分類対象が多くなるにつれ有効性が高まると言える。これは、分類対象となるラベルが増加するにつれて、意味的に類似したラベルが出現する確率が高くなるためであると推測される。 また、1-Shot 設定と 5-Shot 設定を比較した結果、 10-Way 設定を除いて、提案手法による性能の上昇幅は 1-Shot 設定の方が大きい。事例数が少なくなるほど、文符号化器によって分類に有効なラベル表現を生成することが困難になる。提案手法はラベル間の意味的な違いを抽出するため、その利得は事例数が少ない場合においより顕著になると考える。 ## 5 関連研究 Few-shot 分類の先行研究は、距離学習を用いる手法とメタ学習を用いる手法の 2 つに大別できる。 距離学習を用いる Few-shot 分類モデルとしては、 ユークリッド距離で分類を行う手法 [4]、注意機構を用いてラベル表現を生成しコサイン類似度を基に分類を行う手法 [11]、ニューラルネットワークを用いて関連度を計算する手法 [16]、グラフニューラルネットワークを用いた手法 [17] などが存在する。表 3 5-Shot 設定での Way 数による性能変化 メタ学習を用いる手法では、数回のパラメータ更新で良好な汎化性能が得られるよう分類器のパラメータを生成する手法 [18]、パラメータ更新方法や学習率を学習する手法 $[19,20]$ 、勾配からパラメータ更新方法をニューラルネットワークを用いて決定する手法 [21-23] が存在する。 自然言語処理における Few-shot 分類でも、距離学習やメタ学習を用いる手法が提案されている。例えば、ベクトル表現の計算時にクエリとサポートを相互に参照する手法 [5] や、様々な粒度の注意機構を適用し、より分類が容易なべクトル表現の獲得を目指した手法 [6,7]、単語の共起パターンから注意スコアを計算する手法 [8] などが存在する。 これらの既存研究では、ラベル間の意味の違いを考慮しておらず、意味的に近いラベルを誤分類する恐れがある。本研究は、ラベル同士を比較して意味的な違いを考慮することで、この問題の解決を目指すものである。 ## 6 おわりに 本研究では、Few-shotテキスト分類モデルの性能改善に取り組んだ。既存手法ではラベル同士を明示的に比較しておらず、ラベル間の意味的な違いを陽に考慮することができなかった。このため、意味的に類似したラベルが出現すると意味の違いを把握できずに誤分類してしまう。これを解決するため、ラベル表現を比較し互いの相互情報量が低くなるようラベル表現を修正する手法を提案した。実験結果より、本手法はベースラインである ProtoNet を全ての設定で有意に上回ることが確認された。また、本手法は同時に分類するラベルの種類数が多くなるにつれてその有効性が高まることが確認された。 今後は、任意の Few-shotテキスト分類モデルに関する提案手法の有効性を調査する予定である。 ## 謝辞 本研究は JST (AIP-PRISM, 課題番号: JPMJCR18Y1)の支援を受けたものです。 ## 参考文献 [1] Yoon Kim. Convolutional Neural Networks for Sentence Classification. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp. 1746-1751, 2014. [2] Zichao Yang, Diyi Yang, Chris Dyer, Xiaodong He, Alex Smola, and Eduard Hovy. Hierarchical Attention Networks for Document Classification. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1480-1489, 2016. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, 2019. [4] Jake Snell, Kevin Swersky, and Richard Zemel. Prototypical Networks for Few-shot Learning. In Advances in Neural Information Processing Systems, Vol. 30, pp. 4077-4087, 2017. [5] Zhi-Xiu Ye and Zhen-Hua Ling. Multi-Level Matching and Aggregation Network for Few-Shot Relation Classification. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 28722881, 2019. [6] Shengli Sun, Qingfeng Sun, Kevin Zhou, and Tengchao Lv. Hierarchical Attention Prototypical Networks for FewShot Text Classification. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 476-485, 2019. [7] Tianyu Gao, Xu Han, Zhiyuan Liu, and Maosong Sun. Hybrid Attention-Based Prototypical Networks for Noisy Few-Shot Relation Classification. In Proceedings of the AAAI Conference on Artificial Intelligence, pp. 64076414, 2019. [8] Yujia Bao, Menghua Wu, Shiyu Chang, and Regina Barzilay. Few-shot Text Classification with Distributional Signatures. In Proceedings of the Eighth International Conference on Learning Representations, 2020. [9] Rishabh Misra. News Category Dataset, 2018. [10] Xu Han, Hao Zhu, Pengfei Yu, Ziyun Wang, Yuan Yao, Zhiyuan Liu, and Maosong Sun. FewRel: A Large-Scale Supervised Few-Shot Relation Classification Dataset with State-of-the-Art Evaluation. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 4803-4809, 2018. [11] Oriol Vinyals, Charles Blundell, Timothy Lillicrap, koray kavukcuoglu, and Daan Wierstra. Matching Networks for One Shot Learning. In Advances in Neural Information Processing Systems, Vol. 29, pp. 3630-3638, 2016. [12] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In Advances in Neural Information Processing Systems, Vol. 30, pp. 5998-6008, 2017. [13] Dan Hendrycks and Kevin Gimpel. Bridging Nonlinearities and Stochastic Regularizers with Gaussian Error Linear Units. CoRR, 2016. [14] Pengyu Cheng, Martin Renqiang Min, Dinghan Shen, Christopher Malon, Yizhe Zhang, Yitong Li, and Lawrence Carin. Improving Disentangled Text Representation Learning with Information-Theoretic Guidance. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7530-7541, 2020. [15] Diederik Kingma and Jimmy Ba. Adam: A Method for Stochastic Optimization. In Proceedings of the 3rd International Conference on Learning Representations, pp. 1-15, 2015. [16] Flood Sung, Yongxin Yang, Li Zhang, Tao Xiang, Philip H. S. Torr, and Timothy M. Hospedales. Learning to Compare: Relation Network for Few-Shot Learning. In Proceedings of the 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 1199-1208, 2018. [17] Victor Garcia Satorras and Joan Bruna Estrach. Few-Shot Learning with Graph Neural Networks. In Proceedings of the Sixth International Conference on Learning Representations, 2018. [18] Chelsea Finn, Pieter Abbeel, and Sergey Levine. ModelAgnostic Meta-Learning for Fast Adaptation of Deep Networks. In Proceedings of the 34th International Conference on Machine Learning, Vol. 70, pp. 1126-1135, 2017. [19] Zhenguo Li, Fengwei Zhou, Fei Chen, and Hang Li. MetaSGD: Learning to Learn Quickly for Few Shot Learning. CoRR, 2017. [20] Antreas Antoniou, Harrison Edwards, and Amos Storkey. How to train your MAML. In Proceedings of the Seventh International Conference on Learning Representations, 2019. [21] Marcin Andrychowicz, Misha Denil, Sergio Gómez, Matthew W Hoffman, David Pfau, Tom Schaul, Brendan Shillingford, and Nando de Freitas. Learning to learn by gradient descent by gradient descent. In Advances in Neural Information Processing Systems, Vol. 29, pp. 39813989, 2016. [22] Sachin Ravi and Hugo Larochelle. Optimization as a Model for Few-Shot Learning. In Proceedings of the Fifth International Conference on Learning Representations, 2017. [23] Ke Li and Jitendra Malik. Learning to Optimize. In Proceedings of the Fourth International Conference on Learning Representations, 2016.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C1-3.pdf
# 自然言語処理技術による SDGs 関連特許技術の「見える化」 前原 義明久々宇 篤志喜部 一般財団法人 日本特許情報機構 \{yoshiaki_maehara, atsushi_kuku, yoshiyuki_osabe\}@ japio.or.jp ## 1 はじめに SDGs とは「Sustainable Development Goals (持続可能な開発目標)」の略称であり,2015 年 9 月の国連サミットで採択された,国連加盟 193 力国が 2016 年から 2030 年の 15 年間で達成するために掲げた目標である [1].SDGs は以下の通り,17 の大きな目標と,光れらを達成するための具体的な 169 のターゲットで構成されている。 图 1 持続可能な開発目標 機械学習を用いたSDGs 関連の文章分類についてはいくつかの先行研究があるものの ( [2], [3]), 特許文献をSDGs の観点から分類した先行研究は,今まで存在しなかった.すなわち,SDGsの実現には技術イノベーションが不可欠であるものの, 現状では SDGs 関連技術がどこ (国や企業) にどの程度あるのか不明であった [4] . 本研究では,自然言語処理技術である BERT [5],及び, 日本特許情報機構 (以下、「弊機構」という) が所有する日本国特許公報を用いて,我が国におけるSDGs 技術の「見える化」について取り組んだ . ## 2 分析手法 ## 2.1 解析モデル 本研究においては,機械学習モデルとして BERT を採用した.BERT とはマスク語予測 (Masked Language Model) と次文予測 (Next Sentence Prediction) という 2 つのタスクでトレーニングされた, 双方向性を持つ Transformer であり, 感情分析や文章分類等の特定タスクに応用した場合に,少ないコーパスで非常に高い精度が達成できるのが特徵である。 本研究においては, まず, 東北大学か開発・配布している日本語 BERT [6]の最下層に 17 クラスの分類層を追加することによってモデルを作成した . なお,タスクはシングルラベルタスクとし,最終層の出力は Softmax 関数で正規化されている. ## 2.2 訓練データ 本研究では,BERT を用いるため,訓練データとなるコーパスのサイズは光れほど大きくなくてもよい.光のため,目視で収集した各 SDGs に関連する約 150 個の文章を訓練データとして採用した . ## 2.3 分析データ 弊機構が所有する日本国特許公報に対して分析を行った。なお,東北大学が配布する日本語 BERT モデルの入力層は入力トークン列が 512 と固定されているため特許の特徴が現出しやすい「発明の課題」 についての記載がある箇所を,部分選択的に BERT に読み込ませた。 ## 2.4 訓練及び分析対象 交差エントロピーを損失関数とし,100 エポック訓練を行ったモデルで分析を行った . Softmax で正規化された各ラベル (ゴール) の推定確率のうち,最も確率が高かったラベルを光の特許文献のラベルとして採用した . 訓練後におけるモデルの精度検証は,交差検証(クロスバリデーション)ではなく,訓練データ自身の精度をみたがラベル正解率 $100 \%$ であった。 ## 3 結果及び考察 2010 年以降に出願された特許出願の特許公報の全てにラベルを付与した結果, SDGs のラベルは図 2 に示す分布で付与された。 図 22010 年以降に出願された日本国特許公報に付与された SDGs ラベル (縦軸) の分布 (件数) この結果から,17 個ある SDGs ゴールのうち, 特許が貢献できるものは, 目標 2 (飢餓をゼロに), 目標 3 (すべての人に健康と福祉を), 目標 6 (安全な水とトイレを世界中に), 目標7 (エネルギーをみんなに光してクリーンに), 目標9(産業と技術革新の基盤をつくろう), 目標 11 (住み続けられるまちづくりを),目標 13 (気候変動に具体的な対策を) であることがわかった .これは, WIPO (世界知的所有権機関) によって,特許が寄与できる SDGs のゴー ルとして挙げていたもの [7]とおおむね整合するも のである. また, 各目標に対応する特許として抽出されたものをサンプル的に抽出すると,表 1 の通りになる. 表 1 各SDGs に対応する特許文献の例 \\ \\ そして,モデルの推定精度を検証するために,各ゴールにつき,Softmax で正規化された推定值が高い順に 100 件, 目視で推定が正解かどうか確認を行つた. 目標 $2 , 3 , 6 , 7 , 8 , 9 , 11$ については,推定値が高いものについては問題なく推定できていた.しかし, 目標1 (貧困をなく光う), 等の科学技術が設定する課題として光ぐわないものについては,推定度が高いものであってもほとんどがノイズであった.また,目標4(質の高い教育をみんなに)については,「学習」という単語に引きずられて,機械学習に関する特許文献がノイズとして混入していた。 また,目標13についても,「温度」という単語に引きずられたためか、空気調和機に関する特許文献が多数混入していた。 今後はコーパスを増強するか,モデルに特許ドメインに特化した BERT を用いるなどして, 分類精度の向上を図っていきたい. ## 参考文献 1. United Nations. THE 17 GOALS. (オンライン) (引用日: 2020 年 12 月 24 日.) https://sdgs.un.org/goals. 2. 張金盖. SDGs 日本語データセット及び分類タスクベースラインの作成. 出版地不明 : 一般社団法人人工知能学会, 2020. 3. MedinaRodríguezSamuel. Multi-Label Text Classification with Transfer Learning for Policy Documents. 出版地不明 : UPPSALA UNIVERSITET, 2019. 4. 日本経済新聞社. 国連の開発目標と知財関連技術、特許で可視化を. 2018 年. 5. DevlinJacob. Pre-training of Deep Bidirectional Transformers for Language Understanding. 出版地不明 : arXiv, 2018. 6. 東北大学乾・鈴木研究室. Pretrained Japanese BERT models released / 日本語 BERT モデル公開. (オンライン) 2019 年 12 月 13 日. (引用日: 2020 年 12 月 24 日.) https://www.nlp.ecei.tohoku.ac.jp/newsrelease/3284/ 7. WIPO. The Impact of Innovation: WIPO and the Sustainable Development Goals. (オンライン) (引用日: 2020 年 12 月 24 日.) https://www.wipo.int/sdgs/en/story.html.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C1-4.pdf
# 高速・高精度検索のための勾配推定手法を用いた 擬似スパースベクトルの学習法 長谷川拓西田京介加来宗一郎吉田仙 日本電信電話株式会社 NTTメディアインテリジェンス研究所 taku.hasegawa.ps@hco.ntt.co.jp ## 1 はじめに 深層学習技術の発展により, ニューラルネットワーク(NN)を用いた検索モデルの有効性について数多く報告されている [1]. 近年では,BERT [2]をはじめとする事前学習モデルの利用により従来技術を大きく上回る精度で検索が可能となってきた [3]. しかし,大規模検索においては,[3] の様にクエリと文書を併せて NNに入力する方式では,検索対象の文書数分の計算が検索のたびに必要となるため,検索速度の観点から実用的でない. そこで,クエリと文書を独立に NN で密べクトルにエンコードして,最大内積探索(MIPS)により検索する方式が近年では盛んに研究されている [4]. MIPS は高速な検索を可能にするが,MIPS のインデックスを構築するための計算時間が膨大となる課題が残る. そこで我々は,クエリと文書を独立にスパースベクトルにエンコードし,転置インデックスを利用可能にすることでインデックスの構築および検索の両方を高速に行うことを目指す. 本研究では,長谷川らにより提案された $\alpha$-SVS [5] の拡張に取り組む. $\alpha$-SVS ではベクトルの各次元に対し,ミニバッチにおける絶対値の大きさの上位 $100 \alpha \%$ 值が小さな要素を 0 として得た擬似的なスパースベクトルを用いて損失を計算するが,離散的な forward 計算(top- $\alpha$ )の勾配が不安定となる問題があった. 本研究では, 離散 forward 関数の偏微分の線形補間により擬似的な勾配を推定する手法を導入することでこの問題を解決する.大規模コーパスである MS MARCO を用いた数値実験により,従来の $\alpha$-SVS に比べ性能が向上したことを示す. ## 2 定義 本研究で取り組む情報検索と関連する用語について定義する.定義 1 (擬似スパースベクトル). $k$ 番目のベクトルを $v^{k}=\left[v_{1}^{k}, \ldots, v_{D}^{k}\right]^{\top} \in \mathbb{R}^{D}$ とする. $v^{k}$ の擬似スパースベクトルの $i$ 次元目を以下で定義する. $ f\left(v_{i}^{k} \mid \theta_{i}\right)= \begin{cases}v_{i}^{k} & v_{i}^{k}>\theta_{i} \\ 0 & \text { otherwise }\end{cases} $ ここで $\theta_{i}$ は $i$ 次元目の間値である. 定義 2 (擬似スパースベクトルを用いた転置インデックス). 擬似スパースベクトルを用いた転置辞書を表現べクトルの各次元を潜在単語とみなし,次元番号の集合 $\{1,2, \ldots, D\}$ から $X^{p} \times \mathbb{R}_{>0}$ の部分集合の族への写像として定義する。ここで,インデックス $i$ の像は文書とその文書とクエリの関連度スコアの部分集合 $\left.\{\left(x^{\mathrm{p}_{k}}, v_{i}^{k}\right) \mid k=1, \ldots, K, v_{i}^{k} \neq 0\right.\}$ である. ## $3 \alpha$-SVS 高次元のスパースベクトルを作ることにより,特徵べクトルを擬似的に潜在単語とみなして転置インデックスを作成する手法 [6] がこれまで提案されてきたが,単純にL1ノルムを最小化する方法では, ベクトルが部分空間に偏る問題があった. 長谷川らはこの問題を解決するために top- $\alpha$ 学習とこれを導入した検索モデル $\alpha$-SVS を提案している [5]. 図 1 に $\alpha$-SVS のアーキテクチャを示す. ## 3.1 文脈埋め込み層 文脈埋め达み層の出力は $H=\operatorname{BERT}(X)$ として得られる.ここで, 入力系列 $X$ は, $ X=\left([\mathrm{CLS}], x_{1}, x_{2}, \ldots,[\mathrm{SEP}]\right) $ とし, $\{x\}$ はクエリ $x^{q}$ あるいは文書 $x^{p_{k}}$ のトークナイズされたサブワード系列である. BERT はクエリと文書に対して共有される。 図 $1 \alpha$-SVS のアーキテクチャ. 左図:訓練時のモデル。 $\alpha$-擬似スパースベクトルはクエリ,正例,負例のペアワイズで学習される. 右図 : 検索時のモデル。 $\alpha$-擬似スパースベクトルで作成した転置辞書を用いてクエリと文書の内積で関連度スコアが算出される。 ## 3.2 ベクトル出力層 ベクトル出力層は BERT の出力 $H$ の [CLS]トークンに対応する $h_{0}$ を入力とし,全結合層 2 層と ReLU で高次元空間に写像した $v \in \mathbb{R}^{D}$ が出力となる. さらに,出力べクトルの L2ノルムが 1 となるように正規化を行い,超球面上で最適化を行う。 $ v^{\prime}=\operatorname{ReLU}\left(W_{2} \operatorname{ReLU}\left(W_{1} h_{0}+b_{1}\right)+b_{2}\right), \quad v=\frac{v^{\prime}}{\left.\|v^{\prime}\right.\|_{2}} $ $W_{2} \in \mathbb{R}^{D \times D_{\text {hid }}}, W_{1} \in \mathbb{R}^{D_{\text {hid }} \times 768}, b_{2} \in \mathbb{R}^{D}$ および $b_{1} \in$ ## $3.3 \alpha$-擬似スパースベクトル $\alpha$-SVS は得られたべクトル集合に対し,各次元の値の絶対値の大きさ上位 $100 \alpha \%$ で閾値 $\theta_{i}$ (式 1)を決め,值が小さな要素を 0 とみなし $\alpha$-擬似スパースベクトルを得る. 数式による定義は付録 4 に記載した.この $\alpha$-擬似スパースベクトルを用いて損失関数を計算して学習する方法を top- $\alpha$ 学習と呼ぶ. また,検索時と学習時の上位 $100 \alpha \%$ の閾値はそれぞれ異なるべクトル集合から計算され,クエリと文書でもそれぞれ独立で閾値を計算する。訓練時の $\alpha$ は文書,クエリそれぞれ $\alpha_{\mathrm{p}}, \alpha_{\mathrm{q}}$ と表し, 検索時はそれぞれ $\alpha_{\mathrm{p}}^{\prime}, \alpha_{\mathrm{q}}^{\prime}$ と表すこととする. 訓練時の $\alpha$-擬似スパースベクトル各ミニバッチでの与えられたクエリと文書のベクトル集合を $V_{i}^{\mathrm{q}}$ と $V_{i}^{\mathrm{p}}$ とする。 $\alpha$-擬似スパースベクトルは $\alpha_{\mathrm{p}}, \alpha_{\mathrm{q}}$ を用いて以下のように計算される. $ f_{\mathrm{q}}\left(v_{i}^{\mathrm{q}}\right)= \begin{cases}v_{i}^{\mathrm{q}} & v_{i}^{\mathrm{q}}>\operatorname{top}\left(V_{i}^{\mathrm{q}} \mid \alpha_{\mathrm{q}}\right) \\ 0 & \text { otherwise }\end{cases} $ $ f_{\mathrm{p}}\left(v_{i}^{\mathrm{p}}\right)= \begin{cases}v_{i}^{\mathrm{p}} & v_{i}^{\mathrm{p}}>\operatorname{top}\left(V_{i}^{\mathrm{p}} \mid \alpha_{\mathrm{p}}\right) \\ 0 & \text { otherwise }\end{cases} $ ここで, $\alpha_{\mathrm{p}}=\alpha_{\mathrm{q}}=1$ の場合,密ベクトルによる学習と等価となる. 検索時の $\alpha$-擬似スパースベクトル検索時においては検索精度を保証できるような上位 $\alpha_{\mathrm{q}}^{\prime}$ を計算するのに十分なクエリ数が常に得られるとは限らない. ゆえに, $\alpha$-SVS では,クエリについては訓練データのクエリ集合を用いて $\operatorname{top}\left(V_{i}^{\mathrm{q}} \mid \alpha_{\mathrm{q}}^{\prime}\right)$ を計算し,文書については検索対象となる全ての文書集合から $\operatorname{top}\left(V_{i}^{\mathrm{p}} \mid \alpha_{\mathrm{p}^{\prime}}^{\prime}\right)$ を計算する. ## 3.4 損失関数 $\alpha$-SVS ではペアワイズランキング学習を行う.訓練データとして $\mathscr{D}=\left.\{\left(x_{i}^{\mathrm{q}}, x_{i}^{\mathrm{p}_{1}}, x_{i}^{\mathrm{p}_{2}}\right) \mid i=1, \ldots, N\right.\}$ を与える. ここで $x_{i}^{\mathrm{p}_{1}}$ はクエリの正例文書, $x_{i}^{\mathrm{p}_{2}}$ は負例文書である. $i$ 番目の訓練サンプルに対するヒンジロス $L_{i}$ は $\alpha$-擬似スパースベクトルで計算した内積を用いて以下で定義される。 $ L_{i}=\max \left.\{0, \epsilon-\left(f_{\mathrm{q}}\left(v_{i}^{\mathrm{q}}\right) \cdot f_{\mathrm{p}}\left(v_{i}^{\mathrm{p}_{1}}\right)-f_{\mathrm{q}}\left(v_{i}^{\mathrm{q}}\right) \cdot f_{\mathrm{p}}\left(v_{i}^{\mathrm{p}_{2}}\right)\right)\right.\} $ ここで $\epsilon$ はヒンジロスのマージンを決定するハイパーパラメータである. ## 3.5 単一モデルでの 2 段階検索 $\alpha$-擬似スパースベクトルは大規模検索で有用であるが,文書数が膨大な場合においては非常に小さい $\alpha$ を設定する必要がある.この場合 $v$ で得られる関 連度スコアに対しての近似精度は落ちてしまうため, $\alpha$-SVS では検索時に同じモデルを用いて 2 段階に検索を行う。 1 段階目は $\alpha$-擬似スパースベクトルの内積で計算した関連度が上位 $k$ 件の文書を選ぶ. 2 段回目では $\alpha$-擬似スパースベクトルを作成する前の元のべクトル $v$ を用いて内積で関連度スコアを計算し, 最終的な関連文書のランキングを得る. 従来では 2 段階検索と呼ばれる場合 2 つの検索モデルを用いて行われるが, $\alpha$-SVS では単一のモデルで 2 段階検索を行うため,2 段回目の検索時ではクエリや文書をモデルに入力する必要がなく高速に計算可能である. ## 4 提案手法 前節で述べた $\alpha$-SVS の学習をより精度良くするために,本論文では擬似勾配推定手法を導入する。擬似勾配推定手法はモデルの軽量化のためにモデルの低ビット化の際によく用いられる手法であり [7],離散的な forward 計算が含まれるネットワークの学習を効果的に行うために用いられる。 ## 4.1 top- $\alpha$ 学習中における勾配 top- $\alpha$ 学習の forward 計算のうち, 式 1 で定義されている関数 $f$ は偏微分を行うと $ \frac{\partial f}{\partial v_{i}^{k}}\left(v_{i}^{k} \mid \theta_{i}\right)= \begin{cases}1 & v_{i}^{k}>\theta_{i} \\ 0 & \text { otherwise }\end{cases} $ となる. ただし $\theta_{i}=t o p\left(V_{i} \mid \alpha\right)$ である. top- $\alpha$ 学習では, ミニバッチ内の他の要素次第で同じ文書べクトルであっても top- $\alpha$ に含まれる場合と含まれない場合が存在しうる. 式 7 で誤差逆伝搬法を用いて学習を行った場合、top- $\alpha$ に含まれなかった次元は誤差が伝搬されず $V_{i}$ の選ばれ方に大きく影響を受ける. モデルの初期値にも依存するため,この不確定性は学習過程に影響を与えうる. ## 4.2 top- $\alpha$ 学習中の勾配推定 本論文では偏微分した関数を線形補完することにより,ミニバッチで選ばれる $V_{i}$ の影響を軽減する手法を提案する. 式 7 で示した top- $\alpha$ 学習での backward で用いられる関数を,以下の式で置き換えることにより勾配推定手法を導入する。 $ \frac{\partial g}{\partial v_{i}^{k}}\left(v_{i}^{k} \mid \theta_{i}, \theta_{i}^{\prime}\right)= \begin{cases}1 & v_{i}^{k}>\theta_{i} \\ \frac{1}{\theta_{i}-\theta_{i}^{\prime}} v_{i}^{k}-\frac{\theta_{i}^{\prime}}{\theta_{i}-\theta_{i}^{\prime}} & \theta_{i}^{\prime}<v_{i}^{k} \leq \theta_{i} \\ 0 & v_{i}^{k} \leq \theta_{i}^{\prime}\end{cases} $ 図 2 勾配推定の backward 関数 ここで, $\theta_{i}^{\prime}$ は $\theta_{i}^{\prime} \leq \theta_{i}$ を満たす. 図 2 に従来手法および提案手法で用いられる関数を示す. ここで注意すべきは $\theta_{i}=t o p\left(V_{i} \mid \alpha\right)$ であり,$V_{i}$ が与えられてから決定されるため, 毎回異なる値をとる. $\theta_{i}^{\prime}$ も同様に決定される必要があるため, 本研究では下記の 2 通りの方法で $\theta_{i}^{\prime}$ を決定した。 1. $V_{i}$ の最大値を用いた閾値. $ \theta_{i}^{\prime}=2 \operatorname{top}\left(V_{i} \mid \alpha\right)-\max V_{i} $ 2. top- $k \alpha$ を用いた閾値. $ \theta_{i}^{\prime}=\operatorname{top}\left(V_{i} \mid k \alpha\right) $ 以後,本論文では 1 を用いたモデルを $\alpha-\mathrm{SVS}_{\text {max }}$ , 2 を用いたモデルを $\alpha-\mathrm{SVS}_{\mathrm{k} \alpha}$ とする. ## 5 評価実験 ## 5.1 実験設定 MS MARCO 2.1 [9] の Passage and Document Retrieval タスクにより実験を行った。データの詳細および学習設定については付録 A. 2 に記載した. 比較対象として,クエリから答えとなる文書を事前学習モデル T5 [10]を用いて予測し転置辞書によりキーワード検索を行う手法である docTTTTTquery [8] およびパッセージおよび文書レベルの単語重みをニューラルネットを用いて計算し,これらを利用しキーワード検索を行う手法 DeepCT [11,12]を用いた。 ## 5.2 勾配推定手法の効果に関する評価 $\alpha$-SVS および勾配推定手法を導入した $\alpha$-SVS のランキング精度および検索速度について評価し比較した. 表 1 に実験結果を示す. MSMARCO のリーダー ボードでの評価指標として採用されているMRR @ 表 1 MSMARCO パッセージ検索タスクにおける検索精度の結果. 比較手法の結果は文献 [8] から引用. & & & \\ 図 32 種類の勾配推定手法の 2 つの閾値とその差の推移. 10 では提案手法の $\alpha-\mathrm{SVS}_{\max }$ が最も良い結果となった. ただし docTTTTTquery や DeepCT と比べ Recall は低く,R@1000についてはBM25にも劣っている。 このことから $\alpha$-SVS は関連文書を大量の文書から上位にランキングする能力には長けているが,一部検索漏れを起こしうるということがわかった.特にこの問題は勾配推定手法を用いたとしても大きくは改善されず,さらに勾配推定手法を導入した $\alpha$-SVS は従来の手法にくらべて僅かながら recall が下がっている箇所が見られる.よって勾配推定手法を導入した場合,上位のランキング精度は向上するが, Recallへの貢献はみられず,劣化する可能性もあることがわかった. この問題への取り組みは今後の課題である. 一方で, docTTTTTquery で得られた結果と $\alpha$-SVS で得られた結果を半分ずつ合わせた結果である docTTTTTquery $+\alpha$-SVS の R @ 100 および $\mathrm{R} @ 1000$ の結果は docTTTTTquery と比較しても最も良い結果であった. この結果から, $\alpha$-SVS は他の手法では検索漏れを起こしうるパッセージを検索することが可能であることがわかり, $\alpha$-SVS の有用性が示された。 ## 5.32 つの勾配推定手法の比較 2つの勾配推定の手法を比較するために学習中の $\theta$ および $\theta^{\prime}$ の推移を調べた. 図 3 に結果を示す.この結果から $\alpha-\mathrm{SVS}_{\text {max }}$ は $\alpha-\mathrm{SVS}_{2 \alpha}$ に比べ各次元の値の上位 $100 \alpha \%$ の間値が高くなりやすい傾向があり,学習が進むにつれ線形補完される区間が大きくなりやすい傾向があることがわかった. これはあるべクトルは特定の次元に大きい值を持ちやすいことを示しており, $\alpha$-SVS の出力は L2ノルムが 1 であることから, $\alpha-\mathrm{SVS}_{\max }$ の方がよりスパース性の高いべクトルが得られやすい傾向にあることがわかった. ## 6 おわりに 本研究では大規模検索モデル $\alpha$-SVS の学習をより促進するための勾配推定手法を提案し,MS MARCO 2.1 の passage ranking タスクにおいて従来手法を上回る性能を達成した。 従来の $\alpha$-SVS ではランダムに選ばれるバッチ内での値の上位で閾値決まるため,学習の安定性に欠けるという問題があった. 本研究では,勾配推定手法を導入することによりバッチによる閾値の摇らぎを考慮してより効率の良い学習を実現した。 ## 参考文献 [1] Bhaskar Mitra and Nick Craswell. An introduction to neural information retrieval. Foundations and Trends in Information Retrieval, Vol. 13, No. 1, pp. 1-126, 2018. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. In NAACL, pp. 4171-4186, 2019. [3] Rodrigo Nogueira and Kyunghyun Cho. Passage re-ranking with BERT. 2019. arXiv:1901.04085. [4] Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick S. H. Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, and Wen-tau Yih. Dense passage retrieval for open-domain question answering. In EMNLP, pp. 6769-6781, 2020. [5] 長谷川拓, 西田京介, 加来宗一郎, 富田準二. 高速な情報検索に向けた文脈考慮型スパース文書ベクトルの獲得. 人工知能学会全国大会論文集, Vol. 2020, pp. 4Rin145-4Rin145, 2020. [6] Hamed Zamani, Mostafa Dehghani, W. Bruce Croft, Erik G. Learned-Miller, and Jaap Kamps. From neural re-ranking to neural ranking: Learning a sparse representation for inverted indexing. In CIKM, pp. 497-506, 2018. [7] Zechun Liu, Baoyuan Wu, Wenhan Luo, Xin Yang, Wei Liu, and Kwang-Ting Cheng. Bi-real net: Enhancing the performance of 1-bit cnns with improved representational capability and advanced training algorithm. In Proceedings of the European Conference on Computer Vision (ECCV), September 2018. [8] Rodrigo Nogueira and Jimmy Lin. From doc2query to docttttquery. https: //cs. uwaterloo.ca/ jimmylin/publications/ Nogueira_Lin_2019_docTTTTTquery-v2.pdf, 2019. [9] Payal Bajaj, Daniel Campos, Nick Craswell, Li Deng, Jianfeng Gao, Xiaodong Liu, Rangan Majumder, Andrew McNamara, Bhaskar Mitra, Tri Nguyen, Mir Rosenberg, Xia Song, Alina Stoica, Saurabh Tiwary, and Tong Wang. MS MARCO: A human generated machine reading comprehension dataset. 2018. arXiv:1611.09268v3. Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. CoRR, Vol. abs/1910.10683, , 2019. [11] Zhuyun Dai and Jamie Callan. Context-aware sentence/passage term importance estimation for first stage retrieval. CoRR, Vol. abs/1910.10687, , 2019. [12] Zhuyun Dai and Jamie Callan. An evaluation of weakly-supervised deepct in the trec 2019 deep learning track. In TREC, 2019. [13] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In ICLR, 2015. ## A 付録 ## A. 1 定義 定義 3 ( 2 段階検索タスク). クエリ $x^{\mathrm{q}}$ と $K$ 個の文書 $X^{\mathrm{P}}=\left.\{x^{\mathrm{p}_{k}} \mid k=1, \ldots, K\right.\}$ が入力として与えられ、初めにモデルは $X^{\mathrm{p}}$ からクエリと関連する $T_{1}$ 個の文書の順序集合を返す. 次にモデルは先の $T_{1}$ 件の文書をリランキングし, $T_{2}$ 個のクエリに関連する文書の順序集合を返す。ただし,順序集合とはクエリと文書の関連度によって順序づけられた集合である。 定義 4 ( $\alpha$-擬似スパースベクトル). ベクトル集合の $i$ 番目の要素の集合 $V_{i}$ を $V_{i}=\left.\{v_{i}^{k} \mid k=1, \ldots,\right.\}$ とする. $\alpha$-擬似スパースベクトル $v^{k}$ の $i$ 次元目は $ f^{\prime}\left(v_{i}^{k}, V_{i} \mid \alpha\right)= \begin{cases}v_{i}^{k} & v_{i}^{k}>\operatorname{top}\left(V_{i} \mid \alpha\right) \\ 0 & (\text { otherwise })\end{cases} $ ここで,top $(\cdot \mid \alpha)$ は与えられた集合の上位 $100 \alpha \%$ の閾値を返す関数である. ## A. 2 実験設定の詳細 ## データセット.MS MARCO 2.1 [9] の Passage and Document Retrieval タスクにより実験を行った.本タスクでは ReRanking と Full Ranking が Passage 単位,Document 単位それぞれで存在しており,本実験では Passage Rankingを用いて評価を行った. ReRanking タスクではあらかじめ BM25 を用いて絞り込まれた上位 1000 件の passage が与えられているが,Full Ranking では約 880 万件の検索対象文書から検索を行うことが求められる. ランキング指標としては Mean Reciprocal Rank (MRR) Craswell09a が用いられている。 学習用設定. Train Triples Small セットを用いて,バッチサイズ 100,エポック数 1 とし, 4 枚の NVIDIA Tesla V100 GPU により学習した. 最適化には Adam [13] を用い, $\beta_{1}=0.9, \beta_{2}=0.999, \epsilon=10^{-8}$ とした. モデルパラメータは 0 で初期化したバイアスを除き, $N(0,0.02)$ で初期化した. 学習率は $1 \times 10^{-6}$ とし, 学習の半分までは 0 から線形で増加させ,最終ステップで $9 \times 10^{-7}$ になるように線形に減衰させた. 勾配は最大ノルム 1 でクリッピングした. BERT は base モデル(768 次元)を利用し, 2 層の出力層の中間層の次元数は 1000 , 最終層(スパー スベクトル v)の次元数 $D$ は 30000 とした. hinge loss のマージン $\epsilon$ は 1.0 とした. トークナイズには表 2 MS MARCO 2.1 の passage ranking のデータの詳細. BERT Wordpiece トークナイザ1)(語彙数 $30 \mathrm{~K}$ )を用いた. top $\alpha$ 学習のためのハイパーパラメータとして $\alpha_{\mathrm{q}}=0.1 \%$ とした. また,バッチサイズ 100 とした場合,バッチ内で上位 $\alpha \%$ を計算すると閾值がバッチ内のデータに強く依存しすぎるため,計算を安定させるために現在のステップを含め過去 20 ステップ分の訓練データのベクトルを保存しておき,これらを合わせて用いることで top $\alpha$ の閾値を安定させた. ここで,現在のステップを除く 19 ステップ分のデータについては閾値の決定にのみ用い,計算グラフは保持せずパラメータの更新は行わないものとした. 
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C2-1.pdf
# ベイジアンネットを用いた袋小路文読解モデル 高橋直人 産業技術総合研究所人工知能研究センター naoto.takahashi@aist.go.jp 竹内泉 産業技術総合研究所人工知能研究センター takeuti@ni.aist.go.jp 一杉裕志 産業技術総合研究所人工知能研究センター y-ichisugi@aist.go.jp ## 1 はじめに 袋小路文(garden path sentences)[1] とは、文法的に正しく、かつ比較的単純な構造をしているにもかかわらず、人間にとって読解が困難な一連の文を指す.たとえば Fat people eat accumulates. という文を初めて目にしたとき、多くの人は “fat people” (太った人々) を文の主語、eat(食べる)を学の動詞と捉えるので、次に来る accumulates(動詞「蓄積する」の 3 人称単数現在形 $)$ に惑うことになる。 この現象は、人間が自然言語を理解するときは文の終了を待たず、先頭から漸進的に解析を進めているという主張を支持する,光れと同時に、人間は自然言語の理解に際して並列解析もバックトラックも苦手であることを示している. 最初の 3 語が入力された時点で統語構造を仮定してしまうため、4 語目が来たときに全体を再構成することができず、結果として文の解析に失敗するというわけである. 一方で、もし適切な文脈が与えられれば、袋小路文は容易に解釈できることが知られている。たとえば Carbohydrates that people eat are quickly broken down, but fat people eat accumulates. と書かれていれば、fat は脂肪という意味の名詞であり、people eat は光れを修飾する関係節で先頭の that あるいは which が省略されているとわかるので、文の後半は「人々が食べるところの脂肪は蓄積する」 という意味であると解釈できる. (S (NP (NP carbohydrates) (SBAR (WHNP that) (S/NP (NP people) $($ (VP/NP eat)))) (VP are quickly broken down)) 図 1 "carbohydrates that people eat are quickly broken down" の統語解析例 . 表示に用いた文法範疇は基本的に Penn Treebank 方式 [3] に準拠しているが、空範疇を消去し、スラッシュ記号を用いた組合せ範疇文法 [4] 風の記法で置き換えている。 文脈によってこの解釈が可能になるのは、文の前半が概略図 1 のように統語解析され、爫の結果として以下の効果が生じるためだと我々は考えている。 1. 単語 fat は「太った」という意味の形容詞とも、「脂肪」という意味の名詞とも解釈できる。特定の文脈がない場合は前者の解釈が優位となっているが、carbohydrates (炭水化物) という名詞が出現すると語彙プライミング効果 [2] が生じ、炎の結果として意味的に関係の強い「脂肪」の解釈が優先されるようになる. 2. 文の前半に “that people eat” という明示的な関係節 (SBAR) が登場することによって、後半の “people eat” の部分か関係節であると認識されやすくなる. 人間は上記のような言語情報処理を大脳皮質の言語野で行っていると考えられるが、近年の計算論的神経科学の研究によると、大脳皮質はベイジアンネット的な計算をしている可能性が高い $[5,6]$. もし実際に乥うであるならば、上に掲げた袋小路文の読解過程を、ベイジアンネットを用いてモデル化す ることが可能なはずである.以下では关のような計算心理言語学的モデルの構築を試みる。 ## 2 統語解析用ベイジアンネット 前述の通り、人間が自然言語を理解するときは文の終了を待たず、先頭から漸進的に解析を進めていると考えられる.ただし、1語読む毎に部分木を順次一意に決定するのではなく、ある程度の先読みが可能とされている [7]. 光こで本節では、“fat people eat accumulates” という 4 語文の先頭 3 語までを同時に入力した状態をベイジアンネットでモデル化することを考える。 統語解析用の文法がチョムスキー標準形の文脈自由文法で与えられるという条件の下で、光のようなベイジアンネットをナイーブに実装した例を図 2 に示す. Nii のように二つの添字番号が等しいノードは、 $\mathrm{i}$ 番目の入力語に対応する. 一方 $\mathrm{Nij}$ のように二つの添字番号が異なるノードは、 $\mathrm{i}$ 番目の入力語から $\mathrm{j}$ 番目の入力語までを結合した文法範疇に対応する.これらのノードが取り得る值は、乥れ光れの位置において適用可能な生成規則である ${ }^{11}$. すなわち $\mathrm{i}<\mathrm{j}, \mathrm{i} \leq \mathrm{k} \leq \mathrm{j}$ としたときに $\mathrm{Nij}$ が取り得る値は、右辺第 1 項が Nik の左辺、右辺第 2 項が $\mathrm{Nkj}$ の左辺となる生成規則である。 生成規則の一覧を表 1 に、各ノードの条件付き確率表を表 2 から表 7 に示す.たただし、表 2 と表 6 に示した数値は一例に過ぎない、なお、生じる確率が 0 となる生成規則、および当該ノードの值が void (適用可能規則なし) となる場合に関しては、条件付き確率表内での記述を省略してある。 また、図 2 中の $\mathrm{Nc}$ は特別なノードで、入力文内における文法範疇を示すのではなく、適切な先行文脈の有無を示す. 適切な先行文脈がある場合は、 ノード N11 において fat を「脂肪」と解釈する確率、 およびノード N23 において “people eat”を関係節と解釈する確率が上昇する。 $\mathrm{Nc}$ の値は事前確率によって決まるのではなく、実験者が計算を行う際に決定するものである.したがって、表 2 内に表現されている $ \begin{aligned} & \mathrm{p}(\mathrm{N} 11=\text { "JJ } \rightarrow \text { fat" } \mid \mathrm{Nc}=\mathrm{no})=0.7 \\ & \mathrm{p}(\mathrm{N} 11=\text { "NP } \rightarrow \text { fat" } \mid \mathrm{Nc}=\mathrm{no})=0.3 \end{aligned} $ とは、「実験者が $\mathrm{Nc}=\mathrm{no}$ と決定したときは、 $\mathrm{N} 11=$ “JJ $\rightarrow$ fat" となる事前確率が 0.7 で、 $\mathrm{N} 11=$ "NP $\rightarrow$ fat" 1) 各ノードが取る值は、 $\rightarrow$ の左辺に来る文法範疇ではなく、 $\rightarrow$ を含んだ個々の生成規則である. 図 2 連続 3語解析用ベイジアンネットのナイーブな実装 表 1 図 2 中で、 $\mathrm{Nc}$ 以外の各ノードが值として取り得る生成規則のリスト . 最後の void は、当該ノードにおいて適用可能な生成規則が存在しないことを示す特別な值で となる事前確率が 0.3 である」ことを意味する. ## 3 文脈が読解に与える影響 本節では文脈の有無が袋小路文の読解に与える影響に関して考察する。 まず、特定の文脈が存在しない $(\mathrm{Nc}=\mathrm{no})$ という条件の下で “Fat people eat accumulates.” という文を読んだ場合、“fat people eat”までの部分を「太った人々は食べる」と解釈する $(\mathrm{N} 13=$ " $\mathrm{S} / \mathrm{NP} \rightarrow \mathrm{NP}$ VP/NP”) 確率は以下のようになる。 $\mathrm{p}(\mathrm{N} 13=$ "S/NP $\rightarrow \mathrm{NP}$ VP/NP" $\mid \mathrm{Nc}=$ no $)$ $=\mathrm{p}(\mathrm{N} 12=$ "NP $\rightarrow \mathrm{JJ} \mathrm{NP}$ ", $\mathrm{N} 33=$ "VP/NP $\rightarrow$ eat" | $\mathrm{Nc}=$ no ) $\because$ 上記 N13 の値を成立させる組み合わせは、 このN12と N33 のみ $=\mathrm{p}(\mathrm{N} 11=$ "JJ $\rightarrow$ fat", $\mathrm{N} 22=$ "NP $\rightarrow$ people", $\mathrm{N} 33=$ "VP/NP $\rightarrow$ eat" | $\mathrm{Nc}=$ no ) $\because$ 上記 N12 の值を成立させる組み合わせは、 このN11と N22のみ $=0.7 * 1 * 1=0.7$ また、同じく特定の文脈が存在しない状態で“fat people eat”までの部分を「人々が食べるところの脂肪は」と解釈する (N13 = “NP $\rightarrow$ NP SBAR”) 確率は以下のようになる. $\because$ 上記 N13 の値を成立させる組み合わせは、 この $\mathrm{N} 11$ と $\mathrm{N} 23$ のみ $=0.3 * 0.5=0.15$ したがって特定の文脈が存在しない場合は、「太った人々は食べる」という解釈が優位となり、光の結果 4 語目が来たときに戶惑ってしまうことが説明できる。 なお上記の確率値を合計しても 1 にならない理由は、ノード N13 の值が void となるような組み合わせ(すなわち統語解析に失敗するような組み合わせ)が他に存在するからである. 一方、適切な先行文脈が存在する場合 $(\mathrm{Nc}=\mathrm{yes})$ に同樣の計算を実行すると、以下の結果を得る. 「人々が食べるところの脂肪は」と解釈する確率 : $ \begin{aligned} & \mathrm{p}(\mathrm{N} 13=\text { "NP } \rightarrow \mathrm{NP} \text { SBAR" } \mid \mathrm{Nc}=\text { yes }) \\ & =\mathrm{p}(\mathrm{N} 11=\text { "NP } \rightarrow \text { fat", } \\ & \mathrm{N} 23=\text { "SBAR } \rightarrow \text { NP VP/NP" } \\ & \mathrm{Nc}=\text { yes }) \\ & =0.7 * 0.6=0.42 \end{aligned} $ 今度は「人々が食べるところの脂肪は」という解釈が優位となるため、4 語目の accumulates に戶惑うことがなくなる. もちろんこれらの数値は恣意的に設定した条件付き確率表に依存しているが、少なくとも原理的にはベイジアンネットを用いて袋小路文の読解モデルが作成可能であることを上記の計算結果は示している。 ## 4 関連研究 人間が自然言語を理解する過程をモデル化した研究は古くから存在する. これまで多くの研究において、ある種の文が理解困難であるのは人間の作業記憶の容量と関係があると仮定されてきた . 最初期の研究の一つとして、Marcus[7] が挙げられる.ここで提案された PARSIFAL と呼ばれるパーザは、解析途中の部分木の記憶容量に意図的な制限が加えられている。 PARSIFAL は言語学的に興味を引く複杂倠な統語構造の解析に成功する一方で、人間と同樣、袋小路文の解析に失敗するという興味深い特徵を持つ。 これに対し Crain and Steedman[8] は、適切な文脈さえ与えられれば人間は袋小路文が理解可能になると主張した . Schuler[9] は、この主張が PARSIFAL では説明できない点を指摘し、更に人間の統語処理が汎用の短期記憶の中で実現されるという仮定の下に、階層型隠れマルコフモデルに基づくパーザを作成して、爫の実効性を大規模コーパスを用いて示した. また、言語理論の面から袋小路文の理解困難性の説明を試みた例には、Pritchett[10]がある.ここでは袋小路文の理解困難性が、統率・束縛理論の $\theta$ 規準に基づいて説明されている. 処理の原則は提案されているが、具体的なパーザや、爫のメカニズムは提案されていない。 一方、ベイジアンネットを統語解析に利用する試みとしては Takahashi and Ichisugi [11,12,13] などがあるが、これらで用いられているベイジアンネットは簡略版であるため、具体的な確率値を計算することはできない.炎のため同一の文に対して複数の解 釈が存在した場合に、どの解釈がより確からしいかを本稿のように比較検討することはできない. ## 5 おわりに 人間はベイジアンネット的計算に基づいて文を読解しているという仮説を検討するために、実際にべイジアンネットを用いて袋小路文の読解モデル作成を試みた . 人手で恣意的に作成した条件付き確率を用いてはいるものの、目標とするモデルが原理的には作成可能であることを示した . 読解モデルの条件付き確率表を人手で与えるのではなく、訓練データから学習することは可能かどうかを探るのは今後の課題である。 今回作成したモデルが対象しているのは、単一の袋小路文に過ぎない,一般に知られている袋小路文の種類は数十かせいぜい数百と思われるが、光の中には今回の例文とは異なる要因で読解困難となっているパターンも多いはずである.今後はと艺れらの読解困難性と光れを解消する仕組をモデル化する必要がある.また、文脈が袋小路文の読解に与える影響が、多義語や生成規則の選択に関するプライミング効果だけに限られるのか否かも興味ある問題である. 今後はこれらの点を考慮しつつ研究を進めていきたい. 表 21 番目の入力語 fat に対応するノードN11 の条件付き確率表 $. \mathrm{Nc}=$ no の場合(特定の文脈が存在しない場合)、fat は「太った」という意味の形容詞 (JJ) と解釈されやすいが、 $\mathrm{Nc}=$ yes の場合は、「脂肪」という意味の名詞 表 32 番目の入力語 people に対応するノード N22 の条件付き確率表 . 語彙的暧昧性がないため、このノードが值として取り得る生成規則は一意に定まる。 $ \begin{array}{c|c} \mathrm{N} 22 & \mathrm{p}(\mathrm{N} 22) \\ \end{array} $ 表 43 番目の入力語 eat に対応するノードN33 の条件付き確率表 . 語彙的暧昧性がないため、このノードが値として取り得る生成規則は一意に定まる.VP/NPは、右側に NP が来ると全体として VP となる文法範疇、すなわち他動詞を意味する。 表 51 番目の入力語と 2 番目の入力語を結合した文法範疇に対応するノードN12 の条件付き確率表 . N22 の値は常に一定なので、N12 が意味のある値(void 以外の値)を取る組み合わせは一意に定まる. 表 62 番目の入力語と 3 番目の入力語を結合した文法範疇に対応するノードN23 の条件付き確率表 . N22 が取る值は常に同一であり、 $\mathrm{N} 33$ が取る値も常に同一である. よって N23 がどのような確率でどのような值を取るかは、文脈ノード $\mathrm{Nc}$ のみに依存する $. \mathrm{Nc}=\mathrm{no}$ の場合(特定の文脈が存在しない場合) は、S/NP を左辺とする規則も SBAR を左辺とする規則も同じ確率で選択され得るが、先行文脈にSBAR を左辺とする規則が出現するとSBAR を左辺とする規則か優位となる.なお S/NP は、右側に NP が来ると全体として S となる文法範疇、すなわち名詞句と他動詞の連続を意味する。 表 7 1番目の入力語から 3 番目の入力語までを結合した文法範疇に対応するノードN13 の条件付き確率表 . このノードが取り得る値と正の確率は統語上は N11、N23、 N12、N33 の4ノードに依存するが、N12 の值は N11 から一意に定まるため、また N33 は常に一定値を取るため、 & 1 \\ ## 参考文献 [1] スティーブン・ピンカー. 言語を生みだす本能 [上] . NHK 出版, 1995. 椋田直子 [訳] [2] 阿部純一, 桃内佳雄, 金子康朗, 李光五. 人間の言語情報処理:言語理解の認知科学. サイエンス社, 1994. [3] A. Bies. Bracketing guidelines for Treebank II style Penn Treebank project. Technical report, Department of Linguistics, University of Pennsylvania, Philadelphia, PA, USA, 1995. [4] 戶次大介. 日本語文法の形式理論. くろしお出版, 2010. [5] Tai Sing Lee and David Mumford. Hierachical bayesian inference in the visual cortex. Journal of Optical Society of America A, Vol. 20, No. 7, pp. 1434-1448, 2003. [6] 一杉裕志. 大脳皮質とベイジアンネット. 日本口ボット学会誌, Vol. 29, No. 3, pp. 412 -415, 2011. [7] Mitch Marcus. Theory of Syntactic Recognition for Natural Language. 1980. [8] [9] William Schuler, Samir AbdelRahman, Timothy A. Miller, and Lane Schwartz. Broad-coverage parsing using humanlike memory constraints. Comput. Linguistics, Vol. 36, No. 1, pp. 1-30, 2010. [10] Bradley L. Pritchett. Garden path phenomena and the grammatical basis of language processing. Language, Vol. 64, No. 3, pp. 539-576, 1988. [11] 高橋直人, 一杉裕志. 制限付き疑似ベイジアンネットを用いた文脈自由文法解析の試み. 第 31 回人工知能学会全国大会, 2017. [12] Naoto Takahashi and Yuuji Ichisugi. Restricted quasi bayesian networks as a prototyping tool for computational models of individual cortical areas. In Proceedings of Machine Learning Research, Vol. 73. PMLR, 2017. [13] Naoto Takahashi and Yuuji Ichisugi. Toward Human-Like Sentence Interpretation-a Syntactic Parser Implemented as a Restricted Quasi Bayesian Network-: Proceedings of the Ninth Annual Meeting of the BICA Society, pp. 301-309. Springer, 012019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C2-2.pdf
# 読解能カテストに対するニューラル言語モデルを用いた 自動解答及びその結果の分析 青木拓磨 $1 *$ 原田裕文 $1 *$ 三浦大輝 $1 *$ 新井紀子 2 松崎拓也 ${ }^{1}$ } 1 東京理科大学 理学部第一部 応用数学科 2 教育のための科学研究所 \{1417002, 1417086, 1417100\}@ed.tus.ac.jp, arai@s4e.jp, matuzaki@rs.tus.ac.jp ## 1 はじめに リーディングスキルテスト(RST)とは,「読解」 のプロセスとして 11 の段階を想定し,それらを実践する力を 7 つの問題タイプで多面的に測ることで,読解能力を測定するテストである $[1,2]$. 中高生を中心に, 小学生・成人も含め, これまで延べ約 20 万人が受検している. RST は項目反応理論 [3] に基づき設計され, 各問題の困難度が推定される. また, 困難度が推定済みの問題への反応に基づき受検者の各問題タイプにおける能力値が推定される. 近年, 多数開発されている機械読解や「自然言語理解」のベンチマークデータでは人間が解いた際の精度を測定し, 機械による解答精度と比較することが多い。しかしほとんどの場合「人間が正解した」 かどうかは「被験者の 80 \%以上が正解した」, といった大まかな定義に基づいており,かつ,RST のように多数の人間による解答結果が存在するものは我々が知る限り存在しない。 そこで,言語処理による自動解答結果と人間の RST 受検者の結果を比較することで,言語処理技術の課題と人の読解の特性の両方についての知見が得られることが期待できる. Arai ら [1] は, RST の係り受け解析問題 (DEP) を CaboCha [4] で解析し, 出力された係り受け構造と整合する選択肢を人手で選ぶことで $66 \%$ の正答率を得ており, 能力値に換算すると受検者の最頻值をやや下回るものとなったことを報告している.また,最も誤りの多い問題文の特徴として, 動詞句の並列が含まれる事を挙げている. 一方, 本論文では, 係り受け解析の他に, 照応解決 ・同義文判定についても取り組む. また, 全ての解答器は BERT [5] を用いており, 解答の選択まで全てのプロセスを自動的に行う. * 同等の貢献 ## 2 RST の問題例 本論文では, RSTの7 タイプの問題のうち「係り受け解析」,「照応解決」,「同義文判定」を対象とする. 係り受け解析は文の構造を正しく把握する能力, 照応解決は指示詞やゼロ代名詞が指すものを正確に特定する能力, 同義文判定は 2 つの文章が同じ意味かどうかを判定する能力を測る,図 1~図 3 に, これら 3 タイプの問題の例を示す. 問題例は全て公式サイト [6] からの引用である. 図中の提示文・補助提示文・選択肢が解答器への入力である. ## 3 手法 本研究では, 日本語テキストで Pre-training された BERT を,各タスクで Fine-tuning することで解答器を作成する. 以下, 各問題タイプに対する解答器の概要を述べる。 ## 3.1 係り受け解析 RST の係り受け解析問題を,選択肢を空欄に挿入した補助提示文を提示文に連結したものを選択肢の数だけ作り,そのうち 1 つを選ぶ課題として定式化する. 具体的には,提示文を text1,選択肢を挿入した補助提示文を text 2 として $[\mathrm{CLS}]+$ text1 + [SEP] + text2 + [SEP] を各選択肢について用意してそれぞれにスコアを与え,そのうち最もスコアが高いものを解答とする.スコアは,それぞれを BERT に入力したときの [CLS] に対する出力ベクトルと, パラメータベクトルの内積とする. 既存の問題は学習データとしては少量であったため, 以下のように疑似問題を生成した。まず,RST 問題は,13文で構成されているため,コーパスから連続する 3 文以下の部分を抜き出し, 提示文として用いた。補助提示文は,提示文が例えば「 $\cdots \mathrm{A}$ が 図 1 係り受け解析問題の例 (正解:ブラックホール) 図 2 照応解決問題の例 (正解:アッシリア人) 図 3 同義文判定問題の例 (正解:同じである) Bを CにVする。‥」という形であるとき, $\mathrm{B} \mathrm{V}$ するのは $($ )である. CにVするのは $(\quad$ )である. (いずれも正解は「A」)などを,ルールに基づいて生成した。負例となる選択肢は, 提示文内の名詞から正解を除く3~7 個をランダムに選んで用いた。 ## 3.2 照応解決 植田ら [7] の論文中の「ベースモデル」を用いて, ゼロ照応解析を含む述語項構造解析と照応解析の同時学習を行った. 以下,その概要をまとめる. まず,入力文書を形態素分割した後, WordPiece を用いてサブワードに分割する.次に,入力系列の先頭に [CLS], 末尾に $[\mathrm{SEP}]$ と 5 つの特殊トークン [著者] $\cdot$ [読者] $\cdot$ [不特定:人] $\cdot$ [NULL] $\cdot$ [NA] を挿入し, BERT に入力する. [著者] $\cdot$[読者] $\cdot$ [不特定:人] はそれぞれ外界の照応先に対応し, [NULL] と [NA] はそれぞれ,述語項構造解析において項が存在しない場合と, 照応解析において照応先が存在しない場合を表す。予測の際は,次の計算を行う。述語項構造解析では, 述語と文書中の全サブワードに対し, ガ格・ヨ格・二格のスコアを計算し,スコア最大の項をその述語の項として出力する。より正確には,述語サブワード $p_{i}$ に対し, 項候補サブワード $a_{j}$ が格 $c$ の項になる確率を, $ \begin{gathered} P\left(a_{j} \mid p_{i}, c\right)=\frac{\exp \left(s_{c}\left(a_{j}, p_{i}\right)\right)}{\sum_{k} \exp \left(s_{c}\left(a_{k}, p_{i}\right)\right)} \\ s_{c}\left(a_{j}, p_{i}\right)=v^{T} \tanh \left(W_{c} \boldsymbol{a}_{j}+U_{c} \boldsymbol{p}_{i}\right) \end{gathered} $ と定義する。ここで, $\boldsymbol{p}_{i}, \boldsymbol{a}_{j}$ はサブワード $p_{i}, a_{j}$ に対応する BERT 最終層のベクトル, $v, W_{c}, U_{c}$ は Fine-tuning で新たに導入されたパラメータを表す。 なお,述語サブワード及び項候補サブワードとしては形態素の先頭サブワードを用いる.照応解析の場合は, 先行詞サブワードと照応詞サブワードに対して同様の計算を行う. RST 問題に解答器を適用する際には,まず問題に対するパターンマッチによってゼロ照応かそれ以外かに分ける.ゼロ照応の場合は,はじめに補助提示文を係り受け解析し,空闌部分を項とする述語を抽出する。次に,各選択肢を形態素分割し,最右の名詞を抽出する。抽出した述語サブワードと各選択肢サブワードに対し,ガ格・ヨ格・二格のスコアを計算する.このとき,各スコアが [NULL] に対するものより小さい場合, 候補から除外する。最後に, 格ごとに softmax で正規化し,スコア最大の選択肢を解答とする,照応解析では,問題文から指示詞を抽出し, 指示詞サブワードと各選択肢サブワードに対して同様の計算を行う. ## 3.3 同義文判定 同義かどうかを判定する 2 つの文章を text1, text2 とするとき, $[\mathrm{CLS}]+$ text1 + [SEP] + text2 + [SEP] を BERT に入力し, [CLS] に対する出力ベクトルとパラメータベクトルの内積が閾値以上であれば「同じである」,そうでなければ「異なる」と判定する. Fine-tuning に使用したデータセットは,京都大学テキストコーパス (KTC) ver. 4.0 と日本語 SNLI (Stanford Natural Language Inference) [8] [9] である. KTC から 2 つのタイプの疑似問題を作成した. 1 つ目は,文末の動詞の文節に係る複数の文節を,それらを根とする部分木とともにランダムに入れ替えたものを元の文とぺアにし,正解を「同じである」 としたものである. さらに入れ替え後の文からランダムに名詞を 2 つ選択して交換したものを元の文と ペアにし,正解を「異なる」とした問題を作成した。 2 つ目のタイプの問題を作る際は,最初に「A BをVした」のように, 文末の述語がヲ格を持つ動詞である文を抽出した. そして 1 つ目と同様, 文末の文節に係る文節をランダムに入れ替えた. 最後に と書き換え,元の文とぺアにしたものを正解「同じである」の問題とした. さらに 1 つ目と同様に, 受動態に変換した上で,さらにランダムに名詞を交換したものを正解が「異なる」の問題とした. 日本語 SNLI は含意関係認識の英語のデータセットであるSNLIを機械翻訳によって日本語化したデータである.このデータは多数の文のペアから成り, 各ペアに対して Entailment (含意する), Contradiction (矛盾する), Neutral (どちらでもない)の3つのラベルのいずれかが付与されている. Entailment は, 正確には同義とは異なるがそれに近いものと考え「同じである」の例とした。 Contradiction は, 必ず「同じでない」を意味するため「異なる」の例とした。 ## 4 実験設定 全ての解答器で, 東北大学によって作成された日本語 BERT 事前訓練済みモデル1を利用した。 係り受け問題に対する解答器の訓練データとして, NAIST テキストコーパス ver. 1.5(NTC1.5)[10] から 3.1 節で説明した方法で, 129,256 個の疑似問題を生成した。そのうち 9 割を訓練データ, 残り 1 割を開発データとして用いた。開発データのスコアは 0.8255 となった. 照応解決問題に対する解答器の訓練にも NTC 1.5 を使用した. データは既存研究で広く用いられている Taira ら [11]の分割に従って訓練・開発・評価データに分割した. 述語項構造解析は, 用言及び事態性名詞を対象とする述語として訓練した. 照応解析は, 全ての指示詞を対象とした.NTC1.5を用いた評価の際には, システムが出力したサブワードが,正解サブワードと同じ共参照クラスタのいずれかに含まれる場合は正解とした。損失関数には Cross-Entropy を使用し, 異なる初期値で 20 エポック学習させた. 表 1 に, 既存モデルとの F1 スコアでの比較を示す. 評価対象とした述語の数が若干異なるため厳密な比較ではないが,格解析・ゼロ照応解析ともに既存研究と比べ精度が向上している. な  表 1 NTC1.5 評価セットにおける既存研究との比較 \\ 松林ら [12] & 90.07 & 54.53 & - \\ 今野ら [13] & 87.72 & 47.72 & - \\ 図 4 同義文判定の閾值と開発データに対する精度 お,照応解析については,指示表現のみを扱う先行研究がなかったため,ここでは比較しない,RST 問題を用いたテストには,異なる初期值による結果のうち NTC 1.5 の評価データに対する精度が最も高いものを用いた。 同義文判定問題に対する解答器の訓練には, 3.3 節で述べた通り KTC 及び日本語 SNLIを用いた. KTC から作成した疑似問題は, 1 つ目のタイプが 57,155 問, 2 つ目のタイプが 5,954 問であり, 日本語 SNLI $の$ Entailment が 177,257 問, Contradiction が 179,842 問である.これらの $99 \%$ を訓練データ, 残りの $1 \%$ を開発データに用いた。図 4 は間值と疑似問題及びRST 問題(いずれも開発データ)に対する精度の関係を示す. テストにはRST の開発データに対する精度が最も高かった閾値 2.2 を用いた。 ## 5 実験結果 表 2 に, RST 問題に対する各解答器の正答率を示す. 開発データとテストデータは作成時期の異なる問題セットを用いており,これらに対する正答率の差は問題傾向の違いによるものと考えられる. 図 5 に, 問題の困難度と解答器の正答率の関係を示す. グラフ上の点 $(x, y)$ は, 困難度が $x$ に近い問題に対する解答器の正答率が,おおよそ $y$ であることを表す。正確には以下の様にグラフを作成した。まず,問題セットを困難度の順に並べたものを $q_{1}, q_{2}, \ldots, q_{N}$ とする.そこから連続する $w$ 問のウィンドウ $q_{i}, q_{i+1}, \ldots, q_{i+w-1}$ を取り出し, これらの問題の困難度の平均値を $x_{i}$, これらに対する解答器の正答率を $y_{i}$ とする。これを $i=1,2, \ldots$ につい 表 2 RST 問題に対する解答器の正答率 同義文判定(開発) 図 5 問題困難度と解答器の正答率の関係 て行って得た座標 $\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right), \ldots$ を折れ線でつないで表示した. ウィンドウ幅 $w$ は同義文判定のテストデータについては $w=25$, それ以外については $w=50$ とした. 図から, 係り受け解析のテストセットを除き, 困難度が大きいほど解答器の正答率が低い傾向があること,すなわち人間にとって難しい読解課題は解答器にとっても難しいことが分かる. 係り受け解析のテストデータでは困難度 -1.00 付近に正答率のピークが見られ, より易しい問題に対して正答率が低くなっている。原因として, 訓練に用いた疑似問題ではカバーされないタイプの問題で, 人にとっては易しいものがテストデータに多く存在したことが予想されるが,正確な理由は不明である。 図 6 に問題の形態素数と解答器の正答率及び困難度の関係を示す.ここでの問題の形態素数とは,係り受け解析と照応解析では正解選択肢と述語の距離, 同義文判定では 2 つ文章の形態素数の平均を意味する. 図6(左)から, 係り受け解析を除き,形態素数が多いほど正答率が低い傾向があること, すなわち解答器にとっての難しさの 1 つの要因は形態素数であることが示唆される。一方, 図 6 (右) から, 形態素数と人にとっての困難度には明確な相関がないことがわかる. すなわち人にとっての困難度は形態素数に依存しておらず, 本研究で用いた解答器と人の能力の特性の違いの 1 つだと言える. 図 6 問題の形態素数と解答器の正答率及び困難度の関係 ## 6 おわりに 本研究では, RST の問題に対する自動解答結果と人間の受検者の結果を比較することで,言語処理技術の課題と人間の読解の特性について検討した。その結果, 人間にとって難しい読解問題は解答器にとってもおおむね難しい傾向があることが分かった。一方で, 形態素数と解答器の正答率には負の相関があるのに対し,人にとっての困難度とは相関がみられなかった.このことから,人に比べ BERTに基づく解答器はより表層的な手掛かりに依存する度合いが大きいことが示唆される。係り受け解析と同義文判定では,疑似問題と RST 問題に対する精度に乘離がある。これは,疑似問題が RST の問題を力バーしきれていないことと, RST に比べ簡単すぎることが理由と考えられる.疑似問題の生成方法を改良し, 解答器の精度を向上させることで, 人の読解とのより詳細な比較が可能になることが期待されるが,難しい疑似問題を生成すること自体が挑戦的な研究課題となるだろう. 一方, 照応解決は, 解答器の精度が NTC 1.5 に対する現在の最高精度に近く, かつ,RST 問題に対する精度との乘離も比較的小さいことから, 照応解決技術自体の精度を向上させることが主要な課題となるだろう。 ## 謝辞 本研究は JST, さきがけ, JPMJPR175A およびJSPS 科研費 JP16H01819 の支援を受けたものである. ## 参考文献 [1] Noriko H. Arai, Naoya Todo, Teiko Arai, Kyosuke Bunji, Shingo Sugawara, Miwa Inuzuka, Takuya Matsuzaki, and Koken Ozaki. Reading skill test to diagnose basic language skills in comparison to machines. Proceedings of the 39th Annual Cognitive Science Society Meeting (CogSci 2017), pp. 1556-1561, 2017. [2] RST パンフレット. https://www.s4e.jp/wysiwyg/ file/download/1/1157. [3] F. M. Lord and M. R. Novick. Statistical theories of mental test scores. Addisom-Wesley, 1968. [4] 工藤拓, 松本裕治. チャンキングの段階適用による日本語係り受け解析. Vol. 43, No. 6, pp. 1834-1842, 2002. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, 2019. [6]教育のための科学研究所, 2020-12 閲覧. https: //www.s4e.jp. [7] 植田暢大, 河原大輔, 黒橋禎夫. BERT と Refinement ネットワークによる統合的照応・共参照解析.言語処理学会第 26 回年次大会発表論文集, pp. 1101-1104, 2020. [8] 吉越卓見, 河原大輔, 黒橋禎夫ほか. 機械翻訳を用いた自然言語推論データセットの多言語化. 研究報告自然言語処理 (NL), Vol. 2020, No. 6, pp. 1-8, 2020. [9] Samuel R Bowman, Gabor Angeli, Christopher Potts, and Christopher D Manning. A large annotated corpus for learning natural language inference. EMNLP, 2015. [10] 飯田龍, 小町守, 井之上直也, 乾健太郎, 松本裕治. 述語項構造と照応関係のアノテーション:NAIST テキストコーパス構築の経験から. 自然言語処理, Vol. 17, No. 2, pp. 25-50, 42010. [11] Hirotoshi Taira, Sanae Fujita, and Masaaki Nagata. A Japanese predicate argument structure analysis using decision lists. In Proceedings of the 2008 Conference on Empirical Methods in Natural Language Processing, pp. 523-532, 2008. [12] 松林優一郎, 乾健太郎. 複数の述語間の関係を考慮した End-to-End 日本語述語項構造解析. 言語処理学会第 24 回年次大会発表論文集, pp. 101-104, 2018. [13] 今野颯人, 松林優一郎, 大内啓樹, 清野舜, 乾健太郎.前方文脈の埋め込みを利用した日本語述語項構造解析. 言語処理学会第 25 回年次大会発表論文集, pp. 53-56, 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C2-3.pdf
# 予測の正確な言語モデルがヒトらしいとは限らない 栗林樹生 ${ }^{1,2}$ 大関洋平 ${ }^{3,4}$ 伊藤拓海 ${ }^{1,2}$ 吉田遼 ${ }^{3}$ 浅原正幸 ${ }^{5}$ 乾健太郎 1,4 1 東北大学 ${ }^{2}$ Langsmith 株式会社 3 東京大学 4 理化学研究所 5 国立国語研究所 \{kuribayashi, t-ito, inui\}@ecei.tohoku.ac.jp \{oseki, yoshiryo0617\}@g.ecc.u-tokyo.ac.jp, masayu-a@ninjal.ac.jp ## 1 はじめに 文章を読んでいると,ある部分はスラスラ読めたり,特定の箇所ではつっかえたりする.このような逐次的な読みやすさはどのように計算されるのだろうか. 本研究では, ヒトの漸進的な文処理の計算モデルについて洞察を得ることを目指す。 近年では,単語や文のサプライザル $(-\log p($ 単語や文| 先行文脈 $))$ が読みやすさを決める主要な要因であるとするサプライザル理論 $[1,2]$ が支持されている. ヒトは先読みをしながら文章を読んでおり,予想と異なる情報が出現する(サプライザルが大きくなる)と処理負荷が高まる(例えば,読み時間が長くなる)という説である. 本理論はサプライザルをどのようなモデルで計算するかについては中立的であり,ヒトの読み活動をうまくモデリングできるようなサプライザルを算出するモデルを探求することで,構成論的なアプローチによりヒトの文処理に対して洞察を得てきた $[3,4,5,6,7,8]$. 本研究でも, モデルから得られたサプライザルがヒトの読み活動をどれほどモデリングできるかを「ヒトらしさ」の指標とし,ヒトらしいモデルを探求する. 最近ではサプライザル理論に基づいた実験から, パープレキシティ(PPL)の低い言語モデルほどヒトらしいという報告がされてきた $[3,4,9,10,11]$.本研究ではこの報告の一般性について再検証し, 例えば自然言語処理分野で行われている訓練データ量やパラメータ数を増やすといった改良 [12] の先に認知科学が目指すヒトらしいモデルがあるのか, 両分野が向かう先の関係について示唆を与えることを目指す. 図 1 に示すとおり言語モデルの予測の正確さ (PPLの低さ)はヒトらしさを必ずしも含意しない. また既存研究では英語の限られたコーパス上でのみ議論が行われており,様々な言語や現象において予 図 1 PPLの低い言語モデルとヒトらしい言語モデルの要略. 縦軸はヒトの読み時間と言語モデルのサプライザル. 測の正確さ(PPLの低さ)とヒトらしさの間の関係が成り立つかは定かでない. 省略,語順などの観点で英語と大きく異なる日本語に焦点を当てて PPLとヒトらしさの関係について検証した. 実験結果より, PPL が低い言語モデルほどヒトらしいという英語で観察された関係は日本語では必ずしも成立せず,本関係は言語横断的な一般性を欠く観察であると一旦結論づけた。また乘離の傾向について,言語の階層的な構造を明示的に教師として与えていない言語モデルが,ヒトの読み活動よりも統語構造に過剩に敏感なサプライザルを計算するという観察が得られた. 具体的には,主辞後置言語の読み時間で典型的に観察される統語構造に関する効果 [13] の観点で,言語モデルがヒトよりも強くバイアスを受けていた。本乘離について,日本語と英語の違いに結びつけて議論する. 本研究で BCCWJ-EyeTrack に対して付与した 111 の言語モデルによるサプライザルデータ(BCCWJ-UniSeqLM) は公開する ${ }^{1}$ 。 ## 2 関連研究 ヒトの漸進的な文処理モデルの解明に向けて,認知科学, 心理言語学の分野ではヒトの読み活動(読み時間や脳活動データ)が長らく分析され  てきた [14,13,1,2,3,4,15,16]. 読み時間については,特に主辞先行言語(英語など)と主辞後置言語(日本語など)間で異なる傾向が報告されており $[13,17,18,19]$, 特定の言語で報告された観察(本研究の文脈では,PPL $\propto$ ヒトしさ)が異なる言語で成り立つかは自明でない。これまでも,主辞先行言語で提案されたワーキングメモリによる読み時間の説明 [14] について, 主辞後置言語におけるヒトの傾向をうまく説明できないことが指摘され [13, 17],後の anti-locality theory やサプライザル理論に繋がった $[13,1,2]$. ## 3 実験設定: 言語モデル サブワード2)を入力単位とした文章レベルの leftto-right 言語モデルを用いる. 長さ $N$ の文 $w_{1: N}$ における長さ $T$ の文節 $\left.b=w_{k: k+T} \quad(1<k \leq k+T \leq N)^{3}\right)$ のサプライザルを以下のように計算する: $ \begin{aligned} \operatorname{surprisal}(b) & =-\log _{2} p\left(w_{k}, \cdots, w_{k+T} \mid w_{1}, \cdots, w_{k-1}\right) \\ & =-\sum_{i=k}^{k+T} \log _{2} p\left(w_{i} \mid w_{1}, \cdots, w_{i-1}\right) \end{aligned} $ 言語モデルの種類: パラメータ数の異なる 2 種類の Transformer 言語モデル (400M パラメータの TRANS-L と 55M パラメータの TRANS-S)と LSTM ベースの言語モデルについて, 学習データ量 $(1.4 \mathrm{G}$, 140M,14M サブワード)とパラメータアップデー 卜回数 $(100 \mathrm{~K}, 10 \mathrm{~K}, 1 \mathrm{~K}, 0.1 \mathrm{~K})$ を変えて学習し, さらにそれぞれの設定について3つの異なるランダムシード4)でモデルを学習した $(3 \times 3 \times 4 \times 3=108$ モデル)。学習データは新聞記事と日本語 Wikipedia から成る. さらに, 3 グラム,4グラム,5グラム言語モデル5)も加え,計 111 の設定について分析した. ## 4 実験 1: PPL とヒトらしさ 各言語モデルについて, PPLとヒトらしさの関係を調べる。あらかじめベースライン特徴量で読み時間をモデリングし, ある言語モデルから得られたサプライザルを固定因子として追加した際にモデリング性能がどれほど上昇するかで言語モデルのヒトら 2) mecab [20] と unidic で国語研短単位に分割した後,バイト対符号化 [21] によってさらに分割した (character coverage $=0.9995$, vocab size $=100000)$. 3) BOSトークン $\left(w_{1}\right)$ の存在から,文節は $w_{2}$ 以降から始まる. 4) $140 \mathrm{M} , 14 \mathrm{M}$ サブワードのデータで学習するモデルについては,データのサンプリングも変えている. 5)学習データ(1.4G サブワード)をすべて用いhttps: //github.com/kpu/kenlm でモデルを作成した. しさを評価する,具体的には,既存研究に従い,サプライザルを考慮する前後における読み時間デー 夕の文節平均対数尤度の変化 $\Delta$ LogLikを報告する. $\Delta \operatorname{LogLik}$ が大きいほど,その言語モデルがヒトらしいことを示す. 読み時間(RT)のモデリングは以下の式で行う: $ \begin{aligned} \log (\mathrm{RT}) & \sim \text { surprisal + freq + length }+ \text { prev_freq } \\ & + \text { prev_length }+ \text { is_first }+ \text { is_last } \\ & + \text { is_second_last }+ \text { screenN }+ \text { lineN } \\ & + \text { segmentN }+(1 \mid \text { article })+(1 \mid \text { subj }) \end{aligned} $ 各特徴量の詳細は付録に示す. (1|x) は $\mathrm{x}$ をランダム切片として組み込むことを指す. ベースラインモデルでは式 1 の説明変数からサプライザル (surprisal)を除く。既存研究に従い [22], 視線走査法により計測された対数注視時間(first pass time) をモデリングした. 予測モデルとして一般化線形混合モデル(GLMM)を用いた. 既存研究 [18] に従い読み時間がゼロ秒である文節は除いた。また,読み時間について 3 標準偏差を超える文節についても除外した. 最終的に 13,148 のデータポイントを用いた. ## 4.1 結果 図 2 に結果を示す. 各プロットは各言語モデルに対応する.X軸が言語モデルの PPL(対数スケー ル), $\mathrm{Y}$ 軸が言語モデルの読み時間モデリング能力であり,モデリング能力が高いことと本研究でいう 「ヒトらしい」ことは同義である. グラフが左肩上がりの場合は PPL が低いほどヒトらしいと言える. Goodman ら [9] は,言語モデルの PPL が低くなるほど読み時間モデリング能力が向上し,両者には直線的な関係があることを報告した。一方で本実験結果では,言語モデルの PPL と読み時間モデリング能力の間のピアソン相関係数は-0.21であり,さらにPPL が 0 から 1000 の範囲では,PPL の低い言語モデルほどヒトらしくないという正の相関が見られた(ピアソン相関係数 0.19).これらの結果から一旦, PPL の低い言語モデルほどヒトらしいという知見は言語横断的な一般性を欠くと結論づける。 アーキテクチャ, データ量, アップデート回数別の読み時間モデリング能力の平均を表 1 亿示す。スコアが高いほどヒトの読み時間のモデリングに貢献するサプライザルを計算することを意味する。一般的な言語モデルの性能に対する傾向に反し,N-gram 図 2 PPLと読み時間モデリング能力の関係. 表 1 左からアーキテクチャ,学習データ量,アップデー ト回数ごとの読み時間モデリング能力の比較. 言語モデルやアップデートが比較的少なめ(1000 回)のモデルのモデリング性能が高いことが分かった. N-gram 言語モデルが比較的ヒトらしいことは英語における既存研究でも報告されている [9]. 5 節では,各言語モデルがもつ性質について分析をし, どのような観点で言語モデルがヒトの読み活動デー タから逸脱していくか調べる。 ## 5 実験 2: 統語情報とサプライザル 読み時間が統語範疇や統語構造の影響を受けているという知見に従い $[18,23]$, 本研究では統語範疇と統語構造の 2 つの観点から各言語モデルの性質を調べる. 具体的に本研究では, 各言語モデルが計算するサプライザルの統語範疇と統語構造に対する敏感さを測定する。 言語モデルが各文節に対して計算するサプライザルを擬似的な読み時間とみなし,既存研究 $[18,23]$ と同様にモデリングを行う.具体的には 4 節と同様,はじめに各言語モデルが計算するサプライザルをべースライン特徴量(式 1 の surprisal を除く説明変数) ${ }^{6}$ によってモデリングする (ベースライン 6)スクリーン上の提示位置などといったヒトに対する測定で 図 3 Anti-locality 効果の要略. 矢印は係り受け関係を,各文節の下の数字は先行文脈に存在する係り元文節の数を表し,この值が大きいほど読み負荷(Y 軸方向の位置) が小さくなるとされている. モデル).続いて統語範疇や統語構造に関する特徴量を追加したときのモデリング性能の具合いである (文節平均対数尤度の変化) $\Delta \operatorname{LogLik}$ 調べる. 統語範疇に対する敏感さ BCCWJ中の各文節は用の類,相の類,体の類,その他,分類不能のいずれかのカテゴリに分類されている. ベースラインモデルに対して各文節がどのカテゴリに属すかという説明変数を加え,サプライザルに対する対数尤度がどれほど変化するかを測定する。 統語構造に対する敏感さ日本語を含む主辞後置言語では,単語や文節の読みやすさが文内の先行文脈に出現する係り元の要素数の影響を受ける anti-locality 効果が報告されている [13,17]. ある要素の係り元が前方にたくさん存在するほど,その要素を予測する手がかりが多くなり,読み負荷が下がるという仮説である。図 3 に anti-locality 効果の概略を示す. anti-locality 理論に基づくと,例えば係り元が存在しない図 3 中の「テレビ」よりも,直接係り元が 2 つ存在する「活躍中」の方が読み負荷が低いとされる. 各言語モデルが統語バイアスをどれほど強く有するかを検証するため,ベースラインモデルに対して先行文脈に存在する係り元の数を説明変数として追加し,対数尤度がどれほど変化するかを測定する。 ## 5.1 結果 各言語モデルが計算するサプライザルについて,統語範疇と統語構造(anti-locality 効果)に対する敏感さを測定した結果が図 4 である.各プロットが各言語モデルに対応し,縦軸がそれぞれの特徴量に対する敏感度である。図 4 左では $\mathrm{X}$ 軸を各言語モデルの読み時間モデリング能力,図 4 右では $\mathrm{X}$ 軸を PPL としている。まず図 4 左より,読み時間予測性能の高いモデルほど統語範疇に対して強く敏感であることが分かる(ピアソン相関係数で 0.85 )。また図 4 特有に生じる要因については,素性の設計を一部変更している. 詳しくは付録に記載. 図 4 言語モデルの PPL,ヒトらしさ,統語に対する敏感さの関係. 右より,ある程度 PPL の高い(およそ PPL200)言語モデルは統語範疇に対して敏感であるのに対し, さらに PPLが下がっていくと統語構造に対して敏感になることが観察され,PPL と統語構造に対する敏感さの間には順位相関係数-0.79 の相関が見られた。統語範疇から統語構造への敏感さの変化や, 目的関数として構造を明示的に与えていないにも関わらず言語モデルが統語構造に敏感になっていく様子は言語獲得の観点からも興味深い。 これらの観察から, 日本語話者は統語構造よりも統語範疇に近いレベルで先読みをしており,PPLの低い言語モデルはより高度な統語構造のレベルで文を処理していることで乘離が生じている可能性があげられる.分析では,PPL の低い言語モデルがどのように統語構造に対して敏感であるかを調査する。 ## 5.2 分析 統語構造の観点におけるヒトと言語モデルの乘離を詳細に分析する. 図 5 に,ある文節に対する先行文脈に存在する係り元の数と平均読み時間・サプライザルを示す. 左からヒトの対数読み時間,読み時間モデリング性能の高い言語モデルが算出するサプライザル,PPL の最も低い言語モデルが算出するサプライザルである.ヒトの対数読み時間や読み時間予測性能の高い言語モデルでは直線的な anti-locality 効果が観察されるのに対し,PPL の低い言語モデルでは, anti-locality 効果が曲線的であった. 本曲線に対する一つの解釈として, PPL 最小化の目的関数のもと言語モデルを訓練していくと,文内に係り元のない文節(以降, $\mathrm{DEP}_{0}$ )の予測が係り元の存在する文節と比べて相対的に苦手になり, $\mathrm{DEP}_{0}$ に対して不当に高いサプライザルを計算してしまっている可能性をあげる. なお,英語ではこのような係り元の数という観点における乘離は観察されなかった (付録). 図 5 ヒトの読み時間,最もヒトらしい言語モデルのサプライザル,PPL の低い言語モデルのサプライザルにおけ る, anti-locality 効果の違い. $\mathrm{DEP}_{0}$ の予測については文内に統語的な手がかりが存在せず,例えば先行文脈を考慮した自然な主題展開といった談話レべルの処理が必要になると考えられる。近年,談話レベルの文章展開において言語モデルとヒトの間に乘離があることが報告されており [24], 更に日本語では顕在性の高い話題などは省略されることから,文章に表出されている情報のみで談話的な手がかりをモデリングすることが難しいと考えられる。一方でヒトは例えば省略された話題などを補って文章を読んでいると考えられ,結果的に文を超えた予測が必要になる $\mathrm{DEP}_{0}$ における読み負荷 (読み時間とサプライザル) の乘離という形で, ヒトと言語モデルの違いが観察されているという解釈をあげる。 ## 6 おわりに 本研究では PPL の低い言語モデルほどヒトらしいという知見に対して既存研究とは異なる観察を提示し,分野が目指すモデルの間の関係に示唆を与えた,具体的には,言語モデルの予測が正確になる (PPLが低くなる)につれて,ヒトの文処理モデルに近づくとは限らないということを示した. 既存研究と異なる結果が得られた原因については,本稿であげた解釈の他にも読み時間測定時のノイズやサプライザルを通して評価すること(サプライザル理論) の妥当性といった様々な要因が考えられるため,引き続き調査をすすめる必要がある。一つの方向性として,日本語以外の言語についても検証を進め,言語のどのような性質が乘離に結びつくのか分析していきたい. 謝辞. 本研究は JSPS 科研費 JP20J22697, 19H04990 の助成を受けたものです。また,国立国語研究所共同研究プロジェクト「大規模コーパスを利用した言語処理の計算心理言語学的研究」の支援を受けたものです. ## 参考文献 [1]John Hale. A Probabilistic Earley Parser as a Psycholinguistic Model. In Proceedings of NAACL, pp. 159-166, 2001. [2]Roger Levy. Expectation-based syntactic comprehension. Journal of Cognition, Vol. 106, No. 3, pp. 1126-1177, 2008. [3]Stefan L. Frank and Rens Bod. Insensitivity of the Human Sentence-Processing System to Hierarchical Structure. Journal of Psychological Science, Vol. 22, No. 6, pp. 829-834, 2011. [4]Victoria Fossum and Roger Levy. Sequential vs. Hierarchical Syntactic Models of Human Incremental Sentence Processing. In Proceedings of CMCL, pp. 61-69, Montréal, Canada, 6 2012. Association for Computational Linguistics. [5]John Hale, Chris Dyer, Adhiguna Kuncoro, and Jonathan R. Brennan. Finding syntax in human encephalography with beam search. In Proceedings of ACL, pp. 2727-2736, 2018. [6]Tal Linzen. What can linguistics and deep learning contribute to each other? Journal of Language, Vol. 95, No. 1, pp. 99108, 2019. [7]Danny Merkx and Stefan L. Frank. Comparing Transformers and RNNs on predicting human sentence processing data. arXiv preprint arXiv:2005.09471,2020, 2020. [8]Martin Schrimpf, Idan Blank, Greta Tuckute, Carina Kauf, Eghbal A Hosseini, Nancy Kanwisher, Joshua Tenenbaum, and Evelina Fedorenko. The neural architecture of language: Integrative reverse-engineering converges on a model for predictive processing. bioRxiv, 2020. [9]Adam Goodkind and Klinton Bicknell. Predictive power of word surprisal for reading times is a linear function of language model quality. In Proceedings of CMCL2018, pp. $10-18,2018$. [10]Christoph Aurnhammer and Stefan Frank. Comparing gated and simple recurrent neural network architectures as models of human sentence processing. In Proceedings of the 41st Annual Conference of the Cognitive Science Society, pp. 112118, 2019. [11]Ethan Gotlieb Wilcox, Jon Gauthier, Jennifer Hu, Peng Qian, and Roger Levy. On the Predictive Power of Neural Language Models for Human Real-Time Comprehension Behavior. In Proceedings of CogSci, pp. 1707-1713, 2020. [12]Jared Kaplan, Sam McCandlish, Tom Henighan, Tom B Brown, Benjamin Chess, Rewon Child, Scott Gray, Alec Radford, Jeffrey Wu, and Dario Amodei. Scaling laws for neural language models. arXiv preprint arXiv:2001.08361, 2020. [13]Lars Konieczny. Locality and parsing complexity. Journal of Psycholinguistic Research, Vol. 29, No. 6, pp. 627-645, 2000. [14]Edward Gibson. Linguistic complexity: Locality of syntactic dependencies. Journal of Cognition, Vol. 68, No. 1, pp. 1-76, 1998. [15]Stefan L Frank, Leun J Otten, Giulia Galli, and Gabriella Vigliocco. The ERP response to the amount of information conveyed by words in sentences. Brain and language, Vol. 140, pp. 1-11, 2015. [16]Jonathan R Brennan, Edward P Stabler, Sarah E Van Wagenen, Wen-Ming Luh, and John T Hale. Abstract linguistic structure correlates with temporal activity during naturalistic comprehension. Brain and language, Vol. 157, pp. 81-94, 2016. [17]Shodai Uchida, E Miyamoto, Yuki Hirose, Yuki Kobayashi, and Takane Ito. An ERP study of parsing and memory load in Japanese sentence processing - A comparison between leftcorner parsing and the Dependency Locality Theory. Technical report of IEICE. Thought and language, Vol. 114, pp. 101-106, 2014. [18]Masayuki Asahara, Hajime Ono, and Edson T Miyamoto. Reading-Time Annotations for "Balanced Corpus of Contemporary Written Japanese". In Proceedings of COLING, pp. 684-694, 2016. [19]Masayuki Asahara. Between reading time and clause boundaries in Japanese - wrap-up effect in a head-final language. In Proceedings of PACLIC, pp. 19-27, 2018. [20]Taku Kudo. Mecab: Yet another part-of-speech and morphological analyzer. http://mecab. sourceforge. jp, 2006. [21]Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of ACL, pp. 1715-1725, 2016. [22]Nathaniel J. Smith and Roger Levy. The effect of word predictability on reading time is logarithmic. Journal of Cognition, Vol. 128, No. 3, pp. 302-319, 2013. [23]Masayuki Asahara and Sachi Kato. Between Reading Time and Syntactic / Semantic Categories. In Proceedings of IJCNLP, pp. 404-412, 2017. [24]Shiva Upadhye, Leon Bergen, and Andrew Kehler. Predicting Reference: What do Language Models Learn about Discourse Models? In Proceedings of EMNLP2020, pp. 977-982, Online, 11 2020. Association for Computational Linguistics. [25]Alan Kennedy, Robin Hill, and Joël Pynte. The dundee corpus. In Proceedings of the 12th European conference on eye movement, 2003 [26]Maria Barrett, Željko Agi, and Anders Søgaard. The Dundee Treebank. In Fourteenth International Workshop on Treebanks and Linguistic Theories, pp. 242-248, 2015. 表 2 本実験で用いた素性. \\ ## A 素性 本実験で用いた素性を表 2 に示す. なおヒトに対する読み時間測定の際文末に改行を加えているため,例えば is_first は「文頭である」か「文が長く画面上で改行が生じた際の改行後の文節」で発火する素性である。(is_first, is_last, is_second_last)について,画面上での改行を考慮しない素性が(BOS, EOS, pre_EOS) であり,ヒトの読み時間のモデリングの際には前者を,言語モデルのサプライザルのモデリングの際には後者を用いた.(lineN, segmentN)と(sentN, tokenN)についても,画面上での改行を考慮するかしないかの違いである。画面呈示順など読み時間測定に関わる素性は,既存研究でより詳細に記述されている [18]. ## B 指標 ## B. 1 ヒトらしさ 式 1 でモデリングした際の読み時間データに対する対数尤度を $\operatorname{LogLik}_{\mathrm{SP}}$ とする.また,以下の式で読み時間をモデリングした際の読み時間データに対する対数尤度を $\operatorname{LogLik}_{\mathrm{BASE}}$ とする: $\log (\mathrm{RT}) \sim$ freq + length + prev_freq + prev_length + is_first + is_last + is_second_last + screenN + lineN + segmentN $+(1 \mid$ article $)+(1 \mid$ subj $)$ $\Delta$ LogLik は以下のように計算される: $ \Delta \operatorname{LogLik}=\frac{\operatorname{LogLik}_{\mathrm{SP}}-\operatorname{LogLik}_{\mathrm{BASE}}}{\text { データ全体の文節数 }} $ 本値をそれぞれの言語モデルから得られたサプライザルを用いて求め,各言語モデルのヒトらしさとした. ## B. 2 統語情報に対する敏感さ 以下の式でサプライザルをモデリングした際のサプライザルに対する対数尤度を LogLik ${ }_{\mathrm{BASrF}}^{\text {surpal }}$ とおき,これらの説明変数に加えて統語情報を追加したときの対数尤度変化を報告した: surprisal $\sim$ freq + length + prev_freq + prev_length + BOS + EOS + pre_EOS + sentN + tokenN + (1|article) 図 6 ヒトの読み時間,最もヒトらしい言語モデルのサプライザル,PPL の低い言語モデルのサプライザルにおける, anti-locality 効果の違い. ## B.2.1 倒語範疇 以下の式でサプライザルをモデリングした際のサプライザルに対する対数尤度を LogLik ${ }_{\text {CATEGORY }}^{\text {surprisal }}$ とおく: surprisal $\sim$ WLSPLUWA + freq + length + prev_freq + prev_length + BOS + EOS + pre_EOS + sentN + tokenN + (1|article) 倒語範疇に対する敏感さを以下のように求める: $ \frac{\operatorname{LogLik}_{\text {CATEGORY }}^{\text {surprisal }}-\operatorname{LogLik}_{\mathrm{BASE}}^{\text {surprisal }}}{\text { データ全体の文節数 }} . $ ## B.2.2 統語構造 (anti-locality 効果) 以下の式でサプライザルをモデリングした際のサプライザルに対する対数尤度を $\operatorname{LogLik}_{\text {STRUCTURE }}^{\text {surpisal }}$ とおく: $ \begin{aligned} \text { surprisal } & \sim \text { anti_locality }+ \text { freq + length }+ \text { prev_freq } \\ & + \text { prev_length }+ \text { BOS }+ \text { EOS }+ \text { pre_EOS }+ \text { sentN } \\ & + \text { tokenN }+(1 \mid \text { article }) . \end{aligned} $ 倒語構造に対する敏感さを以下のように求める。 ## C 英語における anti-locality 効果 英語言語モデルについても,5 節の分析と同様に anti-locality 効果の観点から PPL の低い言語モデルがヒトから逸脱していくかを調査する. Dundee コーパス $[25,26]$ を用い first pass time をヒトの読み時間としている. 既存研究が公開しているサプライザルデータ7)を用い,PPL の低い言語モデルとして GPT-2 の結果を, また PPL の低下による乘離を調査したいため,比較として比較的 PPL の高い 5-gram 言語モデルの結果を用いた. 英語で逸脱が見られなかった場合は,英語と日本語の何らかの差異(例えば主辞先行言語であるか主辞後置言語であるか)において特有の乘離であることが示唆される. 英語では,ある単語について先行文脈に存在する直接係り先および係り元の数を anti-locality 值とし,この値と読み時間,サプライザルの関係を調べた. 図 6 に結果を示す.まず,anti-locality 値が大きくなるほど読み時間やサプライザルが小さくなるといった単純な傾向は見られない.これは, anti-locality 効果が主辞後置言語で観察されるという既存の知見と一致する. 図 6右(PPL の低い言語モデル)とヒトを比較しても顕著な乘離は観察されない。従って,少なくとも英語と日本語の比較という観点では,5 節で観察された乘離は日本語特有のものであった. 
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C2-4.pdf
# 再帰的ニューラルネットワーク文法による 人間の文処理のモデリング 吉田遼 1 能地宏 ${ }^{2}$ 大関洋平 1 1 東京大学 2 産業技術総合研究所 \{yoshiryo0617, oseki\}@g.ecc.u-tokyo.ac.jp, hiroshi.noji@aist.go.jp ## 1 はじめに 理論言語学では, 自然言語は階層構造を持つと言われている [1].しかし, RNN 言語モデルの一つである LSTM [2] 言語モデルは, 階層構造を考慮しない線形モデルであるにもかかわらず, 言語モデリング精度が高い [3] だけでなく, 単語間の長距離依存関係を把握できる文法能力を有している $[4,5]$. また, 近年では, RNN 言語モデルが算出した確率的な予測が,階層構造モデルである PCFG よりも高い精度で脳波をモデル化できることから, 線形モデルの認知的妥当性までもが主張されている [6]. 一方で, 自然言語の階層構造を明示的に考慮するニューラル言語モデルも提案されている。その一つが, 階層構造と単語列の生成モデルである再帰的ニューラルネットワーク文法 (recurrent neural network grammar, RNNG) [7] である. 先行研究では, RNNG は LSTM 言語モデルよりも高い言語モデリング精度や文法能力を有している $[8,9]$ など, 言語処理において線形モデルよりも階層構造モデルが優位であることが示されてきた. また, RNNG は LSTM 言語モデルよりも高い精度で脳波をモデル化できることから, 線形モデルは認知的に妥当であるとはいえず, 人間は階層構造を認識しながら文処理をしている可能性が示唆されている [10]. Hale ら [10] は, RNNG の認知的妥当性を主張しているが,その parsing strategy には着目していない. RNNG は, top-down parsing strategy を持つモデルであるが,中央埋め込み文に対するワーキングメモリ負荷の観点から, 人間の持つ parsing strategy は left-corner であると言われている [11]. また, 先行研究で用いられている英語のように, 右枝分かれ構造を持つ言語とは異なり, 日本語のように左枝分かれ構造を持つ言語は, top-down parsing strategy では解析が難しいと言われており, 人間の持つ parsing strategy は top-down ではない可能性がある. そこで本研究では, 左枝分かれ構造を持つ日本語を用いて, top-down/left-corner parsing strategy を持 $\supset$ RNNG の認知的妥当性を, LSTM 言語モデルと比較することにより検証した. 実験により, left-corner parsing モデルが最も認知的に妥当であるが, 線形モデルや top-down parsing モデルも部分的には認知的に妥当であることを示唆する結果が得られた. また,先行研究では言語モデリング精度の高い言語モデルほど認知的妥当性が高いことが確認されている [12] が, 本研究の追加実験では, 工学的精度の高い RNNG ほど認知的妥当性が高い一方で, LSTM 言語モデルの言語モデリング精度の高さは必ずしも認知的な妥当性を意味しないことが示唆された。 ## 2 Linking hypothesis: surprisal 理論 人間は, 文脈から次に来る単語や文節を予測しながら文を処理しており,予測しやすい単語や文節は処理負荷が低く, 読み時間が短くなると言われている.これを定式化したのが, surprisal 理論 $[13,14]$ である. Surprisal 理論では, 文脈に出現する単語や文節の情報量は surprisal $(-\log p$ (単語や文節|文脈 $))$ により測ることができ,さらに $p$ (単語や文節|文脈) が小さいほど大きい値をとる surprisal は, 単語や文節の処理負荷に比例するとされている. 近年では,言語モデルの算出した surprisal が読み時間や脳波のモデル化に有効であることが示されており [6,12],階層構造モデルと線形モデルの読み時間・脳波のモデル化精度を言語モデルの認知的妥当性とみなし比較することで, 人間の文処理に階層構造の認識が伴うか, という問いが検証されてきた $[15,16,6,10]$. しかし,これらの先行研究では, 統一的な結論は得られておらず,また階層構造モデルの parsing strategy は着目されていない. 本研究では, surprisal 理論に則り, 日本語で LSTM 言語モデルと top-down/left-corner RNNG の認知的妥当性を比較する. ## 3 実験 ## 3.1 言語モデル ## 3.1.1LSTM 言語モデル LSTM 言語モデルは, 階層構造を考慮しない単語列の生成モデルである. 本研究では, 単語埋め込みの次元数 256 , 隠れ層の次元数 256 の 2 層 LSTM を持つ LSTM 言語モデルを用いた. ## 3.1.2 Top-down/left-corner RNNG RNNG は, RNNを用いた階層構造と単語列の生成モデルである. RNNG のアーキテクチャを, 図 1 に示す. RNNG では, 単語 (e.g., “hungry”), 開いた句のラベル (e.g., “(NP”) がベクトルで表現される. それらのベクトルから, 閉じた句 (e.g., “(NP the hungry (cat)”)も一つのベクトル表現として算出される. それらのべクトルは, スタックと呼ばれるデータ構造に保持される。 Top-down RNNG では, 各時刻においてスタック LSTM により算出されたスタックの状態を表すべクトルに基づき, 以下の 3 つのアクションに対する確率分布が算出される: ・開いた句のラベルの生成 : 開いた句のラベルを表すべクトルが, スタックの先頭に追加される. ・単語の生成:単語を表すべクトルが, スタックの先頭に追加される。 ・句を閉じる:スタック内の開いた句のラベル及びその句の構成素を表すべクトルが, 閉じた句を表す一つのベクトルに合成される. 前 2 つのアクションが選択された際には, スタックの状態を表すべクトルに基づきどの開いた句のラべル・単語が生成されるかが選択される. 「句を閉じる」アクションの際の, 閉じた句を表すべクトル算出の際には双方向 LSTM が用いられる(図 2). Left-corner RNNG [8] では, top-down RNNG の「開いた句のラベルの生成」にあたるアクションとして,「開いた句ラベルの生成及びスタック内での入れ替え」アクションがある. Left-corner parsing では, 開いた句のラベルがその句の構成素の最左要素が生成または句として閉じられた後に生成される. よって, 開いた句のラベルが生成された際に, 句の構成素の最 図 1 RNNG のアーキテクチャ. 図は Hale ら [10] より. 図 2 「句を閉じる」アクションの際の閉じた句ベクトルの算出. 図は Dyer ら [7] より. 左要素がスタックの先頭に存在するため, それらを入れ替えることで, スタック内にその時刻までに構築された階層構造を実現する。 本研究では, 単語埋め込みの次元数 256 , 隠れ層の次元数 256 の 2 層スタックLSTMを持つ top-down/left-corner RNNG を用いた. ## 3.2 コーパス ## 3.2.1 学習用コーパス NINJAL Parsed Corpus of Modern Japanese (NPCMJ, http://npcmj.ninjal.ac.jp)を用いた. 現代日本語の書き言葉と話し言葉のテクストに対し文の統語・意味解析情報が付与されている. 総文数 40,831 文, 総語数 560,098 語である. 短単位 ${ }^{1}$ を力単位として, 文単位に分割されたコーパスで言語モデルを学習した. LSTM 言語モデルの学習には, 単語列のみ, RNNG の学習には, 階層構造2) ・単語列が用いられた. ## 3.2.2 視線計測コーパス BCCWJ-EyeTrack [20]を用いた. 『現代日本語書き言葉均衡コーパス』 [21] の新聞記事サンプルに対して, 日本語母語話者 24 人分の読み時間が付与されている. Smith ら [22]に則り, 読み時間として first pass timeを用いた. 浅原ら [20] に則り、読み時間がゼロミリ秒である文節は視線が停留していないとして分析データから除外し, また, 本文に出現する文節のみを対象とした. さらに, Fossum ら [16] を踏襲し, 言語モデルの訓練データに出現しない単語を含む文節についても除外した. ## 3.3 Surprisal LSTM 言語モデルの単語 surprisal は言語モデルが算出した当該単語の文脈条件付き確率 ( $p$ (単語|文脈 $)$ ) から直接求められる. RNNG の単語 surprisal は, Hale ら [10] を踏襲し、 ビームサーチ [23]を用いて求める. 単語列の背後に想定される階層構造のうち確率の高いものを複数保持しつつ, それらの確率を階層構造について周辺化することで $p$ (単語|文脈) を求める. 本研究では, Wilcox ら [9] 踏襲し, 周辺化対象となる構造の数を表す単語ビーム幅として 10 を採用した ${ }^{31)}$. 言語モデルは単語単位の確率を算出するが, 日本語では読み時間は文節単位に付与される. 本研究では, 文節内の単語 surprisal の和を文節 surprisal として用いた。 ## 3.4 評価指標:Deviance accuracy 先行研究にならい, 読み時間に関係するとされる説明変数で対数読み時間をモデル化したベースラインの回帰モデルに, 言語モデルの surprisal を説明変数として加えた際の deviance の減少分 (deviance accuracy)を比較する. Deviance accuracy に統計的な有意差があるかどうかは, nested model comparision で  評価した. 言語モデル A, B の surprisalを共に説明変数に含む回帰モデルの deviance が, 言語モデル A の surprisal のみを含む回帰モデルの deviance よりも $\chi^{2}$ 検定( $p \leq 0.05 )$ 下で有意に小さければ, 言語モデル B の surprisal は, 言語モデル A の surprisal が説明できていない variance を説明できており, deviance accuracy の差は有意である. 逆もまた同様である. ベースライン回帰モデルには, 以下の線形混合モデルを用いる: $ \begin{aligned} \log (\mathrm{RT}) & \sim \text { length }+ \text { freq } \\ & + \text { is_first }+ \text { is_last }+ \text { is_second_last } \\ & + \text { screenN }+ \text { lineN }+ \text { segmentN } \\ & +(1 \mid \text { article })+(1 \mid \text { subj }) . \end{aligned} $ 各説明変数の詳細については, 付録に示す. 数値型の説明変数は, 全て中心化を行った. 最初に一度モデル化した上で, 3 標準偏差を超える文節を除外した. 11,504 の文節が最終的なモデル化対象となった. ## 4 結果 結果を図 3 に示した. 横軸が言語モデルを表し,縦軸が deviance accuracy を表す. Deviance accuracy の nested model comparision の結果を, 表 1 に示した.図 3 より, ベースライン回帰モデルに surprisalを説明変数として加えた際に, 全ての言語モデルで読み時間のモデル化精度が向上した. 言語モデル間では, left-corner RNNG が最も deviance accuracy が高く, LSTM 言語モデルと top-down RNNG は left-corner RNNG より低い同程度の deviance accuracy であった. 表 1 より, left-corner RNNG と LSTM 言語モデル, top-down RNNG 間の deviance accuracy の差が有意であった. また, 全ての言語モデル間の組み合わせで nested model comparision の結果が有意であり, deviance accracy が低い LSTM 言語モデルや top-down RNNG であっても, left-corner RNNG が説明できない varirnce を説明できていた.これは, left-corner parsing モデルが最も認知的に妥当であるが, 線形モデルや top-down parsing モデルも部分的には認知的に妥当であることを示唆する。 ## 5 追加実験 Hale ら [10] では, top-down RNNG が LSTM 言語モデルよりも認知的妥当性が高いことが報告されていた. 一方, 本研究では, top-down RNNG と LSTM 言語モデルの deviance accuracy は同程度であった. 図 3 言語モデルの deviance accuracy. 横軸は言語モデルを, 縦軸は deviance accuracy(ベースライン回帰モデルからの deviance の減少分)を表す. 各色が表す言語モデルは以下 : 赤= LSTM 言語モデル、青 = top-down RNNG、緑 $=$ left-corner RNNG. 表 1 Nested model comparison の結果. Bonferroni 法によ Goodkind ら [12] では言語モデリング精度の高い言語モデルほど認知的妥当性が高いことが確認されている. また, Hale ら [10] では, 単語ビーム幅が大きくなると, RNNG の構文解析精度が高くなることが確認されている.これらのことから, より大きな単語ビーム幅を持つ RNNG であれば, 工学的精度が向上し, top-down RNNG でも LSTM 言語モデルよりも高い認知的妥当性が得られる可能性がある. この仮説を検証するために, 複数の単語ビーム幅 $k=\{10,20,40,60,80,100\}$ を持つ RNNGを用いて,工学的精度と認知的妥当性の関係を調べる ${ }^{4)}$. ## 結果 結果を図 4 に示す. 横軸が-perplexityを表し, 縦軸が deviance accuracyを表す.1(赤)が LSTM 言 が left-corner RNNG を表し, $\mathrm{n}$ は単語ビーム幅を表す. Top-down/left-corner RNNG 共に, 単語ビーム幅が  図 4 Perplexity と deviance Accuracy の関係. 横軸が-perplexity を表し, 縦軸が deviance acuracyを表す.1(赤) (緑)が left-corner RNNG, $n$ は単語ビーム幅を表す. 大きくなるほど言語モデリング精度が向上した. Top-down/left-corner RNNG では, 言語モデリング精度が向上すると読み時間のモデル化精度も向上する傾向が観察された. 一方で, LSTM 言語モデルは,様々なビーム幅の RNNG と比べ, 言語モデリング精度が高いが読み時間のモデル化精度が低かった.また, 仮説のように, top-down RNNG であっても, 言語モデリング精度が向上すると LSTM 言語モデルの deviance accuracy を上回った. RNNG の構文解析精度と deviance accuracy の関係については, 付録に示すが, 言語モデリング精度と同様の傾向が観察された. ## 6 おわりに 本研究では, left-corner parsing モデルが最も認知的に妥当であるが, 線形モデルや top-down parsing モデルも部分的には認知的に妥当であることが示唆された. また, 工学的精度の高い RNNG ほど, 認知的妥当性が高い一方で, LSTM 言語モデルの言語モデリング精度の高さは必ずしも認知的妥当性を意味しないことが示唆された。 ## 謝辞 本研究は JSPS 科研費 JP19H04990,および国立国語研究所共同研究プロジェクト「大規模コーパスを利用した言語処理の計算心理言語学的研究」の助成を受けたものです. ## 参考文献 [1] Noam Chomsky. Syntactic structures. Mouton, The Hague, 1957. OCLC: 308125. [2] Sepp Hochreiter and Jürgen Schmidhuber. Long Shortterm Memory. Neural computation, Vol. 9, pp. 1735-80, December 1997. [3] Martin Sundermeyer, R. Schlüter, and H. Ney. LSTM Neural Networks for Language Modeling. In INTERSPEECH, 2012. [4] Tal Linzen, Emmanuel Dupoux, and Yoav Goldberg. Assessing the Ability of LSTMs to Learn Syntax-Sensitive Dependencies. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 521-535, 2016. [5] Ethan Wilcox, Roger Levy, Takashi Morita, and Richard Futrell. What do RNN Language Models Learn about Filler-Gap Dependencies? In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 211-221, Brussels, Belgium, November 2018. Association for Computational Linguistics. [6] Stefan L. Frank, Leun J. Otten, Giulia Galli, and Gabriella Vigliocco. The ERP response to the amount of information conveyed by words in sentences. Brain and Language, Vol. 140, pp. 1-11, January 2015. [7] Chris Dyer, Adhiguna Kuncoro, Miguel Ballesteros, and Noah A. Smith. Recurrent Neural Network Grammars. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 199-209, San Diego, California, June 2016. Association for Computational Linguistics. [8] Adhiguna Kuncoro, Chris Dyer, John Hale, Dani Yogatama, Stephen Clark, and Phil Blunsom. LSTMs Can Learn Syntax-Sensitive Dependencies Well, But Modeling Structure Makes Them Better. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1426-1436, Melbourne, Australia, July 2018. Association for Computational Linguistics. [9] Ethan Wilcox, Peng Qian, Richard Futrell, Miguel Ballesteros, and Roger Levy. Structural Supervision Improves Learning of Non-Local Grammatical Dependencies. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3302-3312, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [10] John Hale, Chris Dyer, Adhiguna Kuncoro, and Jonathan Brennan. Finding syntax in human encephalography with beam search. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2727-2736, Melbourne, Australia, July 2018. Association for Computational Linguistics. [11] Steven P. Abney and Mark Johnson. Memory requirements and local ambiguities of parsing strategies. Journal of Psycholinguistic Research, Vol. 20, No. 3, pp. 233-250, May 1991. [12] Adam Goodkind and Klinton Bicknell. Predictive power of word surprisal for reading times is a linear function of language model quality. In Proceedings of the 8th Workshop on Cognitive Modeling and Computational Linguistics (CMCL 2018), pp. 10-18, Salt Lake City, Utah, January 2018. Association for Computational Linguistics. [13] John Hale. A Probabilistic Earley Parser as a Psycholinguistic Model. In Second Meeting of the North American Chapter of the Association for Computational Linguistics, 2001. [14] Roger Levy. Expectation-based syntactic comprehension. Cognition, Vol. 106, No. 3, pp. 1126-1177, March 2008. [15] Stefan Frank and Rens Bod. Insensitivity of the Human Sentence-Processing System to Hierarchical Structure. Psychological science, Vol. 22, pp. 829-34, June 2011. [16] Victoria Fossum and Roger Levy. Sequential vs. Hierarchical Syntactic Models of Human Incremental Sentence Processing. In Proceedings of the 3rd Workshop on Cognitive Modeling and Computational Linguistics (CMCL 2012), pp. 61-69, Montréal, Canada, June 2012. Association for Computational Linguistics. [17] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying Conditional Random Fields to Japanese Morphological Analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237, Barcelona, Spain, July 2004. Association for Computational Linguistics. [18] Yasuharu Den, Junpei Nakamura, Toshinobu Ogiso, and Hideki Ogura. A Proper Approach to Japanese Morphological Analysis: Dictionary, Model, and Evaluation. In Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC'08), Marrakech, Morocco, May 2008. European Language Resources Association (ELRA). [19] Christopher Manning and Hinrich Schutze. Foundations of Statistical Natural Language Processing. MIT Press, May 1999. Google-Books-ID: 3qnuDwAAQBAJ. [20] 正幸浅原, 創小野, エジソン正宮本. BCCWJEyeTrack. 言語研究, Vol. 156, pp. 67-96, 2019. [21] Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary written Japanese. Language Resources and Evaluation, Vol. 48, No. 2, pp. 345-371, June 2014. [22] Nathaniel J. Smith and Roger Levy. The effect of word predictability on reading time is logarithmic. Cognition, Vol. 128, No. 3, pp. 302-319, September 2013. [23] Mitchell Stern, Daniel Fried, and Dan Klein. Effective Inference for Generative Neural Parsing. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1695-1700, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. 表 2 本研究で用いた説明変数. 図 5 F1 bracket accuracy と deviance accuracy の関係. 横軸が F1 bracketing accuracy を表し, 縦軸が deviance accuracy を表す. td[n](青)が top-down RNNG, lc[n](緑)が left-corner RNNG を表し, $\mathrm{n}$ は単語ビーム幅を表す. 水平に引かれた点線は LSTM 言語モデルの deviance accuracyを表す. ## A 説明変数 本実験で用いた説明変数を表 2 に示す.これらの説明変数は, 浅原ら [20] で用いられているものを踏襲しつつ, 本研究の分析対象外である空白情報に関する説明変数と, 係数が有意ではない記事提示順に関する説明変数を除いた. その上で, 先行研究 $[15,16,10]$ で用いられている頻度情報を加えた。 ## B 構文解析精度 RNNG は, 単語列と階層構造の生成モデルであるため, RNNG の工学的精度には, 5 節で用いた言語モデリング精度の他に, 構文解析精度がある. RNNG の構文解析精度として, RNNG が単語ビーム幅内で最も高い確率を算出した階層構造の F1 bracket accuracy を用い, 認知的妥当性との関係を調べた. RNNG の構文解析精度と読み時間のモデル化精度の関係を図 5 に示した. 横軸が F1 bracket accuracy を表し, 縦軸が deviance accuracy を表す. $\operatorname{td[n]}$ (青)が top-down RNNG, lc[n](緑)が left-corner RNNG を表し, n は単語ビーム幅を表す. 水平に引かれた点線は, LSTM の deviance accuracy を表す. top-down/left-corner RNNG 共に, 単語ビーム幅が大きくなるほど構文解析精度が向上した. 図 5 のように, top-down /left-corner RNNG では, 構文解析精度が向上すると読み時間のモデル化精度も向上する傾向が観察された. Top-down RNNG で も,構文解析精度が高い場合には, LSTM 言語モデルの deviance accuracy を数值として上回ることも確認された. ## C 学習用コーパスの分割 学習用コーパスである NPCMJ は, 14 の出典のテクストからなる.この各出典におけるテクストの, $90 \%$ を訓練データ, $5 \%$ を検証データとして用いた. 言語モデルの学習は, 訓練データにより行われ, 検証データにおける損失が 3 エポック連続で減少しなくなるまで行われた. 残り $5 \%$ はテストデータとして, 言語モデルの perplexity と RNNG の構文解析精度を測定する際に用いた。
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C3-1.pdf
# 宿の推薦根拠説明システムにおける魅力度の考慮と 実用を見据えた評価 叶内 晨 $1^{*}$ 根石 将人 ${ }^{2}$ 林部 祐太 ${ }^{1}$ 大内 啓樹 3 岡崎 直観 4 1 株式会社リクルート Megagon Labs 2 東京大学 3 理化学研究所 4 東京工業大学 ## 1 はじめに 近年,機械学習モデルを利用した推薦時において,なぜその候補を推薦するのか,という推薦根拠の説明性の研究に注目が集まっている $[1,2,3,4]$. Kanouchi ら [5] は抽象的な要求に対する根拠付きの推薦文を提示するために,根拠説明データセットとそのモデルを構築した. しかし、実際にユーザに宿を推薦するシーンを想定すると推薦根拠の候補は無数に考えられ,ユーザにとってより魅力的な根拠を選択して提示する必要があるが,彼らのモデルでは利用する推薦根拠の選定ができていない. そこで本研究では,推薦根拠説明システムの実サービスへの導入に向け,Kanouchi らの取り組みを基にして根拠がどの程度魅力的なのかを予測するモデルを構築し,その出力の有用性をドメイン知識を有した実務担当者により評価する。評価の結果,根拠判定に加えて魅力度を考慮したモデルが適合率 0.81 で推薦根拠の抽出に成功し, 生成した推薦文のうち $55 \%$ は実業務で利用可能なことを報告する. ## 2 先行研究 Kanouchi ら [5] は,宿予約時の推薦根拠説明のために,根拠説明データセット1) とそのモデルを構築した. データセット構築では, (1) レビュータイトルと抽象的な要求の類似性を利用して,宿のレビュー データのタイトルの一部を抽象的な要求とみなして収集し,(2) 対応するレビュー本文中で要求に対応する根拠を含む文をアノテーションし,(3)その根拠文を推薦文へ言い換えた. モデル構築では, (1) 要求と各文が与えられた際に根拠文かどうかを予測する BERT モデル [6] と,(2) 要求とその根拠文が与えられた時に推薦文を生成する LSTM ベースのモデル [7]の2つのモデルを連結させることで,要求に対する根拠付きの推薦文を生成した.  しかし,推薦文を実際にユーザに提示する際は,抽出される根拠文は複数であるのに対して提示する推薦文は大抵 1 文であり, 複数の根拠の中からユー ザにとってより魅力的な根拠を選ぶ必要がある. そこで本研究では,魅力度を考慮した推薦文説明システムを構築し,その出力結果を人手評価する。 ## 3 魅力度のアノテーション 複数の根拠の中からユーザにとってより魅力的な根拠を抽出するため, 要求に満たす根拠文に対して魅力度をアノテーションした2). クラウドソーシング3)を利用し,ワーカーに対して「あなたはとある要求(例えば,絶景の宿)を満たす宿を探しています. 次の根拠文が書かれた宿にどれくらい魅力を感じますか」という質問をして,次の 4 段階から 1 つを選択してもらった。 1. 大変魅力的: このレビュー文が決め手で対象の宿が第一候補になり得る 2. 魅力的: 第一候補ではないが嬉しく,このレビュー文が理由で予約候補になり得る 3. 普通: 要求に関する情報だが,特別嬉しくは感じない 4. 魅力的ではない: その根拠ではこの宿にしたいとは思わない・判断できない データは,Kanouchi ら [5] が作成した根拠説明デー タセットに含まれる根拠文からランダムな 8,000 文を対象とし,各文を 5 人でアノテーションした.ただし,宿予約時にユーザがネガティブな要求はしないと仮定し,要求がネガティブな事例 (例えば,接客が微妙) はアノテーションの対象から除いた。 表 1 にアノテーション結果を示す. 大変魅力的な根拠が全体の $25.3 \%$ ,魅力的な根拠が $47.7 \%$ なのに対して,魅力的ではない根拠は $4.3 \%$ に留まった.  表 1 魅力度のアノテーション結果の分布と例 図 1 推薦根拠説明システムの概要図 ## 4 システム構築 本研究で構築した,魅力度も考慮した推薦根拠説明システムの概要とデータの流れを図 1 に示す. Kanouchi ら [5] の根拠文判定モデルと推薦文生成モデルはそのまま利用し, 追加で魅力度推定モデルを構築した. 魅力度推定のためのデータセットとして,3節のアノテーションで 5 人中 2 人以上が大変魅力的と答えた文を正例,普通もしくは鬿力的ではないと答えた人が 1 人以上で,かつ誰も大変魅力的と答えていない文を負例とした。データ数は正例 2,908 件:負例 2,090 件で,ランダムに $8: 1: 1$ の比率で分割して学習: 検証 : テストデータとした. モデルは BERT [6] を用い,その他すべての条件は Kanouchi らの BERT モデルと同様の設定とした. BERT モデルは二值分類問題として finetuning したが,モデル最終層の出力結果を softmax 関数で正規化することで,推論時の確信度を得た. 根拠判定モデルに対する確信度として根拠スコア,魅力度推定モデルに対する確信度として魅力スコアを得た。 魅力度も考慮した根拠抽出の有用性確認のため,次の 3 つの手法で根拠文を抽出し,評価した。 手法 1) 根拠スコア最大: 魅力スコアを利用せずに,根拠スコア最大の根拠文を利用する 手法 2) 魅カスコア最大: 根拠判定で根拠文と予測された文に対して魅力度推定を行い,魅力スコア最大の根拠文を利用する表 2 利用可能な根拠文の割合 表 3 根拠判定モデルで抽出された根拠文数毎の利用可能な根拠文の割合 & \\ 手法 3) 根拠スコアと魅カスコアの積が最大: 根拠判定によって根拠文と予測された文に対して魅力度推定を行い,根拠スコアと鬿力スコアの積が最大の根拠文を利用する ## 5 評価 ドメイン知識を有する実務担当者 3 名により, システムの出力が実サービスで利用可能か評価し $た^{4)}$. 評価対象は 2 種類で, 要求と宿が与えられた際の(1)システムが抽出した根拠文と(2)システムが生成した推薦文を評価した。 評価セットは,50 種類の要求毎にそれぞれ宿を 2 つ選定し,合計 100 件の宿とした. クラウドソー シングで「宿を提案してくれるコンシェルジュに宿に関する希望を伝える際,どのようなメッセージを 4)本論文ではサービスでの実運用の可否を調査するため,実務担当者の判断を優先し自動評価は行わない. 表 4 利用不可能な根拠文のエラー分析 \\ 送りますか」という質問でデータを収集し,実務担当者とは別の関係者が評価セットに用いる要求を 50 種類選んだ. 評価に用いる宿は,旅行情報サイトじゃらん net ${ }^{5}$ にある宿とし, Li ら [8] の手法を基にした独自のシステムを用いて, 要求を入力し宿候補を得た.また根拠説明のみを評価するために,システムが出力した宿候補を関係者が目視で確認し,要求を満たす宿のみを評価対象とした。 その際,レビュー数が最低 30 件以上ある宿に限定し,また 100 件以上ある場合は最新の 100 件のみ実験に用いた. ## 5.1 抽出した根拠文の人手評価 4 節で構築したシステムの手法 3 つを評価した。要求をもつユーザに宿を実際に提案する状況を想定し,その根拠文を使ってユーザにお薦めをできるか,また利用できる根拠文である場合は宿を薦める強い根拠となるかを 3 段階で評価した。 ## 利用可能: 1. 強い根拠なので,積極的にユーザに伝えたい 2. 根拠であり,ユーザに伝える価値がある ## 利用不可: 3. 根拠ではない,もしくは根拠ではあるが実業務では使えない 全ての事例を実務担当者 3 名で評価し, 3 名のアノテーションの一致率(Fleiss の kappa 値)は 0.425 で,中程度の一致となった. 3 名の意見が割れた事例については,多数決を採った。 手法ごとの根拠文の評価結果を表 2 に示す. 手法 3 が 0.81 の割合で利用可能な根拠を抽出することに成功しており, 精度がもっとも良かった. 強い根拠の抽出精度は手法毎に大きな差はなかった. 魅力スコアにより結果が改善した例として,「健康的な朝食」という要求に対して, 手法 1 は「朝食が品数も多く, 朝からワインもあり, 地元食材が豊富でした」という文を選択し, 利用可能な根拠  表 5 利用可能な推薦文の割合 と判定された一方で,魅力度を考慮した手法 2,3では,「朝食は北海道の食材満載で,特に野菜のクオリティは非常に高く, サラダ以外に温野菜をチーズフォンデューにしたり,スープカレーに入れたりして食べてました.」と具体的根拠を多く含んだ文の抽出に成功し, 強い根拠であると判定された。 根拠判定モデルで抽出された根拠文数毎の評価結果を表 3 に示す. 根拠判定モデルによって十分な量の根拠文(13 文以上)が抽出されている場合,手法 3 は, 0.88 の精度で利用可能な根拠文を抽出することに成功した. 一方で根拠判定モデルによって抽出された根拠文数が少ない場合(12 文以下),すべての手法において精度が低下し, 特に手法 2 の魅力スコア最大の根拠文を利用する場合のスコアが 0.63 でもっとも低かった. 事例を確認しながら精度低下の原因を調査したところ,BERT の根拠判定モデルによって抽出される根拠文が少ない場合,抽出された根拠文に偽陽性(根拠とは言えない文)が多く含まれることがわかった. そのため,抽出される根拠文が少ない場合は,魅力スコアによる並べ替えをせずに根拠スコアが最大ものをそのまま利用した方が,精度高く根拠文を抽出できたと考えられる。 表 4 に,実務担当者が実業務で利用不可能と答えた手法 3 の出力 19 件に対するエラー分析結果を示す.もっとも多いエラーは 10 件で,根拠文ではあるものの利用できるレベルに達していないと判断された事例であった. 例えば実業務では「観光に便利な宿」という要求に回答する場合, 近隣の観光地名とそこまでの所要時間の明確な回答が求められる。 しかし,抽出された根拠文にその情報はなく, 利用水準以下と判断された。他の例には「ゆっくりくつろげる宿」という要求に対して「ほとんど貸切状態 表 6 システムが抽出した根拠文と生成した推薦文の例 \\ でゆっくり入浴」というように,根拠が偶発的・限定的すぎるために推薦では利用不可と判断された事例も確認された. これらの文は Kanouchi ら [5] の研究では根拠文としてアノテーションされておりモデルの出力は想定どおりであるため,今後アノテー ションの修正かモデルの改善が必要である. 2 番目に多いエラーは根拠文とは言い切れない事例で,例えば「繁華街へのアクセスが便利な宿」という要求に対して「空港からも近く」という文は, アクセスが便利であることを表すが,繁華街へのアクセスの利便性は不明である。このような要求に状況を限定する句が含まれている場合に,モデルがその条件を認識できず,解析に失敗する事例が複数確認された.改善策としては,条件などを含む難しい要求を集めて Kanouchi らの根拠説明データセットを拡張する方法などが考えられる. 残りのエラーは 3 件で,根拠を 1 件も抽出できない事例であった. ## 5.2 生成した推薦文の人手評価 4 節で構築したシステムによって生成された推薦文が提示可能かどうか評価した。評価セットは 5.1 節と同様の設定とし,その中から「利用可能」な根拠文と判定された事例のみを評価対象とした。ただし,生成モデルはすべての手法で同一なため,根拠文抽出の精度がもっとも良かった手法(3)の生成結果にのみ次の 3 択で評価した. 1. そのままユーザへ提示可能 2. 一部修正すればユーザへ提示可能 3. 利用不可, もしくは部分的に使えたとしても自分で書いた方が早い評価結果を表 5 に示す。そのまま提示可能な割合が 0.09 , 一部修正後に提示可能な割合が 0.46 となり,合計で半分以上の推薦文をオペレータ業務で利用可能である. しかし,そのまま提示可能な割合は 0.09 であり,実務担当者がそのまま利用可能な推薦文を生成できる割合は低い. 表 6 に生成した推薦文の例とその評価結果を示す. 例 1,2 は生成に成功し,そのまま提示可能な推薦文の例である。一部修正する必要がある例として,例 3 は「格安」をユーザが求めているのに対して推薦文では「安価」であることを主張しているため修正が必要な例で,例 4 は「館内だけで満足できる宿」に対して施設が充実していることを説明しているが,部屋や食事などの重要な要素への言及がなく,実務利用のためには改善の余地がある例である. また利用不可能な事例に関しては,例 5 のように根拠文の時点では利用可能であるが,推薦文生成時に LSTM モデルが誤って出力を短くしすぎる事例が多くみられた。 ## 6 終わりに 本研究では,Kanouchi らの根拠文判定と推薦文言い換えに加えて根拠の魅力度推定を行い,宿推薦時の推薦根拠説明システム全体を人手評価した. 評価の結果,抽出した根拠文のうち $81 \%$ に利用価值があり,また根拠文が十分に確保できる状況では,さらにその精度が向上することを示した. 生成した推薦文は,55\%を業務で利用可能であることを示した.今後はこれらのシステムを実サービス上で活用していくための改善と開発をしたい. ## 参考文献 [1] Badrul Sarwar, George Karypis, Joseph Konstan, and John Riedl. Item-based collaborative filtering recommendation algorithms. In Proceedings of the 10th International Conference on World Wide Web (WWW 2001), pp. 285-295, 2001. [2] Yongfeng Zhang, Guokun Lai, Min Zhang, Yi Zhang, Yiqun Liu, and Shaoping Ma. Explicit factor models for explainable recommendation based on phrase-level sentiment analysis. In Proceedings of the 37th International ACM SIGIR Conference on Research \& Development in Information Retrieval, pp. 83-92, 2014. [3] Guoshuai Zhao, Hao Fu, Ruihua Song, Tetsuya Sakai, Zhongxia Chen, Xing Xie, and Xueming Qian. Personalized reason generation for explainable song recommendation. ACM Transactions on Intelligent Systems and Technology (TIST), Vol. 10, No. 4, pp. 1-21, 2019. [4] Yongfeng Zhang, Xu Chen, et al. Explainable recommendation: A survey and new perspectives. Foundations and Trends in Information Retrieval, Vol. 14, No. 1, pp. 1-101, 2020. [5] Shin Kanouchi, Masato Neishi, Yuta Hayashibe, Hiroki Ouchi, and Naoaki Okazaki. You may like this hotel because ...: Identifying evidence for explainable recommendations. In Proceedings of the 1st Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 10th International Joint Conference on Natural Language Processing (AACL-IJCNLP 2020), pp. 890-899. Association for Computational Linguistics, 2020. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT 2019), pp. 4171-4186, 2019. [7] Minh-Thang Luong, Hieu Pham, and Christopher D Manning. Effective approaches to attention-based neural machine translation. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing (EMNLP 2015), pp. 1412-1421, 2015. [8] Yuliang Li, Aaron Feng, Jinfeng Li, Saran Mumick, Alon Halevy, Vivian Li, and Wang-Chiew Tan. Subjective databases. Proceedings of the VLDB Endowment, Vol. 12, No. 11, pp. 1330-1343, 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C3-2.pdf
# ソーシャルメディアにおけるヘイトスピーチ検出に向けた 日本語データセット構築の試案 荒井 ひろみ ${ }^{1,2}$ 和泉 悠 ${ }^{3}$ 朱 喜哲 4 仲宗根 勝仁 1 谷中 瞳 1 1 理化学研究所 2 科学技術振興機構 さきがけ 3 南山大学 4 大阪大学 \{hiromi.arai, katsuhito. nakasone, hitomi .yanaka\}@riken.jp, yuizumi@nanzan-u.ac.jp, nyarl905@gmai.com ## 1 はじめに 今日のデジタル社会が直面している主要な問題の 1 つに, ソーシャルメディアなどのネット上に蔓延する攻撃的・暴力的表現の取り扱いがある. 特に社会的弱者を標的としたいわゆる「へイトスピーチ」 は世界的な問題となっており,差別や暴動すらを煽動するこうした表現への対応が求められている.へイトスピーチには排外主義的なものも多く存在するが,特にコロナ禍において,排外主義に対する懸念が多くの組織や識者により表明されている ${ }^{1)}$. ヘイトスピーチをどのように検出すればよいのかといった課題に取り組むため, 現在までに多数の暴言やへイトスピーチに関するデータセットが多様な言語及びメディア資源を基にして構築されてきた. 例えば,英語だけでなく,ドイツ語,イタリア語 [1], ロシア語 [2], タイ語 [3], インドネシア語 [4] などのデータセットがある. 本研究では, 日本語のヘイトスピーチのデータセットの構築に取り組んだ。 大規模にへイトスピーチのデータセットを構築するためには, クラウドソーシングの活用など非専門家によるアノテーションが想定される。しかし,「ヘイト (スピーチ)」という言葉は個々人による見解が一致しないと想定され [5], 厳密な定義は不可能だという指摘もある [6]. そのため, SNS 上の投稿のような, 発言の対象が曖昧であり複雑な様相を呈すデータの分類に際しては, アノテーターの主観的な判断に委ねる要素を極力減らすことが望ましい。 本研究の貢献は以下の通りである。まず, 日本語におけるへイトスピーチのデータセット作成に向けて,発言が話題にしている対象者とその対象者に  対する攻撃性の種類を判断させるような手続き的な暴言分類のアノテーションガイドラインを設計した。特に日本独自の歴史・地域性を踏まえたへイトスピーチ理解と, 人文社会科学におけるへイトスピーチに関する理論的知見に依拠したアノテーションガイドラインを設計した。さらに SNS 上のへイトスピーチの候補となるツイートを収集し,クラウドソーシングを用いたアノテーションを試験的に実施し, 得られたデータセットの特徴を考察した. ## 2 関連研究 ヘイトスピーチやその他ネット上の有害表現をもとにしたデータセット作成が急速に進められている. 言語の種類, データの収集方法, データのアノテーション手法・ラベルの種類どれも多様である2). 他の法的概念と同様,「ヘイトスピーチ」に世界共通の定義があるわけではなく, 各研究者が独自にラベルを規定して,試行錯誤を通じてアノテー ション手法を検討している段階だと言える。例えば [8] は社会学における批判的人種理論の枠組みを利用し, 「人種差別的」(racist) もしくは「性差別的」 (sexist) というラベルをツイートに付与した。「憎悪的」(hateful) や「攻撃的」(offensive) といったラベルを何らかの形で特徴付け, アノテーターに直接的に判断させる事例も多い $[9,10,11]$. 既存のアノテー ション手法の限界として, 黒人英語をより攻撃的なものと分類している, という人種差別的バイアスの存在も指摘されている [5]. 多言語を使用してデー タセットを構築することにより, 南アジアでの女性荗視的傾向の高さを測定したといった [12], 地域性を考慮した研究も増加している. 本研究も, 日本国内における排外主義(移民や外国人,在日コリアン 2)例えば [7, Table 2]を参照されたい など「日本人」以外を排斥しようとするもの)に焦点を当てた,地域性を持つものと言える。 より精度の高いアノテーションを目指して,ラベル設定の精緻化やタスクの分散化が図られている.攻撃対象, 攻撃内容やその程度などを細分化するといった手法が採用されている。例えば,ヘイトスピーチの根拠となる属性として, 人種・性別・障がいといったラベルを付与させるといったものである $[4,13,14,15]$. 本研究も, 以下で見るように攻撃対象と攻撃内容を分けて細目化したアノテーション方法を提案している. 日本語を対象とした類似研究として特にネットいじめ (cyberbullying) の文脈における有害情報検出の手法を検討したものが多く存在する $[16,17,18,19]$.本研究は, 個人だけでなく特定属性の集団を標的とした排外主義的なへイトスピーチに焦点を当て, 有害な書き込みを別の角度から検討している。 コロナ禍における反アジアのへイトスピーチについて, 英語ツイートのデータセットが作成されている. COVID-19 のキーワードが含まれるツイートのうち, 個人またはアジアの人々, 組織, 国, または政府のグループに向けられたへイトスピーチ, 反へイト, 中立の 3 種類の分類 $[20]$ 及び敵意や糾弾, 力ウンタースピーチなどの分類 [21] がアノテーションされている. 本研究も同様にコロナ禍を考慮しているが,特に日本における排外主義的へイトスピーチに着目した分類を行っている。 ## 3 構築手法 ## 3.1 検索語リスト作成 日本語のツイートを対象に, 排外主義的ツイートの収集を目的として検索語を合計 12 件選定した。検索語には, 日本で特に顕著に見られる在日コリアン及び中国人に関連する差別語(例えば「在日」や 「シナ」)と, 差別語に対応する中立的な語(例えば 「韓国人」や「中国」),コロナ禍における排外主義的な言動を収集するために「反日」や「売国」といった語を含めた。 ## 3.2 データ収集 日本語のツイートを Twitter Search API を用い収集した。COVID-19関係の暴言ツィート候補については, 上記の検索語と, 一般的に COVID-19 関係の話題に含まれるキーワードである「コロナ」を AND検索して収集した。また,COVID-19 以外の暴言ツイート候補については,上記の検索語から「コロナ」を除外して検索し収集した。なお,今回収集した COVID-19 関係の暴言ツイート候補は全て目視で COVID-19関連であることを確認した。検索においては URL や画像・動画を含むもの, リツイートを除外した。検索は 2020/12/1-2020/12/9 の期間の日本時間の各日に, 各検索語の組に対して上限 100 ツィー トまでランダム選択で収集した。さらに各検索語から期間中に収集されたツイートに対し,それぞれ 5 から 23 件を乱択しデータセットを作成した。 ## 3.3 ガイドライン設計 ヘイトスピーチに関する人文社会科学分野の研究蓄積からも「へイト(スピーチ)」概念の定義については一致を見せておらず,なおのこと非専門家アノテーターに対して同概念の適用に関する判断を求めることは困難である.そのため, 本研究ではこうした概念を使用せず,その典型的な特徴である「集団に対する攻撃」という側面に基づいて,より負荷の少ない判断を求める方法をとった. 具体的には,ラベルを攻撃対象 (A) と攻撃内容 (B) に分け, 各々を細分化したガイドラインを設計した. ラベル A のカテゴリはツイートが話題にしている対象者の分類である. ラベル B のカテゴリは $\mathrm{A}$ で選択された対象者に対する攻撃の種類の分類である。また,[22] の分類を参考に,文として成立しておらず意味が取れないもの, 広告のみのもの, フィクションについてのツイートなどは分類の対象外となるラベル C とした。アノテーターには各対象ツイートの本文について A,B 各カテゴリから 1 つ以上の該当ラベルを選択するか, $\mathrm{C}$ を選択するよう指示した.ツイート内容に複数の主張が含まれるケースを考慮し, A と B それぞれのラベルについて複数選択可能にした。 ガイドラインには,簡単な説明と短い例文を添えたラベル及び,アノテーションについての補足説明とラベル付けの具体例を記載した。また,ある表現が差別語にあたるかどうかの判断は個々の知識に依存するため, 今回は「中国ウイルス」や「在日特権」 などを含む 27 項目の差別語からなるリストを作成し, アノテーターが参照できるよう配慮した。 表 1 にアノテーションに用いたラベルの概要を示す. A1 は人種やセクシャリティなどに基づくグループ,A2 はそれに限らない職業や思想などで定義されるグループとし, A3 は著名人や知人等であ 表 1 ラベルの概要. ## カテゴリ A 対象 A1容易に変更できないヒトの属性にもとづくグループ A2 A1には当てはまらない何らかのグループ A3 個人 A4 対象がはっきりしないもの カテゴリ B 攻撃タイプ B1コミュニティや地域からの排除を告知・扇動する B2 生命を脅かす,精神的・身体的な危害を加える,名誉を傷つけるなどのことを告知・扇動する B3 口污くののしる,侮辱する B4不確かな根拠にもとづいた情報を言いふらす,拡散させる B5 B1-B4 のどれにも当てはまらず,攻撃的でない る. B1 と B2 は,日本のいわゆる「ヘイトスピーチ解消法」の施行に伴う啓発活動において用いられたへイトスピーチの例示 ${ }^{3}$ , 及び川崎市のヘイトスピーチ禁止条例解釈指針4)を参考に作成した.B3に該当するのは,例えば「ゴキブリ以下」など侮荗的なことを言い誰かをおとしめる行為である.B4 に該当するのは,例えば「○○人が暴動を起こしている」など事実関係が不明なことを言いふらす・拡散させるなどして誰かをおとしめる行為である. 補足説明では, 差別語や「バカ」や「チビ」といった不快語がツイートに含まれていることだけを根拠としてそのツイートを攻撃的だと判断しないよう指示した。また, 「政権太郎は議員を辞めるべきである」といった内容を含むツイートはある意味で特定のコミュニティから個人を排除するよう主張するものだが,批判・論評の範囲に収まる内容の場合には攻撃的と判断しないよう指示した. A1 かつ B1,または A1 かつ B2 のツイートが明確なヘイトスピー チの事例と考えられる.A1 かつ B3,または A1 かつ B4 のツイートは保護の対象となるグループに対する攻撃的な内容を有し,法規制の対象外ではあるものの少なくともその一部には広義のヘイトスピー チに該当するものが含まれていると考えられる. 3) http://www.moj.go.jp/JINKEN/jinken04_00108.html 4) https://www.city.kawasaki.jp/templates/press/cmsfiles/contents /0000115/115983/0316houdou.pdf ## 3.4 アノテーション 本研究ではクラウドソーシングプラットフォー ムであるランサーズ5)を通じてアノテーションを実施した。アノテーターは日本語のネイティブスピー カー 3 名とした. アノテーターは最初にガイドラインの読み込み及び 10 問のアノテーションテストを全問正解するまで繰り返し実施し,ガイドラインを十分理解するようにした。その後アノテーターはツイートのアノテーションを実施した。多数決によって 2 人以上一致したアノテーションを各ツイートのラベルとした。 ## 4 データセットの概要 キーワード「コロナ」を含むツイート 230 件,含まないツイート 270 件のデータセットが得られた。 それぞれ CALD (COVID-19-related abusive language dataset), NALD (non-COVID-related abusive language dataset) とする. B1〜B4 の少なくとも一つのラベル(攻撃的ラベル)を得たデータは,CALD が 判定される B5 のラベルを得たデータは,CALDが 41.3\%,NALD が 50\%であった. 各データセットにおける各ラベルの総数を表 2 に示す. クラウドワーカー 3 人のアノテーションの一致度は, 全体で CALD で 0.83 , NALD で 0.80 であった。 ラベルがつかなかったケースは, CALDで 15 件, NALD で 17 件あった。他の方法はアノテーションの前に候補ツイートのスクリーニング [4] などを利用しているが,本研究ではラベルなしの割合が $10 \%$以下となるため,ワーカーによる判断のゆらぎはある程度抑えられたと考えられる。 ## 5 分析 $\cdot$ 考察 差別語を含むが無害な事例 3.3 節で述べたように,アノテーターには差別語が含まれていることだけを理由に攻撃的なツイートと判断しないよう指示した. その結果, 差別語が含まれる発言を引用しその発言を非難するといったカウンタースピーチにあたる事例や,差別語が含まれているが誰かをおとしめる目的のない事例が B5 に分類されていた. CALD と NALD の比較 CALD と NALD との比較を通じて,以下の仮説を得ることができた。まず,同期間で明らかなへイトスピーチに該当する A1 5) https://www.lancers.jp/ 表 2 データセットのラベル数及びアノテーション一致度. と B1,または A1と B2 の組み合わせの出現率は, CALD で $5.7 \%$, NALD で $2.2 \%$ といずれも低水準であり, 有意な差はみられなかった. 他方, 罵倒や侮辱などの暴言を指す B3 と $\mathrm{A} 1$ との組み合わせでは, NALD がやや多かった(CALD で 22.6\%,NALD で $24.8 \%$ ).またフェイクニュースやデマに相当する B4 と A1 との組み合わせでは, CALD が顕著に多かった(CALDで 30.4\%, NALDで $23.3 \%$ ).これより, COVID-19 の流行にかこつけた暴言に関しては,明らかなへイトスピーチや罵倒・侮聋的発言よりも, まことしやかなデマ, フェイクニュースの形をとりがちである,という仮説が提出できる。これは今後の計量的な検証が必要なものの, 今回のアノテーション方式を通じて可能になった示唆である. アノテーションが摇れた事例ラベルがつかなかったツイートについては, 専門家かどうかに関わらず判断の難しい事例が多数見られた。例えば,「○○人の友人がいますが, 表面的に付き合う分にはいいが社会的に付き合うなら警戒感が欠かせません」というツイートは,「黒人の友達がいる」論法 6) の典型的な事例だが,この内容だけでは当のツイートが暴言かどうかを判断するのは難しい。このツイートは特定の人種に対する何らかの偏見に基づいており,ある種の有害さを含んでいると考えられるが,B1 やB2 に該当しないのはもちろんのこと,明確な侮辱でもなければ, 具体的なデマや偏見を拡散させるものでもない. 個人差がある事例他国の政権や政党に言及したものや在日米軍などの他国の組織への言及があるツイートについて,A2 だけをアノテーションする者と, A1 と A2 の両方にアノテーションする者に分かれる場合があった。例えば「中国さん」というフレーズを含むツイートは中国政府だけでなく中国人あるいは一般に中国に向けられたものと考えられるが,中国政府だけを標的とした攻撃的ツイートとして A2 のみアノテーションされた場合があった。 6)被差別者の友人や知人がいることを前置きし,自身が差別主義者でないことを主張ないしは示唆すること. 差別主義者の常套句として知られる. ## 6 おわりに 本研究のアノテーション設計は,「ヘイトスピー チ」のような高負荷な概念に頼ることなく, 非専門家アノテーターによる一定水準の検出を可能にするものであった。とりわけガイドラインは,オンライン上の暴言・ヘイトスピーチについて,きめ細かな把握が可能である.これらはへイトスピーチに関する人文社会科学の知見を生かしつつ,またそれらの分野から提出される仮説の検証と社会実装につながるデータセットの構築という学際的研究の進展に貢献するものである. 今後の課題として以下がある.まず,本研究は現段階ではアノテーション済みデータの総数が小さく, 定量的な判断や仮説検証は難しい。同様に,アノテーター数が少ないために, 現段階では偏りやバイアスの可能性を排除できない。今後,アノテー ター数を増やしガイドラインを改良することによって, 5 章で紹介したようなアノテーションの摇れや個人差の問題を解消できる可能性がある. さらに,データセット構築の先に望まれる社会実装に向けた分野横断的な課題がある。言語処理の観点では,今回のアノテーションで $\mathrm{C} に$ 分類されたノイズを事前に除去したり,B5 のような検索語を含むが非攻撃的なタイプのツイートを識別することなどの自動化を試みることが期待される.他方,人文社会科学の観点では,とりわけ国内法におけるへイトスピーチ検出に向けて,現ガイドラインでは区別できないB3(罵倒表現)やB4(フェイクニュース, デマ)の悪さの「程度」について一定の判定を可能にするための理論的検討や,それに基づいたガイドライン整備などが求められる. 謝辞. 本研究の一部は JST さきがけ JPMJPR1752, JSPS 科研費 18K12194, JP20K19868, T19K230050, 2020 年度南山大学パッへ研究奨励金 I-A-2 の助成を受けたものである。 ## 参考文献 [1] Fabio Del Vigna, Andrea Cimino, Felice Dell'Orletta, Marinella Petrocchi, and Maurizio Tesconi. Hate me, hate me not: Hate speech detection on Facebook. In Proceedings of the First Italian Conference on Cybersecurity (ITASEC17), pp. 86-95, 2017. [2] Nadezhda Zueva, Madina Kabirova, and Pavel Kalaidin. Reducing unintended identity bias in Russian hate speech detection. In Proceedings of the Fourth Workshop on Online Abuse and Harms, pp. 65-69, 2020. [3] Suppawong Tuarob and Jarernsri Mitrpanont. Automatic discovery of abusive thai language usages in social networks. In International Conference on Asian Digital Libraries, pp. 267-278, 2017. [4] Muhammad Okky Ibrohim and Indra Budi. Multi-label hate speech and abusive language detection in Indonesian Twitter. In Proceedings of the Third Workshop on Abusive Language Online, pp. 46-57, 2019. [5] Thomas Davidson, Debasmita Bhattacharya, and Ingmar Weber. Racial bias in hate speech and abusive language detection datasets. In Proceedings of the Third Workshop on Abusive Language Online, pp. 25-35, 2019. [6] Alexander Brown. What is hate speech? part 1: The myth of hate. Law and Philosophy, Vol. 36, pp. 419-468, 2017. [7] Sai Saket Aluru, Binny Mathew, Punyajoy Saha, and Animesh Mukherjee. Deep learning models for multilingual hate speech detection. arXiv:2004.06465, 2020. [8] Zeerak Waseem and Dirk Hovy. Hateful symbols or hateful people? predictive features for hate speech detection on Twitter. In Proceedings of the NAACL student research workshop, pp. 88-93, 2016. [9] Chikashi Nobata, Joel Tetreault, Achint Thomas, Yashar Mehdad, and Yi Chang. Abusive language detection in online user content. In Proceedings of the 25th international conference on world wide web, pp. 145-153, 2016. [10] Thomas Davidson, Dana Warmsley, Michael Macy, and Ingmar Weber. Automated hate speech detection and the problem of offensive language. In Proceedings of the International AAAI Conference on Web and Social Media, Vol. 11, 2017. [11] Antigoni Founta, Constantinos Djouvas, Despoina Chatzakou, Ilias Leontiadis, Jeremy Blackburn, Gianluca Stringhini, Athena Vakali, Michael Sirivianos, and Nicolas Kourtellis. Large scale crowdsourcing and characterization of Twitter abusive behavior. In Proceedings of the International AAAI Conference on Web and Social Media, Vol. 12, 2018. [12] Shiladitya Bhattacharya, Siddharth Singh, Ritesh Kumar, Akanksha Bansal, Akash Bhagat, Yogesh Dawer, Bornini Lahiri, and Atul Kr. Ojha. Developing a multilingual annotated corpus of misogyny and aggression. In Proceedings of the Second Workshop on Trolling, Aggression and Cyberbullying, pp. 158-168, 2020. [13] Paula Fortuna, João Rocha da Silva, Juan Soler-Company, Leo Wanner, and Sérgio Nunes. A hierarchically-labeled Portuguese hate speech dataset. In Proceedings of the Third Workshop on Abusive Language Online, pp. 94-104, 2019. [14] Binny Mathew, Punyajoy Saha, Seid Muhie Yimam, Chris Biemann, Pawan Goyal, and Animesh Mukherjee. Hatexplain: A benchmark dataset for explainable hate speech detection. arXiv:2012.10289, 2020. [15] Nedjma Ousidhoum, Zizheng Lin, Hongming Zhang, Yangqiu Song, and Dit-Yan Yeung. Multilingual and multiaspect hate speech analysis. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 4675-4684, 2019. [16] 松葉達明, 桝井文人, 河合敦夫, 井須尚紀. カテゴリ別関連度最大化手法に基づく学校非公式サイトの有害書込み検出. 言語処理学会第 17 回年次大会発表論文集, pp. 388-391, 2011. [17]新田大征, 桝井文人, Ptaszynski Michal, 木村泰知, Rzepka Rafal, 荒木健治. カテゴリ別関連度最大化手法に基づく学校非公式サイトの有害書込み検出. 人工知能学会全国大会論文集, Vol. JSAI2013, pp. 2039-2039, 2013 [18] Michal Ptaszynski, Fumito Masui, Taisei Nitta, Suzuha Hatakeyama, Yasutomo Kimura, Rafal Rzepka, and Kenji Araki. Sustainable cyberbullying detection with categorymaximized relevance of harmful phrases and doublefiltered automatic optimization. International Journal of Child-Computer Interaction, Vol. 8, pp. 15 - 30, 2016. [19] Michal E Ptaszynski and Fumito Masui. Automatic Cyberbullying Detection: Emerging Research and Opportunities: Emerging Research and Opportunities. IGI Global, 2018. [20] Caleb Ziems, Bing He, Sandeep Soni, and Srijan Kumar. Racism is a virus: Anti-Asian hate and counterhate in social media during the COVID-19 crisis. arXiv:2005.12423, 2020. [21] Bertie Vidgen, Scott Hale, Ella Guest, Helen Margetts, David Broniatowski, Zeerak Waseem, Austin Botelho, Matthew Hall, and Rebekah Tromble. Detecting East Asian prejudice on social media. In Proceedings of the Fourth Workshop on Online Abuse and Harms, 2020. [22] Ona de Gibert, Naiara Perez, Aitor García-Pablos, and Montse Cuadros. Hate speech dataset from a white supremacy forum. In Proceedings of the 2nd Workshop on Abusive Language Online (ALW2), pp. 11-20. Association for Computational Linguistics, 2018.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C3-3.pdf
# Wikipedia からの意外な恩恵事例の抽出 尾崎立一 橋本力* 村脇有吾 $\quad$ 黒橋禎夫ま 竬々野学 $\S$ 京都大学大学院情報学研究科 *\$ヤフー株式会社 \{ozaki, murawaki,kuro\}@nlp.ist.i.kyoto-u.ac.jp msassano@yahoo-corp.jp ## 1 はじめに 現代社会は地球規模での相互依存性の深化とともに複雑さが増し続けている. それにともない, リー マンショックや新型コロナウィルスの世界的流行のような予測困難な事態が発生し,それが社会に重大な影響を与えることがある。その一方で,そのようなネガティブな事態によって,意外なポジティブな事態が生まれることもある.新型コロナウィルスが旧来のシステムの問題点を明らかにし, デジタル化・オンライン化推進の契機になるような例である。このような意外な恩恵を含めて俯瞰的に問題を捉えることは重要であり,千載一遇のチャンスを掴む可能性を高めることにもなる. そこで本研究は,意外な恩恵の事例を大規模テキストから自動抽出することを目的とする.大規模テキストとして Wikipedia 記事群を用いる. Wikipedia は百科事典であり,様々な事物を広範に扱っていること,また多くの人々が編集に参加し内容を精査しているため, 情報の信憑性も高いと考えられることがその理由である. 対象言語は英語である.以下に本研究で対象とする,意外な恩恵の例を挙げる。 Smoking reduces the risk of Parkinson's disease. 健康にとって有害だと広く知られている喫煙に,実はパーキンソン病のリスクを減らしうること1) が述べられている。この例が示す通り, 本研究における意外な恩恵は,専門家を含む一部の人々には既知でもその他大勢の人々にとっては意外と感じられる恩恵のことである. 提案手法の基本的なアイデアは次の通りである: ネガティブなものと広く知られているエンティティを何らかの恩恵をもたらすものとして述べている文は,その意外な恩恵を述べている可能性が高い.上述の Smoking の例は, 健康にとって有害である点でネガティブといえる喫煙を,パーキンソン病リスク低減の恩恵をもたらすものとして述べている。 reduces the risk of Parkinson's disease のような恩恵を  図 1 提案手法の全体像 述べている箇所をポジティブ説明,ネガティブなものと広く知られているエンティティをネガティブエンティティと呼ぶことにすると,上記アイデアを次のように言い換えることができる: ネガティブエンティティについてのポジティブ説明を述べている文は,その意外な恩恵を述べている可能性が高い。このアイデアを実現するには,ネガティブエンティティとポジティブ説明を自動認識する方法が必要である.2 節で詳述する. 英語 Wikipedia 全体からランダムに抽出した 300 文を調べたところ意外な恩恵を述べている文は 1 文も無かった。これは本タスクの難易度が非常に高いことを示している。一方, 提案手法は英語 Wikipedia 全体から意外な恩恵の事例を 40 件自動抽出できた.改善の余地は大きいが,意外な恩恵の割合がそもそも非常に低いため,全数チェック等のナイーブな手法と比べ,はるかに効率的に意外な恩恵の事例を抽出できる.実験については 4 節で述べる. ## 2 提案手法 図 1 に示す通り,提案手法は, Wikipedia からネガティブエンティティを抽出し,次に,それが主題となっている文を抽出する。 最後に, 分類器によって,ネガティブエンティティのポジティブ説明を述べているものだけを残す。 ## 2.1 ネガティブエンティティ抽出 本研究におけるネガティブエンティティは, 病気や災害,事故,不況,テロ,戦争等の不運,不幸な 図 2 Cancer (左) と Flood のセクション群 事物,またはそれらの原因となりうる事物を指す。 英語の Wikipedia 記事として取り上げられている(記事タイトルとなっている)エンティティのうち,記事中に Cause または Causes というセクションが設けられているものは, Cancer, Flood, Traffic collision, Great Depression 等2) ネガティブエンティティである場合が多い. これは,何らかの不運,不幸につながりうる,または実際そうなった事物について百科事典に記述する際は,その原因が重要な記載項目と見なされるからだと推測される. 図 2 亿 Cancer と Flood の記事のセクション群を示す. 以上の観察結果に基づき,提案手法はCause, Causes セクションを持つ記事のタイトルをネガティブエンティティとして抽出する. ## 2.2 文抽出 抽出したネガティブエンティティが主題の文を意外な恩恵事例の候補(2.3 節で述べる分類器への入力)として Wikipedia から抽出する. ネガティブエンティティが主題である文に限定するのは,単に当該エンティティを含む文だと,その説明がポジティブであれネガティブであれ,そもそも極性が当該エンティティに関するものではない可能性があるからである. ここで問題になるのはいかにして文の主題を認識するかである.提案手法は,Wikipedia 記事中の当該記事のタイトルを含む文はそのタイトルを主題とした文である可能性が高い,という仮説のもと,ネガティブエンティティがタイトルである記事から,そのタイトルを含む文を抽出する。例えば,タイトルが Flood の記事から文字列 Flood/flood を含む文を抽出する。 加えて,意外な恩恵事例抽出の精度を上げるべく, 文の抽出元を, Benefit, Advantage, Positive のいずれかの文字列をセクション名に含むセクションのみに限定する。 つまり,提案手法は,ネガティブエンティティがタイトルである記事の中の, Benefits やAdvantages, Positive Effects といったポジティブな  ## Benefits Floods (in particular more frequent or smaller floods) can also bring many benefits, such as recharging ground water, making soil more fertile and increasing nutrients in some soils. Flood waters provide much needed water resources in arid and semi-arid regions where precipitation can be very unevenly distributed throughout the year and kills pests in the farming land. Freshwater floods particularly play an important role in maintaining ecosystems in river corridor and are a key factor in maintaining floodplain biodiversity. ${ }^{[22]}$ Flooding can spread nutrients to lakes and rivers, which can lead to increased biomass and improved fisheries for a few years. For some fish species, an inundated floodplain may form a highly suitable location for spawning with few predators and enhanced levels of nutrients or food. ${ }^{[23]}$ Fish, such as the weather fish, make use of floods in order to reach new habitats. Bird populations may also profit from the boost in food production caused by flooding. $[24]$ Periodic flooding was essential to the well-being of ancient communities along the TigrisEuphrates Rivers, the Nile River, the Indus River, the Ganges and the Yellow River among others The viability of hydropower, a renewable source of energy, is also higher in flood prone regions. 図 3 Flood の Benefits セクション 内容が書かれている可能性が高いセクションからのみ文を抽出する.ネガティブエンティティに関する記事の一部でありながらポジティブな内容が書かれているセクションは少数ながら存在する. 例えば図 2 右にあるように, Flood はネガティブエンティティでありながら,その記事には Benefits セクションが含まれている。図 3 に示す通り,そうしたセクションにはネガティブエンティティのポジティブな側面が書かれる傾向がある。一方で,そうしたセクションにある文全てが意外な恩恵を述べているわけではない. そこで 2.3 節で述べる分類器により,抽出した文を意外な恩恵を述べている可能性の高いものとそれ以外に分類する. ## 2.3 分類器 提案手法の分類器は,抽出された 1 文を入力として受け取り,そのうちのネガティブエンティティ以外の箇所,つまりネガティブエンティティの説明がポジティブである可能性を示すスコアを出力する.具体的には,ネガティブエンティティを<ENT>という記号に置換した文を受け取り,0から 1 の間のスコアを出力する. 分類器は, BERT $^{3}$ ) と, 1 層の feed-forward network から成る. 大力文はトークン列に分割され,先頭に [CLS]トークン, 末尾に [SEP] トークンが連結される. BERT の最終層の [CLS] トークンに対応する embedding を feed-forward network に入力しスコアを得る. ## 3 分類器の学習 分類器の学習データは次の通りに構築した。まず,英語 Wikipedia(2019 年 1 月 7 日版)全体から,粗いフィルタリングとして,セクション名に Advantage,Benefit などのポジティブなキーワードを含むセクションの文のみを残す。次に,それらの中から,何らかの事柄のポジティブな面について述べている文を人手で見つけ,ポジティブ説明とする. 非ポジティブ説明については,上記以外の 3) https://huggingface.co/bert-base-cased 図 4 提案手法で抽出したネガティブエンティティの例 セクション中から,何らかの事柄のネガティブな面,またはポジティブでもネガティブでもない面について述べた文を人手で見つけた。最終的に 585 文からなる学習データができた。 そのうち, 266 文がポジティブ説明である. 上記データを用いて分類器を学習した. Epoch 数は 500, Loss 関数は Cross Entropy, 最適化には AdamW を用いた。 ## 4 評価実験 提案手法により意外な恩恵候補文抽出し,分類器によりランキングした. その評価結果と抽出できた事例について述べる。 ## 4.1 ネガティブエンティティ・意外な恩恵候補文の抽出 提案手法により,英語 Wikipedia から 6042 件のネガティブエンティティを抽出した. 50 件をランダムに抽出して調査したところ 42 件が実際にネガティブエンティティと言えるものだった. 図 4 に抽出したネガティブエンティティを例示する。 病気や災害,事故,経済的困難,戦争等幅広いネガティブエンティティが抽出できた。 次に。提案手法を用いて実際に英語 Wikipedia から意外な恩恵事例の候補文を抽出した. その結果, Wikipedia 全体から 112 文を抽出した. ## 4.2 ベースライン手法 ベースラインとして, Wikipedia 全体からランダムに 300 文を抽出する方法を選んだ。これが最もシンプルな手法であること,意外な恩恵事例抽出の先行研究が著者らの知る限り存在しないこと, Wikipedia 全体に占める意外な恩恵事例の割合を推定したかったことがその理由である4). ## 4.3 評価方法 抽出した事例の適合率と抽出数を評価する。正解判定は著者のうち 2 名が別々に行う. 判定作業  図 5 提案手法のランクごとの適合率 では,Yes(抽出した文は意外な恩恵事例である), No(そうした事例ではない),?(判断に迷う)の 3 つのラベルのいずれかを付与する形で行う.次の基準のいずれかで両者の判定をとりまとめ,最終的な判定とする。 1. 両者とも Yes としたものだけを正解とする. 2. 一人でも Yes としたものを正解とする. 3. 両者とも Yes か?としたものを正解とする. 4. 一人でも Yes か? としたものを正解とする. 公正さを担保するため,判定作業に先立ち,提案手法とベースラインの出力を 1 つにまとめ,シャッフルし,どの文がどの手法の出力かわからないようにする。 両者の判定の Cohen's kappa の値は 0.65 (substantial agreement) だった. ## 4.4 評価結果 実験の結果,ベースラインの抽出数と適合率はともに 0 ,つまりその出力 300 件はいずれも意外な恩恵事例とは言えないものだった. そのため, Wikipedia 全体に占める意外な恩恵事例の割合は推定できなかった. この点は今後の課題としたい. 提案手法の抽出数(スコア上位 $k$ 件)とその適合率をプロットしたグラフを図 5 に挙げる。凡例の $\mathrm{C} 1$ から C4 は 4.3 節の基準 1 から 4 に対応する. 条件 C4 では適合率 $80 \%$ 以上で 16 件の意外な恩恵事例を抽出した. Wikipedia 全体から抽出した事例候補全 112 件中 40 件が意外な恩恵事例と言えるものだった. 表 1 に提案手法の抽出結果の例を挙げる. 誤りの要因は (1) ネガティブエンティティ抽出の誤り,つまり Cause/Causes セクションのある記事のタイトルだがネガティブとは言えないエンティティを誤って抽出した場合 (表 1 の Rank 79 位),(2) 文抽出の誤り, つまり, Gram positive bacteremia 等のように, Benefit, Advantage,Positive のいずれかを含むセクションタイトルのセクションではあるが,当該エンティティに関するポジティブな内容ではないセクションから文抽出した場合 (Rank 85 位),(3) 分類器の誤り,つまり当該エンティティの説明を誤ってポジティブと \\ 表 1 提案手法の抽出結果の例: ランク,判定者 2 名の判定,ネガティブエンティティ,抽出された文 判定した場合(87 位)の大きく3つに分類できる. (1) ネガティブエンティティ抽出は, CauselCauses セクションの有無という非常にナイーブな手がかりのみに基づいているが,そうした手がかりを利用して学習データを効率的に収集し, 教師あり学習を用いることで精度向上が期待できる。(2) 文抽出も同様に,ポジティブな内容が書かれているセクションのタイトルかどうかの判定に教師あり学習を導入することで改善が期待できる. (3) 現状の分類器は 585 件のわずかなデータで学習されたものであり,学習データの拡充による精度向上の余地は大きいと考えられる。 ## 5 関連研究 本研究は,不確実な未来に備えるための,あまり知られていない因果関係知識の獲得の研究と見なすことができ,未来シナリオ予測 $[2,4]$, 因果関係知識獲得 $[3,1]$, トリビア知識獲得 [5] の 3 つが関連の深い領域となる. 未来シナリオ予測は,将来起こりうる重大な事態をその可能性がいかに低くても事前に把握する, という目的のもと,起こりうる未来のシナリオを予測,生成する研究である. 因果関係知識獲得は,原因と結果を表すテキストを獲得する研究であり, その獲得結果は未来シナリオを自動生成する際に用いられることがある. こうした過去の研究と本研究の大きな違いは,意外な結末にフォーカスし, その自動抽出技術を開発したことにある. 従来の未来シナリオ予測でも意外な結末を対象にしてはいたが,それは人手によるところが大きい。一方従来の因果関係知識獲得は常識的知識を対象としており,意外なものをシステマティックに獲得することは困難だった. トリビア知識獲得は,オバマ元大統領のグラミー賞受賞等, あまり知られていない意外な事実を自動獲得する研究である. しかし,意外な結末に関する事実を獲得する研究はこれまでなかった。 これまでになかった意外な恩恵事例抽出を可能にしたのは,1節で述べた,ネガティブエンティティのポジティブ説明を述べている文は,その意外な恩恵 を述べている可能性が高い, というアイデアである. ## 6 おわりに 本研究では意外な恩恵の事例を自動抽出する手法を提案した. 精度, 抽出数ともに改善の余地は大きいが,4.4 節で述べた通り,機械学習の導入や学習データの拡充で精度向上が大いに期待できる。 今後の方向性として意外な落とし穴事例抽出が挙げられる.つまり,善意の施策やサービス等が何らかの不運,不幸な結末につながる事例の抽出であり,例えば,食糧増産のための政策が逆に大飢饉につながった毛沢東による大躍進政策が挙げられる。 また,本研究では対象を Wikipedia に限定したが, Wikipedia 以外への拡張も今後の課題である. 具体的には,作成したネガティブエンティティのリストと説明分類器を新聞記事,ブログ,SNS 等に適応し,意外な恩恵の文を抽出する.その際,提案手法では Wkipedia の記事タイトルとセクション名を利用したが,そのような Wikipedia 特有の構造が利用できない点が問題となる. ## 参考文献 [1] Chikara Hashimoto. Weakly supervised multilingual causality extraction from Wikipedia. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2988-2999, 2019. [2] Chikara Hashimoto, Kentaro Torisawa, Julien Kloetzer, Motoki Sano, István Varga, Jong-Hoon Oh, and Yutaka Kidawara. Toward future scenario generation: Extracting event causality exploiting semantic relation, context, and association features. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (ACL), pp. 987-997, 2014. [3] Canasai Kruengkrai, Kentaro Torisawa, Chikara Hashimoto, Julien Kloetzer, Jong-Hoon Oh, and Masahiro Tanaka. Improving event causality recognition with multiple background knowledge sources using multi-column convolutional neural networks. In Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence (AAAI), pp. 3466-3473, 2017. [4] Kira Radinsky, Sagie Davidovich, and Shaul Markovitch. Learning causality for news events prediction. In Proceed- ings of the 2012 World Wide Web Conference (WWW), pp. 909-918, 2012. [5] David Tsurel, Dan Pelleg, Ido Guy, and Dafna Shahaf. Fun facts: Automatic trivia fact extraction from wikipedia. In Proceedings of the Tenth ACM International Conference on Web Search and Data Mining (WSDM), pp. 345-354, 2017.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C3-4.pdf
# Detection of Lexical Semantic Changes in Twitter Using Character and Word Embeddings Yihong Liu Graduate School of Comprehensive Human Sciences, University of Tsukuba s2021716@s.tsukuba.ac.jp } Yohei Seki Faculty of Library, Information and Media Science, University of Tsukuba yohei@slis.tsukuba.ac.jp ## 1 Introduction The prosperity of social media platforms on the Internet, such as Twitter, allow users from different countries, even different races and languages, to communicate with each other. Such huge diversity has given rise to the semantic changes of words on the Internet, namely, internet slang words. Numerous internet slang words which changed (New Semantic Word) or newly created (New Blend Word) by the users keep flooding into social media platforms which would quickly become popular and widely been used and affect our daily life than ever. However, semantic meaning Internet slang words could not be collected into the dictionary as well as a corpus in time, which is essential for people or machines to understand them. Considerable progress has been made in English internet slang words. However, only few works focus on processing Japanese internet slang words [9], and word embeddings methods use only the word as the basic unit and learn embeddings according to the external context of the word, which only contains limited word-level contextual information. Our proposed method is to combine the character and word embeddings using word2 vec and ELMo, respectively. Then we use combination of obtained token representations as the input of the Language Models to detect whether the word in the context is an internet slang word or not. As there are no public Japanese slang words dataset available, we constructed an internet slang word dataset which contains 40 internet slang words and their meanings as an internet slang word. We separated them into two categories: New Semantic Words and New Blend Words with their characteristics manually. The conducted experiment using this dataset shows that our proposed embedding methods performed better than baseline methods significantly, in processing Japanese internet slang words. The contributions in this paper are summarized as follows: (1) We proposed a dataset with a novel approach which classifies Japanese internet slang words into two categories, "New Semantic Word", and "New Blend Word"; (2) to obtain token representations for Japanese internet slang words effectively, we also proposed a novel embedding method which combines character and word embeddings utilizing word2vec and ELMo respectively; (3) our experimental results revealed that our proposed encoder which encoded richer syntactic and semantic information about words in-context performed better than baseline methods which used word2vec word embeddings. This paper is organized as follows. In Section 2, we summarize related works to distinguish Japanese non-standard usages with contextual word embeddings and handling OOV (out-of-vocabulary) words in other Languages by character embeddings. Section 3 describes the Japanese internet slang words dataset we constructed from Twitter. In Section 4, we introduce our proposed model to address the aforementioned problems. In Section 5, the details of the conducted experiments are provided. Finally, the conclusion and our future works are given in Section 6 ## 2 Related Work ## 2.1 Internet Slang Words The emergence of Internet slang words is the result of language evolution. Linguistic variation is a core concept of sociolinguistics [1], a new type of language feature, and a manifestation of the popular culture of social networks. In the information transmitted on social media, some internet slang words have the kind of words with different meanings from the dictionary, and there are also words that are not listed in the general dictionaries. Therefore, based on this feature, this study divided them into two categories, one is a new semantic word with different meanings from those recorded in dictionaries, and the other is a new blend word that is not recorded in general dictionaries. Although internet slang words are different from standard words in meaning and usage, they have their own fixed collocations. Therefore, considering these between words in the context, we can extract the words used as internet slang due to the contextual difference. Aoki et al. [9] attempted to distinguish the non-standard usage of common words on social media that are the same as the new semantic words in our research by using contextual word embedding. ## 2.2 Character-based Word Embeddings Character-based word representations are now a standard part of neural architectures for natural language processing. Lample et al. [4] illustrated that character representation can be used to handle OOV (out-of-vocabulary) words in a supervised tagging task. Chen et al. [2] proposed multipleprototype character embeddings to address the issues of character ambiguity and non-compositional words. With the character and word representation, language models will have a more powerful capability of encoding internal contextual information. ## 3 Internet Slang Corpus In this section, we describe the construction of our dataset in Section 3.1, and our prepossessing on the dataset by separating extracted Japanese internet slang words into two proposed types are described in Section 3.2 and 3.3. ## 3.1 Corpus Construction Dataset in our experiment is constructed using crawled tweets in Japanese via Twitter API. First, we defined 40 internet slang words, while 20 words belong to New Semantic Word and 20 words belong to New Blend Word. The details of New Semantic Word and New Blend Word are given in Section 3.2 and 3.3, respectively. Then we extracted 30 sentences that contain the internet slang words, while another 30 sentences also contain the same words but used as not internet slang for a comparison. Thirdly, the collected Japanese texts are segmented in two ways, Table 1 Annotations of Japanese Internet Slang Words New Semantic Word -Character-level 初/ O 鯖/B-sem の/O 初/O 心/O 者/O に/O 迷/O 惑/O か/O け/O る/Oな/O ! /O -Word-level 初/ $\mathrm{O}$ 鯖/sem の/ $\mathrm{O}$ 初心者/O に/O 迷惑/Oかける/Oな/O!/O New Blend Word -Character-level そ/B-bln マ/I-bln ? /O 行/O け/O る/O 時/O 言/O っ/O て/O バ/O イ/O ト/O 無/O け/O れ/O ば/O ワ/Oイ/Oも/O行/Oく/O わ/O -Word-level そマ/bln?/O行ける/O 時/O 言っ/O て/O バイト $/ \mathrm{O}$ 無けれ/O ば/O ワイ/Oも/O 行く/O わ/O one is to separate the characters based on the characterlevel, and the other is based on the word unit to segment words by Mecab ${ }^{1)}$. Finally, we explain the annotation tags for tokens. For word-level, sem stand for New Semantic Word, bln means New Blend Word, and O(Others) stand for common words. While in character-level, we also add BIO(B-Begin I-Inside O-Others) tagging style to represent the position information of character-based tokens. Examples are given in Table 1. ## 3.2 New Semantic Word New Semantic Words are often the vocabulary that is originally recorded in the dictionary and used daily. It, however, has new meanings which used widely because of its similarity in pronunciation to other terms, or some iconic popular events, etc. Although this type of vocabulary can be segmented directly, the meaning of the text will be very different because of the change in meaning and even part of speech. Examples are shown in the Table 2, Table 2 Examples of New Semantic Word ## New Semantic Word Internet Slang Word: Meaning/ English Translation -草: 面白い/interesting -丸い: 無難/safe -炎上: 批判のコメントが殺到する状態/internet troll  Table 3 Examples of New Blend Word ## New Blend Word Internet Slang Word: Meaning/ English Translation -わかりみ: 分かること/understanding -秃同: 激しく同意/strongly agree -ふあぼ: お気に入り/favourite ## 3.3 New Blend Word New Blend Words often borrow foreign words, dialects, numeric elements, and icons. They often combine definitions, homonyms, abbreviations, repetitions, and other word formation methods as well as unconventional grammars [3]. Internet language has achieved the effect of "novelty" through its unconventional nature and non-standard usage in its defining characteristic. An example is given in the Table 3. ## 4 Proposed Encoder Model We propose an encoder model which combined the character and word embeddings for each token as the token representation. We take them as the input for two layers of biLSTM network, which will be accumulated to the sum according to their respective weights by referring to [5]. Considering the relationships between the word and its characters, the discriminative characters are crucial for distinguishing the slight semantic differences [7]. In terms of the joint embedding model, word embedding can store textual information among words. Adding character representation also provide the semantic information between characters. The embedding obtained by word $2 \mathrm{vec}$ is fixed, while the ELMo [6] can change it flexibly according to the context. Therefore, using embeddings from word $2 \mathrm{vec}$ which obtain static standard contextual information and accumulating them into ELMo representation can make the semantic distinction based on the context from the dataset. Following Rei et al. [8], we also uses CRF as the output layer to predict token's tag. In this architecture, the last hidden layer is used to predict confidence scores for the word with each of the possible labels. ## 4.1 Character and Word Embedding The general structure of our model is given in Fig. 1. The parameter $w_{j}$ is the word embedding of token $j, N_{j}$ Figure 1 Structure of Our Proposed Model is the number of characters in this token, $c_{j}^{k}$ is the embedding of the $k$-th character. $x_{j}$ and $y_{j}^{k}$ are joint embeddings for the Word-level unit annotation and Character-level unit annotation, which equations are given as (1) and (2), respectively: $ \begin{gathered} x_{j}=w_{j} \oplus \frac{1}{N_{j}} \sum_{k=1}^{N j} c_{j}^{k} \\ y_{j}^{k}=c_{j}^{k} \oplus \frac{w_{j}}{N_{j}} \end{gathered} $ ## 4.2 ELMo Representation We also trained the ELMo model introduced by Peter et al. [6] with the same Japanese Wikipedia Dataset, whereby all of the layers are combined with a weighted average pooling operation. $ \mathbf{E L M o}_{k}=\gamma \sum_{j=0}^{L} s_{j} \mathbf{h}_{k, j} $ where $\mathbf{h}_{k, j}$ is the hidden state outputs for each biLSTM layer. The parameters $s$ are softmax-normalized weights and scalar parameter $\gamma$ allows the task model to scale the entire ELMo vector. $\gamma$ means practical importance to aid the optimization process. ## 5 Experiment ## 5.1 Dataset and Setting We selected the Japanese Wikipedia Dataset ${ }^{2)}$ for character and word embedding learning where the number of words and characters wre about 312 thousands and 10 thousands respectively. We set vector dimension as 200 and context window size as 10 for character based and 5 for word based, and also set other setting as same as in the Japanese Wikipedia Entity Vector ${ }^{3)}$. ## 5.2 Baseline Methods To verify the superiority of the joint embedding model of words and characters and the ability to distinguish semantics with ELMo embedding, we set two baseline models as follows. (1) Baseline1 (w): word-only embeddings with LSTM networks (2) Baseline2 (w+c): character and word embeddings with LSTM networks Meanwhile, we conduct two-sided t-Test for the average value of the precision, recall, and F1 score for 10 words in two annotation levels so as to investigate the statistical significance between our model and two baseline models. ## 5.3 Result Experimental results on New Semantic Word and New Blend Word are shown in Table 4 and in Table 5. Our results proved that the joint embedding model has a significant improvement in the results to extract internet slang words compared to the baselines using word embedding only, or using LSTM instead of ELMo. Of course, due to the complexity of the embedding model, in the experiment, the model using joint embedding converges to the same minimum loss, which requires more iterations. In particular, considering that the dimension of ELMo itself is much larger than the basic bidirectional LSTM (200 dimensions vs. 1024 dimensions), the iteration of the ELMo model requires more layers of iteration. Regardless of whether it is a new semantic word or a new blend word, our model worked effectively, especially for the word level annotation corpus. This may be due to the fact that the semantic information between characters is too rich and complicated in the text annotated in character units, especially for new semantic words. It is obvious 2) https://dumps.wikimedia.org/jawiki/latest/, accessed on Oct 2020 3) http://www.cl.ecei.tohoku.ac.jp/ m-suzuki/jawiki_vector/ Table 4 Results of Detecting New Semantic Words Table 5 Results of Detecting New Blend Words ${ }^{*}$ Compared to the baselines, our model cases improved at the significance level of $5 \%$. ** Compared to the baselines, our model improved at the significance level of $1 \%$. - Compared to the baselines, our model improved but with no significance. The left symbol means the significant difference for Baseline1, while the right symbol for Baseline2. that the results of the new blend words are better under the character unit level annotation. In addition, because most of the new blend words are innovative words, there is less semantic change, and most of them are accompanied by fixed collocations, or have a fixed place in the sentence. Combining all the experiments and methods, the extraction methods of our model for such words performs better. ## 6 Conclusion We have shown that the combination of character and word embeddings through the deep bidirectional Language Models can learn the rich information from the context, which not only contain the association between characters and words, but also utilize contextual semantic information of characters effectively. In future work, we will extract the meaning of the internet slang words by joint embedding models. ## Acknowledgement This work was partially supported by a JSPS Grant-inAid for Scientific Research (B) (\#19H04420). ## References [1]Jack K Chambers. Sociolinguistic Theory. Wiley-Blackwell, 2008. [2]Xinxiong Chen, Lei Xu, Zhiyuan Liu, Maosong Sun, and Huanbo Luan. Joint learning of character and word embeddings. In Proceedings of the 24th International Conference on Artificial Intelligence, IJCAI'15, p. 1236-1242, 2015. [3]Fazal Masud Kundi, Shakeel Ahmad, Aurangzeb Khan, and Muhammad Zubair Asghar. Detection and scoring of internet slangs for sentiment analysis using sentiwordnet. Life Science Journal, Vol. 11, No. 9, pp. 66-72, 2014. [4]Guillaume Lample, Miguel Ballesteros, Sandeep Subramanian, Kazuya Kawakami, and Chris Dyer. Neural architectures for named entity recognition. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 260-270, San Diego, California, June 2016. [5]Matthew Peters, Waleed Ammar, Chandra Bhagavatula, and Russell Power. Semi-supervised sequence tagging with bidirectional language models. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1756-1765, Vancouver, Canada, July 2017. [6]Matthew Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. Deep contextualized word representations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 2227-2237, New Orleans, Louisiana, June 2018. [7]Xue Qiao, Chen Peng, Zhen Liu, and Yanfeng Hu. Wordcharacter attention model for chinese text classification. International Journal of Machine Learning and Cybernetics, Vol. 10, No. 12, pp. 3521-3537, 2019. [8]Marek Rei, Gamal Crichton, and Sampo Pyysalo. Attending to characters in neural sequence labeling models. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 309-318, Osaka, Japan, December 2016. [9]青木竜哉, 笹野遼平, 高村大也, 奥村学. ソーシャルメディアにおける単語の一般的ではない用法の検出. 自然言語処理, Vol. 26, No. 2, pp. 381-406, 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C4-1.pdf
# NTCIR15 QA Lab-Polilnfo-2 の報告およびデータセット公開 木村泰知 小樽商科大学 kimura@res.otaru-uc.ac.jp 内田ゆず 北海学園大学 yuzu@hgu.jp 三田村照子 カーネギーメロン大学 teruko@andrew.cmu.edu渋木英潔 国立情報学研究所 shib@nii.ac.jp 乙武北斗 福岡大学 ototake@fukuoka-u.ac.jp 吉岡真治 北海道大学 yoshioka@ist.hokudai.ac.jp高丸圭一 宇都宮共和大学 takamaru@kyowa-u.ac.jp 石下円香 国立情報学研究所 ishioroshi@nii.ac.jp 秋葉友良豊橋技術科学大学 akiba@cs.tut.ac.jp ## 小川泰弘 名古屋大学 yasuhiro@is.nagoya-u.ac.jp 横手健一 日立製作所 kenichi.yokote.fb@hitachi.com 荒木健治 北海道大学 araki@ist.hokudai.ac.jp佐々木稔 茨城大学 minoru.sasaki.01@vc.ibaraki.ac.jp 神門典子 国立情報学研究所 kando@nii.ac.jp森辰則 横浜国立大学 mori@forest.eis.ynu.ac.jp関根聡 理化学研究所 satoshi.sekine@riken.jp ## 1 はじめに QA-Lab PoliInfo-2 は政治情報を対象とした Shared taskである. 我々は,国際評価型ワークショップ NTCIR-15 ${ }^{1)}$ において QA Lab-PoliInfo-2[1]を 2019 年 6 月から 2020 年 12 月にかけて実施した. QA LabPoliInfo-2 では,地方議会会議録コーパス [2] に加えて, 東京都議会会議録, 都議会だより, Wikipediaを言語資源として,4つのタスクを設計した. 本稿では,NTCIR-15 QA Lab-PoliInfo-2 における下記の 4 つのタスクの報告をするとともに,データセットの公開方法について述べる. 1. Stance Classification 2. Dialog Summarization 3. Entity Linking 4. Topic Detection  図 1 PoliInfo-2の4つのタスクの関係図 ## 2 NTCIR15 QA Lab-Polilnfo-2 図 1 に QA Lab-PoliInfo-2 で目標とする課題の全体像と各タスクの位置づけを示す。NTCIR-15 QA Lab-PoliInfo-2 では,参加者に共通のデータセットを配布するとともに,公式サイト ${ }^{2} において ,$ 予め定めた評価手法を用いてスコア順に表示する Leader Board を設置した. 2) https://poliinfo2.net/ ## 2.1 参加チーム NTCIR-15 QA Lab-PoliInfo-2 の Formarl run (本テスト) に参加した 14 チームを下記に示す. 1. akbl $^{*}$ (Toyohashi University of Technology) 2. Forst* (Yokohama National University) 3. HUHKA* (Hokkaido University) 4. Ibrk* (Ibaraki University) 5. JRIRD (The Japan Research Institute, Limited) 6. knlab (Shizuoka University) 7. LIAT* (RIKEN AIP) 8. nukl* (Nagoya University) 9. selt (Waseda University) 10. SKRA (Hokkaido University) 11. TKLB (Osaka Electric-Communication University) 12. wer99 (Tokyo Institute of technology) 13. wfrnt* (HITACHI) 14. TO* (Task Organizers) 表 1 に Formal runの期間(2020 年 7 月 12 日から 2020 年 7 月 31 日まで)の投稿数を示す. 表 1 QA Lab-PoliInfo-2 の Formal run における投稿数 & & & \\ ## 2.2 Polilnfo-2 データセット QA Lab-PoliInfo2 の Formal run で,参加者に配布した公式データセットを下記のウェブサイトで 2021年 3 月に公開する。 https://github.com/poliinfo2 公式データセット以外にも,参加者から,本タスクに関連のあるデータおよびプログラムが提供された. Dialog summarization では,TO チームから発言ごとに分割したデータと発言者の役職のデータを公開した ${ }^{3)}$. Stance Classification では,akblチームから,議員名/所属会派辞書4)およびルールベース賛否予測プログラム5) が提供された。 ## 3 Stance Classification task Stance Classification task は「会派」を用いて,政治家の発言から,会派の立場を推定するタスクである。具体的には,東京都議会における議員の発言を対象として,会派の各議案に対する賛成・反対の立場を推定する.下記に入力,出力,評価について記述する。 評価は,各会派の議案数ごとに,賛成・反対の立場があることから,それらの総数を分母として, Accuracy を計算する.都議会だより6)には,議会で議論された議案ごの採決結果が, 賛成, 反対に分けて,記述されている.その都議会だよりは,議会事務局が作成していることから,議会だよりに記述されている「賛成」「反対」を正解としてデータセットを構築した. 東京都議会会議録のファイル数,および,ファイルサイズを下記に示す. また,解答ファイルに含まれる議案数およびサイズを下記に示す. 3) https://github.com/yasuhiro-ogawa/ poliinfo2-resources 4) https://github.com/cat415/NTCIR15-Dictionary-python-script 5) https://github.com/cat415/NTCIR15-rulebase-python-script 6) https://www.gikai.metro.tokyo.jp/newsletter/ Listing 1 と Listing2 は Stance Classificationn の会議録,および,解答の Json ファイルの例である. 表 2 に Stance classification の結果 (Accuracy) を示す.ここでは,各チームの最も高い Accuracy の結果を示している.詳細は,各チームの論文(wer99[3] Ibrk[4], knlab[5], akbl[6], Forst[7])に記載されている. 表 2 Stance classification の結果 (Accuracy) ## 4 Dialog Summarization task Dialog Summarization は地方議会における「議員の質問」と「知事側の答弁」という対話構造を考慮し ながら要約するタスクである. 下記に入力, 出力,評価について記述する. 会議録ファイルのデータサイズは下記に示す. 解答ファイルの問題数,サイズを下記に示す. Dialog Summarization の正解は,都議会だよりを利用している.都議会だよりは,議会で記載された内容が議会事務局の職員により作られていることから,人手により作成された「正解の要約」とみなすことができる. Listing 3 Dialog summarization の会議録の例 (Json) "ID":"130001_230617_2", "Line ":2, "Prefecture ": 東京都, "Volume ":平成年23第 2 回_, "Number": 1 "Year":23, "Month": 6 , "Day":17, "Title ":平成年23第 2 回定例会_第7号 (), "Speaker ":和田宗春, "Utterance":ただいまから平成二十三年第二回東京都議会定例会を開会いたします。 Listing 4 Dialog summarization の解答例 (Json) \{ "AnswerEndingLine ": [ 532 ], "AnswerLength": [ 50 ], "AnswerSpeaker": [ 知事"" ] "AnswerStartingLine": [ 528 ], "AnswerSummary": [全国の先頭に立ち刻苦する被災地を支援するのは当然。今後も強力に後押しする。 "Date": "2011-06-23", "Date": "2011-06-23", "MainTopic ":東京の総合防災力を更に高めよくbr環境に配慮した都市づくりを〉 "Meeting ":平成年第回定例会232, "Prefecture ": 東京都 "QuestionEndingLine": 276, "QuestionLength": 50, "QuestionSpeaker ": 山下太郎(民主党) "QuestionStartingLine": 266 "QuestionSummary":被災地が真に必要とする支援に継続して取り組むべき。知事の見解は。, 表 3 に Dialog summarization の ROUGE-1-R scores の結果 (Formal run の一部) を示す. 詳細は,各チームの論文 ( JRIRD[8], nukl[9], Forst[7], wfrnt[10], SKRA[11], LIAT[12])に記載されている.また,人手評価の詳細については,Overview 論文に記載されている. 表 3 Dialog summarization の結果 (ROUGE-1-R scores) ※各チームの最も高い Rouge-1-Recall の結果を示す ## 5 Entity Linking task Entity Linking では,議会会議録に含まれる政治家の発言を対象として,表記摇れ,曖昧性,根拠の有無を明らかにすることに焦点を絞り,発言内容の根拠をみつけるタスクである.具体的には,会議録に含まれる法律名を抜き出し,表記摇れや曖昧性を解決しつつ,一次情報(異なる言語資源)と結びつける. 下記に入力,出力,評価について述べる. 出力法律名のメンション抽出メンションに対応する Wikipedia URLへの連結評価 End-to-End (メンション抽出、曖昧性解消) 評価 Entity linking のファイルサイズを下記に示す. 入力と出力の形式は AIDA CoNLL-YAGO Dataset format を用いる [13]. 表 4 に Entity Linking のデータフォーマットを示す. Entity Linkig のデータフォー マットは,形態素,IOB2,メンション,正式名称, Wikipediaへの URLがタブで区切られている. 表 5 に Entity Linking の結果 (Formal run の一部)表 4 Entity Linking のデータフォーマット を示す、詳細は,各チームの論文(HUHKA[14], Forst[7], selt[15], nukl[9])に記載されている. 表 5 Entity Linking $の$ 結果 (F-measures) ※各チームの最も高い $\mathrm{F}$ 値の結果を示す ## 6 Topic Detection task Topic Detection では,会議録の速報版から,「適切な議題の一覧」を議員ごとにまとめて提示するタスクである。下記に入力,出力を示す。 大力東京都議会の令和 2 年第 1-2 回定例会 (速報版) 出力議員ごとにまとめられた議題の一覧 評価については参加チームで「適切な議題とは何か」に関して議論した.詳細は,各チームの論文(TKLB[16], Ibrk[4], akbl[6], nukl[9])に記載されている. ## 7 おわりに 本稿では,NTCIR-15 QA Lab-PoliInfo-2 における 4 つのタスク (Stance Classification, Dialog Summarization, Entity Linking, Topic Detection) の報告をするとともに,データセットの公開方法について述べた. 今後は, QA Lab-PoliInfo-2 のタスクを発展させ, Question Answering, QA Alignment, Fact Verification, Budget Argument Mining のタスクを検討している. ## 謝辞 本研究は JSPS 科研費 18K00632,20K00576, 20H00059,20K01736 およびセコム科学技術振興財団の助成を受けたものである. ## 参考文献 [1]Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Madoka Ishioroshi, Teruko Mitamura, Masaharu Yoshioka, Tomoyoshi Akiba, Yasuhiro Ogawa, Minoru Sasaki, Kenichi Yokote, Tatsunori Mori, Kenji Araki, Satoshi Sekine, and Noriko Kando. Overview of the ntcir-15 qa lab-poliinfo task. Proceedings of The 15th NTCIR Conference, 122020. [2]Yasutomo Kimura, Keiichi Takamaru, Takuma Tanaka, Akio Kobayashi, Hiroki Sakaji, Yuzu Uchida, Hokuto Ototake, and Shigeru Masuyama. Creating Japanese political corpus from local assembly minutes of 47 prefectures. In Proceedings of the 12th Workshop on Asian Language Resources (ALR12), pages 78-85, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [3]Yuichi Sasazawa and Naoaki Okazaki. Wer99 at the ntcir-15 qa lab-poliinfo-2 classification task. Proceedings of The 15th NTCIR Conference, 122020. [4]Ryo Kato and Minoru Sasaki. Ibrk at the ntcir-15 qa labpoliinfo-2. Proceedings of The 15th NTCIR Conference, 12 2020. [5]Kazuhiro Atsumi and Yoshinobu Kano. knlab team: Ntcir-15 qa lab-poliinfo stance classification task. Proceedings of The 15th NTCIR Conference, 122020. [6]Takanori Nekomoto, Ryoto Ohsugi, Tomoyosi Akiba, Shigeru Masuyama, and Daiki Shirato. akbl at the ntcir15 qa lab-poliinfo-2 tasks. Proceedings of The 15th NTCIR Conference, 122020. [7]Hiromu Onogi, Kiichi Kondo, Younghun Lim, Xinnan Shen, Madoka Ishioroshi, Hideyuki Shibuki, Tatsunori Mori, and Noriko Kando. Forst: A challenge to the ntcir-15 qa labpoliinfo-2 task. Proceedings of The 15th NTCIR Conference, 122020. [8]Kazuma Kadowaki. Jrird at the ntcir-15 qa lab-poliinfo2 task: An abstractive dialog summarization system for japanese assembly minutes. Proceedings of The 15th NTCIR Conference, 122020. [9]Yasuhiro Ogawa, Yuta Ikari, Takahiro Komamizu, and Katsuhiko Toyama. Nukl at the ntcir-15 qa lab-poliinfo-2 task. Proceedings of The 15th NTCIR Conference, 122020. [10]Ken-Ichi Yokote. wfrnt team at the ntcir-15 qa lab-poliinfo-2 task. Proceedings of The 15th NTCIR Conference, 122020. [11]Daiki Shirafuji, Hiromichi Kameya, Rafal Rzepka, and Kenji Araki. Summarizing utterances from japanese assembly minutes using political sentence-bert-based method for qa labpoliinfo-2 task of ntcir-15. Proceedings of The 15th NTCIR Conference, 122020. [12]Kouta Nakayama and Satoshi Sekine. Liat team' s extractive summarizer at ntcir-15 qalab poliinfo-2. Proceedings of The 15th NTCIR Conference, 122020. [13]Erik F. Tjong Kim Sang and Fien De Meulder. Introduction to the conll-2003 shared task: Language-independent named entity recognition. In Proceedings of the Seventh Conference on Natural Language Learning at HLT-NAACL 2003 - Volume 4, CONLL '03, pages 142-147, Stroudsburg, PA, USA, 2003. Association for Computational Linguistics. [14]Takuma Himori, Yasutomo Kimura, and Kenji Araki. Huhka at the ntcir-15 qa lab-poliinfo-2 entity linking task. Proceedings of The 15th NTCIR Conference, 122020. [15]Yuji Naraki and Tetsuya Sakai. selt team' s entity linking system at the ntcir-15 qa lab-polinfo2. Proceedings of The 15th NTCIR Conference, 122020. [16]Yuya Hirai, Yo Amano, and Kazuhiro Takeuchi. Ntcir-15 qa lab-poliinfo2 topic detection based on lda and argument structure graph. Proceedings of The 15th NTCIR Conference, 122020 .
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C4-2.pdf
# 定義文を用いた文埋め込み構成法 塚越駿笹野遼平武田浩一 名古屋大学情報学部名古屋大学大学院情報学研究科 tsukagoshi.hayato@e.mbox.nagoya-u.ac.jp \{sasano, takedasu\}@i.nagoya-u.ac.jp ## 1 はじめに 近年,自然言語推論 (Natural Language Inference: NLI) データセットを用いて文埋め込みを構成する手法が成功を収めており,文類似度 (Semantic Textual Similarity: STS) タスクをはじめとする様々なタスクで活用されている [1,2].これらの手法では,NLI データセットの文ぺアに付与されている「含意」「矛盾」「その他」のラベルを正しく分類するというタスクを通して文埋め込みを構成する。しかし,このような手法は,大規模な NLI データセットが整備されている言語でしか利用できないという問題がある. 本研究ではこの問題を解決するため,辞書に含まれる単語とその定義文が基本的に同一の意味内容を表すという関係に着目し,辞書の定義文を用いた文埋め込み構成法を提案する。辞書は NLI データセットと比べ,はるかに多くの言語において整備が行われており,定義文を用いた文埋め込み構成法は多くの言語に適用可能であると考えられる. ## 2 定義文を用いた文埋め込み構成法 本研究で提案する定義文による文埋め込み構成法は,NLI データセットを用いて文埋め込みを構成するモデルとして代表的な Sentece-BERT [1] と同様,BERT [3] や RoBERTa [4] などの事前学習済み言語モデルをベースとし,これらのモデルの出力から文埋め込みを構成する (図 1). 本節ではまず BERT と RoBERTa,および,Sentence-BERTを紹介し,続いて提案する文埋め込み構成法の説明を行う。 ## 2.1 BERT と RoBERTa BERT は複数層の Transformer [5] エンコーダで構成される事前学習済み言語モデルである。 マスク穴埋め問題と次文予測によって,大規模なテキストデータで自己教師あり学習を行うことで言語知識を獲得し, 文脈に従った単語埋め込みを出力する。 マスク穴埋め問題は,入力文の中のトークンを一定 図 1 Sentence-BERT (左) と提案手法 (右) の概要図 の割合で [MASK] という特殊トークンに置き換えてモデルへ入力し, [MASK] に対応する位置の最終層の埋め込みを用いて,置き換え前のトークンを予測するタスクである.次文予測は,文区切りトークン [SEP] で繋がれた 2 文を BERT に入力した際,文頭に付与された特殊トークン [CLS] の出力をもとにそれらが元のテキストデータで連続する 2 文であるかどうかを予測するタスクである。 一方,RoBERTa は BERT と同様の構造をしているが,BERT で事前学習時に行われていた次文予測を排除し,データサイズ,バッチサイズを大きくすることで BERT の改善を試みたモデルである.次項以降で説明する Sentence-BERT と提案手法はいずれもベースモデルとして BERT と RoBERTa が利用可能であるが,本稿におけるモデルの説明では基本的に BERTを用いた場合について説明する。 ## 2.2 Sentence-BERT NLI データセットを用いた文埋め込み構成法は Conneau ら [2]により提案された. Conneau らは, パラメータを共有した 2 のモデルの学習を行う Siamese network 構造を用いて,類似した文が意味べクトル空間上で近い位置に分布するように文埋め込みを構成する InferSentを提案した. Reimers ら [1] によって提案された Sentence-BERT は, InferSent と類 似した構造を採用しているが,文ベクトルの構成に fine-tuning した BERTを用いている. Sentence-BERT の概要を図 1 左に示す. Sentence-BERT では,まず文を BERT に入力し, その出力を pooling することで文ベクトルを構成する. pooling 手法には以下の 3 種類が用いられる。 CLS BERT の事前学習時に次文予測で用いられる [CLS] トークンの埋め込みを用いる。RoBERTaを用いる場合は $[\mathrm{CLS}]$ が存在しないため, 代替として文頭トークン $<\mathrm{s}>$ の埋め込みを用いる。 Mean 文を構成するすべての語の文脈化単語埋め込みの平均を用いる。 Max 文を構成するすべての語の文脈化単語埋め込みの次元ごとの最大値を用いる. pooling により得られる文ぺアのそれぞれの文埋め込みを $\boldsymbol{u}, \boldsymbol{v}$ とする. それらを組み合わせたべクトル $[\boldsymbol{u} ; \boldsymbol{v} ;|\boldsymbol{u}-\boldsymbol{v}|]$ をクラス数と同じ数の出力次元を持つラベル予測層に入力し, 文ぺアに付与されている「含意」などのラベルを正しく予測できるように fine-tuning を行う. fine-tuning には,SNLI デー タセット [6],および,Multi-Genre NLI データセット [7]を合わせた約 100 万文を用いる。 ## 2.3 定義文を用いた文埋め込み 本研究では,単語とその定義文が同一の意味内容を表すことに着目し, 定義文から単語予測を行うことで文埋め込みを構成する。提案手法の概要を図 1 右に示す.ここで,ある定義文 $X_{k}$ に対応する単語を $w_{k}$ と表し, BERT の事前学習時にマスク穴埋め問題で用いられる [MASK] の埋め込みから元のトー クンを予測する層を単語予測層と呼ぶ. まず, $X_{k}$ を BERT に入力し,出力を pooling することで $X_{k}$ の文埋め込み $\boldsymbol{u}_{k}$ を構成する. pooling 手法には Sentence-BERT と同様に CLS, Mean, Max の 3 種類を用いる. 次に,構成した文埋め込み $\boldsymbol{u}_{k}$ を単語予測層に入力し, $X_{k}$ を入力としたときの $w_{k}$ の出現確率 $P\left(w_{k} \mid X_{k}\right)$ を得る. 損失関数に交差エントロピー誤差を用いて, $P\left(w_{k} \mid X_{k}\right)$ を最大化するように fine-tuning を行う. この際,単語予測層には事前学習時のパラメータを固定して用いる. これにより, 追加の分類器などを新たに学習せず fine-tuning を行うことができる. また,事前学習時の単語予測層をそのまま使っているため,提案手法で得られる文埋め込みは,その文が表す意味内容に近い意味で使用されている単語が表 1 データセットの統計値 存在した場合,その文脈化単語埋め込みと類似するという性質が期待できる。 ## 3 単語予測実験 提案手法により構成した文の埋め込みが,どの程度,文の意味を埋め込めているか評価するため,定義文の埋め込みを用いた単語予測実験を行った. ## 3.1 使用するデータセット 提案手法は単語と定義文のペアを必要とする.本研究では, 石渡ら [8] が公開しているデータセットの中から, Oxford Dictionary の単語と定義文を利用した. 各エントリは単語と定義文のペアからなり,一つの単語が複数の定義文を持ち得る. データは単語ごとに訓練データ/開発データ/テストデータに 8:1:1 の割合で分割した. また,提案手法は単語予測層に BERT または RoBERTa の事前学習時の層を用いるため, 各モデルの語彙に含まれない単語に関する予測確率を単語予測層から得ることはできない.したがって,本実験ではデータセットの中から BERT, RoBERTa それぞれの語彙に含まれる単語とその定義文のみを用いる。利用したデータセットの統計値を表 1 に示す. ## 3.2 実験設定 事前学習済みモデルとして,Hugging Face ${ }^{1)}$ が公開しているライブラリである Transformers ${ }^{2}$ から, BERT-base (bert-base-uncased), BERT-large (bert-largeuncased), RoBERTa-base (roberta-base), RoBERTa-large (roberta-large) を利用した. fine-tuning の設定として, バッチサイズは 16 , エポック数は 1 , 最適化手法に Adamを用いた.また, 学習の開始時点では学  表 2 単語予測の性能 習率を 0 とし,全学習ステップのうち $10 \%$ で,設定した値まで線形に学習率を増加させる warm-up を用いた. 学習率は各モデル, pooling 手法ごとに $2^{x} \times 10^{-6}, x \in\{0,0.5,1, \ldots, 7\}$ の範囲で探索し, 開発データでの平均逆順位 (Mean Reciprocal Rank; MRR) が最も高くなった学習率を使用した. 異なるシード値で 10 回実験を行い,その平均を評価スコアとした. 定義文を入力した際に出力される単語の予測確率から MRR と, 1,3,10 位以内に正解が含まれる割合 (Top- $k$ accuracy) を算出し,評価に用いた。また,比較対象として BERT-base モデルを fine-tuning せずに使った場合の性能も算出した。 ## 3.3 実験結果 実験の結果を表 2 に示す. fine-tuning しなかった場合の性能は pooling 手法として Maxを選んだ場合が最も高かったものの, その Top-1 accuracy は 0.0157 と極めて低い値であり,高い性能を得るためには fine-tuning を行うことが必須であることが確認できる. 提案手法では, baseを用いたモデルより largeを用いたモデル,BERTを用いたモデルより RoBERTa を用いたモデルの方が性能が高く,RoBERTa-large と Mean の組み合わせが最も高い性能を示した.また, RoBERTa-large 以外のモデルは, pooling 手法に CLS を用いたモデルが最も高い性能を示した. ## 4 応用タスクにおける性能評価 生成された文埋め込みの一般的な有用性を評価するため Semantic Textual Similarity (STS) タスク,および,文埋め込み評価のためのツールキットである SentEval を用いた評価を行った. ## 4.1 実験設定 本節では,Reimers [1] らにより報告されている各タスクの性能と, 提案手法の性能との比較を行う.評価は,モデルごとに 3 節の実験で開発データの MRR が最も高かった pooling 手法を用いて行った3).既存手法の性能は Reimers ら [1] の結果を引用した. ## 4.2 Semantic Textual Similarity タスク Semantic Textual Similarity (STS) タスクは,文ペアが与えられた時に,その文ぺアの意味的な類似度を推定するタスクである. 教師なし設定の場合, STS データセットを用いた学習は行わず,事前に学習したモデルを用いて文ぺアをそれぞれ文埋め込みに変換し,それらを用いて算出された文ぺアの類似度と, 人手評価との順位相関係数により評価する。本研究では,提案手法が一般の文に対して妥当な文埋め込みを構成できているか評価するため, STS12-16 [11-15], STS benchmark [16], SICK-Relatedness [17] の各データセットを用いた教師なしSTS タスクにより評価を行った。これらのデータセットには文ぺアとその類似度が含まれており,類似度は人手評価によって付与された 0 から 5 の実数である. 文埋め込みの類似度には余弦類似度を用い,データセットに含まれる人手評価とのスピアマンの順位相関係数を算出した. 異なるシード值で 10 回実験を行い,その平均を評価スコアとした。 実験の結果を表 3 に示す. 提案手法で用いる学習データは, Sentence-BERT の学習に使用されているデータの $5 \%$ 程度の規模であるにも関わらず,提案手法の BERT-base, RoBERTa-base モデルは Sentence-BERT-base, Sentence-RoBERTa-base と遜色のない性能を示すことが確認できる. 特に, STS12-16 の集約版である STS benchmark において,提案手法の RoBERTa モデルは高い性能を示した. ## 4.3 SentEval SentEval [18] は,感情分類などを含む様々なタスクを集約したツールキットである。文埋め込みを入力とする分類器の学習を行い, その性能から文埋め込みがどのような情報を捉えているかを評価する.本研究では, Reimers ら [1] と同一のタスクについて実験を行った。各タスクの概要を表 4 に示す. 評価には,前節の設定で fine-tuning を行ったモデルを使  STS-B は STS benchmarkを,SICK-R は SICK-Relatednessを表す. 各タスクごとに最良の結果を太字で示す. 表 5 SentEval の各タスクにおける正解率 $(\%)$. 各タスクごとに最良の結果を太字で示す. 表 4 SentEval の各タスクの説明 用した. SentEval 内の各タスクについて,提案手法により生成した文埋め込みを入力とする分類器を学習し,性能を評価した。文埋め込みを入力とする分類器の学習には Reimers ら [1] と同じ設定を用い, 10 分割交差検証を行った. 提案手法によるモデルの fine-tuning と性能評価は異なるシード値で 3 回行い,その平均を評価スコアとした. 実験の結果を表 5 に示す4). 提案手法の中では RoBERTa-large が最も高い性能を示している。また, base から large へモデルサイズを増加させると一貫して性能が向上した。提案手法の BERTlarge,RoBERTa-base,RoBERTa-large における性能 4) Reimers ら [1]により Sentence-RoBERTa の性能は SentenceBERT と同等と報告されているため記載を省略した. は Sentence-BERT-large を上回っていることから,提案手法による文埋め込みが様々なタスクに応用できる有用な情報を埋め込んでいることが確認できる. ## 5 おわりに 本研究では辞書の定義文を用いた文埋め込み構成法を提案した。また,単語予測実験,および,STS タスク,SentEvalを用いた実験を通して,提案手法の有効性,および,大規模な NLI データセットを用いる既存手法と同等の性能を発揮することを示した. 提案手法は多くの言語において整備されている辞書に基づく手法であり,他の言語に応用する場合であっても新規の言語資源を作成する必要がないという特長がある。また,得られる文埋め込みは,その文が表す意味内容に近い意味で使用されている単語が存在した場合,その文脈化単語埋め込みと類似するという性質を持つことが期待できる。 今後は,実際に英語以外の言語に応用した場合の性能評価や,文書分類タスクなどより広範な下流夕スクへの応用の評価を行いたい。さらに,提案手法による定義文の埋め込みと文脈化単語埋め込みの意味ベクトル空間上での関係の解析を行いたい。 ## 参考文献 [1] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3982-3992, 2019. [2] Alexis Conneau, Douwe Kiela, Holger Schwenk, Loïc Barrault, and Antoine Bordes. Supervised learning of universal sentence representations from natural language inference data. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 670-680, 2017. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL), pp. 4171-4186, 2019. [4] Y. Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, M. Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv:1907.11692, 2019. [5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems (NIPS), pp. 59986008, 2017. [6] Samuel R. Bowman, Gabor Angeli, Christopher Potts, and Christopher D. Manning. A large annotated corpus for learning natural language inference. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 632-642, 2015. [7] Adina Williams, Nikita Nangia, and Samuel Bowman. A broad-coverage challenge corpus for sentence understanding through inference. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL), pp. 1112-1122, 2018. [8] Shonosuke Ishiwatari, Hiroaki Hayashi, Naoki Yoshinaga, Graham Neubig, Shoetsu Sato, Masashi Toyoda, and Masaru Kitsuregawa. Learning to describe unknown phrases with local and global contexts. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL), pp. 3467-3476, 2019. [9] Jeffrey Pennington, Richard Socher, and Christopher Manning. GloVe: Global vectors for word representation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 15321543, 2014. [10] Daniel Matthew Cer, Yinfei Yang, Sheng yi Kong, Nan Hua, Nicole Limtiaco, Rhomni St. John, Noah Constant, Mario Guajardo-Cespedes, Steve Yuan, C. Tar, Yun-Hsuan Sung, B. Strope, and R. Kurzweil. Universal Sentence Encoder. arXiv:1803.11175, 2018. [11] Eneko Agirre, Daniel Cer, Mona Diab, and Aitor Gonzalez-Agirre. SemEval-2012 task 6: A pilot on semantic textual similarity. In *SEM 2012: The First Joint Conference on Lexical and Computational Semantics Semantic Evaluation (SemEval), pp. 385-393, 2012. [12] Eneko Agirre, Daniel Cer, Mona Diab, Aitor GonzalezAgirre, and Weiwei Guo. *SEM 2013 shared task: Semantic textual similarity. In Second Joint Conference on Lexical and Computational Semantics (*SEM), pp. 32-43, 2013. [13] Eneko Agirre, Carmen Banea, Claire Cardie, Daniel Cer, Mona Diab, Aitor Gonzalez-Agirre, Weiwei Guo, Rada Mihalcea, German Rigau, and Janyce Wiebe. SemEval2014 task 10: Multilingual semantic textual similarity. In Proceedings of the 8th International Workshop on Semantic Evaluation (SemEval), pp. 81-91, 2014. [14] Eneko Agirre, Carmen Banea, Claire Cardie, Daniel Cer, Mona Diab, Aitor Gonzalez-Agirre, Weiwei Guo, Iñigo Lopez-Gazpio, Montse Maritxalar, Rada Mihalcea, German Rigau, Larraitz Uria, and Janyce Wiebe. SemEval2015 task 2: Semantic textual similarity, English, Spanish and pilot on interpretability. In Proceedings of the 9th International Workshop on Semantic Evaluation (SemEval), pp. 252-263, 2015. [15] Eneko Agirre, Carmen Banea, Daniel Cer, Mona Diab, Aitor Gonzalez-Agirre, Rada Mihalcea, German Rigau, and Janyce Wiebe. SemEval-2016 task 1: Semantic textual similarity, monolingual and cross-lingual evaluation. In Proceedings of the 10th International Workshop on Semantic Evaluation (SemEval), pp. 497-511, 2016. [16] Daniel Cer, Mona Diab, Eneko Agirre, Iñigo LopezGazpio, and Lucia Specia. SemEval-2017 task 1: Semantic textual similarity multilingual and crosslingual focused evaluation. In Proceedings of the 11th International Workshop on Semantic Evaluation (SemEval), pp. 1-14, 2017. [17] Marco Marelli, Stefano Menini, Marco Baroni, Luisa Bentivogli, Raffaella Bernardi, and Roberto Zamparelli. A SICK cure for the evaluation of compositional distributional semantic models. In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC), pp. 216-223, 2014. [18] Alexis Conneau and Douwe Kiela. SentEval: An evaluation toolkit for universal sentence representations. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC), pp. 16991704, 2018. ## A 付録 表 5 各モデル,pooling 手法ごとの文埋め込みの余弦類似度と人手評価とのスピアマンの順位相関係数. 表内の数值は,異なるシード値で 10 回評価を行った際の平均と標準偏差に 100 をかけたものである. 表 6 各モデル,pooling 手法ごとの SentEval の各タスクにおける正解率 (\%). 表内の数値は,異なるシード値で 3 回評価を行った際の平均と標準偏差に 100 をかけたものである.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C4-3.pdf
# 議題への明示的な賛否表現を含まない議員発言を対象とした 議会議事録のスタンス分類 猫本隆哲 豊橋技術科学大学 nekomoto.takanori.pf@tut.jp } 秋葉友良 豊橋技術科学大学 akiba@cs.tut.jp } 増山繁 東京理科大学 masuyama@rs.tus.ac.jp ## 1 はじめに NTCIR-15 の QA Lab-PoliInfo-2 タスク1)では, 地方議会議事録から議員の意見やその理由・条件を要約して表示するといった複雑な実世界の質問応答技術を目指している [1]. 近年,フェイクニュースが多大な悪影響を及ぼしていることから, ファクトチェックの重要性を再認識されている. 情報獲得のために幅広く利用されている一般的な Web 検索エンジンでは, Eli Pariser が提唱した “filter bubble” [2] と呼ばれる概念によって, ユーザーが自分の視点に合わない情報から遠ざかることから, ファクトチェックが困難となっている. ファクトチェックのためには, 議事録などの一次情報源をしっかりと把握しておく必要がある. QA Lab-PoliInfo-2 Stance Classification タスクでは,東京都議会における政治家の発言から, 政治家の立場 (スタンス) を推定することを目的としている2). より具体的には, 議会議事録から, 議会中に議論される各議題について, 各会派の賛否を分類する問題に取り組んだ. 日本の議会議事録の記述は, 議員ごとの発言の書き起こしであり, ほとんどの議員は討論の冒頭で複数の議案に対して簡単な賛否を述べることから,ここから一定数の議案に対してのスタンスが判明する. よって, Stance Classification の評価結果では,この冒頭部分のみを用いることで $90 \%$ 以上の正解率で賛否分類できることが示されている [3]. しかし,一部には冒頭部分で賛否表明を行わない, または冒頭のみでは賛否表明されない議案が存在するといった場合があり, そのような場合に対応するには, 冒頭以外の討論部分から賛否分類を行う必要がある. 本研究では, ある議案に対して明示的な賛否の表現のない討論の発言から賛否分類を行う問題に焦点 1) https://poliinfo2.net/ 2) https://poliinfo2.net/stance-classification-task/ を当てた. 賛成や反対といったターゲット単語のみに着目する単純なルールベース分類ではなく,これを除いた議員の発言全体から学習データを作成し, より多くの分野やタスクへの応用を可能とするために BERT [4] ベースのスタンス分類器を構築した. ## 2 スタンス分類 本節では, QA Lab-PoliInfo-2 Stance Classification タスクにおけるデータ構造, 分類対象とする議事録の構造, 本研究の問題設定について詳細を述べる. ## 2.1 デー夕構造 分類器には, 会議録データと表 1 から構成される出題ファイルを入力として与え, 空欄となる会派の賛否を埋めた出題ファイルを出力とする. \\ 議員らの発言は, 出題ファイルの MeetingDate を参照し, 期日が一致する会議録から抽出する. また,この他に収録されているフィールドは分類器への付加情報および, 議員の発言をより詳細に検索するために用いる。 ## 2.2 会議録データ 入力として利用可能な会議録データには, 定例会や臨時会の他に委員会等の速記録があるが, 後者は賛否が伴う議決を行うものではないため, スタンス分類に直結するのは前者での議員の発言である. 定例会における議員の実際の発言を図 1 に示す. "Speaker": "百四番 (村松みえ子君)", "Utterance": "私は、日本共産党都議団を代表して、第二百二十八号議案、東京都養育院条例を廃止する条例外六議案に反対の立場から討論を行います。 東京都養育院は、福祉と医療、研究が連携した総合的なサービス提供を最大の特徴としており、世界的にも高い評価を受けております。ところが今回の提案は、これから迎える本格的な高齢社会に向け、養育院の、この福祉と医療と研究の一体的な運営を一層強化する必要があるときに、逆にそれを後退させるものであり、反対です。... 図 1 討論例 議員は必ず議長から発言権が与えられた上で, 始めにいくつか議案への簡単な賛否表明を行った上で,それぞれの議案についての詳細な討論を行う.ここでは, 前者の発言を賛否表明文, 後者を討論文と定義する. 賛否表明文を図 2 に示す. "Utterance": "私は、日本共産党都議団を代表して、第二百二十八号議案、東京都養育院条例を廃止する条例外六議案に反対の立場から討論を行います。 図 2 賛否表明文例 賛否表明文は, 議長から発言権が与えられた議員が始めに述べる形式的な賛否表明である. 多くの場合, ここから特定議案 (議案番号) の賛否表明が得られ, Stance Classification タスクの評価結果では, 賛否表明文のみを参照することで $90 \%$ 以上の正解率が実現されることが分かっている [3]. 次に討論文を図 3 に示す. 東京都養育院は、福祉と医療、研究が連携した総合的なサービス提供を最大の特徴としており、世界的にも高い評価を受けております。ところが今回の提案は、これから迎える本格的な高齢社会に向け、養育院の、この福祉と医療と研究の一体的な運営を一層強化する必要があるときに、逆にそれを後退させるものであり、反対です。... 図 3 討論文例討論文では, 賛否表明を行なった議案への詳細な言及がなされる. 賛否表明文と比較すると, 同一議案への言及でありながらも,それについての根拠が明確に述べられている. しかし, 討論文では賛成や反対といった単語は必ずしも出現しない. また, 実際の発言は非常に長いものとなっている. ## 2.3 問題設定 賛否表明文を用いることで高い精度で賛否分類を行うことが可能であるが, 陽に言及されない議題には対応できない. そこで本研究では, 図 3 に示した討論文から, 議案に対する賛否を分類する問題に焦点を当てる. そのために, 議事録の各議員の各議案に対する討論文と,その議題への賛否を対応付けたぺアデータを人手で構築した.このペアデータを学習データとテストデータに分割し, 二值分類器の構築,評価を行なった。 ## 3 手法 本節では, スタンス分類を行うための分類器の構築方法, 学習データへの前処理, および分類器の精度を検証するための実験方法について述べる。 ## 3.1 会派の特定 東京都議会におけるスタンス分類を行うための準備として, 討論を行う議員の所属会派を事前に特定する必要がある. 表 1 に示したように, 会派と発言者の対応は SpeakerList から分かるが, 代表質問者以外の議員は自身で所属政党を名乗らなければ会派との対応が取れない問題点がある. そこで, 都議会 HP の検索エンジン3) と BeuatifulSoup4 [5] を用いて定例会等に出席したすべての議員の所属政党を収録した辞書を別途で作成した. また, 議員によっては政党移動または政党名変更等があるため, それを考慮した都議会議員 322 名のネスト型辞書を構築した。一例を図 4 に示す. ## 3.2 BERTを用いた分類 2.3 節で定義した討論文を対象に議員のスタンスを 2 值 (賛成 or 反対) に判定する分類器を構築した. この分類器は, BERT の MRPC タスクに基づき作成したものであり, 入力を単一の討論文としている. モデルには, 公開されている日本語事前学習済みモデルの BASE 通常版を用いた [6]. このモデルは,  図 4 議員/所属会派辞書 JUMAN [7] による単語分割に基づいて学習されているため, 同じ形態素解析器を使用している. 学習デー タの作成には, Poliinfo2 から提供されているデータを参照し, 発言権が与えられた議員の討論文から議案名もしくは議案番号に完全に一致する発言のみを抽出し, 使用した。 しかし, 東京都議会における討論文には議題に上がった議案とは直接関連の無い内容が多く含まれており, BERT に入力できる単語数の最大値が 512 語であるため, 何らかの前処理を適用する必要がある. 今回は簡単な前処理として, 討論文に特定の接続詞が含まれていた場合, それ以降の文は議題案とは無関係であると判断し, 接続詞の後の文を全て削除している. 特定の接続詞には, 以下のパターンを想定している. ## 特定の接続詞 (次に、*㳊次いで、*|続いて、.*最後に、*、*て、.*) なお, 上記のパターンは, 討論の途中に出現するものにはマッチせず, 句読点があるもののみを考慮している. 作成された学習データの総数は 442 件であり, データの各行には賛否ラベル ( “0”: 反対 or “1”: 賛成) と討論文が収録されている. ## 3.3 編集距離を用いたデータ拡張 3.2 節で述べたように, 学習データとして利用可能な議員の討論文は, 議案名または議案番号との完全一致で取れるものに限定しているため, 抽出が不十分であると考えられる. そこで, 暫定的なデータ拡張として編集距離を用いて, 議題に上がった議案名に関連性のある単語を討論文から抽出し, 学習データ を 442 件から 485 件へ増強した。 ## 3.4 DPを用いたテキストセグメンテー ション 学習データとしての討論文は, 特定議案への言及文のみを収録し, その他の関連の無い議案への言及文は取り除くことが理想となる. 3.2 節では, 特定の接続詞以降の文を削除しているが,これもまたテキスト分割としては不十分であると考えられる. そこで, 議員の発言から議題に関係のない発言を削除する手法として、Dynamic Programming(DP) を用いて討論文のセグメンテーションを行った. 前提として, セグメントを考える際の最小単位は文であり, シー ケンスデータでの 1 つのデータポイントは, 今回の場合は 1 つの文となる [8]. 実装したテキストセグメンテーションの手順は以下の通りである. Step 1. テキストデータクラスを定義し. セグメント内のスコアを計算する $h(t 1, t 2)$, テキストの長さを返す GetLength() を定義する. Step 2. $T$ をテキストの文のリスト, $L$ をテキストの単語リスト (Mecab [9]を使用)とし, 文間の類似語を表す $L \times T$ スケールの matrix $F$ を定義する. Step 3. 行列 $F$ は疎行列であり, 各文から単語を抽出し, $L$ に含まれる単語が $T$ にある場合, リスト $L$ からその単語のインデックスを取り, $F$ のインデックスの行に 1 を代入する. Step 4. 文章 $i$ と $j$ の類似度を表す matrix $f$ とその転置行列の積を matrix $d$ と定義する. 同一文の類似度は $0\left(d_{i i}=0\right)$ とし,この matrix $d$ を用いてセグメント内のスコアを計算する. Step 5. セグメントに含まれるすべての文の類似度を足し合わせ, セグメントの長さで割ってスコアを得る. 評価関数 $J$ は, セグメントの開始点を $t_{1}$, 終了点を $t_{2}$ と定義する。 $ J=\frac{\sum_{i=t 1}^{t 2-1} \sum_{j=t 1}^{t 2-1} D_{i j}}{(t 2-t 1)} $ Step 6. DP の再帰関数に討論文と任意の数のセグメント数をオブジェクトとして与え, $J$ が最大となるセグメントの分割点をインデックスとして返す. なお, セグメントの数は DP へ任意に与えなければならないため,ここでは討論文の長さに応じて任意の值でセグメンテーションを行っている. ## 3.5 分類器への付加情報 政治的なイデオロギーは都議会もまた例外ではなく, 保守派やリベラル派といったものがあり, このような政党間では, 議案の種類や提案政党などによって賛否に大きなバイアスが生じている. 例として, 保守派とリベラル派は双方の提案に反対することが多く, また知事が提案する議案には賛成することが多い.このような政党間や議案の提出元で変化する賛否のバイアスの解消を見込み, 賛否ラベルと討論文の意味的な等価性を評価する分類器への付加情報として, 表 1 に示したフィールド名に基づき, 政党名 (party) と議案の提出元 (proponent) を与える実験を行った. なお, 提出元は知事提出もしくは議員提出の 2 值である. ## 4 結果$\cdot$考察 分類器の評価実験は, 出題データ全てを賛成と分類する majority ベースラインと, BERT を用いたものの 2 種類に分けられる. 加えて, BERT については分類器を変えずにいくつかの学習データの構築方法を提案し, 精度の比較を行った. ハイパーパラメータの設定は, 入力の最大系列長を 128 , ミニバッチサイズを 32, 学習係数を $2 \mathrm{e}-5$, エポック数を 5 とし, モデルの評価には $\mathrm{k}$ 交差検証を用いた. 各手法での分類結果を 3 に示す. DA は 4.2 節のデータ拡張手法であり, DP は 4.3 節のものである. 提出元での majority は, 知事提出議案を賛成, 議員提出議案を反対で統一とし,政党ごとの majority は統一化が困難であるため, 無しとしている. 表 3 評価結果, $\mathrm{k}=5$ 交差検証 avg, train:442, $\operatorname{train}(\mathrm{DA}): 485$ & & \\ BERT & $\mathbf{0 . 8 5 0 7}$ & 0.8509 & 0.8370 \\ BERT+DA & 0.8439 & 0.8419 & $\mathbf{0 . 8 6 8 8}$ \\ BERT+DP & 0.8484 & $\mathbf{0 . 8 6 6 6}$ & 0.8685 \\ BERT+DA+DP & 0.8212 & 0.8637 & 0.8460 \\ 結果から, 討論文のみの入力ではデータ拡張等を施さない状態が最も精度が高く, 討論文+提出元では DP 手法, 討論文+政党名ではデータ拡張手法が最も高い精度となった.これらの提案手法は全てにおいて, majority ベースラインを上回っているが, 付与情報による大幅な精度向上は見込めなかった. フィールド名である政党名と提出元の付加により, 一定の精度向上が見られた要因としては, 3.5 節で述べた政党間, 提案者によって生じる賛否のバイアスの解消によるものと考えられる. しかしながら,正解ラベルに分類された討論文が, フィールド情報を与えたことで誤分類されることがあるため, 精度向上へ寄与する手法としては一長一短であるといえる. また, 実験データとしては非常にサンプル数が少なく, BERT での日本語構文解析においてはより大規模なコーパスと,より高い pre-training 時の epoch 数によって, さらなる精度向上が実現することが示唆されていることから [10], さらなる大規模なデー タセットの構築が必要である. ## 5 おわりに 本研究では, 東京都議会における議員のスタンス分類タスクにおいて, BERT を用いた議員の発言をスタンス分類するための学習データの作成方法, および所属政党や提出元などのフィールド情報を付加し, モデルの評価を行なった. 評価結果から, 提案手法は単純な majority ベースラインを上回る性能が発揮され, また政治的なフィールド情報を付与することで一定の精度向上に寄与することが分かった. 今回は東京都議会に限定して学習を行ったが, データ数が非常に少ないため, 今後は地方議会等に範囲を広げ,より大規模なデータセットを構築し, 提案手法の有効性を検証する。 ## 謝辞 本研究は JSPS 科研費 $19 K 11980$ の助成を受けた. ## 参考文献 [1]Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Madoka Ishioroshi, Teruko Mitamura, Masaharu Yoshioka, Tomoyoshi Akiba, Yasuhiro Ogawa, Minoru Sasaki, Kenichi Yokote, Tatsunori Mori, Kenji Araki, Satoshi Sekine, and Noriko Kando. Overview of the ntcir-15 qa lab-poliinfo-2 task. Proceedings of The 15th NTCIR Conference, 122020. [2]Eli Pariser. The filter bubble: What the internet is hiding from you. 2011. [3]Takanori Nekomoto, Ryoto Ohsugi, Tomoyosi Akiba, Shigeru Masuyama, and Daiki Shirato. akbl at the ntcir15 qa lab-poliinfo-2 tasks. The 15th NTCIR Conference, p. $155,2020$. [4]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [5]Gábor László Hajba. Website Scraping with Python: Using BeautifulSoup and Scrapy. Apress, 2018. [6]Tomohide Shibata, Daisuke Kawahara, and Sadao Kurohashi. Improving the accuracy of japanese parsing with bert. The Association for Natural Language Processing 25th Annual General Meeting, pp. 205-208, 2019. [7]Daisuke Kawahara. Japanese morphological analysis system juman version 3.61. http://pine.kuee.kyoto-u.ac.jp/nlresource/juman.html, 1999. [8]V. Petridis A. Kehagias, P. Fragkou. Linear text segmentation using a dynamic programming algorithm. In Proceedings of the EACL, pp. 171-178, 2003. [9]工藤拓, 山本薫, 松本裕治. Conditional random fields を用いた日本語形態素解析. 情報処理学会研究報告. NLP,自然言語処理研究会報告, Vol. 161, pp. 89-96, 52004. [10]柴田知秀, 河原大輔, 黒橋禎夫. Bert による日本語構文解析の精度向上. 言語処理学会第 25 回年次大会, pp. 205-208, 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C4-4.pdf
# 熱化学計算問題の段階的解釈に基づく熱化学方程式の立式 経種直之佐藤理史小川浩平宮田玲 名古屋大学大学院工学研究科 idane.naoyuki@c.mbox.nagoya-u.ac.jp ## 1 はじめに 大学入試では、言語運用能力に加え、多岐に渡る知識や能力が問われる。2011 年から 6 年間に渡って実施された「ロボットは東大に入れるか」プロジェクトでは、主要 5 教科 (国語、英語、数学、社会、理科)の大学入試問題の自動解法が研究された [1]。 これらのうち、社会 (歴史)、数学、英語の問題は比較的よく解けたが、理科の問題の自動解法は非常に難しいことが判明した。 一般に、理科 (物理・化学) の計算問題を解くためには、問題文を専門知識に基づいて解釈し、解釈結果を用いてある種の計算 (推論)を行う必要がある。 それゆえ、歴史の正誤問題の自動解法で通用したような、知識源 (教科書) に対する表層的なテキスト照合では歯が立たない。 我々は、専門知識に基づく解釈と推論が必要な問題の具体例として、化学の熱化学計算問題を取り上げ、その自動解法に取り組んできた $[2,3]$ 。熱化学計算問題は、熱化学反応を表す方程式を立式して解く計算問題である。必要な計算能力は、初等代数の計算スキルであり、この機械的実現は容易である。 つまり、自動解法の中核は、いかにして問題文から熱化学方程式を立式するかという、問題文の解釈の機械的実現にある。前回の挑戦 [3] では、開発用の問題の約半分しか解くことができなかった。今回は、熱化学方程式の立式を最終ゴールとして、そこに徐々に近づいていく複数のステップで問題文を解釈する方法を採用し、より多くの問題を解くことを目指す。 ## 2 人間は問題をどう解くか ここでは、図 1 に示す問題例を用いて、熱化学計算問題を解く標準的な方法を示す。 この問題が要求しているのは「プロパンの生成 水素、炭素 (黒鉛)、プロパン $\mathrm{C}_{3} \mathrm{H}_{8}$ の燃焼熱は、それぞ れ $286 \mathrm{~kJ} / \mathrm{mol} 394 \mathrm{~kJ} / \mathrm{mol} 、 2119 \mathrm{~kJ} / \mathrm{mol}$ である。 プロパンの生成熱を求めよ。 (出典 :「化学」数件出版, $\mathrm{p} 114$, 一部変更) 図 1 熱化学計算の問題例 熱」である。生成熱の一般式は、以下で与えられる。 $ \text { 構成元素のリスト }=\text { 対象物質 }+Q[\mathrm{~kJ}] $ プロパンの分子式は $\mathrm{C}_{3} \mathrm{H}_{8}$ であるので、その構成元素である炭素 C と水素 $\mathrm{H}$ の単体の分子式を代入すると、 $ a \mathrm{C}(\text { 黒鉛 })+b \mathrm{H}_{2}=\mathrm{C}_{3} \mathrm{H}_{8}+Q[\mathrm{~kJ}] $ という式が得られる。ここで、 $a$ と $b$ は係数である。熱化学方程式では、両辺の元素の数が一致しなければならない。この制約より $a=3, b=4$ が得られ、最終的に $ 3 \mathrm{C}(\text { 黒鉛 })+4 \mathrm{H}_{2}=\mathrm{C}_{3} \mathrm{H}_{8}+Q[\mathrm{~kJ}] $ というプロパンの生成熱を表す熱化学方程式が得られる。 この式の $Q$ の値を求めるために、問題文で示されている燃焼熱の情報を使用する。燃焼熱を表す熱化学方程式の一般式は、以下で与えられる。 $ \text { 対象物質 }+a \mathrm{O}_{2}=b \mathrm{CO}_{2}+c \mathrm{H}_{2} \mathrm{O}+Q[\mathrm{~kJ}] $ 水素、炭素 (黒鉛)、プロパンのそれぞれに対して、単体の分子式を代入し、先と同じように係数を決定すると、以下の 3 つの熱化学方程式が得られる。 $ \begin{gathered} \mathrm{H}_{2}+\frac{1}{2} \mathrm{O}_{2}=\mathrm{H}_{2} \mathrm{O}+286[\mathrm{~kJ}] \\ \mathrm{C}(\text { 黒鉛 })+\mathrm{O}_{2}=\mathrm{CO}_{2}+394[\mathrm{~kJ}] \\ \mathrm{C}_{3} \mathrm{H}_{8}+5 \mathrm{O}_{2}=3 \mathrm{CO}_{2}+4 \mathrm{H}_{2} \mathrm{O}+2219[\mathrm{~kJ}] \end{gathered} $ 式 (5)-(7)を用いて式 (3) の $Q$ を求めると、 $ Q=107[\mathrm{~kJ} / \mathrm{mol}] $ 図 2 自動解答システムの構成 という解が得られる。以上が、人間が熱化学計算問題を解く場合の標準的な方法である。 上記の方法を機械化することを前提に、問題を解くためにどのような知識・スキルが必要かを整理しよう。 物質 (元素・化合物) に関する知識 「水素」、「炭素 (黒鉛)」「プロパン」が物質であるということに加え、分子式が与えられていない物質に対しては、単体の分子式が必要である。さらに化合物に対しては構成元素の情報が必要であり、中和反応などでは、液性 (酸・アルカリ) の情報、イオン価の情報が必要となる。 熱化学反応に関する知識「燃焼 (熱)」、「生成 (熱)」が熱化学反応であり、それらが一般に、どのような熱化学方程式で表現されるかという知識が必要である。 初等代数の計算スキル反応式の係数を決定したり、複数の式から変数の值を決定するために、連立方程式を解くスキルが必要である。 日本語の理解スキル当然のことながら、問題文を読み、どんな情報が与えられ、何を求めることが要求されているかを理解する必要がある。問題文の理解のためには、初等代数の計算スキルは不要であるが、物質 (元素・化合物) に関する知識、および、化学反応に関する知識は必須である。なぜならば、 これらの知識がなければ、問題が何を要求しているのか、理解不能である。 ## 3 自動解答システム 作成した自動解答システムの構成を、図 2 に示す。システムは、問題文解釈と連立方程式ソルバー表 1 文のタイプ判定 \\ という 2 つのモジュールと、化学知識データベー スから構成される。化学知識データベース (リレー ショナルデータベース) は、元素、単体、分子、イオン、の4つのテーブルから構成され、化学式 (分子式)、液性 (酸・アルカリ)、状態 (気体・液体・固体)、イオン価の情報などが記述されている。 システムの中核をなす問題文解析モジュールは、 5 段階のステップで問題文 (テキスト)から連立方程式 (熱化学方程式)を立式する。問題文は、句点であらかじめ分割し、 1 文 1 行の形式とする。問題文中に含まれる熱化学方程式は独立した行として扱い、先頭にタブを挿入して通常の文と区別するものとする。なお、問題文中に含まれる熱化学方程式は、式として解釈し、出力する。 ## 3.1 文分割 後段の解析を容易にするために、ヒューリスティックを用いて文を分割する。たとえば、文 (1) は文 (2a), (2b), (2c)のように 3 文に分割する。 (1) 二酸化炭素の生成熱を $394 \mathrm{~kJ} / \mathrm{mol}$ 、水 (液体) の生成熱を $286 \mathrm{~kJ} / \mathrm{mol}$ とすると、メタノール (液体) の生成熱は何 $\mathrm{kJ} / \mathrm{mol}$ か。 (2) a. 二酸化炭素の生成熱を $394 \mathrm{~kJ} / \mathrm{mol}$ とする。 b. 水 (液体) の生成熱を $286 \mathrm{~kJ} / \mathrm{mol}$ とする。 c. メタノール (液体) の生成熱は何 $\mathrm{kJ} / \mathrm{mol}$ か。 ## 3.2 文のタイプ判定 文型パターンを用いて、文を表 1 に示す 5 つのタイプに分類する。背景記述以外の 4 タイプに対しては、その文の重要情報 (物質名、質量、反応など) が書かれている範囲を同定する。 ## 3.3 熱化学記述の解釈 同定された重要部分を解析し、熱化学問題の記述として解釈する。具体的には、重要部分に含まれて 図 3 熱化学記述の解釈後の内部表現 いる用語が何 (化学反応、物質名、質量、濃度など) を表しているのかを正規表現パターンにより決定し、必要な情報を抽出する。このステップにより、表 1 の反応記述と問い記述は、図 3 に示す内部表現に変換される。 ## 3.4 参照先の同定 以下のような参照表現の参照先を同定する。 (3) a. この混合気体を... b.このとき発生する熱量を... 前者の場合は直前の混合気体を指すものと、後者の場合は直前の化学反応を指すものと解釈し、内部表現を組み替える。 ## 3.5 方程式の立式 以上のステップで文章解析は終了し、得られた内部表現に基づいて、熱化学方程式を立式する。熱化学方程式の一般式は、反応の種別によって定まる (表 2)。立式の過程で、必要に応じて化学知識デー タベースを参照し、以下のことを行う。 1. 物質の分子式、および、構成元素の決定表 2 各反応の一般式 (係数は省略した) 生成構成元素のリスト $=$ 対象物質 $+\mathrm{Q}[\mathrm{kJ}]$ 燃焼対象物質 $+\mathrm{O}_{2}=\mathrm{CO}_{2}+\mathrm{H}_{2} \mathrm{O}+\mathrm{Q}[\mathrm{kJ}]$ 蒸発物質 $($ 液体 $)=$ 物質 $($ 気体 $)-Q[k J]$ 溶解物質 $($ 個体 $)=$ 物質 $\mathrm{aq}+\mathrm{Q}[\mathrm{kJ}]$ 中和酸性物質 + 塩基性物質 $=$ 中和生成物の水溶液 $+\mathrm{H}_{2} \mathrm{O}+\mathrm{Q}[\mathrm{kJ}]$結合エネルギー 物質の構成元素 1 つの気体リスト $=$ 物質 $($ 気体 $)+$ 結合数 $\times$ 結合エネルギー 図 4 方程式の立式の具体例 2. 物質の標準状態での三体 (液体、気体、固体) の決定 3. 物質の分子量に基づく、質量の $\mathrm{mol}$ の標準化 4. 酸・塩基の決定 5. 価数の決定 熱化学方程式に物質の分子式等を代入した後、係数が不定の場合は、両辺の元素数比較により係数を決定する。なお、このステップで立式される式には、熱化学方程式以外の式 (たとえば、水の温度上昇を表す式)も含まれる。 以上の 5 ステップにより、問題文を連立方程式と求めるべき変数に変換する。具体例を図 4 に示す。 ## 4 解答システムの性能 実装したシステムが、センター試験レベルの熱化学計算問題をどの程度解けるかを調べた。以下に示す出典から、熱化学計算問題を抜き出し、枝問はそれぞれ独立した問題として扱った。 開発用セットーシステムの開発に使用 マーク式総合問題集化学 I (河合塾) [2007, 2009, 2011, 2013, 2015, 2017, 2019]、大学入試センター試験実戦問題集化学 I (大学入試模試センター) [2008, 2010, 2012, 2014, 2019] 評価用セットーシステムの開発に使用せずセンター試験 (本・追試験) [1997, 1999-2002, 2004, 2006, 2008, 2009, 2011-2016]、大学入試センター試験 表 3 システムの性能 表 4 エラー分析 実戦問題集化学 I (代々木ゼミナール) [2006, 2008, 2010, 2012, 2014, 2016, 2017, 2019] 本システムの解答状況を表 3 に示す。この表に示すように、開発用セットは 47 問中 38 問 $(81 \%)$ を正しく解くことができたが、評価用セットは 57 問中 14 問 $(25 \%)$ しか解くことができなかった。 この表で、「与式のみで解答可能 (1)」は、問題文中の熱化学方程式のみから解ける (問題文の解釈がほぼ不要な) 問題であり、「定義上の反応熱 (2)」は、立式に質量が絡まない問題である。これらの問題は、ほぼ解けるレベルに達している。 一方、「特定質量の反応 (3)」は立式に質量が絡む問題、「結合エネルギー (4)」は結合エネルギーが関与する問題、「複数の反応 (5)」は反応熱で水を温めるような複数の反応を内在する問題、「混合気体 (6)」は混合気体を対象とする問題である。これらの問題は、開発用セットでは比較的解けていたが、評価用セットでは 1 問しか解けなかった。 表 4 に、解けなかった原因の分析結果を示す。質量や質量の比を求める問題は、開発用セットには 3 問しかなかったため、これらの解法を実装しなかったが、評価用セットには混合気体の問題が多く含まれており、その結果、質量や比を求める問題が全体で 12 問存在した。これらの問題は、原理的には、現在の連立方程式を立式して解くという枠組みで解くことができるが、熱化学記述の解釈と方程式の立式の両ステップを補強する必要がある。 評価用セットで「特定質量の反応 (3)」の問題が解けなかった理由の大半は、「熱化学記述の解釈の失敗 (i)」である。質量が絡む問題では、問題記述の表現のバリエーションが多くなるが、今回使用した開発用セットでは、このバリエーションが十分にカバーできなかった。未知の問題に対する頑健性を向上させるためには、より広いバリエーションをカバーする必要がある。 表現のバリエーションには、分野固有のバリエー ションと、日本語一般のバリエーションの 2 種類がある。開発に使用する問題例を増やせば、このバリエーションをある程度カバーできるとは考えられるが、両方のバリエーションを実際の問題例のみに求める方法論には限界がある。理想的には、後者のバリエーションをカバーする日本語の汎用文解析に分野固有知識を追加すれば、それらが連携して動くようなアーキテクチャが望ましい。今後は、そのような方向を模索していく必要がある。 ## 5 おわりに 本稿では、熱化学計算問題の自動解法を示した。 その中核は、日本語で書かれた問題文を熱化学方程式に変換する処理であり、そのためには、化学知識の援用が必要となる。開発用セットに対しては、前回の挑戦より多くの問題を解くことができたが、評価用セットに対する正解率は、前回と同程度に留まった。 本研究は、大学入試問題を対象とした自動解法の研究であるが、その本質は、テキスト理解にある。我々は、「『テキストを読む』ことは、読み手が持っている知識とテキストとの相互作用である」と考える。そのため、 (4) 水素、炭素 (黒鉛)、プロパン $\mathrm{C} 3 \mathrm{H} 8$ の燃焼熱は、それぞれ $286 \mathrm{~kJ} / \mathrm{mol}, 394 \mathrm{~kJ} / \mathrm{mol}, 2219 \mathrm{~kJ} / \mathrm{mol}$ である。 というテキストに対して、書かれている情報を直接問う「プロパンの燃焼熱は?」のような問題ではなく、明示的に書かれていない「プロパンの生成熱は?」のような問題を扱う。このような問題を解く方法が十分に明らかになったならば、テキストの自動理解に近づいたことになろう。 ## 参考文献 [1]新井紀子, 東中竜一郎 (編). 人工知能プロジェクト「ロボットは東大に入れるか」. 東京大学出版会, 2018. [2]吉田達平, 松崎拓也, 佐藤理史. 大学入試化学の計算問題の自動解答システム. 人工知能学会第 29 回全国大会論 文集, 1K2-1, 2015. [3]加藤汰一, 松崎拓也, 宮田玲, 佐藤理史. センター試験「化学」計算問題の自動解答システムの作成. 言語処理学会第 25 回年次大会発表論文集, pp. 894-897, 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C5-1.pdf
# 意味役割付与テキストに対する Prolog ベースの探索木による 言語パタンマッチシステム構築 小笠原崇 岡山大学大学院自然科学研究科 p28m4h8q@s.okayama-u.ac.jp ## 1 はじめに 近年,言語教育や言語研究分野の支援ツール開発と活用について多くの取り組みが為されている。それらの中でもコンコーダンスツール1)の開発と発展によって,言語教育や言語研究分野は大きく進展してきている [1][2] [3]. 現在では表層的な言語マッチだけでなく品詞や活用形,係り受けタグなどを用いた検索機能を実現した「HASHI」や「茶器」といったコンコーダンサが提案されている [4][5]²). 加えて, FrameNet ${ }^{3}$ や PropBank ${ }^{4}$ といった意味タグ付きコーパスの構築も進んでいると共に, 機械学習の枠組みを利用した意味役割付与システムについての研究も進展が多く見られる [6] [7] [8]. これらのタグを利用した情報抽出システムの実装例として質問応答システム Watson が挙げられる [9][10]. Watson では例えば,「Author_of(X)」といったある作品の著者を取り出すための言語パタンをあらかじめ Prolog プログラムとして定義した解答候補抽出モジュールが構築されている。この言語パタンは,文節が持つタグや形態素が持つタグを用いて著者と作品関係を表す文構造を事前に定義したもので,その文構造に一致する文からの解答抽出を実現している。このようにコンコーダンサだけではなく, 質問応答システムの構築にも文中のタグを用いて言語パタンを定義する手法が提案されている [11]. しかしながら, これらのシステム構築を支援する自然言語処理ツールとしての言語パタンマッチシステムはほとんど開発されていない. そこで本研究では,形態素タグや構文タグ,意味  \author{ 竹内孔一 \\ 岡山大学大学院自然科学研究科 \\ takeuc-k@okayama-u.ac.jp } 役割タグを利用した言語パタンに対するパタンマッチシステムの実装手法を提案する. システムでは,意味役割をタグ付けされたテキストを Prolog 述語の木構造に変換する。これにより, Prologクエリとして定義された言語パタン構造とテキスト間の言語パタンマッチを可能にする. ## 2 システム設計 システムの簡易フローチャートを図 1 に示す. 提案するシステムでは検索対象となるテキストにタグ付与を行い,タグに基づく検索条件とのマッチ文探索,マッチ結果出力を行う.ここでシステムの設計 図 1 システムの簡易フローチャート に際して, 意味役割付与モジュールが必要である.実装したシステムでは,当研究室で開発を進めている意味役割付与システム ASAを用いてテキストに対してのタグ付けを行う.ASA はテキストの形態素解析,係り受け解析及び述語項構造シソーラズが分類する意味役割に基づいて意味役割付与を行うシステムである [12]. (図 2) また前述の通り,条件 図 2 ASA の意味役割付与の例 マッチ文探索部では検索条件と検索対象テキストの 5) http://pth.cl.cs.okayama-u.ac.jp Prolog を用いた解探索を行う.ここで,Prolog を用いた探索部の概要を図 3 に示す. タグ付きテキスト 図 3 Prolog パタンマッチ部の概要 を Prolog のプログラムに変換し,Prolog のクエリ形式で定義された検索条件によって文構造の一致判定と解の抽出を行う. Prolog のプログラムはある対象物の間に存在する事実や関係性を述語として定義することで論理式として解釈できる. 例えば,「花子と太郎は兄弟である」という事実は Prolog の述語で 兄弟 (花子, 太郎). と表すことができる. この論理式に対して変数 Xを用いて Prolog クエリを「兄弟 (花子, x).」と定義し,論理式を成立させる xが存在するかを Prolog 処理系に質問することができる. これと同様に,文節に付与される概念タグ,意味役割タグや形態素に付与される品詞タグを Prolog の述語として定義することで,検索クエリとテキスト間のマッチングを実現する. 次に,提案するシステムの全体像を図 4 に示す.提案システム全体の実装言語は Pythonを用いた. 図 4 Prolog を用いた言語パタンマッチシステムの全体像各モジュールの処理内容は以下の通りである. テキスト解析モジュール ASAによる検索対象テキストの解析を行い,タグが付与されたテキストを生成する Prolog 述語生成モジュールタグが付与されたテキス卜を Prolog の述語に変換し, ファイルとして出力する. Prolog パタンマッチモジュール Prolog ファイルと Prolog クエリを処理する. Python から呼び出す Prolog 処理系がパタンにマッチする解を探索し, 解を出力する. マッチ解出カモジュール Prolog 処理系が出力する解を Python で抽出し,データ整形,出力を行う. 以下の節では,これら各モジュールの具体的な実装手法を説明する。 ## 2.1 テキスト解析モジュール テキスト解析モジュールは検索対象となるテキス卜を読点区切りの一文ずつ ASA により解析し, 意味役割タグを付与した状態を生成する. ASA は文の文節単位,形態素単位で解析を行いタグを付与するため,解析結果はそれらをノードとする木構造で解釈することができる (図 5). システムではこれらの 図 5 ASA による文解析の木構造 ノードの接続関係を維持し,ノード間の関係性を明確にした Prolog 述語を生成することで,タグを用いた言語パタンの定義を可能にする. ## 2.2 Prolog 述語生成モジュール Prolog 述語生成モジュールではテキスト解析モジュールで生成された意味役割タグ付きテキストの木構造を基に Prolog の述語集合を生成し,ファイルに出力する. 木構造のノード間の関係性を Prolog の述語名として,ノードの持つ值を述語引数として Prolog 述語を定義する. ASA の解析結果木構造から生成される Prolog 述語の一覧を表 1 に示す.ここ 表 1 Prolog の述語一覧 phrase(文, 文から分割された文節). role(文節, 文節に付与された意味役割タグ). semantic(文節, 文節に付与された概念タグ). main(文節, 文節から分割された主形態素). $\operatorname{part}($ 文節, 文節から分割された副形態素). class(形態素, 形態素に付与された品詞タグ). で,文「生徒が校庭を走った」の文節「生徒が」に対して生成される Prolog の述語集合を図 6 亿示す.文「生徒が校庭を走った」は文節「生徒が」を持つ phrase(生徒が校庭を走った, 生徒が)。 role(生徒が, 動作主). main(生徒が, 生徒). part(生徒が, が). class(生徒, 名詞). $\operatorname{class}$ (が, 格助詞). 図 6 生成される Prolog 述語集合の例 という関係性が述語名 phrase で表現される. 他も同様に,文節や形態素,付与されたタグ間の関係性が述語名で表現されることにより, Prolog 述語集合で木構造が再現される (図 7). この Prolog 述語集合をファイルに出力し, 検索クエリとともに Prolog 処理系で処理を行う。 図 7 再現される Prolog の木構造 ## 2.3Prolog パタンマッチモジュール Prolog パタンマッチモジュールでは,Prolog 述語生成モジュールで出力した Prolog 述語ファイルと Prolog クエリとして設定された言語パタンを用いて,Prolog によるパタンマッチを実行する.前述の通り, システム全体は Python で構築しているため,外部の Prolog 処理系を子プロセスとして起動して Prolog 述語ファイルとクエリを渡すことで,パタンマッチ結果を獲得する. 本システムでは Prolog 処理系 SWI-Prolog の Python インターフェイス Pyswip モジュールを用いて構築した. ここで, Prologのクエリ記法について説明する.前述の通り, Prologクエリの述語引数部分を変数で表すことにより,述語を満たすように変数が単一化6)される. Prolog の変数は大文字のアルファベットもしくは「_」(半角アンダーバー) から始まる文字列を用いて表す。例えば,図 6 に示した Prolog 述語集合から意味役割が【動作主】である文節を抽出するクエリは, 6)二つの項が同一になるような変数の代入を見つけ適用すること role(_phrase, 動作主). と表すことができる. 対象となる Prolog 述語集合は, role(生徒が, 動作主). という述語を含むため,単一化により_phrase に生徒がが代入され,クエリを成立させる_phraseが述語集合内に存在しない場合は false が返される. また,変数を用いずにクエリを設定することも可能である。例えば, ## role(生徒が, 動作主). というクエリを入力すると,Prolog 述語集合内にクエリと全く同じ述語が存在するかを問い合わせることができる. 存在すれば true が,存在しなければ false が返される. これらの記法と, 論理和や論理積, 論理否定の記法を合わせることでクエリを設定できる. クエリで用いることができる論理和,論理積,論理否定の記法を表 2 に示す. Prolog 処理系により探索された解は処理系で出力されるが,出力データ構造が特徴的であるためマッチ解出力モジュールにてデータを整形してシステムの出力とする. ## 2.4 マッチ解出カモジュール マッチ解出力モジュールでは Prolog 処理系が出力する解のデータ構造を整形してシステムの出力を行う. Pyswip モジュールは Prolog 処理系の出力を Python 順序付き辞書に変換して抽出する機能を持つため, Python から Prolog 処理系の解にアクセスすることが可能になる.この解を Python プログラムから出力した結果の例は以下の通りである。 ・クエリが成立し,変数が単一化される場合の例 [OrderedDict([ ('_phrase1', "生徒が"), ('_phrase2' , "校庭を") ])] ・単一化なしでクエリが成立する場合 [OrderedDict()] ・クエリが成立しない場合 [] 変数が単一化される場合,変数と代入される値の組が格納された順序付き辞書形式で出力される.変数の単一化なしでクエリが成立する場合,空の順序付き辞書が出力される. クエリが成立しない場合,空のリストが出力される。単一化が起きる場合は, ユーザが定義したクエリへの解として,Pyswip モジュールからの出力をそのままシステムの出力とする。一方で後者二つの例は, 本来 Prolog 処理系が true もしくは false と出力するものであり,システムでは単にクエリがマッチする解があるか否かを出力としたい. よって, Pyswip モジュールによる出力の [OrderedDict()]をtrue,[] falseとして変換することでシステムの出力とする. ## 3 システム動作確認 構築したシステムを動作させる一例を以下に示す。本確認では,検索対象とするテキストから「著者」と「作品名」のぺアを抽出することとする.検索対象とする例文に以下の 8 文からなるテキストを用意した. 「有川浩が図書館戦争を書いた。学校で作文を書く。私は漫画をノートに書いた。彼は半円を書いた。彼は半円を描いた。鳥山明がドラゴンボールを描いた。母が僕を生んだ。エジソンが電球を発明した。」 これらのテキストに対し,「著者」と「作品名」を含む言語パタンを以下の Prolog クエリとして用意した. $ \text { author (AUTHOR, WORK) :- } $ semantic(_phrase1, 生成), role(Author_phrase, 動作主), role(Work_phrase, 対象), main(Author_phrase,_word1), not(class(_word1, 代名詞)), main(Work_phrase,_word2), not(class(_word2, 代名詞)), not(main(_phrase1, 発明する)), main(Author_phrase, AUTHOR), main(Work_phrase, WORK). 検索対象テキストと Prolog クエリをシステムに入力することにより,以下の結果が得られる. [ [OrderedDict([ ( 'AUTHOR' , "有川浩"), ('WORK' , "図書館戦争") ])], [OrderedDict([ ( 'AUTHOR' , "鳥山明"), ('WORK ' , "ドラゴンボール") ])] ] ## 4 今後の課題 今後の課題として,このシステムを日本語にのみ対応するツールとしてではなく多言語にも対応できるよう構築を進めたいと考える。また,システムの出力に関して,言語パタンとテキストがマッチしない場合に false を出力する仕様である. しかしながら,言語パタンが何故マッチしなかったのかを考えながら言語パタンを調整したい場合,出力が false のみでは調整は容易くない.本システムが保持する Prolog 述語のテキスト木構造も出力可能にするなどの改善の余地が見られる。 ## 5 おわりに 本研究では,意味役割付与テキストと Prologを用いて言語パタンマッチシステムの構築を行った.今後は,多言語対応およびシステムの出力等,改善に努めたい。 ## 謝辞 本研究の遂行にあたって JSPS 科研費 19K00552 および国立国語研究所機関拠点型基幹研究プロジェクト「統語・意味解析コーパスの開発と言語研究」の支援を受けた。 ## 参考文献 [1] 小木曽智信, 中村壮範. 通時コーパス用『中納言』: Web ベースの古典語コンコーダンサー. [2] 中條清美, アントニ・ローレンス, 内山将夫, 西垣知佳子. フリーウェア WebParaNews オンライン・コンコーダンサーの英語授業における活用. 日本大学生産工学部研究報告 B (文系), Vol. 47, pp. 49-63, 2014. [3] 藤原康弘. 小学校英語ウェブコンコーダンサーの構築と利用: 教科化を見据えて (シンポジウム英語教育・研究のための教材コーパスの構築と利用: 実践例と課題). 英語コーパス研究, No. 22, pp. 65-76, 2015. [4] 田中良ほか. 多言語対応コンコーダンサー『HASHI』:日本語と日本語教育と社会言語学の研究を中心に. 2015. [5] 松本裕治, 浅原正幸, 岩立将和, 森田敏生ほか. 形態素・係り受け解析済みコーパス管理・検索ツー ル「茶器」. 研究報告自然言語処理 (NL), Vol. 2010, No. 18, pp. 1-6, 2010. [6] Richard Johansson and Pierre Nugues. A FrameNet-based semantic role labeler for Swedish. In Proceedings of the COLING/ACL 2006 main conference poster sessions, pp. 436-443, 2006. [7] Richard Johansson and Pierre Nugues. Dependency-based semantic role labeling of Propbank. In Proceedings of the 2008 Conference on Empirical Methods in Natural Language Processing, pp. 69-78, 2008. [8] 竹内孔一, 土山傑, 守屋将人, 森安祐樹. 類似した動作や状況を検索するための意味役割及び動詞語義付与システムの構築. 電子情報通信学会技術研究報告. NLC, 言語理解とコミュニケーション, Vol. 109, No. 390, pp. 1-6, 2010. [9] Adam Lally and Paul Fodor. Natural language processing with Prolog in the IBM Watson system. The Association for Logic Programming (ALP) Newsletter, 2011. [10] Adam Lally, John M Prager, Michael C McCord, Branimir K Boguraev, Siddharth Patwardhan, James Fan, Paul Fodor, and Jennifer Chu-Carroll. Question analysis: How Watson reads a clue. IBM Journal of Research and Development, Vol. 56, No. 3.4, pp. 2-1, 2012. [11] Kohsuke Yanai, Misa Sato, Toshihiko Yanase, Kenzo Kurotsuchi, Yuta Koreeda, and Yoshiki Niwa. Struap: A tool for bundling linguistic trees through structure-based abstract pattern. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 31-36, 2017. [12] 竹内孔一, 石原靖弘, 竹内奈央. 述語項構造のシソー ラス分類と意味役割の設計について. 人工知能学会全国大会論文集第 27 回全国大会 (2013). 一般社団法人人工知能学会, 2013.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C5-2.pdf
# 遺伝子二重欠失研究のための関連論文検索手法 平野竧野村航進藤裕之渡辺太郎 奈良先端科学技術大学院大学 先端科学技術研究科 } hirano.hayate.hc2@is.naist.jp w-nomura@bs.naist.jp \{shindo, taro\}@is.naist.jp ## 1 はじめに 生物学と情報科学の学際的分野であるバイオインフォマティクスにおいて,実験から得られた情報からの知識発見は課題の一つである. 例えば大腸菌について , ゲノム (遺伝情報) の化学合成および最小化を目的とするゲノムデザインを目指し,遺伝子欠失株と呼ばれる特定遺伝子が機能しない細胞を用いて,「どの遺伝子が削れるのか」という観点から研究が進められている [1].しかし遺伝的相互作用の組み合わせが非常に多く, 生物学的知見がもっとも大きい生物である大腸菌でさえ,ゲノムデザインの達成には程遠い現状がある [1] . 本研究では,2 種類の遺伝子を喪失させた遺伝子二重欠失株の生育実験をより効率的に行えるようにすることを目標とし,クエリとして与えられた 2 種類の遺伝子に対する相補的な関連性の検証に有用な論文を検索する方法を提案する.具体的には,木構造トピックモデルで得られる文書および単語のトピック分布を応用する . Latent Dirichlet Allocation (LDA [2]) に代表される一般的なトピックモデルと異なりトピック同士の類似性や粒度の違いを考えることができるため, 別々のトピックに属する単語や文書に対しても類似するかどうかを考えることができる. 実験により階層構造を持つトピック分布は光うでないものと比べ, 遺伝子の相互作用をより適切に捉えられる可能性を示した。 ## 2 関連研究 情報検索タスクには文書群からのデータ検索だけでなく,SQL をはじめとする構造化されたデータからの知識発見などさまざまな設定が存在する.このうちテキスト検索は,ユーザの入力したクェリに対してランク付けされたテキスト群を結果として返すものであり,情報検索における主要な問題である 図 1 クエリ : “b0720 b0002”および“b0928 b0231” の設定における取得された関連文献上位 3 件 [3] . 情報検索も他の自然言語処理タスク同様, 単語および文書のべクトル表現の学習に重点を置いており,BERT やPT-2などの事前学習済みの言語モデルを文書検索に利用する研究がある $[4,5]$. また , 情報検索において文書の表現には Latent Semantic Indexing (LSI) をはじめとするべクトル空間モデルが広く用いられてきた . LDA [2] は LSI を生成モデルに拡張したものであり, 潜在的な意味「卜ピック」からの単語の生成, および文書からのトピックの生成を行う際, Dirichlet 分布を事前分布に仮定する. 代表的なトピックモデルとして様々な久スクへと応用されている。 ここで,LDA は大量文書に適応が可能な手法である一方,トピック同士の関連や粒度の違いを考慮することができない.トピック同士に階層構造を持たせる木構造トピックモデルは光れを可能にするが,大量文書への適用が困難であった . Isonuma ら [6] は木構造卜ピックモデルにおいて, 文書からトピック分布への写像をニューラルネットワークで構成する手法を提案した.これにより大量文書へに対して木構造トピックモデルの構築, 情報検索をはじめとする下流タスクへの応用が可能となった . ## 3 提案手法 本研究では , 実験対象の 2 種類の遺伝子をクェリとして与えたときに互いの差異を含むような文献が 図 2 モデルの概略図 検索できるようにすることで,遺伝子欠失研究の仮説検証を補助することを目的とする.关こで生物医学分野の論文を対象に,木構造ニューラルトピックモデル [6] により獲得される文書のトピック分布およびトピックに紐づく単語分布を文書検索に利用する。 トピックモデル LDA [2] を情報検索に利用する場合, 例えば文書分類では文書 $d$ のトピック分布 $\theta_{d}$ およびトピック $z$ に紐づく単語分布 $\phi_{z}$ が光れ光れパラメータ $\alpha, \beta$ である Dirichlet 分布から生成されるとした上で, 文書(観測値である単語の集合 $\mathbf{w}$ で表現される) の生成確率 $ \begin{aligned} p(\mathbf{w} \mid \alpha, \beta)=\int & \int \prod_{z=1}^{X} P\left(\phi_{z} \mid \beta\right) \prod_{d=1}^{N} P\left(\theta_{d} \mid \alpha\right) \\ & \left(\prod_{i=1}^{N_{d}} \sum_{z_{i}=1}^{K} P\left(z_{i} \mid \theta\right) P\left(w_{i} \mid z, \phi\right)\right) d \theta d \phi \end{aligned} $ により各文書についてもっとも確率値の高いトピックに割り当てることで行うことができる.ここで, トピック数 $K$ は開発データにおける perplexity と呼ばれる指標により事前に決定する必要がある. 一方 , Isonuma ら [6] が提案するモデルでは事前分布から無限木上のトピック分布への写像をニューラルネットワークで構成することにより,トピック数を動的に学習させることが可能である。 図 2 は提案手法の流れを示している.クェリとし の対応の強さを推定する.具体的には,Wei ら [7] の手法に従いクェリ $q$ に対して $p(q \mid D)$ を以下の式 (2) で表わされる文書スムージングにより計算する . $ \begin{aligned} p(q \mid D)= & \lambda\left(\frac{N_{d}}{N_{d}+\mu} p_{M L}(q \mid D)+\right. \\ & \left.\left(1-\frac{N_{d}}{N_{d}+\mu}\right) p_{M L}(q \mid \text { coll })\right)+ \\ & (1-\lambda) p_{t m}(q \mid D) \end{aligned} $ ただし $p_{M L}(q \mid D)$ は文書 $D$ におけるクエリ $q$ の最尤推定量,すなわち文書を構成する単語数 $N_{d}$ に対する出現語彙数 $c(q, D)$ の割合 $\frac{c(q, D)}{N_{d}}$ を, $p_{M L}(q \mid$ coll $)$ は全文書集合におけるクエリ $q$ の最尤推定量,すなわち $\Sigma_{D \in \text { coll }} \frac{c(q, D)}{N_{d}}$ を表す.また, $p_{t m}(q \mid D)$ は文書モデルであり,各トピックに紐づく単語分布の推定値 $\hat{\phi}$ おび文書のトピック分布の推定値 $\hat{\theta}$ を用いて以下のように書ける。 $ \begin{aligned} p_{t m}(q \mid D) & =\sum_{n=1}^{N} p_{t m}\left(q \mid z_{n}\right) p_{t m}\left(z_{n} \mid D\right) \\ & =\sum_{n=1}^{N} p\left(q \mid z_{n}, \hat{\phi}\right) p\left(z_{n} \mid \hat{\theta}, D\right) \end{aligned} $ 本研究では , クエリとして与える 2 種類の遺伝子に相補的な関連を持つ文書集合を獲得したい.クエリを各々 $q_{1}, q_{2} \in Q$ とした場合に,2つのクエリに対する文書との関連の強さは $ p(Q \mid D)=\prod_{i=1}^{2} p\left(q_{i} \mid D\right) $ と書けることから,式 (2) はクエリを構成する各々の単語について計算し,積を取ることで求められる.クェリである遺伝子双方に関連する文書群と,各々の遺伝子について関連する文書群との関連の大きさの差が大きかった文書を 2 種類の遺伝子に相補的な情報を持つ文書とする。 ## 4 実験 ## 4.1 データセット 生物医学系の研究論文が広く収集されているデー タベースの一つである PubMed ${ }^{11}$ から論文データを取得した.ここで,PubMed に収集されている論文には Medical Subject Headings $(\mathrm{MeSH})^{2)}$ と呼ばれる 1) https://pubmed.ncbi.nlm.nih.gov/ 2) https://www.nlm.nih.gov/mesh/meshhome.html 生物医学語彙データベース中の語句がラベルとして振られており,これにより的確な検索が可能となっている.本研究では, 大腸菌 (Escherichia coli) に関する研究論文のみを対象とするため, MeSH データベース中の小分類, Escherichia coliを利用した.下位分類として生物学の研究に主に用いられる大腸菌株 Escherichia coli $\mathrm{K} 12$ が存在するが, ラベルの網羅性の低さからこれは用いないこととした.検索された論文のうち,本文をプレーンテキストとして取得できた 16,740 件を実験の対象とした . 前述の論文本文データに加え,大腸菌遺伝子と同義な用語や概念, 例えば遺伝子 gltA は, 各大腸菌遺伝子に一意に振られる b number である b0720 と同義とみなされる. 光れらを同一視するため, 各遺伝子の同義語を生物医学データベース群, EcoCyc ${ }^{3)}$, EcoGene $^{4)}$, KEGG $^{5)}$, RegulonDB ${ }^{6)}$ から収集した さらに,検索された文書群がどの程度クェリとして与えた遺伝子の相補的な情報を保持するかを検定するために,遺伝子二重欠失株生育データを利用する.これは大腸菌二重遺伝子欠失実験により得られた 4,000 150 遺伝子対について,遺伝子欠失後の大腸菌の生育状況を生, 死, 不変にて3 值化したものである . ## 4.2 実験設定 4.1 節で得られた論文本文のデータには NLTK を利用してストップワードの除去 , および見出し語への変換 (Lemmatization) を行った. 加えて, 遺伝子を表す単語は収集した遺伝子の同義語群を用いて b number に統一した ${ }^{7)}$. 低頻度語も除去し,遺伝子以外の語は 1,741 種類,遺伝子は 552 種類を利用する. これら文書群は評価用と光れ以外に 6,652 件, 10, 088 件に分割し,更に評価用でない文書群は訓練用と検証用に 9,031 件,1,057 件に分割した ${ }^{8)}$. 加えて遺伝子二重欠失株生育データに対して,遺伝子を欠失順序ごとに Head 遺伝子, Tail 遺伝子と呼び,羊れらを入れ替えた場合に生育状況か湾化するもの,変化しないものの二值化を行った.入れ替え 3) https://ecocyc.org 4) http://ecogene.org 5) https://www.kegg.jp 6) http://regulondb.ccg.unam.mx 7) 同義な語であっても一意に b number に置換できない場合がある. 本研究では収集した同義語群において, 当該の語から b numberへの変換が一意に定まるもののみを対象とした . 8) 分割は [8] が採用し, Isonuma ら [6] も同様にしている 20 News Corpus の分割比, 訓練データ: 検証データ +評価データ $=3: 2$, 検証データ $:$ 評価データ $=1: 9$ にしたがった . 図 3 木構造ニューラルトピックモデルにより学習されたトピックの階層構造 : 各トピックの上位 3 語を表示 によって生育状況が変化した遺伝子対は 1,982 組,変化しない,もしくは実験が行われていないものは 214, 990 組得られた . このうち前述の 552 種類の遺伝子に含まれる各 8 組を検定に利用した ?9) また文書モデルの計算のための木構造ニューラルトピックモデルのハイパーパラメータは Isonuma ら [6] の設定に従った.また文書検索については, Wei ら [7] のパラメータに従い $, \mu=1000, \lambda=0.7$ を用いた。 ## 4.3 文書検索の結果 本研究では,式 (2) で計算される文書モデルを利用し,各文書 $D$ に対して $\sum_{i} p\left(q_{i} \mid D\right)-p(Q \mid D)$ の降順に各 10 文献を取得した . 得られた結果に対して Mann-Whitney のU 検定を用いて,遺伝子二重欠失実験において生育状況の変化のあったもの,なかったものの各遺伝子組について検索順序の中央值の差の検定を行った。 また, 大腸菌二重遺伝子欠失実験により得られた欠失順序の違いにより生育状況に変化のあった遺伝子,および変化のなかった遺伝子,各 8 組について文書検索を行つた . 5 組について帰無仮説は棄却され,中央値に差があることが示された . 結果の一例は表 1 に示した.ここから,生育状況に変化のあつた遺伝子となかった遺伝子の 2 群間で異なる検索分布が提案手法により得られたと言える。 図 1 に取得された文献の一例を示す. 遺伝子 b0720,b0002 は遺伝子生育実験により,欠失順序によって生育状況が変化すると判断された組,b0928, b0231 は変化しないと判断された組である. 検索された文書順序は実験対象の 8 件での上位 20 文献についてはほとんど変化がなかった.これは,トピッ 9) ある Head の欠失遺伝子について,各 Tail 遺伝子すべてについて上位 $5 \%$ を生,下位 $5 \%$ を死とした。生育状況 LB 培地培地上での大腸菌コロニーサイズの増減によって計算される。 表 1 文書検索結果 : b0720,b0002 ゚゚アおよび b0928,b0231 ゚゚ア同士の代表値についての両側検定結果 $ * p<0.05 $ クモデルと文書検索の学習を別々に行ったことが一因と考えられ,一体での学習は今後の課題である。 ## 4.4 木構造卜ピックによる効果 フラットなトピックモデルを利用した場合と比較して木構造トピックが文書検索性能に影響があるかを検証する.図3は木構造ニューラルトピックモデルにより獲得されたトピックの階層構造を図示したものである.上位には “growth”などの概念的な語が見られるが,下位には“enzyme”や“pcr”など具体的な語が含まれることがわかる.フラットなトピックモデルの一例として LDA [2]を利用する. 提案手法との比較のためトピック数は同一の 19 に,訓練には訓練用文書 9,031 件を用いた。検証用文書 1,057 件での Perplexity が 10 反復連続で変化しなかったところでモデルの学習を打ち切った。 結果は表 1 に示した.LDAへと変更したことにより帰無仮説の棄却数は変わらず 5 件であった . しかしながら,実験の対象とした 8 件の遺伝子の組すべてにおいて中央值は木構造ニューラルトピックモデルの方が大きくなった.このことから実験的にトピックに階層構造を持たせることが,2 種類の遺伝子に相補的な関連をもつ論文を検索することを目的とする本研究には役に立つ可能性が示唆される。 ## 5 おわりに 本研究では,情報検索技術を背景にゲノムデザイン研究の支援を行うことを目的とした . 他の生物と比較して研究の進んでいる大腸菌においても,いまだ知られていない遺伝子相互作用が人の手に余るほど存在することを鑑みると,実験結果に関連のある情報を取得する技術は遺伝子欠失,ひいてはゲノムデザイン研究の効率化の一助となる。 そこで論文を効率よく検索することを目指し,木構造ニューラルトピックモデルで得られるトピックに紐づく単語分布および文書のトピック分布を後続 のモデルの推論に利用し,実験により階層構造をもたないトピックモデルよりもより効果的に論文を取得できる可能性を示した . 今後は木構造ニューラルトピックモデルの強みの一つである,下流タスクとの一体的な学習を進める。 ## 参考文献 [1]浩禎森. ゲノムデザインに向けて (創立 90 周年記念特別企画: バイオ技術 10 年の軌跡特集大規模ゲノム改変技術と微生物育種工学: バイオモノづくり技術と合成生物学の発想). 生物工学会誌, 90(6):293-297, 2012. [2]David M Blei, Andrew Y Ng, and Michael I Jordan. Latent dirichlet allocation. Journal of machine Learning research, 3(Jan):993-1022, 2003. [3]Bhaskar Mitra, Nick Craswell, et al. An introduction to neural information retrieval. Foundations and Trends ${ }^{\circledR}$ in Information Retrieval, 13(1):1-126, 2018. [4]Wei Yang, Haotian Zhang, and Jimmy Lin. Simple applications of bert for ad hoc document retrieval. arXiv preprint arXiv:1903.10972, 2019. [5]Yosi Mass and Haggai Roitman. Ad-hoc document retrieval using weak-supervision with BERT and GPT2. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 4191-4197, Online, November 2020. Association for Computational Linguistics. [6]Masaru Isonuma, Junichiro Mori, Danushka Bollegala, and Ichiro Sakata. Tree-Structured Neural Topic Model. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 800-806, Online, July 2020. Association for Computational Linguistics. [7]Xing Wei and W Bruce Croft. Lda-based document models for ad-hoc retrieval. In Proceedings of the 29th annual international ACM SIGIR conference on Research and development in information retrieval, pages 178-185, 2006. [8]Akash Srivastava and Charles Sutton. Autoencoding variational inference for topic models. arXiv preprint arXiv:1703.01488, 2017.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C5-3.pdf
# 知識グラフエンベディングのためのリレーションパスルールに よるトランスダクティブデータ拡張 廣瀬雄士 ${ }^{1}$ 新保仁 ${ }^{2}$ 渡辺太郎 ${ }^{1}$ 1 奈良先端科学技術大学院大学 先端科学技術研究科, 2 千葉工業大学人工知能・ソフト ウェア技術研究センター hirose.yushi.hx4@is.naist.jp, shimbo@stair. center, taro@is.naist.jp ## 1 はじめに 実世界の情報をデータ化する手法として知識グラフが知られている.知識グラフはエンティティを頂点とし,リレーションを辺のラベルとする有向グラフである.辺を表すへッドエンティティ,リレーション, テールエンティティの三つ組 $\left(e_{h}, r, e_{t}\right)$ は,トリプレットと呼ばれ,知識グラフはトリプレットの集合ともみなせる. 知識グラフの例として, YAGO [1], Freebase [2], WordNet [3]があり, Q \& $\mathrm{A}[4]$ ,エンティティリンキング [5] などの自然言語処理タスクで用いられている。 通常,知識グラフは実世界の全てのトリプレットが記述されているわけではない. 久損したトリプレットを予測するタスクを,知識グラフ補完と呼び,主要な手法として,エンベディングモデル [6], [7], [8] とリレーションパスルールモデル [9] が研究されてきた. エンベディングモデルは既知の知識グラフからエンティティ, リレーションの特徵ベクトルを学習し, それらの間の演算により得られるスコアによって欠損したトリプレットの真理値を予測する.リレーションパスルールモデルは,知識グラフ上のエンティティ間のリレーション系列 (リレーションパス)を一階述語論理的なルールと考えて,欠損トリプレットの真理值を予測するモデルである。 両者には長所と短所がある. エンベディングモデルは,知識グラフ全体から特徴を学習できるが,知識グラフの経路情報のモデル化が明示的に行われていない.リレーションパスルールモデルは,ルールを用いているので偽陽性が少ないが,エンティティ間にリレーション系列が存在しなければそのトリプレットを予測することはできない. 本研究では両者の長所を活かすように,リレー ションパスルールによって予測されたトリプレットを訓練データに追加し,その拡張データを用いてエンベディングモデルの学習を行う。データの拡張はトランスダクティブ学習 [10] の設定で行う.これによりクエリの予測に有益なデータを拡張することで精度の向上が期待できる. データセットとしてWN18RR,FB15k-237を用い,通常のデータを用いてエンベディングモデルを学習させた場合と比較すると,拡張データを用いた場合の方が予測精度が良い結果が得られた。通常の知識グラフ補完のためにトランスダクティブ学習の設定を用い,予測精度への効果を調べたのは,私の知る限り本研究が初めてである。 ## 2 背景 知識グラフ補完は, テストクエリ $\left(e_{h}, r, ?\right),\left(?, r, e_{t}\right)$ が与えられた時,?に入る真のエンティティが,エンティティ集合 $E$ の中で何番目に真である可能性が高いかを予測するタスクとしてょく定式化される.本研究も同様なタスクを考える。 ## 2.1 エンベディングモデル エンベディングモデルはエンティティとリレー ションの特徴べクトルを用いた演算によってトリプレットのスコアが定義されるモデルであり,その值が大きいトリプレットほど,真である可能性が高いと考える. 各特徴べクトルは, 通常確率的勾配降下法によって学習される. 初期モデルとして RESCAL [6] が知られており, 近年精度が高いモデルとして TuckER [8] が知られている. 各モデルのスコア関数 $f_{\mathrm{RESCAL}}$ および $f_{\text {TuckER }}$ は以下のように表される。 $ \begin{gathered} f_{\mathrm{RESCAL}}\left(e_{h}, r, e_{t}\right)=\mathbf{e}_{h}^{\top} \mathbf{R} \mathbf{e}_{t} \\ f_{\text {TuckER }}\left(e_{h}, r, e_{t}\right)=\mathbf{W} \times{ }_{1} \mathbf{e}_{h} \times{ }_{2} \mathbf{r} \times{ }_{3} \mathbf{e}_{t} \end{gathered} $ ここで $\mathbf{e}_{h}, \mathbf{e}_{t}, \mathbf{r}, \mathbf{R}, \mathbf{W}$ はそれぞれ学習されるパラメー タを示し,順にへッド,テールエンティティ,リレーションのエンベディングベクトル,リレーション行列, 全トリプレット共通のコアテンソルを表す. $\times_{n}$ はテンソルの n-mode 積を表す. ## 2.2 リレーションパスルール リレーションの系列をリレーションパスと呼ぶ. すなわち $r_{1}, \ldots, r_{n}$ が $n$ 個のリレーションであるとき, path $h_{i}:=\left(r_{1}, \ldots, r_{n}\right)$ は長さ $n$ のリレー ションパスである. また, $\left(e_{1}, r_{1}, e_{2}\right),\left(e_{2}, r_{2}, e_{3}\right), \ldots$, $\left(e_{n}, r_{n}, e_{n+1}\right)$ が知識グラフ中のトリプレットであるとき, $e_{1}$ と $e_{n+1}$ の間に $p a t h_{i}$ が存在する, といい, $\operatorname{path}_{i}\left(e_{1}, e_{n+1}\right)$ と書く. リレーションパスを用いた予測の例としてクエリ (Bob, nationality, ?) を考える. (Bob, bornIn, NYC), (NYC, isCityOf, USA) が知識グラフ上で既知なら, Bob,USA の間に (bornIn, isCityOf) というリレーションパスが存在することを用いて,USA がクエリの真のエンティティに含まれると予測することができる. リレーションパス path $_{i}=\left(r_{1}, r_{2}, \ldots, r_{n}\right)$ を用いてリレーション $r$ を予測するとき,述語論理を用いて次のようなルールとしてみることもできる. $ \begin{aligned} \exists e_{1}, e_{2}, \ldots e_{n+1} & :\left(e_{1}, r_{1}, e_{2}\right) \wedge\left(e_{2}, r_{2}, e_{3}\right) \wedge \ldots \\ & \wedge\left(e_{n}, r_{n}, e_{n+1}\right) \rightarrow\left(e_{1}, r, e_{n+1}\right) \end{aligned} $ ルールの尤もらしさは, 先行研究 [11] の Partial Completeness Assumption(PCA)という仮定に基づくと,式のような確信度スコアで示される. 式はリレーション $r$ の予測に用いる path $h_{i}$ の確信度スコアを表し,$e_{t}^{\prime}$ は知識グラフ上のいずれかのエンティティを表す. $\operatorname{Conf}_{\mathrm{PCA}}\left(\right.$ path $\left._{i}\right)=\frac{\left|\left.\{\left(e_{h}, e_{t}\right) \mid \operatorname{path}_{i}\left(e_{h}, e_{t}\right) \wedge\left(e_{h}, r, e_{t}\right)\right.\}\right|}{\left|\left.\{\left(e_{h}, e_{t}\right) \mid \operatorname{path}_{i}\left(e_{h}, e_{t}\right) \wedge\left(e_{h}, r, e_{t}^{\prime}\right)\right.\}\right|}$ ## 2.3 データ拡張による知識グラフ補完 リレーションパスルールを用いてデータ拡張を行い,エンベディングモデルの学習に用いるモデルには UniKER [12] が存在する. この手法により, エンベディングモデルの精度は大きく向上するが,デー 夕拡張のために様々な手法が必要である. 例えば,拡張するトリプレットをうまく見つけるために, “forward chaining" やパスの補完などがある. またこの手法ではエンベディングスコアもデータ拡張のた めの情報として用いている. そしてエンベディングの学習よるエンベディングの学習,というように繰り返しエンベディングモデルを学習する必要がある. ## 3 トランスダクティブ学習設定によ るデータ拡張 トランスダクティブ学習設定では,テストクエリ $\left(e_{h}, r\right.$, ? )が学習時に既知であると考える. このため、テスト時にあらゆるクエリを想定しないといけない通常の知識グラフ補完タスクよりは容易な問題設定になっている. しかし, 現実的には予測したいクエリがあらかじめ分かっていて,その予測精度を向上することの方が求められることも考えられる. 本手法ではテストデータのクエリ $\left(e_{h}, r, ?\right)$ が与えられたとき,テールとして該当しそうなエンティ トリプレット $\left(e_{h}, r, e_{t}^{\prime}\right)$ を訓練データに追加する. そうすることでクエリの答えであるテールエンティティか,それと似た特徴を持つテールエンティティを訓練データに追加することが期待できる。その後,拡張データを用いてエンベディングモデルを訓練し,テストの評価に用いる. 拡張データで学習されたエンベディングモデルを拡張データモデルと呼ぶこととする. ## 3.1 リレーションパスルールのマイニング リレーションパスルールは先行研究 [13] の手法に倣って双方向ランダムウォークによって取得する.トリプレット $\left(e_{h}, r, e_{t}\right)$ について考える.このマイニング手法では $, e_{h}, e_{t}$ それぞれを始点としたグラフ上のランダムウォークが行われ,ウォークしたお互いの終点が同じエンティティだった場合に, リレーション $\mathrm{r}$ の予測に用いられるパスが取得される。 各リレーションに対して, マイニングされたパスのうち,確信度スコアがトップ $\mathrm{N}$ 個のパス path $_{i=1 \ldots N}^{r}$ を用いてデータ拡張を行う. テストデー タの各クエリ $\left(e_{h}, r\right.$, ? に対して, 全テールエンティティ $e_{t}^{\prime} \in E$ を用いて,$e_{h}$ と $e_{t}^{\prime}$ の間に各 path $_{i=1 \ldots N}^{r}$ が存在するかを調べる. 存在するパスの中で, 式 4 の確信度スコアが最も大きいものを $\left(e_{h}, r, e_{t}^{\prime}\right)$ のパススコアとし, 各クエリのパススコアが大きいトリプレットを訓練データに追加する. このとき top $S$ と confThold という閾値を導入する. 各クエリに対して,最初の訓練データを含めて多くとも top $S$ 表 1 知識グラフの各データセット統計情報 $E, R$ はエンティティ,リレーションの集合を表す. 個までのトリプレットを訓練データに追加する。また scoreThold より小さいパススコアを持つトリプレットは訓練データに追加しないようにする。 ## 4 実験 ## 4.1 実験設定 データセットには WN18RR [14] と FB15k-237 [15] を用いた。データセットの統計情報は表 1 に示す。 データ拡張には各リレーションで確信度スコアトップ 1000 までのパスを用いる.またハイパーパラメータを検証用データで調整するために,テストデータだけでなく検証用データもデータ拡張のためのクエリとして用いた. エンベディングモデルには RESCAL,TuckERを用い,そのハイパーパラメー タ等の值は付録に示す。ハイパーパラメータの探索範囲は,ベースモデルと拡張データモデルで等しく,検証用データの MRR が最大になるようグリッドサーチする. また各データ $\left(e_{h}, r, e_{t}\right)$ に対して逆リレーション $r^{-1}$ を用いた $\left(e_{t}, r^{-1}, e_{h}\right)$ を追加する. そして学習と評価は各トリプレットのテールエンティティを予測する手法を用いる [16]. ## 4.1.1 損失関数 損失関数には KvsAll [17] という負例の取り方と,二値交差エントロピー損失を用いる。このときミニバッチ内の一つの訓練事例は $\left(e_{h}, r\right)$ となり,このぺアに対する損失関数は以下のように表される. $ \begin{aligned} L= & -\frac{1}{|E|} \sum_{e^{\prime} \in E}^{|E|}\left(\mathbf{y}_{e^{\prime}} \log \sigma\left(f\left(e_{h}, r, e^{\prime}\right)\right)+\right. \\ & \left.\left(1-\mathbf{y}_{e^{\prime}}\right) \log \left(1-\sigma\left(f\left(e_{h}, r, e^{\prime}\right)\right)\right)\right) \end{aligned} $ ここで $\mathbf{y}_{e^{\prime}}$ は,トリプレット $\left(e_{h}, r, e^{\prime}\right)$ が訓練デー タに含まれるなら 1 ,それ以外は 0 となるラベルを表し, $f$ は学習に用いるスコア関数, $\sigma$ は活性化関数であるシグモイド関数を表す。 ## 4.2 実験結果 ベースモデルと拡張データモデルによるテストクエリの予測結果を表 2 に示す. MRR は予測され表 2 拡張データモデルの実験結果 た真のエンティティのランクの逆数の平均を表し, Hits@ $K$ は真のエンティティのランクが $K$ 位内であるテストクエリの割合を表す。 ## 5 分析・考察 ## 5.1 予測精度に関する考察 表 2 の実駼結果から,拡張データがエンベディングモデルの精度を向上させることがわかる. また, FB15k-237 で拡張データモデルがベースモデルに対してあまり精度の改善が見られなかった原因の一つに,適切なハイパーパラメータを設定できなかった可能性が考えられる。拡張データによって訓練デー タの数が変化するので,最適なエンベディングの次元やドロップアウトの值が変化したと思われる. ## 5.2 予測結果の違いに関する分析 一つのテストデータに対して,そのクエリによって生成される拡張データを,そのテストデータの拡張データと呼ぶことにする。 拡張データに真またはそれに類似したテールエンティティを含んだ結果,予測が改善されたのか分析する. ベースモデル・拡張データモデルによって予測される各検証用データのランクを調べ,それぞれのモデルで 10 位以内かそれ未満で予測されたデー 夕数と,その内拡張データを持つもの,拡張データに含まれるものを示したのが,表 3,4 である。 エンベディングモデルには RESCALを用いた. まず WN18RR について表 3 のデータをみる。拡張データに含まれる検証用データは全て,拡張デー タモデルで 10 位以内に予測できている。そのうち 93 個はベースモデルでは 10 位以内に予測できなかったもので,拡張データモデルの予測精度が向上に寄与している。 FB15k-237 も WN18RR と同じような傾向が見られるが,拡張データモデルによって新たに 10 位内に予測できるようになったトリプレットの数が,予測できなくなった数と同じくらい存在する. 両方のデータセットで拡張データを持つ検証用 表 3 各モデルによる検証用データの予測ランク比較(WN18RR) 表 4 各モデルによる検証用データの予測ランク比較(FB15k-237) 表中の “have 拡張データ” は拡張データを持つ検証用データ,“in 拡張データ” は拡張データに含まれる検証用データを示す. データのうち,そのデータ自身が拡張データに含まれなくても精度が上昇したものが存在する. この原因が,拡張データにクエリの真のテールエンティティに類似したエンティティを含んだためかどうか次の節で確かめる。 ## 5.3 エンベディングコサイン類似度比較 以下のように検証用データと拡張データのテー ルエンティティのエンベディングコサイン類似度を分析した.検証用データ $\left(e_{h}, r, e_{t}\right)$ の拡張データのテールエンティティの集合を $D\left(e_{h}, r\right)$ とする. $D\left(e_{h}, r\right)$ の各テールエンティティ $e_{t}^{\prime}$ 対して,$E$ 中の全エンティティとのエンベディングのコサイン類似度を求める. 各 $e_{t}^{\prime}$ について $e_{t}^{\prime}$ と $e_{t}$ のコサイン類似度が $E$ 中で何番目か求める. 各 $e_{t}^{\prime}$ と $e_{t}$ のコサイン類似度ランクの中で最も小さいものを,D $\left(e_{h}, r\right)$ と $e_{t}$ との最小コサイン類似度ランクとする. 検証用データで拡張データに含まれない,かつ拡張データ持ち検証用データのうち,以下 3 タイプのデータを比較のために取り出す. ・タイプ 1:10 位以内の予測精度が向上したデー タ(予測ランクがベースモデルで 10 位未満かつ拡張データモデルで 10 位以内のデータ) ・タイプ 2:10 位以内の予測精度が悪化したデー タ(予測ランクがベースモデルで 10 位以内かつ拡張データモデルで 10 位未満のデータ) ・タイプ 3:10 位以内に変わらず予測できていないデータ(予測ランクがベースモデル,拡張データモデル共に 10 位未満のデータ) 各タイプに含まれる検証用データそれぞれについて,その拡張データのテールエンティティとの最小コサイン類似度ランクを求める. その後各タイプご表 53 タイプの検証用データの最小コサイン類似度 とに,検証用データの最小コサイン類似度ランクの MRR を求める. このようにして求められた 3 タイプの MRRを,各タイプに含まれる検証用データ数と共に表 5 に示す. 両データセット共にタイプ 1 が最も最小コサイン類似度 MRR が高く,類似したエンティティの拡張データの学習が,拡張データモデルの精度向上に寄与したと考えられる。 ## 6 おわりに トランスダクティブ設定の下で,リレーションパスによるデータ拡張を行い,エンベディングモデルの学習と予測を行った. 予測結果は拡張データなしの場合を上回り,分析の結果,多くの場合トランスダクティブ学習の設定がより良いデータの拡張につながることがわかった. また本手法は他のエンベディングモデルへの応用も期待できる。 トランスダクティブではなく,通常の設定でのリレーションパスルールによるデータ拡張は今後の課題とする。 ## 参考文献 [1] Fabian M Suchanek, Gjergji Kasneci, and Gerhard Weikum. Yago: a core of semantic knowledge. In Proceedings of the 16th international conference on World Wide Web, pp. 697-706, 2007. [2] Kurt Bollacker, Colin Evans, Praveen Paritosh, Tim Sturge, and Jamie Taylor. Freebase: a collaboratively created graph database for structuring human knowledge. In Proceedings of the 2008 ACM SIGMOD international conference on Management of data, pp. 1247-1250, 2008. [3] George A. Miller. Wordnet: A lexical database for english. Coтmun. ACM, Vol.38, No. 11, p.39-41, November 1995. [4] Xiao Huang, Jingyuan Zhang, Dingcheng Li, and Ping Li. Knowledge graph embedding based question answering. In Proceedings of the Twelfth ACM International Conference on Web Search and Data Mining, WSDM '19, p. 105-113, New York, NY, USA, 2019. Association for Computing Machinery. [5] Deep semantic match model for entity linking using knowledge graph and text. Procedia Computer Science, Vol. 129, pp. 110 - 114, 2018. [6] Maximilian Nickel, Volker Tresp, and Hans-Peter Kriegel. A three-way model for collective learning on multirelational data. In Icml, Vol. 11, pp. 809-816, 2011. [7] Théo Trouillon, Johannes Welbl, Sebastian Riedel, Éric Gaussier, and Guillaume Bouchard. Complex embeddings for simple link prediction. International Conference on Machine Learning (ICML), 2016. [8] Ivana Balažević, Carl Allen, and Timothy M Hospedales. Tucker: Tensor factorization for knowledge graph completion. In Empirical Methods in Natural Language Processing, 2019. [9] Christian Meilicke, Manuel Fink, Yanjie Wang, Daniel Ruffinelli, Rainer Gemulla, and Heiner Stuckenschmidt. Fine-grained evaluation of rule-and embedding-based systems for knowledge graph completion. In International Semantic Web Conference, pp. 3-20. Springer, 2018. [10] A. Gammerman, V. Vovk, and V. Vapnik. Learning by transduction. In Proceedings of the Fourteenth Conference on Uncertainty in Artificial Intelligence, UAI'98, p. 148-155, San Francisco, CA, USA, 1998. Morgan Kaufmann Publishers Inc. [11] Luis Galárraga, Christina Teflioudi, Katja Hose, and Fabian M Suchanek. Fast rule mining in ontological knowledge bases with amie+. The VLDB Journal, Vol. 24, No. 6, pp. 707-730, 2015. [12] Ke wei Cheng, Ziqing Yang, Ming Zhang, and Y. Sun. Uniker: A unified framework for combining embedding and horn rules for knowledge graph inference. In ICML Workshop on Graph Representation Learning and Beyond, 2020. [13] Matt Gardner and Tom Mitchell. Efficient and expressive knowledge base completion using subgraph feature extraction. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1488-1498, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [14] Tim Dettmers, Pasquale Minervini, Pontus Stenetorp, and Sebastian Riedel. Convolutional 2d knowledge graph embeddings, 2018. [15] Kristina Toutanova and Danqi Chen. Observed versus latent features for knowledge base and text inference. In Proceedings of the 3rd Workshop on Continuous Vector Space Models and their Compositionality, pp. 57-66, Beijing, China, July 2015. Association for Computational Linguistics. [16] Timothee Lacroix, Nicolas Usunier, and Guillaume Obozinski. Canonical tensor decomposition for knowledge base completion. In Jennifer Dy and Andreas Krause, editors, Proceedings of the 35th International Conference on Machine Learning, Vol. 80 of Proceedings of Machine Learning Research, pp. 2863-2872, Stockholmsmässan, Stockholm Sweden, 10-15 Jul 2018. PMLR. [17] Daniel Ruffinelli, Samuel Broscheit, and Rainer Gemulla. You CAN teach an old dog new tricks! on training knowledge graph embeddings. In International Conference on Learning Representations, 2020. [18] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014. [19] Xavier Glorot and Yoshua Bengio. Understanding the difficulty of training deep feedforward neural networks. In Proceedings of the thirteenth international conference on artificial intelligence and statistics, pp. 249-256, 2010. ## A 付録 ## A. 1 マイニングされたパス数 本研究で用いたマイニングされたパスの各リレーションごとの平均数・標準偏差を表に示す. 表 6 マイニングされたパス数 ## A. 2 エンベディングモデル実験設定とハイパーパラメータ エンベディングモデル実験設定とハイパーパラメータの值を表 7 に示す。表中の \{\} 内の值は探索に用いた值である. 表 7 エンベディングモデルのハイパーパラメータ ## A. 3 データ拡張の域値 データ拡張の域値 topS, scoreThold は, WN18RR で topS $=5$, scoreThold $=0.1, \mathrm{FB} 15 \mathrm{k}-237$ で top $S=$ 5, scoreThold $=0.6$ を用いた.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C5-4.pdf
# 構文情報とラベルなしデータを用いた化学分野の関係抽出 新城大希 東京工業大学情報理工学院 shinjo.t.ab@m.titech.ac.jp 牧野拓哉 株式会社富士通研究所 makino.takuya@fujitsu.com } 徳永健伸 東京工業大学 情報理工学院 take@c.titech.ac.jp 岩倉友哉 株式会社富士通研究所 iwakura.tomoya@fujitsu.com } る場合は実行時間が増加するため,大規模データを 効率的に処理することが難しくなる。 この二点をふまえ,本研究では,Open Information Extraction (Open IE) [6] を利用して補助タスクの学習 データを作成し,関係抽出を行う「主タスク」に加 え,主タスクが対象とするエンティティのペアが Open IE で抽出されるかどうかを判定する「補助タ スク」を導入したマルチタスク学習 [7]を行う。さ らに,ラベルなしデータである PubMed に対してラ ベルを付与し,学習に利用する手法を提案する。提案手法は,ラベルなしデータおよび各タスクの学習 データに対して Open IE が構文パタンに基づいて抽出した関係を学習時に利用する。そのため,目的の 関係抽出に有効な構文情報を暗黙的に学習するこ とが期待される。また,提案手法は構文情報は学習時のラベル作成のために利用し, 抽出時には利用し ないため, 明示的な構文解析結果の利用で生じる抽出速度の低下を避けることができる. CHEMPROT, GAD,EU-ADR で評価した結果,BioBERT より高い 精度が得られ,また,構文解析結果を用いる手法と の比較では,高い精度を維持しつつ,最大 29 倍高速に抽出が行えることが示された。 ## 2 関連研究 BERT [3] を分野固有の文書で訓練することによって,その分野のタスクが高性能になることが知られている $[2,8]$. また,構文解析結果を考慮することで,一般ドメインの関係抽出において,精度改善が報告されている [4, 5]. Open IE [6] は,構文情報を用いて主語・目的語となるエンティティのペアと, エンティティ間の関係を合わせた三つ組を抽出する. そのため,クラスが定義された教師あり学習とは異なり,種々の関係を抽出できる。  い。二つ目は,構文的な情報を利用していないという点である. 目的の関係抽出タスクでは構文的な情報が手掛かりになると期待できる $[4,5]$. しかしながら,BERT は単語列からなる文を入力として文に対する特徵量を抽出するため,構文的な情報を利用していない。また,単純に構文解析の結果を利用す 図 1 マルチタスク学習の概念図 ## 3 提案手法 ## 3.1 ベースモデル 本研究では主タスクの関係抽出と後述する補助タスクを同時に学習するマルチタスク学習をべー スラインモデルとする [7]. まず関係を判定したい二つのエンティティをタグに変換する.変換後の文に対して Open IE によって補助タスクのラベルを付与し, 両タスク共通のエンコーダの入力に用いる. エンコーダとして事前学習済みの BioBERTを用いる. BERTにおいて用いられる [CLS]トークンがエンコーダの出力から得られるので, 入力文の分散表現としてそれぞれの分類器の入力に用いる. 共通のエンコーダとそれぞれの分類器を学習させ,各タスクの損失の重み付き和を最終的な損失関数とする。以上の手順を図 1 に示す. 主タスクでは関係抽出を行うが,補助タスクでは入力文に Open IE で抽出できる関係が含まれているかどうかを分類する. 補助タスクのラベルを生成するため, 入力文に対して Open IE ツール Stanford CoreNLP [9] を用い,(主語,関係,目的語)の三つ組を抽出する。このとき,主語,目的語にそれぞれのエンティティを含む三つ組が抽出できた場合,入力文に対する補助タスクのラベルは正例ラベルとなる。 それ以外の場合は負例となる。表 1 に例を示す.したがって,補助タスクではエンティティのぺアを含む文を大力とし,入力文が正例か負例かの 2 クラスに分類するタスクを取り扱う.各タスクの損失関数は Cross Entropy Loss を用いる. ## 3.2 ラベルなしデータの活用 本研究では CHEMPROT などのラベル付きデータに加え,ラベルなしデータである PubMed の活用を提案する. PubMed は生物医学ドメインのデータベースであり,2020 年 9 月時点で約 3,000 万件の文献が収録されている.このうちアブストラクトが取得できる文献をクローリングし,学習に利用する。利用方法は以下の通りである。 1. ラベル付きデータを用いて固有表現抽出器と関係抽出器を学習. 抽出器はいずれも BioBERT で使用していたものを利用. 2. PubMed アブストラクトに対して 1 で学習したモデルで固有表現抽出を行い,関係抽出の判定対象のエンティティを含む文を取得. 3. 2で取得した文に対して関係抽出を行い主タスクのラベルを付与. 4. 2 で取得した文に対して Open IE によって補助タスクのラベルを付与. 5. 主タスクと補助タスクのラベルが付与された PubMed を元のラベル付きデータと同時に学習. PubMed の利用時は,関係ラベルの正例・負例の比率が元のラベル付きデータと同程度になるよう文を選ぶ。また,関係抽出ラベルを付与した際のスコアが高いものから順に選択し学習に利用する。 ## 4 評価実験 ## 4.1 データセット 評価実験では CHEMPROT に加えて GAD [10], EU-ADR [11] をデータセットとして用いる. CHEMPROT は関係の種類が 6 クラス定義され 表 1 補助タスクのラベル付けの例 & 正例 \\ ているのに対し, GAD と EU-ADR は 2 クラスが定義されている.いずれのデータセットにおいても BioBERT で使われていた前処理済みのものを実験に用いる.実験ではこれらの CHEMPROT, GAD,EU-ADR に加え,CHEMPROT を関係あり・ なしの 2 クラスに変換したデータセットを用いる. 以降,本稿では元の 6 クラスの CHEMPROT を CHEMPROT-6,2 クラスに変換した CHEMPROT を CHEMPROT-2 と記す. ## 4.2 実験設定 CHEMPROT-6, CHEMPROT-2, GAD, EU-ADR $の$ 4 つのデータセットについて,主タスクのみを行う場合とマルチタスク学習を行う場合のそれぞれについて学習時に PubMed を追加して実験を行う。 PubMed を利用する際には,元データとの関連性の高い文を利用するために元データに出現するエンティティを含む文のみを用いる手法でも実験を行う.また,構文情報を与える方法として BioBERT の入力に構文木上の二つのエンティティを繋ぐ最短経路のトークンを追加した最短経路手法も比較として実験する.本実験では,各最短経路を BioBERT で encode した結果を結合し,softmax 層にて分類を行う,そのため,この方法では,その都度,構文解析が必要となる. エンコーダは事前学習済みの BioBERT-Base v1.12) を用いてそれぞれの学習データで fine-tuning を行った. GAD,EU-ADRにおいては開発データが存在しなかったため,学習データの $10 \%$ 開発データとして分割した. 各データセットにおいて開発データでハイパーパラメータチューニングを行った. 開発データで最も $\mathrm{F}$ 值が高くなったハイパーパラメータを用い,学習データに開発データを含めて再度学習したモデルによってテストデータの評価を行った。 CHEMPROT については乱数のシード値を変更した上で 5 回ずつモデルの学習・評価を行い,それらの $\mathrm{F}$ 值の平均を評価値として用いる. GAD, EU-ADR については 10 分割交差検証によって F 值を算出する。  ## 4.3 結果と考察 評価実験の結果を表 2 に示す. BioBERT は Lee et al. [2] の論文中の数値を用いた. 表 2 実験結果(F 値)。+common は PubMed 利用時,教師データに出現したエンティティ間に制限. 手法追加 PubMed データ量 ここでマルチタスク学習における主タスクと補助タスクの正例・負例の相関を表 3 に示す. 主タスクと補助タスクの相関についてカイ二乗検定を用いて有意水準 0.05 で検定したところ,CHEMPROT-2 では有意差が認められたが,GAD,EU-ADR では有意 表 3 主タスクと補助タスクの相関 差は認められなかった. このことから,主タスクと補助タスクの相関が示されている CHEMPROT-2においてはマルチタスク学習単体で,より大きく F 值が向上したと考えられる. また,PubMed 追加なしのシングルタスク (Single) とマルチタスク (Multi) の比較から, CHEMPROT-6, CHEMPROT-2,GAD では $\mathrm{F}$ 值が向上していることがわかる. PubMed 追加の効果については, Single 行の比較では,すべてのデータセットにおいてデータ追加なしの場合より高い F 值を示している. また,PubMed 利用時に,すべての文を使う場合 (Single, Multi) と教師データに出現するエンティティ間の関係に制限する場合 (common) の比較では,CHEMPROT では,制限を加えない場合に最高精度が得られ,GAD, EU-ADR では制限が有効であった. データを追加することで $\mathrm{F}$ 值は基本的に上がっているものの,一定量追加したあとは $\mathrm{F}$ 值が下がる傾向にある。これは学習データを追加する際に関係抽出によってラベルを付与したときのスコアが高いものから順に追加していることに起因すると考えられる. マルチタスク学習と PubMed の追加を組み合わせた場合については,CHEMPROT-6, CHEMPROT-2 では最も高い $\mathrm{F}$ 值を達成しているが,GADではシングルタスクでの PubMed 追加手法が,EU-ADR では最短経路手法がそれぞれ最高精度を達成している. PubMed に付与した主タスクと補助タスクのラベルについては,追加データ $100 \%$ で使用した追加 PubMed データのラベルの相関を表 4 に示す. 主タスクと補助タスクの相関についてカイ二乗検定を用いて有意水準 0.05 で検定したところ,表 4 PubMed における主タスクと補助タスクの相関 CHEMPROT-2,GAD,EU-ADR のいずれのデータセットにおいても有意差が認められた.このことから,PubMed の学習では両タスクに共通する特徴を学習し,ベースラインよりも高い $\mathrm{F}$ 值を達成しているのだと考えられる。 EU-ADR では提案手法がいずれも最短経路手法より $\mathrm{F}$ 値が下回っているが,最短経路手法は関係抽出ラベルを付与する際に構文解析の分だけ実行時間がかかることになる。そこで,最短経路手法とその他の手法について,学習データに関係ラベルを付与する際に要する実行時間を計測した ${ }^{3}$ .構文解析を用いないべースラインや提案手法では CHEMPROT, GAD,EU-ADR の順に 74,31,15 秒だったのに対し, 最短経路手法では $1,692,451$, 52 秒だった. これらの結果から,提案手法により,構文情報を学習しつつ,大規模なラベルなしテキストを用いた学習が行えることがわかる.最短経路を利用しない同じ計算量となるモデル間での比較では,EU-ADR においてはマルチタスク学習と PubMed の追加を組み合わせた提案手法が最も $\mathrm{F}$ 值が高くなっている. ## 5 おわりに 本研究では Open IE によるラベル拡張とラベルなし大規模コーパスの利用によって関係抽出タスクの精度の向上を試みた. 実験結果から,マルチタスク学習とデータ拡張を同時に行うことで,F 值の向上を確認した. 今後の課題として化学ドメインでの文字情報の追加利用や,化学ドメイン以外への本手法の適用などが挙げられる。 3)計測には Intel Xeon E5-2680 v4 2.4GHz CPU と NVIDIA TESLA P100 for NVlink-Optimized Servers を用いた. ## 参考文献 [1] Martin Krallinger, Obdulia Rabal, Saber A Akhondi, et al. Overview of the Biocreative VI chemical-protein interaction Track. In Proceedings of the sixth BioCreative challenge evaluation workshop, Vol. 1, pp. 141-146, 2017. [2] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, and Jaewoo Kang. BioBERT: Pre-trained Biomedical Language Representation Model for Biomedical Text Mining. arXiv preprint arXiv:1901.08746, 2019. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. arXiv preprint arXiv:1810.04805, 2018. [4] Yan Xu, Lili Mou, Ge Li, Yunchuan Chen, Hao Peng, and Zhi Jin. Classifying relations via long short term memory networks along shortest dependency paths. In $E M N L P^{\prime} 15$, pp. 1785-1794, 2015. [5] Makoto Miwa and Mohit Bansal. End-to-End Relation Extraction using LSTMs on Sequences and Tree Structures. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, ACL 2016, August 7-12, 2016, Berlin, Germany, Volume 1: Long Papers, 2016. [6] Michele Banko, Michael J Cafarella, Stephen Soderland, Matthew Broadhead, and Oren Etzioni. Open Information Extraction from the Web. In Ijcai, Vol. 7, pp. 2670-2676, 2007. [7] 新城大希, 西川仁, 徳永健伸, 牧野拓哉, 岩倉友哉. 自動生成した学習データを用いたマルチタスク学習によるタンパク質と化学物質間の関係抽出. 言語処理学会第 26 回年次大会, pp. 1555-1558, 2020. [8] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pp. 3615-3620, Hong Kong, China, November 2019. Association for Computational Linguistics. [9] Christopher Manning, Mihai Surdeanu, John Bauer, Jenny Finkel, Steven Bethard, and David McClosky. The Stanford CoreNLP: Natural Language Processing Toolkit. In Proceedings of 52nd annual meeting of the association for computational linguistics: system demonstrations, $\mathrm{pp}$. $55-60,2014$. [10] Àlex Bravo, Janet Piñero, Núria Queralt-Rosinach, Michael Rautschka, and Laura I Furlong. Extraction of Relations between Genes and Diseases from Text and Large-scale Data Analysis: Implications for Translational Research. BMC Bioinformatics, 012015. [11] Erik M. van Mulligen, Annie Fourrier-Réglat, David Gurwitz, Mariam Molokhia, Ainhoa Nieto, Gianluca Trifiró, Jan Kors, and Laura I Furlong. The EU-ADR Corpus: Annotated Drugs, Diseases, Targets, and their Relationships. Journal of biomedical informatics, Vol. 45, pp. 879-84, 042012.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C6-1.pdf
# 日本語の難易度に関する特徴分析 前川 絵吏村尾 元 神戸大学 国際文化学研究科 \{eri.maekawa, hajime.murao\}@ mulabo.org ## 1 はじめに 近年,日本で生活する外国人が増加し,やさしい日本語が注目されている. やさしい日本語を自動生成するため機械翻訳の技術を利用した研究が活発である。機械翻訳では翻訳精度を BLEU [1]や SARI [2] で比較することが多い. BLUE や SARI は入力文,参照文との比較でスコアを計算するが,直接的にテキストの難易度を測定しない。そこで,本研究ではテキストの難易度を測るべく日本語の特徴量を分析し,分類モデルを構築した.将来的には,テキスト平易化の評価指標とすることを検討している. キーワード : やさしい日本語, ランダムフォレスト, Permutation Impmortance ## 2 先行研究 劉ら [3]は語彙レベルと構文の複雑さからテキストの難易度を判定する手法を提案した。語彙レベルを表す尺度には,読解学習支援システムである「リ一ディング・チュウ太・語彙チェッカー」 [4] 使用している. リーディング・チュウ太・語彙チェッカ一は旧日本語能力試験の出題基準に基づいて語彙レベルを判定する Web システムである. 構文の複雑さを表す尺度には係り受け距離を採用し,これが長い文は難易度が高いとしている。実験では,日本語能力試験の問題集をコーパスとして利用し,重回帰分析によって難易度算定公式を提案している。 張ら [5]は日本人が定義する難易度ではなく, 外国人の感覚に合った日本語の難易度を自動推定する手法を提案した。テキストの特徴量を抽出し, 外国人が付与した難易度スコアを利用して, 特徴量が有効かどうかを調查した. 特徴量として, 単語数, 品詞の数, 品詞の割合, 分節数, 係り受けの距離, 係り受けの回数を抽出した.難易度自動推定では,線形回帰モデルにより難易度スコアを算出する式パラメータを推定している。これにより,任意の文から難易度スコアを推定することを可能にした。 本研究では,外国人にとっての難易度に着目して いる点では先行研究と同様であり特徴量の参考にした.しかし, 現行の日本語能力試験では出題基準を公開していないため, 本研究では語彙レベル等を特徴量とはしていない。それに相当する特徴量として出現頻度を設定した。 ## 3 難易度推定のための特徴量の抽出 ## 3.1 特徴量の求め方 テキスト 1 文から特徴量を抽出し, 普通の日本語とやさしい日本語の文で比較する。特徴量として以下の值を用いる。 単語数テキストに含まれる形態素の数. 漢字率テキストに含まれる漢字の個数を文字数で割った値. 外来語率全ての文字がカタカナである形態素の数.これを単語で割った値. 受身率接尾語の「れる」もしくは「られる」の形態素の数. これを単語数で割った値. サ変接続名詞率品詞が「サ変接続名詞」である形態素の数. これを単語数で割った値. 副詞率品詞が副詞である形態素の数. これを単語数で割った値. 読点率読点の個数. これを単語数で割った值. 否定率品詞が助動詞の「ない」「ぬ」「ん」の数. これを単語数で割った值。 出現頻度最大値品詞が「名詞」「動詞」「形容動詞」「形容詞」である形態素の数のうちの最大値. 出現頻度平均値品詞が「名詞」「動詞」「形容動詞」「形容詞」である形態素の数のうちの平均値. 係り受け平均距離文節単位での修飾文節と被修飾文節間の分節数を係り受け距離としたとき,1 文内で修飾-被修飾関係にある全ての文節間の係り受け距離の平均值. 係り受け最大距離 1 文内で修飾-被修飾関係にある全ての文節間の係り受け距離の最大値. 表 1 特徵量の統計量 & 38.471 & 285.000 & 3.000 & 17.096 \\ 係り受け被修飾数 1 文内における全ての文節についての被修飾数の最大值. ## 3.2 実験データ ## 3.2.1 データの取得 実験では,通常の文として NHK NEWS WEB と, やさしい日本語の文として NEWS WEB EASYiiの記事からテキストを抽出した。 2020 年 7 月 9 日から 2020 年 12 月 8 日までに投稿された 329 件の記事を Web スクレイピングで収集した. 収集するテキストは Web ページのニュース本文のみである. タイトル,記事の投稿日時,注目ワード,別の記事へのリンクテキストやバナーの文字などは含まない. 得られたテキストから, NEWS WEB EASY 2,600 文, NHK NEWS WEB 2,600 文をランダムに選び,合計 5,200 文を教師データとした。このうち学習デー 夕は 5,000 文で, NEWS WEB EASY の文が 2,501, NHK NEWS WEB の文が 2,499 , 検証データは 200 文で, NEWS WEB EASY の文が 109 , NHK NEWS WEB の文が 91 とした。 ## 3.2.2 特徵量の計算 NEWS WEB EASY のテキストから HTML タグとルビを取り除き, 特徴量を計算した. 求めた特徴量ベクトルにその文が通常文かやさしい日本語かを示すラベルを付与し,ラベルを推定するようモデルを学習した。 特徴量の基本統計量を表 1 に示す. なお, 特徴量の標準化はしていない。特徴量のうち, 最小値・最  大値・平均値など基本統計量に差が見られるものは,「単語数」「漢字率」「サ変接続名詞」「副詞率」「係り受け最大距離」「出現頻度最大值」が該当する. 反対に,「外来語率」や「否定率」はほとんど差がないということがわかる. ## 4 特徴量に基づく分析 ## 4.1 分析手法 ## 4.1.1 ランダムフォレスト ランダムフォレストは機械学習の手法のひとつで,分類や回帰問題に適用できる. ランダムフォレストは複数の決定木で学習する。 その手順は次の通りである。まず,全ての学習データからそれぞれの決定木を学習するためのデータをランダムに選択する。 これを用いてそれぞれの決定木を学習する.学習後のランダムフォレストを分類に利用する場合はそれぞれの決定木の出力からもっとも多い出力をランダムフォレストの出力とする. 決定木のアルゴリズムは特徴量と閾値を調整して決める。例えば「単語数は 20 より大きいかどうか」 という条件で分岐した結果が,ラベル 0 と 1 のグル ープにクラス分けできていれば精度がよいと言える。今回の実験のように 2 値に分類する場合,条件によって分割したデータ群にラベルが混ざり合っている状態は不純度が高く, 一方のラベルが集まっている状態を不純度が低いとする.親ノードより子ノードの不純度が低くなるよう学習していく。 ii https://www3.nhk.or.jp/news/easy/ ## 4.1.2 Permutation Importance Permutation Importance は特徴量の重要度を測る方法の一つで,それぞれの特徴量がどれくらいモデルの予測精度に貢献しているかを重要度とする. 重要な特徴量の場合, その特徴量をランダムに並べ替えて学習すると正解率が低くなる. 計算の手順を示す. 正解率を $s$ とする. 2.特徴量 $j$ ごとに以下を計算する. 2.1 特徴量 $j$ ¡ンダムに並べ替えて, データセット $D_{j}$ を生成する. 2.2 データセット $D_{j}$ を, 学習済モデルで分類したときの正解率を $\mathrm{s}_{j}$ とする. 3. 特徵量が $K$ 個あるとしたときの特徵量 $j$ の重要度 $P I_{j}$ を次の計算式で定義する. $ P I_{j}=s-s_{j}(1 \leq j \leq K) $ ## 4.2 分析結果 ## 4.2.1 ランダムフォレスト ランダムフォレストでの学習には Python のパッケージである scikit-learniiを使用した. パラメータは,決定木の数を 100 とし, それ以外は scikit-learn のデフォルトを使用した. 正解率は次の式で求める. $ \text { Accuracy }=\frac{\mathrm{TP}+\mathrm{TN}}{\mathrm{TP}+\mathrm{FP}+\mathrm{FN}+\mathrm{TN}} $ TP は真陽性, FP は偽陽性, FN は偽陰性, TN は真陰性とする.5,000 件のデータを学習させた結果,正解率(Accuracy)の平均は 0.825 , 分散は $6.44 \times 10^{-5}$ であった. ## 4.2.2 PermutationImportance による特徴量の 重要度 次に,どの特徴量がモデルの正解率に影響を与えているかを調べるために Permutation Importance を測定する. 全ての特徴量について計算した結果を図 1 に示す. 図 1 より, 「サ変接続名詞率」,「単語数」,「漢字率」, 「受身率」,「出現頻度最大値」の 5 つの特徴量で特に誤差が大きくなった。これ以外の特徴量は, ランダムにシャッフルして学習しても精度は 0.01 以下しか変わらないことから, 学習済モデルの推定精度に大きな影響を与えないと言える。つまり,先に挙げた 5 つの特徴量が重要であることが分かる. 図 1 Permutation Importance の結果 ## 5 分類モデルの実験 ## 5.1 実験の目的 本研究では, やさしい日本語と通常の日本語のテキストデータから特徴量を抽出し, それぞれの特徴量が文の難易度にどれくらい影響を与えているかを分析した. 分析では特徴量とラベルをランダムフォレストで学習し, 分類モデルを生成した. 分類モデルはテキストの難易度を評価するための判断として利用できることを期待している。 それを確認するため, モデルの学習に使用していないコーパスでモデルを実験する。 ## 5.2 実験に利用するコーパス 4.2.1 で生成したランダムフォレストの学習済モデルを,他の4つのコーパスから収集したテキストデータに適用し,ラベルを推定した。それぞれのコ ーパスの特徴と文例を示す. (a)こどもコーパス甲南大学知能情報学部の研究チームが集めたコーパス [6]である. 10 歳 11 歳のこどもが本を紹介するブログに書き込んだテキストを収集したものである。 (b) 青空文庫青空文庫で公開している作品である。宮沢賢治の「銀河鉄道の夜」を選んだ。 (c)ウェブ文書リードコーパス京都大学の研究室で公開しているコーパスの 1 つで, Web 文書の冒頭 3 文を収集したコーパスである.ニュース記事,ブ  ログ,商用ページなどさまざまな文書を含む. (d) Wikipedia コーパス共同作業で執筆されるインターネット上の事典である。日本語 Wikipedia のダンプデータからテキストを抽出した. Wikipedia の記法であるタグを取り除くため, Wikipedia Extractor を使用し,テキストのみを抽出した.全てのダンプデータを利用すると計算コストが膨大になるため, ファイルの先頭から 10 万行を抽出して使用した. ## 5.3 結果と考察 それぞれのコーパスから 500 文のテキストをランダムに選択した。テキストから特徴量を計算し, NHK NEWS WEB と NEWS WEB EASY で学習済のモデルで推定した結果を表 2 に示す. こどもコーパス, 青空文庫ではやさしい日本語と分類された文が $80 \%$ を超えていた.こどもコーパスは文が短いことや漢字が少ないことが分類に影響したと考えられる,青空文庫から選んだのは,宮沢賢治の「銀河鉄道の夜」だが,登場人物の会話で物語が展開するため, 口語で短い文が連続する部分がある. 特嘚量のうち, 単語数が少ないことが分類に影響したと考えられる。 ウェブ文書リードコーパスはやさしいと分類した文が比較的多かったが,500 文中 160 文は通常の日本語であると分類されている. 複数の文書形態を含むコーパスのため, 分析しにくいが, リード文は短く明確に伝えるために, 1 文に多くの情報を入れなければならない,そのため,ひらがなより漢字を使って文の長さを短縮したことが,分類結果に影響したと考えられる。 Wikipedia コーパスは, 通常の日本語と分類された文が最も多かった. 文中の単語にリンクを設定でき,単語を補足する必要ないため文の難易度が高くなっていると考えられる。 表 2 コーパスを分類した結果 & \\ ## 6 おわりに 本研究では, やさしい日本語ニュースである NEWS WEB EASY と,そのニュースに対応する NHK NEWS WEB からテキストを抽出して,やさしい日本語の特徴量を分析した. ランダムフォレストで分類器を生成したところ,80\%を超える正解率で学習できた. またランダムフォレストの木構造と Permutation Importance で特徴量の重要度を計り,「サ変接続名詞率」「単語数」「漢字率」「受身率」「出現頻度最大値」の 5 つが分類に影響を与えるということがわかった. ランダムフォレストで生成した分類器で他のコー パスを評価したところ,こどもコーパスと青空文庫はやさしい日本語が $80 \%$ 以上, ウェブ文書リードコ一パスは約 $70 \%$ 0 やさしい日本語であると分類した。 Wikipedia コーパスは逆に 60\%以上が通常の日本語であると分類した。得られた特徴量から難易度を判定できる可能性が示された. 謝辞本研究は JSPS 科研費 19K12247 の助成を受けて行われました。 ## 参考文献 [1] K. Papineni, "BLEU: a Method for Automatic Evaluation of Machine Translation," In Proc. of ACL, pp. 311-318, 2002. [2] W. Xu, "Optimizing Statistical Ma- chine Translation for Text Simplification.," TACL, Vol. 4, pp. 401-415, 2016. [3] 劉志宇ほか,“日本語を学習する外国人を対象とした日本語テキスト難易度推定手法,”研究報告自然言語処理(NL), Vol. 2012-NL-205, No. 11, pp. 1-5,, January 2012. [4] 北村達也, “日本語読解学習支援システム「リ ーディング・チュウ太」,” 甲南大学紀要.知能情報学編, Vol. 6,No. 2, pp. 243-253, November 2013. [5] 張萌ほか,“「やさしい日本語」作成支援のための日本語の難易度自動推定の検討.," 研究報告自然言語処理(NL), Vol. 2012-NL-206, No. 6, pp. 1-6, May 2012. [6] 永田亮ら,“作文履歴をトレース可能な子供コーパスの構築,” 自然言語処理, Vol. 17, No. 2, pp. 2_51-2_65, 2010.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C6-2.pdf
# 学術論文における関連研究の執筆支援のための 被引用論文の推定 小山康平 ${ }^{1}$ 南泰浩 ${ }^{1}$ 成松宏美 ${ }^{2}$ 堂坂浩二 ${ }^{3}$ 東中竜一郎 ${ }^{2}$ 田盛大悟 4 平博順 4 1 電気通信大学 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所 3 秋田県立大学 4 大阪工業大学 k1710245@edu.cc.uec.ac.jp, minami.yasuhiro@is.uec.ac.jp \{hiromi.narimatsu.eg, ryuichiro.higashinaka.tp\}@hco.ntt.co.jp dohsaka@akita-pu.ac.jp, elb17043@st.oit.ac.jp, hirotoshi.taira@oit.ac.jp ## 1 はじめに 様々な科学技術研究の発展に伴い,分野を超えた研究も多数行われるようになってきた. これに伴い,研究者が学術論文を執筆する際,比較すべき主要アプローチやベース手法を把握するために,関連する数多くの論文を調査することに大きな労力を払うことになっている.我々は,このような研究者の論文執筆を支援するために,論文中の関連研究の章における論文同士の引用関係に着目した。これは,関連研究の章には,その論文に対する,主要アプローチやベース手法の引用がされ,その分野に対する多くの基本情報が含まれているからである. 論文を執筆する際,自分の主張をより強固にするため,引用文献を参照することは重要である.しかし,膨大な論文の中から適切な引用文献を用意することは特に研究者の労力を必要とする.例えば,研究者が自身の専門分野外の事実に関する主張を書くとき,その主張の根拠となる論文を膨大な論文の中から検索しなければならない,加えて,検索した論文を間違った形で引用しないよう注意深く,その論文を読み込まなくてはならない。もし,引用対象として適切ではないと気づいたときには,再度検索からやり直さなくてはならない. このように考察すると,引用論文を精査する労力を軽減できれば,多くの研究者の支援ができると思われる,本稿では研究者を支援するため,関連研究の文章及びその引用関係の情報を用いて,どの論文を引用するべきかを割り当てるタスクを設定した (引用文献割り当てタスク)。論文に引用を付ける際,筆者が関連文献の候補を用意するだけで,引用文に適切な引用文献を割り当てることができれば,労力を軽減することができる. 今回の研究では,これを実現するデータセットとして 3.1 節に示すデー タセットを使用した。このデータセットには論文の引用関係や関連研究の情報が含まれており,サーべイ論文の自動生成タスクなど,複数のタスクで利用することも考慮されている [1]. このタスクの前段階として引用元論文と被引用論文のペアが適切であるかどうかの判定を行うタスクも同時に設定した (引用文・被引用文献ペア適正性判定タスク)。論文執筆者が根拠を示す引用文献を仮に付与した場合, その被引用文献が本当に対応するものであるかを確かめるためには,研究者はその論文を読み込まなくてはならない,その労力を軽減するためにこのタスクを考えた。この引用文・被引用文献ペア適正性判定を最初に行い,その結果を用いて,引用文献割り当てタスクを実現する。 ## 2 関連研究 Michael らは対象の文章に引用を付けるべきかを推定するモデルの検討をしている [2]. しかし,実際に論文を執筆する研究者を支援するためには,それだけでは不十分である。なぜなら,引用が必要な文であることが分かるだけでは,研究者が引用文献を調べる労力自体は十分に軽減されないからである.今回の実験では対象の文章に,被引用文献のアブストラクトを用いて,適切な引用文献を割り当て る.これにより,労力の削減を図ることができる。 飯沼らは,最新の研究情報が反映されていないサーベイ論文に,追加するべき新たな引用文献の推定方法を提案している [3]. 彼らの研究は, 引用文献を推定する点では我々の研究と類似している。 しかし,古いサーベイ論文で引用している文献を入力としているために,一から論文を作成する場合の支援には適していない. また,使用しているデータセットの種類が 4 種類の書籍のみであるため,書籍の筆者の記述の傾向を推定に含んでいる可能性がある. 我々の研究では,様々な筆者の論文データを使用するとともに,一から論文を作成する研究者に向けたタスクを検討する。 ## 3 タスクの設定 ## 3.1 データ作成 図 1 データ作成の概略 実験に使用するデータセットは,研究者支援の様々なタスクを共通のデータセットで実施できることを目標に作成した. 引用元論文のデータとして Axcell[4] のデータを使用した. AxCell は ArXiv から約 10 万件の論文データを取得した. このデータには,論文の Pdf データ,図表データ,Tex ソース, bib, bblソースが含まれている. このうち, Texソー スと bib,bblソースを活用することで論文同士の引用関係を抽出する. 今回は関連研究の章に着目しているため, Tex ソースから関連研究の章を抽出した.抽出できたデータ数は約 3 万件である. この 3 万件の関連研究の章から,lcite \{\}$を$ 含む文章を取り出し, bib,bblファイルからタイトルを抽出した. この際,bibファイルがない論文が多く存在していたので,主にbblファイルに正規表現をかけることに よってタイトルを抽出した. 抽出し終えたタイトルは, arXiv の APIを用いて検索をかけ PDF,Abstract のデータを取り出した. 今回はこの工程を通して, ( Icite\{\}を含む文章,引用論文の Abstract)のデータを 2 万件作成した。 ## 3.2 引用文・被引用文献ペア適正性判定タ スク 引用元論文と被引用論文のペアが適切であるかどうかの判定をするタスクを行う.入力には引用元論文の引用部分の文章と被引用論文のアブストラクトを使用する.入力の負例として、被引用論文として不適切なアブストラクトを用いたデータを用意する. 負例は被引用論文のアブストラクトを同じ論文の関連研究の章で引用されている別の論文のアブストラクトに置き換えて作成した. 実際に筆者が関連文献の候補を用意する際,引用元論文と被引用論文のペアは意味合いが近くなっていることが予想される.このタスクの被引用論文を完全にランダムにしてしまうと,意味合いが全く異なるぺアのみを負例として学習してしまい,わずかに意味合いが違う負例ペアを区別できない可能性がある。一方,同じ論文で引用されている引用元論文と被引用論文候補のペアは内容が大きく離れていることは少ない,細かい意味合いの違いを抽出するためにも, 被引用論文の候補として, 同じ論文で引用されている引用論文を使用する。これらの正例・負例データを用いて学習を行い,正例である確率を出力とするモデルの作成をする。 <引用元論文の引用部分の文章> <SEP><被引用論文のアブストラクト> 図 2 実験の概略 ## 3.3 引用文献割り当てタスク 論文に引用を付ける際,筆者が関連文献の候補を用意するだけで,引用文に適切な引用を割り当てることができるよう,関連文献の候補の中から正しい被引用論文を推定するタスクに取り組んだ。引用元論文と被引用論文の候補を用意し,被引用論文それぞれに 3.2 節と同様の操作をする. この時,最も適 切である確率の高かった論文候補を適切な被引用論文とする。また,引用文・被引用文献ぺア適正性判定タスクで作成したモデルが,細かい意味合いの違いを抽出できるか確認するために, 被引用論文の候補は同じ引用元論文の関連研究の章で引用されている被引用論文を使用した。 図 3 実験の概略 ## 4 実験 ## 4.1 引用文・被引用文献ペア適正性判定タ スク ## 4.1.1 比較手法 実験に使用したモデルは Random, Word2Vec, BERT, XLNet $の 4$ 種類である. Random 5 割の確率で正例と判定し,5 割の確率で負例と判定するモデル.この手法を実験のベースライン手法とする. Word2Vec ベクトル化した文章同士の類似度を計算することで判定をするモデル.類似度が間値よりも高ければ正例と判定し, 閾値よりも低ければ負例と判定する。間値は $\operatorname{dev}$ データを用いて設定する.入力は, ベース論文の引用部分の文章と被引用論文のアブストラクトである. BERT, XLNet huggingface の事前学習モデルをファインチューニングしてモデルを作成した. 入力は,(< ベース論文の引用部分の文章> <SEP> <被引用論文の Abstract>) とした. 出力は, 被引用論文が適切である確率とした. 学習率は 1e-4, epoch 数は 75 とした. 今回の実験では,モデルが出力した確率が 0.5 以上の時は正例と推定し, 0.5 未満と推定した時は負例と推定した。 ## 4.1.2 共通設定 データセットとして, 3.1 節で作成したものを正例として使用した.このデータセットを基に (Icite \{\}表 1 引用文・被引用文献ぺア適正性判定タスク を含む文章,同じ論文内の別の個所で言及された引用論文のアブストラクト) の形の負例データを正例と同数作成した. 合計データ数は (train/dev/test), $(36,000 / 3,000 / 3,000)$ となった. また,評価指標として Accuracy, Precision, Recall, F-measure を計算した. ## 4.1.3 結果 ## 4.2 評価 表 1 で示す通り,引用文・被引用文献ペア適正性判定タスクでは,BERT,XLNet は全ての評価指標でベースラインを大きく上回る結果を出すことができた。これにより,引用文献割り当てタスクでは正しい被引用論文を推定できることが期待できる。一方で,Word2Vecは Recall こそ BERT,XLNetに迫る結果になったものの, Accuracy, Precision はべースラインとなる Randomをわずかに上回るだけの結果となった. ## 4.3 引用文献割り当てタスク ## 4.3.1 比較手法 実験に使用したモデルは,Random,Word2Vec[5], BERT[6], XLNet[7]の 4 種類である. Random 被引用論文候補の中からランダムに選ばれた論文を推定された被引用論文とする。この手法を実験のベースライン手法とする. Word2Vec 4.1 節と同様の処理を全ての被引用論文候補に行う.その結果,類似度が閾値を超えたデータのうち,最も類似度が高い論文を被引用論文と推定する。 BERT, XLNet 4.1 節と同様の処理を全ての被引用論文候補に行う. その結果,適正である確率が 0.5 を超えた被引用論文候補のうち,最も適正である確率が高い論文を被引用論文と推定する。 表 2 引用文献割り当てタスクの結果 ## 4.3.2 共通設定 BERT,XLNet モデルは 4.1 で学習させたモデルを用いた。 被引用の候補となる論文の Abstract に対して,4.1 と同様の計算を行い,最も確率の高い被引用候補となる論文を推定された被引用論文とした. 被引用の論文候補は,引用元論文のほかの個所で引用されている論文のうち,取得できたデータ全てとした. データセットには 4.1 で使用した Test データのうち実験に適した 600 件を使用した. 評価指標として Accuracy を計算した. ## 4.3.3 結果 & We show that even when face images are unconstrained and ... \\ 図 4 XLNet の引用文・被引用文献ペア適正性判定タスク正解例 \\ 図 5 XLNet の引用文・被引用文献ペア適正性判定タスク不正解例 ## 4.4 評価 表 2 で示す通り,引用文・被引用文献ペア適正性判定タスクと同様に,引用文割り当てタスクでも, BERT, XLNet は Random, Word2Vec を大きく上回り,高精度となった. BERT, XLNet はどちらも 7 割を超える正解率を出すことができ,このデータセットを用いた被引用論文の推定は十分に可能であるといえる。 実際に引用文の適性判定が行われた結果を確認してみる。表 (4) は XLNet が正しく被引用論文を識別できた結果である. 引用元論文の文章では,画像中の顔を入れ替える技術について述べられていて,被引用論文のアブストラクトでも画像中の顔に関する言及がされている.どちらも同じ内容であるため,正しく推定できていることが分かる。方,表 (5) は XLNet が正しく被引用論文を識別できなかった結果である. 引用元論文の文章と被引用論文のアブストラクトのどちらの文章でも “voting games"について言及されているため,意味合いの近い文章を識別することはできているようである. ## 5 おわりに 本研究では,研究者支援の様々なタスクにも使用できることを目的にデータセットを作成し,引用文対引用文献適正判定タスクと引用文献割り当てタスクという二つのタスクを設定し,各種の手法による評価を行った. どちらのタスクでも,BERT, XLNet モデルは高い精度を出すことができた. 一方で Word2Vec の精度は,高くなかった. すべての手法での誤認識には,引用部分の文章が被引用論文のアブストラクトに比べるとかなり短いことが影響していると思われる. この改善点として,入力の文章に引用部分の文章だけではなく,範囲をさらに広げて引用部分のパラグラフを使用することがあげられる. 今後は,入力やモデルを改善による精度の向上と,共通データセットを用いた更なる論文執筆者支援タスクに取り組みたい。 ## 参考文献 [1] 成松宏美, 小山康平, 堂坂浩二, 田盛大悟, 東中竜一郎,南泰浩, 平博順. 学術論文における関連研究の執筆支援のためのタスク設計およびデータ構築. 言語処理学会第 26 回年次大会, 2021. [2] Michael Färber, Alexander Thiemann, and Adam Jatowt. To cite, or not to cite? detecting citation contexts in text. In Gabriella Pasi, Benjamin Piwowarski, Leif Azzopardi, and Allan Hanbury, editors, Advances in Information Retrieval, pp. 598-603, Cham, 2018. Springer International Publishing. [3] 飯沼俊平, 難波英嗣, 竹澤寿幸, 広島市立大学大学院情報科学研究科. サーベイ論文作成支援のための引用論文推薦, 2015. [4] Marcin Kardas, Piotr Czapla, Pontus Stenetorp, Sebastian Ruder, Sebastian Riedel, Ross Taylor, and Robert Stojnic. Axcell: Automatic extraction of results from machine learning papers, 2020. [5] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781, 2013. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018 [7] Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Russ R Salakhutdinov, and Quoc V Le. Xlnet: Generalized autoregressive pretraining for language understanding. In Advances in neural information processing systems, pp. 5753-5763, 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C6-3.pdf
# L2-constrained Focal Lossを導入した BERT による文書の著者推定 落合晃汰青野雅樹 豊橋技術科学大学知能・情報工学課程 ochiai@kde.cs.tut.ac.jp, aono@cs.tut.ac.jp ## 1 はじめに 近年,SNS やネットニュースなどのネットワークサービスの発達により, 情報をインターネットから簡単に入手することができる.しかし,このようなインターネット上の情報には著者の情報が含まれていないことが多い. 著者の情報は情報の信憑性を判断する際に重要であるため, 文章の著者推定問題は重要なタスクである. 匿名で記述された文章の著者推定, 盗作や転載の検出, 類似性の高い文章の推薦など, 幅広く応用できる. 本研究では, 50 人の著者によって書かれた企業や業界に関するニュースからなる C50 データセットと 53 人の著者によって書かれたツイートからなる PAN 2016 Author Profiling Task の Twitter データセットを用いて,L2-constrained Focal Loss を導入した BERTを用いた文章の著者推定手法を提案する。 ## 2 関連研究 ## 2.1 BERT BERT(Bidirectional Encoder Representationsfrom Transformers) [1] は 2018 年に Google が発表した言語処理モデルである. 複数の双方向 Transformer に基づくエンコーダーであり, 単語列を入力として各単語に対応する分散表現を出力する. また,BERT は大規模コーパスを用いて教師なしの事前学習を行うことで性能を向上させている. 事前学習には MaskedLM (Masked Language Model) と次文予測 (Next Sentence Prediction)の2つのタスクを用いてモデルの学習を行っている.これら 2 つのタスクによって事前学習されたモデルに転移学習やファインチューニングを施すことで高い精度を実現している。 ## 2.2 $\quad L_{2$-constrained Softmax Loss} $L_{2}$-constrained Softmax Loss[2] は2017 年に顔識別の DCNN(Deep Convolutional Neural Network) の精度向上のために提案された損失関数である. $L_{2}$-constrained Softmax Loss では Softmax Loss にネットワーク出力の L2ノルムがある定数 aになるように制約を加える.これによって同一クラスのコサイン類似度が大きく, 違うクラスのコサイン類似度が小さくなるように学習されるという特徴がある. L2-constrained Softmax Loss の式は以下のようになる. $ \begin{aligned} & \operatorname{minimize}-\frac{1}{M} \sum_{i=1}^{M} \log \frac{e^{W_{y_{i}}^{T} f\left(x_{i}\right)+b_{y_{i}}}}{\sum_{j=1}^{C} e^{W_{j}^{T} f\left(x_{i}\right)+b_{j}}} \\ & \text { subject to }\left.\|f\left(x_{i}\right)\right.\|_{2}=\alpha, \forall i=1,2, \ldots M \end{aligned} $ ## 2.3 Focal Loss Focal Loss[3] 2017 年に FAIR(Facebook AI Research) が発表した物体検出モデルである RetinaNet に使われている損失関数である. Focal Loss は物体検出において背景と背景以外のクラス間の不均衡の問題を解決するために提案された. このクラス間の不均衡によって, 学習の殆どが簡単な背景判定に支配されてしまう.この問題を解決するため Focal Loss では簡単に分類が成功している事例の損失を小さくしている.これにより,より難しく注目すべき事例が学習に強く寄与するようになる. Focal Loss の式は以下のようになる。 $ F L\left(p_{t}\right)=-\left(1-p_{t}\right)^{\gamma} \log \left(p_{t}\right) $ このとき $\gamma$ はどのくらい簡単に分類が成功している事例の損失を減衰するかを決定するパラメータで, これによって簡単に分類が成功している事例の損失への寄与が小さくなる.これによって, より難しく注目すべき事例が学習に強く寄与できるようになる。 図 1 BERT ベースラインモデル ## 3 ベースラインモデルと提案手法 以下では提案する手法及びベースラインモデルについて説明する。 ## 3.1 LSTM ベースラインモデル LSTM ベースラインモデルは fastText[4] を Embedding layer として用いた LSTM モデルである.fastText の分散表現は UMBC Webbase コーパス, および statmt.org ニュースデータセットでトレーニングされた 100 万語のベクトルとなっている. モデルは 1 層の単方向 LSTM であり,隠れ層の次元は 768 次元で分散表現の次元数は 300 次元とした. ## 3.2 BERT ベースラインモデル 本研究で使用する BERT は Transformer が 12 層でトークンの次元数は 768 となっているモデルで,Wikipediaコーパスと BooksCorpus で事前学習されたものを使用している [5]. BERT ベースラインモデルはこの学習済み BERT をファインチューニングしたモデルである. 図 1 にモデルの概要を示す. 3.3 L2-constrained Softmax Loss を導入した BERT モデル BERT ベースラインモデルに変更を加えたモデルとして L2-constrained Softmax Loss を導入したモデルを構築する. 出力の L2ノルムが定数 a になるように制約を加えて,Softmax Lossを用いることで実現する。 図 2 L2-constrained Focal Loss を用いた BERT モデル ## 3.4 Focal Loss 導入した BERT モデル Focal Loss を導入した BERT モデルでは BERT ベースラインモデルで使用している Softmax Loss を Focal Loss に変更することで実現する. ## 3.5 L2-constrained Focal Loss を導入した BERT モデル さらに変更を加えたモデルとして,L2-constrained レイヤーと Focal Loss を導入したモデルを構築する.3.3 節の L2-constrained Softmax Loss を用いた BERT モデルで使用している Softmax Loss を Focal Loss に変更することで実現する. 図 2 にモデルの概要を示す. ## 4 実験 提案した BERT モデルを使用して文書の著者を推定する. ## 4.1 データセット 本研究では,C50 dataset[6] と Twitter データセット [7] の2つのデータセットを使用する. 表 1 各モデルの実験結果 & - & 64.49 & - & - \\ ## 4.1.1C50 データセット C50 データセットはRCV1(Reuters Corpus Volume 1) の一部からなるロイターニュースの記事のデー タセットである. 企業及び産業について書かれた英語のニュース記事のデータセットであり,50人の著者によって書かれた記事がまとめられている. 訓練データは著者あたり 50 本の合計 2500 本の記事で構成され, テストデータには訓練データと重複しない著者あたり 50 本の 2500 本が使用されている. C50 データセットの最大トークン数は BERT の tokenizer で分割した際 1874 語である.BERT で読み込める最大トークン数は 512 語であるため, そのまま読み込むことができない. そのため本実験では先頭の 512 語のみを使用する。 ## 4.1.2 Twitter データセット Twitter データセットは PAN 2016 Author Profiling Task データセットのツイートからなる. PAN 2016 Author Profiling Task データセットから,53 人のユー ザーを収集し, ユーザーあたり 900 ツイートを使用する. 訓練データは著者あたり 800 のツイートの合計 42400 のツイートで構成され, テストデータには訓練データと重複しないユーザーあたり 100 のツイートの 5300 のツイートが使用されている. ## 4.2 評価指標 データ数は各クラス間で同じであるため, 評価指標には Accuracy のみを用いる. ## 4.3 モデルパラメータ 最適化には AdamW を用い, ミニバッチサイズは 8, ドロップアウト率は 0.1 とした. 20 エポック学習を行った際のモデルの性能を評価する。 ## 4.3.1 パラメータ調整 L2-constrained Softmax Loss を導入した BERT モデル,Focal Loss を導入した BERT モデル, L2-constrained Focal Loss を導入した BERT モデルについてはそれぞれパラメータ調整を行った. L2-constrained レイヤーのパラメータ $\alpha$ は 8 から 32 までを 4 刻みで変更して実験を行い,Focal Loss のパラメータ $\gamma$ は 1 から 5 までを 1 刻みで変更して実験を行った。 ## 4.4 実験結果 節 3 で示した 5 つの手法について実験を行った. なお L2-constrained Softmax Loss と Focal Loss のパラメータの値は節 4.3.1 で示した方法で実験し, 各手法で最高性能を示した値を使用する. SVM(support vector machine) を使用した著者推定の先行研究 [8] の結果と本実験の結果をまとめたものを表 1 に示す. LSTM ベースラインモデルでは SVM を用いた先行研究の精度を上回ることはできなかった. しかし,BERT ベースラインモデルは両方のデータセットで先行研究を上回った. また, 両方のデータセットにて L2-constrained Softmax Loss を導入した BERT モデルと Focal Loss を導入した BERT モデルは BERT ベースラインモデルよりも分類精度は向上した. さらに,L2-constrained Focal Loss を導入した BERT モデ 図 3 Twitter データセットでの BERT モデルの分散表現 ルはより高い精度となった. 図 3, 図 4 に Twitter データセットでの BERT ベースモデルの出力 ([CLS] トークンの 768 次元の分散表現) と L2-constrained Focal Loss を導入した BERT モデルの出力をそれぞれ t-SNE により次元圧縮したものを示す. ## 4.5 考察 表 1 より,L2-constrained Softmax Loss を導入した BERT モデルと Focal Loss を導入した BERT モデルそれぞれについて BERT ベースラインモデルと比較して精度が向上することが確認できた。また,L2-constrained Softmax Loss を導入した BERT モデルと Focal Loss を導入した BERT モデルそれぞれの精度は C50 データセットについては $69.60 \%$ で同じであり,Twitter データセットについては $0.18 \%$ の差のみであった. そのため, 最高精度を記録した L2-constrained Focal Loss を BERT に導入したモデルでもバランス良く作用して精度の向上につながっていると考えられる。また, 図 3 , 図 4 より L2-constrained Focal Loss を BERT に導入することで分散表現についても BERT ベースラインモデルと比較して各ラベルがよりまとまったクラスタを形成していることが確認でき,これにより分類の精度が向上していると考えられる。 ## 5 おわりに 本研究では,L2-constrained Softmax と Focal Loss を導入した BERT を用いた文書の著者推定モデルを提案した. 実験では, ベースラインと比較し精度が向上した.さらに,BERT の分散表現についても各ラベル 図 4 L2-constrained Focal Loss を導入した BERT モデルの分散表現 がよりまとまったクラスタを形成するようになっていることが確認できた. 今後の課題としては BERT の複数の層の出力の平均や和を利用したモデルや BERT から発展した Transformer ベースのモデルについても L2-constrained Focal Loss を利用することができないかについての検討も行っていきたいと考えている. ## 謝辞 本研究の一部は, 科研費基盤(B)(課題番号 17H01746)の支援を受けて遂行した. ## 参考文献 [1]Jacob Devlin, Ming-Wei Chang, Keton Lee, and Kristina Toutanova. 2018. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. arXiv preprint arXiv:1810.04805 [2]Rajeev Ranjan, Carlos D. Castillo, and Rama Chellappa. 2017. L2-constrained Softmax Loss for Discriminative Face Verification. arXiv preprint arXiv:1703.09507. [3]Tsung-Yi Lin, Priya Goyal, Ross Girshick, Kaiming He, and Piotr Dollár. 2018. Focal Loss for Dense Object Detection. arXiv preprint arXiv:1708.02002 [4]English word vectors - fastText. https://fasttext.cc/ docs/en/english-vectors. html. Accessed: 2021-01-05. [5]bert-base-uncased $\cdot$ Hugging Face. https://huggingface . co/bert-base-uncased. Accessed: 2021-01-05. [6]C50 dataset. https://archive.ics.uci.edu/ml/ datasets/Reuter_50_50. Accessed: 2021-01-05. [7]Pan 2016 author profiling task. http://pan.webis.de/ clef16/pan16-web/author-profiling.html. Accessed: 2021-01-05. [8]Shofi Nur Fathiya. Author Identication Focusing on Semantic and Syntactic Features Extracted from Long and Short Texts. Toyohashi University of Technology, 2017.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C6-4.pdf
# 学術論文における関連研究の執筆支援のための タスク設計およびデータ構築 ${ }^{1} \mathrm{NTT}$ コミュニケーション科学基礎研究所 2 電気通信大学 3 秋田県立大学 4 大阪工業大学 \{hiromi.narimatsu.eg, ryuichiro.higashinaka.tp\}@hco.ntt.co.jp k1710245@edu.cc.uec.ac.jp, dohsaka@akita-pu.ac.jp, e1b17043@st.oit.ac.jp minami.yasuhiro@is.uec.ac.jp, hirotoshi.taira@oit.ac.jp ## 1 はじめに 学術論文を執筆する際,関連する文献の調査および適切な引用は重要である. 新しいテーマの研究を始めるときや研究課題に対する新しいアプローチについて考えるとき,過去の研究に立脚し,また,論文を執筆する際には,記述内容の根拠について,参考文献を正しく示すことが求められる。これらは重要な研究活動の一環ではあるものの, 分野の広がりや対象とすべき論文の増加から,その調査および執筆を支援することを目的とした研究が行われてきた $[1,2]$. 従来は研究者による文献調査の量を減らすという観点で, 関連研究の要約を目的とした研究が多かったが $[1,3]$, 近年では大規模な文献データが手に入るようになってきたことから,学術論文の執筆を直接的に支援する引用文献推薦や関連研究の章に書かれる引用文生成の手法が研究されてきた。たとえば,生命科学や生物医学分野の論文の検索エンジンである PubMed ${ }^{1}$ から取得した文献を主に用い, キーワードだけでなく内容も踏まえて引用すべき文献を推定する手法を提案するものや [4], 関連研究を自動生成する手法 [5], 執筆・査読の効率化を目的として,対象となる文に引用が必要かを判定する手法 [6] が提案されている. これらの研究は,いずれも論文執筆の効率化という同じ目標を目指しているものの,それぞれ独立して研究が行われてきた。近年では, 論文データベー スの API の公開によって,論文が容易に手に入るよ 1) https://pubmed.ncbi.nlm.nih.gov/ うになり,こうした研究論文を扱うタスクが共有タスクになりつつある $[7,8,9]$ が,いずれも異なるタスクを目的としており,統合的な性能評価ができる状態にはない。一方で,論文執筆支援の実用化という観点から考えると, 引用すべき文献の推薦, 引用すべき文の判定,関連研究の自動生成は連続した研究活動であり, 同じデータを対象とした統合的な性能評価ができることが望ましいと考えられる. そこで,我々は,関連研究の統合的な執筆支援を目的として,必要なタスクおよび同じデータを元にタスクデータを構築する手法を提案する.統合的な執筆支援を目的とすることで,これまでに取り組まれてこなかったタスクに気づくことができる可能性がある。また,一つのデータを元にタスクデータの構築ができれば,タスク間での同一モデルの適用が検討でき,各タスクの精度の直接比較が可能となるため, タスクの違いや難しさも評価可能になると考えられる。本稿では, 関連研究に着目した論文執筆に関わる目標とそれに必要なタスクを定義し,タスクデータの構築方法について述べる。 ## 2 関連研究 論文において関連研究の章は, 自らの研究の位置付けを明確化するために重要である。しかし, 文献の検索ならびに精読に多くの時間を割かなければならないことから,その効率化が期待されており,多くの研究がなされてきた。 論文執筆支援を目的とした研究の初期において,論文全体を読まなくても論文の要旨および主張を把握できるよう, 目的, 課題, 手法の観点での要約 [1] 図 1 関連研究に着目した統合的な論文執筆支援の流れ や,該当論文に関する引用文を用いた要約手法が提案されてきた [3]. 学術論文の要約は, 一般文書の要約と異なる難しさが指摘されており, 今も継続して研究されている [10]. しかし, 論文執筆支援という観点では, 研究者は別途読むべき論文を探す必要があり,支援としては十分でない. 近年では論文データの取得が容易になってきたことから, 引用すべき論文の推薦を目的とした研究も行われている. 多くの既存研究は, 他でも引用されている権威ある文献を推薦, キーワードの近い文献を推薦する方法が主であったが,近年では他では引用されていない重要な文献や異なる技術用語を使用しているが類似している研究も見つけられるよう,大規模なデータを構築して引用関係の意味ネットワークを考慮した推薦手法も提案されている $[11,4]$. これらは関連研究を推薦するという観点において有益であるものの, さらに細かい, 引用文に対する引用文献の推薦などは対象とされておらず,本タスクを行うには別途タスクデータの構築が必要となる. 使用データや方法, 問題点などのカテゴリに分類して文献を推薦する手法も提案されているが [12],引用文として記述したものの根拠として, 引用すべき文献を提示するタスクとはなっていない. 執筆・査読の効率化を目的とした研究として, 引用が必要な文かどうかを判定するタスクもある [6]. この引用要否判定タスクは,執筆において引用漏れを防止する, 論文チェックの観点でも重要なタスクではあるが, 引用要否判定に続いて, 引用すべき文献を推薦するタスクまでつなげて手法の開発や評価ができることが望ましい. 従来研究 [6] では, 科学論文の大規模データを使用し公開しているものの, \\ ## 表 1 タスクの定義 文献の推薦タスクに使用できるデータにはなっておらず,続くフェーズで期待される文献推薦を行うには別途データ収集および構築が必要となる. さらに,関連研究の章の一部である引用文を被引用文献から自動生成する手法 [5] も提案されているが,データ数が少なく,同一著者の他の文献や,代表的な引用文の書き方などルールベースの手法にとどまっている. そこで,我々は,関連研究に関わる論文執筆の支援を目的として, 連続的かつ必要なタスクを設計し,それらのタスクを統合的に評価できる環境を提供としてタスク用データの構築を行う。 ## 3 タスクの定義 我々の目指す統合的な支援の流れを図 1 に示す.研究を始める段階では, “自分なりに調べた従来研究を元に課題とアプローチを検討したが他に類似する研究があるかもしれない”と思い,関連研究を探し求める。こうした状況においては, 課題とアプローチが記述された研究方針を入力として,関連する文献が推薦されることが望まれる [13](図の (1)). また, 原稿執筆の段階では, 一通りの草案を書いてみたが,引用すべき箇所に引用がなされていなかったり, 適切な引用がなされていないことも起こりうる.したがって, 引用が漏れている文の提示 [6] や (図の (2)), 異なる文献が引用されている箇所の特定 (図の (3)), さらに適切な引用文献の提示 (図の (4)) が期待される。さらには,“一通り研究を終えたものの引用すべき何かが漏れている可能性がある”という状況においては, 引用すべき文献と共に, 該当する研究に対してどんな観点での引用が望ましいか 図 2 タスクデータの生成 の位置付けを整理した文章が提示される [5] ことが期待される (図の (5)). そこで, 我々の目標に必要なタスクを表 1 のように定義した.以降,入力として用いる研究方針や原稿草案のことを, ベース論文と呼ぶこととする. ## 4 デー夕構築 データの構築方法について,図 2 を用いて説明する. 論文がたくさん収録されているデータベースを大規模文献 DB と呼ぶ. はじめに,ベース論文と大規模文献 DB から,夕スクデータに用いる素材,すなわちアブストラク卜, 関連研究の章を除いた論文全体, 関連研究の章を抽出する。また引用文献については,タイトルと著者名を用いて大規模文献 DB と照合し, タイトル,著者, $\operatorname{arXiv}$ の ID およびアブスト/論文本文をぺアにしておく. 最後に素材を元に,タスクデータを生成する。生成方法の全体像を図に示し,データの詳細を以下に述べる. (1) 読むべき文献の推薦 ベース論文のアブストラクトと引用文献のアブストラクト/論文本文の集合をデータとして作成する.研究方針の状態であるため, アブストラクトのうち, 実験結果に関する記述をルールベースで省いたアブストラクトを入力として,該当する論文の関連研究の章で引用されている文献のリストを正解とす る. (2) 引用要否判定タスク 図には含めていないが,ベース論文のイントロおよび関連研究の章を対象とする.ベース論文中で引用されている文は引用が必要な文と見なし,各文に対して,引用が必要な文かどうかを判定する. (3) 引用文献割当タスク/引用文・被引用文献ペア適正判定タスク ベース論文の関連研究の章を対象とする。ベース論文中で引用されている文は正しく引用していると見なし, 引用のある各文 (文の長さによって前後の文を含める)に対して,適切に引用されているかを推定する。 (4) 引用文に対応する文献を推薦 ベース論文の関連研究の章を対象とする. ベース論文中で引用されている文は正しく引用していると見なし, 引用のある各文 (文の長さによって前後の文を含める)に対して,ベース論文で引用している文献リストから,どの文献を引用すべきかを推定する. (5) 関連研究の章の自動生成 ベース論文の関連研究の章を対象とする、ベース論文の引用方法は,その論文の観点で適切に引用されていると見なす。関連研究の章(もしくはそのうちの 1 段落)の抜いた該当論文を入力した時に,その関連研究の章 (もしくは 1 段落)を自動で生成する. 図 3 関連研究で引用されている文献のうち本文が取得できる文献の割合(縦軸)と該当する文献の割合(横軸) ## 5 評価 3 節で定義したサブタスクのうち, 従来研究で解かれていないタスク (3)のうち (3)-2 の引用文献が正しいかどうかを判定するタスクのについて,ベースラインの性能を評価する。 タスクデータは, Leaderbord 自動生成を目的としたタスクデータとして公開されている AxCell[8] を元に取得した 29,121 件の論文をべース論文として構築した。大規模文献 DBについては, $\operatorname{arXiv} \mathrm{API}^{22}$ から可能な限り取得した文献を格納した。なお, 関連研究で引用されている文献のうち, 全ての文献の tex のソースもしくは PDF が取得できる論文の割合は,全体の 6 割程度の 21,351 件であった。図 3 に,関連研究で引用されている文献のうち, tex のソー スもしくは PDF が取得できる文献の割合およびそれに該当する文献の割合の内訳を示す. 従来のベースとして, Word2Vec[14]と,近年の大規模汎用言語モデルの元となった BERT[15] を用いて性能を評価する。 BERT[15] では, bert-base-uncased のモデル3)を用い, Document Classification Task のモデルを以下のフォーマットで学習した. 引用文とその引用箇所で引用されている文献のアブストラクトのペアを正例, 同じ関連研究の章で引用されている他の文献のアブストラクトをぺアとしたときを負例として用いた。学習データは, 正例負例ともに 18,000 ずつ, $\operatorname{dev}$ として 3,000 , テストに 3,000 用いた。また Word2Vec [14] は, 文の平均ベクトルの類似度で判定したときのスコアを比較した。結果を表 2 に示す.評価した性能を表 2 示す.  図 4 BERT に入力したデータのフォーマット 表 2 Word2Vec と BERT の転移学習をした場合のタスク (3)-2 の精度 約 8 割程度の正解率であることから, 判定不可能ではないタスクであると言える。また, Word2Vec ベースと比較すると約 20 ポイントの伸びがあることから,文脈を踏まえた分散表現により,より高い精度で解ける可能性があると言える。 なお, 本タスクの詳細な解法については, 文献 [16] に記述している. ## 6 おわりに 本研究では,研究者の研究調査および論文執筆における関連研究の引用および生成に関わる統合的な執筆支援を目的として,関連研究に関わる様々な既存のタスクを統合した新たなデータセット構築方法および 5 つのタスクを定義した。 定義した 5 つのタスクのうち, 本稿で新たに定義した正しい引用文献かどうかの判定タスクにおいて,近年の言語処理技術のベースとなっている BERTを転移学習した場合の結果を示した.現状の引用文と引用文献のアブストラクトのペアの正しさを判定するモデルの性能は 8 割程度であるが,論文全体を用いることでさらに精度向上が期待される。 今後は論文全体を入力とした判定モデルの構築手法を検討し,タスクの精度向上に取り組む。また,未着手のその他のタスクについても取り組み,統合的に論文執筆を支援する仕組みの実現を目指す. ## 参考文献 [1] Simone Teufel and Marc Moens. Summarizing scientific articles: experiments with relevance and rhetorical status. Computational linguistics, Vol. 28, No. 4, pp. 409-445, 2002. [2] X. Bai, M. Wang, I. Lee, Z. Yang, X. Kong, and F. Xia. Scientific paper recommendation: A survey. IEEE Access, Vol. 7, pp. 9324-9339, 2019. [3] Vahed Qazvinian and Dragomir R. Radev. Scientific paper summarization using citation summary networks. In Proceedings of the 22nd International Conference on Computational Linguistics (Coling 2008), pp. 689-696, Manchester, UK, August 2008. Coling 2008 Organizing Committee. [4] Chandra Bhagavatula, Sergey Feldman, Russell Power, and Waleed Ammar. Content-based citation recommendation. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 238-251, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [5] Saif Mohammad, Bonnie Dorr, Melissa Egan, Ahmed Hassan, Pradeep Muthukrishan, Vahed Qazvinian, Dragomir Radev, and David Zajic. Using citations to generate surveys of scientific paradigms. In Proceedings of Human Language Technologies: The 2009 Annual Conference of the North American Chapter of the Association for Computational Linguistics, NAACL'09, p. 584-592, USA, 2009. Association for Computational Linguistics. [6] Michael Färber, Alexander Thiemann, and Adam Jatowt. To cite, or not to cite? detecting citation contexts in text. In Gabriella Pasi, Benjamin Piwowarski, Leif Azzopardi, and Allan Hanbury, editors, Advances in Information Retrieval, pp. 598-603, Cham, 2018. Springer International Publishing. [7] Michael Färber and Adam Jatowt. Citation recommendation: approaches and datasets. International Journal on Digital Libraries, Vol. 21, No. 4, p. 375-405, Aug 2020. [8] Marcin Kardas, Piotr Czapla, Pontus Stenetorp, Sebastian Ruder, Sebastian Riedel, Ross Taylor, and Robert Stojnic. Axcell: Automatic extraction of results from machine learning papers. arXiv preprint arXiv:2004.14356, 2020. [9] Tarek Saier and Michael Färber. unarxive: a large scholarly data set with publications' full-text, annotated in-text citations, and links to metadata. aScientometrics, Vol. 125, No. 3, pp. 3085-3108, 2020. [10] Michihiro Yasunaga, Jungo Kasai, Rui Zhang, Alexander R Fabbri, Irene Li, Dan Friedman, and Dragomir R Radev. Scisummnet: A large annotated corpus and content-impact models for scientific paper summarization with citation networks. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 33, pp. 7386-7393, 2019. [11] T. Chakraborty, N. Modani, R. Narayanam, and S. Nagar. Discern: A diversified citation recommendation system for scientific queries. In 2015 IEEE 31st International Conference on Data Engineering, pp. 555-566, 2015. [12] Pavlos Kefalas Waheed Ahmad Abro Bahadar Ali Zafar Ali, Guilin Qi. A graph-based taxonomy of citation recommendation models. Artificial Intelligence Review, Vol. 53, No. 7, pp. 1573-7462, 2020. [13] Khalid Haruna, Maizatul Akmar Ismail, Abdullahi Baffa Bichi, Victor Chang, Sutrisna Wibawa, and Tutut Herawan. A citation-based recommender system for scholarly paper recommendation. In International Conference on Computational Science and Its Applications, pp. 514-525. Springer, 2018. [14] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781, 2013. [15] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [16] 小山康平, 南泰浩, 成松宏美, 堂坂浩二, 田盛大悟, 東中竜一郎, 平博順. 学術論文における関連研究の執筆支援のための被引用論文の推定. 言語処理学会第 26 回年次大会, 2021
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C7-1.pdf
# アノテーション漏れ推定を用いたエンティティ抽出 伊藤雅弘山崎智弘 株式会社東芝 研究開発センター 知能化システム研究所 アナリティクスA I ラボラトリー \{masahiro20.ito, tomohiro2.yamasaki\}@toshiba.co.jp ## 1 はじめに 近年の団塊世代の退職と少子化による労働人口の減少に伴い,産業界では業務に関するノウハウの喪失や継承が関心事となっている。なぜなら,電力・化学プラントなどの建設・運用・保守には, ベテランの長年の経験が重要となるからである.我々は,過去に発生したトラブルの報告書に記録されているベテランのノウハウを,現状の業務や新人の教育に用いる取り組みを進めている。特に,過去の大量の報告書からトラブルに関係するイベント(「配管に亀裂」「水位が低下」など)を抽出し,因果関係として構造化することによって,「特定の原因により引き起こされるリスク」や「トラブルを引き起こした原因」 を分析する技術開発に注力している。 我々の構造化プロセスは,まず報告書からトラブルの原因や結果になりうるイベントを系列ラベリング [1] にて抽出し, 次に抽出されたイベント間に因果関係があるかを推定する。この 2 段階のプロセスでは,前段でイベントの抽出漏れがあると,後段で正しい因果関係を推定することができない。そのため,前段のイベント抽出はある程度の正しさは担保しつつもなるべく多くのイベントを後段に提供できること,つまり再現率が高いことが望まれる. 再現率を高めるためには系列ラベリングにおける 「学習時の目的関数を工夫する」「イベントを示すラベルかどうかの推定值に対する閾値を変更する」なども考えられる。これら方法では,学習データ自体はそのまま用いている。一方で,本研究では学習の情報源となるアノテーションデータのエンティティ付与漏れ(アノテーション漏れ)に着目する.ここでエンティティとは,系列ラベリングでの抽出対象となるイベントや固有表現などが該当する。一般的に,学習データに用いることができる規模で完全に正しいアノテーションデータを作成することは困難である。既存研究 [2] でも,固有表現抽出のデータセットである CoNLL2003 [3] におけるアノテーシ ヨン誤りが指摘されている. 我々もイベント抽出の再現率低下の要因分析をした結果,トラブル報告書内のイベントにアノテーション漏れが存在することが分かっている. エンティティに対するアノテーシヨン漏れがあると,一部のエンティティの特徴を学習できず抽出漏れの要因になると考えられる. そこで本研究では,アノテーション漏れを推定しそのエンティティを学習データに追加することによって,系列ラベリングを用いたエンティティ抽出の再現率を向上させる方法を提案する. ## 2 関連研究 これまでの因果関係抽出の研究としては $[4,5]$ などがあるが,その中でのイベント抽出手法には,主にルールベースと系列ラベリングによる機械学習ベースがある.[4] はルールベースの手法で,手がかり表現を含む文節を基点に,係り受け解析を用いて前後の一定の範囲を原因・結果として抽出する. 一方 [5] は系列ラベリングを用いた手法である。文を形態素などのトークンに分割し, 1 文中に存在する原因・結果それぞれのイベント範囲の各トークンに対しCause, Effect のラベルを付与した学習データを用意する。そして,未知の文における原因イベント・結果イベント部分のラベルを推定するモデルを学習する。本研究では,この系列ラベリングを用いてイベントを抽出する。 系列ラベリングの手法としては近年 Bi-LSTM ベ一スの手法が盛んに提案され,高い性能を達成している $[1,6]$. これらの手法は, 文字や単語の埋め込みベクトルを Bi-LSTM に与え,最終層で CRF を用いてラベルを推定している。一方 [2] は,アノテーション誤りを含んだ不完全なデータセットにおいて,誤りを含む可能性が高い文を推定し,その文の重みを低くして学習することで,系列ラベリングの性能を向上させる CrossWeigh という手法を提案している. [7] も同様に不完全なデータセットでの学習性能の向上を取り扱っている。しかし,この研究はラ ベル無しデータに対してルールや辞書に基づき機械的にラベリングしたものを不完全 (ノイジー) なデ一夕として扱っているため,アノテーションデータに誤りが含まれるという [2] や本研究の問題設定とは異なる。 ## 3 提案手法 本研究では, 前節で述べた CrossWeigh [2] と同様にアノテーション誤りを含んだ学習データを取り扱う。先に述べたように,機械学習用のデータセットに対してアノテーション作業を実施したとしても, 完全に正しいデータを作成することは困難である.これは, 特に定義が明確にできないエンティテイに対しては顕著であると考えられる。例えば,本研究で取り扱う「トラブル報告書におけるトラブルの原因・結果となるイベント」は, 「人名」に比べて明確に定義することが困難で系列も長い。その場合, エンティティの過不足やテキスト範囲の摇孔が大きくなる. [2] は学習データからアノテーション誤りを含む可能性があるデータ(文を構成するトークンの系列とそのラベル)を推定し,文単位で学習時の重みを低くする。つまり当該文の学習への影響を小さくしている。 [2] は誤った情報を取り除くため,主に適合率を向上させる効果が高いと考えられる一方,再現率の向上はあまり見込めない. また予備実験において,エンティティのテキスト範囲(エンティテイ範囲)の摇れが比較的大きな”イベント”という対象では学習データの多くの文がアノテーション誤りと推定されてしまい, 逆に性能低下を引き起こすことが分かっている. 先に述べたように,エンティティ抽出結果を後段の関係抽出処理で用いる場合は,そもそも正しいエンティティが抽出されていなければ正しい関係を生成することができない. そのため, 適合率より再現率を重視した性能向上手法が必要となる. そこで本研究では,アノテーション誤りのうちアノテーション漏れと考えられるエンティティを推定し, そのエンティティを学習データに追加するという再現率向上を重視した手法を提案する。これは, 誤った情報を取り除く [2] とは逆のアプローチである. 学習データにエンティティを追加することで, 当然再現率の向上が想定される. しかし, 追加するエンティティを注意深く選定しなければ,ノイズとなるエンティティが増え適合率が大きく下がると考え られる。提案手法では,以下の 3 つの工夫を導入することにより,適合率の低下をなるべく抑制しつ つ,再現率の向上を目指す. (A) 学習データの異なるサブセットを用いて学習した複数モデルによる投票によって,推定エラ一ではなくアノテーション漏れのみを学習デ一夕に追加できる確率を高める。これは,ノイズとなるエンティティが追加されることを抑制する. (B) (A)において投票数に応じて追加するエンティティを選定する際,範囲が類似するエンティテイを「エンティティグループ」としてまとめて扱うことにより,エンティティ範囲の厳密性にこだわらず,追加すべきエンティティ周辺を浮かび上がらせる. (C) (A)での投票結果を用いて,エンティティグルー プに属する推定範囲の異なるエンティティから,より正しいものを選択できる確率を高める。 これは, 追加されるエンティティ範囲のノイズ除去として機能することが期待される. 以下に提案手法のアルゴリズムを示す. (1) 学習に用いるアノテーションデータをランダムに並べ替え, $\mathrm{k}$ 分割交差検証にて上記アノテ ーションデータのすべての文からエンティテイを抽出する. (2) 抽出されたエンティティのうち, アノテーションされていなかったエンティティを記録する。 (3) (1)〜(2)をt回繰り返す. 例えば, $\mathrm{t}=4$ の場合,下図のように 4 つの異なるモデルがそれぞれエンティティ範囲を推定する. ## モデル1 発電設備における配管の溶接不良に伴って、 モデル2 発電設備における配管の溶接不良に伴って、 モデル3 発電設備における配管の溶接不良に伴って、 モデル4 発電設備における配管の溶接不良に伴つて、 (4) 推定されたエンティティ範囲が同一のものの個数を,各エンティティ範囲の「投票数」としてカウントする. (5) 範囲が類似するエンティティを「エンティティグループ」としてまとめ,エンティティグルー プに属するエンティティの投票数を合計する.範囲が類似するエンティティの判定方法は,「1 形態素でも重複する」や「末尾 $\mathrm{n}$ 形態素のいずれかが重複する」などが考えられる。例えば,下図のように類似する範囲をまとめ上げたエンティティグループが作成される. 文: 配管の溶接不良に伴つて,接合部付近より... (6) 投票数が $\mathrm{t} \cdot \alpha(0 \leq \alpha<1)$ 以上のエンティテイグループを選出する, $\alpha$ は,同じ文を $\mathrm{t}$ 回異なるモデルで推定したうち, どのぐらいの割合の投票数があれば追加するエンティティグル ープとして選出するかの基準である。 (7) 選出されたエンティティグループそれぞれに対し, 属する複数のエンティティの中で最も投票数の多いエンティティを学習データに追加する. 文: 配管の溶接不良に伴って,接合部付近より... ## 4 評価実験 提案手法の効果を検証のために実施した実験について述べる。 パラメータは以下の通りとした。 k(交差検証における分割数):10 $\mathrm{t}$ (交差検証の繰り返し回数) : 20 $\alpha$ (エンティティグループの選出基準): $0.8, \quad 0.6, \quad 0.4, \quad 0.2, \quad 0.0$ $\alpha$ が 0.0 の時にすべてのエンティティグループが学習データに追加され, $\alpha$ が 1.0 の時にいずれのエンティティも追加されない. 提案手法における範囲が類似するエンティティの判定方法は「エンティティ末尾 5 形態素のいずれかが重複する」とした。例えば「発電/設備/の/配管/ に/龟裂」と「配管/に/亀裂」は類似と判定される.表 2 データ数(電力プラントトラブル報告書) これは,日本語のトラブルに関するイベントにおいて「水漏れ」「亀裂」など主要な現象(動作)が末尾付近に出現することが多いため,その部分の抽出を重視し,それ以外のトラブルの対象・条件などの記述の抽出範囲の摇孔を許容するためである。なおこの方法では, 5 形態素以下のエンティティ同士では「1 形態素でも重複する」と等しくなる. 系列ラベリングモデルは Bi-LSTM-CRF [1] をべ一スとし,学習済み BERT モデル $[8,9]$ から得られた単語ベクトルを Bi-LSTMへの入力として与えた. オリジナルの学習データおよび提案手法によりエンティティが追加された学習データを用いて 3 回学習し, それぞれの抽出性能の平均値を算出した。 上記設定で実施した以下 2 種類の抽出タスクによる評価について述べる。 ## 4.1 トラブルイベント抽出による評価 電力プラントに関するトラブル報告書(日本語) を用いたトラブルイベント抽出による評価実験を行った.この報告書には,トラブルに関わるイベントとその因果関係がアノテーションされており,デー 夕数は表 1 の通りである。また,性能値算出時の 「エンティティが抽出できたか」の判定はエンティティ範囲の完全一致が通常であるが,本実験では先述したイベントの特性から「エンティティ末尾 5 形態素のいずれかが重複する」とした. 実験結果を表 2 に示す. 提案手法によりエンテイティが追加された学習データを用いた結果, オリジナルのアノテーションデータを用いた場合と比ベ,再現率が向上した。一方,エンティティを追加することによって想定通り適合率は下がった。しか 表 1 評価結果(電カプラントトラブル報告書) 表 3 データ数(CoNLL2003) し,パラメータ $\alpha$ を高くすることによってその程度が緩和される傾向であることから,(A)~(C)の工夫がノイズ除去として機能していることが確認できた.この再現率向上効果とノイズ除去効果のバランスは,データセットやモデルにより変化すると考えられる。本実験では $\alpha=0.6$ で最も高い $\mathrm{F}$ 値となっており,提案手法により $\mathrm{F}$ 值を維持もしくは向上させつつ, 再現率を向上できることを確認した. ## 4.2 固有表現抽出による評価 提案手法は, 本研究におけるイベントのようにアノテーション摇れが大きい対象に特に有効であると考えられる。一方,一般的な固有表現抽出タスクへの有効性は明らかでないため, 広く用いられている CoNLL2003 コーパス(英語)による評価を実施した. 当該コーパスには, 人名, 地名, 組織名, その他の 4 種の固有表現がタグ付けされており,データ数は表 3 の通りである. エンティティが抽出できたかの判定はエンティティ範囲の完全一致とした. 実験において, アノテーション漏れを疑似的に再現するため, 学習データから個々のエンティティを一定確率 (削除確率) で削除した. 例えば, 削除確率 0.1 だとおおよそ $10 \%$ のエンティティが学習デー タから削除される. 削除確率 $0.1 \sim 0.5$ の学習データで実験した結果を表 4 に示す. 削除確率の増加に伴って再現率が低下していることが分かる. まず,削除確率 0.1 のデータを用いて提案手法を適用した結果を表 5 に示す. パラメータ $\alpha$ を下げるに伴って適合率が低下し再現率が向上する傾向は, 先述のトラブル報告書における評価と同様である. そして,$\alpha=0.4$ で $\mathrm{F}$ 值が最大となっており, エ 表 4 エンティティ削除データでの性能 表 5 評価結果(CoNLL2003, 削除確率 0.1) ンティティを削除していないオリジナルの学習デー タを用いた結果と比べても同等以上となっている. 次に, 削除確率 0.3 のデータを用いて, 提案手法を適用した結果を表 6 に示す.ここでもパラメー タ $\alpha$ に対する適合率・再現率の傾向は同様であるが,適合率低下より再現率の向上効果が高いため,推定されたすべてのエンティティグループを追加対象とする $\alpha=0.0$ で $\mathrm{F}$ 值が最大となった. つまり, 削除確率 0.3 のデータにおいては, 提案手法で述べたエンティティグループを用いたノイズ除去の工夫は必要ではないことを示している. ## 5 おわりに 本研究では, エンティティのアノテーション漏れを含む不完全なデータセットにおいて,アノテーション漏れのエンティティを推定しデータセットに追加して学習させるという, 再現率を重視したエンテイティ抽出の性能改善手法を提案した. 評価実験により,提案手法がエンティティ追加によるノイズを抑えつつ, 再現率の向上を実現できることを示した. 一方,パラメータ $\alpha$ はデータセットの条件により最適値が異なるため, 今後提案手法が効果を発揮するようなデータセットの品質とパラメータ $\alpha$ の組み合わせ条件を調査する。また,アノテーション誤りの可能性のある文の重みを下げる手法 [2] と組み合わせ, 適合率・再現率の両面から性能向上させるアプローチも検討する. 表 6 評価結果(CoNLL2003, 削除確率 0.3) ## 参考文献 1. Lample, Guillaume, et al. Neural Architectures for Named Entity Recognition. : Proceedings of NAACL 2016, 2016. 2. Wang, Zihan, et al. CrossWeigh: Training Named Entity Tagger from Imperfect Annotations. : Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), 2019. 3. Tjong Kim Sang, Erik F. and De Meulder, Fien. Introduction to the CoNLL-2003 Shared Task: Language-Independent Named Entity Recognition. : Proceedings of CoNLL-2003, 2003. 4. 坂地泰紀, 酒井浩之, 増山繁. 決算短信 PDF からの原因・結果表現の抽出. : 電子情報通信学会論文誌 D, 2015 . 5. Dasgupta, Tirthankar, et al. Automatic Extraction of Causal Relations from Text using Linguistically Informed Deep Neural Networks. : Proceedings of the 19th Annual SIGdial Meeting on Discourse and Dialogue, 2018. 6. Akbik, Alan, Blythe, Duncan and Vollgraf, Roland. Contextual String Embeddings for Sequence Labeling. : COLING 2018, 27th International Conference on Computational Linguistics, 2018. 7. Hedderich, Michael A. and Klakow, Dietrich. Training a Neural Network in a Low-Resource Setting on Automatically. : Proceedings of the Workshop on Deep Learning Approaches for Low-Resource NLP, 2018. 8. (オンライン) 2021 年 1 月 14 日. https://github.com/cl-tohoku/bert-japanese. 9. (オンライン) 2021 年 1 月 14 日. https://huggingface.co/bert-base-uncased.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C7-2.pdf
# Relation Extraction Task for Inorganic Material Synthesis Procedure Shanshan Liu RIKEN, AIP shanshan. liuQriken.jp ## 1 Introduction To transform the knowledge existing in natural language text into a structured form, named entity recognition (NER) and relation extraction (RE) technologies are essential. Early methods are mostly pipelined, that is, first identify entities in the text then classify the relationships between entities. End-to-end RE methods that learn entity labels and relation labels together to take the interaction between entities into consideration during training become popular recently (like DyGIE framework [1]). Although the joint learning methods perform well on many standard benchmarks (ACE05, DocRED [2], CDR, SciREC and so on), the research of [3] shows that the pipeline methods can achieve state-of-the-art (SOTA) results over the existing joint learning methods. In addition, although there are many researches on RE, they still have not been verified on more practical issues. This is mainly due to the simple problem background of the current dataset, mostly are for sentence-level relation, with only one pair of entities in a sentence; or for document-level relation, but only one relation instance is annotated in one document (CDR [4]). In addition to the complexity of the relationships, there are also limitations in the knowledge domain - most of datasets are from news (ACE05), computer science (DocRED, SciERC) or biomedical fields (CDR, GDA), datasets from other fields are rarely reported. In this paper, we give a more challenging task, the RE task in the inorganic material synthesis procedure (abbreviated as "procedure") extraction. The pipeline extraction of procedures consists of three sub-tasks namely, extracting text blocks containing procedure information from the original paper, performing named entity recognition on the text blocks, and classifying the identified entity pairs. [5] has made a good effort on procedure extraction. They made a definition of procedure and researched the models for the block extraction and NER task. \author{ Yuji Matsumoto \\ RIKEN, AIP \\ yuji.matsumoto@riken.jp } We evaluated the performance of the existing documentlevel relation extraction methods in two scenarios. In the first one, the text blocks and entities are all gold annotations. This is also the standard task of most RE researches. The second scenario is to use the result of the text block extractor, and the entities predicted by the named entity recognizer. It is the situation that the relation extractor faces in the pipelined knowledge extraction. We only applied the best method in standard RE task to the pipelined procedure extraction. The models used in this work include the Bi-LSTM model, which is widely used in various knowledge domains, and the ATLOP [6], which is a SOTA model for extracting document-level relations. In view of that the knowledge of chemical domain is to be extracted, we choose the pre-trained language model SciBERT [7] to generate word representations. The dataset used for evaluation in our work is based on the dataset mentioned in [5], however, the number of papers is increased and each paper has procedure information. Our contributions can be concluded in threefold: - We evaluate two models' performance on a specific task that is close to the real need - to capture the relations in inorganic material synthesis procedure. - We notice that the results of procedure extraction are similar to other tasks that also use named entity recognition and relationship extraction for knowledge extraction. The SOTA result on ACE05 dataset, ACE04 dataset and our procedure dataset are 67.8, 62.2 and 67.92 respectively. - We introduce two effective techniques for the RE task of procedure extraction. The rule_top component helps to select the best types from several positive types predicted by multi-label binary classification models. The entity typemarker achieved the highest F1 score of 93.7 when the inputs of RE are gold. Table 1 Statistics of entities in procedure dataset Dataset statistics about the number of named entities for training (\#Train), development (\#Dev), testing (\#Test) and of all papers (\#All). Table 2 Statistics of relations in procedure dataset ## 2 Methodology ## 2.1 Task definition The definition of the procedure follows [5]. A procedure is represented by four types of entities and five types of relations. Four types of entities are "Material", "Condition", "Method", and "Process". Five types of relations are from "Process" to all four types of entities. If the tail entity is "Material", two relation types are possible: "Input_of", "Output_of"; if the tail entity is "Condition" or "Method", the relation type is "Condition_of" or "Method_of" respectively. Two "Process" entities are linked by "Next_of" relationship. We evaluate the RE methods in two scenarios. One is the standard RE task, meaning that the inputs of RE methods are gold text blocks and only human-annotated entities. The other one is the RE task in a pipelined procedure extraction. In this situation, the inputs of RE methods contains 3 combinations: the gold named entities (NEs) in the predicted blocks, the predicted NEs in the gold blocks, and the predicted NEs in the predicted blocks. The outputs of the RE task are the outputs of the procedure extraction if the inputs of the RE task are predicted NEs in the predicted blocks. ## 2.2 Model In this section, we give the details of the methods applied in experiments. Standard Relation Extraction One of our baseline is the rule-based relation extractor in [5] with small changes. We select the longest material entity in each document as output, while other materials are inputs of procedures. We add a candidate condition list, to deal with the situation that a material entity may play a role as a condition of the process. For a material entity in this list, the relationship contains it is labeled as "Condition_of". Two neural network (NN) methods are applied in standard RE task. Benefit from the capability to process the long input max to 1024 tokens, the combination of the Glove embedding, Bi-LSTM encoder and Bilinear layer decoder (abbreviated as "Bi-LSTM") is used as a baseline in both sentence-level and document-level RE tasks [2]. We apply this method to see the performance of simple $\mathrm{NN}$-based method on complex issues. To research whether the novel techniques perform well in standard benchmarks are effective in other domains, we apply the model ALTOP. ALTOP utilizes the BERT-based pre-trained language model which is better than GloVe in recent works. Two techniques in ALTOP make it achieved SOTA on DocRED datasets: adaptive thresholding loss to reduce decision errors during inference, and localized context pooling to better use of the local context of the entities. Pipelined procedure extraction As with [5], we use a pipelined approach to extract the procedures which includes three sub-tasks: extracting text blocks containing procedure information from the original chemical paper, performing named entity recognition on the text blocks, and classifying the identified entity-pairs. Our research only focuses on the RE task, so we use the best performing strategy in block extraction and named entity recognition published by [5]. The output of the block extractor is generated based on the classification of a sentence classifier that predicts whether a sentence is in a block that describes a procedure. The classifier is in the architecture of SciBERT, multi-layer perceptrons, and a SoftMax layer. The NER model utilizes SciBERT to generate token vectors, 2layer Bi-LSTM to encode sentence-level information, and a SoftMax layer to predict the token label. Technique for the procedure extraction To reduce the false positive instances predicted by multi-label binary classification, we provide a rule_top component. In our definition of relations, the head entity of each relation must be "Process", and a tail entity only links to one head entity most of the time. When several head entities are predicted Table 3 Result of block extraction positive for a tail entity by the RE model, the rule_top component only outputs the head with the highest score predicted by the model and treats others as negative instances. Inspiring by the work by [3], we try to import entity typemarker in our method. Two relation models with typemarker are published in [3]. One considers every pair of entities independently by inserting typed entity markers, which means a sentence will be encoded several times if it contains multiple entity pairs. This is time-consuming in our task because we need to process long texts while multiple relations may appear in each input text. They also provide a relation model with batch computations, that typemarker and corresponding entity token (the start marker to the first token of an entity, the end marker to the last token) share the positional embedding. The ALTOP model is designed to utilize the positional information encoded by BERT instead of additional positional feature. There is still a way to insert typemarker, which is simple and practical. After the input text is tokenized by the BERT-based tokenizer, "*" is inserted into the sentence before and after each entity in ALTOP. We change the "*" mark into typemarker. Given an entity, we concatenate "E:" or "/E:" to the first three letters of the entity type as its typemarkers. For example, the typemarker of "Material" will be "<E:Mat>" and "</E:Mat>". The typemarkers are different for the head and tail entities in [3], while we do not design different markers for head and tail entities. ## 3 Experiment ## 3.1 Dataset The procedure dataset ${ }^{1)}$ we used contains 241 thermoelectric material papers annotated by chemistry experts, including entity and relation labels. Each paper contains at least one procedure. 193 papers are used for training, 24 for development, and the remaining 24 for evaluation, all selected randomly. The dataset statistics are shown in Table 1 and Table 2.  Table 4 Result of named entity recognition "Pred_g" is the NER model trained on the gold blocks, while "pred_p" is trained on the predicted blocks. ## 3.2 Experiment setting For the Bi-LSTM RE model, we implement a model same as the one implemented in [2]. For the ALTOP RE model, we select scibert_scivocab_cased as the pre-trained model. The batch sizes for training and testing are 4 and 8 respectively. We set a learning rate of $1 \mathrm{e}-5$ for weights in the pre-trained model, $5 \mathrm{e}-5$ for others, with a linear warmup for the first $6 \%$ steps followed by a linear decay to 0 . For the block extractor, we follow [5] to train a sentence classifier and construct predicted blocks. The performance of the block extractor is shown in Table 3. $98.98 \%$ of the sentences with procedure information are successfully extracted. Two named entity recognizers are trained with different inputs but with the same architecture and setting followed as [5]. The "pred_g" is the NER model trained on the annotated entities in gold blocks, while "pred_p" is trained on the predicted blocks with annotated entity labels. Table 4 presents the results of our NER models. The max sequence length of both NER and RE tasks is 1024. ## 4 Result and Discussion RE models are compared in the standard RE task that the gold blocks and gold entity labels are given. The best $\mathrm{RE}$ model is applied in the procedure extraction, while the RE model has to face more noise because the blocks are predicted, or the named entities are results of NER models. Standard RE task The experimental results of standard RE task are shown in Table 5. Following previous works, we use Precision, Recall and F1 scores in evaluation. The first we noticed is the good performance of the rulebased approach. Although the rules we used are intuitive, the rule-based have an accuracy of 90.26. In most of other Table 6 ALTOP + rule_top ignoring the missed relations caused by entity missing ALTOP + rule_top is trained on the gold NEs in gold blocks. "Covered Rel" is the relationships that both its head entity and tail entity are identified by the NER models. Table 7 ALTOP + rule top in procedure extraction tasks, NN-based methods can capture positive examples outside the rules and have a higher recall. In our task, there is a difference between the simple Bi-LSTM model and the rule-based method, except that Bi-LSTM performs worse than the rules, especially in the recall. This situation may be caused by the simplicity of the procedure dataset - the text order of a series of processes is the same as the actual processing order, and the description of procedures is in a certain form that matches with our rules. Even though the simple NN-based model fails to outperform the rule-based method, the pre-trained language model and novel techniques help ATLOP win the game in this round with an F1 score of 89.68. And the rule_top component does reduce the count of false-positive instances, bringing us a high precision of 95.00. Comparing to the performance of the ATLOP, the Bi-LSTM model is not good enough in distinguishing between two head entities given a tail entity. The human-check of error predictions proves that the Bi-LSTM model may link a tail entity to an incorrect head entity close to the correct answer, even if two head entities are not semantically similar. Pipelined procedure extraction For the RE task in procedure extraction, performances of the models are shown in Tables $6,7,8$. Table 6 shows the results not taken the missed relations caused by missed entities into account. As is shown: 1) The impact brought by the NER models is greater than the block extractor. Performance of gold NEs in the predicted blocks gets 4 points lower than gold NEs in the gold blocks; on the predicted block, passing the pred_g model's output to the RE task decreases $18.5 \%$ of Table 8 ALTOP + rule_top in procedure extraction with/without typemarker ALTOP + rule_top model with/without typemarker is trained on the gold NEs in gold blocks. performance than gold NEs. 2) An NER model trained on the predicted blocks can reduce the false-positive entities appeared in the false sentences in the predicted block. The pred_p model achieves 3.22 points higher than pred_g. 3) Even though the NER model achieved over 80.0 recall, the missed relations caused by entity missing have big effects. Only $77.33 \%$ of real relations can be observed after block extraction and NER. Taking the missed relations by the errors of NER into consideration, the recall of each combination of inputs reduces (See Table 7). The results on the pred_p NEs in predicted blocks are the final performance of procedure extraction. The pipelined methods taken ALTOP + rule_of model as RE model can capture $66.67 \%$ of relations in procedures, while $77.33 \%$ of the predictions are correct. Results by the ALTOP model with or without typemarker are shown in Table 8. In the standard RE task, typemarker contributes 1.69 points in the F1 score, while it brings no improvement in the other situations. We think typemarkers help the model better fit into data, losing a degree of generalization ability to unobserved instances during training. ## 5 Conclusion We experiment with two models that reported good performance in other works on the relation extraction of inorganic material synthesis procedures. We provide simple techniques, the rule_of component and entity typemarker to help existed methods get better performance on a specific task. We find the missed named entities during named entity recognition cause a great effect on the pipelined knowledge extraction. For that, we summarized two potential directions as our future works: improving the accuracy of named entity recognition, and improving the ability of the relation extraction model to distinguish between false-positive entities and real entities. ## References [1] David Wadden, Ulme Wennberg, Yi Luan, and Hannaneh Hajishirzi. Entity, relation, and event extraction with contextualized span representations. arXiv preprint arXiv:1909.03546, 2019. [2] Yuan Yao, Deming Ye, Peng Li, Xu Han, Yankai Lin, Zhenghao Liu, Zhiyuan Liu, Lixin Huang, Jie Zhou, and Maosong Sun. Docred: A large-scale document-level relation extraction dataset. arXiv preprint arXiv:1906.06127, 2019. [3] Zexuan Zhong and Danqi Chen. A frustratingly easy approach for joint entity and relation extraction. arXiv preprint arXiv:2010.12812, 2020. [4] Jiao Li, Yueping Sun, Robin J Johnson, Daniela Sciaky, Chih-Hsuan Wei, Robert Leaman, Allan Peter Davis, Carolyn J Mattingly, Thomas C Wiegers, and Zhiyong Lu. Biocreative $\mathrm{v}$ cdr task corpus: a resource for chemical disease relation extraction. Database, Vol. 2016, 2016. [5] Shanshan Liu, Mutsunori Uenuma, Hiroyuki Shindo, and Yuji Matsumoto. Extraction of the material synthesis procedure. Fourth International Workshop on SCIentific DOCument Analysis (SCIDOCA2020), 2020. [6] Wenxuan Zhou, Kevin Huang, Tengyu Ma, and Jing Huang. Document-level relation extraction with adaptive thresholding and localized context pooling. arXiv preprint arXiv:2010.11304, 2020. [7] Iz Beltagy, Kyle Lo, and Arman Cohan. Scibert: A pretrained language model for scientific text. arXiv preprint arXiv:1903.10676, 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C7-3.pdf
# BERT を用いた Table-Filling による固有表現抽出と関係抽出 Youmi Ma 平岡達也 岡崎直観 東京工業大学 \{youmi.ma, tatsuya.hiraoka\}@nlp.c.titech.ac.jp okazaki@c.titech.ac.jp ## 1 はじめに 固有表現およびその組である関係の抽出は,コンピュータによる情報抽出や知識獲得において重要な課題である $[1,2]$. 固有表現と関係を同時に抽出する手法のひとつとして,Table-Filling を用いたものがある [3]. Table-Filling を用いた手法では,図 1 のように,表の対角要素に固有表現のラベルを,非対角要素に関係のラベルを配置することにして,二つの抽出タスクをひとつの表を埋める問題に帰着させる.しかし, Table-Filling を用いた手法で高い精度を達成するためには,固有表現や関係の分類に用いる特徴量や,表を埋める順序(デコーディング順序)を緻密に設計する必要がある $[3,4,5,6]$. 近年,事前学習済み言語モデルを用いて固有表現と関係を同時に推定するモデルが提案されている $[4,7,8]$. 本稿では,文脈を考慮した単語埋め込みを用いることで,特徵量選択とデコーディング順序の問題を同時に解決する新たな Table-Filling に基づく固有表現抽出・関係抽出のモデルを提案する。提案手法では特徴量選択の問題を解決するために,事前学習済みの BERT モデル [9] で入力文をエンコー ドし,文脈を考慮した単語埋め込みを得る.単語埋め込みをスパン単位でプーリングした値を固有表現の特徴量とし,表の対角要素を埋める. 固有表現の特徴量で表の対角要素を埋め,これをもとに関係を表す非対角要素を一挙に埋めることで,デコーディングにおいて順序の考慮を不要とする。 CoNLL04 [10] と ACE05ํำデータセトを用いた実験を通して,提案手法はシンプルであるが,最高性能に匹敵することを確認した。また,提案手法においてデコーディング順序を考慮したモデル設計とした場合でも,デコーディング順序が性能に大きな影響を与えないことを確認した。さらに実験と分析を通して,固有表現抽出器を同時に学習することで埋 1) https://catalog.ldc.upenn.edu/LDC2006T06 図 1 Table-Filling の概要. セル内の数字は表を埋める (デコーディング)順序を示し,」は対応する関係がないことを示す. め込み表現の学習が効果的に行われ,関係抽出器の性能向上に繋がることを確認した2). ## 2 提案手法 本研究の目的は, 長さ $n$ の単語列 $w_{1}, w_{2}, \cdots, w_{n}$ が与えられた時に,関係を $\left(\mathrm{a}_{0}\left.\langle\mathrm{t}_{0}\right.\rangle\right.$, relation, $\left.\mathrm{a}_{1}\left.\langle\mathrm{t}_{1}\right.\rangle\right)$ の形で抽出することである。ただし, $\mathrm{t}_{0}, \mathrm{t}_{1}$ はそれぞれ 1 つ以上の $w_{n}$ から成る固有表現 $a_{0}, a_{1}$ に対応するラ Rを関係のラベルの集合とする。 提案手法では図 1 のように,表を用いて固有表現と関係のラベル空間を表現する。具体的には, $n \times n$ の上三角行列 $\boldsymbol{Y}$ を定義する. 対角成分 $\boldsymbol{Y}_{i, i} \in \mathscr{E}$ は $i$ 番目の単語に対応する固有表現のラベルであり, 非対角成分 $\boldsymbol{Y}_{i, j} \in \mathscr{R}$ は $i$ 番目の単語から $j$ 番目の単語への関係のラベルである. Zhang ら [6] による研究と同様に, 行列の下半分は使用 2)本稿で紹介されたモデルは,https://github.com/YoumiMa/ Enhanced_TFにて公開している. 図 2 固有表現抽出器の概要. しない。また,固有表現が複数の単語にまたがる場合は, 固有表現を構成する全ての単語の要素に対して関係ラベルを付与する。例えば図 1 では, し,関係 $\overrightarrow{\text { LIVEIN }}$ は「Johanson」に対応する $\boldsymbol{Y}_{1,5}$ と 「Smith」に対応する $\boldsymbol{Y}_{2,5}$ の両方に付与される. 提案手法は固有表現抽出器と関係抽出器を事前学習済みの BERT エンコーダの出力層に積み重ねる。図 2 と図 3 のように,各単語埋め込みをサブワード埋め込みからプーリングして計算し(\$2.1),固有表現抽出(\$2.2)と関係抽出(\$2.3)を行う。 ## 2.1 単語埋め込み BERT は WordPiece を用いて単語をサブワード化するため,単語単位のタスクである固有表現抽出を解くためには,サブワード埋め込みを単語単位に変換する必要がある.本研究では,単語を構成する全てのサブワード埋め込みの最大プーリングによって,単語埋め込みを計算する [9]. $ \boldsymbol{e}_{w_{i}}=f\left(\boldsymbol{e}_{t_{i, 1}}, \boldsymbol{e}_{t_{i, 2}}, \cdots, \boldsymbol{e}_{t_{i, s}}\right) . $ 単語 $w_{i}$ はサブワード $t_{i, 1}, t_{i, 2}, \cdots, t_{i, s}$ から構成され, $\boldsymbol{e}_{w_{i}}$ と $\boldsymbol{e}_{t_{i, k}}$ はそれぞれ単語 $w_{i}$ とサブワード $t_{i, k}$ の埋め込みを示し, $f(\cdot)$ は最大プーリング関数である. ## 2.2 固有表現抽出 固有表現のラベルを BILOU 方式 [11] で表現することで,固有表現抽出を系列ラベリング問題として扱う。提案手法では, Zhang ら [6] に倣い,固有表現 図 3 関係抽出器の概要. 埋め込みをスパン単位で取り扱う。 具体的に,位置 $i$ の単語 $w_{i}$ に対し,固有表現の予 連結( $\oplus )$ である. $ \boldsymbol{h}_{i}^{(\text {ent })}=\boldsymbol{e}_{w_{i}} \oplus \boldsymbol{l}_{y_{i-1}} \oplus f\left(\boldsymbol{e}_{w_{\text {first }(i-1)}}, \cdots, \boldsymbol{e}_{w_{i-1}}\right) . $ ただし, $\boldsymbol{l}_{y_{i-1}}$ は直前の位置 $i-1$ の単語 $w_{i-1}$ の固有表現ラベルの埋め込み, $f\left(\boldsymbol{e}_{w_{\text {first }(i-1)}}, \cdots, \boldsymbol{e}_{w_{i-1}}\right)$ は直前のスパンの埋め込み(該当する全ての単語埋め込みの最大プーリング)を示す。また,first $(i)$ は単語 $w_{i}$ を含むスパンの先頭位置を示す3)。なお,初期位置 $i=1$ については,直前の位置の固有表現ラベル $y_{0}$ にはスパンでないことを示すラベルである Outside(0)を用い, $\boldsymbol{e}_{w_{0}}$ には零ベクトルを用いる. 単語 $w_{i}$ の固有表現ラベルを予測するために用いる確率分布 $\hat{\boldsymbol{y}}_{i}$ は,全結合層とソフトマックス関数 $\sigma$ を用いて計算する。 $ \hat{\boldsymbol{y}}_{i}=\sigma\left(\boldsymbol{W}^{(\mathrm{ent})} \boldsymbol{h}_{i}^{(\mathrm{ent})}+\boldsymbol{b}^{(\mathrm{ent})}\right) $ $\hat{\boldsymbol{y}}_{i}$ から確率が最大となるラベルを選ぶことで,行列の対応する成分 $\boldsymbol{Y}_{i, i}\left(=y_{i}\right)$ を埋める. 提案手法は,行列の対角成分 $\boldsymbol{Y}_{i, i}$ を $i=1$ から $i=n$ まで埋めることによって,固有表現抽出を行う。 ## 2.3 関係抽出 関係抽出は $\$ 2.2$ の予測結果に基づいて行う. 関係抽出器は,行列の対角成分に埋められた固有表現のラベル情報を用いて,非対角成分を同時に予測する. 各単語対の関係ラベル空間においての確率分布は,内積を用いて計算する4)。 単語 $w_{i}$ に対し,関係の予測で用いる埋め込み $\boldsymbol{h}_{i}^{(\mathrm{rel})}$ は,固有表現のスパンの埋め込み $z_{i}$ と固有表 3)例えば,図 2 で示した文を処理する際に,「John Smith」は 2 単語から構成されるスパンが固有表現として識別されるため, first $(1)=$ first $(2)=1$ である. 4)Deep Bi-affine Attention [12,13] を用いた計算と比較した結果,内積だけで十分であることを事前の実験からわかった。 現のラベルの埋め込み $l_{y_{i}}$ の連結 $(\oplus)$ である. さらにスパンの埋め込み $z_{i}$ は,単語 $w_{i}$ に対応するスパン範囲の全ての単語埋め込みから計算する。 $ \begin{gathered} \boldsymbol{h}_{i}^{(\mathrm{rel})}=z_{i} \oplus \boldsymbol{l}_{y_{i}} \\ z_{i}=f\left(\boldsymbol{e}_{w_{\text {first }(i)}}, \cdots, \boldsymbol{e}_{w_{i}}, \cdots, \boldsymbol{e}_{w_{\text {last }(i)}}\right) \end{gathered} $ ここで last $(i)$ は $\$ 2.2$ で定義された first $(i)$ と同様に,単語 $w_{i}$ を含む固有表現のスパンの末尾位置を示す. つまり, $z_{i}$ は first $(i)$ から last $(i)$ までの単語の埋め込みの最大プーリングである. 関係の予測を行うために, $\boldsymbol{h}_{i}^{(\text {rel) }}$ に対して,行列 $\boldsymbol{W}_{r}^{(q)}, \boldsymbol{W}_{r}^{(k)} \in \mathbb{R}^{d_{\text {att }} X d_{\text {rel }}}$ とバイアス $\boldsymbol{b}_{r}^{(q)}, \boldsymbol{b}_{r}^{(k)} \in \mathbb{R}^{d_{\text {att }}}$ を用いた線形変換を行う. $ \begin{aligned} & \boldsymbol{q}_{i, r}=\boldsymbol{W}_{r}^{(q)} \boldsymbol{h}_{i}^{(\mathrm{rel})}+\boldsymbol{b}_{r}^{(q)} \\ & \boldsymbol{k}_{i, r}=\boldsymbol{W}_{r}^{(k)} \boldsymbol{h}_{i}^{(\mathrm{rel})}+\boldsymbol{b}_{r}^{(k)} \end{aligned} $ ただし, $d_{\mathrm{rel}}$ は $\boldsymbol{h}_{i}^{(\mathrm{rel})}$ の次元数, $d_{\mathrm{att}}$ は変換後の次元数である. 全ての $r \in \mathscr{R}$ と $i \in\{1, \cdots, n\}$ を集めたテンソルを $\mathrm{Q} \in \mathbb{R}^{n \times|\mathscr{R}| \times d_{\text {att }}}$ と $\mathrm{K} \in \mathbb{R}^{n \times|\mathscr{R}| \times d_{\text {att }}}$ とする. $ \begin{aligned} & \mathrm{Q}_{i, r,:}=\boldsymbol{q}_{i, r}=\boldsymbol{W}_{r}^{(q)} \boldsymbol{h}_{i}^{(\mathrm{rel})}+\boldsymbol{b}_{r}^{(q)}, \\ & \mathrm{K}_{i, r,:}=\boldsymbol{k}_{i, r}=\boldsymbol{W}_{r}^{(k)} \boldsymbol{h}_{i}^{(\mathrm{rel})}+\boldsymbol{b}_{r}^{(k)} . \end{aligned} $ 各単語対 $\left(w_{i}, w_{j}\right)(1 \leq i<j \leq n)$ に対する関係空間 $\mathscr{R} て ゙$ 確率分布は,内積とソフトマックス関数により計算する ${ }^{5)}$. $ \hat{\boldsymbol{y}}_{i, j}=\sigma\left(\mathbf{Q K}^{\top}\right)_{i, j,:} \cdot $ $\hat{y}_{i, j}$ から確率が最大となるラベルを選び,行列で対応する要素 $\boldsymbol{Y}_{i, j}$ に埋めることによって,関係を特定する。提案手法は式 (10)を用いて,非対角成分を一斉(独立)に埋めるため,関係の予測結果の間に依存関係がない。なお,学習時には式 (5)を以下のように置き換えることで,学習が安定することが経験的にわかっている. $ z_{i}=\boldsymbol{e}_{w_{i}} $ これにより,単語単位で誤差逆伝播を行うことができ,プーリング操作による複雑なパラメータ更新を避けることでモデルの性能向上に寄与する。 ## 2.4 学習と予測 固有表現抽出と関係抽出の交差エントロピーの総和を損失関数とする。固有表現抽出では Zhang & 67.8 \\  表 1 固有表現抽出と関係抽出の実験結果. NER は固有表現抽出の結果,RE は固有表現ラベルを用いない関係抽出の結果,RE+は固有表現ラベルを用いた関係抽出の結果である。†は BERT-base,‡は BERT-large,。は ALBERT ら [6] に倣い,学習時は正解のスパンとラベルを使い,予測時は貪欲法で得られたスパンとラベルを用いる。関係抽出では,学習時と予測時のいずれも固有表現抽出器が予測したスパンとラベルを用いる。 ## 3 実験と考察 ## 3.1 実験結果 提案手法の性能を確かめるために, CoNLL04 [10] と ACE05 の 2 つのデータセットで実験し,その性能を表 1 に示した. 実験結果から,提案手法は関係抽出(REと $\mathrm{RE}+$ )において,両データセットの最高性能モデルに匹敵する性能を持つことを確認した。特に,提案手法と同じくBERT をエンコーダとして用いる Eberts と Ulges の手法 [7] や Wadden らの手法 [17] の性能を上回ることから,提案手法の構造が性能向上に寄与することが確かめられた. Wang と Lu [4] の手法は ALBERT [19] をエンコーダとして使うことで高い性能を達成しているが,エンコーダを BERT に揃えると,提案手法と同等の性能であった. ところが,ACE05 での固有表現抽出(NER)において,提案手法は比較手法である Wadden らの手法 [17] より低い精度を示している。これは比較手法が文書単位を入力とし, [SEP] で分割された複数の文に対して予測を行うため,文単位で予測を行う提案手法と実験設定が異なるからである。提案手法の固有表現抽出器に文書単位の入力を与えると,性能 表 2 文書単位で固有表現抽出を行う実験の結果(ACE05 表 3 デコーディング順序に関する対照実験の結果 (CoNLL04 テストデータ).全ての関係を一斉に予測するモデルと,順序を考慮して予測するモデルを比較する。 が比較手法に匹敵することを表 2 に示した. ## 3.2 デコーディング順序による影響 Table-Filling を用いた既存手法は予め定義された順序に従い,モデルの出力結果を考慮しつつ,表をセルごと埋める $[3,5,6]$. これらの研究は前の予測結果が以後の予測に役立つと仮定しているが,提案手法では内積で表の非対角成分をまとめて予測するため,各セルの予測は互いに独立である。 提案手法においてデコーディング順序を考慮する必要がないことを示すために,順序を考慮してデコーディングを行う実験設定での性能を確認する. 具体的には,単語対 $\left(w_{i}, w_{j}\right)$ の関係を予測する時に, 左のセル $\left(w_{i}, w_{j-1}\right)$ と下のセル $\left(w_{i+1}, w_{j}\right)$ の情報を用いる。これにより,表の左下から右上へと順番にデコーディングを行う手法を用意し,その性能を表 3 に示した. 実験結果より,デコーディング順序を考慮することによる性能向上は得られなかった.これは, BERT が長距離の依存関係を考慮して入力文をエンコードするため,前の予測結果を考慮して逐次的に予測を行う必要が無くなったためと考えられる. ## 3.3 同時学習による影響 既存研究は,固有表現抽出と関係抽出の同時学習はタスク間の依存関係を暗黙的にモデル化し,全体の性能に寄与すると報告している $[8,20,21]$. 提案手法において両タスクを同時にモデル化するメリットはどのくらいあるのだろうか?そこで,固有表現の認識結果から,固有表現のセグメント情報やカテゴリ情報を隠したとき,関係抽出の性能がどのような影響を受けるのかを調査した,具体的には,固有表 4 固有表現抽出器の学習・予測設定を変更することによる関係抽出器の性能変化 (CoNLL04テストデータ). 「Seg.」はセグメント情報,「Cat.」はカテゴリ情報を示す. また,+は固有表現のラベルをランダムに選んだ結果, は正解の固有表現のラベルを使った結果である. 表現ラベル(例:B-PER)から,セグメント情報だけを残したり(例:B),カテゴリ情報(例:PER)だけを残して,関係抽出器の性能を測定した(表 4). 従来,固有表現抽出の性能が関係抽出の性能に影響を与えると考えられてきたが,提案手法では,カテゴリを用いずにセグメントだけを利用して関係抽出モデルの学習や予測を行っても,性能に大きな差は現れないことが分かった.これは BERTをエンコーダとして用いたため, 固有表現のカテゴリは埋め込みから推測可能な場合が多く,カテゴリ情報を明示的に与えなくても関係が予測できてしまったためと考えられる.また,予測時に固有表現のセグメントのラベルをランダムに書き換えた場合は,固有表現のスパンの情報が得られなくなり,関係抽出の性能低下を引き起こす。一方で,正解のスパンを関係抽出器に与えると,大幅な性能向上が見られる. さらに,固有表現抽出器の学習を加えることで,性能が向上した。これは関係抽出器にとって,固有表現の正確なスパン情報が重要であること,固有表現抽出の学習を行うことによる BERT の単語埋め込みの改善が得られることを示唆している. ## 4 おわりに 本研究では,Table-Filling に基づき,固有表現と関係を同時に抽出するモデルを提案した。文脈を考慮した単語埋め込みの活用により, 従来手法の特徴量選択とデコーディング順序に関する課題を撤廃できることを示した.実験結果により,提案手法は CoNLL04 [10] と ACE05 の 2 つのデータセットで最高性能に匹敵する性能を示すことを確認した. 謝辞この成果は、国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)の委託業務 (JPNP18002)の結果得られたものです。 ## 参考文献 [1] Dmitry Zelenko, Chinatsu Aone, and Anthony Richardella. Kernel methods for relation extraction. Journal of Machine Learning Research, Vol. 3, p. 1083-1106, 2003. [2] GuoDong Zhou, Jian Su, Jie Zhang, and Min Zhang. Exploring various knowledge in relation extraction. In Proceedings of the 43rd Annual Meeting of the Association for Computational Linguistics (ACL), pp. 427-434, 2005. [3] Makoto Miwa and Yutaka Sasaki. Modeling joint entity and relation extraction with table representation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1858-1869, 2014. [4] Jue Wang and Wei Lu. Two are better than one: Joint entity and relation extraction with table-sequence encoders. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1706-1721, 2020. [5] Pankaj Gupta, Hinrich Schütze, and Bernt Andrassy. Table filling multi-task recurrent neural network for joint entity and relation extraction. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers (COLING), pp. 2537-2547, 2016. [6] Meishan Zhang, Yue Zhang, and Guohong Fu. End-to-end neural relation extraction with global optimization. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1730-1740, 2017. [7] Markus Eberts and Adrian Ulges. Span-based joint entity and relation extraction with transformer pre-training. In 24th European Conference on Artificial Intelligence (ECAI), 2020. [8] Ying Lin, Heng Ji, Fei Huang, and Lingfei Wu. A joint neural model for information extraction with global features. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 7999-8009, 2020. [9] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (NAACL), pp. 4171-4186, 2019. [10] Dan Roth and Wen-tau Yih. A linear programming formulation for global inference in natural language tasks. In Proceedings of the Eighth Conference on Computational Natural Language Learning (CoNLL-2004) at HLT-NAACL 2004, pp. 1-8, 2004. [11] Lev Ratinov and Dan Roth. Design challenges and misconceptions in named entity recognition. In Proceedings of the Thirteenth Conference on Computational Natural Language Learning (CoNLL-2009), pp. 147-155, 2009. [12] Timothy Dozat and Christopher D. Manning. Deep biaffine attention for neural dependency parsing. In International Conference on Learning Representations (ICLR), 2017. [13] Dat Quoc Nguyen and Karin Verspoor. End-to-end neural relation extraction using deep biaffine attention. In Proceedings of the 41st European Conference on Information Retrieval (ECIR), 2019. [14] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems (NeurIPS), pp. 5998-6008, 2017. [15] Xiaoya Li, Fan Yin, Zijun Sun, Xiayu Li, Arianna Yuan, Duo Chai, Mingxin Zhou, and Jiwei Li. Entity-relation extraction as multi-turn question answering. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 1340-1350, 2019. [16] Kalpit Dixit and Yaser Al-Onaizan. Span-level model for relation extraction. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 5308-5314, 2019. [17] David Wadden, Ulme Wennberg, Yi Luan, and Hannaneh Hajishirzi. Entity, relation, and event extraction with contextualized span representations. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 5784-5789, 2019. [18] Yijun Wang, Changzhi Sun, Yuanbin Wu, Junchi Yan, Peng Gao, and Guotong Xie. Pre-training entity relation encoder with intraspan and inter-span information. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1692-1705, 2020. [19] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. In International Conference on Learning Representations (ICLR), 2020. [20] Makoto Miwa and Mohit Bansal. End-to-end relation extraction using LSTMs on sequences and tree structures. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 1105-1116, 2016. [21] Mandar Joshi, Danqi Chen, Yinhan Liu, Daniel S. Weld, Luke Zettlemoyer, and Omer Levy. SpanBERT: Improving pre-training by representing and predicting spans. Transactions of the Association for Computational Linguistics (TACL), Vol. 8, pp. 64-77, 2020. [22] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, and Jamie Brew. Huggingface's transformers: State-of-the-art natural language processing. CoRR, Vol. abs/1910.03771, , 2019. [23] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In International Conference on Learning Representations (ICLR), 2019. [24] Qi Li and Heng Ji. Incremental joint extraction of entity mentions and relations. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (ACL), pp. 402-412, 2014. [25] Yi Luan, Dave Wadden, Luheng He, Amy Shah, Mari Ostendorf, and Hannaneh Hajishirzi. A general framework for information extraction using dynamic span graphs. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (NAACL), pp. 3036-3046, 2019. ## A 実験設定 提案手法は HuggingFace Transformers [22] 用いて実装し, NVIDIA Tesla V100(16 GiB) で実験を行った. 本稿で報告された全ての実験結果は,5つの異なるランダムシードを用いて学習を行い,その平均値である. なお,モデルには事前学習済みのパラメータとランダムな初期状態にあるパラメータが両方存在するため,一様な学習率を設定することはモデルの訓練において不適切だと考えられる。よって, Wadden ら [17] に倣い, 両抽出器と事前学習済みの BERT モデルを異なる学習率を用いて訓練する。訓練時のパラメータ更新は,AdamW [23]を用いる。 ## A. 1 データセット データセットの分割などの前処理と実験設定は既存研究に従う. CoNLL04 固有表現が 4 種類,関係が 5 種類定義されている. Eberts と Ulges [7] と Gupta ら [5] の分割に従い,まずデータセットを訓練・検証・テストデータに分け,訓練データと検証データで八イパー パラメータを選択する。次に訓練データと検証デー タをあわせて訓練を行い,得られたモデルの性能をテストデータを用いて評価する $[3,6,24]$. ACE05 固有表現が 7 種類, 関係が 6 種類定義されている. Wadden ら [17] の前処理スクリプト6)を用いることにより, 既存研究と同じ分割を作成し 要素として記述された箇所を固有表現のスパンとして扱う $[8,20,24,25]$. ## A. 2 ハイパーパラメータ 提案手法により導入されたハイパーパラメータとその値を表 5 に示す。ハイパーパラメータの選択は,それぞれのデータセットの検証データを用いて行う. ただし, 訓練時に使われたスケジュー ラーは,まず学習率をゼロから表に示した値まで $\{$ ウォームアップ期間 $\} \times\{$ エポック数 $\}$ のエポックをかけて線形に上昇させ,次に余弦関数で減衰させるものである.表 5 ハイパーパラメータの概要 表 6 アブレーションスタディの結果(CoNLL04 テストデータ).「-ラベル」は式 2 と式 4 からラベルの埋め込みを削ったモデル,「-スパン」は式2からスパンの埋め込みを削ったモデル,「-両方」は両方を削ったモデルを示す. ## B 特徴量による影響 提案手法で特徴量として用いたスパンの埋め込みとラベルの埋め込み(式 2 と式 11)がモデルに与える影響を調べるために,各埋め込みを削った場合の実験を行い,結果を表 6 に示す. 式 2 からスパンの埋め込み $f\left(\boldsymbol{e}_{w_{\text {first }(i-1)}}, \cdots, \boldsymbol{e}_{w_{i-1}}\right)$ を削る目的は,スパン単位のパラメータ更新を防止し,スパンの埋め込み表現を学習させないことである. スパンの埋め込み表現を学習させないことにより, 関係抽出器の性能低下が表 6 から見られた. これはスパンの埋め込みが提案手法において重要であることを示し, 83.3 の結論を裏付ける結果だと考えられる。 6) https://github.com/dwadden/dygiepp
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C7-4.pdf
# 業績要因の極性付与を目的とした文の区切り位置推定 高野海斗 成蹊大学 dd186201@cc.seikei.ac.jp 酒井浩之 成蹊大学 h-sakai@st.seikei.ac.jp 中川慧 野村アセットマネジメント株式会社 k-nakagawa@nomura-am.co.jp ## 1 はじめに 近年,機械学習などの手法が注目を集め,様々な分野への応用研究が活発に行われている. 金融業界でも人工知能分野の手法や技術を金融市場における様々な場面に応用することが期待されており,膨大な金融情報を分析し投資判断を支援する技術にも注目が集まっている $[1,2,3]$. 一般に金融テキストには結果(事実)と評価が混在している。例えば,「今期の $\left.\mathrm{EPS}^{1}\right)$ は 100 円であり,経営努力が実った.」と「今期の EPS は 100 円であり,経営陣の見通しの甘さが露呈した.」というテキストには,今期の EPS は 100 円であるという同一の結果を両方とも伝えているものの,評価は正反対の内容を伝えている.このように,金融では同一の結果に対してどのような評価,すなわち極性を付与するかという点に市場あるいは投資家のセンチメントが含まれる。また結果を表す情報は財務デー タあるいは経済データが多く,定量的に取得・分析できるのに対して,評価情報はテキストにのみ存在する情報である。このように,金融テキストの極性付与は投資意思決定において重要なタスクである. しかしながら,既存の金融テキストへの極性付与は,極性語とその極性値が組となった極性辞書を用いたものが多い [4]. 極性辞書を用いた文への極性付与の問題点としては,文脈を考慮せずに極性値によるスコア付けが行われる点である.例えば,「コロナ感染者数の増加 (2.312) に伴い、売上高は減少 (-1.998)いたしました。のような文の極性は, 0.314 (ポジティブ)となるが,明らかにネガティブな文である.例に挙げたように,何が増加したかによって,「増加」のスコアを変化させるべきだが,一般  的な極性辞書は,そのような問題に対処できない。解決策として,「感染者数の増加 (-1.315)」,「売上の増加 (3.312)」のように表現を拡張した辞書を作成することが挙げられる [5]. しかし,全ての表現を辞書で作成することは困難であり,類似表現に対しても,辞書に登録されていなければ極性を付与できない問題がある。また,表現を拡張できたとしても,「見込んでいた売上減少はなかったものの、」のうな否定表現などに対応できないことも問題点として挙げられる。 したがって,これらの問題に対処するために,文脈を考慮した上で文に対して極性付与を行うことが必要である。しかし,極性辞書を用いた文の極性付与に対して,深層学習モデルなどを用いて文に極性付与を行う場合には,解釈性の問題が残る [6]. そこで,入力文全体に対して極性を付与するのではなく,ポジティブなことが記述されている部分, ネガティブなことが記述されている部分,結果について記載されている部分に分割し,その上で分割した各部分に対して極性付与を行うことが可能なモデルの作成を研究目標とする。文を分割し,極性付与を行うイメージは以下の通りである。 最終的な研究目標 (+2.5) 収益合計は、投資信託ビジネスや投資顧問ビジネスでの資金流入が運用資産残高の拡大に寄与し、(+0.5) 引き続きビジネスは堅調だったものの、(-25.0) アメリカン・センチュリー・ インベストメンツ関連損益が収益を押し下げました。 短く分割した各部分に対して,文脈を考慮し極性を付与することで,文全体に極性付与を行うよりも,解釈性の高い出力を得ることが可能となる. そのための第一段階として,本研究では,文を分割することが可能であるかの検討を行った.具体的には, 高野らの研究 [7] で抽出した業績要因文 ${ }^{2}$ に対して,人手で文を分割するための正解 Tag をアノテーションし (111 文), 事前学習済みモデルである BERT と BiLSTM モデルを組み合わせたモデルの学習を行い,このモデルを用いることで分割が可能であることを示した. ## 2 文の区切り位置と定義 本研究では,業績要因文をポジティブな要因が記述されている部分,ネガティブな要因が記述されている部分,結果について記載されている部分に分けることが目的である。まず,本研究で扱う業績要因文は以下のような文を指す。 業績要因文の例 広州においては、年間を通して生産活動に変動はあったものの、全体としては生産活動が好調に推移したことから、売上高は前年同期を上回る状況で推移いたしましたが、償却費及び労務費などの固定費の負担が増加したことにより利益は前年同期を下回る状況で推移いたしました。 本研究の目的は,上記のようなテキストを入力とし,以下に示すような分割を行うことが可能なモデルを学習させることである. ## 業績要因文の分割例 [B_Cause_Nega] 広州においては、年間を通して生産活動に変動はあったものの、 [E_Cause_Nega] [B_Cause_Posi] 全体としては生産活動が好調に推移したことから、 [E_Cause_Posi] [B_Result] 売上高は前年同期を上回る状況で推移いたしましたが、[E_Result] [B_Cause_Nega] 償却費及び労務費などの固定費の負担が増加したことにより [E_Cause_Nega] [B_Result $]$ 利益は前年同期を下回る状況で推移いたしました。[E_Result] 文の区切り位置は,語尾を変更し,接続詞などの表現を用いることで,文をつなぎ直すことが可能になる位置とする。例えば,上記の文であれば,「〜 2)企業を分析するにあたり,企業が公開している金融テキス卜に含まれる業績要因についての記載は,特に重要な情報であり,これらの文を本研究では業績要因文と呼ぶ [8].変動はあったものの、全体としては〜」は,「〜変動があった。」,「しかし,全体としては〜」と変更することが可能であるため,区切り位置となっており,「〜が増加したことにより利益は〜」は,「〜が増加した。」,「その結果、利益は〜」と変更することが可能であるため,区切り位置となっている。また,本研究では分割の際に,文の分割した部分が,1.「ポジティブな要因が記述されている」,2.「ネガティブな要因が記述されている」,3.「結果について記載されている」のいずれかに分類も行う. 本研究では,学習データを人手にてアノテーションすることで作成する.そのために,まず学習デー タとなる業績要因文に対して Tokenizerを使用し, Token に分割する3). Token に分割した学習データに対して,人手でアノテーションした例を付録の表 3 に示す. 次に,本研究で使用する Tag について説明する.本研究で使用する Tag は,以下の9つである. CLS: 文の開始位置 SEP: 文の終了位置 B_Cause_Posi: ポジティブ要因の開始位置 E_Cause_Posi: ポジティブ要因の終了位置 B_Cause_Nega: ネガティブ要因の開始位置 E_Cause_Nega: ネガティブ要因の終了位置 B_Result: 結果についての記載の開始位置 E_Result: 結果についての記載の終了位置 Other: 上記以外 これらの Tag を用いることで,分割位置を推定し,分類も同時に行う. 結果についての記載に関して,ポジティブとネガティブを付与しなかったのは,「売上高は○○百万円でした。のような記述において,企業の規模によって同じ金額でもポジティブ・ネガティブが異なり,判断が難しいためである. ## 3 関連研究 文を分割するための研究は,文の自動要約に関する分野で研究が行われている。例えば,大野らは,学生のレポートが読みにくくなっている原因の一つに,修飾節が連なることによる文の長文化を挙げており,この長文を機械的に短文に変換する研究を行っている [9]. この研究では,文の修飾節として補足節・連体節・副詞節を自動的に判定する方法を 3)本研究では,東北大学の乾研究室が公開している学習済み BERT を使用するため,それに合わせた Tokenizer を使用した. 提案している。また,金融テキストと同様に,長文が多く出現するテキストとしてニュース原稿がある.ニュース原稿は,そのまま字幕にすると長すぎ場合が多い. そこで,自動的に長文を複数の短文に分割する研究が行われている $[10,11]$. これらの文分割の先行研究と本研究の大きな違いは, 品詞情報を利用していない点である. 入力となる文が業績要因文に限定されていることや,大量の教師なしデータを用いた事前学習済みモデルにより,同じような文脈で出現する Token に対しては似たような分散表現が与えられている可能性が高く,人手にて少量の学習データを作成することで,品詞情報を考慮しなくても分割が可能である. また, 本研究はセンチメント分析の一環でもある [12]. 極性付与を行う方法の一つには,1 章でも述べたように極性辞書を用いた方法があるが,広く利用されている一般的な極性辞書 (Harvard-IV-4 TagNeg)に含まれるネガティブ表現が,金融の分野において, 約 4 分の 3 も該当しないことを示した研究もある [13]. したがって, センチメント分析を行うためには,その目的に特化した極性辞書や極性付与モデルを使用する必要がある. 多くの金融極性辞書は,市場分析を目的に作成されているが,本研究では,企業の業績状況の分析に特化した極性付与を可能にすることを最終目標としている. ## 4 使用するデータ 本研究で扱う業績要因文は,高野らの手法 [7] を用いて,有価証券報告書から抽出したものを使用する.この業績要因文には,事業セグメントと業績結果文 ${ }^{4}$ が紐づいてる. 本研究では, 人手で作成可能な少量の学習データで学習を行う必要がある. そこで,学習データを少しでも多様性のあるものにするために,アノテーションを行う業績要因文の事業セグメントが一致しないように,ランダムサンプリングを行うことで,似たような事業に関する業績要因文が学習データに含まれないようにする工夫をしている. ランダムサンプリングした業績要因文に対して, アノテーションを行い,111 文の学習データを作成した. アノテーションは,付録の表 3 に示したように, 分割部分の先頭の Token と最後の Token に対して,Tag 付けを行った. また,学習データで用意したデータとは別に,評  価を行うためのテストデータを人手にて,20 文作成した。学習データと似たような業績要因文になることを避けるために, 学習データに使用した業績要因文とは,付与されている事業セグメントが異なる業績要因文を対象にした. ## 5 使用するモデル 本研究では,人手で学習データを作成するため,大量のデータを生成できない. そこで,少量のデー タを Fine Tuning することで良好な結果が得られることが報告されている事前学習済み BERTを利用する [14]. 事前学習済み BERT は, 東北大学の乾研究室が公開しているものを使用した ${ }^{5)}$. BERT は,Transformer の Encoder 部分を重ねたモデルであり, Transformer 層が全 12 層ある. 本研究では,入力層から前半 6 層までのパラメータを固定した上で,後半 7 層から 12 層のパラメータを Fine Tuning することにした. ## 5.1 Simple BERT Model 事前学習済み BERT に対して,Token に分割した業績要因文を入力し, BERT の最終層からの各 Token の出力 768 次元に対して, 線形変換を行うことで, Tag の推定を行うシンプルなモデルを Simple BERT Model とする. モデルのイメージ図を付録の図 1 に示す. ## 5.2 BERT BiLSTM Model 入力文に対して,Tag 付けを行うことで固有表現抽出を行う研究では, 回帰型の深層学習モデルである LSTM などが有効であることが多い $[15,16]$. そこで本研究では,事前学習済み BERT に対して, Token に分割した業績要因文を入力し,BERT の最終層からの各 Token の出力を, BiLSTM モデル6)入力し, その出力に対して線形変換を行うことで, Tag の予測を行うモデルを BERT BiLSTM Model とする7). モデルのイメージ図を付録の図 2 に示す. ## 6 モデルの学習 モデルの学習は, $\mathrm{K}$ 分割交差検証法 (K-Fold Cross Validation) で行った. 本研究では $K=10$ とし, 学習データをランダムに 10 分割し, 9 割を訓練デー  表 $1 \mathrm{~K}$ 分割交差検証の結果 タ,1割を検証データとしてモデルを学習させた。 エポック数は 100 回とし,モデルの評価指標は, Macro-F1 と Micro-F1 を計算し,どのエポックのモデルを保存するかは,Macro-F1 が一番高いものを選択する8). Macro-F1を評価指標に使用した理由は,「Other」の Tag 割合が他の Tag に比べて非常に多いため,全ての予測を「Other」にすることで,スコアが高くなってしまう評価指標である Accuracy よりも,良好なモデルを選択できる可能性が高いからである.また, Micro-F1 は,Tag の割合が大きい Tag の影響を受けやすいため,Macro-F1 を評価指標に採用した. loss を計算するための損失関数は,多クラス分類であるためクロスエントロピーを使用した。しかし,前述した通り,「Other」の Tag 割合が他の Tag に比べて非常に多い不均衡なデータであるため,loss の計算では,学習データに付与された Tag の出現頻度によって重み付けを行った。 最適化関数は Adam を使用し, lr(学習率)以外はデフォルトのまま使用した. $1 \mathrm{l}$ の值は, 出力層に近い層を大きく設定し,入力層に近い層は小さく設定した。これは,学習済みモデルである BERT の Transformer 層のパラメータを微調整しつつ,ランダムに初期値を決めている最終層の線形変換や, BiLSTM 層のパラメータを重点的に学習させるための工夫である.詳細な $\operatorname{lr}$ の値については,付録の表 4 に示す. モデル学習時の検証データによる各モデルの評価を平均した結果を表 1 に示す. ## 7 評価 学習したモデルの性能を評価するために,人手で作成したテストデータを用いて評価を行った. 学習データを 10 分割して,交差検証を行っていることから,同じ数のモデルが存在するため,各モデルに対して,テストデータを入力し,各モデルの出力結果の多数決で Token に対する Tag の決定を行った. 評価結果を表 2 に示す。また,BERT BiLSTM Model に業績要因文を入力し得られる結果を付録 8) Macro-F1の值が同一の場合は,エポック数の少ないものを選択する。 ## (A.1)に示す. ## 8 考察 表 1 に示した交差検証の結果と表 2 に示した評価結果から,シンプルな BERT モデルよりも, BiLSTM 層を追加したモデルの方が良好な結果であり,Macro-F1 も 0.924 と良好な結果であった。 正しい Tag の推定が行えなかった業績要因文を確認したところ,付録(A.1)に示した「~労務費が増加したこと等により、」ようなネガティブな分割部分に対して,ポジティブであると誤推定していた. これは,「増加」という単語がポジティブな分割に出現しやすい傾向があることが原因である.本研究で使用した業績要因文は,業績結果文から抽出できる数値情報が紐づいているため,「増加」が含まれているが,業績が前年度から大幅に下がっている業績要因文を抽出し,学習データを増やすことで解決できないか,今後検討を行っていきたいと考えている。また,「減少」が含まれているが,業績が前年度から大幅に上がっている業績要因文など,紐づいている情報などをうまく活用して,意図的に分類が難しい学習データを 100 文ほど増やすことで,推定にどのような影響があるのかの分析も行っていきたいと考えている. ## 9 まとめと今後の展望 本研究によって,少量のデータを人手で作成し,事前学習済みモデルを利用したモデルを用いることで,業績要因文の分割が可能であることを示した。業績要因文は,1文でいくつかの要因について記載されているものが多く,ポジティブなこととネガティブなことの両方が記述されている文も多いが,本研究で学習したモデルを用いることで,それらを分割することが可能である. 本研究で使用した業績要因文は,高野らの研究 [7] で抽出した業績結果文が紐づいたテキストデー タであるため,今後は,これらの業績結果文に含まれる数値情報を目的変数とし,分割したポジティブな記述とネガティブな記述を入力とすることで,入力テキストに対して,極性付与を行うモデルの検討を行っていく予定である。 ## 参考文献 [1] 和泉潔, 松井藤五郎. 金融市場における最新情報技術:8. 金融テキストマイニング研究の紹介. 情報処理, Vol. 53, No. 9, pp. 932-937, 2012. [2] 藏本貴久, 和泉潔, 吉村忍, 石田智也, 中嶋啓浩, 松井藤五郎, 吉田稔, 中川裕志. 新聞記事のテキストマイニングによる長期市場動向の分析. 人工知能学会論文誌, Vol. 28, No. 3, pp. 291-296, 2013. [3] 和泉潔, 坂地泰紀, 伊藤友貴, 伊藤諒. 金融テキストマイニングの最新技術動向 (特集 ai の金融応用 (実践編)). 証券アナリストジャーナル, Vol. 55 , No. 10, pp. 28-36, 2017. [4] Tomoki Ito, Hiroki Sakaji, Kota Tsubouchi, Kiyoshi Izumi, and Tatsuo Yamashita. Text-visualizing neural network model: understanding online financial textual data. In Pacific-Asia Conference on Knowledge Discovery and Data Mining, pp. 247-259, 2018. [5] 今井康太, 酒井浩之, 高野海斗, 北島良三, 未廣徹, 稲垣真太郎, 木村柚里. 債券市場における金融極性辞書の自動構築. 第 25 回金融情報学研究会, pp. 38-43, 2020. [6] David Gunning and David William Aha. DARPA's explainable artificial intelligence program. AI Magazine, Vol. 40, No. 2, pp. 44-58, 2019. [7] 高野海斗, 酒井浩之, 北島良三. 有価証券報告書からの事業セグメント付与された業績要因文・業績結果文の抽出. 人工知能学会論文誌, Vol. 34, No. $5, \mathrm{pp}$. 1-22, 2019. [8] 酒井浩之, 松下和暉, 北島良三. 学習データの自動生成による決算短信からの業績要因文の抽出. 日本知能情報ファジィ学会誌, Vol. 31, No. 2, pp. 653-661, 2019. [9]博之大野, 宏誠稲積. 修飾節に着目した長文における短文化への試み. Technical Report 12, 東京医療保健大学, 青山学院大学, 2020. [10] 福島孝博, 江原暉将, 白井克彦. 短文分割の自動要約への効果. 自然言語処理, Vol. 6, No. 6, pp. 131-147, 1999. [11] 江原暉将, 福島孝博, 和田裕二, 白井克彦. 聴覚障害者向け字幕放送のためのニュース文自動短文分割. Technical Report 65(2000-NL-138), 通信・放送機構/ NHK, 通信・放送機構 / 追手門学院大学, 通信・放送機構, 通信・放送機構/早稲田大学, 2000 . [12] Kumar Ravi and Vadlamani Ravi. A survey on opinion mining and sentiment analysis: Tasks, approaches and applications. Knowledge-Based Systems, Vol. 89, pp. 1446, 2015. [13] Tim Loughran and Bill Mcdonald. When is a liability not a liability? textual analysis, dictionaries, and $10-\mathrm{Ks}$. The Journal of Finance, Vol. 66, No. 1, pp. 35-65, 2011. [14] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, 2019. [15] Mike Schuster and Kuldip K. Paliwal. Bidirectional re- current neural networks. IEEE Transactions on Signal Processing, Vol. 45, No. 11, pp. 2673-2681, 1997. [16] Sepp Hochreiter and Jürgen Schmidhuber. Long shortterm memory. Neural Computation, Vol. 9, No. 8, pp. 1735-1780, 1997. [17] Alex Graves and Jürgen Schmidhuber. Framewise phoneme classification with bidirectional LSTM networks. In Proceedings. 2005 IEEE International Joint Conference on Neural Networks, 2005., Vol. 4, pp. 2047-2052, 2005. [18] Alex Graves, Navdeep Jaitly, and Abdel rahman Mohamed. Hybrid speech recognition with deep bidirectional LSTM. In 2013 IEEE Workshop on Automatic Speech Recognition and Understanding, pp. 273-278, 2013. ## A 付録 ## A. 1 テストデータの出力結果 $\left[\begin{array}{l}\text { 分割に成功した文一 } \\ \text { ・[B_Cause_Posi] 電線事業につきましては、当 } \\ \text { 事業の主要な市場である建設・電販向けの売 } \\ \text { 上は、公共事業・設備投資の持ち直しがみられ } \\ \text { るものの、[E_Cause_Posi] [B_Cause_Nega] 銅価 } \\ \text { 格が前連結会計年度よりも大幅にダウンして } \\ \text { いる影響で [E_Cause_Nega] [B_Result] 売上高は } \\ \text { 5,741百万円 (前年同期比 9.3\%減)と減少しまし } \\ \text { た。[E_Result] } \\ \text { ・[B_Cause_Posi] 電子デバイスにつきまし } \\ \text { ては、マイコンは堅調に推移しましたが、 } \\ \text { [E_Cause_Posi] [B_Cause_Nega] パワー半導体が } \\ \text { 大きく減少しました。[E_Cause_Nega] }\end{array}\right.$ 図 1 Simple BERT Model のイメージ図 図 2 BERT BiLSTM Model のイメージ図 表 4 モデルの各層の学習率
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C8-1.pdf
# 大喜利における回答の面白さに関する定量的分析一お題と回答の意味的類似度からの考察一 戎達也 同志社大学 文化情報学部 cgjb0020@mail4.doshisha.ac.jp } 原 尚幸 同志社大学 文化情報学部 hhara@mail.doshisha.ac.jp ## 1 はじめに 大喜利とは寄席演芸に端を発する芸能の一種である。現在では出されたお題に対して面白い回答を出すという競技としての大喜利が確立されており、趣味として楽しむコミュニティも存在している。 大喜利において評価されるのは、回答がいかに面白いかという点であり、そのためにはお題からどの程度ズレた回答を出すかが肝心であるとされている。このお題からのズレの程度を言語化する際に、大喜利プレイヤーは「お題と回答の距離」という言葉を用いることがある。そして、お題との距離が適切であれば回答が面白くなりやすいという。つまり、お題から飛躍し過ぎた回答は、見ている人からすると意味がわからないため面白くなりづらく、また、お題に素直に答え過ぎるのもクイズのようなものであり、意外性がなく面白くなりづらいというわけである。本研究では、この回答のお題からの距離と面白さの関係について、定量的に考察する。 ## 2 本研究の目的 大喜利においては、多くの場合お題を言い換えただけのような回答だとお題と近く、お題と意味が大きく異なる回答はお題から遠いとされる。そのため、本研究では BERT[1] を用いてお題と回答の文章をべクトル表現に落とし込み、そのコサイン類似度をどれだけお題に近い回答であるかの指標と考元、面白さとの関係を明らかにする。BERTについては、東北大学の乾・鈴木研究室が公開しているモデルを使用した ${ }^{1)}$ 。面白さと発想の飛躍度の関係は、大喜利に限らないユーモアにおける大きな関心事であり、これを明らかにできれば幅広い分野で応用できる可能性がある。また、大喜利経験者とそうでない人との間で、面白い回答が集中している距離が異  なるのかを見ることで、発想の飛躍度と面白さの関係を見る際の面白さの評価が演者と観客のどちらによるものかを考慮する必要性についても考察する。 ## 3 関連研究 大喜利回答の面白さについて自然言語処理を用いて説明する研究として、中川ら [2] がある。中川ら [2] は質問調査で収集した大喜利回答の「お題との関係性」、「わかりやすさ」、「新しさ」に加えて平均単語難易度、トピックベクトル、Word2Vec で算出した文章ベクトルのコサイン類似度から面白さを予測する回帰モデルを作成し、同じく質問調査で収集した「面白さ」の説明を試みるというものであったが、機械的に算出された特徴量の有効性は低かったと述べられている。また、それらの特徴量と各質問項目で強い相関がみられる組み合わせは存在しなかったという。しかしながら、質問調査で収集した特徴量は客観性を欠いており、これらの特徵量の全てに面白さとの強い相関が表れているのも「面白いから新しいのであろう」といった考えの影響を受けている可能性がある。また、中川ら [2] では具体的にどのような回答が面白くなりやすいのかについて触れられておらず、面白さと各要素の関係が示されていない。本研究ではこれらの点を改善し、回答の面白さと、客観的な手掛かりであるお題との文章類似度の関係を明らかにする。 ## 4 分析 ## 4.1 アンケートについて 4 つのお題と各 60 答の回答を作成した。それぞれ 0 点(全く面白くない)から 4 点(とても面白い) の 5 択から回答してもらう形式のアンケート調査を Google フォームを用いて実施した。各回答とお題の文章類似度がお題からの距離を反映していると考 え、面白さとの関係を明らかにする。 ## 4.2 分析手法 笑いのツボ、すなわち採点傾向の特徴を把握することで距離と面白さの評価の関係を確認するために、アンケート協力者ごとの採点を順位データとして扱い、スピアマンの順位相関係数を 1 から引いたものを距離として定義し、階層的クラスター分析を行った。各お題ごとに、ウォード法を用いてアンケート協力者の採点傾向を 5 つのクラスターに分類した。また、採点傾向の違いを明らかにするため、 クラスターごとに、各アンケート協力者ごとに標準化した面白さの点数の平均とお題との文章類似度についてカーネル分位点回帰を推定し、両者の関係について考察を行った。 ## 4.3 分析結果 各お題について先述したクラスター分析を行った。 4 つのお題を順に A,B,C,D と呼ぶことにし、それぞれのお題ごとに採点傾向を 5 つのクラスターに分類した。各クラスターに属するアンケート協力者について、大喜利経験があると回答した人の数、ないと回答した人の数の内訳が以下の表 1 である。お題ごとに有意水準を $5 \%$ としたカイ二乗検定及び残差分析を行い、有意に多かった値の右側には $\mathbf{\Delta}$ を、少なかった値の右側にはマを書いている。 このように、多くの組み合わせで大喜利経験の有無に有意差がみられ、採点傾向の違いの要因のひとつに経験の有無があることが分かった。 4 つのお題それぞれで、クラスターごとに、BERT で求めた文章類似度と面白さの評価について $5 \%$ 点、 50\%点、95\%点でカーネル分位点回帰曲線を推定し、順にプロットした(図 1-20)。回答の面白さの得点は、各アンケート協力者ごとに標準化した得点のクラスターごとの平均を用いている。なお、カーネル関数には anova 関数を使用した。お題ごとに各クラスターの特徴を述べる。 図 1 得点傾向 $(A 1)$ 図 3 得点傾向 (A3) 図 5 得点傾向 (A5) お題 A(夏祭りなのに全然盛り上がらなかった理由)での採点傾向のクラスタリングの結果について述べる。 $A 1$ では $95 \%$ 分位点回帰曲線にお題との文章類似度が 0.67 である「商品が後日届くタイプの屋台ばかりだ」という回答を頂点とする山形が特徴的な採点傾向がみられる。また、 $50 \%$ 分位点回帰曲線にも山形がみられ、お題と回答の距離が比較的評価に影響している様子が表れている。 大喜利経験者の多く属している A2 では 95\%分位点回帰曲線にお題との文章類似度が 0.70 である「デカい屋台が全てを売っている」を頂点とする大きな山形が特徴的な採点傾向が表れており、回答が非常に面白いものになる可能性のある距離が存在する様子が表れている。 $A 3$ でも同じ点を頂点とする山形がみられるが、その傾向は緩やかである。 $A 4$ では $95 \%$ 分位点回帰曲線にお題との文章類似度が 0.69 である「どの屋台でも「逃げろ」と書いた紙を渡される」を頂点とする緩やかな山形がみられるが、全体的には $50 \%$ 分位点回帰曲線において文章類似度が高くなるにつれて評価が下がっていく傾向が見られ、比較的お題から遠い回答を好む傾向のあるクラスターであるといえる。 $A 5$ は大喜利経験のない人が多く含まれるクラスターである。お題との文章類似度が 0.76 である「早朝にやることではない」が最も高い得点となっており、95\% 分位点回帰曲線にも盛り上がりがみられる。また、似た盛り上がりは $50 \%$ 分位点回帰曲線にも表れており、平均的に回答が面白くなりやすいお題からの距離が存在する様子がうかがえる。 図 7 得点傾向 $(B 2)$ 図 8 得点傾向 (B3) 図 9 得点傾向 $(B 4)$ 図 10 得点傾向 (B5) お題 B(店主がバカなペットショップ)での採点傾向のクラスタリングの結果について述べる。 $B 1$ に属している 17 名のうち 15 名が大喜利経験がないと回答している。このクラスターでは回答が面白くなりやすい適切な距離が存在するというより、むしろ最も得点が低かった「犬をつい癖で蹴ってしまい、後悔している」の存在する文章類似度 0.71 の点あたりの面白くなりにくい避けるべき距離が存在す も表れている。 $B 2$ は他のクラスターと比べてお題からの距離の採点への影響が小さい。このクラスターには大喜利経験者が多く属しており、これは大喜利経験者のほうがお題と回答の距離の面白さの評価への影響が小さい可能性を示唆している。 B3 では、お題との文章類似度が 0.71 である「隣の市にも看板を出している」付近を底とする形で評価が下がる谷型と、お題との文章類似度が 0.77 である「鳥のコーナーに chicken と書かれている」付近を頂点とするように評価が上がる山形を合わせたような形がいずれの点での分位点回帰曲線にも表れており、特に評価の高い回答や特に評価の低い回答のみならず全回答に当てはまる採点傾向が表れている。 $B 4$ でも $B 3$ と似た形状が表れているものの、B3 の時ほどはっきりとした表れ方ではなく、面白さの評価への距離の影響が小さいことが分かる。 $B 5$ は $B 2$ に似た得点傾向がみられるクラスターであるが、 $50 \%$ 分位点回帰曲線を見ると $B 2$ よりもお題から近い回答の評価が低くなっている。 図 11 得点傾向 $(C 1)$ 図 12 得点傾向 $(C 2)$ 図 13 得点傾向 $(C 3)$ 図 14 得点傾向 $(C 4)$ 図 15 得点傾向 $(C 5$ ) お題 C(かなり面倒くさい寿司屋)での採点傾向のクラスタリングの結果について述べる。 1 では、 $95 \%$ 分位点回帰曲線に、お題との文章類似度が 0.71 の「板前がお互いをオリンポス十二神から取った源氏名で呼びあっている」と、 0.77 の「店内でカッパ寿司のテーマの逆再生を延々と流している」を頂点とする 2 つの山が連なったような形状がみられる。 C2 には大喜利経験者が多く属している。95\%分位点回帰曲線に、お題との文章類似度が 0.66 である $「 30$ 種類のシャリから選ばされる」と、 0.78 である 「サバ程度でもいちいち解体ショーをやる」を頂点とする 2 つの山が連なったような形状がみられる。文章類似度が低くても評価されている回答もあるものの、 $50 \%$ 分位点回帰曲線に表れているように、お題との文章類似度が高い回答を比較的高く評価する傾向がある。 C4 は大喜利経験者が多く属している。また、 $5 \%$分位点回帰曲線が、お題との文章類似度が 0.78 である「客に仕入れを任せてくる」付近を底とする大きな谷になっており、回答が面白くないものになりやすい避けるべき距離の存在を示唆している。このお題では $C 2$ と $C 4$ に大喜利経験者が多いが、この二つのクラスターで採点傾向は大きく異なり、大喜利経験者であるからといって同じような特徴のある採点をするわけではないことが分かる。 $C 5$ は大喜利経験のない人が多いクラスターである。 $50 \%$ 分位点回帰曲線では 2 つの山形が連なったような形状が確認できるが、 $5 \%$ よび $95 \%$ 分位点回帰曲線にはそのような傾向は見られない。 図 16 得点傾向 $(D 1)$ 図 17 得点傾向 (D2) 図 18 得点傾向 (D3) 図 19 得点傾向 (D4) 図 20 得点傾向 (D5) お題 D(美術館に忍び込んだ泥棒が何も盗まずに帰った理由)の採点についてクラスタリングを行った。D1 には、大喜利経験者が多く属している。D3 と同様にお題との文章類似度が最も高い 0.79 であった「盗んじゃダメなやつしかなかった」が最高得点を獲得しているのが特徴的であるが、 $50 \%$ 分位点回帰曲線のとおり、全体的に文章類似度が高い回答に高得点をつける傾向があるわけではない。 $D 2$ も大喜利経験者が多く属しているクラスター であるが、 $D 1$ と似た特徴が表れることはなかった。 $50 \%$ 分位点回帰曲線にはこのクラスターで最高得点を獲得している「警備員の早歩きがもう「探す」方向性になってる」が存在する 0.76 付近を頂上とするふくらみが見られ、回答が面白くなりやすい距離であると推測される。 $D 4$ は 95\%分位点回帰曲線を見るとお題との文章類似度が 0.70 であった「めちゃくちゃバレていたのか、他の客に「手伝いましょうか?」と声をかけられた」付近を頂点とする山形が表れている。しかし、その付近は $50 \%$ 点および $5 \%$ 分位点回帰曲線では評価が下がっている距離であり、リスキーだがかなり面白い回答になる可能性はある距離である。 $D 5$ には、大喜利経験のない人が多く属している。 お題との文章類似度が 0.71 である「閉館後にも楽しめる作りになっていて普通に楽しめた」が高く評価されており、95\%分位点回帰曲線には多少の盛り上がりもみられるが、 $50 \%$ 分位点回帰曲線を見ると全体的な傾向とはいえないことが分かる。 4 つのお題それぞれについてクラスター分析を 行った結果、どのお題でも大喜利経験の有無の項目について有意差がみられるクラスターが存在した。 これは経験の有無が採点傾向の違いの要因となっているということであり、ユーモアに関する分析を行う際に採点者の属性を考慮する必要があることを示唆している。連続する 2 題の採点を行った協力者がそれぞれのお題でどのクラスターに属しているのかのクロス集計表を作成した(表 2-5)。フィッシャー 正確確率検定で多重比較を行い、p 值が $5 \%$ を下回った組み合わせとなった値の右側に、多い場合は $\boldsymbol{\Delta} 、$少ない場合はマを書いている。 表 2 お題 A とお題 B の & 520 & 15 & 13 \\ 表 4 お題 C とお題 D の 表 3 お題 B とお題 C の } \\ 表 5 お題 D とお題 A の } \\ お題間のクラスターの対応を見たところ、有意差のある組み合わせが多く確認できた。これは、単なるあるお題での採点傾向の近さであるクラスタリングの結果が、他のお題においても似たような結果になるということであり、人それぞれの採点傾向はお題をまたいでも存在することが分かった。しかしながら、あるお題で単純な山形の採点傾向がある人が別のお題でも同様の傾向があるかというと必ずしもそうではなく、お題からの距離と面白さの評価の関係にはお題ごとに違いがあった。 ## 5 おわりに 今回の研究では、多くのクラスターにおいて面白さの評価とお題からの距離に関係が確認され、面白さについて研究する際の文章類似度の有効性が明らかにできた。今後は漫才におけるフリからのボケの飛躍度といったことへの応用可能性も感じられ、今後の自然言語処理を応用したユーモアサイエンスの研究の発展に期待したい。 ## 参考文献 [1]Devlin, J., CHang, M.W., Lee, K and Toutanova K. (2019). Pre-training of deep bidirectional transformers for language understanding. In Proceedings of NAACL-HLT 2019, 4171-4186. [2] 中川裕貴, 村脇有吾, 河原大輔, 黒橋禎夫.(2019). クラウドソーシングによる大喜利の面白さの構成要素の分析, 言語処理学会第 25 回年次大会発表論文集,pp.233-236 ## A 付録 各回答のお題との文章類似度と、アンケート調査によって得られた面白さの評価の詳細についてまとめたのが、以下の表 6 から 9 である。 表 8 お題 C「かなり面倒くさい寿司屋」 表 9 お題 D「美術館に忍び込んだ泥棒が何も盗まずに帰った理由」
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C8-2.pdf
# 議事録の質疑応答の対応関係に基づくクラスタリングによる 議題の抽出 大杉了斗 豊橋技術科学大学 ohsugi.ryoto.dv@tut.jp } 秋葉友良 豊橋技術科学大学 akiba@cs.tut.jp } 増山繁 東京理科大学 masuyama@rs.tus.ac.jp ## 1 はじめに 新型コロナウイルス感染症の流行に伴い, 政府や地方議会の対策をすばやく市民に伝える重要性が高まっている.しかし, 会議内容を要約して市民に伝えるためには, 長い時間や手間を要する.この問題に対処するため, 2020 年開催のワークショップ NTCIR 15 における QA Lab-PoliInfo タスクのサブタスクとして, 新たに Topic Detection タスクが設立された.このタスクの目的は, 東京都議会の議事録から議題の一覧を提示することである. [1] 本稿では,このタスクに取り組んだ手法を提案する. 提案手法は会議の質疑応答の関係に着目し,この関係を利用しない手法に比べ性能が向上していることを示す. ## 2 タスク概要 Topic Detection タスクの目的は, 議事録 (2.1 節) から「議題(トピック)の一覧」を議員ごとに提示することである. どのような粒度のトピックを, どのように提示するかについてはタスクで定められておらず, 出力するトピックの定義は参加者によって異なる. そこで本研究では, 都議会だより (2.2 節) のサブトピックに着目した. 都議会だよりとは, 議会の活動を知らせる広報紙のことで, 新聞折り込みや都の施設, 公共機関空口で配布される. そのため, 都議会だよりのトピックの粒度や提示方法は, タスクの背景である市民に伝えるということに適していると考えられる.また, 都議会だよりは議会職員により人手で作成されているため, 信頼性も高い. よって本研究では, 都議会だよりのサブトピックにできるだけ類似するトピックのリストを出力するシステムの構築を目的とする。 コミュニケーションについてのご質問がございました。¥n 都民が誤った情報に惑わされることなく、感染症を正しく恐れ、予防に向けた適切な行動をとるためには、収集した情報に専門家の知見もいただきながら、わかりやすいメッセージを発信することが重要です。... 図 1 Topic Detection タスクにおける議事録の例 ## 2.1 議事録 Topic Detection タスクにおける議事録1) の例を図 1 に示す. 議事録は会議の発言を書き起こしたもので,会議の日付や会議名に加え, 発話者名と発話内容のペアのリストが含まれる. 会議は質問者がまとめて質問をし, 知事や委員会長が各質問に回答するという一括質問一括答弁方式がとられている。 ## 2.2 都議会だより 都議会だより2) の例を図 2 に示す. 都議会だよりは議事録を要約したもので, 内容はメイントピック,議員名, サブトピックと要約の一覧から構成される. サブトピックは図 2 の「新型コロナ対策」と「災害対策」であり,短いフレーズで表現される。 1) https://www.gikai.metro.tokyo.jp/record/proceedings/ 2) https://www.gikai.metro.tokyo.jp/newsletter/ ## 介護事業者のICT導入支援を 災害時の情報連絡体制の強化を たきぐち学 (都ファースト) 〔1〕都独自で感染拡大のフェーズに応じた公表基準を定めるべき。〔2〕ウィズコロナの介護のあり方を見据えタブレット等介護事業者の ICT導入の更なる強化を。 福祉保健局長〔1〕第二波に備え都の公表基準を整理。〔2〕補助対象を全サービス種別に拡大し補助基準額引き上げ等ICT機器導入促進。 図 2 都議会だよりの例 ## 3 提案手法 提案手法の処理の流れを図 3 に示す. まずは候補となるトピックを抽出する (3.1 節). この候補トピックは大量に抽出されるため, 似た意味を持つ候補卜ピックをまとめるためクラスタリングを行う $(3.2$節). クラスタリングは質問からの候補と回答からの候補を分けて 2 回行う. その後, 互いのクラスタを結合する (3.3 節). 最後に結合したクラスタから最終的に出力するトピックを選択する (3.4 節). ## 3.1 候補トピック抽出 議事録の質問と回答部分から,候補トピックを抽出する. 図 3 における Step 1 の処理である.トピックは「〜について」という語句の前方に存在する場合が多いため, 正規表現を使ってこの部分を抽出する。本研究では,以下の正規表現を使用した. (名詞|接続助詞以外の助詞 $\mid$ 接頭詞 $\mid$ 自立動詞)+について 正規表現の前半部分は, 品詞にマッチする. 品詞の特定には $\mathrm{MeCab}$ [2] を用いた. 品詞部分を抽出し, このフレーズを候補トピックと定義する. また, 候補を区別するため, 質問側から抽出された候補は質問候補, 回答側から抽出された候補は回答候補と定義する. さらに抽出精度を高めるため, 以下のような処理を行った。 - 抽出位置が文頭以外の場合は不適切なトピック 図 3 提案手法の概略 である可能性が高いため,この候補トピックは除外する。 ・単語の区切りとして「,」が使われる場合があるため,「,」の前方の単語が名詞の場合は「,」 を「・」に変換して抽出する。 ## 3.2 クラスタリング 候補トピックをクラスタリングする,図3における Step 2 の処理である. クラスタリングの際に候補トピック同士の比較を行う必要があるため, 前処理として候補トピックを事前訓練済み Sentence BERT(SBERT)[3] の埋め込みに変換する. SBERT は, Siamese Network を組み込んだ BERT モデルで, 意味的に近いデータは埋め込み空間での距離が近くなるように学習されている. そのため, 通常の BERT よりも高い精度で埋め込み間の距離を求めることができる. 本研究では, 事前訓練された日本語用の Sentence BERT モデル [4]を用いた. クラスタリングは質問候 図4 クラスタの結合例 補と回答候補を分けて行う. クラスタリングアルゴリズムには scikit-learn の階層型クラスタリング [5] を用いた. 結合方法はウォード法, メトリックにはコサイン距離を用いた. クラスタ数は距離のしきい值により決定される. 本研究では, 過去の都議会だよりのサブトピック数を参考にして, しきい值を 28.0 に決定した. クラスタ群を区別するため, 質問候補をクラスタリングしたものを質問クラスタ, 回答候補を回答クラスタと定義する. ## 3.3 クラスタ結合 質問クラスタと回答クラスタを結合する. 図 3 における Step 3 の処理である. 結合の例を図 4 に示す. まず,クラスタ数が少ない側(例では質問側)から,最も類似度が高い反対側のクラスタを参照する. 類似度はクラスタの重心のコサイン類似度を用いる。次に, クラスタ数が多い側(例では回答側)のクラスタと,参照されている反対側のクラスタを結合する. この結合したクラスタは, 結合クラスタと定義する. ## 3.4 候補トピック選択 それぞれの結合クラスタから, 出力トピックを 1 つ選ぶ. 図 3 における Step 4 の処理である. 候補卜ピックの埋め込みとクラスタの重心とのコサイン類似度を計算し, 類似度が最も高い候補トピックを選択する. 選択した候補トピックは最終的な出力となりここれを出力トピックと定義する。 ## 4 実験方法 ## 4.1 評価方法 Topic Detection タスクはオープンタスクであり, 評価は行われない. しかし, 入力データに使用した議事録の都議会だよりは既に発行されているため, 人手により評価を行った. 各出力トピックに対して, その 図 5 手法の比較 トピックが都議会だよりに含まれていれば正解, 含まれていなければ不正解を割り当てる. 正解数を力ウントし, Precision, Recall, F 値を計算する.ここで正解数をカウントする際, 同じ内容の出力トピックがあった場合(具体的には, 複数の出力トピックが同じ都議会だよりのサブトピックと関連している場合)は, 1 つとしてカウントする.これはクラスタリングの目的が重複を除去することであり, 重複を正解としてカウントすることは適切でないためである. ## 4.2 分割なしクラスタリング手法 評価結果の比較のため, 質問, 回答を区別せずにクラスタリングする手法も実装した. 提案手法との違いを図 5 に示す. 提案手法では, 候補トピックを質問候補と回答候補に分割して 2 回クラスタリングを実行する. 対してこの手法では, 質問候補と回答候補で分割せずまとめてからクラスタリングを実行する。 ## 5 実験結果 出力例として出力トピックと,それに対応する都議会だよりのサブトピックを表 1 に示す. 出力トピックは都議会だよりとの比較のため, 並び替えている. 評価結果を表 2 に示す。「分割なし」は 4.2 節の手法で,「分割あり」は 3 節の提案手法を表している.質問と回答を分けてクラスタリングした提案手法では, 分けずにクラスタリングした手法と比べて $\mathrm{F}$ 值が 0.44 向上した. 表 1 出力結果の例 & 大会経費の剩余金 \\ 表 2 評価結果 ## 6 考察 提案手法による性能向上の理由として考えられることは,クラスタの質が向上することが挙げられる. 分割なしクラスタリングでは, 一度に入力する候補数が増え, 関連性が低い候補トピックまで同一のクラスタに含まれてしまうことがある.このような候補トピックは重心の値をずらしてしまい, 出力トピックの選択に悪影響を与えてしまう. そこで分割してクラスタリングすることで,このような問題を避けられていると考えられる。 また, どちらの手法でも $\mathrm{F}$ 値が低くなってしまった. Recall に対して Precision が低い值であることから, Precision が F 値を低下させているとわかる. Precision 低下の原因として, 全てのトピックが都議会だよりに掲載されるわけではないということが挙げられる.これにより正解トピック数が減ることで,正解数も減り, Precision が下がってしまう(Recall は正解数を分母に持つため影響を受けない). 都議会だよりのトピックに欠けがある点については, Ogawa ら [6] の論文でも言及されている. Precision の低下は本研究の問題設定によるものであり,これを解決するためにはネットリポート3)などの別の要約データを用いる事が必要である. ## 7 関連研究 トピックに関する研究は多く, 例えばトピックモデルが挙げられる.トピックモデルの実装として LDA[7] が広く使われている. LDA は文書中に存在する潜在的なトピックを, 単語の確率分布として表現するモデルである.このトピックの表現方法が本研究との大きな違いである. LDA におけるトピックは, 具体的なテキスト表現を持たない. 一方で本研究のトピックは, 文書中に出現する具体的なテキストを表現している.このテキストを抽出することが本研究の目的である. 次に, Topic Detection タスクにおける他参加者の研究を紹介する. Ogawa ら [6] は, 本研究と同様に, 都議会だよりのサブトピックのような短いフレーズを抽出している. 本研究との違いは問題設定で, 議論の対象となったトピックを全て抽出するという問題設定になっており, 自動的なクラスタリングは行っていない. Hirai ら [8] は, 単語の共起構造と LDAを用いた手法により,トピックの抽出を行っている。トピックの表現は, 本研究と同様に短いフレーズである.しかし, 都議会だよりのような具体的なターゲットは想定していない. Ibrkチームは, doc2vec による分散表現と k-means によるクラスタリングにより, トピックを抽出している. 本研究とは, 問題設定とトピックの定義が大きく異なる. 問題設定は, あらかじめキーワード(「新型コロナウイルス」など)を設定しておき, それに関する 20 つの単語集合を求めるというものである. また,トピックの表現はフレーズではなく単語集合である。 ## 8 おわりに 本研究では, Topic Detection タスクに取り組んだ手法を提案した. 議事録の関係に着目した手法を提案し, この関係を利用しない手法に比べ性能が向上していることも確認した. 今後の課題は, さらに議事録の特徴に着目し, 議事録上での抽出位置を利用した手法等を検討したい. ## 謝辞 本研究は JSPS 科研費 $19 K 11980$ の助成を受けた.  ## 参考文献 [1]Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, YuzuUchida, Keiichi Takamaru, Madoka Ishioroshi, Teruko Mitamura, Masaharu Yoshioka, Tomoyoshi Akiba, YasuhiroOgawa, Minoru Sasaki, Kenichi Yokote, Tatsunori Mori, KenjiAraki, Satoshi Sekine, and Noriko Kando. Overview of thentcir-15 qa lab-poliinfo-2 task. In Proceedings of The 15th NTCIRConference, 122020. [2]Taku Kudo, Nippon Telegraph, and Telephone. Mecab, 2001. https://taku910.github.io/mecab/. [3]Nils Reimers and Iryna Gurevych. Sentence-bert: Sentence embeddings using siamese bert-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing. Association for Computational Linguistics, 112019. [4]Sentence embeddings with bert \& xlnet, 2019. https:// github.com/sonoisa/sentence-transformers. [5]Clustering — scikit-learn, 2007. https://scikit-learn. org/stable/modules/clustering.html. [6]Yasuhiro Ogawa, Yuta Ikari, Takahiro Komamizu, and Katsuhiko Toyama. Nukl at the ntcir-15 qa lab-poliinfo-2 task. In Proceedings of the 15th NTCIR Conference on Evaluation of Information Access Technologies, 2020. [7]David M. Blei, Andrew Y. Ng, and Michael I. Jordan. Latent dirichlet allocation. In Journal of Machine Learning Research 3, 2003. [8]Yuya HIRAI, Yo AMANO, and Kazuhiro TAKEUCHI. Ntcir15 qa lab-poliinfo2 dialog topic detection based on discussion structure graph. In Proceedings of the 15th NTCIR Conference on Evaluation of Information Access Technologies, 2020.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C8-3.pdf
# 辺編集による文書レベルの関係グラフ構築 牧野晃平 三輪誠 佐々木裕 豊田工業大学 \{sd19446, makoto-miwa, yutaka.sasaki\}@toyota-ti.ac.jp ## 1 はじめに 文献中に記述された情報を抽出して利用する研究が盛んに行われている $[1,2,3]$. 抽出対象の情報は,表形式や用語ペアと関係の集合などのように,目的に応じて様々な形式をとる。これらの情報の抽出にはその形式に適した手法が必要だが,それぞれに特化した手法を作成するのは非効率でコストが高い. 情報を表現する形式の一つとして,グラフ構造がある.グラフ構造は,節点と,節点同士を関連性に基づいて結びつける辺の集合で表現できる形式で,様々な情報を包括的に表現可能な形式の一つである。例えば,表形式であれば,見出しと各セルを節点として,その間を辺で接続して表現できる. このグラフ構造を利用して,文献中から抽出する情報をグラフ構造として扱うことで,様々な情報抽出タスクに利用可能な抽出器が実現できると考えられる。 そこで本研究では, 上記の抽出器作成の第一歩と して,用語が与えられた上での文を超えた文書レべルでの関係分類を対象に,節点が与えられた上でのグラフの構築モデルの実現を目指す. 対象の用語間の関係を,用語を節点・関係を辺としたグラフと捉えることで対象問題をグラフ構造として扱う。 提案手法では,他のシステムで構築されたグラフをもとに,辺を徐々に編集する深層学習モデルを実現する. 既存のグラフの辺を徐々に編集することで,それまでに抽出されている情報をグラフとして利用し, 文脈情報と周囲のグラフ情報を考慮したグラフを構築する。 ## 2 関連研究 ## 2.1 グラフ畳み込みネットワーク Kipf らはグラフ構造の表現獲得のためにグラフ畳み込みネットワーク (Graph Convolutional Network; GCN)を提案した [4]. GCN では,各節点の特徴を 図 1 提案手法の全体像 表すベクトルを用いて,節点の表現を周辺の節点の情報を用いて更新することで,グラフ構造における周辺の情報を考慮した各節点の表現を得る。 ## 2.2 情報抽出 グラフを抽出する類似のタスクとして,関係抽出や時間関係抽出などがある. これらのタスクでは,入力された文中の用語間の関係性を抽出する. Christopoulou ら [1] は用語を節点・関係を辺とした文書単位のグラフを作成し,その辺を分類することで,文間の関係を含む文書単位の関係抽出に取り組んだ. Nan ら [5] は文書単位で用語や単語の潜在的なグラフを構築することで,関係抽出を行った。 Cheng ら [6] は事象それぞれに対して時刻にあわせて動的な表現を利用して時間関係抽出を行った. ## 3 グラフの辺編集モデル 本研究では,用語が与えられた上での文を超えた文書レベルでの関係分類をグラフの構築として定式化する,具体的には,図 1 のように節点が与えられた上で既存のシステムで抽出したグラフの辺を編集 して,文脈上とグラフ上の両者の観点を考慮に入れたグラフを構築する. グラフの辺の編集は, 文脈情報とグラフ構造を考慮したグラフの辺分類モデルによって節点ぺア間の辺のクラスを分類し,その結果で上書きすることで実現する. モデルは文脈情報を導入するために事前学習モデル Longformer [7]を利用して節点の表現を作成する. また,グラフ上で周辺の節点の情報を導入するために,節点の情報を接続している辺に沿って伝搬させる手法である GCNを利用する。 ## 3.1 グラフの辺分類モデル グラフの辺分類モデルとして,グラフの任意の節点ペア間の辺を分類するモデルを提案する. モデルは, 入力として文書の情報 $\operatorname{doc}$ と, 節点が $\mathcal{N} \cdot$辺が E のグラフ,編集対象の節点ペア $\left(\mathcal{N}_{i}, \mathcal{N}_{j}\right)$ を受け取り, 編集対象の節点ペア間の辺のクラス $\hat{\mathscr{E}}_{i j}$ を出力する. ここでは, 文書 doc と節点に対応する用語の情報 $\mathcal{N}$ から各節点の文脈を考慮した表現を得る EncodeNode(doc, $\mathcal{N})$ と, 得られた節点の表現 $\overline{\mathcal{N}}$ を用いて編集対象の辺の表現 $\overline{\mathscr{E}}$ を作成する EncodeEdge $(\overline{\mathcal{N}}, \mathscr{\mathscr { E }})$, そして節点ペア $\left(\mathcal{N}_{i}, \mathcal{N}_{j}\right)$間の辺の表現 $\overline{\mathscr{E}}_{i j}$ から編集後の辺 $\hat{\mathscr{E}}_{i j}$ を出力する EdgeClassifier( $\left.\overline{\mathscr{E}}_{i j}\right)$ に分けて説明する. これらを合わせると以下の式で表せる. $ \begin{gathered} \overline{\mathcal{N}}=\operatorname{EncodeNode}(\operatorname{doc}, \mathcal{N}) \\ \overline{\mathscr{E}}=\operatorname{EncodeEdge}(\overline{\mathcal{N}}, \mathscr{\mathscr { C }}) \\ \hat{\mathscr{E}}_{i j}=\operatorname{EdgeClassifier}\left(\overline{\mathscr{C}}_{i j}\right) \end{gathered} $ 各節点の表現を作成する EncodeNode は,事前学習した Longformer [7] から得られたサブワード単位の表現を用語レベルの表現にまとめるために,サブワードの表現の各次元で最大值をとるプーリング (Pool)をして,用語のラベルの表現 $\boldsymbol{v}^{l a b}$ を結合して表現する. $ \begin{aligned} \overline{\mathcal{N}} & =\operatorname{EncodeNode}(\operatorname{doc}, \mathcal{N}) \\ & =\left[\operatorname{Pool}(\text { Longformer }(\operatorname{doc})) ; \boldsymbol{v}^{l a b}\right] \end{aligned} $ EncodeEdge( $\overline{\mathcal{N}}, \mathscr{E})$ では, EncodeNode によって得られた節点の表現 $\overline{\mathcal{N}}$ から,辺の表現 $\overline{\mathscr{E}}$ 作成する. まず,節点の表現を,GCNによって辺に沿って伝搬させることで,グラフ上での周辺の節点を考慮した節点の表現 $\overline{\mathcal{N}}^{G}$ を計算する. $ \overline{\mathcal{N}}^{G}=\operatorname{GCN}(\overline{\mathcal{N}}, \mathscr{E}) $ ## Algorithm 1: グラフの編集手順 $\operatorname{Distance}\left(\mathcal{N}, d_{1}, d_{2}\right)$ : 距離が $d_{1}$ 以上 $d_{2}$ 未満の節点ペア集合 $\mathscr{P}$ 返す関数 Input: doc:文書, $\mathcal{N}$ : 節点の集合, $\mathscr{E} :$ 辺集合, $d_{\text {max }}$ : 距離の最大值 Output: $\mathscr{E}$ : 辺集合 $\overline{\mathcal{N}} \Leftarrow$ EncodeNode(doc, $\mathcal{N})$ while $d$ in range $\left(\max \left(|\mathcal{N}|, d_{\text {max }}\right)\right)$ do $\overline{\mathscr{E}} \Leftarrow \operatorname{EncodeEdge}(\overline{\mathcal{N}}, \mathscr{\mathscr { C }})$ if $d=d_{\text {max }}$ then $\mathscr{P} \Leftarrow \operatorname{Distance}\left(\mathcal{N}, d_{\text {max }}, \infty\right)$ else $\mathscr{P} \Leftarrow \operatorname{Distance}(\mathcal{N}, d, d+1)$ end if while $(i, j)$ in $\mathscr{P}$ do $\mathscr{E}_{i j} \Leftarrow$ EdgeClassifier $\left(\overline{\mathscr{C}}_{i j}\right)$ end while end while 各辺の表現 $\overline{\mathscr{B}}$ の各要素として, 各節点の組み合わせ $\left(\mathcal{N}_{i}, \mathcal{N}_{j}\right)$ について,その間の辺の表現ベクトル $\overline{\mathscr{E}}_{i j}$ を計算する。この表現は,グラフから得られた表現に,分類に有効となるような人手の特徴べクトルとして,隣接節点を表す表現や節点の始点と終点が文書中でどちらが先に出現するかを表す表現 $\boldsymbol{b}_{i j}$ を結合して作成する. 辺の始点と終点となる節点に対する全結合層をそれぞれ, $\mathrm{FC}^{\text {head }}$ と $\mathrm{FC}^{\text {tail }}$ とすると,以下のように表現できる. $ \begin{aligned} \overline{\mathscr{E}} & =\operatorname{EncodeEdge}(\overline{\mathcal{N}}, \mathscr{E}) \\ \overline{\mathscr{C}}_{i j} & =\left[\mathrm{FC}^{\text {head }}\left(\overline{\mathcal{N}}_{i}^{G}\right) \otimes \mathrm{FC}^{\text {tail }}\left(\overline{\mathcal{N}}_{j}^{G}\right) ; \boldsymbol{b}_{i j}\right] \end{aligned} $ ただし, $\otimes$ は要素積を示す. EdgeClassifier $\left(\overline{\mathscr{C}}_{i j}\right)$ では得られた節点間の表現から, 節点 $\left(\mathcal{N}_{i}, \mathcal{N}_{j}\right)$ 間の辺 $\mathscr{E}_{i j}$ を分類する. 出力の全結合層 $\mathrm{FC}^{\text {out }}$ を用いて,それぞれのクラスの確率 $\hat{\boldsymbol{p}}_{i j}$ を計算し, 最大の確率のクラスを選択して,辺の予測値 $\hat{\mathscr{E}}_{i j}$ を出力する. $ \begin{gathered} \hat{\mathscr{B}}_{i j}=\operatorname{EdgeClassifier}\left(\overline{\mathscr{E}}_{i j}\right)=\arg \max \hat{\boldsymbol{p}}_{i j} \\ \hat{\boldsymbol{p}}_{i j}=\operatorname{Softmax}\left(\mathrm{FC}^{\text {out }}\left(\overline{\mathscr{C}}_{i j}\right)\right) \end{gathered} $ ## 3.2 グラフの編集 グラフの構築は,入力されたグラフの節点ペアの全組み合わせに対して, 3.1 節の辺分類モデルによる分類結果によって徐々に上書きして行くことで実 現する。編集の順序は,近い関係を先に抽出し,遠い問題は後に抽出する近傍優先戦略 $[8,9]$ に基づき,節点の元の用語同士が文書内で近いものから編集を進め,順次,離れた節点同士の編集を行う. 用語の距離は出現順序に基づいて計算する. 例えば文書中で $m$ 番目に出現した用語と $m+3$ 番目に出現した用語同士の距離は 3 とする. 具体的な編集方法をアルゴリズム 1 に示した. 距離が近い節点ペアから順番に,同一距離のペアごとにまとめて, 辺分類器による辺のクラス分類を行い,その出力で上書きをして編集を進める.このように編集を進めることで,すべての辺を独立に編集する場合では $|\mathcal{N}|^{2}$ 回の編集が必要であるのに比べて, $|\mathcal{N}|-1$ 回の編集で行うことができ, さらに上限 $d_{\text {max }}$ を設けることで,編集は $d_{\text {max }}$ 回で完了する. ## 3.3 学習 辺分類モデルの学習は, 正しいグラフが抽出できるように,対数尤度を最大化する. 正解の辺を $\mathscr{E}_{i j}^{g o l d}$, 辺の全クラスを $\mathscr{C}$ とすると, 損失 $\mathscr{L}$ は以下のように定義できる. $ \mathscr{L}=-\sum_{i=1}^{|\mathcal{N}|} \sum_{j=1}^{|\mathcal{N}|} \sum_{c \in \mathscr{C}} \mathbb{1}\left[c=\mathscr{E}_{i j}^{\text {gold }}\right] \cdot w_{c} \log \hat{\boldsymbol{p}}_{i j}[c] $ ただし, $\mathbb{1}[\cdot]$ は,括弧内の条件を満たしたときに 1 ,満たさないときには 0 を返す関数で, $w_{c}$ はクラスごとの重みである. クラスごとの重み $w_{c}$ は,それぞれのクラスの損失の重みを示す. ## 4 実験と考察 ## 4.1 実験設定 本実験では無機材料文献からの合成プロセス抽出のためのコーパス合成手順コーパス [10]を利用して実験を行う.合成手順コーパスでタグ付けされている合成プロセスは,材料や操作,条件などを表す用語と, 操作の進行や材料の投入, 条件付けといったような関係がタグ付けされているコーパスで,各文献に対して一つのグラフを定義することができる. 訓練データ・開発データ・評価データはそれぞれ $200 \cdot 15 \cdot 15 て ゙ ,$ 公開されているコーパスと同一の分割で実験を行う。 評価指標は,全体の $\mathrm{F}$ 值であるマイクロ $\mathrm{F}$ 值と,各クラスの $\mathrm{F}$ 値を平均したマクロ $\mathrm{F}$ 値で評価する。評価は開発データに対して最高のマイクロ $\mathrm{F}$ 值が得表 1 探索するパラメタ 表 表 2 グラフの編集モデルとルールベース抽出器の比較モデルマイクロ $\mathrm{F}$ マクロ $\mathrm{F}$ ルール十編集 (提案手法) $0.802 \quad \mathbf{0 . 7 8 8}$ られた点での評価データに対する評価値で行う. 作成したルールの抽出結果を編集した提案手法 (ルール+編集)に対する比較手法として,ルールによる抽出 (ルールベース), 辺の全く接続されていないグラフから編集によって辺を接続していくもの(編集のみ),そして (7) 式において $\overline{\mathcal{N}}^{G}$ の代わりに $\overline{\mathcal{N}}$ を用いた GCNを利用せずにすべての辺を同時に決定したもの(GCN 無し)の三つを用意した. ルールの詳細は付録 $\mathrm{A}$ に示した. ルールは節点ペアのクラスの組み合わせごとに設定し,最も近いもの同士で接続したり, 出現した順番に接続したり, 辞書マッチを用いたりした。 表 1 に示したハイパパラメタについては,パラメタの組み合わせを全探索し, 最適なパラメタとして下線が引かれたパラメタを選択した. 全探索はどのモデルも十分収束する 130 エポックで学習を行い, モデルの学習が終了したとき,開発データに対して最も高いマイクロ $\mathrm{F}$ 值を記録したエポックのときのモデルをその試行のモデルとした. パラメタは開発データに対して最大のマイクロ $\mathrm{F}$ 值を記録したパラメタを選択した。 事前実験によって損失における $w_{c}$ を $w_{c}=1$ として学習した場合では,予測する辺の数のうちのほとんどが負例であることから,モデルが負例しか予測しなくなってしまったため,正例のクラスの損失が大きくなるようにした. 学習初期には正例の損失が大きくなるように係数を掛けておき,学習が進むにつれ負例と同一の重み付けになるように係数をスケジューリングした. ## 4.2 実験結果 得られた結果を表 2,ルールベースとルール十編集に対するクラスごとの抽出性能は付録 B に示し 図 2 開発データに対する編集の最大距離 $d_{\text {max }}$ とマイクロ $\mathrm{F}$ 値の関係 た.まず,提案手法であるルール十編集とルールベースを比較すると,マイクロ $\mathrm{F}$ 值においては若干下がったものの,マクロ $\mathrm{F}$ 値ではルール+編集のほうが約 0.1 ポイントほど高い性能を示した. この結果から,ルールベースの出力を提案手法により編集することで,クラスごとの性能のばらつきを減らすことができることがわかった. 一方で,ルールが得意な関係に関しては抽出精度が下がってしまい,全体として,マイクロ $\mathrm{F}$ 值が下がってしまっており, ルールの情報のより有効な利用方法については今後の課題である. 次に, ルール十編集と編集のみを比較すると,ルール十編集のほうが高い性能を示しており,ルールベースの抽出器の抽出結果の利用の有効性を示すことができた. 最後に,ルール十編集と GCN 無しを比較した場合では,グラフ情報を利用しているルール十編集の方が高い性能を示しており,グラフ情報の有効性が示すことができた. ## 4.2.1 モデルの編集の最大距離 $d_{\text {max }}$ を変化させ,最大距離とマイクロ $\mathrm{F}$ 值との関係を確認した. 開発データに対して実験を行った結果を図 2 に示した. $d_{\text {max }}=1$ はすべての辺を同時に定めている場合で, $d_{\text {max }}$ が増加していくにつれて,距離が近いペア同士を独立して予測することに対応する. 結果より,$d_{\text {max }}=1$ における精度が一番低いことから, 辺の抽出結果を他の辺の抽出に使うことが有効であることがわかる. また,最大距離が小さい間は距離が増えるごとに精度があがっていることから,距離の近い順に編集を進める場合は,距離の近い節点においては,一度にグラフを定めるよりも徐々に定めていくことが,辺の抽出において効果的であることがわかった. 併せて, $d_{\text {max }}$ 図 3 ルール+編集の出力グラフ は, $d_{\text {max }} \geq 10$ で飽和していると読み取れるため, $d_{\text {max }} \geq 10$ では同時に編集を行うことは問題ないと考えられる。 ## 4.2.2 実際の事例 実際に抽出した例を比較して,その抽出の特性を確認する.グラフを抽出した内の一部を可視化したものを示す. 図 3 は合成手順コーパスの開発データ内の内の一例 [11] に対するルール十編集で抽出した結果である. 得られた結果を見ると,合成手順が「mixed $\lrcorner \rightarrow$ prefired $\lrcorner \rightarrow \cdots$ と操作が進み, $「$ prefired」には温度条件「 $900^{\circ} \mathrm{C} 」$ と時間条件「 $\left.24 \mathrm{~h}\right.\rfloor$ が接続していることがわかる. ## 5 結論 本研究では, 文書レベルでの用語間の関係分類を,節点が与えられた上でのグラフの構築として定式化し,グラフの辺を編集することで,文脈とグラフの両者を考慮した辺の抽出をおこなう手法を提案した. 合成手順コーパスに対する合成プロセスの抽出を用いて評価を行い,ベースラインとしたルールによる抽出よりマイクロ $\mathrm{F}$ 值は若干低下したものの,マクロ $\mathrm{F}$ 值で $10 \%$ の向上が見られた. また,グラフ情報の利用,ルールによる抽出結果の利用,辺の抽出結果の他の辺の抽出への利用が有効であることがわかった. 今後は, 辺の編集モデルの改善を行うとともに,本研究で取り組んだ辺の編集のみでなく節点も編集可能にすることで,任意のグラフを編集可能とし,グラフで表現可能な情報の抽出に対して一般に利用可能なモデルの作成を目指す. ## 参考文献 [1] Fenia Christopoulou, Makoto Miwa, and Sophia Ananiadou. Connecting the dots: Document-level neural relation extraction with edge-oriented graphs. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, EMNLP-IJCNLP 2019, Hong Kong, China, November 3-7, 2019, pp. 49244935, 2019. [2] Makoto Miwa and Mohit Bansal. End-to-end relation extraction using LSTMs on sequences and tree structures. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1105-1116, Berlin, Germany, August 2016. Association for Computational Linguistics. [3] Patrick Verga, Emma Strubell, and Andrew McCallum. Simultaneously self-attending to all mentions for fullabstract biological relation extraction. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 872884, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [4] Thomas N. Kipf and Max Welling. Semi-supervised classification with graph convolutional networks. In International Conference on Learning Representations (ICLR), 2017. [5] Guoshun Nan, Zhijiang Guo, Ivan Sekulic, and Wei Lu. Reasoning with latent structure refinement for documentlevel relation extraction. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1546-1557, Online, July 2020. Association for Computational Linguistics. [6] Fei Cheng, Masayuki Asahara, Ichiro Kobayashi, and Sadao Kurohashi. Dynamically updating event representations for temporal relation classification with multicategory learning. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 1352-1357, Online, November 2020. Association for Computational Linguistics. [7] Iz Beltagy, Matthew E. Peters, and Arman Cohan. Longformer: The long-document transformer. arXiv:2004.05150, 2020. [8] Makoto Miwa and Yutaka Sasaki. Modeling joint entity and relation extraction with table representation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1858-1869, Doha, Qatar, October 2014. Association for Computational Linguistics. [9] Shuai Ma, Gang Wang, Yansong Feng, and Jinpeng Huai. Easy first relation extraction with information redundancy. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3851-3861, Hong Kong, China, November 2019. Association for Computational Linguistics. [10] Sheshera Mysore, Zachary Jensen, Edward Kim, Kevin Huang, Haw-Shiuan Chang, Emma Strubell, Jeffrey Flanigan, Andrew McCallum, and Elsa Olivetti. The materials science procedural text corpus: Annotating materials synthesis procedures with shallow semantic structures. In Proceedings of the 13th Linguistic Annotation Workshop, pp. 56-64, Florence, Italy, August 2019. Association for Computational Linguistics. [11] S.B. Zhang, Y.P. Sun, B.C. Zhao, X.B. Zhu, and W.H. Song. Influence of ni doping on the properties of perovskite molybdates srmo1 - хnixo3 $(0.02 \leq \mathrm{x} \leq 0.08)$. Solid State Communications, Vol. 142, No. 12, pp. 671 - 675, 2007. ## A ルールベースの抽出器 合成手順コーパスの関係を抽出するためのルールベースの抽出器では, 記述されたルールに従い, ルー ルに適合するものに対して辺を接続する. 辺の種類は OPeration-OPeRation $\cdot$ OPeration-Material ・ その他の辺の 3 種類に分類してルールを定義する.ルールは節点ぺアの用語ラベルごとに出現順序と距離に合わせて定義する. 距離は用語ぺア間に存在する語の数で定義し, 文書をスペース区切りにすることで単語分割した。 ## A. 1 Operation-Operation Next_Operation : Operation-Operation の辺ラベルは, Next_Operation のみの一種類で, OPeRation の用語が出現した順番に,前から後ろへ NEXT_OPERATION の辺をつける. ## A. 2 Operation-Material SOLVENT_MatERIAL $\cdot$ ATMOSPHERIC_MATERIAL $\cdot$ PARticIPANT_MATERIAL:これらのクラスについては,クラス毎に辞書を用意し, マッチした辞書に割り当てられたクラスの辺を MATERIAL と最近傍の OPERATION に対する辺を接続する。 ReciPe_Precursor $\cdot$ Recipe_Target : Solvent_Material, ATMOSPHERIC_MATERIAL, PARTICIPANT_MATERIAL の辞書に該当しない MATERIALをすべて, 実際に訓練データに存在する辺の数がより多い RECIPE_PRECURSOR のクラスの辺として最近傍の OPERATION に対して接続する。 ## A. 3 その他の関係 PROPERTY_OF : PROPERTY-UNIT を始点とする場合では, PROPERTY-UNIT から文内で最も近傍に存在する MATERIAL に対して PROPERTY_OF の辺を割り当てる. PROPERTY-MISC を始点とする場合では, 文中で PROPERTY-MISC から最も近傍に存在する MATERIAL もしくは NONRECIPE-MATERIAL に対して接続する。 Condition_OF: すべての CONDITION-Unit と ConditionMisc から最近傍の OPERATION に対して, Condition_OF の関係を割り当てる。 NUMBER_OF : NUMBER から文内の後方で PROPERTY-UNIT $\cdot$ CONDITION-UnIT ・APpARATUS-UnIT に属する用語の内,最も近傍に記述されている用語に対して辺を接続する. AMount_OF : AMOUNT-UNIT と AMount-UnIT から, MATERIAL と NONRECIPE-MATERIAL のうち, 文内で最近傍のものに対して辺を接続する。 DeSCRIPTOR_OF : MATERIAL-DesCRIPTOR から, 文内で最も近傍纪存在する MATERIAL もしくは NONRECIPEMATERIAL に対して, DESCRIPTOR_OF の辺を接続する. また, APPARATUS-DeSCRIPTOR からの関係では,SYntHESISAPPARATUS に対してのみ辺を接続する。 ApParatus_Of : (Synthesis- APPARATUS|ChARACTERIZATION-APPARATUS)-OPERATION の辺では, SyNTHESIS-APPARATUS 及び ChARACTERIZATIONAPPARATUS から,前方で最も近傍に存在する OPERATION に対して辺を接続する. 前方に存在しない場合は, 後方で最も近傍に存在する OPERATIONに対して辺を接続する. TYPE_OF : まず, PRoPeRTy-TYPE-ProPERTY-UNIT と, APPARATUS-PROPERTY-Type-ApPARATUS-UnIt については, それぞれ文中で最も近傍に存在する単位に対して関係を割り当てる. CONDITION-TYPE-CONDITION-UnIT については, CONDITION-TYPE から文中の前方で最も近傍に存在する CONDITION-UNIT に関係を割り当てる。 BRAND_OF:Brand から前方で MateriaL・NONRECIPEMaterial $\cdot$ Synthesis-Apparatus $\cdot$ CharacterizationAPPARATUS のクラスの用語の内,文内で最も近傍に存在するものに対して辺を接続する。 APPARATUS_ATtr_OF:APPARatus-Unit から最近傍の) Synthesis-Apparatus もしくは CharacterizationAPPARATUS に対して辺を接続する。 COREF_OF:ルールを記述するのは困難であったため, ルールベースでは対象としない ## B クラスごとの抽出性能 ルールベースとルール十編集のクラスごとに算出した評価值を,評価データに対して算出したものをそれぞれ表 3 と表 4 に示した。 表 3 ルールベースの抽出器におけるクラス毎の抽出結果 表 4 ルール十編集におけるクラスごとの抽出性能
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C8-4.pdf
# 日本語 Wikipedia カテゴリを用いた記事のクラス分類手法の提案 小板橋佳晃 北海道大学 yk-wwm-aa@eis.hokudai .ac.jp } 吉岡真治 北海道大学 理研 AIP yoshioka@ist. hokudai.ac.jp } う森羅 2020-ML である。本研究では、記事のクラス 分類の他言語への拡張を想定し、日本語 Wikipeida の記事のクラス分類を行なっている。トレーニング データは森羅 2020-ML で提供されるクラス分類済 みの日本語版 Wikipedia の記事のデータを用いた。 ただしこのデータには、マルチラベルのデータが含 まれているが、ノイズになりかねないためシングル ラベルのデータのみを使用した。カテゴリは 2020 年 3 月 1 日取得の Wikipedia カテゴリデータを使用 した。 ## 3 Wikipedia カテゴリについて Wikipedia は、世界最大の百科事典である。その中で、カテゴリは閲覧性の向上を目的として記事を分類する役割を果たしている。Wikipedia は誰でも情報の追加や編集が可能であるため、カテゴリには以下の 3 つの定義が示されいる。1つ目は「分割を示すもの」、2つ目は「関連を表すもの」、3つ目は 「ウィキペディアの骨組み」である。この中の分割を示すカテゴリは、クラス分類に役立つと考えられる。一方で、関連を表すカテゴリや定義からは外れたカテゴリも存在するため、カテゴリは記事のクラス分類に有益な情報を持つがノイズを多く持つと言える。 私たちは、これまでカテゴリとカテゴリ間の関係を分類し、Wikipedia カテゴリオントロジー [4] を構築してきた。この研究においてカテゴリは以下 4 つに分類した。 - topic:「北海道大学」「トヨタ自動車」のような具体的な事象を表すカテゴリ $\cdot$ constrainedTopic:「日本のサッカー」「各年の日本」のような topic の性質を持つカテゴリ ・set:「大学」「企業」といったクラスを表すカテゴリ - constrainedSet:「日本の大学」「各国の企業」の ## ような set の性質を持つカテゴリ また、我々はこの Wikipedia カテゴリオントロジーを用いた記事のクラス分類を試みた [5]。具体的には、記事につくカテゴリから包含関係を満たす親カテゴリを遡り対応する set カテゴリからクラスを推測する方法を提案した。しかし、図 1 のように対応する setを調べるためにカテゴリを上位に遡ると複数の set が候補として現れ、複数クラスが推定されてしまう課題が生じた。 図 1 カテゴリの例 ## 4 提案手法 [5] の方法で問題となった対応する Setを決定する際の問題を解決するために、本研究では constrainedSet の set の文字列部分を抽出することで上位カテゴリに遡らなくても対応する Setを決定する方法を提案する。具体的には、constraindSet の記述パターンに関するこれまでの分析から、 constraindSet は「Aの B」や「AB」のような記述パターンをもち、B の部分が Setを表す単語になっていることが多いことが分かっている。 ## 4.1 カテゴリの set の抽出 図 2 カテゴリの例 カテゴリの setを抽出すために、カテゴリの記述パターンを利用する。具体的には、図 2 の constrainedSet のカテゴリの例の通り、「アジアの企業」というカテゴリの上位カテゴリと子カテゴリを見ると「A の企業」というカテゴリが存在することがわかる。このように親カテゴリと子カテゴリで後半が一致する文字列を set として抽出した。このパターンによる制約部分の除去の手続きを全てのカテゴリ ${ }^{1}$ 間の親子関係について適用し、 set の候補を生成した。この候補の生成は、constrainedTopic の関係についても同様に行われることになるが、後半の set 候補の抽出の際に役に立たない情報として扱われることが期待される。 ・文字列パターンの照合 - 形態素解析の利用 文字列パターンの照合では、カテゴリの後方から順次文字列長を増やし親子カテゴリと比較し、同じ文字列パターンが存在する最長の文字列を set として抽出する。また、後方に親子カテゴリと同じ文字列パターンが存在せず、setを抽出できない場合は前方から順次文字列長を増やし親子カテゴリと比較し同じ文字列パターンが存在する最長の文字列を力テゴリから引いた文字列を set として抽出する。これは、図 2 の例において「A の企業」というカテゴリが親子カテゴリに存在しない場合でも前方からの文字列の一致で「アジアの」という文字列が抽出でき、これをカテゴリから引くことで「企業」という set が抽出できるからである。 形態素解析の利用では、後方から単語を順次増やし親子カテゴリと比較し、同じ文字列が存在する最長の文字列を set として抽出した。また、後方に親子カテゴリと同じ文字列が存在せず、set を抽出できない場合は前方から単語を順次増やし親子カテゴリと比較し同じ文字列パターンが存在する最長の文字列をカテゴリから引いた文字列を set として抽出した。 ## 4.2 set 候補の抽出 文字列パターンの照合で抽出した set と形態素解析を利用して抽出した set のそれぞれにおいて、set 候補の抽出を行う。各 set に対して precision を計算し、実験をした結果 0.86 以上を set 候補とした。 $ \operatorname{prec}(\text { set }, \text { class })=\frac{\text { num }(\text { set } \cap \text { class })}{\operatorname{num}(\text { set })} $ num $($ set $)$ : 同じ set を持つカテゴリ数 num(set $\cap$ class $)$ : 各クラスごとの同じ setを持つカテゴリ数  ## 4.3 カテゴリのクラス分類 文字列パターンの照合から抽出された set 候補と形態素解析を利用して抽出された set 候補と両方を使って抽出した set 候補で全てのカテゴリに対して、クラス分類を行った。その統計データは表 1 に示す。分類済みが 6 割という結果より、日本語 Wikipedia カテゴリオントロジーでは、set および、 constrainedSet に対応するカテゴリが 68 \%であるため、その全てが森羅のクラス分類と対応するものではないことが確認された。具体的には、set 部分が複数のクラスに対応する (アーチスト:人名 or 公演組織名)場合などが存在した。 表 1 分類、未分類のカテゴリの割合 ## 4.4 記事のクラス分類 分類済みのカテゴリを使い記事のクラス分類を行う。具体的には、記事につく分類済みのカテゴリの精度 prec(set,class) が最大のものをその記事のクラスとした。また、記事につくカテゴリの中に記事と同名のカテゴリが存在した場合そのカテゴリの親カテゴリからクラス分類を行った。これは、その記事のクラスを表すカテゴリは記事よりもそのカテゴリにつくと考えたからである。 ## 5 結果 実験は 5-fold の cross-validation で行い、f 值はその平均をとっている。実験データは, クラス数:196、記事数: 804693 件となっている。文字列パターンの照合によりクラス分類をした結果の $\mathrm{f}$ 値ごとの分布を表 2 に、形態素解析の利用によりクラス分類をした結果の $\mathrm{f}$ 値ごとの分布を表 3 に、両方を利用しクラス分類した結果の $\mathrm{f}$ 值ごとの分布を表 4 に示す。また、全体での精度は、文字列パターンの照合:0.76、形態素分析の利用:0.69、両方利用:0.71 となった。precisionを重視したカテゴリの活用を行なったために、一貫して適切な対応するカテゴリが作成・付与されていない場合などに、極端に recall が低い、場合によっては、対応するカテゴリが存在しない状況になった。全体での精度を??示す。表 2 文字列パターンの照合を利用 表 3 形態素解析を利用 表 4 文字列パターンの照合を利用 ## 6 考察 まず、文字列パターン照合を利用した結果を考察していく。f 值が高いクラスに関して抽出した setを見てみると、競走馬名では「の競走馬」「種牝馬」という set が抽出され、トンネル名では「州地方のトンネル」「の道路トンネル」といった set が抽出されており、クラス名と対応する set が抽出できていることがわかる。 一方で、 $\mathrm{f}$ 值が低いクラスに関して抽出した set を見てみると、グループ企業では「企業グループ」という setが抽出されており precision は 0.82 であるが recall が 0.076 ととても低い。理由は、ページにつくカテゴリに「企業グループ」という setを持つカテゴリが存在せず、「企業」の set を持つカテゴリが多いからである。これは、編集者がグループ企業と企業の区別を意識せずにカテゴリ付けをしてしまっているからであると考えられる。また例外的に、precision が 0.034 と極端に低く recall も低いクラ スが存在し、大陸地域名である。このクラスに分類されている記事を見てみるとノイズと思われるものがとても多く含まれており、これが原因だと考えられる。 次に、形態素解析を利用した結果を考察していく。f 值が高いクラスに関して抽出した setを見てみると、学校名では「航空学校」「私立中高一貫校」という setが抽出され、音楽名では「曲」「卒業ソング」 という setが抽出されおり、クラス名と対応する set が抽出できていることがわかる。 一方で、 $\mathrm{f}$ 值が低いクラスに関して抽出した setを見てみると、映像作品名では「スーパー戦隊シリーズオリジナルビデオ作品」「ビデオ・クラップ集」といった set は抽出できており、precision は 0.79 であるが recall が 0.11 ととても低い。カテゴリから set を抽出した段階では、「映像作品」「アニメ作品」といった set として妥当だと考えられるものが抽出できているがこれらの precision が低いため set 候補にならなかった。「映像作品」は、映像作品名以外に芸術作品_その他や公演名にも多く出てきている。 この 2 つのクラスには、音楽系の映像作品が多く含まれていた。これらの記事は、両方のクラスに属すると見なすこともできるため、今後検討が必要である。 最後に、文字列パターン照合と形態素解析を利用したときの違いについて考察していく。実験結果より、文字列パターンの照合の方が $\mathrm{f}$ 値が高いクラスが多いことがわかる。precision と recall にも目を向けると両方とも文字列パターン照合の方が高い値を示しているが、recall の差が precision に比べて大きなっている。これは、形態素解析では単語ごとに区切って set を抽出しているが文字列パターンの照合で一文字づつ文字列を区切っているため、単語の途中まで文字列パターンが親子カテゴリと一致している場合でも setを抽出できるためである。具体的に、家系名クラスに分類されたカテゴリの数を見ると、文字列パターンの照合では 1097 個、形態素解析の利用では 637 個となっている。また、映画名クラスに分類されたカテゴリの数を見ると、文字列パター ンの照合では 4175 個、形態素解析の利用では 3051 個となっている。 また、文字列パターンの照合と形態素解析の両者を使った結果、分類済みのカテゴリが増え recall は上がった precision が下がってしまった。両者を組み合わせる際は各々で set 抽出を抽出する際、precision ## を上げる必要がある。 ## 7 おわりに 本研究は、30 言語版 Wikipedia の記事のクラス分類を念頭に、日本語 Wikipedia の記事の分類をカテゴリを用いて行なった。Wikipedia カテゴリの曖昧さやトレーニングデータのクラス分類の曖昧さにより記事のクラス分類がでうまくできないクラスが存在した。また、データが不十分なニッチなクラスも多くそれが原因でクラス分類ができないものも存在した。ニッチなクラスについてはトレーニングデー タを増やすことで改善できると考えられる。一方で、本研究の手法により十分にクラス分類できたクラスもある。今後は、分類済みの日本語 Wikipedia のカテゴリと記事を使い言語間リンクを使って他言語の Wikipedia 記事の分類を行いたい。また、本研究で使った分類手法を他言でも行うことでさらなる精度の向上が期待できるため、それも合わせて今後検討していきたい。 ## 参考文献 [1] Christian Bizer, Jens Lehmann, Georgi Kobi-larov, Soren Auer, Christian Becker, Richard Cy-ganiak, and Sebastian Hellmann. Dbpedia - acrystallization point for the web of data. In WebSemantics: Science, Services and Agents on theWorld Wide Web, Vol. 7, No. 3, pp. 154 - 165, 2013. [2] Johannes Hoffart, Fabian M. Suchanek, Klaus Berberich, and Gerhard Weikum. Yago: A spatially and temporally enhanced knowledge base from wikipedia. In A spatially and temporally enhanced knowledge base from Wikipedia. Arti cial Intelligence, Vol. 194, No. O, pp. 28 61, 2013. [3] Satoshi Sekine, Masako Nomoto, Kouta Nakayama, Asuka Sumida, Koji Matsuda, and Maya Ando. Overview of shinra2020-ml task. In In Proceedings of the NTCIR-15 Conference, 2020. [4] 中川崇教, 小板橋佳晃, 吉岡真治. Wikipedia オントロジーの構築. 人工知能学会研究会資料, Vol.48, No.7, pp.1-5, 2019. [5] 中川崇教, 小板橋佳晃, 吉岡真治. Wikipedia カテゴリオントロジーを用いた wikipedia ページのクラス分類. 人工知能学会研究会資料, Vol.4, No.5, pp.1-4, 2020.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C9-1.pdf
# 文脈を考慮した対義語穴埋め 丹羽彩奈 東京工業大学 ayana.niwa at nlp.c.titech.ac.jp 西口佳佑 株式会社サイバーエージェント nishiguchi_keisuke at cyberagent.co.jp 岡崎直観 東京工業大学 okazaki at c.titech.ac.jp ## 1 はじめに 対義関係(例:賛成一反対)は,与えられた文脈において意味が反対となる単語(対義語)の関係である [1].この対義関係を効果的に利用した修辞技法のひとつに,似た文構造で対照的な意味を持つ単語や句を並列させる対句がある. (例文)年金に敏感な母も、保険には鈍感です。 上記の例では,保険への関心が低いことを,関心の高い別の話題 (年金) と並置して強調している.このように,対義語や対義語を用いた対句は, キャッチコピー [2] や政治演説 [3], 漢詩 [4] などでメッセージを強調するために活用されている. 従来,与えられた単語ペアに対して対義関係を含む語彙的な意味関係を識別する研究が数多く行われてきた $[5,6]$. 例えば,構文パターンや意味的近さを利用して,対義語と同義語を識別する手法が提案されている $[7,8]$. しかし,その分類タスクとしての設計には,モデルが語彙を暗記してしまったり [9],質問応答等の実タスクとの乘離があるという懸念もあった [10]. そこで,さらに挑戦的で害応用に近いタスクとして,ターゲット語(例:下位語)に対して特定の語彙関係にある単語や単語リスト(例:上位語)を与えられた語彙集合から探し出すタスクが提案された [11]. 対義関係においても,形容詞を否定形にする目的で対義語を予測する研究がある [12]. これに対して,本研究では対義語を文脈を考慮して予測する新たな穴埋めタスクを提案する. 対義語の穴埋めを行うための最も単純なアプロー チは,対義語辞書を引いて,記載されている単語を埋めることである.ところが,穴埋めができる対義語は文脈によって変化する。例えば,次に示すように母という単一の単語に対しても,父, 妻, 娘など複数の単語が対義語として考えられる。 (A)父は保険で楽をした。母は保険で苦労した。 (B)妻になって、值段が気になった。 母になって、成分が気になった。 (C)娘はエステに行き、母は整体に行く。 また,対義関係には二律相反のペア(素数一非素数)だけではなく,相互の役割などの関係性によるもの(生徒一教師),ある基点を挟んだ相対的・対照的な概念を表すもの(明日一昨日)など多様な関係性が含まれる $[13,14,15]$. しかし, 辞書には対義語ペアのみが収録されており,その文脈情報は収録されないことが多い,また,掲載されている対義関係の種類も限定的である.これに対し,対義語穴埋めタスクでは,文脈情報や多様な対義関係を考慮して対義語を予測できるモデルが求められる. 近年,モデルを事前学習およびファインチューニングするアプローチが多くのタスクで高い性能を収めている [16,17]. そこで本研究では,代表的な事前学習モデルである BERT を利用し,文脈を考慮した対義語穴埋めを行う。しかし,モデルをファインチューニングするための教師データ、すなわち対照的な文脈を持つ対義語ペアを含むテキストの収集は容易ではない。そこで本研究では,BERT モデルで対義語穴埋めを行うための手法として,(1) 対句データを用いたドメイン適応,(2) 対義語穴埋めに特化させるための対照的マスキング,(3) 文の対句構造を捉えさせるための対句位置エンコーディング,(4) 対義語辞書を活用した自動アノテーションによる疑似教師データ収集を提案する。 実験の結果,提案したファインチューニング手法により,BERT モデルを文脈を踏まえた対義語穴埋めタスクへ適応させ,正解の単語をより予測できる ようになることを確認した.また,文脈を考慮した対義語穴埋めタスクでは複数の正解が許容されるため, 唯一の正解による自動評価指標による精度は低く見えるが,対義語としての適切さや文脈における流暢さをもつ事例は $85 \%$ 以上を占めることから,提案手法は十分な性能を示していることを報告する。 ## 2 提案手法 ## 2.1 モデル 概要を図 1 に示したように,位置 $m(1 \leq m \leq n)$ に [MASK] トークン (空欄)を持つ長さ $n$ の系列 $x_{1}, \ldots, x_{n}$ を与えられた時, 穴埋めするトークン $y_{m}$ の条件付き確率を BERT モデル [16] を用いて以下のようにモデル化する. $ P\left(y_{m} \mid x_{1}, \ldots, x_{m}, \ldots, x_{n}\right) . $ 入力情報の双方向の文脈で条件づけることにより,BERT モデルは [MASK] トークンの周辺の文脈を捉えられる。 その BERT モデルを対句構造を持つコーパスでファインチューニングすることで,ドメイン適応により入力テキスト内の文脈と対義語ペアの組み合わせを考慮可能となることが期待される. BERT モデルを対義語に適応させる際,少量のコーパスを活用するために二つのアプロー チを取る。一つ目のアプローチとして,テキスト内に対義関係を持ち得るトークンを [MASK] トークンに置換することでファインチュー ニングのための教師データを作成する. 例えば,「值段に始まり、味わいに終わる。」というテキストから,「[MASK] に [MASK] 、味わいに終わる。」,「値段に始まり、[MASK]に $[\mathrm{MASK}]_{0} 」$ という二件の学習事例を得る。これらのマスクされるトークンには,対応する句に現れないものを選択する。このマスキングの方法を対照的マスキングと呼ぶ. オリジナルの BERT モデルは [MASK] トークンをランダムに作成するが,対照的マスキングは,対義語穴埋めのための教師データを選択的に作成する。 次に,二つ目のアプローチとして,BERT モデルに入力テキスト内の対句構造を考慮させるために位置エンコーディングを拡張する. まず,対句構造を構成する二つのスパン $[i, j$ ) ([MASK] トークンが含まれる)と $[k, l)(1 \leq i<j \leq k<l \leq n)$ を含むテキストを考える。この時,スパン $[i, j)$ にスパン $[k, l)$ が対応することを教えるために,対句構造に特化し たインデックスを以下のように定義する. $ a_{t}= \begin{cases}k+\left.\lfloor\frac{(l-k)(t-i)}{j-i}\right.\rfloor & (a \in[i, j)) \\ t & \text { (otherwise) }\end{cases} $ インデックス $a_{t}$ は $t \notin[i, j)$ だったときはトークン $x_{t}$ の絶対位置を,そうでない場合は対応するスパン $[k, l)$ の絶対位置を与える. 本稿では,この手法を対句位置エンコーディングと呼ぶ,今回は,オリジナルの BERT モデルで用いられている絶対位置の埋め込み表現と対句位置 $a_{t}$ の埋め込み表現の平均を取ったものを BERT モデルに入力する. ## 2.2 教師データ 教師データのドメインには,対句が用いられやすいキャッチコピーを選択した. 既存の作品集 $[18,19,20,21,22]$ から収集した 111,295 件のコー パスを元に,(1) 対句を含まないキャッチコピーの除外 (2) 対句スパンのアノテーションの 2 つのサブタスクにより,7,511 件のキャッチコピーからなる対句コーパスを作成した [23, 24]. ## 2.3 疑似教師データ 現状の教師データの学習事例数は, BERT モデルをファインチューニングするには不十分である。そこで,テキストを自動的にアノテートすることを考える。具体的には,既存の対義語辞書 [15] に掲載されている対義語ぺアを含むキャッチコピーを用いる.このプロセスにより, 2.2 節で説明した対句コーパスに含まれないキャッチコピーから 1,894 件を抽出した ${ }^{1)}$. 各キャッチコピーに対して,対義語を片方ずつ [MASK] トークンに置換することで二件の学習事例を作成した.この外部知識を活用したデータ作成により,対義語の語彙知識を疑似教師データとして BERT モデルに学習させる。 ## 3 実験および実験結果 ## 3.1 実験設定 データセット 7,511 件の対句構造を持つキャッチコピーを学習データ,検証データ,評価データに分割した上で,[MASK] トークンを含む穴埋め事例に変換する. 対句構造には二つの対照的な意味を持つ句が含まれることから,各キャッチコピーか 1)対句コーパスに含まれないキャッチコピーは,コーパス構築の一段階目における厳しい基準でフィルタリングされたため,実際には対句を含むものが含まれている. 図 1 提案手法の概要 ら二件の学習事例を作成できる。このようにして, 11,923 件の学習データ, 1,496 件の検証データ, 1,247 件の評価データを作成した. この評価データの作成方法を付録 A. 1 に示した。また,疑似教師データとして 3,788 件の学習データを用いる. ベースライン今回の実験では,ベースライン手法として辞書を用いた手法と,ファインチューニングなしの事前学習済み BERT モデルを採用した. 辞書を用いた手法では,各空欄を埋めるべき正解単語が,対応する句に含まれる単語の対義語として辞書 [15] に含まれるかを調査する。このベースラインは,正解単語がわかっている状態で評価するため,辞書を用いた手法の性能の上限として考えられる。 ファインチューニングなしの事前学習済み BERT モデルでは,対義語穴埋めに特化した学習なしに, BERT モデルが言語モデルとして文脈を考慮して対義語を予測する能力について調査する。また, 3 名の作業者に対して穴埋めタスクを実施した結果(以後作業者と表記)も評価する.具体的には,各空欄に対して最大 5 つの可能な回答候補を考えてもらつた. 3 名の作業者は,本タスクの難易度を考慮し,作家やブロガーなど,作文経験の豊富な方を選んだ。なお,BERTの事前学習済みモデルには,日本語 Wikipedia で学習された公開モデル2)を用いた。 評価本実験では,マスクされた位置に正しい対義語が予測されたか否かを top-1, top-10 の正解率で評価する。評価データには, [MASK] トークンがサブワード単位で分割されている事例が含まれる。 しかしながら,作業者はサブワード単位で空欄を埋めることはできない,そのため,評価データのうち [MASK] トークンがサブワード分割されていない事例を含むサブセット(以後単語単位と呼ぶ)を作成し,作業者が埋めた単語とモデルが予測した単語を  比較する.また,作業者は必ずしも一つの空欄に対して5つの回答を思いつくとは限らないないため, top-1 と top- $n$ の正解率でも評価する. この数値 $n$ は,各事例に対する回答数によって異なる。 ## 3.2 実験結果 対義語穴埋めの結果を表 1 に示した. 提案手法は, 全評価データに対して top-1 正解率で $23.4 \%$, top-10 正解率で $47.9 \%$ ,単語単位では top-1 正解率で 30.4\%, top-10 正解率で $49.1 \%$ を達成した. ファインチューニングなしの事前学習済み BERT モデルは,提案手法に比べて top-1 正解率が大きく低下している.これは,一般的なマスク言語モデルでは,対句構造の文脈を与えられていたとしても,対義語を予測するには不十分であることを示している. 言い換えれば,提案手法はモデルを対句構造における単語予測タスクに適応させるのに有効であることがわかる.しかしながら,ファインチューニング無しと有りの場合で top-10・top- $n$ 正解率における性能の差は top-1 に比べると小さい. これは,BERT モデルが事前学習時に文脈に基づき正解単語を正解候補として予測する能力を獲得していることを示唆している. 教師データでファインチューニングをした場合は, 特に top-1 正解率が大きく向上した (全評価デー タで+6.1 ポイント,単語単位で+9.3 ポイント). また,対照的マスキングにより全ての正解率が,対句位置エンコーディングにより特に top- $10 \cdot$ top- $n$ 正解率が向上した (前者は $+0.8 \sim+3.0$ ポイント, 後者は+1.5,+0.6ポイント). さらに,疑似教師データの活用により,特に top-1 の正解単語の向上を確認した $(+0.8,+3.0$ ポイント $)$. これらの提案手法が性能向上に寄与していることから,BERT モデルに対して対義語穴埋めに特化させたファインチューニングを行うことが重要であるとわかる. 表 1 対義語穴埋めの正解率 表 2 各指標を満たす 100 件あたりの事例数意味的対照性文の自然さ・流暢さ 辞書を用いたべースラインでは, 単語単位の top-1 正解率で $9.6 \%$ という結果になった. この正解率の低さは,辞書に含まれるエントリのカバー率の低さに起因する. 例えば,評価データに含まれる対義語の $39.3 \%$ しか辞書に掲載されていなかった。 表 1 は,穴埋めタスクを解いた時に正解率が最小・最大となった作業者の結果も示している. これを見ると,正解率は作業者ごとに摇れが見られるものの提案手法よりも高い. しかしながら, 正解率は最大でも top-1 で $34.5 \%$, top- $n$ で $59.1 \%$ と低く,このタスクの難しさが現れている。一方で,作業者 3 名の回答を統合し,その中に正解単語が含まれれば正解とする最も緩やかな評価を行うと, top-1 正解率は $51.8 \%$, top- $n$ 正解率で $66.6 \%$ となった. この top-1 正解率の大幅な向上は, 評価データ内の各空欄を埋める際に複数の可能な単語が考えられることを示唆している.この正解単語が複数考えられる事象について調査するため, 正解単語と一致しなかった作業者の回答と提案手法の予測結果の質について, 別の作業者による主観評価を実施した. 各回答・予測結果の内,意味的対照性と文としての自然さ - 流暢さを満たす事例数を表 2 に示した. この分析では,作業者の回答と提案手法の予測単語両方が不正解だった事例から 100 件ランダムに抽出したものを用いた. なお,作業者の回答は,3名の回答からランダムに 1 事例につき 1 件を選択した. この結果, 作業者の回答・提案手法の予測単語ともに,85\%以上の単語が対義語として適切であることがわかった。 以上より,文脈を考慮した対義語穴埋めでは,複数通りの正解単語が存在するため, 単一の正解単語を用いた自動評価 (正解率) では性能が過小評価されてしまうことがわかった. しかし,提案手法による予測結果を主観評価したところ,対義語としての適切さ,文としての自然さ・流暢さとも非常に高い正解率となっており, 文脈を考慮した対義語を予測するには十分な性能であることがわかった. また,事例分析の結果を付録 A. 2 に示したように,さらに性能を向上させるためには単語ペアを「何を対象として」「どのような観点で対比させるか」を明示的に与える必要があることもわかった. ## 4 おわりに 本研究では,文脈を踏まえた対義語穴埋めという,対義語の予測タスクに取り組んだ. BERT モデルを対義語穴埋めに適応させる方法として,対句データを活用したドメイン適応,対照的マスキング,対句位置エンコーディング,疑似教師データの収集方法を提案した。提案手法は,評価データにおいて,23.4\%の top-1 正解率および 47.9\%の top-10 正解率を達成した. これらの値は低く見えるが,空欄を埋められる正解単語は複数考えられるため, 単一の正解単語に基づく自動評価では性能が過小評価されてしまう。しかし,主観評価により,提案手法による予測結果は,85\%以上の事例が対義語として適切であることがわかった。本研究の結果は,語彙の意味関係を実用的な単語予測タスクとして扱う研究をさらに促進させるものである.今後は,言及対象や対比させるべき観点を考慮した対義語予測および他の意味関係へのモデルの拡張に取り組みたい. ## 参考文献 [1] Steven Jones, M Lynne Murphy, Carita Paradis, and Caroline Willners. Antonyms in English: Construals, constructions and canonicity. Cambridge University Press, 2012. [2] Hristo Katrandjiev, Ivo Velinov, and Kalina Radova. Usage of rhetorical figures in advertising slogans. Trakia Journal of Sciences, Vol. 14, No. 03, pp. 267-274, 2016. [3] John Heritage and David Greatbatch. Generating applause: A study of rhetoric and response at party political conferences. American journal of sociology, Vol. 92, No. 1, pp. 110-157, 1986. [4] Rui Yan, Cheng-Te Li, Xiaohua Hu, and Ming Zhang. Chinese couplet generation with neural network structures. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2347-2357, 2016. [5] Oren Barkan, Avi Caciularu, and Ido Dagan. Withinbetween lexical relation classification. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 3521-3527, Online, 2020 [6] Vered Shwartz and Ido Dagan. Path-based vs. distributional information in recognizing lexical semantic relations. In Proceedings of the 5th Workshop on Cognitive Aspects of the Lexicon (CogALex - V), pp. 24-29, Osaka, Japan, 2016. [7] Kim Anh Nguyen, Sabine Schulte im Walde, and Ngoc Thang Vu. Distinguishing antonyms and synonyms in a pattern-based neural network. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pp. 76-85, Valencia, Spain, 2017. [8] Kim Anh Nguyen, Sabine Schulte im Walde, and Ngoc Thang Vu. Integrating distributional lexical contrast into word embeddings for antonym-synonym distinction. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 454-459, Berlin, Germany, 2016. [9] Omer Levy, Steffen Remus, Chris Biemann, and Ido Dagan. Do supervised distributional methods really learn lexical inference relations? In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 970-976, Denver, Colorado, 2015. [10] José Camacho-Collados. Why we have switched from building full-fledged taxonomies to simply detecting hypernymy relations. CoRR, Vol. abs/1703.04178, , 2017. [11] Jose Camacho-Collados, Claudio Delli Bovi, Luis Espinosa-Anke, Sergio Oramas, Tommaso Pasini, Enrico Santus, Vered Shwartz, Roberto Navigli, and Horacio Saggion. SemEval-2018 task 9: Hypernym discovery. In Proceedings of The 12th International Workshop on Semantic Evaluation, pp. 712-724, New Orleans, Louisiana, 2018. [12] Laura Rimell, Amandla Mabona, Luana Bulat, and Douwe Kiela. Learning to negate adjectives with bilinear models. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, pp. 71-78, 2017. [13] Thmas R. Hoffmann. Realms of meaning: An introduction to semantics. Longman, 1993. [14] Geoffrey Leech. Semantics. Penguin Books, 1976. [15] 三省堂編修所(編).反対語対立語辞典. 三省堂, 2017. [16] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, 2019. [17] Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Russ R Salakhutdinov, and Quoc V Le. Xlnet: Generalized autoregressive pretraining for language understanding. In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'AlchéBuc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32, pp. 5753-5763. Curran Associates, Inc., 2019. [18] 谷山雅計. 広告コピーってこう書くんだ!読本. 株式会社宣伝会議, 2007 . [19] 仲畑貴志. ホントのことを言うと、よく、しかられる。勝つコピーのぜんぶ. 株式会社宣伝会議, 2018. [20] 青田光章, 秋山晶, 東秀紀, ほか. 最新約コピーバイブル. 株式会社宣伝会議, 2007. [21] 梅田悟司. 「言葉にできる」は武器になる。日本経済新聞出版社, 2016. [22] 宣伝会議賞実行委員会. SKAT.2-SKAT.17. 株式会社宣伝会議, 2003-2018 [23] 丹羽彩奈, 脇本宏平, 西口佳佑, 毛利真崇, 岡崎直観 .キャッチコピーにおける対句構造の解析. 言語処理学会第 26 回年次大会 (NLP2020), 2020. [24] 丹羽彩奈, 脇本宏平, 西口佳佑, 毛利真崇, 岡崎直観 . 単語の対応関係を利用したスパン候補の絞り込みによるキャッチコピーの対句構造解析. 第 34 回人工知能学会全国大会 (JSAI2020), 2020. ## A 付録 ## A. 1 評価データの作成方法 評価データ内で空欄とする単語(列)には,2.1 節で説明した対照的マスキングの対象となった単語 (列)から,以下の基準に基づき選択した. 1. 評価事例一件につき一単語(句は除外) 2. 単語の品詞は名詞, 動詞-自立, 形容詞-自立, 形容動詞のいずれか 3. 企業情報などの外部知識がなければ解けない事例は可能な限り除外 本来は一件のキャッチコピーから前半の句と後半の句をそれぞれマスキングすることで二件の評価事例を作成できる.しかし,クラウドソーシングプロセスの簡略化のため,単語単位ではキャッチコピー一件につき評価事例一件のみを使用した。そのため,元々の評価データに比べて小規模になっている. ## A. 2 事例分析 ベースライン(ファインチューニングなしの BERT モデル), 提案手法, 各作業者による出力・回答例を表 3 に示した。 事例 (A) の(出会い一別れ)のように,対比関係がわかりやすい単語が存在する場合は,提案手法も作業者も正解単語を第一候補として出力することができる。また,予測すべき単語の周辺のみを考慮しているべースラインの出力と比べると,提案手法は 「別れの曲一出会いの曲」というテキスト内の大域的な構造に着目できていることがわかる. 事例 (B) は,正解単語は予測・回答されていないものの, 対義語として機能している. この問題では,「地球」という単語に対して,規模の大きさや身近さの度合いで対比できる単語を出力する. その点, 提案手法の予測結果 ・作業者が作成した回答ともに自分の周りにある物や人を中心とした単語が並んでおり,どれも意味的対照性と文としての自然さを満たしている。しかし,正解単語はそれらの観点に加えて「物理的・精神的な対比」を持つ「心」 となっている.このような事例に対応するためは,「二つの単語をどのような観点で対比させるのか」 を明確にすることが必要であると考えられる。 また,人間にとっても正解することが難しい他の表 3 対義語穴埋めタスクの出力・回答例 (A) 別れの曲だったのに、[MASK] の曲になった。正解 - - - 出会い ベースライン別れ, 最後, 今, 人生, 卒業 提案手法出会い, 憧れ, 人生, 最高, 始まり 作業者 1 出会い, 再会, 初恋, 永遠, 永久 作業者 2 出会い, 始まり, スタート, 開始, 邂逅 作業者 3 出会い, 出逢い (B) 地球の環境より、まず [MASK] の環境。 正解 ベースライン宇宙, 水, 地球, 太陽, 植物 提案手法家族, 私, 周り,トイレ, 家 作業者 1 自宅, 家, 自分, 部屋, 職場 作業者 2 自分, 私, 周辺, 室内, 家内 作業者 3 国, 家庭, 町, 街, 周り (C) $[\mathrm{MASK}]$ 軽さから、忘れる軽さへ。正解 ベースライン゙忘れる,壊れる,思い出す,嬉しい, 積み重ねる 提案手法忘れる, 思い出す, 覚える, 思い出す,気づかない 作業者 1 持てる, 運べる,重ねられる, 運搬できる, 探せる 作業者 2 感じる, 受ける, 分かる, 感じ取る, 勘づく 作業者 3 思い出す, 残る, 驚く 事例として,事例 (C) のような文が挙げられる。この事例で正解単語を予測するには,このキャッチコピーの言及対象がメガネ製品であるという事前知識と,その対象に対する推測やイメージを要する. このような事例にも対応するため,文の言及対象に関する追加情報を入力することも重要である.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C9-2.pdf
# 話し言葉を対象とした文末解析と表現文型の同定 柳将吾 佐藤理史 夏目和子 宮田玲 小川浩平 名古屋大学大学院工学研究科 yanagi.shogo@i.mbox.nagoya-u.ac.jp ## 1 はじめに 日本語の文末には、テンス・アスペクト・モダリティ・否定などの文法的機能が集中して現れる。たとえば、 (1) 彼は面白い小説を書いていたにちがいありません という文では、動詞「書く」に、「テいる(アスペクト)」「た(テンス)」、「にちがいない (モダリティ)」「ます(敬体)」が接続し、文末述語を構成している。日本語文において、文末述語の範囲を同定し、その構成要素を同定することは、文の意味を解釈するために不可欠である。 佐野らは、書き言葉を対象に、このような文末解析を実行するシステム Panzerを実現した [1]。Panzer は、与えられた文の文末述語の範囲を決定し、その範囲を内容語と機能語の列に分解する。これらの要素はいずれも HaoriBricks3 (HB3) [2]の Brick (文を組み立てるための部品) として出力されるため、解析結果から元の表層文を復元することが可能である。 Panzer は、すでに、書き言葉・話し言葉変換 [3] や、文の平易化 [4] に利用されている。 本論文では、小説の会話文を中心とした話し言葉に対して、Panzer と同等の機能を提供するシステム Panzer/U と、それを利用した発話文の表現文型の同定について述べる。一般に、話し言葉の解析は、書き言葉の解析より難しいと考えられている。そのひとつの理由は、話し言葉に見られるくだけた表現に起因する。Panzer/Uでは、くだけた表現にも比較的広く対応した「現代話し言葉 UniDic [5]」(以下、 UniDic と略記) を形態素解析に利用する。 ## 2 音変化表現と形態素解析 小説の会話文や漫画などでは、話し言葉に現れる音変化が文字として現れる。これを宮崎ら [6] は音変化表現と呼んでいる。具体例を以下に示す。 (2) 彼にちがいねえ (ちがいない) (3) 本当に走んのか (走るのか) 例文 (2) は、Juman++でもUniDic/MeCab でも適切に解析できるが、例文 (3) の解釈は、次のように分かれる。 (4) a. 走 (走る)/ ん(ぬ) /の (のだ)/か (Juman++) b. 走ん (走る)/の (準体助詞)/か (UniDic) (4a)のように「走ん」の「ん」を「ぬ」と解釈するのは明らかに誤りであり、(4b) のように「走ん」を 「走る」の音変化表現と解釈するのが適切である。 ここでは 1 例を示したが、UniDic は、音変化表現に対して比較的頑健である。 音変化表現をUniDic で解析した結果は、おおよそ、次のように分類できる。 1. 独立した語として認識される例:書い/てく (助動詞てく) 2. ある語の異形として認識される 例 : すんごい (すごい [終止形-一般])、 3. 活用形として認識される 例 : 走ん/のだ (走る [終止形-撥音便]) 4. 正しく解析できない しかしながら、いずれの場合も、「音変化が起きている」ことが明示的に出力されるわけではない。 そのため、音変化表現の検出には、 4 節に示すような検出規則が必要となる。 ## 3 Panzer/U の概要 Panzer/U の構成を図 1 に示す。基本的な構成は Panzer [1] を踏襲している。Panzer/U は、前処理 (形態素解析) の結果として得られる形態素列に対して、文末述語の範囲を決定し、その範囲を HB3 の Brick 列 (内容語と機能語列) に変換する。オリジナルの Panzer では、前処理として、形態素解析と文節解析 (Juman+KNP) を用いているが、Panzer/U の前処理 図 $1 \mathrm{Panuzer/U}$ の構成 は、UniDic/MeCabによる形態素解析のみで、文節境界の決定は、組み込み規則によって行う。以下に、 Panzer/U の実行例を示す。ここで、a が入力、bと c が出力であり、bは内容語、cは機能語列を表す。下線は音変化に関わる Brick [7] を表す。 (5) a. 張り切ってるわね b. 張り切る c. テ助動詞る, 終助詞わ, 終助詞ね (6) a. まさか、遭難じゃないだろなあ b. 遭難 c. じゃない, だろう, ウ脱落, 終助詞なあ (7) a.こんなに暗いのに、車にはねられたらどうすんだ! b. どうする c. ル脱落, 連体助動詞んだ, 感嘆符 (8) a. おまえ、日本語しゃべれるじゃねえか b. しゃべれる c. じゃない, アエ交替, 終助詞か, 句点 HB3 は益岡・田篞文法 [8] とそれに準拠する Juman 体系から発展した羽織文法に基づくため、HB3 の Brick と Juman の形態素の差異は比較的小さい。その一方で、UniDic の短単位との差異は、かなり大きい。そのため、Brick 列への変換の過程で、この差異を吸収する必要がある。 短単位列から Brick列への変換は、おおよそ、次の 3 種類に分類できる。 1. 文脈を考慮しない変換 (a) 1 つの短単位 $\rightarrow$ Brick (列) 例 : 終助詞ね $\rightarrow$ 終助詞ね (b) 複数の短単位 $\rightarrow$ Brick (列) 例 : 書い + 助動詞た $\rightarrow$ 書く+夕形 書い + 接続助詞て $\rightarrow$ 書く+夕系連用テ形 2. 文脈を考慮した変換 例 : (食べ) 終助詞な $\rightarrow$ 終助詞な命令 (食べる) 終助詞な $\rightarrow$ 終助詞な禁止 タイプ (1a) は単純な変換である。タイプ (1b) は単位の差異を吸収する変換で、Panzer/U ではこのタイプの変換が多数存在する。例に示したような、活用語の直後の助動詞や接続助詞を、活用語尾 (活用形) とする変換は、その典型である。 タイプ (2) の文脈に依存した变換は、短単位 (列) が、複数の変換候補を持つ場合である。たとえば、 HB3 では命令を表す「終助詞な命令」と、禁止を表す「終助詞な禁止」を区別する。そのため、「終助詞な」の変換先は、直前の語の活用形を参照しなければ定まらない。 なお、Panzer/U の開発には、『舟を編む』[9]、および、『風が強く吹いている』[10] (0 章から 5 章の途中まで) から抜き出した発話文、約 3000 文を開発用データとして利用した。 ## 4 音変化表現の検出 Panzer/U の実装に先立ち、音変化表現を生成する仕組み (Brick)を HB3 に導入した [7]。HB3 における音変化表現の扱いには、次の 5 種類がある。 1. 内容語として扱う 例:やっぱし 2. 音変化形 (異形) を作り出すコマンドで扱う 例:ウ脱落, ル脱落, アエ交替 3. 活用形として扱う 例:条件音便形, 条件音便縮約形, 連用ウ音便形 4. 機能語として扱う 例:テ助動詞る,テ縮約接尾辞とく 5. テンス有標 (タ) の拡張として扱う 例:タあ 解析を担う Panzer/U は、入力文に含まれる音変化表現を検出し、表層文字列に復元可能な Brick (列) に変換する必要がある。以下では、2 節に示した 4 つの場合の概要を示し、付録に実装した検出規則の一覧を示す。なお、文末解析では、文末の機能語とその直前の内容語 (多くは、活用語) を扱うため、実装した検出規則は、これらに関わる音変化を対象としている。 1. 独立した語として認識される場合この場合の変換は容易で、あらかじめ用意した変換テーブルで、Brickに変換する。対象となるのは機能語で、具 体例には「てる・てく・とる・とく・ちまう・ちゃう」などがある。 2. ある語の異形として認識される場合活用しない内容語の音変化、および、活用する内容語の語幹の音変化 ${ }^{1)}$ は、新たな (表記の) 内容語として扱う。 つまり、音変化は明示的に検出しない。それ以外の語に対しては、検出規則によって音変化を検出し、対応する Brick に変換する。 たとえば、「すげえ」は「すごい」の異形として認定される。しかし、その活用形は「終止形-一般」であり、活用形だけからは音変化が起きているかどうかはわからない2)。そのため、検出規則を適用して、音変化表現かどうかを決定する。 3. 活用形として認識される場合活用形「仮定形融合」は、それだけから音変化が起きていることがわかるが、「美しけりゃ」も「美しきゃ」も「仮定形-融合」と認定されるため、どのような音変化が起きているか一意には決定できない。そのため、検出規則を適用し、音変化表現の種類を同定する。 4. 正しく解析できない UniDicを用いても、すべての音変化表現が正しく解析できるわけではない。 いくつかの典型的な誤りに対しては、誤りを修正して音変化表現として検出したり、音変化が起きていない表現に修正したりする。以下に例を示す。 (9) 食べりゃ/あ/いい (あ [感動詞]) $\rightarrow$ 食べる, 条件音便形, ア長音化, バいい (10) 食べ/て/やん/の (やる [連体形-撥音便]) $\rightarrow$ 食べる, テ助動詞やがる, 連体省略撥音形, 終助詞の (11) 食べる/ねえ(ない [終止形-一般]) $\rightarrow$ 食べる, 終助詞ねえ ## 5 Panzer/U の性能 以下のデータを用いて、Panzer/U による文末解析の性能評価を行なった。 開発用データシステム開発に使用した発話文の一部。『舟を編む』[9] の 1 章から 100 文 (D1)。『風が強く吹いている』[10]の 2 章と 5 章からそれぞれ 100 文 (D2,D3)。 評価用データ『風が強く吹いている』の 7 章から 100 文 (T1)。『氷菓』[11]の 3 章と 5 章からそれぞれ 100 文 (T2, T3)。  これらの文は、出典において引用記号 (鉤括弧) で囲われた部分に出現し、かつ、文末に述語 (動詞・形容詞・判定詞) が存在する文である。 Panzer/U の出力の正誤判定結果を表 1 に示す。括弧内の数字は、文末に音変化表現が含まれている文数 (内数) を表す。なお、出力の正誤判定は、それほど自明ではないため3)、正誤判定が難しい場合は 「?」とした。 この表より、おおむね $90 \%$ の発話文が正しく解析されていることがわかる。発話文の $23 \%$ (138/600) には文末に音変化表現が含まれているが、それらの文でも精度が特に低いわけではない。 しかしながら、この結果をもって、音変化表現を含む文末表現が高い精度で解析できるようになったと判断するのは早計である。文末述語に音変化表現を含む 138 文中、97 文は「じゃない・んだ (んです)・てる」のみを含む文であった。つまり、高い頻度で現れる音変化表現を正しく解析できているだけで、多くの種類の音変化表現を正しく解析できるかどうかは不明である。そのため、たとえば宮崎ら [6] が示した音変化パターンに基づいて例文集を作成し、これらがどの程度正しく解析できるかを確かめる必要がある。 一方、音変化表現を含む文の解析に失敗した原因のほどんどは、形態素解析の誤りであった。たとえば、末尾への促音 (「っ」)の付加の具体例である 「それは、本当ですかっ?」は、UniDic では以下のように形態素解析され、「すかっ」は副詞と判定される。 (12) それ/は/、/本当/で/すかっ/? 出現頻度が低い音変化表現は、UniDicでも正しく解析できないことが多いように思われる。このことからも、多くの種類の音変化表現を含む例文集を作成して、発話文解析ツールの開発や評価に使用することが重要となろう。 3)特に、内容語が複合語の場合、どこを文節境界と認定するかが難しい。 ## 6 表現文型の同定 Panzer/U の開発目的は、発話文の文末解析の実現にとどまらない。文末解析結果を利用して、発話文を『発話文表現文型辞書』[12] の文型に結びつけ、発話意図や話し方の特徴の情報を取得可能とすることを最終目標としている。 『発話文表現文型辞書』は、小説の発話文生成を念頭に、「ある目的 (発話意図) で発話する時、ある話し方で表すならば、この文型を使う」という情報を提供する辞書である。この辞書は、発話文生成での使用を想定して設計されたが、発話文解析において、与えられた発話文をこの辞書のエントリに結びつけることができれば、その発話文の発話意図や話し方特徵が判明する。これを実現すべく、『発話文表現文型辞書』の改定と Panzer/U を利用した表現文型の同定の実現を並行して進めている。 辞書の新しい版では、文末述語を、次のような形式でモデル化する。 (13) 中核要素 + 形式 + 主要部 + 末尾部 ここで、中核要素は、この述語の中核となる部分 (動詞、形容詞、名詞+判定詞)を表す。一方、形式は、この中核要素の活用型、および、テンス・否定の有無を、それぞれ以下のようなアルファベット 1 文字で表したものである。 1. 活用型 $\mathrm{V}$ (動詞型)、A (イ形容詞型)、C (判定詞型) 2. テンス・否定 $\mathrm{b}$ (なし)、 $\mathrm{t}$ (テンスあり) $\mathrm{n}$ (否定あり)、 $\mathrm{k}$ (テンス・否定あり) 末尾部は、文末述語の最後尾に位置する終助詞 (列)を、主要部は、それ以外の要素 (機能語列)を表す。以下に、具体例を示す。 (14) a. 食べる方がいいよ b. 食べる, 方がいい, よ c. 食べる, $\mathrm{Vb}$, 方がいい, よ d. 食べる, $V b$, 文型_方がいい_よ (15) a. 行かない方がいいわ b. 行く,ない,方がいい, わ c. 行く,Vn, 方がいい, わ d. 行く,Vn, 文型_方がいい_わ ここで、a は大力、bは Panzer/U の出力、 $\mathrm{c}$ は文末述語のモデルに沿った分解であり、d が表現文型の同定結果として出力する形式である (一部、情報を省略した)。 Panzer/U の出力から、表現文型を同定するために、まず、それぞれの表現文型がどのような機能語 (Brick) 列から構成されるかを定義しておく。実際の同定処理は、Panzer/U の出力を前から見ていき、中核要素と形式に対応する要素 (内容語、判定詞、夕、 ない)を取り除き、残った機能語 Brick列に基づき文型を決定すればよい。 文型「方がいいよ」「方がいいわ」は、いずれも発話意図「忠告」の文型として辞書に定義されている。さらに、前者は、特に話し方特徴を持たないと定義されているのに対し、後者は「女性的・親しみ」 という話し方特徴を持つと定義されている。表現文型が同定され、辞書のエントリが一意に定まれば4)、 このような情報が得られることになる。 ## 参考文献 [1]左野正裕, 佐藤理史, 宮田玲. 文末述語における機能表現検出と文間接続関係推定への応用. 言語処理学会第 26 回年次大会発表論文集, pp. 1483-1486, 2020. [2]佐藤理史. HaoriBricks3: 日本語文を合成するためのドメイン特化言語. 自然言語処理, Vol. 27, No. 2, pp. $411-444,2020$. [3]柳将吾, 佐藤理史. ウィキペディアから抽出した人物エピソードの話し言葉への変換. 言語処理学会第 26 回年次大会発表論文集, pp. 437-440, 2020. [4]Taichi Kato, Rei Miyata, and Satoshi Sato. BERT-based simplification of Japanese sentence-ending predicates in descriptive text. In Proceedings of the 13th International Conference on Natural Language Generation, pp. 242-251. Association for Computational Linguistics, 2020. [5]Unidic,(2021-1 閲覧).https://unidic.ninjal.ac.jp. [6]宮崎千明, 佐藤理史. 発話テキストへのキャラクタ性付与のための音変化表現の分類. 自然言語処理, Vol. 26, No. 2, pp. 407-440, 2019. [7]佐藤理史, 柳将吾, 夏目和子. HaoriBricks 3 による音変化表現の生成. 言語処理学会第 27 回年次大会発表論文集, 2021 (発表予定). [8]益岡隆志, 田窪行則. 基礎日本語文法-改訂版- くろしお出版, 1992. [9]三浦しをん. 舟を編む. 光文社, 2011. [10]三浦しをん. 風が強く吹いている. 新潮社 (新潮文庫), 2009. [11]米澤穂信. 氷菓. KADOKAWA (角川文庫), 2001. [12]夏目和子, 佐藤理史. 発話文表現文型辞書の設計と編纂. 言語資源活用ワークショップ 2019 発表論文集, pp. 295-312, 2019. 4)表現文型の同定ができたからといって、かならずしも表現文型辞書のエントリが一意に決定できるわけではない。なぜなら、同一の文型が複数の表現意図に対して使用できる (定義されている) からである。 ## 付録 音変化表現の検出規則一覧 活用形 $=$ 語幹-一般 1. $\left(\begin{array}{l}\text { 品詞 }=\text { 形容詞 } \\ \text { 後続要素 }=\text { 取立助動詞なる }\end{array}\right) \rightarrow$ 連用形 + ク脱落例:うれしфなる ## 活用形 $=$ 終止形-一般 2. $\left(\begin{array}{l}\text { 表層形末尾 }=え \\ \text { 基本形末 }=\mathrm{O}\end{array}\right) \rightarrow$ オエ交替 例:すげえ 3. $\left(\begin{array}{l}\text { 表層形末尾 }=え \\ \text { 基本形末尾 }=\mathrm{A} い\end{array}\right) \rightarrow$ アエ交替例:うるせえ 4. (表層形末尾 $=$ 亢 $) \rightarrow$ 末尾長音小書化例:うるせえ 5. $\left(\begin{array}{l}\text { 表層形末尾 }=\mathrm{I} い \\ \text { 基本形末尾 }=\mathrm{U}\end{array}\right) \rightarrow$ ウイ交替例:わりい ## 活用形 $=$ 終止形-撥音便 6. $($ 活用型 $=$ 助動詞-又 $) \rightarrow$ 終止音便形例 : 食べん 7. ( 活用型 $\neq$ 助動詞-又) $\rightarrow$ ル撥音化例 : 走んぞ ## 活用形 $=$ 終止形-促音便 8. (基本形末尾 $=$ る) $\rightarrow$ 基本形 + ル音促音化例: 入れっか 9. (基本形末尾 $=い ) \rightarrow$ 基本形 + 个音促音化例:いっか ## 活用形=未然形-撥音便 10. $\rightarrow$ 未然形 + 亏撥音化 例:煽んない ## 活用形 $=$ 連用形 $-一$ 般 11. $\left(\begin{array}{l}\text { 活用型 }=\text { 下一段サ行 } \\ \text { 表層形の末尾 }=し\end{array}\right) \rightarrow$ セシ交替例 : 食べさして ## 活用形 $=$ 連体形-撥音便 12. $\rightarrow$ 儿撥音化 例 : 走んのだ ## 活用形=連用形-促音便 13. $\left(\begin{array}{l}\text { 活用型 }=\text { 上一段 } \\ \text { 後続要素 }=\text { て・た }\end{array}\right) \rightarrow$ イ音促音化例 : おっこってしまう 14. (基本形 $=$ 歩 $\left.\begin{array}{l}\text { 基本形 }=\text { 歩く } \\ \text { 後続要素 }=\text { て・た }\end{array}\right) \rightarrow$ イ音促音化例 : 歩ってしまう 15. $\left(\begin{array}{l}\text { 基本形末尾 }=\text { る } \\ \text { 後続要素の先頭 }=\text { か }\end{array}\right) \rightarrow$ ル促音化例 : 食べっか ## 活用形=連用形-ウ音便 16. $($ 表層形末尾 $=う) \rightarrow$ 連用ウ音便テ形例:もろうて 17. (表層形末尾 $\neq$ う) $\rightarrow$ 連用ウ音便省略テ形例:もろ $\phi \tau$ ## 活用形 $=$ 連体形 - 省略 18. $\rightarrow$ ル脱落 例:食べてんだ ## 活用形 $=$ 仮定形 - 融合 19. $\left(\begin{array}{l}\text { 品詞 }=\text { 形容詞 } \\ \text { 表層形末尾 } \neq \emptyset \text { ゃ }\end{array}\right) \rightarrow$ 条件音便縮約形例:美しきゃ 20. $\left(\begin{array}{l}\text { 活用型 }=\text { 助動詞ナイ } \\ \text { 表層形末尾 } \neq \text { りゃ }\end{array}\right) \rightarrow$ 条件音便縮約形例:なきゃ 21. ((上記以外) $) \rightarrow$ 条件音便形例:食べりゃ ## 活用形=意志推量形 22. (表層形末尾 $=$ つ $) \rightarrow$ ウ促音化 例:走ろっか 23. (表層形末尾 $\neq$ うっ) $\rightarrow$ ウ脱落 例:走ろ $\phi$ か ## 副助詞って 24. $\left(\begin{array}{l}\text { 直前の品詞 }=\text { 形容詞 } \\ \text { 直前の活用形 }=\text { 連用形 }\end{array}\right) \rightarrow$ テ形 + テ促音挿入例:あたたかくって ## 助動詞た 25. (表層形 $=$ たあ $) \rightarrow$ タあ例 : たべちゃったあ 「ない」 26. $\left(\begin{array}{l}\text { 活用形 }=\text { 終止形 }- \text { 一般 } \\ \text { 表層形 }=\text { ね }\end{array}\right) \rightarrow$ 語末長音化 + 工脱落例:いいんじゃね 「っす」 27. $($ 活用型 $=$ 助動詞デス $) \rightarrow$ 助動詞っす
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C9-3.pdf
# マスクされた単語の埋め込みと 2 段階クラスタリングを用いた 動詞の意味フレーム推定 山田 康輔 1 笹野遼平 1,2 武田 浩一 1 1 名古屋大学 2 理化学研究所 yamada.kosuke@c.mbox.nagoya-u.ac.jp \{sasano, takedasu\}@i.nagoya-u.ac.jp ## 1 はじめに 本研究では,テキスト中の動詞が喚起する意味フレームの推定に取り組む。具体的には,FrameNet [1] で定義されているフレームごとにテキスト中の動詞をクラスタリングすることを目標とする. たとえば,表 1 の (1)〜(4) に示す FrameNet の用例の場合,動詞が喚起するフレームごとに $\{(1)\},\{(2)\},\{(3)$ , (4)\}の 3 つのクラスタにまとめることが目標となる.動詞の意味フレーム推定では,近年 ELMo [2] や BERT [3] などの文脈化単語埋め込みの有用性が報告されている.たとえば,SemEval2019 の共通タスク [4] でベースラインを超えた 3 手法 [5, 6, 7] はいずれもフレーム推定対象動詞の文脈化単語埋め込みを利用したクラスタリングに基づく手法となっている. しかし,これらの手法には 2 つ問題点がある. 1 つ目の問題点は,推定対象となる動詞の表層的な情報の影響が大きいことである.表 1 の「get」のように,一部の動詞は文脈により異なるフレームを喚起する. しかし, 文脈化単語埋め込みは対象単語の表層的な情報も含むことから,同一の動詞の埋め込みは類似する傾向がある。このため,クラスタリングの結果,同一の動詞の用例が 1 つのクラスタにまとめられることが多い.たとえば,FrameNetから 「get」と「acquire」の用例を抽出し, 事前学習済みの BERTを用いてこれらの文脈化単語埋め込みを獲得し, t-SNE[8] で 2 次元にマッピングした結果を図 1 左に示す.「get」が喚起するフレームのうち, Getting フレームが付与された用例の動詞の文脈化単語埋め込みは, 同じく Getting フレームを喚起する「acquire」の用例の動詞の文脈化単語埋め込みに近い位置に分布する傾向はあるものの,喚起するフレーム間の差より動詞間の差の方が大きいことが確認できる. 本研究ではこの問題を解消するため,対象動詞をマスクした文脈化単語埋め込みを利用する手法を提表 1: FrameNet の動詞「get」と「acquire」の用例と各動詞が喚起するフレーム (括弧内). 図 1: 動詞「get」と「acquire」の動詞 (左) とマスクされた動詞 (右) の BERT による埋め込みの 2 次元マッピング.番号は表 1 に対応し,■と + は動詞「get」と「acquire」,各色は Arriving, Transition_to_state, Getting フレームを示す. 案する. 図 1 左と同様に,マスクされた動詞の文脈化単語埋め込みを 2 次元にマッピングした結果を図 1 右に示す。マスクを用いた場合は,動詞の表層的な情報は限定的となり,同一のフレームを喚起する用例が近い位置に分布することが確認できる。 2つ目の問題点は,全動詞の用例を一度にまとめてクラスタリングしていることである。この結果,各動詞が喚起するフレームの異なり数は多くても数個程度と限定的であるにも関わらず,1つの動詞の用例が多くの異なるクラスタに属すると判断される可能性がある.本研究では,このような事態を避けるため,まず動詞ごとに用例のクラスタリングを行った後,動詞横断的にフレーム単位でまとめる 2 段階クラスタリングに基づく手法を提案する。 ## 2 提案手法 本研究では,テキスト中の動詞が喚起するフレー 么の推定に,マスクされた単語の埋め込み,および, 2 段階クラスタリングを利用する手法を提案する。 ## 2.1 マスクされた単語の埋め込みの利用 提案手法では動詞のフレーム推定に利用する埋め込みとして, 従来手法で使用された推定対象動詞の文脈化単語埋め込みに加え,その動詞をマスクした場合の文脈化単語埋め込みを利用する. 本研究では以下の 3 種類の文脈化単語埋め込みを考える。 1. $v_{\mathrm{WORD}}$ : 対象の動詞の通常の文脈化単語埋め込み 2. $v_{\text {MASK }}$ : 対象の動詞を “[MASK]” に置き換えた場合の文脈化単語埋め込み 3. $v_{\mathrm{w}+\mathrm{M}}$ : 次式で定義される上記 2 つの加重平均 $ v_{\mathrm{w}+\mathrm{M}}=(1-\alpha) \cdot v_{\mathrm{WORD}}+\alpha \cdot v_{\mathrm{MASK}} $ $v_{\mathrm{w}+\mathrm{M}}$ は対象の動詞をマスクした場合と,しない場合の文脈化単語埋め込みの加重平均である. 開発セットを用いて重み $\alpha$ を適切に設定することにより,対象の動詞の表層的な情報の重みと周辺文脈から得られる情報の重みを適切に考慮した埋め込みが得られることを期待している。 $\alpha$ を 0 とした場合は $v_{\text {wORD }}$ と, 1 とした場合は $v_{\text {MASK }}$ と一致する。 ## 2.22 段階クラスタリング 提案手法では,1 段階目で動詞ごとに用例のクラスタリングを行った後,2 段階目で動詞横断的なクラスタリングを行い,最終的に生成されたクラスタがそれぞれ 1 つのフレームに対応すると考える. 1 段階目のクラスタリングにおいて,各動詞の用例を少数のクラスタにまとめることにより,1つの動詞の用例が多くの異なるクラスタに属することが避けられることを期待している。 図 2 に get」と「acquire」の用例を 2 段階クラスタリングしたときの流れを示す. この例では, 1 段階目のクラスタリングの結果, 「get」の用例は $3 \supset$,「acquire」の用例は 1 つのクラスタにまとめられ,2 段階目のクラスタリングにより,「get」のクラスタの1つと「acquire」のクラスタがマージされ, 最終的に3つのクラスタにまとめられている。 以下では,各クラスタリング手法の詳細について説明する. 動詞ごとの用例クラスタリング 1 段階目のクラスタリングは,各動詞の用例をその動詞が喚起するフレームごとにまとめることを目的とする.クラスタリング対象の用例の動詞は共通であり, 文脈化単語埋め込みとして $v_{\text {WORD }}$ を用いる場合と, $v_{\text {MASK }}$ を用いる場合で結果に大きな違いはないと考えられることから,1 段階目のクラスタリングでは文脈化単語 図 2: 2 段階クラスタリングの流れ. 左上,左下図はそれぞれ「get」と「acquire」を対象とした 1 段階目のクラスタリング,右図は 2 段階目のクラスタリングを示している.各図における』と+はそれぞれ「get」と「acuquire」の各用例の埋め込みを表す。 埋め込みとして $v_{\text {MASK }}$ のみを用いる.クラスタリング手法としては,X-means [9],または,ユークリッド距離に基づく群平均法による階層型クラスタリングを用いる。ここで,X-means は自動でクラスタ数を決定する手法であるが,階層型クラスタリングはクラスタリングの終了基準を必要とする. 群平均法では,クラスタ間距離をクラスタをまたがる全要素ペアの平均距離により定義し,クラスタ間距離が小さいクラスタから順にマージするが,本研究ではクラスタ間距離が閾値 $\theta$ 以下となるクラスタペアがなくなった時点でクラスタリングを終了する。閾値 $\theta$ は全動詞で共有され,十分に大きな値に設定した場合,すべての動詞についてクラスタは 1 つとなる.本研究では, $\theta$ を十分に大きな值から徐々に小さくしていき,全動詞のクラスタ数の平均が,開発セットにおいて各動詞が喚起するフレーム数の平均と一致する値に設定する。 フレーム意味論では,語と意味フレームを結び付けたものを語彙項目 (Lexical Unit; LU) と呼ぶ. 1 段階目のクラスタリングにより生成されたクラスタは,各動詞の用例をそれが喚起するフレームごとにまとめたものであることから,各クラスタはLUに対応する集合とみなせることができ,本稿では 1 段階目のクラスタリングで生成された各クラスタを疑似 LU (pseudo-LU; pLU) と呼ぶことにする. 動詞横断的クラスタリング 2 段階目のクラスタリングでは,1 段階目のクラスタリングで生成した pLUを,動詞横断的にそれが喚起するフレームごとにまとめることを目的とする。 まず,pLUごとに各用例の文脈化単語埋め込みの平均を算出し,その後,算出された平均埋め込みを用いて動詞横断的に 表 2: FrameNetから作成したデータセット クラスタリングを行う.具体的なクラスタリング手法には,ユークリッド距離に基づく群平均法あるいはウォード法による階層型クラスタリングを用いる. クラスタリングは, 2 つの $\mathrm{pLU}$ が同じクラスタに属する割合 $P_{\mathrm{C}_{1}=\mathrm{C}_{2}}$ が,開発セットにおいて 2 つの $\mathrm{LU}$ が同じフレームに属する割合 $P_{\mathrm{F}_{1}=\mathrm{F}_{2}}$ 以上となった時点で終了する. ここで, $P_{\mathrm{F}_{1}=\mathrm{F}_{2}}$ は式 (2) により算出される. 一方, $P_{\mathrm{C}_{1}=\mathrm{C}_{2}}$ も同様に計算できるが, $\mathrm{pLU}$ の全ペア数はクラスタリングの段階に依らず一定であるのに対し,同じクラスタに属する pLU のぺア数はクラスタリングが進むにつれて単調増加し,全体が 1 つのクラスタとなった時点で 1 となる.このため, クラスタリングの過程で $P_{\mathrm{F}_{1}=\mathrm{F}_{2}}$ 以上の値となることが保証される。また,無作為に抽出した 2 つの LU が同じフレームに属する確率はデータサイズに依らないことから,このような基準はテストセットのサイズに依らず有効であると考えられる. $ p_{\mathrm{F}_{1}=\mathrm{F}_{2}}=\frac{\text { 同じフレームに属する } \mathrm{LU} \text { のペア数 }}{\mathrm{LU} \text { の全ペア数 }} $ ## 3 実験 提案手法の有効性を確認するため,テキスト中の動詞の意味フレーム推定実験を行った。 ## 3.1 実験設定 データセット FrameNet ${ }^{1}$ から,いずれかのフレー ムにおいて 20 以上の用例をもつ LU となっている動詞,および,該当する LU の用例を抽出し実験に使用した. LU ごとの用例数は最大 100 件とし, 100 件を越える場合は無作為に 100 件を選択し用いた。抽出された動詞は全部で 1,272 個であり,そのうち 20\%の 255 動詞を開発セットとして,残りの 1,017 動詞をテストセットとして使用した. この際,複数のフレームを喚起する動詞 2 の割合が開発セットとテストセットで一致するように留意した。なお,開発セットは各種パラメータ,および,文脈化単語埋め込みとして使用する層の決定に利用した. 表 2 に作成したデータセットの統計值を示す.  比較モデル提案手法では, 1 段階目のクラスタリング法として群平均法による階層型クラスタリングまたは X-means を,2 段階目のクラスタリング法としてウォード法または群平均法による階層型クラスタリングを用いることから,提案モデルとしてこれらを組み合わせた計 4 種類のモデルを比較した.また,1 動詞をそのまま1クラスタとして扱うモデル (1-cluster-per-verb; 1 cpv), 1 動詞を 1 クラスタ (1 cpv')にまとめた上で 2 段階目のクラスタリングを行うモデルとも比較した. SemEval2019 の共通タスクのスコアの高かった上位 3 つの先行モデルとの比較も行った. Arefyev ら [5] は,推定対象動詞の BERT の埋め込みを用いてコサイン類似度に基づく群平均法による階層型クラスタリングをした後,BERTを用いて得た推定対象動詞の言い換え単語による TF-IDFにより特徴量を生成して,各クラスタを 2 分するクラスタリングを行っている. Anwar ら [6] は, skip-gram [10] で推定対象動詞の埋め込みと文全体の埋め込みを連結した表現を用いてマンハッタン距離に基づく群平均法による階層型クラスタリングを行っている. Ribeiro ら [7] は,推定対象動詞の ELMo の埋め込みを獲得して Chinese Whispers [11] によるグラフクラスタリングを行っている. 2 段階クラスタリングの有用性を確認するため,1 段階でクラスタリングを行うモデルとの比較も行った. 1 段階クラスタリングに基づくモデルでは,提案モデルと同様に,文脈化単語埋め込みとして $v_{\mathrm{w}+\mathrm{M}}$ を使用し,重み $\alpha$ は開発セットを用いて調整し, ウォード法または群平均法による階層型クラスタリングを用いた. クラスタ数に関しては正解のフレー 数を人手で与え,クラスタ数が正解のフレーム数と一致した時点でクラスタリングを停止した. 実験設定評価尺度として,B-Cubed Precision (BCP),B-Cubed Recall (BCR),およびその調和平均である B-Cubed F-score (BCF) と, Purity (PU), Inverse Purity (IPU),およびその調和平均である F-score (PIF) の 6 つの尺度を利用した. B-Cubed はクラスタ集合と人手で付与されたフレーム集合の用例の分布に着目した用例単位の評価指標,PU と IPU はそれぞれクラスタ内のフレームの一貫性と同一フレームによるクラスタの集中性を評価する指標である。また,文脈化単語埋め込みは, Hugging Face が公開している Transformers ${ }^{3}$ に含まれる事前学習済みの BERT 3 https://github.com/huggingface/transformers } & $1 \mathrm{cpv}$ ' & ウォード法 & 0.8 & 1017 & 164 & $54.8 / 73.1 / 62.7$ & $43.1 / 64.3 / 51.6$ \\ (bert-base-uncased) を利用した。 ## 3.2 実験結果 表 3 に FrameNet データセットを用いた実験の結果を示す. SemEval2019 の共通タスクにおいてシステムの順位付けに使用された BcF で比較した場合, 1 段階目に X-means,2 段階目に群平均法によるクラスタリングを行う提案モデルが 64.4 となり,全手法の中で最も高いスコアを達成した.PIFにおいても最も高いスコアを達成するなど,すべての指標で高いスコアとなっている。また,2 段階目のクラスタリングの終了基準に関しても,正解のフレーム数は 393 であるのに対してクラスタ数は 410 であり, 有効に機能していることが確認できる. マスクされた単語の埋め込みの有用性全ての 2 段階クラスタリングに基づく手法において $\alpha$ は 0.0 , 1.0 以外の値となっていることから, $v_{\text {WORD }}$ と $v_{\text {MASK }}$ の両方を考慮することが有効であることが確認できる.また,いずれの手法においても $\alpha$ は 1.0 に近い值となっていることから,動詞横断的クラスタリングにおいては $v_{\mathrm{MASK}}$ の方が有用であると考えられる.一方,1 段階クラスタリングに基づく手法における $v_{\mathrm{w}+\mathrm{M}}$ は $\alpha=0.0$ で $v_{\text {WORD }}$ と同じ埋め込みとなっており,用例全体でクラスタリングする際の $v_{\mathrm{MASK}}$ の有用性は確認できなかった。 2 段階クラスタリングの有用性 2 段階目のクラスタリング手法として群平均法を用いた場合に全体的に高いスコアとなっており,2 段階クラスタリングの有用性が確認できる. また, 1 動詞をそのまま 1クラスタとして扱う (1cpv) よりも,1 クラスタにまとめた (1cpv') 後に動詞横断的にクラスタリングを行う 2 段階手法の方が高いスコアとなった. さら に,1 段階目で $\mathrm{pLU} を$ 生成する際も,1cpv' の後に群平均法によるクラスタリングを利用するモデルよりも X-means の後に群平均法によるクラスタリングを利用したモデルが高いスコアとなっており,動詞ごとの用例クラスタリングも有用であることが確認できる. ここで,2 段階目のウォード法によるクラスタリングが群平均法によるクラスタリングより全体的にスコアが低いのは, ウォード法がクラスタ内の用例数が増えるほど結合しづらく,全体的にサイズの小さいクラスタが多くなり,クラスタリング終了条件がうまく機能せず全体のクラスタ数が実際のフレー ム数より少なくなるためだと考えられる. ## 4 まとめと今後の展望 本研究では,テキスト中の動詞が喚起する意味フレームの推定において,マスクされた単語の埋め込みと 2 段階クラスタリングを利用する手法を提案した.また,FrameNetを用いた評価実験を行い,従来手法より高い精度を達成すること,マスクされた単語の埋め込みおよび 2 段階クラスタリングが有効であることを示した. 本研究の最終目標はフレーム知識を構築することであり,このためには動詞の意味フレームを推定するだけでなく,各フレームが必要とする項の特定, および,項の意味役割の推定が必要となる.今後は文脈化単語埋め込みをフレーム項の特定,および, その意味役割推定に取り組む予定である。 ## 謝辞 本研究の一部は JSPS 科研費 $18 \mathrm{H} 03286$ の助成を受けたものである. ## 参考文献 [1] Collin F Baker, Charles J Fillmore, and John B Lowe. The berkeley framenet project. In Proceedings of the 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computational Linguistics (ACL-COLING'98), pp. 86-90, 1998. [2] Matthew Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. Deep contextualized word representations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACLHLT'18), pp. 2227-2237, 2018. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACLHLT'19), pp. 4171-4186, 2019. [4] Behrang QasemiZadeh, Miriam R. L. Petruck, Regina Stodden, Laura Kallmeyer, and Marie Candito. SemEval-2019 task 2: Unsupervised lexical frame induction. In Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval'19), pp. 16-30, 2019 [5] Nikolay Arefyev, Boris Sheludko, Adis Davletov, Dmitry Kharchev, Alex Nevidomsky, and Alexander Panchenko. Neural GRANNy at SemEval-2019 task 2: A combined approach for better modeling of semantic relationships in semantic frame induction. In Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval'19), pp. 31-38, 2019. [6] Saba Anwar, Dmitry Ustalov, Nikolay Arefyev, Simone Paolo Ponzetto, Chris Biemann, and Alexander Panchenko. HHMM at SemEval-2019 task 2: Unsupervised frame induction using contextualized word embeddings. In Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval'19), pp. 125-129, 2019 [7] Eugénio Ribeiro, Vânia Mendonça, Ricardo Ribeiro, David Martins de Matos, Alberto Sardinha, Ana Lúcia Santos, and Luísa Coheur. L2F/INESC-ID at SemEval-2019 task 2: Unsupervised lexical semantic frame induction using contextualized word representations. In Proceedings of the 13th International Workshop on Semantic Evaluation (SemEval'19), pp. 130-136, 2019. [8] Laurens van der Maaten and Geoffrey Hinton. Visualizing data using t-sne. Journal of Machine Learning Research, Vol. 9, pp. 2579-2605, 2008. [9] Dan Pelleg, Moore, and Andrew W. X-means: Extending k-means with efficient estimation of the number of clusters. In Proceedings of the 17th International Conference on Machine Learning (ICML'O0), pp. 727-734, 2000 [10] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. In Advances in Neural Information Processing Systems (NIPS'13), pp. 3111-3119, 2013. [11] Chris Biemann. Chinese whispers-an efficient graph clustering algorithm and its application to natural language processing problems. In Proceedings of TextGraphs: the First Workshop on Graph Based Methods for Natural Language Processing, pp. 73-80, 2006.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C9-4.pdf
# 事前学習と finetuning の類似性に基づくゼロ照応解析 今野颯人 1 清野舜 2,1 松林優一郎 ${ }^{1,2}$ 大内啓樹 2 乾健太郎 1,2 1 東北大学 2 理化学研究所 \{ryuto, inui\}@ecei.tohoku.ac.jp y.m@tohoku.ac.jp \{shun.kiyono, hiroki.ouchi\}@riken.jp ## 1 はじめに 日本語や中国語では,述語の項が頻繁に省略される. ゼロ照応解析 (zero anaphora resolution; ZAR) はそのような項の省略を解析するタスクであり,文の意味理解のために重要な役割を担っている。図 1 の日本語における ZAR の例では,「来なかった」という述語の主語である「友人」が省略されている。 図 1 日本語におけるゼロ照応解析の例. 省略された項はゼロ代名詞と呼ばれ, $\phi$ で表される. この省略の解析にはゼロ代名詞と照応先周辺にある文脈的つながりを理解するための常識的知識(照応的知識と呼ぶ)が必要である. 例えば図 1 では,「招待された友人」が「来なかった人」になりやすいといった知識である. 照応的知識を大規模コーパスから獲得する研究はこれまでにも行われてきたが $[1,2]$, 従来は複数の述語と項のペアで表されるイベント間の関係(スクリプト知識)に焦点を絞っており,ZARへの効果は限定的であった。 そこで本研究では, この照応的知識獲得の問題に対して二つの提案を行う。一つは,より広範な文脈表現を扱うための学習方法の提案(知識獲得法の改善)であり,もう一つは,学習した照応的知識を適切に利用する方法の提案 (知識適用法の改善) である. 第一に,照応的知識の獲得に焦点を当てた新たな事前学習タスクである擬似ゼロ代名詞解析 (pseudo zero pronoun resolution; PZERo)を提案する (図 2). PZERO は,生テキストに 2 回以上登場する名詞句の一つをマスクし,マスクに入る語を文脈から選択するタスクである。これは,これまでに照応的知識を必要とするタスクの性能に貢献することが報告されてきた $[3,4,5]$ 従来の MLM の事前学習方法(cloze タスク [6])を,より照応関係を直接学習するように設計し直すもので,広範な文脈表現の間 \author{ 生テキスト \\ 男が新入社員を招待したが、新入社員は来なかった。 \\ 擬似ゼロ代名詞解析 (PZERO) \\ 男が新入社員を招待したが、[MASK] は来なかった。 } 図 2 擬似ゼロ代名詞解析(PZERO)の概要 の関係をモデルに与えられる。 第二に,新たな事前学習で獲得した知識を適切に解析へ適用するため,事前学習とタスク形式をそろえた ZAR モデル,擬似ゼロ代名詞に基づく項選択 (argument selection as PZero; AS-PZero)モデルを提案する.これにより, 事前学習と fine-tuning の隔りを緩和し, 事前学習で得た照応的知識を ZARへ適用することを狙う,提案手法の全体像を図 3 に示す。 実験の結果,我々が提案する事前学習タスクとモデルを組み合わせることで,日本語 ZAR の性能を大幅に向上させられることがわかった. ## 2 日本語ゼロ照応解析 日本語 ZAR は, 述語の項を同定する述語項構造解析タスクの一部として定式化されている. 述語項構造解析では, ZARに加え, 述語と直接係り受け関係にある項(DEP)も解析対象であり,それぞれの述語に対してガ格,ヨ格,二格を同定する。また, ゼロ照応は述語とその項(ゼロ代名詞の照応先)との位置関係によって以下の三つに分類される。 ・文内ゼロ(intra):項が述語と同じ文内にある. ・文間ゼロ(inter):述語の文より前方にある. - 外界ゼロ (exophora): 項が文書内に出現しない.本研究では上記三つとDEPを解析対象とする。 ## 3 事前学習:擬似ゼロ代名詞解析 ## 3.1 定式化とモチベーション 擬似ゼロ代名詞解析(PZeRo)は,文章中に 2 回以上出現する名詞句のうち 1 箇所をマスクした文章 を受け取り,マスクに入る名詞句の主辞(サブワー ド)を入力テキスト中から一つ選択するタスクとして定式化する. 図 2 の例では, 2 回出現している 「新入社員」が解析対象となる.このタスクの狙いは,同じ文字列の名詞句が照応関係にあるという強い仮定を置き,マスクされた名詞句を擬似的にゼロ代名詞とみなすことで, 生文書から得る大量の訓練事例を用いて照応関係を直接事前学習し,ZARに必要な照応的知識を獲得することである. モデルは,一つのマスクトークン [MASK]を含む長さ $T$ の系列 $\boldsymbol{X}=\left(\boldsymbol{x}_{1}, \ldots, \boldsymbol{x}_{T}\right)$ を入力として受け取り,[MASK] に該当する名詞句の末尾のトークンを入力系列から選択する.ここで, $x \in \mathbb{R}^{|\mathscr{V}|}$ は one-hot べクトル,V は語彙である。また,マスクされた名詞句と同じ表層形をもつ名詞句は全て正解とみなす. ## 3.2 擬似データ作成方法 PZERO の訓練事例の作成方法を述べる. まず,生文書から連続した $n$ 個の文を取得し,サブワード系列へと変換する。このとき, MLM の訓練事例作成方法 [6] に従って, 系列の先頭に [CLS], 文の境界に [SEP] を挿入する. また, 系列の長さがモデルの最大系列長 $T_{\text {max }}$ を超えないように系列の先頭部分を削って調節する. 次に, 最後の文の中から同じ文字列が大力系列中に 2 回以上出現する名詞句を選択し,これを一つの $[$ MASK] へと置き換える。 ## 3.3 事前学習方法 Transformer ベースの MLM [6] をモデルに用いる. まず,入力系列 $\boldsymbol{X}$ を受け取り,各 $\boldsymbol{x}_{t}$ に対応する $D$次元の埋め込み表現 $e_{t} \in \mathbb{R}^{D}$ を入力層から得る. $ \boldsymbol{e}_{t}=\boldsymbol{e}_{t}^{\text {token }}+\boldsymbol{e}_{t}^{\text {position }} $ ここで, $\boldsymbol{e}_{t}^{\text {token }} \in \mathbb{R}^{D}$ は各トークンを表す単語埋め込み表現, $\boldsymbol{e}_{t}^{\text {position }} \in \mathbb{R}^{D}$ は位置を表す位置埋め込み表現である. 次に,得られた埋め込み表現の系列 $\left(\boldsymbol{e}_{1}, \ldots, \boldsymbol{e}_{T}\right)$ を, transformer 層によって最終隠れ層の系列 $\boldsymbol{H}=\left(\boldsymbol{h}_{1}, \ldots, \boldsymbol{h}_{T}\right)$ へとエンコードする. その後, 各最終隠れ層 $\boldsymbol{h}_{t} \in \mathbb{R}^{D}$ について, そのトークンが [MASK] に入るかどうかを表すスコア $s_{t} \in \mathbb{R}$ を, [MASK] の最終隠れ層 $\boldsymbol{h}_{\text {mask }}$ との計算によって得る. $ s_{t}=\left(\boldsymbol{W}_{1} \boldsymbol{h}_{t}+\boldsymbol{b}_{1}\right)^{\top} \cdot\left(\boldsymbol{W}_{2} \boldsymbol{h}_{\text {mask }}+\boldsymbol{b}_{2}\right) . $ $\boldsymbol{W}_{1}, \boldsymbol{W}_{2} \in \mathbb{R}^{D \times D}$ と $\boldsymbol{b}_{1}, \boldsymbol{b}_{2} \in \mathbb{R}^{D}$ は学習パラメータである.これよりスコア系列 $\boldsymbol{s}=\left(s_{1}, \ldots, s_{T}\right)$ を得る. 図 3 提案手法の概要 訓練では,正解となるトークンのスコアが最大となるようモデルを学習する.損失関数にはカルバック・ライブラー情報量 $\mathscr{L}=\operatorname{KL}(Y|| \operatorname{softmax}(s))$ を用いる. $Y \in \mathbb{R}^{T}$ は正解の位置を表す確率分布であり,正解となるトークンが $n$ 個存在する場合,正解の位置には $1 / n$ が,それ以外には 0 が割り当てられる。 ## 4 Fine-tuning:ゼロ照応解析モデル ## 4.1 ラベル確率に基づく項選択モデル 我々のベースラインであるラベル確率に基づく項選択(argument selection with label probability; AS)モデルは,Kurita ら [7] のモデルをべースとしており,事前学習済みモデルの上に分類層を追加したものである. モデルは, 系列 $\boldsymbol{X}$ と述語の区間を表す $p_{\text {start }}$, $p_{\text {end }}$ を大として受け取り, 述語の $l$ 格の項となる単語を $X$ から一つ選択する。ここで, $l$ はガ, ヨ,ニのいずれかを表す. 事前学習時の入力と同様,入力系列 $\boldsymbol{X}$ は [CLS] と [SEP] を含んだ複数の文から構成され, 最大系列長は $T_{\text {max }}$ である. 対象述語は常に末尾の文に存在する. また,述語の項が入力系列 $\boldsymbol{X}$ に存在しない場合にはモデルに [CLS] を選択させる。 まず,入力系列 $X$ を受け取り,各 $\boldsymbol{x}_{t} \in\{0,1\}^{|\mathscr{V}|}$ に対応する埋め込み表現 $\boldsymbol{e}_{t} \in \mathbb{R}^{D}$ を入力層から得る. $ \boldsymbol{e}_{t}=\boldsymbol{e}_{t}^{\text {token }}+\boldsymbol{e}_{t}^{\text {position }}+\boldsymbol{e}_{t}^{\text {predicate }} $ ここで, $\boldsymbol{e}_{t}^{\text {token }}$ と $\boldsymbol{e}_{t}^{\text {position }}$ は(1)式と同様であり, 新たに導入した $e_{t}^{\text {predicate }} \in \mathbb{R}^{D}$ は, $t$ 番目のトークンが述語かどうかを表す埋め込み表現である。 入力層の操作を図 4 に示す. 次に, 各埋め込み表現 $e_{t}$ から最終隠れ層 $\boldsymbol{h}_{t} \in \mathbb{R}^{D}$ を事前学習済みの transformer 層を用いて得る. その後, 入力系列に対するラベル $l$ の確率分布 $\boldsymbol{o}_{l}=\left(o_{l, 1}, \ldots o_{l, T}\right) \in \mathbb{R}^{T}$ を分類層から得る. $ o_{l, t}=\frac{\exp \left(\boldsymbol{w}_{l}^{\top} \boldsymbol{h}_{t}+b_{l}\right)}{\sum_{t} \exp \left(\boldsymbol{w}_{l}^{\top} \boldsymbol{h}_{t}+b_{l}\right)} . $ ここで, $\boldsymbol{w}_{l} \in \mathbb{R}^{D}$ と $b_{l} \in \mathbb{R}$ はモデルパラメータであ 図 4 AS と AS-PZERO における入力層. AS-PZERO にはクエリフレーズが存在. 対象述語の位置の与え方が異なる. 表 1 NTC 1.5 の評価セットにおける,入力が 1 文のみの 設定での $\mathrm{F}_{1}$ 值. る.最後に,確率分布 $o_{l}$ に従って,確率が最大となるトークンを述語の項 $l$ として一つ選択する。 モデルが [CLS]を選択した場合,さらに項を 4 つのカテゴリ $z \in\{$ author, reader, general,none\} へ分類する。ここで,author, reader, general は外界ゼロの細分類を, none は項が存在しないことを表す. 各カテゴリに対する確率分布 $o_{l}^{\text {exo }}=$ $\left(o_{l, \text { author }}^{\text {exo }}, o_{l, \text { reader }}^{\text {exx }}, o_{l, \text { general }}^{\text {ex }}, o_{l, \text { none }}^{\text {exx }}\right) \in \mathbb{R}^{4}$ は, 分類層により [CLS] の最終隠れ層 $\boldsymbol{h}_{1}$ から得る。 $ o_{l, z}^{\operatorname{exo}}=\frac{\exp \left(\boldsymbol{w}_{l, z}^{\top} \boldsymbol{h}_{1}+b_{l, z}\right)}{\sum_{z} \exp \left(\boldsymbol{w}_{l, z}^{\top} \boldsymbol{h}_{1}+b_{l, z}\right)} $ $\boldsymbol{w}_{l, z} \in \mathbb{R}^{D}$ と $b_{l, z} \in \mathbb{R}$ はモデルパラメータである. 学習時は,項を構成する末尾のトークンに正解ラベルを割り当てる,共参照関係によって正解の項が複数存在する場合は,全ての正解となる項にラベルを割り当てる.また, 3.3 節と同様に,正解を表す確率分布 $\boldsymbol{Y} \in \mathbb{R}^{T}$ を作成し, 正解となるトークンの確率が高くなるようにモデルを学習する。 ## 4.2 擬似ゼロ代名詞に基づく項選択モデル AS モデルは,事前学習で得られた(2)式のパラメータ( $\left.\boldsymbol{w}_{1}, \boldsymbol{w}_{2}, b_{1}, b_{2}\right)$ を使わず,(4)式により新たなパラメータ $\left(\boldsymbol{w}_{l}, b_{l}\right)$ を用いて学習するため,事前学習によって獲得した照応的知識を効果的に使えていない可能性がある. 我々が提案する擬似ゼロ代名詞に基づく項選択(argument selection as PZERO; AS-PZERO)モデルは,PZERO で訓練されたパラメー タを使い,ZARをPZEROとして解析する。具体的には,ZAR の入力系列 $\boldsymbol{X}$ に [MASK]を含んだフレーズを挿入し,PZERO と同様の形式で述語の項を解析する.このモデルは事前学習と finetuning の隔りを緩和する既存研究 $[9,10]$ から着想を得たものである. AS-PZERO モデルの入力系列を $\boldsymbol{X}^{\prime}$ とする。図 4 に示すように, $\boldsymbol{X}^{\prime}$ は $\boldsymbol{X}$ の末尾にクエリフレーズを挿入することで得られる. クエリフレーズによって, モデルは [MASK]に該当する単語を入力系列から選択する PZERO と同様の形式で ZAR を解析できる. クエリフレーズは(1)[MASK],(2)項を表す格助詞 (が・を・に),(3)対象述語から構成される。対象述語を構成するトークン数を $T_{\text {predicate }}$ とすると, $X^{\prime}$ の系列長は $T+2+T_{\text {predicate }}$ である ${ }^{1)}$. まず,入力系列 $\boldsymbol{X}^{\prime}$ を受け取り,各 $\boldsymbol{x}_{t} \in\{0,1\}^{|V|}$ に対応する埋め込み表現 $\boldsymbol{e}_{t} \in \mathbb{R}^{D}$ を得る。 $ \boldsymbol{e}_{t}=\boldsymbol{e}_{t}^{\text {token }}+\boldsymbol{e}_{t}^{\text {position }}+\boldsymbol{e}_{t}^{\text {addposi }} $ 象述語の位置をモデルへ与えるために新たに用意したものである. $\boldsymbol{e}_{t}^{\text {addposi }}$ は $1 \leq t \leq T+2$ では $\mathbf{0} \in \mathbb{R}^{D}$ を,それ以外では $\boldsymbol{e}_{T+3+m}^{\text {addposi }}=\boldsymbol{e}_{p_{\text {start }}+m}^{\text {position }}$ をとる. ここで, $m \in \mathbb{N}$ は $0 \leq m<T_{\text {predicate }}$ を満たす. 例えば図 4 では,“確かめ”と“\#\#る”の2つから構成される対象述語について,それぞれのトークンの位置埋め込み表現がクエリフレーズのそれぞれのトークンへと加算されている。この操作により,対象述語の位置をモデルへ与えることができる. 埋め込み表現を得た後の計算は 3.3 節と同様である. [CLS]トークン $\left(x_{1}\right)$ のスコアが最も高かった場合,モデルは外界ゼロについて,4.1 節における式(5)と同様に計算を行う。 ## 5 実験設定 PZERo データセット日本語 Wikipedia を PZERO の訓練データとして使用した. コーパス中の全名詞句を解析対象とし,係り受け解析器 Cabocha [11] の解析結果から品詞を用いたルール 2$)$ によって名詞句を同定した. 入力系列に用いる文数 $n$ の最大值は 4 とした. 事例数は約 1740 万となり,うち約 3000 を開発セット,残りを訓練セットとした。 ZARデータセットNAIST Text Corpus(NTC) 1.5 [12, 1) $\boldsymbol{X}$ は事前に最大系列長 $T_{\max }$ を超えないように調整する. 2)名詞句同定のルールについては付録 A に詳細を示す。 表 2 NTC 1.5 の評価セットにおける,入力が複数文の設定での $F_{1}$ 值.太字の值は各列における最高性能を示す. (h) から (k) における $\mathrm{F}_{1}$ の性能向上は,全ての ZAR のカテゴリで統計的に有意差が見られた. } & \multicolumn{2}{|c|}{ 事前学習 2} & \multicolumn{2}{|c|}{ finetuning } & \multicolumn{4}{|c|}{ ZAR } & \multirow[t]{2}{*}{ DEP } & \multirow[t]{2}{*}{ All } \\ 13] を使用した ${ }^{3}$ .評価スクリプトには Matsubayashi ら [8] と同様のものを使用した. モデルモデルの実装には Transformer ライブラリ[14]を使用し,パラメータ初期值に bert-base-japanese を用いた ${ }^{4)}$. 実験では,5つの異なるシード値の平均で比較を行った. ## 6 実験結果・分析 実験では(1)PZEROによる事前学習の効果と(2) AS-PZERo による finetuning の効果を調べる. 以下の 2 つ設定で実験を行った. 1. 入力が 1 文のみ: 既存研究の多くはこの設定で実験を行っている $[8,15,5]$. 既存研究と我々のモデルを同様の設定において比較する.intra と DEP が評価の対象となる. 2. 入力が複数文: 述語を含む文とその前方文が入力となる. intra, inter, exophora, DEPが評価の対象となる。 入力が 1 文のみ事前学習済みモデルから finetuning した AS モデルと AS-PZERO モデルの結果を表 1 に示す. 結果より, 我々のモデルは intra と DEP の両方で既存の最高性能 [5] を大きく上回っており,性能が十分高いことを示している. 入力が複数文 PZEROによる事前学習の効果を調べるため,3つの事前学習済みモデルを用意する.まず,事前学習 1 によって,事前学習済みモデル(モデル 1)を用意する.そこからさらに,事前学習 2 によって,cloze タスクと PZero,それぞれ同じ更新回数で事前学習する (モデル $2 \& 3$ ). 3 つの事前学習済みモデルから,AS と AS-PZERO でそれぞれ finetuning し,合計 6 つのモデルを用意した. その結果を表 2 に示す. (1)文脈を与えることで intra と DEP の性能は向上するか?(f),(g)のモデルは表 1 の(d),(e)と 3) 使用したデータセットの統計は付録 B に示す. 4)使用したハイパーパラメータは付録 Cに示す. それぞれ同じモデルであり,入力文の数だけが異なる.これら 4 つのモデルにおける intra と DEP について比較すると,たとえ解析対象が文内のみに限ったとしても,文脈を与えることで性能を向上させられることがわかる. これは既存研究 $[16,17]$ の結果とも一致する。 (2)AS の性能は PZERO による事前学習で向上するか? PZERO で事前学習したモデル(j)は cloze タスクで事前学習したモデル(h)よりも ZAR の性能で上回っており,特に文間ゼロ(inter)で大きな向上を示している $(44.98 \rightarrow 46.37)$. 文間ゼロは項の候補が多いうえ,統語的手がかりが少なく,解析に意味的な理解が必要である. 文間ゼロの性能向上は,モデルが PZERO による事前学習によって照応的知識をより獲得していることを示唆している. (3) PZERO と AS-PZero の組み合わせで性能は向上するか? finetuningの方法だけが異なる,モデル(j)と(k)を比較する.(k)は全てのカテゴリで(j)を上回っており,さらにDEP を除いた全てのカテゴリで最も性能が高かった。この結果は, AS-PZERO と PZERO を組み合わせることで事前学習と finetuning の隔りをうまく緩和でき,事前学習で獲得した照応的知識を ZARへうまく適用できることを示唆している。 ## 7 おわりに 本稿では,日本語における ZAR に取り組んだ。 ZAR に必要な照応的知識を生コーパスから獲得するための新たな事前学習タスクである PZERO と,事前学習で得た知識をうまく ZAR へ適用するための AS-PZERO モデルを提案した. 実験結果より,両者を組み合わせることで世界最高性能を達成した。 ## 謝辞 本研究は JSPS 科研費 JP19H04425,JP19K12112 の助成を受けたものです. ## 参考文献 [1]Nathanael Chambers and Dan Jurafsky. Unsupervised Learning of Narrative Schemas and their Participants. In ACL and IJCNLP, pages 602-610, 2009. [2]Mark Granroth-Wilding and Stephen Clark. What Happens Next? Event Prediction Using a Compositional Neural Network Model. In AAAI, pages 2727-2733, 2016. [3]Abdulrahman Aloraini and Massimo Poesio. Cross-lingual Zero Pronoun Resolution. In Nicoletta Calzolari, Frédéric Béchet, Philippe Blache, Khalid Choukri, Christopher Cieri, Thierry Declerck, Sara Goggi, Hitoshi Isahara, Bente Maegaard, Joseph Mariani, Hélène Mazo, Asunción Moreno, Jan Odijk, and Stelios Piperidis, editors, $L R E C$, pages 90-98, 2020. [4]Linfeng Song, Kun Xu, Yue Zhang, Jianshu Chen, and Dong Yu. ZPR2: Joint zero pronoun recovery and resolution using multi-task learning and BERT. In $A C L$, pages 5429-5434, July 2020. [5]Ryuto Konno, Yuichiroh Matsubayashi, Shun Kiyono, Hiroki Ouchi, Ryo Takahashi, and Kentaro Inui. An Empirical Study of Contextual Data Augmentation for Japanese Zero Anaphora Resolution. In COLING, pages 4956-4968, December 2020. [6]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In $N A A C L$, pages 4171-4186, 2019. [7]Shuhei Kurita, Daisuke Kawahara, and Sadao Kurohashi. Neural Adversarial Training for Semi-supervised Japanese Predicate-argument Structure Analysis. In $A C L$, pages 474484, 2018. [8]Yuichiroh Matsubayashi and Kentaro Inui. Distance-Free Modeling of Multi-Predicate Interactions in End-to-End Japanese Predicate-Argument Structure Analysis. In COL$I N G$, pages 94-106, 2018. [9]Zhilin Yang, Zihang Dai, Yiming Yang, Jaime G. Carbonell, Ruslan Salakhutdinov, and Quoc V. Le. XLNet: Generalized Autoregressive Pretraining for Language Understanding. In Hanna M. Wallach, Hugo Larochelle, Alina Beygelzimer, Florence d'Alché-Buc, Emily B. Fox, and Roman Garnett, editors, NeurIPS, pages 5754-5764, 2019. [10]Suchin Gururangan, Ana Marasovic, Swabha Swayamdipta, Kyle Lo, Iz Beltagy, Doug Downey, and Noah A. Smith. Don't Stop Pretraining: Adapt Language Models to Domains and Tasks. In Dan Jurafsky, Joyce Chai, Natalie Schluter, and Joel R. Tetreault, editors, $A C L$, pages 8342-8360, 2020. [11]Taku Kudo and Yuji Matsumoto. Japanese Dependency Analysis using Cascaded Chunking. In CoNLL, 2002. [12]Ryu Iida, Mamoru Komachi, Naoya Inoue, Kentaro Inui, and Yuji Matsumoto. Annotating Predicate-Argument Relations and Anaphoric Relations: Findings from the Building of the NAIST Text Corpus. Natural Language Processing, 17(2):25-50, 2010. [13]Ryu Iida, Mamoru Komachi, Naoya Inoue, Kentaro Inui, and Yuji Matsumoto. NAIST Text Corpus: Annotating PredicateArgument and Coreference Relations in Japanese. In Handbook of Linguistic Annotation, pages 1177-1196. Springer, 2017. [14]Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-art natural language processing. In EMNLP demo, pages 38-45, 2020. [15]Hikaru Omori and Mamoru Komachi. Multi-Task Learning for Japanese Predicate Argument Structure Analysis. In NAACL, pages 3404-3414, 2019. [16]Chaoyu Guan, Yuhao Cheng, and Hai Zhao. Semantic Role Labeling with Associated Memory Network. In NAACL, pages 3361-3371, June 2019. [17]Tomohide Shibata and Sadao Kurohashi. Entity-Centric Joint Modeling of Japanese Coreference Resolution and Predicate Argument Structure Analysis. In ACL, pages 579-589, 2018. [18]Hirotoshi Taira, Sanae Fujita, and Masaaki Nagata. A Japanese Predicate Argument Structure Analysis using Decision Lists. In EMNLP, pages 523-532, 2008. [19]Diederik Kingma and Jimmy Ba. Adam: A Method for Stochastic Optimization. In ICLR, 2015. 表 3 NAIST Text Corpus 1.5 の統計情報 ## A 名詞句同定のルール 本稿では,PZERO の解析対象をルールによって同定した名詞句とした. 名詞句の同定には,係り受け解析器である Cabocha [11] で解析を行い, 以下の品詞タグによるルールを用いた。 1. cabocha で文節に区切る. 2. 名詞は存在するが動詞は存在しない文節を選択する。ここで,名詞句の始点を $q_{\text {start }} \mathrm{~ 終点を ~}$ $q_{\text {end }}$ とする. 3. 文節の終点から始点へと順に単語を見ていき,名詞または名詞性名詞接尾辞に属する単語を発見した段階で,その単語の位置を $q_{\mathrm{end}}$ と定める. 4. 文節の始点から終点へと順に単語を見ていき,記号以外の単語を発見した段階で,その単語の位置を $q_{\text {start }}$ と定める。 5. $q_{\text {start }}$ から $q_{\mathrm{end}}$ までの単語に “始まりの括弧” が含まれていた場合, $q_{\mathrm{end}}$ をと括弧の一つ前の単語の位置とする. 6. $q_{\text {start }}$ から $q_{\text {end }}$ までの単語が名詞句候補となる.名詞句の候補が, 記号・英語・数字のみで構成されていた場合は名詞句候補から除外する。また,名詞句候補が“もの”,“こと”,“ため”,“何”,“誰”のいずれかであった場合も名詞句候補から除外する。 ## B データセットの統計情報 本稿では,NAIST Text Corpus(NTC) 1.5 [12,13] を使用した.また,Taira らの分割法 [18] に従って,訓練・開発・評価セットを作成した. その統計情報を表 3 に示す. ## C ハイパーパラメータ 表 4 に実験のハイパーパラメータの設定を示す.表 4 ハイパーパラメータ \\
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D1-1.pdf
# ニューラル日本語固有表現認識における格フレームの有効性検証 除山宗一 筑波大学情報学群 s1913548@coins.tsukuba.ac.jp ## 1 はじめに 近年, 固有表現認識 (Named Entity Recognition, NER)課題に対して, LSTM やBERT 等, ニューラルネットワーク(Neural Network,NN)に基づく解析モデルが多く提案されている $[1,2]$. これらのモデルでは, $\mathrm{NN}$ の特徴であるモデル設計の柔軟さを生かして, 解析対象となる文書以外の外部情報を特徴量として容易に取り込むことができる.例えば, Luら [3] は解析対象文書の関連画像情報を外部特徴量として取り込むことで NER の性能向上に繋げている. 本研究では, NER 課題で標準的に用いられる Bi-LSTM-CRF モデルに格フレーム情報を外部情報として取り込むことを考え,その有効性を検証する。例文「太郎が筑波大学へ行く」において, 述語「行く」のガ格には人間 (PERSON) や組織 (ORGANIZATION)等をあらわす固有表現が現れやすく, また, へ格には場所(LOCATION)をあらわす固有表現が現れやすい.このように述語と格関係にある要素の中には特定の固有表現クラスが現れやすいと考えられ,格フレー ムを参照することで, この固有表現の現れやすさに関する情報を解析モデルで利用する. Bi-LSTM-CRF に格フレーム情報を取り込むにあたり, 取り込むタイミングとして, LSTM 層よりも前側, 後側およびその両方の 3 パターンが考えられる. そこで, 3 パターンのうちのどれが組み込むタイミングとして最良であるかも同時に検証する。 ## 2 格フレーム情報 ## 2.1 京大格フレーム 河原ら [4] は約 100 億文の大規模 Web コーパスから格フレームを自動構築する手法を提案しており,構築したものを京大格フレームとして公開している1). 本研究では京大格フレームを外部情報として取り込む.京大格フレームには表 1 のような情報がまとめられている. 表 1 は「打つ」の例であり, 述語「打つ」と 1) http://nlp.ist.i.kyoto-u.ac.jp/index.php \author{ 駒田拓也乾孝司 \\ 筑波大学大学院システム情報工学研究科 \\ \{komada@mibel., inui@\}cs.tsukuba.ac.jp } 関係をもつ項の情報だけでなく, それらの出現頻度が述語の用法ごとにまとめられている点が特徴である. ## 2.2 格フレーム内平均ベクトル(MVC) 格フレーム情報を NN モデルの特徴量として用いる場合, その情報をべクトルへ変換する必要がある. 本研究では, 山城ら [5] が提案した MVC (Mean Vector for Caseframe)特徴量を採用する. MVC は以下のように計算される. $ \overline{\boldsymbol{\phi}}_{c f_{l}^{p}(c)}=\frac{\sum_{w \in W_{c f_{l}^{p}(c)}} \operatorname{count}\left(c f_{l}^{p}, c, w\right) \cdot \boldsymbol{\phi}_{w}}{\sum_{w \in W_{c f_{l}^{p}(c)}} \operatorname{count}\left(c f_{l}^{p}, c, w\right)} $ ある述語 $p$ に対する京大格フレーム中の格フレーム群を $C F_{p}=\left.\{c f_{1}^{p}, c f_{2}^{p}, \ldots, c f_{m}^{p}\right.\}$ としたとき, $l$ 番目の格フレーム $c f_{l}^{p}$ がもつ格 $c$ に対応する MVC を $\overline{\boldsymbol{\phi}}_{c f_{l}^{p}(c)}$ とする.ここで,格フレーム $c f_{l}^{p}$ にまとめられている格 $c$ の要素となる単語の集合を $W_{c f_{l}^{p}(c)}$ とする.また, $\boldsymbol{\phi}_{w}$ を単語 $w$ の分散表現ベクトル, $\operatorname{count}\left(c f_{l}^{p}, c, w\right)$ を単語 $w$ が格フレーム $c f_{l}^{p}$ 内の格 $c$ の要素として出現する頻度とする. MVC は $c f_{l}^{p}$ 内の格 $c$ として出現する単語の分散表現の重み付き平均で計算される。例えば,表 1 の「打つ/うつ:動 1」のガ格 MVC は以下のように計算される。 $ \overline{\boldsymbol{\phi}}_{c f_{\text {動 } 1}^{\text {打つ }}(\text { ガ })}=\frac{253 \cdot \phi_{\text {心臓 }}+134 \cdot \phi_{\text {姿 }}+134 \cdot \phi_{\text {声 }}+\ldots}{253+134+134+\ldots} $ ## 3 Bi-LSTM-CRF (ベースライン) 本研究では, 日本語 NER 課題において高い性能が報告されている Misawa ら [6] の, 文字ベース Bi-LSTM-CRF をべースラインモデルとする. Misawa らのモデルの入力となる各トークンは,解析対象となる文書に含まれる $j$ 番目の文字の分散表現を $\boldsymbol{c}_{\boldsymbol{j}}, j$ 番目の文字を含む $i$ 番目の単語の分散表現を $\boldsymbol{w}_{\boldsymbol{i}}$ としたとき,それらを繋ぎ合わせた $ x_{j}=\left[w_{i} ; c_{j}\right] $ とする.LSTM 層では (4) 式のように,ひとつ前のトークンの出力 $\overrightarrow{\boldsymbol{y}}_{j-1}, \overrightarrow{\boldsymbol{c}}_{j-1}$ と入力 $\boldsymbol{x}_{j}$ を受け, 出力を 表 1 「打つ」の格フレーム例 行う. $ \overrightarrow{\boldsymbol{y}}_{j}, \overrightarrow{\boldsymbol{c}}_{j}=\operatorname{LSTM}\left(\boldsymbol{x}_{j}, \overrightarrow{\boldsymbol{y}}_{j-1}, \overrightarrow{\boldsymbol{c}}_{j-1}\right) $ そして, 順方向の LSTM の出力 $\vec{y}_{j}$ と逆方向の LSTM の出力 $\overleftarrow{y}_{j}$ を繋ぎ合わせた $ \boldsymbol{y}_{j}=\left[\overrightarrow{\boldsymbol{y}}_{j} ; \overleftarrow{\boldsymbol{y}}_{j}\right] $ が双方向(Bidirectional)LSTM の出力となる. 各 $\boldsymbol{y}_{j}$ は続く $\mathrm{CRF}$ 層に渡され,NEラベルの予測を行う。 ## 4 提案手法 ## 4.1 提案手法 1 : 前側挿入 1 つ目の提案手法は, LSTM 層の手前で MVC で表現された格フレーム情報を取り込む手法である.具体的には以下の式で示すゲート機構を導入することで,解析対象文書から得られる言語情報と外部情報である格フレーム情報を組み合わせる。なお,このゲート機構は $\mathrm{Lu}[3]$ らが提案した Modulation Gate からパラメータを減らして簡略化したものである. $ \begin{aligned} \beta & =\sigma\left(W_{w} \boldsymbol{h}_{j}+U_{w} \boldsymbol{v}_{j}+b_{w}\right) \\ \boldsymbol{m} & =\tanh \left(W_{m} \boldsymbol{h}_{j}+U_{m} \boldsymbol{v}_{j}+\boldsymbol{b}_{m}\right) \\ \hat{\boldsymbol{h}}_{j} & =\beta \cdot \boldsymbol{h}_{j}+(1-\beta) \cdot \boldsymbol{m} \end{aligned} $ このゲートにおいて, $\boldsymbol{h}_{j}$ に $ \boldsymbol{h}_{j}=\boldsymbol{x}_{j}=\left[\boldsymbol{w}_{\boldsymbol{i}} ; \boldsymbol{c}_{\boldsymbol{j}}\right] $ のように文書由来の単語と文字データを割り当てる. また, 入力文書を格解析した結果, 単語 $\boldsymbol{w}_{i}$ が述語 $p$ と格 $c$ の関係にある場合は, $\boldsymbol{v}_{j}$ に $ \boldsymbol{v}_{j}=\overline{\boldsymbol{\phi}}_{\boldsymbol{w}_{i}, c f_{l}^{p}(c)} $ のように格フレーム由来の MVC を割り当てる.格関係にない単語については MVC 情報の代わりにゼロべクトルを割り当てる.このようにして格フレーム情報を取り込んだ $\hat{\boldsymbol{h}}_{j}$ を(3)式の代わりにLSTMへの入力とする. 本稿ではこの提案手法を後述の提案手法と区別するために「前側挿入」と呼ぶ。ここで MVC を $\overline{\boldsymbol{\phi}}_{\boldsymbol{w}_{i}, c f_{l}^{p}(c)}$ と表記している理由は, $\overline{\boldsymbol{\phi}}_{c f_{l}^{p}(c)}$ が $\boldsymbol{w}_{i}$ に対応した MVC であることを示すためである.前側挿入モ デルのその他の構成はベースラインモデルと同じである. ## 4.2 提案手法 2 : 後側挿入 2 つ目の提案手法は, LSTM 層の直後に格フレーム情報を取り込む手法である. 4.1 節で説明したゲートにおいて, $\boldsymbol{h}_{j}$ に $ \boldsymbol{h}_{j}=\boldsymbol{y}_{j} $ のように $j$ 番目の LSTM の出力 $\boldsymbol{y}_{j}$ を割り当てる. また, 前側挿入の(10)式と同様に $\boldsymbol{v}_{j}$ には MVC を割り当てる.このようにして格フレーム情報を取り込んだ $\hat{\boldsymbol{h}}_{j}$ を CRF 層へ渡す. 本稿ではこの提案手法を「後側挿入」と呼ぶ. ## 4.3 提案手法 3 : 両側挿入 3 つ目の提案手法は, 前側挿入と後側挿入によって 2 つのゲートを同時に適用する手法である。本稿ではこの提案手法を「両側挿入」と呼ぶ。両側挿入モデルの概要図を図 1 に示す. ## 5 評価実験 ## 5.1 実験設定 実験には, 搪張固有表現タグ付きコーパス (ENEコー パス)[7]を用いた.このコーパスのうち, 出現頻度の高い 6 つの固有表現クラス (PRODUCT, NUMBER, LOCATION, TIME, ORGANIZATION, PERSON)を解析対象とした。表 2 に実験データの基本情報を示す. 本研究では Misawa ら [6] のモデルをベースラインモデルとして採用しているが,彼らの実験とは以下の点で実験データの設定が異なる. Misawa らは ENE コーパスに収録されているデータの内,新聞記事のみを解析対象にしているが,本研究では全ジャンルのデータを解析対象にしている。また,Misawa らは 4 つの固有表現クラス(PRODUCT, LOCATION, ORGANIZATION, TIME)を解析対象として選択したが, 本研究では, 格フレーム情報との相性が良いと考 図 1 提案モデル(両側挿入モデル)の概要 表 2 実験データ えられる PERSON クラスを含めたいため,上記で述べた 6 つの固有表現クラスを解析対象とした. モデルパラメータは Misawa ら [6] にならい設定した。単語分散表現の次元数は 500 , 文字分散表現の次元数は 50 , LSTM のユニット数は 300 , バッチサイズは 60 とし, 最適化には Adam[8] を用いた。単語, 文字分散表現は, BCCWJ[9] と毎日新聞の記事 11 年分 (1991-2000 年, 2004 年)を用いて GloVe[10] で作成した. MVC 作成に必要となる単語分散表現も同様の手法を用いた。本実験では,MVC の作成に用いた京大格フレームとの対応をとるため, Misawa らとは違い,分かち書きには Juman $++^{2}$ を用いた。また,格解析には $\mathrm{KNP}^{3}$ を用いた。 固有表現のチャンク表現には BIO モデル [11]を用い, 完全一致以外は誤りとして, F1 值で解析結果を評価した。 ## 5.2 実験結果 実験結果を表 3 に示す. 表の各列における最良値をボールドで示す. 結果より, 4 つのモデルの中では後側挿入が最も高い $\mathrm{F} 1$ 値となった. F1 值に対する文書単位での並べ替えを行う並べ替え検定を行った結果,後側挿入とベースラインモデルの間には有意水準 0.01 で有意な差があることを確認した。このことから, 取り込み方にもよるが, 日本語 NER 課題に対して格フレーム情報が有効に作用することが確認できた。一方,前側挿入と両側挿入はベースラインモデルよりも性能が低くなった.MVC 自体は文脈情報から切り離した情報であるため, 格フレーム情報を LSTM 層に通過させる場合(前側挿入と両側挿入)と通過させない場合 (後側挿入)で,性能差があらわれたと考えられる. 後側挿入での解析結果の例を図 2 および図 3 に示す.これらはベースラインモデルでは正しく予測できなかったが,後側挿入では正しく解析できるようになった例である。例えば,図 2 の事例は,漢数字を含む文字列の例である. ベースラインモデルでは漢数字が含まれている文字列に対して NUMBER クラスを予測してしまう誤りがあるが, 後側挿入ではそのような事例の解析が改善されていた。また, 図3のように, ベースラインモデルでは Other クラスと予測する未抽出誤りがあるが,後側挿入ではそのような事例でも改善がみられた。 2) http://nlp.ist.i.kyoto-u.ac.jp/?JUMAN\%2B $\% 2 B$ 3) http://nlp.ist.i.kyoto-u.ac.jp/?KNP 表 3 実験結果(各モデルの比較, F1 值) 表 4 MVC 情報の有無に注目した性能比較(ベースラインと後側挿入) ## 5.3 考察 提案手法において,MVC 情報は入力文書中の述語と格関係をもつ一部の単語のみに付与される。例えば,例文「北イタリアのラベンナに住むごく普通の市民」における「ラベンナ」は「住む」と二格の関係をもつが,「北イタリア」は格関係をもたない. そこで,評価データ中の事例群を MVC が付与できたものと付与できなかったものに二分割し,ベースラインモデルと後側挿入それぞれの $\mathrm{F} 1$ 值を再評価した。その結果を表 4 に示す. MVC が付与できた割合を表の最下段に示している。また,表中の MVC 付与無し,MVC 付与有りのそれぞれの事例について, ベースラインモデ 矢印で示す。 表から,まず,MVC が付与できない事例よりも MVC が付与できる事例の方が, ベースラインモデル,後側挿入共に性能が高いことがわかる.MVC 情報を組み込んでいる後側挿入だけでなくベースラインモデルにおいても性能差が生じていることから,格フレー 么情報が得られるような事例群はそうでない事例群に比べて解析が容易な事例が集まっていることが示唆される。 また,表中の矢印の向きに注目すると,多くの固有表現クラスでは後側挿入がベースラインモデルよりも改善されていることがわかるが,MVC 付与率の低い LOCATION クラスでは MVC 付与無し事例群において性能が下がっている。この群の事例を観察すると, LOCATION クラスでは,以下の例文の下線部分のように述語と直接的な格関係をもたないため MVC が付与されない事例が目立っていた。このような事例に関して,MVC 情報の付与方法の改良については今後の課題である.一死から八角が(省略)出塁したが... 図 2 解析結果の例 1 企画したのは、西陣で織屋を経営する... 経営/けいえい:動1:デ格 図 3 解析結果の例 2 - 2 年前の世界選手権(カナダ・ハミルトン)で、 (省略)を獲得した日本がお家芸の座を守れるか。 ・米国向けの輸出割合が(省略)まで低下している二方で... ## 6 おわりに 本研究では日本語 NER 課題おける格フレーム情報の有効性を検証した。評価実験の結果,Bi-LSTM-CRF モデルに格フレーム情報を取り込んだ提案手法(後側挿入)は,格フレーム情報を取り込まない場合に比べて 1 ポイント以上高い F1 值を示した。 今後は,LSTM 系モデルよりも高い性能が報告されている BERT 等の Transformer 系モデルをベースラインモデルとして同様の検証を実施し,格フレーム情報の日本語 NER 課題への有効性を評価する予定である. 謝辞本研究の一部は JSPS 科研費 JP18K11982 の助成を受けたものです。 ## 参考文献 [1] Guillaume Lample, Miguel Ballesteros, Sandeep Subramanian, Kazuya Kawakami, and Chris Dyer. Neural architectures for named entity recognition. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 260-270, 2016. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [3] Di Lu, Leonardo Neves, Vitor Carvalho, Ning Zhang, and Heng Ji. Visual attention model for name tagging in multimodal social media. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1990-1999, 2018. [4] 河原大輔, 黒橋禎夫ほか. 高性能計算環境を用いた web からの大規模格フレーム構築. 情報処理学会研究報告自然言語処理 (NL), Vol. 2006, No. 1 (2006-NL-171), pp. $67-73,2006$ [5] 山城颯太, 西川仁, 徳永健伸. 大規模格フレームによる解候補削減を用いたニューラルネットゼロ照応解析.自然言語処理, Vol. 26, No. 2, pp. 509-536, 2019. [6] Shotaro Misawa, Motoki Taniguchi, Yasuhide Miura, and Tomoko Ohkuma. Character-based bidirectional lstm-crf with words and characters for japanese named entity recognition. In Proceedings of the First Workshop on Subword and Character Level Models in NLP, pp. 97-102, 2017. [7] 橋本泰一, 中村俊一. 拡張固有表現タグ付きコーパスの構築. 言語処理学会第 16 回年次大会発表論文集(2010 年 3 月), pp. 916-919, 2010. [8] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014. [9] Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary written japanese. Language resources and evaluation, Vol. 48, No. 2, pp. 345-371, 2014. [10] Jeffrey Pennington, Richard Socher, and Christopher D Manning. Glove: Global vectors for word representation. In Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP), pp. 15321543, 2014. [11] 黒橋禎夫. 改訂版自然言語処理. 一般財団法人放送大学教育振興会, 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D1-2.pdf
# 並列構造解析に基づく 複合化された固有表現の曖昧性解消 澤田悠治 ${ }^{1}$ 寺西 裕紀 $^{2}$ 松本 裕治 ${ }^{2}$ 渡辺太郎 ${ }^{1}$ 1 奈良先端科学技術大学院大学先端科学技術研究科 2 理化学研究所 革新知能統合研究センター \{yuya.sawada.sr7, taro\}@is.naist.jp \{hiroki.teranishi, yuji.matsumoto \}@riken.jp ## 1 はじめに 固有表現認識は,人名や地名などの専門用語 (固有表現)をテキストから自動的に抽出する自然言語処理のタスクの一つである。近年では,これまでの科学技術の発展に伴う論文アーカイブの蓄積に伴い,各分野の論文を解析して,物質や微生物の特徵・専門知識を機械的に獲得する自然言語処理技術の応用が期待されている. 固有表現認識の手法は,人手による素性設計を必要としないニューラルネットワークの導入によって顕著に発展している $[1,2]$ が,対応が困難な固有表現が存在し,専門分野における固有表現認識の精度改善と情報検索・関係抽出などへの応用のために解決が期待される. 従来の固有表現認識手法で対応が困難な固有表現の一つとして,並列構造による省略を伴う固有表現が挙げられる. 並列構造を含む固有表現には複数の固有表現が複合化されており, 複数の固有表現の中で重複する単語が省略される.例えば,"Human T and B lymphocytes"では,"Human T lymphocyte"と "Human B lymphocyte"の二つの固有表現が複合されており,それぞれの固有表現で "Human"と “lymphocyte"が省略されている。このような固有表現は,生命科学分野のコーパスの一つである GENIA Term annotation で全体の 3\%に含まれており,既存の手法では一つの固有表現 (“Human T and B lymphocytes") として扱うか, 例外として除去するなどの処理が行われる. 本研究の目的は, 既存の固有表現認識器とのパイプライン処理が可能な並列構造の解析手法を提案し,上述の固有表現を辞書や複合名詞句がアノテー ションされたデータセットを用いずに抽出することである. 具体的には,固有表現認識器で抽出された固有表現に内包される等位接続詞に対して並列構造の範囲を同定し,省略された単語を補完する手法を提案する。本稿では,教師情報を用いない並列構造の解析器と複合された固有表現の正規化方法について説明し,提案手法によって固有表現全体の抽出性能の向上が見られたことを示す. また,提案手法において対応が困難な事例についても示し,今後の課題について整理する。 ## 2 関連研究 ## 2.1 固有表現認識 固有表現認識の多くの研究は系列ラベリングによる手法に基づいており,固有表現の範囲は BIO 方式やBIOES 方式などのラベル方式によって表現される.このようなラベル方式は,連続した単語列からなる一つの固有表現しか表現できない問題があり,上述の固有表現は複合した固有表現全体や一部分の固有表現のみが抽出対象とされるか,例外として除外されるなどの処理が行われている。複合した固有表現を不連続な範囲を持つ固有表現とみなして解く手法として,複数のラベル系列を一本のグラフと表現して出力する手法 [3] や,句構造解析で頻繁に用いられる Shift-Reduce アルゴリズムに基づいた手法 [4] が提案されている。しかしながら,不連続な固有表現が出現する事例の少なさや並列構造によって複数の固有表現が入り混じりになる点で,学習が困難になる問題がある。 ## 2.2 並列構造解析 並列構造解析では,“and"や“or"といった等位接続詞によって結びつけられた句 (並列句) の範囲を同定する. 並列構造解析の多くの研究では,同一の並列 構造にある並列句同士が意味的・統語的に類似する特徴 (類似性) に着目している。黒橋ら [5] は, 文字列や品詞の一致などのルールによって付与されたスコアを設けて,並列句の類似度をチャートと動的計画法で算出した. 新保ら [6] は英語の並列構造において, 単語や品詞, 形態情報に基づいた素性の重みづき線形和を元に類似度を算出した。近年では, ニューラルネットワークによる手法とともに,可換性に着目した研究が発展している. Ficler ら [7] は外部の構文解析器で抽出された並列句の候補の中で,ベクトル同士のユークリッド距離 (類似性), 片側の候補を抜いた場合に出力されたべクトルなどを用いたスコアを算出している. 寺西ら [8] は,それぞれの並列句の内部と外部の境界などをべースにしたスコアを元に,並列構造を表す木を CKYアルゴリズムによって構築し, 入れ子状の並列構造や三つ以上の並列句に対応する手法を提案した. ニュー ラルネットワークによる手法の利点は, 黒橋らと新保らのような人手による素性の設計のコストの問題が削減される点にあり, GENIA Treebank と Penn Treebankにおいても高い性能を示している. しかしながら, これらのモデルの学習には個々の並列構造にある並列句の範囲がアノテーションされた大量のデータが必要になることから,他分野への応用という面を考慮すると,データセットの作成にかかるコストの問題が課題として挙げられる. ## 3 提案手法 本研究で用いる手法の概要を図 1 に示す。提案手法は,固有表現認識器と並列構造解析器の二つのモジュールで構成されている. 固有表現認識器では複合した固有表現を一つの固有表現として抽出し,並列構造解析器では文中に含まれる名詞句と形容詞句の並列構造の範囲を同定する. これら二つのモジュールの解析結果に基づいて, 複合した固有表現を個々の固有表現へと分解する. 図 1 提案手法の概要図 ## 3.1 並列構造解析器 固有表現のアノテーションのみが利用できる状況を想定し,並列構造の教師情報なしで並列構造の範囲を同定する解析器を使用する [9]. 本研究で構築する並列構造解析器の実行過程を Algorithm 1 に示す. 語数 $\mathrm{N}$ で構成される文 $w_{1: N}=\left.\{w_{1}, w_{2}, \ldots, w_{N}\right.\}$ と並列キー $w_{k}$ に対して, 全ての可能な並列構造範囲の組み合わせの中でスコアを計算し,最もスコアの高い組み合わせを並列句の範囲として同定する.複合した固有表現に含まれる並列構造は, “T and B" や “myeloid and lymphoid"のような並列する名詞句や形容詞句からなるため, 本手法は名詞句と形容詞句による並列構造を同定の対象とする。また, “-2, -4, -5 and -13"のような三つ以上の並列句からなる並列構造の場合は,等位接続詞の前後にある並列句の範囲 (“-5 and -13") のみを同定する. まず,文や節などの名詞句と形容詞句以外からなる並列構造を対象外とするための前処理として, 品詞タグを用いたルールに従って並列句の可能性がある範囲を抽出する. 本手法では, 等位接続詞の前後で動詞, 前置詞, カンマ(“,”), コロン (“:”), セミコロン (“; ”). 三点リーダ(“...”) を含まない最長の範囲を抽出する.例えば,“Antigen complexed with major histocompatibility complex class I or II molecules on the surface of antigen presenting cells ..." という文が入力された場合は, “major histocompatibility complex class I or II molecules” が並列句の候補の最長範囲として抽出される。また, “-M1, and -M2"のような等位接続詞と先行する並列句の間に出現するカンマは,事前に除去してから前処理を行う. 次に, 系列アライメントから並列構造の範囲の候補に対してスコア計算を行い,最大スコアを持つ範囲を並列構造の範囲として同定する. 系列アライメントでは,一方の系列を置換・挿入・削除の三つの編集操作を通して他方の系列へ変換し,これらの変換にかかる一連の操作の中で系列間の対応関係が求められる. それぞれの編集操作に対してはスコアが割り当てられ, 編集グラフでスコアの総和が最も高い操作系列が最適なアライメントとして決定される. 本手法は,並列構造のアノテーションを用いずに範囲を同定するため,最適な並列構造をもつ範囲のスコアが最大になるように,学習済みの言語モデルを用いてスコアの総和の最大值を算出する. 具体的には,挿入・削除をスキップ,置換をマッチの操作として定義し, 二つの編集操作に対して学習済みの言語モデルから得られる単語分散表現を元にしたスコアを付与する. マッチの操作に対するスコアは,対応する単語同士のコサイン類似度に基づいて計算し,スキップの操作に対しては,開発デー 夕 [10]を使用した事前実験によって決定された特定の値を割り当てる.本稿では,スコア計算に用いる学習済み言語モデルとして, 筆者ら [9] の評価実験にて最も高い性能を示した ELMo[11]を採用し, PubMed で入手可能な論文を用いて訓練したモデルを使用する。これらのスコアの算出を,前処理で抽出された範囲の中での全ての組み合わせで実行し,最大のスコアを持つ組み合わせを並列構造の範囲として同定する.編集グラフのサイズが大きくなるほどスコアも他の候補に比べて大きくなるため,各編集グラフで算出された最大スコアに対して, 操作系列の長さで正規化したスコアを使用する. ## 3.2 複合化した固有表現の正規化 上述の並列構造解析器と従来法による固有表現認識器の出力を利用して, 複合した固有表現を個別の固有表現に分解する,具体的には,並列構造を含んでいる固有表現の中で省略されている単語を識別し,それぞれの固有表現に結合させる. 省略されている単語は, 固有表現認識器で抽出された範囲から並列構造の範囲を取り除くことで識別できる. 例えば, 固有表現認識器で “Human T and B lymphocytes” が抽出され, 並列構造解析器で “ $\mathrm{T}$ and B” が同定された場合,“Human” と “lymphocytes” が省略されている単語であることが分かる。これらの単語をそれぞれの並列句と組み合わせることで,二つの固有表現 ("Human T lymphocyte”, "Human B lymphocyte”) が抽出される. 固有表現認識器には,従来法の使用を想定して BioBERT [12] を固有表現認識タスク向けに fine-tune したモデルを使用する.BioBERT は,PubMed で保管されている生命科学分野の論文のアブストラクトと生物医学とライフサイエンス分野の論文のフルテキストを訓練コーパスとして BERT [13]を事前学習した,バイオ分野向けの学習済み言語モデルの一つである. 固有表現認識モデルへの fine-tune を行う際は, Lee ら [12] と同様に, BioBERT に Softmax 層を加え,各サブワードの固有表現ラベルを予測する.複合した固有表現については分解せず,一つの固有表現の事例として抽出されるよう,データセットの fine-tuneを行った. ## 4 評価実験 本稿では, 複合化した固有表現について個々の固有表現がアノテーションされた GENIA Term annotation [14] を用いて評価実験を行う. GENIA Term annotation では, 11 タイプ1) の等位接続詞の夕グで複合名詞が分類されており,全体の $97 \%$ が AND と OR のラベルで占められる. 本実験では AND と OR を実験対象の等位接続詞として性能の比較を行い, 並列構造解析器の前処理で用いる品詞は gold の品詞を使用した. ## 4.1 評価方法 本実験では,Muis ら [3] の評価方法に基づいて, コーパスの最初の $80 \%$ と $10 \%$ の文を固有表現認識器の訓練及び開発用,残りの 10 \%を評価用のデー タセットとして用いる. 固有表現は DNA, RNA, Protein, cell_line, cell_typeの5タイプを対象とし, DNA と RNA, Protein にあるサブカテゴリは親カテゴリに統合する。また, GENIA Term annotation に cell line” のような入れ子になった固有表現が全体の $10 \%$ に含まれており, 固有表現認識器の学習のため,訓練データと開発データには入れ子状の固有表現を除去した. 本稿では,全ての固有表現と並列構造を含んだ固有表現に限定した設定で精度・再現率及び $\mathrm{F}$ 值で性能を比較する.全ての固有表現には BioBERTを  ベースラインとして使用し,並列構造を含んだ固有表現を対象にした評価では, 固有表現認識器の代わりに全ての連続した範囲にある固有表現を Oracle として組み合わせたモデルを提案手法の upper bound として使用した。また,複合する固有表現を不連続な固有表現として抽出する手法の一つである Dai ら [4] の手法で実験した結果についても示す. Dai らの手法は, 複合した固有表現の中で連続した範囲にある固有表現に対して偽陽性を判定できないため,並列構造を含む固有表現のみの評価については再現率のみを示す. ## 4.2 実験結果 & F1 \\ BioBERT+ours & 0.764 & 0.652 & 0.703 \\ Dai et al [4] & $\mathbf{0 . 7 9 1}$ & $\mathbf{0 . 7 6 2}$ & $\mathbf{0 . 7 7 6}$ \\ Oracle+ours & 0.625 & $\mathbf{0 . 6 7 8}$ & 0.650 \\ Dai et al [4] & - & 0.644 & - \\ 表 1 GENIA Term annotation での実験結果 実験結果を表 1 に示す. 全ての固有表現を対象にした評価について,提案手法はベースラインの性能を上回ったが,並列構造を含む固有表現のみを対象にした設定では, Oracle の固有表現と組み合わせたモデルと比べ, 0.28 ポイントの改善の余地が見られた. Dai らの手法と比較すると, 全ての固有表現において提案手法が近い性能を示し, 複合した固有表現に対しては oracle の固有表現を代わりに使用した手法が同等の再現率を示した.この結果から,複合化された固有表現の正規化において並列構造解析器が有効に働いていると考えられる. また, 提案手法と Dai らの手法にある性能の差の原因として, Dai らの手法が入れ子の固有表現も対象にしている点や後述の固有表現に対する誤りによる点が挙げられる. ## 5 今後の課題 提案手法では,三点の特徴をもつ固有表現に対して抽出が困難になる。一つ目は, 並列構造を含んだ長い範囲の固有表現である. 評価データセットで生じた固有表現認識器の誤りの例を図 2 に示す.こ の例では,正解が “Oct-1"と “Oct-2A"と独立した固有表現であるものの, 認識器では “recombinant Oct-1 and Oct-2A protein"と一つの固有表現として抽出されている.このような抽出の誤りは,複合された固有表現の出現パターンが類似している点が原因として考えられる。実際に “PRDII and tetrahexamer binding proteins"では, "PRDII binding protein", "tetrahexamer binding protein"と別々の固有表現として扱われており,このような一部のタグで頻出する単語が周辺にあることで,複合した固有表現と誤って認識されていると考えられる。 ## The relationship of the $\mathbf{N$ - Oct proteins to Oct - $\mathbf{1}$ and Oct - 2 A was analyzed by proteolytic \\ clipping bandshift assays and by their reactivity towards antisera raised against recombinant -1] and [Oct - 2A] proteins. \\ $\checkmark$} 図 2 BioBERT におけるエラー例 二つ目は,等位接続詞を含んだ単一の固有表現である。等位接続詞を含む固有表現には,“Signal transducer and activator of transcription protein"のような, "Signal transducer"と “activator of transcription"が並列構造を持っているにも関わらず一つの固有表現として扱われる事例が存在する。本手法は,二つのモジュールで出力される範囲に重複がある場合は必ず複合した固有表現であると仮定しているため,固有表現認識器で正しく予測されても並列構造解析器が別の固有表現として正規化される. また,このような固有表現には略語 (“STAT") が範囲に加えられる場合もあり,正規化がより困難になる。抽出された固有表現が複合されたものか分類する機構との組み合わせとともに,コーパスの整備が今後必要になる。 三つ目は,三つ以上の並列句からなる並列構造を含む固有表現である.複合された固有表現の中には "human interleukin -2, -4, -5 and -13"のような三つ以上の固有表現 ("human interleukin-2", "human interleukin -4", "human interleukin -5", “human interleukin -13") が複合されたものも存在し,これらの固有表現の正規化には三つ以上の並列句それぞれの範囲を同定する必要がある. 本手法の並列構造解析器は等位接続詞の前後にある並列句しか同定できないため,三つ以上の並列句からなる並列構造への対応も課題として挙げられる. ## 参考文献 [1] Guillaume Lample, Miguel Ballesteros, Sandeep Subramanian, Kazuya Kawakami, and Chris Dyer. Neural architectures for named entity recognition. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 260-270, San Diego, California, June 2016. Association for Computational Linguistics. [2] Xuezhe Ma and Eduard Hovy. End-to-end sequence labeling via bi-directional LSTM-CNNs-CRF. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1064-1074, Berlin, Germany, August 2016. Association for Computational Linguistics. [3] Aldrian Obaja Muis and Wei Lu. Learning to recognize discontiguous entities. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 75-84, Austin, Texas, November 2016. Association for Computational Linguistics. [4] Xiang Dai, Sarvnaz Karimi, Ben Hachey, and Cecile Paris. An effective transition-based model for discontinuous NER. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 58605870, Online, July 2020. Association for Computational Linguistics. [5] Sadao Kurohashi and Makoto Nagao. A syntactic analysis method of long Japanese sentences based on the detection of conjunctive structures. Computational Linguistics, Vol. 20, No. 4, pp. 507-534, 1994. [6] Masashi Shimbo and Kazuo Hara. A discriminative learning model for coordinate conjunctions. In Proceedings of the 2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL), pp. 610-619, Prague, Czech Republic, June 2007. Association for Computational Linguistics. [7] Jessica Ficler and Yoav Goldberg. A neural network for coordination boundary prediction. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 23-32, Austin, Texas, November 2016. Association for Computational Linguistics. [8] Hiroki Teranishi, Hiroyuki Shindo, and Yuji Matsumoto. Decomposed local models for coordinate structure parsing. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3394-3403, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [9] Yuya Sawada, Takashi Wada, Takayoshi Shibahara, Hiroki Teranishi, Shuhei Kondo, Hiroyuki Shindo, Taro Watanabe, and Yuji Matsumoto. Coordination boundary identification without labeled data for compound terms disambiguation. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 3043-3049, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [10] Jessica Ficler and Yoav Goldberg. Coordination annota- tion extension in the Penn Tree Bank. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 834-842, Berlin, Germany, August 2016. Association for Computational Linguistics. [11] Matthew Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. Deep contextualized word representations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 2227-2237, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [12] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, and Jaewoo Kang. BioBERT: a pre-trained biomedical language representation model for biomedical text mining. Bioinformatics, 2019. [13] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [14] J.-D. Kim, T. Ohta, Y. Tateisi, and J. Tsujii. GENIA corpus-a semantically annotated corpus for bio-textmining. Bioinformatics, 2003.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D1-3.pdf
# 動的トピックモデルを用いた 特許技術専門用語に対する技術進展分析 東京工業大学工学院経営工学系 ${ }^{1}$ 楽天株式会社 ${ }^{2}$ iwata.m.ac@m.titech.ac.jp, \{yoshimasa.utsumi, yoshiro.matsuda, ayumi.f.saito\}@rakuten.com, \{tanaka.y.al,nakata.k.ac\}@m.titech.ac.jp ## 1 はじめに 特許には,世界対応の国際特許分類 (International Patent Classification,IPC) が存在する。また,日本では,日本での特許出願が多い分野への対応などを目的として作成された,IPCをべースとして独自に細展開した特許分類である File Index(FI) も使用される. FI は約 19 万種類にも及ぶ詳細な分類である [1]. FI は,技術の進展に対応し適切なサーチキーとして機能する必要がある. そのため, 特許庁により年に 1 回から 2 回,必要な分野において改正が行われる [2]. FI の改正に関しては 2006 年以降で,約 3 万件の新設と約 3 万件の廃止が行われており, 大量の FI の中から改正を行うべきであるものを判断することが困難であることは容易に想像できる。 そこで,改正するべき技術の候補を抽出することで,特許庁の業務補助ができると考えられる. そのため, 本研究の目的は,特許文書を基に,技術進展分析を行うモデルを作成することにより,特許庁の FI 改正という業務の補助を果たすことである. 本研究では, まず, 特許文書から特許技術専門用語を抽出するという作業を行う. その後に, 抽出した特許技術専門用語を動的トピックモデルに適用する. 最後に, 特許技術専門用語の時系列変化及び実際の FI 改正結果との比較を行うことによって,動的トピックモデルの有用性を確認する.また,トピックを利用した共起単語の確認により,技術進展分析を行い, FI 改正業務の補助という観点での実用の可能性を示す. ## 2 関連研究 ## 2.1 専門用語抽出 中川らは,専門用語の多くは複合語であることを利用し,専門用語を抽出している [3]. そして,専門用語にはターム性 (ある言語的単位を持つ分野固有の概念への関連性の強さ) があるという特徴に注目し,ターム性を反映した専門用語抽出法を採用した. その上で,抽出された用語候補集合における構造の情報に加え,コーパスにおける個別用語候補の統計的性質 (純粋な出現回数など) に関しても考慮したスコアを定義した。 特許の専門用語抽出 [4], [5] に関する論文も基本的にはこの考え方を採用している。しかし,中川ら [3] の研究は特許分野に限られていないため, 特許の専門用語抽出においては,特許特有の用語 (前記,当該などの特許固有の接頭辞) は除くべきだと示されている。 ## 2.2 トピックモデル ## 2.2.1トピックモデル トピックモデルは,1つの文書がトピック分布を持ち,1つのトピックが単語分布を持つ仮定した文書生成モデルである.トピックモデルを用いることで,人間が文書を読むことなく大量の文書集合から話題になっているトピックを抽出することができる. トピックモデルの中でも,Blei らによって提案された Latent Dirichlet Allocation(潜在ディリクレ配分モデル,LDA)[6] が広く使われている。しかし, LDA においては時系列性は考慮されいないため,卜ピックの推移を確認することはできない. ## 2.2.2 動的トピックモデル 2.2.1 節の問題に対応しょうと Blei らによって提案された Dynamic Topic Model (動的トピックモデル)[7] はLDAを拡張したモデルであり,時系列性を考慮する. 動的トピックモデルにおいては,データセットは指定された時間 (タイムスライス) ごとに分割され, 文書のトピック分布のパラメータ,および各トピックの単語の分布は時間とともに変化する。 しかしながら,[7]では,変分推論が行われており,モデルを更新するには全てのデータセットを読み込む必要があった. そのため, データの拡大がしにくく, 大規模な問題が解けなかった. そこで, Bhadury らは, 確率的勾配ランジュバン動力学法や, ギブスサンプリングの使用を提案した [8]. そして,並列可能な推論アルゴリズムを作り, 高速化に成功した. その結果, 大規模な動的トピックモデルを学習することができた.また,変分推論においては平均場近似という仮定が行われていた。 それに対し, [8] では,このような不当な仮定を行わないことにより,低いパープレキシティも達成するなど,精度の保証もされている. ## 3 提案手法 本研究は,FI の改正という観点を基づき,動的トピックモデルを用いた特許公報の分析を行った. 以下では,特許技術専門用語抽出,動的トピックモデルの適用,評価という流れで説明を行う。 ## 3.1 特許技術専門用語抽出 先行研究での結果を踏まえ,特許固有の接頭辞や指示代名詞 (前記, 当該など) を形態素解析前に除外するべき単語として定義した. 動的トピックモデルにおいては, 語彙数が増えると計算時間が増大する.また,トピックの中身の把握及び「改正すべきである技術を提示する」という目標においては,すべての単語を入力として使う必要がない. このような点を考慮し, 頻出単語上位 $K$ 単語を抽出し, 動的トピックモデルの入力とすることが適切であると考えた。一方, 出現頻度が多いだけの単語は情報を持っておらず,トピックモデルを適用した際にノイズとなる. そのため, 頻出単語を抽出すること, 及び,頻出単語で特許技術専門用語でないものを除外することが必要となる. そこで, [3] のアイデアを基に, 頻出一般用語スコアを定義した。まず,複合名詞のターム性を反映したスコアを定義するため に,分野における基礎概念度合い,すなわち特許技術専門用語度合いを最も反映していると考えられる連接種類数を使用した. [3] では,複合名詞のター ム性を反映したスコアとして相乗平均を考えていたが,大きな概念が少しでも含まれている単語は特許技術専門用語となる可能性が高いと考え,連接種類数の最大値を複合名詞のターム性を反映したスコアとした. また,頻出単語で特許技術専門用語でないものを除外するべきという考えを反映するべく,複合名詞 $C N$ の頻出一般用語スコア $F N S(C N)$ を次の様に定義した. $ F N S(C N)=\frac{f(C N)}{L R(C N)} $ ここで, $f(C N)$ は複合名詞 $C N$ の単独出現回数,また $L R(C N)$ を複合名詞 $C N$ のターム性を反映したスコアとなる. そして, $F N S(C N)$ の上位 $K$ 個を頻出単語であるが特許技術専門用語でないものと考え,除外単語として設定することで,ノイズを除外することができた. ## 3.2 動的トピックモデルの適用 それぞれの特許は様々な技術 (=トピック) で構成されており,技術は特許技術専門用語の集合のようなものであると考えられる. そのため,技術の進退を考える際に,トピックという考え方が重要となる. よって, 本研究では動的トピックモデルを適用した. その詳細は Iwata et al.[9] を参照されたい. ただし [9]では,「複数,1つ」などのノイズが入り結果解釈がしづらいという問題点が存在した. その問題を解決するために,前処理として特許技術専門用語抽出を行うことにした。 また,計算時間を短縮するために, [7] ではなく, [8] で提案された手法を採用した. ## 3.3 評価 本研究ではトピックモデルの評価という観点と,実際の改正結果との比較という観点から評価を行った. 実際の改正結果との比較では,特許庁の FI の改正情報 [2] を使用した. ここで,FI の改正情報に対しても 3.1 節と同じ操作を行い,技術に関する専門用語を抽出した.この結果を基に動的トピックモデルの結果との比較を行った. ## 4 特許公報を用いた検証 ## 4.1 データセット ## 特許技術専門用語抽出 検証に用いるデータセットは,以下の2種類である。 ・特許技術専門用語抽出の精度を確認するためのデータ. 2017 年 10 月 01 日から 2020 年 10 月 01 日に出願され,かつ,2020 年 10 月 01 日時点で登録されている登録公報 (全 72,456 件).この登録公報の中の「発明の名称」及び「要約」を使用した。 ・特許庁の公開しているデータ. [10] に掲載されている特許文献の日英機械翻訳辞書に登録されている単語を今回の正解とみなして利用した。登録されている単語に関しては,※などの記号を置き換えた上,それらの単語に関しては形態素解析を行うなどの処理は行っていない. 全部で 108,472 件の単語が登録されている. ## 動的トピックモデル 2006 年 01 月 01 から 2019 年 12 月 31 に出願され, かつ,2020 年 10 月 01 日時点で登録されている登録公報で,クラスが F21(照明),G06(計算,計数), C12(生化学) であるものである. また,クラスの特許数にばらつきがあったため,アンダーサンプリングを行った. その結果,対象となる登録公報は 64,008 件となった.また,この登録公報の中の「発明の名称」及び「要約」を使用した. ## 評価 特許庁の実際の改正結果は [2] から取得を行った。 2006 年以降の改正情報の中で新設と廃止を改正結果とみなし,実験の評価に使用した。 ## 4.2 特許技術専門用語抽出 本節では,3.1 節で示した特許技術専門用語抽出を行うことにより,単純な名詞抽出よりも正しく特許技術専門用語が抽出できることを確認する。また,今回は前処理として,すべてカタカナの単語は特許専門用語であると定義している. まず, $L R(C N)$ の定義を [3] のように相乗平均を用いた場合と, 3.1 節のように最大値を用いた場合の比較を行った. すると,上位単語の中でも,相乗平均を用いた場合は「センサアンプ部, マテリアル シール部, 脱水部」などの特許技術専門用語が抽出されるが,最大值を用いた場合においてはそのようなことは発生せず,より一般用語であると考えられるものが抽出できた. また, 4.1 節で述べた特許文献の日英機械翻訳辞書を用いた比較を行った。ここで,評価指標として利用する評価指標は,Precision@Nである. Precision@ $N$ とは上位 $N$ 単語のうち正解となる単語の割合であり,推薦システムにおいてよく用いられる手法である。また,本来であれば翻訳用ではない特許技術専門用語辞書で, かつ, 前処理が適切になされているものを正解データとして使うことが適切であることに留意する。また,今回は複数のしきい值で確認を行った上,動的トピックモデルに適用する数として適切な上位 3,000 単語を使用した. さらに,同様に複数のしきい值で確認を行った上,除外単語は 500 単語とした. ここで,複合名詞の考慮の効果,及び除外単語の設定の効果を確認するため,除外単語を考慮せず,単名詞のみの頻出単語 3,000 件を抽出した場合と, 複合名詞も含む頻出単語 3,000 件を抽出した場合を比較した。 表 1 特許技術専門用語抽出の精度 表 1 より,単名詞のみではなく複合名詞を含む形にする効果,及び除外単語を設定する効果が確認できた. ## 4.3 動的トピックモデル 4.2 節の結果を基に,除外単語は 500 単語とした上で,動的トピックモデルに適用する単語数は除外されていない単語の中で頻出上位 3,000 単語を使用した。また,タイムスライスは,出願年とし, 2006 年から 2019 年までの各年の時系列変化を確認した. トピック数は 15 , イテレーション数は 5,000 とした. ## 動的トピックモデルの評価 動的トピックモデル自体の評価には,パープレキシティ[11]を用いた. パープレキシティを図 1 に示す.この結果より,イテレーション数は 1000 ほどで実験結果は十分収束していることが確認できる. また,すべての年において学習が適切に進行してい 図 1 パープレキシティ ることが確認できる. 動的トピックモデルにおいて,時間とともに変化するトピックの単語分布の例を図 2 に示す. 図 2 トピック 5 の中の単語の所属確率の推移 このように,各トピックにおいて構成される単語の所属確率の変化を確認することで,技術進展分析が可能となる. ## 4.4 単語集計の結果との比較 トピックモデルの有用性について説明するために,単語を年ごとに単純集計した結果との比較を行った. また,今回は正解データとして実際の FI 改正結果を用いたが,専門家によりアノテーションすることの方が好ましいと考えられる.単純集計のスコア $S F(C N)$ を以下の様に定義した. $ S F(C N)=\max \left(\left.\{g\left(C N_{t}\right)\right.\}_{t=0}^{T}\right)-\min \left(\left.\{g\left(C N_{t}\right)\right.\}_{t=0}^{T}\right) $ ただし, $g\left(C N_{t}\right)$ は, 複合名詞 $C N$ のタイムスライス $t$ における特許 1 つに対する平均出現回数である. 動的トピックモデルのスコア $F(C N, i)$ を以下の様に定義した $F(C N, i)=\left(\max \left(\left.\{p_{C N, i, t}\right.\}_{t=0}^{T}\right)-\min \left(\left.\{p_{C N, i, t}\right.\}_{t=0}^{T}\right) \times S(i)\right.$ ただし,iはトピック ID である. $p_{C N, i, t}$ は動的トピックモデルから得られるタイムスライス $t$, トピック $i$ における複合名詞 $C N$ の所属確率である. また, $S(i)$ は,トピックの平均的な大きさであり,動的トピックモデルから計算した.動的トピックモデルの特性上,複合名詞 $C N$ に対する $F(C N, i)$ は複数ある場合があるが,最大となる値のみ利用した。 これらのスコアを基にソートを行い,Precision@ $N$ を確認した。また,今回のデータにおいて FI の改正は多く行われているため,大きな数の $N$ を確認した. 表 2 Precision@N 表 2 より,動的トピックモデルを使用することで,改正すべき単語を適切に把握できると分かった。 最後にトピックモデルを用いることによる今後の可能性について述べる。ここでは例として,「タッチパネル」に着目する. $F($ タッチパネル,$i)$ が最大となるトピックであるトピック 15 の上位単語に着目すると,「制御,状態,表示,検出,操作,電子機器, 表示部, 位置, 制御部, 機能, タッチパネル,表示装置」であった. それに対して, 実際の改正結果においては,G06クラスの中で「複数のタッチパネルの制御,例. 連結、跨ぐ操作」というタイトルで,2014 年 4 月に改正が行われている。また,このタイトルから,提案手法の特許技術専門用語抽出作業を用いることで「タッチパネル,制御,例,連結,操作」というが抽出される。これは,トピック 15 の上位単語と重複している。 このように,どのトピックに所属しているか,及びトピックの中身を確認することで技術を容易に把握でき,技術進展分析の補助となると言える。 ## 5 おわりに 本研究は,特許文書から技術の進展分析を行い, FI の改正の補助を行うという目的で,モデルを構築した. 特許技術専門用語抽出のために,複合名詞を抽出し,その後頻出一般用語を除いた。このことにより,ノイズとなる単語が減少し特許技術専門用語が正しく抽出できた. また,動的トピックモデルを適用することにより,単純な単語の推移を確認するよりも改正すべき単語を正しく発見できることが分かった. さらに,トピックモデルの特性を生かすことで,技術を特許技術専門用語の集まりとみなすことができるという有用性を確認できた。 ## 参考文献 [1] 特許庁. 特許分類の概要とそれらを用いた先行技術調査, (2021-1 閲覧). https: //www.jpo.go.jp/news/shinchaku/event/seminer/ text/document/2019_jitsumusha_txt/04t.pdf. [2] 特許庁. $\mathrm{Fi}$ 改正情報, (2021-1 閲覧).https://www.jpo.go.jp/system/patent/gaiyo/ bunrui/fi/f_i_kaisei.html. [3] 中川裕志, 湯本紘彰, 森辰則. 出現頻度と連接頻度に基づく専門用語抽出. 自然言語処理, Vol. 10, No. 1 , pp. 27-45, 2003. [4] 柚木山駿, 太田貴久, 小林暁雄, 増山繁. 特許関連業務支援のための技術用語自動抽出の試み. 言語処理学会, 第 22 回年次大会発表論文集, pp. 326-329, 2016. [5] 粟飯原俊介, 内山清子, 石崎俊. 特許文における分野オントロジー構築のための重要複合語の抽出と重要複合語間関係の定義. 言語処理学会年次大会発表論文集, Vol. 13, pp. 871-874, 2017. [6] David M.and Andrew Y. Ng Blei and Michael I. Jordan. Latent dirichlet allocation. Journal of Machine Learning Research, Vol. 3, pp. 993-1022, 2003. [7] David M.and John D. Lafferty Blei. Dynamic topic models. In Proceedings of the 23rd International Conference on Machine Learning, pp. 113-120, 2006. [8] Arnab Bhadury, Jianfei Chen, Jun Zhu, and Shixia Liu. Scaling up dynamic topic models. In Proceedings of the 25th International Conference on World Wide Web, pp. 381-2016, 2016. [9] Mana Iwata, Yoshiro Matsuda, Yoshimasa Utsumi, Yoshitoshi Tanaka, and Kazuhide Nakata. Technical progress analysis using a dynamic topic model for technical terms to revise patent classification codes, 2020. https://arxiv. org/abs/2012.10120. [10] 特許庁. 特許文献機械翻訳の辞書等の作成,(20211 閲覧). https://www.jpo.go.jp/system/laws/ sesaku/kikaihonyaku/tokkyo_dictionary.html. [11] 岩田具治.トピックモデル. 機械学習プロフェッショナルシリーズ,講談社, 2015 . ## A 付録 4.2 節の比較において使用された上位 20 単語. \\ 4.3 節の動的トピックモデルに適用する単語における頻出単語は以下の通り。 \\
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D1-4.pdf
# 文脈化埋め込み表現を用いた対照学習による病名正規化 氏家翔吾磯颯荒牧英治 奈良先端科学技術大学院大学 \{ujiie, iso.hayate.id3, aramaki\}@is.naist.jp ## 1 はじめに 病名の表記摇れ解消(本稿では病名正規化と呼ぶ)は,医学論文や診療録などのテキスト(医療文書)の解析における重要な要素技術の一つである.例えば,医療文書からの情報抽出 [1] や関係抽出 [2] では,病名を有用な特徴量として扱っているが,表記摇れにより同じ概念を同一視できない問題がある.この場合,病名を正規化することはこれらのタスクに必須の処理となる. 病名正規化の主なアプローチとして,病名の埋め込み表現を学習し, 辞書中の最近傍のエントリに対応づける手法が挙げられる. これは,大量の学習データを用いた教師あり学習 $[3,4,5]$ や,大規模な類義語辞書を用いた自己教師あり学習 [6] により実現されるが,一般に前提となる大規模なりソースを構築することが困難である場合が多い. 例えば日本語では,人手でメンテナンスされている大規模な類義語辞書は存在せず,病名正規化のデータセットも公開されていない。そのため,十分に大きな辞書に依存しない手法の開発が必要である. そこで本研究は,低リソース上でも有用な病名正規化手法の開発を目的とする.具体的には,人手によりアノテーションされた学習データがなく, 類義語辞書が小規模な状況を想定する。これは,医学概念の小規模な辞書が存在する一方で,専門知識を必要とするためにアノテーションコストの高い医療分野の現状と矛盾しない自然な設定である. 本研究では,大規模な類義語辞書や大量の学習データを用いる代わりに,医療文書中に現れる病名の文脈を手がかりに病名を正規化する手法を提案する. 例えば,「TdP」と「TDP-43 proteinpathy」は似た語を含む一方で,「TdP」は不整脈の一種,「TDP-43 proteinpathy」はタンパク質異常による疾患と, 両者は全く異なる疾患であり,医療文書中で現れる文脈は大きく異なる. 図 1に示す提案手法では,このような文脈の違いを正規化の手掛かりとして利用す 図 1 病名の文脈化埋め込み表現. 埋め込み表現は辞書マッチにより病名が自動認識された文から得られる。これらは,同じ概念を持つ病名を近く(実線), 異なる概念を持つ病名を遠く(破線)埋め込むよう,対照学習により最適化される. るため,小規模辞書を用いて医療文書中の病名を自動認識し,その病名の文脈化埋め込み表現を用いて近傍探索を行う。この際,同じ概念を持つ病名が近く埋め込まれるように,辞書の情報をもとにモデルを対照学習によって最適化する.実験では,病名正規化における標準的なデータセットを用いて,提案手法の有効性を示す. 本研究の貢献は以下の通りである。 ・生テキストと小規模な外部リソースを用いた,病名正規化モデルの学習の枠組みを導入した。 - 実験の結果,外部リソースの利用が制限されている状況でも,提案手法は高い精度を示すことを確認した。 ## 2 関連研究 病名正規化を扱う研究では,医療分野に最適化された埋め込み表現を用いて病名間の類似度を学習する手法が多く提案されている $[3,7]$. 特に近年, 双方向言語モデル BERT [8] を,大規模な医療文書を用い て事前学習した BioBERT [9] や, PubMedBERT [10] が,病名正規化タスクにおいても高い有用性を示している。例えば Sung らは,BioBERT を用いて得られた病名の埋め込み表現に対し, 類義語間の類似度が高くなるように Fine-tuning することで,既存手法よりも高い精度で病名正規化ができることを示した [5]. しかし,この手法はアノテーションされた病名が一定量必要であり, 学習データの作成コストが高い. 一方で,本研究と同様,明示的な学習データを用いることなく, 病名正規化モデルを構築する手法も提案されている. 例えば Liu らは,大規模な類義語辞書を用いて自己教師あり学習を行うことで,人手によりアノテーションされたデータを必要としない手法を開発した [6]. 同研究では, 医学概念における大規模なメタシソーラスである UMLS [11]を用いて,類義語を学習データとみなすことで病名表現を学習し,高精度に病名正規化が行えることを示した.この手法では人手でアノテーションされた学習データを必要としない一方で,大規模な類義語辞書の存在が前提となっている. 実際,類義語辞書の利用を制限した場合に,同病名正規化モデルの精度が大幅に劣化することを確認した. 本研究では, 病名のみを入力とする同研究と異なり,学習・推論時に病名が自動認識された文から得られた文脈化埋め込み表現を用いることで,類義語が少量の場合にも文脈を手掛かりに正規化できる。 ## 3 手法 病名正規化タスクは,入力文 $X$ における $i$ 番目の病名 $x_{i}$ について,それに対応する概念 $y_{i} \in \mathbb{C}$ を予測するタスクとして表される。ここで, C $は$ 類義語辞書収載の概念集合である。 提案手法では,病名が自動認識された文集合(用例集合)から得た文脈化埋め込み表現を用いて,近傍探索による病名正規化を行う.文脈化埋め込み表現は,同じ概念を持つ病名が近く埋め込まれるように,対照学習により最適化する。 以降,本研究では,類義語の最長一致により病名を自動認識した用例集合 $\mathbb{S}=\left.\{X_{0}^{\prime}, X_{1}^{\prime}, \cdots, X_{M}^{\prime}\right.\}$, 及び $\mathbb{S}$ 内の各文の病名, 概念系列 $x^{\prime}(m), y^{\prime}(m)$ から構成されるデータベース $\mathbb{D}=\left.\{\left(x_{j}^{\prime(m)}, y_{j}^{\prime(m)}\right)\right.\}_{m=1, j=1}^{M, \mid x^{\prime}(m)} \mid$ にアクセス可能であると仮定する。 $x_{j}^{\prime(m)}, y_{j}^{\prime(m)}$ はそれぞれ, $x^{\prime(m)}, y^{\prime}(m)$ における $j$ 番目の病名と概念を表す.図 2 PubMedBERT を用いた病名の埋め込み表現の獲得 ## 3.1 正規化モデル 病名 $x_{i}$ を正規化するため, $K$ 近傍法を用いる. 本研究では,近傍探索時の距離として,文脈化埋め込み表現のコサイン類似度を用いる。 $x_{i}$ に対する各概念の予測確率を, $x_{i}$ の近傍 $K$ サンプル $\mathbb{N}_{K}\left(x_{i}, \mathbb{D}\right)$ を用いて以下のように定義する. $ p\left(y_{i}=c \mid x_{i}, \mathbb{D}, K\right)=\frac{1}{K} \sum_{j \in \mathbb{N}_{K}\left(x_{i}, \mathbb{D}\right)} \mathbb{1}\left(y_{j}^{\prime}=c\right) $ ここで, $\mathbb{(}(e)$ は指示関数である. この予測確率を用いて, $y_{i}$ は $\arg \max _{c \in \mathbb{C}} p\left(y_{i}=c \mid x_{i}, \mathbb{D}, K\right)$ で正規化される。 文脈化埋め込み表現を得るため,双方向言語モデルの一つである BERT [8],特に医療文書を用いて最適化された PubMedBERT [10] を用いる. 図 2に示す通り,まず,文中の対象とする病名を特殊トークンで“[ENT]", “[/ENT]"で囲み, PubMedBERTの入力とする。その後,“[ENT]"トークンに対応する埋め込み表現を,対象とする病名の埋め込み表現として用いる [12]. ## 3.2 対照学習 対照学習とは,あるデータに対して,同一ラベルが付与されたデータ(正例)を近く,異なるラベルが付与されたデータ(負例)を遠く埋め込むように学習する距離学習手法である $[13,14]$. これにより,同じ概念の病名同士は近く,異なる概念の病名は遠く埋め込まれる。 対照学習には,正例,負例の病名のペアが必要である. 本研究では,それらを用例のミニバッチ内で動的に構成する。つまり,ミニバッチ内の用例における全ての病名 $x_{j}^{\prime(m)}$ について, 正例として $y_{j}^{\prime(m)}$ と同じ概念の病名を,負例として $\left.y_{j}^{\prime}{ }^{\prime m}\right)$ と異なる概念の病名をミニバッチ内から抽出し,それらを正例・負例ペアとする. 損失は Multi-Similarity loss [15]を用いる。この損失関数は正例,負例ぺアの相対的な類似度を考慮した距離学習手法である。これは,ミニバッチ内のすべての病名 $\mathbb{B}$おいて, 病名 $x_{i}, x_{j} \in \mathbb{B}$ 間のコサイン 類似度 $S_{i, j}$ を要素にもつ類似度行列 $S=\in \mathbb{R}^{|\mathbb{B}| \times|\mathbb{B}|}$ と, $x_{i}$ の正例,負例集合 $\mathbb{P}_{i}, \mathbb{N}_{i}$ を用いて,以下の損失関数で表される. $ \begin{aligned} \mathscr{L}_{M S}=\frac{1}{|\mathbb{B}|} \sum_{i=1}^{|\mathbb{B}|} & \left.\{\frac{1}{\alpha} \log \left[1+\sum_{k \in \mathbb{P}_{i}} e^{-\alpha\left(S_{i k}-\lambda\right)}\right]\right. \\ + & \left.\frac{1}{\beta} \log \left[1+\sum_{k \in \mathbb{N}_{i}} e^{\beta\left(S_{i k}-\lambda\right)}\right]\right.\} . \end{aligned} $ ここで, $\alpha, \beta$ は温度パラメータ, $\lambda$ は類似度のオフセットを表す. 学習には, 正例のうち, 最も類似度の小さい負例より類似していないもの,負例のうち, 最も類似度の大きい正例より類似しているもののみを用いる [15]. ## 4 実験 ## 4.1 データ リソース病名の類義語辞書として, MEDIC [16] を用いる. MEDIC は, 13063 個の疾患に対して平均して 6 個の病名表現が類義語として収載されている. 本研究では,より低リソースとなるよう,各概念に対する類義語を半数になるように無作為に抽出し類義語辞書とする. つまり,今回の実験では, 1 つの概念に対して平均して 3 個の類義語が収載されている. 学習・推論に用いる用例は, 医学論文の検索システムである PubMed に掲載された論文のタイトル及びアブストラクト(約 27GB)から作成する。なお,評価データに含まれる論文は除外した。 評価用データセット病名正規化で一般的に用いられる 3 つのデータセット, NCBI disease corpus (NCBID) [17], BioCreative V Chemical DiseaseRelation (BC5CDR) [18], MedMentions [19]を用いて評価を行う. 各データセットの詳細は付録A.1節に記載する。 ## 4.2 実験設定 モデルの詳細推論時の kNN の近傍数は, 検証用データセットにおいて最も精度の高かった 15 とした. その他のハイパーパラメータは付録A.2節に述べる. ミニバッチの作成ミニバッチの作成にあたり,用例集合から無作為に用例を抽出した場合,多くの病名はミニバッチ内に正例を持たない恐れがある. そのため,ミニバッチ作成時に,一定数の概念を無作為に選択し, 各概念から 2 文を無作為に抽出した.これにより,各用例内の少なくとも 1 つの病名がミニバッチ内に正例を持つことが保証される。 評価方法先行研究 $[5,6]$ に従い, Accuracy で評価する。各データセットには,MEDIC に含まれない医療概念もアノテーションされている. 本研究は,類義語辞書への紐付けを目的としており,類義語辞書外の概念は対象外であるため, それらは評価から除いた。 比較手法提案手法の比較のため, 以下のモデルを比較手法として用いた。いずれも病名のみを入力としている. - TF-IDF: 文字単位 1-, 2-gram の TF-IDF のコサイン類似度による正規化. Sung らの研究において,病名正規化に対する有用性が示されている [5]. ・PubMedBERT [10]: 同モデルを用いて得られた埋め込み表現を用いて, Fine-tuning なしに近傍探索を行う手法. -SapBERT [6]: 類義語辞書を用いた自己教師あり学習手法. Liu らの実験とは異なり, 類義語辞書として,UMLS 全体でなく提案手法と同様の辞書を用いた。 ## 4.3 結果 表 1 各データセットにおける Accuracy. 病名のリンク先が異なるため, 先行研究 $[5,6]$ とは異なる. 表 1に実験結果を示す。提案手法はいずれのデー タセットにおいても Accuracy が最も高くなっている.これは,病名が自動認識されたデータに対する対照学習により得られた病名の文脈化埋め込み表現が,病名正規化が有用であることを示している。 ## 5 考察 ## 5.1 辞書サイズと正規化精度 類義語辞書の規模と病名正規化の精度の関係を分析するため,以下の4つの辞書サイズにおいて実験を行った。カッコ内は類義語辞書に含まれる類義語 表 2 MedMentions におけるモデルの結果. 各例は, [予測概念] 最近傍データの形式となっている. 対象となる病名を太字,手掛かりとなる語をイタリックで示す.いずれの例も類義語辞書に存在しない病名が入力となっている. & \\ 図 3 辞書サイズと Accuracy 図 $4 \mathrm{kNN}$ の近傍数と Accuracy 数である. ・ MEDIC の 50\%を無作為に抽出(39,959) ・MEDIC をそのまま使用(86,205) ・UMLS の関連病名の $50 \%$ MEDIC に追加 $(151,559)$ - UMLS の関 $\mathrm{x}$ 連病名を MEDIC に追加 $(218,325)$ 図3は MedMentions における実験結果である. 提案手法は SapBERT と比較し, 辞書サイズが小さいほど有効であることがわかる.これは,辞書サイズが小さく病名表現が限られた場合に,文脈でその情報を補うことができるためと考えられる。 ## 5.2 近傍数と正規化精度 $\mathrm{kNN}$ の近傍数と正規化精度を比較するため, $k$ が 1, 5, 10, 15, 20, 25, 30 の場合で,MedMentions において実験を行った. 図 4にその結果を示す. $\mathrm{k}$ が 10 の時に Accuracy が最大となるが,その他の値の場合にも精度は飽和しており, 入力病名に対応する概念が正しく近傍として抽出されていると考えられる. ## 5.3 事例の分析 文脈を考慮する有効性を質的に議論するため, MedMentions におけるモデルの予測結果を分析した,表 2 に,文脈を考慮することにより予測が変化した例を示す. なお, 例示した全ての入力病名は類義語辞書に収載されていない。 一つ目と二つ目の例は,文脈が予測に有効に働い た例である。一つ目の例では,急性リンパ性白血病を表す “translocation $\mathrm{t}(4 ; 11)$ "が入力である.提案手法では,急性リンパ性白血病の一種である “B-ALL"を手がかりに,“B-cell ALL"の含まれる用例を最近傍として抽出できていることがわかる. 二つ目の例は同様に,正式名称 “papillary thyroid carcinoma"と共起した “PTC"を手掛かりにして提案手法が奏功した例である. 三つ目の例は,SapBERT が正解し,提案手法が予測を誤った例である. 提案手法の予測文は, “carcinoma, non-small-cell lung"が誤って病名として認識されており,正しくは “renal cell carcinoma"と認識されるべきである.この場合,文脈を考慮することにより, “carcinoma, non-small-cell lung"が病名として認識されている場合にも “renal cell"に注目してしまい,“renal cell carcinoma"の近傍として誤って予測されている.このように,辞書マッチによる認識誤りが致命的な予測誤りに繋がり得る. 今回の実験では,最長一致により病名を認識したが,リソースとして固有表現抽出器を使用可能な場合,この問題は緩和可能である. ## 6 おわりに 本研究では,文脈の一致による病名正規化手法を提案した. 標準的な病名正規化データセットにおける実験により,文脈を考慮することで正規化精度が向上することが示された. 文脈の一致による正規化は,低リソース下において精度の向上が顕著であり,病名の多様性を文脈情報で補えることが示唆された. 本研究は,医療ドメインで自然な問題設定をとっており,今後,さまざまな応用システムにおいて本手法を活用できると考えている ## 参考文献 [1]Sunwon Lee, Donghyeon Kim, Kyubum Lee, Jaehoon Choi, Seongsoon Kim, Minji Jeon, Sangrak Lim, Donghee Choi, Sunkyu Kim, Aik-Choon Tan, and Jaewoo Kang. BEST: Next-Generation biomedical entity search tool for knowledge discovery from biomedical literature. PLoS One, Vol. 11, No. 10, p. e0164680, October 2016. [2]Jun Xu, Yonghui Wu, Yaoyun Zhang, Jingqi Wang, HeeJin Lee, and Hua Xu. CD-REST: a system for extracting chemical-induced disease relation in literature. Database, Vol. 2016, , March 2016. [3]Ishani Mondal, Sukannya Purkayastha, Sudeshna Sarkar, Pawan Goyal, Jitesh Pillai, Amitava Bhattacharyya, and Mahanandeeshwar Gattu. Medical entity linking using triplet network. In Proc. of the 2nd Clinical Natural Language Processing Workshop, pp. 95-100, June 2019. [4]Jennifer D'Souza and Vincent Ng. Sieve-Based entity linking for the biomedical domain. In Proc. of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 297-302, July 2015. [5]Mujeen Sung, Hwisang Jeon, Jinhyuk Lee, and Jaewoo Kang. Biomedical entity representations with synonym marginalization. In Proc. of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3641-3650, 2020. [6]Fangyu Liu, Ehsan Shareghi, Zaiqiao Meng, Marco Basaldella, and Nigel Collier. Self-alignment pre-training for biomedical entity representations. October 2020. [7]Haodi Li, Qingcai Chen, Buzhou Tang, Xiaolong Wang, Hua $\mathrm{Xu}$, Baohua Wang, and Dong Huang. CNN-based ranking for biomedical entity normalization. BMC Bioinformatics, Vol. 18, No. Suppl 11, p. 385, October 2017. [8]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, June 2019. [9]Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, and Jaewoo Kang. BioBERT: a pre-trained biomedical language representation model for biomedical text mining. Bioinformatics, Vol. 36, No. 4, pp. 1234-1240, February 2020. [10]Yu Gu, Robert Tinn, Hao Cheng, Michael Lucas, Naoto Usuyama, Xiaodong Liu, Tristan Naumann, Jianfeng Gao, and Hoifung Poon. Domain-specific language model pretraining for biomedical natural language processing, 2020. [11]Olivier Bodenreider. The unified medical language system (UMLS): integrating biomedical terminology. Nucleic Acids Res., Vol. 32, No. Database issue, pp. D267-70, January 2004. [12]Livio Baldini Soares, Nicholas FitzGerald, Jeffrey Ling, and Tom Kwiatkowski. Matching the blanks: Distributional similarity for relation learning. In Proc. of the 57th Annual Meeting of the Association for Computational Linguistics, July 2019. [13]Kaiming He, Haoqi Fan, Yuxin Wu, Saining Xie, and Ross Girshick. Momentum contrast for unsupervised visual representation learning. In Proc. of the IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 9729-9738, 2020. [14]Ting Chen, Simon Kornblith, Mohammad Norouzi, and Geoffrey Hinton. A simple framework for contrastive learning of visual representations. In Hal Daumé III and Aarti Singh, editors, Proc. of the 37th International Conference on Machine Learning, Vol. 119 of Proceedings of Machine Learning Research, pp. 1597-1607, Virtual, 13-18 Jul 2020. [15]Xun Wang, Xintong Han, Weilin Huang, Dengke Dong, and Matthew R Scott. Multi-similarity loss with general pair weighting for deep metric learning. In 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 2019. [16]Allan Peter Davis, Thomas C Wiegers, Michael C Rosenstein, and Carolyn J Mattingly. MEDIC: a practical disease vocabulary used at the comparative toxicogenomics database. Database, Vol. 2012, p. bar065, March 2012. [17]Rezarta Islamaj Doğan, Robert Leaman, and Zhiyong Lu. NCBI disease corpus: a resource for disease name recognition and concept normalization. J. Biomed. Inform., Vol. 47, pp. 1-10, February 2014. [18]Jiao Li, Yueping Sun, Robin J Johnson, Daniela Sciaky, ChihHsuan Wei, Robert Leaman, Allan Peter Davis, Carolyn J Mattingly, Thomas C Wiegers, and Zhiyong Lu. BioCreative V CDR task corpus: a resource for chemical disease relation extraction. Database, Vol. 2016, , May 2016. [19]Sunil Mohan and Donghui Li. MedMentions: A large biomedical corpus annotated with \} concepts. In Proc of the $A K B C, 2019$. ## A 付録 ## A. 1 データセットの詳細 本研究において使用した 3 つのデータセットでは,医学論文のタイトルとアブストラクトに対して医学概念のスパンと概念識別子がアノテーションされている. 表3に,各データセットの文書数, 病名数を示す. 表 3 各データセットにおける文書数と病名数 ## A. 2 ハイパーパラメータ 学習におけるハイパーパラメータとして,バッチ数は 16 (32 文), 温度パラメータ $\alpha, \beta$ は 2,50 , 才フセット $\lambda$ は 1 に設定した. 推論時は各概念について用例集合から無作為に抽出した 25 文の用例を用いた. ## A. 3 エンティティタグの付与方法 実際の運用では,用例は辞書内の病名が認識される一方で,入力文は固有表現抽出結果のすべてを病名として認識するため,病名の認識粒度の不一致が起こる. つまり,推論時において過剰に病名が認識され,学習時に認識されていない病名にも ENT 夕グを付与してしまう問題がある。これは,対象となる病名のみに ENT タグを付与することで緩和可能である。この問題の Accuracyへの影響を分析するため,用例・テストデータ共に,対象とする病名のみに ENT タグを付与し,学習・評価を行った. 実験結果を表5に示す. 対象とする病名のみに ENT タグを付与した場合は,すべてに ENT タグを付与した場合と同等,もしくは精度が悪化した. この原因の一つとして,学習時のミニバッチにおける病名数がある. 対象となる病名のみに ENT タグを付与した場合,すべての病名に ENT タグを付与する場合に比べて,負例の数が少なくなる。これにより,学習が効率的に進まなかった可能性がある. 表 4 実験結果. 図 5 用例数と正規化精度 ## A. 4 用例数と正規化精度 用例集合の作成に用いる生テキストの数が膨大な場合,全探索に大きな計算コストが生じる. これは,病名ごとに用例を無作為に抽出することで緩和可能である. 用例数の Accuracyへの影響を分析するため,用例数を 1,5,10,20として MedMentions において実験を行った. 図5に,各用例数に対する Accuracyを示す. Accuracy は用例数 20 の場合に最大になるが,用例数が少ない場合にも大きな減少はない.このことから,対照学習により汎用的な病名の埋め込み表現を獲得しており,無作為な抽出により用例数が減少しても精度が保たれることが示唆された。
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D2-1.pdf
# ルールベース手法による数式群の同義性判定 張純朴 加藤祥太 金上和毅 加納学 京都大学大学院情報学研究科 \{zhang.chunpu.76r, katou.shouta.23v, kanegami.kazuki.55z\}@st.kyoto-u.ac.jp manabuQhuman.sys.i.kyoto-u.ac.jp ## 1 はじめに 化学や鉄鋼などのプロセス産業では, 激しい競争や厳しい環境規制,急速に変化する経済状況に応じてプロセスの運転を改善していくことが求められている。しかし,現代のプロセスはより複雑になっているため, そのような要求に応えることは困難になっている [1].プロセスでは実機を用いて試行錯誤的に実験を繰り返すことは難しいため,プロセスシミュレータが広く活用されている。プロセスシミュレータは,対象プロセスの第一原理モデル(物理モデル)を用いて,指定した条件下で装置内部の状態がどのようになるかを計算する.このため,現実の現象を適切に表現できる第一原理モデルを用意することが重要である。しかし,第一原理モデルの構築には文献調査を含めた多大なコストがかかる。本研究の最終目的は, 複数の文献から情報を抽出して第一原理モデルを自動で構築する人工知能 ( $\mathrm{AI})$ を開発することである。 第一原理モデルを構築するには変数,数式,実験データといった情報が必要である. 文献によって変数の記号が異なったり数式の記述の仕方が異なったりするので,AI は文献中の変数と数式の意味を正確に判別できなければならない. 本研究では,同じ意味の変数は同じ記号で表現されていると仮定し, 複数の数式で構成される数式群の同義性判定手法を提案する. なお,同一の計算をしている 2 つの数式群を同義であると定義する。さらに,2つの数式群の同義性を判定するウェブアプリケーションを開発したので,それを簡単に紹介する. ## 2 関連研究とその問題点 単語や文章を対象としている自然言語処理関連の研究に対して,数式を扱っている研究は少ない。情報検索の分野では, 数式が有する階層的な情報 (a) (b)図 1: 等式 $x-y^{2}=0$ の (a) SLT と (b) OPT を扱うために,数式を Symbol Layout Tree (SLT) や Operation Tree (OPT) [2][3] に変換することが有効とされている.例として,等式 $x-y^{2}=0$ の SLT と OPT を図 1 に示す. Zhong ら [4] はOPTを用いて,数式間の類似度を定義し,数式検索システムを開発した. Mansouri ら [5] は,SLTとOPTを用いて,数式をベクトル空間へ埋め込む手法を開発した。これらの研究は,数式の類似度を定義しているが,数式の見た目を重視し,数式が行っている計算を無視する傾向がある.実際,Mansouri らが開発した数式検索システム Tangent-CFT [5] を用いて数式の類似度を計算したところ,数式 $a+b=0$ は,同一の計算をしている数式 $a=-b$ より,異なる計算をしている数式 $a-b=0$ との類似度が高いと評価された. 数式の同義性判定に関する研究はまだないが,数式間の類似度を計算し,類似度が閾値以上であればそれらの数式を同義であると判定する方法が有効と考えられる。しかし, 上述のように,数式検索で用いられている見た目重視の類似度は役に立たない.このため,数式の計算内容に注目し,数式の見た目に左右されない同義性判定手法の開発が必要である. ## 3 提案手法 本研究では,数式の見た目の類似度ではなく,数式の本質的な計算に注目した同義性判定手法の開発を目指す。数式を扱う先行研究では, 図 2: 数式 $\frac{1}{2}+\frac{1}{x}$ の SLT-tangents Mathematical Markup Language (MathML) が用いられており, MathML はウェブページ上で公開されている文献に含まれる数式の標準記法であるため [6], 本研究では MathML 形式の数式を対象とする. Python には, SymPy [7] という代数演算を行うためのライブラリがあり, 四則演算や一部の初等関数の演算を実行できる. SymPy で演算可能な数式を本稿では SymPy の数式オブジェクトと呼ぶ. 本研究では MathML 形式の数式を SLT に変換し,SLTを解析することで,数式に含まれる変数および変数間の関係の情報を抽出する.これらの情報をもとに,数式の SLT を SymPy の数式オブジェクトに変換する. ## 3.1 数式の木構造への変換 本研究では, MathML 形式の数式を SLT に変換する際, Tangent-s formula search engine [8] の LayoutSymbol クラスの parse_from_mathml 関数を用いる.以下では,この関数によって生成されたSLTを SLT-tangents と呼ぶ. 数式 $\frac{1}{2}+\frac{1}{x}$ の SLT-tangents を図 2 に示す. SLT-tangents では, 数式の記号や演算子が左から順に各ノードに格納される。V!, N!, O! はノードが変数, 数字, 演算子であることを示す.更に, 子ノードと親ノードの位置関係を並べた文字列も付属の情報としてノードの中に入れられる.子ノードと親ノードの位置関係には, a (above), $\mathrm{b}$ (below), c (pre-above), d (pre-below), e (element), $\mathrm{n}$ (next), o (over), u (under), w (within) の 9 種類がある. SLT-tangents は枝分かれする場合があり, 分枝箇所では子ノードと親ノードの位置関係が $\mathrm{n}$ 以外のものとなる. ## 3.2 SymPy の数式オブジェクトへの変換 数式をSymPy の数式オブジェクトへ変換するためには, 数式に含まれる変数および変数間の関係という 2 つの情報を抽出する必要がある. 変数については,V!タグが付与されたものを変数として抽出す表 1: 分数, 指数, 括弧, 初等関数の変数間関係 る. 変数間の関係はノード同士の位置関係によって決まっており, その位置関係に応じて SLT-tangents を解析することで, 変数間の関係の情報を持つデー タを作成する. 分数, 指数, 括弧, 初等関数の変数間の関係を表 1 に示す. 例えば, 数式 $\frac{a+b}{c+d}$ の変数間の関係は [SLT-tangents 1, SLT-tangents 2, 'frac'] のようなデータとして保持される。保持されたデータの第一成分と第二成分はそれぞれ数式 $a+b$ と $c+d$ の SLT-tangents を指している. さらに,数式 $a+b$ の変数間関係は ['a', '+', 'b'] のようなデータとして保持される. 四則演算と初等関数からなる数式は, 再帰的に SLT-tangents を解析することにより, SymPy の数式オブジェクトに変換することができる. ## 3.3 数式群の同義性判定 本研究では, 2 つの数式群の同義性を判定することが目的であるため, 単体の数式のみならず, 複数の数式から構成される数式群も対象としている. 図 3 に化学反応器の物質収支式を示す. $3 \mathrm{a}$ と $3 \mathrm{~b}$ は同一の物質収支式を表している.本稿において,ある数式群に含まれる等式が共有する変数を群内共有変数と定義する. $3 \mathrm{a}$ の場合, 変数 $k, \beta, F_{\mathrm{AO}}, F_{\mathrm{A}}, r_{\mathrm{A}}$ が群内共有変数である. 群内共有変数の数は文献によって異なる可能性があるため, 数式群の同義性判定を行う際, 群内共有変数はない状態が望ましい。 提案手法では, まず数式群の自由度を比較する. 数式群の自由度は一般的に, 数式群に含まれる変数の数から数式の数を引いた值で定義される [1]. 同一の計算をしている連立方程式ならば, 自由度は等しい. その後, 群内共有変数を消去する. 群内共有変数を消去する処理は,変数を一個消去するたびに, 数式の数も一個減るため, 数式群の自由度を変えない可逆的な処理である. 2 つ数式群の片方に含まれる任意の等式について, もう片方の数式群にそれと同一の計算をしている等式が存在する場合, この 2 つの数式群は同義であると判定する. 以上の処理を Algorithm 1 に示す. なお, 2 つの等式の同 $ \begin{array}{r} \frac{d n_{\mathrm{A}}}{d t}=F_{\mathrm{AO}}-F_{\mathrm{A}}+r_{\mathrm{A}} \bar{V} \\ k=k_{\mathrm{o}} \exp \left(-\frac{\beta}{T}\right) \\ F_{\mathrm{AO}}=v C_{\mathrm{AO}} \\ F_{\mathrm{A}}=v C_{\mathrm{A}} \\ \beta=\frac{E}{R} \\ -r_{\mathrm{A}}=k \end{array} $ (a) 6 つの等式で書かれた物質収支式 $ \begin{array}{r} \frac{d n_{\mathrm{A}}}{d t}=v C_{\mathrm{AO}}-v C_{\mathrm{A}}-k \bar{V} \\ k=k_{\mathrm{o}} \exp \left(-\frac{E}{R T}\right) \end{array} $ (b) 2 つの等式で書かれた物質収支式 図 3: 等式の数が異なる同義の数式群 義性判定では,その 2 つの等式が共有する任意の一つの変数について, それぞれの等式における解を求め, 同一の解を得た場合, その 2 つの等式が同義であると判定する. ## 4 実験 ## 4.1 問題設定 実験では, Tangent-CFT [5] と提案手法による結果を比較した. Tangent-CFT は数式の類似度しか計算できない. そこで, 数式群の類似度 $S_{\mathrm{A}, \mathrm{B}}^{*}$ を式 (9) で定義する. $ S_{\mathrm{A}, \mathrm{B}}^{*}=\frac{\sum_{j=1}^{b} \sum_{i=1}^{a} S_{i, j}}{a b} $ ここで, $a, b$ は数式群 $\mathrm{A}, \mathrm{B}$ に含まれる数式の数, $S_{i, j}$ は数式群 $\mathrm{A}$ の $i$ 番目の数式と数式群 $\mathrm{B}$ の $j$ 番目の数式の類似度である. 数式群の類似度が 0.95 以上のとき,2つの数式群を同義であると判定する. ## 4.2 数式群の同義性判定結果 Tangent-CFT と提案手法で 6 組の数式または数式群の同義性を判定した結果を表 2 に示す. 表 2 から分かるように, Tangent-CFT はたとえ数式群が異な る計算をしていても類似度を高く評価する場合がある.また。数式群が同一の計算をしているにも関わらず,同義と判定されるほど類似度が高くない場合もある.これは, Tangent-CFT は数式が表現する本質的な計算を無視する傾向があるためである。それに対して,提案手法は計算の規則に基づいて,同義の数式群が異なる書き方をされても正確に同義性を判定することができる. さらに, 図 4 に示すように, 提案手法を用いて数式群の同義性判定を行うウェブアプリケーションを作成した.このウェブアプリケーションは 2 つの数式群の同義性を判定し, 結果を画面に表示させる. これを用いることで数式群の同義性を簡単に判定できる. ## 5 おわりに 本研究では, 第一原理モデル自動構築に必要な要素技術として,数式群の同義性を判定する手法を提案した. 提案手法は, MathML 形式の数式を演算可能な数式に変換することで, 計算の規則に基づいて数式群の同義性を判定する. 実験により,提案手法は,有理式と初等関数を組 表 2: 提案手法と Tangent-CFT の同義性判定結果の比較 & 果 ${ }^{1}$ & 同義性 2 \\ ${ }^{1} \mathrm{~T}$ は同義である, $\mathrm{F}$ は同義ではないと判定した. ${ }^{2} \bigcirc$ は同義である,×は同義ではないことを表す. equivalence judgment of equation groups same 図 4: 数式群同義性判定ウェブアプリケーション み合わせた数式群の同義性を正確に判定できることを確認した。しかし, 提案手法は微分, 偏微分, 総和, 累乗など初等関数に含まれない記号がある数式を扱うことができない。特に,微分は第一原理モデルの記述によく用いられるため, 今後の研究でより多くの種類の数式に対応することを目指す. ## 参考文献 [1]D. Seborg, D. Mellichamp, T. Edgar, and F. Doyle III. Process dynamics and control. John Wiley \& Sons, 2010. [2]R. Zanibbi and D. Blostein. Recognition and retrieval of mathematical expressions. International Journal on Document Analysis and Recognition (IJDAR), Vol. 15, No. 4, pp. 331-357, 2012 . [3]M. Schubotz, N. Meuschke, T. Hepp, H. Cohl, and B. Gipp. Vmext: a visualization tool for mathematical expression trees. In International Conference on Intelligent Computer Mathematics, pp. 340-355. Springer, 2017. [4]W. Zhong and R. Zanibbi. Structural similarity search for formulas using leaf-root paths in operator subtrees. In European Conference on Information Retrieval, pp. 116-129. Springer, 2019 . [5]B. Mansouri, S. Rohatgi, D. Oard, J. Wu, C. Giles, and R. Zanibbi. Tangent-cft: An embedding model for mathematical formulas. In Proceedings of the 2019 ACM SIGIR international conference on theory of information retrieval, pp. 11-18, 2019. [6]横井啓介, 松林優一郎, 相澤彰子. D-011 数式とその周辺情報を利用した数式概念検索の実現. 情報科学技術フォーラム講演論文集, Vol. 9, No. 2, pp. 117-120, aug 2010 . [7]A. Meurer, C. Smith, M. Paprocki, O. Čertík, S. Kirpichev, M. Rocklin, A. Kumar, S. Ivanov, J. Moore, S. Singh, et al. Sympy: symbolic computing in python. PeerJ Computer Science, Vol. 3, p. e103, 2017. [8]K. Davila and R. Zanibbi. Layout and semantics: Combining representations for mathematical formula search. In Proceedings of the 40th International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 1165-1168, 2017
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D2-2.pdf
# HaoriBricks3 による音変化表現の生成 佐藤理史柳将吾夏目和子 名古屋大学大学院工学研究科 ssato@nuee.nagoya-u.ac.jp ## 1 はじめに 小説や漫画の発話テキストには、話し言葉固有の音変化が文字として現れる。宮崎ら [1] は、これを音変化表現と呼んでいる。実際に、小説の会話文を調べると、多くの実例が観察される。以下に、『舟を編む』[2]に見られる実例を示す。 (1) 辞書はイメージもいいし、景気にも左右されにくい商品だってのに。(p12) (2)『大渡海』も、後半がすかすかになっちゃうんですか?(p191) (3) はじめての辞書づくりにしては、岸辺君はいい線いっとるぞ。(p194) このような音変化表現の生成は、小説の自動生成 [3] を実現するためには不可欠である。そこで、音変化表現を HaoriBricks3 (HB3) [4] で生成する方法を定め、宮崎ら [1] が示した音変化表現の 127 パター ンのうち、120 パターンを生成できるようにしたので報告する。 ## 2 基本方針 音変化表現には、変化前の表現が存在すると仮定し、音変化表現を変化前の表現の異形とみなす。この考え方に基づけば、元の表現から異形を作る操作を規定すればよいということになる。 しかしながら、音変化表現には、次のようなバリエーションが存在する。 ・内容語に関わるものと機能語に関わるもの ・使用頻度が高いものと低いもの ・単純なものと複雑なもの このため、すべての音変化表現を統一的に扱うのではなく、複数の方法で扱うこととする。 具体的には、次に示す 5 つ方法で扱い、それぞれの方法を適用する原則を定める。 1. (新たな) 内容語として扱う ・活用しない内容語が音変化を受けている場合 ・活用する内容語の語幹が音変化を受けている場合 2. 音変化形 (異形) を作り出すコマンドで扱う ・音変化の形式が典型性を持つ場合 3. 新たな活用形として扱う ・活用語尾が後続する語と縮約する場合 ・特定の活用形に限り、語幹の末尾の母音が音変化を受ける場合 4. 新たな機能語として扱う ・機能語が音変化を受けている場合 5. テンス有標 (タ)の拡張として扱う ・「〜たあ」、「〜たあ」 以下では、 5 つのそれぞれの方法と保留としたパターンについて説明する。なお、以下において、 $「 \mathrm{P} n\lrcorner$ という表記は、宮崎らのパターン番号を表し、*付きの場合は、生産性のあるパターンを示す。 ## 3 新たな内容語 HB3 において、内容語の表層文字列を生成するために必要な情報は、以下のとおりである。 ・活用しない内容語:表記 ・活用する内容語:(辞書形) 表記、および、活用型 HB3 には、内容語の辞書形表記から活用型を自動推定する機能が組み込まれているため、辞書形表記さえあれば、表層文字列を生成することができる。 HB3 のブリックコードでは、内容語を辞書形表記で記述するので、HB3 システムに何の変更を加えることなく、新たな内容語を扱うことができる。 う内容語として扱う。これを述語とみなす場合、活用型は「イ形容詞型アウオ段」と推定されるので、連用形「すっごく」などを正しく生成できる。 なお、「すっごい」は、次に説明する音変化ブリッ 表 1 音変化ブリックの一覧 & & \\ クを用いて、「すごい」の2 文字目に促音「っ」を挿入すると記述してもよい。ただし、ブリックコードを書く時点で「すっごい」を生成することが決まっているのであれば、直接「すっごい」と記述する方が簡単である。 ## 4 音変化形を作り出すコマンド 音変化は、音という実在の物理現象に基づくため、ある種の規則性に則っている場合が多い。たとえば、末尾の文字の直前に長音記号が挿入される (つまり、最後から 2 番目の音が長音化される) 現象は、「でーす」「まーす」「ませーん」「ごめーん」のような例に共通して観察される。これらの現象は、個別に扱わずに、そのような異形を生成するコマンドとして一括して扱う。これを音変化コマンドと呼び、それを HB3 のブリックとして実装したものを音変化ブリックと呼ぶ。表 1 に、実装した音変化ブリックの一覧を示す。 音変化ブリックに組み込まれた音変化コマンドは、string_transという名前の属性として保持さ表 2 音変化ブリックの使用例 れ、HB3 の語の表層文字列化の最終段階で実行される (そのような機能を新たに HB3 に組み込んだ)。 より具体的には、 ・活用しない語は、表記 (文字列) を書き換える。 ・活用する語は、活用形の表層文字列を生成した後、その文字列を書き換える。 音変化ブリックの使用例を表 2 に示す。この例のウ促音化では、「走る」から意志形「走ろう」が生成され、その後、末尾の「う」を「っ」に書き換える。 アエ交替は、終止形「うるさい」を「うるせえ」に書き換える。連用形を指定した場合は、連用形「う 表 3 音変化に関わる活用形 (1) & & & & & & \\ 表 4 音変化に関わる活用形 (2) 新たな活用形 & イ形容詞型 & & ワ行文語音便 & 宮崎ら [1] \\ るさく」が生成され、これには、アエ交替が適用できないため、そのまま「うるさく」が生成される。 ## 5 音変化に関わる活用形 音変化表現の中には、活用語尾に関わるものが存在する。活用する語の活用語尾が後続する語と縮約する場合、および、特定の活用形に限り語幹末尾の母音が音変化を受ける場合は、新たな活用形として扱うのが簡単である。表 3 と表 4 に、音変化に関わる活用形の一覧を示す。 表 3 は、HB3 にすでに組み込まれていた活用形である。P40「食べただろう/食べたろう」は、「だろう」の「だ」が脱落したものと説明されているが、 HB3 では夕系推量形とみなす。これは、イ形容詞型の「寒かろう」(推量形)、「寒かったろう」(夕系推量形) という形式との類似性を重視するからである。 HB3 では、夕系連用チャ形、および、夕系連用ジャ形という活用形が設定されている。これは、活用形として扱うのがよいか、あるいは、「接続助詞ちゃ」「接続助詞じゃ」として扱うのがよいかは、判断に迷う。HB3 の活用体系は、JUMAN の活用体系を出発点としたので、現時点では活用形として残っているが、将来、変更する可能性はある。 表 4 は、今回、音変化表現を扱うために、新たに新設した活用形である。 条件縮約形は、「否定接尾辞ぬ」の活用型である 「特殊型ぬ」にのみ設定する活用形で、次の例のように「ねば」が「な」に縮退した形式である。(宮崎ら [1] は、このパターン (P20)を「なければ」の「ければ」が脱落した形式と説明している。) (4) a. 食べねばあかん b. 食べなあかん c. 食べにゃあかん なお、最後の「(食べ)にゃ」は、「否定接尾辞ぬ」の条件音便形として扱う。 連用縮約形は、「イ形容詞型接尾辞ない」を除くイ形容詞型の活用型に定義される活用形で、次の例のように、「くは」が「か」に縮退した形式である。 (5) a. 寒くはない b. 寒かない 残りの活用形は、ウ音便に関わる活用形であり、 その基本となるのが連用ウ音便形である。 イ形容詞型の辞書形は「〜い」となるが、「い」の直前の (語幹末尾の) 母音にはエ音を除く4 種類があり、それぞれの連用ウ音便形は、次のようになる。 1.「ア音+い」は「才音+う」に交替する 2.「イ音+い」は「ユ音+う」に交替する 3.「ウ音+い」は「ウ音+う」に交替する 4.「オ音+い」は、原則として、「オ音+う」に交替する。ただし、「オ音+おい」の場合は、例外的に「才音+お」となり、末尾の「い」が脱落する。 一方、子音動詞型り行の辞書形は「〜う」となるが、「う」の直前の (語幹末尾の) 母音にはオ音を除く4 種類があり、それぞれの連用ウ音便形は、次のようになる。 1.「ア音+う」は「オ音+う」に交替する 2.「いう」は変化しない(「イ音+う」は、「いう」 しかない) 表 5 連用ウ音便形 3.「ウ音+う」は変化しない 4.「エ音+い」は、「オ音十う」に交替する 以上をまとめたものを、表 5 に示す。 連用ウ音便テ形と連用ウ音便タリ形は、連用ウ音便形に「て」「たり」が付いた形式である。連用ウ音便形に「た」がついたタウ音便形は、子音動詞型ワ行およびワ行文語音便に設定する。連用ウ音便テ形の「う」が脱落した連用ウ音便省略テ形は、子音動詞型ワ行にのみ設定する。 ## 6 音変化に関わる機能語 音変化に関わる機能語の一覧を表 6 に示す。以下に示すような「ったら」「っちゃ」の扱いは悩ましいが、接続助詞とみなすこととする。 (6) a. 嫌だったら嫌だ b. 嫌ったら嫌だ c. 食べるったら食べる (7) a. 嫌だっちゃ嫌だ b. 嫌っちゃ嫌た c. 食べるっちゃ食べる ## 7 テンス有標の拡張 テンス有標を表す「〜た」の形式が「〜たあ」「〜 たあ」となる場合は、それぞれ「タあ」「タあ」という特別なブリックで指定する。これは、HB3 のテンスの位置自動決定機構で、テンスが実体化される場所が定まることに起因する。このブリックを用いると、「タあ (ちゃう (述語 $($ 食べる)))」は「食べちゃったあ」を生成するが、これに「丁寧」ブリックを付加すると、「食べちゃいましたあ」を生成する。 ## 8 実装保留 宮崎らのリストのうち、実装を保留しているのは、次の 7 パターンである。表 6 音変化に関わる機能語・従属節 } & $\sqrt{ }$ & にゃ & には & P81 \\ P31, P34, P72, P112, P113, P120, P126 実装を保留した理由は、音変化としての典型性が低く、使用される頻度もかなり低いと判断したためである。 謝辞本研究は JSPS 科学研究費基盤研究 (B)「日本語文章の構造モデルとその段階的詳細化による文章自動生成機構」(課題番号 18H03285) の助成を受けている。 ## 参考文献 [1]宮崎千明, 佐藤理史. 発話テキストへのキャラクタ性付与のための音変化表現の分類. 自然言語処理, Vol. 26, No. 2, pp. 407-440, 2019. [2]三浦しをん. 舟を編む. 光文社, 2011 . [3]佐藤理史. コンピュータが小説を書く日. 日本経済新聞出版社, 2016 [4]佐藤理史. Haoribricks3: 日本語文を合成するためのドメイン特化言語. 自然言語処理, Vol. 27, No. 2, pp. 411-444, 2020 .
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D2-3.pdf
# 日本語テキスト音声合成のための句境界予測モデルの検討 二又航介 朴炳宣 山本龍一 橘健太郎 LINE 株式会社 kosuke. futamata@linecorp.com ## 1 はじめに 句境界はテキスト音声合成システムを構築する上で,音声の自然性に寄与する重要な要因の一つである. 句境界とは, 連続する句の間に挿入される音声的なポーズとして定義され,息継ぎやアクセントの変化などにより発生する。表 1 に句境界を含まない発話文例と句境界を含む発話文例を示す。 表 1 における'w/o PB'は句境界を含まない発話文例,'w/ PB' は句境界を含む発話文例を表す。また, 'w/ PB'における’'は句境界を表す. 表 1 の'w/o $\mathrm{PB}$ 'では,句境界が一切挿入されておらず,聞き手に対して単調で話速の早い発話として印象を与える. 一方で表 1 の' $\mathrm{w} / \mathrm{PB}$ 'は, 複数の句境界が適切に挿入されており一定のリズムで発話されるため,聞き取りやすい印象を与える。このように句境界の有無によって音声の自然性が大きく異なる. 現在までに,LSTM といった深層学習を用いた手法や品詞タグなどの特徴量の効果が,英語を対象とした句境界予測において検証されている $[1,2,3]$. しかし, 深層学習と従来の機械学習アルゴリズムを組み合わせた手法 (LSTM+CRF) や BERT[4] など大規模分散表現を用いた手法ついては,句境界予測に対する効果が検証されていない. また,日本語を対象とした句境界予測では, Random forest や CRF などによる手法が研究されているものの $[5,6,7]$, 深層学習の有用性については十分に検証されていない. そこで本稿では,日本語テキスト音声合成システムの品質向上のために, 様々な特徴量やモデルの句境界予測に対する効果を検証する。 句境界予測にあたり,入力として与えられる発話文のトークン系列から各トークンの後に句境界が挿入されるべきか否か出力する系列ラベリングのタスクとしてモデルを構築した. また, 句境界予測に用いたコーパスを分析した結果,非句境界と句境界数のラベル分布が大きく偏っていることが判明した. このようなラベルの分布が偏ったデータに対して,有効である Focal-loss[8] を用いることで句境界予測の精度上昇を図った. 自動評価実験および主観評価実験の結果,BERT および Focal-lossにより,句境界予測の精度が大きく向上し,かつ音声の自然性が向上することが明らかになった。 ## 2 コーパス及び評価尺度 ## 2.1 句境界コーパスの分析 句境界予測モデルを構築するにあたって,複数話者から構成される日本語話し言葉コーパス (CSJ) [9] の書き起こし文および単一話者から構成される独自に収集したコーパスを使用した. CSJでは,200 ミリ秒以上の無音区間を句境界として認定し,独自コーパスには予め定義された句境界を利用した。また,各コーパスは Sudachi[10]を用いて分かち書きし,トークン数が 128 以下の発話のみ使用した. 各コーパスの統計情報を表 2 および表 3 に示す. 表 3 に示す独自コーパスは単一話者から構成され,句境界の挿入位置が予め統制されている。一方で表 2 に示す CSJ は複数話者による少数の発話から構成される。そのため, 息継ぎタイミング,思考によるポーズなど句境界が挿入される箇所が話者によって大きく異なる. したがって,CSJでは句境界の分布が話者によって大きく異なる。このようなコーパスから,どのような句構造が自然な音声になりうるか判別することは難しい. しかし,多くの話者に共通する句境界の分布を得ることができれば,万人に共通する自然な音声になると想定される. ## 2.2 評価尺度 前述の問題を解決するために,自動評価尺度として F- $\beta$ を使用した. 式 1 に F- $\beta$ の式を示す. 式 1 に示す F- $\beta$ は F-1 を一般化した評価尺度であり, $\beta \leq 1.0$ として評価することにより,Recall よ 表 1 句境界を含まない発話文例と句境界を含む発話文例 り Precision が重視されて評価されるため, 多くの話者に共通する句境界が重点的に学習されることが期待される。また,一般的に誤った箇所に句境界を挿入するより, 句境界を挿入しない方が自然な音声になることが知られている [1]. したがって,F- $\beta$ を用いることで,誤った箇所に句境界が挿入されることが少なくなり,かつ多くの人に共通する句境界が学習されることが期待される. 本研究では, 経験上 $\beta=0.25$ として Precisionを 4 倍偏重して評価を行う。また,単一話者から構成される独自コーパスについては,F-1を用いて評価を行う. $ F_{\beta}=\left(1+\beta^{2}\right) \frac{\text { precision } \cdot \text { recall }}{\left(\beta^{2} \cdot \text { precision }\right)+\text { recall }} $ ## 3 自動評価による実験 句境界予測モデルを構築するにあたって,3つの実験を行った. まず初めに,品詞タグ,構文情報など計 5 種類の特徵量の句境界予測に対する効果を検証した. 次に, CRF や BERT などのモデルの効果について検証した. 最後に, 出力ラベルの分布が大きく偏ったデータに対して有効である Focal-loss の効果について検証した。 ## 3.1 特徴量の比較実験 まず初めに,様々な特徴量の句境界予測における効果を検証した. 表 4 に実験に使用した特徴量を示す. 表 4 における'DEP' には現トークン,親トークンの構文タグおよび相対位置を用いた. 'W2V' は wikipediaによる事前学習済みの embedding を表す。実験には,2 層の BiLSTM を使用し,次元数は 512 とした. 実験の結果,CSJでは全ての特徵量において F-0.25 が上昇した. また, 'UD', 'POS', 'W2V' の特徴量を用いたモデルでは, 'Token' のモデルより 2 ポイント以上 F-0.25 が上昇し, 'ALL(POS)' では, F-0.25 の値が 63.5 と最も高い結果となった. 一方で,独自コーパスでは単一の特徴量を追加するだけでは精度が上昇しなかった. 'ALL(POS)'のみわずかに精度が上昇し,F-1 は值は 90.5 であった. これは,独自コーパスが単一話者による発話,かつ句境界の挿入が箇所が統制されているため,CSJ と比較して句境界の分布が整然としているからであると推察される. 特徴量追加による実験結果の詳細は付録の表 12 に示す. 表 4 実験に使用した特徴量 ## 3.2 モデル構造の比較実験 前項の実験では,独自コーパスにおいて特徵量を追加しても句境界予測精度の改善がみられなかった. そこで,前項の実験で用いた BiLSTM に加え, CRF および BERT を用いることにより,句境界予測の精度改善を図った. 実験 を対象とした.BiLSTM ゙ースのモデルには,前項の実験の結果最も性能が高かった'ALL (POS)'を用いた. BERT の学習済モデルには日本語 Wikipedia で事前学習を行った'cl-tohoku/bert-base'1)を使用した. BERT $_{\text {last }}$ は通常の BERT の使い方にならい最終層の出力を利用する。一方 BERT $_{\text {mix }}$ では,学習可能なパラメータを用いて各層の出力に対する加重平均 1) https://github.com/cl-tohoku/bert-japanese を利用する.BERTは各層において,構文情報や意味情報など異なる特徴量を暗黙的に学習していることが知られているため [11], それらの特徴量が活用されることを期待する. 表 5 および表 6 に CSJ および独自コーパスによる実験結果を示す. 表 5 に示す CSJ の実験では,BERT mix $_{\text {mix }}$ の F-0.25 が一番高く, 全ての特徴量を含んだ BiLSTM ベースのモデルより F-0.25が高かった. また,全ての層における出力を利用した $\mathrm{BERT}_{\text {mix }}$ において, 最終層の出力のみ用いた $\mathrm{BERT}_{\text {last }}$ より F-0.25が高かった. したがって, BERT の最終層の出力だけではなく各層における出力を用いることで,様々な特徴量を暗黙的に利用し精度が上昇したと推察される。 表 6 に示す独自コーパスによる害験では, $\mathrm{BERT}_{\text {mix }}+\mathrm{CRF}$ の F-1 が一番高く, その他のモデルより優れていた. また,前述の表 5 における CSJ の実験と同様に BERT $_{\text {last }}$ より $\mathrm{BERT}_{\text {mix }}$ の F-1 の方が高い結果となった。 以上の結果より,句境界予測に対して,明示的な特徵量を用いた BiLSTM ベースのモデルより, BERT ベースのモデルの性能の方が高いことが明らかになった,BERT ベースのモデルでは,BERT の最終層の出力のみを用いた $\mathrm{BERT}_{\text {last }}$ より, BERT 全層の出力の加重平均を用いた $\mathrm{BERT}_{\text {mix }}$ の結果の方が高かった. BERT は各層異なる特徴量を暗示的に含むため, 全層の出力を用いることによって句境界予測の性能が向上したと推察される。また, BERT $_{\text {last }}$ の性能は BiLSTM ベースのモデルとほとんど性能に差がなかったため, 句境界予測において BERT を用いる際,異なる複数の層における特徴量を利用することが重要であると考えられる。 表 5 CSJ によるモデル構造比較の F-0.25 評価結果 ## 3.3 Focal-loss の効果検証 表 2 および表 3 に示した CSJ および独自コーパスにおける非句境界 (<NB>) と句境界 (<BR>) の分布は大きく偏っている.表 7 に CSJ及び独自コーパスに含まれる非句境界と句境界の数および比率を示す.表 6 独自コーパスによるモデル構造比較の F-1 評価結果 表 7 から,CSJおよび独自コーパスにおける非句境界と句境界の比率は大きく偏っており, 非句境界の数が圧倒的に多いことがわかる.前節までの実験では, Cross-entropy lossにより句境界予測モデルの性能を測ったが,Cross-entropy loss は,非句境界と句境界の損失を同等に扱うため,非句境界に対する loss が多く伝播される傾向にある。そこで,物体検出の分野で一般的に用いられる Focal-loss を導入する. Focal-loss の式を式 2 に示す. $ F L\left(p_{t}\right)=-\alpha_{t}\left(1-p_{t}\right)^{\gamma} \log \left(p_{t}\right) $ 式 2 における $\gamma$ およ゙ $\alpha$ は調整可能なパラメータを表しており,損失の減衰加減を調整する。これにより, 出力確率 $p_{t}$ の大きいサンプルに対する損失が減衰される. Focal-loss (FL) における $\gamma$ および $\alpha$ は $\gamma=2.0, \alpha=0.4$ とし, $\mathrm{BERT}_{\text {mix }}$ を用いた.また,独自データに関しては,CSJによる学習済みモデルに対して Fine-tuning (FT) した結果も示す. 表 8 および表 9 に実験結果を示す. 表 8 および表 9 に示す結果から,Focal-lossを用いることにより,F-0.25 および F-1 が上昇することが明らかになった。また,独自データにおいて CSJによる学習済みモデルを Fine-tuning した結果,わずかに F-1 が上昇した. 以上の結果から, Focal-lossを用いることにより, 出力確率の高い非句境界に対する loss が減衰され句境界予測における精度が上昇することが明らかになった。 表 7 各コーパスに含まれる句境界の比率 表 8 CSJによる Focal-loss の効果 ## 4 主観評価による実験 句境界予測モデルの導入によって実際に音声の自然性が向上するか調査するために,テキスト音声合成において自然性に関する主観評価実験を行った。 実験に使用したテキスト音声合成システムは,音素列および句境界情報から音響特徴量を予測する音響モデル,音響特徴量から音声波形を生成するボコーダの二つによって構成される.音響モデルには FastSpeech 2 [12], ボコーダには Parallel WaveGAN [13] を使用した。学習には 5.5 時間からなる単一女性話者の音声コーパスを用いた。詳細なモデル構造及び学習条件は [14] に従った。また,句境界予測モデルには独自コーパスにより訓練されたものを用いた。 主観評価実験では,聴取実験による平均オピニオン評点 (MOS: Mean Opinion Score) テストおよび, $\mathrm{ABX}$ テストにより音声の自然性を評価した。それぞれの実験において被験者は健常な聴覚である 25 人の成人日本語母語話者が評価した. MOS テストでは、評価者はランダムに掲示される音声サンプルを聴取し,自然性に関して 5 段階 (1: 非常に悪い,2:悪い,3: 普通,4: 良い,5: 非常に良い)で評価した. $\mathrm{ABX}$ テストでは,評価者はランダムに提示される音声サンプルのペアを聴取し,A と B のどちらがより自然であるか,または同じであるか (Neutral) 評価した. 評価対象として,読点の後のみを句境界とした'Rule-based' に加光, 'BiLSTM (Token)', 'BiLSTM (All)', 'BERT mix ', 'BERT ${ }_{\text {mix }}+\mathrm{FL}+\mathrm{FT}^{2}$ ', 正解データである'Reference' の計 6 条件を用いた. MOS テストでは,テストセット 30 発話に対して 6 条件の計 180 発話を,ABXテストでは,テストセット 30 発話のペアに対して 5 条件の計 300 発話をそれぞれヘッドホン聴取により評価した. 表 10 に MOS テストの実験結果,表 11 に ABX テストの実験結果をそれぞれ示す. 表 10 に示す MOS テストの結果では, 'Reference' を除く $\mathrm{BERT}_{\mathrm{mix}}+\mathrm{FL}+\mathrm{FT}$ の評価値が一番高かった. また,'Rule-based'および BiLSTM ベースのモデル, BiLSTM ベースのモデルと $\mathrm{BERT}_{\mathrm{mix}}+\mathrm{FL}+\mathrm{FT}$ の間に $5 \%$ 水準で有意な差が見られた。しかし,BERT および $\mathrm{BERT}_{\mathrm{mix}}+\mathrm{FL}+\mathrm{FT}$ の間には有意な差が見られなかった。 表 11 に示す ABXテストの結果では, 'Rube-based' より'BiLSTM (Token)' の評価値が高く,'BiLSTM (All)'より' BERT $_{\text {mix }}$ 'の評価值が高かった。しかし, ' $\mathrm{BERT}_{\text {mix }}+\mathrm{FL}+\mathrm{FT}$ ' より' $\mathrm{BERT}_{\text {mix }}$ ' の評価値の方が高かった。これは,両方の BERT ベースモデルの F-1 の値の差がわずかなものであり, $\mathrm{ABX}$ テストに用いられたサンプルによっては予測結果にほとんど差がない,または'BERT mix ${ }^{\prime}$ の予測結果の方が'Reference' に近いサンプルが多くみられたからであると推察される。実際に,両モデルを比較した ABX テストの回答では'Neutral'を選択する割合が他の ABXテストの回答より極端に高かった。 以上の結果から,テキスト音声合成システムに句境界予測モデルを導入することにより,音声の自然性が向上することが明らかになった。 また,句境界予測モデルの性能が音声の自然性に大きく関係していることも明らかになった。 表 10 MOS テストの結果 (95\%信頼区間) 表 $11 \mathrm{ABX}$ テストの結果 ## 5 おわりに 本稿では,日本語テキスト音声合成のための句境界予測に対して,様々な特徴量,モデル構造の効果について検証した。自動評価実験の結果,BERT を用いた句境界予測モデルを導入することにより,その他の句境界予測モデルより大きく予測精度が上昇した. また,主観評価実験の結果,句境界予測モデルの精度上昇により,音声の自然性も向上することが明らかになった。 ## 参考文献 [1] Viacheslav Klimkov, Adam Nadolski, Alexis Moinet, Bartosz Putrycz, Roberto Barra-Chicote, Thomas Merritt, and Thomas Drugman. Phrase break prediction for long-form reading tts: Exploiting text structure information. In Proc. Interspeech 2017, pp. 1064-1068, 2017. [2] Anandaswarup Vadapalli and Suryakanth V. Gangashetty. An investigation of recurrent neural network architectures using word embeddings for phrase break prediction. In Interspeech 2016, pp. 2308-2312, 2016. [3] Paul Taylor and Alan W. Black. Assigning phrase breaks from part-of-speech sequences. Computer Speech \& Language, Vol. 12, No. 2, pp. 99 - 117, 1998. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding, 2019. [5] 博子武藤, 勇祐井島, 昇宮崎, 秀之水野, 澄宇阪内. Analysis and evaluation of factors relating pause location for natural text-to-speech synthesis. IPSJ Journal, Vol. 56, No. 3, pp. 993-1002, mar 2015. [6] Deok-Su NA and Myung-Jin BAE. A variable break prediction method using cart in a japanese text-tospeech system. IEICE Transactions on Information and Systems, Vol. E92.D, No. 2, pp. 349-352, 2009. [7] Shigeru FUJIO, Yoshinori SAGISAKA, and Norio HIGUCHI. Prediction of major phrase boundary location and pause insertion using a stochastic contextfree grammar. The Transactions of the Institute of Electronics,Information and Communication Engineers., Vol. 00080, No. 00001, pp. 18-25, jan 1997. [8] Tsung-Yi Lin, Priya Goyal, Ross B. Girshick, Kaiming He, and Piotr Dollár. Focal loss for dense object detection. CoRR, Vol. abs/1708.02002, , 2017. [9] Hanae KOISO and Kikuo MAEKAWA. The corpus of spontaneous japanese : Its design and transcription criteria. IPSJ SIG Notes, Vol. 143, pp. 41-48, may 2001. [10] Kazuma Takaoka, Sorami Hisamoto, Noriko Kawahara, Miho Sakamoto, Yoshitaka Uchida, and Yuji Matsumoto. Sudachi: a Japanese tokenizer for busi- ness. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, May 2018. European Language Resources Association (ELRA). [11] Anna Rogers, Olga Kovaleva, and Anna Rumshisky. A primer in bertology: What we know about how bert works, 2020. [12] Yi Ren, Chenxu Hu, Tao Qin, Sheng Zhao, Zhou Zhao, and Tie-Yan Liu. FastSpeech 2: Fast and highquality end-to-end text-to-speech. In Proc. ICLR (in press), 2021. [13] Ryuichi Yamamoto, Eunwoo Song, and Jae-Min Kim. Parallel WaveGAN: A fast waveform generation model based on generative adversarial networks with multi-resolution spectrogram. In Proc. ICASSP, pp. 6199-6203, 2020. [14] Ryuichi Yamamoto, Eunwoo Song, Min-Jae Hwang, and Jae-Min Kim. Parallel waveform synthesis based on generative adversarial networks with voicing-aware conditional discriminators, 2020. ## A 付録 特徴量追加による実験結果の詳細を表 12 に示す. 主観評価に利用した発話文例を表 13 に示す。各発話文における’<BR>'は句境界を表す。各発話文は Github 上のページ2)から再生できる. 表 13 主観評価に利用した発話文例 \\ 2) https://github.com/matasuke/nlp2021-pbp-audio-examples
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D2-4.pdf
# 歌詞のサビ区間検出手法 渡邊研斗 後藤真孝 産業技術総合研究所(AIST) \{kento.watanabe, m.goto\}@aist.go.jp ## 1 はじめに ポピュラー音楽における「サビ」とは,楽曲中で最も繰り返され記憶に残る区間である [1]. 音楽情報処理の分野では,音響信号に基づくサビ区間検出手法が活発に研究されてきたが [2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,1,18,19],歌詞テキストに基づいた検出手法はこれまで提案されていない. 本研究の目的は,歌詞を入力したときに,そのサビ区間を自動的に検出することである。テキストのみからサビ区間を検出可能かどうかは自明ではなく, 学術的な視点からも興味深い. 更に,様々な検索システムで歌詞に基づくサビ検出技術が有用である.例えば,音楽視聴者が “I love you” などの特定のフレーズを含むサビを探したいとき,検索システムは歌詞のサビ区間の位置を知っている必要がある。本研究では,英語・日本語の歌詞のサビ区間を検出する教師ありモデルを提案する.本モデルは,歌詞の繰り返しパターンを表す構造的特徴量と, サビ区間特有のフレーズを表す言語的特徴量の両方を考慮する.また,教師あり学習に必要となる訓練デー タを大量に用意するために,我々は歌唱時刻で同期された音響信号-歌詞のアライメントデータを利用し, 1 万曲以上の歌詞に教師ラベルを自動付与した.実験では,提案特徴量の有効性や,自動付与した教師ラベルの有用性,英語と日本語のサビ区間に対する言語依存性など,様々な観点から検出タスクや歌詞のサビ区間の性質を調査した。 ## 2 歌詞のサビ区間検出タスク 図 1 はサビ区間のラベルが付与された歌詞の例である。本タスクでは,入力歌詞には $\mathrm{A} \times ロ ・ \mathrm{~B} \times$ ロ・サビ区間の境界(空行)が一切存在しないと仮定し,全ての歌詞から空行を取り除いた。 本研究では,サビ区間検出タスクを系列ラベリング問題として定式化する. つまり,歌詞の各行 のサビおよび非サビのラベルを予測する. $X_{s}$ は $T$ 行のテキスト $\left.\{x_{1}, \ldots, x_{t}, \ldots, x_{T}\right.\}$ で構成される曲 $s$ の歌詞である. 各行 $x_{t}$ はバイナリラベル $y_{t}$ を持つ. $y_{t}=1$ のとき $x_{t}$ はサビであり,$y_{t}=0$ のとき $x_{t}$ は非サビである. $Y_{S}$ は $X_{s}$ に対応するラベル系列 $\left.\{y_{1}, \ldots, y_{t}, \ldots, y_{T}\right.\}$ である. モデルの訓練では,条件付き確率 $P\left(Y_{S} \mid X_{S}\right)$ を学習する. モデルの評価では,訓練されたモデルは入力された行の系列 $X_{S}$ のラベ几系列 $Y_{s}$ 予測する. 図 1 の例では,サビ区間は完全一致の繰り返しであるが,繰り返される行を抽出するだけではサビ区間の検出は困難である。例えば,図 1の9-12 行と 21-24 行は完全一致であるがサビ区間ではない。また,様々なバリエーションのサビ区間を検出するルールの作成も難しい. 本研究では,様々な種類のサビ区間に対応するための特徵量を設計する. ## 3 歌詞のサビ区間のモデル化 本研究では,音響信号に基づくサビ区間検出手法で用いられる自己類似行列 (SSM) をテキストに応用することで,歌詞の繰り返しパターンを捉えた構造的特徵量を設計する.更に単語・文脈べクトルを用いることで,サビ特有のフレーズを捉えた言語的特徵量を設計する。 以下の節では,まず歌詞の繰り返しパターンを表したSSM と,それらを構造的特徴量としてべクトル化する方法について説明する。 次に word $2 \operatorname{vec}[21]$ と context2vec[22]を用いて歌詞の意味的・統語的な情報をべクトル化することで得られる言語的特徵量について説明する。最後に,これら構造的・言語的特徴量を用いたニューラルネットワーク $(\mathrm{NN})$ ベー スの系列ラベリングモデルについて説明する。 ## 3.1 構造的特徵量 これまで音響信号に基づく音楽解析の研究では,図 1 に示したような SSM を用いて繰り返される A メロやサビ区間を検出してきた,繰り返される区間 図 1 サビラベル付きの歌詞(RWC 研究用音楽 DB No.81[20])と自己類似行列の例. 各セルは行同士の類似度を表す. は行列内で高い値を持つ斜線として表現され,この斜線のパターンが構造検出の手がかりとして使われてきた. 本研究ではこのSSMによる手法をテキストに応用することで,歌詞の繰り返しパターンを捉える。ただし,SSM 内の各セルの類似度計算によって,捉えられる繰り返しパターンが大きく異なるため,類似度の設計が重要となる.そこで本研究では,以下の 9 種類の類似度を設計する。 文字列類似度行同士の標準化編集距離 [23]. 先頭語類似度各行の先頭単語間の標準化編集距離. 末尾語類似度各行の末尾単語間の標準化編集距離. 発音類似度押韻による繰り返しを捉えるために,発音記号の系列間の標準化編集距離を計算する. 本研究では CMU 発音辞書を用いて英語歌詞の発音記号を抽出する。 品詞類似度文法構造の類似度を計算するために, 品詞系列間の標準化編集距離を計算する。本研究では NLTK の品詞解析器 [24] を用いる. 単語ベクトル類似度行同士の意味的類似性を捉えるために,本研究では訓練済みの word2 vec を用いて, 各行内の単語ベクトルを平均し, それらのコサイン類似度を計算する。ただし, bag of words を仮定したこの類似度では語順の違いを区別できない。 文脈ベクトル類似度語順を考慮するために, word2vec をSTM を用いて拡張した context2vec を用いて,各行の単語列を LSTM でベクトル化し,コサイン類似度を計算する。 単語の音節数類似度サビ区間の歌詞は,単語が全く異なっていても同じ音節数であることがあるため,各行で単語の音節数の系列を利用する. 例えば,歌詞 “Sometimes you lost yourself away” と “Everytime you just close your eyes” の音節数の系列はそれぞれ $\{2,1,1,2,1\}$ と $\{2,1,1,1,1,1\}$ である.これらの音節数系列が類似している場合,繰り返しの可能性がある. 本研究では動的時間伸縮法 (DTW)[25] を用いて,音節数系列間の類似度を計算する。 行の音節数類似度本研究では各行内の全単語の合計音節数も使用する。例えば,図 1 に示されている全サビ区間では,最初の行の合計音節数は 6 であり, 2 行目の合計音節数は 8 である. 次の手順により,各行ペアの合計音節数の類似性を計算する。 (1)連続した 4 行 $L_{t}=\left.\{x_{t}, x_{t+1}, x_{t+2}, x_{t+3}\right.\}$ を抽出する. (2) 行 $x_{t}$ と $x_{t^{\prime}}$ 間の類似度を $L_{t}$ と $L_{t^{\prime}}$ の合計音節数のDTWによって計算する。 本研究で 9 種類の SSM を上記の類似度を用いて計算する. SSM は $\mathbf{A}_{m} \in \mathbb{R}^{T \times T}$ で表し, $m(1 \leq m \leq 9)$ は類似度の種類を意味する。次に,SSM から特徵量を計算するために, 本研究では畳み込みニューラルネットワーク (CNN) を用いる(図 2).各 SSM からターゲットとなる行を中心とした固定窓幅 $w$ の部分行列を抽出する。ここで部分行列は $\mathbf{a}_{m}^{t}=\mathbf{A}_{m}[t-w+1, \ldots, t+w ; 1, \ldots, T] \in \mathbb{R}^{2 w \times T}$ で表す. CNNへ入力するのは 9 つの部分行列 $\left.\{\mathbf{a}_{s t r}^{t}, \ldots, \mathbf{a}_{s y L}^{t}\right.\} \in \mathbb{R}^{2 w \times T \times 9}$ であり,チャンネルの数は SSM の数に対応する。最初の $2 \mathrm{D}$ 畳み込み層のカー ネルサイズは $(w+1) \times(w+1)$ であるため, SSM 内の 図 $2 \mathrm{SSM}$ のための畳み込みニューラルネットワーク。 斜線の端を捉えることができる。ここで得られたテンソルはカーネルサイズが $w \times w$ の max pooling によってダウンサンプルされる. 次にカーネルサイズが w の 1D 畳み込み層を適用し, 最後に max pooling によってダウンサンプルする. 各畳込み層の活性化関数には ReLU を使用する.上記手順を歌詞の各行 $x_{t}$ に実行し,構造的特徵量 $\boldsymbol{v}_{t}$ を計算する. ## 3.2 言語的特徵量 サビ区間に出現しやすい歌詞のフレーズを調査するため, サビ区間と非サビ区間の単語トライグラムの差を計算した. その結果,“I'll” “Let’s”などの未来に関するフレーズがサビ区間に頻出し, “have been” や “idn't” などの過去に関するフレーズが非サビ区間で頻出することがわかった。この傾向を利用するために,以下の特徵量を設計する。 単語ベクトルの平均行内の単語を訓練済み word2vec を用いてべクトル化し,その平均を特徴量とする。 単語列のベクトル表現訓練済み context2vecを用いて行をべクトル化したものを特徴量とする。 歌詞の各行 $x_{t}$ について上記べクトルを計算し,それらを連結した言語的特徴量 $\boldsymbol{u}_{t}$ を得る. ## $3.3 \mathrm{NN$ ベースの系列ラベリングモデル} 本研究では,標準的な双方向 LSTM (Bi-LSTM)[26] を用いて, 条件付き確率 $P\left(Y_{s} \mid X_{s}\right)$ を計算する. 位置 $t$ での Bi-LSTM 層への入力は構造的特徴量 $\boldsymbol{v}_{t}$ と, 言語的特徵量 $\boldsymbol{u}_{t}$ の連結ベクトルである. 条件付き確率 $P\left(Y_{S} \mid X_{S}\right)$ は softmax 関数を用いて計算される: $ P\left(Y_{s} \mid X_{s}\right)=\frac{\exp \left(\operatorname{Score}\left(X_{s}, Y_{s}\right)\right)}{\sum_{Y_{s}^{\prime}} \exp \left(\operatorname{Score}\left(X_{s}, Y_{s}^{\prime}\right)\right)} $ ここで Score は以下の式で定義される. $ \operatorname{Score}\left(X_{s}, Y_{s}\right)=\sum_{t}^{T} \mathrm{BN}\left(h_{t}\left[y_{t}\right]\right) $ ここで $h_{t}\left[y_{t}\right]$ は位置 $t$ の Bi-LSTM の出力であり, BN はバッチ正規化 [27] であり,ロス関数はクロスエントロピーを用いる. ## 4 実験 音響信号ベースのサビ検出の研究 [1] を参考にして,F-measure を用いて提案手法を評価した。ここで F-measure は $(2 \cdot R \cdot P) /(R+P)$ で計算され, 各 $R$ と $P$ は以下の式で計算される. $ \begin{aligned} P & =\frac{\text { 正しく検出されたサビ区間内の行数 }}{\text { サビ区間として検出された行数 }} . \\ R & =\frac{\text { 正しく検出されたサビ区間内の行数 }}{\text { 正解のサビ区間の行数 }} . \end{aligned} $ 更に, 音楽構造解析の評価で広く用いられる Python パッケージ mir_eval[28] を用いて, pairwise F-measure $(p-F)$, normalized conditional entropy F-measure (n-F),V-measure を計算した. ## 4.1 モデルパラメータ 窓幅は 3 とし, $2 \mathrm{D}$ および $1 \mathrm{D}$ 畳み込み層のカーネル数をそれぞれ 200 と 400 とした.Bi-LSTM の隠れ層の次元を 600 とした. word $2 \mathrm{vec} と$ context $2 \mathrm{vec}$ の次元数は 300 として,歌詞データを用いて事前訓練した. パラメータの最適化には AdamW[29]を使用し,学習率は 0.001 , バッチサイズは 64 とした. 訓練は 100 エポック行い,開発セットにおける最も高い F-measure であるエポックのモデルを評価に用いた. ## 4.2 データセット 各行がサビかどうかを予測する教師ありモデルを訓練するためには, 図 1 に示したような行単位で教師ラベルを持つ大量の歌詞データが必要となる. 本研究では以下の手順によって歌詞データの各行に教師ラベルを自動付与した. (1) 我々は歌唱時刻で同期された音響信号-歌詞のアライメントデータを 100,772 曲だけ用意した. (2) 音響信号べースのサビ区間検出手法 [1]を用いて, サビ区間の開始時刻と終了時刻を検出した. (3) 音響信号から検出されたサビ区間内に存在する歌詞の行にサビラベルを付与した. 本研究では 9,313 曲の英語歌詞と, 91,459 曲の日本語歌詞に教師ラベルを自動付与し, それぞれのデータをEN_auto とJA_auto と呼ぶ. パラメータ調整や評価のために,信頼性の高い教 表 1 実験結果: 構造的・言語的特徴量の重要性. 師ラベルを持つ 3 つの歌詞データを用意した。 (a) 訓練の比較用データ自動付与した教師ラベルが訓練において信頼できるか検証するために,比較用訓練データとして 1,103 曲の日本語歌詞に教師ラベルを手動で付与した。このデータをJA_man と呼ぶ. (b) モデルパラメータの調整用データ我々は RWC 研究用音楽データベースの英語 21 曲と日本語 79 曲の歌詞にラベルを手動で付与し,このデータをモデルパラメータの調整用に使用した. (c) テストデータ 118 曲の英語歌詞と 128 曲の日本語歌詞にラベルを手動で付与し,それぞれを EN_test と JA_test と呼ぶ. これらはサビ区間検出手法の評価のために使用した。 ## 4.3 構造的・言語的特徵量の重要性 構造的・言語的特徴量の有効性を調査するために,各特徴量を用いたモデルの性能を比較した. 表 1 より,構造的特徵量のみを使ったモデルは,言語的特徴量のみを使ったモデルよりも大幅に優れることがわかった.また,両特徴量を使用することで性能が更に向上した. これらの結果は, 音響信号のサビ区間検出で用いられる SSM を歌詞に応用することの重要性を示すだけでなく, 言語的特徴量の追加が歌詞のサビ区間検出に役立つことを示している. ## 4.4 自動付与した教師ラベルの信頼性 教師ラベルを大量に自動付与した JA_auto と,教師ラベルを少量だが手動付与した JA_man の訓練データとしての性能を比較をする。表 2 より, JA_auto で訓練したモデルが JA_man で訓練したモデルよりも高性能であることがわかる. この結果は,教師ラベルが自動的に付与されたものであっても,十分なデータサイズであればモデルの訓練において十分な信頼性を持つことを意味する。表 3 実験結果 : 訓練データサイズと言語依存性. ## 4.5 訓練データサイズと言語依存性 表 1 より,英語モデルよりも日本語モデルの方が性能が良いことがわかるが,これは訓練データの量が大きく異なるためだと考えられる.そこで本研究では,大量の日本語データで訓練されたモデルが,英語のサビ区間をより正確に検出できるかどうか調査した.なお本実験では,構造的特徴量のみを考慮したモデル1)を用いる.表 3 より,日本語データで訓練されたモデルが,英語データで訓練されたモデルよりも,英語のサビ区間を検出できることがわかった. 更に,英語と日本語をあわせたデータ (EJ_auto) で訓練されたモデルの性能が最も優れていることがわかった.これらの結果は (1) 異なる言語で訓練されたモデルでもサビ区間を検出できること,(2) 歌詞の繰り返しパターンは言語に依存しないこと,(3) 異なる言語データを混合することでサビ区間の検出性能が向上することを意味する。これは,少リソースの言語データであっても,利用可能な他言語リソースと混ぜることで,サビ区間が検出できる可能性があることを意味する。 ## 5 おわりに 本論文は楽曲のサビ区間を歌詞のみから検出するという新しいタスクと,その手法を提案した。本研究の貢献は以下である:(1) サビ区間の構造的及び言語的特性を捉えるために,様々な特徴量を設計した. (2) 歌詞のサビ区間を検出する系列ラベリングモデルを提案した. (3) サビ区間の注釈付きの大規模な訓練データセットを作成する手法を示した。 (4)特徴量の重要性, 訓練データの量, 言語依存性などの様々な観点から,検出タスクや歌詞のサビ区間の性質を調査した.今後は $\mathrm{A}$ メロや B メロなどの区間も検出できるように手法を拡張する。 謝辞本研究は, RWC 研究用音楽データベースと,株式会社シンクパワーから提供された歌詞データを利用した。また, 本研究はJST ACCEL (JPMJAC1602) および科研費 (20K19878) の支援を受けた. 1)SSM は繰り返しのパターンを表した行列に過ぎないため,異なる言語であってもモデルへの入力が実装上可能である. ## 参考文献 [1] Masataka Goto. A chorus section detection method for musical audio signals and its application to a music listening station. IEEE Transactions on Audio, Speech, and Language Processing, Vol. 14, No. 5, pp. 1783-1794, 2006. [2] Go Shibata, Ryo Nishikimi, Eita Nakamura, and Kazuyoshi Yoshii. Statistical music structure analysis based on a homogeneity-, repetitiveness-, and regularityaware hierarchical hidden semi-markov model. In Proceedings of ISMIR 2019, pp. 268-275, 2019. [3] Akira Maezawa. Music boundary detection based on a hybrid deep model of novelty, homogeneity, repetition and duration. In Proceedings of IEEE ICASSP 2019, pp. 206210, 2019 . [4] Gabriel Sargent, Frédéric Bimbot, and Emmanuel Vincent. Estimating the structural segmentation of popular music pieces under regularity constraints. IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol. 25, No. 2, pp. 344-358, 2017. [5] Tian Cheng, Jordan B. L. Smith, and Masataka Goto. Music structure boundary detection and labelling by a deconvolution of path-enhanced self-similarity matrix. In Proceedings of IEEE ICASSP 2018, pp. 106-110, 2018. [6] Jordan B. L. Smith and Masataka Goto. Using priors to improve estimates of music structure. In Proceedings of ISMIR 2016, pp. 554-560, 2016. [7] Thomas Grill and Jan Schlüter. Music boundary detection using neural networks on combined features and two-level annotations. In Proceedings of ISMIR 2015, pp. 531-537, 2015. [8] Brian McFee and Dan Ellis. Analyzing song structure with spectral clustering. In Proceedings of ISMIR 2014, pp. 405-410, 2014. [9] Geoffroy Peeters and Victor Bisot. Improving music structure segmentation using lag-priors. In Proceedings of $I S$ MIR 2014, pp. 337-342, 2014. [10] Harald Grohganz, Michael Clausen, Nanzhu Jiang, and Meinard Müller. Converting path structures into block structures using eigenvalue decompositions of selfsimilarity matrices. In Proceedings of ISMIR 2013, pp. 209-214, 2013. [11] Oriol Nieto and Tristan Jehan. Convex non-negative matrix factorization for automatic music structure identification. In Proceedings of IEEE ICASSP 2013, pp. 236-240, 2013. [12] Florian Kaiser and Geoffroy Peeters. A simple fusion method of state and sequence segmentation for music structure discovery. In Proceedings of ISMIR 2013, pp. 257262, 2013. [13] Joan Serrà, Meinard Müller, Peter Grosche, and Josep Lluís Arcos. Unsupervised detection of music boundaries by time series structure features. In Proceedings of AAAI 2012, 2012. [14] Meinard Müller, Peter Grosche, and Nanzhu Jiang. A segment-based fitness measure for capturing repetitive structures of music recordings. In Proceedings of ISMIR 2011, pp. 615-620, 2011 [15] Jouni Paulus, Meinard Müller, and Anssi Klapuri. State of the art report: Audio-based music structure analysis. In Proceedings of ISMIR 2010, pp. 625-636, 2010. [16] Jouni Paulus and Anssi Klapuri. Music structure analysis using a probabilistic fitness measure and a greedy search algorithm. IEEE Transactions on Audio, Speech, and Language Processing, Vol. 17, No. 6, pp. 1159-1170, 2009. [17] Meinard Müller and Sebastian Ewert. Joint structure analysis with applications to music annotation and synchronization. In Proceedings of ISMIR 2008, pp. 389-394, 2008. [18] M. Cooper and J. Foote. Summarizing popular music via structural similarity analysis. In Proceedings of WASPAA 2003, pp. 127-130, 2003. [19] Jonathan Foote. Automatic audio segmentation using a measure of audio novelty. In Proceedings of IEEE ICME 2000 , p. 452, 2000. [20] Masataka Goto, Hiroki Hashiguchi, Takuichi Nishimura, and Ryuichi Oka. RWC Music Database: Popular, classical and jazz music databases. In Proceedings of ISMIR 2002, Vol. 2, pp. 287-288, 2002. [21] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, and Jeffrey Dean. Distributed representations of words and phrases and their compositionality. In Proceedings of NeurIPS 2013, pp. 3111-3119, 2013. [22] Oren Melamud, Jacob Goldberger, and Ido Dagan. context2vec: Learning generic context embedding with bidirectional LSTM. In Proceedings of SIGNLL 2016, pp. 51-61, 2016. [23] Yujian Li and Bi Liu. A normalized Levenshtein distance metric. IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 29, No. 6, pp. 1091-1095, 2007. [24] Steven Bird. NLTK: the natural language toolkit. In Proceedings of ACL 2006, 2006. [25] Donald J. Berndt and James Clifford. Using dynamic time warping to find patterns in time series. In Proceedings of Workshop on Knowledge Discovery in Databases, pp. 359-370, 1994. [26] Alex Graves, Abdel-rahman Mohamed, and Geoffrey E. Hinton. Speech recognition with deep recurrent neural networks. In Proceedings of IEEE ICASSP 2013, pp. 6645-6649, 2013. [27] Sergey Ioffe and Christian Szegedy. Batch normalization: Accelerating deep network training by reducing internal covariate shift. In Proceedings of ICML 2015, Vol. 37, pp. 448-456, 2015 [28] Colin Raffel, Brian McFee, Eric J. Humphrey, Justin Salamon, Oriol Nieto, Dawen Liang, and Daniel P. W. Ellis. mir_eval: A transparent implementation of common MIR metrics. In Proceedings of ISMIR 2014, pp. 367-372, 2014. [29] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In Proceedings of ICLR 2019, 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D3-1.pdf
# An Experimental Evaluation of Japanese Tokenizers for Sentiment-Based Text Classification Andre Rusli Makoto Shishido Graduate School of Advanced Science and Technology Tokyo Denki University \{20udc91@ms.,shishido@mail.\}dendai.ac.jp ## 1 Introduction One popular utilization of machine learning text classification in the industry is sentiment-based classification. While there has been significant progress in sentiment analysis for high-resource languages, such as English, not much effort has been invested in analyzing Japanese due to its sparse nature and the dependency on large datasets required by deep learning [1]. In many languages, words are often considered as the basic unit of texts. Several works of research also show that when using n-gram language models, word n-grams are relatively better than character n-grams to convert texts into tokens when building a text classification model [2, 3]. Japanese texts pose different challenges for a machine learning algorithm to perform well. Sentences in Japanese contain no whitespace between words, so the common preprocessing phase to explicitly split words based on whitespaces could not be easily conducted. In addition, the combination of characters in a sentence could vary and may be ambiguous as they could have different meanings depending on the combinations. Many works of research have developed morphological analysis tools for Japanese language. Some of the popular tools for morphological analysis tools for Japanese are including MeCab [4, 5], Sudachi [6], and SentencePiece [7]. In this article, we focus on utilizing one of the many features provided by the previously mentioned tools which is the tokenizer for segmenting Japanese texts by words or subwords. Furthermore, this research then implements the tokenizer as a preprocessing step towards building supervised sentiment-based text classification models with Term Frequency-Inverse Document Frequency (TF-IDF) vectorization. We use Multinomial Naïve Bayes and Logistic Regression to build the classification model and to provide comparison between two popular traditional machine learning algorithms which are often used as baseline classifiers. Moreover, relatively low model complexity and higher level of interpretability [8], when compared to advanced deep learning algorithms, are also preferable. ## 2 Related Works MeCab, Sudachi, and SentencePiece as morphological analysis tools have been used in many works of research in natural language processing. Although it is not exactly a newly proposed tool (the last update on its GitHub repository is version 0.996 in February 2013 [4]), MeCab is still used extensively as a word segmentation tool for preprocessing Japanese text in recent years. One example is the work by Zhang and LeCun [9], in which MeCab is used to segment texts in Japanese and Korean (with additional model in Korean language). Sudachi is another tool that mainly emphasizes the focus on continuous maintenance and feature richness, as it aims to support business use. It is also currently used by spaCy [10], a well-known library in NLP, as a tool for their pretrained statistical model for Japanese. SentencePiece, on the other hand, is a tool for subword segmentation that uses a different approach. The authors describe SentencePiece as a language-independent subword tokenizer and detokenizer designed for Neuralbased text processing [7]. While using a different approach with focus on providing a method to support language-independent multilingual text processing, its performance is shown to be effective for various tasks, such as English-Japanese neural machine translation [7], Japanese news text classification [11], and sentiment analysis in Japanese [1]. However, even though many articles have shown the ability of each tools to be utilized for various tasks in natural language processing, works that provide a hand-in-hand comparison between the features provided by the tools in the same environment and configurations are still hard to find. Regarding text classification tasks for Japanese texts, many recent works experiment with complex models using various deep learning approaches such as BERT [1, 11], Bidirectional LSTM-RNN [12], and Quasi-RNN and Transformer model [13], most are competing to achieve state-of-the-art performance. In our early work presented in this article, we aim to experiment with and report text classification results on baseline traditional algorithms with less computational cost and more interpretability. Two classifiers used in our work are the Multinomial Naïve Bayes and Logistic Regression. Logistic Regression, which used to be the default choice for text classification, can be found used as a baseline linear model for Japanese text classification such as in $[1,9,14]$. Many researchers are also still exploring the potential and possibility of enhancing Multinomial Naïve Bayes' ability as a classification method, such as in [15]. By using these two methods, we emphasize more on the tokenization tools, rather than the classification algorithms. In addition, to also provide reports on the performance of traditional machine learning algorithms which with its limitations could still perform well. The goals of our current study are summarized as follows: - Experiment with tokenizers provided by MeCab, Sudachi, and SentencePiece, then use the tokenization results to build models for binary sentiment-based text classification using TF-IDF with Multinomial Naïve Bayes and Logistic Regression. - Compare and report the performance results in terms of time and error percentages. ## 3 Experimental Setup ## 3.1 Dataset Our study is based on the Japanese Rakuten product review binary sentiment dataset provided in [9]. The datasets (both train and test set), which are available as CSV files, consist of three columns supposedly the binary sentiment label, review title, and review text, with examples such as the followings: - Label: 1 (negative) Review title: 臭い Review text: 余りにも、匂いがきつく安物みたいです。いn安いから仕方ないかな? - Label: 2 (positive) Review title: 早いし安い Review text: 毎回利用しています。納品が早いし何よりお安く大変便利です。また利用します。 We use the binary sentiment label and review text and we randomly sampled $10 \%$ of the provided training and testing data and only used the sampled $10 \%$ of the total data in our experiments, that is 340,000 reviews for training and 40,000 reviews for testing as we aim to experiment with many configurations in a limited setting. ## 3.2 System Specifications The experiments are conducted by using Python 3.7 and Jupyter Notebook, running on an Ubuntu virtual machine provided by Google Compute Engine, using a machine type c2-standard-4 with 4 vCPUs and 16 GB memory. However, it is also possible to run all of the experiments on Google Colaboratory. For the tokenization tools, we use the available MeCab (mecabpython3 1.0.3), Sudachi (SudachiPy 0.5.1), and SentencePiece (sentencepiece 0.1.94) packages available via the Python Package Index (PyPI) [16]. As for the TFIDF vectorizer, Multinomial Naïve Bayes classifier, and Logistic Regression classifier, we used packages provided by Scikit-learn $[17,18]$. ## 3.3 Methods After preparing our environment specifications as previously described, we could then proceed to conduct our experiments. The overall flow of our experiments can be seen in Fig. 1. After the original Rakuten binary dataset is downloaded, firstly, we randomly sampled ten percent of the provided train and test data, resulting in a total of 340,000 train data and 40,000 test data. We then proceed to train a SentencePiece (SP) model based on the sampled train data, setting the vocab_size parameter as 32,000 . We initially chose 32,000 based on the result shown in experiments in a previous work by Yohei Kikuta [11]. Fig. 1. Flow of the experiments conducted in our study Unlike SentencePiece, Sudachi has its own dictionary with different sizes and MeCab can be integrated with various existing dictionaries in order to perform tokenization, so there is no need for more pre-training. We use Sudachi's core dictionary for surface-form tokenization using Sudachi, and we use the unidic-lite dictionary for tokenization with MeCab. Furthermore, before building our classification model, we experimented with few randomly selected reviews to get a glimpse of the tokenization results by the three different tokenizers. After that, using each tokenizer, we vectorize all the reviews in the training set to create matrices of TF-IDF values which will then be used to build our classification model. In this process, we also calculated the time spent by each tokenizer to process various number of train data into their TF-IDF values. We then use the vectorized data to build two classification models for each tokenizer, one using the Multinomial Naïve Bayes (MNB) classifier, and another one using the Logistic Regression (LR) classifier. Finally, we test our models to classify reviews in the test set and evaluate the error percentages. ## 4 Results and Analysis ## 4.1 Tokenization Result We selected several review texts from the train and test set, then try to segment the words or subwords in order to experiment with each tokenizer. Vocab_size $=32,000$ is used for the SentencePiece model. Some parts of review texts along with their tokenization results are as follows. 1. Review text: “自転車通勤用に購入。サックスを選びましたが、..." a. MeCab: ['自転', '車', '通勤', '用', 'に', '購入', '。 ', 'サックス', 'を', '選び', 'まし', 'た', 'が', ...] b. Sudachi: ['自転車', '通勤用', 'に', '購入', '。', ' サックス', 'を', '選び', 'まし', 'た', 'が', ...] c. SentencePiece: ['-','自転車通勤', '用に購入', '。', 'サックス', 'を選びましたが', ...] 2. Review text: “かわいいです $(* \wedge 。 \wedge *) \backslash n$ パソコ >..." a. MeCab: ['かわいい', 'です', '(', '*^。^*)リ', 'n', 'パソコン', ...] b. Sudachi: ['かわいい', 'です', '(*^。^*)', 'ไ', 'n', 'パソコン', ...] c. SentencePiece: ['-', 'かわいいです', '(*^。 ^*)', '》', 'n', 'パソコン', ...] The examples provided above are randomly selected and might not be fully representative to showcase the full capabilities of each tokenizer, however, some general similarities and differences can be observed. Compared to MeCab and Sudachi, tokens generated by SentencePiece are not based on any formal dictionary, so there are words or subwords that does not match formal Japanese dictionary, for example the token “便利ですね” ("benridesune") which is usually segmented into three words ("benri", "desu", and "ne") but treated as one token. Moreover, although tokens generated by MeCab and Sudachi are generally similar, there are some characters that are treated different depending on the context they are in. For example, the words “自転車通勤用” and the combination of characters comprising the emoji " $(* \wedge$ 。 $\wedge *$ )", are segmented differently in $\mathrm{MeCab}$ and Sudachi. Sudachi could divide the characters into [“自転車”(bicycle), “通勤用”(for commuting)] and treat the whole emoji as one union, while MeCab further separate the combination into [“自転”, “車”, “通勤”, “用”] and $\left[“\left(", " * \wedge_{\circ} \wedge *\right) \backslash \backslash\right]$. ## 4.2 TF-IDF Vectorization We then proceed to use each tokenizer to vectorize the all texts in our train data (340,000 review texts) using TFIDF and calculate the time elapsed. As can be seen in Table 1, SentencePiece is the fastest while MeCab is only slightly slower, and Sudachi needs the longest time. This might be caused by Sudachi's focus in providing high quality segmentation based on its continuously updated rules and dictionary that enable it to divide words as can be seen in the previous paragraph. Table 1. Elapsed time to vectorize TF-IDF values ## 4.3 Text Classification Models After observing the tokens generated by each tokenizer and calculated the time elapsed to vectorize TF-IDF values, we proceed to use the TF-IDF values generated by each tokenizer and train two models using Logistic Regression (LR) and Multinomial Naïve Bayes (MNB). We could observe the effect of each tokenizer, with varying tokenization approaches and time elapsed to generate the TF-IDF values, on the classification performances in Table 2. Table 2. Classification error percentages & \\ In our experiment using linear model such as Logistic Regression, and also Multinomial Naïve Bayes, with TFIDF vectorizer, the combination of SentencePiece with Logistic Regression outperforms the others with 6.54 error percentage on the training set and 8.02 error percentage on the testing set. We can see that even though the segmentation results by SentencePiece are quite different with the other tokenizers' results, it seems to work well on a linear classifier to solve binary classification problem. Another finding is that in our task, even though Sudachi, with its 'surface form' tokenization, could perform relatively better word segmentation, the resulting classification model could perform only slightly better than $\mathrm{MeCab}$, despite taking the longest elapsed time in the vectorization phase. Furthermore, using the best performing model in Table 2 (Logistic Regression with SentencePiece), we then perform a hyperparameter tuning process for Logistic Regression using grid search and repeated stratified k-fold cross validator from Scikit-learn. Table 3 shows the error percentages of our final model (train error: 6.54, test error: 8.02) using the following hyperparameters on the Logistic Regression classifier: $\mathrm{C}=10$, penalty=' 12 ', solver='lbfgs'. Table 3. Error percentages after hyperparameter tuning ## 5 Conclusion and Future Work Our experiments showed the results of an experimental evaluation of three popular tokenization tools, MeCab, Sudachi, and SentencePiece, for processing Japanese texts. The resulting tokens are then used to train text classification models using TF-IDF with Logistic Regression and Multinomial Naïve Bayes. We found that the generated tokens from Sudachi are more likely to match dictionary results and common words understood by human, however, MeCab and SentencePiece are significantly faster. Moreover, even though tokens generated by SentencePiece are limited to its training data and might not match common dictionary results, they perform better for our dataset, which is a binary sentiment-based text classification task. Finally, the combination of SentencePiece, TF-IDF, and Logistic Regression achieved the best performance with 5.56 training error percentage and 7.78 testing error percentage. This article reported the result of an ongoing research work. Some future research steps include experimenting with various n-gram configurations and other hyperparameters, using multi-class and bigger datasets, training multi-lingual models, and experimenting with various shallow and deep learning approaches. ## References [1] E. Bataa and J. Wu, "An Investigation of Transfer Learning-Based Sentiment Analysis in Japanese," in 57th Annual Meeting of the Association for Computational Linguistics, Florence, 2019. [2] A. H. A. M. Siagian and M. Aritsugi, "Robustness of Word and Character N-gram Combinations in Detecting Deceptive and Truthful Opinions," ACM Journal of Data and Information Quality, vol. 12, no. 1, pp. 5:1-5:24, 2020. [3] N. Y. Hassan, W. H. Gomaa, G. A. Khoriba and M. H. Haggaq, "Credibility Detection in Twitter Using Word N-gram Analysis and Supervised Machine Learning Techniques," International Journal of Intelligent Engineering and Systems, vol. 13, no. 1, pp. 291-300, 2020. [4] "MeCab: Yet Another Part-of-Speech and Morphological Analyzer," 18 February 2013. [Online]. Available: http://taku910.github.io/mecab/. [Accessed 11 December 2020]. [5] T. Kudo, K. Yamamoto and Y. Matsumoto, "Applying Conditional Random Fields to Japanese Morphological Analysis," in Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, Barcelona, 2004. [6] K. Takaoka, S. Hisamoto, N. Kawahara, M. Sakamoto, Y. Uchida and Y. Matsumoto, "Sudachi: a Japanese Tokenizer for Business," in Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, 2018. [7] T. Kudo and J. Richardson, "SentencePiece: A simple and language independent subword tokenizer and detokenizer for Neural Text Processing," in Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, Brussels, 2018. [8] K. Kowsari, K. J. Meimandi, M. Heidarysafa, S. Mendu, L. Barnes and D. Brown, "Text Classification Algorithms: A Survey," Information, vol. 10, no. 4, p. 150, 2019. [9] X. Zhang and Y. LeCun, "Which Encoding is the Best for Text Classification in Chinese, English, Japanese and Korean?," arXiv:1708.02657v2 [cs.CL], 2017. [10] Explosion AI, "spaCy.io," Explosion AI, 1 July 2020. [Online]. Available: https://spacy.io/models/ja. [Accessed 17 December 2020]. [11] Y. Kikuta, "Bert pretrained model trained on japanese wikipedia articles," GitHub, 2019. [Online]. Available: https://github.com/yoheikikuta/bert-japanese. [Accessed 17 December 2020]. [12] L. Nio and K. Murakami, "Japanese Sentiment Classification Using Bidirectional Long Short- Term Memory Recurrent Neural Network," in Proceedings of the 24th Annual Meetings of the Association for Natural Language Processing, Okayama, 2018. [13] Y. Ke and M. Hagiwara, "Subcharacter Embeddings' Preference on Neural Networks," in Proceedings of the 25th Annual Meeting of the Association of Natural Language Processing, Nagoya, 2019. [14] B. Sun, L. Yang, P. Dong, W. Zhang, J. Dong and C. Young, "Super Characters: A Conversion from Sentiment Classification to Image Classification," in Proceedings of the 9th Workshop on Computational Approaches to Subjectivity, Sentiment and Social Media Analysis, Brussels, 2018. [15] Z. Qu, X. Song, S. Zheng, X. Wang, X. Song and Z. Li, "Improved Bayes Method Based on TF-IDF Feature and Grade Factor Feature for Chinese Information Classification," in 2018 IEEE International Conference on Big Data and Smart Computing, Shanghai, 2018. [16] The Python Package Index, "The Python Package Index," Python Software Foundation, 2021. [Online]. Available: https://pypi.org. [Accessed 4 January 2021]. [17] F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel, B. Thirion, O. Grisel, M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg, J. Vanderplas, A. Passos, D. Cournapeau, M. Brucher and P, "Scikit-learn: Machine Learning in Python," Journal of Machine Learning Research, vol. 12, pp. 2825-2830, 2011. [18] Scikit-learn, "Scikit-learn," 2020. [Online]. Available: http://scikit-learn.org. [Accessed 4 January 2021].
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D3-2.pdf
# 後段モデルの損失値を用いた単語分割のタスクへの最適化 平岡達也 ${ }^{\dagger}$, 高瀬翔 $\dagger$, 内海慶 ${ }^{\ddagger}$, 欅惇志 $\ddagger$, 岡崎直観 $\dagger$ †東京工業大学‡デンソーアイティーラボラトリ \{tatsuya.hiraoka@nlp., sho.takase@nlp., okazaki@\}c.titech.ac.jp \{kuchiumi, akeyaki\}@d-itlab.co.jp ## 1 はじめに 単語分割は自然言語処理の性能に影響を与える重要な処理である.単語分割にはルールベースの手法 [1] や辞書を用いた手法 [2],教師なしの手法 [3,4] が用いられており,単語分割の違いが後段タスクの性能の差に繋がることがわかっている $[5,6,7,8]$. しかし,ある単語分割が後段タスクに適切かどうかは,実際に分割済みのコーパスで後段モデルを学習し性能を評価するまで分からないため,適切な単語分割を人手で選択することは難しい。 近年では,後段タスクに応じて単語分割を自動で最適化する手法が研究されている. IncrementalBPE [9] やDPE [10] は, 機械翻訳タスクの性能向上に繋がるような単語分割を求める手法である。また, OpTok [11] は文書分類タスクにおいて,End-to-End に単語分割を最適化する手法である。しかし,これまでの研究は機械翻訳や文書分類のように想定タスクが限定されており,あらゆる後段タスクに適用可能な単語分割の最適化手法は存在していない. そこで本稿では,ニューラルネットワークを用いたさまざまな後段タスクに適用可能な単語分割の最適化手法を提案する. 提案手法は後段タスクの学習に用いるモデル (後段モデル) に単語分割器を組み合わせ,両者を同時に学習する。これにより,提案手法は学習コーパスや単語分散表現,モデルのパラメータなどのタスクに関わるあらゆる要素を考慮した単語分割の Emd-to-End な学習が可能である. 本稿では 3 言語での文書分類タスクにおける実験を通して,提案手法が既存手法である OpTokを上回る性能であることを確かめた。 また,複数言語対での機械翻訳タスクにおける実験でも,提案手法は既存手法のDPE を上回る性能であり,提案手法が複数の後段タスクに適用可能な単語分割の最適化手法であることが確かめられた。 ## 很好吃 図 1: 提案手法による NULM と後段モデルの学習の概要. 実線矢印は誤差逆伝播を行うパスを示す. ## 2 提案手法 提案手法の単語分割では,ニューラルユニグラム言語モデル (NULM) によって計算した単語のユニグラム確率 $p(w)$ を用いて,文 $s$ を語彙 $V$ に含まれる単語 $w$ の系列 $s^{\prime}=w_{1}, \ldots, w_{I}$ に変換する。 $p(w)$ をもとに求めた $N$-best $の$ 単語分割候補 $s_{1}^{\prime}, \ldots, s_{N}^{\prime}$ を後段モデルに入力し,それぞれの出力に対応する損失值に単語分割の確率を掛け合わせることで損失値の重み付き和を計算する。この損失值に対して誤差逆伝播法を用いることで,損失值が低くなるような単語分割の確率が高くなるように NULM のパラメー タを更新する.また,後段モデルの学習には NULM をもとに単語分割を一つサンプリングして用いることで,サブワード正則化による学習を行う.手法の概要を図 1 に示した. ## $2.1 N$-best 単語分割による NULM の更新 提案手法の NULM では,以下のように単語分散表現 $\boldsymbol{v}_{w}$ を用いて単語のユニグラム確率を計算する。 $ \begin{aligned} d_{w} & =\operatorname{MLP}\left(\boldsymbol{v}_{w}\right) \\ p(w) & =\frac{\exp \left(d_{w}\right)}{\sum_{\hat{w} \in V} \exp \left(d_{\hat{w}}\right)} . \end{aligned} $ 入力文 $s$ に含まれるあらゆる単語の確率 $p(w)$ に対して Forward-DP Backward-A*アルゴリズム [12] を適用し, 入力文の $N$-best $の$ 単語分割候補を求める. さらに,それぞれの単語分割候補の確率 $p\left(s_{n}^{\prime}\right)=\prod_{w \in s_{n}^{\prime}} p(w)$ を用いて, 各単語分割候補に対応する後段モデルの損失值 $\mathscr{L}_{s_{1}^{\prime}}, \ldots, \mathscr{L}_{s_{N}^{\prime}}$ を以下のように重み付ける。 $ \begin{aligned} \mathscr{L}_{s_{n}^{\prime}} & =q\left(f\left(s_{n}^{\prime}\right), z\right), \\ a_{n} & =\frac{p\left(s_{n}^{\prime}\right)}{\sum_{m=1}^{N} p\left(s_{m}^{\prime}\right)}, \\ \mathscr{L}_{s} & =\sum_{n=1}^{N} a_{n} \mathscr{L}_{s_{n}^{\prime}} . \end{aligned} $ ここで $f(\cdot)$ は単語分割済みの文を入力とし,後段タスクに応じた出力を計算する後段モデルである。また, $q(\cdot)$ は後段モデルの出力と教師信号 $z$ を用いて損失値を計算する損失関数である。後段タスクが文書分類であれば, $f(\cdot)$ は各文書ラベルに対応する確率分布を出力し, $q(\cdot)$ は正解ラベルとの交差エントロピー損失を出力する.このような損失値の重み付き和に対して誤差逆伝播法を適用することで,その時点で損失值が最も低い単語分割の確率が向上するように NULM の更新が行われる。 式 (3) に用いる $q(f(\cdot), \cdot)$ は, 単語の系列と教師信号を入力として損失値を出力するモデルであればよいので,提案手法は文書分類や機械翻訳などの様々な後段タスクに適用可能である。また,学習済みの NULM を用いてビタビアルゴリズム [13] による単語分割を行うことで,推論時には後段タスクに適切な単語分割を使用することができる. ## 2.2 後段モデルの更新 式 (5) で計算した $\mathscr{L}_{s}$ に対して単純に誤差逆伝播法を適用すると,後段モデルを計算グラフを繋いだ状態で $N$ 個同時に計算することになり,メモリ使用量が莫大になる. そこで図 1 に示すように, $\mathscr{L}_{s}$ を用いた後段モデルのパラメータ更新は行わず,新たに単語分割 $\tilde{s}^{\prime}$ をひとつサンプリングして後段モ デルの学習に用いる. 具体的には, $\mathscr{L}_{\tilde{s}^{\prime}}=q\left(f\left(\tilde{s}^{\prime}\right), z\right)$ に対して誤差逆伝播法を適用することで,後段モデルの更新を行う。これにより,提案手法では学習途中の NULM のパラメータを用いたサブワード正則化 $[14,15]$ による後段モデルの学習を行う. 単語分割 $\tilde{s}^{\prime}$ を選択するために,NULM による単語のユニグラム確率を用いて $p\left(\tilde{s}^{\prime}\right)^{\alpha} / \sum_{k=1}^{K} p\left(s_{k}^{\prime}\right)^{\alpha}$ からサンプリングを行う [14]. ここで $\alpha$ は分割の多様性を制御するハイパーパラメータであり, $\alpha$ が小さいほど一様な分布から単語分割をサンプリングする事になる。また,Kはサンプリングの対象となる単 Filtering Backward Sampling (FFBS) [16, 17] を用いたサンプリングを行う. ## 2.3 複数文の入力を用いた学習 機械翻訳タスクのソース側文とターゲット側文のように入力が複数となる場合には,一方の $N$-best 単語分割候補と他方のサプリングされた単語分割候補を組み合わせることで,NULM を更新するための損失値を計算する。つまり,複数入力のうち 1 つは $N$ 個の候補を用い,その他はサンプリングした 1 つの候補を用いて計算する。具体的にソース側文 $s$ とターゲット側文 $t$, それぞれの単語分割済み文を $s^{\prime}$, $t^{\prime}$ としたとき, $\mathscr{L}_{s_{n}^{\prime}}=q\left(f\left(s_{n}^{\prime}\right), \tilde{t}^{\prime}\right)$ と $\mathscr{L}_{t_{n}^{\prime}}=q\left(f\left(\tilde{s}^{\prime}\right), t_{n}^{\prime}\right)$ によってソース側とターゲット側の NULM を更新する。また,後段モデルである機械翻訳モデルの学習には $\mathscr{L}_{\tilde{s}^{\prime}, \tilde{t}^{\prime}}=q\left(f\left(\tilde{s}^{\prime}\right), \tilde{t}^{\prime}\right)$ を用いる. ## 3 実験 ## 3.1 文書分類 提案手法の有効性を確かめるために複数言語の文書分類タスクで実験を行い,その結果を表 1 に示した. Weibo(Zh) $)^{1)}, \operatorname{Twitter}(\mathrm{Ja})^{2}$ , Twitter(En) ${ }^{3}$ はそれぞれ中国語,日本語,英語の SNS コーパスを用いた感情分析タスクである。また, Genre, Rating タスクは中国語 [18] ${ }^{4}$ ,日本語 [19],英語 [20] ${ }^{5}$ の各言語の EC サイトのレビューデータから作成したジャンル予測とレート予測のタスクである。さらに複数文を  表 1: 文書分類タスクでの実験結果 (F1 値). 入力とするタスクとして,SNLI データセット [21] での実験を行なった。 文書分類タスクでの実験設定は既存研究 [11] と揃え6,BiLSTM エンコーダーによる文書分類器をサブワード正則化を用いて学習した。単語分散表現は各コーパスの訓練データで事前学習し, 文書分類の学習時には固定した。また,比較手法である OpTok と提案手法の語彙の初期化には, SentencePiece による同じ単語分割を使用し,単語分割の最適化についてのハイパーパラメータは $N=3$ とした. 表 1 の実験結果より提案手法はほとんどのデータセットで OpTokを上回っており, 既存手法に比べて性能が同等かそれ以上であることが確かめられた。 この性能の差は, OpTok と提案手法における後段モデルの学習方法の違いに起因すると考えられる。 OpTok は $N$-best の単語分割候補を用いて後段モデルを学習するが,推論時には 1-best の単語分割が後段モデルに入力されるため,学習と推論でギャップが生じてしまう。一方で提案手法による後段モデルの学習ではサンプリングされたひとつの単語分割候補のみを用いているため,学習と推論に差が生まれず性能の向上に繋がっていると考えられる. ## 3.2 機械翻訳 提案手法の機械翻訳タスクでの有効性を確かめるために IWSLT と WMT コーパスを用いた実験を行い,その結果を表 2 に示した. IWSLT コーパスでの実験には Transformer(small) [22]を使用し,全ての言語の語彙の規模を $16 \mathrm{~K}$ として SentencePiece で単語分割を行なった. WMT コーパスでの実験では Transformer(base) を使用し,語彙の規模を $32 \mathrm{~K}$ とした. サブワード正則化に関するハイパーパラメータ 6)実験に使用したデータセットの詳細と,単語分散表現, SentencePiece の学習済みモデルを以下で公開している. https://github.com/tatHi/optok表 2: IWSLT(I) と WMT(W) コーパスを用いた機械翻訳タスクでの実験結果 (BLEU4).エンコーダーとデコーダーで使用した単語分割手法をそれぞれ Enc, Decとして示した.また,SPは SentencePiece,R はサブワード正則化を示す. は $k=\infty , \alpha$ は IWSLT:0.2,WMT:0.5 とした.また,提案手法で用いる単語分割の候補数 $N$ は, IWSLT: 8, WMT: 3 とした. 比較手法としてターゲット側言語の単語分割を最適化する DPE [10] を用いる。DPE による単語分割の学習には SentencePiece による単語分割を初期状態として用い,機械翻訳はソース側言語でサブワード正則化を用いた学習を行なった. また,提案手法の語彙の初期化にも SentencePiece による単語分割を使用した。コーパスは Moses)(中国語のみ jieba ${ }^{8)}$ ) で事前に単語分割を施してから SentencePiece の学習を行った。機械翻訳の評価にはデトークナイズ後の BLEU4 值を用いた. 表 2 の結果より,多くの言語対での実験において提案手法を用いた学習の性能が既存手法を上回ることが確認され,提案手法の有効性が示された.特に,デコーダーのみに提案手法を適用した設定が多くの場合でもっとも性能が高く,ほとんどの言語でエンコーダーとデコーダーの双方に提案手法を用いたときの性能が低くなっている。ここから,ソース側言語とターゲット側言語の単語分割の最適化を同時に行うことが難しく,性能の低下につながっていると考えられる。両側の単語分割を同時に最適化する方策についての追加実験を付録 A に掲載した。  ## 4 分析 機械翻訳タスクで得られた提案手法の単語分割について分析を行う. 英中対訳ぺアのうち中国語側を SentencePiece,英語側を提案手法で学習し,提案手法によって得られた単語分割を表 3 に示した. 提案手法によるソース側言語の単語分割 (表 3a) では, “hav-e” や “hour-s” のようにトークンの形態素や接尾辞を細かく分割していることが確認される。 また,ターゲット側の単語分割(表 3b)では既存手法の DPE と同様に,動詞の接尾辞“-ed” を分割する傾向が見られる。一方で DPE や提案手法によるソース側言語の単語分割とは異なり,ターゲット側言語を細かく分割する傾向は見られなかった. IWSLTコーパスにおいて各手法で得られた単語分割と,初期状態である SentencePiece の単語分割との学習データにおけるトークン数の割合を表 4 に示した. 表において,1を超える値は SentencePiece に比べてトークン数が増加していることを表す. 結果より,提案手法でソース側言語の単語分割を学習した場合は初期状態に比べてトークン数が増大しており,提案手法がソース側言語を細かい単位で分割していることがわかる。これは,エンコーダーのニューラルネットワークの表現力が豊かであるために, 細かい単位で入力しても機械翻訳の性能が低下しないことを示唆する. この傾向は, エンコーダー の入力を文字レベルにすることで性能向上が得られるという既存研究の結果と合致する $[23,24]$. また,英中翻訳以外の全ての言語対で,提案手法によるターゲット側の単語分割は初期状態と比べてトークン数がわずかに少なくなっている。これは,提案手法が言語モデルベースの SentencePiece による単語分割の粒度を維持しつつ, デコードしやすい単位に分割し直した結果であると考えられる. 英中翻訳ではターゲット側であっても,トークン数が大きく増加している.これは中国語の 1 文字が持つ情報が他の言語に比べて多く, エンコーダー側の単語の粒度と合わせるために細かく分割したと考えられる. 比較手法である DPE は言語対ごとにターゲット側のトークン数が変化しており, 提案手法との差が見られる. DPE はソース側の単語分割を用いてターゲット側の単語分割を決定するが,提案手法はターゲット側の学習済みユニグラム言語モデルのみを用いて単語分割を行うために単語分割の自由度が低く, このような差が生まれていると考えられる。表 3: 英中ペアにて英語側の単語分割を最適化した時の SentencePiece(SP) と DPE,提案手法の比較. (a) 英中翻訳のソース言語の単語分割 (b) 中英翻訳のターゲット言語の単語分割 表 4: 学習データ全体で, 各手法で学習された単語分割のトークン数の初期状態に対する割合. 初期状態の単語分割は SentencePiece によるものである. & & & \\ & En-De & 1.3809 & 0.9996 & 0.9923 \\ & En-Vi & 1.4650 & 0.9999 & 0.9923 \\ & Zh-En & 1.5175 & 0.9994 & 0.9907 \\ & En-Zh & 1.3516 & 1.4713 & 1.0346 \\ & En-Ar & 1.4765 & 0.9994 & 0.9945 \\ & Fr-En & 1.7194 & 0.9996 & 1.0001 \\ & En-Fr & 1.5996 & 0.9997 & 0.9935 \\ これらの分析から,提案手法は言語や後段モデルなどの後段タスクの情報に応じて異なる単語分割を学習していることが示唆される. ## 5 おわりに 本稿では,単語分割をタスクに応じて最適化する手法を提案した. 提案手法では単語分割器を後段モデルの学習に組み込むことで,タスクやモデルに応じて単語分割を更新する.実験結果より,提案手法は文書分類と機械翻訳の複数データセットで既存手法を上回る性能であり,その有効性を確認した.提案手法は損失値を用いて単語分割の更新を行うため, 応用先はこれらのタスクに限らない. 今後は文法誤り訂正やスタイル変換などのタスクに提案手法が有効であるかを検証する。 謝辞本研究成果は, 国立研究開発法人情報通信研究機構 (NICT) の委託研究「多言語音声翻訳高度化のためのディープラーニング技術の研究開発」により得られたものです. ## 参考文献 [1]Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, et al. Moses: Open source toolkit for statistical machine translation. In Proceedings of the 45th annual meeting of the ACL on interactive poster and demonstration sessions, pp. 177-180. Association for Computational Linguistics, 2007. [2]Taku Kudo. Mecab: Yet another part-of-speech and morphological analyzer. http://taku910.github.io/mecab/, 2006. [3]Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), Vol. 1, pp. P1715-1725, 2016. [4]Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, 2018. [5]Jia Xu, Jianfeng Gao, Kristina Toutanova, and Hermann Ney. Bayesian semi-supervised chinese word segmentation for statistical machine translation. In Proceedings of the 22nd International Conference on Computational Linguistics-Volume 1, pp. 1017-1024. Association for Computational Linguistics, 2008. [6]Pi-Chuan Chang, Michel Galley, and Christopher D Manning. Optimizing chinese word segmentation for machine translation performance. In Proceedings of the third workshop on statistical machine translation, pp. 224-232, 2008. [7]ThuyLinh Nguyen, Stephan Vogel, and Noah A Smith. Nonparametric word segmentation for machine translation. In Proceedings of the 23rd International Conference on Computational Linguistics, pp. 815-823. Association for Computational Linguistics, 2010. [8]Miguel Domingo, Mercedes Garcia-Martınez, Alexandre Helle, Francisco Casacuberta, and Manuel Herranz. How much does tokenization affect neural machine translation? arXiv preprint arXiv:1812.08621, 2018. [9]Elizabeth Salesky, Andrew Runge, Alex Coda, Jan Niehues, and Graham Neubig. Optimizing segmentation granularity for neural machine translation. Machine Translation, pp. 119, 2020. [10]Xuanli He, Gholamreza Haffari, and Mohammad Norouzi. Dynamic programming encoding for subword segmentation in neural machine translation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3042-3051, Online, July 2020. Association for Computational Linguistics. [11]Tatsuya Hiraoka, Sho Takase, Kei Uchiumi, Atsushi Keyaki, and Naoaki Okazaki. Optimizing word segmentation for downstream task. In Findings of the Association for Coтputational Linguistics: EMNLP 2020, pp. 1341-1351, Online, November 2020. Association for Computational Linguistics. [12]Masaaki Nagata. A stochastic japanese morphological analyzer using a forward-dp backward-a* n-best search algorithm. In Proceedings of the 15th conference on Compu- tational linguistics-Volume 1, pp. 201-207. Association for Computational Linguistics, 1994. [13]Andrew Viterbi. Error bounds for convolutional codes and an asymptotically optimum decoding algorithm. IEEE transactions on Information Theory, Vol. 13, No. 2, pp. 260-269, 1967. [14]Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. $66-75,2018$. [15]Ivan Provilkov, Dmitrii Emelianenko, and Elena Voita. BPEdropout: Simple and effective subword regularization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1882-1892, Online, July 2020. Association for Computational Linguistics. [16]Steven L Scott. Bayesian methods for hidden markov models: Recursive computing in the 21 st century. Journal of the American Statistical Association, Vol. 97, No. 457, pp. $337-$ 351, 2002. [17]Daichi Mochihashi, Takeshi Yamada, and Naonori Ueda. Bayesian unsupervised word segmentation with nested pitman-yor language modeling. In Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP: Volume 1-Volume 1, pp. 100-108. Association for Computational Linguistics, 2009. [18]Yongfeng Zhang, Min Zhang, Yi Zhang, Guokun Lai, Yiqun Liu, Honghui Zhang, and Shaoping Ma. Daily-aware personalized recommendation based on feature-level time series analysis. In Proceedings of the 24th international conference on world wide web, pp. 1373-1383, 2015. [19]Rakuten Inc. Rakuten dataset. Informatics Research Data Repository, National Institute of informatics. (dataset)., 2014. [20]Ruining He and Julian McAuley. Ups and downs: Modeling the visual evolution of fashion trends with one-class collaborative filtering. In proceedings of the 25th international conference on world wide web, pp. 507-517, 2016. [21]Samuel Bowman, Gabor Angeli, Christopher Potts, and Christopher D Manning. A large annotated corpus for learning natural language inference. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 632-642, 2015. [22]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, pp. 5998-6008, 2017. [23]Nal Kalchbrenner, Lasse Espeholt, Karen Simonyan, Aaron van den Oord, Alex Graves, and Koray Kavukcuoglu. Neural machine translation in linear time. arXiv preprint arXiv:1610.10099, 2016. [24]Jason Lee, Kyunghyun Cho, and Thomas Hofmann. Fully character-level neural machine translation without explicit segmentation. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 365-378, 2017. ## A 複数入力に対する同時最適化 3.2 節では,エンコーダー側とデコーダー側の両方の単語分割を提案手法で同時に最適化することが性能の低下に繋がると説明した.これはエンコー ダー側とターゲット側で単語分割の方策に差があり (4 章), 単語分割の最適化が安定しないためだと考えられる. そこで, 双方の単語分割の最適化を段階的に行うことで,両方の単語分割を最適化しつつ性能の低下を防ぐ方法を考える. 本研究の実験における 100 エポックの学習の中で,1) エンコーダー側の単語分割のみを前半 50 エポックで学習し, 後半はエンコーダー側の単語分割を固定してデコーダー側の単語分割のみを学習する,2) 前半にデコーダー側の単語分割を学習し, 後半でエンコーダー側を学習する,3) 各ミニバッチ学習ごとにランダムにエンコーダー側とデコーダー側を選択して片方のみの単語分割を学習する,の3つの方策を実験する. 表 5 に示した実験結果より,1) エンコーダー側の単語分割を先に学習し, その後デコーダー側の単語分割を学習する方策がもっとも高い性能であることが分かった. 特に Vi-En,En-Vi,Zh-En では表 2 の数値を含めても最高性能に達しており, 方策 1 が優れていることがわかる. また,表 4 で示したようにエンコーダー側の単語分割は粒度が細かくなる傾向があるため, 学習の後半で分割が大きく変わる方策 2 では性能が低下することが分かった。 表 5: 両側の単語分割を同時に最適化するための各方策による,IWSLT15 での性能の差 (BLEU4). Both は表 2 の Ours-Ours の值を引用. ## B ハイパーパラメータの影響 提案手法では $N$ 個の単語分割候補を用いて NULM の最適化を行う。このハイパーパラメータ $N$ について,文書分類タスクと機械翻訳タスクの性能に与える影響をそれぞれ図 2 と図 3 に示した. 図では, 3 章での実験に用いた $N$ の値で得られた後段モデルの性能との差を示す. 文書分類タスクでの実験では,Twitter と Weibo の感情分析タスクを用いた性能の差を検証した.実験 より,文書分類タスクでは提案手法の $N$ の値による大きな性能の差は見られなかった. 同様の実験を提案手法がベースとしている OpTok [11] で行った結果と比較すると, 提案手法はハイパーパラメータ $N$ が大きくなっても,性能が落ちないことが確認される. OpTok が $N$ 個の単語分割候補に対応する文べクトルの重み付き和で後段モデルの学習を行うのに対して,提案手法は $N$ の值にかかわらず 1 つの単語分割候補のみを用いて後段モデルの学習を行うために,Nの影響を受けにくいと考えられる。 機械翻訳タスクでの実験では,IWSLT15 の越英翻訳ペアを用いて $N$ の影響を確認した.結果より, ターゲット側言語のみに提案手法を適用した場合は $N$ の值による性能の大きな差はなく,ソース側言語のみに提案手法を用いた場合は $N$ を大きく取ることで性能が向上していることが確認された。これは 4 章での分析で述べたように,エンコーダーの表現力の高さのために初期状態から離れた単語分割候補を用いることが性能向上に繋がり得ることに起因すると考えられる。一方で,ソース側言語とターゲッ卜側言語の双方に提案手法を適用する場合は $N$ を大きくすることで若干の性能低下が見られる.性能低下の程度は小さいが,両側の言語の単語分割を同時に更新する場合は $N$ が大きくなることで学習が不安定になると考えられる。 図 2: Nによる文書分類タスクの性能の差 図 3: Nによる機械翻訳タスクの性能の差
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D3-3.pdf
# 名詞句の処理に頑健な構文解析器 金山博* 岩本蘭 $\dagger$ 村岡 雅康* 大湖卓也* 宮本 晃太郎* * 日本アイ・ビー・エム株式会社 東京基礎研究所†慶應義塾大学 理工学研究科 * \{hkana, mmuraoka, ohkot, kmiya\}@jp.ibm.com †r.iwamoto@keio.jp ## 1 はじめに レビューの分析や契約文書の処理など応用の局面において、意味解析や情報抽出を目的とした実文書の正確な構文解析が求められている。近年は多言語の Universal Dependencies (UD)[4, 5] のコーパスが利用しやすくなっており、構文解析器 (品詞タグ付け・依存構造解析)の訓練に用いられている。 しかし、実世界の文書に対する UD で訓練された解析器の出力を見ると、英語 (1) ・ドイツ語 (2) ${ }^{1)}$ の例のような誤解析が目立つ ${ }^{2)}$ 。 (1) (2) ADV ADJ *PUNCT いずれも入力したテキストは短い名詞句であるが、(1)では命令法の文であるかのように 1 語目が動詞としてタグ付けされ、 4 語目との間の関係ラべルも誤っている。(2) は名詞が大文字で書かれていないせいか、 3 語目の品詞が句読点であると認識されてしまっている。これらは、UD の shared task[12] で高い精度を示している Stanza [8] の出力における例であるが、UDPipe[11] や Spacy[2] など、他の構文解析器においても同様の事象が見られた。 訓練データの多くが定動詞を含む文であって、名詞句となっているものが少ないとしたら、(1)(2)のような名詞句に対する品詞タグ付けや構文解析の誤りは多くなるであろう。また、(2) の異常にも見える誤解析は、訓練データのほとんどがピリオドで終わる文であるためにその傾向が強く学習されているためだと推測される。すなわち、これらの誤解析  は、訓練データと解析対象のテキストの傾向の違いの問題と捉えることができる。 本稿では、これらの点、すなわち名詞句と文末のピリオドに注目し、UDのコーパスと実世界の入力における傾向の違いや解析時の影響を調べるとともに、新たに人手でアノテーションを加えることなく既存のコーパスを拡充して解析器を頑健化する方法を提案し、構文解析器やその後段のアプリケーションにおける変化を観察する。 ## 2 定義 本稿で扱うデータや言語現象に関する用語について定義しておく。 処理単位コーパス中で一文とみなされるテキスト3)、または品詞タグ付けや依存構造解析の際に (しばしば文区切りの処理を施した後の)入力の単位となるもの。後述の「文」と区別するためにこのように呼ぶ。 文定動詞を含むなど、句構造文法において非終端記号 S (Sentence) を構成するような処理単位またはその部分。本稿ではその厳密な議論はしないが、後述の「名詞句」は「文」ではない典型例である。 名詞句処理単位の全体または部分において、その主辞の品詞タグが名詞(NOUN)または固有名詞 (PROPN)であり、かつその主辞に be 動詞などのコピュラ(依存関係ラベルが cop であるもの)が係っていないもの4)。 句点処理単位の最後のピリオドを、簡単のため句点と呼ぶ5)。 句点無処理単位の最後の語が ‘? $\cdot$ ‘!’ $\cdot$ ‘?’などの約物でない場合。すなわち、最後の語の品詞タグが PUNCT 以外である場合。 3)UD で用いられる CoNLL-U フォーマットで“\# text =”のメタデータとなる、通常は sentence と呼ばれる単位。 4)内容語主導のUD の構文構造では、この考慮が必要となる。 5) 日本語等の「。」を含む。'Mr.'などのピリオドは含まない。 表 1 観察したデータと、名詞句・句点無の割合 (\%) ## 3 予備実験 表 1 は、UD とレビュー文のコーパスについて、処理単位が名詞句および句点無であるものの割合を 4 言語で調べたものである。UD は version 2.6 の訓練用セットのアノテーションから自動判定し、レビュー文はアスペクトベースの評判分析の shared task のデータ $[7,9]$ から各言語 100 例ずつを抽出して人手で検証した。 特にドイツ語 (de)・フランス語 (fr)・スペイン語 (es)の UDコーパスにおいて、名詞句や句点無の割合が非常に低く、コーパス作成時に処理単位として標準的な文が好んで選択されていることがわかる。英語 (en) の EWT コーパスは web 上のテキストが基となっているため、名詞句や句点無の割合が比較的高くなっている。レビューのデータでは名詞句や句点無の入力が多くなる傾向があるが、SemEval のデータセット(特に英語)はアスペクトの取得をする目的からも、ほとんどの文が句点で終わるなど、現実の入力よりは統制が取れたセットになっていた。 以上の結果より、言語やデータセットに依存するものの、UD とレビューのコーパスの間でも現象の分布が大きく異なることが確認できた。実世界のデータではさらに異なる傾向があると考えられる。 ## 4 コーパスの拡張 本節では、3 節で確認したコーパスの分布の違いの問題を解決すべく、構文解析器の訓練コーパスを拡張する方法を示す。すなわち、訓練時における UD コーパスへのバイアスを減らして、実応用の際にも有用なモデルを作ることを目指す。 ## 4.1 句点の除去 最も簡単な方法は、コーパス中の処理単位の末尾の句点を一定の割合で除去することである。これにより、句点の有無によって構文の構造が変わった 図 1 文から名詞句の部分木(枠内)を抽出する例 り、通常の語に PUNCT の品詞タグが付与されたりする現象を防ぐことができると考えられる。 ほとんどの句点はそれに係る修飾語を持たないので、単純に句点を除去するだけで正しい構文構造を保てるが、UD_English-EWT のデータの中には例外的な事象6) があるので、修飾語を持つ場合には除去の対象としないようにする。 ## 4.2 名詞句の追加 定動詞を主辞とするような典型的な文に加えて、名詞句で完結する処理単位の割合を増やすために、元のコーパスから名詞句である部分木を抽出してコーパスに加える処理を行う。その手順は以下の通りである。 ・処理単位の中から、主辞でない部分にある名詞句を検出する。名詞句の同定の方法は 2 節の定義に従う。 ・そのうち、 4 語未満からなるものは構文構造の学習に適さないため除外する。 - UD の内容語重視の依存構造では、名詞句の部分木の中に前置詞などの機能語が含まれうるため、名詞句の主辞に case, punct のラベルで係る語がある場合には、その部分を除外する。図 1 の例のように、'city’ の部分木から 'in'を除いた部分を名詞句とする。 ・こうして抽出した名詞句をプールして、元の文数に対して一定の割合でランダムに選択して訓練コーパスに追加する(元からのデータはそのまま保つ)。 ## 5 実験 ## 5.1 実験設定 拡張コーパスを使った訓練に基づく品詞タグ付けと依存構造解析の変化を観察するために、4つの言語の名詞句を集めたデータを以下の手法により作成した。 6)UD_English-EWT の訓練データ中に、接続詞 'and' が文末のピリオドに係る場合などがあった。 表 2 Wikipedia セクション名のデータの例 \\ - Wikipedia の各言語版のセクション名7)の文字列のうち、3 語以上からなるものを列挙 ・句点などの記号が含まれるものを除外 ・言語判定で他の言語と推定されたものを除外 ・ドイツ語以外は先頭の文字を小文字化 - 先頭の 1 語が重複するものが 3 個以上は無いようにして、各言語 1500 個をランダムに取得 こうして得られる文字列のほとんどは名詞句であると推定できる。表 2 に 4 言語における例を示す。 これらを解析して、その主辞(root)となる語が名詞となる割合(NP 検出率)と、最後の語の品詞が PUNCT、または依存関係ラベルが punct となるような誤解析の数(誤句点数)を調べる。 さらに、構文解析の intrinsic な評価として、UDのテストコーパスでの依存構造解析の精度 (LAS) を測定する。訓練データとテストデータの分布に差が出ることにより、その值は理論的には低下するため、 その減少幅が最小限であれば成功といって良い。 また、extrinsic な評価として、構文解析の結果を使った評価表現抽出 $[3,14]$ を行う。解析対象のデー タは 3 節で観察した、SemEval 等の shared task のデータ $[7,9]$ の約 500 文である。評価表現の指標である適合率・再現率のうち、適合率は辞書の性質や否定等の扱い方の正しさに依存する傾向があり、再現率は辞書の充実の度合いのほか、主辞の同定の正確さに左右される。今回の実験では適合率を変化させる要因は少ないので、名詞句関連の構文構造の影響を受ける再現率を、評価指標として用いる。 ## 5.2 結果と考察 ドイツ語・フランス語・スペイン語・英語の UD コーパスの訓練データに対して、4 節に示した 2 つの改変を施した拡張コーパスを用いて、Stanza 7)記事のタイトルは固有名詞がほとんどなのでテストに不適であった。 [8] の再学習を行った。いずれの場合も、tokenize, mwe, lemmatize のモデルは標準のまま固定し、pos と depparse のモデルを max step=5000 の設定で学習させている。 コーパスを拡張する際に、 $m \%$ の割合で文末の句点を除去、 $n \%$ の名詞句を追加する。 $m=0, n=0$ は元のUDコーパスをそのまま使って訓練する場合であり、各言語のベースラインとなる。 $m, n$ の值を変えて訓練したモデルで、Wikipedia のセクション名のデータにおける NP 検出率と誤句点数、UD のデータでの LAS と、評価表現抽出(SA)の再現率を測定する。Stanza の学習ではランダムの要素があり、試行ごとに精度が異なるため、 $m=0, n=0$ の場合のみ 10 回の訓練を行って、それぞれのモデルで測定した際の平均値と標準偏差を示す。これらの結果が表 3 である。 4 言語すべてにおいて、 $m=0, n>0$ のすべての場合で NP 検出率に改良が見られ、また $n$ の値を増やすと NP 検出率がほぼ漸増する。このことから、名詞句の性質は異なっていても8)、名詞句である処理単位の追加によって名詞句の解析結果を改善できることがわかる。 $n=100$ としても名詞句として解析されないものの中には、そもそも動詞句であるものも含まれていた。 誤句点数の減少を見ると、どの言語でも、少量の改変によって PUNCT に関連する誤りをほぼ防げるようになった。文末の句点を除去した場合 $(m>0)$ だけでなく、名詞句の追加 $(n>0)$ によっても誤句点数を減らせているのは、追加した名詞句に句点が基本的に含まれていないことによる効果である。 以上は Wikipediaのセクション名における観察の結果である。処理単位が名詞句である場合の解析結果を改善したことにより、一般的な文の解析の性能が低下することが懸念されるが、UD のテストデー タの LAS の值を見ると、ベースラインより標準偏差を超えて下がっているケースは、 $m$ や $n$ が大きすぎる場合に限られており、LAS がほぼ不変であったり、むしろ向上している場合も見られる。なお、 $m=100$ とした場合には、すべての文末の句点を除去して訓練をすることになるが、テストデータには文末の句点が存在するため、LAS が大きく下がるのは想定通りである。 評価の方法が難しいものの、最も重視したいの 8)UD コーパスの部分木と Wikipedia セクション名のデータは完全に独立である。 表 34 言語で、UD の訓練コーパスに対して文末の句点を $m \%$ 除去、名詞句を $n \%$ 追加して構文解析器を再訓練をした際の、各データ上での構文解析および評価表現抽出の結果(指標は誤句点数を除いて%表記。)。 $m=0, n=0$ (ベースライン)のみ 10 試行の平均值と標準偏差を示す。太字はベースラインに対して標準偏差を超える改善が見られた場合。 } & \multirow{2}{*}{} \\ が、応用時における解析器の頑健性を測るための、評価表現抽出の再現率である。言語により最適となる $m, n$ の值は異なっており、表 1 に示した各言語のコーパスにおける分布からその值を自動的に推定するには至っていないが、フランス語・ドイツ語・スペイン語においては $m, n$ を 10~20\% 程度にすることにより、SA の再現率を上げられることがわかった。英語においては有意な差で再現率が向上したケースは無いが、これは 3 節の予備実験で見た通り、UD_English-EWT データ自体に適量のノイズが含まれていることと、SemEval のテストデータが逆に統制が取れた文が多いことから、名詞句の追加や句点の除去の効果が得づらいためだと考えられる。 } & \multirow{2}{*}{} \\ ## 6 まとめ 本研究では、名詞句と文末の句点に着目し、品詞タグ付けや依存構造解析における訓練コーパスの偏りを補正して、解析器を実応用に対して頑健化する実験を行った。句点の除去は非常に簡単な処理であり、句読点が構文解析に及ぼす影響は他の研究によっても指摘されている $[10,6,13]$ が、名詞句を処理単位とした解析については、今後も追求する余地がある。今回は欧米言語のみを扱ったが、日本語などの言語においては、UDの構文を用いた名詞句の定義や抽出はより複雑であるため、さらなる調査や工夫が必要となろう。そして、UDコーパスに加えて生の文から訓練データを拡張する手法 [1] も合わせて、実用的な解析器の実現を進めていきたい。 ## 参考文献 [1] Yousef El-Kurdi, Hiroshi Kanayama, Efsun Sarioglu Kayi, Vittorio Castelli, Todd Ward, and Radu Florian. Scalable cross-lingual treebank synthesis for improved production dependency parsers. In Proceedings of the 28th International Conference on Computational Linguistics: Industry Track, pp. 172-178, Online, December 2020. International Committee on Computational Linguistics. [2] Matthew Honnibal, Ines Montani, Sofie Van Landeghem, and Adriane Boyd. spaCy: Industrialstrength Natural Language Processing in Python, 2020. [3] Hiroshi Kanayama and Ran Iwamoto. How Universal are Universal Dependencies? Exploiting Syntax for Multilingual Clause-level Sentiment Detection. In Proceedings of the 12th Language Resources and Evaluation Conference (LREC 2020), pp. 40634073, 2020. [4] Joakim Nivre, Marie-Catherine de Marneffe, Filip Ginter, Yoav Goldberg, Jan Hajič, Christopher Manning, Ryan McDonald, Slav Petrov, Sampo Pyysalo, Natalia Silveira, Reut Tsarfaty, and Daniel Zeman. Universal Dependencies v1: A multilingual treebank collection. In Proceedings of the 10th International Conference on Language Resources and Evaluation (LREC 2016), Portorož, Slovenia, 2016. [5] Joakim Nivre, Marie-Catherine de Marneffe, Filip Ginter, Jan Hajič, Christopher D. Manning, Sampo Pyysalo, Sebastian Schuster, Francis Tyers, and Daniel Zeman. Universal Dependencies v2: An evergrowing multilingual treebank collection. In Proceedings of the 12th Language Resources and Evaluation Conference (LREC 2020), pp. 4034-4043, Marseille, France, May 2020. European Language Resources Association. [6] Joakim Nivre and Chiao-Ting Fang. Universal Dependency evaluation. In Proceedings of the NoDaLiDa 2017 Workshop on Universal Dependencies (UDW 2017), pp. 86-95, Gothenburg, Sweden, May 2017. Association for Computational Linguistics. [7] Maria Pontiki, Dimitris Galanis, Haris Papageorgiou, Ion Androutsopoulos, Suresh Manandhar, ALSmadi Mohammad, Mahmoud Al-Ayyoub, Yanyan Zhao, Bing Qin, Orphée De Clercq, et al. Semeval2016 task 5: Aspect based sentiment analysis. In Proceedings of the 10th international workshop on semantic evaluation (SemEval-2016), pp. 19-30, 2016. [8] Peng Qi, Yuhao Zhang, Yuhui Zhang, Jason Bolton, and Christopher D. Manning. Stanza: A python natural language processing toolkit for many human languages. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 101-108, Online, July 2020. Association for Computational Linguistics. [9] Josef Ruppenhofer, Roman Klinger, Julia Maria Struß, Jonathan Sonntag, and Michael Wiegand. IGGSA shared tasks on German sentiment analysis (GESTALT). In Gertrud Faaßand Josef Ruppenhofer, editors, Workshop Proceedings of the 12th Edition of the KONVENS Conference, pp. 164-173, Hildesheim, Germany, October 2014. Universität Heidelberg. [10] Anders Søgaard, Miryam de Lhoneux, and Isabelle Augenstein. Nightmare at test time: How punctuation prevents parsers from generalizing. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 25-29, 2018. [11] Milan Straka. UDPipe 2.0 prototype at CoNLL 2018 UD shared task. In Proceedings of the CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, pp. 197-207, Brussels, Belgium, October 2018. Association for Computational Linguistics. [12] Daniel Zeman, Filip Ginter, Jan Hajič, Joakim Nivre, Martin Popel, and Milan Straka. CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies. In Proceedings of the CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, Brussels, Belgium, 2018. [13] 金山博. 読点に頼らない統計的構文解析. 情報処理学会 170 回自然言語処理研究会, 2005. [14] 岩本蘭, 金山博. 多言語極性辞書の構築とその包括的評価. 言語処理学会第 26 回年次大会予稿集, March 2020.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D3-4.pdf
# 事例ベース依存構造解析のための依存関係表現学習 大内 啓樹 1 鈴木潤 2,1 小林颯介 ${ }^{2,3}$ 横井祥 ${ }^{2,1}$ 栗林 樹生 ${ }^{2,4}$ 吉川将司 ${ }^{2,1}$ 乾健太郎 2,1 1 理化学研究所 2 東北大学 3 株式会社 Preferred Networks ${ }^{4}$ Langsmith 株式会社 hiroki.ouchi@riken.jp, yoshikawa@tohoku.ac.jp, \{jun.suzuki, sosk, yokoi, kuribayashi, inui\}@ecei.tohoku.ac.jp ## 1 はじめに 過去に観測した類似事例にもとづき,新たな事例に関する推論を行うことを事例ベース推論と呼ぶ。近年の深層学習の隆盛にともなって, 「モデルの予測過程の説明性」の観点から注目を集めている. ニューラルネットワークを用いた一般的なモデルでは,予測根拠の解釈が困難であることが指摘されている [1]. 一方で, $\mathrm{k}$ 近傍法などの事例ベース推論手法では,学習事例を直接的に予測に使用し,それらを予測根拠として予測への貢献度とともに取り出すことが容易である.予測に大きく貢献した学習事例をユーザに提示することは,「なぜモデルはそのような予測をしたのか?」という疑問への一種の説明の役割を果たす.この種の説明は事例ベース説明と呼ばれる。機械学習の専門知識を持たないユーザにとっても直感的である場合が多く, モデルの予測に対するユーザの理解を促進し,より自信を持った意思決定につながるとの報告がある $[2,3,4,5]$. このような利点がある一方, 予測性能の高い事例ベースモデルの構築は容易ではない $[6,7]$. 高い予測性能を保つ鍵は特徵空間の効果的な学習にある. いかにして「同じクラスの事例同士を特徴空間上で近づけ,異なるクラスの事例同士は遠ざけるか」を考えなければならない。この指針のもと, Wiseman ら [6] や Ouchi ら [7] は言語の系列データのための特徵表現学習手法を提案し,一般的なモデルと同等の予測性能を保ちつつ, 説明性の優れる事例ベースモデルが構築可能となったことを報告している. 本稿では, 系列データからの自然な展開として,言語的な関係に着目する. 具体的には, 依存構造解析で定義される依存関係(エッジ)に焦点を絞り,事例ベース依存構造解析のための表現学習手法を提案する。実験を通して,一般的な解析システムと同等の性能を保ちつつ, 説明性に優れるシステムが構築可能であることを示す。さらに,説明性を大きく損なう可能性のある, ハブと呼ばれる事例の出現に関する分析結果も報告する. ## 2 手法 一般的な解析手法は推論時に学習データを参照しない。本稿の事例べース解析手法は, 推論時にも学習データを参照しながら解析を行う点が特徴で, 予測根拠を学習事例に求められるという利点がある. ## 2.1 問題設定 本稿ではラベルなし依存構造解析 ${ }^{1)}$ に取り組む.具体的には主辞選択 (head selection) 問題 $[8,9,10]$ として解く。これは簡潔な問題形式であり,GPUを用いた計算にもやさしいという理由から採用する。 トークナイズした入力文を $X=\left(x_{0}, x_{1}, \ldots, x_{T}\right)$ と表す。 $x_{0}$ は特殊トークンである ROOTを表し, $x_{1}, \ldots, x_{T}$ は原文の $T$ トークンを表す.各トークン $x_{i}$ の主辞が $x_{j}$ である確率を以下のように定義する. $ P\left(x_{j} \mid x_{i}\right)=\frac{\exp \left(\operatorname{score}\left(x_{j}, x_{i}\right)\right)}{\sum_{k=0}^{T} \exp \left(\operatorname{score}\left(x_{k}, x_{i}\right)\right)} . $ スコア関数 $\operatorname{score}\left(x_{j}, x_{i}\right)$ は実数を返す任意の関数として定義可能である (2.2 節参照). 推論時は, 入力文の各トークン $x_{i}$ に対して最大確率のトークンを主辞として選択する。 $ \hat{y}_{i}=\underset{x_{k}: 0 \leq k \leq T}{\arg \max } P\left(x_{k} \mid x_{i}\right) . $ 学習時は負の対数尤度を最小化することによって,正解主辞の確率が高くなるように学習する. $ L=-\sum_{n=1}^{|D|} \sum_{i=1}^{T^{(n)}} \log P\left(y_{i}^{(n)} \mid x_{i}^{(n)}\right) $ $D=\left.\{X^{(n)}, Y^{(n)}\right.\}_{n=1}^{|D|}$ は学習データ, $y_{i}^{(n)} \in Y^{(n)}$ は入力文の各トークン $x_{i}^{(n)} \in X^{(n)}$ の正解主辞である. 1)ラベルあり依存構造解析も行ったが,紙面(分量)の都合上,本稿ではラベルなし依存構造解析に絞って議論する。 ## 2.2 事例間の類似度に基づくスコア 式 1 中のスコア関数として, 学習事例との類似度に基づくスコア(事例ベーススコア)を提案する. $ \operatorname{score}\left(x_{j}, x_{i}\right)=\sum_{\left.\langle x_{\ell}, x_{k}\right.\rangle \in A_{D}} \operatorname{sim}\left(\boldsymbol{h}_{\langle\ell, k\rangle}, \boldsymbol{h}_{\langle j, i\rangle}\right) $ ここで, $\boldsymbol{h}_{\langle j, i\rangle} \in \mathbb{R}^{d}$ はエッジ〈主辞 $x_{j}$, 従属部 $\left.x_{i}\right.\rangle$ の $d$ 次元特徴ベクトル, $\operatorname{sim}$ は類似度関数を表す. 本研究ではベクトル間の内積 $\operatorname{sim}_{\mathrm{dot}}(\boldsymbol{a}, \boldsymbol{b})=\boldsymbol{a}^{\top} \boldsymbol{b}$ とコサイン類似度 $\operatorname{sim}_{\cos }(\boldsymbol{a}, \boldsymbol{b})=\frac{\boldsymbol{a}^{\top} \boldsymbol{b}}{\|\boldsymbol{a}\|\|\boldsymbol{b}\|}$ を用いる. $A_{D}$ は学習データ $D$ 中の正解エッジからなる集合である. $ A_{D}=\left.\{\left.\langle y_{i}, x_{i}\right.\rangle \mid x_{i} \in X, y_{i} \in Y,(X, Y) \in D\right.\} . $ $y_{i} \in Y$ はトークン $x_{i} \in X$ に対する正解主辞トークンを表す。つまり, 式 2 では学習データ中のエッジとの類似度の総和をスコアとしている. 各類似度を予測スコアに対する貢献(寄与)度と見ることができ,「各学習事例が予測にどの程度貢献しているか」 を人間が理解しやすい形式で示すことができる。 【効率的な計算方法. Tトークンからなる入力文の各トークン $x_{i}(i=1, \ldots, T)$ に対して,$T+1$ 個のトー クン $x_{j}(j=0, \ldots, T)$ から主辞を選ぶ場合, $d$ 次元の特徴ベクトルを用いるスコア計算には $O\left(T^{2} d\right)$ の計算量2) がかかる。一般的な事例べース手法では, スコア計算が学習データ $D$ の特徴ベクトルにも依存するため, $O\left(T^{2} d|D| d\right)=O\left(T^{2} d^{2}|D|\right)$ の計算量がかかる。一方, 我々の事例ベース手法では学習時の計算量を小さく抑えられる。類似度関数 $\operatorname{sim}$ として内積を使う場合 ${ }^{3}$ ,式 2 は以下のように書ける. $ \operatorname{score}\left(x_{j}, x_{i}\right)=\sum_{\left.\langle x_{\ell}, x_{k}\right.\rangle \in A_{D}} \boldsymbol{h}_{\langle\ell, k\rangle}^{\top} \boldsymbol{h}_{\langle j, i\rangle}=\boldsymbol{h}_{\langle j, i\rangle}^{\top} \sum_{\left.\langle x_{\ell}, x_{k}\right.\rangle \in A_{D}} \boldsymbol{h}_{\langle\ell, k\rangle} . $ つまり,学習データ中のすべてのベクトルを足し込んでから, 当該エッジベクトル $\boldsymbol{h}_{\langle j, i\rangle}$ との内積を計算すればよい。学習データ中のベクトルの足し算は $O(|D| d)$ であり,一度計算してしまえば当該エッジベクトル $\boldsymbol{h}_{\langle j, i\rangle}$ の本数に乗法的に依存しない. よって, 通常の手法なら計算量 $O\left(T^{2} d^{2}|D|\right)$ であるとこ万を, $O\left(T^{2} d+|D| d\right)$ に抑えられる. さらに, 先行研究 [7] に倣い,学習データからランダムに $M$ 文をサンプリングしたサブセット $D^{\prime}=\left.\{\left(X_{m}^{\prime}, Y_{m}^{\prime}\right)\right.\}_{m=1}^{M}$ を用いることにより, 学習はシングル $\left.\mathrm{GPU}^{4}\right)$ で 24 時間以内に完了できるようになった。 2) $d$ 次元ベクトル間の内積計算・加減算は $O(d)$ とする. 3)コサイン類似度を使用する際も同様に書き換えられる。 4) NVIDIA DGX-1 with Tesla V100. ■最も関連する既存手法. Neighbourhood Components Analysis (NCA) [11,6,7] では, 事例 $a$ の近傍に学習事例 $b \in D$ がくる確率を $P(b \mid a)=\frac{\exp (\operatorname{sim}(b, a))}{\sum_{b^{\prime} \in D} \exp \left(\operatorname{sim}\left(b^{\prime}, a\right)\right)}$ と定義し, 同一クラスの事例同士の確率が高くなる め, 類似度が高い一部の事例に確率值が大きく左右される。我々の手法は類似度を単純に足し合わせるため, そのような敏感さを伴わない. 両手法の性能比較は今後の課題だが5), 学習時の計算量の面では, NCA が $O\left(T^{2} d^{2}|D|\right)$ であるのに対し,我々の手法は $O\left(T^{2} d+|D| d\right)$ であるため有利であると言える. 【一般的な手法との関連. 重みパラメータベクトル $w \in \mathbb{R}^{d}$ を用いた以下のスコア関数は, 通常のニュー ラルモデルの出力層のスコア関数に該当する. $ \operatorname{score}\left(x_{j}, x_{i}\right)=\operatorname{sim}\left(\boldsymbol{w}, \boldsymbol{h}_{\langle j, i\rangle}\right) . $ この重みベーススコアに基づいて特徴空間を学習し,推論時はその学習済み特徴空間を事例ベーススコア計算のために使用するといったように併用することもできる.近年の画像認識分野においても,重みパラメータに基づく特徵表現学習と事例に基づく推論 ( $\mathrm{k}$ 近傍法) を組み合わせた手法が提案され,その有用性が報告されている $[12,13,14,15]$. 依存構造解析においてそのような試みは未だないが,有望な手法のひとつであると考えられるため, 本研究でもこれらの組み合わせに関する検証を行う(3 節). ロエッジ特徴ベクトル. 各エッジ $\left.\langle x_{j}, x_{i}\right.\rangle$ の特徴ベクトルを以下のように定義する。 $ \boldsymbol{h}_{\langle j, i\rangle}=g\left(\boldsymbol{h}_{i}^{\text {dep }}, \boldsymbol{h}_{j}^{\text {head }}\right) . $ $\boldsymbol{h}^{\text {dep }}, \boldsymbol{h}^{\text {head }} \in \mathbb{R}^{d}$ はそれぞれ従属部(dependent)と主辞 (head) の $d$ 次元ベクトルであり, ニューラルエンコーダ6)を通して得られる. 関数 $g$ として, 2 本のベクトルの相互作用を効果的にとらえられる演算が望ましい,本稿では知識ベースにおける関係の表現学習の知見 $[16,17,18]$ から, 主要な手法のひとつである乗法的(multiplicative)合成を採用する. ${ }^{7)}$ $ \boldsymbol{g}_{\text {mul }}\left(\boldsymbol{h}_{i}^{\text {dep }}, \boldsymbol{h}_{j}^{\text {head }}\right)=\boldsymbol{W}\left(\boldsymbol{h}_{i}^{\text {dep }} \odot \boldsymbol{h}_{j}^{\text {head }}\right) $ ここで, ベクトルの要素積(๑)によって相互作用を考慮し,パラメータ行列 $\boldsymbol{W} \in \mathbb{R}^{d \times d}$ を用いた線形変換によってべクトルを合成する. 5)シングル GPU を用いた事前実験では,NCA で長い文を学習する際にメモリオーバーになり,実験が完了できなかった。 6)付録 A. 2 を参照. 7)もうひとつの主要な手法である加法的(additive)合成も試したが,事前実験において予測性能が乗法的合成と比べて大幅に劣る結果となった。 表 1: 各テストデータにおけるラベルなし正解率. ## 3 実験と考察 ■データセット.標準的なベンチマークデータである英語の PennTreebank (PTB) [19] と Universal Dependencies (UD) [20] に含まれる多言語データセッ卜を使用する. 特に UD では, 先行研究 [21] に従い,語族やデータ量などの多様性を考慮した 13 言語のデータセットを使用する.8) ロエンコーダ. BERT [22] を用いて計算した各トー クンの特徴表現を双方向 LSTM [23] に入力し, その隠れ層から式 4 中の $\boldsymbol{h}^{\text {dep }}$ と $\boldsymbol{h}^{\text {head }}$ を計算する。これは,実験に用いる全システムに共通である. ${ }^{9)}$ 【正解率の比較. 表 1 は 6 つのシステムの正解率 (unlabeled attachment score) ${ }^{10)}$ を表している. システム $(\alpha)$ と $(\beta)$ は学習・推論時ともに重みベーススコ了(式 3)を用いた一般的な解析システムである. これらのシステム間で類似度関数の違いによる正解率の差は見られなかった. システム (a) と (b) は, 学習時は重みベーススコア(式 3)を用い,推論時は事例ベーススコア(式2)を用いている.内積(dot) を類似度関数として用いた (a) は,通常のシステム $(\alpha)$ と $(\beta)$ と同等の正解率を保つことに成功している. 対照的に,コサイン類似度(cos)を用いた (b) では正解率が大きく劣化している. システム (c) と (d) は,学習・推論時ともに事例べーススコア(式 2) を用いている。これらのシステムも,一般的な解析システム $(\alpha)$ と $(\beta)$ と同等の正解率を保っている. また,事例ベーススコアを学習・推論時に一貫して使用する場合は,類似度関数の違いが大きな正解率の差を生むわけではないこともわかった。これらの予測性能を見ると,事例ベース推論を採用したシステムとして (a)と (c) と (d) が良いように思われる.以降で,各システムの挙動をより詳細に分析する。 8)各言語のデータセットの詳細は付録 A. 1 の表 5 を参照. 9)モデルやハイパーパラメータ,実験設定の詳細については付録 A. 2 を参照 10)UD (avg.) は,全テストデータの正解率のマクロ平均である. 各テストデータの正解率は付録 A. 3 の表 7 を参照. & \\ 表 2: 各システムにおける $N_{10}$ 上位 3 件の実例. 図 1: $N_{10}$ の上位 100 事例のプロット. 近傍に出現する学習事例の偏り。事例ベース推論を取り入れたシステム (a)〜 (d) において,実際に予測に使われた近傍事例を分析する。具体的には,各学習事例 $\left.\langle x_{b}, x_{a}\right.\rangle$ が開発データの各事例 $\left.\langle w_{j}, w_{i}\right.\rangle$ の類似度上位 $k$ 位以内に選出された回数(近傍選出回数) $N_{k}\left(\left.\langle x_{b}, x_{a}\right.\rangle\right)[24,25]$ を分析する.この近傍選出回数が極端に高い学習事例をハブと呼ぶ [24]. 本稿では,どのような学習事例がハブとなり,それらの事例は説明性(特に人間の納得度 plausibility [26]) の観点から見た時に有用であるかを調べる. 分析には UD-English データを用いた. 表 2 は $N_{10}$上位 3 件の学習事例を示している. システム (a)では,ROOT を主辞とする学習事例ばかりが開発デー タの近傍事例として選出され, システム (c)では, instead of や due to, because of のような定型表現が頻繁に選出される傾向が見られた。このような一部の学習事例が,開発データ内の大多数の事例の説明として人間にとって納得のいくように機能するとは言い難い。これは,事例ベース推論がいつでも有益な説明を与えるというわけではないことを示唆する. 表 3: Zero-shot ラベルあり依存構造解析の正解率. 対照的に,コサイン類似度を採用したシステム (b) と (d) では,一定の事例に極端な偏りは見られない.図 1 は, $N_{10}$ の高い学習事例上位 100 事例を $\log _{10}$ スケールで降順にプロットしたものである.類似度関数として内積を用いたシステム (a)と (c)の場合, 近傍選出回数に大きな偏りがあり, ハブが出現していることがわかる. 偏りの原因のひとつとして, 学習事例の特徵べクトルの長さ(L2ノルム)が挙げられる. たとえば,表 2 中の $\langle$ ROOT, find $\rangle$ のノルムは 180.4 であるのに対し, $N_{10}$ 順位 100 位の〈horse, a〉は 75.5 であった. このように, $N_{k}$ 順位上位の一部の事例は, その他の事例よりもノルムが大きくなるという傾向が見られた。コサイン類似度を用いる場合,ノルムを正規化しているため, $N_{k}$ の偏りは観測されなかった. ロクエリ事例と近傍事例の類似性. 類似性を議論する上で重要なのは, 「どのような観点で類似しているか」である. 多様な観点があり得るが, 本研究では,依存構造の関係ラベルの観点でクエリ事例と近傍事例が類似しているかを調査する。データセット中の各エッジ $\left.\langle w_{j}, w_{i}\right.\rangle$ には, 人間が定義した関係ラベルセットのうちのひとつ $r \in R$ が付与されている.したがって,同一の関係ラベルを付与されているエッジ同士は,異なるラベルを付与されているエッジ同士よりも,各関係ラベルの定義やラベルセットの設計思想の観点から人間が見れば類似している(より多くの特徵を共有している)と言える. そこで,クエリ事例と近傍事例の持つ関係ラベルの一致率を測定し,それらの事例が人間にとっても類似していると言えるかを近似的に評価する.11) まず,構築した各システムを用いて開発データ内の文を解析する.次に,得られたエッジ(クエリ事例)と最も類似度の高い学習事例(最近傍事例)を選出する. 最後に, クエリ事例と最近傍事例に付与されている関係ラベルが同じなら正解12) とみなす. 11)実際に人間の感じる類似性とどの程度相関するかを調査することは今後の課題とする。 12)そもそも同定したエッジが不正解であった場合は,そのまま不正解とみなす。 表 4: システム (d) によるエッジ検索の実例. この設定は,関係ラベルを学習に用いないため,「Zero-shot ラベルあり依存構造解析」とみなせる. 表 3 に関係ラベルの正解率 (labeled attachment score)を記す。関係ラベルを学習に用いていないにも関わらず,コサイン類似度を採用したシステム (b) と (d) は,多くのクエリ事例に対して同一の関係ラベルを持つ学習事例を最近傍事例として選出している. 特にシステム (d) は PTB において $70 \%$ を超える正解率を達成している。これらの結果から,コサイン類似度に基づいて選出した事例は, 関係ラベルセットの観点から見た時,クエリ事例と類似していることが示唆された。 最後に,これまでの分析を踏まえると最良であるシステム (d) の最近傍事例を表 4 に示す。一行目の例のように,クエリ事例の主辞または従属部が機能語(この例では If)である場合に,同一の関係ラべルを持つ事例を正しく検索できている傾向が見られた。また,二行目の例のように,クエリ事例の主辞が名詞(この例では appeal)である場合, 関係ラべルに関わらず,名詞を主辞(この例では staff)とするような事例が近傍にくる傾向が見られた. 評価 ・分析のまとめ. 次の知見を得た: (i) 提案した事例ベースシステムは一般的なシステムと同等の性能を保つことができる, (ii) 類似度関数に内積を使うと, 説明性(人間の納得度)の観点で望ましくないハブが出現する, (iii) コサイン類似度に基づいて学習・検索した場合, 関係ラベルの観点で類似している事例が近傍に出現する傾向がある. 今後の展開. 本研究のエッジ特徴ベクトルを用いることによって,単語レベルの類似度に基づく検索を超えた,依存関係レベルの類似度に基づく検索が可能になる. 同様に, 2 文間の依存構造のソフトなマッチングが可能であるため,同義文判定や文書検索などの下流タスクへの応用も考えられる. 謝辞. 本研究は JSPS 科研費 19K20351, 19H04162 の助成を受けたものです. ## 参考文献 [1] Tao Lei, Regina Barzilay, and Tommi Jaakkola. Rationalizing neural predictions. In Proceedings of EMNLP, pp. 107-117, 2016. [2] Janet L Kolodneer. Improving human decision making through case-based decision aiding. AI magazine, Vol. 12, No. 2, pp. 52-52, 1991 [3] Marco Tulio Ribeiro, Sameer Singh, and Carlos Guestrin. Why should i trust you?: Explaining the predictions of any classifier. In Proceedings of KDD, pp. 1135-1144, 2016. [4] Scott M Lundberg and Su-In Lee. A unified approach to interpreting model predictions. In Proceedings of NIPS, pp. 4765-4774, 2017. [5] Christoph Molnar. Interpretable Machine Learning. 2019. https://christophm.github.io/ interpretable-ml-book/. [6] Sam Wiseman and Karl Stratos. Label-agnostic sequence labeling by copying nearest neighbors. In Proceedings of $A C L$, pp. 5363-5369, July 2019. [7] Hiroki Ouchi, Jun Suzuki, Sosuke Kobayashi, Sho Yokoi, Tatsuki Kuribayashi, Ryuto Konno, and Kentaro Inui. Instance-based learning of span representations: A case study through named entity recognition. In Proceedings of $A C L$, pp. 6452-6459, Online, July 2020. Association for Computational Linguistics. [8] Xingxing Zhang, Jianpeng Cheng, and Mirella Lapata. Dependency parsing as head selection. In Proceedings of EACL, pp. 665-676, April 2017. [9] Timothy Dozat and Christopher D Manning. Deep biaffine attention for neural dependency parsing. In Proceedings of ICLR, 2017. [10] Kazuma Hashimoto, Caiming Xiong, Yoshimasa Tsuruoka, and Richard Socher. A joint many-task model: Growing a neural network for multiple NLP tasks. In Proceedings of EMNLP, pp. 1923-1933. Association for Computational Linguistics, September 2017. [11] Jacob Goldberger, Geoffrey E Hinton, Sam T Roweis, and Ruslan R Salakhutdinov. Neighbourhood components analysis. In Proceedings of NIPS, pp. 513-520, 2005. [12] Rajeev Ranjan, Carlos D Castillo, and Rama Chellappa. L2-constrained softmax loss for discriminative face verification. arXiv preprint arXiv:1703.09507, 2017. [13] Weiyang Liu, Yandong Wen, Zhiding Yu, Ming Li, Bhiksha Raj, and Le Song. Sphereface: Deep hypersphere embedding for face recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 212-220, 2017. [14] Hao Wang, Yitong Wang, Zheng Zhou, Xing Ji, Dihong Gong, Jingchao Zhou, Zhifeng Li, and Wei Liu. Cosface: Large margin cosine loss for deep face recognition. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 5265-5274, 2018. [15] Jiankang Deng, Jia Guo, Niannan Xue, and Stefanos Zafeiriou. Arcface: Additive angular margin loss for deep face recognition. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 46904699, 2019. [16] Antoine Bordes, Nicolas Usunier, Alberto Garcia-Duran, Jason Weston, and Oksana Yakhnenko. Translating embeddings for modeling multi-relational data. Advances in neural information processing systems, Vol. 26, pp. 27872795, 2013. [17] Bishan Yang, Wen-tau Yih, Xiaodong He, Jianfeng Gao, and Li Deng. Embedding entities and relations for learning and inference in knowledge bases. 2015. [18] Maximilian Nickel, Lorenzo Rosasco, and Tomaso Poggio. Holographic embeddings of knowledge graphs. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 30, 2016. [19] Mitchell P. Marcus, Beatrice Santorini, and Mary Ann Marcinkiewicz. Building a large annotated corpus of English: The Penn Treebank. Computational Linguistics, Vol. 19, No. 2, pp. 313-330, 1993. [20] Ryan McDonald, Joakim Nivre, Yvonne QuirmbachBrundage, Yoav Goldberg, Dipanjan Das, Kuzman Ganchev, Keith Hall, Slav Petrov, Hao Zhang, Oscar Täckström, Claudia Bedini, Núria Bertomeu Castelló, and Jungmee Lee. Universal Dependency annotation for multilingual parsing. In Proceedings of ACL, pp. 92-97, 2013. [21] Artur Kulmizev, Miryam de Lhoneux, Johannes Gontrum, Elena Fano, and Joakim Nivre. Deep contextualized word embeddings in transition-based and graph-based dependency parsing - a tale of two parsers revisited. In Proceedings of EMNLP-IJCNLP, pp. 2755-2768, November 2019. [22] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of NAACL-HLT, pp. 4171-4186, 2019. [23] Alan Graves, Navdeep Jaitly, and Abdel-rahman Mohamed. Hybrid speech recognition with deep bidirectional LSTM. In Proceedings of Automatic Speech Recognition and Understanding (ASRU), 2013 IEEE Workshop, 2013. [24] Milos Radovanovic, Alexandros Nanopoulos, and Mirjana Ivanovic. Hubs in space: Popular nearest neighbors in high-dimensional data. Journal of Machine Learning Research, Vol. 11, No. sept, pp. 2487-2531, 2010. [25] Yutaro Shigeto, Ikumi Suzuki, Kazuo Hara, Masashi Shimbo, and Yuji Matsumoto. Ridge regression, hubness, and zero-shot learning. In Joint European Conference on Machine Learning and Knowledge Discovery in Databases, pp. 135-151. Springer, 2015. [26] Alon Jacovi and Yoav Goldberg. Towards faithfully interpretable NLP systems: How should we define and evaluate faithfulness? In Proceedings of ACL, pp. 4198-4205, July 2020. [27] Edouard Grave, Piotr Bojanowski, Prakhar Gupta, Armand Joulin, and Tomas Mikolov. Learning word vectors for 157 languages. In Proceedings of the International Conference on Language Resources and Evaluation (LREC 2018), 2018. [28] D.P. Kingma and J. Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014. ## A 付録 ## A. 1 データセットの詳細 表 5: 実験に使用した各言語のUD データセット。「語族」の列の IE は Indo-European を表す。「語順」 の列は各言語における一般的な語順を示す.「学習データ」は文数を千単位(k)で表す. Universal Dependencies (UD) の最新バージョン $2.7^{13)}$ を用いた. 表 5 に各データの統計情報を記す。 ## A. 2 モデルと実験設定の詳細 表 6: 実験に使用したハイパーパラメータ。 式 4 を再喝する: $\boldsymbol{h}_{\langle j, i\rangle}=g\left(\boldsymbol{h}_{i}^{\text {dep }}, \boldsymbol{h}_{j}^{\text {head }}\right)$. 文を入力したところから,この式中の $\boldsymbol{h}^{\mathrm{dep}}$ と $\boldsymbol{h}^{\text {head }}$ を作るまでの流れを記述する。まず,入力文の系列 $X=\left(x_{0}, x_{1}, \ldots, x_{T}\right)^{14)}$ を, 単語埋め込み, 文字畳み込みニューラルネットワーク (CNN), BERT [22] を用いてベクトル表現の系列に変換する。各トー クンに単語埋め込み表現15)を割り当てた系列を  $\boldsymbol{w}_{0: T}=\left(\boldsymbol{w}_{0}, \boldsymbol{w}_{1}, \ldots, \boldsymbol{w}_{T}\right)$ と表す. 各トークンを文字 $\mathrm{CNN}$ で変換した系列を $\boldsymbol{c}_{0: T}=\left(\boldsymbol{c}_{0}, \boldsymbol{c}_{1}, \ldots, \boldsymbol{c}_{T}\right)$ と表す。各トークンに BERT の表現を割り当てた系列を $\boldsymbol{b}_{0: T}=\left(\boldsymbol{b}_{0}, \boldsymbol{b}_{1}, \ldots, \boldsymbol{b}_{T}\right)$ と表す16). これらの表現を各トークン $x_{t}$ ごとに結合して,トークン表現 $\boldsymbol{x}_{t}=\left[\boldsymbol{w}_{t} ; \boldsymbol{c}_{t} ; \boldsymbol{b}_{t}\right]$ を得る. 次に, トークン表現系列 $\boldsymbol{x}_{0: T}=\left(\boldsymbol{x}_{0}, \boldsymbol{x}_{1}, \ldots, \boldsymbol{x}_{T}\right)$ を双方向 LSTM に入力し, その隠れ層のベクトル表現の系列 $\overrightarrow{\boldsymbol{h}}_{0: T}=\left(\overrightarrow{\boldsymbol{h}}_{0}, \overrightarrow{\boldsymbol{h}}_{1}, \ldots, \overrightarrow{\boldsymbol{h}}_{T}\right)$ と $\overleftarrow{\boldsymbol{h}}_{0: T}=$ $\mathbb{R}^{d}$ はそれぞれ $d$ 次元の前向きと後向きの LSTM の隠れ層を表す。これらの表現を結合して,各トークンの表現 $\boldsymbol{h}_{t}^{\text {lstm }}=\left[\overrightarrow{\boldsymbol{h}}_{t} ; \overleftarrow{\boldsymbol{h}}_{t}\right] \in \mathbb{R}^{2 d}$ を得る. 最後に, ベクトル系列 $\boldsymbol{h}_{0: T}^{\text {lstm }}=\left(\boldsymbol{h}_{0}^{\text {lstm }}, \boldsymbol{h}_{1}^{\text {lstm }}, \ldots, \boldsymbol{h}_{T}^{\text {lstm }}\right)$ の各ベクトルを変換し, 式 4 中の表現 $\boldsymbol{h}_{t}^{\mathrm{dep}}=$ $\boldsymbol{W}^{\text {dep }} \boldsymbol{h}_{t}^{\text {lstm }}$ と $\boldsymbol{h}_{t}^{\text {head }}=\boldsymbol{W}^{\text {head }} \boldsymbol{h}_{t}^{\text {lstm }}$ を得る. ここで, $\boldsymbol{W}^{\mathrm{dep}} \in \mathbb{R}^{d \times 2 d}$ と $\boldsymbol{W}^{\text {head }} \in \mathbb{R}^{d \times 2 d}$ はそれぞれ, $\boldsymbol{h}_{t}^{\mathrm{dep}} \in \mathbb{R}^{d}$ と $\boldsymbol{h}_{t}^{\text {head }} \in \mathbb{R}^{d}$ に変換するための重み行列である. 実験に使用したハイパーパラメータは表 6 に記す. ## A. 3 結果の詳細 } & \multicolumn{2}{|c|}{ 重み } & \multicolumn{2}{|c}{ 事例 } & \multicolumn{2}{|c}{ 事例 } \\ 類似度 & dot & $\cos$ & dot & cos & dot & cos \\ UD-Basque & 85.1 & 85.4 & 85.1 & 80.2 & 85.3 & 85.0 \\ UD-Chinese & 85.9 & 85.5 & 85.9 & 79.3 & 86.1 & 85.7 \\ UD-English & 90.8 & 90.9 & 90.8 & 85.8 & 91.1 & 90.8 \\ UD-Finnish & 89.4 & 89.3 & 89.4 & 84.2 & 89.5 & 89.5 \\ UD-Hebrew & 89.7 & 89.4 & 89.7 & 82.6 & 89.9 & 89.5 \\ UD-Hindi & 94.8 & 94.9 & 94.8 & 90.0 & 94.9 & 94.8 \\ UD-Italian & 94.3 & 94.0 & 94.3 & 86.5 & 94.3 & 94.2 \\ UD-Japanese & 94.3 & 94.4 & 94.3 & 91.0 & 94.6 & 94.5 \\ UD-Korean & 87.9 & 88.0 & 88.0 & 85.1 & 88.2 & 88.2 \\ UD-Russian & 94.2 & 94.2 & 94.2 & 54.6 & 94.3 & 94.1 \\ UD-Swedish & 90.3 & 90.3 & 90.3 & 87.8 & 90.6 & 90.2 \\ UD-Turkish & 73.1 & 73.5 & 73.1 & 70.7 & 73.7 & 73.6 \\ UD (avg.) & 89.1 & 89.0 & 89.1 & 81.2 & 89.3 & 89.1 \\ 表 7: 各テストデータにおける正解率. 表 7 に全テストデータの正解率を記す。各正解率は,異なるランダムシードを用いて独立に学習した 3 つのモデルの平均正解率である.  \in X$ をサブワード分割してから BERT でエンコードする. ここで,各トークン $x_{t}$ の先頭のサブワードに対するべクトル表現(BERTの最終層の表現)を $\boldsymbol{b}_{t}$ とする. この表現は学習時に更新せず,固定のものを使用する. }
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D4-1.pdf
# 仮想的な誤りタイプの割り当てによる解説文生成の性能向上 永田 亮 甲南大学/JST さきがけ nagata-nlp2021 @ ml.hyogo-u.ac.jp. } 塙 一晃 理研 AIP/東北大学 kazuaki.hanawa@riken.jp ## 1 はじめに 本稿では,解説箇所を精緻に認識することで解説文生成の性能を改善する汎用的な手法について述べる. 解説文生成とは,与えられた文章に対して解説する箇所を決定し,ライティングに関する解説を生成するタスクである [8]. 例えば,図 1 であれば,解説対象文 $(\mathrm{S} 1) \sim(\mathrm{S} 3)$ の赤い下線部が解説箇所, (C1) (C5) が対応する解説文である. 解説文生成の性能は,解説箇所の推定精度に大きく左右される。 5 で示すように,推定した解説箇所とオラクルの解説箇所とでは, 生成性能に大きな差が生まれる.このことは,解説箇所推定に成功すると,解説文の生成にも成功する傾向にあることを示唆する。また,解説すべきでない箇所に対しては,どのような解説文を生成しても誤生成となることは明らかである. 解説箇所推定の改善法として,文法誤り情報付きコーパス $[11,13,12]$ や疑似誤り生成 [17] を流用することが考えられるが,訓練データの不一致という問題が生じる. 訓練データの不一致とは,解説箇所の訓練事例は存在するが対応する解説文が訓練デー タとして存在しないことをいう。例えば,疑似誤り生成で,『make+人 $+t o$ 不定詞』のような使役動詞に関する誤り箇所が大量に得られたとしても,(C1) や (C2) のような関連した解説文が訓練データになければ,適切な解説文を生成することは困難である. そのような場合に無理に生成を行うと,無関係な解説文が生成されることは容易に想像できる. 解説文生成においては,類似解説文が訓練データに存在する (言い換えれば,解説が可能な)ときのみ,解説箇所として同定することが重要となる. そこで,本稿では,与えられた訓練データのみを用いて解説箇所推定の性能を向上させる手法を提案する(図 1 に基本アイデアを示す)。提案手法は,「同じ誤りタイプに分類される解説箇所は表層上類似した解説がなされる.」という仮説に基づく. 例えば,図 1 では,(C1) と (C2) および (C3) と (C4) は同じタイプの誤り箇所に対する解説文であり, 表層上類似している。この仮説が正しければ,解説文間の類似度を手掛かりにして,解説箇所を誤りタイプごとにまとめ上げることができるはずである.複数の解説箇所を同一の誤りタイプとすることにより,「『使役動詞 + 人 $+t o$ 不定詞』は解説箇所である」のような規則の獲得が促進されると期待できる。具体的な処理として,表層類似度に基づいて解説文をクラスタリングし,その結果得られたクラスタに仮想的な誤りタイプを割り当てる。得られた仮想誤りタイプを,訓練時に,解説箇所のラベルとして利用する. ここで強調しておきたいのは,あくまでも用いるのは仮想的な誤りタイプであるという点である.誤りの分類を人手で行う必要はないし,そもそも,なんらかの誤りの分類体系を仮定する必要もない,必要なのは,解説文が付与された英文データのみである.そのため,提案手法は幅広い機械学習アルゴリズムに汎用的に適用可能である. 本研究の貢献は次の三点である. 第一に,仮想的な誤りタイプを自動的に決定し,解説箇所推定の性能を向上させる手法を提案する.基本的には解説文のクラスタリングというシンプルなアイデアに基づくが,解説文の言語的特徴を考慮した手法としている. 第二に,提案手法が解説箇所推定と解説文の生成の両方に有意に効果があることを示す. 第三に,実験結果の分析を通じて,仮想誤りタイプにより性能が向上する理由を明らかにする。 ## 2 関連研究 解説文付きコーパスが利用可能になりつつある.文献 $[8,9]$ では,既存の学習者コーパスに対して,解説箇所と解説文の付与が行われている. 文献 [14] では, linking word の用法に着目した解説文を含む学習者コーパスを構築している。 コーパスの公開と共に,解説文生成手法も増えつつある.ルールに基づいた手法 $[5,10]$ ,テンプレー 卜に基づいた手法 [7],検索に基づいた手法 [8] など 解説対象文 (S1) It makes students to study. (S2) They let their child to go college. (S3) They came the place by foot. 図 1 提案手法の基本アイデア:同じ色の解説文は表層類似度が高く,同じクラスタに分類されることを意味する. が知られている。より一般的には,解説文生成は,解説対象文と解説箇所を入力とした言語生成問題と捉えることができる. したがって,各種のニューラル言語生成モデルが本タスクに適用可能である。そのような研究に文献 [19] がある. ## 3 解説箇所推定手法 提案手法は,次の 5 ステップからなる: Step (1) 解説文間距離の算出 Step (2) 仮想誤りタイプの同定 Step (3) 仮想誤りタイプの訓練データへの反映 Step (4) 解説箇所推定モデルの訓練 Step (5) 解説箇所の推定 なお,5 の実験で用いるデータセットを踏まえ,以降は, 解説対象文と解説文はそれぞれ英語と日本語であるとする.ただし,提案手法は解説対象文,解説文とも言語を選ばない汎用的な手法である. Step (1) では,訓練データとして与えられた解説文の全ての組み合わせに対して距離を計算する。1 で述べたように,表層上類似した解説文をまとめ上げたいので,編集距離1)を距離の基礎とする.ただし, 解説文の言語的特徵を考慮するため, 次の二つの工夫を行う. まず,解説文中の英単語列を特殊トークン(例: E1)に置換する2). 表層が同じ英単語列は同じ特殊トークンに置換する。例えば,図 1 の (C2)は,「使役動詞 $E 1$ を使った使役構文は $E 1+E 2+$ 動詞原形の形になります。」のようになる.この処理には,参照している英単語は異なるが内容は類似する解説文間の編集距離を小さくする効果がある. 二つ目の工夫として,文間のアライメントをとり距離を求める.この処理は,文数が異なる解説文間の編集距離が必要以上に大きくなるのを避けるため  に行う. 例えば,図 $1(\mathrm{C} 1)$ と (C2) は同種の誤りに対する解説文であるが,前者は二文からなるため,その分,編集距離は大きくなる.しかしながら,一文目のみに注目すると編集距離はずっと小さい。この問題を解決するために,編集距離が小さい文の組から順にアライメントする。ただし,一つの文は最大でも一つの文にしかアライメントできないとする. (C1),(C2)では,一文目同士がアライメントされ, (C1) の二文目はアライメントされない. 最終的な距離は,アライメントされた文間の編集距離の平均とする.したがって,(C1),(C2)では,一文目のみで距離が決定されることになる. Step (2) では,算出した距離を用いて解説文をクラスタリングする。クラスタリングの結果得られる各クラスタに,仮想的な誤りタイプ(例えば連番) を割り当てる。ただし,メンバ数が一定数以下のクラスタについては,解説箇所の推定が困難になることが予想されるため,まとめて一つの誤りタイプとする(以降,デフォルト誤りタイプと表記)クラスタリングには,階層型クラスタリングの一種である single linkage clustering [3] を用いる。クラスタ間の距離に single linkage を用いるのは,同一内容の解説文でも様々な表層になりえることを考慮してのことである。すなわち,クラスタ内に一つでも類似した解説文が存在すれば,同じタイプの誤りとして認めるという方針である.クラスタリングの終了条件は,全てのクラスタ間の距離が閾値以上となったときとする. Step (3) では, Step (2) で得られた仮想誤りタイプの情報を訓練データの解説箇所に反映する.単純に,仮想誤りタイプを訓練データ中の対応する解説箇所にラベルとして付与する. Step (4) では,上述の訓練データを用いて解説箇所推定モデルの訓練を行う.解説箇所推定モデルとして,任意の分類(もしくは系列ラベリング)のための機械学習アルゴリズムを用いることができる. 本稿では,BiLSTM を用いた誤り検出手法 [6] を採用する. ネットワークの構成とハイパパラメータは付録 B に示すとおりである. 最終的に Step (5) で,解説箇所の推定を行う. 特別な処理はなく,通常の推論を行うだけである. ## 4 解説文生成手法 3 で提案した手法を用いると,解説すべきかどうかの情報だけでなく,(仮想的な)誤りタイプの情報も得られる。この情報は,解説文生成にも有益であると予想される.幸いなことに,ニューラル言語生成モデルであれば,仮想誤りタイプの利用は容易である。本稿では,仮想誤りタイプの情報を分散表現としてデコーダへ入力する方法を採る. ニューラル言語生成モデルとして,解説文生成の従来手法 [19] を参考にして, pointer-generator network [15] を利用する. ただし, 解説文生成用に次の二つの変更を加える(ネットワークの構成は付録 B の図 2 に示す). 解説箇所を考慮して解説文を生成するように, 解説箇所に対応するエンコーダの隠れ状態3)をデコーダの初期状態とする。 また,仮想誤りタイプもデコーダの初期状態とする. ## 5 評価実験 二つの観点(解説箇所推定と解説文の生成)で提案手法を評価した. 両評価とも, 前置詞解説文デー タセット [9]を用いた. 同データは,トピック「アルバイト」(英文数 14,334 ; 解説箇所 2,906 )と「喫煙」(英文数 14,495; 解説箇所 2,785)について書かれたエッセイを収録する.このデータをエッセイ単位で,85\%,7.5\%,7.5\%の割合で分割し,それぞれ訓練,開発,評価データとした(詳細は付録 $\mathrm{A}$ に示す). 前置詞解説文では, 1 単語からなる解説箇所が大部分を占める. 解説箇所が複数単語にわたる場合は,中央の単語4)を解説箇所とし,常に解説箇所が 1 単語となるようにした。 各モデルの訓練はトピックごとに行った. 仮想誤りタイプを得るためのクラスタリングでは,クラスタ間距離の閾値 0.10 と 0.15 , 最小クラスタメンバ数 3 と 5 を用いて, 開発データで解説箇所推定の $F_{1.0}$值が最大となる組み合わせを選択した. ネットワー クのハイパパラメータの値も同様に決定した(詳細を付録 B に示す)。 3)解説箇所が複数単語からなる場合は平均ベクトルとする. 4)解説箇所の単語数が偶数となる場合は中央左側の単語を解説箇所とした.比較のため,仮想誤りタイプを用いない手法の性能も評価した. 仮想誤りタイプ以外は提案手法と同一とした. 以降では,表記を簡潔にするため,この手法を便宜的に従来手法と呼ぶことにする。 評価尺度として recall, precision, $F_{1.0}$ を用いた。解説箇所推定については,仮想誤りタイプの一致までは見ず,解説箇所かどうかの 2 值分類として評価した. 解説文の生成については, 第一著者と第二著者が,正解の解説文を参照しながら適切な解説文かどうかを独立に判定した. 不一致箇所は相談の上,最終的な評価を決定した。 表 1 に「アルバイト」と「喫煙」に対する出力をまとめてから性能值を求めた結果を示す(個別の評価結果は付録 C に示す)。この表から,仮想誤りタイプにより, recall, precisionともに改善することがわかる. 実際, $F_{1.0}$ の差は,どちらのタスクにおいても有意であった (permutation test ; $p=0.002$ (解説箇所推定), $p=0.041$ (解説文生成)). 参考として,オラクルの解説箇所に対する従来手法の生成性能を評価したところ, $F_{1.0}=0.43$ となり,推定した場合とでは大きな差があることが明らとなった.この值は,ある意味での性能限界と捉えることができる. 提案手法は, 従来手法と同一の訓練データを使用しているにもかかわらず,従来手法の性能と性能限界の中間地点付近まで性能を改善していると解釈することもできる. ## 6 考察 実駼結果を分析したところ,提案手法で解説箇所推定に成功し, かつ, 仮想誤りタイプが出力できたのは 72 箇所であった. その内 62 箇所については従来手法でも推定に成功した. したがって,仮想誤りタイプが出力できる箇所は, 従来手法でも解説箇所推定に成功する傾向にあるといえる。デフォルト誤りタイプでなく仮想誤りタイプが出力されるということは,同種の誤り事例がそれなりの数,訓練デー タに存在することを意味する。なぜなら,メンバ数が一定以のクラスタのみを仮想誤りタイプとして採択するからである. 訓練事例が一定数ある誤りを解 表 1 性能評価結 ( $R$ : Recall, $P$ : Precision). 説箇所として認識するのは比較的容易であろう。 では,なぜ提案手法の性能は良いのであろう.実は,上述の理由が従来手法における precision の低下も説明する。一定数事例がある場合,規則の過剩一般化を引き起こすこともある.最悪の場合,解説箇所周辺の数単語を誤って規則としてしまう. 実験結果からは,そのような傾向が確認された. 例えば, “concentrating our attention on studying" のような誤検出が確認できた.訓練データに“attention on” という誤りが多数5)あるため,この単語列を規則とした可能性が高い6).一方,仮想誤りタイプを利用すると,複数の事例を一つの誤りタイプとして認識できるため, 解説箇所とそうでない箇所の相違がより明確になる. 例えば, "pay attention on" や "pay attention for" などが同じ誤りタイプと認識されたため,この種の誤りが成立する必要条件に on は含まないと学習される可能性が高い(相対的に, payが含まれる可能性が高くなる). 同様な例として, 従来手法では, “We can just set a smoking place." を誤検出した (『助動詞 $+t$ 不定詞』を過剩に一般化した結果であると分析できる)。一方,提案手法では,“can/must/will to 不定詞” など,必ず $t o$ を含んだ解説箇所が仮想誤りタイプのメンバとなったため, 事例間の共通点を学習するのがより容易である. 仮想誤りタイプにより recall が向上する例も確認できた (例: “smoking is banned at anywhere", “must to $s e t "$ ”).こちらも上と同様に説明できる. 例えば,前者の場合は,訓練データに,"banned at all the restaurants”を含む文が 463 もあるため ${ }^{7)}$, 従来手法では,単語列 “banned at”は正しいと判定する規則が獲得された可能性が高い。一方,提案手法では仮想誤りタイプにより,“at/in anywhere/somewhere”などが同じ誤りタイプにまとめられたため,適切な規則『前置詞+anywhere のような単語』が獲得されたと分析できる. 仮想誤りタイプと同様な効果がマルチタスク学習により得られる可能性がある。すなわち,解説箇所推定と生成を同時に行うネットワークである. 実際に,従来手法の二つのネットワークを組み合わせた手法を評価したところ,解説箇所推定で $F_{1.0}=0.41$ 5)例えば,「アルバイト」では少なくとも 8 例確認できる. 6)ニューラルネットを用いているので,実際にこのようなハードな規則が獲得されているわけではないが,出力を分析するとそのような振る舞いが観測される。 7)トピック「喫煙」は,正確には “Smoking should be completely banned at all the restaurants in the country." という英文で与えられる.そのため,書き手は同様な表現を頻繁に使用している. となり,従来手法の性能すら超えられなかった。解説文は表層のバリエーションが多く(図 1(C1) のようにオプショナルな情報を含むもの多い),訓練事例が独立に与えられるマルチタスク学習の設定では,解説文間の類似性を正確に把握するのはより難しい,言い換えれば,提案手法のように,文間のアライメントをとり直接的に類似度を算出することが重要となる. 更に,限られた訓練データで,より複雑なネットワークの訓練を行うことの難しさも理由として挙げられる. 解説文の生成における仮想誤りタイプの効果も顕著である. 仮想誤りタイプが出力された箇所とデフォルト誤りタイプが出力された箇所の生成正解率は,それぞれ $71.8 \%$ と1.7\%であり,大きく異なる. ただし,上述のとおり,仮想誤りタイプは一定数以上の訓練事例があることを意味するので,(頻度という意味で)比較的生成が容易な事例であることに注意する必要がある. すくなくとも,仮想誤りタイプが推定できた場合は,解説文の生成にも正解する可能性が高いということはいえる.このことは,1 で述べた解説文生成における要件「解説可能なときのみ解説箇所として同定することが重要」を満たすという点で好ましい特性である。 一方で,仮想誤りタイプ内の事例が同一の解説文に偏ったため生成の柔軟性が失われる傾向も確認した. 例えば,「most of の後ろにはある特定の集団が入ります。単に学生一般を指す場合は、mostを名詞ではなく形容詞として使いましょう。」という解説文の数が非常に多く, 同種の別の誤り (例 : most of people)に対しても,「学生一般」という表現を生成してしまっていた (本来は,「人々一般」などを生成しなければならない). この例のように,少し書き換えると適切になる解説文も正しいと認めると生成正解率が $71.8 \%$ から $80.0 \%$ まで向上した。一方, デフォルト誤りタイプが出力された箇所の正解率は $41.7 \%$ から $45.5 \%$ となり変化が少ない.このことからも,上述の傾向が確認できる。 ## 7 おわりに 本稿では, 解説文の言語的特徴を利用して仮想誤りタイプを割り当て, 解説箇所推定と解説文生成の性能を向上させる手法を提案した. 提案手法は, シンプルかつ汎用的な手法にもかかわらず,両タスクの性能を有意に改善することを示した.また,実験結果の分析により, 性能改善の理由を示した. ## 参考文献 [1] Bies, Ann, et al. English web treebank LDC2012T13. Web Download, 2012. [2] Daniel Blanchard et al. ETS corpus of non-native written English, ldc2014t06. web download, 2014. [3] J.C. Gower and G.J.S. Ross. Minimum spanning trees and single linkage cluster analysis. Journal of the Royal Statistical Society. Series C (Applied Statistics), Vol. 18, No. 1, pp. 54-64, 1969. [4] Sylviane Granger. The international corpus of learner English. In English language corpora: Design, analysis and exploitation, pp. 57-69. Rodopi, 1993 [5] Jun'ichi Kakegawa, Hisayuki Kanda, Eitaro Fujioka, Makoto Itami, and Kohji Itoh. Diagnostic processing of Japanese for computer-assisted second language learning. In Proc. of 38th Annual Meeting of the Association for Computational Linguistics, pp. 537-546, 2000. [6] Masahiro Kaneko, Yuya Sakaizawa, and Mamoru Komachi. Grammatical error detection using error- and grammaticality-specific word embeddings. In Proc. of 8th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 40-48, 2017. [7] Yi-Huei Lai and Jason Chang. TellMeWhy: Learning to explain corrective feedback for second language learners. In Proc. of 2019 Conference on Empirical Methods in Natural Language Processing and 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP): System Demonstrations, pp. 235-240, 2019. [8] Ryo Nagata. Toward a task of feedback comment generation for writing learning. In Proc. of 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 3197-3206, 2019. [9] Ryo Nagata, Kentaro Inui, and Shin'ichiro Ishikawa. Creating Corpora for Research in Feedback Comment Generation. In Proc. of the 12th Language Resources and Evaluation Conference, pp. 340-345, 2020. [10] Ryo Nagata, Mikko Vilenius, and Edward Whittaker. Correcting preposition errors in learner English using error case frames and feedback messages. In Proc. of 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 754-764, 2014. [11] Ryo Nagata, Edward Whittaker, and Vera Sheinman. Creating a manually error-tagged and shallow-parsed learner corpus. In Proc. of 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 1210-1219, 2011. [12] Hwee Tou Ng, Siew Mei Wu, Ted Briscoe, Christian Hadiwinoto, Raymond Hendy Susanto, and Christopher Bryant. The CoNLL-2014 shared task on grammatical error correction. In Proc. 18th Conference on Computational Natural Language Learning: Shared Task, pp. 1-14, 2014. [13] Hwee Tou Ng, Siew Mei Wu, Yuanbin Wu, Christian Hadiwinoto, and Joel Tetreault. The CoNLL-2013 shared task on grammatical error correction. In Proc. 17th Conference on Computational Natural Language Learning: Shared Task, pp. 1-12, 2013. [14] Ildiko Pilan, John Lee, Chak Yan Yeung, and Jonathan Webster. A Dataset for Investigating the Impact of Feedback on Student Revision Outcome. In Proc. of 12th Language Resources and Evaluation Conference, pp.332-339, 2020. [15] Abigail See, Peter J Liu, and Christopher D Manning. Get To The Point: Summarization with Pointer-Generator Networks. In Proc. of 55th Annual Meeting of the Association for Computational Linguistics, pp. 1073-1083, 2017. [16] Masatoshi Sugiura, Masumi Narita, Tomomi Ishida, Tatsuya Sakaue, Remi Murao, and Kyoko Muraki. A discriminant analysis of non-native speakers and native speakers of English. In Proc. of Corpus Linguistics Conference CL2007, pp. 84-89, 2007. [17] Ziang Xie, Guillaume Genthial, Stanley Xie, Andrew Ng, and Dan Jurafsky. Noising and denoising natural language: Diverse backtranslation for grammar correction. In Proc. of 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 619628, 2018. [18] Helen Yannakoudakis, Ted Briscoe, and Ben Medlock. A new dataset and method for automatically grading ESOL texts. In Proc. of 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 180-189, 2011. [19] 塙一晃, 永田亮, 乾健太郎. 高信頼度な文法誤り解説生成のための生成制御手法. 人工知能学会全国大会論文集, pp. 2D1GS903-2D1GS903, 2020. ## A 評価実験に用いた前置詞解説文 データセットの詳細 表 2 に,評価実験に用いた前置詞解説文データセットの詳細を示す. 基本的には, 文献 [9] の前置詞解説文データセットであるが,未公開のデータも使用した。これらのデータも公開予定である. ## B ネットワークの構成とハイパパ ラメータの設定 ## B. 1 解説箇所推定モデル BiLSTM の層数は 2 に固定し,隠れ状態の次元 200,600,800をサーチした。それ以外は次のように固定した: バッチサイズ 32 ; early stopping (エポック数 100 , patience 10) ; ドロップアウトレート 0.5.訓練は 5 回行い, 各訓練結果から得られる出力 (確率)の平均値により最終的な判定を決定した. 最終的に決定されたハイパパラメータは,次のとおりである.トピック「アルバイト」については, BiLSTM の隠れ状態の次元 600 , 仮想誤りタイプを割り当てるクラスタの最小メンバ数 5 , クラスタ間距離の間値 0.15 となった. 同様に,「喫煙」では,同じ順で,800,3,0.15 となった. 更に, 従来手法では,BiLSTM の隠れ状態の次元は,800 (「アルバイト」)と 600 (「喫煙」)となった。 ## B. 2 解説文生成モデル 図 2 に, pointer-generator に基づいた解説文生成モデルの概要を示す. 濃い赤で示された部分が,オリジナルの pointer-generator からの変更点である. ネットワークのハイパパラメータは文献 [19]を参考にして次のように設定した. エンコーダは BiLSTM(層数 1 ,隠れ状態の次元 300)とした. デコーダは,LSTM(総数 1,隠れ状態の次元 300)とした. バッチサイズ 32 , エポック数 50 , ドロップアウトレート 0.5. 訓練は 5 回行い,開発データ中の正解解説文との BLEU の平均値が最大となる訓練結果を採択した。 ## B. 3 両モデルに共通する設定 英単語の分散表現は,アルゴリズムを CBOW, サイズを 200 次元に固定し, 次のコーパスから得た: 評価実験で用いた訓練, 開発データの解説対象英文, CEEJUS $^{8}$, CLC FCE [18], ETS [2], ICLE [4],  NICE [16](以上,学習者コーパス), EWT [1] (母語話者コーパス). この分散表現を解説対象文の英単語の分散表現とした. また,解説文中に出現する英単語の分散表現としても使用した. その他の日本語単語については,ランダムな値で初期化した. 日本語の形態素解析器として $\mathrm{MeCab}^{9}$ )を用いた. 各モデルの最適化アルゴリズムは Adam(step size: 0.001, first/second moment: 0.9/0.999)とした. ## C 付録:詳細な評価結果 表 3 と表 4 に,トピック「アルバイト」と「喫煙」 を別々にして評価した性能を示す. 図 2 解説文生成モデルの構成. 表 2 評価実験に用いたデータの統計量. 表 3 トピック別の解説箇所推定性能. 表 4 トピック別の解説文の生成性能. 9) http://taku910.github.io/mecab/
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D4-2.pdf
# Incorporating Rubrics to Short Answer Grading Tianqi Wang ${ }^{1,2}$ Hiroaki Funayama $^{1,2}$ Hiroki Ouchi $^{2} \quad$ Kentaro Inui $^{1,2}$ ${ }^{1}$ Tohoku University $\quad{ }^{2}$ RIKEN Center for Advanced Intelligence Project \{outenki,hiroaki,inui\}@ecei.tohoku.ac.jp \{hiroki.ouchi\}@riken.jp ## 1 Introduction Assignments are crucial for assessing students' knowledge in a pedagogical setting, where students are generally required to answer questions in relatively short texts. Figure 1 shows a typical example where students are asked to explain a sentence appearing in an essay to test their reading comprehension. A reference answer and rubrics are provided to show the rules for grading assignments. Due to the diversity of open-ended questions in answer scoring, educators' workload can be excruciatingly timeconsuming. The task of Short Answer Grading (SAG) has been proposed to assist educators with grading. SAG is the task of estimating scores of short-text answers written as a response to a given prompt. The task has been studied mainly with machine learning-based approaches, focusing on exploring better representations of answers. The recently proposed neural models have been yielding strong results $[1,2]$. SAG is generally a low-resource task, suffering from the scarcity of training data. Thus, it is difficult to train SAG models from answers only, leading to a poor performance. To improve the performance of SAG models especially for low-resource settings when the available training data is limited, it is easy to have the idea to incorporate rubrics to help train SAG models. However, the question is still unclear how to incorporate rubrics into neural SAG models. In this paper, we explore two approaches to introduce rubrics to SAG models. We first augment training data with rubrics. We extract keyphrases that are highly related to the scores of answers from rubrics, and calculate the weights of words in answers based on span-wise alignments between answers and the extracted keyphrases. Highly weighed words are used as pseudo cues for scoring. Another approach to incorporate rubrics is rule-based models, scoring answers following rules defined by rubrics[3]. Thus we also explore some simple rule-based methods for comparison. The experimental results demonstrate that the performance is improved by the augmented data, especially in a low-resource setting. ## 2 Task and evaluation We evaluate the SAG models on two analytical assessment tasks formalized by Mizumoto et al. [2]: i) analytic score prediction and ii) justification identification. Analytic score prediction is the task of predicting the score of a given answer for a prompt. Given a number of answer texts, an SAG model is expected to output either scores [4] or labels. [5]. Given a student answer that consists of $n$ tokens, $t_{1: n}^{a n s}=\left(t_{1}^{a n s}, t_{2}^{a n s}, \ldots, t_{n}^{a n s}\right)$, the goal is to predict the analytic score $s \in \mathbb{R}$. As shown in Figure 1, an answer gains analytic scores for each item (e.g. (A) (D)) following corresponding analytic criterion (Try one's best for 3 points, e.g.). To evaluate the precision of analytic score prediction, we use quadratic weighted kappa (QWK) [6], which is commonly used in the SAG literature. Justification identification involves identifying a justification cue in a given student answer for each item as interpretation to the prediction of the analytic score. A justification cue is a segment of an answer that contributes to the number of points of the analytic score. An example of a justification cues for item $D$ is shown in Figure 1. As manually annotated justification cues, the phrase 西洋では in the answer refers to 西洋 (では), and 言葉を尽くして refers to 言葉を尽くして in the rubric. Formally, given a student answer $t_{1: n}^{a n s}=\left(t_{1}^{a n s}, t_{2}^{a n s}, \ldots, t_{n}^{a n s}\right)$, the goal is to identify the segment $p_{a: b}=\left(t_{a}^{a n s}, t_{a+1}^{a n s}, \ldots, t_{b}^{a n s}\right)$, where $1 \leq a \leq b \leq n$. In this paper we evaluate the performance on justification identification with F1 score, following the method used by Mizumoto et al [2] for evaluation. ## 3 Proposed method ## 3.1 Key idea Figure 1: A typical example of a prompt to a provided essay to test the reading comprehension of students. A reference answer and rubrics for scoring are also shown. Texts in green are manually annotated justification cues. To clarify our key idea, we first introduce attention unsupervised baseline model (ATT-UNSUP) [1] and an attention supervised model (ATT-SUP) [2] for comparison. As illustrated in Figure 2(a), the ATT-UNSUP model encodes student answers with an embedding layer and a Bi-LSTM layer. Then the weighted sum of hidden states is input to a regression layer for prediction of score. The weights are learned by a attention layer on top of the Bi-LSTM layer. We take the ATT-UNSUP model as the baseline in this paper. With additional annotation on justification cues, the ATT-SUP model is trained with gold attention supervisory signals, as is shown in Figure 2(b). Attention to tokens of justification cues is set to 1 , and attention to other tokens is set to 0 . It is reported that the performance is improved by attention supervision [2]. In this paper we list the performance of ATT-SUP model for reference. Rubrics define key elements with keywords or keyphrases as examples. Key elements are concepts or information defined by the rubrics, that an answer needs to contain in order to receive points. As is shown in Figure 1 , the phrase 西洋では is a keyphrases to define key element for item A, so answers will receive 2 points if they contain a similar phrase. Our key idea is illustrated in Figure 2(c). Instead of manually supervising justification cue signals, we consider using the rubrics to automatically identify which span of a given answer should be attended. (a) baseline model (b) Attention-supervised model (c) Proposed model $ \longrightarrow \text { Inference } \longrightarrow \text { Backpropagation of score } $ Figure 2: The architecture of baseline model, attention supervised model and proposed method. If a span that is likely to be a justification cue is identified in a training instance, we then use it as a pseudo supervisory signal to train the attention prediction component. Otherwise we do not use that instance for supervising attention prediction, but use only its gold score to train the model. The output of regression layer is the predicted score, and the output of attention layer is considered as prediction of justification cues. ## 3.2 Data augmentation We generate pseudo attention supervisory signals based on span-wise matching to rubrics. A concrete example is given in Figure 3. Answers and rubrics are tokenized by MeCab [7], and keyphrases such as(他人を)説得す $る$ are extracted from the given rubrics. We then identify justification cues in a given answer by matching spans to the keyphrases. Figure 3: Match justification cues. Given an answer consisting of $n$ tokens $t_{1: n}^{a n s}=$ $\left(t_{1}^{a n s}, \ldots, t_{n}^{a n s}\right)$, we first enumerate all possible spans: $\mathscr{P}=\{a: b \mid 1 \leq a \leq b \leq n\}$, where each span $p_{a: b}=$ $\left(t_{a}^{a n s}, \ldots, t_{b}^{a n s}\right)$ is a subsequence of the tokens in the answer. Each keyphrase is a sequence of $m$ tokens: $t_{1: m}^{k}=\left(t_{1}^{k}, \ldots, t_{m}^{k}\right)$. The similarity score $w_{a: b}$ between a keyphrase $t_{1: m}^{k}$ and each span $p_{a: b}$ is calculated $w_{a: b}=\operatorname{sim}\left(t_{1: m}^{k}, p_{a: b}\right)$. Based on the similarities, we define the matching score $w^{k}$, how well the keyphrase $t_{1: m}^{k}$ matches (or is entailed in) the answer, and extract the span with the highest similarity as the pseudo justification cue: $p^{k}=\operatorname{argmax}_{p_{a: b} \in \mathscr{P}} w_{a: b}$. Based on the pseudo justification cues (spans) $p^{k}$, we define a pseudo supervisory signal $\alpha_{i}^{\text {pseudo }}$ of each token $t_{i}^{\text {ans }}$ in an answer $t_{1: n}^{a n s}$ to learn the attention mechanism, instead of the ground-truth one. Specifically, if a token $t_{i}^{\text {ans }}$ is contained in a pseudo justification cue $p^{k}=\left(t_{a}^{k}, \ldots, t_{b}^{k}\right)$, we use the similarity score $w^{k}$ as the pseudo supervisory signal. We pick up the highest one of the similarities if a token is contained in multiple extracted spans. ## 3.3 Attention semi-supervised learning We propose an attention semi-supervised method to train the SAG model. Because not all of the pseudo justification cues are reliable, only high enough attention values to justification cues will be used as pseudo signals for attention supervising. To filter out the unreliable pseudo justification cues, a binary label $\eta_{j}$ is attached to each answer $a_{j}$. The value of $\eta_{j}$ is set to 1 if $\max \left(\alpha_{j}^{\text {pseudo }}\right) \geq T$, otherwise the value is set to 0 . The threshold $T$ is a hyperparameter. The answer $a_{j}$ is considered as matched to justification cues only when $\eta_{j}=1$. Besides, in order to enhance the effectiveness of attention supervision, we binarize the labeled attention $\boldsymbol{\alpha}^{\text {pseudo }}$ to $\boldsymbol{\beta}^{\text {pseudo }}$. For the $i^{t h}$ token of answer $a_{j}$, the attention value $\beta_{j, i}^{\text {pseudo }}$ is set to 1 if $\alpha_{j, i}^{\text {pseudo }}>T$, and is set to 0 otherwise. The loss function is designed as follows: $l=\frac{1}{N} \sum_{j=1}^{N}\left(s_{j}^{\text {gold }}-s_{j}\right)^{2}+\frac{1}{N n} \sum_{j=1}^{N} \sum_{i=1}^{n}\left(\eta_{j} \beta_{j, i}^{\text {pseudo }}-\eta_{j} \alpha_{j, i}\right)^{2}$ where $N$ is the number of answers, and $n$ is the number of tokens in each answers. Note that answer $a_{j}$ is considered containing no justification cues if $\eta_{j}=0$, and the corresponding loss of attention is always 0 . In this way, only answers with a significant match to keyphrases are used for attention-supervised learning. ## 3.4 Rule-based models Another approach to incorporate rubrics to SAG is rulebased methods. As described in Figure 1, an answer is scored by steps (D(1) and D(2) for item D). On each step, corresponding points are assigned to the answer if any keywords are contained by the answer, and the sum of scores assigned in each step is output as the final score for the answer. We proposed two simple rule-based models that score answers the rules. Rule-based model on top of regexp matching (RGEXPRULE): We create regular expressions for keyphrases for each step based on the rubrics. Then we identify keyphrases in a given answer by regexp matching for each step, and assign points to the answer for each matched keyphrases. The sum of corresponding scores of matched keyphrases in each step is output as the prediction of answer score. Only the keyphrases with the highest score will be selected if multiple keyphrases are matched in one step. Rule-based model on top of span-wise matching (SPANRULE): This method works similarly to RGEXP-RULE introduced above, but the span-wise matching introduced in Section 3.2 is used instead of regexp matching. We apply different values of $T$ from 0.1 to 1.0 , and take the value leading to the best performance over all prompts. ## 4 Experiments We apply our proposed method on the dataset provided by Mizumoto et al. [2] ${ }^{1)}$. The dataset includes 6 prompts (Q1 Q6), with 1600 answers as training data, 250 answers as development data, and 250 answers as test data for each prompt. To focus on the performance in low-settings, we train the models on various sizes of training data, ranging from 50 to 200 , and randomly select 30 develop data. The embedding layer is initialized wiyh a $100-$ dimensional Word2Vec word embeddings [8] pre-trained on Japanese Wikipedia data. We freeze the embedding layer during the training phase to reduce the number of parameters to learn. The dimension of the Bi-LSTM layer is set to $d^{l s t m}=250$, and the dropout probability is set to 0.5. The parameter $d$ for $\boldsymbol{W}$ and $\boldsymbol{m}$ of the attention layer is set to 100 . $\boldsymbol{W}$ and $\boldsymbol{m}$ are initialized randomly from the normal distribution, with the standard deviation set to 0.01 . To generate pseudo attention supervisory signals, Levenshtein edit distance [9] is used to match answer spans to keyphrases. The hyperparameter $T$ is selected based on develope dataset. In this paper, we train our model on each item (21 items in total). The parameters are optimized with the Adam [10] optimizer, with learning rate of 0.001 .  Experiments are repeated for 5 times with different random seed from 0 to 4 for initialization, and the average results over all random seeds are used as the final results. ## 5 Results and discussion Table 1: QWK on analytica score prediction. Figure 4: QWK analytic score prediction on each prompt. The size of training data for OUR model is 50 . The experimental results are listed in Table 1 and Table 2, corresponding to QWK for analytic score prediction and F1 score for justification identification. Again, the ATT-UNSUP model is the baseline model, and ATT-SUP with manually annotation on justification cues as attention supervisory signals is for reference. The performance of rule-based models is very limited, as is shown in Table 1. To figure the reason, we show the performance on each prompt in Figure 4. Note that the rule-based models performance well for some specific prompts, where the justification cues are easy to match, and the rules for scoring is simple. However, for prompts where the rubrics are complicated, it is more challenging to identify justification cues, leading to a extremely low performance. The span-wise matching method performs better than regexp matching, and OUR neural model outperforms the rule-based models overall. This demonstrates that a well designed matching method is necessary for rule- based method to incorporate rubrics to SAG models, and the neural network helps make a stable model, especially on prompts with complicated rubrics. We will explore this problem further in our future work. Table 1 also indicates that compared to the ATT-UNSUP model, the performance on analytic score prediction is improved by data augmentation. The performance of OUR model is comparable to the ATT-SUP model trained with manually annotated justification cues, but no additional annotation data is required by our model. It is also important to mention that we achieved comparable performance to the baseline with a larger size of training data, indicating that our proposed semi-supervised method does not harm the performance when a large amount of training data is available. The F1 score for justification identification is also improved through various training sizes, as shown in Table 2, indicating better interpretability on the scoring results. However there is still a gap between OUR model and ATT-SUP model. That indicates that there is still much room for improvement with a more carefully designed method to generate pseudo justification cues. Table 2: F1 score on justification identification. ## 6 Conclusion Short Answer Grading task plays an important role in education context. However it suffers from the scarcity of training data, making its application limited. To improve the performance of SAG models, we explored approaches to incorporate rubrics to the SAG task. The rule-based models work well on simple prompts, but the performance is limited for prompts with complicated rubrics. The data augmentation with rubrics improves the performance on both analytic score prediction and justification identification compared to the attention unsupervised baseline model, especially in low-resource settings. Considering the pseudo justification cues are generated by a simple span-wise matching method, a more carefully constructed method can lead to further benefits. We will explore this issue in our future work. ## References [1] Brian Riordan, Andrea Horbach, Aoife Cahill, Torsten Zesch, and Chong Min Lee. Investigating neural architectures for short answer scoring. In Proceedings of the 12th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 159-168, 2017. [2] Tomoya Mizumoto, Hiroki Ouchi, Yoriko Isobe, Paul Reisert, Ryo Nagata, Satoshi Sekine, and Kentaro Inui. Analytic score prediction and justification identification in automated short answer scoring. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 316-325, 2019. [3] Lakshmi Ramachandran, Jian Cheng, and Peter Foltz. Identifying patterns for short answer scoring using graphbased lexico-semantic text matching. In Proceedings of the Tenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 97-106, 2015. [4] Michael Mohler, Razvan Bunescu, and Rada Mihalcea. Learning to grade short answer questions using semantic similarity measures and dependency graph alignments. In Proceedings of the ACL, pp. 752-762. Association for Computational Linguistics, 2011. [5] Myroslava O Dzikovska, Rodney D Nielsen, Chris Brew, Claudia Leacock, Danilo Giampiccolo, Luisa Bentivogli, Peter Clark, Ido Dagan, and Hoa T Dang. Semeval-2013 task 7: The joint student response analysis and 8th recognizing textual entailment challenge. Technical report, NORTH TEXAS STATE UNIV DENTON, 2013. [6] Jacob Cohen. Weighted kappa: nominal scale agreement provision for scaled disagreement or partial credit. Psychological bulletin, Vol. 70, No. 4, p. 213, 1968. [7] Taku Kudo. Mecab: Yet another part-of-speech and morphological analyzer. http://mecab. sourceforge. jp, 2006. [8] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. In Advances in neural information processing systems, pp. 3111-3119, 2013. [9] Vladimir I Levenshtein. Binary codes capable of correcting deletions, insertions, and reversals. In Soviet physics doklady, Vol. 10, pp. 707-710, 1966. [10] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D4-3.pdf
# 項目採点技術に基づいた和文英訳答案の自動採点 菊地正弥 $1,2 *$ 尾中大介 $1,2 *$ 舟山弘晃 $1,2 *$ 松林優一郎 1,2 乾健太郎 1,2 1 東北大学 2 理化学研究所 \{taisuke.onaka.q7, seiya.kikuchi.t3\}@dc.tohoku.ac.jp hiroaki@ecei.tohoku.ac.jp \{y.m, inui\}@tohoku.ac.jp ## 1 はじめに 国内の英語教育では、短い和文に対する自由記述形式の英訳問題(短文和文英訳問題と呼ぶ)が盛んに使われている。この形式の問題は出題者が問う語学的知識を限定しやすく、特定の文法・語彙知識の習熟訓練・反復学習方法として有効である。一方でこうした記述式の答案に対する採点と助言の返却は教育者側の負担が大きく、アウトプットと反復学習機会が重要な語学教育においては、その限定的な試行回数が課題となる。 そこで、本稿では短文和文英訳問題に対する自動採点技術の応用を試みる。日本人学習者を対象にした英作文の自動採点を扱う研究はこれまでほとんど行われていないが、先行研究として、正答例を列挙する表現法を提案し効率的にマッチングを行うことで自動採点を実現しているものや [1]、学習者のエッセイライティングを対象にして文法誤りを検出し解説文を生成する手法 [2] がある。また、近接する分野として、和文英訳問題の採点は文法的正しさの評価という観点で Grammatical Error Correction (GEC) と関連する。短文からなる答案に対して採点基準に基づき評価を行うという観点では Short Answer Scoring (SAS) と見なすこともできる。 本研究では、高校の学習課程での運用実態を参考に、短文和文英訳問題の採点を、作題者が確認したい複数の部分要素を採点項目として反映した項目別の SAS の問題として定式化し、NN ベースのモデルにより自動採点を実現する。この我々の目的に必要となる学術利用可能な日本人学習者の和文英訳文採点データは存在しないため、我々はまず、和文英訳問題に対する自動採点モデルの学習と評価を可能とするデータ形式を設計し、答案の収集・アノテー ションを行いデータセットを構築した (図1)。このデータ中では、明確な複数の採点基準に基づき基準  図 1 データセットに含まれる答案及び採点基準の例。 ごとに答案の採点が行われる。また、各採点項目の根拠箇所が付与されており採点の解釈性が高い。 実験では、我々が作成したデータセットに対し [3] が提案する項目採点モデルを適用し、その採点精度と今後の課題を検証する。加えて、疑似データ生成による性能向上についても検証する。一般に SAS におけるデータ作成は高コストなため、データ数が少ないときの性能の維持が課題である $[3,4]$ 。 そこで、GECにおいて成功している疑似的な文法誤り生成のアプローチ [5]を用いて、和文英訳問題採点での効果を検証する。実験の結果、大半の採点基準に対して $\mathrm{F}$ 値で $80 \%$ 以上の精度で採点可能であることが明らかになった。また、GECで用いられている手法 [5] を用いて生成した疑似データを学習に用いることにより、学習データが少ない評価ラベルに対する採点精度の向上を確認した。 ## 2 和文英訳問題データセット 本研究を行うにあたり作成したデータセットについて説明する。本データセットは四天王寺高等学校・中学校および増進堂・受験研究社の協力のもと作成したものであり、和文英訳問題の答案として初 表 1 答案データの統計値 のデータであるだけでなく日本人英語学習者の SAS 形式の英文データとしても初めてのものである。 本データセットには問題が 7 問含まれており、それぞれの問題に複数の明確な採点項目と採点基準が存在する。問題文、採点基準は専門家により作成されたものである。答案は各採点項目ごとに採点され、項目評価値( $\mathrm{O}, \Delta, \times$ のいずれか)および評価根拠箇所(答案中の単語位置)が付与されている。答案例と採点基準の一部を図 1 に示す。問 1,2 は四天王寺高等学校において行われた試験問題と生徒の答案である。また、増進堂・受験研究社の協力により新たに 5 問を作題し、問題 1,2 と合わせてクラウドソーシングにより答案の収集を行った。収集においては、回答者のレベルを高校生と同等水準に揃えるため、英語検定試験のスコア (付録参照) で募集をかけ、能力チェック用設問の正答率によって回答者の選定を行なった。さらに、収集した答案の品質維持のため、著しく内容が逸脱した回答をルール (付録参照) および目視により除外した。その後、収集した答案に対して採点基準に基づき項目評価値と根拠箇所のアノテーションを行なった。アノテーションは、作題者である専門家がクラウドソーシングで収集した答案を閲覧し精緻化した採点基準書にしたがって、著者ら監督のもと別の作業者が実施した。 7 問に対するデータの統計を表 1 に示す。高校の答案を含む問 1,2 で 160-170 程度、その他は 70-100 程度の答案を含む。各問題には 10 前後の採点項目が存在する。本データセットは学術利用目的に限り公開する予定である1)。 ## 3 和文英訳答案の自動採点 ## 3.1 問題設定 本研究では和文英訳問題の採点を複数の採点項目を持ったSAS 問題として定式化する。ある和文  英訳問題に対して、その採点項目の集合を $C$ とする。入力は答案テキスト $\left(w_{1}, w_{2}, \ldots, w_{n}\right)$ および採点項目 $c \in C$ であり、出力は $c$ に対する 3 段階の評価値 $s_{c} \in\{\bigcirc, \Delta, x\}$ とする。採点は各採点項目ごとに出力し、答案に対する総合的な評価は行わない。 ## 3.2 項目採点モデル 本研究では、SAS のために提案された [6] の採点モデルを採点項目ごとに個別採点するよう拡張したモデル [3] によって和文英訳問題の採点を行う。ただし、我々のモデルは得点に対する回帰問題ではなく、 3.1 に記述した 3 值分類問題を学習する。 本研究で用いるモデルを説明する。まず、入力された答案テキストは単語ベクトルの列 $\mathbf{x}=\left(x_{1}, x_{2}, \ldots, x_{n}\right)$ に変換される。その後、このべクトル列は Bi-LSTM に入力され、順方向と逆方向の中間状態ベクトルの和を取ることにより、D 次元の中間表現の列 $\mathbf{h}=\left(h_{1}, h_{2}, \ldots, h_{n}\right)$ にエンコードされる。これを用いて、各採点項目ごとに個別の文べクトルを計算する。ただし、中間表現の列 $\mathbf{h}$ を作る Bi-LSTM は全採点項目で共有されることに注意されたい。 $c \in C$ に対する文ベクトル $\tilde{h_{c}}$ は中間表現の重み付き和として次のように計算される。 $ \tilde{h_{c}}=\sum_{i=1}^{n} \alpha_{i}^{c} h_{i} $ $\alpha_{i}^{c}$ は採点基準 $\mathrm{c}$ に対する $\mathrm{i}$ 番目の単語の重みであり、式 (2) に示す注意機構によって算出される。 $ \begin{aligned} t_{i}^{c} & =h_{i} M_{c} V_{c} \\ \alpha_{i}^{c} & =\frac{\exp \left(\tanh \left(t_{i}^{c}\right)\right)}{\sum_{k=1}^{n} \exp \left(\tanh \left(t_{k}^{c}\right)\right)} \end{aligned} $ $M_{c} \in \mathbb{R}^{D \times D} 、 V_{c} \in \mathbb{R}^{D}$ は学習するパラメータである。最後に項目 $c$ に対する評価値 $s_{c}$ を次式により得る。 $ \begin{aligned} p\left(s_{c} \mid \mathbf{x}\right) & =\operatorname{softmax}\left(W \tilde{h_{c}}+b\right) \\ s_{c} & =\underset{s_{c} \in\{\bigcirc, \Delta, \times\}}{\arg \max }\left.\{p\left(s_{c} \mid \mathbf{x}\right)\right.\} \end{aligned} $ $W \in \mathbb{R}^{3 \times D} 、 b \in \mathbb{R}^{3}$ は学習するパラメータである。 ## 3.3 学習 項目採点モデルは各採点項目の評価結果について負の対数尤度 (NLL) を最小化するように学習する。 $ L_{\text {score }}=\sum_{c \in C} \operatorname{NLL}\left(p\left(s_{c} \mid \mathbf{x}\right), \hat{s_{c}}\right) $ ここで、 $\hat{s_{c}}$ は採点基準 $\mathrm{c}$ に対する教師信号のラべル (評価値) である。また、2 節に示したように本 データセットには答案に対して採点項目ごとに採点根拠箇所 $\hat{\alpha^{c}}=\left(\hat{\alpha_{1}^{c}}, \hat{\alpha_{2}^{c}}, \ldots, \hat{\alpha_{n}^{c}}\right)$ が付与されている。 $\hat{\alpha_{i}^{c}} \in[0,1]$ は答案中の $i$ 番目の語が根拠となるかを表す数であり、採点根拠となるトークンが答案中に $k$ 個ある場合、その位置には $1 / k$ が、それ以外には 0 が付与されている。[3] に従い、本研究においても、以下の損失関数によりアテンションの教師有り学習を行う。 $ L_{a t t}=\sum_{c \in C} \sum_{i=1}^{n}\left(\alpha_{i}^{c}-\hat{\alpha_{i}^{c}}\right)^{2} $ よって、全体の損失 $L$ は以下の式で表される。 $ L=L_{\text {score }}+L_{\text {att }} $ ## 3.4 疑似データ生成 表 1 に示したように、本データセットに含まれる答案数は各問につき高々 170 件程度であり、 $\mathrm{NN}$ モデルを用いる他のタスクのデータセットと比べて著しく少ないが、問題ごとにモデルの訓練が必要であるという SAS の特徴をるまえると大規模なデータ収集により答案数を増やすことは現実的ではない。 そこで、我々は GEC における疑似データ生成手法の一つである [5] をべースにした手法によって間違い事例の増強を検討する。和文英訳においては正答、部分正答の答案パターンは限られている一方で、間違い方は多様である。しかし表 1 のとおり、 $\times$ 評価は。評価に比べて答案の分布として収集が難しい傾向にある。これは、通常、和文英訳問題が問題に適した学力水準の被験者を対象として出題されることと関係する。したがって、×評価の答案を効率的に収集する何らかの手法が必要である。 本研究では、まず数個の模範解答例について人手で項目別採点を行い、その各採点項目の採点根拠となっているトークンに対して、実際の間違い事例の類型化に基づいて設計した以下の品詞カテゴリの置き換え操作によって疑似データの生成を行う。 ・冠詞、前置詞、関係詞、所有限定詞 - 動詞の人称・時制 - 同一語幹の形容詞と副詞 ・スペルが似た語 上記の置き換えが発生する箇所を採点根拠としている採点項目について、トークンを置き換えた後の評価值を×とすることで、疑似的に $\times$ の事例を増強する。「スペルが似た語」ではレーベンシュタイン正解データ This is a restaurant which my uncle used for enjoying lunch. 冠詞関係代名詞 前置詞関連語 図 2 疑似データ生成例。この例では冠詞、関係詞、前置詞および関連語を置き換えることにより負例を疑似的に生成している。 距離が 4 以下でジャロウィンクラー距離が 0.8 を超える単語に置き換えた。なお、高校生の語彙レベルに合わせるために、置き換え語の単語は 1993 年から 2017 年まで 4 年ごとのセンター試験および追試験の電子化データ $\left.{ }^{2}\right) より$ 抽出した 4463 語に絞った。生成された疑似データの例は図 2 に示す。 ## 4 実験 ## 4.1 設定 本研究では $\bigcirc, \Delta, \times$ の 3 值で評価を行っているため、自動採点の精度評価には $\mathrm{F}$ 值を用いた。モデルの学習においては、Adam [7] を用いて最適化を行った。また、学習率として 0.001 を用いた。また、実験は各問についてデータセットを訓練:開発:評価 $=3: 1: 1$ と分割する 5 分割交差検定により行なった。評価は採点項目ごとに行い、それぞれ 50 エポック回した上で開発セットに対して最も性能が高かった時のパラメータを用いた。また、疑似データの混入にあたっては、混入量をもとの訓練データの量の $\{10 \%, 20 \%, 30 \%, 40 \%, 50 \%\}$ と変化させた時に開発セットにおいて最も性能が高かった割合を用いたモデルにより評価を行った。 ## 4.2 結果 3.1 節で説明したモデルを用いた際の採点精度、 および、 3.4 節で説明した手法により疑似データを生成し、学習に用いた時の採点精度の変化を測定した。結果を表 2 に示す。実験結果は各問ごとに全採点基準のマイクロ平均取った時の $\mathrm{F}$ 値を示した。表 2 より、問題 $1,3,4,6$ に対しては疑似データ追加を行う前の段階で $\mathrm{F}$ 值 0.9 ポイント程度と非常に高い精度で採点できることがわかった。問題 $2,5,7$ については他の問よりも採点精度は低く、特に問題 2 の  図 $3 \times$ 評価に対する項目ごとの $\mathrm{F}$ 値 表 2 問 1~問 7 に対する項目別自動採点の $\mathrm{F}$ 値 採点精度については 0.73 ポイント強にとどまっている。次に、疑似データを混入した時の精度に注目する (表 2 中の十疑似データ)。疑似データを用いることで問題 4 を除いたすべての問に対して採点精度の向上が確認できた。特に、問題 $2,5,7$ においてはそれぞれ $\mathrm{F}$ 值で $0.17,0.040,0.096$ ポイントの大きな精度向上が見られた。このことから、問題 $2,5,7$ のように元の採点精度が低い問題に対しては疑似デー タの生成が有効に働くと考えられる。 我々の疑似データ生成は $\times$ 評価に対する採点精度向上を狙ったものである。この効果を確認するため、図 3 に疑似データ生成の対象となった採点項目の $\times$ 評価に対する $\mathrm{F}$ 值を示した。ただし、正確な評価を行うために、 $\times$ 評価の答案が 5 件以下の採点基準については評価を行っていないため、図 3 には掲載されていない。全体の傾向として、疑似負例の導入より $\times$ 評価に対する採点精度が向上することが分かる。特にオリジナルのデータのみを学習した場合に精度が低い採点項目(Q2-D3, Q2-D2)などにおいては、疑似データを学習することでモデルの性能は大きく向上している。ここから、容易に答案数を増やせない状況においても、疑似データ生成により低コストでモデルの精度向上が可能だということが確認できた。一方で、疑似データを学習したことにより性能が下がるケースも見受けられる(Q4-C2)が、 その影響はわずかであった。 ## 5 おわりに 本研究では国内の英語教育で盛んに利用されている自由記述形式の和文英訳問題の採点に焦点を当て、この自動化技術の構築に取り組んだ。高校現場での試験とその採点の運用実態を参考に、タスクの定式化を行い、この形式にもとづいて和文英訳答案の採点データセットを構築した。また、既存の NN ベースの項目点別採点モデルを適用し、約半数の問題では $\mathrm{F}$ 値 0.9 ポイント程度の高精度で採点が可能な一方で、一部の問題では採点精度がそれ未満にとどまることがわかった。この主要な理由は、間違い方の種類が多岐に渡る項目において訓練データ中のカバレッジが不足することにある。こうした問題においても疑似的に生成した負例を用いることで×ラベルに対する採点精度を向上させることができ、結果として F 值を 0.9 ポイント付近に引き上げられることを確認した。今後は数十問規模でデータセットを拡充し、現場レベルでの実証実験につなげていくことを予定している。また、学習効果の向上のためには、学習者は提出した答案に対して評価だけではなく学習上のアドバイスを得られる事が重要であると考えられる。したがって、答案の評価を推定するだけではなく、答案に合ったアドバイスを出力することを今後の課題として検討している。 ## 謝辞 データセットの作成にあたって四天王寺高等学校・中学校および株式会社増進堂・受験研究社にご協力を頂きました。また、Yahoo!クラウドソーシングにおいてご協力頂いたクラウドワーカーの皆様へ深く感謝を申し上げます。本研究は JSPS 科研費 JP19H04162、JP19K12112 の助成を受けたものです。 ## 参考文献 [1] Norihisa NISHIMURA, Kentaro MEISEKI, and Michiaki YASUMURA. Development and evaluation of system for automatic correction of english composition. Transactions of Information Processing Society of Japan, Vol. 40, No. 12, pp. 4388-4395, dec 1999. [2] Kazuaki HANAWA, Ryo NAGATA, and Kentaro INUI. Generation control methods for reliable feedback comment generation. Proceedings of the Annual Conference of JSAI, Vol. JSAI2020, No. 0, pp. 2D1GS903-2D1GS903, 2020. [3] Tomoya Mizumoto, Hiroki Ouchi, Yoriko Isobe, Paul Reisert, Ryo Nagata, Satoshi Sekine, and Kentaro Inui. Analytic score prediction and justification identification in automated short answer scoring. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 316-325, Florence, Italy, August 2019. Association for Computational Linguistics. [4] Tianqi Wang, Naoya Inoue, Hiroki Ouchi, Tomoya Mizumoto, and Kentaro Inui. Inject rubrics into short answer grading system. In Proceedings of the 2nd Workshop on Deep Learning Approaches for Low-Resource NLP (DeepLo 2019), pp. 175-182, Hong Kong, China, November 2019. Association for Computational Linguistics. [5] Yujin Takahashi, Satoru Katsumata, and Mamoru Komachi. Grammatical error correction using pseudo learner corpus considering learner's error tendency. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 27-32, Online, July 2020. Association for Computational Linguistics. [6] Brian Riordan, Andrea Horbach, Aoife Cahill, Torsten Zesch, and Chong Min Lee. Investigating neural architectures for short answer scoring. In Proceedings of the 12th Workshop on Innovative Use of NLP for Building Educational Applications, pp. 159-168, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [7] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Yoshua Bengio and Yann LeCun, editors, 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. ## A 付録 ## A. 1 回答者の選抜基準 回答者のレベルを高校生と同等水準に揃えるため、英語検定試験のスコアによって募集者の選抜を行った。表 3 にその際に用いた基準を示す。これらの基準の策定にあたっては、国内の英語検定資格と CEFR の対応 ${ }^{3}$ や専門家の意見などを参考にした。 また、回答者の年齢を 17〜39 歳に絞った。 ## A. 2 無効答案のフィルタリング 収集した答案の中には、題意に沿って回答していない答案や機械翻訳機などを用いて機械的に生成された答案などが散見された。そこで、以下の 4 項目からなるフィルタリング規則によって、無効答案のフィルタリングを行った。 1. 3 単語未満の回答を除去 2. Google 翻訳と同文の回答を除去 3. 設問にて回答条件が設けられている場合、条件を満たさない回答を除去 4. 正答例との類似度が著しく低い回答を除去 ここで、回答条件とは文頭の数単語が設問中に予め与えられている場合などの、設問で指定されている答案が絶対に満たすべき条件を指す。 3) https://www.mext.go.jp/b ${ }_{m}$ enu/houdou/30/03/i ${ }_{i}$ csFiles/af ieldf ile/2019/01/15/1402610.$p d f$
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D4-4.pdf
# 文法誤り訂正モデルは訂正に必要な文法を学習しているか 三田雅人 理化学研究所東北大学 masato.mita@riken.jp ## 1 はじめに 文法誤り訂正(GEC)は,テキストに含まれる文法誤りを自動的に訂正するタスクである。本タスクでは, その構造的な類似性から文法誤りが含まれる文から誤りが含まれない文への機械翻訳とみなして解くアプローチが主流である。そのため, GEC のためのニューラルエンコーダデコーダモデル (EncDec) が数多く提案されており, 現在では Transformer [1] に基づくモデルが標準的になっている $[2,3,4]$. 最近では, 学習データ不足の問題を解決するために擬似データの活用が盛んに行われており,モデルの性能向上が報告されている $[5,6]$. 一方で,GEC の実応用を考えたとき,性能だけでなくモデルサイズや推論速度といったモデルの軽量化も重要な観点であるが, 現行の擬似データを活用して性能向上を図る方法は, この観点で課題が残る. 例えば, Kiyono ら [6] の報告によると, 訂正性能を測る標準的な評価指標である $\mathrm{F}_{0.5}$ においてたつた 2 ポイント性能を向上させるために, 約 6,000 万文対もの擬似データを追加で増やす必要があることがわかった. 現行の機械翻訳としてのモデル化や擬似データの活用による性能向上の背景には, 大量のパラメータを用いた訂正パターンの丸暗記という要因が挙げられるが,ここで,全ての誤りに対してパターンを丸暗記させる必要があるのか,といった問いが考えられる。なぜなら, 主語と動詞の一致誤りのような文法規則に基づく一部の文法誤りに関しては,人間は文法規則さえ学習できていれば必ずしも個々のパターンを丸暗記する必要はないからである.また,モデルは大量のパターンから訂正に必要な文法知識を学習していることを期待されるが,文法知識をどの程度汎化できているかは自明ではない。もし仮に,文法規則に従って訂正できる文法誤りに対して汎化できていないのであれば,ありとあらゆる語彙と構文の組み合わせからなる訂正パター ンを丸暗記する必要があることになり,より軽量な \author{ 谷中瞳 \\ 理化学研究所 \\ hitomi.yanaka@riken.jp } 図 1 GEC モデルの汎化性能評価の概要. GEC モデルを実現させるためには訂正に必要な文法知識をルールとして教える手法を組み合わせるといった改善が必要となる. そこで本研究では,GEC モデルの軽量化に向けて,モデルが訂正パターンを単に丸暗記しているのではなく,訂正に必要な文法知識を汎化できているかについて分析する手法を提案する。 また本研究では,(i)文脈自由文法(CFG)を用いて語彙と構文を制御しながら自動構築した人工データ,(ii)既存の学習者データを用いて語彙を制御しながら自動構築した実データという 2 種類のデータセットを用いて評価を行い,入力文の語彙や構文の複雑さと汎化性能との関係について分析を行う。 ## 2 関連研究 言語モデルが自然言語の文法性を獲得しているかについて分析する先行研究としては, 英語の主語と動詞の数の一致に着目した分析 $[7,8]$ がある. この分析では, 言語モデルが The farmer * *mile/smiles という単語列に対し, 正しい活用形である smiles に誤りの活用形である smile よりも高い確率を付与できるかを評価する。これらの先行研究では言語モデルが単純な統語現象から長距離依存関係を含むような複雑な統語現象を対象として, 文法的に正しい文と誤っている文をどの程度区別できるかに焦点を当てている.これに対して本研究では, 誤り訂正で重要な誤りタイプを対象として,言語モデルと翻訳モデルから構成される GEC モデルの汎化性能を分析す 表 1 自動構築した人工データおよび実データの例. る. 先行研究が言語モデルの文法能力のみを分析対象としているのに対し, 本研究では誤り検出だけでなく翻訳モデルによる誤り訂正においても汎化性能を評価することで実践的なモデルに求められる文法能力を評価できる. また, 先行研究の多くは語彙や文法をコントロールした人工データを用いて評価を行っているのに対して, 本研究では人工データと実際の学習者データの両方でモデルの評価を行い,人工データと実データの結果について比較分析を行う. ## 3 提案手法 本研究では, 現行の機械翻訳に基づく GEC モデルが訂正に必要な文法知識を汎化できているか,より具体的には,未知の語彙に対する汎化に焦点を当てて調査する. なお,本研究では未知の語彙を含む文法誤りを検出できることと訂正できることを合わせて文法知識の汎化と定義する. 図 1 は, 主語と動詞の一致を例とした提案手法の概要図である.この提案手法では, 学習・評価セットの誤り箇所に現れる語彙を制御して自動構築したデータを用いてモデルの評価を行う,具体的には,誤り箇所に既知の語彙が現れる学習・評価セットで評価したときの性能 (既知の語彙設定) と, 誤り箇所に未知の語彙が現れる学習・評価セットで評価した時の性能(未知の語彙設定)を比較することで,未知の語彙を含む文法誤りに対するモデルの汎化性能を評価する。 ここで,モデルが(i)語彙を知らなかったため訂正できなかったのか,(ii)文法知識の汎化に失敗したため訂正できなかったのかを切り分けて検証を行うために, 出現語彙自体は学習データと評価データで共通となるように制御する。例えば,図 1 の未知の語彙設定の例においては, Every dog *run quickly $\rightarrow$ Every dog runs quickly という文対と Every dog smiles awkwardly $\rightarrow$ Every dog smiles awkwardly という(無編集な)文対は学習データに出現し,Every dog * smile awkwardly $\rightarrow$ Every dog smiles awkwardly という文対は出現しないように制御した学習データを用いてモデルを学習させる.このとき,仮にモデルが Every dog *smile/smiles awkwardly という入力文に対し, 正しい活用形である smiles と訂正できなかった場合は,主語と動詞の一致に関する文法知識を汎化できていないということになる. 本研究では, Bryant ら [9] が定義する誤りタイプの中から,文法規則に基づく誤りである,主語と動詞の一致誤り (VERB:SVA) - 動詞の態誤り (VERB:FORM) - 語順誤り (WO) - 形態素誤り (MORPH)・名詞の単複誤り(NOUN:NUM)の計 5 種類の誤りタイプを対象に調査する。 ## 3.1 人エデータを用いた検証 語彙と構文を制御した状況で評価を行うため, $\mathrm{CFG}$ の生成規則から自動構築したデータで DNN の推論における汎化性能を分析する手法 [10] を応用して人工データを自動構築し,分析を行う。分析対象である 5 種類の誤りタイプについて,誤りタイプごとに文法的に誤りを含む生成規則と正しい生成規則の 2 種類の生成規則を設計(設計した $\mathrm{CFG}$ 生成規則の一部を付録 $\mathrm{A}$ に示す)し,これらの生成規則から元文と訂正文をそれぞれ生成する。 VERB:SVA の人工データの例として, 文法的に誤りを含む生成規則 $\mathrm{S} \rightarrow \mathrm{NP}_{p l} \mathrm{VP}_{s g}$ から元文* $\operatorname{dog} s$ smiles, 正しい生成規則 $\mathrm{S} \rightarrow \mathrm{NP}_{s g} \mathrm{VP}_{s g}$ から訂正文 dog smiles を生成できる. 使用する語彙は生成文が自然となるように一般名詞,自動詞,他動詞,形容詞,副詞各 15 種類を選定し,誤り箇所以外の語彙は共通にした。データサイズは $\mathrm{CFG}$ で生成される文を調整することで調整でき,本論文では各誤りタイプを十分に学習できる量の学習データとして,各誤りタイプ 5 万文対のデータを自動構築した。 ## 3.2 実データを用いた検証 3.1 節では,未知の語彙に対する汎化性能にのみ焦点を当てて分析を行うため, $\mathrm{CFG}$ を用いて語彙と構文を制御しながら自動構築した人工データを用いた検証について述べた。しかし, CFGに基づいて構 表 2 未知の語彙に対する汎化性能。 築した人工データは, GEC の実際の入力として想定される実データとは質が大きく異なる.具体的には,人工データでは語彙や構文が制限された単純な文のみで構成されるが,実データでは,語彙および構文は単純なものから複雑なものまで多種多様である(表 1)。そこで本研究では,より実践的な設定におけるモデルの汎化性能を分析するために実データを用いた検証も併せて行う。 まず,既存の学習者データセットに対して, ERRANT [9] を用いて誤りタイプラベルおよび訂正パターンの自動アノテーションを行う. ここで, 本研究では学習者データセットとして, BEA Shared Taskで配布された学習データおよび開発データを結合した約 200 万文対のデータ使用した ${ }^{1)}$. 次に,一文につき一つの訂正パターンになるように誤りタイプおよび訂正パターンを保持しながらデータを分割する ${ }^{2)}$. 未知の語彙設定は, 保持した訂正パターンをもとにデータ全体でソートし,重複のあるものを学習データに, 重複のないものを評価データに分類することで構築する。上記手順で誤りタイプごとにサンプリングを行いデータセットを構築した結果, VERB:SVA は 25,889 文対, VERB:FORM は 41,592 文対, WO は 18,779 文対, MORPH は 26,345 文対, NOUN:NUM は 68,002 文対となった。 ## 4 実験 ## 4.1 実験設定 3 節で構築した人工データおよび実データを用いて評価実験を行う.実験に使用した学習・開発・評価セットの詳細は付録 B を参照せよ. 評価尺度として, ERRANT [9] によって算出された $\mathrm{F}_{0.5}$ を用いる. GEC モデルは, 1 節で述べたように,現在では Transformer に基づいた EncDec モデルが標準 1) https://www.cl.cam.ac.uk/research/nl/bea2019st/ 2)一文中に複数の誤りや異なる誤りタイプが含まれる場合も,対象とする誤り以外は訂正をしないことに注意されたい。的になっているため,本評価実験でもこれを採用する. 具体的には, seq2seq モデルのツールキット fairseq [11] における“Transformer(big)”を使用した ${ }^{3)}$. ## 4.2 実験結果 表 2 に評価結果を示す。人工データを用いた検証をみると,WO は除き,モデルは既知の語彙設定に比べて未知の語彙設定で訂正性能が大幅に下がっていることが確認できる.WO が未知の語彙に対して相対的に汎化性能が高かった要因の一つとして,訂正タスクとしての複雑さが考えられる。具体的には,WO は単語の位置がわかれば修正できるが,他の誤りは単語の表層形の違いや特定の単語間の依存関係をみて修正する必要があるため, 訂正タスクとして複雑さが増している。 一方で,実データを用いた検証においては,WO を含め全ての誤りが訂正に必要な文法知識を汎化できていないことがわかる.人工データと実データの結果の傾向が異なったことについては,5 節で分析する。以上の結果より,人工データで使用したような比較的単純な語順誤りを除いて,モデルは大量のパターンから訂正に必要な文法知識をほとんど汎化できていないことがわかった。 ## 5 分析・考察 エンコーダvs. デコーダ文法知識の汎化に失敗したとき,誤りを検出するのに失敗したのか(エンコーダ起因の問題), 誤りを検出はしているが正しい単語の復元に失敗したのか(デコーダ起因の問題)を分析するために,未知の語彙に対する誤り訂正性能と検出性能の比較を行う. 図 2 に, 人工デー タおよび実データを用いた検証における,検出性能と訂正性能の比較を示す.ここで,検出性能の評価は訂正性能と同様に ERRANT を用いて行った。人工データを用いた検証結果(図 2a)では,どの誤り $ を参照せよ. } (a) 人工データ (b) 実データ 図 2 検出性能と訂正性能の比較. 表 3 実データにおけるノイズの有無による訂正性能比較 (未知の語彙設定). タイプも誤りの検出には成功していることがわかる。一方で,実データを用いた検証結果(図 $2 b$ )では, 誤り検出の時点で全ての誤りタイプについて大幅に性能が低下していることがわかる. 人エデータvs. 実データ図 2 の実験結果から,現行の GEC モデルは人工データでは少なくとも誤り検出をある程度汎化できているが,実データでは誤り検出の時点で汎化に失敗していることがわかった. 実データにおいてうまく汎化できなかった要因としては大きく,(i)語彙や構文の多様さ,(ii)文中の誤りの複雑さの 2 点が考えられる. (ii) については,実データには一文中に複数かつ様々な誤りを含む場合があるため,周囲の誤りが対象の誤りを検出・訂正する際に悪影響を与えてしまった可能性がある. そこで, 文中の誤りの複雑さが訂正に与える影響を調査するために,未知の語彙設定における実データを一文中に対象の誤りのみ含まれるデータと対象の誤り以外も含むデータに分け,それぞれにおける訂正性能を評価した。ここで,本論文では一文中に対象の誤りタイプのみ含まれるデータをノイズなし, 複数の誤りタイプの誤りを含むデータをノイズありと呼ぶ. 表 3 にその結果を示す. この結果から,WO はノイズの有無に関わらず性能が一定であるが,他の誤りはノイズに対して少なからず影響を受けていることがわかる。しかし,ノイズなしの設定においても, 既知の語彙設定における訂正性能 (表 2 参照)と比較すると大幅に性能が低いことを踏まえると, 実データで汎化できなかった要因としては,語彙や構文の多様さが支配的であると考えら れる。 言語モデル vs. 翻訳モデル言語モデルと翻訳モデルから構成される GEC モデルにおいて, 表 2 の評価実験は,翻訳モデルが各誤りタイプにおいて訂正性能の向上にどのくらい寄与しているか,に関する一種のアブレーション実験と捉えることが可能である. なぜなら, 未知の語彙設定では, 正しい言語モデル(Every dog smiles awkwardly)はモデルに明示的に教えているが,正しい翻訳モデル(*smile/smiles) は明示的にはモデルに教えていない設定であるからである.したがって,WO は言語モデルの情報だけでも訂正が可能なのに対して, 他の誤りは翻訳モデルも訂正性能の向上に重要な要素であることがわかる.この結果は言語モデルが語順には強いという報告 [12] と整合性のある結果である.以上の結果から, GECのような実践的なモデルの汎化性能を測るためには言語モデル(検出)の汎化性能だけ見ていては不十分であり,翻訳モデル(訂正)の汎化性能の両方を見る必要性があることが示唆される. ## 6 おわりに 本研究では人工データと実データの 2 種類のデー タを用いて,未知の語彙を含む誤りに対するモデルの性能を評価することで,モデルが訂正に必要な文法知識を汎化できているかについて分析を行った。実験の結果,現行の GEC モデルは人工データのような簡単な設定においては誤りの検出をある程度汎化できている一方で,訂正はほとんど汎化できていないことが示唆された。また,多様な語彙や構文を含む実データでは,誤りの検出も訂正も汎化できていないことが示唆された.今後の展望として, 実データではなぜ検出の時点で汎化できていないのか,分析を進める。 謝辞. 本研究の一部は理研・産総研「チャレンジ研究」(FS 研究), JSPS 科研費 JP20K19868 の助成を受けたものである. ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention Is All You Need. In Advances in Neural Information Processing Systems 31 (NIPS 2017), pp. 5998-6008, 2017. [2] Roman Grundkiewicz and Marcin Junczys-Dowmunt. Near Human-Level Performance in Grammatical Error Correction with Hybrid Machine Translation. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT 2018), pp. 284-290, 2018. [3] Wei Zhao, Liang Wang, Kewei Shen, Ruoyu Jia, and Jingming Liu. Improving Grammatical Error Correction via Pre-Training a Copy-Augmented Architecture with Unlabeled Data. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (NAACL 2019), 2019. [4] Masahiro Kaneko, Masato Mita, Shun Kiyono, Jun Suzuki, and Kentaro Inui. Encoder-decoder models can benefit from pre-trained masked language models in grammatical error correction. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL 2020), pp. 4248-4254, 2020. [5] Roman Grundkiewicz, Marcin Junczys-Dowmunt, and Kenneth Heafield. Neural grammatical error correction systems with unsupervised pre-training on synthetic data. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications (BEA 2019), pp. 252-263, 2019. [6] Shun Kiyono, Jun Suzuki, Masato Mita, Tomoya Mizumoto, and Kentaro Inui. An empirical study of incorporating pseudo data into grammatical error correction. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP 2019), pp. 1236-1242, 2019. [7] Tal Linzen, Emmanuel Dupoux, and Yoav Goldberg. Assessing the Ability of LSTMs to Learn Syntax-Sensitive Dependencies. Transactions of the Association for Computational Linguistics (TACL), Vol. 4, pp. 521-535, 2016. [8] Kristina Gulordava, Piotr Bojanowski, Edouard Grave, Tal Linzen, and Marco Baroni. Colorless Green Recurrent Networks Dream Hierarchically. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT 2018), pp. 1195-1205, 2018. [9] Christopher Bryant, Mariano Felice, and Ted Briscoe. Automatic Annotation and Evaluation of Error Types for Grammatical Error Correction. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (ACL 2017), pp. 793-805, 2017. [10] Hitomi Yanaka, Koji Mineshima, Daisuke Bekki, and Kentaro Inui. Do Neural Models Learn Systematicity of Monotonicity Inference in Natural Language? In Proceedings of the 58th Annual Meeting of the Association for Coтputational Linguistics (ACL 2020), pp. 6105-6117, 2020. [11] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A Fast, Extensible Toolkit for Sequence Modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (NAACL 2019), 2019. [12] Richard Futrell and Roger P. Levy. Do RNNs Learn Human-like Abstract Word Order Preferences? In Proceedings of the Society for Computation in Linguistics (SCiL 2019), pp. 50-59, 2019. [13] Diederik Kingma and Jimmy Ba. Adam: A Method for Stochastic Optimization. In Proceedings of the 3rd International Conference on Learning Representations (ICLR 2015), 2015 [14] Christian Szegedy, Vincent Vanhoucke, Sergey Ioffe, Jon Shlens, and Zbigniew Wojna. Rethinking the inception architecture for computer vision. In 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2016), pp. 2818-2826, 2016. ## A人エデータの構築に用いた CFG 規則 表 4 人工データ構築に用いた CFG 規則 (一部). 各誤りタイプの誤りありの生成規則を-誤りタイプで示す. $ \begin{aligned} & \begin{array}{ll} \mathrm{S} & \rightarrow \mathrm{NP} \mathrm{VP} \\ \mathrm{S}_{\text {-SVA }} & \rightarrow \mathrm{NP}_{s g} \mathrm{VP}_{p l} \mid \mathrm{NP}_{p l} \quad \mathrm{VP}_{s g} \end{array} \\ & \begin{array}{lll} \text { VP } & \rightarrow \quad \text { IV } \mid \text { IV Adv } & \text { TV NP } \end{array} \\ & \mathrm{VP}_{\text {-FORM }} \rightarrow \mathrm{IV}_{\text {ing }}\left|\mathrm{IV}_{\text {ing }} \mathrm{ADV}\right| \mathrm{TV}_{\text {ing }} \mathrm{NP} \\ & \text { VP }_{\text {-MORPH }} \rightarrow \text { IV ADJ } \\ & \mathrm{NP} \quad \rightarrow \quad \mathrm{QN} \mid \mathrm{Q} \text { AdJ } \mathrm{N} \\ & \mathrm{NP}_{- \text {WO }} \quad \rightarrow \quad \text { ADJ Q N } \\ & \mathrm{NP}_{-\mathrm{NUM}} \rightarrow \mathrm{Q}_{s g} \mathrm{~N}_{p l}\left|\mathrm{Q}_{p l} \mathrm{~N}_{s g}\right| \mathrm{Q}_{s g} \text { ADJ } \mathrm{N}_{p l} \mid \mathrm{Q}_{p l} \text { ADJ } \mathrm{N}_{s g} \\ & \text { 語彙項目 } \\ & \mathrm{Q} \quad \rightarrow \quad\{\text { a, every, no, some, many }\} \\ & \mathrm{N} \quad \rightarrow \quad\{\text { dog, rabbit, cat, bear, tiger }\} \\ & \text { IV } \quad \rightarrow \quad\{\text { run, walk, come, dance, leave }\} \\ & \text { TV } \quad \rightarrow \quad\{\text { kicked, hit, cleaned, touched, accepted }\} \\ & \text { ADJ } \quad \rightarrow \quad\{\text { white, gray, big, small, large, old }\} \\ & \text { Adv } \quad \rightarrow \quad \text { \{quickly, slowly, gracefully, seriously, happily }\} \end{aligned} $ ## B実験に使用したデータセットの詳細 表 5 人工データにおける分割(訓練/開発/評価)の詳細. 表 6 実データにおける分割(訓練/開発/評価)の詳細. ## C GEC モデルのハイパーパラメータ
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D5-1.pdf
# ことばつなぎゲーム: ゲーミフィケーションによる小学生の作文教育 大村和正久保圭黒橋禎夫 京都大学大学院情報学研究科 omura@nlp.ist.i.kyoto-u.ac.jp kaykubo.ktu@gmail.com kuro@i.kyoto-u.ac.jp ## 1 はじめに 多くの小学生は作文に苦手意識を持っている [1]. この一因として,日本の作文教育が,読書感想文や生活作文など,自身の情緒を自由に記述させる作文課題を主としていることが挙げられる。課題という形では課題をこなす以上の意欲を持つことが難しく,自由記述式であるために何を書こうかと頭を悩ませることも多い。加えて,作文に対するフィードバックが少ないために,改善点が分からないまま苦手意識だけが募るという悪循環に陥ってしまう. このような現状を改善するためには,文を楽しく組み立てられ,その作文に対するフィードバックを得られるような枠組みが必要であると考えられる。 しかし,作文は,算数の計算問題などとは異なり,自動処理による評価が難しいという問題があった。 近年,大規模な言語資源が構築されるようになり,それらは自然言語処理の発展を支えている。構築された言語資源の中には,作文問題の作問・評価に十分利用可能なものもあり,前述の枠組みが現実味を帯びてきた。 そこで,本研究では,大規模な言語資源を利用し,小学生向けの作文ゲームを考案した。言葉を繋げて単文・複文を作り,その結果にフィードバックを与えることができるゲームを提案する.以下では, このゲームをことばつなぎゲームと呼ぶ. ことばつなぎゲームは,図 1 のように,語と語を格助詞で繋いで文を,文と文を接続助詞で繋いで蓋然的関係1)のある複文(以降,関係と呼ぶ)を作るゲームである.プレイヤーは,与えられた言葉カー ドをマスの形に合わせて配置し,助詞マークで繋いで文および関係を作る. 作成した文および関係は自動評価が可能であり, フィードバックを得ることができる.例えば,作っ 図 1 ことばつなぎゲームのデモ. 図 2 図 1 の入力を自動評価した結果. た文が既存の言語資源にデータとして存在しなければ,図2 のように「より適切な格助詞がある」などのフィードバックを返す.プレイヤーは配置を変えて再評価することができるため,作文課題には無いインタラクティブ性を持つ. まとめると,ことばつなぎゲームは,文を組み立てるという作文時の作業のゲーミフィケーションである。言葉を繋ぐという作業を通して,コロケー ション・助詞の用法・基本的な文の間の蓋然的関係など,作文に必要な知識を養うことができ,これによって,語彙力・思考力の育成に資することを目的としている. 1)ある事柄がある程度起こりうる/真であるという関係. ## 2 言葉カードセットの構築 ## 2.1 問題の仕様 各問題では, 12 枚の言葉カードと無制限に使用できる 9 個の助詞マークが与えられる. これらをもとに文および関係を作る。 言葉カードの内訳は, 名詞カードが 6 枚,動詞カード形容詞カードが 5 枚,自由に単語を入力できるワイルドカードが 1 枚となっている. 名詞・形容詞・動詞をそれぞれ緑色・黄色・橙色で表現するため, 品詞という概念が難しくとも色を手掛かりに区別できる.単語の表記は単語難易度データベース [2] の頻出表記を利用し, 読めない漢字がないようにルビが振られる。また,作文の自由度を上げるため, 述語の活用は現在形 ・ 過去形・否定形 - 過去否定形のいずれかに変更できる. 助詞マークは,主要な格助詞 $($ が・を・に・で・と) が書かれたマーク 5 個と,蓋然的関係を表す接続助詞 (から・と・ので・ら) が書かれたマーク 4 個から成る. 言葉カードと同様に, 色によって助詞の役割を区別できる.マスに当てはめると形が三角形に変わり,三角の向きが係り受けの方向を表す.なお,格助詞「と」は並列助詞として使うこともできる。 ## 2.2 蓋然的基本イベントペアの利用 文を組み立てる面白さを損なわないためにも,言葉カードセットから複数の関係文を作れることが望ましい. このために,本研究では,蓋然的基本イベントペア [3] に含まれる基本イベントの組(以降,基本イベントペアと呼ぶ)を利用する。まず,これらの用語の説明を次に示す. 基本イベントテキストから抽出した述語項構造をクラスタリングし,その中の高頻度なものを核とする表現. 具体的には,格フレーム [4] から高頻度の述語項構造を基本イベントとして獲得する. 蓋然的基本イベントペア蓋然的関係を持ち,前件と後件が共に基本イベントを含むイベントペア.例えば,「やっぱりお腹が空く $\rightarrow$ 駅でたぬきそばを食べる」が該当する。この例に含まれる基本イベントペアは,「お腹が空く $\rightarrow$ そばを食べる」である。 言葉カードセットは基本イベントペアから自動生成する。例えば,次のような基本イベントペアを考える。 表 1 項の修飾語への依存度と修飾語の基本句数に応じた修飾語の扱いを整理した表。 a. 保存状態が悪い $\rightarrow$ カビが生える b. 保存状態が悪い $\rightarrow$ 味が落ちる c. 湿度が高い $\rightarrow$ カビが生える d. 布団を敷く $\rightarrow$ カビが生える e. カビが生える $\rightarrow$ ケースに入れる これらの基本イベントペアを項と述語に分解すると, 図 1 の言葉カードセットが得られる. このように,5つの基本イベントペアをもとにするため,複数の関係文を作ることができる。 ## 2.3 修飾語が重要な項への対処 蓋然的基本イベントペアは,2.2 節の例のように,基本イベントの他に修飾語や任意格を含みうる。 そのままでは応用が難しいため,核にあたる基本イべントペアを利用している. しかし, 修飾語が重要であるために基本イベントペアには蓋然的関係が認められない場合がある.例えば,次のようなものが挙げられる (下線は修飾語を表す). (2) $ \begin{array}{ll} \text { a. } & \text { 線路状態が悪い } \rightarrow \text { 左右に摇れる } \\ \text { b. } & \text { 土曜日は満員の場合が多い } \\ \text { } \rightarrow \text { お早目のご予約が必要だ } \end{array} $ このようなぺアは修飾語を省略すると解釈が困難である.そのため,言葉カードセットの生成元に利用する場合は修飾語を補う必要がある。 この問題に対処するために,項の修飾語への依存度を定量化し, この依存度と修飾語の基本句 ${ }^{2}$ 数に応じて修飾語を自動処理する (表 1). 項の修飾語への依存度は,1)コーパス中で修飾語を伴う割合と, 2) 抽象度の 2 つの軸で定量化する。 修飾語を伴う割合は,蓋然的基本イベントペア約 10 万組から算出する. 抽象度については日本語抽象度辞書 3 )を利用する. 日本語抽象度辞書は, Twitter での利用頻度上位 2 万単語 [5] の内,品詞が名詞・形容詞・動詞であるものを対象に,クラウド 2) 1 個の内容語および 0 個以上の付属語と定義される単位. 3) http://sociocom.jp/ data/2019-AWD-J/ 図 3 カードセットの生成手法の概要図. ソーシングで 1 から 5 までの抽象度を付与したものである. 本研究では,次の条件を満たす時,その項は修飾語への依存度が高いとする。 [ 修飾語を伴う割合 ] $\times 5+$ [ 抽象度 ] >= 5.75 これをもとに,修飾語の付与および基本イベントペアの除外を行なう。 ## 2.4 言葉カードセットの生成手法 カードセットの生成手順は,次の 3 ステップから成る (図 3). 1. 単語難易度による閾値条件を設定し,条件を満たす基本イベントペアに対象を絞る。 2. ベースとなる基本イベントペアを 1 つ選び,これをもとにその他の基本イベントペアを 4 つ選択する. 3. 獲得された 5 つの基本イベントペアを項と述語に分解することで,カードセットを生成する。 以下では,各ステップについて説明する。 ## 2.4.1 単語難易度による基本イベントペアの選択 対象が小学生であることを考慮し,単語難易度による語彙の調整を行う。このために,単語難易度データベース [2]を利用する。 単語難易度データベースは, 形態素解析器 Juman++[6] の辞書に登録されている約 26,000 語を対象に,クラウドソーシングで習得時期を付与したものである. 習得時期は 1 から 5 までの数値で表され,これを単語難易度として利用する. 習得時期と数値の対応関係は, $(1,2,3,4,5)=($ 小学生以前, 小学校低学年, 小学校高学年, 中学生以降, 単語を見聞きしたことがない) となっている。 本研究では,次の 3 つの閾値条件を設ける。 やさしい基本イベントペアに含まれる各単語の単語難易度が全て 2.0 を超えない. ふつう基本イベントペアに含まれる単語の平均 表 2 カードセットの生成結果. 単語難易度が 1.5 以上かつ各単語の単語難易度が全て 2.5 を超えない。 むずかしい基本イベントペアに含まれる単語の平均単語難易度が 2.0 以上である. 上限は厳密に超えないように定めるが,下限は平均単語難易度を用いることで多少のぶれを許容する。 ## 2.4 .2 基本イベントペアの選択 単語難易度による閾値条件を満たす基本イベントペア集合から,カードセットの生成元となる 5 つの基本イベントペアを選択する.具体的には,ベースとなる基本イベントペア (以降,シードと呼ぶ)を 1 つ決め,シードの前件または後件を共有する基本イベントペアを無作為に 4 つ選択する. シードを含め計 5 つの基本イベントペアを獲得できなかった場合,カードセットを生成しない. ## 2.4.3 カードセットの生成 前段階で選択した 5 つの基本イベントペアを,項と述語に分解する。重複を除いた結果,項が 6 個かつ述語が 5 個または 6 個得られた場合,それをカー ドセットとする。述語が 6 個得られた場合は,シー ドに含まれない述語を無作為に 1 つワイルドカードに置き換える。 ## 2.5 生成結果 2.4 節の手法をもとに,難易度ごとに言葉カードセットを生成した結果を表 2 に示す. 個人が遊ぶ分には十分な規模のカードセットを生成できている。 また,修飾語を付加することで改善された例を図 4 に示す. 修飾語によって他の単語と結びつきやすくなると同時に,解釈が難しい基本イベントペアを除いているため,文が作りやすくなっている. 図 4 修飾語を考慮することで改善される例. 赤枠の部分が,付加された修飾語である. ## 3 入力の自動評価 プレイヤーが盤面のデータを送信すると,その入力が自動評価される.この自動評価は,1) 文および関係の認識,2) 文および関係の自動評価,3) 評価結果のフィードバックという手順で行われる. ## 3.1 文および関係の認識 格助詞で繋がれる経路の内,項のカードから始まり述語のカードで終わるものを文とみなす。また,認識された文に対し,接続助詞で繋がれる 2 文を関係とみなす。接続助詞について,接続元は述語のカードでなければならないが,接続先は項と述語のどちらでも良いとする.図1のように,接続元/接続先の文が複数存在する場合は,全ての文の組み合わせを考慮する。 ## 3.2 文および関係の自動評価 文の評価方針として,項と述語の共起頻度が高く (=慣用的であり),より系列長が長い文を高く評価する. 文の評価は,格フレーム4) の用例数をもとに決定する。具体的には,用例がある格フレーム $c f$ に対し, 項と格の組 $(a, c)$ ごとに次のようなスコア関数 $S$ でスコアを計算する. $ \begin{gathered} S(a, c, c f)=0.5+0.5 \times \min \left(1, \frac{f_{a, c, c f}}{f_{c f}} \times 5\right) \\ f_{a, c, c f}: \text { 格 } c \text { における項 } a \text { の頻度 } \\ f_{c f}: \text { 格フレーム } c f \text { の頻度 } \end{gathered} $ 例えば,「简が顔を出す」という文のスコアは次のように計算される。 $S\left(\right.$ 简, が, 出す 6 ) $+S\left(\right.$ 顔, を,出す 6 ) $\left.=0.5+1=1.5^{5}\right)$ なお,複数の格フレームに用例がある場合,スコアが最大となるものを選ぶ。 _{i}\right.\lrcorner$ は,述語「出す」の $i$ 番目の格フレームを表す. } スコアをそのまま文の評価とすると解釈が難しいため,文の評価 $e$ はスコア $s$ をもとに次のように決定する。 $ e= \begin{cases}\rightsquigarrow \succsim & (s>=1) \\ \nwarrow & (0<s<1) \\ ? & (s=0)\end{cases} $ 関係の評価は,基本イベントペアデータのいずれかを包含すれば“记放”,そうでなければ“?”とする.包含関係を調べる際は,述語の否定の極性まで一致することを確認する。 ## 3.3 評価結果のフィードバック 評価が“?”であるものは,その理由に応じて次のような説明文を返す。 ・文が不完全である (項または述語が欠けている,述語から項に係っているなど) ・より適切な格助詞がある ・未知の文/関係である 3 点目については,誤り報告機能を付けることで未知の関係文の収集が可能になると考えられる。 ## 4 関連研究 日本語の作文に関する実応用に向けた取り組みは,文法誤り訂正 [7] や記述式答案の自動採点 [8] など多岐に渡る。これらの研究は,作文の評価時における負荷を軽減することを目的としており,この点で本研究の目的とは異なる. $ \text { ゲーミフィケーション・GWAP については,これ } $ に関するワークショップが LREC2020 で開かれるなど,様々な目的で取り組まれている.例えば,常識獲得 $[9,10]$ や語義曖昧性の解消 [11] などがある. ことばつなぎゲームは,アノテーションデータの収集より,能力の育成に焦点を当てている。 ## 5 おわりに 本研究では,大規模な言語資源を利用した作文のゲーミフィケーションに取り組んだ。小学生の作文教育に向けたゲームを考案し,そのためのデータおよびデモシステムを構築した. デモシステムをもとにアプリを作る予定であり,今後,実用性を検証していきたいと考えている。また,このゲームを通した未知の関係文の収集も検討する。 謝辞本研究は, (公財) 日本漢字能力検定協会の支援を受けています. ## 参考文献 [1] 立命館大学図書館. レファレンス事例詳細, 2017. https://crd.ndl.go.jp/reference/ modules/d3ndlcrdentry/index.php?page=ref_view\& $i d=1000209543$. [2] 水谷勇介, 河原大輔, 黒橋禎夫. クラウドソーシングを用いた習得時期の想起質問に基づく単語難易度データベースの構築. 言語処理学会第 25 回年次大会, 2019. [3] Kazumasa Omura, Daisuke Kawahara, and Sadao Kurohashi. A Method for Building a Commonsense Inference Dataset based on Basic Events. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), 2020. [4] Daisuke Kawahara, Daniel Peterson, Octavian Popescu, and Martha Palmer. Inducing Example-based Semantic Frames from a Massive Amount of Verb Uses. In Proceedings of the 14th Conference of the European Chapter of the Association for Computational Linguistics, 2014. [5] 村山太一, 若宮翔子, 荒牧英治. WORD GINI: 語の使用の偏りを捉える指標の提案とその応用. 言語処理学会第 24 回年次大会, 2018. [6] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Design and Structure of The Juman++ Morphological Analyzer. Journal of Natural Language Processing, Vol. 27, No. 1, pp. 89-132, 2019. [7] 小川耀一朗, 山本和英. 日本語文法誤り訂正における誤り傾向を考慮した擬似誤り生成. 言語処理学会第 26 回年次大会, 2020. [8] Tomoya Mizumoto, Hiroki Ouchi, Yoriko Isobe, Paul Reisert, Ryo Nagata, Satoshi Sekine, and Kentaro Inui. Analytic Score Prediction and Justification Identification in Automated Short Answer Scoring. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, 2019. [9] Yen-ling Kuo, Jong-Chuan Lee, Kai-yang Chiang, Rex Wang, Edward Shen, Cheng-wei Chan, and Jane Yungjen Hsu. Community-Based Game Design: Experiments on Social Games for Commonsense Data Collection. In Proceedings of the ACM SIGKDD Workshop on Human Computation, 2009. [10] Naoki Otani, Daisuke Kawahara, Sadao Kurohashi, Nobuhiro Kaji, and Manabu Sassano. Large-Scale Acquisition of Commonsense Knowledge via a Quiz Game on a Dialogue System. In Proceedings of the Open Knowledge Base and Question Answering Workshop (OKBQA 2016), 2016. [11] Noortje J. Venhuizen, Valerio Basile, Kilian Evang, and Johan Bos. Gamification for Word Sense Labeling. In Proceedings of the 10th International Conference on Computational Semantics (IWCS 2013) - Short Papers, 2013.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D5-2.pdf
# アノテータのバイアスを考慮した記述・論述式自動採点手法 岡野将士 電気通信大学大学院 okano@ai. lab.uec.ac.jp } 宇都雅輝 電気通信大学大学院 uto@ai.lab.uec.ac.jp ## 1 はじめに 近年,新しい時代に必要となる能力を評価する手法として記述・論述式試験が注目されている.しかし,大規模試験に記述・論述式試験を導入する場合,時間的・金銭的コストの高さや採点の公平性の担保の難しさといった課題が存在する. 自動採点手法はこれらの解決策の一つとして注目されている. 自動採点を実現する方法として,事前に定義された特徴量を用いる手法 $[1,2,3,4]$ や深層学習モデルを用いた手法 $[5,6,7,8,9]$ が存在する. これらの手法の多くは, 教師あり機械学習を用いてモデル学習を行う。しかしながら,教師あり機械学習では,モデル学習に利用するデータセットの質がモデルの構築精度に影響を与えるという欠点が知られている。教師あり機械学習を用いた自動採点モデルでは,モデル学習に利用する採点済み答案データセット中の得点はバイアスのない正確な得点であると仮定する.しかし,大規模試験では多数のアノテータが分担して採点を行うことが一般的であり,そのような場合,個々の答案に対する得点がアノテータの特性 (甘さ/厳しさなど)に強く依存してしまう [10]. このようなアノテータの特性の影響を受けたデータを利用した場合,学習されるモデルもその影響を受け, 予測性能が低下することが報告されている [11]. 他方で,教育・心理測定の分野において,アノテータの特性の影響を考慮して真の得点を推定できる手法が多数提案されている. 具体的には, 数理モデルを用いたテスト理論の一つである項目反応モデルに,アノテータの特性を表すパラメータを加えたモデルとして提案されている $[10,12,13,14,15,16]$ そこで本研究では,アノテータの特性を考慮した項目反応モデルを教師あり機械学習を用いた自動採点モデルに組み込んだ,アノテータのバイアスに頑健な新たな自動採点手法を提案する。具体的には, アノテータが与える得点データから項目反応モデルを用いて各答案の真の得点を推定し,これを目的変数として自動採点モデルを学習する.この手法は様々な自動採点モデルで利用できるが,本研究では特徵量ベース自動採点モデルとして EASE[4], 深層学習自動採点モデルとして, LSTM に基づくモデル [7] と BERTを用いたモデル [9]への組み込みを行う. 提案手法を利用することで,アノテータのバイアスに頑健なモデル学習と得点予測が期待できる. ## 2 データ 本研究では,ある記述・論述式問題に対する $J$ 人の受験者 $\mathscr{F}=\{1, \ldots, J\}$ の答案集合 $\boldsymbol{A}$ と,各答案を $R$ 人のアノテータ $\mathscr{R}=\{1, \ldots, R\}$ で分担して採点した得点集合 $\boldsymbol{U}$ で構成されるデータを想定する. 答案集合 $\boldsymbol{A}$ は,受験者 $j \in \mathcal{F}$ の答案 $e_{j}$ の集合であり, 得点集合 $\boldsymbol{U}$ は答案 $e_{j}$ に対してアノテータ $r \in \mathscr{R}$ が $K$ 段階 $\mathscr{K}=\{1, \ldots, K\}$ で与えた得点 $U_{j r}$ の集合として,U=\{U$\left.U_{j r} \in \mathscr{K} \cup\{-1\} \mid j \in \mathcal{F}, r \in \mathscr{R}\right.\}$ と定義される. ここで, $U_{j r}=-1$ は久測データを表す.欠測データは答案 $e_{j}$ にアノテータ $r$ が割り当てられていない場合に生じる. 実際の採点場面ではアノテータの負担軽減のために,個々の答案に数名のアノテータを割り当てて採点が行われるため,このような久測が生じる。 ## 3 自動採点モデル ## 3.1 特徴量ベース自動採点モデル 事前に定義した特徴量を用いた自動採点手法は自動採点を実現する手法として古くから研究されており,実際の試験現場でも用いられている $[1,2,3]$. それらの中でも特に, EASE (Enhanced AI Scoring Engine)[4] は自動採点のコンペティションで3位に入賞したモデルであり, 数多くの研究で比較対象として用いられている.このモデルでは, 使用語彙や品詞情報, 単語数などに基づく特徴量を用いて得点の推定を行っている. 具体的には,これらの特徴量を答案から抽出し,それらを回帰モデルに入力する ことで自動採点を実現している. また,回帰モデルとしてべイジアンリッジ回帰(BLRR)とサポートベクター回帰(SVR)が使用されることが多い [3]. ## 3.2 深層学習自動採点モデル 深層学習自動採点モデルは対象答案の単語系列を深層学習モデルに入力することで,人手で設計した特徴量を利用することなく,採点を行う手法であり, 近年多くの手法が提案されている $[5,6,7,8,9]$. LSTM に基づくモデル [7] はそれら最先端研究のベースライン手法として知られている. このモデルでは,答案の単語系列を入力し,5つの層(Lookup Table Layer $\cdot$ Convolution Layer $\cdot$ Recurrent Layer $\cdot$ Pooling Layer ・ Linear Layer with Sigmoid Activation)を通して得点を予測する. LSTM は 3 層目の Recurrent Layer で用いられ,得点予測に有効な特徴量を文脈を考慮して抽出する。また, 5 層目の Linear Layer with Sigmoid Activation では Pooling 層の出力ベクトル $\boldsymbol{M}_{j}$ から得点を表すスカラー值を求める. 具体的には, シグモイド関数 $\sigma$ を用いて, $\hat{U}_{j}=\sigma\left(\boldsymbol{W}_{\boldsymbol{j}}+b\right)$ で計算する. ここで, $\boldsymbol{W}$ と $b$ は重みとバイアスを表すパラメータである.この際, $\hat{U}_{j}$ は $(0,1)$ の值を取るため,一次変換を行い,実際の得点尺度に合わせる。 また,様々なタスクで最高精度を達成している BERT[17] を用いたモデル [9]も提案されている. このモデルでは, 答案の単語系列を入力し, 多層の双方向 Transformer(BERT)を通すことで,中間表現 $\boldsymbol{M}_{j}$ を生成する.この中間表現 $\boldsymbol{M}_{j}$ を LSTM に基づくモデルと同様の Linear Layer with Sigmoid Activation に通すことで得点を計算する。 ## 3.3 従来手法の問題点 上述した自動採点モデルの多くは,教師あり機械学習を用いてモデル学習を行う。この際,採点済みの答案データセットを教師データとして活用する。具体的には,次式で定義される平均二乗誤差 (mean squared error:MSE)を損失関数として, 誤差逆伝搬法で学習することが一般的である. $ \operatorname{MSE}(\boldsymbol{U}, \hat{\boldsymbol{U}})=\frac{1}{J} \sum_{j=1}^{J}\left(U_{j}-\hat{U}_{j}\right) $ ここで, $U_{j}$ は $e_{j}$ の得点を, $\hat{U}_{j}$ は $e_{j}$ の予測得点を表す.しかし, 学習データ中の得点データはアノテー タの特性に強く依存する.この場合, 自動採点モデルにも,アノテータの特性の影響が反映され,予測精度が低下してしまうことが指摘されている. 本研究では,この問題を解決するために,項目反応理論を用いる。 ## 4 項目反応モデル 項目反応理論 (Item Response Theory:IRT) は,コンピュータ・テスティングの普及とともに近年様々な分野で実用化が進められている数理モデルを用いたテスト理論の一つである. 本研究では, 最先端研究である宇都・植野のモデル $[13,18]$ を利用する. 宇都・植野のモデル $[13,18]$ では,受験者 $j \in \mathscr{g}$ ある答案に対し, アノテータ $r \in \mathscr{R}$ が得点 $k \in \mathscr{K}$ を与える確率は次式で定義される。 $ P_{j r k}=\frac{\exp \sum_{m=1}^{k}\left[\alpha_{r}\left(\theta_{j}-\beta_{r}-d_{r m}\right)\right]}{\sum_{l=1}^{K} \exp \sum_{m=1}^{l}\left[\alpha_{r}\left(\theta_{j}-\beta_{r}-d_{r m}\right)\right]} $ ここで, $\alpha_{r}, \beta_{r}, d_{r k}$ はそれぞれアノテータ $r$ の一貫性,厳しさ,得点 $k$ に対するアノテータ $r$ の厳しさを表し(ただし,パラメータの識別性のために, $d_{r 1}=0, \sum_{k=2}^{K} d_{r k}=0$ を仮定 $), \theta_{j}$ は受験者 $j$ の真の能力を表す潜在変数である.この $\theta_{j}$ は採点対象となる答案の数が受験者ごとに一つであることから,その受験者の答案 $e_{j}$ の真の得点(以降では IRT 得点と呼ぶ)を表す潜在変数とみなせる. 本研究のアイディアは,このモデルによって推定される IRT 得点 $\theta_{j}$ を用いて自動採点モデルを学習することにある. ## 5 提案手法 本研究では,アノテータの特性を考慮した項目反応モデルを自動採点モデルに組み込むことで,学習データに含まれるアノテータのバイアスに頑健な自動採点手法を提案する。提案手法は,IRTによる得点補正と, 自動採点モデルの学習の二段階で構成される. モデルの学習段階と得点の予測段階について,手順を説明する。 ## 1. モデル学習 1) 得点データ $\boldsymbol{U}$ から,IRT モデルを用いて $\theta_{j}$ を推定する。この $\theta_{j}$ を,答案 $e_{j}$ に対する得点とする。2) 得点 $\theta_{j}$ を予測するように,自動採点モデルを学習する. 具体的には自動採点モデルの損失関数を次の MSE で定義し, 誤差逆伝播法によりパラメータを学習する。 $ \operatorname{MSE}(\boldsymbol{\theta}, \hat{\boldsymbol{\theta}})=\frac{1}{J} \sum_{j=1}^{J}\left(\theta_{j}-\hat{\theta}_{j}\right)^{2} $ ここで $\hat{\theta}_{j}$ は,自動採点モデルの予測値を表す. 表 1 検証モデルの設定 ## 2. 得点予測 得点予測は,前節で学習されたモデルを用いて $\theta_{j}$ を予測することで行う.ただし,IRTでは一般に $\theta_{j}$ の分布として標準正規分布を仮定するため, $\theta_{j}$ は $[-\infty, \infty]$ の範囲の値をとり, 元の得点とは尺度が変わってしまう. 元の得点尺度に合わせるために,本実験では次のように IRT モデルに基づく期待得点 $\hat{U}_{j}$ を求める. $ \hat{U}_{j}=\frac{1}{R} \sum_{r=1}^{R} \sum_{k=1}^{K} k \cdot P_{j r k} $ なお,提案手法の本来の利用方法でないが,提案手法では個々のアノテータが与える得点も予測することができる.具体的には,アノテー タ $r$ が $e_{j^{\prime}}$ に与える得点は次式で予測できる. $ \hat{U}_{j^{\prime} r}=\sum_{k=1}^{K} k \cdot P_{j^{\prime} r k} $ ## 6 実データによる評価実験 ## 6.1 実データ 本実験では,実データとして自動採点モデルのベンチマークデータとして広く利用されている Automated Student Assessment Prize(ASAP)を使用する. ASAP は 2012 年にヒューレット財団がスポンサーとなって開催されたコンペティションのデー タであり,8つの異なるトピックに対する答案デー タと得点データで構成されている. ただし,ASAP のデータにはアノテータの情報が含まれていないため,提案手法を直接は適用できない。そのため,新たにアノテータを雇用して ASAP の答案データを再度採点し, 本実験で用いる得点データを収集した. 具体的には, 先行研究で予測精度が最も高かったトピック 5 の 1805 個の答案に対して, Amazon Mechanical Turk で募集した英語ネイティブ 38 名のアノテータを 1 つの答案あたり 3~5 名割り当てて, ASAP と同様に 5 段階の採点を行った. ASAP の得点データとの相関は,平均で 0.675 であった. ## 6.2 得点予測の頑健性の評価 本節では,提案手法を利用することで,アノテー タのバイアスに頑健な自動採点モデルを学習できるかを評価する.本実験では,個々の答案を採点するアノテータを変化させても,安定した性能の自動採点モデルを学習できるかによってこれを評価する. 具体的には,項目反応モデルの研究における実験手順 $[19,20]$ を参考に,以下の手順で評価実験を行った. 1) 得点データから IRT モデルのアノテータに関するパラメータを推定した. 2) 各答案に与えられた複数のアノテータの得点からランダムに 1 つの得点を選択することで,各答案に単一の得点が与えられたデータセットを作成した. 同様の手続きで 10 パターンの異なるデータセットを作成した. これらのデータセットを $\left.\{\boldsymbol{U}_{1}^{\prime}, \ldots, \boldsymbol{U}_{10}^{\prime}\right.\}$ とする.3) $n$ 番目の得点データセット $U_{n}^{\prime}$ から各答案に対する IRT 得点を推定した. 推定時には,手順 1 で推定したアノテータに関するパラメータを所与とした. 4) 得られた IRT 得点と答案文のデータセットを用いて,5 分割交差検証法で各答案の予測得点を求めた. 5) 手順 4 を $n=\{1, \ldots, 10\}$ について行ったあと, $n$ 番目のデータセットから求めた予測得点と $n^{\prime}$ 番目の得点データセットから推定した予測得点とのカッパ係数,重み付きカッパ係数(Linear Weighted Kappa: LWK),2 次重み付きカッパ係数 (Quadratic Weighted Kappa:QWK), 平均絶対誤差 (Mean Absolute Error: MAE), 平均平方二乗誤差(Root Mean Square Error : RMSE),相関係数を $n \in\{1, \ldots, 10\} , n^{\prime} \in\{1, \ldots, 10\}$ の全ての組み合わせについて求め,それらの平均を算出した. 比較のために,IRT を利用しない既存の自動採点手法についても同様の実験を行った。具体的には,手順 2 で作成したデータセット $\left.\{\boldsymbol{U}_{1}^{\prime}, \ldots, U_{10}^{\prime}\right.\}$ を用いて, 手順 4, 5 と同様に 5 分割交差検証法で得点を予測し, 予測された得点同士の一致性指標を求めた. また,提案手法・従来手法ともに,深層学習自動採点モデルとしてはLSTM と BERT を用いたモデル,特徴量ベース手法としては EASE について上記の実験を行った.なお,LSTM 自動採点モデルについては,各層の有無や構成について複数の方式が提案されている。 そのため,表 1 に記載した複数の構成のモデルについて検証を行った。また,EASEに 表 2 予測の頑健性の評価結果 }} & \multirow{2}{*}{\multicolumn{3}{|c|}{ LWK }} & \multirow{2}{*}{\multicolumn{2}{|c|}{}} & \multirow{2}{*}{\multicolumn{3}{|c|}{ 值 $\frac{M}{M}$}} & $\mathrm{AE}$ & \multicolumn{3}{|c|}{ RMSE } & \multicolumn{3}{|c|}{ 相関係娄 } \\ 表 3 予測得点の評価結果 & ツハ & & & & 直 & & & & 提案 & & & 提案 & & & & 既 & \\ *は $\mathrm{p}$ 值が 0.05 未満,** は $\mathrm{p}$ 値が 0.01 未満を表す. ついても用いる回帰モデルは複数考えられるが,先行研究で精度が高い BLRR のモデルを用いる. さらに,提案手法と既存手法で性能に有意な差があるかを確認するために,各指標の平均値について,提案手法と既存手法で $\mathrm{t}$ 検定を行った. 実験結果を表 2 に示す. 表中では提案手法と既存手法で性能が高い方を太字で示している。表 2 から,ほぼ全ての条件において,提案手法が有意に高い性能を示していることが確認できる。このことから,IRT 得点を目的変数として自動採点モデルを学習する提案手法により,アノテータのバイアスに頑健な自動採点を実現できたことがわかる. ## 6.3 提案手法の得点予測精度評価 本節では,各アノテータの得点 $U_{j r}$ の予測精度を評価するために, $U_{j r}$ の予測得点と実際の得点との一致度を, 前節と同様の一致性指標を用いて 5 分割交差検証法で評価した. 具体的な実験手順は次の通りである。提案モデルでは,手順 $1 , 2 , 3$ は前節と同様に行い,手順 4 において式 (4) で期待得点を求める代わりに各アノテータの得点の予測値を式 (5) で求め, 予測された得点と実際の得点との一致性指標を求めた. 既存モデルでは,前節の手順 2 で作成したデータセット $\left.\{\boldsymbol{U}_{1}^{\prime}, \ldots, \boldsymbol{U}_{10}^{\prime}\right.\}$ を用いて 5 分割交差検証法で得点予測を行い,予測された得点と実際の得点との一致性指標を求めた. 結果を表 3 に示す. 表 3 では,提案手法と既存手法で性能が高い方を太字で示している. 提案手法と既存手法の性能を比較すると,ほぼ全ての場合で提案手法が高い性能を示している。これは,IRTによって補正された得点は文章の質を素点そのものよりも正確に反映しているため,提案手法では文章と得点の関係がより適切に学習できたことが要因と考えられる.このことから,提案手法は予測得点の頑健性向上に加え,アノテータが与えた得点の予測にも有効であることが確認できた。 ## 7 まとめ 近年,自動採点技術に注目が集まっているが,教師あり機械学習を用いたモデルでは学習データセットによるモデルの不安定さが指摘されてきた。本研究では, IRTを用いて各答案の真の得点を推定し, それを自動採点モデルに学習させることで,この問題を解決する手法を提案し,実データ実験から有効性を示した.今後は,このモデルを end-to-end にすることで,IRT 得点の推定にテキストの情報も活用し,さらなる性能改善を目指したい。 ## 参考文献 [1] Yigal Attali and Jill Burstein. Automated essay scoring with e-rater ${ }^{\circledR}$ v.2. Journal of Technology, Learning and Assessment, Vol. 4, No. 3, pp. 1-30, February 2006. [2] Hongbo Chen and Ben He. Automated essay scoring by maximizing human-machine agreement. In Proceedings of the Conference on Empirical Methods in Natural Language Processing, pp. 1741-1752. Association for Computational Linguistics, October 2013. [3] Peter Phandi, Kian Ming A. Chai, and Hwee Tou Ng. Flexible domain adaptation for automated essay scoring using correlated linear regression. In Proceedings of the Conference on Empirical Methods in Natural Language Processing, pp. 431-439. Association for Computational Linguistics, 2015. [4] Tauber James, Paruchuri Vik, Huang Diana, Jarvis John, Aune Nate, and Kern John. Enhanced ai scoring engine, (2021-1 閲覧). https://github.com/edx/ease. [5] Dimitrios Alikaniotis, Helen Yannakoudakis, and Marek Rei. Automatic text scoring using neural networks. In Proceedings of the Annual Meeting of the Association for Computational Linguistics, Vol. 1, pp. 715-725. Association for Computational Linguistics, August 2016. [6] Jiawei Liu, Yang Xu, and Lingzhe Zhao. Automated essay scoring based on two-stage learning. CoRR,arXiv, December 2019. [7] Kaveh Taghipour and Hwee Tou Ng. A neural approach to automated essay scoring. In Proceedings of the Conference on Empirical Methods in Natural Language Processing, pp. 1882-1891. Association for Computational Linguistics, November 2016. [8] Fei Dong and Yue Zhang. Automatic features for essay scoring - an empirical study. In Proceedings of the Conference on Empirical Methods in Natural Language Processing, pp. 1072-1077. Association for Computational Linguistics, November 2016. [9] Pedro Uria Rodriguez, Amir Jafari, and Christopher M. Ormerod. Language models and automated essay scoring. arXiv, September 2019. [10] 宇都雅輝, 植野真臣. パフォーマンス評価のための項目反応モデルの比較と展望. 日本テスト学会誌, Vol. 12, No. 1, pp. 56-75, May 2016. [11] Evelin Amorim, Marcia Cançado, and Adriano Veloso. Automated essay scoring in the presence of biased ratings. In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics, Vol. 1, pp. 229-237. Association for Computational Linguistics, June 2018. [12] Masaki Uto and Maomi Ueno. Empirical comparison of item response theory models with rater's parameters. $\mathrm{He}$ liyon, Elsevier, Vol. 4, No. 5, pp. 1-32, May 2018. [13] Masaki Uto and Maomi Ueno. A generalized many-facet Rasch model and its Bayesian estimation using Hamiltonian Monte Carlo. Behaviormetrika, Springer, Vol. 47, No. 2, pp. 469-496, 2020. [14] Richard J. Patz, Brian W. Junker, Matthew S. Johnson, and Louis T. Mariano. The hierarchical rater model for rated test items and its application to large-scale educational assessment data. Journal of Educational and Behavioral Statistics, Vol. 27, No. 4, pp. 341-384, January 2002. [15] Richard J. Patz and Brian W. Junker. Applications and extensions of MCMC in IRT: Multiple item types, missing data, and rated responses. Journal of Educational and Behavioral Statistics, Vol. 24, No. 4, pp.342-366, December 1999. [16] J.M. Linacre. Many-faceted Rasch Measurement. MESA Press, January 1989. [17] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics, pp. 4171-4186. Association for Computational Linguistics, 2019. [18] 宇都雅輝, 植野真臣. ピアアセスメントにおける異質評価者に頑健な項目反応理論. 電子情報通信学会論文誌. D, 情報・システム, Vol. 101, No. 1, pp. 211-224, January 2018. [19] 宇都雅輝. 論述式試験における評点データと文章情報を活用した項目反応トピックモデル. 電子情報通信学会論文誌 D, Vol. 102, No. 8, pp. 553-566, August 2019. [20] Masaki Uto. Rater-effect IRT model integrating supervised LDA for accurate measurement of essay writing ability. In Proceedings of the Conference on Artificial Intelligence in Education, pp. 494-506. Springer, June 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D5-3.pdf
# L1-aware Grammatical Error Correction via Multitasking with Native Language Estimation Yuehao Yuan The University of Tokyo yuanyuehao@tkl.iis.u-tokyo.ac.jp } Naoki Yoshinaga Institute of Industrial Science, The University of Tokyo ynaga@iis.u-tokyo.ac.jp } Figure 1 Our L1-aware GEC model with multitasking with L1 estimation. Lang-8 dataset [5]. Experimental results confirmed that our method can perform accurate L1-aware GEC without assuming L1 information in evaluation. ## 2 Related work Inspired by the observation that the L1s of secondlanguage learners of English strongly influence the expression and language usage of English [1], researchers set up various NLP tasks such as native language identification [6] and linguistic typology prediction [7], and also exploited the observation in solving our target task, grammatical error correction (GEC) [2, 4]. Since the distributions of grammatical errors depend on the learners' L1s [8], L1-aware GEC has been studied as a domain adaptation problem. Shamil purposed neural network joint models, and used L1-specific data for finetuning [2]. Maria and Joel considered L1 and proficiency at the same time and demonstrate the effective personalized GEC [4]. Although these approaches successfully improved the GEC performance, they are not applicable to text written by unknown-L1 writers. We have two public datasets for training L1-aware GEC models. Lang-8 [5] dataset is extracted from a social networking site that aims to help users learn each other's L1. 1) Precisely speaking, in this study, we also utilize subgroups of common language families, although we consistently use the term language family. Table 1 The number of sentences written by specific-L1 learners of English in two GEC datasets (after preprocessing). CLC-FCE [9] compiles exam scripts in English written by students from various countries. These datasets, however, have some shortcomings for L1-aware GEC; the lack and imbalance of L1-specific data, as shown in Table 1. Although the fine-tuning used in neural L1-aware GEC models alleviates the data sparseness problem to a certain extent, it will not be effective when few or no annotated data is available as for Dutch. ## 3 Proposal A straightforward way to perform L1-aware GEC on text whose writer's L1 is unknown is to first perform native language identification on the text and apply the GEC model trained for the estimated L1. However, this pipeline approach will be affected by error propagation, since accurate natural language identification is unrealistic when the input length is small. Even if input length is long, the input can be written by more than a single writers of various L1; for example, the paper you are reading now has been collaboratively written by Chinese and Japanese second-language learners of English. In this study, we therefore propose to implicitly consider L1 of the writer of the input, and train a neural seq2seq-based GEC model [10] using a multitask learning with native language (L1) estimation as the auxiliary task. Specifically, the encoder of the GEC model is abused to guess the L1 of the writer of input text so that it can encode text while being aware of the writer's L1. In testing, the obtained L1-aware encoder can be applied to any text since it does not require L1 annotation to the test input. In what follows, we explain the auxiliary tasks on L1 estimation (§ 3.1), the model structure ( $\S 3.2$ ), and the training procedure (§ 3.3). ## 3.1 Auxiliary tasks Keeping in mind that native language identification from short input is technically difficult, we set two L1 estimation tasks as auxiliary tasks: one task identifies the writer's L1 for a given input, and the other task identifies the language family of the writer's L1. By using the language families with coarse-grained labels instead of languages themselves, we will be able to make the training on the extreme classification of natural language identification more stable [11]. As far as we know, no one tried to use language family of L1 in L1-aware GEC. We therefore performed preliminary experiments to investigate the effectiveness of the language family in L1-aware GEC in the exising L1-aware GEC. Using the Lang-8 datasets, we trained a neural seq2seq-based GEC model [10] by fine-tuning a GEC model trained from the Japanese-L1 data using various L1 data and evaluated the performance of the resulting GEC models on the Spanish-L1 data. The results of this preliminary experiment revealed that GEC data written by learners whose L1s are in the same language family as Spanish is also effective in fine tuning. ## 3.2 Model structure for multitasking The key issue in a performing multitask learning is what to share in the model structure to solve the main and auxiliary tasks. In this study, we adopt a neural seq2seq-based GEC model $[10,12]$ as the basic model structure. To perform a multitask learning with native language estimation, we share the encoder of the main GEC task with the classifiers of L1 (and its language family) estimation, and add a feedforward neural network to perform the classification on the top of the GEC encoder. The overview of our GEC model can be seen back in Figure 1, which illustrates the the following computation process: $ \begin{aligned} h_{t}^{(e n c)} & =\operatorname{encoder}\left(x_{1}^{t}\right) \\ h_{t^{\prime}}^{(\text {dec })} & =\operatorname{decoder}\left(y_{t^{\prime}-1}, h_{t^{\prime}-1}^{(\text {dec })} ; \boldsymbol{h}^{\text {enc }}\right) \\ P\left(y_{t^{\prime}}\right. & =\operatorname{softmax}\left(h_{t^{\prime}}^{(\text {dec })}\right) \\ P(c) & =\operatorname{softmax}\left(\operatorname{FFNN}\left(h_{n}^{(e n c)}\right)\right) \end{aligned} $ We denote the vectors from the hidden state of the topmost layer of encoder as $h_{t}^{(e n c)}$. Eq. 1 through Eq. 3 shows the process of generating output $\boldsymbol{y}$ (corrected input, the main Table 2 Statistics of each L1-specific data in training dataset and test dataset; Chinese-, Japanese- and Korean-L1 data are sampled to perform experiments effectively. Table $3 \quad F_{0.5}$ comparison of models on each L1, FT denote the fine-tuning model corresponding to the selected L1. task), Eq. 4 uses the encoer's output to predict the class (L1 or its language family). When we train these tasks simultaneously, the training of every task will contribute to updating parameters of the GEC encoder; in other words, the model reads (encodes) text while being aware of the writer's L1 and generates (decodes) corrected input from the L1-aware encoding of the input. ## 3.3 Training procedure In the multitask learning, it is important to control the impact of auxiliary tasks on updating the model's parameters. If we keep to incorporate the loss obtained from the auxiliary tasks during whole training, it may harm the performance of the main task. Therefore, we adopt task-wise early stopping [13], a strategy to stop training of auxiliary tasks prior to the main task to suppress the extra impact of auxiliary tasks. ## 4 Experiments To confirm the effectiveness of our GEC model via multitask learning with native language estimation, we utilize the Lang-8 dataset [5] to compare our model with the general seq2seq-based GEC model that does not perform the multitasking. We evaluate the GEC models using the Precision, Recall, and $\mathrm{F}_{0.5}$ measure, computed by the M2 scorer [14]. ## 4.1 Settings In this experiment, we use the Lang-8 dataset [5] that consists of English text written by Chinese, Japanese, Ko- rean, Spanish, Russian, Polish, French, and Italian-L1 learners of English. Since the the size of L1 data for Japanese, Chinese, and Korean is much more than the other languages (Table 1), we randomly sampled part of data for those resource-rich languages for efficient experimentation. We summarized the statistics of the reduced dataset in Table 2. To compare with the baseline model, we prepare three variants of multitask-learning models using the two auxiliary tasks; namely, the one with L1 identification, the one with L1's language family identification, and the one with $\mathrm{L} 1$ and its language family identification. The baseline is the neural seq2seq GEC model [10] that is identical to our model without multitasking. The encoder and the decoder of the GEC model are threelayer bi-directional LSTMs with 200-dimensional hidden states for each layer. The feed-forward networks for the auxiliary tasks have a 200-dimensional input layer and a 256-dimensional hidden layer. To find the best model by the task-wise early stopping [13], we set up multiple stop points from 5 to 30 with interval of 5 . When the training reaches the epoch corresponding to the stop points, we fork the training process to start the training with the GEC loss only. We choose the best stop points that maximized the GEC performance on each L1 dev data. ## 4.2 Results Table 3 lists performance of the GEC models on each L1specific data. We can see from this result that our method could successfully improved L1s with more training data. However, we could not improve the GEC performance for L1s with less training data except French. This is possibly because the native language estimation module in our model tends to estimate dominant L1s from input, which affects a negative impact on the GEC performance of European languages. On the other hand, by comparing the performance of MTL (only L1) and MTL (only LF) on Japanese-L1 and Polish-L1 data, we can find that performance of the latter model has improved significantly, which implies that the introduction of language family is helpful for the GEC model on L1s which is more difficult to distinguish due to less training data. Finally, we investigated the performance of two classification tasks on the test data. We notice that the accuracy of the L1 identification task is $49.90 \%$, while the accuracy of the L1 language family identification is $57.85 \%$. The majority-class baselines for the two identification tasks is $43.47 \%$. Therefore, the accuracy of the classifiers is not very high, especially for the L1 classifier. Although the accuracy of native language estimation tasks is low, considering those tasks as auxiliary tasks have greatly contributed to solving grammatical error correction. ## 5 Conclusion and future work In this study, we propose an L1-aware GEC model via multitask learning with native language estimation. Our model implicitly uses L1s in contrast to the existing methods that is based domain adaptation and explicitly uses L1s in evaluation. To mitigate unstable training caused by the imbalance L1 data on GEC, we consider two tasks on native language estimation; namely, native language (L1) identification and L1's language family identification. Experimental results confirmed that our method achieves improvement over the baseline. ## References [1]Michael Swan and Bernard Smith. Learner English: A Teacher's Guide to Interference and Other Problems. Cambridge Handbooks for Language Teachers. Cambridge University Press, 2 edition, 2001. [2]Shamil Chollampatt, Duc Tam Hoang, and Hwee Tou Ng. Adapting grammatical error correction based on the native language of writers with neural network joint models. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1901-1911, Austin, Texas, November 2016. [3]Alison Bernstein. The School Review, Vol. 86, No. 2, pp. 292-294, 1978. [4]Maria Nadejde and Joel Tetreault. Personalizing grammatical error correction: Adaptation to proficiency level and L1. In Proceedings of the 5th Workshop on Noisy User-generated Text (W-NUT 2019), pp. 27-33, Hong Kong, China, November 2019 . [5]Tomoya Mizumoto, Mamoru Komachi, Masaaki Nagata, and Yuji Matsumoto. Mining revision log of language learning SNS for automated Japanese error correction of second language learners. In Proceedings of 5th International Joint Conference on Natural Language Processing, pp. 147-155, Chiang Mai, Thailand, November 2011. [6]SEAN MASSUNG and CHENGXIANG ZHAI. Non-native text analysis: A survey. Natural Language Engineering, Vol. 22, No. 2, p. 163-186, 2016. [7]Yevgeni Berzak, Roi Reichart, and Boris Katz. Reconstructing native language typology from foreign language usage. In Proceedings of the Eighteenth Conference on Computational Natural Language Learning, pp. 21-29, Ann Arbor, Michigan, June 2014. [8]Yevgeni Berzak, Roi Reichart, and Boris Katz. Contrastive analysis with predictive power: Typology driven estimation of grammatical error distributions in ESL. In Proceedings of the Nineteenth Conference on Computational Natural Language Learning, pp. 94-102, Beijing, China, July 2015. [9]Helen Yannakoudakis, Ted Briscoe, and Ben Medlock. A new dataset and method for automatically grading ESOL texts. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 180-189, Portland, Oregon, USA, June 2011. [10]Tao Ge, Xingxing Zhang, Furu Wei, and Ming Zhou. Automatic grammatical error correction for sequence-to-sequence text generation: An empirical study. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 6059-6064, Florence, Italy, July 2019. [11]Daisuke Oba, Naoki Yoshinaga, Shoetsu Sato, Satoshi Akasaki, and Masashi Toyoda. Modeling personal biases in language use by inducing personalized word embeddings. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 2102-2108, Minneapolis, Minnesota, June 2019. [12]Tao Ge, Furu Wei, and Ming Zhou. Reaching human-level performance in automatic grammatical error correction: An empirical study. CoRR, Vol. abs/1807.01270, , 2018. [13]Zhanpeng Zhang, Ping Luo, Chen Change Loy, and Xiaoou Tang. Facial landmark detection by deep multi-task learning. In David Fleet, Tomas Pajdla, Bernt Schiele, and Tinne Tuytelaars, editors, Computer Vision - ECCV 2014, pp. 94-108, Cham, 2014. Springer International Publishing. [14]Daniel Dahlmeier and Hwee Tou Ng. Better evaluation for grammatical error correction. In Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 568-572, Montréal, Canada, June 2012.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D5-4.pdf
# スマートフォン向け 日本語プログラミング学習アプリケーションの開発 大久保遥花・宍戸真 東京電機大学大学院情報環境学研究科 \{20jkm05\}@ms.dendai.ac.jp, \{shishido\}@mail.dendai.ac.jp ## 1 はじめに 近年,プログラミング教育が重要視され,日本では,2020 年度から小学校においてもプログラミング教育が導入されている[1].文部科学省の狙いは,「知識及び技能」,「思考力,判断力, 表現力等」,「学びに向から力,人間性等」のような資質・能力を育成することである.手引書では,プログラミング教育において,身近な生活でコンピュータが活用されていることや,問題の解決には必要な手順があることに気付くことで「知識及び技能」を育成し, 発達の段階に即して,プログラミング的思考を育成することで「思考力,判断力,表現力等」を育成し,コンピュータの働きを,よりよい人生や社会づくりに生かそうとする態度を涵養することで「学びに向から力,人間性等」を育成するとされている。 このような現状の中,プログラミング学習を支援するシステムは有益であると言える.本研究の目的は,多くの人にプログラミングの面白さを実感してもらい,人々のプログラミング学習を支援する学習教材を開発することである. ## 2 先行研究 ## 2.1 ビジュアル言語とテキスト言語の違い 図 1 Scratch の記述イメージ小学校教育に適した教育用プログラミング言語の提案の論文[2]では,テキスト型言語,フローチャート型言語,ルールベース型言語,ブロック型言語のようなプログラミング言語について,それぞれの利点と欠点を述べている.その中でも,教育用言語として特に使用されることが多いブロック型言語について,問題と考えられる点がいくつか挙げられている.この中で挙げられているブロック型言語のテキスト型言語とのギャップという項目に,共感する部分があった.ブロック型言語は,用意されているブロックを組み立ててプログラムを組むので,コードを一から入力するテキスト型言語に比べて,入力の手間が省け簡単にプログラムを組むことができる.また,文法のエラーを防ぐことができるという利点があるが,一方で,そのプログラムの組み立てる手法は,テキス卜型言語の手法と大きく異なる. 図 1 は,教育現場でよく使用されているブロック型言語である Scratch の画面の例である.ブロック型言語のようなビジュアル言語は,プログラミング的思考力を培う教材ではあるが,見た目やプログラミングの手法がテキス卜型言語と乘離しているため,汎用的なテキスト型のプログラミング言語の学習にスムーズに移行することは難しいだろう.そこで本研究は,汎用的なテキスト型プログラミング言語の学習への移行を円滑にすることを目標とする。 ## 3 提案システム 本節では,提案するシステムの特徴や機能を説明する。 ## 3.1 日本語によるプログラミング コードの記述・エラーメッセージは基本的に日本語を用いる.その理由は,プログラミング初学者にとって,母国語でない言語による記述は学習を進める上で障壁になる場合が多いからである.日本語によって内容を理解しやすくすることで,初学者が挫折 しないようにすることが狙いである. ## 3.2 スマホで使用できるアプリケーション 現在, 日本はスマートフォン,PC, タブレット端末などの電子機器が広く普及しているが, 普段コンピユータ機器をあまり使用しない人も含めた個人での所有率が最も高いディバイスはスマートフォンであると考えられる.本稿で提案するシステムは,PC を持っていない人でも気軽にプログラミングを学習して欲しいという狙いがあるため,多くの人が利用しやすいスマートフォンを使って学習ができるようにする. ## 3.3 汎用的プログラミング言語に近い文法 3.1 で説明したように, 日本語を用いた分かりやすい記述を行えるようにすることを目指すが,一方で 2.1 に示したように,本システムは,汎用的なプログラミング言語の学習への移行を円滑にすることが目標であるため, 日本語の文法に片寄りすぎて汎用的なプログラミングの文法と大きく異なってしまうことは避けたい.そこで,一般的に大学の講義に用いられる場合が多い C言語に近い文法で学習できるようにする. ## 4 設計$\cdot$開発 ## 4.1 開発環境 本研究では,Android アプリを開発する.開発ツールは Android Studio で,言語は Java を使用する.レイアウト画面設計には XML が用いられる。 ## 4.2 構成 本アプリケーションの構成は,全 5 章から成る.それぞれの章の内容は,表 1 にまとめる. 表 1 章ごとの学習内容 それぞれの章で,学習内容に関する説明を読み,それに関する演習問題を解くという流れに沿って学習を進める。 ## 4.3 演習問題の例 記述が正しい場合 図 2 プログラム実行のフローチャート 図 2 は,全体の動作の流れを示した図である.まず,入力画面で,パーツのボタンを正しい順番で押して記述をする.ボタンを押し終えたら, 実行ボタンを押す.もし記述内容が正しければ,実行結果が正しく表示される.記述が正しくない場合は,エラーメッセー ジが表示され,また最初から入力をすることになる. ## 図 3 文字列を表示(正解) 図 4 文字列を表示(不正解) 図 3,4 は文字列を表示させる演習問題の例である.「実行すると” ハロー,ワールド! ” と表示される」 という画面の例で, 図 3 は成功した場合, 図 4 はエラーが発生する場合の画面である.それぞれ,画面下部に正解または不正解のトーストが表示される. 次に,変数の代入に関する問題について説明する. 「ありがとう」をそれぞれ代入し,変数の中身を出力するという問題である. 3 つの変数を出力することが出来ると正解を示すトーストが表示される. 出力 図 5 変数の問題(正解) 図 5 は,変数 $a, b, c$ にそれぞれ数値,文字,文字列を代入し, 3 つの変数を表示させるプログラムの記述と実行結果である.ボタンを押して上図のように記述し,実行ボタンを押すと下図のような結果が表示され,画面下部に正解のトーストが表示される. 入力 数値 $\mathrm{a}=10 ;$ 文字 b="や"; 文字列 c="ありがとう" 表示(a); 表示(b); 表示(c); 出力 図 6 変数の問題(エラー) 図 6 は図 5 のプログラムの 3 行目「文字列 $\mathrm{c}=$ " ありがとう”;」の文の最後のセミコロンを記述しなかった場合の入力と実行結果である.下図のような結果が表示され,画面下部に不正解のトーストが表示される。 次に,算術演算子に関する問題について説明する. この問題は," $3 \times 8$ "," $48 \div 3$ ","56を 11 で割った余り" を出力するという問題である. 3 つの演算結果を出力することが出来ると正解を示すトーストが表示される. 出力 図 7 算術演算子の問題(正解) 図 7 は,"3×8","56を 11 で割った余り”," $48 \div 3 "$ の演算結果を表示させるプログラムの記述と実行結果である.画面上のボタンを押して上図のように記述し, 実行ボタンを押すと下図のような結果が表示され,画面下部に正解のトーストが表示される. 出力 図 8 算術演算子の問題(不正解) 図 8 は,” $3 \times 8$ ", $48 \div 3$ ” の計算結果を表示させるプログラムの記述と実行結果である.この場合, 3 つの演算結果を表示させることが出来ていないため,画面下部に不正解のトーストが表示される. 入力 出力 図 9 算術演算子の問題(エラー) 図 9 は,” $3 \times 8$ ”の計算結果を表示させる記述が,末尾の;が抜けているためエラーが引き起こされる例である.この場合も図 8 と同じく画面下部に不正解のトーストが表示される. ## 4.4 演習問題の実装 本節では, 4.3 で説明した演習問題について,どのように実装しているか説明する。 まず,図 3,4 の文字列を表示させる問題は,正解の文字列を用意し, 入力欄に記述された内容が正解の文字列と等しければハローワールドと表示させ,等しくなければエラーが発生するようになっている. 次に,図 5,6の変数に関する問題について説明する.最初に入力欄に記述された文字列を改行ごとに split メソッドを用いて分割し,配列にする.そして for ルー プで「表示(変数名);」文が記述されている箇所を探す.「表示(変数名);」文を見つけたら,それよりも前に該当する変数を定義する文が記述されている場合はその変数の値を出力させ,定義する文が記述されていない場合はエラーメッセージを表示させる. 最後に,図 7,8,9 の算術演算子の問題について説明する.入力が「表示(計算式);」の形式に当てはまっているかどうかを正規表現で判断する.マッチしていれば括弧内の計算式を取り出し,数値と演算子に分け,演算結果を返すようになっている。 ## 5 まとめ 本稿では,日本語を用いたプログラミング初学者向けのスマートフォン向けアプリケーションを提案した.今後は,表 1 に示した内容を学べるように教材を豊富にし,様々なタイプの演習問題を取り入れる。 また,UI/UX デザインを改良し,使いやすいレイアウトにする.教材を作成した後は,教材を実際に使用してもらい評価を受ける実験を行っていく。 ## 参考文献 1. 文部科学省. 小学校プログラミング教育の手引 (第二版), 2018. 2. 久保文乃,久野靖. 小学校教育に適した教育用プログラミング言語の提案, 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D6-1.pdf
# Developing PvP Menu of E-Learning System for Learning Japanese Astrid Tamara Makoto Shishido Tokyo Denki University \{astrid.tamara\}@hotmail.com, \{shishido\}@mail.dendai.ac.jp ## 1. Introduction Students who do not use kanji in their native language have difficulty in learning Japanese [1] [2]. The cause is mainly because the writing and reading system of kanji and their native languages are different [1]. Learning kanji is even harder because there each kanji has several meanings and readings [3]. There are also a lot of kanjis to be learnt, the required jōyo kanji count is 2,316 as of 2010 [4]. Therefore, kanji acquisition is hard for foreign students [1] [2]. For the aforementioned problem in learning kanji, the development of e-learning system for learning Japanese was proposed. The system includes a pattern recognition so that the user can practice handwriting kanji. Gamification is also implemented to increase users' participation and motivation by implementing game elements, such as points, reward system and social elements. This paper will explain about the development of the social elements part of gamification theory, which is the player vs player (PvP) menu. In the PvP menu, the user can play against another user in answering quizzes about Japanese kanji and vocabulary. By doing so, the user can accumulate points which determine who will win the match. Lastly, future work will be discussed. This includes the evaluation part of the e-learning system which will be based on ARCS model. ## 2. Previous Development ## 2.1 E-Learning System The e-learning system for learning Japanese was developed with pattern recognition for recognizing Japanese characters handwriting and implemented gamification theory to increase users' participation and motivation. The e-learning system is being developed for smartphones with operating system Android and iOS. ## 2.2 Gamification Theory Gamification theory can increase users' participation and motivation by combining game elements and game thinking in activities that are not games [5] [6]. The game elements that are used in gamification theory are described in Table 1. \\ Table 1. Game Elements [6] Using gamification theory in activities and processes, the users' commitment and motivation will increase [5]. According to Huang and Soman, gamification affects students' behavior, commitment and motivation which in turn will improve knowledge and skills as cited by [5]. ## 2.3 System Development The e-learning system consists of three primary learning menus, which are the Kanji, Vocabulary and Sentence menu. The Word List menu saves user's favorite words. The PvP menu is where the user can battle another user in a quiz. The menus are shown on Figure 1 with the matching game elements based on gamification theory on Table 1. The fifth game element, performance graph, is not shown as it is part of the profile screen. Figure 1. Main Menu and Game Elements The Kanji menu provides learning material for individual kanji. The Vocabulary menu provides learning material for Japanese words. The Sentence menu is how to use the words from Vocabulary menu in a sentence. The menu chapter screen is shown in Figure 2. Figure 2. Kanji and Vocabulary Menu Chapter Screen In the primary learning menus, there is a canvas in the middle of the screen to practice handwriting. The handwriting in the canvas will be sent to the server to be evaluated whether it is correct or incorrect. The preview of canvas in Kanji Menu is shown on Figure 3. Figure 3. Practice Screen ## 3. Player Vs Player Menu (PvP) ## 3.1 What is PvP? Player vs Player (PvP) menu enables the user to play against another user. By answering the questions correctly, the user can accumulate points. More points will be awarded for faster answer. The user with more points than the opponent will win the match. The PvP menu was developed in regard to gamification theory game element, the social elements. This feature allows the user to interact with other user in quiz format. This is in line [5] that stated by implementing game techniques and mechanism in learning, it is hoped that the students engage in a friendly competitive environment with other students. ## 3.2 PvP Menu Development The PvP menu is developed using socket.io and programming language javascript. By using socket.io, it allows the PvP match to be bi-directional and real-time on both users. After choosing PvP screen, the PvP Setting Screen will appear. In this screen, the user can set the match to their own liking. Which question set to use, how many questions in the match, and who to match against are all adjustable in this setting screen. The PvP Setting Screen is shown on Figure 4. Figure 4. PvP Setting Screen Match Invitation When the first user has chosen to start the match, the second user will receive the match invitation dialogue as shown on Figure 5 right picture. The second user may choose to accept and start the match or to reject the invitation. Before the second user answer the invitation, the first player will be on hold as shown on Figure 5 left picture. Figure 5. Match Invitation Screen Figure 6 shows the PvP Match Screen. This screen will be displayed when the match has started. In this screen, the top bar shows the match progression, which question number is currently at and the total number of questions. Below the number of questions is a row showing the current player name and score, a timer, and the opponent's name and score. The timer is set for 20 seconds, as such the question has to be answered within 20 seconds. The faster the user answer, the higher the point that can be attained. In the middle of the screen, there is the question and a canvas to answer. The user can answer by directly writing on the canvas and submit the answer. The system will judge whether the answer is correct or incorrect and automatically adds point the score. Figure 6. PvP Match Screen The bottom part of the Match Screen is shown in Figure 7. These are the PvP items that can be used to advance the user's progress or hinder the opponent's progress. Starting from the leftmost is, Bomb, Barrier, Auto Correct, and Mirror items (the icon designs are not final). The Bomb item can be used to hide the opponent's canvas for 5 seconds. The Barrier item will be used automatically to nullify opponent's attack, provided the user has the item. The Auto Correct item can be used to make the answer automatically correct without needing to write on the canvas. The Mirror item can be used to flip the opponent's canvas vertically. All items can be purchased with points that are accumulated when using the e-learning system. Figure 7. PvP Items ## 4. Summary The development of e-learning system for learning Japanese based on gamification theory is progressing well. This paper elaborates the social elements part of gamification theory game elements, which is implemented as PvP menu in this e-learning system. The PvP menu enables the user to compete with other users in answering Japanese kanji and words related question by writing on a canvas. The PvP menu is also supplemented by four PvP items, Bomb, Barrier, Auto Correct and Mirror to enhance the experience. These four items are purchasable by collecting points when using the elearning system. ## 5. Future Work This research will be continued by completing the elearning system development and improving the existing menus. The next step is to evaluate the e-learning system based on ARCS Model. The current proposition is to distribute a questionnaire created based on each areas of ARCS Model (Attention, Relevance, Confidence, and Satisfaction) using a 5-point Likert scale. ## References [1] S. Paxton and C. Svetanant, "Tackling the Kanji hurdle: Investigation of Kanji learning in NonKanji background learners," International Journal of Research Studies in Language Learning, vol. 3, no. 3, pp. 89-104, 2014. [2] S. Librenjak, K. Vučković and Z. Dovedan, "Multimedia assisted learning of Japanese kanji characters," in MIPRO 2012 : Proceedings, 35th International Convention on Information and Communication Technology, Electronics and Microelectronics, Opatija, Croatia, 2012. [3] J. Ogawa and F. Enokida, Colloquial Japanese: The Complete Course for Beginners, New York: Routledge, 2014. [4] 文部科学省, "常用漢字表," 30 November 2010. [Online]. Available: http://www.bunka.go.jp/kokugo_nihongo/sisaku/jo ho/joho/kijun/naikaku/pdf/joyokanjihyo_20101130 .pdf. [Accessed 23 November 2019]. [5] G. Kiryakova, N. Angelova and L. Yordanova, "Gamification in Education," in 9th International Balkan Education and Science Conference, Edirne, Turkey , 2014. [6] J. Figueroa, "Using Gamification to Enhance Second Language Learning," Digital Education Review, vol. 27, no. 21, pp. 32-54, 2015.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D6-2.pdf
# 対のある自他動詞を用いたオンライン学習の有効性の確認 ープレテスト・ポストテストの分析一 沖本与子 一橋大学大学院言語社会研究科 Id182001@g.hit-u.ac.jp ## 1 はじめに 本稿は,対のある自他動詞から作成した項目を用いたプレテスト・5 週間のオンライン学習・ポストテストという一連の研究調査を通して得た,特にプレテストとポストテストにおける日本語学習者の解答を分析することで,テストの信頼性と有効性,各テストにおける成績の推移, 移動動詞の解答特徴を把握することを目的とし,次の三つの研究課題を量的なデータを用いて明らかにすることとしている。研究課題 1 : プレテストとポストテストの信頼性・有効性について明らかにする 研究課題 2:プレテストとポストテストにおける成績の推移を明らかにする 研究課題 3 : 移動動詞を用いた項目の正答率の推移を明らかにする ## 1.1 先行研究 日本語の自他動詞は, 寺村 (1982) の相対自動詞,相対他動詞, 早津(1995)の有対自動詞, 有対他動詞などの分類分けがあるが, 本研究では, 中石 (2003) の「対のある自他動詞」を使用する.自他動詞は形態的特徴, 統語的特徴, 意味的特徴を包括するため 「形態的,統語的に対応する自動詞他動詞でも文脈によって意味的に対応しなくなるものが多く存在する」(中石 2020: 35).この複雑性が学習者の習得を更に困難なものにし, 中上級レベルでもその使い分けに難しさを覚える原因となることが考えられる。 また形態的には対応するが,意味的に対応しない自他動詞の例として,移動動詞(田中・松本 1997) が挙げられる。沖本(2019)で指摘されているように,対のある自他動詞の学習において,日本語学習者は移動動詞を用いた項目での正答率が低くなる傾向がある. 本研究では学習者の誤答が出現する移動動詞に焦点を当て援用することで, 特に学習者が苦手とする移動動詞の確認を行うこととする。対のある自他動詞,移動動詞は,様々に研究されテストの正答率を指標とした研究が存在しているが, オンライン学習と組み合わせ,習得を促す研究は管見の限りない ## 2 調査の概要 ## 2.1 調查時期 本研究における調査は, 2020 年 10 月 6 日(火) 2020 年 12 月 6 日(日)の間に実施し,本稿では,特に 10 月 16 日 10 月 18 日に実施したプレテスト及び 11 月 23 日 11 月 29 日に実施したポストテストの結果についてまとめる. ## 2.2 調査参加者 本研究に参加した参加者は都内高等教育機関で中級後半〜上級前半レベルに相当する科目を登録している日本語学習者である. 参加者は 41 名おり, その内 10 名がプレテスト・ポストテストのみを受験する統制群であり, 31 名がプレテスト・ 5 週間のオンライン学習・ポストテストを受ける実験群である. また参加者は全員教育機関で提供されている日本語クラスを受講しており, 調査参加のための日本語レベル確認は所属機関の文法・語彙テスト(全員) を用いた. 41 名は 2 つの異なる科目を受講している学習者であり,このグループ間(21 名と 20 名)のレベル確認テストの成績について $t$ 検定を行ったところ, $5 \%$ 水準で参加者間に有意差は見られなかった $(t(39)=-0.28, p=.77$ ). なお, 日本語能力試験(以下,JLPT)は $\mathrm{N} 1$ 取得者が 6 名, N2 取得者が 6 名, $N 3$ 取得者が 3 名, N4 取得者が 4 名, N5 取得者が 1 名,JLPT 未取得者が 21 名であった。母語の内訳は中国語母語話者 25 名, 韓国語母語話者 5 名,英語母語話者 8 名, その他アジア言語話者 3 名(タガログ語・ベトナム語・インドネシア語)である. ## 2.3 使用した項目とその例 本研究では,まず沖本 (2020b) で使用された 282 動詞とその項目から, 点双列相関係数を元に算出した数値(0.6 以上)と各項目の正答率を使用し, 初中級レベルの対のある自他動詞を選別し 102 動詞を用意した. 次にその 102 動詞に対し, 動詞 1 つにつき 3〜6 の例文を作成し, 問題として合計 448 項目を用意した. 全 448 項目は 5 週間オンライン学習で出題するが,プレテスト・ポストテスト用に移動動詞を使用していること, 全設問が揃っていることなどを条件に, 102 項目を選定した. プレテスト・ポストテストともに受験時間は約 15~30 分程度であった。 表 1 設問 -内容・項目 - 選択肢(例) ## 3 分析及び考察 本節では, 分析結果を 3 つの研究課題に沿ってまとめる. まず 3.1 では研究課題 1 「プレテストとポストテストの信頼性・有効性について明らかにする」について, テストの項目分析, 基本統計量の分析を中心にまとめる. 続いて, 3.2 では研究課題 2 「プレテストとポストテストにおける成績の推移を明らかにする」について統制群と実験群の群ごとの解答を中心にまとめる. 最後に, 3.3 では研究課題 3 「移動動詞を用いた項目の正答率の推移を明らかにする」について,特に移動動詞を使用した項目を抽出し,その分析を中心にまとめる. なお以降, 本研究の調査参加者は日本語学習者(以下,学習者)とする. ## 3.1 テストの分析とその信頼性について プレテストとポストテストは同一の項目を使用し,同一の学習者が受験した. 取得解答項目数は 8,364 である(102 項目 $\times 2$ テスト $\times 41$ 人).欠損値はないため, 今回の分析では全ての解答を使用する. ## 3.1.1 テストの信頼性と基本統計量 まずは,テストの信頼性を測るため,クロンバックの $\alpha$ 係数に基づき分析した. プレテストは $\alpha=.94$, ポストテストは $\alpha=.96$ が得られ, いずれも十分な信頼性を持っていることが確認された. 続いて, 全学習者のデータを用いて分析をし, 表 2 にプレテストとポストテストの基本統計量をまとめた. 表 2 基本統計量 また,プレテストとポストテストにおける学習者個々の分布を確認すると, 図 1 に見られるように, プレテストで 44 点〜 102 点間に散らばっていた学習者はポストテストで上位層に集まったことが分かる. 続いて, 統制群, 実験群に分けて基本統計量をまとめたところ,プレテスト平均点が統制群 67.4,実験群 79.84 であり, 両群の開始時点での得点が不均衡であることが確認された。そのため,実験群か ら上位 7 名分の得点を排除し, $t$ 検定を実施し, $5 \%$水準で有意差がないことを確認した上で $(p=.13)$,統制群 10 人, 実験群 24 人で基本統計量をまとめた (表 3). 表 3 統制群と実験群の基本統計量 平均点では, 統制群が+7.8, 実験群が+18.63, 最小値では,統制群が-2,実験群が+17 であった。また, 標準偏差 $(S D)$ では統制群のばらつきが広がり (19.19), 実験群では狭まっている (8.78) ことが確認された.これらの結果から実験群において, 5 週間のオンライン学習を用いた成果が出たのではないかと推測される。 ## 3.1.2 正規性 ・ 有意差 ・効果量の確認 次に, 正規性を確認するが, 調査に参加した学習者が 41 人(本節では 34 人分使用)であり,サンプルサイズが 50 以下となるため, シャピロ・ウィルク検定を使用した. 結果, プレテストは $p>.05$ であり, ポストテストは $p<.05$ であったことから, ポストテストの正規性が担保できないため,ノンパラメトリック検定として, Wilcoxon の符号付順位和検定を用いて分析を行った. その結果, 統制群には $5 \%$ 水準で有意差が見られず $(p=.0840)$, 効果量は $r=0.386$ ( $98 \%$ CI [-0.32, 0.81]であり, 効果量は中程度であり, 98\%信頼区間が広く, 0 を含んでいるために, 結果の一般化が難しいことが確認された。一方, 実験群には $5 \%$ 水準で有意差があり $\quad(p<.001)$, 効果量は $r$ $=0.745(98 \%$ CI $[0.49,0.88])$ となり, 効果量が大きいことが確認された。 以上の分析により,プレテスト・ポストテストを 5 週間隔て受験した統制群とプレテスト・5 週間のオンライン学習・ポストテストを実施した実験群の間には差異があり, 調査の有效性が推測される. ## 3.2 プレ・ポストテスト間の成績推移 ## 3.2.1 各群における学習者こ゚との得点の変化  本項では学習者ごとの得点の変化を確認するために, 全 41 人の解答データを使用する. 各群の個別推移図を確認し(図 2), 両群の全体の伸び率平均を分析したところ,統制群は $13.59 \%$ ,実験群は $22.19 \%$ の伸びが見られた。 図 2 各群の個別推移図 (黒の太線が全体の平均変化) いずれのグループも全体平均では伸びが見られたが, 図 2 からも明らかなように, 得点が落ちている学習者も存在する. そこで, 学習者個々のプレテスト・ポストテストの得点における伸び率を確認したところ,-42.47〜+106.67\%の間があることが分かった. なお, 得点伸び率で $0 \sim 18.33 \%$ に 22 人おり,最も人数が多いため, この層の学習者の各設問の伸び率をまとめると,設問 1 ・設問 2 ・設問 3 に高い伸び率(5.56 87.50\%)が集中していることが分かった. またこの層にいる個々の学習者の設問で確認したところ, 設問 4 ・設問 5 には, 設問 13 ほどの伸び率が出現しなかった。これは難易度が高いため伸びなかったのか, 反対に難易度が低いため予め高得点であり伸びる余地がなかったのかについて,次項 3.2.2 で確認をする。 ## 3.2.2 設問ごとの得点の変化 本項では, 学習者の各設問における正答率の平均値を用いて,プレテスト・ポストテストの推移を確認する. 両群を比較するため, 表 3 でまとめた 34 人分のデータを使用する. 表 4 設問ごとの正答率平均値(\%) } & \multicolumn{3}{|c|}{ 統制群 $(10$ 人) } & \multicolumn{3}{|c|}{ 実験群(24 人) } \\ \cline { 2 - 4 } & pre & post & 差 & pre & post & 差 \\ 統制群では $4.00 1 1.00 \%$ ,実験群では 14.20〜 $17.40 \%$ の伸びが見られ,両群とも各設問で得点の上昇があることが分かる. 特に実験群の差は 5 週間のオンラインによる学習が得点に結びついたことを示していると考えられる。また,統制群の設問 1 で伸びが $4.00 \%$ と低く,実験群の伸びが $16.00 \%$ と高いことから(表 4 の二重下線参照), 設問 1 のように,助詞を確認する項目の学習については,問題を変えて繰り返し解答する練習により解決できる課題と考えられる。 なお,設問 4 は自動詞と他動詞をそれぞれ助詞と組み合わせ,選択肢を 4 つ設けている項目である. 沖本 (2020a) でも指摘されているように,複数の段階を追って解答を導き出す項目は正答率が低く, 解答時間が長い傾向がある,今回の調查では,実験群の結果から分かるように支援があれば伸びるが統制群のように支援がない場合,伸びているとは言えるが正答率が低いままであることが確認できた(表 4 の太下線参照). ## 3.3 移動動詞について 本項では研究課題 3 「移動動詞を用いた項目の正答率の推移を明らかにする」ため, 特に移動動詞を援用した動詞の分析をまとめる. 両群を比較するため,表 3 でまとめた 34 人分のデータを使用する ${ }^{i i}$. 移動動詞に対する解答について,統制群と実験群に分け, それぞれのプレテストとポストテストの正答率を算出し, その中から $50 \%$ 以下の正答率に当たる項目をまとめた(表 5)。 ## 表 5 移動動詞の正答率の推移(50\%以下) 項目 64 の自動詞の「移る」に関しては,両群ともポストテストにおいて正答率の向上が見られる. しかし,項目 $41 \cdot 54 ・ 55$ のように自動詞であつても习格を用いる移動動詞については,両群ともに正答率が伸びないことが確認できた。実験群がフィー ドバックを伴った 5 週間のオンライン学習を経ても,これら移動動詞の正答率が伸びないことは,移動動詞の使用の難しさを表していると推測される. つまり,意味的に対応していない対のある自他動詞は,学習者の知識内にある自動詞にはガ格,他動詞には习格という典型的な例ではないことから,誤答が導かれやすいことを表していると考えられる。これらは,学習者に予め教授することで知識を補完し,対応できるのではないであろうか. ## 4 まとめと今後の課題 まず,研究課題 1 「プレテストとポストテストの信頼性・有効性について明らかにする」については,プレテスト・ポストテストの信頼性が,統制群と実験群の間には差異が確認された.実験群における 5 週間のオンライン学習を用いた成果が出たのではないかと推測される。 次に, 研究課題 2 「プレテストとポストテストにおける成績の推移を明らかにする」については,統制群は $13.59 \%$ ,実験群は $22.19 \%$ の伸びが見られた。また,各設問の伸び率を確認したところ,設問 1 ・設問 2 ・設問 3 に高い伸び率が集中していることが分かった. 最後に研究課題 3 「移動動詞を用いた項目の正答率の推移を明らかにする」については,正答率 50\%以下を含む項目を選出すると,ヲ格を用いる移動動詞について, 統制群 - 実験群ともに正答率に伸びがないことが確認された。このことから,移動動詞には教授と指導が必要であることが示唆された。 今後の課題としては, まず登録クラスごと, 母語別,プレテストとポストテストの相関分析,プレテストからポストテストを予測する単回帰分析を進めることなどが挙げられる。次に,本報告の結果を 5 週間のオンライン学習の結果と合わせることで新たな視点が出現する可能性がある. 最後に,ポストテスト終了後に実施したインタビューの分析をすることで,個々の学習者についてまとめることを課題としたい.  ## 参考文献 1. 沖本与子 (2019)「日本語学習者の助詞・動詞選択の傾向一自動詞他動詞の比較を中心に一」言語資源活用ワークショップ 2019 発表論文集』pp.5165, 国立国語研究所 2. 沖本与子 (2020a)「日本語動詞を用いたオンライン学習における学習者の解答傾向一初級から上級の自他動詞を中心に一」『2020 年度日本語教育学会春季大会予稿集』pp.288-293. 3. 沖本与子 (2020b)「日本語学習者の助詞 - 動詞選択における解答時間と誤答率の傾向 - 5 週間のオンライン学習項目の分析を中心に一」 『2021 年度日本語教育学会春季大会予稿集』現在作成中, 国立国語研究所 4. 田中茂範・松本曜 (1997)「空間と移動の表現」『日英後比較選書(6)中右実編』研究社出版 5. 寺村秀夫(1982)『日本語のシンタクスと意味I』 くろしお出版 6. 中石ゆうこ (2003)「対のある自動詞・他動詞の習得研究の動向と今後の課題」, 『広島大学大学院教育学研究科紀要』52, pp.167-174, 広島大学 7. 中石ゆうこ (2020)『日本語の対のある自動詞・他動詞に関する第二言語習得研究』日中言語文化出版社 8. 早津恵美子 (1995)「有対他動詞と無対他動詞の違いについて一意味的な特徵を中心に一」須賀一好・早津恵美子(編)『動詞の自他』ひつじ書房 pp.179197.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D6-3.pdf
# Developing Materials for Teaching French as a Foreign Language: The Use of Authentic Data from Instagram Eriko Taniguchi ${ }^{1}$ Mariko Takahashi ${ }^{2}$ ${ }^{1}$ Faculty of International Studies, Tenri University, ${ }^{2}$ Faculty of Foreign Studies, Setsunan University a eriko.taniguchi1603@gmail.com, ${ }^{2}$ mariko.takahashi@ilc.setsunan.ac.jp ## 1 Introduction Content and language integrated learning (CLIL) is an educational approach that has gained popularity in recent years, especially in Europe. According to Mehisto et al. (2008), CLIL is defined as "a dual-focused educational approach in which an additional language is used for the learning and teaching of both content and language" (p. 9). There are two types of CLIL approaches: hard CLIL and soft CLIL. Hard CLIL is the original, content-led approach, which is "a set of methods that could help subject teachers support the language needs of their students" (Ball et al., 2015, p. 27). Soft CLIL, on the other hand, is the language-led approach whose main goal is the development of skills in the target language, with the development of the content knowledge as the auxiliary objective (Ikeda, 2013, p. 32). In Japan, the CLIL approach has been adopted primarily in English education (Brown, 2015, p. 1). In French education, an overview of universitylevel French as a foreign language (FFL) textbooks in Japan indicates that the mainstream teaching approach is currently based on the structural syllabus or the notionalfunctional syllabus. This is probably because the majority of French learners in Japan start to study French for the first time after they enter university. However, research in Europe has suggested that the CLIL approach can be advantageous in French education as well (e.g., Pérez et al., 2016). Baten et al. (2020) has further shown that students can learn vocabulary in French CLIL classrooms as effectively as in English CLIL classrooms. These studies in Europe were based on the hard CLIL approach, but the soft CLIL approach may potentially benefit FFL learners in Japan because it enables them to connect linguistic knowledge with various contents. For instance, the use of visual information is effective in teaching grammar in an introductory French CLIL course (Hiroyasu \& Kitamura, 2019). In designing materials for CLIL, the authenticity of the texts should be maintained by "manipulat[ing] the task or the procedure" (Ball, 2018, p. 228). In English education, instructors teaching soft CLIL courses tend to cover topics related to today's society as can be seen in CLIL textbooks in Japan (e.g., Nakaya et al., 2020). In FFL, the topics are likely to relate more to French cultures and daily life at least for first-time learners even if the CLIL approach is adopted because they first need to become familiar with vocabulary and linguistic forms. The present study aims to develop activities for use in FFL with a soft CLIL approach that are applicable to various contents and that can target basic linguistic features including vocabulary and word classes. In order to prepare materials based on authentic data, Instagram was used as the data source. Instagram is an application for sharing pictures and videos worldwide, and the number of its users is expected to reach 900 million in 2021 (Clement, 2020). People post pictures of diverse genres on Instagram, and since hashtags and captions are often posted with the visual information, Instagram can be a useful source for language teaching and learning. This study has two purposes: 1) to compile preliminary lists of French hashtags on Instagram across 10 categories and analyze the hashtags linguistically to investigate how they can be used for FFL activities and 2) to propose communicative language learning activities based on the data and implement them in FFL classrooms. ## 2 Methodology In order to extract French hashtags from Instagram, the following procedure was taken. First of all, we decided on the target categories referring to the textbook Spirale (Crépieux et al., 2008) as well as main genres of Instagram. Ten categories were selected: tourisme (travel), nature (nature), gastronomie (food), vie quotidienne (daily life), culture (culture), paysage (landscape), sport (sport), beauté (beauty), mode (fashion), and animal (animal). In the following, the first letter of each category (boldfaced) is indicated when longer examples are mentioned. Second, a keyword was chosen for each category. Based on the hashtags that had between one million and four million hits on Instagram, we selected a keyword both of us agreed as a representative concept of that category. The following hashtags were selected as key hashtags: \#toureiffel (Eiffel Tower, category: t), \#fleur (flower, n) \#gateau (cake, g), \#maison (house, v), \#noël (Christmas, c), \#montagne (mountain, p), \#courseapied (jogging, s), \#maquillage (make-up, b), \#pantalon (pants, $\mathrm{m}$ ), and \#chaton (kitten, a). Third, we extracted relevant hashtags to the key hashtag by using two methods. On Instagram, up to 30 hashtags can be added to a post. The first method was to use the automatic hashtag generator TagsFinder (French version: https://www.tagsfinder.com/fr-fr/) to retrieve hashtags associés (related hashtags) and hashtags similaires (similar hashtags) to the search word. Hashtags associés were defined on TagsFinder as 30 hashtags which appeared most frequently in the same post as the search word, and hashtags similaires were defined as 30 suggested hashtags which contained the search word. The second method was to search for posts on Instagram which contained the target hashtag. The search was conducted by one of the authors on her smartphone during a specific period. In order to keep the search as systematic as possible, the search results were sorted in the order of popularity and top 10 posts whose hashtags were at least $30 \%$ in French were extracted. This criterion was adopted because popular posts tended to contain hashtags in English or several languages. There were posts with captions in addition to hashtags, but only the hashtags were included for the purpose of this study. The hashtags retrieved by these two methods became the initial list of hashtags for each category. Fourth, as the lists still contained hashtags in other languages, we extracted French hashtags from each list. In addition to hashtags all in French, hashtags which mixed French and another language (mostly English; e.g., \#lookdujour) as well as those in the same spelling as another language (e.g., \#france, \#decoration) were treated as French data in this study. This list of French hashtags was developed for each key hashtag. ## 3 Results and Analysis In order to investigate how the data can be applied for teaching French, the data were analyzed from two perspectives: 1) vocabulary and expressions and 2) grammatical features. ## 3.1 Vocabulary and Expressions For each key hashtag from each category, an average of 95 French expressions were obtained. Table 1 shows five selected hashtags frequently observed with the key hashtag. Two things should be noted. We used Tagpop for counting the frequency of hashtags. The frequency obtained by Tagpop is based on the search on entire posts on Instagram and not genrespecific (e.g., \#photo can occur with any genre). As such, the frequency data were used as reference, and Table 1 only indicates the hashtags which we judged as closely relevant to the category. In addition, the hashtags whose spelling exactly overlapped with English hashtags (e.g., \#paris \#voyage \#minimalism) are not included due to limitations of space. As the examples on Table 1 illustrate, for each category, Instagram posts provided relevant vocabulary and expressions along visual information. The majority of hashtags were nouns and both singular forms (e.g., \#cadeau) and plural forms (e.g., \#cadeaux) were observed. Different types of nouns such as common nouns (e.g., \#jardin), proper nouns (e.g., \#montblanc), and abstract nouns (e.g., \#bonheur) were on the list. Words in different word classes were also observed including adjectives (e.g. \#fleuri \#naturel) and verbs (e.g., \#gouter \#briller) though they tended to occur with nouns or in sentences (e.g., \#chatonmignon; see 3.2 for more details). In addition, coined words (e.g., \#blogueusebeaute), abbreviated words (e.g., \#deco) and hybrid words with English (e.g., \#montagnelovers) occurred as French hashtags. Moreover, words with diacritics were observed (e.g., \#forêt, \#randonnée) although they were left out in some of the posts (e.g., \#noel rather than \#noël). The lists this study compiled were not intended to be comprehensive vocabulary lists of French Instagram posts of the categories, but students are likely to be able to learn relevant vocabulary starting with the words on the lists. On Instagram, people creatively combine more than one word to form common expressions (e.g., \#joyeuxnoël) or produce phrases with more information (e.g., \#biendanssoncorps) within one hashtag. The next subsection is about this latter type of phrases used as hashtags. Table 1. Examples of French Hashtags \\ ## 3.2 Grammatical Features French hashtags on Instagram often consisted of more than one word. In order to investigate which types of combination were used, we labelled all the elements of the hashtags based on their word class. All the word classes (nouns, pronouns, prepositions, adverbs, adjectives, verbs, determiners, conjunctions) were identified, and there were 52 combinations in total. The examples (1) to (10) illustrate 10 of these combinations along with hashtags from the list. (1) noun + noun \#recettegateau (category: g) \#couturetoulouse (m) (2) noun + adjective \#reservenaturelle (n) \#maquilleuseprofessionnelle (b) (3) adjective + noun \#nouveaudepart (v) \#petitbiscuit (g) (4) noun + preposition + noun \#chatdamour (a) \#lacdemontagne (p) (5) noun + preposition + determiner (article) + noun \#gateauauchocolat (g) \#jardindesplantes (n) (6) noun + preposition + noun + preposition + noun \#fetesdefindannee (c) (7) adjective + preposition + verb \#fiersdecourir (s) (8) adverb + preposition + determiner (article) + noun \#biendanssoncorps (s) (9) verb + noun \#vivreparis ( $\mathrm{t}$ ) \#goutermaison (g) (10) sentences \#jaimemonchat (a) \#jecoudspourmoi (m) The examples indicate that Instagram hashtags can indeed consist of various word classes. In reality, there are more combinations and longer phrases and sentences, but Instagram hashtags can be used for demonstrating some of the possible combinations of word classes to form French phrases and sentences. It should of course be noted that hashtags need to be written as one "word" on Instagram, and it will require some practice before students can divide the hashtag into individual words by themselves. Another notable grammatical feature observed in the hashtags was the use of determiners, or articles more specifically. On Instagram hashtags, indefinite articles (un/ une/ des) and partitive articles ( $d u$ l de la) before a noun (e.g., \#sac \#animaux) were not included; however, definite articles (le/ la/ les) were sometimes included (e.g., \#latoureiffel \#lefooding \#lesfleurs) as well as in prepositional phrases or in contractions (e.g., \#maisonsouslaneige \#tenuedujour \#jardindesplantes). Correct agreement of adjectives was also observed (e.g., \#fleurbleue \#gateauxorientaux). Verbs were conjugated only in sentences; they were in the infinitive if they did not have a subject (\#parisjetaime \#gouter \#vivreaparis). The number of sentences and sentence structures in the lists was limited but grammatical (e.g., \#jaimemonchat \#noëlapproche \#çafaitdubien \#jecoudsmagarderobe). As such, the lists may be useful for teaching short French sentences because visual information can be presented with the hashtags. ## 4. Educational Applications and Discussion The analysis above has demonstrated that the preliminary lists of French Instagram hashtags can be utilized as a resource for FFL instruction. For example, instructors can prepare a subset of hashtags based on the lists compiled in this study and ask students to select a hashtag and search for it on Instagram. That way, students can easily connect the target word with visual information. Students can also work in groups to find pictures that best represent the hashtag. They can then find five additional hashtags accompanying the post and share them with other groups. As Instagram posts are authentic materials including those posted by non-French speakers, students may choose hashtags that are not grammatical. In that case, the teacher can ask or work together with the group to edit the hashtag to make it grammatical after explaining that the language use in reality may sometimes differ from what students learn in the classroom. Alternatively, teachers can present several hashtags at the same time and ask students to try to take pictures that reflect the hashtags - the group who takes the best picture which most accurately reflects the assigned hashtags wins the game. Instructors can also use hashtags to explicitly or implicitly teach how to construct phrases in French. They can explain grammar using the authentic examples or ask students to notice and identify grammar patterns in the hashtags of a post. In a course with a soft CLIL approach (or even with other approaches), teachers can use these activities at the beginning of the class to get students' attention and to provide necessary language support for understanding the following contents. A more communicative and output-oriented activity is to have students write hashtags for the picture of their choice. For first-time French learners, it may be better for the instructor to prepare the picture so that all the students share the same picture. This activity was implemented in an introductory FFL course one of the researchers taught in the fall semester of the academic year 2020. As there was a rule against pair or group work because of the pandemic, the instructor had to ask students to work individually. After showing examples of hashtags for a picture of a cat, students were asked to write four hashtags for a picture of the Eiffel Tower. Most of the 14 students chose \#latoureiffel \#paris and \#france as the first three hashtags but they showed some creativity for the fourth hashtag by adding a variety of adjectives such as \#joli \#belle and \#grande. This activity would be more engaging as pair or group activities with a time limit rather than the limit on the number of hashtags because students can work together with their partner or group members to come up with as many creative hashtags as possible within the time limit. The hashtags they produced can then be compared with those by other groups and also with the list of hashtags the instructor had prepared beforehand based on the lists in this study or based on their own search on Instagram. The difficulty level of the activities can be adjusted according to the class level and the time allocated for the activity. These educational applications are possible because Instagram contains a wide range of French hashtags with various word classes as this study has shown. As Ball (2018) observed, "the text," or French hashtags on Instagram in this case, "need not be manipulated, but the designer can manipulate the task or the procedure at will" (p. 228). By designing activities closely based on authentic materials on Instagram, French hashtags can be utilized as activities in FFL courses, especially in courses with a soft CLIL approach. ## 5. Conclusion This study has compiled preliminary lists of French hashtags across 10 categories based on Instagram posts and demonstrated if and how they can be applied to teaching French as a foreign language in Japan. Although the search on Instagram was conducted in a systematic manner, it was not possible to fully quantify the data because decisions regarding the key hashtag and the posts included a degree of arbitrariness. It would be necessary to expand the scope of search and add more key hashtags to present a more comprehensive list for each category. In addition, comparison with other French corpora would be required to investigate whether Instagram hashtags actually represent vocabulary and expressions frequently used in French conversations. As Instagram is popular among university students at least for the time being, French hashtags are likely to stay as a good resource for FFL courses with a soft CLIL approach ## References Ball, P. (2018). Innovations and challenges in CLIL materials design. Theory into Practice, 57(3), 222-231. Ball, P., Kelly, K., \& Clegg, J. (2015). Putting CLIL into practice. Oxford University Press. Baten, K., Van Hiel, S., \& De Cuypere, L. (2020). Vocabulary Development in a CLIL Context: A comparison between French and English L2. Studies in Second Language Learning and Teaching, 10(2), 307-336. Brown, H. (2015). Factors influencing the choice of CLIL classes at university in Japan [Special Issue on CLIL]. ELT World Online, 1-22. https://blog.nus.edu.sg/eltwo/2015/04/27/ Clement, J. (2020, April 22). Number of Instagram users worldwide from 2016 to 2023. Statista. https://www.statista.com/statistics/183585/instagramnumber-of-global-users/ Crépieux, G., Callens, P., Takese, T., \& Negishi, J. (2008). Spirale. Hachette. Hiroyasu, Y., \& Kitamura, A. (2019). Implementation of CLIL in an introductory French course [Furansugo nyumon reberu ni okeru CLIL no kokoromi]. Rencontres, (33), 92-96. Ikeda, M. (2013). Does CLIL work for Japanese secondary school students? Potential for the 'weak' version of CLIL. International CLIL Research Journal, 2(1), 31-43. Mehisto, P., Marsh, D., \& Frigols, M. J. (2008). Uncovering CLIL: Content and language integrated learning in bilingual and multilingual education. Macmillan. Nakaya, M., Yukita, M., Yamazaki, M., \& Godfrey, C. (2020). CLIL Discuss the changing world. Seibido. Pérez, A., Lorenzo, F., \& Pavón, V. (2016). European bilingual models beyond lingua franca: Key findings from CLIL French programs. Language Policy, 15, 485-504. ## Appendix 1. Hashtag list of tourisme (key hashtag \#toureiffel) 2. Example of an FFL activity
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D6-4.pdf
# スマートスピーカー用日本語学習機能の開発 加藤大輔 宍戸真 東京電機大学大学院 情報環境学研究科 $\{20 \mathrm{jkm} 08\} @ m$ ms.dendai.ac.jp, \{shishido\}@mail.dendai.ac.jp ## 1 はじめに 令和 2 年度から新学習指導要領を踏まえた授業改善や学習補助を目的として,これまでの紙面の教科書を主たる教材として使用しながら必要に応じて学習者用のデジタル教材を併用することができる法令が実施され,デジタル教材の需要が拡大されている. しかしその中で,スマートスピーカーを使用した学習教材の実例はまだ少ない状況にある.現在スマー トスピーカーの普及は急速に進んでおり,今後より生活に身近なものになると考えられている.[1] 図 1 : ディバイス種別出荷台数予測 そのようなスマートスピーカーの特徴である,話しかけるだけで操作ができる点や AI アシスタント機能が搭載されている点から紙での学習方法に比べて,日常生活で何かをしながら,必要以上にがんばらなくても,学習を面白いと魅力を感じながら,できることを増やせるような学習方法の可能性を検証したいと考えた.そこで本研究では,スマートスピーカー の現状についての調査,スマートスピーカー用の学習機能の開発,スマートスピーカーでの学習の可能性について調査をする。 ## 2 先行研究 - 類似教材 スマートスピーカーを利用した日本語学習機能に関する研究としては,熊本大学の甲斐晶子(2018.9)[2] があげられる.また,スマートスピーカーを利用した学習教材の例としては,「ベストティーチャーから生 まれた英語リスニングドリル 100 選」(株式会社べストティーチャー)(2017.10)[3]や「九九ゼミ」(株式会社八雲ソフトウェア)(2018.12)[4]などがある. ## 3 Amazon Echo と Alexa スマートスピーカーとは音声で操作をすることができる対話型の AI 機能を持つスピーカーであり,ユ ーザが話しかけることで,天気,ニュース,時間,音楽,家電を操作することができる.日本で主に流通しているものは Amazon Echo (Amazon), Google Home (Google), Line Clove (LINE)などがある. 本研究で使用するスマートスピーカーは,世界で一番普及している点,ディバイスに画面があり画面の必要性を比較できる点,そして個人の開発者によって AI アシスタントの機能を拡張できる開発環境が日本語にも対応している点から Amazon の Alexa という AI アシスタント(クラウドベースの音声サ ービス)を搭載した Amazon Echo を選択した。 図 2 : Amazon Echo Show5 と Alexa Skill Amazon Echo ではパソコンやスマートフォンで用いるアプリケーションの代わりとなる Alexa Skill を使用する.ユーザは多くの Alexa Skill の中から自分に合う Alexa Skill を有効にすることによって Alexa の機能を拡張することができる. ## 4 Alexa Skill の仕組み Amazon Echo には普段周りの音を聞いている状態であるマイクが内蔵されており,ユーザが発話した 「アレクサ」というウェイクワードに反応して要求を録音し, 音声データとしてインターネットを通じて Alexa に転送する.その転送されたデータを Alexa の自動音声認識(ASR)と自然言語理解(NLU)で 処理し,プログラムを実行するサーバーにリクエストデータとして転送する.サーバーが処理後転送したレスポンスを Alexa の音声合成(TTS)を通じてユーザの耳に届ける.[5] 図 3 : Alexa Ski11 のしくみ ## 5 学習機能の作成 Amazon Echo に搭載されている Alexa を用いて日本語学習者を対象とした日本語を学習することができる Alexa Skill を作成する.Alexa Skill を作成する方法は多く存在するため, 本研究では Amazon から提供されている Alexa Skills Kit と Alexa Skill をノンコー ディングで作成することができるサービスである Voiceflowを使用した。 ## 5.1 Alexa Skills Kit とは はじめに Alexa Skill を作成することができる拡張機能開発キットの Alexa Skills Kit を使用する.Alexa と対話するには「Alexa,O○を開いて」のようなフレ ーズを発話する必要がある.この○○に入る名称をここでは呼び出し名と言い,最初に設定する.Alexa の音声ユーザーインターフェースでは,基本的にユ ーザがまず発話し,それにスキルが応答する.このユ一ザの発話による指示をインテントと呼び,このインテントに今回の日本語の問題に対する答えとなる言葉を設定する.[6] 図 4:Alexa Skills Kit での開発画面 ## 5.2 AWS Lambda とは 次にプログラムコードを実行するサーバーに AWS Lambda を使用し,Node.JS のサンプルコードから日本語の単語の一問一答形式の問題のプログラムを作成する.[7] 図 5 : AWS Lambda での開発画面 ## 5.3 Alexa skills Kit で作成した Alexa Skill 教材はユーザが「アレクサ,反対の言葉を開いて」 と発話すると起動する.起動すると学習が始まり,60 問からランダムで 10 問出題される. 問題が出題されるとディバイスの画面には三択で答えが表示される. 10 問終了すると最後に得点が画面に表示される. 作成したAlexa Skill 「反対の言葉」(60問からランダムで10問出題) 2 アレクサ反対の言葉を開いて 反対の言葉の練習をしましょう。 次の単語を、反対の意味の言葉で答えてください。 第 1 問大人 2 子供 正解!大人の反対は子供です。 あなたのスコアは 1 点中 1 点です。 図 6 : 作成した Alexa Skill “反対の言葉” 図 7 : Alexa Skills Kit でのシミュレート 図 8 : "反対の言葉”ディバイス画面推移 ## 5.4 Voiceflow とは Voiceflow は Alexa が発話する Speakブロックとユ ーザの発話の内容を判別し分岐させる Choice ブロックを使用することで,会話をフローチャートのように作成することができ, 実際の会話の動きを視覚化することができる.[8] 図 9 : Voiceflow での開発画面 ## 5.5 Voiceflow で作成した Alexa Skil Voiceflow で作成した Alexa Skill は画面表示の有無の使用度を比較するために, 画面表示がなく, 音声のみを聞いて回答する問題である”反対の言葉”,画面表示を見て回答をする問題”漢字の読み方”,画面表示はあるが見なくても回答ができる問題”言葉の言い換え”の 3 種類の問題である. 問題の内容は,日本語を母語としない人の日本語能力を測定し認定する日本語能力試験の問題を引用した.[9] ## 5.6 反対の言葉 “反対の言葉”は Alexa Skills Kit で作成したものと内容は同様であるが, 画面表示をなくして音声だけで回答ができるように変更した. ## 5.7 漢字の読み方 “漢字の読み方”は画面に表示されている問題文の中の下線部の漢字の正しい読み方を 4 つの選択肢から選ぶものである.問題文は読まれないため画面を見て回答する必要がある. 図 10 : "漢字の読み方”ディバイス画面推移 ## 5.8 言葉の言い換え “言葉の言い換え”は画面に表示されている問題文の中の下線部の言葉に意味が最も近いものを 4 つの選択肢から選ぶものである.問題文と選択肢が読まれるため画面表示を見なくても回答できる. 図 11 : "言葉の言い換え"ディバイス画面推移 ## 6 実験 ## 6.1 実験被験者 東京電機大学在学の留学生 5 名と東京電機大学日本語教師 1 名を対象として実験を行った.留学生の日本語学習歴は 3 年以上であった. ## 6.2 実験内容 Zoom のビデオ通話を通して Amazon Echo の画面を見ながら 3 種類の問題を操作し,教材の評価をするという手順で行った. ## 6.3 実験結果 スマートスピーカーを使用したことがあった被験者は半数であったが, 問題操作の容易さには全員から肯定的な意見があり, スマートスピーカーを操作し学習する方法は学習者に受け入れられそうであることが確認できた. 画面表示の有無に関しては意見が分かれたが, 画面表示有りでは問題の説明や問題文, 解説が全てで日本語での表示だけであったため英語での表示があると日本語に不慣れな学習者にとってより分かりやすいという意見が得られた. 画面表示無しでは, 普段の生活で料理が退屈であるため,音声だけで操作することができれば料理をしながら学習することができて良いという意見を得ることができた. 問題の内容については,” 反対の言葉” で文脈がないと意味が取れないものがあり, 単語ではなく文レベルで発話させることによって文法の変形練習もできるため良いという意見を得ることができた. งคำ青定 - ก้ง 図 12 : アンケート結果 ## 7 今後の展望 今回の結果からスマートスピーカーでの学習は受け入れられそうだが,対象となる学習者の日本語能力にあった問題の難易度や構成を改めて検討する必要があることが判った.そのため今後の研究活動では,対象を在学している東京電機大学の留学生の入学条件となっている日本語能力試験 N2 レベルの受験生に絞り, 日本語能力試験の模擬試験の代わりとなるような Alexa Skill を作成し,紙で学習を行う場合とをアンケートによる主観評価に加えて, 3 点式眼電位センサーから集中・活力・落ち着きを測定することができるスマートグラスである JINS MEME や皮膚電気活動センサーから精神性発汗を測定しストレス度を可視化できる Fitbit での比較を検討している. ## 参考文献 [1] Canalys: Global smart speaker installed base to top 200 million by end of 2019 " https://www.c analys.com/newsroom/canalys-global-smart-speake r-installed-base-to-top-200-million-by-end-of-201 9 ",2019.5.15 [2] 甲斐晶子ほか 3 名,” 受身系転換練習のためのスマートスピーカー (Alexa) 用機能の開発”日本教育工学会第 34 回全国大会発表論文集, 2018.9, pp.669-670. [3]「ベストティーチャーから生まれた英語リスニングドリル 100 選を Google Homeに提供」” https://www.best-teacher-inc.com/news/google-ho me" ,2017.10.15 [4] 株式会社八雲ソフトウェアホームページ"https: //8clouds.co.jp/smart/”,2020.4.1参照 [5] Alexa スキル開発トレーニング“https://develope r.amazon.com/ja-JP/alexa/alexa-skills-kit/training/b uild-a-skill” , 2020.4.1 参照 [6] Alexa Skills Kit“https://developer.amazon.com/jaJP/alexa/alexa-skills-kit" [7] AWS デベロッパーセンター"https://aws.amazo n.com/jp/developer/" [8] Voiceflow"https://www.voiceflow.com/" [9] 日本語能力試験公式ウェブサイト“https://www.j lj1.jp/index.html”, 2012
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D7-1.pdf
# Unity を用いた電子教材の開発と評価 佐藤 志月宍戸 真 東京電機大学大学院情報環境学研究科 \{20jkm14\}@ms.dendai.ac.jp, \{shishido\}@mail.dendai.ac.jp ## 1 はじめに 国内の E-Learning 教材市場において, B to B はスマートフォンの普及によるニーズの増加, $\mathrm{B}$ to $\mathrm{C}$ は学習塾の映像授業サービスの増加等により,この売上は年々増加傾向にある. 電子教材の需要が高まることが予想される中,ゲームの要素を含んだ学習教材も多く存在し,これに関わる研究も増えつつある. 本研究では,TOEIC の英単語学習に焦点を絞り,教材を作成する.この理由として,我が国の TOEIC テストの受験者数が 2019 年度に約 241 万人と増加していること [1],大学入試の特定の試験形態や企業の推薦資格を獲得する基準として用いられていることから [2],教材の中でも特に需要が見込まれると考えたからである. ## 2 関連研究 英語学習教材にゲームの要素を含ませているアプリケーションは多く,Google Play ストアで”英語学習” と検索すると,200 以上の学習アプリが公開されていることがわかる [3]. 久保田らは,TOEIC テストで高得点を取ることを目的とした大学生及び社会人を対象に,アクアリウム型育成ゲーム"FishyFishy"を試作しているほか [4], 矢澤らは,視線計測を用いた英文読解支援アプリケーションの中で,ゲーミフィケー ションの要素を用いてユーザーのモチベーション向上を目指した [5].教材の有効性を検証する方法としては,アンケートを実施する手法が多く取られているが,魚住らは,小学校の生活科における教材開発の中で,フロー理論を軸にした教材設計を行い,アンケ ートではその評価項目を満たしているかを検証する方式を採用している [6]. ## 2.1 ゲーミフィケーション理論 ゲーミフィケーションとは,ゲームの考え方やデザインをゲーム以外のものに転用することである.構成要素としては,タスク,ポイント,バッジといった点が挙げられている [7].学習意欲の向上ができる他, モチベーションを保たせやすい,興味を引かせやすいといった長所から,教材設計の手法の 1 つとして認知されている. ## 2.2 フロー理論 チクセントミハイが提唱する理論であり,内発的に動機づけられた自己の没入感覚を伴う楽しい経験を指す.この状態にあるとき,人は高いレベルの集中力を示し,楽しさ, 満足感,状況のコントロール感,自尊感情の高まり等を経験する [8].すなわち,集中力の度合いを測る要素であり,授業や教材の評価の指針として用いられる。 ## 3 提案 英語学習とゲームを組み合わせること,或いはゲ ーミフィケーション要素を加える取り組みは多く実践されているが,どのようなゲームジャンルと組み合わせるかは製作者の考えに寄るところが大きく,新しいジャンルのゲームと掛け合わせることで,これまでにない学習効果が確認できる可能性がある。 そこで,既存の研究では採用されていないゲームジヤンルで教材を作成し,特異な反応が得られるかを検証する。 英語学習教材とゲームを組み合わせるにあたり, どのジャンルのゲームを採用するかを決定する必要がある.今回は,”脱出ゲーム”の要素を教材に組み込む手法を提案する.選定理由としては,目標が明確であること,ユーザーは与えられたヒントから自分で考えて脱出を試みることで,主体的に学習活動を行えるのではと考えたこと,ゲームに不慣れな学習者でも直感的に操作を行えると考えたことを挙げる。 また,デジタルゲームを教育に導入するうえでの欠点となる要素が,脱出ゲームというジャンルでは回避できうるという点も選定理由の 1 つである.藤本によると,デジタルゲームを導入する短所として, (1)学んでほしい内容と直接関係しないゲームのスト ーリーやアクションに夢中になり,学習が疎かになりやすい,(2)活動全般の意欲が高まっていたとして も,学習活動の改善がみられているとは限らない,(3) ゲームルールや操作の習得に時間がかかるなどして,必要以上に時間がかかりやすい,(4)教師による統制が困難になりやすい,という点が挙げられている [9]. これらの点について,脱出ゲームは"脱出する”以上のストーリーを必要とせず,画面をクリックするだけで直感的に操作を行うことができるため,操作で躓く学習者は少ないと考えられる.そのため,シンプルなゲーム性を維持したまま,学習活動の改善に寄与しうる要素を追加で提案・検討する。 ## 3.1 追加の要素 今回の教材で,脱出ゲームと組み合わせる形で採用する要素を記載する。 ## 3.1.1 テスト要素 脱出ゲームパートで学んだ英単語の知識がどの程度身についているのかを測るパートを用意する。 ## 3.1.2 メダル要素 プレイ回数やテスト要素でのテストの出来栄えによって付与を行い, モチベーションの低下を避ける。 ## 3.1.3 音声認識要素 脱出ステージの一部に, ギミックとして搭載する.教材の新たな指標としての調査と, 学習中盤でのモチベーション低下を避ける狙いがある. ## 4 実装 本教材の作成には,ゲーム制作エンジンである Unity を用いた.タイトルシーンから遷移が可能な各パートについて,本項で示す. また,この教材は TOEIC のスコアアップを目標としており,対象は大学生としている.本教材で学習する単語は全 700 単語であり,これは, 本学の英語科目で指定されている TOEIC の頻出単語 1000 語を,アルクの単語難易度によりレベル分けを行い [10],1000 単語をレベルが高いものから 700 単語抽出,この 700 単語のレベルが低い順に 14 分割し,各ステージでは 50 単語を学習する. ## 4.1 脱出パート 脱出パートはステージで細分化され,今回は実験期間に併せ,全 14 ステージを用意した.プレイヤーは部屋や車,無人島といったステージから,複数のアイテムを獲得し,このアイテムを正しい場所に使用することなどで,脱出を試みる.例えば,部屋のステージでは,鍵のアイテムを見つけ出し,ドアに使用するこ とで脱出を行うことができる.脱出に必要なアイテムや脱出のヒントは秘匿されており,英単語のクイズを解くことで,ヒントを獲得することができる.英単語のクイズは 50 問の中から 10 問を重複がないよう出題し, 5 回挑戦するごとにリセットされ,一度出た単語がもう一度出題される仕様となっているが, その選出順はランダムである.クイズは 4 択とスペル記述の 2 パターンを作成した 8 割以上の正答でヒントを獲得でき, 4 択と記述で獲得できるヒントはそれぞれ異なるものを用意している.また,ステージ 6 と 14 では,音声認識を利用した仕掛けを用意した。 図 1 脱出パート ## 4.2 テストパート テストパートは,脱出パートとは別に,学習者がどの程度単語を理解できているかを可視化するために用意した. 1 単語が欠けた英語の問題文と,その日本語訳,記述欄を用意し,訳の意味となるように例文の久けている単語をタイプして回答する.各ステージに対応した全 14 パートで構成され,全 50 問が記述形式で出題される.クロスワード形式を採用しており,正答したスペルが順次更新され,次の問題の解答のヒントとなる.このテストパートで間違えた単語は, その誤答回数がテキストファイルに記録される. 図 2 テストパート ## 4.3 レコードパート テストパートで学習した英単語とその訳,及び誤 答回数をステージごとに確認できるパートである. 図 3 レコードパート ## 4.4 メダルパート ゲーミフィケーション要素の報酬に該当するパー トである.例えば,ステージ 1 を 1 回クリアする,ステ ージ 4 のテストで一度も間違えずにクリアする,といった特定の条件を達成することで, メダルを獲得でき,学習の動機づけを与える。 図 4 メダルパート ## 5 評価 ## 5.1 実験方法 本学の英語講義の受講者 52 人を対象に教材を配布し, 毎週の講義終了後に 1 ステージずつプレイしてもらい, その都度アンケートの提出を求めた.このアンケートと教材の利用履歴, 講義受講前後での TOEIC スコアと最終時に実施するテストによる順位比較, 最終回に実施するアンケート結果から学習効果を観察する。 また, 学生には脱出パートのみプレイを指示し, テストパートの実施については学生の判断に任せている. 教材とその利用方法を示した資料の配布、及び実験はいずれもオンラインで行い, 学習方法は被験者の判断に委ねることとした. ## 5.1.1 アンケート項目 アンケートは毎週提出する各ステージのアンケー トと, 最終時に提出するアンケートに二分される. 各回のアンケート項目は, フロー項目, そのステー ジで学んだ英単語の難易度, ステージの意見を問う 3 項目で構成される.フロー項目は, 下記 10 項目からなる質問に細分化し, それぞれについて当てはまる数值を, 全く当てはまらないを 0 , 確実に当てはまるを 6 とした 7 段階評価で選んでもらった. 表 1 フロー状態を測る項目 \\ 最終アンケートでは, 電子教材全般に対する質問や, 総合的な教材評価といった質問項目を用意した。 ## 5.1.2 ボキャブラリーテスト 最終講義時に行うテストで, 本教材で学習する 700 単語の中から問題が出題される. 出題形式は 4 択,記述, 穴埋め問題で構成され, 各ステージから満遍なく, 全 50 問出題される. ## 5.2 実験結果 アンケートとゲームの取り組み状況, 及びテストの順位比較による学習意欲・効果の比較を行った。 ## 5.2.1 被験者の意識調査 最終回に実施したアンケートから, 今回の被験者の教材に対する意識を調査した.その中から,下記の項目を抜粋して,今回の実験対象者の傾向を示す. 表 2 最終回アンケート項目例 Q1 の結果, 利用したいと回答した被験者は $46.7 \%$ に留まった.しかし, 利用したくないと回答した理由の多くは, 音声認識の精度に対する不満と, 教材の一部のUIによるものが多く,これらの意見から利用したくないと回答した被験者を除くと,利用したくないと回答した被験者の割合は $27 \%$ であった. Q2 の調查では, $86 \%$ の被験者はないと回答した.残りの被験者は, 洋画や海外のニュース, 広告を見るといった回 答がみられた. 最後に, Q3, Q4 を尋ねたところ,いずれも 9 割の被験者は抵抗を感じないと回答した.このことから, 本教材のような語学学習コンテンツは,若年層には受け入れられやすいと考えられる.一方,抵抗を感じると回答した被験者にとっては, 最後まで受け入れられず,フロー状態も伸び悩んだ。 ## 5.2.2 学習効果の比較 実験前に実施された TOEIC のスコアと, 実験終了後のテストのそれぞれについての順位を比較し, その結果を上昇, 横ばい, 下降の3 タイプに分類を行った.ここでは、事前の TOEIC とボキャブラリーテストの両方を実施した 43 名を集計対象としている. ## 表 3 TOEIC と事後テストの順位比較 結果としては, TOEIC の順位が 11~20 位程度の被験者の結果が振るわなかった一方, TOEIC スコアでは下位に位置付けた被験者が高得点をマークするケ一スも多々見られた.ここで, 上昇と判断した 23 人と下降と判断した 13 人のうち, 最終回実施時の教材アンケートに回答した 11 人, 7 人の比較結果を示す. 表 4 順位変動者の意識調査 この結果から, 教材を今後も利用したいと回答した被験者のらち, $88 \%$ が順位があがる結果となった. また,この教材を利用して英語学習のモチベーションがあがり, 追加で TOEIC の単語学習帳を購入したと回答した被験者もおり, 学習意識の改善の一助になったと考えられる。一方, 教材を利用したくないと回答した被験者の順位が下降した割合は $66 \%$ であり,本教材以外で学習を行った人数も非常に限られた. ## 5.2.3 フロー項目の推移 毎週実施したアンケートから, フロー状態の評価を行った. 図 5 では, フロー状態の各項目とプレイ時間の両方について, 被験者全体での平均をステージ毎に算出した結果を示している.この図から,ステー ジごとに項目値は乱高下し, 適切な推移を保っているとは言い難い結果となったことがわかる. 図 5 フロー項目とプレイ時間の推移 ## 5.2.4 形態素解析 毎週実施したアンケートの感想を, KH Corder3 を用いて共起ネットワークを作成した.この結果から, ”記述問題は良いと思う” , ”ゲーム要素は面白い” といった文が生成される.一方, 音声認識の項目はゲ一ムや学習パートとは別に, 独立して捉えられた. 図 6 アンケートの形態素解析 ## 6 まとめ 今回の結果から, 元々あるゲームに語学学習要素を組み込むことにより,学習意欲と学習効果が高まる例は見られたが, ゲームの操作性により学習意識や学習時間の乱高下がみられたり, 音声認識を導入したことによるモチベーションの低下など, 評価値に大きく波が出る結果となった. そのため, 学習者が学習外の部分で躓かないような設計・配慮を適切に行うことが, 本教材のようなコンテンツには特に重要である.今後は, UI やゲーム性の改善に尽力し, フロー状態を適切に満たす教材へと昇華させたい. ## 参考文献 1. 一般財団法人国際ビジネスコミュニケーション協会. 2019 年度 TOEICProgram 総受験者数は約 241 万人. (オンライン) (引用日: 2020 年 12 月 22 日.) https://www.iibc-global.org/iibc/press/2020/p149.html. 2. -. TOEIC Program 大学の入学試験における活用状況 -2020 年度-. TOEIC Program. (オンライン) (引用日: 2020 年 12 月 22 日.) https://www.iibcglobal.org/toeic/official_data/univ_research.html. 3. Google. Google Play. (オンライン) (引用日: 2020 年 12 月 22 日.) https://play.google.com/store. 4. 久保田大輝, ほか. 英語の語彙能力向上を目的としたシリアスゲーム FishyFishy の開発. 出版地不明:情報処理学会, 2017 . 5. 矢澤崇史, ほか. 視線入力を用いて英文読解を支援するゲーミフィケーションの研究. 出版地不明:情報処理学会, 2015. 6. 魚住明生 , 山口裕加. フロー理論を基にした小学校生活科におけるものづくりと教材に関する研究. 出版地不明: 三重大学教育学部研究紀要, 2019. 7. GabrielaKiryakova, NadezhdaAngelova, LinaYordanova. GAMIFICATION IN EDUCATION. 2014. 8. ミハイ・チクセントミハイ著今村浩明訳. フロー体験喜びの現象学. 京都府:世界思想社, 1996. 9. 藤本徹. 効果的なデジタルゲーム利用教育のための考え方. 出版地不明 : コンピュータ\&エデュケーション, 2011. 10. アルク. レベル別語彙リスト SVL12000. (オンライン) (引用日: 2020 年 12 月 23 日.) https://www.alc.co.jp/vocgram/article/svl/.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D7-2.pdf
# Blockly を利用したタグ付きコーパス検索パタン構築ツール 岡田魁人 岡山大学大学院自然科学研究科 pdrj11bt@s.okayama-u.ac.jp ## 1 はじめに 本研究はブラウザ上でプログラムを組み立てることができる Blocklyを利用してタグ付きコーパスから目的とする表現を取り出すための言語パタンの構築を補助するツールについて記述する. 基本的な言語パタン抽出の応用としてコンコーダンサや質問応答などでの内部処理が挙げられる。まず,コンコーダンサについて説明する。 コンコーダンサとは,コーパスを分析するソフトのことである.自然言語処理の分野において,語の特徴や傾向性を明らかにするためにコーパスが利用される.コーパスを利用するには,大量の電子資料や専用マニュアルを読む必要があり,直接読むことは学習コストが高くなるなどの問題がある。 そこで,語の出現状況をわかりやすく示すコンコーダンサを使うことが一般的である. テキストコーパス内の文字列や単語を検索し, 検索単語を中心として, 前後の文脈とともに示される KWIC 形式のように表示するコンコーダンサは既に数多く存在する [1][2]. しかし既存のコンコーダンサでは,表層上の文字列や単語検索以外に, 例えば同義語や類義語, 同じ意味を示す文などの柔軟な検索に対応していない. コンコーダンサ以外に,日本語のタグ付きコーパスを柔軟に検索できるツールはほとんど存在しない [3][4]. 図 1 に「走る」を検索した場合の KWIC の例を示す。 図1「走る」を検索した場合の KWIC の例 一方,テキストに対して,意味役割付与システムから得られる解析結果を用いれば,述語の概念など \author{ 竹内孔一 \\ 岡山大学大学院自然科学研究科 \\ takeuc-k@okayama-u.ac.jp } 意味タグをもとにした検索が実現できる. 例えば,竹内研では意味役割付与解析システム $\left(\mathrm{ASA}^{1)}\right)$ が構築されている. ASA の結果を用いて,「表情の出現」 という概念を持った動詞を検索をすると,図 2 のように述語の概念分類に沿った例文を取り出すことが可能である. 図 2 「表情の出現」という概念を検索した場合の提案システムの表示例 次に,質問応答システムにおいて言語パタンを利用する研究事例が挙げられる. IBM が開発した質問応答システム Watson では,あらかじめ質問に対する答えを構文のパタンとして構築している [5]. 意味役割が付与されたコーパスに対し,KWIC のみではなく,柔軟に検索できるツールがあれば,パタン構築を素早く仕上げることができる。 よって本研究では前節の背景を踏まえて,意味役割付与されたタグ付きコーパスに対し,柔軟な検索に対応し,コンコーダンサの機能を持ち,さらに質問応答システムに見られる前処理をも行えるような多機能ツールを構築する。本システムは 2 つモジュールから構成されており,1つがユーザインタフェースの部分,もう1つはパタンマッチの部分である。本論文では,前者のユーザインタフェースの構築について記述する。 ## 2 関連研究 関連研究として,「茶器」[3] がある。「茶器」は,品詞,文節,係り受けといった統語情報などタグ付けされたコーパスを柔軟に検索することができ,関 1) http://www.cl.cs.okayama-u.ac.jp/study/project/asa/asa-scala/ 係データベースを用いて検索システムとして実装したものがあり [6],ドイツ語の Treebank を対象にした同様のものがある [7]. また,木構造のタグ付与データに対して検索するツールが提案されている [8]. 最終的には品詞,文節等のチャンク,係り受け等の統語情報を含むタグ付けコーパスに対して,柔軟な検索機能を備えるだけでなく, 各種統計解析機能や辞書とコーパスの連携,タグ付けエラーの修正などの機能を持ったタグ付きコーパスの検索/管理システムを目指しているものである [9]. ## 3 言語パタンマッチシステム 本提案システムは,ユーザインタフェース部分に Blockly2)を採用して,言語パタン構築モジュールを実装する. Blocklyを採用することで,言語パタンをより直感的に組むことができる. ## 3.1 項構造ベースの言語パタンマッチ $ \begin{aligned} & \text { ・X は Y の「著者」だ } \\ & \text { =>X は Y を「書いた」 } \\ & \text { ・Xの「親」は Y } \\ & \text { =>X は Y の「子供」だ } \\ & \text { ・Y はXの「店員」だ } \\ & \text { =>Y はXで「働いて」いる } \end{aligned} $ 図 3 項構造と動詞への言い換え例 本提案システムにおける言語パタンマッチについて説明する. 前提として, ASAにより意味役割付与されたコーパスを検索の対象とする.語には,語そのものに関係性を表すようなものがある [10]. 例えば図 3 のような構文パタンがある. この例からわかるように,ある一文から作者と作品名を抜き出すことや,係り受けの関連を取り出すこと,また,単純に文字列や単語そのものも含めてユーザが構築した言語パタンをもとに対応したパタンマッチ処理を実行することを本論文では言語パタンマッチと定義する. ## 3.2 言語パタンマッチシステムの機能 本提案システムには様々な機能が必要となる.様々な視点からコーパスの検索が可能であること,  および検索結果の表示や再加工を行えるよう適切なデータやプログラムに変換する処理を行う必要が生じる.検索要求は,単語の経りそのもの,単語の一部,単語の原形,品詞などの文法情報,意味タグが付与された構文構造 (prolog の木に分解) [11], 係り受けの関係,およびそれらを組み合わせたものであり,以下言語パタンと述べる際にはこれらを含めたものとする。下記に,システムに求める機能について記述して整理する。 ## 検索 ユーザが構築した言語パタンに応じた適切な検索が行える。 ## 言語パタンの構築 視覚的に言語パタンを組むことができる。ユー ザが必要とする言語パタンを組み合わせて実現できるような多種の検索要素を提供でき,単語や品詞だけでなく,ASAにより付与される概念フレームなど意味的なタグについても検索できる検索要素も提供できることが好ましい. ## 言語パタンの保存 上記の機能で構築した言語パタンを保存できる. 保存した言語パタンは txt ファイルとしてダウンロードができるため,ユーザ間で共有することができる. ## 言語パタンの読み込み ユーザが組み立てた言語パタンを読み込む。これにより他の人が作成した言語パタンも利用できる. ## 検索結果の出力 検索結果を表示するだけでなく,検索結果を例えば二次加工がしやすい json 形式や csv 形式のファイルに書き込み,ダウンロードができる。 ## 3.3 言語パタンマッチの全体像 提案システムの実装には,npm (Node Package Manager)を用いる3).ここで,システムの処理の流れを視覚化するためフローチャートを図 4 に示す.以下ではフロントエンドとバックエンドの各処理について説明する。 ## 3.3.1 フロントエンド: ユーザによる操作の処理 ユーザの操作項目についての説明をする.最初に解析対象とするテキストデータを読み込ませる。 3) https://www.npmjs.com/ 図 4 提案システムのフローチャート 解析対象は複数のファイルを登録することができ, チェックボックスで切り替えることができる. 次に,クエリ作成を行う.クエリとは,検索要求を組み合わせて構築する言語パタンのことである. クエリはデータ読み込みから作成することもできる.実行ボタンを押すことで言語パタンマッチから表示に必要なデータ加工までの処理が実行される. ## 3.3.2 バックエンド: タグ付与と検索処理 本論文ではテキストを解析するシステムとして意味役割付与システム ASAを利用する。ユーザがまず最初に検索したいテキストをシステムに入力した場合,ASAによる解析を行った後,係り受け,形態素,述語の概念フレーム,意味役割をすべて Prolog 形式の探索木に変更する [11]. 次にフロントエンド側で言語パタンが構築され, 検索要求がだされたときに,検索言語を受け取り prolog の機能を利用して,マッチしたテキスト部分をフロント側に送る.検索の際,文,係り受けのチャンク,形態素の単位で探索木を構成しているが,今のところ,検索結果の単位は文の集合を返している。 ## 3.4 言語パタンマッチシステムの拡張性 今回実装するシステムの言語パタン構築部分は, バックエンドで処理する言語処理ツール用にカスタマイズしている.よって,他の言語処理ツールを適用する場合にはそれに合わせたタグ体系に合わせることで,複雑な解析も Blocly を利用することで手軽に行えるようになる。 ## 4 動作確認実験 本提案システムについて,以下で示すデータセッ卜を用いて動作実験を行う. 動作実験の目標として, 図 3 の例として述べた著者と作品の組み合わせを抜き出すこととする。 ## 4.1 検索対象例文 検索対象例分として図 5 に示すように,著者と作品名を文で表した例文を 10 文用意した。例にもあるように「図書館戦争を書いた有川浩」など連体修飾の例も入れている。また,パタンにマッチしない文も入れている. 泥棒に財布を盗まれる。有川浩が図書館戦争を書いた。昨日、友達と喧嘩した。今日、新しいコンピュータを買うつもりだ。羅生門は芥川龍之介の小説だ。親に好きな靴を捨てられた。明日、学校で誕生日パーティーが開かれる。大学の隣に、新しいスーパーが建つ。初めて先生に褒められた。図書館戦争を書いた有川浩 図 5 検索対象例文 ## 4.2 言語パタン Blocklyを用いて実現した Prolog で構築した言語パタンを図 6 に示す. author ブロックとして author(_author,_work) という述語を宣言し,緑のブロックで囲われているエリアに述語の定義を記述する。_author と_work は項であり,検索結果が入る. author ブロック内では author を取り出す具体的な構造が各ブロックで記述されている。例えば 「type (X0, verb)」は品詞のタイプとして verb のものを探索木から取り出し,その要素を変数 X0 にセットする。また, semantic は概念フレーム, main は主辞,role は意味役割を表す.ここで定義した author ブロックを利用して,さらに他の言語パターンを取り出す際に利用することができる. 図 6 著者作品を抽出するための Prolog 言語パタン ## 4.3 動作結果 上記のデータセットに対してパタンマッチした結果の例を図 6 に示す. 図 6 では,検索にマッチした文を表示していて「書く」や「〜の小説だ」といったパタンにマッチした文が取り出されている。単に文が取り出されているわけでなく内部が項構造として構築されているため,変数である_author には「有川浩」「芥川龍之介」,_work には「図書館戦争」「羅生門」が取り出されており,必要であれば,その部分だけをとりだすこともできる. く/>結果 有川浩が図書館戦争を書いた。 羅生門は芥川龍之介の小説だ。 図書館戦争を書いた有川浩 図 7 動作実験のスナップショット ## 5 おわりに 本論文では意味役割や概念フレームなどがテキス卜に探索木として付与されている場合にユーザが構築した言語パタンをブロックベースのプログラムとして組むことが出来るシステムについて記述した。実装として Blockly のライブラリを用いてブラウザベースの Web アプリケーションとしてシステムを構成した. 実装に際して,言語処理の分野でよく利用される次の 2 つの機能の実現を目標とした. 1 つ はコンコーダンサの機能,そしてもう 1 つは質問応答システムに見られるような構文パタンを検索,処理を行うツールとしての機能である。実際に活用されるツールにするために,上記機能を満たすだけでなく,アプリケーションとして改善していく必要があるだろう.今後は,機能追加に加え,既存機能の改良,英語版対応および UI/UX の最適化を検討している。 ## 謝辞 本研究の遂行にあたって JSPS 科研費 19K00552 の支援を受けた。 ## 参考文献 [1] 小木曽智信, 中村壮範. 通時コーパス用『中納言』:Webベースの古典語コンコーダンサー. [2] 中條清美, 西垣知佳子アントニ・ローレンス. フリーウェア WebParaNews オンライン・コンコーダンサーの英語授業における活用. 日本大学生産工学部研究報告 B (文系), Vol. 47, pp. 49-63, 2014. [3] 松本裕治, 高岡一馬, 浅原正幸, 乾健太郎, 橋本喜代太, 投野由紀夫, 大谷朗, 森田敏生ほか. タグ付きコー パスの格納/検索ツール「茶器」. 言語処理学会第 10 回年次大会発表論文集, pp. 405-408, 2004. [4] 田中良. 多言語対応コンコーダンサー『HASHI』:日本語と日本語教育と社会言語学の研究を中心に. 2015. [5] Adam Lally, John M Prager, Michael C McCord, Branimir K Boguraev, Siddharth Patwardhan, James Fan, Paul Fodor, and Jennifer Chu-Carroll. Question analysis: How Watson reads a clue. IBM Journal of Research and Development, Vol. 56, No. 3.4, pp. 2-1, 2012. [6] 工藤拓, 松本裕治. Rdb を利用したタグ付きコーパス検索支援環境の構築. 情報処理学会自然言語処理研究会 2001-NL-144, pp. 135-142, 2001. [7] Laura Kallmeyer. A query tool for syntactically annotated corpora. In Proceedings of the 2000 Joint SIGDAT conference on Empirical methods in natural language processing and very large corpora: held in conjunction with the 38th Annual Meeting of the Association for Coтputational Linguistics-Volume 13, pp. 190-198. Association for Computational Linguistics, 2000. [8] Kohsuke Yanai, Misa Sato, Toshihiko Yanase, Kenzo Kurotsuchi, Yuta Koreeda, and Yoshiki Niwa. Struap: A tool for bundling linguistic trees through structure-based abstract pattern. In Proceedings of the 2017 EMNLP System Demonstrations, pp. 31-36, 2017. [9] 浅原正幸, 米田隆一, 山下亜希子, 伝康晴, 松本裕治.語長変換を考慮したコーパス管理システム. 情報処理学会論文誌 Vol.43,No.7, pp. 2091-2097, 2002. [10] 西山佑司. ひつじ書房, 2003. [11] 小笠原崇, 竹内孔一. 意味役割付与テキストに対する prolog ベースの探索木による言語パタンマッチシステム構築. 言語処理学会第 27 回年次大会, 2021.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D7-3.pdf
# 英語学習者のための解説文生成手法の調査 塙一晃 ${ }^{\dagger, \ldots, 1}$ 永田亮 $8,+, \pi, 2$ 乾健太郎 ${ }^{+, \dagger, 3}$ †東北大学 理化学研究所 $\S$ 甲南大学 $\mathbb{I} J S T$ さきがけ ${ }^{1}$ kazuaki.hanawa@riken.jp $\quad{ }^{2}$ nagata-nlp2021@ml.hyogo-u.ac.jp $\quad{ }^{3}$ inui@tohoku.ac.jp ## 1 はじめに 解説文生成とは,与えられた文章に対してライティングに関するヒントや説明を生成するタスクのことである。例えば,*We reached to the station.の下線部に対して, (1)reach は他動詞ですので、目的語の前には前置詞は必要ありません。 のような解説を生成するタスクである。文献 [1]で,英語学習者が書いた文章に対して,前置詞に関する解説とより一般的な解説の二種類を付与したコーパスが構築,公開されている。このデータセットにより,様々な機械学習による解説文生成が可能となっている。例えば,本タスクは,解説対象文章と解説箇所を入力とする言語生成問題であるので,各種のニューラル言語生成モデルが適用可能である. このような状況にもかかららず,解説文生成手法について分かっていることはとても少ない. 存在する知見は,前置詞解説文では検索に基づいた手法が有効である [2] ぐらいである. ニューラル言語生成モデルには,幅広い選択肢があるが,研究例は非常に少ない. 文献 [3] では, 検索結果に基づいて, ニューラル言語生成モデルで生成を行うが,他のモデルとの比較は行われていない。また,これらの研究は前置詞解説文をのみを対象にしており,一般解説文に対する知見は皆無である.後者のほうが解説の種類が多くより難しい問題であるため,手法の振る舞いが大きく変わる可能性がある. そこで,本稿では,解説文生成の研究が今後進むべき方向性を模索することを目的として,各種手法の性能比較と生成結果の詳細な分析を行う. 具体的には,検索に基づく手法,単純な Encoder-decoder 言語生成モデル,両者を組み合わせた検索編集手法 (以下,それぞれ, Retrieval, Simple Generation, Retrieve \& Edit と表記)について比較を行う. 前置詞解説文に加えて,今まで研究例がない一般解説文 も対象とする。 各手法の性能は次のように予想される.Retrieval は,検索した解説文をそのまま出力するため柔軟性に久け,最も性能が低い. Simple generation は,言語生成モデルであるので柔軟性が高く,より性能が高い Retrieve \& Edit は, Retrieval と Simple Generation を組み合わせたような手法であるので,最も性能が高い,以上をまとめると,性能順は, Retrieval < Simple Generation < Retrieve \& Edit と予想される. 興味深いことに,実際に性能を評価したところ上の予想とは全く異なる結果が得られた. 更に,前置詞解説文と一般解説文では,異なる性能順位となることも明らかになった。具体的には,前置詞解説文では, Retrieve \& Edit < Retrieval < Simple Generation,一方,一般解説文では Simple Generation < Retrieve \& Edit < Retrieval となった. 生成結果を詳細に分析したところ,いくつかの要因が明らかになった. 結果は次のように要約される. 第一に, Retrieve \& Edit では, “不要な生成” (over-editing と呼ぶ) が頻繁に発生する. Over-editing は,言語生成モデルの柔軟性を上回り,性能低下を招く。その結果, Retrieval よりも低い性能となる.第二に,Simple Generation では,複数の解説内容を混ぜて生成するような現象(mutant と呼ぶ)が起こる. 複数の解説内容を混ぜたものは,当然,適切な解説文とはならない. 相対的に解説の種類が少ない前置詞解説文では mutant は発生しにくく, Simple generation の性能が最も良くなる。また,Retrieve \& Editでは,検索結果を利用するため mutant は起こりにくい,以上のことに基づき,性能向上のためのアイデアも議論する。 ## 2 関連研究 解説文生成研究のためのデータセットが少しずつ増えてきている。文献 [2] で,前置詞の用法を対象にした解説文データセットが公開された. その後,文献 [1]で,その他の文法誤り,構成,語彙選択を含 表 1 各生成手法の全体の正解率. む一般解説文のデータが公開された. 本稿では,この前置詞解説文と一般解説文のデータを利用する. そのほか,文献 [4] では, linking word の用法に着目した解説文を含む学習者コーパスが公開された. データの公開と共に,解説文生成手法の数も増えつつある. 人手で作成した規則に基づいて解説文を生成する手法 $[5,6,7]$, テンプレートに基づいて解説文を作成する手法 [8], 検索に基づいた手法 [2] などが知られている.これらの手法は広い範囲の誤りに柔軟に対応することが困難である。 より一般的には,解説文生成は,解説対象文と解説箇所を入力とした言語生成問題と捉えることができる. したがって,各種のニューラル言語生成モデルが本タスクに効果的であると予想される. そのような研究に文献 [3] がある. しかしながら,解説文生成において,各種ニューラル言語生成モデルの性能比較を行った研究は我々が知る限り存在しない. ## 3 解説文生成手法 ## 3.1 タスク定義と表記 文献 [2] に基づきタスクを定義する。 入力は,解説対象文と解説文の対象となるトークン位置 (以下,解説位置と表記)である。一方,出力は解説位置に対する解説文である. 形式的にタスクを定義するため,次の記号を導入する. 解説対象文,その長さ (トークン数), $i$ 番目のトークンをそれぞれ $S, N, w_{i}$ と表記する. すなわち, $S=w_{1}, \cdots, w_{i}, \cdots, w_{N}$ である. また,解説位置を $o$ と表記する. 更に,$S$ とoを組にしたものを $x$ と表記する. すなわち, $x$ は入力である.これに対応させ,出力となる解説文を $\boldsymbol{y}$ と表記する。一方,生成(予測)された解説文は $\hat{y}$ のように^をつけて表す.トークン $w_{i}$ に対応する隠れべクトルは $\boldsymbol{h}_{i}$ と表記する. また, $\boldsymbol{x}=(S, o)$ をエンコードしたベクトルを $\boldsymbol{c}$ と表記する. Retrieval と Retrieve \& Edit では次の記号も使用する. 入力 $\boldsymbol{x}$ に対する検索事例を $\boldsymbol{x}^{\prime}$ と表記する。また, $x^{\prime}$ に紐づいた解説文を $y^{\prime}$ と表記する。 ## 3.2 Simple Generation 例 (1) のように $S$ 中の単語は $\boldsymbol{y}$ 中にもしばしば出現する. したがって生成手法は $S$ 中の単語をコピーできる機構をもっていることが望ましい.そのため,我々は pointer-generator network [9] を Encoder-Decoder として採用する.このネットワー クは大力文中の単語のコピーと語彙からの単語の生成を $p_{\text {gen }}$ の値に応じて制御する. 文献 [9] と違う点として, 本タスクでは解説位置 $o$ の情報を $\boldsymbol{c}$ に含める必要がある.具体的には,まず Bi-LSTM によって $S$ 中の各トークン $w_{i}$ を隠れべクトル $\boldsymbol{h}_{i}$ に変換する. 次に $o$ 番目の隠れべクトル $\boldsymbol{h}_{o}$ を文脈ベクトル $\boldsymbol{c}$ として使用する. $\boldsymbol{c}$ はデコーダへの初期入力として用いられる. ## 3.3 Retrieval この手法はニューラルネットワークを用いた検索に基づく.具体的には,まず入力 $x$ と最も類似した $x^{\prime}$ をそれに対応する $y^{\prime}$ とともに訓練データから検索する. そして,検索した $y^{\prime} を \hat{y}$ として出力する. $x$ と $x^{\prime}$ の類似度はそれぞれに対応する文脈ベクトル $\boldsymbol{c}, \boldsymbol{c}^{\prime}$ の余弦類似度によって計算される. $\boldsymbol{x}$ をにエンコードするためのネットワークとして Simple Generation と同様なアーキテクチャを用いる. ただし, $\boldsymbol{x}$ の情報を全て $\boldsymbol{c}$ に含めるために,アテンション機構は用いない. ## 3.4 Retrieve \& Edit 本手法は文献 [10] で提案された手法に基づく. 1 節で述べたように Retrieve \& Edit は Retrieval と Simple Generation を組み合わせたような手法である.本手法は Retriever と Editor と呼ばれる二つの独立したネットワークからなる. Retrieval と全く同じネットワークを Retrieverとして使用する. ただし,訓練時には, $x$ 自身を除いて最も類似した事例を検索結果とする。また Simple Generation と概ね同じネットワークを Editorとして使用する. Simple Generation との違いは検索した事例を考慮する必要がある点である. すなわち, Editor は Simple Generation の入力 $x$ に加えて, Retrieverにより検索された $x^{\prime} , y^{\prime}$ を入力として生成を行う. これは,(1) $x, x^{\prime} , y^{\prime}$ をれぞれ別のネットワークで文脈ベクトルに変換し,(2) これらの三つのべクトルを結合し,(3)それをデコー ダへの入力として用いる,という工程によって行 図 1 Retrieve \& Editにおける生成とコピーの確率の可視化. われる。より詳細には, $\boldsymbol{x}$ と $\boldsymbol{x}^{\prime}$ は Simple Generation と同じ方法でエンコードし, $y^{\prime}$ のエンコードには Bi-LSTM の最終状態を用いる. また Editor は一つのアテンション機構を持ち, $\boldsymbol{x}$, $\boldsymbol{x}^{\prime}, \boldsymbol{y}^{\prime}$ の全体に対して同時にアテンションを計算する.これにより, Editor は $x, x^{\prime}, y^{\prime}$ のいずれからもコピーを行うことができる. ## 4 実験 本実験では,前置詞解説文および一般解説文を収録したデータセット [1]を用いる.このデータセットは学習者が書いたエッセイからなる。各エッセイは,トピック“アルバイト”(PTJ)と“喫煙”(SMK) のいずれかである.本実験では,トピック別に各手法の性能評価を行う.データセットの統計值を付録 A に示す。また,訓練時の設定は付録 B に示す。 評価尺度は生成正解率 (解説箇所数に対する適切な生成結果の割合)とした. 適切, 不適切の判断は,英語指導(2 年間)と英語統語アノテーション (10 年以上),両方に経験がある作業者に依頼した。 表 1 に,PTJと SMKをまとめた生成正解率を示す (個別の結果は付録 C に示す). 表 1 の生成性能は,前置詞解説文でも一般解説文でも,当初の予想とことなる。具体的には,Retrieve \& Edit は,その名の通り,手法の中に,Retrievalを含むにもかかわらず, Retrieval の性能を超えられていない。また,前置詞解説文では最も性能がよい Simple Generation が,一般解説文では最も性能が悪い.このような結果が得られた理由を 5.2 で考察する。 ## 5 考察 ## 5.1 なぜ Retrieve \& Edit の性能は低いのか Retrieve \& Edit の出力結果を分析すると,不必要な編集をしてしまう現象(以下,over-editing と呼ぶ)が確認できた。ここで, over-editing とは,解説文の適切さには影響しない単語の編集(生成)のことをさす。訓練時に,検索された解説文と目的の解説文が同一内容であっても,表層が異なると,そのような不必要な編集が学習される。言い換えれば, over-editing は,解説文における表層バリエーションの多さに起因するといえる。次の例を考える: (2)動詞 agree は that 節を目的語にとりうる動詞なので、目的語の前に前置詞 with は不要です。 (3)動詞 agree が同意する内容が節で書かれている場合は前置詞 with は不要です。 この二つの解説文は,同じ文法規則についての解説であるが表層は大きく異なる。解説文は自然言語で記述されるため,このような表層的なバリエーションは避けられない。例 (2) に対して例 (3) が検索された場合には,そのまま出力すれば十分であるにも関わらず,例 (2) のように書き換えるように訓練が行われる。以上の例では二つの解説文のみを考えているが,実際の訓練データでは,表層は異なるが同種の誤りに対する解説文が多数存在しうる [2]. そのような場合, over-editing はより顕著となる。 実際に over-editing を観察するために,Retrieve \& Edit における生成とコピーを制御する確率值 $p_{\text {gen }}$ を用いて生成結果の可視化を行った(図 1),図 1 では $p_{\text {gen }}$ の値が大きいほど,すなわち生成の確率が高い単語ほど濃い赤となっている. 全体的に $p_{\text {gen }}$ の値が大きく,検索してきた事例からコピーを行わず,語彙からの生成を行っている様子が観察できる。例えば,図 1(1) は,検索された解説文の conclusion を reasons 書き換えるだけで適切な解説文となる例である。それにもかかわらず,Retrieve \& Editでは,単語のコピーはほとんど行わず,多くの単語を生成している。その結果,誤生成となっている。また,図 1(2) では,生成された解説文は正しいが,多くの単語を生成してしまっている.理想的には,検索結果の少数の単語だけを置き換えることが好ましいが, over-editing により妨げられている. どのような方法で,over-editing を抑制できるだろうか. Over-editingを抑制し,少数の単語だけを生成するモデルにするためには,少数の単語だけが置き換わる訓練事例を Editor に与えるべきである。その実現方法の一つに,解説文間の表層類似度を用いる方法がある。訓練時に Retrieve \& Edit で用いている隠れ状態の類似度(余弦類似度)に加えて,解説文 (a) 前置詞/Simple Generation (c) 前置詞/Retrieval (b) 一般/Simple Generation (d) 一般/Retrieval図 2 各手法が出力した解説文と同一の解説文の訓練デー タ中の数. 横軸: 同一の解説文の訓練データの数. 縦軸: テストデータにおける頻度. 間の表層類似度を考慮して検索を行えば,表層の差異が少ない事例が Editor の訓練に用いられる.そうすることで,検索結果を生かしつつ,少数の書き換え規則のみが学習されやすくなると期待できる. ## 5.2 Simple Generation の順位の入れ替わり Simple Generation の生成結果を分析すると,前置詞解説文と一般解説文では異なる振る舞いが見られた. 前者では訓練データと表層的に非常に類似した解説文を生成することが多い。一方,後者では,複数の解説内容を融合したような生成結果が頻繁に観測された(以下,この現象を mutant と呼ぶ)。例えば, “* ... this activity is will not disturb their ...”に対して,次のような mutant が生成された: (4)主語に合わせて動詞を適切な形で用いましょう。be 動詞は必要か確認しましょう。 一文目は主語と動詞の一致についての解説, 二文目は be 動詞と一般動詞の併記に関する解説である. $\mathrm{Be}$ 動詞が解説位置である場合,この二種類の解説がなされることが多いことに起因すると分析できる. この現象は, Encoder-Decoderによる生成を次のようなプロセスだと捉えると説明できる:(1) 入力 $\boldsymbol{x}$ により,ベクトル空間のある点が指定される,(2) その点に近い訓練事例があれば,それに対応した $\boldsymbol{y}$ が生成される,(3) ただし,その点に近い(解説内容が異なる)訓練事例が複数あると,混合されて $\hat{y}$ に映される. 解説内容の種類が相対的に少ない前置詞解説文では,(3)の状況が起こりにくい. 相対的に種類数が多い一般解説文では例 (4) のような別種の事例が $\boldsymbol{x}$ 周辺に配置されるため mutant ができやすい, mutant は基本的に全て誤生成となる. 一方, Retrieval では複数事例の何れかを出力す るため,一定の確率で生成に成功する. この点で, Simple generation は, Retrieve より性能が低くなる. では,なぜ前置詞解説文において Simple generation は最も高い性能を示すのだろうか. 一つの理由としては,Simple generation の柔軟性を挙げることができる. Retrieval で生成に失敗した事例のうち,数単語を書き換えたら正しくなるものは,それなりの数存在する(解説位置の $6 \%$ が該当する)。これらの失敗は,完全に一致する事例が訓練データに存在しないことに起因する。一方,Simple generation ではそのような事例にも対応可能である. 別の理由として,Simple Generation は解説文の条件付き生成確率を学習するため,頻度の高い解説文を好むことを挙げることができる.正解率をあげるという観点では,解説の種類が認識できていない場合には,より頻度の高い解説文を出力することが良い戦略である。このことに起因して Simple Generation の性能が高くなったと予想できる. このことを確認するために,生成した解説文と同一の解説文が訓練データ中にどれだけ存在するかを調べた。ただし,同一の解説文かどうかを人手で判定することは容易ではないので,正規化した編集距離が 0.1 未満の場合に同一の解説文だと疑似的にみなした. その結果を図 2 に示す. 図 $2 \mathrm{a}, 2 \mathrm{c}$ を見ると, Retrieval は訓練データ中で頻度 1 の解説文を出力することが多いが,Simple Generation では頻度 2 以上の解説文を出力することが多くなるのがわかる.このことから Simple Generation は頻度の低い解説文を生成しにくく,それが正解率の向上に寄与したと考えられる。一方で,図 $2 \mathrm{~b} , 2 \mathrm{~d}$ を見ると一般解説文では同様の傾向は見られない。逆に,一般誤解説文では,Simple Generation は,訓練データに一度も出現しない解説文を生成することが多いこともわかる. この中に,上で述べた mutant も含まれるであろう。 ## 6 おわりに 本稿では英語学習のための解説文生成タスクにおける生成手法について比較を行った. 直感に反し Retrieve \& Edit の性能が低いことや,タスクによって生成手法の良し悪しに変化があることを示し,その原因について考察を行った. 以上のことから,(1) 特定の項目に対する解説文生成では,Simple generation の拡張が有効である;(2)一般解説文生成では, Retrieve \& Edit で over-editing を低減させることが,性能向上につながると予想される. ## 参考文献 [1] Ryo Nagata, Kentaro Inui, and Shin' ichiro Ishikawa. Creating Corpora for Research in Feedback Comment Generation. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 340-345, 2020. [2] Ryo Nagata. Toward a Task of Feedback Comment Generation for Writing Learning. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 3206-3215, 2019. [3] 一晃塙, 亮永田, 健太郎乾. 高信頼度な文法誤り解説生成のための生成制御手法. 2020 年度人工知能学会全国大会(第 34 回), 2020. [4] Ildiko Pilan, John Lee, Chak Yan Yeung, and Jonathan Webster. A Dataset for Investigating the Impact of Feedback on Student Revision Outcome. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 332-339, 2020. [5] Kathleen F Mccoy and Christopher A Pennington. English error correction: A syntactic user model based on principled mal-rule scoring. In In Proceedings of the Fifth International Conference on User Modeling, pp. 59-66, 1996. [6] Jun'ichi Kakegawa, Hisayuki Kanda, Eitaro Fujioka, Makoto Itami, and Kohji Itoh. Diagnostic Processing of Japanese for Computer-Assisted Second Language Learning. In Proceedings of the 38th Annual Meeting of the Association for Computational Linguistics, pp. 537-546, 2000. [7] Ryo Nagata, Mikko Vilenius, and Edward Whittaker. Correcting Preposition Errors in Learner English Using Error Case Frames and Feedback Messages. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, pp. 754-764, 2014. [8] Yi-Huei Lai and Jason Chang. TellMeWhy: Learning to Explain Corrective Feedback for Second Language Learners. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing: System Demonstrations, pp. 235-240, 2019. [9] Abigail See, Peter J Liu, and Christopher D Manning. Get To The Point: Summarization with Pointer-Generator Networks. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, pp. 10731083, 2017. [10] Tatsunori B Hashimoto, Kelvin Guu, Yonatan Oren, and Percy S Liang. A Retrieve-and-Edit Framework for Predicting Structured Outputs. In $S$ Bengio, $H$ Wallach, H Larochelle, K Grauman, N Cesa-Bianchi, and R Garnett, editors, Advances in Neural Information Processing Systems 31, pp. 10052-10062, 2018. [11] Shinichiro Ishikawa. The ICNALE and sophisticated contrastive interlanguage analysis of Asian learners of English. Learner corpus studies in Asia and the world, Vol. 1, pp. 91-118, 2013. 表 2 使用したデータセットの統計量. 表 3 PTJと SMKにおける生成手法の正解率. ## A データセットの統計 実験に使用したデータセットの統計は表 2 の通りである. ## B 使用したハイパーパラメータ 実験に使用したハイパーパラメータは以下の通りである. 全ての解説文生成手法中の LSTM は一層で中間層の次元は 300 である. 単語の分散表現の次元数は 200 で, ICNALE[11] で事前学習したものを用いる。訓練は学習率 0.001 の Adam を用いて 50 epoch 行う. 別のランダムシードを用いて五回ずつ訓練を行い開発セット上で BLEU が最大になったものを採用する。 ## C 全ての評価結果 PTJとSMK それぞれの評価結果は表 3 の通りである.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D7-4.pdf
# 文法誤り訂正モデルのエラー分析に基づく 疑似データ生成の効果検証 土肥康輔 須藤克仁 中村哲 奈良先端科学技術大学院大学 \{doi.kosuke.de8, sudoh, s-nakamura\}@is.naist.jp ## 1 はじめに 文法誤り訂正 (Grammatical Error Correction; GEC) は,テキスト中の文法的誤りを自動的に訂正するタスクである。近年では,訂正を誤りが含まれる文から誤りが含まれない文への翻訳とみなし,ニューラル機械翻訳に基づくアプローチで取り組むことが主流となっている.ニューラル機械翻訳に基づくアプローチでは,モデルの訓練に大規模なパラレルデー タが必要となるが,機械翻訳で利用可能なデータ量と比べて,GECで利用可能なデータ量は少量である.そこで,GECではモデルの訓練に疑似データを用いることで,モデルの性能を向上させるということが行われている $[1,2,3]$. 本研究では, 現状の GEC モデルのエラー分析に基づき,訂正性能が悪い誤りカテゴリに関する疑似誤りを訓練データに追加することで,モデルの訂正性能が向上するかを検証する,具体的には, Omelianchuk ら [4] と Grundkiewiczy ら [3] のモデル1) のエラー分析から訂正性能が悪いと判明した接続詞誤りに着目し, 訓練に用いる学習者データにおける誤りパターンを考慮した疑似誤りを生成する.GEC では,大規模な単言語コーパスに疑似誤りを生成したデータで事前学習したモデルを,少量の学習者データで fine-tune することが一般的であるが,本研究では fine-tune に用いる学習者データに疑似誤りを生成する。 実験では,疑似誤りを追加する割合を適切に設定すれば,疑似誤りを含む学習者データで fine-tune を行った後,さらに疑似誤りを含まない学習者データで fine-tune することで,接続詞誤りの $\mathrm{F}_{0.5}$ スコアが上昇することを確認した。また, 1 回目の fine-tune のデータには疑似誤りを追加せず,2 回目のデータ  に疑似誤りを追加する場合でも,同様に生成する疑似誤りの割合を適切にコントロールすれば, $\mathrm{F}_{0.5}$ スコアが上昇する可能性があることが示された. ## 2 関連研究 疑似データの生成方法としては,逆翻訳ベースの手法や,誤りが含まれない文に疑似誤りを直接生成する手法が提案されている。 逆翻訳を用いた疑似データ生成は,ニューラル機械翻訳の文脈で Sennrich ら [5] によって提案された. [5] は,原言語と目的言語の入出力を入れ替えたモデルに目的言語の単言語コーパスを入力して疑似対訳コーパスを得る。これを GECに応用すると,誤りが含まれない文から誤りが含まれる文を生成するようなモデルを訓練し,そのモデルに誤りが含まれない文を入力することで,誤りが含まれる文を得ることができる. Xie ら [6] はこの逆翻訳を拡張し,モデルのデコード時にノイズを加えることによって, より多くの誤りを含む文を生成できるようにした.佐藤ら [7] は,学習済みの逆翻訳モデルを特定の母語の学習者によって書かれた文で fine-tune することで,母語の影響を考慮した疑似誤りを生成する手法を提案している。 疑似誤りを直接生成する手法は,Zhao ら [8] によって提案された。この手法では,誤りが含まれない文に「置換・挿入・削除・入れ替え」の操作を行うことで誤りが含まれる文を生成する。 しかし, [8] の手法では,人が犯さないような誤りを生成してしまう可能性があることが指摘されている. そこで,学習者の誤り傾向を考慮して疑似誤りを生成するということが行われている $[2,9]$. また,fine-tune によって特定のドメインに頑健な GEC モデルを作成する研究も存在する. Nădejde ら [10] は,書き手の母語情報と習熟度情報が付与された学習者コーパスを用い,一般的な GEC モデル を 12 の母語,5つの習熟度レベルに適応させる研究を行った. [10]では, 非公開の Cambridge Learner Corpus が用いられたが,佐藤ら [7] は一般公開されている母語情報付きの学習者コーパスでモデルを fine-tune することで,3つの母語に適応させる試みを行っている。 従来研究では全誤りカテゴリの疑似誤りを生成したデータを事前学習で用いていたのに対して, 本研究では,特定の誤りカテゴリに関する疑似誤りを加えたデータでモデルを fine-tune することで,その誤りカテゴリの訂正性能を向上させることを目指す. ## 3 疑似データ生成手法 疑似データの生成には,特定の誤りカテゴリに関する誤りを選択的に生成するために,疑似誤りを直接生成する手法を用いる. 対象の誤りカテゴリは, [3][4] のモデルのエラー分析で訂正性能が低かった接続詞である. 対象となる接続詞は, \{and, but, or, so\}の 4 種類とし,学習者が犯す接続詞の誤りパターンを考慮するために,ERRANT[11]によって分類される「不足 (Missing) ・置換 (Replacement) - 余剩 (Unnecessary)」の 3 種類の誤りタイプごとに疑似誤りの生成方法を設定する. 本研究では,学習者データに疑似誤りを生成するため,疑似誤りの生成元の文にすでに誤りが含まれている場合がある。もともと存在する誤りを改変することによる影響を最小限に抑えるために,接続詞誤りがもともと含まれている文は,疑似誤りの生成対象から除外する. 接続詞が用いられている文は, 確率 $P$ で疑似誤りの生成対象とする。その文に含まれている接続詞の削除または別の接続詞への置換の操作を行うことで,それぞれ不足と置換の疑似誤りを生成する。訓練データの誤り分布分析に基づき2),70\%の確率で不足誤り,30\%の確率で置換誤りを生成し,置換後の接続詞を選択するパラメータ prepl|orig は以下のように設定することとした. $ \begin{aligned} & \left(p_{\text {but } \mid \text { and }}, p_{\text {or } \mid \text { and }}, p_{\text {so } \mid \text { and }}\right)=(0.30,0.60,0.10) \\ & \left(p_{\text {and } \mid \text { but }}, p_{\text {or } \mid \text { but }}, p_{\text {so } \mid \text { but }}\right)=(0.94,0.01,0.05) \\ & \left(p_{\text {and } \mid \text { or }}, p_{\text {but } \mid \text { or }}, p_{\text {so } \mid \text { or }}\right)=(0.99,0.01,0.00) \\ & \left(p_{\text {and } \mid \text { so }}, p_{\text {but } \mid \text { so }}, p_{\text {or } \mid \text { so }}\right)=(0.99,0.01,0.00) \end{aligned} $ なお,1文に複数の接続詞が含まれている場合は, ランダムに選択されたひとつの接続詞が操作の対象となる. 2)詳細は付録 A に掲載する.接続詞が用いられていない文に対しては, $0.38 P$ の確率でランダムな位置に接続詞を挿入することで余剰の疑似誤りを生成する.挿入する接続詞の選択は,不足・置換誤りのときと同様に訓練データの誤り分布を反映して ( $\left.p_{\text {and } \mid \phi}, p_{\text {but } \mid \phi}, p_{\text {or } \mid \phi}, p_{s o \mid \phi}\right)=$ $(0.65,0.25,0.03,0.07)$ とした. ## 4 実験 ## 4.1 データセット 実験に用いるデータは,4.2 節で後述する [4] のモデル構築に用いられたものに合わせた. 事前訓練データには,PIEコーパスに疑似エラーを生成した 900 万文 [12]を用いた. 訓練には,BEA2019 Shared Task on Grammatical Error Correction で配布された Lang-8[13], NUCLE[14], Write \& Improve + LOCNESS (W\&I+L) train[15] と, CLC-FCE Dataset[16] を用いた. Lang-8 と NUCLE は, [4]でのサイズに合わせるためにサンプリングして使用した. データの 98\%を訓練データ,2\%を開発データとした。 評価データには,W\&I+L dev,CoNLL-2013[17], CoNLL-2014[18],FCE test[19]を用いた. ## 4.2 モデル GEC モデルには, Omelianchuk ら [4] のモデル3)を用いた. [4] は,入力トークンをターゲットの訂正に変換するトークンレベルの変換を新たにデザィンし,GECを系列ラベリング問題として扱っている. モデルには,BERT 系の事前学習済みモデルのエンコーダーが用いられているが,本実験では,[4] で best single model であった XLNet を用いた. ハイパーパラメータは, [4] の設定に準じた. 訓練は,疑似データによる事前学習(Stage1)と,学習者データによる 2 回の fine-tune から成る. 1 回目の fine-tune (Stage2) では学習者データのうち誤りを含む文のみが用いられ,2 回目の fine-tune (Stage3) では誤りを含む文と含まない文の両方が用いられる. 各データセットのサイズと,それらが訓練のどの段階で用いられたかを表 1 に示す. ## 4.3 実験設定 3 節で述べた疑似データ生成手法を用い,Stage2 および Stage3 で用いるデータに疑似誤りを生成した. 実験は,Stage2 のみで疑似データを用いる設 3) https:/github.com/grammarly/gector 表 1 訓練に使用したデータセット 表 2 モデルの構築に用いたデータの疑似誤り生成確率 & \\ Stage2_10 & $10 \%$ & - \\ Stage2_30 & $30 \%$ & - \\ Stage2_50 & $50 \%$ & - \\ Stage3_05 & - & $5 \%$ \\ Stage3_10 & - & $10 \%$ \\ Stage3_30 & - & $30 \%$ \\ Stage3_50 & - & $50 \%$ \\ 定と, Stage3 のみで疑似データを用いる設定の 2 種類を行った. Stage2 での疑似誤り生成確率は, $P=(0.5,0.3,0.1)$, Stage3 では $P=(0.5,0.3,0.1,0.05)$ とした. ベースラインには,疑似誤りを含まないデータで 2 回の fine-tune を行ったモデルを用意した.構築したモデルの一覧とその構築のために用いたデータの関係を表 2 に示す. モデルの性能は, ERRANT により算出される $\mathrm{F}_{0.5}$ スコアにより評価した. W\&I+L dev, CoNLL-2013, CoNLL-2014, FCE testのそれぞれに対し,訂正全体と接続詞訂正の $\mathrm{F}_{0.5}$ スコアを算出した. ## 4.4 実験結果 実験結果を表 3 に示す. Stage3 後の接続詞訂正の $\mathrm{F}_{0.5}$ スコアを比較すると,疑似データを導入することで,接続詞訂正の性能が向上する場合と悪化する場合の両方があることがわかる。 また, CoNLL-2013 における接続詞訂正で最も高いスコア(28.41)を達成した Stage2_50 が,W\&I+L dev ではベースラインよりスコアが悪化(26.79 19.23)しているように,接続詞訂正の性能がすべての評価セットでべースラインより向上しているモデルは見られなかった. これらの結果から, 訂正対象のデータに応じて疑似誤り生成確率を適切に設定すれば,fine-tune に用いるデータに疑似誤りを導入する手法がモデルの訂正性能向上に効果的であることが示唆される. Stage3 で疑似誤りを導入する場合は,比較的小さい疑似誤り生成確率 ( W\&I+L と CoNLL-2013 : $P=0.05$, CoNLL-2014 と FCE test $: P=0.1 \mathrm{~ を設定したとき ~}$ に接続詞訂正の $\mathrm{F}_{0.5}$ スコアがベースラインから上昇 しているのに対し,Stage2 で疑似誤りを導入する場合は, $P=0.3$ または $P=0.5$ のように大きめの生成確率を設定したときにスコアの上昇幅が大きくなっている. ## 4.4.1 疑似データ導入タイミング 各評価セットにおいて,接続詞訂正の $\mathrm{F}_{0.5}$ スコアが Stage3 後に最も高くなっているのは, W\&I+L devを除いて, Stage2 で疑似誤りを導入したモデルであった. CoNLL-2013 と CoNLL-2014においては, Stage2_50 のスコア $(28.41,54.69)$ が最も高く, FCE test では Stage2_30 のスコア(21.28)が最も高い. Stage2_30は,W\&I+L dev の接続詞訂正においても,Stage3_05に次ぐ2 番目に高いスコアを達成している. Stage3 で疑似誤りを導入したモデルにも, ベースラインと比較して訂正性能が向上したものが存在するが,スコアの上昇幅は Stage2 で疑似誤りを導入したモデルよりも小さくなっている. 各評価セットにおけるスコアの上昇幅の最大値を,疑似誤りの導入タイミングで比較した結果を表 4 に示す. これらの結果から,疑似誤りを含む学習者データで fine-tune を行った後, さらに疑似誤りを含まない学習者データで fine-tune するほうが,対象の誤りカテゴリに対する訂正性能が大きく改善する可能性があることが示唆される ${ }^{4)}$. ## 4.4.2 疑似データ導入の効果と影響 表 3 より, Stage2 で疑似データを導入すると, Stage 2 終了時点の接続詞訂正の $\mathrm{F}_{0.5}$ スコアはベースラインより低下することがわかる. このスコア変化は, Precisionが低下する一方で, Recallが上昇することによって引き起こされている。疑似誤り導入後の接続詞訂正の Precision と Recall の值を表 5 に示す.疑似データを含まない学習者データで fine-tune したときは(S2_base), Precision が Recall より高くなっているのに対して,疑似データを導入すると Recall のほうが Precision より高くなっている. Stage3 に疑似誤りを導入した場合でも,疑似誤りの生成確率が高くなるにつれて Precision が低下する一方で Recall が上昇する傾向がみられる. fine-tune に用いるデー タへの疑似誤り導入は Recall 向上に効果があり, 2 回の fine-tune のうち 1 回目の段階で Recall を高めておくことが,最終的な接続詞訂正性能の向上に寄与 4)訂正全体の~$F_{0.5}$ スコアへの影響を考慮していないことに注意が必要である. 疑似データ導入による影響は 4.4.2節で述べ з. 表 $3 \quad \mathrm{~F}_{0.5}$ スコアによる訂正性能の比較. Overall は訂正全体,CONJ は接続詞訂正を表す. & 46.84 & 28.06 & 43.19 & 19.74 & 55.87 & 28.57 & 52.20 & 21.93 \\ & & & & & & & & \\ Stage2_10 & 45.90 & 13.36 & 42.32 & 10.42 & 55.57 & 21.21 & 52.11 & 14.15 \\ Stage2_30 & 45.50 & 9.08 & 42.45 & 11.36 & 53.74 & 17.72 & 51.61 & 13.83 \\ Stage2_50 & 43.35 & 7.86 & 40.91 & 9.09 & 53.68 & 14.51 & 51.20 & 9.84 \\ Baseline & 50.73 & 26.79 & 43.17 & 20.83 & 56.59 & 35.71 & $\mathbf{5 3 . 3 5}$ & 0.00 \\ & & & & & & & & \\ Stage2_10 & 51.02 & 25.57 & 43.18 & 20.83 & $\mathbf{5 7 . 0 2}$ & 38.46 & 53.15 & 11.63 \\ Stage2_30 & $\mathbf{5 1 . 6 5}$ & 29.26 & 43.59 & 19.23 & 56.16 & 40.00 & 52.96 & $\mathbf{2 1 . 2 8}$ \\ Stage2_50 & 50.76 & 19.23 & $\mathbf{4 3 . 7 0}$ & $\mathbf{2 8 . 4 1}$ & 56.03 & $\mathbf{5 4 . 6 9}$ & $\mathbf{5 3 . 3 5}$ & 17.44 \\ & & & & & & & & \\ Stage3_05 & 50.86 & $\mathbf{3 0 . 4 9}$ & 43.27 & 27.17 & 56.55 & 31.25 & 52.92 & 15.31 \\ Stage3_10 & 50.89 & 25.74 & 43.09 & 20.16 & 56.47 & 44.64 & 52.81 & 16.23 \\ Stage3_30 & 50.19 & 17.01 & 43.19 & 12.93 & 55.94 & 23.39 & 52.83 & 14.00 \\ Stage3_50 & 49.47 & 9.62 & 42.24 & 7.89 & 55.53 & 16.98 & 51.82 & 10.56 \\ 表 4 疑似誤り導入タイミングによる 表 5 接続詞訂正の Precision と Recall の值. Stage2_XX は Stage2 終了後, Stage3_XX は Stage3 終了後の値である. W\&I+L dev CoNLL-2013 CoNLL-2014 FCE test している可能性が考えられる. また,CoNLL-2014における Stage2_50 や FCE test における Stage2_30のように,接続詞訂正の性能がベースラインより向上しているにも関わらず,訂正全体の性能が悪化している場合も存在する.これは,ある誤りカテゴリの疑似誤りを生成することが,別の誤りカテゴリに関するモデルの学習に影響を与えていることを示唆している。本実験では,接続詞の余剰誤りを生成する手法が問題となった可能性がある. 余剰誤りを生成する対象の文は,接続詞誤りが含まれていないことは保証されているが,それ以外の誤りの有無は確認していなかった. その文 のランダムな位置に接続詞が挿入されることで,もともと存在していた誤りが変質してしまったことが考えられる。 ## 5 おわりに 本研究では,現状の GEC モデルで訂正性能が低い接続詞誤りに着目し, fine-tune に用いる学習者データに疑似誤りを追加することで,モデルの接続詞誤りの訂正性能が向上するかを検証した.実験の結果,生成する疑似誤りの割合を適切に設定すれば,fine-tune に用いる学習者データに疑似誤りを追加することで接続詞誤りの $\mathrm{F}_{0.5}$ スコアが向上することがわかった. 本研究では接続詞誤りについてのみ実験を行ったので,別の誤りカテゴリにおいても本手法が効果的であるかを今後検証する必要がある.また,学習者データにもともと存在する誤りに影響を与えないような疑似データ生成手法の検討も必要である。例えば,誤りが存在する区間には疑似誤りを生成しないように制御する方法や,gold reference の訂正を適用後の文法的に正しい文に対して疑似誤りを生成する方法などが考えられる。疑似誤りを fine-tune データに導入することでモデルの訂正性能が向上できることが確認されれば,特定のドメインや学習者集団の特徴への適応が容易になることが期待される。 ## 謝辞 本研究の一部は JSPS 科研費 JP17H06101 の助成を受けたものである. ## 参考文献 [1] Shun Kiyono, Jun Suzuki, Masato Mita, Tomoya Mizumoto, and Kentaro Inui. An empirical study of incorporating pseudo data into grammatical error correction. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 1236-1242, 2019. [2] Yo Joong Choe, Jiyeon Ham, Kyubyong Park, and Yeoil Yoon. A neural grammatical error correction system built on better pre-training and sequential transfer learning. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 213-227, 2019. [3] Roman Grundkiewiczy, Marcin Junczys-Dowmuntz, and Kenneth Heafield. Neural grammatical error correction systems with unsupervised pre-training on synthetic data. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 252-263, 2019. [4] Kostiantyn Omelianchuk, Vitaliy Atrasevych, Artem Chernodub, and Oleksandr Skurzhanskyi. GECToR grammatical error correction: Tag, not rewrite. In Proceedings of the Fifteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 163-170, 2020. [5] Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 86-96, 2016. [6] Ziang Xie, Guillaume Genthial, Stanley Xie, Andrew Y. $\mathrm{Ng}$, and Dan Jurafsky. Noising and denoising natural language: Diverse backtranslation for grammar correction. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 619-628, 2018. [7] 佐藤義貴, 和田崇史, 渡辺太郎, 松本裕治. 英語学習者の母語を考慮した文法誤り訂正のための擬似データ生成. 研究報告自然言語処理 (NL), Vol. 2020-NL-246, No. 5, pp. 1-5, 2020. [8] Wei Zhao, Liang Wang, Kewei Shen, Ruoyu Jia, and Jingming Liu. Improving grammatical error correction via pre-training a copy-augmented architecture with unlabeled data. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 156-165, 2019. [9] Yujin Takahashi, Satoru Katsumata, and Mamoru Komachi. Grammatical error correction using pseudo learner corpus considering learner's error tendency. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 27-32, 2020. [10] Maria Nădejde and Joel Tetreault. Personalizing grammatical error correction: Adaptation to proficiency level and L1. In Proceedings of the 5th Workshop on Noisy User-generated Text (W-NUT 2019), pp. 27-33, 2019. [11] Christopher Bryant, Mariano Felice, and Ted Briscoe. Automatic annotation and evaluation of error types for grammatical error correction. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 793-805, 2017. [12] Abhijeet Awasthi, Sunita Sarawagi, Rasna Goyal, Sabyasachi Ghosh, and Vihari Piratla. Parallel iterative edit models for local sequence transduction. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pp. 4260-4270, 2019. [13] Tomoya Mizumoto, Mamoru Komachi, Masaaki Nagata, and Yuji Matsumoto. Mining revision log of language learning SNS for automated Japanese error correction of second language learners. In Proceedings of 5th International Joint Conference on Natural Language Processing, pp. 147-155, 2011. [14] Daniel Dahlmeier, Hwee Tou Ng, and Siew Mei Wu. Building a large annotated corpus of learner English: The NUS corpus of learner English. In Proceedings of the Eighth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 22-31, 2013. [15] Christopher Bryant, Mariano Felice, Øistein E. Andersen, and Ted Briscoe. The BEA-2019 shared task on grammatical error correction. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 52-75, 2019. [16] Diane Nicholls. The Cambridge learner corpus - error coding and analysis for lexicography and ELT. In Proceedings of the Corpus Linguistics 2003 conference, Vol. 16, pp. 572-581, 2003. [17] Hwee Tou Ng, Siew Mei Wu, Yuanbin Wu, Christian Hadiwinoto, and Joel Tetreault. The CoNLL-2013 shared task on grammatical error correction. In Proceedings of the Seventeenth Conference on Computational Natural Language Learning: Shared Task, pp. 1-12, 2013. [18] Hwee Tou Ng, Siew Mei Wu, Ted Briscoe, Christian Hadiwinoto, Raymond Hendy Susanto, and Christopher Bryant. The CoNLL-2014 shared task on grammatical error correction. In Proceedings of the Eighteenth Conference on Computational Natural Language Learning: Shared Task, pp. 1-14, 2014. [19] Helen Yannakoudakis, Ted Briscoe, and Ben Medlock. A new dataset and method for automatically grading ESOL texts. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 180-189, 2011. ## A 訓練データの接続詞誤り分布 訓練データ中で接続詞が用いられている文の数(470,068)に表 6 の余剰誤りの割合をかけた值と,訓練データ中で接続詞が用いられていない文の数(723,983)に不足・置換誤りの割合の和をかけた值の比から,接続詞が用いられていない文に対する疑似誤り生成確率 0.38 を得た. また,不足誤りと置換誤りの比 $7: 3$ も表 6 から得た. 余剩誤り生成のために挿入する接続詞の割合と,置換誤り生成のための置換後の接続詞の割合は,それぞれ表 7,表 8 から得た. } \\ ## B 事例分析 疑似データを用いたことによるモデル出力の変化を表 9 に示す. 不足誤りと置換誤りについては, and と or が関わる誤りにおいて疑似誤りを用いたモデルで改善が見られた。しかし,余剩誤りについては,あまり改善が見られなかった.改善が見られた誤りは,疑似データ生成の確率パラメータが大きく設定されているものである.多数の疑似誤りが生成された誤りの訂正性能が高まる傾向は,[2] で報告されている結果と一致する.また,ベースラインでは正しく訂正できていたが疑似データを用いたモデルでは訂正に失敗した例,不必要な訂正をしてしまった例を表 10 に示す.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/