filename
stringlengths
1
10
text
stringlengths
33
111k
category
stringclasses
9 values
license
stringclasses
1 value
credit
stringclasses
5 values
D8-1.pdf
# 画像と単語の不一致を考慮した疑似教師ありキャプション生成 本多右京 1,3 牛久祥孝 2 橋本 敦史 ${ }^{2}$ 渡辺太郎 ${ }^{1}$ 松本裕治 ${ }^{3}$ 1 奈良先端科学技術大学院大学大学 2 オムロンサイニックエックス株式会社 3 理化学研究所 \{honda.ukyo.hn6, taro\}@is.naist.jp \{yoshitaka.ushiku, atsushi. hashimoto\}@sinicx.com yuji.matsumoto@riken.jp ## 1 はじめに 画像キャプション生成は,画像から自然言語で説明文を生成するタスクである。人手でアノテーションされた膨大な画像とキャプションのペア [1,2]を学習データとして, 目覚ましい進歩が報告されてきた $[3,4,5]$. しかし,大規模な学習データでもカバー する事物は限定的であり1),記述できる事物を増やすためには更にアノテーションコストがかかる. 疑似教師ありキャプション生成 ${ }^{2}$ は,画像とキャプションのペアがない事物に対して,アノテーションなしでキャプション生成を行う試みである $[8,9]$.学習に画像とキャプションのペアを用いないことでこの状況を作り,物体検出モデルの出力した物体名と,アノテーションが不要で大量に利用可能な,ぺアでない画像と文だけを入力として学習を行う. 先行研究 $[8,9]$ は,画像から検出された物体名を含んだ文を擬似キャプションとし,画像の特徵量とこの一文全体の特徵量とを近づける学習を行う。しかし,疑似キャプションには画像に対応しない記述が多く含まれるという問題がある. 例えば,cat と girl が検出された画像に対する疑似キャプションには "a girl is holding a cat” や "a cat is sleeping with a girl", "a girl is running with a cat”などが考えられるが,最初の文が正しく画像を説明した記述だった場合,それ以外の文の “sleeping with” や “running with” 1)代表的なデータセットである MS COCO[2] では,物体検出データに定義されている 500 の物体カテゴリのうち約 400 がキャプションに一度も出現しない [6]. また,学習に用いられる語彙数が全体で 8791 と少なく [7], 物体以外についても力バーしている事物が限定的である. 2)先行研究 $[8,9]$ では, 画像とキャプションのペアが要求されないという意味で,教師なしキャプション生成と呼ばれているタスクである。しかし,この名称では物体検出モデルを要求する点に誤解が生じるおそれがあるため,本稿ではこのタスクを疑似教師ありキャプション生成と呼称する. といった記述は画像に対して誤った教師信号を与えてしまうことになる(図 1 左)。 この部分的な記述の不一致に対処するため,本研究では,簡単なゲート機構と記述の一致・不一致に対する疑似教師信号を用いて,画像と齯䶣のある単語については画像特徴量から生成しないよう抑制する手法を提案する。実験の結果,提案手法が先行研究の性能を上回り,部分的な不一致を考慮することの重要性が示された. また,提案手法は,モデルの初期化手法として先行研究の手法と組み合わせることで,さらに性能を向上させることが確認された。 ## 2 関連研究 学習データにない事物を記述する試みとしては,学習データに現れない物体を物体検出の出力を利用して記述する novel object captioning $[10,6,11]$ や,物体,属性,関係に関して学習データにない組み合わせの事例でテストを行う試み $[12,13]$ などがある. これらのタスクは,ペアになった画像とキャプションがテストデータの大部分の要素をカバーする状況でペアを学習に用いる.疑似教師ありキャプション生成はこの状況が成り立たないテストを想定し,ペアになっていない画像と文だけを用いて学習を行う [8]. ただし, novel object captioning と同様,事前学習した物体検出器で予測された物体名は利用する。この準備段階的なタスクである unpaired image captioning $[8,9,14,15]$ では,扱う画像と文は元々ペアになっていたものだけを使うのに対して,疑似教師ありキャプション生成では画像と文はそれぞれ別のリソースから取得したものを想定する。 先行研究 $[8,9]$ の問題点は,いずれも擬似キャプションの一文全体の特徴量を画像特徴量と対応付けるよう学習するため,1 節で指摘したように,疑似キャプション中の部分的な不一致も学習に使ってし cat girl $\$$ a girl is holding a cat $\mathbf{x}$ a cat is sleeping with a gir $\mathbf{x}$ a girl is running with a cat 図 1 提案手法概要. モデルへの入力は,画像,検出された物体名,疑似キャプション(図左)モデルは疑似キャプション中の各単語を,画像との対応度を考慮しながら生成するよう学習する(図右). 基本モデルの出力 $h$ ,ゲートの值 $g$ ,ゲートへの疑似教師信号 $f$ の詳細はそれぞれ,3.1,3.2,3.3 節を参照. 破線は学習時のみ適用される処理を表す. まうことである. [8] はまず,物体名を含む任意の文に対して,その含まれる物体名のエンコードから元の文を復元する疑似キャプション生成器を学習する.この疑似キャプション生成器を画像から検出された物体名に対して適用し,その出力をその画像に対する疑似キャプションとする。 [9]では,画像から検出された物体名を含む文をそのまま疑似キャプションとして用いる. 疑似キャプションを得た後は,画像と擬似キャプションの特徵量に対して,双方向の特徵量再構成 $[8]$ や距離学習 [9] を適用して,画像と擬似キャプションとの対応付けを学習する。 ## 3 手法 本研究では,画像と齯齬のある単語を画像に対する教師信号として用いないよう抑制する手法を提案する。手法の概要を図 1 に示す. ## 3.1 基本モデル 教師ありキャプション生成では画像 $\boldsymbol{I}$ に対して正解のキャプション $\boldsymbol{y}$ が与えられるが,疑似教師ありキャプション生成では, 画像から検出された物体名を含む任意の文 $\hat{y} て ゙ ~ y$ を代替する。提案手法の基本 $\hat{\mathbf{y}}=\left[\hat{y}_{1}, \ldots, \hat{y}_{T}\right] \quad\left(\hat{y}_{T}\right.$ は<eos>トークン)の各ペアに対して, 条件付き確率 $p(\hat{\boldsymbol{y}} \mid \boldsymbol{I})=\prod_{t=1}^{T} p\left(\hat{y}_{t} \mid \hat{y}_{<t}, \boldsymbol{I}\right)$ を以下のようにモデル化する: $ \begin{aligned} p\left(\hat{y}_{t} \mid \hat{y}_{<t}, \boldsymbol{I}\right) & =\frac{\exp \left(\boldsymbol{h}_{t}^{\top} \boldsymbol{W}_{o} \Pi\left(\hat{y}_{t-1}\right)\right)}{\sum_{\hat{y}} \exp \left(\boldsymbol{h}_{t}^{\top} \boldsymbol{W}_{o} \Pi(\hat{y})\right)}, \\ \boldsymbol{h}_{t} & = \begin{cases}\operatorname{Dec}\left(\frac{\boldsymbol{v}}{\|\boldsymbol{v}\|_{2}}, \boldsymbol{h}_{0}\right) & \text { if } t=1 \\ \operatorname{Dec}\left(\boldsymbol{e}_{t}, \boldsymbol{h}_{t-1}\right) & \text { otherwise. }\end{cases} \end{aligned} $ 入力は, $\boldsymbol{v}=\boldsymbol{W}_{a} \operatorname{Enc}(\boldsymbol{I}), \boldsymbol{e}_{t}=\boldsymbol{W}_{e} \Pi\left(\hat{y}_{t-1}\right)$, ゼロベクトル $h_{0} \in \mathbb{R}^{d}$. ここで, $\Pi(x)$ は単語 $x$ に対応する onehot ベクトルを出力する関数,Dec($\cdot$) はRNN, Enc($\cdot$) は画像分類を事前学習した CNN, $\boldsymbol{W}_{a} \in \mathbb{R}^{d \times d^{\prime}}$ は画像特徴量に対する線形変換行列, $\boldsymbol{W}_{e}, \boldsymbol{W}_{o} \in \mathbb{R}^{d \times N}$ は語彙数 $N$ の単語埋め込み行列である. ## 3.2 ゲート機構の導入 疑似キャプションは,1 節で述べたように,画像に対応しない記述を含む. この画像と擬似キャプションとの部分的な不一致を考慮するため,疑似キャプション中の各単語の生成に画像の特徵量をどの程度使うかを制御するゲート機構を導入する。 ゲート機構は式 (1)を以下のように変更する: $ \begin{aligned} p\left(\hat{y}_{t} \mid \hat{y}_{<t}, \boldsymbol{I}\right) & =\frac{\exp \left(\boldsymbol{r}_{t}^{\top} \boldsymbol{W}_{o} \Pi\left(\hat{y}_{t-1}\right)\right)}{\sum_{\hat{y}} \exp \left(\boldsymbol{r}_{t}^{\top} \boldsymbol{W}_{o} \Pi(\hat{y})\right)}, \\ \boldsymbol{r}_{t} & =g_{t} \frac{\boldsymbol{W}_{v} \boldsymbol{v}}{\left.\|\boldsymbol{W}_{v} \boldsymbol{v}\right.\|_{2}}+\left(1-g_{t}\right) \boldsymbol{h}_{t}, \\ g_{t} & =\operatorname{sigmoid}\left(\tanh \left(\boldsymbol{W}_{k} \boldsymbol{v}\right)^{\top} \boldsymbol{h}_{t}\right) . \end{aligned} $ ここで, $g \in[0,1]$ はゲートの值, $\boldsymbol{W}_{k}, \boldsymbol{W}_{v} \in \mathbb{R}^{d \times d}$ は画像特徴量に対する線形変換行列である。ゲートを通すことで,各タイムステップでの出力で画像特徴量を $g$ の重み付きで用いることができる。これにより,疑似キャプション中で画像に対応する部分については $g$ を大きく,そうでない部分については $g$ を小さくして,画像と疑似キャプションとの部分的な一致・不一致を考慮することを可能にする。 画像と擬似キャプションの各ペアに対して,ゲー 卜機構付きモデルは以下の交差エントロピー誤差 $L_{g}$ を最小化するよう学習する: $ L_{g}=-\frac{1}{T} \sum_{t=1}^{T} \log p\left(\hat{y}_{t} \mid \hat{y}_{<t}, \boldsymbol{I}\right) $ ## 3.3 ゲートへの疑似教師信号 3.2 節で導入したゲート機構は,疑似キャプション中でどの単語が画像に対応しているのかについて教師信号を与えられていない,タスクの設定上正し 表 1 先行研究との比較. 二重線の上下は,それぞれ先行研究 Prev. [8, 9] の実験設定に対応する. 提案手法のスコアは 5 回の試行の平均と標準偏差. Prev. [9] の BLEU-1 から 3 と SPICE のスコアについては, 論文での報告がないため空欄. い教師信号を与えることはできないが,以下のよう に擬似的に教師信号を与えることはできる. 疑似キャプションは,画像から検出された物体名だけを頼りに取得される。そのため,物体名以外の単語については画像と対応している可能性が低い.提案手法では,この対応関係を反映した擬似教師信号 $f$ を用いる. $f$ は, $\hat{y}_{t}$ が画像から検出された物体名である場合は $f_{t}=1$, それ以外の場合は $f_{t}=0$ となる.この $f$ を $g$ に対する教師信号として,以下の交差エントロピー誤差 $L_{f}$ を最小化する: $ L_{f}=-\frac{1}{T} \sum_{t=1}^{T}\left.\{\alpha f_{t} \log g_{t}+\left(1-f_{t}\right) \log \left(1-g_{t}\right)\right.\} $ ここで, $\alpha$ は $f_{t}=1$ での誤差を重み付けるハイパー パラメータである. 疑似キャプション中で検出物体名に対応する単語はそれ以外の単語に比べて数が少ないため, $\alpha$ にはこの比率を考慮した値を設定する。 ゲートに上記の疑似教師信号を与えると,式 (4) から,基本的に,物体名については画像特徴量を使って生成し, それ以外の単語については前タイムステップまでの文脈特徴量を使って生成することになる。これにより, 物体名以外については画像特徵量に対応した生成を学習できなくなる反面,画像に一致しない可能性の高い記述を画像から生成するよう強制してしまうことが避けられる。 提案手法の最終的な損失関数 $L$ は以下とする: $ L=L_{g}+L_{f} $ ## 3.4 物体名デコードへの制約 式 (4) では, $g_{t}=1$ のとき, $t$ によらず同じ特徴量 $\boldsymbol{W}_{v} \boldsymbol{v} /\left.\|\boldsymbol{W}_{v} \boldsymbol{v}\right.\|_{2}$ から $\hat{y}_{t}$ が予測される. このため, このまま用いるとデコード時に同じ物体名を繰り返し出力する問題が起きる. そこでデコード時には, 物体検出器に定義されている物体カテゴリのうち,一度生成した物体名についてはそれ以降のタイムステップでの生成確率を 0 にする制約を加える. 表 2 出力キャプションとその参照キャプションから抽出した, 物体名 / その他の単語の BoW の平均一致度. ## 4 実験 ## 4.1 実験設定概要 先行研究に従って,学習に使う画像データには MS COCO [2] の学習データ [7], テキストデータには Web から取得された画像説明文 $[8,16]$ を使用した. ただし,これらのテキストデータには MS COCO のキャプションは含まれていない. 評価は, MS COCO の評価用データに対して BLEU [17], ROUGE [18], METEOR [19], CIDEr [20], SPICE [21] の自動評価指標を適用して行った。表の数值はすべて, MS COCO のテストデータで算出した. 実験設定の詳細部分では,先行研究 $[8,9]$ はそれぞれやや異なる設定をとっている。詳細については付録 $\mathrm{A}$ を参照されたい. ## 4.2 先行研究との比較 表 1 に先行研究のスコアとの比較を示す. 先行研究のいずれの設定においても,すべての評価指標で提案手法が先行研究を上回るスコアを示しており,提案手法の有効性が確認された ## 4.3 物体名以外の生成における比較 疑似キャプション中で画像との不一致がある可能性が高いのは物体名以外の単語である(3.3 節),提案手法はこの不一致を学習に使わせないことに重点 表 3 提案手法と先行研究手法 Prev. [8] の併用の結果. Ours が含まれる手法のスコアは 5 回の試行の平均と標準偏差. を置くので,特に物体名以外の単語の生成において先行研究に対する改善があることが期待される.この改善を確かめるため, 出力キャプションとその参照キャプションから, 物体検出器に定義されている物体カテゴリの単語とそれ以外の単語のそれぞれを抽出した Bag of Words (BoW) を作成し, 出力-参照ぺアで BoW の平均一致度を算出した. 比較は, 実装が公開されている先行研究 [8] に対して行った. 表 2 から,提案手法が物体名以外の単語の生成で先行研究 [8] を上回っていることがわかる. 特に Precision での差が大きいことから, 学習において特に画像との不一致が多い部分については,これを画像に対して教師信号として与えると, 誤って画像に対応付けられた余計な記述が生成されてしまうのだと考えられる。これに対して提案手法は,物体名以外は基本的に前文脈に対して頻度の高い単語を生成する学習を行う.これによる頻出系列の方が,画像に一致した出力になりやすいことがわかった. ## 4.4 モデルの初期化手法としての活用 提案手法が画像に対してそれと䶞䶣のある単語を対応付けない学習に重点を置いているのに対して,先行研究は多少の䶡䶣はあっても画像に一文全体を対応付ける学習に重点を置いている. 両者が重視している互いに異なる要素を補うため,これらを組み合わせた手法の実験を行った. 先行研究 [8] の実験設定で,学習データの画像に対して学習済みの提案モデルでキャプションを出力し,画像とキャプションのペアを作成する. このぺアを使って画像から上記のキャプションを生成する学習を行い, 先行研究のキャプション生成モデルのパラメータを初期化, その後, 通常通り先行研究 [8] の手法を学習させた. 表 3 から,提案手法と先行研究を組み合わせた手法(Ours + Prev. [8])は,元の手法からさらにスコアを向上させることがわかった. この結果から,提案手法はそれ単体としてだけでなく,モデルの初期化手法として汎用的に活用されうると考えられる. (a) (b) (c) (a) 図 2 出力例. Objects は画像から検出された物体. ## 4.5 出力例 図 2 にモデル別のキャプション出力例を示す. 物体名以外の単語について, 提案手法が前置詞や冠詞など物体との共起頻度の高い単語を出力する傾向があるのに対して, 先行研究 [8] は, “portrait of", “in the savuti, kenya", "in the morning"など物体との共起頻度が比較的低い記述を生成する傾向が見られる。 このような共起頻度の低い記述は,いずれの例においても画像と一致していない. 反対に,物体名については,(b) と (c)のように提案手法が余計な出力をする傾向がある。(c)では, 先行研究の手法を組み合わせることでこの物体名の誤りが改善されている。 ## 5 おわりに 本研究では,疑似教師ありキャプション生成において擬似キャプションが画像に対して部分的に一致しない問題に着目し,この齯䶣のある部分を画像に対して教師信号として与えないよう抑制する手法を提案した. 実験の結果, 提案手法が先行研究の性能を上回り,疑似教師ありキャプション生成において上記の問題を考慮することの重要性が示された. また, 提案手法は,モデルの初期化手法として先行研究の手法と組み合わせることで,さらに性能を向上させることが確認された. ## 参考文献 [1] Peter Young, Alice Lai, Micah Hodosh, and Julia Hockenmaier. From image descriptions to visual denotations: New similarity metrics for semantic inference over event descriptions. TACL, 2014. [2] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, and C Lawrence Zitnick. Microsoft coco: Common objects in context. In ECCV, 2014. [3] Oriol Vinyals, Alexander Toshev, Samy Bengio, and Dumitru Erhan. Show and tell: A neural image caption generator. In CVPR, 2015. [4] Kelvin Xu, Jimmy Ba, Ryan Kiros, Kyunghyun Cho, Aaron Courville, Ruslan Salakhudinov, Rich Zemel, and Yoshua Bengio. Show, attend and tell: Neural image caption generation with visual attention. In ICML, 2015. [5] Peter Anderson, Xiaodong He, Chris Buehler, Damien Teney, Mark Johnson, Stephen Gould, and Lei Zhang. Bottom-up and top-down attention for image captioning and visual question answering. In CVPR, 2018. [6] Harsh Agrawal, Karan Desai, Yufei Wang, Xinlei Chen, Rishabh Jain, Mark Johnson, Dhruv Batra, Devi Parikh, Stefan Lee, and Peter Anderson. nocaps: novel object captioning at scale. In ICCV, 2019. [7] Andrej Karpathy and Li Fei-Fei. Deep visual-semantic alignments for generating image descriptions. In CVPR, 2015. [8] Yang Feng, Lin Ma, Wei Liu, and Jiebo Luo. Unsupervised image captioning. In CVPR, 2019. [9] Iro Laina, Christian Rupprecht, and Nassir Navab. Towards unsupervised image captioning with shared multimodal embeddings. In ICCV, 2019. [10] Subhashini Venugopalan, Lisa Anne Hendricks, Marcus Rohrbach, Raymond Mooney, Trevor Darrell, and Kate Saenko. Captioning images with diverse objects. In CVPR, 2017. [11] Peter Anderson, Stephen Gould, and Mark Johnson. Partially-supervised image captioning. In NeurIPS, 2018. [12] Jiasen Lu, Jianwei Yang, Dhruv Batra, and Devi Parikh. Neural baby talk. In CVPR, 2018. [13] Mitja Nikolaus, Mostafa Abdou, Matthew Lamm, Rahul Aralikatte, and Desmond Elliott. Compositional generalization in image captioning. In CoNLL, 2019. [14] Jiuxiang Gu, Shafiq Joty, Jianfei Cai, Handong Zhao, $\mathrm{Xu}$ Yang, and Gang Wang. Unpaired image captioning via scene graph alignments. In ICCV, 2019. [15] Fenglin Liu, Meng Gao, Tianhao Zhang, and Yuexian Zou. Exploring semantic relationships for image captioning without parallel data. In ICDM, 2019. [16] Piyush Sharma, Nan Ding, Sebastian Goodman, and Radu Soricut. Conceptual captions: A cleaned, hypernymed, image alt-text dataset for automatic image captioning. In ACL, 2018. [17] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In $A C L, 2002$. [18] Chin-Yew Lin. Rouge: A package for automatic evaluation of summaries. In Text Summarization Branches Out, 2004. [19] Michael Denkowski and Alon Lavie. Meteor universal: Language specific translation evaluation for any target language. In the ninth workshop on statistical machine translation, 2014. [20] Ramakrishna Vedantam, C Lawrence Zitnick, and Devi Parikh. Cider: Consensus-based image description evaluation. In CVPR, 2015. [21] Peter Anderson, Basura Fernando, Mark Johnson, and Stephen Gould. Spice: Semantic propositional image caption evaluation. In $E C C V, 2016$. [22] Matthew Honnibal, Ines Montani, Sofie Van Landeghem, and Adriane Boyd. spaCy: Industrial-strength Natural Language Processing in Python, 2020. [23] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In ICLR, 2015. ## A 実験設定詳細 表 4 先行研究 $[8,9]$ それぞれの詳細な実験設定. 実験設定差分 4.1 節で述べたとおり,先行研究 $[8,9]$ ではそれぞれやや異なった実験設定をとっている. 表 4 にその差分をまとめた。各要素の詳細は先行研究 $[8,9]$ を参照されたい. 疑似キャプションの前処理画像から検出された物体名のセットに対して,2つ以上検出された場合はそのうちのぺアの組み合わせを用意し,各ペアが含まれている文を収集した。このとき,物体名の複数形の辞書(先行研究 [8])を利用して,目的の物体名が複数形で含まれている文も取得する. 収集した文から,目的の物体同士が関連した内容のものを選別するため,文中で目的の物体ペアの間に 4 つ以下の単語しか含まれない文を取り出した。また,目的の物体名ぺアが複合語として出現している文を避けるため,物体名が隣り合っている文は取り除いた。同様に,各単体の物体についても文を収集した。ここで収集された文に対しては,目的の物体についてより詳細な記述のある文を選別するため,目的の物体とそれを修飾する形容詞の間に 2 つ以下の単語しか含まれない文を取り出した. 統語解析器には spaCy [22] の en_core_web_lgを用いた. 学習イテレーション頻出の物体に過適合することを防ぐため,各画像ではなく各物体ぺアでイテレーションを行った.各物体ぺアについて,これを含む画像と擬似キャプションをサンプリングして学習に用いる.また,物体ぺア中の各物体についても同様にサンプリングと学習を行った. バッチサイズは 8 とし, validation セットでの CIDErスコアが 20 エポック連続で更新されなくなった時点で学習を止めた。最適化には,Adam [23]を論文の推奨パラメータで用いた。 $\alpha$ の値式 (7) について, $\alpha=16$ とした。上述のように,学習は物体ぺアとそのうちの各単体の物体を単位として行われるため,サンプリングされた文の中で検出された物体に対応する単語は 2 つか 1 つしかない. これに対してテキストデータの平均文長は,先行研究 $[8,9]$ でそれぞれ 12.0 と 10.7 である. この検出物体数と文長の比率を考慮して 2 の累乗数から最も性能が高くなる $\alpha$ を探した結果,文長 / 検出物体数 $(=1)$, に近い, $\alpha=16$ が最も高い性能を示した. 先行研究モデル初期化のための疑似キャプションの前処理 4.4 節の手法では,学習データの画像に対する提案手法の出力を疑似キャプションとして扱う.このとき,画像に対して全く異なる内容の疑似キャプションを与えることを防ぐため,次の前処理を行った. 画像から検出された物体が 2 つ以上ある場合は,2 つ以上それらの物体を含む疑似キャプションのみ,検出された物体が 1 つの場合は,それを含む疑似キャプションのみを選別した. この基準を満たさない疑似キャプションについては,画像とともに先行研究モデル初期化のための学習データから外した. ## B Ablation Study 表 5 Ablation study. 二重線の上下は,それぞれ先行研究 $[8,9]$ の実験設定に対応する. 提案手法のスコアは 5 回の試行の平均,その他は一回の試行のスコア. 表 5 に ablation study の結果を示す. w/o filter は $L_{g}$ だけを最小化したモデル,w/o gate は式 (1)のモデル化で $L_{g}$ だけを最小化したモデル,w/o unique は 3.4 節のデコード制約を用いないモデルである. なお, 3.3 節の疑似教師信号 $f$ はゲー ト機構に対して与えられるものなので,ゲート機構なしで疑似教師信号だけ与えるモデル(w/o gate w/ filter)は比較しない. w/o image は,画像特徴量 $\boldsymbol{v}$ の代わりに,画像から検出された物体名の単語特徴量の平均を用いたモデルである. いずれの実験設定においても w/o filter で特に数字が下がることから,3.3 節の疑似教師信号が性能の向上に大きく寄与していること, 3.2 節のゲート機構はそれ単体ではうまく機能しないことがわかった. また, Ours (full) が突出してスコアが高いことから,提案手法はすべて組み合わせた状態で最も効果を発揮することが確認できる.w/o image のスコアが低いことについては,出力に物体検出器の誤りが伝播したものが多く見られており,これが原因だと考えられる.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D8-2.pdf
# ソーシャルメディアのための 柔軟なビジュアルグラウンディング Yongmin Kim $^{1}$ Chenhui Chu $^{1}$ 加藤 圭造 ${ }^{1,2}$ 黒橋 禎夫 ${ }^{1}$ 1 京都大学 2 富士通研究所 \{kim, chu, kuro\}@nlp.ist.i.kyoto-u.ac.jp kato.keizo@fujitsu.com ## 1 はじめに ビジュアルグランディングとは画像の中にあるクエリに対応する領域を探すタスクである [1]. 画像・言語のマルチモーダル学習の分野において,基礎的な研究分野の一つである。このタスクにはデー タセットによってクエリの形態が違う。例えば, Flickr30k entities データセット [2] は一枚の画像に複数キャプションがあり,そのキャプションの中にある名詞句と画像の中の領域の対応関係がアノテー ションされている.一方,RefCOCO+[3] データセットのクエリは画像の中に存在する物体を説明するものであり,Visual7W[4] データセットのクエリは画像内のある領域に関する質問からなっている。 上記のような人為的に作られたデータセットには当然ながら,クエリに対して必ず対応する領域が画像の中に存在する。しかし,実世界のデータはクエリに対応する画像中の領域がない場合が多く存在する. このようなデータの一つとしてソーシャルメディアデータが挙げられる. 画像とそれに関するテキストからなるソーシャルメディアデータでは,テキスト中の名詞句がグランウンディングできる場合もあるが(図 1 の左),できない場合もある(図 1 の右). 図 1 のようにクエリがグラウンディングできないことを扱うためにはクエリがグラウンディングできるかないかを判断し,できる場合はグラウンディングし,できない場合はできないことを柔軟に答えることが必要である.しかし,従来のビジュアルグラウンディング手法 $[1,2,5]$ では入力クエリに対して,必ずグラウンディングする領域を選択しなければならないので,グラウンディング不可能な場合を取り扱うことができない. 図 1 ソーシャルメディアデータにおけるビジュアルグランディングの例. 左のクエリの一部はグラウンディングできるが,右のクエリはグランディングできない. 本研究では,グラウンディング不可能な場合に対して,擬似的な領域を候補領域として追加することで対応する手法を提案する.グラウンディング不可能な学習データを RefCOCO+から擬似的にグラウンディングできない擬似データセットを作成して,モデルを学習する.その結果,グラウンディングできないデータを高い精度で検出できることが確認された。 また,Twitter からデータを収集し,ビジュアルグラウンディングのデータセットを構築する。提案手法をソーシャメディアで検証するためには用いたモデルの学習データである RefCOCO+のような画像である必要がある。従って,画像認識モデル $[6,7,8]$ を用いて,収集した tweetをフィルタリングを行い, $\mathrm{RefCOCO}+$ のような検証用の小規模なデータセットを作成し,提案手法の有効性の検証を行った。 ## 2 提案手法 従来のビジュアルグラウンディングモデルは図 2 に示されるように,まず画像から各候補領域に対し $\tau$ ,特徵べクトル $f_{v} \in \mathbb{R}^{d_{v}}$ と空間ベクトル $f_{s} \in \mathbb{R}^{5}$ を抽出する,各候補領域とそれの特徴べクトルは 図 2 提案手法の概要. グラウンディングできないクエリに対する擬似的な候補領域(pseudo region)を追加し,その領域を選択されるようにモデルを学習させ,グラウンディングできないクエリに対応する. Mask R-CNN[9] のような物体検出モデルを用いて,抽出する.空間ベクトルは式 1 のように正規化された各領域の 4 つの頂点の座標とその幅と縦の長さで構成されている. $ f_{s}=\left[\frac{w_{t l}}{W}, \frac{y_{t l}}{H}, \frac{x_{b r}}{W}, \frac{y_{b r}}{W}, \frac{w h}{W H}\right] $ $\left(w_{t l}, y_{t l}\right)$ と $\left(y_{t l}, x_{b r}\right)$ はそれぞれ領域の左上と右下の座標である。次に,このように抽出された候補領域の画像のベクトルとクエリを比較し,類似スコアを出力して,最終的にスコアが最も高い領域を選択する. ViLBERT の場合,モデルが $i$ 番目の候補領域の画像のベクトル $v_{i}$ とクエリ $Q$ から,最終的に出力する表現べクトル $h_{v i}$ を $W_{r} \in \mathbb{R}^{d \times 1}$ 線形投影し,類似スコアを出す。 $ \operatorname{ViLbeRt}\left(v_{i}, Q\right)=W_{r} h_{v i} $ 学習する際にはこの各候補領域から生成される表現ベクトルが,類似スコアを予測するように学習される。 本研究では候補領域に容易にグラウンディングできないクエリに対する擬似的な領域を入れ込むことで,グラウンディングできないクエリに対し,この擬似領域を出力して,対応できるような手法を提案する. この擬似領域は特徴ベクトル $f_{v}$ の全ての値を 1 にして,空間ベクトル $f_{s}$ の值を全部 0 に設定した。すなわち,擬似領域は画像の左上に位置して, 広さが 0 であり, 特徴べクトルの全ての値が 1 となる. ## 3 ソーシャルメディアデータの構築 ## 3.1 クローリング ソーシャルメディアデータセットは Twitter からあるキーワードを検索し,クローリングした. キー ワードはクローリングしたデータが学習データである RefCOCO と類似性を持つために, RefCOCO のカテゴリから取得した。 ## 3.2 画像データのフィルタリング 上記のクローリングで多くの tweet が得られたが,提案手法を評価するには学習に用いた RefCOCO+ のような画像をもつデータが求められるため, RefCOCO+に存在しない特性のデータを除去する必要がある. このような特性のデータの画像には RefCOCO カテゴリと違う画像の他に, 低画質画像,広告,テキストが多い画像,絵などが考えられる。従って,事前学習された画像分類モデル [6], 物体検出モデル [7]を用い,最後に画像内のテキストを検出して,その領域と文字を認識するテキスト検出モデル [8]を用いて,フィルタリングを行う. 画像分類モデルは ImageNet[10] データセットから事前学習されたモデル [6] を用いた. モデルから出力されたクラスを RefCOCO+のカテゴリとの Wu \& Palmer similarity(式3)を計算し,閾値以上のものを収集ことで RefCOCO+と関連性が高い tweetが得られ,ウェブサイトや漫画など関連のないクラスが除 去された。閾値は ImageNetクラスと RefCOCO+カテゴリとの Wu \& Palmer similarityをみて, RefCOCO+ のカテゴリと関連性が低いものが含まらないように 0.95 の以上にした. $ \begin{gathered} \mathrm{Wu}-\text { Palmer : } 2 * \frac{\operatorname{depth}(\operatorname{lcs}(s 1, s 2))}{\operatorname{depth}(s 1)+\operatorname{depth}(\mathrm{s} 2)} \\ \text { lcs }: \text { Least Common Subsumer } \end{gathered} $ 物体検出アルゴリズムは COCO データセット [11] から事前学習されたモデル [7] を用いた. COCO データセットは RefCOCO の基盤となるデータであり,両データセットは同一のクラスを保有する. tweet データには背景がなく, 物体一個しか存在しないグラウンディングの意味のないデータを存在する. そのため,物体検出モデルを用いて,検出される物体が 2 個以上存在するデータを収集した. 上記の二つのフィルタリングの結果, 残った tweet には画像の中でテキストが占める割合が多いデータがまだ存在していた. このようなデータはテキスト検出モデル [8] を用いて,その領域の全体画像の大きさに対する割合を計算し,間値を基準にデータを整理した. 閾値は背景に存在する文字と画像上に追加された文字を区分できるような值をデータの観察より,0.05 以下に設定した. ## 3.3 アノテーション このようなフィルタリング手法を通して,前より RefCOCO+に類似な tweet を得ることができた。 tweet のテキストには複数の記号, 絵文字, リンクなどを含んでいるため,前処理を行い,そのテキス卜から文を抽出した。また,それぞれの文の名詞句をチャンキングし,クエリを抽出する.その後,クエリに対する領域にアノテーションを行い(図 3),最終的に提案手法を検証するための 75 個のクエリのソーシャメディアデータセットを構築した. このデーアセットは画像と 15 個のグラウンディング可能なクエリと 60 個のグラウンディング不可能なクエリから構成されている. ## 4 実験設定 ## 4.1 擬似データセット 公開されているデータには全てグラウンディングできるデータだけあるため,既存のデータセット I think my favorite picture, two wonderful horses, Angel and Rannoch and a beautiful sunrise on a frosty day 図 3 ソーシャルメディアデータのアノテーション."my favorite picture" はグランウンディングできないクエリであり,“Angle”と “Rannoch” は固有名詞のため入力クエリとして使わない. を変更して,擬似的にデータセットを構築し,提案手法の評価を行った. 本研究では RefCOCO+データセットを基盤に擬似データセットを作成した。擬似データは元のデータにおいてある画像と他の画像のクエリを組み合わせ,画像とクエリがお互いに関係ないように設定して,構築する.表 1 に擬似データセットの構成を示す。 表 1 擬似データセットの構成。擬似データセットは $67 \%$ の RefCOCO+と $33 \%$ の擬似データから構成されている. データ数 ## 4.2 モデル学習 提案手法の候補領域の画像とクエリとの類似スコアを抽出するとき,ViLBERT[5]を用いた。 ViLBERT では言語と画像が同時に連結された並行的な transformer ブロックを通して,処理される。このモデルは 4 つの画像・言語のタスクを同時学習させたモデルに,各データセットに fine-tuning することで,ビジュアルグラウンディング分野において最も高い精度を出した. ViLBERT の transformer ブロックが言語・画像それぞれ 12 と 6 層を用い,4つのタスクに同時に事前学習されたモデルを用いた. 図 4 提案手法を擬似データに適用した結果例. binary cross entropy を用い,最大 20 エポック,バッチサイズを 256 , 最初学習率を $4 e-5$ に設定してビジュアルグラウンディングの fine-tuning を行った. 提案手法を RefCOCO+と擬似データセットでそれぞれ fine-tuning し,各データセットでの結果を比較した。また,擬似データセットで学習したモデルを構築したソーシャルメディアデータに対して提案手法の有効性を検証した。 表 2 各データセットでの提案手法の評価. Pseudo は擬似データセットでグラウンディング不可能なテストデー タでの結果である. SNS-VG と SNT-UVG はそれぞれ構築したソーシャルメディアデータでグラウンディング可能と不可能なデータでの結果である. ## 5 結果 ## 5.1RefCOCO+と擬似データでの評価 表 2 の左に RefCOCO+テストセットと擬似デー タテストセットにおける結果を示す. RefCOCO+で fine-tuning した ViLBERT モデルを提案手法を用いたとき,性能の変化を確認した結果,同じく $72.73 \%$ の精度が出た. また, グラウンディング不可能なデー タに対する学習がされていないため,擬似データを擬似領域として検出することはできなかった. 次に構築した擬似データセットに対して fine-tuning し,性能確認を行った。擬似テストデータセットは $67 \%$ の RefCOCO+のデータと $33 \%$ の擬似データと構成されている。擬似データにで fine-tuning したとき,図 4 のように,グラウンディング不可能なデータに対して,正しく擬似領域を推論していることが見られた. また,その精度は RefCOCO+データセットに対し,69.5\%であり,擬似データに対しては $91.21 \%$ であった. 既存の RefCOCO+で fine-tuning したモデル HappyHalloween weekend!! Are you decking your car out in spooky decorations? 図 5 提案手法をソーシャルメディアデータに適用した結果例. よりはRefCOCO+テストセットにおいて,精度が下がったが,擬似データでのグラウンディングできないものに対しては高い精度を出していることが見られた。 ## 5.2 ソーシャルメディアデータでの評価 擬似データセットから fine-tuning された ViLBERT を用いて,構築した 75 個のソーシャルメディアデータに対し,提案手法の検証を行った。その結果を表 2 の右に示す. グラインディング可能なデータに対しては,精度が $68.8 \%$ ,不可能なデータに対しては $76.8 \%$ の精度であった。また,結果例は図 5 に示されたように,グラウンディング可能なクエリとグラウンディング不可能なデータに対して,正しく動作していることがわかる。 ## 6 終わりに 本研究ではグラウンディング不可能性を考慮したビジュアルグラウンディングモデルの提案とソー シャルメディアデータセット構築を行った. 既存のビジュアルグラウンディングモデルにグラウンディング不可能なモジュールを追加させることで,グラウンディング可能なデータにおける性能低下も少なく,グラウンディングできないデータを高い精度で推論することができた. また,ソーシャルメディアから収集した画像データを複数の画像処理モデルによりフィルタリングすることで、RefCOCO+データセットと特性の近いデータセットを構築することができた. 実際に構築したソーシャルメディアデータに対しても,グラウンディングできないものを正しく検出し,柔軟なグランウンディングできることが確認された。大規模なソーシャルメディアデータの構築は今後課題である. 謝辞本研究は,JST ACT-I の支援を受けたものである。 ## 参考文献 [1] Wenjian Dong, Mayu Otani, Noa Garcia, Yuta Nakashima, and Chenhui Chu. Cross-lingual visual grounding. IEEE Access, Vol. 9, pp. 349-358, 2021. [2] Bryan A. Plummer, Liwei Wang, Chris M. Cervantes, Juan C. Caicedo, Julia Hockenmaier, and Svetlana Lazebnik. Flickr30k entities: Collecting region-to-phrase correspondences for richer imageto-sentence models. CoRR, Vol. abs/1505.04870, , 2015. [3] Licheng Yu, Patrick Poirson, Shan Yang, Alexander C. Berg, and Tamara L. Berg. Modeling context in referring expressions. CoRR, Vol. abs/1608.00272, , 2016. [4] Yuke Zhu, Oliver Groth, Michael S. Bernstein, and Li Fei-Fei. Visual7w: Grounded question answering in images. CoRR, Vol. abs/1511.03416, , 2015. [5] Jiasen Lu, Dhruv Batra, Devi Parikh, and Stefan Lee. Vilbert: Pretraining task-agnostic visiolinguistic representations for vision-and-language tasks. CoRR, Vol. abs/1908.02265, , 2019. [6] Mingxing Tan and Quoc V. Le. Efficientnet: Rethinking model scaling for convolutional neural networks. CoRR, Vol. abs/1905.11946, , 2019. [7] Alexey Bochkovskiy, Chien-Yao Wang, and HongYuan Mark Liao. Yolov4: Optimal speed and accuracy of object detection, 2020. [8] Youngmin Baek, Bado Lee, Dongyoon Han, Sangdoo Yun, and Hwalsuk Lee. Character region awareness for text detection, 2019. [9] Kaiming He, Georgia Gkioxari, Piotr Dollár, and Ross B. Girshick. Mask R-CNN. CoRR, Vol. abs/1703.06870, , 2017. [10] J. Deng, W. Dong, R. Socher, L. Li, Kai Li, and Li Fei-Fei. Imagenet: A large-scale hierarchical image database. In 2009 IEEE Conference on Computer Vision and Pattern Recognition, pp. 248-255, 2009. [11] Tsung-Yi Lin, Michael Maire, Serge J. Belongie, Lubomir D. Bourdev, Ross B. Girshick, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, and C. Lawrence Zitnick. Microsoft COCO: common objects in context. CoRR, Vol. abs/1405.0312, , 2014.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D8-3.pdf
# Improve Japanese Input Method by Re-rank Candidate Words Xinyang Jiang, Weitsung Lin, Gang Qiao, Xiaoliang Xu, Jianmin Wu, Cong Zhang GBU, Baidu Inc, China, 518052 E-mail: \{jiangxinyang, v_liweicong, qiaogang01, xuxiaoliang, wujianmin01, zhangcong05\}@baidu.com } \begin{abstract} We investigate a Two Stream Encoder model (TSE) for re-ranking candidate words in Japanese Input Method, which encodes Hiragana sequences and word sequences to represent the relationship between Hiragana sequences, context and candidate words. Compared with our current online model, the transformer-based model can capture more context information. Two auxiliary language model losses are introduced to help model learning, and the loss weights are dynamically adjusted by linear decay. \end{abstract} TSE is empirically effective and achieves a Top1 accuracy of $82.3 \%$, which is significantly higher than the $78.6 \%$ of the online model on the testing set. While there are only 2.43 million of parameters and 59.57 second inference time per 10000 reranks, the memory consumption when running on the mobile phone is only $12 \mathrm{MB}$, let the model run smoothly on the mobile devices. ## 1 Introduction Typing is one of the core methods that users interact with smartphones. Unlike other devices with keyboard and large screen, typing on mobile devices have more restrictions like limited input buttons and small space for showing candidate words. An intelligent input method to provide better text suggestions is important to boost typing efficiency on such devices. In languages like Japanese and Chinese, there is an essential text suggestion task: conversion task. Conversion task is not a common scenario for Latin based languages which could directly type on a keyboard, but there are thousands of characters in Japanese and Chinese language. For example, in Japanese users type Hiragana sequence, a type of phonography, and conversion task converts it to a list of target word sequences for users to select from. An n-gram language model is used to solve this problem. However, due to the exponential increase in model size, the n-gram model can only support up to bi-gram or tri-gram on mobile de- vices. With this constraint, the n-gram model often suffers from loss of accuracy because of its limitation on considering length of context. On the other hand, recently deep-learning based language models are shown that they can solve such issues more efficiently. Although deep-learning based language model has achieved enormous success, it is still not used mainly for input method tasks. The major reason is that input methods have to run smoothly and interactively on mobile devices with limited resources. Unlike speech recognition or machine translation services served from online servers, input method applications have to sacrifice accuracy for execution speed and model size. In this work, we focus on ranking the target word list to provide the best fit for users' original intention candidates in top 3 to top 6 . We customized a natural language processing (NLP) model, Transformer [1], a self-attention mechanism model, to fit Japanese input method application. By introducing auxiliary training objectives we have benefit for learning better encoded representations. Also, we leverage byte pair encoding (BPE) [2] to segment and encode input context. BPE not only helps reduce the length of model input but also improves execution speed. Therefore, our model considers longer context distance and achieves a reasonable execution speed on mobile devices. To sum up, our contributions are as follows: - We customized a Two Stream Encoder model to improve re-rank candidate accuracy in input method. - The model can run on mobile devices at a reasonable execution speed. ## 2 Input Method with Deep-learning Model In the input activity, the user first types the Hiragana sequence. Then the possible candidates show up for the user to choose. Because we don't know when the user stops typing and chooses the candidates, we need to calculate every time a new Hiragana character is typed. In this way, a simple sentence could easily involve multiple candidate prediction tasks, therefore the most crucial problem in using deep-learning technology on mobile devices is often the execution speed. With this restrick, we select our model task on re-ranking candidates after a translation from the Hiragana sequence. In the whole input activity, the user first types the Hiragana sequence. Then the possible candidates show up for the user to choose. Although the language model would be a visible solution for scoring the candidates with given previous input words, it is difficult to train a stable deep-learning language model with shallow model size. Instead using a simple binary classification to model candidate scores and train a compact size model, but it is also hard to converge a useful model. Recent NLP models like BERT [3] or GPT [4] are using pre-training from a larger corpus to learn well stated model parameters and then fine-tune on a task with smaller corpus. We leverage this training strategy on our training. But instead of two steps training, we join two training objectives to form a multi-task learning. The intuition behind this setting is that only the binary classification objective is hard to guide the model to learn, but with the language model objective as an auxiliary objective, helps the model to converge better. We use GPT as our model encoder. GPT does not rely on recurrent mechanisms to follow language modeling objectives, instead it uses masks to achieve this manner. In this way, the calculation can run in parallel, which improves execution speed. ## 3 Method ## 3.1 BPE To start the natural language processing, sentences need to be tokenized. For languages like Japanese or Chinese, there are no natural word boundaries, such as a space character. It is crucial to have a good tokenization methodology to start the whole process. Following GPT, it uses byte pair encoding (BPE) to process English corpus. We use BPE on Japanese texts as a tokenizer. BPE largely decreases out-of-vocabulary words and also reduces sequence length with only around $50 \mathrm{k}$ token size. This is important for running deep-learning models on mobile devices. Because in a normal tokenization setting, for a $95 \%$ vocabulary coverage, token size easily exceeds 100k. Embedding matrix size often contributes most parameters in the whole model. Hence, re- ducing embedding size can reduce model size significantly. The other benefit of BPE is the encoded sequence length. Other than using lots of tokens, using character based tokenization methods is another choice in Japanese and Chinese. In this setting, the token size is often between $5 \mathrm{k}$ to $10 \mathrm{k}$ to achieve similar word coverage, but this causes the encoded sequence length to be longer and too sparse for the embedding. The BPE balances this between normal tokenizer and character-based tokenizer. ## 3.2 Two-Stream-Encoded Model We customize Transformer models to fit the Japanese input method and the re-rank candidates task. In Japanese input scenarios, users type a Hiragana sequence and the sequence is converted into words. This is a one to many mapping. Different words have the same pronunciation and all can be the potential candidates. There are two useful data that helps rank candidates: one is words users have already typed, the other is the Hiragana sequence users currently typing. We use two GPT models to encode word sequence and Hiragana sequence. The word sequence is composed of history words and one candidate. These two encoded output logits then concatenate into one vector and feed into a binary classifier. The classifier outputs a scalar ranging from zero to one to indicate how likely the candidate fits for current usage. Our model consists of two blocks, word encoder and reading encoder. We call it the Two-streamencoded Model (TSE). The word encoder encodes word sequence and the reading encoder encodes Hiragana sequence respectively. Instead of using the identical structure on both encoders, the word encoder has more parameters than reading encoder due to the longer sequence and the larger unique token size. We append a self-attention layer to the final layer of word encoder and use reading encoder output as this self-attention layer's query input. We want the word encoder output to be conditioned on user typing input. The detail model architecture is in Figure 1. ## 3.3 Auxiliary Training Objectives We use point-wise approaches to rank candidates, which means we give every candidate a score and use this score to rank. In this setting, a sigmoid function is a good fit for model output. We train models with cross-entropy loss between model output and real label, with user-select candidate label regarded as positive and non user-select candidate Figure 1: Two-Stream-Encoded model architecture. The word sequence is the concatenation of history words and one candidate. The binary classifier output is a scalar which indicates the score of the candidate. label as negative. We found that using only this training objective cannot generalize well on the test set. To tackle this problem, auxiliary training objectives, language modeling loss is introduced to two GPT models in training. This helps models encoding better output logits for the classifier. Both GPT encoders have their own language modeling loss and total loss is the sum of three losses as the following Eq. 1. Alpha and beta here are the weights for controlling the language model loss that contribute to total loss. $ L_{t}=\alpha * L_{w-\text { encoder }}+\beta * L_{r-\text { encoder }}+L_{c l s} $ ## 4 Data and Experiment Setting We train and evaluate the model using a dataset that was collected from volunteers . In this section, we first describe the dataset, and then show the experiment details. ## 4.1 Data The dataset contains about 200 million training dataset and 0.3 million testing dataset. Data is collected from volunteers, each input data is associated with 2 to hundreds of candidate words. The words selected by the user are taken as positive samples, and negative samples are randomly selected from the candidate words not included in the words selected by the user. ## 4.2 Experiment Settings ## 4.2.1 Vocabulary In order to get better representations from word encoder and reading encoder, We use BPE to learn subword vocabularies from Hiragana sequence and word sequence separately. There are $50 \mathrm{k}$ tokens for word encoder and 8k tokens for reading encoder. The Hiragana sequence has a smaller character space and uses less token size than word encoder. ## 4.2.2 Training Details We set the batch size and the train steps to 256 and 2 million, warm-up steps set to 10000 . The learning rate is initially set $8 \mathrm{e}-4$ and will be reduced to $8 \mathrm{e}-6$ by learning rate linear decay, Adam is used for optimization and L2 weight decay is set to 5e-3. We also use linear decay to dynamically adjust the alpha and beta values in the Eq. 1, the details are shown in Table 2. ## 5 Result and Discussion To evaluate the inference speed, we conduct an inference procedure on the testing dataset with batch size of 9 . Results are shown in Table 1 and the average running time of 10000 batches on a single NVIDIA K40 GPU. We use Top-1 accuracy as the metric to evaluate model performance. Meanwhile, we also compare the model size and the speed of inference, which are the key factors that run smoothly on mobile devices. We investigate the effect of model size and loss weights on the TSE model, the detailed results and discussions are shown below. ## 5.1 Effect of model size We take the online model (no rerank model), LSTM, and GPT as the baseline model, and compare them with our TSE model, we find that our TSE model has achieved better performance shown in the Table 1. LSTM and GPT models are trained with language model objectives on history words and user selected candidates. For comparison, we set the parameter size similar to the TSE model. Using language models to evaluate candidates is a straightforward method. But the restriction of model size and lack of user input information cause the accuracy far from our online model. The TSE model is designed to improve this problem. It introduces a reading encoder that can effectively encode the Hiragana sequence and provides the conversion information between $\mathrm{Hi}-$ ragana sequence and candidate words. We also compare performance with different depths and widths on Top-1 accuracy and inference speed. The TSE-1 model with a wider and deeper model achieves the best performance, with a Top-1 accuracy of $82.5 \%$. Reducing the width of the word encoder by half (TSE-2), the Top-1 accuracy drops to $82.1 \%$, with equivalent model size and inference speed. Reducing the depth of the word encoder and reading encoder by half (TSE$3)$, the Top-1 accuracy drops to $82.3 \%$, but the model size and inference speed has also reduced by $0.45 \mathrm{M}$ and $33 \mathrm{~s}$ respectively, the memory consump- & & \#Param & & \\ Table 1: The model sizes and inference time for baselines and TSE models. (n_layer means the number of the model layer; d_lstm means LSTM hidden size; d_embed means the embedding size; d_attn means the hidden size of the self-multi-attention block in Transformer; d_ffn means the hidden size of FFN sub-layer in Transformer; \#Param means the number of parameters.) & & Decay Method & \\ & 1.0 & 0.0 & Linear & $82.0 \%$ \\ & 1.0 & 0.0 & & $82.3 \%$ \\ Table 2: Ablation studies of loss weights in the TSE-3 Model learning. (No LML means without the auxiliary training objectives; No LWD means alpha and beta in the Eq. 1 remain constant; LWD means alpha and beta will decay from the initial value of the first 1.5 million to the last 0.5 million during the first 1.5 million.) tion when running on the mobile phone is only $12 \mathrm{MB}$. We think that re-ranking candidate words does not require much semantic understanding, but more to capture the usage of words. Therefore, the shallow network can still achieve a good performance, and the speed is faster. ## 5.2 Effects of loss weights We investigate the effects of the loss weights (alpha and beta in the Eq. 1) on the TSE-3 model learning. The training period is divided into the first 1.5 million steps and the last 0.5 million steps, the two stages using different language model loss weights respectively. During the training process, the alpha and beta in the last 0.5 million will remain constant, but in the first 1.5 million may be dynamically decayed. Note that we set the alpha and beta to same value during the training period. Several baselines are proposed including the TSE-3 model without the auxiliary training objectives (Abbreviated as No LML), the loss weights decay (Means alpha and beta in the first 1.5 million remain constant, abbreviated as No LWD) respectively. The results are illustrated in Table 2 and show the best performance using linear decay in the first 1.5 million steps and removing the language model losses in the last 0.5 million steps. The Top-1 accuracy is only $55.6 \%$ under the setting (No LML), which is much lower than the baseline. This result proves that auxiliary training objectives are the key for TSE model learning, they can effectively help the model converge. Furthermore, we investigate the contributions of the auxiliary training objectives in the TSE3 model learning (No LWD), we set the alpha and beta to 1.0 , and the Top-1 accuracy is $80.9 \%$. However, if we remove it in the last 0.5 million training steps, the Top-1 accuracy will increase to $82.0 \%$. This results shows that the effects of the auxiliary training objectives to the model learning should be reduced in the last training period, enabling the classification task dominating the model learning. Finally, we introduce linear decay in the first 1.5 million training steps to dynamically adjust the loss weights, and the Top-1 accuracy has been further improved slightly. And it is better to remove the language model loss in the last 0.5 million training steps than setting the loss weights to 0.1 , which the accuracy improves by 0.2 . This may be due to the fact that the model has converged well in the first 1.5 million steps, removing the language model loss in the last 0.5 million steps can ensure the classification tasks are better trained. ## 6 Conclusion In this paper, We empirically investigate a Transformer-based model for the re-ranking of the candidate words in input method, finding that it outperforms the online model, Lstm-based model and GPT-based model. Transformer-based models can encode more context compared with the traditional model which is the N-gram model. While getting a better performance, we also reduce the size of the model to ensure that it can run smoothly on mobile devices. Finally, we introduce two auxiliary training objectives to help train the small Transformer-based model, and dynamically adjust the loss weights to obtain better performance. ## References [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Åukasz Kaiser, and Illia Polosukhin. Attention is all you need, 2017. [2] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units, 2015. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding, 2018. [4] Alec Radford, Karthik Narasimhan, Tim Salimans, and Ilya Sutskever. Improving language understanding by generative pretraining, 2018.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D8-4.pdf
# 視覚と言語によるナビゲーション課題への 言語に対応付けられた生成的な方策 栗田修平 理化学研究所, JST さきがけ shuhei.kurita@riken.jp } Kyunghyun Cho New York University, CIFAR kyunghyun. cho@nyu. edu ## 1 はじめに 人間の持っている日常的な知覚を理解し,人間から与えられた指示に従って判断し行動するシステムの構築には,人間の知覚する環境に近い条件でモデル学習を行なっていくことが自然だろう。このようなアイディアは古くから存在した ${ }^{11}$ が,近年,実世界を模した仮想の環境を利用し,仮想のモデルエー ジェントが環境内部の移動などのインタラクションを通してモデル学習を行うことが現実となりつつある。このような人工知能分野は, Embodied AI (身体化された $\mathrm{AI}$; 具体化された $\mathrm{AI}$ ) と呼ばれ, 急速なデータセットや環境整備 $[2,3,4,5,6,7,8,9,10]$ とともに活発なモデル提案 $[11,12,13,14,15,16]$ が行われ,現実世界への応用 $[17,18]$ も試みられ始めている.この一つである視覚と言語によるナビゲー ション (vision-and-language navigation; VLN) 課題 [3] は,図1のように,内部を移動できる写実的な仮想の $3 \mathrm{D}$ 屋内環境を利用し,与えられた自然言語による指示に従って仮想モデルエージェントに未知の屋内環境を探索させ,言語指示文章に示された通りに目的の場所まで移動するものである。 視覚と言語によるナビゲーションが目指すところは,かなり現実に近い環境で人間の指示を理解し従うシステムの作成である.このようなシステムでは言語指示に従って動作する課題と,言語と視覚や動作との対応付け課題の双方が求められる. この $2 \supset$ は異なる課題である [19]が,既存手法では,指示に従って動作選択を行うことを目標としており,言語と視覚や動作との対応付けについては,相互アテンションなどで取り扱われるのみで明確ではなかった. 提案手法では,まず視覚や動作情報を,条件付言語モデル²)を用いて明示的に言語情報に写像し,  写像を利用して指示文章に従い次の動作を選択する. 加えて,提案手法による言語モデルの予測スコアを利用することで,視覚や動作情報を元にどのような言語情報に着目してモデルが判断を行なったのか,可視化することが可能となった. ## 2 視覚と言語によるナビゲーション 視覚と言語によるナビゲーション (VLN) は,内部を移動でき場所に応じた視覚情報が得られる仮想環境を利用して,与えられた言語指示に示された方法で仮想のモデルエージェントを目的の位置まで移動する課題である [3]. 広く利用されているデー タセットとして,現実の家屋内の 3D スキャンである Matterport3D [20] による写実的な視覚情報を利用した R2R [3] と R4R [8] が存在する.R2R は,3D スキャン内部にモデルエージェントが移動できるグラフを作成し,エージェントの動作開始地点から課題の目的位置までの最短経路に対して,人手によるエージェントへの経路指示文章がアノテーションされている.R2R はモデルが学習時に未知であった建物環境への汎化能力を測定することを目的としており, Matterport3D の 90 棟分の建物屋内スキャンを,学習データ, 未知 (unseen) 開発データ, 未知テストデータへと $61: 11: 18$ の割合で分割する。それぞれに経路と言語指示アノテーションが作成され,例えば学習データは 14,025 個の経路アノテーションを含む.また,学習データと建物スキャンを共有する既知 (seen) 開発データが用意されている. VLN の問題定式 VLN は,反復的な意思決定問題である。まず課題試行の開始前に,仮想環境中のモデルエージェントに現在位置から目的位置までの経路指示文章 $X$ を与える. ある時刻 $t \in \mathbb{N}$ に,モデルにはその位置に応じて視覚情報 $s_{t}{ }^{3}$ が与えられ,次の動作 $a_{t}$ を予測する。ただし,各時刻にお い. 近年,この 2 つの用法に混乱が見られるため注記する。 3)VLNでは一般にパノラマ画像を用いる [11]. For each action, score the instruction Walk between the the tub and bathroom counter. Go through the opening next to the bathroom counter and into the little hallway. Wait next to the family picture hanging on the left wall. 図 1 視覚と言語によるナビゲーション課題および言語に対応付けられた生成的な方策. 時系列的で写実的な視覚情報と動作情報を,条件付き言語モデルを用いて,最初に与えられた動作指示へと対応付け,次の動作を予測をする。 いて過去の観測情報も用いることができるため,モデルの入力として用いることができる観測情報を $h_{t}=\left.\{s_{: t}, a_{: t-1}\right.\}$ としたとき,次の動作 $a_{t} \in \mathscr{A}_{t}$ を,例えば確率モデルを用いて $p\left(a_{t} \mid X, h_{t}\right)$ と選択する. なお,関連研究 $[11,12,21]$ にあるように,可能な動作の集合 $\mathscr{A}_{t}$ を動作選択において用い,各動作の分散表現を視覚情報から計算し入力として使用できる。可能な動作集合 $\mathcal{A}_{t}$ には必ず試行終了動作 “STOP" が含まれており,これを選択した地点をモデルエー ジェントの予測した目的位置とし, VLN課題の成否判定に使用する. VLN の評価手法と R4R R2R では必ず最短経路に沿うように経路指示文章が作成されているが,これに対し,エージェントは文章中に指示された経路指示に従っているのか?という指摘が存在した [22]. この問題に対処するために,エージェントが行動終了時の予測目的位置のみを評価する課題の成功率 SR [3] だけではなく, 最短経路を基準とし長い経路への罰則を含む SPL [22], アノテートされた経路とモデルの経路との近さを測る CLS [8] やnDTW, SDTW [23] が考案された. SPL,CLS やSDTW は,課題の成功率 SR に加えて,エージェントがどのくらい言語指示に従って行動したか,を示す指標である.また,R2R より長く必ずしも最短ではない経路への指示に従う R4R データセットが作られた [8]. VLNでは,自分の位置情報を視覚情報から読み取る必要がある一方で,目的の場所や経路は言語指示に従う必要がある。しかし,VLNにおいても,既存モデルが言語もしくは視覚いずれかの情報に頼りすぎているのではないか,という指摘が存在した [24, 25]. 本研究では,このような問題に対処するため,まず視覚および動作を入力とする言語モデルを利用して指示情報を予測し, 次に言語指示に従った動作選択を行うモデルを提案する。 VLN の現実世界への応用また,R2R データセットを利用して機械学習されたモデルを,現実世界の中を移動できるロボット上にデプロイし,ロボットを動かすことが可能である。関連研究 [18] では, R2R における SoTA モデルであった EnvDrop[21]を,家庭用掃除ロボットに類似する小型のロボットに搭載させ,パノラマ画像に相当する $3 \mathrm{D}$ カメラを搭載することで,現実の建物内で動作実験を行っている. 機械学習による VLN モデルの構築と現実世界でのロボット等の動作との関係性は,この論文の本旨から外れるため付録にて議論する。 ## 2.1 言語に対応付けられた生成的な方策 言語および視覚情報によるナビゲーション課題では,以下のように学習パラメータ $\theta$ を最適化する: $ \max _{\theta} \sum_{t} \log p\left(a_{t} \mid h_{t}, X\right) $ 既存手法では, この式における $p\left(a_{t} \mid X, h_{t}\right)$ を直接モデリングし, 深層学習により学習していた [3,11,12, 14, 21, 26, 27]. 提案手法では,まず動作情報および視覚情報から言語情報へと条件付き言語モデルを利用する写像変換を行い,写像変換の結果を利用して動作選択を行うモデルを提案した. 本研究では,まず $p\left(a_{t} \mid X, h_{t}\right)$ に対し以下の式変形を行った。 $ \begin{aligned} p\left(a_{t} \mid h_{t}, X\right) & =\frac{p\left(X \mid a_{t}, h_{t}\right) p^{\prime}\left(a_{t} \mid h_{t}\right)}{\sum_{a_{t}^{\prime} \in A_{t}} p\left(X \mid a_{t}^{\prime}, h_{t}\right) p^{\prime}\left(a_{t}^{\prime} \mid h_{t}\right)} \\ & =\frac{p\left(X \mid a_{t}, h_{t}\right)}{\sum_{a_{t}^{\prime} \in \mathscr{A S}_{t}} p\left(X \mid a_{t}^{\prime}, h_{t}\right)} \end{aligned} $ ここで,ある時刻 $t$ で可能な動作集合 $\mathscr{A}_{t}$ に対し, $p^{\prime}\left(a_{t} \mid h_{t}\right)=1 /\left|\mathscr{A}_{t}\right|$ という近似を用いた.これは仮想エージェントについて,言語指示がなければどのような動作を取る確率も一定であるものと解釈できる.そして,視覚および動作情報から指示文章を予測する,ある種の条件付き言語モデル $p\left(X \mid a_{t}^{\prime}, h_{t}\right)$ を深層学習を用いてモデルし, 式 2 に従って動作予測する手法を提案した. 既存手法のアプローチは,動作の条件付き確率を予測する点で識別的 表 1 生成的な方策 (Gen.) と識別的な方策 (Disc.) の R2R 開発データセットによる性能比較結果. +Aug. は関連研究 [11] にて提案された拡張データの使用を示す. (A) Disc.+Aug. と (B) Gen.+Aug. を識別的および生成的な手法をあわせて用いる実験に使用する (A+B).*は back-tracking[26] の使用を示す.太字は単一モデルとして最良の性能を表す. (Discriminative) な方策であり,提案手法はべイズ的な意味で生成的 (Generative) な方策である. 最適化は以下のように行われる. $ \max _{\theta} \sum_{t}\left(\log p\left(X \mid a_{t}, h_{t}\right)-\log \sum_{a_{t}^{\prime} \in \mathcal{A}_{t}} p\left(X \mid a_{t}^{\prime}, h_{t}\right)\right) $ この第一項 $\log p\left(X \mid a_{t}, h_{t}\right)$ は正解動作 $a_{t}$ が与えられた際の通常の言語モデルの学習の式と同一であるが,第二項は,正解動作 $a_{t}$ を含む可能なすべての動作に対する罰則項である. 本研究では, $p\left(X \mid a_{t}, h_{t}\right)$ について, 条件付言語モデルとして学習済みのモデルを使用し, 式 3 によりVLNのための学習を行う. このような定式化を採用する利点は,視覚や動作情報を条件付言語モデルを利用して言語情報と明確に対応付け,その情報を利用して指示に従う動作を選択することである. 既存手法のように $p\left(a_{t} \mid X, h_{t}\right)$ を直接モデリングする場合,視覚情報と言語情報の対応付けには広く相互アテンションが用いられてきた.しかし, 相互アテンションは視覚と言語をどのように対応付けて課題を解いているか明確でなく,片方を無視して予測を行うことも起こりうる ${ }^{4)}$. 提案手法では,条件付き言語モデル $p\left(X \mid a_{t}, h_{t}\right)$ をモデルに取り入れることで,まずは視覚情報及び動作情報を指示文章へ明確に結びつける必要がある. 3.3 節では,このような条件付言語モデルによる指示文章の予測スコアが,VLNの探索のために学習済みのモデル内部でどのように振る舞うか検証する。 ## 3 実験 ## 3.1 実験設定・モデル VLNにて広く使われる R2R データセットにて,生成的な方策と既存手法による識別的な方策のいずれが優れているか,比較実験を行った. 実験に  は,関連研究 D. Fried らの Speaker-follower モデル [11] と同一構造を持つニューラルネットワークを用いた. Speaker-follower モデルは,視覚情報と言語指示を入力としナビゲーション課題を解く Follower モデルと,動作情報および動作に従った際の視覚情報から言語指示文章を生成する Speaker モデルからなる. 特に Speaker モデルには単独で R2R ナビゲーション課題を解く能力はないが,D. Fried らは, Speaker モデルを R2R データセットのデータ拡張 (data augmentaton) および,ビーム探索を利用したナビゲーション5)結果の再ランキングに Follower と合わせて使用した。 本研究では,このD. Fried らの Speaker モデルを言語に対応付けられる生成的な方策に用いる。画像情報の符号化には ResNet-152 [29] を使用する。また, D. Fried らの Follower モデルを,既存手法にて典型的に用いられる識別的な方策として同様に学習に用いる。学習には PRESS [27] と同様の学習を用いる6).また,FAST [26] にて提案された,モデルエー ジェントが以前に自分が訪れた場所まで行動罰則付きで戻る事ができる back-tracking をモデルの評価時に採用した場合の結果を示す. Fried らによって公開されているデータ拡張された学習データが広くモデル学習に採用されていることを考慮し, 多くの関連研究 $[11,27,26]$ と同様にこの拡張データを学習に使用する7).実験では,先に紹介した主な評価尺度である SR, SPL, CLS, nDTW, SDTW に加えて,エー ジェントの平均探索距離 PL,タスク終了時の目的地への平均距離 NE を補助的に示す. 5) R2R ナビゲーション課題でビーム探索を使用することは,現実世界では同時に複数台のロボットを使用して目的位置を探索することに相当し,あまり意味のある実験設定とは言えないため,本論文では考察しない。 6)なお,PRESS はBERT を使用しており,本研究と同じく事前学習済みモデルを使用するモデルである. 7) EnvDrop [21] ではさらに多くの拡張データを使用している. 表 2 R2R テストセットにおける比較.太字は SR と SPL が一番目,二番目に良いモデルを示す. 図 2 トークンごとの予測エントロピー $(1-T E N T)$. 縦軸は時刻 $t$ と $1-T E N T$ の振幅を表す. 横軸は指示文章中のトー クンであり,“Take a right and walk out of the kitchen. Take a left and wait by the dining table.”に対応する. ## 3.2 実験結果 まず,R2R における生成的な方策と既存手法において典型的な識別的方策との比較を,R2R の開発データセットで行った. 結果を表 1 に示す. データ拡張済みの学習データでは生成的な方策は識別的な方策を常に上回ることがわかる。また,生成的な方策と識別的な方策をモデル評価時に結合したモデル (Gen.+Disc) はそれらをさらに上回るとともに, back-tracking [26] の使用により改善が見られる. 次にテストセットで既存手法との比較を行った。結果を表 2 に示す. 提案手法は,R2R 評価において広く使われる SR および SPL の両方の評価尺度に $\tau$ ,先行研究と同等以上の性能を達成している. また,R2R よりも長距離の経路指示に従う R4R でも実験を行った.結果の詳細は付録に示すが,概略を述べると,R4R の未知セットの性能にて生成的な方策は識別的な方策を常に上回り,提案手法は CLS にて先行研究と同等以上の性能を達成した. ## 3.3 言語に対応付けられた説明性 最後に,提案手法による言語予測スコアが,各時刻でのエージェントの動作決定にどのような影響を及ぼしているのか検証するため,トークンごとの予測エントロピー (TENT)を導入した. TENT は,あ るトークンの予測スコアが動作の集合の中でどのくらい変化するかエントロピーを用いて導出しており,1-TENT が大きいトークンほど,動作予測に大きな影響を持つと考えられる.紙面の制約で $1-T E N T$ 導出の詳細は付録に記す. 図 2 は,既知評価セットのデータ例について,1-TENT を図示したものである. 動作の開始時 $(t \sim 0)$ には,トークン予測が安定しない性質がある(グラフ振幅が大きい)ものの,各時刻において,予測の要となりやすいトークンが視覚化されており,例えば, $t=3$ では, “take a left” の “left” という単語予測スコアが,動作選択の決め手になったことを示唆している. ## 4 結論 視覚と言語によるナビゲーションは,人間の知覚環境に近い仮想環境上で機械学習を行う革新的な課題であるが,しかし,言語と視覚やその他の情報がどのように対応付けられているか,既存手法では明らかではない側面があった.提案手法のアプローチが,このように視覚と言語,動作など複数のモダリティを結合するシステムを作成するための重要な示唆となることを願ってやまない。 謝辞本研究は JST ACT-I,JPMJPR17U8 および JST さきがけ,JPMJPR20C2 の支援を受けた.NYU 訪問につき関根聡先生および関係する皆様に感謝する。 ## 参考文献 [1] Terry Winograd. Procedures as a representation for data in a computer program for understanding natural language. 1971. [2] Yi Wu, Yuxin Wu, Georgia Gkioxari, and Yuandong Tian. Building generalizable agents with a realistic and rich $3 \mathrm{~d}$ environment. arXiv preprint arXiv:1801.02209, 2018. [3] Peter Anderson, Qi Wu, Damien Teney, Jake Bruce, Mark Johnson, Niko Sünderhauf, Ian Reid, Stephen Gould, and Anton van den Hengel. Vision-and-Language Navigation: Interpreting visuallygrounded navigation instructions in real environments. In Proceedings of the IEEE CVPR, 2018. [4] Abhishek Das, Samyak Datta, Georgia Gkioxari, Stefan Lee, Devi Parikh, and Dhruv Batra. Embodied Question Answering. In Proceedings of the IEEE CVPR, 2018. [5] Erik Wijmans, Samyak Datta, Oleksandr Maksymets, Abhishek Das, Georgia Gkioxari, Stefan Lee, Irfan Essa, Devi Parikh, and Dhruv Batra. Embodied Question Answering in Photorealistic Environments with Point Cloud Perception. In Proceedings of the IEEE CVPR, 2019. [6] Howard Chen, Alane Suhr, Dipendra Misra, Noah Snavely, and Yoav Artzi. Touchdown: Natural language navigation and spatial reasoning in visual street environments. In Proceedings of the IEEE/CVF CVPR, June 2019. [7] Khanh Nguyen and Hal Daumé III. Help, anna! visual navigation with natural multimodal assistance via retrospective curiosityencouraging imitation learning. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 684-695, Hong Kong, China, November 2019. [8] Vihan Jain, Gabriel Magalhaes, Alexander Ku, Ashish Vaswani, Eugene Ie, and Jason Baldridge. Stay on the path: Instruction fidelity in vision-and-language navigation. In Proceedings of the 57th Annual Meeting of the ACL, pp. 1862-1872, Florence, Italy, July 2019. [9] Mohit Shridhar, Jesse Thomason, Daniel Gordon, Yonatan Bisk, Winson Han, Roozbeh Mottaghi, Luke Zettlemoyer, and Dieter Fox. ALFRED: A Benchmark for Interpreting Grounded Instructions for Everyday Tasks. In The IEEE CVPR, 2020 [10] Manolis Savva*, Abhishek Kadian*, Oleksandr Maksymets*, Yili Zhao, Erik Wijmans, Bhavana Jain, Julian Straub, Jia Liu, Vladlen Koltun, Jitendra Malik, Devi Parikh, and Dhruv Batra. Habitat: A Platform for Embodied AI Research. In Proceedings of the IEEE/CVF ICCV, 2019. [11] Daniel Fried, Ronghang Hu, Volkan Cirik, Anna Rohrbach, Jacob Andreas, Louis-Philippe Morency, Taylor Berg-Kirkpatrick, Kate Saenko, Dan Klein, and Trevor Darrell. Speaker-follower models for vision-and-language navigation. In Advances in Neural Information Processing Systems 31, pp. 3314-3325. Curran Associates, Inc., 2018. [12] Chih-Yao Ma, Jiasen Lu, Zuxuan Wu, Ghassan AlRegib, Zsolt Kira, Richard Socher, and Caiming Xiong. Self-monitoring navigation agent via auxiliary progress estimation. In 7th International Conference on Learning Representations, ICLR 2019, New Orleans, LA, USA, May 6-9, 2019. OpenReview.net, 2019. [13] Xin Wang, Wenhan Xiong, Hongmin Wang, and William Yang Wang. Look before you leap: Bridging model-free and model-based reinforcement learning for planned-ahead vision-andlanguage navigation. In ECCV, September 2018. [14] Xin Wang, Qiuyuan Huang, Asli Çelikyilmaz, Jianfeng Gao, Dinghan Shen, Yuan-Fang Wang, William Yang Wang, and Lei Zhang. Reinforced cross-modal matching and self-supervised imitation learning for vision-language navigation. In IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2019, Long Beach, CA, USA, June 16-20, 2019, pp. 6629-6638. Computer Vision Foundation / IEEE, 2019 [15] Weituo Hao, Chunyuan Li, Xiujun Li, Lawrence Carin, and Jianfeng Gao. Towards learning a generic agent for vision-andlanguage navigation via pre-training. Vol. abs/2002.10638, 2020. [16] Wang Zhu, Hexiang Hu, Jiacheng Chen, Zhiwei Deng, Vihan Jain, Eugene Ie, and Fei Sha. Babywalk: Going farther in vision-and-language navigation by taking baby steps. CoRR, Vol. abs/2005.04625, , 2020. [17] Jun Hatori, Yuta Kikuchi, Sosuke Kobayashi, Kuniyuki Takahashi, Yuta Tsuboi, Yuya Unno, Wilson Ko, and Jethro Tan. Interactively picking real-world objects with unconstrained spoken language instructions. In Proceedings of ICRA, 2018. [18] Peter Anderson, Ayush Shrivastava, Joanne Truong, Arjun Majumdar, Devi Parikh, Dhruv Batra, and Stefan Lee. Sim-to-real transfer for vision-and-language navigation. In CoRL, 112020. [19] Ludwig Wittgenstein. Philosophische untersuchungen. 1953. [20] Angel Chang, Angela Dai, Thomas Funkhouser, Maciej Halber, Matthias Niessner, Manolis Savva, Shuran Song, Andy Zeng, and Yinda Zhang. Matterport3D: Learning from RGB-D data in indoor environments. International Conference on 3D Vision (3DV), 2017. [21] Hao Tan, Licheng Yu, and Mohit Bansal. Learning to navigate unseen environments: Back translation with environmental dropout. In Proceedings of the 2019 Conference of the NAACL, Volume 1 (Long and Short Papers), pp. 2610-2621, Minneapolis, Minnesota, June 2019 [22] Peter Anderson, Angel X. Chang, Devendra Singh Chaplot, Alexey Dosovitskiy, Saurabh Gupta, Vladlen Koltun, Jana Kosecka, Jitendra Malik, Roozbeh Mottaghi, Manolis Savva, and Amir Roshan Zamir. On evaluation of embodied navigation agents. ArXiv, Vol. abs/1807.06757, , 2018. [23] Gabriel Ilharco, Vihan Jain, Alexander Ku, Eugene Ie, and Jason Baldridge. General evaluation for instruction conditioned navigation using dynamic time warping. In Visually Grounded Interaction and Language (ViGIL), NeurIPS 2019 Workshop, Vancouver, Canada, December 13, 2019, 2019. [24] Ronghang Hu, Daniel Fried, Anna Rohrbach, Dan Klein, Trevor Darrell, and Kate Saenko. Are you looking? grounding to multiple modalities in vision-and-language navigation. In Proceedings of the 57th Annual Meeting of the ACL, pp. 6551-6557, Florence, Italy, July 2019. [25] Jesse Thomason, Daniel Gordon, and Yonatan Bisk. Shifting the baseline: Single modality performance on visual navigation \& QA. In Proceedings of the 2019 Conference of the NAACL, Volume 1 (Long and Short Papers), pp. 1977-1983, Minneapolis, Minnesota, June 2019. [26] Liyiming Ke, Xiujun Li, Yonatan Bisk, Ari Holtzman, Zhe Gan, Jingjing Liu, Jianfeng Gao, Yejin Choi, and Siddhartha Srinivasa. Tactical rewind: Self-correction via backtracking in vision-andlanguage navigation. In The IEEE CVPR, June 2019. [27] Xiujun Li, Chunyuan Li, Qiaolin Xia, Yonatan Bisk, Asli Celikyilmaz, Jianfeng Gao, Noah A. Smith, and Yejin Choi. Robust navigation with language pretraining and stochastic sampling. In Proceedings of the 2019 Conference on EMNLP-IJCNLP, pp. 1494-1499, Hong Kong, China, November 2019. [28] Sarah Wiegreffe and Yuval Pinter. Attention is not not explanation. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 11-20, Hong Kong, China, November 2019. Association for Computational Linguistics. [29] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In 2016 IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2016, Las Vegas, NV, USA, June 27-30, 2016, pp. 770-778. IEEE Computer Society, 2016. 表 3 生成的な方策 (Gen.) と識別的な方策 (Disc.) の R4R データセットにおける性能比較.太字は未知データセットにて CLS,nDTW,SDTW が一番目,二番目に良いモデルを示す. ## A 付録 ## A. 1 機械学習による VLN モデルの構築と,現実世界でのロボット等の動作との関係性 VLNにより学習されたモデルは,現実世界のロボットにデプロイすることが可能である.関連研究 [18] は,R2R のように予め経路グラフが作成されアノテーションされた状態で,仮想環境上で $55.9 \%$ という SR に対し,現実世界で $46.8 \%$ という SRを達成している。 さらに驚くべきことに,事前に収集されたマップ情報がない場合でも, $22.5 \%$ という SRを達成している. マップ情報が存在しない場合,関連研究 [18] では,自己の近傍位置からエージェントの次の移動可能な方向を予測する subgoal モジュールおよび $\left.\mathrm{SLAM}^{8}\right)$ と同時に機械学習モデルである VLN エージェントを使用することで,移動可能な方向を導出し,実際の移動を可能にしている。また,Matterport3D 環境と,実際にロボットを動かすための ROS シミュレータ上での精度が, EnvDrop モデル [21] における実験で 1\%以内で一致したという. ## A. 2 R4Rによる実験結果 表 3 は R4R における実験結果を示す.R4R では,経路上での単純な教師あり学習 (supervised) と,言語指示された経路に沿う形での学習 (fidelity-oriented) の 2 つのモデル学習を,識別的 (Disc.) および生成的 (Gen.) な方策の双方に対し行った。なお,R4R データセットにはテストセットが存在しないため,既知 (seen) 開発セットと未知 (unseen) 開発セットでの結果を示す. R4R の既存手法では SR が高いわりに CLS や SDTW が低いものも存在し,これは指示文書にて示された経路に従わずに目的位置を探索している可能性を示唆する.提案手法は一般に未知データセットにおけるスコアが高く,学習環境に過適合しにくい可能性がある. ## A. 3 言語に対応付けられた説明性 本論文では,言語モデルに与えられる動作入力に応じて,言語モデルの予測がどのように変化するかを可視化するため,トークンごとの予測エントロピー (TENT) を提案した. 指示文章 $X=\left[w_{1}, \cdot, w_{k}, \cdot\right]$ に対し, $T E N T=S\left(w_{k}\right)$ は以下のように定義され, $S\left(w_{k}\right) \in[0,1]$ を満たす. $ \begin{gathered} S\left(w_{k}\right)=-\sum_{a_{t} \in \mathcal{A}} q\left(a_{t}, w_{k}\right) \log _{|\mathscr{A}|} q\left(a_{t}, w_{k}\right), \\ q\left(a_{t}, w_{k}\right)=\frac{p\left(w_{k} \mid a_{t}, h_{t}, w_{: k-1}\right)}{\sum_{a_{t} \in \mathcal{A}_{t}} p\left(w_{k} \mid a_{t}, h_{t}, w_{: k-1}\right)} . \end{gathered} $ 式 5 はトークン予測スコアの動作集合による正規化を行っている. ここで, $\sum_{a_{t} \in A_{t}}$ は,ある時刻 $t$ での可能な動作集合 $A_{t}$ 要素全てに対する和であることを思い起こすと,このトークンごとの予測エントロピーは, そのトークン予測スコアが動作入力に応じてどのように変化するかを示す指標となる.さらに,可視化の都合上,1-TENTを考えると,1-TENT が大きいトークンほど,動作予測に大きな役割を持つと考えられる. 
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D9-1.pdf
# 文脈を考慮した句の平易化 河原井 翼 北陸先端科学技術大学院大学 s1910074@jaist.ac.jp ## 1 はじめに テキストの平易化は,文もしくは文章を同じ意味を持つ易しい表現に言い換える技術である。難解なテキストを子供や日本語を母語としない人にも理解しやすいようなテキストに直すなど,多くの応用場面がある。2 節で論じるように,日本語を対象とした平易化の先行研究の多くは単語の言い換えを対象としていた。すなわち, 文中に出現する難しい単語を同じ意味を持つ易しい単語に置き換える。しかしながら,人が文を易しく言い換える際には,句,節, あるいは文全体を言い換えることもあり,単語単位の言い換えだけでは不十分である。本研究では,句を単位にテキストを平易化する手法を探究する [1]. ただし, 平易化の対象とする句は,連続する「名詞助詞-動詞」という単語列に限定する。句を単位とした言い換えにより, 多様な平易化テキストを生成することを狙う。さらに,文脈を考慮して難解な句を平易な句に適切に言い換える手法を探究する。 ## 2 関連研究 梶原と山本は, 国語辞典の語釈文から平易な単語の言い換えルールを獲得することで, 小学生のための文書読解支援に向けたテキストの平易化を実現している [2]. 言い換え後の平易な単語を選択するための様々な手法を比較し, シソーラスに基づく単語の類似度を用いた平易化が最も良いと結論づけている. Kriz らは, 語彙的特徴と文脈的特徴を利用した難解語抽出モデルによって難解語を検出し,文脈を考慮した平易な単語への言い換えモデルを実現している [3]. 文脈を考慮することで従来手法よりも高い精度で難解語を抽出でき,また文脈に応じた好ましい言い換えが実現できることを示した,梶原と小町は,難解なテキストと平易なテキストからなるパラレルコーパスを自動構築し,これを訓練デー夕として難解なテキストを平易なテキストに翻訳するモデルを学習することで平易化を実現している [4]. \author{ 白井清昭 \\ 北陸先端科学技術大学院大学 \\ kshirai@jaist.ac.jp } 先行研究 $[2,3]$ は, 単語単位の言い換えを実現する手法であり、句を対象とした平易化ではない. 先行研究 [4] は文全体を言い換えるモデルであり,単語だけでなく句の言い換えも含まれるが,ユーザの要求に応じて平易化する句としない句を分けるといった調整が難しい. これらに対し, 本研究では,単語や文ではなく難解な句を入力として,これを平易な句に言い換える手法を探究する。 ## 3 提案手法 ## 3.1 概要 ある文脈に「 $N-P-V\lrcorner という$ 句が出現するとき,これを平易かつ同じ意味を持つ別の句に言い換える. ここで $N$ は名詞, $P$ は助詞, $V$ は動詞である。平易化の際には文脈を考慮する。すなわち,句 $N-P-V$ を言い換えたとき,それを含む元の文の意味が変わつたり不自然にならないことに留意する。 言い換えは以下の 3 種類の手法で実現する。 -名詞のみの言い換え名詞 $N$ をより平易な別の名詞に言い換える。 (例) 果敢-に-挑む $\rightarrow$ 積極的-に-挑む $\cdot$動詞のみの言い換え動詞 $V$ をより平易な別の動詞に言い換える。 (例) 果敢-に-挑む $\rightarrow$ 果敢-に-挑戦する - 名詞,動詞の言い換え $N, V$ ともに平易な別の単語に言い換える。 (例) 果敢-に-挑む $\rightarrow$ 積極的一に-挑戦する これらの手法で生成した言い換え候補のそれぞれについて,その妥当性をスコア付けし,最終的に最適なものをひとつ選択する。 ## 3.2 平易言い換え単語対の収集 名詞もしくは動詞を平易に言い換えるため,難解語と平易語の組から構成される平易言い換え単語対のデータベースを用意する。データベースは以下の 2つの辞書を用いて構築する. - SNOW D2: 内容語換言辞書 [5] 形態素解析ツール Juman の内容語辞書項目を人手で言い換えた辞書.この辞書では, 言い換え後の単語は必ずしも言い換え前よりも平易ではない。そこで, 日本語教育語彙表 [6] を参照し, 言い換え前, 後の語が日本語教育語彙表に揭載されていて,かつ言い換え後の単語のレべルが言い換え前の単語のレベルよりも低い組を選別する。言い換え対の数は 1,734 である。 - Simple PPDB : Japanese [7] 日本語単語の平易な言い換え辞書. 難解語,平易語, 難解語・平易語の難易度, 言い換え確率の組から構成される。本研究では, 言い換え確率が 0.1 以上のデータを選別して使用する. また,前述の SNOW D2 にあわせて,難易語,平易語がともに日本語教育語彙表に掲載されていて,かつ言い換え後のレベルが低い組を選別する。言い換え対の数は 10,351 である. ## 3.3 平易化する句の検出 与えられた文の形態素解析を行う。形態素解析ツールとして MeCab[8], 辞書として mecab-ipadicNEologd[9]を用いる. 次に, 名詞, 助詞, 動詞の連続を句として抽出する. この際, 動詞は基本形に変換する,名詞,動詞がともに平易言い換え単語対データベースの難解語として登録されているとき,平易化の対象句とする. ## 3.4 平易句のスコア付け 平易化の対象句 $P h=N-P-V$ に対し, 平易言い換え単語対データベースを用いて, 名詞のみ, 動詞のみ,名詞と動詞の両方を別の単語に言い換えて,言い換え後の平易句の候補 $P h_{i}^{\prime}=N_{i}^{\prime}-P-V_{i}^{\prime}$ を得る. $P h_{i}^{\prime}$ のそれぞれのスコアを計算し,それが最大となる $P h_{i}^{\prime}$ を選択する,スコアは 2 の観点から算出する。 ひとつは, 正確性, すなわち言い換え前後で意味を保持しているかどうかという観点, もうひとつは流暢性,すなわち言い換え後の句がどれだけ自然な句であるかという観点である. ## 3.4.1正確性のスコア $S$ を元の句 $P h$ を含む文, $S_{i}^{\prime}$ を $P h$ を $P h_{i}^{\prime}$ に言い換えた後の文とする,正確性 (faithfulness) のスコア $F A\left(P h_{i}^{\prime}\right)$ を式 (1)のように定義する. $ F A\left(P h_{i}^{\prime}\right)=\cos \left(\vec{S}, \vec{S}_{i}^{\prime}\right) $ $\vec{S}, \vec{S}_{i}^{\prime}$ は文 $S, S_{i}^{\prime}$ の分散表現, $\cos$ はコサイン類似度である。すなわち, 平易化前の文と後の文の分散表現が似ているほど,Phí正確性は高いとみなす.言い換え対象の句だけでなくそれを含む文全体の類似度を考慮することで,言い換え後の平易句が文脈に沿って適しているかを評価する。 文の分散表現は Sentence BERT[10] を用いて得る. Sentence BERT は, 事前学習した BERT(Bidirectional Encoder Representationsfrom Transformers)[11] を基に, Siamese Network を用いた fine-tuning によって文の分散表現を学習するモデルである。本研究では Sentence BERT 日本語モデル [12]を利用する. ## 3.4.2 流暢性のスコア 言い換え後の句 $P h_{i}^{\prime}$ の流暢性 (fluency) のスコア $F L\left(P h^{\prime}\right)$ を式 (2)のように定義する. $ F L\left(P h_{i}^{\prime}\right)=\frac{\operatorname{count}\left(P h_{i}^{\prime}\right)}{\sum_{j} \operatorname{count}\left(P h_{j}\right)} $ 式(2)の分子は句 $P h_{i}^{\prime}$ のコーパスにおける出現頻度,分母は全ての句の出現頻度の和である。すなわち,句 $P h_{i}^{\prime}$ がコーパスによく出現するほど,その句は自然な句であるとみなす。 句の出現頻度 $\operatorname{count}\left(P h_{j}\right)$ は京都大学格フレーム Ver 2.0 を用いて算出する. このデータはウェブから収集した日本語 100 億文から自動構築した格フレー ムであり, 用言と格要素の頻度, すなわち $N-P-V$ という句の頻度の情報も付与されている. 本研究では $N-P-V$ の頻度をそのまま $\operatorname{count}\left(P h_{j}\right)$ として用いる. ## 3.4.3 平易句のスコアの定義 最終的に句のスコアは $F A\left(P h^{\prime}\right)$ と $F L\left(P h^{\prime}\right)$ の対数の重み付き和で算出する。この際, 式 (3) と (4)の 2 通りのスコアを提案する。 $ \operatorname{Score} 1\left(P h_{i}^{\prime}\right)=\alpha \log F A\left(P h_{i}^{\prime}\right)+\log F L\left(P h_{i}^{\prime}\right) $ 正確性のスコア $F A\left(P h_{i}^{\prime}\right)$ は言い換え前後の文の分散表現のコサイン類似度なので,多くは 1 に近い値を取るのに対し, 流暢性のスコア $F L\left(P h_{i}^{\prime}\right)$ は句の相対出現頻度であるため, $1.0 \times 10^{-8}$ 付近の小さい値を取る. Score 1 では, パラメ夕 $\alpha$ は両者のスケールを合わせるために用いる.正確性と流暢性のスコアを同程度に評価することに注意していただきたい. $\alpha$ は次のように決める. 4.1 項で後述する開発データ (元の句とそれを平易化した句の集合) における全ての事例について $F A\left(P h^{\prime}\right), F L\left(P h^{\prime}\right)$ を算出し, それぞれの中央値 $M e_{f a}$ と $M e_{f l}$ を求め, $\alpha=\frac{M e_{f l}}{M e_{f a}}$ とする. $\operatorname{Score} 2\left(P h_{i}^{\prime}\right)=\beta \alpha \log F A\left(P h_{i}^{\prime}\right)+(1-\beta) \log F L\left(P h_{i}^{\prime}\right)$ Score 2 におけるパラメ夕 $\alpha$ は, Score 1 と同様に,2 つのスコアのスケールを合わせるためのものであり,前述のように開発デー夕を用いて決める。一方,パラメ夕 $\beta$ は, 正確性と流暢性のスコアに対する重み付けである。 ## 3.5 句の選択 予備実験では, 式 (3) または (4) が最大となる句を選択したところ, 名詞と動詞の両方を言い換える句よりも,名詞もしくは動詞のいずれかを言い換えた句が多く選ばれる傾向が見られた。これは,正確性のスコアFA は言い換え前後の文の類似度なので,単語を 2 つ置換した場合よりも 1 つだけ置換した場合の方が高くなる傾向があるためと考えられる。一方, 本研究の目的は句を対象とした言い換えであり,名詞と動詞の両方を言い換えた句をできるだけ生成したい。そこで,以下の方式により言い換え候補の中から句を選択する。 1. 名詞と動詞の両方を言い換えた平易句のスコアの値が間値 $T$ よりも大きいとき,つまり平易化された句として妥当である可能性が高いとき, それを選択する。 2. そのような句がないとき,全ての候補の中からスコアが最大のものを選択する。 閾値 $T$ は Score 1 と Score 2 とで個別に設定する. 設定方法については 4.2 項で述べる. ## 4 評価実験 ## 4.1 データセット まず,開発デー夕を作成した。毎日新聞の 2013 年の記事から, 3.3 項で述べた手法を用いて平易化の対象とする句,およびそれを含む文を 500 件抽出した。これらの句を提案手法によって平易な句に言い換えた。さらに,正確性を満たすか否か,自然さを満たすか否か,(両者を考慮して) 平易句として妥当であるか否か,を人手で判定した。この開発デー夕は,パラメータ $\alpha や T$ の最適化に用いた。 次に,評価デー夕を作成した。毎日新聞の 2013 年の記事から平易化の対象とする句を 100 件抽出した。これらは開発データとは異なる句を選んだ。評価デー夕に対し, 著者 2 名が独立して以下のアノテーションを行った。 ・元の句 $P h$ を含む文,およびそれを平易句の候補 $P h_{i}^{\prime}$ に置き換えた文を全て提示し,その中から平易な言い換えとして最も適切なものを選んだ。ここで最も適切な平易句とは,子供や日本語を非母語話者とする人に最もわかりやすい表現とした。 - 提案手法によって生成された平易句 ${ }^{11}$ に対し,平易さ (元の句と比べて易しくなっているか),意味の保持 (元の句と比べて意味が変わっていないか), 自然さ (言い換え後の文が自然か) という 3 つの観点から,15までの評点をつけた。 ## 4.2 パラメータの決定 3.4.3で述べたパラメータ $\alpha$ の決定について述べる。開発デー夕に対して生成された全ての平易句の候補についての $\log F A\left(p h_{i}^{\prime}\right)$ と $\log F L\left(p h_{i}^{\prime}\right)$ の中央値は, $M e_{f a}=-0.0111, M e_{f a}=-16.9$ となった. これに従い, $\alpha=\frac{M e_{f l}}{M e_{f a}}=\frac{-16.9}{-0.0111}=1.54 \times 10^{3}$ と決めた. 3.5 項で述べた,名詞,動詞の両方を言い換えた平易句を優先して選択するための閾値 $T$ の決定について述べる,基本的に,閾値 $T$ は,生成した平易句が適切である可能性が高いスコアの値を設定する.Score1を用いるとき,開発デー夕において,正確性のスコアが閾値 $t$ のときに平易句が正確性を満たすと判定したとき, $t$ を X 軸,判定精度を $\mathrm{Y}$軸としたグラフを得る (図 1(a)). 同様に,流暢性について閾値 $t$ を変化させたときの判定精度の変化も調べる (図 1(b))。これらの精度は, 開発デー夕のうち名詞,動詞を両方言い換えた句が選択されたデータのみを使用して算出する。こ机 2 つのグラフでは,閾値 $t$ をきくすると精度が高くなる傾向が見られる,精度が十分に大きいとき,具体的には図 1(a) で精度が 0.7 になるときの閾値 $T_{f a}$ は 0.994, 図 1(b) で精度が 0.8 になるときの閾値 $T_{f l}$ は $2.33 \times 10^{-7}$ であった.これらを式 (3) に当てはめ, $T=\alpha \times \log T_{f a}+\log T_{f l}=-24.5$ と設定した. 同様に,Score2を用いて句を選択する際の閾値  (a) 正確性 (b) 流暢性 図 1 開発データにおける平易句判定の精度 (Score 1) 図 2 開発デー夕における平易句判定の精度 (Score 2) $T$ を決定する. 開発データにおいて, 式 (4) に示す Score 2 の値が閾値 $t$ を越えたときに平易句が妥当であると判定したとき, $t$ を X 軸,判定精度を $\mathrm{Y}$ 軸としたグラフを図 2 に示す. $\beta=0.25,0.5,0.75$ のそれぞれについて,精度が 0.65 に達したときの閾値 $-15.5,-16.0,-14.0$ を $T$ と設定した。 ## 4.3 実験結果と考察 提案手法では,複数の平易句の候補の中からスコア付けに基づいて平易句をひとつ選択するが,この性能を評価する。具体的には, システムが選択した平易句が人手でよって選択された正解とどれだけ一致しているかを正解率と定義し,これを測る。表 1 は, スコア付けとして正確性のスコア $F A\left(P h_{i}^{\prime}\right)$ のみ, 流暢性のスコア $F L\left(P h_{i}^{\prime}\right)$ のみ, 両方 (Score 1 またはScore2)を用いたシステムについて,2 名の評価者を正解としたときの正解率を示している. 表 1 平易句の選択手法の評価 (正解率) 正確性あるいは流暢性のスコアのみを使用したときよりも,両方を考慮したスコア (Score 1 や Score2) の方が正解率が高い傾向が見られる. 特に評価者 2 についてその傾向が顕著である. Score 1 と Score 2 を比較すると,Score 2 の正解率は Score 1 よりも同等もしくはそれ以上であることから,Score2 の方が適切な平易句を選択するのに適していると言える. Score2における異なる $\beta$ の比較については, 評価者 1 と評価者 2 で優劣の傾向が異なるため, どれが最適を決めることはできない. $\beta$ の最適化は今後の課題である. この実験では複数の平易句の中から最良のものを選択しているが,スコアが最大の平易句ではなくても易しい言い換えとして妥当な句が生成されていることも多く, 何が最良の平易句なのかは判断が難しい. 評価者 1 と評価者 2 で同じ平易句を選択した割合は 0.61 であり, 決して高くはない. 提案システムの最高の正解率は 0.51 であり,二者の判定の一致率の $84 \%$ に達している. 提案手法によって生成された平易句を「平易さ」「意味の保持」「自然さ」の観点から評価した結果を表 2 に示す。どの観点についても,おおむね評点は 4 点以上であり, ある程度品質の高い平易句が生成されていることを確認した。また,表 1 の正解率が全般的に低いのに対し, 表 2 の評点が比較的高いのは,既に述べたように,システムが選択した平易句が人手で選ばれた平易句と一致していなくても妥当であるとみなせる場合が多かったためである. 表 2 平易句の品質評価 ## 5 おわりに 本論文は,名詞-助詞-動詞という句を平易に言い換える手法を提案し,その有効性を実験により示した. 今後は,正確性や流暢性を測る指標を洗練し, より適切に平易句を生成する手法を探究したい. 特に,現時点での流暢性は句の出現頻度だけを指標としており,平易化した句に置き換えた文全体がどれだけ自然かを評価するように改善するべきである。 2)閾値 $T$ の決め方が異なるため, Score 1 と $\operatorname{Score} 2(\beta=0.5)$ は同じシステムではない. ## 参考文献 [1]河原井翼. 句の言い換えによるテキストの平易化. 修士論文, 北陸先端科学技術大学院大学, 3 2021. [2]梶原智之, 山本和英. 語釈文を用いた小学生のための語彙平易化. 情報処理学会論文誌, Vol. 56, No. 3, pp. 983-992, 2015. [3]Reno Kriz, Eleni Miltsakaki, Marianna Apidianaki, and Chris Callison-Burch. Simplification using paraphrases and context-based lexical substitution. In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 207-217, 2018. [4]梶原智之, 小町守. 平易なコーパスを用いないテキスト平易化. 自然言語処理, Vol. 25, No. 2, pp. 223-249, 2018. [5]山本和英, 吉倉孝太郎. 用言等換言辞書を人手で作りました. 言語処理学会第 19 回年次大会, pp. 276-279, 2013. [6]日本語教育表 ver 1.0. http://jhlee.sakura.ne.jp/ JEV.html. (2020 年 12 月閲覧). [7]梶原智之, 小町守. Simple PPDB: Japanese. 言語処理学会第 23 回年次大会, pp. 529-532, 2017. [8]MeCab: Yet another part-of-speech and morphological analyzer. http://taku910.github.io/mecab/. [9]佐藤敏紀, 橋本泰一, 奥村学. 単語分かち書き辞書 mecab-ipadic-NEologd の実装と情報検索における効果的な使用方法の検討. 言語処理学会第 23 回年次大会, pp. 875-878, 2017. [10]Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In Proceedings of the Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3973-3983, 2019. [11]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, 2019. [12]園部勲. Sentence BERT 日本語モデル. https:// qiita.com/sonoisa/items/1df94d0a98cd4f209051. (2020 年 12 月閲覧).
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D9-2.pdf
# 言い換えラティスを用いたテキスト生成の性能改善 西原大貴 大阪大学大学院情報科学研究科 nishihara.daiki@ist.osaka-u.ac.jp 荒瀬 由紀 大阪大学大学院情報科学研究科 arase@ist.osaka-u.ac.jp ## 1 はじめに 言語構造を機械学習に導入するために,機械翻訳 $[1,2]$ や文書要約 $[3,4]$ ,対話における感情認識 [5],抽象的意味表現 [6-10] など多くの自然言語処理タスクにおいてグラフに基づく手法が提案されている。例えば,有向非巡回グラフの一種であるラティスは,テキストを単純な単語の系列ではなく単語間の構造情報を持たせて表現でき,テキストの分類 $[11,12]$ や生成 $[13,14]$ に広く活用されている. テキスト生成タスクでは,単語分割の曖昧性 $[13,14]$ や音声認識の曖昧性 [15-19] をラティスとして表現する Lattice2Seq モデルが,最も尤度の高い 1 つの系列を用いる Seq2Seq モデルよりも高い性能を達成することが知られている。本研究では,新たに語彙選択の曖昧性に着目し,入力テキストとその言い換えを用いてラティスを構築する。つまり,人間が書いたテキストの中の個々の表現は,必ずしも 「それでなくてはならない」表現とは限らないという仮説に基づき,入力テキストの語句の言い換えを考慮し,入力テキストの情報を増やすことによってテキスト生成の性能改善を試みる。英日翻訳および英語のスタイル変換における実験の結果,この手法による BLEU [20] 値の顕著な改善を確認した。 ## 2 提案手法 図 1 に示すように,本研究では言い換え辞書を用いて入力テキストを言い換えラティスに変換する.各ノードが 1 つの単語を表すラティスを構築し,入力テキストとその複数の言い換えをコンパクトに表現する.エッジは接続する 2 つのノード(単語)の繋がりを表しており,エッジの重みは言い換えとその前後の単語の繋がりの良さを表現する。このよう \author{ 梶原智之 \\ 愛媛大学大学院理工学研究科 \\ kajiwara@cs.ehime-u.ac.jp \\ 藤田篤 \\ 情報通信研究機構 \\ atsushi.fujita@nict.go.jp } 図 1 提案手法の全体図 に,ラティス構造を用いることで複数の言い換えを表現でき,訓練時と評価時の両方で大力テキストの情報を増やすことが可能となる。 ## 2.1 言い換えラティスの構築 入力の単語列 $s_{1} s_{2} \cdots s_{N}$ ( $N$ は単語数)に対し,次の手順でラティス $G=(V, E)$ を構築する. 1. ラティスの初期化 Sourceノードを文頭記号 $s_{0}$, Sinkノードを文末記号 $s_{N+1}$ とし, $s_{0} \rightarrow s_{1} \rightarrow$ $\cdots \rightarrow s_{N} \rightarrow s_{N+1}$ をパスとするグラフを作る. すなわち, $V=\bigcup_{i=0}^{N+1}\left.\{s_{i}\right.\}, E=\bigcup_{i=0}^{N}\left.\{\left(s_{i}, s_{i+1}\right)\right.\}$ とする. エッジ $(a, b)$ があるとき, $a$ を $b$ の親ノード, $b$ を $a$ の子ノードと呼ぶ. 2. 言い換えパスの追加入力テキストに含まれるあらゆる単語 $n$-gram $(n \in\{1,2, \cdots, N\})$ $s_{i} s_{i+1} \cdots s_{i+n-1}$ のそれぞれに対し,言い換え辞書を用いて言い換えを取得し,ラティスに加える. すなわち, 個々の句の言い換え $p_{1} p_{2} \cdots p_{M}$ が得られた時, $V \cup \bigcup_{k=1}^{M}\left.\{p_{k}\right.\}$ を新たな $V$ とし, $E \cup\left.\{\left(s_{i-1}, p_{1}\right),\left(p_{M}, s_{i+n}\right)\right.\} \cup \bigcup_{k=1}^{M-1}\left.\{\left(p_{k}, p_{k+1}\right)\right.\}$新たな $E$ とする。 図 2 統合前のラティス(例 1) 3. 重複ノードの統合ラティスに含まれるパスの集合が変化しないように,ノードの重複を統合する.共通の単語を含む句の言い換えを適用した場合に,ノードの重複が起こる. 重複するノード集合は実際には同一の単語を参照するため,これを統合する.ここで,ノード集合 $V^{\prime}(\subset V)$ の統合とは, $\forall v \in V^{\prime}$ を削除し, $v$ に接続していた全てのエッジと接続する新たなノー ドを 1 つ作ることを指す. 統合の大まかな手順としては,まずラティスを前向きおよび後ろ向きに探索し,統合するノード集合の候補を列挙する。次に,候補の中から実際に統合する集合を選び,ノードを統合する。 (a) 統合候補の列挙:ノードを Source ノードからトポロジカル順1) に探索し,各ノードの子ノードのうち,単語ラベルが同じでかつ親ノードの集合が同じであるノードの集合を列挙する. ここで列挙されたノード集合の集合 $M_{f}=\{\{v, w\} \mid \forall u \in V, \forall v, \forall w \in$ $C(u), v$ の単語ラベル $=w$ の単語ラベル $\}$ が,統合候補となる。なお, $C(u)$ は $u$ の子ノードの集合である. 同様に逆順にも探索し,統合候補 $M_{b}$ を得る.ただし探索の際には,先に見つかったノード集合から頜欲に統合されると仮定して残りの探索を進めるが,ここではまだ実際には統合しない. (b) ノードの統合 : $M_{f}$ 中のある候補 $A$ の要素が $M_{b}$ で網羅されている場合, $M_{b}$ を統合すれば $A$ の統合は必要ない. そこで統合が必要な, $M_{f}$ または $M_{b}$ の片方のみに含まれるノード $D=\left.\{v \mid \forall M \in M_{f}, \forall v \in M\right.\} \triangle\{v \mid$ $\left.\forall M \in M_{b}, \forall v \in M\right.\}^{2}$ を求める. 1)有向非巡回グラフにおけるノードのソート手法にトポロジカルソートがある。これは, 全ての異なる 2 つのノード $a, b$ に対し $a \neq b$ かつノード $a$ からノード $b$ へ到達可能ならば $a$ が $b$ より先にくるようにノードを並べる手法である.ここではトポロジカルソートによる並べ方をトポロジカル順と呼ぶ. 2)記号 $\Delta$ は,対称差集合を表す. 図 3 統合後のラティス (例 1) そして,統合候補 $M_{f}$ おひひ $M_{b}$ の各要素に対して,Dを含むノード集合 $M_{f}^{\prime}=\left.\{M \mid \forall M \in M_{f}, \exists v \in M, v \in D\right.\}$ および $M_{b}^{\prime}=\left.\{M \mid \forall M \in M_{b}, \exists v \in M, v \in D\right.\}$ を選び,これらのノード集合を統合する. 以下では統合処理の具体例を示す. 例 1 単語列 $a b c d$ と言い換 $え\{a b \rightarrow a$, $\mathrm{a} b \rightarrow \mathrm{b} \mathrm{a}, \mathrm{b} c \mathrm{~d} \rightarrow \mathrm{e} c \mathrm{~d}\}$ が与えられた場合を考える. 手順 1 および 2 により, これらの入力から図 2 のラティスを得る. ここで,文頭記号を $<\mathrm{s}>$ ,文末記号をく/s>としている. 手順 3.(a) では, $v_{0}$ の子ノード $v_{1}, v_{6}, v_{7}$ のうち $v_{1}, v_{6}$ はどちらも単語ラベルが a であり, かつ親ノードが $v_{0}$ であるため, $M_{f}=\left.\{\left.\{v_{1}, v_{6}\right.\}\right.\}$ が前向きの統合候補(赤囲み)と同定される.逆順でも同様に, $M_{b}=\left.\{\left.\{v_{4}, v_{10}\right.\},\left.\{v_{3}, v_{9}\right.\},\left.\{v_{6}, v_{8}\right.\}\right.\}$ が後ろ向きの統合候補(緑囲み)と同定される。 手順 3.(b) では, $M_{f}$ と $M_{b}$ のいずれか片方のみに含まれるノードとして $D=\left.\{v_{1}, v_{4}, v_{10}, v_{3}, v_{9}, v_{8}\right.\}$ が挙げられる. $M_{f}$ や $M_{b}$ の要素は, 全て 1 つ以上の要素が $D$ に含まれるため, $M_{f}^{\prime}=\left.\{\left.\{v_{1}, v_{6}\right.\}\right.\}$, $M_{b}^{\prime}=\left.\{\left.\{v_{4}, v_{10}\right.\},\left.\{v_{3}, v_{9}\right.\},\left.\{v_{6}, v_{8}\right.\}\right.\}$ となる. これらの $M_{f}^{\prime}$ おび $M_{b}^{\prime}$ の各要素を統合すると, 図 3 のラティスが得られる。 なお, 図 2 に含まれる<s>からく/s>までの全てのパスの集合は, $P=\{\langle\mathrm{s}\rangle \rightarrow \mathrm{a} \rightarrow \mathrm{e} \rightarrow \mathrm{c} \rightarrow \mathrm{d} \rightarrow\langle/ \mathrm{s}\rangle,\langle\mathrm{s}\rangle \rightarrow$ $\mathrm{a} \rightarrow \mathrm{b} \rightarrow \mathrm{c} \rightarrow \mathrm{d} \rightarrow\langle/ \mathrm{s}\rangle,\langle\mathrm{s}\rangle \rightarrow \mathrm{a} \rightarrow \mathrm{c} \rightarrow \mathrm{d} \rightarrow$ $\langle/ \mathrm{s}\rangle,\langle\mathrm{s}\rangle \rightarrow \mathrm{b} \rightarrow \mathrm{a} \rightarrow \mathrm{c} \rightarrow \mathrm{d} \rightarrow\langle/ \mathrm{s}\rangle\}$ であるが, 図 3 のように統合しても,Pに変化はない. 例 2 手順 3.(b) が必要となる例として,図 4 のラティスからは, $M_{f}=\left.\{\left.\{v_{3}, v_{5}\right.\}\right.\}$, $M_{b}=\left.\{\left.\{v_{2}, v_{3}\right.\},\left.\{v_{5}, v_{7}\right.\}\right.\}, D=\left.\{v_{2}, v_{7}\right.\}$ が得られる. $\left.\{v_{3}, v_{5}\right.\} \in M_{f}$ の要素 $v_{3}, v_{5}$ はどちらも $D$ に含まれないため, $M_{f}^{\prime}=\{\}$ となる. $\left.\{v_{2}, v_{3}\right.\},\left.\{v_{5}, v_{7}\right.\} \in M_{b}$ はそれぞれ $v_{2}, v_{7}$ が $D$ に含まれるため, $M_{b}^{\prime}=\left.\{\left.\{v_{2}, v_{3}\right.\},\left.\{v_{5}, v_{7}\right.\}\right.\}$ となる. $M_{f}^{\prime}$ および $M_{b}^{\prime}$ の統合を行うと,図 5 が得られる. 図4統合前のラティス(例 2) 図 5 統合後のラティス(例 2) 図 6 全ての候補を統合する失敗例 この例において,手順 3.(b)を省略,つまり $M_{f}^{\prime}=M_{f}$ として $\left.\{v_{3}, v_{5}\right.\}$ も統合した場合, 図6のラティスが得られる. このとき, パス $v_{0} \rightarrow v_{2 \cdot 3} \rightarrow v_{4}$ とパス $v_{0} \rightarrow v_{3.5} \rightarrow v_{4}$ で表現される単語ラベルの系列は同じであり,またパス $v_{0} \rightarrow v_{5.7} \rightarrow v_{8}$ とパス $v_{0} \rightarrow v_{3.5} \rightarrow v_{8}$ で表現される単語ラベルの系列も同じであるため,ノード $v_{3.5}$ およびこれに接続するエッジを削除してもラティス全体のパス集合は図 5 の場合と変わらない. 手順 3.(b) で $M_{f}^{\prime}$ および $M_{b}^{\prime}$ を考慮することによって,重複ノードを持たない図 5 のラティスが得られる。なお,重複ノードを避ける理由については 2.3 節で説明する. ## 2.2 エッジの重み付け 言い換えとその前後の単語の繋がりの良さを表現するため, 2.1 節で得られたラティス $G=(V, E)$ の各エッジに,次の手順で重み付けを行う。 1. エッジ $\left(v_{j}, v_{k}\right) \in E$ で接続されている $2 \supset の$ ノードの単語ラベルの 2-gram 言語モデルスコアを,当該エッジの重み $w_{j k}$ とする。 2. 各ノード $v_{j}$ の出力エッジの重みの和が 1 になるよう,エッジの重みを正規化する.具体的には,ノード $v_{j}$ の子ノード集合 $C\left(v_{j}\right)$ を考え, $ w_{j k}^{\prime}=\frac{w_{j k}}{\sum_{v_{l} \in C\left(v_{j}\right)} w_{j l}} $ をエッジ $\left(v_{j}, v_{k}\right)$ の新たな重みとする. ## 2.3 Lattice2Seq モデル 言い換えラティスを大力として, Sperberら [19]の Lattice2Seq モデルでテキストを生成する. Sperber らは, Transformer [21] の符号化器における Positional Encoding (PE) と自己注意機構を改変し, ラティス構造の入力を可能にした. PEでは, 各ノードの位置を Sourceノードからの最長距離として定義した. また,単語間の接続関係およびエッジの重みを表現表 1 実験に使用したデータセット するために,自己注意機構にマスクを導入した。 ラティスに重複ノードが含まれる場合, PE の位置が異なる場合がある. 例えば図 6 のラティスにおいて,Sourceノード $v_{0}$ の位置を 0 とすると,同一の単語を参照する $v_{2.3}$ と $v_{3.5}$ の位置はそれぞれ 2 と 1 であり,異なる。このため位置を表す分散表現も異なるが,同一の単語を参照するノード同士には同一の分散表現を割り当てたい. そこで本研究では,重複ノードを含まない言い換えラティスを設計する。 ## 3 実験 提案手法の有効性を確認するため,表 1 に示す英日翻訳および英語のスタイル変換の実験を行った. 英日翻訳には,田中コーパズ3)の一部である small parallel enja ${ }^{4}$ を使用した. スタイル変換には, カジュアルな英文とフォーマルな英文からなるパラレルコーパスである $\mathrm{GYAFC}^{5)}$ [22]を使用した。本実験では, Entertainment \& Music (E\&M) と Family \& Relationships (F\&R) の両方のドメインにおいて,カジュアルからフォーマルへの変換を行う.評価には sacreBLEU ${ }^{6)}[20]$ で求めた BLEU 値を用いた. ## 3.1 実験設定 前処理として, Moses ツールキット7) [23] の normalize-punctuation および tokenizer を使用した. また,本実験で使用する言い換え辞書が小文字化されているため, Moses ツールキットの lowercase 3) http://www.edrdg.org/wiki/index.php/Tanaka_Corpus 4) https://github.com/odashi/small_parallel_enja 5)評価用データは,4つの参照文を持つマルチリファレンス. 6) https://github.com/mjpost/sacrebleu 7) https://github.com/moses-smt/mosesdecoder 表 2 英日翻訳とスタイル変換(E\&M・F\&R)の BLEU を用いて,GYAFC の入力側も小文字化した. small parallel enja は,事前に単語分割および英語の小文字化が行われているため,それに従った。両タスクで,さらに Byte Pair Encoding [24]を用いて語彙サイズ 32,000 のサブワード化を行った. 言い換え辞書には,PPDB 2.08) [25] のうち,英語の Lexical および Phrasal(S サイズ)を用いた.なお,収録されている語句は,事前に小文字化されている.ノイズの影響を抑えるため, 適用する言い換えは PPDB 2.0 におけるスコアが $\theta$ 以上のものに限定した。このスコアの中央値は 5.3 のため, $\theta \in\{5.1,5.2,5.3,5.4,5.5\}$ の中から,検証用データにおける性能が最も高い值を選択した。 2-gram 言語モデルの訓練には, $\mathrm{CC}-100^{9}$ ) の en を用いた. CC-100 (en) は約 556 億トークンからなる英語の大規模な単一言語コーパスである. 前処理として Moses ツールキットの normalize-punctuation, tokenizerおよび lowercaseを適用し, $\operatorname{KenLM}^{10)}$ [26] によって 2-gram 言語モデルを訓練した。 Lattice2Seq モデルの実装には, JoeyNMT ${ }^{11)}$ [27]を用いた. 符号化器および復号化器には 4 層 4 ヘッドの Transformer [21]を使用した. 埋込層および隠れ層は 512 次元とし, 符号化器と復合化器で埋込層の重みを共有した.埋込層および隠れ層のドロップアウト率は 0.2 とした. 最適化には Adam [28] を使用した. バッチサイズは 4096 で,英日翻訳タスクでは 200 回,スタイル変換タスクでは 400 回パラメー タを更新するごとに検証用データにおけるパープレキシティを評価し, 連続で 32 回改善しなくなったところで訓練を終了した. スケジューラには plateau を用い, 初期の学習率を 0.0002 とし, 連続で 8 回改善しなくなる毎に減衰率 0.7 を乗じた。 ## 3.2 比較手法 Seq2Seq 言い換えを適用しないべースライン.  表 3 PPDB 2.0 スコアの閾値 $\theta$ と検証用データの BLEU MultiSource 入力テキストを言い換えるが,ラティスを構築しない比較手法. PPDB に基づく言い換え生成器 ${ }^{12)}$ [29] によって $(r-1)(r \in\{2,3,4,5\})$ 種類の言い換えを取得し,入力文を含めた $r$ 文を連結して Seq2Seq モデルに入力する. $r$ は,検証用データにおける性能が最も高い值を選択した。 ## 3.3 実験結果 表 2 亿, 英日翻訳(翻訳)およびスタイル変換 (E\&M および F\&R)の BLEU 值を示す.英日翻訳では,提案手法は Seq2Seq と比較して 2.12 ポイント, MultiSource と比較して 2.13 ポイント,それぞれ大幅に BLEUを改善した. スタイル変換でも,提案手法は Seq2Seq から 3.03 ポイント(E\&M)および 3.90 ポイント (F\&R), MultiSource から 4.12 ポイント(E\&M)および 1.38 ポイント(F\&R),それぞれ大幅に BLEU を改善した.これらの実験結果から,言い換えラティスの有効性を確認できた。 表 3 に,使用する言い換えの閾値 $\theta$ を変化させたときの検証用データにおける評価結果を示す。 $\theta$ が小さいと低品質な言い換えを含んでしまい,大きいと有用な言い換えを使用できないことが分かる. ## 4 おわりに 本研究では,語彙選択の曖昧性をモデル化するために,入力テキストおよび言い換え辞書からラティスを構築する手法を提案した. 英日翻訳およびスタイル変換の実験を通じて,提案手法によって性能を大幅に改善できることを示した. 今後は,語順の交替など語句の言い換え以外の言い換えへの拡張を検討する。また,テキスト分類など他のタスクにおける有効性を検証する。 ## 謝辞 本研究は JST(ACT-X,課題番号: JPMJAX1907) の支援を受けたものです. 12) https://cwiki.apache.org/confluence/pages/viewpage. action?pageId=65142863 ## 参考文献 [1] Liangyou Li, Andy Way, and Qun Liu. Graph-Based Translation Via Graph Segmentation. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 97-107, 2016. [2] Jasmijn Bastings, Ivan Titov, Wilker Aziz, Diego Marcheggiani, and Khalil Sima'an. Graph Convolutional Encoders for Syntaxaware Neural Machine Translation. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1957-1967, 2017. [3] Danqing Wang, Pengfei Liu, Yining Zheng, Xipeng Qiu, and Xuanjing Huang. Heterogeneous Graph Neural Networks for Extractive Document Summarization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6209-6219, 2020. [4] Wei Li, Xinyan Xiao, Jiachen Liu, Hua Wu, Haifeng Wang, and Junping Du. Leveraging Graph to Improve Abstractive MultiDocument Summarization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6232-6243, 2020. [5] Taichi Ishiwatari, Yuki Yasuda, Taro Miyazaki, and Jun Goto. Relation-aware Graph Attention Networks with Relational Position Encodings for Emotion Recognition in Conversations. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 7360-7370, 2020. [6] Jie Zhu, Junhui Li, Muhua Zhu, Longhua Qian, Min Zhang, and Guodong Zhou. Modeling Graph Structure in Transformer for Better AMR-to-Text Generation. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 5459-5468, 2019. [7] Shaowei Yao, Tianming Wang, and Xiaojun Wan. Heterogeneous Graph Transformer for Graph-to-Sequence Learning. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7145-7154, 2020. [8] Linfeng Song, Ante Wang, Su Jinsong, Yue Zhang, Kun Xu, Yubin Ge, and Dong Yu. Structural Information Preserving for Graph-toText Generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7987-7998, 2020. [9] Yanbin Zhao, Lu Chen, Zhi Chen, Ruisheng Cao, Su Zhu, and Kai Yu. Line Graph Enhanced AMR-to-Text Generation with MixOrder Graph Attention Networks. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 732-741, 2020. [10] Deng Cai and Wai Lam. AMR Parsing via GraphSequence Iterative Inference. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1290-1301, 2020. [11] Yue Zhang and Jie Yang. Chinese NER Using Lattice LSTM. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, pp. 1554-1564, 2018. [12] Xiaonan Li, Hang Yan, Xipeng Qiu, and Xuanjing Huang. FLAT: Chinese NER Using Flat-Lattice Transformer. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6836-6842, 2020. [13] Jinsong Su, Zhixing Tan, Deyi Xiong, Rongrong Ji, Xiaodong Shi, and Yang Liu. Lattice-Based Recurrent Neural Network Encoders for Neural Machine Translation. In Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence, pp. 3302-3308, 2017. [14] Fengshun Xiao, Jiangtong Li, Hai Zhao, Rui Wang, and Kehai Chen. Lattice-Based Transformer Encoder for Neural Machine Translation. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3090-3097, 2019. [15] Huda Khayrallah, Gaurav Kumar, Kevin Duh, Matt Post, and Philipp Koehn. Neural Lattice Search for Domain Adaptation in Machine Translation. In Proceedings of the The 8th International Joint Conference on Natural Language Processing, pp. 20-25, 2017. [16] Matthias Sperber, Graham Neubig, Jan Niehues, and Alex Waibel. Neural Lattice-to-Sequence Models for Uncertain Inputs. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1380-1389, 2017. [17] Daniel Beck, Trevor Cohn, and Gholamreza Haffari. Neural Speech Translation using Lattice Transformations and Graph Networks. In Proceedings of the Thirteenth Workshop on Graph-Based Methods for Natural Language Processing, pp. 26-31, 2019. [18] Pei Zhang, Boxing Chen, Niyu Ge, and Kai Fan. Lattice Transformer for Speech Translation. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 6475-6484, 2019. [19] Matthias Sperber, Graham Neubig, Ngoc-Quan Pham, and Alex Waibel. Self-Attentional Models for Lattice Inputs. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1185-1197, 2019. [20] Matt Post. A Call for Clarity in Reporting BLEU Scores. In Proceedings of the Third Conference on Machine Translation, $\mathrm{pp}$. 186-191, 2018. [21] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention Is All You Need. In Proceedings of the 31st Conference on Neural Information Processing Systems, pp. 5998-6008, 2017. [22] Sudha Rao and Joel Tetreault. Dear Sir or Madam, May I Introduce the GYAFC Dataset: Corpus, Benchmarks and Metrics for Formality Style Transfer. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 129-140, 2018. [23] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris CallisonBurch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open Source Toolkit for Statistical Machine Translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics, Demo and Poster session, pp. 177-180, 2007. [24] Rico Sennrich, Haddow Barry, and Alexandra Birch. Neural Machine Translation of Rare Words with Subword Units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 1715-1725, 2016. [25] Ellie Pavlick, Pushpendre Rastogi, Juri Ganitkevitch, Benjamin Van Durme, and Chris Callison-Burch. PPDB 2.0: Better paraphrase ranking, fine-grained entailment relations, word embeddings, and style classification. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing, pp. 425-430, 2015. [26] Kenneth Heafield. KenLM: Faster and Smaller Language Model Queries. In Proceedings of the 6th Workshop on Statistical Machine Translation, pp. 187-197, 2011. [27] Julia Kreutzer, Jasmijn Bastings, and Stefan Riezler. Joey NMT: A Minimalist NMT Toolkit for Novices. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (System Demonstrations), pp. 109-114, 2019. [28] Diederik P. Kingma and Jimmy Lei Ba. Adam: A Method for Stochastic Optimization. In Proceedings of the 3rd International Conference on Learning Representations, pp. 1-15, 2015. [29] Courtney Napoles, Chris Callison-Burch, and Matt Post. Sentential Paraphrasing as Black-Box Machine Translation. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (Demonstrations), pp. 62-66, 2016.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D9-3.pdf
# ファクトチェック支援のための含意関係認識システム 栗原健太郎 早稲田大学基幹理工学部 kkurihara@akane.waseda.jp } 河原大輔 早稲田大学基幹理工学部 dkw@waseda.jp ## 1 はじめに 2016 年アメリカ大統領選挙以降、フェイクニュー スという言葉が世界中に浸透している。フェイクニュースとは虚偽の情報で作られたニュース、すなわちデマ情報を意味する言葉であり、フェイクニュースという言葉の拡大は、政治家の発言や現地メディアの報道の真実性に関する議論を勃発させていた。しかし、それら発言や報道が、時として大統領選挙の結果などの重要な局面で大きな影響を与えうる。故に、報道機関では不正のない正当な情報の提供のために、発信する情報の真実性の向上と外部の言説の適切な利用を目的としたファクトチェックの需要が高まっている。 しかしファクトチェックは、昨今のニュースの情報源の膨大さ故に大変な労力を要する作業である。日本においても、 $\mathrm{InFact}^{11}$ や毎日新聞などのジャーナルが積極的なファクトチェックを行っているが、ファクトチェックの自動化が実現していない現状においては、 その作業は人手や時間のかかる作業となっている。本研究では、含意関係認識を活用したファクトチェック支援システムを考える。システムの概略図を図 1(a) に示す。本システムは以下のフローで構成される。 1. 疑義言説について関連する文書集合を取得 2. 疑義言説とその関連文書の含意関係認識 ここで疑義言説とは、ファクトチェックの対象となる真実かどうか疑わしい言説である。本研究では疑義言説を 1 文で表せるものとする。 本研究では、上記フローのうち、2の含意関係認識のステップ (図 1(b)) の実現を目指す。このステップは疑義言説と関連文書との含意関係認識であるが、既存の含意関係認識リソースは文ペアを対象にしており、 これらを利用することが難しい。そこで、本研究では、このステップを実現するための要素技術として、 1) https://infact.press/疑義言説 1 文と関連文書中の 1 文との含意関係認識を行うシステム (図 1(c))を構築する。このシステムを NLIFC (NLI system for FactCheck) と呼ぶ。 NLIFC の訓練・評価のためにデータセットを構築した。これを FCSNLI (FactCheck Sentence NLI デー タセット) と呼ぶ。SNLI [1] や MultiNLI [2] などの既存の含意関係認識データセットでは、文ペアが contradiction (矛盾)", “entailment (含意)”, “neutral (中立)” のいずれかのラベルをもち、2 文間には何らかの関係性がある。しかし、ファクトチェックにおいては、疑義言説と関連文書中の 1 文がまったく関係ないことも多い。そこで、FCSNLI のラベルは、上記 3 ラベルに “unrelated (無関係)”を加えた 4 ラベルとする。訓練データは、既存 3 ラベルの識別性能向上を目的として SNLI の和文翻訳データセットである JSNLI [3] “unrelated” ラベルの識別性能向上を目的としてニュー ス記事のコーパス、数値表現の識別性能向上を目的とした擬似データの 3 種類から構成する。評価データは、ファクトチェック・イニシアティブ (FIJ) が提供する疑義言説データベースに掲載されている疑義言説を基に作成する。 NLIFC のモデルは文脈言語モデル BERT [4]を用いる。実験の結果、FCSNLI の 4 ラベルにおける F1 值は 0.653、“unrelated”以外の 3 ラベルのみにおける F1 值は 0.538 となった。本研究における提案手法および構築したデータセットは、含意関係認識システムを活用したファクトチェック支援の第一歩になると考えている。 ## 2 関連研究 田上ら [5] はファクトチェックすべきニュース記事 (要検証記事) の探索支援に関する研究を行っている。具体的には、ファクトチェックをするべきであるニュース記事の選別のための端緒情報の特定、および特定した端緒情報を利用したニュース記事の検証必要度のランク付けによる要検証記事の探索支援の仕組みを構築している。本稿では、このような仕組みによっ (a) 図1ファクトチェック支援システムの概略図 て抽出された要検証記事のファクトチェックを図 1 のフローで支援することを想定し、疑義言説と関連文書の含意関係認識システム構築の前段階として、疑義言説と関連文書中の文との含意関係認識システムを提案する。 ## 3 ファクトチェック支援のための 含意関係認識システム ファクトチェック支援のための含意関係認識システムとして NLI system for FactCheck (NLIFC) を提案する。本モデルは図 1(c)、すなわち疑義言説と関連文書中の文の 2 文間の含意関係認識を行うシステムである。本研究では、疑義言説は 1 文で表されるものを扱うので疑義言説文、関連文書中の文をリソース文と呼ぶ。 提案モデルは BERT (Bidirectional Encoder Representations from Transformers) [4] をべースとする。本研究では BERT 日本語 Pretrained モデル [6] を使用し、ファクトチェック支援への活用に向けた含意関係認識夕スクで fine-tuning する。本タスクにおける fine-tuning のために、4 節で述べる FCSNLI 訓練データを用いる。入力はリソース文と疑義言説文の 2 文であり、出力ラベルは "contradiction", "entailment", "neutral", “unrelated”の 4 ラベルのいずれかである。 リソース文と疑義言説文は形態素解析器 Juman $++^{2)}$ で分かち書きを行ったトークン列を入力とし、リソー ス文と疑義言説文の間に [SEP] トークンを追加している。 ## 4 ファクトチェック支援に向けた 含意関係認識データセットの構築 NLIFC の訓練および評価を行うデータセットとして、FCSNLIを構築する。本データセットのラベルは 1 節で述べたとおり、“contradiction”, “entailment, 2) http://nlp.ist.i.kyoto-u.ac.jp/?JUMAN\%2B\%2B "neutral", "unrelated”の 4 ラベルとした。 ## 4.1 訓練データ FCSNLI 訓練データは以下の 3 つのデータセットから構成する。 - JSNLI (contradiction: 182964, entailment: 182583, neutral: 182467, unrelated: 0 ) ・ unrelated データセット (contradiction: 0 , entailment: 0 , neutral: 0 , unrelated: 180000 ) $\cdot$ figure データセット (contradiction: 248556, entailment: 248556, neutral: 30360, unrelated: 0) unrelated データセットは、JSNLI データに含まれていない unrelated ラベルのデータを追加する目的で構築したデータセットである。データのペアのうち一方は livedoor ニュースコーパスの文を使用し、他方には JSNLI データセットの文を使用した。figure データセットは、NLIFC の数値表現の認識性能向上を目的として作成した擬似データセットである。リソース文・疑義言説文の数値を変化させ、対応する正解ラべルを与えることで擬似データの生成を行った。figure データセットの例を付録の表 6 に示す。 ## 4.2 評価データ FCSNLI 評価データはファクトチェック・イニシアティブ (FIJ) が提供する疑義言説データベース ClaimMonitor2 に掲載されている疑義言説のうち、 Infact や毎日新聞などのジャーナルが検証を行った言説を基に構築した。データセットの構築は以下の 2 点に留意した上で人手で行った。 1. 人には容易に含意関係認識が可能となるようなデータセット 2. 既存の NLI データセットよりも平均文字数が多くなるような文のペアのデータセット これらは、既存の NLI データセットにおける以下の特 & \\ 表 1 FCSNLI 評価データの例 表 $2 \mathrm{JSNLI} \cdot \mathrm{FCSNLI}$ における文の平均文字数 徴との差別化を図ったものである。 1. ペアに無関係のものがほとんど含まれていない。 2. 文の平均文字数が短い。 FCSNLI 評価データの例を表 1 に示す。データ数は開発 (dev) データが 305 ペア、テスト (test) データが 200 ペアとなっており、ラベルの比率は unrelated: 既存 3 ラベル $=4: 1$ である。文の平均文字数は表 2 のように JSNLI と比較して多くなった。 ## 5 含意関係認識システムの評価実験 ## 5.1 実験設定 NLIFC の構築にあたって、BERT の学習の際のハイパーパラメータを付録の表 7 に示す。また、NLIFC の性能評価のため、figure データセットを除いて fine-tuning したモデル (以下 NLIFC - figure) と、JSNLI データセットのみを用いて fine-tuning したモデル (以下 NLIFC - unrelated - figure) も同様の設定で構築する。 モデルの性能評価には FCSNLI と JSNLI の 2 つの評価データを使用した。このうち JSNLI は unrelated 以外の 3 ラベルで構成されているデータセットであるため、NLIFC と NLIFC - unrelated - figure の比較を通じて unrelated の学習が与える既存 3 ラベルの識別性能への影響の調査が可能となる。精度の測定に関して、 JSNLI データセットについては正答率をスコアとし、 FCSNLI データセットについてはマイクロ平均により算出した $\mathrm{F}$ 値をスコアとしており、3ラベルデータのスコア算出は unrelated データ以外について行った。 ## 5.2 結果・考察 FCSNLI の全てのデータで訓練した結果を表 3 の NLIFC の行に示す。提案手法は JSNLI データセットにおいて、精度 0.922 を達成しており、JSNLI モデルのスコアとわずか $0.5 \%$ 差であることから、unrelated の学習に伴う 3 ラベルの識別性能の低下は生じていないことを示している。また、FCSNLI - test の 4 ラベルデータで評価した結果は 3 ラベルデータで評価した結果と比較して 11.5 ポイント上回っている。これは NLIFC の unrelated ラベルの識別性能が他の 3 ラベルの識別性能よりも性能が高いことを示している。一方で 3 ラベルデータにおける 0.538 というスコアは、 JSNLI タスクで高精度を達成している BERT も、ファクトチェック支援などの実応用における含意関係認識に関しては性能が不十分であることを示している。 NLIFC の予測例を表 4 に示す。(1)のようにリソー ス文の肯定表現と疑義言説の否定表現を正しく認識できた例が得られた一方で、(2)(3) のように “entailment” と判定してしまう誤り例も得られた。これはリソース文と疑義言説文とで一致する表現が多いことから否定表現の認識が適切に行われず“entailment” と判定しまったと考えられる。次に (4) のようにリソース文あるいは疑義言説文が長文である場合の誤り例も多く見られた。これは長文における文脈の考慮が正確にできていないことに起因していると考えられる。(5)はリソース文の前半の「新型コロナ〜論文が存在する一方で」と疑義言説文との含意関係は “entailment”、リソース文の後半の節「WHO は〜続いている。」と疑義言説文との含意関係は “contradiction” となるという問題であり、このような節ごとに異なる含意関係を持つデータに関しても誤った判定をしていた。 表 3 評価結果 \\ 表 4 NLIFC の予測例 & リソース文 & 疑義言説文 \\ 表 5 NLIFC と NLIFC - figure の予測例 ## 5.3 Ablation 実験 NLIFC 構築において fine-tuning に用いた figure デー タセットが与えた影響に関して考える。NLIFC から figure データセットを除いて学習したモデル (NLIFC figure) の評価結果を表 5 に示す。開発データ同士での比較ではほとんどスコアに差はなかったものの、テストデータにおいては NLIFC が NLIFC - figure のスコアを、4 ラベル評価・3 ラベル評価の両方で上回った。この結果は figure データセットの有効性を示している。各モデルの出力例を表 5 に示す。( I ) の他 3 件の正解ラベルが “contradiction” の数値表現を含むデー タに関して同様に NLIFC のみが正解できた一方、(II ) の他 2 件の正解ラベルが “neutral” の数値表現を含むデータに関しては NLIFC - figure のみが正解した。 これは、figure データセットの多くが “contradiction” と “entailment”の 2 つのラベルから構成されるため、 neutral の数値表現に関しての学習が不十分であることが考えられる。 ## 6 おわりに 本研究では、疑義言説と関連文書との含意関係認識システム構築の前段階として、疑義言説と関連文書中の文との含意関係認識システムとして NLIFC を提案した。また、ファクトチェックへの応用を想定した含意関係認識システムの評価指標として FCSNLI データセットを構築した。 実験結果は、FCSNLI タスクが JSNLI タスクと比較して難易度の高いタスクであることを示している。一方で、提案手法は FCSNLI タスクで $\mathrm{F} 1$ 値 0.653 を達成しており、今後のファクトチェック支援の第一歩になると考えている。今後は、MultiNLIなどのドメインのカバレッジが広い NLI データセットの和文翻訳デー タセットを用いた FCSNLI データセットの拡張による含意関係認識システムの性能向上を図るとともに、 データセット拡張の自動化も検討していく。また、図 1(b) のような疑義言説と複数文から成る関連文書の含意関係認識システムの実現が今後の課題である。 ## 参考文献 [1]Samuel R. Bowman, Gabor Angeli, Christopher Potts, and Christopher D. Manning. A large annotated corpus for learning natural language inference. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 632-642, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [2]Adina Williams, Nikita Nangia, and Samuel Bowman. A broad-coverage challenge corpus for sentence understanding through inference. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1112-1122, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [3]吉越卓見, 河原大輔, 黒橋禎夫. 機械翻訳を用いた自然言語推論データセットの多言語化. 研究報告自然言語処理 (NL), pp. $1-8,2020$. [4]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 41714186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [5]田上翼, 朝野広樹, 楊井人文, 山下亮, 小宮篤史, 藤村厚夫, 町野明徳, 乾健太郎.ファクトチェックを必要とするニュース記事の探索の支援. 言語処理学会第 24 回年次大会, pp. $404-407,2018$. [6]柴田知秀, 河原大輔, 黒橋禎夫. Bert による日本語構文解析の精度向上. 言語処理学会第 25 回年次大会, pp. 205 208, 2019. ## A 付録 & "山田君は 3 月 15 日に沖縄に滞在していた。 \\ 表 6 figure データセットの例 表 7 ハイパーパラメータの設定値
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D9-4.pdf
# 会話文の常識推論の実現に向けた一考察 -関連性理論及びポライトネスによるローカル化をつうじて- 太田 博三 放送大学教養学部 9924658973@campus.ouj.ac.jp ## 1 はじめに 人工知能における推論は,ここ数年で技術的に飛躍したが,理論的には新たな進展はあまり見受けられない. 本稿では,後者についてこれまでの動向を検討し,新たな提案を行う. 物理的な人工知能の推論は, 最近の BERT や RoBERTa などの派生モデルの発展をつうじて, 自然言語処理でも質問応答や情報検索で精度が向上し, pre-trained moel 及び masked model の構造は, 確立したと言える. また,言語資源としての国際的なタスクでも,主にクラウドソーシングの活用により Wikidata から ConceptNet に至るまで進展が見込まれている. しかし, このままでは会話文での常識推論の実現は難しく, 当面, 書き言葉での常識推論に終止している。そこで,理論的側面での進展は決して多くない.この理由は,各国の言語的特徴にあると考え,関連性理論やポライトネスの視点と常識推論に当てはめながら,家族内や親友同士などのプライベート間,もしくはローカル環境における共有される推論を,言語的な視点で大枠を示したい. 以下に本稿の大きな流れを示す. これまでの各推論の流れと課題を検討し, 先行研究も含めた議論とする. 1)記号論理学の推論から字義的推論(フレ一ム)へ,2)字義的推論の書き言葉から Wikidata を加えた常識推論へ,3)国際的なベンチマーク・ タスクによる常識推論の資源について,ここでは含意関係認識のタスクは本当に含意を類推していたか, また,NN による言語モデル(BERT)への常識推論資源の適用は可能か,さらに時間的推論の活用法なども考察する. 4 )ローカル環境に向けて, 敬語コーパスの必要性を吟味し, 書き言葉の常識推論から話し言葉の会話推論の課題や枠組みを提供する. ## 2 研究の背景と目的 以下の対話応答の実現に向けて, 次の 3 つを追求することに始まる。 1) 言語学の語用論や敬語・ポライトネス, 2) 認知科学や脳科学でのプログラミング言語やアーキテクチャへの適用 3) BERT などの深層学習の適用とその可能性 妻:「コーヒー飲む?」 夫: 「明日、早いから」 この会話には,まず,(「おたし」や「あなた」、「飲まないよ」)などの主語・述語などの省略が考えられる (主に言語学の視点). 次に, 仕事があるなどのプライベートでの共通認識や暗黙知もしくは含意や推意が存在している (主に関連性理論)。さらに,コー ヒーを飲むとカフェイン効果で眠れないといった,一般常識(Commonsense)による推論が考えられる. ここでは,記号論理や意味ネットワークやフレー ム理論,そしてスクリプトによる知識表現 (knowledge representation)による推論 (inference) が,認知科学(cognitive science)や脳科学の分野で研究され,コンピューターのハードウェアやソフトウェアでのアーキテクチャやプログラム上で具現化され実用に至っていると想定する. この上で,昨今のビッグデータやディープラーニング以降ではなく, 一昔前の人工知能の時代まで遡り, 言語学の語用論やポライトネスなどの豊かな発想の諸説をヒントにしながら,再考察する。そして深層学習に適用することを目的としている。認知科学や脳科学, 言語学などの諸科学をコンピューター サイエンスに結びつけられる確率は非常に少ない. Minsky の「心の社会」では 100 個のアイデアがあるが, 実用化されているのはわずかである.おそらく, ここ数年の深層学習から構築し直すのが正解と思われるが, 今一度, Minsky のようなアイデアをかえりみて,敬意表現などの不足分を補い,国別のローカ ル化に向けて, 言語資源としても, 整備されていないなら,その分を本稿で検討する機会を設けられればと考えている. ## 2.1 記号論理学による表現と推論 一昔前の知識表現には,一階述語論理で表されている(図 2.1).ここでは, 同值や含意の除去を基礎としており(スコーレム標準形), 堅い書き言葉が中心となっている.曖昧性や多義性の除去だけでなく,意味的な飛躍は許されないため, 非常に多くの述語論理表現が必要となる. 推論の中でも, ボトムアップの演繹的推論にとどまっている事も, 商業的には真新しさがなく, 複雑でなければ至極当然な結果と見なされてしまい,これが評価を落とした原因の一つである. また, 記号推論とディープラーニングとを共存させる事では, そこで得る推論の進展は大きくはないと思われる. $ \begin{array}{r} \text { 私はコンピューターを持っている } \\ \quad \exists x(\text { have }(I, x) \wedge \operatorname{computer}(x)) \end{array} $ すべての作家は書物が好きだ $ \forall \mathrm{x}(\operatorname{writer}(\mathrm{x}) \rightarrow \exists \mathrm{y}(\operatorname{likes}(\mathrm{x}, \mathrm{y}) \wedge \text { documents } $ 図 2.1 一階述語論理式の例 ## 2.2 フレーム理論・スクリプトによる推論 認知科学によるSOAR のアーキテクチャとフレー ムワークやスクリプトを用いた推論は, 記号論理学に比べて, 次の 2 点において, 大きな飛躍を遂げたと言える. 1)自然言語の場面や時などを含む知識表現の実現 2) IF-THEN ルールと複数の同值の判断の実現 これらは,プロダクション・システムに代表される. ここで用いられている常識推論 (Commonsense Reasoning)は IF-THEN ルール内で定められているものとして,限定的である事が,対話システムに向けて課題となっていた。 そこで, 自然言語処理では, 次のような含意関係を含むか否かの会話の判別から着手する国際的な夕スクが 2000 年代に行われた。 含意関係認識(Recognition of Textual Entailment; RTE)である. 含意関係認識とは 2 つの文を想定し, る文(Hypothesis; $\mathrm{H}$ )を設定し, それらの関係が成立するかを Yes,No $(0,1)$ で判定するタスクである. 例を次 に2つ示す. 例 1 $\mathrm{T}$ : 私は昨日、京都で晚御飯を食べた。 $\mathrm{H}$ : 私は昨日、京都にいた。 $\rightarrow$ 判定: Yes(含意である). ## 例 2 $\mathrm{T}$ : 川端康成は「雪国」などの作品でノーベル文学賞を受賞した。 $\mathrm{H}$ : 川端康成は「雪国」の著者である. $\rightarrow$ 判定: Yes(含意である). ここで注目すべきは, コンピューターが Wikipedia などの知識から判断されているのか,語句間で結び付けられているためなのかである. 実装されているコードから, Wikipedia などによる一般常識が直接的に働いているとは見受けられない。 むしろ Attention や BERT の Masked Model などの一文内,もしくは前後の文の語句との結びつきによるものと考えるのが妥当かもしれないと考えられる。 ## 2.3(言語I 画像)資源による常識推論 一般常識が必要と考えた MIT メディアラボでは Cyc や Open Mind Common Sense のプロジェクトが発足し, これが現在の常識推論 (Commonsense Reasoning)に至っていると考えられる(図 2.3.1, 図 2.3.2). ここでは, 固有表現認識の国際的なタスクの限界とも言える内容になっている. 固有表現認識(NER: Named Entity Recognition)とは、テキストに出現する人名や地名などの固有名詞や、日付や時間などの数值表現を認識する知識抽出である. ここではエンティティリンキングや関係抽出, そして共参照問題の解決といった自然言語処理タスクを要素技術としており, Wikidata などを対象としている.この固有表現認識での常識推論が存在している. 図 2.3.1 (言語/画像)常識資源の流れ 今後に向けては,上記とは一線を画する形で, ConceptNet や ATOMIC などのように, 因果関係に特化したものや時間的推論には十分に対応出来ておらず,対話応答の QA 形式の実践に向けたタスクと言える. このような状況の上で, BERT の派生モデルが State-Of-Art を競い合っているとも言え,ある特定のデータセットの分布に見合う言語モデルになりがちであり,依然としてスケール化も課題となっている。 しかし, これ以外に実現可能な方法がないのも事実である. 図 2.3.2(言語/画像)常識資源のボリューム ## 3 今後の常識推論に向けた提案 現行では, 書き言葉での常識推論に終始しており,対話応答などの会話の実現は今後の課題となっている. ここで, 次の 2 つの要素が国別更には地域別の単位で個別のタスクとして見込まれる。 1)敬意表現を用いた推論 2)母と娘との間の共通認識の推論 まず,1)は修辞句などの慣用表現がどのコーパスにも含まれておらず,国際的なタスク (ConceptNet など)でも除外されている.メタファーなどの表現は認知言語学での捉え方や言語学寄りでの捉え方がいくつか存在し, 統一されていない.これと同様に,日本語の敬語や敬語を用いない敬意を表す表現も諸学説がある. 更に, コンピューターに対応させる事となると, 実現可能であるかの疑問が生じるため,実行に移すのは, 書き言葉の常識推論の後と考えているかもしれない. 社会的に, もしくは産業的な優先順位では決して高くはないが,コンピューターによる言語理解や言語認識技術は少子高齢社会での人間の代わりをするものと想定するならば,できる限り, 早期に着手すべきとも考えられる. 1 人の高齢者を 4 人の若い人が支える時代は数年前の事である. ここで2)に通じることであるが,Siri や Alexa $の$ ような話しかけは私達の日常会話の範囲内と言えるが, 親子や友人同士の会話の内ではないとも言える. まずは慣用表現として対話応答で実現されることが現実的と考えられ,その範疇を超えるものはその後に続く位置づけと捉えられる。 ## 3.1 敬意表現を用いた推論の展開 1)に関しては,言語学の語用論やポライトネスの研究がヒントになる. 次に示す, 生田(1997)の例文で考察してみる。 3.1.1 生田(1997)の例文 以下の状況のもとでの会話である. 注目すべきは, この例では,敬語や丁寧な表現は一切使われていないことである. 状況は i と ii が考えられる。 ( i )「B のペンが何本か目の前の机の上に置いてある」 (ii)「相手 B が,既にペンを筆入れ,さらに鞄にしまっており,席を立とうとしている」 ここで,A3に,敬語を用いた表現を入れると不自然になる.敬語を用いてはいけない敬意表現である. 「A:あのう,恐れ入りますが,ちょっとペンをお借りできますでしょうか.」 これらから, ポライトネス(語用論)と敬語は異なるものだと言える. よって,ポライトネスの表現がコーパスに取り入れられているか吟味する必要がある。 更に,日本語の非母国語話者のコーパス(宇佐美 2020)から,1)の場面や友人間の分類の有用なアイデアが得られる. 6 の参考情報で図 6.1.1 及び図 6.1.2 にその概要と分類木を示す. ## 3.2 関連性理論と推論の展開 2)に関しては,関連性理論に基づく推論の捉え方が挙げられる. 次に示す, 松井(2001)の例文で考察してみる。 3.2.1 松井(2001)の例文 以下のように,母と娘との会話であり,たった 1 対の対話でしかないが,これを推論するのには,単 なる文の省略を補完するだけでは十分である。この会話を把握するはめには,母と娘との共通認識や背景の理解が必要になる。 背景は(カ)から(コ)にかけて記す。 (カ) 美佐の母親が今日自宅のベランダにふとんを干していた。 (キ) 美佐は美佐の母親が今日自宅のベランダにふとんを干していたと言った。 (ク) ふとんを干すのは, 宿泊する客が来る前の準備である. (ケ) 美佐の母親は真理のためにふとんを干していた. (コ) 美佐の母親は真理が明日泊まりに来るのを知っている. 真理「お母さん、私が明日泊まりにゆくの知ってるの?」 美佐「ふとんを干してたわ! ここでは,表意と推意とに分けて捉えている.発話の言語情報はとそこで意図して伝達する命題は変わらないとしている.敬語や丁寧な表現は一切使われていないことも, 日本独自の言語の表れとして注目し言語資源に取り入れるものと思われる. ## 4 おわりに 本稿は,敬語を使わない敬意表現やポライトネスへの興味とそれを実装したいと思い描いてきた中で得られた知見を基に考察したものである. 宇佐美まゆみ先生から学んだことが少なくない. また, 理論的で行き詰まりを感じていな中で, 小出誠二先生の 「Common Lisp」の講座(cl-aip)を受講させて頂き,常識推論(Commonsense Reasoning) $の$ 存在を知った.特に知識表現やオントロジーの人工知能の専門家から知る事が出来たことは有益であった. ここに感謝の意を表したい. そして,ポライトネスや関連性理論を反映させた対話システムに組み込みたい. ## 5 参考文献 [1] 新田「知識と推論」, サイエンス社, 2002 [2] 加藤・土屋 「記号論理学」, 放送大学出版会, 2014 [3] 時本「あいまいな会話はなぜ成立するのか」, 岩波書店, 2020 [4] 坂原「日常言語の推論」, 東京大学出版会, 1985 [5] Minsky(竹林訳)「ミンスキー博士の脳の探検」,共立出版会, 2009 [6] 小出「Common Lisp と人工知能プログラミング (下巻)」オントロノミー合同会社, 2017 [7] Peter Norvig Paradigms of Artificial Intelligence Programming: Case Studies in Common Lisp, Morgan Kaufmann, 1991 [8] 長尾「知識と推論」, 岩波書店, 1988 [9] 宇佐美まゆみ監修(2020)『BTSJ 日本語自然会話コーパス (トランスクリプト・音声) 2020 年版』 [10] Recent Advances in Natural Language Inference: A Survey of Benchmarks, Resources, and Approaches Shane Storks, Qiaozi Gao, Joyce Y. Chai, 2019 [11] ブラウン \& レヴィンソン「ポライトネス言語使用における、ある普遍現象」“Politeness: Some Universals in Language Usage” , 1987 [12] 生田「ポライトネスの理論」大修館書店, 『月刊言語』, pp.66-71, 1997 [13] 松井「関連性理論から見たポライトネス」巻 No. 3 特集月刊言語, 2001 [14] 太田「言語学の語用論や配慮表現の先端技術への適用に関する一考察」第 23 回 SIG-AM 人工知能学会合同研究会, 2019 [15] 岩倉・関根「情報抽出・固有表現抽出のための基礎知識」 近代科学社, 2020 [16] Maarten, Shwartz, Choi et .al., Introductory Tutorial: Commonsense Reasoning for Natural Language Processing, Computational Linguistics, pages 27-33, 2020 [17] Mueller Commonsense Reasoning: An Event Calculus Based Approach, Morgan Kaufmann, 2nd edition, 2014 [18] Lehman, Laird. A Gentle Introduction to Soar, an Architecture for Human Cognition, 2006 ## 6 参考資料 ## 6.1 対人関係の分類 図 6.1.1 は決定木で表わすと, 図 6.1.2 のようになる。例文で考察してみる。対人関係またはプライベ一ト間での分類案を示す(BTSJ 宇佐美 2020, 一部加筆修正した). 対話内容や上下関係, そしてポライトネス(ブラウン\&レヴィンソン, 1987)を基に考案したものである。 1 層目には, 初対面か, 複数回以上会ったことがある親しい友人と分けた。「はじめまして...」は初対 面以外で使用することは考えられなく,仮に用いた際は, 皮肉や嫌味の意味合いを生じることになるが, これは極めて例外的であると考えられる。 2 層目は, 男性同士, 女性同士, 男女混合で分けた,大きく話し方は変わるためである. 3 層目は, LINE などの SNS か, 雑談か, 主に仕事上の依頼の電話に分けられる。ここで, 敬語を力バーするものとして,ビジネス場面での上司と部下の上下関係と敬語や必ずしも敬語を使用しない敬意表現や配慮表現を指している。 最後に, 別のラインとして, 謝罪や隣人同士の挨拶は突発的に起こるものとして区分した. 図 6.1.1 プライベート間での分類案(BTSJ 宇佐美 2020) Flame と Script の間に位置づけられており, Flame に常識が含まれているものとしてきた。これが知識表現が重たく感じられ限界があると言われた所以であると考えられる。 しかし最近では, 別の枠組みとして, Wikipedia や Wikidata, ConceptNet などがビッグデータとしてのコーパスとして独立して位置づけられるようになり, Flame に掛かる負担は多少は減ったものと捉えることができる.課題はどこでこれらの常識を統合させるかであるが,ConceptNet 以降はニューラルネットワークの入力に用いられ, Flame は別になっている。この場合は自然言語をべクトル空間での表現しか表現できなくなるというトレードオフの関係になってしまい,両立は困難と考えられる.これが,記号論理学による推論とニューラルネットワークの両立は難しいと, 2.1 節で述べた理由である。 しかし Flame は自然言語の文章を柔軟に表現し,ルールベ ースの IF-THEN によるコードに落とし込みやすいというメリットを6.3で示す.常識推論(Commonsense Reasoning) の位置づけ 図 6.2.1 Commonsense Reasoning の 位置づけ 図 6.1.2 対人関係の分類 ## 6.2 常識推論(Commonsense Reasoning) の位置づけ 従来の常識推論を図 6.2.1 に示す. 注目すべきは ## 6.3 自然言語のフレーム化とスクリプト化 図6.3.1 に示した文章を図6.3.2のようにフレーム化する。 そして, 図 6.3.3 のように IF-THENルー ルで実行するのがプロダクション・システムである. これらの図から,フレームが自然言語文の表現性に優れているといった長所が挙げられる一方で, Temporal Commonsense Reasoning といった時間的推論を 1 つのフレームで取り扱うのは難しいといった弱点も挙げられる. ディープラーニングでは時間的推論は困難であることは言うまでもなく,折東案がしばしば求められる。 7 回表。 2 黄と 3 眰に走者がいます。 2 つのアウトがあります。打者のマーティン・プラドは平均. 256 で、打順は 4 番目です。 3-2 で勝ちました。前回、1 人がこのバッターを打ちました。私の目標はイニングを逃れることです。 図 6.3.1 自然言語の文章 イニング : 7 イニング目 回の表裏 : 上 塁上の走者 : 2 位と 3 位 アウトカウント : 2 つ 打者 : プラド 平均 : .287 右l 左打者 : 右利き 点数: 3-2 目標 : イニングを無失点で逃げきること 図 6.3.2 フレーム化 \# (a1) If I perceive I am at the mound then suggest a goal to get the batter o ut \# (a2) If there is a goal in WM to get the bat ter out then suggest achieving it using the Pit ch problem space with an initial state having balls 0 and str ikes $\theta$ \#(a3) If using the Pitch problem space and I perceive a new batter who is left /right handed then add batter not out and batter left /right-handed to the state \#(a4) If using the Pitch problem space and th e batter is not out then suggest the throw-curve operator ## \# (a5) If using the Pitch problem space and th e batter is not out and the batter is left-handed then suggest the throw-fast-ball operat or \#(a6) If both throw-fast-ball and throw-curve are suggested then consider throw-curve to be better than throw-fast-ball \# (a7) If the throw-curve operator has been se lected in the Pitch problem space then send throw-curve to the motor syst em and add pitch thrown to the state \# (a8) If using the Pitch problem space and th e pitch was thrown and I perceive a hit then add pitch hit to the state 図 6.3.3 スクリプト化 ## 6.4 敬語コーパスの作成 敬語は文法的に規則性が明確になっているため,総称としての敬意表現ではなく,敬語のみの抽出であれば可能である.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E1-1.pdf
# 『昭和話し言葉コーパス』の設計・構築と分析 (2): コーパスの構成とメタデータの設計 丸山岳彦 専修大学・国立国語研究所 maruyama@isc.senshu-u.ac.jp 田嶋明日香 国立国語研究所 tajima-a@ninjal.ac.jp } 西川賢哉 国立国語研究所 nishikawa@ninjal.ac.jp 小磯花絵 国立国語研究所 koiso@ninjal.ac.jp ## 1 はじめに 国立国語研究所共同研究プロジェクト「大規模日常会話コーパスに基づく話し言葉の多角的研究」では、2016年度より『昭和話し言葉コーパス』(Showa Speech Corpus:SSC)の構築を進めてきた。『昭和話し言葉コーパス』は、1950 年代から 1970 年代にかけて国立国語研究所で作成された録音資料(独話・会話)を再編し、話し言葉コーパスとして整備したものである。これまで、2 2 回のモニター公開を経て、 2021 年 3 月にコーパス全体が完成し、Web 上のコー パス検索アプリケーション「中納言」で本公開される。そこで本発表では、『昭和話し言葉コーパス』 の設計と構築について、特にコーパスの構成とメタデータの設計を中心に述べる。 ## 2 『昭和話し言葉コーパス』開発の 経緯 『昭和話し言葉コーパス』は、1952 年以降、国立国語研究所で作成されてきた録音資料群を収集し、再編した音声コーパスである。1952 年から 1970 年代の初頭にかけて録音された自発的な日本語音声 (独話・会話)約 44 時間分を収録しており、20 世紀半ばから現代に至る過程において、日本語の話し言葉がどのように変化してきたかを探るための言語資源として活用することができる $[1,2,3]$ 。 1948 年に設立された国立国語研究所では、1952 年度に話し言葉を専門的に分析する「第 1 研究室」 を設置して以降、さまざまな場面における日常会話や、講演会での講演、挨拶・祝辞などの独話を録音してきた。可搬型のオープンリール型録音機(通称 デンスケ、おそらくM1 型)をさまざまな場所に持ち込み、市井の人々の日常会話音声や、国立国語研究所員の講演音声を録音したことが、当時の報告書や『国立国語研究所年報』などに記録されている。特に日常会話の録音作業では、「地区・場所・性・年齢・教養・相手」という条件を設定し、各条件をなるべく広くカバーするような収集方針が取られた。当時の年報には、以下のような記述がある [4]。 日常の談話が多く得られる場合として、衣食住・社交等の生活機能と家庭・近隣・職場・市町村などの生活環境との切点から具体的な談話の場面を収集し、また、性・年齢・教養・相手 (の数、未知既知) ・地域などになるべく片寄りの少いことを目安として、調査地点・調査対象・調査場面の予定表を作成した。(p.6) 言語研究を目的として、日常の多様な場面・多様な話し手から偏りなく会話音声をサンプリングしたこの試みは、世界的に見ても極めて早い時期に行われた話し言葉研究の実践例であったと言ってよい。録音された音声資料は転記され(図 1)、さらにカード式のデータベースとして整理され(図2)、分析に使用された。この分析結果は、『談話語の実態』 (1955 年)、『話しことばの文型 (1)(2)』(1960、1963 年)などの報告書にまとめられている。 当時の音声を録音したオープンリールテープは、国立国語研究所の資料庫に保存されていたが、1990 年代以降、音源をDATテープにダビングし、デジタル化する作業が進められてきた。この音声データを収集・再編し、『昭和話し言葉コーパス』として整備することを着想したのが 2013 年ごろであり、2016 年度から本格的に構築を開始した。 図 1 録音音声の転記 図 2 カード式データベース ## 3 『昭和話し言葉コーパス』の構成 以下では、『昭和話し言葉コーパス』(以下、SSC と略記する)の構成について述べる。 ## 3.1 音声の種類 SSC の収録音声は、「会話」「独話」に分かれる。 ## 3.1.1 会話 1952 年度に「第 1 研究室」が設置された際、「現代話し言葉の実態と性質を明らかにする。材料としては主として日常談話による」という研究項目が定められた [4]。この方針に基づき、日常談話の録音作業が本格的に開始されたのが、1952 年 9 月である。上述のように、会話参与者の性・年齢 - 教養 - 相手 (の数、未知既知) ・地域などを考慮して、バランスの取れたサンプリングが企図されたようである。これら初期の録音資料群は、1955 年の報告書『談話語の実態』での分析に用いられた。また、1955 年以降の録音資料群は、1960 年の報告書『話しことばの文型 (1) 対話資料による研究』に用いられた。 ## 3.1.2 独話 SSC に収録された独話音声は、「国立国語研究所新庁舎開き記念講演会(1955 年)」「国立国語研究所創立 10 周年記念祝賀式(1959 年)」「国立国語研究所創立 20 周年記念講演会(1969 年)」など、当時の国立国語研究所における講演会・講座や式典・祝賀式などで録音した講義、挨拶・祝辞が主なものである。1963 年の報告書『話しことばの文型 (2) 独話資料による研究』でも分析に利用されている。 $\mathrm{SSC}$ に収録された会話音声・独話音声の一覧を、稿末の「SSC 収録音声一覧」に掲載する。 ## 3.2 収録時期 それぞれの収録時期は、以下の通りである。 会話: 1952 年 3 月(録音日不明) 1969 年 12 月 6 日独話: 1955 年 3 月 26 日 1974 年 6 月 5 日 ## 3.3 転記テキスト 転記テキストは、新規に作成した。当時の転記テキストを再利用することも検討したが、聞き取り困難な箇所が書き起こされていないケースや、数十秒の範囲で転記が欠落しているケースも見られたことから、新規に作成する方がよいと判断した。録音レベルが極めて低い音声や、ノイズが多く混入している音声など、録音状態の悪い音声データについては、SSCへの収録対象から除外した。 過去の音声資料を新規に転記する作業には、多くの困難が生じた。ノイズの混入により音声が聞き取りづらい場合だけでなく、現代ではあまり使われない言い回しが特定できない場合も多かった。以下はその例である(これらは転記者たちの調査と努力により、特定することができた)。 1. 次があったら○00ということを、常に考えているわけでありますが 2.これらを、え、○○0まするために、これも、 お一、西尾所長から先ほど、 3. 文化庁でも、おー、その当時、次の、お、国語課長の国松君か また、当時の収録機器はマイク 1 本であるため、特に多人数会話で発話の重複が生じていると、発話内容の聞き取り、発話者の同定が極めて困難であった。これらの場合には、「聴取不能」「発話者不明」 と注釈を付与せざるを得なかった。 ## 3.4 アノテーション 音声ファイルと転記テキストが準備できた段階で、(1) 時間情報の付与、(2) 形態素解析、という 2 種のアノテーションを実施した。(1)については、 Praat 上で発話単位を区切り、各単位に時間情報を付与した (図 3)。(2)については、形態素解析用辞書「現代話し言葉 UniDic(ver.3.0.1.1)」と MeCab (ver.0.996)により形態素解析を実施した。 図 3 時間情報の付与 また、会話音声の中で個人情報(人名、住所、電話番号など)が含まれるケースがあった。これらについては、該当する範囲の音声をマスキングし、転記テキストは伏字化の処理を行った。 ## 3.5 データサイズ SSC のデータサイズについて、表 1 に示す(最終的な公開時には数値が変動する可能性がある)。なお「話者数」は延べ人数を表す。 表 1 SSC のデータサイズ ## 3.6 メタデータ 通常、音声コーパスには「メタデータ」が付与され、発話者や発話場面に関する情報などが提供される。例えば、『日本語日常会話コーパス』(CEJC) では、発話者の年齢、性別、出身地、居住地、職業、話者間の関係性や、会話場面の具体的な説明などがメタデータとして記録されており、当該の会話デー タの詳細が分かるように設計されている [5]。 SSC でも、可能な限り詳細なメタデータをコーパスに付与することにした。かつ、特に会話音声については、CEJC におけるメタデータとできる限り項目を揃えることにより、将来的にSSC と CEJC を連結して検索し、比較できるようにした。メタデータの設計と構築については、次節で述べる。 ## 4 メタデータの設計 ## 4.1 メタデータの復元 SSC に含まれる録音資料のうち、独話については、当時の国語研所員による講義音声や、関係者による祝辞のケースが大半である。これらについては、『国立国語研究所年報』や昔の記録写真などから当時の録音状況を推定した結果、すべての録音資料について、録音日、録音場所、発話者情報(氏名、性別、当時の年齢、生年、出身地、職業、肩書)、発話状況(講演のイベント名、講演タイトル)などを特定することができた。 一方、会話については、録音状況の割り出しが非常に困難であった。当初は、最初に入手した音声データに付されていた録音資料の名称しか手掛かりがなかったため、詳細なメタデータの付与は不可能であると思われた。しかしながら、国立国語研究所の中央資料庫に保存されている当時の資料群を探索し、当時の資料群を隅から隅まで吟味した結果、 オープンリールの箱に記載されたメモ書き(図 4) や、当時のフェイスシートと思われるメモ(図 5) を発見することができた。 図4 オープンリールテープの箱に記されたメモ 図 5 当時のフェイスシート 図 4 からは、録音年月日と参与者の属性を知ることができる。図 5 のメモは、各発話者の属性(性、年齢、教養、職業、居住歴)が記載されたフェイスシートである。このような断片的に残された情報を丁寧に拾い上げることにより、会話音声のメタデー タを整備した結果、当初の見通しからするとはるかに詳細な話者情報を付与することができた。それでも付与できなかった話者属性(年齢、居住地、出身地など)については、推測値を付与する(「壮年層」 など)、または「不明」とすることで対処した。 ## 4.2 メタデータの設計 上記のように収集した情報を整理し、SSC のメタデータを設計した。ただし、独話音声と会話音声はメタデータの性質が大きく異なるため、個別に設計することとした。各メタデータに含まれる情報を、以下に示す。 ## 4.2.1 独話音声のメタデータ ・独話音声データ : ファイル ID、録音年度、音声タイプ、タイトル、話者、話者ID、話者年齢、イベントタイプ、 イベント名、録音年月日、録音場所 ## ・話者情報データ: 話者 ID、話者名、性別、生年、出身地、職業 ## 4.2.2 会話音声のメタデータ ・会話音声データ: ファイル ID、タイトル、録音年度、会話形式、話者 ID、会話概要、録音場所、話者数 ## ・話者情報データ: 話者 ID、話者名、性別、生年、出身地、居住地、職業、話者の関係性 このうち会話音声のメタデータは、前述の通り、『日本語日常会話コーパス』(CEJC) に付与されたメタデータ(図 6)との連結可能性を考慮して設計した。SSC と CEJC を同じ条件で検索することで、過去 60 年間に日常会話の音声がどのように変化してきたかを比較・対照することができるようになる。 図 6 CEJC のメタデータ ## 5 おわりに 古い録音資料を収集してコーパス化し、話し言葉の経年変化を実証的に明らかにしょうとする試みは、相澤・金澤 (2016) などごく少数の事例しか存在してこなかった [6]。『昭和話し言葉コーパス』は、設計当初から話し言葉の経年変化を探るためのコー パスとしての運用を想定しており、独話音声を『日本語話し言葉コーパス』(CSJ) と比較したり、会話音声を『日本語日常会話コーパス』(CEJC) と比較したりすることによって、独話・会話の話し言葉がどのように変化してきたのかを分析することが可能である。『昭和話し言葉コーパス』の完成によって、「通時音声コーパス」という新しいタイプの日本語コーパスが利用可能になったと言えるだろう。 2020 年度をもって『昭和話し言葉コーパス』の構築作業は完了し、その全体が 3 月に「中納言 ${ }^{1)} 」$ で公開される。利用登録をすれば、『昭和話し言葉コーパス』をオンラインで検索することができ、その音声を聴取することもできる。ぜひご活用いただきたい。 ## 参考文献 [1] 丸山岳彦. 『昭和話し言葉コーパス』の計画と展望一1950 年代の話し言葉研究小史一. 専修大学人文科学研究所月報, Vol. 282, pp. 39-55, 2016 . http://doi.org/10.34360/00007004. [2] 丸山岳彦. 「通時音声コーパス」の可能性と問題点—『昭和話し言葉コーパス』の構築と分析。言語資源活用ワークショップ 2019 発表論文集, pp. 402-412. 国立国語研究所, 2019. http: //doi.org/10.15084/00002592. [3] 丸山岳彦. 『昭和話し言葉コーパス』の設計・構築と分析. 言語処理学会第 26 回年次大会発表論文集, pp. 629-632. 言語処理学会, 2020. https://www.anlp.jp/proceedings/annual_ meeting/2020/pdf_dir/F3-3.pdf. [4] 国立国語研究所. 昭和 27 年度国立国語研究所年報 4.国立国語研究所, 1952. http://id.nii.ac.jp/1328/ 00001164/. [5] 小磯花絵, 天谷晴香, 居關友里子, 臼田泰如, 柏野和佳子, 川端良子, 田中弥生, 伝康晴, 西川賢哉。『日本語日常会話コーパス』モニター版の設計・評価・予備的分析. 国立国語研究所論集, Vol. 18, pp. 17-33, 2020. http://doi.org/10.15084/00002540. [6] 相澤正夫, 金澤裕之(編).SP 盤演説レコードがひら <日本語研究. 笠間書院, 2016.  ## 『昭和話し言葉コーパス』収録音声一覧 ## 独話音声 - 国立国語研究所新庁舎開き式典 (1955) - 所長挨拶ならびに経過報告 (西尾実)、祝辞(松村謙三、茅誠司、村上俊亮、土岐善麿、柳田国男) - 国立国語研究所新庁舎開き記念講演会 (1955) - 講演者紹介 (平井昌夫) 、所長挨拶 (西尾実)、現代の敬語意識(柴田武)、三つの語彙調査(林大) - 全国国語科指導主事研修講座(1957) - 話し言葉の表現意図について(飯豊毅一)、方言調査法 (野元菊雄)、言語能力の発達 (芦沢節)、助詞 - 助動詞 (宮地裕)、文型 (永野賢)、国語教育(輿水実)、新聞文章研究法 (林四郎) - 国立国語研究所創立 10 周年記念祝賀式 (1959) - 所長挨拶 (西尾実)、祝辞 (橋本龍伍、兼重寛九郎、関口隆克、時枝誠記、山本有三)、来賓挨拶(土岐善麿、安倍能成、片山哲) - 国立国語研究所創立 10 周年記念講演会 (1959) - 所長挨拶 (西尾実)、明治初期の書きことば (山田巌)、現代語の標準(林大)、話しことばの文法 (大石初太郎)、これからの日本語(岩淵悦太郎) - 第 17 回国立国語研究所創立記念講演会 (1965) - 所長挨拶(岩淵悦太郎) - 第 18 回国立国語研究所創立記念講演会 (1966) - 所長挨拶(岩淵悦太郎) - 第 19 回国立国語研究所創立記念講演会 (1967) - 所長挨拶 (岩淵悦太郎)、講演者紹介(岩淵悦太郎) - 見坊氏退官記念講演(1968) - 見坊氏退官記念講演(見坊豪紀) - 国立国語研究所創立 20 周年記念講演会 (1969) - あいさつ-研究所と語彙研究-(岩淵悦太 郎)、語彙調査と基本語彙 (林四郎)、形容詞の意味の特質(西尾寅弥) - 第 21 回国立国語研究所創立記念日 (1969) - 講演者紹介(岩淵悦太郎) - 第 24 回国立国語研究所創立記念日 (1972) - 所長挨拶(岩淵悦太郎) - 国立国語研究所研究棟落成式典 (1974) - 所長挨拶 (岩淵悦太郎)、来賓挨拶 (奥野誠亮)、祝辞 (藤沢達夫、安達健二、平塚益徳、久松潜一) ## 会話音声 $\mathrm{T}$ 社応接室 タクシー苦情 歯科大学生 麻布主婦 K 教育委員会雑談 鎌倉主婦 研究室の電話 養老院 少年工員 下町家族 3 人の青年 1960 年度浅草噺 1969 年度その電気ごたつは安全ですか
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E1-2.pdf
# So-Called "Prepositions" in Somali are Not Prepositions: A Linguistic Approach for Somali POS tagging Chihiro Taguchi Taro Watanabe Nara Institute of Science and Technology \{taguchi.chihiro.td0, taro\}@is.naist.jp ## 1 Introduction In Somali, the four lexemes $u, k u, k a, l a$ (UKKLS henceforth) are called in various terminologies such as "prepositions"[1, 2], "prepositional indicators”[3], "adpositional verbal particles"[4], and "verbal adpositions"[5]. However, as this polyonymy indicates, the morphosyntactic status of the lexemes is still controversial. This study first demonstrates that the lexemes are neither prepositions nor adpositions, but are either clitics, verbal prefixes, or particles that function as an applicative[6] to augment an extra argument. Particularly, in view of Universal POS tags[7], we argue that they should be categorized in particles (PART). Then, we propose a solution to implement the Somali Universal Dependencies (UD) by practically applying our POS tagging rules. ## 2 Overview ## 2.1 Overview of the Language Somali (< Cushitic < Afroasiatic) is spoken in the Horn of Africa by approximately 15 million people[8]. The basic word order is Subject-Object-Verb (SOV), but it may change with respect to the information structure. In contrast, the order of verbal components is rigid. The nominal morphology distinguishes number (singular and plural), gender (masculine and feminine), case (subject and absolute), and definiteness (definite and indefinite). The verbal morphology includes inflections by person, number, and gender of the subject, tense (present and past), aspect (unmarked and continuous), mood (indicative, subjunctive, and imperative), polarity (positive and negative), and focus. As for the information structure, focus plays a significant role in Somali. Auxiliaries ayaa and baa puts focus on the preceding noun (cf. $(1,2)$ ), and waxa put focus on the noun after the verb phrase (cf. (3)). When there is no focus on a particular noun, the auxiliary waa is selected (cf. (4)). Note that the long vowel - $a a$ in the auxiliaries is changed to $-u и$ when succeeded by the third person masculine subject marker. (1)Maxamed (baa|ayaa)bariis cunay. Mohammed FOC rice ate "Mohammed ate rice." (2)Maxamed bariis (bиu|ayиu) cunay. Mohammed rice FOC:3SG.M ate. "Mohammed ate rice." (3)Bariis waxa cunay Maxamed. rice FOC ate Mohammed "Mohammed ate rice." (4)Maxamed bariis wиu cunay. Mohammed rice AUX:3SG.M ate "Mohammed ate rice." ## $2.2 u, k u, k a, l a$ Sentences below (5)-(7) are examples with $k a$ "from". They basically share the same meaning, only differing in the word order. As apparent in the ungrammaticality of (8), the lexeme $k a$ and the verb yimi must not be intervened. (5)Maxamed baaka yimi Soomaaliya. Mohammed FOC from came Somalia (6)Maxamed baa Soomaaliya ka yimi. Mohammed FOC Somalia from came (7)Soomaaliya Maxamed baa ka yimi. Somalia Mohammed FOC from came (1)-(3): "Mohammed came from Somalia." (8)*Maxamed baa ka Soomaaliya yimi. Mohammed FOC from Somalia came intended: "Mohammed came from Somalia." The other UKKLs, $u$ "for", $k u$ "in", la "with", also syntactically behave similarly to $k a$. Below are examples containing them. (9)Cali shaah $\boldsymbol{u}$ samee! Ali tea for make "Make tea for Ali!" (10)Caano koob-ka ku shub! milk cup-DET in pour "Pour milk in the cup!" (11)Maxamed waa-n la joogay. Mohammed AUX-1SG with stayed "I stayed with Mohammed." Interestingly, the four UKKLS can be combined with each other (12) as well as with object pronouns. In addition, because of the relatively free word order, ambiguities may occur as exemplified in (13). This kind of ambiguities is in most cases resolved by contextual information. (12)Maxamed guri-ga baa-n ku-la kulmay. Mohammed house-DET FOC-1SG in-with met "I met with Mohammed in the house." (13)Cali baa Maxamed $i-u \quad$ dilay. Ali FOC Mohammed me-for hit "Ali hit (Mohammed for me | me for Mohammed)." ## 3 Linguistic Analysis of UKKLS This section discusses the grammatical status of UKKLS in more detail, chiefly to show that UKKLS are not adpositions and that they function as applicatives. In addition, in view of application to the Universal POS Tagging, we argue that it is suitable for the UD to analyze UKKLs as particles (PART). ## 3.1 Why UKKLS are not adpositions Adpositions roughly comprise two subcategories: prepositions and postpositions. Adpositions form an ad- Figure 1 Crossing tree positional phrase when combined with a nominal phrase (NP) adjacent to it, and prepositions specify that the NP succeeds them. In other words, in an adpositional phrase, an adposition is the head and the adjacent NP is the dependent. In this sense, sentences (5)-(8) clearly show that they are not adpositions, because $k a$ does not necessarily come next to the dependent. If we assume that they are adpositions, we will end up allowing for dependency trees in which branches cross arbitrarily. Figure 1 is an outline showing crossing branches in (10). Therefore, it is inappropriate to deem them as adpositions. ## 3.2 Why they are applicatives Applicative is a grammatical voice by which an oblique argument is promoted to a core argument of the predicate. (14) is an example of the applicative construction reported in Rombo ( $<$ Chaga $<$ Bantu)[9]. As English never allows "child" to be an object in this case, the argument mwaná "child" is a semantically marginal argument to which is assigned a benefactive semantic role. However, mwaná "child" is treated as an object because of the applicativization in the verb. ## (14)Ksali é-le-m'-kor-i-a mwaná klálo. Kisali SM.3SG-PST-OM.3sG-cook-APPL-F child food "Kisali cooked food for her child." In Somali, UKKLS are applicatives because of the following two facts. First, UKKL is a verbal component that cannot be separated from the main predicate as shown in (13). Second, UKKL augments a new object that is semantically marginal; in particular, $u, k u, k a$, and $l a$ promote benefactive ("for"), locative ("in"), source ("from"), and comitative ("with") arguments to objects respectively. Without using any UKKLS, yimi "came" is a monovalent predicate that only takes a subject (agent). Adding $k a$ to yimi changes it to a divalent predicate requiring an additional object pertain- Figure 2 Uncrossing tree Table 1 An example of POS tagging (1) Figure 3 An example of dependency tree (1) ing to source. Since Somali is a pro-drop language, even when the augmented object is not pronounced as in (16), the sentence is interpreted as entailing implicit information of source. (15)Maxamed baa yimi. Mohammed FOC came "Mohammed came." (16)Maxamed baaka yimi. Mohammed FOC from came "Mohammed came from there." In formal semantics, the structural difference between yimi and ka yimi is represented in (17) and (18). Combining multiple UKKLS adds more arguments as in (19). (17) $\llbracket y i m i \rrbracket=\lambda x . \operatorname{come}(x)$ (18) $\llbracket k$ a yimi $\rrbracket=\lambda y \lambda x$.come-from $(x, y)$ (19) $\llbracket$ kala yimi $\rrbracket=\lambda z \lambda y \lambda x$.come-from-with $(x, y, z)$ This representation solves the problem of dependency mentioned in the previous subsection, and allows for word order scrambling seen in (1). Taking these semantic representations into account, the ideal branching of (1) would look like Figure 2. ## 3.3 Why they are particles Having demonstrated that UKKLS are at least not adpositions and that they derive applicative construction, it is still unclear as to which part-of-speech they are covered in. Given the strong combination of UKKLS and predicates, there are three possibilities: verbal prefix, clitic, and particle. For the sake of compatibility with UD, we argue that UKKLS are particles (PART). Formally distinguishing prefixes, clitics, and particles is a disputable matter. As Zwicky noted that so-called particles are in fact either clitics or affixes or something that are difficult to be labelled[10], particles can even be an unnecessary label. In theoretical linguistics, it is possible, or even suitable, to assume that UKKLS are verbal prefixes in speakers' linguistic knowledge. When a morpheme is an affix, it is attached to its stem and cannot appear on its own. Even though they look like an independent lexeme in the orthography, they are phonologically pronounced together with the succeeding predicate. However, this interpretation would require text-based NLP to prepare some additional pre-processings. In light of the definition of particles (PART) given by $\mathrm{UD}^{1)}$, it is more reasonable for UD to label them as particles. ## 4 Universal POS Tags and Dependency Tree UD is an ongoing project to establish a universal framework for annotation of grammatical information in different languages. As of 2020 it covers over 120 languages, and more UD languages are being prepared. At the time of this writing, Somali is not included in the list of UD languages. Given this situation, this section briefly dis- 1) "Particles are function words that must be associated with another word or phrase to impart meaning and that do not satisfy definitions of other universal parts of speech"[7]. Table 2 An example of POS tagging (2) Figure 4 An example of dependency tree (2) cusses what POS tags, features, and syntactic relations are needed for the establishment of the Somali UD based on the observation we have made in the previous sections. As we have already seen that UKKLS should be categorized in PART, adposition (ADP) is no longer necessary for the Somali POS tags. A practical example of POS tagging is shown in Table $1^{2}$. Based on this POS tagging, Figure 3 is an instance of a manually drawn dependency tree. The syntactic relation binding the predicate and the particle $k u$ is assumed to be aux (auxiliary). The feature of the particle is specified as PartType=Loc, as it adds an object with a locative semantic role. Specifying the morphological features in this way resolves the morphological complexity of Somali; for example, in (13), the morphemes $i$ "me" and $u$ "for" are combined into one token even though they do not necessarily share a direct syntactic dependency. An example of this kind of particle combination is shown in Table 2, where idinkula is a combination of idin "you (plural)", $k u$ "in", and la "with", and its corresponding dependency tree in Figure 4. Since applicativization and object pronouns are specified in the features, the dependency trees correctly predict the desired interpretation. These dependency trees contain two novel features: Valency and Focus. Valency, requiring the number of core arguments as its value, is a feature proposed by Senuma \& Aizawa for a morphological analysis of Ainu, which also has applicative construction[12]. The fact that 2) The sample sentences in Tables 1 and 2 were collected from Orwin (1995)[11] the valency is augmented to 3 (subject, locative object, comitative object) is represented by this feature. Focus is a language-specific feature for Somali. It takes a boolean value, and when Focus=True, the token puts a focus on a certain phrase which is uniquely determined syntactically. ## 5 Conclusion This study clarified that $u, k u, k a$, and $l a$ in Somali are neither prepositions nor adpositions, but are functional morphemes for applicativization, each playing a role of augmenting a new core argument with different semantic roles. While verbal prefixes might be a suitable categorization for UKKLS from the viewpoint of theoretical linguistics, PART is reasonable for the UD POS tagging for the sake of consistency. In addition, we made a tentative proposal for practical POS tagging and dependency parsing of Somali by defining POS tag sets, features, and syntactic relations. This study established a ground for the Somali UD, since it is indispensable to examine the grammar of low-resource languages before starting to apply NLP to them. ## 6 Future Work How to resolve the ambiguity of grammatical functions mentioned in (13) still remains unclear. In human's natural language understanding, this kind of ambiguity is usually resolved by contextual information. Embedding knowledge graph information or hypernym-hyponym relations might improve the accuracy for machine to resolve the ambiguity. ## References [1] Annarita Puglielli. Sintassi della lingua somala. Ministero AA. EE., 1981. [2] John I. Saeed. Somali reference grammar (2nd ed.). Dunwoody Press, second edition, 1993. [3] Catherine El-Solami-Mewis. Lehrbuch des Somali. Verlag Enzyklopädie, 1987. [4] Abdalla O. Mansur. Le lingue Cuscitiche e il Somalo. Ministero AA. EE., 1988. [5] John I. Saeed. Somali. John Benjamins B.V., 1999. [6] David A. Peterson. Applicative constructions. Oxford University Press, 2007. [7] Universal POS tags, 2020. universaldependencies.org/u/pos/. [8] Ethnologue, 2019. [9] Daisuke Shinagawa. A grammatical sketch of ChagaRombo (Bantu E623). Research Institute for Languages and Cultures of Asia and Africa, 2014. [10] Arnold M. Zwicky. Clitics and particles. Language, 63(2):283-305, 1985 [11] Martin Orwin. Colloquial Somali. Routledge, 1995. [12] Hajime Senuma and Akiko Aizawa. Toward Universal Dependencies for Ainu. In Proceedings of the NoDaLiDa 2017 Workshop on Universal Dependencies (UDW 2017), pages 133-139, Gothenburg, Sweden, May 2017. Association for Computational Linguistics. ## A Appendix: Abbreviations - APPL: applicative - AUX: auxiliary - DET: determiner - $\mathrm{F}$ : final suffix - FOC: focus - M: masculine - OM: object marker - PST: past - SG: singular - SM: subject marker
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E1-3.pdf
# None the wiser? Adding "None" Mitigates Superficial Cues in Multiple-Choice Benchmarks Pride Kavumba ${ }^{1,2}$ Ana Brassard ${ }^{2,1}$ Benjamin Heinzerling ${ }^{2,1}$ Naoya Inoue ${ }^{1,2,} \quad$ Kentaro Inui $^{1,2}$ ${ }^{1}$ Tohoku University ${ }^{2}$ RIKEN Center for Advanced Intelligence Project (AIP) \{pkavumba, naoya-i, inui\} @ecei.tohoku.ac.jp \{ana.brassard, benjamin.heinzerling\} ariken.jp ## 1 Introduction It is now established that many benchmarks of natural language understanding contain superficial cues, which enable models to solve the task using shortcuts that do not generalize to datasets without these shortcuts $[3,13,7,8$, $14,4]$. Previous works have employed two main approaches to mitigate superficial cues. The first approach is to discard instances that contain superficial cues using language models (LMs). For example, Zellers et al. [15] create SWAG using adversarial filtering which removes instances that can be easily solved by existing finetuned LMs. Zellers et al. [16] then created HellaSwag, a more challenging dataset than SWAG [15], using adversarial filtering with BERT [2]. However, this approach may reduce question diversity, as Gururangan et al. [3] notes on SNLI, and creates distributional bias [16] that can be exploited by other models not used in the filtering process. SWAG has been shown to contain superficial cues [14], and our analysis reveals superficial cues in HellaSwag: ALBERT [5] trained on only the answers achieved 76.2\% accuracy. The second approach is to efficiently reuse existing benchmarks and to change the training process of models. For example, Poliak et al. [9] use adversarial training to unlearn hypothesis-only bias on SNLI [1] and Stacey et al. [12] extends this approach by using an ensemble of adversaries. Schuster et al. [11] propose to weigh training instances based on the difficulty in the training objective. However, this approach requires solving additional optimization problems. Here, we introduce AddNone-an automatic method that reuses the full existing dataset, does not rely on LMs, and does not change the training process-for mitigating superficial cues in multiple-choice benchmarks. Specifically, for each multiple-choice question, consisting of a context and multiple choices (Fig. 1, A), we introduce "None of the above" (Fig. 1, B, Q1). We then duplicate  A) Original question B) Add "none of the above" Figure 1: A question containing a superficial cue (highlighted) that allows models to easily pick the correct answer (bold) (A). AddNone adds None of the above (B, Q1) and automatically generates a twin question with the same choices but a different context that makes None of the above the correct answer (B, Q2). The superficial cue is now less effective since it appears both as correct and incorrect. the question and change the correct answer to "None of the above" by replacing the context (Fig. 1, B, Q2). This creates twin questions with the same choices but different contexts and correct answer, forcing models to consider the context while solving them. Our approach does not discard any instances, and modifying the data is computationally cheap and fully automated. Additionally, we do not have to modify the models and their training process except having the extra choice. In summary, our contributions are as follows: - We show that the answers in Commonsense-Explanation (Cs-Ex), HellaSwag and SWAG, commonly used commonsense benchmarks, contain superficial cues ( $\$ 2$ ), and that training on these datasets leads to poor generalization on datasets without superficial cues ( $\S 4$ ); - We present AddNone, a method for mitigating superficial cues in multiple-choice benchmarks, and apply it to these benchmarks ( $\S 3)$; - We empirically show that training on AddNone-modified datasets encourages models to assess the association be- tween a context and its choices, leading to better generalization on dataset without superficial cues (§4). ## 2 Cues in Cs-Ex, HellaSwag, and SWAG In this section, we show that commonly used commonsense datasets, Cs-Ex, HellaSwag and SWAG, contain easy-to-exploit superficial cues. ${ }^{1}$ All three benchmarks are multiple-choice tasks in which the model is required to choose the correct ending for a given incomplete sentence (SWAG, HellaSwag) or the reason why a given statement is false (Cs-Ex). The authors of Cs-Ex aimed to mitigate superficial cues by employing strict guidelines for crowd workers, while the authors of SWAG and HellaSwag made use of LM-based adversarial filtering. SWAG and HellaSwag should not be solvable by an LM in an answer-only setting, namely, by an LSTM-LM trained on the Book Corpus for SWAG, and by BERT for HellaSwag. ## 2.1 Input Ablation We first ablate the input, i.e., we provide models with contextless questions (answers only). This setup follows similar ablations by Gururangan et al. [3], McCoy et al. [7] and is designed to reveal whether the answers contain superficial cues that allow models to solve the task by taking shortcuts, such as relying on different token distributions in correct and wrong answers. We finetune BERT, RoBERTa [6], and ALBERT in this contextless setting. The high accuracy of BERT (87.8\%), RoBERTa (85.3\%) and ALBERT (85.7\%) on Cs-Ex shows that the strict crowdsourcing protocol for creating this dataset was not effective, since even without the context, models are still able to identify the correct answer considerably above random chance (Table 1). On SWAG, model accuracies are similarly high, while on HellaSwag, the effect of using BERT for adversarial filtering is clearly visible in BERT's accuracy (37.0\%). However, this filtering is not effective for RoBERTa (70.5\%) and ALBERT $(76.2 \%){ }^{2}$ These results show that the answers of Cs-Ex, HellaSwag, and SWAG all contain exploitable superficial cues. ^{1}$ Trichelair et al. [14] showed, using a different analysis method than the one presented here, that SWAG contains superficial cues. We include this dataset for completeness. }^{2}$ When creating HellaSwag, the authors envisioned a co-evolution of models and datasets, in which increasingly stronger models are used as filters to create increasingly harder datasets, which, in turn, are used to train increasingly stronger models. However, given RoBERTa's worse accuracy on Cs-Ex, the question arises whether RoBERTa's strong results on answers-only HellaSwag are due to being stronger than the filter (i.e., BERT) or merely different than the filter. Table 1: Average accuracy with standard deviation (subscript) of models trained on the answers only. ## 2.2 Token-based Superficial Cues To identify the actual superficial cues models may exploit, we collect unigrams that are predictive of the answer, using the productivity measure introduced by Niven and Kao $[8$, see definition in ]. Intuitively, the productivity of a token expresses how precise a model is if it predicts only based on the presence of this token in a candidate answer. We found that not is highly predictive of the correct answer on Cs-Ex, followed by to. On SWAG and HellaSwag, unigram token productivity is below 20 , suggesting that RoBERTa exploits different signals to achieve high accuracy in the answers-only setting. Bigram token productivity was much lower. To further investigate the exploitability of unigram cues, we train a binary bag-of-word classifier to predict if a given choice is a correct or wrong answer. On CsEx, this classifier achieved $89.5 \%$ accuracy, showing that correct and wrong answers are clearly distinguishable and confirming that the task is solvable with token-level cues. On SWAG and HellaSwag, the classifier fails to reach majority accuracy. This further confirms that superficial cues in SWAG and HellaSwag are not token-based. ## 3 AddNone to Mitigate Superficial Cues To mitigate superficial cues in the answers, we ensure that each correct answer appears at least once as a wrong answer. This breaks the direct link between the cues and the correctness of the answer, since they now also point to the wrong answer at least once. To achieve this, one can duplicate each question and manually modify it so that an alternative choice becomes correct (henceforth, twin question) [8, 4], however, this does not scale to larger datasets. As a scalable alternative, we propose creating twin questions by adding none of the above as an additional choice in all questions, then automatically replacing one of the contexts so that the added choice becomes the correct answer. This is similar to previous methods [8, 4], however, creating a context that does not fit any answer can be automated while curating one that specifically leads to an alternative answer requires creativity, i.e., a manual effort. For example, consider the following question from CsEx with the additional choice included. Table 2: Number of Easy and Hard instances Context: she danced to the piano a) piano can not be danced to b) piano can produce beautiful sounds c) some people are born to dance +d) None of the above This question stays unchanged, with only an added choice that is not correct in this case. Its twin, shown below, has its context replaced by a similar context that renders the correct answer (in bold above) incorrect. Context: he types using a piano a) piano can not be danced to b) piano can produce beautiful sounds c) some people are born to dance ## +d) None of the above The replacement context is extracted from the set of all training contexts in the dataset. Candidate contexts should be similar enough to the original context to avoid trivial solving by (dis)similarity. In our experiments, we calculated the cosine similarity between TF-IDF vectors of all training contexts and the context to be replaced, and picked the most similar context, allowing the similarity to be 0.97 or below. Theoretically, it is possible that the replacement context is a paraphrase of the original context, however, in practice, we did not find this to be a problem. We used $90 \%$ of the original questions to create twin questions. ## 4 Experiments ## 4.1 Evaluation on Hard and Easy Subsets To investigate if ALBERT, RoBERTa, and BERT learn to rely on superficial cues when trained on the original CsEx, HellaSwag, and SWAG dataset, we split the evaluation set into (i) questions with superficial cues, Easy subset, and (ii) questions without superficial cues, Hard subset. The Easy subset consists of instances that are correctly solved by ALBERT or RoBERTa over three random seeds without being provided the context, ${ }^{3}$ and the Hard subset consists of the remaining instances. The statistics of each subset are shown in Table 2. The models trained on the original dataset perform badly on the Hard subset, while they perform much better on the Easy subset (Fig. 2). This indicates that the models strongly rely on superficial cues and the reported accuracy ^{3}$ We do not use BERT because it was used for adversarial filtering of HellaSwag. } Figure 2: Average accuracy and standard deviation of models on Easy questions with superficial cues and Hard questions without superficial cues. On Hard questions, models trained on AddNone, and AddNone-eq (which is equal in size to the original dataset) perform better. on these datasets may be inflated. ## 4.2 Evaluation of AddNone How effective is AddNone in removing superficial cues, and how does it translate to model performance? We train ALBERT, RoBERTa, and BERT on the AddNonemodified Cs-Ex, HellaSwag, and SWAG (AddNone models), and evaluate them on the original Hard and Easy subsets. As expected, training on the AddNone-modified datasets degraded the accuracy on the Easy subset containing superficial cues across all models and benchmarks (Fig. 2). This indicates that the models were discouraged from exploiting superficial cues. On the other hand, AddNone-modified datasets improved the accuracy on the Hard subset lacking superficial cues. This suggests that the models were encouraged to learn more task-related cues, which lead to better generalization resulting in higher performance on the test set. To control for data size, we repeated the experiments on AddNone-modified datasets that are equal in size to their originals (AddNone-eq) and found that the results still support the effectiveness of AddNone (Fig. 2). Rajpurkar et al. [10] proposed crowdsourcing unanswerable questions instead of generating them automatically, however, here we found that creating these automatically improves the model generalization. Table 3: Overall average accuracy of full-input models evaluated on context (C) and contextless (NC) setting. The larger drop of accuracy in AddNone-modified datasets indicates that models trained on original dataset rely more on superficial cues in the answers. ## 4.3 Model Sensitivity to Context Are the models trained on AddNone-modified datasets more sensitive to given contexts? We compare AddNone models with the models trained on the original datasets (original models) on the test set with context (C) and no context (NC). Here, we use the same models whose results are shown in Fig. 2. AddNone models are more sensitive to the context than the original models across all datasets, indicating that AddNone models' predictions depended more on the connection between the context and the choices (Table 3). ## 5 Conclusions We introduced AddNone, a simple and LM-independent method for mitigating superficial cues in multiple-choice benchmarks. AddNone can reuse existing benchmarks, allowing researchers to make more efficient use of the existing benchmarks instead of creating new ones. Our experiments demonstrated that training on AddNone-modified datasets encourages models to assess the association between a context and its choices, leading to better generalization on datasets without superficial cues. ## Acknowledgements This work was supported by JSPS KAKENHI Grant Number JP19H04425. ## References [1] S. R. Bowman, G. Angeli, C. Potts, and C. D. Manning. A large annotated corpus for learning natural language inference. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pages 632-642, Lisbon, Portugal, Sept. 2015. Association for Computational Linguistics. doi: 10.18653/v1/D15-1075. URL https: //www.aclweb.org/anthology/D15-1075. [2] J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. doi: 10.18653/v1/ N19-1423. URL https://www.aclweb.org/anthology/N19-1423. [3] S. Gururangan, S. Swayamdipta, O. Levy, R. Schwartz, S. Bowman, and N. A. Smith. Annotation artifacts in natural language inference data. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pages 107-112, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. doi: 10.18653/v1/N18-2017. URL https://www.aclweb.org/anthology/N18-2017. [4] P. Kavumba, N. Inoue, B. Heinzerling, K. Singh, P. Reisert, and K. Inui. When choosing plausible alternatives, clever hans can be clever. In Proceedings of the First Workshop on Commonsense Inference in Natural Language Processing, pages 33-42, Hong Kong, China, Nov. 2019. Association for Computational Linguistics. doi: 10.18653/v1/D19-6004. URL https://www.aclweb.org/anthology/D19-6004. [5] Z. Lan, M. Chen, S. Goodman, K. Gimpel, P. Sharma, and R. Soricut. Albert: A lite bert for self-supervised learning of language representations, 2019. [6] Y. Liu, M. Ott, N. Goyal, J. Du, M. Joshi, D. Chen, O. Levy, M. Lewis, L. Zettlemoyer, and V. Stoyanov. Roberta: A robustly optimized BERT pretraining approach. CoRR, abs/1907.11692, 2019. URL http://arxiv. org/abs/1907. 11692 . [7] T. McCoy, E. Pavlick, and T. Linzen. Right for the wrong reasons: Diagnosing syntactic heuristics in natural language inference. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 3428-3448, Florence, Italy, July 2019. Association for Computational Linguistics. URL https://www.aclweb.org/anthology/P19-1334. [8] T. Niven and H.-Y. Kao. Probing neural network comprehension of natural language arguments. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 4658-4664, Florence, Italy, July 2019. Association for Computational Linguistics. URL https://www.aclweb.org/anthology/P19-1459. [9] A. Poliak, J. Naradowsky, A. Haldar, R. Rudinger, and B. Van Durme. Hypothesis only baselines in natural language inference. In Proceedings of the Seventh Joint Conference on Lexical and Computational Semantics, pages 180-191, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. doi: 10.18653/v1/S18-2023. URL https://www.aclweb.org/anthology/S18-2023. [10] P. Rajpurkar, R. Jia, and P. Liang. Know what you don't know: Unanswerable questions for SQuAD. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pages 784-789, Melbourne, Australia, July 2018. Association for Computational Linguistics. doi: 10.18653/v1/P18-2124. URL https://www.aclweb. org/anthology/P18-2124. [11] T. Schuster, D. Shah, Y. J. S. Yeo, D. Roberto Filizzola Ortiz, E. Santus, and R. Barzilay. Towards debiasing fact verification models. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 3410-3416, Hong Kong, China, Nov. 2019. Association for Computational Linguistics. doi: 10.18653/v1/D19-1341. URL https://www.aclweb.org/anthology/D19-1341. [12] J. Stacey, P. Minervini, H. Dubossarsky, S. Riedel, and T. Rocktäschel. There is strength in numbers: Avoiding the hypothesis-only bias in natural language inference via ensemble adversarial training, 2020. [13] S. Sugawara, K. Inui, S. Sekine, and A. Aizawa. What makes reading comprehension questions easier? In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 4208-4219, Brussels, Belgium, Oct.-Nov. 2018. Association for Computational Linguistics. doi: 10.18653/v1/D18-1453. URL https://www.aclweb.org/ anthology/D18-1453. [14] P. Trichelair, A. Emami, A. Trischler, K. Suleman, and J. C. K. Cheung. How reasonable are common-sense reasoning tasks: A case-study on the Winograd schema challenge and SWAG. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 3373-3378, Hong Kong, China, Nov. 2019. Association for Computational Linguistics. doi: 10.18653/v1/D19-1335. URL https://www.aclweb.org/anthology/D19-1335. [15] R. Zellers, Y. Bisk, R. Schwartz, and Y. Choi. SWAG: A large-scale adversarial dataset for grounded commonsense inference. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 93-104, Brussels, Belgium, Oct.-Nov. 2018. Association for Computational Linguistics. doi: 10.18653/v1/D18-1009. URL https://www.aclweb.org/anthology/D18-1009. [16] R. Zellers, A. Holtzman, Y. Bisk, A. Farhadi, and Y. Choi. HellaSwag: Can a machine really finish your sentence? In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 4791-4800, Florence, Italy, July 2019. Association for Computational Linguistics. doi 10.18653/v1/P19-1472. URL https://www.aclweb.org/anthology/ P19-1472.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E1-4.pdf
# 日本語文法誤り訂正におけるデータ増強および評価データ構築 加藤秀佳 岡部格明 北野道春 宿久洋 同志社大学 } \{khideyoshi2,mokab.0328,kitano.michiharu\}@gmail.com, hyadohis@mail.doshisha.ac.jp ## 1 はじめに 文法誤り訂正 (Grammatical Error Correction: GEC) とは,入力したテキストの誤りを自動で検出して訂正することを目的とした自然言語処理タスクの 1 つである [1]. 近年,校正業務におけるコスト削減が期待できることからビジネス分野での需要も高まり,そのための文章校正システムの開発が求められている. しかし, 既存の文章校正システムは助詞の誤字,脱字,衍字などの誤り箇所の検出 (detect)のみに焦点が当てられており, 文章の誤りを検出し,訂正 (correct) まで行う日本語 GEC システムはほとんど提案されていない. 日本語 GEC 研究は英語や中国語といった他言語の GEC 研究と比較すると取り組みが少なく, それは日本語 GEC 研究の性質や環境などに様々な課題が存在することに起因する。 そこで本研究では, 日本語 GEC 研究が抱える課題 1 学習に利用できるデータ不足および課題 2 評価デー タの不十分性という 2 つの課題に対処することで GEC モデルの精度向上と頑健な評価に取り組む. 課題 1 について,近年の GEC 研究は文法的に誤りを含む文 $(\mathrm{src})$ から文法的に正しい文 $(\mathrm{tgt})$ への翻訳タスクとして取り組むことが一般的であり,その際に, src と tgt がペアとなった大量のデータ (対訳データ) が必要とされる [2]. 英語 GEC 研究において利用できる大規模な対訳データは, EFCAMDAT(約 250 万文)[3] など,合計して 450 万文以上用意されている一方で, 日本語 GEC 研究において利用できる対訳データは, Lang8 コーパス [4] の約 160 万文のみであり,量および種類の観点からも対訳デー タが少ないことが問題視されている. この問題に対して,既存研究では用意したコーパスから $\mathrm{src}$ を生成し擬似的に対訳データを生成するデータ増強 (Data Augmentation: DA) が提案されている [5,6]. しかし, 新たな生成元コーパスを大量に準備することができない,または使用できるドメインのデー 夕量が限られている状況においては $\operatorname{src}$ を生成する既存研究では対応できない,そこで,本研究では $\operatorname{src}$ の生成だけではなく, $\operatorname{tgt}$ の生成も考慮に入れた DA(BERT-DA-tgt) を提案することで課題 $\mathbf{1}$ に対処することを考える。 課題 2 について,英語の GEC 研究において,モデルを評価するために (1) 誤りタイプごとの評価と (2)複数ドメインごとの評価の 2 つの観点から行う研究やワークショップが数多く行われている $[7,8,9]$. (1)については,提案された GEC モデルが有効に作用する,または作用しないような誤りの性質を明らかにし, GEC システムを構築する際に, 特定の誤り種類と相性の良いモデルを採用したいという意図がある [10]. (2) については,特定のドメインで高い性能を示すモデルが,異なるドメインで低い性能を示すような状況が生じた場合,構築されたモデルを正しく評価できたとは言えず,複数ドメインでの評価をしたいという意図がある [11]. 近年の日本語 GEC モデルを評価するために広く使われているデータセットとして,NIST 誤用コーパス (NIL) [12, 13] と日本語学習者の文法誤り訂正システムのための評価用マルチリファレンスコーパス (TEC_JL) [14, 15] があるが,日本語 GEC 研究において GEC モデルを英語のように上記の 2 つの観点両方で評価した研究はない. そこで,本研究では (1),(2) 両方の観点から評価できるような新たなデータセット (JGECM) の構築および構築方法の提案を行うことで,課題 2 に対処し,さらに構築したデータを公開1)する。 ## 2 BERT-DA-tgt DA を使用しない GEC 手法は,図 1 における対訳データ $D=\left.\{\left(\boldsymbol{x}_{i}, \boldsymbol{y}_{i}\right) \mid i=1,2, \ldots, n\right.\}$ のみを用いてモデルを学習する. このとき, $D$ は $\operatorname{src}$ の集合 $X=$ $\left.\{\boldsymbol{x}_{i} \mid i=1,2, \ldots, n\right.\}$ と, $\operatorname{tgt}$ の集合 $y=\left.\{\boldsymbol{y}_{i} \mid i=1,2, \ldots, n\right.\}$ の組から構成される.ここで, 既存の DA は, 図 1 における対訳データ $D$ とは別の疑似データ $\mathscr{D}^{a}$ を生成し,モデルの学習に利用するデータ量を 1) https://github.com/hideyoshikato/JGECM 増やす手法のことである [2].このとき, $D^{a}$ は $\operatorname{tgt}$ の集合 $y^{a}=\left.\{\boldsymbol{y}_{j}^{a} \mid j=1,2, \ldots, m\right.\}$ から, $\operatorname{src}$ の集合 $X^{a}=\left.\{\boldsymbol{x}_{j}^{a} \mid j=1,2, \ldots, m\right.\}$ を Direct Noise[16] などの手法によって生成される。 一方で,BERT-DA-tgtは,図 2 に示すとおり,対訳データ $D ,$ 疑似データ $\mathscr{D}^{a}$ のどちらとも異なる新たな疑似データ $\mathscr{D}^{a^{\prime}}=\left.\{\left(\boldsymbol{x}_{k}^{a^{\prime}}, \boldsymbol{y}_{k}^{a^{\prime}}\right) \mid k=1,2, \ldots, S \times L\right.\}$ を生成する DA であり, 大きく「 $\boldsymbol{y}_{k}^{a^{\prime}}$ の生成 (generate $\boldsymbol{y}_{k}^{a^{\prime}}$ ) 」 と「 $\boldsymbol{x}_{k}^{a^{\prime}}$ の生成 (generate $\boldsymbol{x}_{k}^{a^{\prime}}$ )」という 2 つのアルゴリズムによって疑似データが生成される (Algotithm1). $S$ は ya からサンプリングする文の数を表すパラメータ, Lは, BERTの Masked Language Model(Masked LM) における予測確率の順位を表し,DA を行う際のデータ量を調整するパラメータである. 表 1 に生成した $\mathscr{D}^{a^{\prime}}$ の具体例を示す. また, BERT-DA-tgt は様々な NLP タスクにおいてDA の有効性が示されている BERT の Masked LM を用いているため,以下の 3 つのメリットを得る. 1. BERT は文脈を考慮できるため,生成されたテキストは文法的 / 意味的な整合性を持つ特徴を得ることができる。 2. $L$ の数を分析者が指定することで,学習に利用するデータ量を調整できる。 3. 豊富な語彙, 多様な言い回しにより使用できるドメインや生成元コーパスの量が限られた状況での精度向上が期待できる. 表 1 BERT-DA-tgt の疑似データの具体例 図 1 既存の DA 図 2 BERT-DA-tgt ## 3 JGECM 本節では,複数誤りタイプをもつ日本語文法誤り訂正のための評価用コーパス (JGECM) の構築手順および分析を行う. ## 3.1 構築手順 評価データは以下の 5 つの手順により構築する. ## 手順 1 BCCWJ [17]の 'C-XML/VARIABLE/PN'' に含まれる 'xml' ファイルから sentence タグで囲まれたテキストをクローリング 手順 219 文字以上 50 文字未満の文を抽出 手順 3 「句点を含む文」を抽出 手順 4 ランダムに 500 文抽出 手順 5 指示書に基づき 10 名のアノテータが 1 文に対して8 種類の誤りを付与 手順 1 では,本研究では校正者が文法的な正しさが担保されていると考えられる新聞 (PN) レジスターを評価データとして設定し, sentence タグで囲まれた合計 51,977 文が抽出された. 手順 2 では,機械翻訳では構文の曖昧さから,長い文を翻訳することへの問題点が挙げられている [18]. また,長すぎる文は読点や区切り文字などであらかじめ分割しておくことで,問題に対処することができることから,本研究では,評価データの文字数を 19 文字以上 50 文字未満と設定し,合計 17,446 文が抽出された. 手順 3 では,評価対象を文とするために,句点を含まないタイトルや見出しなどを省くための手順である. その結果,合計 15,236 文が抽出された. 手順 4 では,訂正性能を評価するために一定のデータ数が必要であると判断したため,[4]を参考にラン ダムに 500 文用意した. 手順 $\mathbf{5}$ では,今回,[13]を参考に削除 (助詞), 挿入 (助詞), 置換 (助詞), 語彙選択,表記,動詞,削除 (助詞 - 動詞以外), 挿入 (助詞・動詞以外) という 8 種類の誤りを付与した.また,誤り箇所を明確にするために,誤りを付与した箇所を"["と"]"で挟むように指示を行った. 実際に用いた指示書および構築された JGECM の具体例については,付録 A,Bに示す。 ## 3.2 分析 構築した評価データの欠損値の数については表 2 に示す. データに欠損値が含まれる理由は,誤りを付与する対象となる品詞の中に助詞や動詞が存在しない場合,セルの中身を空になるようにアノテータに指示しているためである. 評価データの文字数の分布は図 3 の通りである. 図 3 評価データの文字数の分布 ## 4 実験 実験は,(i) 既存モデル (SMT に基づく手法および NMT に基づく手法) と提案モデル (BERT-DA-tgt を行った GEC モデル) の性能を比較し提案モデルの有効性を示すこと, (ii) 要素 (1) データ生成元, 要素 (2) データ生成量に関する比較実験を行い,提案した DA 手法 (BERT-DA-tgt) がより効果的に作用する知見を見つけ出すこと,の2つを目的として行う. ハイパーパラメータ,最適化,分割単位に関しては [5] の設定を用いる. ## 4.1 実験設定 データセット学習データ, 開発データには Lang8コーパスを利用する.評価データには, NIL, TEC_JL,第 3 節で構築した JGECM の 3 種類を用いる. DA の生成元コーパスとして, BCCWJ [17] からクローリングした一般書籍 (BCCWJ-PB), 図書書籍 (BCCWJ-LB), Yahoo!知恵袋 (BCCWJ-OC) という 3 種類の異なるドメインのデータを使用する. それぞれのデータの詳細については表 3 に示す. 表 3 各データの概要 モデル既存の Encoder-Decoder モデルである Transformerに, Copy 機構を組むことで提案された TransformerCopy [16] を採用して実験を行う. 比較手法比較手法には統計的機械翻訳 (SMT) ベースの GEC 手法として Moses [14, 19], ニューラル機械翻訳 (NMT) ベースの GEC 手法として CNN [14, 20], Bi-LSTM [21], そして, 最後に疑似データを考慮しない通常の TransfomerCopy $[5,16]$ をべースラインとする。 評価指標 GEC システムの評価には,出力文と $\operatorname{src} と \operatorname{tgt}$ の 3 つを用いて行う参照有り評価手法と $\operatorname{tg}$ を用いない参照無し評価手法が存在する [22]. 本研究では, 英語 Shared Taskにおいて最も用いられている前者の $M^{2}$ scorer [23] と GLEU [24] の結果を示す. ## 4.2 要素 (1): 生成元コーパス 生成元コーパスとして, 出版書籍 (PB), 図書館書籍 (LB),Yahoo!知恵袋 (OC) を用いた場合のモデルの性能を比較する。ベースラインは,通常の DA および事前学習を行わない TransformerCopy である. また,今回データ量の違いが性能に影響を与えることを防ぐために,それぞれのレジスターからランダムに 300,000 文を取得し,BERT-DA-tgt によりDA したデータ量 $\left|\mathscr{D}^{a} \cup \mathscr{D}^{a^{\prime}}\right|=600,000$ に設定している. $\mathscr{D}^{a} \cup \mathscr{D}^{a^{\prime}}$ は既存手法で用意できる $\mathscr{D}^{a}$ と提案手法で用意した $\mathscr{D}^{a^{\prime}}$ を結合した事前学習に用いるデータである. 各生成データごとのモデル性能比較に関する実験結果を表 4 に示す. 実験の結果,TEC_JL は OC で,NIL,WGECM は PB で事前学習したモデルが最も性能で優れた。つまり, 評価用データと近い性質を持つコーパスで事前学習を行うことで,精度向上が期待できる可能性を示唆している. 表 4 生成元コーパスごとの GLEU による性能比較 ## 4.3 要素 (2):疑似データ生成量 疑似データ生成量の違いによりモデル性能への影響について検証する. 今回, $K=300,000$ として生成元コーパスからサンプリングし, $L=0,1,2,3,4$ の場合を報告している. $L=0$ は DAを行わないモデルを表している.実験結果を表 5 に示す. $F_{0.5}$ , GLEU は全ての評価データにおいて $L=2$ のときに最も優れていたことが確認できる. これは, $L$ の数を増やすほど予測確率が低いトークンに置換された文が生成されるため, $\operatorname{tg}$ の文構造の崩壊を招きやすくなり性能が下がる可能性が示唆される. 表 5 データ生成量の違いによる性能比較 ## 4.4 既存システムとの性能比較 要素 (1),(2) で得られた知見の下,BERT-DA-tgt の生成元コーパスを BCCWJ-PB, $L=2$ とした設定により構築したモデル (Trans+BERT_PB) と比較手法の性能比較を行う. DAを行わない通常の TransofrmerCopy によるモデル (ベースライン), 事前学習とファインチューニングを Lang8 で行うモデル (Trans+BERT_lang8)を比較手法とした結果についても記載する。実験結果を表 6 に示す. Trans+BERT_PB は,すべての評価データにおいて既存システムよりも性能で上回っている.加えて,提案手法を用いた結果,TEC_JL では 1,835 文のうち 541 文,NIL では 6,672 文のうち 1,605 文の訂正が行われた.また,疑似データを考慮したことで多様な語彙や言い回しに対応でき,TransfomerCopy では訂正ができなかった誤りに対しても訂正されている。 また,Bi-LSTM のように誤り種類を特定して訂正を行う手法と比較しても,不適切な助詞の誤りや文字の挿入に対応することができ,誤りの種類を特定せ ずに訂正が行われていることも確認できた. 表 6 既存システムとの GLEUによる性能比較 図 4 JGECM における誤りタイプごとの評価2) ## 5 おわりに 日本語 GEC 研究が抱える 2 の課題に対して, $\operatorname{tgt}$ の生成も考慮に入れた DA(BERT-DA-tgt) を提案し, 2 つ要素について性能比較を行った. その結果, (1) 生成元コーパスは $\mathrm{PB}$ (出版書籍ドメイン)を用いる. (2) BERT の Masked LM における候補は 2 番目まで増やす. という 2 つ知見を獲得した。これらの設定に基づき,事前学習された TransformerCopy によって GEC モデルを構築し性能比較を行った結果, 複数ドメインの評価データにおいて既存の GEC システムを上回る性能を達成し,BERT-DA-tgt の有効性を示した. 今後の課題として,学習データを逐次的に収集し,モデルを再学習できる GEC システムの構築,入力に用いる分割単位に違いによる性能比較, 開発 (valid) データの違いによる性能比較などが挙げられる. 2) 'hyoki', 'goi', 'insert_joshi', 'doshi', 'insert', 'delete_joshi', 'replace_joshi','delete',はそれぞれ表記,語彙選択,挿入 (助詞), 動詞,插入 (助詞 - 動詞以外), 削除 (助詞), 置換 (助詞),削除 (助詞・動詞以外)を表す. ## 参考文献 [1] Yu Wang, Yuelin Wang, Jie Liu, and Zhuo Liu. A comprehensive survey of grammar error correction. arXiv preprint arXiv:2005.06600, 2020. [2] Shun Kiyono, Jun Suzuki, Masato Mita, Tomoya Mizumoto, and Kentaro Inui. An empirical study of incorporating pseudo data into grammatical error correction. pp. 1236-1242. Association for Computational Linguistics, November 2019 [3] Jeroen Geertzen, Theodora Alexopoulou, and Anna Korhonen. Automatic linguistic annotation of large scale 12 databases: The ef-cambridge open language database (efcamdat). In Proceedings of the 31st Second Language Research Forum. Somerville, MA: Cascadilla Proceedings Project, pp. 240-254, 2013. [4] Tomoya Mizumoto, Mamoru Komachi, Masaaki Nagata, and Yuji Matsumoto. Mining revision log of language learning sns for automated japanese error correction of second language learners. In Proceedings of 5th International Joint Conference on Natural Language Processing, pp. 147-155, 2011. [5] 小川耀一朗, 山本和英. 日本語文法誤り訂正における誤り傾向を考慮した擬似誤り生成. 2020. [6] 白井稔久, 萩行正嗣, 小町守. 擬似誤りコーパスを用いた天気予報原稿のニューラル誤り検出. 人工知能学会全国大会論文集一般社団法人人工知能学会, pp. 3Rin242-3Rin242. 一般社団法人人工知能学会, 2019. [7] Christopher Bryant, Mariano Felice, and Ted Briscoe. Automatic annotation and evaluation of error types for grammatical error correction. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 793-805, Vancouver, Canada, July 2017. Association for Computational Linguistics. [8] Hwee Tou Ng, Siew Mei Wu, Ted Briscoe, Christian Hadiwinoto, Raymond Hendy Susanto, and Christopher Bryant. The CoNLL-2014 shared task on grammatical error correction. In Proceedings of the Eighteenth Conference on Computational Natural Language Learning: Shared Task, pp. 1-14, Baltimore, Maryland, June 2014. Association for Computational Linguistics. [9] Hwee Tou Ng, Siew Mei Wu, Yuanbin Wu, Christian Hadiwinoto, and Joel Tetreault. The CoNLL-2013 shared task on grammatical error correction. In Proceedings of the Seventeenth Conference on Computational Natural Language Learning: Shared Task, pp. 1-12, Sofia, Bulgaria, August 2013. Association for Computational Linguistics. [10] 清野舜, 鈴木潤, 三田雅人, 水本智也, 乾健太郎. 大規模疑似データを用いた高性能文法誤り訂正モデルの構築. 2020. [11] 三田雅人, 水本智也, 金子正弘, 永田亮, 乾健太郎. 文法誤り訂正のコーパス横断評価:単一コーパス評価で十分か?2020 [12] Hiromi Oyama, Mamoru Komachi, and Yuji Matsumoto. Towards automatic error type classification of japanese language learners' writings. In Proceedings of the 27th Pacific Asia Conference on Language, Information, and Computation (PACLIC 27), pp. 163-172, 2013 [13] 大山浩美, 小町守, 松本裕治. 日本語学習者の作文における誤用タイプの階層的アノテーションに基づく機械学習による自動分類. 自然言語処理, Vol. 23, No. 2, pp. 195-225, 2016. [14] Aomi Koyama, Tomoshige Kiyuna, Kenji Kobayashi, Mio Arai, and Mamoru Komachi. Construction of an evaluation corpus for grammatical error correction for learners of Japanese as a second language. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 204211, Marseille, France, May 2020. European Language Resources Association. [15] 小山碧海, 喜友名朝視顕, 小林賢治, 新井美桜, 小町守. 日本語学習者の文法誤り訂正のための評価コー パス構築. 2020. [16] Wei Zhao, Liang Wang, Kewei Shen, Ruoyu Jia, and Jingming Liu. Improving grammatical error correction via pre-training a copy-augmented architecture with unlabeled data. [17] Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary written japanese. Language resources and evaluation, Vol. 48, No. 2, pp. 345-371, 2014. [18] Yoon-Hyung Roh, Young-Ae Seo, Ki-Young Lee, and Sung-Kwon Choi. Long sentence partitioning using structure analysis for machine translation. In NLPRS, 2001. [19] Philipp Koehn, Franz J Och, and Daniel Marcu. Statistical phrase-based translation. Technical report, UNIVERSITY OF SOUTHERN CALIFORNIA MARINA DEL REY INFORMATION SCIENCES INST, 2003. [20] Shamil Chollampatt and Hwee Tou Ng. A multilayer convolutional encoder-decoder neural network for grammatical error correction. In Proceedings of the Thirty-Second AAAI Conference on Artificial Intelligence, February 2018. [21]高橋諒, 䒾田和麻, 多田明宽, 石川信行. Bidirectional LSTM を用いた誤字脱字検出システム. 人工知能学会全国大会論文集一般社団法人人工知能学会, pp. 3C4J903-3C4J903. 一般社団法人人工知能学会, 2019. [22] 浅野広樹, 水本智也, 乾健太郎. 文法性 - 流暢性 ・意味保存性に基づく文法誤り訂正の参照無し評価. 自然言語処理, Vol. 25, No. 5, pp. 555-576, 2018. [23] Daniel Dahlmeier and Hwee Tou Ng. Better evaluation for grammatical error correction. In Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 568-572, Montréal, Canada, June 2012. Association for Computational Linguistics. [24] Courtney Napoles, Keisuke Sakaguchi, Matt Post, and Joel Tetreault. Ground truth for grammatical error correction metrics. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 588-593, Beijing, China, July 2015. Association for Computational Linguistics. ## A 評価データ構築におけるアノテータに対する指示書 下記の誤りの種類に対する作業指示に従って誤りを付与してください。 [削除 (助詞)] B JGECM の具体例および既存システムと提案モデルの出力例の比較 表 8 既存システムと提案モデルの出力例の比較
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E2-1.pdf
# スピーキング 3 秒採点と赤ペン添削システム開発とオンライン授業人手による主観評価から機械(AI)による客観評価へ 田淵龍二 ミント音声教育研究所 tabuchiryuji@nifty.ne.jp } Ryan Spring 東北大学 spring.ryan.edward.c4@tohoku.ac.jp ## 1 はじめに 言語能力 4 技能「読む,聞く,書く,話す」において「話す」能力測定には難点が多く, 入学試験への導入が進まない.とりわけ採点者を複数用意することが困難であり,時間と経費が膨大になってしまう。根本的な問題はスピーキング学習法・教授法の遅れにある。他教科の勉強と比べて見よう。 たとえば受験生は過去問を解いたとき必ず答え合わせをし,不正解なら解説を見て間違いを正すことで自己研鑽する. しかしスピーキングでは答え合わせができない。たとえ模範解答の音声があったとしても自分の発音の修正点は自明ではない. 横に英語母語話者がいればと思うだろう。つまり現状のスピ ーキング学習法には自習環境が欠けている。 もう一つの問題は指導者と生徒の間で, 生徒の発音のどこがどのように間違っているのかを共有することが難しいことだ. たとえ波形や発音記号や口形を見せられても腑に落ちるとは限らない。また厳密な採点に複数の専門家が必要なことも, 課題解決の困難さを増大させている. 現在のスピーキング学習と指導には持続可能な発展(SD: Sustainable Development)に久けている。こうした難点を解決するために,自動採点システムの研究開発も進んでいて,あと一息である[1][2][3][4]. そこで筆者らは AI 音声認識技術 (ASR: Automatic Speaking Recognition)に即時採点を可能にする自動赤ペン添削 (ASCwRP: Automatic Speaking Correction with Red Pen)を加えたサービス(ASCA: Automatic Speaking Correction Application)の開発と授業実践に取り組んだ. ASCA の設計思想を具体化したオープンサイト NatTos の公開を受けて, 音声指導授業を実施した. 結果は思った以上に良好で, 従来の難点とされた透明性, 客観性, 機会均等性, 即時性で効果が確認された。また学習性, 説明性, 納得性, 共有性, 指導性を解決 する方向性が見えてきた.特にオンライン授業の受講者の多くが積極的に参加し,満点を取る(通じる) まで何度も自ら工夫しながら,授業時間終了後にも挑戦する様子が見受けられた。 以下に詳しく述べる。 ## 2 ASCA を具体化した NatTos の概要 スピーキング自動赤ペン添削(ASCwRP)の仕組みはシンプルで, $\mathrm{AI}$ 音声認識技術 (ASR) が出力したテキスト(書き起こし文)を課題テキストと比較し, 双方で一致しないところを抽出する流れである.赤ペン添削の様子を図 1 に示す. ## At those times ${ ^{k}$ I would} think in silence 図 1 赤ペン添削の様子 上段の英文が読み上げ用の文(課題文)で,下段が受験者の音声を ASR で書き起こしたテキスト(解答文)である.赤字の文字が一致しない部分を示している.この例からは発音上の 3 つの弱点が指摘できる. 1. 言い出しの At が弱すぎたのだろう 2. 音素 $\mathrm{TH}$ が $\mathrm{S}$ と聞き取られている 3. 音素 $\mathrm{L}$ が $\mathrm{R}$ と聞き取られている結果として“沈思”が “魅惑的?に歌う”になったことがわかる.採点と添削は直感性が高いので無用かもしれないが念のため, 図 1 を参考に採点と添削と学習指導について説明する。 採点は「正しさ」と「なめらかさ」で評価している.「正しさ」は赤文字の比率を基礎にした 10 段階 評価で, 満点が 10 , 最低が 1 となる. 図 1 の例では前半ができたが後半が全滅したので 3 点となった. 「なめらかさ」は発声単語数を発声時間(秒)で割ったもので,単位は wps (words per second). 最大は 3.1, 有効行数は小数点第 1 位で抑えてある.添削結果は課題文と解答文に赤字で示してある.課題文の赤字は解答文にない文字 (文字列) で, 解答文の赤字は課題文にないことを示している.双方を照らし合わせることで「言い間違い」や「欠落」 や「余分」を知ることができる. 総評は右下にあるアイコンである.ここでは通じなかったので,「ウッ」との顔文字になっている. 満点(正しく通じた)では○が表示される. 指導は受験者の個人差が出やすいが,アルファべットと音声(音素)の区別がつく初級以上であれば理解できるだろう.このあたりは学力(学年)に合わせた指導法の研究が待たれる. 今回の授業対象は大学初級で, 説明抜きで理解されたようだ. ## 3 NatTos による発声練習の仕組み ここでは課題文の提示から,発声・添削までの流れを述べる。 開始ボタンをタップすると課題文が提示される. と同時に模範音声が流れる.その様子を図 2 に示す. 図 2 課題文提示の様子 模範音声を聞いたあとで録音ボタン(赤丸)を夕ップする。録音が始まるので課題文を読み上げる。読み上げを終えるか無音期間が長く続くと録音状態が自動的に解除され, 添削が開始される。 3 秒しないうちに先に示した図 1 のような結果が示される. 入学試験や資格試験であれば次の課題に進むことになる.しかしウェブアプリ NatTos は発声練習用として開発されている. 練習用と受験用で大きく異なる点は反復性であろう.受験の解答は 1 回限りだが,練習では何度でも正解するまで挑戦することができる. 工夫しながら発声・採点・添削を繰り返すことが成長につながるからである. NatTos では最大 5 回まで挑戦できる。 さて,赤ペンのついた部分を注意すれば良い事がわかっても,どのように発声すれば良いのかわからない,そこで模範音声を再生できるようになっている. それがスピーカマークである. また何度か続けて聞いて確かめたいこともある。それが図 2 の右上にある「繰り返す」ボタンだ。最大 5 回まで連続再生できる. 模範音声を聞きながら重ねて音を合わせるように(シャドーイング)するのが上達のコツである. また人の一息の発声と聴覚作動記憶 (音韻ループ) の時間幅はともに $2 \sim 3$ 秒 [5][6] なので,模範音声をフレーズに分けてシャドーイングできるようにしてある。 それが図 1 上段の背景色 (薄い青と緑)で区切られたブロックである. ## 4 赤ペン添削による学習履歴 発声と添削の様子は克明に記録され,先生も生徒もリアルタイムで授業中に閲覧できる。採点の生徒への即時フィードバックは学習を促す。他方,視覚化された学習履歴の統計処理結果は教員の形成的評価(Formative Assessment)として即時指導に利用できる.そのフィードバック機能をいくつか紹介する. ## 4.1 クラス履歴 データマイニングによるスピーキングテストの履歴俯瞰では,正しく発音できなかった課題文や表現が一望できる(図 3). 図 3 課題文提示の様子 (抜粋) 右端のコインと小判のアイコンがそれぞれ正しさとなめらかさの度合いを示す. 左端の赤と緑のバー が出来具合を示す. 赤が多いほど不出来だったことを示す. 濃淡のある青い背景色を持つ文字列は課題文で,色の濃いところほど正しい発音にならなかつたことを示している. 付録 $\mathrm{A}$ にテスト課題全文と履 歴全体図を掲載した。 テキストマイニングによる語彙クラウドでは,生徒が頻繁に失敗した語彙がひと目でわかる(図 4). 図 4 語彙クラウド例 発声に何度も失敗した語彙が太字で大きく表示される.たとえば中断左端の pray を選ぶと, 図 5 のように表示が変わる。 pray 344 回(背景赤と緑)の発声があり,通じたのは $28 \%$ (緑字)だとわかる。 図 5 失敗パターンチャート例 さらにその下には対象語 pray の発音間違い (話者の意図と異なる ASR の聞き取り)が多かった失敗例が 2 つ示されている (破線内拡大図)。音素 $\mathrm{R}$ を $\mathrm{L}$ と発声した例が $28 \%$ に及んでいたことがわかる. また語頭子音の曖昧さも一定量見て取れる. ## 4.2 生徒履歴 受験者の個別履歴を図 6 に示す. 受験者 1 は 1 回目のテストで失敗し, 2 回目のテストの 3 回目の発声で成功している. 受験者 2 は 1 回目のテストの 2 回目の挑戦で成功し, 2 回目テストでは一発で成功 させている。学力差だと片付けられない情報がこの履歴には隠されている. それが赤い小さな点である. 小さな赤い点の数を比べると, 受験者 1 には 2 個, 受験者 2 には 5 個見つかる. 赤い点の数は補助音声再生の回数を表している. 行頭の赤い点は自動再生で,それ以外は受験者の手動再生である。受験者 2 は 1 回目のテストで最初に失敗したあと補助音声を 3 度再生し, その後の発声で成功させていたことがわかる。 母語話者の音声を参照しそれを真似て発話しようとの意志がうかがえる. それに対し受験者 1 は自らの記憶にある音声と発声知識だけを参照して失敗を繰り返したと推察される。 受験者 1 受験者2 図 6 受験者ごとの発声履歴 凡例: 1 回分の発声. " 補助音声再生. 91 列分が 1 回分のテスト. 盛の成功. X 失敗. アイコンは左から右,上から下への時系列。 ## 5 オンラインテストと指導の様子 約 100 人 (3クラス, CEFR A2 B2: 初級〜準上級) のオンライン授業で NatTos を発音練習ツールとして利用した。発音の講義(週 1 レッスンを 5 週)の各テーマは子音, 母音, ストレス, 連結・脱落, リズムであった。毎回,授業の前後に教員が自分で NatTos 上に作成した発音テストを実施した。毎回の発音テストはレッスンテーマに沿った物であり,学習履歴を形成的評価として利用した. レッスン冒頭の発音テスト(前テスト)の結果を確認し,多くの学生が困ったポイントに指導を集中した. 例えば, CEFR B2 のクラスはLの音が最初からできたがRの音ができなかったため, そのクラスでは $\mathrm{R}$ に集中的に指導して,練習させた。一方, CEFR A2 のクラスは $\mathrm{L}$ と $の$ 音を両方できなかったため, 両方を平等に指導し,その区別に焦点をおいて指導した。 また,発音の指導を実施した後,NatTosで作成した別の練習課題を学生に与え, 学習履歴を確認し, 最も多い間違いを参照しながらクラスごとに助言をした. 例えば, CEFR B1 のクラスでは Rを発音する際に W として認識された件が多かったため, 多くの学生が R を発音する場合, 唇を前に出していたということが特定できたため, 唇を後ろに引っ張るように指導ができ,発音の改善を図れた.クラスによって発音によるミスが異なることから, 学習履歴でクラス固有の弱点を即時に確認することで, 教育の改善が適切にできたと考えられる。 その例として, 3 クラス全体の前後テストの分析結果を表 1 に示す.第 1 回(子音)と第 2 回(母音)の発音テストの正確さを対応あり $\mathrm{t}$ 検定で比較した場合, 上達していることが明らかになった。 表 1 前後テストでの正確さの比較 $N=\mathbf{7 8}$ 前テストは授業冒頭, 後テストは授業の締めくくりにそれぞれ 20 分ほど実施. 值は平均值 (10 点満点).カッコ内は標準偏差.前後テストのどちらか一方だけのデータは除いた. 教員として,発音の形成的評価が即時に数多くの学生にできることが非常に好ましい状態であり, 発音の指導をより良好にできる. 従来の発音指導法では,全ての学生の発音を聞いて,個人アドバイスするのが大変困難である. 対面式の場合でも, 10 人以下の少人数クラスでもない限り, 教員は全員の発音を認識するのは困難であり,コロナ渦で急にオンライン化された授業では尚更できない。また, 対面式で一人一人に発音指導をすると, 他の学生の練習が止まり, 先生の助言が来るまで待っている時間が多い.そのため, NatTos を授業に取り入れることにより, 学生の練習時間が多くなり, 学生が ASR によるフィードバックを即時に確認ができ, また ASCwRP 履歴マイニングに基づいたフィードバックが教員から来るため, 学生には練習時間とフィードバックの量が増えることになった。 今後の研究課題として, どのような練習文を使えば, 最も発音トレーニングのためになるかを調査し, どのような発音レッスンを実施すれば,最も発音が上達するかを調查したいと考える. ## 6 おわりに 英語スピーキングテストを全自動 3 秒で採点と添削をして返すアプリは他に例がないようであったが, ASR と ASCwRP を組み込んだ ASCA で設計したアプリ NatTos が 3 クラス 100 人規模の授業で結果を出したことで, 成果と課題が浮き彫りになった. 成果は,発声・採点・添削・指導のサイクルを 1 コマの授業内で可能にしたことで,通常授業でスピ ーキング課題をもっと頻繁に行えるようになるだけでなく, 学期試験や入学試験への応用可能性も示唆された. 特に,スピーキング学習にあっては「他者とのコミュニケーションを妨げる発音誤りを認識する必要」[4]があることから, ASCA はその課題をクリアしたと判断できた. 次に ASCA の課題を列挙する。 (1) 評価の妥当性については, 人手による主観的評価との比較研究を準備中である。 (2) 学習効果については, 今回のパイロット研究をべ一スに来年度に精度高く検証予定である。 (3) Chrome と SafariによるASR で同等の出力が期待できるかの検証が必要である. (4) 読み上げ問題には対応している一方で, 自由発話問題や文生成問題 $[1]$ の対応にはキーワード生成や文法チェックなどの技術導入が必要となるだろう. (5) 発音評価指標とされる intelligibility(音韻的正確性; 了解性)と comprehensibility(理解可能性 ;可解性)[4]に従えば,ASR は後者の comprehen sibility に重きをおいていると考えられることから,ASRの選定(どの ASRを使うか,あるいは複数の ASR が必要か) などの検討も視野に入れる必要がある。 (6) ASCA が出力する各種履歴データに支援された教授法の考案と, 授業中の指導に結びつく出力デ一タの最適化が望まれる。 (7) 課題文の作成にあっては, 単語と短文と長文で語彙や文構造による学習効果度合や難易度(ASR の特性)を調べる必要がある。 (8) 特に単語については ASR の成否が採点結果に大きく影響する[1]ことから親密度や出現頻度や同音異語などへの対処が求められる。 これらの課題を解決するには該当する分野の技術と専門家及び指導者(教員)の協力が必要となる. 関心のある研究者や教育者及びその団体の参加を強く期待している. ## 参考文献 1. 今井新悟(筑波大学), 赤木爾生 (山口大学), 石塚賢吉(株式会社ドワンゴ),伊東祐郎(東京外国語大学) , 菊地賢一 (東邦大学), 篠崎隆宏 (東京工業大学), 中園博美 (島根大学), 中村洋一 (清泉女学院短期大学), 西村隆一 (和歌山大学), 本田明子(立命館アジア太平洋大学), 家根橋伸子 (東亜大学), 山田武志 (筑波大学)。「自動採点スピーキングテスト SJ-CAT の能力推定の検証」言語処理学会第 23 回年次大会発表論文集 (2017 年 3 月), 835-838. 2. 中西のりこ, タム・ショウイン, 海老原由貴 (201 9).「ICT 教室の特性と音声認識ソフトを活かした英語リスニング・スピーキング活動の可視化」.私立大学情報教育協会 2019 年度 ICT 利用による教育改善研究発表会 http://juce.jp/archives/ronbu n_2019/02.pdf 3. Spring, R. (2020). Using Multimedia Tools to Obj ectively Rate the Pronunciation of L1 Japanese EF L Learners. ATEM Journal: Teaching English thro ugh Multimedia, 25, 113-124. 4. 井上雄介,椛島優,齋藤大輔,峯松信明(2018).「母語話者シャドーイングに基づく可解性自動計測と回帰分析による高精度化」情報処理学会 第 125 回 SLP 研究発表会. https://www.gavo.t.u-tok yo.ac.jp/ mine/CALL/ILS/Inoue_asj.pdf 5. 湯舟英一, 田淵龍二 (2013).「映画音声コーパスを利用した Breath Group 長の分析」 Language Education \& Technology, 50, 23-41.: https://www. mintap.com/news/pic/2013_7_bg.pdf. 6. 田淵龍二 (2018).「テキストアナリティクスと音声解析と認知科学と検索エンジン」. 電子情報通信学会言語理解とコミュニケーション研究会第 13 回テキストアナリティクス・シンポジウム. https://www.mintap.com/news/pic/2018_nlc13.pdf ## 付録 A テスト履歴俯瞰図と課題文全文 1 crime 2 climb 3 bat 4 vat 5 some 6 thumb 7 laze 8 lathe 9 When I was a child, I often visited the shrine near my house. 10 of course, I went there to pray with my family on special occasions. 11 But I also went on my own. 12 That's because there were very few places to play in my neighborhood. 13 However, there would sometimes be a ban on entry for preparations or other things. 14 At those times, I would think in silence. 15 Eventually, I would get an idea and head elsewhere. 16 But it wasn't without a heavy heart. (履歴と課題文は 5 回の授業のうちの初回のもの) ## B NatTos の動作環境など 必須媒体 サービス アクセス 動作確認 機能 テスト課題 公開 クラス管理開発中/2021 年春公開予定/有料 開発ミント音声教育研究所(田淵龍二) ## C 受験者(生徒)の動作環境 Chrome 28 人 Safari 80 人自動採点,自動赤ペン添削 ・自前文によるテスト作成 - 作成テスト公開 (登録が必要/無料)
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E2-2.pdf
# 日本語学習者の単語表記の自動評価に向けて Dolça Tellols $^{1}$ 徳永 健伸 ${ }^{1}$ 横野 光 ${ }^{2}$ 1 東京工業大学 情報理工学院 2 株式会社富士通研究所 \{tellols.d.aa@m, take@c\}.titech.ac.jp yokono.hikaru@fujitsu.com ## 1 はじめに 言語学習者の増加にともない,コンピュータを使った言語学習支援 (Computer Assisted Language Learning) システムの研究が関心を集めている [1]. また,学習支援と同時に学習者の言語知識や言語能力を自動的に評定することも重要な研究課題である. 文法や語彙の全体的な知識だけではなく,より詳細な要素を測る尺度があれば学習者の言語能力の長所と短所を正確に把握することができる. その結果を元に学習者はより効率的に勉強でき, 教員も学習者のニーズに合わせた教え方ができる. 本研究は言語学習者の言語能力を構成する一つの次元である語彙に注目する。語彙は読んだり聞いたりする時に使う理解語彙と書いたり話したりする時に使う使用語彙に分けられると言われている $[2,3,4,5,6]$. 従来,選択肢問題を使って理解語彙を評定する研究は盛んにおこなわれているが [7],使用語彙を評定する研究は少ない。その理由のひとつとして,評定対象の語を学習者に使用させる文脈を用意することは難しいことがあげられる. これまでにも,使用語彙のサイズを予測するテストや尺度がいくつか提案されている. 例えば,文を完成させる Productive Vocabulary Levels Test (PVLT) [2], 語彙頻度リストを使って作文に出てくる語彙の分布を測る Lexical Frequency Profile (LFP) [8],刺激単語から連想する単語を書かせ,その単語の難易度によってスコアを計算する Lex30テスト [9] などがある. 本研究では語彙サイズではなく,単語表記の正確さに着目する. 話し言葉の場合,単語表記の正確さを評価するために発音に注目するべきだが,書き言葉の場合,言語の特徵によって注目するべき点が異なる.英語のように一つの表記体系しか使わない言語はこの次元を評価するためにスペルミスに注目することになる. しかし, 日本語のように複数の表記体系を持つ言語では,誤字 (スペルミスを含む) だけではなく, 使われている表記体系の適切さも考慮するべきである。本稿では,書き言葉において日本語学習者の単語表記の正確さに関する評価次元を定義し,自動評価に向けて解決すべき課題について議論する。 ## 2 関連研究 本研究は日本語学習者の単語表記の正確さを測るために誤字と表記体系の適切さを考慮する. 自動評価を目指しているため,キーボード入力を仮定する。キーボード入力における自動タイポ修正を目指している研究はいくつか存在する. Hagiwara ら [10] は Github ${ }^{1)}$ データを用いて自動的に多言語スペルミス・コーパス2)を構築した. Tanaka ら [11] は Wikipedia ${ }^{3}$ の編集履歴を用いて日本語タイポ・デー タセット4)を構築し,タイプ修正のためにエンコー ダーデコーダーモデルを学習した。高橋ら [12] は株式会社リクルートテクノロジーズのデータを使って BLSTM に基づく誤字脱字検出システムを構築した。 そして,Komatsu ら [13] は日本語タイポを分類するためにアテンション付き LSTM モデルを学習した. これらの関連研究の多くは母語話者のデータを基にしている. しかし,日本語学習者の誤り傾向は母語話者と違う可能性があるため, 実際の学習者から得られたデータも調べる必要がある. 以下,言語学習者データを利用した関連研究を紹介する. Mizumoto ら [14] は母語話者が修正した学習者の Lang- $8^{5}$ データを用いて日本語自動誤字修正のための Lang-8 コーパス)を構築した. その後, Koyama ら [15] はこのコーパスの一部にアノテー ションを行なって,エラー修正モデルの評価のために新たなコーパス7)を構築し,それを用いて Lang-8  コーパスで学習したニューラル機械翻訳と統計機械翻訳モデルを評価した. 同じデータを用いて, Homma ら [16] \& NAR(non-autoregressive) ニューラル機械翻訳モデルを学習し評価している。これらの研究は語彙・文法を併せて修正するモデルを構築しているが,本研究では語彙,特に単語の表記に注目する。 誤字に関する研究が多い一方で,表記体系の使い方を調査した研究は少ない. 高校教科書に出てくる字の表記体系の割合を示している研究 [17] や時間経過とともに漢字と仮名の使用率がどう変わるかを調査した研究がある $[18,19]$. しかし, その使用率と学習者の習熟レベルとの関係を調査している研究は見あたらない。 Takaoka ら [20] は,日本語の表記体系が複雑で正書法が厳密でないため,表記摇れが日本語形態素解析の課題となっていることを議論している. ## 3 単語表記の正確さの定義 本研究では日本語の単語表記の正確さを定義するため,入力された語が以下の三つのクラスのいずれかに分類されることを仮定する。 (A) 正解 誤字を含まず適切な表記体系で書いてある場合. (B) 不適切な表記体系 漢字表記が適切だと考えられるのに仮名表記されているなど,使われている表記体系が不適切な場合. (C) 誤字 スペルミス,変換ミスなどのように単語として成立していない場合. 例えば,「今日は共だちとコンサトにいきたいです.」の正しい表記は「今日は友だちとコンサートに行きたいです.」である.この中で「今日」は正しいので (A),「共だち」は「友だち」の誤字 (変換ミス)なので (C),「コンサト」は「コンサート」の誤字 (スペルミス)なので (C),「いきたい」は「行きたい」 と書く方が適切なので (B) にそれぞれ分類できる。 ## 4 自動評価に向けての調査 本節では, 単語表記の自動評価に向けて日本語学習者と母語話者のデータを分析し,そのデータを分類するモデルを試作し,分類における問題の分析を行った. ## 4.1 データ 今回分析したデータは東京工業大学に所属している 14 人の日本語学習者と 2 人の日本語母語話者から得られたテキストデータである.学習者集合は様々なレベル (初級者 4 人, 中級者 5 人,上級者 3 人,超上級者 2 人),様々な国籍 (中国 4 人,インドネシア 3 人,台湾 2 人,英国 1 人,サウジアラビア 1 人,米国 1 人,ネパール 1 人,シンガポール 1 人) で構成されている. 学習者のレベルは日本語授業のクラス分けテストの結果を基に分類した. 頭に浮かんだ単語: 1. かさ 6. コート 2. 雨 7. 街 3. $<8 り$ 8. 持つ 4. かばん 9. 黒 5. 歩< 10. (無解答) 画像の説明 : 雨が降って色々な人が傘とかばんを持ち、街の中を歩いている。 図 1 データ収集タスクの例 データは STAIR キャプションデータセット [21] を用いて生成した画像セットについて記述するタスク (図 1) から得た. 各画像セットの被写体は共通点を持っており,学習者がテキストを書くための刺激になる. 学習者には画像セットごとに 3 分以内に頭に浮かんだ 10 語と画像の説明 (可能な限り 20 字以上)を書かせた. 図 1 中で青字の部分が学習者の入力に相当する. 今回は,10 個の画像セットを使って得られた合計 144 の応答を使っている. このデータは Django ${ }^{8)}$ で作り, Heroku ${ }^{9}$ )でデプロイした Web アプリケーションを通して収集した. アプリ内でブラウザーのスペルチェックオートコンプリートとオー トコレクト機能を使えないように設定した。  ## 4.2 単語表記分類モデルの試作 本研究では Python(バージョン 3.6.0) と以下のライブラリーや APIを使って単語表記の分類を実装した. 1. pykakasi ${ }^{10)}$, バージョン 1.2. 2. Google CGI API for Japanese Input ${ }^{11)}$. 3. mecab-python ${ }^{12)}$, バージョン 0.996.2(デフォル卜辞書). pykakasi は平仮名と片仮名への変換のために使い, Google の API はかな漢字変換のために使った. 日本語では単語の間に区切りがないため,MeCabを用いて単語分割とフィルタリング (名詞-固有名詞と数以外-,自立動詞,形容詞と副詞だけを考慮する)を行った. 試作した分類モデルの入力は,図 1 の課題に対して入力された「頭に浮かんだ単語」と「画像の説明」である. 使っている画像と STAIR キャプションデータセットにある対応しているキャプション (母語話者が書いた)を文脈として扱う。 さらに,語として成立するかどうかを判断するために『現代日本語書き言葉均衡コーパス $(\mathrm{BCCWJ}) 』 の$ 語彙表 (BCCWJ 長単位語彙表 $)^{13}$ を使った. 学習者の入力を 3 節で述べた単語表記のクラスに分類する処理を以下に示す. 前処理として,入力から空白と改行を削除する。 (1) 入力を Google の API によって変換する. (2) 4.3.3 節の分析に基づき,文脈を参照し,変換結果に以下の後処理を行う: -漢字一文字とその次の部分の変換結果を修正する. 一平仮名一文字と漢字一文字の変換を修正する。 一ある単語の変換結果が複数ある場合,その中に文脈に表れるものがあればそれを採用する. (3) MeCabを使って (2) の結果に単語分割とフィルタリングを行い,単語集合を得る。 (4) 元の入力とそれを平仮名に変換したものを参照し,(3) で抽出された各単語を次のように分類する: 10) https://github.com/miurahr/pykakasi/ 11) https://www.google.co.jp/ime/cgiapi.html 12) https://taku910.github.io/mecab/ 13) https://pj.ninjal.ac.jp/corpus_center/bccwj/ - 単語にローマ字が含まれている場合か,変換ミスと認識された場合か,語彙表に存在していない場合は (C) に分類する. 一誤字が含まれなくて入力に対して処理された単語の表記体系に変化があった場合は (B) に分類する. - それ以外の単語は (A) に分類する. 例えば,入力として「きれいなそらでたこをあそびにそとへいきます。」を与えると,(1)〜 (3) の処理の結果として次の単語集合が抽出できる:「きれい」,「空」,「たこ」,「遊び」,「外」,「行き」,各単語に対して,(4) の処理で「きれい」と「たこ」はクラス (A) に分類され,「空」,「遊び」,「外」と「行き」はクラス $(\mathrm{B})$ に分類される. ## 4.3 議論 今回の実験は規模も小さく,手法も暫定的なものなので,これまでにわかった問題点について定性的な分析を述べる. ## 4.3.1 誤字判断の難しさ 学習者の入力を人手で確認した際,誤字かどうかの判断が困難な事例が見られた。例えば,「じゅ」のように平仮名で書かれてあるものは学習者が何について言及したかったのかを推測することが難しく,定義したクラスのどれに該当するかを判断することができない,誤字かどうかを判断するためには文脈を考慮することが重要である.例えば,電車の写真が提示された問題に対してある学習者が「記者」と書いたとする。これ自体は単語として存在しているため,正確さには問題ないと判断してしまう。しかし,文脈を考慮すると恐らく学習者は「汽車」と書きたかったのだろうが,かな変換の誤りで「記者」 としてしまったと推測することができる。 また,語彙の誤りなのか文法の誤りなのかの判断が難しい事例もある.例えば,「飛びる」のような入力に対して,学習者は「飛ぶ」か「飛べる」を書きたかったと推測するとこの入力を活用の誤りだとみなして,語彙の正確さに関しては問題がないと判断することもできる。しかし,本来は存在しない単語である「飛びる」を書いたと推測するとこの入力は語彙に関する誤りとして単語表記の正確さの評価の際に考慮する必要がある. 「シャレオツ」のような俗語も学習者は入力しており,このような語を誤字とすべきか,正確な語と して扱うべきかを決めなければならない。 試作のモデルでは判断が難しかった誤字もいくつかあった。例えば,「たくらん」(学習者は「たくさん」を書きたかったと推測される) が処理の後に 「托,卵」になり誤字として扱えなかった。また,単語分割や変換の問題で判断できなかった誤字には 「レフォーム」(「リフォーム」),「みなあさん」(「みんなさん」),「どこ度も」(「どこでも」),「おとも」 (「とても」)などがあった. 誤字を正確に認識するためにはどの文字列が誤字であるかがアノテーションされたデータが必要だと考える。そのデータを用いることで単語分割モデルを改良し,誤字を含む単語の認識率を上げることができると考えられる。 ## 4.3.2 表記体系の適切さの判断の困難性 日本語の表記には平仮名,片仮名と漢字があり,日本語話者は状況に応じてそれらを使い分ける.漢字で書ける語彙は漢字で書く場合が多いが,その表現を柔らかくするため平仮名で書いたり,強調するために片仮名で書いたりすることもある.それに加えて,読み手を考えて,文章を読みやすくするために表記体系を調整することもありえる。例を挙げる は(母)」,「ひも(紐)」,「わかりません (分かりません)」,「ごみ(ゴミ)」などがある. 単語表記を (B) として判定する際に,その単語単独で判断するのではなく, 入力全体の表記のバランスも考慮して判定することも考えられる。 ## 4.3.3 Google の API の問題点 API から得られる出力が正しい変換結果でない場合がある.例えば,木が写っている画像に対する単語として入力された「き」が「木」ではなく「気」 になり,「むら」が「村」ではなく「ムラ」になり,「よる」は「夜」ではなく「よる」のまま残る,ということが起きる。また,文脈によって API の変換結果も異なる場合がある.例を挙げると,「うち」はそのまま入力すると「家」にならないが「うちもきれいとおもいます.」のような入力においては「家」 と変換される. Google の API が行う単語分割において誤りが発生することもある.例えば,「この動物は白いと黒い線があります.」の入力において,「白いと」は「白,糸」になり,「黒い」は「黒,位」になる.また,「楽 しむ活動」は「楽し無活動」になり,「奪うために」 は「奪うた目に」になるといった問題もある。この問題に対しては,APIの入力に文節区切りの位置を指定することができるため,別の自動単語分割システムの結果に従い,区切りを決めたら API から得られる出力が改良できると考えられる。 ## 4.3.4 MeCab の単語分割の問題点 平仮名の入力に対しては,単語分割が誤る場合がある.例えば,「たべもの」(食べ物) は「たべ,もの」になり,「かぞく」(家族) は「か,ぞ,く」になり,「そと」(外)は「そ,と」になる。 それに加えて,入力に誤字が含まれている場合も,その誤字の影響で単語分割が誤ることがある.例を挙げると,「りょきょうのためにじゅんびします.」(今日のために準備します) という文章を入力すると「りょ」という誤字のために「り,ょきょうのためにじゅんびします,.」という単語分割を得る.これを解決するために現在の試作でかな変換を行なった後で単語分割することを検討している。しかし,今使っているかな変換 API からまだ理想的な出力は得られない. 別の解決方法としては,アノテーションされたデータを使い,平仮名で書いてある単語と誤字を含む単語を考慮する辞書を準備し,単語分割システムがその辞書を使うようにすることが考えられる。 ## 5 おわりに 本稿では,日本語学習者と言語教育関係者を支援するために,単語表記の正確さを定義し,自動評価に向けて調査した.単語表記の正確さの定義において誤字と表記体系の適切さに注目し,ルールベースでの単語表記分類モデルを試作した. 実際に学習者が作成したデータを用いて評価を行うことで,解決すべき課題や問題点が明らかになった. 特に,試作したモデルでは用いたかな変換と単語分割システムの誤りが問題となる. 単語表記の正確さの自動評価に向けて, 今後の課題はスコアの決定,試作した分類モデルの改良とアノテーションガイドラインの作成である. ## 参考文献 [1] Detmar Meurers and Markus Dickinson. Evidence and interpretation in language learning research: Opportunities for collaboration with computational linguistics. Language Learning, Vol. 67, No. S1, pp. 66-95, 2017. [2] Batia Laufer and Paul Nation. A vocabulary-size test of controlled productive ability. Language testing, Vol. 16, No. 1, pp. 33-51, 1999. [3] Stuart Webb. Receptive and productive vocabulary sizes of 12 learners. Studies in Second language acquisition, Vol. 30, No. 1, pp. 79-95, 2008. [4] Birgit Henriksen. Three dimensions of vocabulary development. Studies in second language acquisition, Vol. 21, No. 2, pp. 303-317, 1999. [5] Paul Nation. Learning vocabulary in another language. Cambridge University Press, 2001. [6] John Read. Assessing Vocabulary. Cambridge University Press, 2000. [7] David Beglar and Paul Nation. A vocabulary size test. The language teacher, Vol. 31, No. 7, pp. 9-13, 2007. [8] Batia Laufer and Paul Nation. Vocabulary size and use: Lexical richness in L2 written production. Applied linguistics, Vol. 16, No. 3, pp. 307-322, 1995. [9] Paul Meara and Tess Fitzpatrick. Lex30: An improved method of assessing productive vocabulary in an L2. System, Vol. 28, No. 1, pp. 19-30, 2000. [10] Masato Hagiwara and Masato Mita. Github typo corpus: A large-scale multilingual dataset of misspellings and grammatical errors. arXiv preprint arXiv:1911.12893, 2019. [11] Yu Tanaka, Yugo Murawaki, Daisuke Kawahara, and Sadao Kurohashi. Building a Japanese typo dataset from wikipedia' s revision history. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 230-236, 2020. [12] 高橋諒, 䒾田和麻, 多田明寛, 石川信行. Bidirectional $1 \mathrm{stm}$ を用いた誤字脱字検出システム. 人工知能学会全国大会論文集一般社団法人人工知能学会, pp. 3C4J903-3C4J903. 一般社団法人人工知能学会, 2019. [13] Ryuki Komatsu, Rin Hirakawa, Hideaki Kawano, Kenichi Nakashi, and Yoshihisa Nakatoh. Study on mistype correction support using attention in Japanese input. In 2020 IEEE International Conference on Consumer Electronics (ICCE), pp. 1-2. IEEE, 2020. [14] Tomoya Mizumoto, Mamoru Komachi, Masaaki Nagata, and Yuji Matsumoto. Mining revision log of language learning sns for automated Japanese error correction of second language learners. In Proceedings of 5th International Joint Conference on Natural Language Processing, pp. 147-155, 2011. [15] Aomi Koyama, Tomoshige Kiyuna, Kenji Kobayashi, Mio Arai, and Mamoru Komachi. Construction of an evaluation corpus for grammatical error correction for learners of Japanese as a second language. In Proceedings of The 12th Language Resources and Evaluation Conference, pp. 204-211, 2020. [16] Hiroki Homma and Mamoru Komachi. Nonautoregressive grammatical error correction toward a writing support system. In Proceedings of the 6th Workshop on Natural Language Processing Techniques for Educational Applications, pp. 1-10, 2020. [17] Takushi Tanaka. Statistical analysis of Japanese characters. In COLING 1980 Volume 1: The 8th International Conference on Computational Linguistics, 1980. [18] Dilhara Darshana Premaratne. Is the use of kanji increasing in the Japanese writing system? Electronic Journal of Contemporary Japanese Studies, 2012. [19] Yuko Igarashi. The changing role of katakana in the Japanese writing system. PhD thesis, 2007. [20] Kazuma Takaoka, Sorami Hisamoto, Noriko Kawahara, Miho Sakamoto, Yoshitaka Uchida, and Yuji Matsumoto. Sudachi: A Japanese tokenizer for business. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), 2018. [21] Stair captions: Constructing a large-scale Japanese image caption dataset. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 417-421, Vancouver, Canada, July 2017. Association for Computational Linguistics.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E2-3.pdf
# 多言語モデルの転移学習による日本人英語音声認識 森 滉介HOU, Wenxin篠崎 隆宏 東京工業大学 工学院 情報通信系 www.ts.ip.titech.ac.jp ## 1 はじめに 近年,end-to-end アプローチにより,DNN ベースの単一モデルによる自動音声認識が可能となった $[1,2,3]$. 広範なコーパスを学習させたモデルは,人間と同等かそれ以上の音声認識性能を示す。一方,少量の音声データでは,高い認識性能を示すモデルの学習は難しい. 非ネイティブ話者の発音は母国語の影響を受けやすいため,非ネイティブ音声認識では,同じ母国語を持つ話者の音声をモデルに学習させることが望ましい. それに伴ってモデルに学習させる非ネイティブ話者の音声データが必要となるが,非ネイティブ話者の数は少ない上に,音声には不自然な発音が多い。非ネイティブ音声の収集とラベル付けは,ネイティブ音声に比べて困難である [4]. 音声データが少ない言語における音声認識手法として転移学習がある。主流となっている手法では,学習データが豊富な言語の音声をモデルに事前学習させ,認識対象言語の音声でモデルを再学習させる $[5,6]$. モデルの隠れ層を言語間で共有させることで,言語に依存しない普遍的な音声表現の抽出が可能となる $[7,8]$. さらに最近では,適応させる言語知識の範囲を拡大し,多言語の音声を end-to-end ネットワークに事前学習させ,低資源言語に対する音声認識性能を高めている $[9,10]$. 非ネイティブ音声を一種の低資源言語と捉え,転移学習を用いて他の言語知識を適応させる手法が提案されている [11,12]. しかし, これまでの研究では,非ネイティブ音声認識に適応させる知識は 2 , 3 言語に限られている。そこで本稿では,高精度の日本人英語音声認識を目的とし,適応させる知識を多言語に拡張した転移学習アプローチを提案する。 ## 2 関連研究 ## 2.1 低資源言語音声認識 低資源言語における音声認識手法の一つが転移学習である。 Bukhar らは,事前学習させた多言語モデルの最終層を転移先言語で再学習させ,ウイグル語やベトナム語などの低資源言語に対する WER を改善した [13]. Cho らは,公開コーパスである BABEL から 10 言語の音声を用いて sequence-to-sequence モデルを学習させ,他の 4 言語に適応させた [8]. Kannan らは,インドにおける 9 言語の音声で学習させたストリーミング多言語 end-to-end モデルを用いて,低資源言語であるカンナダ語とウルドゥー語に対するWERを改善した [14]. Hou らは,42 言語で大規模な多言語 end-to-end モデルを学習させ, 14 の低資源言語に転移学習させた [10]. そして,多数の言語を学習させたモデルの適応は,低資源言語の音声認識に対して優れた性能を発揮することを示した. 同様に,多言語モデルの活用による低資源言語音声認識の性能改善が報告されている $[15,16,17]$. ## 2.2 非ネイティブ音声認識 非ネイティブ音声認識は,言語学習者が持つスピーキング能力の自動評価を実現するために必要不可欠である [18]. また,非ネイティブ音声認識は日常業務の中でさまざまな用途で利用されるようになった。国際化した今日の世界では,非ネイティブ音声の認識技術は重要になっている. 非ネイティブ音声認識では,転移学習によって複数言語間で知識を共有させる。 Duan らは,共通の隠れ層と独立した出力層からなる DNN にネイティブの英語と日本語を学習させて言語横断的な音響モデルを構築し,日本人英語の音声認識における WER を低減させた [11]. Matassoni らは,イタリア語,ドイツ語,英語のネイティブ音声で学習させた DNN-HMM 音響モデルを,イタリア人ドイツ語,イタリア人英語,ドイツ人英語の非ネイティブ音声に Fine-tuning 図 1 提案手法の概念図. 多数の言語で end-to-end 音声認識モデルを事前学習させ,日本人英語の音声データで fine-tuning する. 転移学習を用いて適応させた [12]. そして,結果として得られた非ネイティブモデルが,非ネイティブ音声を直接学習させたモデルの性能を改善することを示した。 ## 3 提案手法 日本人英語の高精度音声認識を目的として,多数の言語から転移学習させた end-to-end 音声認識モデルを採用し,適応させる言語知識を拡張する. 提案手法の概要を図 1 に示す. ## 3.1 多言語音声認識モデル 多言語音声認識モデルには, end-to-end 音声認識に有効である Conformer [19] と Transformer [20] を用いる. モデルのエンコーダを 12 個の Conformer ブロックで構築し,デコーダを 6 個の Transformer ブロックで構成する. Conformer と Transformer による各ブロックは,256 次元の注意機構ヘッドを 4 つ含み, 2048 次元のフィードフォーワードネットワークを持つ. モデルは, Connectionist Temporal Classification (CTC) と注意機構を同時に用いて予測文字をデコードする $[21,9]$. デコードするシンボルのセットは,モデルに事前学習させる全ての言語に現れる文字セットを含むよう拡張する。これにより,エンコーダとデコーダのパラメータが全ての言語で共有される多言語モデルの学習が可能となる. モデルは,入力からデコードすべき言語を自動で認識し,予測したテキストを適切な文字セットで出力する. ## 3.2 日本人英語への転移学習 多言語モデルを日本人英語音声で fine-tuning する. まず,多言語モデルの学習済みパラメータで日本人英語モデルの全パラメータを初期化する。次に, 日本人英語音声モデルの出力層に対して, 出力次元数を日本人英語音声のシンボル数に変更し, パラメータを乱数で初期化する。 そして, 日本人英語音声をモデルに学習させる. 実験では, 10 言語と 42 言語を学習させた 2 種類の多言語モデルを日本人英語音声認識に適応させ, 日本人英語音声認識に対して事前学習させる言語数の有効性を調べる。 ## 4 実験 ## 4.1 データセット 10 言語と 42 言語の多言語モデル学習には, 11 の公開コーパスを使用した。使用した公開コーパスは, AISHELL [22], Aurora4, Babel, CHiME4, Common Voice [23], Corpus of Spontaneous Japanese (CSJ) [24], Fisher SwitchBoard, Fisher Callhome Spanish, HKUST [25], WSJ, Voxforgeである. 10 言語モデルの学習には Watanabe らが用いた言語を使用した [9]. また, 42 言語モデルには Hou らが用いた言語を学習させた [10]. 各多言語モデルの学習に用いた言語を表 1 に示す. また,学習データにおける各言語の発話数を図 2 に示す。 日本人英語音声認識には King-ASR-048 データを用いた. King-ASR-048 は, Android と iOS の携帯電話を同時に用いて収集した 2 チャンネルの日本人英 図 2 学習データに含まれている言語と発話数。学習データには, AISHELL [22], Aurora4, Babel, CHiME4, Common Voice [23],Corpus of Spontaneous Japanese (CSJ) [24],Fisher SwitchBoard,Fisher Callhome Spanish, HKUST [25],WSJ, Voxforge の 11 公開コーパスを用いた. 表 1 多言語モデルに学習させた言語. 10 言語モデルの学習には Watanabe らが用いた言語 [9]を使用し,42 言語モデルの学習には Hou らが用いた言語 [10] 使用した. de, en, es, fr, it, ja, nl, pt, ru, zh_ch, am, as, eu, bn, yue, ca, ceb, luo, ka, gn, 42-lingual ht, ig, jv, kab, kk, ku, lo, lt, zh_tw, mn, ps, fa, sw, tl, ta, tt, te, tpi, tr, vi, $\mathrm{cy}, \mathrm{zu}$ 語音声データベースである. 静かな屋内で 40 人の日本人から収集した 10,983 発話が収録されている.収録されている音声データのサンプリング周波数は $16 \mathrm{kHz}$ であり,1 チャンネルあたりの全録音時間は約 17.9 時間である. 実験では,Android で収集したチャンネルを使用した. 話者が重複しないようデー タを 3 つに分割し,80\%を学習,10\%を検証,10\%をテストに使用した。 ## 4.2 詳細設定 モデルの入力には 83 次元の特徴量を用いた. 83 次元特徴量の構成は, 80 次元の MFCC フィルタバンクと 3 次元のピッチ特徴量である. 特徴量は, 25 $\mathrm{ms}$ の言を $10 \mathrm{~ms}$ ずつシフトさせて生の音声から抽出した。 モデル学習の最適化アルゴリズムには Adam を使用した. Adam における学習率 $\operatorname{lr}$ は,学習率パラメータ $k$, 注意機構の出力次元 $d_{\text {model }}$, 学習ステップ数 step,ウォームアップパラメータ warmup_step を表 2 多言語モデルの事前学習と fine-tuning におけるパラメータ設定. 学習とデコードには ESPnetツールキット [26]を使用した。 用いて, $l r=k \cdot d_{\text {model }}^{-0.5} \cdot \min \left(\right.$ step $^{-0.5}$, step $\cdot$ warmup_step $\left.^{-1.5}\right)$ で表される。 学習を高速化するため,多言語モデルの学習には TSUBAME 3.0 スーパーコンピュータ1)を用いた.学習の並列処理に Pytorch のパッケージ2)を使用し,合計 40 基の NVIDIA TESLA P100 GPU を搭載した 10 台の計算ノード上で多言語モデルを学習させた。多言語モデルの事前学習と fine-tuning におけるパラメータ設定を表 2 に示す. 多言語モデルや日本人英語モデルの学習とデコードには ESPnet ツールキット [26]を使用した。 1) https://www.gsic.titech.ac.jp/en/tsubame 2) https://pytorch.org/docs/stable/distributed.html 表 3 日本人英語音声を直接学習させたモデル (Directly trained), 英語を事前学習させたモデル (Monolingual), 英語と日本語を事前学習させたモデル (Bilingual), 多言語を事前学習させたモデル (10-lingual/42-lingual) の各話者における性能比較. 表 4 検証セット (dev) とテストセット (test) 全体で算出した CER と WER の比較. ## 4.3 性能評価 提案手法の有効性を検証するため,日本人英語を直接学習させたモデル,英語を事前学習させたモデル,英語と日本語を事前学習させたモデルと性能を比較した.英語や日本語を用いた事前学習には,多言語モデル学習データにおける英語と日本語のサブセットを用いた. モデル性能の評価指標は CER と WER である. ## 5 結果 日本人英語音声を直接学習させたモデル,英語を事前学習させたモデル, 英語と日本語を事前学習させたモデル,提案手法の各話者に対する CER と WERを表 3 に示す. また,検証セットとテストセット全体における CER と WER の比較を表 4 に示す.事前学習は, 日本人英語音声認識におけるモデルの性能を大幅に改善した. 日本人英語音声を直接学習させたモデル,英語だけ事前学習させたモデル,英語と日本語を事前学習させたモデルのテストセットにおける CERはそれぞれ 33.5,11.2,10.7であった。 また, 事前学習させたモデルの中で, 多言語を学習させた 10 言語モデルと 42 言語モデルは,英語や日本語で事前学習させたモデルの性能をさらに上回った.これにより, 多言語から学習した広範な音声表現知識の適応が, 日本人英語音声認識に有効であることが分かった。 さらに, 10 言語モデルと 42 言語モデルを比較したところ, 10 言語モデルが高い認識性能を示した. 42 言語モデルが学習した音声表現は,モデルのパラメータ数に対して広範であり,対象言語の音声認識能力を損ねた可能性がある. ## 6 おわりに 本稿では, 多言語モデルを日本人英語音声認識に適応させる転移学習アプローチを提案した. Conformer と Transformer を用いて構築した end-toend 音声認識モデルに多数言語の音声を事前学習させ,日本人英語音声で fine-tuning した. 有効性検証のため, 日本人英語を直接学習させたモデル,英語を事前学習させたモデル,英語と日本語を事前学習させたモデルと性能を比較した. その結果,多数の言語を事前学習させたモデルは,日本人英語音声を直接学習させたモデルの性能を大幅に改善した. また,提案手法は,英語だけ事前学習させたモデル,英語と日本語を事前学習させたモデルの性能を押し並べて上回った.これらの結果より, 多数の言語から学習させた音声表現の適応が, 日本人英語音声認識に有効であることが分かった.今後は,多種類の言語が持つ特性を構造化し, 日本人英語音声認識に対して効果的に活用する方法を検討する。 ## 謝辞 本研究は,JSPS 科研費 $20 \mathrm{H} 00095$ の助成を受けたものである. ## 参考文献 [1] T. Hori, S. Watanabe, Y. Zhang, and W. Chan. Advances in joint ctc-attention based end-to-end speech recognition with a deep cnn encoder and rnn-lm. In Proceedings of Interspeech, pp. 949-953, 2017. [2] A. Zeyer, K. Irie, R. Schlüter, and H. Ney. Improved training of end-to-end attention models for speech recognition. In Proceedings of Interspeech, pp. 7-11, 2018. [3] C. Chiu, T. N. Sainath, Y. Wu, R. Prabhavalkar, P. Nguyen, Z. Chen, A. Kannan, R. J. Weiss, K. Rao, E. Gonina, N. Jaitly, B. Li, J. Chorowski, and M. Bacchiani. State-of-the-art speech recognition with sequence-to-sequence models. In IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 4774-4778, 2018. [4] N. F. Chen, D. Wee, R. Tong, B. Ma, and H. Li. Large-scale characterization of non-native mandarin chinese spoken by speakers of european origin: Analysis on icall. Speech Communication, Vol. 84, pp. 46-56, 2016. [5] N. T. Vu, D. Imseng, D. Povey, P. Motlicek, T. Schultz, and H. Bourlard. Multilingual deep neural network based acoustic modeling for rapid language adaptation. In IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 7639-7643, 2014. [6] S. Tong, P. N. Garner, and H. Bourlard. An investigation of deep neural networks for multilingual speech recognition training and adaptation. In Proceedings of Interspeech, pp. 714-718, 2017. [7] S. Dalmia, R. Sanabria, F. Metze, and A. W. Black. Sequencebased multi-lingual low resource speech recognition. In IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 4909-4913, 2018. [8] J. Cho, M. K. Baskar, R. Li, M. Wiesner, S. H. Mallidi, N. Yalta, M. Karafiát, S. Watanabe, and T. Hori. Multilingual sequenceto-sequence speech recognition: Architecture, transfer learning, and language modeling. In IEEE Spoken Language Technology Workshop (SLT), pp. 521-527, 2018. [9] S. Watanabe, T. Hori, and J. R. Hershey. Language independent end-to-end architecture for joint language identification and speech recognition. In IEEE Automatic Speech Recognition and Understanding Workshop (ASRU), pp. 265-271, 2017. [10] W. Hou, Y. Dong, B. Zhuang, L. Yang, J. Shi, and T. Shinozaki. Large-scale end-to-end multilingual speech recognition and language identification with multi-task learning. In Proceedings of Interspeech, pp. 1037-1041, 2020. [11] R. Duan, T. Kawahara, M. Dantsuji, and H. Nanjo. Cross-lingual transfer learning of non-native acoustic modeling for pronunciation error detection and diagnosis. IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol. 28, pp. 391-401, 2020. [12] M. Matassoni, R. Gretter, D. Falavigna, and D. Giuliani. Nonnative children speech recognition through transfer learning. In IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 6229-6233, 2018. [13] D. Bukhari, Y. Wang, and H. Wang. Multilingual convolutional, long short-term memory, deep neural networks for low resource speech recognition. Procedia Computer Science, Vol. 107, pp. 842-847, 2017. [14] A. Kannan, A. Datta, T. N. Sainath, E. Weinstein, B. Ramabhadran, Y. Wu, A. Bapna, Z. Chen, and S. Lee. Large-Scale Multilingual Speech Recognition with a Streaming End-to-End Model. In Proceedings of Interspeech, pp. 2130-2134, 2019. [15] T. Sercu, G. Saon, J. Cui, X. Cui, B. Ramabhadran, B. Kingsbury, and A. Sethy. Network architectures for multilingual speech representation learning. In IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 5295-5299, 2017. [16] S. Toshniwal, T. N. Sainath, R. J. Weiss, B. Li, P. Moreno, E. Weinstein, and K. Rao. Multilingual speech recognition with a single end-to-end model. In IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 4904-4908, 2018. [17] A. Datta, B. Ramabhadran, J. Emond, A. Kannan, and B. Roark. Language-agnostic multilingual modeling. In IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 8239-8243, 2020. [18] K. Knill, M. Gales, K. Kyriakopoulos, A. Malinin, A. Ragni, Y. Wang, and A. Caines. Impact of asr performance on free speaking language assessment. In Proceedings of Interspeech, pp. 1641-1645, 2018. [19] A. Gulati, J. Qin, C. Chiu, N. Parmar, Y. Zhang, J. Yu, W. Han, S. Wang, Z. Zhang, Y. Wu, and R. Pang. Conformer: Convolutionaugmented transformer for speech recognition. In Proceedings of Interspeech, pp. 5036-5040, 2020. [20] L. Dong, S. Xu, and B. Xu. Speech-transformer: A no-recurrence sequence-to-sequence model for speech recognition. In IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 5884-5888, 2018. [21] S. Kim, T. Hori, and S. Watanabe. Joint ctc-attention based end-toend speech recognition using multi-task learning. In IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 4835-4839, 2017 [22] H. Bu, J. Du, X. Na, B. Wu, and H. Zheng. Aishell-1: An opensource Mandarin speech corpus and a speech recognition baseline. In 2017 20th Conference of the Oriental Chapter of the International Coordinating Committee on Speech Databases and Speech I/O Systems and Assessment (O-COCOSDA), pp. 1-5, 2017. [23] R. Ardila, M. Branson, K. Davis, M. Henretty, M. Kohler, J. Meyer, R. Morais, L. Saunders, F. M. Tyers, and G. Weber. Common voice: A massively-multilingual speech corpus. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 4218-4222, 2020 [24] K. Maekawa. Corpus of spontaneous Japanese: Its design and evaluation. In ISCA \& IEEE Workshop on Spontaneous Speech Processing and Recognition, 2003. [25] Y. Liu, P. Fung, Y. Yang, C. Cieri, S. Huang, and D. Graff. Hkust/mts: A very large scale Mandarin telephone speech corpus. In International Symposium on Chinese Spoken Language Processing, pp. 724-735, 2006. [26] S. Watanabe, T. Hori, S. Karita, T. Hayashi, J. Nishitoba, Y. Unno, N. Enrique Yalta Soplin, J. Heymann, M. Wiesner, N. Chen, A. Renduchintala, and T. Ochiai. ESPnet: End-to-End Speech Processing Toolkit. In Proceedings of Interspeech, pp. 2207-2211, 2018 .
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E2-4.pdf
# BERT を利用した日本語小論文採点支援システムの検討 江島知優 岡山大学工学部 chihiro.100522@s.okayama-u.ac.jp 堀江遼河 岡山大学大学院自然科学研究科 ptmnøudx@s. okayama-u.ac.jp 竹内孔一 岡山大学大学院自然科学研究科 takeuc-k@okayama-u.ac.jp ## 1 はじめに 記述式問題に対する自動採点は近年の大学入試改革等で需要が高まっているのに伴い,様々な手法が提案されている.英語の文章や外国人が書いた日本語の文章を対象とした研究としては佐藤 [1] のトランズダクティブ学習や平尾ら [2] の作文自動評価システムがある. 佐藤は記述式答案の自動採点は学習の過程で評価データの情報を明示的に利用するトランズダクティブ学習を用いることが適切であると主張し, 英語で書かれた記述式答案のデータセットである ASAP-SAS を用いてクラスタリングをしたモデルとクラスタリングをしていないモデルおよびランダムのモデルとの比較を行い,クラスタリングをしたモデルの精度が最も高いことを示した. 平尾らは外国人の日本語学習者が書いた作文を集めた GoodWriting データセットを利用して全体・内容・構成・言語の 4 観点で BERT (Bidirectional Encoder Representations from Transformers) [3] を用いた手法と従来の素性を用いた手法との比較を行い, BERTを用いた手法が構成以外の 3 観点で精度が高いことを示した. 日本人が書いた日本語文章を対象とした研究としては船山 [4] の確信度推計手法による研究, 内田ら [5] の項目反応理論に基づく能力推定値を活用した手法などが挙げられる。船山は代々木ゼミナールの国語長文読解問題データセットを用いて事後確率を用いた確信度推定手法と TrustScore を用いた確信度推定手法を検証し,TrustScore を用いた手法のほうが精度が高く,また、学習に利用するデータ数を減らした場合でも TrustScore を用いた手法の精度が維持されることを示した. 内田らは項目反応理論 (IRT)を用いて客観式問題から求められる受験者の能力推定値を組み込んだ新たな深層学習自動採点モデルを提案し $\mathrm{t}$ 検定の結果提案手法が従来手法より有意水準 5\%で高い精度を示したことを確認した。他にも,清野ら [6] による Neural Attention モデルや,大野ら [7] による IDF の評価手法がある。 このように記述式問題の自動採点に対しては多くの研究が行われているがその多くは 100 文字以下のいわゆる短答式記述問題と呼ばれるものを対象としている. 本研究では, 100 文字を超える小論文をターゲットとして BERT を用いたモデルを作成し,性能の分析を行った。 ## 2 小論文自動採点システム 本研究では 1 点から 5 点の各整数値の値をクラスとしたクラス分類問題に取り組んだ。図 1 に作成した BERT モデルの構造を示す. BERT モデルでは,小論文を符号化し冒頭に [CLS] トークンを,末尾に [SEP] トークンを挿入したものが入力として与えられる. 符号化された本文の長さがモデルが読み取れる系列長を超えた場合,本文の最大系列長を超えた部分は削除される。図中の $\mathrm{E}$ は大力の埋め込み表現,を,C [CLS]トークンの隠れべクトルを,Ti は i 番目のトークンの隠れべクトルをそれぞれ表している. 今回のモデルでは BERT の最終層の出力は各クラスに対するべクトルであり,最大のものを推定した点数としている. ## 3 評価実験 本章では評価実験に使用した小論文やその設問内容,実験結果を説明する。 図 1 BERT を利用した小論文自動採点システム ## 3.1 小論文データ 小論文データとして講義の受講者の解答データを用いている. 講義は「グローバリゼーションの光と影」,「自然科学の構成と科学教育」,「東アジア経済の現状」,「批判的思考とエセ科学」の 4 種類である. これらの答案は人手で 1 点から 5 点までの 5 段階で採点されており,その点数を正解データとする. ## 3.2 小論文の設問内容 本節では今回の実験に利用した小論文の設問内容を示す. 講義名 : 「グローバリゼーションの光と影」 問 1 「グローバリゼーションは、世界、または各国の所得格差をどのように変化させましたか。また、なぜ所得格差拡大、または縮小の現象が現れたと考えますか。300 字以内で答えなさい。」 問 2 「多国籍企業は、グローバリゼーションの進展の中でどのような役割を果たしましたか。多国籍企業の具体例をあげて、250 字以内で答えなさい。」 問 3 「文化のグローバリゼーションは、私たちの生活にどのような影響を与えましたか。また、あなたはそれをどのように評価しますか。具体例をあげて、300 字以内で答えなさい。」 講義名:「自然科学の構成と科学教育」 問 1 「科学的」とはどのような条件をみたす必要があるのか 100 字以内で答えよ。」 問 2 「講義で解説した自然科学の二つの側面を参考に、自然科学が果たす役割について 400 字以内で論ぜよ。」 問 $3\lceil\lceil$ Scientific and Technological Literacy for All」 の狙いを考慮し、これからの科学教育はどうあるべ きか 500 字以上 800 字以内で論ぜよ。」 講義名:「東アジア経済の現状」 問 1 「日中韓の相互依存の強さを、データを示して簡潔に述べなさい。また、相互依存を示す経済協力・協業の具体例をあげ、合わせて 300 字以内で答えなさい。」 問 2 「「中所得国の罠」の概略を説明し、どうしたらそれを乗り越えることができるか 250 字以内で説明しなさい。」 問 3 「日中韓には少子化や環境問題など 3 国に共通する経済問題がある一方、それぞれの国に特有の課題も多くあります。それぞれの国が抱えている特徴的な経済問題をあげ、東アジアにおける協調と対立の構造を 300 字以内で説明しなさい。」 講義名:「批判的思考とエセ科学」 問 1 「「批判的思考」の定義に関連して、「批判的思考」に関する研究で共通に見出される「批判的思考」の 3 つの観点を述べなさい。 100 文字。」 問 2 「講義で紹介した右のグラフを根拠に「長生きするためにはカラーテレビを多く所有すれば良い」と主張することが妥当ではない理由を 400 字以内で述べなさい。ただし、このようなグラフが形成される理由の説明を加えること。」 問 3 「各自で「ニセ科学」の可能性があると思う実例を挙げ、その実例が「ニセ科学」であることを証明するためには、どのような方法で、どのような証拠を得て、どのように説明する必要があるのかを論じなさい。また、その実例がニセ科学でも信じてしまいやすい要因は何かについても考察し、説明しなさい。ただし、講義で扱った事例以外のものを挙げること。 500 字以上 800 字以内。」 ## 3.3 実験設定 BERT の言語モデルは Mecabを利用した日本語訓練済みの HuggingFaceBERT ${ }^{1}$ を使用した。このモデルの語彙サイズは 32,000 である. 今回の害験では最大シーケンス長とバッチサイズの組み合わせを 2 つ用いた. 1 つは最大シーケンス長が 512 , バッチサイズが 16 であり,もう 1 つは最大シーケンス長が 400 ,バッチサイズが 32 である.また,小論文データの数は「グローバリゼーションの光と影」が 328,「自然科学の構成と科学教育」が 327 , 「東アジ 1) https://github.com/huggingface/transformers ア経済の現状」および「批判的思考とエセ科学」が 290 であり,そのうち 50 をテストデータ,残りを訓練データとして利用している. 訓練データのうち 50 個をValidation_dataとしている. ## 3.4 評価尺度 本節では今回作成したシステムの精度を測る方法を示す. 人手で採点した結果と採点支援システムの出力した結果を入力とし, Accuracy および重み付きカッパ係数 (QWK: Quadratic Weighted Kappa) での評価を行う. Accuracy の計算式を式 (1)(2) に示す. $ \begin{aligned} e q(a, b) & = \begin{cases}1 & (a=b) \\ 0 & (a \neq b)\end{cases} \\ \text { Accuracy } & =\frac{\sum_{i=1}^{n} e q\left(A_{i}, B_{i}\right)}{n} \end{aligned} $ $n$ は小論文のデータ数であり $A_{i}, B_{i}$ は $i$ 番目の点数データである. Accuracy が 1 に近いほど一致率が高いと言える。 ## 3.5 実験結果 小論文の各設問に対してValidation_Accuracy (Val_Acc) とTest_Accuracy (Test_Acc) および QWK をそれぞれ算出した. 表 1 には最大シーケンス長 512,バッチサイズ 16 で実験した結果を,表 2 には最大シーケンス長 400 , バッチサイズ 32 で実験を行った結果を示している. 表中では各講義名について「グローバリゼーションの光と影」を「グローバル」,「自然科学の構成と科学教育」を「自然科学」,「東アジア経済の現状」を「東アジア」,「批判的思考とエセ科学」を「批判的思考」とそれぞれ表現している 表 1 バッチサイズ 16 でのシステムの評価 表 2 バッチサイズ 32 でのシステムの評価 ## 3.6 分析 Accuracy の結果から BERT は従来研究されていた短答式記述問題に加え, 500 字以上 800 字以下といった長文記述問題に対しても 5 クラス分類の期待値である 0.2 より高い精度で推定できている. しかし, QWK の値を確認すると特にバッチサイズ 16 の場合に 0.000 といった值が多く見られる. これは BERT の推定値がすべて同じ值になったことを示す. BERT の問題点として 1 点などの極端な点数を推定することが難しく, 平均値や最頻値に近い値を予測する傾向が強いことが挙げられ,この問題点によりバッチサイズ 16 の QWK が低くなってしまったと考えられる. バッチサイズを 32 に変更することで「東アジア経済の現状」や「批判的思考とエセ科学」のQWK の値には改善がみられる一方で,「自然科学の構成と科学教育」等の QWK 値は低いままである.このようにバッチサイズの変更によって推定の精度は大きく変動するため今後も検討が必要である。 ## 4 おわりに 本研究では, HuggingFaceBERT を用いた小論文自動採点システムを作成しAccuracy および QWK による性能評価を行った. 平均値に近い値を予測してしまうといった BERT の特性上,推測値がすべて同じ値になってしまうという問題点も見られたがバッチサイズを大きくする等の工夫によって精度を改善することが可能であり,BERT が小論文自動採点に有効であることを示した. ## 謝辞 本研究の遂行にあたって岡山大学運営費交付金機能強化経費「小論文、エッセイ等による入学試験での学力の三要素を評価するための採点評価支援システムの開発導入」の助成を受けた. ## 参考文献 [1] 佐藤俊. 評価データのクラスタリングを用いた記述式答案自動採点のためのトランズダクティブ学習. 言語処理学会第 26 回年次大会発表論文集, 2020. [2] 平尾礼央, 新井美桜, 嶋中宏希, 勝又智, 小町守. 複数項目の採点を行う日本語学習者の作文自動評価システム. 言語処理学会第 26 回年次大会発表論文集, pp. 1181-1184, 2020. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding, 2018. [4] 舟山弘晃. 記述式答案自動採点のための確信度推定手法の検討. 言語処理学会第 26 回年次大会発表論文集, 2020. [5] 内田優斗, 宇都雅輝. 項目反応理論に基づく能力推定値を活用した短答記述式問題自動採点手法. 言語処理学会第 26 回年次大会発表論文集, 2020 . [6] 清野光雄竹内孔一.ニューラルネットワークを利用した日本語小論文の自動採点の検討. FIT2019 講演論文集, 2019. [7] 大野雅幸, 泉仁宏太, 竹内孔一, 小畑友也, 田口雅弘, 稲田佳彦, 飯塚誠也, 阿保達彦, 上田均. 小論文自動採点データ構築と理解力および妥当性評価手法の構築. 言語処理学会第 24 回年次大会, pp. 368-371, 2018.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E3-1.pdf
# 修得語彙量の分布の考慮による付随的語彙学習に適した 読解用テキストの選択 江原遥 静岡理工科大学 情報学部 i@yoehara.com ## 1 はじめに 応用言語学分野において,外国語の語彙獲得における付随的学習 (incidental learning) とは, 「語彙習得が主目的ではない活動の中で,偶発的に語彙が習得されること」([1],p.21)である.例えば,テキスト中に出てきた分からない単語の意味を推測しながら外国語の語彙を学習する手法がこれにあたる.付随的学習に対して,「語彙習得を主目的とする活動の中で,語彙を学習すること」([1],p.21)を「意図的学習」(intentional learning) と呼ぶ. 例えば,いわゆる単語帳を利用する方法など,単語リストを記憶することで外国語の語彙を獲得する方法がこれにあたる. 付随的学習は意図的学習に比べ,外国語の語彙量を増加させるには非効率である一方,文脈の中の語の使われ方など深い理解を促すとされている. 効率的な付随的学習のためには,学習者にあったテキストを用いることが重要である。既習語のみからなるテキストでは,新たな語彙修得は起こらない。一方,理解できない単語が多すぎれば,テキストの読解そのものに失敗するリスクが高く,付随的学習そのものが起こりづらい. [1] では [2]を参考に,「目安として、テキスト中の単語のうち、95\%〜 98\%が既知語であれば、文脈から自然に語彙を学習することが可能になると言われています」と報告されている(p.22)。言い換えれば,既知語比率が 95\%〜98\%に入っていれば,テキスト中の既知語以外の語(未習語)を効率的に付随的学習できることが応用言語学分野における知見として示されている. この結果は, 自然言語処理分野で応用言語学分野の成果として引用されることの [3] ことの多い 「既知語比率がこの範囲に入っていればテキストが読解できる」[4]という結果よりも,さらに踏み込んだ語彙修得に直結する結果である. 応用言語学分野でのこの結果は,効率的な付随的学習のためのテキスト選択が投機的な性質を持つ問題である事を示している. 既知語比率の小さいテキストを選べば付随的学習による修得語彙量は増えるだろうが,既知語比率が間値を下回ると,学習者がテキストを読み進めることができず,付随的学習が起こらず,修得語彙量が著しく低くなる. 従って,戦略としては,学習者が読解に失敗するリスクを一定に抑えながら,その中で,修得語彙量が最も多そうなテキストを選択する事が求められる。 応用言語学分野では, この戦略を, 学習者やテキストの全体的な傾向に基づいて実現している:具体的には,「学習者は均衡コーパスでの単語頻度の高い順に語を知っている」という仮定を置くことによって,学習者やテキストをレベル分けし,学習者に合ったテキストを選択している。こうした手法は全体的な傾向はつかめてはいるものの,個々の学習者やテキストの特性を考慮できない。また,修得語彙量がどの程度になるかの予測もできない. 一方,自然言語処理分野やデータマイニング分野では,こうしたテキスト選択の問題はあまり扱われていない. しかし, 語学学習者の既知語判定の問題については,読解支援やテキスト簡単化の観点から,「レベル」という一次元的な尺度に頼らず,個々の学習者の特性を考慮した精緻な数理モデル化がなされている $[5,6,7,8,9]$. 例えば,どの学習者がどの単語をどの程度の確率で知っているかを,個々の学習者の得意分野, 単語の意味, 人間の記憶の長さ, といった様々な点を考慮して,かなり正確に予測できるようになってきている $[10,11,12,13]$. 本稿では,前述の戦略を機械学習の観点から数理的に定式化し,ある学習者があるテキストを読んだときの付随的学習による修得語彙量の確率分布を求める手法を提案する. これにより, 学習者の特性やテキストの特性を考慮し得る,付随的学習のためのテキスト選択手法を可能にする。 ## 2 問題の例 動機づけのため,例を挙げることで,できるだけ平易に解こうとしている問題を説明する. [a,b,c,d] の 4 種の単語からなるテキストを考える。頻度は, それぞれ $[93,3,3,1]$ とする. また,今,ある学習者に注目して, この学習者に対する過去の成績情報などから,[a,b,c,d] の各単語を知っている確率を機械学習などを使って予測し,入手できるものとし,それぞれ $[0.9,0.6,0.5,0.2]$ とする. この時,応用言語学のテキストカバー率の考え方によれば,テキスト中の $95 \%$ 以上の単語を知っていれば,テキストを読むことで知らない単語を学習することができる.具体的に,テキストカバー 率が $95 \%$ を超える場合を列挙してみよう.この例では,単語 a が圧倒的に多いが,単語 a だけで 95\%を超えることはできない,閾値を超えるのは,例えば, $\{\mathrm{a}, \mathrm{b}\} を$ 知っていて,\{c,d\}を知らない場合があげられる。知っている単語をだけに注目して書くと,閾値を超える場合は,\{a,b\},\{a,c\},\{a,b,d\}, $\{a, c, d\},\{a, b, c, d\} の$ 場合である. さて,この学習者が知っている単語が $\{a, b\}$ にな 考えていることに注意すると,\{a,b\}になる確率は, $0.9 \times 0.6 \times(1-0.5) \times(1-0.2)$ と計算できる. この時,前述の応用言語学の知見 $[1,2]$ は, この学習者がこのテキストを読むことで,知らない単語 $\{c, d\}$ を自然に修得できるということを示している.したがって,知らない側の単語に注目していけば,このテキストを読むことで, この学習者が単語 $\{c, d\}$ を新たに修得できる確率が, $0.9 \times 0.6 \times(1-0.5) \times(1-0.2)$ であるとも考えることができる.他の場合についても同様に考えられる.学習者が知っている単語が $\{\mathrm{a}, \mathrm{c}\}$ である確率は,学習者がこのテキストを読むことによって新たに修得できる単語が $\{\mathrm{b}, \mathrm{d}\}$ である確率とも読み替えられる。 こうして,すべての場合について考え,この学習者がこのテキストを読むことで $[\mathrm{a}, \mathrm{b}, \mathrm{c}, \mathrm{d}]$ の各単語を修得できる確率を集計していくと, [0,0.18,0.27,0.576] になる。このうち,単語 aについては修得できる確率が 0 になっているが,これは,単語 $\mathrm{a}$ を知らなければそもそもテキストが読めず付随的学習が起こらないので,付随的学習によって単語 a が修得できることはあり得ないことを示している。 さらに,この集計した確率値から,この学習者が このテキストを読むことで修得できる語数の分布も求めることができる. 例えば,3単語を修得でき から, $0.18 \times 0.27 \times 0.576$ のように計算できる. こうして修得できる語数の分布が求められれば,そこから,修得できる語数のブレ(分散)も計算できる.修得できる語数のブレが大きいということは,確率的には修得できる語数が少なくなることがあり得るということである. すなわち, 同程度の語数が修得できるテキストなら,より修得できる語数のブレが少ないもの(分散が小さいもの)を選ぶ方が,確実に語数を増やせる分,学習者にとっては得になる. すなわち,修得できる語数の分布における分散の值は,学習者にとっての「リスク」と考えることができる. このように,修得できる語数の分布が求まれば,修得できる語数の平均值のみならず,分散を考慮することで,確実に修得できる語数を増やせるように「リスク」を考慮したテキスト選択が可能となる. ## 3 提案する定式化 前節の内容を定式化する.今, $I$ 種類の語彙 $\left.\{v_{1}, \ldots, v_{I}\right.\}$ を考え,注目しているテキスト中の $v_{i}$ の個数を $n_{i}$ とする. また, 注目している学習者が $v_{i}$ を知っている確率を $p_{i}$ で表す.この時,テキストカバー率の間値を $\tau$ とする(前節の例では $\tau=0.95 )$. この時,テキストカバー率が閾值を超える確率は,次のように表せる。まず,テキスト中の総単語数は $N=\sum_{i=1}^{I} n_{i}$ と表せる. また, 学習者が単語 $v_{i}$ を知っている場合に 1 ,そうでなければ 0 になる次の確率変数を考える.ただし, $\left.\{Z_{1}, \ldots, Z_{I}\right.\}$ は互いに独立とする。 $ Z_{i} \sim \operatorname{Bernoulli}\left(p_{i}\right) $ この時, 学習者が知っている単語のテキスト中の出現数は $\sum_{i=1}^{I} Z_{i} n_{i}$ であるから,テキストカバー率は $\frac{\sum_{i=1}^{I} Z_{i} n_{i}}{N}$ と表せる. したがって,テキストカバー率が閾値を超える確率は $P\left(\sum_{i=1}^{I} Z_{i} n_{i} \geq N \tau\right)$ と表せる. 学習者がテキストを読む付属的学習により語 $v_{i}$ を新たに修得する確率は,次のように定式化できる.テキストを読む付属的学習が起こるためには, テキストが読める必要があるので,テキストカバー 率が間値を超えていなければならない,さらに,語 $v_{i}$ が新たに修得されるためには,学習者は語 $v_{i}$ を知らないことが必要である.したがって,この確率 は, $P\left(Z_{i}=0, \sum_{i=1}^{I} Z_{i} n_{i} \geq N \tau\right)$ と表せる. この確率を $q_{i}$ とおく. さらに,このテキストからの付属的学習による修得語数の分布を求めたい. $ A_{i} \sim \operatorname{Bernoulli}\left(q_{i}\right) $ とすると, 修得語数の確率変数 $A$ は, $A=\sum_{i=1}^{I} A_{i}$ と表せる.したがって,A の確率分布を求めれば,修得語数の分布も求まる. ただし, $\left.\{A_{1}, \ldots, A_{I}\right.\}$ は互いに独立とする。 ## 4 解法 前節において,テキストカバー率が閾値を超える確率 $P\left(\sum_{i=1}^{I} Z_{i} n_{i} \geq N \tau\right)$ や, 修得語数の分布 $A=\sum_{i=1}^{I} A_{i}$ を求めるためには, 異なる成功確率を持った互いに独立な二項分布の和からなる確率変数の分布を求める必要がある. 成功確率が等しければ二項分布の和は再生性を持つが,成功確率が異なるため,この和は二項分布にはならない。こうした分布は,ポアソンニ項分布と呼ばれる. $P\left(\sum_{i=1}^{I} Z_{i} n_{i} \geq N \tau\right)$ については,動的計画法を解くことで求める方法を過去に提案した $[3,14]$. 簡潔に言えば, $\sum_{i=1}^{I} Z_{i} n_{i}$ が整数であることを利用して, $N \tau$ 以上という条件を,「\{n $\left.n_{1}, \ldots, n_{I}\right.\}$ の部分和が丁度いくつ」という部分和問題に帰着させる. この部分和問題を, $\left.\ulcorner\left.\{n_{1}, \ldots, n_{i}\right.\}\right.$ までの数で丁度いくつになるものを作れる確率」からなる DPテーブルによる動的計画法で解ける. 今回は,それに加えて, $P\left(Z_{i}=0, \sum_{i=1}^{I} Z_{i} n_{i} \geq N \tau\right)$ を求める必要がある. こちらは, 動的計画法の DP テーブルの各セルに, そのセル時点での $\left.\{Z_{1}, \ldots, Z_{I}\right.\}$ の確率値の集計値を記録する拡張を施すことで計算した。なお,ポアソン二項分布は,平均と分散を求めるだけであれば, $\sum_{i=1}^{I} p_{i}$ が平均, $\sum_{i=1}^{I} p_{i}\left(1-p_{i}\right)$ が分散となる. 後述の図 2 を書く際には,この性質を用いて平均と分散を求めた。 ## 5 実験 学習者が知っている単語については,著者がクラウドソーシングを用いて過去に公開したデータがある [11]. 具体的には, クラウドソーシング上の学習者(TOEIC の受験経験があるものに限定)100人に, 100 問からなる語彙サイズ計測用の単語テスト Vocabulary Size Test(VST) (VST)[15]を受けてもらった結果のデータセットである. VST は多肢選択型の 図 1 予測される修得語彙量の分布の例. テストであり,英文中に埋め込まれた単語の言い換えとして適切な選択肢を 4 つの選択肢の中から選択するテストである。語形などから答えが分かってしまわないように,選択肢はすべて文中の文字列をそのまま選択肢に置き換えても文法的には問題がない選択肢になるように工夫されている。 単語テストの結果を使って, 各学習者が所与の単語を知っているかどうかを判別する確率的識別器を作成し, この確率値を式 1 における $p_{i}$ として用いた. 二值判別問題であるため, ニューラルな識別器を用いることもできるが,今回は識別性能を向上させることが目的ではないので,単純なロジスティック回帰を用いて識別器を構成した. 素性としては, COCAコーパスの頻度, British National Corpus (BNC) コーパスの頻度を用いた. ただし,頻度は $-\log ($ 頻度) の形に直して素性として用いた。テキストとしては,Brown Corpusを用いた。テキスト長さが実験結果に影響しないように, Brown Corpus の 500 件の各テキストのうち,先頭から 300 語を切り出し,実験に用いた.この 500 件のテキストから, ある学習者の付属的学習に適したテキストを選択することが,我々の目的である. 付随的学習はテキストを読める必要があるので,好成績の学習者に起こりやすい。まずは, 最も成績の良かった学習者 (VSTで 96 問正解)を対象に実験を行った. 図 1 にこの学習者があるテキストを読んだ時の修得語彙量の分布を 1 つ示す. 図 1 より, 修得語彙量の分布には幅があり,単純に期待値が高いテキストを選べばよいわけではないことがわかる. 各テキストを読む際に予測される修得語彙量の期待値と分散を同時に考慮するため図 2 に図示した.各点は Brown Corpus の各テキストである. 修得語 図 2 各テキストの修得語彙量分布の期待値と分散. 彙量を学習者にとっての利得と考えると, 修得語彙量の期待値が同じであれば,できるだけ修得語彙量の分散が少ないテキストを選択する方が,確実に語彙を増やせるので,学習者にとっては得となる。すなわち, 図 2 の左上部分が, この学習者にとって最も効率的に付随的学習を行える文書群である. このように, 図 2 の縦軸は利得, 横軸の修得語彙量の分散はリスクとみなせ,図 2 は,経済分野で多用されるリスクとリターンの関係図とみなせる。 図 2 のようなリスクとリターンの関係図においては, 左上部分が最も低リスクで利得を増やせる選択であり,この部分を効率的フロンティアという.図 2 では,500 件あった選択肢の中から,凸包を用いて効率的フロンティアに属するテキスト 5 件が選択された. すなわち, 学習者の付随的学習に適したテキストを $1 / 100$ に絞ることができた。この 5 件の中でどのテキストを選択するかは,学習者がどの程度のリスクをとって語彙量を増やしたいかによって変わるので学習者に任せる方法が一案である。 効率的フロンティアに含まれるテキストは学習者によってどの程度変わるのだろうか?100 人のうち, 成績の良い 30 人に対して, 同様に各学習者が各テキストを読んだ場合に予測される修得語彙量の分布から効率的フロンティアを求めた. その結果, 10 人以上で,効率的フロンティアに選ばれたテキストが 7 件あり, 最も多いもので 14 人の効率的フロンティアに含まれたテキストがあった. この結果から,効率的フロンティアに含まれるテキストは比較的安定していることが見て取れる. ## 6 関連研究と展望 学習者が各単語を知っている確率 $p_{i}$ については,本稿では単語テストを用いて推測する方法を用いたが,スマートフォンの語彙学習アプリなどからも推測することが可能である.例えば,語彙学習と関係が深い忘却曲線を考慮して,時間によって忘却する度合いをもモデル化する研究が近年複数なされている $[12,13]$. こうした研究では,例えば最後に単語を学習してからの時間などを $p_{i}$ のモデルに組み入れ,時間がたつと $p_{i}$ が低くなるようにモデル化しており,実データとうまくフィットしたという報告もなされている。こうした手法を組み入れれば,語彙学習アプリのログから直接学習途中の各単語に対して,各単語を知っている確率 $p_{i}$ が算出できる. また,今回の文書選択では,「次に付随的学習に用いるテキスト」を選択したが,将来的な利得の総和を考慮するアプローチも考えられる。このアプローチは強化学習でうまく記述できる. 今回のようなリスクを考慮した選択も,累積報酬の期待值だけではなく分布全体の形を考慮して強化学習を行う分布強化学習の理論面で研究されている [16,17]. ## 7 おわりに 本研究では,付随的学習による語彙修得に適したテキストを選択するため,応用言語学の知見に基づき,個々の学習者・個々のテキストに対して付随的学習によって修得される語彙量の推定値を算出する手法を提案した. 修得語彙量を学習者にとっての利得と考えることで,金融工学などで使われる効率的フロンティアの考え方を語彙学習支援の研究に導入した. さらに,多くの学習者の効率的フロンティアに含まれる,付随的学習に適した「お得」なテキストが存在することを実験的に示した. 今後の課題としては,単語修得アプリのログなどを用いた経時的な評価実験,将来的な利得分布を考慮できる分布強化学習の導入, 単語埋め込みべクトル空間上の領域の考慮した多義語対応,一度に複数のテキストを読む場合の複数テキストの選択を現代ポートフォリオ理論 [18] や整数計画問題を絡めて行うことなどが挙げられる。 ## 謝辞 本研究は JST 戦略的創造研究推進事業 ACT-X (JPMJAX2006)の支援を受けた。 ## 参考文献 [1] 中田達也. 英単語学習の科学. 研究社, 2019. [2] Paul Nation. How much input do you need to learn the most frequent 9,000 words? 2014. Publisher: University of Hawaii National Foreign Language Resource Center. [3] Yo Ehara. テキストカバー率の確率的拡張に基づく語彙テストのみからの個人化読解判定. 2019. [4] I. Nation. How Large a Vocabulary is Needed For Reading and Listening? Canadian Modern Language Review, Vol. 63, No. 1, pp. 59-82, October 2006. [5] Yo Ehara, Issei Sato, Hidekazu Oiwa, and Hiroshi Nakagawa. Mining Words in the Minds of Second Language Learners for Learner-specific Word Difficulty. Journal of Information Processing, Vol. 26, pp. 267-275, 2018. [6] John Lee and Chak Yan Yeung. Personalizing Lexical Simplification. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 224-232, Santa Fe, New Mexico, USA, August 2018. Association for Computational Linguistics. [7] Chak Yan Yeung and John Lee. Personalized Text Retrieval for Learners of Chinese as a Foreign Language. In Proc. of COLING, pp. 3448-3455, August 2018. [8] John Lee and Chak Yan Yeung. Personalized Substitution Ranking for Lexical Simplification. In Proceedings of the 12th International Conference on Natural Language Generation, pp. 258-267, Tokyo, Japan, October 2019. Association for Computational Linguistics. [9] John Lee and Chak Yan Yeung. Automatic prediction of vocabulary knowledge for learners of Chinese as a foreign language. In 2018 2nd International Conference on Natural Language and Speech Processing (ICNLSP), pp. 1-4, April 2018. [10] Yo Ehara, Yusuke Miyao, Hidekazu Oiwa, Issei Sato, and Hiroshi Nakagawa. Formalizing Word Sampling for Vocabulary Prediction as Graph-based Active Learning. In Proc. of EMNLP, pp. 1374-1384, 2014. [11] Yo Ehara. Building an English Vocabulary Knowledge Dataset of Japanese English-as-a-Second-Language Learners Using Crowdsourcing. In Proc. of LREC, May 2018. [12] Burr Settles and Brendan Meeder. A Trainable Spaced Repetition Model for Language Learning. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1848-1858, Berlin, Germany, August 2016. Association for Computational Linguistics. [13] Siddharth Reddy, Sergey Levine, and Anca Dragan. Accelerating human learning with deep reinforcement learning. In NIPS workshop: teaching machines, robots, and humans, 2017. [14] Yo Ehara. Uncertainty-Aware Personalized Readability Assessments for Second Language Learners. In 2019 18th IEEE International Conference On Machine Learning And Applications (ICMLA), pp. 1909-1916, December 2019. [15] David Beglar and Paul Nation. A vocabulary size test. The Language Teacher, Vol. 31, No. 7, pp. 9-13, 2007. [16] 牧野貴樹, 澁谷長史, 白川真一, 浅田稔, 麻生英樹, 荒井幸代, 飯間等, 伊藤真, 大倉和博, 黒江康明, others. これからの強化学習. 2016. Publisher: 森北出版. [17]森村哲郎. 《第 11 回》リスク考慮型強化学習. 計測と制御, Vol. 52, No. 9, pp. 818-823, 2013. Publisher: 公益社団法人計測自動制御学会. [18] Harry M Markowitz. Foundations of portfolio theory. The journal of finance, Vol. 46, No. 2, pp. 469-477, 1991. Publisher: JSTOR.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E3-2.pdf
# 日本語ツリーバンクからの動詞格フレームの抽出 吉本 啓林テア・バトラー 東北大学 kei@compling. .jp 弘前大学 ajb129@hirosaki-u. ac. jp } プラシャント・パルデシ 国立国語研究所 prashant@ninjal.ac.jp ## 1 はじめに 外国人に対する日本語教育が日本社会において重要性を増しているのに対して, 中級以上の非母語学習者用辞書が存在しないことが日本語の学習と普及にとって大きな障害となっている.発表者たちは日本語としては初めての本格的な統語・意味解析情報を付加したコーパス (ツリーバンク) である NINJAL Parsed Corpus of Modern Japanese (NPCMJ) の構築を行ってきたが,学習者用辞書の根幹をなすコロケーションの情報をこれから抽出し, 日本語教育体制の不備を補うのに役立てることができる. 本発表では, 12 個の基本動詞を取り上げ,それらの格フレームのパターンを NPCMJ の特性を生かして抽出, 分析し, 現実のテクストにどのような特徴があらわれているかを考察する。続いて,日本語の基本動詞全体の格フレーム分析のためにどのような方法が有効であるかについて検討を行う。 ## 2 NPCMJ と基本動詞ハンドブック NPCMJ は,国立国語研究所共同研究プロジェクトで開発中の,日本語として初めての本格的な文統語・意味解析情報をタグ付けしたコーパスである (Butler and Horn 2017, 吉本・パルデシ 2020).従来,日本語のコーパスは文を文節へと区切った上で,形態素情報を中心とするアノテーションおよびせいぜいそれに文節間の係り受け情報を加えたものしか存在しなかった. そのため, 文法研究者が興味を持つ用例を検索したり,文法情報を抽出するのには不十分であった。また,外国人に対する日本語教育に役立てるために日本語使用の実態を知りたいと思っても,得られる知識は限定的であった。これに対し, NPCMJ では文を句構造に分析した上で,さらに自動意味解析によって得られる述語論理式を利用して,関係節による修飾等の非境界依存 (unbounded dependency) の関係にある語句間の関連づけも行える.これにより,例えば関係節中の動詞と修飾される主名詞との間の格フレーム関係までもが抽出可能 となる。 従来の言語学において, 統語論や意味論上の精密な理論的研究は少量のデータや作例にもとづいて行われ,これに対して,コーパスを利用した研究は語彙や形態論に限定される傾向が強かった.NPCMJ の登場により,一定量の実例に裏づけられた理論研究,言い換えれば言語研究における質と量の統合が可能になる。これにより,日本語教育等の応用面においても新しい展開が期待される。 格名詞句,すなわち必須文法役割(主語,直接目的語および間接目的語) を果たす名詞句/助詞句は, NPCMJ においては, 格助詞による同定以外にも,文法役割を当該の句に直接タグ付けすることによって同定する。日本語において必須文法役割を担う句には必ずしも格助詞が明示的に付加されるわけではなく,助詞が脱落した裸の名詞句としてあらわれることがある。また係助詞 (とりたて助詞) が付加された場合,格助詞「が」と「を」は出現せず,「に」については任意である. NPCMJ では,このような場合を含む全てのデータに対して文法役割がタグ付けされている。また,日本語のテクスト中には主語や目的語の省略が頻出するが,NPCMJ ではそれらをゼロ代名詞としてタグ付けるので,この場合も格フレ一ムは正確に把握されることになる。さらに,上記のように関係節を伴う文等の非境界依存において, また主節中の主語や目的語に従属節中の非明示主語が一致するコントロール構文においても,当該の文の自動意味解析が行われることにより,必須文法役割を担う句と述語との関係を突き止めることができる.このように, NPCMJ は, データにあらわれるすべての述語の格フレームを提供するという点で画期的なコーパスである。 NPCMJ は, 2021 年 1 月の時点で 40,831 文 (560,098 語) の現代日本語テクストのアノテーションが終了し,ウェブ上で公開を行っている(注1). 2022 年 3 月のプロジェクト終了までに約 6 万文のアノテ ーションを完成させる予定である. 『基本動詞ハンドブック』は, 外国人による日本語の学習やその教育に役立てることを目的として,使用頻度の高い日本語基本動詞 125 語の重要な統語的, 意味的, 語彙的特徵を集積したインターネット なる用法を持つ,いわゆる「多義語」と呼ばれるものが多いが,『基本動詞ハンドブック』はそれらを, 項の数や格助詞による表示等の統語論的振舞いや意義特徴を手掛かりとして抽出した格フレームごとに分類していることに特色がある。『基本動詞八ンドブック』は格フレームの他にも, 受動形の有無やアスペクト等の文法的特徴, 意味拡張, 自他の対をなす場合にはパートナーである自動詞/他動詞が何であるか, また類義語との対比等, 基本動詞について体系的に学ぶための便宜を提供している. 『基本動詞ハンドブック』は,『現代日本語書き言葉均衡コーパス (BCCWJ)』(Maekawa et al. 2014)を利用してデータ収集を行っている. しかし, そのため先に述べた理由によって, 各基本動詞の有する統語論的特徴について, 精度の高い情報を参照するには至っていない. 特に,上記のように『基本動詞八ンドブック』は統語・意味的なアプローチで格フレ ームを規定することにより多義の問題に対処しようとしているが,このことは,全ての述語に格フレー ムを網羅的にタグ付けした NPCMJ とは相性が良い. 『基本動詞ハンドブック』の記述を NPCMJ を用いて検証することにより, 前者がどれだけ現実の言語使用の実態をカバーしているかが解明でき,そのことはより精緻な情報を日本語の学習者や教師に提供することにつながると考えられる。 ## 3 NPCMJ の用例の分析 ## 3.1 概要 NPCMJ を利用した『基本動詞ハンドブック』所収の動詞の本格的調查の前提として, 一部の動詞を選んでパイロット・スタディを行った。その対象としたのは, 以下の 12 個の動詞である. NPCMJ(2021 年 1 月現在)の検索によって得られた用例文の数を ( ) の中に示す. あたる(71)あてる (25) , いう $(1,562)$, おさまる(6)おちる(67),きこえる(66),さわる (5),でる(320),ぶつかる(14),みえる(280), もつ (414),わかる (395) まず目につくのは, 同じく基本動詞と言っても, その用例数に大きな開きが存在することである. 用例が数百から千を超える動詞がある一方で,「おさまる」は 6 例,また「さわる」については 5 例しかない. 後者の 2 つから何か一般的な結論を抽き出すことは無理である.この傾向は, NPCMJ プロジェクトにおいて 6 万文のアノテーションが完成してもあまり変わらないと思われる。これは, NPCMJ がツリー バンクとして,比較的少量のテクストに対し集約的にアノテーションを行う方針を取っているためである.しかしながら,かなり大規模なコーパスにおいてすら,十分な検索数の得られない単語の存在することが知られている. また,『基本動詞ハンドブック』では多義性の問題に対処するために各動詞の語義を重層的に分類しているが,それらの実例がすべて NPCMJ により提供されるわけではない. 例えば,「出る」については 6 段階をなして分類が行われているが,そのうち 3 層目である「5.身体部位の突出」や「41.出土・発見」 については, 検索の結果用例は得られなかった。また, 検索して得られた語義の用例が $1 \sim 3$ 個程度の少数にとどまるものはさらに多い. ## 3.2 視覚動詞の対象の表示 本節では,視覚的認知活動を表す動詞「見える」 を取り上げて, NPCMJ からどのような格フレーム情報が抽出できるかについて考察する。 動詞「見える」は視覚に関わる出来事を表すことから, それが成り立つ場合には「見る」行為の主体と「見られる」対象とが存在するはずである.このうち, 主体についてはほとんどの場合明示的に表現されない.これについては後で述べる。対象の方は明示されることが多いが,格助詞としては主として 「が」が用いられる.これが主題化されると, 助詞は「は」となる。通常の文において「が」による主語表示の文と「は」表示の文とでは頻度にきわめて大きな差はない. これに対し, NPCMJ の検索の結果,「見える」を伴う文の主語表示は, 特異なものであることが分った. これは『基本動詞ハンドブック』 における「見える」の多義分類のうち,用例のもつとも多い「1. 視覚による認識 (非意図的)」に限定した調查である. NPCMJ の全データ中で, 文の主語で「が」により表示されているものは 32,530 例, 主語で「は」により表示されているものは 21,741 例であり, 両者に圧倒的差は無い.これに対し,「見える」 の用例について見ると,「が」表示の主語が 73 例で,「は」表示の 13 例に比べて突出している. 「が」表示の主語が多くなる理由は, 下の例に典型的に見られるように,語られている状況の中で新しい出来事が生じたことを表すのに使われることが多いからである. (1)この装置で, 尖端放電の研究をするつもりだったところが, 膨張させてみると,白い線が見えた。 この文では,「白い線が見えた」全体が新情報であり,伝統的な日本語学で言う「現象文」に相当する. 格フレームは格助詞を中心として語られることが多い.しかし,ここでの「が」の働きは単なる格表示にとどまらない。それは, (「は」の不在を表示することによって) 情報構造に関わる積極的な役割を果たしている. 格フレームの用法について正確な知識を伝えるためには, 文脈的な要因も考慮に入れることが重要であることをこの例は示している. なお,外国人に対する日本語教育の教科書では,以下のように視覚的認識行為の主体を「に」格により明示した例文が使用されることがある. (2)私には細かい字が見えません。 しかし, NPCMJ の検索結果によると,このような構文の出現頻度はきわめて低い.「見える」の全用例 278 例のうち, 主体が「に」より表示されたものは 4 つあるが,そのうち 2 例は欧文からの翻訳で,才リジナルの日本語文は 2 例にすぎない.このことは,日本語教育では対象のみが明示された構文を中心に教えるべきことを示唆している. ## 3.3 理解動詞の格フレーム 理解を表す動詞「分かる」の格フレーム表現は, さらに複雑なものである。以下では, NPCMJ 中の動詞「分かる」の全用例 387 例中で最大の 280 例を占める「1. 不明膫な事柄の明確化」に的を絞って論じる. 動詞「分かる」の目的語 (理解の内容) を表す名詞句の内部構成—普通名詞をへッドとするか,それとも節か, 後者の場合はどのような助詞や形式名詞により導かれるか—および格助詞・係助詞による表示の内訳を表 1 亿示す.表 1:「分かる」の目的語 形式名詞「こと」が導く目的語節は 40 例,「か」 が導く節は 84 例ある. 助詞「の」および「と」が導く節も含めると 145 例となり, 全体の約 $66 \%$ を占める.「分かる」の目的語は大半が節によって表されていることが分かる。また,その格表示に目を向けると, 内部構成の種類にかかわらず, 格助詞としては「が」が圧倒的に多い.「を」の使用は 1 例あるが,この比率の差は母語話者としての直観に一致している. 理解という行為は理解を行う主体と理解の対象である内容とを伴い,それぞれ主語と目的語によって表現される.ところが, 両者の出現頻度には著しい差がある. 表 2 に示すように,ここで扱う 280 例のうち, 主語が出現する用例は 63 例, 目的語が出現するのは 217 例である. さらに, 主語と目的語の両方を伴う文についても興味深い事柄が観察される. 一般に, 日本語としては有標な語順であるはずの, 目的語が主語に先行する文 (表 2 では「目的語く主語」で表す) が, 主語が先行する文 (「主語く目的語」) と比べて, 出現数に大差が無い (16例対 29 例). また, 主語の助詞による表示は, 「目的 表 2:「分かる」の主語と目的語 語く主語」の語順の 16 例中の 14 例を「に」が占めている (後に係助詞が後続するものを含む). 以上をまとめると,「分かる」の格フレーム表現の特嘚として,以下が挙げられる。 i. 目的語のみがあらわれる文が多く, 主語の出現は限定的である. ii. 目的語は節の形式を持つものが多い. iii. 主語と目的語の両方が出現する文においては,「主語く目的語」と「目的語く主語」の語順の頻度に大差はなく, 主語はほとんどが「に」 により表示される. 理解を表す「分かる」は主観表現の一種であり,一人称や感情移入の対象となる登場人物を主語とすることが多く,その場合にしばしば省略されるのは他の主観表現と同様と考えれらる. 目的語と共起する主語に「が」でなく「に」が付加される傾向が強いのは,目的語との混同を避けるためであろう。しかし, なぜ「目的語く主語」の有標な語順となるのかは不明である. 目的語が節で長くなるため, 記憶の負担を避ける処理上の理由を検討寸べきかも知れない. ## 4 検索結果の階層的表示 以上で行った調査から,現実のテクストにおいて頻出する格フレーム表現を把握するためには,格助詞による表示のみならず, 必須格を担う句の省略や,係助詞が表示する文脈情報, さらには語順や名詞句の内部構成まで考慮に入れなければならないことが分かった. そこで, このように複雑な要因を考慮しながら頻度の高い格フレーム表現の抽出作業を容易にするために, ツリーバンクの検索結果を要因ごとに階層的に自動的にグループ化するシステムを提案する. 暫定的な案として, システムによる用例の分類は 3 つの軸に沿って行われ, 各々の軸において階層が深まるにつれて文法上の制約がより強くなり,担当する用例の数は少なくなる. ## I 格表示の軸 i. 動詞 $\rightarrow$ ii. 文法役割の格フレーム $\rightarrow$ iii. 付加句 (adjuncts) の格フレーム $\rightarrow$ iv. ゼロ代名詞の有無 $\rightarrow \quad v$. 格助詞による表示 $\rightarrow \quad v i$. 係助詞による表示 ## II 語順の軸 i. 語順未指定 $\rightarrow$ ii. それぞれの語順 ## III 名詞句内部構成の軸 i. 名詞句 $\rightarrow$ ii. 名詞をへッドとする句, または節 $\rightarrow$ iii. (節の場合) こと - 節, の - 節, またはかー節 I~III の軸に共通して, i は, それぞれの動詞が出現する全ての用例に対応する.動詞「会う」を例に取ると,「I-ii. 文法役割の格フレーム」のレベルでは,〈主語〉または〈主語+目的語〉の格フレームが選択され,それぞれ 1 項述語および 2 項述語としての用例に対応する. 後者の格フレームは「 $\mathrm{v}$. 格助詞による表示」でく主語+目的語-と〉およびく主語+目的語-に〉に分かれる. これら第 $I$ 軸の各階層は, 語順に関する第 II 軸および名詞句の内部構成に関する第 III 軸と自由に組み合わせることができる。これにより,3つの軸に分類された要因のどの組み合わせについてもその頻度を即座に知ることができ,また他の組み合わせとの比較も容易である.その結果,頻度の高い格フレームの抽出が簡単に行える。 ## 5 おわりに 本稿では,日本語教育への応用を目的として,日本語ツリーバンクからの格フレーム情報抽出のパイロット・スタディを行い,抽出を効率的に行うための方法について考察した. 今後, 格フレーム以外のコロケーションについても検討を広げる予定である. ## 注 1. http://npcmj.ninjal.ac. jp/ 2. https://verbhandbook. ninjal. ac. jp/ ## 謝辞 本研究は日本学術振興会科研費基盤 (B) 15H03210,基盤 (C) 16K02654,および国立国語研究所共同研究プロジェクト「統語・意味解析コーパスの開発と言語研究」の助成を受けた。 ## 参考文献 Butler, A. and S. W. Horn. (2017) Annotating syntax and lexical semantics with(out) indexing. Proceedings of Logic and Engineering of Natural Language Semantics. Maekawa, K., et al. (2014) Balanced corpus of contemporary written Japanese, Language Resources and Evaluation 48(2). 吉本啓・プラシャントーパルデシ(2020)「統語・意味解析情報付き日本語コーパスの構築」KLS Selected Papers 2: Selected Papers from the 44th Meeting of The Kansai Linguistic Society, pp. 196-211.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E4-1.pdf
# レシピタイトルに現れる借用語 with の特徵 :随伴用法と等位接続表現に着目して 小野雄一 筑波大学 人文社会系 ono.yuichi.ga@u.tsukuba.ac.jp ## 1 はじめに 産出された言語データにはさまざまな言語使用上の要因が関与する。料理のレシピタイトルを例にとると,調理者によるユニークな調理過程や使用する材料の特徴など,様々なアピールポイントが含まれる。そして,調理者がレシピタイトルを考案する際には,外国語表現を日本語の語形成規則に基づいて極めて自然に借用する[1][2]。英語前置詞も頻繁に使用され,例えば in や on に加え,随伴の意味を表す with もまたレシピタイトルの中で使用されている点が報告されている[2]。また,ほぼ\&(and) と同列に扱われそうな等位接続表現としてwithが使用されている例についても報告されている[3][4]。しかし, 詳しく観察してみると,\&と with との間には,「独立随伴性」という観点で違いがあるのではないかという主張も展開されている。 本研究では, 国立情報学研究所(NII)IDR 事務局が提供しているクックパッドデータベーズを基礎資料とし,レシピタイトルの背景にある調理過程にも注目しながら観察をした上で,with の独立随伴性について考察を行う。その上で,この概念は日本語母語話者の中で意識のうちに共有されている知識であるかどうかを実証するための心理言語学的実験を行い,この観察の妥当性について検証を行う。 ## 2 先行研究 ## 2.1 with の借用 「チーズ in ハンバーグ」や「ビーンズ on トース 卜」に出現する in や on と同様に,英語の前置詞 with も日本語のレシピタイトルに出現する。withの主要な用法には(i)「独立随伴(1a)」, (ii)「道具 (1b)」, (iii)「主原料・主材料(1c)」があるとしている[4]。 (1) a. ピクニックから揚げ $\delta$ with Coke (=用法(i)) ${ }^{\mathrm{ii}}$ b. モリ食堂【節分豆茶飯 with 釜】 (=用法(ii)) c. 栗ごはんwith 黒米 (=用法(iii)) (1a) (1b) (1c) これらの withの 3 つの用法は実際に英語で使用されているものと(ほぼ)同じものと考えられるため, 日本語のレシピタイトルで出現している上述の with は,英語の前置詞 with が借用されたものと考えられる。 (2) a. I was at school with my friends after school. (=用法(i)) b. John broke the vase with a hammer. (=用法(ii)) c. The fish is preserved with salt. (=用法(iii))  ii 本稿であげる URL 情報は, 本稿執筆時(2020 年 12 月 23 日)に確認がとれたものである これらの 3 つの用法は, 元来は英語の with が取り入れられ,その後日本語の文法知識,語彙形成規則が適用され, 日本語の一部として極めて生産的に生成されるようになったものと考えられ,母語を日本語とする人であれば,多少のニュアンスの違いや語用論上の意味解釈の差異はあるにしても, 基本的なところについては間違いなくその料理の意味を理解できる。 言語混交(Language Mixing)の研究では, 外国語の借用が起こる時いわゆる内容語 (名詞, 動詞, 形容詞など)がそのまま取り入れられる場合もある一方,機能語(冠詞,接続詞, 前置詞, 助詞など)も取り入れられることもある。そして,日本語に取り入れられたそのような語は日本語の一部となる[3]。その際に, 借用された英語は日本語文法, 語彙規則の操作を受けるため, 一見したところ「英語としては誤ったもの」、いわゆる「和製英語」と呼ばれるようなものが多く含まれるが,これはまさに,日本語の文法知識, 語彙形成規則の影響を受けたものであると考えるべきであり,英語の習熟度とは無関係の現象なのである。 ## 2.2 随伴と等位を表す with の方法 上述の(1a)に該当する随伴用法の他に,以下に挙げるようなものが観察される。 (3) a. シンプルいずおされつまみ with 梅酒 b. 粉もん WITH ソウルマッコリ (3a) (3b) これらの特徴は, (1a)の「Coke」, (3a)の「梅酒」, (3b)の「ソウルマッコリ」はそれぞれメインの料理の一部,材料・原料とは考えられず,随伴性としては両者が独立したものと考えられる。ただ,これらの例であれば,with の前後の料理のうちメインは with の前にある方と見るのが自然である一方, with の前と後の料理で,どちらがメインなのか判断が難しい例も存在している。 (4) a. Oペペロン with ミネストローネO b. 赤フィッシュカレーWithそうめん c. 豚肉のしょうが焼き with 十六穀ごはん $(4 a)$ (4b) (4c) これらの例では,どちらか主役とは捉えにくいものとなっている。むしろ,「AとB」の関係, つまり,等位の関係と考えられるものである。等位の関係ということであれば, 英語には「and, \&」がという等位接続詞が存在するため,そちらを借用するのが自然であるという議論があるのは当然である。実際に以下のような用例も存在する。 (5) a. ぶどうジュレ\&杏仁豆腐 b. 初マヨ焼きそば\&ステーキ\&アボカドの c. 合い挽き肉\&鳥ミンチ\&豆腐ハンバーグ!! (5a) (5b) (5c)随伴性という点から\&を考察すると, (5a)のように両者が接触している場合, $(5 \mathrm{~b})$ のように「独立随伴」的な場合, そして (5c)は全ての要素が 1 つの料理に取り込まれているものなど多様である。 さらに,英語の and の使用では見られない,日本 語に取り込まれた\&独特の用法も観察される。 (5)a. 麻婆豆腐\&麻婆もやし b. 裏ワザプリン\&杏仁豆腐 (5a) (5b) $(5 a)(5 b)$ の料理の特徴は, 調理の途中までの過程は同じであるが,ある段階で $\mathrm{A}$ をいれるか $\mathrm{B}$ をれるかで異なる料理ができることを述べている。いうならば途中で投入するものによって A の料理にも B の料理にもなる,つまり,「Aまたは B」と並べている場面で\&が使用されているのである。これは,投稿者のコメントで「豆腐はもちろん、豆腐がない時にもやしでやってみたら美味しくて両方ともこの味で美味しいので』」や「の杏仁豆腐の場合のアーモンドエッセンスを入れてできあがり。プリンの場合カラメルソースを作る。砂糖と水を鍋に入れ...」 と記述されていることから明らかである。著者の直感ではこの用法の時に with と置き換えることはできない。この理由は, with の場合は独立随伴(つまりその場で両者が存在していなければならない)の時に使用され,(5a)(5b)の「Aまたは B」のような例の場合には代わりに\&であれば使用できるという,日本人であれば誰もが共有される知識を無意識的に利用されているからなのではないかと推測する。 ## 3 実験 ## 3.1 仮説と手続き 今までの観察を整理すると,(1)「with が等位接続的に使用できるのは独立随伴』の場合のみである」, そして,(2)「この知識は日本語の処理に伴う知識であるため,英語の習熟度とは無関係である」という  仮説へと導く。この仮説を実証するために,英語の習熟度には差があると考えられる 2 つ大学の大学生 (A 大学 104 名 : 偏差値 50-55; B 大学 51 名:偏差値 65-70)を対象に容認性判断課題を利用した実験を実施した。 実験協力者には,実際に投稿者がつけたレシピ夕イトルは見せず,料理の写真およびコメントのみを提示する。その上で, 「A( ) B」に, 「\&, with, (\& を日本語にした)と,か」をランダムに挿入した文を提示し,「まったく良くない(1)」から「とてもよい(5)」 の 5 段階のスケールから容認性を判断するようにした。 $ \text { ここで使用した刺激文は以下の通りである。 } $ (6) (i) メカジキのソテー()絶品トマトソース [随伴] (ii) アイス de 蒸しケーキ( )レンジぃ [道具] (iii) 麻婆豆腐()麻婆もやし $ \text { [A または B] } $ (iv) 時短ライスバーガー()ハンバーガーiii [A または $\mathrm{B}]$ もし仮説が正しければ,我々の予測は,(i), (ii)については典型的な with の方法であるため, with の用法が優勢になる。特に, 道具の解釈を持つ(B)は\&には存在しない解釈であるため, with が優勢になると予測される。また, (i)の随伴については\&も同様な意味を表すことがあることから両者が同程度になるのではないかと予測する。逆に(iii), (iv)については, \&の容認性が上がり, with の容認性は落ちる,ということを予測する。 ## 3.2 結果と考察 実験の結果を以下の表 1 に示す。 この結果を見ると,我々の予測はほぼ正しいものであるとみることができる。(A)の随伴用法については,with と\&およびとの間に大きな差が観測できなかったのに対し, (C)(D)については with の容認性は大きく落ちた。 また, 特に(C)および(D)の用法については, 一元配置分散分析を用いて, with, \&, との用法の平均値の差の優位性を検定した。その結果を以下の表 2 に示す。 表 2 (C)および(D)の用法に関する差の有意性検定 以上の結果は,借用された\&と同じような等位表現としての with が使用される場合においても「随伴性」という知識に結びついているのに対し,\&の方が(C)(D)のような「Aまたは B」のような文脈でも使用しているということ,さらに,これらは母語の知識を無意識に利用している点を実証したものと言えよう。 さらに,英語の習熟度がこの結果に影響しているかを検討するために,同じデータを習熟度(大学 A /大学 B)とそれぞれの結果(文 1~4)について二元配置分散分析を用いてで検定してみたところ,全ての結果について,群間に有意な差は認められなかった。 例を一つだけあげると,(D)「時短ライスバーガ一()ハンバーガー」の場合, with の容認性が他と比べて大きく低かったが, 大学 $\mathrm{A}($ Level 1)と大学 B(Level2)との間には大きな差が見られなかったことを以下の図 1 に示す。 図 1 群間の差の結果 Factor 1,2,3,4 はそれぞれ「と」「か」「\&」「with」 であったが,横軸(群間)には大きな差が見られなかったことがわかる。この結果は。Withの知識の深さは,今回の判断テストには影響を及ぼしていないことを示している。 ## 参考文献 1. 日本語の料理名に出現する英語前置詞の借用について : Cookpad データと実証実験から見えるもの」小野雄一・呼思楽・森野綾香・若松弘子・砂川詩織, 言語処理学会第 23 回年次大会発表論文集 2017 . 2. The Verbal Noun Use of Borrowed English Prepositions in Japanese Recipe Names, Yuichi Ono, Papers from the 36th Conference of the English Linguistic Society of Japan and from the Eleventh International Spring Forum of the English Linguistic Society of Japan (JELS 36), pp. 268-274. 2019. 3. Use of English prepositions as Japanese predicates: A challenge to NLP, Masaharu Shimada \& Akiko Nagano, 『言語処理学会第 23 回年次大会発表論文集』2017. 4. 料理サイトのデータから言語接触理論を考える : 前置詞 with の借入について. 若松弘子・島田雅晴『IDR ユーザフォーラム』 2017.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E4-2.pdf
# Universal Dependencies の変遷と評価表現抽出への影響 岩本蘭 慶應義塾大学 r.iwamoto@keio.jp } 金山博 日本アイ・ビー・エム株式会社 東京基礎研究所 hkana@jp.ibm.com ## 1 はじめに 近年, 自然言語処理の研究がいくつかの言語に偏っていることが問題視されており, 多言語の言語資源作成やシステムの開発が進められている [1]. 100 を超える言語のツリーバンクを提供する Universal Dependencies(UD) [2,3] は言語間で共通の $\mathrm{PoS}$ タグや依存構造ラベルをアノテーションに用いている.UDの目的は言語間の共通性を保ちつつ個々の言語の性質を表現することであり,UDコー パスで学習した構文解析器は多言語の応用タスクへの活用が期待されている.UDのアノテーションは半年ごとに更新されているが,それらの更新が構文解析 [4] や応用タスクに与える影響については十分な分析がなされていない. 本稿では, 23 言語の UD コーパス ver. 2.0 (2017 年 3 月) - ver. 2.7 (2020 年 11 月) を対象にし, コーパスの更新状況と傾向について分析する.次に UD のそれぞれのバージョンのコーパスで訓練した構文解析器 UDPipe [5] を用いて言及単位の評価表現抽出 $[6,7,8]$ を行う. アノテーションの言語をまたがった一貫性がどの程度活用できているか,またコーパスの更新が良い方向に作用しているかどうかを調査することが目的である. ## 2 UD コーパスの更新 UD コーパスの内容の例を表 1 に示す. 本来 10 項目からなるアノテーションのうち評価表現抽出の際に用いる項目のみを抜き出している。その中から ID を除く6 項目について, 表 2 に示す 23 言語の UD コーパスにおける更新とその影響を分析する. コーパスの更新の割合を項目別,バージョン別に分けて図 1 に示す. 比較する 2 つのバージョンの両方に存在する文を抽出し,重複を削除した後,語の各項目に違いがあった割合を色の濃さで表している. UD2.0-2.4 ${ }^{1)}$ ではほぼ全ての言語で活発に更新 1)以降,UD ver 2.x をUD2.x と示す.表 1 UD コーパス (英語) の例. feats の出力は一部省略. され,品詞タグや依存関係ラベルの変更が多い。それに対し UD2.4-2.6ではいくつかの言語内でのアノテーション方針の大幅な変更や,より詳細な属性を記述する項目である featsの変更が顕著である. UD のアノテーション方針に沿って言語間での一貫性を保つことと,その言語の特徵を正確に記述することのバランスは難しいが,それぞれの言語で改良を重ねられている。コピュラや助動詞に関するタグ付けを一例としてとりあげると,英語の UD2.5 では “have been”や “will be” の “be” は VERB から AUX へ変更され,オランダ語 (UD2.4)でも “hebben”('have') に対し同様の変更が見られた。ポルトガル語 (UD2.5) では AUX タグをつけられた多く 表 2 分析した treebank と UD2.6 での文数 図1 各言語, バージョンにおける UD コーパスの更新割合。色が濃いほど更新割合が高い. の単語が VERB に変更され (“continuar” ('continue"), “deixar” ('leave')), フランス語 (UD2.1) でも AUX タグが “être” ('be'), “avoir” ('have'), “faire” ('do', 'make'), “pouvoir” ('can') のみに限定され, 他の動詞は VERB とタグ付けされた。このように言語間でのタグ付けの一貫性が向上する変化が観察された。 ## 3 実験 我々は異なるバージョンの UD コーパスで訓練した構文解析器で評価表現抽出 [6] を行い, UDコーパスの変化が応用タスクに及ぼす影響を分析した。 ## 3.1 構文解析器の再学習 UD 準拠の構文解析器として UDPipe 1.2 [5] を用いた. UD2.0-2.5の構文解析器は UDPipe が配布する訓練済みモデル ${ }^{2)}$ を用い, 配布モデルが存在しないUD2.6, UD2. 7 は UD2.5 と同じパラメータを用いて訓練した。簡体字中国語のコーパス UD2.0, UD2.2 は存在しないため評価から外した。構文解析器の性能評価として LAS (Labeled Attachment Score)を用いた. ## 3.2 構文構造に基づく評価表現抽出 評価表現抽出では構文木をトップダウンにたどり,極性辞書と符合させながら好評不評の表現とその対象を抽出する.依存関係やラベルを見ることによって, 否定の表現や対象を抽出するための格を正確に捕捉できる仕組みになっている.詳細は [6] を参照されたい. 2) http://ufal.mff.cuni.cz/udpipe ## 3.3 評価データと評価指標 評価データは先行研究 [6] と同様に,ホテルや携帯電話の言及単位または文単位の注釈付きレビュー を整形し,好評/不評のラベルが付いた文を各言語合計 500 文程度抽出したものを用いた。 システムの適合率は, 出力した極性が正解の極性と同一である割合,再現率は正解の極性と同じ極性を持つ評価表現が検出された割合である.総合的な評価指標として,適合率を重視した F2 值(式 1 で $\beta=2$ としたもの)を用いる. 一般的な $\mathrm{F} 1$ 值 $(\beta=1)$ を用いると,文法構造を意識せずに好評・不評を含む単語を抽出するアプローチによる数值が高くなるものの, 適合率が低く実用性と乘離する。 $ F_{\beta}=\left(1+\beta^{2}\right) \frac{\operatorname{prec} \cdot \operatorname{rec}}{\operatorname{prec}+\beta^{2} \cdot \operatorname{rec}} $ ## 4 結果と考察 本節では多言語の構文解析と評価表現抽出の性能の関係を定量的, 定性的に評価する。 ## 4.1 構文解析の性能と評価表現抽出の関係 図 2 に構文解析 (LAS) と評価表現抽出 (F2) の関係を示す3).言語ごとにデータセットの作成元が異なるため言語をまたいだ絶対的な数值の比較は難しいが,データセットの分野が原因で評価表現抽出が難しい言語 (韓国語など) を除けば,言語間の F2 と LAS には大まかな正の相関が存在する.  ず,辞書との符号ができないため評価には含まない 図 2 UDのバージョンごとのLAS と F2 值 一つの言語内でも LASやF2 值には変化が見られ,その変化は辞書などの評価表現抽出の仕組みではなく, 構文解析器の変更によってのみ発生する. F2 值が 40.0 以上で, UD2.0 と UD2.6 の F2 值に 1.0 以上の差がある言語を比較すると, 9 言語中 7 言語で UD2.6 のほうがUD2.0よりも F2 值が高い4).つまりUDコーパスの更新に伴い, 応用タスクの性能も徐々に向上しているといえる。コーパスの更新に伴う出力の変化については次に述べる. ## 4.2 UD 更新に伴う変化の観察 ここでは UD のバージョンの変化によって評価表現抽出の結果が変わった例について紹介する。まず例として挙げる構文解析と評価表現の表記について説明する。 4)日本語 UD2.6では語の単位が変更されたため F2 值が低い (n12.4) はオランダ語の UD2.4 で訓練した UDPipe に文を入力し,評価表現を抽出した結果である。ハイライトのうち青が好評表現,赤は不評表現を表し,下線は好評/不評表現の対象を表す.オレンジは極性を反転させる否定表現である. (n12.4) では, 否定の副詞 “niet”'('not') が評価表現 “groot”('large') に直接係っておらず文全体として極性誤りが生じているが,(n12.5) では "groot”と “niet”の依存構造が正しいため,否定による極性の反転を検出できている. (fr2.2) Le maître d' hôtel méprisant et grossier. DET NOUN ADP NOUN ADJ CCONJ ADJ PUNCT (fr2.4) Le maître d' hôtel méprisant et grossier. DET NOUN ADP NOUN ADJ CCONJ ADJ PUNCT フランス語では UD2.4 で多数の依存関係ラベルや PoS タグが更新され, 構文解析の性能が向上している.(fr2.4)の名詞句では, 形容詞 “méprisant” ('contemptuous') が head $の$ 名詞 "maître" ('master') にかかっているため, 不評表現が正しく検出された。 (pt2.5) (det A escrita é fácil, fluente e recheada de gírias DET NOUN AUX ADJ PUNCT ADJ CCONJ VERB ADP NOUN A escrita é fácil, fluente e recheada de gírias DET NOUN AUX ADJ PUNCT ADJ CCONJ VERB ADP NOUN 評価表現抽出では並列構造を示す conj ラベルが重要な働きをする。例えば,(pt2.5), (pt2.6) ではいずれも root は “fácil” ('easy')だが,(pt2.6)では “fluente" ('fluent') に conj のラベルが付いているため, “fluente”も極性表現として正しく抽出されている. (en2.4) (en2.5) 実際のレビューの中には文体が崩れた文も出現す る. 英語を例にとると, (en2.5)では,通常大文字で書かれない “HIGHLY RECOMMEND”を PROPN タ グと誤判定する例が存在した。UDで訓練した構文解析器を応用タスクで用いる際には,このような入力に対しても頑健であることが望ましい. 同様の問題はドイツ語でも発生している.ドイツ語では名詞の最初の文字は大文字で記述するが,下の例のように名詞 “Schneiden” ('sharpness') が小文字になっていた場合, 構文構造上名詞の可能性しか存在しないにもかかわらず,同じ綴りを持つ動詞の不定形と認識される. つまり, 英語やドイツ語での品詞判定には大文字であるかどうかが少なからず影響していることがわかる. $ \text { dep } $ $ \begin{aligned} & \text { Opravdu vynikající . } \\ & \text { ADV ADJ PUNCT } \\ & \text { advmod } \end{aligned} $ $ \text { (cs2.6) Opravdu vynikající . } $ 特定できない依存関係を指す dep ラベルを減らすこともUDコーパスの課題の一つである. チェコ語では dep ラベルの比率が他の言語のコーパスよりも大きいため, 解析結果に頻繁に出現する。(cs2.6)の出力では正しく advmod のラベルがつけられ, 好評表現が抽出できている. (ja2.5) (ja2.6) また,単語分割の方針変更は応用タスクに大きな影響を及ぼす。日本語では UD2.6の単語単位が国語研短単位になったことにより, UD2.5 までは不評表現として 1 つのトークンとして検出されていた“不自由”が,(ja2.6)では “不” + “自由”として検出され,極性が反転している.アノテーション方針の変化に合わせて否定の “不” などの処理をシステムに追加することが正しく極性を検出するために必要である。 (zh2.4) 簡体字中国語はリリース時期が今回分析した言語の中では比較的遅く, UD2.5 から正式にリリースされた。そのため, UD2.4 の公開時にプレリリースされ dev ブランチに存在した簡体字コーパスとの比較を行なった。(zh2.4) で存在した “相当” (“very’)の $\mathrm{PoS}$ タグの出力誤りが (zh2.5) で改善され,極性が正しく抽出されるようになった。簡体字中国語は LAS が低い言語のうちの一つであり, 今後の改善が期待される. ## 5 結論 本論文では UD2.0-2.7 での更新を, 構文解析器の出力の変化が応用タスクに及ぼす影響という観点から分析した。 23 言語のUDコーパスは継続的に更新されており,評価表現抽出の結果はそれぞれのバー ジョンによって異なることが分かった。言語ごとの出力例から, 品詞タグ付けや依存関係ラベルの中でも否定や conj ラベルが評価表現抽出に影響を与えることを示した.スタイルが崩れた文に対する頑健性に関わる問題も見られた。UDの各言語の代表的なコーパス間でドメインが異なり,今回対象としたレビュー文によくみられる,名詞句やスペルミス,大文字小文字や文末のピリオドが無い入力に頑健でない場合が存在した [9]. UD2. 4 以降はいくつかの言語で更新頻度が低下しているが,まだ基本的な構文構造の出力において改善すべき点は多い. UD の継続的な更新への期待と, その他の応用タスクでの UD 準拠の構文解析器の性能評価を今後の展望とする. ## 参考文献 [1] Pratik Joshi, Sebastin Santy, Amar Budhiraja, Kalika Bali, and Monojit Choudhury. The State and Fate of Linguistic Diversity and Inclusion in the NLP World. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 62826293, 2020. [2] Joakim Nivre and Chiao-Ting Fang. Universal dependency evaluation. In Proceedings of the NoDaLiDa 2017 Workshop on Universal Dependencies, pp. 8695, 2017. [3] Daniel Zeman, et al. Universal Dependencies 2.6, 2020. LINDAT/CLARIAH-CZ digital library at the Institute of Formal and Applied Linguistics (ÚFAL), Faculty of Mathematics and Physics, Charles University. [4] Daniel Zeman, et al. CoNLL 2017 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies. In Proceedings of the CoNLL 2017 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, pp. 1-19, 2017. [5] Milan Straka and Jana Straková. Tokenizing, POS tagging, lemmatizing and parsing UD 2.0 with UDPipe. In Proceedings of the CoNLL 2017 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, pp. 88-99, 2017. [6] Hiroshi Kanayama and Ran Iwamoto. How Universal are Universal Dependencies? Exploiting Syntax for Multilingual Clause-level Sentiment Detection. In Proceedings of The 12th Language Resources and Evaluation Conference, pp. 4063-4073, 2020. [7] 岩本蘭, 金山博. 多言語極性辞書の構築とその包括的評価. 言語処理学会第 26 回年次大会予稿集, 2020. [8] 金山博, 岩本蘭. 多言語評価表現抽出を通じた universal dependencies $の$ 検証. 言語処理学会第 26 回年次大会予稿集, 2020. [9] 金山博, 岩本蘭, 村岡雅康, 大湖卓也, 宮本晃太郎. 名詞句の処理に頑健な構文解析器. 言語処理学会第 27 回年次大会予稿集, 2021. ## A 付録 ## A. 1 評価データ 表 3 に評価表現抽出で使用した評価データの情報を示す. 言及単位のアノテーションが付いた多言語の評価データが少ないため, 言及単位と文単位のデータをそれぞれ整形して用いた。 ## A. 2 構文解析と評価表現抽出 表 4 に言語, バージョンごとの LAS と F2 値を示す.これは図 2 を表にし, さらに適合率 (prec) と再現率 (rec) の情報を加えたデータである. 表 3 評価データの情報. 表 4 UD のバージョンごとの構文解析 (LAS) と評価表現抽出 (F2) の性能評価. & $78.8^{45.3} 16.8$ & 78.4 & $81.0^{47.6} 18.0$ & 78.4 & $81.0^{47.6} 18.0$ & 77.7 & $81.4^{47.2} 17.6$ & 77.4 & $79.5^{47.5} 18.2$ \\
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E4-3.pdf
# 通時的な単語の意味変化を捉える単語分散表現の同時学習 相田太一 ${ }^{1}$ 小町守 1 小木曽智信 ${ }^{2}$ 高村大也 ${ }^{3}$ 持橋大地 ${ }^{4}$ 東京都立大学 1 国立国語研究所 2 産総研/東京工業大学 3 統計数理研究所 4 aida-taichi@ed.tmu.ac.jp komachi@tmu.ac.jp togiso@ninjal.ac.jp takamura.hiroya@aist.go.jp daichi@ism.ac.jp ## 1 はじめに 言語は時代とともに変化するものであり、現代社会においても、日々新しい単語が生まれている。既存の単語についても、ある単語が時間の経過とともに、全く異なる意味で使われる場合も少なくない。例えば、“gay”という単語は元々「陽気な」という意味で用いられていたが、近年では「同性愛」という意味が主に使われるようになった。このような通時的な単語の意味の変化を捉えることができれば、昔の時代の文書への分野適応や、辞書学での単語の意味変化に関する記述への利用などが期待できる。 近年では、通時的に学習した単語分散表現を用いて単語の意味変化を検出する手法が数多く提案されている。Kulkarni ら [1] や Hamilton ら [2] は任意の時期毎に学習した単語分散表現に対して、線形変換によって対応付けを行う手法を提案した。また、Yao ら [3] によって各時期の単語分散表現を同時に獲得する手法が提案された。これまでの手法は文脈を考慮していない単語べクトルを用いているため、単語の用法毎の変化を調査できなかったが、BERT [4] などの事前学習済み言語モデルによって文脈を考慮した単語べクトルを生成できるようになった。最近では英語や日本語などの代表的な言語で事前訓練済みのモデルが公開されたこともあり、BERTを用いた研究も行われている $[5,6,7]$ 。 しかし、こうした単語の意味変化を通時的に分析するための手法には、以下のような問題がある。 ・単語ベクトル間の関係を線形モデルで表せるという強い仮定をおいている $[1,2]$ ・ハイパーパラメータの設定に敏感である [3] ・公開されているモデルの言語に依存する $[5,6,7]$ - 手法間での定量的な比較が行われている研究が少ない こうした問題に対し、線形モデルで表現可能とい $\mathbf{M}_{A}, \mathbf{M}_{B} \in \mathbb{R}^{V_{W} \times V_{C}}$ $\mathbf{W}_{A}, \mathbf{W}_{B} \in \mathbb{R}^{V_{W} \times d}$図 1: Word2vec と SVD の等価性を利用した時期ごとの単語ベクトルの獲得 PMI-SVD joint の様子. う仮定やハイパーパラメータに敏感であるという問題を解決するため、我々は Levy ら [8] により示された Word2vec と特異値分解の等価性を用い、図 1 のように通時的な単語分散表現を同時に獲得する手法を提案し、日本語の文書データに対して戦前と戦後における単語の意味変化を網羅的に分析した [9]。 本研究ではこの手法を拡張し、また実際に意味が変化した単語のリストを用いることで定量的な評価を行い、提案手法と先行研究の手法を比較する。(1)定量的な評価を行った結果、提案手法は既存の手法と同等以上の性能を獲得した。また、(2) 実際に意味の変化した単語に対して定性的な評価を行った結果、事前訓練済みの BERT よりも効果的に意味変化を捉えていることを示した。 ## 2 関連研究 Hamilton ら [2] は、学習した各時期の単語分散表現 $\mathbf{W}_{t}, \mathbf{W}_{t+1}$ を回転行列 $\mathbf{R}$ で対応付ける手法を提案した。 $ \mathbf{R}(t)=\underset{\mathbf{R}: \mathbf{R R}^{\top}=1}{\operatorname{argmin}}\left.\|\mathbf{W}_{t} \mathbf{R}-\mathbf{W}_{t+1}\right.\|_{F}^{2} $ ここで、 $\|\cdot\|_{F}$ はフロベニウスノルムである。 また、Yao ら [3] は各時期で獲得した Positive PMI (PPMI) 行列に対して、以下の目的関数を最小化することで、各時期の単語分散表現 $\mathbf{W}_{t}$ および文脈語の 分散表現 $\mathbf{C}_{t}$ を同時に獲得する手法を提案した。 $ \begin{array}{r} \frac{1}{2} \sum_{t=1}^{T}\left.\|\mathbf{M}_{t}-\mathbf{W}_{t} \mathbf{C}_{t}\right.\|_{F}^{2}+\frac{\gamma}{2} \sum_{t=1}^{T}\left.\|\mathbf{W}_{t}-\mathbf{C}_{t}^{\top}\right.\|_{F}^{2} \\ +\frac{\lambda}{2} \sum_{t=1}^{T}\left.\|\mathbf{W}_{t}\right.\|_{F}^{2}+\frac{\tau}{2} \sum_{t=1}^{T-1}\left.\|\mathbf{W}_{t+1}-\mathbf{W}_{t}\right.\|_{F}^{2} \\ +\frac{\lambda}{2} \sum_{t=1}^{T}\left.\|\mathbf{C}_{t}\right.\|_{F}^{2}+\frac{\tau}{2} \sum_{t=1}^{T-1}\left.\|\mathbf{C}_{t+1}-\mathbf{C}_{t}\right.\|_{F}^{2} \end{array} $ ここで、 $\gamma, \lambda, \tau$ はハイパーパラメータである。 近年では、文脈を考慮した単語ベクトルを生成できる事前学習済み言語モデルである BERTを用いた研究が行われている。単語の語義単位の意味変化を扱う研究として、単語の語義ごとに辞書の例文からベクトルを計算するもの [5] や、BERTによって得られる単語ベクトルを語義単位にクラスタリングするもの [7] がある。また、単語の代表的な意味の変化を調べる研究として、BERTによって得られるべクトルを平均することで単語の代表的なべクトルを獲得するもの[6] がある。本研究では、単語の代表的な意味の変化に着目した比較および分析を行う。 ## 3 提案手法 ## 3.1 準備:PMI-SVD [8] まず、基盤となる手法である Levy ら [8] の単語分散表現学習手法について説明する。コーパス全体において、単語 $w$ とその周辺に現れる文脈語 $c$ との共起確率を $p(w, c), w$ と $c$ それぞれの出現確率を $p(w), p(c)$ としたとき、単語べクトルの学習は、 Shifted Positive PMI (SPPMI) $ M[w, c]=\max \left(\log \frac{p(w, c)}{p(w) p(c)}-\log k, 0\right) $ を要素とする $V_{W} \times V_{C}$ の行列 $\mathbf{M}\left(V_{W}\right.$ は対象語の語彙サイズ、 $V_{C}$ は文脈語の語彙サイズを示す)を、 $\mathbf{M} \simeq \mathbf{W C}$ と $d$ 次元に特異値分解したときの $V_{W} \times d$ の行列 $\mathbf{W}$ の各行に等しい [8]。同様に、文脈語べクトルは $d \times V_{C}$ の行列 $\mathbf{C}$ の各列として獲得できる。 $\mathbf{W}$ の列数(および $\mathbf{C}$ の行数) $d$ は単語ベクトルの次元数を示しており、以下本研究では $d=100$ とした。式 (3) の定数 $k$ は Word $2 \mathrm{vec}$ の負例サンプリングにおける負例数に相当し、以下 $k=1$ とした。 ## 3.2 PMI-SVD $_{\text {joint }[9]$} この方法を拡張すると、時期の違う単語ベクトルを同時に計算することが可能になる。文脈語の分散 $\mathbf{M}_{A}, \mathbf{M}_{B} \in \mathbb{R}^{V_{W} \times V_{C}} \quad \mathbf{W}_{A}, \mathbf{W}_{B} \in \mathbb{R}^{V_{W} \times d}$ 図 2: 文脈語の意味変化も考慮する提案手法 PMI-SVD ${ }_{\mathrm{c}}$ の行列分解の模式図. 表現 $\mathbf{C}$ の各列である文脈ベクトルが変化しないと仮定すると、時期 A(たとえば明治時代)における $\mathrm{PMI}$ 行列を $\mathbf{M}_{A}$, 時期 B(たとえば平成時代)における PMI 行列を $\mathbf{M}_{B}$ とすれば、 $\mathbf{M}_{A}$ と $\mathbf{M}_{B}$ を縦に結合した $\mathbf{M}=\left[\mathbf{M}_{A} ; \mathbf{M}_{B}\right]$ も同様に $ \left[\begin{array}{l} \mathbf{M}_{A} \\ \mathbf{M}_{B} \end{array}\right] \simeq\left[\begin{array}{l} \mathbf{W}_{A} \\ \mathbf{W}_{B} \end{array}\right][\mathbf{C}] $ と行列分解することができる(図 1)。このとき $\mathbf{W}_{A}$ および $\mathbf{W}_{B}$ の対応する行が、時期 $\mathrm{A}$ と時期 $\mathrm{B}$ の同じ単語の単語ベクトルとなり、後処理によ了近似的な対応づけは必要としない [9]。式 (4) の計算は、 $\mathbf{M}=\mathbf{U} \boldsymbol{\Sigma} \mathbf{V}^{\top}$ と特異値分解を行った後で、 $\mathbf{W}=\mathbf{U} \boldsymbol{\Sigma}^{1 / 2}, \mathbf{C}=\boldsymbol{\Sigma}^{1 / 2} \mathbf{V}^{\top}$ ととることで行える。 ## 3.3 PMI-SVD ${ _{\mathrm{c}}$} 上の手法では、時期が経過しても文脈語は意味が変化しないという仮定を置いていた。この仮定を避けるために、次に文脈語の意味変化も考慮するモデルを提案する。文脈語の意味変化を単純に考慮するのであれば、単語べクトル行列と同じ数の文脈語べクトル行列を作成すれば良い。しかし、各時期の $\mathrm{PMI}$ 行列 $\mathbf{M}_{t}$ を個別に行列分解するだけでは、時期間での対応が取れない。そこで、通常の行列分解 (式 (4)) の目的関数に、隣接する時期間で文脈語べクトルが類似しているという制約項を次式で追加する。 $ \sum_{t=1}^{T}\left.\|\mathbf{M}_{t}-\mathbf{W}_{t} \mathbf{C}_{t}\right.\|_{F}+\tau \sum_{t=1}^{T-1}\left.\|\mathbf{C}_{t+1}-\mathbf{C}_{t}\right.\|_{F} $ タである。これは Yao ら [3] のモデル(式(2))と比べて簡略化されており、ハイパーパラメータの探索に必要な試行数を大きく減らしつつ、以下のように実験的にも同等以上の性能を示した。 ## 4 実験 擬似的に意味変化を生成したデータおよび、実際に意味が変化した単語のリストを用いた定量的な評価 [1] により提案手法と既存手法の比較を行った。 ## 4.1 データ 日本語と英語のデータを用いて、2つの時期における単語の意味変化について実験を行った。日本語では、『日本語歴史コーパス』1)の一部として公開されている近代雑誌コーパスス2)に「昭和・平成書き言葉コーパス」として構築中の雑誌 (『中央公論』『文藝春秋』)データを追加したものを、戦前 (1895-1944 年)と戦後(1945-1997 年)に分けて用いた。英語では、Corpus of Historical American English ${ }^{3)}$ (COHA) の 1900 年代と 1990 年代を用いた。 各時期の文書で 100 回以上出現する名詞・動詞・形容詞・副詞を分析対象の単語とした。また、文脈語には分析対象の単語と同じものを用いた。 ## 4.2 比較手法 の既存手法を比較した。 回転行列で対応付けを行う(式 (1))。 PMI-SVD の代わりに Word2Vec skip-gram negative-sampling を訓練する。 -Dynamic Word Embeddings [3]: 式 (2)を最小化することで各時期の単語分散表現を獲得する。 - BERT [4]: 各時期の各単語を代表するべクトルは平均によって獲得した [6]。本実験では、 huggingface ${ }^{4)}$ で公開されている事前訓練された BERTを使用した。 ## 4.3 評価 最初に、各モデルで語彙中の全ての単語について 2 つの時期間の余弦類似度が低い順にランキングを行い、リストを作成した。次に、このリストの上位 $k$ 単語と、実際に意味の変化した単語のリストとの一致率を計算して評価した(Recall@k)。  図 3: 日本語のデータで擬似的に意味の変化する単語を生成し、Recall@kで評価した結果. 表 1: 日本語のデータにおける平均再現率. ## 4.4 擬似的に生成した意味の変化する単語 を用いた比較 まず、簡単な問題として、2つの時期間で意味が完全に変化する単語を擬似的に生成し [10]、その単語を用いて定量的な比較を行った。擬似的に意味の変化する単語は、各時期における余弦類似度の絶対值がいずれも 0.01 よりも小さい、なるべく無関係な単語ペアの集合の中から無作為に 50 ペアを抽出し、後の時期のコーパスの単語(たとえば「虫」)を全て前の時期の単語(たとえば「中隊」)に置き換えることで、2つの時期間で完全に意味が変化する単語を設定した。 日本語のデータにおいて、各手法について上位 1,000 単語までの範囲で Recall@ $\mathrm{k}$ を評価した結果を図 3 に示す (英語でも同等の結果を確認した)。図 3 ## 4.5 実際に意味の変化した単語を用いた 比較 次に、実際に意味が変化した単語を用いて定量的な比較を行った。日本語では間淵らが作成した単語リスト [11]を、英語では Kulkarni らが作成した単語リスト [1]を用いて Recall@kで評価した。日本語のデータにおける結果を図 4 に示す。付録 $\mathrm{A}$ に示したように、英語でも同様の結果となった。図 4 及び表 1 の平均再現率より、提案手法である PMI- SVD $_{\text {joint }}$ は簡単な手法でありながら既存の手法を上回り、事前学習済みの BERT に迫る性能を示した。 表 2: 日本語において意味変化した可能性が高いと予測された上位 10 単語 (1 文字の単語は除く). 図 4: 日本語のデータで実際に意味の変化した単語を用いて Recall@kを評価した結果. ## 5 議論 ここでは、4節で優れた結果を獲得していたBERT 性的な評価 [2]を行った。 まず、日本語について、それぞれのモデルにおいて意味変化した可能性が高いと予測された上位 10 単語を比較した (表 2)。この時、1 文字の単語は除外した。表 2 より、BERT は意味的な変化を捉え、 えていることがわかる。これは、BERT は与えられた文全体を考慮して単語ベクトルを計算しているの 表 3: 「了解」「要領」という単語と意味の近い各時期の周辺 5 単語 ( 1 文字の単語は除く). 了解 (理解 $\rightarrow$ 承知) 要領(要点 $\rightarrow$ 処理手段) ベクトルを獲得しているためだと考える。 次に、実際に意味が変化した単語について、それぞれの手法で学習した単語分散表現において対象単語のベクトルに近い 5 単語(1 文字の単語は除く) を比較した。表 3 は「了解」及び「要領」という単 に伴い周辺に「承知」に関する単語が出現し、変化前の「理解」に関する単語と共存する結果になっているが、BERT は意味が変化する前の戦前に「承知」 に関する周辺単語が出現してしまっている。また、「要領」に関しても同様に、BERT は変化前の戦前から「うまく処理する手段」に関する周辺単語が出現していることがわかる。これは、BERT が時期を意識せずに訓練されており、変化後の単語の語義に強く影響されてしまったためだと考える。 ## 6 おわりに 本研究では、以前の研究で提案した手法と先行研究について定量的・定性的な比較を行った。意味の変化した単語を用いて定量的な評価を行った結果、提案手法が従来の手法と同等またはそれ以上の結果を獲得することを示した。また、実際に意味の変化した単語に対して提案手法と BERT で定性的な比較を行った結果、提案手法がより効果的に単語の意味変化を捉えていることを示した。 今後は、BERTを分析対象のデータのみで訓練させ、対等な条件で性能の比較を行う予定である。また、比較する時期を 3 つ以上に増やし、単語の意味変化についてさらに詳細な比較・分析を行いたい。謝辞本研究は国立国語研究所の共同研究プロジェクト「現代語の意味の変化に対する計算的・統計力学的アプローチ」、同「通時コーパスの設計と日本語史研究の新展開」および JSPS 科研費 19H00531, 18K11456 の研究成果の一部を報告したものである。 ## 参考文献 [1] Vivek Kulkarni, Rami Al-Rfou, Bryan Perozzi, and Steven Skiena. Statistically significant detection of linguistic change. In Proceedings of the 24th International Conference on World Wide Web, WWW'15, p. 625-635, Republic and Canton of Geneva, CHE, 2015. International World Wide Web Conferences Steering Committee. [2] William L. Hamilton, Jure Leskovec, and Dan Jurafsky. Diachronic word embeddings reveal statistical laws of semantic change. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1489-1501, Berlin, Germany, August 2016. Association for Computational Linguistics. [3] Zijun Yao, Yifan Sun, Weicong Ding, Nikhil Rao, and Hui Xiong. Dynamic word embeddings for evolving semantic discovery. In Proceedings of the Eleventh ACM International Conference on Web Search and Data Mining, WSDM'18, p. 673-681, New York, NY, USA, 2018. Association for Computing Machinery. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [5] Renfen Hu, Shen Li, and Shichen Liang. Diachronic sense modeling with deep contextualized word embeddings: An ecological view. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3899-3908, Florence, Italy, July 2019. Association for Computational Linguistics. [6] Matej Martinc, Petra Kralj Novak, and Senja Pollak. Leveraging contextual embeddings for detecting diachronic semantic shift. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 4811-4819, Marseille, France, May 2020. European Language Resources Association. [7] Mario Giulianelli, Marco Del Tredici, and Raquel Fernández. Analysing lexical semantic change with contextualised word representations. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3960-3973, Online, July 2020. Association for Computational Linguistics. [8] Omer Levy and Yoav Goldberg. Neural word embedding as implicit matrix factorization. In Z. Ghahramani, M. Welling, C. Cortes, N. D. Lawrence, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems 27, pp. 2177-2185. Curran Associates, Inc., 2014. [9] 相田太一, 小町守, 小木曽智信, 高村大也, 坂田綾香,小山慎介, 持橋大地. 単語分散表現の結合学習による単語の意味の通時的変化の分析. 言語処理学会第 26 回年次大会発表論文集, 2020 . [10] Philippa Shoemark, Farhana Ferdousi Liza, Dong Nguyen, Scott Hale, and Barbara McGillivray. Room to Glo: A systematic comparison of semantic change detection approaches with word embeddings. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 66-76, Hong Kong, China, November 2019. Association for Computational Linguistics. [11] 間淵洋子, 小木曽智信. 近現代日本語の意味変化分析のための単語データセット構築の試み. 言語処理学会第 27 回年次大会発表論文集, 2021. ## A 英語の実験結果 まず、英語データにおける結果を以下に示す。 表 4: 英語において意味変化した可能性が高いと予測された上位 10 単語. 図 5: 英語のデータで擬似的に意味の変化する単語を生成 し、Recall@kで評価した結果. 図 6: 英語のデータで実際に意味の変化した単語を用いて各手法に対して Recall@kで評価した結果.表 5: 英語のデータにおける平均再現率. 表 6: gayという単語について、各時期のベクトルの周辺 10 単語. 表 7: rockという単語について、各時期のベクトルの周辺 10 単語. & & & \\ ## B日本語の評価に用いた単語リスト 次に、今回 4.5 節で用いた日本語で実際に意味の変化した単語リストを以下に示す。 適当, 故障, 優勝, 非常, 心持ち, 広告, 了解, 結構, 住居, 主婦, 要領, 全然, 風俗, 障害, 婦人, 貴族, 普通, 設備, 教授, 女性, 情報, 普段, 自然, モデル,とても,衣
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E4-4.pdf
# コーパス統計量と読解能力値に基づいた単語の既知率の予測 相原理子 ${ }^{1}$ 石川香 ${ }^{1}$ 藤田早苗 ${ }^{2}$ 新井紀子 ${ }^{3}$ 松崎拓也 ${ }^{1}$ ${ }^{1}$ 東京理科大学 理学部第一部 応用数学科 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所, ${ }^{3}$ 教育のための科学研究所 \{1417001, 1417009\}@ed.tus.ac.jp, sanae.fujita.zc@hco.ntt.co.jp, arai@s4e.jp, matuzaki@rs.tus.ac.jp ## 1 はじめに 小学校から大学までどの学習段階においても教科書は最も主要な知識源である。よって児童・生徒・学生が教科書をどの程度理解できるか, あるいは逆に,教科書がその対象読者に理解可能な形で書かれているかを知ることは重要である。一方,読解に関するこれまでの研究から,あるテキストを理解するためには,そこに含まれる単語の大部分が既知であることが必要だと知られている. そこで, 様々な学年の览童生徒にとって, 教科書中の単語がどれくらい既知であるかを正確に知りたい。 この目的の下, 本研究ではコーパス統計量や児童生徒の読解能力スコアを用いて,各単語の既知率を正確に予測することを試みた。ここで,ある単語の既知率とはある集団(例えば同学年の児童)における, その単語を知っている人の割合を意味する. 語彙量に従ってテキストの理解度も向上するという結果は様々な実験から知られており, 例えば、Schmitt ら [1] は, テキストの内容を $60 \%$ 以上理解するためには,テキスト中の単語の約 $98 \%$ を把握している必要があるとしている. 特に教科書中の語彙が, その対象である児童生徒にとってどの程度まで既知であるかは重要な基礎情報だが,これを調査した例は我々の知る限り存在しない。その主な理由は,教科書中の単語についての全数調査はもちろんのこと, 十分な量のサンプリング調査でも児童生徒への負担が極めて大きく, 現実的でないことであろう,そこで本研究では,コーパス統計量などを用いて, 教科書中の各単語の既知率を正確に予測することが可能かどうかを調查する. ## 2 関連研究 ## 2.1 語裹知識予測問題 語彙知識予測問題とは,ある人がある単語を知っているかどうかを予測する問題である.例えば,江原 [2] は単語テストに用いる単語を選ぶ際に, 学習者の能力を正確に把握するのに適した項目を選ぶことによって,語彙知識予測の性能を向上させる手法を提案した。この研究では,項目の難易度を正確に把握することが重要であるが,単語の難易度は,学習者によって異なるため, 項目反応理論の Rasch モデルを発展させ,学習者にとっての単語の難易度を計算するモデルを提案している. ## 2.2 単語親密度による語彙数調査 単語親密度とは語のなじみ深さを 1-7 の值で数値化したものであり, 数值が高いほどなじみのある語であることを示す. 天野ら [3] は 18~29 歳の評定者, 藤田と小林 [4] は 18 35 歳の評定者からこの数値を得ている. 藤田ら [5] はこの単語親密度を用いて小学生から高校生を対象に語彙量調査を行っている.この調查により,学年が上がるにつれて,おおむ敖語彙量が増大していること,また単語親密度と各語を知っている人の割合 (既知率) には強い相関があることが分かっている.ここで注意すべき点は,学年ごとに単語親密度と既知率の関係は異なること, さらに, 特に小学生では同程度の親密度を持つ語の間でも既知率に大きな差がある場合があることである. よって個人の語彙量の推計ではなく, 具体的な教科書中の語彙のカバー率(既知の単語の率)を推計する際には,単語親密度以外の情報も併用して個々の語の既知率を正確に推計することが望まれる。 ## 3 背景 ## 3.1 現代日本語書き言葉均衡コーパス 現代日本語書き言葉均衡コーパス (BCCWJ) は, 短単位で数えて約 1 億語を含む大規模均衡コーパスである. BCCWJ は計 13 のレジスターから構成されている. 表 1 にレジスターごとの延べ語数(短単位)を示す(数値はマニュアル [6] に基づく). 表 1 各レジスターの語数 ## 3.2 教育基本語彙 教育基本語彙 $[7]$ とは学習者に教育する基本的な言葉であり, 国立国語研究所が 7 種の教育基本語彙をデータベース化したものである. 本研究では, 教育基本語彙に含まれるかどうかとその単語の既知率との関係を調べた。 ## 3.3 リーディングスキルテスト リーディングスキルテスト(RST) [8] は主として教科書から採った 1~2 文からなる短いテキストを用いた読解能力テストである。これまで中高生を中心に,小学生および成人も含め約 20 万人が受検している. RST の問題は以下の 6 タイプからなる:係り受け解析 (DEP), 照応解決 (ANA), 含意関係の認識 (INF), 定義に適合する具体例の選択 (INST), 画像の理解 (REP), 同義文か否かの判定 (PARA). テス卜結果に従って, 各受検者に対し問題タイプごとに項目反応理論に基づく能力值が推定される. 本研究では受検者がある単語を知っているか否かを能力値をもとに推測することを試みる。 ## 4 調査対象とするデータ ## 4.1 藤田らによる語彙調査結果 藤田ら [5] は, 親密度がおよそ $2.0 \sim 6.5$ の単語およそ 50 語について, 小学校 6 年生から高校 2 年生までの約 2500 名を対象に, 各単語を知っているか否かを調査した. 本研究ではこのデータを調査対象の一つとした. 以下,これを「データ A」と呼ぶ. ## 4.2 語彙テストと RST 能力值データ 小学 6 年生から中学 3 年生までの約 4300 人を対象に語彙テストを行った. テストした単語は 40 単語で, 各被験者はそのうち 10 単語について, 「知っ 図 1 中学高校教科書における単語親密度の分布 図 2 親密度(令和版)と既知率の関係 ている/たぶん知っている/たぶん知らない/知らない」のうち 1 つを選んだ上で,語義を問う 4 択のテストに答えた.「知っている」または「たぶん知っている」を選び,かつ 4 択のテストに正解した語を「既知」とみなす. 語彙テストに加え DEP, INF, INST, REP の 4 つの RST 問題タイプに対する各被験者の能力値を測定した. 以下,これを「データB」と呼ぶ. ## 5 分析結果 ## 5.1 中学校・高校の教科書テキスト比較 図 1 は, 中学校・高校の理科・社会の教科書中の単語の親密度の分布である. オレンジのヒストグラムが中学校, 青のヒストグラムが高校の教科書における分布を表す。具体的な科目としては,中学校理科は理科 3 年 [9], 中学校社会は公民 [10], 高校理科は物理 [11], 高校社会は現代社会 [12] の教科書を調査した. 図から, 理科の科目どうし, 社会の科目どうしの親密度の分布は比較的似ていることが分かる。言い換えれば,類似する科目の教科書であれば,中学・高校の教科書中の単語の親密度の分布には大きな差がない.このことから,もし中学生・高校生の間で使用する教科書中の単語カバー率に差が 表 2 学年ごとの各レジスターの線形回帰係数と自由度調整済み決定係数 あるとすれば, それは中学教科書が高校教科書に比べ「易しい」単語を多く含むためではなく,主として, 同程度の親密度の単語に対する中学生・高校生の既知率の違いに起因すると予想される。 ## 5.2 教育基本語彙 - 単語親密度と既知率 図 2 はデータ A のうち小学校 6 年生を対象とする結果について, 教育基本語彙に含まれる単語 (赤点) と含まれない単語(黒点)に分けて, 横軸に単語親密度 (令和版), 縦軸に既知率を取った散布図である。教育基本語彙は教育上重要と考えられている語を集めているため, 特に低い学年では, 同程度の親密度の単語でも教育基本語彙に含まれるものの方が既知率が高い可能性がある。しかし, 図 2 から分かるようにそのような傾向は見られなかった。 ## 5.3 単語出現頻度を用いた既知率の予測 図 3 は BCCWJ の 13 個のレジスターごとに, 含まれる単語の親密度(平成版)の分布を示す(単語延べ出現数に対する分布). 各レジスターにおける親密度の分布には多少の違いが見られる。 データ A の各テスト語について BCCWJ の各レジスターにおける出現頻度を調べ,説明変数を各レジスターでの相対頻度の対数, 目的変数を小学校 6 年生〜高校 2 年生におけるその単語の既知率として,学年ごとに線形回帰を行った. ただし, 頻度が 0 となるレジスターに対する説明変数の値は, その他のレジスターでの相対頻度の平均値の対数とした。 図 4 読解能力値の違いによる既知率の差 表 2 に,各レジスターに対応する回帰係数及び自由度調整済み決定係数 $\left(R^{2}\right)$ を学年ごとに示す. 表中で,係数が非ゼロであることが $5 \%$ 有意であるものには†,10\%有意であるものには†を付した. 非ゼロであることが有意となる係数がごく少数であり, $R^{2}$ の值も低いことからモデルのあてはまりは良くない. また,予測値が実測値を上回る単語,下回る単語が全ての学年でほぼ共通していた.このことからモデルの線形性の仮定が妥当でない可能性がある. また,表 2 の最終行に BCCWJ 全体における相対頻度の対数を説明変数とする場合 (すなわち単回帰の場合)の自由度調整済み $R^{2}$ を示す.表の最後の 2 行の比較から, 低い学年ではレジスターを分けた方が回帰の当てはまりが良く,高い学年ではレジスターを分けない方が良いことが分かる. ## 5.4 読解能力値を用いた既知語予測 各览童生徒の読解能力値を入力値とすることで, ある単語がその坚童生徒にとって既知であるかどうかを予測したい. これが高い精度で可能ならば, 個々の览童生徒にとっての教科書テキストの単語カバー 率が推計できる。そこで,まず読解能力値と語彙テスト結果の関係について確認しておく. 図 4 はデータ B について 4 つの能力値ごとに縦軸に能力値が高い上位 $1 / 4$ の受検者における各テスト語の既知率, 横軸に能力值が低い下位 $1 / 4$ の受検者における既知率をとった散布図である。図 4 から, 図 3 BCCWJ のレジスターごとの分布 ## 図 5 既知率と既知語予測の平均精度 どの能力値, どのテスト語についても能力値上位 $1 / 4$群における既知率が下位 $1 / 4$ 群におけるそれを上回っており, 読解能力値と語彙量には関係があることが分かる. 次に, 説明変数を受検者の 4 つの RST 能力値, 目的変数を各受検者にとってテスト語が既知であった (1) か否か $(0)$ として, 個々の単語ごとにロジスティック回帰を行った. 受検者を 10 分割した交差検証を行ったときの平均精度を図 5 に示す. 赤い直線は $y=x, y=1-x$ のグラフで, 全て既知, あるいは全て未知と予測した場合のベースライン精度を表す。赤線との比較から,既知率 $50 \%$ 付近の単語については予測精度がベースラインを上回るが,それ以外の単語についてはベースラインと同等の精度でしか予測できていないことが分かる. すなわち, 4 つの RST 能力値を総合しても, 個々の受検者にとって単語が既知かどうかを予測することは難しいことが分かる。 さらに, 受検者の 4 つの RST 能力値を説明変数,各受検者にとってテスト語が既知であったか否かを目的変数とする上記のロジスティック回帰モデルに,説明変数として単語固有のパラメータ (項目反応理における困難度に相当する)を加えたもの(モデル 1)表 3 困難度あるいは親密度を加えた回帰の結果 } & \multicolumn{4}{|c|}{ RST 能力值 } & \multirow{2}{*}{} & \multirow{2}{*}{} \\ と,単語親密度を加えたもの(モデル 2) について,全テスト語に対するデータをまとめて訓練データとし10 分割交差検証を行った. 結果を表 3 に示す. 単語親密度を説明変数として加えたモデル 2 の平均精度は 0.64 であり, 個々の単語の既知率の推定に用いるには不十分であることが分かった。 ## 5 おわりに 教育基本語彙, BCCWJ での単語出現頻度, および RST 能力値を用いて,ある集団内での単語の既知率の予測および各受検者にとって単語が既知か否かの予測を試みた、いずれの予測も難しく,受検者ごとに単語が既知か否かを予測する精度が $70 \%$ を超えることはなかった.予測精度を上げるためには,受検者に関しさらに情報を加える必要があると考えられる。例えば,受検者の読書傾向や読書量,また家庭環境などの情報は有用であろう。しかし, 全児童生徒にとっての教科書の単語カバー率を推定するという当初目的を考えると,そのような情報を全児童生徒について調查できるかという問題がある. ## 謝辞 教科書データを提供いただいた東京書籍株式会社に感謝します.本研究の一部は JST, さきがけ, JPMJPR175Aの支援を受けたものである. ## 参考文献 [1] Norbers Schmitt, Xiangying Jiang, and Willian Grabe. The Percentage of Words Known in a Text and Reading Comprehension. Modern Language Journal, 95(1), pp.26-43, 2011. [2] Yo Ehara, Issei Sato, Hidekazu Oiwa, and Hiroshi Nakagawa. Mining words in the minds of second language learners: learner-specific word difficulty. In Proceedings of COLING, 2012. [3] 天野成昭, 近藤公久. 日本語の語彙特性. 三省堂, 1999 . [4] 藤田早苗, 小林哲生. 単語親密度の再調査と過去のデータとの比較. 言語処理学会第 26 回年次大会, 2020. [5] 藤田早苗, 小林哲生, 山田武士, 菅原真悟, 新井庭子,新井紀子. 小・中・高校生の語彙調査および単語親密度との関係分析. 言語処理学会第 26 回年次大会, 2020. [6] 国立国語研究所. 『現代日本語書き言葉均衡コ ーパス』利用の手引. 2015. [7] 国立国語研究所. 教育基本語彙の基本的研究 : 増補改訂版. 明治書院, 2009 . [8] Noriko H. Arai, Naoya Todo, Teiko Arai, Kyosuke Bunji, Shingo Sugawara, Miwa Inuzuka, Takuya Matsuzaki, and Koken Ozaki. Reading Skill Test to Diagnose Basic Language Skills in Comparison to Machines. In Proceedings of the 39th Annual Cognitive Science Society Meeting, pp. 1556-1561, 2017. [9] 岡村定矩ほか. 新編新しい科学 3 . 東京書籍, 2016. [10]坂上康俊ほか. 新編新しい社会公民. 東京書籍, 2016 . [11]三浦登ほか. 改訂新編物理基礎. 東京書籍, 2017. [12]間宮陽介ほか.現代社会.東京書籍,2017.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E5-1.pdf
# 執筆・翻訳のための制限語彙の構築とその自動化の検討 杉野峰大宮田玲少川浩平佐藤理史 名古屋大学大学院工学研究科 sugino.hodai@c.mbox.nagoya-u.ac.jp ## 1 はじめに 工業製品のマニュアルなど産業文書は、大規模になることが多い上、製品のリリースに合わせて短期間で完成させることが求められる。また、制作・多言語展開のプロセスには複数の編集会社・翻訳会社が携わり、表現の一貫性を保つことが難しいという問題もある。このような課題を解決するための枠組みとして制限言語がある。制限言語により、構文や語彙を制限し、曖昧な表現を防ぐことで、テキストの一貫性や翻訳可能性の向上が期待できる $[1,2]$ 。 ここで肝心なことは、執筆者・編集者・翻訳者が各作業プロセスにおいて共通に参照できるルールや辞書を事前に整備し、その利用を技術的に支援することである。 制限語彙は、制限言語の重要な要素の 1 つであり、特定のドメイン向けに設計された使用可能な語のリストのことである $[1,3]$ 。予め、使用できる語を規定しておくことによって、執筆者間の語彙使用のばらつきを抑制し、文書全体を通した表現の一貫性を向上させることができる。これまで、主に産業文書の執筆のために各種の制限語彙が構築されてきたが $[4,5]$ 、一般に公開されているものは多くない。公開されている制限語彙の 1 つに ASD Simplified Technical English (ASD-STE 100) [6] がある。これは、もともと航空宇宙分野の整備マニュアル用に開発されたもので、現在では産業界で広く使用されている。8つの品詞 (動詞、名詞、形容詞、副詞、冠詞、前置詞、接続詞、代名詞)を対象に、承認語 (approved word) と非承認語 (unapproved word) のリストが提供されている。 我々は、ASD-STE 100 をモデル例と捉え、自動車の修理書を対象とした日英対訳の制限語彙の構築に取り組んでいる。ASD-STE 100 は有用な枠組みではあるが、他の目的、ドメイン、言語に直接移植することは容易ではない。また、どの単語を使うべきかについては規定されているが、それらをどのように使うかに関する指針は必ずしも十分ではなく、執筆や翻訳に役立てるには改良の余地がある。さらに、単言語(英語)での提供であるため、多言語に制作される文書に対しては効果が限定的といえる。 そこで、本稿では、ASD-STE 100 の枠組みを拡張し、動詞を対象とした執筆・翻訳のための日英対訳の制限語彙の形式を提案し、人手構築の現状を報告する (2 節)。提案する制限語彙は、執筆支援や翻訳支援・機械翻訳への応用が考えられる(3 節)。さらに、制限語彙の人手構築で得た知見を踏まえ、構築作業の自動化に取り組んだ結果を報告する(4 節)。 ## 2 制限語彙の設計と人手構築 ## 2.1 設計 本研究では、執筆や翻訳に特に関わる文の主要な構成要素であり、なおかつ格などの構文に関する情報を付与できる、動詞を対象とする。 表 1、表 2 に提案する自動車修理書を対象とした制限語彙の形式を示す。表 1 は承認語、表 2 は非承認語のエントリの例である。この形式は ASD-STE 100 の形式を基に、以下の 3 つの観点から拡張したものである。 表現文型各動詞について取りうる格の順序と選択選好(意味カテゴリ) $[7,8]$ の情報を与える。これらを合わせて動詞の表現文型と呼ぶことにする。日本語では、格順序が比較的自由であり、 1. GTS DLC3 接続する 2. DLC3 GTS を接続する という 2 文は格の順序が入れ替わっているが、いずれも文法的には正しい。また、これらの違いは必ずしも読者の理解に大きな影響を与えるわけではない。しかし、一貫性のある文書を作成する観点から、格順序を制限し、これらの摇れを取り除くことは望ましく、テキスト検索の効率や機械翻訳出力の一貫性の向上にも貢献する。 表 1 承認語のエントリ例 表 2 非承認語のエントリ例 また、選択選好を規定することで、用語集との連携を強化できる。技術文書では、パーツ名などの専門用語の使用頻度が高く、一貫性を保つために用語集で管理することが望ましい。表現文型の格によく使われる語句の意味カテゴリの情報を付与し、用語集と対応させることで用語集の検索や利用を円滑にする(定義しているカテゴリは付録 $\mathrm{A}$ を参照)。 文書構造/内容要素我々は、すでに情報の配置に関するルールとなる修理書の文書構造やそれに対応した内容要素を定めている [9](一覧は付録 B を参照)。これらを表現文型を対応させることで、構造と表現が結びつき、表現文型の利用をより円滑なものにする。 多言語対応日本語の承認語に対し、多言語の承認語を対応させておくことで翻訳時の辞書として利用でき、目標言語での一貫性を高めることにつながる。今回は、日本語のエントリを起点に英語の承認語と表現文型を定める。 ## 2.2 制限語彙の人手構築 制限語彙構築の基本要件は以下の通りである(構築手順の詳細は、文献 [10]を参照)。 1. 語彙の全集合により当該ドメインのあらゆる内容を表現できる。 2. ある意味内容に対する表現形が 1 つに定まる。 ある意味内容に対する表現形を集めるには、単に辞書的な類義語を取得するのみでは不十分である。例えば、「使用する」と「着用する」は一見、類義語ではないが、「この作業では、必ず手袋を使用すること」と「この作業では、必ず手袋を着用すること」 では、同じ内容を指している。そのため、用例における入れ替え可能性に着目し、その語と入れ替え可能な語があれば、どちらか一方を承認語とする。 現在、トヨタ自動車株式会社から提供を受けた 10 車種 17 タイプの自動車修理書から抽出した $1,053,111$ 文の日本語文(以下、修理書コーパス)を用いて人手により日本語の制限語彙を構築してい る。複数の修理書から網羅的に文を抽出しており、当該ドメインを広くカバーしていると考えられる。 自動車修理書で使用される動詞全 852 種類を精査し、承認語 717 語と非承認語 135 語を規定した。異なりでは $15.9 \%$ 、延べでは $3.1 \%$ が非承認語であった。これは、プロの執筆者、編集者によって作成された文書であっても、さらなる語彙統制の余地があることを示唆する。 また、717 の承認語に対して、900 の表現文型を規定した。全文型により、現時点で修理書コーパス中の文を延べで $85.2 \%$ カバーしているが、異なりでは $40.3 \%$ のカバレッジにとどまる。これは、数多く存在する頻度が少ない文型を十分網羅できていないことを意味する。また、格順序が規定のものと異なるバリエーションは延べで $2.7 \%$ 存在した。 ## 3 執筆・翻訳への応用 執筆・翻訳において重要な役割を果たす表現文型はよく使われる表現である基本形のみが定義されている。実際に使用する際には、文書構造の位置によって望ましい形に変形する必要がある。そこで、 そのメカニズムを変形規則として実現した(表現文型の変形規則一覧は付録 B を参照)。以上を踏まえつつ、具体的な応用について述べる。 ## 3.1 執筆支援 文を一から執筆するシナリオでは以下のプロセスからなる執筆支援方法が有効であろう。 1. 書きたい内容に応じた文書構造要素を選ぶ。 2. 文の核となる動詞を入力し、動詞と内容要素に対応した表現文型を呼び出す。 3. 表現文型のスロットを埋める。 表現文型のスロットを埋める形式で文を書くことで執筆者間で一貫性を保てる。さらに、文書構造、内容要素、表現文型がトップダウンに対応しており、文レベルではなく文書レベルでの制限オーサリングを支援することが可能になる。 他にも、構築した制限語彙は、既存テキストの診断シナリオにも活用できる。具体的には、非承認語の使用と、表現文型に違反する格の順序を検出し、 それぞれ正しい表現候補を提案することで執筆者や編集者を支援できる。 ## 3.2 翻訳支援・機械翻訳 $「\{[$ Part $]$ を $\}[$ Part] に $\}$ 交換する」と「replace $\{[$ Part $]$ に \} with $\{[$ Part] を\}」など言語間で表現文型の対応がある。格要素は対訳用語集として整備しておく。表現文型と用語集は、人手翻訳ではガイドラインとして使えるだけでなく、的確な変換規則を定めればテンプレートベース機械翻訳にも応用できる。 機械翻訳について、あらゆる入力文に対し、表現文型による翻訳を適用できるわけではない。現在、日本語の文型のカバレッジは約 $85 \%$ である。表現文型の数を増やすことで、カバレッジを高めることは可能であるが、その分適切な管理が難しくなる。そこで、表現文型でカバーできない表現にはニューラル機械翻訳を用いることで、一貫性と柔軟さを兼ね備えた機械翻訳を実現できると考えている。 ## 4 自動構築の検討 制限語彙は有用であるが、人手による構築は時間や労力がかかる。また、 1000 種類以上の語を対象に制限語彙の構築を人手で行う中で、見落としも生じる。完全な自動化は難しいが制限語彙構築の機械的支援が求められる。本節では、承認語、非承認語決定の自動化の検討と実験について報告する。 ## 4.1 自動構築手法 2.2 節で述べた制限語彙の構築方針を以下の手続きとして具体化した。 1. 注目する動詞の類義語を収集する。 2. 注目する動詞の用例を用いて、類義語の入れ替え可能性を検証する。 3. 入れ替え可能であれば、承認語を 1 つに決定する。 自動化への課題は、大きく2つある。1つ目は、用例に即した入れ替え可能性をどのように自動で判定するかである。本研究では、BERT [11] ${ }^{1}$ を利用す  る。BERT は同じ語であっても文脈により異なる埋め込み表現を与えるため、用例に対する入れ替え可能性を測ることに利用できると考えた。 2つ目は、何を基準に承認語を決定するかである。基準としては、例えば、使用頻度、平易さ、体系性が挙げられる。使用頻度、平易さはそれぞれよく使われる表現、わかり易い表現に統一するという考えから重要であるといえる。また、辞書としての体系性も重要な要素と考えられる。例えば、「送る」、「受信する」が承認語、「送信する」、「受け取る」が非承認語であるのは不自然であり、承認語と非承認語の決定は対称的になっていることが望ましい。本来はこのような要素を複合的に考慮すべきであるが、今回の自動化では人手構築においても特に重視した使用頻度を基準とする。 本手法の入力は制限語彙を構築したい文書群、出力は、動詞のみを対象とした承認語のリスト及び非承認語と代替承認語のペアのリストの 2 つである。処理の全体像を図 1 に示す。この処理は対象コーパス中における頻度上位の語から順に行う。以下、各モジュールの詳細を述べる。 (1) 置換候補抽出対象動詞の代替承認語の候補として対象コーパス中で対象動詞より出現頻度が多い動詞から以下のどちらかを満たすものを選ぶ。 - WordNet ${ }^{2}$ における類義語 - $\operatorname{word2\mathrm {vec}^{3})}$ で対象動詞との $\cos$ 類似度が閾値 $\alpha$以上で上位 30 件以内かつ WordNet における対義語でない語 (2) 用例サンプリング対象動詞を含むコーパス中の全用例を検証するのは実行時間の点から現実的ではないため、用例のサンプリングを行う。動詞は複数の用法で使用されることもあり、それらを広く含むようサンプリングする必要がある。本研究では、BERT のベクトルを利用した用例のクラスタリング [12]を利用する。なお、クラスタ数は未知であるため、上限クラスタ数を 5 とし、x-means 法によってクラスタリングを行う。得られたクラスタの重心に最も近い用例を取得することによって、多様な用法を含むサンプリングを実現する。 (3) 入れ替え可否判定 Panzer [13]、HaoriBricks3 [14]を利用して、(2)で得た用例 (原文) の動詞を (1) で得た置換候補に置き換えた文(置換文)を生成 2) http://compling.hss.ntu.edu.sg/wnja/ 3) Wikipedia で学習したモデルを対象コーパスで追加学習した。 図 1 制限語彙の自動構築の流れ(動詞「取り替える」と承認語「交換する」が入れ替え可能か判定する例を示す。) 表 3 自動で取得した非承認語と代替承認語のペアに対する評価結果 する。なお、英語では、同様の処理に pattern [15] を用いた。次に、入れ替え可否判定のために、BERT ベースの平易化手法 [16] を参考に原文と置換文の動詞部分を [MASK] トークンで置き換えた文を結合して BERT に入力する。 [MASK] に置換文の動詞が出現する尤度を $p$ 、 [MASK] に原文の動詞が出現する尤度 $p^{\prime}$ として、入れ替え可能性スコアは以下のように定義する4)。 Score $= \begin{cases}p & (\text { 動詞部分の token 数が異なる場合 }) \\ \frac{p}{1-p^{\prime}} & (\text { 動詞部分の token 数が同じ場合 })\end{cases}$ スコアが候補中で最大かつ閾値 $\beta$ 以上であれば、用例において動詞の入れ替えが可能と判定する。 (2)で得た全ての用例のについて入れ替え可能な語があれば、それらを代替承認語とし、対象動詞を非承認語とする。 ## 4.2 検証 自動車分野の修理書コーパズ5)を用いて、日本語と英語で制限語彙の自動構築を行った。 今回は、閾値 $\alpha, \beta$ はともに 0.2 と設定した。自動で同定した非承認語と代替承認語のペアに対する評価結果を表 3 に示す。日本語において、人手構築結果(2.2 節)との一致度は $14.1 \%$ と低いが、精度は $63.6 \%$ と人手構築の判断材料として使える水準であった。制限語彙の作り方は 1 通りには定まらず、 4) BERT に同じ長さの文を結合した 2 文を入力した場合、 2 文目の [MASK] に対して、1 文目と同じ token を予測する働きが強まるため、入れ替え可能な他の表現の出現尤度が低くなる。 この BERT の挙動の影響を補正するため、場合分けを行う。 5)日本語は 2.2 節と同じ $1,053,111$ 文、英語は 10 車種 15 タイプの自動車修理書から抽出した $1,202,738$ 文を利用した。必ずしも人手で構築したものが最良とは言えないことを示唆する。特に、人手では承認語としていた動詞の内、自動構築によって新たに 41 件に対し妥当な代替承認語を獲得することができた。人手と自動構築の違いとして、人手の方が漢語から和語への言い換えを好む傾向が見られた。また、英語においても、 $68.9 \%$ と日本語と同程度の精度が確認できた。 エラーとして、対義語が代替承認語と判定されている事例が複数存在した。原因は、BERT や word2vec が分布仮説の考え方に従っており、同義語と対義語を十分区別できないためと考えられる。今回は候補抽出の段階で WordNet で獲得できる対義語は除外したが、それでも多くの対義語が代替承認語として出力されている。解決策としては、対義語辞書の拡充など対義語判定手法の改良が考えられる。 ## 5 おわりに 本稿では、執筆・翻訳作業において制限語彙を有効に活用するために、ASD-STE 100 の枠組みを拡張し、新たな制限語彙の形式を提案した。本制限語彙は、執筆・翻訳作業の支援システムへの様々な応用が可能である。さらに、制限語彙の構築作業の自動化に取り組み、人手作業の支援に利用できる一定の精度が得られることを確認した。対義語への対処は今後の課題である。 今後は、表現文型を起点として、執筆・翻訳支援の枠組みを発展させる。具体的には、(1) 副詞句などの修飾要素の種類と文中での順序を整理すること、 (2) 複文の構成に関して節間接続表現の列挙と規則を定めることに取り組む。また、これらの要素を執筆や翻訳に活用するためのシステムの開発を行う。 謝辞研究データの自動車修理書はトヨタ自動車株式会社からご提供いただいた。本研究の一部は科研費(19H05660,19K20628)の支援を受けた。 ## 参考文献 [1] Eric Nyberg, Teruko Mitamura, and Willem-Olaf Huijsen. Controlled language for authoring and translation. In Harold Somers, editor, Computers and Translation: A Translator's Guide, pp. 245-281. John Benjamins, Amsterdam, 2003. [2] Tobias Kuhn. A survey and classification of controlled natural languages. Computational Linguistics, Vol. 40, No. 1, pp. 121-170, 2014. [3] Kara Warburton. Developing lexical resources for controlled authoring purposes. In Proceedings of LREC 2014 Workshop: Controlled Natural Language Simplifying Language Use, pp. 90-103, 2014. [4] Linda Means and Kurt Godden. The Controlled Automotive Service Language (CASL) project. In Proceedings of the 1 st International Workshop on Controlled Language Applications, pp. 106-114, 1996. [5] Kurt Godden. The evolution of CASL controlled authoring at General Motors. In Proceedings of the 3rd International Workshop on Controlled Language Applications, pp. 14-19, 2000 . [6] ASD Simplified Technical English. Specification ASDSTE100, Issue 7., (2020-12 閲覧). http://www. asd-ste100.org. [7] Philip Resnik. Selectional preference and sense disambiguation. In Proceedings of ACL SIGLEX Workshop on Tagging Text with Lexical Semantics: Why, What, and How?, pp. 52-57, 1997. [8] Yorick Wilks. An intelligent analyzer and understander of English. Communications of the ACM, Vol. 18, No. 5, pp. 264-274, 1975. [9] Hodai Sugino, Rei Miyata, and Satoshi Sato. Formalising document structure and automatically recognising document elements: A case study on automobile repair manuals. In Adam Jatowt, Akira Maeda, and Sue Yeon Syn, editors, Digital Libraries at the Crossroads of Digital Information for the Future. ICADL 2019. Lecture Notes in Computer Science, pp. 249-262. Springer, Cham, 2019. [10] Rei Miyata and Hodai Sugino. Building a controlled lexicon for authoring automotive technical documents. In Proceedings of XIX EURALEX Congress: Lexicography for Inclusion, pp. 171-180, 2020. [11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [12] 馬ブン, 田中裕隆, 曹鋭, 白静, 新納浩幸. Bert を利用した単語用例のクラスタリング. 言語資源活用ワークショップ発表論文集, 2019. [13] 佐野正裕, 佐藤理史, 宮田玲. 文末述語における機能表現検出と文間接続関係推定への応用. 言語処理学会第 26 回年次大会発表論文集, pp. 1483-1486, 2020. [14] 佐藤理史. HaoriBricks3: 日本語文を合成するためのドメイン特化言語. 自然言語処理, Vol. 27, No. 2, pp. 411-444, 2020. [15] Tom De Smedt and Walter Daelemans. Pattern for Python. The Journal of Machine Learning Research, Vol. 13, No. 1, pp. 2063-2067, 2012. [16] Jipeng Qiang, Yun Li, Zhu Yi, Yunhao Yuan, and Xindong Wu. Lexical simplification with pretrained encoders. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, No. 05, pp. 8649-8656, 2020. ## A 格要素の意味カテゴリ一覧 ## B文書構造、内容要素、表現文型変形規則の対応一覧 内容要素は、文末動詞を含む要素のみを記載している(全要素は文献 [9]を参照のこと)。また、表現文型は、内容要素のうち、操作、判断、推測、行為、機能、状態、物理、禁止事項のいずれかと対応付けられている (2 節参照)。
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E5-2.pdf
# 翻訳の主観評価で用いられる表現 西野 竜太郎 グローバリゼーションデザイン研究所 nishino@globalization.co.jp } 藤田 篤 情報通信研究機構 atsushi.fujita@nict.go.jp 新田順也 エヌ・アイ・ティー nittaQn-i-t.jp 山本 真佑花 関西大学 } 大西菜奈美 関西大学 山田 優 関西大学 yamada@apple-eye.com ## 1 はじめに 翻訳と翻訳業界が扱う「品質」という言葉とその定義は常に曖昧さを含んでいたが、近年、これを整理する動きが活発化している。2014 年以降、欧州では QTLaunchPadにより翻訳品質評価の共通枠組みが策定されてきた。また Fields ら [1] は、Garvin [2] の産業品質の基本概念を参照し、翻訳品質を評価するアプローチを次の 5 つに分類した。 A.超越的 : 専門家による主観評価 B.ユーザーベース : 最終読者による主観評価 C.プロダクトベース : 客観指標による評価 D.価値ベース:費用を考慮した相対的価値 E.生産ベース:合意した仕様を満たす程度 図 1 は、西野 [3] による 5 分類の関係図である。 図 1 品質評価 5 分類の関係図 ここでは「評価対象の翻訳成果物」が左端に置かれており、それに対して「A. 超越的」、「B. ユーザー ベース」、「C. プロダクトベース」の 3 つから矢印が伸びている。つまり、翻訳成果物を直接的に評価する方法はこの 3 つということである。一方で $\mathrm{D}$ とは間接評価になる。 C の下位分類の一つである「エラー評価」は、現在、翻訳業界で活用される客観評価であり、具体例としては、MQM [4]、国内の JTF 翻訳品質評価ガイドライン [5]、翻訳教育用の「みんなの翻訳実習」の校閲カテゴリ [6] がある。これらは翻訳成果物に含まれるエラー(文法ミス、用語違反など)に基づく評価であり、比較的客観性が高く定量評価が可能であるため、関係者間の合意形成やコミュニケーションの円滑化に寄与する。 B は最終読者やユーザーの視点からの品質評価である。具体例としてはアンケート(「この翻訳は分かりやすいですか?」といった質問)が挙げられ、最終成果物としての翻訳を評価する際に便利である。一方で時間等のコストがかかるためか、A や C と比べると頻繁に利用されない。 A は熟練翻訳者などの言語専門家による評価である。長年の経験や専門知識に基づく評価であり、実務翻訳の現場ではよく用いられる。しかし「意訳調」や「わかりにくい」といった主観的な表現が用いられることが多いので、評価者間で結果を共有することが困難である。表現の意味が評価者や使用者によって異なるため、この A で用いられる言葉(主観評価表現)の意味や定義(使用頻度、場面、およびその言葉に対応する翻訳成果物の現象等)をある程度明らかにすることができれば、評価者間および翻訳制作工程における参与者間のコミュニケーションの向上が望めるほか、包括的な翻訳品質評価方法の確立に寄与する。 そこで筆者らは、主観評価表現に関する調査を翻訳業界の関係者に対して実施し、翻訳業界で【1】どのような主観評価表現が使われているのか、【2】それはどのような意味で用いられているのか(どのような言語現象を指し示すのか)、という 2 点の解明に取り組んでいる。本論文では【1】に関係する調 査結果の一部を報告する。 ## 2 方法 翻訳の主観評価において用いられる表現を調べるため、まず一般に入手できる翻訳指南書などから主観評価表現に該当すると思われる表現を抽出し、その後で質問紙調査によって実際に使用されている表現を見つけるという方法を採用した。日本国内では和訳(日本語訳)に対する需要が高いことに鑑み、今回は和訳時に用いられる日本語の主観評価表現を対象にした(つまり英訳に用いる評価表現は除外)。 まず訳文に対する評価が掲載されている文献(付録 A. 1 に記載)を参照し、そこで用いられている評価表現 169 個を抽出した。ただしエラー評価の項目 (文法ミス、用語違反など)に該当する、指示が自明な表現は除外した。次に、表層的に類似する表現をまとめた。たとえば、意味的に類似すると考えられる「稚拙」と「幼稚」は別項目として残す一方、「自然」と「自然な」は内容語を共有するためまとめた。 その結果、最終的に 110 個の主観評価表現が残った (表 2)。 続いて、質問紙調査を実施した。対象は業界団体である一般社団法人日本翻訳連盟(JTF)に所属する個人会員と、法人会員である機関や企業の構成員とした。前者はフリーランス翻訳者が大部分である一方で、後者には翻訳者のほか、品質保証担当、プロジェクト・マネージャー、コーディネーターなどさまざまな職種の人を含む。質問は次の通りである。 納品後に、翻訳成果物に対する評価(クレーム含む) が行われることがあります。また、クライアントや翻訳会社からの発注時(または仕様指定時)に「こんな感じで仕上げてほしい」と指示されることがあります。このようなとき、以下の 1~110で示す主観的な言葉が実際に用いられることはありますか? 各主観評価表現に対して、この質問への回答を 「よくある」、「たまにある」、「ない」の3つの中から1つを選んでもらう形式とした。また、提示した 110 個以外に実際に使っている主観評価表現があれば自由記述欄を通じて列挙してもらった。調査は 2020 年 7 月 1 日〜 15 日に実施した。 ## 3 結果 合計で 115 名から回答を得た。回答者の属性は表 1 に示す通りである。 表 2 に調査対象とした 110 個の主観評価表現を示表 1 回答者の属性 & 21 & $18 \%$ \\ す。分野を通した全体で「よくある」または「たまにある」という回答の割合(以下、使用率)が高い順に並べており、上位 20 位までは全体での使用率と、 4 つの専門分野 (A. 金融・経済・法務、B. 医学・医薬、C. 工業・科学技術、D. 特許・知財) の各々における使用率も記載している。なお、回答者全員がすべての項目に回答したわけではない。 表 2 より、全体の傾向として専門分野横断的に共通の主観評価表現が用いられていることが分かる。 しかし、各専門分野において、他の 3 分野よりも相対的に使用率が高い表現があることも観察できる。他の 3 分野よりも使用者の割合が有意に(有意水準 5\%)高かった表現を表 3 に示す。使用率の差が大きい順に左から右、上から下に並べている。なお「В.医学・医薬」分野には該当する表現は無かった。 表 4 に、回答者の所属ごとの主観評価表現全体 (質問数 $\times$ 人数)の使用率を示す。回答者が多かつた「翻訳会社」の所属者と「フリーランス」を対象とした。なお所属が「フリーランス」の全員が職務を「翻訳者」と回答した。表 4 より、翻訳会社の所属者の方がフリーランスよりも主観評価表現を使用 表 2110 個の主観評価表現と上位 20 位までの使用率 (ここから 21 位以降。読点が区切りで、中黒は併置) 逐語訳、すっきりした、通じる、ぎこちない、明膫、くどい、きれい、機械的、あいまい、流暢、技術的に正確な、こなれていない、一読して意味がわかる、意味不明、複雑、口語調、意味のずれた、フォーマル、難解、稚拙、うまい、適訳、無難、しっくりする・しっくりくる、くだけた、堅苦しい、やわらかい、原文に引きずられない、ぴったりの、微妙、粗い、カジュアル、完璧、話し言葉、すっきりしない、つたない、工夫の余地がある、翻訳調、思い切った意訳、安心できる、パーフェクト、たどたどしい、端的、明快、馴染みのない・馴染みがない、筋の通った、書き言葉、理解不可能、文語調、練られた、格調ある・格調高い、読める、馴染みのある・馴染みがある、ぼかした、原文が透けて見える、頭に入らない、ピンとくる、安易、無駄のない、使えそう、通りがよい、リズムある、舌足らず、きれいでない、頭に入る、練られていない、持って回った、思考の流れを踏まえた、坐りが悪い、幼稚、原文からは思いつかない、引き締まった、切れ味がよい、悪訳、字訳、重い、超訳、翻訳くさい、パンチがある、雾囲気を損なった、味気ない、面白味を損なった・面白くない、具合が悪い、つまらない、生硬、白々しい、完全無欠、平明達意、荘重、しゃちこばった・しゃちほこばった 表 3 他の 3 分野と比較した場合の分野別による高使用率表現 A. 金融・経済・法務(3 表現) フォーマル、格調ある・格調高い、書き言葉 C. 工業・科学技術(21 表現) 翻訳調、ピンとくる、話し言葉、やわらかい、堅苦しい、かたい、カジュアル、端的、こなれていない、口語調、フォーマル、格調ある・格調高い、こなれた、ぼかした、坐りが悪い、工夫の余地がある、翻訳くさい、悪訳、引き締まった、幼稚、平明達意 D. 特許・知財 (6 表現) 逐語訳、字訳、不明膫、機械的、技術的に正確な、正しい する傾向が見られる(5\%水準の有意差あり)。 さらに、翻訳会社とフリーランスという所属で比較した際に、使用の割合が有意に(有意水準 5\%)高い主観評価表現を抽出した。該当する表現は翻訳会社側のみにあり、48 個あった。付録の表 5 に示す。自由記述として回答された表現のうち、 2 人以 上から挙げられたのは「ニュアンス」と「機械翻訳」のみであった。前者は「ニュアンスが違う」や 「ニュアンスが出せていない」、後者は「機械翻訳のようだ」や「機械翻訳つぽい」のように使われる。 これら以外を付録の表 6 にまとめた。 ## 4 考察 先述の通り、全体で上位に入る表現(表 2)は、専門分野にかかわらず同じような傾向が見られる。 つまり上位の主観評価表現は共通して用いられている。ただし表 3 で示した通り、分野ごとに使用率の高い表現が存在する。詳細を見るとその分野における特徵が浮き彫りになる。A の金融では契約書など法務文書の特徴を示す「フォーマル」、「格調高い」、 「書き言葉」という表現が見られる。C の工業ではマニュアルやマーケティング資料なども含まれるためか、「話し言葉」、「やわらかい」、「堅苦しい」、「かたい」、「カジュアル」といった硬軟に関わる表現が他分野よりも多く使われる。また D の特許では「逐語訳」や「字訳」さらに技術に関わる「技術的に正確な」や「不明膫」の使用割合が顕著に高い。 表 4 の結果は、翻訳会社に所属する人の方がフリーランスよりも主観評価表現の使用者が多いことを示した。これには 2 つ理由があると推測する。 まず、翻訳成果物の要求事項や品質を語る際に、翻訳会社と発注先のフリーランス翻訳者との間(すなわちプロの翻訳専門家間) では客観評価手法(エラー評価)でコミュニケーションが図られる一方で、翻訳会社と発注元のクライアント (必ずしも客観評価手法に詳しくない)との間では主観評価手法を用いざるを得ないため、翻訳会社における使用者が多くなるという点である。もう 1 つ理由は評価対象の単位あるいは粒度である。翻訳会社とフリー ランスとの間では、文法ミスなどをエラー評価で具体的に細かくフィードバックすることがある。一方で翻訳会社とクライアントとの間では、ファイル一式など納品物全体の評価が伝えられる。全体評価を伝える際は抽象的な主観評価の方が便利であるため、翻訳会社における使用者が多いという理由である。 ## 5 おわりに 翻訳業界において主観評価は重要であり、実際に広く使われている。しかしこれらの表現は主観的であるがゆえに、使用者によって意味(指示対象)が異なる可能性が考えられる。そのため、実際にどのような主観評価表現が使われているか、各々の意味が何であるのかが分かれば、関係者間に共通のコミュニケーション基盤を構築でき、翻訳品質の向上にも資する。そこで本論文ではまず、翻訳現場で頻繁に用いられる主観評価表現について調査した。分野を通じた全体では「直訳」、「わかりやすい」、「意訳」、「読みやすい」などの表現の使用率が高かった。 また各専門分野で使用率が高い表現も判明した。 今後は、これらの主観評価表現が「どのような意味で用いられているのか (どのような言語現象を指し示すのか)」という点について調査を継続する。 ## 謝辞 調査に協力していただいた一般社団法人日本翻訳連盟(JTF)および回答者の皆さまに感謝申し上げます。 本研究の一部は、日本学術振興会科研費補助金基盤研究(S)「翻訳規範とコンピテンスの可操作化を通した翻訳プロセス・モデルと統合環境の構築」 (研究課題番号:19H05660)の支援を受けて行われました。 ## 参考文献 [1] Paul Fields, Daryl Hague, Geoffrey Koby, and Alan Melby. What is quality? A management discipline and the translation industry get acquainted. Revista Tradumàtica, Vol. 12, pp. 404-412, 2014. [2] David Garvin. What does 'product quality' really mean? Sloan Management Review, 1984. [3] 西野竜太郎. 翻訳品質のランチボックス:翻訳の 「品質」とは (2).日本翻訳ジャーナル, Vol. 284, pp. 24-25, 2016. [4] Arle Lommel, Hans Uszkoreit, and Aljoscha Burchardt. Multidimensional Quality Metrics ( MQM ): A framework for declaring and describing translation quality metrics. Revista Tradumàtica, Vol. 12, pp. 455-462, 2014. [5] 一般社団法人日本翻訳連盟. JTF 翻訳品質評価ガイドライン,(2020-12-15 閲覧).https://www.jtf.jp/tq/ pdf/jtf_translation_quality_guidelines_v1.pdf. [6] 豊島知穂, 藤田篤, 田辺希久子, 影浦峡, Anthony Hartley.校閲カテゴリ体系に基づく翻訳学習者の誤り傾向の分析. 通訳翻訳研究への招待, Vol. 16, pp. 47-65, 2016. ## A 付録 ## A. 1 抽出時に参照した文献 主観評価表現の抽出時に参照した文献を示す。 ・安西徹雄『翻訳英文法一訳し方のルール』(バベルプレス、2008 年) - 安藤進『AI 時代の翻訳に役立つ Google 活用テクニック』(丸善出版、2018 年) ・遠田和子『Google 英文ライティング』(講談社、2009 年) - 倉増一『特許翻訳の基礎と応用』(講談社、2006 年) ・駒宮俊友『翻訳スキルハンドブック』(アルク、2017 年) ・近藤哲史『トライアル現場主義!』(丸善出版、2005) ・沢井昭司・時國滋夫『特許翻訳の実務』(講談社、2014 年) ・柴田耕太郎『翻訳家になろう』(青弓社、2012 年) - 田辺希久子・光藤京子『プロが教える基礎からの翻訳スキル』(三修社、2008 年) ・中山裕木子『技術系英文ライティング』(日本工業英語協会、2009 年) ## A. 2 翻訳会社で使用率が高い表現 フリーランスと比較した場合に翻訳会社で有意に(有意水準 5\%)使用率が高い表現 48 個を表 5 に示す。使用率の差が大きい順に左から右、上から下に並べている。 表 5 フリーランスと比較した場合に翻訳会社で使用率が高い表現 48 個読みにくい、機械的、兄長、つたない、稚拙、不明膫、不自然、くどい、わかりにくい、ぎこちない、簡潔、複雑、あいまい、きれい、読みやすい、逐語訳、うまい、丁寧、忠実、たどたどしい、意味のずれた、原文に引きずられた、適切、正しい、尔さわしい、しっくりする・しっくりくる、意味不明、粗い、自然、カジュアル、直訳(直訳的・直訳調)、意味が通じる、通じる、頭に入らない、理解不可能、堅苦しい、こなれていない、難解、流暢、かたい、口語調、明膫、話し言葉、適訳、すっきりしない、ぼかした、字訳、わかりやすい ## A. 3 自由記述で挙げられた表現 自由記述で回答のあった主観評価表現のうち、2 人が回答した「ニュアンス」と「機械翻訳」を除き、整理した上で 6 に示す。順不同である。 表 6 自由記述で挙げられた主観評価表現(「ニュアンス」と「機械翻訳」は除く) 定訳、文脈に即した、頭でつかちな主語・主部、長い修飾節、同語反復、好み、刺さる、下手だ、分かりづらい、違和感がある、スラスラ読める、一読で理解できる・できない、意味合い、正確、不完全な、不十分な、整然とした・整然としない、文意に合わない、一般的な表現、どちらの意味にも取れる
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E5-3.pdf
# 相対的意味論と機械翻訳の応用 村上仁一 鳥取大学工学部 murakami@tottori-u.ac.jp ## 1 はじめに 本論文では, 語彙の意味を,説明するために,相対的意味表現と, 絶対的意味表現について述べる. 次に, これらの方法でも,説明できない語彙に対し, 2 言語を利用した方法をしめす。そして,この方法を利用した翻訳方法について述べる。具体的には,” 相対的意味論に基づく変換主導型統計翻訳 (TDSMT)”と,” 相対的意味論に基づく統計翻訳 (RSMT)”の方法について述べる. 最後に相対的意味論と NMT(Nural Network Machine Translation) の関係を考察する。 ## 2 語彙の意味と辞書 ## 2.1 辞書学と意味表現 辞書は, 現在や過去において, 使用された語彙を収集し, その品詞・意味・背景 (語源等) - 使用法 $($ 用例) ・派生語・等を解説した書籍である. 基本的には, 語彙は, 他の語彙を利用して, 解説する. 1 つの辞書において, 解説文には,出来るだけ統一をとるように収集される. 語彙について何らかの記述をするための言語を,メタ言語と呼ぶ. 初めに, 語彙とメタ言語が, 同一言語の場合の例を示す. そして, 語彙の意味を絶対的意味表現と相対的意味表現をもちいて述べる. ## 2.2 絶対的意味表現 絶対的意味表現とは, 単語の語彙の意味を具体的な他の語彙で表現する。この表現方法は, 基本的には, 理解しやすい. 以下は, 絶対的意味表現の例である. $ \begin{array}{ll} \text { 青 } & - \text { 波長 } 400 \mathrm{~nm} \text { 近辺の光 } \\ \text { 赤 } & - \text { 波長 } 800 \mathrm{~nm} \text { 近辺の光 } \end{array} $ 多くの語彙は, 絶対的意味表現で, 表現できる. しかし, 意味の表現が困難な語彙も多い. 以下は, その例である. $ \text { 右[1] } $ - 南を向いたとき,西にあたる方(広辞苑) -アナログ時計の 1 時から 5 時までの表示がある側. (新明解国語辞典) —この辞書を開いて読むとき, 偶数のぺージのある側(岩波国語辞典) 左一南に向かったとき,東にあたる方(旺文社国語辞典) -アナログ時計の文字盤に向かった時に, 七時から十一時までの表示のある側.(新明解国語辞典) ーこの辞典を開いて読む時, 奇数ページのある側.(岩波国語辞典) いずれの説明も,曖昧な点が残る(例えば,“南”とは?)似た語彙として“上”“下”などがある. ## 2.3 相対的意味表現 相対的意味表現とは, 単語の意味を, お互いに相反する単語で表現する方法である。例を以下に述べる。 $ \begin{array}{ll} \text { 右 } & - \text { 左の反対 } \\ \text { 左 } & - \text { 右の反対 } \end{array} $ 絶対的意味表現で困難な語彙は, 相対的意味表現で表現可能な場合が多い.しかし, この表現方法は, 説明がループするため,“煙を蒔いたような表現”と言って嫌悪する人も多い. また,語彙の中には,対的意味表現を用いても,説明できない語彙がある.以下は,その例である。人間 $ \begin{aligned} & \text { - ひと人類 } \\ & \text { - 遺伝的な両親が人間である人 } \\ & \text { - 考える葦 } \end{aligned} $ いすれの説明も,疑問点が残る。このように,“人間” の意味を説明することは, 非常に困難である. ${ }^{1)}$ ## 2.42 言語を用いた意味表現 単言語では説明するのが困難な語彙は,2 言語を利用して表現することが可能な場合がある. 例を以下に挙げる. ・“人間”とは “human”である. 以下に,2 言語を用いた例を示す。 “右”とは “right”である. “犬”とは“dog”である. “動物”とは“animal”である。 しかし,“犬”には別の意味がある。 “大”とは “spy”である. このように, 2 言語をもちても,語彙に複数の意味があるとき,一意に表現できない。 ## 2.52 言語を用いた相対的意味表現 単言語において, 複数の意味があるとき, 2 言語を用いた意味表現では, 1 意に表現できない。このような場合. 2 言語の相対的意味を用いて表現できる. “aがbならば c は d" これを “ 2 言語を用いた相対的意味表現”と呼んでいる.例を以下に示す. 1. “右”が“right”ならば“左”は “left” 2. “大”が“dog”ならば “猫”は “cat” 1)個人的には,2 番目の説明が好みである. 3. “大”が“Canis”ならば“猫”は “Felis” 4. “大”が“spy”ならば “猫”は “sex decoy” ## 32 言語を用いた相対的意味表現の 辞書(変換テーブル) ## 3.1 変換テーブルと文法 本研究では, 語彙を 2 言語を用いた相対的意味表現に基づいて,考える.これを以下のように表現する. ・“aがbならば c は d ただし a,b,c,d は単語” この辞書を“変換テーブル”と呼んでいる。 例を以下に示す. a:犬 b:dog c:猫 d:cat a:犬 b:Canidae c:猫 d:Felis $\operatorname{dog}$ と cat は, 哺乳類である. Canis は犬科で, Felis は猫科である.この例では, 名詞の意味的な階層の情報が変換テーブルに含まれる. a:彼 b:he c:彼女 d:she a:彼 b:him c:彼女 d:her この例では,代名詞の文法が変換テーブルに含まれる. a:走る b:run c:歩く d:walk a:走った b:ran c:歩いた d:walked この例では,時制の文法が変換テーブルに含まれる。 これらの例から, 変換テーブルには, 文法や属性や意味の情報が含まれることがわかる. なお, 文脈に応じた情報も含めることができると,考えている. ## 3.2 変換テーブルの作成方法 変換テーブルは, 手動で作成できる. しかし, 自動的に作成する方法がある。その方法の 1 つに,文パターンを利用して作成する方法がある. 作成方法を以下に示す. 1. 学習文 1 を準備する。 ・彼は山にいった。 - He went to mountain. 2. 対訳単語を準備する。 a: 山 b: mountain 3. 文パターンを作成する. ・彼は $N$ にいった. - He went to $N$ 4. 学習文 2 を準備する。 ・彼は海にいった。 - He went to sea 5. 学習文 1 と文パターンと学習文 2 から, 以下の変換テーブルを作成する. a:山 b: mountain c:海 d: sea ## 4 相対的意味論を用いた変換主導型機械翻訳 (TDSMT)[2] 変換テーブルは, 文中の単語の置換可能な辞書として捕らえることができる. したがって,変換テーブルの応用として, 機械翻訳がある. 以下に相対的意味論を用いた変換主導型機械翻訳 ( Tranfer Driven with Relative Meaning using Statistica Machine Translation 以後 TDSMT) の概念を述べる.例として,日英翻訳を考える。  ## 4.1 TDSMT の基本概念 基本概念を,以下に述べる. ・Aが B ならば C は Dである. ・A,B,C,D は文である. ・a,b,c,d は単語もしくは句である. ・入力文は C で,翻訳文は D になる。 以下に例を示す。 1. 入力文 日英翻訳において,以下の日本文の翻訳を想定する. Cショウジョウハエは林檎が好きだ 2. 学習文 学習文として以下の対訳文を想定する. $\mathrm{A}$ 私は林檎が好きだ BI like an apple 3. 変換テーブル 以下の変換テーブルを想定する. a: 私 b: I c: ショウジョウハエ d: Fruit flies 4. 変換規則 以下の変換規則を想定する。 $\mathrm{A}$ に $\mathrm{a}$ を適用し, $\mathrm{B}$ に $\mathrm{b}$ を適用できたならば, $\mathrm{C}$ に $を$ 適用し, $\mathrm{D}$ に $\mathrm{d}$ 適用する。 5. 出力文(翻訳文) 以上の結果から以下の出力文(英文)を得る. - Fruit flies like an apple ## 4.2 TDSMT の一般形式 TDSMT では,以下を基本概念とする。 ・A が B ならば C は D ・ただし A,B,C,D は文 $\mathrm{C}$ は入力文, $\mathrm{D}$ は出力文 A対訳学習文の日本文 $B$ 対訳学習文の英文 C入力の日本語文 D出力の英文(翻訳文) ・aがbならば $\mathrm{c}$ は $\mathrm{d}$ ・ただし a,b,c,d は単語もしくは句 $a$ 対訳学習文の日本語単語 b対訳学習文の英語単語 c入力の日本語単語 d出力の英語単語 以下の変換規則を想定する。 ・A K aを適用し, Bに $\mathrm{b}$ を適用できたならば, $\mathrm{C}$ に $\mathrm{c}$ を適用し,D $\mathrm{D}$ を適用できる。 ## 4.3 TDSMT の例 Aツバメは矢のように飛ぶ BSwallow flies like an arrow C時間は矢のように飛ぶ DTime flies like an arrow a:ツバメ b:Swallow $\quad \mathrm{c}$ :時間 $\quad \mathrm{d}$ :Time “Time flies like an arrow” の訳として “時蜾,矢を好む” がある。この訳は,非文と考えられる。しかし,なぜ,非文と考えられるのだろうか?通常は,“時蝿”が存在しない から, 非文とする。しかし, 存在しないことの証明は, 困難である. 相対的意味論の考えかたは,“ツバメは矢のように飛ぶ” があるから,“時間は矢のように飛ぶ”と訳すことができると解釈する。 ## 4.4 TDSMT の動作例 実際の文章に TDSMT を使って翻訳した例を以下に示す. A風が北から南に変わった BThe wind changed from north to south C信号が青より赤に変わった DThe signal changed from green to red 使用した変換テーブルを以下に示す. 現実の TDSMT の翻訳結果を見ると,それぞれの変換テーブルにおいて,やや奇異に思われる点がある。 1. “信号”と“風”は,あまり類似していると思えない. 2. “青”と“北”は,あまり類似していると思えない. 3. 通常, “より”は“han”と訳される. 4. 通常, “青”は “blue”と訳される. このように,実際に利用される変換テーブルは,人間の直感と, 少し異なる. ## 4.5 TDSMT の問題 ## 1. 語彙数 一般の単語辞書の見出し語は, 約 10 万単語である.したがって, 変換テーブルの数は 100 億単語が必要になる。(10万 $\times 10$ 万)この数の, 精度の高い変換テーブルを収集することは,困難である。 2. 直感との差 実際に翻訳に利用される変換テーブルは, 人間の直感と,少し異なる場合がある 4.4 章. ## 5 相対的意味論に基づく統計翻訳 (RSMT) ## 5.1 基本的な考え方 TDSMT は,変換テーブルの数と精度が問題になる.しかし, 相対的意味論は, 魅力のある考え方である. そこで,この考え方を,文に適用する. そして変換テーブルは使用しない. 変換テーブルの代わりに, 翻訳確率と類似度を利用する.この翻訳方式を相対的意味論に基づく統計翻訳 Relative Meaning Statistica Machine Translation (以後 RSMT) と呼んでいる. 以下に RSMT の基本的な概念を述べる. ・A が B ならば C は D ・ただし A,B,C,D は文 $\mathrm{A}$ 対訳学習文の日本語 B対訳学習文の英語 C入力日本文 D出力英文(翻訳文) -Aと C は同一言語において類似 - A と B は 2 言語の翻訳において類似 ・B とDは同一言語において類似 $\cdot$C と D は 2 言語の翻訳において類似 以下に例を述べる。 A私は林檎が好きだ BI like an apple Cショウジョウハエは林檎が好きだ DFruit flies like an apple この例では,以下のように解釈する。 1. “私は林檎が好きだ”と“ショウジョウ八エは林檎が好きだ”は類似している。 2. “私は林檎が好きだ”に対する “I like an apple”の翻訳確率は高い。 3. “ショウジョウハエは林檎が好きだ”に対する “Fruit flies like an apple"の翻訳確率は高い. 4. "I like an apple" と "Fruit flies like an apple" は類似している. 5. 以上 4 点を考慮して, “ショウジョウハエは林檎が好きだ”を入力したとき, “Fruit flies like an apple" が翻訳文である. ## 5.2 実際の RSMT ## 5.2.1 出力英文 理想的な RSMT において, "D 出力英文”は, 生成可能なすべての英文から,選択する。語彙を $10^{5}$ と考えて, 1 文は 10 単語で構成されると仮定すると, $10^{50}\left(\left(10^{5}\right)^{10}\right)$ 文から選択することになる。また,Aおよび B は,大量の対訳学習文から, 最適な文を選択する。通常は, $10^{6}$ 文対あたりが想定できる。 この数字は, 現実的には計算不可能である. そこで,あらかじめ, “C 入力日本文”を, “別の機械翻訳” で翻訳し,複数の出力英文を得る. これから” $\mathrm{D}$ 出力英文” として, RSMT を動作して A と B を選択する.この“別の機械翻訳” には, NMT や Phrase Based SMT や rule base MT などが可能である.したがって実際の RSMT は,複数の翻訳候補文から, 最終的な出力英文(翻訳文)を選択する形になる. ## 5.2.2 文の翻訳確率 $\operatorname{Sim\left(C D_{j}\right)$} 文 $C$ と文 $D_{j}$ の文の翻訳確率は, 多くの計算方法が考えられる. 基本的には, 文の翻訳確率とみなせる。例えばNMT の翻訳確率も利用できる. 本論文では, 線形性を考えて,以下の式を利用している。 $\operatorname{Sim}\left(C_{m} D_{j n}\right)=$ $ \begin{array}{rc} \sum_{i=0}^{M} \sum_{j=0}^{N} \log 2\left(\operatorname{Count}\left(C_{m} D_{j n}\right) /\left(\operatorname{Count}\left(C_{m}\right) \times \operatorname{Count}\left(D_{j n}\right)\right)\right) \\ \operatorname{Count}\left(C_{m} D_{j n}\right) & \text { 対訳データベース中において } \\ & C_{m} \text { と } D_{j n} \text { が同時に出現する回数 } \\ \operatorname{Count}\left(C_{m}\right) & \text { データベース中の } C_{m} \text { の出現回数 } \\ C_{m} & \text { 文 } C \text { の } m \text { 番目の単語 } \\ M & \text { 文 } C \text { の単語数 } \\ D_{j n} & \text { 文 } D_{j} \text { の } n \text { 番目の単語 } \\ N & \text { 文 } D_{j} \text { の単語数 } \end{array} $ ## 5.2.3 文の類似度 $\operatorname{Sim\left(C A_{i}\right)$} 文 $C$ と文 $A_{j}$ の文の類似度は, 多くの計算方法が考えられる. 最近は Word2vec を利用した距離尺度が多い. また BLEU を利用した距離尺度も考えられる. 本論文では, 線形性を考慮して,以下の式を利用している. $\operatorname{Sim}\left(C A_{i}\right)=\sum_{i=0}^{M} \operatorname{CountNum}\left(C A_{i}\right) / \operatorname{Count} A L L\left(A_{i}\right)$ CountNum $\left(C A_{i}\right)$ 文 C と文 $A_{i}$ が一致する単語数 CountALLA $A_{i} \quad$ 文 $A_{i}$ の単語数 $M \quad$ 文 $A$ の文数 ## 5.3 RSMT の実働例 以下に RSMT の例を示す. C は入力文で, D は出力文 (翻訳出力)である. A信号が青から赤にぱっと変わった。 BThe traffic light jumped from green to red. C信号が青より赤に変わった。 DThe signal changed from green to red . - $\operatorname{sim}(A C)=-1.807355$ - $\operatorname{sim}(B D)=-3.321930$ - $\operatorname{trans}(C A)=-75.601800$ - $\operatorname{trans}(B D)=-1.041353$ ## 5.4 RSMT の長所 RSMT の長所を挙げる. 1. 修正の容易さ 翻訳した場合,その翻訳に近い翻訳文が表示される.そのため, 誤った翻訳が出力されても, 人手で用意に変更箇所が解る. A彼は我を通した。 BHe had his own way . C彼女は我を通した。 DShe had his own way. 正解文は “She had her own way” である.この例文では “his”を“her”に書き換えるのは容易と考えている. 2. $N$-BEST RSMT では 1 位候補が間違っていても,2 位候補が正しい場合が多い. 例を以下に示す. Cぶらんこが摇れている。 $D_{1}$ The swing is flicking. $A_{1}$ 炎が摇れている。 $B_{1}$ The flame is flickering. $D_{2}$ The swing is swining. $A_{2}$ ハンモックが摇れていた。 $B_{2}$ The hammock was swinging . この例では正解が第 2 候補にある. 3. 人手評価と自動評価の差 自動評価では,評価できない良さがある。人手評価では,通常の NMT を超える場合が多い. ## 5.5 RSMT の問題点 以下に RSMT の問題点を示す. ある単語と,ある単語が共起する確率が高いとき, この単語を削除することは, 困難である. 例を以下の述べる. A彼は我を通した。 BHe had his own way . C彼女は我を通した。 DShe had his own way . この例では “我”を “his”と翻訳している.学習データに “我”を “his”の共起の確率が高い場合,この“我”を “her” と翻訳することは困難である。 A炎が摇れている。 BThe flame is flickering . Cぶらんこが摇れている。 DThe swing is flicking. この例では“ぶらんこ”が“摇れている”を“flicking”と翻訳している。学習データに“摇れている”と“flicking” の共起の確率が高い場合, “摇れている”と “swinging” と訳することは,困難である. ## 6 考察 - 相対的意味論と NMT NMT は, 現在, 尤も普遍的に使われている翻訳システムである. この翻訳システムを,相対的意味論的に考えると,A と B が複数ある場合の C と D の関係として捕らえることが可能である. NMT の学習データは A,B に相当する. C は入力文で,D は出力文(翻訳文)である. そして, 文の類似確率と翻訳確率は, 非線形関数であり, Nural Network で類推している。つまり, 5.1 章における, $\mathrm{A}, \mathrm{B}$ を明示しない翻訳システムである。 例を以下に示す。学習データを 2 文とする.Cは入力文で,D は出力文である。 $A_{1}$ 彼は山にいった。 $B_{1}$ He went to mountain $A_{2}$ 彼女は海にいった $B_{2}$ She went to sea $C$ 彼は海にいった $D$ He went to sea この例では以下のように考える。 “彼は山にいった。”と“He went to mountain”, と “彼女は海にいった”と “She went to sea”が,存在するから,“彼は海にいった”は “He went to sea”と翻訳できる。 この考え方は,NMTにおける,別の見識を持てる. ## 7 まとめ 本論文では,相対的意味論に基づく統計翻訳 (RSMT) の考え方をまとめた.RSMT は,文の相対的意味論を利用している。そして“Aが B ならば $\mathrm{C}$ は D”を想定している.そして, 文の翻訳確率と文の類似度を利用して, 出力文(翻訳文)を選択する。ただし,文の翻訳確率と文の類似度には,多くの計算方法がある。また,相対的意味論は, NMT の別の見方が可能になる. また, 多くの分野で,応用が可能である.これらの分野を追求していきたい. ## 参考文献 [1]三浦しをん,舟を編む.光文社 ISBN-10 4334927769, 2011. [2]安場裕人, 村上仁一. 相対的意味論に基づく変換主導型統計機械翻訳未知語の出力. 言語処理学会第 25 回年次大会, No. A5-4, 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E5-4.pdf
# メタ言語としてのISO17100 : 翻訳プロセスの詳細化 大西菜奈美山田優 関西大学 ## 1 はじめに 翻訳とは,原文テクスト以外のさまざまな情報を参照しながら翻訳操作にかかわる意思決定をするプロセスである.原文に内包される(intrinsic)情報だけでなく,用語集スタイルガイド,また翻訳の目的のように原文テクストの外にある(extrinsic)情報も重要になる. 産業翻訳においては,このような情報を誰が,どの段階で,どのように扱うのかという手続きが重要になるため, ISO17100[1]では,この手続きを翻訳プロセスとして規定している。実際の翻訳現場では, プロジェクトマネジャーが深く関与し, 翻訳の発注者であるクライアントとの交涉,目的を含む仕様書の決定,翻訳者,チェッカーなどのワークフロー管理の業務を行う。 しかしその業務で扱う情報の中身については, ISO17100 の記載以上の粒度を超えると, 担当者の経験や直感で判断されることがしばしある.そのため詳細が,あまりよくわかっていない。具体例を見ながら説明する。 下の引用は, ISO17100の「4. 制作前のプロセス及び活動」工程の「4.2 引合い及び実行可能性」に関する記述である. “The TSP shall analyze the client's enquiry in order to identify the client's specifications for the services and the TSP's capability to meet them, determining whether all the necessary human, technical, and technological resources are available." (p.7) 翻訳作業開始の前段階でクライアントの要件を把握し, "clients'specifications (仕様) "を"identify(同定する)”と規定している。しかし,実際に, specifications(仕様)で網羅すべき情報は明確に記述されていないため, どの情報をどの粒度で収集し仕様書に含めるのかは不明である. (仕様書に関して言えば,サンプルという形でISO 17100 の付録に提供されているが,あくまで一例に過ぎない.) このような状況は,業務担当者に判断させる余地を与えてしまい,安定的に品質の高い翻訳を提供したい翻訳会社にとっても望ましくない。また,翻訳の目的やコンテクストなどの原文テクストの外にある (extrinsic) 情報の扱い, 翻訳品質への影響の分析,翻訳品質評価の実施を考えても,より詳細な翻訳プロセスの記述は重要になる. そこで,本稿では,ISO17100をべースとした翻訳プロセスの記述を,ISO 17100 以外の資料と収集デ ータを参照して詳細化する。具体的には,翻訳プロセスに関わる誰が何を行うのかを,翻訳プロセスの下位工程毎に実行される内容(タスク)に分解し, その詳細内容を「属性」として記述・整理する. 最終的には, 翻訳プロセスを学ぶ者と学習者にとっての可学習性の向上,翻訳プロセスで扱う外的情報を考慮した翻訳品質評価標準の構築に応用することを目指す. 本項は,そのための作業の詳細化方法の一部を説明する。 ## 2 詳細化の方法 ## 2.1 タスクの抽出 翻訳プロセスの詳細化にあたり,産業翻訳のプロセスを規定した国際標準規格の ISO17100をべースに使用した,そのうち,プロジェクトのワークフロ一の記述がある 4~6 章を詳細化の対象とした. 各章は, 以下の翻訳プロセスの下位工程を説明し (4 章 Pre-production (制作前プロセス), 5 章 Production (制作プロセス), 6 章 Post-production (制作後プロセス)), その工程に含まれる活動内容を記している.例えば, 4 章 Pre-production(制作前プロセス)には, 4.2 節 Enquiry and feasibility(引合いと実施可能性), 4.5 節 Quotation(見積り)のように,その工程で行われる活動の記載がある.これらの項目は, ISO 17100 の節見出しと対応する. 見出しの下には, その活動内容の説明が記載されている. 具体的には, 4.2 節の記述は前述した”The TSP shall analyze...”である. 以上が ISO 17100 の構成の概要だ. ISO 17100 の情報から,筆者らは,まず詳細化の対 象となる表現(「タスク」と呼ぶ)を抽出した。夕スクとは, TSP (翻訳会社) が行う活動の最小単位である. TSP が「何をする」のかを, 詳細化するのが本稿の目的であるので,このように考えた. 実例で説明する。 上の英文の記述から,この手順に従って,TSPが 「何をする」に対応する表現を含むタスクを抽出する. 寸ると次の 3 つのタスクを抽出できる。 (1) analyze the client's enquiry, (2) identify the client's specifications (for the services), (3) (identify) TSP's capability. これらのタスクが詳細化の対象になる. は詳細化されたタスク(2)と(3)が入る。尚,ここまでの作業は, ISO 17100 で提供されている情報のみで完結する。 しかし筆者らの目的は更なるタスクの詳細化であるので,表 1 で示すように,より深い階層に記述を拡張する. 具体的にいうと, 表 1 のレベル 4 までに分解したタスク (同定すべき) (2)specification(仕様書) と(3)TSP's capability の中身を,更に細かく分解する. 冒頭で問題提起したように,実務現場や教育現場では,(2)「翻訳の仕様書」という考え方が重要であるとは理解されているものの,その中身が分からな & & source characteristics & source language & ISO11669 \\ 表 1 : タスク詳細化の例 ## 2.2 タスクの詳細化 さて,原文の英文を見ながら,上で抽出した 3 つのタスクの関係に目を向けると, (1)は, (2)と(3)に分割できる(上位の階層にある)と考えられる。なぜなら(1)顧客要求を分析すること (analyze the client's enquiry) は, 「in order to identify (2) the client's specifications and (3)TSP's capability (2)と (3)老同定寸るため) とあるように,(2)と(3)を目的としたタスクだからである.つまり, (1)顧客要求の分析をするというタスクは, (2)顧客仕様書と (3)社内リソース情報を同定するタスクに分解されると理解できる. すなわち,タスク(1)は(2)と(3)に詳細化できる. ここまでの手順の結果を, 表 1 のレベル 1 4亿示す. レベル 1 は, 下位工程の名前 4. Pre-production である。レベル 2 は節見出し 4.2 Enquiry and feasibility, レベル 3 は抽出したタスク(1), レベル 4 いために,実際に仕様書を作ることができない,もしくは仕様書の作り方を教えることができないという問題が生じている。それゆえに, ISO17100 に記載されている粒度以上のタスク詳細化が必要なのである.したがって, ISO 17100 以外の資料を参照し, 更なる詳細化を行う。 ## 2.2 詳細化のための参照資料と方法 更なるタスクの詳細化のために, ISO 17100 以外に参照した資料は次の 3 種類である。 a. ISO11669 b. 翻訳会社から入手した資料データ c. 翻訳プロジェクトマネジメントに関する書籍 a は ISO 17100 同様に翻訳プロジェクトを規定した国際規格 ISO11699(Translation projects -- General guidance)[2]である. 翻訳プロジェクトのベストプラクティスのための標準仕様書と位置付けられている. ISO17100 の翻訳プロセスに対応しているため, タスク詳細化のための補完資料として最適である. $\mathrm{b}$ は,筆者らが直接入手した資料データである. ISO17100 認証済みの大手翻訳会社 2 社に,インタビユーを行い, 翻訳業務の資料の提供を受けた. 本研究のために, 実際に翻訳案件を発注し, その後, 合意の上で, 作業に関するヒアリングを行ない, 社内資料を可能な限り入手した. ISO 17100 の翻訳プロセスを現場で実践している会社の生データ・資料ということになる. c は翻訳プロジェクトマネージメントを扱う書籍である.学術書から一般実用書までを含む.ただし, ISO17100を想定して書かれていない書籍も含む. これらの資料のうち, a と $\mathrm{b}$ は必須参照資料とした. 特に a は, ISO 17100 の補完資料として, 他よりも優先順位を高く設定した. c は, a と bに詳細化できる情報が見つからない場合にのみ参照した.参照資料を使って詳細化する手順については,基本的には先述どおりに,各資料内のまとまった記述に対してタスクの抽出を行い, 更なる詳細化の言葉を列挙した. それに先立ち, 資料の内容を ISO 17100 の翻訳プロセスの下位工程に対応するように整理しておいた。 具体例で示す.表 1 の Level 6 の「identify the client's specifications 仕様書の同定」が, 詳細化の対象タスクである.つまり「specification 仕様書」の中身を追加する必要がある. そこで $\mathrm{a}$ との資料からそれにあたるタスクを抽出して,すべてを述べ項目として列挙する (表 1 の Level 5~6). 表の最上段の, Level $5\lceil$ source language content information $\rfloor$, Level $6\lceil$ source characteristics $\rfloor$, Level $7 「$ source language $」$ は,「specification 仕様書」の詳細タスクの一例であり,参照資料 a の ISO 11669 から抽出した. 上から 4 段目の Level 5 「クライアント情報」Level 6「新規 or リピート顧客」は参照資料 $\mathrm{b}$ の翻訳会社 $\mathrm{A}$ から抽出した. ## 2.4 タスクの整理 参照資料から列挙した項目については, 後に重複寸る項目を同定し, 完成表には最終的に 1 つの項目だけを残す. ISO11669 と重なる項目がある場合は, こちらの項目名を残す方針とする (最優先資料).また, Level2 より下の階層については, タスク毎に階層の深さが不揃いなので, 最終的には, 一定の基準にしたがって整える必要がある.今後の決定となる. ## 3. まとめと展望 以上, IS0 17100 の翻訳プロセスの詳細化の意義と方法の一部を報告した。翻訳プロセスで取り扱われる情報の範囲には,原文に内包される(intrinsic) ものだけでなく, 原文テクストの外にある (extrinsic) ものもある.このことを強く認識し実践理論に取り入れた翻訳理論研究のドイツ機能主義の影響は,実務翻訳に多大な影響を与えただけでなく,近年では DQF P MQM[3]などの翻訳評価基準の策定にも貢献している.この流れは, 引き続き翻訳・通訳の実務,教育, 機械翻訳の開発(例えば,マルチモーダル学習)を考える際にも重要となるだろう。このような観点からも, 翻訳プロセスの詳細化の必要性を再確認できる. ## 謝辞 本研究の一部は, 日本学術振興会科研費補助金基盤研究 (S)「翻訳規範とコンピテンスの可操作化を通した翻訳プロセス・モデルと統合環境の構築」(研究課題番号:19H05660)の支援を受けて行われた. ## 参考文献 1. International Standard Organization (ISO). (2015). ISO 17100:2015. Translation services - Requirements for translation services. First edition. 2. International Standard Organization (ISO). (2012). ISO 11669:2012. Translation projects - General guidance. First edition. 3. Burchardt, B. and A. Lommel (2014) QT-LaunchPad supplement 1: Practical guidelines for the Use of MQM in Scientific Research on Translation Quality. http://www.qt21.eu/downloads/MQM-usageguidelines.pdf. ## 付録 ## タスク詳細化に使用した参考にした文献(c) ISO,翻訳会社からのデータ以外で,翻訳会社の実データの補完として参照した文献を示す. Dunne, K \& Dunne, E. (Eds). (2011). Translation and localization project management, ATA Scholarly Monograph Series XVI. Russi,D \& Schneider, R. (2016). A Guide to Translation Project Management, The COMET Program. Mitchell-Schuitevoerder, R. (2020). A Project-Based Approach to Translation Technology, London: Routledge.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E6-1.pdf
# メタ言語としての翻訳方略体系の構築と検証 山本真佑花山田優 関西大学 藤田篤 情報通信研究機構 宮田玲 名古屋大学 影浦峡 東京大学 ## 1 はじめに 翻訳作業(翻訳プロセスと言うこともある)とは原文・訳文間の記号的な操作であり,適切な翻訳は訓練を積んだ翻訳者の作業によって作られるi.しかしながら, これらの作業における諸々の判断基準や操作の種類はコミュニケーションに使えるほど十分には形式化されていない。この問題は翻訳者側にあるのではなく, 彼らが翻訳を語るためのツール,つまり翻訳作業を具体的に記述するための言語が確立されていないことにあると考えられる。 翻訳作業において理解されるべき重要な要素の一つにテキスト操作の方略がある。これを体系化した既存の研究の 1 つに, Chesterman [1] の翻訳方略体系がある.この体系には, Syntactic strategy, Semantic strategy, Pragmatic strategy の 3 種類のメインカテゴリとその下に 10 種類のサブカテゴリが設けられている. Chesterman の体系は広く参照されているが,欧州言語間の翻訳を念頭に構築されたため, 他の言語方向の翻訳への適用の可否は不明である. また, サブカテゴリが必ずしも排他的でない(1 つの操作に対して複数の方略のカテゴリが当てはまることがある)ため,使用者によって認定する方略が異なる可能性がある. その点で, 方略を語る共通言語としてみた場合,改善の余地がある。 我々は, Chesterman の翻訳方略体系が英日翻訳の事例にも適用可能か否かを検証し,必要に応じてカテゴリの再編や定義の変更を行なうことで,英日翻訳を想定した翻訳方略体系を構築した。また,翻訳を語る共通言語としての役割を想定し,翻訳方略体系の使用の際,1 つの操作に対して 1 つのカテゴリが定まるように優先度を設けた。 ## 2 課題と意義 翻訳方略の体系化は, 翻訳学の分野では, 翻訳を分析することを主目的として一定の発展を遂げてき たが,翻訳教育や翻訳実務に応用されうるまで精緻化されるには至っていない。それにより, 教育や実務の現場では問題が生じている,またはその問題が認識され始めている. 翻訳教育現場では,指導者が学習者に対して,実務に必要なスキルを指導するが,プロ翻訳者による翻訳操作の工夫,例えば,「原文に忠実に訳す」,「想定読者が読みやすく訳す」という操作を教えることができない. 翻訳実務現場においては,フリーランス翻訳者の翻訳の品質評価を担当するのは社内校正者や品質管理者であることが一般的であるが, 品質評価の際, 「この翻訳はとても品質が高い」,「この翻訳は意訳すぎて読みにくい」など,評価者個人の主観で判断されてしまっている. 機械翻訳の品質評価についても同様である. この問題の原因は,原文と訳文とを独立した別々のテクストと見なすのではなく,お互いの関係を考慮して評価しなければならないにもかかわらず,原文を訳文へと変容させる記号的な操作(プロセス) を記述する詳細な言葉がないことによる。つまり,原文と訳文の関係を表現するためのメタ言語が確立されていない. 料理を例に見てみよう. 材料 (原文)を完成品(訳文)にするための料理(翻訳)というプロセスは,「惹る」「焼く」「炒める」「蒸す」などの調理方法 (方略)の言葉で記述できる. 翻訳でも, 1 つの原文に対して複数の訳出が可能であり, それぞれの訳文の違いは, どの翻訳方略を適用したのかの違いによる.例えば,従来から用いられている「直訳」と「意訳」 は,翻訳方略を示す類の言葉であるが,現場での実用に耐えうる粒度と客観性を持ち合わせていない。 この課題に対し, 我々は, 翻訳教育や翻訳実務の現場で用いることができるように,客観的かつ評価者間で統一した基準に従って認定できる翻訳方略体系を構築した. この体系を共通言語として用いるこ  とで,指導者は翻訳学習者に対してプロ翻訳者の作業を教えることができ,また,品質評価者は,プロ翻訳者の作業を言語的に分析し, 共通言語を使用して共有することができる. ## 3 先行研究 翻訳方略を体系化し実践教育への応用をいち早く試みた Vinay and Darbelnet [6] は, フランス語と英語の言語間の違いを挙げ,直接的翻訳にあたる 3 つ,間接的翻訳にあたる 4 つ, 計 7 つの翻訳方略を提案した. Pym [2] は, 教育現場での利用を目的とした 8 つの方略を構築し, 修士課程の 2 つのクラスで検証実験を行なった. Chesterman は, Vinay and Darbelnet の翻訳方略などの先行研究をまとめ, 3 種類のメインカテゴリとその下に 10 種類のサブカテゴリを設けて翻訳方略を整理した.ただし,いずれの研究も,英日翻訳の事例への適用の可否は確認しておらず, また翻訳教育や翻訳実務における実用性も十分には検討していない。 Bode [7] [8] は, Chesterman の翻訳方略体系を日英翻訳に当てはめて再検討を図っている。しかしながら,それぞれの方略が排他的に定義されておらず,使用者によって解釈が異なる可能性がある. ## 4 翻訳方略体系の構築 我々は,英日翻訳を対象とした翻訳方略体系を構築した。 その際, Chesterman の翻訳方略体系を土台とした. Chesterman の翻訳方略体系は, Syntactic strategy, Semantic strategy, Pragmatic strategy $の 3$ 種類のメインカテゴリに分けられている.また,サブカテゴリもある程度細分化されており, 個々の方略を区別しやすい,我々は,Chesterman の翻訳方略体系の英日翻訳の事例への適用の可否を確認することで,英日翻訳における翻訳方略体系を構築した。 ## 4.1 英日翻訳事例への適用可否の検証 まず, 英日翻訳の個々の事例を Chesterman の翻訳方略体系によって説明できるか否かを, 次の手順で検証した。 1)原文 1 文とそれに対応する訳文(1 文でなくてもよい)を 1 組として扱う。 2)原文と最終訳文の間にあえて明示的に直訳を設定し, 直訳と最終訳文の間のテクスト上の違いを翻訳者の作業,つまり翻訳方略と考える。以下,直訳を「素朴訳」, 最終訳文を「適訳」と呼ぶ。ここで,素朴訳とは,誤りがなく,原文言語の文法構造通りであり,かつ目標言語の文法的に正しい状態で訳出された訳文をいう。 3)素朴訳と適訳の間でテクスト上の違いが見られる箇所に, Syntactic strategy, Semantic strategy, Pragmatic strategy のそれぞれから 1 方略ずつ付与寸る. 寸なわち, 1 事例につき 3 種類の方略を付与する。たとえば次の例の場合,一重下線部には Literal translation (G1), Synonymy (S1), Other pragmatic change ( $\operatorname{Pr} 10)$ が付与され, 二重下線部には Clause structure change (G6), Converses (S4), Other pragmatic change (Pr10)が付与される. <原文>CNN reported on Thursday that a giant tornado and hailstorm had killed 51 people in China. <素朴訳>CNNが木曜日、中国で巨大竜巻と電が 51 人を死に追いやったと報じた。 <適訳>CNN が 23 日、中国で巨大竜巻と雮で 51 人が死亡したと報じた。 4)各事例が示す特定の事象を Chesterman の翻訳方略の適用例としてみなせるかどうかを検証し,みなせないと判断した場合は,カテゴリの追加や定義の変更を行なう。 5)決定リストの形に方略を体系化する。 具体的にはまず,検証用の対訳事例を,書籍『プロが教える基礎からの翻訳スキル』 [13] の基礎編,『誤訳ゼロトレーニング』 [14] の Chapter 1 から抽出した。これらの書籍は,翻訳学習者向けに翻訳スキルについて細かく説明しており, 特定の分野に偏ることもなく,学習者にとって馴染みのある事例を扱っている。様々な翻訳作業が対訳例とともに説明されており, 各対訳例内の説明対象箇所には下線が引かれている。このような対訳例のうち, 翻訳方向が英日である 173 事例を使用した。そのうち,直訳が記載されている事例には,その訳を素朴訳として使用し, 直訳が記載されていない 37 事例には,アノテータが素朴訳を作成した。また, 説明対象箇所の下線が引かれていない箇所であっても, 素朴訳と適訳の間でテクスト上の違いが見られる対訳例については,そのような箇所に追加で下線を引き,検証対象事例とした。その結果, 原文, 素朴訳, 適訳の 3 つ組からなる 249 例の検証対象事例を得た。 次に,249 例の個々に対してChesterman の翻訳方略を付与した。各事例が示す特定の事象を Chesterman の翻訳方略の適用例としてみなせる場合 & Antonymy & 反意語と否定要素を組み合わせて意味等価にすること。 または, 反意語と否定要素を外すことで意味等価にすること \\ ## 図 1 我々が構築した英日翻訳における翻訳方略体系 はその方略を英日翻訳の翻訳方略として採用し, 適用例としてみなせないと判断した場合は新しい方略を追加した。この作業を通して,多様な操作を含む Other semantic changes (S10) と Other pragmatic changes (Pr10)を削除し, 代わりに, テクスト上の文法的要素の追加操作と削除操作を示す方略である Addition (G11)と Omission (G12), 句読法等の使用に関する方略である Punctuation change (G13), 分野や案件仕様を満たすための方略である Domain adaptation (Pr12) と External information adaptation (Pr13)を追加した. また, Chesterman の翻訳方略体系における Information change $(\mathrm{Pr} 3)$ と Visibility change (Pr8)は包含関係にあると判断して統合し, Partial translation (Pr7)も External information adaptation (Pr13)に含めた.最後に,1 つの操作に対して複数のカテゴリが付与されないように,また,異なるアノテータ間でも一貫して方略を付与できるように,決定リストの形で方略を体系化した。 その際,1 つの事例に重複して当てはまる恐れがある方略に関しては, 翻訳の単位が小さい方略の優先度を高くし, 対の関係にある方略は離さず並べ, Antonymy (S2)と Paraphrase (S8) のように一方が他方に含まれ得る方略に関しては,操作の定義が狭い順に優先度を高くした。 ## 4.2 翻訳方略体系 我々の翻訳方略(図 1)は, Chesterman の翻訳方略と同じ Syntactic strategy, Semantic strategy, Pragmatic strategy の 3 種類のメインカテゴリからなる. 各メインカテゴリの定義は次の通りである. Syntactic strategy(13 種類のサブカテゴリ): 意味には触れず,表層上の操作だけを扱う方略. Semantic strategy(9 種類のサブカテゴリ): 一般常識, 言語学的な基本知識,与えられたテクスト内の情報,当該ドメインにおけるエンティティ(出現している名詞要素)の属性やエンティティ間の関係に関する知識に基づいて訳出できる方略. Pragmatic strategy (10 種類のサブカテゴリ) : テクスト外の情報を参照し,それを理由として発動される方略.ここでいうテクスト外の情報とは,受信者(対象読者,潜在読者)の存在,発信者(依頼者,執筆者)と受信者(対象読者,潜在読者)の関係などのコミュニケーション属性や,当該ドメインにおける目標言語テキストの表記や表現および一般的なルールに関する知識である。 全 32 種のサブカテゴリを図 1 に示す. 優先度順に並べることで,各メインカテゴリからただ一つのみ方略が付与されるようにしてある. ## 5 検証 方略体系の構築時は,学習者向けの事例を扱い, 1 人のアノテータが方略の付与や整理を行なった. そこで,構築した翻訳方略体系が幅広いテクストタイプに対応しているか,また,複数のアノテータ間でも一貫して使用できるかを検証した。 ## 5.1 体系の包括性 体系の包括性を検証するために,まず,方略体系の構築時とは異なる対訳例を準備した.『翻訳の布石と定石』 [11] からランダムに 47 例を選んだ. 構築時と同様に,翻訳方向が英日で,少なくとも原文と訳例が揃っているものを選び,すべての対訳例に素朴訳を与えた。本書籍においても,説明対象箇所には下線が引かれているが,下線が引かれていない箇所であっても, 素朴訳と適訳の間でテクスト上の違いが見られる箇所は追加で下線を引き, 検証対象事例とした。その結果, 計 62 例の検証対象事例を得た. 同様に,『第 29 回知的財産翻訳検定試験』の過去問題 [12] から, 問 2 の 18 事例を選び,参考回答例を適訳とみなしてそれに基づいてアノテータが素朴訳を作成した. “Lonely Planet”の旅行ガイド記事 [3] から 47 例, “University of Cambridge Judge Business School”のニュース記事 [4] から 38 例を抽出し, アノテータが素朴訳を作成し,翻訳会社において修正された翻訳文を適訳とした。 個々の事例に対して, 方略体系の構築時と同じアノテータが方略を付与した. その結果,下位分類を列挙することにより, 各カテゴリがカバーすべき範井をより明確に記述することにした。 ## 5.2 分類の一貫性 アノテータによらず一貫して方略を付与できるかを検証するために,方略体系の構築時とは異なるアノテータ 1 名に方略の付与を依頼した。包括性を検証する際に使用した事例において特定の分野の専門性を必要としない,『翻訳の布石と定石』からの事例をランダムで 31 例と, “Lonely Planet”の旅行ガイド記事からの全 47 事例を用いた. これらに加えて,当該アノテータの専門である IT 分野の事例として, 『JTF ほんやく検定公式問題集』 [10] から 67 例を新たに抽出し,合計 145 事例を用いた。 各アノテータが付与した 435 件(145 事例 $\times 3$ メインカテゴリ)のうち 408 件 (94\%) で 2 名の分類結果が一致した。不一致箇所は,原文が正しく理解できていなかったことに起因する分類誤り,定義の理解の違いに起因する分類の不一致や,方略体系の構築時の定義では事例がカバーできていないことに起因する分類誤りであった.定義の理解の違いに起因する付与の摇れは,お互いの認識を合わせるような話し合いによって解決された。一方,構築時の定義ではカバーできていなかった事例については,発生したテクスト上の違いを下位分類に追加することで解決された。これによって,方略体系の構築時とは異なるアノテータであっても,一貫して方略を付与できるようになった. ## 6 まとめ 我々は,英日翻訳を対象とした翻訳方略体系を構築した. Chesterman の翻訳方略体系を土台とし,さらにテクスト上の文法的要素の追加操作や削除操作を示す方略, 分野や案件仕様を理由とする操作を追加し, Chesterman の翻訳方略体系で包含関係にある方略を統合した. さらに,1 つの操作に対してカテゴリを 1 つのみ付与したり,アノテータによらず一貫して方略を付与したりできるように,優先度順を定める決定リストを作成した。 今後は,翻訳教育現場や翻訳実務現場での利用を想定して検証を進め,より包括性と一貫性が高い翻訳方略体系に改善していく。 謝辞:本研究の一部は科研費基盤研究 $(\mathrm{S})$ (課題番号:19H05660,代表:影浦峡)の支援を受けた。 ## 参考文献 1. Andrew Chesterman. (2016). Memes of translation: The spread of ideas in translation theory. Amsterdam: John Benjamins. 2. Anthony Pym. (2018). A typology of translation solutions. The Journal of Specialised Translation, Issue30. Retrieved September 10, 2020, from https://www.jostrans.org/issue30/art_pym.php 3. Female solo travel: the best places to visit in Asia. Retrieved March 10, 2020, from https://www.lonelyplanet.com/articles/female-solotravel-asia 4. How effective is psychological targeting in advertising? What we can learn about you from just one click. Retrieved March 10, 2020, from https://www.jbs.cam.ac.uk/insight/2017/how-effectiveis-psychological-targeting-in-advertising/ 5. International Standard Organization (ISO). (2015). ISO 17100:2015. Translation services - Requirements for translation services. First edition. 6. Jeremy Munday. (2008). Introducing Translation Studies. Routledge. (ジェレミー・マンデイ. 鳥飼玖美子 (監訳)(2018)。『翻訳学入門』.みすず書房.) 7. Jeroen Bode. (2009). Translation Strategies for Japanese Reconsidering Chesterman's Theory on Translation Strategies. Outside the Box: The Tsukuba Multi-Lingual Forum, 2 (1), 15-21. 8. Jeroen Bode. (2009). Translation Strategies for Japanese - Part 2 Revisiting Chesterman's Theory on Translation Strategies. Outside the Box: The Tsukuba Multi-Lingual Forum, 2 (2), 17-23. 9. Masaru Yamada, Mayuka Yamamoto, Nanami Onishi, Atsushi Fujita, Rei Miyata, and Kyo Kageura. (2020). Metalanguage for the translation process. In Proceedings of the 5th Conference on Translation in Transition: Human and Machine Intelligence (TT5), 46-51. 10. 一般社団法人日本翻訳連盟 (2011).『JTF ほんやく検定公式問題集』. 株式会社アルク. 11. 岡田信弘 (2013).『翻訳の布石と定石』. 三省堂. 12. 第 29 回知的財産翻訳検定試験【第 14 回英文和訳】 $>\ll 2$ 級課題》.(オンライン)(引用日: 2020 年 8 月 7 日 .) https://www.nipta.org/papers/20191020/29ip2_ques.pdf 13. 田辺希久子, 光藤京子 (2008).『プロが教える基礎からの翻訳スキル』。三修社. 14. 光藤京子 (2016). 『誤訳ゼロトレーニング』. 秀和システム。 表 1 Chesterman の翻訳方略体系と我々の英日翻訳方略体系の対比
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E6-2.pdf
# 言語専門職「リンギスト」の提案 西野 竜太郎 グローバリゼーションデザイン研究所 nishino@globalization.co.jp } 山田優 関西大学 yamada@apple-eye.com ## 1 はじめに 本稿は、今後の産業翻訳を担う人材育成とその研究の必要性を提案する論考 (ポジションペーパー) である。翻訳業界における翻訳等の様々な多言語関連タスクを担う人を「リンギスト」と呼び、その新たな職種を提案する。本稿では、その職務範囲とスキル、またその教育方法の確立のための研究について論じる。 ## 1.1 背景 翻訳サービスを提供する産業翻訳において機械翻訳の活用が進んでいる。しかし機械翻訳の出力はそのままでは不十分であるため、商品としての要求を満たすレベルまで高めるには人手による補助が不可欠である。その補助を行う人がポストエディター あるいは後編集者である。この考え方は 1966 年の ALPAC 報告書 [1] にもあるが、1995 年に刊行された長尾真氏らの書『コンピュータで翻訳する』でも 「機械翻訳システムの生産性を上げるには、後編集を専門に行なう後編集者を養成すべき」[2] とある。 ただし、翻訳者が必ずしも後編集に適しているとは限らない [2] としてはいるものの、やはり一般的には翻訳者がポストエディターになることが期待されてきた。 しかし現状の課題は、ポストエディットの仕事に既存の翻訳者が消極的 [3] という点である。大きな理由の一つに翻訳者の職務意識がある。つまり、ポストエディットと翻訳は別であり、翻訳者が本来する「翻訳」という職務に入らないと考えられている。「翻訳者とは翻訳をし、また翻訳をするのが翻訳者」と、職名(=翻訳者)とスキル(=翻訳)とが強固に結びつき、相互に連想される状態になっているのだ。他方で、機械翻訳を扱う仕事はポストエディツトに限定されず、付随する作業や判断が求められる。そのため、従来の職名とスキルとが密接に絡みあった「翻訳者」や矮小化された意味での「ポ ストエディター」という職種では、今の言語産業の実情に対応できない。そこで、「翻訳者のような翻訳スキルを持ち合わせる専門職」を確立できれば、新たな課題を解決する糸口となり、言語産業を活性化する一方策になると考える。 ## 1.2 「リンギスト」の提案 前述の通り、従来からポストエディターという専門職は提唱されてきたが、その名称は今後期待される仕事の幅を狭めてしまう可能性がある。たとえば機械翻訳システムに学習させる対訳コーパス構築には、翻訳スキルも求められる。また適切に仕事を行うための機械翻訳品質評価や機械翻訳エンジンの選択等も必要となる。 さらに、機械翻訳が直接関係しない業務にも翻訳スキルが求められる場面はある。用語集作成や翻訳メモリ管理などだ。大きく翻訳品質を左右する重要な仕事であり、翻訳スキルが求められるにも関わらず、これらは「翻訳の周辺作業」のように見做されてきた。しかしポストエディターという言葉と職種にはこれらが含まれていない。 翻訳業界からも同様の意見が出ている。ポストエディットや機械翻訳エンジンの調整といった「翻訳とは呼ばないけれど、翻訳者の資質を必要とする仕事」[4] をリンギストと呼んで職能を捉え直すのもよいという意見もある。そこで、翻訳スキルを持ち合わせながらも、ポストエディットに限定されない多言語関連タスクを広く担える専門職として「リンギスト」という名称の利用と職種を提唱したい。つまり、名称の提唱だけではなく、職務範囲や求められるスキルを同定し、教育方法を確立する研究も今後必要になると言える。 ## 2 リンギストという言葉 元々の英語 linguist の辞書的な意味には(1)言語学者と (2) 複数言語に精通した人、という 2 つがある [5]。翻訳業界では後者から派生した「複数言語の 専門家」というニュアンスで使われることが多い。 たとえばイギリスの CIOL(The Chartered Institute of Linguists)では、翻訳、通訳、外国語教育などを専門にする人を認定している [6]。英語の linguist は包括的な職名としてすでに定着していると言える。 一方で日本国内でも、英語から作られたカタカナ語「リンギスト」の使用が外資系企業を中心に見られる。たとえば Lionbridge 社や SDL 社のような MLV では職種名として用いているし、Memsource や XTM のような翻訳管理システム(TMS)では、その UI(ユーザインターフェース)の役割名として設定されている。つまり「リンギスト」というカタカナ表記自体は全く目新しいわけではないため、日本国内において受け入れられる土壌はあるだろう。ただし一般英語としての linguist との間に、意味やニュアンスのギャップがある点には注意したい。 ## 3 リンギストの射程 河野 [4] は、リンギストの仕事として「ポストエディット」や「機械翻訳エンジンの調整」、さらに 「コーパスのデータクレンジング」、「プリエディッ卜」、「翻訳工程の生産技術」も挙げている。いずれも機械翻訳と関係する作業だが、翻訳サービスのプロセス全体を眺めると、上記以外にも翻訳者の資質を必要とする仕事はいくつも考えられる。筆者らの翻訳産業における経験と、ISO 17100[7] のプロセスを念頭に置きつつ、リンギストの職務に入りうる仕事を挙げたい。リンギストは LSP(翻訳会社内)にいる場合だけでなくソースクライアント (発注企業内)にいるケースも想定している。なお実際にリンギストが担当するかどうかは現場の判断や状況による。 ## 3.1 翻訳プロジェクトにおける仕事 ISO 17100 のプロセスに沿ってリンギストの仕事を列挙する。翻訳の作業の前後のタスク (preproductuion、post-production)も射程としている。 ## 3.1.1 原文制作段階 翻訳の質を高めるには、原文ライティング時点からリンギストが関与することが望ましい。ISO 17100 では、付加価値サービスとして附属書 $\mathrm{F}$ に揭載されている一部項目に該当する工程である。下記のライティング (テクニカルライティング) やインターナショナリゼーションも附属書 $\mathrm{F}$ に含まれて いる。 ライティング翻訳されることををあらかじめ考慮した原文で書く。原文の良し悪しで翻訳成果物の質が左右されるためである。プリエディット、制限言語などとも関係する。 インターナショナリゼーションローカリゼー ション(翻訳)しやすいコンテンツを制作する。テキストを画像から分離しておく、など。 ## 3.1.2 翻訳前段階(pre-production) ISO 17100 ではセクション 4.6.3(翻訳仕様書の作成)で扱う段階である。 設計求める成果物の仕様を決定する。使う参考資料(用語集、スタイルガイド、翻訳メモリーなど) の指定、検収時の評価方法や合否水準の指定など。 参考資料の制作当該プロジェクトで使う用語集やスタイルガイドなどを実際に準備する。 ## 3.1.3 翻訳段階 ISO 17100 ではセクション 5 (production process) に包含される段階であるが、一部の項目(プリエディットとポストエディット)は付加価値サービス 機械翻訳システムの調整当該プロジェクト用のアダプテーション作業など。 プリエディット機械翻訳システムが性能を発揮できるように原文の編集。 翻訳翻訳の実作業。機械翻訳出力を利用した翻訳(ポストエディット)も含まれる。 チェック訳文の品質を保証する。LQA(Linguistic Quality Assurance)とも呼ばれる。言語面の確認に加え、文化面も対象になることがある。チェック、校正、校閲などが含まれるが、ISO 17100 ではセルフチェック、バイリンガルチェック、モノリンガルチェック、プルーフリードは異なるステップとして定義されている。 言語品質評価最終納品物の検収や中間納品物の確認で実施する品質評価。 ## 3.1.4 翻訳後段階 ISO 17100 に規定はないが、一部(DTP やウェブのデザイン、字幕など)は付加価值サービスとして附属書 $\mathrm{F}$ に掲載されている。 多言語デザイン訳文が組み込まれた製品の見た目を整える。DTP、アプリ、ウェブ、ビデオ字幕 など。 多言語ユーザー評価訳文が組み込まれた最終製品の使いやすさなどを評価。 ## 3.2 定常業務における仕事 特定の翻訳プロジェクトではなく、日常的に実施する定常業務の仕事もリンギストの職務の射程に入る。ISO 17100 の付加価値サービスとして附属書 F に記載されている項目も含まれる(たとえば専門用語管理やアラインメント)。 言語品質評価応募されたトライアル課題などを評価する。 用語集やスタイルガイドの維持管理特定の分野や顧客で用いる用語集やスタイルガイドを整備する。 言語資産の維持管理翻訳メモリーのアラインメントや対訳コーパスの整備する。 機械翻訳システムやツールのチューニング機械 調整する。エラー定義ファイルの修正や、特定分野の機械翻訳システムのアダプテーションなどが含まれる。 機械翻訳システムやツールの評価や選定言語成果物の質を高められるツールの評価や選定。機械翻訳システム、翻訳支援ツール、TMS、QAツールなどが対象。 人材育成翻訳者やチェッカーなどの人材を育成するために、資料やツールの使い方を教えたり、納品物にフィードバックしたりする。 繰り返しになるが、上記の範囲はあくまで暫定的な提示であり、今後の研究を通して調整や詳細化をすることになる。 ## 4 必要になるスキル リンギストの職務に対し、どのようなスキルや能力が実際に必要になるかは、今後の研究が必要となる。たとえば EMT (European Master's in Translation) の枠組みなどとの比較検討も求められる。 リンギストは専門職を想定している。ここで挙げた職務自体はリンギスト固有のものではない。現状ではプロジェクト・マネージャーやセールス担当者が行っているものとの重複もあろう。しかし、理想は翻訳・言語的スキルを兼ね備えたリンギストが担うべきであり、翻訳+ $\alpha$ のスキルが必要となろう。 ## 5 おわりに 機械翻訳の利用が進む中で、「翻訳者」の仕事に限定されず、十分な言語・翻訳スキルを兼ね備えた言語専門職が確立することは今後の産業にとって望ましい。機械翻訳の訳出を後編集するポストエディターの概念も包含しつつ、その範疇を超えた多言語関連タスクを担える「リンギスト」という職名を提唱した。またその職務範囲や必要スキルの調査研究を進めることも提案した。今後、とりわけ機械翻訳の開発者と実務者が共同し、機械翻訳活用(アダプテーションなど)の評価や実施を行っていく機会も増えていくと想像される。リンギストのような職種が活躍する場も増えるに違いない。 ## 6 謝辞 本研究の一部は、日本学術振興会科研費補助金基盤研究(S)「翻訳規範とコンピテンスの可操作化を通した翻訳プロセス・モデルと統合環境の構築」(研究課題番号:19H05660)の支援を受けて行われた。 ## 参考文献 [1] Automatic Language Processing Advisory Committee. Language and Machines: Computers in Translation and Linguistics. National Academy of Sciences, 1966. [2]長尾真, 牧野武則(編著).コンピユータで翻訳する。共立出版, 1995. [3] 山田優. 誰がポストエディターになるのか?翻訳研究への招待, Vol. 9, , 2013. [4] 河野弘毅. 機械翻訳の時代に活躍できる人材になるために. 通訳翻訳ジャーナル, Vol. SPRING, pp. 36-38, 2019. [5] Oxford University Press. linguist: Oxford advanced learner's dictionary, (2020-12-10 閲覧). https://www.oxfordlearnersdictionaries.com/ definition/english/linguist. [6] Chartered Institute of Linguists. Become a chartered linguist,(2020-12-10 閲覧). https://www.ciol.org.uk/ chartership. [7] ISO. ISO 17100:2015 translation services - Requirements for translation services, 2015. https://www.iso. org/standard/59149.html.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E7-1.pdf
# 人と言語モデルが捉える文の主題 藤原吏生 ${ }^{1}$ 栗林樹生 ${ }^{1,2}$ 乾健太郎 1,3 } 1 東北大学 ${ }^{2}$ Langsmith 株式会社 ${ }^{3}$ 理化学研究所 riki.fujihara.s4@dc.tohoku.ac.jp, \{kuribayashi, inui\}@ecei.tohoku.ac.jp ## 1 はじめに (1) a. 兄は部屋に向かった。 b.兄が部屋に向かった。 二つの文は論理的に同等であるが,文脈や何についてメッセージを伝えたいか(主題)といった観点から人はこの二文を使い分ける.例えば,「兄がさっき帰ってきた。」というような兄に関する話に続く文であれば例 1a の方が自然であるし,単に兄が何をしたか客観的に描写するのであれば例 $1 \mathrm{~b}$ の方が好まれるだろう。このような先行文脈に依存する選択において計算モデルと人の判断に乘離があるか,近年流暢な文章の生成が可能になったとされるニューラル言語モデルに焦点を当てて調査する. 本研究では,文章の形成や評価において重要な側面である文の主題を取り上げる $[1,2]$. 日本語の係助詞「は」は主題であることを表し [3], 例 1 の二つの文は「兄」が主題か否かという点で異なる. ある要素を主題化するかの判断には,情報の新旧 [4] やセンタリング理論 [5] などの観点から先行文脈を考慮する必要があるとされている $[3,6]$. 文の主題の観点で言語モデルが人と同様の選択を行えるかを分析することで,言語モデルの文章生成における先行文脈の影響について考察する。 文の主題は英語では語順で示されるが [2], 日本語では係助詞「は」などによって明示され,その範囲を策定しやすいため日本語で研究を行う.はじめに,クラウドソーシング1)を活用し,NAIST テキストコーパス(NTC)[7] 中の主格に対して人の「は」 と「が」の判断に関するアノテーションを行った。「は」と「が」の対立には主題と非主題といった対立以外にも,対比と排他,節末まで係るか文全体に係るかといった様々な軸がある $[3,6,8]$. NTC の共参照アノテーションや先行文脈を見せる/見せないこ 1)Yahoo!クラウドソーシング https://crowdsourcing.yahoo. co.jp/を利用した。また,毎日新聞社に許可を得て NAIST テキストコーパス中の文をワーカに見せている. 図 1 人と言語モデルによる「は」と「が」の選択 とによる人の判断の変化から,「は」と「が」の選択について特に文脈が依存するデータポイントを収集し,言語モデルの評価に用いた。 実験では,文脈依存の「は」と「が」の選択について,人とニューラル言語モデルの傾向を比較した (図 1).人と言語モデルの選択の相関は高く,言語モデルは人と近い選択を行うことができていた. しかしながら,インスタンスごとの判断の不一致度 (agreement error) [9] や先行文脈の有無による判断の変化といった観点から分析を行うと,人と言語モデルの間に乘離が観察され,特に言語モデルは先行文脈を見なくても人と比べて不当に高精度な選択ができていた。これらの結果から,「は」と「が」の選択について言語モデルは人と近い選択が可能であるが,判断の拠り所は両者で異なるということが示唆された. 本研究で作成したデータセットは公開す $る^{2)}$. ## 2 関連研究 選択体系機能文法では,主題は「心理的主語」として「話者が伝えたいことの産出にとりかかる時にまず心の中にもつもの」と定義され [2],文法的な主  次の文の下線部 _—に入る助詞としてより自然だと思うものを選んでください。 親戚の子供たちが遊びに来ました。子供たち——外でサッカーをしています。 が ○ は ○どちらでも良い (この文では判断できない) 図 2 クラウドソーシングにおける設問の例. 語とは異なるものである ${ }^{3)}$. 文章の形成や評価において,主題の構造は結束性などと並び重要な側面であるとされている $[1,2]$. また,例 1 のような「は」 と「が」の使い分けは日本語学習者にとって難しいとされており [10], 計算モデルが自然に使い分けられるのであれば,ライティング支援,学習者支援にも繋がる. 更に日本語では主題が省略される傾向もあり,どの要素を主題とするのが自然かといった自動評価は,どの要素を省略すると自然かといった研究・評価にも繋がると考えられる。 言語モデルによる文章の容認性判断に関する既存研究では,文レベルの文法性判断や $[11,12,13,14]$,論理的な能力 $[15,16]$ に焦点を当てた分析が多い.一方で,言語モデルの分析の文脈で文の主題に直接焦点を当てた研究は我々の知る限り存在しない. ## 3 データ作成 ## 3.1 クラウドソーシング NTC [7] 中の以下の条件を全て満たす主格をアノテーション対象とした。 ・文内で最も後方に出現する動詞の主格である ・格助詞「が」または係助詞「は」を伴う ・各文章の先頭から 2-4 文目に出現する 上の条件を満たした主格について付随する助詞を隠し,クラウドワーカーに「は」と「が」のどちらを使用するのが適切か聞いた(図 2).「どちらでもよい(この文では判断できない)」という選択肢も用意した。それぞれの主格について,(i)同一文章内の先行文脈を全て見せる場合と(ii)文脈を見せない場合(特定の文脈を想像しない)の 2 つの設定でアノテーションをした. 両設定では異なるワーカがアノテーションをしている.また,ある問題について文脈ありの設問を解いた後,同一の文脈なしの設問を解くということが生じないようにした.  & ラベル数 \\ 事前に同様のタスクを複数回実施して優秀なワー カを選別し,さらにチェック設問を設定して不適切なラベルを付与するワーカを適宜除外した. この時点で 234 人のワーカから,各主格,各設定(文脈の有無)に対して 8 人のラベルを得た. さらに統計的後処理4) により信頼度下位 $30 \%$ のワーカを除外し,結果的に 3 人以下のラベルしか付与されていないデータポイントも除外した. 最終的に 1,562 の主格に対して,文脈の有無の両設定それぞれで平均 6 人から, 計 18643 ラベルが付与された. 得られたデー タセットにおけるアノテーション一致度はクリッぺンドルフの $\alpha$ で 0.694 であり,信頼可能なデータの一致度の下限とされる 0.667 を超えている [18]. ## 3.2 サブセットの作成 1 節で言及したとおり,「は」と「が」の対立には主題か非主題かという軸だけでなく,対比を表すか排他を表すか,判断文であるか現象文であるか,どこまで係るかなどの様々な対立が内包されている $[3,8]$. 先行文脈で既に言及された要素は主題になりやすくなる(関連の主題)という,文脈依存の傾向が反映されたデータを収集するため,以下の条件を全て満たす主格を文脈依存の「は」として収集した。 ・NTC 上で「は」を伴っていた. ・共参照アノテーション上で,主格の要素が先行文脈において既出である。 ・文脈を見せることで,「は」と答える割合が $15 \%$ よりも上昇した. 上記条件を満たさずコーパス上で「は」を伴っていたデータポイントの集合については文脈非依存の 「は」,コーパス上で「が」を伴っていたデータポイントの集合については「が」全体と呼ぶ. サブセットの統計を表 1 に示す. 作成したサブセットごとにデータの例を示す。また,必要に応じて先行文脈を灰色で,アノテーション対象の主格を太字で載せる。 4)MACE [17]を用いて各アノテータの信頼度を計算した. ## 文脈依存の「は」の例 (2)十万円が当たった。暮れ息子が買ったジャンボ宝くじの二十枚連番の一枚である。昨日、息子はテレビでの当選番号と照らし合わせながら、「三千六百円になるから、お母さんにあげる」と言っていた。 毎日新聞記事データ集 1995 年版 例 2 では,主格の要素である「息子」が先行文脈に出現している. このように先行文脈に出現した要素やそれに関連するものは「は」を伴って主題になりやすいことが知られている [3]. ## 文脈非依存の「は」の例 (3)民法九 $\bigcirc$ 条は、非嫡出子の相続分について 「嫡出子の二分の一とする」と定めている。 毎日新聞記事データ集 1995 年版 例 3 は主格の要素である「民放九○○条」について解説をする文となっている。このように主格名詞について解説 (措定) するときには「は」を伴う [19]. ## 「が」全体の例 (4)ペソの暴落でメキシコ経済の混乱が続いている。北米自由貿易協定、中南米諸国だけでなく、日本や欧州企業にも影響が及び始めた。 毎日新聞記事データ集 1995 年版 例 4 は「メキシコ経済の混乱によって影響が及ぶ」 という現象を表した文である。現象をありのまま,判断の加工を施さないでそのまま表現した文を現象文と呼び,「が」を伴う [20]. 他にも排他の「が」など,様々な用法の「が」がこのサブセットに属する。 ## 4 実験設定 言語モデルパラメータ数の異なる 2 つ Transformer ベースの言語モデル [21] (400M パラメータの TRANS-L と 55M パラメータの textscTrans-s)と LSTM ベースの言語モデル [22](LSTM)について,「は」 と「が」の選択の傾向を分析する。言語モデルは文章レベルであり,学習データは約 300 万の新聞記事から成る ${ }^{5)}$. 言語モデルへの入力は,JUMAN[23] で形態素に分割したのち sentencepiece[24] でサブワー ドに分割した ${ }^{6)}$. 指標 3 節で作成した各インスタンスは, $\left(c, s_{\text {は }}, s_{\text {が }}\right)$ 5)言語モデルの訓練に用いたデータは,3.1 節で作成した評価データと重複しない。 6) Unigram モデル [25]を用いた(character coverage $=0.9995$, vocab size $=100000$ ) の三つ組で表される. ただし, $s_{\text {は }}$ と $s_{\text {が }}$ は分析の対象となる主格が「は」または「が」を伴う文であり, $c$ は同一文章内の先行文脈である.各インスタンスにおける「は率」 $r_{\text {はを人と言語モデルに対して以下 }}$ のように計算する. $ r_{\text {は }}=\frac{p\left(s_{\text {は }}\right)}{p\left(s_{\text {は }}\right)+p\left(s_{\text {が }}\right)} $ ただし $p\left(s_{\text {は }}\right)$ および $p\left(s_{\text {が }}\right)$ は,人の場合何人中何人が「は」または「が」が自然であると判断したかの割合7) であり,言語モデルの場合 $s_{\text {はま }}$ および $s_{\text {が }}$ に対する生成確率である. $r_{\text {はが大きいほど「が」ではな }}$ く「は」が自然であると判断した割合が高いという 確信度の指標と考えられる。 また,文脈 $c$ を見せて(入力して)得られた $p\left(s_{\text {は }}\right)$ および $p\left(s_{\text {が }}\right)$ を元に計算した「は率」を $r_{\text {は }}^{\text {ctx }}$ ,文脈を見せない場合で得られた「は率」を $r_{\text {奻_ctx }}^{\text {woct }}$ と別する.人および各言語モデルについて,各インスタンスにおける文脈の影響を $\Delta_{\text {は }}=r_{\text {は }}^{\text {ctx }}-r_{\text {は_ctx }}^{\mathrm{wo} c \text { とす }}$ る. $\Delta_{\text {は }}$ が大きいインスタンスほど,文脈を見ることにより「は」を伴うと判断するようになった度合いが高いインスタンスであると言える. ## 5 実験 1: 文脈依存の「は」の傾向 はじめに,3.2 節で作成した文脈依存の「は」のサブセットについて人と言語モデルの傾向を分析する (表 2). 各言語モデルが各インスタンスに付与した $r_{\text {は }}^{\text {ct }}$ と $\Delta_{\text {は }}$ について, ワーカから得られた值との順位相関係数を報告する。 $r_{\text {は }}^{\text {ctx }}$ の相関は,「は」か「が」 を選択する際の確信度の強さにおける人らしさを示す. $\Delta_{\text {は }}$ 相関は,「は」と「が」の選択に及ぼす文脈の影響が人と言語モデルで似ているかを示す. また,NAIST テキストコーパス上で主格に対して用いられていた助詞を正しい助詞 8 ) とみなした場合の正解率も報告する. 人の正解率は各インスタンスに付与されたラベルのうち正しい助詞(本実験では 「は」)を選択できたものの割合とし,言語モデルの正解率は正しい助詞に対して高い確率を付与できたインスタンスの割合とした. 文脈を見せた場合と見せない場合でそれぞれ正解率を計算した。 文脈ありの正解率を見ると人と言語モデルが同程度の値を示しており,およそ $90 \%$ という高い精度  表 2 文脈依存の「は」の選択傾向 & & & \\ で「は」と「が」の選択が可能であった。一方で表 2 中の文脈なしの正解率と文脈ありの正解率の比較より,人は文脈を見ることで正解率が 12 ポイント上がっているにも関わらず,言語モデルは先行文脈をみても正解率がほとんど変わらないことが確認された. 特に文脈を見ない場合の言語モデルの正解率が人よりも 10 ポイント程度高く,人が認識していないような文内の何らかの特徵量を手がかりに言語モデルが「は」と「が」の選択を行っていることが示唆された ${ }^{9)}$.また,$r_{\text {は }}^{\text {ctx }}$ の相関が弱いことから人と言語モデルの間のある種の選択の確信度が異なり, $\Delta_{\text {は }}$ 相関がないことからも文脈の考慮の仕方に乘離があることが分かる。つまり,言語モデルは正しく「は」と「が」の選択が行えているものの, その選択をする要因は人と異なることが示唆される.このような乘離は,言語理解タスクにおいて回答に十分な情報が提供されなくても解けてしまう問題 [26] や,人に認識不可能な特徵量(敵対的事例) の存在 [27] と類似する問題と考えられる。 本実験で確認された「は」と「が」の選択における乘離は,クラウドワーカによる複数人のアノテー ションや文脈が存在しない場合の判断といったコー パス上に表出されない情報によって明らかになった結果であり, 本データセットの作成に意義があったことを強調したい。なお言語モデル間の差については, $r_{\text {は }}^{\text {ctx }}$ の相関において LSTM が比較的人に近いという観察が得られた。 ## 6 実験 2: コーパス全体の傾向 5 節では文脈依存の「は」のサブセットについて分析したが,最後に 3 節で作成したデータセット全体についても,人と言語モデルの傾向を分析する (表 3). 文脈なしの正解率と文脈ありの正解率を比較すると, 人も言語モデルも文脈の有無による正解率の変化は小さく,データセット全体としては「は」 と「が」の選択は文内の情報のみで可能であること 9)言語モデルだけが文脈を見ずに正解できたインスタンスを付録に示す.表 3 「は」と「が」の選択傾向 (データセット全体) & & & \\ が示唆された.この結果は「は」と「が」の使い分けにしばしば情報の新旧といった談話レべルの概念が持ち込まれることと対照的であり,談話レベルの判断が必要な状況は実際のコーパス上では少数である可能性,文脈を見せない設定においても文内の情報から人が適当な文脈を復元できている(例えば代名詞の使用から情報の新旧の予測がつくなど)可能性を含めて今後さらに調査したい. $r_{\text {は }}^{\mathrm{ctx}}$ の相関はどの言語モデルでも 0.79 以上と, データセット全体においては人と言語モデルの選択の確信度の強さに高い相関があることが確認された ${ }^{10)}$. 表 2 の $r_{\text {は }}^{\text {はtx }}$ の相関は弱かったことを踏まえると,言語モデルは「は」と「が」のどちらが自然かという粒度の選択においては人と近い傾向がみられるが,「は」を選択する際にどれくらいの確信度で選択しているかという側面では人と傾向に乘離があると考えられる (付録図 3). $\Delta_{\text {は }}$ の相関はなく, 5 節の結果と一貫して,人と文脈の考慮の仕方に乘離があることが確認された。 ## 7 おわりに 本研究では,談話レベルの文脈に依存する系列的な選択における言語モデルと人の判断について分析を行い,乘離があることを示した。「は」か「が」という選択においては言語モデルは人よりも正確な選択が行えるが,先行文脈の情報に依存した選択を行わないという点で人と乘離がみられた。これは言語モデルと人の「は」と「が」の選択の拠り所が両者で異なるということである.今後は,言語モデルが文内および先行文脈のどの部分の情報を頼りに系列的な選択を行うのかを調査していきたい。 ## 謝辞. 本研究は JSPS 科研費 P19H04162 の助成を受けたものです.また,データセットの作成にあたり毎日新聞記事データ集 1995 年版の使用を許可していただいた毎日新聞社に感謝します。 10)人と言語モデルの $r_{\text {は }}^{\text {ctx }}$ の相関が高かったインスタンスを付録に示す. ## 参考文献 [1]Michael Alexander Kirkwood Halliday and Ruqaiya Hasan. Cohesion in english. Longman, 1976. [2]Michael Halliday, Christian MIM Matthiessen, and Christian Matthiessen. An introduction to functional grammar. Routledge, 2014. [3]野田尚史.「は」と「が」. くろしお出版, 1996. [4]松下大三郎. 標準日本口語法. 中文館書店, 1930. [5]Barbara J Grosz, Aravind K Joshi, and Scott Weinstein. Centering: A framework for modelling the local coherence of discourse. Computational Linguistics, 1995. [6]砂川有里子. 文法と談話の接点. くろしお出版, 2005. [7]Ryu Iida, Mamoru Komachi, Kentaro Inui, and Yuji Matsumoto. Annotating a japanese text corpus with predicate-argument and coreference relations. In Proceedings of the linguistic annotation workshop, pp. 132-139, 2007. [8]日本語記述文法研究会. 現代日本語文法 5 とりたて・主題. くろしお出版, 2009 . [9]Suhas Arehalli and Tal Linzen. Neural language models capture some, but not all, agreement attraction effects, Feb 2020. [10]孟玲秀. 『日本語教育における「は」と「が」の教授法』——国人学習者に対する日本語教育の場合—. 2004. [11]Tal Linzen, Emmanuel Dupoux, and Yoav Goldberg. Assessing the ability of lstms to learn syntax-sensitive dependencies. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 521-535, 2016. [12]Jey Han Lau, Alexander Clark, and Shalom Lappin. Grammaticality, acceptability, and probability: A probabilistic view of linguistic knowledge. Cognitive Science, Vol. 41, No. 5, pp. 1202-1241, 2017. [13]Jey Han Lau, Carlos S Armendariz, Shalom Lappin, Matthew Purver, and Chang Shu. How furiously can colourless green ideas sleep? sentence acceptability in context. arXiv preprint arXiv:2004.00881, 2020. [14]Alex Warstadt, Alicia Parrish, Haokun Liu, Anhad Mohananey, Wei Peng, Sheng-Fu Wang, and Samuel R Bowman. Blimp: The benchmark of linguistic minimal pairs for english. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 377-392, 2020. [15]Xuhui Zhou, Yue Zhang, Leyang Cui, and Dandan Huang. Evaluating commonsense in pre-trained language models. In AAAI, pp. 9733-9740, 2020. [16]Gregor Betz, Christian Voigt, and Kyle Richardson. Critical thinking for language models, 2020. [17]Dirk Hovy, Taylor Berg-Kirkpatrick, Ashish Vaswani, and Eduard Hovy. Learning whom to trust with mace. In Proceedings of NAACL, pp. 1120-1130, 2013. [18]Klaus Krippendorff. Content Analysis: an Introduction to its Methodology. Sage publications, 2004. [19]三尾砂. 國語法文章論. 三省堂, 1948. [20]三上章. 現代語法序説ーシンタクスの試みー. 刀江書院, 1953. [21]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NeurIPS, pp. 5998-6008, 2017. [22]Sepp Hochreiter and Jürgen Schmidhuber. Long shortterm memory. Neural computation, Vol. 9, No. 8, pp. 1735-1780, 1997. [23]Daisuke Kawahara and Sadao Kurohashi. Case frame compilation from the web using high-performance computing. In Proceedings of LREC, Genoa, Italy, May 2006. European Language Resources Association (ELRA). [24]Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In EMNLP, pp. 66-71, 2018. [25]Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. Proceedings of ACL, 2018. [26]Suchin Gururangan, Swabha Swayamdipta, Omer Levy, Roy Schwartz, Samuel R Bowman, and Noah A Smith. Annotation artifacts in natural language inference data. arXiv preprint arXiv:1803.02324, 2018. [27]Andrew Ilyas, Shibani Santurkar, Dimitris Tsipras, Logan Engstrom, Brandon Tran, and Aleksander Madry. Adversarial examples are not bugs, they are features. In Advances in Neural Information Processing Systems, pp. 125-136, 2019. (a) 文脈依存の「は (b) データ全体 図 3 人と言語モデル (TRANS-L) の $r_{\text {は }}^{\text {はt }}$ の相関. 1 プロットが 1 インスタンスを表す. 表 4 人と言語モデルの「は」と「が」の選択傾向 ## A インスタンス例 ## 人と言語モデルの $r_{\text {はt }^{\text {ct }}$ 相関が高かったインスタンス} (5)受験生に試練の季節がやってきた。十四日、日本海側が大雪に見舞われたなか始まった大学入試センター試験。今年の受験者は女子が大幅に増えるなど過去最多となった。 毎日新聞記事データ集 1995 年版 (6)三日未明から夕方にかけて北海道、東北地方で三陸はるか沖地震の余震とみられる地震が四回あった。午前一時四十二分ごろ、東北地方の一部で地震があった。 毎日新聞記事データ集 1995 年版 ## 言語モデルだけが文脈を見ずに正しい助詞を選択できたインスタンス (7) 4 歳の孫を連れておそば屋さんへ入りました。鍋焼きうどんを取って 2 人で食べました。孫は必死になって食べましたが、とても食べ切れません。 毎日新聞記事データ集 1995 年版 (8)七日は、無病息災を願う「春の七草」の日。大阪・キタの阪神百貨店では、午前八時から七草がゆの無料サービスを行い、サラリーマンや若い女性たち、剣道の早朝練習帰りの中学生らが季節の味覚を楽しんだ。用意した五百食は約一時間でなくなった。 毎日新聞記事データ集 1995 年版
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E7-2.pdf
# 質問応答に基づく日本語ゼロ代名詞同定 岩田 晟 渡辺 太郎 奈良先端科学技術大学院大学 \{iwata.sei.is6, taro\}@is.naist.jp ## 1 はじめに 日本語や中国では,文中の主語や目的語などの構成要素が省略されることがあり,このような省略をゼロ代名詞という.例えば,日英翻訳タスクにおいて日本語側の省略を補完する必要があり,結果として,このような省略は自然言語処理の応用タスクへと大きな影響を与える。 近年では共参照解析やNER などを質問応答 (Question Answering,QA) の一つである SQuAD 形式〉iteSQuAD のスパン予測問題をとして捉える研究がある [1][2]. 本研究ではゼロ代名詞検出および同定タスクを QA タスクとして捉えた手法を提案する. 動詞または形容詞をクエリとし, その単語 (クエリ)を主辞とする節において省略された構成要素の種類およびその節の開始位置と終了位置を予測する. 句構造情報がアノテーションされた NPCMJ[3] を用いたゼロ代名詞同定タスクにおいて,BERT[4]を用いた系列ラベリングの手法と比べ, 提案手法は $\mathrm{F} 1$ 值で 2.2 ポイントの向上が確認できた. ## 2 関連研究 植田ら [5] は BERT[4] を用いた述語項構造解析・共参照解析・橋渡し照応解析の同時学習を提案した. Konno ら [6] は BERTを用いた Data Augmentation を行うことで,ゼロ照応解析の精度を向上させた. Song ら [7] は,句構造の関係を利用し,BERTを用いてゼロ代名詞検出をサブタスクにしつつ, ゼロ代名詞の同定とゼロ照応解析を同時学習を行った. この手法では自己注意機構を用いて, 照応先の開始位置と終了位置を予測することでゼロ照応解析とした. Aloriani ら [8] と Aloriani ら [9]の研究では,句構造情報を踏まえて, BERT-base Multilingual $の$ 埋め込みを多層パーセプトロンの入力として用いることで,ゼロ代名詞同定とゼロ照応解析を行った. Takeno ら [10] は句構造構文情報の様々な素性を用 \author{ 永田昌明 } NTTコミュニケーション科学基礎研究所 masaaki.nagata.et@hco.ntt.co.jp いることで,ゼロ代名詞検出を行った。 Devlin ら [4] は BERTを利用して,QAタスクにおいて質問とそれに対応する応答見つけるために,質問と文書を入力に文書の中から応答のスパンを予測した. Li ら [2] は NERのタグに対応する質問文を生成し,その質問と文を入力とすることで entity のスパンを予測することで Nested NER の問題に対応した. Wuら [1] は参照先をとうような質問を生成することでを共参照解析として捉えた手法を提案した。 ## 3 スパン予測を用いたゼロ代名詞同定 本研究では,入力文における動詞や形容詞をクエリとし,クエリを主辞とする節にゼロ代名詞が存在するか,また,節に対応するスパンを予測するタスクとして定式化する. 入力文 $\boldsymbol{X}=\left.\{x_{1}, x_{2}, \ldots, x_{n}\right.\}$ とすると,とその文内のクエリー $x_{q}$ を与え, そのクエリを主辞とする節に対応するスパン $\left.\{x_{i}, \ldots, x_{j}\right.\}, 1 \leq i \leq j \leq n$ を予測する. 例えば,「宿題をすると私は決意した.」を入力文,動詞である「する」がクエリーとして与えられた場合,主語が省略されている節のスパン「宿題をする」を予測する。一方で「決意」がクエリーの場合,これを主辞とする節「〜と私は決意した.」には省略がないため,クエリを主辞とする節にはゼロ代名詞がないと予測する.定式化したタスクに対して,BERT[4]を用いた。 ## 3.1 スパン予測を用いたゼロ代名検出 入力はこのクエリー $x_{q}$ とそのクエリーが含まれる文 $X$ である.具体的には二つの入力を特殊文字 $[C L S]$ と $[S E P]$ を用いて, 次のよう形式で BERT に与える.. $\left.\{[C L S], x_{q},[S E P], x_{1}, x_{2}, \ldots, x_{n}\right.\}$ ここで $[S E P]$ を基準にこれらの入力を基に, $[S E P]$ 以降の $i$ 番目のトークンに対して,スパンの開始確率 $S_{i}$ とスパンの終了確率 $E_{i}$ を予測する. $[C L S]$ の位置をゼロ代名詞がない場合に対応させ, $S_{[C L S]}$ と $E_{[C L S]}$ は,与えらた文にゼロ代名詞がない確率を表す。 ス パンの開始確率 $S_{i} \in \mathbb{R}$ は Devlin らの SQuAD v2.0の手法 [4] と同様,次のように BERT の Encoder の最終層の埋め込みである $T_{i} \in \mathbb{R}^{n}$ を線形層に通して計算される。 $ S_{i}=\operatorname{softmax}\left(T_{i} W_{S}^{\top}+b_{S}\right) $ ここで重み $W_{S} \in \mathbb{R}^{1 \times n}$, バイアス $b_{S} \in \mathbb{R}$ である. また, 終了確率 $E_{i}$ も同様に求める. 予測の開始位置と終了位置が $1 \leq i \leq j \leq n$ の時, これらの確率を用いてスパンのスコア定義は次のようにする。 $ \text { Score }_{i}, E_{j}=\log S_{i}+\log E_{j} $ このスコアが最大となる区間にゼロ代名詞が存在すると予測する。一方で, 文中にゼ口代名詞がないスコアは [CLS] に対応する Score $_{\text {null }}=$ Score $_{S_{[C L S]}, E_{[C L S]}}$ とする. そのため, max $_{j \geq i}$ Score $_{S_{i}, E_{j}}<$ Score $_{\text {null }}$ のときは,与えられた文にはゼロ代名詞がないと予測する. 学習時の損失関数はクロスエントロピーを用いる. そのため, 正解の開始位置と終了位置が $i^{\prime}, j^{\prime}$ のとき,次のように対数尤度の和として定式化できる。 $ \text { loss }_{\text {span }}=-\log S_{i^{\prime}}-\log E_{j^{\prime}} $ ## 3.2 ゼロ代名詞クラス分類 3.1 節ではゼロ代名詞検出の二値分類であったが, ゼロ代名詞同定を行うためにクラス分類を行う1). $[C L S]$ に対応する BERT の Encoder の最終層の埋め込み $T_{-1} \in \mathbb{R}^{n}$ はクエリーと文の二つの入力が考慮された埋め込みとされている。 この $T_{-1}$ を用いて, ゼロ代名詞の num $_{\text {label }}$ 種類のクラスに対する確率を求める. 重み $W_{\text {label }} \in \mathbb{R}^{2 \times d}$ とバイアス $b_{\text {label }} \in \mathbb{R}^{\text {num label }}$ を用いて次のように表せる. $ \begin{aligned} H & =\operatorname{dropout}\left(T_{-1}\right) \\ P_{\text {label }} & =\operatorname{softmax}\left(H W_{\text {label }}{ }^{T}+b_{\text {label }}\right) \end{aligned} $ 学習ではクロスエントロピーロスと正解のゼロ代名詞クラスを用いて,損失 loss label 計算する. ## 3.3 同時学習によるゼロ代名詞同定 本研究では, 3.1 節と 3.2 節のそれぞれのタスクを同時に学習することで, ゼロ代名詞の同定を行う.学習時の損失関数は次のように定義される. $ \text { loss }_{\text {total }}=\alpha \text { loss }_{\text {span }}+(2-\alpha) \text { loss }_{\text {label }} $  クラスは述語の下位範疇に相当する. 表 1 データセットの内訳 ここで, $\alpha$ は $0<\alpha<2$ の間の値を取ることで,各タスクの損失関数に重みをつけるハイパーパラメー タである. 3.1 節のスパン予測にて省略が存在するとされたものを,3.2 節のタスクで予測したラベルのゼロ代名詞が省略されているとする。一方で,3.1 節のスパン予測にて省略がないと予測された場合は,このクエリを主辞と仮定したゼロ代名詞がないとする。 ## 4 実験 ## 4.1 実験データ 本実験のデータとして NINJAL Parsed Corpus of Modern Japanese(NPCMJ)[3]を用いる. NPCMJ はゼロ代名詞の情報を持つ欅ツリーバンク [11]を拡張したもので,青空文庫やニュースなどから成る約 4 万文に対して句構造がアノテーションされたコー パスである。ゼロ代名詞は,述語を主辞とする節 (inflectional phrase, IP) の最初の構成要素としてアノテーションされる.このアノテーションされた構文情報を用いて主辞が動詞 (VB) または形容詞 (ADJN) であり,ゼロ代名詞の有無にかかわらず全ての節を対象にクエリーを作成する。データセットは文単位で train : dev : test = 8:1:1 で分割を行う. データセットの各述語におけるゼロ代名詞の有無の件数と割合は表 1 のとおりである. 実験では, NPCMJでアノテーションさているゼロ代名詞の種類のうち, *pro*,*speaker*,*hearer $*, * T *$ を用い,それ以外は etc に置き換える。構文情報のアノテーションのうち,SBJに関するものは SBJ, OB1 や OB2 などの OBJ に関するものは OBJ,それ以外は Other タグに変換する.また,ゼロ代名詞がある述語 37410 件のうち,一つの述語に対して三つ以上ゼロ代名詞が含まれるものは $1 \%$ 未満である 80 件であった.そのため,今回の実験では一つのスパンに一つもしくは二つのゼロ代名詞の組み合わせをゼロ代名詞クラスとする.三つ以上の物に関しては & & $89.2 \%$ \\ 表 2 ゼロ代名詞検出の混同行列 (件数) etcに置き換える。 ## 4.2 モデル設定 事前学習言語モデルとして, NICT-BERT ${ }^{2}$ の BPE なし $\mathrm{BERT}_{B A S E}$ モデルを使用し,述語をクエリ,文を文脈として,述語を主辞とする節のスパンとゼロ代名詞の種類を予測するデータでファインチューニングした. 各パラメータ設定において,学習エポックは $\{2,4\}$, バッチサイズは 16 , 学習率は 3e-5, ドロップアウト確率は 0.1 , 式 6 のハイパーパラメータ $\alpha$ は $0.0 \sim 1.8$ のうち 0.2 間隔で用いた. 単語分割は NICT-BERT に合わせ,MeCab-Juman 辞書で単語分割を行った。 ## 4.3 比較手法 ゼロ代名詞同定の実験において,BERT を用いた系列ラベリングを比較手法とする. Devlin ら [4] の手法を参考に,文全体を入力とし,BIOES 形式で述語にはゼロ代名詞クラス,それ以外は"O"をラベリングするように学習した. 正誤判定は提案手法のクエリーに対応する述語の箇所のみに適切なラベリングを行ったかで判定した。 ## 4.4 実験 1: ゼロ代名詞検出 3.1 節で述べた質問応答に基づくゼロ代名詞検出に関する実験を行った.「ゼロ代名詞の有」かつ「そのゼロ代名詞の存在する節の完全一致」の時,True Positive (TP) とする. 表 2 はエポック 2 における混同行列である. 各セルには件数と割合を記載した.表 2 において,Gold データに対する True Negative (TN) の正答率が TP と比べて高い理由としては, TN は文中にゼロ代名詞が存在しない場合であるため,「節 (span) の一致」は考慮する必要がなく,「ゼロ代名詞の有無」の一致のみであるからと考えられる.  表 3 ゼロ代名詞検出の F1 值 表 4 ゼロ代名詞同定の F1 值 また,表 3 はエポック $\{2,4\}$ におる F1 值, Precision,Recall を載せる. Keyaki tree bank に対しての構文的素性を用いた Takeno ら [10] の F1 值が $73.2 \%$ であり,データセットは異なるため,単純な比較はできないが,これらの結果を踏まえても,表 3 の $81.3 \%$ は十分に高いスコアと言える. ## 4.5 実験 2: ゼロ代名詞同定 3.3 節の同時学習を用いてゼロ代名詞の同定に関する実験を行った. TPを「ゼロ代名詞の種類」が一致した場合とする。比較手法としては 4.3 の系列ラベリングを用いる.F1值による比較において,結果を表 4 に記す. 表 4 よれば,ベースラインよりも,提案手法の方が $2.2 \%$ 優れていた. ただし提案法はクエリとなる述語の正解を与えているので,厳密な比較ではないことに注意する必要がある. また,式 6 のハイパーパラメータ $\alpha$ を変更した時の F1 の変化を図 1 に記す. 図 1 より,エポック 2,4 共に,ゼロ代名詞クラス分類に重心を強くして学習させるほうが,F1 值の精度が高かった. ## 5 エラー分析 提案手法の成果を確認するため,実際の事例を示す. 下線部がゼロ代名詞の存在する節である. (1)衝撃や水濡れに強いのがウリの機種に決めました. Gold : pro_SBJ Predict : pro_SBJ (2)偶然がもたらした大発見といってよいであろう。 Gold : $T \_O B J$ Predict : $T \_O B J$ 例文 (1),(2) はゼロ代名詞の種類と主格/目的格を正確に捕らえらている. 一方で誤り例を示す. 図 実験 2 において, $\alpha$ を変化させたときの $\mathrm{F} 1$ 値 表 5 pro とその亜種の種類エラー率 (3)たまにはおごれよ. Gold : hearer_SBJ Predict : speaker_SBJ この場合,SBJ は認識できているが,二人称 (hearer) であるべきところを一人称 (speaker) と誤っている。このように主格/目的格は正確に捕らえられるが,pro とその亜種である hearer,speakerに関して区別できていないことがある. pro と比べ, 出現頻度低い speaker やhearer はこの傾向が顕著である. 表 5 は正解ラベルが SBJ に関するもの正答率と proと亜種の種類エラーにおける割合である.正答率において,亜種ラベルのない $T$-SBJ が $3.7 \%$ と比べて, pro とその亜種である speaker と hearer は正答率が大きく下がっている. 例文 (3) のような亜種に関するエラーが正答率を下げてる.このような亜種のエラーの割合は,"pro"のエラーのうち $10.1 \%$, "speaker"と"hearer"のそのようなエラー の割合は $35 \%$ 後半もある. "pro"と比べ,"speaker" と"hearer"がエラーが多い理由として, それらの付与されたデータ数の少なさ,および,提案法は文を入力単位としており, 文脈情報を利用していないことが考えられる. ## 6 おわりに 本研究では QA タスクにおけるスパン予測問題として定式化したゼロ代名詞の検出・種類同定を提案し,NPCMJ を用いて評価を行った.今後は推定した情報を基にゼロ照応解析や他言語のデータセットに対する評価などを行っていきたいと考えている。今回の提案手法では,一つの節に対して一つのクエリで推定を行っていたが,推定したゼロ代名詞のス パンを用いて,節と節の関係について文全体で整合性をとることで,精度の向上が期待できる。 ## 参考文献 [1]Wei Wu, Fei Wang, Arianna Yuan, Fei Wu, and Jiwei Li. CorefQA: Coreference resolution as query-based span prediction. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6953-6963, Online, July 2020. Association for Computational Linguistics. [2]Xiaoya Li, Jingrong Feng, Yuxian Meng, Qinghong Han, Fei $\mathrm{Wu}$, and Jiwei Li. A unified MRC framework for named entity recognition. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5849-5859, Online, July 2020. Association for Computational Linguistics. [3]アラステアバトラー, 吉本啓, 岸本秀樹, プラシャントパルデシ. 統語・意味解析情報付き日本語コーパスのアノテーション. 言語処理学会第 22 回年次大会発表論文集, 3 月 2016. [4]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 41714186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [5]植田暢大, 河原大輔, 黒橋禎夫. Bert と refinement ネットワークによる統合的照応・共参照解析. 言語処理学会第 26 回年次大会発表論文集, 3 月 2020 年. [6]Ryuto Konno, Yuichiroh Matsubayashi, Shun Kiyono, Hiroki Ouchi, Ryo Takahashi, and Kentaro Inui. An empirical study of contextual data augmentation for Japanese zero anaphora resolution. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 4956-4968, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [7]Linfeng Song, Kun Xu, Yue Zhang, Jianshu Chen, and Dong Yu. ZPR2: Joint zero pronoun recovery and resolution using multi-task learning and BERT. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5429-5434, Online, July 2020. Association for Computational Linguistics. [8]Abdulrahman Aloraini and Massimo Poesio. Anaphoric zero pronoun identification: A multilingual approach. In Proceedings of the Third Workshop on Computational Models of Reference, Anaphora and Coreference, pp. 22-32, Barcelona, Spain (online), December 2020. Association for Computational Linguistics. [9]Abdulrahman Aloraini and Massimo Poesio. Cross-lingual zero pronoun resolution. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 90-98, Marseille, France, May 2020. European Language Resources Association. [10]Shunsuke Takeno, Masaaki Nagata, and Kazuhide Yamamoto. Empty category detection using path features and distributed case frames. In Proceedings of the 2015 Confer- ence on Empirical Methods in Natural Language Processing, pp. 1335-1340, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [11]Alastair Butler, Tomoko Hotta, Ruiko Otomo, Kei Yoshimoto, Zhen Zhou, and Hong Zhu. Keyaki treebank : phrase structure with functional information for japanese., 2012.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E7-3.pdf
# 談話依存構造解析の教師なしドメイン適応 西田典起 理化学研究所 AIP noriki.nishida@riken.jp ## 1 はじめに 談話依存構造解析 (Discourse Dependency Parsing) は文書内にある節や文の間の係り受けと修辞関係を同定し、文書の談話依存構造を明らかにすることを目指す $[1,2]$ 。本研究で解析対象にする論文アブストラクトの談話依存構造の例を図 1 に示す。談話構造はこれまで文書要約 $[3,1]$ や質問応答 [4]、極性分類 $[5,6]$ などのタスクでその有用性が確認されてきた。 談話構造解析の従来法は RST-DT [7] などのツリー バンクを使い、解析器を学習する $[8,9]$ 。しかし、既存のツリーバンクのサイズおよびそれらがカバーするドメインは限定的なため、一般的には解析したい文書はそれらのドメインから外れ、解析精度は低下する。よって、利用できる談話構造ツリーバンクのドメインと解析器を適用したいドメインが異なるときに、どのように適用先ドメインに解析器を適応するかという「教師なしドメイン適応」の問題は、現実的に重要な課題となっている。 本稿では、談話依存構造解析における教師なしドメイン適応問題に対する疑似ラベリング法 (Self-Training [10, 11, 12], Co-Training [13, 14, 15], Tri-Training [16], Asymmetric Tri-Training [17] など) の効果を調べ、その結果を分析する。疑似ラベリングはラベル付きデータとラベルなしデータからモデルを訓練する半教師あり学習の代表的な方法論である。本研究では特に科学技術論文アブストラクトの談話依存構造解析を対象に、自然言語処理アブストラクト(ソースドメイン)のツリーバンクで訓練された解析器を、医学生物学アブストラクト (ターゲットドメイン) に適応することを考える。実験の結果、疑似ラベリング、特に係り受けの一致率に基づいて合意基準を緩和化した Asymmetric Tri-Training が談話依存構造解析の教師なしドメイン適応に有効であることを確認した。解析精度は Labeled Attachment Score で 4.1 ポイント向上し、さ \author{ 松本裕治 \\ 理化学研究所 AIP \\ yuji.matsumoto@riken.jp } らに人手による談話構造のアノテーションコストが大幅に (e.g., 約 60\%) 削減できることがわかった。また、疑似ラベルの質と量の影響力は大きく、閾値による合意基準の調整によってそれらの最適なバランスを実現できることを示した。また、解析結果を分析し、解析エラーの主要因が (1) 係り受けパターンの頻度の偏り、(2) 談話関係クラスの曖昧性、(3) ドメインごとの論旨の展開の違いの 3 つである可能性があることを確認した。 ## 2 方法 ## 2.1 談話依存構造解析の疑似ラベリング 談話依存構造解析は、EDU の系列として表現された入力文書 $d=e_{0}, e_{1}, \ldots, e_{n}$ に対し、談話依存構造 $T=\{(h, m, l) \mid 0 \leq h \leq n, 1 \leq m \leq n, l \in \mathscr{L}\}$ を出力するタスクである。ここで $e_{0}$ は根ノードを表し、係り受け $(h, m, l)$ は $e_{h}$ (head) と $e_{m}$ (modifier) が談話関係 $l \in \mathscr{L}$ にって結合することを表す。本研究の疑似ラベリングは 4 ステップからなる。 1. 少量のラベル1) 付きデータ(ゴールドデータ)の集合 $L=\{\langle d, T\rangle\}$ を使い、解析器 $f$ を訓練する。 2. その解析器を使い、大量のラベルなしデータ $d^{\prime} \in U$ に対して疑似ラベル $T^{\prime}=f\left(d^{\prime}\right)$ を付与する。 3. 疑似ラベル付きデータの一部からシルバーデー タセット $L^{\prime}=\left.\{\left.\langle d^{\prime}, T^{\prime}\right.\rangle\right.\}$ を構成する。 4. ゴールドデータとシルバーデータを合わせて、解析器の再訓練を行う。 教師なしドメイン適応の問題設定では、ラベル付きデータについてはソースドメインのみに存在し、ラベルなしデータはテストデータと同じターゲットドメインから収集したものとする。 疑似ラベリングの方法として Self-Training, CoTraining, Tri-Training, Asymmetric Tri-Training の $4 \supset の$  ROOT SARS-CoV-2 genetic identification is based on viral RNA extraction prior to RT-qPCR assay, however recent studies support the elimination of the extraction step. Herein, we assessed the RNA extraction necessity, by comparing RT-qPCR efficacy in several direct approaches vs. the gold standard RNA extraction, in detection of SARS-CoV-2 from laboratory samples as well as clinical Oro-nasopharyngeal SARS-CoV-2 swabs. Our findings show advantage for the extraction procedure, however a direct no-buffer approach might be an alternative, since it identified up to $70 \%$ of positive clinical specimens. 図 1 科学技術論文アブストラクトの談話依存構造の例。 アルゴリズムを実装し、比較する。 Self-Training (ST) [10,11] は最も単純な疑似ラベリング法である。本研究では Reichart と Rappoport (2007) [12] に従い、すべての疑似ラベルをシルバー データとして用いた。ST は単一の解析器を用いるため、自己の誤り傾向を軌道修正する仕組みがなく、学習過程で誤りが増幅する可能性がある。 Co-Training (CT) [13, 14, 15] は二つの異なる解析器を使い、一方の解析器の予測結果をもう一方の解析器のシルバーデータとして活用する。 Tri-Training (TT) [16] は三つの解析器を使い、二つの解析器の予測結果が一致 (合意) している場合のみ、それを残り一つの解析器のシルバーデータとして採用する。すなわち、上記の ST や CT と異なり、疑似ラベル $T^{\prime}$ のうち二つの解析器の間で合意が得られたもののみを再訓練で用いる。 Asymmetric Tri-Training (AT) は TT の拡張であり、斎藤ら (2017) [17]によって教師なしドメイン適応の方法として開発された。AT では三つの解析器のうち一つをターゲットドメイン専用の解析器 $f_{t}$ として訓練する。具体的には、二つの解析器 $f_{1}$ と $f_{2}$ による予測結果 $T_{1}^{\prime}, T_{2}^{\prime}$ が一致しているときのみ、それをシルバーデータセット $L^{\prime}$ に追加し、 $f_{1}$ と $f_{2}$ は $L \cup L^{\prime} 、 f_{t}$ は $L^{\prime}$ のみで再訓練する。 ## 2.2 合意基準の緩和化 TT および AT では一般に予測した「ラベル」が完全一致しているかどうかで合意判定されるが、談話構造解析では「ラベル」は文書レベルの木構造であるため、完全一致に基づく合意基準は非常に厳しい。その結果、ほとんどの疑似「ラベル」はシルバーデータとして採用されず、捨てられてしまう。 そこで、本研究では局所的に一致している係り受けの割合 (一致率) がある閾値以上の場合には合意し ていると判定する。具体的には、 $\frac{2\left|T_{i}^{\prime} \cap T_{j}^{\prime}\right|}{\left|T_{i}^{\prime}\right|+\left|T_{j}^{\prime}\right|} \geq \tau$ を満たす場合のみ、 $T_{i}^{\prime}$ と $T_{j}^{\prime}$ の両方ともをシルバーデータセットに加える, i.e., $L_{k}^{\prime} \rightarrow L_{k}^{\prime} \cup\left.\{\left.\langle d^{\prime}, T_{i}^{\prime}\right.\rangle,\left.\langle d^{\prime}, T_{j}^{\prime}\right.\rangle\right.\}$. このような合意基準の緩和化によって、局所的に合意を得ている係り受け情報の活用を目指す。 ## 2.3 談話依存構造解析器 Zhou と Goldman (2004) [15] によれば、CT においてデータの viewを明示的に二つに分けない場合、異なる inductive bias をもつモデルを使う必要がある。 また、モデル間の同意に基づく TT および AT でも、三つのモデルの多様性は重要であると考えられる。 本研究では、異なる解析戦略をもつ三つのニュー ラル談話依存構造解析器を実装する。具体的には、 グラフ型解析器 $(\mathrm{G})$ 、遷移型解析器 $\left(\mathrm{T}_{\mathrm{LR}}\right)$ 、逆向きの遷移型解析器 $\left(T_{R L}\right)$ を実装した。紙面の都合上、各解析器の詳細は省略する。 ## 3 実験結果と考察 ## 3.1 データ ソースドメインのラベル付き訓練データとして、 SciDTB [18] に収録されている 742 件の NLPアブストラクトの談話依存構造を用いた。ターゲットドメインのラベルなし訓練データとして、CORD-19 [19] に収録されている 22,515 件の医学生物学アブストラクトを用いた。EDU 分割については Wang ら (2018) [20] の方法で自動的に行った。また、ター ゲットドメインのテストデータとして、CORD-19からランダムに 70 件のアブストラクトを選択し、それらに対して人手で談話依存構造をアノテーションした2)。以降ではこのデータセットを CORD19-DT 2)アノテーションに関しては、著者自身が行った。今後、より公平で大規模な設定で評価を行うために、現在第三者によるアノテーション作業を行っている。 表 1 各システムの評価結果。評価尺度として Labeled Attachment Score (LAS), Unlabeled Attachment Score (UAS), Undirected UAS (UUAS) を用いる。括弧内解析器を示す。 $\tau$ は合意基準の閾値を表す。SciDTB の結果の括弧内の数値はラベルなしデータとして NLP アブストラクトを用いたときのスコアである。 } \\ と表記する。 70 件のアノテーションデータをテストセット (50 件) と検証セット (20 件) に分割した。 CORD19-DT と SciDTB の特徵の比較については付録に載せる。 ## 3.2 解析精度の比較 表 1 に各システムの評価スコアを載せる。比較のために、ターゲットドメインのラベルなしデータを活用しないべースラインシステム (Seed data only) のスコアも載せる。また、参考のために SciDTB のテストセットでの結果も載せる。 CORD19-DT での結果から、疑似ラベリングによるシステムはベースラインよりも一貫して高い解析精度であることがわかる。これは、疑似ラベリングによって、ターゲットドメインのラベルなしデータを活用して談話依存構造解析器のドメイン適応ができていることを示唆する。また、TT, AT は ST, CT よりも精度が高く、このことから複数の解析器の合意によってノイジーな疑似ラベルをフィルタリングすることが有効であるとわかる。また、本研究で導入した閾値による合意基準の緩和化も有効であった $(\tau=0.9$ vs. $\tau=0.5)$ 。 一方、SciDTB での結果では、TT $(\tau=0.5)$ を除いて、疑似ラベリングによる精度向上は見られなかった。しかし、ラベルなしデータとしてテストデータと同じドメインである NLP アブストラクトを用い 図 2 ラベル付きデータの個数と解析精度の関係。 図 $3 \mathrm{AT}$ における合意基準の閾値と、シルバーデータの量および解析精度の関係。量は全ラベルなしデータ数に対する割合で表す。 た場合、ST を除いて疑似ラベリングによる精度向上が見られた。このことから、疑似ラベリングを用いる場合、テストデータと同じドメインのラベルなしデータを用いることが重要であると判断できる。 ## 3.3 アノテーションコストの削減率 図 2 にラベル付きデータの個数と解析精度 (LAS, UAS) の関係を示す。ラベル付きデータの個数の変化に対し、疑似ラベリングは一貫してベースラインを上回っている。また、AT の精度はST よりもほぼ一貫して高い。以上から、人手による談話構造デー タが少ないときにも、談話依存構造解析の教師なしドメイン適応に対し疑似ラベリングは有効であることがわかる。 また、注目すべきことに、図 2 は ATによって大幅にアノテーションコスト減らせることを示唆する。例えば、ベースラインシステムが $54.7 \%$ の LAS を実現するためには 742 件のラベル付きデータが必要であるのに対し、ATを用いることで必要なラべル付きデータの個数を 300 件まで減らすことができる。これは、AT によって、 $\frac{742-300}{742} \times 100 \fallingdotseq 60 \%$ のアノテーションコストの削減が可能であることを表す。 ## 3.4 シルバーデータの量と質の重要性 AT における合意基準の間値 $\tau$ と、シルバーデー タの量および解析精度 (LAS, UAS) の関係を調べた結果を図 3 に示す。閾值が低すぎれば、解析器が予測する談話依存構造のうち一致率 (信頼性) が低いものまでシルバーデータに追加されてしまい、結果 図 4 AT による解析結果の混合行列。縦軸および横軸はそれぞれ人手またはシステムによる係り受けに対応する。各行で正規化している。 として解析精度が低くなってしまっている。一方、閾値が高すぎれば、ほとんどの談話依存構造が捨てられてしまい、結果としてシルバーデータの量が少なくなりすぎてしまい、ドメイン適応を行うのが難しくなっている。すなわち、閾値によってシルバー データの量と質が制御され、閾値をうまく調整することで量と質の最適なバランスを実現することができる。 ## 3.5 エラー分析 ATを用いたシステムの解析エラーについて詳しく分析した結果、多くのエラーが以下の 3 つに起因することがわかった。 一つめの要因は、係り受けパターンの頻度の偏りである。低頻度のパターン (e.g., 長さ $\geq 2$, ラベル =Evaluation) を誤って最頻出の係り受けパターン (i.e., 長さ $=1$, ラベル=Elaboration) として解析する傾向が見られた。図 4 は、CORD19-DT における解析結果の混合行列である。それぞれ、係り受けの長さと談話関係ラベルに対応する。長さ 1 の係り受けの 90\%については同定できているのに対し、長さ 2 以上の係り受けについては約 $60 \%$ しか同定できていない。また、談話関係の誤分類のほとんどは Elaboration として予測されており (Elaboration の列を参照)、実際に Elaboration は SciDTB 中で最頻出の談話関係クラスである (付録参照)。 二つめの要因は、談話関係クラスそのものの曖昧性である。例えば、Elaboration と Progression, Cause-effect と Explain の識別は常に自明であるとは限らず、これらはしばしば人間にとっても識別するのが難しい。図 5 は、CORD19-DT のデータに対するシステムの解析結果の例である。EDU 間の係り受け (エッジ) については正しく同定できているが、 エッジ $(1,2)$ についてその関係クラスを Cause-effect 図 5 CORD-19-DT における解析結果の例。赤は解析エラー、青は正解を表す。 図 6 CORD19-DT における解析結果の例。 ではなく Explain と誤分類してしまっている。 最後の要因は、ドメイン (分野)ごとの論旨の展開傾向の違いである。具体例を図 6 に示す。システムは、 $e_{3}$ (head) から $e_{11}$ (modifier)への係り受けのラベルを、 $e_{11}$ の内容は $e_{3}$ の評価結果ではなく研究による知見であるにも関わらず、Evaluation と誤分類している。これは、Evaluation 関係の係り受けの頻度が SciDTB では CORD19-DT にくらべて非常に多く (7.4\% vs. $1.9 \%)$ SciDTB で訓練された解析器が 「Evaluation 関係の係り受けは論文アブストラクトの終盤EDUとの間で起こる」と学習しているからだと考えられる。 ## 4 おわりに 本稿では、談話依存構造解析の教師なしドメイン適応問題に対する疑似ラベリング法 (Self-Training, Co-Training, Tri-Training, Asymmetric Tri-Training) の検討を行った。間値により同意基準を緩和化した Asymmetric Tri-Training が最も効果的であり、 4.1 ポイントの解析精度の向上と $60 \%$ のアノテーションコストの削減が可能であることを確認した。また、間值によって制御できるシルバーデータの量と質のバランスの重要性を示し、解析エラーの 3 つの主要因について分析した。 今後は、CORD19-DT の拡大および、論文全体の談話構造を解析する方法の開発に取り組んでいく。 ## 謝辞 本研究は JST CREST(課題番号: JPMJCR1513) の支援を受けて行った。 ## 参考文献 [1]Yasuhisa Yoshida, Jun Suzuki, Tsutomu Hirao, and Masaaki Nagata. Dependency-based discourse parser for singledocument summarization. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, 2014. [2]Mathieu Morey, Philippe Muller, and Nicholas Asher. A dependency perspective on RST discourse parsing and evaluation. Computational Linguistics, Vol. 44, No. 2, pp. 197-235, 2018. [3]Annie Louis, Aravind Joshi, and Ani Nenkova. Discourse indicators for content selection in summarization. In $S I G$ DIAL'10, 2010. [4]Peter Jansen, Mihai Surdeanu, and Peter Clark. Discourse complements lexical semantics for non-factoid answer reranking. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, 2014. [5]Livia Polanyi and Martin Van den Berg. Discourse structure and sentiment. In 2011 IEEE 11th International Conference on Data Mining Workshops, 2011. [6]Parminder Bhatia, Yangfeng Ji, and Jacob Eisenstein. Better document-level sentiment analysis from RST discourse parsing. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, 2015. [7]Lynn Carlson, Daniel Marcu, and Mary Ellen Okurowski. Building a discourse-tagged corpus in the framework of Rhetorical Structure Theory. In Proceedings of the 2nd SIGdial Workshop on Discourse and Dialogue, 2001. [8]Yangfeng Ji and Jacob Eisenstein. Representation learning for text-level discourse parsing. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, 2014. [9]Shafiq Joty, Giuseppe Carenini, and Raymond T. Ng. CODRA a novel discriminative framework for rhetorical analysis. Computational Linguistics, Vol. 41, No. 3, pp. 385-435, 2015. [10]David Yarowsky. Unsupervised word sense disambiguation rivaling supervised methods. In Proceedings of the 33rd Annual Meeting of the Association for Computational Linguistics, 1995. [11]David McClosky, Eugene Charniak, and Mark Johnson. Effective self-training for parsing. In Proceedings of the 2006 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2006. [12]Roi Reichart and Ari Rappoport. Self-training for enhancement and domain adaptationa of statistical parsers train on small datasets. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics, 2007. [13]Avrim Blum and Tom Mitchell. Combining labeled and unlabeled data with co-training. In Proceedings of the 11 th Annual Conference on Computational Learning Theory, 1998. [14]Mark Steedman, Miles Osborne, Anoop Sarkar, Stephen Clark, Rebecca Hwa, Julia Hockenmaier, Paula Ruhlen, Steven Baker, and Jeremiah Crim. Bootstrapping statistical parsers from small datasets. In Proceedings of the 10th Conference of the European Chapter of the Association for Computational Linguistics, 2003 [15]Yan Zhou and Sally Goldman. Democratic co-learning. In Proceedings of the 16th IEEE International Conference on Tools with Artificial Intelligence, 2004. [16]Zhi-Hua Zhou and Ming Li. Tri-training: Exploiting unlabeled data using three classifiers. IEEE Transactions on Knowledge and Data Engineering, Vol. 17, No. 11, 2005. [17]Kuniaki Saito, Toshitaka Ushiku, and Tatsuya Harada. Asymmetric tri-training for unsupervised domain adaptation. In Proceedings of The 34th International Conference on Machine Learning, 2017. [18]An Yang and Sujian Li. SciDTB: Discourse dependency treebank for scientific abstracts. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, 2018. [19]Lucy Lu Wang, Kyle Lo, Yoganand Chandrasekhar, Russell Reas, Jiangjiang Yang, Douglas Burdick, Darrin Eide, Kathryn Funk, Yannis Katsis, Rodney Kinney, Yunyao Li, Ziyang Liu, William Merrill, Paul Mooney, Dewey Murdick, Devvret Rishi, Jerry Sheehan, Zhihong Shen, Brandon Stilson, Alex D. Wade, Kuansan Wang, Nancy Xin Ru Wang, Chris Wilhelm, Boya Xie, Douglas Raymond, Daniel S. Weld, Oren Etzioni, and Sebastian Kohlmeier. CORD19: The COVID-19 open research dataset. arXiv preprint arXiv:2004.10706, 2020. [20]Yizhong Wang, Sujian Li, and Jingfeng Yang. Toward fast and accurate neural discourse segmentation. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, 2018. ## A 付録: CORD19-DT vs. SciDTB 本付録では、本研究で構築している CORD19-DT と、Yang ら (2018) によって構築された SciDTB の特徵の違いについて報告する。これら二つはそれぞれ医学生物学論文または自然言語処理論文のアブストラクトに対して人手で談話依存構造をアノテーションしており、ここで示す特徴の違いはドメイン間のギャップの大きさ、ドメイン適応の難しさを表す。 表 2 に CORD19-DT と SciDTB の特徴を載せる。医学生物学のアブストラクトの長さ (i.e., 文数、トー クン数) は NLP アブストラクトよりも長い傾向にあることがわかる (7.2 文vs. 5.3 文; 197.5 トークンvs. 130.5 トークン)。一方、平均 EDU 数については一致している (14.0 vs. 14.0)。このことから、医学生物学の EDU は平均的に NLP の EDU よりも長く (情報量が多く)、教師なしドメイン適応ではこの点が課題の一つになりうる。 係り受けの平均長 (談話関係によって結合される EDU 間の平均距離) についてはほぼ等しい $(2.5 \mathrm{vs}$. 2.4)。これは、一般に長い係り受けは読み手への負荷が高いため自然言語文書において起こりにくく、 この傾向は分野に依らないことを示唆する。 一方、文書 $d=e_{1}, \ldots, e_{n}$ 全体の親であり、根ノ一ド $e_{0}$ の唯一の子である Root EDU の平均位置は、医学生物学では前から 5.9 番目であるのに対し、NLP では 3.9 番目であった。両分野ともにアブストラク卜は大まかに研究背景 $\rightarrow$ 研究目的と方法 $\rightarrow$ 結果と考察という順番で記述される傾向にあると考えると、医学生物学では研究背景部分に関する記述が NLP よりも多く、対応して談話依存構造の傾向も分野間で異なることを示唆する。 各データセットにおける談話関係クラスごとの係り受けの分布を表 3 に載せる。いくつかの談話関係については出現率が大きく異なることがわかる。 Elaboration の出現率の違い (47.2 vs. 39.1) については、表 2 で見たように医学生物学アブストラクトは NLP アブストラクトよりも情報量が多く、順接で情報展開されることが多いことを反映していると考えらえる。Evaluation の出現率の違い (1.9 vs. 7.4) については、医学生物学論文の主軸は知見 (実験結果) の記述であることが多く、Root EDU そのものが知見に関するものであることが多いのに対し、NLPでは主軸が開発した手法であることが多く、その評価結果についてアブストラクトの後半で別に記述する傾表 2 CORD19-DT と SciDTB [18] の比較. 数値は各データセットのすべてのアブストラクト数を用いて平均化して 表 3 CORD19-DT と SciDTB における各談話関係クラスごとの係り受けの分布。 向にあることを反映していると考えられる。談話関係の分布は文書においてどのように論旨が展開されるのかという傾向を反映しており、このような論旨の展開傾向の違いはドメイン適応の難しさを表す。
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E7-4.pdf
# 物語におけるイベントの顕現性推定と物語類似性計算への応用 大竹孝樹 1 横井祥 1,2 井之上 直也 ${ }^{2,3}$ 高橋諒 1,2 栗林樹生 1,4 乾健太郎 1,2 1 東北大学 2 理化学研究所 ${ }^{3}$ Stony Brook University ${ }^{4}$ Langsmith 株式会社 \{takaki, yokoi, ryo.t, kuribayashi, inui\}@ecei.tohoku.ac.jp naoya. inoue. lab@gmail.com ## 1 はじめに 物語はあるイベントや一連のイベントの表現である [1]. 物語に登場するイベントはその顕現性(重要さ)が異なり,物語において大きな役割を果たす重要なイベントとそうでないイベントが存在する。童話『シンデレラ』を例に挙げると,「シンデレラが王子に見初められる」というイベントは物語の進行に大きく関わる顕現性の高いイベントだが,「シンデレラが井戸で水を汲む」はそうではない。このようなイベントの顕現性推定は物語の自動生成などのタスクに役立ち,また物語分析のためのツールとしても有用である $[2,3]$. 物語におけるイベントの顕現性推定の有望な応用先として,物語の類似性計算が挙げられる.私たち人間は物語の類似性を自然に認識することができ,例えば「恵まれない境遇の女性が幸運を掴み成功を手に入れる」という物語は我々に『シンデレラ』との類似を思い起こさせる. こういった物語の類似性・類型を対象にした研究は人文学 $[4,5]$ 及び自然言語処理分野 $[6,7,8]$ で盛んに行われてきた. とくに民俗学や物語論では,顕現性の高いイベントに着目して物語の類型分類・分析を行う研究が多く存在し $[5,4,9]$, これらの研究は,物語の類似性を計算機によって計算する際にイベン卜顕現性を考慮することの重要性を示唆している.本研究では,物語論においてロラン・バルト (Roland Barthes) によって提案されたイベント顕現性の概念である枢軸機能体 (Cardinal Functions) $[10,11]$ の定義1) に基づき,あるイベントの顕現性を “そのイベントを物語から削除したときに,物語全体としての首尾一貫性が損なわれる度合い”として推定する手法を提案する [13](2 節)。人手によりイベント顕現性が付与された昔話コーパスに提案法を  ## 言語モデル(首尾一貫性の計算モデル) salience $\left(\boldsymbol{S}_{3}\right)=\operatorname{coherence}\left(\boldsymbol{S}_{\{\mathbf{1}: n\}}\right)-\operatorname{coherence}\left(\widetilde{\boldsymbol{S}}_{\{1: n\}}\right)$ 図 1 バルトの枢軸機能体の概念に基づいた 物語におけるイベントの顕現性推定手法の概要. 適用し,その有効性を実験的に検証する(3 節). 加えて,提案法が物語の類似性計算に有用であるか検証するため,提案法を利用した物語の類似性計算方法を検討する.民俗学の専門家により物語の類型が付与された民話コーパスにおける実験で,提案法によりイベント顕現性を考慮する効果を実験的に検証する(4 節)。 ## 2 物語におけるイベント顕現性推定 ## 2.1 タスク設定 本研究では Ouyang ら [2] に従い,イベントそのものではなく文の顕現性を推定するタスクに取り組む. すなわち,物語を構成する各文に対して, その文が顕現性の高いイベントを含む度合いを推定する。形式的には, $n$ 個の文から構成される物語 $S_{\{1: n\}}:=\left.\{S_{1}, \ldots, S_{n}\right.\}$ と,ターゲット文 $S_{k} \in S_{\{1: n\}}$ が与えられ,タスクは $S_{k}$ に対する顕現性スコア $\sigma\left(S_{k}, S_{\{1: n\}}\right) \in \mathbb{R}$ を予測することである. ## 2.2 提案手法 概要バルトの枢軸機能体の定義に基づき,顕現性スコア $\sigma\left(S_{k}, S_{\{1: n\}}\right)$ を “文 $S_{k}$ に含まれる全てのイベントを $S_{\{1: n\}}$ から削除した際に,物語全体としての首尾一貫性が損なわれる度合い”として計算する。提案法の概要を図 1 に示す。 $r$ を後述するイベント削除関数とし, $\widetilde{S}_{\{1: n\}}:=$ $\left.\{S_{\{1: k-1\}}, r\left(S_{k}\right), S_{\{k+1: n\}}\right.\}$ を, $S_{\{1: n\}}$ において $S_{k}$ に含まれる全てのイベントが削除された物語とする。 $c(S)$ を物語 $S$ の首尾一貫性スコアとすれば, $S_{k}$ に対する顕現性スコアは以下の式で与えられる。 $ \sigma\left(S_{k}, S_{\{1: n\}}\right):=c\left(S_{\{1: n\}}\right)-c\left(\widetilde{S}_{\{1: n\}}\right) $ イベントの削除方法イベント削除関数 $r$ として以下の 3 つを検討する。 ・文削除: 文そのものを削除する - 動詞置換: 文に含まれる全ての動詞を,“do”, “does”,“did”など一般的な動詞で置き換える2) - 動詞 - 項置換: 動詞置換と同様の処理に加え, 動詞の項(主格・目的格)を不定代名詞“someone”, “something”で置き換える") 物語の首尾一貫性の計算方法 See ら [14] に従い,事前学習済み言語モデルによって計算される物語テキストの生成確率をその物語の首尾一貫性スコアと見なす. 物語テキストの首尾一貫性スコア $c(S)$ は以下の式で与えられる。 $ c\left(S_{\{1: n\}}\right):=\frac{1}{\left|S_{\{k+1: n\}}\right|} \log P\left(S_{\{k+1: n\}} \mid S_{\{1: k-1\}}, S_{k}\right), $ $c\left(\widetilde{S}_{\{1: n\}}\right):=\frac{1}{\left|S_{\{k+1: n\}}\right|} \log P\left(S_{\{k+1: n\}} \mid S_{\{1: k-1\}}, r\left(S_{k}\right)\right)$, ここで $\left|S_{\{k+1: n\}}\right|$ は $S_{\{k+1: n\}}$ に含まれるトークンの総数である. 詳細を付録 A. 1 に示す. ## 3 実験 1: 物語中の文の顕現性推定 本節では,提案法が物語におけるイベント顕現性を推定できるかどうかを実験的に確かめる.具体的には,人手によりイベント顕現性が付与された物語コーパスを用いて,各提案法の性能を複数のベースライン手法と比較する. ## 3.1 実験設定 データセット評価用データセットとして, Finlayson [15] によって提案された ProppLearner コー パスを使用した。コーパスの基本統計量を付録 A. 2 の表 3 に示す.コーパス中の各物語には,動詞に対 2)置換先の一般的な動詞として "do", “does", “did", “done”, “doing”を使用する.例えば,品詞タグが VBZ(三人称単数現在形の動詞)である場合,“does”で置き換える. 3)ARG0 (agent) に該当するテキストのスパンを “someone”で, ARG1 (patient) に該当するスパンを“something”で置き換える。 して Propp の機能4)(顕現性の高いイベント)が付与されている. 2.1 節のタスク設定に従い,各手法はそのような動詞を含む文を判別する. 提案法に用いる言語モデル首尾一貫性の計算に使用する言語モデルとして, 事前学習済みの GPT-2 [17]を使用した. 物語ドメインへの適応の度合いが異なる 3 種類の fine-tuning の設定を検討する。 ・ fine-tuning なし: 事前学習済みの GPT-2をそのまま使用する。 - BookCorpus: 一般的な物語ドメインへの適応を狙い,物語ドメインの大規模コーパスである BookCorpus [18] で fine-tuning する. $\cdot$ ProppLearner: トランスダクティブ設定 $[19,20]$ のドメイン適応として, ProppLearnerコーパスで fine-tuning する. ベースライン手法提案法の比較対象として,以下のベースライン手法を検討する: ・ランダムベースライン: 各文に対して $[0,1)$ の範囲のランダムなスコアを与える. ・TF-IDFベースライン: 各文に対してその文を構成する単語の TF-IDF 値の和を与える。 ## 提案法と TF-IDF ベースラインの組み合わせ手法加えて, 各提案法と TF-IDFベースラインを組み合 わせる手法を検討する.各提案法と TF-IDFベース ラインが各文に対して計算する顕現性スコアはまず 各物語内で $[0,1]$ の値に正規化され,それら 2 つの 値の和が組み合わせ手法の顕現性スコアとなる。 以上より,提案法はイベント削除方法 ( 3 種類) $\times$言語モデルの fine-tuning 設定 $(3$ 種類 $)=9$ 種類のバリエーションをもつ.TF-IDFベースラインとの組み合わせ手法を含めると計 18 種類となる. 評価指標 Liu ら [21] に従い,顕現性推定をランキング問題とみなして評価を行う。すなわち,各手法はそれぞれの物語に含まれる文を顕現性スコアの高い順にランク付けし, 最終的に構成されるランキングの良さを評価する。評価尺度として,2 値適合性に基づくランキングの評価に一般的に用いられる Mean Average Precision (MAP) [22]を使用した. ## 3.2 実験結果 表 1 に各手法の結果を示す. +TF-IDF に対応する行は組み合わせ手法の結果を表している。全提案法 4)Propp の機能は “登場人物の行為で、しかも、筋=出来事全体の展開過程にとって当の行為がもちうる意義 (位置) という観点から規定された登場人物の行為” [16] と定義される. は一貫してランダムベースラインの性能を上回り,提案法単独では (文削除, ProppLearner) が最も高い性能を示した。 イベントを削除する方法の比較動詞置換や動詞・項置換と比べて,文削除が概ね良い性能を示していることがわかる. 動詞置換や動詞・項置換によるイベント削除は文からイベントの情報のみをより精緻に削除することが期待されたが,実験結果はこれらのイベント削除方法は効果的でないことを示している.動詞置換や動詞・項置換では,文に含まれる単語を置換する操作によって不自然な文が生成され,こうした文が言語モデルの推論に悪影響を及ぼしている可能性が考えられる. 言語モデルの fine-tuning の効果 GPT-2を BookCorpus で fine-tuning した場合には一貫して提案法の MAP スコアが改善しており,またトランスダクティブ設定の fine-tuning をした場合には文削除と動詞・項置換による提案法の MAP スコアが改善していることが確認できる。これらの結果から,首尾一貫性の計算に使用する言語モデルを物語ドメインに適応させることが有効であることがわかる. 提案法と TF-IDF ベースラインの組み合わせ手法組み合わせ手法は全ての場合で各提案法そのもの, あるいは TF-IDF ベースラインそのものの性能を一貫して上回る結果となり,最終的に提案法(文削除, BookCorpus)と TF-IDF ベースラインの組み合わせが全手法の中で最も高い性能を達成した. これらの結果は,バルトの枢軸機能体の概念に基づいて提案法が計算するイベント顕現性の手がかりと,単語の頻度・逆文書頻度に基づく手がかりが相補的な関係にあり,これらが統合されることでより良いイベン卜顕現性の尺度となっていることを示唆している。 付録 A. 3 の表 5 に童話『シンデレラ』の toy example に対する提案法の実際の振る舞いを示す. ## 4 実験 2: 物語類似性計算への応用 本節では,提案法が計算する顕現性スコアが物語の類似性計算に有用であるか実験的な検証を行う。具体的には,まずイベント顕現性を考慮する儿ないという点のみが異なる物語の類似性計算方法を検討する。次にそれらを専門家による分類が付与された物語データセットに適用し,内的/外的な評価を行うことで,提案法により顕現性を考慮することで物語の類似性計算が改善するかどうかを確かめる。 表 1 各手法のMAP スコア. ランダムベースラインはシード值を変えて 10 回の実験を行った際の平均值である (標準偏差 $=0.015)$. ダガーのついた値はランダムベースラインから $p<0.05$ で統計的に有意な差があったものを示している。統計的検定は Wilcoxon signed-rank test [23] により行った.太字の值は提案法単独で最も性能が高いものを,太字かつ斜体の値は提案法と TF-IDF ベースラインの組み合わせ手法の中で最も性能が高いものを示す。 ## 4.1 物語類似性の計算方法 物語テキスト $S$ 及び $S^{\prime}$ の埋め込み表現をそれぞれ $\mathbf{S}, \mathbf{S}^{\prime}$ とする. $\mathbf{S}, \mathbf{S}^{\prime}$ はそれぞれ物語 $S$ 及び $S^{\prime}$ を構成する文の文ベクトル和である. 本研究では $S$ と $S^{\prime}$ の類似度 $\operatorname{sim}\left(S, S^{\prime}\right)$ をコサイン類似度 $\cos \left(\mathbf{S}, \mathbf{S}^{\prime}\right)$ で計算する。 イベント顕現性を考慮しない場合: 文ベクトルを,文を構成する単語の単語ベクトルの和とする。 イベント顕現性を考慮する場合:文ベクトルを,文を構成する単語の単語べクトルの顕現性重みつき和とする。重みは提案法が文に対して計算した顕現性スコア゙)であり,(文削除, fine-tuning なし) 及び (文削除, BookCorpus) の 2 通りを検討する. 比較対象として,重みを単語の TF-IDF 值とするべースラインを検討する。また各提案法と TF-IDFベースラ 5)顕現性スコアは負の値をとる場合もあるため,重みは $1+[0,1]$ に正規化した顕現性スコアとした。 6) 重みを 1 + (正規化した顕現性スコアと正規化した TF-IDF 値の平均値)とした。 & \\ TF-IDF & - & $\mathbf{. 1 7 8 0}$ & .0029 & .0034 \\ fine-tuning なし) & $\checkmark$ & .1724 & .0049 & .0052 \\ BookCorpus) & $\checkmark$ & .1725 & $\mathbf{. 0 0 6 0}$ & $\mathbf{. 0 0 5 4}$ \\ 表 2 物語の類似性計算の実験結果. 太字の値は各指標で最も性能が高いものを示す。+TF-IDF に対応する行は各提案法と TF-IDFベースラインの組み合わせ手法を示す. インの組み合わせ手法6)を検討する.全ての場合で重み付けを行う単語は文に含まれる動詞とその項 (主格・目的格)とした. ## 4.2 実験設定 データセット評価用データセットとして,大竹ら [24] が作成した 793 編の民話からなるデータセットを使用した. データセットの基本統計量を付録 A. 2 の表 4 に示す. 各物語には,民俗学において最も一般的な民話の分類体系の一つであるATU 分類 [5] が付与されている.ATU 分類は,物語をそのモチーフ(物語中に出現する特徵的な要素,たとえば「Crimes punished (罪が罰せられる)」)に基づき階層的に分類した体系である. 内的な評価方法: RSA Score ATU 分類の分類木上での物語の距離構造が,どの程度埋め込み空間にエンコードされているかを RSA Score $[25,26] を$用いて定量的に評価する. 今回使用する民話デー タセットの埋め込み空間における表現を $r_{1}$, 分類木上での離散的な表現を $r_{2}$ とする. Bouchacourt ら [26] に従い, $r_{1}$ 内で物語ぺアの全組み合わせについて類似度を計算し,その類似度列を $s_{1}, r_{2}$ において同様に求めた類似度列を $s_{2}$ として, $s_{1}$ と $s_{2}$ の間のスピアマンの順位相関係数を RSA Score とする。ただし,分類木における物語間の類似度は,物語 $S$ と $S^{\prime}$ の分類木上でのパス長を $\operatorname{dist}\left(S, S^{\prime}\right)$ とし, $\max _{S, S^{\prime}}\left[\operatorname{dist}\left(S, S^{\prime}\right)\right]-\operatorname{dist}\left(S, S^{\prime}\right)$ として計算した. RSA Score の値が高ければ,ATU 分類における物語の距離構造が,埋め込み空間によく反映されている (すなわち, $r_{1}$ で近い物語ペアは $r_{2}$ で近く, $r_{1}$ で遠い物語ぺアは $r_{2}$ で遠くなっている)ことを示す. 外的な評価方法: ARIによるクラスタリング評価先に述べた複数の類似性計算方法により物語の集合をクラスタリングし,結果が専門家による分類であ る ATU 分類とどの程度一致するかを評価する。クラスタリング結果の分割 $\widehat{C}$ と正解の分割 $C$ の一致の尺度として,一般的に用いられる Adjusted Rand Index(以下 ARI)[27]を用いた。また,クラスタリングアルゴリズムとして階層的凝集型クラスタリング(群平均法)を使用した。クラスタリングとその結果の評価は, ATU 分類の中間層における分類 (例: ATU type1-99『野生動物』), 及び最下層における分類 (例: ATU type333『赤ずきん』)の 2 通りで行った.内的/外的な評価実験共に,単語ベクトルとして学習済みの GloVe [28]を使用した。 ## 4.3 実験結果 結果を表 2 に示す. RSA Score による内的な評価に注目すると,イベント顕現性を考慮しない場合と比較して,提案法によってイベントの顕現性を考慮することで物語の類似性計算が改善していることがわかる.クラスタリングによる外的な評価に注目すると,提案法単独の重み付けをおこなった場合, ATU 分類の最下層におけるクラスタリングでは効果が見られなかったものの,中間層においては提案法のイベント顕現性スコアを考慮することでょり正解の分類と近いクラスタが形成されていることがわかる.また実験 1 の結果(3節)と同様, 評価指標によらず提案法と TF-IDF ベースラインを組み合わせることで提案法単体よりも性能が向上していることが確認できる。これらの結果は,バルトの枢軸機能体の概念に基づく提案法が物語の類似性計算に役立つ可能性を示唆するものである. ## 5 おわりに 本論文では,物語論におけるイベント顕現性の概念であるロラン・バルトの枢軸機能体の定義を足掛かりに,物語におけるイベントの顕現性を言語モデルを利用して推定する教師なし手法を提案した。人手によりイベント顕現性が付与された昔話データセットにおける実験で,提案法はべースライン手法の性能を上回ることを示した。加えて,物語におけるイベント顕現性推定の有望な応用先として,提案法が物語の類似性計算に有用であるか検証を行った. 専門家による類型分類が付与された民話データセットにおける実験で,提案法が物語の類似性計算に役立つ可能性が示唆された。 謝辞本研究は JSPS 科研費 JP19H04425 の助成を受けたものである. ## 参考文献 [1] H Porter Abbott. The Cambridge Introduction to Narrative. Cambridge Introductions to Literature. Cambridge University Press, 2 edition, 2008. [2] Jessica Ouyang and Kathleen McKeown. Modeling Reportable Events as Turning Points in Narrative. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2149-2158, Lisbon, Portugal, 9 2015. Association for Computational Linguistics. [3] Pinelopi Papalampidi, Frank Keller, and Mirella Lapata. Movie Plot Analysis via Turning Point Identification. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 1707-1717, Hong Kong, China, 11 2019. Association for Computational Linguistics. [4] Vladimir Propp. Morphology of the Folktale. University of Texas Press, 1968. [5] Hans-Jörg Uther. The Types of International Folktales: A Classification and Bibliography, based on the system of Antti Aarne and Stith Thompson, Vol. 1-3. Suomalainen Tiedeakatemia, Academia Scientiarum Fennica, Helsinki, 2004. [6] Lisa Friedland and James Allan. Joke retrieval: recognizing the same joke told differently. In Proceedings of the 17th ACM Conference on Information and Knowledge Management (CIKM), pp. 883-892, Napa Valley, California, USA, 2008. Association for Computing Machinery. [7] Dong Nguyen, Dolf Trieschnigg, and Mariët Theune. Using Crowdsourcing to Investigate Perception of Narrative Similarity. In CIKM, CIKM '14, pp. 321-330, New York, NY, USA, 2014. ACM. [8] Snigdha Chaturvedi, Shashank Srivastava, and Dan Roth. Where Have I Heard This Story Before? Identifying Narrative Similarity in Movie Remakes. In NAACL, pp. 673-678, New Orleans, Louisiana, 6 2018. Association for Computational Linguistics. [9] A Aarne and S Thompson. The types of the folktale: a classification and bibliography. FF communications. Suomalainen Tiedeakatemia, Academia Scientarum Fennica, Helsinki, 1961. [10] Roland Barthes. Introduction à l'analyse structurale des récits. Communications, 8, 1966. Recherches sémiologiques : l'analyse structurale du récit., 1966. [11] Roland Barthes and Lionel Duisit. An Introduction to the Structural Analysis of Narrative. New Literary History, Vol. 6, No. 2, p. 237, 1975. [12] Gerald Prince, 遠藤健一. 物語論辞典. 松柏社叢書, 言語科学の冒険 4. 松柏社, 改訂, 2015. [13] Takaki Otake, Sho Yokoi, Naoya Inoue, Ryo Takahashi, Tatsuki Kuribayashi, and Kentaro Inui. Modeling Event Salience in Narratives via Barthes' Cardinal Functions. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 17841794, Barcelona, Spain (Online), 12 2020. International Committee on Computational Linguistics. [14] Abigail See, Aneesh Pappu, Rohun Saxena, Akhila Yerukola, and Christopher D Manning. Do Massively Pretrained Language Models Make Better Storytellers? In Proceedings of the 23rd Conference on Computational Natural Language Learning (CoNLL), pp. 843-861, Hong Kong, China, 11 2019. Association for Computational Linguistics. [15] Mark A Finlayson. ProppLearner: Deeply annotating a corpus of Russian folktales to enable the machine learning of a Russian formalist theory. Digital Scholarship in the Humanities, Vol. 32, No. 2, pp. 284-300, 2015. [16] Vladimir Propp, 北岡誠司, 福田美智代. 昔話の形態学. 叢書記号学的実践, No. 10. 白馬書房, 1987. [17] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language Models are Unsupervised Multitask Learners. OpenAI Blog, Vol. 1, No. 8, 2019. [18] Yukun Zhu, Ryan Kiros, Rich Zemel, Ruslan Salakhutdinov, Raquel Urtasun, Antonio Torralba, and Sanja Fidler. Aligning Books and Movies: Towards Story-Like Visual Explanations by Watching Movies and Reading Books. In The IEEE International Conference on Computer Vision (ICCV), 122015. [19] Vladimir Vapnik. Statistical learning theory. Wiley, 1998. [20] Hiroki Ouchi, Jun Suzuki, and Kentaro Inui. Transductive Learning of Neural Language Models for Syntactic and Semantic Analysis. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3665-3671, Hong Kong, China, 11 2019. Association for Computational Linguistics. [21] Zhengzhong Liu, Chenyan Xiong, Teruko Mitamura, and Eduard Hovy. Automatic Event Salience Identification. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1226-1236, Brussels, Belgium, 2018. Association for Computational Linguistics. [22] Christopher D Manning, Prabhakar Raghavan, and Hinrich Schütze. Evaluation in information retrieval. In Introduction to Information Retrieval, p. 139-161. Cambridge University Press, 2008. [23] Frank Wilcoxon. Individual Comparisons by Ranking Methods. Biometrics Bulletin, Vol. 1, No. 6, pp. 80-83, 1945. [24] Recurrent Neural and Point-wise Mutual. 顕現的要素の出現順序に基づく物語の類似性尺度. 言語処理学会第 25 回年次大会発表論文集, pp. 304-307, 2019. [25] Nikolaus Kriegeskorte, Marieke Mur, and Peter Bandettini. Representational similarity analysis - connecting the branches of systems neuroscience. Frontiers in Systems Neuroscience, Vol. 2, No. NOV, pp. 1-28, 2008. [26] Diane Bouchacourt and Marco Baroni. How agents see things: On visual representations in an emergent language game. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 981-985, Brussels, Belgium, 2018. Association for Computational Linguistics. [27] Lawrence Hubert and Phipps Arabie. Comparing Partitions. Journal of Classification, Vol. 2, No. 1, pp. 193-218, 1985. [28] Jeffrey Pennington, Richard Socher, and Christopher Manning. \{G\}love: Global Vectors for Word Representation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1532-1543, Doha, Qatar, 10 2014. Association for Computational Linguistics. [29] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, and Jamie Brew. HuggingFace's Transformers: State-of-the-art Natural Language Processing. arXiv:1910.03771, 2019. [30] Lars Buitinck, Gilles Louppe, Mathieu Blondel, Fabian Pedregosa, Andreas Mueller, Olivier Grisel, Vlad Niculae, Peter Prettenhofer, Alexandre Gramfort, Jaques Grobler, Robert Layton, Jake VanderPlas, Arnaud Joly, Brian Holt, and Gaël Varoquaux. API design for machine learning software: experiences from the scikit-learn project. In ECML PKDD Workshop: Languages for Data Mining and Machine Learning, pp. 108-122, 2013. [31] Chikashi Nobata, Satoshi Sekine, and Hitoshi Isahara. Evaluation of Features for Sentence Extraction on Different Types of Corpora. In Proceedings of the ACL 2003 Workshop on Multilingual Summarization and Question Answering, pp. 29-36, Sapporo, Japan, 7 2003. Association for Computational Linguistics. [32] Matt Gardner, Joel Grus, Mark Neumann, Oyvind Tafjord, Pradeep Dasigi, Nelson F Liu, Matthew Peters, Michael Schmitz, and Luke S Zettlemoyer. AllenNLP: A Deep Semantic Natural Language Processing Platform. 2017. ## A 付録 ## A. 1 提案法詳細 首尾一貫性の計算に使用した GPT-2 は,一度に入力できるテキストの長さに制限があるため,実装上はターゲット文の前後の文脈を適当に捨てることで首尾一貫性スコア $c\left(S_{\{1: n\}}\right)$ を計算した: $ c(S)=\frac{1}{\left|S_{\left.\{k+1: n-\ell^{\prime}\right.\}}\right|} \log P\left(S_{\left.\{k+1: n-\ell^{\prime}\right.\}} \mid S_{\{1+\ell: k-1\}}, S_{k}\right) $ $\left|S_{\{i: j\}}\right|$ は $\left(S_{i}, \ldots, S_{j}\right)$ に含まれるトークンの総数を示す. $\ell^{\prime}$ 及び $\ell$ は言語モデルの最大入力長 $L$ によって決まる閾値であり, $\left|S_{\left.\{k+1: n-\ell^{\prime}\right.\}}\right|+\left|S_{\{1+\ell: k\}}\right|$ が $L$ 以下かつ最大の值をとるように定める. $c(\widetilde{S})$ についても同様である. ただし $P\left(S_{i}\right)$ はトー クンの生成確率の積である: $ \log P\left(S_{i} \mid \text { context }\right)=\log P\left(w_{1}^{(i)} \mid \operatorname{context}\right)+\sum_{j=2}^{\left|S_{i}\right|} \log P\left(w_{j}^{(i)} \mid \operatorname{context}, w_{1}^{(i)}, \ldots, w_{j-1}^{(i)}\right) $ また,各物語の最後の文の顕現性スコアを計算するため,各物語の末尾に文書の区切りを示す特殊トークンを添加した. 提案法はこの特殊トークンの生成確率を利用することで,各物語の最後の文の顕現性スコアを他の文と同様に計算することが可能である. ## A. 2 実験に使用したデータセットの基本統計量 表 3 ProppLearnerコーパスの基本統計量 表 4 大竹ら [24] が作成した民話コーパスの基本統計量 ## A. 3 提案法の toy example に対する振る舞い 表 5 童話『シンデレラ』の toy example に対して提案手法 (文削除,fine-tuning なし)を適用した際の振る舞い. 提案法の実際の物語に対する振る舞いを定性的に分析するため,6文から構成される童話『シンデレラ』の toy example に対して提案法を適用した. 表 5 に,各文に対して提案法(文削除,fine-tuningなし)が計算した顕現性スコアを示す.「魔法使いが現れ,シンデレラにドレスや馬車,御者を与える」や「シンデレラが王子に見初められる」といった顕現性の高いイベントを表現している文に対しては,「シンデレラが井戸で水を汲む」といった顕現性が低いイベントを表す文よりも高い顕現性スコアを与えていることがわかる. ## A. 4 実装の詳細 GPT-2 の実装は transformers [29] の事前学習済みモデル (12-layer, 768-hidden, 12-heads, 117M parameters)を使用した. 実験 1,2 で行った顕現性スコアのスケーリングには,scikit-learn [30] の MinMaxScalerを使用した. 実験 1,2 の TF-IDFべー スラインでは野畑ら [31] の研究において T3 と呼ばれる修正 TF-IDF 值を使用した. イベントを表す単語(動詞とその項) の抽出について,実験 1 では ProppLearner コーパスが品詞タグや述語項構造のアノテーションを含んでいるためこれらをそのまま利用した.実験 2 で使用した大竹ら [24] の民話コーパスはそのようなアノテーションを含まないため, Allen NLP [32] が提供している述語項構造解析器の実装5)を用い,その解析結果を利用した. 5) https://demo.allennlp.org/semantic-role-labeling
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E8-1.pdf
# $A B C$ ツリーバンク:学際的な言語研究のための基盤資源 窪田悠介 国立国語研究所 kubota@ninjal.ac.jp 林則序 東京大学 hayashi@phiz.c.u-tokyo.ac.jp ## 1 はじめに NLP と理論言語学の融合的研究に活用可能な日本語の範疇文法ツリーバンクである ABC ツリーバンクを構築した。ツリーバンクのデータ,構築のために開発したツール群,マニュアルは, https://github.com/ABCTreebank/で公開する。本論文では,主要な言語現象のアノテーションを概説し,活用事例として,このツリーバンクを学習デー タとして統語パーサ(CCG パーサ)を訓練し,論理的意味表示に基づいてパーサの性能を評価する実験を試行的に行った結果について報告する。1) ## 2 ABC 文法の概要 $\mathrm{ABC}$ リーバンクで用いられているのは ABC 文法という範疇文法の一種である。これは組み合わせ範疇文法 (CCG; [14, 18]) やタイプ論理文法 (TLG; $[12,11,7])$ といった特定の範疇文法の流派へのコミットメントを避けながらも,それらの文法への変換の土台となりうる,汎用性を重視した中間的枠組みである。以下, $\mathrm{ABC}$ 文法の基本的な構成要素であるカテゴリと素性,および種々の規則を示す。 ## 2.1 カテゴリと素性 $\mathrm{ABC}$ 文法で用いられている基本カテゴリ (atomic category)のうち,代表的なものを表 1 に挙げる。2) カテゴリには素性が表示されることがある。3)素性は小文字で始め,大文字のカテゴリに続けて表記 //github.com/ajb129/KeyakiTreebank) [4] からの変換によって構築された。構築の詳細については $[19,8]$ を参照。 2) S,CP はそれぞれ,元コーパスのけやきツリーバンクでの IP, CP に対応し, 生成文法での区分とは必ずしも一致しない。 3)素性による区別は,けやきツリーバンクにおける拡張タグを用いた区別におおむね準ずる。 } 峯島宏次 慶應義塾大学 minesima@abelard.flet.keio.ac.jp 岡野伸哉 東京大学 okano@phiz.c.u-tokyo.ac.jp 表 1 代表的な基本カテゴリ する。以下では代表的な素性をカテゴリと合わせて列挙する。 文法役割を示すもの PPs (主語), PPs2 (第二主語), PPo1 (第一目的語), PPo2 (第二目的語), CPt-sbj (補部節主語), CPq-sbj (疑問節主語) ${ }^{4}$ 節の種類を示すもの $\mathrm{Sa}$ (連用節), $\mathrm{Se}$ (空所なし名詞修飾節), Simp (命令節), Sm (主節), Snml (名詞化節), Srel (関係節), Ssmc (小節), Ssub (準主節), $\mathrm{CPf}$ (終助詞節), $\mathrm{CPq}$ (疑問節) $\mathrm{CPt}$ (補部節), $\mathrm{CPx}$ (感嘆節) ## 量化的であることを示すもの $\mathrm{NPq$} 一般に範疇文法では,X,Y がカテゴリであるならば, $\mathrm{X} / \mathrm{Y}, \mathrm{Y} \backslash \mathrm{X}$ もカテゴリ(関数的カテゴリ)である。例えば,自動詞は $\mathrm{PPs} \backslash \mathrm{S}$ ,他動詞は $\mathrm{PPo} 1 \backslash(\mathrm{PPs} \backslash \mathrm{S})$ というカテゴリを付与される。 ## 2.2 統語規則 $\mathrm{ABC}$ 文法という名前には,関数適用の規則のみをもつ $\mathrm{AB}$ 文法 $[1,3]$ に,関数合成 (Function Composition)の規則を加えたもの,という由来がある。したがってこの 2 つは基本的な規則として置か  れている。図1にこれを示す。5) 図 1 基本的な規則 上に示した binary 規則だけでなく,ある 1 つのカテゴリを別のカテゴリに変換する,unary 規則も存在する。これは日本語を分析するにあたっての必要性から用いられるもので,上記の一般的な規則とは異なり,適用可能なカテゴリ・素性が限られている。unary 規則は以下のものに大別される。(i) 名詞の項化・述語化; (ii) 関係節による名詞修飾 ; (iii) 連用節化・副詞化; (iv) かき混ぜ。以下,規則において素性の指定がない場合は,カテゴリさえ合致していればそれが適用可能であるということを意味する。 ## 2.2.1 名詞の項化・述語化 名詞 $\mathrm{N}$ はまず名詞句 $\mathrm{NP}$ を投射した上で,さらに述語または項としてのカテゴリを投射する。以下,関連する unary 規則を簡単に説明する (表 2 参照)。 名詞の名詞句化本ツリーバンクでは, 基本カテゴリとして N と NP の区別を行い,N から NP へは,つねに 1 本の unary branch が伸びる。 名詞句の述語化コピュラが後続する名詞句はそれ自体が述語と見なされ,S で終わるカテゴリとなる(コピュラは $\mathrm{S} \backslash \mathrm{S}$ のようなカテゴリを与えられ,関数合成で述語名詞句と結びつく)。 名詞句の後置詞句化表層で格助詞が落ちる名詞句も,格助詞のある場合と同じカテゴリとして扱うため unary 規則で PP を投射する。 表 2 名詞の項化・述語の規則 (抜粋) ## 2.2.2 関係節による名詞修飾 日本語には英語のような明示的な関係代名詞が存在しないため,表 3 に代表される規則を用いて関係節 (Srel) を名詞を修飾するカテゴリ(N/N)へと変換する。  / \$$ は $\mathrm{X}, \mathrm{X} / \mathrm{Y},(\mathrm{X} / \mathrm{Y}) / \mathrm{Z}, \ldots$ のいずれかを, $\$ \mathrm{X}$ は $\mathrm{X}, \mathrm{Y} \backslash \mathrm{X}$, $\mathrm{Z} \backslash(\mathrm{Y} \backslash \mathrm{X}), \ldots$ のいずれかを表す。 } 表 3 関係節による名詞修飾の規則 (抜粋) ## 2.2.3 連用節化・副詞化 バンクの仕様を引き継ぎ,動詞の連用形と終止形をカテゴリの上で区別しない。一方で,両ツリーバンクは連用節に特別のカテゴリを与えている(けやきツリーバンクにおける連用節 IP-ADV が ABC ツリー バンクの $\mathrm{Sa}$ に対応する)。この情報を利用し,動詞の連用形が「て・で」などの接続助詞を伴わずに連用節をなすケースについて,表 4 上段の規則を導入する。つまり,Saで終わるカテゴリから,S で終わるカテゴリを修飾するカテゴリへの変換である。 加えて,「今朝」のような副詞的な用法をもつ名詞句についても,同様に S で終わるカテゴリを修飾するカテゴリへの変換規則が必要である (表 4 下段)。 表 4 連用節化・副詞化の規則 (抜粋) ## 2.2.4 かき混ぜ ABC ツリーバンクでは,かき混ぜ (scrambling)を規則で扱う。例えば,「主語-目的語-述語」という語順と,「目的語-主語-述語」という語順に対応して,同じ音形の述語に別個の語彙項目を割り当てるのではなく,前者を基本語順として,それ以外の語順は規則適用によって捉える,という扱いをする (表 5)。 表 5 かき混ぜの規則 (抜粋) ## 3 意味表示 範疇文法をフレームワークとして用いる ABC リーバンクは,統語構造と意味表示との対応に関して明示的な解析を与える。範疇文法の意味パーサ ccg2lambda [9], および,辞書としての意味テンプ レートを用いることで, $\lambda$ 計算に基づく意味合成に 出木を自動的に得ることができる。意味表示としては一階論理 (FOL),談話表示構造 (DRS) [6],高階論理 (HOL) の 3 つの出力形式を用いる。 具体例として,(1)の各意味表示を以下に示す。 (1) 窓が開けてある。 (Keyaki:13_textbook_djg_gram_terms) FOL: $\exists x_{1} \exists x_{2}$. (窓 $\left(x_{2}\right) \wedge \exists e_{3}$. ( 開ける $\left(e_{3}\right) \wedge \arg \_\mathrm{s}\left(e_{3}, x_{1}\right) \wedge$ arg_01 $\left.\left.\left(e_{3}, x_{2}\right) \wedge \tau\left(e_{3}\right)\right)\right)$ DRS: $\left(\left.\{x_{1}, x_{2}, e_{3}\right.\},\left.\{\right.\right.$ 窓 $\left(x_{2}\right)$, 開ける $\left(e_{3}\right), \arg s\left(e_{3}, x_{1}\right)$, $ \left.\left.\left.\arg 001\left(e_{3}, x_{2}\right), \tau\left(e_{3}\right)\right)\right.\}\right) $ HOL: ある $(\lambda y \lambda x$. 開ける $(x, y)$, 窓 $)$ それぞれの意味表示について簡単に説明する。 FOL FOL の意味表示は Neo-Davidsonian Event Semantics [13] に基づく。ここで, $\arg s(e, x)$ と arg_01 $(e, x)$ はそれぞれ,ABC 文法のカテゴリ PPs と PPo1 に対応する意味役割であり, 「イベント $e$ の主体は個体 $x$ である」「e の対象は $x 」 を$ 表す。 (1)では,「(て) ある」を受身に類する述語として解析することで,適切な述語項構造が得られている。6) DRSDRS は意味合成によって導出された FOL の意味表示からの自動変換によって得られる。DRS は, 談話指示物 (discourse referent) $の$ 集合 $D$ と条件の集合 $C$ の対 $(D, C)$ から構成され, 図 2 のように Box 表記により見通しよく表すことができる。また 4 節で述べるように,DRS を節形式に変換することで意味表示の評価に用いることができる。 HOL HOL は範疇文法の統語構造に即した意味表現であり,範疇文法の意味合成の過程を関数と項の形で明示的に記述することができる。上の HOL の例では,「(て) ある」は高階述語として扱われ,2 項述語「開ける」を項とし, その項構造を変化させる役割を担う。 ここで使用している論理的な意味表示の特徴として, 量化や否定,モーダル表現などのスコープを明示的に表現できることが挙げられる。例えば,以下に示す (2)の各意味表示は, 理由の「から」および否定「ない」がもつスコープ関係を捉えたものである。 (2)咳がなおらないから,病院に行きます。 (642_textbook_purple_basic) 6)使役・受身やコントロール述語などの文末述語の扱いについて詳しくは $[19,8]$ を参照。 図 2 (1)と(2)の DRS の Box 表記 FOL: $\exists x_{1}$. (病院 $\left(x_{1}\right) \wedge \exists e_{2}$. (行く $\left(e_{2}\right) \wedge \arg \mathrm{s}\left(e_{2}\right.$, speaker $) \wedge$ に $\left(e_{2}, x_{1}\right) \wedge$ から $\left(e_{2}, \neg \exists x_{3}\right.$. 咳 $\left(x_{3}\right) \wedge \exists e_{4}$. なおる $\left(e_{4}\right) \wedge$ $\left.\left.\left.\left.\left.\arg \mathrm{s}\left(e_{4}, x_{3}\right)\right)\right)\right)\right)\right)$ DRS: $\left(\left.\{x_{1}, e_{2}\right.\},\left.\{\right.\right.$ 病院 $\left(x_{1}\right)$, 行く $\left(e_{2}\right)$, arg_s $\left(e_{2}\right.$, speaker $)$, に $\left(e_{2}, x_{1}\right)$, から $\left(e_{2}, \neg\left(\emptyset,\left.\{\left(\left.\{x_{3}, e_{4}\right.\},\left.\{\right.\right.\right.\right.\right.$ 咳 $\left(x_{3}\right)$, なおる $\left.\left.\left.\left.\left.\left.\left.\left(e_{4}\right), \arg \mathbf{s}\left(e_{4}, x_{3}\right)\right.\}\right)\right.\}\right)\right)\right.\}\right)$ HOL: から (なおる (咳),に (病院, $\lambda x$. 行く $(x))$, speaker) 現時点で意味表示の導出に用いられる意味テンプレートは, unary 規則に対するもの(46個),カテゴリに対する意味割り当て(62 個),カテゴリと単語のペアに対する意味割り当て(68 個)からなる。付 クの導出木を示す。 ## 4 統語パーサの構築と評価 $\mathrm{ABC}$ ツーバンクの応用として日本語統語パー サの構築が考えられる。以下,この途中経過を報告する。係り受け以上の細かい分析を行うパーサに関しては,木構造の些末な差異などが性能評価に大きな影響を及ぼしがちであり,適切な評価指標は何かという問題がつきまとう。一つの解決策として, パーサの性能評価を構文木のレベルで行うのでなく,構文木に基づいて得られる意味表示(3 節参照) のレベルで行う方法が考えられる。以下,この手順で行った性能評価の結果を報告する。 表示の妥当性を人手でチェックし,評価用の GOLD データ(223 件)を作成した。言語現象の多様性を確保するため,言語学のテキストの例文を集めたもの(textbook, 133 例)を中心とし,その他に書籍 (book, 11 例), 辞書 (dict, 17 例),フィクション (fiction, 26 例),ニュース (news, 8 例),ノンフィクション (nonfiction, 13 例),テッドトーク(ted, 15 例)という複数のジャンルの文を含めた。 今回は,[17] と同様の手法によって,範疇と木の依存関係の両方を表現ベクトルの中に含んだ bi-LSTM モデルを,AllenNLP [5] を用いて訓練した。 $\mathrm{ABC}$ ツーー゙ンクの全データ(44,750 文)から上記の評価用データ(223 文)を除き,さらに二分木でないもの7)を排除した 21,456 文のうち,訓練用に 17,137 文,訓練のステップごとの評価のために 4,319 文を分けて,訓練を行った。8) ここで学習したパーサの評価のため,パーサの出力の木からテンプレートにより意味表示を導出し, それを DRS の節形式に変換する。節形式は, 節の一致率を求める評価手法 (COUNTER [16]) によって比較することが可能である。9) (2) の節形式を図 3 に示す。 図 3 (2) のDRS から得られた節形式 $\mathrm{ABC}$ パーサで評価用データの 223 文を解析10) し, 出力の導出木から DRS の節形式を生成した。 COUNTER による GOLD の節形式との一致率は, precision の平均が $77.4 \%$, recall の平均が $76.4 \%, \mathrm{~F} 1$ の平均が $76.7 \%$ であった。意味表示が出力されず解析エラーとなったものは,10文であり,残りの 213 文に対しては well-formed な意味表示が出力された。 以下では一致率が低かった文に関するエラー分析の結果を簡単に報告する。問題点は主に,係り受けや連体節の種類(「内の関係」対「外の関係」)など,統語解析のみでは解決が困難な問題に関するパーサの誤解析と,変換元コーパスのけやきツリーバンクの仕様に依存する部分でのエラーに大別できる。 パーサの誤解析に関しては,(3)のような例 ( prec/rec/F1 = 42.9/45.0/43.9)で「内の関係」の連体節が誤って「外の関係」として解析されるケースや, 7)例えば,複数文の埋め込み multi-sentence や,断片的な文 FRAG 範疇とする部分木を含む文が該当する。 8)結果とパラメータは, https://github.com/ABCTreebank/ ABCTreebank/tree/master/papers/202103_NLP27 で公開予定。 9) これは, Abstract Meaning Representation (AMR [2]) の評価で使われている SMATCH をスコープ付きの意味表現に拡張した評価法である。詳細は [16]を参照。 10)それらの文の形態素解析は,もとの ABCツリーバンクにおける解析をそのまま使用した。 (4)のような例(50.0/45.5/47.6)で動詞の項の係り受け先が正しくないケースが目立った(「教える」に係るべき「人に」が誤って「獲る」に係っている)。 (3) ... 泳ぎをおぼえるチャンスもなかった。 (7_book_excerpt-18;JP) (4)人に魚を獲ることを教えれば,... (28_nonfiction_ANC__110CYL067;JP) ツリーバンクの仕様に依存する問題の代表例としては,元コーパスのけやきツリーバンクのアノテー ションに従って決定される,動詞の項構造に関するものがある。例えば存在動詞「ある」に対しては,「に/が」または「が/が」の格配列に応じて,以下の二つのカテゴリが割り振られる。 (5) a. 私が意欲がある ${ }_{P P s} \backslash P P s 2 \backslash S$ b. 私に意欲がある $\operatorname{PPol} \backslash \operatorname{PPs} \backslash S$ 以下の (6) のように外の関係の連体節で表層で格助詞が落ちる場合,「ある」に関して (5a) と (5b) のどちらの語彙項目を使うかの曖昧性がある。 (6)意欲ある住民 (43_news_KAHOKU_33) この曖昧性は本来は意味解釈のレベルでは捨象されるべきものだが,現状では動詞の項構造を示すラべルの不一致による解析の失敗と分類されている。 ## 5 おわりに [8] で詳述した文末述語の扱いに関しては,構造が単純な文についてはパーサの解析結果に基づいて概ね正しい意味表示が得られることが確認できた。言語学的知見を適切に反映させた言語資源による end-to-end の解析システムを組むことができることを示した点において,一定程度所期の目的を達成したと考えられる。今後の課題としては,4 節で議論した誤解析への対応,関連研究である日本語 CCGBank [15] に基づく統語・意味パーサ [10] との比較,また,汎用性を重視したツリーバンクであるという特徴を活かして,CCG では扱いが煩雑になる量化現象を,タイプ論理文法の手法で扱うことなどに取り組みたい。 謝辞吉川将司氏(東北大)のサポートに感謝します。この研究は JSPS 科研費 18K00523,国立国語研究所共同研究プロジェクト「対照言語学的観点から見た日本語の音声と文法」の助成を受けている。 ## 参考文献 [1] Kazimierz Ajdukiewicz. Die syntaktische Konnexität. In Storrs McCall, editor, Polish Logic 1920-1939, pp. 207231. Oxford University Press, Oxford, 1935. Translated from Studia Philosophica, 1, 1-27. [2] Laura Banarescu, Claire Bonial, Shu Cai, Madalina Georgescu, Kira Griffitt, Ulf Hermjakob, Kevin Knight, Philipp Koehn, Martha Palmer, and Nathan Schneider. Abstract Meaning Representation for sembanking. In Proceedings of the 7th Linguistic Annotation Workshop and Interoperability with Discourse, pp. 178-186, 2013. [3] Yehoshua Bar-Hillel. A quasi-arithmetic notation for syntactic descriptions. Language, Vol. 29, pp. 47-58, 1953. [4] Alastair Butler, Kei Yoshimoto, Shota Hiyama, Stephen Wright Horn, Iku Nagasaki, and Ai Kubota. The Keyaki Treebank Parsed Corpus, Version 1.1. http://www.compling.jp/keyaki/, 2018. Last accessed: 2021.01.01. [5] Matt Gardner, Joel Grus, Mark Neumann, Oyvind Tafjord, Pradeep Dasigi, Nelson F. Liu, Matthew Peters, Michael Schmitz, and Luke Zettlemoyer. AllenNLP: A deep semantic natural language processing platform. In Proceedings of Workshop for NLP Open Source Software (NLP-OSS), pp. 1-6, 2018 . [6] Hans Kamp and Uwe Reyle. From Discourse to Logic. Kluwer Academic Publishers, Dordrecht, 1993. [7] Yusuke Kubota and Robert Levine. Type-Logical Syntax. MIT Press, Cambridge, Mass., 2020. [8] Yusuke Kubota, Koji Mineshima, Noritsugu Hayashi, and Shinya Okano. Development of a general-purpose categorial grammar treebank. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 51955201, 2020. [9] Pascual Martínez-Gómez, Koji Mineshima, Yusuke Miyao, and Daisuke Bekki. ccg2lambda: A compositional semantics system. In Proceedings of ACL-2016 System Demonstrations, pp. 85-90, 2016. [10] Koji Mineshima, Ribeka Tanaka, Pascual MartínezGómez, Yusuke Miyao, and Daisuke Bekki. Building compositional semantics and higher-order inference system for a wide-coverage Japanese CCG parser. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2236-2242. [11] Michael Moortgat. Categorial Type Logics. In Johan van Benthem and Alice ter Meulen, editors, Handbook of Logic and Language, pp. 93-177. Elsevier, Amsterdam, 1997. [12] Glyn Morrill. Type Logical Grammar: Categorial Logic of Signs. Kluwer, Dordrecht, 1994. [13] Terence Parsons. Events in the Semantics of English. MIT Press, Cambridge, Mass., 1990. [14] Mark Steedman. The Syntactic Process. MIT Press, Cambridge, Mass., 2000. [15] Sumire Uematsu, Takuya Matsuzaki, Hiroki Hanaoka, Yusuke Miyao, and Hideki Mima. Integrating multiple dependency corpora for inducing wide-coverage Japanese CCG resources. ACM Transactions on Asian and LowResource Language Information Processing, Vol. 14, No. 1, pp. 1-24, 2015. [16] Rik van Noord, Lasha Abzianidze, Hessel Haagsma, and Johan Bos. Evaluating scoped meaning representations. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018). [17] Masashi Yoshikawa, Hiroshi Noji, and Yuji Matsumoto. A* CCG parsing with a supertag and dependency factored model. Journal of Natural Language Processing, Vol. 26, No. 1, pp. 83-119, 2019. [18] 戸次大介. 日本語文法の形式理論. くろしお出版, 東京, 2010. [19] 窪田悠介, 峯島宏次, 林則序, 岡野伸哉. 汎用的な範疇文法ツリーバンクの構築. 言語処理学会第 25 回年次大会発表論文集, pp. 143-146, 2019. ## A 付録 3 節で例示した (1) と (2) の文の意味表示 (FOL, DRS, HOL) に対する導出木を示す。これは 3 節で述べた意味テンプレートに基づいて,ccg2lambdaを用いて ABCツリーバンクの木から生成したものである。なお,ABCツリーバンクでは名詞句のカテゴリとして N と NPを区別しているが(2.2.1 節を参照),現在のところ,意味合成において $\mathrm{NP}$ と $\mathrm{N}$ の意味割り当ては区別されていない。 HOL: から(-なおる(咳),に(病院, |X0.行く(X0)),*speaker*)
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E8-2.pdf
# 上場会社開示資料の日英対訳コーパスの自動生成に関する検討 土井惟成大西恒彰命苫昭平高頭俊 株式会社 日本取引所グループ \{n-doi, n-onishi, s-meitoma, s-takato\}@jpx.co.jp ## 1 はじめに 東京証券取引所 (以下,東証) における海外投資家のプレゼンスは年々高まっている。東証が公表している株式分布状況調査 [1] によると, 2019 年度における日本の上場会社の株式に対する外国法人の保有比率 (時価総額に対する金額ベース) は約 $30 \%$ に及んでいる。しかしながら, 2018 年に TDnet ${ }^{1}$ で開示された,適時開示資料をはじめとする上場会社開示資料 (以下,開示資料) において,英語による開示資料の占める割合は約 11 \%に留まっている. このような状況を踏まえ,海外投資家による開示資料の利便性を改善するための手段として,機械翻訳の活用が考えられる [2]. ニューラル機械翻訳モデル [3] (以下, NMT モデル) による機械翻訳は, 従来の機械翻訳モデルより翻訳精度が高いことで知られている。一方で, 専門用語の多い特定分野の文を対象にすると, 汎用的な NMT モデルでは翻訳精度が低くなる傾向にある [4]. また, NMT モデルの学習は対訳コーパスを用いて行われるため,対訳コー パスの規模や品質が翻訳精度に影響を与えることが知られている [5]. 本研究では, 2019 年に TDnetで開示された, PDF 形式の開示資料を対象に,約 23 万文対の日英対訳コーパス (東証適時開示対訳コーパス: ParaTDC)を機械的に生成した. その後, ParaTDC の有用性の評価のため, 汎用的な NMT モデルを対象に本コーパスを用いて追加学習を行うことでカスタム翻訳モデル2)を作成し, その翻訳精度を評価した。実験の結果,日英の文の類似度で閾値を設けた対訳コーパスを用いた追加学習によって, 追加学習前と比較して BLEU スコア [6] の上昇が確認できた。  ## 2 関連研究 本研究に関連する研究として, (1) 開示資料の一つである CG 報告書を対象としたカスタム翻訳モデルの検討に関する研究 [7], (2) 開示資料を対象とした人手による日英対訳コーパス (TDDC) の作成に関する研究 [8], (3) Web サイトのクロールで収集した HTML ファイルを対象とした日英対訳コーパス (JParaCrawl)の自動生成に関する研究 [9]がある.以下では,これらについてそ抽紹介する。 (1) の研究では, 160 社の日英の CG 報告書を対象に,約 4 万文対の対訳コーパスを人手で作成し,力スタム翻訳モデルを評価した。本研究と (1)の主な差異は, (1)の対象とする開示資料が限定的である点と, 作成手法が人手である点の 2 点が挙げられる. (2) の研究では, 2016 年 1 月から 2018 年 6 月までの 2.5 年間に TDnet で開示された PDF 形式の開示資料を対象に,人手によって約 140 万文対の日英対訳コーパス (TDDC) を作成した。本研究と (2) の主な差異は, (2) の対象とする文書の開示期間と, 作成手法が人手である点の 2 点が挙げられる. (3) の研究では, Webクロールで収集した HTML ファイルを対象に,機械的な手法で作成された,約 1,000 万文対の日英対訳コーパス (JParaCrawl)を作成した. ParaTDC と JParaCrawl は, 大量の日英の文書から自動的に作成した日英対訳コーパスという点で共通している。一方で, 本研究と (3) の主な差異は, (3) の対象とする文書が HTML ファイルである点と,文単位のアライメント手法に内製の NMT モデルを用いている点の 2 点が挙げられる. ## 3 対訳コーパス生成の流れ 2019 年における TDnet の開示資料の件数は約 10.3 万件であり,その内,日本語は 9.2 万件,英語は約 1.1 万件である. 本研究では, これらの開示資料を源泉として以下の各節に述べる処理を実行した。 ## 3.1 暗号化・画像化された PDF の除外 PDF ファイルからのテキスト抽出を防ぐ方法として,コピー禁止の設定,パスワードや電子署名による PDF 文書の暗号化, テキストの画像化が挙げられる. 手書き文字認識等の技術を用いることで,これらの処理が施されている PDFファイルからのテキスト抽出が可能ではあるものの, その精度は必ずしも高いとは限らない, そのため, 本研究では, これらの処理が施されている PDFファイルは,コーパスの源泉データの対象から除外した。 ## 3.2 日英の文書のアライメント 対訳コーパスの源泉となる開示資料に対して,文書単位での日英のアライメントを実施した. TDnet の開示資料には, PDF 形式の開示資料本体とは別に, 開示日時やタイトル等のメタデータが存在する.このメタデータから, 開示資料の言語 (日英) は判別できるが,日英の対応関係が含まれていないため, 別途の手段による日英の文書のアライメントが必要となる。また, 英語の開示資料は, 必ずしも対応する日本語の開示資料と同日に開示されるとは限らず,日本語より遅延して開示されることがある.本研究では,まず,英語の各開示資料に対して, 2019 年 1 月 1 日から各開示日までに,その銘柄コー ドの上場会社が開示した全ての日本語の開示資料を出力した. その後, 日英のタイトルの分散表現を算出し, 英語の開示資料のべクトルとのコサイン類似度が最大となる日本語の開示資料を探索することで,文書のアライメントを実現した。この時,テキストの分散表現の算出に TensorFlow の Embedding メソッド3を使用し,分散表現のモデルには, TensorFlow $の$ universal-sentence-encoder-multilingual ${ }^{4}$ ) を使用した。 ## 3.3 PDF テキスト抽出 PDF ファイルには,セクション,見出し,表,段落などの論理的な構造を追加するための夕グを付与することが可能であり,このような夕グが付与された PDF ファイルをタグ付きPDF と呼ぶ。しかしながら,開示資料における夕グ付きPDF の割合は一定程度に留まっており (2018 年の開示資料では $28 \%$ 程  度),また,夕グ付き PDFであっても,必ずしも全てのタグが適切に付与されているとは限らない. そこで,本研究では,PDF形式の開示資料からのテキスト抽出には,文書中の各文字の座標情報等を踏まえて,一連のテキスト (以下,テキストボックス) を抽出することが可能なソフトウェアを利用し, テキストボックス単位でテキストを抽出した。具体的には,PDF ファイル中の文字について,文字間隔が閾値以下同士の文字は,同一の行に含まれる一連のテキスト (以下,テキストライン)に属すと見なし,行間隔が閾値以下同士のテキストライン同士は同一のテキストボックスに属すと見なしている.このような処理を有するソフトウェアとして, PDFMiner[10] が知られている. なお, 本処理では,文書中の 1 パラグラフが 1 つのテキストボックスとして抽出されるため,1つのテキストボックスに 2 文以上が含まれることがある. ## 3.4 正規化処理 開示資料から抽出したテキストを対象に,以下をはじめとする正規化処理を実行した。 特定文字の置換長音記号や全角チルダをはじめとする一部の記号文字を,類似する形状の記号文字に置換した。また,CJK 部首補助や CJK 互換漢字は後述する NFKC 正規化によって正規化されないことから,本処理においてそれぞれ対応する CJK 統合漢字へ置換した。 Unicode 正規化丸数字 $(U+2460-U+2473), 2$ 点リーダ (U+2025),3 点リーダ (U+2026)を除く文字を対象に,NFKC[11]による Unicode 正規化を実行した。これにより,全角英数字を半角に変換したほか,康熙部首を CJK 統合漢字に変換した。康熙部首とは,部首を表す漢字の一種であり,一部の PDF 変換ソフトウェアにおいて, CJK 統合漢字で入力した文字が PDF ファイルでは康熙部首に変換されることが知られている [12]. 制御文字等の削除制御文字に相当する文字等を削除する目的で, Unicode character property $の$ General Category[13] が Cc,Cf,Cn,Coの文字を削除した. 余分なスペースの削除以下の処理を行うことで,余分なスペースを削除した。 ・文頭及び文末のスペースを削除 ・連続するスペースを 1 つのスペースに置換 $\cdot$「平仮名, 片仮名, CJK 統合漢字, 全角記号」の間のスペースを削除 -「平仮名, 片仮名」と「半角濁点 (U+FF9E), 半角半濁点 (U+FF9F)」の間のスペースを削除し, NFKC 正規化を実行 ## 3.5 日英の文のアライメント アライメントされた日英の文書ごとに,日英の文のアライメントを行った。本処理では,まず,和文と英文のそれぞれに対して分散表現を算出した。この時使用したモデルは,3.2 節における夕イトルの分散表現の算出に使用したモデルと同様である.この時, 日本語側の文については, 日本語の文字を含まない文 (平仮名, 片仮名, $\mathrm{CJK}$ 統合漢字のいずれも含まない文) は処理の対象から除外した. その後,英文ごとに, 英文のベクトルとのコサイン類似度が最大となる和文のベクトルを探索し,それを対訳文として選定した。 この時, 文書全体での類似度の組み合わせの最適化等は行っていない。 そのため, 文書中に複数出現する同一の和文に対して異なる英文がアライメントされることや,英文がアライメントされない和文が生じることがある. また,本処理の実行に際しては,計算コスト上の理由から, 1 文書当たり 10 分を処理時間の上限として設け,それ以降の処理を中断した。 ## 4 ParaTDC の概要 本研究では, 3 章の処理を通じて, 2019 年の開示資料を源泉とした,約 23 万文対の日英対訳コーパスである ParaTDC を生成した,ParaTDCにおける対訳数や平均文字列長等の詳細を表 1 に示し, 英文における単語数の分布を図 1 に示す。 TDDC が 2.5 年分の開示資料を源泉とした 140 万文対の対訳コーパスであることを踏まえると, ParaTDC は開示資料 1 年分当たりの対訳数が比較的少ないと言える. この理由としては, 3.3 節の PDF テキスト抽出において, 1 行中に複数の文を含むことを許容していること,また, 3.4 節の文アライメントにおいて, 10 分以上の処理を途中で中断していることが考えられる。 また, ParaTDC は, 日英の対訳に加え, 源泉の開示資料の ID,開示日時,発行体の銘柄コード, 3.4 節で算出したコサイン類似度 (以下,スコア) で構成されている,スコアは必ずしも翻訳の正確性を表しているとは限らないものの, 対訳コーパスからの) イズ除去において有用性が期待される。表 1 ParaTDC の統計情報. 括弧内の数値は全対訳数に占 図 1 ParaTDC の英文における単語数の分布 ## 5 実験 ParaTDC の有用性を検証するため,ParaTDC と TDDC (2016 年及び 2017 年の開示資料) のそれぞれを用いてカスタム翻訳モデルを作成し,同一のテストデータを用いて翻訳精度の向上を検証する。 5.1 節では本実験の実験設定について述べ,5.2 節では実験結果と考察について述べる。 ## 5.1 実験設定 本実験では,汎用的な NMT モデルに追加学習を行うことでカスタム翻訳モデルを作成するサービスとして, Microsoft が提供する Custom Translator ${ }^{5}$ を利用した。また,翻訳精度の評価指標として BLEU スコアを採択した。 ParaTDC を用いた追加学習では,Devには訓練データからランダムに選出した $5 \%$ 程度の対訳 (上限 2,500 文対),Test には TDDC で提供している,2018 年 1 月から同年 6 月の開示資料から作成した 3,277 文対を用いた,TDDCを用いた追加学習では,Train には 2016 年と 2017 年の開示資料から作成した対訳コーパス,Devには 2018 年 1 月から同年 6 月の開示資料から作成した 3,967 文対, Testには ParaTDC と同一の 3,277 文対を用いた。この時, Dev と Test は,作成元の開示資料がそれぞれ異なることを確認している. なお, Custom Translator の仕様として, 英単  表 2 実験結果. 閾値を設けている場合,スコアが閾値未満の対訳を元の対訳コーパスから除外していることを意味する。 語数が 100 個以上の対訳や,和文が 2,000 文字以上の対訳は自動的に削除される [14]. ParaTDC 及び TDDC には重複する対訳が含まれており, 追加学習に際してはこれらを除外した。また,ParaTDC に重複して出現する和文については, スコアが最も大きい英文のみを残すことで,各和文に対して対応する英文が一意に定まるようにした。 また,本実験では,ParaTDC のスコアによるノイズ除去の有用性の検討のため, 複数のパターンでスコアに閾値を設けた対訳コーパスを用いてカスタム翻訳モデルを作成し,翻訳精度を評価した。 ## 5.2 実験結果及び考察 各追加学習で用いたデータセットの内訳や BLEU スコアによる評価結果を表 2 に示す。 ParaTDC による追加学習により, 多くの閾値のパターンにおいて BLEUスコアの上昇が見られた. 特に,スコアによる閥値を $60 \%$ とした時の上昇量が最も大きく, 2.7 ポイント程度の上昇を確認した。 一方で, TDDC では BLEU スコアが 8.8 ポイン卜程度と, ParaTDC と比較すると大幅に上昇した。 ParaTDC による翻訳精度の改善が TDDC に及ばなかった原因の一つに,対訳コーパスの規模が考えられる. 4 章で述べたとおり, ParaTDC の作成に当たっては, 1 文中に複数の文が含まれる可能性があり, また, 文書中の全ての文に対してアライメントを行っているとは限らないため, 今後はこれらの解決が課題となり得る。 スコアによる閾値に着目すると,閥値を $80 \%$ にした時の BLEU スコアはベースラインよりも悪化した.これは, 閾値を上げることによって追加学習に用いる学習データが減ったことに加え, アライメントのスコアの高い対訳が, 必ずしも正しい対訳であるとは限らないことに起因していると推察する。表 3 に,ParaTDC におけるスコアの高い対訳の例を示表 3 アライメントのスコアが高い対訳の例 & the GRESB website & \\ & . & \\ す.ParaTDCでは,表 3 の例 1 のとおり,短文のアライメントは比較的正確であり, そのスコアは高い傾向にある。一方で, 個人名 (例 2) や施設名 (例 3) をはじめとする固有名詞, 及び,金額 (例 4) や日付 (例 5)をはじめとする数値表現において,アライメントが誤っているにもかかわらず高いスコアを示している対訳が散見された。この原因として,固有名詞や数値表現の分散表現では, それらが異なる値であるにもかかわらず, ベクトルとしては似通ってしまうことが挙げられる。これを回避する方法として,固有表現抽出の利活用が考えられる。 ## 6 おわりに 本研究では, PDF 形式の上場会社開示資料から機械的に対訳コーパスを生成し,それを用いた追加学習によるカスタム翻訳モデルの翻訳精度を評価することで,ParaTDC の有用性を評価した。実験から, ParaTDC による追加学習によって翻訳品質の改善を確認した。一方で, 対訳コーパスの規模及び品質には改善の余地があると考えられる。 東証上場会社は毎年膨大な量の開示資料を開示していることから,引き続き,これらの分析を進めることで,自然言語処理による開示資料の利活用の可能性について検証を進めたい. ## 謝辞 ParaTDC の作成に当たっては, 東証が 2020 年 4 月から同年 8 月に実施した, 東証適時開示コーパスに関する限定公開実証実験6)の参加者各位より有益なご助言を戴いた。ここに記して謝意を表する。  ## 参考文献 [1] 株式会社東京証券取引所. 2019 年度株式分布状況調査, 2020. https://www.jpx.co.jp/markets/ statistics-equities/examination/01.html. [2] 山藤敦史. 開示資料と翻訳. AAMT 2019,Tokyo 〜機械翻訳最前線 , 2019. [3] Ilya Sutskever, Oriol Vinyals, and Quoc V. Le. Sequence to sequence learning with neural networks. In Proceedings of the 27th International Conference on Neural Information Processing Systems - Volume 2, NIPS'14, pp. 3104-3112, Cambridge, MA, USA, 2014. MIT Press. [4] Philipp Koehn and Rebecca Knowles. Six challenges for neural machine translation. In Proceedings of the First Workshop on Neural Machine Translation, pp. 28-39. Association for Computational Linguistics, 2017. [5] Rico Sennrich and Biao Zhang. Revisiting low-resource neural machine translation: A case study. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 211-221, Florence, Italy, July 2019. Association for Computational Linguistics. [6] Kishore Papineni, Salim Roukos, Todd Ward, and Wei jing Zhu. Bleu: a method for automatic evaluation of machine translation. pp. 311-318, 2002. [7] 土井惟成, 近藤真史, 山藤敦史. コーポレート・ガバナンス報告書における機械翻訳の検討. 言語処理学会第 25 回年次大会 (NLP2019), pp. 926-929, 32019. [8] Nobushige Doi, Yusuke Oda, and Toshiaki Nakazawa. TDDC: Timely disclosure documents corpus. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 3719-3726, Marseille, France, May 2020. European Language Resources Association. [9] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A large scale web-based English-Japanese parallel corpus. In Proceedings of The 12th Language Resources and Evaluation Conference, pp. 3603-3609, Marseille, France, May 2020. European Language Resources Association. [10] Yusuke Shinyama. PDFMiner, 2016. https://euske. github.io/pdfminer/. [11] Ken Whistler. UAX \#15: UNICODE NORMALIZATION FORMS, 2020. https://www.unicode.org/reports/ tr44/. [12] Create PDF, why KANJI 9AD8(高) will be changed to $2 \mathrm{FBC}($ 高) when Meiryo UI ? - Adobe Support Community - 10625575, (2021-01 閲覧). https://community. adobe.com/t5/acrobat/createpdf-why-kanji-9ad8-\%E9\%AB\%98-will-be-changedto-2fbc-when-meiryo-ui/td-p/10625575?page=1. [13] Ken Whistler. UAX \#44: UNICODE CHARACTER DATABASE, 2020. https://www. unicode.org/ reports/tr15/. [14] データのフィルター処理 - カスタムトランスレー ター - Azure Cognitive Services | Microsoft Docs, (202101 閲覧). https://docs.microsoft.com/ja-jp/ azure/cognitive-services/translator/customtranslator/data-filtering.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E8-3.pdf
# 日本語 Wikipedia の編集履歴に基づく 入力誤りデータセットと訂正システムの改良 田中佑 $\dagger$ 村脇有吾 $\dagger$ 河原 大輔 $\dagger$ 黒橋禎夫 $\dagger$ †京都大学 大学院情報学研究科 $\ddagger$ 早稲田大学 基幹理工学部 \{ytanaka, murawaki, kuro\}@nlp.ist.i.kyoto-u.ac.jp dkw@waseda.jp ## 1 はじめに 文章執筆時に発生する入力誤りによって,人はスムーズに文章を読むことを妨げられ,計算機は正しく解析することを妨げられる。人が文章を書く際,入力誤り訂正を行うシステムを用いれば,その発生を抑えることができ,計算機においても,システムを事前に適用することで, 解析誤りの減少が見込めるため, NLPにおいても重要である. 入力誤り訂正の一種であるスペルミス訂正において,ニューラルモデルは成功を収めており [1],入力誤り訂正システムの構築に有望であると考えられる. ニューラルモデルは多量の学習データを必要とするため,ニューラル入力誤り訂正システムの実現の重要課題は多量の入力誤りとその訂正ぺアを用意することである. 我々は Wikipedia の編集履歴から約 50 万文規模の日本語入力誤りデータセット (JWTD v1; Japanese Wikipedia Typo Dataset version 1) ${ }^{1)}$ 構築した [2]. JWTD v1 は誤字・脱字・衍字・漢字誤変換の 4 種類の日本語入力誤りからなるが, 転字 (transposition) [3] といった代表的な入力誤りを収集していなかった. データセット構築手法の評価をクラウドソーシングを用いて行っているが,再現率については評価できていなかった。また, ベースラインとして LSTM モデルを用いた訂正システム実験も行ったが,不十分な精度であった。 本研究では,JWTDv1で収集していない転字などの入力誤りを新たに収集し,フィルタリングの一部を改良して, 約 70 万文規模の JWTD v2 を構築した。提案手法とは別に入力誤りを網羅的に収集し,それを用いて評価を行った。JWTD v2を用いて, seq 2 seq 事前学習モデルである BART [4]を学習し, 訂正シ 1)http://nlp.ist.i.kyoto-u.ac.jp/?日本語 Wikipedia入力誤りデータセット ステム実験を行い,より強力なベースラインとした。漢字の読み推定を同時に学習する実験を行い, ベースラインと比較した。最後に入力誤り認識において他の校正システムとの精度比較を行った。 ## 2 関連研究 公開されている日本語入力誤りデータセットは JWTD の他に, GitHub Typo Corpus [5] がある.これは $\mathrm{GitHub}^{2}$ の commit ログから構築した多言語入力誤りデータセットである.日本語データのサイズは 1,500 文ほどであり, ニューラルモデルの学習には十分なサイズではない,そのため,本研究ではテストセットの一つとして利用した。 BART は Transformer [6] を用いた seq2seq モデルであり,大規模な生コーパスで事前学習した後に,各タスクで fine-tuning するモデルである. Katsumata らは BART を用いて英語の文法誤り訂正を行っており,事前学習済み BART を文法誤り訂正タスクで fine-tuning するというシンプルな手法ながら, 既存の SOTA に近い結果が得られたと報告している [7].我々は文法誤り訂正を入力誤り訂正に近いタスクと考え,ベースラインとして同様の手法で入力誤り訂正実験を行った。 ## 3 日本語における入力誤り 日本語における入力誤りは様々なバリエーションが考えられるが, 本研究でデータ構築に利用する Wikipedia の編集履歴には,編集のタグが存在しないため,入力誤り全てを取り出すことは容易ではない。そこで,本研究では日本語における入力誤りのうち,表 1 のような,誤字・脱字・衍字・転字・漢字誤変換(以下,誤変換と呼ぶ)の 5 種類を対象に収集した。ここで,転字・衍字 (b) ・誤変換 (b) は JWTD v1 では収集しておらず,本研究で新規に収集 2) https://GitHub.com } & \multirow{7}{*}{ } \\ 表 1 本研究が対象とする入力誤りカテゴリ した入力誤りである.誤字は 1 文字の入れ替え,脱字は 1 文字の抜け, 衍字 (a) は余分な 1 文字の挿入,衍字 (b) は直前の文字列と一致する 2 文字以上の余分な文字の挿入, 転字は隣接する 2 文字間の転置,誤変換(a)は同一の読みを持つ漢字の入れ替え,誤変換(b)は近い読みを持つ漢字の入れ替えの誤りである. ## 4 データセットの構築 データセットの構築では, Wikipedia の編集履歴から入力誤りとその訂正文ぺアの候補を取り出し, その後, 入力誤り訂正ではないと考えられる編集をフィルタリングした。 ## 4.1 Wikipedia マイニング Wikipedia の編集履歴から, 入力誤り訂正の可能性がある文ぺアを以下の方法で取り出す3). 1. Wikipedia の全ての記事の全ての版において、編集前と編集後の差分をとり、編集箇所を持つ文ペアを取り出す. 2. 編集箇所が以下の条件を満たす文ぺアを取り出す. 誤字編集箇所における文字単位編集距離が 1 , 編集箇所の文字数変化が 0 , 編集箇所の文字は前後ともひらがな又はカタカナ 脱字編集箇所における文字単位編集距離が 1 , 編集箇所の文字数変化が 0 , 編集箇所の文字は前後ともひらがな又はカタカナ 衍字 (a) 編集箇所における文字単位編集距離が 1 , 編集箇所の文字数変化が -1 , 削除文字はひらがな又はカタカナ 衍字 (b) 編集箇所がその直前もしくはその直後の文字列と一致する, 編集箇所の文字数変化が -1 以下, 削除文字は編集箇所の文字数変化が -1 ならば漢字, -2 以下ならばひらがな又 3)JWTD v1 と同様に, undo や revert された版を取り除く, 編集がループしている文ぺアを取り除く, 編集が推移している文ペアは統合するなどの操作も行っているが, 紙面の都合上,本稿ではその詳細は省略する。 & \\ & 出力 & 今日はいい天気だ。 \\ 表 2 「今日はいい【転機 $\rightarrow$ 天気】だ。」を BART モデルで尤度計算する際に与える入出力 はカタカナ又は漢字 転字編集箇所における文字単位編集距離が 2, 編集箇所における文字単位ダメラウ・レー ベンシュタイン距離 [8] が 1, 編集箇所の文字は前後ともひらがな又はカタカナ 誤変換 (a) 編集箇所における編集前後の読みが一致,編集箇所の文字は前後ともに漢字が含まれる 誤変換 (b) 編集箇所における編集前後の読みが誤字または脱字または衍字 (a) または転字を含む,編集箇所の文字は前後ともに漢字が含まれる ## 4.2 フィルタリング 上記で得られた文ぺアには入力誤り訂正ではないと考えられる編集も含まれる. それらを取り除くため, 品詞・形態素解析, リダイレクトデータ, 言語モデルを使ったフィルタリングを行った. 本稿では,JWTDv1 から変更した言語モデルフィルタについてのみ以下に述べ,それ以外は省略する。 JWTD v1 では文字単位 LSTM 言語モデルにおける編集による尤度の差をもとにフィルタリングを行っている. 本研究では,モデルを事前学習済み BART $^{4)}$ に変更してフィルタリングを行った。表 2 のように編集箇所を mask トークンで置換した文を入力として, 編集前・編集後の文が出力される尤度をそれぞれ計算する.編集による尤度の増加が大きいものは入力誤り訂正である可能性が高いと考えられる。それぞれの入力誤りの種類で閾值を定め,編集による尤度の差が閾値より小さい文ぺアを取り除いた5). ## 4.3 結果 上記の手法を 2019 年 6 月の日本語 Wikipedia に適用し,JWTDv2を構築した。そのデータサイズを表  表 3 データセットのサイズ 3 に示す. 合計で約 70 万文ぺアが得られた. ## 5 データセット構築手法の評価 JWTD v1 ではデータセット構築手法の評価を,クラウドソーシングを用いてデータセットの一部を評価することで行っていた6). しかし,その方法はデータセットの適合率のみ評価ができるものであった. 入力誤りのうち, 特定のカテゴリを対象として収集する JWTD の手法では,含まれていない入力誤りが存在すると考えられるため, 再現率も評価することが望ましい. 本研究では, 再現率も含めて評価するために,入力誤り評価データを作成し,それを用いて評価を行った。 ## 5.1 入力誤り評価データ 特定のカテゴリに制限されていない入力誤りデー タを用意できれば,データセット構築手法の再現率を評価できる.そこで,クラウドソーシングを用いて,そのようなデータを収集し,それを入力誤り評価データとした. クラウドソーシングに用いたデータは, 4.1 節のステップ 1 で取り出した編集箇所を持つ文ぺアからランダムに選んだ 11,000 文ぺアである. クラウドソーシングのタスク内容については紙面の都合上,付録の A. 1 章に付す. タスクの結果より 1,127 個の文ぺアが入力誤り評価データとして得られた。 ## 5.2 評価結果 入力誤り評価データを用いて, データセット構築手法の評価を行った。前節でクラウドソーシングに用いた 11,000 文ペアに対して,4 章の方法を適用し, 収集された文ペアから,データセット構築手法を評価した。 結果を表 4 に示す. v1 が JWTD v1における手法であり, v2 が本研究の手法を示している. これよ 6)同様の方法での JWTD v2 の評価を A. 2 章に付す. 表 4 データセット構築手法の評価結果 り,本研究の手法がマイニング・フィルタリング両面で $\mathrm{F}$ 值が高いことが確認できる. ## 6 入力誤り訂正システム JWTD v2 を利用して,入力誤り訂正実験を行った. BART モデルを事前学習し, その後, 入力誤り訂正タスクで, fine-tuning を行った. 誤変換の訂正には漢字の読みの情報が役立つと考え, fine-tuning 時に漢字の読み推定を同時に学習する実験も行った。紙面の都合上,事前学習については付録の A. 3 章に付す。 ## 6.1 fine-tuning 入力誤り訂正タスクでは, 評価に使うデータ(入力誤り評価データ・次節で後述の JWTD v2 テストセット)を含まないページから得られた, 入力誤り文ペア 664,287 文を訓練データ,1,000 文を検証デー タとした。漢字の読み推定タスクでは, BCCWJ [9] のコアデータ 40,584 文を訓練データとして用いた. BCCWJ の原文文字列(原文)を入力して,発音形出現形(読み)を出力させるように学習させる.読み推定タスクの入力単位は BCCWJ の短単位を subword 分割したものとした。同時に学習を行うモデルでは,まず,入力誤り訂正タスクと読み推定タスクで fine-tuning した後, 入力誤り訂正タスクのみで fine-tuning した. ## 6.2 評価方法 評価指標は入力誤り訂正の適合率 - 再現率 $\cdot \mathrm{F}$ 值とし,それらは訂正前の文と訂正後の文の文字単位最小編集と, 訂正前の文とシステム出力文の文字単位最小編集から計算した。 評価には, 入力誤り評価データ・GitHub Typo Corpus・JWTD v2 テストセットの 3 つを用いた. GitHub Typo Corpus は, Hagiwara らの分類器での入力誤りである確率 (prob_typo) が 0.9 より大きい日本語データから,英語のスペルミス訂正を除いた,557 文を用いた。JWTD v2 テストセットは JWTD v2 の 表 5 入力誤り訂正結果 表 6 誤変換の訂正結果 一部をクラウドソーシングで評価し,入力誤り訂正として「正しい」と分類されたものである7). ## 6.3 実験結果 入力誤り評価データと GitHub Typo Corpusにおける結果を表 5 に示す。入力誤り評価データでのスコアは, 表 4 にあるデータセットの評価結果と比較して,十分高いスコアといえる. GitHub Typo Corpus でのスコアは入力誤り評価データと比較していずれも低い。これは, Wikipedia と GitHubの commitログではテキストのドメインが大きく異なることが原因であると考えられる. JWTD v2 テストセットのうち,誤変換カテゴリにおける結果を表 6 に示す。いずれにおいても,スコアの向上が確認できる。これより,誤変換の訂正では読み推定タスクを同時に学習することが有効であると考えられる。 ## 7 他の校正システムとの比較 前章で作成した BART を用いた入力誤り訂正システムと, 他の二つの校正システム (Microsoft Word ${ }^{8}$ ) と Yahoo! 校正支援 $\mathrm{API}^{9}$ ) で, 入力誤り認識精度の比較を行った。紙面の都合上,校正システムの設定等は付録 A. 4 章に付す. ## 7.1 評価方法 二つの校正システムの出力の多くが,訂正箇所の指摘のみであったため, 入力誤り訂正ではなく, 訂正すべき箇所を推定するタスク(入力誤り認識)で評価した。校正システムが出力した訂正箇所(区間)が,正解の訂正箇所(区間)を含むかどうかを数え上げ,適合率・再現率・F 値を計算する.前章  表 7 入力誤り認識結果 表 8 入力誤り認識結果の実例 で作成した訂正システムにおいては,入力とシステム出力の差分箇所を訂正箇所とした。評価には入力誤り評価データと GitHub Typo Corpus を用い, Word においてはそれぞれランダムに 100 個サンプルしたもので我々が人手で評価した。 ## 7.2 結果 結果を表 7 に示す. 本研究のシステムが,他の校正システムより再現率・F 值において高いスコアであることが確認できる。 入力誤り認識結果の実例を表 8 に示す. 誤変換以外の衍字などの入力誤りは,Word が指摘できているものがあったが,誤変換は,本研究のシステムのみが指摘できているものが多かった。最後の例は JWTD v2 では収集していない編集距離の大きい入力誤りであり, 本研究のシステムは指摘できておらず,今後の課題である. ## 8 おわりに 本研究では JWTD v1 が収集していない入力誤りの収集とフィルタリングの一部を変更し,JWTD v2 を構築した。データセットの再現率を評価できるデータを作成して評価を行い,v2 が v1より精度が高いことを確認した。事前学習モデルを用いて入力誤り訂正実験を行い,十分高い精度であることを確認した。また,読み推定タスクを同時に学習することで,精度が向上することを確認した。最後に,入力誤り認識において, 他の校正システムと比較して, 本研究のシステムの精度が高いことを確認した. 今後はデータセットのさらなる改良と, 入力誤り訂正システムを異なるドメインで適用した際の分析・改良に取り組む予定である。 ## 参考文献 [1] Keisuke Sakaguchi, Kevin Duh, Matt Post, and Benjamin Van Durme. Robsut wrod reocginiton via semi-character recurrent neural network. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 31, No. 1, Feb. 2017. [2] Yu Tanaka, Yugo Murawaki, Daisuke Kawahara, and Sadao Kurohashi. Building a Japanese typo dataset from Wikipedia's revision history. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 230-236, 2020. [3] Yukino Baba and Hisami Suzuki. How are spelling errors generated and corrected? a study of corrected and uncorrected spelling errors using keystroke logs. In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 373-377, 2012. [4] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics. [5] Masato Hagiwara and Masato Mita. GitHub typo corpus: A large-scale multilingual dataset of misspellings and grammatical errors. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 6761-6768, Marseille, France, May 2020. European Language Resources Association. [6] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [7] Satoru Katsumata and Mamoru Komachi. Stronger baselines for grammatical error correction using a pretrained encoder-decoder model. In Proceedings of the 1st Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 10th International Joint Conference on Nat- ural Language Processing, pp. 827-832, Suzhou, China, December 2020. Association for Computational Linguistics. [8] Fred J Damerau. A technique for computer detection and correction of spelling errors. Communications of the ACM, Vol. 7, No. 3, pp. 171-176, 1964. [9] Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary written Japanese. Language resources and evaluation, Vol. 48, No. 2, pp. 345-371, 2014. [10] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, 2016. [11] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, 2018. ## A 付録 ## A. 1 入力誤り評価データの作成 クラウドソーシングを用いて,入力誤り評価データを作成した。 ## A.1.1 タスク内容 質の良い評価データを作るために,二段階の方法でクラウドソーシングを行った. どちらもそれぞれ 5 人のワーカーに回答してもらった. 一段回目のタスクは,編集がどのような編集かを分類するタスクである,編集前と編集後の文を提示して,「内容の変更 ・追加 ・削除」,「表現の変更 - 追加 - 削除」, 「誤字・脱字・衍字・漢字の変換ミスの修正」,「その他・わからない」の 4 つの選択肢の中から一つ選んでもらった。「誤字・脱字・衍字・漢字の変換ミスの修正」が過半数を得た文ペアを入力誤りに関係するぺアとし, 二段階目のタスクの対象データとした. 二段階目のタスクは,編集前と編集後の文を同時に提示して,それぞれ書き言葉として自然かどうかを質問した. このとき, 提示する際は単に文 $\mathrm{A}$, 文 $\mathrm{B}$ として提示し, どちらが編集前か編集後かをわからないようにした.選択肢は「A は書き言葉として自然な文であるが,B は不自然な文である」,「B は書き言葉として自然な文であるが,A は不自然な文である」,「どちらの文も自然である」,「どちらの文も不自然である」,「わからない」の 5 つとした. 編集前が不自然・編集後が自然という回答が過半数を得た文ぺアを入力誤りに関係するぺアとした。 ## A.1.2 結果 一段階目のタスクにおいて,「誤字・脱字・衍字・漢字の変換ミスの編集」が過半数を占めた文ぺアは 1,773 個であった。それらを対象に行った二段階目のタスクで,編集前の文が不自然・編集後の文が自然という回答が過半数を占めた文ぺアは 1,127 個であった。この 1,127 個の文ペアを入力誤り評価データとした。 ## A. 2 クラウドソーシングを用いたデータ セット構築手法の評価 クラウドソーシングを用いて, JWTD v2 の評価を行った. 評価対象はランダムに選んだ記事 3,000 ページ中から得られた文ぺアを用いた. 同じ編集が数多く存在しているぺージが存在したため, データの偏りを避けるために,選ばれたページ内に同一の編集が 4 つ以上含まれていた場合,そのうちの 3 つのみをランダムに採用した。 ## A.2.1 タスク内容 A. 1 節の二段階目のタスクと同じ,編集前後の文が自然かどうかを問うタスクである。それぞれの文ぺアにつき 10 人のワーカーに回答してもらった. ## A.2.2 結果 編集前が不自然で編集後が自然という回答の票が過半数を占める文ぺアを入力誤りとして「正しい」とすると,「正しい」割合は, 誤字が $77.6 \%$, 脱字が $70.3 \%$, 衍字 (a) が $84.1 \%$, 衍字 (b) が $93.5 \%$, 転字が $52.5 \%$, 誤変換 (a) が $64.3 \%$ ,誤変換 (b) が $69.9 \%$ で,全体では $71.9 \%$ であった. ## A. 3 BART の事前学習 日本語 Wikipedia の約 1,800 万文を利用して BART の事前学習を行った ${ }^{10)}$. 事前学習では, Text infilling タスクを行った. Text infilling は, 文章の一部が maskトークンに置き換えられた文章から,元の文章を生成するタスクである。トークン単位は,テキストをJuman++で形態素分割した後にそれらを subword 分割 [10] したものを用いた. subword 分割には SentencePiece[11]を利用し,語彙数は 32,000 とした. encoder と decoder がそれぞれ 12 層である, large モデルで事前学習した。隠れ層の次元は 1,024 , バッチサイズは 512 とし, 25 万 step 学習した. ## A. 4 他の校正システムの設定 Microsoft Word 日本語における入力誤り認識のみの評価に限定するために,校正結果のうち言語設定が日本語とされている箇所のみを評価に用いた。校正の設定は 「文書のスタイル」を「通常の文」に設定し,他は初期設定のままとした. 利用した Word のバージョンは「Microsoft Word for Mac 16.37」である. Yahoo! 校正支援 API Yahoo! 校正支援 API は,校正のカテゴリを 17 種類に分けて出力を行う. 本研究においては,それら 17 種類のうち, $\mathrm{F}$ 值が最大となるような力テゴリを選択して,評価を行った。 10)事前学習済みモデルはhttp://nlp.ist.i.kyoto-u.ac.jp/ ?BART 日本語Pretrained モデルにて公開している.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E8-4.pdf
# NPCMJ への PropBank 形式の意味役割と 概念フレームの付与の進捗報告 竹内 孔一 岡山大学大学院 バトラーアラステア 弘前大学 長崎郁 名古屋大学 } takeuc-k@okayama-u.ac.jp パルデシプラシャント 国立国語研究所 prashant@ninjal.ac.jp ## 1 はじめに $\mathrm{Web}$ 上で閲覧可能な日本語統語解析情報付きコーパス (ツリーバンク)NPMCJ(NINJAL Parsed Corpus of Modern Japanese) [1] が国立国語研究所で開発が進んでおり既に構文木が公開されて言語学者や言語学習者に利用されている1).現在 14 ジャンルの出典で約 4 万文の構文木が構築されておりユーザはツールを通して事例を確認できる. 本研究では NPCMJ に対して述語項構造シソーラズ ${ }^{2)}$ の概念フレームをべー スとして名前による意味役割(「動作主」,「対象」など) と PropBank 形式の意味役割 ( $\operatorname{Arg} 0$, ArgM-ADV など)を付与している [2] . 例えば 「両親は,長女の愛は厳しく育てた」の場合,概念フレームと意味役割は下記のように付与する. 付与過程で英語の構文には出てこない自動 図 1 「両親は, 長女の愛は厳しく育てた」の概念フレームと意味役割付与例 詞の受動態について PropBank では議論されてこなかった必須項が必要であることを先行研究で発表した [3] . NPCMJ は現在も付与が続いているコーパスで 6 万文まで拡張されることが計画されており, 本研究も継続して意味役割と概念フレームを付与する予定である . 本論文では付与作業と現段階での付与された意味タグの内容について記述する。 1) http://npcmj.ninjal.ac.jp/ 2) http://pth.cl.cs.okayama-u.ac.jp/ ## 2 NPCMJ 内の付与対象の設定 NPCMJ は NPやPP といった非終端記号,SBJ やOBJなどの区別,トレース,参照情報が付与されている,一方で , 意味役割を付与する述語と項のみをタグ付けした情報は存在しないが,付与されている詳細な構文情報から論理形式の意味構造に変換する手法が提案されており [4], これを基に付与すべき述語と項が設定される。 図 $2 「$ 長女の愛は」に関する NPCMJ の構文木の例 ## 3 概念フレームデータに基づく PropBank 形式の意味役割 意味役割とは文における述語の係り関係を想定した場合,述語と項との意味的な関係を記述するタグである. 例えば图 1 の場合,述語「育てる」に対して,係り元は「両親は,「長女の愛は」「厳しく」の3つである.このうち,「敩しく」には述語に対する修飾要素として ArgM-MNR を付与し,残りニつは項として $\operatorname{Arg} 0$ と $\operatorname{Arg} 1$ を付与する。 PropBank では意味役割は述語の各語義ごと (つまり述語に対してより細分化された分類)に付与されているが, 本研究では述語項構造シソーラスの概念フレームを利用して概念フレー ムごと (複数の述語で共通する概念) に対して 概念フレームデータ \\ 図 3 NPCMJ の付与コーパスと述語項構造シソーラスおよび概念フレームデータの関係 一貫した必須項の意味役割を付与する.つまり概念フレームが同一の述語間では $\operatorname{Arg} 0, \operatorname{Arg} 1$ などの意味的な関係が一貫した意味役割で付与される.これにより, 同じフレーム内での言い換え関係などが同じタグで取り出せること, さらに,付与の際に,事例が少なくても概念フレーム内で述語があれば意味役割の設定が可能なためより安定して意味役割を設定できることが期待できる。 具体的な例をあげて説明する. 図3では「育てる」は述語項構造シソーラスの概念フレー 么番号 197 (状態変化あり/主体の変化/身体的変化/成長) に相当する語義であることを指摘しており,この概念フレームには「熟す」「発育する」「飼育する」「仕立てる」など自動詞,他動詞が含まれている.これらの述語で必須項を表す $\operatorname{Arg} 0, \operatorname{Arg} 1$ は述語項構造シソーラスに事例が付与されているのと同時に図 3に示すように概念フレームデータを作成して一貫性を保っている。 ## 4 付与作業 付与作業者に対して 2 節で生成された述語と係り元か提示される. 統語情報から述語と判定されたものが自動で選択されており,1文で複数の述語と項の関係が取り出されている (図 4 参照). 作業者は対象事例を基に述語項構造シソーラスの事例を調べて,合致する概念フレームを探す . 合致する概念フレームがあれば , 必須項を 図 4 NPCMJ の付与コーパスと述語項構造シソーラスおよび概念フレームデータの関係 事例から選び,付加詞の場合はあらかじめ決められているリスト [2] から意味役割を選択する.シソーラスに存在しない場合は , 該当する概念フレームがある場合は既にある述語を利用して記述し (5 図参照), 必要があれば辞書を更新する. 同樣に意味役割が不足している場合は辞書管理者が判断して概念フレームの必須項を追加する。 ## 5 FrameNet に準拠したデータ 形式 意味役割と概念フレームを付与した NPCMJ からデータを取り出す形式として現在 2 種類が可能である. 1 つは图 5 に示すように FrameNet に準拠した XML 形式であり,文と述語および意味役割が付与されている. FrameNet の XML では述語と項や係り元の構造か理解しやすいく簡素であるため 6 節の統計量も XML 形式のデータから取り出している。 しかしながら XML 形式には NPCMJ の統語情報が付与されていない,そとこで本論文ではまだ利用していないが構文木の構造による出力形式も構築している.統語情報や参照情報,形態素情報など多量な情報が付与されており付与された全ての情報を取り出すことが可能である. 図 5 FrameNet に準拠した NPCMJ 意味役割付与データ形式 図 5 ではコーパス misc_1709kytext1 にテキストがあったことがわかる.述語と項の情報は annotationSet のタグ内に記述されてお り, 複数の述語と項の組がある場合は複数の annotationSet が記述される.ここでは「の」が述語で項は「2 歳違い」と「姉妹」である. 連体修飾の形になっている。 XMLでは述語「の」の概念フレームは 895(コピュラ) に登録されている述語「です」に相当することを示している.「2 歳違い」と「姉妹」 の意味役割は光れ光れ $\operatorname{Arg} 1$ :対象と $\operatorname{Arg} 2$ :補語相当(は)である.つまり平叙文だと [895です] として付与している。 ## 6 現在の付与内容 現段階で付与している述語の付与数は 22,637 箇所で炎のうち項の付与数は 44,404 箇所である . 各要素について以下に説明する。 述語について 基本的に NPCMJ では文内の表層形に述語の概念を付与している.よって述語の種類数を求める場合, 単純に文字列で集約すると付与述語の語彙数がわからない. 光こで形態素解析 $\mathrm{MeCab}$ を通して述語の種類を推定して求めた.光の結果,付与している述語の種類数は 4048 種類である . 形態素解析を利用してどのような種類の述語があったかを図 6 に示す. 図 6 付与した述語 (上位 20 件) 図 6 は縦軸が形態素の頻度を表している。「だ」がもっとも多く続いて「の」(同格),「ある」「なる」などの和語動詞が多い. 次に述語の品詞について頻度の多い述語から順に図 7 に上位 20 件まで示す. 品詞は MeCab (IPAdic) の品詞細分類までとする . 述語の頻度で3 番目に「名詞一般」が多いのは「こと」を述語として付与しているためである.「こと」 は非飽和名詞 $[5,6]$ であり,内容を名詞化する 図 7 述語の品詞 (上位 20 件)(MeCab による推定) 際に使われる.述語項構造シソーラスでは現段階では非飽和名詞に関する項目が無いが可能な限り付与している. 現段階では一部概念フレー ムとして WordNet の概念フレームを付与している (例えば「こと」に対して「w $\mathrm{wn:00034479-n \lrcorner ).}$ また「話」「仕事」などの非飽和名詞の他に「試み」や「喜び」など述語的な要素を持つものなどがある.これらは述語項構造シソーラスの概念フレームを付与している.よって先行研究 [7] で付与されている事態性名詞についても今回の NPCMJ コーパスに付与されている. 次に概念フレームについて图 8 に上位 10 件の頻度分布を示す. 最も多いのが「コピュラ」 図 8 述語の概念フレーム (上位 10 件) (ある)である.次に「伝達」(話す),「生成」(作る),「変更」(変える),「移動」(行く)が多いことがわかる. 項について 項に付与した意味役割の統計量について示す。 PropBank 形式の意味役割上位 20 件を図 9 に示す. 図 9 では最も多い意味役割は $\operatorname{Arg} 1$ で $\operatorname{Arg} 0$ の 1.6 倍程度出現している.必須項は $\operatorname{Arg} 2$ までが数千の単位で出現していて,割合が多いことが 図 9 PropBank 形式の意味役割 (上位 20 件) 分かる. 一方, $\operatorname{Arg} 3$ や $\operatorname{Arg} 4$ はこれらに比べると相対的に少ないことが分かる. 付加詞に対する意味役割では副詞を表す ArgM-ADV (副詞), ArgM-TMP (時間), ArgMLOC (場所) が光れ光れ $\operatorname{Arg} 2$ に続いて出現している.ArgM-PRX は連語である.このタグは主動詞の意味がほとんどなく項の部分に中心的な意味がある場合に付与する.「〜をする」という軽動詞構文はこのタイプの意味役割を付与している. (book_except-15) また , 慣用句などで項の部分と動詞の部分が一つになってある決まった意味を表す場合の項の部分に付与する。 (aozora_Tsuboi-1968) よって,ArgM-PRX を付与している項は述語の 一部と見なしている。 次に名前の意味役割上位 20 件の頻度分布を図 10 に示す.「対象」が最も多く,次いで「動 図 10 名前の意味役割 (上位 20 件) 作主」「経験者」が続く . 意味役割の頻度分布が PropBank 形式の意味役割と異なるのは $\operatorname{Arg} 1$ は「対象」や「経験者」など複数の名前の意味役割に付与されることが原因である.これは PropBank 形式の意味役割が構文を重視した分類であるのに対して,名前意味役割は意味的な関係を重視している点に起因する. ## 7 最後に 本論文では現在進めている NPCMJ に対する概念フレームと意味役割付与データ構築プロジェクトでどのようなタグをどの程度付与しているかについて記述した . PropBank 形式の意味役割を採用し,概念フレームごとに意味役割の定義集合を一貫して構築している.NPCMJ における統語情報付与作業はこれからも続くため,今後も意味役割と概念フレームの付与を続けると同時に付与データを公開していく予定である ## 8 謝辞 本研究の遂行にあたって国立国語研究所機関拠点型基幹研究プロジェクト「統語・意味解析コーパスの開発と言語研究」および科研費 (課題番号 19K00552) の助成を受けた . ## 参考文献 [1] 吉本啓, 周振, 小菅智也, 大友瑠璃子, Alastair Butler. 日本語ツリーバンクのアノテーション方針. 言語処理学会第 19 回年次大会, 2013. [2] 竹内孔一, バトラーアラステア, 長崎郁, ホー ンスティーブンライト. PropBank スタイルの意味役割タグを導入した述語項構造シソーラスと NPCMJ への付与計画. 言語処理学会第 25 回年次大会, pp. 136-138, 2019. [3] Koichi Takeuchi, Alastair Butler, Iku Nagasaki, Takuya Okamura, and Prashant Pardeshi. Constructing Web-Accessible Semantic Role Labels and Frames for Japanese as Additions to the NPCMJ Parsed Corpus. In Proceedings of The 12th Language Resources and Evaluation Conference (LREC2020), 2020. [4] Alastair Butler. From discourse to logic with stanford corenlp and treebank semantics. In New Frontiers in Artificial Intelligence. JSAI-isAI 2019, vol. 12331 of Lecture Notes in Computer Science, 2020. [5] 西山佑司. 日本語名詞句の意味論と語用論.ひつじ書房, 2003. [6] 影山太郎. 日英対照名詞の意味と構文. 大修館書店, 2011. [7] 小町守, 飯田龍, 乾健太郎, 松本裕治. 名詞句の語彙統語パターンを用いた事態性名詞の項構造解析. 自然言語処理, Vol. 17, No. 1, pp. 141-159, 2010.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E9-1.pdf
# 中国語の「数量詞分離」の語用論・意味論とその形式化 詹 湬凡(東北大学国際文化研究科)吉本 啓(東北大学高度教養教育・学生支援機構) tinpozhan@gmail.com kei@compling.jp ## 1. はじめに 中国語には(1)のように、日本語の数量詞遊離に類似した現象がある。 (1) 那些苹果我吃了两个。 those apple 1-SG eat-PEF two-CL(general) 'それらのリンゴは私が二個食べた' 日本語の数量詞遊離は様々に議論されている。その代表的な研究として、Miyagawa(1989)は「相互 C 統御条件」と「非対格仮説」を併用する分析を行っている。それに対し、高見(1998)は語用論的特徴、より具体的には、情報構造的特徴により、数量詞遊離構文の適格性問題がよりよく説明することができると述べている。 中国語の数量詞分離構文に関しては、主に Miyagawa(1989)を踏襲し、統語論を中心として議論が展開されている(eg. 山口 2005)。語用論、情報構造の視点からの研究はあまり見られない。中国語の場合は日本語のような長距離遊離という現象がないにもかかわらず、情報構造の観点から表層構造の差異による表現力の差異を説明することができると思われる。そこで、本稿の考察ではまず中国語の数量詞分離構文の情報構造について検討する。 一方、「数量詞」がアジア諸言語において特殊な品詞範疇であり、分離・遊離数量詞はさらに特殊な現象として、意味論上の考察も十分とは言えない。 したがって、本稿では形式意味論の立場を取り、数量詞・分離数量詞の意味表示、及び数量詞分離構文の意味計算をも検討する。 最後の到達点として、語用論、意味論両側面の考察の結論によって、当該文法現象に対して形式的文法体系におけるより完全な記述を提案する。 ## 2. 数量詞分離構文の情報構造 ## 2. 1 情報包装理論と情報構造の三分法 情報構造の分析において、本稿は Engdahl and Vallduví(1996)により提示された情報包装理論 (Information Packaging Theory, IPT)に従う。IPT は情報構造の三分法によって、topic-comment と focus-presupposition の対立を解消している(Vallduví 1990, Chp. 3 を参照されたい)。 より詳細には、まず、一文の情報構造は焦点 (FOCUS)と基盤(GROUND)という二部分に分 けられる。焦点はその文において聞き手にとって相対的に新しく、最も重要であると想定される情報をいう。それに対して、基盤はその文において、聞き手にとって相対的に古く、それほど重要でないと想定される情報である。また、基盤はリンク (LINK)とテール(TAIL)に分けられる。リンクは topic-comment $の$ topic にほぼ相当し、談話の 「出発点」である。これに対し、テールは非リンク的要素であるという。 ## 2.2 中国語の文のデフォルト的情報構造 LaPolla(1995)は中国語の文において、話題的または非焦点的名詞句は動詞の前に現れ、焦点的または非話題的名詞句は動詞の後ろに現れる傾向があると主張している。IPTの体系において、中国語の文は(2)のようなデフォルト的情報構造を持つと考えられる。 (2) 本研究では、北京語言大学により開発された現代中国語コーパス (BCC) から、分離数量詞が生起する文を抽出し、その中から 2000 文を詳細に調査 し、(3)のように文型別に整理した。 (3)(HNP:ホスト名詞、NU:数量詞、 LOC:場所句)。 \\ 以上の文型は、特有の語用論的意義を持っているが、関連する個別的な研究 (eg. 「把」構文 : Tsao (1987)、「被」構文 : LaPolla(1990, Chp. 3 )) によると、それらの情報構造は(2)のデフォルト的情報構造に合致している。それに加えて、実例の上下文脈の観察により、帰納的にホスト名詞の基盤性 (Groundedness)が確認される。これは日本語の数量詞遊離構文に対する高見(1998)の所見にも合致する。 ## 2.3 分離数量詞の焦点性 本節では焦点敏感演算子 (focus-sensitive operator)を利用し、分離数量詞の焦点性を確認する。焦点敏感演算子(focus-sensitive operator)とは、文の焦点位置が変わるのに伴って、束縛要素と作用域が変わり、文の解釈(意味)の変化をもたらす演算子を指す。 下の(4)を見よう。 (4) a. 饭我最多吃一碗。 rice 1-SG at-most eat one-CL(bowl) ‘ご飯は私が精々一杯を食う。 b. 我最多吃一碗饭。 1-SG at-most eat one-CL(bowl) rice ‘私は精々一杯のご飯を食う。 (4a)は数量詞分離構文であり、(4b)では数量詞が名詞を連体修飾している。副詞「最多」は焦点敏感演算子として、(4a)において、数量詞「一碗」を束縛し、他方、(4b) において、「一碗饭」全体を束縛する。よって、たとえば「ご飯を一杯、餃子を四個食う」場合、(4a)は真となるが、(3b)は偽となる。 数量詞一名詞の「連合」はそもそも意味上、「モノの存在」・「モノの数量」・「モノの内容」の三種類の情報を伝える。数量詞分離構文は語用論上、ホス卜名詞が先に提示されることによって、「モノの存在」と「モノの内容」が前提化され、目的語位置に残る数的情報をハイライトする働きをしていると考えられる。 ## 3. 数量詞分離構文の意味論 3.1 $\lambda$ 計算付き談話表示理論 意味論の分析において、構成性原理と文脈依存性を考慮し、 $\lambda$ 計算付き談話表示構造 ( $\lambda$-DRS, Bos et al. 1994)を採用する。DRS(Kamp and Reyle 1993)は通常、「ボックス」で記述されるが、スペ一ス節約のために、ここでは線状化された表記 (Muskens 1996)を使う。基本的な形式は(5)のようになる。 (5) $K($ Box $)=\left[\mathrm{x}_{1} \ldots \mathrm{x}_{\mathrm{n}}\right.$ (discourse referents) $\mid \varphi_{1} \ldots \varphi_{\mathrm{n}}$ (conditions)] ## 3.1 ホスト名詞の解釈 基盤的であるという情報構造的特峌はホスト名詞の意味論上のステータスにも関連している。ホスト名詞は定的指示(definite reference)または種類指示 (kind reference) でなければならない。換言すれば、ホスト名詞は漠然とした不定的対象と解釈されることが許されない。 有定性(definiteness)は認識上の同定可能 (identifiable)性として定義されることがある(eg. Lyons 1999)。種類指示、または総称、と話題性 (topichood)との関連もよく議論される(eg. Van Valin and LaPolla 1997, p.200)。種類指示は常識上談話参加者にとって同定可能的であるため、常に話題となるとされている。 しかし、形式意味論において名詞は通例、技術的に一項関数としての属性(property)として扱われている。種類指示に対処するために、本稿は Chierchia(1998)の方法を導入する。ここでは主に二つのものをオントロジックに使う。 (1)素朴集合論の代わりに、束(lattice)に基づいた名詞の外延の定義。(詳細は 3.2 節) (2) ${ }^{n}$ (down 演算子)。属性は down 演算子の作用 によって、一階定項 e としての種類(kind)にタイプシフトすることができる。そこで、「パンダは稀だ」の意味は(6)のように表すことができる。 (6) $\llbracket$ Panda is rare $\rrbracket=$ RARE $^{\prime}\left({ }^{n}\right.$ PANDA' $\left.^{\prime}\right)$ $\lambda$-DRS の場合、種類指示はその定項に独自のソ一トを与え、(7)のように表示する。 (7) [ $\mid<k$, name $>]$ $\mathrm{k}_{\mathrm{i}}$ はソートが「kind」である定項として、ソートが「event」である定項 $\mathrm{e}_{\mathrm{i}}$, ソートが「individual」である $\mathrm{x}_{\mathrm{i}}$ などと区別される。よって、(6)はこのような体系において、 $\left[\mid<\mathrm{k}_{\mathrm{i}}\right.$, panda $>$, rare $\left.\left(\mathrm{k}_{\mathrm{i}}\right)\right]$ で表すことになる。 一方、定的指示のような文脈依存表現は Bos et al. (1994)において、「ALFA 条件」が付いた「ALFA 表現」として扱われている。ここでは、「ALFA 表現」を(8)のように表記する。 (8) [ |@x. $\{\psi(\mathrm{x}) \ldots($ restriction $)\}]$ (8)に示すように、ALFA 表現の談話域は空値であり、ALFA 表現自体は談話域に談話指示物を導入しない。@xはただの仮変数で、照応処理によって適切なグローバル変数と同值化することが要求されている。 ## 3.2 数量詞 - 分離数量詞のオントロジッ クな定義と意味表示 Chierchia の名詞意味論に従い、小林(2004)の扱い方も参考して、中国語の数量詞 - 分離数量詞につき、(9)にオントロジックな定義を与える。 ## (9) Unit $\{\mathrm{k} 1, \ldots, \mathrm{km}\}$ が種類 $\mathrm{k}_{1}, \ldots, \mathrm{k}_{\mathrm{m}}$ に対して適切な助数詞である場合、Unit $\{\mathrm{k} 1, \ldots, \mathrm{km}\}$ の外延 U は、 $\mathrm{k}_{1}, \ldots, \mathrm{k}_{\mathrm{m}}$ が含むすべての要素からなる上限半束 (upper semilattice)として定義される。 $ \begin{aligned} & \mathrm{U}=\left.\{\mathrm{x} \in \mathrm{U} \mid \exists \mathrm{y}_{1}, \ldots, \mathrm{y}_{\mathrm{r}} \in \mathrm{U}\left.\{\llbracket \mathrm{k}_{1} \rrbracket, \ldots, \llbracket \mathrm{k}_{\mathrm{m}} \rrbracket\right.\}:\right. \\ & \left.\mathrm{x}=\mathrm{y}_{1} \oplus \ldots \oplus \mathrm{y}_{\mathrm{r}}\right.\} \end{aligned} $ $\mathrm{n}$ は基数で、数量詞 [ $\mathrm{NU}$ Numeral $_{\mathrm{n}}$ Unit] は $\mathrm{n}$ を入力し、U の中から濃度(cardinality)が n である集合を選び出してそれらの集合を(n が 1 であれば $\mathrm{U}$ の中の原子的(AT)要素からなる集合を)出力する関数 $v$ と定義する。 $ \begin{aligned} & v(\mathrm{n})=\mathrm{AT}(\mathrm{U}), \mathrm{n}=1 \text {, or }\{\mathrm{x}|\mathrm{x} \in \mathrm{U} \wedge| \mathrm{x} \mid=\mathrm{n}\}, \mathrm{n} \\ & >1 \end{aligned} $ $\mathrm{k}_{\mathrm{i}}$ が Unit $\{\mathrm{k} 1, \ldots, \mathrm{km}\}$ で数えられる種類の一つであるとすると、数量詞が連体修飾する名詞句 [NUP $\mathrm{NU}_{\mathrm{i}}$ ] は $\mathrm{k}_{\mathrm{i}}$ を入力して、v(n)の結果の中 $\mathrm{k}_{\mathrm{i}}$ の部分を満足する要素の集合、もしくは $v(n)$ と $\mathrm{k}_{\mathrm{i}}$ が対応する概念の外延の積集合を出力する関数 $\mu$ と定義することができる。 $ \begin{aligned} & \mu\left(\mathrm{n}, \mathrm{k}_{\mathrm{i}}\right)=\left.\{\mathrm{x} \mid \mathrm{x} \in \mathrm{v}(\mathrm{n}) \wedge \mathrm{x} \leq \llbracket \mathrm{k}_{\mathrm{i}} \rrbracket\right.\}=\mathrm{v}(\mathrm{n}) \cap \\ & \quad \llbracket{ }^{\cup} \mathrm{k}_{\mathrm{i}} \rrbracket \end{aligned} $ 分離数量詞の場合、ホスト名詞が定的指示に解釈されることがあるため、前に定義した $\mu$ の関数を拡張する必要がある。つまり $\mathrm{k}$ だけではなく、定的指示の類も適用できるようにしなければならない。即ち、 $ \begin{gathered} \mu\left(\mathrm{n}, \mathrm{k}_{\mathrm{i}}\right) \Rightarrow \mu(\mathrm{n}, \mathrm{t})=\{\mathrm{x} \mid \mathrm{x} \in \mathrm{v}(\mathrm{n}) \wedge \mathrm{x} \leq \llbracket \mathrm{t} \rrbracket\} \\ \mathrm{t} \in\left.\{\mathrm{k}_{1}, \ldots, \mathrm{k}_{\mathrm{m}}\right.\} \vee \mathrm{t}=\mathrm{P} P \wedge \cap_{\mathrm{P}} \in \cup\left.\{\mathrm{k}_{1}, \ldots, \mathrm{k}_{\mathrm{m}}\right.\} \end{gathered} $ 以上の定義を踏まえて、 $\lambda$-DRS の枠組みにおいて、分類数量詞の表示は自然に導き出される。比較のために、(10a) には連体修飾する数量詞の中の助数詞の論理形式を示し、10b)には分離数量詞の中の助数詞の論理形式を示す。 (10) a. $\lambda n \lambda k \lambda P[x \mid x \in \mu(n, k) \wedge P(x)]$ b. $\lambda \mathrm{n} \lambda \mathrm{P}[\mathrm{x} \mid \mathrm{x} \in \mu(\mathrm{n}, @ \mathrm{t}) \wedge \mathrm{P}(\mathrm{x})]$ ## 3.3 数量詞分離構文の意味生成 下の(11)は、例文(1)の意味生成の過程を示す。ここでは Gao (2001)の動詞項構造拡張説を採用し、ホスト名詞を動詞が下位範疇化する斜格 (OBL)とする。 两个: $\lambda \mathrm{P}[\mathrm{y} \mid \mathrm{y} \in$ 个(2,@v) $\wedge \mathrm{P}(\mathrm{v})]$ 吃了: $\lambda y \lambda x \lambda \lambda z[e \mid e a t(e), \operatorname{Agent}(e, x)$, Theme(e, y), OBL(e, z)] $\Rightarrow$ 吃了两个: $\lambda x \lambda z[$ e, y $\mid$ eat(e), Agent $(e, x)$, Theme $(e$, $\mathrm{y}), \mathrm{y} \in$ 个(2, @v),OBL(e, z)] 我: $\lambda \mathrm{P}[\mid @ \mathrm{i} .\{<\mathrm{i}$, speaker $>\} \wedge \mathrm{P}(\mathrm{i})]$ $\Rightarrow$ 我吃了两个: $\lambda z[\mathrm{e}, \mathrm{y} \mid \operatorname{eat}(\mathrm{e}), \operatorname{Agent}(\mathrm{e}, \mathrm{i}), @ \mathrm{i} .\{<\mathrm{i}$, speaker $>\}$, Theme(e, y), $\mathrm{y} \in$ 个(2, @v),OBL $(\mathrm{e}, \mathrm{z})]$那些苹果: $\lambda \mathrm{P}[\mid @ \mathrm{w} .\{\operatorname{apple}(\mathrm{w})\} \wedge \mathrm{P}(\mathrm{w})]$ $\Rightarrow$ 那些苹果我吃了两个: [ e, y | eat(e), Agent(e, i), @i. $\{<\mathrm{i}$, speaker $>\}$, Theme(e, v), y $\in$ 个 $(2, @ \mathrm{v}), \mathrm{OBL}(\mathrm{e}$, w), @w.\{apple(w) \}] $\Rightarrow$ (照応処理) [ e, y | eat(e), Agent(e, i), @i. $\{<i$, speaker $>\}$, Theme(e, y), $\mathrm{y} \in$ 个(2,@w), OBL(e, w), @w.\{apple(w)\}] ここでの照応処理は統語部門の規定による local resolution である。動詞の項構造において、OBL により同時に Theme のギャップが補填されることが記載されている((13)を参照されたい)。文の統語計算が完成する時点で、@vの値は@w に同一化される。 ## 4. HPSG による形式化 本節では数量詞遊離に関して、第 2 節の語用論からの考察と第 3 節の意味論からの考察を、主辞駆動句構造文法 (Head-driven Phrase Structure Grammar, HPSG)により記述する。HPSG の設定と表示は Sag et al. (2003) のバージョンに基づいている。 IPT と $\lambda$-DRS は別々に、語用論部門(PRAG)及び意味論部門(SEM)において構成される。 下の(12)には、(1)のような話題化構文の主動詞の項構造を示す。文法諸部門のインタフェースとする項構造によって情報構造の指定を担うのは合理的だと思われる。同時に、文内の照応の情報や意味役割の分配の情報についても規定されており、まさに文法諸部門の「相互制約」を反映している。 (13)は(1)の中の一般助数詞の「个」の辞書項目を示す。ここはALFA_ARG の値と半順序関係 $(\leq)$ にある ARG2 の値、とギャップの補填子の意味論部門に記載される項の值とが同值であると指定するこ とによって、統語計算が完了する時点で、分離数量詞が実質的な名詞的内容物を獲得する。 (13) ## 5. おわりに 本稿では、中国語の数量詞分離構文を語用論及び意味論の両側面から分析した。語用論から、数量詞分離構文はホスト名詞と分離数量詞とが基盤対焦点の関係にあり、数量詞が連体修飾する名詞句全体が基盤や焦点の位置にある文とは異なる。このような情報構造の分布は意味解釈に相応の制約をもたらす。 Chierchia の名詞意味論により、本稿は一貫した形式意味計算の手続きを提供している。数量詞分離は語用論的な動機に基づく構文であると言える。また、 中国語の discourse configurational language としての性格も明らかになった。このような分析は形式文法の理論的な面において、制約に基づく並列的処理の妥当性を証明している。将来の課題として、この分析を他の言語現象にも適用し、この文法体系の実装を行いたいと思う。 ## 参考文献 Bos, J., Mastenbroek, E., McGlashan, S., Millies, S., and Pinkal, M. (1994). The Verbmobil semantic formalism (version 1.3). Verbmobil Report 6, Universität des Saarlandes, Saarbrücken, Germany. Chierchia, G. (1998b). Reference to kinds across language. Natural language semantics, 6(4), 339405. Engdahl, E. and E. Vallduví (1996). Information packaging in HPSG. In: C. Grover and E. Vallduví (eds.) Edinburgh working papers in cognitive science, 12, 1-32. Scotland: Centre for Cognitive Science, University of Edinburgh. Gao, Q. (2001). Argument structure, HPSG, and Chinese grammar. Doctoral dissertation, The Ohio State University. Kamp, H. and U. Reyle (1993). From Discourse to Logic. Dordrecht: Kluwer Academic Publishers. LaPolla, R. J. (1990). Grammatical relations in Chinese. Synchronic and diachronic considerations. Ph. D. dissertation, UC Berkeley. LaPolla, R. J. (1995). Pragmatic relations and word order in Chinese. In: Pamela A. Downing and Michael Noonan (eds.), Word order in discourse, 297-329. John Benjamins Publishing. Lyons, C. (1999). Definiteness. Cambridge University Press. Miyagawa, S. (1989). Syntax and Semantics 22: Structure and Case Marking in Japanese. San Diego: Academic Press. Muskens, R. (1996). Combining Montague semantics and discourse representation. Linguistics and phil -osophy, 19(2), 143-186. Sag, I. A., T. Wasow and E. Bender (2003). Syntactic Theory: A Formal Introduction (2nd ed.). Stanford: CSLI Publications. Tsao, Feng-fu. (1987). A topic-comment approach to the ba construction. Journal of Chinese Linguisitcs, 15, 1-54. Vallduví, E. (1990). The informational component. Ph.D. Dissertation, University of Pennsylvania. Van Valin, R. D., Jr. and LaPolla, R. J. (1997). Syntax: Structure, meaning, and function. Cambridge University Press. 高見健一 (1998)「日本語の数量詞遊離について: 機能論的分析 (下)」『言語』27:3.99-107 小林昌博 (2004)「数量詞の形式と量化の領域 : 日英語の対照の観点から」、佐藤滋・堀江薰・中村涉編『対照言語学の新展開』,125-135.ひつじ書房山口直人(2005)「中国語の遊離数量詞」『日中言語対照研究論叢』(7), 114-131.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E9-2.pdf
# 定理証明に基づく対話的な自然言語推論システム 隅田敦 東京大学 atsushisumita0421@gmail.com } 峯島宏次 慶應義塾大学 } minesima@abelard.flet.keio.ac.jp 宮尾祐介 東京大学 yusuke@is.s.u-tokyo.ac.jp ## 1 概要 自然言語推論 (Natural Language Inference; NLI) とは, ある文から別の文が帰結するか否かを判定するタスクである [1]. 自然言語推論は質問応答, 自動要約, ファクトチェックなどの様々な応用先が考えられ, 近年では自然言語理解のベンチマークとしても重要性を増している [2]. 本論文では, 計算機と人間のインタラクションが NLI を解く上で有益であるかを検討する.ここでインタラクションとは, 人間と計算機が互いの弱みを補完しながら協力して NLI タスクを解くという形式を想定している. 一般的に, 人間の方が語彙間の含意関係や常識推論などの柔らかい判断に優れる一方で, 計算機の方が交錯した論理関係の包括的な探索や検証において優位性があると考えられる. 自然言語推論は様々な意味現象が組み合わさった複雑な夕スクであり,これら両方の意味現象を処理する必要がある. 本研究では形式意味論と定理証明器を用いるアプローチに着目する. 定理証明器は複雑な数学的命題や形式手法の証明を補佐するためのソフトウェアであり, 人間と計算機が互いの強みを活かしてインタラクティブに複雑な課題を解決している好例である.いくつかの既存研究において, 自然言語の意味を論理式を用いてモデル化する形式意味論 $[3,4]$ と組み合わせることで, 定理証明器を NLI に応用することが出来ることが示されている $[5,6,7]$. しかし, 定理証明器の重要な特徴であるインタラクティブな課題解決という側面に目を向けた NLI システムはこれまでに十分に研究が行われて来なかった. そこで, 本研究では形式意味論と定理証明器に基づいた NLI システムである ccg2lambda [8] に, 証明 に関する知識が不足した際にユーザーが自然言語でインタラクションを行うことが出来るシステムを提案する。 仮説の検証のために,SICK [9] をデータセット, Amazon Mechanical Turk にて募ったクラウドワー カーを被験者として適合率, 再現率, 精度を計測し, エラー分析を行った. 以降で提案手法と実験について詳細に説明する。 ## 2 提案手法 本節ではユーザーと定理証明器とのインタラクションを実現するための提案手法について説明する. 重要な点として,インタラクションは基本的に自然言語で行われる.これにより, 形式意味論や定理証明器について知識がないユーザーであってもインタラクションが可能となる. 図 1 に提案手法の大枠を示した. 提案手法の内, セマンティックパーザーと定理証明器については既存手法を用いている. まず,ユーザーが証明したい文の組をシステムに入力し,これがセマンティックパー ザーにより論理式に変換される.これが定理証明器に入力される. 定理証明器は証明をいくつかのサブゴールと呼ばれる命題に分解し, 全てのサブゴールが証明された時に全体の証明が完成する. 図 1 の例では, person $(x 0)$, move $(e 0)$ がサブゴールである. 本研究ではサブゴールを自然言語に変換しユー ザーに提示するインタラクティブな NLI システムを提案する. 以下, サブゴールを自然言語に変換したものを可読なサブゴールと呼ぶことにする.より正確には, あるサブゴールの可読なサブゴールとは, 前提文とそのサブゴールが真の時かつその時のみ真となるような自然言語文のことである。図の例では, person $(x 0)$, move $(e 0)$ に対応する可読なサブゴール (1)ユーザーの入カを論理式に変換 図 1 提案手法によるインタラクションの例. ユーザーが証明したい文対を入力すると, セマンティックパーザーにより文対が論理表現に変換され,定理証明器に入力される。証明が完成しなかった場合にサブゴールを抽出し,提案手法により可読なサブゴールが生成されユーザーに提示される. ユーザーの反応に応じて公理が生成され,証明が続行される. は The man is a person, The man is moving となる. ユー ザーが可読なサブゴールの真偽を入力すると, それに応じて新たな論理式が公理として生成され, 定理証明器にフィードバックされる. 以下でより詳細なステップについて説明する。 ## 2.1 可読なサブゴールの生成 サブゴールを可読なサブゴールに変換する問題を考える. 以下の説明では, 図 1 中の move $(e 0)$ を例にとる. サブゴールを自然言語文に変換するためには, サブゴールに含まれていないが自然言語文には必須の要素を識別し正しく補充することが必要となる. 例えば, 適格な (英語の) 自然言語文は主語が必ず必要である. move $(e 0)$ の例では, 誰が moveしているのかを識別しなければならない。 まず第一ステップとして, 可読なサブゴールに含めるべき変数の集合を識別する.これは論理式中の意味役割を表す式から識別できる. 意味役割は主語や動詞の必須項などを表現しており, 適格な自然言語文には含める必要がある. よって, 各変数についてその変数が含まれている意味役割の式を抽出し, その式に含まれている全ての変数を集合に追加するという手続きを再帰的に適用すれば良い. 現在の例では, $\operatorname{Subj}(e 0)=x 0$ から可読なサブゴールに含めるべき変数は $\{e 0, x 0\}$ であることが分かる.次のステップでは,それぞれの変数に語を割り当て, 変数の内容を自然言語で表す.これには, その変数を引数としている述語を選択すれば良い.現在の手法では entity 型の変数に関してはそれを引数に取る名詞を, event 型の変数に関してはそれを引数に取る動詞を選択している. 現在の例では, $x 0$ には man, $e 0$ には move を選ぶ. 結果として, $\{e 0$ : “move”, $x 0$ : “man” $\}$ を得る. 最後に, 得られた語の正しい語順と必要な機能語を適宜補充し, 文法的に正しい文を生成する. 可読なサブゴールはごく簡単な宣言文なので, 語の品詞から語順, 時制, 必要な機能語を特定するルールベースのシステムが比較的容易に構築可能である.この例では, The man is moving が可読なサブゴールとなる. 表 1 に実際に生成された可読なサブゴールを示した. 二列目にサブゴール, 三列目に可読なサブゴールが示されている. ## 2.2 ユーザーの反応 可読なサブゴールを受け取ったユーザーは true, false, unknown から一つを選び, これを返答とする。 true が選択されると, 可読なサブゴールが論理表現に変換され, 公理として定理証明器に追加される. false が選ばれた場合には可読なサブゴールを否定した論理表現が追加される. unknown が選ばれた場合には公理は追加されず, 証明が完成しないことが & boy $(x 0)$ & The kid is a boy. & $\forall x, \operatorname{kid}(x) \rightarrow \operatorname{boy}(x)$ \\ & & & \\ and the man is smiling nearby. & near $(e 0, x 1)$ & The man is with a smile. & $\forall x, y, e, \operatorname{boy}(x) \rightarrow$ \\ H: The kids are playing outdoors near a & with $(e 1, ? x 2)$ & The boys are near a man. & $\operatorname{Subj}(x)=e \wedge \operatorname{near}(e, y)$ \\ man with a smile. & $\operatorname{smile}(? x 2)$ & & $\wedge \operatorname{man}(y)$ \\ H: Two dogs are wrestling and hugging. & hug $(e 1)$ & The dogs are hugging. & $\forall e, \operatorname{fight}(e) \rightarrow \operatorname{wrestle}(e)$ \\ 表 1 文のペアに SICK の訓練データから抽出した文を示している,T から始まる文が前提文, $\mathbf{H}$ から始まる文が帰結文であり, 前者から後者への含意関係を示すことがタスクの内容となる. イタリックで示した箇所が非論理的推論が必要となる箇所であり, サブゴールとして定理証明器により出力される. サブゴールには定理証明器が証明出来なかった命題を示している. 可読なサブゴールには提案手法が生成しユーザーに提示された文を示した. 公理にはユーザーが trueで反応した場合に生成される論理式を示した. 表 2 SICK における適合率, 再現率, 精度. チェックマークは axiom injection [5], readable subgoal は提案手法の可読なサブゴールを使用しているか否かを示している。 確定するのでプロセスが停止する. 表 1 の四列目に trueが選択された場合の公理を示した. ## 3 実験 ## 3.1 データ 提案手法の評価には, 語彙的な推論と論理的な推論の両方を適度に含み, 関連する既存手法 $[5,6]$ においても使用されている自然言語推論データセットである SICK [9]を用いた. SICK は 10000 件の文対から成り, 各文対について一つ目の文から二つ目の文が帰結するか否かを判定する分類タスクである. 正解ラベルは entailment, contradiction, neutral の三通りである. ## 3.2 実験設定 セマンティックパーザーには ccg2lambda [8], 定理証明器に Coq [10] を使用した. SICK の訓練データからサンプルした 1000 ペアを depccg と ccg2lambdaにより論理表現に変換し, 定理証明器に渡して証明を行った. 定理証明器が証明を完成させた場合はプロセスが終了する. 証明が完成しなかった場合はサブゴールを抽出し, 提案手法により可読なサブゴール を生成し, ユーザーがインタラクションを行う. 本実験においては Amazon Mechanical Turkにより被験者を募り,各ペアについて 3 人が true, false, unknown を付与した. 精度を高めるため, 3 人が一致した時のみ公理を生成した。 ## 3.3 結果 適合率, 再現率, 精度を表 2 に示した. 一行目のベースラインは majority class であり, $61.5 \%$ を占める neutral の割合を示している. 二行目は ccg2lambda [8] の結果であり, $99.7 \%$ と高い適合率を達成しているが, 再現率が $34.7 \%$ と低く, 全体として低い精度となっている. 三行目に ccg2lambdaを拡張し知識デー タベースから公理生成を行う word abduction [5] の結果を示した. 語彙的推論がカバーされたため再現率が $53.8 \%$ に向上している. 四行目に提案手法の結果を示した. 再現率は $59.0 \%$ と最も高く, 偽陽性も少なく適合率の高さも維持されたため, 精度についても比較した手法の中では最も良い結果となった. ## 3.4 エラー分析 提案手法の成功例と失敗例について表 3 にまとめた. & Yes & Yes & The helmet is red. \\ 表 3 本実験中に得られた提案手法の成功例と失敗例. 単純な語彙間の含意関係では捉えられない句間の含意関係が捉えられている (1-2 行目). 一方で, 帰結文との重複が多いケース (3 行目) や蓋然性を高めるだけの関係を含意とアノテーションしてしまうケース (4-5 行目) が多く見られた. 一行目のペアは成功例である.この証明を完成させるためには, 句間に成立する含意関係を認識する必要があり, 単純な語彙間の含意関係に基づいた手法では処理することが出来ない. より形式的には, ここで用いられている知識は以下のようなものである. The helmet is red については $ \begin{aligned} & \forall x, y, e, \operatorname{paint}(e) \wedge \operatorname{red}(x) \wedge(\operatorname{Acc}(e)=x) \\ & \wedge(\operatorname{Dat}(e)=y) \rightarrow \operatorname{red}(y) \end{aligned} $ The man is a motorcyclist については $ \begin{gathered} \forall e, x, y, \text { ride }(e) \wedge \operatorname{man}(x) \wedge \operatorname{motorcycle}(y) \\ \rightarrow \operatorname{motorcyclist}(x) \end{gathered} $ 実際この例においては知識ベースにより公理を生成する既存手法 [5] は証明を完成させることが出来ていない. 二行目に示した例も同様に, ride the wave から surf を導く必要がる. 三行目に示した例は成功しているがやや問題を含んでいる. 可読なサブゴールは正しく生成され予測結果も正しいが, 帰結文とほとんど重複してしまっている.これは帰結文が短すぎるために分解の余地がないためである.したがってこのようなケースでは可読なサブゴールを介する有用性が低く, より長い前提文・帰結文において提案手法が価値を発揮することが示唆される。 四行目に示した例は典型的な失敗例である.この例では The stage is a podium という可読なサブゴールに対して true とラベルが付与されたが, 全ての stage が podium である訳ではないので unknown が正しい反応となる. ただしこの文脈で stage が podium であるという蓋然性は高く, このようなケースと他の語彙間の含意関係や常識判断の間に厳密な線を引くのは難しい. 五行目に示した例も同様である. また, 曖昧性のある場合にも解析誤りが見られた. 例えば The men are women はその女性は男性であるともその女性は人間であるとも解釈でき, それぞれの解釈の下で適切な反応が異なってしまう。このような曖昧性の解消が将来的には必要になると考えられる。 他の失敗ケースで多く見られたのは CCG タグ付けやセマンティックパーザーなどの前処理の段階での解析結果の誤りが影響するケースである. 特に複合表現など構成性を満たさない表現は誤った意味表現が付与される例が多く見られた. ## 4 結論と今後の課題 本論文では形式意味論と定理証明器に基づいたインタラクティブな自然言語推論システムを提案した. 実験の結果, 提案手法により再現率と精度が向上しており,ユーザーとのインタラクションが有益であることが示された. 今後の課題としては, 前節で示した典型的な失敗例の解決に加え, より複雑な設定でインタラクションを成立させることが挙げられる. SICK は単文と単文の間の含意関係を認識するタスクだが, 人間が論理関係を包括的に把握するのが困難な量のドキュメントを前提文とする場合の方が応用上は有益である. そのためには共参照などの問題を考慮する必要が生じる. また, SICK では非論理的推論のほとんどがシンプルな語彙間の推論だが, 常識推論などのより高度かつ計算機には処理が難しい推論を含んだ場合にもインタラクションを成立させることが出来れば, ユーザーとシステムの協働により高い価值を見いだせるので,これらを今後の課題としたい. ## 参考文献 [1] Omer Levy, Torsten Zesch, Ido Dagan, and Iryna Gurevych. Recognizing partial textual entailment. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pages 451-455, Sofia, Bulgaria, August 2013. Association for Computational Linguistics. [2] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pages 353-355, Brussels, Belgium, November 2018. Association for Computational Linguistics. [3] Terence Parsons. Events in the Semantics of English. MIT Press, 1990 [4] Claudia Maienborn. Event semantics. In Claudia Maienborn, Klaus von Heusinger, and Paul Portner, editors, Semantics. An International Handbook of Natural Language Meaning, volume 1, pages 802829. Mouton de Gruyter, 2011. [5] Pascual Martínez-Gómez, Koji Mineshima, Yusuke Miyao, and Daisuke Bekki. On-demand injection of lexical knowledge for recognising textual entailment. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pages 710-720, Valencia, Spain, April 2017. Association for Computational Linguistics. [6] Hitomi Yanaka, Koji Mineshima, Pascual MartínezGómez, and Daisuke Bekki. Acquisition of phrase correspondences using natural deduction proofs. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pages 756-766, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [7] Lasha Abzianidze. LangPro: Natural language theorem prover. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pages 115-120, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [8] Pascual Martínez-Gómez, Koji Mineshima, Yusuke Miyao, and Daisuke Bekki. ccg2lambda: A compositional semantics system. In Proceedings of ACL2016 System Demonstrations, pages 85-90, Berlin, Germany, August 2016. Association for Computational Linguistics. [9] Marco Marelli, Stefano Menini, Marco Baroni, Luisa Bentivogli, Raffaella Bernardi, and Roberto Zamparelli. A SICK cure for the evaluation of compositional distributional semantic models. In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC'14), pages 216-223, Reykjavik, Iceland, May 2014. European Language Resources Association (ELRA). [10] Yves Bertot and Pierre Castéran. Interactive Theorem Proving and Program Development: Coq'Art: the Calculus of Inductive Constructions. Springer, 2013.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E9-3.pdf
# ニューラルネットが学習する意味表現は体系性を持つか 谷中 瞳 1 峯島 宏次 ${ }^{2}$ 乾 健太郎 3,1 1 理化学研究所 2 慶應義塾大学 3 東北大学 } hitomi.yanaka@riken.jp minesima@abelard.flet.keio.ac.jp inui@ecei.tohoku.ac.jp ## 1 はじめに 大規模計算環境の発展に伴い,大量のテキストデータを扱うことが可能となり,機械翻訳や質問応答といった様々な自然言語処理タスクにおいて,深層ニューラルネット (DNN) を用いた手法 $[1,2]$ が高精度を達成しつつある。一方で,DNN がデータセット中の表層的な関係やバイアスを学習しているという問題が指摘されており $[3,4]$, DNN が自然言語の意味を学習できているのかは自明ではない. DNNによる表現学習の問題として,DNNによる意味表現が, 形式意味論で考えられてきた構成性 (compositionality) の原理一文全体の意味が構成要素の意味から統語構造に従って決まるという性質一を満たしているか,という問題がある。この問題は人間の認知のモデリングに関する 2 つの理論,すなわち,コネクショニズムと古典的計算主義の対立として古くから議論されている。その中で Fodor [5] は, Ann loves Bob という文の内容を思考できれば,Bob loves Ann という文の内容も思考できるというように, 人間の認知能力には, ある処理ができれば関連した処理もできるという体系性 (systematicity) があることを主張している. Yanaka ら [6] は,この体系性の問題を再考し,現行の DNN が自然言語推論 (Natural Language Inference, NLI) を体系的には学習していないことを実証的に示した。しかし,DNNがなぜデータから NLIを体系的に学習できないのか,具体的には,DNN が文の意味を体系的に学習できないのか,それとも文間の推論に必要な規則を学習できないのかについては,特定できていなかった。 そこで本論文では,文から意味表示に変換する意味解析のタスクを用いて,DNN が文の構成的な意味を体系的に学習できているのか分析を行う. 本論文の貢献は,(i) 意味解析で DNN の体系性を評価する方法の提案, (ii) 現行の DNN の意味における汎化性能の範囲の特定,の二点である。評価に用いるコードは研究利用が可能な形式で公開予定である. ## 2 関連研究 近年,SCAN [7] や CLUTRR [8] といった,自然言語の命令を入力とし命令に対応する行動を示す記号系列を出力する構成的なタスクで, DNN の汎化性能を評価するデータセットが数多く提案されている。しかし,これらは単純な人工タスクを扱っており,より複雑な構成性をもつ自然言語の意味における DNN の汎化性能については自明ではない。そこで Yanaka ら [6] は重要な推論現象の一つである monotonicity [9] に着目して,DNNの NLIにおける体系性を分析する手法を提案し,現行の DNN が NLI を体系的には学習していないことを示したが,体系的に学習できない原因は特定できていなかった。 また,DNNの自然言語における文法性を分析する先行研究として, 名詞と動詞の数の一致 (subject-verb agreement) に着目した分析 [10] や,自然言語文から述語項構造への変換タスクを用いた分析 [11] がある.しかし, これらの先行研究では数の一致や受動態の文を学習し能動態の文に汎化するかといった形態論的・統語論的な汎化を中心に分析しており,否定や量化といった意味論的な汎化は扱っていない。 また, [11] では 1 種類の意味表示を扱っており, 評価指標も正解との完全一致率に限定されていた。意味表示は $A \wedge B$ と $B \wedge A$ が同じ意味を表すように,形式が違っていても同じことを表現しうるため,意味表示の機能に基づいて評価する必要がある。そこで本研究では意味論的な汎化を分析対象として, 複数の意味表示の形式と複数の評価指標を用いることで,意味解析におけるDNNの総合的な分析を行う. ## 3 分析手法 ## 3.1 概要 本研究では先行研究 [6] の (i) 未知の組合せと (ii)未知の深さという 2 つの体系性の評価の観点を用いて,DNN が文から意味表示への変換を体系的に学 表 1 意味解析データセットの例. 学習 $1 \cdot 2$ は学習データ $1 \cdot 2$ の略. 中央・非中央は埋め込み節の種類. & 入力文 & 正解の意味表示 & \\ &$ 中央 \\ & 深さ $1: \\ &$ 非中央 \end{aligned} & & & \\ 習できているのかについて分析を行う。言語現象の網羅性と文の自然さをコントロールするため, 分析には文脈自由文法 (CFG) の生成規則によって自動構築したデータセットを用いる。まず,CFG の生成規則(付録の表 7 参照)に従って, 文と $\mathrm{CFG}$ 構文木を生成する. 次に, $\mathrm{CFG}$ 構文木と単語への意味割り当てに基づいて,ラム分計算によって意味表示を合成する. 提案手法によって自動構築したデータの例を表 1 に示す. また,文を入力として文を出力する Autoencoder の設定をベースラインとして意味解析の予測精度と比較し, 文のエンコードの汎化に限界があるのか,意味表示へのデコードの汎化に限界があるのかを考察する. 意味表示には一階述語論理に基づく形式 (以下, FOL) と, 括弧と変数を除去した形式 $[12,13]$ (Variable-Free form, VF) の 2 種類の形式を用いて,意味表示の形式の違いと学習の難しさの関係を分析する. 例えば,(1)の文には次の 2 種類の意味表示 (FOL, VF)が割り当てられる. (1) All white dogs ran FOL: $\forall x_{1} \cdot\left(\boldsymbol{w h i t e}\left(x_{1}\right) \wedge \operatorname{dog}\left(x_{1}\right) \rightarrow \operatorname{run}\left(x_{1}\right)\right)$ VF: ALL AND WHITE DOG RUN ## 3.2 未知の組合せにおける体系性 本節では,DNNが量化表現と修飾表現の組合せからなる文の意味を体系的に学習できているかにつ いて分析する手法を紹介する。この分析では,量化表現と修飾表現の組合せの学習に最低限必要なデー タを学習データとしてモデルを訓練し, 学習データにない未知の組合せをテストデータとしてモデルを評価する. 表 1 の例を考えよう.ここでは存在量化の一つ one を基本量化表現, tiger を基本の項として固定し, これに形容詞, 副詞, 結合子の 3 タイプ×各 5 語の合計 15 語の修飾表現を組み合わせた文の集合を学習データ 1 とする. また, 基本量化表現を含め存在量化 (a,one), 数量表現 (two, three), 全称量化 (every, all)の 3 タイプ×各 2 語の合計 6 語の量化表現と,基本の項との組合せから構成される文の集合を学習データ 2 とする. モデルが学習データ 1 と学習デー タ 2 からの学習で体系性を獲得していれば,テストデータ中のあらゆる量化表現と修飾表現の組合せからなる文の意味を正しく予測できるはずである.本論文では, 組合せの訓練に十分なデータサイズとして合計 50,000 件のデータを用意し, その中で基本量化表現に応じて学習データ約 12,000 件とテストデータ約 38,000 件に分割する. ## 3.3 未知の深さにおける体系性 体系性の性質の一つに,有限の文法規則から無限の文を生成できるという生産性 (productivity) がある. DNNが生産性を捉えていれば,文の構造がどれ 表 2 修飾表現のタイプ別の完全一致率の評価結果. だけ深くなっても, 構造の規則性から文の意味を計算できるはずである. そこで本節では,モデルが生産性を学習できているか分析する手法を紹介する。 この分析では, 表 1 の例のように埋め込み節を含まない文を深さ 0 , 埋め込み節を 1 つ含む文を深さ 1 と呼び,深さ 0 と深さ 1 のデータを学習データとしてモデルを訓練する. そして,学習データよりも深い埋め込み節を含むテストデータでモデルを評価する. 本論文ではテストデータの深さは最大 4 とし, 学習に十分なデータサイズとして各深さ 20,000 件のデータを用意する. また, 深さ以外の語彙と構文規則は学習データとテストデータで共通にする。 ## 4 実験 ## 4.1 実験設定 自然言語における汎化性能の評価に用いられる標準的なモデルとして, GRU に基づくseq2seq [14] と, Transformer に基づくs seq2seq [15] の 2 種類のモデルを評価した。実装には PyTorch を用いた。GRU のエンコーダ,デコーダは 1 層の単方向 $\mathrm{GRU}^{11}$ を用い,隠扎状態は 256 次元とした. Transformer のエンコー ダ,デコーダは共に 3 層とし, モデルサイズは 512 次元,隠れ状態は 256 次元とした。上記以外のパラメータはすべて共通で, 埋め込み層は 256 次元, ドロップアウトの確率は 0.1 , ミニバッチサイズは 128 とし, 最適化手法には初期学習率を 0.0005 とした Adam [16] を使用した. 各実験を 5 回ずつ行い,平均の精度を最終的なモデルの評価結果とする. ## 4.2 評価指標 モデルが予測した FOL の意味表示は, (i) 正解の意味表示との完全一致率に加えて,意味表示の構造 1)双方向よりも単方向のエンコーダの方が文の構造に頑健であるという報告 [11] があり,本論文では単方向を採用した. や機能を考慮した評価方法として,(ii) 自動定理証明 (automated theorem proving, ATP) による評価,(iii) monotonicity に基づく評価の計 3 種類の方法で評価する. ATP による評価一階述語論理の定理証明器 vampire ${ }^{2}$ を用いて, (i) 正解の意味表示 $G$ が予測の意味表示 $P$ を含意するか $(G \Rightarrow P)$, (ii) 予測の意味表示 $P$ が正解の意味表示 $G$ を含意するか $(G \Leftarrow P)$, という双方向の含意関係の証明を試み,評価を行う。 monotonicity に基づく評価予測した意味表示が否定や量化のスコープを正しく捉えられているか分析するため, 論理式中の各述語に対して極性 (polarity)を計算し, 適合率, 再現率, $\mathrm{F}$ 值を評価する. 極性は FOL の意味表示から計算でき,(2) のように存在量化 $(\exists)$ の中では upward monotone ( $\uparrow)$, (3) のように条件 $(\rightarrow)$ の前件や否定 $(\neg)$ のスコープの中では downward monotone $(\downarrow)$ と計算できる. また, (4) の dogs のように downward monotone に 2 回埋め込まれると, さらに極性が反転する。 (2) One dog ran: $\exists x \cdot\left(\operatorname{dog}^{\uparrow}(x) \wedge \operatorname{run}^{\uparrow}(x)\right)$ (3) All dogs ran: $\forall x \cdot\left(\boldsymbol{\operatorname { d o g }}^{\downarrow}(x) \rightarrow \operatorname{run}^{\uparrow}(x)\right)$ (4) All dogs didn’t run: $\neg \forall x \cdot\left(\boldsymbol{d o g}^{\uparrow}(x) \rightarrow \operatorname{run}^{\downarrow}(x)\right)$ ## 4.3 実験結果 未知の組合せにおける体系性表 2 に修飾表現のタイプ別の完全一致率による評価結果を示す. 両モデルとも結合子 > 副詞 $>$ 形容詞の順に精度が高く,否定の有無については特別な傾向はない。これは表 1 の例のように,形容詞を追加すると後続の語の位置がずれるのに対して,副詞や結合子を文末に追加した場合は語の位置が変化せず,文の構造を記憶しやすいことが影響していると考えられる. 表 3 に量化表現のタイプ別の完全一致率による評価結果を示す. GRU と Transformerの結果を見ると,基本量化表現である one と同じ存在量化の量化表現 2) https://github.com/vprover/vampire 表 5 量化表現のタイプ別の monotonicity に基づく FOL の評価結果. prec : 適合率, rec : 再現率, f1 : F 值. 表 6 未知の深さにおける評価結果. に対してほぼ 100\%の完全一致率であり,学習デー タ 1 の基本量化表現と同じタイプの量化表現を含む組合せには汎化しやすいことが示唆される。(他のタイプの量化表現を基本量化表現とした場合の結果は付録の表 8 , 表 9 参照. ) 意味表示間の違いとしては, FOL よりも括弧・変数がなく単純な形式である VFの方が汎化しやすい傾向がある. モデル間の違いとしては, Transformer は文を入力とし文を出力する Autoencoder の設定で精度が低く, 文のエンコー ド時に汎化できていないと考えられる. ATP による評価結果(表 4)と monotonicity に基づく評価結果(表 5)を見ると, 完全一致率よりも精度が高い. これは括弧の数や等価な論理式の出現順序が正解とは異なるため, 完全一致率では誤答とみなされるケースがあるからである. monotonicity で評価した場合は全称量化の downward の精度が低く, 全称量化のスコープを学習することが難しいことを示している. さらに,ATPの全称量化の精度を見ると, GRU は双方向で低いのに対し Transformer では $G \Leftarrow P$ よりも $G \Rightarrow P$ の精度が低い. 実際のエラーを見ると次のように GRU は修飾表現が丸ごと抜けているエラーが多く, Transformer は前件の位置 が誤っているエラーが多いという違いが見られた。 入力文 Every wild cat escaped or ran 正解 $\forall x .((\operatorname{cat}(x) \wedge \operatorname{wild}(x)) \rightarrow(\operatorname{escape}(x) \wedge \operatorname{run}(x)))$ $\operatorname{GRU} \forall x .(\operatorname{cat}(x) \rightarrow(\operatorname{escape}(x) \wedge \operatorname{run}(x)))$ Trans $\forall x .(\operatorname{cat}(x) \rightarrow \operatorname{wild}(x) \wedge(\operatorname{escape}(x) \wedge \operatorname{run}(x)))$ 未知の深さにおける体系性表 6 を見ると, 両モデルとも未知の深さに対してはほぼ汎化できていない。また,文を入力とし文を予測する Autoencoder の設定では,GRU は深さ 2 を含む文を $15.8 \%$ 予測できているが,両モデルとも精度が低く,文のエンコードが汎化できていないことが示唆される. ## 5 おわりに 本論文では, DNN がデータからの学習で文の構成的な意味における体系性を獲得しているかについて分析する手法を紹介した。実験の結果, GRU, Transformer ともに量化表現と修飾表現の組合せにおいて学習データと文の構造が変わらない場合は汎化しやすい一方で,未知の深さなど構造が変わる場合は文のエンコード時に汎化できていないことが示唆された。また,ATP や monotonicity で評価することでモデルのエラー傾向を特定でき,表面的な形式だけでなく意味表示の機能を考慮した指標で評価する必要性が示唆された。今後, SCAN などの人工タスクで高精度を達成しているモデル [17] を提案手法で分析し, 構成性を満たす表現学習の検討を進める。 謝辞. 本研究は理研・産総研「チャレンジ研究」(FS 研究), JSPS 科研費 JP20K19868 の助成を受けたものである。 ## 参考文献 [1] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In Proceedings of the International Conference on Learning Representations (ICLR), 2019. [2] Jacob Devlin, Chang Ming-Wei, Lee Kenton, and Toutanova Kristina. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT), pp. 41714186, 2019. [3] R. Thomas McCoy, Ellie Pavlick, and Tal Linzen. Right for the wrong reasons: Diagnosing syntactic heuristics in natural language inference. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 3428-3448, 2019. [4] Nelson F. Liu, Roy Schwartz, and Noah A. Smith. Inoculation by fine-tuning: A method for analyzing challenge datasets. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT), pp. 2171-2179, 2019. [5] Jerry A. Fodor and Zenon W. Pylyshyn. Connectionism and cognitive architecture: A critical analysis. Cognition, Vol. 28, No. 1-2, pp. 3-71, 1988. [6] Hitomi Yanaka, Koji Mineshima, Daisuke Bekki, and Kentaro Inui. Do neural models learn systematicity of monotonicity inference in natural language? In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 6105-6117, 2020. [7] Brenden M. Lake and Marco Baroni. Generalization without systematicity: On the compositional skills of sequenceto-sequence recurrent networks. In Proceedings of the 35th International Conference on Machine Learning (ICML), 2017. [8] Koustuv Sinha, Shagun Sodhani, Jin Dong, Joelle Pineau, and William L. Hamilton. CLUTRR: A diagnostic benchmark for inductive reasoning from text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pp. 4506-4515, 2019. [9] Johan van Benthem. Determiners and logic. Linguistics and Philosophy, Vol. 6, No. 4, pp. 447-478, 1983. [10] Tal Linzen, Emmanuel Dupoux, and Yoav Goldberg. Assessing the ability of LSTMs to learn syntax-sensitive dependencies. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 521-535, 2016. [11] Najoung Kim and Tal Linzen. COGS: A compositional generalization challenge based on semantic interpretation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 90879105, 2020. [12] Franz Baader, Diego Calvanese, Deborah McGuinness, Peter Patel-Schneider, Daniele Nardi, et al. The Description Logic Handbook: Theory, Implementation and Applications. Cambridge university press, 2003. [13] Ian Prat-Hartmann and Lawrence S. Moss. Logics for the relational syllogistic. The Review of Symbolic Logic, Vol. 2, No. 4, pp. 647--683, 2009. [14] Kyunghyun Cho, Bart van Merriënboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. Learning phrase representations using RNN encoder-decoder for statistical machine translation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 17241734, 2014. [15] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In $A d-$ vances in Neural Information Processing Systems 33: Annual Conference on Neural Information Processing Systems (NeurIPS), pp. 5998-6008, 2017. [16] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Proceedings of the International Conference on Learning Representations (ICLR), 2015. [17] Yewen Pu, Kevin Ellis, Marta Kryven, Josh Tenenbaum, and Armando Solar-Lezama. Program synthesis with pragmatic communication. In Advances in Neural Information Processing Systems 33: Annual Conference on Neural Information Processing Systems (NeurIPS), 2020. ## A 付録 未知の組合せにおける体系性の評価の補足 one を基本量化表現, $\operatorname{dog}$ を基本の項としたときの学習データ 1 に含まれる文の例を (5) に示す. 学習デー タ 1 を通して,モデルに修飾表現を含む文のパター ンを一通り訓練させる。また,学習データ 2 に含まれる文の例を (6) に示す. 学習データ 2 を通して, モデルに量化表現を含む文のパターンを一通り訓練させる. モデルが学習データ 1 と学習データ 2 を体系的に学習できていれば,(7)にあるような様々な量化表現と修飾表現の組み合わせからなる文についても正しい意味表示を予測できるはずである. (5) a. One small dog ran b. One dog ran quickly c. One dog ran or came (6) a. One dog ran b. A dog ran c. Every dog ran d. Two dogs ran (7) a. A small dog ran b. Every dog ran quickly c. Two dogs ran or came 表 7 にデータ構築に用いた生成規則と語彙項目を示す. 語彙は分析のしやすさを考慮して自然かつ基本的な文を生成するよう一般名詞・固有名詞 ・自動詞・他動詞は各 10 語, 量化表現は 6 語(存在量化,数量表現, 全称量化それぞれ 2 語), 形容詞・副詞は各 5 語を選定し,マルチワードは使用しない. 表 8 に数量表現の two を基本量化表現とした場合, 表 9 に全称量化の every を基本量化表現とした場合の, 量化表現のタイプ別の完全一致率の評価結果を示す.いずれも基本量化表現と同じタイプの量化表現を含む組合せの予測精度が他のタイプの予測精度よりも高くなっており, 基本量化表現と同じタイプの量化表現を含む組合せには汎化しやすいことが示唆される. 未知の深さにおける体系性の評価の補足基本量化表現 one を含む深さ 2 以上のケース 1000 件を学習データに追加した場合の結果を表 10 に示す.表 10 を見ると, 表 6 と同様の結果であり, 深さ 2 以上のケースを一部モデルに教えても深さ 2 以上は汎化できていないことがわかる.表 7 データ構築に用いた生成規則と語彙項目(抜粋)。 ## 文の生成規則 $\mathrm{S} \quad \rightarrow \quad \mathrm{NP} \mathrm{VP} \mid \mathrm{NP}$ did not $\mathrm{VP}$ $\mathrm{VP} \rightarrow \mathrm{IV}|\mathrm{IV} \mathrm{ADV}| \mathrm{IV}^{2}$ or $\mathrm{IV}^{\prime} \mid \mathrm{IV}$ and $\mathrm{IV}^{\prime} \mid \mathrm{TV}$ NP $\mathrm{NP} \rightarrow \mathrm{PN}|\mathrm{QN}| \mathrm{Q}$ ADJ $\mathrm{N} \mid \mathrm{QN} \overline{\mathrm{S}}$ $\overline{\mathrm{S}} \rightarrow$ that TV NP|that NP TV | NP TV ## 語彙項目 $\mathrm{Q} \rightarrow$ \{every, all, a, one, two, three \} $\mathrm{N} \rightarrow\{$ dog, rabbit, cat, bear, tiger $\}$ $\mathrm{PN} \rightarrow$ \{ann, bob, fred, chris, eliott $\}$ IV $\rightarrow\{$ ran, walked, swam, danced, dawdled $\}$ $\mathrm{IV}^{\prime} \rightarrow$ \{laughed, groaned, roared, screamed $\}$ $\mathrm{TV} \rightarrow\{$ kissed, kicked, cleaned, touched $\}$ ADJ $\rightarrow$ \{small, large, crazy, polite, wild $\}$ $\mathrm{ADv} \rightarrow$ \{slowly, quickly, seriously, suddenly $\}$ 表 8 量化表現のタイプ別の完全一致率の評価結果(数量表現の $t w o$ を基本量化表現とした場合)。 表 9 量化表現のタイプ別の完全一致率の評価結果(全称量化のeveryを基本量化表現とした場合)。 表 10 未知の深さにおける評価結果(基本量化表現 one を含む深さ 2 以上のケースを学習データに加えた場合).
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
E9-4.pdf
# DTS の部分体系のための 定理自動証明器の実装に向けて 大洞日音 お茶の水女子大学 daido. hinari@is.ocha.ac.jp } 戸次大介 お茶の水女子大学 bekki@is.ocha.ac.jp } $ \left[\begin{array}{l} v:\left[\begin{array}{l} u:\left[\begin{array}{l} x: \text { entity } \\ \operatorname{man}(x) \end{array}}] \\ \operatorname{enter}\left(\pi_{1} u}) \end{array}}] \\ \text { whistle }\left(\pi_{1} \pi_{1} v}) \end{array}}] $ 図 1 DTS の例 $\exists x(\operatorname{man}(x) \wedge \operatorname{enter}(x)) \wedge$ whistle $(x)$ 図 2 一階述語論理の例 には十分である.そこで本研究では,DTS の断片の ための定理自動証明器を新規に開発し, 定理証明器 の評価用ライブラリである Thousands of Problems for Theorem Provers (TPTP) ${ }^{1}$ を用いて定量的な評価を行 い,ある程度の推論を網羅できることを示した。 ## 2 依存型意味論 (DTS) 高階型理論の一種であるDTS は, 関数型と直積型の一般化として П型と $\Sigma$ 型を用いる。 П 型は $(x: A) \rightarrow B$ という形で表記し, 後件の型 $\mathrm{B}$ は前件の型 $\mathrm{A}$ をつ項に依存する. $\Sigma$ 型は $(x: A) \times B$ と表記し, П型と同様に B が型 A もつ項に依存する. この性質から DTS は前提・照応など自然言語における複雑な現象を統一的に扱うことができる。図 1 は “A man enters. He whistles. ” から合成的に計算された DTS の意味表現である。一方,この文を語の意味から合成的に計算して一階述語論理で表記すると図 2 のようになるのが自然であるが,これは存在量化子のスコープが適切ではない. このように,自然言語の意味計算には一階述語論理の記述力を越える現象が多々存在するが,高階論理を用いた DTS では自然に扱うことができる. DTS の定理証明は型理論における項の探索に対応している. 型理論では $\Gamma \vdash a: A$ という judgment を用いて文脈 $\Gamma$ において項 $a$ の型が $A$ であることを表す。一方, 論理的観点からこの judgment をみると, これは前提 $\Gamma$ のもとで命題 $A$ の証明が $a$ であ  る,という意味である.このことから, $a$ は証明項とも呼ばれ,証明項を探索することは証明探索と呼ばれる。 図 3 証明探索の例 図 3 で“?”の部分に当てはまる項を探索すると $\left(\pi_{1} \pi_{1} \pi_{1} t, \pi_{2} \pi_{1} \pi_{1} t\right)$ という証明項を得ることができ, これをデコードすることで証明探索においてどのような規則をどのような順番で適用したかという情報を得ることができる. ## 3 実装 本研究で実装した定理証明器の構造を図 6 に示す. 図 6 定理証明器の構造 アルゴリズムは Alligator [5] において提案されたものの改良である. forward_context では前向き推論を, deduce では後ろ向き推論を行っている. 前向き推論では, 前提と結論が与えられたとき, 前提に規則を繰り返し適用することで上から下へと自然演繹形式の証明木を構築し, 前提から導きうる命題を蓄積する,後万向き推論では,まず結論に規則を適用して証明のために必要なゴールを割り出し,下から上に証明木を構築していく形で推論を行う. forward_context は引数として前提を受け取り, 前向き推論の結果として得られた judgment のリストを返す。forward_context で使用する規則の一部を図 4 に示す. deduce は図 5 にあるような規則を用い て後ろ向き推論を行い, judgment のリストを返す. deduce は無限再帰に陥る可能性があるため,探索の深さや,かかる時間に制限を置くことで,計算の制御を行っている. ## 4 評価 実装にはプログラミング言語 Haskell を用い,実験環境には産総研の $\mathrm{AI}$ 橋渡しクラウド $(\mathrm{ABCI})^{2}$ を用いた。定理自動証明器の評価のための包括的なライブラリである TPTP から, Alligator でカバーされていない等号や四則演算の問題を除いたデータセットによって評価を行った。 TPTP ライブラリに収録されている問題は図 7 のような形式である. 図 7 TPTPに収録されている二重否定律の問題 推論の結果と各評価ラベルの関係は, 図 8 のとおりである. 図 8 評価の形式 ## 4.1 構文解析器 : Haskell の Alex/Happy library $[7,8]$ を用いて TPTP フォーマットから Haskell のデータ型への変換を行う Alex/Happy Parser を実装した。このデータ型を中間言語として, 読み込んだ TPTP 形式の問題を, 本 2) https://abci.ai/ $\Gamma r_{F} z:\left[\begin{array}{l}x: A \\ B\end{array}\right]$ $\Gamma \vdash_{F} \pi_{1}(z): A$ $(\Sigma$-elim 1-1) $ \frac{\Gamma \vdash_{F} z:\left[\begin{array}{l} x: A \\ B \end{array}\right]}{\Gamma \vdash_{F} \pi_{2}(z): B\left[\pi_{1}(z) / x\right]} $ $(\Sigma$-elim 1-2) $ \Gamma \vdash_{F} z: \Gamma_{1} \Rightarrow\left[\begin{array}{l} x: A \\ B \end{array}\right] $ $ \overline{\Gamma \vdash_{F} \lambda x_{1}: m_{1} \ldots x_{n}: m_{n} \cdot \pi_{1}(z)\left(x_{1}\right) \ldots\left(x_{n}\right): \Gamma_{1} \Rightarrow A} $ $(\Sigma$-elim 2-1) $ \begin{aligned} & \Gamma \vdash_{F} z: \Gamma_{1} \Rightarrow\left[\begin{array}{l} x: A \\ B \end{array}\right] \\ & \begin{array}{l} n_{1} \ldots x_{n}: m_{n} \cdot \pi_{2}(z)\left(x_{1}\right) \ldots\left(x_{n}\right. \\ \Gamma_{1}=\left[x_{1}: m_{1}, \ldots, a_{n}: x_{n}\right] \\ B^{\prime}=B\left[\pi_{1}(z) / x\right] \end{array} \end{aligned} $ $ \overline{\Gamma r_{F} \lambda x_{1}: m_{1} \ldots x_{n}: m_{n} \cdot \pi_{2}(z)\left(x_{1}\right) \ldots\left(x_{n}\right): \Gamma_{1} \Rightarrow B^{\prime}} $ $(\Sigma$-elim 2-2) 図 4 forward_context の規則 (一部) 研究の定理証明器が対応している Haskell データ形式や Alligator が対応している Prolog データ形式へ翻訳する. ## 4.2 証明探索: 本研究の定理証明器は, 与えられた文脈 $\Gamma$ と命題 $A$ について, $\Gamma \vdash ?: A$ という問題の証明項が見つかったときは YES ラベルを, $\Gamma+?: \neg A$ という問題の証明項が見つかったときは $\mathrm{NO}$ ラベルを返す.証明探索が停止せず,証明項が見つからなかった場合は UNK ラベルを返すが,このとき必ずしも命題が偽であるとは言えない点に注意する。 ## 4.3 結果 : 探索の深さ制限を 8 と 9 に設定した際の結果を表 1 に示す. この結果から, accuracy は探索の深さ制限に依存することが考えられる ${ }^{3}$ .表 2 で,YES  $\overline{\epsilon \vdash s: s^{\prime}}$ (axiom) $ \begin{gathered} \Gamma \vdash a: A \quad \Gamma \vdash b: B[x / a] \quad \Gamma \vdash(x: x) \rightarrow A B: s \\ \Gamma \vdash(a, b):\left[\begin{array}{c} x: A \\ B \end{array}\right] \\ (\Sigma \text {-intro) } \end{gathered} $ 図 5 deduce の規則 (一部) 表 1 探索の深さを $9 / 8$ としたときの結果 表 2 探索の深さを 9 としたときの結果詳細 ラベルと NO ラベル両方について precision は 1 であることから,推論での規則の適用は適切であると考えられる。一方, recall はどちらについても低く, 特に NO ラベルについての recall は YES ラベルと比べ は $0.104 , 0.050,0.025$ であることが確認された. 図 9 問題の複雑さと証明探索の結果の関係 ても低い。これは, 評価の過程で $\mathrm{NO}$ ラベルの証明の際, 命題に否定記号 (ᄀ) を追加しており, 命題の構造が複雑になる分, 深さ制限を超過しやすくなるためと考えられる. 図 9 はラベルが YES である問題について, 問題の複雑さと証明探索の結果の関係を示すぺアプロットである. オレンジのドットは証明探索の結果出力されたラベルが YES であったことを,青のドットはUNKであったことを表す. アプロットの $y$ 軸は命題の深さを, $x$ 軸は述語, 変数, アトム,ファンクタの数を表しており,いずれも高ければ高いほど問題の複雑さは増す.この結果から, 今回実装した定理証明器は $x$ と $y$ の値が小さい単純な問題については正確に計算を行えていることが示された. 深さ制限を緩めると計算量が指数関数的に増加する一方, より多くの問題を解けるようになることが期待される. 本研究の定理証明器は, 古典論理と直観主義論理の双方に対応しており, TPTP の問題の中でもパースの法則 $(p \Rightarrow q) \Rightarrow p) \Rightarrow p$ や対偶律 $(p \Rightarrow q) \Longleftrightarrow(\neg q \Rightarrow \neg p)$, 排中律 $p \vee \neg p$ など, 推論において重要な役割を果たす定理についてもカバー することを確認した。 ## 5 おわりに 本研究では DTS の部分体系 ( $\Pi \Sigma$ 断片) について証明探索アルゴリズムを実装し,TPTP ライブラリを用いて評価を行った。その結果,十分な範囲の定理について適切に自動計算を行うことを確認した。今後は自然言語推論で用いられる, 等号や算術についても扱えるようアルゴリズムを拡張していく. また, 日本語 CCG パーザ lightblue[9] と組み合わせることによって, 自然言語推論のためのパイプラインを構築し, DTS 基づく検証可能な意味計算システムを実現することが今後の課題である. ## 謝辞 本研究の一部は,JSPS 科研費 JP18H03284,および JST CREST JPMJCR20D2 の助成を受けたものである.また,評価の際は産総研の AI 橋渡しクラウド $(\mathrm{ABCI})$ を利用した。 ## 参考文献 [1] Johan Bos. Wide-coverage semantic analysis with Boxer. In Semantics in Text Processing. STEP 2008 Conference Proceedings, pp. 277-286, 2008. [2] Lasha Abzianidze. LangPro: Natural language theorem prover. In Proceedings of EMNLP2017 System Demonstrations, pp. 115-120, Copenhagen, Denmark, September 2017. [3] Pascual Martínez-Gómez, Koji Mineshima, Yusuke Miyao, and Daisuke Bekki. ccg2lambda: A Compositional Semantics System. In Proceedings of ACL 2016 System Demonstrations, pp. 85-90, 2016. [4] Daisuke Bekki and Koji Mineshima. Context-passing and underspecification in Dependent Type Semantics. In Modern Perspectives in Type Theoretical Semantics, pp. 11-41. Springer, 2017. [5] Paul Piwek. The alligator theorem prover for dependent type systems: Description and proof sample. In Proceedings of the Inference in Computational Semantics Workshop, pp. 157-163, 2006. [6] Daisuke Bekki and Miho Satoh. Calculating projections via type checking. In TYTLES: Types Theory and Lexical Semantics, Robin Cooper, Christian Retore (eds.), pp. 6268, 2015. [7] alex: Alex is a tool for generating lexical analysers in Haskell. https://hackage. haskell.org/package/ alex/. [8] happy: Happy is a parser generator for Haskell. https: //hackage.haskell.org/package/happy. [9] Daisuke Bekki and Ai Kawazoe. Implementing variable vectors in a ccg parser. In LACL2016, Nancy, France, C.Retore and S.Pogodalla (Eds), pp. 52-67, Heiderburg, 2016.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-10.pdf
# 2 文の連結を用いた機械翻訳におけるデータ拡張 今藤誠一郎甫立健悟平澤寅庄金子正弘 小町守 } 東京都立大学 \{kondo-seiichiro, hotate-kengo, hirasawa-tosho, kaneko-masahiro\}@ed.tmu.ac.jp, komachi@tmu.ac.jp ## 1 はじめに ニューラル機械翻訳は翻訳精度が高いことで知られているが,一方で様々な課題も残されている。その課題の一つに長い系列の文に対する翻訳精度の低下が挙げられる. 先行研究では統計的機械翻訳との精度を比較した際に,入力文がある文長までの範囲ではニューラル機械翻訳の精度が上回ることが示されている。しかし一定の文長を越えるとニューラル機械翻訳の精度は下回り,文長の増加に伴い,著しく翻訳精度が低下することが指摘されている [1]. さらに,ニューラル機械翻訳において学習データの量が精度に大きく影響することが示されており [1],低資源の言語において翻訳モデルを作成する上で大きな課題となる。そのため,これまでにも限られた対訳コーパスに対して様々なデータ拡張方法が研究されてきた。例えば,単言語コーパスの逆翻訳や,元の対訳データにおける特定の単語を別の単語に置き換える,などを行うことで擬似的に対訳文を生成し,学習データとして追加する方法が提案されている $[2,3,4]$. 本研究では低資源の対訳コーパスしか得られない言語対という条件で,長い系列の文の翻訳に対して有効であると考えられるデータ拡張方法を提案する. 具体的には,長い系列の文の翻訳精度が低くなるのは学習データに長い系列の文が少量しか含まれないためであると考え,そのような文を学習データに増やすことで長文に対する翻訳精度の向上を試みた。 図 1 亿提案手法の概要図を示す。学習データからランダムに 2 文を選び,それらを連結させたデータを拡張データとして,元の学習データに追加する。 この手法は学習データ内で唯一となるような長い系列を増やしたいという動機である。英日コーパスを用いた低資源な設定のもとでの実験の結果,2文を連結させたものを拡張データとして追加することで非常に長い系列の文に対する翻訳精度が高くなり,全体的にもスコアの向上が見られた. さらに同じデータ拡張方法の一つである逆翻訳の手法 [4] と提案手法を組み合わせることでより精度が向上することを確認できた。 ## 2 関連研究 ニューラル機械翻訳では様々なデータ拡張の手法が提案されている。例えば,目的言語側の単言語データに対して逆翻訳を行うことにより擬似的にデータセットを作成する手法 [2] がある。これは, まず対訳コーパスを用いて原言語と目的言語を逆向きにモデルを学習させる.そしてそのモデルを用いて目的言語の単言語コーパスの文を原言語に翻訳させることで擬似的に対訳コーパスを作成し追加の拡張データとする。一方,単言語コーパスを用いずに元の対訳コーパスを逆翻訳させることで学習データを拡張する手法 [4] も提案されており,このデータ拡張方法でも翻訳精度を高めることが可能であることが示されている. 今回提案するデータ拡張の手法はこれらの先行研究で示された手法と組み合わせることが可能である. またニューラル機械翻訳は長い系列の文の翻訳精度が低くなることが先の研究で示されている。文献 [1] ではニューラル機械翻訳における文長に関する翻訳精度の分析が統計的機械翻訳との比較を通して行われている。英語-スペイン語の翻訳において,入力文の文長が 60 を越えるとニューラル機械翻訳の精度は統計的機械翻訳の精度を下回り,80 を越えると大幅に翻訳精度が低下することが示された.この長い系列の文における翻訳精度の低下は, ニューラル機械翻訳の生成文の文長が非常に短く 図 12 文連結によるデータ抎張(各言語対はランダムにサンプリングされているので文脈的なつながりはない) なっているためであると述べられている. 文献 [5] ではニューラル機械翻訳の中でも絶対的な位置情報を利用したモデルと相対的な位置情報を利用したモデルの比較が行われている. 具体的には英語-日本語の翻訳において,学習データに文長の制限をかけて学習させたモデルを用いて分析されている. 絶対的な位置情報を用いた Transformer モデルは他の相対的位置情報を用いたモデルに比べて,学習データに含まれない長い系列の文に対する翻訳精度が著しく低下することが示された. ## 32 文の連結を用いたデータ拡張 元の学習データ内にある原言語文 2 文とそれに対応する目的言語文 2 文をそれぞれ繋げたものを学習データとして追加する. つまり図 1 のように文の連結によって元のデータセットと同じ量の連結データを作成し, そのデータを元の学習データに加えることで学習データの文数を 2 倍にする。連結する際には文脈を考慮せずにランダムに 2 文を連結するが,学習データ全体としては 1 つの文がデータセット内に 3 度出現するようにする。 元のデータに連結したデータを追加するのは,単文の翻訳を元データで学習しながら, 2 文の連結されたデータで長い系列の翻訳を学習させるためである. また,文を連結する際には,2 文の間に特殊トー クンとして "<sep>"を挿入する. "<sep>" で区切る ことで 2 文が別々の文であることを認識しながら,後方における位置エンコーディングを学習時に扱えるようになり,長い系列の文に対する翻訳精度の向上が期待できる. 学習時のデータには 2 文が連結したものが含まれているが,テスト時には 1 文のみを入力として扱う. ${ }^{1)}$ ## 4 実験 ## 4.1 実験設定 WAT17 [6] より $\mathrm{ASPEC}^{2}$ のデータを利用して英日翻訳を行なった. このデータセットは学習データ 2,000,000 文対, 評価データ 1,790 文対, テストデータ 1,812 文対からなり, 語彙サイズ 16,384で Sentence Piece [7] によりサブワード化されている. この学習データからランダムサンプリングで 400,000 文対を抽出し, 本実験での学習データとして利用した. 実験は Fairseq $[8]^{3}$ で Transformerを実装して行なった. パラメータとして, 最適化には Adam, dropout の確率は 0.3, max-update が 300,000,ミニバッチに含まれる token 数が 65,536 以下となるように設定した. 1)テスト時に 2 文を入力とした実験も行ったが, 1 文を入力とした時の方が精度の向上が見られた。 2) http://lotus.kuee.kyoto-u.ac.jp/WAT/WAT2017/snmt/index.html 3) https://github.com/pytorch/fairseq 表 1 学習データ 400,000 文で学習した際のテストデータセットにおける文長ごとの BLEU スコア (ただし vanilla+BT+concat は vanilla のデータと BT で得られたデータ,各々に対して concat したデータからなる.) 図 2 文長ごとの各データセットの分布 逆翻訳を行う際にも同じ設定の Transformer モデルを利用し,学習データは文献 [4] に従い,外部の単言語コーパスを用いずに行なった.この手法では目的言語から原言語への翻訳の際に学習に用いたデータをそのまま用いるため,一つの目的言語文に対して 2 の原言語文が存在するようなデータセットとなる. 評価には BLEU スコア [9] を利用し, テストデー タに対するモデルの出力全体のスコアと, テストデータを入力文の文長ごとに分類したものそれぞれに対するスコアを測定した. シードを変えて 3 回実験を回したときの BLEU スコアの平均を取った. ## 4.2 実験手順 400,000 文対の学習データから 1. 元のデータ (vanilla) 2. オーバーサンプリングで拡張したデータ (vanilla+OS) 3. 2 文の連結で拡張したデータ (vanilla+concat) 4. 逆翻訳で拡張したデータ (vanilla+BT) 5. 元のデータと逆翻訳したデータ,その双方に対して 2 文の連結を適用したものの複合データ (vanilla+BT+concat) の 5 種類の学習データを用いて英日翻訳モデルを学習させ,テストデータに対する BLEU スコアで比較を行なった。 2 のオーバーサンプリングは, 2 文連結と同様に長い文を増やすという動機で,提案手法の比較対象として実験を行なった. 文長 25 以上 110 以下の文を対象にサンプリングを行い,学習データを 2 倍とした. 3 でデータを連結する際には長い系列の文の翻訳精度の向上を目的とするため,連結した際に文長が 25 以下になるものは取り除いた。 4 と 5 では低リソースの設定なので,先行研究でも行われている手法と組み合わせたときの有効性を調べるため,逆翻訳を利用した手法を利用した。 上記のデータ拡張手法で作成した原言語文 (英文) の文長ごとの学習データ数を図 2 に示す. vanilla+OS,vanilla+concat,vanilla+BT のいずれも同じサンプル数であることに注意. ## 4.3 結果 5 種類のデータを用いて学習を行った結果を表 1 に示す. テストデータ全体の BLEU スコアと文長ごとにテストデータを分類して測った BLEU スコアを記載している。 vanilla+OS の結果を見ると vanilla の結果に比べて全体的な精度の低下が確認でき,データ数を増やしたはずの長い系列の文に関しても精度が悪化していることが確認できる。これはオーバーサンプリングによって追加されるデータのうち元のデータが少ない部分,つまり極端に長い系列の文が多くサンプリングされるため,コーパス内に同一の文が大量に含まれており,それらがノイズになってしまったためであると考えられる。 vanilla+concat の結果を見ると全体としての精度が僅かに上回っていることが確認できる. 文長ごとに 図 3 文長別に見たデータサイズごとの提案手法の有効性 (縦軸は vanilla+concat の BLEU スコアから vanilla の BLEU スコアを引いた値) 精度を確認すると, vanilla と比べて文長が 61-70 に分類される部分の BLEU は微減であるものの, 2 文の連結によって拡張されたデータの多くである文長 50 以上の翻訳に対して強くなっている。一方で特に短い文における翻訳精度が大きく下がってしまっていることも確認できた。 vanilla+BT と vanilla+BT+concatを比較すると,全体では 0.6 ポイントの向上が見られた. 文長ごとの精度を見ると特に文長 41 以上のスコアが大きく改善されており,提案手法を他のデータ拡張の手法と組み合わせることで,長い文における翻訳精度をより一層高めることができることを確認できた. さらに,短い文における翻訳精度も低下していないことから,短い文の翻訳精度を維持しながら長い文の翻訳精度を高めることができるという点において,他の手法と組み合わせることの有効性が示せた. ## 4.4 データサイズと提案手法の分析 図3 に各データサイズにおける今回の提案手法による BLEU スコアの変化を文長別に示す. 全体としてはデータ量が 800,000 文を越えると,この提案手法による精度の改善が見られないことが確認できる. また今回の提案手法は長文の翻訳精度の向上を目的に提案したが, 文長 51 以上に着目するとこちらもデータ量が 200,000 文 600,000 万文の時は精度の向上が見られるものの, $1,000,000$ 文を越えると精度の低下が見られる. 今回の提案手法が学習データが豊富なときには適しておらず,低資源のデータを扱う際に有効であることが言える. ## 4.5 実例分析 本実験において提案手法が有効に働いたと考えられる事例を付録の表 2 ,表 3 に,今回の提案手法の目的に反して翻訳が悪化したと思われる事例を付録の表 4 に示す. 表 2 の例を見ると vanilla では本来出力すべき文よりも短い文を出力しており,翻訳にあたって必要な情報が欠落していることが確認できる。一方で提案手法を用いてデータ拡張を行なった vanilla+concat の出力では,より長い文の出力が実現され,情報の久落を低減できていることを確認できる。 表 3 の例は BT と組み合わせた際に翻訳が改善された例となっている. こちらも先の例同様, vanilla+BT の結果では文前半の情報が完全に失われてしまっているが,vanilla+BT+concat では文全体の情報を捉えた翻訳文が生成されている。他の手法に提案手法を組み合わせた際にも,提案手法の効果が現れていることが確認できる。 しかし表 4 の例のように,提案手法を用いたデー タ拡張を施す前のデータで学習したモデルの出力には見受けられなかったような繰り返し出力が,提案手法を用いたデータ拡張を行った際の出力結果に見られる場合も存在した.このような出力は例のような文長の短い事例においてより多く見られた。このことから長い文の出力が可能なゆえに,長い文を生成しようとしてしまうため, 不自然な繰り返し出力を行ってしまうことがある可能性が考えられる. ## 5 おわりに 本研究では,長い系列の文の翻訳精度を高められるようなデータ拡張方法を提案し,実験を行なった. 結果として,2 文の連結によるデータの拡張方法が非常に簡単なデータ拡張方法でありながら,特に非常に長い系列の文の翻訳に対して有効に働くことが確認できた。しかし,短い文における翻訳精度を犠牲にしてしまい,全体としての精度にあまり変化が見られないような傾向も見受けられた. 一方,他のデータ拡張の手法と組み合わせることで,短い文での精度を下げることなく, 全体の精度の改善が見込めることも判明した。 今後は他の手法と組み合わせる際に,組み合わせる手法によって提案手法がどのように作用するのか,本研究のように長い文に対して翻訳精度を向上させられるのかを調査したい. ## 参考文献 [1] Philipp Koehn and Rebecca Knowles. Six challenges for neural machine translation. In Proceedings of the First Workshop on Neural Machine Translation, pp. 28-39, 2017. [2] Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 86-96, 2016. [3] Xinyi Wang, Hieu Pham, Zihang Dai, and Graham Neubig. SwitchOut: an efficient data augmentation algorithm for neural machine translation. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 856-861, 2018. [4] Kenji Imamura and Eiichiro Sumita. NICT selftraining approach to neural machine translation at NMT2018. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 110-115, 2018. [5] Masato Neishi and Naoki Yoshinaga. On the relation between position information and sentence length in neural machine translation. In Proceedings of the 23rd Conference on Computational Natural Language Learning (CoNLL), pp. 328-338, 2019. [6] Toshiaki Nakazawa, Shohei Higashiyama, Chenchen Ding, Hideya Mino, Isao Goto, Hideto Kazawa, Yusuke Oda, Graham Neubig, and Sadao Kurohashi. Overview of the 4th workshop on Asian translation. In Proceedings of the 4th Workshop on Asian Translation (WAT2017), pp. 1-54, 2017. [7] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, 2018. [8] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, 2019. [9] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. BLEU: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002. ## A 付録 表 2 出力例 1(提案手法が有効に働いた例,原言語文の文長 71〜の事例) \\ 表 3 出力例 2(提案手法が有効に働いた例,原言語文の文長 61~70 の事例) Results of the analysis shows high accuracy properties, such as the reproducibility of relative standard deviation 0.3 $0.9 \%$ varified by repetitive analyses of ten times, the clibration curves with correlation coefficient of 1 verified by tests of standard materials in using six kinds of acetonitrile dilute solutions, and the formaldehyde detection limit of 0.0018 $\mu \mathrm{g} / \mathrm{mL}$ 結果は,相対標準偏差 $0.3 \sim 0.9 \%$ の再現性(10 回の繰返し分析),相関係数 1 の検量線(6種類の tgt アセトニトリル希釈溶液による標準資料の検定),000018g/mLのホルムアルデヒド検出限界, など高い精度を得た。 vanilla 6種のアセトニトリル希薄溶液を用いた標準物質の試験及びホルムアルデヒド検出限界は $0.0018 \mu$ +BT $\mathrm{g} / \mathrm{mL}$ であった。 vanilla 分析の結果は 10 回の繰り返し解析で相対標準偏差 $0.3 \sim 0.9 \%$ 再現性,6種のアセトニトリル希 +BT薄溶液を用いた標準物質の試験により検証された 1 の相関係数を持つクライテリア曲線,及び 0.001 +concat $8 \mu \mathrm{g} / \mathrm{mL}$ のホルムアルデヒド検出限界など高い精度を示した。 表 4 出力例 3(提案手法がエラーを引き起こしたと考えられる例,原言語文の文長 11~20 の事例)
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-11.pdf
# Transformer モデルにおける知識蒸留の適用 松永大希 岐阜大学大学院自然科学技術研究科 z4525080@edu.gifu-u.ac.jp } 松本 忠博 岐阜大学工学部 tad@gifu-u.ac.jp ## 1 はじめに 近年,ニューラル機械翻訳の精度は飛躍的に向上している。一方で,精度が向上するにつれてモデルのサイズが増加することが知られている.この問題を解決するために近年では, モデルの軽量化の研究が広く行われている。知識蒸留は,モデルの軽量化手法の一つである. 本研究では, 知識蒸留を Transformer[1] に適用させ,機械翻訳モデルの軽量化を試みた。教師モデルに対してパラメータ数を約 4 割削減した生徒モデルに対して本手法を適用したところ,教師モデルよりも高い翻訳精度を得られることを確認した。 ## 2 関連研究 ## 2.1 モデルの軽量化 機械翻訳の軽量化手法として,枝刈り [2], 量子化 [3], 知識蒸留 [4] がある。これらの軽量化手法は互いに独立であり,併用することができる. 枝刈りニューラルネットワークの重要ではない結合を取り除く。 量子化訓練後に重みの浮動小数点をより少ないビット数に変換する. 知識蒸留訓練済みの大きなモデルの知識を, 軽量な別のモデルの学習に利用する. 次項で詳しく説明する。 ## 2.2 知識蒸留 知識蒸留は, Hinton ら [4] が提案した手法である.高精度で大きなモデルである教師モデルを作成し, その知識をより軽量なモデルである生徒モデルに継承する. 知識はソフトラベルの誤差を最小化することで継承する.ソフトラベルは, 教師モデルが出力する確率分布のことである. 一方, 訓練データの正解ラベルをハードラベルと呼ぶ。ソフトラベルとハードラベルの関係を図 1 に,知識蒸留の全体像を図 2 に示す。 Hinton らの研究ではソフトラベルの損失関数として,教師及び生徒モデルの温度付きソフトマックス出力の交差エントロピーを用いているが,Zhang ら [5] は Kullback-Leibler divergence(KL Divergence)を用いている. KL Divergence は以下の数式で表される. $ D_{K L}(q \| p)=\sum_{i} p_{i} \log \frac{p_{i}}{q_{i}} $ また, Romeroら [6] は, 教師データよりも層の数を増やしつつ, 中間層のパラメータを削減した生徒モデルを提案し,全体的なパラメータの削減を実現した。また, Romero らは提案した生徒モデルとソフトラベルとの比較のみではなく, 教師モデルの中間層を比較することによって,過学習を防ぎ,モデルの精度を向上させた。この中間層をヒント層と呼ぶ。知識蒸留は自然言語処理の分野でも活用されている.Sanh ら [7] は,BERT[8] に知識蒸留を適用した。また,Kim ら [9] は機械翻訳のための LSTM モデルに知識蒸留を用いることを試みた。本研究では機械翻訳等に用いられる Transformer モデルを対象とした,知識蒸留手法を検討する.また,教師及び生徒モデルの Encoder と Decoder の出力層をヒント層として利用した知識蒸留も検討する. 図 1 ソフトラベルとハードラベル 図 2 知識蒸留 ## 3 提案手法 本研究では Transformer モデルを対象に,ヒント層を利用した合計 4 段階の学習手法を提案する。手法 は, Encoder 層の学習, Decoder 層の学習, ソフトラベルの学習, ハードラベルの学習で構成される. Encoder 層の学習 Encoderの最終出力層の時点で誤差を計算し, 学習する. 誤差関数は平均二乗誤差を用いる Decoder 層の学習 Decoderの最終出力層の時点で誤差を計算し, 学習する. 誤差関数は Encoder 層と同様に,平均最小二乗誤差を用いる。 ソフトラベルの学習本研究では, 教師モデルが全結合層の後に出力した確率分布をソフトラベルとする. 教師モデルのソフトラベルと教師モデルの出力との誤差を計算し,これを最小化する。 ハードラベルの学習最後に生徒モデルと, 実際のコーパスのターゲット文を比較し,誤差を計算する。 この時の誤差関数は, 教師モデル作成時に使用した誤差関数と同様のものを用いる. 図 3 Encoder 層の学習 図 4 Decoder 層の学習 ## 4 実験 ## 4.1 実験設定 実験設定を以下に示す。なお,全ての実験で PyTorch を用いた1) . また, 学習, 推論ともに計算資源として RTX2070superを 1 枚用いた。 1)https://github.com/harvardnlp/annotated-transformer を改良したものを用いた 図 5 ソフトラベルの学習 図 6 ハードラベルの学習 対訳コーパス実験用データとしてアジア学術論文抜粋コーパス(ASPEC-JE)[10] を使用した。デー タセットのうち訓練データは先頭の 100 万文対のみを使った. コーパスの文対数の詳細を表 1 に示す. 単語分割の際に Sentencepiece[11]を用いた. Sentencepiece は訓練データの英日文を連結させて,語彙サイズ 16000 で学習したものを用いた。また, 最大系列長を 50 とした。 表 1 実験用対訳コーパスの文対数(ASPEC-JE より) モデルと学習実験用の Transformer モデルは教師モデルを 1 つ,生徒モデルを 5 つ構築した。学習時間によって精度は上昇している可能性を懸念して,すべてのモデルの学習回数を合計 30 回に統一した。表 2 にモデルの詳細と各ステップの学習エポック数を示す.すべてのモデルにおいて隠れ層の次元は 512 次元でフィードフォワード層の次元は 2048 とした。また,単語埋め込み層のサイズは 512 次元,ドロップアウトを 0.1 とした。最適化手法として Adam[12]を用いた. ウォームアップステップは 2000 とした. 教師モデルの損失関数は, Label Smoothing Entoropy を用い た. 誤差関数は, hint layer は平均最小二乗誤差関数, ソフトラベルの誤差関数は KL Divergence, 教師モデルの誤差関数及び, 生徒モデルのハードラベルの誤差関数は Cross Entoropyを用いた。この際, $\varepsilon=0.1$ の Label Smoothing を行った. 表 2 モデルと学習エポック数 推論テストデータの翻訳の際, ビーム幅 5 のビームサーチを用いた。評価指標として BLEU[13] と RIBES[14] を用いた。評価は一度文を生文に戻した後, $\mathrm{MeCab}$ を用いて再分割してから行った。 BLEU の計算は multi-bleu.perl ${ }^{2}$, RIBES の計算は RIBES.py ${ }^{3)}$ を用いた. ## 4.2 実験結果と考察 全ての実験において教師モデルと生徒モデルの 3 層, 6 層におけるパラメータ数は, 表 3 のようになった。 また, 実験結果は表 4(英 $\rightarrow$ 日), 表 5(日 $\rightarrow$ 英)のようになった。 表 4 実験結果英日 実験より, Transformer の層を 6 層から 3 層に減らすことによって,パラメータ数がそれぞれ $35 \% , 37 \%$ 、推論時間が $23 \%$ 程度削減されることを確認した。ま  表 5 実験結果日英 日 $\rightarrow$ 英 BLEU RIBES 推論時間 た, 同じ 30 エポックでも学習の比率によって結果が異なることを確認した.ソフトラベル,ハードラベルのみの学習だけの場合よりも, 双方の学習を行ったモデルの方が高精度であった。ただし, ヒント層の学習の効果は本研究では見られなかった。これは, ヒント層の誤差の計算方法や学習回数に問題があると考えられ,さらなる改善が必要である. ## 5 おわりに 本研究では,ヒント層を利用した機械翻訳の知識蒸留手法を提案した.実験の結果,ハードラベルの学習が生徒モデルの精度向上に有効であることが分かった. 今後は,ヒント層を利用した手法をさらに詳しく検討する必要がある.例えば,ヒント層の学習エポック数をすべて 3 回と設定したが,今後はその数を増減させた場合の効果の変化も検証する必要がある。また, Encoder および Decoder の最終出力だけではなく中間の出力の誤差も計算する必要もある. さらに, 層数だけでなく, 各層の出力次元数を減らしたモデルでの実験も行う必要がある. ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, pp. 59986008, 2017. [2] Song Han, Jeff Pool, John Tran, and William Dally. Learning both weights and connections for efficient neural network. Advances in neural information processing systems, Vol. 28, pp. 1135-1143, 2015. [3] Benoit Jacob, Skirmantas Kligys, Bo Chen, Menglong Zhu, Matthew Tang, Andrew Howard, Hartwig Adam, and Dmitry Kalenichenko. Quantization and training of neural networks for efficient integer-arithmetic-only inference. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 2704-2713, 2018. [4] Geoffrey Hinton, Oriol Vinyals, and Jeff Dean. Distilling the knowledge in a neural network. arXiv preprint arXiv:1503.02531, 2015. [5] Ying Zhang, Tao Xiang, Timothy M Hospedales, and Huchuan Lu. Deep mutual learning. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 4320-4328, 2018. [6] Adriana Romero, Nicolas Ballas, Samira Ebrahimi Kahou, Antoine Chassang, Carlo Gatta, and Yoshua Bengio. Fitnets: Hints for thin deep nets. arXiv preprint arXiv:1412.6550, 2014 [7] Victor Sanh, Lysandre Debut, Julien Chaumond, and Thomas Wolf. Distilbert, a distilled version of bert: smaller, faster, cheaper and lighter. arXiv preprint arXiv:1910.01108, 2019. [8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [9] Yoon Kim and Alexander M Rush. Sequence-level knowledge distillation. arXiv preprint arXiv:1606.07947, 2016. [10] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Uchiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian scientific paper excerpt corpus. In Nicoletta Calzolari (Conference Chair), Khalid Choukri, Thierry Declerck, Marko Grobelnik, Bente Maegaard, Joseph Mariani, Asuncion Moreno, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC 2016), pp. 2204-2208, Portorož, Slovenia, may 2016. European Language Resources Association (ELRA). [11] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. arXiv preprint arXiv:1808.06226, 2018. [12] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014. [13] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting of the Association for Computational Linguistics, pp. 311-318, 2002. [14] Hideki Isozaki, Tsutomu Hirao, Kevin Duh, Katsuhito Sudoh, and Hajime Tsukada. Automatic evaluation of translation quality for distant language pairs. In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, pp. 944-952, Cambridge, MA, October 2010. Association for Computational Linguistics.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-12.pdf
# 事前学習モデルを用いた少量データに対する日本語抽象型要約 勝又智 株式会社レトリバ satoru.katsumata@retrieva.jp ## 1 はじめに 近年,自動要約の技術として,Encoder-Decoder を用いた抽象型要約が盛んに研究されている $[1,2,3,4,5,6,7]$. この Encoder-Decoder モデルを用いた抽象型要約の特徴として,学習に大量のデータが必要となることが知られている. 事前学習モデルを使用することで,少量の要約データでも高い精度が得られることがいくつかの研究で報告されている. 例えば Dong ら [8] は, Gigaword [1] と呼ばれる英語要約データセットの学習データ $10 \mathrm{~K}$ 使用した場合,事前学習を行わないモデルでは ROUGE-L が 10.42 ポイントのところを,事前学習したモデルを用いることで 30.56 ポイントとなることを示した。しかしながら,日本語の抽象型要約については事前学習モデルの有効性は調べられていない. そこで本研究は,日本語抽象型要約夕スクについて,事前学習モデルを用いることで.学習データが大量に必要となる問題の緩和につながるか調査を行った. 具体的には, UniLM [8], JASS [9], multilingual T5 [10] と呼ばれる,3つの事前学習モデルを用いて調査を行い,モデル毎の比較を行った. 日本語要約研究では,新聞に関する要約データ, Webニュースに関する要約データが使用されている $[11,2,3]$. しかしながら,実世界ではニュース記事以外の分野についても要約を行いたいという需要が存在する. そこで本研究は, wikiHow ${ }^{1)}$ という様々な分野に関するハウツーが記載された Web サイトから要約データを作成し,ニュース記事以外に対する抽象型要約についても調査した。 少量データに対する事前学習モデルを用いた抽象型要約実験として, 本研究では Livedoor News と wikiHow データに対して抽象型要約を行っている.特に, Livedoor News については学習データとして $10 \mathrm{~K}$ 使用した場合と $1 \mathrm{~K}$ 使用した場合を比較し,事前学習モデルの少量データに対する精度を調査し 1) https://www.wikihow.jp た. 実験結果から,数千件の学習データを用いた日本語抽象型要約において,事前学習モデルは有効であることがわかった. また,データセットによって事前学習モデルの振る舞いが変わる場合が存在することがわかった. 本研究の貢献は以下の 2 つである. 1. 様々な事前学習モデルを用いて,学習データが少量の際の日本語抽象型要約を実験,分析し,事前学習モデルの有効性を確認した。 2. wikiHowを用いて日本語要約データセットを作成,公開 2$)$ した.このデータセットは既存のニュース要約データセットと比べて抽象度が高いことを確認した. ## 2 関連研究 現在,日本語の要約研究は様々な問題設定で行われている。具体的には,新聞記事に対して,適切な長さの見出しを生成するといった設定 [2], Web ニュース記事に対して,3 行の要約を生成する設定 [11],議会の議事録から対話構造を考慮した要約を生成する設定 [12] などが存在している。このように,出力の構造を考慮する問題設定が多く研究されている。一方で, 本研究では, 抽象型要約の学習データが大量に必要となる問題に対して取り組む。 現在, 日本語要約研究では主に 2 種類のデータセットが存在している。一つが,新聞記事から作成した要約データである. Japanese News Corpus (JNC) [2] は新聞記事の先頭 3 文と対応する見出しの対になっており, JApanese MUlti-Length Summarization Corpus(JAMUL)や JAMUL2020 [3] は 1 記事に対して複数の要約が紐づいているデータセットである. もう一つが Livedoor News から作成した 3 行要約データセット [11]である.これは Livedoor News が記事と対応する 3 行の要約が紐づいて公開されていることを利用して作成したデータセットである.  表 1 事前学習モデル これらのデータセットは全てニュース記事に関するデータセットである. 一方で,英語で記述された要約データはニュース記事 $[1,13]$, 特許 [14], 電子メール [15] など,様々な分野で存在する. その中の一つに, wikiHow $\left.{ }^{3}\right)$ という様々な分野に関する八ウツーが記載された Web サイトから作成した要約データ [16] が存在する. このデータはニュース記事で作成したデータセットと異なり,様々な分野について抽象度の高い要約データという特徵を持つことが報告されている. 本研究では,この英語 wikiHow のデータセットを参考に,新たに日本語版 wikiHow から要約データセットを作成した. wikiHow は様々なトピックに関して記述されており,ニュース記事とは記事と要約,どちらも傾向が異なると考えられる.このデータセットを利用してニュース記事以外での抽象型要約の振る舞いを調査する。 ## 3 事前学習モデルを用いた要約 本研究は抽出型要約について,いくつかの事前学習モデルを用いて実験した. 表 1 に本研究で使用する事前学習モデルをまとめている. ## 3.1 UniLM Dong ら [8] は BERT [17] の事前学習をより拡張した手法 (Unified pre-trained Language Model; UniLM) をいくつか提案した. その中の一つに Sequence-toSequence Language Model(seq2seq LM)が存在する.概要図を図 1 に示す. BERT は入力トークンの一部を [MASK] に置換し,置換前の単語を推定するように事前学習を行う (Masked Language Model; MLM). この時, BERT は注意機構を双方向に用いている.一方で seq2seq LM は図のように, 入力記事側は双方向なのだが, 出力要約側は出力するものより以前のトークンのみに注意機構が張られる. この機構を使用することで要約などの系列変換が学習できることを報告している. 本研究では日本語データで学習された BERTを元に, 次の fine-tuning と推論を行っている. 抽出  図 1 UniLM seq2seq LM の概要図 型要約の学習を行う際は, 要約側の一部の単語を [MASK] に置換し,seq2seq LM を用いて元の単語を当てるように学習を行う. 推論時には入力記事を原言語側に与え,要約側の入力として [MASK] を用意し, 出力の終了記号 [EOS] が出るまで推論を行う. ## 3.2 JASS JASS (JApanese-specific Sequence to Sequence) [9] は,MASS(MAsked Sequence to Sequence)[4]を日本語向けに拡張した目的関数を用いて Transformer [18] を事前学習したモデルである. MASS は大量の単言語データの各文中の単語をランダムにマスクトー クンに置換し,このマスクトークンを Decoderを用いて推定するように事前学習されている。一方で, JASS はこのマスクトークンの置換区間として, 文節単位で置換し,元の単語を推定する事前学習を行っている. さらに,入力文を文節単位でシャッフルし, 元の語順を Decoder で推定する事前学習も行っている. 本研究ではこの JASS モデルに対して,要約データで fine-tuning および推論を行った. ## 3.3 multilingual $\mathrm{T 5$} Raffel ら [5] は事前学習 Encoder-Decoder として Text-to-Text Transfer Transformer(T5)を作成した.このモデルは,単言語コーパスの各文中の単語をランダムにマスクトークンに置換し, 元の単語を当てるように Transformerを事前学習している. Xue ら [10] は様々な言語の単言語コーパスで T5 と同様の事前学習を行い,モデルを作成した (multilingual variant of T5; mT5). 本研究ではこの $\mathrm{mT5}$ に対して, 要約データを用いて fine-tuning,推論を行った. ## 4 日本語 wikiHow 要約データセット 本研究では Koupaee and Wang [16] と同様の手法で wikiHow から日本語要約データセットを作成した. 図 2 wikiHow から要約データを作成する例 日本語 wikiHow は全 19 カテゴリについて, 各ペー ジが構造化して記述されている. 具体的には, ペー ジ内にいくつかの大段落が存在しており, この中に小段落として記事と対応した見出しが存在している. 本研究ではこの組み合わせを利用して要約デー タを作成した。 具体例を図 2 に示す.この図のように,記事と要約はそれぞれ各小段落内の記事と見出しを繋げたものとして利用している. 見出しとして手を洗う’, 'マスクの状態を確認する' とあれば作成する要約は '手を洗う。マスクの状態を確認する。'となる。このようにして,2020 年 6 月時点で取得できた全てのページから要約データを作成した。 作成したデータセットの統計を表 2 に示す. 英語 wikiHow データセットは数十万件の記事が含まれているが,日本語 wikiHow データセットは数千件しか含まれていない. また,Livedoor News の要約データセットと要約の抽象度合いの観点で比較した. 抽象度合いは記事側には存在せず,要約側のみに存在する単語 n-gram の割合で計測している. 比較の結果, Livedoor News データと比べると wikiHow データの方が要約側にしか存在しない n-gram が多く, より抽象度が高いデータセットであることがわかった. n-gram の割合について,詳細な値は付録 A に記載した。 作成した wikiHow データセットの特徴として, 要約側に同一の表現が複数回出現することを確認した. Livedoor News 5,066 件中, $32.1 \%$ 件の要約側で同一の 3-gram が複数回存在していたが, wikiHow には $62.2 \%$ 同一の 3-gram が存在していた.このように, wikiHow データセットは既存のデータセットとは要約の記述スタイルが異なることがわかる. ## 5 実験 本研究では,事前学習モデルを用いて wikiHow データと Livedoor News の 1K,10K データに対して入力が 1 記事の抽象型要約実験を行った. ## 5.1 実験設定 wikiHow については, 得られたデータを 5 等分し, 3:1:1 の割合で学習, 開発, テストデータとした. そのため,学習データ,開発データ,テストデータはそれぞれは 3,040 件,1,013 件,1,013 件である。また, Livedoor News については,公開されている分割 4 )を元に学習, 開発,テストデータを用意した. ただし,2020 年時点で取得できたデータのみを使用しているため, 開発データとテストデータはそれぞれ 886 件, 871 件である. 学習データについては取得できたデータからランダムに $1 \mathrm{~K}$ または $10 \mathrm{~K}$ 抽出している. 評価については出力分かち書きから空白を取り除いた後, $\mathrm{MeCab}^{5)}$ で分割し, ROUGE-1 (R-1),2(R-2),L(R-L)のF 值を測定している. UniLM として, 日本語データで学習された BERT $^{6)}$ に対して,seq2seq LM を用いた fine-tuning を行っだ ${ }^{7)}$. 単語分割は MeCab と WordPiece [19] を用いている. JASS は日英の単言語データで学習されたモデル8)に対して要約の fine-tuning を行った.単語分割は Juman++ [20] と SentencePiece [21]を, fine-tuning と推論には OpenNMT [22]を使用している. $\mathrm{mT5}$ は他のモデルと同程度のパラメータ数のモデル9)に対して要約の fine-tuning を行った. 単語分割は SentencePiece を使用し, fine-tuning と推論は  表 3 日本語抽象型要約実験結果 Mesh Tensorflow [23] を使用している。また,比較として事前学習なしの手法を 2 つ, 実験した. 1 つが LEAD-3 と呼ばれる, 記事から最初の 3 文を要約として使用する手法で,もう 1 つが Pointer-Generator [6] と呼ばれる Encoder-Decoder を用いた手法である. Pointer-Generator は OpenNMT の実装を使用,単語分割は $\mathrm{MeCab}$ を用いている. mT5,LEAD-3 以外のモデルは推論時に 3-gram の繰り返しの削除(Trigram Block)[7]を行っており,全てのモデルはビーム幅は 4 で実験している. 上記 4 モデルのハイパーパラメータの詳細は付録 B に記載している. ## 5.2 実験結果 実験結果を表 3 に示す. 各評価指標において最も高いスコアを太字にしている.全ての実験設定において,UniLM を用いた手法が最も良い結果であった. また,学習データが数千件の設定では,事前学習なしの手法より事前学習を行っている手法の方が良いことがわかる。 Livedoor News については UniLM に次いで mT5 の精度が高く,これら 2 つのモデルは LEAD-3, Pointer-Generator よりもどの評価指標においても優れている結果となった. 一方で JASS は LEAD-3 と同程度または低い精度であり, 特に $10 \mathrm{~K}$ の場合において,ROUGE-2について Pointer-Generator と同程度の精度であることがわかる. wikiHow においては Livedoor News の場合と異なり, JASS の方が mT5 より高い精度であることがわかる. ## 6 分析と考察 要約実験結果から,mT5 が wikiHow に対して精度が低いことがわかる。調査の結果,mT5 のテストデータ全体に対して $88.3 \%$ \%いて同一の文の繰り返しが発生していた. 実際の出力例は付録の C に示す。一方で,Livedoor News 1K に対しては mT5 は 10.0 \%繰り返している. UniLM は wikiHow, Livedoor News 1K のどちらも $0.1 \%$ 繰り返していた. このように, mT5を用いた場合,文単位での繰り返しが発生しやすく,データセットによって繰り返し度合いが大きく変わっていることがわかる. この理由の 1 つとして, mT5 は推論時に Trigram Block を行っていないからだと考えられる。また, wikiHow については,4 章で述べたように,要約側に同一の表現が複数回現れることを確認している。そのため, wikiHow で学習することにより,同一の表現を出力するように学習していき,推論時にもそのような出力をする傾向にあると考えられる。 事前学習を行ったモデルと行っていないモデルの定性的な比較を行う. Pointer-Generator $の$ wikiHow に対する出力は平均単語数が 12.6 で, 平均語彙は 8.9 であった. 一方で, UniLM の出力は平均単語数が 26.2 で平均語彙が 18.6 となり, 2 倍以上の長さ,語彙であった. この結果と ROUGE スコアから,事前学習を行うことでより入力記事を説明している要約が生成できていると考えられる. これは, 学習データが数千件の状況で事前学習を行わなかった場合は学習が安定せず,単純な要約しか学習できない一方で,事前学習を行うことで,学習が安定し,より複雑な要約も可能になると考えられる。 ## 7 おわりに 本研究では,学習データが数千,数万件の日本語抽象型要約タスクにおいて,事前学習モデルの有効性を調査した.また,既存のニュース記事の分野とは異なる,ハウツーが記述されたデータから要約データ日本語 wikiHow を作成,公開した. この日本語 wikiHow および Livedoor News について,学習データが数千件の場合, 事前学習モデルである UniLM を用いることで,事前学習なしのモデルと比べて大きく精度が向上することを確認した. 今後は別の分野に関する要約データセットの作成, 事前学習モデルを元に要約精度を改善する手法の研究に取り組みたい。 ## 参考文献 [1]Alexander M. Rush, Sumit Chopra, and Jason Weston. A neural attention model for abstractive sentence summarization. In Proc. of EMNLP, pp. 379-389. Association for Computational Linguistics, 2015. [2]Yuta Hitomi, Yuya Taguchi, Hideaki Tamori, Ko Kikuta, Jiro Nishitoba, Naoaki Okazaki, Kentaro Inui, and Manabu Okumura. A large-scale multi-length headline corpus for analyzing length-constrained headline generation model evaluation. In Proc. of the 12th International Conference on Natural Language Generation, pp. 333-343. Association for Computational Linguistics, 2019. [3] 人見雄太, 田口雄哉, 田森秀明, 岡崎直観, 乾健太郎. 小規模リソースにおける生成型要約のためのスタイル転移. 言語処理学会第 26 回年次大会, pp. 929-932, 2020. [4]Kaitao Song, Xu Tan, Tao Qin, Jianfeng Lu, and Tie-Yan Liu. Mass: Masked sequence to sequence pre-training for language generation. In International Conference on Machine Learning, pp. 5926-5936, 2019. [5]Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [6]Abigail See, Peter J. Liu, and Christopher D. Manning. Get to the point: Summarization with pointer-generator networks. In Proc. of ACL, pp. 1073-1083. Association for Computational Linguistics, 2017. [7]Romain Paulus, Caiming Xiong, and R. Socher. A deep reinforced model for abstractive summarization. ArXiv, Vol. abs/1705.04304, , 2018 [8]Li Dong, Nan Yang, Wenhui Wang, Furu Wei, Xiaodong Liu, Yu Wang, Jianfeng Gao, Ming Zhou, and Hsiao-Wuen Hon. Unified language model pre-training for natural language understanding and generation. In $\mathrm{H}$. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Proc. of NeurIPS, Vol. 32, pp. 13063-13075. Curran Associates, Inc., 2019. [9]Zhuoyuan Mao, Fabien Cromieres, Raj Dabre, Haiyue Song, and Sadao Kurohashi. JASS: Japanese-specific sequence to sequence pre-training for neural machine translation. In Proc. of LREC, pp. 3683-3691. European Language Resources Association, 2020. [10]Linting Xue, Noah Constant, A. Roberts, Mihir Kale, Rami Al-Rfou, Aditya Siddhant, A. Barua, and Colin Raffel. mT5: A massively multilingual pre-trained text-to-text transformer. ArXiv, Vol. abs/2010.11934, , 2020. [11]小平知範, 小町守. TL;DR 3 行要約に着目したニュー ラル文書要約 (データ工学). 電子情報通信学会技術研究報告 $=$ IEICE technical report : 信学技報, Vol. 117, No. 212, pp. 193-198, 2017. [12]木村泰知, 渋木英潔, 高丸圭一, 秋葉友良, 石下円香, 内田ゆず, 小川泰弘, 乙武北斗, 佐々木稔, 三田村照子, 横手健一, 吉岡真治, 神門典子. NTCIR-15 QA Lab-PoliInfo2 のタスク設計. 言語処理学会第 26 回年次大会, pp. 625-628, 2020. [13]Karl Moritz Hermann, Tomas Kocisky, Edward Grefenstette, Lasse Espeholt, Will Kay, Mustafa Suleyman, and Phil Blunsom. Teaching machines to read and comprehend. In C. Cortes, N. Lawrence, D. Lee, M. Sugiyama, and R. Garnett, editors, Proc. of NeurIPS, Vol. 28, pp. 1693-1701. Curran Associates, Inc., 2015. [14]Eva Sharma, Chen Li, and Lu Wang. BIGPATENT: A largescale dataset for abstractive and coherent summarization. In Proc. of ACL, pp. 2204-2213. Association for Computational Linguistics, 2019. [15]Rui Zhang and Joel Tetreault. This email could save your life: Introducing the task of email subject line generation. In Proc. of ACL, pp. 446-456. Association for Computational Linguistics, 2019. [16]M. Koupaee and William Yang Wang. Wikihow: A large scale text summarization dataset. ArXiv, Vol. abs/1810.09305, , 2018. [17]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. of NAACL-HLT, pp. 4171-4186. Association for Computational Linguistics, 2019. [18]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Proc. of NeurIPS, Vol. 30, pp. $5998-$ 6008. Curran Associates, Inc., 2017. [19]Mike Schuster and Kaisuke Nakajima. Japanese and korean voice search. In 2012 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 5149-5152. IEEE, 2012. [20]Hajime Morita, Daisuke Kawahara, and Sadao Kurohashi. Morphological analysis for unsegmented languages using recurrent neural network language model. In Proc. of EMNLP, pp. 2292-2297. Association for Computational Linguistics, 2015. [21]Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proc. of EMNLP, pp. 66-71. Association for Computational Linguistics, 2018. [22]Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, and Alexander Rush. OpenNMT: Open-source toolkit for neural machine translation. In Proc. of ACL, pp. 67-72. Association for Computational Linguistics, 2017. [23]Noam Shazeer, Youlong Cheng, Niki Parmar, Dustin Tran, Ashish Vaswani, Penporn Koanantakool, Peter Hawkins, HyoukJoong Lee, Mingsheng Hong, Cliff Young, Ryan Sepassi, and Blake Hechtman. Mesh-TensorFlow: Deep learning for supercomputers. In Proc. of NeurIPS, 2018. ## A 要約側のみに存在する n-gram 統計 単語 n-gram の割合を表 4 に示す.なお,ここでの単語は MeCab の解析結果の形態素を指している。この表から, wikiHow の方が要約側にしか含まれない n-gram が多く, Livedoor News と比べて抽象度の高いデータセットであることがわかる. 表 4 事前学習モデル ## B 詳細な実験設定 UniLM,JASS,mT5,Pointer-Generator について詳細な実験設定を表 5 に示す. ## C 出力例 wikiHow に対する UniLM,JASS,mT5,Pointer-Generator の出力例を表 6 に示す. 表 6 wikiHow に対する出力例 \\
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-13.pdf
# 談話構造制約付きパーソナライズド抽出型要約 高津 弘明 $^{1}$ 安藤 涼太 $^{2}$ 本田 裕 $^{3}$ 松山 洋一 $1 \quad$ 小林哲則 ${ }^{1}$ 1 早稲田大学 2 内外切抜通信社 $\quad 3$ 本田技研工業 takatsu@pcl.cs.waseda.ac.jp ando@naigaipc.co.jp hiroshi_01_honda@jp.honda matsuyama@pcl.cs.waseda.ac.jp koba@waseda.jp ## 1 はじめに ユーザのプロフィールに基づいてニュース記事の文に対する興味度を推定する手法および,興味度と談話構造に基づいて文を抽出し,ユーザごとにパー ソナライズした要約を生成する手法を提案する。 人々がテキストの必要な情報に効率的にアクセスすることを手助けする技術としてテキスト自動要約技術がある.要約は,特定のユーザに特化した要約か否かで, generic な要約と user-focused な要約に分類される [1]. generic な要約は,特定のユーザを想定せず,テキストの重要な情報を抽出して作成された要約を表すのに対し, user-focused な要約は,重要な情報だけでなく,ユーザの興味や好みも考慮して作成された要約を表す。これまでに, generic な要約を生成する手法が数多く検討されてきたが,興味や嗜好が多様化している現代社会において, user-focused な要約の需要が高まっている [2]. generic な要約, user-focused な要約を問わず,要約が満たすべき性質として一貫性がある。一貫性の高い要約とは原文書の談話構造や論理構造を保持した要約を表す. generic な要約の研究では, 談話構造を考慮した要約生成手法が提案されている $[3,4,5]$.一方,user-focused な要約生成手法の多くは,ユーザの特徴を考慮して計算されたスコアに基づいて文をランキングし,その上位の文を抽出して要約とするものである $[6,7,8]$. そのため, 従来の user-focused な要約生成手法では,一貫性の低い要約が生成される可能性が高い. そこで,本研究では,談話構造に基づく一貫性を保持したまま,ユーザの属性に応じて興味がありそうな文を抽出し,ユーザごとにパー ソナライズした要約を生成する手法を提案する. アプリケーションとしてニュースを伝える音声対話システム(以下,ニュース対話システム)[9]を想定する。このシステムは,要約に基づく主計画と補足説明のための副計画から構成されるシナリオに基づいて会話を進行させる。ユーザが受け身で聴いている限りにおいては主計画の内容を伝えることになる. 主計画生成問題を以下のように定式化する。 話題が異なる $|D|$ 個の文書から各文書の談話構造を制約としてユーザが興味のありそうな文を抽出し,その内容を音声で $T$ 秒以内に伝える。 提案手法では,文の内容に対する興味度は,アンケートから得られるユーザのプロフィール情報と BERT [10] の単語埋め込み表現に基づいて推定する.要約は, 最大要約長 $T$ (秒) と文書の談話構造を制約として,推定した興味度の和が最大となるように整数計画問題を解き,文を抽出することで生成する. 談話構造とユーザのプロフィールおよび文と話題に対する興味度が付与されたニュース記事コーパス [11]を用いて,提案手法の有効性を評価する。 本稿の構成は次の通りである. 2 章で関連研究について述べる. 3 章でニュース記事の文と話題に対する興味度を推定するモデルについて説明する. 4 章で推定した興味度に基づいて文を抽出する手法について説明する. 5 章で提案手法の有効性を評価する. 6 章でまとめと今後の展望について述べる. ## 2 関連研究 要約手法は大きく extractive な手法と abstractive な手法に分類される [12]. extractive な手法では, 文書中の文や単語を抽出することで要約を生成する。代表的な手法として,グラフベースの手法 $[13,14]$ や整数計画問題による手法 $[3,4]$, ニューラルネットワークによる手法 $[15,16]$ などがある. abstractive な手法では,文書中に出現しない表現も用いながら文章をより簡潔な表現に言い換えることで要約を生成する. 代表的な手法として,アテンションやコピー 図1 興味度推定モデル:BERT_PA_BiGRU_GNN 図 2 Personalized Sentence Encoder メカニズムを用いた手法 $[17,18]$ や強化学習を導入した手法 $[19,20]$ などがある. また, extractive と abstractive の両方の手法を取り入れたハイブリッドな手法 $[21,22]$ も提案されている. user-focused な要約を生成する研究でも abstractive な手法が最近提案されてきているが $[23,24]$, 以下に示す研究を含め,従来手法の多くは extractive な手法である. user-focused な要約の研究では,タスクに応じて様々な観点でユーザの特徴がモデル化されている。情報検索タスクでは,ユーザの特徴をクエリで捉え,そのクエリを反映した要約を生成することでパーソナライズが試みられている [25, 26, 27, 28].学習支援タスクでは, 学習者の年齢, 学習の目的や興味のある項目を記した自己記述などを用いて,学習者ごとにパーソナライズした要約を生成する手法が提案されている $[29,30,31]$. レビュー要約タスクでは,ユーザが入力したクエリの履歴や閲覧した商品の履歴, プロフィールテキスト, ユーザが過去に投稿したレビューなどを用いて,ユーザの興味や好みに合わせた要約を生成する手法が提案されている [32, 33, 23]. ニュース記事を含むウェブコンテンツの要約のパーソナライズを目指した研究では, ニュースのキーワードに対する興味やソーシャルタギングデータ,要約中の文に対するクリック情報などを用いて,ユーザごとにパーソナライズした要約を生成する手法が提案されている [6,7, 8, 34, 35]. 談話構造を考慮した generic な要約の研究としては次のような研究がある. Marcu は, 修辞構造理論 [36] に基づいて構築した Elementary Discourse Unit (EDU)を最小の談話単位とする修辞構造木に従って EDU をランキングし,ランキング上位の EDUを抽出して要約とする手法を提案した [37]. 平尾らは,修辞構造木を談話依存構造木へ変換する方法を提案し,整数計画問題に基づく談話依存構造木の刈 り込みによって要約を生成する手法を提案した [3].菊池らは,文間の依存構造と単語間の依存構造の両方を考慮して,整数計画問題に基づいて重要文抽出と文圧縮を同時に行う手法を提案した [4]. 近年,自然言語処理の分野では,ラベルなしの膨大なテキストデータを使用して事前学習した言語モデルを下流タスクでファインチューニングするアプローチが注目されており [38], 要約タスクにおいても事前学習の有効性が確認されている $[5,39,40]$. Liu らは,文書のエンコーディングに BERT [10]を使用し,入力の各文の先頭に [CLS] トークンを付与することで文ごとの特徴量を獲得し,各 [CLS] トークンに対応するエンコーダの最上位層の出力ベクトルにシグモイドを適用することで抽出する文か否かを推定する手法を提案した [39]. Xu らは,Liu らの手法を拡張し,RST の句構造を変換して得られた依存構造を制約として文書をエンコーディングし,EDU を抽出する手法を提案した [5]. Zhang らは,文書中の重要文を mask して復元するように学習した事前学習モデルが,他の事前学習モデルよりも要約タスクにおいて高い性能を示すことを確認した [40]. ## 3 興味度推定モデル ユーザのプロフィール情報(年齢や職種・業種, ニュースのジャンルに対する興味度,趣味など [11]) に基づいてニュース記事全体の話題に対する興味度と各文に対する興味度を推定するモデルを提案する. 提案モデルの概略図を図 1 に示す. タイトルに対する興味度を記事全体の話題に対する興味度として,1 文目の前にタイトルを入力する. Personalized Sentence Encoder(図 2) では,文の単語系列を BERT [10]に与え,得られた単語埋め込み表現系列に対してプロフィール特徴量をクエリとして, personalized attention [41] を計算する. さらに,補助情報として, 文書内文位置,文書内段落位置,段落内文位置,談話依存構造木における深さを与える。次に,得られた文べクトルを双方向の GRU [42] に与え,前後の文の情報を考慮した後, Graph Neural Netowork (GNN) [43] により,タイトルをルートノードとした文間の依存構造に基づく情報の伝搬を行う,最後に,談話構造を反映した文べクトルを sigmoid を活性化関数とする出力層に与え, 各文について興味があるか否かを推定する。 ## 4 興味文抽出モデル 話題が異なる $|D|$ 個の文書からユーザが興味のありそうな文を抽出し, 音声で $T$ 秒以内に伝える要約問題を考える。要約の要件として,ユーザにとって興味がある内容であること,冗長でないこと,内容が一貫していることが挙げられる。 そこで,要約問題を,文間の依存構造を制約とし,文に対する興味度の高さと文間の類似度の低さのバランスで目的関数を定義した整数計画問題として定式化する. $ \max . \quad \sum_{d \in D} \sum_{i<j \in S_{d}} b_{d i} b_{d j}\left(1-r_{d i j}\right) y_{d i j} $ s.t. $ \begin{aligned} & \forall d, i, j: \quad x_{d i} \in\{0,1\}, \quad y_{d i j} \in\{0,1\} \\ & \sum_{d \in D} \sum_{i \in S_{d}} t_{d i} x_{d i} \leq T \\ & \forall d<d^{\prime}:-L \leq \sum_{i \in S_{d}} x_{d i}-\sum_{i \in S_{d^{\prime}}} x_{d^{\prime} i} \leq L \\ & \forall d, i: \quad j=f_{d}(i), \quad x_{d i} \leq x_{d j} \\ & \forall d, c, i \in C_{d c}: \sum_{j \in C_{d c}} x_{d j}=\left|C_{d c}\right| \times x_{d i} \\ & \forall d, i, j: \quad y_{d i j}-x_{d i} \leq 0 \\ & \forall d, i, j: y_{d i j}-x_{d j} \leq 0 \\ & \forall d, i, j: \quad x_{d i}+x_{d j}-y_{d i j} \leq 1 \end{aligned} $ 変数の定義を表 1 に示す. ここで,文書 $d$ の $i$ 番目の文を文 $d i$ と表現する.$b_{d i}$ は,興味度推定モデルで推定した文 $d i$ に対する興味度の值である. $r_{d i j}$ は, 文 $d i$ と文 $d j$ の内容語の Bag-of-Words のコサイン類似度である。 式 2 は,要約の発話時間を $T$ 秒以下とする制約である。式 3 は,抽出する文の数の文書間での偏りを $L$ 文以下に抑える制約である. 式 4 は,ある文 $d i$ を含める場合,談話依存構造木における親ノードの文 $d j$ も含めなければならないとする制約である. 式 5 は,チャンク中のある文 $d i$ を含める場合,同チャンクに含まれる他の文も含めなければならないとする表 1 変数の定義 制約である.チャンクとは,親ノード文を理解するために欠かせない情報が子ノード文に書かれている場合,これらをまとめて提示すべきであることを表した文の集合である. 式 6 から式 8 は, 文 $d i$ と文 $d j$ が選ばれた際に $y_{d i j}=1$ とするための制約である。 文書間での最大許容偏り文数 $L$ は, 最大要約長 $T$ と, 要約対象の文書の数 $|D|$, 一文書あたりの平均発話時間 $\bar{t}$ に基づいて以下の式で求める. $ \begin{aligned} L & =\left.\lfloor\frac{\bar{N}}{\sqrt{|D|}}+0.5\right.\rfloor \\ \bar{N} & =\frac{T}{\bar{t} \times|D|} \end{aligned} $ $\bar{N}$ は 1 記事から抽出が期待される文の数を表し,その値を文書数の平方根で割り,四捨五入した值を $L$ とする. ## 5 実験 ニュース記事に対して談話構造と興味度を付与したデータセット [11]を使用した. このデータセットは,文を談話単位として,15 文から 25 文のニュー ス記事 1200 個に対して,ウェブニュースのクリッピングの専門家が「係り先」「談話関係」「チャンク」 を付与した談話構造のデータと, 同じ 1200 記事に対して,クラウドソーシングで 1 人あたり 6 記事, 1 記事あたり 11 人以上となるように配分して,合計 2507 人にプロフィールアンケートと, ニュース記事の話題と文について 6 段階の興味度(6:とても興味がある,5:興味がある,4:どちらかといえば興味がある,3:どちらかといえば興味がない,2:興味がない,1:まったく興味がない)を回答させたデー タからなる. 本研究では, 6 記事の回答時間が 6 分以上 20 分以下で,年齢が 20 代 50 代,職種と業種が「その他」ではなく, 低頻度の職種でない被験者 1154 人のデータを使用した. ## 5.1 興味度推定性能の評価 BERT の事前学習モデルとして,情報通信研究機構が公開しているモデルを用いた1). 使用した BERT モデルは,日本語 Wikipedia の全記事に対して, Juman 辞書を用いた $\mathrm{MeCab}^{2}$ [44] により形態素解析を行ったテキストを入力として,語彙数が 10 万語からなる BERT $_{\text {BASE }}[10]$ を学習したモデルである. 興味度データのうち,3 点以下のものを興味なし (ラベル“"0),4 点以上のものを興味あり(ラベル“1”) としてモデルの学習を行った. 評価は, ユー ザ単位でデータを 10 分割にして交差検定を行った. 比較手法として, 提案モデルから personalized attentionを除いたモデル(BERT_BiGRU_GNN)と, GNN を除いたモデル(BERT_PA_BiGRU)と比較した。なお,BERT_BiGRU_GNNでは,BERTの [CLS] トークンの最上位層の出力を BiGRUに与えている. それぞれのモデルについて, 10 分割交差検定で Accuracy を計算した結果を表 2 に示す. 表では 「話題」(タイトルに対応するラベル)と「文」に分けて結果を示している. BERT_BiGRU_GNNよりも BERT_PA_BiGRU_GNN の方が Accuracy が高いことから,ユーザのプロフィールを考慮することの有効性が確認できた。さらに,BERT_PA_BiGRUよりも BERT_PA_BiGRU_GNN の方が Accuracy が高いことから,文間の依存構造を考慮することの有効性が確認できた. ## 5.2 興味文抽出性能の評価 文に対する興味度に基づいてユーザごとにジャンルの異なる 6 個のニュース記事を要約し,その内容を規定時間内に音声で伝える状況を考える. 原文の表記で文を発話するものとし,ニュース記事の各文を AITalk 4.1 (のぞみ $)^{3}$ )で音声合成した. 合成音声ファイルの再生時間に,文間の間(ま)1 秒,文書間の間(ま) 3 秒を加えた値を $t_{d i}$ とした. 整数計画問題は分枝切除法 $[45,46]$ で解いた ${ }^{4)}$. 評価尺度  図 3 最大要約長 $T$ を変化させたときの $\mathrm{EoIT}_{1}$ と $\mathrm{EoIT}_{2}$ には,情報伝達効率 $\mathrm{EoIT}_{\beta}$ [47] を用いた. $\mathrm{EoIT}_{\beta}$ は,要約が 4 点以上の文を含めることができた割合(被覆率)を $C, 3$ 点以下の文を除外できた割合(除外率)を $E$ としたとき,重み付き $\mathrm{F}$ 值 [48] に基づき,以下の式で計算する。 $ \operatorname{EoIT}_{\beta}=\frac{\left(1+\beta^{2}\right) \times C \times E}{\beta^{2} \times C+E} $ $\beta=2$ のとき除外率を被覆率の 2 倍重視することを意味する。 最大要約長 $T$ を 180 秒から 540 秒まで 30 秒刻みで変化させたときの要約の $\mathrm{EoIT}_{1}$ と $\mathrm{EoIT}_{2}$ を図 3 に示す. $\operatorname{EoIT}_{\beta}$ (予測値) は,興味度として BERT_PA_BiGRU_GNN の 10 分割交差検定の予測値を用いたときの性能を表す. $\operatorname{EoIT}_{\beta}$ (理想値)は,興味度としてデータセットの正解値を用いたときの性能を表す。各曲線は被覆率と除外率のバランスが最も取れた時刻で最大となっている. EoIT (理 $^{2}$想值)は $T=450$ のとき 0.595, EoIT $_{1}$ (予測値)は $T=420$ のとき 0.526, EoIT $_{2}$ (理想値)は $T=270$ のとき $0.630, \mathrm{EoIT}_{2}$ (予測値) は $T=270$ のとき 0.577 で最大となった. 全時刻での $\mathrm{EoIT}_{1}$ と $\mathrm{EoIT}_{2}$ の理想値と予測値の差は平均で $6 \%$ 程度であった。 ## 6 おわりに ユーザのプロフィールに基づいてニュース記事の文に対する興味度を推定する手法および,興味度と談話構造に基づいて文を抽出し,ユーザごとにパー ソナライズした要約を生成する手法を提案した. 今後は,対話履歴を用いて適応的にパーソナライズした要約を生成する手法について検討する。 謝辞本研究は,JST START(JPMJST1912)の支援を受けたものである. ## 参考文献 [1]Inderjeet Mani and Eric Bloedorn. Machine learning of generic and userfocused summarization. In Proceedings of the 15th National / 10th Conference on Artificial Intelligence / Innovative Applications of Artificial Intelligence, pp. 820-826, 1998. [2]Maya Sappelli, Dung Manh Chu, Bahadir Cambel, David Graus, and Philippe Bressers. SMART journalism: Personalizing, summarizing, and recommending financial economic news. The Algorithmic Personalization and News (APEN18) Workshop at ICWSM, Vol. 18, No. 5, pp. 1-3, 2018. [3]Tsutomu Hirao, Masaaki Nishino, Yasuhisa Yoshida, Jun Suzuki, Norihito Yasuda, and Masaaki Nagata. Summarizing a document by trimming the discourse tree. IEEE/ACM Transactions on Audio, Speech and Language Processing, Vol. 23, No. 11, pp. 2081-2092, 2015. [4]Yuta Kikuchi, Tsutomu Hirao, Hiroya Takamura, Manabu Okumura, and Masaaki Nagata. Single document summarization based on nested tree structure. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, pp. 315-320, 2014. [5]Jiacheng Xu, Zhe Gan, Yu Cheng, and Jingjing Liu. Discourse-aware neural extractive text summarization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5021-5031, 2020. [6]Alberto Díaz and Pablo Gervás. User-model based personalized summarization. Information Processing and Management, Vol. 43, No. 6, pp. $1715-1734,2007$ [7]Rui Yan, Jian-Yun Nie, and Xiaoming Li. Summarize what you are interested in: An optimization framework for interactive personalized summarization. In Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, pp. 1342-1351, 2011. [8]Po Hu, Donghong Ji, Chong Teng, and Yujing Guo. Context-enhanced personalized social summarization. In Proceedings of the 24th International Conference on Computational Linguistics, pp. 1223-1238, 2012. [9]高津弘明, 福岡維新, 藤江真也, 林良彦, 小林哲則. 意図性の異なる多様な情報行動を可能とする音声対話システム. 人工知能学会論文誌, Vol. 33, No. 1, pp. 1-24, 2018. [10]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, 2019 [11]高津弘明, 安藤涼太, 本田裕, 松山洋一, 小林哲則. ニュース記事に対する談話構造と興味度のアノテーション〜ニュース対話システムのパーソナライズに向けて〜. 言語処理学会第 27 回年次大会発表論文集, 2021. [12]Vipul Dalal and Latesh Malik. A survey of extractive and abstractive text summarization techniques. In Proceedings of the 6th International Conference on Emerging Trends in Engineering and Technology, pp. 109-110, 2013. [13]Güneş Erkan and Dragomir R. Radev. LexRank: Graph-based lexical centrality as salience in text summarization. Journal of Artificial Intelligence Research, Vol. 22, No. 1, pp. 457-479, 2004 [14]Rada Mihalcea and Paul Tarau. TextRank: Bringing order into texts. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 404-411, 2004 [15]Ramesh Nallapati, Feifei Zhai, and Bowen Zhou. SummaRuNNer: A recurrent neural network based sequence model for extractive summarization of documents. In Proceedings of the 31th AAAI Conference on Artificial Intelligence, pp. 3075-3081, 2017. [16]Jiacheng Xu and Greg Durrett. Neural extractive text summarization with syntactic compression. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 3292-3303, 2019 [17]Abigail See, Peter J. Liu, and Christopher D. Manning. Get to the point: Summarization with pointer-generator networks. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, pp. 10731083, 2017. [18]Arman Cohan, Franck Dernoncourt, Doo Soon Kim, Trung Bui, Seokhwan Kim, Walter Chang, and Nazli Goharian. A discourse-aware attention model for abstractive summarization of long documents. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 615-621, 2018. [19]Romain Paulus, Caiming Xiong, and Richard Socher. A deep reinforced model for abstractive summarization. In Proceedings of the 6th International Conference on Learning Representations, pp. 1-13, 2018. [20]Ramakanth Pasunuru and Mohit Bansal. Multi-reward reinforced summarization with saliency and entailment. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 646-653, 2018. [21]Yen-Chun Chen and Mohit Bansal. Fast abstractive summarization with reinforce-selected sentence rewriting. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, pp. 675-686, 2018. [22]Wan-Ting Hsu, Chieh-Kai Lin, Ming-Ying Lee, Kerui Min, Jing Tang, and Min Sun. A unified model for extractive and abstractive summarization Association for Computational Linguistics, pp. 132-141, 2018. [23]Junjie Li, Haoran Li, and Chengqing Zong. Towards personalized review summarization via user-aware sequence network. In Proceedings of the 33rd AAAI Conference on Artificial Intelligence, pp. 6690-6697, 2019 [24]Yu-Hsiu Chen, Pin-Yu Chen, Hong-Han Shuai, and Wen-Chih Peng. TemPEST: Soft template-based personalized EDM subject generation through collaborative summarization. In Proceedings of the 34th Association for the Advancement of Artificial Intelligence, pp. 7538-7545, 2020. [25]Anastasios Tombros and Mark Sanderson. Advantages of query biased summaries in information retrieval. In Proceedings of the 21st Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, pp. 2-10, 1998. [26]Changhu Wang, Feng Jing, Lei Zhang, and Hong-Jiang Zhang. Learning query-biased web page summarization. In Proceedings of the 16th ACM Conference on Conference on Information and Knowledge Management, $\mathrm{pp}$. $555-562,2007$ [27]Sun Park, Byung Rae Cha, and JangWoo Kwon. Personalized document summarization using pseudo relevance feedback and semantic feature. IETE Journal of Research, Vol. 58, No. 2, pp. 155-165, 2012. [28]Jennifer Williams, Sharon Tam, and Wade Shen. Finding good enough: A task-based evaluation of query biased summarization for cross language information retrieval. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp. 657-669, 2014 [29]Róbert Móro and Mária Bieliková. Personalized text summarization based on important terms identification. In Proceedings of the 23rd International Workshop on Database and Expert Sytems Applications, pp. 131-135, 2012. [30]Guangbing Yang, Dunwei Wen, Kinshuk, Nian-Shing Chen, and Erkki Sutinen. Personalized text content summarizer for mobile learning: An automatic text summarization system with relevance based language model. In Proceedings of the 2012 IEEE Fourth International Conference on Technology for Education, pp. 90-97, 2012. [31]Uriel Ramírez, Yasmín Hernández, and Alicia Martínez. Towards personalized summaries in spanish based on learning styles theory. Research in Computing Science, Vol. 148, No. 5, pp. 115-123, 2019. [32]Zehra Kavasoğlu and Şule Gündüz Öğüdücü. Personalized summarization of customer reviews based on user's browsing history. International Journal on Computer Science and Information Systems, Vol. 8, No. 2, pp. 147-158, 2013 [33]Mickaël Poussevin, Vincent Guigue, and Patrick Gallinari. Extended recommendation framework: Generating the text of a user review as a personalized summary. In Proceedings of the 2nd Workshop on New Trends on Content-Based Recommender Systems co-located with 9th ACM Conference on Recommender Systems, pp. 34-41, 2015. [34]Chandan Kumar, Prasad Pingali, and Vasudeva Varma. Generating personalized summaries using publicly available web documents. In Proceedings of the 2008 IEEE/WIC/ACM International Conference on Web Intelligence and Intelligent Agent Technology, pp. 103-106, 2008 [35]Xindong Wu, Fei Xie, Gongqing Wu, and Wei Ding. Personalized news filtering and summarization on the web. In Proceedings of the 2011 IEEE 23 rd International Conference on Tools with Artificial Intelligence, pp. 414 $421,2011$. [36]William C. Mann and Sandra A. Thompson. Rethorical structure theory: Toward a functional theory of text organization. Text, Vol. 8, No. 3, pp. 243-281, 1988 [37]Daniel Marcu. Improving summarization through rhetorical parsing tuning. In Proceedings of the 6th Workshop on Very Large Corpora, pp. 206-215, 1998. [38]XiPeng Qiu, TianXiang Sun, YiGe Xu, YunFan Shao, Ning Dai, and XuanJing Huang. Pre-trained models for natural language processing: A survey. 2020. [39]Yang Liu and Mirella Lapata. Text summarization with pretrained encoders. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 3730-3740, 2019. [40]Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter J. Liu. PEGASUS: Pre-training with extracted gap-sentences for abstractive summarization. In Proceedings of the 37th International Conference on Machine Learning, pp. 11328-11339, 2020. [41]Chuhan Wu, Fangzhao Wu, Mingxiao An, Jianqiang Huang, Yongfeng Huang, and Xing Xie. NPA: Neural news recommendation with personalized attention. In Proceedings of the 25th ACM SIGKDD International Conference on Knowledge Discovery \& Data Mining, pp. 2576-2584, 2019. [42]Kyunghyun Cho, Bart van Merriënboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. Learning phrase representations using RNN encoder-decoder for statistical machine translation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp. 1724-1734, 2014. [43]Filippo Maria Bianchi, Daniele Grattarola, Lorenzo Livi, and Cesare Alippi. Graph neural networks with convolutional ARMA filters. arXiv:1901.01343v6, pp. 1-15, 2020. [44]Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237, 2004 [45]John E. Mitchell. Branch-and-cut algorithms for combinatorial optimization problems. Handbook of Applied Optimization, pp. 65-77, 2002. [46]Manfred Padberg and Giovanni Rinaldi. A branch-and-cut algorithm for the resolution of large-scale symmetric traveling salesman problems. SIAM Review, Vol. 33, No. 1, pp. 60-100, 1991 [47]Hiroaki Takatsu, Mayu Okuda, Yoichi Matsuyama, Hiroshi Honda, Shinya Fujie, and Tetsunori Kobayashi. Personalized extractive summarization for a news dialogue system. In Proceedings of the 8th IEEE Spoken Language Technology Workshop, 2021. [48]Nancy Chinchor. MUC-4 evaluation metrics. In Proceedings of the 4th conference on Message understanding, pp. 22-29, 1992.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-14.pdf
# Analysis of Biden's Victory Speech Reiji Miura ${ }^{\dagger} \quad$ Sumiyo Nishiguchi ${ }^{\ddagger}$ Department of Economics, Faculty of Commerce, Otaru University of Commerce ${ }^{\dagger}$ Center for Language Studies, Otaru university of Commerce reiji.01101114@gmail.com ${ }^{\dagger} \quad$ nishiguchi@res. otaru-uc. ac. jp ## 1 Introduction We listened to the US President-Elect Joe Biden's speech and analyzed its characteristics. President-elect Joe Biden emphasized unity in his first address to the nation since securing the White House on November 7th, 2020. He gave a victory speech in Wilmington, Del., where he called on Democrats and Republicans to stop demonizing one another and find a way to compromise. He made a speech using a total of 1818 words. ## 2 Speech Content Biden got a lot of votes. He has won with the most votes ever cast for a presidential ticket in the history of America. At first, he spoke about his wife, Jill. He said that Jill was going to make a great first lady. He is so proud of her. He had a lot of repetitive expressions in speech. He used the phrase "the battle to" six times. It briefly describes what he wants to do for America. He said he was looking ahead. He used "ahead to an America" five times. It shows the potential of America. He may be emphasizing the words by repeating the same words. The content of his speech is about a spouse, transgender, corona measures, turning point of America and possibility of America. We thought that his repetitive expression made it easier to understand the important points of the speech and what he wanted to emphasize. ## 3 Frequency of Word Usage As above, he made a speech using a total of 1818 words. We have summarized the words that appeared frequently in speech in a table. The following graph Table 1 shows the 10 most frequently used words. \\ Table 1 The 10 most frequently used words at Biden's victory speech. From this result, it was found that articles and conjunctions are frequently used. He used "and" a lot, so we can see that he has a lot of opinions. Also, because he uses "our" frequently, which suggests inclusion and thoughts about the people and colleagues. Next, let's examine the frequency of use of nouns only. The result is the following graph. It shows the 10 most frequently used words. \\ Table 2 The 10 most frequently used nouns in Biden's victory speech From this result, many words about America and people are used. In other words, these frequent nouns display that the priorities of the country and the people in his speech. ## 4 Repetitive Expressions As mentioned earlier, Biden used repetitive expressions. The first one is "the battle to". He said "America has called upon us to marshal the forces of decency, the forces of fairness. To marshal the forces of science and the forces of hope in the battles. The battle to control the virus, the battle to build prosperity, the battle to secure your family's health care. The battle to achieve racial justice and root out systemic racism in this country. And the battle to save our planet by getting climate under control." in speech. "The battle to" is used 6 times in the text. From this, the audience may infer a strong will to solve the problems of coronavirus and racial discrimination, which are the current problems in the United States. Next is "ahead to an America". He said "We're always looking ahead. Ahead to an America that is freer and more just. Ahead to an America that creates jobs with dignity and respect. Ahead to an America that cures diseases like cancer and Alzheimer's. Ahead to an America that never leaves anyone behind. Ahead to an America that never gives up, never gives in, this great nation." In speech. "ahead to an America" is used 5 times and sounded to be the gist or the conclusion of this speech. Biden concisely expresses what he wants to do by using repetitive expressions. The word "an" added in front of the "America" makes it more impressive. ## 5 Conclusion Listening to Biden's speech, we found that he used a lot of repetitive expressions. The content is emphasized by repeated expressions. We analyzed the word frequencies. The result showed that "the battle to" was used six times to briefly describe the future directions. "Ahead to an America" appeared five times, which showed the potential of America. ## References 1. Bird, Steven, Ewan Klein, and Edward Loper (2009) Natural Language Processing with Python: Analyzing Text with the Natural Language Toolkit O'Reilly, Sebastopol, CA. 2. Nishiguchi, Sumiyo (2020) "The Semantics of Reduplication" Shin Handai Eibungakkai Sosho 2: Eigogaku no Fukamari, Eigogaku karano Hirogari, Eihosha, Tokyo. 3. Scott, Mike and Christopher Tribble (2006) Textual Patterns: Key Words And Corpus Analysis in Language Education, John Benjamins, Amsterdam. 4. The New York Times (2020) "Read Joe Biden's President-Elect Acceptance Speech: Full Transcript," https://www.nytimes.com/article/biden-speechtranscript.html 5. CNN Politics (2020) "President-elect Joe Biden Seeks to Unite Nation with Victory Speech" https://edition.cnn.com/2020/11/07/politics/bid en-victory-speech-2020-election/index.html 6. The Washington Post, "Joe Biden's Victory Speech, Annotated" https://www.washingtonpost.com/politics/2020 /11/07/annotated-biden-victory-speech/
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-15.pdf
# 共参照情報を活用した映画のあらすじ要約生成 川原田将之 $\dagger$ 長谷川駿 $\dagger$ 上垣外英剛 $\dagger$ 高村大也 $\dagger$ 奥村学 $\dagger$ $\dagger$ 東京工業大学 $\S$ 産業技術総合研究所 \{kawarada@lr., hasegawa.s@lr., kamigaito@lr., takamura@, oku@\}pi.titech.ac.jp ## 1 はじめに インターネット上の映画情報サイトでは,様々な映画のあらすじを読むことができる。その中には映画内容を詳細に記した長文のあらすじも多く存在する.しかし,読者には必要最低限の情報が含まれた簡潔なあらすじを読みたいという需要も大きい。そこで,本研究では,映画内容が詳細に記載されたあらすじを自動要約し, 簡潔なあらすじを作成する単一文書要約手法の研究を行う。一般的な文書要約のアプローチには大きく分けて抽出型と生成型が存在する。しかし,映画のあらすじでは,1文であっても人物に関して詳細な記述がされている場合があり,文を抽出単位とした抽出型要約では冗長になることが予想される。 そのため, 本研究では映画のあらすじ要約を生成型文書要約として定式化する. 我々が調査したところ,映画をドメインとする要約用データセットは存在していなかった。 そこでまず,映画情報サイトである IMDb (Internet Movie Database $)^{1}$ からデータの収集を行い,映画全体のストーリーが詳細に書かれたあらすじと,それに対応した要約文書であるあらすじ要約がぺアとなった映画要約データセットを構築した。 映画のあらすじには,文書要約の研究で広く用いられているニュース記事と比べて,人称代名詞が多用されるという特徴がある。しかし, 現在の生成型要約モデルではそれらを十分に考慮できているとは言えない。そこで,我々は入力文書のエンコード時に共参照情報を明示的に活用した要約手法を提案する.また,本研究で作成した映画要約データセットは,CNN/Daily Mail(以下 CNN/DM) データセット [1] などのニュース記事要約用データセットと比べると小規模である。そのため,本研究では,ドメインの異なる大規模な要約データセットでモデル全体の事前学習を行った後,映画要約データセットを用いて fine-tuning を行う. 1) https://www.imdb.com/評価実験において,共参照情報を明示的に活用する提案手法,そしてドメインの異なる大規模なデー タセットを用いた事前学習による性能向上が,自動評価指標に関し確認された。 ## 2 関連研究 単一文書要約に関する研究は幅広く行われている $[2,3]$ が,小説や映画などの物語を対象とした研究は少ない $[4,5]$. ニューラルネットワークによる生成型要約は,文書を入力,要約を出力とした Encoder-Decoder モデルをべースとして行われる [6]. 近年では,BERT (Bidirectional Encoder Representations from Transformers) に代表される事前学習済みエンコーダ $[7,8]$ を文書要約タスクに適応学習する研究が行われている。Liu ら [9] は,BERTを用いて文書全体をエンコードした後,Transformer[10] でデコードすることにより,事前学習済みのエンコーダを使った生成型文書要約を行った。 $\mathrm{Xu}$ ら [11] は,予め文書の談話構造と共参照関係を表すグラフを作成しておき,BERT から得られた隠れ状態を Graph Convolution Networks (GCN)[12] で更にエンコードすることにより,EDU 単位で抽出型要約を行っている.Xu らの研究は,文書の共参照関係を取り入れたモデルであり本研究と近いが,本研究は生成型要約であることから,同じ手法でモデルに共参照情報を組み込むことが出来ない。また,用いるデータセットのドメインも異なっている. ## 3 映画要約データセット 映画のあらすじ要約を行うにあたり,映画ドメインの要約データセットの構築をした後,作成したデータセットの分析を行う. ## 3.1 データセットの作成 映画データの収集先として映画情報サイトである IMDb を選択した,IMDb は,映画情報をユーザー 表 1 映画要約データセットと CNN/DM データセットの比較 が自由に投稿できるようになっており,ネタバレを含まず簡潔に書かれた Plot Summaries と映画全体の内容が詳細に書かれた Plot Synopses の 2 種類のあらすじを投稿することができる. まず,IMDb が公開している映画の固有 ID リスト2)に記載されている作品を元に映画データを収集した. 次に,収集した映画データの中で Plot Synopses にテキストが存在しない作品やPlot Summaries の文書長が Plot Synopses の文書長を上回っている作品を削除し3),最終的に 27,414 作品のデータを取得した. そして,作品単位でデータの分割を行った後, Plot Synopsis をあらすじ, Plot Summaries をあらすじ要約としてデータセットを構築した。 ## 3.2 データセットの分析 文書数,入力文書長,出力文書長,人称代名詞が文書に占める割合のそれぞれについて,映画要約データセットと CNN/DM データセットで比較を行ったもの先を表 1 に示す. 入力文書長, 出力文書長,人称代名詞が文書に占める割合の值は,全デー タの平均値である. 投稿の規定上, Plot Summaries は複数投稿できるのに対して,Plot Synopsis は 1 作品につき 1 つしか投稿出来ないため,1つのあらすじに対して複数のあらすじ要約が存在するデータセットとなっている. train/valid/test セットのそれぞれについて,あらすじは 21,931/2,743/2,740 データであるのに対して, あらすじ要約は $43,281 / 5,461 / 5,529$ データとなっており, 1 作品あたり平均して約 2 種類のあらすじ要約が存在していることを意味する. また,各あらすじ文書中に存在する単語の中で人称代名詞の割合は $7.17 \%$ であった. これは,CNN データセットに含まれる割合よりも 40\%程度高く, DM データセットよりも $30 \%$ 程度高い値である。 2) https://www.imdb.com/interfaces/ 3)テキストが存在していても記号のみの場合などは削除した. 4)単語分割には Stanford CoreNLP 3.8.0を用いた. ## 4 提案手法 先行研究 [9]をべースに,共参照情報を明示的に活用できるよう改良を加えた生成型要約モデルを図 1 に示す. 本手法ではまず,あらすじに対する共参照解析 [13] を行い,共参照グラフ(4.1 節で後述)を作成する.その上で,あらすじを BERTでエンコー ドした後,グラフエンコーダを用いて共参照グラフに基づき隠れ状態を更新する。最後に Transformer でデコードを行うことであらすじ要約を生成する。 ## 4.1 共参照グラフ 共参照解析とは,文書内で言及されている名詞句等の表現対が同一の対象を指しているか否かを判別する処理のことである. 共参照関係にある表現は,1 単語から成る表現だけではなく, 人物名など複数単語から成る表現も存在する。また,BERTの入力はサブワードに分割されている必要があり, 1 単語の表現であっても複数のサブワードから構成されている場合がある. これらを扱うため,トークン分割後のある表現 $s=\left.\{s_{1}, s_{2}, \ldots, s_{M}\right.\}$ の中で, 最初と最後のサブワー ドである $s_{1}, s_{M}$ をその表現を代表するサブワード $s_{\text {start }}, s_{\text {end }}$ とする ${ }^{5)}$. そして, 同一対象を示す各表現に対して, $s_{\text {start }}, s_{\text {end }}$ 同士をそれぞれ独立して連結する. 最後に,各サブワードに self-loop エッジを追加することで,サブワードをノードとする共参照グラフを作成した. ## 4.2 BERT を使ったエンコード 先行研究に従い,前処理として入力テキストをサブワードに分割し, 入力の最初に [CLS] ラベル, 各文の最後に $[\mathrm{SEP}]$ ラベルを追加する.その上で,入力 $\mathbf{x}=\left.\{x_{1}, \ldots, x_{n}\right.\}$ は次式によってエンコードされ,隠孔状態 $\mathbf{h}=\left.\{\mathbf{h}_{1}, \ldots, \mathbf{h}_{n}\right.\} \in \mathbb{R}^{d \times n}$ を得る: $ \left.\{\mathbf{h}_{1}, \ldots, \mathbf{h}_{n}\right.\}=\operatorname{BERT}\left(\left.\{x_{1}, \ldots, x_{n}\right.\}\right) . $ ここで,dは隠れ状態の次元を表している。 }, s_{\text {end }}\right)=\left(s_{1}, s_{1}\right)$ とする. } 図 1 共参照情報を活用した生成型要約モデル ## 4.3 グラフエンコーダ $L$ 層のグラフエンコーダを用いて, BERTから出力された隠れ状態 $\mathbf{h}$ の更新を行う. $l$ 層目のグラフエンコーダの出力を $\mathbf{h}^{(l+1)}=\left.\{\mathbf{h}_{1}^{(l+1)}, \ldots, \mathbf{h}_{n}^{(l+1)}\right.\} \in \mathbb{R}^{d \times n}$ と表すと, $\mathbf{h}_{i}^{(l)}$ から $\mathbf{h}_{i}^{(l+1)}$ への更新は次のように行われる。 まず,共参照グラフで繋がっているサブワー ド間で情報の交換を行うため,Gated Graph Neural Networks (以下 GGNN)[14] により $\mathbf{h}_{i}^{(l)}$ を $\mathbf{u}_{i}^{(l+1)}$ に変換する。 $\mathbf{u}_{i}^{(l+1)}$ は次の式で計算される: $ \begin{aligned} \mathbf{m}_{i}^{(l+1)} & =\sum_{j \in \mathcal{N}(i)} \mathbf{W}^{(l)} \mathbf{h}_{j}^{(l)} \\ \mathbf{u}_{i}^{(l+1)} & =\operatorname{GRU}^{(l)}\left(\mathbf{m}_{i}^{(l+1)}, \mathbf{h}_{i}^{(l)}\right) \end{aligned} $ ここで, $\mathcal{N}(i)$ は共参照グラフにおいて $i$ 番目のサブワードとエッジで繋がったサブワードの集合である. $\mathbf{W}^{(l)} \in \mathbb{R}^{d \times d}$ は $l$ 層目の学習パラメータである. $\mathbf{h}_{i}^{(l+1)}$ は $\mathbf{u}_{i}^{(l+1)}$ と $\mathbf{h}_{i}^{(l)}$ を用い次式で更新される: $ \mathbf{h}_{i}^{(l+1)}=\operatorname{LayerNorm}\left(\mathbf{h}_{i}^{(l)}+\operatorname{ReLU}\left(\mathbf{u}_{i}^{(l+1)}\right)\right) \text {. } $ $\mathbf{h}^{(1)}$ には BERT の出力 $\mathbf{h}$ を用い,最終的に $L$ 層目から $\mathbf{h}^{(L+1)}$ が出力される. ## 4.4 デコーダ 先行研究 [9] と同様に,デコーダにはランダムに初期化された Transformer[10]を用いる. グラフエンコーダにより出力された隠れ状態 $\mathbf{h}^{(L+1)}$ を使ってあらすじ要約の生成を行う。 ## 4.5 CNN/DM データセットによる事前学習 3.1 節で作成した映画要約データセットは, CNN/DM データセットに比べて規模が小さい. そ のため,未学習であるグラフエンコーダやデコーダを含むモデルを映画要約データセットのみで学習することは困難である。 そこで,CNN/DMデータセットを用いてグラフエンコーダやデコーダを含むモデル全体を事前学習した後,映画要約データセットによる fine-tuning を行う. fine-tuning の際には,モデル全体の学習率を低くすることで事前学習の情報を保ちつつ学習する。 ## 5 実験 提案手法の要約性能を評価するため, 先行研究モデルである BERTSUMABS[9]をベースラインに自動評価による比較実験を行う。 ## 5.1 実験設定 先行研究の実装6)を基に実験を行った. GGNN の実装には,PyTorch geometric ${ }^{7}$ を用いた。実験に必要なハイパーパラメータは, 基本的にデフォルト值を用いた. ただし,グラフエンコーダは $L=2$, ドロップアウト率 $=0.2$ とした. CNN/DM 事前学習+映画データ: 事前学習では, BERT の学習率を 0.002, warming-up ステップを 20,000 とし, グラフエンコーダとデコーダの学習率を 0.2, warming-up ステップを 10,000 とした. 学習は 200,000 ステップ行い,CNN/DM データセットの開発データで Perprexity が最も小さいステップの重みを選択した。そして,選択した重みから更に映画要約データセットで fine-tuning を行う. fine-tuning では,BERT,グラフエンコーダ,デコーダの全てで学習率を 0.002 , warming-up ステップを 20,000 とし 6) https://github.com/nlpyang/PreSumm 7) https://github.com/rusty1s/pytorch_geometric 表 2 自動評価結果 た上で 50,000 ステップの学習を行った. 映画データのみ:CNN/DM 事前学習の効果を確認するため, 映画データのみでも学習を行う. 先行研究に従い BERT の学習率を 0.002, warming-up ステップを 20,000 とした. また, グラフエンコーダとデコーダの学習率を 0.2, warming-up ステップは 10,000 とした. 学習は 50,000 ステップを行った. ## 5.2 実験結果 先行研究同様, ROUGE-1, -2, -L (R-1, R-2, R-L) [15] による自動評価結果を表 2 に示す. 表には異なる初期値から学習した 3 モデルの平均値を記し, 太字はベースラインに対する差が有意 $(p=0.05)$ であることを表す。 映画データのみで学習した場合をみると, ベー スラインと比べて,提案手法は ROUGE スコアがそれぞれ $0.27,0.21,0.27$ 改善しており, 共参照情報によって要約性能が向上したことがわかる。次に, CNN/DM で事前学習を行った場合と映画データのみで学習した場合を比較する. ベースライン同士の比較で ROUGE スコアがそれぞれ $1.80,0.97,1.28$改善しており, 事前学習の効果は大きいことがわかる. CNN/DM で事前学習を行った場合においてベースラインと提案手法を比較すると,ROUGE スコアで $0.20,0.05,0.20$ 改善しており, ROUGE-1 と ROUGE-L では有意な差があった. 事前学習を行った場合でも共参照情報は要約性能の向上に寄与していることがわかる. また,提案手法モデルで共参照グラフを用いず, self-loop エッジのみをグラフエンコーダに入力するとべースラインよりも悪化した. これは, ベースラインよりもグラフエンコーダ部分における未学習のパラメータが増加することで,学習が困難になるためであると考えられる。 更に, ベースラインと提案手法の出力例を図 2 に示す. 各モデルの出力の中で,あらすじと対応 図 2 ベースラインと提案手法の出力例 している箇所を青字で示してある。あらすじでは “decide to conceal” の主語は “Harry's relatives” であるが,ベースラインでは “Harry's parents” となっている.これは,あらすじの中で直前に "his parents, lily and James Potter” に関する記述があり,一般的に “parents”と “relative” は近い表現であるため,モデル側が上手く区別できていないからであると考えられる。一方,提案手法では “his relatives” と正しく出力出来ている.これは, 近い表現であったしても,共参照情報によって人物の区別が容易になったと考えることができる. ## 6 まとめ 本研究では,映画のあらすじ要約を生成型文書要約として行った. 映画ドメインの要約用データセッ卜を作成し,共参照情報を考慮した生成型要約手法を提案した. ROUGE スコアに基づく評価実験の結果,提案手法が従来手法を上回り,ROUGE-1 と ROUGE-L では有意に上回っていた. また, 出力文書を比較すると提案手法では人物に関する記述で真実性の改善が見られた。今後は,人手による評価も交えて提案手法の有効性を確かめたい。 ## 参考文献 [1] Karl Moritz Hermann, Tomas Kocisky, Edward Grefenstette, Lasse Espeholt, Will Kay, Mustafa Suleyman, and Phil Blunsom. Teaching machines to read and comprehend. In NIPS, 2015. [2] Abigail See, Peter J. Liu, and Christopher D. Manning. Get to the point: Summarization with pointer-generator networks. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1073-1083, Vancouver, Canada, July 2017. Association for Computational Linguistics. [3] Jiwei Tan, Xiaojun Wan, and Jianguo Xiao. Abstractive document summarization with a graph-based attentional neural model. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1171-1181, Vancouver, Canada, July 2017. Association for Computational Linguistics. [4] Rada Mihalcea and Hakan Ceylan. Explorations in automatic book summarization. In Proceedings of the 2007 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning (EMNLP-CoNLL), pp. 380-389, Prague, Czech Republic, June 2007. Association for Computational Linguistics. [5] Anna Kazantseva and Stan Szpakowicz. Summarizing short stories. Computational Linguistics, Vol. 36, No. 1, pp. 71-109, 2010. [6] Ramesh Nallapati, Bowen Zhou, Cicero dos Santos, Çağlar Guçehre, and Bing Xiang. Abstractive text summarization using sequence-to-sequence RNNs and beyond. In Proceedings of The 20th SIGNLL Conference on Computational Natural Language Learning, pp. 280-290, Berlin, Germany, August 2016. Association for Computational Linguistics. [7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [8] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized BERT pretraining approach. CoRR, Vol. abs/1907.11692, , 2019. [9] Yang Liu and Mirella Lapata. Text summarization with pretrained encoders. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3730-3740, Hong Kong, China, November 2019. Association for Computational Linguistics. [10] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30, pp. 5998-6008. Curran Associates, Inc., 2017. [11] Jiacheng Xu, Zhe Gan, Yu Cheng, and Jingjing Liu. Discourse-aware neural extractive text summarization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5021-5031, Online, July 2020. Association for Computational Linguistics. [12] Thomas N. Kipf and Max Welling. Semi-supervised classification with graph convolutional networks. CoRR, Vol. abs/1609.02907, , 2016. [13] Kenton Lee, Luheng He, Mike Lewis, and Luke Zettlemoyer. End-to-end neural coreference resolution. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 188-197, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [14] Yujia Li, Daniel Tarlow, Marc Brockschmidt, and Richard Zemel. Gated graph sequence neural networks, 2015. cite arxiv:1511.05493Comment: Published as a conference paper in ICLR 2016. [15] Chin-Yew Lin. ROUGE: A package for automatic evaluation of summaries. In Text Summarization Branches Out, pp. 74-81, Barcelona, Spain, July 2004. Association for Computational Linguistics.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-16.pdf
# 抽出型要約の書き換えによる要約生成 高塚雅人 早稲田大学 理工学術院 } 小林哲則 早稲田大学 理工学術院 } 林良彦 早稲田大学 理工学術院 takatsuka@pcl.cs.waseda.ac.jp ## 1 はじめに 自動要約の手法は大きく抽出型要約と生成型要約の二つに分けられるが,近年,その二つの手法を組み合わせた手法 [1][2][3][4] も多く提案されている. 抽出型と生成型を組み合わせた既存手法の多くは,抽出型要約モデルを使って原文書の重要な文を抜き出し,それらを生成型要約モデルに入力してパラフレーズや文圧縮を行う.これらの手法では,原文書中の文と人が書いた参照要約文のペアを作成し, 生成型要約モデルにそのぺアの書き換えを学習させるが,どのようなぺアをどのようにして抽出し学習に用いるかが問題となる. 既存手法 [1][2][3][4] では, 人が作成した参照要約の各文に対して, 最も ROUGE-L が高い文をぺアとして抽出しているが,表 1 の上部に示すように,対応付けが適切でないぺアが抽出されてしまう場合が多く存在し,このような場合,適切な書き換えを学習することは困難である。 そこで本研究では,参照要約の各文とこれに対応する原文書中の各文 (以下,ソース文) に対して編集距離を用いた対応付けにより学習データとして抽出するペアを制限すること,および,学習する生成型要約モデルを単に抽出型要約に対する後処理として用いることを提案する. 前者により対応する文がない要約文や高い抽象化を行った要約文を排除し,抽出型要約を書き換えることによる要約生成の精度を向上させることを狙う. また,後者のシステム構成とすることで, 抽出型要約の問題点である高い冗長性や代名詞的な共参照の欠損などを後処理によって修正する。 今回,我々が作成するソース文-要約文のペアは,編集距離の意味で類似性が高いぺアに限定しているため, 通常の機械翻訳のようにソース文-要約文のぺアを source-target ペアとして用いると,入力を盲目的にコピーした出力が得られることがある. Dong表 1 ソース文-要約文ペアの例 既存研究 [1]: ROUGE-L Recall: 0.273 ソース文:We reveal how to get the enviable physiques of the stars. 要約文:Her super-sculpted arms are envy of women the world over. 提案手法: 正規化した編集距離: 0.857 ソース文:His performances in such a role, however, have been somewhat mixed. 要約文:Midfielder 's previous performances in defense have been mixed. ら [5] は Simplification Task において同様の問題を指摘し,complex-simple な文のペアを source-target ペアとして暗示的に編集を学習するより,編集操作の系列を target として用いて明示的に編集を学習することで精度が向上したと報告した。本研究では,Dong らの手法を基として,明示的な編集操作の系列を学習する抽出型要約書き換えモデルを提案する。 代表的な要約のデータセットとして, CNN DailyMail のデータセット [6] を使用して実験を行った. 我々の提案手法である抽出型要約に対する後処理を行うことで,後処理を行わない場合より高い ROUGE スコアと人間による評価が得られたことを確認した。 ## 2 関連研究 抽出型と生成型を組み合わせた要約生成手法は多くの既存研究 [1][2][3][4] が存在する. Chen ら [1] は, 抽出型要約モデルと生成型要約モデルを個別に学習した後に, 生成型要約モデルで書き換えた文の ROUGE スコアを報酬として抽出型要約モデルを強化学習する手法を提案した. Bae ら [4] は, Chen ら [1] の手法では抽出型要約の精度が先頭の三文を抜き出すべースラインより劣っていることと,文レベルの ROUGE の最適化が必ずしも要約全体の ROUGE の最適化に繋がらないことを指摘し, BERT[7]を利用した抽出型要約モデルと,要約全体 の ROUGE を最適化するような強化学習の枠組みを提案した. 本研究は, 既存研究 [1][2][3][4] のようにソース文-要約文のペアを全て学習に用いるのではなく,うまく対応付けが出来ていないぺアや高い抽象化を行っているぺアをフィルタリングし,データセットから排除する。 抽出型要約の後処理として,文圧縮や共参照のエラーの修正などを行うことは古くから研究されている. Mendes ら [8] は,各文に対して文圧縮を施した CNN DailyMail データセットとオラクルサマリーのセットを作成し,それらを用いて文の抽出と文圧縮を学習するモデルを提案した. Antunes ら [9] は, 共参照解決器を用いて, 抽出型要約内の共参照関係のエラーの修正を行い,17 個の文のスコアリング手法と 4 つの抽出型要約システムを用いてその影響を調査した. Antunes らは,共参照のエラーの修正によって要約の一貫性, 流暢さ, 可読性を向上させることができたと報告した. 本研究では, 既存研究のように,文圧縮や共参照のエラーの修正をそれぞれ単体で扱うのではなく, 抽出型要約に対する後処理をソース文と参照要約文のペアからデータドリブンに学習を行う。 ## 3 提案手法 本研究では,編集距離に基づくソース文-要約文間の対応づけとフィルタリングによるデータセット構築と, 明示的な編集操作を学習する抽出型要約の書き換えモデルを提案する。 $\mathrm{N}$ 文からなる原文書を $D=\left[d_{1}, \ldots, d_{N}\right]$ とし,原文書の $\mathrm{i}$ 番目の文を単語系列 $d_{i}=\left[w_{1}, \ldots, w_{K}\right]$ で表す. また,人が作成した $\mathrm{M}$ 文からなる参照要約を $S=\left[s_{1}, \ldots, s_{M}\right]$ とし,ソース文-要約文間の編集操作の系列を $\left[z_{1}, \ldots, z_{L}\right]$ とおく。 ## 3.1 データセット構築 既存研究 [1][2][4] では ROUGE-Lを用いてソース文-要約文間の対応付けを行い,生成型要約モデルを学習している. 本研究では,ソース文を書き換えることによって生成することが難しい要約文や,高い抽象化を行っているソース文-要約文ペアをフィルタリングするために, ROUGE-L ではなく, 二つの文間の編集度合いを測ることができる編集距離を用いる. 本研究では, 以下の式で各要約文 $s_{t}$ に対す るソース文 $d_{j_{t}}$ を選ぶ. $ j_{t}=\operatorname{argmin}_{i}\left(\frac{\operatorname{lev}\left(d_{i}, s_{t}\right)}{\left|d_{i}\right|}\right) $ $\operatorname{lev}\left(d_{i}, s_{t}\right)$ は $\left(d_{i}, s_{t}\right)$ 間の編集距離を, $\left|d_{i}\right|$ はソース文 $d_{i}$ の単語数を表す. その後, 正規化した編集距離が閾値以下のぺアのみをデータセットに加える。閾值はデータからいくつかの候補を設定し,ベースラインモデルの精度で決定をした。 ## 3.2 提案モデル 本研究で提案するモデルを図 1 に示す. このモデルは, Dong ら [5] のモデルを基に,作成したソー ス文-要約文のペア間の明示的な編集操作を学習する. Dong ら [5] が提案したモデルは, 入力テキストからある単語 $\mathrm{w}$ に対する編集操作を予測する programmer と, programmer が過去に予測した編集操作によって部分的に編集された文を入力とし, programmer の予測を補助する interpreter からなる. 本研究で提案するモデルも Dong らのモデルと同様に programmer と interpreter から構成されるが,Transformer[10] ベースのモデルを programmer と interpreterに用いる点が異なる. 本研究では編集操作として $[\mathrm{ADD}(\mathrm{W}), \mathrm{KEEP}$, DEL]を定義する. $\operatorname{ADD}(\mathrm{W})$ は単語 $\mathrm{W}$ を追加, KEEP は現在の単語を保持, DEL は現在の単語を削除する操作である. 作成したソース文-要約文ペアに対して編集操作の系列を生成し, モデルに学習させる. また,各ぺアに対する編集操作の系列を一意にするために,KEEP,DELの前に $\mathrm{ADD}(\mathrm{W})$ が来るという制約を加える。 ## 3.2.1 programmer programmer には, 事前学習済みの encoder decoder model の BART[11]を用いる. BART は Transformer[10] ベースのアーキテクチャを採用しており, 生成型要約において高い精度を報告している. 提案モデルは, 推論時に抽出型要約を一文づつ書き換えていくので,過去の文に対してどのような編集を行ったかを知る必要がある。そこで, encoder には原文書に加えて,要約の先行文脈を入力する. 要約の先行文脈について詳しくは 4.2 で述べる. また, encoder は入力された原文書と要約の先行文脈をそのままでは見分けることができないため, encoderの入力ベクトルには, PositionalEncoding に加えて,各文の役割を伝える SentenceID ゙ククトル 図 1 提案モデルの概要図: 青字は書き換え対象のソース文を,赤字は要約の先行文脈を示す. を追加する.SentenceID は,書き換え対象のソース文,書き換え対象以外の本文,要約の先行文脈の三つからなる. 入力テキストの $\mathrm{i}$ 番目の単語ベクトルを $e_{i}$ とすると,encoderへの入力べクトル $x_{i}^{e}$ は以下のように計算される. $ x_{i}^{e}=e_{i}+\text { PositionalEncoding }(i)+\text { SentenceID }(i) $ PositionalEncoding と SentenceID はそれぞれ学習中に更新される. また encoder の出力 $h^{e}$ は以下のように計算される. $ h^{e}=\operatorname{Trans}_{l}^{e}\left(h_{l-1}^{e}\right) $ $\operatorname{Trans}_{l}^{e}$ は1層目の Transformer 層, $h_{l-1}^{e}$ は 1-1 層目の Transformer 層の出力を示す. 時刻 $\mathrm{t}$ において,書き換えを行うソース文の $k_{t}$ 番目の単語 $w_{k_{t}}$ に対する編集操作 $z_{t}$ を予測する場合, decoder には単語系列 $w_{1: k_{t}}$ を入力する. i 番目の単語べクトルを $e_{i}$ とすると, decoderへの入力ベクトル $x_{i}^{d}$ は以下のように計算される. $ x_{i}^{d}=e_{i}+\text { PositionalEncoding }(i) $ また decoder の出力 $h^{d}$ は以下のように計算される. $ h^{d}=\operatorname{Trans}_{l}^{d}\left(h_{l-1}^{d}, h^{e}\right) $ $\operatorname{Trans}_{l}^{d}$ は 1 層目の Transformer 層, $h_{l-1}^{d}$ は 1-1 層目の Transformer 層の出力, $h^{e}$ は encoder の出力を示す. ## 3.2.2 interpreter interpreter は,decoder と全く同じアーキテクチャを用いて,decoder と重みを共有する。時刻 $\mathrm{t}$ において,過去にモデルが出力した編集操作系列 $z_{1: t-1}$ に従って,ソース文を部分的に編集した単語列 $y_{1: j_{t-1}}$ を interpreterに入力する. interpreter は, decoderと同一の構造なので, interpreter の出力 $h^{i n t}$ は,式 4, 5 を用いて計算される.最終的な編集操作のラベルの確率分布 $P_{\text {edit }}$ は以下のように計算される. $ P_{\text {edit }}=\operatorname{softmax}\left(W_{\text {out }}\left(\operatorname{relu}\left(W_{d} h_{k_{t}}^{d}+W_{\text {int }} h_{j_{t-1}}^{\text {int }}\right)\right)\right) $ $W_{\text {out }}, W_{d}, W_{\text {int }}$ は学習パラメータ, $h_{k_{t}}^{d}$ は $k_{t}$ 番目の単語に対する decoder の出力, $h_{j_{t-1}}^{i n t}$ は $j_{t-1}$ 番目の単語に対する interpreter の出力である。 $k_{t}, j_{t-1}$ はそれぞれ過去に出力した編集操作系列 $z_{1: t-1}$ から決定される. $P_{\text {edit }}$ の次元数は,BART の語彙数 $V$ に対して,KEEP と DEL のラベルを加えた $V+2$ となる. ## 4 実験 ## 4.1 データセット 本研究では,ニュース記事の要約のデータセットである CNN DailyMail (CNN-DM) のデータセット [6] を用いる。CNN-DM データセットのニュー ス記事と参照要約をそれぞれ文分割し,3.1の手法を用いてソース文-要約文のペアを作成した. 作成した $1,070,203$ ペアのうち, 正規化した編集距離の閾値が 0.95 以下のペアのみを採用し,それぞれ学習/validation/テストデータとして, 240,918/14,814/11,806 ペアを作成した. その後,各ペアに対して編集操作系列を生成した. ## 4.2 実験設定 本研究では,抽出型要約を入力として書き換えを行う要約生成実験と人手による評価を行った. なお,書き換え処理単体での機能を確認するため, ソース文-要約文ペアのテストデータを用いた事前実験を行っている.その詳細については,付録 A. 1 に示す。 抽出型要約を入力として書き換えを行う要約生成実験では, 4.1 で作成したデータセットを用いて 提案モデルを学習させ,推論時には,抽出型要約を先頭から一文ずつ書き換えた. 学習時に,参照要約の $\mathrm{j}$ 番目の文を生成する際は, $\mathrm{j}-1$ 番目までの文を要約の先行文脈として使用し, 推論時には, 過去に書き換えた要約文を先行文脈として使用した。また, 抽出型要約として, lead3 と matchsum[12]を実験に用いた. ベースラインモデルとして,提案モデル (programmerのみ)において, 編集操作系列ではなく,要約文を target に用いたモデルを使用した. 評価指標として ROUGE-1,ROUGE-2,ROUGE-Lを使用した. 詳しい学習条件は付録 A. 2 に示す. また,抽出型要約とモデルが書き換えた要約を比較した人手による評価を行った. 評価基準として要約の冗長性,理解のしやすさ,全体的な評価の三つを設定した. 冗長性は, 要約内に同じ表現の繰り返しゃ,無駄な情報が含まれていないかを表す. 理解のしやすさは,要約のみを読んだ際に要約が読みやすく,要約の内容を簡単に理解できるかを表す。全体的な評価では,上記の二つの観点を踏まえて,要約として好ましいかどうかを表す. CNN-DM のテストデータから,ランダムに 100 サンプル選び,どちらの要約の方が冗長性が少ないか/理解しやすいか/要約として好ましいかを評価した.また,各指標について,どちらの要約も同じくらい良い/悪い場合は fair を選択する. 実験は Amazon MTurk 上で行い,各サンプルについて 5 人のワーカーが評価を行った. 各ワーカーはまず参照要約を読み, ニュー スの概要を理解したうえで,各要約を読み,評価を行った. ## 4.3 結果・考察 ## 4.3.1 抽出型要約の書き換えを行う要約生成実験 抽出型要約の書き換えを行った実験結果を表 2 に示す. 表2 の R-1,R-2,R-LはROUGE-1,ROUGE-2, ROUGE-Lを示す. lead3 は,記事の先頭三文を抜き出した抽出型要約の結果, matchsum (ours) は Zhong ら [12] が提案したモデルを再現した場合の結果を示す. lead3+提案モデル, matchsum+ベースライン, matchsum+提案モデルは, それぞれ抽出型要約をモデルに入力した場合の結果を示す. 表 2 に示すように, matchsum+提案モデルが最も高い ROUGE スコアとなり,提案モデルで抽出型要約を書き換えることで精度が向上することがわかった. また, lead3 を提案モデルに入力した際もスコアが向上してお表 2 抽出型要約の書き換え実験結果 表 3 人手による評価実験結果 り,提案モデルは,抽出型モデルに依存しないことが分かる. ベースラインモデルと比較すると,提案モデルは,特に ROUGE-2 が高くなった. 要約の生成例は,付録の表 4 に示す. ## 4.3.2 要約の人手評価 要約の人手評価結果を表 3 に示す。抽出型要約 (matchsum) と,それを提案モデルで書き換えた要約を評価に使用した.表の数值は,各評価指標におい $\tau$, matchsum, matchsum+提案モデル, fair の選択肢を選んだ人数を表す。表 3 から分かるように,全ての指標で,提案モデルを用いて抽出型要約を書き換えた要約が高いスコアとなり, 抽出型要約を書き換えることで,要約の冗長性が減り,より理解しゃすくなり,要約としての全体の評価が向上することが分かる.特に,㔯長性の観点でよりスコアが向上した。表 3 の**は,有意水準 $1 \%$ で,*は,有意水準 $5 \%$ で有意差があることを示す. ## 5 おわりに 本研究では,抽出型と生成型要約を組み合わせた手法として,編集距離に基づくソース文-要約文間の対応付けとフィルタリングを行い,抽出型要約の後処理を学習することを提案した. また,作成したソース文-要約文間の明示的な編集操作を学習するモデルを提案した. 自動評価と人手による評価の両方において,提案したモデルによって抽出型要約を後処理することの有効性を確認した. 今後の方針として,事実関係のミスなどの観点で,生成型要約と提案手法の要約の比較を行っていきたい。また, Martin ら [13] の研究のように, 出力をコントロールできるような手法も検討していきたい. ## 参考文献 [1]Yen Chun Chen and Mohit Bansal. Fast abstractive summarization with reinforce-selected sentence rewriting. In $A C L$ 2018, pp. 675-686, 2018. [2]Edward Moroshko, Guy Feigenblat, Haggai Roitman, and David Konopnicki. An editorial network for enhanced document summarization. In Proceedings of the 2nd Workshop on New Frontiers in Summarization, pp. 57-63, 2019. [3]Liqiang Xiao, Lu Wang, Hao He, and Yaohui Jin. Copy or Rewrite: Hybrid Summarization with Hierarchical Reinforcement Learning. AAAI 2020, pp. 9306-9313, 2020. [4]Sanghwan Bae, Taeuk Kim, Jihoon Kim, and Sang goo Lee. Summary level training of sentence rewriting for abstractive summarization. In Proceedings of the 2nd Workshop on New Frontiers in Summarization, pp. 10-20, 2019. [5]Yue Dong, Zichao Li, Mehdi Rezagholizadeh, and Jackie Chi Kit Cheung. EditNTS: An neural programmer-interpreter model for sentence simplification through explicit editing. In ACL 2019, pp. 3393-3402, 2019. [6]Karl Moritz Hermann, Tomáš Kočiský, Edward Grefenstette, Lasse Espeholt, Will Kay, Mustafa Suleyman, and Phil Blunsom. Teaching machines to read and comprehend. In $A d$ vances in Neural Information Processing Systems, pp. 16931701, 2015. [7]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In NAACL 2019, pp. 4171-4186, 2019. [8]Afonso Mendes, Shashi Narayan, Sebastião Miranda, Zita Marinho, André F.T. Martins, and Shay B. Cohen. Jointly extracting and compressing documents with summary state representations. In NAACL 2019, pp. 3955-3966, 2019. [9]Jamilson Antunes, Rafael Dueire Lins, Rinaldo Lima, Hilário Oliveira, Marcelo Riss, and Steven J Simske. Automatic cohesive summarization with pronominal anaphora resolution. Computer Speech and Language, pp. 141-164, 2018. [10]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [11]Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-tosequence pre-training for natural language generation, translation, and comprehension. In ACL 2020, pp. 7871-7880, 2020. [12]Ming Zhong, Pengfei Liu, Yiran Chen, Danqing Wang, Xipeng Qiu, and Xuanjing Huang. Extractive summarization as text matching. In ACL 2020, pp. 6197-6208, 2020. [13]Louis Martin, Éric Villemonte de la Clergerie, Benoît Sagot, and Antoine Bordes. Controllable sentence simplification. In LREC 2020, pp. 4689-4698, 2020. [14]Chin-Yew Lin. Rouge: A package for auto- matic evaluation of summaries. In Text summarization branches out: ACL workshop, 2004. [15]Wei Xu, Courtney Napoles, Ellie Pavlick, Quanze Chen, and Chris Callison-Burch. Optimizing Statistical Machine Trans- lation for Text Simplification. Transactions of the Association for Computational Linguistics, pp. 401-415, 2016. 表 4 要約の生成例: 赤文字は,モデルが削除した部分,青文字は,モデルが追加した部分,マゼンタは,モデルが置換した部分を表す。 \\ ## A 付録 ## A. 1 ソース文-要約文ペアの書き換え実験 ソース文-要約文ペアの書き換え実験では,ソース文-要約文ペアのテストデータを用いて,書き換え単体の精度を実験した. ソース文をモデルが書き換えた文と,ソース文とぺアになっている要約文間で自動評価を行った. encoder に入力する要約の先行文脈は学習時と同じ設定とした. 評価指標として, ROUGE-1, ROUGE-2, ROUGE-L[14] と SARI スコア [15] を使用した. ソース文-要約文ペアの書き換え実験の結果を表 5 に示す. source は,編集前のソース文の結果を示し, ベースラインは,提案モデル (programmer のみ) において,編集操作系列ではなく要約文を target に用いた場合の結果を示す.また表 5 の\% unc. は,無編集の割合を示し,R-1,R-2,R-L は ROUGE-1,ROUGE-2, ROUGE-L を示す. 表 5 から,ベースライン,提案モデル共に書き換えによって,ROUGE スコアが向上していることがわかる.また,ベースラインと提案モデルの ROUGE スコアに大きな差はなかったが,SARI スコアでは, 1.69 ポイントと大きく提案モデルが低い結果となった. これは,提案モデルがベースラインと比べて,単語の削除の予測精度が悪く,DEL のスコアが低くなったからである.また,ベースライン,提案モデルの無編集の割合は,ソース文-要約文間の無編集の割合よりも高くなった. 表 5 ソース文-要約文ペアの書き換え実験結果 ## A. 2 学習条件 事前学習済みモデルとして BART-large[11] を用いた。初期学習率は 6e-05とし, 500 step の warmup の後,最終的に 20000 step 学習させた. 訓練時には Label Smoothing を導入し, $\varepsilon=0.1$ に設定した. バッチサイズは 16 に設定した. 最適化関数には Adam を用いた.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-17.pdf
# BERT モデルを用いた障害レポートに対する重要箇所抽出 本間 広樹 1 小町 守 1 真鍋 章 ${ }^{2}$ 谷本 恒野 2 1 東京都立大学 2 富士電機株式会社 homma-hiroki@ed.tmu.ac.jp, komachi@tmu.ac.jp \{manabe-akira, tanimoto-kouya\}@fujielectric.com ## 1 はじめに 世の中はあらゆる機器にあふれている。これらの機器が不具合を起こすたびに,保全担当員によって障害レポートが作成される。日々作成されている障害レポートから自動で重要な部分を抽出することは,保全担当員による異常箇所の特定と対処や,設備運用者による適切な設備運転対応,コールセンタオペレータによる迅速・適切な顧客対応に役立つと考えられる。障害レポートは主に,状況,要因及び措置の 3 種類の内容から構成される文章である。 レポート内の各文は,前述の 3 種類とその他の内のどれか,あるいは複数に分類できる。本研究では分類済みの 3 種類の文章である, 状況,要因及び措置から,それぞれ重要部分を抽出することを目的とする. 近年ニューラルネットワークを用いた大規模なモデルの研究が盛んに行われ,様々な自然言語処理タスクで高い精度を出している. しかし, 本研究で扱うデータは数百件程度と規模が非常に小さく,大規模なモデルを一から学習するのは困難である.そこで,本研究では,小規模なデータに対する有効性が確認されている事前学習モデルに着目し,障害レポートを対象とする重要部分抽出タスクに対する有効性を検証する。 さらに,本研究では質問応答形式によるマルチタスク学習手法を提案する. 抽出元文章には状況,要因及び措置の 3 種類のソースがあるが,提案手法では,既存の質問応答形式の fine-tuning 手法を流用し,抽出元文章,ソース及び重要箇所をそれぞれ, コンテキスト,質問及び解答としてモデルに入力し,全ソースを併せて学習を行う。これによってモデルがソースの違いを認識し,より高い精度の抽出ができるようになることが期待できる点や,既存の fine-tuning 手法を用いるため,低コストで実装でき る点が利点として挙げられる。 また,複数ソースが存在する場合の学習方法について考えると,各ソースで抽出モデルを学習するか,全ソースを併せた抽出モデルを学習するかの 2 通りが存在する。しかし,それぞれの方法には次のような問題が存在する.各ソースで抽出モデルを作成する場合には,モデルが増える問題や,別ソースに含まれる有用な情報を学習できなくなる問題が考えられる。また,全ソースを併せて抽出モデルを学習する場合には,あるソースの抽出精度が,別ソー スに含まれる情報によって低下する可能性が考えられる.ここで,「事前学習モデルを用いて抽出する際に,複数ソースデータを同一モデルに学習するマルチタスク学習がどの程度有用か」という疑問が生じる。そこで,本研究では,「異なるソースのデー タでマルチタスク学習を行う際の有効性は,ソース間類似度に依存する」という仮説を立て,マルチタスク学習の有効性とソース間類似度の関係性を検証する。 ## 2 関連研究 ## 2.1 事前学習モデル 近年,事前学習モデルが様々な自然言語処理夕スクで最先端の性能を達成している。これは,大規模なニューラル言語表現モデルを事前学習し,下流タスクごとにそのモデルに出力層を追加して fine-tuning することで,幅広いタスクを高い精度で解くことができるというものである. 特に,2019 年に Devlin らによって考案された Bidirectional Encoder Representations from Transformers (BERT) [1] というアーキテクチャが当時様々なタスクで最先端の性能を達成し,広く使われている。このモデルは Transformer [2]を双方向に接続することで構成されている. Transformer [2] は従来の一般的 & & & エルボの経年劣化 & & ゲートパルブを交換 \\ 図1障害レポートに対するアノテーション例 図 2 質問応答形式による fine-tuning のモデルなニューラルモデルで使われる畳み込みニューラルネットワークや再帰ニューラルネットワークを用いず,注意機構のみで構成されたモデルである. Devlin らの研究 [1] は英語を用いて行われているが,日本語版の事前学習済み BERT モデルもいくつかの機関から公開されている. 本研究では事前学習モデルを提供する Hugging Face の Transformers ${ }^{1)}$ を通して簡易に利用可能である,日本語の Wikipedia のデータを用いて学習された, 東北大学が公開しているモデル2)を用いる. ## 2.2 重要箇所の抽出タスク 本研究と類似した形式の,障害レポートからの重要箇所抽出タスクを行っている研究に,EncoderDecoder モデルを用いて系列ラベリング問題として解いている先行研究 [3] が存在する. この先行研究では事前学習モデルを用いず,Long short-term memory (LSTM) を用いている。このモデルをべースラインとして事前学習モデルの有効性を評価する。 また, この重要箇所抽出タスクは, 出力の形式が文や文章ではなくその一部という違いはあるも  のの,抽出型要約タスクと類似している。抽出型要約はドキュメント内の重要な文を識別することによって行われており,最近ではニューラルモデルを用いて文分類の問題として解かれている. SUMMARUNNER [4] はニューラルモデルを用いた初期の抽出型要約システムであり,エンコーダには再帰ニューラルネットワークを用いている。また, BANDITSUM [5] はドキュメントを context,要約文選択を action とした contextual bandit 問題として解いている。そして,SWAP-NET [6] はドキュメント内の際立った文とキーワードの両方を異なるエンコーダで探し,文とキーワードを各デコードステップで選択するスイッチ機構によりそれらを組み合わせて抽出要約を形成するシステムである。 さらに,事前学習モデルを用いた要約タスクの研究も行われており,その有効性が確認されている [7]. これらの研究は英語を対象としているが,本研究ではより小規模な,日本語の障害情報レポートに対する事前学習モデルの有効性を確認する。 ## 3 障害情報レポートの重要箇所抽出 ## 3.1 タスク設定 本研究で用いるデータは, 1 件の障害レポートから人手で抽出された,状況,原因及び措置の 3 文章に対してそれぞれ重要箇所を 1 箇所以上手動抽出したものである。重要箇所のアノテーション例を図 1 に示す。本研究は,状況,原因及び措置の 3 種類の文章からそれぞれ重要箇所を自動で抽出することを目的とする。 ## 3.2 手法 ## ベースライン: LSTMを用いた文圧縮 ベース ラインとして小平らによる関連文章を考慮した LSTM による文圧縮手法 [3] を用いる。この手法は, Filippova らの手法 [8] を元にしており,LSTM を用 いて文圧縮を系列ラベリングタスクとして解いている. さらに,3 種類の文章を同時に別々のエンコー ダに入力し, それらの出力を連結し, 次元数を揃えるための線形変換を行い,種類ごとのデコーダに入力する操作を行っている. この操作により複数の文章全体を考慮した重要箇所の抜き出しに取り組んでいる. 提案手法: 日本語 BERTを用いた文圧縮本研究では日本語データで事前学習済みの言語表現モデルである日本語 BERT に対して質問応答形式の fine-tuning を行うことで文章抽出モデルを作成する. この時,抽出を行う文章の種類をモデルに理解させるために,状況,原因及び措置のラベルを質問として入力する. 質問応答形式の fine-tuning のモデルを図 2 に示す. 文章の種類のラベルを入力することで,複数種類によるマルチタスク学習の性能の向上を図る。実装にはTransformers に含まれるスクリプト,run_qa.pyを用いる. ## 4 実験 ## 4.1 データ 本研究では,富士電機(株)が保有する設備保全の障害レポート 194 件に対して, 3.1 節で説明したアノテーションを付与したものを使用する。また,元データに含まれる,人名,企業名及び場所はそれぞれ MAN,COMPANY 及びPLACE にマスキングを施している. ## 4.2 実験設定 比較手法として以下 2 つの手法を用いる. -小平ら [3] の手法 (MultiLSTM) ・質問応答形式で日本語 BERT を fine-tuning する提案手法 (BERT-QA) 各手法のハイパーパラメータの設定は以下の通りである. MultiLSTM ドロップアウト率を 0.4,学習率を 0.001,勾配クリッピングを 6 に設定する. その他のハイパーパラメータの設定は先行研究 [3] に従う. BERT-QA 事前学習済みモデルとして, 東北大学が公開している日本語 BERT の内, whole word masking を適用して学習させているモデル3)を用いる. 学習率を 0.005 ,バッチサイズを 12 ,エポック  whole-word-masking表 1 各モデルの適合率,再現率及び $\mathrm{F}_{2}$ スコア 数を 10 ,保存ステップを 10 に設定し,最良のモデルを開発セットによって選択する。各文章の種類のラベルとして,状況,原因及び措置の 1 単語をそのまま用いる。その他のハイパーパラメータの設定は先行研究 [1] に従う. また,どちらの手法においてもデータを 5 等分に分割し,そのうち 3 つを併せたものを学習セット, 1つを開発セット,残りの 1 つを評価セットとして用いる形で, 5 分割交差検証を行う。さらに,このタスクはユーザに重要箇所をなるべく多く提示することが重要なため, 評価手法には適合率に 2 倍の重みを付ける評価尺度である $\mathrm{F}_{2}$ スコアを用いる。 ## 4.3 先行研究との性能比較 表 1 に各モデルの適合率,再現率及び $\mathrm{F}_{2}$ スコアを示す. 提案手法である BERT-QA が先行研究の結果を大幅に改善していることが見て取れる.このことより,数百件程度の極めて小規模なデータを用いた重要箇所抽出タスクにおいても事前学習モデルが有用であることが分かる. ## 4.4 ソース間類似度とマルチタスク学習 マルチタスク学習の有効性を調べるために,まず,ソース間類似度を計測する。計測には本実験と同様の日本語 BERT を用い, 文の先頭に挿入する [CLS]トークンの最終隠れ状態(図 2 の入力から Type 及び [SEP] トークンを除いた場合のC)を文べクトルとして利用する。ここで,文章から重要箇所を抽出するタスクにおけるソース間類似度を捉えるために,重要箇所の文べクトルから元の文章の文べクトルを引いたべクトルを事例ごとの抽出べクトルとして定義する。 表 2 に全事例の抽出べクトルのソースごとの平均をコサイン類似度により比較した結果を示す. 状況-原因及び原因-措置の対は比較的類似度が高く,状況-措置の対の類似度が低くなっていることが確認できる. 次に,学習データの種類を制限する実験を行う. 3 種類のソースが存在し, その内 1 種類あるいは 2 種類のソースのデータを利用してモデルを学習し, 表 3 各モデルのソース毎の $\mathrm{F}_{2}$ スコア 表 4 各モデルの出力結果の比較 & を要します。 & \\ 合計 6 種類のモデルを新たに作成する. 表 3 にソースの種類を絞って学習した場合の結果を示す. 各列が利用した学習データ, 各行が評価データのソースを示している.学習データが「すべて」であるのは先行研究との比較実験で使用したモデルと同一のものである. 基本的には少ないソースで個別にモデルを学習したほうが抽出精度が高いことが見て取れる。 ここで表 2 に示すソース間類似度に着目し,単一ソースで学習した場合に対して2ソースでマルチタスク学習した場合を比較する.類似度が高かった原因と措置及び状況と原因はそれぞれ-0.074 と-0.059 及び+0. 013 と-0.042 ポイントの差があり, その平均は-0.041 ポイントである。それに対し,類似度が低かった状況と措置は-0.025と-0.009 ポイントの差であり,その平均は-0.017 ポイントであり,ソース間類似度が高い場合よりも良い結果となっている.つまり,質問応答形式を用いた抽出タスクを行う場合,BERT モデルを用いて算出したソース間類似度が高いほどマルチタスク学習の効果が高くなるわけではないことが言える. ## 4.5 ケーススタディ 表 4 に各モデルの出力結果を示す4). 抽出元文章内の赤いゴシック体の箇所は重要箇所の参照である. 例 1 は抽出にある程度成功している例である。 どちらのモデルに対しても抽出元文章が短い場合は精度が高くなる傾向が見受けられた. 例 2 の各モデルの出力を比較すると, MultiLSTM の出力が非文に  なっているのに対し, BERT-QA の出力は参照の範井を大きく逸脱しているものの,意味が通る出力になっていることが分かる. この BERT-QA の出力が MultiLSTM に比べて流暢であるという傾向は全体を通して見られた。また,例 3 において,MultiLSTM は重要箇所が存在しないと判断している.これは学習データに含まれる類似する事例が少ないことが原因の 1 つとして考えられ,MultiLSTM では全体を通して散見された。それに対して BERT-QA は正しく出力できており, MultiLSTM に比べてデータセットが小規模な場合の抽出にも有効であると考えられる。 また,BERT-QAにおける出力を分析すると,抽出元の長い文章全てを重要箇所として判定してしまっている誤りがいくつか存在した。これに関しては,重要箇所の最大系列長をヒューリスティックに決定し,上位の出力候補から条件を満たすものを選択することでさらなる精度の向上を図ることが可能と考えられる。 ## 5 おわりに 本研究では BERT モデルに対する質問応答形式の fine-tuning を利用した重要箇所抽出抽出手法を提案した. この手法では既存の実装を用いて容易に抽出型要約を行うことができ,LSTMを用いた既存手法に比べて $\mathrm{F}_{2}$ スコアで 0.26 ポイントと大幅に精度が向上することを示した. さらに,ソース間類似度に着目したマルチタスク学習の有効性を分析し, デー タが少ない場合,ソース間類似度が高いほどマルチタスク学習の効果が高くなるとは一概に言えないことを発見した。 ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In NAACL 2019, pp. 4171-4186, 2019. [2] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NIPS 2017, pp. 5998-6008. 2017. [3] 小平知範, 宮崎亮輔, 小町守. 障害情報レポートに対する同時関連文章圧縮. 言語処理学会年次大会 2017, pp. 186-189, 2017. [4] Ramesh Nallapati, Feifei Zhai, and Bowen Zhou. Summarunner: A recurrent neural network based sequence model for extractive summarization of documents. In Satinder P. Singh and Shaul Markovitch, editors, AAAI 2017, pp. 3075-3081, 2017. [5] Yue Dong, Yikang Shen, Eric Crawford, Herke van Hoof, and Jackie Chi Kit Cheung. BanditSum: Extractive summarization as a contextual bandit. In EMNLP 2018, pp. 3739-3748, 2018. [6] Aishwarya Jadhav and Vaibhav Rajan. Extractive summarization with SWAP-NET: Sentences and words from alternating pointer networks. In ACL 2018, pp. 142-151, 2018. [7] Yang Liu and Mirella Lapata. Text summarization with pretrained encoders. In EMNLP-IJCNLP 2019, pp. 37303740, 2019. [8] Katja Filippova, Enrique Alfonseca, Carlos A. Colmenares, Lukasz Kaiser, and Oriol Vinyals. Sentence compression by deletion with LSTMs. In EMNLP 2015, pp. 360-368, 2015.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-18.pdf
# 言語特徴量導入によるソーシャルスキルレベル推定の性能向上 佐賀健志 奈良先端科学技術大学院大学 saga.takeshi.sn0@is.naist.jp 岩坂英巳 奈良県立医科大学精神医学講座 iwasaka@heartland.or.jp ## 1 はじめに ソーシャルスキルは他者とのコミュニケーションにおいて重要な要素のひとつである。通常、私たちは幼少期にこれらのスキルを習得するが、自閉症スペクトラム症候群(ASD)や統合失調症などの影響で大人になってから困難に直面する人もいる [1]。ほとんどの日常生活はいくつかのソーシャルスキルの複合的な応用を必要とするため、そのようなスキルがなければ日常生活は非常に難しいものとなる。 この難しさを軽減する方法のひとつとして、ソー シャルスキルトレーニング(SST)がある。Bellack らによるとSST は「条件付き反射療法」と「相互抑制による心理療法」、「社会的学習理論」に基づいており、様々な分野で広く使用されてきた $[2,3,4,5,6]$ 。また、 SST は特定の疾患だけを対象としているわけではないため、精神疾患を抱える人だけではなく、ソーシャルスキルに悩みを抱える健常者でもソーシャルスキルレベル向上の効果が期待できる点も特徴のひとつである。 SST は一般的な手法になりつつあるが、効果的な SST を行えるようになるまでのトレーニングのハードルの高さなどの理由によりセラピストの数が不足しているため、受けたいと思った人がすぐには受けられないのが現状である [7]。この状況を改善するために、先行研究においてSST 自動化が提案されてきた。 一般的な SST は「苦手スキルの明確化」「練習スキルの選択」「いい例と悪い例を見る」「ロールプレイ」「評価」「フィードバック」の順で行われる。SST の効果を最大化するためには「苦手スキルの明確化」 が特に重要である。人対人のSSTにおいてこの段階は口頭のコミュニケーションにおいて行われるが、現状の自動対話エージェントでの実現はまだまだ難田中宏季 奈良先端科学技術大学院大学 hiroki-tan@is.naist.jp 中村哲 奈良先端科学技術大学院大学 s-nakamura@is.naist.jp しい。そのため著者らは先行研究において、マルチモーダル特徴量を入力として解釈性の高い線形回帰を用いてきた $[8,9]$ 。本稿では既存手法に言語特徵量として BERT 埋込類似性(単語間-内容語間-文間)、 Word2Vec 埋込類似性(単語間-内容語間-文間)、 フィラー・代名詞・接続詞割合、隣接文間内容語一致割合を加え、特徴量選択を行うことでソーシャルスキルレベル推定性能の向上を目指す。 ## 2 先行研究 先行研究において、誰でもSSTを利用できるような環境実現を目指し、いくつかの仮想エージェントによる自動化が提案されている。 Tanaka らは仮想エージェントによるマルチモー ダル対話システムを使用して、SST の自動化を試みた [10]。彼らの研究では、ユーザのスピーキングスキル向上を目的に設定し、スピーキングレベルを測定するための評価指標としてスピーキングスキルスコアを用いている。このスコアは経験豊富な数人のセラピストによってつけられた点数の平均值で、ユーザのソー シャルスキルレベルの推定モデルを学習させる際の正解ラベルとして用いられた。しかし、このスコアはセラピストの主観に基づいているため、個人のバイアスがかかっている可能性を含んでいる。 Voleti らは Social Skills Performance Assessment (SSPA) タスクにおいて撮影された動画から書き起こされたテキストのみを用いて、SSPA スコアを相関係数 0.752 で予測できることを示した [11]。しかし、使用したデータの SSPA スコアは 1 人のアノテー タの主観に基づいているため、Tanaka らの場合と同様の問題を含む可能性が存在する。 これらの問題を解決するために本研究ではセラピストの主観に依存しない評価指標、対人応答性尺度に基 づいてモデルの学習・性能評価を行った。 ## 3 対人応答性尺度 (SRS-2) 対人応答性尺度(SRS-2)は、65 項目の質問で構成される評価指標である。SRS-2 は元々、自閉症スペクトラム障害(ASD)を潜在的に抱えている人を評価するために設計されたが、統合失調症などの精神疾患を区別することもできることが報告されている [12]。また、健康な人々を対象とした実験においても被験者の ASD 傾向を判別できることが確認されているため、本尺度は信頼性の高い総合的評価指標として使用できると期待される。他者評定版と自己評定版が存在するが、本研究では自己評定版を使用した。 本研究では、SRS-2 の「総合スコア」とその治療下位尺度である「社会的コミュニケーション(65 項目のうち 22 項目)」を学習時の目的変数として利用した。 SRS-2 の総合スコアには、純粋なコミュニケーションスキルだけではなく生活スタイルなどに関する項目も含まれるため、ユーザのソーシャルコミュニケーションスキルをより明確に示している社会的コミュニケー ションスコアも使用することとした。 社会的コミュニケーションスコアと総合スコアは、相関係数 0.92 と高い相関であった。その一方で、先行研究で使用されていたセラピストの主観評価値であるスピーキングスコアとの相関係数は、それぞれ-0. 19 と-0.29 という弱い負の相関であった [13]。また、SRS-2 は ASD 傾向を評価する目的で開発されたため、SRS スコアが高い人ほどソーシャルスキルレべルは低いことを意味する点に注意が必要である。 ## 4 マルチモーダル特徵量 ソーシャルスキルは発言内容だけではなく表情や声の抑揚などの複合的な要素によって構成されているため、本研究では機械学習モデルへの入力としてマルチモーダル特徴量を使用する。基本的な特徵量は先行研究の特徴量セットをべースとし、言語特徵量を新しいものに入れ替えた。 ## 4.1 音声・画像特徴量 先行研究と同様に、28 項目の音声特徴量と 26 項目の画像特徴量を使用している [9]。28 項目の音声特徴量は類似タスクである自動面接評価システムに使用されていたものを応用したものである $[14]^{11}$ 。  表 1 言語特徴量 ## 4.2 言語特徵量 先行研究の入力特徴量において、音声特徴量 ・画像特徴量の数に比べて言語特徴量の数が少なかったため、予測に必要な言語情報を十分に抽出できていない可能性があった [9]。その問題を解決するため、アルツハイマー病の検出に使用されていた言語特徴量を参考に表 1 に示した特徴量を導入した [15]。元論文では Word2 Vec 埋め込みに基づいた隣接発話間コサイン類似度の平均・最大・最小値を特徴量の一部として用いていたが、本研究では埋め込みを BERT 由来のものに、発話間類似度を文間・単語間 - 内容語間類似度に拡張している。 具体的な特徴量の算出方法は以下の通りである。実装にあたり BERT 埋込の算出には Transformers ライブラリの Whole-word-masking で事前学習された日本語 BERT モデルを使用し、Word2 Vec 埋込算出には chiVe を使用している $[16,17,18]$ 。 ## 4.2.1 BERT word、 w2v word まず、BERTと Word2Vecによって各単語に対する埋込ベクトル(単語レベル埋込)を算出する。その後、隣接単語間でコサイン類似度を計算する。それら類似度を発話テキスト全体の総単語数で平均することでこれらの特徴量は算出された。 ## 4.2.2 BERT_cont、w2v_cont まず、BERTと Word2Vecによって各内容語に対する埋込ベクトル(内容語レベル埋込)を算出する。事前学習済み BERTでは、前処理で入力文が Subword に分割されるため、そのままでは内容語と BERT 埋込べクトルとの対応が取れない。そのため、形態素解析 器 Sudachi で分かち書きされた単語と BERT-tokenizer で分割された sub-word で文字レベル一致度を算出し、内容語に対して 0.25 を超えたものを内容語 BERT 埋込ベクトルとして使用した [19]。そして、隣接内容語間でコサイン類似度を計算し、それらを発話テキスト全体の総内容語数で平均することでこれらの特徴量は算出された。 ## 4.2.3 BERT_sent、w2v_sent 単語レベル埋込の隣接単語間コサイン類似度を算出後、各文に含まれる総単語数で平均をとる(文レベル類似度)。それら文レベル類似度を発話テキスト全体の総文数で平均することでこれらの特徴量は算出された。 ## 4.2.4 Conj\%、Filler\%、Pronoun\% まず、Sudachi によって文を単語に分割した後、原型に戻す。その後、発話テキスト全体における総単語数に対する接続詞・フィラー・代名詞の割合を算出することでこれら特徴量は得られた。 ## 4.2.5 Neighbor_cont まず、Sudachiによって文を単語に分割した後、原型に戻す。その後、隣接文間での内容語の一致割合を算出することでこれら特徴量は算出された。 ## 5 実験 ## 5.1 学習データ 学習データには、先行研究によって得られた日本語の 1 分間スピーキングビデオを使用した [13]。まず、被験者はノートパソコンの画面を介して MMDAgent (http://www.mmdagent.jp/) で作成された仮想エー ジェントに対して、最近あったうれしかった出来事について 1 分間話す。被験者が話している間、被験者の顔の映像と声が記録され、後日、アノテータによってテキストに書き起こされた。1分間の発話終了後、 SRS 質問紙を用いて、被験者の生活スタイルやコミュニケーションスタイルなどについて記入してもらった。以上のような手順によって 27 人の健康な被験者のデータセットは作成された。うち 1 名のデータにて特徴量抽出における外れ値が確認されたため、それを除外した 26 名のデータを今回は使用している。 ## 5.2 相関分析 まず、各特徵量と SRS との間の関連性を調べるために相関分析を行った。その結果を表 2 に示す。ここでSRS は総合スコア、Com は社会的コミュニケー ションスコアを示している。いずれの特徴量においても、SRS スコアとの有意な相関は見られていない ( $>>0.05$ )。 単語レベルの BERT_word や内容語レベルの BERT_cont、Filler\%で比較的高い正の相関が確認できる。その一方で単語レべルの $\mathrm{w} 2 \mathrm{v} \_$word は比較的強い負の相関を示しており、BERTを用いた特徴量とは異なる言語的特徴を取得している可能性が示唆される結果となった。 ## 5.3 特徵量選択 一般に線形回帰のような単純な機械学習モデルに対して特徴量選択を行うことで推定精度が向上することが知られている。本研究でもそれに倣い、各特徴量と SRS スコアの Pearson 相関係数に基づいた Filter Method によって特徴量選択を行った後、線形回帰で SRS スコア予測を試みた。先行研究において 10 個の特徴量で線形回帰を行っていたため、それに倣い本研究では上位 10 個の特徴量選択を行うこととした [10]。提案手法に対する特徴量選択によって選ばれた特徴量を表 4 に示す。また、特徵量選択を行う場合と行わなかった場合の特徴量セットを用いた線形回帰による予測結果を表 3 に示す。ここでRMSE は真値と予測値のずれを表す二乗平均平方根誤差、Correl は Pearson 相関係数を示している。比較のために従来手法に対して同様の操作を行った場合の結果も示している [9]。 表 4 特徴量選択結果(上位 10 個) 特徴量選択をしなかった場合、いずれの指標においても性能が低下する結果となった。その一方で特徴量選択を行った場合、総合スコア予測において性能が向上し、今回試した全ての手法の中で最も高い相関と低いRMSE を達成した。参考までに特徴量選択後の提案手法で SRS 総合スコアを予測した場合の真值と予測值の散布図を図 1 に示す。 ## 6 考察 相関分析において Filler\%が比較的高い正の相関を示しており、ソーシャルスキルと関連している特徴量である可能性が示された。先行研究のスピーキングスコア予測でもフィラーは重要特徴量として挙げられており、今回の結果によって SRS スコア予測でも同様のことが言えることがわかった [10]。 表 3 において相関係数が向上していることから、特徵量選択が推定性能の向上に大きく寄与していることが確認できる。特に、SRS 総合スコア予測においては提案手法に対して特徴量選択を行った場合が最も高い相関係数となっており、有効性が示唆されている。一方で、社会的コミュニケーションスコア予測に関しては、提案手法に特徴量選択をおこなった場合よりも既存手法に対して特徴量選択を行った場合のほうが有効 図 1 提案手法による総合スコア予測 $(\mathrm{r}: 0.76)$ であることが確認された。 表 4 に示されている上位 10 個の選択された特徴量を比較すると、社会的コミュニケーションスコア予測を行った場合にのみ、言語特徴量の BERT_cont が現れていることが確認できる。このことから全体のスコア予測には言語的内容が重要ではない可能性が示された。 ## 7 おわりに 本研究では既存手法に新たな特徴量を追加し、特徴量選択を行うことで SRS スコア推定性能向上を実現した。また、特徴量選択の結果、ソーシャルスキルレベル推定において重要特徴量となりうる候補が挙げられた。今後は実例と照らし合わせながらより詳細な分析を行う必要がある。 ## 8 謝辞 本研究は、CREST 戦略的創造研究推進事業 (JPMJCR19A5) および JSPS 科研費 (JP17H06101 および JP18K11437) の支援を受けて行われたものである。 ## 参考文献 [1]Children and Adults with AttentionDeficit/Hyperactivity Disorder. Relationships \& social skills. Accessed August 15, 2020. [2]A. Salter. Conditioned reflex therapy. Creative Age Press, 1949. [3]J. Wolpe. Psychotherapy by reciprocal inhibition. Stanford University Press, 1958. [4]A. Bandura. Principles of behavior modification. Holt, Rinehart and Winston, 1969. [5]Kim T. Mueser and Alan S. Bellack. Social skills training: Alive and well? Journal of Mental Health, pp. 549-552, 2007. [6]A. S. Bellack, K. T. Mueser, S. Gingerich, and J. Agresta. Social Skills Training for Schizophrenia: A Step-by-Step Guide. Guilford Press, 2 edition, 2004. [7]一般社団法人 SST 普及協会. 認定講師. Accessed October $5,2020$. [8]T. Saga, H. Tanaka, H. Iwasaka, and S. Nakamura. Objective prediction of social skills level for automated social skills training using audio and text information. In ICMI ' 20 Companion: Companion Publication of the 2020 International Conference on Multimodal Interaction, pp. 467-471. Association for Computing Machinery, New York, NY, United States, 2020. [9]佐賀健志, 田中宏季, 岩坂英巳, 中村哲. マルチモーダル情報を用いたソーシャルスキルの客観的推定. HCG シンポジウム $2020, p p$. A-7-2. 電子情報通信学会, 2020. [10]Hiroki Tanaka, Hideki Negoro, Hidemi Iwasaka, and Satoshi Nakamura. Embodied conversational agents for multimodal automated social skills training in people with autism spectrum disorders. PLOS ONE, Vol. 12, No. 8, pp. 1-15, 08 2017. [11]R.Voleti, S.Woolridge, J.M.Liss, M.Milanovic, C.R.Bowie, and V.Berisha. Objective assessment of social skills using automated language analysis for identification of schizophrenia and bipolar disorder. In Proceedings of INTERSPEECH2O19, pp. 1433-1437, 2019. [12]MD John N. Constantino and PhD Christian P. Gruber. Social Responsiveness Scale, Second Edition (SRS-2)Back. Western Psychological Services, 2012 [13]H. Tanaka, H. Iwasaka, H. Negoro, and S. Nakamura. Analysis of conversational listening skills toward agent-based social skills training. Journal on Multimodal User Interfaces, Vol. 14, No. 1, pp. 73-82, Mar 2020. [14]I. Naim, M. I. Tanveer, D. Gildea, and M. E. Hoque. Automated analysis and prediction of job interview performance. IEEE Transactions on Affective Computing, Vol. 9, No. 2, pp. 191-204, April 2018. [15]A.Balagopalan, B.Eyre, F.Rudzicz, and J.Novikova. To bert or not to bert: Comparing speech and language-based approaches for alzheimers disease detection. In Proceedings of INTERSPEECH2020, pp. 2167-2171, 2020. [16]Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, R'emi Louf, Morgan Funtowicz, and Jamie Brew. Huggingface's transformers: State-of-the-art natural lan- guage processing, 2019. [17]真鍋陽俊, 岡照晃, 海川祥毅, 高岡一馬, 内田佳孝, 浅原正幸. 複数粒度の分割結果に基づく日本語単語分散表現. 言語処理学会第 25 回年次大会 (NLP2019), pp. NLP2019-P8-5. 言語処理学会, 2019. [18]河村宗一郎, 久本空海, 真鍋陽俊, 高岡一馬, 内田佳孝, 岡照晃,浅原正幸. chive 2.0: Sudachi とnwjc を用いた実用的な日本語単語ベクトルの実現へ向けて. 言語処理学会第 26 回年次大会 (NLP2020), pp. NLP2020-P6-16. 言語処理学会, 2020. [19]K. Takaoka, S. Hisamoto, N. Kawahara, M. Sakamoto, Y. Uchida, and Y. Matsumoto. Sudachi: a japanese tokenizer for business. In Nicoletta Calzolari (Conference chair), Khalid Choukri, Christopher Cieri, Thierry Declerck, Sara Goggi, Koiti Hasida, Hitoshi Isahara, Bente Maegaard, Joseph Mariani, Hélène Mazo, Asuncion Moreno, Jan Odijk, Stelios Piperidis, and Takenobu Tokunaga, editors, Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Paris, France, may 2018. European Language Resources Association (ELRA). ## A 付録:使用した特徵量一覧 表 A. 1 に使用した特徴量一覧を示す。 表 A. 1 使用した特徵量(上から音声・画像)
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-19.pdf
# 語りに傾聴を示す応答の表出されやすさの推定 伊藤滉一朗 $\dagger 1$ 村田匡輝 $\dagger 2$ 大野誠寛 $\dagger 3$ 松原茂樹 $\dagger 4$ $\dagger 1$ 名古屋大学大学院情報学研究科 $\dagger 2$ 豊田工業高等専門学校 $\dagger 3$ 東京電機大学未来科学部 $\dagger 4$ 名古屋大学情報連携推進本部 ito.koichiro@a.mbox.nagoya-u.ac.jp murata@toyota-ct.ac.jp ohno@mail.dendai.ac.jp matubara@nagoya-u.jp ## 1 はじめに 語ることは人間の基本的な欲求である. 語る行為は, 聞き手がいて初めて成立する. 日本では, 独居高齢者の増加など社会の個人化が進み $[1,2]$, 聞き手不在の生活シーンが増加している. 人が語れる機会を増やすことは現代社会の重要な課題である.これに対し,コミュニケーションロボットやスマートスピーカーなどが語りを聞く役割を担うことが考えられる。これらが聞き手として認められるには,「語りを傾聴していることを話し手に伝達する機能」 を備える必要がある。このための明示的な手段は語りに応答することである. 以降では, 傾聴を示す目的で語りに応答する発話を傾聴応答と呼ぶ. 適切なタイミングでの傾聴応答の表出は, 話し手の語る意欲を促進する効果が期待できるが, 不適切なタイミングでの表出は逆効果になりうる. そのため, 傾聴応答の表出では, その表出タイミングが重要となる. 本論文では, 適切なタイミングでの傾聴応答の自動生成の実現に向けて, あるタイミングが傾聴応答の生成にどの程度適するかを推定する手法を提案する. 本研究では, この適切さを表す指標として, 傾聴応答の表出率を定義し, これを予測する. あるタイミングでの傾聴応答の表出率は, そのタイミングで傾聴応答を表出した聞き手の割合とする. 提案手法は,語りの音響情報とテキスト情報を用いて, 傾聴応答の表出率を予測する. 具体的には, これらの情報を transformer ベースの手法 [3] でエンコードし, エンコード結果を 1 次元に変換して表出率を算出する.提案手法の予測性能の評価のために, 表出率の予測実験を行ったところ, 語りの音響情報とテキスト情報の両方を予測に使用する提案手法が有効であることを確認した。 図 1 語りと傾聴応答の例 ## 2 傾聴応答 傾聴応答は, 話し手の語りに傾聴を伝える応答であり, 話し手の語る意欲を促進する効果が期待できる. 図 1 に語りと傾恥応答の例を示す. ## 2.1 傾聴応答の表出率 本研究では, あるタイミングが傾聴応答の生成にどの程度適するかを表す指標として, 傾聴応答の表出率を定義し,これを予測する。 あるタイミングでの傾聴応答の表出率は, そのタイミングで傾聴応答を表出した聞き手の割合とする.表出率が高いタイミングほど,そのタイミングで応答を表出した聞き手が多いことを意味する.本論文では,傾聴応答の表出率の予測手法を提案する. ## 2.2 表出率の利用 傾聴応答の生成タイミングに関する従来研究 $[4,5,6,7,8,9]$ では, タイミング毎に, 傾聴応答の生成に適するか否かの二値分類を経て, 生成に適するタイミングを検出してきた. 本研究では, 従来研究とは異なり, 傾聴応答の表出率を予測する. 従来研究における, 応答生成に適したタイミングか否かの二值分類は, 行動の選択といえる。一方, 本研究で行う表出率の予測は,あるタイミングでの状況の予測といえる. 本研究では, 予測された表出率は, 適 図 2 応答タイミング (上部) とテキスト情報 (下部) の例 表 1 応答タイミングを表現するタグ $<\mathbf{E}_{\mathbf{B}}>\mid$ 文節終端の対象の応答タイミング $<\mathbf{E}_{\mathbf{P}}>$ ポーズ継続地点の対象の応答タイミング $<\mathbf{T}_{\mathbf{B}}>\quad$ 文節終端の過去の応答タイミング $<\mathbf{T}_{\mathbf{P}}>$ ポーズ継続地点の過去の応答タイミング 切な応答生成タイミングの判断に利用されることを想定する. 表出率を利用した適切な応答生成タイミングの判断方法には, 様々な選択肢があると考えられる. 最も単純な例としては, 表出率がある閾値を超えた際に応答を生成する方法が挙げられる. この方法では, 閾値の設定次第で, 応答システムの積極性を表現することも可能である. 表出率の予測は, 従来の二值の予測に比べ, より細かい粒度での明確な值の予測である. そのため,表出率を予測するシステムは, 二値の予測を行う従来のシステムと比べ, 移植性が高く, 他の要素と組み合わせやすい。例えば,ユーザの個性や,応答システムとユーザの関係性といった, 表出率以外の要素と組み合わせて, 適切な応答生成タイミングの判断をすることも比較的容易と考えられる。 ## 3 傾聴応答の表出率の予測手法 ## 3.1 表出率の予測タイミング 提案手法では,応答は語りの言語的境界の直後で発話されやすいことを踏まえて, (a) 語りの文節終端, (b) 語りの文節終端から $200 \mathrm{~ms}$ ポーズが継続した点,の二つを傾聴応答の表出率を予測するタイミング (以下, 応答タイミング) とする。具体的には, (a) は語りの文節における最終形態素の発話終端時刻である。(b) は, 語りにおいてポーズが継続する場合にも応答が発話されやすいことを踏まえた応答タイミングである. 図 2 の上部に,応答タイミングの例を示す.「/」は文節終端を表す. t1 t6の 6 個の応答タイミングのうち, t4 のみ上記の (b) に該当し, それ以外の 5 個の応答タイミングは (a)に該当する. 図 3 提案モデルの概略 ## 3.2 使用する特徵量 提案手法は,語りの音響情報とテキスト情報から,表出率を予測する.音響情報としては,対象の応答タイミング直前のフレームの系列を用いる。フレーム単位の特徴量には, MFCC の下位 12 次元とピッチとパワー,及びそれらの $\Delta$ と $\Delta \Delta$ を用いる. テキスト情報としては,対象の応答タイミング直前のトークンの系列を用いる.トークンは,語りのサブワードと応答タイミングを表現する 4 種のタグ (表 1)から構成される. トークン単位の特徵量には,トークンの埋め込み表現を用いる。テキスト情報の例を図 2 の下部に示す.この例では,テキスト情報として, 対象の応答タイミング直前の 3 文節に含まれるトークンの系列を用いている. } & \multirow{2}{*}{ 話し手の語り } & \multicolumn{10}{|c|}{ 聞き手の傾聴応答の有無 } & \multirow{2}{*}{ 表出率 } \\ 表 2 傾聴応答の表出率の正解値の算出例 図 4 傾聴応答の表出率の正解值の出現割合 ## 3.3 表出率の予測モデル 提案モデルの概略を図 3 に示す.ただし, $\mathrm{f}_{\mathrm{i}} \in\left[\mathrm{f}_{1}, \mathrm{f}_{2}, \cdots\right]$ はフレームを, tok $_{\mathrm{j}} \in\left[\right.$ tok $_{1}$, tok $\left._{2}, \cdots\right]$ はトークンを表す。はじめに,音声分析ツールを使用して, 対象の応答タイミング直前のフレーム系列から,音響情報の特徴量行列を抽出する。一方,対象の応答タイミング直前のトークン系列をトー クン埋め込み層に入力して, テキスト情報の特徴量行列を得る. 次に, これら特徴量行列に対して, positional encoding の加算と, 線形変換, ReLU 関数を適用したのち, 1 層の transformer encoder [3] による変換を行う. その後, 変換後の行列に対して, 要素ごとに平均値をとり,音響情報とテキスト情報それぞれのエンコード結果であるベクトルを得る. 最後に, これら二つのベクトルを連結させたのち, 線形変換と sigmoid 関数を適用し, 0 以上 1 以下の 1 次元の值に変換することで,表出率を得る. ## 4 傾聴応答の表出率の予測実験 ## 4.1 実験データ ## 4.1.1 傾聴応答データ 本実験では,村田らの傾聴応答データ [10]を用いる. 傾聴応答データにおける傾聴応答は, 複数の作業者が録音された語りを聞きながら,それぞれ応答することで収集されており, 静的な一つの語りに対して,複数の聞き手の傾聴応答が存在する.録音された語りとして,30 名の高齢者による合計約 8 時間 40 分の語りが収録されているナラティブコーパス JELiCo [11]を使用している. ## 4.1.2 傾聴応答データにおける表出率 本実験では,傾聴応答データの一部である 10 人の聞き手の傾聴応答 131,616 個を用いた。このデー タ中の応答タイミングに対する傾聴応答の表出率の正解値は,そのタイミングで応答した聞き手の割合とした。まず,CaboCha [12]を用いて語りの文節境界を検出したのち,応答タイミングを特定した。次に,応答の発話開始時刻を,語り中の最も近い応答タイミングに対応付けた. 最後に, 対応付けの結果に基づき,傾聴応答の表出率の正解値を算出した。 表 2 に傾聴応答の表出率の正解値の算出例を示す.この例の語りと応答タイミングは, 図 2 のものと同一である.L1~L10は 10 人の聞き手を表し,、 は聞き手が応答をしたことを意味する。例えば,応答タイミング $\mathrm{t} 2$ では, L6 と L9 の 2 人が応答しているので,表出率は $2 / 10=0.2$ となる.実験で用いるデータには, 40,647 個の応答タイミングが存在した. 図 4 に語りに存在する 40,647 個の応答タイミングにおける表出率の正解値の出現割合を示す. ## 4.2 実験概要 実験データを学習データ, 開発データ, テストデータに分割した。それぞれ, 23,846 個,8,588 個, 8,213 個の応答タイミングが含まれている。 音響の特徵量抽出には Praat [13] を使用した。フレームシフトを $10 \mathrm{~ms}$ とし,対象の応答タイミングから遡って 25 フレーム(応答タイミングの直前 表 3 各予測手法における評価指標の値 $250 \mathrm{~ms}$ )の特徵量を用いた。また,MFCC については,窓幅を $25 \mathrm{~ms}$ とした。テキスト情報については,対象の応答タイミング直前の 3 文節の語りに含まれるトークン系列を使用した。語りのサブワードへの分割は, MeCab [14] (UniDic Ver. 2.1.2) で形態素解析したのち, subword-nmt $[15]^{1)}$ にり実施した。サブワードの埋め込みの初期値には, 日本語 Wikipedia コーパスを用いて GloVe [16] により事前学習した埋め込み表現を利用した。トークンに対する埋め込みの次元数は 300 とした. モデルの学習では, バッチサイズを 256 , 学習率を $2 \mathrm{e}-4$, エポック数を 20 とした。損失関数には MSE (Mean Squared Error) Loss を,最適化手法には Adam [17] を用いた. 開発データにおいて損失が最小となったモデルをテストデータに適用して, その性能を評価した。補足として,モデルのハイパーパラメータと実装に用いたライブラリの詳細を,付録 A に記載しておく。 ## 4.3 評価方法 本実験では,テストデータ中の全応答タイミングから算出される RMSE (Root Mean Squared Error) により, 表出率の予測性能を評価する。これを RMSE(all) と表記する。さらに,表出率の正解値ごとにもRMSE を算出し,これも評価指標とする.表出率の正解值 $c$ に対する $\operatorname{RMSE}$ を $\operatorname{RMSE}(c)$ と表記する. 補足として, $\operatorname{RMSE}(\mathrm{all})$ と $\operatorname{RMSE}(c)$ の計算式を付録 Bに記載しておく。 提案手法に加え,以下の三つの手法を実装した。 ・ random: 学習データにおける表出率の出現分布に従ってランダムに表出率を予測する手法 ・ proposed (P): 音響 (Prosody) 情報のみを使用して表出率を予測する手法 ・ proposed (T): テキスト (Text) 情報のみを使用して表出率を予測する手法 random の評価指標の值は, テストデータに対する 1000 回の試行から得られる評価指標を平均す  ることで算出した. proposed $(\mathrm{P})$ と proposed $(\mathrm{T})$ は, それぞれ,表出率を出力する機構(図 3 の linear + sigmoid)に,音響情報のみを入力する手法と,テキスト情報のみを入力する手法である。 ## 4.4 実験結果 各予測手法に対する評価指標の値を表 3 に示す.提案手法と random を比較すると, 提案手法が全ての評価指標で random を上回っており, 提案手法がランダムな予測よりも有効であることを確認できた. proposed $(\mathrm{P})$ と proposed (T) についても, 同様の結果が得られた。このことは,音響情報とテキスト情報がいずれも表出率の予測に寄与することを示している。一方, 提案手法と proposed (P) 及び proposed (T) を比較すると, 提案手法が全 12 個の評価指標のうち 9 個で最良の結果を示しており,音響情報とテキスト情報の両方を使用して表出率を予測することの有効性を確認できた。また,分析の結果,提案手法は, 正解の表出率が高いほど予測値も高くなる傾向にあることも確認した。付録 $\mathrm{C}$ に実験結果の補足を記載しておく.付録の図 5 に提案手法の予測傾向を, 図 6 に提案手法による予測例も記載しておく. ## 5 まとめ 本論文では, 傾聴応答の自動生成に向けた, 傾聴応答の表出率の予測手法を提案した. 提案手法は,語りの音響情報とテキスト情報を transformer ベー スの手法でエンコードし, エンコード結果を 1 次元に変換して表出率を算出する. 表出率の予測実験によって,音響情報とテキスト情報の両方を使用する提案手法の有効性を確認した. 今後は傾聴応答の種類を考慮した表出率の予測に取り組んでいきたい。 ## 謝辞 高齢者のナラティブデータは, 奈良先端科学技術大学院大学ソーシャル・コンピューティング研究室から提供いただいた. 本研究は, 一部, 科学研究費補助金挑戦的研究(萌芽)(No. 18K19811)により実施したものである. ## 参考文献 [1]総務省統計局. 平成 27 年国勢調査世帯構造等基本集計結果の概要. [2]国立社会保障 - 人口問題研究所. 日本の世帯数の将来推計(全国推計)平成 30 年推計. [3]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, $Ł$ ukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In Advances in Neural Information Processing Systems, Vol. 30, pp. 5998-6008, 2017. [4]Hiroaki Noguchi and Yasuharu Den. Prosody-based Detection of the Context of Backchannel Responses. In Proceedings of the 5th International Conference on Spoken Language Processing (ICSLP-1998), pp. 8570-8573, 1998. [5]Nicola Cathcart, Jean Carletta, and Ewan Klein. A Shallow Model for Backchannel Continuers in Spoken Dialogue. In Proceedings of the 10th Conference on European Chapter of the Association for Computational Linguistics (EACL-2003), pp. 51-58, 2003. [6]Shinya Fujie, Kenta Fukushima, and Tetsunori Kobayashi. A Conversation Robot with Back-Channel Feedback Function Based on Linguistic and Nonlinguistic Information. In Proceedings of the 2nd International Conference on Autonomous Robots and Agents (ICARA-2004), pp. 379-384, 2004. [7]Norihide Kitaoka, Masashi Takeuchi, Ryota Nishimura, and Seiji Nakagawa. Response Timing Detection Using Prosodic and Linguistic Information for Human-friendly Spoken Dia$\log$ Systems. Journal of Japanese Society for Artificial Intelligence, Vol. 20, No. 3, pp. 220-228, 2005. [8]Yuki Kamiya, Tomohiro Ohno, and Shigeki Matsubara. Coherent Back-Channel Feedback Tagging of In-Car Spoken Dialogue Corpus. In Proceedings of the 11th Annual SIGdial Meeting on Discourse and Dialogue (SIGDIAL-2010), pp. 205-208, 2010 [9]Takashi Yamaguchi, Koji Inoue, Koichiro Yoshino, Katsuya Takanashi, Nigel G. Ward, and Tatsuya Kawahara. Analysis and Prediction of Morphological Patterns of Backchannels for Attentive Listening Agents. In Proceedings of the 7th International Workshop on Spoken Dialogue Systems (IWSDS2016), pp. 1-12, 2016. [10]村田匡輝, 大野誠寛, 松原茂樹. 語りの傾聴を話し手に示す応答発話の収集. 電気学会論文誌 C, Vol. 138, No. 5, pp. 637-638, 2018. [11]Eiji Aramaki. Japanese Elder' s Language Index Corpus v2, 2016. https://doi.org/10.6084/m9. figshare. 2082706.v1. [12]Taku Kudo and Yuji Matsumoto. Japanese Dependency Analysis using Cascaded Chunking. In Proceedings of the 6th Conference on Natural Language Learning (COLING-2002), pp. 63-69, 2002. [13]Paul Boersma and David Weenink. Praat: Doing Phonetics by Computer (version 5.1.05), 2009. http: //www. praat. org/. [14]Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying Conditional Random Fields to Japanese Morphological Analysis. In Proceedings of the 9th Conference on Empirical Methods in Natural Language Processing (EMNLP-2004), pp. 230-237, 2004. [15]Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural Machine Translation of Rare Words with Subword Units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (ACL-2016), pp. 1715-1725, 2016. [16]Jeffrey Pennington, Richard Socher, and Christopher Manning. GloVe: Global Vectors for Word Representation. In Proceedings of the 19th Conference on Empirical Methods in Natural Language Processing (EMNLP-2014), pp. 15321543, 2014. [17]Diederik P.Kingma and Jimmy Lei Ba. Adam: A Method for Stochastic Optimization, 2014. http://arxiv.org/abs/ 1412.6980. ## Aモモ゙ルのハイパーパラメータと実装に用いたライブラリ 3.2 節で述べたとおり, 音響の特徴量は 42 次元 (MFCC の下位 12 次元とピッチとパワー, 及びそれらの $\Delta$ と $\Delta \Delta$ ) である. 4.2 節で述べたとおり, テキストの特徴量は 300 次元である. 表 4 に, proposed $(\mathrm{P})$, proposed (T) 及び提案手法における transformer encoder [3] の入出力の次元数 $\left(d_{\text {model }}\right)$, multi-head attention のヘッド数 (h)を示す. position-wise feedforward network の中間層の次元数 $\left(d_{\mathrm{ff}}\right)$ は, $d_{\text {model }}$ の 4 倍とした.これらのハイパーパラメータの值は, 開発データを用いて定めた. モデルの実装には, pytorch ${ }^{2}$ を用いた. transformer encoder は, pytorch のnn.TransformerEncoder とnn.TransformerEncoderLayer で実装した. ## B 評価指標 $\operatorname{RMSE}(\mathrm{all})$ と $\operatorname{RMSE}(c)$ は,以下の式によって計算される。ただし, $p(t)$ と $c(t)$ はそれぞれ,応答タイミング $t$ における表出率の予測值と正解値を表し, $S_{\mathrm{all}}$ はテストデータにおける全応答タイミングを表し, $S_{c}$ はテストデータにおける表出率の正解値が $c$ であるような応答タイミングの集合を表す. $ \operatorname{RMSE}(\text { all })=\sqrt{\frac{1}{\left|S_{\mathrm{all}}\right|} \sum_{t \in S_{\mathrm{all}}}(p(t)-c(t))^{2}} \quad \operatorname{RMSE}(c)=\sqrt{\frac{1}{\left|S_{c}\right|} \sum_{t \in S_{c}}(p(t)-c(t))^{2}} $ ## C 実験結果の補足 図 5 に,提案手法による傾聴応答の表出率の予測傾向を示す.この図は, 表出率の正解値が高いほど予測值も高くなる傾向を示している。この結果から, 提案手法は, 傾聴応答の表出率の高さに対応した応答タイミングの特徴をうまく捉えられているといえる. 最後に,提案手法による表出率の予測例を図 6 に示す. 表 4 各予測手法における transformer encoder の 図 5 提案手法による傾聴応答の表出率の予測傾向 図 6 提案手法による傾聴応答の表出率の予測例 2) https://pytorch.org/docs/stable/index.html
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-1.pdf
# 事前学習モデルを用いた近代文語文の現代語機械翻訳 喜友名 朝視顕 ${ }^{1}$ 平澤 寅庄 ${ }^{1}$ 小町 守 ${ }^{1}$ 小木曽 智信 ${ }^{2}$ 1 東京都立大学 2 国立国語研究所 kiyuna-tomoshige@ed.tmu.ac.jp, hirasawa-tosho@ed.tmu.ac.jp, komachi@tmu.ac.jp, togiso@ninjal.ac.jp ## 1 はじめに 本研究では、近代文語文の現代語機械翻訳タスクを提案する。これは、近代(明治期から大正期)の文語から現代日本語への翻訳タスクである。本タスクは、同じ言語間の通時的な違いに着目して言語表現を言い換えるタスクの 1 つである。本タスクの特徵として、原言語と目的言語は同じ日本語であり、共通の語彙が多いことが挙げられる。英語では、 William Shakespeare の初期近代英語文を現代英語文に変換する試み [1]が行われている。 本タスクでは、タスクの特徴を考慮し、新たに提案する評価尺度を使用する。ニューラル機械翻訳 (neural machine translation: NMT) の出力は流暢であるが、そのまま公開することは難しい。そこで本研究では、ポストエディットのコストを考慮した翻訳性能の評価尺度として、原文との BLEU および参照訳との BLEU の調和平均を評価値とする調和平均 BLEU を提案し、既存の評価尺度よりも人手評価値との相関が高いことを示す。 また、本タスクの課題として、学習に使用できる対訳コーパスが低リソースであることが挙げられる。この問題に対処する方法の 1 つに、事前学習モデルの利用がある。Lample ら [2] は、Transformer [3] ベースの言語横断的な言語モデル cross-lingual language model (XLM) を学習する方法として、各単言語コーパスを用いた教師なし手法 (masked language modeling: MLM)と対訳コーパスを用いた教師あり手法 (translation language modeling: TLM) を提案した。そして、事前学習済みのXLMを使用して、教師あり NMT と教師なし NMT で実験を行い、両者共に翻訳性能が向上することを示した。 本研究でも、タスクの特徴を考慮し、MLMで学習したXLMを用いたNMT を行った。単言語コー パスを使用した教師なし NMT 手法の場合、訳抜けや誤訳はほとんど生じなかった。しかし、多くの単語は原文のままであるような出力に止まった。本研究における貢献は、次の 3 点である。 (1) 近代文語文の現代語機械翻訳タスクを提案する。 (2) 原言語と目的言語に共通の語彙が多い場合の、 ポストエディットのコストを考慮した翻訳性能の評価尺度として、原文も考慮する調和平均 BLEU を提案する。 (3) 古文の翻訳で初めて事前学習モデルを用いた NMTを行う。 ## 2 近代文語文の現代語機械翻訳 近代文語文から現代語への機械翻訳タスクを提案する。本タスクの特徴として、原言語と目的言語は同じ日本語であり、その差は通時的に生じたもので、共通の語彙が多いことが挙げられる。 本タスクのデータセットには、『学問のすっめ』 とその現代語訳1) から抽出した段落単位の対訳コー パスを使用する。 ## 2.1 学習 訓練・開発データには『学問のすっめ』の二編以降を用いる。段落単位の対訳コーパスから、 1,513 文対から成る文単位の対訳コーパスを作成する。作成方法は付録 $\mathrm{A}$ を参照。 訓練・開発データを 5.1 の方法で単語分割を行ったときの各言語別の単語トークン数と単語タイプ数を表 1 に示す。近代文語の単語タイプのうち $44.28 \%$ が現代語の単語タイプと等しく、現代語の単語タイプのうち $49.36 \%$ が近代文語の単語タイプと等しい。 ## 2.2 テスト 評価データには『学問のすすめ』(福澤諭吉、1872) の初編を用いる。16 段落から成る段落単位の対訳  コーパスであり、近代文語文は 75 文、その現代語訳が 121 文である。文ごとにモデルに入力し、 75 文の翻訳結果を得た後、それらを連結して 16 個の段落に整形し、段落単位のテストを行う。 ## 3 調和平均 BLEU(hm-BLEU) 原言語と目的言語に共通の語彙が多いときを考える。仮に適切な翻訳ができなかった場合、文意と無関係の単語を出力するより、原文の単語をそのまま出力した方が、翻訳として妥当であろう。その場合、原文も考慮して評価するのが自然である。しかし、機械翻訳の評価尺度として一般に用いられている BLEU [4] は、翻訳結果を参照訳との $n$-gram の一致率によって翻訳性能を評価し、原文は考慮しない。そこで、原文と参照訳の両方を考慮する BLEU として、原文との BLEU と、参照訳との BLEU に対し、単純にそれらの調和平均を評価値とする、調和平均 BLEU(hm-BLEU)を提案する。 hm-BLEU は、原文との $n$-gram の一致率を考慮する評価尺度である。原文との $n$-gram の一致率が高いほど、原文の情報を多く保存していると言える。原文の情報を保存していれば、訳抜けや文意に無関係な単語の出現に気付きやすくなるだろう。 ## 4 事前学習モデルを用いた NMT 言語モデルの事前学習と、事前学習済み言語モデルで初期化した翻訳モデルの fine-tuning の 2 つに大別される。 言語モデルの事前学習原言語と目的言語に共通の語彙が多いため、単言語の言語モデルよりも言語横断的な言語モデルを用いることで、高い翻訳性能が期待できる。そこで、言語モデルには XLM [2]を用いる。言語モデルの事前学習には、BERT (bidirectional encoder representations from Transformers) [5] と似た MLM を用いる。XLM の MLM は BERT の MLM と異なり、文対ではなく任意の数の文(最大トークン数で切り捨てる)で学習を行う。近代文語と現代語の各単言語コーパスを用いて、MLMにより共通の言語モデルを作成する。翻訳モデルの fine-tuning 事前学習済みの言語モデルで翻訳モデルの encoder 全体と decoder の一部を初期化し、教師なし手法または教師あり手法により学習を行う。各手法は、Lample and Conneau (2019) [2] の翻訳手法に従う。教師なし手法は、Lample et al. (2018) [6] の denoising と逆翻訳を用いる手法を拡張した手法で、各単言語コーパスを用いて学習を行う。教師あり手法は、Ramachandran et al. (2016) [7] の手法を multilingual NMT [8] に拡張した手法で、対訳コーパスを用いて系列変換の目的関数に従い学習を行う。どちらも、単一のモデルで、近代文語から現代語の翻訳だけでなく、現代語から近代文語の翻訳も行うため、近代文語の単語を多く残すような現代語への翻訳が期待できる。 ## 5 実験 ## 5.1 データセット 対訳データセットに加えて、言語モデルの事前学習に必要な単言語データセットを用意した。それぞれ、 $\mathrm{MeCab}$ [9] を用いて形態素解析を行った。形態素解析の辞書には、近代文語は近代文語 UniDic $[10]^{2}$ )、現代語は現代書き言葉 UniDic $[11]^{3)}$ を用いた。また、 1 文に含まれる短単位の数を 100 語に制限した。 対訳データセット 2.1 の訓練・開発データのうち、9 割を訓練データ ( 1,362 文対)、 1 割を開発データ(151 文対)として使用した。翻訳モデルの fine-tuning にのみ用いる。 単言語データセット訓練データは近代文語と現代語の各単言語コーパス(詳細は付録 B を参照)を用いる (それぞれ 226,793 文)。開発データには『文明論之概略』(福澤諭吉、1875)とその現代語訳 ${ }^{4}$ ) ら付録 A の方法で作成した文単位の対訳コーパスを使用した (3,306 文対)。言語モデルの学習と翻訳モデルの fine-tuning の両方に用いる。 ## 5.2 実験方法 実験には Lample ら [2] の実装5 を利用し、6つの手法で翻訳モデルの学習を行った。特に言及がない 2) https://unidic.ninjal.ac.jp/download_all\#unidic kindai (UniDic-kindai_1603) 3) https://unidic.ninjal.ac.jp/download\#unidic_bccwj (unidic-cwj-2.3.0) 4)福澤諭吉著・齋藤孝訳『現代語訳文明論之概略』ちくま文庫(2013) 5) https://github.com/facebookresearch/XLM 表 2 各評価尺度および人手評価による各翻訳手法の評価值。各評価尺度の値は、評価値を 100 倍したものである。 }} & 100.00 & 13.47 & 100.00 & 23.74 & 0.39 & 10.99 & 5.0 \\ 限り、ハイパーパラメータは既定値を使用した。 ## 5.2.1言語モデルの事前学習と翻訳モデルの初期化 2 つの方法で翻訳モデルの初期化を行った。 言語横断的な初期化単言語データセットを用いて学習した XLM で、翻訳モデルの encoder 全体と decoderの一部を初期化する(XLM)。 言語横断的でない初期化近代文語と現代語の各単言語コーパスを用いて近代文語と現代語の言語モデルをそれぞれ学習し、翻訳モデルの encoder を近代文語の言語モデルで、decoder 現代語の言語モデルで初期化する (BERT $\left.{ }^{6}\right)$ )。開発データは単言語データセットと同様である。 ## 5.2.2 翻訳モデルの fine-tuning 言語横断的な初期化を行った翻訳モデルに対し、対訳データセットを用いて教師あり手法および教師なし手法 (手法 1、手法 2)、単言語データセットを用いて教師なし手法(手法 3)により fine-tuning を行った。単言語データセットを用いて fine-tuningを行ったモデルに対しては、対訳データセットを用いて教師あり手法および教師なし手法により 2 回目の fine-tuning を行った(手法 4、手法 5)。 また、言語横断的でない初期化を行った翻訳モデルに対し、単言語データセットを用いて教師なし手法により fine-tuning を行った(手法 6)。 ## 5.3 評価方法 各翻訳手法の性能を比較するために、6つの評価尺度で評価した:(1) 原文との BLEU [4](s-BLEU)、 (2) 参照訳との BLEU (r-BLEU)、(3) 原文と参照訳をマルチリファレンスとして用いる BLEU (sr-BLEU)、 (4) 3 で提案した hm-BLEU、(5) 文法誤り訂正で使用される原文と参照訳の両方を用いる GLEU [12] (6)テキスト平易化で使用される原文と参照訳の両方を用いる SARI [13]。これら 6 つの評価尺度は値が大きいほど評価が高くなり、最大值は 1 である。 ## 5.4 実験結果 各評価尺度による各翻訳手法の評価値を表 2 に示す。低リソースの対訳データセットを用いた手法 1 と手法 2 は、s-BLEU と r-BLEU のいずれも低い。単言語データセットを用いた手法 3 と手法 6 は、 s-BLEU が高く、r-BLEU は原文よりも高い。手法 3 の後に教師あり手法により fine-tuning を行う手法 4 は、s-BLEU は手法 3 より低いが、r-BLEU は手法 3 より高い。 また、r-BLEU で評価すると手法 4 が最も高いが、 hm-BLEU で評価すると手法 3 が最も高い。これは、 hm-BLEU が s-BLEU を考慮した結果である。 ## 6 メタ評価 5.3 で挙げた 6 つの評価尺度がどの程度、ポストエディットのコストを考慮した翻訳性能の評価できているかを調べるために、評価尺度の評価(メタ評価)を行った。まず、評価データから 2 つ段落を無作為に選び、各翻訳手法について 2.2 と同じ方法で翻訳を行い、システム単位の人手評価を行った。 そして、各評価尺度の評価値(原文の評価値を含む)と人手評価値とのスピアマンの順位相関係数で評価した。 ## 6.1 人手評価 国立国語研究所で『日本語歴史コーパス』の構築に従事する 2 人の評価者(A、B)によるシステム単位の人手評価を行った。評価の観点は、クラウドソーシングを使用して、公開できる品質の現代文に 6) next sentence prediction タスクは行わない。 各評価尺度の評価値と人手評価値との するための時間・人手コストを考慮した翻訳の精度とした。各評価値は、1 から 10 の離散値で、原文を 5 とし、最も精度が良い場合を 10 とした。原文および各翻訳手法の出力に対する人手評価の平均値を表 2 の右段に示す。各評価者の評価値は付録 Dを参照。2 人の評価者間のスピアマンの順位相関係数は 0.72 であった。 ## 6.2 メタ評価の結果 表 3 にメタ評価の結果を示す。人手評価の平均値との相関は、hm-BLEU が最も高い。これは hm-BLEU が、ポストエディットのコストを考慮した翻訳性能の評価尺度として優れていることを示している。また、評価者 A は hm-BLEU との相関が最も高いが、評価者 B は s-BLEU との相関が高い。 ## 7 考察 事前学習モデルを用いた NMT 表 2 より、単言語データセットを用いた教師なし手法 (手法 3、手法 6)は、s-BLEUを高く保ちつつ、r-BLEU は原文より高いことがわかる。これは、付録 C の出力例のように、多くの単語は原文のままで、一部の単語のみを翻訳しているためである。また、言語横断的な初期化(手法 3)と言語横断的でない初期化(手法 6)を比較するとあまり差がないことがわかる。これらの結果は、単言語データセットを用いた教師なし手法が、原文の構造をできるだけ保存するような翻訳を可能にしていることを示唆している。 また、事前言語モデルが翻訳性能に与える効果を調べるために、事前学習モデルで初期化しない手法との比較や、各手法の単語分散表現を使って通時的な単語の対応を調べる必要があるだろう。 調和平均 BLEU(hm-BLEU) ポストエディットのコストは、原文との対応を調べるコストと、対応の取れた部分同士の翻訳が不適当な場合に正しい翻訳に訂正するコストの 2 つに大別できると考えられ る。前者は s-BLEU で、後者は r-BLEU で評価できると仮定すると、表 3 より、評価者 A は s-BLEU と r-BLEU の両方で相関が高く、2つのコストを同程度考慮して評価したと推測できる。一方、評価者 B は s-BLEU との相関が低く、原文との対応よりも、出力の翻訳精度や、正しい翻訳に訂正するコストを重視したと推測できる。 ポストエディットのコストを考慮した翻訳性能の評価尺度を考える際に、本研究では単純に s-BLEU と r-BLEU の調和平均を評価値とする評価尺度を提案したが、正しい翻訳に訂正するコストを重視するような重み付き調和平均も検討する必要があるだろう。 ## 8 関連研究 星野ら [14] は古代から近世までの古文とその現代語訳からなる段落単位の対訳コーパスから、文分割のためのルールベースのスコア関数を用いて、文単位の対訳コーパスを抽出する手法を提案した。抽出した対訳コーパスを用いて統計的機械翻訳を行い、提案手法による文分割の有用性を示した。 また、Takaku ら [15] は単語分散表現を現代文の単言語コーパスで学習した後、古文の単言語コーパスを近代から古代に遡るように通時適応した。得られた単語分散表現で翻訳モデルの encoder の単語埋め込み層の重みを初期化し、星野らが抽出した対訳コーパスを用いて、古文の翻訳で初めて教師あり手法の NMT を行い、時代固有の単語と多様な語彙を訳出できるモデルを作成した。 ## 9 おわりに 本研究では、近代文語文の現代語機械翻訳タスクを提案し、事前学習モデルを用いた手法で実験を行った。その結果、単言語コーパスを用いた手法により、原文の構造をなるべく保存するような翻訳が可能であることがわかった。また、ポストエディットのコストを考慮した翻訳性能の評価尺度として、原文も考慮する調和平均 BLEU を提案し、人手評価值との相関が最も高いことを示した。 今後は、原文の情報をできる限り保ちつつ、より多くの単語を正しく翻訳できるような手法を検討したい。 謝辞本研究は国立国語研究所の共同研究プロジェクト「通時コーパスの構築と日本語史研究の新展開」及び所長裁量経費の助成を受けたものです。 ## 参考文献 [1] Wei Xu, Alan Ritter, Bill Dolan, Ralph Grishman, and Colin Cherry. Paraphrasing for style. In Proceedings of COLING, pp. 2899-2914, 2012. [2] Alexis Conneau and Guillaume Lample. Cross-lingual language model pretraining. In NeurIPS, Vol. 32, pp. 70597069, 2019. [3] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NIPS, pp. 5998-6008. 2017. [4] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. BLEU: a method for automatic evaluation of machine translation. In Proceedings of ACL, pp. 311-318, 2002. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of NAACL, pp. 4171-4186, 2019. [6] Guillaume Lample, Myle Ott, Alexis Conneau, Ludovic Denoyer, and Marc' Aurelio Ranzato. Phrase-based \& neural unsupervised machine translation. In Proceedings of EMNLP, pp. 5039-5049, 2018. [7] Prajit Ramachandran, Peter Liu, and Quoc Le. Unsupervised pretraining for sequence to sequence learning. In Proceedings of EMNLP, pp. 383-391, 2017. [8] Melvin Johnson, Mike Schuster, Quoc V. Le, Maxim Krikun, Yonghui Wu, Zhifeng Chen, Nikhil Thorat, Fernanda Viégas, Martin Wattenberg, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google's multilingual neural machine translation system: Enabling zero-shot translation. TACL, Vol. 5, pp. 339-351, 2017. [9] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of EMNLP, pp. 230-237, 2004. [10] 小木曽智信, 小町守, 松本裕治. 歴史的日本語資料を対象とした形態素解析. 自然言語処理, Vol. 20, No. 5, pp. 727-748, 2013. [11] 伝康晴, 小木曽智信, 小椋秀樹, 山田篤, 峯松信明, 内元清貴, 小磯花絵. コーパス日本語学のための言語資源 : 形態素解析用電子化辞書の開発とその応用.本語科学, Vol. 22, pp. 101-123, 2007. [12] Andrew Mutton, Mark Dras, Stephen Wan, and Robert Dale. GLEU: Automatic evaluation of sentence-level fluency. In Proceedings of ACL, pp. 344-351, 2007. [13] Wei Xu, Courtney Napoles, Ellie Pavlick, Quanze Chen, and Chris Callison-Burch. Optimizing statistical machine translation for text simplification. TACL, Vol. 4, pp. 401415, 2016. [14] 星野翔, 宮尾祐介, 大橋駿介, 相澤彰子, 横野光. 対照コーパスを用いた古文の現代語機械翻訳. 言語処理学会第 20 回年次大会, pp. 816-819, 2014. [15] Masashi Takaku, Tosho Hirasawa, Mamoru Komachi, and Kanako Komiya. Neural machine translation from historical Japanese to contemporary Japanese using diachronically domain-adapted word embeddings. In PACLIC, 2020. [16] 国立国語研究所(2019)『日本語歴史コー パス明治・大正編 I 雑誌』(短単位データ 1.2) https://pj.ninjal.ac.jp/corpus_center/chj/ meiji_taisho.html\#zasshi. [17]国立国語研究所(2018)『日本語歴史コーパス明治・大正編 II 教科書』(短単位データ 1.0) https://pj.ninjal.ac.jp/corpus_center/chj/ meiji_taisho.html\#kyokasho. 表 4 各翻訳手法の出力例。 & \\ 原文譬えば、いろは四十七文字を習い、手紙の文言、帳合いの仕方、算盤の稽古、天䊖の取扱い等を心得、なおまた進んで学ぶべき箇条ははなはだ多し。 参照訳たとえば、いろは四十七文字を習って、手紙の言葉や帳簿の付け方、そろばんの稽古や天科の取り扱い方などを身につけることをはじめとして、学ぶべきことは非常に多い。 1 たとえば、文章にすればたいして意味がないようなものでも、口で言葉にすれば、理解もしやすく、人の心を動かすものがあるのだ。 2 たとえば、乞食を禁止するという法律は、もちろん公明正大なものだけれども、 それぞれの個人が食に物を与えようとする心情はとがめなくてよろしい。 3 譬えば、いろは四十七文字を習い、手紙の文言、帳合いの仕方、算盤の稽古、天科の取扱いなどを心得、なおまた進んで学ぶべき箇条ははなはだ多い。 たとえば、一人の新聞を見てみれば、その趣旨を示し、本を書き、新聞をの上、「政治」の 4 法則を心得、それでも高いレベルの勉強をして、最後には自分でも「成功」ということは、 たいへん多い。 5 萬えば、危機、危機、危機、危機、柱、いや、爪の仕方、算盤の稽古、 天科の習慣などを心得、なおまた進んで学ぶべき箇条ははなはだ多い。 たとえば、いま、若い学生が、酒や異性にもおぼれず、きちんと生活してちゃんと勉強すれば、家族や目上の人間にも叱られることなく、誇らしげになることに思えるけれども、 これはただほかのだらしない学生に比べてのことにすぎない。 表 5 人手評価による各手法の評価値。 ## A 文単位の対訳の作成方法 1 つの原文にいくつかの現代文を割り当てることで文単位の対訳を作成する。原文 $S$ に対し、窓幅 10 の範囲でスコアが最小となる現代文を $H_{S}$ とする。スコアは、句読点を除いた単語列の組に対する、「単語が一致すると距離が 2.5 だけ短くなる」という操作を追加した編集距離である。原文 $A, B$ に対して貪欲に対応付けた現代文をそれぞれ $H_{A}, H_{B}$ とし、 $H_{A}$ と $H_{B}$ の間の現代語訳を、原文 $A$ に割り当てる強さ $\alpha$ を定める。対応の取れない現代語訳が最も少なくなる $\alpha$ を $[0.5,2.0)$ の範囲で二分探索により求める。探索が停止した時点での、対応の取れた原文と現代語訳の対を文単位の対訳として用いる。 ## B 単言語コーパス 単言語データセットの訓練データに使用した近代文語と現代語の各単言語コーパスは以下のとおりである。近代文語の単言語コーパス 『日本語歴史コーパス明治・大正編 I 雑誌』[16] に収録されている『明六雑誌』、『東洋学芸雑誌』、『国民之友』、『太陽』、『女学雑誌』、『女学世界』、『婦人俱楽部』の文語記事と、『日本語歴史コーパス明治・大正編 II 教科書』[17]に収録されている国語教科書の文語部分を用いた。語種が漢語または固有名の場合は、表層形の代わりに語彙素を用いた。 現代語の単言語コーパス『現代日本語書き言葉均衡コーパス』7)の「出版・書籍」を用いた。 ## C 各翻訳手法の出力例 表 4 に各翻訳手法の出力例を示す。手法 1、手法 2 はどちらも、文意と無関係の単語を出力している。手法 3 は文末の単語以外、原文の単語をほとんどそのまま出力している。手法 4 は上段では「肝要」を「大切」と訳しているが、下段では文意と無関係の単語を出力している。手法 5 は上段では手法 3 と似ているが、下段では同じ単語の繰り返しが見られる。手法 6 は上段では「分限」の訳抜け、下段では文意と無関係の単語が見られる。 ## D 人手評価の結果 評価者 $\mathrm{A} 、 \mathrm{~B}$ による各翻訳手法の評価値を表 5 に示す。評価者によって、評価が異なる箇所がいくつか見られた。特に、手法 1 と手法 4 に対して、評価者 $\mathrm{A}$ は 5 未満、評価者 B は 5 以上と評価している。 7) https://pj.ninjal.ac.jp/corpus_center/bccwj/
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-20.pdf
# An Investigation of Sentiment Recognition with Error Prone Multimodal Language Sequences Wei Yang and Jun Ogata Artificial Intelligence Research Center, National Institute of Advanced Industrial Science and Technology (AIST) wei.yang@aist.go.jp; jun.ogata@aist.go.jp } \begin{abstract} In this work, we propose to investigate the sentiment recognition accuracy using unaligned multimodal language sequences including error prone textual modality. For that, we firstly construct an ASR system using a publicly available corpus based on Transformer architecture that relying on self-attention mechanism. Then, for automatically creating the textual data for an existing audio dataset, we perform speech-to-text on the audio part of a multimodal dataset. Finally, we perform sentiment recognition experiments with multi-modality language sequences including the textual features that extracted based on automatically created error prone textual data instead of utilizing manually created transcripts. We estimate that the word error rate (WER) of our ASR system is $4.87 \%$ in the case of SentencePiece based subword segmentation applied for the textual data in training process. We obtain the best accuracy of sentiment recognition experiments conducted on error prone multimodal language sequences with $70 \%$. \end{abstract ## 1 Introduction Emotion and sentiment recognition is crucial as an application of artificial intelligence (AI) in human-computer interaction $(\mathrm{HCI})$, and it has become an overlapping research between psychology and computer science (CS). But as we know, it is difficult to understand human language by AI, especially through only one behavior (unimodality) as human language is complicated due to human's dynamic multi-modality nature during face-toface communication. In other words, it is always dynamic and variable language sequences including verbal behavior (natural language/textual modality) and nonverbal behaviors (acoustic modality and visual modality). On the basis of experience, more exact intentions should be more easier to capture by considering natural language and nonverbal cues at the same time (multimodality/multimodal). The crucial process of emotion and sentiment recognition should be helpful by the use of multimodal data driven recognition engine using state-of-the-art AI techniques. Thus, for both training process and evaluating how reliable a multimodal engine is, creating large-scale labelled multimodal datasets in different languages on all domains is essential and extremely important. Some research institutions have consumed a lot of time and effort to construct publicly available dataset, such as CMU-MOSI [20], CMU-MOSEI [1] and IEMOCAP [3]. We should give many thanks to these works. But we also have to notice that manually constructing multimodal dataset in different modalities is time consuming and cost. It is also difficult to apply one system on all scenarios in real life. Consequently, as an application of emotion or sentiment recognition for addressing real world problems with real time-series data becomes a challenge in research and development in artificial intelligence field. From the previous work, we can see that much effort also has been made to modelling sentiment or emotion recognition from multiple modalities $[15,17]$. In this work, we focus on the "Multimodal Transformer (MulT)" model [15] that used for emotion and sentiment analysis using multimodal datasets. The main advantage of "MulT" is that it can address "unaligned" problem for the time-series (sequences) data in different modalities, as well as the problem of long-range dependencies across modalities by using crossmodal attention mechanism ("repeated reinforce one modality's features with the features from the other modalities" [15]) to adapt streams from one modality to another. Actually, "MulT" is an extended end-to-end model based on standard Transformer architecture [16]. "MulT" can allow us to obtain state-of-the-art results in emotion and sentiment recognition field for several benchmarks. We refer the read to [15] and [16] for a more detail explanation of the overall architecture of "MulT" and the standard Transformer network. In our work, we only use CMU-MOSI as the multimodal dataset for sentiment recognition experiments. In this paper, we construct an ASR system based on a standard Transformer architecture with a freely available dataset. We then perform speech-to-text experiments relying on the pre-trained ASR systems for a publicly available multimodal language dataset. Finally, we extract textual features in word embeddings from those automated transcriptions combine with acoustic and visual features to perform sentiment recognition experiments. We obtain a best recognition accuracy with $70 \%$ by utilizing this kind of error prone multimodal language sequences in three modalities. We also compare the result with the accuracy of using only two modalities (acoustic and visual modalities, without textual modality). Three modalities, in spite of containing error prone textual features, still allow us to obtain much better results. ## 2 Sentiment Recognition with Error Prone Multimodal Dataset ## 2.1 Construction of ASR System Some researchers have tried to work on speech representation learning approach for speech emotion recognition (SER) task through the use of automatic speech recognition (ASR) system [2,19]. Different from these works, in our work, we directly use ASR system to automatically convert audio to text (transcripts) so as to obtain a multimodal language dataset that containing three modalities: language/textual modality, acoustic modality and visual modality. In speech recognition task, recurrent sequence-to-sequence (seq2seq) model using encoder-decoder network have achieved significant word error rate (WER) by introducing different techniques [21]. There also exist several open tookits that used for speech recognition task, for instance, Kaldi [13] and ESPnet [18]. In our experiments, we construct a Pytorch implementation of ASR system refer to ESPnet using a standard Transformer architecture. We do not apply speed perturbation [8] and CMVN (Cepsturm Mean and Variance Normalization) for experimental data preparation and feature extraction, but apply "SpecAugment" [11] for data argument. In our experiments, we use Transformer architecture to train our ASR models. Thus, for position representations, we use absolute position encodings in selfattention mechanism that introduced in [16]. As using subword information has already become crucial to the improvement of the tasks in natural language processing (NLP), such as machine translation (MT) or the task we are doing here, speech recognition. Some previous work shows that using "subword" is an effective way for addressing unseen word or rare word issues, alleviating the open vocabulary problems [14], so as to obtain a stronger neural machine translation (NMT) system. Thus, we perform subword segmentation to further segment words into "subword" units for preparing the textual data used for training ASR systems. In our experiments, we apply two different subword & Textual data for ASR \\ Table 1: Examples of word/subword based segmentation for the same text from our experimental dataset. implementations on the textual data. One is "BPE" subword segmentation which means the segmenter relied on byte-pair-encoding (BPE) compression algorithm [5]. Another one is "SentencePiece (sp)" subword segmentation. "SentencePiece (sp)" supports two segmentation algorithms: "BPE" and "unigram language model" [9], here, for the case of "SentencePiece (sp)" we use "unigram language model". Table 1 shows the examples of word/subword segmentation results for the same text from our experimental dataset. Textual data (transcripts) are automatically created using our Transformer based ASR systems as described above based on "BPE" and "SentencePiece (sp)" respectively. We evaluate and compare the WER of the ASR systems for both test set including in ASR construction experiments and the audio data with their manual transcripts from an existing multimodal dataset (CMUMOSI). We then choose to use the transcripts of the audio dataset that created from the better ASR system with lower WER as the third modality information act on multimodal sentiment recognition. The textual features (word embeddings) will be extracted afterwards for preparing the final experimental data used in sentiment recognition experiments. ## 2.2 Using Error Prone Multimodal Language Sequences in Sentiment Recognition We propose three protocols to perform sentiment recognition experiments with multi-modality language sequences using "MulT". We compare these three protocols with each other, also with the results given in [15]. The first protocol (aligned) is that we train the sentiment recognition model based on our error prone multimodal language sequences are aligned to the same length. The second protocol (unaligned) is as follows. The length of the textual sequences is the same as the length obtained in the first protocol, but we keep the original length of the audio and visual features without any word-segmented alignment. The third protocol (unaligned but language only) is that we train the sentiment recognition model using only the textual features that reinforced by audio and visual features. ## 3 Experiments ## 3.1 ASR and Sentiment Recognition Experimental Datasets The English dataset used in our ASR system construction is a publicly available ASR corpus: LibriSpeech [10]. LibriSpeech is a publicly available ASR corpus $^{1}$ for speech recognition based on public domain audio books in English. We train Transformer based ASR models on the LibriSpeech corpus with 960 hours (train-960) of speech samples at $16 \mathrm{kHz}$, whose contains three subsets (train-clean-100, train-clean-360 and train-other-500). We evaluate our ASR systems with "test-clean" dataset. For our sentiment recognition experiments, we use the processed CMU-MOSI experimental datase ${ }^{2}$ which consisting multimodal features (language (L), audio (A) and vision (V)) for 2,199 short monologue video clips. The multimodal features are extracted from the textual, acoustic and visual multimodal dataset using Glove word embeddings (glove.840B.300d) [12], COVAREP [4] and Facet [6] respectively. ## 3.2 ASR System Construction and Speechto-text Tasks We train our ASR systems for 72 hours on 4GPUs. We average the last 8,10 and 20 saved models for decoding the test set and report the best one. The input acoustic features are 40-dimensional filter banks. In the training stage, we used Adam optimizer [7] with $\beta_{1}=0.9$, $\beta_{2}=0.98, \varepsilon=10^{-9}$ and varied the learning rate over the course of training. We used warmup_step $=12000$, we set the residual dropout with 0.1 . Number of blocks for encoder is 12 and number of blocks for decoder is 6 . The model dimension d_model $=320$ and the number of head is set with 4. The feed-forwad inner dimension is 1280 . We use "GLU (Gated Linear Unit)" as the active function type in our experiments. The textual data of "train-960" dataset is used to learn a language model using Transformer as well. The pre-trained language model is also used in final prediction. As the evaluation results shown in Table 2. Subword size used in our experiments for "sp" and "BPE" are 5,000 and 32,000 respectively. Vocabulary size are 5,000 and 31,398 obtained from subword segmentation results correspondingly. Our pre-trained Transformer based ASR systems allow us to obtain $4.87 \%$ ^{1}$ http://www.openslr.org/12 }^{2}$ http://immortal.multicomp.cs.cmu.edu/raw_ datasets/processed_data/cmu-mosi/seq_length_50/ and $5.25 \%$ in WER on LibriSpeech's "test-clean" dataset based on "SentencePiece (sp)" and "BPE" subword segmentation respectively. Meanwhile, we obtain $52.23 \%$ and $64.59 \%$ on the CMU-MOSI audio dataset, the reference is the original manual transcripts (textual data) in CMU-MOSI dataset. "SentencePiece (sp)" based subword segmentation obtain $12.36 \%$ improvement in WER over "BPE" subword segmentation on CMU-MOSI dataset while $0.38 \%$ relative improvement on the "testclean" of LibriSpeech. The high scores in WER for CMU-MOSI dataset probably due to differences in domains and speaking styles. Table 3 shows the samples of speech-to-test experiment results for CMU-MOSI dataset. We can see that some audio samples (e.g., id: OtBXNcAL_IE_18) cannot be recognized successfully using our ASR system (empty), maybe they are too short or so rapid to difficult to recognized. Some of the results do not match the reference because there contains "smacking lips" like stress information in the original manual transcripts (e.g., id: tmZoasNr4rU_10). There also exist some cases that ASR based transcripts are much more longer than their original manual transcripts in the dataset, and the ASR based transcripts are more reasonable according to their corresponding audio samples (e.g., id: 2WGyTLYerpo_44). ## 3.3 Construction of Multimodal Sentiment Recognition Systems We perform the experiments with "aligned" and "unaligned" protocols almost the same as described in [15]. The hyperparameters of "MulT" use here are also the same as used in [15]. The only difference is that instead of using the extracted textual features given in the original CMU-MOSI processed experimental dataset, we replace them with our textual features. They are also extracted using the same "glove.840B.300d", but based on our automatically created error prone textual data (transcripts). Table 4 shows the evaluation results for the three protocols given in Sec. 2.2. Because of the error prone textual data, as expected, we did not obtain the same results in all evaluation metrics in comparison with the results obtained in [15]. But we compare the results with each other, we found that our results are on the contrary to the results obtained based on the original CMUMOSI multimodal language sequences with manual textual data. In our experiments, "unaligned" has better results in comparison with "aligned" protocol. Meanwhile, reinforcing language (L) features with audio (A) and visual (V) features allow us to obtain the best result. This is to say, Multimodal Transformer with crossmodal attention module are so efficient for addressing the problems of long term dependencies across modalities, especially for "unaligned", even "error prone" nature for multimodal language sequences. We also perform the & Model & & Subword segmentation & WER (\%) \\ \cline { 3 - 5 } & & \multirow{2}{*}{ CMU-MOSI } & BPE & 5.25 \\ \cline { 3 - 5 } & & & BPE & 64.59 \\ Table 2: Evaluation results of speech-to-text experiments based on our Transformer ASR systems for both "test-clean" LibriSpeech test set and CMU-MOSI data. The scores in WER for two different subword segmentation strategies is given on the last column. The number in boldface shows the better results. \\ \cline { 2 - 3 } & Manual & shes beautiful (it should be about 167 words in total) \\ Table 3: Examples of speech-to-test experiment results for CMU-MOSI dataset. Here the subword segmentation strategy used is "SentencePiece" (after "SentencePiece" model decoding). & 19.2 & 57.8 & 57.5 & 1.359 & 0.208 \\ Table 4: Results for the "MulT" model based multimodal sentiment experiments on CMU-MOSI with our error prone aligned and unaligned multimodal language sequences. As the evaluation metrics, expect MAE is the lower the better, others are the higher the better. $A c c_{7}$ : 7class accuracy, $A c c_{2}$ : binary accuracy, Corr: correlation of model's prediction with human, MAE: mean absolute error of the score. experiments only with acoustic and visual modalities using "MulT". From the results, we can see that textual features is extremely important in sentiment recognition, in spite of these textual data are error prone and not perfect. ## 4 Conclusion In this paper, we investigated that as an application of emotion or sentiment recognition for solving real life problems, in other words, if we prefer to do some in- dividual projects, how about the sentiment recognition accuracy that perform with error prone multimodal language sequences in multiple modalities. We assume that we only have acoustic and visual data modalities, for having a multimodal dataset including textual modality, we tried to create textual data using an pre-trained ASR system. The results show that three-modality language sequences combine with a robust multimodal emotion or sentiment recognition system can allow us to obtain a better classification result in comparison with using only two modalities, in spite of the textual features in the language aspect suffers from the low quality of automated transcriptions. From our results, we also can conclude that textual modality is definitely an essential and important information provides us to understand human's behaviors and intents more exactly. ## 5 Acknowledgements Part of this work was supported by Council for Science, Technology and Innovation, "Cross-ministerial Strategic Innovation Promotion Program (SIP), Big-data and AI-enabled Cyberspace Technologies”. (Funding agency: NEDO) ## References [1] AmirAli Bagher Zadeh, Paul Pu Liang, Soujanya Poria, Erik Cambria, and Louis-Philippe Morency. Multimodal language analysis in the wild: CMUMOSEI dataset and interpretable dynamic fusion graph. In Proceedings of the 56th Annual Meet- ing of the Association for Computational Linguistics (Volume 1: Long Papers), pages 2236-2246, 2018. [2] Yonatan Belinkov and James Glass. Analyzing hidden representations in end-to-end automatic speech recognition systems. 2017. [3] Carlos Busso, Murtaza Bulut, Chi-Chun Lee, Abe Kazemzadeh, Emily Mower, Samuel Kim, Jeannette N. Chang, Sungbok Lee, and Shrikanth S. Narayanan. IEMOCAP: interactive emotional dyadic motion capture database. Language Resources and Evaluation, 42(4):335-359, 2008. [4] G. Degottex, John Kane, Thomas Drugman, T. Raitio, and Stefan Scherer. COVAREP-a collaborative voice analysis repository for speech technologies. 2014 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP2014), pages 960-964, 2014. [5] Philip Gage. A new algorithm for data compression. C Users J., 12(2):23-28, 1994. [6] iMotions. Facial expression analysis. 2017. [7] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. 2014. URL http://arxiv.org/abs/1412.6980. [8] Tom Ko, Vijayaditya Peddinti, Daniel Povey, and Sanjeev Khudanpur. Audio augmentation for speech recognition. In INTERSPEECH, 2015. [9] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. 2018. [10] Vassil Panayotov, Guoguo Chen, Daniel Povey, and Sanjeev Khudanpur. Librispeech: An ASR corpus based on public domain audio books. In 2015 IEEE international Conference on Acoustics, Speech and Signal Processing (ICASSP2015), pages 5206-5210, 2015. [11] Daniel S. Park, William Chan, Yu Zhang, ChungCheng Chiu, Barret Zoph, Ekin D. Cubuk, and Quoc V. Le. Specaugment: A simple data augmentation method for automatic speech recognition. Proc. Interspeech 2019, pages 2613-2617, 2019. [12] Jeffrey Pennington, Richard Socher, and Christopher Manning. GloVe: Global vectors for word representation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 1532-1543, 2014. [13] Daniel Povey, Arnab Ghoshal, Gilles Boulianne, Lukas Burget, Ondrej Glembek, Nagendra Goel, Mirko Hannemann, Petr Motlicek, Yanmin Qian, Petr Schwarz, Jan Silovsky, Georg Stemmer, and Karel Vesely. The Kaldi speech recognition toolkit. In IEEE 2011 Workshop on Automatic Speech Recognition and Understanding, 2011. [14] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 17151725, Berlin, Germany, 2016. [15] Yao-Hung Hubert Tsai, Shaojie Bai, Paul Pu Liang, J. Zico Kolter, Louis-Philippe Morency, and Ruslan Salakhutdinov. Multimodal transformer for unaligned multimodal language sequences. 2019. [16] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NIPS'17 Proceedings of the 31 st International Conference on Neural Information Processing Systems, pages 6000-6010, Long Beach, CA, USA, 2017. [17] Yansen Wang, Ying Shen, Zhun Liu, Paul Pu Liang, Amir Zadeh, and Louis-Philippe Morency. Words can shift: Dynamically adjusting word representations using nonverbal behaviors. 2018. [18] Shinji Watanabe, Takaaki Hori, Shigeki Karita, Tomoki Hayashi, Jiro Nishitoba, Yuya Unno, Nelson Enrique Yalta Soplin, Jahn Heymann, Matthew Wiesner, Nanxin Chen, Adithya Renduchintala, and Tsubasa Ochiai. Espnet: End-to-end speech processing toolkit. In Proceedings of Interspeech, pages 2207-2211, 2018. [19] Sung-Lin Yeh, Yun-Shao Lin, and Chi-Chun Lee. Speech Representation Learning for Emotion Recognition Using End-to-End ASR with Factorized Adaptation. In Proc. Interspeech 2020, pages 536-540, 2020. [20] Amir Zadeh, Rowan Zellers, Eli Pincus, and LouisPhilippe Morency. MOSI: Multimodal corpus of sentiment intensity and subjectivity analysis in online opinion videos. IEEE Intelligent Systems 31.6 (2016): 82-88, 2016. [21] Yu Zhang, William Chan, and Navdeep Jaitly. Very deep convolutional networks for end-to-end speech recognition. 2016.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-21.pdf
# End-to-End 音声翻訳のためのデータ拡張の検討 高木景矢 豊橋技術科学大学 takagi.keiya.sk@tut.jp } 秋葉友良 豊橋技術科学大学 akiba.tomoyoshi.tk@tut.jp } 塚田元 豊橋技術科学大学 tsukada.hajime.hl@tut.jp ## 1 はじめに 音声翻訳とはソース言語の音声をターゲット言語のテキストに翻訳するタスクである.このタスクを実現させるために, 先行研究では音声認識モデルと機械翻訳モデルを連結させたカスケードモデルや,単一のモデルで直接翻訳する End-to-End モデルが採用されている [1]. End-to-End 音声翻訳モデルは, 誤り伝搬の軽減と低遅延化のために近年注目されている.しかし, End-to-End 音声翻訳において, ソース音声とターゲット文の大規模なぺアデータが必要になることが問題として挙げられる. そこで, 近年,音声合成精度が人間の発話に近くなっている [2]ことから対訳データのソーステキストから音声合成を使用して疑似ペアデータを作成しデータ拡張をする研究が行われている $[3,4]$. これらの研究では,非公開データを使用していたり, 英語講演音声翻訳コーパスに対してドメイン外の MT データを用いたデータ拡張をし, 性能をあげるために音声翻訳デー タで fine-tuning を行っている. 最近, MuST-C と呼ばれる英語講演音声翻訳コーパスが公開された [5]. これは以前からある英語講演音声翻訳コーパスである IWSLT18 [6] よりもサイズが大きく, 品質が良いとされている. 本論文では, IWSLT18 の音声翻訳コーパスと MuST-C の対訳データから End-to-End 音声合成モデルで作成した合成音声-ターゲットテキストの拡張データを用いて End-to-End 音声翻訳モデルを学習することの有効性を調査する。 また, 我々は, 音声認識タスクで単一話者の音声合成を用いたデータ拡張において, 通常用いられる音声特徵量よりも DNN-HMM (Deep Neural Network Hidden Markov model) のボトルネック特徴量を用いることで音声認識精度が改善されることを示した [7]. 音声認識・翻訳はともに sequence-to-sequence の問題であることから, 我々の以前の研究が音声翻訳に応用可能かも調査する. ## 2 End-to-End 音声翻訳と End-to-End 音声合成 End-to-End 音声翻訳とはソース音声系列とター ゲットテキスト系列の組を学習データとし, その変換を直接学習する手法である. 従来の音声認識モデルと機械翻訳モデルを連結させるカスケード方式よりもモデルがシンプルで, 誤り伝搬の軽減と低遅延化のために近年注目されている. End-to-End 音声翻訳は Berard ら [1] が最初に可能性を示した. End-to-End 音声合成とは, 文字系列とその音声の組を学習データとし, その変換を直接学習する手法である. 近年の End-to-End 音声合成研究では,人間の発話に近い精度を達成している [2]. 本研究では Tacotron2 [8] を用いて合成音声を作成する. Tacotron2 はテキストからメルスペクトログラムを生成するエンコーダデコーダモデルである.メルスペクトログラムから音声波形に変換する機構はボコーダと呼ばれ, 本研究では WaveGlow [9]を使用する. WaveGlow は Glow [10] と WaveNet [11]の見識から開発されたもので, 自己回帰を必要とせず高速で効率的かつ高品質の合成音声を出力する. ## 3 提案手法 提案するデータ拡張法は我々の以前の研究 [7] を音声翻訳に応用したものである. 初期の音声翻訳データに追加のテキスト-テキスト対訳データのソーステキストを音声合成し, 音声翻訳用の音声テキスト対訳データで拡張する. End-to-End 音声翻訳では通常, log-mel フィルタバンク特徴量などの音響特徴量が入力として用いられるが, 音声に近い特徵量では多様な情報を含んでおり, 多数の話者の学習データが必要になる. そこで, 提案手法では音声とその書き起こしのペアデー タで事前学習した DNN-HMM 音響モデルの DNN から抽出したボトルネック特徴量を End-to-End 音声翻訳の入力特徴量とすることで単一話者の音声合成によるデータ拡張で音声翻訳性能を改善する (図 1). 図 1 提案手法の概略図 図 2 ボトルネック特徴量抽出器の概略図 ボトルネック特徴量の合成には, 図 2 のように DNN-HMM の出力に近く比較的ノード数の少ない層を用いる.音素の事後確率は話者に依存しないので,DNN-HMM の中間特徴量は話者に依存しない表現として有用であると考える. DNN-HMM の学習は従来の手法と同様で, GMM-HMM (Gaussian Mixture Model Hidden Markov model) を使用してフレームごとに HMM の状態をアライメントし,その HMM の状態を予測するようにDNNを学習する。 データ拡張では,機械翻訳のソーステキストデー タから単一話者の音声合成モデルを用いてテキストと対応する音声を合成する. 合成した音声に対し, ペアデータで学習しておいた DNN-HMM を用いてフレームごとにボトルネック特徴量を抽出する.抽出したボトルネック特徴量と元のターゲットテキス卜を対にして疑似ぺアデータを作成する。元のペアデータに疑似ペアデータを加え End-to-End 音声翻訳モデルを学習する。 ## 4 実験 音響特徴量と提案するボトルネック特徵量を用いて End-to-End 音声翻訳モデルを学習しその翻訳精度を比較する。 ## 4.1 データセット 本実験では,コーパスとして IWSLT18 と MuST-C を使用した。翻訳タスクとしては英語-ドイツ語を選択した. IWSLT18 コーパスは 271 時間分の英語講演音声とその書き起こし, ドイツ語の翻訳が含まれている. 先行研究 [12] に倣い, アライメント品質の低い発話を削除し約 $137 \mathrm{k}$ の発話を使用した. MuST-C は英語講演音声とその書き起こしとドイツ語やフランス語を含む 8 言語の翻訳が含まれるコー パスである.そのうち, ドイツ語翻訳のある 408 時間分のデータを使用した. 実験では,IWSLT18を初期ペアデータとし, データ拡張用テキストデー タとしては,MuST-Cのテキストを使用した。ただし, MuST-Cについては 40 単語以内のものを使用し 表 1 音声翻訳データの統計情報 た。開発セットには IWSLT18 の $\operatorname{dev} 2010$ を使用し, テストセットには tst2010,tst2013,tst2014,tst2015 と MuST-C のテストセット tst-COMMON, tst-HE を用いた. ## 4.2 データの前処理 まず,テストセットに含まれる講演と学習データに含まれる講演が重複しないように学習データを削除した。また,学習データと開発セットについては 3000 フレームを超えるものや,400 文字を超える発話は削除した. 各データの最終的な情報を表 1 に示す. テキストデータについてはトークナイズと小文字化は Moses ${ }^{1)}$ のスクリプトを用いて行った. 句読点などの非発話記号は削除し,文字レベルのボキャブラリを使用した。 ## 4.3 ボトルネック特徵量抽出 ボトルネック特徵量を合成する DNN-HMM を学習するために Kaldi [13] を用いた. 学習データは初期データである IWSLT18を用いた。入力は 40 次元の MFCC と 100 次元の i-vector で出力は HMM の共有状態 (6056 次元) として学習を行った. 出力に近く比較的次元の少ない層の出力 (レシピでいうと prefinal-xent $の$ batchnor 層) をボトルネック特徴量 (256 次元) として合成した。 ## 4.4 データ拡張 疑似ペアデータを作成するために単一話者の音声合成には Tacotron2 [8] と WaveGlow [9]を用いた. モデルは,公開されているモデルを使用した ${ }^{2)}$ 。これ  らのモデルは,単一女性話者によって収録された 24 時間程度の英語音声コーパスである LJSpeech を学習データとしている. ## 4.5 End-to-End 音声翻訳 ESPnet $^{31}$ [14] のレシピに倣い音声データの特徴量抽出を行った。従来使用される音響特徴量として窓幅 $25 \mathrm{~ms}$, フレームシフト $10 \mathrm{~ms}$ で 80 次元の log-mel フィルタバンク特徴量と 3 次元の pitch 情報を得た。 また, この特徵量は学習データの平均と標準偏差で平均化した。簡単のために学習データセットを次のように表記する。 ## IWSLT18 発話速度を $0.9 , 1.0 , 1.1$ 倍にしデータを拡張した IWSLT18 のソース音声とターゲットテキストのペアデータ. ## TTS_MuST-C MuST-C のターゲットテキストと対応するソーステキストの合成音声の疑似ペアデータ。 ## RAW_MuST-C 性能の上限を調査するための MuST-C のソース音声とターゲットテキストのペアデータ. これらのデータの組み合わせで実験を行った。 モデルアーキテクチャは ESPnet に従ったもので注意機構を有する VGG-like のモデルである. エンコーダに 4 層の CNN と 1024 次元, 5 層の BiLSTM, デコーダに 1024 次元, 2 層の LSTM が採用されている. バッチサイズは 16 でオプティマイザは adadelta を使用し, 15 Epochの学習を行い,開発セットで最も Accuracy が良かったモデルを最終的なモデルとして選択した。 ## 4.6 実験結果 音声翻訳結果を表 2 , 図 3 に示す。図 3 は表 2 を各コーパスのテストセットについて平均した数値をグラフ化したもので,左が fbank+pitch を入力特徵量とする音声翻訳結果で, 右が BNF を入力特徵量とする音声翻訳結果である. 評価指標には Moses の multi-bleu-detok.perl スクリプトを用いた case insensitive BLEUを使用した. まず,TTS によるデータ拡張の効果を見るために, IWSLT18 と IWSLT18+TTS_MuST-C $の$ 行を比較する. どちらの特徴量を用いた場合でも,データ拡 3) https://github.com/espnet/espnet 図 3 fbank+pitch を入力特徵量する IWSLT18 と MuST-C のテストセットの音声翻訳結果の平均値 (左), BNF を入力特徵量する IWSLT18 と MuST-C のテストセットの音声翻訳結果の平均値 (右) 張 (+TTS_MuST-C) によって音声翻訳精度が改善されていることがわかり, シングルスピーカーTTS でデータ拡張する効果が確認できた。次に,その効果を合成ではない実際の音声との対訳でのデータ拡張 (IWSLT18+RAW_MuST-C) と比較してみる.MuST-C テストデータでは音声合成データ (TTS_MuST-C) は実際の音声 (RAW_MuST-C) の性能には至っていないが,IWSLT テストデータでは同等の効果が得られている. 拡張データと評価データに同じコーパスを使った場合 (MuST-C テストデータ) に対し,それぞれが異なるコーパスとなる IWSLT テストデータでは,音声合成でも実音声と同じような効果となった可能性がある。 次に,2つの特徵量 fbank+pitch と BNF の効果を比較する. 学習データのサイズが小規模な場合 (IWSLT18 の行) を比較すると, BNF の方が高い翻訳性能となった。一方, 学習データのサイズが増えた場合 (+TTS_MuST-C および+RAW_MuST-C の行)を比較すると, fbank+pitch の方が翻訳性能が高い.この理由として, BNF は音素表現に近い特徴量を持つがゆえに多様性が小さいため, データリソースが少ない場合は翻訳モデルの学習に有利であったと考えられる。データリソースが増えると, 多様性の大きい特徵量 (fbank+pitch) でも学習が改善され, 音声の表現能力の差から性能が逆転した可能性がある. ## 5 結論 本論文では,英語講演音声翻訳コーパスである IWSLT18 を初期データとして, MuST-C のソーステキストの音声合成とターゲットテキストで作成した疑似ペアデータを用いてデータ拡張を行った。その結果,翻訳性能が大幅に上昇することを確認した。 IWSLT18 のテストセットに関しては,実際の音声との対訳データで拡張した場合と同等の効果が得られた。 また,以前の研究で有用であったボトルネック特徵量を音声翻訳に応用した。学習データのサイズが小さい場合は従来の音響特徴量を用いるよりも提案手法が翻訳性能を上回ることを示した。 今後の課題としては複数話者の音声合成モデルを用いたデータ拡張実験との比較と, End-to-End 音声翻訳モデルを Transformer ベースのモデルにすることが挙げられる。 ## 謝辞 本研究は JSPS 科研費 19K11980 および 18H01062 の助成を受けた。 ## 参考文献 [1] Alexandre Bérard, Olivier Pietquin, Christophe Servan, and Laurent Besacier. Listen and translate: A proof of concept for end-to-end speech-to-text translation. arXiv preprint arXiv:1612.01744, 2016. [2] Jonathan Shen, Ruoming Pang, Ron J Weiss, Mike Schuster, Navdeep Jaitly, Zongheng Yang, Zhifeng Chen, Yu Zhang, Yuxuan Wang, Rj Skerrv-Ryan, et al. Natural TTS synthesis by conditioning wavenet on mel spectrogram predictions. In 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 4779-4783. IEEE, 2018 . [3] Ye Jia, Melvin Johnson, Wolfgang Macherey, Ron J Weiss, Yuan Cao, Chung-Cheng Chiu, Naveen Ari, Stella Laurenzo, and Yonghui Wu. Leveraging weakly supervised data to improve end-to-end speech-to-text translation. In IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 7180-7184. IEEE, 2019. [4] Juan Pino, Liezl Puzon, Jiatao Gu, Xutai Ma, Arya D McCarthy, and Deepak Gopinath. Harnessing indirect training data for end-to-end automatic speech translation: Tricks of the trade. arXiv, pp. arXiv1909, 2019. [5] Mattia A. Di Gangi, Roldano Cattoni, Luisa Bentivogli, Matteo Negri, and Marco Turchi. MuSTC: a Multilingual Speech Translation Corpus. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 2012-2017, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [6] Jan Niehues, Ronaldo Cattoni, Sebastian Stuker, Mauro Cettolo, Marco Turchi, and Marcello Federico. The IWSLT 2018 evaluation campaign. In Proceedings of IWSLT, 2018. [7] 高木景矢, 秋葉友良, 塚田元. ボトルネック特徵量の合成に基づく音声認識のためのデータ拡張の検討. 日本音響学会 2020 年春季研究発表会 (ASJ), 32020. [8] Jonathan Shen, et al. Natural TTS synthesis by conditioning wavenet on mel spectrogram predictions. CoRR, Vol. abs/1712.05884, , 2017. [9] Ryan Prenger, et al. Waveglow: A flow-based generative network for speech synthesis. CoRR, Vol. abs/1811.00002, , 2018. [10] Durk P Kingma and Prafulla Dhariwal. Glow: Generative flow with invertible $1 \mathrm{x} 1$ convolutions. In Advances in neural information processing systems, pp. 10215-10224, 2018. [11] Aaron van den Oord, Sander Dieleman, Heiga Zen, Karen Simonyan, Oriol Vinyals, Alex Graves, Nal Kalchbrenner, Andrew Senior, and Koray Kavukcuoglu. Wavenet: A generative model for raw audio. arXiv preprint arXiv:1609.03499, 2016. [12] Hirofumi Inaguma, Kevin Duh, Tatsuya Kawahara, and Shinji Watanabe. Multilingual end-to-end speech translation. In 2019 IEEE Automatic Speech Recognition and Understanding Workshop (ASRU), pp. 570-577. IEEE, 2019. [13] Daniel Povey, et al. The kaldi speech recognition toolkit. In In IEEE 2011 workshop, 2011. [14] Shinji Watanabe, et al. Espnet: End-to-end speech processing toolkit. CoRR, Vol. abs/1804.00015, , 2018 .
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-2.pdf
# Transformer に基づく英日翻訳器からの 単語アラインメント抽出手法の比較 古澤智博松崎拓也 東京理科大学 理学部第一部 応用数学科 1417092@ed.tus.ac.jp matuzaki@rs.tus.ac.jp ## 1 はじめに 単語アラインメントとは、対訳文ペアにおいて、意味の上で対応している単語を繋いだものである。単語アラインメントの一例を図 1 に示す。エンコー ダ・デコーダモデルに基づくニューラル機械翻訳では、モデルの内部に単語アラインメントを明示的に持たない方式が一般的である。近年、ニューラル機械翻訳と同時に単語アラインメントを付与する手法が、盛んに研究されている $[1,2]$ 。この理由として、翻訳モデルのブラックボックス化が起き、翻訳過程の可視化が望まれている点 [3]、また応用面では、強調表示などの原文に対するテキスト修飾を訳文の対応する部分に付加する目的 [4] などがあげられる。特に、翻訳モデルとして現在広く使われている Transformer モデルについて、単語アラインメン卜抽出手法の提案が複数なされている $[2,4,5,6]$ 。本研究では、これまで英仏翻訳、英独翻訳などに対して評価結果が報告されている Transformerに基づく単語アラインメント抽出手法を、英日翻訳に適用し、得られる結果を分析する。実験の結果から、 - Saliency に基づくTransformer からの単語アラインメント抽出 [6] では記号類に誤りが多い - 相対的に、GIZA++ では前置詞 $\rightarrow$ 助詞ペアに誤りが多い という観察が得られた。 ## 2 Transformer に基づく単語アライ ンメント抽出手法 Transformer [7] は、ニューラルネットワークによるエンコーダ・デコーダモデルの一種である。エンコーダの最初の処理として、単語 ID が埋め込みべクトルに変換される。その後、複数の自己注意機構を経たのち、出力ボキャブラリの全単語についての確率分布が出力される。以上の過程は、全体として Require: $I=$ 入力長, $J=$ 出力長, $\left[M_{i j}\right]=$ Saliency の行列 Ensure: $\left[X_{i j}\right]=$ 単語アラインメントの行列 $X_{i j} \leftarrow$ false $(i=1, \ldots, I, \quad j=1, \ldots, J)$ for $i=1, \ldots, I$ do $t \leftarrow \max \left(M_{i 1}, \ldots, M_{i J}\right)$ for $j=1 \ldots J$ do if $M_{i j}>t \alpha$ then $X_{i j} \leftarrow$ true for $j=1, \ldots, J$ do $t \leftarrow \max \left(M_{1 j}, \ldots M_{I j}\right)$ for $i=1, \ldots, I$ do if $M_{i j}<t \beta$ then $X_{i j} \leftarrow$ false 図 2 単語アラインメントを取得するアルゴリズム 微分可能である。 Ding ら [6] は、Transformer の内部機構が微分可能である点を利用し、入力の各単語が出力の各単語に与える影響を微分係数の大きさとして数値化し、単語アラインメントを取得する手法を提案した。具体的には、まず入力の単語埋め込みの各成分について、デコーダが出力する各単語の確率の勾配の大きさを計算する。次に、ある出力単語の選択における各入力単語の寄与(Saliency)を表す量を、先ほど得た成分についての勾配をもとに計算する。以上により、(入力単語数) $\times$ (出力単語数) の Saliency の行列を得る。Ding らは、Saliency を表す尺度として、勾配ベクトルのノルムを用いているが、この尺度の選択には検討の余地があるため、後述する実験によって英日翻訳に適した尺度を比較検討した。また、Ding らの実装に含まれる SmoothGrad [8] も加えて実装した。SmoothGrad は、入力を多数複製してノイズを加えたものそれぞれについて勾配を調べる 表 1 Saliency の尺度を変えたときの精度( $F_{1} )$ 表 2 言語対別の AER の違い 表 3 品詞別の precision $/$ recall $/ F_{1}$ の違い (KFTT) 表 $4 \alpha$ と $\beta$ を変化させたときの精度 $\left(F_{1}\right)$ ことで、精度を向上させる手法である。 Saliency の行列から単語アラインメントを取得する手法として、Ding らは各出力単語に対して Saliency が最大の入力単語を選んだ後に growdiagonal heuristic [9] により補正する方法を用いている。一方、本論文では図 2 に示す方法を用いた。アルゴリズム中のパラメータ $\alpha$ および $\beta$ は、後述する実験によって最適値を探索した。 図 2 に示すアルゴリズムの要約は、次の通りである。まず、入力側の各単語から見て、相対的に高い Saliency を持つすべての出力単語との間にエッジを張る。次に、出力側の各単語から見て、相対的に低いSaliency を持つすべての入力単語との間のエッジを(あれば)削除する。最後に残ったエッジの集まりを単語アラインメントとする。 ## 3 実験に使用する英日デー夕 訓練・評価データとする英日の対訳コーパスとして、京都フリー翻訳タスクデータ(KFTT)[10] と Asian Scientific Paper Excerpt Corpus(ASPEC)[11] を使用した。KFTT は Wikipedia の京都に関係する記事から作成された英日対訳コーパスである。ASPEC は学術論文の要旨から作成された英日対訳コーパスである。KFTT は約 44 万文、ASPEC は約 300 万文の対訳文から成る。KFTT の評価データ(1235 文)には、人手で単語アラインメントが付与されている。 ## 4 実験設定 Transformer の実装として、fairseq [12] に含まれるものを用い、これを改造することで実験を行った。 KFTT の正解の単語アラインメントと比較する際は、Transformer がコーパス内の目的言語文そのものを出力したとみなし、コーパス内の対訳文に対して単語アラインメントを付与した。ASPEC を用いた実験では、正解の単語アラインメントデータが存在しないため、入力文に対してモデルが出力した目的言語文との間の単語アラインメントを抽出し、分析した。また、Transformer の訓練と単語アラインメントの抽出は、KFTT と ASPEC それぞれで独立に行った。 トークナイズには、SentencePiece [13] を用いた。原言語・目的言語で共通の語彙集合を用い、語彙サイズは、16000とした。語彙集合の生成は、KFTT と ASPEC それぞれで独立に行った。 SmoothGrad の分散とサンプル数は、評価データ上でチューニングを行い、それぞれ 1.0 と 50 とした。 KFTT について、品詞別の単語アラインメントの精度を測定する際、品詞の自動判定に英文には 表 5 誤って付いた単語アラインメントの品詞別分類 & & 機能語 & 記号類 & 数詞 \\ $\mathrm{spaCy}^{1)}$ を、和文には $\mathrm{KyTea}^{2}$ を用いた。Transformer から抽出した単語アラインメントは、SentencePiece によるサブトークンの間のアラインメントとして得られる。これを KFTT の単語単位の正解アラインメントと比較する際、KFTT の各単語対と一文字ずつでも重なるサブトークン対にアラインメントが付いていれば、その単語対にはアラインメントが付いているとみなした。 また、比較対象として、代表的な統計的単語アラインメント抽出手法である GIZA++ [14] を用いた。 GIZA++ による単語アラインメントの推定には、 KFTT に含まれる対訳文約 44 万文のみを用いた。 ## 5 実験項目 ## $5.1 \alpha$ と $\beta$ 関する実験 KFTT に対して、図 2 の手続きのパラメータ $\alpha$ および $\beta$ の值を変化させて、Saliency による単語アラインメントを出力した。ここでは、Saliency の尺度として、成分の絶対值の平均を用いた。 表 4 に、そのときの単語アラインメント精度( $F_{1}$ スコア)を示す。結果から $\alpha=0.9 、 \beta=0.4$ の時が最も精度が高いことが分かる。以降の実験ではこの值を用いた。 ## 5.2 Saliency を表す尺度に関する実験 Saliency を表す尺度については、Transformer から自動微分により各入力単語に対し得られる 512 次元の勾配ベクトルを、SmoothGrad の複製により $512 \times$ 50 の勾配行列にしたものに対して、成分の絶対值の平均、成分のフロベニウスノルム、成分の絶対値の  最大值、成分の平均の絶対值の 4 つを比較した。成分の平均の絶対值は、Ding らの実験で使用された基準と実質的に同等である。 表 1 に、Saliency の尺度を変えたときの KFTT での単語アラインメント精度の比較を示す。SmoothGrad の有無にかかわらず、成分の絶対值の平均が最も精度が高いことが分かる。また、SmoothGrad を用いた場合、成分の絶対值の平均以外については精度が低下していることが分かる。以降の実験では成分の絶対值の平均を Saliency の尺度として用い、 SmoothGrad を併用した。 ## 5.3 単語アラインメント精度 GIZA++ 及び Saliency による単語アラインメントを、KFTT の人手による正解アラインメントと比較し、品詞別に precision/recall $/ F_{1}$ を計算したものを表 3 に示す。ただし、得られた単語アラインメントが多く付いた上位の品詞対についてのみ示す。また、表中の「句読点」は、括弧などを含む広義の句読点である。表より、GIZA++ は前置詞 $\rightarrow$ 助詞の精度が相対的に低く、Saliency に基づく手法では句読点 $\rightarrow$補助記号の精度が相対的に低いことがわかる。 また、Ding らの実験結果との比較を、表 2 に示す。表中の数值は Alignment Error Rate (AER) であり、值が小さいほど精度が高いことを表す。Ding らの実験結果と同様に、GIZA++ の精度が Saliency に基づく手法を上回っていることが分かる。 ## 5.4 ASPEC を用いた実験 ASPEC に対して、Saliency による単語アラインメントを出力し、英文の文字数が 80 から 90 のもの 69 文、および 270 から 290 のもの 62 文の計 131 文に対して単語アラインメントの誤りの分析を行った。 図 3 Saliencyに基づく手法からの単語アラインメントの例 図 4 GIZA++による単語アラインメントの例 表 5 に誤った単語アラインメントの数を、表 6 に本来付くべきところが付いていない単語アラインメントの数を、品詞別に集計したものを示す。表中の 「単語一部」とは、SentencePiece によって形態素より細かく分割されたサブワードを意味する。KFTT を用いた実験結果と同様、Saliency に基づく手法は記号類に弱いことが分かる。また、出力側の和文の記号類に対して誤ったアラインメントが付きやすいことが分かる。 ## 6 考察 Saliency に基づく単語アラインメント抽出手法について、Ding らの英独、英仏、英羅翻訳での実験では、SmoothGrad の使用によって AERを半分近く減少させていた。しかし、本研究では、SmoothGradによる効果は大きくなかった。 また、品詞別の評価において、Saliencyによる単語アラインメントでは、記号類に多く誤りが発生することが確認された。特に、文末のピリオドと句点の対にアラインメントが付かない例が多く見られた。その例を、図 3 に示す。これは、出力側の文末の句点に対する確率は、Transformerにおいて入力側の文末のピリオドに強く依存しているわけではないことを示している。一方、GIZA++ の出力では、前置詞 $\rightarrow$ 助詞のアラインメントが付かない誤りが相対的に多く確認された。その例を、図 4 に示す。図中の上の例では、「about」 $\rightarrow$ 「ほど」にアラインメントが付いていないことが分かる。これは、英語の前置詞と日本語の助詞の間には、単純な一対一ではない意味的な対応があり、GIZA++ の統計モデルではこの関係を適切に学習できなかったためだと考えられる。同一のデータで訓練した Transformer からはより正確な前置詞 $\rightarrow$ 助詞のアラインメントが得られていることは、Transformer の能力の一端を示していると言える。 ## 7 おわりに 本研究では、これまで英仏翻訳、英独翻訳などに対して評価結果が報告されている Transformerに基づく単語アラインメント抽出手法を英日翻訳に適用し、得られる結果を分析した。品詞別の単語アラインメント精度を比較することで、全体としての精度の比較では分からない手法別の結果の違いが確認できた。今後の課題として、他の単語アラインメント抽出手法も含めた精度の比較および日英翻訳の場合の評価が挙げられる。 ## 参考文献 [1] Xintong Li, Guanlin Li, Lemao Liu, Max Meng, and Shuming Shi. On the word alignment from neural machine translation. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1293-1303, 2019. [2] Thomas Zenkel, Joern Wuebker, and John DeNero. Endto-end neural word alignment outperforms GIZA++. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1605-1617, 2020. [3] Yanzhuo Ding, Yang Liu, Huanbo Luan, and Maosong Sun. Visualizing and understanding neural machine translation. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1150-1159, 2017. [4] Thomas Zenkel, Joern Wuebker, and John DeNero. Adding interpretable attention to neural translation models improves word alignment. CoRR, Vol. abs/1901.11359, , 2019. [5] Yun Chen, Yang Liu, Guanhua Chen, Xin Jiang, and Qun Liu. Accurate word alignment induction from neural machine translation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 566-576, 2020. [6] Shuoyang Ding, Hainan Xu, and Philipp Koehn. Saliencydriven word alignment interpretation for neural machine translation. In Proceedings of the Fourth Conference on Machine Translation (Volume 1: Research Papers), pp. 1-12, 2019. [7] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In $A d$ vances in Neural Information Processing Systems, Vol. 30, pp. 5998-6008, 2017. [8] Daniel Smilkov, Nikhil Thorat, Been Kim, Fernanda B. Viégas, and Martin Wattenberg. Smoothgrad: removing noise by adding noise. CoRR, Vol. abs/1706.03825, , 2017. [9] Philipp Koehn, A. Axelrod, Alexandra Birch, Chris Callison-Burch, M. Osborne, and David Talbot. Edinburgh system description for the 2005 iwslt speech translation evaluation. In IWSLT, 2005. [10] Graham Neubig. The Kyoto free translation task. http://www.phontron.com/kftt, 2011. [11] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian scientific paper excerpt corpus. In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC 2016), pp. 2204-2208, 2016. [12] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of NAACL-HLT 2019: Demonstrations, 2019. [13] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 66-75, 2018. [14] Franz Josef Och and Hermann Ney. A systematic comparison of various statistical alignment models. Computational Linguistics, Vol. 29, No. 1, pp. 19-51, 2003.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-3.pdf
# 単言語データを用いた逆翻訳と順翻訳による データ拡張の効果の比較 美野 秀弥 ${ }^{1}$ 衣川和卉 ${ }^{1}$ 伊藤 均 ${ }^{1}$ 後藤 功雄 ${ }^{1}$ 山田 一郎 ${ }^{1}$ 田中 英輝 ${ }^{2}$ 川上貴之 ${ }^{3}$ 大嶋 聖一 ${ }^{3}$ 朝賀 英裕 ${ }^{3}$ ${ }^{1}$ NHK 放送技術研究所 ${ }^{2}$ NHK エンジニアリングシステム ${ }^{3}$ 時事通信社 \{mino.h-gq, kinugawa.k-jg, itou.h-ce, goto.i-es, yamada.i-hy\}@nhk.or.jp tanaka.hideki@nes.or.jp, \{kawakami, sohshima, asaka\}@jiji.co.jp ## 1 はじめに ニューラル機械翻訳(NMT)の精度を向上させるアプローチの 1 つに、単言語データを用いたデータ拡張がある。Sennrich ら [1] は、既存の対訳データで学習した目的言語から原言語へ翻訳する NMT モデルを用いて目的言語の単言語データを原言語に翻訳した擬似的な対訳デー タを生成し、それを既存の対訳データに追加して学習することで翻訳精度が向上することを示した。目的言語から原言語に翻訳することは 「逆翻訳」と呼ばれており、逆翻訳によって生成された擬似対訳データは、目的言語側のデー タの流暢性が担保されていることから、訳文の流暢性が向上することが知られている。一方で、原言語の単言語データを目的言語に翻訳すること (以下、順翻訳と呼ぶ) で得られる擬似的な対訳データを用いたデータ抳張の効果について報告した研究 $[2,3,4]$ は順翻訳によるデー タ拡張による翻訳精度の向上のみに言及しており、逆翻訳との比較や対訳データの規模による違いなどの詳細な分析はない。そこで、本稿では、規模の異なる対訳データと内容がほぼ均衡した日英の単言語データを用い、逆翻訳と順翻訳によって生成された異なる擬似対訳データによるデータ拡張の効果を日英、英日の NMT システムの性能比較を通じて検証した。検証の結果、順翻訳で生成した疑似対訳データと、逆翻訳で生成した疑似対訳データは共に、データ拡張による翻訳の精度向上に寄与することを確認表 1 時事通信社ニュースの各コーパスの文数 した。また、両方の擬似対訳データを併用することでさらに翻訳精度が向上することを確認した。既存の対訳データの分量を小規模にして行った実験では、逆翻訳で生成された擬似対訳データの効果が大きいことを確認した。 ## 2 実験概要 ## 2.1 データセット 本稿では、国立研究開発法人情報通信研究機構の委託で進められている機械翻訳の研究プロジェクト内で開発されたニュースの日英均衡対訳コーパス $[5,6,7]$ と自動アライメント手法によって抽出された日英自動アライメントコーパスとを用いる。表 1 に各コーパスの文数を示す1)。日英均衡対訳コーパスは、日英翻訳コー パスと日本語修正コーパスの 2 種類に分けられる。日英翻訳コーパスは、時事通信社の日本語記事の文を過不足なく人手で英語に翻訳した対訳コーパスである。日本語修正コーパスは、時事通信社の日英記事に対して記事アライメントを自動で行い、英語記事を文単位で内容が等価になるように日本語文を修正した対訳コーパスである。日英自動アライメント対訳コーパス 1)田中らが構築したコーパス [5] の一部を利用。 は、文単位に分割された日本語と英語のニュー ス記事を入力として日英の文単位間が交差しないように結びっける文アライメントアルゴリズム [8] により抽出された対訳コーパスである。 テストセット、開発用セットには、WAT2020の JIJI タスク [9] のデータセットを用いた ${ }^{21}$ 。 ## 2.2 実験設定 NMT システムには、Transformer モデル [10] が実装されている Sockeye 2 [11]を用い、日英、英日の 2 種類の翻訳モデルを学習した。英語については Moses のツール3)、日本語については Kytea [12]をそれぞれ用いてトーカナイズした。語彙サイズは、Byte Pair Encoding (BPE) [13] を用いて 64,000 語に定めた。最大文長は 150 トークン、最大エポック数は 30 とし、チェックポイント間隔は 5,000 とした。連続して 15 回チェックポイントで開発用データのパープレキシティの値が改善しない場合は学習を終了した。学習時のその他の設定は Sockeye のデフォルト值を用いた。翻訳時は、ランダムシードを変えて学習した 5 つのモデルをアンサンブルしたモデルを用い、ビーム幅を 30 とした。全てのシステムは、BLEU [14] で評価した。 ## 2.3 ベースライン ベースラインとして、表 1 の日英均衡コーパス(日英翻訳コーパスと日本語修正コーパス) で学習した翻訳モデルを用意した。事前実験でタグを用いた適応化による効果が得られたため、日英翻訳コーパスには〈J-JIJ〉タグ(日本語が時事通信社のスタイルであることを示すタグ)を、日本語修正コーパスには〈E-JIJ〉タグ (英語が時事通信社のスタイルであることを示すタグ)をそれぞれ原言語側のデータの先頭に付与して翻訳モデルを学習した。翻訳時は、〈E-JIJI〉タグ(日英翻訳時)、または〈J-JIJIタグ (英日翻訳時)を入力文の先頭に付与した。 2)自動アライメント手法により抽出された対訳データからノイズが多いものが人手で取り除かれている。 3) https://github.com/mosessmt/mosesdecoder/blob/master/scripts/tokenizer/tokenizer.perl表 2 各コーパスへの付与タグ (学習時) ## 2.4 単言語データによるデータ拡張 日英均衡コーパスに、日本語と英語の単言語データを翻訳することで構築した 2 種類の擬似対訳コーパスを加えて翻訳モデルを学習した。日本語と英語の単言語データには、日本語側、英語側の内容がほぼ均衡している表 1 の日英自動アライメントコーパスを用いた。 単言語データの翻訳にはベースラインシステムを用い、日英自動アライメントコーパスの英語側を日本語に翻訳した擬似対訳コーパス (以下、MonoEn と呼ぶ)と日本語側を英語に翻訳した擬似対訳コーパス(以下、MonoJa と呼ぶ)、それぞれ 391,538 対を得た。内容がほぼ均衡している日本語、および英語の単言語デー タを用いることで、MonoEn と MonoJaはほぼ同じ情報を有したコーパスとなっている。本稿では、ベースラインシステムの学習で用いた日英均衡コーパスに、MonoENを加えて学習した翻訳モデル、MonoJaを加えて学習した翻訳モデル、MonoEnと MonoJa の両方を加えて学習した翻訳モデル、の 3 種類の翻訳モデルを構築した。Caswell らは、学習時に擬似対訳コーパスと正規の対訳コーパスを区別するタグを付与して学習する手法 [15] を提案しており、本稿でもこの手法を用いた。原言語側、あるいは目的言語側が時事通信社のニュース文のスタイルであることを示すスタイルタグと、対訳データが擬似対訳か正規の対訳かを示す擬似対訳タグ、の 2 種類のタグを原言語側データの先頭に付与して翻訳モデルを学習した。表 2 に、各コーパスに付与するタグを示す。日英翻訳時は“〈E-JIJI> 〈NOMT>”を付与し、英日翻訳時は “〈J-JIJI> 〈NOMT>”を付与した。 表 3 日英翻訳の実験結果 表 4 英日翻訳の実験結果 ## 2.5 小規模対訳データ 小規模な対訳データにおけるデータ拡張の効果を確認するために、表 1 の日英翻訳コーパスと日本語修正コーパスから 75,000 データをそれぞれランダムに抽出した日英均衡コーパス 150,000 データを対訳データとし、同様に日英自動アライメントデータを用いてデータ拡張を行い、翻訳モデルを学習した。データ拡張には、日英均衡コーパス 150,000 データで学習した翻訳モデルを利用した。英日翻訳については、タグ付与の翻訳モデルよりもタグ未付与の翻訳モデルの翻訳精度が高かったため、データ拡張時もタグ未付与で学習した。英日翻訳でタグ付与の翻訳モデルの翻訳精度が下がった理由としては、翻訳時に付与するくJ-JIJ〉タグは学習データの原言語(英語)が時事通信社のニュース文ではない翻訳文であることに対応しているが、テストデータは英語、日本語共に時事通信社のニュース文であるため、その乘離が影響したためと考えられる。 ## 3 実験結果 日英、英日ニュース翻訳の実験結果を表 3,4 に示す。参考のため、タグを付与しない場合の結果も載せた。日英、英日ともに順翻訳デー タ、逆翻訳データの追加による翻訳精度の向上を確認した。また、順翻訳データと逆翻訳デー タの両方を追加することにより、さらに翻訳精表 5 英日翻訳の一対比較評価(100 文) 度が向上することを確認した。英日翻訳については、テストセットの中の 100 文について、「日英均衡+MonoEn (順翻訳)」、日英均衡+MonoJa (逆翻訳)」、「日英均衡+MonoEn+MonoJa」、で学習した翻訳モデル間の一対比較評価を評価者 1 名により実施した ${ }^{4)}$ 。表 5 に評価結果を示す。BLEUの評価では、順翻訳データ (MonoEn) を加えて学習した翻訳モデルと逆翻訳データ (MonoJa)を加えて学習した翻訳モデルの差はなかった (表 4 の 3,4 行目) が、一対比較評価では逆翻訳データを追加した翻訳モデルよりも順翻訳データを追加した翻訳モデルの結果が良い評価を得た。また、順翻訳、逆翻訳の両方のデータを追加して学習した翻訳モデルは、どちらか一方のデータのみを加えた翻訳モデルと比較して良い評価を得られる傾向があった。本実験結果より、原言語側と目的言語側の両方の単言語データの利用の有効性が確認された。 表 6 に英日翻訳の翻訳例と評価結果を示す。 \#1 の例では、"crew member" の翻訳の違いにより、日英均衡+ MonoJa (逆翻訳) の結果(隊員) よりも日英均衡+MonoEn (順翻訳) を用いた翻訳モデルの結果(乗組員)が良いと評価された。\#2 の例では、"moving service fees” の翻訳の違いにより、日英均衡+MonoEn (順翻訳) の結果(移動サービス料)よりも日英均衡 + MonoJa (逆翻訳) を用いた翻訳モデルの結果(引越し料金)が良いと評価された。 逆翻訳によるデータ拡張により翻訳結果の流暢性が向上することは知られているが、BLEU および人手評価の結果から、順翻訳によるデー タ拡張でも翻訳結果の流暢性が向上することがあることが分かる。 4) 2 の出力のうち、どちらが翻訳として適切かどうかを評価した。同じ品質の場合は「同等」と評価した。 & \\ 表 7 日英翻訳の実験結果(小規模対訳データ)学習データ文数 BLEU 日英均衡 (タグ付与) $\quad 150,000 \quad 20.5$ 日英均衡+MonoEn(逆翻訳) $\quad 541,538 \quad 22.7$ 日英均衡+MonoJa(順翻訳) $\quad 541,538 \quad 20.6$ 日英均衡+MonoEn+MonoJa 933,076 22.8 表 8 英日翻訳の実験結果(小規模対訳データ)学習データ文数 BLEU 日英均衡 (タグ付与) $\quad 150,000 \quad 24.6$ 日英均衡+MonoEn(順翻訳) $\quad 541,538 \quad 27.8$ 日英均衡+MonoJa(逆翻訳) $\quad 541,538 \quad 27.8$ 日英均衡+MonoEn+MonoJa 933,076 27.9 小規模対訳データを用いた日英、英日ニュー ス翻訳実験結果を表 7,8 に示す。日英翻訳については、順翻訳と比較して逆翻訳のデータ拡張による翻訳精度の向上が大きかった。英日翻訳については、順翻訳、逆翻訳のデータ拡張による翻訳精度の向上に差はなかった。一方で、日英翻訳、英日翻訳ともに、順翻訳と逆翻訳の両方のデータ拡張による翻訳精度の向上は小さかった。 ## 4 おわりに 本稿では、単言語データによるデータ拡張の効果を、時事通信社のニュースコーパスを用い て検証した。原言語側の単言語データによる順方向の翻訳(順翻訳)と、目的言語側の単言語データによる逆方向の翻訳(逆翻訳)の 2 種類のデータ拡張を用いて日英、英日の翻訳実験を行い、両方のデータ拡張を併用することで翻訳精度が向上することを確認した。さらに、対訳データを小規模にして同様の実験を実施したところ、逆翻訳によるデータ拡張の効果が大きくなることを確認した。「逆翻訳」によるデータ拡張は対訳データが小規模のときに有用であることが知られており[1]、これを裏付ける結果となった。小規模の対訳データの実験では、順翻訳と逆翻訳の 2 種類のデータ拡張の併用による BLEU の向上は小さかったが、本稿でも指摘しているように、BLEU の評価で差が小さい場合でも人手による一対評価で差が大きくなる場合があるので、今後人手評価を実施したい。 ## 謝辞 本研究成果は独立行政法人情報通信研究機構 (NICT) の委託研究「多言語音声翻訳高度化のためのディープラーニング技術の研究開発」により得られたものです。 ## 参考文献 [1] Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 86-96, Berlin, Germany, August 2016. Association for Computational Linguistics. [2] Xuan-Phi Nguyen, Shafiq Joty, Wu Kui, and Ai Ti Aw. Data diversification: A simple strategy for neural machine translation. In Advances in Neural Information Processing Systems 32. Curran Associates, Inc., 2020. [3] Maja Popović, Alberto Poncelas, Marija Brkic, and Andy Way. Neural machine translation for translating into Croatian and Serbian. In Proceedings of the 7 th Workshop on NLP for Similar Languages, Varieties and Dialects, pp. 102-113, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics (ICCL). [4] Tingxun Shi, Shiyu Zhao, Xiaopu Li, Xiaoxue Wang, Qian Zhang, Di Ai, Dawei Dang, Xue Zhengshan, and Jie Hao. OPPO's machine translation systems for WMT20. In Proceedings of the Fifth Conference on Machine Translation, pp. 282-292, Online, November 2020. Association for Computational Linguistics. [5] 田中英輝, 中澤敏明, 美野秀弥, 伊藤均, 後藤功雄, 山田一郎, 川上貴之, 大嶋聖一, 朝賀英裕. 時事通信社ニュースの日英均衡対訳コーパスの構築-第 3 報. 言語処理学会第 27 回年次大会, 2021. [6] 田中英輝, 中澤敏明, 美野秀弥, 伊藤均, 後藤功雄, 山田一郎, 川上貴之, 大嶋聖一, 朝賀英裕. 時事通信社ニュースの日英均衡対訳コーパスの構築-第 2 報. 言語処理学会第 26 回年次大会, pp. 545-548, 2020. [7] 田中英輝, 美野秀弥, 後藤功雄, 山田一郎, 川上貴之, 大嶋聖一, 朝賀英裕. 時事通信社ニュースの日英均衡対訳コーパスの構築-第 1 報. 言語処理学会第 25 回年次大会, pp. 371-374, 2019. [8] Masao Utiyama and Hitoshi Isahara. A japaneseenglish patent parallel corpus. In In proceedings of the Machine Translation Summit XI, 2007. [9] Toshiaki Nakazawa, Hideki Nakayama, Chenchen Ding, Raj Dabre, Shohei Higashiyama, Hideya Mino, Isao Goto, Win Pa Pa, Anoop Kunchukuttan, Shantipriya Parida, Ondřej Bojar, and Sadao Kurohashi. Overview of the 7th workshop on Asian translation. In Proceedings of the 7th Workshop on Asian Translation, pp. 1-44, Suzhou, China, December 2020. Association for Computational Linguistics. [10] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, $Ł$ ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30, pp. 5998-6008. Curran Associates, Inc., 2017. [11] Tobias Domhan, Michael Denkowski, David Vilar, Xing Niu, Felix Hieber, and Kenneth Heafield. The sockeye 2 neural machine translation toolkit at AMTA 2020. In Proceedings of the 14th Conference of the Association for Machine Translation in the Americas (Volume 1: Research Papers), pp. 110115, Virtual, October 2020. Association for Machine Translation in the Americas. [12] Graham Neubig, Yosuke Nakata, and Shinsuke Mori. Pointwise prediction for robust, adaptable Japanese morphological analysis. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 529-533, Portland, Oregon, USA, June 2011. Association for Computational Linguistics. [13] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [14] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [15] Isaac Caswell, Ciprian Chelba, and David Grangier. Tagged back-translation. In Proceedings of the Fourth Conference on Machine Translation (Volume 1: Research Papers), pp. 53-63, Florence, Italy, August 2019. Association for Computational Linguistics.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-4.pdf
# 知識蒸留によるニューラル機械翻訳の高速化検討 今村 賢治 国立研究開発法人 情報通信研究機構 kenji.imamura@nict.go.jp ## 1 はじめに 知識蒸留 (knowledge distillation)[1, 2] は、teacherstudent 方式とも呼ばれ、教師モデルが学習した知識を生徒モデルに移行する方法の一つである。教師モデルと生徒モデルは、アーキテクチャを含めて異なるものを用いることができる。 一方、ニューラル機械翻訳 (NMT) においても、実行時の高速化は、実用性を高めるために必須である。高速化方法にはいくつもの種類があるが、シンプルな方法としては、モデルを縮小(パラメーター の削減)することによる計算量削減と、ビーム幅を狭くすることによる探索空間の削減がある。知識蒸留と組み合わせる場合、教師モデルより小規模な生徒モデルにすることで、高速化する場合が多い。 本稿では、知識蒸留と組み合わせた機械翻訳の高速化について、翻訳品質と翻訳速度の観点から、実験的に検討を行う。知識蒸留と組み合わせた場合、 どの方法が翻訳品質を落とさずに高速化が可能であるのか、検証するのが本稿の目的である。 ## 2 知識蒸留と高速化 ## 2.1 知識蒸留 知識蒸留自体は、教師モデル(teacher model、親モデル parent model とも呼ばれる)が出力する結果を模倣するように、生徒モデル (student model)を学習することを言う。 たとえば、マルチクラス分類タスクでは、出力は全クラスの事後確率分布であるので、(正解クラスだけでなく)すべてのクラスの確率分布が教師モデルと一致するように損失関数を設定し、生徒モデルを学習する [1]。NMT でも、各単語はすべての語彙からのマルチクラス分類によって選択されるため、上記の知識蒸留手法が適用できる(単語レベル知識蒸留と呼ぶ)。 しかし、同様な効果を持ち、さらにシンプルな方 (a) 系列レベル知識蒸留 (b) 逆翻訳 図 1 知識蒸留と逆翻訳の手順 法として、教師の翻訳結果で疑似対訳を作成し、それを基に生徒モデルを訓練する方法も提案されている(系列レベル知識蒸留と呼ぶ)[2]。系列レベル知識蒸留は、データの加工のみで知識蒸留を実現し、 モデルや損失関数は既存の方式を使えるという利点がある。機械翻訳で知識蒸留と言った場合、系列レベル知識蒸留を指すことが多い。 なお、知識蒸留の目的は、教師モデルの知識をできる限り正確に生徒モデルに移すことであるので、一般的には生徒モデルが教師モデルの精度を超えることはない1)。 ## 2.2 逆翻訳との関係 基になる機械翻訳器を使って、疑似対訳を作成するという点で、系列レベル知識蒸留 (以下、単に知識蒸留と呼ぶ)と、逆翻訳法 [6] は似ている(図 1)。最大の違いは、逆翻訳が目的言語を原言語に翻訳することで疑似対訳を生成するのに対して、知識蒸留は原言語を目的言語に翻訳した疑似対訳を使う点である。疑似対訳を作成するデータについては、逆翻訳は対訳コーパスとは異なる単言語コーパスを用いることを前提としているのに対して、知識蒸留は、使用するコーパスを規定していない。そのため、教  表 1 知識蒸留と逆翻訳の対比 師モデルの訓練に使用した対訳コーパスの原言語部分を使う場合も多い。 知識蒸留と逆翻訳の翻訳方向が逆であるという特徵は、人手作成した対訳コーパスの翻訳方向によって効果が変わってしまうという特徴にも繋がる。 文献 [3] では、人手翻訳の方向と逆翻訳の関係を調べ、逆翻訳は目的言語が original(以下「原文」と訳す)で、原言語が translationese(以下人手翻訳文と訳す)の場合に BLEU が向上することを確認した2)。もともと逆翻訳はデコーダーを強化するために開発された手法なので、目的言語に自然な文を与えると翻訳品質は向上する。逆に原言語はさまざまな入力に対応する必要があるので、多様性が求められる。そのため、疑似対訳作成時にサンプリング、 ノイズ混入、複数逆翻訳で多様性を増強させると、翻訳品質が向上する $[4,5]$ 。 一方、知識蒸留では、原言語が原文で、目的言語が人手翻訳文の方が効果が高まる。これは、目的言語の翻訳文が均質(多様性が少ない)になるため、 デコーダーの学習効果が高まるためと考えられる。 また、知識蒸留は教師モデルの出力を模倣させるため、教師モデルの品質が直接生徒モデルの品質に影響する。そのため教師モデルにはできるだけ高品質なものを用いるのが望ましい。知識蒸留と逆翻訳の対比を表 1 にまとめる。 ## 2.3 高速化方法 本稿では、モデルの縮小(パラメーター削減)による高速化と、探索空間の縮小による高速化について検討する。 モデルを縮小するためには、(a) 深層モデルのレイヤー数を削減する方法、(b) 分散表現の次元数を削減する方法がある。 また、ニューラル機械翻訳に特有のパラメーター 2)彼らの実験では、原言語が原文で、目的言語が人手翻訳文の場合は BLEU に対する効果は少なかった。しかし、主観評価では、翻訳方向に関わらず効果があった。削減方法としては、(c) 語彙サイズを縮小する方法がある。語彙サイズを縮小すると、デコーダーの出力層の SoftMax 操作の計算量が削減され、高速化される。近年、NMT ではサブワードを用いることが一般的になっているが、これは語彙数を指定して分割するため、語彙数を制御することが可能である。本稿では、SentencePiece (unigram モデル) [7]によるサブワード化で語彙を縮小する。 探索空間の削減は、(d) 翻訳時のビーム幅を縮小することで高速化を行う。 ## 3 実験 ## 3.1 実験条件 言語対・コーパス本稿では、日本語と英語の科学技術文献対訳コーパスである ASPEC-JE[8]を使用する。このコーパスは、約 300 万文の訓練セット、1,812 文のテストセットなどで構成されている。 ASPEC は、日本語の文献を英語に翻訳したものなので、日本語が原文で、英語が人手翻訳文である。 翻訳システム・環境本稿では、fairseq 翻訳器 [9]を使用する。これは、PyTorch 上に作られた翻訳器で、Transformer [10]を含んでいる。テストに使用したハードウェアは、Intel Xeon Gold 6150 CPU (2.7GHz)、NVIDIA V100 GPU (32GB) 1 個で、OS は CentOS 7.9 である。 教師モデル・知識蒸留教師モデルは、ASPEC の訓練セットをすべて使用して、ランダムシードを変えた Transformer big モデル(6 層、モデル次元数 $1,024, \mathrm{FFN}$ 次元数 4,096)を 4 個作成した。なお、教師モデルの訓練時には、SentencePiece を用いて、日本語、英語それぞれ約 1.6 万のサブワードに分割した。 知識蒸留には、ASPEC の訓練セットすべての原言語側を使用し、上記 4 モデルのアンサンブルで翻訳し、疑似対訳を作成した。 表 2 翻訳方向による知識蒸留の効果 生徒モデル今回使用する生徒モデルは、 Transformer base モデル(6 層、モデル次元数 512、 FFN 次元数 2,048)を基本にし、設定を以下のとおり可変にする。 (a)エンコーダー、デコーダーのレイヤー数をそれぞれ 1,2,4, 6 層にした場合。 (b)モデル次元数を $128,256,512,1024$ にした場合。 なお、FFN 次元数はモデル次元数の 4 倍とし、 ヘッド数は 64 次元固定とする。つまり、モデル次元数を変えるとへッド数が変わることになる。 (c)語彙数を 4 千、 8 千、 1.6 万、 3.2 万、 6.4 万にした場合。2.3 節で述べたように、語彙数は SentencePiece によるサブワード化で制御する。 (d)生徒モデルとしては Transformer base モデルを用いるが、テスト時のビーム幅を $1,2,3,5,7,10$, 20 と変えた場合。 なお本稿では、知識蒸留による疑似対訳を使用した生徒モデルを知識蒸留モデル、ASPEC 訓練セットを直接使って作成したモデルを直接モデルと呼称する。 評価指標本稿では、翻訳品質の評価は case sensitive BLEU [11] で行う。これは Workshop on Asian Translation [12] の評価方法と同じである。 速度の評価は、 1 秒あたりの翻訳トークン数で行う。これは、テストセットのトークン数を翻訳時間 (初期化を含まない)で割ったものである。 ## 3.2 実験結果 ## 3.2.1 日英翻訳 vs. 英日翻訳 まず、翻訳方向による知識蒸留の効果を確認するため、日英翻訳 (original $\rightarrow$ translationese) と英日翻訳 (translationese $\rightarrow$ original) の翻訳品質を確認する。 結果を表 2 に示す。知識蒸留の効果は、日英では Base モデルで+2.03 あるのに対して、英日では+0.45 しかなく、知識蒸留は翻訳方向によって、効果に大きな差があることがわかる。 なお、ASPEC データは、日英の対訳記事から自動で文アライメントを作成しているため、対訳文と 図 2 知識蒸留と直接モデルの比較 ((a)レイヤー削減) 図 3 知識蒸留と直接モデルの比較 ((d) ビーム幅) して(そもそも単語が対応しない)不適切なデータも含まれている。英日翻訳で BLEU が向上した理由は、不適切な対訳文が新たに生成されることで対訳文の品質が向上したためと考えられる。 以下、知識蒸留の効果が大きい日英翻訳に限定して、実験を行う。 ## 3.2.2 知識蒸留モデル vs. 直接モデル 次に、知識蒸留の高速化への効果を確認するため、(a)レイヤー削減、(d) ビーム幅変更について、直接モデルと知識蒸留モデルの翻訳品質と速度を比較する。 図 2 は (a)レイヤー削減について、直接モデルと知識蒸留モデルを比較したグラフである。横軸が翻訳速度、縦軸が BLEU スコアを表している。ボックス内の数字はそれそれエンコーダー、デコーダーのレイヤー数である。どちらのモデルも、レイヤー数を削減するに伴い、翻訳速度が向上し、BLEU スコアは低下する傾向がある。しかし、BLEU スコアに着目すると、6レイヤーから1レイヤーに削減した場合、直接モデルでは 4.63 低下したのに対して、知 表 3 エンコーダー・デコーダーのレイヤー数別の翻訳速度と翻訳品質 図4 モデル縮小方式ごとの翻訳速度と翻訳品質 識蒸留モデルでは 1.83 の低下で収まった。 一方、図 3 は、(d) ビーム幅について同様に比較したグラフである。ボックス内の数字はビーム幅を表す。このグラフでは、ビーム幅を狭くするのに伴い翻訳速度が向上するが、BLEU スコアについては、 ビーム幅を 20 から 1 に変更した場合、直接モデルでは 3.18 低下したのに対して、知識蒸留モデルでは 0.66 の低下にとどまった。 知識蒸留モデルは、目的言語の多様性を低減する方式であるため、モデルパラメーターを少なくしたり、探索空間を狭くしても、翻訳品質の劣化が少ない方式であると言える。 ## 3.2.3高速化に適したモデル縮小法 本節では、(a) レイヤー削減、(b) 次元数の削減、 (c) 語彙サイズについて、知識蒸留と組み合わせた場合の翻訳品質と速度を検証する。 知識蒸留モデルにおける翻訳速度と翻訳品質の関係を図 4 に示す。各データポイントの詳細は省略しているが、モデル縮小方式ごとの傾向は見てとれる。これによると、まず、高速化を目標とした場合、 レイヤー削減による高速化が最も効果が大きく、次元削減による高速化の効果は限定的である。 また、語彙サイズに関しては、大きい場合に翻訳品質が低下する傾向が得られたが、これを小さくしても速度は大きく向上しない。 レイヤー削減が高速化に高い効果がある傾向が得られたため、次に、これを詳細に分析する。表 3 は、 エンコーダーとデコーダーのレイヤー数を独立に変更したときの翻訳品質と速度の測定結果である。 まず、BLEUスコアに着目すると、エンコーダー・ デコーダーともに 6 層の条件から、エンコーダーのみ 1 層に減らした場合、デコーダーのみ 1 層に減らした場合、それぞれ 29.21、29.28であるので、どちらを減らしても翻訳品質への影響は少ない。 一方、翻訳速度に着目すると、エンコーダーのレイヤー数を変更しても、速度への影響は少ない。逆にデコーダーのレイヤー数を削減すると、翻訳速度を速くすることができる。これは、Transformer のエンコーダーは 1 ステップですべての入力トークンを処理するのに対して、デコーダーは自己回帰型 (autoregressive) 方式で、1トークンずつ生成するためである。まとめると、レイヤー数を削減する場合、デコーダーを優先する方が高速化効果が高い。 ## 4 まとめ 知識蒸留は、目的言語の多様性を削減するため、翻訳品質をあまり落とさずに高速化ができる。本稿で確認した知見は以下のとおりである。 - 知識蒸留は、翻訳方向が原文 $\rightarrow$ 人手翻訳文 (ASPEC の場合、日英翻訳)のときに効果が大きい。 ・知識蒸留を行うことで、翻訳品質の低下を抑えて高速化することができる。 ・モデルの縮小方式には、レイヤー数削減が高速化に効果的である。 ・レイヤー数を削減する場合、エンコーダーよりデコーダーを削減した方が効率的に高速化が可能である。 この検討結果を踏まえて、NMT を構築してゆく。 ## 参考文献 [1] Geoffrey Hinton, Oriol Vinyals, and Jeff Dean. Distilling the knowledge in a neural network, 2015. [2] Yoon Kim and Alexander M. Rush. Sequence-level knowl- edge distillation. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1317-1327, Austin, Texas, November 2016. [3] Sergey Edunov, Myle Ott, Marc'Aurelio Ranzato, and Michael Auli. On the evaluation of machine translation SystemsTrained with back-translation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2836-2846, Online, July 2020. [4] Kenji Imamura, Atsushi Fujita, and Eiichiro Sumita. Enhancement of encoder and attention using target monolingual corpora in neural machine translation. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 55-63, 2018. [5] Sergey Edunov, Myle Ott, Michael Auli, and David Grangier. Understanding back-translation at scale. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 489-500, 2018. [6] Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 86-96, 2016. [7] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 66-75, Melbourne, Australia, July 2018. [8] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. Aspec: Asian scientific paper excerpt corpus. In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC 2016), pp. 2204-2208, Portorož, Slovenia, may 2016. [9] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of NAACL-HLT 2019: Demonstrations, 2019. [10] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. CoRR, Vol. abs/1706.03762, , 2017. [11] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 311-318, Philadelphia, Pennsylvania, USA, 2002. [12] Toshiaki Nakazawa, Hideki Nakayama, Chenchen Ding, Raj Dabre, Shohei Higashiyama, Hideya Mino, Isao Goto, Win $\mathrm{Pa} \mathrm{Pa}$, Anoop Kunchukuttan, Shantipriya Parida, Ondřej Bojar, and Sadao Kurohashi. Overview of the 7th workshop on Asian translation. In Proceedings of the 7th Workshop on Asian Translation, pp. 1-44, Suzhou, China, December 2020.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-5.pdf
# Altering Parallel Data into User-Generated Texts with Zero-Shot Neural Machine Translation Benjamin Marie Atsushi Fujita National Institute of Information and Communications Technology \{bmarie, atsushi.fujita\}@nict.go.jp ## 1 Introduction Neural machine translation (NMT) requires large parallel data for training. However, even when trained on large clean parallel data, NMT generates translations of very poor quality when translating out-of-domain or noisy texts. For instance, Michel and Neubig [1] empirically showed that NMT systems trained on clean parallel data poorly perform at translating user-generated texts (UGT) from a social media. UGT can be from various domains and manifest various forms of natural noise which are characteristics of their style. In this paper, we posit that the NMT system should preserve the style during the translation. A major difficulty in training NMT for UGT is that we do not usually have bilingual parallel data of UGT created by professional translators to train or adapt an NMT system. Nevertheless, previous work on NMT for UGT merely focused on scenarios for which we have UGT parallel data, such as the MTNT dataset [1]. In this work, we do not assume the availability of parallel data of UGT. We propose to synthesize parallel data of UGT from monolingual data, through a zero-shot NMT system, to train better NMT systems for UGT. ## 2 Zero-Shot NMT for Synthesizing Parallel Data ## 2.1 Objective and Prerequisites Let $\mathrm{L} 1$ and $\mathrm{L} 2$ be two languages for clean texts and R1 and R2 for the same languages, respectively, but for UGT. The data prerequisites for our NMT system described in Section 2.2 are as follows: - P P1-L2 parallel data of clean and formal texts that are usually used for training NMT, - $\mathrm{M}_{\mathrm{L} 1}$ and $\mathrm{M}_{\mathrm{L} 2}$ monolingual data from any domains, and - $\mathrm{M}_{\mathrm{R} 1}$ and $\mathrm{M}_{\mathrm{R} 2}$ monolingual data of UGT. $\mathrm{P}_{\mathrm{L} 1-\mathrm{L} 2}, \mathrm{M}_{\mathrm{L} 1}$, and $\mathrm{M}_{\mathrm{L} 2}$, parallel and monolingual data, are usually used to build state-of-the-art NMT systems. $\mathrm{M}_{\mathrm{R}}$ and $M_{R 2}$ monolingual data are for UGT, which can be obtained for instance by crawling social media. Our objective is to synthesize parallel data of UGT, which we henceforth denote $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$. To this end, we propose to alter a clean parallel data $\mathrm{P}_{\mathrm{L} 1-\mathrm{L} 2}$ into $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$. We alter the $\mathrm{P}_{\mathrm{L} 1-\mathrm{L} 2}$ parallel data by performing $\mathrm{L} 1 \rightarrow \mathrm{R} 2$ and $\mathrm{L} 2 \rightarrow \mathrm{R} 1$ translations. Note that $\mathrm{L} 1 \rightarrow \mathrm{R} 2$ and $\mathrm{L} 2 \rightarrow \mathrm{R} 1$ are both zero-shot translation tasks, since we do not assume any $\mathrm{P}_{\mathrm{L} 1-\mathrm{R} 2}$ or $\mathrm{P}_{\mathrm{L} 2-\mathrm{R} 1}$ parallel data, nor any parallel data using a pivot language. ## 2.2 Zero-Shot NMT To synthesize parallel data of UGT, i.e., $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$, we build only one multilingual and multidirectional NMT system (see Figure 1). Inspired by previous work in unsupervised NMT [2], we first pre-train a cross-lingual language model to initialize the NMT system. We use the XLM approach [2] trained with the combination of the following two different objectives: Masked Language Model (MLM): MLM has a similar objective to BERT [3] but uses text streams for training instead of pairs of sentences. We optimize the MLM objective on the $\mathrm{M}_{\mathrm{L} 1}, \mathrm{M}_{\mathrm{L} 2}, \mathrm{M}_{\mathrm{R} 1}$, and $\mathrm{M}_{\mathrm{R} 2}$ monolingual data. Translation Language Model (TLM): TLM is an extension of MLM where parallel data are leveraged so that we can rely on context in two different languages to predict masked words. We optimize the TLM objective on $\mathrm{P}_{\text {L1-L2 }}$ parallel data, alternatively exploiting both translation directions. The XLM approach alternates between MLM and TLM objectives to train a single XLM model. We then train Figure 1 Our zero-shot NMT framework. an NMT model, initializing its encoder and decoder embeddings with those of the pre-trained XLM model, and exploiting unsupervised NMT objectives [4] to which we associate a supervised NMT objective as follows: Auto-encoder (AE) objectives: Using a noise model that drops and swaps words, the objective is to reconstruct the original sentences. We use AE objectives for L1, L2, R1, and R2. Back-translation (BT) objectives: For training translation directions for which we do not have parallel data, a round-trip translation is performed during training in which a sentence $s$ from monolingual data is translated, and its translation back-translated, with the objective of generating $s$. We use the BT objectives corresponding to our targeted zero-shot translation directions: $\mathrm{L} 1 \rightarrow \mathrm{R} 2 \rightarrow \mathrm{L} 1, \mathrm{R} 2 \rightarrow \mathrm{L} 1 \rightarrow \mathrm{R} 2, \mathrm{~L} 2 \rightarrow \mathrm{R} 1 \rightarrow \mathrm{L} 2$, and $\mathrm{R} 1 \rightarrow \mathrm{L} 2 \rightarrow \mathrm{R} 1$. Machine translation (MT) objectives: We use this objective for $\mathrm{L} 1 \rightarrow \mathrm{L} 2$ and $\mathrm{L} 2 \rightarrow \mathrm{L} 1$, for which we have parallel data. $\mathrm{AE}$ and BT are unsupervised NMT objectives used to train our zero-shot translation directions. We also use MT objectives for the necessary supervision. ## 3 Parallel Data Alteration As illustrated in Figure 2, given $\mathrm{P}_{\mathrm{L} 1-\mathrm{L} 2}$, we perform $\mathrm{L} 1 \rightarrow \mathrm{R} 2$ and $\mathrm{L} 2 \rightarrow \mathrm{R} 1$ translation for each of $\mathrm{L} 1$ and $\mathrm{L} 2$ sentences, respectively, to obtain a synthetic R1-R2 version, i.e., $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$, of the original $\mathrm{P}_{\mathrm{L} 1-\mathrm{L} 2}$. The resulting Figure 2 Alteration of $\mathrm{P}_{\mathrm{L} 1-\mathrm{L} 2}$ parallel data to synthesize $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$ parallel data. $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$ can be too noisy to be used to train NMT. To filter $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$, we evaluate the similarity between original $\mathrm{L} 1$ and L2 sentences with their respective R1 and R2 versions using sentence-level BLEU [5] (sBLEU). Given a sentence pair in $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$, if either $\mathrm{SBLEU}$ of $\mathrm{L} 1$ with respect to $\mathrm{R} 1$ or sBLEU of L2 with respect to R2 is below a pre-determined threshold $T$, we filter out the sentence pair. ## 4 Experiments ## 4.1 Data We conducted experiments for two language pairs, English-French (en-fr) and English-Japanese (en-ja), with the MTNT translation tasks [1]. The test sets were made from posts extracted from an online discussion website, Reddit. For parallel data, we did not use any of the Reddit parallel data of the MTNT. To make our settings comparable with previous work, we used only the clean parallel data in MTNT as $\mathrm{P}_{\mathrm{L} 1-\mathrm{L} 2}$ data for training and validating our NMT systems. For the en-fr pair, $\mathrm{P}_{\mathrm{L} 1-\mathrm{L} 2}$ data contain 2.2M sentences pairs consisting of the news-commentary (news commentaries) and Europarl (parliamentary debates) corpora provided by WMT15 [6]. For the en-ja pair, $\mathrm{P}_{\text {L1-L2 }}$ data consist of the KFTT (Wikipedia articles), TED (transcripts of online conference talks), and JESC (subtitles) corpora giving in a total of $3.9 \mathrm{M}$ sentence pairs. All $\mathrm{P}_{\mathrm{L1-L} 2}$ parallel data can be considered rather clean and/or formal in contrast to Reddit data. As monolingual data, $\mathrm{M}_{\mathrm{L} 1}$ and $\mathrm{M}_{\mathrm{L} 2}$, we used the entire News Crawl provided for $\mathrm{WMT}^{1)}$ for Japanese, $3.4 \mathrm{M}$ lines, and a sample of $25 \mathrm{M}$ lines for English and French. As $M_{R 1}$ and $M_{R 2}$, we crawled data using the Reddit API. For English and French, we tokenized and truecased all the data with the Moses tokenizer. As for Japanese, we only tokenized the data with MeCab. ${ }^{2)}$ For English, we selected the noisiest part of Reddit, $25 \mathrm{M}$ sentences, similarly to [1] when they built the MTNT dataset. Since there are significantly less Japanese and French Reddit data, $0.8 \mathrm{M}$ and $1.2 \mathrm{M}$ sentences, respectively, we used all the French and Japanese sentences. For validation, we used the $\mathrm{P}_{\mathrm{L} 1-\mathrm{L} 2}$ validation data from the MTNT dataset. For evaluation, we used SacreBLEU [7].3) We tested the significance of our results via bootstrap re-sampling and approximate randomization with MultEval [8].4) ## 4.2 Baselines Systems We evaluated vanilla NMT systems and other baseline systems exploiting tagged back-translation (TBT) and synthetic noise generation (SNI), using the Transformer [9] implementation in Marian [10] with standard hyperparameters for all the NMT systems. We generated back-translations from Reddit monolingual data and News Crawl, tagged [11] and concatenated them to the original $\mathrm{P}_{\mathrm{L} 1-\mathrm{L} 2}$ parallel data, and trained a new NMT system from scratch. In all experiments, we used as much monolingual sentences as in the $\mathrm{P}_{\text {L1-L2 }}$ parallel, or all of the Reddit data for French and Japanese since we do not have enough Reddit data to match the size of $\mathrm{P}_{\text {L1-L2 }}$. We also evaluated the methods proposed by [12] for SNI, since it does not require any manually produced $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}$. We applied their method to $\mathrm{P}_{\mathrm{L} 1-\mathrm{L} 2}$ using their scripts ${ }^{5}$ to create a noisy version of parallel data, i.e., $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$. In addition to the use of the resulting $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$ data for fine-tuning as in [12], we also evaluated NMT systems trained from scratch on the concatenation of the $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$ and $\mathrm{P}_{\mathrm{L} 1-\mathrm{L} 2}$. 1) http://www.statmt.org/wmt20/translation-task.html 2) https://taku910.github.io/mecab/ 3) The sacreBLEU signatures, where $x x$ is among \{en,fr,ja $\}$ are as follows: BLEU+case.mixed+lang.xxxx+numrefs. 1 +smooth.exp+test.mtnt1.1/test+tok.13a+version.1.4.2; chrF2+case.mixed+lang.en-ja+numchars.6+numrefs. 1 +space.False+test.mtnt1.1/test+version.1.4.2 4) https://github.com/jhclark/multeval 5) https://github.com/MysteryVaibhav/robust_mtnt Table 1 Results for the MTNT test sets. TBT systems were trained on back-translations of News Crawl or Reddit monolingual data. " + " indicates that the synthesized parallel data were concatenated to the original $\mathrm{P}_{\mathrm{L} 1-\mathrm{L} 2}$ parallel data. "FT" denotes the fine-tuning of the vanilla NMT system. "*" denotes systems significantly better $(p<0.05)$ than the vanilla NMT system. Table 1 reports on the results. Back-translations of Reddit were mostly useful but dramatically failed for $\mathrm{ja} \rightarrow$ en potentially due to the very low quality of the back-translations generated by the en $\rightarrow$ ja vanilla NMT system. Using backtranslations of News Crawl is more helpful especially for $\mathrm{fr} \rightarrow \mathrm{en}$ and $\mathrm{ja} \rightarrow \mathrm{en}$. Fine-tuning our vanilla NMT system on SNI improves translation quality for all the tasks, except en $\rightarrow \mathrm{ja}$. Using the $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$ synthetic parallel data concatenated to the original $\mathrm{P}_{\mathrm{L} 1-\mathrm{L} 2}^{\mathrm{S}}$ leads to lower BLEU scores than fine-tuning, except for $\mathrm{ja} \rightarrow \mathrm{en}$. ## 4.3 System Settings for our Approach To train XLM, we used the data presented in Section 4.1 on which we applied the same BPE segmentation used by our vanilla NMT systems. For the MLM objectives, we used the News Crawl corpora as $\mathrm{M}_{\mathrm{L} 1}$ and $\mathrm{M}_{\mathrm{L} 2}$ and the Reddit corpora as $M_{R 1}$ and $M_{R 2}$ monolingual data. For the TLM objectives, we used the parallel data used to train our vanilla NMT system as $\mathrm{P}_{\mathrm{L} 1-\mathrm{L} 2}$ parallel data. We used the publicly available XLM framework ${ }^{6}$ ) with the standard hyper-parameters proposed for unsupervised NMT. We used text streams of 256 tokens and a mini-batch size of 64. The Adam optimizer [13] with a linear warmup [9] was used. During training, the model was evaluated every $200 \mathrm{k}$ sentences on the MTNT validation parallel data for TLM and the monolingual validation data of MTNT for MLM. The training was stopped when the averaged perplexity of MLM and TLM had not been improved for 10 consecutive times. We initialized our zero-shot NMT with XLM and trained 6) https://github.com/facebookresearch/XLM. The only difference is that we used our data in different languages, which is also used to train our own BPE vocabulary. Figure 3 Examples of English sentences from the Europarl and News Commentary corpora (L1) altered by our approach (R1). Bold indicates the alterations that we want to highlight for each example. We have manually masked a profanity in En4 with “*******”. Table 2 Results for the MTNT test sets using $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$ synthesized by our approach. "zero-shot NMT" is the NMT system used for synthesizing $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$. "FT on $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$ " are configurations for which we sampled 100k sentence pairs from $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$ to fine-tune the vanilla NMT system. The last row is given for reference: the vanilla NMT system fined-tuned on the official MTNT training parallel data. "*" denotes systems significantly better $(p<0.05)$ than the FT on SNI system. } \\ With the Reddit training parallel data from MTNT $\begin{array}{lllll}\text { FT on MTNT } & 29.0^{*} & 27.5^{*} & 9.9^{*} & 0.192^{*}\end{array}$ it with the AE, BT, and MT objectives presented in Section 2.2, all having the same weights, using the same hyper-parameters as XLM. We evaluated the model every 200k sentences on the MTNT validation parallel data and stopped training when the averaged BLEU of $\mathrm{L} 1 \rightarrow \mathrm{L} 2$ and $\mathrm{L} 2 \rightarrow \mathrm{L} 1$ had not been improved for 10 consecutive times. Finally, we synthesized $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$ data with our approach using this system, and filtered them with $T=0.5$ for en-fr and $T=0.25$ for en-ja, respectively, resulting 196,788 and 301,519 sentence pairs. Then, we trained our final NMT models on the resulting $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$. ## 4.4 Results The results of our models are presented in Table 2. First, we checked the performance of our zero-shot NMT system. Whereas for fr $\leftrightarrow$ en, it was comparable with the vanilla NMT system, for ja $\leftrightarrow$ en, it performed much worse than the vanilla NMT model as expected. This is due to the use of unsupervised MT objectives that were shown to be very difficult to optimize for distant and difficult language pairs [14] with almost no shared entries in the respective vocabulary of the two languages. Fine-tuning on $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$ brings larger improvements than doing so on SNI, except for $\mathrm{fr} \rightarrow \mathrm{en}$. Despite the small size of the $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$, concatenating it with $\mathrm{P}_{\mathrm{L} 1-\mathrm{L} 2}$ achieves the best BLEU with up to 3.0 BLEU points of improvements. We conclude that our approach successfully alters $\mathrm{P}_{\mathrm{L} 1-\mathrm{L} 2}$ into $\mathrm{P}_{\mathrm{R} 1-\mathrm{R} 2}^{\mathrm{S}}$ useful data to train NMT for UGT. ## 5 Example of Clean Sentences Altered into UGT For a more concrete illustration of our synthetic data, we present in Figure 3 four English example sentences altered by our approach. These examples are all instances of a successful alteration of clean texts into UGT. En1 introduces an English contraction "we're" that is a characteristic of less formal English. En2 and En3 show spelling errors that may guide the system to make itself more robust. En4 introduces an instance of Internet slang with a profanity. We also observed many instances of person names written with Reddit syntax for referring to a Reddit user account by prepending "/u/," e.g., "Berlusconi" becomes "/u/Berlusconi." All these examples are evidences that our approach successfully generates UGT in the style of Reddit. ## 6 Conclusion We described our method for synthesizing parallel data to train better NMT systems for UGT. We successfully altered clean parallel data into parallel data that exhibit the characteristics of UGT of the targeted style. We showed that it improves translation quality for UGT. Acknowledgments: This work was partly supported by JSPS KAKENHI grant numbers 20K19879 and 19 H05660. ## References [1] Paul Michel and Graham Neubig. MTNT: A testbed for machine translation of noisy text. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 543-553, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [2] Alexis Conneau and Guillaume Lample. Cross-lingual language model pretraining. In Proceedings of Advances in Neural Information Processing Systems 32, pp. 70577067, Vancouver, Canada, 2019. Curran Associates, Inc. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, USA, June 2019. Association for Computational Linguistics. [4] Guillaume Lample, Myle Ott, Alexis Conneau, Ludovic Denoyer, and Marc' Aurelio Ranzato. Phrase-based \& neural unsupervised machine translation. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 5039-5049, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [5] Chin-Yew Lin and Franz Josef Och. ORANGE: A method for evaluating automatic evaluation metrics for machine translation. In Proceedings of the 20th International Conference on Computational Linguistics, pp. 501-507, Geneva, Switzerland, aug 23-aug 272004. [6] Ondřej Bojar, Rajen Chatterjee, Christian Federmann, Barry Haddow, Matthias Huck, Chris Hokamp, Philipp Koehn, Varvara Logacheva, Christof Monz, Matteo Negri, Matt Post, Carolina Scarton, Lucia Specia, and Marco Turchi. Findings of the 2015 workshop on statistical machine translation. In Proceedings of the Tenth Workshop on Statistical Machine Translation, pp. 1-46, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [7] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics. [8] Jonathan H. Clark, Chris Dyer, Alon Lavie, and Noah A. Smith. Better hypothesis testing for statistical machine translation: Controlling for optimizer instability. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 176-181, Portland, USA, June 2011. Association for Computational Linguistics. [9] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of Advances in Neural Information Processing Systems 30, pp. 5998-6008, Long Beach, USA, 2017. Cur- ran Associates, Inc. [10] Marcin Junczys-Dowmunt, Roman Grundkiewicz, Tomasz Dwojak, Hieu Hoang, Kenneth Heafield, Tom Neckermann, Frank Seide, Ulrich Germann, Alham Fikri Aji, Nikolay Bogoychev, André F. T. Martins, and Alexandra Birch. Marian: Fast neural machine translation in C++. In Proceedings of ACL 2018, System Demonstrations, pp. 116-121, Melbourne, Australia, July 2018. Association for Computational Linguistics. [11] Isaac Caswell, Ciprian Chelba, and David Grangier. Tagged back-translation. In Proceedings of the Fourth Conference on Machine Translation (Volume 1: Research Papers), pp. 53-63, Florence, Italy, August 2019. Association for Computational Linguistics. [12] Vaibhav Vaibhav, Sumeet Singh, Craig Stewart, and Graham Neubig. Improving robustness of machine translation with synthetic noise. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 1916-1920, Minneapolis, USA, June 2019. Association for Computational Linguistics. [13] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. CoRR, Vol. abs/1412.6980, , 2014. [14] Benjamin Marie, Haipeng Sun, Rui Wang, Kehai Chen, Atsushi Fujita, Masao Utiyama, and Eiichiro Sumita. NICT’s unsupervised neural and statistical machine translation systems for the WMT19 news translation task. In Proceedings of the Fourth Conference on Machine Translation (Volume 2: Shared Task Papers, Day 1), pp. 294-301, Florence, Italy, August 2019. Association for Computational Linguistics.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-6.pdf
# 逆順デコーダを用いた係り受け構造に基づく Transformer ニュー ラル機械翻訳 佐々木 拓馬 ${ }^{1}$, 田村 晃裕 ${ }^{1}$, 出口 祥之 ${ }^{2}$, 二宮 崇 ${ }^{2}$, 加藤 恒夫 ${ }^{1}$ 1 同志社大学 理工学部, 2 愛媛大学 大学院理工学研究科 ${ }^{1}$ \{cgub0052@mail4, aktamura@mail, tsukato@mail\}.doshisha.ac.jp 2 \{deguchi@ai., ninomiya@\}cs.ehime-u.ac.jp ## 1 はじめに 自然言語処理の分野において機械翻訳は古くから盛んに研究されており,近年では,ニューラルネットワークを用いた機械翻訳(Neural Machine Translation; NMT)が主流となっている. NMT の中でも,特に,文内の単語間の関連の強さを捉える self-attention を備えた Transformer NMT [7] が,NMT 初期に広く使われていた RNN や CNN ベースの NMT の翻訳精度を上回り,現在注目を集めている。 これまで,統計的機械翻訳や NMT では,文構造 (句構造や係り受け構造など)を考慮することで翻訳精度が改善されている. Transformer NMT においても例外ではなく, 原言語文や目的言語文の文構造を活用することで,その翻訳精度が向上することが報告されている $[1,3,6,9,10,11,13]$. 出口ら [13] は, self-attention の一部に対して, 係り先の単語に注意が向くような制約を与えて学習することで,文の係り受け構造を捉える self-attention(以降, dependency-based self-attention(DBSA)と呼ぶ)を提案し,Transformer NMT のエンコーダとデコーダで DBSA を使うことで,翻訳時に原言語文と目的言語文の係り受け構造を考慮して翻訳を行うモデルを提案した. そして, Asian Scientific Paper Excerpt Corpus (ASPEC) [5] の日英, 英日翻訳において翻訳精度の改善を確認している。 通常の Transformer NMT では,デコーダの selfattention を学習する際,推論時には生成していない単語に対する関連を算出しないように自身より後方の単語をマスクする. 出口らのモデルにおいても, デコーダの DBSA が未生成の単語に対して注意を向けないように,自身より後方の単語に係る係り受け関係はマスクして学習される. そのため, デコーダの DBSA は後方に向かう係り受け関係は活用できな い。一方,言語によっては,後方に向かう係り受け関係が多く生じる。例えば日本語では,通常,係り先は自分の文節より後方の文節になる。そのような言語が目的言語の場合,デコーダの DBSA の効果が十分に得られないと考えられる。文献 [13] において,日英翻訳では提案モデルにより BLEUが 1.04 ポイント向上したが,英日翻訳では 0.30 ポイントの向上にとどまっていることもこれを裏付けていると考えられる。 そこで本研究では,ほとんどの係り受け関係において係り先が自身より後方になる日本語が目的言語となる翻訳を想定し,目的言語文(日本語文) の文構造を self-attention で効果的に捉えるための Transformer NMT モデルを提案する。具体的には, DBSA に基づくモデル [13] のデコーダにおいて,目的言語文を文頭単語から順に生成するのではなく,文末単語から順に通常の逆順で生成する。この逆順デコーダにより,自身より後方の単語に係る係り受け関係に対して,係り先の単語は係り元の単語より先に生成されるため,マスクされることなくデコー ダの DBSA で捉えることが可能となる。 ASPEC の英日翻訳実験において提案モデルと従来の出口らのモデル [13] を比較した結果, 目的言語文を逆順で生成することにより,DBSA に基づく Transformer NMT の性能が,学習データが 10 万文対の場合は BLEU で 0.74 ポイント, 100 万文対の場合は 0.11 ポイント改善することを確認した. ## 2 従来モデル:DBSAに基づくTransformer NMT 本節では,提案モデルの基礎となる DBSA に基づく Transformer NMT [13] を概説する。概要図を図 1 に示す. DBSA に基づくモデルは,Transformer NMT [7] のエンコーダとデコーダに,係り受け関係 図 1 DBSA に基づくTransformer NMT [13] の概要図 を一部のヘッドで捉える multi-head self-attention である DBSA を導入し,原言語文と目的言語文の係り受け構造を考慮した翻訳を行う,図 1 では,DBSA が $p_{\text {enc }}$ 層目のエンコーダと $p_{d e c}$ 層目のデコーダに組み込まれている. DBSA に基づくモデルの学習では,次式の目的関数 $\mathscr{L}$ 最小化することで,翻訳と係り受け解析を同時に学習する. $ \mathscr{L}=\mathscr{L}_{\text {trans }}+\lambda_{\text {enc }} \mathscr{L}_{\text {encdep }}+\lambda_{\text {dec }} \mathscr{L}_{\text {decdep }} $ ここで, $\lambda_{\text {enc }}>0$ と $\lambda_{\text {dec }}>0$ はハイパーパラメー タである. $\mathscr{L}_{\text {trans }}$ は翻訳に関する誤差であり,ラベル平滑化交差エントロピーにより算出する。また, $\mathscr{L}_{\text {encdep }}$ と $\mathscr{L}_{\text {decdep }}$ はそれぞれエンコーダ側とデコーダ側の DBSA で捉える係り受け解析に関する誤差であり,交差エントロピーによって算出する。 ただし, $\mathscr{L}_{\text {decdep }}$ を算出する際は,推論時には予測していない単語に注意を向けないようにするため,自身より後方の単語への係り受け関係はマスクされる。 ## 2.1 Transformer NMT Transformer NMT は,入力文を中間表現に変換するエンコーダと中間表現から出力文を生成するデコーダを組み合わせたエンコーダ・デコーダモデルである. エンコーダやデコーダの入力は, 入力単語の埋め込み表現に,入力単語の文における位置情報をエンコードした位置エンコーディングを加えた ものである.エンコーダとデコーダでは,それぞれエンコーダレイヤとデコーダレイヤが複数層積み重ねられている。エンコーダレイヤは,入力側から順に, self-attention, 位置毎のフィードフォーワードネットワークの 2 つのサブレイヤで構成されている. デコーダレイヤはエンコーダレイヤのサブレイヤに,原言語文と目的言語文間の encoder-decoder attention を加えた 3 つのサブレイヤで構成されている. 各サブレイヤ間では,残差接続を行った後,層正規化が適用される. self-attention 及び encoder-decoder attention は multihead attention により実現される. multi-head attention は, 単語間の関連の強さを捉える機構であり, 単語の埋め込み次元 $(d$ 次元 $)$ を $n_{\text {head }}$ 個の $d_{\text {head }}\left(=d / n_{\text {head }}\right)$次元の部分空間に射影し,部分空間毎に attention の計算を行う.各部分空間をへッドと呼ぶ. $h$ 番目のヘッドでは, $h$ 番目の部分空間に射影された multi-head attention の入力 $Q_{h}, K_{h}, V_{h}$ に基づき,次式の演算により,単語間の関連の強さを重みとする重み付き和表現 $M_{h}$ を得る。 $ \begin{array}{r} A_{h}=\operatorname{softmax}\left(d_{\text {head }}^{-0.5} Q_{h} K_{h}^{T}\right) \\ M_{h}=A_{h} V_{h} \end{array} $ ここで, $A_{h}$ が単語間の関連の強さを表す行列である. ただし,デコーダの self-attention を学習する際は,推論時には予測していない単語との関連を求めないように, $Q_{h}$ の各単語に対する後方の単語を表す $K_{h}$ の各成分をマスクしてから $A_{h}$ を求める. 全へッドの計算が終わったら,それらの出力 $M_{1, \ldots, n_{\text {head }}}$ を結合し,単語の埋め込み次元に線形変換した以下の $M$ が, multi-head attention の出力となる. $ M=W^{M}\left[M_{1} ; M_{2} ; \ldots ; M_{n_{\text {head }}}\right] $ ここで, $W^{M} \in \mathbb{R}^{d \times d}$ はパラメータ行列である. 目的言語文は,デコーダの最終層の出力を単語の語彙数次元に線形変換した後,ソフトマックス関数をかけることで得られる単語出力確率分布に基づき生成する。 ## 2.2 DBSA DBSA は, multi-head attention の一部のヘッドにおいて, Deep Biaffine parser [2] の要領で係り受け関係を捉える。具体的には,係り受け関係を捉えるへッドの入力を $Q_{d e p}, K_{d e p}, V_{d e p}$ とすると,まず次式の通り,bi-affine 変換によって単語間の係り受け関 係を示す行列 $A_{\text {dep }}$ を求める. $ A_{d e p}=\operatorname{softmax}\left(Q_{d e p} U^{(1)} K_{d e p}^{\top}+Q_{d e p} U^{(2)}\right) $ ここで, $U^{(1)} \in \mathbb{R}^{d_{\text {head }} \times d_{\text {head }}}, U^{(2)}=\overbrace{(\mathbf{u} \ldots \mathbf{u})}^{n}, \mathbf{u} \in$ $\mathbb{R}^{d_{\text {head }}}$ はパラメータ行列である. また, $A_{d e p}$ の要素 $A_{d e p}[v, w]$ は, 単語 $w$ が単語 $v$ の係り先である確率を示している. その後, $A_{d e p}$ と $V_{d e p}$ をかけ合わせることで単語間の係り受け関係の強さを重みとする重み付き和表現 $M_{d e p}$ を得る. $ M_{d e p}=A_{d e p} V_{d e p} $ multi-head self-attention において,ある 1 つのへッドを $M_{d e p}$, 残りを通常のヘッドとしたものが DBSA である. つまり, $M_{\text {dep }}$ と $n_{\text {head }}-1$ 個の通常のへッド $\left(M_{2, \ldots, n_{\text {head }}}\right)$ を結合し, 単語の埋め込み次元に線形変換した以下の $M^{(p)}$ が,DBSA の出力である. $ M^{(p)}=W^{M^{(p)}}\left[M_{\text {dep }} ; M_{2} ; \ldots ; M_{n_{\text {head }}}\right] $ ここで, $W^{M^{(p)}} \in \mathbb{R}^{d \times d}$ はパラメータ行列である. DBSA はサブワード列に適用できるように拡張されている. サブワード単位の DBSA は,まず,単語単位の係り受け構造をサブワード単位の係り受け構造に変換する. 具体的には,1つの単語が複数のサブワードを含む場合,右端以外の各サブワードの係り先は隣接する右側のサブワードとし,右端のサブワードの係り先は元の単語の係り先1)とする. その後, 変換したサブワード単位の係り受け構造に対して DBSA を適用することで,サブワード列に対して DBSA に基づくモデルが適用できる. ## 3 提案モデル:逆順デコーダを用い た DBSA に基づく Transformer NMT 2 節で述べた通り,従来の DBSA に基づくモデルは,デコーダの DBSA を学習する際,自身より後方の単語に係る係り受け関係はマスクされるため, 目的言語文内の後方への係り受け関係を捉えることができない。一方で,日本語は自分より後方の文節に係るという特徴があるため, 日本語が目的言語である場合,従来モデルでは日本語文の係り受け関係をほとんど活用できない. そこで提案モデルでは,目的言語文を文末から文頭に向かって生成する逆順デコーダを導入することで前記問題点を解決する.具体的には,提案モデル 1)係り先の単語が複数のサブワードを含む場合,左端のサブワードを係り先とする。 (a) 目的言語文とその係り受け構造 (b) 従来モデルのDBSA (c) 提案モデルのDBSA 図 2 従来モデルと提案モデルのデコーダ側の DBSA の例 を学習する際の目的言語文として,対訳データの目的言語文を逆順に並べ替えた文を用いる。これにより,元の文では自身より後方にあった係り先が並び替え後は前方に位置することになり,その係り先への係り受け関係がマスクされずに学習できる. そして推論時には,学習した逆順デコーダを用いて,目的言語文を文末から文頭に向かって生成する.これにより,元の文では後方に向かう係り受け関係を捉えながら翻訳を行うことが可能となる。そして最後に,逆順デコーダで生成した逆順の目的言語文を逆から並べ変えた文を翻訳文として出力する。こうすることで,自分より後方に係るという特徴を持つ日本語を目的言語とする翻訳において,提案モデルは日本語文の係り受け構造を活用でき,翻訳精度の向上が期待できる. 図 2 に従来モデルと提案モデルのデコーダ側の DBSA の例を示す. 例文は ASPEC の日本語文の実例である. 図 2 において,斜線のセルはマスクされる要素,黒いセルは係り先を表す。つまり,学習時には,係り受け関係を捉えるへッドは黒いセルの確率が 1 に近づくように学習される. 図より, 従来モデルでは,ほとんどの係り受け関係がマスクされて考慮されないことが分かる. これは日本語の係り受け関係が文頭に近い方から文末に近い方に係る特徴があるためである.また,従来モデルをサブワード 列に適用する際,単語内の各サブワードは,右端のサブワードを除き,右隣に係るように係り受け構造の変換が行われる(2.2 節参照)ため,単語内のサブワード間の係り受け関係も考慮されない。一方で,提案モデルのデコーダでは,目的言語文を逆順にして扱うため,全ての係り受け関係がマスクされずに考慮できていることがわかる. ## 4 実験 ## 4.1 実験設定 提案モデルの有効性を確かめるため, ASPEC の日英翻訳タスクにおいて,提案モデルを従来の DBSA に基づくモデル [13] と比較する. それぞれのモデルを「DBSA (逆順)」,「DBSA (正順)」と表記する. また,係り受け構造を活用しない Transformer NMT に対しても,逆順デコーダの有効性を確認するため, Transformer NMT モデル [7] とその Transformer NMT において目的言語文を逆順で扱うモデルの性能も評価する。それぞれのモデルを「Transformer (正順)」,「Transformer(逆順)」と表記する. データセットは ASPEC[5] の日英対訳コーパスを使用した.学習データは train-1.txt から抽出した上位 10 万文対と, train-1.txt と train-2.txt から抽出した上位 150 万文対の 2 種類を用いた. 英語の単語分割には Moses Tokenizer,日本語文の単語分割には KyTea を用いた. また,各文は BPEによりサブワードに分割した. 原言語側と目的言語側で独立に BPE モデルを学習し, それぞれの語彙数は 16,000 トークンとした. 英語文の係り受け解析には Stanza, 日本語文の係り受け解析には EDAを用いた. 従来モデル及び提案モデルの設定は, 基本的には文献 [13] に従った. 文献 [13] の設定からの変更点は, DBSAを組み込む層を $p_{e n c}=3, p_{d e c}=3$ とし, ミニバッチの大きさを 100 文,エポック数を学習データが 10 万文対の時は 50 エポック,150万文対の時は 20 エポックとした点である. また,ハイパーパラメータ $\lambda_{e n c}, \lambda_{d e c}$ は,0.05,0.1,0.5,1.0を試し,開発データで最も良い性能であった值を評価時に採用した。 ## 4.2 実験結果 表 1 に実験結果を示す。翻訳性能は BLEUにより評価した. 表 1 より,学習データが 10 万文対と 150 万文対の両方の場合において,DBSA(正順)より提案モデルである DBSA(逆順)の方が翻訳精度が表 1 実験結果 高いことが分かる. 具体的には,DBSA(逆順)は DBSA(正順)と比べて,学習データが 10 万文対の場合は BLEUで 0.74 ポイント,学習データが 150 万文対の場合は 0.14 ポイント翻訳性能が高い。これより,逆順デコーダを用いることで,DBSAに基づく Transformer NMT の英日翻訳性能が改善でき,提案手法が英日翻訳において有効であることを確認した. また,係り受け構造を活用しない Transformer NMT においても,逆順デコーダを用いることで,学習データが 10 万文対の場合は BLEU が 0.53 上がり, 150 万文対の場合は BLEU が 0.24 上がっていることが分かる. これは, 文献 [8] などで報告されている通り, Transformer の self-attention の一部では係り受け関係などの文構造を捉えている可能性があり,係り受け構造を教師信号として与えなくても,逆順デコーダを用いることで潜在的に係り受け関係に近い構造を self-attention で捉えることが可能になり,DBSA に基づくTransformer モデルと同様の効果が表れたのではないかと思われる. ## 5 おわりに 本研究では,係り先が自身より後方になる特徵を持つ日本語が目的言語の場合の翻訳精度を改善するため,DBSA に基づく Transformer NMT において目的言語文を逆順で生成する逆順デコーダを活用する手法を提案した.ASPEC の英日翻訳タスクの評価実験を通じて,提案手法により,学習データが 10 万文対の場合は BLEU が 0.74 ポイント, 100 万文対の場合は 0.14 ポイント改善することを確認した.今後は中日翻訳などの英日翻訳以外の翻訳対に対する有効性を確認したい. また,文献 [4] や [12] などのように正順方向と逆順方向のデコーダを組み合わせた方法への拡張も行いたい。 ## 参考文献 [1] Emanuele Bugliarello and Naoaki Okazaki. Enhancing machine translation with dependency-aware self-attention. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1618-1627, 2020. [2] Timothy Dozat and Christopher D Manning. Deep biaffine attention for neural dependency parsing. arXiv preprint arXiv:1611.01734, 2016. [3] Chunpeng Ma, Akihiro Tamura, Masao Utiyama, Eiichiro Sumita, and Tiejun Zhao. Improving neural machine translation with neural syntactic distance. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 2032-2037, 2019 [4] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. NTT neural machine translation systems at WAT 2019. In Proceedings of the 6th Workshop on Asian Translation, pp. 99-105, 2019. [5] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. Aspec: Asian scientific paper excerpt corpus. In Proceedings of the 10th International Conference on Language Resources and Evaluation, pp. 2204-2208, 2016. [6] Yutaro Omote, Akihiro Tamura, and Takashi Ninomiya. Dependency-based relative positional encoding for transformer nmt. In Proceedings of the International Conference Recent Advances in Natural Language Processing 2019, pp. 854-861, 2019 [7] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In $A d$ vances in Neural Information Processing Systems 30, pp. 5998-6008. 2017. [8] Elena Voita, David Talbot, Fedor Moiseev, Rico Sennrich, and Ivan Titov. Analyzing multi-head self-attention: Specialized heads do the heavy lifting, the rest can be pruned. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5797-5808, 2019. [9] Xing Wang, Zhaopeng Tu, Longyue Wang, and Shuming Shi. Self-attention with structural position representations. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 1403-1409, 2019. [10] Shuangzhi Wu, Dongdong Zhang, Zhirui Zhang, Nan Yang, Mu Li, and Ming Zhou. Dependency-to-dependency neural machine translation. IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol. 26, No. 11, pp. 2132-2141, 2018 [11] Meishan Zhang, Zhenghua Li, Guohong Fu, and Min Zhang. Syntax-enhanced neural machine translation with syntax-aware word representations. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 1151-1161, 2019. [12] Long Zhou, Jiajun Zhang, and Chengqing Zong. Synchronous bidirectional neural machine translation. Transactions of the Association for Computational Linguistics, Vol. 7, pp. 91-105, 2019. [13] 出口祥之, 田村晃裕, 二宮崇. 係り受け構造に基づく attention の制約を用いた transformerニューラル機械翻訳. 自然言語処理, Vol. 27, No. 3, pp. 553-571, 2020.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-7.pdf
# 人手書き起こしの知識を用いた音声認識誤りに頑健な機械翻訳 福田りょう 須藤克仁 中村哲 奈良先端科学技術大学院大学 \{fukuda.ryo.fo3, sudoh, s-nakamura\}@is.naist.jp ## 1 はじめに 一般的な音声翻訳システムは, 発話をテキスト化する音声認識モデル (ASR) と,テキストを他言語へ翻訳する機械翻訳モデル (MT) を持つ.こうしたシステムにおいて, MT が入力として受け取る ASR 出力には音声認識誤りが含まれることがあり, 翻訳精度低下の原因となる。 本研究では, 高精度かつ音声認識誤りに対して頑健な音声翻訳システムの実現を目的とし, 人手の書き起こしと ASR の出力を効果的に組み合わせた機械翻訳モデルの学習手法を提案する. 具体的には, 書き起こしを入力として学習した MT の出力を教師信号として, ASR 出力を入力とする MTを学習する.これは, 高品質な対訳で学習した教師モデルの知識を実環境用のモデルへ引き継ぐ知識蒸留であり, 高い翻訳精度を維持しつつ音声認識誤りに対して頑健になることを期待するものである. 実験では, 書き起こしと音声認識誤りを混合して学習させたモデルに対して, およそ $0.5 \mathrm{pt}$ の BLEU スコア向上を示した. また, ドメイン適応学習の手法である Fine-tuning との併用を検討し, より高い翻訳精度が得られることを確認した。 ## 2 関連研究 音声翻訳システムにおける, ASR 出力の曖昧性や音声認識誤りを考慮した機械翻訳の研究がこれまで多く行われている. Sperber ら [1] は ASR のラティス構造を, Osamura ら [2] は ASR の出力分布をニュー ラル機械翻訳 (NMT) の入力として用いることで, ASR 出力の曖昧性を考慮する翻訳手法を提案した. Sperber ら [3], Xue ら [4] は, 対訳の原言語文に擬似的な音声認識誤りを含ませることで, 音声認識誤りに対する翻訳精度が向上することを示した。 知識蒸留 (Knowledge Distillation) [5, 6] は, 機械学習において教師モデルの出力を生徒モデルに模倣させる学習手法であり, よりパラメータの多い複雑なモ (a) Knowledge Distillation (b) Fine-tuning 図 1 本稿の学習方式. デルから軽量なモデルへ, あるいは高機能で低速なモデルから高速なモデルへといった形で利用されてきた. また, 低資源下における機械翻訳の学習手法としてドメイン適応 (Domain Adaptation) [7] が知られている.ドメイン適応は, 対訳データの少ない対象ドメインの翻訳学習に, 外部ドメインの対訳データや対象ドメインの単言語データを利用する手法である。 Di Gangi ら [8] は, 話し言葉機械翻訳において, 書き起こしと ASR 出力を併用したドメイン適応学習を行うことで,一方のみを用いた場合と比較して翻訳精度が向上することを示した. 本研究では, 書き起こしと ASR 出力のより効果的な活用を目指し, 知識蒸留に基づく学習, 及びドメイン適応との併用を検討した. ## 3 提案手法 ## 3.1 知識蒸留 知識蒸留を用いた学習の概略を図 1(a) に示す.まず教師モデル $\left(N M T_{\text {teacher }}\right)$ として, 人手による書き起こし $\left(X_{\text {gold }}\right)$ を入力とした機械翻訳を学習する。 表 1 Fisher データセットのデータ統計. 対訳文の数と, 前処理後のファイルのトークン数. Dev, Test データにおいては 4 通りの Disfluent translation, 2 通りの Fluent translation がそれぞれ用意されている 続いて, 生徒モデル $\left(N M T_{\text {student }}\right)$ として ASR 出力 $\left(X_{a s r}\right)$ を入力とした機械翻訳を学習する.この時, 出力 $\left(Y_{\text {asr }}^{\prime}\right)$ が教師モデル $\left(Y_{\text {gold }}^{\prime}\right)$ と同一になるように交差エントロピー損失の最小化が行われる. 知識蒸留の手法として sequence-level knowledge distillation [9] を用いる.これは, 教師モデルの出力分布を学習する word-level knowledge distillation と対照的に, 教師モデルでビーム探索を行い, 決定した出力トークンの系列を学習する方式である. また, 教師と生徒のモデル構造は同一とする.つまり一般的な知識蒸留が「"強い"モデルの知識を"弱い"モデルへ蒸留する」ことに対し,ここでは「"強いデータ"で学習したモデルの知識を"弱いデータ"で学習するモデルへ蒸留する」ことを行う。 ## 3.2 ドメイン適応 今回, ドメイン適応の典型的な手法である Multi-domain 学習 [7] と Fine-tuning [10] を検討した. Multi-domain 学習はドメイン外データとドメイン内データを混合して学習に用いる手法である。 Fine-tuning は, ドメイン外データでモデルを事前学習後, ドメイン内データで追加学習を行う手法である. 図 1(b) に Fine-tuning による学習の概略を示す. 上段では, 人手による書き起こしを入力としてニューラル機械翻訳 (NMT) の事前学習を行い, 後段では, ASR 出力を大力として $N M T$ を追加学習する. ## 4 実験 ## 4.1 実験設定 ## 4.1.1 データセット 実験には, IWSLT 2020 Conversational Speech Translation [11] の Fisher データセットを使用して, スペイン語から英語へのテキスト翻訳を学習する.これは, 160 時間のスペイン語会話音声とその書き起こし (Gold transcript) である LDC Fisher Spanish speech コー パス [12] に ASR 出力 (ASR output) と英語の翻訳テ キスト (Disfluent translation) [13], フィラーや言い淀みなどを除去した流暢な英語の翻訳テキスト (Fluent translation) [14] を加えたマルチウェイ対訳データセットである. その中で, 今回は Gold transcript, ASR outputを入力として, Fluent translation を出力として用いた. データ統計を表 1 に示す. ## 4.1.2 モデル Transformer [15] を構築した. Transformer の構成およびハイパーパラメータは transformer_base [15] に準じる. Encoder, Decoder はそれぞれ 6 層とし,トークンの埋め込みべクトル, 各層の隠れ状態べクトル, フィードフォーワードネットワークの次元数をそれぞれ 512, 512, 2048 とした. サブレイヤの dropout は 0.1 の確率で行い, Multi-head attention のヘッド数は 8 とした. 最適化アルゴリズムは Adam を使用し, そのパラメータを $\beta_{1}=0.9, \beta_{2}=0.997$ に設定の上, 学習率の初期値を 0.0007 として Vaswani ら [15] の方法で学習率を変化させた. ミニバッチのサイズは 4096 トークンとして, 8 個積み重ねて 1 回更新することを学習が収束するまで行った. モデルは 5000 回更新する毎に Dev セットで損失を計算し, 最終的に最も小さい値を獲得したモデルでテストを行った. またデータは, subword-nmt ${ }^{2}$ を用いて Byte Pair Encoding (BPE) によるサブワード分割 [16] を行った. 語彙数はそれぞれ最大およそ 8000 に設定している。 実験では,ベースラインとして - Single ${ }_{\text {gold }}$ : Gold transcript で学習したモデル - Single $_{a s r}$ : ASR output で学習したモデル を用意した. また, ドメイン適応手法として データを混合した Multi-domain 学習モデル - $\mathrm{FT}_{\text {gold } \rightarrow \text { asr }}$ : Single gold に対し ASR output で追加学習を行った Fine-tuning モデル を作成した. また知識蒸留は ASR outputを入力とし,  表 2 BLEU スコアによる翻訳精度の比較.†はベースラインモデル Single $_{\text {asr }}$, ‡は Fine-tuning モデル FT $_{\text {gold } \rightarrow \text { asr }}$ より有意に高いことを示す(いずれも $p<0.05)$. - $\mathrm{KD}_{\text {gold }}$ : Single gold の出力を教師信号として学習したモデル して学習したモデル - $\mathrm{FT}+\mathrm{KD}_{\text {gold }}$ : Single gold $^{\mathrm{K}^{2}} \mathrm{KD}_{\text {gold }}$ の方式で追加学習を行う, Fine-tuning と知識蒸留を組み合わせたモデル を作成した. Dev セットで検証する際には, ASR output の入力に対して行い, 出力を 2 通りの Fluent translation で評価した. Test セットによる評価時は, Gold transcript と ASR outputを入力とし, 2 通りの Fluent translation (Fisher/Test0, Fisher/Test1) それぞれに対して BLEU スコアを測定した. また, ベースラインと提案手法間でブートストラップ再サンプリング方式による BLEU スコアの有意差検定 [17] を行った. 実装は util-scripts の paired-bootstrap.py ${ }^{3}$ を使用し, 有意水準を $5 \%$ とした. ## 4.2 実験結果 実験結果を表 2 に示す. ベースライン同士を比較 訳精度である一方, ASR outputを入力した場合にお よって結果が大きく変化せず,いずれも Single gold に Gold transcript を入力した場合を $9 \mathrm{pt}$ 程度下回った.書き起こしを入力として学習した MT は, 高い翻訳能力を獲得し得るが, 音声認識誤りに対する頑健性が低い. 反対に, 音声認識誤りを含む入力を用いて学習した MT は, 音声認識誤りに頑健であるものの基本となる翻訳能力が低い. そのため実用の場面で ASR output を入力することを想定した場合, 両モデ  図 2 ベースラインモデル Single $_{\text {asr }}$ と, 知識蒸留を行った提案手法 $\mathrm{KD}_{\text {gold }}$ の学習曲線の比較. ルはおよそ対等であると言える。 また Single gold と比較して,ドメイン適応を行った 2 手法 (Multi gold\&asr, $\mathrm{FT}_{\text {gold } \rightarrow \text { asr }}$ ) は, Gold transcript に対する精度が 1 2pt 低下する代わりに ASR output に対する精度が 0.7 0.9pt 向上した. これは人手の書き起こしと ASR 出力を併用した学習が, 翻訳精度向上に効果的であることを示している。 ## 4.2.1 知識蒸留の効果 $\mathrm{KD}_{\text {gold }}$ は, ASR output に対する翻訳精度がベースラインやドメイン適応のモデルより有意に高く, 知識蒸留の有用性を示している. Single ${ }_{\text {asr }}$ と比較した時, 学習の差は教師信号を人手による参照訳から Single $_{\text {gold }}$ の出力に変更した点である.この変更で, ASR output に対しおよそ $1 \mathrm{pt}$ の向上が観測された. その理由として, MTを通すことで自然発話の多様性または複雑性が失われ, 学習の難しさが緩和されたことが考えられる. 実際に, 学習時の損失の変化を示した図 2 では, $\mathrm{KD}_{\text {gold }}$ がより低い位置で推移していることが見て取れる. しかし, 反対に Gold transcript に対しては $1 \mathrm{pt}$ の低下があった. 教師として与えた MT 出力と Test セットの人手による参照訳との間で 成例. 上の例で, Single ${ }_{a s r}$ は音声認識誤り (“sur”) を直訳 (“South”) したが, FT + $\mathrm{KD}_{\text {gold }}$ はこれを無視した. また ASR output が記号や大文字を含まないことも翻訳精度低下の原因になりうる. 下の例で, 記号 (“i”, “?”)を含まない疑問文に対し, Single $_{\text {asr }}$ は平叙文を訳出したが, $\mathrm{FT}+\mathrm{KD}_{\text {gold }}$ では疑問符を回復した. 表 4 知識蒸留における教師モデルの出力の BLEU ス 生じた分布の差異がこの原因として考えられる. 他方, $\mathrm{KD}_{\text {gold\&asr }}$ は, 大きく精度が低下した.知識蒸留を行ったそれぞれの教師モデル (Single gold , Multi ${ }_{\text {gold\&asr }}$ ) の Train データにおける BLEU スコアを表 4 に示す. Train データに対し,両者には $10 \mathrm{pt}$ 近いスコアの差がある. Multi ${ }_{\text {gold\&asr }}$ は Single $_{\text {gold }}$ と比べて, ASR output に頑健であるが, Gold transcript の翻訳精度は低い.このことから, 生徒モデルの教師となるデータにはある程度の高品質さが求められることが分かる. ## 4.2.2 知識蒸留とドメイン適応の併用 知識蒸留と Fine-tuning を組み合わせた $\mathrm{FT}+\mathrm{KD}_{\text {gold }}$ は, ASR output に対し最も高い翻訳精度を達成し, ベースラインと比較して $1 \mathrm{pt}$ 程度の向上が確認された. 生成例の比較を表 3 亿示す. また知識蒸留のみ行ったモデルと比較して, Gold transcript に対する翻訳精度が大きく向上しており, Single gold の基本翻訳性能の高さを引き継ぎながら音声認識誤りに対する頑健性を獲得できたと言える. Fine-tuning はパラメータを, 知識蒸留は出力の知識を, それぞれ事前学習モデルや教師モデルから引き継ぐ. このように両者は異なる情報を継承するため, 併用することでそれぞれを単体で用いたモデルより高い評価値を得た. ## 5 おわりに 本研究では, 書き起こしテキストと ASR 出力の併用による機械翻訳モデルの学習手法を検討した. 実験では, 知識蒸留とドメイン適応が音声認識誤りへの頑健性獲得のために有効であることを示し, 更にこれらを併用することでより高い翻訳精度を達成できることを確認した。 今後の課題として, まず ASR 出力の精度による提案手法の有効性の変化を検証する. 今回用いた ASR 出力は, HMM に基づく音声認識モデルによるものであり, Fisher/Test に対し WER 36.5pt [13] と比較的多くの誤りを含んでいる.より音声認識誤りの少ない ASR 出力に対しても本研究の手法が有効であるかどうかを確認したい. また, 学習手法についても広範に検証を行っていく必要がある. 例えばドメイン適応の一手法である Multi-domain 学習にも, 文頭にドメインタグを付加して区別させる方法やドメイン間のデータ数を揃える upsampling や downsampling など数多くの変種が存在する. 知識蒸留では, word-level knowledge distillationを用いてより豊富な知識を継承することで更なる向上が期待できる. ## 謝辞 本研究の一部は JSPS 科研費 JP17H06101 の助成を受けたものである. ## 参考文献 [1] Matthias Sperber, Graham Neubig, Jan Niehues, and Alex Waibel. Neural lattice-to-sequence models for uncertain inputs. arXiv preprint arXiv:1704.00559, 2017. [2] Kaho Osamura, Takatomo Kano, Sakriani Sakti, Katsuhito Sudoh, and Satoshi Nakamura. Using spoken word posterior features in neural machine translation. architecture, Vol. 21, p. 22, 2018 [3] Matthias Sperber, Jan Niehues, and Alex Waibel. Toward robust neural machine translation for noisy input sequences. In International Workshop on Spoken Language Translation (IWSLT), 2017. [4] Haiyang Xue, Yang Feng, Shuhao Gu, and Wei Chen. Robust neural machine translation with asr errors. In Proceedings of the First Workshop on Automatic Simultaneous Translation, pp. 15-23, 2020. [5] Cristian Buciluă, Rich Caruana, and Alexandru NiculescuMizil. Model compression. In Proceedings of the 12th ACM SIGKDD international conference on Knowledge discovery and data mining, pp. 535-541, 2006. [6] Geoffrey Hinton, Oriol Vinyals, and Jeff Dean. Distilling the knowledge in a neural network. arXiv preprint arXiv:1503.02531, 2015. [7] Chenhui Chu, Raj Dabre, and Sadao Kurohashi. An empirical comparison of domain adaptation methods for neural machine translation. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 385-391, 2017. [8] Mattia Antonino Di Gangi, Robert Enyedi, Alessandra Brusadin, and Marcello Federico. Robust neural machine translation for clean and noisy speech transcripts. arXiv preprint arXiv:1910.10238, 2019. [9] Yoon Kim and Alexander M Rush. Sequence-level knowledge distillation. arXiv preprint arXiv:1606.07947, 2016. [10] Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. arXiv preprint arXiv:1511.06709, 2015. [11] Ebrahim Ansari, Nguyen Bach, Ondřej Bojar, Roldano Cattoni, Fahim Dalvi, Nadir Durrani, Marcello Federico, Christian Federmann, Jiatao Gu, Fei Huang, et al. Findings of the iwslt 2020 evaluation campaign. In Proceedings of the 17th International Conference on Spoken Language Translation, pp. 1-34, 2020. [12] David Graff, Shudong Huang, Ingrid Cartagena, Kevin Walker, and Christopher Cieri. Fisher spanish speech (ldc2010s01). Web Download. Philadelphia: Linguistic Data Consortium, 2010. [13] Matt Post, Gaurav Kumar, Adam Lopez, Damianos Karakos, Chris Callison-Burch, and Sanjeev Khudanpur. Improved speech-to-text translation with the fisher and callhome spanish-english speech translation corpus. In Proc. IWSLT, 2013. [14] Elizabeth Salesky, Matthias Sperber, and Alex Waibel. Fluent translations from disfluent speech in end-to-end speech translation. arXiv preprint arXiv:1906.00556, 2019. [15] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [16] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. arXiv preprint arXiv:1508.07909, 2015. [17] Philipp Koehn. Statistical significance tests for machine translation evaluation. In Proceedings of the 2004 conference on empirical methods in natural language processing, pp. 388-395, 2004.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-8.pdf
# 画像生成による疑似教師データを用いた マルチモーダルニューラル機械翻訳 岩本 裕司 ${ }^{1}$ 田村 晃裕 ${ }^{2}$ 二宮崇 ${ }^{1}$ 1 愛媛大学 2 同志社大学 ${ }^{1}$ \{iwamoto@ai., ninomiya@\}cs.ehime-u.ac.jp ${ }^{2}$ aktamura@mail.doshisha.ac.jp ## 1 はじめに 近年,ニューラル機械翻訳(Neural Machine Translation; NMT)の性能を向上させる手段の 1 つとして,マルチモーダルニューラル機械翻訳 (Multimodal Neural Machine Translation; MNMT) が注目されている. MNMT は翻訳元の文(原言語文)だけでなく関連画像も用いることで,これらの画像を手がかりに状況に即したより自然な翻訳文 (目的言語文)を生成することを目的としている. MNMT モデルの学習には通常,対訳テキストデー 夕に加えて関連画像が必要となるが,そのような原言語文, 目的言語文, 関連画像で構成される 3 つ組の対訳データは通常の対訳データに比べ非常に小規模なものしか存在していない。また,通常の対訳データに比べ,MNMT 学習のための 3 つ組データが存在する言語ぺアや領域は非常に限られている. 本研究では,従来の MNMT 用学習データ(3つ組データ)に比べて比較的入手が容易な対訳テキストデータと,原言語側の画像キャプションデータから MNMT の学習を行う方法を提案する. 提案手法では,まず対訳テキストデータから NMT モデルを学習し,画像キャプションデータの原言語文を NMT モデルで翻訳することで初期疑似 3 つ組データを生成する. 次に, MNMT モデルと, 対訳文ペアから画像を生成する text-to-image(T2I)モデルの 2 つのモデルを,初期擬似 3 つ組データから学習し,両モデルを初期化する.最後に,T2I モデルと MNMT モデルを逆翻訳形式のフレームワークを用いて交互に再学習する. このフレームワークでは, MNMT モデルは対訳テキストデータと T2I モデルによって生成された画像による疑似 3 つ組データで学習し, T2I モデルは画像キャプションデータと MNMT モデルによって生成された目的言語文による疑似 3 つ組データで学習する。実験では,学習データとして Multi30kデータセット [1] の英独対訳テキストデータと MSCOCO デー タセット [2] の画像キャプションデータを用いた. そして,テストデータとして Multi30kテストデータセットを用いて,英独翻訳タスクで提案手法の評価を行った. その結果, 提案の MNMT モデルは大力画像を用いない NMT モデルよりも優れた翻訳性能を持つことを確認し(+1.38 BLEU スコア),提案する逆翻訳形式の学習方法は MNMT の翻訳性能を向上させる(+2.8 BLEU スコア)ことが示された. また,実験を通じて,提案の学習方法により訓練された MNMT は, 真の 3 つ組データ(Multi30K訓練デー タセットの 3 つ組データ)から訓練された MNMT モデルよりも優れていることが示された. さらに, WMT14 データセットおよび GoodNews データセッ卜[3]を用いた事前学習を行った結果,翻訳精度がさらに改善される(+1.07 BLEU スコア)ことが示された。 ## 2 関連技術 ## 2.1 Transformer ベースの MNMT 近年,ニューラルネットワークをべースとしたモデルがマルチモーダル機械翻訳のためによく用いられており,特に Transfomer NMT モデル [4] をマルチモーダル機械翻訳に拡張した Transformer ベースの MNMT モデル [5] が非常に高い性能を実現している. 本研究でも Transformer ベースの MNMT モデルを使用する。 本研究で使用する Transformer ベースの MNMT モデルの構造を図 1 に示す.このモデルは, Transformer NMT モデルに入力画像用のエンコーダが追加され,画像エンコーダ,テキストエンコー ダ,テキストデコーダで構成されている。また,テキストエンコーダには,画像特徵と原言語文の各単 入力画像 入力文 (予測済み) 図 1: MNMT モデルの構造 語との関係の強さを計算する視覚的注意機構 [6] が組み込まれている. 画像エンコーダは,まず入力画像から CNN を用いて画像特徴量を抽出し,その後,線形変換を施すことで画像を画像特徴ベクトルにエンコードする。なお,本研究では CNN として ResNet50 [7] を用いた. テキストエンコーダとテキストデコーダは,テキストエンコーダ内の各レイヤーが,画像と原言語文の各単語との間のマルチヘッドアテンション(視覚的注意機構)を有することを除いて,Transformer NMT と同じである. ## 2.2 Text-to-Image モデル Text-to-Image(T2I)モデルは,入力として文およびランダムノイズを受け取り,受けとった文の意味に沿った本物に近い画像を生成するモデルである. ランダムノイズは,背景やオブジェクトの位置,向きなどの,文には現れない情報を決定するために入力される. T2I モデルは敵対的生成ネットワークを用いて学習され,主に画像を生成する生成器と,画像が本物であるかを識別する識別器の 2 つのモデルで構成されている。 従来の T2I モデルでは,1 つの文から 1 つの画像を生成する. しかし,本提案手法では対訳テキスト (原言語文と目的言語文)から 1 つの画像を生成する T2I モデルを用いる。具体的には,最先端の T2I モデルの 1 つである AttnGAN モデル [8] をバイリンガルな設定(対訳文ペアを入力にするモデル)に拡 張する. 本研究では, AttnGAN のテキストエンコー ダーと注意機構を改良し,AttnGAN をバイリンガルな設定に拡張する。以降では,改良したAttnGANを BiAttnGAN と呼ぶ. BiAttnGANでは,原言語文と目的言語文のそれぞれに対してエンコーダと注意機構を導入し,これら2つのエンコーダと注意機構の出力をそれぞれ連結したものを生成器と識別器で用いる。具体的には,原言語/目的言語文エンコーダ $E n c_{s r c / t g t}$ は,以下の式のように原言語/目的言語文 $x_{s r c / t g t}$ を単語特徴量 $e_{s r c / t g t}$ と文特徴量 $\bar{e}_{s r c / t g t}$ に符号化する。 $ \begin{array}{r} e_{s r c}, \bar{e}_{s r c}=E n c_{s r c}\left(x_{s r c}\right) \\ e_{t g t}, \bar{e}_{t g t}=E n c_{t g t}\left(x_{t g t}\right) \end{array} $ そして,2つの特徴量を連結したもの([ $\left.e_{s r c} ; e_{t g t}\right]$ や $\left[\bar{e}_{s r c} ; \bar{e}_{t g t}\right]$ )をテキスト特徴量として用いる.また,以下のように注意機構を用いて,画像とテキストとの関連性を反映した画像特徴量 $h^{\prime}$ を用いる. $ h^{\prime}=\left[\operatorname{Attn}_{s r c}\left(h, e_{s r c}, e_{s r c}\right), \operatorname{Attn}_{t g t}\left(h, e_{t g t}, e_{t g t}\right)\right] $ ここで,hと Attnは,それぞれテキストエンコーダの隠れ状態と注意機構である。 ## 3 MNMT のための逆翻訳学習 本節では, 対訳テキストデータ $B=\left(B_{s r c}, B_{t g t}\right)$ と,原言語側の画像キャプションデータ $C=\left(C_{i m g}, C_{s r c}\right)$ から MNMT モデルを学習する手法を提案する.以降は,接尾辞の $s r c, t g t, i m g$ は,それぞれ原言語文,目的言語文,画像を表す. 提案手法の流れをアルゴリズム 1 に示す. 本手法では,まず対訳テキストデータから NMT モデルを学習し,学習した NMT によって原言語側の画像キャプションデータのキャプション文を翻訳することで,初期疑似 3 つ組デー タを生成する (1 行目). 次に,生成した初期擬似 3 つ組データを用いて MNMT モデルと T2I モデルの初期化を行う(2 行目). 最後に,MNMT モデルと T2I モデルを交互に反復逆翻訳フレームワークを用いて際学習する $(3 \text { から } 5 \text { 行目 })^{1)}$. ## 3.1 モデルの初期化 逆翻訳形式による学習の準備として,Transformer ベースの MNMT モデルと BiAttnGAN モデルの初期化を行う. これらの初期化に用いる 3 つ組データは,Transformer NMT を用いて擬似的に作成する。 1)実験では,アルゴリズム 1 の 3 行目における $\mathrm{N}$ の值は 15 に設定した. ## アルゴリズム 1:学習アルゴリズム 入力 : $B=\left(B_{s r c}, B_{t g t}\right), C=\left(C_{s r c}, C_{i m g}\right)$ 1. 初期擬似 3 つ組データの生成:まず,NMT モデル $P_{s r c \rightarrow t g t}$ を $B$ から学習する. その後, 3 つ組データ $\left(C_{s r c}, C_{t g t^{\prime}}, C_{\text {img }}\right)$ を生成する. ただし $C_{t g t^{\prime}}=P_{s r c \rightarrow t g t}\left(C_{s r c}\right)$ である. 2. モデルの初期化:MNMT モデル $P_{(s r c, i m g) \rightarrow t g t}^{(0)}$ と $\mathrm{T} 2 \mathrm{I}$ モデル $P_{(s r c, t g t) \rightarrow i m g}^{(0)}$ を初期擬似 3 つ組データ $\left(C_{s r c}, C_{t g t^{\prime}}, C_{i m g}\right)$ を用いて学習する。 ## 3. for $k=1$ to $\mathbf{N$ do} 4. MNMT の再学習:MNMT モデル $P_{(s r c, i m g) \rightarrow t g t}^{(k)}$ を擬似 3 つ組データ $\left(B_{s r c}, B_{i m g^{\prime}}, B_{t g t}\right)$ を用いて再学習する。 5. ただし $B_{i m g^{\prime}}=P_{(s r c, t g t) \rightarrow i m g}^{(k-1)}\left(B_{s r c}, B_{t g t}\right)$ である. T2I の再学習:T2I モデル $P_{(s r c, t g t) \rightarrow i m g}^{(k)}$ を擬似 3 つ組データ $\left(C_{s r c}, C_{\text {img }}, C_{t g t^{\prime}}\right)$ を用いて再学習する. 6. end ただし $C_{t g t^{\prime}}=P_{(s r c, i m g) \rightarrow t g t}^{(k-1)}\left(C_{s r c}, C_{i m g}\right)$ である. まず,対訳テキストデータから Transformer NMT モデルを学習する。 そして,学習させた NMT モデルを用いて,原言語側の画像キャプションデータのキャプション文を目的言語の文に翻訳する。このようにして作成した初期擬似 3 つ組データを用いて, MNMT モデルおよび BiAttnGAN モデルを学習することで,両モデルの初期化を行う. ## 3.2 MNMT の再学習 MNMT モデルの再学習では, BiAttnGAN モデルを用いて再学習を行う。まず,BiAttnGAN モデルを用いて,対訳テキストデータの各対訳文ペアから画像を生成する. 次に, 対訳テキストデータと生成した画像で構成される疑似 3 つ組データから MNMT モデルを学習する。学習では, 原言語文と生成画像から予測された目的言語文 $y$ が疑似 3 つ組データの目的言語文 $t$ と同じになるように,以下のクロスエントロピー損失 $L_{M}$ を最小化する. $ L_{M}=-\sum_{i=0}^{l-1} t_{i} \times \log P\left(y_{i}\right) $ ここで,lは目的言語文の長さである. ## 3.3 T2I の再学習 BiAttnGAN モデルの再学習では, MNMT モデルを用いて再学習を行う.まず,MNMT モデルを用いて,画像キャプションデータから目的言語文を生成する. 次に,画像キャプションデータと生成した疑似目的言語文で構成される擬似 3 つ組データから BiAttnGAN モデルを学習する。 学習では,原言語文と擬似目的言語文から生成された画像 $y_{i m g}$ と, 本物画像 $t_{i m g}$ が同じになるように,次のクロスエントロピー損失 $L_{G}$ を最小化する. $ L_{G}=-\frac{1}{2} \log P_{R}\left(y_{i m g}\right)-\frac{1}{2} \log P_{S}\left(y_{i m g}, x_{s r c}\right) $ ここで, $P_{R}$ は生成された画像が本物かどうかを表す確率であり, $P_{S}$ は生成された画像と文が一致するかどうかを表す確率である. ## 4 実験 ## 4.1 実験設定 本提案手法を英独翻訳による実験で評価した。実験では,Multi30k データセット [1] の英独対訳文 29,000 文対と,画像ごとに 5 つのキャプションが付与されている MS COCO 2014 データセット [2] の 82,783 枚の画像とそのキャプションを,2 種類の学習データセット(対訳テキストデータと画像キャプションデータ)として使用した. Multi30k デー タセットの開発データ (1,014 組) とテストデータ (1,000 組)をそれぞれ開発データとテストデータとして使用した. Multi30k データセットの各データは原言語文, 目的言語文, 画像の 3 つ組で構成されるが,提案手法の学習では目的言語文は使用していないことに注意されたい。 また,提案手法を事前学習に用いる場合の有効性を調べるため,Multi30k データセットとは異なるドメインの大規模データセットを用いて MNMT モデルを事前学習した場合の性能も評価した.事前学習では,対訳テキストデータとして WMT14 英独デー タセットを,画像キャプションデータセットとして GoodNews データセットを用いた. 初期擬似 3 つ組データを生成する際に用いる Transformer NMT モデルのハイパーパラメータと, Transformer ベースの MNMT モデルのハイパーパラメータは,Vaswani ら [4] に倣い,レイヤー数を 6 層, 注意機構のヘッド数を 8 個, 隠れ層の次元数 表 1: 実験結果 を 512 に設定した。また,BiAttnGAN のハイパーパラメータに関しては,オリジナルの AttnGAN [8] に倣い, 生成器の次元数を 48, 識別器の次元数を 96 とした. 最適化手法としては Adam [9] を使用した. BiAttnGAN モデルは,ミニバッチサイズ 32 とし, エポック数は初期化時は 100 , 再学習時は 15 で実験を行った. Transformer NMT モデルは,ミニバッチ数を 128 ,エポック数を 40 として学習を行った. そして,Trasformer MNMT モデルは,ミニバッチ数を 128, エポック数は初期化時は 25 , 再学習時は 15 で学習を行った. また, 単語辞書の作成には Byte Pair Encoding [10]を使用し,トークンサイズを英独合わせて 7,000とした. なお,これらの翻訳モデルを用いた目的言語文の推論時には貪欲法を用いた. ## 4.2 実験結果 実験では,次の 6 つのモデルを評価した。(1) 提案 MNMT モデル $\left(M N M T_{\text {prop }}\right)$, (2) 画像入力なし NMT モデル $(N M T)$ ,(3) 初期化時の MNMT モデル $\left(M N M T_{\text {init }}\right)$, (4) 真の 3 つ組データを用いた MNMT モデル $\left(M N M T_{\text {gold }}\right),(5)$ 大規模データセットによる事前学習を行い, 擬似データを用いて教師無し再学習を行った MNMT モデル $\left(M N M T_{\text {pre_un }}\right)$ , (6) 大規模データセットによる事前学習を行い,真の 3 つ組データを用いて教師あり再学習を行った MNMT モデル $\left(M N M T_{\text {pre_semi }}\right)$ である. $M N M T_{\text {prop }}, N M T$, $M N M T_{\text {init }}, M N M T_{\text {gold }}$ では事前学習を行っていない.また, NMT は, Multi30k データセットの学習データの画像を使わずに対訳文から学習したモデルである. $M N M T_{\text {gold }}$ は, Multi30k データセットの学習データに含まれる 29,000 組の 3 つ組データから学習した MNMT モデルであり, $M N M T_{i n i t}$ は,初期疑似 3 つ組データで学習した MNMT モデル(アルゴリズム 1 の $\left.P_{(s r c, i m g) \rightarrow t g t}^{(0)}\right)$ である. 各モデルの翻訳性能は,開発データの BLEU スコアが最も高いエポックモデルを選択し,テストデー タの case-insensitive BLEU4 [11] で測定した.実験結果を表 1 に示す. 表 1 から分かる通り,MNMT $T_{\text {prop }}$ は $M N M T_{\text {init }}$ よりも高い性能を示している。このことは,擬似 3 つ組データを用いて MNMT モデルと T2I モデルを交互に学習することで,MNMT の性能が向上することを示している。すなわち,提案手法である逆翻訳形式のフレームワークが有効であることを示している. また, $M N M T_{\text {prop }}$ は $N M T$ よりも性能が優れており,画像情報の有効性が示されている。 さらに,真の 3 つ組データを用いた $M N M T_{\text {gold }}$ よりも,擬似 3 つ組データを用いた $M N M T_{\text {prop }}$ の方が性能が高くなっている。これは擬似画像生成による多様な画像によって学習が行われたためであると考えられ 事前学習を行わないモデルによりも性能が向上しており,提案手法による大規模データセットを用いた事前学習が有効であることを示している. ## 5 まとめ 本研究では,マルチモーダル機械翻訳における低リソース問題を解決するために,対訳テキストデー タと画像キャプションデータから MNMT モデルを学習するための新しい逆翻訳形式のフレームワークを提案した。提案手法では,T2I モデルと MNMT モデルを用いて,一方のモデルにより生成された疑似 3 つ組データに基づいて他方のモデルを学習することで,T2I モデルと MNMT モデルを交互に学習する。英独翻訳タスクでの評価の結果,提案した逆翻訳形式のフレームワークは MNMT の性能を向上させ,提案手法によって学習された MNMT モデルは,真の 3 つ組データから学習した MNMT モデルよりも性能が優れていることが示された. また,提案手法による大規模データセットを用いた事前学習が有効であることも示された. 今後は異なる規模やドメイン,言語対のデータセットを用いた実験を行い,提案手法の有効性を確認したい。 ## 謝辞 本研究成果は,国立研究開発法人情報通信研究機構の委託研究により得られたものである. また,本研究の一部は JSPS 科研費 20K19864 の助成を受けたものである.ここに謝意を表する。 ## 参考文献 [1] D. Elliott, S. Frank, K. Sima'an, and L. Specia. Multi30k: Multilingual english-german image descriptions. In Proc. of the 5th Workshop on Vision and Language (VL16), pp. 70-74, 2016. [2] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, and C Lawrence Zitnick. Microsoft coco: Common objects in context. In European conference on computer vision, pp. 740-755. Springer, 2014. [3] Ali Furkan Biten, Lluis Gomez, Marcal Rusinol, and Dimosthenis Karatzas. Good news, everyone! context driven entity-aware captioning for news images. In Proc. of 2019 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR 2019), June 2019. [4] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In $A d$ vances in Neural Information Processing Systems 30, pp. 5998-6008, 2017. [5] Stig-Arne Grönroos, Benoit Huet, Mikko Kurimo, Jorma Laaksonen, Bernard Merialdo, Phu Pham, Mats Sjöberg, Umut Sulubacak, Jörg Tiedemann, Raphael Troncy, and Raúl Vázquez. The MeMAD submission to the WMT18 multimodal translation task. In Proc. of the Third Conference on Machine Translation: Shared Task Papers(WMT18), pp. 603-611, October 2018. [6] 宅島寛貴, 田村晃裕, 二宮崇, 中山英樹. CNN と Transformer エンコーダを用いたマルチモーダルニューラル機械翻訳. 言語処理学会第 25 回年次大会, pp. 743-746, 2019. [7] K. He, X. Zhang, S. Ren, and J. Sun. Deep residual learning for image recognition. In Proc. of 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2016), pp. 770-778, 2016. [8] Tao Xu, Pengchuan Zhang, Qiuyuan Huang, Han Zhang, Zhe Gan, Xiaolei Huang, and Xiaodong He. Attngan: Fine-grained text to image generation with attentional generative adversarial networks. In Proc. of 2018 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2018), pp. 1316-1324, 2018. [9] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. CoRR, Vol. abs/1412.6980, , 2014. [10] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proc. of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [11] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proc. of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, jul 2002.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P1-9.pdf
# 分割統治的ニューラル機械翻訳 加納保昌 須藤克仁 中村哲 奈良先端科学技術大学院大学 \{kano.yasumasa.kw4, sudoh, s-nakamura\}@is.naist.jp ## 1 はじめに ニューラル機械翻訳によって、統計的機械翻訳よりも流暢な訳文を生成できるようになった。しかし、長い文を翻訳することは未だ難しく、重複訳や、訳抜けなどが発生する。アテンション機構を用いたニューラル機械翻訳モデルである、Transformer [1]でも、その問題は解決できていない [2]。 統計的機械翻訳では、長い文を短く区切って翻訳し、並べ替えて繫げるという分割統治的な手法でこれらの問題を軽減する試みがあった [3]。ニューラル機械翻訳においては、Pouget-Abadie ら [4] は、長い文を短く区切って、各セグメントをRNNを用いて翻訳した。その後、翻訳されたセグメントを、前から順につなぎ合わせたものを翻訳結果としている。しかし、この手法では、語順が大きく異なる言語対を翻訳する際に、出力文が不自然なものになってしまう。 そこで、本研究では、翻訳されたセグメントを、 セグメントどうしの関係性を表すトークンを用いて繋げ、別のニューラルネットワークモデルに入力する。それによって、セグメントの並べ替えと編集を実現し、自然な訳文を生成する。 提案手法はベースラインに比べて、BLEUでは顕著な差が見られなかったが、出力文の長さがより参照文へと近くなることがわかった。よって、ニュー ラル機械翻訳における分割統治的手法が、訳抜けを防ぐために、有効である可能性が示された。今後、並べ替えやセグメント翻訳の精度を上げることにより、さらなる発展が期待される。 ## 2 関連研究 Sudoh ら [3] は、長い文を翻訳するため、統計的機械翻訳に分割統治的手法を用いた。入力文を節の単位に区切って翻訳し、その結果を節の階層構造に基づいて並べ替えることで、精度を向上させていた。 ニューラル機械翻訳においては、Pouget-Abadie ら [4] の研究が Sudoh ら [3] と似た手法を用いている。 この手法では、対訳コーパスを用いて学習された、 RNNを用いて最適な文の区切れ目を見つけ、その各セグメントを翻訳する。しかし、文法的に適切な境界で分割される保証がないため, 特に語順の異なる言語対において結合した翻訳結果が不自然な文になる懸念がある。 機械翻訳以外の分野でも、長い文を短く区切って言い換えるという研究がなされている。Aharoni ら [5] は長い文を、copy 機構を用いた seq2seq モデルに入力し、複数の短い文で言い換えた。しかし、必要な情報が抜けたり、不必要な単語が出力されてしまう問題は解決されていない。 短い単位に区切るものとは異なるアプローチで、長い文の機械翻訳を改善する研究もある。Neishi ら [2] は、Transformer の長い文の翻訳精度を上げるため、RNNを使った相対的位置情報を用いた。 本研究では、Pouget-Abadie ら [4] の手法で問題であった並べ替えを、セグメント翻訳とは別のニューラルネットワークモデルで実行する。それによって、Sudoh ら [3] のような分割統治的な手法を、 ニューラル機械翻訳において実現する。本研究は、 Sudoh [3] らの手法とは異なり、節単位の対訳対応付けを必要としない。節の翻訳は、文単位の対訳コー パスから学習されたニューラルネットワークモデルにより取得する。 ## 3 提案手法 ## 3.1 提案手法の処理概略 提案手法での翻訳は、大きく分けて、4つのステップで行われる。図 1 に、英語から日本語への翻訳の概略図を示す。この図では、簡略化のため、サブワード分割はされていない。 まず、原言語文を構文解析し、節の境界を探す。次に、節の始めと終わりを境界としてセグメントに区切る。節の中に節を含む場合も、すべての節境 Step1:構文解析 & Parser & $\Rightarrow$ \\ 図 1 提案手法の処理概略 界で分割を行う。Pouget-Abadie ら [4] は、2つの学習済み RNN モデルを用いて最適な境界を探索していたが、必ずしも、文法的に適切な境界で区切られるとは限らない。よって、本研究では節単位で区切った。各セグメントの翻訳は、周囲のセグメントの影響を受けるが、節という、比較的大きな意味のある単位で区切ることによって、その影響を抑えることが期待できる。 その次に、各セグメントをモデル 1 で翻訳する。 このモデル 1 として、Transformer を用いる。推論時には、モデル 1 のビーム探索のスコアが最高となる節の翻訳を出力する。 最後に、モデル 2 を用いてこの結果を並べ替え、編集することで、最終的な訳文を出力する。このモデル 2 にも Transformer を用いるが、モデル 1 とは別に学習されたものである。モデル 2 の入力は、原言語の節とその翻訳結果を繋げたものである。具体的には、原言語の各節とその翻訳結果を“@@@” で繋げた。そして、それらの節のペアを“III”で繋げた。“@@@”や“III” は元の訓練データに含まれておらず、特殊な一つのトークンとして語彙に含めた。例えば、「I think it is good.」を日本語に翻訳する時に は、「I think @ @ @ 私は思う。III it is good @ @ @ それは良い。III.@@@。」のような形で、モデル 2 に入力されることが想定されている。翻訳された各セグメントどうしが、どのような関係性をもつのかという情報を持っていないため、このように、原言語の情報を付与する必要がある。Xu ら [6] は、原言語の文と似た目的言語の文を繋げたものを、モデルに入力する手法を提案した。本研究では、似ている文ではなく、翻訳された複数の節を繋げることによって、並べ替えと編集をモデル 2 によって実現した。 ## 3.2 学習 学習時には、まず、元の対訳コーパスを用いて、英日翻訳をモデル 1 で学習する。その後、図 1 のステップ 1 からステップ 3 までを、全ての学習データに対して行う。最後に、ステップ 3 の節の翻訳を図 1 のステップ 4 と同様の形式で繋げたものを入力とし、目的言語文を出力とすることで、モデル 2 を学習させる。 モデル 2 の学習時には、モデル 1 が出力する、複数の翻訳候補を利用して学習を行う。本研究ではビームサイズを 4 としているので、 4 つの候補が出力される。よって、節の翻訳の候補でスコアが最も高いもののみを繋げた文、2 番目に高いもののみを繋げた文、というように、四種類の形式をモデル 2 の入力として与えることができる。このように、英語の節の部分は同じだが日本語の部分のみ違うという入力文を用いることで、最終的に、モデル 2 のトレーニングデータは 4 倍になった。対応する目的言語の文は、4種類に対して、全て同じものを使う。 ## 4 実験 提案手法の有効性を検証するために以下の実験を行った。 ## 4.1 実験設定 対訳コーパスとして、ASPEC [7] の英日 100 万文 (train-1)を用いた。Transformer [1] は、fairseq [8] で実装されたものを用いた。基本的には、Vaswani ら [1]の結果を再現するためのウェブページ1)に従ってハイパラメーターを設定した。dropout は 0.3 とし、 length penalty は 1 とした。 checkpoint はパラメー タを 1000 回更新する毎にごとに保存し、開発デー タの loss が最小となる checkpoint を選択した。これ 1) https://sgithub.com/pytorch/fairseq/issues/1352 表 1 入力トークン長ごとの BLEU 表 2 入カトークン長ごとの ratio 以上の詳細は付録に添付する。サブワード分割には、SentencePiece [9]を用い、語彙の大きさを 16000 とし、日英で語彙を共有した。英語の構文解析には、stanza [10]を用いた。モデル 1 の入力には、構文解析で出力された単語を空白で繋ぎ、それを SentencePiece でサブワードに分割したものを利用した。このモデル 1 は、ベースラインの Transformer であり、モデル 2 を学習する際に必要となるモデルでもある。 実験のベースラインとして,モデル 1 として用いた通常の Transformer の他に以下の二つの手法を比較した。一つ目は、線形化された構文木 [11](構文木をカッコとラベル、単語の系列で表したもの) を Transformerに入力したものである。二つ目は、 Pouget-Abadie らの手法と同様に、モデル 1 から出力された節の翻訳を、前から順に繋げたものを最終的な訳文とするモデルである。 テストデータの BLEU [12] スコアは、MeCab [13] によって単語分割し、sacrebleu [14] を用いて算出した。 ## 4.2 実験結果 表 1 と表 2 が英日翻訳の結果である。これらは test データの文を、モデル 1 の入力文のサブワードトークン長さ別に分け、それぞれに対して BLEU と ratioを算出した結果を示している。 ratio は出力文と参照文の長さの比を表し、1より小さいということは、訳抜けが発生している可能性を示している。全てのテストデータに対する ratio は、線形化された構文木のモデルや Transformer に比べ、提案手法の方が大きかった。その一方で、翻訳精度を表す BLEU は Transformer と提案手法では同等である。この結果から、提案手法は訳抜けを防ぐために長い訳文を出力できるが、参照文に含まれていない情報も出力している可能性がある。また、 モデル 2 を使った並べ替えを行わず、モデル 1 の出力を前から順に繋げたモデルは、ratio は 1を大きく上回っており,また BLEU も比較モデルの中で最も低かった。この結果は、不必要な情報が翻訳結果に多く含まれて訳質が低下していることを示している。また、提案手法ではモデル 2 の処理によってそうした不必要な情報を取り除いて訳文を構成できていることも分かる。 次に、長さ別のスコアを見ると、原言語のサブワードトークン数が 60 よりも大きいものに対して、提案手法の BLEU は比較対象の中で最も高い。2 番目に高い Transformer の BLEUを 0.8 上回っており、 ratio も提案手法の方がわずかながら高いことから、提案手法が長文の翻訳において有効であることが示唆される。 長さが 20 以内の短い文に対しても、提案手法は Transformer の BLEUを、0.5 上回った。短い文では、長い文に比べて、節の数が少ない。その結果、分割が発生しないこともあり、モデル 2 の入力が、原言語文に、その文の翻訳を繋げただけのものもある。 これは、Xu ら [6] の用いた似た訳文の代わりに、モデル 1 による翻訳を用いたことで、同様の効果があったと推定される。 表 3 は、各モデルの実際の出力例である。 Transformer では、「伊那谷と木曽谷を結ぶ」という部分の地名が抜け、代わりに「インターチェンジ・ ゾーンエリアを結ぶ」となっている。「交流圈域」と類似した意味をもつ「インターチェンジ・ゾーンエリア」という表現が入っているが、これは、本来ならば、参照訳にあるような「交流圏域の拡大」という文脈のみで使われる単語である。また、線形化された構文木のモデルでは、「振興・創出について検討した。」となっているが、「振興・創出をめざす地域整備の方策を検討した。」となるべきである。 これに比べて、提案手法は、より訳抜けを改善し、統語構造も参照訳に近いものとなっている。「インダニと木曽谷を結ぶ」の部分では、「木曽谷」という地名を出力し、「振興と創出を目指した地域整備の方策を検討した。」という、参照文に近い構造を持っている。 実際のモデル 2 の入力は付録に記載するが、表 3 の、モデル 1 による節の翻訳例を見ると、“National \\ Route 361 connecting Inadani and Kisodani was approved in the business as a high standard road" という英語の節が、「インダニと木曽谷を結ぶ国道 361 号が高規格道路として事業で認可された。」とデル 1 によって翻訳されている。この節の翻訳がモデル 2 に入力されていることで、「木曽谷」を正確に翻訳できていると言える。しかし、節の翻訳は、「地域における産業の振興と創出について検討した。」のように、構文木を使ったモデルと同じような統語構造を持っている。これに対し、その節と一つ前の節の「交流圏域の拡大を目指した地域整備の方策」がモデル 2 によって並べ替え、編集されることによって正しい統語構造が出力されていることが分かる。 ## 4.3 考察 提案手法は Transformerに比べ、テストデータ全体に対して、ratio が若干改善したが、BLEU の改善には結びつかなかった。その理由の一つとして、提案手法の推論時に、ビーム探索によるスコア最大の節翻訳結果のみを考慮していることが挙げられる。節の翻訳は、隣の節にも依存するため、ビーム探索の結果の 1-best ではなく、k-best を考慮したモデルを考えることで、より精度の高い節翻訳結果の選択と結合が行える可能性がある。また、本研究では節の始めと終わりで区切っているため、節と節の間を繋ぐ、短いセグメントが生じ得る。そのような短い単位の翻訳では、重複訳が発生する傾向があった。例えば、“, and”は、「又, 及び, また, そのためのものである。」のようにモデル 1 によって翻訳されている。そのため、節の分割の方法に対する更なる検討が必要と言える。 また、線形化された構文木のモデルの結果から、構文情報を入力文に付与することが必ずしも長い文の精度向上に役立つわけではないということが示された。 ## 5 おわりに 本研究では、長い文を分割して翻訳し、その結果を並べ替えて繋げるという分割統治的なニューラル機械翻訳の手法を提案した。それによって、訳抜けを防止できる可能性を示した。コーパス単位の BLEU で顕著な差はなかったが、長文においては一定の効果が見られ、出力長を参照文に近づけることができた。今後はセグメント分割の手法、セグメント単位の翻訳の結合の方法についてさらに検討を進める。 ## 謝辞 本研究の一部は JSPS 科研費 JP17H06101 の助成を受けたものである。 ## 参考文献 [1]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and andIllia Polosukhin. Attention is all you need. CoRR, p. Vol.abs/1706.03762, 2017. [2]Masato Neishi and Naoki Yoshinaga. On the relation between position information and sentence length in neural machine translation. In Proceedings of the 23rd Conference on Computational Natural Language Learning (CoNLL), pages 328-338., 2019. [3]K. Sudoh, K. Duh, H. Tsukada, T. Hirao, and M. Nagata. Divide and translate: improving long distance reordering in statistical machine translation. In Proceedings of the Joint 5th Workshop on Statistical Machine Translation and MetricsMATR(SMT'10). pages 418-427., 2010. [4]Jean Pouget-Abadie, Dzmitry Bahdanau, Bart van Merrienboer, Kyunghyun Cho, and Yoshua Bengio. Overcoming the curse of sentence length for neural machine translation using automatic segmentation. In Proceedings of SSST-8, Eighth Workshop on Syntax, Semantics and Structure in Statistical Translation, pages 78-85., 2014. [5]Roee Aharoni and Yoav Goldberg. Split and rephrase: Better evaluation and stronger baselines. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pages 719-724. Association for Computational Linguistics., 2018. [6]Jitao Xu, Josep Crego, and Jean Senellart. Boosting neural machine translation with similar translations. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pages 1580-1590, Online, July. Association for Computational Linguistics., 2020. [7]Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. Aspec: Asian scientific paper excerpt corpus. In Nicoletta Calzolari (Conference Chair), Khalid Choukri, Thierry Declerck, Marko Grobelnik, Bente Maegaard, Joseph Mariani, Asuncion Moreno, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC 2016), pp. 2204-2208, Portorož, Slovenia, may 2016. European Language Resources Association (ELRA). [8]Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of NAACL-HLT 2019: Demonstrations, 2019. [9]Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics., 2018. [10]Peng Qi, Yuhao Zhang, Yuhui Zhang, Jason Bolton, and Christopher D. Manning. Stanza: A python natural language processing toolkit for many human languages. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pages 101-108, Online., 2020. [11]Roee Aharoni and Yoav Goldberg. Towards string-to-tree neural machine translation. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pages 132-140. Association for Computational Linguistics., 2017. [12]Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics., 2002. [13]Taku Kudo. Mecab: Yet another part-of-speech and morphological analyzer., 2005. http://mecab. sourceforge . net/. [14]Matt Post. A call for clarity in reporting bleu scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Belgium, Brussels, October 2018. Association for Computational Linguistics., 2018. ## A 付録 ## A. 1 実験設定の詳細 開発データの loss が 5 回改善が見られない時に学習を止めた。提案手法のモデル 2 では、入力の長さがベースラインの約 2 倍となる。 1 バッチあたりに含まれる文の数をべースラインに合わせるため、モデル 2 の学習では、update-freqをべースラインの 2 倍にした。同様の理由により、線形化された構文木を入力とするモデルの update-freq をベースラインの 4 倍にした。 ## A. 2 実際のモデル 2 の入力例 The measures for regional improvement aiming at expansion of the inter ch ang ing zone area @ @ @ 交流圈域の拡大を目指した地域整備の方策。III, and @@@ 又,及び,また,そのためのものである。III promotion and creation of the industry in the area were examined, @ @ @ 地域における産業の振興と創出について検討した 。 I|| taking advantage of the time that @@@時間の利点を活かした。 ||| National Ro ute 361 connecting In ad ani and $\mathrm{K}$ is od ani was approv ed in the business as a high standard road @@@インダニと木曽谷を結ぶ国道 361 号が高規格道路として事業で認可された。III. @ @ @その他。 ## A. 3 モデル 2 の入力例を SentencePiece でデコードしたもの) The measures for regional improvement aiming at expansion of the interchanging zone area@ @ @ 交流圈域の拡大を目指した地域整備の方策。III, and @ @ 又又, 及び, また, そのためのものである。III promotion and creation of the industry in the area were examined,@@ @ 地域における産業の振興と創出について検討した。III taking advantage of the time that@@ @ 時間の利点を活かした。III National Route 361 connecting Inadani and Kisodani was approved in the business as a high standard road@@@ @インダニと木曽谷を結ぶ国道 361 号が高規格道路として事業で認可された。III.@@@その他。
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-10.pdf
# 自発的な独話における可読性向上のための 言い直し表現の定義と分析 島森瑛貴 横浜国立大学 simamori-eiki-vj@ynu.jp } 阪本 浩太郎 横浜国立大学 sakamoto@forest.eis.ynu.ac.jp 森辰則 横浜国立大学 moriaforest.eis.ynu.ac.jp } 渋木 英潔 国立情報学研究所 shib@nii.ac.jp ## 1 はじめに オンライン化が進む現代では人の発話を書き起こしテキストとして読む場面が増えた。そのような話し言葉の書き起こしは、編集されていない状態では 「文章を㔯長にする語の多用」、倒置」「文章の数じれ」などの話し言葉に特有の現象が出現する。その中でも、話し言葉の自発性に伴って出現する「言い直し表現」は書き言葉には出現しないため可読性を下げる要因となりうる。我々はそれらの現象を適切に修正するシステムを作成し可読性の向上に貢献することを目標とする。 その手始めに本論文では日本語の自発的な独話に出現する言い直しを検出し修正するシステムの作成を目的として、言い直し現象を定義し直し機械が処理しやすい形での分類を行う。 ## 2 関連研究 話し言葉の自己修復を扱う代表的なモデルとして RIM(Repair Interval Model)[1] が存在する。RIM は自己修復部を被修復部、言い淀み区間、修復部の 3 つの部分に分割し,これらがこの順に出現することで一つの自己修復を行っていると仮定している。 丸山ら [2] は RIM 亿基づき『日本語話し言葉コー パス』[3] (Corpus of Spontaneous Japanese 以下,CSJ とする)纪出現する言い直し表現について言語学的な観点から分類した。分類結果は、発音エラーに伴う言い直し(R1)、単純な繰り返し(R2)、語彙的な誤りに伴う言い直し (R3)、情報不足に伴う言い直し (R4)、別表現への言い換え (R5)の 5 つに分類される。以下沶す分類例は ([分類] 被修復部|言い淀み区間|修復部) の形式となっている。 (R1)コンテキスト (R1 (D いぞ)||依存 ) モデルを (R2)その年の (R2七月川七月) から (R3)独特の (R3 旋律の $\mid(\mathrm{F}$ え) 旋律を) 形作っている (R4)海外に (R4 興味||元々興味) がありまして (R5)(R5こちら側のグラフ|右側のグラフ)は何を表わしているかと言いますと この分類は処理の対象が形態素未満、形態素以上単語未満、一文節、二文節以上など様々であるため機械的な処理にそのままこの基準を用いることは難しい。そのため工学的な観点から、処理の方法と対応する分類を行う必要がある。 話し言葉における言い直しの検出の先行研究は [4][5] などがある。 下岡らの手法 [4] は [6] で定義された言い直しのタグを正解として言い直しの検出を行っている。また推定された箇所について、係り受け情報を用いて削除する範囲の同定について検討している。しかし、形態素の繰り返し情報などを素性とした SVM を用いて任意の文節が言い直しであるかを判定しており、特定のモデルを作成していない。また、[6] は 「同一の内容を指し示している対等な文節」をのみを言い直しと定義して CSJにアノテーションしており、我々の扱いたい問題が含まれていない。 藤井らの手法 [5] は自己修復部を分割したモデルを作成し、言い直しの検出修正を行っている。しかし、そのモデルはフィラーや言い淀みの存在を仮定しており、それらが存在しない言い直し表現については検出ができない。 本研究では初めに我々の考える言い直し現象を定義し、それに基づいた検出修正に取り組むための分析を行う。 ## 3 定義 本研究において、我々は「言い直し」を「同一の対象に複数回参照する表現のうち、同一の面を参照しているもの」であると定義する。 この定義では [6] で定義された「言い直し」に加え以下のものも対象として扱う。言い直し表現の表記は以下 (言い直し元/言い直し先) とする。 1. 言い淀み ・聞き分けられていると(い/言われています) 2. 修正の意図を持つ発言を含むもの ・(苦手というか/苦手意識が)ある。 3. 間に挿入節を含むもの ・(ママが/\{ママと言っても短パンと Tシャツを着て髭を生やした凄いごつい男の人でどう見ても男なんですけれども\}その人が) 4. 対象を一回以上指示語で参照しているもの1) ・タイミングと振幅比の (関係にちらを) 以下の文のように「みかん」と「りんご」のような異なる対象を参照する場合や、同じ対象であっても 「実績」と「グループ名」のように異なる面から参照し直している物は言い直しではないと捉え本研究の対象としない。 ・色鮮やかな (織物や/工芸品が) 並んでいます。 ・(トレーニング八十パーセント達成組/つまり先程 のAグループ) また、本研究では言い直し表現の組のうち、最後に言い終えている箇所を「言い直し先」と、それ以外の箇所を「言い直し元」と定義する。 以下の例文では「ハワイ島」「ハワイ島というか」「マウイ」の三つが言い直しの組を構成しており、「マウイ」を言い直し先、「ハワイ」、「ハワイ島というか」を言い直し元と考える。 ・ただ、4泊 6 日で行ける (ハワイ島/ハワイ島というか/マウイ)もよかったんですけどすべての言い直し表現の組は一つ以上の言い直し元と一つの言い直し先からなるとする。 我々は言い直し先は言い直し元よりも後に発話されていることから重要であり残すべきであるという仮説を立てた。その仮説を元に言い直し現象の組のうち言い直し元と言い直し先のどちらを削除するか調査する。 ## 4 言い直し表現組における削除箇所 の調査 1)CSJでは同格であると扱われている [6] ## 4.1 対象 以下の分析の対象として CSJ のコアのうち独話である講演、模擬講演の合計 177 講演を用いた。言い直し元が自立語を含む組は第一筆者がアノテーションしたデータを用いた。そのような言い直し表現は 1359 組得られた。前述した例のように一つの言い直し現象で二つ以上の言い直し元が存在するときはそれぞれの言い直し元と言い直し先の組を言い直し元の数だけ用意した。最終的に言い直し元と言い直し先の組は全部で 1453 件検出された。また、「助詞・助動詞・接辞・数字の言い直し」の形態素は D2 タグとして、「言い直し・言い淀み等による語断片」 の形態素は D タグとして CSJ にアノテーションされている [7]。コア 177 講演中に D2 タグは 223 件、 D タグは 2393 件存在する。これらは言い直し元が文節未満であるような言い直しの表現組の言い直し元であるとする。合計 4069 件について言い直し元と言い直し先のどちらを削除するかの分類を行う。削除箇所は第一著者一人が判断して頻度を調査する。表 1 に結果を示す。 ## 4.2 結果 表 1 言い直し組と削除箇所 ## 4.3 考察 言い直し元が語断片のときはそれらを削除することで修正する。また、助詞が言い直されているものは、一つの文節で最後以外の助詞を削除することで修正する。言い直し元が文節以上のものはおおよそ言い直し元を削除するが、言い直し先を削除するものが 87 件存在した。その 87 件のうち、 84 件は言い直し先の自立語が指示語を含むものであった。また、言い直し元のみが指示語を含むが言い直し先を削除する例は存在しなかった。言い直し先を削除するもののうち、言い直し先が指示語でないものは以下の 3 件である。 (例 1)(百キロぐらいで/(あっちはマイルで出るんですけれども) マイルで) 飛ばすから (例 2)この (安全保障理事会/安保理が) 最近非常に (例 3) 傾向が我が社にも (ありました/ました) (例 1) は文章の意味を理解する必要があり、高度な処理が求められるため今後の課題とする。(例 2) は正式名称と略語の関係であり、略語を削除することとする。(例 3) は付属語から繰り返されている場合であり、一文節中で重複する付属語を削除することで修正する。 ## 5 システム設計方針の概要 本論文で提案するシステムは始めに言い直しの検出を行い、次に言い直しの修正を行う二つからなる。一文を大力とし、その修正を行った結果の文を出力とする。 ## 5.1 言い直し表現候補検出の方針 検出部では、入力された文を係り受け解析して得られる文節の組について、任意の二文節が言い直し表現候補となるかを判断することで言い直し表現候補を検出する。またその時の音声認識や形態素解析の結果から、語断片や助詞の言い直しと判断されるものが見つかればそれらは全て上記の方針で削除する。下岡ら [4] は形態素の繰り返し情報が言い直しを検出する際の有効な素性であると述べている。本研究でも言い直し元は言い直し先の自立語を含むという仮説を立てる。 また言い直し組の検索範囲が広すぎると言い直しではない離れた文節を言い直しと誤って判断すると考えられる。そこで対象とする二文節間の最長距離を決めるために、言い直し表現組の間に入る最長の文節数を調査する。6 章では上記二つの調査を行う。 ## 5.2 言い直し修正の方針 検出部では、検出部で検出された言い直し表現候補の組のうち、言い直し元または言い直し先のいずれかを削除することで修正を行う。言い直し元が形態素未満の語断片であるときは検出部で削除するため、修正部に入力される言い直し表現候補の組はどちらも文節単位である。 4 章の分析から言い直し先の文節のみが指示語を含んでいるときは言い直し先を、それ以外の場合は言い直し元を削除することで修正できることが明らかになったため、そのまま言い直し修正の方針として用いる。また、削除箇所については削除の対象となる箇所は一文節以下であるという仮説を立てて 7 章で調査する。 ## 6 言い直し表現組の検出基準の調査 前章で立てた言い直し元は言い直し先の自立語を含むという仮説と、言い直し表現は最大いくつの文節を間に含むかの二つを調査する。使用するデータは言い直し元が文節以上であるような言い直し元と言い直し先の組 1453 組である。言い直し元、言い直し先、その間の挿入表現をそれぞれ形態素解析、係り受け解析し共通の自立語を持つか、また挿入節の文節数を調査した。それぞれの結果は表 2、表 3 に示す。 表 2 言い直し元が言い直し先の自立語を含むか 表 3 言い直し元と言い直し先の間に入る挿入節の文節数 ## 6.1 言い直し表現が間に含む文節数 言い直し元と言い直し先のの間には最大で 15 文節までが含まれることが判明した。該当する文は 「ママが (ママと/言っても/短パンと/T シャツを/着て/髭を/生やした/凄いごつい/男の/人で/どう/見ても/男なんですルれども) その人が」 このことから我々のシステムにおいては注目している文節から 15 文節以内を検索の対象とする。 ## 6.2 共通の自立語を含むか 言い直し表現組 1453 件のうち 1090 件は言い直し元が言い直し先の自立語を含むことが判明した。言い直し先と言い直し元が共通の自立語を含まない 363 件の分類は以下のとおりである。 (1)類義語 87 例 (見紛うような/見間違うような),(人の/人間の) (2)指示語を含む 80 例 (加盟国にれれは),(これはにの数値は) (3)編集表現を含む 97 例 (ハワイと言うか/マウイ島),(日本じゃない/東京の) (4)部分文字列が共通 20 例 (サザン/サザンテラス),(半/半年) (6)アルファベット、数字 3 例 (XY/Xという単語 $Y$ という単語が),(1999/ 1990 年の) (7)分類誤り 67 例 各分類ごとの処理方針は以下のとおりである。 (1)(4)(6) は表層系以外での要因が類似している。 そこで、意味が似ている、音が似ている、部分的な文字列が似ているなどの自立語間の類似度が高いものが存在したときに言い直しとして検出する。これらは、分散表現から語の類似度を調べる手法や、文字単位に分解し共通の文字を含むかといった手法で類似度を調べる。特に数字や、アルファベットは形態素として扱うことが難しいため文字単位で扱うことが有効であると考える。 (2) の指示語を含むもの 80 例を分析した結果、(加盟国にれは) や(これにの図は)のように付属語を持たない名詞 (指示語) の文節と指示語 (名詞) の文節が連接するとき、または(これはにの数値は)のように指示語と自立語が同じ付属語を持つときのどちらかであることが分かった。上の二つを指示語を含む言い直し検出の規則とする。 (3) は我々が編集表現であると判断した表現のリスト2)を作成し、当てはまるものを検出する。調査に用いたコーパス内に出現する編集表現は「と言うか」「じゃなくて」のどちらかを基本形に持つ物が多い。 (7) は形態素解析の誤りや言い直し元が複数ある場合で、実際には上記のいずれかの手法で検出できる。(ハワイハハワイと言うか/マウイ島)のように言い直し元が複数あるとき、調査では(ハワイ/マイ島) の組を調べたため自立語を含まない。しかし入力の先頭から調べると (ハワイハハワイと言うか)が共通の自立語を持ち、(ハワイと言うか/マウイ島) は編集表現を持つため上記の規則に従って、言い直し表現の検出ができる。 上記の考察を元に本システムでは 15 文節以内にある任意の 2 つの文節のうち次のような条件を満たすもので最も距離が近い物を言い直しの候補とする。検出規則を優先度が高い順に次のようにする。 ・同一の自立語を含む ・編集表現を持つ ・指示語を含むときの規則に当てはまる - 文節間の類似度で判断するときの規則に当ては  ## 7 修正における削除箇所の文節長の 調査 削除箇所が一文節であるという仮説を調査する。使用するデータは言い直し元が文節以上であるような言い直し元と言い直し先の組 1453 組である。調査結果を表 4 に示す。 表 4 削除箇所の長さ 言い直し表現 1453 組のうち削除箇所が一文節のものは 1062 組存在した。これらは言い直し候補として検出されたのちに削除規則に従って文節単位で削除することで修正を実現できる。また削除箇所が二文節以上であるようなものが 391 件存在した。 以下の例文では共通の自立語「隣り」を持つ文節である「隣の」だけではなく「方」も削除する必要がある。係り受けの情報を用いると「方」は「隣の」 に係られているが、「隣には」には係っていないため「隣の方」を削除するというように削除箇所を推定できると考えている。 ・(隣りの方隣りには) デパートは作らない 係り受け情報を用いた削除範囲の推定は今後の課題とする。 ## 8 まとめ 本研究では話し言葉の可読性を向上させることを目的として、「同一の概念に複数回参照しているものの内、異なる面から参照しているもの」と言い直しを新たに定義した。その定義のもとで言い直しの検出修正の規則を作成するため CSJ の独話講演情報を分析した。今後の課題は自立語間の類似度を測る基準を設けること、また削除箇所が二文節以上であるときに削除箇所を適切に推定すること、これらの方針で実際にシステムを作成し性能を評価することなどがある。 ## 参考文献 [1]Christine Nakatani and Julia B Hirschberg. A speechfirst model for repair detection and correction. 31st Annual Meeting of the Association for Computational Linguistics, 13(1):46-53, 1993. [2]佐野信一郎丸山岳彦. 自発的な話言葉に現れる言い直し表現の機能的分析. 言語処理学会第 13 回年次大会, 13:1026-1029. [3]国立国語研究所. 『日本語話し言葉コーパスの構築法』.http://pj.ninjal.ac.jp/corpus_center/ $\mathrm{csj} /, 2006$. [4]内元清貴井佐原均下岡和也, 河原達也. 『日本語話し言葉コーパス』における自己修復部 (d タグ)の自動検出および修正に関する検討. 情報処理学会研究報告音声言語情報処理 (SLP), 2005(50):95-100, 2005. [5]斎藤博昭藤井はつ音, 岡本紘幸. 日本語話し言葉における自己修復の統計モデル. 言語処理学会第 10 回年次大会発表論文集, pages 2-7, 2004. [6]高梨克也井佐原均内元清貴, 丸山岳彦. 『日本語話し言葉コーパス』における係り受け構造付与. https://pj.ninjal.ac.jp/corpus_center/ csj/manu-f/dependency. pdf, 13(1):1, 2006. [7]間淵洋子小磯花絵, 西川賢哉. 『日本語話し言葉コーパスの構築法』2 章転記テキスト.http://pj.ninjal.ac.jp/corpus_center/csj/ k-report-f/02.pdf, 2006. ## A 付録 と言うんですか: 1 ## A. 1 編集表現のリスト 言い直し表現に出現する編集表現について 出現形:出現回数の形で分類した表を以下に示す。 ## A.1.1 じゃない系統 「じゃない」の派生は 5 種 14 回出現している。 じゃありませんね: 1 じゃない: 7 じゃないですね: 1 じゃないな: 1 じゃないや: 1 ではないですね: 1 ではないですが: 1 ってことはないですね: 1 ## A.1.2 と言うか系統 「と言うか」の派生は 25 種 136 回出現している 言うか: 2 つちゅうか: 2 つつうんですか: 1 って: 1 って言いますか: 1 って言うか: 33 って言うかね: 1 って言うんすか:1 って言うんでしょうか: 2 って言うんですか: 9 って言うんですかね: 2 ってえか: 1 ってか: 3 て言うか:4 て言っていいんでしょうか: 1 て言うんですか: 1 て言うんでしょうかね: 1 と言いましたけど: 1 と言いますか: 15 と言うか: 45 というが: 1 と言うのか: 1 と言うよりは: 1 と言うんでしょうか: 5
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-11.pdf
# Towards Understanding Implicit Reasoning in Arguments via Multiple Warrants Keshav Singh $^{\dagger}$ Paul Reisert ${ }^{\ddagger, \dagger} \quad$ Naoya Inoue* Kentaro Inui $^{\dagger, \ddagger}$ ${ }^{\dagger}$ Tohoku University, Sendai, Japan ${ }^{*}$ Stony Brook University ${ }^{\ddagger}$ RIKEN Center for Advanced Intelligence Project keshav.singh29@ecei.tohoku.ac.jp paul.reisert@riken.jp naoya.inoue.lab@gmail.com inui@tohoku.ac.jp ## 1 Introduction In argumentative discourse such as debates and essays, some parts of the reasoning are unstated by the debater or writer, often for strategic reasons/purpose. Such implicit reasoning, hereby referred to as a warrant, is often inferred by listeners in distinct ways [10]. For example, consider the following argument consisting of a claim (i.e., declarative statement) and a premise (i.e., supporting statement): (1) Claim: Voting should be made compulsory Premise: because it increases voter turnout. In Example 1, a potential set of warrants bridging the reasoning between the claim and the premise could then be considered as follows: (2) Warrant 1:High voter turnout is good for a fair representation of society. Warrant 2: Minorities who vote often have their needs prioritized over the majority. In the educational domain, practicing identification of such warrants has long been shown to improve one's argument comprehension skills $[9,4]$, thus aiding one to make better arguments [12]. For example Hillocks [8] helped students practice argumentation by making them write the appropriate warrant for a given argument which was later corrected if a better warrant existed. This helped students improve their critical thinking and writing skills. Although identification and correction of warrants is an interesting challenge, especially when deployed in classrooms, despite the evidence, previous works with the aim to automate such identification of warrants have focused on methods which capture these implicit components from only a single perspective. Specifically, these methods usually focus on finding a single warrant for an argument when other possibilities exist. Habernal et al. [7] crowdsourced a pair of both correct and incorrect warrants per argument so that neural models would be able to distinguish between a good and bad warrant. Becker et al. [2] proposed an iterative process of warrant generation by experts aimed to create a single warrant unanimously decided by experts. However, previous work has mentioned that it is unrealistic to restrict on having one single warrant per argument due to vast number of ways to interpret the warrant $[5,10]$. Hence, while the previous methods may lead to finding a single appropriate warrant, they do so at the expense of neglecting the other possible warrants. In this work, we aim to collect multiple warrants per argument for a variety of topics through a systematic crowdsourcing process. In total, we collect warrants for 3 topics, which totals 6,200 warrants for 620 different arguments consisting of a claim and premise pair. Using a subset of the collected warrants for each topic, we analyze their overall quality through manual analysis and obtain a reasonable quality (Krippendorff's $\alpha=0.63$ ). Furthermore, we conduct a preliminary analysis on the properties of warrants to better understand their structure. ## 2 Towards collecting multiple warrants For collecting multiple warrants which can be potentially useful in real-world applications such as argument analysis or warrant correction, we require a dataset that fulfills the following criteria: i) diverse set of premises per topic to cater to maximum possible arguments, and ii) multiple unique warrants per premise. In addition, the dataset creation process must be cost effective without compromising data quality. Ideally, a dataset with multiple topics is desirable; however, collecting warrants across multiple topics is both difficult and time consuming. Thus, we define a simple metric to filter a handful of topics (specifically, 3) found in a large, well-known argumentation dataset of diverse premises in order to Figure 1: Scatter plot of premise diversity vs no. of premises for each topic (represented by points) in IBMRank30k corpus. Diversity of premises for each topic increases along the x-axis. For our task, we choose three least diverse topics for warrant crowdsourcing task. start with a small and relatively easier topics, We describe our methodology for topic selection and collecting multiple user-generated warrants for a claim and premise pair in the following section. ## 2.1 Source data As a source dataset, we opted for the arguments from IBM-Rank-30K dataset [6], which contains supporting and opposing stance arguments on 71 common controversial topics. Several factors motivated our choice for $I B M$ Rank-30K: (1) Arguments were collected actively from crowdworkers with strict quality control measures as opposed to being extracted from targeted audiences such as debate portals. (2) The arguments have already been annotated with point-wise quality. These factors provide a vast majority of all the possible arguments that can be made for a given topic with quality scores. To select the topics for our warrant crowdsourcing task, we define a new metric. Specifically, for each topic $(t)$, we estimate the diversity of premises $\left(d_{t}\right)$ as a function of its vocabulary size: $ d_{t}=\frac{\left(\left|V\left(p_{t}\right)\right|-\left|V\left(p_{t}^{50 \%}\right)\right|\right)}{\left(\left|p_{t}\right|-\left|p_{t}^{50 \%}\right|\right)} $ where $p_{t}$ is a set of premises associated with $t$, $p_{t}^{50 \%}$ is a $50 \%$ random sample of $p_{t}$, and $V(p)$ is a set of unique words (i.e. vocabulary size) of $p$ obtained after tokenization and lemmatization. The final diversity $\left(d_{t}\right)$ for each topic is calculated after averaging over multiple random resampling runs. As shown in Fig 1, the variety of premises for topics in IBM-Rank-30k is strongly dependent on ## Debate topic: Whaling John Doe argues : Whaling is inhumane and an act of greed. And since, .. fill the reasoning gap with a proper explaination I claim that: We should ban whaling Figure 2: Crowdsourcing interface for collecting warrants for a given topic and premise. Workers were additionally advised to adhere to simple rules when writing their warrants. the topic. To create our warrant KB, we choose 3 topics with the least growth rate; namely i) Whaling should be banned $\left(d_{t}: 1.36\right)$, ii) Voting should be made compulsory $\left(d_{t}: 1.37\right)$, and iii) Zoos should be banned $\left(d_{t}: 1.41\right)$. ## 2.2 Crowdsourcing methodology For collecting warrants for arguments across the 3 pre-selected topics, we conducted a crowdsourcing task using Amazon Mechanical Turk ${ }^{1}$ (AMT) platform. Prior to deploying our task in full, we conducted a preliminary study for creating our guidelines by annotating a subset of warrants crowdsourced via multiple trial runs to understand both good and bad warrants. As shown in Fig 2, we provide crowdworkers with an argument (i.e., claim and a premise) and instruct workers to provide a warrant that fills the implicit reasoning between the claim and premise in the form of natural sentence. Additionally, for maintaining high quality annota- ^{1}$ www.mturk.com } ## Topic T: We should ban whaling \\ Premise P: Alternatives are available to nearly every product produced from whales. ## Warrants W (Score: 2) -> - We don't need the products that result from whaling - There are different fish that can be alternative for whale meat ## Warrants W (Score: $o)$-> - Whales are an endangered and are vital to the health of the marine environment - Whales are animals vital for the balance of the ocean $^{1}$ ## Topic T: We should introduce compulsory voting \\ Premise P: Compulsory voting would increase voter turnout. ## Warrants W (Score: 2) -> - A greater voter turnout leads to a more representative government - Increase in voter turnout will eradicate the politicians that are dependent on few individuals which can control the election ## Warrants W (Score: o) -> - It is not democracy if there is only 50 percent of voter turnout. higher voter turnout makes government more representative - People will complain about politicians regardless of voter turnout. Figure 3: Examples of warrants captured by our crowdsourcing method. Warrants acquired from different workers as scored best by experts are shown on the left and the worst scored are shown on the right. Note that for a few warrant instances, we found very similar warrants after analyzing them into individual clausal sentence as shown in red. tions, we filtered crowdworkers via our custom Reasoning Qualification Test (RQT). In RQT, workers were asked 3 simple reasoning questions aimed to test their ability to identify warrants. Only those who answered all questions correctly were allowed to proceed to the final annotation task. ## 3 Collected warrant statistics In this section, we describe our current set of warrants collected through crowdsourcing. To assess the quality, we also create guidelines for experts to manually examine the crowdsourced warrants. In total, we collect 6,200 warrants in total for 620 unique claim and premise pairs (10 warrants per premise) from 177 unique crowdworkers. The specific amount of warrants collected per each topic are as follows; Abolish zoos: 198, Introduce compulsory voting: 205 and Ban whaling: 217. ## 3.1 Quality To examine the quality of the crowdsourced warrants, we ask 2 annotators, both experts of argumentation and authors of this paper, to judge the quality of 200 randomly sampled warrants on a 0-2 scale (0:weak warrant, 2 :strong warrant). As shown in Table 1, the Krippendorff's $\alpha$ (interval) and Cohen's Kappa between both annotators for 200 randomly sampled set was 0.63 and 0.42 respectively. These scores correspond to moderate agreement and Table 1: Topic-wise quality statistics for the collected warrants. $\alpha$ and $\kappa$ are the Krippendorff's and Cohen's inter-annotator agreement scores respectively. A1 and A2 are the average scores given to the warrants by our two expert annotators. are comparable to agreement levels in similar computational argumentation works $[1,3]$. Additionally, as shown in Fig 3, the collected warrants ranged from being weak to strong, where some being totally unrelated to the argument (scored:0) while majority explicating the reasoning (scored:2). ## 3.2 Warrant properties We perform a manual check on a subset of 2,000 warrants from 200 arguments (i.e., 10 warrants per argument) to determine if the collected warrants are related to the argument. On an average, we discovered that $6.67 / 10(66.7 \%)$ warrants were related while the rest were either nonsensical or unrelated. During our analysis, we also found that many warrants were compositional statements i.e. comprising ## Claim: We should ban whaling. Premise: Animals have rights and we as custodians of nature have an obligation to them to protect them from this cruel and needless death SUPPRESS Warrant $_{1}$ : animal rights are violated when we needlessly kill them. Warrant $_{2}$ : whaling is not necessary to our survival and it kills off beautiful majestic creatures. SUPPRESS Figure 4: Example of reasoning patterns on top of collected warrants. Both warrants help infer the connection between the claim and the premise more clearly. of two or more compound statements. We observed that many of the warrants contained repetitive statements, as shown in Fig 3. Towards understanding the underlying reasoning, we conducted a preliminary analysis on warrants for determining what properties of them differ for a claim and premise pair. Motivated by a set of reasoning patterns [11] used to represent various schemes in argumentation [13], we analyze roughly 48 warrants for 6 claim-premise pairs ( 8 warrants per pair) to determine the coverage of warrants which can be represented with reasoning patterns. We find that roughly $20 / 48(41.67 \%)$ warrants can be decomposed into reasoning patterns. An example of such annotation is shown in Fig 4. In this example, the reasoning that whaling suppresses animals and whaling suppresses rights is implicit, which the warrants help explicate. Given the coverage of reasoning patterns in our analysis, we will consider ways to improve our warrant collection task by utilizing them in our future work. ## 4 Conclusion and future work In this work, we tackle the difficult task of collecting warrants in arguments. We developed a methodology for collecting multiple warrants for arguments and utilize crowdsourcing for collecting 6,200 warrants for 620 arguments. For testing the integrity of the warrants, we conduct a small annotation study on 200 warrants and obtain a reasonable annotator agreement ( 0.63 Krippendorff's $\alpha$ ). Finally, we conduct a preliminary analysis on the decomposition of the warrants and find on average 3 warrants collected per argument to comprise of more than one warrant. In our future work, we will expand our dataset for a variety of different topics and devise an approach for decomposing collected warrants to a single clausal form. We will also test the usefulness of our collected warrant knowledgebase for the task of warrant explication for unseen arguments in a realistic setting, such as deploying our warrant knowledgebase in schools in which students debate and/or write essays on controversial topics. ## References [1] Roy Bar-Haim, Lilach Eden, Roni Friedman, Yoav Kantor, Dan Lahav, and Noam Slonim. From arguments to key points: Towards automatic argument summarization. arXiv preprint arXiv:2005.01619, 2020. [2] Maria Becker, Michael Staniek, Vivi Nastase, and Anette Frank. Enriching argumentative texts with implicit knowledge. In International Conference on Applications of Natural Language to Information Systems, pages 8496. Springer, 2017. [3] Filip Boltužić and Jan Šnajder. Fill the gap! analyzing implicit premises between claims from online debates. In Proceedings of the Third Workshop on Argument Mining (ArgMining2016), pages 124-133, Berlin, Germany, August 2016. Association for Computational Linguistics. [4] Sibel Erduran, Shirley Simon, and Jonathan Osborne. Tapping into argumentation: Developments in the application of toulmin's argument pattern for studying science discourse. Science education, 88(6):915-933, 2004. [5] James B Freeman. Relevance, warrants, backing, inductive support. Argumentation, 6(2):219-275, 1992. [6] Shai Gretz, Roni Friedman, Edo Cohen-Karlik, Assaf Toledo, Dan Lahav, Ranit Aharonov, and Noam Slonim. A large-scale dataset for argument quality ranking: Construction and analysis. arXiv preprint arXiv:1911.11408, 2019. [7] Ivan Habernal, Henning Wachsmuth, Iryna Gurevych, and Benno Stein. SemEval-2018 task 12: The argument reasoning comprehension task. In Proceedings of The 12th International Workshop on Semantic Evaluation, pages 763-772, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [8] George Hillocks. Ej in focus: Teaching argument for critical thinking and writing: An introduction. The English Journal, 99(6):24-32, 2010. [9] David Hitchcock and Bart Verheij. Arguing on the Toulmin model, volume 10. Springer, 2006. [10] Christian Kock. Multiple warrants in practical reasoning. In Arguing on the Toulmin model, pages 247-259. Springer, 2006. [11] Paul Reisert, Naoya Inoue, Tatsuki Kuribayashi, and Kentaro Inui. Feasible annotation scheme for capturing policy argument reasoning using argument templates. In Proceedings of the 5th Workshop on Argument Mining, pages 79-89, Brussels, Belgium, November 2018. Association for Computational Linguistics. [12] Sarah von der Mühlen, Tobias Richter, Sebastian Schmid, and Kirsten Berthold. How to improve argumentation comprehension in university students: Experimental test of a training approach. Instructional Science, 47(2):215237, 2019. [13] Douglas Walton, Christopher Reed, and Fabrizio Macagno. Argumentation schemes. Cambridge University Press, 2008.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-12.pdf
# アスペクトベース意見分析における日本語評価コーパスの構築 楽天株式会社楽天技術研究所 \{yuki.b.nakayama, koji.murakami, ikuko.hardaway\}@rakuten.com ## 1 はじめに ウェブ上には,ニュース記事に対するコメントやカスタマーレビューなどの意見テキストが膨大に蓄積されている。これらの有効利用を目的として,意見分析の研究が盛んに行われている。意見分析とは,意見テキストの集合から知識を発見する処理の総称であり [1], 重要な基盤技術として意見抽出がある.これは,「ホテル A は朝食が美味しい」のような文に対し「対象=ホテル $\mathrm{A} ,$ アスペクト=朝食, 評価 $($ 極性 $)=$ 美味しい(肯定)」のような要素を抽出することで,意見情報の基本単位を定型化する. 意見テキストの集合から意見の基本単位が大量に抽出されると, ある対象における評価の概観が容易となる,例えば,ホテルA9品質改善を試みる場合は,ホテル Aに関する意見から否定的な評価を受けやすいアスペクトを調べるだろう。 特に近年は,対象のアスペクトとその評価極性ペアを抽出するアスペクトベースの意見分析 (Aspect-Based Sentiment Analysis: ABSA) がより重要なタスクとなっている $[2,3,4,5,6]$. ABSA 手法の比較評価を行うためには,アスペクトとその評価極性が付与されたコーパスが必須である。評価型国際ワークショップである SemEval では, ABSA の共有タスクが実施されており豊富なベンチマークが用意されている [7,8].コーパスは単言語と単ドメインだけでなく,それらを横断する手法 $[9,10,11]$ の発展のために, 英語, スペイン語などの 8 言語と, 宿泊施設レビューなどの 6 ドメインからなる.しかし, SemEval には日本語を対象とした ABSA のコーパスはない。また,NTCIR 多言語意見分析コーパス1) TSUKUBA コーパス2)などウェブ上で入手できる日本語用のコーパスのほとんどは,アスペクトを考慮しない意見分析に特化している [12, 13, 14, 15].本論文では、日本語を対象とした ABSA のための 1) http://research.nii.ac.jp/ntcir/data/data-ja.html 2) https://www.nii.ac.jp/dsc/idr/rakuten/ コーパス構築とデータ分析について述べる。コーパスのドメインは宿泊施設のレビューであり,文単位で 7 種類のアスペクトと極性を付与した結果 12,476 レビュー,76,624 文のコーパスが構築された。またコーパスを利用した基礎的な ABSA 手法による実験から,事例の特徴を分析することでコーパスの性質について考察する。 ## 2 関連研究 新里ら [2] は,楽天市場の店舗レビューを「配送」「梱包」などのアスペクトカテゴリとその極性カテゴリに分類する手法を提案したが,実験で用いられたコーパスは非公開である。 栗原ら [16] は,ドメインを限定しない Twitterによる評判分析を目的とした日本語の ABSA データセット3)を構築した。本研究との違いを,SemEval2016 Task 5 のサブタスク 1「文レベルの ABSA」で説明する. 例えば「大浴場のお湯が熱い.」という意見文に対して,このタスクは「風呂」というアスペクトカテゴリ(スロット 1)の検出,「大浴場のお湯」というアスペクト対象の抽出 (スロット2),そして「否定的」という極性の分類(スロット3)の 3 スロットからなる.彼らはスロット2を対象とするのに対し,我々はスロット 1 とスロット 3 が対象である. 論文化されてはいないものの,スロット 1 からスロット 3 の評価に対応しているコーパスとして,上場企業の決算報告書をドメインとした chABSA-dataset ${ }^{4)}$ がある。我々のコーパスは,上記と比較して規模が大きく、誤り分析を通してコーパスの性質を明らかにした点で異なる。 ## 3 コーパスの設計と構築 楽天トラベル5)の施設に対するユーザレビュー中の各文に対しアスペクト及び評価極性の付与作業を  行う.作業を行うレビュー文は,ユーザが投稿した複数文にわたるレビューを句点もしくは同等の文末記号で分割した文を単位とする。ここでは基本方針と個々のアスペクトについて述べる. ## 3.1 アスペクト及び極性付与の基本方針 楽天トラベルでは表 1 で示す 7 種類のアスペクトについて, ユーザから 5 段階の評価と自然文の意見が入力される. 各文に対してこれらのアスペクト含まれているか, 含まれている場合はそれらの情報が肯定的(以下,ポジティブ)もしくは否定的(以下, ネガティブ)であるかを判断してタグを付与する.付与するタグの種類は合計 14 種類となる. 作業対象文はユーザレビューの一部分ではあるが,必ずしも全ての文に先に挙げた情報が記載されているとは限らない. 以下の例のように,意見ではなくあくまで事実を述べているだけであり, ポジティブ・ネガティブのような評価表現が含まれていないことから,アスペクト,極性共に付与しない。 ・先月の $\mathrm{GW}$ に泊まりました. ・部屋の広さは通常のシングルルーム程度でした. ・夕食は舟盛りと蟹でした。 ## 3.2 アスペクトの定義 ここでは,先に示した 7 種類のアスペクトについてそれぞれ定義を行う. 例文中の $(\mathrm{P})$ はポジティブ, (N) はネガティブを示す. ## 3.2.1 サービス 経済用語においては「売買した後にモノが残らず,効用や満足などを提供する,形のない財」を指す.ここでは接客態度, 様々な事柄への対応,ル一ムサービス,清掃状況などを対象とする.食事の配膳についてもこの項目で扱うが, これは食事(夕食, 朝食)そのものにも関連することからサービスのみではなく, 「夕食」もしくは「朝食」の項目も同時に付与する. ・セキュリティもきちんとしていて,お部屋もき れい. (P) ・とんでもなく待たされる. $(\mathrm{N})$ ・部屋のかび臭をごまかすためのお香が鼻につくし, あちこちほこりだらけ. $(\mathrm{N})$ ## 3.2.2 立地 宿泊施設への交通, 目的とする観光資源, 商業施設へのアクセスなどの利便性, 宿泊施設の周囲の景観など,施設の地理学上の位置が評価に関係する表現を対象とする.部屋や露天風呂からの見える景色への感想はそれぞれ部屋, 風呂の項目で扱う。 ・隣には郵便局もあり買ったお土産もすぐ送れる. (P) ・富良野市街地, 北の国からの麓郷, ラベンダー ファームへもアクセスしやすいです. (P) ・立地がわかりづらく, 手間取ってしまいました. (N) ## 3.2.3 部屋 部屋そのものに関する表現を対象とし,部屋の広さや快適さ, 内装(電源, シーリングライト, トイレそのもの, 洗面所そのものなど)を含む.エアコンやテレビ,机などはここには含まず,「何もない最低限の部屋」に存在するもののみを含める.部屋からの景色についてはこの項目とする.立地との判断に困惑するが,例えば施設でもオーシャンビュー の部屋とそうでない部屋があり, これは施設の立地そのものではなく部屋の特性に起因すると判断し部屋についての記述と認識する. ・広いお部屋でゆっくりとした時間を過ごす事が出来ました. (P) ・お部屋は最上階 6 階のツインの海側の広いお部屋で眺めが良かったです。( $\mathrm{P})$ ・隣の部屋の声が聞こえてくるのが気になった。 (N) ## 3.2.4 設備・アメニティ 部屋と風呂を除く宿泊施設内の土産等の販売店舗, ロビー, 庭, 遊戯施設, ジム, 駐車場, レストランなどの設備, および部屋に設置されている家具調度 (ベッド,机,いすなど),電気製品(ヘアドライヤー, テレビ,エアコン, ウォシュレット,電気スタンドなど), 寝具, へアケアプロダクト,石盙などの衛生製品, タオル,無料のドリンク, Wi-Fi な どについて記述を対象とする。 ・部屋には空気清浄機もあり, 助かりました。(P) ・ただ唯一, 部屋の金庫が小さいのがマイナスポイント. (N) ・また, お部屋のお布団に関して, 枕が大人は合わなく, ちょっと苦戦しました。(N) ## 3.2.5 風呂 外風呂, 内風呂(部屋に設置されている風呂やシャワー)に関する表現, 風呂からの景色, 雾囲気,温泉の泉質, 温度, 広さなどを対象とする. 清潔さに関しては部屋と同様, 清掃の状態も考慮する必要があるため, サービスも同様に付与する. ただし, シャンプーなどのアメニティに関するものは除く。 ・温泉の質も良く, まためるめのお湯で長時間浸かることが出来, 疲れを癒すことが出来ました. (P) ・朝風呂は雪見風呂で大変景色が良かった。 $(\mathrm{P})$ - 風呂は混んでいて入浴出来ませんでした。 $(\mathrm{N})$ ## 3.2.6 朝食 味, 器, バラエティーなどに関する表現を対象とする.朝食時の配膳や,待ち時間などに関する表現の場合は,(朝食十サービス)の両項目にタグを付与する. ・朝食は,種類も多く,満足でした。(P) ・ただ焼き鮭が身が極めて細く他の料理に比べると唯一貧粗感が否めません. (N) ## 3.2.7 夕食 朝食と同様, 味, バラエティーなどに関する表現を対象とする. 夕食時の配膳や, 待ち時間などに関する表現の場合は, (夕食十サービス) の両項目にタグを付与する.夕食である明示的な表現を含まないが,「懐石料理」や「お酒,ビール」のように夕食であると判断できる場合は夕食とする. - 季節に合わせた懐石料理は見た目も美しく美味しかったです. $(\mathrm{P})$ -夕食も,あわびの踊り食いあり,伊勢えびのお刺身,あり,豪華メニューを堪能しました。(P) -夕食に汁物が出なかったが,酒を飲まない人にとっては汁物がないと食べられない。(N) ## 3.3 アノテーション結果 作業者 40 人に対して 24,314 レビューからなる 10 万文のタグ付付与を依頼した。また作業者間の一致率を測定するために,意図的に作業者間でレビュー に重複を持たせた。複数のラベルがタグ付されている文については, 作業者間で全てのラベルが一致しているかどうかを判定した. 100 レビュー以上の重複があった作業者ぺアに対して $\kappa$ 値 [17] の平均を測定したところ,$\kappa=0.58$ となり, moderate agreement を達成した。表 2 にコーパスの基礎情報を示す. ## 4 評価実験 評価コーパスの性質を調べるために,実験により成功事例と失敗事例の特徴を分析した。タスクは 3.1 節で説明した 14 クラスのうち,レビュー文を一つ以上のクラスに分類するマルチラベル分類として定式化した。手法には BERT[18] を用いた。具体的には,公開されている事前学習済み BERT モデル6) の最終層における [CLS]トークンに対応する 768 次元の出力を 14 次元の出力層に線形結合させる. 出力層の各ノードでは, シグモイド関数によってアスペクト・極性対カテゴリに属する確率が得られる。確率が 0.5 以上であれば,対応するノードのカテゴリを出力する.ファインチューニングと評価は,表 2 の総文数を学習:開発:テスト $=8: 1: 1$ の割合で分割することで行なった。 表 3 にカテゴリごとの分類性能を, 図 1 に BERT の出力例をそれぞれ示す. 図 1(a) は手法が適切に分類した事例であり,「夕食」「朝食」「二」という語に注意が強く向けられていることから,本コーパスで学習された BERT モデルは, 人間が判断に用いる語を捉えるように学習されたと考えられる。このようにアスペクトと評価表現が明示的に出現する文については, 比較的容易に分類できることを確認した。 6) https://github.com/cl-tohoku/bert-japanese 図 1 BERT の出力例(BERT の最終層で [CLS] トークンのベクトルがどの単語に注意しているかを可視化した) 次に誤り事例 2,557 件に対し正解とシステム出力のパターンを集計し,誤りの事例数の多い 3 パター ン(図1(b))を分析した。文(1) は「ホテル全体 (P)」 が正解であるのに対して,システムは「評価なし」 と出力したパターンである. 分類器は, 正解例のようにアスペクトに関連した語を捉えるようモデル学習を行うのに対して,レビュー文では総評を述べており個々のアスペクトは記載されていないことから,適切にモデル化できていないことが原因と考えられる。こうした事例を捉えるには分類器の設計に課題があり,例えば「総合評価」という新たなラべルを用意して分類を行う必要があると考えられる. 文 (2) は,「不便」であるアスペクトが明示的でなかったため「連れ」や「ます」などアスペクトとは関連のない語に注意が向けられた結果,「施設・アメニティ $(\mathrm{P})\rfloor$ が正解であるのに対して,システムは 「評価なし」を出力したと考えられる。このパター ンの失敗事例は 76 件あり,うち 26 件は文 (2)のようなゼロ照応で属性が欠落しているか, 照応詞を用いて属性が省略されていた。本コーパスを用いた実験によって,照応解析手法や文脈を有効利用した属性情報の補完が重要であることが示唆された。 文 (3) は「朝食 (P)」が正解であるのに対して,システムは「朝食 $(\mathrm{P})+$ 夕食 $(\mathrm{P})$ 」と複数ラベルに分類した例である.システムでは「カレー」というアスペクトに関連する語に注意が強く向けられたものの「カレー」は朝食にも夕食にも提供されるため, システムは両方のラベルを出力したと考えられる.実際には同レビュー中,文 (3) の 2 文前には「ここでは特に朝食バイキングが種類も多く味も良いです.」という文があるため,注目文に関する文脈を適切に選択する方法と, 選択された文脈の効果的な エンコーディング方法の考案が課題となる. このような類似カテゴリを持つアスペクトの分類については誤りが多い傾向にあった。実世界での応用においては,カテゴリ同士の類似性は不均一であることが多いことから, 本コーパスは「朝食」と「立地」のように関連性のない分類が容易なカテゴリ対と「朝食」と「夕食」のような分類が難しいカテゴリ対を兼ね備えた有用な評価コーパスであると考える. 表 3 実験結果 ( $\mathrm{P}$ : 精度, $\mathrm{R}$ : 再現率, $\mathrm{F}: \mathrm{F}$ 値) カテゴリ $\quad \mathrm{P} \quad \mathrm{R} \quad \mathrm{F} \quad$ カテゴリ $\quad \mathrm{P} \quad \mathrm{R} \quad \mathrm{F}$ $\begin{array}{lllllllllllll}\text { 朝食 }(\mathrm{P}) & 0.79 & 0.80 & 0.80 & \text { 立地 }(\mathrm{P}) & 0.77 & 0.58 & 0.66\end{array}$ $\begin{array}{llllllll}\text { 朝食 }(\mathrm{N}) & 0.58 & 0.70 & 0.62 & \text { 立地 }(\mathrm{N}) & 0.63 & 0.56 & 0.59\end{array}$ $\begin{array}{llllllllllllllll}\text { 夕食 }(\mathrm{P}) & 0.74 & 0.75 & 0.75 & \text { 設・ア }(\mathrm{P}) & 0.73 & 0.66 & 0.69\end{array}$ $\begin{array}{lllllll}\text { 夕食 }(\mathrm{N}) & 0.57 \quad 0.66 & 0.61 & \text { 設・ア }(\mathrm{N}) & 0.72 & 0.57 & 0.64\end{array}$ 風呂 $(\mathrm{P}) \quad 0.80 \quad 0.70 \quad 0.75$ 部屋 $(\mathrm{P}) \quad 0.74 \quad 0.71 \quad 0.72$ 風呂 $(\mathrm{N}) \quad 0.75 \quad 0.66 \quad 0.70$ 部屋 $(\mathrm{N}) \quad 0.65 \quad 0.47 \quad 0.55$ サービス (P) $0.84 \quad 0.75 \quad 0.79$ サービス $(\mathrm{N}) \quad 0.72 \quad 0.590 .65$ マクロ平均 $\quad 0.720 .650 .68$ マイクロ平均 0.750 .690 .72 ## 5 おわりに 本論文では,宿泊施設レビューに記述されるアスペクトと評価極性に着目して日本語 ABSA コーパス構築について説明した。また評価実験を通して分類実験を行い,その結果から困難なパターンについて考察した。今後の課題を検討した.コーパス中のレビュー数を増加させること,「価格」などコーパスではカバーし切れていない属性のカテゴリを増やすことが今後の課題である。構築したコーパスは,国立情報学研究所の情報学研究データレポジトリ7) (IDR)にて公開予定である.  ## 参考文献 [1] Yuki Nakayama and Atsushi Fujii. Extracting conditionopinion relations toward fine-grained opinion mining. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 622-631, 2015. [2] 新里圭司, 小山田由紀. 店舗レビューには何が書かれているか?一調査及び自動分類システムの開発一. 自然言語処理, Vol. 25, No. 1, pp. 57-79, 2018. [3] Qingnan Jiang, Lei Chen, Ruifeng Xu, Xiang Ao, and Min Yang. A challenge dataset and effective models for aspect-based sentiment analysis. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 6280-6285, 2019. [4] Ruidan He, Wee Sun Lee, Hwee Tou Ng, and Daniel Dahlmeier. An interactive multi-task learning network for end-to-end aspect-based sentiment analysis. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 504-515, 2019. [5] Minh Hieu Phan and Philip O. Ogunbona. Modelling context and syntactical features for aspect-based sentiment analysis. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 3211-3220, 2020. [6] Jiaxin Huang, Yu Meng, Fang Guo, Heng Ji, and Jiawei Han. Weakly-supervised aspect-based sentiment analysis via joint aspect-sentiment topic embedding. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6989-6999, 2020 [7] Maria Pontiki, Dimitris Galanis, John Pavlopoulos, Harris Papageorgiou, Ion Androutsopoulos, and Suresh Manandhar. SemEval-2014 task 4: Aspect based sentiment analysis. In Proceedings of the 8th International Workshop on Semantic Evaluation (SemEval), pp. 27-35, 2014. [8] Maria Pontiki, Dimitris Galanis, Haris Papageorgiou, Ion Androutsopoulos, Suresh Manandhar, Mohammad ALSmadi, Mahmoud Al-Ayyoub, Yanyan Zhao, Bing Qin, Orphée De Clercq, Véronique Hoste, Marianna Apidianaki, Xavier Tannier, Natalia Loukachevitch, Evgeniy Kotelnikov, Nuria Bel, Salud María Jiménez-Zafra, and Gülşen Eryiğit. SemEval-2016 task 5: Aspect based sentiment analysis. In Proceedings of the 10th International Workshop on Semantic Evaluation (SemEval), pp. 19-30, 2016. [9] Jeremy Barnes, Patrik Lambert, and Toni Badia. Exploring distributional representations and machine translation for aspect-based cross-lingual sentiment classification. In Proceedings of the 26th International Conference on Computational Linguistics (COLING), pp. 1613-1623, 2016. [10] Md Shad Akhtar, Palaash Sawant, Sukanta Sen, Asif Ekbal, and Pushpak Bhattacharyya. Solving data sparsity for aspect based sentiment analysis using cross-linguality and multi-linguality. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL), pp. 572-582, 2018. [11] Chenggong Gong, Jianfei Yu, and Rui Xia. Unified feature and instance based domain adaptation for aspect-based sentiment analysis. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 7035-7045, 2020. [12] Yohei Seki, Lun-Wei Ku, Le Sun, Hsin-His Chen, and Noriko Kando. Overview of multilingual opinion analysis task at NTCIR-8. In Proceedings of the Seventh NTCIR Workshop, 2010. [13] 関洋平. 意見分析コーパスの現状と課題. 情報処理学会論文誌データベース(TOD), Vol. 6, No. 4, pp. 85-103, 2013. [14]藤井敦, 乾孝司, 中山卓哉. レビュー解析「レビュー 解析を題材とした「誤り分析マニュアル」の試作に向けた検討」. 言語処理学会第 21 回年次大会ワークショップ:自然言語処理におけるエラー分析, 2015. [15] 藤井敦, 乾孝司. 自然言語処理技術の現状と展望一エラー分析プロジェクトを通して一: 3.11 レビュー 解析一誤り分析におけるプロセスとプロダクト一.情報処理, Vol. 57, No. 1, pp. 30-31, 2016. [16] 栗原理聡, 水本智也, 乾健太郎. Twitter による評判分析を目的とした評価対象-評価表現データセット作成. 言語処理学会第 24 回年次大会発表論文集, pp. 344-347, 2018. [17] J Richard Landis and Gary G Koch. The measurement of observer agreement for categorical data. biometrics, pp. 159-174, 1977. [18] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL), pp. 4171-4186, 2019. ## 付録. A 円滑なアノテーション作業 のために 本文で述べたような 7 種類のタグの付与を行う際に,実際の作業では判断に迷うことがある.ここでは,円滑な作業が行えるよう作業者に予め共有したいくつかのケースとその対応について述べる. ## A. 1 明示的な評価表現を含まない場合 作業対象文は, 事実を含まないが明らかな評価極性を含まない意見が記載されていることがある.特に, 明らかなポジティブではないが以下のようなポジティブとする例もある.基本的な判断基準は,満足しているのか不満を示しているのかを捉えることである. ・和洋室のお部屋は所々リフォームされていて苦になりません。(部屋 $\mathrm{P}$ ) ・部屋のボタンなど環境が古いですが,問題ありませんでした。(部屋 $\mathrm{P}$ ) ・朝食のみのプランでしたが朝食は可もなく不可もなく特に不満ありませんが取り立てて印象に残るものもありませんでした。(朝食 $\mathrm{P})$ ・お部屋は確かに普通ですが, 料理や雪遊びをする際の環境,何よりオーナーご夫婦の人柄があたたかく,部屋のことを補って余りある素敵な宿だと思います。(サービス $\mathrm{P}+$ 設備 $\mathrm{P}+$ 夕食 $\mathrm{P}+$ 朝食 $\mathrm{P})$ ・確かに部屋はオーシャンビューだけど,ただ見えるだけで他に何もない。(部屋 $\mathrm{N})$ ・部屋は広くはなかったが,值段からすれば仕方がないと思う。(部屋 $\mathrm{N}$, 解釈 : 部屋が広くない=不満) ## A. 2 評価極性を持つ表現がー文に混在す る場合 一文内にポジティブもしくはネガティブの表現のどちらかのみが複数存在する場合はそのままの極性を付与する. しかしながら,これら両方についての評価表現が一文内に存在する場合,ポジティブとネガティブの両方を付与することとする. ・部屋はまあまあ良かったが便器が小さすぎなのが残念. (部屋 $\mathrm{P}+$ 部屋 $\mathrm{N}$ ) $\cdot$ 中身は素晴らしいので, 外観が勿体無い, という感じでした。(設備・アメニティ $\mathrm{P}+$ 設備・アメニティ $\mathrm{N}$ ) ・蜘蛛の巣もあったし料理は最高に良かったんで すけど。(サービス $\mathrm{N}+$ 夕食 $\mathrm{P}$ ) ・少し残念な点朝食のオペレーションが非常に悪かった。(サービス $\mathrm{N}+$ 朝食 $\mathrm{N}$ ) ・部屋のカビ臭をごまかすためのお香が鼻につくし,あちこちほこりだらけ。(サービス $\mathrm{N}+$ 部屋 $\mathrm{N}$ ) ## A. 3 大まかな評価, 全ての項目をカバーす る場合 一文に 7 項目全てをカバーするような表現が存在することがある. この場合は, 全ての項目にポジティブまたはネガティブを付与する. ・ホテル,食事,サービス全てにおいて大,大,大満足で,おかげで忘れることのできない新婚旅行になりました。(7 項目全て P, 解釈 : 「ホテル(立地,部屋,設備・アメニティ,風呂), 食事 (朝食, 夕食), サービス (サービス) 全てにおいて」との記載があるので,全ての項目に夕グを付与) ・評価通り, 素晴らしい旅館でした。(7 項目全て P) ・総合的に最悪のお宿です. (7 項目全て $\mathrm{N}$ ) ・全体的には良い内容のホテルでした。(7 項目全 ح P) ## A. 4 「より」「さらに」や比較,提案を伴 う場合 「こうすればさらに良い」や「こうしてほしい」といった記述がある.先の例でもあったようにユーザが基本的に満足しているかどうかに着目し, ポジティブ,ネガティブのどちらかを付与する. ・このお風呂が温泉であればいう事はありませ几. (風呂 $\mathrm{P}$ ) ・飲み物の注文は 14 時からということで,友人が残念がっていました。(サービス N) ・シャワーは温度調節機能付なら, 100 点とおもいます。(風呂 $\mathrm{P}$ ) ・ただデラックスシングルはドコモですがティー テーブルと椅子を設置してますのでご検討のほど。(施設 $\mathrm{N}$ ) ・私は大山牧場のコーヒー牛乳でもあれば嬉しかったですね。(サービス $\mathrm{N}$ ) ・食事は会場が静か過ぎるので,テレビか BGM があるといいですね (アメニティ $\mathrm{N}+$ 夕食 $\mathrm{N}+$朝食 $\mathrm{N}$ )
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-13.pdf
# 複数作業者を想定したアノテーションツールの 作成と機能の検討 星島洸明 京都大学大学院情報学研究科 hoshijima.komei.72x@st.kyoto-u.ac.jp 亀甲博貴 京都大学学術情報メディアセンター kameko@i.kyoto-u.ac.jp ## 1 はじめに 近年,市民科学 (Citizen Science) を活用した研究プロジェクトが注目されている。市民科学は非専門家が科学的な調査や研究活動を行うことを指す. 市民科学の特徴は少数の専門家のみで作業すると時間と費用が膨大にかかるプロジェクトでも多数の非専門家がプロジェクトに参加すると効率的に作業を進められることである。市民科学のブロジェクトの例として京都大学古地震研究会が 2017 年に公開した市民参加型史料翻刻プロジェクト「みんなで翻刻 (地震史料)」[1]が挙げられる. 翻刻とはくずし字で書かれている古文書などの歴史史料を一文字ずつ活字に書き起こしていく作業のことを指す.「みんなで翻刻」は web 上で歴史史料を翻刻するためのアプリケーションであり,翻刻作業には研究者だけでなく一般の人々も参加している. このように,多くの研究分野においてデータに対して人手でラベルを付与することが求められている.そのため,タスクに応じたラベルをつけるアノテーションツールの需要がある. アノテーションツールを使用するのが複数人であると想定すると,作業する人それぞれが対象の専門的知識をどの程度有しているかは不明である。またCUIに慣れていない人も含まれるためツールはマウスのクリックと簡単なキーボードからの入力のみで扱えることが好ましい. 本研究では,非専門家が複数人いる状態で効率的にアノテーションすることを目指して,固有表現を題材にしたアノテーションツールを試作した. 実験ではアノテーションツールを使用して固有表現のアノテーションコーパスを作成した. 実験の結果, \author{ 西村太一 \\ 京都大学大学院情報学研究科 \\ nishimura.taichi.43x@st.kyoto-u.ac.jp \\ 森信介 \\ 京都大学学術情報メディアセンター \\ forest@i.kyoto-u.ac.jp } 固有表現認識モデルの支援がある状態のほうが,支援がない場合よりラベル付けされたアノテーションコーパスの品質は向上した。作成したそれぞれのコーパスで学習し比較した結果,支援がある場合で作成したアノテーションコーパスで学習したほうが $\mathrm{F}$ 値が向上した. ## 2 関連研究 ## 2.1 アノテータが複数いる状態のアノテー ション 複数のアノテータが同一の文書に対してアノテー ション作業を行う際,複数のアノテーションデータから最も優れているラベルデータを選出し, 作成されたアノテーションデータで学習したモデルでまだアノテーションされてないテキストに対してラベル候補を提示する研究がある [2]. クラウドソーシングでラベル付きのデータを収集するとアノテータがラベル付けしたタスクに対して専門的知識をどの程度有しているかはアノテータそれぞれで異なる. そのため,アノテーションの品質管理はクラウドソーシングにおいて重要な課題である. アノテータつけたラベルが誤りであるかを推定する方法として同じデータを複数のアノテータにラベル付けしてもらい,その結果の多数決をとることでラベルの統合を行う方法がある.しかしこの方法は各アノテータの誤り率が同等であることを前提とするため必ずしも効率的な方法ではない.アノテー タの誤り率を推定するため専門的知識の有無などを考慮に入れた方法が提案されている [3]. 図 1 試作したツールの全体図. ## 2.2 非専門家がいる状態のアノテーション Snow らの研究 [4] ではクラウドソーシングによって専門家,非専門家それぞれがアノテーションコー パスを作成した. 非専門家のアノテータが作成したデータの品質の偏りがあるため, データの品質からアノテータの評価を行い管理した. その結果,設定した 5 つのタスクにおいて非専門家が作成したアノテーションコーパスは専門家が作成したアノテー ションコーパスの 4 倍用意すると識別機の性能が同じになった. 専門分野に関する知識を有しない非専門家と専門家が同じテキストに対してラベル付けをする場合, まず非専門家がテキストのラベル付けをしてその生成物を専門家が修正することで,アノテーションコーパスを生成するコストを削減しアノテータ間の一致率を向上させた研究がある [5]. ## 2.3 既存のアノテーションツール 系列ラベリングで使用される既存のテキストアノテーションツールはショートカットキーの設定 [6],能動学習を使用可能 [7] といった機能があり,効率的なアノテーションコーパスの作成ができる. 本研究では,こうしたツールを参考に,(1) ラベル候補の提示機能と (2) ショートカットキーの設定機能が実装されており,効率よくアノテーションを行うことができる. Ac. 居了 図 2 ツールのインターフェイス ## 3 アノテーションツール 複数人が作業することを想定した,ラベル付けをするためのツールを開発した。本ツールの概要図を図 1 に示す.ツールのラベル付けするときのインターフェイスを図 2 に示す. 本ツールはアノテータが複数人であることを想定しており,各アノテータはアカウントを作成し各々が作業するプロジェクトを作成する。次にプロジェクト毎にテキストに付与したいラベルを設定する.作業するテキストには事前に学習したモデルを使用してラベル候補をアノテータに提示する. アノテータはツールによって提案されたラベルの範囲と種類が正確であると判断した場合はそのままにしておき,誤っていると判断した場合はラベルを削除する。ツールによって付与されたラベル以外にラベルを付ける必要があるとアノテータが判断すれば新たにテキストにラベルを追加する、ツールはアノテータが作業開始から作業終了までの時間を測定しており,ラベル付けされたデー タとともにそれらの時間をデータベースに格納する. 各アノテータによってラベル付けされたデータを元の学習データに加えて,新たにモデルを学習す 表 1 レシピ用語のタグ一覧. ることで自動ラベリングモデルの精度をより良くしてアノテータの負担を削減する。 ## 4 実験 訓練データから学習したモデルを使用して,ラベル付けする候補をアノテータに提示して,人手でそれを修正することでアノテーション作業の効率化が見られるか観測する実験を行う.本実験では上記のように新たにモデルの学習はしていない. アノテー タによってラベル付けされたデータを正解データと比較して評価する。 ## 4.1 実験設定 本実験では,アノテーション課題としてレシピ分野を対象とした固有表現認識を行う. 使用するデー タセットは,笹田らの基準 [8](表 1) に基づき定義されたレシピ用語を, IOB 形式でレシピ分野に精通した人がラベル付けしており,これを正解データとして活用した. 支援のための固有表現認識モデルにはこのデータセットの学習データ 2,358 文使用した.また,テストデータには 387 文使用した. 固有表現認識モデルには BiLSTM-CRF [9]を用いた。アノテータは 3 名で, 日本語母語話者でありレシピ分野に関して専門的知識は有していない。各アノテー タそれぞれは同じ 200 文にラベル付けをした. 200 文のうち 100 文は支援あり,100 文は支援なしでラベル付けを行った. なお,支援ありの 100 文はアノテータ毎に異なる. 以下に実験で使用したパラメータを説明する.単語埋め込み層の入力は 1,640 , 出力は 512 で, LSTM 層の出力は 1,024 , 最終的な出力は 17 , バッチサイズは 10 で実施した. アノテータ支援のための固有表現認識モデルの適合率,再現率, $\mathrm{F}$ 値はそれぞれ 図 3 作業にかかった時間. 図4 ラベル付けされたデータの品質. 0.8164, $0.8425,0.8292$ であった. ## 4.2 実験手順 本ツールではアノテータが各自アカウントを作成しそれぞれのアノテータ情報とアノテーションデー タを紐付けられている。そのため,アノテーション作業にかかる時間をツールで測定してツールによる支援がある場合と支援がない場合でかかる時間の差を見られるようになっている。アノテータが作業する際,ツールによる支援がある場合には,事前に学習した固有表現認識モデルを使用して,ツールの画面に表示されるテキストの中から固有表現を認識して画面上に表示する.ツールによる支援はそれぞれのアノテータが作業する 200 文のうちランダムに選ばれた 100 文に対して行われた。支援がある文と支援がない文はランダムに選ばれ,アノテータは作業を行う文を選択するまで支援があるかないか知ることができない. 作成されたアノテーションコーパスを正解データと比較して適合率,再現率, $\mathrm{F}$ 値を計算した。 ## 4.3 結果 アノテータ 1 アノテータ 2 アノテータ 3 図 5 ラベル付けされたデータの品質の移動平均. 表 2 ラベル付けされたデータの品質. ## 4.3.1 作業時間 作業にかかった時間を図 3 に示す.今回実験に参加したいずれのアノテータでも,支援がある場合の方が支援がない場合よりも少ない時間で作業を終了させることができた. ## 4.3.2 データ品質 ラベル付けされたデータの品質を図 4 に示す.值は $\mathrm{F}$ 値を表す. ラベル「 $\mathrm{Af}\lrcorner , 「 \mathrm{St} 」 に$ 関してアノテータ 2 の支援なしの場合は他のアノテータより比較的品質が高かった. そのためアノテータ 2 はこれらのラベルを付けることが比較的得意である可能性がある. アノテータ 3 名のラベル付けされたデータの品質を表 2 に示す. 表中の値は固有表現認識モデルによる支援がない場合と支援がある場合それぞれにおける適合率,再現率, $\mathrm{F}$ 值を平均で示している. 支援なしの場合よりも支援ありの場合のほうがラベル付けされたデータの品質は向上した. 支援のための固有表現認識モデルによる自動ラベリングの品質の F 值は,支援がある場合よりは低く支援がない場合より高い結果になった。 アノテータが作成したデータの品質が作業の経過とともに変化するか調べるため, 各アノテータのデータ品質の移動平均を計算した. 各アノテータのデータの品質の移動平均を 10 文毎にとった結果を図 5 に示す. いずれのアノテータも作業を進めるにしたがってラベル付けしたデータの品質は向上していった. 向上した理由がアノテータが固有表現認識モデルの出力から学習したためか次第に作業に慣れていったためかはさらなる調査が必要である.表 3 ラベルの認識性能 (学習データ:100 文). ## 4.3.3 固有表現認識性能 各アノテータがラベル付けしたデータで学習した固有表現認識モデルの性能を表 3 に示す. いずれのアノテータでも支援がある場合の方が支援がない場合よりラベル付けされたデータの品質が向上した. ## 5 おわりに 本研究では,非専門家が専門分野のアノテーションコーパスを効率的に作成するためのツールを試作した. 試作したツールは事前に学習したモデルによるラベルの提案機能を持つ. 支援があると効率よくアノテーション作業がすすめられ,ラベル付けデー タの品質は向上した。また,アノテータがそれぞれ提出したアノテーションコーパスで学習した固有表現認識モデルは支援がある場合のほうが固有表現認識性能が高くなった。 アノテータ毎のラベル付けされたデータの品質から,(1) 特定のアノテータは特定のラベルの種類に関してラベル付け作業が得意である場合があること,(2) 特定のラベルに比較的詳しいと思われるアノテータとそうではないアノテータがそれぞれ作成したアノテーションコーパスではデータの品質が異なることが分かった. そのためアノテータ毎に比較的信用できるラベルに重みを付けてアノテータテー タコーパスを作成していくと固有表現認識モデルを効率的に学習できる可能性がある. 今後は,本ツールにアノテータのラベル付けの誤り率からアノテータの品質を考慮し管理する機能を追加する予定である。また,能動学習などを活用して固有表現認識モデルを逐次更新をする機能を追加することも検討する。 ## 参考文献 [1] みんなで翻刻|歴史資料の参加型翻刻プラットフォーム. https://honkoku.org. (参照 2021-1-13). [2] An T Nguyen, Byron C Wallace, Junyi Jessy Li, Ani Nenkova, and Matthew Lease. Aggregating and predicting sequence labels from crowd annotations. In Proceedings of the conference. Association for Computational Linguistics. Meeting, Vol. 2017, p. 299. NIH Public Access, 2017. [3] Peter Welinder, Steve Branson, Pietro Perona, and Serge Belongie. The multidimensional wisdom of crowds. Advances in neural information processing systems, Vol. 23, pp. 24242432, 2010. [4] Rion Snow, Brendan O'connor, Dan Jurafsky, and Andrew Y Ng. Cheap and fast-but is it good? evaluating non-expert annotations for natural language tasks. In Proceedings of the 2008 conference on empirical methods in natural language processing, pp. 254-263, 2008. [5] Mary Martin, Cecilia Mauceri, Martha Palmer, and Christoffer Heckman. Leveraging non-specialists for accurate and time efficient AMR annotation. In Proceedings of the LREC 2020 Workshop on "Citizen Linguistics in Language Resource Development”, pp. 35-39, Marseille, France, May 2020. European Language Resources Association. [6] doccano. https://github.com/doccano/doccano.照 2021-1-13). [7] Bill Yuchen Lin, Dong-Ho Lee, Frank F. Xu, Ouyu Lan, and Xiang Ren. AlpacaTag: An active learning-based crowd annotation framework for sequence tagging. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 58-63, Florence, Italy, July 2019. Association for Computational Linguistics. [8] 笹田鉄郎, 森信介, 山肩洋子, 前田浩邦, 河原達也. レシピ用語の定義とその自動認識のためのタグ付与コー パスの構築. 自然言語処理, Vol. 22, No. 2, pp. 107-131, 2015. [9] Guillaume Lample, Miguel Ballesteros, Sandeep Subramanian, Kazuya Kawakami, and Chris Dyer. Neural architectures for named entity recognition. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 260-270, 2016.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-14.pdf
# オンライン百科辞典を対象とする 有効期限切れ情報データベースの作成 土屋雅稔横井康孝 豊橋技術科学大学大学院 情報. 知能工学専攻 \{tsuchiya, yokoi\}@is.cs.tut.ac.jp ## 1 はじめに ウェブを通じて提供される膨大な情報は,我々の日常生活において欠かせないツールとなっている. しかし,全ての情報を参照することは非現実的であり,適切な取捨選択が必要である $[1,2]$. 特に,ウェブ上の情報は全てが適時に更新されているわけではないため,現在参照するには不適当な情報についての取捨選択は重要である。具体例として, 図 1 のような情報を考える。文 $s_{b}$ に記載されている通り大志田駅は 2016 年に廃止されているため, 文 $s_{t}$ に基づいて盛岡市浅岸字大志田に行く交通手段を考えることは適切ではない。 ウェブには,文 $s_{t}$ のような情報が多数存在しており,情報利活用の障害となっている。このような情報の利活用を支援するため,情報を時系列に注目して整理$\cdot$提示する方法が提案されている $[3,4]$. しかし, 先行研究では, 利用者の観点から現在参照するには不適当な情報の自動判定は行っていない 本稿では,文 $s_{t}$ のような情報を有効期限切れ情報と呼び,有効期限切れ情報を自動判定するタスクを提案する.有効期限切れ情報の自動判定タスクを設定するにあたっては, 判定対象となる文 $s_{t}$ および根拠となる文 $s_{b}$ の 2 文を入力して文 $s_{t}$ が有効期限切れであるか否かを判定する夕スク設定と, 判定対象となる文 $s_{t}$ のみを入力して文 $s_{t}$ が有効期限切れであるか否かを判定するタスク設定の 2 通りが考えられる。有効期限切れ情報の自動判定によって情報利活用を支援するという,有効期限切れ情報の自動判 図 1 有効期限切れ情報の例定タスクが目指す本来の目的から考えると,文 $s_{t}$ のみを入力とする後者のタスク設定が自然である。しかし,後者の夕スク設定を実現するためには,文 $s_{t}$ が有効期限切れである根拠を発見するというタスクを同時に解く必要があり,夕スクが極端に難しくなることが予想される。そこで本稿では,判定対象となる文 $s_{t}$ および根拠となる文 $s_{b}$ の 2 文を入力として,文 $s_{t}$ が有効期限切れであるか否かを判定するという前者の夕スク設定に限定して検討する.以後,判定対象となる文 $s_{t}$ を判定対象文,根拠となる文 $s_{b}$ を基準文と呼ぶ。 有効期限切れ情報を収集するテキストとしては, オンライン百科事典 (日本語版 Wikipedia) を利用する. オンライン百科事典は継続的に更新されており,旧版のオンライン百科事典と,新版のオンライン百科事典を比較すると,追加された記事や,記述内容が更新された記事が見つかる.特に,ある項目に関する記事が更新されている場合,旧版の記述には有効期限切れ情報が含まれ,かつ,新版の記述には判定根拠となる情報が含まれることが多いと期待される。 以下,有効期限切れ情報の分析と定義および有効期限切孔情報データベースの作成方法について述べる. ## 2 有効期限切れ情報の定義 情報の有効期限切孔とは, 直感的には, 図 1 のように,古い説明文 $s_{t}$ の情報が新しい説明文 $s_{b}$ によって上書きされ,古い説明文の情報が有効性を失っている状態である。ここで,以下のような文 $s_{n}$ を考える。 $s_{n}$ 盛岡市が大志田駅から浅岸駅までの 13 キ口の近郊自然歩道を整備し、2015 年 5 月 15 日から利用可能となった。 3 つの文 $s_{t}, s_{b}, s_{n}$ は全て, 大志田駅について述べた 文である。しかし, 文 $s_{b}$ を基準として文 $s_{t}$ が有効期限切れと言うことは可能と考えられるのに対して, 文 $s_{n}$ を基準として文 $s_{t}$ が有効期限切孔と言うことは困難である。この例は, 有効期限切れ関係は,あらゆる文対に対して成り立つわけではなく, ある特定の文対に対してのみ成り立つことを示唆している. そこで,この節では,有効期限切れについて,含意関係との関係に注目しつつ, 形式的な定義を与えることを試みる。 ## 2.1 有効期限切れ現象の検討 最初に,有効期限切れが実際に起きている例文を参照しながら, 有効期限切れとは, どのような現象であるのかを検討する。 有効期限切れが起きている例として,以下のような 2 つの文 $s_{1}, s_{2}$ を考える。 $s_{1}=\underset{\text { 宾ラ゙本で最も高いビルはークタワーである }}{2010 \text { 年現在 }, \text { 横 }}$ $s_{2}=$ 日本で最も高いビルは, 2015 年現在, あべのハルカスである 「日本で最も高いビル」に関する文 $s_{1}$ の情報は,文 $s_{2}$ によって上書きされており, 2020 年現在の利用者視点では,文 $s_{1}$ の情報は有効期限切れである. 形式的に議論するため, 文 $s$ の記述内容を, 文 $s$ が注目している時間 $t$ と, 時間とは関係なく成立する記述内容 $x$ の 2 つ組として考える. $ s=\langle x, t\rangle $ まず,文 $s_{1}$ の記述内容を, 2 つ組 $\left.\langle x_{1}, t_{1}\right.\rangle$ に分解する. $ \begin{aligned} s_{1} & =\left.\langle x_{1}, t_{1}\right.\rangle \\ x_{1} & =\underset{\text { クタで最も高いビルは },}{\text { 日横浜ランドマーである }} \\ t_{1} & =2010 \text { 年 } \end{aligned} $ 文 $s_{2}$ の記述内容も, 同様に 2 つ組 $\left.\langle x_{2}, t_{2}\right.\rangle$ に分解する. $ \begin{aligned} s_{2} & =\left.\langle x_{2}, t_{2}\right.\rangle \\ x_{2} & =\underset{\text { 日本である最も高いビルは, あべのハルカス }}{\text { 只い }} \\ t_{2} & =2015 \text { 年 } \end{aligned} $ ここで,文 $s_{1}$ の時間情報のみを $t_{2}$ に置き換えた文 $s_{1,2}$ を考える. $ \begin{aligned} s_{1,2} & =\left.\langle x_{1}, t_{2}\right.\rangle \\ & =\underset{\text { 浜ランド最も高いビルは }}{\text { 日本でークタワーである }} 2015 \text { 年現在, 横 } \end{aligned} $ この時, 文 $s_{1,2}$ と文 $s_{2}$ は,矛盾している.次に,有効期限切れを引き起こさない例として,以下のような文 $s_{3}$ を考える。 $s_{3}=$ 世界で最も高いビルは, 2015 年現在, ブルジュ・ハリファである 文 $s_{1}$ は日本で最も高いビルについて述べている. それに対して,文 $s_{3}$ は世界で最も高いビルについて述べており, 日本で最も高いビルについてはまったく言及していない. そのため, 文 $s_{3}$ が基準となって, 文 $s_{1}$ が有効期限切れとなるとは考えられない. また, 文 $s_{1,2}$ と文 $s_{3}$ は, 矛盾していない. 以上の観察より, 本稿では, 有効期限切れを, 矛盾を手がかりとして定義する。 ## 2.2 有効期限判定と含意関係判定の関係 本稿では, 2.1 節で述べた通り, 情報の有効期限切れを,矛盾を手がかりとして定義する,以下では, その形式的な定義について述べる。 最初に, 含意関係判定を定義する. 先行研究 [5] にしたがうと, 含意関係判定は, 2 つの文 $s_{h}, s_{p}$ が与えられた時, その 2 つの文の含意関係に応じて以下の 3 通りの値を返す関数 $f$ と見なせる。 なお, 本稿では,含意関係の方向については考慮せず,どちらかの方向の含意関係が成り立っている時は含意であるとする。 $ f\left(s_{h}, s_{p}\right)=\left.\{\begin{array}{l} \text { if } s_{h} \rightarrow s_{p} \vee s_{p} \rightarrow s_{h} \\ \quad \text { 含意 } \\ \text { if } s_{h} \wedge s_{p}=\phi \\ \quad \text { 矛盾 } \\ \text { otherwise } \\ \text { 中立 } \end{array}\right. $ 次に, 有効期限判定を定義する,まず,判定対象文 $s_{t}$ と基準文 $s_{b}$ を,それぞれ内容と時間情報の 2 つ組に分解する。 $ \begin{aligned} s_{t} & =\left.\langle x_{t}, t_{t}\right.\rangle \\ s_{b} & =\left.\langle x_{b}, t_{b}\right.\rangle \end{aligned} $ 判定対象文 $s_{t}$ と基準文 $s_{b}$ が与えられた時, 2.1 節の観察に基づいて, 有効期限判定を,以下の 2 通りの値を返す関数 $g$ として定義する。 $ g\left(s_{t}, s_{b}\right)=\left.\{\begin{array}{c} \text { if } f\left(s_{t}, s_{b}\right)=\text { 矛盾 } \\ \vee f\left(\left.\langle x_{t}, t_{b}\right.\rangle, s_{b}\right)=\text { 矛盾 } \\ \vee f\left(s_{t},\left.\langle x_{b}, t_{t}\right.\rangle\right)=\text { 矛盾 } \\ \text { 期限切れ } \\ \text { otherwise } \\ \text { 期限内 } \end{array}\right. $ 以上のように,本稿では,情報の有効期限切れを,基準となる情報が存在して初めて決定できる概念として扱う。 情報の有効期限切れを,以上のように定義すると, 多くの場合に利用者の直感とよく一致するが,時間変化する情報の有効期限切孔については注意が必要である. 例として, 以下の 2 つの文 $s_{4}, s_{5}$ を考える。 $s_{4}=$ 東都大学の 2014 年度の受験者数は 2000 人である $s_{5}=$ 東都大学の 2015 年度の受験者数は 3000 人である 文 $s_{4}$ を,以下の 2 つ組に分解する. $s_{4}=\left.\langle x_{4}, t_{4}\right.\rangle$ $x_{4}=$ 東都大学の受験者数は 2000 人である $t_{4}=2014$ 年度 文 $s_{5}$ も,同様に 2 つ組に分解する. $s_{5}=\left.\langle x_{5}, t_{5}\right.\rangle$ $x_{5}=$ 東都大学の受験者数は 3000 人である $t_{5}=2015$ 年度 ここで,文 $s_{4}$ の時間情報のみを $t_{5}$ に置き換えた文 $s_{4,5}$ を考える。 $s_{4,5}=\left.\langle x_{4}, t_{5}\right.\rangle$ = 東都大学の 2015 年度の受験者数は 2000 この時, 文 $s_{4,5}$ と文 $s_{5}$ は矛盾している。 そのため,本稿では, 文 $s_{4}$ は 2014 年度の情報としては未だに真であるにも関わらず,式 4 の定義に基づいて,文 $s_{4}$ は文 $s_{5}$ によって上書きされており, 文 $s_{4}$ の情報は有効期限切れであると見なす。言い換えれば,本稿の定義では, 有効期限を現時点 (正確には, 基準テキストが記述された時点) の情報として有効であるか否かを考えていることになる。 さらに,文 $s_{5}$ の代わりに,以下のような文 $s_{6}$ を考える。 $s_{6}=$ 東都大学の 2015 年度の受験者数は, 昨年度に比べて 1000 人増加した 文 $s_{6}$ は,以下のように 2 つ組に分解できる. $s_{6}=\left.\langle x_{6}, t_{6}\right.\rangle$ $x_{6}=$ 東都大学の受験者数は, 昨年度に比べて 1000 人増加した $t_{6}=2015$ 年度 文 $s_{4}$ と文 $s_{6}$ の対, または文 $s_{5}$ は,同じ事実「東都大学の 2015 年度の受験者数は 3000 人である」についての 2 通りの異なる表現である。にも関わらず,文 $s_{4,6}$ は文 $s_{6}$ とは矛盾しないため, 式 4 の定義に従うと,文 $s_{6}$ を基準として考える場合には,文 $s_{4}$ は有効期限切れではない,言い換えれば,有効期限切 れの判定にあたっては,2つの文から演繹される結果までは考慮することなく, その 2 つの文に基づいて考えるという立場をとる。 ## 3 有効期限切れ情報データベースの 作成 ## 3.1 対象テキストの選定 有効期限切れ情報の自動判定によって情報利活用を支援するという, 有効期限切れ情報の自動検出夕スクが目指す本来の目的から考えると,判定対象文としては,個人によるブログ記事に含まれる文のような自由な文体の文を,基準文としては,新聞記事などの信頼性が高く定型的な文体の文を選択することが適切と考えられる。この場合, 判定対象文はブログ記事から, 基準文は新聞記事から収集することになる。しかし, 膨大なブログ記事から有効期限切れ情報を含む判定対象文を収集することが困難であるだけでなく, その判定対象文に対応する根拠となる基準文を収集することも困難である。 このような文対を大量に作成する方法としては,判定対象文 (または基準文)を多数の作業者に提示し,提示した文に適するような基準文 (または判定対象文)を作成するように依頼するクラウドソーシングが広く用いられている [6]. しかし, この方法で作成されたデー夕には,作業者によって不適切なバイアスが混入することが指摘されている $[7,8]$. そのため, 本稿では, オンライン百科事典の継続的な更新という性質に注目し, 更新時期が古い記事から判定対象文を, 更新時期が新しい記事から基準文を収集する。 ## 3.2 アノテーション対象差分の抽出 本稿では, 有効期限切孔情報データベースの作成対象として, オンライン百科事典である日本語版 Wikipedia に注目する. 2014 年 12 月 11 日時点の夕゙ ンプデータと 2018 年 12 月 20 日時点のダンプデー 夕を対象として,WikiExtractor ${ }^{1)}$ を用いたプレーンテキスト化を行い,記事数の変化を調査した。調査結果を, 表 1 に示す. 本稿では, 双方に存在する記事 936,985 件を対象とする。 双方の日時に存在する記事について, 記事の記述内容を比較すると, さまざまな差分が発見される. まず,本稿では,問題を単純化するために,編集によって変化している文が 1 文であるような差分を対 1) https://github.com/attardi/wikiextractor 表 1 日本語版 Wikipedia の記事数の変化 象とする。また, 有効期限判定の対象として適切な差分を収集するには, 時間経過によって変化した情報に言及している差分を収集する必要がある。そのため, 2014 年 (判定対象文 $s_{t}$ の記述時点) ら 2018 年 (基準文 $s_{b}$ の記述時点) までの日時に対する言及を含む差分や, 同じ期間に追加された記事に対する言及を含む差分を対象とする。このように考えると, 193,142 箇所の差分が候補となる. 193,142 箇所の差分には, 句点の追加 $\cdot$ 削除, 誤字脱字の修正など, 微細な編集のみが行われている場合も非常に多く含まれている。本稿の目的に照らすと, 判定対象文と基準文で記述内容が本質的に変化している場合を対象として,収集およびアノテー ションを行いたい.そこで,判定対象文 $s_{t}$ と基準文 $s_{b}$ の最長共通部分列 $L C S\left(s_{t}, s_{b}\right)$ が, 文 $s_{t}, s_{b}$ に占める割合が 0.6 以下であるような差分のみを対象とする。このように考えると, 15,648 箇所の差分が候補となる。 最後に, できるだけ良質な記事の差分を優先して収集およびアノテーション対象とすることを考える.そのため, SQuAD[9] と同様に, Wikipedia の記事間のリンクに基づく PageRank[10] の上位記事から収集した 9,600 箇所の差分を対象とする. ## 3.3 アノテーション 3.2 節で説明した手順で抽出した 9,600箇所の差分に対して,3種類の含意関係ラベル (含意, 矛盾, 中立) と 2 種類の有効期限ラベル (期限切れ, 期限内) を人手で付与した。付与したラベルの内訳を,表 2 に示す。表 2 より, $32.2 \%$ (3,090 箇所)の差分が有効期限切孔と判定された. この判定結果から, 日本語版 Wikipedia には有効期限切软情報が多く存在することがわかり, 有効期限切れ情報の自動判定が必要であることが示された。 また,表 2 より,含意関係ラベルが含意または中立である場合であっても,有効期限切れと判定される差分も多く存在していること,すなわち,従来の含意関係判定と本稿が提案する情報の有効期限判定表 2 含意関係ラベルおよび有効期限ラベルの分布 には違いがあることがわかる,以下に,含意関係ラベルが含意, かつ, 有効期限ラベルが期限切れとなる差分の実例を示す。 この 2 文 $s_{7}, s_{8}$ は,国立駅に関する記事の一部である. 文 $s_{7}$ で説明されている事実は, 文 $s_{8}$ でも同様に説明されているため, 文 $s_{8}$ から文 $s_{7}$ に対する片方向含意は成り立っていると考えられる。しかし,文 $s_{7}$ における「改札は高架下の 1 ケ所」という説明は,文 $s_{8}$ によって「改札は高架下と西側に 2 ケ所」 と上書きされているため, 有効期限ラベルは期限切れとなる。 ## 3.4 作業者間一致度 アノテーションが安定して行われているかどうかを検討するため, 作業者間一致度を調査する。 3.2 節で述べた Wikipedia の記事間リンクに基づく PageRank の上位記事から,300箇所の差分を調査対象とし,2 名の作業者による独立したアノテーション作業を実施した。2 名の作業者による含意関係判定の一致率は $83.7 \%$ (251 箇所), 有効期限判定の一致率は $88.0 \%$ (264 箇所) だった。作業者間で判断が異なった箇所について精査したところ, 文外知識の理解度などによるものが多く見られた。 ## 4 結論 本稿では,有効期限切孔情報の自動判定タスクを提案した. 有効期限切れ現象について分析を行い,分析に基づいて, 情報の有効期限切れを含意関係判定と関連付けて定義した。有効期限切孔情報デー夕ベースを,オンライン百科事典の継続的な更新という性質に基づいて作成する方法について述べた。 ## 参考文献 [1] Catherine C. Marshall and Frank M. Shipman. Spatial hypertext and the practice of information triage. In Proceedings of the Eighth ACM Conference on Hypertext, HYPERTEXT '97, pp. 124-133, New York, NY, USA, 1997. Association for Computing Machinery. [2] Sofus A. Macskassy and Foster Provost. Intelligent information triage. In Proceedings of the 24th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR '01, pp. 318-326, New York, NY, USA, 2001. Association for Computing Machinery. [3] Gabriel Pui Cheong Fung, Jeffrey Xu Yu, Huan Liu, and Philip S. Yu. Time-dependent event hierarchy construction. In Proceedings of the 13th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, KDD '07, p. 300-309, New York, NY, USA, 2007. Association for Computing Machinery. [4] Canhui Wang, Min Zhang, Liyun Ru, and Shaoping Ma. Automatic online news topic ranking using media focus and user attention based on aging theory. In Proceedings of the 17th ACM Conference on Information and Knowledge Management, CIKM '08, p. 1033-1042, New York, NY, USA, 2008. Association for Computing Machinery. [5] Marco Marelli, Stefano Menini, Marco Baroni, Luisa Bentivogli, Raffaella Bernardi, and Roberto Zamparelli. A SICK cure for the evaluation of compositional distributional semantic models. In Nicoletta Calzolari (Conference Chair), Khalid Choukri, Thierry Declerck, Hrafn Loftsson, Bente Maegaard, Joseph Mariani, Asuncion Moreno, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC'14), pp. 216-223, Reykjavik, Iceland, may 2014. European Language Resources Association (ELRA). [6] Samuel R. Bowman, Gabor Angeli, Christopher Potts, and Christopher D. Manning. A large annotated corpus for learning natural language inference. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 632-642, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [7] Suchin Gururangan, Swabha Swayamdipta, Omer Levy, Roy Schwartz, Samuel Bowman, and Noah A. Smith. Annotation artifacts in natural language inference data. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 107-112, June 2018. [8] Masatoshi Tsuchiya. Performance impact caused by hidden bias of training data for recognizing textual entailment. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), 2018. [9] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In Proceedings of the 2016 Con- ference on Empirical Methods in Natural Language Processing, pp. 2383-2392, 2016. [10] Lawrence Page, Sergey Brin, Rajeev Motwani, and Terry Winograd. The pagerank citation ranking: Bringing order to the we.b. Technical Report 1999-66, Stanford InfoLab, November 1999.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-15.pdf
# 複数の学習器による知識の蒸留を利用した 読影所見用語認識の精度向上 田川裕輝中野騰久尾崎良太西埜徹 }谷口友紀 大熊智子 中村佳児 富士フイルム株式会社 \{yuki.tagawa, norihisa.nakano, ryota.ozaki, toru.nishino, tomoki.taniguchi, tomoko.ohkuma, keigo.nakamura\}@fujifilm.com ## 1 はじめに 読影レポートとは放射線科の医師が CT や MRI などの医療画像を元に異常所見や疾患についての読影診断を自然言語によって記述したものである.このレポートの中には医師の知識や経験が表現されており,これを抽出すれば様々な用途に利活用することが期待できる。言語で表現された医師の知識を再利用可能な形にするにはレポートを構造化して疾患や臟器などの観点から記述内容を分析できるようにする必要がある. レポートから所見用語を抽出するための固有表現認識 (Named Entity Recognition; NER) はレポート構造化の根幹となる技術である. NER は情報抽出技術の一つであり,多くの研究が取り組まれている [1]. 特に, 近年では深層学習の発展に伴い,大量の教師データでモデルを訓練する手法が提案されている $[2,3]$. 一方で,読影レポー トへのラベル付けは専門知識が必要であり,大量の教師データを用意するにはコストがかかる. そのため,我々は大量の教師データを用意せずに所見用語認識の精度向上を目指す。 限られた量の教師データで NER の精度向上を目指した研究に Lai ら [4] や Liang ら [5] の研究がある. これらの研究は限られた教師データで学習したモデルで教師無しデータにラベル付けすることで,弱教師データを生成し,学習データを水増ししている。 Lai らは教師データだけで訓練した BERT [6] (以下 Teacher と呼ぶ) と, Teacher が生成した弱教師データと教師データを混ぜて訓練した BERT (以下 Student と呼ぶ) の精度を比較し, Student が Teacher の精度を上回った場合,Teacher のパラメータをStudent のパラメータに置き換えて,再び弱教師データを生成する手法を提案している. またこの処理を複数回繰 図1読影レポートとアノテーションデータのサンプル. り返すことで,高品質な弱教師データが生成できたことを報告している. このように, Teacher が学習した知識を Student の学習に利用することを知識の蒸留 [7] という. 特に, Teacher と Student に同じモデル構造を利用したものは Self-Distillation [8] や Born-Again Networks [9] と呼ばれる. 生成された弱教師データの質が NER の精度に影響することを考えると,単一の Teacher から弱教師データを生成するのではなく,Teacher に複数のモデルを用意し,それぞれの出力を統合することで, より高品質な弱教師データの生成が期待できる. 特に,NER において高い精度が報告されている BERT はドメイン適用するために対象ドメインのコーパスで継続学習するもの [10] や文字単位の語彙を扱うもの ${ }^{1)}$ など様々なモデルが提案されている. このような特徴の異なるモデルを Teacher として組み合わせることで,更なる精度向上が期待できる [11,12]. 本研究では複数のモデルによる知識の蒸留を利用した NER の学習手法を提案し, 所見用語認識に適用する. 実験では先行研究である Lai らの研究と比べ,提案手法が Micro-F1 評価において高い精度となることを確認する。 ## 2 提案手法 図 2 に提案手法の概要図を示す. 提案手法の学習フローを以下に説明する。 1. あるトークン系列 $x$ に対して正解ラベル系列 $y$ がアノテーションされた教師データ $S=\left.\{\left(x_{1}, y_{1}\right), \ldots,\left(x_{L}, y_{L}\right)\right.\}$ を利用して,モデルリ ^{1)}$ https://github.com/cl-tohoku/bert-japanese } 図 2 提案手法の概要図. スト $F=\left.\{f_{\theta_{1}}, \ldots, f_{\theta_{i}}, \ldots, f_{\theta_{N}}\right.\}$ 中の $N$ 個のモデルを訓練し,Teachers $=\left.\{f_{\theta_{t_{1}}}, \ldots, f_{\theta_{t_{i}}}, \ldots, f_{\theta_{t_{N}}}\right.\}$ を作成する。ここで $f_{\theta}$ とはパラメータ $\theta$ を持つ NER モデルである. 2. 教師無しデー タ $d$ のリス卜 $U=\left.\{d_{1}, \ldots, d_{j}, \ldots, d_{M}\right.\}$ に対し $\tau$,各 Teacher モデルから出力 $O=$ $\left.\{\left(d_{1}, \hat{y}_{1,1}\right), \ldots,\left(d_{j}, \hat{y}_{i, j}\right), \ldots,\left(d_{M}, \hat{y}_{N, M}\right)\right.\}$ を生成する. ここで, $\hat{y}_{i, j}$ とは Teacher モデル $f_{\theta_{t_{i}}}$ によって教師無しデータ $d_{j}$ に対して予測したラベル系列である. 3. 各 Teacher モデルの出力 $O$ を文字単位の多数決で一つの出力結果に統合し, 弱教師デー タ $P=\left.\{\left(d_{1}, \tilde{y}_{1}\right), \ldots,\left(d_{j}, \tilde{y}_{j}\right), \ldots,\left(d_{M}, \tilde{y}_{M}\right)\right.\}$ を生成する。 4. 教師データ $S$ と弱教師データ $P$ を混ぜたデー タでモデルリスト $F$ 中のモデルを訓練し, Students $=\left.\{f_{\theta_{s_{1}}}, \ldots, f_{\theta_{s_{i}}}, \ldots, f_{\theta_{s_{N}}}\right.\}$ を作成する. 5. $f_{\theta_{t_{i}}}$ と $f_{\theta_{s_{i}}}$ の開発データに対する精度を比較し, $f_{\theta_{s_{i}}}$ が $f_{\theta_{t_{i}}}$ の精度を上回っている場合, $f_{\theta_{t_{i}}}$ のパラメータ $\theta_{t_{i}}$ を $f_{\theta_{s_{i}}}$ のパラメータ $\theta_{s_{i}}$ に置き換えることで,Teachersを更新する。 6. 2 から 5 までの処理をどの Teacher モデルも更新されなくなるまで,もしくは事前に定義した回数 Iだけ繰り返す. 7. 各 Teacher モデルを利用してテストセットに対して予測する。 8. 各 Teacher モデルの予測結果を 3 と同じく文字単位の多数決により一つの予測結果に集約し, テストセットに対する予測結果を得る. ## 3 実験 表 1 データセットの統計量. ## 3.1 データセット 本研究では全身を対象とした日本語読影レポートに所見用語ラベルをアノテーションし,データセットを構築した. データセットの統計量を表 1 に示す. 表 1 の件数は読影レポート中の 1 行を 1 件としてカウントしている. また,教師無しデータは文字数が多いものから優先して 10,000 件を選択した。 ラベルの種類とその説明を表 2 に示す. 図 1 に示すように,病変と病名,変化の表現はレポートではそれらが認められる (Positive; P),認められない (Negative; N),疑いや可能性がある (Suspicion; S) といった事実性も同時に記述される。そのため,所見用語ラベルと同時に事実性ラベルもアノテーションした. 本研究では所見用語ラベルに事実性ラベルを結合したものをラベル ${ }^{2)}$ とし,事実性判定も所見用語認識タスクとして同時に解いた。また,BIO 方式 3)を用いてラベルを付与した。 ## 3.2 モデル 実験で利用するモデルを以下に説明する。 BERT 日本語 Wikipedia で学習した BERT ${ }^{1)}$. 語彙は NEologd 辞書 4)を組み込んだ MeCabによ ^{3}$ BIO 方式では固有表現の開始を表す Begin,同一種の固有表現の継続を表す Inside,どの固有表現にも当てはまらない Outside を利用し,固有表現の境界を認識する。 }^{4)}$ https://github.com/neologd/mecab-ipadic-neologd 表 2 所見用語ラベルとその説明. \\ り単語分割した後,Byte Pair Encoding (BPE) により構築している. Char-BERT 日本語 Wikipedia で学習した文字単位の語彙を持つ BERT ${ }^{1)}$. 語彙は文字単位の分割処理により構築している。 UTH-BERT [13] 日本語の医療分野のコーパスで んだ MeCabで単語分割した後, BPEにより構築している. Radio-BERT2K 約 97 万行の日本語読影レポー トで学習した BERT. 事前学習時は Masked Language Modeling (MLM) [6] で学習した. また,MLM にマスクする単語を単語単位で選択し,選択された単語に対応するサブワードを全てマスクする Whole Word Masking (WWM) を加えた. 語彙は MeCab で単語分割した後, BPE により 2,000 の語彙を構築した. 前処理として 5 文字以下の行は削除した上で事前学習した. Radio-BERT4K Radio-BERT2K の語彙数を 4,000 に変更したモデル.その他の設定は RadioBERT2Kと同じである. Radio-AdaptaBERT BERTを日本語読影レポートで継続学習した BERT.継続学習のタスクにはWWMを加えた MLM を利用した。語彙は BERTと同じものを利用した。 実際に学習させるモデルはこれらのモデルの最終層に CRF [14]を追加したモデルである. 学習時はこ れらの事前学習モデルで入力系列をエンコードし,得られたべクトル表現から CRF により,正解ラべル系列を出力するようにモデル全体を学習する. 学習フロー 3 と 8 では同じデータに対する複数のモデルの予測結果を一つの結果に集約している. 複数の予測結果を一つに結果に集約する手法としてトークン単位の多数決を利用する研究がある [11].一方で,トークン (またはトークン系列) に対してラベル (またはラベル系列) を予測するモデルの予測結果を集約するには,全モデルでトークン分割の結果が同じでなければ,トークン単位の多数決を適用する事ができない.そこで,各モデルが予測したラべル系列を文字単位のラベル系列に変換し,全モデルで分割単位を揃えた上で文字単位の多数決により予測結果を集約した。 ## 3.3 比較手法 実験で比較する手法を以下に説明する. Single 教師データのみで学習するベースライン. Self Distillation (SD) Lai ら [4] の手法. 一つのモデルを Teacher と Student として利用し, 弱教師デー タを生成する. ## Collaborative Distillation w/ Multiple Seeds (CDMS) 同じモデル構造で異なる初期シードを設定した複数のモデルを用意し,弱教師データを生成する提案手法. ## Collaborative Distillation w/ Different Models (CDDM)異なる構造を持つ複数のモデルを用意し,弱教師 データを生成する提案手法. 各モデルのパラメータは Single 手法で開発セットに対して最高精度となるパラメータをグリッドサー チで決定した.また,Iには 5 を設定した. ## 3.4 評価方法 手法の評価には Micro-F1 值を用いた. システムが出力したラベル系列と正解ラベル系列を比較し,所見用語の開始点,終点,所見用語ラベルが全て一致した場合に正解とした。 ## 3.5 実験結果 表 3 にテストセットに対する Micro-F1 值を示す. CDMS はそれぞれのモデルを異なる 3 つのシードを用意し学習させた結果である. CDDM は BERT, Char-BERT,Radio-AdaptaBERT の 3 つのモデルを利 ^{5)}$ http://sociocom.jp/ data/2018-manbyo/index.html } 表 3 テストセットに対する Micro-F1 值. 最高値には下線を引いている. 用した結果である.值を比較すると,CDMS では Radio-AdaptaBERT を利用し, 学習した場合が最も高い值となった. また,他の Single やSD と比べても高い值となっていることから,複数のモデルを組み合わせて弱教師データを生成する提案手法は所見用語認識タスクに効果的であったといえる。特に,複数の異なるモデルを組み合わせる CDDM が最も高い性能となった。 ## 3.6 分析 各モデルの予測にどの程度のばらつきがあるのかを分析するため,モデル間の予測結果の不一致の割合 [15] を算出した. モデルの予測したラベル系列を文字単位のラベル系列に変換した上で,予測結果の不一致の割合 $d_{\text {all }}$ を算出した. さらに,どちらのモデルも所見用語ラベルを予測した事例の内,ラベルが不一致した割合 $d_{\text {label }}$ と, 予測した所見用語のスパンが不一致した割合 $d_{\text {span }}{ }^{6)}$ を算出した. また, 3 つ以上のモデルの組み合わせに対しては全てのモデルの組み合わせに対して不一致の割合を算出し,その平均値を多様性尺度 $D$ とした。 表 4 に Single 手法によって訓練されたモデルの予測結果から算出した多様性尺度 $D$ を示す. 全ての尺度において,同じモデル構造間の予測結果の値よりも,異なるモデル構造間の予測結果の值の方が高いことがわかる. $D_{\text {label }}$ では BERT と Char-BERT の組み合わせが最も高い值となった。これらのモデルの違いは大力テキストをそれぞれ文字単位で分割するかサブワード単位で分割するかという点である。日本語は単語分割の境界が自明でないため,NER の予測結果は前段の単語分割の結果の影響を受けることが知られており [16], 異なる単語分割器を持つモデルを組み合わせたことが同じモデル構造でシー ドのみを変えて組み合わせた場合と比べて高い多 $ ラベル,B ラベル),(O ラベル,I ラベル) の組み合わせで不一致した割合を算出した.スパンの不一致の割合を測るため,所見用語ラベルは考慮せず BIO ラベルのみで不一致を検出した. } 表 4 教師無しデータに対する予測結果から算出した多様性尺度 $D_{\text {all }}, D_{\text {label }}, D_{\text {span }}$. w/ 3seeds とはモデルを異なる 3 つのシードで学習したことを表す. 各尺度毎に最高値には下線を引いている. 様性を生んだと考えられる。また, $D_{\text {span }}$ においては Char-BERT と Radio-AdaptaBERT の組み合わせが最も高い値となった. これらのモデルの違いは上述した単語分割方法の違いに加え,事前学習コーパスも異なる. Radio-AdaptaBERT は大量の読影レポー トで継続学習している。この結果から事前学習時のコーパスの違いも多様性を生むと考えられる。 このように異なるモデル構造を組み合わせることで予測結果に多様性が生まれることがわかった.多様性は複数のモデルを組み合わせて性能向上を測るアンサンブル学習において,性能を測る尺度として期待できるという分析がある [17]. 表 3 の結果からも,多様性の低い異なるシードで学習したモデルを組み合わせる CDMS より,多様性の高い異なるモデルを組み合わせる CDDM のほうが高い精度となった.これらの結果から多様な予測をするモデルを組み合わせて弱教師データを生成する CDDM は所見用語認識の性能向上に寄与したと考えられる. ## 4 おわりに 本研究では所見用語認識の精度向上を目指し, 複数モデルによる知識の蒸留を利用した NER の学習手法を提案した.実験ではベースラインと先行研究 [4] と比較し,提案手法が高い性能となった. 今後は前段の単語分割の結果や事前学習コーパスの違いなどが,後段の所見用語認識の精度に与える影響を分析したい。 ## 参考文献 [1]Vikas Yadav and Steven Bethard. A survey on recent advances in named entity recognition from deep learning models. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 2145-2158, Santa Fe, New Mexico, USA, August 2018. Association for Computational Linguistics. [2]Guillaume Lample, Miguel Ballesteros, Sandeep Subramanian, Kazuya Kawakami, and Chris Dyer. Neural architectures for named entity recognition. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 260-270, San Diego, California, June 2016. Association for Computational Linguistics. [3]Xuezhe Ma and Eduard Hovy. End-to-end sequence labeling via bi-directional LSTM-CNNs-CRF. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1064-1074, Berlin, Germany, August 2016. Association for Computational Linguistics. [4]Tuan Lai, Trung Bui, Doo Soon Kim, and Quan Hung Tran. A joint learning approach based on self-distillation for keyphrase extraction from scientific documents. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 649-656, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [5]Chen Liang, Yue Yu, Haoming Jiang, Siawpeng Er, Ruijia Wang, Tuo Zhao, and Chao Zhang. Bond: Bert-assisted opendomain named entity recognition with distant supervision. In ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 2020. [6]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 41714186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [7]Geoffrey Hinton, Oriol Vinyals, and Jeff Dean. Distilling the knowledge in a neural network. arXiv preprint arXiv:1503.02531, 2015. [8]Jianping Gou, Baosheng Yu, Stephen John Maybank, and Dacheng Tao. Knowledge distillation: A survey. arXiv preprint arXiv:2006.05525, 2020. [9]Tommaso Furlanello, Zachary Lipton, Michael Tschannen, Laurent Itti, and Anima Anandkumar. Born again neural networks. In Jennifer Dy and Andreas Krause, editors, Proceedings of the 35th International Conference on Machine Learning, Vol. 80 of Proceedings of Machine Learning Research, pp. 1607-1616, Stockholmsmässan, Stockholm Sweden, 10-15 Jul 2018. PMLR. [10]Xiaochuang Han and Jacob Eisenstein. Unsupervised domain adaptation of contextualized embeddings for sequence labeling. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th In- ternational Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 4238-4248, Hong Kong, China, November 2019. Association for Computational Linguistics. [11]Zornitsa Kozareva, Boyan Bonev, and Andres Montoyo. Selftraining and co-training applied to spanish named entity recognition. In Mexican International conference on Artificial Intelligence, pp. 770-779. Springer, 2005. [12]Pierre Lison, Jeremy Barnes, Aliaksandr Hubin, and Samia Touileb. Named entity recognition without labelled data: A weak supervision approach. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1518-1533, Online, July 2020. Association for Computational Linguistics. [13]Yoshimasa Kawazoe, Daisaku Shibata, Emiko Shinohara, Eiji Aramaki, and Kazuhiko Ohe. A clinical specific bert developed with huge size of japanese clinical narrative. medRxiv, 2020. [14]John Lafferty, Andrew McCallum, and Fernando CN Pereira. Conditional random fields: Probabilistic models for segmenting and labeling sequence data. 2001. [15]David B Skalak, et al. The sources of increased accuracy for two proposed boosting algorithms. Citeseer. [16]Shotaro Misawa, Motoki Taniguchi, Yasuhide Miura, and Tomoko Ohkuma. Character-based bidirectional LSTM-CRF with words and characters for Japanese named entity recognition. In Proceedings of the First Workshop on Subword and Character Level Models in NLP, pp. 97-102, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [17]Kagan Tumer and Joydeep Ghosh. Theoretical foundations of linear and order statistics combiners for neural pattern classifiers.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-16.pdf
# 機械加工文書における用語入れ子構造と トリガワードを考慮した用語関係同時抽出 稲熊陸 ${ }^{1}$ 小島 “ $^{2}$ 東孝幸 ${ }^{2}$ 三輪誠 ${ }^{1}$ 古谷 克司 ${ }^{1}$ 佐々木 裕 ${ }^{1}$ 1 豊田工業大学 2 株式会社ジェイテクト ## 1 研究背景 機械加工はものづくり分野における基本技術の一つであるが,少子高齢化にともないものづくりに携わる技術者,技能者が引退するとともに,新規後継者が減少している. そのため技術者一人あたりの作業負担は増加し,次世代の技術者に熟練技術者と同程度の知識と技術が求められている。 熟練者同等の知識が求められる業務に工程の策定業務が挙げられる。策定業務の遂行のためには,一つの機械加工因子の変化によって,他の機械加工因子が受ける影響をあらかじめ可能な限り網羅する必要がある. 機械加工因子とは工具の種類や材料の特性, 加工条件と機械加工パラメータなどの機械加工に関わる全ての因子のことをいう。 機械加工因子は専門書や機械加工を対象とする学会で発表される論文, 社内技術文書や学生向けの教科書など,文書形式で幅広く存在し,文書内で複雑な関係で結ばれたり,因子間で入れ子構造を形成したりすることが多い.技術者が文書を閲読し,機械加工因子とその関係を獲得することは熟練者同等の知識が必要となる点で属人的である. そこで本研究では,文書に含まれる機械加工因子と関係の自動抽出を目的に, 用語抽出と, 関係抽出とのマルチタスク学習を行う深層学習モデルを提案する. 用語抽出においては入れ子構造を考慮し, 関係抽出においてはトリガワードを考慮したモデル設計を行い,機械加工技術文書における用語と関係の抽出精度の評価を行う. ## 2 関連研究 属人的方法からの脱却を目指し,機械加工分野の文書から自動で機械加工因子を獲得し,因子を関係という観点で集約する手法として,増田 [1] らが行った Support Vector Machine(SVM)を用いた関係抽出の研究がある.増田らはトリガワードと呼ばれ …切削速度が増加すると切削温度が増し,… $ \text { トリガワード } $ 図 1 トリガワードの例 る単語について「トリガワードの出現位置」と「トリガワードが修飾する用語の位置」を定義し,関係抽出の素性に加えた、トリガワードは「物理量を示す二用語間の変化を表す単語」で定義される. 図 1 に具体的な例を示す.「切削速度」に対して「増加する」,切削温度に対して「増し」といった単語のことをいう.増田らの研究は機械加工因子をあらかじめ特定させた上での関係抽出であり,新しく発表される機械加工技術文書や論文に示されるような文書への転用には,最初に機械加工因子を獲得するタスクが残っている点で問題が残っている. ## 3 提案手法 本提案モデルは,日本語で記述された機械加工技術文書の入れ子構造を対象とした用語抽出タスクと関係抽出タスクを,マルチタスク学習で解く深層学習モデルである. 図 2 にモデル全体の概要を示す.図中の格子状の四角はベクトルを表し,行方向に各トークンのベクトルの次元を,列方向にトークンの並びを表現している。また,五角形はぞれぞれ記述された演算処理を表現している。関係抽出タスクにおいては,トリガワードを Attenition 機構を用いて考慮したモデルとなっている. 本提案モデルにおけるモデルの入力単位は一文である. ## 3.1 共有部 共有部(Shared Part)は用語抽出と関係抽出のどちらのタスクを学習する際にも用いられる構成要素である。与えられた各文を日本語版 Wikipedia で事前に学習された Sentencepiece[2] を用いてトークンに分割する. 得られたサブワード単位のトークン群 図 2 モデル全体の概要 $\boldsymbol{x}$ に対して日本語版 Wikipedia で事前に学習された BERT[3] を用いてトークンの表現 $\boldsymbol{h}_{\mathbf{1}}$ を獲得する. $ \boldsymbol{h}_{1}=\operatorname{BERT}(\boldsymbol{x}) $ 獲得したトークンの表現 $\boldsymbol{h}_{\mathbf{1}}$ を CNN の入力とし,中間表現 $\boldsymbol{h}_{\mathbf{2}}$ を獲得する。 $ \boldsymbol{h}_{\mathbf{2}}=\mathrm{CNN}\left(\boldsymbol{h}_{\mathbf{1}}\right) $ 中間表現 $\boldsymbol{h}_{2}$ は用語抽出と関係抽出のどちらのタスクを解く際にも用いる表現である. 従って用語抽出と関係抽出それぞれで発生する損失を用いて $\boldsymbol{h}_{\mathbf{2}}$ を生成するパラメータが更新される。この更新によってマルチタスク学習におけるそれぞれのタスクを解くための表現に新しく情報が追加され,学習が改善することが期待される。 ## 3.2 用語抽出部 入れ子内部の用語と入れ子外部の用語の違いが用語を構成するトークンの数であることに注目し,本提案モデルはトークンの構成数毎に 2 值 ${ }^{1)}$ の出力をするモデルとなっている.図中の五角形の「長さ $i\rfloor$ という演算は,長さ $i$ のトークン列の表現を得る畳み込み演算である. 以下の式で表される。なお,モデルは稲熊ら [4]のものを用いている. $ \boldsymbol{v}_{\boldsymbol{i}}=\operatorname{spanCNN}_{i}\left(\boldsymbol{h}_{\mathbf{2}}\right) \quad \forall i \in\left[1, \ldots, n_{\text {tok }}\right] $  ここで $\operatorname{spanCNN}_{i}$ はカーネルサイズ $i$ のフィルタによる畳み込み演算を表す. $n_{t o k}$ は用語を構成するトークン数に対応しており,学習を行う前に与えるハイパーパラメタである. 次に $n_{t o k}$ 個の中間表現 $v_{i}$ に対して共通の全結合層をそれぞれ作用させる.式としては以下のようになる。 $ \boldsymbol{l}_{\boldsymbol{i}}=\text { FullyConnected }_{\text {one }}\left(\boldsymbol{v}_{\boldsymbol{i}}\right) $ 全結合の出力は $n_{t o k}$ 個のカーネルサイズ毎に対応したトークン数長のシーケンスになる. 出力の中身はカーネルサイズの用語を構成するトークンの開始位置に 1 が立つものである.損失は以下の式で表される。 $ L_{\text {entity }}=\sum_{i=1}^{n_{\text {tok }}} \sum_{j=1}^{l} y_{i}^{j} \log \left(l_{i}^{j}\right) $ ここで $n_{t o k}$ はモデルの出力数すなわち用意するフィルタ数を表し, $l$ は一文におけるトークン数を表す.各トークンに対する予測 $\hat{l}$ と正解 $y$ との差を交差エントロピーで定義する. 各フィルタに対応する出力の和をとったものを損失とする. ## 3.3 ペア作成部 ペア作成部(Pair Process)において,用語抽出で抽出された用語からぺアを作成し,関係抽出用にデータ整形を行う。用語抽出で抽出された用語が入れ子構造を構成する場合は,一番大きい単位の用語 のみをぺア作成の対象とする。 作られた各ぺアに対してアノテーションファイルを参照して関係ラベルを付与し,(関係ラベル,用語 1, 用語 2)のトリプレットを作成する. このトリプレットの用語 1 と用語 2 の情報を用いて関係ラベルを当てることが関係抽出タスクになる. ペア作成部では, 用語 1 と用語 2 の用語位置ベクトルも作成する. 用語位置ベクトルは一文のトークン数の長さの次元数が 1 のベクトルで, 用語が存在する位置に 1, 用語では無い位置には 0 が立つべクトルである. 一文から $n_{\text {entity }}$ 個の用語が抽出された場合, 2 つの用語を選択してぺアを作成するので $n_{\text {entity }} \mathrm{C}_{2}$ 個のペアを作成する。 ## 3.4 関係抽出部 関係抽出部はトリガワードを考慮した関係抽出モデルである. (2) 式の中間表現 $\boldsymbol{h}_{\mathbf{2}}$ に対してトリガワードの情報を追加で与えて MultiHeadAttention 層の入力とし, 関係を求めるモデルとなっている. 最初にトリガワードの情報をアノテーションファイルから参照して $v_{\text {trig }}$ を作成する。v $v_{\text {trig }}$ は長さが一文中のトークン長 (SeqLen) で次元が 1 のベクトルである. 対応するトークンに対してトークンがトリガワードの場合は 1 が入り,トリガワードではない場合には 0 が要素として定義されるべクトルである. この $v_{\text {trig }}$ に対して平均 0 分散 1 の正規分布に基づいた重みで初期化される行列を用いた埋め込み処理を行う。 $ \boldsymbol{h}_{\text {trig }}=\text { Embedding }\left(\boldsymbol{v}_{\text {trig }}\right) $ この $\boldsymbol{h}_{\text {trig }}$ に対して中間表現 $\boldsymbol{h}_{\mathbf{2}}$ を次元方向に Concat して全結合層に入力して $\boldsymbol{q}$ を生成する. $ \boldsymbol{q}=\text { FullyConnected }_{q}\left(\boldsymbol{h}_{\mathbf{2}} \oplus \boldsymbol{h}_{\text {trig }}\right) $ $k, v$ は以下の式に沿って作成し, $q, k, v$ を MultiHeadAttention 層の入力とし, $\boldsymbol{h}_{\mathbf{3}}, \boldsymbol{W}$ を生成する $ \begin{aligned} \boldsymbol{k} & =\text { FullyConnected }_{k}\left(\boldsymbol{h}_{\mathbf{2}}\right) \\ \boldsymbol{v} & =\operatorname{FullyConnected}_{v}\left(\boldsymbol{h}_{\mathbf{2}}\right) \\ \boldsymbol{h}_{\mathbf{3}}, \boldsymbol{W} & =\operatorname{MultiHead}(\boldsymbol{q}, \boldsymbol{k}, \boldsymbol{v}) \end{aligned} $ この Attention は query に対してトリガワードの情報を加えたものである. query に対しての情報付加なので「文中における関連度を知りたいもの」としてトリガワードを加えていることになる. key, value には $\boldsymbol{h}_{\mathbf{2}}$ の情報が含まれていることを考慮すると,得られる $\boldsymbol{h}_{3}$ は「文全体におけるトークンの内トリ ガワードに関連するトークンに対して,強く注意がかかった表現」という解釈が可能である. これは 「トリガワードが存在する場合,トリガワードと文全体の文脈との関連性」を考慮することで関係抽出の精度が向上することを期待している. 次に得られた $\boldsymbol{h}_{3}$ に対してスキップコネクションと畳込み層を 2 層を通して中間表現 $\boldsymbol{h}_{4}$ を作成する。 $ \begin{aligned} & \boldsymbol{h}_{\mathbf{3}}^{\prime}=\operatorname{CNN}\left(\boldsymbol{h}_{3}\right)+\boldsymbol{h}_{\mathbf{3}} \\ & \boldsymbol{h}_{\mathbf{4}}=\operatorname{CNN}\left(\boldsymbol{h}_{\mathbf{3}}^{\prime}\right)+\boldsymbol{h}_{\mathbf{3}} \end{aligned} $ 次にペア作成部で作成した用語位置ベクトルと $\boldsymbol{h}_{\mathbf{4}}$ を用いて関係抽出に用いる 2 つの用語の表現 $\boldsymbol{e}_{\mathbf{1}}$ と $e_{2}$ を獲得する。 $ \boldsymbol{e}_{\boldsymbol{i}}=\boldsymbol{p} \boldsymbol{e}_{\boldsymbol{i}} \odot \boldsymbol{h}_{\mathbf{4}} \quad \forall i \in[1,2] $ ここで $\boldsymbol{p}_{\boldsymbol{i}}$ は $i$ 個目の用語位置ベクトル,๑は要素積を表す. 得られた $e_{1}$ と $e_{2}$ に対して Maxpooling の演算を行いそれぞれの 1 つのベクトルに整形する。 $ \boldsymbol{e}_{\boldsymbol{i}}^{\prime}=\operatorname{Maxpooling}\left(\boldsymbol{e}_{\boldsymbol{i}}\right) \quad \forall i \in[1,2] $ ここで $\boldsymbol{e}_{i}^{\prime}$ は複数トークンから構成される用語である.この $\boldsymbol{e}_{\boldsymbol{i}}^{\prime}$ をそれぞれ全結合層を入力して用語としての表現を獲得し,それらのべクトルの和をとってから最後に全結合層を通して用語間に存在する各関係の確率を出力する.以下の式で表される。 $ \begin{aligned} \boldsymbol{e}_{i}^{\prime \prime} & =\text { FullyConnected }\left(\boldsymbol{e}_{\boldsymbol{i}}^{\prime}\right) \quad \forall i \in[1,2] \\ \boldsymbol{e}_{\boldsymbol{r} \boldsymbol{e}} & =\boldsymbol{e}_{1}^{\prime \prime}+\boldsymbol{e}_{2}^{\prime \prime} \\ \boldsymbol{l}_{\boldsymbol{r} \boldsymbol{l}} & =\text { FullyConnected }\left(\boldsymbol{e}_{\boldsymbol{r} \boldsymbol{e}}\right) \end{aligned} $ 関係抽出を行うことによる一文の損失は以下のようになる。 $ L_{\text {relation }}=\sum^{n_{\text {entity }} \mathrm{C}_{2}}\left(\sum_{i=1}^{r} y_{i} \log \left(\boldsymbol{l}_{\text {rel }}\right)_{i}\right) $ ここで $r$ は関係ラベルの種類数であり, $n_{\text {entity }}$ は用語抽出が一文から抽出した用語数である. 各関係に対して損失が発生し,それらの全ての和をとったものを関係抽出の損失とする。一文に対するマルチタスク学習モデル全体の損失としては,用語抽出の損失と合わせて以下のようになる. $ L_{\text {all }}=L_{\text {entity }}+n L_{\text {relation }} $ この損失をすべての文に対して,最小化することでマルチタスク学習を実現する。 表 1 関係抽出の対象ラベル数 ## 4 実験 4.1 節で今回実験に用いるデータについて述べ, 4.2 節で実験設定について述べる. 4.3 節ではマルチタスク学習モデルで行った用語抽出と関係抽出の実験について述べる. ## 4.1 対象データ 用いたデータは機械加工の切削加工に関する教科書文で文中に関係ラベルが存在する 794 の文を学習 714 と評価 80 に分割する. データ中の用語ラベルは「機械加工用語である」という Machining である. また,この 794 文の内トリガワードが含まれる文は 149 文で全体の 18.4\%であった。関係ラベルは,用語 A と用語 Bに「A が大きくなれば B が大きくなる」という正の相関を表す Positive の関係,「A が大きくなると B は小さくなる」という負の相関を表す Negative の関係,「AはBの一種である」という Sub の関係,「A は B と何らかの定性的な関係がある」 という Relation の関係の四種類である. ## 4.2 実験設定 本節では行った実験の全体に共通する設定を述べる. 最適化アルゴリズムは学習率 0.001 の Adamを用いた. 用語抽出における用語のフィルタ数 $n_{t o k}$ は 4 とした. これは対象のデータにおける用語を構成するトークン数が四つまでで全体のトークンの $96 \%$ を越えることが分かったためである. ## 4.3 マルチタスク学習による関係抽出 タスクの難易度に差がある用語抽出タスクと関係抽出タスクにおいて,用語抽出と関係抽出の同時学習モデルによるマルチタスク学習を行うことによる関係抽出の精度評価実験について述べる. このマルチタスク学習において, 学習初期から用語抽出と関係抽出を同時に行うことは精度が安定しない. その理由として, 関係抽出の対象とする用語ぺアが用語抽出で抽出された用語から作成されることが挙げられる。実際に,最初からマルチタスク学習を行うと, 用語の抽出精度が安定していないため, 関係抽表 2 学習法の違いによる評価データでの $\mathrm{F}$ 值 出が対象とする用語ぺアの数が多くなってしまうことがあり,GPUメモリに載らず,処理がそもそも不可能であった. そこでマルチタスク学習モデルにおける関係抽出は学習全体の半分は用語抽出のみを行い,半分以降は関係抽出も行うマルチタスク学習モデルとして評価を行った. 表 2 に実験結果を示す. ベースラインモデルは用語抽出と関係抽出を別々で行ったモデルである.結果を見ると用語抽出と関係抽出どちらのタスクにおいてもマルチタスク学習モデルの方が高い精度が得られることが分かった. この結果から,マルチタスク学習モデルにおける共有部の中間表現 $\boldsymbol{h}_{\mathbf{2}}$ が用語抽出・関係抽出の両タスクにとって必要な情報を獲得していることを示唆している. ## 5 おわりに 本研究は熟練者同等の知識が必要となる中で,技術文書等のテキストから機械加工因子と関係を抽出することを目指し,入れ子構造を考慮した用語抽出とトリガワードを考慮した関係抽出を同時に学習するマルチタスク学習モデルを提案した. マルチタスク学習をおこなうことで,用語抽出,関係抽出ともにベースラインより高い抽出精度が実現できることを示した. 今後の課題としては,マルチタスク学習モデルの学習方法についてのより詳細な検討, 結果のより詳細な解析が挙げられる。 ## 参考文献 [1] 増田ら. Trigger word と部分文字列を用いた機械加工用語の関係抽出. 言語処理学会第 22 回年次大会発表論文集, pp. 573-576, 2016. [2] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. CoRR, Vol. abs/1808.06226, , 2018. [3] Yohei Kikuta. Bert pretrained model trained on japanese wikipedia articles. https://github.com/yoheikikuta/ bert-japanese, 2019. [4] 稲熊陸, 小島大, 東孝幸, 三輪誠, 古谷克司, 佐々木裕.入れ子構造を考慮した機械加工用語抽出. 言語処理学会第 26 回年次大会 (NLP2020) P5-31, 2020.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-17.pdf
# ラベルの不均衡を考慮した End-to-End 情報抽出モデルの学習 山口 泰弘 進藤裕之 渡辺太郎 奈良先端科学技術大学院大学 先端科学技術研究科 \{yamaguchi.yasuhiro.yw2, shindo, taro\}@is.naist.jp ## 1 はじめに 情報抽出とは自然言語で書かれた文書から構造化された情報を構築する技術である。一般的な情報抽出は,与えられた文から目的の用語を示すスパンを抽出する固有表現認識と,抽出されたスパンの間の関係を予測する関係抽出,スパンの共参照関係を予測する共参照解決など複数のタスクからなる。これらのタスクはこれまで別々に研究が進められていて,特に関係抽出や共参照解決ではタスクでは,文と対象のスパンが与えられたもとで関係を予測する手法が多く研究されている. 情報抽出を行う際は,固有表現認識を行った結果を関係抽出モデルの入力とするパイプラインシステムとして処理される.こうしたパイプライン処理においては上流のタスクでの誤りが下流のタスクに伝播しまうことが問題となる. そこで,最近ではスパンの抽出とスパンの間の関係予測を同時に 1 つのモデルで行うマルチタスク End-to-End 情報抽出の手法が検討されている [1][2][3]. これらの手法は次のような手順で処理される. まず,与えられた文から可能なすべてのスパンを列挙する.次に,列挙された各スパンについてスパン埋め込みを計算する。そして,固有表現認識の場合はスパン埋め込み,関係抽出や共参照解決の場合はスパンのペアの埋め込み表現に対して分類を行う. 先述した手法の問題点として,ラベルがつけられているスパン・スパンペア (正例) の数とラベルのないもの (負例) の数に大きな差があることが挙げられる。処理する文書のトークン数を $N$ としたとき,可能なすべてのスパンの数は $N(N+1) / 2$ となる。また,スパンペアの数は,すべてを評価した場合 $\{N(N-1) / 2\}^{2}$ となる. 一方, 正例のスパンの数は多くの場合 $N$ 以下であり,正例と負例の数に不均衡が生じる. 先行研究では評価するスパンを定数 $L \leq N$ 以下の長さのみに限定していて,この場 表 1 SciERC における不均衡 合スパンの数は $L(2 N-L+1) / 2$ であるが,依然として正例と負例の数には大きな差が生じる.表 1 に SciERC[1] データセットにおける 1 文中の正例と負例のスパンの統計を示す. スパン数は $L=10$ とした場合に列挙されるスパンの数を計算したものである.正例の割合は,スパン数に対するラベル付けされたスパンの割合を表す。この統計から,実際のデータセットにおいても正例・負例の数が不均衡であることがわかる. こうしたラベルの不均衡は,一般的に機械学習モデルの学習を妨げることが知られいる [4][5]. そこで本研究では, Under Sampling, Over Sampling, Hard Example Sampling の 3 つのサンプリング手法を用いて学習に利用するデータを選択することで,このラベルの不均衡の問題を解決することを試みた。 これらのサンプリング手法を用いて End-to-End 情報抽出モデルを学習した結果,Hard Example Sampling を用いた場合に最もモデルの予測性能の改善が見られた。 ## 1.1 End-to-End 情報抽出モデル 本研究ではマルチタスク End-to-End 情報集出モデルとして、DyGIE[2][3]をもとにしたモデルをべー スラインとして用いた. 図 1 に処理の手順を示す. モデルは以下のようなステップで実行される. スパンの列挙: 与えられた文中から,トークン数が $L(\leq N)$ 以下の可能な全てのスパンを列挙する. Lはハイパーパラメータとして設定する。 スパン埋め込み: 列挙されたスパンに対応するべクトル表現を計算する。各トークンに対する埋め込み $\left.\{\boldsymbol{x}_{1}, \cdots, \boldsymbol{x}_{N}\right.\}$ からスパン $\left(s_{i}, e_{i}\right)$ の始点と終点の埋め込みを選択し,それらを結合したべクトル $g_{i}=\left[x_{s_{i}} ; x_{e_{j}}\right]$ をスパン埋め込みとする. 図 1 実験に利用したモデルの構造. ベースラインには赤枠の処理を除いたモデルを利用した. スパンの枝刘: DyGIE[3][2] の手法に基づき,各スパンに対応するスコアを計算し,スコアの大きいものを選択する。選択するスパンの数は定数 $\gamma$ を設定 スパンペアの作成: 2 つのスパン埋め込み $g_{i}, g_{j}$ を結合し,スパンペアのベクトル $\left[\boldsymbol{g}_{i} ; \boldsymbol{g}_{j}\right]$ を作成する. スパン・スパンペアの分類: スパン,またはスパンペアのベクトル $\left(g_{i}\right.$ または $\left.\left[g_{i} ; g_{j}\right]\right)$ を,順伝播型ニューラルネットワーク (FFN) を用いて各ラベルに対するスコアを計算する。 スパン埋め込みの更新: DyGIE[3][2] と同様に,予測した共参照関係に基づいてスパン埋め込みの更新を行う。 損失: 固有表現認識 (NER),共参照解決 (CR),関係抽出 (RE) の各タスクにおける交差エントロピー 誤差 $\mathscr{L}_{\mathrm{NER}}, \mathscr{L}_{\mathrm{CR}}, \mathscr{L}_{\mathrm{RE}}$ をそれぞれ計算する. モデルの学習ではこれらの誤差の和 $\mathscr{L}$ を最小化する。 $ \mathscr{L}=\mathscr{L}_{\mathrm{NER}}+\mathscr{L}_{\mathrm{CR}}+\mathscr{L}_{\mathrm{RE}} $ 提案手法ではこのベースラインモデルにサンプリング処理を追加することでラベルの不均衡に対処することを試みた。 ## 2 サンプリング手法 本研究では,先述のラベルの不均衡を考慮するために以下の 3 つのサンプリング手法を検討した. ## 2.1 Under Sampling 各ラベルの学習事例の数が偏っている場合に,多数派のデータはその一部のみを使って学習すること で少数派とのデータサイズをバランスさせる手法である [4]. ここでは列挙されたスパンのうち,NER ラベルが付与されていないスパンからランダムに選択したスパンを学習に使用する。一方,ラベルが付与されたスパンはすべて学習に使用する. ## 2.2 Over Sampling Over Sampling は少数派のデータを増加させる手法であり、様々な手法が提案されている。本研究ではSMOTE[5] と呼ばれる手法を利用した. SMOTE アルゴリズムでは,まず,増やしたいラベルの対象データをランダムに 1 つ選択し,その近傍 $k$ 個を求める. そして,この $k$ 個の近傍から 1 つを選んで,対象データとの間に同じラベルをもったデータを生成すことでデータを増やす。 固有表現認識,共参照解決,関係抽出の各タスクごとに,スパン(あるいはスパンペア)の分類器に渡す直前の埋め込み表現 $\left(g_{i}\right.$ または $\left.\left[g_{i} ; g_{j}\right]\right)$ に対して SMOTE アルゴリズムを用いて事例を増やす。ここではラベルのつけられたスパン・スパンペアに対して Over Sampling を行う.なお,ラベル間のデー 夕数の不均衡については考慮しないものとする。 ## 2.3 Hard Example Sampling 予測の難易度にばらつきのあるデータを学習する際に用いられる手法の 1 つに Hard Example Mining (HEM)[6][7] がある. HEM では, 学習時にモデルの予測スコアに基づいて学習の難しい事例を発見し, より困難な事例を用いてモデルの学習を行うことで モデルの性能向上が期待できる. 本研究では,この HEM の考え方をもとに,学習の難しい事例を選択する Hard Example Sampling を提案する。 可能なすべてのスパンを列挙した場合,実際にラベルがつけられたスパンとオーバーラップするスパンが複数生成される。 “This paper reports on two contributions to [ large vocabulary continuous speech recognition ] .”という例文では. 括弧で囲まれた範囲が実際のスパンである.ことのき,列挙されるスパンの中には “continuous speech recognition”, "continuous speech", "contributions to large vocabulary" といった実際のスパンとオーバーラップしたものが含まれる.こうしたオーバーラップしたスパンは互いに共通する部分文字列を持ち,似通っているため分類が困難になと考えられる。 HES を用いることで,ラベルの不均衡を改善するとともに,こうした予測の困難な事例に対する予測性能の改善が期待できる. ## 3 実験 提案した各サンプリング手法を用いてモデルを学習し,固有表現認識,共参照解決,関係抽出の各夕スクにおける予測性能の比較を行った。 ## 3.1 データセット 学習と評価には SciERC[1]を利用した. このデー タセットは 500 本の科学論文のアプストラクに対して固有表現認識,共参照解決,関係抽出のためのアノテーションを行ったデータセットである.このデータセットのうち, 学習データと検証データを用いてモデルの学習とハイパーパラメータの決定を行い,テストデータで各手法の性能を比較した. ## 3.2 モデルの設定 各トークンの埋め込みを得るために,科学論文で事前学習された BERT モデルである SciBERT[8] を利用した. 対象の文を SciBERT に入力し, 得られたトークンの埋め込みを元にスパン埋め込みを算出した. 学習時には SciBERT のパラメータの更新を行った. スパンの列挙では, $L=10$ として,トークン数が 10 以下のすべてのスパンを予測の対象とした。また,スパンの枝刈りにおいては共参照解決と関係抽出の両方で $\gamma=0.5$ を設定した. 固有表現認識,共参照解決,関係抽出の各タスク 表 2 実験結果 では,スパン・スパンペアの埋め达みを 2 層の順伝播型ニューラルネットワークを通して各ラベルの予測スコアを計算した. 各層の次元はすべて 150 とした. ## 3.3 サンプリングの設定 Under Sampling と Hard Example Sampling では, 正例全てに加えて,バッチの繰り返しごとに負例を最大で 50 個ランダムに選択して学習に利用した. また, Over Sampling では $k=10$ として近傍を計算し, SMOTE アルゴリズムを用いて各文に対して 10 個の正例を増やした。 ## 3.4 評価 各タスクの性能はテストデータを用いて F1, Precision Recall を計算した. 関係抽出タスクでは,選択されたスパンの範囲と予測された関係ラベルのみに基づいて各スコアを計算した。したがって関係予測の評価においては選択されたスパンの NER ラベルの予測の正しさについて考慮しないものとした. ## 4 結果と考察 実験の結果を表 3.4 に示す. 手法 Base, US, OS, HES, HES+OS はそれぞれ, ベースラインモデル, Under Sampling, Over Sampling, Hard Example Sampling, HES と OS の併用,を表す.すべてのタスクの F1 スコアにおいて,HESが最も高い精度となった. OS は固有表現認識, 共参照解決のタスクにおいてべー スラインのF1スコアを下回った。一方,Recall を見るとすべてのタスクにおいて OS が最も高い結果なった。また,Base と OS, HES と HES+OS をそれぞれ比較すると,OS を用いた場合に Precision が低 A probabilistic spectral mapping is estimated independently for each training reference speaker and the target speaker . Each reference model is transformed to the space of the target speaker and combined by averagin We pose this as an unsupervised discriminative clustering problem on a huge dataset of image patches 図 2 スパンとその近傍 下し,Recallが上昇する傾向がみられた. ## 4.1 スパン埋め込みの近傍 Over Sampling では近傍の事例を用いてデータを生成するため,サンプリング対象となる事例の近傍の状態がモデルの学習やその性能に影響を及ぼすと考えられる。そこで,SciBERT から計算したスパン埋め込みを用いて,ラベルのつけられたスパンの埋め込みの近傍となるスパンを分析した。 表 2 亿正例とその近傍のスパンの例を示す. 赤で示された範囲が正例のスパンであり,下線で示したものが最近傍のスパンの範囲である. 近傍のスパンを見ると,その多くが正例とのオーバーラップを含んでいることがわかる. SMOTE アルゴリズムを利用してデータを増やした場合,こうしたまぎらわしい負例との間に正例データが生成されるため, 正例と負例の識別が困難になったと考えられる. そして,まぎらわしい事例に対してラベルを付与してしまうことで,Over Sampling を用いた手法では Recall は高く,Precision は低くなるという結果になった。 一方,Hard Example Sampling ではオーバーラップを含むスパンを学習に使用し, 正例と負例の境界付近の事例を学習したことで性能の向上に繋がったと考えられる。 ## 4.2 サンプリングサイズの影響 サンプリングサイズの違いによる予測性能への影響を調べるために,異なるサンプリングサイズでモデルを学習し, 予測性能の比較を行った. 表 4.2 に HES における比較を示す. HES 10, HES 50, HES 100 はそれぞれ負例のサンプリングサイズを $10,50,100$ として学習を行ったものである. 表 4.2 から,HES 50 が全てのタスクにおいて最も高い F1 スコアとなった. 一方,HES 10 ではベースラインと比較して固有表現認識と共参照解決においてはF1 スコアが下回る結果となった。この結果から,サンプリングサイズが小さすぎる場合には事例が不足して十分な学習が行われず,HES を用いても 表 3 サンプリングサイズごとの予測性能 予測性能は向上しないと考えられる。また,HES 50 と HES 100 では HES 50 の F1 スコアが高いことから,学習に必要な事例数と正例・負例のバランスを調整する必要があることが示唆される。 ## 5 おわりに 本研究では,マルチタスク End-to-End モデルの学習におけるラベルの不均衡の問題を解決するために, Under Sampling, Over Sampling, Hard Example Sampling の 3 つのサンプリング手法による学習を検討した. 実験の結果,Hard Example Sampling を用いた場合に,固有表現認識,共参照解析,関係抽出の全てのタスクにおいてF1 スコアの改善が見られた.一方,SMOTE による Over Sampling ではまぎらわしい正例が生成されることで Precision の低下と Recall の上昇が確認された。そして,Hard Example Sampling においてはサンプリングサイズが予測性能に影響を与えていて,予測性能を向上させるためには適切なサンプリングサイズを選択する必要があることが示唆された。 また,本研究で用いたようなスパンとその関係を同時に予測するモデルは,情報抽出以外のタスクにおいてもその利用が検討されている [9]. そこで,今後は他のタスクにおいてもこの提案手法による予測性能への影響を検証したい。 ## 参考文献 [1] Yi Luan, Luheng He, Mari Ostendorf, and Hannaneh Hajishirzi. Multi-Task Identification of Entities, Relations, and Coreferencefor Scientific Knowledge Graph Construction. In Proc. \Conf. Empirical Methods Natural Language Process. (EMNLP), 2018. [2] David Wadden, Ulme Wennberg, Yi Luan, and Hannaneh Hajishirzi. Entity, Relation, and Event Extraction with Contextualized Span Representations. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 5784-5789, Hong Kong, China, nov 2019. Association for Computational Linguistics. [3] Yi Luan, Luheng He, Mari Ostendorf, and Hannaneh Hajishirzi. Multi-task identification of entities, relations, and coreference for scientific knowledge graph construction. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, EMNLP 2018, pp. 32193232. Association for Computational Linguistics, 2020. [4] Miroslav Kubat and Stan Matwin. Addressing the curse of imbalanced training sets: One-sided selection. In In Proceedings of the Fourteenth International Conference on Machine Learning, pp. 179-186. Morgan Kaufmann, 1997. [5] Nitesh Chawla, Kevin Bowyer, Lawrence Hall, and W. Kegelmeyer. Smote: Synthetic minority over-sampling technique. J. Artif. Intell. Res. (JAIR), Vol. 16, pp. 321-357, 062002. [6] P. F. Felzenszwalb, R. B. Girshick, D. McAllester, and D. Ramanan. Object detection with discriminatively trained part-based models. IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 32, No. 9, pp. 1627-1645, 2010. [7] Abhinav Shrivastava, A. Gupta, and Ross B. Girshick. Training region-based object detectors with online hard example mining. 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 761-769, 2016. [8] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3613-3618, Hong Kong, China, November 2019. Association for Computational Linguistics. [9] Zhengbao Jiang, Wei Xu, Jun Araki, and Graham Neubig. Generalizing Natural Language Analysis through Spanrelation Representations. pp. 2120-2133. Association for Computational Linguistics (ACL), jul 2020.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-18.pdf
# SVM を用いた BCCWJ における同形異音語の読み推定 小林汰一郎 茨城大学工学部情報工学科 17t4036s@vc.ibaraki.ac.jp } 古宮嘉那子 茨城大学理工学研究科工学野情報科学領域 kanako.komiya.nlp@vc.ibaraki.ac.jp ## 1 はじめに 日本語には同形異音語と呼ばれるものがある。これは文字通り「同じ字形で異なる読みを持つ語彙」のことであり、例として「強請る」などがある。これは 「ユスル」と「ネダル」という 2 つ読みがあるが、これらは明らかに異なる意味であり、文章によって適切に読み分ける必要がある。日本語話者であれば、どちらの読みが正しいのか文脈から判断することはさほど難しくない。また、 3 種類以上の読みを持つ同形異音語も存在する。「辛い」などがその最たる例である。 これは「カライ」「ツライ」「ヅライ」のように読むことができる。「カライ」と「ツライ」が違う意味であることは言うまでもないが、文章によっては「ツライ」 という読みに連濁が発生し、「ヅライ」と読むこともある。この連濁を無視して文章を読むことは不自然であることから、「ツライ」と「ヅライ」にも読み分けが必要であることが分かる。 このように、同形異音語の読み分けは文章の意味を理解する上で必須である。ただ、その読み分けには文脈の理解が必要であると予想され、機械が読み分けることは困難である。そこで、文脈を考慮できる分散表現の一種である BERT など複数のべクトル化手法を用いて単語をべクトル化し、それらを大力とした SVM を用いて同形異音語の読み分類を行った。 ## 2 関連研究 本研究は語義曖昧性解消の一種と捉えられる。語義曖昧性解消とは、複数の語義を持つ単語を一意に識別するタスクのことである。語義曖昧性解消は、頻出の単語のみを対象語とする Lexical Sample Task と文中の全単語を対象とする All-words Word Sense Disambiguation([1]、[2] など)に分けられる。本研究は、Lexical Sample Task の一種として捉えられる。日本語の Lexical Sample Taskには、SENSEVAL-2 Japanese dictionary task ([3]) や SemEval-2010 Japanese WSD Task([4])などがある。 ## 3 ベクトル化手法 SVM を用いて同形異音語の読み分類をする際に、以下のようなべクトル化の手法を試みた。 1. one-hot ベクトル 2. word2vec 3. BERT 本節では、これらの手法について ・「私はその辛いカレーをその時食べた。」(以下文章 1) ・「あなたはその辛い出来事を忘れてはいけない。」 (以下文章 2) を例にとって説明する。 ## 3.1 one-hot ベクトルを用いた手法 one-hot ベクトルとは、対応する素性だけを 1 とし、 その他は全て 0 としたべクトルのことである。本研究で利用した作成方法は以下の通りである。 1. 同形異音語の周辺 6 単語を抽出する 2. 抽出した単語に数値を割り当てる 3. one-hot ベクトルに変換する 4. 同形異音語 1 単語毎にベクトルを連結する まず 1. では文章中の同形異音語の前後 3 単語ずつを抽出する。今回の例で言えば、文章 1 と文章 2 から抽出される単語はそれぞれ「私」「は」「その」「カレー」「を」「その」と「あなた」「は」「その」「出来事」「を」「忘れる」の計 12 単語である。 2. では抽出された単語の辞書を作成し、素性とする。ただし、同じ単語でも、出現した場所によって異なる素性とする。今回で言えば、文章中の同形異音語「辛い」の 1 つ前に出現した「その」と 3 つ後に出現した「その」とは区別して素性とする。 3. では 2. で作成した素性に対して、周辺単語が属する素性を 1 とし、その他は全て 0 とする。 4. では 3. で作成した one-hot ベクトルを単語每に連結させ、 1 つのベクトルとする。 この手法では、文章数によってべクトルの次元が 大きく変化しうる。今回の実験では抽出された文章は $1,441,636$ 文となり、 162,314 次元のベクトルとなった。 ## 3.2 word2vecを用いた手法 本研究では $n w j c 2 v e c^{1)}[5]$ を利用した。 $n w j c 2 v e c は$国語研日本語ウェブコーパス (NWJC)([6]) から学習された単語の分散表現データであり、word $2 \mathrm{vec}^{2}$ )を基に構築された。単語分散表現とは、単語を高次元のべクトルに変換する技術の総称で、word2vecを皮切りに世界中で研究されている。word2vec とは Mikolov ら [7] が 2013 年に提案した手法で、例えば、「王様」を表すベクトルから「男性」を表すべクトルを引いて、更に 「女性」を表すべクトルを足すと、「女王」を表すべクトルになるように、単語間で構成性を持つのが大きな特徴である。また、word2vecでは同じ表層を持つ単語は同じベクトルに変換される。例えば多義語でも同じベクトルに変換される。これは同形異音語も同様であるため、同形異音語自身の word2vec を素性としても読み分類には役立たない。 今回使用した nwjc2vec の学習の詳細は以下の通りである。 ・アルゴリズム : C-BOW ・次元数 : 200 ・ウィンドウ幅 : 8 ・ネガティブサンプリングに使用した単語数 : 25 - 反復回数 : 15 one-hot ベクトルの時と同じように、ベクトル化の対象となる単語は文章中の同形異音語の周辺 3 単語ずつである。今回の例で言えば「私」「は」「その」「カレー」「を」「その」と「あなた」「は」「その」「出来事」「を」「忘れる」の計 12 単語である。各単語べクトルを連結する際、出現した順番に連結することで単語の位置を考慮した。nwjc2vec は 1 単語当たり 200 次元のベクトルであるため、 6 単語の抽出を行った本実験では、 1 文章につき 1,200 次元のべクトルとなった。 ## 3.3 BERTを用いた手法 BERT[8] とは'Bidirectional Encoder Representations from Transformers' の略称で、Jacob Devlin らが 2018 年に発表した分散表現及びそれを利用したモデルである。BERT の大きな特徴として、文脈に依存した出力を行うことが挙げられる。これは、同じ単語でも文脈によって違うべクトルを出力するということで  ある。本研究では $n w j c-B^{2} R R T^{3)}$ と呼ばれる、言語資源協会より公開されている事前学習モデルを利用した。 nwjc-BERT は、国立国語研究所コーパス開発センター 超大規模コーパスプロジェクトで整備されたウェブテキストコーパスから訓練された、48,914 語彙素からなる BERT モデルであり、同データの 226 億語から、表層形でない UniDic 語彙素に基づいて訓練された。次元数は 1 単語当たり 768 次元である。 nwjc-BERTを用いてべクトル化する際には、同形異音語自身をべクトル化の対象とした。上述の通り、 BERT は文脈を考慮し、それ故に同じ単語であっても文章によって異なるべクトルを出力できる。この特性を利用し、周辺単語を抽出してべクトル化せず、文章中の同形異音語自身をべクトル化の対象とした。ベクトル化の際は左右 6 単語を文脈として入力した。 ## 4 実験 実験には現代日本語書き言葉均衡コーパス (以下 $\mathrm{BCCWJ})^{4}$ を利用した。 BCCWJ に含まれているテキストとしては以下のような種類があり、今回の実験では全てのジャンルを対象とした。 ・出版サブコーパス 一書籍 -雑誌 一新聞 ・図書館サブコーパス一書籍 ・特定目的サブコーパス 一白書 一教科書 一広報誌 ーベストセラー -Yahoo!知恵袋 - Yahoo!ブログ 一韻文 - 法律 - 国会会議録 実際に BCCWJ に含まれていた同形異音語は 71 種存在した (表 1) が、単語数が少なすぎるものについては実験の対象外とした。具体的には、間値を 50 と設定し、合計単語数が間値を下回った単語 (表 1 下部の 「巨頭」「泡沫」「竹馬」)を実験の対象外とした。 サポートベクトルマシン (SVM) には scikit-learn ${ }^{5}$ の  & 読み 4 & 読み 5 & 読み 6 & 単語数 \\ SVC 及び LinearSVC を利用した。ベクトル化手法毎のそれぞれ使用したカーネルは表 2 の通りである。 実験結果のマクロ平均、マイクロ平均を表 3 及び表 4 に示す。また、各単語において、(最頻出読み数)/(全読み数) をBASELINE として設定した。この BASELINE のマクロ平均とマイクロ平均もそれぞれ表 3 と表 4 に示す。 ## 5 考察 表 3、表4から、one-hotベクトルが最も良く、BERT が最も悪いという結果が読み取れる。one-hot ベクトルには、定型的な表現やルールが存在するものの分類には強いという特徴がある。つまり、one-hot ベクトルが最も良かった要因としては、読みの分類には前後の単語によるシンプルなルールがあるからだと考えられる。 また、one-hot ベクトルには未知語が存在しない。 これは、素性として登録されていない単語が出てきたら、新たに対応した素性を作成するというアルゴリズム故である。それに対して、nwjc2vec や nwjc-BERT はあらかじめ登録された単語しかべクトル化できない。これによって、one-hot ベクトルが単語分散表現よりも良い結果が得られたのではないかと考えられる。 そこで nwjc2vec と nwjc-BERT に対して未知語を検出した結果、その数は表 5 のようになった。 このように、nwjc-BERT では未知語の割合が $1 / 6$ 程度を占めているが、これは 1 つの文章につき 1 単語程度未知語が発生している計算となる。また、nwjc2vec表 5 未知語の数とその割合 と比べても未知語が 250 倍程度ある。そのため、 one-hot ベクトルと nwjc2vec に比べて、nwjc-BERT が最も悪い結果になったと考えられる。 ## 6 おわりに 本稿では BCCWJ から同形異音語を抽出し、その周辺単語や同形異音語自身を素性として、読みの分類を SVM で行った。ここで、周辺単語を素性とする時は前後 3 単語のみを素性とした。 単語のベクトル化手法には one-hot ベクトルと単語分散表現を用い、単語分散表現では nwjc2vec と nwjc-BERTを用いた。これらのベクトル化された単語をSVM の入力とし、one-hot ベクトル及び nwjc2vec では linear カーネルのみを、nwjc-BERT では linear、 poly、rbf、sigmoid の 4 種のカーネルを試した。 結果としてはマクロ平均・マイクロ平均共に one-hot ベクトルが最も高く、BERT が最も低いという結果になった。 今後の展望として、ベクトル化手法として BERTを用いる場合、今後は 1 文全てを素性として実験しようと考えている。BERT は文脈を考慮して単語をべクトル化できるため、ベクトル化の際に与える単語をよりに広げることで、今回の実験結果より高い精度が得られると考えられる。より高い精度が得られれば、転移学習による他のタスクの解決にもつながると考えている。 その他にも one-hot ベクトルと BERT の複合ベクトルを入力とするなど、ベクトル化手法の工夫も考えている。また、非線形分類を行うために MLP など、 SVM 以外を用いた分類手法を取り入れることも視野に入れている。 ## 謝辞 本研究は、茨城大学の特色研究加速イニシアティブ個人研究支援型「自然言語処理、データマイニングに関する研究」に対する研究支援および JSPS 科研費 17KK0002、および 18K11421 の助成を受けたものです。 ## 参考文献 [1] David Yarowsky. Unsupervised word sense disambiguation rivaling supervised methods. In 33rd annual meeting of the association for computational linguistics, pp. 189-196, 1995. [2] 浅原正幸佐々木稔新納浩幸鈴木類. 概念辞書の類義語と分散表現を利用した教師無し all-words WSD. 自然言語処理 Vol26 No2., 2019. [3] Kiyoaki Shirai. Senseval-2 japanese dictionary task. In Proceedings of SENSEVAL-2 Second International Workshop on Evaluating Word Sense Disambiguation Systems, pp. 33-36, 2001. [4] Manabu Okumura, Kiyoaki Shirai, Kanako Komiya, and Hikaru Yokono. On semeval-2010 japanese wsd task. Information and Media Technologies, Vol. 6, No. 3, pp. 730-744, 2011. [5] 新納浩幸, 浅原正幸, 古宮嘉那子, 佐々木稔. nwjc2vec:国語研日本語ウェブコーパスから構築した単語の分散表現データ. 自然言語処理, Vol. 24, No. 5, pp. 705-720, 2017. [6] Masayuki Asahara, Kikuo Maekawa, Mizuho Imada, Sachi Kato, and Hikari Konishi. Archiving and analysing techniques of the ultra-large-scale web-based corpus project of ninjal, japan. Alexandria, Vol. 25, No. 1-2, pp. 129-148, 2014. [7] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient Estimation of Word Representations in Vector Space. ICLR, 2013. [8] Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Russ R Salakhutdinov, and Quoc V Le. Xlnet: Generalized autoregressive pretraining for language understanding. In Advances in neural information processing systems, pp. 5753-5763, 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-19.pdf
# オンラインコミュニティにおける単語頻度の通時的変化を利用 た新語リストの獲得 阿部香央莉 1 松田耕史 2,1 吉川将司 3,2 乾健太郎 1,2 1 東北大学大学院情報科学研究科 2 理化学研究所 3 東北大学 TCPAI 研究センター \{abe-k, matsuda, inui\}@ecei.tohoku.ac.jp yoshikawa@tohoku.ac.jp ## 1 はじめに 近年,機械翻訳などの言語処理技術の発展は目覚ましいが,それらのシステムに対して未知の単語 (未知語)が入力として与えられると,その性能は顕著に落ちることが知られている $[1,2,3]$. 未知語の例としては,漫画のタイトルなどの固有名詞(「呪術廻戦」,「あつ森」など)や,特定のコミュニティ内で生まれ幅広く広まった用語(「草」,「エモい」など),医学や法学などの専門用語などがあげられる。これらの語は日々生み出され続けており,大規模データを学習した BERT[4] のようなモデルにおいても, 現状の学習済モデルが静的な状態で運用されている以上,これらの新語全てに対応するのは不可能である. したがって,今後の自然言語処理技術の発展に向け, 未知語(特に新語)に対応する術を考えることの重要性が増している。 しかし,日本語において新語を対象にした分析を行うための基盤は,我々の知る限り十分に整えられていない. そのため,我々は新語分析基盤を整えるための最初のステップとして,具体的にどのような新語が存在するのかを把握するべく, 分析対象となる新語のリストを収集することを試みる。新語リストの収集後には,リスト中の語の体系的分析や,自然言語処理システムの新語に対する頑健性を評価するデータセットの構築等を行っていく. 本研究では,日本語における新語のリストをデータ駆動的に獲得することを目的として,時系列の記録が紐づいたテキストデータから (1) 頻度 0 から生起した語の取得 (2) 年々右肩上がりに頻度上昇した語の時系列クラスタリングによる取得の 2 つを試す. 結果として, 前者で満足に取得できなかった新語を後者で取得できた ${ }^{1)} ものの ,$ 実際に新語リストとして活用するには目視による確認が必要であり,今後の新語研 1)詳細なクラスタリング結果はhttps://chanabe-k.github。 io/time_clustering_novel_words を参照.究基盤を整えるためさらに精査する心算である. ## 2 関連研究 近年の言語処理分野においては,新語(novel words)や造語(neologism)に着目した研究が広がりつつある.英語では,オンラインコミュニティの Reddit データ [5, 6] や新聞データ [7] を利用した新語についての研究が行われている. Cole ら [5] は,新語の生み出される数が年々増加するという過去の報告通りの現象が Redditにおいても生じることを確認している。これは,日々生まれる新語に対処する方法論を考える必要性を示唆する結果である。また, Pinter ら [7] は, 新聞データにおいて出現した新語に対し, 細かい粒度(混成語,方言,ドメイン特化の専門用語等)での分類を行い,新語データセットの作成を行っている.この研究からもわかる通り,一言で新語と言ってもその中身は多様であり,これら全てに対応するための方法論は自明ではない.既存語の組み合わせや変形で生じた語に関しては, Hofmann ら [6] がある特定の語を語幹として語形変化によって生み出された新語 (例 : trump $\rightarrow$ trumpy, trumpish)のまとまりを形態論的家族(morphological family)と呼び,その広がりを推測するという新しいタスクを提案している. また, Schick らは BERT の埋め込み表現と語形を考慮したベクトルを組み合わせて(新語などの)希少語に対応する手法を提案している [8]. さらに,英語だけでなくへブライ語においても,へブライ語の語形成の特徴を考慮した造語自動生成の研究などが行われている [9]. このように,新語に関する研究は言語を跨って行われており,その多くは新語問題に取り組む手始めとして,新語研究を行うための基盤(データセット・タスク)を整えている。しかし,日本語において同様に新語についての分析を行いたいと考えた時に,このようなデータセットなどの資源は現状整備されて いない. そのため, 本研究では新語分析を行うためのデータセット構築に向け,まず分析対象とする新語のリストを獲得することを試みる。 日本語において新語の研究を行いたいと考えた時, 日本語ではひらがな・カタカナ・漢字・アルファベットの 4 種類もの文字セットを常用していることにより, 英語等の既存研究の枠組みを適用するだけでは新語のモデリングが困難と考えられる.藤井ら [10] の研究では, 現状の機械翻訳モデルは異表記(本来漢字等で表すべきところを,ひらがなやカタカナ等で表現している)を含む文に対処できないという指摘がある. このように,一つの概念に対する表現手法が一意に定まらない点が日本語における新語研究を複雑化させていると考えられる. ## 3 新語リストの獲得 新語を対象とした分析を始めるにあたり,まずどのような新語を対象とすべきか,対象とする新語をどう同定するかという点が第一の問題となる. 特に日本語では, 分かち書きがされていないことにより,文中のどの範囲を新語として取り出すかという課題も生じる。この議論は, Unidic[11] や $\mathrm{MeCab}$ の NEologd[12] など, 単語分割用辞書の自動獲得の文脈にも近い. 本研究では, 新語の分割自体は NEologd に頼り,この辞書中で特に幅広く話題となっている新語をどう獲得するか,という点に焦点を当てる.単語分割方法を定めた上で,以下の 3 種類の見方で新語を取得することを考える。 1. 予め新語とわかっている単語 2. ある基準(日時等)を境に,頻度 0 から生起した単語 3. 頻度が年々右肩上がりに上昇した単語 1 は言語学の知見や人手による観察を元にリストを得る方法で, 2 および 3 は大規模コーパスを利用してデータ駆動的に得る手法である. しかし, 1 の手法では選定する新語が人間の感覚や観察に大きく依存するため, 対象としたい新語を大規模に獲得することができない. 本研究では, 先行研究 $[5,7]$ でも用いられている 2 と, 本研究で新たに試みた 3 の結果を報告する。 ## 3.1 データセット 本研究では,通時的な単語頻度の変化を集計・分析することで,新語の隆盛の傾向を捉えることを試 みる.このような分析を行うためには,なるべく大規模かつそのテキストがいつ記述されたものかという情報が付加されている,各年代別に分かれたデー タセットを分析対象とする必要がある. 今回は,この条件に該当するデータとして,Twitterをクローリングして得られたデータ (Twitter データ) および国立情報学研究所のダウンロードサービスにより株式会社ドワンゴから提供を受けた『ニコニコ動画コメント等データ [13]』(ニコニコデータ) を用いた. Twitter データに関しては,2013 年から 2018 年までクローリングした結果から,各年別に一部を抽出した $^{2)}$ データを使用した. Twitter データ及びニコニコデータの各年ごとのデータ規模を表 1 に示す. 単語頻度の傾向分析をする際,データの規模によって正規化を行った. 以降の実験結果におけるグラフの縦軸は,「対象とする単語の頻度 / 総単語数」 で算出した割合となっている。 ## 3.2 頻度 0 を基準とした新語獲得 ここでは,Twitter およびニコニコデータセットにおいて,ある年を境に出現した新語を抽出して新語リストを獲得することを試みた。具体的な手順としては,表 1 に示している各年コーパスにおいて,コーパス中に出現する全単語を集めた語彙集合 $\left(V_{y}, y=2013, \ldots, 2018\right) を$ 作成し,この語彙集合間の差分を取った. 例えば, 2015 年データセットの語彙集合 $V_{2015}$ から,それまでの(2013~2014 年)デー タセットの語彙集合の和 $V_{2013} \cup V_{2014}$ をいたものを 2015 年に出現した新語とみなした。なるべく広範に使用されている語を獲得したいため, 初めて出現した年(上記の例の場合,2015 年時点の頻度)において頻度が 100 より大きいものを抽出した. 表 2 にて,実際に獲得された新語のリストの一部を例として示す. 表 2 より, Twitter・ニコニコデー 夕それぞれにおいて獲得された新語は,数・内容共に大きく異なることがわかった。取得される数は元データの規模に大きく依存していた。また内容に関しては, Twitterデータの方がより時事的な話題やテレビの番組等の固有名詞が多いのに対して,ニコニコデータではゲーム・アニメに関する固有名詞が多い傾向がみられた. また,それぞれのデータから抽出された時点では,ノイズとみなされるような単語3) も多く抽出されていたが,Twitter・ニコニコ 2)一部抽出する際,http から始まる URL を含むツイートを除外し,ツイート内からユーザ名を除く前処理を行った。 3)特にニコニコデータでは「弾幕」あるいは「荒らし」と見な 表 1 各年ごとの Twitter およびニコニコデータの規模(行数,総単語数).ニコニコデータは 1 コメント 1 行として数える. 総単語数は単語の異なり数ではなく,データ中の全単語数である(実験節におけるグラフの正規化のために用いる). 表 2 Twitter およびニコニコデータにおける各年コーパスの語彙集合の差分から得られた新語リスト データ双方で新語と判定された語(2つのリストの積集合)を取ることで,より妥当な新語リストを抽出することができた.しかし,積集合を取ることで新語リスト内の単語の総数は大きく減少するため,積集合を取って質を高めることと獲得される新語の数はトレードオフの関係にあると言える。一方で, 表現はこの手法ではうまく獲得できなかった. 原因として,「エモい」は 2013 年時点から Twitter データで 198 件,ニコニコデータで 452 件出現しており,当時から既に幅広く使用されていた語彙であるこ たものの,35年のスパンをかけて徐々にその勢力を拡大しており,頻度の下限で足切りされたことがあげられる. されるものにより,一般的でない表現(「。・。丸・。」など) が新語とみなされ獲得されてしまうという現象が起きていた。 ## 3.3 時系列クラスタリングによる新語獲得 頻度 0 から急激に使用頻度が増えた単語を抽出するだけでは,「エモい」等の既知の新語をデータ駆動で獲得することができなかった.そこで,このような単語も抽出する方法として,各年コーパスを比較した際に顕著に頻度が増加した単語を自動抽出する手法を考えた.具体的には,各単語の 2013~2018 年の頻度の推移を時系列データとみなして時系列クラスタリングを行い,単語頻度が上昇傾向にある単語を収集することを試みた。 ## 3.3.1 実験設定 Python の tslearn ライブラリ4)における TimeSeriesKMeans(時系列に対応した K-Means 手法)を用いてクラスタリングを行った.このとき,時系  (a) Twitter, 右肩上がり (c) Twitter, 凸型 (b) Twitter, 右肩上がり (d) ニコニコ,右肩上がり 図 1 Twitter およびニコニコデータの単語に対する時系列クラスタリングの結果. 赤線はクラスタの中心線を表す. 列データ間の距離尺度にはユークリッド距離を用いた5 ${ }^{5)}$.クラスタ数は Twitter・ニコニコデータそれぞれにおいて 100,80とした.実行時間を考慮し, Twitter データでは頻度 2,000 以上かつ 20,000 未満の 23,504 語,ニコニコデータでは頻度 2,000 以上かつ 200,000 未満の 14,586 語に対してクラスタリングを実行した。 ## 3.3.2 実験結果 図 1 に,時系列クラスタリングの結果の例を示す. 図 1 (a)のクラスタでは,2013 年当時の出現頻度がほぼ 0 に近い単語が,2018 年には 3 倍ほどの頻度に達している様子が読み取れる。このクラスタには 3.2 節で得られなかった「エモい」が含まれているだけでなく,「Bluetooth」「LGBT」など,次第に世間に広まった新語が含まれていることを確認できた. また,同じく右肩上がりの傾向が見られたクラスタ(図1(b))では,「すこ」「メルカリ」のような単語が見られた。一方で,この右肩上がりのクラスタ内には「アスリート」などの新語ではない単語も見受けられた. 同様に,ニコニコデータでも右肩上がりのクラスタから流行した新語(「SSR」「野田内閣」など)のリストを得ることができた(図 1 (d)). しかし,Twitter と比べるとニコニコデータでは右肩上がりとみなせるクラスタが少なかった6)。 時系列クラスタリングの副産物として,一時的に流行した単語リスト(凸型の傾向)や,以前は流行 5) 距離尺度を Dynamic Time Warping (DTW) や Soft DTW とした実験も行ったが,結果に大きな差異は見られなかった。 6)目視で確認した結果,Twitter データでは $24 / 100$ ,ニコニコデータでは 13 / 80 のクラスタが右肩上がりの傾向を示していた. していたが年々衰退している単語のリスト(右肩下がりの傾向)の収集もできた. 図 1(c)の凸型グラフのクラスタからは,「集団的自衛権」「アナ雪」などの 2014 年頃に話題となった単語が取得できた. 総じて,異なる 2 種類のデータセットから新語を含む語集合を得ることができたものの,中には一部新語に分類されないものが含まれており,新語分析用のデータセット等を作る上ではここからさらに目視による確認ステップを挟むなどして,その質を高める必要があることがわかった.また, 3.2 節と同様に,データセットによって獲得できる新語の種類は異なっていた。これは各データセットの元となったコミュニティの文化やそこで取り上げられる主要な話題に依拠しているものであり,実世界にある新語を網羅的に獲得するには複数のデータセットで横断的に新語を獲得する必要があると考えられる。 ## 4 おわりに 日本語において日々生まれ拡散されていく新語について,時系列情報がテキストと紐付いたデータを用い,その通時的な変化を元にデータ駆動で新語リストを獲得することを試みた。今後は,引き続き利用可能な時系列情報が付加されたデータセット(新聞データ等)を利用して新語リストを拡充し,この新語リストを利用した日本語における新語データセットの作成に取り組みたい。またデータセット構築後の次のステップとして,現状の BERT 等のモデルにおいて今回収集したような日本語の新語を扱えているかどうかの分析を行うことも考えている. 謝辞本研究は JSPS 科研費 JP20J21694 の助成を受けたものです. ## 参考文献 [1] Shoetsu Sato, Jin Sakuma, Naoki Yoshinaga, Masashi Toyoda, and Masaru Kitsuregawa. Vocabulary adaptation for domain adaptation in neural machine translation. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 4269-4279. Association for Computational Linguistics, 2020. [2] Zorik Gekhman, Roee Aharoni, Genady Beryozkin, Markus Freitag, and Wolfgang Macherey. KoBE: Knowledge-based machine translation evaluation. In Proceedings of EMNLP (Findings), pp. 3200-3207. Association for Computational Linguistics, 2020. [3] Timo Schick and Hinrich Schütze. Rare words: A major problem for contextualized embeddings and how to fix it by attentive mimicking. Proceedings of AAAI, Vol. 34, No. 5, pp. 8766-8774, 2020. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of NAACL-HLT, pp. 4171-4186. Association for Computational Linguistics, 2019. [5] J. Cole, M. Ghafurian, and D. Reitter. Word adoption in online communities. IEEE Transactions on Computational Social Systems, Vol. 6, No. 1, pp. 178-188, 2019. [6] Valentin Hofmann, Janet Pierrehumbert, and Hinrich Schütze. Predicting the growth of morphological families from social and linguistic factors. In Proceedings of ACL, pp. 7273-7283. Association for Computational Linguistics, 2020. [7] Yuval Pinter, Cassandra L. Jacobs, and Max Bittker. NYTWIT: A dataset of novel words in the New York Times. In Proceedings of COLING, pp. 6509-6515. International Committee on Computational Linguistics, 2020. [8] Timo Schick and Hinrich Schütze. BERTRAM: Improved word embeddings have big impact on contextualized model performance. In Proceedings of ACL, pp. 3996-4007. Association for Computational Linguistics, 2020. [9] Moran Mizrahi, Stav Yardeni Seelig, and Dafna Shahaf. Coming to Terms: Automatic Formation of Neologisms in Hebrew. In Proceedings of EMNLP (Findings), pp. 49184929. Association for Computational Linguistics, 2020. [10] Ryo Fujii, Masato Mita, Kaori Abe, Kazuaki Hanawa, Makoto Morishita, Jun Suzuki, and Kentaro Inui. PheMT: A phenomenon-wise dataset for machine translation robustness on user-generated contents. In Proceedings of COLING, pp. 5929-5943. International Committee on Computational Linguistics, 2020. [11] 岡照晃. 『国語研日本語ウェブコーパス』からの新規語彙素獲得の試み. 言語資源活用ワークショップ発表論文集, No. 3, pp. 586-592, 2018. [12] 佐藤敏紀, 橋本泰一, 奥村学. 単語分かち書き辞書 mecab-ipadic-neologd の実装と情報検索における効果的な使用方法の検討. 言語処理学会第 23 回年次大会 (NLP2017), pp. 875-878. 言語処理学会, 2017. [13] 株式会社ドワンゴ. ニコニコ動画コメント等データ. text(json), 2018. 国立情報学研究所情報学研究データリポジトリ.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-1.pdf
# ニュース記事に対する談話構造と興味度のアノテーション 〜ニュース対話システムのパーソナライズに向けて〜 1 早稲田大学 2 内外切抜通信社 $\quad 3$ 本田技研工業 takatsu@pcl.cs.waseda.ac.jp ando@naigaipc.co.jp hiroshi_01_honda@jp.honda matsuyama@pcl.cs.waseda.ac.jp koba@waseda.jp ## 1 はじめに 談話構造に基づく文章の首尾一貫性を保持しつつ,ユーザごとにパーソナライズした情報を提供する音声対話システムの開発を目的として,ニュース記事に対して談話構造と文単位のユーザの興味度を付与したデータセットを構築した. インターネットの普及により,日々膨大なデジタルコンテンツがウェブ上に蓄積され続けている。さらに,近年ではパソコンやスマートフォンなどが普及したことで,ウェブ上の情報に容易にアクセスできるようになり,人々のメディアへの接触時間は年々増加している [1]. 一方で「世の中の情報量が多すぎる」という意識も高まってきており,限られた時間の中でより効率的に情報を消費することへのニーズが高まっている.我々は,このような社会背景を踏まえ,人々が日々消費する情報の中でも特にニュースに焦点を当て,効率的にニュース記事の内容を伝達する音声対話システム(以下,ニュース対話システム)[2] の開発を進めている. ニュース記事の内容を効率的に分かりやすく伝えるうえで重要な観点として,ほしい情報をどれだけ提示でき,いらない情報をどれだけ除外できるか (情報伝達効率)という点と,文章の構造に基づき意味的に整合性のある文のつながりを保持したまま情報を伝えられるか(首尾一貫性)という点があると考える。 ニュース対話システムは,要約に基づく主計画と補足説明のための副計画から構成されるシナリオに基づいて会話を進行させる。 ユーザが受け身で聴いている限りにおいては主計画の内容を伝えることになる。主計画として,重要度に基づきユー ザごとに共通の要約を提示するよりも,興味度に基づきユーザごとにパーソナライズした要約を提示する方が高い情報伝達効率を実現できることを確認し た [3]. 一方で,ニュース内容を適切に理解させるためには話の内容が首尾一貫している必要がある. そこで,文章の首尾一貫性を考慮しつつ,ユーザの興味がある情報を提供する音声対話システムを開発するために,日本語のニュース記事に対して図 1 のような談話構造とユーザの興味度を付与したデー タセットを構築した。談話構造に関しては,文を談話単位とし,「係り先」「談話関係」「チャンク」のアノテーションを行った。例を図 1(a) に示す. 係り先は,ルートノードから親ノード文までの情報が対象の文を理解するうえで必要最小限の情報になるように付与したものである.談話関係は,子ノード文が親ノード文に対してどのような意味的関係にあるかを分類したものである.チャンクは,親ノー ド文の内容を正しく理解するために欠かせない情報が子ノード文に書かれている場合,これらをまとめて提示すべきであることを表したものである.合計 1200 記事に対して専門家 2 人が談話構造を付与した.興味度に関しては,クラウドソーシングを用いて,様々な属性の被験者に,ニュース記事の話題と各文の内容について興味度を 6 段階で回答させた. 例を図 1(b) に示す. 談話構造を付与した 1200 記事に対して,1 人あたり 6 記事, 1 記事あたり 11 人以上となるように配分し,合計 2507 人分のプロフィールと興味度のデータを収集した。 本稿の構成は次の通りである. 2 章で関連研究について述べる。 3 章で談話構造データセットについて説明する. 4 章で興味度データセットについて説明する. 5 章で今後の展望について述べる. ## 2 関連研究 談話構造解析は,文章を構成する文や節の間に成り立つ関係を解析する自然言語処理の基本的なタスクである。談話構造解析の結果は,文書要約 [4] や (a) 係り先$\cdot$談話関係$\cdot$チャンク(強いチャンク$\cdot$弱いチャンク)のアノテーション例 (b) 興味度のアノテーション例 図 1 アノテーションの例 質問応答 [5],機械翻訳 [6],評判分析 [7] などの下流タスクのアプリケーションで用いられる [8]. 談話構造解析のための代表的なデータセットとして, RST Discourse Treebank [9], Discourse Graphbank [10], Penn Discourse Treebank [11] がある. RST Discourse Treebank は, 修辞構造理論 (Rhetorical Structure Theory)[12] に基づいて構築されたデータセットである. 修辞構造理論では, Elementary Discourse Unit (EDU)と呼ばれる節を最小の談話単位として,隣接する EDU 同士を談話関係で結合し,より大きな談話単位を形成する. さらに,その談話単位同士も談話関係によって統合され, 最終的に修辞構造木が形成される. Discourse Graphbank は,グラフ構造を採用し,1つの談話単位から複数の談話単位に談話関係が付与されたデータセットである. Penn Discourse Treebank は,木構造やグラフ構造を仮定せず,談話単位間の関係を 2 項関係で表現したデータセットである。隣接する談話単位の間に接続表現が存在する場合は,その接続表現を手がかりとして談話関係を分類する。談話単位の間に接続表現が存在しない場合は,接続表現が挿入可能であるかを判断し,談話関係を分類する。これらは英語のニュース記事に基づいて作成された談話構造のデータセットであるが,英語以外にも, ドイツ語 [13],スペイン語 [14], ポルトガル語 [15], 中国語 [16] など様々な言語の談話構造のデータセットが構築されている. 6つの言語の対訳テキストに対して談話構造を付与したデータセットも構築されている [17]. 日本語の文書に対して談話構造をアノテー ションする研究も存在する $[18,19,20]$. 金子らは, BCCWJ [21] の文を分解して得られたセグメントに対して,分節談話表示理論 (Segmented Discourse Representation Theory)[22] に基づいて時間関係と因果関係をアノテーションした [18]. 河原らは,様々なドメインのウェブ文書の書き始め 3 文を対象にクラウドソーシングで談話関係のアノテーションを行う方法を提案し,大規模な文書への談話関係のアノテーションを短時間で行えることを示した [19]. さらに,岸本らは,河原らのアノテーション基準に言語テストを追加するなどの改良を加えることでアノテーションの品質が向上することを確認した [20]. 文書要約 $[23,24,25,26]$ のようなタスクへの応用を考えた場合,修辞構造木のような句構造よりも談話単位間の親子関係を直接表せる依存構造の方が望ましい。そこで,修辞構造木を談話依存構造木へ変換する方法が提案された $[23,27]$. 一方で,変換アルゴリズムによって生成される談話依存構造木の性質が異なることから [28], Yang らは,科学論文のアブストラクトに対して人手で EDU 間の依存構造と談話関係をアノテーションする方法を提案し,デー タセットとして SciDTB を構築した [29]. 本研究では,日本語のニュース記事に対して専門家が文単位の談話依存構造をアノテーションし,クラウドソーシングにより,ユーザのプロフィールおよびニュース記事の話題と文に対する興味度を収集することで,文章の一貫性を考慮しながらパーソナライズした情報を伝達する要約・対話システムの構築に活用できるデータセットを作成した. ## 3 談話構造データセット 15 文から 25 文の日本語のニュース記事 1200 個に対して,ウェブニュースのクリッピングの専門家 2 人が「係り先」「談話関係」「チャンク」のアノテー ションを行った. ジャンルの内訳は「スポーツ」「テクノロジー」「経済・政治」「国際」「社会」「地域」 であり,なるべく話題が重複しないように人手で各ジャンル 200 記事ずつ選択した. アノテーション作業は係り先,談話関係,チャンクの順番で行った.談話単位は文であり,文とは地の文に出現する句点 “。”で区切られる文字列を表す. 2 人のアノテータは, 半分ずつ作業を分担し, 自分の作業を終えた後は他方のアノテータのアノテーション結果のチェックにまわり,疑問点が見つかった場合は両者の合意が得られるまで議論を重ねた。 ## 3.1 係り先のアノテーション 文 $j$ を文 $i$ の係り先として指定できる条件は以下の通りである。 ・原文において文 $j$ が文 $i$ よりも前に出現している. -木構造に従ってルートノードから順番に読み進め,文 $j$ の後に文 $i$ を読んた際に,話の流れが自然である。 ・ルートノードから文 $j$ までの情報が文 $i$ を理解するための必要最小限の情報になっている. ・文 $i$ から読み始めることが可能である場合,文 $i$ の係り先はルートノードとする。 ## 3.2 談話関係のアノテーション 談話関係の定義を表 1 に示す. 談話関係の定義に際して, 日本語を対象とした先行研究の談話関係の分類 $[30,31,32,33]$ を参考にしつつ,ニュース対話システムへの応用を考えた際の必要十分な粒度であることおよび,実際にニュース記事から構築された談話依存構造木において頻繁に観測される文間関係であることに留意した. アノテーションの判断は,談話関係の定義と対話基準の両方の条件に合致しているかを確認しながら行った. 対話基準とは, 談話関係に基づく応答が自然かどうかに基づく判断であり,例えば「原因」について判断する際,親ノード文の内容を伝えた後に「なんで?」と質問が来たときに,子ノード文の内容を回答として提示しても不自然でないことを確認する。なお,1つの文間に対して複数の談話関係が付与されることもある.表 1 談話関係の定義(括弧内の説明は対話基準を表す) \\ ## 3.3 チャンクのアノテーション 親ノード文を提示する際,子ノード文も一緒に提示することが望まれる場合,これらをチャンクとする. 特に親ノード文の内容を理解するうえで必須となる情報が子ノード文に書かれている場合,これらを「強いチャンク」とする。例えば図 1 のような,親ノード文に発言,子ノード文に発言者の情報が書かれている場合や,複数文に渡る手順説明などは強いチャンクとなる.また,子ノード文の情報は必ずしも必須ではないが,親ノード文の内容に対する偏った理解を防ぐために子ノード文の情報が重要である場合,これらを「弱いチャンク」とする。例えば図 1 のような, 現状求められているものが親ノー ド文で述べられており,その実現が容易でないことを子ノード文で説明している場合や,主題に関わる 2 つの国の情勢について,一方の説明が親ノード文に書かれており,他方の説明が子ノード文に書かれている場合などは弱いチャンクとなる。 ## 3.4 データセットの統計 記事ごとのルートノードから葉ノードまでの文数の最大值(木の深さ)の分布を図 2 に示す. 1 記事 図 2 木の深さの分布 図 3 木の幅の分布 あたり木の深さは平均で 6.5 文程度であった. 記事ごとの葉ノードの数 (木の幅) の分布を図 3 に示す. 1 記事あたり木の幅は平均で 7.5 文程度であった. データセットにおける談話関係の出現頻度は,「開始」が 1221 個,「結果」が 400 個,「原因」が 691 個,「背景」が 1343 個,「呼応」が 851 個,「対比」が 638 個,「転換」が 220 個,「例示」が 709 個,「結論」 が 920 個,「補足」が 14609 個であった. 強いチャンクの数は 231 個,弱いチャンクの数は 699 個であった. また,1 チャンクあたりの平均文数は 2.15 文であった. ## 4 興味度データセット クラウドソーシングを用いて被験者を募集し,以下のプロフィールアンケートと興味度アンケートに回答させた。ニュース記事には談話構造データセットで使用したものと共通の 1200 記事を使用した. 1 人あたり 6 ジャンル 1 記事ずつ, 1 記事あたり 11 人以上が回答するように配分し,2507 人分のアンケー 卜結果を収集した。 ## 4.1 プロフィールアンケート 以下の 14 項目について回答させた. 性別,年齢,住んでいる地域,職種,業種,ニュースを見る頻度, ニュースをよくチェックする時間帯,映像・音声文字のうちニュースへの接触方法として多いものはどれか,ニュースを知る手段,ニュースを読む際に使用している新聞やウェブサイト・アプリ,有料でニュースを読んでいるか,普段積極的に読む・見る・聞くニュースのジャンル,ニュースのジャンルに対する興味の程度,趣味。 ## 4.2 興味度アンケート ニュース記事の本文を読ませ,内容を理解させた後, 記事全体の話題と各文の内容について興味度を次の 6 段階で回答させた.6:とても興味がある,5: (a)記事の話題に対する興味度の割合 (b)文の内容に対する興味度の割合 図 4 アンケートで得られた興味度の割合 図 5 談話依存構造木の深さと興味度の平均值 興味がある,4:どちらかといえば興味がある,3:どちらかといえば興味がない,2:興味がない,1:まったく興味がない。 ## 4.3 データセットの統計 合計で 15042 記事 268509 文に対する回答を得た.記事の話題に対する興味度の割合および文の内容に対する興味度の割合を図 4 に示す. 談話依存構造木の深さごとに文の興味度の平均値を計算した結果を図 5 に示す.この結果から,多くの人の興味を引く内容は木の浅いところにあり,人によって興味が分かれる内容は木の深いところにあることが分かった. ## 5 おわりに ニュース記事に対して談話構造および,ユーザのプロフィールと記事の話題・文に対するユーザの興味度を付与したデータセットを構築した。 今後は,本データセットを用いて,談話構造解析 [34] や,談話構造を制約とした抽出型要約のパーソナライズ [35],談話関係に基づく質問応答や対話制御などについて検討する。 謝辞本研究は,JST START(JPMJST1912)の支援を受けたものである。 ## 参考文献 [1]博報堂 D Y メディアパートナーズ(編). 広告ビジネスに関わる人のメディアガイド 2020 : メディア環境のこれからと今. 宣伝会議, pp. 20-40, 2020. [2]高津弘明, 福岡維新, 藤江真也, 林良彦, 小林哲則. 意図性の異なる多様な情報行動を可能とする音声対話システム. 人工知能学会論文誌, Vol. 33, No. 1, pp. 1-24, 2018. [3]Hiroaki Takatsu, Mayu Okuda, Yoichi Matsuyama, Hiroshi Honda, Shinya Fujie, and Tetsunori Kobayashi. Personalized extractive summarization for a news dialogue system. In Proceedings of the 8th IEEE Spoken Language Technology Workshop, 2021. [4]Jiacheng $\mathrm{Xu}$, Zhe Gan, Yu Cheng, and Jingjing Liu. Discourse-aware neural extractive text summarization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5021-5031, 2020. [5]Peter Jansen, Mihai Surdeanu, and Peter Clark. Discourse complements lexical semantics for non-factoid answer reranking. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, pp. 977-986, 2014. [6]Junxuan Chen, Xiang Li, Jiarui Zhang, Chulun Zhou, Jianwei Cui, Bin Wang, and Jinsong Su. Modeling discourse structure for document-level neural machine translation. In Proceedings of the 1st Workshop on Automatic Simultaneous Translation, pp. 30-36, 2020. [7]Baptiste Chardon, Farah Benamara, Yannick Mathieu, Vladimir Popescu, and Nicholas Asher. Measuring the effect of discourse structure on sentiment analysis. In Proceedings of the 14th international conference on Computational Linguistics and Intelligent Text Processing, pp. 25-37, 2013. [8]Shafiq Joty, Giuseppe Carenini, Raymond T. Ng, and Gabriel Murray. Discourse analysis and its applications. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: Tutorial Abstracts, pp. 12-17, [9]Lynn Carlson, Daniel Marcu, and Mary Ellen Okurovsky. Building a discourse-tagged corpus in the framework of rhetorical structure theory. In Proceedings of the 2nd SIGdial Workshop on Discourse and Dialogue, pp. 1-10, 2001. [10]Florian Wolf and Edward Gibson. Representing discourse coherence: A corpus-based study. Computational Linguistics, Vol. 31, No. 2, pp. 249-287, 2005. [11]Rashmi Prasad, Nikhil Dinesh, Alan Lee, Eleni Miltsakaki, Livio Robaldo, Aravind Joshi, and Bonnie Webber. The penn discourse treebank 2.0. In Proceedings of the 6th International Conference on Language Resources and Evaluation, pp. 2961-2968, 2008. [12]William C. Mann and Sandra A. Thompson. Rethorical structure theory: Toward a functional theory of text organization. Text, Vol. 8, No. 3, pp. 243-281, 1988. [13]Manfred Stede. The potsdam commentary corpus. In Proceedings of the Workshop on Discourse Annotation, pp. 96102, 2004. [14]Iria da Cunha, Juan-Manuel Torres-Moreno, and Gerardo Sierra. On the development of the RST Spanish treebank. In Proceedings of the 5th Linguistic Annotation Workshop, pp. $1-10,2011$. [15]Thiago Alexandre Salgueiro Pardo, Maria das Graças Volpe Nunes, and Lucia Helena Machado Rino. DiZer: An automatic discourse analyzer for Brazilian Portuguese. In Proceedings of the Brazilian Symposium on Artificial Intelligence, pp. 224-234, 2004. [16]Lanjun Zhou, Binyang Li, Zhongyu Wei, and Kam-Fai Wong. The CUHK discourse treebank for Chinese: Annotating explicit discourse connectives for the Chinese treebank. In Proceedings of the 9th International Conference on Language Resources and Evaluation, pp. 942-949, 2014. [17]Deniz Zeyrek, Amalia Mendes, Yulia Grishina, Murathan Kurfali, Samuel Gibbon, and Maciej Ogrodniczuk. TED multilingual discourse bank (TED-MDB): A parallel corpus annotated in the PDTB style. Language Resources and Evaluation, Vol. 54, pp. 587-613, 2020. [18]Kimi Kaneko and Daisuke Bekki. Building a Japanese cor- pus of temporal-causal-discourse structures based on SDRT for extracting causal relations. In Proceedings of the EACL 2014 Workshop on Computational Approaches to Causality in Language, pp. 33-39, 2014. [19]Daisuke Kawahara, Yuichiro Machida, Tomohide Shibata, Sadao Kurohashi, Hayato Kobayashi, and Manabu Sassano. Rapid development of a corpus with discourse annotations using two-stage crowdsourcing. In Proceedings of the 25th International Conference on Computational Linguistics, pp. 269-278, 2014. [20]Yudai Kishimoto, Shinnosuke Sawada, Yugo Murawaki, Daisuke Kawahara, and Sadao Kurohashi. Improving crowdsourcing-based annotation of Japanese discourse relations. In Proceedings of the 11th International Conference on Language Resources and Evaluation, pp. 4044-4048, 2018. [21]Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary written Japanese. Language Resources and Evaluation, Vol. 48, No. 2, pp. 345-371, 2014. [22]Nicholas Asher and Alex Lascarides. Logics of conversation: Studies in natural language processing. Cambridge University Press, 2003. [23]Tsutomu Hirao, Yasuhisa Yoshida, Masaaki Nishino, Norihito Yasuda, and Masaaki Nagata. Single-document summarization as a tree knapsack problem. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1515-1520, 2013. [24]Yasuhisa Yoshida, Jun Suzuki, Tsutomu Hirao, and Masaaki Nagata. Dependency-based discourse parser for singledocument summarization. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp. 1834-1839, 2014 [25]Yuta Kikuchi, Tsutomu Hirao, Hiroya Takamura, Manabu Okumura, and Masaaki Nagata. Single document summarization based on nested tree structure. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, pp. 315-320, 2014 [26]Tsutomu Hirao, Masaaki Nishino, Yasuhisa Yoshida, Jun Suzuki, Norihito Yasuda, and Masaaki Nagata. Summarizing a document by trimming the discourse tree. IEEE/ACM Transactions on Audio, Speech and Language Processing, Vol. 23, No. 11, pp. 2081-2092, 2015. [27]Sujian Li, Liang Wang, Ziqiang Cao, and Wenjie Li. Textlevel discourse dependency parsing. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, pp. 25-35, 2014. [28]Katsuhiko Hayashi, Tsutomu Hirao, and Masaaki Nagata. Empirical comparison of dependency conversions for RST discourse trees. In Proceedings of the 17th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 128-136, 2016. [29]An Yang and Sujian Li. SciDTB: Discourse dependency treebank for scientific abstracts. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, pp. 444-449, 2018 [30]黒橋禎夫, 長尾眞. 表層表現中の情報に基づく文章構造の自動抽出. 自然言語処理, Vol. 1, No. 1, pp. 3-20, 1994. [31]梅澤俊之, 原田実. センタリング理論と対象知識に基づく談話構造解析システム DIA. 自然言語処理, Vol. 18, No. 1, pp. 31-56, 2011. [32]山本和英, 齋藤真実. 用例利用型による文間接続関係の同定. 自然言語処理, Vol. 15, No. 3, pp. 21-51, 2008. [33]横山憲司, 難波英嗣, 奥村学. Support Vector Machine を用いた談話構造解析. 情報処理学会研究報告, Vol. 2003, No. 23(2002-NL-154), pp. 193-200, 2003. [34]高津弘明, 安藤涼太, 松山洋一, 小林哲則. 会話によるニュース記事伝達のための談話構造解析. 言語処理学会第 27 回年次大会発表論文集, 2021 . [35]高津弘明, 安藤涼太, 本田裕, 松山洋一, 小林哲則. 談話構造制約付きパーソナライズド抽出型要約. 言語処理学会第 27 回年次大会発表論文集, 2021.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-20.pdf
# Winograd Schema Challenge への ニューラル言語モデルの適用における人名の影響 米川和仁 松崎拓也 東京理科大学大学院 理学研究科 応用数学専攻 1419523@ed.tus.ac.jp matuzaki@rs.tus.ac.jp ## 1 はじめに 機械学習モデルが獲得した常識的知識を評価するタスクの一つとして,Winograd Schema Challenge (以降,WSC) [7] というものが構想された. WSC における問題文の例を以下に示す. When Debbie splashed Tina, she got wet. この例に対して,回答者は先行詞候補 Debbie と Tina から代名詞 she に対応する先行詞を特定することを求められる。適切に解くためには「水をかけられたら濡れる」といった常識的な知識が必要となる. しかし,このような知識は明文化されにくい. そのため, 単語の共起などの単純な統計的手法では WSC に対して十分な精度を得ることが難しいとされている. 一方で,近年の研究では BERT [3] などのニュー ラル言語モデルによるWSC に対する大幅な精度向上が報告されている $[5,10,12]$.このことから, ニューラル言語モデルが常識的な知識を獲得しつつあるのではないかと考えられる.BERT 等に基づく手法の訓練は,大量の教師無しデータによる pre-training と比較的少量の教師付きデータによる fine-tuning の 2 つの段階から成る.この学習方法は従来の手法と大きく異なる特徴の一つであり,大幅な精度向上の理由の一つと考えられている。しかしながら,各段階においてデータセットからどの様な知識が抽出されているかは明らかでない。 本研究では,WSCへのニューラル言語モデルの適用において,先行詞候補である人名がモデルの予測に与える影響を分析した. 結果として,人名の組み合わせの変化がモデルの予測に大きく影響する問題の存在が確認できた. また,確認された人名の影響が fine-tuning に使用したデータセットにおいて先行詞候補として出現する人名の偏りによるものではないことがわかった. ## 2 関連研究 機械学習手法を用いて WSC を解くために,多くの常識的知識をどの様に素性として表現するかが議論されてきた. Rahman ら [9] は素性として,「A といった事態間知識を機械的に収集したものを用いている。他にも,彼らは接続詞や単語の極性, FrameNetなどを素性として利用している. 人手による素性抽出の取り組みに対して,ニュー ラル言語モデルによる WSCへのアプローチが盛んになりつつある。Kocijan ら [5] は BERTを用いた手法を提案している。彼らの手法は, [MASK] トークンに置き換えられた代名詞の部分に先行詞候補のどちらが当てはまるのかをモデルに学習させるというものである.この手法によって,WSC に対する機械学習手法の精度はニューラル言語モデルを用いない手法に比べ 8.8 ポイントも向上した. この様な精度向上への取り組みの一方で,モデルが本当に常識的知識を基に WSC を解いているのかという議論が注目されている. Abdou ら [1] は,先行詞の性別の変更や同義語への置換などの言語的摄動に対してモデルによる予測が大きく変化することを示している。また,同様の摂動に対して人間の回答が安定していることを確認している.以上の結果から,彼らはモデルが論理的根拠を背景とした回答を常にしているわけではないと主張している. ## 3 準備 本節では,本研究で用いたデータセットや手法の詳細について述べる。 ## 3.1 Winogrande 近年の研究では,オリジナルの WSC データセットの一部は統計的手法でも解くことが可能であるこ とが報告されている [13].また,データセットには 273 件の問題しか含まれておらず,訓練及び評価データをどのように分割すべきかという問題も議論されてきた. 本研究では,WSC データセットの一つである Winograndeを訓練及び評価データとして用いた. Winogrande は,上で述べたオリジナルの WSC デー タセットの弱点を改良したデータセットとされている [11]. 本論文でのニューラル言語モデルに対する Winogrande の入力例を表 1 に示す. モデルへの入力文は代名詞(_)を先行詞候補(太字)で穴埋めしたものであり, 各問題に対して2つ用意される. この 2 つの文を同一のモデルへと入力し, $[$ CLS] ベクトルと分類のためのパラメータベクトルとの内積が大きい方の文を回答として選択する. Winogrande に対するニューラル言語モデルの精度を表 2 に示す. 表中の RoBERTa-large(人名)は後述する先行詞候補がいずれも人名である問題に対する精度である. ## 3.2 影響関数 あるテストサンプルの予測に特定の学習サンプルが与える影響を定量的に解析する場合,学習サンプルを 1つずつ除いたデータでモデルを再学習させるという方法が考えられる. この手法は単純である一方で,解析にかかる時間とコストが膨大になるという問題がある.影響関数 [6] は,この問題を解決し効率的に各訓練データの影響を測ることを可能にする手法である.まず,以下の式で訓練データ $\left.\{\left(x_{1}, y_{1}\right), \ldots,\left(x_{n}, y_{n}\right)\right.\}$ から学習サンプル $\left(x_{i}, y_{i}\right)$ を取り除いた場合のモデルのパラメータ $\theta$ の変化 $\theta_{\text {change }}$ を求める。 $ \theta_{\text {change }}=-\left(\frac{1}{n} \sum_{j=1}^{n} \nabla_{\theta}^{2} L\left(x_{j}, y_{j}, \hat{\theta}\right)\right)^{-1} \nabla_{\theta} L\left(x_{i}, y_{i}, \hat{\theta}\right) $ ここで, $L$ は学習に用いた損失関数, $\hat{\theta}$ は学習済みのモデルのパラメータを示す. 次に,連鎖律を適用しテストサンプル $\left(x_{\text {test }}, y_{\text {test }}\right)$ に対する損失の変化 $L_{\text {change }}$ を以下の式で求める. $ L_{\text {change }}=\nabla_{\theta} L\left(x_{\text {test }}, y_{\text {test }}, \hat{\theta}\right)^{\top} \theta_{\text {change }} $ この $L_{\text {change }}$ を基に,あるテストサンプルの予測に学習サンプルが与える影響を定量的に評価できる。 Han ら [4] は,この手法が BERT の fine-tuning で用いられるデータセットの分析方法として有効であると示している. ## 4 手法 本研究は, 先行詞候補がいずれも人名である問題を対象として,人名に対する摂動によるモデルの挙動の変化を調べる. 具体的な摂動の手法は,表 1 に示すように先行詞候補を異なる人名で置き換えるというものである.摂動に用いる人名及び対象となる問題は CoreNLP [2] の Stanford NER (3 class)を用いて抽出した. Winogrande の訓練データ全体に対し検出された 63 個の人名を組み合わせて, 問題当たりに 3,905 件の摂動例を生成した. また,抽出された問題に対する RoBERTa [8] の精度を表 2 に示す. ## 5 実験 本節では,前節で述べた摂動がニューラル言語モデルに与える影響について分析を行う。まず,摂動による予測値の変化の有無について確認する. 次に, 予測値の変化と問題文中の文法誤りなどノイズ的要素の関係について述べる. 最後に, fine-tuning で用いた訓練データが摂動による予測値の変化の原因となっているのかについて分析を行う. ## 5.1 実験設定 Winogrande に対して最も精度が良い RoBERTaを摄動実験の対象とする. 摂動は評価データのみに与え,38,000 件の訓練データで fine-tuning されたモデルの, 評価データに対する予測スコアの変化を観察した. 本研究における予測スコアとは,代名詞を正しい先行詞候補で置き換えた問題文に対する出力値のことである. ## 5.2 摂動の影響 まず,各問題における摂動の影響の度合いを測る. 影響の度合いを示す score $_{\text {diff }}$ は,原文における予測スコア score と各摄動例における予測スコア ${ }^{\text {score }}{ }_{i}$ の差分の平均として計算する: $ \text { score }_{\text {diff }}=\frac{1}{N} \sum_{i=1}^{N}\left(\text { score }_{i}{ }_{i}-\text { score }\right) $ ## ここで $N$ は摄動例の件数である. 摂動による予測スコアの変化の分布を図 1 に示す. 図 1 の 0 付近のビンから,1684 件中 1400 件ほどのテストデータで score $_{\text {diff }}$ の絶対値が 0.1 未満であることがわかる.このことから,RoBERTaは人名に関する単純な摂動の影響に対して頑健であると考えられる。一方で,200 件ほどの問題で摄動の影響 表 2 Winogrande に対する各モデルの正解率 図 1 摄動による予測スコアの変化の分布 が観測された. ## 5.3 摂動とノイズの関係 評価データにおける問題文と摂動の影響の例を表 3 に示す. 摄動の影響を大きく受けた問題について見てみると文法的もしくは意味的な誤りなどのノイズが含まれた文が見られた. 例えば,番号 1 の問題では文中の they という代名詞が指し示す対象が不明瞭である. また,番号 6 の問題のように代名詞の直前に冠詞がついているものも確認された. その一方で,ノイズがあるにも関わらず摂動の影響を受けていない問題も多く見られた. 例えば,番号 3 の問題では trilingual な人物を選択する必要があるが,先行詞候補はどちらも trilingual では無い.このようなノイズがあるにも関わらず,番号 3 の問題の score $_{\text {diff }}$ は $1.31 \times 10^{-4}$ と非常に小さい. したがって,ノイズと摂動の影響の間に強い関係があると考えるのは難しい. 図 2 人名の組み合わせによる予測スコアの分布.縦軸が正解,横軸が誤りの先行詞候補を表す。 ## 5.4 摂動と人名の関係 特定の人名に対して予測スコアの偏りがあるのか,すなわち特定の人名に対して大きな/小さなスコアが付与される傾向の有無を検証する.図 2 に,表 3 の番号 2 の問題に対する各摂動についての予測スコアの分布 (一部) を示す. 先行詞候補の組み合わせによって,予測スコアが大幅に変化していることがわかる.また,この図で見られるような縦及び横方向にのびる縞模様が多くの問題で確認された. 例えば,Joseph や Christopher という人名が正解となる摂動例はもう一方の人名とのどの組み合わせでもほぼ一貫して高い予測スコアを示している。このことから,モデルの予測と人名の間に強い関係が存在する場合があると考えられる。 ## 5.5 訓練データの影響 摂動例において,特定の人名に対する予測スコアが高くなる例が見られた。このことから,訓練デー タにおいて正解になりやすい人名がテストデータで選択されやすくなっていることが予想される。本項ではこれを検証する.各摂動例に対して,影響が 表 3 摂動の影響の例 図 3 訓練データにおいて正解となる先行詞候補の出現頻度. 縦軸が摄動例(正解-誤り),横軸が訓練データにおける正解の先行詞候補を示す. 大きい訓練データの上位 3000 件を,影響関数の值に基づき抽出した. 各摄動例に対し抽出された訓練データ中での,正解となる人名の出現頻度を図 3 に示す. 図は表 3 における番号 2 の問題に対する結果の一部である。各行は一つの摄動例を表し,図に示した 13 の摄動例は全ての摄動例からランダムサンプリングしたものである.また,各列は訓練デー タにおける正解の先行詞候補を表し,訓練データに含まれる全ての先行詞候補から図に示した 13 個の摄動例に用いた人名のみ抽出している. 図 3 から, Christine や Leslieの様にどの摂動例に対しても,影響が大きい訓練データに正解として現れる数がほとんど変化しない人名が多く見られる。一方で, Matthew や Samuel の様に出現頻度が大きく変化している列も確認できる。この様な列で確認された偏りの例として, Matthew という先行詞候補の出現頻度が (Dennis-Kyle) の組み合わせに対して高くなるというものがあげられる。このような例は他にもいくつ か確認できたが,摄動に用いられた人名と同一のものが,摂動例に対し大きな影響を持つ訓練データの中で特に多い/少ないという例は確認できなかった.以上のことから,前節で確認された特定の人名に対する予測スコアの偏りは Winogrande の訓練データに起因するものではないと考えられる。 ## 6 おわりに 本研究では,人名の変更という摄動によってモデルの挙動がどう変化するかを分析した。結果として,特定の人名に対して極端な予測を行う問題の存在を示した. しかし,確認された人名への偏りが fine-tuning に用いられたデータセットによるものではないことを確認した。よって,この偏りは pre-training に用いられたデータに起因すると予想される. 今後の課題としては,今回確認された偏りが pre-trainig に用いられたデータセットのどの部分によるものかについての分析が挙げられる. ## 参考文献 [1] Mostafa Abdou, Vinit Ravishankar, Maria Barrett, Yonatan Belinkov, Desmond Elliott and Anders Søgaard. The Sensitivity of Language Models and Humans to Winograd Schema Perturbations. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. 2020 [2] Manning, Christopher D., Mihai Surdeanu, John Bauer, Jenny Finkel, Steven J. Bethard, and David McClosky. The Stanford CoreNLP Natural Language Processing Toolkit In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics: System Demonstrations. 2014. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers). 2019. [4] Xiaochuang Han, Byron C. Wallace, and Yulia Tsvetkov. Explaining Black Box Predictions and Unveiling Data Artifacts through Influence Functions. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. 2020. [5] Vid Kocijan, Ana-Maria Cretu, Oana-Maria Camburu, Yordan Yordanov and Thomas Lukasiewicz. A Surprisingly Robust Trick for the Winograd Schema Challenge. Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. 2019. [6] Pang Wei Koh and Percy Liang. Understanding black-box predictions via influence functions. Proceedings of the 34th International Conference on Machine Learning. 2017. [7] Hector Levesque, Ernest Davis, and Leora Morgenstern. The winograd schema challenge. In Thirteenth International Conference on the Principles of Knowledge Representation and Reasoning. 2012. [8] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692. 2019. [9] Altaf Rahman and Vincent Ng. Resolving complex cases of definite pronouns: The winograd schema challenge. In Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning. 2012. [10] Yu-Ping Ruan, Xiaodan Zhu, Zhen-Hua Ling, Zhan Shi, Quan Liu, and Si Wei. Exploring Unsupervised Pretraining and Sentence Structure Modelling for Winograd Schema Challenge. arXiv:1904.09705. 2019 [11] Keisuke Sakaguchi, Ronan Le Bras, Chandra Bhagavatula, and Yejin Choi. Winogrande: An adversarial winograd schema challenge at scale. Proceedings of the AAAI Conference on Artificial Intelligence. 2019. [12] Maarten Sap, Hannah Rashkin, Derek Chen, Ronan Le Bras, and Yejin Choi. Social IQa: Commonsense Rea- soning about Social Interactions. Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP). 2019. [13] Paul Trichelair, Ali Emami, Adam Trischler, Kaheer Suleman, and Jackie Chi Kit Cheung. How Reasonable are Common-Sense Reasoning Tasks: A Case-Study on the Winograd Schema Challenge and SWAG. Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP). 2019
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-2.pdf
# 対話型検索に向けた Semantic Parsing の データ生成フレームワークの提案 丸山拓海椎橋怜史谷山徹神谷慶嶋村昌義 株式会社 LIFULL \{MaruyamaTakumi, ShiibashiSatoshi, TaniyamaToru, KamiyaKei, ShimamuraMasayoshi\}@lifull.com ## 1 はじめに 弊社では「LIFULL HOME'S 住まいの窓口 ${ }^{11} 」 と$ いう,家探しや家づくりに関することを専属アドバイザに無料で相談出来るサービスを運営している.本サービスは実際の店舗だけでなく, ビデオ通話や LINE 経由の相談密口も用意されており,アドバイザとの対話を経て,より好みに合った物件探しをすることができる。一般的に,対話業務を効率化するために自動応答チャットボットが活用される傾向があるため,今回我々は対話業務の自動化を想定し,住まい探しに関するユーザ発話の言語解析を試みた. 具体的には, ユーザ発話を適切な論理形式へと変換する Semantic Parsing とそのデータ構築に取り組んだ。 Semantic Parsing とは, 自然言語文を特定のアプリケーションのための論理形式へと変換するタスクである.ここでいう論理形式とは, ラムダ式 [1] や $\mathrm{SQL}$ 文 $[2,3,4]$, プログラミング言語 [5] などの形式を指す.また, 独自定義のツリ一構造 $[6,7]$ を利用している研究も存在する。自然言語をこのような特定の形式に変換することで, ユーザ発話を入力とした情報検索や AI アシスタントの制御が可能となる.しかしながら, 論理形式をアノテーションするには一定レベルの専門知識が必要とされるため, データセットの構築は容易ではない. そこで,我々は Wang ら [8] の英語を対象としたデータ構築手法を参考に, 日本語に合わせた文法規則の定義と対話文脈への拡張を行い, 論理形式アノテーションを言い換え作業に変換する新たなデータ構築フレームワークの作成を試みた。本論文の貢献を以下に示す. ・日本語 Semantic Parsing データセットを効率的  に開発するフレームワークの提案 - 対話履歴を利用した実験により,提案手法で構築したデータの効果を検証 ## 2 関連研究 Semantic Parsing は知識データベースに対する質問応答や AIアシスタントの自然言語による制御など幅広い分野への応用が期待されるタスクである. Semantic Parsing を行う方法として, 組合せ範疇文法に基づく手法 $[1,9]$ や, 質問応答ペアから学習する方法 [10] など様々な手法が提案されている. 近年では, 深層学習をベースとした系列変換モデルによる手法も数多く提案されている $[11,12,13,14]$. その一方で, データセットの構築に専門的知識が必要とされることから,コストが非常に高く,新規ドメインへの適用の難しさが課題となっている. そこで, Wang ら [8] は, ドメインに依存しない文法規則とドメイン固有の語彙規則の組み合わせから擬似的な「自然言語文-論理形式ペア」を生成したのち,自然言語文側を人手で言い換えることで,より流暢かつ多様性のあるデータ構築を目指した。 ## 3 データ生成手法 本論文で提案するデータ生成手法の手順を図 1 に示す. 大まかな流れは次の通りである: (1) ドメイン固有の語彙規則 (3.2 節)を定義したのち, それらを (2) 文法規則 (3.3 節)によって組み合わせることで擬似的な文と論理形式のぺアを生成する。その後,(3)擬似生成文を人手で言い換えることで,(4) 言い換え文と論理形式のペアを獲得する (3.4 節). このように,擬似生成文を経由することで,専門的知識が必要とされる論理形式のアノテーション作業が言い換え作業に置き換わり,より容易にデータ構築することが可能となる。ポイントは擬似データ生成部 ## 言い換え-論理形式のペア 図 1 擬似データ生成フロー 分である.このステップでは, 対象となるドメインごとに構築する語彙規則を,フレームワーク側で提供するドメイン非依存の文法規則により適切に組み合わせ, 自然言語文と Lambda-DCS(3.1 節) と呼ばれる論理形式のペアを生成する. 詳細は, 3.2 節および 3.3 節で述べる. ## 3.1 Lambda-DCS Lambda-DCS[15] とは, Semanitc Parsing における知識グラフを背景とした論理形式の 1 つである.具体的には, 名詞や数值表現 (e.g. Apartment, 1LDK) などをノードとし, その関係性 (e.g. floorPlan) をエッジとするグラフで表現される。このグラフ上のノードを辿っていくことで, 任意の検索対象を 現する場合, Lambda-DCS では, floorPlan.1LDK のように記述する.このように,ノード (1LDK) とエッ表 1 語彙規則の例 住まい探しドメイン (1)賃貸アパート $\rightarrow$ TYPENP[Apartment] (2) 1LDK $\rightarrow$ NUM[1LDK] (3) 間取り $\rightarrow \mathrm{NP} / \mathrm{ga}[$ floorPlan] (4) 賃料 $\rightarrow \mathrm{NP} / \mathrm{ga}[$ rent] (5) ペット入居可 $\rightarrow$ NP/no[pet_friendly] 表 2 文法規則の例文法規則:基本 $\begin{array}{ll}\text { (1) } \mathrm{NP} / \mathrm{no}[r] \text { の TYPENP }[x] & \rightarrow \mathrm{NP}[\text { type } . x \wedge r] \\ \text { (2) } \mathrm{NP} / \mathrm{ga}[r] \text { が } \mathrm{NUM}[n] & \rightarrow \mathrm{NP} / \mathrm{no}[r . n] \\ \text { (3) } \mathrm{AP}[r] \mathrm{NP}[x] & \rightarrow \mathrm{NP}[x \wedge r] \\ \text { (4) } \mathrm{NP} / \mathrm{no}[r] \text { ではない } & \rightarrow \mathrm{AP}[\neg(r)] \\ \text { (5) } \mathrm{NP}[\mathrm{x}] \text { か } \mathrm{NP}[\mathrm{y}] & \rightarrow \mathrm{NP}[(x \vee y)]\end{array}$ 文法規則:比較級 - 最上級 (6) $\mathrm{NP} / \mathrm{ga}[r]$ が $\mathrm{NUM}[n]$ 以上 $\rightarrow \mathrm{NP} / \mathrm{no}[r . \geq . n]$ (7) $\mathrm{NP} / \mathrm{ga}[r]$ が $\mathrm{NUM}[n]$ 以下 $\rightarrow \mathrm{NP} / \mathrm{no}[r . \leq . n]$ (8) $\mathrm{NP}[x]$ で最も $\mathrm{AP}[r] \rightarrow \mathrm{NP}[\operatorname{argmax}(r, x)]$ 文法規則:合計・平均 (9) $\mathrm{NP}[x]$ の $\mathrm{NP} / \mathrm{ga}[r]$ の合計 $\rightarrow \mathrm{NP}[\operatorname{sum}(r, x)]$ (10) $\mathrm{NP}[x]$ の $\mathrm{NP} / \mathrm{ga}[r]$ の平均 $\rightarrow \mathrm{NP}[\operatorname{avg}(r, x)]$文法規則:条件追加 - 削除 - 置換 (11) $\mathrm{NP}[x]$ を追加 $\rightarrow \mathrm{NP}[\operatorname{append}(x)]$ (12) $\mathrm{NP}[x]$ を削除 $\rightarrow \mathrm{NP}[\operatorname{delete}(x)]$ (13) $\mathrm{NP}[\mathrm{x}]$ を $\mathrm{NP}[\mathrm{y}]$ に置換 $\rightarrow \mathrm{NP}[\operatorname{replace}(x, y)]$ ジ (floorPlan) を結合する際に “.”を用いて表現する. また, 論理積 $\wedge$ や論理和 $\vee$, 否定論理っを利用し,条件を組み合わせていくことで更に複雑な表現を実現する。より詳細には Liang の文献 [15] を参照されたい. ## 3.2 語彙規則 語彙規則では, 3.1 節で述べたグラフのノードとエッジに,対応する自然言語と論理形式を定義する. 具体的には, 「自然言語 $\rightarrow$ 文法ラベル [論理形式」のような形式を用いて定義する。ここで「住まい探し」ドメインを例に考えると (表 1), ノードとして (1) 賃貸アパートや (2)1LDK, エッジとして (3)間取りや (4) 賃料などが考えられる. これらを, 文法ラベル (e.g. TYPENP, NUM, NP/no) と文法規則を用いて適切に組み合わせることで,擬似データを生成する. ## 3.3 文法規則 文法規則では,文法ラベルの組み合わせによる変換規則を記述する (表 2). 生成する自然言語は日本 ## 文法ラベル(ブロックの色)に応じて 適切に組み合わせると... 図 2 擬似データ生成例 語を対象としているため, Wang ら [8] の規則とは大きく異なる規則を作成した。ただし, Wang らの規則と同様に比較級や最上級, 平均などの基本的な表現は網羅している. 近年の Semantic Parsing では, 対話履歴に基づいて論理形式をアノテーションしたデータセット [16] や対話履歴を入力として扱うモデル [13] が提案されているが,今回は問題を簡略化するため 1 発話単位での解析に焦点を当てている. そのうえで, 前後の対話文脈の内容に対して, 条件の追加や修正ができるように, 表 2 の (11),(12),(13)のような追加・削除・置換の規則を加えている。 これらの文法規則と語彙規則で定義した文法ラベルに基づいて, 語句と論理形式を適切に組み合わせることで擬似的な自然言語文と論理形式のペアを生成する. 例えば, 語彙規則 (表 1) の (1),(2),(3)と文法規則 (表 2) の (1), (2)を文法ラベルに従って適切に組み合わせると, 図 2 に示すように, “NP[NP/no[NP/ga[間取り] が NUM[1LDK]] の TYPENP[賃貸アパート]] $\rightarrow$ type.Apartment $\wedge$ floorPlan.1LDK”というペアが得られる. しかし,文法ラベルだけでは不自然な組み合わせが生成される恐れがある. 例えば語彙規則 (表 1) の (2), (4) と文法規則 (表 2) の(2)の組み合わせから, “NP/ga[賃料] が NUM[1LDK] $\rightarrow$ rent.1LDK”など表 3 生成データ例 擬似生成書斎が付いている築年数が古いという条件を追加 言い換え書斎が必要です. 築年数は古くても構いません. 論理形式 append( ageOfHouse.Old $\wedge$ has_study) 擬似生成既にリフォーム・リノベーション されている賃貸戸建ての中で最も賃料が安いもの 言い換えリノベーション済みの賃貸戸建ての中で一番安いところだとどんな感じですか? 論理形式 $\operatorname{argmax}($ rent.Cheap, type.RentalHouse $\wedge$ is_renovated) が生成されてしまう。そこで,語彙規則を定義する際には,それぞれに意味的な型を持たせて,その型制約により不自然な組み合わせの生成を抑制する。例えば,次のような生成途中の状態を考える: “NP/ga[間取り] が $\mathrm{NUM}[x] \rightarrow$ floorPlan. $x$ ”. ここで,既に “floorPlan” が確定していることから, $x$ の值を決定する際には間取りを表す具体的な数值のみ e.g.) ワンルーム, 1K, 1LDK, 2K, ... しか受け付けないといった制約を与える. ## 3.4 擬似生成文の言い換え 獲得した擬似生成文と論理形式のペアのうち,擬似生成文側を人手で言い換えることで,より流暢かつ多様性のあるデータの構築を目指す。言い換え作業は, 本論文の著者 5 人で行った。構築したデー タ例を表 3 に示す。 また, 5 人の間で, 共通 20 文の言い換え作業を行い,作業者間の言い換えにおける類似性を BLEU によって評価した (図 3). その結果, BLEU:0.1〜0.5 辺りに集中していることから,言い換え元 (擬似生成文) が共通していても作業者によって表現が異なり, 多様な言い換え表現を得られていることが分かった。 ## 4 実験 提案手法により生成したデータを Transformer[17] に学習させ, 実際に自然言語文から論理形式への変換することで, データ生成手法の効果を検証する.評価には,擬似生成文の言い換えによって得られた評価セット 125 ペアおよび住まいの密口の対話履歴を参考に構築した評価セット 173 ペアの 2 つを利用した。学習には言い換えデータ 1,229 ペアと, 表 4 実験結果 図 3 作業者間の言い換えの類似性 事前学習用に擬似生成データ 50,496 ペアを用いた。 また, Encoderに学習済み $B E R T^{2}$ を利用し [18], 事前学習の効果を比較した. Transformer $の$ Encoder および Decoder の各パラメータは BERT[19] を参考にした. ## 4.1 実験結果 実験では学習方法および学習データの異なる次の 4 つの手法を比較した: (a) 言い換え文一論理形式ぺアのみを学習データとしたモデル,(b) 擬似生成文一論理形式ペアを事前学習したのちに言い換え文-論理形式ペアで Fine-tuning したモデル,(c) 事前学習済み BERT を Encoder として与えたのちに言い換え文-論理形式ペアで Fine-tuning したモデル, (d) 擬似生成文一論理形式ペアのみを学習データとしたモデル (表 4). 評価には, BLEU および正解の論理形式と完全一致 (Exact) ・ 1 つ以上の項が一致 (Partial) する出力をした割合を指標に用いる. 言い換え文評価セットと対話履歴評価セットの結果を比較すると傾向に大きな違いはなく, 提案した生成手法が同じ方法で構築された言い換え文評価  図 4 データサイズとモデルの性能 セットだけでなく目的の対話履歴の解析にも有効であることが分かる。さらに,(a) 言い換えデータのみの学習と (d) 擬似データのみの学習結果の差から,人手による言い換え作業の効果が見て取れる. 対話履歴評価セットにおける Partial および Exact に注目すると,まだ実応用できる精度とは言い難いが,図 4 に注目すると,さらにデータサイズを拡張することで,性能改善の見込みがあることが分かる.今後は,モデルの性能改善に寄与する学習デー タを効率的に収集する方法を検討していきたい. ## 5 おわりに 本論文では,語彙規則と文法規則の組み合わせから自然言語文一論理形式ぺアを生成する,新たなデータ構築手法を提案した。自動生成された擬似データを経由することで,専門知識が必要とされる論理形式のアノテーションが擬似生成文の言い換え作業に置き換えられ,より容易にデータセットを作ることが可能となった。生成データを学習した変換モデルにより,対話履歴を論理形式に変換する実験を行い,提案したデータ生成手法の有効性を確認した. ## 参考文献 [1] Qingqing Cai and Alexander Yates. Large-scale semantic parsing via schema matching and lexicon extension. In Proceedings of the 51 st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 423-433, Sofia, Bulgaria, August 2013. Association for Computational Linguistics. [2] Victor Zhong, Caiming Xiong, and Richard Socher. Seq2sql: Generating structured queries from natural language using reinforcement learning. CoRR, Vol. abs/1709.00103, , 2017. [3] Catherine Finegan-Dollak, Jonathan K. Kummerfeld, Li Zhang, Karthik Ramanathan, Sesh Sadasivam, Rui Zhang, and Dragomir Radev. Improving text-to-SQL evaluation methodology. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 351-360, Melbourne, Australia, July 2018. Association for Computational Linguistics. [4] Tao Yu, Rui Zhang, Kai Yang, Michihiro Yasunaga, Dongxu Wang, Zifan Li, James Ma, Irene Li, Qingning Yao, Shanelle Roman, Zilin Zhang, and Dragomir Radev. Spider: A large-scale human-labeled dataset for complex and cross-domain semantic parsing and text-toSQL task. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 3911-3921, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [5] Y. Oda, H. Fudaba, G. Neubig, H. Hata, S. Sakti, T. Toda, and S. Nakamura. Learning to generate pseudo-code from source code using statistical machine translation. In 2015 30th IEEE/ACM International Conference on Automated Software Engineering (ASE), pp. 574-584, 2015. [6] Chris Quirk, Raymond Mooney, and Michel Galley. Language to code: Learning semantic parsers for if-this-thenthat recipes. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 878-888, Beijing, China, July 2015. Association for Computational Linguistics. [7] Kavya Srinet, Yacine Jernite, Jonathan Gray, and Arthur Szlam. CraftAssist instruction parsing: Semantic parsing for a voxel-world assistant. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4693-4714, Online, July 2020. Association for Computational Linguistics. [8] Yushi Wang, Jonathan Berant, and Percy Liang. Building a semantic parser overnight. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1332-1342, Beijing, China, July 2015. Association for Computational Linguistics. [9] Chitta Baral, Juraj Dzifcak, Marcos Alvarez Gonzalez, and Jiayu Zhou. Using inverse lambda and generalization to translate English to formal languages. In Proceedings of the Ninth International Conference on Computational Semantics (IWCS 2011), 2011. [10] Jonathan Berant, Andrew Chou, Roy Frostig, and Percy Liang. Semantic parsing on Freebase from questionanswer pairs. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1533-1544, Seattle, Washington, USA, October 2013. Association for Computational Linguistics. [11] Li Dong and Mirella Lapata. Language to logical form with neural attention. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 33-43, Berlin, Germany, August 2016. Association for Computational Linguistics. [12] Jayant Krishnamurthy, Pradeep Dasigi, and Matt Gardner. Neural semantic parsing with type constraints for semistructured tables. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1516-1526, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [13] Alane Suhr, Srinivasan Iyer, and Yoav Artzi. Learning to map context-dependent sentences to executable formal queries. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 2238-2249, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [14] Zhichu Lu, Forough Arabshahi, Igor Labutov, and Tom Mitchell. Look-up and adapt: A one-shot semantic parser. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 1129-1139, Hong Kong, China, November 2019. Association for Computational Linguistics. [15] Percy Liang. Lambda dependency-based compositional semantics. CoRR, Vol. abs/1309.4408, , 2013. [16] Shashank Srivastava, Amos Azaria, and Tom Mitchell. Parsing natural language conversations using contextual cues. In Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence, IJCAI-17, pp. 4089-4095, 2017. [17] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [18] Sascha Rothe, Shashi Narayan, and Aliaksei Severyn. Leveraging pre-trained checkpoints for sequence generation tasks. arXiv, pp. arXiv-1907, 2019. [19] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-3.pdf
# 扇情的な記事判定に向けた定義作成とアノテーション 谷口祐太郎 上村真史 小澤俊介 関喜史 株式会社 Gunosy } \{yutaro.taniguchi, masashi.uemura, shunsuke.kozawa, yoshifumi.seki\}@gunosy.com ## 1 はじめに 推薦システムではクリック率が高いアイテムが推薦されやすい傾向にあり,その結果我々が提供するニュースアプリ「グノシー」では,推薦記事の中の性的な記事・攻撃的な記事・クリックベイト的な記事の割合が大きくなるという課題がある ${ }^{1)}$ このような記事を「扇情的な記事」と定義し,サービス内での表示を抑制しより良いユーザ体験の実現を目指すため,定義に基づいてデータセットを作成,さらに自動で判定するシステムを構築する。 類似の取り組みとして, ニュースの品質の判定 [1],クリックベイトの判定 [2,3],ニュースの感情分析 $[4,5]$ などがある. しかしいずれも本研究の目的には不十分であり, 独自のデータ定義とデータセットの作成が必要である。データセットの作成は自然言語処理の様々な分野で行われており $[6,7,8]$,文書・記事の品質に関する定義・アノテーションとしては $[9,10,11]$ が挙げられる. [9] は類似した定義を提案しているが,本研究ではアプリでの表示抑制を前提とする,より詳細にカテゴリ分けされた定義を作成した。 扇情的な記事について,「定義の作成」,「ラベルデータの作成」,「モデルの作成と評価」の 3 つの工程を行った. 我々の知る限り,扇情的な記事に関するデータセットで利用可能なものはないため,定義, データセットの構築から行い, 構築したデータセットをもとにモデルの作成と評価を行う.以降の章でそれぞれの工程について詳しく述べる。 ## 2 扇情的な記事の定義作成 扇情的な記事の定義を作成する。一般に「扇情的」といったとき,様々な定義・側面があるが,本研究では「サービス内でのユーザ満足度の低下を防  ぐ」という目的に沿うように定義する.この定義作成は主に 3 人の作業者によって行われた. 対象とする記事のカテゴリは芸能を扱う記事のカテゴリであるエンタメのみとする ${ }^{21}$. 今後, 必要性・実現可能性に応じて対象カテゴリを拡張する。 ## 2.1 定義作成の手順 以下に定義作成の手順を示す. 1. 記事分析一定数の記事に対して,各作業者が直感的に「扇情的だと思ったか否か」を判定し,それらを原因別に分類する。例えば,「表現が過激」・「タイトルが誤解を招く」・「画像がアダルト」・「中傷を含む」などである. 2. 仮定義作成仮分類をもとに作業者間で議論し,分類カテゴリと定義を作成する。 3. 仮ラベリング暫定の定義にしたがって記事に対してラベリングを行う. 4. 議論仮ラベリングの結果を照合し,作業者間で判定が不一致であった事例や,各人が判定に迷った事例について議論をする.議論内容の事例を付録 A に示す。 5. 定義作成 (修正) 議論結果をもとに定義を修正する。 6. 3〜5を繰り返し,より要件を満たすように定義を修正していく。 定義の修正は主に以下の 2 種類がある. ・仮ラベリングを行うことで作業者間での意識の差が判明し,議論によって定義がより明瞭な言い回しに改善される. ・仮ラベリングを行うことで新たな種類の事例が発見され,議論によって定義に追加される。また,必要に応じて削除・統合される。 2)グノシーにおいて記事は分類システムによって予め定義されたカテゴリに振り分けられている。当初は他のカテゴリの記事も対象としていたが,「エンタメ以外のカテゴリでは扇情的な記事が少ない」・「政治カテゴリなどは扇情的かどうかの判断が難しい」などの理由からエンタメのみとした. 表 1 「扇情的な記事」の定義のクラス 作業者間の議論だけでは判断しかねるケースでは,社内の他社員の意見や,社内や他社メディアのコンテンツポリシーなどを参考にした。 手順 3〜5を 8 回繰り返し定義が完成した. 仮ラベリングの記事数はサイクルによって異なるが, 1 人 100~200 記事程度である. また, 3 人の作業者のうち 2 人のみが仮ラベリングを行う場合もあった. ## 2.2 定義 構築した「扇情的な記事」の定義は,5つのクラス,各クラスに該当するための条件 (以下,クラス条件), 注意事項で構成されている.5つのクラスラベルとその説明を表 1 に示す. 定義の完全版は事業の関係上非公開としているが,今後の公開も視野に入れている. 例えば SEXUAL クラスのクラス条件は,「画像がアダルトである」,「不適切な文言がタイトルに含まれる」などである.また,クラスラベルは背反ではなく,扇情的な記事を漏れがないように扱うためのものである. よって, 1 記事に対して複数のクラスが当てはまる場合があり, 実際にデー タセットを作成するときは最もよくあてはまるクラスをラベリングする. ## 2.3 作業者間のラベル一致度の変化 作業者間での議論を重ね,認識合わせ・定義改善を行うにつれ,二値ラベルの作業者間の一致度は向上した. 2 回目,6回目,8 回目の仮ラベリングにおける Fleiss' kappa[12], Krippendorff's alpha[13] を表 2 に示す.また, 3 人中任意の 2 人の Cohen's kappa[14]表 2 作業者間でのラベル一致率の変化 の値も同じく増加する傾向であった. なお,8 回目の仮ラベリングの後,データセットのための本ラベリングが行われた. ## 3 扇情的な記事のデータセット作成 データセットの概要を示す. 対象は 2019 年 8 月〜2020 年 3 月のエンタメカテゴリの記事である.特定の期間の話題に偏ることを防ぐため半年以上の期間とした. 記事数は 2,186 記事である. 記事をランダムに抽出すると,正例が極めて少ない割合になる.そこで,社内の専門家によって扇情的な記事が含まれやすいと判断された特定メディアとそうでないメディアから同程度の記事数を取得する。メディア分類となることを避けるため,各メディアの正例・負例の割合が同程度になるようにする。 作業者は議論・仮ラベリングによって十分に教育されているとみなし,効率を重視して 1 記事について 1 人のみのラベリングとした. 1 記事に対して,以下の情報をアノテーションする.以下の情報のうち判定を行う順番は任意でよいとした。 ・「扇情的」であるかどうか ・「扇情的」ならば定義したクラスのうちどれに最もよく当てはまるか ・「扇情的」ならば定義したクラス条件のうちどれに最もよく当てはまるか ラベル・クラスの内訳を表 3 に示す. ## 4 扇情的な記事判定モデルの作成と 評価 構築したデータセットを元にした,扇情的な記事を判定するモデルの作成と評価について述べる. ## 4.1 タスクの定義 SEXUAL,VULGAR ラベルを判定するタスクを Task1, OFFENSIVE, CLICKBAIT ラベルを判定するタスクを Task2 とする.これは,扇情的であるラべルの記事を分析した結果,SEXUAL,VULGARラベルが振られた記事,また OFFENSIVE,CLICKBAIT ラベルが振られた記事のそれぞれで書かれ方やサムネイルなどの性質が類似していたためである. ## 4.2 モデルの作成 Task1,2 それぞれについて,ルールベースと SVM の 2 種類のモデルを作成する. また,提供元が特定メディアであるかどうかを判定結果とする手法をベースラインとして比較する. ルールベース Task1 については,記事のサムネイル画像による判定,記事のテキストによる判定の OR 結合を判定結果とする. サムネイルの画像判定には Amazon Rekognition ${ }^{3}$ を用いてラベルを付与し,特定のラベル(例えば, Explicit Nudity や Suggestive) が付与されていた場合,正例と判定する。また,記事テキストによる判定では,あらかじめ選定した特徵語が 1 語以上記事タイトル・本文に含まれている場合,正例と判定する. 特徴語は, SEXUAL, VULGAR ラベルの記事を分析し, 出現しやすい単語 (「グラビア」,「セクシー」など) を人手で選定したものである. Task2 については,記事のテキスト,発信元のメディア情報,本文の長さをもとにしたスコアリングによる判定を行う.記事テキストによる判定では, あらかじめ選定した特徴語ごとに割り当てたスコアをもとに,テキストに含まれる特徴語のスコア合計値を算出して判定を行う. さらに,提供元が特定メディアでない場合および記事本文の文字数が $t_{w}$ 以上の場合は減点を行う. これは記事が調査に基づいた内容で扇情的でないことが多いためである. 最終的なスコアが $t$ 以上であれば正例と判定する.特徴語の例およびスコアリングのルールの詳細を付録 C に示す. SVM SVM(Support Vector Machine)[15] を用いて扇情的な記事かどうかの分類を行う. Task1,2ともに,記事のタイトルと本文から算出した TF-IDF を特徴量として用いる. 形態素解析には $\mathrm{MeCab}^{4)}$, 辞  表 4 各データセットの正例負例内訳 表 5 各タスクにおけるモデル毎の Precision,Recall, 書は NEologd ${ }^{5}$ を用いる. Task1についてのみ,SVM による判定と画像による判定の OR 結合を判定結果とするようにした. ## 4.3 実験条件 全 2,186 記事のうち数が少ない VAGUE,その他うベルの 3 件を除いて,1,263 件を検証用,920 件を評価用とする。 モデルの評価には,Precision,Recall, f1-score を用いる。検証用データを用いて,ルールベースモデルの特徴語の選択,また,SVM の学習を行い,評価用データを用いて性能を算出する.Task2 のルールベースモデルにおいて $, t=0.20, t_{w}=3000$ と定めた。これは検証用のデータを用いて Precision と Recall のバランスを考慮して決定した。 2 つのタスクではそれぞれ正例のデータとして異なる記事を利用する. Task1 では SEXUAL, VULGAR のいずれかのラベルが付与された記事, Task2 では OFFENSIVE,CLICKBAIT のいずれかのラベルが付与された記事を正例として用いる.負例として用いる記事はタスクによらず共通である.表 4 にデータの内訳を示す. ## 4.4 実験結果 表 5 に各タスクにおけるモデルの性能を示す.いずれのタスクにおいても,ルールベース手法(以下, RB)と SVM 手法(以下,SVM)は,ともにべースラインの性能を上回る結果となった。 Task1 においては, Amazon Rekognition の判定結果を用いることで,肌露出が多い画像が含まれる記事を正しく判定することができた.RB とSVMを比較すると,Precision は SVM がRB よりも 17.3 ポイン卜高いのに対し, Recall はRB が SVM より 9.3 ポイ  表 6 誤判定傾向・事例 & \\ 図1 各タスクにおけるモデル毎の PR 曲線 ント高いという結果となった. Task2 においては,RB が SVM より Precision が 8.4 ポイント, Recall が 2.5 ポイント高い結果になった. また,Task2における f1-score は Task1 と比較して全体的に低い傾向になった. 図 1 に Precision-Recall 曲線を示す. 例えば Recall が 0.80 のとき Precision は Task1 では 0.87, Task2 では 0.53 という結果であった. 実サービスでは正例の取りこぼしを少なくすることが重要であるとして,Recall を優先することを想定している.付録 C に Task2-ルールベースモデルのルールごとの性能を示す. ## 4.5 考察 扇情的な記事判定での誤判定をもとに考察を行う. 表 6 に各タスクの誤判定例を示す. Task1 においては,正例に特定の語が出現しやすく,サムネイルもグラビアなど識別しやすいものが多いため,ルールベース,SVM 問わず一定の割合を正しく識別できた. RB の誤判定として目立つのは,非扇情的な文脈で特徴語を含む記事を,誤って扇情的な記事と判定する場合である. 例えば,「グラビ ア」という特徴語はグラビアアイドルの肌の露出が多い画像を含むような記事を想定して追加したものだが,単なる肩書きとして「グラビアアイドル」という語を含む非扇情的な文章で誤判定してしまう. このため Recall は高くなるものの,Precision は低下したと考えられる。しかし FN 例にあるように,写真集を紹介する非扇情的な記事は,文体や出現語も正例とほとんど差がないため識別が難しい. Task2 は手法を問わず Task1 よりも性能が低い. 人手での判定も困難な記事が多いことが要因の一つである.具体的には,FP例にあるような批判を表す文言について,過剰に一個人を中傷するものなのか,ただ注意喚起を行うものなのかの区別が難しく,どこからが扇情的に当てはまるのか人によっても判断が異なるため,モデルでも識別することが難しい.また,OFFENSIVE,CLICKBAIT ラベルの記事は表現が多様で,攻撃的な語は含まれないが攻撃的な意見を含む扇情的な記事も多く存在するため,文章の解釈が行えず手法を問わず性能が低い結果となった。 ## 5 まとめ・今後の課題 ニュースサービスにおいて好ましくない影響を与える可能性がある記事を「扇情的な記事」として,複数の作業者が議論を行い定義を改善するというループを 8 回行い 5 クラスから構成される定義を構築した. 定義に基づき,データセットを作成,自動判定するモデルを提案し,ルールベース手法・SVM 手法ともに, ベースラインよりも高い Precision, Recall を導いた。 今後は,ルールの改善 (特徴語の追加) や識別器の工夫により性能の向上を目指すとともに,定義の修正・対象カテゴリの拡張・データセットの拡張にも着手する。 ## 参考文献 [1] Yen-Hao Huang, Ting-Wei Liu, Ssu-Rui Lee, Fernando Henrique Calderon Alvarado, and Yi-Shin Chen. Conquering cross-source failure for news credibility: Learning generalizable representations beyond content embedding. In Proceedings of The Web Conference 2020, WWW '20, p. 774-784, New York, NY, USA, 2020. Association for Computing Machinery. [2] Ankesh Anand, Tanmoy Chakraborty, and Noseong Park. We used neural networks to detect clickbaits: You won' $t$ believe what happened next! In European Conference on Information Retrieval, pp. 541-547. Springer, 2017. [3] Hai-Tao Zheng, Xin Yao, Yong Jiang, Shu-Tao Xia, and Xi Xiao. Boost clickbait detection based on user behavior analysis. In Asia-Pacific Web (APWeb) and Web-Age Information Management (WAIM) Joint Conference on Web and Big Data, pp. 73-80. Springer, 2017. [4] Julio Rieis, Fabrício de Souza, Pedro Vaz de Melo, Raquel Prates, Haewoon Kwak, and Jisun An. Breaking the news: First impressions matter on online news. In Proceedings of the International AAAI Conference on Web and Social Media, Vol. 9, 2015. [5] Antony Samuels and John Mcgonical. News sentiment analysis, 2020 [6] 東中竜一郎, 光田航, 増村亮, 斉藤いつみ, 青野裕司.雑談要約技術に向けた取り組み. 言語処理学会第 26 回年次大会発表論文集, pp. 1519-1522, 2020. [7] 対話的議論の自動評価に向けたディベートデータセットの構築. 言語処理学会第 26 回年次大会発表論文集, pp. 708-711, 2020. [8] 仁木裕太, 坂地泰紀, 松島裕康, 和泉潔. 因果判定デー タセットの構築と原因結果表現抽出への拡張. 言語処理学会第 26 回年次大会発表論文集, pp. 557-560, 2020. [9] Hongyu Lu, Min Zhang, Weizhi Ma, Yunqiu Shao, Yiqun Liu, and Shaoping Ma. Quality effects on user preferences and behaviorsin mobile news streaming. In The World Wide Web Conference, WWW '19, p. 1187-1197, New York, NY, USA, 2019. Association for Computing Machinery. [10] 渋木英潔, 中野正寛, 宮崎林太郎, 石下円香, 金子浩一, 永井隆広, 森辰則. 情報信憑性判断支援のための web 文書向け要約生成タスクにおけるアノテーション. 自然言語処理, Vol. 21, No. 2, pp. 157-212, 2014 [11] Ioannis Arapakis, Filipa Peleja, Barla Berkant, and Joao Magalhaes. Linguistic benchmarks of online news article quality. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1893-1902, Berlin, Germany, August 2016. Association for Computational Linguistics. [12] Joseph L Fleiss, Bruce Levin, and Myunghee Cho Paik. Statistical methods for rates and proportions. john wiley \& sons, 2013. [13] Andrew F Hayes and Klaus Krippendorff. Answering the call for a standard reliability measure for coding data. Communication methods and measures, Vol. 1, No. 1, pp. 7789, 2007. [14] Jacob Cohen. A coefficient of agreement for nomi- nal scales. Educational and psychological measurement, Vol. 20, No. 1, pp. 37-46, 1960. [15] Bernhard E. Boser, Isabelle M. Guyon, and Vladimir N. Vapnik. A training algorithm for optimal margin classifiers. In Proceedings of the Fifth Annual Workshop on Computational Learning Theory, COLT '92, p. 144-152, New York, NY, USA, 1992. Association for Computing Machinery. 表 7 議論例 「VAGUE」(不明瞭)クラスは 「タイトルから内容が想像できない」場合に付与されるが,想像できるかどうかは読み手の知識によって変わるのではないか.読み手に背景知識があったとしても, 何についての記事か理解できないような場合は「VAGUE」クラスとする。伝えたい事象に関する単語が含まれているなど,背景知識があれば理解できるようになっていれば「VAGUE」 クラスには含めない。 ## A 議論例 表 7 に定義作成の過程の議論の例を示す. ## B 定義の変更例 1. ワイドショーでの芸能人のコメントを取り上げた記事などの事例を参考に「内容が薄い」というクラスを設けていたが,議論の結果,それだけで扇情的と判定するのは厳しすぎるという結論に至り, 廃止された. ただし, 匿名によるネガティブなバッシングを取り上げて作成された記事や,攻撃的なコメントを取り上げた記事は 「OFFENSIVE」クラスとして扇情的であると判定することにした. 2.「有名人による SNS の投稿画像の場合は肌の露出が多くても扇情的でないとする」という基準だったが,「プッシュ通知に適切かどうか」など本来の目的を考慮して議論した結果,肌の露出が多い記事は基本的に扇情的であると判定することにした。 3.「卑俗なテレビ番組の内容を伝える記事は,事実をそのまま伝えているため扇情的でない」という基準だったが,変更例 2 同様,本来の目的 表 8 Task2 特徴語の分類とその例 & 「批判殺到」, 「厳しい声 \\ 表 9 Task2ルールベースモデルのスコアリングルール 表 10 Task2 ルールベースモデルの各ルールでの性能比較、ルールにおいて, A は特徴語 (弱・中・強), $\mathrm{A}^{\prime}$ は特徴語 (弱・中・強・反), $\mathrm{B}$ は特定メディア, $\mathrm{C}$ は本文の長さ を考慮して議論した結果,扇情的の定義に含めるという結論に至った。 ## C Task2 ルールベースモデルの詳細 Task2 に向けたルールベースモデルについて,特徵語の分類を表 8 に,スコアリングのルールを表 9 に示す。 また,Task2 に向けたルールベースモデルにおける,ルールごとの性能の比較を表 10 に示す.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-4.pdf
# 研究データ検索における論文上の引用文脈の利用 角掛正弥 名古屋大学大学院情報学研究科 tsunokake.masaya@a.mbox. nagoya-u.ac.jp } 松原茂樹 名古屋大学情報連携推進本部 matubara@nagoya-u.jp ## 1 まえがき オープンサイエンスは, 論文や研究データなど研究成果の共有や利活用を促進する活動である. 近年, データ中心科学の広まりと共に, 研究データの公表や論文での引用が増えており, 研究データを共有する取り組みが進んでいる.例えば,特定の分野を対象とした研究データリポジトリの構築 [1], あるいは, The Australian National Data Service (ANDS) ${ }^{1)}$, European Open Science Cloud (EOSC) ${ }^{2}$, The National Data Service (NDA) 3 ) ど国家的単位での研究データ管理基盤の構築も進んでいる. 研究データへのアクセス性向上において重要な役割を担うのが検索システムである. 研究データの検索は, 一般に, 研究データの作成者が登録する4) 义タデータに基づき行われる。しかし, 作成者によるメタデータだけでは, 利用者が発行するクエリに対応するには十分でなく, 提示すべき研究データを検索結果として提示できない可能性がある. その理由は,メタデータの記述が不十分であること $[2,3]$ や,作成者が想定していない研究データの特徴や用途が存在する可能性があるためである. 本稿では, 「研究データの検索において論文上の引用文脈を利用することは有用である」という仮説を設定し,これを検証する。論文における研究デー タの引用文脈を収集し,それを研究データのメタデータに追加することで, 既存のメタデータとは異なる言い回しや表現, 作成者が想定していない特徴や用途などを獲得できる可能性がある。これにより, 研究データに関する記述が拡充され, 研究デー タへのアクセス性向上が期待できる. 本研究では,まず,引用文脈をメタデータに加えることで, 研究データに関する記述を拡充できるか ) https://www.ands.org.au/ 2) https://ec.europa.eu/research/openscience/index.cfm? pg=open-science-cloud 3) http://www.nationaldataservice.org/ 4)リポジトリの管理者が作成することもある. を調査した。具体的には,メタデータとして与えられている研究データに関する説明文書と, 論文における引用文脈を比較し,その重複を調査した。次に,メタデータへの引用文脈の追加前には検索結果として提示されなかった研究データが,追加により提示できるようになるかの検証実験を行った。 ## 2 研究データの検索と引用文脈 データセットの検索手法について研究がされている [3]. 実際の検索サービスとして, Google Dataset Search $^{5)}$ [2] が存在する. 同様に, 研究データを対象とした検索サービス DataCite Search ${ }^{6)}$ が存在する.研究データとは, 研究の過程で収集・生成されたデジタル情報であり,プログラムやソフトウェア等のツールや,計測・試験データが一定の形式で整理されたデータセット等を含む7) . Zenodo ${ }^{8}$ や Mendeley Data $^{9}$ においても研究データを検索できる. 研究データの検索は, 各研究データに付与されたメタデータに対するキーワード検索で実現される.メタデータとは, 名称, 作成者, 出版年, 種類など,その研究データに関する各種情報を記述するデータである.例として,言語資源メタデータデータベース $\mathrm{SHACHI}^{10)}[5]$ における, WordNet[6] のメタデータの一部を表 1 に示す.このメタデー タは, DublinCore ${ }^{11)}$ に準拠したメタデータ語彙で記述されている.メタデータ語彙には, DCAT[7], schema.org[8], DataCite Metadata Schema[9] などが存在し,これらに従いメタデータを記述することで一貫性を保持できる。メタデータには,データセットに関する説明を記す項目(以下,内容記述 (Description)) がある. 5) https://datasetsearch.research.google.com/ 6) https://search.datacite.org/ 7)一方で,包括的な定義を与えるのは難しく [4], その定義は文脈によって異なる側面もある. 8) https://zenodo.org/ 9) https://data.mendeley.com/ 10) http://shachi.org/ 11) http://dublincore.org/ 表 1 SHACHI における WordNet のメタデータ(一部) & \\ 一般的に, 研究データの作成者がそのメタデータを登録する. しかし, 作成者によるメタデータだけでは,提示すべき研究データを検索結果として提示できない可能性がある.なぜなら,メタデータの記述が不十分な場合や, 作成者が想定していない研究データの特徴や用途が存在し得るからである. メタデータにおける内容記述を充実させることで,マッチするクエリが増加する. 内容記述を拡充する方策として,論文における引用文脈を用いることが考えられる. 論文で研究データを引用する際,著者はその説明や用途等を引用文脈に記述する.引用文脈を利用することで, 研究データに関する記述を機械的に収集でき, 異なる言い回しや表現の獲得による量的な充実が期待できる. 加えて, 引用文脈を記した著者は作成者とは異なるため, 作成者が想定していない研究データの特徴や性質, 関連トピック, 用途などを拡充できる可能性がある.特に用途に関しては,利用者が新たに作り出す可能性もある.実際,論文から用途情報を自動獲得する研究 [10] も行われている. 引用文脈を収集することで,質的な充実も期待できる。 Singhal ら [11] は, 利用者自身の研究の文脈に沿つたキーワードをクエリとする研究データ検索システムを提案している.検索対象となるメタデータとして, 引用された論文のタイトルやタグ情報を用いている. しかし, これらは研究データについて直接記した情報ではなく, 研究データの特徴や用途などとは関係しない可能性が高い. 本研究では, 引用文脈をメタデータとして直接利用することを想定する。 本稿では,「研究データの検索において論文上の引用文脈を利用することは有用である」という仮説 を設定し,実験的にこれを検証する。 ## 3 内容記述と引用文脈の関係 本節では,メタデータへの引用文脈の追加により, 研究データに関する記述を拡充できるか否かについて,調査した結果を述べる。 ## 3.1 調査方針 メタデータに引用文脈を加えたとしても,その内容が既存のメタデータの内容記述に対し重なりが大きいようなら,量的に拡充できているとは言えない. 本研究では, キーワード検索を想定し, 同一の研究データに対する内容記述と引用文脈の語彙を比較することで,その重複度を調査する。 ## 3.2 調査用データの作成 調査にあたり, 同一の研究データに対する内容記述と引用文脈を対応付けたデータセットを作成した. 引用文脈の抽出対象論文として,2000 年~2019 年の ACL, NAACL, EMNLP における本会議論文を ACL Anthology ${ }^{12)}$ から収集し, PDFNLT ${ }^{13)}$ [12]によりテキスト化した。収集した論文数は 11,855 件であった. 明示的な研究データの引用として URLに着目し $[13,14]$, URL が記載された段落を抽出した. 抽出された段落は 31,637 件であった。なお, 脚注や参考文献に記載された URL については,その本文中での引用箇所を特定したうえで段落を抽出している. 研究データの内容記述の収集には, $\mathrm{LDC}^{14)}$ と SHACHI[5]を利用した.LDCの利用では,抽出した段落に記載されている URLのうち,LDC のカタログページを示す URLについて, そのリンク先から内容記述を取得した ${ }^{15)}$ 。また,SHACHI では言語資源のメタデータとして, 内容記述と所在を示す URL 等が与えられている.これらを収集することにより, 論文から抽出した段落文と SHACHI の内容記述をURLで対応付けた。 対応付けられた研究データの内容記述と引用文脈の文書対のうち, 同一の研究データを指していない  表 2 内容記述と引用文脈の重複度 & & Jaccard & Dice & Simpson \\ もの ${ }^{16)}$ や引用文脈が正しく抽出されなかったものを除外し,データセットを作成した。文書対の総数は 395 件, 研究データの種類数は 98 件となった. ## 3.3 内容記述と引用文脈の重複度 3.2 節のデータセットを用い, 内容記述と引用文脈の語彙の重複度を算出する. 語彙は, 以下の手順で前処理を行った後,重複を除去し作成する. 1. 文書のトークン化 2. 重要でない単語17)を削除 3. 見出し語化, 及び小文字化 トークン・見出し語化,ストップワードの判定には $\mathrm{spaCy}^{18)}$ を用いた. 手順 2 で,検索においてクエリとして用いられる可能性が低い単語を取り除く.語彙の重複度は, Jaccard 係数, Dice 係数, Simpson 係数により算出した. 表 2 に算出結果を示す. 語彙サイズが大きく異なるものの,いずれの係数も平均值や中央值の值が非常に低いことがわかる. しかし,全く関係のない文書と内容記述の語彙を対象とした場合も, その重複度は低くなる. そこで, 内容記述と, それとは内容的に関連が低い文書との対を作成し, 重複度を算出する. その分布を,内容記述と引用文脈の文書対における分布と比較し,内容的な関連性は保ちながらも,引用文脈による拡充が可能であるかを検査する。一方で,関連が高すぎては拡充の効果が見られないため, 内容的に強く関連する文書対も作成し, その重複度の分布とも比較する. 異なる研究データ同士の内容記述は,関連が低いと考えられる。そこで,3.2 節で収集した全ての内容記述から文書対を作成し, これを関連が低い文書対とした。得られた文書対は 4,560 件で  図 1 各文書対における Simpson 係数の分布 (引用段落単位) 図 2 各文書対における Simpson 係数の分布 (引用文単位) あった。一方,LDCでは研究データの内容記述以外にその README ファイルも配布されている場合がある.これらはいずれも作成者による同じ研究デー タに関する文書なので, 関連が高いと考えられる。 そこで,関連の高い文書対として,研究データの内容記述と README の文書対を作成した。得られた文書対は 40 件であった. 図 1 に結果を示す. 比較する語彙同士のサイズが大きく異なることが多いため, 語彙サイズに頑健な Simpson 係数のみを表示している. 関連が低い文書対は Simpson 係数の分布が低い位置に分布し, 関連が高い文書対は Simpson 係数の分布が高い位置に分布している. 内容記述と引用文脈の文書対では,その Simpson 係数の分布が上記 2 つの中間に位置している. 内容記述と引用文脈には関連が高い文書対ほどの重複が存在せず,引用文脈をメタデータに加えることで記述を拡充できると考えられる。一方で,関連の低い文書対と比べると,高い位置に Simpson 係数が分布しており,内容記述と引用文脈との間には一定程度の関連が認められる。引用文脈をメタ 表 3 クエリにマッチした引用文脈の例 & 20 Newsgroups & OntoNotes Release 4.0 & \\ データに加えることで,効果のある拡充が行えることを示している。 ここまで述べてきた引用文脈は,抽出した引用箇所を含む段落(以下, 引用段落)をそのまま利用した結果である. 引用段落は数文に渡る引用文脈を網羅することが可能な一方で, 引用文脈でない文を含屯可能性もある. そこで, 引用箇所に対応する 1 文のみ (以下, 引用文)を用いて同様の調査を行った。図 2 に, Simpson 係数の算出に引用文を用いた場合の分布を示す. 図 1 と比較して, 内容記述と引用文脈の文書対分布は右ヘシフトしており, 引用文脈でない文を除外できていることがわかる。一方で,関連が高い文書対に比べると分布は左に位置している. 内容記述と引用文の文書対のほとんどが 0.5 以下であり,記述を拡充する効果が期待できる. ## 4 研究データ検索における有用性 引用文脈の追加による研究データに関する記述の拡充が,検索において有用であることを検証する。検索対象が,1)内容記述のみ,2)内容記述と引用文脈, の 2 条件で研究データ検索実験を行い, 発見できる研究データ数を比較する. ## 4.1 検索実験の設定 利用者が研究データを検索する際のキーワードとして研究トピックや用途が考えられる. そこで, 研究データを使用した過去の事例から用途を収集し,検索実験のクエリとする.収集には LREMap ${ }^{19)}$ を用いた. LREMap は,研究で使用・作成された言語資源のメタデータが登録されているリポジトリである. 論文を投稿する際に, 著者が使用・作成した言語資源をこのリポジトリに登録する.メタデータには, 言語資源の名称, 種類, 用途などの様々な情報が記述される. 用途情報は, LREMap 側で定義されたものから選択する,もしくは,著者自身が自由に記述することで作成される. LREMap に登録されている言語資源の使用事例を収集することにより, 多様な用途情報を獲得できる。 19) https://lremap.elra.info/ LREMap から収集した全用途情報のうち,「,」を含む場合そこで分割し,クエリセットを作成した。作成したクエリの種類数は 728 件である。 なお, 本実験では,メタデータに加える引用文脈をできる限り研究データに関する記述に絞るため, 引用文のみを引用文脈とした。 ## 4.2 実験結果 3.2 節で作成した引用文と内容記述の文書対デー タを検索対象として実験を行った。 引用文脈を加えることにより, 研究データ発見数が増えたクエリが 36 件存在した. 引用文脈を用いることにより,内容記述のみでは発見できなかった研究データにマッチできた事例を表 3 に示す. クエリに対して,拡充した記述が有効に働いていることがわかる. 適合性も考慮した実験結果を示すため, クエリとマッチした引用文の全ぺアについて適当であるか否かを確認し, 適当でないマッチは行わないように再度検索実験を行った. その結果, 引用文脈を加えることにより研究データ発見数が増えたクエリは 29 件であった。その一覧を付録の表 4 に示す. 引用文脈の追加により, 研究データの発見数が増加することを確認した。なお,クエリとマッチした引用文のペアのうち, 適当であったものの割合は 0.788(93/118) であった. ## 5 あとがき 本稿では, 「研究データの検索において論文上の引用文脈を利用することは有用である」という仮説を設定し, 実験による検証結果について述べた。まず,既存のメタデータにおける研究データに関する説明と論文の引用文脈について, その重複度を調查した。調査結果から, 引用文脈を利用することで,効果のある拡充を行えることがわかった。次に,LREMap から収集した用途情報を用い検索実験を行った。引用文脈を用いた拡充により,発見できる研究データ数が増加し, 研究データの検索における引用文脈の有用性を確認した。 ## 参考文献 [1]大向一輝. オープンサイエンスと研究データ共有. 心理学評論, Vol. 61, No. 1, pp. 13-21, 2018. [2]Dan Brickley, Matthew Burgess, and Natalya Fridman Noy. Google dataset search: Building a search engine for datasets in an open web ecosystem. In Proceedings of The World Wide Web Conference, pp. 1365-1375, 2019. [3]Adriane Chapman, Elena Simperl, Laura Koesten, George Konstantinidis, Luis-Daniel Ibáñez, Emilia Kacprzak, and Paul Groth. Dataset search: a survey. The VLDB Journal, Vol. 29, No. 1, pp. 251-272, 2020. [4]The Australian National Data Service. What is research data, 2017 (2021-01 閲覧). https: //www.ands.org.au/__data/assets/pdf_file/0006/ 731823/Whatis-research-data.pdf. [5]Hitomi Tohyama, Shunsuke Kozawa, Kiyotaka Uchimoto, Shigeki Matsubara, and Hitoshi Isahara. Construction of an infrastructure for providing users with suitable language resources. In Proceedings in 22nd International Conference on Computational Linguistics: Companion volume: Posters, pp. 119-122, 2008 . [6]George A. Miller. Wordnet: A lexical database for english. Communications of the ACM, Vol. 38, No. 11, pp. 39-41, 1995. [7]Riccardo Albertoni, David Browning, Simon Cox, Alejandra Gonzalez Beltran, Andrea Perego, and Peter Winstanley. Data catalog vocabulary (dcat) - version 2. In W3C Recommendation, 2020(2021-01 閲覧). https: //www.w3.org/TR/vocab-dcat-2/. [8]Ramanathan V. Guha, Dan Brickley, and Steve Macbeth. Schema.org: Evolution of structured data on the web. Communications of the ACM, Vol. 59, No. 2, pp. 44-51, 2016. [9]DataCite Metadata Working Group. Datacite metadata schema documentation for the publication and citation of research data (version 4.3), 2019 (2021-01 閲覧). https: //doi.org/10.14454/7xq3-zf69. [10] 小澤俊介, 遠山仁美, 内元清貴, 松原茂樹. 言語資源の用途情報の獲得と利用. 電子情報通信学会論文誌 A, Vol. 95-A, No. 7, pp. 611-622, 2012. [11]Ayush Singhal, Ravindra Kasturi, and Jaideep Srivastava. Datagopher: Context-based search for research datasets. In Proceedings of the 2014 IEEE 15th International Conference on Information Reuse and Integration (IEEE IRI 2014), pp. 749-756, 2014. [12]Takeshi Abekawa and Akiko Aizawa. Sidenoter: scholarly paper browsing system based on pdf restructuring and text annotation. In Proceedings of the 26th International Conference on Computational Linguistics: System Demonstrations, pp. 136-140, 2016. [13]角掛正弥, 松原茂樹. 論文で引用された研究データの同定と分類. 電気学会論文誌 C(電子・情報・システム部門誌), Vol. 140, No. 12, pp. 1357-1364, 2020. [14]Hidetsugu Nanba. Construction of an academic resource repository. In Proceedings of Toward Effective Support for Academic Information Search Workshop at ICADL-2018, pp. $8-14,2018$. ## A 付録 表 4 研究データ発見数が増えたクエリ一覧 & \\
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-5.pdf
# 要約付き宿検索対話コーパス 林部祐太 株式会社リクルート Megagon Labs, Tokyo, Japan hayashibe@megagon.ai ## 1 はじめに 宿を探しているカスタマーへの接客では,オペレータは宿が満たすべき要件を整理して検索し,検索結果を基に適切な宿を提案する。カスタマーが最初から要件を列挙できることはほとんど無く,漠然とした希望しか持っていないこともしばしば有る. そのため,要件の整理にはカスタマーの発話の意図を的確に解釈するだけでなく,質問・補足・提案などしてカスタマーの希望を言語化する手助けが必要である。本研究ではその整理の過程を分析するため,宿を検索する際の要件を列挙した時点までの対話を収集し,次の 3 つのアノテーションを行う。 1つ目は要約文で,省略されている言葉を補いながら,発話文を簡潔に要約する。例えば,「それがいいです」といった発話文に対して「朝食はバイキングを希望する」といったような要約文を作成する。これは,発話が何を意図しているのかを解釈するためである。 2 つ目は,発話文と要約文の語句の対応付けである。例えば,「それが」と「朝食はバイキングを」,「いいです」と「希望する」をそれぞれ対応付ける。 これは,どのような言い換えや補足によって要約が生成されたのかを明らかにするためである。 3つ目は,要約文とオペレータが列挙した要件の対応付けである.これは,どのようにして要約文が取捨選択され要件としてまとめられるのかを明らかにするためである. 我々は 210 対話を収集し,要約文 3,282 文と 2,134 個の要件,およびそれらの対応付けがアノテーションされているコーパスを構築した。このコーパスは談話理解,要約生成,対話応答生成など幅広い言語処理の研究に役立てられると考えている。 ## 2 宿検索対話の収集 日本語テキスト対話による架空の宿予約サービスを想定し,カスタマーとオペレータを演じる 2 名 による対話を,オンライン対話プラットフォーム Slack ${ }^{1)}$ で収集した。カスタマーは宿泊先に関する希望をオペレータに伝え,オペレータはそれを具体的な要件まで掘り下げる,宿を大まかに絞り込むのに十分と思われる具体的な要件が挙げられるようになった時点で対話は終了とした。 ## 2.1 参加者 参加者は全員, 日本語母語話者かつ Slack 経験者とした。カスタマー役は 35 名に依頼した。オぺレータ役は, 観光業界での接客経験者と, 未経験者の 2 名に依頼した。カスタマーとオペレータのペア 1 組がそれぞれ 6 対話行い,合計 $210(=35 \times 6)$ 対話を収集した。このうち,接客経験者がオペレータである対話は 126 対話である。 ## 2.2 前提条件と対話内容 各対話には次の要素と制約からなる「前提条件」 をランダムに与え,対話の冒頭でカスタマーとオぺレータの双方に表示した。 ・対話が行われる日付 : 年は無く月と日のみ $\cdot$予約する日付:対話が行われる日付から 3 か月以内の日程で,日付もしくは月の上旬,中旬,下旬のいずれか -予約する日数:1 日以上 4 日以下 ・エリア:47 都道府県,東北地方,関西地方,四国地方,九州地方の 51 種のうちいずれか - 人数 : 大人は 1 人以上,子ども(小学生以下) は 0 人以上で,合計 1 人以上 4 人以下 カスタマーへは,この前提条件にしたがってアドリブを交え,漠然とした希望をオペレー夕に伝えるよう指示した。オペレータへは,宿を大まかに絞り込むのに十分と思われる具体的な要件が挙げられるようになった時,対話を終了する合図を記入し,それら要件を箇条書きで列挙して対話を終了するよう 1) https://slack.com/ 表 1 収集した対話の例。O はオペレータ,C はカスタマー,山は改行を示す。表 2 で例示に用いた文は太字で示す.日付:6月6日『予約する日付:7月 5 日から 4 泊『エリア:京都府『人数:大人 2 人, 子ども 2 人 $\mathrm{O}$ この度はご利用いただきまして、ありがとうございます。『ご宿泊先につきまして、お客様のご希望をお聞かせいただけますでしょうか。 C 夫と幼稚園児の子供2名と京都に行きたいとおもっています。 O さようでございますか。京都の行先は京都市内でしょうか?それとも、丹後地方など別の地域でしょうか? C 朝食はバイキング希望です。夕食は外で食べる予定です。 O 承知しました。それでは朝食のみ付いたプランをお調べします。『ほかにご希望はございますでしょうか? C コンビニが宿の近くにあるといいですね。 O かしこまりました。それでは、コンビニが近くにあるお宿を打調べします。『ご宿泊のお日付と宿泊日数はいかがなさいますか? C 7 月 5 日から 4 泊です。 O かしこまりました。 4 泊となりますと、観光以外にも打時間があるかと思います。『幼稚園监のお子様ですと、 7 月は水遊びができると、お喜びいただけるかと思いますが、鴨川沿いのお宿はいかがでしょうか? C それはとてもいいですね。鴨川で水遊びできるんですね。知らなかったです。 (略) O かしこまりました。お子様連れに優しいお宿をお調べします。『それでは、以下のご希望条件に合うお宿をお探しいたします。 イキングを希望。『・コンビニが近くにある宿を希望。凸・鴨川治いの宿を希望。『・お子様連犯に優しい宿を希望。 指示した。また,次の補足事項も双方に案内した。 ・対話の中で宿泊先を決定する必要はない - 前提条件に記載された情報も漠然としているため,対話の中でこれを掘り下げるのも可 ・前提条件の情報が,対話中に変更されても可 -旅行プランの計画ではなく, あくまで宿に関する話題をメインとする ## 2.3 収集結果 1 対話におけるターン2) は最小 11 回,最大 35 回,平均 19.0 回, 合計 3,997 回だった。また, 文境界をアノテーションし, 1 対話あたりの文数を数えたところ, 最小 31 文, 最大 78 文, 平均 51.5 文, 合計 10,814 文だった。 対話の例を表 1 に示す3). 7 月に子どもと京都旅行という希望から,オペレータは「水遊びができる鴨川沿いの宿」というカスタマーが当初考えていなかった要件を引き出している. そして, 対話の最後では要件が箇条書きで 11 件列挙されている. ## 3 要約アノテーション  表 2 作成した要約文の例 (1) 発話文朝食はバイキング希望です。 自動要約文朝食が希望だ。要約文朝食はバイキング希望だ。 (2) 発話文夕食は外で食べる予定です。 自動要約文 [著者] が外で[不特定:人] に夕食を食べる。要約文夕食は外で食べる予定だ。 (3) 発話文それはとてもいいですね。 自動要約文それが良い。要約文水遊びができる鴨川沿いの宿がよい。 (4) 発話文知らなかったです。 自動要約文 [著者]が良いを知らない。 要約文鴨川で水遊びできるのを [customer] が知らなかつた。 ## 3.1 要約文の作成 カスタマーの各発話に対して,意図の解釈結果として「要約文」をアノテーションした。表 2 に例を示す. このアノテーションの前処理として, JUMAN++4) [1] (Revision.1ee40d7) と KNP5) (Revision.165d699a) [2] で発話文を述語項構造解析した. そして項構造から自然文へ変換する簡易的なルールを作り,各発話の 「自動要約文」を作成した。この自動要約文は流暢でなかったり, 意味的に誤っていたり, 省略の補完が不完全だったりするので,人手で修正し,常体で要約文を作成した。なお, 1 つの発話から複数の要  表 3 要約文と発話文の対応付けの例. 同じ番号を添えた下線で対応を示し, 生成に発話文外の情報を必要とする箇所にはネを付与している。 要約文朝食は1 (2) 発話文多食は 4 外で食べる 5 予定です6。要約文多食は 4 外で食べる 5 予定だ 6 。 (3) 発話文それは 7 とてもいいですね $_{8}$ 。要約文水遊びができる鴨川沿いの宿が7よい。 (4) 発話文知らなかったです。9 要約文鴨川で水遊びできるのをォ [customer]がォ知らなかった9。 表 4 要約文と要件の対応付けの例 (1) 要約文朝食はバイキング希望だ。要件食事は朝食のみで、バイキングを希望 (2)要約文夕食は外で食べる予定だ。要件食事は朝食のみで、バイキングを希望 (3) 要約文水遊びができる鴨川沿いの宿がよい。要件鴨川沿いの宿を希望 (4) 要約文鴨川で水遊びできるのを[customer] が知らなかつた。要件 約文が作られることもありうる。 表 2 において, (1), (2), (4) は, 項構造解析が誤っていたため修正した事例である。(3)は,照応表現「それ」を適切な先行詞に修正した事例である。 ## 3.2 要約文と発話文の対応付け 要約文と発話文の間で語句の対応付けを行った。表 3 に例を示す。対応付けの単位は要約文の述語と項を原則とした。例えば (3)では述語とその項の計 2 箇所それぞれに対応付けがなされている. 発話文での「いいですね」が要約分では簡潔に「よい」となっていることが分かる.また要約文の「水遊びができる鴨川沿いの宿が」は発話文の「それは」に対応しているが,この生成には発話文外の情報を必要とする。そのような生成に文外情報を必要とする箇所には印を別途付けた。 ## 3.3 要約文と要件の対応付け オペレータの列挙した要件と, 作成した要約文の対応付けを行った。表 4 に例を示す。多くは一対一対応しているが,(1) と (2)のように複数の要約文が同じ要件に対応していることがある。なお,(4)のようにどの要件にも対応していない要約文もあり得る.表 5 発話文と完全一致しない要約文箇所の例(抜粋) 表 6 要件との対応が無いまたは複数有る要約文の例 要約文対応する要件 (5) コネクティングルームが何か 知りたい。 (6) 食べるのが大好きだ。 (7) 高校からの友人 4 人で九州へ旅行へ行きたい。 -人数は大人 4 名 (8) 露天風呂があって、早朝も入 ・宿泊地は長崎か熊本 浴ができる旅館がよい。 ・宿は旅館 ・露天風呂がある ・早朝に入浴ができる ## 4 コーパスの分析 ## 4.1 要約文と発話文の対応の分析 発話文と要約文の対応付けは,75 対話 1,268 文の要約文に対して現在アノテーションを終えてい $3^{6)}$.これら要約文の全 3,724 箇所のうち生成に文外情報を必要としない箇所は 2,812 箇所, 必要とする箇所は 912 箇所だった。 前者の 2,812 箇所のうち, 発話の文字列と完全一致する箇所は 1,111 箇所,しない箇所は 1,701 箇所であった. 発話文箇所の異なり総数は 1,905 種類だったのが,対応する要約文箇所は 1,687 種類であった。完全一致はしない対応の例を表 5 に示す。「重視することは見られることです」という㔯長な表現が 「見たい」と簡潔に要約されていたり,「いいです」「いいですね」「助かります」など複数の表現が「良い」と要約されていることが分かる. 後者の 912 箇所のうち,694 箇所は発話文に対応する箇所が有った,例えば,ある「はい。」という発話の要約文は「温泉付きの宿で良い。」とアノテー ションされているが,これはオペレータの「お宿の 6)残りの要約文についても付与する予定である。 タイプは温泉付きの旅館でよろしいでしょうか?」 という発話に対する返答で,文脈が分からなければこの要約は生成できない。このように「良い」という要約でも発話によっては文外情報が生成に必要な場合があった。 後者の 912 箇所のうち, 218 箇所は発話文に対応する箇所が無かった。例えば,「お食事はいかがいたしましょうか?」というオペレータの質問に対するカスタマーの返答「夜はなくて大丈夫で、朝はあってもなくても大丈夫です。何か軽いもので問題ないです。」の第 2 文の要約文は「朝食は軽いものが良い。とアノテーションされていて,「朝食は」に対応する箇所は発話文内には無い。この「朝食は」 の生成には,文脈を理解した上で第 1 文の「朝」が 「朝食」を意味しているという推論が必要である. ## 4.2 要約文と要件の対応の分析 210 対話中カスタマーの発話 3,030 文にアノテー ションされている 3,282 の要約文のうち,2,634 文はオペレータが列挙した要件との対応が有った。一方, 648 文は対応が無かった。これは,カスタマー の質問や感想であるためであったり, 途中でその希望が破棄されたためであったりするなどの理由による。 要件との対応が無いまたは複数有る要約文の例を表 6 に示す.(5),(6) はカスタマーの質問や感想であったりして,要件とは関係ない要約文である。そのため対応する要件が無い. (7), (8) は対応する要件が複数有る要約文である. 要約文が対応している要件の数は, 619 文が 0 個,2,308 文が 1 個, 301 文が 2 個, 47 文が 3 個, 7 文が 4 個だった. ## 5 関連研究 ## 5.1 不動産検索対話コーパス 横野らは複数のアノテータが協力して擬似的に対話を収集する手法を提案し,物件を探す客と不動産業者の間での対話からなる, 不動産検索対話コーパスを構築した $[3,4]$. 福永らは沿線, 収納, 賃料, 間取りといった 38 種類のデータベースフィールドタグを不動産情報サイ卜 SUUMO で不動産を検索する際に指定可能な検索条件をもとに定義し, 不動産検索対話コーパスの各発話に対しアノテーションした $[5,6]$. 彼らはどのデータベースフィールドにも明示的に言及してい ない「一人暮らしをしたい」といったような情報を 「非明示条件」とよび,常識や経験的な知識により 「一人暮らしならば一般的に物件の間取りは $1 \mathrm{LDK}$以下である」ため「間取り $\leq 1 \mathrm{LDK}$ といったような検索条件に変換できるとした。 そして, 非明示条件を含む発話に対しても夕グをアノテーションした. さらに,夕グアノテーションの根拠となる単語もアノテーションした. 彼らは検索の要件をタグとフィールド値への変換して表現しょうとしているが,我々は自然文への変換(要約)で表現する点が異なる。カスタマーの希望は多種多様であるため, 事前定義した有限個の要件に変換するのは情報の欠損が大きいと考える。 ## 5.2 Kyutech Corpus Kyutech Corpus[7, 8] は 4 名の議論 9 回分の音声書き起こしである。コーパスの各転記単位 [9] には価格, 地域といった 28 種のトピックタグが少なくとも1つアノテーションされている。また,各対話につき 3 つの要約が 250 字以上 500 文字以内でア, テーションされている。これは,「対話の内容を知らない人が読んだ場合でも,議論の内容を理解できる」ことを趣旨として 3 人のアノテーションによりそれぞれ作成された。 山村らは要約文へトピックタグや各発話と対応の有無のアノテーションを Kyutech Corpus に行った $[10,11]$. また, 要約と対応付けされている発話文を重要文とし, 重要文抽出の実験も行った。彼らは抽象化したトピックタグを介して, 内容の一致箇所を分析しているが, 我々は具体的な一致語句をア, テーションすることにより分析した。これにより,要約の際にどのように抽象化が行われるかの詳しい分析が可能となった。 ## 6 おわりに 宿検索を目的とした対話においてカスタマーの希望がどのように具体的な要件として整理されていくのかを分析するため,対話デー夕を収集し,発話の要約文・要件との対応関係のアノテーションなどを行った. 今後は,構築したコーパスを用いて,要約文や要件の自動生成に取り組む予定である。 謝辞:アノテーションを行っていただき,多くの示唆に富んだご意見をくださった山下華代氏に感謝します。また,有益な助言していただいた荒瀬由紀准教授に感謝します。 ## 参考文献 [1] Arseny Tolmachev, Daisuke Kawahara, et al. Design and Structure of The Juman++ Morphological Analyzer Toolkit. 自然言語処理, Vol. 27, No. 1, pp. 89-132, 2020. [2] 河原大輔, 黒橋禎夫. 自動構築した格フレーム辞書と先行詞の位置選好順序を用いた省略解析. 自然言語処理, Vol. 11, No. 3, pp. 3-19, 2004. [3] 横野光, 高橋哲朗. クラウドソーシングを用いた対話コーパス構築. 言語処理学会年次大会, pp. 783-786, 2017. [4] Tetsuro Takahashi and Hikaru Yokono. Two person dialogue corpus made by multiple crowd-workers. In Proceedings of the 8th International Workshop on Spoken Dialogue Systems, 2017. [5] Shun-ya Fukunaga, Hitoshi Nishikawa, et al. Analysis of Implicit Conditions in Database Search Dialogues. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation, pp. 2741-2745, 2018. [6] 福永隼也, 西川仁ほか. タスク指向対話におけるユーザ要求の理解とその根拠の抽出. 自然言語処理, Vol. 26, No. 1, pp. 121-154, 2019. [7] 嶋田和孝, 山村崇ほか. Kyutech コーパス:意思決定タスクを対象とした複数人対話コーパス. 言語処理学会年次大会, pp. 1097-1100, 2016. [8] Takashi Yamamura, Kazutaka Shimada, et al. The Kyutech corpus and topic segmentation using a combined method. In Proceedings of the 12th Workshop on Asian Language Resources, pp. 95-104, 2016. [9] 小磯花絵, 西川賢哉ほか. 転記テキスト. 国立国語研究所報告 No. 124 日本語話し言葉コーパスの構築法, pp. 23-132. 2006. [10] 山村崇, 嶋田和孝. Kyutech コーパスにおける抜粋要約のアノテーションと分析. 言語処理学会年次大会, pp. 146-149, 2017. [11] Takashi Yamamura and Kazutaka Shimada. Annotation and Analysis of Extractive Summaries for the Kyutech Corpus. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation, pp. 3216-3220, 2018
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-6.pdf
# レシピ解析の現状と課題: Cookpad Parsed Corpus を例として 平松淳 原島 純 クックパッド株式会社 \{himkt, jun-harashima\}@cookpad.com ## 1 はじめに インターネット上にレシピを投稿する行為が一般的になり,計算機で処理できる電子化されたレシピが増加している。これにより, レシピデータの解析への注目が高まり,様々なデータセットが整備されている $[1,2,3]$. レシピデータが公開されたことで, データを利用した応用的な研究トピックにも関心が集まり, レシピ検索 $[3,4]$, レシピ生成 $[5,6]$, レシピ質問応答 [7], そしてカロリー推定 [8] のような応用的なタスクも提案されている。 レシピ研究が活発になった一方,レシピテキストを解析するための基礎的な言語資源は未だ充分に整備されていない. 利用可能な既存の言語資源の多くは新聞記事データなどを基に構築されている $[9,10]$ が,レシピテキストにはこのようなデータには出現しない用語が数多く存在する。例えば「炒める」「募込む」のような調理動作に関する表現は新聞記事にあまり出現しない. また,「おにぎらず」のような新語も日々レシピテキストの中で誕生している.このような用語を含むレシピドメインのコーパスを構築し, 言語解析器を開発することで, レシピ解析の精度を改善できると考えられる。 この課題に対し, 著者ら [11] は Cookpad Parsed Corpus (CPC) を提案した. CPC にはレシピサービスのクックパッド ${ }^{11}$ に投稿されたレシピから無作為に抽出した 500 品のデータが含まれており, 各レシピのタイトルおよび調理手順に形態素, 固有表現, そして係り受けの情報が付与されている. 本稿では, CPC のアノテーション情報について簡単に解説し,CPCを用いたベンチマーク実験の設定・結果を報告する.その後,各実験において明らかになったレシピ解析の現状と課題について考察する. また, 本研究で使用したソースコードおよび Dockerfileを GitHub ${ }^{2)}$ で公開する.  ## 2 関連研究 日本語のレシピドメインの言語資源に関する研究として, Mori ら [12]によるフローグラフコーパスが存在する. Mori らはクックパッドに投稿されたレシピから 266 品のレシピを抽出し, 調理手順のテキストに対してグラフ形式の情報を付与した $\mathrm{r}$ - $\mathrm{FG}$ コーパスを提案した. Yamakata ら [13] も英語のレシピで同様のコーパスを提案している。 また, 笹田ら [14] はクックパッドから無作為に抽出した 436 件のレシピに対し, Mori らの研究で定義された固有表現タグに基づく固有表現情報を付与した。 言語以外のデータセットとして,西村ら [15] は r-FGコーパスを基に,各レシピの画像に対してバウンディングボックスを付与し, r-FGコーパス中の料理用語に対応させた r-FG-BB データセットを提案した. 西村らはレシピ画像中のバウンディングボックスが示すエンティティをレシピテキスト中から発見するタスクに取り組み,レシピにおける言語と画像を組み合わせた研究の可能性を示した。 これに対し, CPC は 500 品のレシピに対して形態素,固有表現,係り受けの情報を付与した. CPC は Cookpad Recipe Dataset (CRD) [2] から無作為に抽出した 500 レシピに対してアノテーションを実施している.さらに, CPC は Cookpad Image Dataset (CID) [16] と互換性がある. CID は CRD に含まれるレシピについて, 完成写真, および調理手順写真 474 万枚の画像を収録したデータセットである. CPC と CIDを組み合わせることで,言語と画像を組み合わせた研究が可能である. ## 3 Cookpad Parsed Corpus CPC では図 1 のようなフォーマットでアノテー ションが実施されている.1つの調理手順 (Step) は複数の文を含む可能性があるため,Step の中に Sentence が存在する. 本章では CPC の形態素, 固有表現,そして係り受け情報について簡単に述べる。 図 1: CPC のアノテーション例 表 1: 固有表現タグの一覧 ## 3.1 形態素 CPC のテキストには IPA 品詞体型をベースにした形態素情報が付与されている. 形態素のアノテー ション作業は文の分割,自動解析,そして解析結果の修正の 3 ステップで実施した. まず人手で文境界の判定を実施した. その後,各文を MeCab [17] および mecab-ipadic を用いて解析した. 最後に解析結果を人手で確認し,誤った形態素情報を修正した. ## 3.2 固有表現 レシピテキストには様々な料理ドメインの用語が出現する. 食材, 調理器具, 調理動作 (例. 切る, 煮表 2: 実験データの統計量 る, 炒める),分量・時間 (例. $200 \mathrm{~g}, 1$ カップ, 1 時間,冷めるまで) など,多様な用語が存在する。 CPC では笹田ら [14] の用語タグを参考に表 1 に示すような用語タグを定義した. CPC の用語タグは笹田らが定義したものより細分化されている. 例えば,笹田らのコーパスでは食材を表すタグは “F”であるが, CPC では “Fi”,“Fe”などのタグの細分化されたタグを定義している。これは,レシピ中に出現する食材の中には調理中に除去される部分(例. 魚の「わた」)が存在し,それらは調理中に使われる材料とは区別すべきであると考えたためである. 固有表現のアノテーションはIOB2 形式で実施されている. 図 1 のように,各形態素に対して “B-Fi” "I-Fi" “O"のようなタグが付与されている. ## 3.3 係り受け CPC のテキストには文節同士の係り受け情報も付与されている。図 1 の例において,各文節の先頭には“*”から始まる行が存在し,文節の ID (0 オリジン), 係り先文節 ID + 係り受けラベル, 主辞/機能語フィールド, 文節ラベルの情報が記述されている.係り受けのアノテーションは自動解析と結果の修正からなる 2 ステップで実施した. はじめにテキストを CaboCha [18] で解析し,その後誤った文節の区切りおよび係り受けを人手で修正した。 ## 4 実験 本章では CPC のベンチマークタスクの実験設定, およびそれぞれの結果について報告する.実験の際は CPC を訓練・検証・評価のために 3 つに分割しており,各データに含まれる文,形態素,固有表現, そして文節の数は表 2 に示す通りである。 ## 4.1 形態素解析 形態素解析の実験には MeCab [17]を利用した. 辞書として mecab-ipadic および mecab-ipadic をべースに CPC でパラメータを再学習した mecab-ipadic-cpc 表 3: 形態素解析の実験結果 の2つを用意し,性能を比較した。 実験結果を表 3 に示す。評価指標は単語分割の精度・再現率・ $\mathrm{F}$ 値,および単語の素性の完全一致の精度・再現率・ $\mathrm{F}$ 值とした. ここで,単語の素性とは単語の読み, 品詞, 活用形などの情報を指す. 単語分割・素性完全一致両者の指標において, mecab-ipadic-cpc が mecab-ipadic を上回っている.この結果から, CPC の有用性が確認できた。 一方で, Kudo ら [17] は新聞記事を基にして構築されたコーパスにおいて同様の実験を実施し,素性完全一致の評価で 96 ポイント以上の精度を報告している.このことから,レシピテキストの形態素解析にはまだ改善の余地があることが示唆される。 mecab-ipadic-cpc の解析結果について調査したところ,カタカナの単語のひらがな表記や略語を含む誤りが存在することがわかった.「チーズクリー ムサラミあすぱらパスタ」というレシピタイトルを例に挙げる. mecab-ipadic-cpc はこれを「チーズ/ クリーム/サラミ/あす/ぱら/パスタ」と分割した.「あすぱら」は本来 1 単語になるべきだが,「あす(明日)」が辞書に含まれていたため,このように 2つの形態素に分離してしまったと考えられる. 略語を含む誤りの例として「新じゃがは $2 \sim 3$ 等分に切る」というレシピテキストの解析結果を示す. mecab-ipadic-cpc はこのテキストを「新/じゃが /は/ 2 /〜/3 /等分/に/切る」と正しく分割した.しかしながら,素性をみると「じゃが」の品詞として「接続詞」が予測されていた. これは解析器が「じゃが(じゃがいも)」を「〜じゃが」のような逆接の接続詞として認識した結果である. CPCを用いた再学習の有用性は示された一方, ユーザ投稿型レシピサービス特有の難しさも明らかになった. ## 4.2 固有表現抽出 CPC の固有表現タグに基づいて訓練された既存の固有表現抽出モデルは存在しない. このため, 既存の 2 種類の手法を用いてモデルを訓練し,参考値としてそれぞれのモデルの性能を報告する。表 4: 固有表現抽出の実験結果 表 5: 係り受け解析の実験結果 1つ目の手法は PWNER [19]である. PWNER は点推定と動的計画法に基づく手法であり。笹田ら [14] によるレシピ用語の抽出の研究で利用されている。本研究における実験では,パラメータはすべてデフォルトのものを利用した。 もう1つの手法は BiLSTM-CRF [20] である. BiLSTM-CRF の実装は pyner [21]を利用した. BiLSTM-CRF には文字レベルの特徴量と単語レベルの特徴量が存在する. 文字レベルの特徴量については 25 次元の文字分散表現を 50 次元の Bi-LSTM に入力して抽出し, 単語レベルの特徵量については文字レベルの特徴量と 100 次元の単語分散表現を結合した 150 次元の特徴ベクトルを 200 次元の Bi-LSTM に入力して抽出している. モデルの訓練には SGD を利用し,学習率は 0.01 ,バッチサイズは 10 に設定した. また,勾配のクリッピングを実施しており,しきい値は 5.0 とした. 実験結果を表 4 に示す。評価指標は単語レベルの正解率,フレーズレベルの精度・再現率・ $\mathrm{F}$ 値である. フレーズレベルの指標については各固有表現タグの指標の平均をとる. BiLSTM-CRF が PWNER よりよい性能を発揮していることが確認できる. BiLSTM-CRFがどのような入力に対して誤った予測をしているのか調査したところ,特に未知語を含む固有表現の抽出に失敗していることがわかった.例えば,「トマト/の/水蔒/缶/を/加える/と/、 /気分/が/変わり/ます」という文の「気分」に対して,BiLSTM-CRF は「Fa (食材の状態)」のカテゴリを予測していた。「気分」はレシピ作者の感情で 表 6: アノテーション誤りの例 (“/l” は文節の区切りを表す) & & & \\ あり,該当する固有表現タグは存在しないため,本来は「O」と予測するべきであった.「気分」は CPC にほとんど出現しない単語だったため未知語であり,BiLSTM-CRF には「(食材の) 色が変わる」のような表現と区別できなかったためにこのような予測誤りをしたと考えられる。BiLSTM-CRFが予測誤りをしたフレーズは 301 件あり,このうち 109 件は 1 つ以上の未知語を含むフレーズであった. ## 4.3 係り受け解析 係り受け解析の実験には CaboCha [18] を利用した. CaboCha 付属のモデル,および付属モデルのパラメータを CPC で再学習したモデルを比較した. ${ }^{3)}$再学習にはデフォルトのパラメータを利用した。 実験結果を表 5 に示す。評価指標は全文節の係り受け正解率 (level0),最後の文節以外の正解率 (level1), 最後および最後から 2 番目以外の文節の正解率 (level2), 文全体での正解率 (sentence) である.末尾の文節,およびその前の文節は係り先の推定が容易であるため,それらを除外した level1 および level2 の正解率は level0 と比較すると低いことが確認できる.すべての評価方法において,CPC で再学習したモデルの正解率が学習済みモデルの正解率を上回っており, CPC の有用性が確認できた。なお,解析誤りを調査したが形態素解析や固有表現抽出のようなレシピ特有の誤りは見つからなかった. ## 5 分野固有のアノテーションミス CPC のアノテーション結果を見直したところ,少ないながら表 6 のようなアノテーション誤りを発見した。誤りは大きく分けると文節境界に関わるもの  と文境界に関わるものの 2 種類が存在した. 1 つ目の例は「長ネギを並べてワインコンソメを入れて」という文を「長ネギを/並べて/ワインコンソメを/入れて」のような文節に分割している. しかしながら,レシピの材料闌を確認したところ 「ワイン」「コンソメ」は独立した材料であり,実際には「長ネギを/並べて/ワイン/コンソメを/入れて」のような文節に分割しなければならなかった。 2 つ目の例は文境界に関する誤りである。「電子レンジ (600w 設定) で焼く [EOS] 4~5 分ほど加熱処理をしておく」と2つの文に分割されているが,「焼く」は「約」の誤りであり,正しくは「電子レンジ (600w 設定) で焼く (約) 4 5 分ほど加熱処理をしておく」となるべきであった.調理手順で実際に食材を加熱しており「焼く」と誤字があっても意味が成立してしまっていた。また,後続の文も単体で成立しており,発見しにくい誤りであった. 現在公開されている CPC (version 1.0)ではこれらのアノテーション誤りはそのまま残されているが,今後のバージョンアップ時に修正する予定である. ## 6 結論 本研究では $\mathrm{CPC}$ を用いて実施したレシピ解析について,実験の詳細を述べ,現状と課題を報告した. CPCを用いた解析器の再学習によって各タスクの性能が改善し,CPC の有用性が確認された。 また,各タスクの実験結果のエラー分析を実施し,形態素解析,固有表現抽出でレシピ固有の解析誤りを発見した. さらに,料理の知識,およびレシピ特有のひらがな表記や略語に関する知識が必要となるアノテーションが難しい事例を発見した. 今後もこれらの事例を活用し,CPC の拡充およびレシピ解析の改善に取り組む予定である。 ## 参考文献 [1]Dan Tasse and Noah A. Smith. SOUR CREAM: Toward Semantic Processing of Recipes. Technical report, Carnegie Mellon University, 2008. [2]Jun Harashima, Michiaki Ariga, Kenta Murata, and Masayuki Ioki. A Large-scale Recipe and Meal Data Collection as Infrastructure for Food Research. In Proceedings of the 10th International Conference on Language Resources and Evaluation (LREC 2016), pp. 2455-2459, 2016. [3]Amaia Salvador, Nicholas Hynes, Yusuf Aytar, Javier Marin, Ferda Ofli, Ingmar Weber, and Antonio Torralba. Learning Cross-modal Embeddings for Cooking Recipes and Food Images. In Proceedings of the 2017 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2017), pp. 3020-3028, 2017. [4]Micael Carvalho, Rémi Cadène, David Picard, Laure Soulier, Nicolas Thome, and Matthieu Cord. Cross-Modal Retrieval in the Cooking Context: Learning Semantic Text-Image Embeddings. In Proceedings of the 41th International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR 2018), pp. 35-44, 2018. [5]Chloé Kiddon, Luke Zettlemoyer, and Yejin Choi. Globally Coherent Text Generation with Neural Checklist Models. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing (EMNLP 2016), pp. 329-339, 2016. [6]Amaia Salvador, Michal Drozdzal, Xavier Giro i Nieto, and Adriana Romero. Inverse Cooking: Recipe Generation from Food Images. In Proceedings of the 2019 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2019), 2019. [7]Semih Yagcioglu, Aykut Erdem, Erkut Erdem, and Nazli Ikizler-Cinbis. RecipeQA: A Challenge Dataset for Multimodal Comprehension of Cooking Recipes. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing (EMNLP 2018), pp. 1358-1368, 2018. [8]Jun Harashima, Makoto Hiramatsu, and Satoshi Sanjo. Calorie Estimation in a Real-World Recipe Service. In Proceedings of the 32nd Annual Conference on Innovative Applications of Artificial Intelligence (IAAI-20), pp. 13306-13313, 2020. [9]Daisuke Kawahara, Sadao Kurohashi, and Kôiti Hashida. Construction of a Japanese Relevance-tagged Corpus. In Proceedings of the 3rd International Conference on Language Resources and Evaluation (LREC 2002), pp. 20082013, 2002. [10]Ryu Iida, Mamoru Komachi, Kentaro Inui, and Yuji Matsumoto. Annotating a Japanese text corpus with predicateargument and coreference relations. In Proceedings of the Linguistic Annotation Workshop (LAW 2007), pp. 132-139, 2007. [11]Jun Harashima and Makoto Hiramatsu. Cookpad Parsed Corpus: Linguistic Annotations of Japanese Recipes. In Proceedings of the 14th Linguistic Annotation Workshop (LAW 2020), pp. 87-92, 2020. [12]Shinsuke Mori, Hirokuni Maeta, Yoko Yamakata, and Tetsuro Sasada. Flow Graph Corpus from Recipe Texts. In Proceedings of the 9th International Conference on Language Resources and Evaluation (LREC 2014), pp. 23702377, 2014. [13]Yoko Yamakata, Shinsuke Mori, and John Carroll. English recipe flow graph corpus. In Proceedings of The 12th Language Resources and Evaluation Conference (LREC 2020), pp. 5187-5194, 2020. [14]Tetsuro Sasada, Shinsuke Mori, Tatsuya Kawahara, and Yoko Yamakata. Named Entity Recognizer Trainable from Partially Annotated Data. In Proceedings of the 14th International Conference of the Pacific Association for Computational Linguistics (PACLING 2015), pp. 148-160, 2015. [15]Taichi Nishimura, Suzushi Tomori, Hayato Hashimoto, Atsushi Hashimoto, Yoko Yamakata, Jun Harashima, Yoshitaka Ushiku, and Shinsuke Mori. Visual grounding annotation of recipe flow graph. In Proceedings of the 12th Language Resources and Evaluation Conference (LREC 2020), pp. 42754284, 2020. [16]Jun Harashima, Yuichiro Someya, and Yohei Kikuta. Cookpad Image Dataset: An Image Collection as Infrastructure for Food Research. In Proceedings of the 40th International ACM SIGIR Conference on Research and Development in Information Retrieval (SIGIR 2017), pp. 1229-1232, 2017. [17]Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to japanese morphological analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing (EMNLP 2004), pp. 230-237, 2004. [18]Taku Kudo and Yuji Matsumoto. Japanese dependency analysis using cascaded chunking. In Proceedings of the 6th Conference on Natural Language Learning 2002 (CoNLL2002), 2002. [19]PWNER. http://www. lsta.media.kyoto-u.ac.jp/ resource/tool/PWNER/. Accessed: 2021-01-09. [20]Guillaume Lample, Miguel Ballesteros, Sandeep Subramanian, Kazuya Kawakami, and Chris Dyer. Neural Architectures for Named Entity Recognition. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT 2016), pp. 260-270, 2016. [21]pyner. https::/github.com/himkt/pyner. Accessed: 2021-01-09.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-7.pdf
# Wikipedia を用いた日本語の固有表現抽出のデータセットの構築 近江崇宏 ストックマーク株式会社 takahiro.omi@stockmark.co.jp ## 1 はじめに 固有表現抽出(認識)は,人名・組織名といった固有名詞や日付,数値表現を抽出する自然言語処理の基本的な技術である. 固有表現抽出は文章の構造化や,人名などのプライバシーに関わる部分のマスキングなどの応用が考えられる。 固有表現抽出器の作成には,コーパスに対して固有表現を付与したデータセットが必要になる. 日本語のデータセットに関しては、広く公開されているものとして(無料であり、利用に登録などが必要のないもの),京都大学ウェブ文書リードコーパス [1] や, UD_Japanese-GSD データセット [2]に対して固有表現情報を付与したもの[3] などがある。我々は最近新たにWikipediaを用いて日本語の固有表現抽出のためのデータセットを構築して、公開を行った [4]. 本論文の主目的は, まずこのデータセットについての詳細な内容を記述することである. また,このデータセットから BERT[5]をファインチユーニングした固有表現抽出器を作成し, その性能の評価も行う。 ## 2 データセット ## 2. 1 固有表現の種類 本データセットでは, 応用上重要な固有名詞のみを扱った. 日付や数値表現については,今後取り入れていくことを検討している。データセットで扱われている固有表現のカテゴリーは「人名」,「法人名」,「政治的組織名」,「その他の組織名」,「地名」,「施設名」,「製品名」,「イベント名」の 8 種類であり,その概要は表 1 にまとめられている。 それぞれのカテゴリーに対応する, 関根の拡張固有表現階層[6]で定義されている固有表現の種類についても,表 1 にまとめられている. ## 2. 2 データセットの作成 本データセットは日本語版の Wikipediaを用いて作成された。まず,各記事から Wikiextractor [7] を用いて本文を抽出し,本文を文単位に分割し,前処理を行った. 前処理の具体的な内容は, 文字列の正規化 (NFKC), 括弧の削除である. その後, 効率的にアノテーションを行うため,ストックマーク社作成の固有表現抽出器(非公開)を用いて, 固有表現抽出を行い,何らかの固有表現が含まれていると判定された文を選び出し,人の手によるアノテーションを行った. また固有表現の各カテゴリーで固有表現が 1000 以上含まれるような調整も行った. 最終的には,4859 文に対してアノテーションを行い,その中に含まれる各カテゴリーの固有表現数は表 1 にまとめられている。また, 負例として, 固有表現が含まれていないデータも 484 文加えたため, データセットに含まれる文の合計は 5343 である. ## 2.3 データセットの公開 データセットはまず,バージョン 1 として 2020/12/15に[4]において公開された. その後, デ一夕の修正及び追加を行い, バージョン 2 が作成された. 今回の論文はこのバージョン 2 について記述する. バージョン 2 も同一のレポジトリで公開される予定である. ## 3 BERT を用いた固有表現抽出器の性 ## 能評価 この章では,本データセットにより, どの程度の性能の固有表現抽出器が作成できるかを定量的に評価する。そのために,BERT[5]を用いて実験を行なつた. ここでは試行毎にデータセットからランダムに選び出された 8 割のデータを用いて BERT をファインチューニングし,残りの 2 割のデータをテストデ一夕として用いて, ファインチューニングされた BERT の性能を評価した。表 2 は適合率, 再現率, $\mathrm{F}$ \\ 表 1 : 固有表現のカテゴリー 表 2 : BERTを用いた固有表現抽出の性能評価 値を固有表現のカテゴリー毎と全体で調べた結果である(数値は 10 回の試行の平均値である).カテゴリー全体での $\mathrm{F}$ 值は 86\%程度であった.基本的にはデータセットに含まれる固有表現の数が多いカテゴリーほど $\mathrm{F}$ 值が高い傾向がある。概初 2000 以上の固有表現が含まれるカテゴリー(人名,法人名,地名)では $\mathrm{F}$ 値が約 $90 \%$ であった. それ以外の,約 1000 程度の固有表現が含まれるカテゴリーでは概将,F 值は約 $80 \%$ 程度であったが,製品名のカテゴリーだけは $\mathrm{F}$ 值が $73 \%$ であった.各カテゴリーの固有表現抽出の難易度により $\mathrm{F}$ 値はばらつくが,デー タセットに固有表現が約 1000 含まれているカテゴリーでは $\mathrm{F}$ 值は 80\%程度, 2000 以上含まれているカテゴリーでは $\mathrm{F}$ 值が $90 \%$ 程度になると,この結果からは類推される。これは目的に応じて, どの程度の規模のデータセットを作れば良いかということに一つの目安を与えると考えられる。 ## 4 まとめ 本論文では Wikipedia を用いた日本語の固有表現抽出のためのデータセットについて詳細な記述を与えるとともに,本データセットを用いた時に,どの程度の性能の固有表現抽出器が作成できるかについても,BERTを用いて評価を行った。 ## 参考文献 1. 萩行正嗣, 河原大輔, 黑橋禎夫.多様な文書の書き始めに対する意味関係タグ付きコーパスの構築とその分析,自然言語処理,Vol. 21,No. 2, pp. 213-248, 2014. http://nlp. ist.i.kyotou. ac. jp/?KWDLC 2. 浅原正幸,金山博,宮尾祐介,田中貴秋,大村舞, 村脇有吾, 松本裕治. Universal Dependencies 日本語コーパス, 自然言語処理, Vol 26, No. 1, pp. 3-36, 2019. https://universaldependencies. org/treebanks/ja gsd/index. html 3. 松田宽, 若狭絢, 山下華代, 大村舞, 浅原正幸. UD Japanese GSD の再整備と固有表現情報付与, 言語処理学会第 26 回年次大会発表論文集 https://github.com/megagonlabs/UD_Japanese-- GSD/releases/tag/v2. 6-NE 4. https://github.com/stockmarkteam/ner- wikipedia-dataset 5. Devlin, Jacob, et al., "Bert: Pre-training of deep bidirectional transformers for langua ge understanding." arXiv preprint arXiv:1810. 04805 (2018). 6. Sekine, Satoshi, Kiyoshi Sudo, and Chikashi Nobata. "Extended Named Entity Hierarchy." LR EC. 2002. 7. https://github.com/attardi/wikiextractor
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-8.pdf
# 論述への説明性の高いフィードバック提示に向けた コーパスの試作 内藤昭一 ${ }^{1,2}$ 澤田慎太郎 ${ }^{3}$ 中川智皓 3 井之上直也 ${ }^{2,4}$ 乾健太郎 5,2 1 株式会社リコー 2 理化学研究所 3 大阪府立大学 ${ }^{4}$ Stony Brook University ${ }^{5}$ 東北大学 shohichi.naitoh@jp.ricoh.com \{szb03072@edu,chihiro@me\}.osakafu-u.ac.jp naoya. inoue. lab@gmail.com inui@ecei.tohoku.ac.jp ## 1 はじめに 批判的思考力の育成は国家の最重要課題の一つとなっている.従来は人手によるフィードバックに頼っていたが,我々はこれを自動化することを目指している。これにより,人的負荷,生徒の自主学習ができるようになることが期待される. 批判的思考力の育成では, 学習者の論述に対して論理構造の観点からのフィードバックを与える. 例えば,説得力を高めるために何に言及すれば良いか,立論に噛み合った反論になっているか,論理の飛躍がないか,といったものである.このようなフィードバックを提示する際には,フィードバックだけでなく,その根拠を同時に提示することが効果的だと考えられる。すなわち,システムが学習者の論述構造をどのように解釈し,どの部分が弱いと捉えたのかという判断の過程をともに提示するということである.例えば,図 1 のディベートでは,否定側の反論は,肯定側の論理を突くというよりは,単に論題を否定しているだけである.こうした状況に対して,「あなたの反論は肯定側の論理を突いていません」とフィードバックするだけでなく,(1)その論理構造を提示した上で,(2)「家で勉強する習慣のない生徒の成績が下がる」ことが肯定側の立論を攻撃できていないということを指摘し,さらに (3)肯定側の主張「自由に使える時間が増える」に対するデメリットに言及すれば論述を改善できる,ということをセットでフィードバックするほうが学習効果が高いと考えられる. こうしたフィードバックを行うモデルの構築・評価には,論述とその論述構造,及びそれに対するフィードバックを重層的に付与したコーパスが必要である.2 節で詳述するが,先行研究では,こうし論題: 宿題を廃止すべきか? 肯定側の立論否定側の反論 宿題を廃止すべきだ。なぜなら、自由に使える時間が増えるからだ空いた時間で部活やボランティア、㖩味など人生を上以充䒠させる活動ができるようになる。 宿題を廃止すると、学校で習ったことを復習する機会がなくなる。家で勉強する習慣のない生徒は成績が下がることにつながる ## 否定側の反論 へのフィードバック 立論の「自由時間が増える」という主張に対する直接的な反論がないので、自由時間が増えることによるデメリットに言及すると、より良いでしょう。 ## フィードバックの根拠 図 1 論述へのフィードバックとその根拠の提示 たフィードバックを実現するためのデータセットは存在していない。そこで我々は,一論題について複数の論述を収集し,そこにフィードバックとその根拠となる論述構造を重層的に付与したコーパスを構築することを目指している。 本論文はその最初のステップとして,コーパスの設計方針について論じ,一つの論題に対する試作的アノテーションを行った結果を通して,課題と次のステップについて論じる。また,低コスト・短時間で他の論題へ横展開していくため,クラウドソーシングによる論述構造のアノテーション品質について検証する。 ## 論述構造 ## 主張 (Claim) However, what students will do during free time is just playing games and chatting using SNS in most cases or just sleeping as they said. 前提 (Premise) It is because human is lazy in nature. Doing hard thing is usually difficult. Then, many students will not study at home. ## フィードバック 改善点 (Suggestion) ゲームをしたり、チャットをしたりすることがい かに悪いことか、を説明できるとよりよいです 良い点 (Good point) 人間は元来急けてしまう性質があるという分析はよかったです 図 2 論述構造とフィードバックの重層的なアノテーション ## 2 関連研究 論述の評価に関する一般的な研究として,エッセイスコアリングがある. [1,2] は,エッセイに対し $\tau$, Organization や Argument Strength など特定の観点のスコアをアノテートし,スコアを予測するモデルを提案している. [3] は, 評価の観点を包括的に調査し, 15 個の観点についてスコアをアノテートしたコーパスを作成している. [4] は Persuasive Essay Corpus に対して, [5] は ICLE に対して, 複数の観点のスコアをアノテートしている。特に,[4] はエッセイ全体ではなく, 論述要素という詳細な単位を対象としている. これらの研究は, 特定の観点の評価が定量的に分かる点で優れているが,なぜ改善が必要か,どのように改善すれば良いかを伝えるという点では自然文によるフィードバックの方が適していると考える. そのため, 本研究ではフィードバックの提示に焦点を当てる. 論述にフィードバックを与える研究として,ユー ザが作成した論述に対して反論を与える研究 $[6,7]$ が存在する. 反論を論理の弱い点への指摘と捉えれば,一種のフィードバックと考えることができる. [6] は,論述が含む詭弁の種類と反論をアノテートしたデータセットを作成し, Sequence-to-Sequence モデルによる反論の生成を検証している. [7] は,論述の集合から反論を検索するアプローチをとっている. 同じ論点に対して反対のスタンスをとる論述を反論とし, 単語の類似度と非類似度から反論としての適切さをスコアリングするモデルを提案している. しかし, これらの研究では, 論述構造を捉えた上で反論の生成,検索が実現できているわけではない. 論述構造を活かしたフィードバックを与える研究 としては,主張を裏付ける前提の不足を指摘する研究が存在する $[8,9]$. これらの研究では論述構造を解析し,主張を支持する前提の数が不足している場合に,前提の追加を促すフィードバックを行う.本研究では, 説得力を高めるためにはどのような内容の前提に言及すべきかという,より内容に踏み込んだフィードバックの実現を目指す. ## 3 論述文の収集 本研究では,論述構造に基づくフィードバックを提示するため, 図 2 に示すように,ディベートにおける反論に対して論述構造とフィードバックを重層的に付与したコーパスを構築する. 本節では,まず付与の対象とする論述文について説明する. 4 節, 5 節では, 論述構造・フィードバックのアノテー ションの仕様および試験的なアノテーション結果についてそれぞれ報告する。 ## 3.1 対象とする論述文 論述文の種類: ディベートにおける反論を付与対象とする. 反論を述べるためには,まず相手の論理構造を理解し,これに対してどこに反論をするのが効果的かを見極めた上で,さらに説得力のある反論を構築していく能力が要求される. こうした対話的な議論の練習は批判的思考力の育成のための恰好の題材となっており [10], 計算機によるフィードバックができるようになることで,幅広い応用が可能になると考えられる.なお,一般的にディベートは複数のチームがある論題について応酬を繰り返す形であるが,本研究では,図 1 のように肯定側と否定側の 2 チームに分かれ, 肯定側の立論に対して直接反論している反論を対象とする. また,ディベー 卜は一般的に口頭で行われるが,本研究では初めか ら書き言葉で書かれた論述を対象とする. 音声認識誤りの問題を切り分けて考えるためである. 論題あたりのデータ量: 図1のような論述構造に基づくフィードバックの自動化を実現するためには,論述構造を正確に解析する必要がある.このためには,論題に典型的に出現する反論の論述構造をカバーするコーパスをつくることが望ましい. 既存の論述構造付きのコーパスでは,より多くの論題をカバーする方針が取られているため,ひとつの論題あたりの論述数が少ない傾向にある. しかしながら,これでは論題に頻出する典型的な論述のパタンを補足するのは難しいと考えられる。 そこで本研究では,ひとつの論題あたり,数百件規模の論述を収集する。一つの論題について考えると, 頻出する反論のパターンはある程度絞ることができるはずである.例えば,宿題を廃止すべきという論題においては,図 1 のような議論のほか,肯定側の立論:「強制することで勉強が嫌いになる」-否定側の反論:「マネジメントスキルが身につく」や,肯定側の立論:「教員の負担を減らす」-否定側の反論「生徒がどれほど授業を理解したかわからない」 といったパタンが頻出すると考えられる。 もちろん,一つの論題に関して重点的にデータを収集する分,他の論題へ横展開するためのコストは他のコーパスに比べて高い. しかし, 実際の利用シーンを考えてみると,いくつかの論題についてコーパスを構築できれば直ちに応用が可能な場面は多いと考えられる. 例えば,高等学校の授業での利用を考えると,5つの論題があれば十分に利用価值があるかもしれない. クラスごとに論題が異なっている必要はなく,またこれを毎年変更する必要もないからである. また,フィードバックモデルの利用が広がっていくと,新たな論述文が自動的に集まってきてフィードバックモデルの精度が上がるというエコシステムを形成できる可能性も出てくる. ## 3.2 データ収集 3.1 節で述べた基本方針に適するものとして,一般社団法人パーラメンタリーディベート人財育成協会1) (PDA) が提案する即興型パーラメンタリーディベート [10] がある. PDA のパーラメンタリーディベートは,肯定側 3 名と否定側 3 名に分かれ,与えられた論題に対して英語で議論をする. 各スピーカごとに話すべき内容の大枠が決まっており,立論や  表 1 論述要素のタイプ 反論,再構築といったパートが設けられている. 論題 “Homework should be abolished” について 5 つの論点の立論を用意し,PDAに所属するスタッフ, Amazon Mechanical Turk のワーカより, それぞれの立論に対して 100 件ずつ反論を集めた (詳細は付録 A. 2 に記載). 内訳は PDA スタッフが 250 件, Amazon Mechanical Turk のワーカが 250 件で,合計で 500 件となる. ## 4 論述構造のアノテーション ## 4.1 アノテーションスキーム 既存の代表的なスキーム $[11,12,13]$ は,節を論述要素の最小単位とし, 論述要素のタイプ (主張や前提など) と要素間の関係 (支持や攻撃など)をア) テートしている。しかし,フィードバックを与えるという目的に対して,このような粒度の細かい論述構造が必須かは自明でない. 論述構造のアノテー ションはコストが高いため,より簡略化したスキー ムで十分なのであれば,そちらの方が望ましい。そこで,本研究では既存のスキームを簡略化したものをべースとし,実際に付与されたフィードバックを踏まえ,必要に応じて詳細化していく方針をとる。 論述要素の単位は文とし,それぞれの論述要素に対して表 1 に示すタイプを付与する.厳密には前提の中にも,前提に対する前提という階層構造が存在する. しかし, 本研究ではそのような場合でも,ひとつの前提としてまとめて捉える.また, 反論内部の要素間の関係については支持のみをアノテートする. すなわち, 攻撃の関係が現れるのは,立論と反論の間だけとなる。 ## 4.2 アノテーションの方法 別の論題へ横展開をするにあたり,クラウドソー シングを利用することで,低コスト・短時間で拡張できるのが望ましい,そこで,論述構造に関して, クラウドソーシングを利用した場合の論述構造のアノテーション品質を検証する。 表 2 フィードバックのカテゴリと実例 & \\ 4.1 節で述べた論述構造のスキームに従い,収集した 500 件のデータ (表 3) に対してアノテーションを実施する. アノテーションのインターフェースは付録 A. 1 に記載している. クラウドソーシングのプラットフォームには Amazon Mechanical Turk を使用する. アノテーションの報酬は 1 件当たり 25 セントとする.また,アノテーションの信頼度を高めるため, 1 件当たり 5 人のワーカを割り当てる. ## 4.3 評価方法 アノテーション品質の評価は,クラウドソーシングで論述構造のアノテーションを試みた先行研究 [14]に則る形で行う. 具体的には,ワーカーによるアノテーションを MACE[15] で集約した結果と専門家によるアノテーションの結果の一致率を算出する. ただし, 先行研究では論述要素の境界をワー カーに選択させるタスク設定のため,境界のオー バーラップを考慮した一致率 Krippendorff's $\alpha_{U}$ を採用している. 本研究では論述要素の境界は文単位で固定のため,Krippendorff's $\alpha$ を採用する。 ## 4.4 結果 ランダムに選択した 30 件の反論について Krippendorf's $\alpha$ を算出したところ,0.40 という結果となった. 先行研究 [14] では Krippendorff's $\alpha_{U}$ が 0.41-0.52であり,単純な比較はできないが迫る結果となっている. しかし,クラウドソーシングだけで完結できるほどの品質にはなく, その点は今後の課題である. ## 5 フィードバックのアノテーション ## 5.1 アノテーションスキーム 論述構造をアノテートした上で,主張と前提の各組み合わせに対して,良い点と改善点を付与する。 その際,どこに対するフィードバックなのかを明示するため,フィードバックを論述要素,あるいは要素間の関係に紐づける (図 2). ## 5.2 結果 46 件の反論に対して,PDA に所属するディベー トの専門家が与えたフィードバックを分析し,カテゴリに分類したものを表 2 に示す. 反論ならではの観点としては,立論との関連性についてのフィードバックが見受けられた。また,具体例を用いた説明がされているかという観点があった. 即興型ディベートでは事前準備ができないため,ある事実を裏付ける根拠に言及することが難しい. そのため,すくなくとも個人の体験に基づいた主張なのかという観点が重視されているのだと考えられる. 今後,より多くのフィードバックを分析することで,詳細なカテゴリを定義できる可能性がある.実際のフィードバックを十分にカバーし, かつ詳細なカテゴリ分けができれば,フィードバックを提示する問題をカテゴリの分類とテンプレートをべースとした生成問題として解くという方針も考えられる. ## 6 おわりに 本論文は,フィードバックとその根拠を同時に提示できるシステムの実現に向け,最初のステップとしてコーパスの設計方針について論じた。また,低コスト・短時間で他の論題へ横展開していくため, クラウドソーシングによる論述構造のアノテーション品質について検証を行った。 ## 謝辞 本研究を進めるにあたり,有益な助言をいただきました理化学研究所の Paul Reisert 氏に感謝申し上げます。 ## 参考文献 [1] Isaac Persing, Alan Davis, and Vincent Ng. Modeling organization in student essays. In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, 2010. [2] Isaac Persing and Vincent Ng. Modeling argument strength in student essays. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), 2015. [3] Henning Wachsmuth, Nona Naderi, Yufang Hou, Yonatan Bilu, Vinodkumar Prabhakaran, Tim Alberdingk Thijm, Graeme Hirst, and Benno Stein. Computational argumentation quality assessment in natural language. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, 2017. [4] Winston Carlile, Nishant Gurrapadi, Zixuan Ke, and Vincent Ng. Give me more feedback: Annotating argument persuasiveness and related attributes in student essays. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), 2018. [5] Zixuan Ke, Hrishikesh Inamdar, Hui Lin, and Vincent Ng. Give me more feedback II: Annotating thesis strength and related attributes in student essays. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, 2019. [6] Paul Reisert, Benjamin Heinzerling, Naoya Inoue, Shun Kiyono, and Kentaro Inui. Riposte! A Large Corpus of Counter-Arguments. arXiv e-prints, p. arXiv:1910.03246, October 2019. [7] Henning Wachsmuth, Shahbaz Syed, and Benno Stein. Retrieval of the best counterargument without prior topic knowledge. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), 2018. [8] Makiko Ida, Gaku Morio, Kosui Iwasa, Tomoyuki Tatsumi, Takaki Yasui, and Katsuhide Fujita. Can you give me a reason?: Argument-inducing online forum by argument mining. WWW '19, p. 3545-3549. Association for Computing Machinery, 2019. [9] Joonsuk Park and Claire Cardie. A corpus of eRulemaking user comments for measuring evaluability of arguments. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), 2018. [10] 中川智皓, 山内克哉, 新谷篤彦. パーラメンタリー ディベート(即興型英語ディベート)における議論の整理と評価の一考察. システム制御情報学会論文誌, Vol. 32, No. 12, pp. 446-454, 2019. [11] Christian Stab and Iryna Gurevych. Annotating argument components and relations in persuasive essays. In Proceedings of COLING 2014, the 25th International Conference on Computational Linguistics: Technical Papers, 2014. [12] Andreas Peldszus and Manfred Stede. An annotated corpus of argumentative microtexts. In Argumentation and Reasoned Action: Proceedings of the 1st European Con- ference on Argumentation, Lisbon 2015 / Vol. 2, 2016. [13] Christian Stab and Iryna Gurevych. Parsing argumentation structures in persuasive essays. Computational Linguistics, Vol. 43, No. 3, pp. 619-659, September 2017. [14] Tristan Miller, Maria Sukhareva, and Iryna Gurevych. A streamlined method for sourcing discourse-level argumentation annotations from the crowd. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), 2019. [15] Dirk Hovy, Taylor Berg-Kirkpatrick, Ashish Vaswani, and Eduard Hovy. Learning whom to trust with MACE. In Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2013. ## A 付録 ## A. 1 アノテーションのインターフェース クラウドソーシングにより,論述構造をアノテー ションする際に用いたインターフェースを図 3 に示す. Topic: Homework should be abolished. Original argument At ileast they have more tre time than adulth : statements that express agreement or disagreement with a topic : central reason given in support of the debaters stance (In general, there is one claim, at most two claims per speech : additional reasons that underpin the plausibility of the claim Example personal experiences, hypothetical situations, statistics, and references in newspapers, etc 図 3 アノテーションの UI ## A. 2 収集データの詳細 収集したデータに関して,立論の論点と件数の内訳を表 3 に示す. 表 3 論題 “Homework should be abolished” について収集し た反論の件数
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P2-9.pdf
# 曖昧な要求と気の利いた応答を含む 対話コーパスの収集と分類 田中 翔平 1,3 , 吉野 幸一郎 ${ }^{2,1,3}$, 須藤 克仁 1,3 , 中村 哲 1,3 \{tanaka.shohei.tj7, sudoh, s-nakamura\}@is.naist.jp, koichiro.yoshino@riken.jp 1 奈良先端科学技術大学院大学 2 理化学研究所 ロボティクスプロジェクト 3 理化学研究所 革新知能統合研究センター ## 1 はじめに タスク指向型対話システムとは, ユーザの要求に対してあらかじめ定義されたシステムの API などを用いて応答するシステムであり,スマートスピー カーやデジタルサイネージなどの形で実社会へと普及しつつある.しかしこれまで研究・実用化されたきたタスク指向型対話システム $[1,2]$ は,ユーザ発話の中に明確に要求が含まれていることを前提としたものが多く, ユーザの要求が曖昧な場合に, 適切な応答を生成することが難しい。 一方で,人間のコンシェルジュやガイドなどは,曖昧なユーザ発話に対しても気の利いた応答を行う。例えば,ユーザが「ここの景色は綺麗だね」と言った場合に,「写真を撮りましょうか?」などと応答することができる。このように,特定の機能を要求しておらず,またそもそも何らかの機能を要求しているかどうかが曖昧なユーザ発話に対しても, ユーザが望むであろう行動が可能なシステムを構築することが本研究の目的である。そこでまず,ユー ザ発話と,それに対する対話エージェントの気の利いた応答を含むコーパスを収集した。 ユーザとシステムの対話を想定したコーパスの収集方法としては, 2 人の被験者をユーザ役とシステ么役に割り当てて対話してもらう方法が一般的である $[3,4]$. だが,全ての曖昧なユーザ発話に対して常に気が効いた応答を返すことは,人間であっても難しい。また,実際に気の利いた応答が認定できたとしても,システムが実行可能な行動はシステム自身に定義されている API などの機能に制約され,その応答を返すことが現実的ではない場合も多い。そこで本研究では,システム側の応答 70 種類をシステムが利用可能な API に基づいてあらかじめ定義 対話エージェント 図 1 気の利いた対話例 し,各応答が気が利いているとみなせるような先行発話を,クラウドワーカーに入力してもらうことでコーパスを収集した。これは,API などに制約されるシステム応答に応じてこれらが有効な文脈を収集する方が,広範な文脈に対して現実的な気の利いた応答候補を収集できると考えたためである. こうして収集したコーパスに対し,ユーザの曖昧な要求に対応する気の利いた応答を分類するモデルを構築した。具体的には, Wikipedia などのコー パスを用いて事前学習を行った BERT[5] を用いて, ユーザ発話を対応するシステム応答へと分類する分類器を学習させた。学習した分類器を自動評価した結果,55\%以上のユーザ発話を対応するシステム応答へと分類できることが判明した。また $83 \%$ 以上のユーザ発話に関して,対応するシステム応答を上位 5 位以内へと分類できることが判明した。 ## 2 データセット構築 ユーザの要求が曖昧な発話と, そうした発話に対するシステムの気の利いた応答を含むコーパスを収集する.本節ではクラウドソーシングを用いた収集方法について説明する。 本研究で収集するコーパスは, 観光案内のドメインにおいてユーザとスマートフォンアプリケーション上の対話エージェントとの対話を想定したもので 表 1 対話エージェントの機能とカテゴリーのリスト & 10 \\ 表 2 収集したコーパスの統計情報 ある. 対話は全て一問一答形式であり, ユーザは要求が曖昧な発話や独話を行い, 対話エージェントはそのユーザ発話に対して気の利いた応答を返す。図 1 にユーザと対話エージェントの対話例を示す.ここでユーザの「ここの景色最高だね」という発話は必ずしも特定の機能に対する要求というわけではない。これに対して,対話エージェントが「カメラを起動しましょうか?」という気の利いた応答を返し,実際のカメラ機能を起動できるようにする. 図1のような対話を収集する方法として,クラウドソーシングなどを利用して,2 人のワーカーにユーザ役と対話エージェント役に分かれて対話してもらう WoZ 対話が考えられる. しかし, 先に述べたように,意図の曖昧なユーザ発話に対して常に気の利いた応答を返すことは,人間にとっても難しいタスクであり, 一般的な WoZ 対話では期待する気の利いた応答候補を収集することが難しい。また,対話エージェントがスマートフォン上などで稼働するアプリケーションとして実運用されることを想定すると, その応答はアプリケーションが利用可能な API の機能に紐付いている必要がある. すなわち,対話エージェントにとって可能な気の利いた応答の範囲はユーザ発話の範囲と比較して限定的であり,対話エージェントの行動空間をあらかじめ定義した方がコーパスの質を担保しやすい。これらのあらかじめ定義されたエージェントの行動カテゴリーに対 して,広範なユーザの先行発話をワーカーに入力してもらう方法により収集する。 本研究では対話エージェントの機能をスポット検索, レストラン検索, アプリ起動の 3 つに大きく分けて定義した。定義した機能のリストを表 1 に示す. 各機能はそれぞれ細分化されたカテゴリーを持ち,コーパス中の対話エージェントの応答はこれらのカテゴリーに紐付いて生成される.定義したカテゴリーは全部で 70 種類である. スポット検索は特定のカテゴリーのスポットを検索する機能であり,「近隣の美術館を検索しましょうか?」といった応答としてユーザに提示される. レストラン検索は特定のカテゴリーのレストランを検索する機能であり,「近隣のかき氷を検索しましょうか?」といった応答としてユーザに提示される. アプリ起動は特定のアプリケーションを起動する機能であり,「カメラを起動しましょうか?」といった応答としてユーザに提示される. 定義した対話エージェントの応答カテゴリーに基づき,日本語コーパスをクラウドワークスス1)を用いて収集した ${ }^{2)}$ ,収集したコーパスの統計情報を表 2 に,コーパス中の発話例を表 3 に示す. 表 3 より, 定義された応答を気が効いているとみなせるような, 要求が曖昧なユーザ発話を収集できていることがわかる. 収集した 27,230 ユーザ発話を含むコーパスを, 学習データ: 検証データ: テストデー タ $=24,430: 1,400: 1,400$ の割合で分割した.ここで,各データに含まれる各カテゴリーの割合が同一になるようにコーパスを分割した。 $ 付録に示す. } 表 3 コーパス中のユーザ発話例 ユーザ発話(クラウドソーシングを用いて収集) $\quad$ システム応答(あらかじめ定義) 汗をかいて気持ち悪い周辺の温泉を検索しましょうか? 歩くと時間がかかるな. 周辺のバス停を検索しましょうか? 子供達がお腹が減っちゃって駄々こねてるね. 最近は和食が多くて少し飽きてきたんですよね. 周辺の子供向けレストラン・ファミレスを検索しましょうか? いい景色だな 周辺の肉料理を検索しましょうか? 皆にホテルの部屋番号を伝えないと. カメラを起動しましょうか? メッセージを起動しましょうか? 表 4 使用した事前学習済み BERT モデル & & & 日本語 Wikipedia & Juman++[6] \& BPE[7] & 32,000 \\ 図 2 ユーザ発話の分類タスクとモデル ## 3 ユーザ発話分類モデル 前節で収集したコーパスを用いて,ユーザ発話を対応する応答のカテゴリーへと分類するモデルを構築・評価した。 ## 3.1 分類モデル 図 2 にユーザ発話の分類タスク及びモデルの概要を示す. 分類モデルは入力されたユーザ発話を, そのユーザ発話に紐付けられた対話エージェントの正解応答カテゴリーへと分類する. 具体的な手続きとしては,BERT[5]によってユーザ発話を分散表現へと変換した後, 1 層の Multi Layer Perceptron (MLP) によって各カテゴリーに対応する確率值 $p$ を算出し,全 70 カテゴリーのうち最も高い確率值を持つカテゴリーを予測カテゴリーとして出力する. モデルの学習には Softmax Cross Entropy 損失関数を用いる. 表 7 ユーザ発話の分類を間違えやすいカテゴリー ## 3.2 実験 本実験では BERT モデルとして, Wikipedia 記事などを対象に事前学習を行った 5 つの日本語 BERT モデル $[8,9,11]$ を用いた. 表 4 に使用した事前学習済み BERT モデルの一覧を示す. 各モデルは隠れ層の大きさなどのモデルサイズ [5] や学習に用いたコーパス,文をトークンに分割するためのトークナ 表 8 正解カテゴリーと誤って分類したカテゴリー イザーなどが異なっている. 構築した分類モデルの性能を,テストデータを用いて評価した結果を表 5 に示す. R@5 (Recall @ 5) は, 分類モデルが出力した正解カテゴリーの順位が,上位 5 位以内に含まれている割合である.MRR $(0<M R R \leq 1)$ は Mean Reciprocal Rank の略であり,次式の通り算出される. $ M R R=\frac{1}{|U|} \sum_{u \in U} \frac{1}{\operatorname{rank}_{u}} $ ここで $\operatorname{rank}_{u}$ はユーザ発話 $u$ に対応する正解カテゴリーについて, 分類モデルが出力した順位を意味し,U はテストデータに含まれるユーザ発話の集合である. Acc. (Accuracy), MRR ともに数值が大きいほど,分類モデルの性能が高いことを意味する. 表 5 を見ると,どのモデルも $55 \%$ 以上のユーザ発話に対応する正解カテゴリーを予測できていることがわかる. また R @ 5 の数値より, どのモデルも $83 \%$ 以上のユーザ発話に対応する正解カテゴリーの順位を上位 5 位以内に予測できていることがわかる. 全体の傾向として, 事前学習に SNS コーパスを用いた BERT よりも, Wikipedia コーパスを用いた BERT の方が性能が高い.ここで, 学習データ中のユーザ発話をトークナイズした後の, モデルごとの未知語の割合を表 6 に示す. 表 6 より, SNS コー パスから構築したトークナイザーを用いた場合よりも, Wikipedia コーパスから構築したトークナイザー を用いた場合の方が,未知語の割合が低いことがわかる. すなわち SNS コーパスよりも, Wikipedia コーパスの方が本研究にて対象とした観光ドメインに関連するテキストが多く含まれていたため, 事前学習に Wikipediaコーパスを用いた BERT の方が性能が高かったと考えられる。 さらに,どのカテゴリ一応答に先行するユーザ発話の分類を間違えやすいのかを調査した結果を表 7 に示す. 誤り数は全モデルの平均を算出したものを使用している. 表 7 を見ると, 正解カテゴリーが自然・風景である場合の先行発話の分類を最も多く間違えており,こうした先行発話を正解カテゴリーに分類することが難しいことがわかる. ただし,詳細な分類結果を見ると,分類誤りとされているものが実際には分類誤りでない場合がある. 正解カテゴリーと誤って分類したカテゴリーの例を表 8 を示す. 表 8 を見ると,これらのユーザ発話は正解カテゴリーの他に, 予測カテゴリーの応答を用いたとしても誤りというわけではない。つまり, これらの応答カテゴリーに対応するユーザ発話はそもそも複数の応答候補を取り得る,マルチラベル問題であり, ユーザ発話と応答カテゴリーを一対一で対応付ける今回の収集方法は,こうした対応を収集できていない可能性が示唆される. ## 4 おわりに 本論文では, 対話エージェントの機能に着目し, ユーザの曖昧な要求と対話エージェントの気の利いた応答を含むコーパスを収集した,具体的な方法として,APIに基づきあらかじめ定義された対話エー ジェントの応答に対し, その応答が気が利いているとみなせるような先行発話をクラウドワーカーに入力してもらった。さらに,収集したコーパスを用いて, 曖昧なユーザ発話を対応する気の利いたシステム応答のカテゴリーへと分類する分類器を構築した. 構築した分類器を評価した結果, $55 \%$ 以上の正解カテゴリーを 1 位に, $83 \%$ 以上の正解カテゴリー を 5 位以内にランク付けできることが判明した。 一方で, 曖昧なユーザ発話は複数のシステム応答カテゴリーと紐付き得ることが示唆された. 今後はこうした複数の意図として解釈し得るユーザ発話に対して,マルチラベリングなどの手法を適用することを検討する. ## 謝辞 本研究にご協力いただいた理化学研究所革新知能統合研究センター観光情報解析チームの皆様に感謝いたします. ## 参考文献 [1] Andrea Madotto, Chien-Sheng Wu, and Pascale Fung. Mem2Seq: Effectively Incorporating Knowledge Bases into End-to-End Task-Oriented Dialog Systems. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 1468-1478, 2018. [2] Andrea Vanzo, Emanuele Bastianelli, and Oliver Lemon. Hierarchical multi-task natural language understanding for cross-domain conversational ai: Hermit nlu. In Proceedings of the 20th Annual SIGdial Meeting on Discourse and Dialogue, pp. 254-263, Stockholm, Sweden, September 2019. Association for Computational Linguistics. [3] Paweł Budzianowski, Tsung-Hsien Wen, Bo-Hsiang Tseng, Iñigo Casanueva, Stefan Ultes, Osman Ramadan, and Milica Gašić. MultiWOZ - a large-scale multidomain Wizard-of-Oz dataset for task-oriented dialogue modelling. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 5016-5026, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [4] Dongyeop Kang, Anusha Balakrishnan, Pararth Shah, Paul Crook, Y-Lan Boureau, and Jason Weston. Recommendation as a communication game: Self-supervised bot-play for goal-oriented dialogue. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 1951-1961, Hong Kong, China, November 2019. Association for Computational Linguistics. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 18th Annual Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT), pp. 4171-4186, 2019. [6] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Juman++: A morphological analysis toolkit for scriptio continua. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 54-59, Brussels, Belgium, November 2018. Association for Computational Linguistics. [7] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [8] 柴田知秀, 河原大輔, 黒橋禎夫. BERT による日本語構文解析の精度向上. 言語処理学会第 25 回年次大会発表論文集 (ANLP), pp. 205-208, 2019. [9] National Institute of Information and Communications Technology (NICT). NICT BERT . 2020. [10] Taku Kudo. MeCab . 2006. [11] Takeshi Sakaki, Sakae Mizuki, and Naoyuki Gunji. Bert pre-trained model trained on large-scale japanese social media corpus. 2019. [12] Taku Kudo and John Richardson. SentencePiece: A Simple and Language Independent Subword Tokenizer and Detokenizer for Neural Text Processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing (EMNLP), 2018. ## A 付録 ## 【概要】 観光寀内中の気の利いた応答に先行する発話を入カしていただくお仕事です。 ## 【依頼内容】 作業 : 京都を観光しているあなたのために、観光寀内アブリが特定のカテゴリーの観光スボットを検索するような応答を生成しました。 その観光案内アブリの応答を気が利いているとみなせるような、あなたの先行発話を入カしてください。 以下に例を示します。 例 : $\cdot$対話(良い例) あなたの発話(入カしていただくもの):ちょつと歩き疲れたな。 相手の応答(与えられるもの):周辺の休息所を検索しましょうか? . 対話(覀い例1) あなたの発話(入カしていただくもの): 周辺の休覫所を検索して。 相手の応答(与えられるもの):周辺の休意所を検索しましょうか? $\cdot$対話(覀い例2) あなたの発話(入カしていただくもの):休㮩所に行きたいな。 相手の応答(与えられるもの):周辺の休息所を検索しましょうか? 【報酬】 10 種類のシチュエーションにおけるユーザ発話入力で100円になります。 【注意事項】 あなたの発話は明示的に検索を要求するような形では書かないでください。 あなたの発話は検索するスポット名を含むような形では書かないでください。 明らかに提示されている条件に沿わない発話である場合,また記入漏れがある場合は非承認となる可能性があります。全2種類から一つタスクを選択して入カしていただく形になります。 各タスクについて、お一人様一件までの入カとしてください。 その他ご垍問等ありましたら、気軽にお問い合わせください。 ご応㔍をお待ちしております! ## : ## 4. 対話1 必須 あなたの発話:(ここに当てはまるものを入力してください) 相手の応答 : 周辺の遊固地を検索しましょうか? 30文字以下 図 A. 1 コーパス収集におけるインストラクションおよび入力フォーム. 図 A. 1 はコーパス収集におけるインストラクションおよび入力フォームの一例である.本研究で収集するユーザ発話は要求が曖昧である必要があるため, 良くない例として「周辺の休暞所を検索して.」という要求が明確な発話を挙げ,そのような発話は入力しないよう注記している.1 人のワーカーごとにそれぞれ異なる 10 カテゴリーに対してユーザ発話を入力してもらった.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-10.pdf
# 実践医療用語における語構成要素の意味ラベルについて 相良 かおる 西南女学院大学 sagara @ seinan-jo.ac.jp ## 1.はじめに 着任した職場において看護教員がロにする「患者さんに介入する」や「緩和ケア」という表現に違和感を覚えた筆者は, 臨床現場で使われる看護用語に興味を持った。 同じ頃,厚生労働省は,2006 年迄に全国 400 床以上の病院の 6 割に電子カルテシステムを導入するという目標を掲げた。また国内外の看護系学会では,看護用語の標準化についての検討がなされ,幾つかの標準看護用語のモデルが公開されたものの, これらがどの程度普及するかは不明であった。 筆者は,電子カルテの普及により医療記録が電子化され, 機械処理が可能となれば, 患者診療用途 (一次利用) に加え, 統計資料, 臨床研究や疫学研究, 教育訓練, そして診療情報管理などの 2 次利用が要望されるだろうと考えた。 そこで,電子化された医療記録データの自然言語処理を支援するために看護実践医療用語を見出し語とした分かち書き用辞書 ComeJisyo を 2008 年 11 月に公開した. その後, 随時更新し, 2020 年 4 月公開の ComeJisyoSjis-2 の登録語数は, 医師経過記録より抽出した実践医療用語を含め約 11 万語となった. なお,門外不出の医療記録に含まれる実践医療用語の語構成や語種構成の実態は不明であり, よって本辞書では, 語の単位認定の規則を定めず, 看護師,管理栄養士,医師としての臨床経験者が一つのまとまった語としたものを登録している. その結果,本辞書には助詞などを省略した臨時一語を含む合成語が多く登録され, 語彙研究の言語資源としての利用も可能となった. そこで, 2018 年より日本語学の研究者, そして看護師および臨床医の経験者と共に実践医療用語の合成語 7,194 語の語構成の解析とこれらの意味の解析に着手している. 本発表では, 本合成語 7,194 語から抽出した語構成要素 6,442 種類に付与した 86 種類の意味ラベルについて述べる. ## 2. 用語の定義 筆者は, 日本語学の専門家ではない. 従って, 抄録を書く際などには,「複合語」と「合成語」の違いや,「語」と「単語」の定義などを複数の辞書や事典,日本語学の専門書などで調べ,普遍的な定義がないことに戸惑う. 幸い共同研究者には, 日本語学の研究者がいることから,草案の段階でこれらの用語が見直される。 定義の曖昧な語の使用は,時折誤解を生む. 本研究の成果物の利用者は, 医療従事者, 医療の専門科目の教育者, 医療情報を扱う関連分野の専門家,そして言語の研究者などを想定している. そこで,分野の異なる利用者のために本研究で用いる用語を以下のように定義する. ## 実践医療用語: 専門分野で使われる「専門用語」には,(1)学術上の専門用語(学術用語)と,(2)それ以外の専門用語がある。本研究では,医療施設で使われる医療記録に含まれる(1)と (2)を合わせた用語を「実践医療用語」 という。 ## 語構成要素 : 合成語を構成する要素で,本研究では「合成語を医療の観点から意味的にまたは統語的に分割可能なすべての部分文字列」と定義する.分割できない合成語については元の合成語を語構成要素とする. 合成語: 脳幹多発性硬化症 語構成要素 : 脳幹, 多発性, 硬化症, 多発性硬化症意味ラベル : 語構成要素に付与する意味を表すラベルで,共同研究者らで命名したものである. 「回旋位」のように他の語構成要素と結合することで異なる意味になるものには「・」を用いて「状態・位置」のように複数の意味ラベルを列挙する.また, 「胃粘膜下」のように位置と身体部位の両方の意味を持つものには「/」を用いて「位置/身体部位」 のように表記する。 なお,ここでの「意味」には,用語の意味を表すもの(例 : 「衛生用品」)と, 医療者の使用面での心的な捉え方を表すもの(例:「病因」)が含まれる.詳細は後述する。 ## 3. 研究方法 ## 3.1 言語資源 実践医療用語を語構成要素に分割する際, 医療の知識がなくても語の境界を見つけ易くするために,分かち書き用実践医療用語辞書 ComeJisyoSjis-1 の登録語 111,664 語から, 一般的な語 (『分類語彙表増補改訂版』[1]収録の語)を含む合成語 7,194 語を選定し本解析データとした。 ## 3.2 研究デザイン 筆者の研究目的は, 医療記録データの自然言語処理を支援することである. そして, 本研究の第一目標は,医療記録に含まれる合成語を構成する「実践医療用語語彙表」を作成することであり, 第二の目標は, 実践医療用語の語構成に関する言語学的な知見を得ることである. そして第三の目標は,得られた知見を含む成果物を医療実践, 医療教育の領域で,出来得れば言語学研究の領域においても利用可能な形で公開することである. 専門用語の意味の分類に関する意味理論には,夕一ミノロジー学, 形式意味論, 語彙意味論, 認知意味論などがあり,それぞれに制約がある[2][3][4]. 一方, 実践医療用語には, 程度や数量, 身体的部位や体位, 時間的情報, 患者の主観的状態などを表す表現が含まれ, 既存の医学および看護学の学術用語を対象としたシソーラスの分類カテゴリーをそのまま利用できないことが分かっている[5]. また,「ボリビア/出血熱」のように単語の意味「地名」と「病名」を合成しても合成語の意味「ウイルスによって引き起こされる出血性熱性疾患」にならないものがあることも分かっている. 更に, 看護の知識を持たない筆者の「介入 (強引に関わる)」と, 看護学での 「介入 (看護の対象者に行う問題解決や回復への援助) 」, 医学での「介入 (研究目的で, 人の健康に関する様々な事象に影響を与える要因の有無又は程度を制御する行為)」には意味のズレがあることも分かっている. 従って, 実践医療用語の意味の分析に適した意味理論を見付けられず, また本研究の目的は,新しい意味理論を構築することではない. そして本解析データは, 実践医療用語の母集団を代表する標本ではない. では, 本研究の研究デザインは何かと考えると,以下に示す臨床研究における (1)の中の比較対象が明確ではない「仮説を見つけるための記述研究」に当てはまる. (1) 記述研究…仮説を立てる (2) 分析研究…仮説を分析する (3) 介入研究…仮説を検証する ## 3.3 分析方法 本節では, 語構成要素の抽出方法と意味ラベル付与の手順について述べる. ## 手順 1. 機械的分割 (1) 形態素解析器 MeCab0.996[6] と見出し語約 87 万語の解析用辞書 UniDic[7]により,合成語を短単位に分割 (2) 品詞の解析誤りを修正し,「接尾辞」は語を直前の語に,「接頭辞」は直後の語に連結 (3) 連続する「カタカナ」のみの語を連結 機械的短単位分割: 肝内 $\mid$ 邺脈 $\mid$ 下 $\mid$ 大 $\mid$ 静脈 $\mid$ 短絡 ## 手順 2. 意味的分割(一般的) 分析者 5 名により手順 1 の語を分担して意味的に妥当な語にまとめる. 表 1 の意味カテゴリー[8]を参考に語構成要素の意味に着目し, 意味ラベルを付与した. 表 1 意味カテゴリー なお, 分析者の専門領域は, 日本語学が 3 名, 情報科学が 1 名, 看護学が 1 名である. 語構成要素列: 肝内 $\mid$ 門脈下 $\mid$ 大静脈 $\mid$ 短絡 意味ラベル列 : 身体部位/位置 $\mid$ 身体部位/位置 $\mid$身体部位 $\mid$ 状態 ## 手順 3. 医療的観点による分割(看護学) 臨床看護経験者 2 名により看護の観点から見直しを行い,意味により分割した「短い単位」による語構成要素列(短)と統語的な綎まりを考慮した「長い単位」の語構成要素列(長)を作成した。 語構成要素列 (短): 肝内門脈 $\mid$ 下大静脈 $\mid$ 短絡意味ラベル列 (短): 身体部位 $\mid$ 身体部位 $\mid$ 状態 語構成要素列(長): 肝内門脈下大静脈 $\mid$ 短絡 意味ラベル列 (長) : 身体部位 $\mid$ 状態 ## 手順 4. 医療的観点による分割(医学) 臨床医により医学の観点から見直しを行った。 語構成要素列 (長) : 肝内門脈下大静脈短絡 意味ラベル列(長): 身体部位・病態 ## 4 結果 ## 4.1 語構成要素数の概要 合成語 7,194 語より分割された語構成要素は 6,442 要素であり,これらに付与された意味ラベルは 86 種類であった. また, 複数の意味ラベルが付与された語構成要素は 868 要素(表 4 と表 5 の総計)あった。 ## 4.2 意味ラベルの概要 意味ラベル 86 種類を,「具体」と「抽象」で大別し,「具体」に属する意味ラベル 20 種類をまとめたものが表 2 である。表 3 は「抽象」に属する 66 種類をまとめたものである.表の中のゴシック体は,手順 3 の看護学および手順 4 の医学の観点から追加・変更されたものである. 表 2 では, 医学の観点から「物質」が「体内物質」と「体外物質」に分けられ, 「薬品」は, 「薬品」と「医薬品」に分けられた.またウイルスは生物とは言えないことから「病原体」が追加され,「人間」に加えて「ヒト(生物学上の標準和名)」が追加された。 表 2 意味ラベル (具体) 表 3 では,「状態」が「状態(一般的な状 態 $)\rfloor$, 「症状 (本人の訴えによる状態)」,「病態(体の中で起こっている機序)」に細分化された。また 「指標」,「手技」,「病因」,「患部」,「患者属性」が追加された。 手順 2 の実践医療用語を使ったことのない分析者による分類では,国語辞書に記載されている普遍的な意味による意味ラベルが付与されたのに対し,実践医療用語の使用経験を持つ分析者による見直しでは,使用面での意味による意味ラベルの追加・変更がなされた。例えば,手順 2 において表 1 の意味力 テゴリーに則ると,語構成要素「高齢者」の意味ラベルは「人間」であったが,手順 4 の医学の観点からの見直しにより,意味ラベルは「ヒト・患者属性」となった. 同様に「血圧」や「体温」の意味ラベルは「数量」から「指標」に変更された. 表 3 意味ラベル(抽象) ## 4.3 多義の意味ラベル 表 4 多義の意味ラベル「・」 連接する他の語構成要素により意味が定まる多義の語構成要素 753 要素(全語構成要素 6,442 要素中, $11.7 \%$ )に付与された「・」で列挙された意味ラベルの組は 53 種類あった. 表 4 は,これらの内,頻度が 20 以上の語構成要素をまとめたものである。「病名・状態 (例:血管損傷)」と「状態・病名 (例 : 横断骨折)」の違いは,主観的な判断によるものである. 表 5 は,語構成要素に複数の意味を持ち「/」により列挙された意味ラベルと頻度をまとめたものである。 ## 5. 考察 今回, 手順 3「看護師」と手順 4「医師」による見直しを行い,使用面での心的な捉え方を知ることができ,更に医療従事者の中でも職種により捉え方に違いがあることが分かった.以下に使用面における心的な意味について考察する。 実践医療用語を使用しない筆者らが「人間」の意味ラベルを付与した「巨大児」は,看護の観点から 「状態」に変更され,「女性」,「ドナー」は,医師の観点から「患者属性」に,そして「患者」は, 「ヒト・患者属性」に変更された。また,「状態」 を付与した「呼吸困難」は,看護の観点から「症状・状態」に変更され,「低血糖」と「感染」は医師の観点から「病態」と「病態・病因」に変更された. これらのことから,患者を観察し援助(care)を行う看護の観点からは援助を要するか否かの判断を示す「症状」という捉え方があり, 診断し治療(cure) を行う医師の観点からは「病態」や「病因」という診療の流れに沿った捉え方があることが分かった。 また,「ウイルス」の意味ラベルは「病原体」であるが,「ウイルス性」の意味ラベルは「病因」となり, その結果, 同義語である「ウイルス/感染症」の意味ラベル列は「病原体|病名」,「ウイルス性/感染症」の意味ラベル列は「病因|病名」となる. このことから, 「病原体」が付与された語構成要素の語末に『性』が続くと「病因」となり, その後万に「病名」が続く合成語(例:「アメーバ性/肝膿瘍」)の統語構造は,「病因」による「病名」と推測できる。さらに「病原体+病名」となる合成語 (例 :「腸炎ビブリオ/食中毒」)の統語構造もまた 「病因」による「病名」であらうという予測が可能となる[9]. ## 6 おわりに 本研究では,看護および医学の実践医療用語の使用面における心的な意味が明らかとなった。しかし 「病態」や「指標」は, 医療の知識のない者には馴染みのない語である。 そこで再度, 意味ラベル名の妥当性を見直した上で,これらをまとめ,以下のように一般的な意味ラベルを付与する予定である. 状況 : (状況, 症状, 病態) 物質:(体内物質,体外物質) また「病名・状態」や「状態・病名」のラベルの順序は,主観的な判断によるものであり,これらについても検討が必要だと考えている. なお, 本研究の成果は『語構成要素語彙試案表』 として公開する予定である. ## 謝 辞 共同研究・分析者である小野正子氏, 高崎智子氏,東条佳奈氏, 麻子軒氏, 山崎誠氏に深謝いたします。本研究は, 科学研究費補助金「語形成および意味的情報を付加した実践医療用語辞書の構築」 (JP18H03499)の助成を受けています. ## 参照文献 [1] 国立国語研究所. 分類語彙表増補改訂版. 大日本図書, 2004. [2] 尾関周二,クリスティアン・ガリンスキー編著. ターミノロジー学. 文理閣, 1987. [3] 金水敏,今仁生美. 現代言語学入門 4 意味と文脈. 岩波オンデマンドブックス, 2016. [4] 郡司隆男,阿部泰明,白井賢一郎,坂原茂,松本裕二. 言語の科学 4 意味. 岩波書店, 2004. [5] 相良かおる,小野正子,上野恵子.医療用語のシソーラス作成にむけた予備的調査. 西南女学院大学紀要, 2015,Vol.19,p.109-118. [6] MeCab : https://taku910.github.io/mecab/ (参照 2021-1-12) [7] UniDic : https://unidic.ninjal.ac.jp/ (参照 2021-1-12) [8] 石井正彦. 現代日本語の複合語形成論. ひつじ書房,2007.180-183 [9]麻子軒,相良かおる,高崎智子,東条佳奈,山崎誠。意味ラベルを用いた「一性」を含む病名の言い換え. 人文科学とコンピュータシンポジウム論文集.2020,No.2,p.283-288.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-11.pdf
# SHINRA2020-ML:30 言語の Wikipedia ページの分類 関根聡 ${ }^{1)}$ 野本昌子 ${ }^{1)}$ 中山功太 ${ }^{1)}$ 隅田飛鳥 ${ }^{1)}$ 松田耕史 ${ }^{12}$ ) 安藤まや ${ }^{3}$ } 1) 理化学研究所AIP 2) 東北大学 3) フリー \{satoshi.sekine, masako.nomoto, kouta.nakayama, asuka.sumida, koji.matsuda\}@riken.jp , maya@kzd.biglobe.ne.jp ## 概要 Wikipedia に書かれている世界知識を計算機が扱えるような形に変換することを目的として、Wikipedia を構造化するプロジェクトを推進している本プロジェクトは、「協働による知識構築 (Resource by Collaborative Contribution)」のスキームに基づき、評価型ワークショップを開催し、それに参加したシステムの結果を統合してより良い知識にまとめ上げ、 それを公開していくことを目指す。SHINRA2020ML タスクでは、30 言語の Wikipedia の項目を拡張固有表現に分類するタスクを実施し、分類データの構築を目指した。世界 7 カ国から 10 団体が参加し、 17 のシステムによる結果が提出された。この論文では、本プロジェクトの概要を説明し、森羅/ SHINRA2021 タスクの計画についても紹介する。 ## 1 背景と目的 自然言語理解を実現するためには、言語的及び意味的な知識が必要なことは論を待たない。しかしながら、大規模な知識の作成は非常に膨大なコストがかかり、メンテナンスも非常に難しい問題である。名前を中心とした知識において、クラウドソーシングによって作成されている Wikipedia はコストの面でもメンテナンスの面でもそれ以前の百科事典の概念を一新した。しかし、この Wikipedia を自然言語処理のために活用しようと考えると障壁は高い。 Wikipedia は人が読んで理解できるように書かれており、計算機が利用できるような形ではないためである。計算機の利用を念頭においた知識ベースには、 CYC[11]、DBpedia[12]、YAGO[13]、Freebase[14]、 Wikidata[15]などがあるが、それぞれに解決すべき課題がある。特に $\mathrm{CYC}$ ではカバレージの問題、他の知識ベースでは、首尾一貫した知識体系に基づいていない構造化の問題がある。この課題を解決するため、私たちは、名前のオントロジー「拡張固有表現」 [3][10]に Wikipedia 記事を分類し、属性情報を抽出す ることで計算機が利用可能な Wikipedia の構造化を進めている [1][4][5][6][7]。本稿では、30 言語の Wikipedia ページの分類タスクである「SHINRA2020$\mathrm{ML}$ [2]について説明する。 ## 2 協働による知識構築 Wikipedia の全データの構造化を人手で行うことはほぼ不可能に近い。特に、日々更新される Wikipedia を対象にしているため、将来の更新作業を考慮しても現実的ではない。しかし、分類や属性值抽出のような知識構築は様々な機械学習手法によってある程度の精度で自動化できることが分かっている。今回の分類タスクでも機械学習を活用するが、一つの機械学習システムだけで実現するのではなく、多くの違った種類のシステムが協力することによってより良いリソースを作成することを目標としている。現在の自然言語処理では「評価型ワークショップ」が多数行われている。この形式のワークショップは既存タスクにおける機械学習システムの最適化競争の側面があるが、これを逆に利用してリソースの作成を行おうと考えている。つまり、運営者側で訓練デ一タとテストデータを用意し、多くのシステムに評価型ワークショップに参加していただく。この時にテストデータを参加者には知らせないことで、参加者には訓練データ以外の全項目を対象に結果を出すという仕組みを取り入れ、その結果は共有することを約束してもらう。この結果を利用しアンサンブル学習の手法を用いて、より信頼できるリソースを自動的に作る。また、信頼度の低いものを人手で確認訂正して次の学習時の訓練データにするアクティブ・ラーニングや、何度も訓練データの作成とシステムの実行を繰り返すブートストラッピング手法を取り入れることで、多くの参加者と協力しあって、精度の高いリソース作成を実現していくことを目標としている。本スキームは Resource by Collaborative Contribution (RbCC:拹働による知識構築) と呼び、森羅プロジェクトの最も重要な骨格である。 ## 3 タスクの説明 SHINRA2020-ML タスクは、30 言語の Wikipedia ぺ ージを拡張固有表現のカテゴリーに分類するタスクである。このタスクで使用されている拡張固有表現と、教師データの作成方法について説明する。 ## 3.1 拡張固有表現 「拡張固有表現」とは、[3][10]によって定義された固有表現に関する定義であり階層構造を持つ。図 1 に全カテゴリーを掲載する。「人名」、「地名」、「組織名」のみならず、「イベント名」、「地位職業名」、「芸術作品名」などを含む。また、例えば「地名」には 「河川名」等の「地形名」や、「星座名」等の「天体名」を含む等、幅広い種類の下位カテゴリが含まれる。今回のタスクで使用されているバージョン 8.0 は最大 4 階層で、219 種類の「拡張固有表現」が定義されている。Version8 以前の「拡張固有表現定義書」は百科事典、新聞記事を対象とした質問応答システムや WordNet 等のオントロジーを参考に構築されてきたが、今回の更新ではより Wikipedia に即した定義となっている。Wikipedia は情報の更新頻度が高く、一般的に幅広く利用されているためである。拡張固有表現の旧定義書をもとに Wikipedia の項目を分類したところ、3つの問題点が発見された。第 1 に、本来定義しきれない語が分類されるはずの「* その他」というカテゴリに多くの項目が分類されたこと、第 2 に項目の分類の過程で、判断に迷うカテゴリが存在したこと、第 3 に Wikipedia 特有のメタページなど拡張固有表現に分類できないページが存在したことである。Wikipedia には、同じような表記の項目が複数ある場合の「曖昧さ回避」、項目に異表記がある場合等の「転送元」、「1930 年の日本公開映画」のように項目になるような言葉が並ぶ「一覧」 といったぺージが存在する。これらは百科事典としての見出しではない項目(IGNORE)となる。詳細については[3]を参照されたい。 ## 3.2 教師データと評価用データ 各言語の教師データは、すでに分類されている日本語の Wikipedia データ[8][9]と日本語からの言語間リンクによって作成された。例えば、日本語の Wikipedia からドイツ語の Wikipedia には 27 万余の言語間リンクがあり、それらの日本語 Wikipedia ペ ージに分類されたカテゴリーを対応するドイツ語 Wikipedia ページにつける。これらを教師データーとしてドイツ語 Wikipedia の 200 万余のページを分類するのが今回のタスクである。日本語 Wikipedia の分類データは 92 万のページに対して、機械学習と人手によるチェックで構築したものである[3][10]。表 1 に 31 言語の統計データを示す。 & 割合 \\ 表 1.31 言語の統計データ 30 言語に対してリーダーボード用データと評価用データを作成した。評価用データは $\mathrm{RbCC}$ の目的のため公開していない。現状のそれらのデータの作成方法についても、今後も継続する予定のタスクの平等性の観点から明らかにしない方針である。 ## 4 タスクの実施と評価 ## 4.1 スケジュールとリーダーボード SHINRA2020-ML タスクは以下のスケジュールで NTCIR15 の下で実施した。 $ 2020 \text { 年 } 1 \text { 月:データリリース } $ $ \begin{aligned} & 2020 \text { 年 } 4 \text { 月 : HP および登録公開 } \\ & 2020 \text { 年 } 8 \text { 月 } 31 \text { 日 : 登録\&結果締め切り } \\ & 2020 \text { 年 } 9 \text { 月 } 16 \text { 日 : 評価結果変換 } \end{aligned} $ 2020 年 12 月 8-11 日 : 結果報告会(NTCIR15) また、今回はリーダーボードを作成し、多くの人に興味を持っていただける仕掛けを行なった。実際に 9 団体がリーダーボードに結果を提出し、この試みは成功であったと考えている。 ## 4.2 参加団体 SHINRA2020-ML には 7 カ国から 10 団体が参加した。参加団体と参加した言語を表 2 に載せる。また、 \\ Appendix に一部の参加システムの説明を載せる。詳細は NTCIR15に投稿された論文を参照されたい。 [16][17][18][19][20][21][22] 表 2 . 参加団体 ## 4.3 評価結果 表 3 に参加システムの評価結果を載せる。(この表には提出データの一部しか提出しなかった参加者の結果と締め切り後に提出された結果の一部は載せていない)また、締め切り後に提出されたシステムについては”Late Submission”として表示されている。本タスクは 1 ページに複数のラベルが着くことが許され、参加システムも複数のラベルを提案することができる。システムの評価には精度と再現率から計算される F 值のマイクロ平均を用いた。 ## 5 森羅/SHINRA2021のタスク SHINRA2020-ML は、当初の目的を達成し、過去の森羅の日本語タスク同様に RbCC の考え方の有効性が実証されたと考えている。森羅/SHINRA2021では以下の 3 つのタスクを実施しようと考えている。 ## $M L: 30$ 言語の分類 基本的に SHINRA2020-ML と同様の Wikiepdia 分類タスク。リーダーボードや評価データを拡充し、出力データ数を限ったタスクを追加する予定である。 ## CrowdML:クラウドソーシングによる分類精度向上 SHINRA2020-ML タスクの出力データを元に、クラウドソーシングを利用してより精度の高いデータを作成するタスク。クラウドソーシングにかかる費用は決まった上限まで主催者が負担し、その範囲内で効率的に精度の高いデータを作成することを評価目標とする予定である。 ## LinkJP:属性値をページにリンク 森羅 2020/2019/2018-JP で対象としたカテゴリー の属性值に対して、対応する Wikipedia のページをリンクさせるタスク。 詳細は論文執筆現在検討中であるが、3月上旬にはタスク仕様およびサンプルデータを完成させ、公開する予定である。全てのタスクは春にスタートし、 $9 \sim 10$ 月頃を締め切りにし、11、12 月の報告会の開催というスケジュールを計画している。また、これまで作成された全ての森羅データは一般公開されている[1]。ML タスクのデータは SHINRA-ML のホー ムページ[2]から入手されたい。 ## 6 まとめ Wikipedia の構造化データ「森羅」の作成を目指したプロジェクトを推進している。前章に記した通りこのプロジェクトは多くの方の協力なしには進まない。これまでの森羅のタスク協力いただいた皆様、特に評価に参加いただいた全ての団体にはここで感謝を述べたい。今後もより深い知識処理を実現するためにも、本プロジェクトに多くの協力をいただけるようにお願いしたい。 } \\ ## Timex Timeex Time / Date / Day_Of_Week / Era / Timeex_Other Periodx Periodx Pime / Period_Day / Period_Week / Period_Month / Period_Year / Timex_Other CONCEPT IGNORED 図 1. 拡張固有表現カテゴリー } & \multirow{3}{*}{} & \multirow{3}{*}{} & \multirow{3}{*}{} & \multirow{3}{*}{} & \multirow{3}{*}{} & \multirow{3}{*}{} & \multirow{3}{*}{} & \multirow{3}{*}{} & \multirow{2}{*}{} & \multirow{2}{*}{} & \multirow{2}{*}{} & \multirow{2}{*}{} & \multirow{3}{*}{} \\ 表 3 .システムの評価結果 ## 参考文献 1. SHINRA project homepage: https://shinra-project.info 2. SHINRA 2020-ML homepage: http://shinra-project.info/shinra2020ml/ 3. Extended Named Entity homepage: https://ene-project.info 4. Satoshi Sekine, Akio Kobayashi, and Kouta Nakayama. 2019. SHINRA: Structuring Wikipedia by Collaborative Contribution. In Proceedings of the 1st conference on the Automatic Knowledge Base Construction $A K B C-2019$. 5. 関根聡, 小林暁雄, 安藤まや, 馬場雪乃, 乾健太郎. Wikipedia 構造化データ「森羅」構築に向けて.言語処理学会第 24 回年次大会(2018) 6. 小林暁雄, 中山功太, 安藤まや, 関根聡. Wikipedia 構造化プロジェクト「森羅 2019」. 言語処理学会第 26 回年次大会 (2020) 7. 小林暁雄, 関根聡, 安藤まや. Wikipedia 構造化プロジェクト「森羅 2018」言語処理学会第 25 回年次大会 (2019) 8. 関根聡,安藤まや,小林暁雄,松田耕史,Duc Nguyen,鈴木正敏,乾健太郎「拡張固有表表現+Wikipedia」 データ(2015 年 11 月版 Wikipedia 分類作業完成 版).言語処理学会第 24 回年次大会(2018) 9. 鈴木正敏, 松田耕史, 関根聡, 岡崎直観, 乾健太郎. Wikipedia 記事に対する拡張固有表現ラベルの多重付与. 言語処理学会第 22 回年次大会 (2016) 10. Satoshi Sekine. 2008. Extended Named Entity Ontology with Attribute Information. In Proceedings of the Sixth Internationa Conference on Language Resource and Evaluation (LREC08). 11. Douglas B. Lenat. CYC: a large-scale investment in knowledge infrastructure. ACM 38, pp. 32-38. 12. Lehmann, J., Isele, R., Jakob, M., Jentzch, M., Kontokostas, D., Mendes, P.N., Hellman, S., Morsey M., Kleef, P., Auer, S. and Bizer, C. DBpedia - A Largescale, Multilingual Knowledge Base Extracted from Wikipedia. Semantic Web Journal, 6(2) :167—195 13. Farzaneh Mahdisoltani, Joanna Biega, Fabian M. Suchanek. YAGO3: A Knowledge Base from Multilingual Wikipedias. Proceedings of the Conference on Innovative Data Systems Research (CIDR 2015). 14. Bollacker, K., Evans, C., Paritosh, P., Sturge, T. and Taylor, J. Freebase: a collaboratively created graph database for structuring human knowledge. Proc. International conference on Management of data (SIGMOD '08). ACM, pp.1247-1250. 15. Vrandečić, D. and Krötzsch, M. Wikidata: a free collaborative knowledgebase. Commun. ACM57, pp. 7885. 16. The Viet Bui and Phuong Le-Hong. Cross-lingual Extended Named Entity Classification of Wikipedia Articles. In Proceedings of NTCIR-15. 17. Rúben Cardoso, Afonso Mendes and Andre Lamurias. Priberam Labs at the NTCIR-15 SHINRA2020-ML: Classification Task. In Proceedings of NTCIR-15. 18. Tushar Abhishek, Ayush Agarwal, Anubhav Sharma, Vasudeva Varma and Manish Gupta. Rehoboam at the NTCIR-15 SHINRA2020-ML Task. In Proceedings of NTCIR-15. 19. Hiyori Yoshikawa, Chunpeng Ma, Aili Shen, Qian Sun, Chenbang Huang, Guillaume Pelat, Akiva Miura, Daniel Beck, Timothy Baldwin and Tomoya Iwakura. UOM-FJ at the NTCIR-15 SHINRA2020-ML Task. In Proceedings of NTCIR-15. 20. Kouta Nakayama and Satoshi Sekine. LIAT Team's Wikipedia Classifier at NTCIR-15 SHINRA2020-ML: Classification Task. In Proceedings of NTCIR-15. 21. Masaharu Yoshioka and Yoshiaki Koitabashi. HUKB at SHINRA2020-ML task. In Proceedings of NTCIR-15. 22. Sosuke Nishikawa and Ikuya Yamada. Studio Ousia at the NTCIR-15 SHINRA2020-ML Task. In Proceedings of NTCIR-15. ## A 付録 参加システムの説明 & & Y Y & BERT base multilingual cased \\ Datasets: (1) Training Data (2) Wikipedia dump (3) Wikipedia classification (4) Language links (5) ENE definition
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-12.pdf
# 共想法談話の脱文脈化観点からの検討 田中弥生 神奈川大学・国立国語研究所 yayoi@ninjal.ac.jp 小磯花絵 国立国語研究所 koiso@ninjal.ac.jp } 大武 美保子 理化学研究所 mihoko.otake@riken.jp ## 1 はじめに 本発表は、共想法による談話の特徴を脱文脈化程度の観点から検討するケーススタディの報告である。共想法は、高齢者の認知的健康につながる会話を確実に発生させることができるよう工夫を加えた会話支援手法で、(1) あらかじめ設定されたテーマに沿って、自身で準備した写真やイラストとともに話題を数人の高齢者が持ち寄り、(2) 参加者全員のもち時間を均等に決めて、話題提供する時間と、質疑応答する時間に分けるという二つのルールに沿って「話す」「聞く」「質問する」「答える」のバランスをとりながら行われる [1] というものである。回想法が過去の経験を語るのに対して、共想法では現在の視点が語られる [2]。現在を中心に過去から未来までテーマを設定することで、常に新しい話題を見つける習慣を身に付けることを目指すものである。 脱文脈化程度とは、コミュニケーションが行われている「今ここ」の時空とその発話内容との、時間的・空間的距離の程度をさす。脱文脈化の観点からの分析には、修辞ユニット分析 ${ }^{1)}$ [5] の分類法を用いる。発話機能 (speech function)、中核要素 (central entity)、現象定位 (event orientation)の認定の組み合わせから修辞機能と脱文脈化程度を知ることができ、談話や文章においてどのような修辞機能が用いられているか、使用されている言語表現は脱文脈化程度が高いか低いか (「今・ここ・わたし」から遠いか近いか)、という観点からの検討が可能になる。 これまで、手順を説明する場面や取引先との打ち合わせなど様々な談話の分析を行い、目的や話題内容、状況による、談話やテキストの脱文脈化程度の様相の検討を行なってきた [6,7]。 本発表では、共想法による談話の特徴を考慮した脱文脈化程度の観点からの分析について検討し、 1 )話題提供の時間と質疑応答の時間では発話の 1) Rhetorical Unit Analysis $[3,4]$ を日本語に適用したものである。修辞機能・脱文脈化指数は異なるか、2)テーマによって修辞機能・脱文脈化指数は異なるか、の 2 点について、確認する。 ## 2 分析対象と分析方法 ## 2.1 分析対象 2019 年度に行われた共想法 11 回のうちの 2 回を今回の分析対象とした。それぞれの回のテーマは、「私の好きな色」と「平成から令和」である。「私の好きな色」は個人の埕好に関わる話題のため、脱文脈化程度の低い、より文脈化した表現が用いられる可能性があり、「平成から令和」はテーマ自体は個人とは関わりがないため、脱文脈化程度の高い表現が用いられる可能性がある。表 1 に参加人数 ${ }^{2}$ を示した。録音データを文字起こししたものを分析対象データとして使用した。3) ## 2.2 分析方法 修辞機能と脱文脈化指数の確認には、修辞ユニッ卜分析 ${ }^{4}$ [5] の分類法を用いる。以下に概要を述べる5)。手順として、1. 分析単位となるメッセージ (概ね節) に分割してその種類を特定し、2. 発話機能 (提言加命題) ・中核要素 (状況内、状況外、定言) ・現象  定位 (過去、現在、未来、仮定)を認定し、その交差から、3. 修辞機能の特定と脱文脈化指数の確認を行う。以下に概要を示す。 ## 2.3 分析単位への分割と種類の認定 分析単位の「メッセージ」は概ね節に相当し、 4 つの種類に分類する。相槌や定型句、述部がなく復元ができないものや挨拶などは「位置付け」で、 このあとの分類の対象とはならない。従属節のうち6)、理由や条件などを表しているものは「拘束; 意味的従属」に該当し、単独では分類しない。それ以外の従属節は「拘束; 形式的従属」に分類し、主節の 「自由」とともにこのあとの分類を行う。 ## 2.4 発話機能・中核要素・現象定位の認定 メッセージの種類が「拘束; 形式的従属」及び「自由」と認定されたメッセージについて、発話機能・中核要素・現象定位を認定する。表 2 に示したように、これらの組み合わせから、修辞機能と脱文脈化程度が特定される。 表 2 発話機能・中核要素・現象定位からの修辞機能と脱文脈化指数 図 1 脱文脈化指数 表 2 と図 1 の数字は脱文脈化指数で、図 1 に示すように、その会話の場(今ここ)に最も近い(脱文  脈化指数が低い)ものから、最も遠い(脱文脈化指数が高い)ものまで配置されている。発話機能は 「提言」か「命題」に分類する。「提言」は「その本を取ってください」のような、会話当事者がいるその場での品物・行為の交換に関する提供・命令で、修辞機能が【行動】、脱文脈化指数が $<1>^{7)}$ と、この段階で特定される。最も脱文脈化指数の低い発話である。「命題」は、情報を交換する陳述・質問が該当し、このあと中核要素と現象定位を認定する。 中核要素は、基本的に主語によって表現され ${ }^{8}$ ,「状況内」「状況外」「定言」に分類する。「状況内」 は、中核要素がメッセージの送り手や受け手のいる場に存在する人や事象の場合に該当し、下位分類としてメッセージの伝達に参加している送り手・受け手を「状況内; 参加」、参加していない人や事象は 「状況内; 非参加」に分類する。「状況外」は、中核要素がその場に存在しない人や事象の場合である。「定言」は、普遍的な性質などを述べているメッセー ジの主語が該当する。中核要素が省略されている場合には復元して認定する。 現象定位は基本的にテンスや時間を表す副詞などによって表現され、「過去」「現在」「未来」「仮定」 に分類する。メッセージの内容がすでに起こった出来事であれば「過去」、その時点で起こっていることであれば「現在」となる。「現在」は、普遍的・習慣的か、一時的かの下位分類がある。まだ起こっておらず、これから起こる事象は「未来」で、意図を持って実行できるか否かによって「未来; 意図的」か 「未来; 非意図的」に分類する。なんらかの条件のもとで出来事が起こる場合には「仮定」に分類する。 発話機能・中核要素・現象定位の分類後、表 2 から修辞機能と脱文脈化指数を確認する。なお、これらのアノテーションは筆者の一人とこの分類法を熟知している作業者の二名で行い、認定が分かれた場合には必要に応じて検討し、最終的には筆者の一人が決定した。 ## 3 分析結果と考察 図 2、図3 にセッションごとの修辞機能・脱文脈化指数の出現をグラフでを示した。図 2 の「私の好きな色」の「話題提供」では、【実況】<2>、【自己記述】<7>が多く用いられていることがわかる。これは、提供する話題が「私の好きな色」であることか  ら、自分自身に近い話を述べる必要があるためと考えられる。「私の好きな色」の一つのセッションの 「話題提供」を表 3 に示した。「この写真は今、今日ここで撮りました。(命題 \& 状況内; 非参加 \& 現在;非習慣・一時的)【実況】<2>」から始まり、写真に写っているものの紹介【観測】<8>がなされ、後半には、撮影したものに関する一般的な説明【説明】 <13>も含まれているが、自分の好きな色の紹介【自己記述】<7>、撮影したものに関する自分の習慣【自己記述】<7>のように、ほとんどが自分自身にかかわることについて述べられている。 一方、同じテーマ「私の好きな色」でも、「質疑応答」においては、【説明】<13>や【観測】<8>が多く用いられている。例えば、「濃紺て素敵ですよね。(命題\&状況外 \& 現在; 習慣的 - 恒久)【説明】 <13>」、「紺って落ち着きますよね。【説明】<13>」「紺の背広は少し着古してくると光ってくるんですよ。【説明】<13>」のように、一般的な話題の発話である。また、「手をふくハンカチなんです。(命題\&状況内 ; 非参加 \& 現在 ; 習慣的 - 恒久【観測】<8>)」「素敵なプレゼントですね。【観測】<8>」「あれ手袋って長いんですか。【観測】<8>」「わりにこの辺までありますね。【観測】<8>」「かっこいい犬ですね一。【観測】<8>」のように、写真に写っているものについての質疑応答が交わされている。 次に、図 3 に示したテーマ「平成から令和」の 「話題提供」をみると、【状況内回想】<3>が多く用いられている。これは、自分や対話の相手、及びその場にあるものを主語にして過去形で話している場合が該当する。たとえば、「僕は東京ドーム行ったんですね。(命題\&状況内 ; 参加 \&過去)【状況内回想】<3>」や「両方からこれ写真撮りましたんで【状況内回想】<3>」のように、写真を撮った場所や撮った行為について述べるものがある。また、【状況外回想】<10>の使用も見られる。これは「(東京ドームは)昭和の最後千九百八十八年に出来上がって(命題\&状況外\&過去)【状況外回想】<10>」 や、「このモニュメントがあったもんですから。【状況外回想】<10>」、「ま人がいっぱいいたんですけれども【状況外回想】<10>」のように、主語が共想法を行なっているその場にはなく、時制が過去の場合に該当する。これらの発話は、この「平成から令和」というテーマの場合には、話題を提供するために必要な素材である写真をどのように撮影したかについてや、その撮影の際の出来事が語られてい 図 2 「私の好きな色」セッションごと修辞機能・脱文脈化指数 るためと考えられる。「私の好きな色」の場合とは異なる点である。 さらに、図 3 の「平成から令和」の「質疑応答」 をみると、【観測】<8>、【説明】<13>、の使用が多く見られる。例えば、「まん中はなんです?(命題&状況内; 非参加 \& 現在 ; 習慣的 - 恒久)【観測】<8>」 や「(この文字が)令和に見えるんですよ。【観測】 <8>」のように、話題として提供された写真の中のものをそこにあるものとして質問したり、回答したりしているものや、「○○神社ってゆうのはどの辺にあるんですか。(命題\&状況外\&現在; 習慣的恒久)【説明】<13>」や「(その神社は)普段はねあんまり人が来ない【説明】<13>)」のように、その場にはないものについて詳しく説明を聞いたり補足説明したりするものが含まれる。これらは、「私の好きな色」の「質疑応答」でも同様であった。「平成から令和」のセッションD とセッション E では、「質疑応答」で【状況内回想】<3>も用いられており、「東京駅はなに入場券買って入ったんでしょう。(命題\&状況内; 参加\&過去)【状況内過去】 <3>」「であの一そうですね。東海道線のあのあたりのホームに行ってみたんですね。【状況内過去】 <3>」「ななんで東京駅。(を選んだの?)【状況内 表 3 「私の好きな色」の「話題提供」から & 命題 & 状況内; 非参加 & 現在; 非習慣・一時的 & 【実況】 & $<2>$ \\ 図 3 「平成から令和」セッションごと修辞機能・脱文脈化指数 過去】<3>」のように、「話題提供」では話されなかったことの確認などがされている。 ## 4 おわりに 本発表では、共想法による談話の特徴を脱文脈化程度の観点から検討するケーススタディの位置付けとして、分析を行い、1)「話題提供」と「質疑応答」では発話の修辞機能・脱文脈化指数は異なるか、2)テーマによって修辞機能・脱文脈化指数は異なるか、の 2 点について、確認を行なった。 分析の結果、「話題提供」と「質疑応答」では、「質疑応答」のほうで【説明】<13>が用いられるようになるなど、使用される修辞機能・脱文脈化指数に違いが見られた。また、「平成から令和へ」という個人と直接関係のない一般的な話題のテーマでは、【自己記述】<7>が少なく、「私の好きな色」という個人の好みについて述べる脱文脈化程度の低い発話が生じることが予想されるテーマとは、使用される修辞機能・脱文脈化指数に違いがあることがうかがえた。発話において脱文脈化の程度が偏らないことが脳の活性化につながり認知症予防の観点から良いと仮定した場合に、話題によっては脱文脈化程度が偏りうるため話題の選択をうまく調整する必要があること、また話題の提供では偏る場合においても質疑応答する中で脱文脈化の程度に広がりを持たせることが可能であることが示唆された。 本発表での報告は、ケーススタディであり、今後さらにデータを増やして、脱文脈化程度の観点からの、共想法談話の特徵を明らかにしていきたい。また、特定の個人の発話の特徴の有無について調べることにより、共想法の進め方に知見を提供できればと考えている。 ## 謝辞 本研究は JSPS 科研費 JP19K00588, JP18KT0035, JP20H05022 の助成を受けたものです。共想法に参加頂いた方に感謝申し上げます。 ## 参考文献 [1]大武美保子. 介護に役立つ共想法: 認知症の予防と回復のための新しいコミュニケーション. 中央法規出版, 2012. [2] 大武美保子. 認知症予防回復支援サービスの開発と忘却の科学. 人工知能学会論文誌, 25(5):662-669, 2010. [3]Carmel Cloran. Rhetorical units and decontextualisation: An enquiry into some relations of context, meaning and grammar. PhD thesis, University of Nottingham, 1994. [4]Carmel Cloran. Contexts for Learning. In In Pedagogy and the Shaping of Consciousness: Linguistic and Social Processes, pages 31-65. Cassell Academic London, 1999. [5]佐野大樹・小磯花絵. 現代日本語書き言葉における修辞ユニット分析の適用性の検証-「書き言葉らしさ・話し言葉らしさ」と脱文脈化言語・文脈化言語の関係- .機能言語学研究, 6:59-81, 2011. [6]田中弥生・浅原正幸・小磯花絵. 手順説明談話における脱文脈化の諸相. 言語処理学会第 26 回年次大会発表論文集, pages 720-723, 2020. [7]田中弥生・小磯花絵. 脱文脈化の観点からみる職場における取引先との談話の特徴. In 言語資源活用ワークショップ発表論文集. 国立国語研究所, 2020. [8]佐野大樹. 日本語における修辞ユニットの方法と手順 ver.0.1.1一選択体系機能言語理論(システミック理論) における談話分析一(修辞機能編), 2010. [9]佐野大樹. 特集選択体系機能言語理論を基底とする特定目的のための作文指導方法について一修辞ユニットの概念から見たテクストの専門性. 専門日本語教育研究, (12):19-26, 2010.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-13.pdf
# エスキシェヒル・カラチャイ語における「動詞 + tur-」 藤家洋昭 Akbay, Okan Haluk } 大阪大学 1. はじめに エスキシェヒル・カラチャイ語は、トルコ共和国エスキシェヒル県で話されているチュルク系 の言語のひとつである。チュルク系の言語に属す る言語にトルコ語、ウイグル語、カザフ語などを あげることができる。エスキシェヒル・カラチャ イ語についてのこれまでの記述はまったくない わけではない[1] が、極端に少なく、詳しいこと は何もわかっていないといってもさしつかえな い。本研究では、エスキシェヒル・カラチャイ語 における動詞 + tur という形をとりあげる。この 形は日本語における「動詞+ている」のようにア スペクトを表すと考えられるが、詳しいことはわ かっていない。そこで、本研究では、エスキシェ ヒル・カラチャイ語の動詞 + tur-の解明の第一歩 として、どのような動詞が tur と結びつくか、そ して結びついたときにどのような意味になるか を明らかにすることを目標とする。なお、表記に ついてであるが、エスキシェヒル・カラチャイ語 の公式な表記法は存在しない。本稿ではチュルク 語共通アルファベット(Ortak Türk Alfabesi)によ りエスキシェヒル・カラチャイ語を表記する。 ## 2. 問題のありか エスキシェヒル・カラチャイ語において、動詞 + tur という形がアスペクトを表すらしいということはエスキシェヒル・カラチャイ語のデータを考察する過程でわかってきた。動詞 + tur という形がアスペクトを表すのであれば、次のステップとしてこの形が具体的にアスペクトに関する何を表しているかということを明らかにすること が必要になる。エスキシェヒル・カラチャイ語は系統的にはチュルク系の言語である。他の多くのチュルク系の言語と同じように、主語-目的語-述語、すなわちSOV の語順を持つ主辞後置型の膠着語であり、語順などについては日本語と似た印象を与える。本研究でとりあげる動詞 + tur という形も、日本語における「動詞+ている」と表面的には一見似た印象を与える。日本語の「動詞十ている」についての研究は、金田一[2]以降膨大なものがあることをあえて示す必要もない。本研究ではそれら日本語の「動詞+ている」の研究を参考にしつつエスキシェヒル・カラチャイ語の 「動詞+tur」を記述する。具体的には、どのような動詞が tur と結びつき、結びついたときのアスペクト意味がどうなるかということを明らかにすることをめざす。 3. データ この章では、エスキシェヒル・カラチャイ語における「動詞+tur」に関するデータを考察する。 なお、本研究で扱うデータはすべてエスキシェヒル・カラチャイ語の母語話者(1970 年代生まれ) からフィールド言語学的手法により直接採集したオリジナルなものである。 3.1 独立した動詞としての tur-のデータ 「動詞 + tur」という形に見られる tur- は、何らかの動詞に後続しない tur-、つまり独立した動詞として用いられる tur- と形式が一致する。ここでは、「動詞+tur-」における tur- と独立した動詞として用いられる tur- が本来的には同じものであるという前提に立ち、tur- が独立した動詞と して用いられる場合の用法を見る。ただし、独立した動詞としての tur- についても記述は進んでおらず、不明な点が多い。 これまでの調査[3]の結果では、tur- には大きくわけて次のような意味用法がある。 ・「住む、暮らす」 (1) Biz hoyda turabiz. 私たち・村に・tur 現在・一人称複数「私たちは村に住んでいます。」 ・「起きる、起き上がる、立つ、立ち上がる」 (2) Tur keç boldu! tur 命令 2 人称単数・遅く・なった「起きなさい、 もう起きる時間です。」 (3) Turuguz keteyik! tur 命令 2 人称複数・行きましょう「さあ、(君た ち)立ち上がりなさい。行きましょう。」 この意味での用法はなぜか命令形のものが多 く、平叙形にすると容認されない。 (4) *Şamay sağat 7 de turdu. シャマイ(人名) ・時・ 7 に・tur 過去 3 人称 ・「下がる、どく、向く、居場所を変える」 (5) Beri turuguz! こちら側・tur 命令 2 人称複数「(君たち) こちらにどきなさい。」 以上のように、独立した動詞の tur- には「住む、暮らす、起き上がる、立つ、下がる」等の意味があることが指摘できる。 3.2 動詞 + tur- のデー夕 動詞 +tur-の例をあげる。 oquy tur, qaray tur-, uşhuvur ete tur, telefon ete tur süyelip tur, olturup tur, tayanıp tur, canıp tur, cabilip tur, oqup tur, içip tur, qarap tur, uşhuvur etip tur, telefon etip tur, süyele tur, oltura tur, tayana tur, cana tur, açıla tur,cabıla tur, çiriy tur, 以下、これらの例を考察する。 (6) Şamay bu sağatta kitap oquy turat. シャマイ(人名)・この・ときに・本・読んで・tur 三人称「シャマイは今本を読んでいる。」 動作の進行を表すと考えられる。 (7) Şamay bu sağatta kitap oqup turat. シャマイ(人名)・この・ときに・本・読んで・tur 三人称「シャマイは、最近よく本を読む」 動作の反復あるいは習慣を表すと考えられる。 これ以外の、suw içe tur-/ i içip tur-「水を飲む」, televizyonğa qara tur- / qarap tur- 「テレビを見る」 uşhuwur ete tur- / etip tur-「料理を作る」等においても同様の「進行/反復・習慣」の違いが見られる。 (8) Tereze açıla turat. 窓・開く $\mathrm{e} \cdot \mathrm{tur}$ 三人称「密は、開けられようとしている。」 開けられる途中でまだ開いていない。 (9) Tereze açılip turat. 空・開く-p・tur 三人称「窓が開いている。」 結果の残存を表す。 (10) Eşik cabila turat. 扉・閉まる-e・tur 三人称「扉は、閉まろうとしている」 閉まる途中でまだ閉まっていない。 これ以外の、aşarıq çiriy tur- / çirip tur-「食べ物が腐る」等においても同様の「途中/結果の残存」 の違いが見られる。 以上のデータから次のようなことが観察される。 $\cdot$ tur-の前に来る動詞の語末の形の違い ・「進行」「結果の残存」「〜しつつある」「いつも 〜する」という意味の違い である。 これらはいずれも基本的には日本語の「〜てい る」に相当すると考えられる。ただし、これらのデータを観察すると、tur-の前に来る動詞に 2 種類の形が見られる。すなわち、動詞-e という形と動詞-pという形である。 ここまでをまとめると、エスキシェヒル・カラチャイ語の動詞 + tur には、tur-の前に来る動詞の形に少なくとも 2 つの形があることが明らかになった。 それでは、これらの関係、どのような動詞のどのような形と tur-が結びついたときにどのような意味になるのだろうか。 ## 4. 分析 前章で見たデータを分析する。分析は、立場としては語彙主義に立つ主辞駆動句構造文法 (Head-driven Phrase Structure Grammar: HPSG) [4] によるが、具体的には HPSG に語彙概念構造 (Lexical Conceptual Structure: LCS)を組み込んだものを分析に用い、分析デバイスは LCS が中心になる。 ## 4.1 LCS LCS は Jackendoff[5]によって提唱された意味に関する理論である。 LCS には、研究者よる、あるいは、同じ研究者によるものでもバージョンによる違いがあるが、本研究では先行研究[6]にもとづき、次の基本述語を分析の前提にしている。 CAUSE : 外的な誘因が対象物の変化を引き起こすことを表す。 ACT : 継続的あるいは一時的な「活動」を表す。主語の意思によって活動のはじめと終わりを決めることができる。 $\mathrm{ON}$ : ACT と一緒に用いられると働きかけの対象を示す。 BECOME:「変化」を表す。 $\mathrm{BE}$ : 静止した「状態」を表す。 $\mathrm{AT}$ : BE と一緒に用いられて、抽象的状態、物理的位置を示す。 これら基本的述語の組み合わせにより、具体的な語における LCS にもとづく語彙情報は次のようになる。活動自動詞 : [1] ACT] 働きかけ他動詞: [1] ACT ON-2] 変化自動詞 : [ BECOME [2 BE AT-3] 使役他動詞 : [[1] ACT (ON-2)] CAUSE [BECOME [2 BE AT-3]]] これらの中で本研究においてとりわけ重要なのは、基本述語 ACT である。この基本述語は、先にも述べたように主語の意志が関与している。 このため、意志を表寸副詞的修飾語句と相性がいいことが指摘できる。たとえば日本語で言うと 「わざと」などのような副詞的修飾語句である。本研究では、LCS における基本述語 ACT を分析において重視する。 ## 4.2 データの分析 前章でとりあげたデータを分析する。 (11) Samay bu sağatta kitap oquy turat. この文における動詞 oqu-を用いた過去形の文は次のようになる。 (12) Şamay ol kitapnı oqudu. シャマイ・その・本を・読んだ「シャマイはその本を読んだ。」 この例における oqu-「読む」という動詞は意志性つまり ACT を持つと考えられる。これは、「わざと」を表す mahsusを用いた、 (13) Şamay ol kitapnı mahsus oqudu. シャマイ・その・本を・わざと・読んだ「シャマイはその本をわざと読んだ」 が容認されることから裏付けられる。 以上はいわゆる他動詞の例であるが、いわゆる自動詞の例を見てみると次のようになる。 (14) Sabiy tepsey turat. こども・おどる-e・tur 三人称「こどもが踊っている。」 tepse-という動詞は、 (15) Sabiy mahsus tepsedi. こども・わざと・おどった「こどもはわざと踊った。」 が容認されることから、ACT を持つと考えられる。 以上のことから、自動詞他動詞にかかわらず、 「ACT を持つ動詞-e tur-」は継続を表すと考えられる。 これに対して、tur-の前にくる動詞の形が-p である例は次のようになる。 (16) Şamay bu sağatta kitap oqup turat. シャマイ(人名)・この・ときに・本・読んで・tur 三人称「シャマイは、最近よく本を読む」 「ACT を持つ動詞-p tur-」は動作の繰り返しを表すと考えられる。 次に、意味的に別のグループに属すると考えられる動詞の例を見る。 (17) Tereze açılıp turat. 窓・あく-p・tur(三人称)「窓があいている。」 この例における動詞 açı1- の意志性を mahsus との共起関係で見ると次のようになる。 (18) *Tereze mahsus açıldı. 窓・わざと・あいた したがって、açıl-にはACTがないと考えられる。 このように、ACT が存在しない動詞が-p という接尾辞をとり tur-と結びついたときは、結果の残存を表すと考えられる。それでは、aç1l-のような、 ACT を持たないと考えられる動詞が-e 形をとつて tur-と結びついたときはどうなるのだろうか。 çiri-「腐る」を例にとると次のようになる。 çiri- という動詞の意志性を見ておく。 (19) *Aşarıq mahsus çiridi. 食べ物・わざと・çiri 過去 この文が容認されないことから、çiri-には意志性がない、すなわち ACT を欠くと考えられる。次に、çiri- が tur- と結びついた例を見ると次のようになる。 (20) Aşarıq çiriy turat.食べ物・腐る-e・tur 三人称「食べ物が腐りつつある」 これは、腐る途上でまだくさってはいない、つまり、もう少しで結果状態にたどりつく、という意味を表す。 このようなことから、ACT を持たない動詞が-e 形になって tur-と結びついたときは、もう少しで結果状態になるという意味になるということができる。 4.3 まとめ 以上見てきたように、エスキシェヒル・カラチヤイ語の動詞 + tur は、動詞が持つ意味と、turの前に来る動詞の形によって全体のアスペクトが決まることがわかった。 これらをまとめると次のようになる。なお、 +ACT は動詞の LCS に ACT を持つもの、-ACT は動詞の LCS に ACT を持たないもの、-e は turの前に来る動詞の形 (-e 以外に -a, -yを含む)、-p は tur-の前に来る動詞の形 (-p 以外に -ip, -ip, -up, -üp を含む)を表す。なお、下ではもう少しで結果状態にたどりつくことを「途上」と記した。 ## $+\mathrm{ACT \quad-\mathrm{ACT}$} -e 進行途上 -p 反復残存 ## 5. 結論 本研究で明らかになったことは次のとおりである。 ・tur が組み合わさる動詞は、その動詞の LCS に ACT を持つかどうかで意味の違いが見られる。 - tur-と組み合わさる動詞は、-e, -p 等の形式を伴うが、それら形式の違いによって意味の違いが見られる。 参考文献 [1] Seegmiller, Steve (1996). Karachay. München: LINCOM EUROPA. [2] 金田一春彦 (1950).「国語動詞の一分類」『言語研究』 15 . [3] 藤家洋昭 Akbay Okan Haluk. 準備中. 未公刊. [4] Sag I. A. \& Wasow T. (1999). Syntactic Theory: A Formal Introduction. CSLI. [5] Jackendoff, R. (1990). Semantic structures. MIT Press. [6] 影山太郎 (1999).『形態論と意味』くろしお出版.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-14.pdf
# Relation between Word Order of Languages and ## Serotonin Transporter Gene \author{ Terumasa EHARA(江原暉将) \\ Ehara NLP Research Laboratory \\ eharate @ gmail.com } ## 1 Introduction Serotonin transporter gene (5-HTTLPR) has two alleles: Short (S) and Long (L). Relative frequency of $S$ allele (S-ratio in this paper) differs across populations. African populations have low S-ratio, say $20 \%$ and East Asian populations have high S-ratio, say 70\% (Gureyev et al., 2014). Courtet et al., (2001) show that the relative frequencies of the $\mathrm{S}$ allele were significantly higher in the violent suicidal attempters than in the controls. Chiao and Blizinsky (2010) show culture-gene coevolution between allelic frequency of 5-HTTLPR and cultural values of individualism-collectivism. They show that collectivistic cultures were significantly more likely to comprise individuals carrying the $\mathrm{S}$ allele of the 5-HTTLPR. We have investigated relations between word order (WO) of languages (focused on the order of Object and Verb: OV/VO) and suicide-rate / homicide-rate of the speakers' populations (Ehara, 2015), the distribution of Ychromosome DNA haplogroups of speakers' populations (Ehara, 2018) and the distribution of mitochondrial DNA haplogroups of speakers' populations (Ehara, 2020). In this paper, we will investigate relation between word order of languages and the S-ratio of the speakers' populations. Our conjecture is "OV language speakers have high Sratio and VO language speakers have low S-ratio". ## 2 Data Data for the word order (OV/VO) are obtained mainly from the WALS online database (Dryer and Haspelmath, 2013) and Yamamoto's book (Yamamoto, 2003). Data for S-ratio of populations used in this study are listed in Appendix. They are obtained from papers described in the reference column of the appendix. Language names, their word orders and their speakers' S- ratio are listed in Table 2. Some languages (for example, Mandarin) appear multiple times, because they are spoken in multiple areas or by multiple populations. ## 3 Global analysis T-test is done for the data in Table 2. OV vs VO word order language speakers have significantly different $\mathrm{S}$ ratio, that is shown in Table 1. Table 1: T-test result Figure 1 shows the relation between East longitude of languages and S-ratio. East longitude of languages are obtained from WALS database. In this Figure, blue dots correspond OV languages and red dots correspond VO languages. Most of languages in 100-150 east longitude (East Asian languages) have high S-ratio. There are several outliers in this Figure. Some of them will be explained in section 5 . Figure 1: East longitude of languages and S-ratio Table 2: Word Order of languages and S-ratio NO: No dominant order 20.00 VO Arabic (Modern Standard) VO Hungarian NO German VO Czech VO Swedish 4 Local analysis 4.1 Ethiopia Many Ethiopians speak Amharic or Oromo, both of them are OV type. Many languages in Africa are VO type. Table 3 shows the data from Africa. Ethiopian's S-ratio is higher than the S-ratio of other African populations. Sandawe is OV type and has low S-ratio that is outlier. Table 3: Data from Africa & \multicolumn{1}{|c|}{} & \multicolumn{1}{|c|}{ language } & WO & S-ratio \\ ## 4.2 Basque Basque is OV type and many of European languages are VO type. Table 4 shows the data from South Europe. Basque has highest $\mathrm{S}$-ratio. Table 4: Data from South Europe & & language & WO & S-ratio \\ ## 4.3 Turkey Turkish is OV type. Table 5 compares languages Turkish and surrounding areas of it. Turkish is in second rank. Hebrew (Modern) spoken by Samaritan has highest S-ratio, that is outlier of the VO type. Other Israeli populations have middle level of S-ratio in this region. Azerbaijani, which is OV type, has also high S-ratio. Table 5: Data from West Asia and East Europe & \multicolumn{1}{|c|}{} & \multicolumn{1}{|c|}{ language } & WO & S-ratio \\ ## 4.4 Russia Table 6 shows Russian data. Two VO type languages (Russian and Komi Zyrian) speakers have low S-ratio. ## Table 6: Data from Russia & \multicolumn{1}{|c|}{} & \multicolumn{1}{|c|}{ language } & WO & S-ratio \\ OV type Adyghe speaking Adygei has low S-ratio that is outlier. ## 4.5 Kashmir Although many Indian languages are OV type, Kashmiri is VO type. Table 7 shows Kashmiri and surrounding areas' data. Kashmir has lowest S-ratio. Table 7: Data from Kashmiri and surrounding areas & \multicolumn{1}{|c|}{} & language & WO & S-ratio \\ ## 4.6 East and South East Asia Data from East and South East Asia are shown in Table 8. Japanese and Korean speakers have high S-ratio. On the other hand, OV language speakers in China (Kazakh, Khalkha and Uygur) have lower S-ratio than Mandarin speakers. Nasioi is also the outlier of OV language speakers. Table 8: Data from East and South East Asia & \multicolumn{1}{|c|}{} & language & WO & S-ratio \\ ## 4.7 Native Americans Table 9 shows data from Native Americans. Top 5 languages are OV type or No dominant word order type (NO). Pima Bajo and Surui speakers are outlier of OV languages speakers in this region. Table 9: Data from Native Americans & \multicolumn{1}{|c}{} & \multicolumn{1}{|c|}{ language } & WO & S-ratio \\ ## 5 Examination of the outliers Local analysis shows that there are several outliers. Table 10 shows the number of speakers of these outlier languages that are obtained from Wikipedia. Except for OV languages in China (Kazakh, Khalkha and Uyghur), the number of speakers of outlier languages are rather small. This fact may affect the S-ratio. Table 10: Number of speakers of outlier languages \\ ## 6 Conclusion and Future Works We have investigated the relation between word order of Object and Verb (OV vs VO) of languages and the relative frequency of serotonin transporter gene 5- HTTLPR's allele S (S-ratio) of their speakers' population. By statistical analysis (t-test) for global data, we show "OV language speakers have high S-ratio and VO language speakers have low S-ratio". S-ratio differs geographically. So, we have executed local analysis that shows similar results from the global analysis. To clarify the reason why the above relation holds is the future work. Another future work is to clarify the reason why the outliers exist. ## References Laith Naser Al-Eitan, Saied Ali Jaradat, Wenwen Qin, Diah Mutiara B. Wildenauer, Dieter Db Wildenauer, Gary K. Hulse, and Guan K. Tay. 2014. Characterization of serotonin transporter gene (SLC6A4) polymorphisms and its association with drug dependence in a Jordanian Arab population. Toxicology and Industrial Health, 30(7):598610. Rafael Bisso-Machado, Virginia Ramallo, Eduardo TarazonaSantos, Francisco M. Salzano, Maria Cátira Bortolini, and Tábita Hünemeier. 2013. Brief communication: 5-HTTLPR genetic diversity and mode of subsistence in Native Americans. American Journal of Physical Anthropology, 151(3):492-494. Joan Y. Chiao and Katherine D. Blizinsky. 2010. Culture-gene coevolution of individualism-collectivism and the serotonin transporter gene. Proceedings of the Royal Society B: Biological Sciences, 277(1681):529-537. P. Courtet, P. Baud, M. Abbar, J. P. Boulenger, D. Castelnau, D. Mouthon, A. Malafosse, and C. Buresi. 2001. Association between violent suicidal behavior and the low activity allele of the serotonin transporter gene. Molecular Psychiatry, 6(3):338-341. Matthew S. Dryer and Martin Haspelmath. 2013. The World Atlas of Language Structures Online, Jena: Max Planck Institute for the Science of Human History, https://wals.info/, accessed on 2018-03-09. Terumasa Ehara. 2015. Relation between Word Order Parameters and Suicide / Homicide Rates. Jounal of Yamanashi Eiwa College, 13:9-29. Terumasa Ehara. 2020. Relation between Word Order of Languages and the Entropy of Mitochondrial DNA Haplogroups Distribution of the Speakers' Population. In Proceedings of The 26th Annual Meeting of The Association for Natural Language Processing, pages 490-493. Terumasa EHARA. 2018. Relation between Word Order of Languages and the Entropy of Y-chromosome Haplogroup Distribution of the Speakers' Population. In Proceedings of The 24th Annual Meeting of The Association for Natural Language Processing, pages 1019-1022. Luke Esau, Mandeep Kaur, Lucinda Adonis, and Zainunisha Arieff. 2008. The 5-HTTLPR polymorphism in South African healthy populations: A global comparison. Journal of Neural Transmission, 115(5):755-760. Noreen Goldman, Dana A Glei, Yu-Hsuan Lin, and Maxine Weinstein. 2010. The Serotonin Transporter Polymorphism (5-HTTLPR): Allelic Variation and Links with Depressive Symptoms. Depress Anxiety, 27(3):260-269. A. S. Gureyev, A. A. Kim, Ye D. Sanina, V. I. Shirmanov, V. A. Koshechkin, O. P. Balanovskiy, N. K. Yankovskiy, and S. A. Borinskaya. 2014. Serotonin transporter gene 5HTTLPR VNTR allele frequency distribution in Africa and Eurasia. Russian Journal of Genetics: Applied Research, 12(3):71-86 (in Russian). Xian Zhang Hu, Robert H. Lipsky, Guanshan Zhu, Longina A. Akhtar, Julie Taubman, Benjamin D. Greenberg, Ke Xu, Paul D. Arnold, Margaret A. Richter, James L. Kennedy, Dennis L. Murphy, and David Goldman. 2006. Serotonin transporter promoter gain-of-function genotypes are linked to obsessive-compulsive disorder. American Journal of Human Genetics, 78(5):815-826. H. L. Khan, S. Bhatti, S. Abbas, Y. L. Khan, R. M.M. Gonzalez, M. Aslamkhan, G. R. Gonzalez, and H. H. Aydin. 2018. Serotonin transporter (5-HTTLPR) genotypes and trinucleotide repeats of androgen receptor exert a combinatorial effect on hormonal milieu in patients with lifelong premature ejaculation. Andrology, 6(6):916-926. I. Mata, M. J. Arranz, A. Patiño, T. Lai, M. Beperet, L. Sierrasesumaga, D. Clark, F. Perez-Nievas, L. Richards, F. Ortuño, P. Sham, and R. W. Kerwin. 2004. Serotonergic Polymorphisms and Psychotic Disorders in Populations from North Spain. American Journal of Medical Genetics Neuropsychiatric Genetics, 126 B(1):88-94. Michael Minkov, Vesselin Blagoev, and Michael Harris Bond. 2015. Improving Research in the Emerging Field of CrossCultural Sociogenetics: The Case of Serotonin. Journal of Cross-Cultural Psychology, 46(3):336-354. Suriati Mohamed Saini, Nik Ruzyanei Nik Jaafar, Hatta Sidi, Marhani Midin, Azizah Mohd Radzi, and Abdul Hamid Abdul Rahman. 2014. Serotonin transporter gene polymorphism and its association with bipolar disorder across different ethnic groups in Malaysia. Comprehensive Psychiatry, 55(SUPPL. 1):S76-S81. John D. Murdoch, William C. Speed, Andrew J. Pakstis, Christopher E. Heffelfinger, and Kenneth K. Kidd. 2013. Worldwide population variation and haplotype analysis at the serotonin transporter gene SLC6A4 and implications for association studies. Biological Psychiatry, 74(12):879-889. S Nasserddine, K Hamzi, B Diakite, N Serbati, and S Nadifi. 2012. Distribution of 5-Httlpr Serotonin Transporter Polymorphism in Moroccan Population. Int. J. LifeSc. Bt \& Pharm. Res, 1(2). Tatyana Noskova, Nela Pivac, Gordana Nedic, Anastasiya Kazantseva, Darya Gaysina, Gulnaz Faskhutdinova, Anna Gareeva, Zulfiya Khalilova, Elza Khusnutdinova, Dragica Kozaric Kovacic, Zrnka Kovacic, Mladen Jokic, and Dorotea Muck Seler. 2008. Ethnic differences in the serotonin transporter polymorphism (5-HTTLPR) in several European populations. Progress in Neuro-Psychopharmacology and Biological Psychiatry, 32(7):1735-1739. Yan-hui QIAO, Mahmut $\cdot$ Halik, Hong-li ZUO, Tuerhong $\cdot$ Kewer, and Dolkun $\cdot$ Mamatyusupu. 2007. A Study of the Serotonin Transporter-linked Promoter Region Polymorphism in Xinjiang Uygur, Kazak, and Mongol Ethnic Group. ACTA ANTHROPOLOGICA SINICA, 26(3):259-263 (in Chinese). Fatemeh Sadat Rashidi, Ehsan Ahmadipour, Sepideh Shiravand, Abolhassan Ahmadiani, Sareh Asadi, and Jamal Shams. 2018. Association of the functional serotonin transporter haplotype with familial form of obsessive compulsive disorder in Iranian patients. International Journal of Psychiatry in Clinical Practice, 22(1):47-53. Hideki Yamamoto. 2003. Survey and Historical Study of Geographical and Genealogical Distribution of Word Order around the World. Tansuisha (in Japanese). ## Appendix Data used in the study & Language & wo & S-ratio & Reference \\ & Language & Wo & S-ratio & Reference \\ & vo & 49.26 & (Chiao and Blizinsky, 2010) \\ WO: Word order, OV: Object verb order, VO: Verb object order, NO: No dominant order
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-15.pdf
# コロナ禍の状況を自由記述文で記録し分析する試み 那須川哲哉* 鈴木祥子* 村岡雅康* 平野真理** *日本アイ・ビー・エム株式会社 東京基礎研究所 $* *$ 東京家政大学 人文学部 *\{nasukawa, e30126, mmuraoka\}@jp.ibm.com **hirano-m@tokyo-kasei.ac.jp ## 1 はじめに 新型コロナウイルス感染症の流行による危機的状況(以降「コロナ禍」)が続く中, 日常生活におけるコロナ禍の影響を記録し分析可能にすることで,例えば感染者数の増減傾向といった変化の方向性を捉えるなど,何らかの有用な知見の獲得に結びつけられる可能性があるのではないかと考えた. 本稿では, テキストデータを中心としたコロナ禍に関するデー タ収集の取り組みと, この取り組みから得られた知見を紹介する。 ## 2 コロナ禍データの記録・収集 ## 2.1 コロナ禍データ収集方針 大きな災害に関するテキストデータを収集し分析する取り組みとして, 著者らは, 東日本大震災及び熊本地震の際に, Twitter へ投稿された関連ツイートを収集し分析した $[1,2]$. 東日本大震災の際には,「地震」「被災」「原発」というキーワードに加え, \#jisin 及び \#jishin というハッシュタグを対象としてデー タを収集した。また, 熊本地震の際には, Tweet Location の情報と被災地の地名のキーワードを手がかりにして,データを収集した。各々のケースで,毎日数十万件規模のデータが集まり, IBM $®$ Content Analytics[3]などのテキストマイニングツールを用いることにより,被災地で不足している物資の情報などを捉えることができた. 今回のコロナ禍に関しては, 震災と異なり, 被災地や被災者が限定されない上, 日々の生活全般にどのような影響が生じるかの予想が困難である.そのため, 何らかのキーワードを設定してデータ収集を行うのは難しい. また,コロナ禍がどれだけの期間続くか分からず, 長期的な取り組みを行なう必要があると考えた. そこで, コロナ禍で感じたことや気付いたことを多くの人に自由記述形式でテキスト化 してもらい,それを集めて分析するというアプロー チを取ることにし, 入手可能なデータを出来るだけ多く収集することにした. ## 2.2 Slack チャンネルの作成とデータ収集 るコミュニケーションツール上に,コロナ禍に関する情報を投稿したり閲覧したりするためのチャンネルを作成した. その上で社内の参加者を募り, 書き込みを依頼した。2020 年 4 月 21 日にこの取り組みを始めて以来,グループ会社や海外を含む多様な部署から参加者が集まり,2021 年 1 月 15 日時点の参加者は 348 名になっている. 投稿データの言語は日本語で,「マスクを買いに行ったがどこにも売っていない」「久しぶりに電車に乗ったら車内広告が少なかった」といった体験談や「こんな報道があった」という URL 付きの報告など多様な内容が簡梁に表現されている. 各投稿には投稿者の名前が表示され,閲覧者が絵文字リアクションという機能で各投稿に対し「残念」「確かに」といった反応を示せるようになっている。 この Slack チャンネルへの 2020 年 12 月末までの書き込み件数の状況を図 1 に示す. 図 1: Slackチャンネルへの月別投稿データ件数 2020 年 12 月末までに合計 2,820 件の投稿が集まり,各投稿の平均文字数は, 中に含まれる URL の文字数も含めて 141.1 文字となっている.  ## 2.3 コロナ日記の収集 IBM 社員とは異なる母集団のデータも集めて比較したいという考えから, 下記 2 大学の学生にも協力を仰ぎ,データ収集を行なった。 滋賀大学データサイエンス学部において, 2020 年 6 月 13 日に「データサイエンス実践論 $\mathrm{A}\rfloor$ という講義でテキストアナリティクスを紹介する機会を活かし, その受講生 41 名に依頼して, 5 月 30 日から 12 日間,コロナ禍で感じたことや気付いたことなどを簡単な日記形式で記録・提供してもらった. Slack チヤンネルへの投稿と異なり他人に読まれることは意識せずに書き溜めたデータをレポート的に提出してもらった. 同日中でもトピックが異なる場合は, 複数件のデータにするよう依頼し, また, 受講課題として基本的に毎日書くようガイドした. その結果, 536 件のデータが集まり, 各データの平均文字数は 39.5 文字であった. 日別の件数分布を図 2 に示す. 図 2: 滋賀大学コロナ日記の日別データ件数 同様に, 首都圈にある A 大学に所属する学生 11 名に対しても依頼を行い,2020 年 5 月 14 日からの 2 ヶ月間にわたるコロナ日記を提供してもらった. その結果, 7 月 19 日までの 521 件のデータが集まった. 各データの平均文字数は 153.2 文字であった.日別の件数分布を図 3 に示す. 図 3: A 大学コロナ日記の日別データ件数 ## 2.4 データ収集の難しさと方向性 この試みで,データ収集を長期的に続けている Slack チャンネルに関しては, 開始後 2 ケ月で参加者が 2 百名を超え, さらに趣旨説明のセミナーなどを行った結果, 6 月末には 3 百名を超えた. その後も参加者数は増加しているが,投稿件数はなかなか増えない状況が続いている. 原因の一つとして, 記名式であり,多くの同僚に読まれることを意識して記入することに敷居の高さを感じる参加者が多いことが考えられる。 当初は, 数十万〜数百万件規模の大量のデータを収集し,テキストマイニング技術[4,5]を用いて, 個々のテキストに目を通すだけでは気付かないような知見の獲得を実現することを目指していた. 現在では, コロナ禍の長期化が見えてきたこともあり, 継続的に収集することにより,コロナ禍の継時的変化を捉えることを重要視するようになってきている. ## 3 コロナ禍データの分析と考察 ## 3.1 記述内容の比較 前節で紹介した 3 種のデータを IBM Watson ® Discovery ${ }^{\mathrm{ii}}$ の Content Mining application というテキストマイニングツール(以下 WD と略記) に投入し, 3 種をまとめた全データにおける出現確率よりも,各データにおける出現確率が高い表現を特徴的な表現として抽出した結果,下記の傾向が見られた. - 滋賀大学データサイエンス学部のデータ 536 件に特徴的な表現は, 「一日中家」「試験」「暑い」「講義」「彦根」「就活」「バイト」など - A 大学のデータ 521 件に特徴的な表現は, 「美味しい」「寝る」「食べる」「嬉しい」「頑張る」「ゆっくり」「辛い」「犬」「癒す」「姉」「飲む」「泣く」「イライラする」「レポート」など - A 大学データの収集期間と同じ 2020 年 5 月 14 日から 7 月 19 日までに IBM の Slack チャンネルに投稿された 1,089 件のデータに特徴的なのは「記事」「エレベーター」「オフィス」「COVID」「ハンドソープ」「登校」など コロナ日記においては, 日々感じたことが独白的に記述されているのに対し, IBM のデータは Slack チャンネルで公開される性質上, 新聞やネットの記  事で見つけた情報を共有するような内容が多く, 業務や生活全般に関する広い話題が含まれている。 ## 3.2 有益と感じられる情報 2020 年末までに IBM の Slack チャンネルに投稿されたコロナ禍情報は, 合計 2,820 件という, 全件に目を通して分析できる量であり, マイニングによって意外な気付きを見いだすことは難しいが,WD により,図4のように,「ワクチン」に関する投稿が次第に増えてきているといった知見が得られる. 図 4: 増加傾向にある表現の WD による検出画面 2,820 件のうち最も多くのデータに出現する名詞が「人」であり,492 件(17.4\%)に含まれている.次が「コロナ」の 407 件(14.4\%)で,「マスク」の 380 件 (13.5\%)が続く.コロナ禍データの大半が「コロナ」 という表現を含まないことから,コロナ禍に関するデータをSNS 等から収集するためには, コロナ禍に関する多様なトピックの表現をキーワードとして用いる必要があると考えられる. 従って,この試みで収集しているコロナ禍データはコロナ禍関連表現を収集するために活用することもできる.例えば,「リモート手土産」「帰省暮」「幸先詣」といったコロナ禍で生まれてきた新しい表現が,「という言葉」という表現と共起しているのを見出すことができる. 日々この Slack チャンネルにアクセスしている中で,著者らが特に実利性が高いと感じたのが物品の販売に関する情報である.例えば,マスクに関しては,データ収集を開始した当初は,「買えずに困っている」という投稿が多かったが,2020 年 5 月に入ってから次第に「売っていた」「值下がりした」という投稿が見られるようになり,この情報を見て,自宅周辺で適切な值段になるのを待つような動きも見られた. また,「スーパーでバターが買えなくて困っている」という投稿に対し,「ドラッグストアでは買え た」という投稿があり,困っていた投稿者も買えるようになったことが報告されている. 参加者の多くがテレワークを続け外出を控えており,自ら目にできる情報が限られている中,このチヤンネルの情報が個々人の視野を広げる効果を出していると感じられる. ## 3.3 筆者の性格特性の変化の分析 テキストデータから読み取れる情報は,記述された内容だけではない. Big Five Model[6,7]などで数值化できるようになった筆者の性格特性がテキストに表現されることが報告されている[8]. 性格特性は,基本的には個人の特徴として一貫性があることが期待されるが, その判断基準が「人生を楽しんでいる」 かどうかといった本人の感覚に依存していることからも, 個人の状況に応じ, 多少なりとも変動する. 著者らは日本語テキストから筆者の性格特性を推定するシステム (IBM Watson Personality Insights:以下 PI と略記)を開発し[9], これを用いて,2016 年に発生した熊本地震の被災者のツイートを分析した際には, big5_conscientiousness(誠実性・几帳面さ) の facet_cautiousness(注意深さ)の值が被災中に一時的に高まる現象を,また,突然入院した患者のツイートの分析ではbig5_agreeableness(協調性)の值が入院中に一時的に高まる $[10]$ 現象を見出した。 今回収集したコロナ禍データでも同様の性格特性の変化が見られないかを調査した.まずは,A 大学のコロナ日記を対象として,2020 年 5 月 14 日から 6 月 2 日までの 20 日間 (新型コロナウイルスの PCR 検査新規陽性者数が減少傾向にある収束期), 6 月 3 日から 6 月 22 日までの 20 日間(新規陽性数が少ない安定期),6月 23 日から 7 月 13 日(一部 19 日)までの約 20 日間(新規陽性数が増加傾向にある再拡大期)に分け,日記を記述してくれた 11 名の学生の各期間のテキストから PI で推定される性格特性の変化を調査した. さらに,同期間に IBM の Slack チヤンネルへの投稿が多かった 9名のテキストから PI で推定される性格特性の変化も調査した. 双方のデ一タにおいて変化量が比較的大きいのは, big5_conscientiousness $の$ facet_dutifulness (忠実性) であるという結果が得られた。その変化状況を図 5 と図 6 に示す.これらの図からは,自肃を守る生活が続く一方で, そのリターンがないことで徐々に動機付けも下がり, 安定期になって一部の学生や社員の忠実性が低下している様子が見て取れる. さらに 図 5: A 大学コロナ日記の筆者の dutifulness の変化 図 6: IBM の Slack の投稿者の dutifulness の変化 再拡大期に,忠実性の値が再び高まる(戻る)ケー スとさらに下がるケースに分かれる様子が見られる. とりわけ学生においてそのばらつきが顕著であり, このことは, オンライン授業導入当初に大学から学生に対して行われていた遠隔でのサポートが,安定期に入って手薄になったことを反映している可能性もある.こうした長期間にわたる非常事態において学生のドロップアウトを防ぐためには,むしろ安定期のサポートが重要であることがうかがえる. ## 3.4 感染者数増減傾向推定の可能性 この試みを始めるにあたり,変化のきっかけの一部でも捉えられないものかと期待していた感染者数の増減傾向は, コロナ禍が続く中で, 非常に多くの要因に左右される難しい問題であることが分かってきた. Slack チャンネルに蓄積されたデータには,量的な少なさもあり,感染拡大や縮小傾向の特定のきっかけが示されていることは無さそうである。 それでも,今回収集しているデータに加え,日々報道される様々な情報や第一波・第二波を通して, ある仮説を考えるようになった.その仮説とは,危機感を訴える情報が減って安心感が広がると拡大傾向が始まり,拡大傾向に伴い危機感を訴える情報が増えると自粛による行動変容が進み, 縮小傾向に転ずるというものである.この仮説が第三波に当ては まるなら,2020 年 12 月上旬には収束傾向に移行するのではないかという希望的観測をしていた。しかし, 残念ながら 2021 年 1 月に入っても拡大傾向が止まらない状況である。 IBM の Slack データから,その背景を示唆しうる投稿を確認できた. 2020 年 11 月 20 日に『テレビを見ていたら,「これ以上,何をすれば良いのでしょう?」という質問が寄せられていました.』という投稿があり,そこに 12 名が「同感です」というリアクションをしていた. このことから,多くの人が「これ以上何もできない」と考え, 行動変容が起こる余地が減っていた可能性が考えられる。 こういったデータや図 5,6 のようなデータが示唆しうるコロナ疲れの状況を把握することで,新規陽性者数の増減傾向の変化につながる行動変容の余地の大小を多少なりとも捉えられる可能性はありそうだと考えられる。 ## 4 おわりに コロナ禍で自然言語処理の技術を活かそうという多くの取り組み[11-15]が存在する中, 日常生活の状況を記録し役立てようとする試みを示した。社内外の多くの協力者に依存する取り組みであり, データ収集の難しさから,ビッグデータを集めることは出来ていないが,これまでに集まったデータの価値は大きいと感じている. コロナ禍において,ずっと巣ごもり状態にある人がいれば,コロナ禍前と変わらぬ活動を続ける人もいて, 人々の行動や感受性が多様化している. 性格特性の変化にも大きな個人差が認められる。データの継時的変化に顕著な特徴が現れない性格特性も多く,それは,コロナ禍の持つストレス状況のあいまいさや,リスクの捉え方における個人差を反映しているとも推察される.こういった多様性を理解し寛容性を高めることにつながるなら大きな意義があり, その可能性がこのデータには含まれていると考える. ## 謝辞 本取り組みに協力してくださった多くの方々に感謝いたします。 IBM Watson は International Business Machines Corporation の米国およびその他の国における商標.他の会社名, 製品名及びサービス名等はそれぞれ各社の商標または登録商標. ## 参考文献 1. Murakami, Akiko, and Tetsuya Nasukawa. "Tweeting about the tsunami? Mining twitter for information on the Tohoku earthquake and tsunami." In Proceedings of the 21 st International Conference on World Wide Web, pp. 709-710. 2012. 2. Murakami, Akiko, Tetsuya Nasukawa, Kenta Watanabe, and M. Hatayama. "Understanding requirements and issues in disaster area using geotemporal visualization of Twitter analysis." IBM Journal of Research and Development 64, no. 1/2 (2019): 10-1. 3. Zhu, Wei-Dong, Asako Iwai, Todd Leyba, Josemina Magdalen, Kristin McNeil, Tetsuya Nasukawa, Nitaben Nita Patel, and Kei Sugano. IBM content analytics version 2.2: Discovering actionable insight from your content. IBM Redbooks, 2011. 4. 那須川哲哉. テキストマイニングを使う技術/作る技術-基礎技術と適用事例から導く本質と活用法,東京電機大学出版局. 2006. 5. 那須川哲哉, 吉田一星, 宅間大介, 鈴木祥子, 村岡雅康,小比田涼介. テキストマイニングの基礎技術と応用, 岩波書店. 2020 . 6. Goldberg, Lewis R. An alternative" description of personality": the big-five factor structure. Journal of personality and social psychology 59.6: 1216, 1990. 7. McCrae, R. R. and John, O.P. "An introduction to the five - factor model and its applications." Journal of Personality, 60(2), 175-215, 1992. 8. Mairesse, F., Walker, M.A., Mehl, M.R., and Moore, R.K., Using Linguistic Cues for the Automatic Recognition of Personality in Conversation and Text. In Journal of Artificial intelligence Research, 30: 457-500, 2007. 9. 那須川哲哉, 上條浩一. "日本語における筆者の性格推定の取組み" 言語処理学会第 23 回年次大会発表論文集, pp.807-810. 2017. 10. 那須川哲哉, 上條浩一, 榎美紀, 鈴木祥子, 山下紗苗,上泰,権藤恭之,北村英哉,尾崎由佳. "テキストから推定される筆者の性格特性情報の活用の試み と考察" 言語処理学会第 26 回年次大会発表論文集, pp.1439-1442. 2020. 11. 荒牧英治, 若宮翔子, 矢田竣太郎, "COVID-19 に関する自然言語処理",自然言語処理 2020 年 12 月, Journal of Natural Language Processing Volume 27 Number 4, pp.933-937, 2020. 12. 河原大輔, "オープンコラボレーションによる COVID-19 世界情報集約サイトの構築",自然言語処理 2020 年 12 月, Journal of Natural Language Processing Volume 27 Number 4, pp.939-943, 2020. 13. Zhang, Edwin, Nikhil Gupta, Rodrigo Nogueira, Kyunghyun Cho, and Jimmy Lin. "Rapidly Deploying a Neural Search Engine for the COVID-19 Open Research Dataset." In Proceedings of the 1st Workshop on NLP for COVID-19 at ACL 2020. 2020. 14. Wolohan, J. T. "Estimating the effect of COVID-19 on mental health: Linguistic indicators of depression during a global pandemic." In Proceedings of the 1st Workshop on NLP for COVID-19 at ACL 2020. 2020. 15. Sun, Shuo, and Kevin Duh. "CLIRMatrix: A massively large collection of bilingual and multilingual datasets for Cross-Lingual Information Retrieval." In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4160-4170. 2020.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-16.pdf
# ウェブ検索クエリのための 部分一致文字列に対するエンティティ名称予測モデルの提案 豊田 樹生 小松 広弥 熊谷 賢 菅原 晃平 ヤフー株式会社 \{itoyota, hkomatsu, kenkumag, ksugawar\}@yahoo-corp.jp ## 1 はじめに ウェブ検索クエリの多くには部分一致文字列が含まれている。例えば,クエリ“かぐや様”はエンティティ名称“かぐや様は告らせたい〜天才たちの恋愛頭脳戦〜”に対する部分一致文字列である1). しかし,検索クエリとして発行された部分一致文字列が,ウェブページに対するクリック回数がわずかか,またはゼロのテイルクエリである場合は, フィードバックを取得することが困難になる。こういったティルクエリに対してもエンティティリンキングを適切に行えるようにすることは検索性能の高いシステムを作るうえでとても重要である. そこで, 本研究では, エンティティリンキングの構成要素のひとつとして, ウェブ検索クエリのための部分一致文字列に対するエンティティ名称予測モデルを提案し,次のような貢献を行う: (i)ブロッキング [8] を用いた大規模分散処理のための効率的な訓練事例の自動生成方法を提案する. (ii)名称予測モデルのための新たな素性を提案する. (iii)フィードバックの取得できない事例に対する PU(Positive Unlabelled) 学習 [4] を用いたラベリング手法を提案する. (iv)比較実験において, Random Forest[2] の予測値とクリック頻度に基づくモデルの予測值を線形補間により組み合わせることで, nDCG@5 の観点で高い性能を達成したことを示す. ## 2 問題定義 クエリ $q$ 中の主要語 $s_{s}$, 周辺語 $s_{c}$ が与えられたときにエンティティの名称の候補のランキング  2020 年 12 月現在の検索意図を考慮している $\left.\langle s_{1}, \ldots, s_{n}\right.\rangle$ を算出する. 各々の $s_{k}($ for $k=1 \ldots n)$ は次のようにスコアリングされる: $\operatorname{score}\left(s_{k}\right)=\max \left.\{\psi\left(s_{k}, s_{s}, s_{c}, e\right) \mid e \in E, s_{k} \in S_{e}\right.\}$ ここで, $\psi$ はスコアリング関数, $E$ は知識ベース内でのエンティティの集合, $S_{e}$ はエンティティ $e$ から展開できるエンティティ名称の候補の集合である. ## 3 提案手法 本研究は,ブロッキングを用いた訓練事例の生成 (3.1), PU 学習 (3.2)の二つから構成されている. ## 3.1 訓練事例の生成 正例の取得次の条件をすべて満たした場合,クエリ $q$ とエンティティ名称 $s$ は部分一致していると判定し, クエリ $q$ 中の主要語 $s_{s}$, 周辺語 $s_{c}$, および,エンティティ名称 $s$ の組を正例とする: (i)主要語 $s_{s}$ とエンティティ名称 $s$ が pkduck[13] の判定式 $\left|s_{s}\right|-\left|L C S\left(s_{s}, s\right)\right| \leq \delta$ を満たす $(\delta=0)$. あるいは事前に辞書登録されている。 (ii) $q$ 中の周辺語 $s_{c}$ がエンティティ $e$ の許可リストに登録されている2) (iii)エンティティ名称 $s$ と対応するウェブページに対してクエリ $q$ でクリックがある. ラベル未付与の事例の取得正例と判定された事例から q-gram[5] を基にした手法によりブロッキングのためのキーを抽出する.手順は次のとおりである: 1) エンティティ名称 $s$ を通常の q-gram と同様に文字 n-gram に分割する。例えば $\mathrm{n}=2$ のとき “伊藤健太郎” は “伊藤”, “藤健”, “健太”, “太郎” の 4 つのキー (主キー)に分割される。2) クエリ $q$ 中の周辺語 $\left.s_{c}(\text { サブキー })^{3}\right)$ と主要語から抽出されたキーを結合 2)この許可リストはエンティティ $e$ と対応する概要文に周辺語 $s_{c}$ を照合するなどの操作により自動的に生成される. 3)周辺語が欠損している場合は周辺語モデルを参照し確率最 する.例えば $\mathrm{n}=2, s_{c}$ =“声優” のとき,“伊藤_声優”, “藤健_声優”, “健太_声優”, “太郎_声優” という 4 つのキーが生成される。3) 結合後のキーの生起頻度を計測し,一定頻度を超えるキーは除外する。 ラベル未付与の事例に対しても同様の方法でブロッキングのためのキーを抽出する.ここで,ラベル未付与の事例は, 周辺語モデルおよび名前エンティティモデル [17] のエンティティ ID 同士を結合したレコードから生成される.このレコードのエンティティ名称および周辺語からそれぞれ主キー, サブキーを生成する.全ての事例を対象として,同一のキーを持つもの同士でブロックを構成する. ブロックの要素がラベル未付与事例のみで構成されている場合はそのブロックを除外する. ラベル未付与の事例に対する主要語 $s_{s}$ を同ブロック内の正例の主要語を複製することで生成する. ${ }^{4)}$ 最後に残った事例を学習に用いる。 素性の抽出正例およびラベル未付与の事例それぞれに対し,クエリ素性 $(\mathrm{Q})$ ,エンティティ素性 $(\mathrm{E}) ,$ クエリエンティティ素性 $(\mathrm{QE})$ の 3 種類の素性の抽出を行った。素性の一覧を表 1 に示す. Randomized SVD 本研究では素性のうちの一部を Randomized SVD[3, 7] により次元圧縮したうえで Random Forest への入力とする: $ \begin{aligned} X & =U \Sigma V^{*} \\ X V & =U \Sigma \end{aligned} $ ここで $X$ は各行が素性のベクトルである行列, $U, V$ は回転行列, $\Sigma$ は特異値の対角行列である. $X$ に対して次元圧縮の回転行列 $V$ を適用することは $V \Sigma$ を求めることと等価であるため, これを求めることで次元圧縮を行う. ## 3.2 PU 学習 本研究では次のように PU 学習における Double Weighting[4] を適用する: 1) 正例およびラベル未付与の事例を訓練用とテスト用の 2 つに分割する.2) 訓練用の正例およびラべル未付与の事例を入力とし, ラベルが付与されているか否かの予測器 $\mathrm{A}$ を生成する. 3) テスト用の正例に対して予測器 $\mathrm{A}$ を適用し, ラベル付与確率 $g(x)$ の平均 $c$ を求める. 4) テスト用のラベル未付与の事例に対して予測器 $\mathrm{A}$ を適用し $w(x)=p(y=1 \mid x, s=0)$  の重みによりラベリングを行う。ここで $w(x)$ は定数 $c$ への依存を持つ. 5) テスト用事例と訓練用事例を入れ替え,2 4 のステップを行う.6) 全ての事例にラベルが付与されたことを利用し, エンティティ名称の生成確率の予測器 B を生成する. ## 4 評価 ## 4.1 比較手法 DMククエリ補完モデル $[17]^{5}$ ,クリックログを用いて所与のクエリに対するエンティティ名称候補の生起確率をディリクレ-多項分布により表現したモデル.遷移先と遷移元のクエリが同一になりやすいか否かによりパラメータベクトルを設定.候補には遷移元のクエリの複製も含まれる。 CLKDM からクエリの複製操作を取り除き,多項分布化した (パラメータベクトルのすべての要素をゼロにした) モデル RF Random Forest[2]. Spark MLlib 2.4.5を使用. SVD による次元圧縮には Criteo Spark-RSVD ${ }^{6}$ を使用. COMB(RF+CLK) RF と CLK の予測值の線形補間モデル: $\psi_{\text {score }}=\beta * \psi_{C L K}+(1-\beta) * \psi_{R F}$ COMB(RF+DM) RF とDM の予測值の線形補間モデル: $\psi_{\text {score }}=\beta * \psi_{D M}+(1-\beta) * \psi_{R F}$ ## 4.2 データセット クリックログ 2019 年 12 月 14 日から 2020 年 12 月 14 日の 1 年間にヤフー検索に対して発行されたクエリ,および,そのとび先 URL のログ. タクソノミーおよび知識ベース 2020 年 12 月 15 日付けの内製の統合的知識ベース [15]. 訓練事例 3.1 に示した手順により訓練事例の作成を行った。正例 8,600,161 件,ラベル未付与事例 4,773,930 件が生成された。 ## 4.3 評価用事例の作成 次の手順により評価用事例を作成した: 1) RF と CLK の予測結果間で順位一位のエンティティ名称が異なるようなクエリを抽出する7)2) 周辺語の付与されたクエリのうち人物, 建造物, 漫画, 映画カテゴリに属するクエリをそれぞれ 25 例ランダムサン $ に要素を加える条件は pkduck の判定式を満たすか否かに変更した 6) https://github.com/criteo/Spark-RSVD 7)一位の異なるクエリは 551,039 例, 同一のクエリは $7,084,003$例 } プリングして抽出する 3) 周辺語の付与されていないクエリのうち空白文字を含むクエリ,含まないクエリをそれぞれ 25 例ランダムサンプリングして抽出する 4) 計 150 クエリをヤフー検索に対して発行する ${ }^{8)}$. 返却されたウェブページのそれぞれに対して, 対応するエンティティ名称を記録する9). 5) クエリ-エンティティ名称に対して,3 スケールで評価值を付与する: 所与のエンティティ名称が検索結果の 1 位 ${ }^{10)}$ ,もしくは上位 10 件の $50 \%$ 以上を占めている場合は 2 , それ以外で検索結果に含まれる場合は 1 ,検索結果に含まれない場合は 0 とする. ## 4.4 nDCG@5 の比較 4.3 で作成された評価用事例を用いて $\mathrm{nDCG} @ 5$ の計測を行った. 図 1 に線形補間の係数 $\beta$ を $[0,1]$ の範囲で変えたときの値の変化を示す. $\beta$ の值が $[0,0.25)$ の範囲では CLK が提案手法の $\mathrm{COMB}(\mathrm{RF}+\mathrm{CLK})$ を上回る 0.568 を示した. $\beta$ の値が $[0.25,1.0]$ の範囲では提案手法の COMB(RF+CLK) が CLKを上回る 0.593 を示し $た^{11)}$. 表 2 に $\operatorname{COMB}(\mathrm{RF}+\mathrm{CLK})$ がnDCG@5 の改善に貢献した実例を示す。一方, DM は比較手法間で最も低い性能となった。DM は遷移元のクエリを複製し, エンティティ名称の候補に加えるという操作が含まれている. そのため, 1 位のエンティティ名称が正答と一致しにくくなり, nDCG のように順位の影響を受けやすい評価指標において不利に働いたのではないかと考えられる. ## 4.5 素性の分析 図 2 に Random Forest の出力したジニ不純度に基づく素性の重要度の上位 20 件を示す. 全体で最も効果が高かったのは MinMaxClickFreqで, 次点は MinMaxContProbであった。一方, 最小最大スケーリングを行わなかった ClickFreq および ContProb は上位 20 件内ではあるものの効果は大幅に劣るという結果になった.絶対值ではなくエンティティ名称候補間での相対值が重要であるということがわかった。 全体で三番目に効果が高かったのは GrubbsSmirnovであった。訓練事例の中に, あるクエリに対する候補エンティティ名称間での  ClickFreqのの分布を考えた時に,外扎値を含むような分布が多く含まれていたということが考えられる。 Randomized SVD により次元圧縮を行った ClassVec, SfreqVec, ContLocVec の 3 つのベクトルに関しては, この 3 つの中では相対的に ContLocVec の効果が最も高かった. ContLocVec の分散表現は, エンティティのクラスや周辺語を ClassVec およびSfreqVec よりも細かな粒度で表現しているため, これら 2 素性の役割を包含しているのではないかということが考えられる. またContLocVec 自身よりもそこから派生した ContLocVecCosMean, ContLocVecCosVar の方が効果が高かった。ベクトル間の関係性を要約統計量で表現することで,より効果が高まったのではないかと考えられる。 図 1: nDCG@5 の比較. RF, CLK, DM は $\beta$ とは非依存である 図 2: Random Forest の出力した素性の重要度. ContLocVec に対する添え字はベクトルの要素の番号 ## 5 おわりに 本研究ではエンティティ名称の予測モデルの提案を行った。今後の課題としては,より大規模な評価を行うということやタイプクエリ判定 [10] や人物の本業判定 [12] などの関連分野の技術をうまく組み合わせるということがあげられる. ## 参考文献 [1]Roi Blanco, Giuseppe Ottaviano, and Edgar Meij. Fast and space-efficient entity linking for queries. In Proceedings of the Eighth ACM International Conference on Web Search and Data Mining, pp. 179-188. ACM, 2015. [2]Leo Breiman. Random forests. Machine learning, Vol. 45, No. 1, pp. 5-32, 2001. [3]Paul G Constantine and David F Gleich. Tall and skinny qr factorizations in mapreduce architectures. In Proceedings of the second international workshop on MapReduce and its applications, pp. 43-50, 2011. [4]Charles Elkan and Keith Noto. Learning classifiers from only positive and unlabeled data. In Proceedings of the 14th ACM SIGKDD international conference on Knowledge discovery and data mining, pp. 213-220, 2008. [5]Luis Gravano, Panagiotis G Ipeirotis, Hosagrahar Visvesvaraya Jagadish, Nick Koudas, Shanmugauelayut Muthukrishnan, Divesh Srivastava, et al. Approximate string joins in a database (almost) for free. In $V L D B$, Vol. 1, pp. 491-500, 2001. [6]Frank E Grubbs. Procedures for detecting outlying observations in samples. Technometrics, Vol. 11, No. 1, pp. 1-21, 1969. [7]Nathan Halko, Per-Gunnar Martinsson, and Joel A Tropp. Finding structure with randomness: Probabilistic algorithms for constructing approximate matrix decompositions. SIAM review, Vol. 53, No. 2, pp. 217-288, 2011. [8]George Papadakis, Dimitrios Skoutas, Emmanouil Thanos, and Themis Palpanas. Blocking and filtering techniques for entity resolution: A survey. ACM Computing Surveys (CSUR), Vol. 53, No. 2, pp. 1-42, 2020. [9]Marius Paşca, Benjamin Van Durme, and Nikesh Garera. The role of documents vs. queries in extracting class attributes from text. In Proceedings of the sixteenth ACM conference on Conference on information and knowledge management, pp. 485-494. ACM, 2007. [10]Ellie Pavlick and Marius Pasca. Identifying 1950s american jazz musicians: Fine-grained isa extraction via modifier composition. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2099-2109, 2017. [11]John W Pratt. Remarks on zeros and ties in the wilcoxon signed rank procedures. Journal of the American Statistical Association, Vol. 54, No. 287, pp. 655$667,1959$. [12]Mahsa S Shahshahani, Faegheh Hasibi, Hamed Zamani, and Azadeh Shakery. Towards a unified supervised approach for ranking triples of type-like relations. In European Conference on Information Retrieval, pp. 707-714. Springer, 2018. [13]Wenbo Tao, Dong Deng, and Michael Stonebraker. Approximate string joins with abbreviations. Proceedings of the VLDB Endowment, Vol. 11, No. 1, 2017. [14]Frank Wilcoxon and Roberta A Wilcox. Some rapid approximate statistical procedures. Lederle Laboratories, 1964. [15]Tomoya Yamazaki, Kentaro Nishi, Takuya Makabe, Mei Sasaki, Chihiro Nishimoto, Hiroki Iwasawa, Masaki Noguchi, and Yukihiro Tagami. A scalable and plug-in based system to construct a production-level knowledge base. In Proceedings of the 1st International Workshop on Challenges and Experiences from Data Integration to Knowledge Graphs co-located with the 25th ACM SIGKDD International Conference on Knowledge Discovery \&Data Mining, 2019. [16]豊田樹生, 土沢誉太, 築地毅, 菅原晃平, 野口正樹. dishpam: A distributable seeded hierarchical pachinko allocation model. 言語処理学会第 26 回年次大会発表論文集, pp. P2-19, 2020. [17]豊田樹生, 夜久真也, 石川葉子, 土沢誉太, Kulkarni Kaustubh, Bhattacharjee Anupam, 宰川潤二. ウェブ検索クエリに対する周辺語を考慮した教師なしエンティティリンキング. 言語処理学会第 25 回年次大会発表論文集, pp. 81-84, 2019. 表 1: 素性の一覧. クエリ素性 (Q),エンティティ素性 (E),クエリエンティティ素性 (QE) & Q \\ 表 2: 実際の出力例. スコア順にエンティティ名称を列挙した. 評価点 2 の事例は太字にした. 正答と一致するエンティティ名称には下線を引いた。 & 南アフリカ国立動物園 & 南アフリカ国立動物園,アフリカンサファリ \\
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-17.pdf
# SignWriting 表記の手話単語検索のための単語のベクトル表現 松本 忠博 岐阜大学 工学部 tad@gifu-u.ac.jp } 東香織 岐阜大学工学部 加藤 三保子 豊橋技術科学大学 総合教育院 ## 1 はじめに 手話には標準的な文字表現がないことから,主に手話の言語学的,工学的研究を目的として表記法がいくつか提案されてきた. Sutton の SignWriting[1] (以下,SWと略す)は主要な表記法の中で唯一日常生活の中で手話を読み書きする書記体系として提案され,かつ,その文字が Unicode 文字集合にも含まれている ${ }^{1)}$.これまでに複数の国で,万う児教育の場などでの利用が試みられてきた.SWを使った手話文書エディタも複数作られており,我々も JSPad[2] と呼ぶシステムを開発し,公開している. 手話単語の構成要素 (音素) は, 手の形, 手の位置,手の動き,および,顔の表情などの非手指要素と言われている. SWではそれらを表す図的な記号を 2 次元的に配置して単語を表記する(図 1)。この図的な表現は人にとって直観的に分かりやすい反面,自由度が高く,書き手による表記の摇れが大きい。そのため,機械的な単語の同定が単純には行えず,文書処理の基本操作である単語の検索も簡単ではない。そこでJSPad では,単語を構成する記号間の類似度の定義と,それをもとにした単語間類似度の算出アルゴリズムを考案し,SWを入力形式とする手話一日本語辞書機能を JSPad に実装した [3]. さらにその改良として,とくに表記の摇れが大きい手の動きの表記について,動きの特徴量を要素とする動作特徴ベクトルを定義して, 単語識別精度の向上を図った [4]. 本研究では $\mathrm{SW}$ 表記の手話単語を辞書検索することを主な目的として,動作だけでなく,手の形や位置などの要素についてもべクトル化する方法を検 1) Sutton SignWriting (Unicode block): https://unicode.org/ charts/PDF/U1D800.pdf 図 1 SignWriting による単語の表記例 討している.単語の辞書検索を,手書き文字認識のように多クラス分類問題として解くには,書き取りデータのサンプル数が少ないこと,そして,辞書に単語が追加された際の対応や,他の国・地域の手話単語辞書への適用がしやすいことなどから,ここでは単語間の類似度を用いて,検索対象の単語との類似度が高い辞書内の単語をユーザに提示する方式をとる。 ## 2 SW による手話表記と表記摇れ SWでは図 2 に示すような図的な記号 (International SignWriting Alphabet, $\mathrm{ISWA}^{2)}$ ) 2 次元的に配置して手話単語を記述する. 国際発音記号のように様々な国の手話に対応できるよう,ISWA2010では7つのカテゴリ (手形,動作,強弱,頭・顔,体など), 30 のグループ,652 種類の基本記号(base symbol) が用意されている。さらに,手形記号と動作記号には 2 つの修飾要素 fill(手形記号では手のひらの向きを表す 6 種類)と rotation(手形記号では指先の向きと左右の手の違いを表す 16 種類)を指定することができるため,1 つの基本記号に対して最大で $6 \times 16=96$ 通りの記号が存在することになる。 音声言語では音素(子音・母音)は逐次的に表出され,文字も 1 次元的に並べられる.手話言語の音素(手の形,向き,位置,動き,顔の表情など)は 2) ISWA 2010: https://movementwriting.org/symbolbank/ index.html\#ISWA2010 図 2 SignWriting で使用される文字 ISWA 3 次元空間上で同時的に表出され,SWではこれを 2 次元平面上に射影した形で表す. その際,類似した記号のうち(単語の弁別に影響しない範囲で)どれを選択するか (例:0と几),指先や手のひらの向き(角度)がどの記号とも一致しない場合にどの角度で近似的に表すか,省略可能な記号があるときにその記号を省略するかしないか,視点をどう選ぶか(例:話者視点しと,上からの視点4日)など, SW では書き手が恣意的に選択できる要素が多い.同じ動きを表す複数の方法が存在する場合もある (例えば,右手を 2 度上に動かす動作は,記号丹爪で表すことも,記号介を 2 つ並べて表すこともできる).また,内部表現では,記号の位置はピクセル単位で指定できるため,ひとりの書き手が同じ単語を書いても,一般に記号の配置はまったく同じにはならない. さらに,実際の手話にも話者によって手の形や動きが微妙に異なる表現の摇れがあり,それが表記摇れにつながることもある。これらの要因により,SW による手話の表記には大きな摇れが生ずるため,文書内の単語の検索のような基本的な操作も音声言語の文字と同じようにはできない. ## 3 SW 形式の手話単語の検索 ## 3.1 関連研究 SW で書かれた手話単語の検索手法として,Costa ら [5] は,2つの単語の照合時に記号の位置のずれを許容する単語類似関係(sign similarity relation)を定義し,それを用いた照合手続きを提案している. また,Aerts ら [6] は,検索対象となる単語の手の形と,その手が接触する体のゾーン,及び,接触の仕方をユーザに指定させることで,単語を検索する方法を提案している。いずれも記号の類似性について は考慮しておらず,記号の違いは許容されない。 SW の Web サイト3)では,SW によるオンライン手話辞書 SignPuddle や,SW を使って手話文書を作成するソフトウェアなどがいくつか公開されている.これらのソフトウェアにも辞書内の単語を検索する機能が用意されているが,手話からその訳(英語等)を検索する方法は,単語を構成している記号を指定するものであり,記号間の類似性や記号の位置情報は考慮していない。 ## 3.2 JSPad における従来手法 JSPad では,単語を構成する記号や配置が完全に一致しなくても,ユーザが記述した単語と類似した単語を辞書内から見つけ出し,候補をユーザに提示する機能を実装してきた. ここでは単語間の類似度を求めるための 2 種類の従来手法の概略を述べる. ## 手法 1 まず,比較対象となる 2 つの単語を構成する記号間の対応関係を推定する.そのために,すべての記号の対応関係のうち,対応する記号間の類似度の平均が最も大きくなるものを探索し,その記号間類似度の平均值を単語間の類似度とする。計算量を抑えるため,類似度 0 の記号の組み合わせが見つかった場合は,その対応関係は候補から除外する。また,記号数の差が一定以上の場合は,単語間の類似度を 0 とする. 記号間の類似度は,記号が表す手などの形と,単語内での記号の相対位置をもとに算出する. ISWA の各記号は,SSS(sign symbol sequence)と呼ばれる 6 つの值の組によって識別される. これは,各記号のカテゴリ,グループ,基本記号番号,バリエー ション, 塗り(fill), 回転 (rotation) を表すもので,例えば,手形記号は 01-09-016-01-03-01,動作記号 $\Uparrow$ は2-03-001-02-01-01 と表される. 形の類似性は,このSSSをもとに算出する。また,同じグルー プに属す記号でも,記号が表す手の形が類似したものとそうでないものが混在する(図 2)ため, 独自にサブグループを設けて類似度の調整に用いている。 位置情報については,対応する記号の単語内の相対位置間のユークリッド距離により類似度を減じることで,類似度に反映させる。  ## 手法 2 手法 1 の評価実験の結果,ISWA 記号のうち,とくに手の動きを表す記号の表記摇れが大きいことが分かった. そこで手の動きについては,単語に含まれる動作の成分(右手の垂直運動, 左手の円運動,反復の有無,接触の有無など)を特徴量とする 39 次元の動作特徵ベクトルで表す. そして,2つの単語の動作特徴ベクトルのコサイン類似度と, 手法 1 による動作以外の要素から得られる単語間類似度の加重平均を単語間の類似度とした [4]. ## 4 手話単語のベクトル化 本研究では手の動き以外の,手形,頭・顔,体 (肩,腕,腰など)の記号についてもべクトル表現を定め,それらをもとに単語べクトルを生成する. ベクトル化することで,記号の対応関係を推定するための探索を行う必要がなくなる. ## 4.1 記号とその位置のベクトル化 比較対象となる 2 つの単語を構成する記号間の類似度は,記号そのものの類似度と単語内での記号の相対的な位置によって決まる. まず,記号の類似性により記号のベクトル表現を取得し,位置情報をそのベクトルにエンコードする. ## 記号のベクトル化 手法 1 で取得した記号間類似度の算出結果を訓練データとして用いて,記号が表す手の形などの類似性に基づく記号べクトルを取得する. 学習のためのニューラルネットワークのモデルを図 3 に示す. 入力は比較対象となる 2 つ記号の ID であり, 図中の 2 つの埋め込み層の重みは共有されている. 2 つの埋め込み層の出力ベクトルのコサイン類似度が,手法 1 で得られた結果に近づくように学習を行う.学習の結果得られた埋め込み層の重みを記号べクトルとする. すべての記号の組み合わせを学習対象にすると訓練データのサイズが大きくなり, 訓練時間も長くなるため,学習はカテゴリごとに行った. カテゴリごとの記号数(種類)と埋め込みベクトルの次元数を表 1 に示す. 記号ベクトルのサイズはカテゴリによらず 185 次元の固定長とする.埋め込みベクトルデータを格納する位置をカテゴリごとに設定し,空き領域には 0 を埋める.カテゴリの異なる記号間のコサイン類似 図 3 記号間類似度の学習モデル。 度は 0 になる。 ## 位置情報のエンコード 手法 1 では,同一の記号でも単語内での相対位置の違いにより類似度が変化する。これをべクトルで表現するために,記号の位置情報をべクトルにエンコードする.単語内での相対位置をもとに正規分布の平均 $\mu$ を設定し,カテゴリごとの重みをかけて記号べクトルに加える.位置情報には $x$ 成分と $y$ 成分があるため,例えば手形記号(100 次元)では, $x$ 成分を表す正規分布を先頭の 50 次元に,y成分を表す正規分布を残りの 50 次元に加える. ## 4.2 単語のベクトル化 単語に含まれる記号のベクトルをカテゴリごとに重みをつけて統合し, 固定長の単語ベクトルを取得する. 動作記号(と強弱記号)に対するべクトルについては,手法 2 の動作特徴ベクトルを流用する. 統合の仕方としては,記号べクトルの和をとる (sum pooling),あるいは,各要素の最大值をとる (max pooling), 平均をとる(average pooling)などが考えられる.次節の実験では,単語に含まれる記号のベクトルの,カテゴリごとの平均を単語ベクトルとした. したがって,単語べクトルのサイズは,記号ベクトルと同じ 185 次元である. ## 5 評価実験 単語ベクトルによる単語間類似度評価のために辞書検索実験を行った。 これまでに, 累計 33 名の被験者に日本手話の単語のイラスト 20 語,動画 10 語(の一部)を見て SW で書き取ってもらい,計 30 種類 406 語の表記デー タを収集している.明かな表記上の誤りには修正を加え,修正が困難なものは除外した.表記サンプルのそれぞれを辞書検索し,辞書中の目的の単語(正解)が類似度順で何位になるか調べた。「1 位」,「5 位以内」,「10 位以内」を正解とした場合の正解率のマイクロ平均と,406 語の検索にかかった時間を表 2 に示す. 表中のベクトル欄「なし」は動作特徴ベクトルも単語ベクトルも用いない従来の手法 (手法 1),「動作」は動作記号のみべクトル化する手法(手法 2) である. 「記号」は手法 2 において,記号の形状に基づく類似度算出部分に記号ベクトルを使用した方法であり,記号の位置情報はベクトルにエンコードしていない. 「単語 1」は記号べクトルに位置情報をエンコードして,(動作を除く)単語ベクトルを生成し,その単語ベクトルによる類似度と, 動作特徵べクトルによる類似度の加重平均(9:1)を単語類似度としたものである. 「単語 2」は動作特長ベクトルを単語ベクトルに組み入れて 1 つのべクトルにして類似度を求めたものである. ベクトル間の類似度にはコサイン類似度を使用した. 辞書の登録語数は 2048 である. 実験の結果,今回の単語ベクトル表現では,実行時間を短縮することはできたものの,正解率はいずれの場合も下がる結果となった。実行時間が短くなった理由としては, 記号の対応関係の探索が不要になったことと, 辞書単語のべクトルを予め求めて辞書に格納しておけるようになったことがあげられる。 なお,記号べクトルを用いない従来手法において,記号間類似度や単語間類似度を定める際,どのような表記摇れがあるかを調査するためにこれらの表記サンプルを参照しているため,この実験はクローズドテストとも言える. ## 6 おわりに SW で表記された単語を辞書や文書中から検索することを目的として現在検討している手話単語のベクトル表現について述べた. 手の動きの要素については動作特徴量をもとにべクトル化し, 手の形や頭・顔,体(肩,腕,腰)などを表す記号について表 2 日本手話単語による評価実験の結果 } \\ は,従来手法で得られた記号間類似度をもとに埋め込みベクトルを取得した。記号の位置情報は,正規分布を用いて記号べクトルにエンコードしている.実験の結果,検索にかかる時間は短くなったが,今回の単語のベクトル化方法では正解率は低下した。 サンプルごとの結果の詳細な分析とそれに基づく手法の改善は今後の課題である. オープンテストとなる別のデータセットによる評価実験についても今後行う予定である. ## 謝辞 本研究は JSPS 科研費 JP18K11430 の助成を受けたものです. ## 参考文献 [1] Valerie Sutton. Textbook and Workbook, 3rd ed. The deaf action comittee for SignWriting, 2002. https://www. signwriting.org/lessons/books/. [2] Tadahiro Matsumoto, Mihoko Kato, and Takashi Ikeda. JSPad-a sign language writing tool using SignWriting. In Proceedings of the 3rd International Universal Communicatin Symposium (IUCS2009), pp. 363-367, 2009. [3] 高瀬友宏, 松本忠博, 加藤三保子. SignWriting を利用した手話文書エディタ JSPad における手話-日本語辞書について. 言語処理学会第 18 回年次大会発表論文集, pp. 1220-1223, 2012. [4] 岡田紳太郎, 松本忠博, 加藤三保子. 動作特徴ベクトルの導入による SignWriting 表記の手話単語の類似度定義の改良と評価. 言語処理学会第 25 回年次大会発表論文集, pp. 1141-1144, 2019. [5] Antônio Carlos da Rocha Costa, Graçaliz Pereira Dimuro, and Juliano Baldez de Freitas. A sign matching technique to support searches in sign language texts. In Workshop on the Representaion and Processing of Sign Languages, LREC2004, Lisbon, pp. 32-36, 2004. [6] Steven Aerts, Bart Braem, Katrien Van Mulders, and Kristof De Weerdt. Searhing SignWriting signs. In Workshop on the Representation and Processing of Sign Languages, LREC 2004, Lisbon, pp. 79-81, 2004.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-18.pdf
# BERT を用いた文書分類タスクへの Mix-Up 手法の適用 菊田尚樹 茨城大学工学部 情報工学科 17t4028n@vc.ibaraki.ac.jp } 新納浩幸 茨城大学大学院理工学研究科 情報科学領域 hiroyuki.shinnou.0828@vc.ibaraki.ac.jp ## 1 はじめに 自然言語処理のタスクを機械学習のアプローチで解決しょうとした場合,訓練データの構築コストが高いことが問題になる。このため従来より様々な試みがなされている。その中で近年のトピックの一つとしてデータ拡張 (Data Augmentation)[1] がある. データ拡張手法は大きく加工と生成の 2 種類に分けられる. 例えば画像の識別であれば,訓練データ内の画像を反転させたり, 切り取ったりした画像であってもその画像のラベルに変化はないので,そのようにして加工した画像を訓練データに追加することで訓練データを増やすことができる.あるいは GAN などを利用して人工的なデータを生成する手法もデータ拡張の一種といえる. データ拡張の生成手法の一つである Mix-Up 手法 [2] は,簡単に実装でき効果も高いことが知られている. Mix-Up 手法は画像識別を対象にした手法であるが,自然言語処理にも応用が可能である [3]. 本論文では BERT [4]を用いた文書分類タスクに Mix-Up 手法を試みる. 具体的には BERT は 2 文の入力が可能であるため,ラベルの異なる 2 文書を組み合わせて入力し, マルチクラスの出力を教師デー タとする. livedoorニュースコーパスを用いた実験で提案手法の有効性を示した。 ## 2 関連項目 ## 2.1 BERT BERT (Bidirectional Encoder Representations from Transformers の略) は 2018 年に Google が作成して以降利用が注目されている高性能な事前学習済みモデル [4] であり, 分類, 単語予測, 文脈判断などに活用ができる. 本研究では Mix-Up 手法を利用することで,BERTを用いた文書分類タスクの精度向上を試みる。 ## 2.2 Mix-Up 手法 Mix-Up とは, 2017 年に Hongyi Zhang により発表された画像分野でのデータ拡張手法である [2]. 画像データに関しては式 1 , ラベルに関しては式 2 によってデータ拡張を行う。 $ \begin{aligned} & x=\lambda x_{i}+(1-\lambda) x_{j} \\ & y=\lambda y_{i}+(1-\lambda) y_{j} \end{aligned} $ $\mathrm{x}$ は画像データのベクトル $\mathrm{y}$ はラベルの one-hot ベクトルである。 $\lambda$ は混合の割合を表わしている. ## 2.3 nlp に Mix-Up 手法を用いた先行研究 2019 年,Hongyu Guoにより,Mix-Up 手法を nlp に用いた研究が行われた [3]. Mix の方法は前節の画像分野での方法と同じく, 式 1 と式 2 によって行っている. nlp の場合は, xが単語の埋め込み表現または文の埋め込み表現である。 (例) 6:4 の割合で Mix-Upする場合 ## 文書 $\mathbf{1$ のベクトル} $[0.2,-0.3,0.5, \cdots]$ ## 文書 $\mathbf{2$ のベクトル} $[0.4,0.1,-0.5, \cdots]$ ## 新たな文書のベクトル $[0.2,-0.3,0.5, \cdots] \times 0.6+[0.4,0.1,-0.5, \cdots] \times 0.4$ $=[0.28,0.22,0.1, \cdots]$ ## 3 提案手法 先行研究での Mix-Up 手法を BERT での文書分類にも採用するとなると問題が生じてしまう. 先行研究の手法では, NN の学習以前に文書の特徴べクトルを作っておく必要があるが,BERTを利用した文書分類では NN の学習プロセスで文書の特徵ベクトルを得るため, 先行研究とは順序が異なる. 仮に先行研究の手法を採用するとなると, BERTによる特 徵ベクトルの計算部分は学習の外でやることになり,分類精度が期待できない。 (図 1 参照) 図 1 先行研究手法を BERT で採用する場合の学習範囲 $ \text { そこで,本論文では以下の手法を提案する. } $ ## 3.1 データの Mix 方法 2 つの文書において,BERT に入力する際の ID 列同士を連結するという手法である。id"2"は文の先頭を表し,後続の ID 列には不要なので除いた.この手法であれば文書の特徴べクトルを得る BERT 部分の学習が可能である. (図 2 参照) また, BERT の入力最大列長は 512 のため,それを超えないように前半と後半の ID 列長はそれぞれ 252 までの制限をかけた。 (例) ## 1 つ目の ID 列 [2, 6259, 9, 12396, 14, 3596, 3] ## 2 つ目の ID 列 [2, 11475, 9, 3741, 5, 12098, 75, ] ## Mix-up 後の新たな ID 列 $[2,6259,9,12396,14,3596,3,11475,9,3741,5$, $12098,75,3]$ 図 2 本研究手法での学習範囲 ## 3.2 ラベルの Mix 方法 各ラベルをまず 0 と 1 からなる one-hot ベクトルで表現した. Mix させる場合は 0.5 が 2 箇所で残りが 0 のベクトルを作成した. Mix 後のラベルが 0.5 同士なのは 2 つの文書が等価値に混ざっていることを表している. (例) ## ラベル 3 $[0,0,0,1,0,0,0,0,0]$ ## ラベル 6 $[0,0,0,0,0,0,1,0,0]$ ## ラベル $\mathbf{3$ と $\mathbf{6}$ の Mix} $[0,0,0,0.5,0,0,0.5,0,0]$ ## 4 実験 ## 4.1 概要 Mix-Up 手法を用いることで訓練データ数を増加させた状態での BERTによる文書分類と,BERTを使った通常の文書分類の精度を比較し, 本研究手法の効果を調べた。 ## 4.2 条件 ## 4.2.1 実行環境 実験は Google Colaboratory の GPU 環境を利用して行った. ## 4.2.2 使用した BERT モデル BERT は,東北大学乾・鈴木研究室が作成した日本語版 BERT の事前学習モデル1)のうちの一つである,「bert-base-japanese-whole-word-masking 」を使用した. ## 4.2.3 使用したコーパス livedoor ニュースコーパス2)を使用し,以下の 9 ジャンルに対しての文書分類を行った. ・ラベル $0:$ 独女通信 ・ラベル $1:$ IT ライフハック ・ラベル 2 : 家電チャンネル ・ラベル 3 : livedoor HOMME ・ラベル 4 : MOVIE ENTER ・ラベル 5 : Peachy ・ラベル 6: エスマックス ・ラベル 7 : Sports Watch ・ラベル $8:$ トピックニュース ## 4.3 実験手順 ・手法 ## 4.3.1 データの準備 本実験では livedoorニュースコーパスより 6623 個の記事 (本文) を抽出し,表 1 のように振り分けた。  2) https://www. rondhuit.com/download.html\#ldcc 表 1 使用データの内訳 train は訓練時に用いたデータ,val はハイパーパラメータを調整するために分類精度をこまめに確認する際に使用した検証用データ, test は出来上がったモデルの最終的な分類精度を確認する際に使用したテストデータである. また,以降の手順において各文書は BERT により形態素解析と ID 化を済ませた状態で扱っている. ## 4.3.2 訓練データの Mix-Up 訓練データについて,Mix-Up 手法を用いてデー 夕拡張を行った. Mix させる文書の選出方法は以下の 2 通りを試した。 ## Mix させる文書の選出方法 (1) 1 つ目の選定方法は全てのラベルの文書をランダムで Mix させるというものである. 乱数を用いて 736 個の文書をランダムに並び替え,一番目から順に隣り合った 2 つ文書 (とそのラベル)を Mix させた. この方法の場合,文書間の隙間の数だけペアが作られるため, 735(736-1) 個の拡張データができる. その結果訓練データは 736 個から 1471 個に拡張した. また,プログラムを起動するたびに選出される組み合わせは変わるようになっている。 ## Mix させる文書の選出方法 (2) 2 つ目の選定方法は,不足しているラベルの文書を対象に Mix-Up によってデータ数を増加させるというものである. 本実験では表 1 に示す通り, 訓練データではラベル 3 の文書が不足しているため,ラベル 3 の文書が必ず選定されるような動作にした. 具体的には, 51 個のラベル 3 文書からランダムに 1 つ選び,次にラベル 3 以外の 685 個のデータからもランダムに 1 つ選び,その 2 つの文書を Mix させるという手順を繰り返した. 連結の順序はラベル 3 の文書が前半でラベル 3 以外の文書が後半である. この動作により 765 個の新たな訓練データを作成し,訓練データは 1501 個に拡張した. また,選出方法 (1) と同じようにプログラムを起動するたびに組み合わせは変わるようになっている. ## 4.3.3 作成した分類器 分類器として使ったニューラルネットワークのモデルは BERT の直後に全結合層を一層追加したものを用いた. 長さ 512 以下の ID 列を BERT に入力し, 768 次元の文書の特徴べクトルを出力として得る. それを全結合層に入力し,9 次元の各ラベルに対する予測値を出力として得るという流れである.細かな設定を以下に示す. ## 損失関数 交差エントロピー : 今回ラベルは one-hot 表現のため nn.CrossEntropyLoss() に直接入力することはできないため, nn.LogSoftmax()を利用し,交差エントロピーの定義通りに計算して損失を求めた。 ## 最適化関数 確率的勾配降下法 (SGD) : 学習率は検証データを用いて分類精度と学習効率の両方を考慮した結果,0.01を採用した。 ## 訓練データのバッチサイズ バッチサイズは実行環境である Google Colaboratory にて可能な最大値であった 10 を採用した. ## エポック数 検証データでの分類精度の上がり幅を考慮した結果,10 エポック学習すれば精度は収束値に達していると判断した。 ## 4.4 実験結果 通常版,選出方法 (1) の Mix-Up 版,選出方法 (2) の Mix-Up 版の 3 つにおいて, 訓練データで 10 エ ポック学習したモデルをそれぞれ 10 個用意し,テストデータに対する正解率を求めた. 各モデルを比較した箱ひげ図を図 3 に示す. また,平均値の比較を表 2 に示す. ※正解率は小数点第 4 位を四捨五入している. 図 3 実験結果 表 2 平均値の比較 精度の高い順に,選出方法 (2) の Mix-Up,通常の BERT,選出方法 (1)の Mix-Up という結果になった. ## 5 考察 選出方法 (1) では通常よりも精度が落ち, 選出方法 (2)では精度が上がっていることから Mix させる文書の選定方法が精度に大きく影響を与えることがわかった. 本実験からは,不足しているラベルを中心に Mix させてデータ拡張していくのが有効であると言える。様々な選出方法を試して,最終的な結論を出したい。 また,今回は Mix させる二つの文書を等価値 (割合を $0.5: 0.5)$ にして実験を行ったが,連結させる ID 列長に差を設けてその割合をラベルの one-hot 表現に採用するといった手法も試してみる価値はあると考えている。 ## 6 おわりに 本論文では BERTを用いた文書分類タスクに Mix-Up 手法を試みた。具体的には BERT は 2 文の入力が可能であるため,ラベルの異なる 2 文書を組み合わせて入力し,ラベルは one-hot ベクトルにて 0.5 の要素を二つ作ることで混合した. livedoor ニュースコーパスを用いた実験を行い,Mix-Upさせる文書の選出方法によって精度に差が出ることを示した. ## 謝辞 本研究は JSPS 科研費 JP19K12093 および 2020 年度国立情報学研究所公募型共同研究 (2020-FC03) の助成を受けています。 ## 参考文献 [1] Connor Shorten and Taghi M Khoshgoftaar. A survey on image data augmentation for deep learning. Journal of Big Data, Vol. 6, No. 1, p. 60, 2019. [2] Hongyi Zhang, Moustapha Cisse, Yann N. Dauphin, and David Lopez-Paz. mixup: Beyond empirical risk minimization, 2017. [3] Hongyu Guo, Yongyi Mao, and Richong Zhang. Augmenting data with mixup for sentence classification: An empirical study, 2019. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers forlanguage understanding, 2018.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-19.pdf
# 第一原理モデル自動構築のための モデル構築アルゴリズム 加藤祥太 京都大学大学院情報学研究科 katou.shouta.23v@st.kyoto-u.ac.jp } 加納学 京都大学大学院情報学研究科 manabu@human.sys.i.kyoto-u.ac.jp ## 1 はじめに 化学や鉄鋼などのプロセス産業では,プロセスの挙動の理解や設計,運転に第一原理モデル(物理モデル)に基づくプロセスシミュレータが用いられており,第一原理モデルはプロセス産業に必要不可欠である.しかしながら,第一原理モデルの構築にはプロセスに関する深い理解と専門知識だけでなく,精度向上のための試行錯誤的な取り組みが必要とされる. 本研究の最終目的は, 複数の文献からモデル構築に必要な情報(数式,変数,実験データなど) を抽出して第一原理モデルを自動で構築する人工知能(AI)を開発することである.著者らは,第一原理モデル自動構築 AI の実現に向けて, 必要な要素技術の開発に取り組んでいる [1]. 本研究では,複数の数式を組み合わせて新しい第一原理モデルを自動で構築する手法を提案する. 本稿では,第一原理モデルをモデルと呼ぶ. ## 2 モデル候補作成アルゴリズム モデルは,プロセスの状態を表す変数(プロセス変数)間の関係を表す数式で構成されている. モデルを構築する上で重要な概念として,「自由度」がある [2]. $ \text { 自由度 }=\text { 変数の数 }- \text { 数式の数 } $ 自由度は自由に動かすことができる変数の数を表す. 化学プラントでは,いくつかの変数を操作して温度や圧力などを制御して製品を製造する。モデルを構築するときには操作する変数(操作変数)の数と自由度が一致する必要がある。 第一原理モデル自動構築 $\mathrm{AI}$ は,まず,ユーザからモデルに含めたい変数 (必須変数) の集合 $S_{\mathrm{rv}}$ と操作変数の集合 $S_{\mathrm{mv}}$ を受け取る. そして, $S_{\mathrm{rv}}$ と $S_{\mathrm{mv}}$ に基づき, $N_{\mathrm{e}}$ 個の数式の集合 $S_{\mathrm{e}}$ からモデルを複数作成する。モデルは以下の条件を満たす必要がある. ・必須変数を含む ・操作変数の数とモデルの自由度が等しい 本稿ではこれをモデルの必要条件と呼ぶ. ## 2.1 単純な手法 $N_{\mathrm{e}}$ 個の数式の組み合わせの総数は $ \sum_{n=1}^{N_{e}}{ }_{N} \mathrm{C}_{n}=\sum_{n=0}^{N_{e}}{ }_{N} \mathrm{C}_{n}-1=2^{n}-1 $ であり,組み合わせ 1 つ 1 つに対してモデルの必要条件を満たすか判定することで,モデルを得ることができる. 本稿ではこれを単純な手法と呼ぶ. Algorithm 1 に単純な手法のアルゴリズムを示す. このアルゴリズムは $O\left(2^{N_{\mathrm{e}}}\right)$ の計算量を要する.プロセスが複雑,大規模になるほどモデルに含まれる数式の数は多くなる. 仮に,複数の文献から 50 個の異なる数式を得たとすると,数式の組み合わせは $2^{50} \simeq 10^{15}$ 個あるので,単純な手法では現実的な計算時間でモデルを構築することはできない. ## 2.2 提案手法 提案手法のアルゴリズムを Algorithm 2 に示す.提案手法では,まず,各数式に含まれる変数の集合と, $S_{\mathrm{e}}$ に現れる各変数を含む数式の集合を作成する (1-6 行目). 次に, 必須変数を含む数式の集合の直積集合を計算し,すべての必須変数を含む数式群の集合 $M^{\prime}$ を得る (8行目). その後, $M^{\prime}$ に含まれる数式群がモデルの必要条件を満たすか判定する.Mำ の要素 $m^{\prime}$ の自由度 $N_{\mathrm{F}, m^{\prime}}$ が操作変数の数 $N_{\mathrm{mv}}$ に等しいとき, $m^{\prime}$ はモデルの必要条件を満たす $(12,13$行目). $N_{\mathrm{F}, m^{\prime}}$ が $N_{\mathrm{mv}}$ と異なるとき, $m^{\prime}$ に含まれる必須変数以外の変数 $\left.\{\tilde{v}_{1}, \cdots, \tilde{v}_{N_{m}}\right.\}$ を求める $(15,16$行目).その後, $\left.\{\tilde{v}_{1}, \cdots, \tilde{v}_{N_{m}}\right.\}$ を含む数式群の集合 $M^{\prime \prime}$ を得る(17 行目)。 $M^{\prime \prime}$ の要素 $m^{\prime \prime}$ と $m^{\prime}$ を組み合わせた数式群を $\tilde{m}$ とし, $\tilde{m}$ の自由度 $N_{\mathrm{F}, \tilde{m}}$ が $N_{\mathrm{mv}}$ に等しいとき, $\tilde{m}$ はモデルの必要条件を満たす (19-25 行目). 最後に,モデルの必要条件を満たす数式群を出力する (28 行目). 集合 $S$ の要素数を $L(S)$ で表すと,提案アルゴリズムの計算量は式 (3)で表される. $ \begin{aligned} & O\left(N_{\mathrm{e}}\right)+O\left(\prod_{i=1}^{N_{\mathrm{rv}}} L\left(S_{\mathrm{e}, v_{i}}\right)\right) \\ & \quad+O\left(L\left(M^{\prime}\right)\left(\prod_{i=1}^{N_{m}} L\left(S_{\mathrm{e}, \tilde{v}_{i}}\right)+L\left(\mathcal{M}^{\prime \prime}\right)\right)\right) \end{aligned} $ ここで, $\prod_{i=1}^{N_{\mathrm{rv}}} L\left(S_{\mathrm{e}, v_{i}}\right)$ は必須変数を含む数式群の数, $\prod_{i=1}^{N_{m}} L\left(S_{\mathrm{e}, \tilde{v}_{i}}\right)$ は必須変数を含む数式に含まれる必須変数以外の変数の数である. ## 3 実験 単純な手法と提案手法を用いて,複数の数式の集合,必須変数の集合,操作変数の集合からモデルを構築した結果を比較した。 ## 3.1 実験条件 実験で用いた数式,必須変数,操作変数の集合を表 1 に示す. 本実験では,数式中の変数を容易に判別できるとした. ## 3.2 モデル構築結果 単純な手法と提案手法によるモデル構築結果を表 2 に示す. ケース 1 では,単純な手法と提案手法によって同じモデルの集合が得られた. 得られたモデルは必須変数を含み,操作変数を代入することで必須変数の值を得ることができる. ケース 2 では,ケース 1 で用いた数式の集合に必須変数に含まれない変数に関する数式を加えて,2 つの手法で得られるモデルを比較した. 提案手法ではケース 1 と同じモデルの集合が得られたが,単純な手法では 64 個のモデルの集合が得られた. これは,必須変数に含まれない変数に関する数式が加わってもモデルの自由度が変化しないからである. また, $N_{i}$ の数を増加させたとき,提案手法で要する計算時間にはほぼ変化がないのに対し,単純な手法 表 1 実験で用いた数式, 必須変数, 操作変数の集合 で要する計算時間は指数的に増加した。 ケース 3 では,ケース 1 と同様に,単純な手法と提案手法によって,同じモデルの集合が得られた.表 2 の例に示す最初の 2 つのモデルでは, 操作変数を代入することで必須変数の值を得ることができる. しかし,表 2 の最後に示したモデルでは,操作変数を代入しても必須変数の値を得ることができないので,実際に使うことはできない。これは,提案手法と単純手法において,モデルに必要な条件のみしか判定していないからである. 実際に使うことができるモデルのみを得るためには,2 節で示したモデルに必要な条件に加えて,必須変数の值を得ることができるかを判定する必要がある.モデルに含まれるすべての方程式が変数に関して一次であれば係数行列を用いて判定できるが,ケース 3 のように変数に関して一次でない方程式を含むモデルもある.判定できない場合もある.実際に使うことができるモデルの選定方法の開発は今後の課題である. ## 4 おわりに 本研究では第一原理モデル自動構築に必要な要素技術として,複数の数式から第一原理モデルを自動で構築する手法を提案した. 実験を通し,提案手法を用いることで,複数の数式から現実的な計算時間で第一原理モデルを構築することができることを確認した. しかし, 提案手法によって構築した第一原理モデルには実際に使うことができないものが含ま れる.今後はこの問題の解決に取り組み,より有用な手法を開発する。 ## 参考文献 [1] Shota Kato and Manabu Kano. Identifier information based variable extraction method from scientific papers for automatic physical model building. PSE Asia Paper No. 210043, 2020. [2] Dale E Seborg, Duncan A Mellichamp, Thomas F Edgar, and Francis J Doyle III. Process dynamics and control. John Wiley \& Sons, 2010. 表 2 単純な手法と提案手法によるモデル構築結果 & \\ -r_{\mathrm{A}} & =k \\ k & =k_{0} \exp (a / T) \\ k_{0} & =0.1 \\ a & =10 \\ v_{0} C_{\mathrm{A} 0} & -v_{0} C_{\mathrm{A} 0}+r_{\mathrm{A}} V=0 \\ -r_{\mathrm{A}} & =k C_{\mathrm{A}} \\ k & =k_{0} \exp (a / T) \\ k_{0} & =0.1 \\ a & =10 \\ v_{0} C_{\mathrm{A} 0} & -v_{0} C_{\mathrm{A} 0}+r_{\mathrm{A}} V=0 \\ -r_{\mathrm{A}} & =k \\ -r_{\mathrm{A}} & =k C_{\mathrm{A}} \\ -r_{\mathrm{A}} & =k C_{\mathrm{A}}^{2} \\ k & =k_{0} \exp (a / T)\end{aligned}$ & なし \\
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-1.pdf
# 単語の分散表現に基づく極性判定のための教師なし分野適応 森谷一至 北陸先端科学技術大学院大学 s1910217@jaist.ac.jp ## 1 はじめに テキスト中に表明されている書き手の意見が肯定的か否定的かを判定する極性判定は,オピニオンマイニングにおける基礎的な技術のひとつである。近年の極性判定に関する研究は教師あり機械学習を用いた手法が主流であるが,一般に,教師あり機械学習によって得られた分類モデルは, 訓練デー夕と異なるドメインのテストデータに適用すると分類の正解率が低下することが知られている。オピニオンマイニングでは,評価対象は多岐に渡るため,ドメインの違いによる極性判定の正解率の低下は重要な問題である. 分野適応 (転移学習) とは, 訓練データとテストデータのドメインが異なるときに,テストデータに対する分類性能が落ちないように分類モデルを学習する技術である。このとき,訓練デー夕,テストデータのドメインはそれぞれソースドメイン,夕ー ゲットドメインと呼ばれる. 分野適応の手法には,少量のターゲットドメインの正解ラベル付きデータを用いる教師あり分野適応と, ターゲットドメインについてはラベル付きデータを用いない教師なし分野適応がある. 本研究は, 単語の分散表現を利用した教師なし分野適応手法を提案する。また,通販サイトに投稿された日本語レビューの極性判定を対象に提案手法の有効性を実験的に検証する [1]. ## 2 関連研究 Blitzer らは Structural Correspondence Learning(SCL) という分野適応の手法を提案している [2]. ソースドメインとターゲットドメインの両方で頻出し, かつ分類ラベルとの相互情報量が高い単語 (ピボット素性) と,極性判定に関係する分野特有の単語 (非ピボット素性) の関連性をモデル化することで分野適応を行う。 Glorot らは, Stacked Denoising Autoencoders (SDA) を用いて,利用可能な全てのドメインのレビューか \author{ 白井清昭 \\ 北陸先端科学技術大学院大学 \\ kshirai@jaist.ac.jp } ら分野に依存しない抽象度の高い素性を教師なしの手法で抽出する方法を提案している [3]. Amazon レビューデータを用いた極性判定の実験で,先行研究の手法である SCL[2], Multi-label Consensus Training (MCT)[4], Spectral Feature Alignment (SFA) algorithm[5] と比べて, 彼らの手法の分野適応能力が高いことを確認した。 Ziser $と$ Reichart は, Pivot Based Language Model (PBLM) による教師なし分野適応の手法を提案している [6]. PBLM は,後続するピボット素性あるいは None(ピボット素性以外の素性)を予測する LSTM (Long Short-Term Memory) Language Modeling であり,大量のラベルなしソースドメインとターゲットドメインのデータから学習される。さらに,PBLM を入力とする LSTM (PBLM-LSTM) もしくは CNN (PBLM-CNN) によってテキストの極性を判定する。 Wang は,Bag-of-wordsを機械学習の素性とし,訓練データを素性べクトルに変換する際,ソースドメインの訓練データに出現する単語と類似しかつター ゲットドメインのみに出現する単語を素性ベクトルに追加することで分野適応を行った [7]. ここで単語間の類似度は事前学習された単語の分散表現を用いて測る.英語で書かれたテキストの著者の性別を推定するタスクについて,マイクロブログ (Twitter) ならびにブログを異なるドメインとする実験を行い,単語の分散表現を用いた素性拡張によって性別推定の正解率が向上することを確認した。 本研究は,Wang による手法 [7] を修正し,夕ー ゲットドメインのみに出現する素性を拡張する際に,クラス分類に大きく貢献する素性のみを抬張する手法を提案する.また,Wang の実験は英語で書かれたテキストの著者の性別を判定していたが,本研究では日本語で書かれたレビューに対する極性判定を対象に分野適応を行う。単語の分散表現に基づく教師なし分野適応の手法がタスク (性別推定もしくは極性判定) や言語 (英語もしくは日本語) が異なる場合でも有効であるかを実験的に検証する。 $F_{c}=F S \cap F T \quad F_{s}=F S \backslash F_{c} \quad F_{t}=F T \backslash F_{c}$ 図 1 素性集合の定義 ## 3 提案手法 ## 3.1 問題設定 ユーザによって書かれた商品レビューの極性を判定する。ここでの極性のクラスは「肯定的」「否定的」の 2 つとする. レビューは評価対象の商品カテゴリ (「食品」「レディースファッション」など) によっていくつかのドメインに分かれているものとする. 学習データとテストデータではドメインが異なると仮定する。また,ソースドメインのレビューには正解ラベルが付与されているが,ターゲットドメインのレビューには付与されていないものとする (教師なし分野適応). ## 3.2 素性ベクトルの拡張 極性判定モデルの学習は以下に述べるような基本的な手法を用いる. 機械学習の素性として Bag-of-words 素性を用いる.レビューを MeCabを用いて形態素解析し, 自立語 (名詞, 動詞, 形容詞,副詞)を抽出し, その基本形を素性とする.ソースドメインならびにターゲットドメインの個々のレビューを素性ベクトルで表現する。素性べクトルはバイナリベクトルとする。 すなわち, ある素性 (単語) がレビューに出現するときにはその素性の重みを 1 に,それ以外の素性の重みは 0 とする。 ソースドメインのレビュー集合に含まれる素性の集合を $F S$ ,ターゲットドメインのレビュー集合に含まれる素性の集合を $F T$ とおく。さらに,図 1 に示すように,ソース・ターゲットの両方に出現する素性の集合を $F_{c}$, ソースドメインのみに出現する素性の集合を $F_{s}$, ターゲットドメインのみに出現する素性の集合を $F_{t}$ とおく。 ドメインが異なる場合,実質的には $F_{c}$ の素性のみで極性判定を行うことになる. $F_{c}$ の素性の数が少ない場合,極性判定の正解率が低下すると考えられる。ターゲットドメインのレビューの極性を判定 するためには,夕ーゲットドメインに固有の素性, すなわち $F_{t}$ の素性が重要な役割を果たすことが予想されるが,分類器の学習には $F_{c}$ と $F_{s}$ の素性のみが使われ, $F_{t}$ の素性は使われない。そこで,ソースドメインの訓練データから素性ベクトルを作成する際, $F_{t}$ の素性を自動的に追加する.以下,この手続きを素性ベクトルの拡張と呼ぶ. 訓練事例 (レビュー)の素性ベクトルの拡張の手続き [7] を説明する. $F_{t}$ の要素であり,レビューに出現する素性 $f\left(\in F_{c} \cup F_{s}\right)$ と類似した素性 $f^{\prime}$ を素性べクトルに追加する,正確には,素性べクトルの次元数は $\left|F_{c} \cup F_{s} \cup F_{t}\right|$ のままだが, $f^{\prime}$ に対する重みを 0 から 1 に変更する。素性間の類似度,すなわち単語間の類似度は,大量のテキストから事前学習された単語の分散表現のコサイン類似度で測る。本研究では,単語の分散表現として,ウェブテキストから事前学習された単語埋め込みである NWJC2Vec[8] を用いる. ## 3.3 有効な素性に限定した素性ベクトルの 拡張 前項で述べた素性抬張の手法では,新たに素性べクトルに追加された素性の中には極性判定に有効でないものが含まれる可能性がある.有効でない素性の拡張は極性判定の正解率の低下を招く原因になりうる。提案手法では,有効な素性に限定して素性べクトルを拡張する。 提案手法による素性ベクトルの拡張の擬似コー ドを Algorithm 1 に示す.ここで, $i$ 番目の訓練事例の素性ベクトルを $\vec{v}_{i}=\left(w_{i 1}, \cdots, w_{i n}\right)^{T}$ とおく. $w_{i j}$ は $j$ 番目の素性 $f_{j}$ に対する重み, $n$ は素性の総数 $\left(n=\left|F_{c} \cup F_{s} \cup F_{t}\right|\right)$ を表す. まず,17〜23 行目に示すように,有効な素性を以下の 2 つの条件を満たす素性と定義する。 ・極性クラスとの相関が強い 極性判定の 2 つの分類クラスのうち,肯定クラス $c$ と素性 $f_{j}$ の相関の強さを $\chi^{2}$ 統計量 $\left(\chi^{2}\left(c, f_{j}\right)\right.$ と記す)[9] で測る。素性 $f_{j}$ が $\chi^{2}\left(c, f_{j}\right)$ の大きい上位 $T_{c o r}$ 件の素性のひとつであるとき,有効な素性とする。 18 行目の rank は素性を $\chi^{2}\left(c, f_{j}\right)$ の順に並べたときの順位を表す. ・素性の出現頻度が大きい 素性 $f_{j}$ の訓練デー夕における出現頻度 (Fre $\left(f_{j}\right)$ と記す) が閾値 $T_{f r e}$ よりも大きいとき,有効な素性とする。 Input: $T$ (original training data) Output: $T^{\prime}$ (new training data) $T^{\prime} \rightarrow \phi$ for $\vec{v}_{i} \in T$ do $T^{\prime} \rightarrow T^{\prime} \cup\left.\{\right.$ ExtendFeatureVector $\left.\left(\vec{v}_{i}\right)\right.\}$ end Function ExtendFeatureVector $\left(\vec{v}_{i}\right)$ : for $f_{j} \in F_{c} \cup F_{s}$ do if $w_{i j}=1$ and IsEffective $\left(f_{j}\right)$ then for $f_{k} \in F_{t}$ do if $\cos \left(\overrightarrow{w e}\left(f_{j}\right), \overrightarrow{w e}\left(f_{k}\right)\right) \geq T_{\operatorname{sim}}$ then $w_{i k} \rightarrow 1$ end end end end Return $\vec{v}_{i}$ end Function $\operatorname{IsEffective}\left(f_{j}\right)$ : if $\operatorname{rank}\left(\chi^{2}\left(c, f_{j}\right)\right) \leq T_{\text {cor }}$ and $\operatorname{Fre}\left(f_{j}\right) \geq T_{\text {fre }}$ then Return true else Return false end end Algorithm 1: 素性拡張アルゴリズム Algorithm 1 では,24行目に示すように,個々の訓練事例に対して素性ベクトルを拡張して,新しい訓練データ $T^{\prime}$ を作成する。素性べクトルを拡張する際,レビューに出現しかつ有効な素性に対し (7 行目), それと類似しターゲットドメインのみに出現する素性を素性べクトルに追加する (8~12 行目). このとき,単語の分散表現 $(\overrightarrow{w e})$ のコサイン類似度が閾値 $T_{\text {sim }}$ 以上の素性を拡張する. 提案手法には 3 つのパラメ夕 $T_{\text {sim }}, T_{\text {cor }}, T_{f r e}$ が存在する。これらのパラメ夕は訓練データを用いた交差検定によって最適化する。 ## 4 評価実験 ## 4.1 実験設定 評価実験には,楽天データ [10] のうち楽天市場に投稿されたレビューのデータセットを用いた。楽天市場における 34 の商品ジャンルのうち,レビュー 件数の多い上位 5 つのジャンル (表 1 に示す)を選表 1 実験データ 食=食品,レ=レディースファッション, 日=日用品雑貨 $\cdot$ 文房具 ・手芸, 美=美容・コスメ・香水,イ=インテリア・寝具・収納 び,これらのジャンルの商品について投稿されたレビューを抽出した。それぞれのレビューに対し,レビューワーによって付与された 1~5 の評価ポイントが 5 または 4 のときは「肯定」のラベルを, 1 または2のときは「否定」のラベルを付与し,それ以外のレビューは除去した。肯定と否定のバランスを取るため,またジャンル毎のデー夕数をほぼ同じにするため,肯定,否定のラベルがついたレビューをランダムにおよそ 2,000 件サンプリングし,実験デー 夕とした。表 1 は楽天データのレビュー数とサンプリング後のレビュー数を示している. あらかじめ,それぞれのジャンルのレビューデー 夕を $80 \%$ の訓練データと $20 \%$ のテストデータに分割した. そして,5つのジャンルの全ての組み合わせについて,1つをソースドメイン,もう1つをター ゲットドメインとして,極性判定の実験を行った。 これはソースドメインとターゲットドメインが同じ場合も含む。ソースとターゲットドメインが異なる場合でも,ドメインが同じ場合とほぼ同じ量のテストデータで比較するため, $80 \%$ の訓練データと $20 \%$ のテストデータを使用する。 本実験では以下の 3 つの手法を比較した。 ベースライン $(\mathbf{B L})$ 分野適応の手法を使わない手法素性拡張 1 (FE1) 全ての素性から素性べクトルを拡張する手法 (3.2 項) 素性拡張 2 (FE2) 有効な素性のみから素性ベクトルを拡張する手法 (3.3 項) 極性判定の分類器は Naive Bayes モデルを用いて学習した1)。 ## 4.2 実験結果と考察 FE1 で実際に拡張された素性の例を表 2 に示す. ほぼ同じ意味を持ち,かつターゲットドメインに固有の素性が拡張されていることが確認された。例え 1) Support Vector Machine も試したが,結果に大きな差はなかつた. ば,美容ドメインにおける「可愛い」という素性から, 日用品ドメインに固有の「おもろい」(表 2 の 5 行目)や,インテリアドメインに固有の「映える」 (表 2 の 7 行目) が素性ベクトルに追加されている. 表 2 素性拡張の例 \\ & & 粘着 & 塗布 \\ & & 弱い & 緩い \\ & & 見える & 映る \\ & & ある & 留まる \\ 3.3 項で述べた手法 FE2 には 3 つのパラメタがある. まず, $T_{\text {sim }}$ について, 0.4 と 0.5 に設定した場合を比較した。 大部分のドメインの組で 0.4 の場合の正解率が高かったので, $T_{\text {sim }}=0.4$ と設定した. 次に, 訓練データの 5 分割交差検定により, $T_{c o r}$ は $\{50,100,200\}, T_{\text {fre }}$ は $\{5,10,20\}$ の範囲の中から最適なものを選択した。ドメインの組毎に異なる値が選択されたことを確認した。 BL, FE1, FE2 による極性判定の正解率を表 3 に示す。矢印の左がソースドメインを表す記号, 右がターゲットドメインを表す記号である。 また,太字はそれぞれのドメインの組で一番正解率の高い值を表す。 まず,ソースとターゲットのドメインが異なる場合のほとんどについて, ドメインが同じときょりも正解率が低下することが確認された。 ベースライン (BL) と本研究の手法 (FE1 もしくは FE2) を比べると, ドメインの組によって, 本研究の手法の方が正解率が高い場合もあれば,そうでない場合もある。特に, ターゲットドメインが「美容・コスメ・香水」 のときは, ベースラインの方が正解率が常に高い.単語の分散表現に基づく素性拡張は常に有効ではないことがわかった。ただし,20のドメインの組のうち, BLが一番正解率が高いのは 8 組, FE1 もしくは FE2 が一番正解率が高いのは 13 組であるため, 全体的には素性拡張は有効であると言える。 FE1 と FE2を比較すると, 同様にドメインの組によって優劣が異なる. ターゲットドメインが「インテリア・寝具・家具」のときはFE1が,「レディースファション」のときは FE2が高い傾向が見られる.表 3 実験結果 20 のドメインの組のうち, FE1 の方が正解率が高いのは 8 組, FE2 の方が高いのは 12 組であるため, 全体的には,分類クラスとの相関が高い素性のみから新たな素性を拡張した方が効果的な領域適応であると言える。 ## 5 おわりに 本論文は,事前学習した単語の分散表現を用いた素性拡張による教師なし領域適応の手法を提案した. 商品レビューを対象とした極性判定のタスクについて,いくつかのソース・ターゲットドメインの組についてその有効性を示した。ただし,提案手法は常に有効であるわけではなく, 正解率が向上しないドメインの組も多く存在した。今後は, 提案手法が有効に働くドメインの組にはどのような性質があるかを明らかにしたい。例えば,ソース・ターゲットドメインで素性集合の重複の度合が小さいときには,提案手法による素性拡張が有効に働くといった性質があることを予想している. ## 参考文献 [1]森谷一至. 単語の分散表現に基づく極性判定のための教師なし分野適応. 修士論文, 北陸先端科学技術大学院大学, 32021. [2]John Blitzer, Ryan McDonald, and Fernando Pereira. Domain adaptation with structural correspondence learning. In Proceedings of the Conference on Empirical Methods in Natural Language Processing, pp. 120-128, 2006. [3]Xavier Glorot, Antoine Bordes, and Yoshua Bengio. Domain adaptation for large-scale sentiment classification: A deep learning approach. In Proceedings of the 28th International Conference on Machine Learning, pp. 513-520, 2011. [4]Shoushan Li and Chengqing Zong. Multi-domain adaptation for sentiment classification: Using multiple classifier combining methods. In Proceedings of the International Conference on Natural Language Processing and Knowledge Engineering, 2008. [5]Sinno Jialin Pan, Xiaochuan Ni, Jian-Tao Sun, Qiang Yang, and Zheng Chen. Cross-domain sentiment classification via spectral feature alignment. In Proceedings of the 19th International Conference on World Wide Web, pp. 751-760, 2010. [6]Yftah Ziser and Roi Reichart. Pivot based language modeling for improved neural domain adaptation. In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1241-1251, 2018. [7]Sitong Wang. Domain adaptation for gender classification of text. 修士論文, 北陸先端科学技術大学院大学, 92019. [8]Masayuki Asahara. NWJC2Vec: Word embedding dataset from 'NINJAL Web Japanese Corpus'. Terminology. International Journal of Theoretical and Applied Issues in Specialized Communication, Vol. 24, No. 1, pp. 7-22, 2018. https://www.gsk.or.jp/catalog/gsk2020-d. [9]Christopher D. Manning and Hinrich Schütze. Foundations of Statistical Natural Language Processing, chapter 5.3.3, pp. 169-172. The MIT Press, 1999. [10]Rakuten Institute of Technology. 楽天データ公開. https://rit.rakuten.co.jp/data_release_ja/. (2021 年 1
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-20.pdf
# SESTM モデルによる会社四季報センチメントを用いた投資戦略 の実証分析 ## 指田 晋吾 野村アセットマネジメント株式会社 s-sashida@nomura-am.co.jp ## 1 はじめに 近年、機械学習技術の発展によるテキストマイニング技術の進展とともに、ファイナンス分野においても様々なテキスト情報が分析・利用されている。テキスト情報としてよく利用されるものは決算短信、有価証券報告書、新聞記事があり、これらは個々の文書の分量が多くかつ文書自体も大量にあるため、個人投資家だけではなく、証券、銀行、資産運用会社といった金融機関においても、金融テキス卜を自動的に解析し、業務支援や経済活動に役立てようと試みている $[1,2,3]$ 。とりわけ、これらのテキスト情報から抽出した情報と株価との関係が研究されており、テキストマイニングの投資における有効性が明らかになってきている [4]。例えば、[5] らは決算短信の要約から因果関係の表現を含む文を抽出し、構文パターンより因果関係を示すネットワーク (因果チェーン [6])を構築し、そのノード間には株価のリード・ラグ効果があることを実証した。また、 [7] らは決算短信とこれまで分析されていない情報媒体である会社四季報について、肯定語・否定語スコアを定義した辞書を用いて各テキストについてセンチメントスコアを算出し、それが投資に有効であることを確認している。さらに、[8] らは、テキスト内のセンチメント語を抽出する SESTM(Sentiment Extraction via Screening and Topic Modeling) モデルを構築し、そのモデルから算出されたセンチメントスコアにて非常に良好な株価リターンが得られることを確認している。本研究では、分析例が少ない会社四季報データを用いて日本株式市場において、テキスト情報を利用した投資戦略の収益機会が存在するかどうかを検証することを目的とする。分析手法としては、[7] らは四季報を対象に Bag of Words 方式を用いて共通の辞書を用いてセンチメントを付与しているのに対して、本研究では、より洗練された中川慧 野村アセットマネジメント株式会社 k-nakagawa@nomura-am.co.jp SESTM モデルによりセンチメントを付与し、イベントスタディ方式での実証分析を行う。 ## 2 SESTM モデル SESTM モデルは、[8] らがニュースからセンチメントを抽出する新しい手法を用いて構築されるモデルである。彼らが提案した手法は、データベンダー が提供するような一般的なセンチメントスコアなどで多く用いられる辞書べースの手法とは異なり、株価リターンを直接教師として考慮するもので、リターン予測に特化している。提案手法は次の 3 つのステップから構成される。 Step 1: スクリーニングセンチメントに影響を与える単語と与えない単語を分類 Step 2: センチメント評価それら単語にトピックモデルを適用しセンチメントを評価 Step 3: スコアリングペナルティ付きの尤度を用い文章単位のセンチメントスコアを算出 先行研究では米国株式市場を対象にダウ・ジョー ンズ経済通信のニュース記事を用いて実証分析を行っており、提案手法の特徴について次の利点を挙げている。まず、計算負荷量が低いのでコンピュー タリソースを多く必要としない。また、標準的な計量経済手法をベースとしており、シンプルな教師あり学習となっているので、深層学習等と比較しても解釈性が高い。そして、既存の辞書データ等は用いずに分析対象のテキストとそのテキストに対応するリターンデータのみでモデルを構築するため目的用途に特化したものを構築できることも利点として挙げている。 ## 2.1 Notation - $n, m$ : 四季報の記事数、単語数 - $d_{i} \in \mathbb{R}_{+}^{m}: i$ 番目の記事における単語数 - $D: D=\left[d_{1}, \ldots, d_{n}\right]^{\top}$ と定義される行列 $(n \times m)$ ・ $S, N$ : センチメントに影響を及ぼす (及ぼさない) 単語の集合 - $y_{i}: i$ 番目の記事に対するラベル (リターン) - $p_{i}: i$ 番目の記事のセンチメントスコア $p_{i} \in[0,1]$ ・ $O_{+}, O_{-}$:各単語がポジティブ (ネガティブ) な確率を並べたもの (トピック) ## 2.2 モデルの設定 センチメント $p_{i}$ で条件付けられたリターン $y_{i}$ と $d_{i}$ は (条件付き) 独立であると仮定する。さらに、リターン $y_{i}$ とセンチメント $p_{i}$ の関係は、 $g(\cdot)$ を単調増加な関数として $P\left(\left(y_{i}>0 \mid p_{i}\right)=g\left(p_{i}\right)\right)$ と仮定する。すなわち、センチメント $p_{i}$ が良いほど、リター ンが正となる確率が高いと仮定する。また、関数 $g$ の具体的な関数系は特に推定しない。最後に、 $m$ 個の単語は、それぞれセンチメントに影響を及ぼす単語 $S$ と影響を及ぼさない単語 $N$ に分割できるとし、 それらをインデックスとした $d_{i,[S]}$ と $d_{i,[N]}$ は独立であると仮定する。さらに、センチメントが付与された単語数は、次のような多項分布に従うとする。 $ d_{i,[S]} \sim \operatorname{Multinomial}\left(s_{i}, p_{i} O_{+}+\left(1-p_{i}\right) O_{-}\right) $ ここで、SESTM モデルはパラメータである $O_{+}, O_{-}, p_{i}$ を特定することが目的であり、これらが推定できれば、新たな記事 $i+1$ に対してセンチメント $p_{i+1}$ を付与することができる。 ## 2.3 パラメータの推定 SESTM モデルのパラメータである $O_{+}, O_{-}, p_{i}$ の推定は次の 3 つのステップで行う。 ## Step 1:センチメントに影響を与える単語 $S$ を抽出 $m$内の単語 $j$ ごとにスコア $f_{j}$ を計算。 $ f_{j}=\frac{\text { 単語 } j \text { を含む記事数、かつ } \operatorname{sgn}(y)=1 \text { の数 }}{\text { 単語 } j \text { を含む記事数 }} $ 次の回帰モデルを考える。 $ \operatorname{sgn}\left(y_{i}\right)=f_{j} \cdot \operatorname{sgn}\left(d_{i, j}\right)+\epsilon_{i} \quad j=1 \ldots m $ するとハイパーパラメータ $\left(\alpha_{+}, \alpha_{-}, \kappa\right)$ を用いて、次の $\hat{S}$ を $S$ 推定量 (集合) とすることができる。 $\hat{S}=\left.\{j: f_{j} \geq \frac{1}{2}+\alpha_{+}\right.\} \cup\left.\{j: f_{j} \leq \frac{1}{2}-\alpha_{-}\right.\} \cap\left.\{j: \kappa_{j} \geq \kappa\right.\}$ Step 2: $O_{+}, O_{-}$の推定 $p_{i}$ の推定量 $\hat{p}_{i}$ として次を計算する。 $ \hat{p}_{i}=\frac{\text { rank of } y_{i} \text { in }\left.\{y_{l}\right.\}_{l=1}^{n}}{n} $ 以下の回帰式から、 $D$ を回帰することで $O=$ $[O+, O-]$ を推定する。 $ \begin{aligned} \mathbb{E} \tilde{D}^{\top} & =O W, \\ \text { where } W & =\left[\begin{array}{rrr} p_{1} & \ldots & p_{n} \\ 1-p_{1} & \ldots & 1-p_{n} \end{array}\right] \text {, } \\ \text { and } \tilde{D} & =\left[\tilde{d}_{1}, \ldots, \tilde{d}_{n}\right]^{\top} \end{aligned} $ ここで、 $\tilde{D}$ は記事 $i$ ごとのすべてのセンチメントが付与された単語の頻度を表す。 Step 3:センチメントスコアを推定パラメータ $O_{+}, O_{-}$ が求まったので、新しい記事に対してセンチメントスコア $p$ を次の最尤推定により求める。 $ \begin{array}{r} \hat{p}=\arg \max _{p \in[0,1]} \hat{s}^{-1} \sum_{j=1}^{\hat{s}} d_{j} \log \left(p \hat{O}_{+, j}+(1-p) \hat{O}_{-, j}\right) \\ +\lambda \log (p(1-p)) \end{array} $ $s_{i}$ は $S$ に属する単語の総数であり、 $d_{i,[S]}$ は記事 $i$ のセンチメントが付与された単語ベクトルであり観測できる。また、最尤推定においては、 $p_{i}$ が 0.5 をとりにくいようにペナルティ項 $\lambda \log (p(1-p))$ が付与されている。 ## 3 実証分析 ## 3.1 データセット 会社四季報 (以下,四季報) は東洋経済新報社が 3 カ月に一度出版する発行物で、出版日は $3,6,9,12$月の中旬である。四季報には、日本の株式市場の全上場企業について直近決算期の基本財務項目や投資関連指標が記載される。 また、数値以外のデータとして、会社四季報編集部による業績予想数字についての記事があり、そこには前期実績と比較した今期予想についてのコメン卜と、前号に揭載した予想や会社計画と比較した今期予想についてのコメントが記載される。この数値及びテキストデータは全上場企業について同様の形式でまとめられている。 本研究では 1999 年 09 月から 2020 年 06 月までに発行された四季報のテキストデータと紐づく企業のスペシフィック・リターンを用いてモデルの学習及び予測を行う。本研究では、スペシフィック・リターンとして Barra JPE4 モデルのファクターモデルから算出される数値を用いた。スペシフィック・リターンとは銘柄の騰落率 (トータル・リターン) から、市場全体の全銘柄に共通するあるファクター (要因)で説明可能なリターンを取り除いた、各銘柄に固有の変動部分である。四季報データは各企業の業績について個別に記事が用意されているため、その効果の計測がしやすい銘柄固有のリターンであるスペシフィック・リターンを教師データとして用い、予測の対象とする。なお、[8]においてはスペシフィック・リターンではなく、株価リターンを用いているものの、SESTM モデルで仮定される前提はスペシフィック・リターンでも成立する。 ## 3.2 分析手順 分析では四季報の出版日をイベントデーとするイベントスタディ [9]を行う。イベントスタディとは情報の公開等のイベントが、当該企業の市場価値にどのような影響を与えるかを分析する方法である。 モデル作成にあたり、学習データは各出版日から過去数年分の記事を利用し、教師データは出版日から翌出版日までのスペシフィックリターンの算術平均值を正規化したものを利用する。本研究では利用する過去データを $3,4,5$ 年分の 3 パターンのモデルを作成して検証した。学習には全銘柄のデータを利用し、予測する対象は TOPIX(東証株価指数)の時価総額上位 500 銘柄 (TOPIX500 の構成銘柄) とした。モデルは四季報の出版日のタイミングで作成され、その時点の四季報のテキストデータを用いて将来のスペシフィックリターンを予測する。次に予測値を 10 分位に分け、各グループについてイベントデー前後の平均スペシフィックリターン (前回出版日から翌出版日)を求める。そして、各基準日 (四季報の出版日) で得られた各分位の結果の平均を求め、 その累和推移を算出する。このイベントスタディ分析にて四季報データにおける SESTM モデルの有効性を確認する。 ## 3.3 分析結果 各学習モデルのイベントスタディの結果は表 (1) となった。累積日数は 57 営業日分である。どのモデルについても上位分位銘柄 (q1) の四季報出版日以降の平均スペシフィックリターンの累積和が低位分位銘柄 (q10)を上回っていることが分かる。イベント日以降の平均スペシフィックリターンについて、平均値が 0 と有意に異なるか $\mathrm{t}$ 検定 (両側検定) にて確認した。その結果、学習期間 4 年の上位の分位銘柄 (q1) について、1\%水準で有意であった。学習期間 4 年のイベント日以降のスペシフィックリターン の累積和を表 (2)、イベント前後の累積和の推移を図 (1) に示す。図の横軸は営業日日数で座標 0 を四季報出版日 (イベントデー) としている。上位分位銘柄 (q1) の平均スペシフィックリターンは四季報出版日以降プラス方向に伸びていることが確認できる。以上の結果より、四季報データを用いた SESTM モデルの分析では、 4 年分の学習データを用いたモデルが比較的良好な結果となり、検定結果からセンチメントがポジティブな銘柄については分類出来ているが、ネガティブな銘柄についての分類は上手く出来ていないことが確認出来る。この原因としては、 [7] らの四季報の分析でも確認されている通り、四季報内の肯定語は否定語のおおよそ 2 倍を占めていることから、そのデータで学習したモデルの分位別の結果 (有意性) に差が生じたものと考えられる。 次に作成した SESTM モデルにおいて、単語毎にセンチメント評価を行い、学習期間におけるポジティブワードとネガティブワードの出現度について確認する。図 $(2,3)$ は学習期間が 2005 年 9 月から 2020 年 3 月までの記事で学習させたモデルにて同期間の記事の単語でセンチメントを評価し、ポジティブ及びネガティブの単語出現数で単語の表示サイズを変化させたものである。結果を確認すると、図 (2)のポジティブ側の結果については"増益"、"堅調"、”利益"、” 改善"など幾つかの肯定語の存在が確認出来る。一方、図 (3) のネガティブ側の結果については"減益"などの単語は確認出来るが否定語の数は多くないことが分かる。この違いは四季報の肯定語と否定語の比率に偏りがあるためだと考えられ、 イベントスタディでの有意性の偏りについての原因考察とも整合する。 図 1 学習期間 4 年でのスペシフィックリターンの類和推移 ## 4 まとめと今後の課題 本研究では会社四季報データを用いて SESTM モデルにてセンチメント評価を行い、イベント・スタ 表 1 各学習モデルのイベントデー以降の累積和リターン (\%). 累積日数: 57 日. *は $10 \%$ 有意、**は $5 \%$ 有意、***は $1 \%$ 有意を示す. 表 2 学習期間 4 年のモデルでのイベントデー以降の累積和リターン $(\%)$ の推移分位 ディによる有効性評価を行った。その結果、学習データで 4 年分の記事を用いたモデルにて比較的良好な結果を得ることが確認できた。分位分けした結果では高分位銘柄についてはスペシフィックリター ンの有意性が確認出来たものの、低分位銘柄については確認出来なかった。これは四季報データ自体の肯定語の占める割合が多いことが起因していると考えられる。今後の課題としては、データ量の多い金融ニュースデータを利用した場合の分析や、比較的肯定後、否定語の割合に差がない決算短信のデータを用いた検証などが挙げられる。 ## 参考文献 [1]高野海斗, 酒井浩之, 坂地泰紀, 和泉潔, 岡田奈奈, 水内利和. 株主招集通知における議案タイトルとその分類及び開始ページの推定システム. 自然言語処理, Vol. 25 , No. 1, pp. 3-31, 2018. [2]Tomoki Ito, Hiroki Sakaji, Kiyoshi Izumi, Kota Tsubouchi, and Tatsuo Yamashita. Ginn: gradient interpretable neural networks for visualizing financial texts. International Journal of Data Science and Analytics, Vol. 9, No. 4, pp. 431-445, 2020. [3]高野海斗, 酒井浩之, 中川慧. 学習データの自動生成による深層学習を用いた株主招集通知の重要ページ抽出. 人工知能学会論文誌, Vol. 36, No. 1, pp. WI2-G G $_{1}--19,2021$. [4]和泉潔, 坂地泰紀, 伊藤友貴, 伊藤諒. 金融テキストマイニングの最新技術動向 (特集 ai の金融応用 (実践編)). 証券アナリストジャーナル= Securities analysts journal, Vol. 55, No. 10, pp. 28-36, 2017. [5]Nakagawa Kei, Sashida Shingo, Sakaji Hiroki, and Izumi Kiyoshi. Economic causal chain and predictable stock returns. In 2019 8th 図 22005 年 9 月から 5 年分の記事におけるポジティブワードの出現度 図 32005 年 9 月から 5 年分の記事におけるネガティブワードの出現度 International Congress on Advanced Applied Informatics (IIAIAAI), pp. 655-660. IEEE, 2019. [6]Kiyoshi Izumi and Hiroki Sakaji. Economic causal-chain search using text mining technology. In Proceedings of the First Workshop on Financial Technology and Natural Language Processing, pp. 61-65, 2019. [7]山本零, 川代尚哉, 栗田昌孝. 決算短信と四季報テキスト情報の投資戦略への利用可能性検証. ジャフィー・ジャーナル, Vol. 18, pp. 46-62, 2020. [8]Zheng Tracy Ke, Bryan T Kelly, and Dacheng Xiu. Predicting returns with text data. Technical report, National Bureau of Economic Research, 2019. [9]John Y Campbell, John J Champbell, John W Campbell, Andrew W Lo, Andrew W Lo, and A Craig MacKinlay. The econometrics of financial markets. princeton University press, 1997.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-21.pdf
# 医師の経験をよく反映した擬似カルテ文書の作成方法 香川璃奈馬場雪乃鶴嶋英夫 筑波大学医学医療系 筑波大学システム情報系 \{kagawa-r, hideo-tsurushima\}@ md.tsukuba.ac.jp baba@cs.tsukuba.ac.jp ## 1 背景と目的 電子カルテには、日々の臨床現場での多様なデー タが蓄積される。カルテの中でも文書には、患者の主観的な訴えや医師の思考過程など、構造化が容易とはいえない多彩な情報を、医師が日々記載しており、その再利用は教育研究目的でも有用である。しかしその一方で、文書に記録される豊富な情報は病歴すなわちプライバシーであり、保護せねばならない。名前や住所などの個人識別符号を除去した文書であっても、制限のない公開は日本を含む多くの国と地域で難しく、ドイツなどでは研究者による利用が事実上不可能となっている [1]。 そこで我々は、時代や地域に依存する個人情報の定義、言語や医療体制、対象疾患を問わずに本物らしい擬似的なカルテ文書データセットを作成できる、汎用的な枠組みが必要だと考えた。 ## 1.1 提案フレームワークの方針 まず、教育研究目的で有用な疑似カルテ文書デー タセットが満たすべき要件を 2 つに整理した。 (1) 臨床的妥当性 カルテ文書には、患者の訴え、検査結果、治療計画とその根拠、家族歴や嗜好歴などが記載される。疑似文書には、これらが 1 人の患者ごとに、臨床的な矛盾なく記載されている必要がある。また、実臨床で臨床家が対応に苦戦する、複雑な患者像を描けてこそ、教育研究目的で価値がある本物らしいデー タセットになると考える。その一方で、臨床的妥当性は医療制度などにも影響されるため、実際にどのような臨床的特徴を持つ患者がどの程度存在するのかは不明である。 (2)カルテ文書に特徴的な記載の妥当性 多忙な臨床現場において専門知識を持つ医師が記載するカルテ文書には、文脈によって意味が変化する極端な省略表現やスペルミスを含む非文法的な構造が多用されることが、国や地域を問わず指摘されている $[2,3]$ 。その一方で、どのような特徴が存在す るのかを網羅的に明らかにした研究は存在しない。 これらは、カルテ文書の網羅的な閲覧が倫理的観点から不可能であることから、医師にとっても経験的な知見であり評価することは難しい。Generative Adversarial Network に代表されるデータ生成技術は医療データにも応用されているが、現状で生成されている文書は限られた内容の短文 $[4,5,6]$ が主であり、これらを組み合わせても 2 つの要件を満たす擬似文書データセットの作成は困難である。そもそもプライバシー保護の観点から、データ生成に資する大規模なカルテ文書収集も容易ではない。また、既存の公開カルテ文書として、医師が記憶と経験に基づいて記載した 670 個の文書[7]や、医師が教育目的で記載した書籍からの抜粋[1]から成るデータセットが存在するが、これらは先述の 2 つの要件の評価が明示的に行われておらず、特に(2)の特徼が反映されていないことが指摘されている[8]。すなわち 2 つの要件を満たして自由に利用可能な擬似カルテ文書は存在しない。 そこで我々は 2 つ要件を満たすデータセット作成のために 3 つのステップからなるフレームワークを提案する。 Step 1: 臨床的妥当性を満たす文書の大規模な生成 Step 2: カルテ文書に固有な特徴の種類とその多様性の顕在化 Step 3: Step 1 で生成された文書のうち Step 2 で得られた特徴を満たす文書を選択し、擬似カルテ文書デ ータセットとする。 ## 1.2 本研究の目的と貢献 本研究は、提案フレームワークの有効性を実証することを目的とする。効率的かつ現実的な手法で実証するため、クラウドソーシングを利用する。本研究の貢献は以下の通りである。 (i)専門的な文書を生成するフレームワークの提案 (ii)カルテ文書に固有な特徴の種類とその多様性の顕在化 (iii)医師が擬似的に記載する文書よりも本物のカル テ文書に類似していると評価された、9,856 個の擬似カルテ文書の公開 ## 2 方法 ## 2.1 材料 筑波大学附属病院を2013 年 1 月 2018 年 9 月に受診した患者 53,246 人からランダムに選択した 245 人の患者(女性 $48.2 \%$ 、平均年齢 $60.1 才$ 才)の文書(カルテ文書の一般的なテンプレートである SOAPフォーマットに則るもの。以下、本物のカルテ文書と呼ぶ)を利用した。また、既存の擬似カルテ文書[7]から SOAP フォーマットに則る 257 個の文書(以下、既存公開文書と呼ぶ)を利用した。各文書が記載された診療科を筆頭著者が推定した。 解析には以下を利用した。Python 3.7.2、NumPy 1.17.2、SciPy 1.2.1、Pandas 0.24.2、Matplotlib 3.0.3、NetworkX 2.3、Apyori 1.1.1、Community 1.0.0、R 4.0.2、exactRankTests packages $0.8-21$ 。 ## 2.2 提案フレームワークの実現例 本研究では、クラウドソーシングを利用することで提案フレームワークを低コストで実現した(図 1)。前処理として、本物のカルテ文書の固有名詞や日付などを筑波大学附属病院臨床研究倫理審查委員会から承認を得た手順で書き換え、患者個人が特定されないことを著者ではない 3 名が確認した。 ## step 1 : 臨床的妥当性を満たす文書の生成 模倣をすることで背景知識がなくても事象を再現できる人間の認知特性[9]を参照し、クラウドワーカ一が本物のカルテ文書を模倣することで臨床的妥当性を満たす文書を生成した。(a) まず、本物のカルテ文書を SOAP フォーマットに則って $\mathrm{S}, \mathrm{O}, \mathrm{A} / \mathrm{P}$ の 3 種類に分割した 260 個の文書(140 人の患者分)を作成した。(b)その中から同じ診療科で記載された同じ意味( $\mathrm{S}$ または $\mathrm{O}$ または $\mathrm{A} / \mathrm{P})$ に分割された文書をワ一カーに提示し、ワーカーは提示された文書を模倣した文書を 1 つ記載した。一度に提示される文書の数は 1, 2, 3 個からランダムに決定した。ワーカー1 人あたり 20 回作業を行い報酬は 660 円とした。(c) ワーカーが記載した模倣文書のうち模倣の際に提示された本物のカルテ文書に同じ患者が含まれる模倣文書をSOAP フォーマットに則って再構成した。これを生成文書と呼ぶ。同じ患者に基づく模倣文書を再構成することで、生成文書の中で臨床的な矛盾が生じにくい一方で、別の患者のデータに基づく記載が含まれることで非実在患者の情報が記載された文書であることを担保した。 図 1 提案フレームワークの概略 ## step 2 : カルテ文書に固有な特徴の顕在化 比較を行うことで相違点の判断能力が高まるという人間の認知特性 [10]を参照し、以下の 2 段階のマイクロタスクを実施した。(a) 本物のカルテ文書と既存公開文書をそれぞれワーカーに提示し、2 者の違いを「患者の不安な気持ちが記載されている」「日本語の文章の中に英単語が混ざっている」のように任意の数の yes/no クエスチョンのかたちでワ一カーが記載した。一度に提示する文書数は 1,3 , 5, 7, 10 個ずつのいずれかからランダムに決定した。得られた回答を特徴候補と呼ぶ。 72 人のワー カーが 50 回ずつ作業を行い、 1 人あたり報酬は 550 円とした。(b) 類似する特徵候補を集約することで、カルテ文書に固有な特徴を明らかにしたい。そこでまず、ランダムに選択した 100 個の本物のカルテ文書と、その文書が満たす特徴候補のぺアを取得した。本物のカルテ文書一つと特徴候補がワーカー に提示され、ワーカーは提示された本物のカルテ文書が満たす特徴候補を任意の数、選択した。1 人あたり 25 回作業を行い報酬は 440 円とした。得られた本物のカルテ文書と特徴候補のぺアのうち、出現頻度が低くても強い相関があるぺアを取得するため、lift[11]が 5 以上のペアを採用した。(c) 類似する特徴候補を集約するため、(b)でぺアとして採用された本物のカルテ文書集合間の Jaccard 係数が 0.5 以上の特徴候補同士を類似しているとみなした。特徵候補をノードとし類似する特徴候補間にエッジがあるネットワークを作り、Louvain 法を適用してコミュニティを抽出した。コミュニティ毎に、構成する特徴候補の中から延べ 105 人のワーカーの多数決で決定された最も代表的な特嘚候補を、本物のカル テ文書に固有な特徴(以下、記載特徴と呼ぶ)とし た。 1 人あたりランダムに選択された 50 個のコミ ユニティについて作業し報酬は 440 円とした。各記載特徵について、カルテ文書を業務で閲覧する治験コーディネーター 3 名が「この特徴を持つカルテ文書は存在しない $(-2) 」$ から「存在する $(+2)$ 」までの 5 段階のリッカート尺度で評価した。 ## step 3 : カルテ文書に固有な特徴を持つ擬似カ ルテ文書の選別 生成文書から 100 個をランダム選択し、生成文書一つと記載特徼を延べ 50 人ワーカーに提示した。 ワーカーは、提示された文書が満たす記載特徴を任意の数、選択した。 1 人あたりランダムに選択された 10 個の生成文書について作業し報酬は 550 円とした。記載特嘚のうち治験コーディネーターによる評価の平均が 0 より小さい記載特徴を満たすと判断したワーカーが半数以下の生成文書を、 2 つの要件を満たした擬似的なカルテ文書と判断した。 ## 2.3 作成した擬似カルテ文書の評価 提案フレームワークによって得られた疑似カルテ文書と、ランダムに選択した 100 個の本物のカルテ文書との類似性を評価した。比較対象として、2人の医師が臨床現場を再現した実験環境で電子カルテ様画面を利用して記載した 19 個の文書(医師記載文書と呼ぶ)および 257 個の既存公開文書と本物のカルテ文書との類似性の比較も行った。類似性の量的評価として、文書あたりの、標準病名数[12]、MeCab0.996 と mecab-ipadic-2.7.0 dictionary を利用して求めた形態素数、文章の難易度(readability)を評価する 13 段階からなる指標である T-13[13,14]を計測した。類似性の質的評価として、医師 3 人が、上記 4 種類の文書からそれぞれランダムに選択した 12 個ずつをランダムな順番に閲覧し、各文書を実際のカルテ文書だと思うかを「思わない(1)」から「思う(10)」までの 10 段階リッカート尺度で回答した。各指標について、本物のカルテ文書とそれ以外の 3 種類の文書の間の、スコアの平均値の有意差検定を行った。 Shapiro-Wilk 検定と Bartlett の結果に基づき、文書あたりの標準病名と形態素数の平均値の比較には Brunner-Munzel 検定を用い、readability と医師による質的評価のスコアの平均値の比較には MannWhitney U 検定を利用した。また、データセットのスコアの分布間の Kullback-Leibler (KL)擬距離(式 (1))を求めた。 $p(x)$ は本物のカルテ文書のスコアの分布、 $q(x)$ はそれ以外の 3 種類のカルテ文書のスコアの分布である。 $ D_{K L}(p(x) \| q(x))=\sum_{x} p(x) \ln \frac{p(x)}{q(x)} $ ## 3 結果 ## 3.1 クラウドワーカーの統計データ 延べ 1,662 人のクラウドワーカーのうち $97.3 \%$ は医療従事者でなく、医療系の学生経験もなかった。 ## 3.2 提案フレームワークの実現例 ## step 1 : 臨床的妥当性を持つ文書の生成 35 人のワーカーが延べ 700 個の文書を作成し、再構成により 9,856 個の文書が生成された。 ## step 2 : カルテ文書に固有な特徴の顕在化 3,197 個の特徴候補から 176 個の記載特徴が抽出された。コミュニティが抽出され、3 人の治験コー ディネーターの評価によりそのうちの 166 個がカルテ文書の記載特徴とされた(表 1)。また、Step 2 と同様の実験を 3 人の治験コーディネーターが行い取得された 105 個の特徴と、記載特徴を著者が比較したところ定性的な違いは認められなかった。 ## step 3 : カルテ文書に固有な特徵を持つ擬似力 ルテ文書の選別 100 個の生成文書のらち 83 個が、 2 つの要件を満たした擬似的なカルテ文書と判断された。 表 1 カルテ文書に固有な特嘚の例 ## 3.3 作成した擬似カルテ文書の評価 既存公開文書、医師記載文書、擬似カルテ文書、本物のカルテ文書のそれぞれについて、文書あたりの標準病名数(平均值)は $23.56 、 37.47 、 45.18 、 60.48$ 、形態素数(平均値)は 89.54、105.47、164.04、178.34、 readability スコア(平均値)は 9.70、8.08、10.22、10.29、医師の質的評価(平均値)は $4.53 、 5.25 、 5.20 、 5.0$ であった。既存公開文書や医師記載文書と異なり、擬似カルテ文書では 4 つの全ての指標について、スコアの平均値が本物のカルテ文書と等しいという帰無仮説が棄却されなかった(図 2, 表 2)。各指標の本物の カルテ文書のスコアの分布からの KL 擬距離は、既存公開文書、医師記載文書、擬似カルテ文書の順に、文書あたりの標準病名数は $0.385 、 0.569 、 0.244$ 、形態素数は $0.312 、 0.942 、 0.115 、$ readability スコアは $0.098 、 4.160 、 0.633$ 、医師の質的評価は $1.573 、 1.111$ 、 0.767 であった。すなわち、擬似カルテ文書が他の 2 つのデータセットよりも本物のカルテ文書に類似していると判断した。作成した擬似カルテ文書は公開 iした。 表 2 作成した擬似カルテ文書の評価 & & 0.54 & & 0.36 \\ 標準病名 図 2 各評価指標のスコア ## 4 考察 本研究では、医師にとっても経験的なカルテ文書の特徴に着目して提案した擬似文書作成フレームワ一クを利用して、医師が電子カルテ画面を実験用に再現して記載した文書よりも本物のカルテ文書に類似している擬似カルテ文書を作成した。 ## 4.1 提案フレームワークの汎用性と限界 提案フレームワークは、国や地域に依存しない点で汎用性があり、本実験のようにクラウドソーシングを利用すれば少数の本物のカルテ文書から擬似的なカルテ文書を作成できる利点を持つ。その一方で、 カルテ文書に固有の特徴を明らかにする際に、実際のカルテ文書には存在しない特徴を明らかにすることはできない提案手法である点は限界である。 ## 4.2 擬似カルテ文書の汎用性と限界 本研究で作成した擬似カルテ文書は、プライバシ一の問題なく自由に利用可能である。日本語の擬似カルテ文書として、公開文書数は知る限り最大である。文書には「ビタミン B12 内服=痺れ」(痺れの訴えに対してビタミン B12 を内服する、という意味) のようなカルテ文書に特徴的な記載が存在した。 一方で、医療の背景知識を持たないクラウドワー カーによる記載、また利用した本物のカルテ文書の特徴を原因とする未知の偏りが生じる可能性は否定できない。カルテ文書の網羅的な閲覧が倫理的観点から不可能であることに起因する限界である。 ## 5 結論 本研究では、文書の内容の一貫性を保つ必要があり、文書に固有の特徴が明らかになっておらず、大規模なデータ収集が困難、という 3 つの特徴を持ったカルテ文書を、擬似的に生成するフレームワークを提案した。さらに提案フレームワークを、専門知識を持たないクラウドワーカーにより実現することで、医師が臨床現場を模した環境で記載したカルテ文書よりも本物らしいと判断できる擬似カルテ文書を作成した。カルテ文書をはじめとした公開が困難な文書資源を利用した言語処理研究において、提案フレームワークが利用されれば幸いである。 ## 6 倫理的配慮および謝辞 本研究は筑波大学附属病院臨床研究倫理審査委員会の承認を得た (H30-145)。JST 未来社会創造事業 (JP19211284)、JSPS 科研費 (JP19K19347)、筑波大学社会工学データコモンズの助成を受けた。  ## 参考文献 [1] Lohr, Christina, Sven Buechel, and Udo Hahn. "Sharing Copies of Synthetic Clinical Corpora without Physical Distribution-A Case Study to Get Around IPRs and Privacy Constraints Featuring the German JSYNCC Corpus." Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018). 2018.1259-1266. [2] Savkov, A., Carroll, J., Koeling, R. et al. Annotating patient clinical records with syntactic chunks and named entities: the Harvey Corpus. Lang Resources \& Evaluation 50, 523-548 (2016). [3] Aramaki A, Imai T, Miyo K, Ohe K. Robust classification for ungrammatical and fragmented texts. Proceedings of the $23^{\text {rd }}$ IEEE International Conference on Data Engineering Workshops; 2007 Apr 15-20:195-201 [4] Lee SH. Natural language generation for electronic health records. NPJ Digit Med 2018; 1(1): 1-7. PMID: 26900011 doi: $10.1016 /$ j.artmed.2016.01.003 [5] Guan J, Li R, Yu S, Zhang, X. Generation of synthetic electronic medical record text. Proceedings of the 2018 IEEE International Conference on Bioinformatics and Biomedicine; 2018 Dec 3-6:374-380; Madrid, Spain. Washington, DC: IEEE; 2018. doi: 10.1109/BIBM.2018.8621223 [6] Ive J, Viani N, Kam J, Yin L, Verma S, Puntis S, et al. Generation and evaluation of artificial mental health records for natural language processing. NPJ Digit Med 2020; 3(1): 1-9. PMID: 32435697 doi: 10.1038/s41746020-0267-х [7] Aramaki E, Morita M, Kano Y, Ohkuma T. Overview of the NTCIR-11 MedNLP-2 task. Proceedings of the 11th NTCIR Conference; 2014 Dec 9-12:147-154; Tokyo, Japan. Toyko: NII; 2014. [8] 香川璃奈, 篠原恵美子, 河添悦昌, 今井健, 大江和彦:医師の暗黙知に基づくタグ付きカルテコーパ ス作成の要件の検討、言語処理学会第 24 回年次大会論文集 2018.757-760 [9] Kuniyoshi Y. The science of imitation — towards physically and socially grounded intelligence - Real World Comput Proj Joint Symp 1994; 95-96. [10] Gentner D, Markman AB. Structure mapping in analogy and similarity. Am Psychol 1997; 52(1): 45-56. doi: 10.1037/0003-066X.52.1.45 [11] Tan PN, Kumar V, Srivastava J. Selecting the right objective measure for association analysis. Inform Syst. 2004; 29: 293-313. doi: 10.1016/S0306-4379(03)000723 [12] ICD10 対応標準病名マスター(引用日 : 2020 年 9 月 15 日) https://www2.medis.or.jp/stdcd/byomei/index.html. [13] Sato S, Matsuyoshi S, Kondoh Y. Automatic assessment of Japanese text readability based on a textbook corpus. Proceedings of the $6^{\text {th }}$ International Conference on Language Resources Evaluation; 2008 May 29-30:654-660; Marrakech, Morocco. Luxemburg: ELRA; 2008. [14] 帯 3 日本語テキストの難易度を測る(引用日: 2020 年 9 月 15 日 ) http://kotoba.nuee.nagoyau.ac.jp/sc/obi3/ ## 付録 公開した擬似カルテ文書の例 (S) プールで週 1 回のリハビリ、10 分の散歩を初めて、ストレスは減り、体が軽くなったようだ。体調はまあまあだ。 (O) 推定塩分摂取量 $6.11 \mathrm{~g} /$ day 体重 $66.7 \mathrm{k} \mathrm{g}$ 骨格筋 $23.2 \mathrm{k} \mathrm{g}$ 骨格筋量 $25.4 \mathrm{k} \mathrm{g}$ 低血糖の自覚はないです。 74-199-177- $(\mathrm{A} / \mathrm{P})$ 昨夜からランタス 3 単位で開始したところ、今朝から低血糖になり、ランタスは 1 単位へと減らす。 また、退院は血糖コントロールが安定するまで外科主科で診てもらう。 当科と併せて診てもらい、血糖コントロール続けていく。 退院の目処が立ち次第外科へ連絡。 $\mathrm{Q}(1-1-1) \mathrm{G}(0-0-0-1 \downarrow) \curvearrowleft$ ストレスがあり、栄養や運動の調整は難しい ビタミンB 12 内服二疩れ
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-2.pdf
# 商品レビューの複数の観点からの有用性の評価 曽田竬人 北陸先端科学技術大学院大学 s1910131@jaist.ac.jp ## 1 はじめに ユーザが商品の購入を検討する際,他のユーザによって書かれた商品のレビューを参考にすることは日常的に行われている. しかし, レビューの中には,ユーザにとって役に立つものもあればそうでないものもある. 膨大な量のレビューの中から有用なレビューを見つけるのは多大な労力を要するため, これを効率よく見つける技術が求められる。このような背景の下, レビューの有用性を自動判定する研究が行われてきた。しかし, 先行研究の多くは単にレビューが有用であるか否かを判定するが,どのようなレビューが有用かはユーザによって異なると考えられる。例えば,商品を使用した体験が役に立つと考えるユーザもいれば,他の商品との比較を重視するユーザもいるだろう。 本研究では, 商品レビューの有用性を複数の観点から評価し,その評価結果を包括的にユーザに提示するシステムを提案する [1]. 様々な観点による有用性の評価結果を閲覧できるようにすることで, ユーザが自身の嗜好に合わせて有用な商品レビュー を見つける作業をサポートすることを狙う。 ## 2 関連研究 山澤らは, Amazon ${ }^{1)}$ のレビューを対象に,ユーザが内容を信用して利用できる文 (有用文)を判別する Support Vector Machine (SVM) を学習した [2]. 佐々木らは,人手による有用なレビューの分析結果を基に,機械学習を用いて有用なレビューを判別する手法を提案した [3]. Fan らは,製品のメタデータ(夕イトル,ブランドなど) とレビューテキストの両方を入力とし, レビューが有用か否かを分類するディー プニューラルネットワークを提案した [4]. Vo らは, Rodak ら [5] が提案したレビューの特徴を素性として使用し, Elastic Net 回帰を使用してレビュー の有用性を予測し,レビューをランク付けし,その \author{ 白井清昭 \\ 北陸先端科学技術大学院大学 \\ kshirai@jaist.ac.jp } 上位のレビューをユーザに提示するシステムを提案した [6]. これらの先行研究は,レビューが有用か否かのみを判定しているのに対し, 本研究では, 有用性の観点をいくつか定義し, 個々の観点毎にレビューの有用性を判定することで,ユーザが多角的な視点から有用なレビューを見つけることを支援する。 ## 3 提案手法 ## 3.1 有用性の観点 本研究では, レビューの有用性を判定する先行研究 $[3,6,7]$ の知見や著者らによる経験などを踏まえ,以下の 7 つの観点からレビューの有用性を評価することを提案する。 観点 1 評価表現に対する根拠がある 単に商品の善し悪しを評価するだけでなく,その善し悪しの根拠となる事実もあわせて書いているとき,そのレビューの有用性は高いと評価する。図 1 の例では,「便利です」という評価の根拠として「大きさもちょうど良い」を示している. 観点 2 商品に関係のある言及が多い レビューの中には,商品に言及している文もあれば,ショップの対応や配送業者の対応など, 商品以外のことに言及している文もある。商品に言及している文が多ければ多いほど有用性は高いと評価する. 図 1 の例では,「発送までが遅かったのが残念でした」という文は商品に言及していない. 観点 3 他の商品と比較している レビューが評価対象の商品と他の商品を比較しているとき,ユーザにとって参考になる情報を提供している可能性が高いため, 有用性が高いと評価する. 図 1 の例では, 「商品 $\mathrm{B}$ に比べて軽そう」といった比較がある. 観点 4 実際に商品を使用した(あるいはしていない)と推測できる 1) https://www.amazon.co.jp/ 図 1 レビューの例 実際に商品を使用していない人のレビューは有用性が低いと評価する。図 1 の例では,まだ実際に使用していませんが,」という句は,ユーザが商品を実際には使っていないことを表し,このレビューの信頼性が低くなる。 観点 5 評価(レーティング)に対する根拠がある多くの ECサイトやロコミサイトでは,ユーザは商品に対して星の数などでレーティングをつけることができるが,そのレーティングの根拠となる文が示されているとき, 有用性は高いと評価する. 図 1 の例では, 星の数は 4 と高く, 「便利です」といった評価表現はその理由の説明とみなせる。 観点 6 分量が多い ごく簡単に感想を書いた短い一文のレビューより,商品に対する意見・感想を詳細に書いた長いレビューの方が,有用性が高いと評価する。 観点 7 文章が読みやすい 読みやすい文章で書かれたレビューほど有用性が高いと評価する。 以下,観点 1 ,観点 2 ,観点 3 による有用性の評価手法については 3.2,3.3,3.4 項で,これら以外の観点による有用性の評価については 3.5 項で述べる. ## 3.2 根拠を含む文の検出 本項では,レビュー文が根拠を含むか否かを判定する手法について述べる。基本的な考えとしては,根拠を示す接続詞で終わる文節 (例は図 1 の「良いので」) が評価表現を含む文節 (例は図 1 の「便利です」) に係るとき,そのレビュー文は根拠を含むと判定する。具体的には,以下のいずれかの条件を見たす文を根拠を含む文として検出する。 条件 1 連用形 $\rightarrow$ 評価表現 用言の連用形で終わる文節が評価表現を含む文節に係る。 (例) 片手でも持ちやすくて実用的です2)  のが,ので,のは,為,ため,点が,くて, のも,ところが,ところも 図 2 根拠を示す接続詞 条件 2 根拠を表す接続詞 $\rightarrow$ 用言 根拠を示す接続詞で終わる文節が用言を含む文節に係る。 (例) 耐熱性能も良いのでライフも期待できる 上記を踏まえ,以下の手続きでレビュー文に根拠が含まれるかを判定する。 1. CaboCha[8]を用いて文節の係り受け解析を行う. 2. 評価表現もしくは用言 (動詞, 形容詞, 形容動詞)を含む文節 $\mathrm{E}$ を検出する。評価表現は以下の 2 通りの方法で検出する. ・日本語評価極性辞書 (用言編)[9] に含まれる評価表現 $\cdot$感情分析 API である COTOHA API[10] によって検出された評価表現 3. 文節 $\mathrm{E}$ に直接係る文節 $\mathrm{R}$ を検出する。文節 $\mathrm{R}$ が根拠を示す接続詞 (図 2)を含むかどうかを判定する。 4. 文節 $\mathrm{R}$ と $\mathrm{E}$ が上記の条件 1 ,条件 2 のいずれかを満たすとき,根拠を含むと判定する.それ以外は含まないと判定する。 最終的なシステムでは,上記の手法で根拠を含む文の検出を試み,レビューに根拠を含む文が出現するか否かをユーザに提示する。また,含む場合には検出された文を強調して提示する。 ## 3.3 商品への言及度の判定 本項では,商品レビューが評価対象の商品について言及している度合を「商品言及度」(以下,単に言及度と記す) と定義し,これを推定する手法について述べる。言及度はユーザレビューの有用性を表す指標の 1 つとしてユーザに提示することを想定する。 本研究では, 評価対象の商品のカテゴリに固有の単語がどれだけ多く含まれるかで言及度を定量化する. 例えば,商品カテゴリがペットのとき,「大型犬」「フード」「匂い」「食いつき」などはペットに関連する商品に言及するときによく使われる単語であり,またこのような単語が多いレビューほど商品に言及していると言える. 同様に表記する。 まず,商品カテゴリ毎に単語の重要度を算出する. 商品カテゴリ $c$ におけるキーワード $k$ の重要度 $\operatorname{Sig}(k, c)$ は, TF-IDF の考え方に基づき, 式 (1)のように定義する。 $ \operatorname{Sig}(k, c)=t f_{k, c} \cdot \log \frac{N_{c}+1}{c f_{k}} $ $t f_{k, c}$ は商品カテゴリ $c$ のレビュー集合に含まれるキーワード $k$ の相対出現頻度, $c f_{k}$ (category frequency) は $k$ が出現するカテゴリの数, $N_{c}$ はカテゴリの総数である.重要度の算出は楽天デー夕 [11] における楽天市場の商品説明文の集合を用いる,商品カテゴリは「ビューティ」「文房具」などの 18 種とする.重要度を算出するキーワードは名詞もしくは複合名詞に限定する。 与えられたレビュー $r$ の言及度を式 (2) のように定義する。 $ \operatorname{Ex}(r, c)=w \cdot \sum_{k \in K_{r}} \operatorname{Sig}(k, c)+(1-w) \cdot \log \operatorname{len}(r) $ 言及度は, レビュー内の全てのキーワード $\left(K_{r}\right)$ の重要度の和と, レビューの長さ (文字数) len $(r)$ の重みつき和とする, $c$ は,レビュー $r$ が評価対象とする商品のカテゴリである. len $(r)$ を考慮したのは, 長いレビューほど商品への言及度が高いという直観に基づく.重み $w$ は実験的に決定する。 ## 3.4 比較の有無の判定 本項では,簡単なルールベースの手法で複数の商品を比較する文を検出する手法について述べる. Amazon の家電とホームカテゴリの商品レビュー を 1,201 件取得し, 複数の製品を比較しているレビューを 176 件見つけた。これらのレビューから,他の商品との比較があるレビューを検出するルールを策定した。ルールは以下の 3 つに大別される。 ・比較を表すキーワード+評価表現複数の商品の比較を示唆するキーワードを含み,そのキーワードの後に評価表現が出現するとき,そのレビューは比較ありと判定する。「くらべる」「違う」「反面」など, 34 個のキー ワードからなるルールセットを作成した. ・レビューの最初の文で比較を示唆する表現「○○から買い換えました」などの表現がレビューの最初の文に出現するとき, レビュー全体で他の商品との比較があると判定する。「買い換え」「以前」など 6 つのキーワードを設定 し,それが最初の文に出現するときに比較ありと判定するルールセットを作成した。 ・「より」を含む文 節が評価表現を含む文節に直接係るとき,比較を含むレビューと判定する。 (例) 他の製品より良いと思います. 最終的なシステムでは, 「他の商品と比較している」という観点からの有用性を示すために,レビューの中に比較があるか否かを表示することを想定している。ここでのルールは,比較を含むレビューの検出について, 再現率よりも精度を重視して設計している. ## 3.5 その他の観点からの有用性の評価 これまで述べてきた 3 つの観点以外については,現時点では評価方法を検討している段階である. 観点 4「実際に商品を使用したと推測できる」については, 予備調査として, Amazonに投稿された本,電子機器,ホーム・キッチンカテゴリのレビューを 1,385 件取得し, 商品を使用していないと思われるレビューを人手で判定した。その結果,該当するレビューはわずか 11 件であった。実際に商品を使用していないレビューの数が非常に少ないことから,これを自動検出する手法の検討は行わなかった. とはいえ, 別の商品カテゴリのレビューや Amazon 以外のサイトに投稿されたレビューでは商品を使用していないレビューが多く存在する可能性もあり,今後も調査を続けたい。 観点 5 「評価(レーティング) に対する根拠がある」 については, レビューの極性判定を行い,その極性がレーティングに近いかどうか,また極性判定の信頼性が十分高いかどうか,などの手法によって評価する予定である。 観点 6「分量が多い」については,単語数や文字数などで比較的容易に定量化できると考えられる。 観点 7「文章がよみやすい」については,文書の平易さや読みやすさを判定する先行研究があり, これらの技術を適用することが考えられる。 ## 4 評価実験 本節では観点 1 , 観点 2 , 観点 3 で有用性を判定する提案手法の評価実験について述べる. ## 4.1 根拠を含む文の検出手法の評価 Amazon に LED 電球,ルンバ e5,インパクトドライバー,洗顔料について投稿されたレビューをランダムに 50 件取得した。これらのレビューに対し,根拠を含む評価文が現われるかを著者 2 名が独立に判定した。提案手法は根拠を含む文を抽出する手法であるので,商品に対する評価とその根拠が複数の文に書いてある場合は除外し,ひとつの文に書かれているかを判定した。二者の判定の一致率は 0.76 , $\kappa$ 係数は 0.56 であった。 この評価デー夕に対し, 3.2 項で述べた手法で根拠を含む文を検出し,その精度,再現率, $\mathrm{F}$ 值を調べた。また, 根拠の有無の判定が一致する割合 (正解率) も算出した. 結果を表 1 に示す. 再現率は比較的高いが, 特に評価者 2 に対する精度が低く, $\mathrm{F}$値も 0.7 程度に留まっている。 表 1 根拠を含む文の検出の評価結果 ## 4.2 商品への言及度の判定の評価 言及度の計算に用いた 18 のカテゴリについて, それぞれのカテゴリに投稿されたレビューをランダムに選択し, レビューの組を 10 件ずつ, 計 180 件作成した。これらに対し, 著者 2 名が独立に, どちらのレビューがより商品に言及しているかを判定した。このとき,どちらの言及度が大きいか判定が難しい場合には「不明」とした。最終的に, 評価者のどちらかが不明と判定した 24 件のデー夕を除く 156 件を評価データとした。二者の判定の一致率は 0.904, $\kappa$ 係数は 0.807 であった。この評価デー夕に対し, それぞれのレビューの組に対して 3.3 項で述べた手法でレビューの言及度を算出し, 言及度の大きいレビューが人手による判定の結果とどれだけ一致するか (正解率)を調べた。 ベースラインとして,常に文字数の多いレビューを言及度の大きいレビューとして選択する手法 (式 (2)の $w$ を 0 とした場合) と比較した。図 3 は, 重从 $w$ を 0.990 から 1 まで $10^{-6}$ 刻みで変動させたときの正解率の変化を示している. ベースライン (図 3 の直線) の正解率は, 評価者 1 (a) 評洒者 1 (b) 評価者 2 図 3 商品への言及度の評価結果 は 0.801 ,評価者 2 は 0.740 であった。提案手法については,評価者 1,2 ともに $w=0.9983$ のときに正解率が最大となり,その値はそれぞれ $0.801 , 0.769$ であった。提案手法がベースラインと同等もしくは上回ることを確認した。ただし,パラメ夕 $w$ の最適化は本来はテストデータとは別の開発データで行うべきである. 開発データを用いた $w$ の最適化は今後の課題である。 ## 4.3 比較の有無の判定の評価 3.4 項で説明した個々のルールについて,それを用いて比較を含むレビューを検出したときの精度を測った。ルールの設計に用いた家電・ホームカテゴリのレビューに対する精度 (クローズド) と,新たに取得した「ベビー」カテゴリのレビュー 557 件に対する精度 (オープン)を調べた。いくつかのルールについて,検出精度が十分に高いことを確認した。例を表 2 に示す。 表 2 比較を含むレビューを検出するルールの精度 ## 5 おわりに 今後の課題として, これまで着手していない 4 つ観点からの有用性評価を実現することが挙げられる。一方,3つの観点からの有用性の判定について,本論文で提案した手法は比較的基本的なものであり,これらをより洗練することも必要である。また,7つの観点からの有用性の評価結果をどのようにユーザに提示し,ユーザのレビュー検索を補助するシステムを実装するかも重要な課題である。 ## 参考文献 [1]曽田颯人. 商品レビューの複数の観点からの有用性の評価. 修士論文, 北陸先端科学技術大学院大学, 32021. [2]山澤美由起, 吉村宏樹, 増市博. Amazon レビュー 文の有用性判別実験. 情報処理学会研究報告自然言語処理 (NL), Vol. 2006, No. 53 (2006-NL-173), pp. 15-20, 2006. [3]佐々木優衣, 関洋平. 商品レビューを対象とした有用性の定義と判別. 第 6 回データ工学と情報マネジメントに関するフォーラム (DEIM2014) B5-1, 2014. [4]Miao Fan, Chao Feng, Lin Guo, Mingming Sun, and Ping Li. Product-aware helpfulness prediction of online reviews. In Proceedings of the World Wide Web Conference, pp. 2715-2721, 2019. [5]J. Rodak, M. Xiao, and L. Longoria. Predicting helpfulness ratings of amazon product reviews. Technical report, Stanford University,, 2012. [6]Chau Vo, Dung Duang, Duy Nguyen, and Tru Cao. From helpfulness prediction to helpful review retrieval for online product reviews. In Proceedings if the Ninth International Symposium on Information and Communication Technology (SolCT 2018), pp. 38-45, 2018. [7]木浪貴博, 小林亜樹. 商品レビュー文における主観的表現と有用性に関する検討. 情報処理学会第 77 回全国大会講演論文集, pp. 159-160, 2015. [8]工藤拓, 松本裕治. チャンキングの段階適用による日本語係り受け解析. 情報処理学会論文誌, Vol. 43, No. 6, pp. 1834-1842, 2002. [9]小林のぞみ, 乾健太郎, 松本裕治, 立石健二, 福島俊一. 意見抽出のための評価表現の収集. 自然言語処理, Vol. 12, No. 3, pp. 203-222, 2005. [10]NTT コミュニケーションズ. COTOHA API. https://api.ce-cotoha.com/contents/index.html. (2020 年 12 月閲覧). [11]Rakuten Institute of Technology. 楽天デー夕公開. https://rit.rakuten.co.jp/data_release_ja/. (2020 年 12 月閲覧).
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-3.pdf
# 主観感情と客観感情の強度推定のための日本語データセット \{kajiwara, chu, takemura, n-yuta, nagahara\}@ids.osaka-u.ac.jp ## 1 はじめに 感情分析は、対話システム [1] やソーシャルメディアマイニング [2] など多くの応用を持つ主要な自然言語処理タスクのひとつである。感情分析は活発に研究されており、テキストの感情極性の推定 [3] だけでなく、近年ではより詳細な感情の識別や感情強度の推定 [4] が試みられている。 先行研究では、Ekman の 6 感情(喜び・悲しみ・驚き・怒り・恐れ・嫌悪) [5] や Plutchik $の 8$ 感情 (喜び・悲しみ・期待・驚き・怒り・恐れ・嫌悪・信頼)[6]が代表的な基本感情として用いられている。既存の感情分析データセットには、テキストの書き手による主観的な感情強度のラベルを収集したもの [7] と、テキストの読み手による客観的な感情強度のラベルを収集したもの [8-13] が含まれる。多くの先行研究が客観的な感情強度ラベルを収集してきた1)ため、これまでの感情分析の研究は客観的な感情強度の推定に焦点を当ててきた。 本研究では、テキストの書き手による主観的な感情強度ラベルとテキストの読み手による客観的な感情強度ラベルの両方を収集し、これらの差異について調査する。まず、クラウドソーシングを用いて雇用した 50 人の主観注釈者が、SNS 上での自身の過去の投稿に主観的な感情強度を付与した。そして、収集した全投稿に対して、それぞれ 3 人の客観注釈者が客観的な感情強度を付与した。合計で、 17,000 件の投稿について、Plutchik の 8 感情 [6] の強度を、主観と客観の両方で 4 段階(無・弱・中・強)で付与した日本語の感情分析データセット2)を構築した。 先述の通り、英語を中心に多くの感情分析データセット [7-13] が公開されているが、テキストの書き手が持つ感情と読み手が受ける感情の両方を収集し  表 1 感情強度ラベルの例 $(0:$ 無、1: 弱、2: 中、3: 強) たのは本研究が初である。日本語では、鍜治ら [14] や鈴木 [15] の研究があるが、これらは感情極性を対象としており、多様な感情を扱っていない。 収集した主観ラベルと客観ラベルを比較した結果、怒りや信頼の感情を中心に、読み手は書き手の感情を充分に検出できないことが明らかになった。表 1 に、書き手が強い悲しみと怒りの感情を持って書いた投稿の例を示す。読み手は書き手と同じく悲しみの感情を持っているが、怒りではなく驚きを感じており、書き手と読み手の感情は充分に一致しない。このように、書き手が強い怒りの感情を持って書いたテキストでも、その半数以上に読み手は怒りを全く感じないなど、全体的に読み手は書き手の感情を過小評価する傾向が見られた。また、BERT [16] による感情強度の推定実験の結果、客観ラベルよりも主観ラベルの推定が難しいことがわかった。テキストの書き手が持つ感情と読み手が受ける感情には大きなギャップが存在し、テキストの「読み手」である機械学習モデルにとっても、書き手の主観的な感情強度を推定することは難しいと言える。 ## 2 感情分析データセットの構築 ## 2.1 主観的感情強度ラベルの収集 クラウドソーシングサービスのランサーズ3)を用いて、50人の主観注釈者を雇用した。注釈者の内訳は、男性が 22 人、女性が 28 人、 10 代が 2 人、 20 代が 26 人、 30 代が 18 人、 40 歳以上が 4 人である。  表 2 Quadratic Weighted Kappaによる評価者間のアノテーションの一致率 主観注釈者は、SNS 上での自身の過去の投稿に対して、Plutchik の 8 感情 [6] の強度をそれぞれ 4 段階(無・弱・中・強)で付与した。ただし、テキストからの感情分析という目的のために、画像付きの投稿や URL 付きの投稿は対象外とした。各注釈者は 100 件から 500 件の投稿にラベルを付けており、合計で 17,000 件の投稿と主観的感情強度のラベルを収集した。投稿時期については特に制限を設けなかったが、結果として 2011 年 6 月から 2020 年 5 月までの 9 年の範囲の投稿が集まった。なお、投稿 1 件あたり 21.5 円の報酬を支払った。 収集したラベルの品質を評価するために、注釈者ごとに 30 件の投稿を無作為抽出した。評価者(大学院生 1 人) は、投稿内容と 8 感情の強度ラベルを見て、以下の基準で各投稿を 4 段階評価した。 ・3: 付与されたラベルに完全に同意できる ・2: 付与されたラベルに概ね同意できる ・ 1 : 付与されたラベルに同意しにくい ・0:真面目にラベル付けしていると思えない 評価結果を注釈者ごとに平均すると、平均 2.1 点、最低 1.8 点、最高 2.5 点であった。なお、 0 点の投稿は存在しなかった。平均 2 点を下回る注釈者は 5 人いたが、著しく低品質な注釈者は見られなかった。 ## 2.2 客観的感情強度ラベルの収集 同じくランサーズを用いて、3人の客観注釈者を雇用した。注釈者の内訳は、30 代の女性が 2 人と 40 代の女性が 1 人である。客観注釈者は、 2.1 節で収集した 17,000 件の投稿に対して、主観注釈者と同じく、Plutchik の 8 感情 [6] の強度をそれぞれ 4 段階で付与した。ただし、主観注釈者がテキストの書き手である自身の感情を付与した一方で、客観注釈者はテキストの読み手である自身の感情を付与した。 なお、投稿 1 件あたり 3.8 円の報酬を支払った。収集したラベルの品質を評価するために、注釈者間の一致率として Quadratic Weighted Kappa ${ }^{4)}$ [17] を計算した。表 2 の上段に、客観注釈者間のアノテーションの一致率を示す。喜びの感情は $\kappa>0.6$ の substantial agreement、信頼の感情は $\kappa<0.4$ の fair agreement であるが、全体としては $0.5<\kappa<0.6$ の moderate agreement を確認できた。 ## 2.3 主観注釈者の性格診断 本研究では、性格と感情の関係についても調査するために、主観注釈者に対して性格診断を実施した。性格 5 因子モデル [18] に基づく 60 項目の質問 [19] を通じて、調和性・外向性・情緒不安定性・開放性・誠実性の 5 種類の性格診断を実施した。この性格診断は、「陽気な」「素直な」などの 60 種類の性格形容語に対する自身の該当度を 7 段階評価で申告し、各項目の該当度の足し引きによって 5 種類の性格指標を計算するものである。4 節では、性格診断の結果を用いて感情分析モデルの改善を試みる。 ## 3 データセットの分析 表 2 の下段に、主観注釈者と客観注釈者の間の感情強度の一致率を示す。客観注釈者間の感情強度の一致率に比べて、主観注釈者と客観注釈者の間の感情強度の一致率は全体的に低い。特に、怒りの感情において、客観注釈者間の一致率と主観注釈者-客観注釈者間の一致率に大きなギャップがある。なお、 3 人の客観注釈者の感情強度を平均すると、主観注釈者との一致率が全体的に若干向上した。 表 3 に、主観の感情強度ラベルと客観の感情強度ラベルの混同行列を示す。例えば、喜びの感情において、主観注釈者が無とラベル付けした投稿のう 4) https://scikit-learn.org/stable/modules/generated/ sklearn.metrics.cohen_kappa_score.html 表 3 主観ラベルと客観ラベルの混同行列(\%) ち、客観注釈者が無を付けた割合は 91.7\%であり、客観注釈者が弱を付けた割合は $3.1 \%$ でる。怒りの感情に注目すると、テキストの書き手である主観注釈者が強を付けた投稿の $58.6 \%$ に対して、テキストの読み手である客観注釈者は無を付けている。信頼の感情では更に顕著であり、主観注釈者が強を付 おり、読み手が書き手の感情を充分に検出できないことがわかる。その他の感情についても、主観注釈者の感情強度が中以下の投稿については、客観注釈者によって無が付けられる割合が最も高い。また、主観注釈者の感情強度が無のときに客観注釈者の感情強度が弱以上になることは少なく、全体的に読み手は書き手の感情を過小評価する傾向がある。 ## 4 感情強度推定の実験 2 節のデータセットを用いて、感情強度(無・弱・中・強)を推定する 4 值分類の評価実験を行う。 ## 4.1 実験設定 データセットは、 30 人 15,000 件の訓練用データ、 10 人 1,000 件の検証用データ、 10 人 1,000 件の評価用データに重複なく分割して実験する。単語分割には MeCab(IPADIC-2.7.0)5[20]を使用する。 感情分析モデルの性能は、平均絶対誤差によって評価する。主観注釈者が付与した感情強度ラベル (主観データ)を用いる評価と、3人の客観注釈者が付与した感情強度ラベルの平均(客観データ)を用  いる評価の両方を実施する。感情分析モデルには、BERT [16] を用いる。事前訓練済みの $\mathrm{BERT}^{6}$ を再訓練し、 $\boldsymbol{y}=\operatorname{softmax}(\boldsymbol{h} \boldsymbol{W})$ として感情強度を推定する。ただし、 $\boldsymbol{h}$ は BERT の [CLS] トークンから得られる素性べクトルである。主観データにおける評価と客観データにおける評価の両方で、主観データで訓練した BERT(主観 BERT)と客観データで訓練した BERT(客観 BERT)の両方の性能を調査する。BERT の実装には Transformers ${ }^{7)}$ [21] を使用する。WholeWordMasking モデルを使用し、バッチサイズは 32 、ドロップアウ卜率は 0.1、学習率は 2e-5、最適化は Adam [22] として、3エポックの early-stopping を適用する。 主観データの評価では、主観 BERT において以下の 2 つの方法で主観注釈者の性格を考慮する。 ・ $\mathbf{w} / \mathbf{P c}: \boldsymbol{h}_{c}=[\boldsymbol{u} ; \boldsymbol{v}] \boldsymbol{W}^{c}$ として、性格を考慮する。 ただし、uは 5 次元の性格情報ベクトルを BERT と同じ 768 次元に線形変換した性格表現であり、v は BERT の [CLS] トークンから得られる 768 次元のテキスト表現である。感情強度の推定においては、 $\boldsymbol{h}$ の代わりに $\boldsymbol{h}_{c}$ を用いる。 - $\mathbf{w} / \mathbf{P a}: \boldsymbol{h}_{a}=\operatorname{attention}\left(\boldsymbol{u} \boldsymbol{W}^{Q}, \boldsymbol{v} \boldsymbol{W}^{K}, \boldsymbol{v} \boldsymbol{W}^{V}\right)$ として、性格を考慮する。つまり、注意機構のクエリとして性格表現 $u$ 、キーおよびバリューとしてテキスト表現 $v$ を用いる。感情強度の推定においては、 $\boldsymbol{h}$ の代わりに $\boldsymbol{h}_{a}$ を用いる。  表 4 感情強度推定の平均絶対誤差 参考のために、最頻クラスのベースラインも評価する。これは、感情ごとに最も高頻度なラベルを常に出力するベースラインである。本データセットではいずれの感情においても無のラベルが最高頻度であるため、実際には常に無のラベルを出力する。 ## 4.2 実験結果 実験結果を表 4 に示す。下段の客観データにおける評価よりも上段の主観データにおける評価の方が全体的に平均絶対誤差が大きく、書き手の感情強度の推定がより難しいことがわかる。これまでの議論で、書き手の感情を読み手が推定するのは難しいと述べたが、同じく「読み手」である機械学習モデルにとっても書き手の感情推定は難しいと言える。 上段の主観データにおける評価では、主観データで訓練した主観 BERT ではなく客観データで訓練した客観 BERT が最高性能を達成するという想定外の結果となった。先述のように、テキストの書き手の感情(主観データ)の推定は難しいため、単純な訓練では充分な性能が得られなかったものと考える。 そこで、書き手の性格情報を用いて訓練を補助する 2 手法を検討した。実験の結果、性格表現とテキスト表現を単純に結合する主観 BERT w/ Pc は有効ではなかったが、性格表現とテキスト表現を重み付きで考慮する主観 BERT w/ Pa は単純な主観 BERT よりも低い平均絶対誤差 $(0.553 \rightarrow 0.545)$ を達成した。しかし、性格情報を用いても、客観 BERT の性能には及ばなかった。参考のために、客観注釈者の性能も掲載する。客観 BERT の性能は、客観注釈者 $\mathrm{A}$ および $\mathrm{C}$ を超えており、テキストの「読み手」としての主観感情の推定においては人間に匹敵する水準にあると言える。 下段の客観データにおける評価でも、主観データにおける評価と同じく、BERT は最頻クラスのべー スラインよりも低い平均絶対誤差を達成し、客観 BERT が最高性能を達成した。各客観注釈者と比較すると、客観 BERT の性能は、客観感情の推定においては改良の余地が残っていることがわかる。 ## 5 おわりに 本研究では、日本語の感情分析のために 17,000 件のデータセットを構築し、公開 2 ) した。Plutchik の 8 感情に基づき、50人の注釈者が自身の過去の SNS の投稿に主観的な感情強度をラベル付けし、さらに 3 人の注釈者が客観的な感情強度を付与した。 書き手の主観的な感情強度と読み手の客観的な感情強度を比較したところ、怒りや信頼の感情を中心に、読み手は書き手の感情を充分に検出できず、過小評価する傾向が見られた。また、同じくテキストの「読み手」である機械学習モデルにとっても、書き手の主観的な感情強度の推定は難しい。今後は、書き手の性格情報や過去の投稿履歴を考慮し、より高精度に主観感情を推定するモデルを開発したい。 ## 謝辞 本研究は文部科学省による Society 5.0 実現化研究拠点支援事業の支援を受けたものである。 ## 参考文献 [1] 徳久良子, 乾健太郎, 松本裕治. Web から獲得した感情生起要因コーパスに基づく感情推定. 情報処理学会論文誌, Vol. 50, No. 4, pp. 1365-1374, 2009. [2] Stefan Stieglitz and Linh Dang-Xuan. Emotions and Information Diffusion in Social Media - Sentiment of Microblogs and Sharing Behavior. Journal of Management Information Systems, Vol. 29, No. 4, pp. 217-248, 2013. [3] Richard Socher, Alex Perelygin, Jean Y. Wu, Jason Chuang, Christopher D. Manning, Andrew Y. Ng, and Christopher Potts. Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1631-1642, 2013. [4] Laura Ana Maria Bostan and Roman Klinger. An Analysis of Annotated Corpora for Emotion Classification in Text. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 2104-2119, 2018. [5] Paul Ekman. An Argument for Basic Emotions. Cognition and Emotion, Vol. 6, No. 3-4, pp. 169-200, 1992. [6] Robert Plutchik. A General Psychoevolutionary Theory of Emotion. Theories of Emotion, Vol. 1, pp. 3-31, 1980. [7] Klaus R. Scherer and Harald G. Wallbott. Evidence for Universality and Cultural Variation of Differential Emotion Response Patterning. Journal of Personality and Social Psychology, Vol. 66, No. 2, pp. 310-328, 1994. [8] Saima Aman and Stan Szpakowicz. Identifying Expressions of Emotion in Text. In International Conference on Text, Speech and Dialogue, pp. 196-205, 2007. [9] Carlo Strapparava and Rada Mihalcea. SemEval-2007 Task 14: Affective Text. In Proceedings of the Fourth International Workshop on Semantic Evaluations, pp. 7074, 2007 . [10] Sven Buechel and Udo Hahn. EmoBank: Studying the Impact of Annotation Perspective and Representation Format on Dimensional Emotion Analysis. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics, pp. 578-585, 2017. [11] Saif Mohammad and Felipe Bravo-Marquez. Emotion Intensities in Tweets. In Proceedings of the 6th Joint Conference on Lexical and Computational Semantics, pp. 65-77, 2017. [12] Saif Mohammad and Svetlana Kiritchenko. Understanding Emotions: A Dataset of Tweets to Study Interactions between Affect Categories. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation, pp. 198-209, 2018. [13] Laura Ana Maria Bostan, Evgeny Kim, and Roman Klinger. GoodNewsEveryone: A Corpus of News Headlines Annotated with Emotions, Semantic Roles, and Reader Perception. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 1554-1566, 2020 [14] 鍜治伸裕, 喜連川優. HTML 文書集合からの評価文の自動収集. 自然言語処理, Vol. 15, No. 3, pp. 77-90, 2008 . [15] Yu Suzuki. Filtering Method for Twitter Streaming Data Using Human-in-the-Loop Machine Learning. Journal of Information Processing, Vol. 27, pp. 404-410, 2019. [16] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, 2019. [17] Jacob Cohen. Weighted Kappa: Nominal Scale Agreement Provision for Scaled Disagreement or Partial Credit. Psychological Bulletin, Vol. 70, No. 4, pp. 213-220, 1968. [18] Lewis R. Goldberg. The Development of Markers for the Big-Five Factor Structure. Psychological Assessment, Vol. 4, No. 1, pp. 26-42, 1992. [19] 齊藤崇子, 中村知靖, 遠藤利彦, 横山まどか. 性格特性用語を用いた Big Five 尺度の標準化. 九州大学心理学研究, Vol. 2, pp. 135-144, 2001. [20] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying Conditional Random Fields to Japanese Morphological Analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237, 2004. [21] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-Art Natural Language Processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, 2020. [22] Diederik P. Kingma and Jimmy Lei Ba. Adam: A Method for Stochastic Optimization. In Proceedings of the 3rd International Conference on Learning Representations, 2015.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-4.pdf
# 絵文字の共起関係を用いた距離学習 町田秀輔守屋俊柴田千尋 東京工科大学 バイオ・情報メディア研究科 \{c011624552, c0115334ef, shibatachh\}@edu.teu.ac.jp ## 1 はじめに スマートフォンや PC の発達により,インター ネットや電子メールを通じたテキストベースの伝達方法が盛んに行われるようになっている. 商品レビューやチャットツール,ソーシャルネットワーキングサービスなど人の意見や考えなど気軽に発言できる場が増え, それらを利用した解析技術の需要も増している.自然言語処理の感情分析は,テキストから人間の感情を推定することを目的とし,前述したサービスの分析に非常に重要な技術の一つである.しかし,人間的な感情を正確に捉えることは難しく, 感情の定量的な推定を行うことができる手法は未だに発展途上である.既存の感情分析タスクとしては,文または文章から,「ポジティブ,ネガティブ,ニュートラル」のような 3 つの極性感情を推定したり, SemEval [1]の「Joy, Sadness, fear, anger」 のような細分化した感情を推定するものが存在する。一方で, 心理学分野では, プルチックら [2] によって提案されている感情の輪と呼ばれるものがあり, 8 つの基本感情「喜び, 信頼, 恐れ, 驚き, 悲しみ,嫌悪,怒り,期待」があり,さらにこれら 2 つを組み合わせた感情を人間特有の高度な感情と定義される。 心理学的な知見である感情の輪では, 人間特有の感情は基本感情を組み合わせたものとしているが,自然言語処理の感情分析タスクでは,これらの高度な感情についての言及はしておらず,まだ基本感情の分析しか行われていない. そこで本研究では複雑な感情表現を得るための足掛かりとして, 絵文字を利用した距離学習を提案する.絵文字を使う利点として, 絵文字には, 感情を表す表現の種類が豊富であることがあげられる.絵文字の持つ豊富な感情の含意を利用して,絵文字間の共起関係を距離学習の仮ラベルとして用い,対応する文を距離空間へ埋め込むことで,従来のラベルを予測するモデルよりも,定量的表現が獲得できる。絵文字は, 同一文章内で複数種類使われることが多いため,この共起関係を用いることで,文章の感情の視点から見たときの類似性を表しているものとして捉えることが可能となる. ## 2 関連研究 ## 2.1 距離学習 距離学習は, データ間の距離や類似度などからデータの埋め込み表現を学習をする手法の一つである. Hadsell ら [3] による Contrastive loss では,一般的に,入力データを一度に二つサンプリングし,サンプル同士が類似しているなら距離を近づけ,そうでないなら遠ざけるように学習することで,任意距離で測れる空間へ埋め込むことが可能となっている.また,Wang ら [4] は,入力データを一度に三サンプル $(a, b, c)$ 用意し, サンプル $a$ の埋め込みベクトルと, $a$ と類似するサンプル $b$ との埋め込みべクトルとの距離を近づけ, 同時に,$a$ と類似していないサンプル $c$ の埋め込みベクトルとの距離を遠ざけるように学習する手法 (トリプレットロス)を提案している. ## 2.2 BERT BERT [5] は事前学習を行うモデルの一種で,多く自然言語処理のタスクで高い性能が報告されている汎用性の高いモデルである.入力データはサブワー ドによるトークン化を行い,先頭と文末に特殊トー クンである CLS と SEP を挿入する。事前学習では入力トークンをマスクし,マスク箇所を周囲の情報から予測する Masked Language Model と,2つの文章を入力して繋がりのある文章か,そうでないかの 2 值分類を行う Next Sentence Prediction を行わせている.この 2 つのタスクを解くことで,トークン間の関係と文間の関係を教師なしで学習することができる. 事前学習を行わせた BERT では,特定のタスクには特化していないが,文章の表現を獲得すること に優れたモデルとなっており, 事前学習済みモデルに対して,特定のタスクに特化したデータセットを用いて fine tune を行うことで, 対象のタスクに対して適応した高い精度を持ったモデルとなる。 ## 3 提案手法 ## 3.1 絵文字を元にした距離学習 本研究の朹組みで行う距離学習では, 文章を BERT へ入力し, 得られた埋め込み表現からトリプレットロスで学習を行う,提案手法では,トリプレットロスで学習する際のデータのサンプリングに絵文字の共起関係を用いる. $ \begin{aligned} \operatorname{TripletLoss}(a, p, n)= & \max \{d(a, p)-d(a, p) \\ & + \text { margin, } 0\} \end{aligned} $ 式 1 は, 本研究で用いるロス関数であり, $a$ は特定の絵文字が付いた文の埋め込みべクトル, $p$ は, $a$ と同一の絵文字または共起関係にある絵文字が付いた別の文の埋め込みべクトル,$n$ は, $a$ と異なりかつ共起関係にない絵文字の付いた文の埋め込みべクトルである.また, margin の値は 1 とする. 全体の流れとしては, 図 1 に示すように,まず, データを一つ選び,そのデータに付与されていた絵文字と共起しやすい絵文字, または同一の絵文字のついた文章をポジティブなサンプルとし,それ以外の文章をネガティブなサンプルとして取る。その後, 得られた三つのサンプルをそれぞれ BERT の Encoderへ入力する.BERTの出力のうち, CLSトー クンに対応する位置の出力ベクトルを文ベクトルして, トリプレットロスで誤差を計算し,モデルを更新する. 提案手法では, 絵文字の共起関係を通して, 文の持つ感情を捉えた文間の距離関係が, 学習の結果, ベクトル空間中に埋め込まれることを期待する. 図 1 提案手法の概要図 ## 3.2 絵文字の共起関係の抽出および共起頻度に基づくサンプリング 絵文字自体は視覚的な訴求力を伴った記号であり,どのような感情を意味するかが事前に与えられ ているわけではない. また, 本研究で用いた絵文字の総数はであり, それらがすべて独立した感情を表しているわけではない。一方で,実際に文章内に用いられる際には, 視覚的・意味的に似ている絵文字が同一文章内で複数種類使われることが多い. そこで, 共起している絵文字を使用している文章同士は感情の意味で類似していると仮定し, この共起関係から似た文表現が埋め込む先の空間でまとまりやすくなることを期待する.さらに,前述の三つのサンプルを得る際のサンプリング確率に, 共起頻度,または,自己相互情報量 (PMI; Point-wise Mutual Information)を用いる. $ \operatorname{PMI}(x, y)=\log \frac{p(x, y)}{p(x) p(y)} $ 共起頻度を用いたサンプリングでは, 頻度の閾値を 1000 回として,間值以上のものを共起関係にあるものとした。そして,各頻度を足して 1 になるよう正規化することで確率とみなし,サンプリングを行う. PMIを用いたサンプリングでは, PMI が間值 0 を超えるサンプル同士を共起している,閾値を上回らないものを共起していないとする.PMI は頻度とは異なるため, サンプリング時の確率にするために Softmax 関数を通すことで確率とみなしてサンプリングを行う。これにより, 単に共起したかどうかの二值ではなく, どの程度共起しやすいかが, 距離空間上でどの程度文同士がまとまりやすいかに影響を与えるようにすることができる. ## 4 データセット ## 4.1 訓練データ 提案手法のデータセットは 2012 年から 2016 年の Twitter から収集した文章内に絵文字が含まれているもの, 約 1600 万件を用いる. サンプリングに用いる共起頻度と PMI はこの 1600 万件の発言から計算する.しかし, 距離学習に用いるデータセットは絵文字の出現頻度, 上位 100 個の絵文字が含まれた文章を用いる. これは低頻度な絵文字については, 共起関係を得ることが難しい. 提案手法の学習に悪影響を与えてしまう可能性があるためである. ## 4.2 評価デー夕 評価用のデータセットには,3つのデータセットを使用する. Twitterを基に作成された SemEval2013- 2016 年の Sentiment Analysis in Tweet のデータセットと SemEval2018 年の Affect in Tweets を用いる. さらに,もう 1 つは映画のレビューサイトを基に作成された SST-2(Stanford Sentiment Treebank)を用いる. データセットの詳細については表 1 に示す. SST-2 のデータセットには, ポジティブ, ネガティブの感情ラベルがあり, SemEval2013-2016 年にはさらにニュートラルの感情ラベルが付与されている. SemEval2018 年はより詳しい感情ラベルと感情の強度が 0-1 の範囲の連続值でラベル付けされている。感情ラベルには喜び, 恐れ, 怒り, 悲しみの 4 つの感情ラベルがついており, 感情強度には, アンケー トから BWS(Best Worst Scaling)を用いて各ツイートに連続值がラベル付けされている. ## 5 実験 データセットの文章を BERTへ入力し, 得られた文ベクトルを使った実験を行う,得られた文べクトルが感情分類データセットへどの程度効果的か, 文ベクトルが感情表現に基づいて埋め込まれているかを次元圧縮によって可視化したマップから定性的に評価する。また, SemEval2018 の感情強度を用いた実験では, 文ベクトルが, 強度ごとに分布しているかを, 強度とべクトル間の距離に基づき実験する。 ## 5.1 感情分類データセットでの評価 提案手法が実際に感情分類データセットへ効果的かを調べるため, まず,3つのデータセットを用いた評価実験を行う.モデルの評価には BERT で得られた文ベクトルを入力とした線形 SVM の正解率で示す. 距離空間への埋め込みを学習しているため,通常の文表現よりも分類しやすいということを定量的に測るため線形モデルで文ベクトルの評価を行う. 評価データは<文ベクトル,ラベル>の対を感情分類データセットごとに用意する。訓練データとテストデータの総数については表 1 の通りに行う. ベースラインである事前学習済み BERT と提案手法 3 つのモデル評価を行い,実験の結果を 2 に示す.表 2 線形 SVM による比較 ベースラインは, 事前学習済み BERT の文ベクトルを使った実験である。(a), (b), (c) は提案手法であり (a) は全ての絵文字付き文章が距離空間で独立する様に学習させるものである. (b) は絵文字間の共起頻度に基づいてポジティブサンプリングを行ったもので, (c) は絵文字間の PMIに基づいてポジティブサンプリングを行うものである. ベースラインと提案手法では, 提案手法がどのデータセットでも線形 SVM の正解率が高いことを示している.特に, SemEval2018では, より細分化した感情ラべルがついたデータセットではあるが,提案手法ではベースラインと比べると約 $12 \%$ ほど,正解率が向上していることがわかる.他のデータセットと比べると, 感情ラベルが多いことから分類が難しいデー タセットではあるが,正解率が向上していることから,より細かい感情を捉える様な学習ができていることがわかる. また, 提案手法である (b), (c) は, (a)よりも優れている。共起関係を用いたサンプリングが効果的であったことが結果からわかる. ## 5.2 文ベクトルの可視化 BERT によって得られた文べクトルの可視化を行う. 可視化には, 次元圧縮手法である t-SNEによって 2 次元へ埋め込んだデータ点から, ベースラインと提案手法の比較を行う.可視化を行うデータセットは SST-2 のテストデータとする. まずベースライン手法の文ベクトルを可視化したものを図 2 で示す. 図 2 では, ベースラインの文ベクトルが, 感情ラベルごとに分かれることはなく交わった状態で可視化されている. ベースラインのモデルでは, 感情ラベルにまつわる情報を上手く獲得できていないということが結果からわかる. 次に, 図 3 では, 提案手法の文ベクトルを可視化したものになる. 図 2 と比べるとラベル間の交わりが少ないことがわかる.可視化の結果から, 文ベクトルは一定の感情的な情報に作用した埋め込みが行われていることを示唆しているといえる. 図 2 ベースライン 図 3 提案手法 ## 5.3 感情強度と文ベクトル間距離 SemEval2018には感情強度についてのラベルがある. そこで,この強度とラベル間の距離についての分析を行う。まず,感情強度は $0-1$ の範囲であるため, 0.1 間隔で 10 個のラベルヘ再ラベリングを行う.新たにつけた感情強度のラベルと文ベクトル間の距離についての相関関係を図 4 に示す. 図 4 感情ラベル"悲しみ"の強度と距離についての図 図 4 では,提案手法を用いた,感情ラベル"悲しみ"の感情強度と文ベクトル間の距離についての相関関係を示す.この図では相関係数が 0.987 となり強度と距離の相関関係には強い正の相関があることがわかった。ベースラインのベクトル表現を用いた場合だと相関係数が 0.836 と,提案手法よりも低い。 そのため,提案手法が感情の強度を表す様な学習が行われているということがわかる。さらに,全ての感情ラベルとデータセット全体の強度についても分析を行った。その結果を表 3 に示す. 感情ラベルの"楽しい"を除いた 3 つの感情ラベルとデータセッ卜全体での結果から,提案手法では感情の強度とべクトル間の距離についてうまく表現できていることがわかる. 表 3 感情ラベルの強度と距離の相関係数 ## 相関係数 ## 6 おわりに 本研究では,絵文字を利用したデータサンプリングを行う距離学習を提案した。絵文字のついた文章が複雑な感情を表しているとして,絵文字に基づいた距離学習を行い,より分類しやすい空間へ文べクトルを埋め込む学習を行った。その結果,線形 SVM の正解率はデータセットによらず向上していることが確認でき,感情の強度についても,強度ごとに文ベクトルを埋め込むことができていることを確認できた。提案手法では,新たなデータセットで再学習することなく一定の感情分類の精度が得られ, 感情の強度についても,文ベクトルを強度ごとに埋め込むことが確認された。今後は,さらに複雑な感情ラベルに対しての分析や他の言語への適応などが期待される. ## 参考文献 [1]Saif Mohammad, Felipe Bravo-Marquez, Mohammad Salameh, and Svetlana Kiritchenko. SemEval-2018 task 1: Affect in tweets. In Proceedings of The 12th International Workshop on Semantic Evaluation, pp. 1-17, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [2]ROBERT PLUTCHIK. Chapter 1 - a general psychoevolutionary theory of emotion. In Robert Plutchik and Henry Kellerman, editors, Theories of Emotion, pp. 3 - 33. Academic Press, 1980. [3]R. Hadsell, S. Chopra, and Y. LeCun. Dimensionality reduction by learning an invariant mapping. In 2006 IEEE Computer So- ciety Conference on Computer Vision and Pattern Recognition (CVPR'06), Vol. 2, pp. 1735-1742, June 2006. [4]Jiang Wang, Yang Song, Thomas Leung, Chuck Rosenberg, Jingbin Wang, James Philbin, Bo Chen, and Ying Wu. Learning fine-grained image similarity with deep ranking. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2014. [5]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. CoRR, Vol. abs/1810.04805, , 2018.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-5.pdf
# グラフニューラルネットワークによるアスペクトベースの感情分析 樊惠†,杉本徹 $!$ } †芝浦工業大学大学院 理工学研究科, †芝浦工業大学 工学部 \{ma20079, sugimoto\}@shibaura-it.ac.jp ## 1 はじめに アスペクトに基づく感情分析(Aspect Based Sentiment Analysis 以下 ABSA)は感情分析タスクの一つであり,テキストを文レベルではなく単語レベルにタグ付けをする感情分析である.例えば「The food is delicious, but the service is too bad.」というレビユーを考える.文レベルの感情分析手法はこのようなポジティブとネガティブの両方を含むレビューを分析しにくい. 一方, ABSA は単語による分析を行う手法なので,このレビューに対し「food」と「service」 を抽出し,タグを付けることができる。 ABSAのタグはアスペクト「B(はじめ), I(中間), $\mathrm{E}($ 終わり), S (シングル), O (無感情)」と感情「pos (ポジティブ), neu (中立的), neg (ネガティブ)」 から構成される.従来の研究は, 図 1 に示すように, タグを aspect と polarityに分けてそれぞれに予測する. あるいは, 2 種類のタグをまとめ (unified), 同時に予測する手法もある[1]. Li ら [2]は BERT モデルを使ってまとめたタグを予測し,「SemEval-2014 Task 4 Laptop」[3]において micro-f1 61.12\%を得た. 図 1 ABSAのタグ付け しかし,ABSAに使用されるデータは短いテキストが多いので,夕グの予測に使える情報量が少ないという問題が存在している. 本研究は, 分析対象テキストにおける依存関係などの単語間の関係の情報を導入することで, 情報量を増やすことを試みる.単語間の関係は通常グラフ構造なので, 一般的なニューラルネットワークに適用できない. そのため, 近年複数の分野でうまく機能することが示されているグラフニューラルネットワーク(以下 GNN)を用いる. この方法で, ABSA における情報量不足の問題を解決できる. ## 2 提案手法 本研究で提案するモデルの構造を図 2 に示す.まず,レビュー文をグラフ化し,モデルに入力する. そしてタグを予測する。最後に,従来手法により構築したモデルと比較して,結果を評価する。 $\hat{v}$ 図 2 モデルの構造 ## 2.1 テキストのグラフ化 GNN に入力するデータはグラフのノード特徴量とノードの隣接情報である。本研究は,文を単位としてグラフを構築する.各文の単語をグラフのノー ドとして扱う.そして,BERT モデルが出力したべクトルをノード特徴量とする. ノードの隣接情報を単語間の依存関係または self-attention により作る。 ## 2.2 Graph Convolutional Network Graph Convolutional Network[4](以下 GCN)の原理は各ノードが隣接ノードから特徵量を集約 (aggregate)し,自身の特徴量を更新することである. これで,ニューラルネットワークの順伝搬を行う時に,更新された各ノードの特徴量に隣接ノードの特徴量も含まれ,計算に関連する情報が増えている. GCN の更新式を以下に示す. $ h_{i}^{(l+1)}=\sigma\left(\sum_{j \in N_{i}} \widehat{D}^{-\frac{1}{2}} \hat{A} \widehat{D}^{-\frac{1}{2}} h_{j}^{(l)} W^{(l)}+b^{(l)}\right) $ $h_{i}^{(l+1)}$ は第 $1+1$ 層目のノード $\mathrm{i}$ の特徴量 $\sigma$ は非線形活性化関数 $N_{i}$ はノード $\mathrm{i}$ 自身を含めた全ての隣接ノード $\hat{A}$ はグラフの隣接行列+単位行列 $\widehat{D}$ は $\hat{A}$ 次数行列 $h_{j}^{(l)}$ は第 1 層目のノード $\mathrm{i}$ 自身を含めた全ての隣接ノードの特徴量 $W^{(l)}$ は第 1 層目の重み $b^{(l)}$ は第 1 層目のバイアス $\widehat{D}^{-\frac{1}{2}} \hat{A} \widehat{D}^{-\frac{1}{2}}$ は隣接ノードの特徴量を集約するための正則化ラプラシアン行列である ## 2.3 Graph Attention Network Graph Attention Network[5](以下 GAT)は attention メカニズムを用い,特徴量を集約する。この際,集約するのは隣接ノードからの特徴量だけではなく, グラフの全ノードに対して attention をし, attention 係数を計算する. さらに, BERT モデルの self-attention のように multi-head を用い, よりロバストなモデルになるようにする. GAT の attention 係数の計算式を以下に示す. $ a_{i j}=\frac{\exp \left(\operatorname{LeakyReLU}\left(a\left[W h_{i} \| W h_{j}\right]\right)\right)}{\sum_{k \in N_{i}} \exp \left(\operatorname{LeakyReLU}\left(a\left[W h_{i} \| W h_{k}\right]\right)\right)} $ $h_{i}$ はノード $\mathrm{i}$ の特徴量 $h_{j}$ はノード $\mathrm{i}$ と attention 係数を求めるノード $\mathrm{j}$ の特徴量 $[\cdot \| \cdot]$ はノード $\mathrm{i}$ と $\mathrm{j}$ の特徴量を feature transformation を行い,そして二つの新たな特徴量を concat する $\mathrm{a}(\cdot)$ は concat された特徴量を実数にマッピングする LeakyReLu は非線形活性化関数 の attention 係数を取得できる。全ノードと attention する必要があるので, softmax を用い, 各 attention 係数を正規化する. そして GAT の更新式を以下に示于. $ h_{i}^{(l+1)}=\sigma\left(\sum_{j \in N_{i}} a_{i j} W^{(l)} h_{j}^{(l)}\right) $ $h_{i}^{(l+1)}$ は第 $1+1$ 層目のノード $\mathrm{i}$ の特徴量 $\sigma$ は非線形活性化関数 $N_{i}$ はすべてのノード $h_{j}^{(l)}$ は第 1 層目のすべてのノードの特敀量 $W^{(l)}$ は第 1 層目の重み ## 3 評価実験 ## 3.1 使用するデータとタグ 本研究は「SemEval-2014 Task 4 Laptop」データセノト[3]を用いる.データセットの割合を表 1 に示す. 表 1 データセットの割合 レビュー文とタグのフォーマットを表 2 に示す. 表 2 レビュー文とタグの例 表 3 に示すように,タグの種類は感情タグ「pos, neu,neg」と位置タグ「BIES」の組み合わせ 12 種類と「O」と「eq」である.「O」は無感情単語を表す. BERT モデルは単語辞書による,長い単語を複数のトークンに分割する場合がある。分割された単語の中に「\#\#」を含むトークンは「eq」を付ける. 表 3 タグの全 14 種類 ## 3.2 BERT モデルの fine-tuning と埋め込み 本研究のデータセットによりふさわしい埋め込みを取得するために,事前学習済みの BERT モデル[6] を微調整する. エポック数は最大 10 として, 訓練セット全体を 1 回訓練するごとに,検証セットでモデルを評価し,精度を計算する。また,毎回の精度を比較し,最良モデルを保存する. 10 回の訓練を終えた後, 保存したモデルが最適なモデルになる. レビュー文を微調整した BERT モデルに入力し, 「単語数 $+2,768$ 」次元のベクトルを取得する. BERT モデルの特性により, 出力するベクトルには「CLS」 と「SEP」というトークンがある.この 2 つのトー クンを除くとベクトルは「単語数, 768 」次元になる. このベクトルをノード特徴量として用いる. ## 3.3 単語間の関係の構築 ## 3.3.1 依存関係 「スタンフォード大学 NLP ライブラリ」[7]を用い,依存関係をノードの隣接情報とする,単語と単語の間に依存関係があれば,エッジを作る。 ## 3.3.2 self-attention テキストを BERT モデルに入力した時, selfattention 行列が生成される. self-attention 行列は単語と単語の関連性を示す. 例文「The cat sat on the mat」 に対する self-attention 行列の 1 つを図 3 に示す. 図 3 self-attention 行列 12 層 12 ヘッドの BERT モデルに文を入力すると, このような行列が全部で 144 個生成される. selfattention の非線形活性化関数は softmax なので, 行毎の合計は 1 である. 各行で関連性の値が最大の成分 (図 3 の赤字の所)に対応して, 図 4 の統計行列の対応する位置にある成分に 1 を足す. これを 144 個の self-attention 行列すべてに対して行う. 図 4 最大関連性の統計行列 統計行列において,「CLS」,「SEP」はBERT モデルのトークンであるので,無視する。また,GCN と GAT を計算する時に自己ループを追加するので,自身との関連性(対角成分)も無視する. 残りの成分の中で各行で数値が最大の成分(図 4 の赤字の所) が単語間の強い関連性を表すと考え,対応する行と列の単語間にエッジを作る。 ## 3.4 全結合層 特徴量を集約することによって,異なるノードの特徴量が同じ内容になる可能性がある。そのため, GCN/GAT 層とは別に全結合層を用意して concat することにする。これにより,埋め込みの情報をモデルの計算中に維持できる. ## 3.5 GCN と GAT の訓練 ## 3.5.1 共通の部分 Batch-size は full-batch を設定する. 学習率と過学習抑制「Weight Decay」は 0.001 と 0.0005 を設定する. Optimizer は Adam を選択する. エポック数は 500 を設定する.クロスエントロピーで損失を計算する.訓練セット全体を 1 回訓練するごとに,検証セットでモデルを評価し, micro-f1 が向上した場合にパラメータを保存する.最後に,保存したモデルをテストセットで評価する. ## 3.5.2 GCN 第 1 層目と第 2 層目は $\mathrm{GCN}$ 層である. 第 3 層目は GCN 層と全結合層の concat である. 第 4 層目はタグを予測する全結合層である. ## 3.5.3 GAT 第 1 層目は 4 ヘッド GAT 層である. 第 2 層目は 1 ヘッド GAT 層と全結合層の concat である. 第 3 層目はタグを予測する全結合層である。 ## 3.6 ABSA の評価指標 本研究の評価指標は適合率, 再現率と micro-f1 とする. 出力されたタグの次元は「単語数,タグの種類数」である。活性化関数 log-softmax を適用して, タグを予測する.出力されたタグと正解のタグの中で,感情を持つ 12 種類のタグのみに着目して感情「pos,neu,neg」ごとに集計する[2]. 評価指標を計算する数式を以下に示す. $ \begin{gathered} \text { precision }=\frac{\sum_{d} T P_{d}}{\sum_{d}(T P+F P)_{d}} d \epsilon\{\text { pos, neu,neg }\} \\ \text { recall }=\frac{\sum_{d} T P_{d}}{\sum_{d}(T P+F N)_{d}} d \epsilon\{\text { pos, neu,neg }\} \\ \text { micro }-f 1=\frac{2 * \text { precision } * \text { recall }}{\text { precision }+ \text { recall }} \end{gathered} $ ## 4 実験結果 実験結果を表 4 に示す. 参照モデル 3 種と提案モデル 4 種に対して,テストデータで各モデルを 5 回ずつ評価し,得られた結果の平均を記録した。 参照モデル[2]は,「BERT only」「BERT + Linear(全結合層)」と「BERT + GRU」である. Linear 層と GRU 層はそれぞれに BERT モデルと直接連結し, End-toEnd モデルになる. 提案手法は,単語間の関係として依存関係(SD) と self-attention (SA), GNN として GCN と GAT の組み合わせ計 4 種類のモデルを試した。 図 5 は各モデルの訓練ステップと損失の関係を示す. 図 6 は $\mathrm{GCN}$ と GAT の ROC 曲線を示す. 表 4 実験結果 図 5 ステップと損失の関係 図 $6 \mathrm{ROC}$ 曲線 ## 5 考察 表 4 を見ると,「BERT+GAT+依存関係」の組合せが最も高い micro-fl の値を得た. GCN/GAT を用いたモデルの micro-f1 が「BERT only」より高いということは,ABSA タスクにおける GCN/GAT の有効性を示している。 また,BERT モデルと他のニューラルネットワークの組合せよりも高いので, GCN/GAT を用いたモデルは ABSAタスクによりふさわしいと判断できる. ノードの隣接情報を生成する 2 つの手法(依存関係と self-attention)を比較すると, 結果に ほとんど差が無かった。レビューの単語数は多くないので,単語間の関係はあまり複雑ではない。そのため,ノードの隣接情報を生成する手法を変えても,結果にあまり影響がなかったと考えられる。 次に図 5 を見ると, $\mathrm{GCN} / \mathrm{GAT}$ を用いたモデルの收束が最も速い。GCN/GAT は固定された BERT モデルの埋め込みを使ったので,モデルの計算中に埋め込みを更新しない。一方,linear または GRU を使う場合は BERT モデルと直接に連結するので, batch ごとに BERT モデルのパラメータも更新する.そのため,毎回埋め込みを改めて計算する必要があるため, GCN/GAT よりも計算に時間がかかり収束も遅くなる. 最後に, 図 6 の ROC 曲線が示すように, ABSA 夕スクに対して GAT モデルは $\mathrm{GCN}$ より良い結果が得られた. 本研究は inductive learning であるので,訓練セットはテストデータを含まない。そのため,テストセットをモデルに入力する時に, グラフの構造の変化が生じた. GCN モデルのパラメータを更新する時に,すべてのノード特徴量を更新する必要があるため, GCN モデルはグラフの構造に影響される.一方, GAT モデルは単にノード間の attention 係数の計算を行うため,グラフの構造の影響を受けないので本研究により適している。 ## 6 おわりに 本研究は, グラフニューラルネットワークによるアスペクトベースの感情分析手法を提案した。 GCN/GAT を用いることで, BERT を用いる既存手法よりも良い結果が得られた. グラフニューラルネットワークモデルはグラフ構造のデータを処理できるので,単語間の依存関係などの情報をモデルに入力できる。そのため, モデルの学習における情報量が増えたので,精度が向上したと考えられる。 グラフニューラルネットワークによるアスペクトベースの感情分析は複数のグラフで構成されたノー ド分類タスクである. しかし,レビューの単語数が異なるので,各グラフのノード数も異なる. 今後, グラフのノード数が一致するかどうかが結果にどのくらい影響を及ぼすかを研究する。また,エッジの重みを含むグラフニューラルネットワークもあるので,エッジの重みを付ける手法を考えつつ,このようなグラフニューラルネットワークを研究することも今後の課題である。 ## 参考文献 1. Knowing What, How and Why: A Near Complete Solution for Aspect-based Sentiment Analysis. Haiyun Peng, Lu Xu, Lidong Bing, Fei Huang, Wei Lu, Luo Si .AAAI 2020, 2019 年. 2. Exploiting BERT for End-to-End Aspect-based Sentiment Analysis. Xin Li, Lidong Bing, Wenxuan Zhang, Wai Lam. Association for Computational Linguistics, 2019 年. ## 3. SemEval-2014 Task 4. https://alt.qcri.org/semeval2014/task4/data/uploads/lapto ps-trial.xml, 2020-8 閲覧. 4. Semi-Supervised Classification with Graph Convolutional Networks. Thomas N. Kipf, Max Welling. ICLR 2017, 2017 年. 5. Graph Attention Networks. Petar Veličković, Guillem Cucurull, Arantxa Casanova, Adriana Romero, Pietro Liò, Yoshua Bengio. ICLR 2018, 2018 年. 6. BERT-base-uncased. 12-layer, 768-hidden, 12-heads, 110M parameters. https://pytorch.org/hub/huggingface_pytorch-transform ers, 2020-4 閲覧 7. Stanza: A Python NLP Library for Many Human Languages. https://github.com/stanfordnlp/stanza/, 2020-9 閲覧.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-6.pdf
# コモンセンス知識を利用した物語中の登場人物の感情推定 田辺ひかり } 小川哲司林哲則林良彦 早稲田大学理工学術院 tanabe@pcl.cs.waseda.ac.jp ## 1 はじめに 物語における登場人物の感情推定においては,直接的な感情表現を手がかりとするだけではなく,常識的知識を援用して「行間を読む」ことが必要となる. 本研究では,物語を構成する各文における登場人物の感情を推定するというタスクにおいて,事態に関するコモンセンス知識を導入し,さらに,対象文の先行文脈を考慮することで,感情推定の精度を向上させることを試みる。 本研究で対象とする Story commonsense データセット [1] は,5 文からなる短い物語の各文に対し,登場人物の感情カテゴリが,Plutchik の基本感情 [2] を利用したマルチラベルの形態で付与されている。 このため,対象タスクはマルチラベルの分類問題として定式化される. 本研究では,外部のコモンセンス知識として, 出来事と出来事, 出来事と人物の心的状態の関係に関する事態知識を収集した知識グラフ ATOMIC [3] を使用し,文脈情報としては,対象文の先行文を用いた。 評価実験において,対象文,文脈,外部知識それぞれからの情報の統合方法に関して複数の設定を比較した結果,外部知識,文脈の双方を用いることが推定精度向上に有効であるが,その際は,双方の情報を別々に処理した後にアンサンブル的に統合することが有効であること,および,用いる外部知識はタスクに適合するように事前に選別しておくことが有用であることなどが確認された. ## 2 関連研究 Rashkin ら [1] は物語中の人物の心的状態を推定するためのデータセットとして Story commonsense データセットを構築した. 物語理解のデータセットでは,物語の中で起きたことや物語の前後を推論する QA 形式のものが多く [4][5][6],人物の心的状態に焦点を当てたデータセットは珍しい. Story commonsense データセットには基本的欲求と人物の感情の二つの側面でラベル付与がなされている. Paul と Frank [7] は, ConceptNet [8]を利用した基本的欲求ラベルの推定を行っている. 物語と欲求カテゴリを関係付ける可能性のあるパスを ConceptNetから取り出し, PageRankなどのグラフ理論的指標により算出したパスの重要度が高い上位 $k$本のパスを推定に利用することで,外部知識を用いないモデルを上回る精度を達成した. しかし,本研究で扱う感情推定は行っていない. Story commonsense データセットにおける感情推定を行った研究として, $[9,10,11]$ がある. 対象夕スクがマルチラベル分類問題であるため,カテゴリ間の依存・相関関係の扱いが課題となる. 田辺ら [9] [11] は Plutchik の環の構造, 学習データにおける感情ラベルの共起関係を用い,感情極性の二值分類とのマルチタスク学習を行った. さらに推定対象文の先行文脈を取り込むことで推定精度を向上させた.また,モデルから得られる文の分散表現の主成分分析から Plutchik の環の構造が概ね妥当であることを示した。 Gaonkar ら [10] は, Label-Embedding Attentive Network (LEAM) [12] を利用することにより,感情カテゴリ間の関係を考慮し,さらに,BERTを用いた label embedding の獲得やラベル同士の共起関係の利用, ラベルなしデータを用いた半教師あり学習を行うことにより,当該タスクの SOTAを達成した。 これらの研究はカテゴリ間の関係の利用に焦点を当てており, Paul と Frank の研究ような外部知識は利用していない. Paul と Frank の研究では ConceptNet のようなエンティティを単位とした知識グラフを利用しているものの,ATOMIC で提供されるような出来事を単位とするコモンセンス知識は利用しておらず,知る限りでは,本研究は Story commonsense データセットにおける感情推定に対するコモンセンス知識利用の初めての試みである。 ## 3 データセットと知識リソース ## 3.1 Story commonsense データセット Rashkin らは物語文中の登場人物の内面状態を推定するために,Story commonsense データセット [1] を作成した. このデータセットは 5 文からなる短い物語を集めた Story cloze test [13] データセットの一部に対して,一文ごと・登場人物ごとに心的状態をアノテートしている. 心的状態は基本的欲求と感情の二つの観点でラベル付けされており,それぞれ複数のラベルの付与が許容されている. これにより,多面的な心的状態が表されるが,タスクはマルチラベル分類問題となる. なお, 本研究の対象である感情ラベルには Plucthik [2] の 8 感情 (joy, trust, fear, surprise, sadness, disgust, anger, anticipation) が用いられている。 ## 3.2 コモンセンス知識グラフ: ATOMIC ATOMIC [3] は,事態1) 間の前後・因果関係などに関する常識的知識 (コモンセンス) を if-then 関係として整理した知識グラフである. 特に,出来事と関係する人物の感情・意図などの心的状態の関係知識を収集している点が特徴的であり, 物語文からの感情推定に有用であることが期待できる. 以下に ATOMIC における互いに関連する三つ組群の例を示す。一行目は各三つ組に共通する head ノードであり, IfEvent を表す.二行目以降の各行は,三つ組における relation エッジ,tail ノードを表しており,これらによりThenEventを表す.これには,状態や性質に関する記述も含まれる。 [PersonX repels PersonY's attack] - [xAttr] -> [PersonX is brave] - [xEffect] $\rightarrow$ [PersonX's heart races] - [xEffect] -> [PersonX gains an enemy] $-[$ oEffect] -> [PersonY gets hurt] 表 1 に ATOMIC で使用される三つ組・エッジの夕イプ・定義などを表す. 最左列は,三つ組が (1)人物の内面状態を表す IfEvent-MentalState,(2) 人物の態度や人柄を表す IfEvent-Persona,(3) IfEvent と関連する出来事を表す IfEvent-Event の3つのタイプに大分類されることを示す. 感情推定に関しては,特に (1)と (2)のタイプの三つ組が有効であることが期待できる. 第二列に示すエッジタイプでは,headノー  ドの出来事を行う主体 (PersonX) とそれ以外の客体 (others)を区別している. ## 4 感情推定モデル 図 1 に提案する感情推定モデルを示す. 対象文とそれに関連するコモンセンス知識を用いることにより感情推定を行う知識利用モデルからの尤度 (logits_p) と, 対象文と先行文脈から感情推定を行う文脈利用モデルの尤度 (logits_s) を次式の重み付き和により統合し, 最終的な推定結果を得る. $ \text { logits }=w \text { logits_s }+(1-w) \text { logits_p } $ なお,それぞれのモデルにおけるエンコーダーは事前に別個に学習されたものを使用する. ## 4.1 知識利用モデル 外部知識の抽出: 感情推定に有用そうな情報を ATOMIC から抽出しモデルに入力する. 抽出は物語文と三つ組の headノードの単語マッチングによって行う。まず,物語文の単語から品詞が 'PART', 'PUNCT', 'CCONJ', 'DET' のいずれかであるものをストップワードとして削除し,残された単語と ATOMIC 中の IfEvent との重複単語数が閾値以上の三つ組を一定個数取得する. 今回は,三つ組の量と物語との合致度に関する定性分析から閾值を 3 とした. 実験においては,モデルへ入力する知識を表 1 に示した ATOMIC の三つ組タイプが IfEvent-Persona,IfEvent-MentalState のものに限定する場合と全てを用いる場合を比較する。 対象文のエンコーディング: 以下の入力形式により感情推定の対象文を BERT [14] によりエンコー ドし, [CLS] ベクトルを分散表現として利用する. $[C L S]\{$ 人物 $\} \#\{$ 対象文 $\}[S E P]$ 外部知識の導入:対象文と同様に BERT を用いたエンコーディングを行うため,抽出した三つ組をエッジを表 1 最右列に示す疑似自然文に置換し,三つ組の各要素 head, relation, tail は別個にエンコー ドする. 得られた分散表現と物語文の分散表現の source-target attention を行い,物語文との関連度で重み付けされた三つ組分散表現に更新する. Attention で重み付けされた三つ組の分散表現と対象文の分散表現を連結したのち,全結合層と softmax 関数に通し,8つの各感情クラスの有無を示す尤度を求める. この尤度による識別結果と正例との損失を binary cross-entropy loss によって計算し,パラメータ更新 表 1 ATOMIC のエッジと自然文への書き換え表現一覧 & & & \\ 図 1 提案する感情推定モデル ## を行う。 ## 4.2 文脈利用モデル 登場人物の感情は,物語中の一文のみだけでなく複数文に渡る出来事や状況の連鎖によって生じうる.このような場合,推定モデルへ入力する対象文一文のみでは正しく推定することは難しい. そこで,対象文より前に何が起きたか,そもそもどのような状況にあるのかといった文脈を入力に加える. Rashkin ら [1] は,先行文脈において推定対象の登場人物が現れる文に限定したが,本研究では複数人物間のインタラクションが,対象の人物が陽に現れない文に記述される可能性を考慮し, 対象文に先行する文を文脈として利用する [11]. BERT のの入力形式は,以下のように対象文と文脈を記号\#により区分する形式とした. ## $[C L S]\{$ 人物 $\ \#\{$ 文脈 $\} \#\{$ 対象文 $\}[S E P]$} なお,後述の実験においては,比較のために,導入する文脈を空として文脈モデルを利用する設定での評価 (表 2 の\#7) も行っている. ## 5 実験 ## 5.1 実験設定 Story commonsense データセットの train セットには正例ラベルが付与されていないため,dev セットを学習データとして使用し, test セットを用いて評価を行った。データ量 (物語文・登場人物対) は,学習データ 13,004 対,テストデータ 11,859 対である. 物語と三つ組のエンコードには,事前学習済みの BERT のモデル bert-base uncased を使用し,学習データで fine-tune した. 物語文の最大入力長は 20 表 2 マルチラベル感情分類への外部知識と文脈の利用の効果 単語とし, 先行文による文脈を用いる場合は 80 単語に制限した. BERT から得る [CLS] 分散表現の次元サイズは 765 とした. 学習における最適化には Adam [15]を用い,エポック数は 32 , バッチサイズは 32 とした. ATOMIC から抽出する三つ組の最大個数は 40 個とした. 式 1 において,知識利用モデルと文脈利用モデルの影響力を調節する重み $w$ は,予備実験から $w=0.7$ とした. 評価指標にはマイク口平均による精度 (Precision), 再現率 (Recall), F1 值 (F1)を用いた. ## 5.2 実験結果 表 2 に各設定における推定精度を示す. 知識利用モデルのカラムにおける onlyEmo は, ATOMIC の三つ組タイプを IfEvent-Persona, IfEvent-MentalState に限定した場合,All は限定しない場合を表す。参考のため,Gaonkar らの実験結果 [10]を\#1,\#2 に引用している. \#1, \#2 と \#3 の比較から, 提案手法は現在の SOTA を達成しているモデルよりも P が上回っているが, R では劣っている.これは, Gaonkar らの手法 [10] がラベル間の共起関係を強く意識した手法であることによる. \#4 と \#5 の比較からは,利用する外部知識のタイプをあらかじめ対象タスクに応じて限定できるなら,そうすべきことが分かる. このことは,\#7に対する\#5 の比較では外部知識を限定なしで利用するとかえって精度が下がるのに対し,\#7 と\#4 に比較では精度が向上していることからも裏付けられる。 \#3 と \#4の比較からは,外部知識だけでなく,文脈を併用することが有効であることが分かる. 事前実験として知識利用モデル側で文脈を利用する設定も試したが,精度が低下したことから,外部知識と文脈は別に扱い,後にアンサンブル的に統合するのが良いと考えられる。 #3 と 44違いは,文脈利用モデルのアンサンブルの有無であり,後者では $\mathrm{F} 1$ が $60.11 \mathrm{pt}$ から $57.90 \mathrm{pt}$ へ $2.21 \mathrm{pt}$ 低下している. これに対し, \#3 と \#6の差異は,知識利用モデル (onlyEmo 条件) 使用の有無であるが,後者における $\mathrm{F} 1$ の低下は,0.68pt にとどまっている。この差から,現状のモデルにおいては,文脈利用による精度向上への寄与の方がコモンセンス外部知識より大きい可能性が示唆される. 現在の文脈の扱いは非常に単純化したものであるにも関わらずこのような傾向が見られたことから,外部知識の利用に関しては,まだ多くの改善の余地が残っているものと考えられる。 ## 6 むすび 本研究では,物語を構成する各文における登場人物の感情を推定するというタスクにおいて,事態に関するコモンセンス知識 (ATOMIC) を導入すことにより,感情推定の精度を向上させることを試みた. また,その際に物語テキストの文脈を利用することの効果について実験的に調査した. Story commmonsense データセットを用いた実験結果からは,上記のアンサンブルモデルが有効であること,用いる外部知識は,可能ならばタスクに適合するように事前に限定しておくことが有用であること,外部知識を用いる効用は文脈から得られる後よりも小さく, 外部知識の利用法にはまだ多くの課題が残っていることなどが分かった. 今後の課題としては,外部知識からの三つ組の抽出法を改善し, 利用する知識情報を増やすこ一方で,これにより増大するノイズを低減することが挙げられる。後者に関しては, Story commonsense デー タセットに収録されている基本欲求を利用し,それに基づく行動・出来事と引き起こされる登場人物の感情との相互作用や, 物語の進行と感情の推移の連関関係などを扱っていく必要があると考えている。 ## 参考文献 [1] Hannah Rashkin, Antoine Bosselut, Maarten Sap, Kevin Knight, and Yejin Choi. Modeling naive psychology of characters in simple commonsense stories. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2289-2299, Melbourne, Australia, July 2018. Association for Computational Linguistics. [2] Robert Plutchik. A general psychoevolutionary theory of emotion. In Robert Plutchik and Henry Kellerman, editors, Theories of Emotion, pp. 3 - 33. Academic Press, 1980. [3] Maarten Sap, Ronan Le Bras, Emily Allaway, Chandra Bhagavatula, Nicholas Lourie, Hannah Rashkin, Brendan Roof, Noah A Smith, and Yejin Choi. Atomic: An atlas of machine commonsense for if-then reasoning. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 33, pp. 3027-3035, 2019. [4] Matthew Richardson, Christopher J.C. Burges, and Erin Renshaw. MCTest: A challenge dataset for the opendomain machine comprehension of text. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 193-203, Seattle, Washington, USA, October 2013. Association for Computational Linguistics. [5] Nasrin Mostafazadeh, Nathanael Chambers, Xiaodong He, Devi Parikh, Dhruv Batra, Lucy Vanderwende, Pushmeet Kohli, and James Allen. A corpus and cloze evaluation for deeper understanding of commonsense stories. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 839-849, San Diego, California, June 2016. Association for Computational Linguistics. [6] Melissa Roemmele, Cosmin Adrian Bejan, and Andrew S Gordon. Choice of plausible alternatives: An evaluation of commonsense causal reasoning. In AAAI spring symposium: logical formalizations of commonsense reasoning, pp. 90-95, 2011. [7] Debjit Paul and Anette Frank. Ranking and selecting multihop knowledge paths to better predict human needs. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3671-3681, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [8] Robyn Speer, Joshua Chin, and Catherine Havasi. Conceptnet 5.5: An open multilingual graph of general knowledge. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 31, 2017. [9] 田辺ひかり, 小川哲司, 小林哲則, 林良彦. 感情推定における感情カテゴリに関する先験的知識の利用. 言語処理学会第 26 回年次大会発表論文集, pp. 1404-1407, 2020 . [10] Radhika Gaonkar, Heeyoung Kwon, Mohaddeseh Bastan, Niranjan Balasubramanian, and Nathanael Chambers. Modeling label semantics for predicting emotional reactions. In Proceedings of the 58th Annual Meeting of the As- sociation for Computational Linguistics, pp. 4687-4692, Online, July 2020. Association for Computational Linguistics. [11] Hikari Tanabe, Tetsuji Ogawa, Tetsunori Kobayashi, and Yoshihiko Hayashi. Exploiting narrative context and a priori knowledge of categories in textual emotion classification. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 5535-5540, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [12] Guoyin Wang, Chunyuan Li, Wenlin Wang, Yizhe Zhang, Dinghan Shen, Xinyuan Zhang, Ricardo Henao, and Lawrence Carin. Joint embedding of words and labels for text classification. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2321-2331, Melbourne, Australia, July 2018. Association for Computational Linguistics. [13] Nasrin Mostafazadeh, Michael Roth, Annie Louis, Nathanael Chambers, and James Allen. LSDSem 2017 shared task: The story cloze test. In Proceedings of the 2nd Workshop on Linking Models of Lexical, Sentential and Discourse-level Semantics, pp. 46-51, Valencia, Spain, April 2017. Association for Computational Linguistics. [14] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [15] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014 .
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
P3-7.pdf
# 類似度を利用した変換テーブルの精度向上 森本世人 鳥取大学 工学部 b16t2117c@edu.tottori-u.ac.jp ## 1 はじめに 機械翻訳において,相対的意味論に基づいた変換主導型統計機械翻訳 [1](Transfar Driven Statistical Machine Translation : 以下, TDSMT) が提案されている. TDSMT では変換テーブルを用いて翻訳を行う.変換テーブルとは $\ulcorner A$ が $B$ ならば $C$ は $D$ である」という $A, B, C, D$ の相対性に基づいて関係を定義したテーブルである.ここで $A$ と $B$ は単語である.また, $C$ と $D$ は単語もしくは句である. 変換テーブルを自動的に作成する際に,誤つた変換テー ブルを作成してしまうという問題点が存在する. そとてで,従来手法では誤った変換テーブルを削除するために変換テーブルを生成した後に,枝刈りを行う.従来行われている枝刈りの手法は, $A$ と $B, C$ と $D$ の対訳単語確率を用いた枝刈りである.しかし,枝刈りの精度は未だ不十分である。 本研究では,従来手法で行う枝刈りに加えて, $A$ と $C$, $B$ と $D$ の類似度を用いて枝刈りを行うことを提案する。類似度とは注目単語の前後環境がどれだけ一致しているかと定義する.提案手法を用いることで変換テーブルの精度を向上できると考える [2]. ## 2 変換テーブル作成方法 変換テーブルは対訳学習文からパターンを用いて自動作成する. 以下に変換テーブルの作成手順を示す. また,表 1 に変換テーブルの作成過程の例を示す. ## 手順 1 対訳単語の作成 対訳文 (1) と対訳単語確率 (IBM model 1[3]) を利用して対訳単語を作成する. 対訳単語は変換テーブルの $A$ と $B$ の部分に相当する. 手順 2 パターンの作成 手順 1 で作成した対訳単語に相当する部分を変数化し,パターンを作成する. 手順 3 変換テーブルの作成対訳文 (2) とパターンを照合する. パターンにおいて変数が一致した対訳句は変換テーブルの $C$ と $D$ の部分に相当する. ## 3 従来手法 ## 3.1 対訳単語確率 [4] 対訳単語確率とは入力言語の単語が出力言語の単語に訳される確率を示している。対訳単語確率が高いほどもっともらしい訳であると考えられる . 值は IBM model 1 によって求める. 日本語単語 $A$ が英語単語 $B$ に訳される対訳単語確率を \author{ 村上仁一 \\ 鳥取大学工学部 \\ murakami@tottori-u.ac.jp } 表 1 変換テーブルの作成過程 } & \multicolumn{2}{|c|}{ 日本語 } & \multicolumn{2}{|c|}{ 猫 } \\ $\operatorname{prob}(A B)$ とする.入力言語と出力言語を入れ替えた対訳単語確率 $\operatorname{prob}(B A)$ も同樣に計算する. ## 3.2 対訳単語確率を用いた枝刈り 以下に手順を示す。 手順 1 変換テーブルより $\operatorname{prob}(A B), \operatorname{prob}(B A)$, $\operatorname{prob}(C D), \operatorname{prob}(D C)$ の値を計算する. 手順 2 単語ごとに光れ光れ,順位付けする。 手順 3 任意の順位を閾値として枝刈りを行う。 従来手法の問題点として, 誤った変換テーブルが多く残る点がある。 ## 4 提案手法 ## 4.1 類似度 誤った変換テーブルは $A$ と $C$ や $B$ と $D$ 置き換え可能性が低いと考える. $A$ と $C$ や $B$ と $D$ 類似度で枝刈りをすると精度の向上が見込める.類似度が高い単語らは,置き換え可能性が高いと仮定する. 本研究では,類似度とは前後単語の環境と定義する.よって注目単語における前後単語の一致度が高いほど類似度が高いと考える。 4.2 類似度を用いた枝刈り 以下に手順を示す . 類似度の値を $\operatorname{sim}($ )とする。 手順 1 従来手法の枝刈りを行う 手順 2 変換テーブルより $\operatorname{sim}(A C), \operatorname{sim}(B D)$ の値を計算する. 手順 3 任意の値を閾値として枝刈りを行う。 ## 4.3 類似度の計算 二つの日本語単語 $A$ と $C$ の類似度の値を $\operatorname{sim}(A C)$ とすると $\operatorname{sim}(A C)$ は以下の式 4.3 で計算する. $ \begin{aligned} \operatorname{sim}(A C)=\log _{2}\{ & \frac{\operatorname{count}\left(A_{\text {context }} \cap C_{\text {context }}\right)}{\operatorname{count}\left(A_{\text {context }}\right)} \\ & \left.\times \frac{\operatorname{count}\left(A_{\text {context }} \cap C_{\text {context }}\right)}{\operatorname{count}\left(C_{\text {context }}\right)}\right.\} \end{aligned} $ $\operatorname{count}(X)$ :集合 $X$ の単語の総数 $ A_{\text {context }}, C_{\text {context }} \text { : 単語 } A \text { と } C \text { の前後単語の集合 } $ 上記の式は One-hot の word2vec に類似している.なお類似度の計算においては 2 単語連続を 1 単語として用いる.式 4.3 を英語単語 $B$ と $D$ でも同樣の計算を行い $\operatorname{sim}(B D)$ とする. ## 5 実験条件 ## 5.1 実験データ 電子辞書などの例文より抽出した単文コーパス [5] を用いる . 使用するデータは対訳学習文約 160,000 文である .学習文より生成された枝刈り前の変換テーブルの数は約 2,064 万個である . 枝刈り前の変換テーブルの精度は誤り率 $76 \%$ である. ## 5.2 評価方法 枝刈り後の変換テーブルをランダムに 100 個抽出する.抽出した変換テーブルに対して人手で正解か否かで 2 值評価する . 変換テーブルの評価は置き換え可能性の評価が難しい.よって,翻訳に用いる際最も重要となる $C$ と $D$ の対訳関係を評価する. ## 6 実験 6 章の実験の目的は , 変換テーブルの精度向上である.光して,提案手法と従来手法を比較する. ## 6.1 閥值 実験 1 で用いた閾値を表 2 に示す.表 2 実験で用いた閾値 ## 6.2 実験結果 評価結果を表 3 に示す. 表 3 従来手法と提案手法の誤り率 表 5.2 の結果より,提案手法による変換テーブルの精度向上が確認できた . 提案手法により,誤り率が約 $28 \%$ から $3 \%$ に向上する.一方で変換テーブルの数が約 $81 \%$減少した。 ## 6.3 出力例 提案手法の出力例を表 4 と表 5 に示す. 表 4 は正解と評価される変換テーブルである . 表 5 は誤りと評価される変換テーブルである。 従来手法では出力し,提案手法では出力できなかった例を表 6 と表 7 に示す.表 6 は誤りと評価される変換表 4 提案手法における正解の出力 表 5 提案手法における誤りの出力 テーブルである . 表 7 は正解と評価される変換テーブル & $D$ & \\ である. 表 6 提案手法における変換テーブルの改善例 表 7 提案手法における変換テーブルの改悪例 提案手法は間違った変換テーブルを出力から削除できる (表 6). 一方で, 正解の変換テーブルも削除している (表 7). ## 7 考察 ## 7.1 単語と句に分けた調査 枝刈りした変換テーブルにおける単語と句の内訳を調査する. 方法として , 6 章で枝刈りした変換テーブルの $C$ と $D$ に当たる部分が単語-単語, 単語-句, 句-単語, 句-句でグループ分けする. 7.1.1 枝刈り前の変換テーブル 枝刈り前の変換テーブルにおけるグループごとの変換テーブルの数を表 8 に示す. 7.1.2 枝刈り後のテーブルの調査 グループごとの変換テーブルの数を表 9 に示す. 表 8 グループごとの変換テーブルの数 表 9 グループニ゙との変換テーブルの数 次に,表 9 の各グループを評価した . グループごとにランダムに 100 個ずつ抽出して評価した. 評価結果を表 10 に示す. 表 10 誤り率 表 10 より, 句-句のグループでは誤り率が $38 \%$ から $11 \%$ に向上した. ## 7.1.3 出力例 7.1 節における句の出力例を表 11 と表 12 に示す. . 表 11 は正解と評価した例である. 表 12 は誤りと評価した例である 表 11 提案手法における句の正解例 & $D$ & \\ 表 12 提案手法における句の誤り例 7.2 変換テーブルの評価 ( $A$ と $\mathrm{C}, B$ と $D$ の置き換え可能性) 今回は簡易的に評価を行うために $C$ と D の部分の訳が適切であるかで評価を行った. しかし変換テーブルの構成を考えると $A$ と $\mathrm{B}$ の訳の適切さや $A$ と $\mathrm{C}, B$ と $D$ の置き換え可能性も考慮に入れて評価する. 光こで, 6 章で用いた変換テーブルに注目して評価を行う。 ## 7.2 .1 評価結果 評価結果を表 13 に示す. 表 13 従来手法と提案手法の誤り率 ## 7.2 .2 評価例 7.2 章で評価した変換テーブルの例を示す. . 表 14 は正解と評価した例である。 $ \text { 表 } 14 \text { 評価例 } $ 表 14 において対訳関係は正しいと考える.ここで置き換え可能性を考える.「少し」は副詞であり,「調査」は名詞である.副詞は後ろに何を伴っても良い.よってA と $C$ は置き換え可能性があると考えられる. 表 15 は正解と評価した例である. 表 15 評価例 表 14 と同樣に表 15 も対訳関係は正しいと考える. 同樣に,置き換え可能性を考える。「では」は主に接続助詞と係助詞の連語であり,「限り」は名詞である.接続助詞の前単語は名詞を取る. 名詞は複合名詞の形で名詞につながる可能性がある.よって $A$ と $C$ は置き換え可能性があると考える 表 14 と表 15 で示した例のように品詞が異なった変換テーブルの置き換え可能性を評価するのが難しい. 7.3 パターンについて 変換テーブルの作成において,複数の変数によるパターンが用いられている. 表 16 と 17 に変換テーブルのパターンの例を示す. 表 16 は正解と評価される変換テーブルである 表 16 パターン例 & $D$ & \\ 表 16 では「が」と「The」のように訳されない単語を仮定した上で,SV の形でパターンが生成され上手く対応されている.(ここでD源文は SVO 形ではあるがV と O を一つの句として扱っている) 表 17 は誤りと評価される変換テーブルである. 表 17 と同様に $D$ の原文が命令形になっているとパターンが誤ってしまう例が多い。 ## 7.4 変換テーブルの数を増加させた実験 7.4 節では , 変換テーブルの数を提案手法と従来手法で同程度に揃えた上で精度を調査する.少して,提案手法と従来手法を比較する。 表 17 パターン例 }} \\ ## 7.4 .1 閾値 7.4 の実験では求められた類似度を昇順に順位付けする.さらに , 類似度の順位を閾値とする.実験で用いた閾値を表 18 に示す. 表 18 実験で用いた閾値 ## 7.4 .2 実験結果 評価結果を表 19 に示す. 表 19 従来手法と提案手法の誤り率 表 19 の結果より,変換テーブルの数を同程度にした際も,提案手法による変換テーブルの精度向上が確認できた . 提案手法を用いることにより誤り率が $28 \%$ から $20 \%$ に向上する. ## 7.4.3 出力例 従来手法では枝刈りできず,提案手法では枝刈りできた変換テーブルの例を表 20 と 21 に示す. 表 20 と 21 は誤りと評価される変換テーブルである 表 20 提案手法による変換テーブルの改善例 表 21 提案手法における変換テーブルの改善例 この節の例については 7.5 章で考察する ## 7.5 形態素解析の問題 7.4 章で得た出力例を考察する. 表 20 と表 21 はいずれも誤りと評価した例である. 例のように,C が「し」となる変換テーブルは従来手法で枝刈りをした場合 6482 個存在する.一方提案手法で枝刈りをすると 44 個となる.中身として従来手法では $\ulcorner し\lrcorner$ 訳として「with」や「to」などが多くある. 提案手法では「did」や「has $」\ulcorner$ made」などが列挙される. 日本語において「し」は動詞に付属して「〜した」という 3 単語の形で用いられることが多い. しかし, 英語では「〜した」を 1 単語の動詞の過去形で訳される場合が多い.また,英語文において「し」の対訳単語はない場合も多い.よって「し」の樣な単語において間違った変換テーブルを作成してしまう場合がある.提案手法では $A$ と $C$ の類似度を用いて枝刘りを行うので多くの間違った変換テーブルを削除できると考える. ## 7.6 閾値の選択 6 章では閾値を類似度の数值とした. 7.4 章では閾値を類似度の順位とした. 表 3 と表 19 より閾値を類似度の数値とした実験がより高い精度を示した . 類似度の数値を閾値としたことで改善できる例を表 22 に示す. . 表 22 は誤りと評価される例である. 表 22 誤りが削除された例 一方 , 閾値を類似度の順位としたほうが良い例を 23 に示す . 表 23 は正解と評価される例である. 表 23 正解が削除された例 表 22 において「listener」という表現がある.「listener $」$ という表現は学習文内で 6 度しか出現しない表現である.表 23 において「shoreline」という表現がある.「shoreline」 という表現は学習文内で 3 度しか出現しない表現である.学習文内での出現頻度が低頻度な表現は類似度の順位が高さと類似度の値が高さが一致しない. ## 8 おわりに 本研究では , 変換テーブルの精度向上を目的とする手法を提案した. 提案手法は, 変換テーブルの同言語間の類似度を用いて枝刈りする手法である . 実験結果より ,変換テーブル数の誤り率が $28 \%$ から $3 \%$ に改善できた . また句-句のグループでも $38 \%$ から $11 \%$ に改善できた . よつて,提案手法の有効性が確認できた . しかし,変換テー ブルの数が $3,698,524$ 個から 701,828 個に減少する. ## 参考文献 [1] 安場裕人, 村上仁一。“変換主導型翻訳の提案” 自然言語処理学会, 2018 年 3 月 2] 中島綜太, 村上仁一“TDSMT で作成された自動対訳句の前後環境を用いた精度向上”, 言語処理学会第 26 回年次大会, P4-36, 2020 [3] Peter F.Brown, Stephen A.Della Pietra, Vincent J.Della Pietra, Robert L.Mercer (1993). The mathematics of statistical machine translation:Parameter Estimation. Computational Linguistics. [4] 興梠玲架,村上仁一“パターンに基づく統計機械翻訳において変数部の総和を使つた対訳句の抽出”, 卒業論文, 2016 年 3 月 [5] 村上仁二, 藤波進“日本語と英語の対訳文対の収集と著作権の考察”, 第一回コーパス日本語学ワークショップ,pp.119-130. 2012.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/