filename
stringlengths
1
10
text
stringlengths
33
111k
category
stringclasses
9 values
license
stringclasses
1 value
credit
stringclasses
5 values
A5-4.pdf
# 敵対的サンプルを用いた対照学習の性能向上への取り組み 折口希実 ${ }^{1}$ 小林一郎 ${ }^{1}$ 1 お茶の水女子大学 \{g1620512, koba\}@is.ocha.ac.jp ## 概要 アンカーとされる一つの画像から派生した画像群間の特徵量の類似度を最大化し,アンカーとは異なる画像から派生した画像群の特徵量とは類似度を最小化することにより自己教師あり学習を行う対照学習は,機械学習に新しい技術変革をもたらし優れた精度向上を実現した. 本研究では, この対照学習を自然言語処理に導入した SimCSE [1] の枠組みに敵対的サンプルを導入することにより,さらに性能を向上させた対照学習を提案する. また,とくに,対照学習において明確な制約が存在しない負例の生成に着目し,様々な負例の導入方法を検討することにより, 対照学習の性能向上を試みた. 評価には意味的にテキストの類似性を測定できる SentEval の STS タスクを用いた.BERT ベースを用いた提案モデルでは先行研究モデルのスピアマンの相関 $74.06 \% を$ ## 1 はじめに 教師あり学習の精度を向上させるためには,大量のデータを必要とするが,データ全てに対してラべル付けを行うことは,多くの人的コストを要してしまう。一方,自己教師あり学習は,ラベルなしデー タから自動で正解ラベル付きデータを生成することが可能であり,学習用データ構築のコストを大幅に下げることに有効な手段である。近年では, 自己教師あり学習に対照学習を用いることで教師あり学習に匹敵する性能を実現している.対照学習とは,識別空間において識別対象と類似したデータは近くに,異なるデータは遠くに置かれるように学習する機械学習の手法の一つである. 表現学習では対照学習を用いることで特徴量をうまく抽出できるモデルを得ることが可能であり,様々な下流タスクに利用できる. 特に対照学習の枠組みを用いた教師なし学習は教師あり学習に匹敵することが示されている [2].本研究では,そのような対照学習をより高性能なものとするために,敵対的サンプル [3] を導入し,様々な観点から対照学習における負例の導入方法を検討する。 ## 2 提案手法 本研究では,Gao ら [1] によって提案された埋め込み学習の枠組みである SimCSE モデルをベースにし,敵対的サンプルの導入や負例の生成方法を拡張したモデルを構築した. ## 2.1 SimCSE 対照学習では,アンカーとされるオリジナルのデータ $x_{i}$ に対して, 意味的に近いデータ $x_{i}^{+}$(正例と呼ぶ) のペアの集合 $D=\left.\{\left(x_{i}, x_{i}^{+}\right)\right.\}_{i=1}^{m}$ が与えられると, 事前学習済みの汎用言語モデルによって入力をエンコードし,埋め込みべクトルを獲得する。一方, SimCSE モデルでは $x_{i}=x_{i}^{+}$であり, データをドロップアウトマスクを用いて 2 度エンコードすることで僅かに異なる埋め込みべクトルの正例ぺアを取得する. 以下,汎用言語モデルを BERT として話を進める. 通常 BERTへの入力の際,バッチ単位で複数の文を同時にそれぞれべクトル化しているが,そのときのミニバッチ内のアンカーとする対象文以外の他の文については負例として扱う。損失関数である NT-Xent loss を用いて正例のペアのソフトマックスを 1 に近づけるように,そうでないものを 0 に近づけるように学習することで対照学習を行う. SimCSE モデルの損失関数は式(1)で示される. $ \ell_{i}=-\log \frac{e^{\operatorname{sim}\left(\mathbf{h}_{i}^{z_{i}}, \mathbf{h}_{i}^{z_{i}^{\prime}}\right) / \tau}}{\sum_{j=1}^{N} e^{\operatorname{sim}\left(\mathbf{h}_{i}^{z_{i}}, \mathbf{h}_{j}^{z_{j}^{\prime}}\right) / \tau}} $ ここで,$N$ はミニバッチ数であり,$z$ はドロップアウトマスク, $\tau$ はソフトマックスの温度パラメータである. $\mathbf{h}$ はデータ $x , x^{+}$それぞれの特徴表現を示す.また, $\operatorname{sim}(\cdot)$ はコサイン類似度の関数であり, 文同士の類似度を計算している。正のぺアは 1 に,負のペアは 0 に近づくように学習を行う。 対照学習におけるデータの拡張では,単語の削除や入れ替え等の既存手法が主流であったが [4], ドロップアウトマスクのみというシンプルな仕組みで,SimCSE モデルは既存手法の精度を更新する十分な精度を実現している。 ## 2.2 敵対的サンプルの対照学習への導入 敵対的学習 [3] において,モデルの出力を変えてしまうようなノイズベクトルのことを「敵対的摂動」と呼び,意図的に作成される. 作成方法については,主に 2 つの設定 (White-Box, Black-Box) により異なり,モデル知識の有無で分かれる. モデル知識がない場合が Black-Box であり,ある場合の設定が White-Box である. 本研究での取り組みは, White-Box に該当するため,以下それについてのみ言及する. 敵対的サンプルを作成する手法の代表的なものの 1 つに Fast Gradient Sign Method (FGSM) がある [3]. 摂動は,式 2 で示すように与えられる。 $ x=x+\epsilon \operatorname{sign}\left(\nabla_{x} \operatorname{Loss}(x, y)\right) $ ここで,$x$ は入力データ,$y$ はそのラベルである. また, sign 関数は正の値を +1 ,負の値を -1 にする関数で, $\epsilon$ は摂動に対する調整係数である。損失を最大化する方向へ入力 $x$ を $\epsilon$ ずつ更新していく. モデルを誤認識させてしまう敵対的サンプルを混ぜて学習を行うことでより堅牢なモデルを得られることが報告されており $[5,6]$, 本研究においても対照学習における正例に対して,敵対的サンプルを生成させ,モデルの学習に用いた. 図 1 に概要を示す. 正例から生成した敵対的サンプルを負例のように扱い,損失関数は式 (1)を用いた。 ## 2.3 対照学習の性能向上に向けて 敵対的サンプルの導入により,対照学習における正例の拡張を行なったのと同様に,負例に関しても拡張を考える. 対照学習における負例の生成においては, 制約が緩く, 工夫の余地がある. 以下に,本研究で導入した負例の生成について記す。 ## 1. 損失関数のコサイン類似度を用いた負例の拡張 Contrastive Loss を計算過程では文の特徴表現の 類似度としてコサイン類似度にて算出する. 負例は基本的に正例と全く似つかないものである ため負例ぺアの類似度はかなり低いものとなっ 図 1 提案モデル てしまう.そのため正例ぺアのものと負例ペアのものとの間には類似度に一定の乘離が存在している。その乘離部分は正例ペアに近い境界部分の負例のペアの類似度を表していると推測し,その部分の拡張を行うことは境界部分のデータを拡張していることと同義で,潜在空間をより補完できるのでははないかと考えた.損失関数は式 (3)のように表せる. $ \ell_{i}=-\log \frac{e^{\operatorname{sim}\left(\mathbf{h}_{i}^{z_{i}}, \mathbf{h}_{i}^{z_{i}^{\prime}}\right) / \tau}}{\sum_{j=1}^{N} e^{\operatorname{sim}\left(\mathbf{h}_{i}^{z_{i}}, \mathbf{h}_{j}^{z_{j}^{\prime}}\right) / \tau}+\lambda \cdot \sum_{k=1}^{M} e^{\operatorname{sim} A / \tau}} $ $\operatorname{sim} A$ は正例ペアと負例ぺアの間のコサイン類似度の間の範囲から生成される擬似コサイン類似度であり, $M$ は生成される数を示し, $\lambda$ は調整係数を示すハイパーパラメータである. ## 2. margin を考慮した負例の生成 深層距離学習 [7] において, アンカー, 正例,負例の 3 つ組の埋め込み空間の状態を捉えた損失関数 triplet loss の設定やデータ間の距離を捉える margin といった考え方がある. アンカー から遠く離れた負例は学習にとってさほど重要な意味を持たず,アンカーに近ければ近いほど効果的な学習ができるため, その効果的な学習を可能とする範囲が margin である. 学習にとって理想的な負例は,正例に極めて近いが正例ではない境界の近くに存在するものと考えることができる. ここでは,学習にとって有益な負例となるデータが存在する範囲のことを margin とし,文のべクトルにノイズを加え,正例を負例に近づけるように拡張させた敵対的サンプル(正例の限界点とみなす)との距離を考 表 1 実験結果 (STS タスク) 図 2 埋め込みの視覚化:(左)BERT(中央)BERT を用いた SimCSE モデル(右)敵対的サンプルを用いた提案モデル 慮することにより,有効な負例を見つけ学習に用いる. 具体的には,アンカーからもっとも遠いとみなされる正例の限界点を敵対的サンプルとし,負例との間の範囲を margin としている.敵対的サンプルと新たな負例との間のベクトルを生成することで margin の範囲にある負例とした. ## 3. GS-InfoNCE Wu ら [8] は,SimCSE をべースとして,その損失関数の分母に, Gauss 分布で表現されるノイズを追加した手法である Gaussian Smoothing InfoNCE (GS-InfoNCE) を提案している。まず, ガウス分布から文のベクトルと同じ次元で $M$個のガウスノイズベクトル $\mathbf{g}$ をランダムにサンプリングする. これらのべクトルはサンプルと高い信頼性を持つ負のペアとなる.そのような負のペアを生成して負例を拡張することによって,表現空間をより充実させ,滑らかなものとする.次のような式にて損失関数を示す。 $ \ell_{i}=-\log \frac{e^{\operatorname{sim}\left(\mathbf{h}_{i}, \mathbf{h}_{i}^{+}\right) / \tau}}{\sum_{j=1}^{N} e^{\operatorname{sim}\left(\mathbf{h}_{j}, \mathbf{h}_{i}\right) \tau} /+\lambda \cdot \sum_{k=1}^{M} e^{\operatorname{sim}\left(\mathbf{g}_{k}, \mathbf{h}_{i}\right) \tau}} $ この手法では,SimCSE モデルを上回る結果となったことが示されており, 本研究での提案手法との比較のための追実験を行った.表 2 実験設定 ## 3 実験 提案モデルを含め, $2.2,2.3$ 項で述べた方法について実験を行い,対照学習の性能を向上させる方法を検証する。 ## 3.1 実験設定 表 2 に実験設定を示す. パラメータ等は [1] を元にして行った. 評価方法評価方法については, 先行研究と同様に SentEval: evaluation toolkit for sentence embeddings ${ }^{1 \text { ) }}$ を用いる. SentEval を使用し,STS(Semantic Textual Similarity)を用いてタスク遂行に際して、精度を向上させるような文の埋め込み表現が獲得できたかを評価する.STS は,文章の等価性を評価するタスクであり,2 つの文の関係について類似度を対象として評価する。本研究では STS の7つのタスグ2)を用いて評価を行った. 対照学習は「似た表現を近くに,異なる表現を遠くへ」と学習させるものである 1) https://github.com/facebookresearch/SentEval 2) STS12, STS13, STS14, STS15, STS16, STS Benchmark, SICK Relations 表 3 学習済み言語モデルの比較 (Avg.) ので,類似を評価するSTS タスクを用いることで文の埋め込み表現のパフォーマンスについて評価が可能である. また,学習された潜在空間のクラスタ化がなされているかを検証するために $\mathrm{UMAP}^{3}$ )を用いて, データ数約 40 万の amazon の製品レビューでカテゴリのラベルのついたデータの潜在空間の視覚化を行う. UMAP とは t-SNE よりも高速・高性能に次元削減・可視化する手法であり,似たカテゴリ同士は近くに,似ていないカテゴリ同士は遠くに配置される。 ## 3.2 実験結果 STS の 7 つのタスクに対し,2.2,2.3 項で述べた提案手法を用いて評価を行った結果を先行研究らの追実験の結果と比較し表 1 に示す. 実験で用いた提案モデルは 5 つであり, 手法を組み合わせたモデルも用いた. 表 1 で示すモデルの事前学習済み汎用言語モデルは全て BERT を用いて行ったものとなっている。また学習済み汎用言語モデルとして BERT と RoBERTa それぞれを採用した際の STS のタスクの結果の比較を表 3 に示す.この結果は STS の7つのタスクのスピアマン相関の平均值であり, 先行研究モデルの SimCSE と敵対的サンプルを用いた提案手法で比較を行った. また,敵対的サンプルを用いた提案手法と先行研究モデルとで可視化し比較したものを図 2 に示す. 左から BERT,BERT ベースのモデルを用いた SimCSE モデル,敵対的サンプルを用いた提案モデルの順になっている。 ## 3.3 考察 表 1 に示すように, 5 つの提案モデルは先行研究モデルである SimCSE と Wu らによって提案されたモデル [8] のスコアのほとんど全てを上回ったことがわかる. これにより,2.2,2.3 項で示した手法は全て効果的に作用したといえる. しかし, 5 つの提案モデルの結果はタスクによってべストスコアを出すモデルは異なっているためどの手法が優れているかについては一概にはいうことはできない. だ が,基本的には敵対的サンプルを単独や組み合わせて用いたモデルが,7 つのタスク中 6 つのタスクで最も高いスピアマンの相関を得ることができており,かなり効果的な手法の一つと考える。また, ours(+GS+ae) モデルのように GS-InfoNCE モデルと ours(+adversarial examples) モデルを組み合わせることでスコアを落としてしまうこともあり,安易に手法を組み合わせることで逆効果になり得ることがわかる. 表 3 からは 7 つのタスクのスピアマン相関の平均スコアが学習済みの汎用言語モデルとして BERT を用いるより RoBERTa を用いる方が SimCSE モデル,提案モデルのベストスコアでそれぞれ $3.67 \%$, $2.08 \%$ 上回った. このことから RoBERTa をべースとしたモデルの方が優れていることを示している. 図 2 では文の埋め込み表現のパフォーマンスについて BERT,SimCSE モデル,提案手法の一つである敵対的サンプルを用いた提案モデルの 3 つで比較を行っているが,敵対的サンプルを用いた提案モデルが最もクラスタが分かれており,効果的な対照学習はより解きほぐされた表現空間を生成することに繋がっていることがわかる. ## 4 おわりに 本研究では,自然言語処理において効果的な対照学習を行うことができるように敵対的サンプルを用いたデータの拡張方法の模索や負例の生成方法について検討をし,実験を行った。実験を通じて,敵対的サンプルを単独,または組み合わせたモデルが STS の 7 つのタスクのほとんどのベストスコアを達成しており,有効な手法であることを示した。損失関数のコサイン類似度を用いて負例を拡張したモデルについてもかなり高いスピアマン相関を達成しており, さらに改善の余地のあるパラメータの調整等を行うことでより良いスコアを得られるのではないかと考える。今後の課題として、それらを行った実験を行い性能向上に努め,また,具体的な潜在空間を可視化して負例のデータ分布を margin の中で一様に補完するような負例の生成をしたいと考えている. 提案手法は,自然言語処理において優れた表現の獲得を可能とし,また潜在空間をより明確に整理が行えるため,分類系統のタスクにおいて特に役立つと期待している.  ## 参考文献 [1] Tianyu Gao, Xingcheng Yao, and Danqi Chen. SimCSE: Simple contrastive learning of sentence embeddings. In Empirical Methods in Natural Language Processing (EMNLP), 2021. [2] Ting Chen, Simon Kornblith, Kevin Swersky, Mohammad Norouzi, and Geoffrey Hinton. Big self-supervised models are strong semi-supervised learners. arXiv preprint arXiv:2006.10029, 2020 [3] Ian J. Goodfellow, Jonathon Shlens, and Christian Szegedy. Explaining and harnessing adversarial examples, 2015. [4] Zhuofeng Wu, Sinong Wang, Jiatao Gu, Madian Khabsa, Fei Sun, and Hao Ma. Clear: Contrastive learning for sentence representation, 2020. [5] Chih-Hui Ho and Nuno Vasconcelos. Contrastive learning with adversarial examples. ArXiv, Vol. abs/2010.12050, , 2020. [6] Minseon Kim, Jihoon Tack, and Sung Ju Hwang. Adversarial self-supervised contrastive learning. In Hugo Larochelle, Marc'Aurelio Ranzato, Raia Hadsell, Maria-Florina Balcan, and Hsuan-Tien Lin, editors, Advances in Neural Information Processing Systems 33: Annual Conference on Neural Information Processing Systems 2020, NeurIPS 2020, December 6-12, 2020, virtual, 2020. [7] Kaya and Bilge. Deep metric learning: A survey. Symmetry, Vol. 11, No. 9, p. 1066, August 2019. [8] Xing Wu, Chaochen Gao, Liangjun Zang, Jizhong Han, Zhongyuan Wang, and Songlin Hu. Smoothed contrastive learning for unsupervised sentence embedding, 2021.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A5-5.pdf
# Transformer におけるフィードフォワードネットの作用 小林悟郎 1 栗林樹生 ${ }^{1,2}$ 横井祥 1,3 乾健太郎 1,3 1 東北大学 ${ }^{2}$ Langsmith 株式会社 ${ }^{3}$ 理化学研究所 goro.koba@dc.tohoku.ac.jp \{kuribayashi, yokoi, inui\}@tohoku.ac.jp ## 概要 近年 Transformer ネットワーク [1] が大きな成功を収め,Transformer を用いたモデルの分析が盛んに行われている。しかし多くの研究は注意機構に焦点を絞り,他のモジュールを無視して分析を行っている. 特に,多くの学習パラメータを持つフィードフォワードネットを分析に組み込む試みはこれまでほとんどない. 本研究ではフィードフォワードネットにも光を当て,層を構成するすべてのモジュールを考慮した分析方法を提案する.BERT[2]を対象とした実験では,フィードフォワードネットが単語埋め込み間の混ぜ合わせに興味染い影響をもたらすことを明らかにする。 ## 1 はじめに 近年,Transformer ネットワークが自然言語処理の幅広いタスクに性能向上をもたらし,基盤技術となりつつある。その成功理由の解明および更なる性能改善を目指して Transformerを用いたモデル(BERT など)の分析が盛んに行われている [3]. Transformer は入力系列の情報を混ぜ合わせながら単語埋め込みを更新していく.そこで既存分析の主な関心は,モデルが単語埋め込みを更新する際に文脈情報をどのように混ぜ合わせているかにある. 多くの既存研究では,直接的に単語埋め込み同士の混ぜ合わせを実現する注意機構の振る舞いに焦点を絞った分析が行われてきた $[4,5,6,7,8,9,10,11,12]$. しかし, Transformerを構成する要素は注意機構だけではなく,その他のモジュールも間接的に混ぜ合わせに影響を及ぼしうる。 そこで我々はこれまで, Transformerをより精緻に分析するために分析範囲を拡張することを試みてきた $[12,13]$. その結果,分析範囲を拡張することでモデル内部の観察が大きく変わることが分かっており,対象モジュールを絞った限定的な分析を続けることには不完全な知見をコミュニティ内に積み上げてしまう危険がある. 図 1 Transformer 層の概要と各種分析方法のスコープ. 本研究では新たにフィードフォワードネットを分析に組み込み,分析範囲を層全体まで拡張する。代表的なモデルである BERTを対象とした実験の結果,フィードフォワードネットによって混ぜ合わせの振る舞いが変化すること,さらに言語的に関係深い単語ぺア (e.g., 意味的つながりが強い単語ペア) の相互作用が増幅されることなどがわかった. ## 2 準備: Transformer Transformer は入力されたべクトル系列(トークン列)を混ぜ合わせながら更新する層を積み上げて構成される。各層は (1) 注意機構,(2)フィードフォワードネット,(3)残差結合,(4)層正規化の 4 種類の要素からなる(図 1). Transformer を用いたモデルを分析する多くの既存研究は,注意機構だけに焦点を当ててきた $[4,5,6,7,8,9,10,11,12]$. 最近,我々が注意機構に加えて残差結合と層正規化を考慮することを提案した [13] が,フィードフォワードネットの影響はいまだ考慮されていない。本研究ではフィードフォワードネットを分析に組み込み,層内の混ぜ合わせにもたらされる影響を調査する。 注意機構 (ATTN) は単語埋め込み列 $\left.\{x_{1}, \ldots, x_{n}\right.\} \subseteq$ $\mathbb{R}^{d}$ を混ぜ合わせることで各埋め込み $x_{i}$ を更新する機構である. 具体的には, 各単語ぺア $\left(\boldsymbol{x}_{i}, \boldsymbol{x}_{j}\right)$ の関係性に相当する注意重み $\alpha_{i, j} \in[0,1]$ を計算しその值に基づいて周囲の埋め込みを混ぜ合わせることで,関係深い単語の埋め込みから情報を多く集めながら埋め込みを更新することを実現する。 フィードフォワードネット(FF)は活性化関数を間に挟んだ 2 層の線形ニューラルネットワークである。各単語埋め込みに対して独立に同じ変換を行うため,この機構単体では埋め込み同士に混ぜ合わせのような相互作用は生まない. 以降ではフィードフォワードネットを FF と省略して表記する。 残差結合(RES)は注意機構および FF の前後を短絡する形で,それら機構への入力ベクトルをその出カベクトルに足し込み,元の情報を残す. 層正規化(LN)は各べクトルに要素平均を 0 ,要素分散を 1 にする正規化を行った上で,各要素をスケーリングするアフィン変換を行う。 ## 3 関連研究 本節では Transformerを用いたモデル(BERTなど)の内部挙動を分析する既存手法を概観し, 本研究の位置付けについて述べる。 注意機構の分析モデル内部での単語間の混ぜ合わせを調べるために多くの研究で注意機構に焦点が当てられてきた. 特にアテンション重み $\alpha$ の値を観察するのが最も典型的な分析方法である $[4,5,6,7,8,9,10,11]$ (図 1 の AtTN-w).この方法は機構内の $\alpha$ 以外の影響を無視してしまうが,我々の以前の研究ではその点を改良した注意機構の包括的な分析方法を提案した [12](図 1 の ATTN). 分析範囲を拡張する試みこれらの分析では Transformer を構成する 4 要素(セクション 2)のうち注意機構だけしか考慮されない. そこで注意機構以外の構成要素も分析に組み込むことも過去の研究で試みた。具体的には,ベクトルノルムを用いることで層の前半部分(注意機構・残差結合・層正規化)を包括的に分析する方法を提案した [13](図 1 の AtTNResLn),そして実際に,この分析範囲の拡張によってモデル内での単語間の混ぜ合わせの見え方が大きく変化することを報告した. 既存の問題点と本研究の立ち位置しかしながら Transformer の学習可能パラメータの半数以上(埋め込み層を除く)を占める $\mathrm{FF}$ を分析に組み込む試み 1. 各入カ $x_{j}$ に紐づくベクトルの和として表す 図 2 ベクトルノルムに基づく分析の概要. は現状ほとんどない,数少ない試みは FF を独立に調べるもので $[14,15]$ ,注意機構など直前までのモジュールによる混ぜ合わせに与える影響については明らかになっていない. 本研究は $\mathrm{FF}$ を注意機構などの周囲のモジュールと合わせて分析に組み込むことで,FF が単語同士の混ぜ合わせにどのような影響を与えるのかを調べる。 ## 4 提案手法 Transformer を構成する 4 種類の要素全て(2 節) を考慮した, 1 層の包括的な分析法を提案する. ## 4.1 ベクトルノルムに基づく分析 本研究の提案手法では我々が以前提案したべクトルノルムを用いた方法 [12]を採用する。この方法はアテンション重み $\alpha$ を観察するような方法と違い,分析範囲を自然に拡張できる。また,勾配を用いて分析対象の入出力間の関係を分析する方法と違い,入力ベクトルによる影響も考慮できる。 ベクトルノルムを用いた分析の概要を図 2 に示す. 分析は次の 2 段階で行われる: 1. 分析したい処理を各入力 $\boldsymbol{x}_{j}$ に紐づくベクトルの和に書き直す(加法分解する). 2. 分解された各べクトルのノルムを測ることで出力 $\boldsymbol{y}_{i}$ に対する各入力 $x_{j}$ の貢献を測定する. この方法はベクトルの総和において長いべクトルほど出来上がるべクトルに強く影響を与えるという性質を基に考案されている. 3 節で述べた注意機構の包括的な分析(図 1 の ATTN)[12],および層の前半部分(注意機構・残差結合・層正規化)の包括的な 分析(図 1 の AtTnResLn) [13] はこの方法を用いて実現したものである. 本研究では分析対象を FFに広げることで層の包括的な分析を実現する。 ## 4.2 FF の加法分解 分析の第 1 段階として今回の分析対象である Transformer 層全体を加法分解したい. 層全体の加法分解は, 層を構成する 4 要素の処理をそれぞれ加法分解することで実現できる.このうち注意機構・残差結合・層正規化の 3 要素についてはそれぞれ近似なしで加法分解できることを以前の研究 $[12,13]$ で示している. しかし本研究で新たに組み达む $\mathrm{FF}$ には活性化関数が含まれている1). 非線形な作用には分配則が適用できないため近似なしで加法分解できない. そこで活性化関数部分を近似的に加法分解する方法について検討した. 分解前後で合計値が変化しないことを要件とし,これを満たす近似手法として(1)勾配に基づいた近年代表的な特徴量帰属手法 Integrated Gradients [17] と(2)ゲーム理論に基づいて出力への寄与値を分配する Shapley Value [18] を候補に挙げた. 両手法で試したところ, Shapley Value には系列長に応じて急激に計算速度が遅くなる問題があったため, 本研究では Integrated Gradientsを採用した. 他の方法も踏まえて近似分解手法を比較検討することは今後の展望の一つである. ## 4.3 提案手法まとめ 以上によりすべての構成要素の加法分解が可能となり, Transformer 層での埋め込みの更新を入力に紐づくべクトルの和 $\boldsymbol{y}_{i} \approx \sum_{j} F\left(\boldsymbol{x}_{j}\right)$ で表すことができた. あとは分析の第 2 段階として分解した各べクトルのノルム $\left.\|F\left(x_{j}\right)\right.\|$ を測ることで,埋め込み $x_{i}$ を $\boldsymbol{y}_{i}$ へと更新する際の各入力埋め込み $x_{j}$ の貢献を測る. 測定した値はその層における $j$ 番目の単語から $i$ 番目の単語への混ぜ度合いに相当しており, その値の大きさからモデルが周囲の各単語情報をどれほど強く混ぜ合わせているかを観察できる。 ## 5 実験 Transformer を用いた代表的なモデルである BERT の内部挙動を $\mathrm{FF}$ の作用に注目しながら分析する. 5.1 節では FF が文脈の混ぜ合わせを変化させることをデータ全体のマクロな分析から確かめる. 5.2 節では個別の単語ぺアに注目したミクロな分析によ  図 3 分析範囲の異なる手法間の結果の類似度. り,FF が言語的に興味深い単語ぺアの混ぜ合わせを大きく変化させる傾向を明らかにする. モデル事前学習済み BERT-base (uncased)を用いた. BERT-base は 12 層から構成されており,その各層が注意機構,フィードフォワードネット,残差結合,層正規化から構成されている(図 1). データ既存研究 $[4,12,13]$ に従い,モデルへ入力するテキストデータに Wikipedia から抽出された 992 系列 [4] を用いた. BERT の事前学習の設定に合わせ,各系列の $12 \%$ 2) のトークンは [MASK]トークンに置換してからモデルに入力した. 分析手法実験では分析範囲の異なる 6 種類の手法で分析し,結果を比較することで各モジュールの混ぜ合わせへの影響を調査する. 各手法の分析範囲は図 1 に示す通りである. ATTN-w は注意重み $\alpha$ を分析する最も典型的な方法で,他 5 手法はベクトルノルムに基づく分析(4.1 節)を採用している. ## 5.1 各モジュールの混ぜ合わせへの影響 分析に考慮するモジュールを増やすことで混ぜ具合の観察結果がどの程度変化するかを確認する。 手順 BERT に各系列(トークン数 $n$ )を入力し, 6 種類の分析手法それぞれで入力単語間の混ぜ度合い( $n \times n$ の行列)を算出する. 続いて系列毎に手法間で結果の類似度を測り,全系列で平均する。その後,モデル全体での傾向を調べるために各層から算出された値を平均する.行列間の類似度を測定する方法は,多変量解析法である表現類似性分析 [19] に従う. 具体的には各行列 $\left(\mathbb{R}^{n \times n}\right)$ をべクトル $\left(\mathbb{R}^{n^{2}}\right)$ に平坦化してスピアマン順位相関係数を計算する。 結果・考察図3に6種類の分析手法で算出された混ぜ合わせの結果同士の類似度を示す。 2) BERT の事前学習では入力系列の $15 \%$ が選ばれ,そのうち 80\%(全体の 12\%)が [MASK]トークンに置換される。 表 1 FFが混ぜ度合いを増幅した単語ぺア。 FF は混ぜ合わせを変化させる:FFを分析に組み込む前後で混ぜ合わせの類似度は 0.79 で 1.0 より確かに低く, FFが混ぜ合わせに変化をもたらしていることが分かった. FF は埋め込み間に相互作用を生まないため一見混ぜ合わせには寄与しないように思えるが,その各入力は直前の注意機構などを通して埋め込みが混ぜられたものであり, FF はベクトル変換を通してその混ぜ具合を確かに変化させている. 残差結合・層正規化も混ぜ合わせを変化させる:FF の後にある残差結合の前後では類似度が 0.96 , 層正規化の前後では類似度が 0.73 であり, 残差結合と層正規化も混ぜ合わせに変化をもたらしていることが分かった. 特に層正規化による変化は大きく, アフィン変換が強く働いていると考えられる. この傾向を詳細に調べることは今後の展望の一つである. ## 5.2 フィードフォワードネットの仕事 前節では FF が単語埋め込み間の混ぜ具合を変化させていることを明らかにした。本節ではこの FF による混ぜ合わせへの影響についてミクロに調査し,どのような単語ぺアに対して大きな変化をもたらすのかを明らかにする。 手順 BERT に各系列を入力し,FFを分析に組み込む前後 (AtTNResLn と AtTnResLnFF) でそれぞれ単語間の混せ度合い $(n \times n$ の行列) を算出する. それぞれの結果に対して各行の合計值が 1 になるよう正規化を行っで3 から差分を取り, FF が各 2 単語間での混ぜ合わせ $\left(w_{j}->w_{i}\right)$ にもたらす変化量を計算する.これを単語の組み合わせ毎にデータ全体で平均し,変化が大きい傾向にある単語ぺアを特定する.このとき周囲文脈との関係に注目する目的で,同じ位置の単語への混ぜ合わせ $\left(w_{j}->w_{j}\right)$ は除外した. さらに外れ値の影響に対処するため,データ中に一度しか出現しないぺアも集計から除外した。 結果・考察各層の FF が混ぜ度合いを平均的に大きく増幅もしくは減衰した単語ペアを特定し,そのうち顕現的なぺアを表 1 および表 2 にまとめた. ${ }^{4)}$ $ に示す. } 表 2 FFが混ぜ度合いを減衰した単語ぺア。 関係深い単語ペアの混ぜ度合いの増幅 (表 1):1 層目では 2 トークンで 1 つの単語をなすサブワードのペア(detour や weeknight)や熟語をなす 2 単語(cell phones)といった,意味の繋がりが強く,隣り合ったぺアで混ぜ合わせが増幅されていた。 6 層目では副詞を伴うコロケーションを成す単語ぺア,9層目では文内において意味的な接続があると予想される単語ペアでの混ぜ合わせが増幅されていた. 10 層目では同系列内に複数個出現する同じ単語同士での混ぜ合わせが増幅される傾向にあった. 以上により, FF は何らかの意味で関係深い単語ペアの混ぜ度合いを増幅する傾向にあることが示唆される。 同グループに属する単語同士の混ぜ合わせと特殊トークンへの混ぜ合わせの減衰 (表 2) : 3 層目では月名単語同士の混ぜ合わせが減衰され,5 層目では同系列内に複数回登場する同じ単語同士での混ぜ合わせが減衰されていた。これより, FFが同グルー プに属する単語同士に対して不要な混ぜ合わせを抑制する働きを持つことが示唆される. 10,12 層目では特殊トークンである $[C L S]$ と [SEP]への混ぜ合わせが減衰される傾向にあった. 特に最終層である 12 層目で [CLS]への混ぜ合わせを減衰していることは,[CLS] の埋め込みを用いて 2 文間の連続性について予測する事前学習タスクを解くために重要でない情報を抑制している可能性が考えられる. ## 6 おわりに 本稿では,Transformer の各層における単語埋め込み間の混ぜ合わせを包括的に分析する方法を提案した. BERT を対象とした実験結果から,FF がべクトル変換を通じて混ぜ具合を変化させていることを明らかにした. 特に, FF は意味的な接続や事前学習タスクに紐づいた混ぜ合わせに大きく変化をもたらすことが示唆された。 今後は, PMIなどの言語的性質と照らし合わせながら FF の働きについて更に深掘りしていく.また, これまでのように各層を独立に分析するのではなく層を跨ぐ拡張を導入することで,複数層もしくはモデル全体を包括的に分析する方向性も興味深い. ## 謝辞 本研究は JSPS 科研費 JP20J22697 の助成を受けたものです. また本研究は, JST, ACT-X, JPMJAX200S および JST,CREST,JPMJCR20D2 の支援を受けたものです. ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In Advances in Neural Information Processing Systems 30 (NIPS), pp. 5998-6008, 2017. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT), pp. 4171-4186, 2019. [3] Anna Rogers, Olga Kovaleva, and Anna Rumshisky. A Primer in BERTology: What We Know About How BERT Works. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 842-866, 2021. [4] Kevin Clark, Urvashi Khandelwal, Omer Levy, and Christopher D Manning. What Does BERT Look At? An Analysis of BERT's Attention. In Proceedings of the 2019 ACL Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 276-286, 2019. [5] Olga Kovaleva, Alexey Romanov, Anna Rogers, and Anna Rumshisky. Revealing the Dark Secrets of BERT. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 4364-4373, 2019. [6] Emily Reif, Ann Yuan, Martin Wattenberg, Fernanda B Viegas, Andy Coenen, Adam Pearce, and Been Kim. Visualizing and Measuring the Geometry of BERT. In Advances in Neural Information Processing Systems 32 (NeurIPS), pp. 8594-8603, 2019. [7] Yongjie Lin, Yi Chern Tan, and Robert Frank. Open Sesame: Getting Inside BERT's Linguistic Knowledge. Proceedings of the 2019 ACL Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 241-253, 2019. [8] David Mareček and Rudolf Rosa. From Balustrades to Pierre Vinken: Looking for Syntax in Transformer SelfAttentions. In Proceedings of the 2019 ACL Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 263-275, 2019. [9] Phu Mon Htut, Jason Phang, Shikha Bordia, and Samuel R. Bowman. Do Attention Heads in BERT Track Syntactic Dependencies? arXiv preprint arXiv:1911.12246, 2019. [10] Alessandro Raganato and Jörg Tiedemann. An Analysis of Encoder Representations in Transformer-Based Machine Translation. In Proceedings of the 2018 EMNLP Work- shop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 287-297, 2018. [11] Gongbo Tang, Rico Sennrich, and Joakim Nivre. An Analysis of Attention Mechanisms: The Case of Word Sense Disambiguation in Neural Machine Translation. In Proceedings of the 3rd Conference on Machine Translation (WMT): Research Papers, pp. 26-35, 2018. [12] Goro Kobayashi, Tatsuki Kuribayashi, Sho Yokoi, and Kentaro Inui. Attention is Not Only a Weight: Analyzing Transformers with Vector Norms. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 7057-7075, 2020. [13] Goro Kobayashi, Tatsuki Kuribayashi, Sho Yokoi, and Kentaro Inui. Incorporating Residual and Normalization Layers into Analysis of Masked Language Models. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 45474568, 2021. [14] Mor Geva, Roei Schuster, Jonathan Berant, and Omer Levy. Transformer Feed-Forward Layers Are Key-Value Memories. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 5484-5495, 2021. [15] Daisuke Oba, Naoki Yoshinaga, and Masashi Toyoda. Exploratory Model Analysis Using Data-Driven Neuron Representations. In Proceedings of the Fourth BlackboxNLP Workshop on Analyzing and Interpreting Neural Networks for NLP, pp. 518-528, 2021. [16] Dan Hendrycks and Kevin Gimpel. Gaussian Error Linear Units (GELUs). 2016. [17] Mukund Sundararajan, Ankur Taly, and Qiqi Yan. Axiomatic Attribution for Deep Networks. In Proceedings of the 34th International Conference on Machine Learning, Vol. 70 of Proceedings of Machine Learning Research, pp. 3319-3328. PMLR, 2017. [18] Shapley L. S. A Value for n-person Games. Contributions to the Theory of Games, pp. 307-317, 1953. [19] Nikolaus Kriegeskorte, Marieke Mur, and Peter Bandettini. Representational similarity analysis - connecting the branches of systems neuroscience. Frontiers in Systems Neuroscience, Vol. 2, p. 4, 2008. ## A 5.2 節の結果の詳細 5.2 節ではフィードフォワードネットによる混ぜ合わせへの影響が大きい単語ぺアの中から顕現的なものを列挙した(表 1 および表 2). 本節ではそれらを列挙する前の,影響が大きかった上位 10 ペア全てを表 3 および表 4 に示す.ここで上位ぺアを算出する際の計算量の問題により,データ全体で 1 度しか出現しないペアが上位に多すぎる層では表の結果に 10 ペア未満しか載っていない. 表 3 フィードフォワードネットによって混ぜ度合いが増幅した上位単語ペア. \\ 表 4 フィードフォワードネットによって混ぜ度合いが減衰した上位単語ぺア. \\
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A6-1.pdf
# On the Applicability of Zero-Shot Cross-Lingual Transfer Learning for Sentiment Classification in Distant Language Pairs Andre Rusli Makoto Shishido Graduate School of Advanced Science and Technology Tokyo Denki University \{20udc91@ms., shishido@mail.\}dendai.ac.jp } \begin{abstract} This research explores the applicability of cross-lingual transfer learning from English to Japanese and Indonesian using the XLM-R pre-trained model. The results are compared with several previous works, either by models using a similar zero-shot approach or a fullysupervised approach, to provide an overview of the zeroshot transfer learning approach's capability using XLM$R$ in comparison with existing models. Our models achieve the best result in one Japanese dataset and comparable results in other datasets in Japanese and Indonesian languages without being trained using the target language. Furthermore, the results suggest that it is possible to train a multi-lingual model, instead of one model for each language, and achieve promising results. \end{abstract ## 1 Introduction In recent years, the pace of newly proposed methods and tools for natural language processing (NLP) using deep learning approaches are increasing rapidly. After BERT [1], a massive pre-trained language model based on Transformers [2], was released, it only took a couple of years for the deep learning and NLP community to propose improvements and other methods that are shown to be better than the last, pushing various boundaries in the NLP field. While high-resource languages have achieved great successes in various tasks, other languages with limited data and computational resources are still left behind. Cross-lingual transfer learning, where a high-resource language is used to train a downstream task model to improve the model's performance in another target language, shows a promising potential to tackle this setback. Many works of research have experimented and shown the potential benefit of using cross-lingual transfer in several NLP tasks, such as machine translation [3] [4], and named entity recognition [5] [6]. Recently, crosslingual transfer learning has become an essential tool for improving performance in various downstream NLP tasks. This is also thanks to the recent advancements of massively multi-lingual Transformers pre-trained models, including mBERT [1], XLM [7], and the most recent one being XLM-RoBERTa (XLM-R) [8]. Even though the multi-lingual field has grown a lot, there are still some challenges. For example, previous works have reported that the quality of unsupervised cross-lingual word embedding is susceptible to the choice of language pairs and the comparability of the monolingual data [9], thus limiting the performance when the source and target language have different linguistic structures (e.g., English and Japanese) [10]. XLM-R is trained using 100 languages globally and achieved SOTA results in various multi-lingual NLP tasks such as the XNLI, Named Entity Recognition, Cross-lingual question answering, and the GLUE benchmark [8]. However, it reports only the performance evaluation for some of the languages used during pretraining such as English, French, Swahili, and Urdu. This research explores the XLM-R base pre-trained model's capability for cross-lingual transfer learning encompassing English, Japanese, and Indonesian languages. We compare the performance with models from previous works, evaluate zero-shot transfer learning capability, and fine-tune mono- and multi-lingual models in a supervised manner for comparison purposes. This paper shows that both fine-tuning and zero-shot transfer learning from English to Japanese and Indonesian for a downstream task; in this case, binary sentiment classification, using XLM-R yields promising results. All experiments are conducted using Google Colaboratory. We also report the full specifications and hyperparameters used in our experiments for reproducibility and provide an overview of the applicability of using XLM-R for zeroshot transfer learning within a limited amount of data and computational resources. ## 2 Related Works As a massively multi-lingual Transformers (MMT) model, XLM-R [8] is a robustly trained RoBERTa, exposed to a much larger multi-lingual corpus than mBERT. It is trained on the CommonCrawl-100 data of 100 languages. There are 88 languages in the intersection of XLM-R's and mBERT's corpora; for some languages (e.g., Kiswahili), XLM-R's monolingual data are several orders of magnitude larger than with mBERT. There are many methods for performing cross-lingual transfer based on MMTs, some of which are fine-tuning [11] and zeroshot transfer learning [12] [6]. The common thread is that data in a high-resource source language can be used to improve performance on a low-resource target language. Even though XLM-R is pre-trained using 100 languages, investigations regarding the applicability of XLM-R for downstream tasks in some languages with less resource than English, such as Japanese and Indonesian, with thorough experiments and reproducible results are still limited. Several works have tried to implement crosslingual transfer learning using several Japanese and Indonesian text classification models. For Japanese, previous works have shown the capability of XLM-R for Japanese for dependency parsing [13] and named entity recognition [14], but no thorough comparison for cross-lingual transfer learning (fine-tuned and zero-shot) for sentiment classification are provided. In the Multi-lingual Amazon Review Corpus [15] in which Japanese is one of the languages of the corpus, the authors provided baseline sentiment classification performance using mBERT, but performance using XLM$\mathrm{R}$ has not been reported. For Indonesian, previous works have shown the capability of using BERT and XLM-R for various tasks including sentiment classification [16] [17], however, the results are mainly focused on building powerful monolingual models for Indonesian. Furthermore, unlike English, Japanese texts contain no whitespace and there are various ways to split sentences into words, with each split could end in a different meaning and nuance. In order to tackle this problem, a recent work proposed a language-independent subword tokenizer and detokenizer designed for neural-based text processing, named SentencePiece [18]. Its performance is shown to be effective for various tasks involving language pairs with different character sets, such as EnglishJapanese neural machine translation [18] and sentiment analysis in Japanese [19]. It is also utilized by state-ofthe-art cross-lingual models such as XLM-R, which is the focus of our current research. ## 3 Experimental Setup ## 3.1 Dataset We gathered binary sentiment datasets from several sources and put shorthand nicknames on each dataset to be addressed in the following sections. 1. AmazonEN: English Amazon product review sentiment dataset from The Multi-lingual Amazon Reviews Corpus [15]. We use 160,000 data for finetuning. 4,000 data for evaluation. 2. AmazonJA: Japanese Amazon product review sentiment dataset from The Multi-lingual Amazon Reviews Corpus [15]We use 160,000 data for finetuning. 4,000 data for evaluation. 3. RakutenJA: Japanese Rakuten product review binary sentiment dataset from [20]. We use 400,000 data for evaluation. 4. IndolemID: Indonesian Twitter and hotel review sentiment dataset from IndoLEM dataset [17]. We use 5,048 data for evaluation. 5. SmsaID: Indonesian multi-platform review sentiment dataset from SmSA dataset [21]. We use 1,129 data for evaluation. For each dataset, we use the review body/text as the input and the sentiment ( 0 for negative and 1 for positive) as the classification label. ## 3.2 Experimental Setup In this experiment, we use the free version of Google Colab with GPU for all our experiments. Due to the dynamic GPU allocation by Google Colab, two GPU types are used in our experiment: Tesla T4 and Tesla P100-PCIE-16GB. Review sentiments gathered from AmazonEN and AmazonJA are rated as a 5-star rating. Following the original paper's practice (Keung et al., 2020), we converted the 1 - and 2 -stars rating as negative the 4 - and 5 -stars rating as positive reviews, we omit the 3 -stars rating. Indonesian review data gathered from SmsaID initially contains three classes, which are positive, negative, and neutral; similarly, we omit the neutral class in this paper. Furthermore, to provide an equal comparison of our models' performance, we use similar metrics used in the sources of each dataset. Specifically, we use the error percentage for AmazonEN, AmazonJA, RakutenJA, and the macro-averaged F1-score for SmsaID and IndolemID. Additionally, we report the hyper-parameters and the time needed for fine-tuning the models to provide a general overview of the applicability and resource needed by the readers to reproduce the results of our experiments. We divide the experiments into two scenarios: 1. Fine-tuned supervised learning Fine-tune the XLM-RoBERTabASE pre-trained model using AmazonEN, AmazonJA, and the combination of English and Japanese Amazon reviews (AmazonENJA), then evaluate the models in monolingual and multi-lingual settings. 2. Zero-shot transfer learning Use the fine-tuned model using AmazonEN to evaluate zero-shot cross-lingual transfer learning capability in AmazonJA, RakutenJA, SmsaID, and IndolemID datasets. ## 4 Results and Analysis ## 4.1 Fine-tuned Supervised Learning We fine-tuned the xlm-roberta-base pre-trained model from the HuggingFace transformers library, three times, using AmazonEN, AmazonJA, and AmazonENJA. For AmazonEN and AmazonJA, our final models are finetuned using the linear scheduler with warmup, 4 epochs, batch size $=32$, optimizer $=A d a m W$, and learning rate $=2 \mathrm{e}-$ 5. For AmazonENJA, the final model uses the same above parameters but only with 2 epochs. Table 1 shows the GPU and averaged elapsed time for each epoch in the fine-tuning process. Table 1. Fine-tuning specifications and elapsed time & GPU & & \\ After fine-tuning three models in the previous step, we evaluate each of the fine-tuned models for supervised learning performance on the exact language from which the model is fine-tuned. We calculate the error percentage for the model prediction on test data and compare the results with a baseline model trained using mBERT [15], as displayed in Table 2. It can be seen that XLM-R outperforms mBERT in all three supervised models for binary sentiment classification in English and Japanese. There is no comparison from the baseline model for the multi-lingual model fine-tuned using AmazonEN and AmazonJA. However, it can be seen that it is possible to have a single bi-lingual model for both languages, eliminating the need to set up multiple models for every language. Table 2. Error percentage of the fully-supervised evaluation on the Multi-lingual Amazon Review Corpus. Results using mBERT are obtained from [15]. ## 4.2 Zero-shot Transfer Learning In this scenario, we use the fine-tuned models from the previous scenario to evaluate the applicability of zeroshot cross-lingual transfer learning from one language to the others. Table 3 shows the results (error percentage, lower is better) of the experiments conducted in this scenario using the multi-lingual Amazon and Japanese Rakuten data. Additionally, Table 4 reports the results (F1 score, higher is better) using the multi-platform Indonesian sentiment datasets. Table 3. Error percentage of zero-shot cross-lingual transfer learning using XLM- RASE $_{\text {BAS }}$ in comparison to a zero-shot mBERT from English data [15] and Japanese data [19] & - & 4.45 \\ On the Japanese product review from the Amazon dataset, in Table 3, our model achieves a better error percentage of 11.12. It is almost 8 points better than the original baseline model [15], which is also evaluated using zero-shot cross-lingual transfer learning from English to Japanese, using mBERT. On another Japanese dataset with more evaluation data (400,000 reviews), the Rakuten dataset, our model achieves a 13.09 error percentage with zero-shot from English. Furthermore, it achieves a much better score of 8.51 error percentage if we add a substantial 160,000 review data from AmazonJA when fine-tuning the model. Although they are from different platforms, product review data shares similar patterns. This result is still far from the SOTA result of the 4.45 error percentage achieved by previous work [19], in which the model is trained in a fully-supervised monolingual setting using BERT. For the Indonesian sentiment datasets, as also described in Table 4, we use two datasets with comparable results from different sources for evaluation purposes. Macroaveraged F1 score is used to evaluate the Indonesian datasets to follow previous works for comparison purposes. We experimented with zero-shot cross-lingual transfer learning using two models for classifying the Indonesian datasets; one is trained only with 160,000 English Amazon reviews, and another one containing English and Japanese Amazon reviews. In both Indonesian datasets, we can see a pattern of more data leads to better performance. Similar to prior research results [8], the model trained with multilingual data, in our case, Japanese and English review data, performs better. 73.31 F1-score on the IndolemID dataset, outperforming a previous model [17], trained with mBERT in a fullysupervised monolingual setting. Moreover, the same model achieves a better F1-score of 88 on the SmsaID dataset, outperforming another mBERT model [16] trained in a fully-supervised monolingual setting. For both datasets, our model performance is still worse when compared to the SOTA model's result, as shown in Table 3 and Table 4. Table 4. Macro-averaged F1-score of zero-shot cross-lingual transfer learning using XLM-R BASE for Indonesian (IndoLEM & 84.13 & 92.72 \\ Based on the results above, it is essential to note that the models used to compare RakutenJA, IndolemID, and SmsaID are trained in a fully-supervised approach using the same language with the target language. In contrast, our model, which is trained using AmazonEN, has never seen Japanese product reviews, and our models trained with AmazonEN and AmazonENJA have never seen Indonesian review texts. Furthermore, it is also essential to know that the models compared in the previous tables are trained mainly by much bigger architectures with more epochs, which means training them will need much more computational resources and time. Our current experiments show the applicability of zero-shot crosslingual transfer learning with less computational costs, which yields promising results. ## 5 Conclusion and Future Work This paper reports the results of experiments focusing on evaluating the applicability of cross-lingual transfer learning using the XLM-R pre-trained model. We then compare the results with previous works to provide an overview of the zero-shot approach's capability using XLM-R to use a multi-lingual model for bilingual data instead of one model for one language. Based on the results, zero-shot cross-lingual transfer learning yields promising results using XLM-R. All experiments are performed using the free version of Google Colab. The models achieve the best result in one dataset and shows the applicability of cross-lingual transfer learning, considering that the models have not seen languages in the target dataset, it can outperform SOTA results in other datasets trained in a fully-supervised approach. Future research steps include experimenting with more hyperparameters, evaluating other potential methods such as few-shot transfer learning, which has been proven to be useful to improve performance by adding just a few annotated data [13] and meta-learning [22]. ## References [1] J. Devlin, M.-W. Chang, K. Lee and K. Toutanova, "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding," in NAACL, Minneapolis, Minnesota, 2019. [2] A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, L. Kaiser and I. Polosukhin, "Attention Is All You Need," in arXiv preprint arXiv:1706.03762., 2017. [3] T. Q. Nguyen and D. Chiang, "Transfer Learning across Low-Resource, Related Languages for Neural Machine Translation," in Eighth International Joint Conference on Natural Language Processing, Taipei, 2017. [4] G. Neubig and J. Hu, "Rapid Adaptation of Neural Machine Translation to New Languages," in Conference on Empirical Methods in Natural Language Processing, Brussels, 2018. [5] S. Mayhew, C.-T. Tsai and D. Roth, "Cheap translation for cross-lingual named entity recognition," in Conference on Empirical Methods in Natural Language Processing, Copenhagen, 2017. [6] J. Xie, Z. Yang, G. Neubig, N. A. Smith and J. Carbonell, "Neural Cross-Lingual Named Entity Recognition with Minimal Resources," in Conference on Empirical Methods in Natural Language Process-ing, Brussels, 2018. [7] G. Lample and A. Conneau, "Cross-lingual Language Model Pretraining," in arXiv preprint arXiv:1901.07291, 2019. [8] A. Conneau, K. Khandelwal, N. Goyal, V. Chaudhary, G. Wenzek, F. Guzman, E. Grave, M. Ott, L. Zettlemoyer and V. Stoyanov, "Unsupervised Cross-lingual Representation Learning at Scale," in arXiv preprint arXiv:1911.02116, 2020. [9] A. Søgaard, S. Ruder and I. Vulić, "On the limitations of unsupervised bilingual dictionary induction," 2018. [10] X. Chen, A. H. Awadallah, H. Hassan, W. Wang and C. Cardie, "Multi-Source Cross-Lingual Model Transfer: Learning What to Share," 2018. [11] B. Zoph, D. Yuret, J. May and K. Knight, "Transfer Learning for Low-Resource Neural Machine Translation," in Conference on Empirical Methods in Natural Language Processing, Austin, Texas , 2016. [12] W. U. Ahmad, Z. Zhang, X. Ma, E. Hovy, K.-W. Chang and N. Peng, "On Difficulties of CrossLingual Transfer with Order Differences: A Case Study on Dependency Parsing," 2019. [13] A. Lauscher, V. Ravishankar, I. Vulić and G. Glavaš, "From Zero to Hero: On the Limitations of Zero-Shot Cross-Lingual Transfer with Multilingual Transformers," in Conference on Empirical Methods in Natural Language Processing (EMNLP), Online, 2020. [14] J. Pfeiffer, I. Vulić, I. Gurevych and S. Ruder, "MAD-X: An Adapter-Based Framework for MultiTask Cross-Lingual Transfer," 2020. [15] P. Keung, Y. Lu, G. Szarvas and N. A. Smith, "The Multilingual Amazon Reviews Corpus," 2020. [16] B. Willie, K. Vincentio, G. I. Winata, S. Cahyawijaya, X. Li, Z. Y. Lim, S. Soleman, R. Mahendra, P. Fung, S. Bahar and A. Purwarianti, "IndoNLU: Benchmark and Resources for Evaluating Indonesian Natural Language Understanding," in 1st Conference of the AsiaPacific Chapter of the Association for Computational Linguistics and the 10th International Joint Conference on Natural Language Processing, Suzhou, China, 2020. [17] F. Koto, A. Rahimi, J. H. Lau and T. Baldwin, "IndoLEM and IndoBERT: A Benchmark Dataset and Pre-trained Language Model for Indonesian NLP," in 28th International Conference on Computational Linguistics, Barcelona, Spain (Online), 2020. [18] T. Kudo and J. Richardson, "SentencePiece: A simple and language independent subword tokenizer and detokenizer for Neural Text Processing," in Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, Brussels, 2018. [19] E. Bataa and J. Wu, "An Investigation of Transfer Learning-Based Sentiment Analysis in Japanese," in 57th Annual Meeting of the Association for Computational Linguistics, Florence, 2019. [20] X. Zhang and Y. LeCun, "Which Encoding is the Best for Text Classification in Chinese, English, Japanese and Korean?," arXiv:1708.02657v2 [cs.CL], 2017. [21] A. Purwarianti and I. A. P. A. Crisdayanti, "Improving Bi-LSTM Performance for Indonesian Sentiment Analysis Using Paragraph Vector," in International Conference of Advanced Informatics: Concepts, Theory and Applications (ICAICTA), Yogyakarta, Indonesia, 2019. [22] F. Nooralahzadeh, G. Bekoulis, J. Bjerva and I. Augenstein, "Zero-Shot Cross-Lingual Transfer with Meta Learning," in Conference on Empirical Methods in Natural Language Processing (EMNLP), Online, 2020.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A6-2.pdf
# RINA:マルチモーダル情報を利用したキャラクターの感情推定 頼展鞱高橋誠史 株式会社バンダイナムコ研究所 z-lai@bandainamco-mirai.com m3-takahashi@bandainamco-mirai.com ## 概要 本研究では,テキストからキャラクターの感情を推定するアプローチについて考察した. マルチモーダル情報を含むゲームシナリオデータセットにおいて,本研究で提案する Reference Information Normalize Adapter (RINA) モデルを用いてマルチクラスの感情推定の精度が既存手法に比べて向上することを実験を行い示した. また,結合手法を変更することで,非テキスト情報を取り込む方法を比較し, Transformer の入力トークンとして直接追加するよりも,テキスト情報の分散表現ベクトルに対し補正を行う方が優位であることを示した. ## 1 はじめに テキストから感情を推定することは自然言語処理における主要な課題のひとつである. BERT[1]をはじめ,さまざまな事前学習済みモデルを用いた感情推定の手法が対話システムやソーシャルメディアマイニングなどの分野で活発に研究されている [2]. 現実世界の人間に対する感情推定と同じように, ゲームなどのフィクション作品内のキャラクター に対する感情分析の研究も注目されている. 近年の技術発展とともに,ゲームの表現は高度に多様になり.ゲームの開発コストが膨れ上がる結果となった. 特に多数のキャラクターが登場するゲームにおいて,キャラクターのセリフにあわせて適切な感情表現や演出を指定するタスクが手作業で行われているため,現状多大な工数がかかっている. この課題を解決するには,自然言語理解によるキャラクター の感情推定の作業支援が必要である. 本研究では,フィクション作品内のキャラクター のセリフから感情推定について取り組む. 現実世界の人間との違いとして, キャラクターに対する感情推定の特徴は以下 2 点が挙げられる. 一つ目は,キャラクターによる感情表現の分布が人間と異なることである。コメディ作品のキャラク ターの感情表現が明るい傾向を示すことに対し,シリアスな作品のキャラクターはネガティブな感情を表現する場合が比較的多い。また,物語を通して多様な場面で活躍するメインキャラクターでは豊かな表現を持つことに対し, 物語の一部でしか登場しないサブキャラクターはその個性のイメージをより早くユーザに定着させるため,感情表現が偏るステレオタイプである可能性が高い [3]. 作品の基調, キャラクターの設定,または物語での役割に応じて感情表現の分布が変化することがあるが,逆にこれらの情報は事前に開示されることが多いため,補助情報として参照することで,キャラクターの感情表現をより正確に把握することができる. 二つ目は,キャラクターの感情を推定する際,文脈に対する依存度が人間より高い点である。本研究で指す「文脈」とは,感情推定の対象文前後のセリフなどのテキスト情報だけでなく,発話シーンの背景グラフィックや音楽の種類などの非テキスト情報を含む.依存度が人間より高い原因として,キャラクターのセリフは演出の都合や,画面で表示できる文字数などのインターフェイスによる制約があるため,現実世界の言葉より断片的であることが多い.感情推定の対象文として利用する場合,現実世界の人間の発話に比べて情報量が少ないセリフは,文脈情報を参照せず感情表現を正確に推定することが困難である。 本研究では,ゲームのシナリオスクリプトを題材として,テキストを主体とした対象文に,非テキストの参照情報を結合することにより,キャラクターの感情推定の精度を向上させることを試みた. その際複数の結合方法の効果について実験的に調査した. 本研究で提案した Reference Information Normalize Adapter (以下 RINA という) モデルを用いて,テキスト情報の分散表現ベクトルに対し参照情報による補正を行うことで,従来手法より推定精度の向上を確認した. ## 2 関連研究 テキストにおける感情推定は,マーケティング,心理学などの分野における膨大な応用の可能性から,これまでさまざまな手法が提案されている [2]. Raskin ら [4] はフィクション作品に注目し, 物語中の人物の心的状態を推定するためのデータセットとして, Story commonsense データセットを構築した. Story commonsense データセットを対象した感情推定に関する研究として,田辺ら [5][6] はコモンセンス知識を導入し,さらに推定対象文の先行文脈を対象文と連結させることによって,推定精度を向上させた. Gaonkar ら [7] は感情カテゴリ間の関係を考慮し,ラベル同士の共起関係の利用することでラベルなしデータによる半教師あり学習の手法を提案した. これらの研究は, 感情推定の対象文と関連するテキスト情報の利用に焦点を当てており,非テキスト情報を利用していない. 非テキストを含むマルチモーダル情報を扱うことを目的としたモデルはこれまで様々なものが提案されている. VilBERT[8] や VLBERT[9] などのモデルは,BERT の構造をそのまま流用し,非テキストの画像情報を入力の追加トークンとして利用している。しかし,これらのモデルのタスクは本来テキスト情報のみ利用した BERT の事前学習タスクと大きく異なるため,画像とテキストのマルチモー ダルデータを用いて改めて事前学習が必要である.上記課題の解決案として, Kiela ら [10] は画像情報を追加の入力トークンとして扱いながら,事前学習済みの BERT モデルを直接利用し,マルチモーダルデータをファインチューニング段階のみ利用する MMBT モデルを提案した。これまでのマルチモー ダルデータセットではテキストと非テキスト情報の重みが対等であることが多かった. しかし,本研究の対象する感情推定において,補助という位置付けの非テキスト情報に過大の重みを付けると,事前学習済みモデルによる分散表現に悪影響を及ぼす可能性がある。これに対しRahman ら [11] は画像・音声によるテキストにおける表現空間のベクトルを補正する手法を提案した. また, $\mathrm{Gu}$ ら [12] は複数のテキストと非テキスト情報を結合するモデル構造に対するベンチマークを行った. 図 1 提案手法のモデル構造 ## 3 提案手法 本研究の提案手法のモデル構造を図 1 に示す.まずテキスト情報同士を連結し,BERT などの事前学習済みモデルによるエンコードを行った。 その後, RINA モデルを用いて非テキスト情報を結合させた後, 複数の全結合層を経て出力し. 出力されたシー ケンスの [CLS]トークンのベクトルの分散表現を感情推定の対象として利用した。 ## 3.1 テキスト情報同士の結合 テキスト情報同士の BERT など事前学習済みモデルへの入力形式は,先行研究 [5] を参考し,以下のように対象文と関連文を記号「」により区切る形式とした. $[C L S]$ 対象文 | 関連文 $[S E P]$ ## 3.2 テキスト情報と非テキストの結合 本研究は以下 2 つのコンセプトに基づいて Reference Information Normalize Adapter (RINA) モデルを提案する。 マルチモーダル情報の結合は Transformer モデル出力の後に行う. 既存のマルチモーダルモデルの構造は Transformer の中間層にモダリティを跨ぐ Attention 機構を組み込むことが多いが,本研究では BERT[1] や XLNet[13] など Transformer の内部構造に 依存しない特性を重視し, Transformer の出力の後にモダリティの結合を行う Adapter 型の構造 [14] を利用した. ## 非テキスト情報を考慮しテキストの分散表現ベク トルを補正する. 感情推定の対象文の意味は分散表現としてべクトル空間で表現しているが,非テキスト情報を付随条件として与えられた際,対象文の意味の変化はベクトル空間上の変位として表現する. このテキストと非テキストの関係性を反映した変位ベクトルによって新しい分散表現を決定する。 $ \begin{array}{r} \boldsymbol{m}=\boldsymbol{t}+\alpha \boldsymbol{h} \\ \boldsymbol{h}=\boldsymbol{g} \odot(\boldsymbol{W} \boldsymbol{r})+b_{h} \\ \alpha=\min \left(\frac{\|\boldsymbol{x}\|_{2}}{\|\boldsymbol{h}\|_{2}} * \beta, 1\right) \\ \boldsymbol{g}=\mathrm{R}\left(W_{g}(\boldsymbol{r} \| \boldsymbol{t})+b_{r}\right) \end{array} $ ここで, $t$ はテキスト情報の入力行列, $r$ は非テキスト情報の入力行列, $b$ はスカラーバイアス, $W$ は重み行列, $R$ は活性化関数を表す. $\beta$ はゲーティング機構 $[11]$ のスケーリング係数を表す. $\beta$ を導入する目的として,クロスバリデーション段階でチュー ニングすることにより,非テキスト情報による補正の度合いを調整可能とする。 ## 4 実験 ## 4.1 データセット これまで先行研究では Story commonsense データセット [4]を採用するものが多いが,非テキスト情報が付与されていないため, 本実験では独自のゲー ムシナリオスクリプトをデータセットとして用いた. データセットでは 3 シーズンに分かれており. シーズン 1 からシーズン 2 を学習データとして使用し, シーズン 3 の約 $50 \%$ をイパーパラメータ最適化用にバリデーションデータ,残り $50 \%$ をストデータとして評価を行った. データ量は学習デー タ 19199 件,バリデーションデータ 4512 件,テストデータ 4484 件である. データに含まれる説明変数について,テキスト情報では対象文となるセリフと文脈のセリフ計 2 種類, 非テキスト情報ではキャラクターの名前, 性別などの属性や, 対象文が発生するシーンの ID 情報を含め計 9 種類を用いる. 推定対象となる目的変数はゲーム内対象文が発話時に表示されるキャラクターの表情画像の種類を用表 1 実験で利用する各手法のマルチモーダル情報の結合 いる.表情画像は「通常」,「怒り」,「悲しみ」,「驚き」,「笑い」計 5 種類である. ## 4.2 ベースライン 提案手法の比較対象とするべースライン手法は表 1 で示す. BERT text only はテキストのみ利用するモデルである. BERT w/concat は非テキスト情報を Transformer の追加トークンとして入力するモデルとして,BERT w/MLP は非テキスト情報を多層パーセプトロンに入力し, その出力を Transformer の出力と結合するモデルを表している。 ## 4.3 訓練設定 事前学習済みモデルは東北大学が公開した BERT base Japanese (unidic-lite with whole word mask- した Wikipedia データセットと今回の対象となるゲームシナリオのドメインが離れていたたため, データセットに存在し, BERT の Tokenizer 辞書に存在しない頻出 n-gram の上位 179 件を辞書に追加した上, Gururangan ら [15] が提案した Domain-Adaptive Pretraining を用いて本データセットの全テキストに対して 5 Epoch の追加事前学習を行った. 追加事前学習ではバッチサイズを 64 ,トークンのマスク率を $15 \%$ に設定した。 追加事前学習済みのモデルを用いてべースラインと提案モデルを実装する際のハイパーパラメータは以下で示す. - Epoch 数: 10 - 学習率 $\alpha: 3 \times 10^{-5}$ ・バッチサイズ: 64 - 最大入力長: 128 - Dropout 率: 0.2 - 活性化関数 R: ReLU ・ゲーティング機構のスケーリング係数 $\beta: 0.4$  ## 4.4 評価指標 マルチクラス分類タスクの評価指標として $F 1_{\text {micro }}$ スコアと $F 1_{\text {macro }}$ スコアを用いる. ## 4.5 実験結果 実験の結果を表 2 で示す. 本研究が利用するシナリオスクリプトデータセットにおいて,F1 $1_{\text {micro }}$ は全体件数に対する推定精度,F $1_{\text {macro }}$ は各クラスに対する推定精度のバランスを反映した。全体のスコアの傾向として,データセット内の表情画像が「通常」と表示されるセリフは約 $40 \%$ 占めているため,件数が少ない「怒り」,「悲しみ」,「驚き」,「笑い」クラスの推定精度は「通常」クラスより低い傾向を示している. また,各手法の $F 1_{\text {macro }}$ と $F 1_{\text {micro }}$ の変化は同じ傾向を示している. 各手法の非テキスト特徴を取りこむ有効性の比較において,非テキスト情報を利用しない BERT text only が最も推定精度が低いモデルである. これはデータセットの非テキスト情報がキャラクターの感情推定に寄与することを示唆している. テキスト情報と非テキスト情報を結合させる手法の中, BERT w/MLP では $F 1_{\text {micro }}$ において BERT w/concat を上回るが,F1 macro においてはBERT w/concat より低いことから,非テキスト情報を Transformer 入力段階のトークンとして追加する手法と,Transformer 出力で結合させる手法に大きな差が見られないことが明らかになった。 提案手法の BERT w/RINA について, $F 1_{\text {micro }}$ と $F 1_{\text {macro }} 2$ つの指標が他の手法と比較して最も高いスコアを確認している. これは今回使用しているデータセットにおいて,RINA を利用したテキスト情報の分散表現ベクトルを補正する手法の有効性を証明した。 ## 4.6 考察 本研究のタスクである感情推定と,本データセットのテキストが主体情報,非テキストが補助情報という特徴が,前節で述べた RINA のコンセプトに適しているが原因であるが,非テキスト情報がタスクにおける重要度がテキスト情報と同等もしくは以上の場合,他の手法がより推定精度が高い可能性があるため,今後の課題としてデータセットのラインアップを追加し検証したい.表 2 各手法の表情クラス推定精度の比較 ## 5 おわりに 本研究では,ゲームのシナリオスクリプトに注目し,テキストと非テキスト情報を含むマルチモーダルデータセットを対象として,セリフ発話時のキャラクターの感情を推定する手法の提案した。今回提案する RINA モデルを用いて,テキスト情報の分散表現ベクトルに対し参照情報による補正を行うことで,従来手法より推定精度の向上を確認した. また,今回利用する非テキスト情報はカテゴリや数值形式のデータに限定しているが,今後の取り組みとして,表情画像を直接入力として利用するなど,多様なモダリティに対応できるよう RINA モデルの構造の改善を行いたい. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Armin Seyeditabari, Narges Tabari, and Wlodek Zadrozny. Emotion detection in text: a review. ArXiv, Vol. abs/1806.00674, , 2018. [3] 金水敏. 役割語研究の展開. くろしお出版, 2011. [4] Hannah Rashkin, Antoine Bosselut, Maarten Sap, Kevin Knight, and Yejin Choi. Modeling naive psychology of characters in simple commonsense stories. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2289-2299, Melbourne, Australia, July 2018. Association for Computational Linguistics. [5] Hikari Tanabe, Tetsuji Ogawa, Tetsunori Kobayashi, and Yoshihiko Hayashi. Exploiting narrative context and a priori knowledge of categories in textual emotion classification. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 5535-5540, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [6] 田辺ひかり, 小川哲司, 小林哲則, 林良彦. コモンセンス知識を利用した物語中の登場人物の感情推定. 言語処理学会第 27 回年次大会発表論文集. [7] Radhika Gaonkar, Heeyoung Kwon, Mohaddeseh Bastan, Niranjan Balasubramanian, and Nathanael Chambers. Modeling label semantics for predicting emotional reactions. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 46874692, Online, July 2020. Association for Computational Linguistics. [8] Jiasen Lu, Dhruv Batra, Devi Parikh, and Stefan Lee. Vilbert: Pretraining task-agnostic visiolinguistic representations for vision-and-language tasks. In $\mathrm{H}$. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc., 2019. [9] Weijie Su, Xizhou Zhu, Yue Cao, Bin Li, Lewei Lu, Furu Wei, and Jifeng Dai. VL-BERT: pre-training of generic visual-linguistic representations. CoRR, Vol. abs/1908.08530, , 2019. [10] Douwe Kiela, Suvrat Bhooshan, Hamed Firooz, and Davide Testuggine. Supervised multimodal bitransformers for classifying images and text. ArXiv, Vol. abs/1909.02950, , 2019. [11] Wasifur Rahman, Md Kamrul Hasan, Sangwu Lee, AmirAli Bagher Zadeh, Chengfeng Mao, Louis-Philippe Morency, and Ehsan Hoque. Integrating multimodal information in large pretrained transformers. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2359-2369, Online, July 2020. Association for Computational Linguistics. [12] Ken Gu and Akshay Budhkar. A package for learning on tabular and text data with transformers. In Proceedings of the Third Workshop on Multimodal Artificial Intelligence, pp. 69-73, Mexico City, Mexico, June 2021. Association for Computational Linguistics. [13] Zhilin Yang, Zihang Dai, Yiming Yang, Jaime G. Carbonell, Ruslan Salakhutdinov, and Quoc V. Le. Xlnet: Generalized autoregressive pretraining for language understanding. CoRR, Vol. abs/1906.08237, , 2019. [14] Neil Houlsby, Andrei Giurgiu, Stanislaw Jastrzebski, Bruna Morrone, Quentin de Laroussilhe, Andrea Gesmundo, Mona Attariyan, and Sylvain Gelly. Parameterefficient transfer learning for nlp, 2019. [15] Suchin Gururangan, Ana Marasovic, Swabha Swayamdipta, Kyle Lo, Iz Beltagy, Doug Downey, and Noah A. Smith. Don't stop pretraining: Adapt language models to domains and tasks. CoRR, Vol. abs/2004.10964, , 2020.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A6-3.pdf
# 共学習によるレビュー文書からのネガティブな意見文の抽出 三戸尚樹 ${ }^{1}$ 古宮嘉那子 ${ }^{2}$ 佐々木稔 ${ }^{3}$ ${ }^{1}$ 東京農工大学 工学部 ${ }^{2}$ 東京農工大学 工学研究院 ${ }^{3}$ 茨城大学 工学部 s202436r@st.go.tuat.ac.jp, kkomiya@go.tuat.ac.jp, minoru. sasaki.01@vc. ibaraki.ac.jp ## 概要 本研究では,評点のみが付与された一般的なレビユーを用いて,文レベルのネガティブな意見の抽出を行う。具体的にはレビューを文単位に分割してもともとのレビュー全体の評点を付与し,それらのデ一夕を利用して共学習を行うことでデータ不足を補い,ネガティブなレビューを抽出する.分類器には BERT を利用し, 対象商品には工具を用いた. 本研究では,文単位の共学習を利用することにより,より性能の高い抽出を行うことがでることを示す. ## 1 はじめに 評判分析とは,テキスト情報をテキストマイニングや機械学習の技術を用いて,肯定的な評価をしている記述と否定的な評価をしている記述に分類する技術である. SNS やブログ,EC サイトの普及により,ユーザーの生の声を企業が把握することができる評判分析は多くの企業や研究者から注目を集めている. Amazon や楽天で商品を販売している企業にとつて,購入者のレビューは商品改良の重要な手掛かりであるため,レビュー本文からネガティブな意見を抽出する事が求められる。ところが,(1) 評点は悪くないレビューの中にネガティブな意見が含まれている場合があり,そのような意見抽出は従来の評点の予測による評判分析の技術では抽出できない. また, (2) ネガティブなレビューの割合はポジティブなレビューに比べて少ないことが多いため, 二値分類の単純な分類器では抽出が難しい, という問題がある. そのため本研究では, 評点のみが付与された一般的なレビューを用いて,文レベルのネガティブな意見の抽出を行う. 本研究では, まずレビューを文単位に分割してもともとのレビュー全体の評点を付与して疑似的な訓練事例とすることで,文単位のネガティブな意見抽出を行う。また,共学習を利用してデータ不足を補い,ネガティブなレビューを抽出す る. 共学習とは, 教師-生徒のように一方が指導し一方が学習するのではなく,自律した個同士が教え・教わる関係を同時に成立させている状態を表すモデルである。一方の知識レベル向上が他方の知識レベルの向上を促進することで相乗的な学習効果が期待できる[1]. 本研究では, Amazon と楽天の工機ホールディングスの製品のレビューデータからネガティブなデー 夕の抽出を行った. Amazon のレビューデータのみで作成したモデルと楽天のレビューデータのみで作成したモデルを共学習させる事により,一つの分類器で学習したモデルでの精度よりもネガティブなデ一夕の抽出の精度が高くなる事を示す。 ## 2 関連研究 Bidirectional Encoder Representations from Transformers (BERT) (Devlin et al., 2019)[1]とは, 2018 年 10 月に Google の Jacob Devlin らの論文で発表された事前学習モデルである。BERT は Transformer[2]の Encoder を使ったモデルである.文章の文脈を読むことが可能なモデルであり,文書分類や質問応答など,言語処理の多種多様なタスクにおいて当時の最高スコアを吒き出した.GRUと BERT を使用し, 略語やスラング,スペルミス等のデータとしてノイズが多い Twitter の評判分析を行っている研究もある[3]. ## 3 共学習によるデータ選別を利用し た評判分析 本研究では,評点のみが与えられたレビューの文集合から,ネガティブな意見抽出を行う。そのため,まずレビューを文単位に区切り,それぞれの文に暫定的にレビューの評点を付与する。この際, 評点が 1 と 2 についてはネガティブ,評点が $3 , 4$ , 5 についてはポジティブ(非ネガティブ)とした. これにより文ごとにおおまかに正しいポジティブ/ ネガティブの評点のついたデータが生成できるが,評点は悪くないレビューの中にネガティブな意見が含まれている場合や,その逆の場合には不正確なデ一タが混じった状態になる. また, ネガティブな意見は全体のレビューの中で少ない傾向があり, 二値分類の単純な分類器では抽出が難しい。そこで本研究では, 共学習を用いてデータ不足を解消しつつ, より正しいと思われる評点のついた文データを訓練事例に足してゆくことで,これらの問題を解決することを試みる。 本研究では Amazon のレビューデータ[5]から作成した BERT モデルと楽天のレビューデータ[6]から作成した BERT モデルの 2 つのモデルで使って共学習を行った。 本研究では, Amazon のレビューデータからのみ訓練させた BERT モデルと楽天のレビューデータのみで訓練された BERT モデルの 2 つのモデルで共学習を行った。共学習は以下の手順によって行う. (1)Amazon データと楽天データを訓練データとテストデータに分ける (2)モデルを二つ作成する.この際,一つ目のモデルは Amazon の訓練データのみ,ふたつ目のモデルは楽天の訓練データのみで学習を行う。また,ハイパーパラメータの調整には,一つ目のモデルには楽天の訓練データを,ふたつ目のモデルには Amazon の訓練データを利用する. (3)モデルにテストデータを適用する。この際,一つ目のモデルには楽天のテストデータを,ふたつ目のモデルには Amazon のテストデータを適用する. (4) テストデータのうち, 高い確信度でネガティブであると判定されたデータを抽出する (5) (4)で抽出したネガティブなデータをネガティブな訓練データとしてもともとの訓練データに追加する。また,この際に,ポジティブな訓練データをランダムに選択して同時に訓練データに追加する。 この際,ポジティブなデータは推論結果ではなく, レビューの評点を利用して追加した (6) これらのデータを訓練データとして,次のモデルを学習する (7) (3)-(6)を繰り返す (8) ふたつのモデルの最終的な訓練データを合計して,新しいモデルを学習し,これを最終的なモデルとする ## 4 データ 本研究は,ネガティブな意見を文単位で抽出することを目的とする.実験に際して,文ごとのアノテ ーションつきデータを含む対象商品のレビューと文ごとのアノテーションのない別商品のレビューデー 夕の二つを使用した。 まず,対象商品のデータは工機ホールディングスの商品と工機ホールディングスの競合企業の商品の Amazon と楽天のレビューデータである. 工機ホー ルディングスの Amazon データ 515 件,楽天データ 234 件, 競合企業の Amazon データ 770 件, 楽天デ一夕 820 件から成る. その中でも極性とレビュー本文のセットが 1,963 件,極性とレビュー本文,工機ホールディングスが抽出したいと考えているネガテイブな文がアノテーションされているデータが 376 件である。極性ごとのデータ件数を表 1 に示す。アノテーションは工機ホールディングスの社員によって行われた。 表 1 対象商品データの極性の分布 表 2 レビューデータの極性の分布 次に,文ごとのアノテーションのないレビューデ一夕は,ランダムに抽出した Amazon データ 5,000 件と工機ホールディングスが販売している製品と同 じジャンルの工具の楽天データ 46,617 件である. Amazon データのジャンルについては, ベビー用品など多岐にわたる.極性ごとのデータ件数を,表 2 に示す. ## 5 実験 BERT の訓練には, 最適化関数は SGD, 損失関数はクロスエントロピー誤差を用いた。 Amazon のレビューデータは,訓練データを 1,165 件,テストデータを 3,001 件に分けた。楽天データは,訓練データ 2,000 件,テストデータを 1,730 件に分けた,そのうえで,レビューデータを文レベルに分割し,レビューの評点を文に付与した。 ベースラインの文レベルの評点の分布およびポジティブとネガティブのデータ件数を表 3 に示す. なお,a はアノテーションでネガティブとラベル付けしたデー タである. また, 列を示す 1 から 5 は五分割交差検定のテストデータを示す. レビューごとに評点を付与した後, データ件数が均等になるように五分割交差検定のデータセットを分けたため,アノテーションでネガティブとラベル付けしたデータには偏りが生じている. なお, 訓練データのネガティブの割合は,5.52\%から $8.86 \%$ になる. 表 3 ベースラインの文レベルの評点の分布 また,提案手法において,データを追加する前の文レベルの評点の分布とポジティブとネガティブのデータ件数を表 4 に示す. このデータを 1 回目のモデルの訓練事例とした. なお, 訓練データのネガテイブの割合は, Amazonデータは $15.98 \%$, 楽天デー 表 4 共学習の 1 回目のモデルの訓練データに使用した文レベルの評点の分布 共学習を行う上でポジティブなデータの足し方として,以下の 2 つの手法で実験を行った. (1) 事前確率の割合でデータを足す手法 (2) 同数のデータを足す手法 (1)事前確率の割合でデータを足す手法では, 例えば Amazon のみで訓練を行った BERT モデルがネガティブであると推論した件数が 100 件だった場合,事前に訓練させた楽天の BERT モデルと同じ割合(1:9)を保つために, 900 件のポジティブのデータを追加した. (2)同数のデータを足す手法では,例えば Amazon のみで訓練を行った BERT モデルがネガティブであると推論した件数が 100 件だった場合, 100 件のポジティブのデータを追加した. モデルの作成は三回繰り返した。つまり, デー タの追加は二度行った。 推論時の確信度は, softmax 関数のネガティブの值が 0.8 以上のデータを抽出した. 提案手法の訓練には, 評点のみ付与された Amazon および楽天のレビューデータを用い, 評価する時のみ, 対象商品のデータを用いた。これに対し, 本研究のベースラインには, 対象商品のデータで五分割交差検定を行ったものを用いる。まず,文に分割し,文にはレビューの評点を付与した. さらに, 376 件のアノテーションつきデータについては,レビューの評点にかかわらずネガティブなデー タとして使用した。 また,モデルにはベースラインを含めて,どれも BERT を fine-tuning して利用した. ベースラインおよび共学習を行った全てのモデルのハイパーパラメ一夕は, 0.0001 となった. ## 6 結果 ベースラインの結果を表 5 に,事前確率の割合でデータを足した手法の結果を表 6 に,また,同数のデータを足した手法の結果を表 7 に示す. 表の $\mathrm{EPOCH}$ は 30 エポック回した中の $\mathrm{F}$ 値が最高だったときのエポック数である. またその時点での精度,再現率, $\mathrm{F}$ 值を表に示した。表 5-7から, ふたつの提案手法の精度, $\mathrm{F}$ 值がベースラインを超える事を確認できた。また,同数のデータを足した場合には再現率もべースラインを上回った. 表 5 ベースラインの結果 表 6 事前確率の割合で足した場合の結果 表 7 同数のデータを足した場合の結果 ## 7 考察 提案手法では, 文レベルでアノテーションされたテストデータの情報は一切用いていないのに対し, ベースラインではこれらの用例を五分割交差検定に用いている。それにもかかわらず,提案手法の $\mathrm{F}$值はベースラインを上回った。このことから,評点のみが付与されているレビューデータからのネガテイブな意見抽出のタスクに共学習を用いた提案手法が有効であると分かる。また,事前確率の割合でポジティブなデータを追加した場合より,ネガティブなデータと同数のポジティブなデータを追加した場合の方が $\mathrm{F}$ 值が高かった. これは, 偏りのある事前確率の割合でポジティブデータを足したため,ネガティブなデータの割合が非常に低くなった結果,再現率が低くなったためであると考えられる。一般に,精度と再現率はトレードオフの関係にあるが,今回の実験ではこの偏りの影響をうまく回避できたため, 同数のデータを足した場合の $\mathrm{F}$ 值が他手法を上回ったと考えられる。 共学習を終えた時の事前学習の割合でデータを足した場合と同数のデータを足した場合のデータのネガティブとポジティブの分布を表 8 に示す. 同数のデータを足した場合にはネガティブなデータの割合が高まっているのが見て取れる.レビューの評点を文に付与した「おおよそ正しいデータ」をもとに,信頼性の高いネガティブデータを抽出し,なおかつ同数のポジティブデータを足すことで共学習において正解率を高めることができたと考えられる。 表 8 共学習を終えた時のネガ/ポジの分布 & \\ ## 8 おわりに 本研究では, Amazon と楽天のレビューデータから工機ホールディングスが抽出したいネガティブなデ一夕の抽出を行った. その結果, 共学習を利用した BERT モデルは, ベースラインを超える精度でデー 夕抽出を行える事が明らかになった。今後は, 精度の向上とポジティブのデータ抽出方法について検討する必要がある. ## 謝辞 工機ホールディングスの西河智雅様, 吉嵪陽祐様には, 本研究のベースライン, 評価データで使用するデータを準備していただきました。また,楽天デ一タにつきましては, 国立情報学研究所の楽天市場データを利用させていただきました。この場を借りて御礼申し上げます. 本研究は JSPS 科研費 17H00917,17KK0002,18K11421の助成を受けたものです. ## 参考文献 1. Anders Sogaard, Semi-Supervised Learning and Domain Adaptation in Natural Language Processing (Synthesis Lectures on Human Language Technologies), Morgan \& Claypool Publishers, 2013 2. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova, Computation and Language 2018 3. Transformers for Language Understanding, Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova, In Proceedings of NAACL-HLT 2019, pp. 4171-4186, (2019) 4. GRUBERT A GRU-Based Method to Fuse BERT Hidden Layers for Twitter Sentiment Analysis, Leo Horne, Matthias Matti, Pouya Pourjafar, Zuowen Wang, Association for Computational Linguistics 2020, pp. 130-138, (2020) https://s3. console. aws. amazon. com/s3/buckets/a mazon-reviews-ml?region=us-west- 2\&prefix=json/\&showversions=false 6. 楽天グループ株式会社 (2021):楽天市場デー タ. 国立情報学研究所情報学研究データリポジトリ. https://doi.org/10.32130/idr. 2.1
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A6-4.pdf
# レビューから抽出されたキーフレーズと感情スコアを 用いた評判分析 HUANG YIPU ${ ^{1}$ 佐々木稔 1 古宮嘉那子 ${ }^{2}$ 1 茨城大学工学部情報工学研究科 2 東京農工大学工学研究院 21nm723s@vc.ibaraki.ac.jp minoru.sasaki.01@vc.ibaraki.ac.jp kkomiya@go.tuat.ac.jp ## 概要 近年, Web サイトには,さまざまな商品についての購入者のレビューが揭載されるようになった,企業の担当者はこれらのレビューを閲覧することにより, 商品の利用者側の立場からの意見を収集・分析し,商品の改良に利用しょうと考えている。しかし, 既存の分析手法ではレビューを単語に分けて分析を行っており,フレーズとなっている機能名に対する分析は行っていない。そこで我々は,レビューから抽出されたキーフレーズの頻度と感情スコアによって得られる決定木モデルを用いた評判分析手法を提案する.実験の結果,キーフレー ズを用いた提案手法は単語単位で分析を行う既存手法と比較して 3 ポイントの精度改善をすることができた。 ## 1 はじめに 消費者が商品やサービスを購買する際に,必ずというほど参考にするのが,レビュー情報だ。実際レビュー分析が, 個人にだけではなく,企業にとって多くのメリットがある。 例えば,商品企画への活用,ユーザーのニ一ズや不満を分析し, 機能やサービス改善のヒントとする,プロモーションやマーケティング施策の効果検証などは企業レビュ一分析の効果である. 商品を改良するため, レビュー者が商品のどのところを気にし, 更に評価はどうかを知ることが必要である。そこで,我々はキーフレーズの出現頻度,感情スコアを 2 つ基準でレビュー判断される。例えば,キ ーフレーズの出現頻度が高い, 感情スコアも高いのは「皆の関心度が高い, そして評判も良い」, すぐに改良しなくてもよい商品だと判断する。 今回は,あるレビューからキーフレーズ (重要語)抽出し,キーフレーズが key として, キーフレーズの出現頻度が value として,辞書を作る。そして,レビュー文から感情スコア計算し, 感情スコア, キーフレ一ズの頻度を説明変数と扱い, 改良の必要かどうかまたは優先度を目的変数と扱い,決定木モデルを作成する. 以下は, キーフレーズの抽出, 感情スコア計算, 決定木モデルの作成, 品質の評価について述べる. ## 2 関連研究 これまで,レビュー分析の方法がいくつかの研究例があります.小林[1]では,web ページからレビューを収集分析する,彼らが tf-idf を利用してキーワードを抽出し,更に感情表す単語を抽出し,キーワードと感情表現単語を組合せという手法です.しかし,様々なレビユーから抽出の感情語が多様化,全体像を把握することが難しい. ## 3 キーフレーズの抽出 ## 3.1 キーフレーズの概要 キーフレーズ抽出は,文書中からその文書をよく表現する句(フレーズ)を抽出する技術である。ここでいうフレーズとは意味がひとまとまりの単語集合ですが,実際には名詞句が採用されることが多い。既に存在する方法が多くある, PageRank[2], TextRank[3], SingleRank[4], TopicRank[5]等がある. ## 3.2 抽出過程 今回は pke[6]を用いてキーフレーズを抽出する. pke は MultipartieRank[7] の論文の著者である Florian Boudin 氏が公開しており, GPL 3.0 だので, 商用利用も可能だ. & ['軽量化'] \\ ## 3.3 キーフレーズの頻度 レビューから客様が商品に対する関心度を知るため, 各キーフレーズの頻度計算が重要である。キーフレーズの出現回数による,value 值を付けて,辞書を作る。 ## 表 2 辞書例 表 3 キーフレーズ頻度 $\mathrm{z}$ の定義 $ \begin{gathered} x=\text { キーフレーズの発生回数 } \\ \mu=\frac{\text { キーフレーズ発生総回数 }}{\text { キーフレーズ数 }} \\ \sigma=\sqrt{\frac{1}{n} \sum_{i=1}^{n}(x-\mu)^{2}} \\ z=\frac{x-\mu}{\sigma} \end{gathered} $ キーフレーズの抽出効果は以下に 「トルクは申し分なく握った時の重量配分も問題ない」 $\rightarrow$ 「トルク,申し分, 重量配分,問題」 $\rightarrow$ 「1.7452,-0.923112,0.4218, 2.9283233.これから, 各レビューはキー フレーズの頻度に表示された。 ## 4 感情スコア計算 レビューから客様の評価の良いか悪いかの判断を,感情分析に行う. ## 4.1 モデル ここでは huggingface の bert-base-japanesesentiment[8]を用いた。 図 1 モデル試すの効果 ## 4.2 手順 ここで感情分析を効果的に行うためには,感情スコアを $[-1,1]$ の間で浮遊させる必要がある. bert-base-japanese-sentiment モデルを利用して, 結果を少し改良する. ## 表 4 感情スコア ‘ポジティブの場合 : $ \text { score }=2 \times \text { score }-1 $ ‘ポジティブ’の場合 : $ \text { score }=1-2 \times \text { score } $ ## 4.3 結果 一つずつレビュー文が感情スコアを付ける。以下は結果の一部になる. Text1:そして電池の持ちがいい Score:0.9681352376937866 text2:本体部分が小さいのはびっくりで score: 0.771661639213562 text3: 多少重いがやむを得ないか score: -0.9029324054718018 ## 5 決定木モデル ## 5.1 概要 決定木分析は「予測」や「判別」,「分類」を目的として使われるデータマイニング手法だ. 顧客情報やアンケート結果などについて,“従属変数”に影響する “説明変数”を見つけ,樹木状のモデルを作成する分析方法となる。 ## 5.2 説明変数 説明変数は,分析すべき対象である。ここは, 関心度 (キーフレーズの頻度), 感情スコア値を説明変数として行う。 ## 5.3 目的変数 目的変数は, 色々説明変数に影響されて明るくに結果を表示するものである。ここは, A,B,C,D,E,F 六つ種類として目的変数を設定する。 表 5 目的変数の定義 具体的に言われば $\mathrm{A}$ :注目されて評価良い $\mathrm{B}$ :注目されて評価悪い $\mathrm{C}$ : 注目されなくて評価良い $\mathrm{D}$ :注目されなくて評価悪い そして, 企業に対する, 改良の優先度順番はBDCA. ## 5.4 決定木モデルの構築 決定木モデルの構築すれば,説明変数と目的変数が必要だ。説明変数は, キーフレ ーズの頻度と感情スコア, 前に計算して付けたものだ,目的変数は,また明膫的に見えない要素だ。データセットは学習用デー タとテストデータに $3: 7$ の割合で分割される. そして, 学習用データに手動的で目的変数を追加する. 表 6 決定木モデル 今度は CART 決定木[9]で分析を行う。 図 2 決定木概念図 ## 6 品質の評価 ## 6.1 方法 作成したモデルがうまく動くかどうかを検証するために,559つ商品レビューを利用してキーフレーズの頻度, 感情スコアに変化する, モデルの精度に評価する。 ## 6.2 結果 結果を表 6 に示す. 表 6 評価結果 この結果より, 約 $83 \%$ のレビューの結果を当たってる. ## 6.3 分析と比較 結果見れば,この決定木モデル手法が有効になる.今の提案と小林らのレビュ一分析手法を比べる 表 7 手法比較 & 感情分析 & & 精度 \\ 自分が提案手法が小林らより,全体像把握することができて,精度が少し上がる.そして,モデルを利用して,レビュー対する,企業が次商品の改良優先順位が明膫的に表示することができます. ただし,改良すべきところも存在する。 ## 7 終わりに 企業が商品を改良するために, レビュー に対するの分析が重要だ. ここに商品の関心度と評判を知るため, キーフレーズの頻度と感情スコアを説明変数として CART 決定木を提案する。この $\mathrm{ABCD}$ の四つ種類の目的変数によって, 企業が次に商品の改良手順が決める. 今後の課題として, レビュ一分析の精度上がるため, キーフレーズ抽出手法を改良しておる, 同時決定木モデルの改良を検討している. ## 謝辞 本研究は茨城大学工学部情報工学研究科佐々木自然言語処理研究室により得られたものです. また先生からご協力いただきました。ここに御礼申し上げます。 ## 参考文献 [1]小林大祐, 長尾俊一, 須藤大輔, 井上潮, Web ページの文章解析によるユーザレビユーの収集・分析システムの提案, DEWS2008 B8-2 [2]Sullivan, Danny. What Is Google PageRank? A Guide For Searchers \& Webmasters. Search Engine Land. [2018-12$09]$. [3]Torres-Moreno, Juan-Manuel (1 October 2014). Automatic Text Summarization. Wiley. pp. 320-. ISBN 978-1-848-21668-6. [4]Berger, A., and Mittal, V. 2000. OCELOT: A system for summarizing Web Pages. In Proceedings of SIGIR2000. [5]Taher H. Haveliwala. 2003. TopicSensitive PageRank: A Context-Sensitive Ranking Algorithm for Web Search. IEEE Transactions on Knowledge and Data Engineering, 15(4):784-796 [6]Paar, Christof; Pelzl, Jan; Preneel, Bart (2010). Understanding Cryptography: A Textbook for Students and Practitioners. Springer. ISBN 978-3-642-04100-6. [7]F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel,B. Thirion, O. Grisel, M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg, J. Vanderplas, A. Passos, D. Cournapeau, M. Brucher, M. Perrot, and E. Duchesnay. 2011. Scikit-learn: Machine learning in Python. Journal of Machine Learning Research 12:2825-2830. [8]"daigo/bert-base-japanese-sentiment " 19 May 2021.[Online]. Available: https://huggingface.co/daigo/bert-basejapanese-sentiment [Accessed 19 May 2021]. [9]Quinlan, J. Ross: Induction of decision trees, Machine learning, Vol. 1, No.1, pp. 81106 (1986).
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A6-5.pdf
# 直近 1 年の動向を考慮した最新論文のインパクト予測 平子潤笹野遼平武田浩一 名古屋大学大学院情報学研究科 hirako.jun.e5@s.mail.nagoya-u.ac.jp \{sasano, takedasu\}@i.nagoya-u.ac.jp ## 概要 発表される論文の増加に伴い,新たに発表された論文の将来的なインパクトを自動で予測する技術の重要性は増している. 本研究では,論文のインパク卜予測を発表から 1 年後の被引用数予測として定式化し,学習データとしてそのまま用いることができない,発表から 1 年未満の論文から得られる情報を活用する手法を提案する。また, arXiv から収集した約 17,000 の論文を用いた実験を通して,直近 1 年以内の論文を活用することの有効性を示す. ## 1 はじめに 近年,自然言語処理を含む人工知能分野の論文数は大きく増加しており,興味があるトピックに絞ったとしても全ての論文に目を通すことは困難になっている。このため,同時期に発表された論文の中から,将来的なインパクトが大きくなる重要性の高い論文を選択的に自動提示する技術が求められている. 本研究では,このようなインパクトの指標として発表から 1 年後の被引用数を採用し, 新たに発表された論文の 1 年後の被引用数予測に取り組む. 発表から 1 年後の被引用数予測において,学習データとしてそのまま使用できるのは 1 年後の被引用数が既知の論文,すなわち,発表から 1 年以上経過した論文のみである. しかし,人工知能分野の技術革新の速度は増しており,直近 1 年以内に発表された論文から得られる情報を用い,最新の動向を捉えることが重要であると考えられる。そこで本研究では, 1 年後の被引用数予測において,直近 1 年以内に発表された論文を活用する 2 つ手法を提案する. 1 つ目の被引用数補完では,過去の論文の被引用数の経過月数ごとの推移を利用し, 発表から 1 年未満の論文の 1 年後の被引用数を予測することで,発表から 1 年未満の論文を学習データとして利用する. 2 つ目の早期導入度の利用では, 被引用数予測対象の論文が,直近 1 年以内に発表された被引用数 の高い論文を引用しているかどうかの情報 (早期導入度) を利用する.これは発表後,短期間で多く引用されている論文は重要な研究成果を報告している可能性が高く,そのような重要な研究成果をいち早く取り込んでいる研究も,新規性が高く技術的貢献が大きい可能性が高いという直観に基づいている. 被引用数予測に取り組んだ研究はすでに多く存在する. 初期の研究として Fu ら [1] は,被引用数予測を分類と回帰で定式化し,論文のアブストラクトやジャーナルのインパクトファクターなどの被引用数予測において有効な特徴量を調査した. Li ら [2] は,論文に対応した複数の査読テキストを被引用数予測に活用した. Dongen ら [3] は,より大規模なデータセットを使いつつ,BERTを用いて効率的に論文の本文をエンコードし,被引用数予測を行った.しかし,これらの研究では,予測対象の論文が発表された時点では利用できない情報,具体的にはその論文と近い時期に発表された論文の将来的な被引用数を利用しており,発表されてから間もない論文の将来的な被引用数予測には適用できない設定が採用されている。これに対し,本研究では被引用数予測の対象論文が発表された時点の情報だけを利用するという設定を採用し,そのような設定における直近 1 年以内の論文の活用方法を提案する. ## 2 最新論文を活用した被引用数予測 ## 2.1 問題設定 本研究では,論文の著者情報とタイトル,アブストラクトから,その論文の発表から 1 年後の被引用スコアを予測するタスクに取り組む。被引用スコアは, Wenniger ら [4] に倣い, 被引用数の対数, すなわち論文の発表から 1 年後の被引用数 $c$ に対し, $\log (c+1)$ と定義する. 学習に使用できる情報は,被引用数予測の対象論文が発表された時点で入手可能な情報に限定する. すなわち,本研究で予測対象とする 1 年後の被引用 表 $1 \mathrm{n}$ ケ月以内に発表された被引用数が上位 $k_{1} \sim k_{2} \%$ の論文を引用している論文の発表 1 年後の被引用数の平均.「引用なし」は, $\mathrm{n}$ ヶ以以に発表された論文を引用していない論文,括弧内の数字は各グループに属する論文の割合を示す. 数情報が利用できるのは,それより 1 年以上前に発表された論文のみであり,直近 1 年に発表された論文についてはその時点の被引用数のみを利用する。 ## 2.2 ベースライン手法 Transformer [5] ベースの事前学習済みモデルである BERT [6] を fine-tuning することで,被引用数予測を行う,入力に用いる情報は,著者情報,タイトル,アブストラクトとし,1文目として著者情報とタイトルを繋げたもの,2 文目としてアブストラクトを入力する.ただし,著者情報には著者名ではなく, 以下の手順で生成する特殊トークンを用いる. まず,論文の各著者がその論文発表時から見て 1 年以上前かつ 5 年以内に発表した論文の発表 1 年後の被引用数を収集する,続いて,各著者ごとに平均被引用数を算出し, さらにその值を全著者で平均した値をその論文の著者スコアとする。このような著者スコアを学習用論文すべてに対し算出し,スコ 上位 10\%のグループであれば [著者 $0 \sim 10 \%] , 50 \% \sim$ 60\%のグループであれば[著者 50 60\%]といった特殊トークンを生成する。 BERT の出力として, 特殊トークンである [CLS] に対応するべクトルを利用し,CLS ベクトルを線形変換することで,被引用スコアの予測值を得る. 学習中には CLS ベクトルにドロップアウト [7]を適用し, 予測値と被引用スコアの平均二乗誤差 (MSE) が最小になるように学習を行う. ## 2.3 被引用数補完 予測対象である 1 年後の被引用数情報が利用できるのは,発表から 1 年以上経過した論文のみであるが,最新の動向を反映したモデルを構築するためには,発表から 1 年未満の論文も考慮することが重要であると考えられる. そこで,過去の論文の被引用数の経過月数ごとの推移を利用し, 発表から 1 年未満の論文の 1 年後の被引用数を予測することで,被引用数の補完を行い, 発表から 1 年未満の論文を学習データとして利用する.被引用数の補完には次の事例ベースの手法と比率べースの手法を併用する. 事例ベース学習用論文において,発表から $n$ ヶ月後に被引用数が $c$ の論文の 1 年後の被引用数を全て抽出し,その中央值を利用 比率ベース発表から $n$ ケ月後の被引用数の平均と発表から 1 年後の被引用数の平均の比を計算し, 被引用数 $c$ に掛けた值を利用 事例ベースの補完は,同じ被引用数をもつ論文が多数存在しうる “被引用が少ない論文” に対しては正確な補完が期待できる一方で,同じ被引用数をもつ論文がない,または,少ないと考えられる“被引用が多い論文”には適していないと考えられる。 そのため本研究では,発表から $n$ ヶ月後の被引用数の中で,被引用数 $c$ が上位 $10 \%$ に属する場合は比率べー スの手法で補完を行い,下位 90\%に属する場合は事例ベースの手法で補完を行う1). ## 2.4 早期導入度 発表から短い期間に多く引用されている論文は重要な研究成果を報告している可能性が高く,そのような重要な研究成果をいち早く取り达んでいる研究も,新規性が高く技術的貢献が大きい可能性が高いと考えられる。この仮説を検証するため,“ $n$ ケ月以内に発表された被引用数が上位 $k_{1} \sim k_{2} \%$ の論文”を引用している論文の,発表から 1 年後の被引用数の平均を調査した。 調査には,3.1 節で述べる学習用の論文集合の 1 つである 2015 年 6 月から 2020 年 5 月に $\operatorname{arXiv}^{2)}$ 上で発表された 15,962 論文を用い,上位 $k \%$ の計算には,発表から $m$ ヶ月後の論文の場合,論文集合から発表から $m$ ヶ月後時点の被引用数の分布を作成し,その分布内での順位を用いた。また, $n$ ヶ月以内に発表された論文を複数引用している場合,その中でもっとも被引用数の順位が高い論文の順位を利用した. 調査結果を表 1 に示す. 全体的な傾向として,よ $ を参照. 2) https://arxiv.org/ } り被引用数が高い論文を,より早期に引用しているほど,平均的な被引用数が高いことが確認できる。 たとえば,発表から3 ヶ月以内に,被引用数が上位 $1 \%$ 以内の論文を引用している論文の平均被引用数は 15.5 であり,これは全論文の平均被引用数 6.5 の約 2.4 倍であった. 以上の調査結果を踏まえ,本研究では,論文が早期に被引用数が高い論文を引用しているという情報 (早期導入度)を被引用数予測に利用する。 入力方法としては,著者情報と同様に,早期導入度を特殊トークン化して 1 文目の先頭に挿入する. 本研究では, 「上位 $0 \sim 1 \% 」$, 「上位 $1 \sim 2.5 \% 」$, 「上位 2.5 5\%」,「上位 5 10\%」,「上位 10 25\%」,「上位 25 100\%」,「引用なし」をそれぞれ表す 7 つの特殊トークンを作成し, 予測対象の論文がそれぞれ 3 , 6,9,12 ヶ月以内に引用している論文の中で最も被引用数の順位が高い論文に対応する特殊トークン 4 つを 1 文目の先頭に挿入することにより早期導入度を考慮する.たとえば,ある論文が 3 ヶ月以内に発表された論文を引用しておらず,6,9ヶ月以内に発表された被引用数が上位 5 10\%の論文を引用しており,12 ヶ月以内に発表された被引用数が上位 $0 \sim 1 \%$ の論文を引用している場合に入力する特殊トークン列は,“[引用なし][上位 5 10\%][上位 5 10\%][上位 0 1\%]”となる. ## 3 実験 ## 3.1 データセット 被引用数予測において直近 1 年以内の論文を活用することの有効性を確認するため,arXiv で発表された論文を対象とした評価実験を行った. arXiv の論文を対象としたのは,大量の論文が発表される一方で,無査読であり品質が保証されていないことから,論文の質の自動推定技術の重要性が極めて高い論文集合であると考えたためである. 本研究では,2019 年 7 月 2020 年 6 月の各月に arXiv 上で cs.CL (計算言語学) カテゴリで発表された論文集合をそれぞれ評価セットとする 12 個のデー タセットを用いて実験を行った. 各データセットにおいて, 評価対象の論文の発表から過去 5 年間に発表された論文を学習用論文として用いた。たとえば,2019 年 7 月に発表された論文集合を評価セットとする場合,2014 年 7 月 2019 年 6 月に発表された論文が学習用論文となる. 学習用論文数の平均, 学習用論文のうち 1 年以上経過した論文数の平均,評価用論文数の平均はそれぞれ $13,457 , 8,714 , 490$ であった ${ }^{3)}$. 発表時期は月単位で扱い,過去のある時点における被引用数を算出するための引用情報は, Semantic Scholar ${ }^{4}$ から収集した。 ## 3.2 比較手法 本研究では以下の 5 つのモデルを比較する. 全 1 年後被引用数使用過去 5 年間に発表された全論文の発表から 1 年後の被引用数を用いベースライン手法で学習したモデル 直近 1 年論文不使用発表から 1 年以内のものを除く過去 5 年間に発表された論文を用いベースライン手法で学習したモデル +被引用数補完被引用数補完を行うことで過去 5 年間に発表された全論文を用いべースライン手法で学習したモデル +早期導入度直近 1 年論文不使用モデルに早期導入度を追加したモデル +補完+早期導入度被引用数補完モデルに早期導入度を追加した提案手法 このうち,全 1 年後被引用数使用モデルは,評価用論文の発表時に取得不可能な情報を用いており,最新論文の被引用数予測には利用できない. ## 3.3 評価方法 評価指標には大きく分けて2つの指標を用いる. まず,全体的な被引用数予測性能を評価するため, スピアマンの順位相関係数 $(\rho)$ を用いる. さらに,将来的にインパクトが大きくなる論文を上位にランキングできているか評価するため,実際の被引用数が上位 $\mathrm{n} \%$ となる論文が,予測值の上位 $\mathrm{k} \%$ にどのくらい含まれるかという指標 ( $\mathrm{n} \%$ @ $\mathrm{k} \%$ ) を用いる. また, 3.1 節で述べた通り,データセットごとの評価用論文の平均論文数は 490 と小さいことから, データセットごとに評価した場合,スコアが安定しない可能性が考えられる. そこで,より大規模な論文集合で評価を行えるように,評価値の算出は全データセットの評価用論文を用いて月横断的に行う. 具体的には,各データセットで学習を行い,評価用論文の被引用数スコアの予測値を出力し, 全 12 か月分の予測値を合わせて評価値を算出する ${ }^{5)}$. 3)データセットごとの論文数は付録 B を参照 4) https://www.semanticscholar.org/ 5)データセットごとの実験結果は付録 C を参照. 表 2 被引用数予測の実験結果 (評価値 $\times 100)$ ## 3.4 実験設定 BERT の初期重みには, Transformers [8] で公開されている, Wikipedia などの一般ドメインのコーパスで事前学習を行なった BERT (bert-baseuncased) と,大規模な論文で構築された科学分野のコーパスで事前学習を行なった SciBERT [9] (allenai/scibert_scivocab_uncased)を用いた. 全ての手法において,エポック数は 3 , バッチサイズは 32 ,最適化関数は AdamW [10] を用い, 全体の学習ステップの $10 \%$ で warm-up し, 残りのステップで線形に減衰する学習率スケジューリングを行った. 学習率は,2019 年 6 月に発表された論文を評価用論文として作成したデータセットを用いて,Devlin ら [6] に倣い,2e-5, 3e-5, 5e-5 で探索を行い,全ての手法において最も順位相関係数が高くなった 2e-5を使用した.また,各手法でランダムシードで 3 回実験を行って評価値の平均と標準偏差を算出した. ## 3.5 実験結果 実験結果を表 2 に示す. 全体的に SciBERT の性能が BERT の性能を上回っており,科学分野のコーパスでの事前学習が,被引用数予測タスクにおいて有効であることが確認できる。また,被引用数補完,早期導入度をそれぞれ用いることで,性能が向上する傾向が確認できる. 特に, 被引用数補完と早期導入度を組み合わせた提案手法は,予測対象の論文の発表時に利用可能な情報しか用いていないにも関わらず,全 1 年後被引用数使用モデルと同等以上の性能となった. 被引用数補完は, 全 1 年後被引用数使用モデルで使用している情報を近似的に再現しているに過ぎないことから,性能向上は主に,早期導入度を考慮することで,最新の技術動向をいち早く取り込んでいる研究を評価できるようになったためであると考えられる.実際の予測性能に着目すると,被引用数補完と早期導入度の両方を用いた SciBERT ベースのモデルは,5\%@25\%で 78.3 という值であった.これは,与えられた論文集合のうち $25 \%$ を読むことで,将来の被引用数が上位 $5 \%$ となる論文の $78.3 \%$ をバーできるということであり,実用面において有用性の高い手法であるといえる. ## 4 おわりに 本論文では,与えられた論文の発表 1 年後の被引用数予測タスクにおいて,最新の動向を捉えることの重要性に着目し, 1 年後の被引用数が未知であることからそのままでは学習データとして使用できない直近 1 年以内に発表された論文の活用法を提案した. 具体的には,過去の論文の被引用数の推移から 1 年後の被引用数を推定し学習データとして利用する手法と,より被引用数が高い論文をより早期に引用している論文は平均的な被引用数が高くなるという傾向に着目した早期導入度を利用する手法の 2 つ手法を提案した。 $\operatorname{arXiv}$ から収集した約 17,000 の論文を用いて行った実験の結果,直近 1 年以内に発表された論文を活用することで,被引用数予測の性能が向上することが確認できた。特に,早期導入度を用いて,最新の技術動向をいち早く取り込んでいる研究を評価することで,論文発表時点では取得不可能な未来の被引用数を利用した手法と同等以上の性能が達成できた.今後の課題としては,自然言語処理以外の人工知能分野の論文を含めた評価や,提案手法では活用していない本文や図,表などを考慮したモデルの構築が挙げられる. ## 参考文献 [1] Lawrence D. Fu and Constantin F. Aliferis. Models for predicting and explaining citation count of biomedical articles. In AMIA Annual Symposium Proceedings, pp. 222-226, 2008. [2] Siqing Li, Wayne Xin Zhao, Eddy Jing Yin, and Ji-Rong Wen. A neural citation count prediction model based on peer review text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 49144924, 2019. [3] Thomas van Dongen, Gideon Maillette de Buy Wenniger, and Lambert Schomaker. SChuBERT: Scholarly document chunks with BERT-encoding boost citation count prediction. In Proceedings of the First Workshop on Scholarly Document Processing (SDP), pp. 148-157, 2020. [4] Gideon Maillette de Buy Wenniger, Thomas van Dongen, Eleri Aedmaa, Herbert Teun Kruitbosch, Edwin A. Valentijn, and Lambert Schomaker. Structure-tags improve text classification for scholarly document quality prediction. In Proceedings of the First Workshop on Scholarly Document Processing (SDP), pp. 158-167, 2020. [5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems (NeurIPS), Vol. 30, 2017. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (NAACL), pp. 41714186, 2019. [7] Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. Dropout: A simple way to prevent neural networks from overfitting. Journal of Machine Learning Research (JMLR), Vol. 15, No. 56, pp. 1929-1958, 2014. [8] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP): System Demonstrations, pp. 38-45, 2020. [9] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Process- ing (EMNLP-IJCNLP), pp. 3615-3620, 2019. [10] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In International Conference on Learning Representations (ICLR), 2019. ## A 被引用数補完の性能 被引用数補完性能の評価結果を表 3 に示す。評価は,被引用数補完前,被引用数補完後のデータセットごとに,全論文の 1 年後の被引用数を正解データセットした場合の,被引用数のスピアマンの順位相関係数 $(\rho)$ ,および,正解データにおいて上位 $10 \%$ に含まれる論文がどのくらい上位 $10 \%$ に含まれるかの値 $(10 \% @ 10 \%)$ により行った.評価データには 3.1 節で述べた, 12 個のデータセットを用い,各評価指標の平均値と標準偏差を算出した。 表 3 被引用数補完の評価結果 (評価値 $\times 100$ ) ## B 各データセットのサイズ 2019 年 7 月 2020 年 6 月の各月に arXiv 上で cs.CL カテゴリで発表された論文集合をそれぞれ評価セットとする 12 個のデータセットの統計値を表 4 に示す. 表 4 各データセットの論文数 ## C各データセットにおける実験結果 3 節で行った実験の,各データセットごとの実験結果を示す。各評価指標のうち,表 5 にはスピアマンの順位相関係数,表 6 には $10 \%$ @10\%の結果を示す. 表 5 各データセットにおける実験結果 (スピアマンの順位相関係数 $\times 100$ ) 表 6 各データセットにおける実験結果 $(10 \% @ 10 \% \times 100)$
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A7-1.pdf
# ガウス確率場による単語の意味変化と語義数の同時推定 井上誠一 ${ }^{1}$ 小町 守 ${ }^{1}$ 小木曽智信 ${ }^{2}$ 高村大也 ${ }^{3}$ 持橋 大地 4 1 東京都立大学 2 国立国語研究所 3 産業技術総合研究所 4 統計数理研究所 inoue-seiichi@ed.tmu.ac.jp komachi@tmu.ac.jp togiso@ninjal.ac.jp takamura.hiroya@aist.go.jp daichi@ism.ac.jp ## 概要 本研究では,単語の通時的な意味変化のモデル化において,ディリクレ過程をガウス確率場の上に考えることで,単語によって異なる語義数を自動的に推定できる階層ベイズモデルを提案する1). 疑似データを用いた実験において,意味変化と語義数を正しく推定できることを示した.また,実データを用いた実験においては,複数の解析対象の単語に対して推定結果を示し,分析した。 ## 1 はじめに 言語は動的なシステムであり,常に進化し,話者とその環境の需要に適応している [1]. 特に単語はさまざまな意味を持ち,その分布や広がりはジャンルや文脈によって異なっている. 例えば,“cute”という単語は 18 世紀初頭に登場し,もともと“賢い” という意味で使われていたが,19 世紀後半に“狡猾な”という意味で使われ,現代においては,“魅力的な” という意味で使用されている [2]. このような通時的な単語の意味変化を捉えることができれば,辞書学での単語の意味変化に関する記述への利用や,単語の意味表現がより正確になることにより,意味情報が重要なタスクへの活用が可能になる.近年では,単語の分散表現を用いて意味変化を検出する手法が数多く提案されているが $[3,4,5]$, これらは意味変化の検出はできるが,意味の趨勢や変化の様子を捉えることはできない. それに対し,解釈性の高い確率的生成モデルを用いて意味変化を捉える試みもある. Emms ら [6] は,単語の新たな意味の出現を捉えるための動的な生成モデルを提案しており,Frermann ら [7] は,意味の出現だけではなく変化のパターンも捉えることができるモデルを提案した. しかし,実際に単語の意味変化を調査した  い場合は解析対象の単語の語義数が自明であることは多くないにも関わらず,これらのモデルは語義数を事前に設定しなければならないという大きな問題がある. そこで,我々はディリクレ過程をガウス確率場の上に考え Frermann らのモデルを拡張することで,語義数をデータから自動で推定し, 単語の意味変化を捉えることのできる階層ベイズモデルを提案する. (1) 疑似データを用いた検証を行った結果,提案モデルが解析対象の単語の意味変化と語義数を正しく推定できることを定量的,定性的に示した. また, (2) 実データを用いた実験では,複数の単語に対し定性的な分析を行い,妥当性を示した。 ## 2 関連研究 ## 2.1 A Bayesian model of diachronic meaning change [7] Frermann らは,単語の通時的な意味の発展を捉える,動的なベイズモデル(dynamic Bayesian model of Sense ChANge; 以下,SCAN と表記)を提案した. SCAN では,対象単語 $w$ 一つに対して一つのモデルが構築され, 入力は, 対象単語 $w$ が含まれる文章の文脈単語集合 $\boldsymbol{c}$ で構成されるスニペットとその文章が出現した年のラベルとなっている. SCAN において, 時点 $t \in\{1 \ldots T\}$ のスニペット集合は時点ごとのユニグラム混合: - 意味上の $K$ 次元多項分布 $\phi_{t}$ (意味分布) - 各意味 $k$ の語彙上の $V$ 次元多項分布 $\psi_{t, k}$ (意味-単語分布) でモデル化される.また,それぞれの事前分布にはガウス分布が仮定され,次のように変換することで $\phi$ を得る: ・多次元ガウス分布から $K$ 次元ベクトル $\boldsymbol{\alpha}$ を生成 ・ロジスティック変換 $\phi_{k}=\exp \left(\alpha_{k}\right) / \sum_{k=1}^{K} \exp \left(\alpha_{k}\right)$ によって $K-1$ 次元単体に射影. $\psi$ についても同様である. そして,意味分布と意味-単語分布のパラメータ $\phi, \psi$ が,時間変化と共に変化をするように,事前分布に 1 階の内生的ガウス確率場 (iGMRF) [8] を定義する。iGMRF は,“近傍と似た値をとる” 事前分布であり ${ }^{2}$ ,実数ベクトル $\mathbf{x}=\left(x_{1}, x_{2}, \cdots, x_{T}\right)$ について,ガウス分布 $\mathcal{N}\left(\mu, \sigma^{2}\right)$ を用いて,次のように定義される: $ x_{t} \mid \boldsymbol{x}_{-t}, \kappa \sim \mathcal{N}\left(\frac{1}{2}\left(x_{t-1}+x_{t+1}\right), \frac{1}{2 \kappa}\right) . $ ただし, $\boldsymbol{x}_{-t}$ は $\boldsymbol{x}$ から $x_{t}$ を除いたものであり,кは精度パラメータである.また,意味分布と意味-単語分布の事前分布であるガウス分布は,それぞれ変化の度合いをコントロールするパラメータとして $\kappa_{\phi}, \kappa_{\psi}$ を持つ. 特に, 対象単語 $w$ によって意味の変化の “速度” は異なるため,意味分布の事前分布の精度パラメータ $\kappa_{\phi}$ はデータから推定する. これらを踏まえると,SCAN の生成モデルは次のようになる. $\operatorname{Ga}(a, b)$ はガンマ分布, $\operatorname{Mult}(\theta)$ は多項分布を表す. 1. Draw $\kappa_{\phi} \sim \mathrm{Ga}(a, b)$ 2. For time interval $t=1 \ldots T$ (a) Draw sense distribution i. $\alpha_{t} \mid \alpha_{-t}, \kappa_{\phi} \sim \mathcal{N}\left(\frac{1}{2}\left(\alpha_{t-1}+\alpha_{t+1}\right), \kappa_{\phi}^{-1}\right)$ ii. $\phi_{t}=\operatorname{Softmax}\left(\alpha_{t}\right)$ (b) For sense $k=1 \ldots K$ i. Draw sense-word distribution A. $\beta_{t, k} \mid \beta_{-t}, \kappa_{\psi} \sim \mathcal{N}\left(\frac{1}{2}\left(\beta_{t-1, k}+\beta_{t+1, k}\right), \kappa_{\psi}^{-1}\right)$ B. $\psi_{t, k}=\operatorname{Softmax}\left(\beta_{t, k}\right)$ (c) For snippet $d=1 \ldots D$ i. Draw sense $z_{d} \sim \operatorname{Mult}\left(\phi_{t}\right)$ ii. For context position $i=1 \ldots I$ A. Draw word $w_{d, i} \sim \operatorname{Mult}\left(\psi_{t, z_{d}}\right)$ ## 2.2 Logistic stick-breaking process [9] ディリクレ過程は有限次元の多項分布を生成するディリクレ分布の無限次元版であり,その実現例の一つとして, stick-breaking process (SBP) [10] が挙げられる。SBPでは,確率の総和である長さ 1 の棒を折っていくことで, $k$ 番目のクラスに対する確率 $\pi_{k}$ を決定し,デルタ関数 $\delta\left(\theta_{k}\right)$ を基底測度 $G_{0}$ からサンプルした場所 $\theta_{k} \sim G_{0}$ に立てていくことで確率分布 $G$ を生成しており, 生成過程は次のようになる: $ \begin{gathered} \pi_{k}=v_{k} \prod_{k^{\prime}}^{k-1}\left(1-v_{k^{\prime}}\right), v_{k} \sim \operatorname{Be}(1, a), \theta_{k} \sim G_{0} \\ G=\sum_{k=1}^{\infty} \pi_{k} \delta\left(\theta_{k}\right) . \end{gathered} $ 2) カーネルが隣接する時間に限定されるガウス過程の特別な例と捉えることもできる. ただし, $\mathrm{Be}(1, a)$ はベータ分布である. Ren ら [9] は,各クラスが何らかの共変量と紐づいている3)場合,それをロジスティック変換し各クラスの確率とすることで,同様にディリクレ過程を実現する logistic stick-breaking process (LSBP) を提案した. 各クラスのガウス分布に従う確率変数を $\beta_{k}$ としたとき,LSBP によって生成される確率分布 $G_{\beta}$ は次のようになる: $ \begin{gathered} \pi\left(\beta_{k}\right)=\sigma\left(\beta_{k}\right) \prod_{k^{\prime}=1}^{k-1}\left(1-\sigma\left(\beta_{k^{\prime}}\right)\right), \\ G_{\beta}=\sum_{k=1}^{\infty} \pi\left(\beta_{k}\right) \delta\left(\theta_{k}\right) . \end{gathered} $ ただし, $\sigma(x)$ はシグモイド関数を表す. ## 3 提案手法 ## 3.1 Infinite SCAN 我々は,2.1 節で紹介した SCANにおいて,対象単語によって異なる語義数をコーパスから自動的に推定できるように,2.2 節で紹介したLSBPを用いて拡張を行った階層ベイズモデルを提案する。 提案モデルでは,SCAN と同様に対象単語 $w$ 一つに対して一つのモデルを考え,入力もSCAN と同様に,コーパスにおける対象単語 $w$ が含まれる文章の文脈単語集合 $\boldsymbol{c}$ で構成されるスニペットとその文章が出現した年のラベルとする. 時点 $t$ に出現したスニペット集合は, $\phi_{t}$ と $\psi_{t, k}$ それぞれの上に定義される意味分布と意味-単語分布によって表され,それぞれがガウス分布に従う。ここで,意味分布のパラメータ $\phi_{t}$ について,対象単語 $w$ によって異なる語義数 $S_{w}$ をコーパスから自動的に推定できるように,LSBPを用いて生成過程を次のように変更する: $ \begin{gathered} \alpha_{t} \mid \alpha_{-t}, \kappa_{\phi} \sim \mathcal{N}\left(\frac{1}{2}\left(\alpha_{t-1}+\alpha_{t+1}\right), \kappa_{\phi}^{-1}\right), \\ \phi_{t, k}=\sigma\left(\alpha_{t, k}\right) \prod_{k^{\prime}=1}^{k-1}\left(1-\sigma\left(\alpha_{t, k^{\prime}}\right)\right)(k=1, \ldots, K) . \end{gathered} $ ここで,LSBP は無限次元の多項分布を生成するが,実際には十分な語義の次元があればそれ以上使われることはないため, 本研究では SCAN と同様に $K=8$ とした ${ }^{4)}$. また, 提案モデルでは, 意味分布のパラメータ $\phi_{t}$ は,全体を見て正規化する Softmax 変換ではなく,それぞれの意味における停止確率を意味ごとに確率化する LSBP によって構築される. 3)SCAN の場合はガウス分布に従う確率変数が各意味,意味における各単語と紐づいている。 4)事前実験より,8 個以上の語義を持つ単語はほとんど存在しなかった 表 1 各モデルによって推定された意味分布と正解の意味分布の Kullback-Leibler 距離. のため提案モデルでは,SCANのように $\kappa_{\phi}$ を全ての意味 $k \in\{1 \ldots K\}$ で共有するのではなく,各意味の値 $\alpha$ ごとに異なる分散 $\kappa_{\phi}^{(k)}$ を仮定し推定する. ## 3.2 MCMC 法による推定 提案モデルの推定には,ブロック化 Gibbs sampler を用いる。提案モデルにおける推定パラメータは, スニペットに割り当てられる意味 $z$ ,意味分布と意味-単語分布の事前分布である $\alpha$ ( $\phi$ の LSBP 変換前), $\beta$ ( $\psi$ の Softmax 変換前),ガンマ分布に従う意味分布の事前分布の精度パラメータ $\kappa_{\phi}$ である. サンプリングの疑似コードを図 5 に示した. スニペットの意味各スニペットの意味 $z_{d}$ は, サンプリング時点でのパラメータ $\phi, \psi$ を用いて,次の事後分布に従ってサンプリングされる: $p\left(z_{d} \mid \boldsymbol{w}, t, \phi, \psi\right) \propto p\left(z_{d} \mid t\right) p\left(\boldsymbol{w} \mid t, z_{d}\right)=\phi_{z_{d}}^{(t)} \prod_{w \in \boldsymbol{w}} \psi_{w}^{\left(t, z_{d}\right)}$ 意味分布のパラメータ意味分布の事前分布はガウス分布となっているため, 多項分布との間に共役性がないので,ディリクレ-多項分布のようなサンプリングはできない. Linderman ら [11] は, Pólya-gamma 補助変数を用いることで,LSBPを用いて表現される,ガウス分布を事前分布として持つ多項分布のパラメータに対するギブスサンプリングを提案しており,本研究ではそれに従って推定を行う) $^{5)} \alpha$ の事後分布は次のようになる: $ \begin{aligned} p\left(\alpha_{t} \mid z, \boldsymbol{\alpha}_{-t}, \omega\right) & \propto \mathcal{N}\left(\omega^{-1} f(c) \mid \alpha_{t}\right) \mathcal{N}\left(\alpha_{t} \mid \boldsymbol{\alpha}_{-t}, \kappa_{\phi}^{-1}\right) \\ & \propto \mathcal{N}\left(\alpha_{t} \mid \tilde{\mu}, \tilde{\kappa}_{\phi}^{-1}\right) . \end{aligned} $ ただし, $\omega$ は補助変数であり,$c_{k}$ を $k$ 番目の意味に属しているスニペットの個数, $N\left(c_{k}\right)=\sum_{k} c_{k}-\sum_{j<k} c_{j}$ として, Pólya-gamma 分布 $\omega \mid z, \alpha_{t} \sim \operatorname{PG}\left(N\left(c_{k}\right), \alpha_{t}\right)$ からサンプリングされる. また, $f\left(c_{k}\right)=c_{k}-N\left(c_{k}\right) / 2$ として, 事後分布の平均と分散は, $\tilde{\mu}=\left(f\left(c_{k}\right)+\right.$ $\left.\mu_{k} \kappa_{\phi}\right) \cdot \tilde{\kappa}_{\phi}, \tilde{\kappa}_{\phi}=\left(\omega_{k}+\kappa_{\phi}\right)^{-1}$ である. 意味-単語分布のパラメータ意味-単語分布も意味分布と同様に事前分布としてガウス分布を仮定しているため,ディリクレー多項分布のようなサンプ  表 2 実験に使用したコーパスの年代とサイズ. リングはできない. Mimno ら [12] は, Softmax 変換を用いて表現される,ガウス分布を事前分布としてもつ多項分布のパラメータに対するギブスサンプリングを提案しており,本研究ではそれに従って推定を行う6),スニペット数を $D$ ,スニペット長を $N_{d}$ とすると, $\beta$ の事後分布は次のようになる: $p\left(\beta_{t}\right) \propto \prod_{d=1}^{D}\left(\prod_{n=1}^{N_{d}} \frac{\exp \left(\beta_{w_{n}}^{\left(t, z_{d}\right)}\right)}{1+\sum_{w^{\prime} \neq w} \exp \left(\beta_{w^{\prime}}^{\left(t, z_{d}\right)}\right)}\right) \mathcal{N}\left(\beta_{t} \mid \beta_{-t}, \kappa_{\psi}^{-1}\right)$ 精度パラメータ平均が既知であるガウス分布の精度パラメータは,ガンマ事後分布に従う.ガンマ分布の形状パラメータを $a$, 尺度パラメータを $b$ とすると, $\kappa_{\phi}$ の事後分布は次のようになる: $ p\left(\kappa_{\phi}^{(k)}\right)=\mathrm{Ga}\left(a+\frac{K}{2}, b+\frac{1}{2} \sum_{t=1}^{T}\left(\alpha_{t, k}-\bar{\alpha}_{k}\right)\right) $ ただし, $\bar{\alpha}_{k}=\frac{1}{T} \sum_{t} \alpha_{t, k}$ は意味 $k$ における $\alpha$ の平均である. ## 4 実験 ## 4.1 疑似データによる検証 実データでの検証に先立ち,提案モデルが,任意の意味変化と語義数をきちんと推定できるか検証するため,疑似データによる検証を行う.疑似データの生成において,意味分布の生成にはガウス過程を用い,意味-単語分布の生成にはディリクレ分布を用いて正解データをランダムに生成した. 表 1 に,語義数を $S_{w}=2, . ., 5$ と動かした場合におけるSCAN と提案モデルの疑似データに対する推定結果の比較を示した. ここでは,意味の分布を正しく表現できるか定量的に測るため, 指標として推定された意味分布と正解の意味分布の $\mathbb{R}^{T \times K}$ 上での Kullback-Leibler 距離を用いた. 結果から,語義数を自動的に推定できないSCAN と比較して提案モデルが優れていることがわかる。また, 図 1,2 に, 語義数が $S_{w}=5$ の場合の正解例と,疑似データに対する提案モデルの推定結果を示した. 横軸が時点,縦軸が時点における意味の確率を表し, 色に対応する意 6)詳細は参考文献 [12]を参照されたい. 図 1 語義数が $S_{w}=5$ の場合の意味変化の正解例. 図 2 語義数が $S_{w}=5$ の疑似データに対する提案モデルの推定結果. 正解例に合わせて意味の並べ替えを行った. 味を凡例に示した.図より,提案モデルによる推定結果は意味の趨勢をほとんど正しく捉えていることがわかる。 ## 4.2 データセット 本研究では,英語を対象とし,通時コーパスである Corpus of Historical American English (COHA) と The Corpus of Late Modern English Texts (CLMET3.1) を用いた、コーパスの統計量を表 2 に示した. 実験で用いる際は,トークナイズ,見出し語化を行ったのち,ストップワードの削除を行った.また品詞タグ付けを行い,名詞,動詞,形容詞のみを抽出し使用した. 以上の前処理を行ったのち,対象単語が出現する箇所をコーパスから抽出し,文脈空幅を 5 として対象単語のコーパスを作成した. 対象単語としては,SCANで分析されたものを参考にして “coach”と “power”を選択した。 ## 4.3 結果 図 3, 4 に“coach”と “power”に対する推定結果を示した,凡例には,意味 $k$ における意味-単語分布 $\psi_{k}=\sum_{t} \psi_{t, k}$ の Normalized pointwise mutual information (NPMI) [13] の高い単語を上から 10 個示した. “coach”では,コーパスから推定された語義数は 2 つとなった. 馬車や乗り物としての意味(青色)か 図 3 対象単語“coach”に対する提案モデルの推定結果. 図 4 対象単語 “power” に対する提案モデルの推定結果. ら指導や指導者という意味(橙色)に変化していることが捉えられている. “power”については,コー パスから推定された語義数は 6 つとなった. 宗教や教会の文脈で使用される力の意味(青色)は,現在に至っても使用されていることがわかる。また,肉体上・精神上の自然の能力,体力,知力といった意味(橙色)と法や政治的な力といった意味(赤色) は現在に近づくにつれて使われることが少なくなっている。一方で,経済的な力としての意味(緑色) や国際的な政治力や戦争などの文脈における力(紫色)たた動力の意味(茶色)は現在になるにつれて使用されることが増えてきていることがわかる. これらの結果は歴史的背景や辞書からも妥当であり,提案モデルはコーパスからある程度正しく意味変化を捉えることができていることがわかる. ## 5 まとめと今後の展望 本研究では,単語の通時的な意味変化のモデル化において,単語によって異なる語義数を自動的に推定できる階層ベイズモデルを提案した。疑似データを用いた実験において,意味変化と語義数を正しく推定できることを示した。また,実データを用いた実験においては,複数の解析対象の単語に対して推定結果を示し,分析した.今後は,他の単語や英語以外の言語を対象とした分析を行っていきたい. ## 謝辞 本研究は国立国語研究所の共同研究プロジェクト 「現代語の意味の変化に対する計算的・統計力学的アプローチ」,「通時コーパスの設計と日本語史研究 の新展開」および JSPS 科研費 19H00531,18K11456 の研究成果の一部を報告したものである. ## 参考文献 [1] Jean Aitchison. 2001. Language Change: Progress Or Decay?. Cambridge Approaches to Linguistics. Cambridge University Press. [2] Angus Stevenson, editor. 2010. The Oxford English Dictionary. Oxford University Press, third edition. [3] Robert Bamler, and Stephan Mandt. 2017. Dynamic Word Embeddings. In Proceedings of the 34th International Conference on Machine Learning, edited by Doina Precup and Yee Whye Teh, 70:380-89. [4] Vivek Kulkarni, Rami Al-Rfou, Bryan Perozzi, and Steven Skiena. 2015. Statistically significant detection of linguistic change. In Proceedings of the 24th International Conference on World Wide Web, WWW'15, p. 625-635. [5] William L. Hamilton, Jure Leskovec, and Dan Jurafsky. 2016. Diachronic Word Embeddings Reveal Statistical Laws of Semantic Change. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), 1489-1501. [6] Martin Emms, and Arun Kumar Jayapal. 2016. Dynamic Generative Model for Diachronic Sense Emergence Detection. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, 1362-73. [7] Lea Frermann, and Mirella Lapata. 2016. A Bayesian Model of Diachronic Meaning Change. Transactions of the Association for Computational Linguistics 4: 31-45. [8] Havard Rue and Leonhard Held. 2005. Gaussian Markov Random Fields: Theory and Applications. Chapman \& Hall/CRC Monographs on Statistics \& Applied Probability. CRC Press. [9] Lu Ren, Lan Du, Lawrence Carin, and David Dunson. 2011. Logistic Stick-Breaking Process. Journal of Machine Learning Research: JMLR 12: 203-39. [10] Jayaram Sethuraman. 1994. A Constructive Definition of Dirichlet Priors. Statistica Sinica 4 (2): 639-50. [11] Scott Linderman, Matthew J. Johnson, and Ryan P. Adams. 2015. Dependent Multinomial Models Made Easy: StickBreaking with the Polya-Gamma Augmentation. In Advances in Neural Information Processing Systems, vol. 28, 3456-64. [12] David Mimno, Hanna Wallach, and Andrew McCallum. 2008. Gibbs Sampling for Logistic Normal Topic Models with Graph-Based Priors. In Neural Information Processing Systems Workshop on Analyzing Graphs. vol. 61. [13] Gerlof Bouma. Normalized (pointwise) mutual information in collocation extraction. 2009. Proceedings of the German Society for Computational Linguistics and Lan- guage Technology, vol 30: 31-40. [14] Valerio Perrone, Marco Palma, Simon Hengchen, Alessandro Vatri, Jim Q. Smith, and Barbara McGillivray. 2019. GASC: Genre-Aware Semantic Change for Ancient Greek. In Proceedings of the 1st International Workshop on Computational Approaches to Historical Language Change, 56-66 . ## A MCMC アルゴリズム 3.2 節で説明した提案モデルの推定に用いた Gibbs sampler の疑似コードを図 5 に示す. 各パラメータの初期值は基本的に Frermann ら [7] に従っている. ただし,本研究では,対象単語の意味の変化を“意味-単語分布の変化”ではなく,できるだけ “意味分布の変化” で捉えたいため(前者の場合,語義数の推定が難しくなる), Perrone ら [14] に従い, $\kappa_{\psi}$ の值を比較的大きな 100.0 とした。 図 5 MCMC 法による Infinite SCAN の推定. ## B 疑似データに対する推定結果 4.1 節で行った,疑似データによる提案モデルの性能の検証において, 語義数 $S_{w}$ が異なる場合の結果を示す. 図 6,7 には語義数が $S_{w}=2$ の正解例と推定結果, 図 8,9 には語義数が $S_{w}=3$ の正解例と推定結果を示した. 語義数が異なっても,提案モデルは意味変化と語義数を適切に推定できていることがわかる。 図 6 語義数が $S_{w}=2$ の場合の正解例. 図 7 語義数が $S_{w}=2$ の疑似データに対する提案モデルの推定結果. 正解例に合わせて意味の並べ替えを行った. 図 8 語義数が $S_{w}=3$ の場合の正解例. 図 9 語義数が $S_{w}=3$ の疑似データに対する提案モデルの推定結果. 正解例に合わせて意味の並べ替えを行った.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A7-2.pdf
# スローガンにおける比喻表現とそれを背景にした新しい掛けことば現象の考察—中国大学入試に関するスローガンを対象に 徐佳 愛知大学大学院 中国研究科 jokaxujia@hotmail.com ## 概要 日常言語生活によく使われる比喻技法は、物事を興味深く、生き生きとした表現で表すことが出来る。本稿は、スローガンにおける比喻表現を対象に、具体例を挙げながら、比喻の効果とそれを背景にした言葉現象を考察する。そして、大学入試のスローガンにおける発音の関連性や意味の類似性から生まれた掛けことばは、どのような社会現象を生み出したかに関しても、実例に基づき分析する。 ## 1 はじめに ある物事を、類似または関係する他の物事を借りて表現する比喻は、聞き手に新しい概念を理解させ、情報を円滑に伝達するための修辞技法として、有効な方法の一つである。比喻の効果は、多くの研究者によって指摘されてきた。主な観点をまとめると、言葉遊びの一種として、人間の好奇心、求知心にこたえることができ、そして、難解なものを分かりやすく伝え斬新な言葉を生み出し、物事を生き生きとした表現で表すことができるなどが挙げられる。本稿では、比喻を用いた大学入試に関するスローガンを対象に比喻表現を対象に見ていく。 中国では、例年、全国で 3 日間に渡る大学入試があり、これを「普通高等学校招生全国统一考试(以下、高考)」と呼び、受験者は 15 年の教育を経て受験する。全国の高校三年生が同じ日程で統一された試験に臨むため、非常に競争が激しい試験である。受験学年の教室では、受験生を励ますため、黒板の上の壁に、スローガンを掲げる教室が多い。例を挙げると、“提高一分, 干掉千人”(訳 : 1 点多く取れば千人を抜かすことになる)や、“欲戴皇冠, 必承其重”(訳:王冠が欲しければ、重みに耐えなければならない)などがよく見られる。その中でも、 “欲戴皇冠, 必承其重” のような、比喻を用いた興味深いスローガンも少なくない。 こういった比喻を用いたスローガンは、いずれも何らかの意味変換によって受験勉強を励ます働きを実現するという共通の特徴を持っている。本稿では、中国の大学入試に関するスローガンの中に、どのような比喻表現が使用されたか、具体的に分析しながら、比喻がコミュニケーションにもたらす効果を考察する。そして、中国の大学入試期間に見られた保護者と受験生の取った縁起のよい行動について、掛けことばの観点から分析し、そのような掛け言葉の形成される理由や背後にある認知的動機づけについて考察する。 ## 2 比喻における二方向性について 比喻の一般的形式「Aは、Bである」のAは、たとえられるものであり、Bはたとえるものである。すなわち、Aを、類似または関係するBを借りて表現する。認知心理学において、比喻では情緒・感覚的類似性、カテゴリ的類似性、特徴語との共起関係の強さが重要とされている。その関係は以下の図で表すことが出来る。 上記の図を見ると、AとBの特徴として、共通する要素が、 $\alpha 、 \beta$ など $\cdots$ とあり類似しているため、Bにも特徴として、要素 $\omega$ があるはずだと推論している。さらに、比喻の方向としては、 (1) 抽象的・難解なものを具体的・身近なものに喻える。例: 人生は旅だ。 (2) 時に具体的・身近なものを抽象的・難解なものに喻える。 例:母がかけてくれたあの言葉は私にとって、「成功への扉」となった。 ## 3 類似性の法則について 人間は自分と似ている人に親近感を抱き、心を許す傾向がある。初対面の人でも出身地が同じであったり、共通の趣味を持っていたりするとすぐに打ち解けることが多い。心理学では、「ミラーリング効果」といら概念があり、相手を模倣することにより、親近感を持たせたり好感を抱かせる心理テクニックである。これは、「類似性の法則」といらものが深く関係している。人間が自分と似た人、 または似たものに対して好感を抱きやすい心理がある。 これらの概念は言語学に反映され、掛けことばの形成される理由やその背後にある認知的動機づけに対する理解に役立つ。次に、中国の大学入試スローガンと大学入試を背景にしたミラーリングと類似性の視点から具体例を挙げながら考察していく。 ## 4 中国の大学入試に関わるスローガ ## ンの実例分析 似ているような発音、または関連性のある意味合いによって生まれた掛けことばは、聞き手に親近感と安心感を与え、より強い印象を残す。たとえば、次の例を見ていただきたい。 (1)勤是甘泉水,学似聚宝盆 訳 : 勤勉さは甘い泉であり、学ぶことは宝物を盛った盆である。 (2)时间抓起来就是黄金, 抓不起来就是流水訳 : 時間は掴めば黄金になるが、掴めなければ、流れてゆく水である。 ( 3 ) 不经风雨, 怎见彩虹? 訳 : 暴風雨を乗り越えなければ、虹に出会うこともない。 (4)欲达高峰, 必忍其痛 訳:高峰に達したければ痛みに耐えなければならない。 (5)读书不觉已春深,一寸光阴一寸金 読書して、春らしくなったことも気づかない。時は金である。 (6)宝剑锋从磨砺出, 梅花香自苦寒来宝剣の鋭さは磨いてから出てくる。梅の花の香りは、厳しい寒さに耐えながら出てくるのだ。 (7)书山有路勤为径本の山を登るには勤勉という道がある。 (8)会当凌绝顶,一览众山小 一番高い山の頂上に登れば、他の山が小さく見える。 (9)今朝勤学苦,明日跃龙门 勉学に励むのは苦しいが、将来は(鯉の滝登りのように)竜門を登ることができる。 (10)把汗水变成珍珠 訳 : 汗粒をパール真珠にかえるのだ。 大学入試のつらさを乗り越えるためのスローガンは、励ましの言葉でもあるが緊張する受験勉強の中での遊び心の表れでもある。すなわち、これらのスローガンは比喻に潜む「謎」を解き明かす快感が味わえ、人間の好奇心、求知心にこたえることができ、 そして、やわらかいイメージで受験勉強の緊張感を和らぐ働きがある。 努力、時間、成功、汗粒などを甘い泉、虹、高い山、真珠などに喻えている。泉、虹、山、真珠などの具体像で、受験の成功に対する祈りという抽象的な概念を比喻で具体化して表している。前者が後者に、意味の関連性の面で類似していると捕らえ、前者を後者に喻えている。汗粒を真珠にたとえる例を、類似性の観点から分析すると、両者の関係と比喻が成り立つ要素を以下の図で表すことが出来る。 汗粒と真珠は両方と粒状であり、そして、数少ない(貴重)、きらきらする(光沢がある、)つらい時に出る(刺激を受ける)という共通する要素がある。こういった類似性に注目することで、「「汗粒をパール真珠にかえるのだ」に対する理解を助ける効果がある。 「暴風雨を乗り越えなければ、虹に出会うこともない」の例に表されているような、類似性に基づく意味の拡張である比喻であると考えられる。それはつらい受験勉強を「暴風雨」に喻えている点が比喻であり、また試験に受かったことを虹に出会えたことに喻えている点でも比喻である。つまり、受験勉強のつらさと受かったときの達成感に焦点を当てて認知し、「暴風雨」と「虹」に喻えている。したが って、聞く者に強いエンパシーを感じさせ、比喻との相乗効果が出ている。受験勉強といえば、つらさを真っ先に想起するため、「つらさ」という参照点を表示するだけでターゲットである「暴風雨」にアクセスすることが可能になるのである。 例(4)は、「高い成績」を参照点にして、ター ゲットである「高い山」を表現している。 このスローガンは受験勉強の苦しみと受かったときの達成感を詩的な表現で豊かに表した。受験勉強の苦しみと暴風雨に打たれるつらさは、共通性のある概念で、共感を喚起しやすくエンパシーの程度が高いスローガンになっている。 ## 5 大学入試期間に保護者らが取った 興味深い行動についての分析 受験生の豪快なスローガンに合わせ、保護者たちも精一杯の努力で受験生を応援している。日本と異なり、中国の両親のほとんどは大学入試の子供を試験会場まで送り迎えする。毎年、新聞のトップページに出るほど大学受験生への応援が盛大である。たとえば、受験現場の外で縁起を担ぐために、結婚式のときぐらいしかチヤイナドレスを着ないない受験生の母親らが、鮮やかな姿で注目を集める。これは、チャイナドレスが礼服であるだけではなく、その背後にある掛けことばが潜んでいるためである。掛けことばは、発音の類似性を使って1つの言葉に2つの意味を持たせるといらレトリックである。 すなわち、表面上は1つの意味でありながら、内容上は 2つの意味を含ませている技巧である。このチャイナドレス現象がその仕組みを巧みに応用した例である。前節では、比喻の使用した大学入試のスローガンを考察した。次に、大学入試を背景にした興味深い掛けことば現象を見てみよう。前文で分析したエンパシーを比喻表現の効果的な利用で表現していることについて以下の例で考察する。いずれも発音の関連性と意味の類似性から生まれた掛けことばが支える現象であり、新聞やニュースに出るほど注目も集めている。 (1)「旗袍」と「旗开得胜」 チャイナドレスは中国語では「旗祀」と言う。この「旗」 の字と中国の成語「旗开得胜 (戦いがうまくいき勝利する)」の「旗」の字を掛けているのである。また、「旗袍」の横は開いているため、「旗开得胜」の「开」に掛け、発音の類似性と意味の関連性で裏付けられた共感度の高い掛けことばである。 (2)「马补」と「马到成功」女性はチャイナドレス、男性の多くは「马补」を着て試験会場まで応援に行く。これは、「马补」を着ると縁起がいいと言われているためである。なぜなら、「马补」の 「马」と言う字と中国の四字熟語「马到成功 (戦いが始まってすぐ勝利がつかめる)」の「马」の字を掛けているからである。 (3) 「吻过」と「稳过」 試験問題を手に取ると、縁起のいい行為としては試験ペーパーにキスすることである。受験番号などを書く前、まず、試験ぺーパーにキスする受験生がいる。なぜなら、試験ぺーパーをキスした(吻过)ことで、試験を簡単に通過する(稳过)ことができるといら「吻、稳」によつて生成された掛けことばが背後にあるからである。 (4)「紫腚」と「指定」 縁起を追求するための行為は、受験生の着る服にも及ぶ。紫色のパンツを履くことも、試験がうまくいく「手段」の一つであるとされている。「腚」は中国語の俗語で、「お尻」を意味する。紫色のパンツを履くと紫色のお尻になり、すなわち「紫腚」になる。中国語の「指定过」と掛けて、必ずパス寸る」といら意味を表している。 (5)「高举向日葵」と「一举夺魁」 試験会場外で、保護者らがひまわりの花を高く挙げながら待っている風景も注目を集めている。ひまわりを高く挙げる「高举向日葵」の「举」と「葵」を、「一発で一番上位の座を取る」ことを意味する四字熟語の「一举夺魁」に掛けている。 (6)「红、绿、黄」と「开门红」「一路绿灯」「走向辉煌」受験生が試験で着る服の色も、縁起のいい掛けことばによって決めることがある。比較的に人気があるのは、「红、绿、黄」がある。具体的には、試験の初日は「红」 (赤)色で「开门红(順調でいい滑り出し)」と掛け、翌日は「绿」(緑)色で「一路绿灯 (道全体が青信号)」と掛けている。そして、試験の最後の日は「走向辉煌 (煌びやかな未来に向かって歩んでいく)」の「黄」(黄色)と掛けている。 (7) 試験日の縁起のいい料理 日本では、「受験に勝つ」にかけてかツを食べる文化があるように、中国でも試験でいい点数が取れるように、縁起のいい料理が人気である。たとえば、地域によっては「粽子(粽) 」食べて試験に臨む文化がある。漢字の 「粽」の発音は、高い点数で試験に合格する「高中」の 「中」が近音字であるその理由である。その他、麺を食べる際、一本一本スムーズに進むため、麺を食べると試験が順調に行くといら言い伝えもある。 (8) Nike が人気 ナイキのロゴの形は、チェックマークからである。試験ペーパーを判定する際、正解を表すのは、チェックマー クである。ナイキの服を着ることで「答えが正解であるように」ということを祈り、よい結果を期待する。 (9) WeChat (ウィーチャット)の「红包」の金額について新年などで何かを祝う際、赤色の封筒にお金を入れ、家族の中の年上の人が、若者や子どもに渡すものが昔の「红包」である。現在ではデジタル化が進むことにより、現金ではなく、ウィーチャットで「红包」を送ることが多い。大学入試の受験生を励ますため親や親戚が「紅包」 を送ることもある。しかし、新年に渡す 888 元のような金額ではなく、試験の際に渡すのは、 211 元、または 985 元が多い。なぜなら、「211 工程重点大学」と「985 工程重点大学」は、中国で名門大学とされ、受験生の憧れである。よって、 211 と 985 の数字も縁起の良い数字とされている。 以上で挙げた例は、いずれも比喻を巧みに利用したものであり、親しみやすさと、そこはかとないユーモアを醸し出している。言葉の意味や発音の類似性による「掛けことば行為」以外に、(7)、(8)の例のような、形による 「掛けことば」も多く存在する。こういったような「掛けことば行為」は、他にも数え切れないほど存在する。一見、意味の分かりにくい行為や現象であるが、その背後にある掛けことばを分析することで、理解しやすくなり、強い印象が残る。エンパシーの喚起がより噈楽性に溢れるものになり、共感度も高まる。こうした掛けことば表現によって、試験に受かることに対する期待感が無意識に表現されている。周りの人からも親しまれやすく、エンパシーを表す効果的な手段と一つであるといえる。 ## 6 終わりに 本稿では、まず、大学入試のスローガンの具体例を それぞれ分析しながら紹介した。次に、このようなスロー ガンがどのようなプロセスで生成されているかを明らかにした。さらに、その背後にどのような認知的動機づけが働いているかを詳細に考察した。その結果、共感を喚起する比喻および掛けことばの豊かな使用が明らかになった。 今後の課題としては、今回紹介したデータは質的および量的な側面でも、網羅することはなかったため、その点を補ら必要がある。また、今回見つけることができなかった種類の語形成の手段などをさらに探索し、考察を深めていこうと考えている。 ## 参考文献 1.楠見孝『比喻理解の構造』誠信書房 1990 2.瀬戸賢一『よくわかる比喻一一言葉の根っこをもっと知万う』研究社 2005 3. 高橋英光『言葉のしくみ認知言語学のはなし』北海道大学出版社 2010 4.橋本学「命名の認知言語学的分析に関する試論—地域の名称をケース・スタディとして一」『欧米言語文化論集』pp. 191 - 207, 2012-03-07, 岩手大学人文社会科学部欧米言語文化コース 2012 5.ウイキペディアミラーリング(オンライン)(引用日: 2022 年 1 月 1 日.) https://ja.wikipedia.org/wiki/ミラーリング.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A7-3.pdf
# 局所および大域的特徵量に基づく語義の曖昧性解消 浅川翔 ${ }^{1}$, 鈴木良弥 ${ }^{2}$, 李吉屹 ${ }^{2}$, 福本文代 ${ }^{2}$ ${ }^{1}$ 山梨大学大学院修士課程工学専攻 2 山梨大学大学院総合研究部工学域 \{g20tk002, ysuzuki, jyli, fukumoto\}@yamanashi.ac.jp ## 概要 語義の曖昧性解消 (WSD) は,文中に出現する単語の意味を同定するタスクであり, 機械翻訳や情報抽出などの精度向上に貢献できる. 語義の曖昧性解消を高精度で行うためには, 精度に貢献する特徴を学習する必要がある.この問題に対し, 近年,ニューラルネットワークモデルを用いた手法が数多く提案されている.しかし,これらの手法の多くは, 文単位を基本としており,文書単位での特徴抽出を利用した研究は少ない. 本研究では, 局所的特徴, すなわち文内の単語間の依存関係に基づく単語特徴と大域的な特徴である文書の特徴に注目し,局所及び大域的な特徴を相補的に利用することが WSD において有益であることを示す. ## 1 はじめに 語義の曖昧性解消 (WSD) は, 文中に出現する単語の意味を同定するタスクであり, 機械翻訳や情報抽出などのタスクの精度向上に貢献できる. 従来の多くの WSD システムは,曖昧な単語ごとに独立した特徴を学習している [1]. 単語埋め込みをそれらのシステムに統合した手法も提案されている [2]. 最近になり,訓練により精度に貢献する特徴抽出を行うためにニューラルモデルが多く利用されている.単語埋め込みに関しては ELMo [3] や BERT [4] などの言語モデルに基づく埋め込み表現が主流となっている。これは,Word2Vec や GloVeのような静的単語埋め込みとは異なり, 文脈に応じた単語表現を獲得することが可能であり, WSD に対して非常に有効に働くためである [5][6]. 最近の言語モデルに基づく研究では,文中の単語と文外の単語との間にも依存関係があることに着目し, より長距離の単語間の依存関係を捉える手法が提案されている [7]. しかし,これらの手法の多くは, 文単位でデータを処理しており,文書単位での特徴抽出に関する言及 は少ない. 本研究では,局所的特徴,すなわち文内の単語間の依存関係に基づく単語特徴と大域的な特徵である文書の特徴に注目し,局所及び大域的な特徵が WSD において有益であることを示す。 ## 2 関連研究 ## 2.1 Gloss 文 Gloss 文 (語釈文) は,テキスト内の単語, またはフレーズの意味を簡潔に表したものであり,語義の曖昧性解消に重要な要素であることが示されている. Luo らは,ニューラル WSD システムの追加入力として Gloss 文を使用し,精度を大幅に向上させた [8]. Kumar らは,WordNet 上に定義されたグラフ構造を用いて Gloss 文を埋め込み,概念べクトルとして使用した. しかし, GlossEncoder は事前学習されたパラメータで初期化を行い,訓練時はパラメータを固定するため,知識グラフを学習させるためのコーパスが別途必要になる [9]. Blevins らは, ContextEncoder と GlossEncoder の両方を同時に訓練させることにより, GlossEncoder 用の追加コー パスを必要とせずに Gloss の埋め込み表現 (概念べクトル)を学習する手法を提案した [10]. 実験では, BERT と組み合わせることで精度が大幅に向上することを示した. 本手法は,対象文と Gloss 文を Transformer ネットワークでエンコードし,各ベクトルの距離に基づきスコアを決定する点で Blevins らの手法と類似している。一方,局所的な特徴量を高精度で抽出するために、エンコーダの最適化を行った点,及び処理単位を文から文書単位に据張し,大域的特徴量抽出を可能にした点で異なる。 ## 2.2 文法と位置情報 シソーラス辞書である WordNet では,例えば動詞「evoke」などのように概念の説明文である Gloss の中に目的語の属性を示すものがあるなど,概念と文 表 1 長距離依存関係の例: 表中, 黄色は生物関連の単語を示す. mouseの概念には,「動物のマウス」,「コンピュータマウス」,「目をぶつけたときにできるあざ」,「静かな人」があり,対象単語「mouse」が属する文書内に生物関連のキーワードがある場合,対象単語の語義は 「動物のマウス」である可能性が高くなる。この例の場合,対象単語「mouse」と生物関連の単語「animal」は文外出現している. Sentence: We classify mice as "straight haired" or "wavy haired", but a hairless mouse appears . Sense: mouse\% $1: 06: 00:$ : Gloss: any of numerous small rodents typically re-sembling diminutive rats ... hairless tails Text: Some experiments ... We classify mice as “ straight haired " or "wavy haired", but a hairless mouse appears. We can escape from such a diffi-culty by ruling out the animal as not constituting a trial , but ... experiment has the value $* * \mathrm{f}$. 法が深く関わる例が多く見受けられる (例. evoke\#1's Gloss: call forth (emotions, feelings, and responses)). すなわち, 文法情報は WSD の精度貢献に大きく関わる. 最近の研究では,BERT[4]を用いることにより文法やフレーズを考慮した埋め込み表現を獲得できることから,これを用いて入力文や Gloss のエンコードを行う手法が主流となっている [11] [10]. Yang らは,BERT の絶対位置情報や MASK トークンを用いた事前学習タスクの改善を図り,相対位置情報の使用や Permutation Language Modeling という新たな事前学習タスクを用い,言語モデルの精度を向上させた [12]. Song らは,絶対位置情報と相対位置情報を相補的に扱うことでトークン間の依存関係をより正確に表現することにより,これが言語モデル (MPNet) の精度に貢献することを示した [13]. MPNet は文法情報が重要な要素となるタスク CoLA において,以前の言語モデルの精度を大幅に上回っていることから,文法やフレーズを考慮した埋め込み表現の獲得に優れていることが分かり,WSD にとっても有益であると考えられる。本手法では, MPNet をニューラル WSD システムに統合し, 局所的特徴量をより正確に抽出することで,さらなる精度向上を図った。 ## 2.3 文書中の長距離依存関係 従来の WSD は語義の解消を文単位で行う手法が多い. 本手法は,ニューラル WSD システムを文単位の処理から文書単位の処理へ拡張することにより精度向上を目指す. 表 1 に,文外の依存関係の例を示す. 文書単位の処理へ拡張することにより,語義を同定する上で重要な特徴を,周辺文から抽出することができるようになる. ## 2.4 訓練コーパスの追加 最近の研究では, 訓練コーパスとして SemCor に加えて WordNet Gloss Corpus(WNGC) と WordNet Example Sentence Corpus(WNEX) を用いることにより,精度が向上することが報告されている [6][11].本手法においても WNGC と WNEXを訓練コーパスとして追加し,さらなる精度向上を図った。 ## 3 提案手法 本手法を図 1 に示す。本手法は, 対象単語を文中の周辺単語に応じて表現する役割を担う SentenceEncoder と,文書全体をべクトルとして表現する役割を担う TextEncoder,及び語義の定義文である Gloss 文をべクトルとして表現する役割を担う GlossEncoder で構成されている. 各エンコーダの深層ネットワーク部分は,事前学習により獲得した一般的な単語の埋め込む表現を用いるために,MPNet により初期化する. ## 3.1 WSD タスクおよび本手法の枠組み 本手法は, 対象単語, 対象単語が属する文と文書,及び対象単語の候補語義に対応付けられた Gloss 文の埋め込み表現を用いる。 入力文 $c=c_{0}, c_{1}, \ldots, w, \ldots, c_{m}$ ( $w$ は曖昧性を解消する対象単語) と, 入力文 $c$ が属する文書 $d$, 及び対象単語 $w$ の候補語義 $S_{w}$ の Gloss 文 $g=g_{0}, g_{1}, \ldots, g_{l}$ が与えられ, 語義 $s=s_{c_{0}}^{0}, s_{c_{0}}^{1}, \ldots, s_{w}^{i}, \ldots, s_{c_{m}}^{j}$ を出力する ( $i^{\text {th }}$ は対象単語の $i$ 番目の候補語義を示す). SentenceEncoder $T_{c}$ は, 式 (1)のように入力文 $c$ 中の対象単語 $w$ をサブトークン $w_{l}=w_{j}, \ldots, w_{k}$ 毎にエンコードし,その平均を $w$ の表現 $r_{w}$ として出力する. $ r_{w}=\frac{1}{k-j} \sum_{l=j}^{k}\left(T_{c}(c)[l]\right) $ TextEncoder $T_{d}$ は, 式 (2) で示されるように対象単語 $w$ が属する文書 $d$ をエンコードし, 先頭のトークン (特殊トークン [CLS] に対応) を $d$ の表現 $r_{d}$ として出力する. $ r_{d}=T_{d}(d)[0] $ 図 1 textBEM の枠組み: ContextEncoder に対象単語が属する文を,TextEncoder に対象単語が属する文書を,GlossEncoder に候補語義の Gloss を入力する.各エンコーダの深層ネットワーク部分は MPNet を用い初期化する。 GlossEncoder $T_{g}$ は,対象単語の候補語義 $s \in S_{w}$ に対応付けられた Gloss $g=g_{0}, g_{1}, \ldots, g_{l}$ をエンコードし,先頭のトークン (特殊トークン [CLS] に対応) を $s$ の表現 $r_{s}$ として出力する. $i=0, \ldots,\left|S_{w}\right|$ とした時,式 (3) で示すように対象単語の語義 $s$ は,対象単語 $w$ と候補語義 $s_{i}$ のエンコードされた表現 $r_{w}$ と $r_{s_{i}}$ の内積及び,対象単語が属する文書 $d$ と候補語義 $s_{i}$ のエンコードされた表現 $r_{d}$ と $r_{s_{i}}$ の内積の平均で計算される. $ \Phi\left(w, d, s_{i}\right)=\frac{1}{2}\left(r_{w} \cdot r_{s_{i}}+r_{d} \cdot r_{s_{i}}\right) $ 本手法は,モデルの訓練のために cross-entropy loss を使用した. (対象単語, 対象単語の属する文書, 語義) の組 $\left(w, d, s_{i}\right)$ が与えられた時の損失関数を式 (4) に示す. $ L\left(w, d, s_{i}\right)=-\Phi\left(w, d, s_{i}\right)+\log \sum_{j=0}^{\left|S_{w}\right|} \exp \left(\Phi\left(w, d, s_{j}\right)\right) $ ## 4 実験 ## 4.1 データセットおよび評価方法 実験では,Raganato ら [14] の評価手法を用い本手法の検証を行った. 訓練コーパスとして, SemCor,WNGC,及びWNEXを用いた. SemCor および WNGC は WordNet 上の語義に対し, 人手により注釈付けされたコーパスである。 WNEXは, WordNet 上の各語義の例文に自動で注釈付されたコーパスである.検証セットは,SemEval-2015 (S15) [15]を用いた。テストセットは,Senseval2 (S2) [16], Senseval-3 (S3) [17], SemEval-2007(S7) [18], 及び SemEval-2013 (S13) [19]を用いた. ## 4.2 実験結果 ## 4.2.1 ベースラインおよび関連研究との比較 表 2 に提案手法である textBEM および最近の state-of-the-art システムの結果を示す. EWISE は, WordNet で定義された語義間の関係性に基づいた構造化ネットワークを,WSD モデルに統合したモデルである [9]. EWISER は,概念べクトルを事前学習により得たモデルであり, データセットの拡張やグラフ構造を統合している [11]. BEM は, ContextEncoder と GlossEncoder を同時に訓練するバイエンコーダモデルである [10]. 本手法は,BEM がより広範囲の情報を捉えることを可能にしたモデルであるため, BEM を本研究のベースラインに設定した。 BEM-MPNet は,BEM における各エンコー ダを初期化するための事前学習済みパラメータを, BERT-base から MPNet-base に置き換えたモデルである. 表 3 に,提案手法に入力する文書別の結果を示す. 前一文は,対象単語が属する文の直前の 1 文を用いた結果を示す.前全文は,対象単語が属する文以前の全ての文を用いた結果を示す. 全文は,対象単語が属する文書全体を用いた結果を示す。 表 2 English all-words WSD タスクにおける F1-score(\%): ALL は,全テスト用データセットを結合して検証した場合の結果. S,G,E はそれぞれ SemCor,WNGC,及び WNEXを示す. T は, 入力の単位が文書であることを示す. "*"は,スコアが最良のものと比較して統計的に有意であることを表す(有意水準 $5 \%$ での $\mathrm{t}$ 検定に基づく). 表 3 入力文書別の平均 F1-score: "*"は,スコアが最良のものと比較して統計的に有意であることを表す(有意水準 $5 \%$ での $\mathrm{t}$ 検定に基づく). ## 4.2.2 語義の解消結果 表 2 より, EWISER は, EWISE と比較し ALL スコアが $8.3 \%$ 高く, 大幅な精度の向上が認められる. BEM は,概念べクトルを同時に学習するバイエンコーダモデルにしたことで,概念べクトルを事前学習により取得する EWISE の精度を上回る。また, EWISER と同様のデータセットを使用して学習することにより,EWISER と同等の精度が得られている. さらに, BEMのエンコーダ初期化用の事前学習済みパラメータを BERT から MPNet に変更することにより,さらに優れた精度が得られている. このことから, MPNet により局所的特徴量をより正確に抽出することは,ニューラル WSD モデルにおいて有益であると考えられる. 本手法である textBEM は,ALL 評価セットで最高精度が得られている。特に名詞と動詞に精度の貢献が確認できる. このことから,より広範囲の文書情報を用いることがニューラル WSD モデルにおいて有益であると言える. 本研究では,MPNet-base を用いている. 一方で MPNet-large を用いることでさらなる精度向上も期待できる. しかし, 本研究では文法情報をより正確に捉えられる MPNet と WSD との親和性, さらにニューラル WSD モデルの局所的特徴量を高精度で抽出することが目的であるため,メモリ効率の高い MPNet-base を用いた。 表 3 は, 入力文書の違いによる精度を示す. 表 3 より, 対象文が属する文書全て (全文)を用いた場合,表 4 エンコーダ初期化用の言語モデル別の平均 F1-score:訓練コーパス SemCorのみを用いて訓練した. 本手法は, バイエンコーダ型を採用し,各エンコーダは BERT-base 及び MPNet-base で初期化した。"*"は,スコアが最良のものと比較して統計的に有意であることを表す(有意水準 $5 \%$ での $\mathrm{t}$ 検定に基づく). ALL で $81.3 \% て ゙ あり$ 最高精度であった. 特に名詞と動詞の精度が高いことがわかる。一方で「入力なし」と「前一文」,及び「入力なし」と「前全文」の ALL スコアには有意差がなかった. このことから,入力文書の範囲は textBEM の精度向上に関係すること, さらにより広範囲にした方がモデルの精度に貢献すると言える. 表 4 にエンコーダ初期化用の言語モデル別の結果を示す. MPNet-base を用いた場合が ALL 評価セットで BERT よりも優れており, 特に. 名詞,動詞及び形容詞で顕著であった. このことから,絶対位置情報と相対位置情報を相補的に扱う MPNet は,絶対位置情報のみを扱う BERT と比較し,文法情報が重要な WSD タスクとの親和性が高いと言える。 ## 5 結論 本研究では,局所的な特徴量を高精度で抽出するためのエンコーダの最適化に加え,バイエンコーダモデルに TextEncoderを統合し,大域的な特徴量を学習する手法を提案した。実験の結果,ベースモデルの ALL スコアと比較し, $2.5 \%$ の精度向上が見られ,エンコーダの最適化および大域的特徴量の抽出手法の有効性が示せた. ## 謝辞 本研究の一部は, 科研費 17K00299, 及び JKA 補助事業の助成を受けたものである. ## 参考文献 [1] Razvan Bunescu Hui Shen and Rada Mihalcea. Coarse to fine grained sense disambiguation in wikipedia. Lexical and Computational Semantics, Vol. 1, pp. 22-31, 2013. [2] Sascha Rothe and Hinrich Schutze. Autoextend: Extending word embeddings to embeddings for synsets and lexemes. Association for Computational Linguistics, Vol. 53, pp. 1793-1803, 2015. [3] Mohit Iyyer Matt Gardner Christopher Clark Kenton Lee Luke Zettlemoyer Matthew E. Peters, Mark Neumann. Deep contextualized word representations. Association for Computational Linguistics, Vol. 1, pp. 2227-2237, 2018. [4] Kenton Lee Kristina Toutanov Jacob Devlin, MingWei Chang. Bert: Pre-training of deep bidirectional transformers for language understanding. Association for Computational Linguistics, Vol. 1, pp.4171-4186, 2019. [5] Daniel Loureiro and Alipio Jorge. Language modelling makes sense: Propagating representations through wordnet for full-coverage word sense disambiguation. Association for Computational Linguistics, Vol. 57, pp. 56825691, 2019. [6] Benjamin Lecouteux Lorc Vial and Didier Schwab. Sense vocabulary compression through the semantic knowledge of wordnet for neural word sense disambiguation. Global Wordnet Association, Vol. 10, pp. 108-117, 2019. [7] Iz Beltagy, Matthew E. Peters, and Arman Cohan. Longformer: The long-document transformer. arXiv:2004.05150, 2020. [8] Zexue He Qiaolin Xia Zhifang Sui Baobao Chang Fuli Luo, Tianyu Liu. Leveraging gloss knowledge in neural word sense disambiguation by hierarchical co-attention. Association for Computational Linguistics, pp. 1402-1411, 2018. [9] Karan Saxena Partha Talukdar Sawan Kumar, Sharmistha Jat. Zero-shot word sense disambiguation using sense definition embeddings. Association for Computational Linguistics, Vol. 57, p. 5670-5681, 2019. [10] Terra Blevins and Luke Zettlemoyer. Moving down the long tail of word sense disambiguation with gloss informed bi-encoders. Association for Computational Linguistics, Vol. 58, pp. 1006-1017, 2020. [11] Michele Bevilacqua and Roberto Navigli. Breaking through the $80 \%$ glass ceiling: Raising the state of the art in word sense disambiguation by incorporating knowledge graph information. Association for Computational Linguistics, Vol. 58, pp. 2854-2864, 2020. [12] Yiming Yang Jaime Carbonell Ruslan Salakhutdinov Quoc V. Le Zhilin Yang, Zihang Dai. Xlnet: Generalized autoregressive pretraining for language understanding. Neural Information Processing Systems, pp. 5754-5764. [13] Kaitao Song, Xu Tan, Tao Qin, Jianfeng Lu, and TieYan Liu. Mpnet: Masked and permuted pre-training for language understanding. Neural Information Processing Systems, Vol. 34, , 2020. [14] Roberto Navigli Alessandro Raganato, Jose Camacho- Collados. Word sense disambiguation: A unified evaluation framework and empirical comparison. Association for Computational Linguistics, Vol. 15, pp. 99-110, 2017. [15] Andrea Moro and Roberto Navigli. Semeval-2015 task 13: Multilingual all-words sense disambiguation and entity linking. Semantic Evaluation, Vol. 9, pp. 288-297, 2015. [16] Scott Cotton Lauren Delfs Hoa Trang Dang Martha Palmer, Christiane Fellbaum. English tasks: All-words and verb lexical sample. Semantic Evaluation, Vol. 2, pp. 21-24, 2001. [17] Benjamin Snyder and Martha Palmer. The english allwords task. Semantic Evaluation, pp. 41-43, 2004. [18] Dmitriy Dligach Martha Palmer Sameer Pradhan, Edward Loper. Semeval-2007 task-17: English lexical sample, srl and all words. Semantic Evaluations, Vol. 4, pp. 87-92, 2007. [19] Daniele Vannella Roberto Navigli, David Jurgens. Semeval-2013 task 12: Multilingual word sense disambiguation. Semantic Evaluation, Vol. 2, pp. 222-231, 2013.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A7-4.pdf
# A Data Augmentation Method for Building Sememe Knowledge Base via Reconstructing Dictionary Definitions Xiaoran Li Toshiaki Takano Adaptive Systems Lab, Shizuoka Institute of Science and Technology \{2121026.rs, takano. toshiaki\}@sist.ac.jp ## Abstract A sememe is a semantic language unit of meaning; it is indivisible. Sememe knowledge bases (SKBs), which contain words annotated with sememes, have been successfully applied to many natural language processing tasks. Some extant construction methods for sememe knowledge bases are performed in a limited lexicon with fixed-size sememe annotations. However, the obtained sememe annotation is challenging to extend to more words from other lexicons. In this paper, we proposed a method via reconstructing word definitions for expanding the lexicon. Moreover, we presented an evaluation sememe method utilizing graph embedding techniques and performed many experiments to prove effective. ${ }^{1)}$ ## 1 Introduction A sememe is a semantic language unit of meaning[1]; it is indivisible. However, people usually employ words as the minimum semantic unit because words as semantic representations are available for writing, yet sememe is only a semantic concept. Usually, there is a sense semantic unit between the sememe and the word (As shown in Figure 1). Moreover, linguists believe that all languages have the same limited sememe space[2] (e.g. HowNet SKB[3], which uses about 2,000 language-independent sememes to manual annotate senses of over 100 thousand Chinese and English words). Moreover, cooperate with the multilingual encyclopedic dictionary as BabelNet[4] to build a multilingual SKB as [5]. Furthermore, Sememe can synthesize words and represent the essential meaning was successfully applied to Neural Networks[6][7], Reverse Dictionaries[8] and Textual Adversarial Attacking[9], etc. However, manual annotation is flawed because the meaning of words is incremental with the amount of information, and it is im- 1) Codes are available at https://github.com/SauronLee/SKB-DA Figure 1 Word-based semantic units (e.g. "apple”. It has very many senses. However, No matter how a word changes its sense, it is always composed of several primary and single sememes.) practical to add and modify SKB artificially. Some studies on automatic SKB construction have emerged recently. We previously proposed a method[10] based on deep clustering networks to learn sememe. Specifically, this method is based on an Auto-encoder to achieve minimal semantic clustering. Instead of generating specific languageindependent sememes, it generates word embeddings with approximate sememe meaning, Regrettably, which is imprecise. Moreover, (Qi et al. 2021)[11] explored an automatic way to build an SKB via dictionaries with a Controlled Defining Vocabulary (CDV)[12], and demonstrate the effectiveness of this method; it is even superior to the most widely used HowNet SKB. The method is to extract the CDV as sememes in the dictionary definition. However A CDV is composed of high-frequency words. If the dictionary is large enough, it does not cover all words perfectly, which means some complex words can not acquire sememe. To solve this problem, we proposed a way of reconstructing word definitions to increase the lexical coverage of CDV. We hypothesized that if the sememe can represent the basic meaning of a word, then if replacing the word with its sememes does not change its original meaning. More specifically, we solve the problem of CDV coverage by replacing the definitions of some words that CDV widow: A woman whose husband dies is a widow . husband: A husband is a male in a marital relationship male: Male is the séx of an organism Figure 2 If "widow" is a complex word and "husband" is not in sememes, we can use the definition instead of "husband". does not cover with definitions consisting of sememe (As shown in Figure 2). Finally, we employed the sememe internal evaluation criteria defined in [13] for evaluation. Moreover, we proposed a novel method to evaluate sememe by constructing a sememe graph. Because we consider the weight of sememe when constructing the sememe graph, it performs excellently in both evaluation methods. We shown the results in section 3 . ## 2 Methodology This section will detail the SKB construction method based on reconstructed word definitions and how to build a sememe graph for evaluation. ## 2.1 Building Sememe Knowledge Base We employed the sememe search strategy of DictSKB[11]. It is intuitive to operate. Because a good sememe can represent the essential meaning of a word, it is most straightforward to extract the sememe from the word's definition. This method starts with finding the highest frequency $m$ words in the dictionary definition to cover as many dictionary words as possible (Previous experience: $m \approx 2 k$ ). Unlike the specialized dictionaries employed by DictSKB, we utilized WordNet ${ }^{2}$ and Wikipedia $^{3)}$ as the base corpus for building SKB. WordNet contains 0.2 million pairs of word senses and definitions, while Wikipedia contains 6 million pairs of words and detailed explanations. Our approach is divided into two modules. Since the word definitions in WordNet are shorter and more precise, we first find the initial Sememe from WordNet and construct a WordNet-based SKB by matching the annotated words in WordNet. Then we expanded it to Wikipedia based on the WordNet-based SKB 2) https://wordnet.princeton.edu/ 3) https://dumps.wikimedia.org/ Table 1 Statistics of WordNetSKB, WikiSKB \& WikiSKB-DA. WikiSKB-DA is a data augmented version of WikiSKB, and compared with HowNet and DictSKB. The gray font represents the previous SKB results. ${ }^{6)}$ \#AvgSem denotes the average Sememe number per sense, and "+" represents this average over four. (Like Figure 3). ## 2.1.1 WordNet-based SKB First, we remove the stop words ${ }^{4)}$ and meaningless characters and used the entity linking tool TAGME ${ }^{5)}$ to find the $2 k$ most frequent topic words from HowNet word definitions as the base sememes. TAGME can identify meaningful short phrases in an unstructured text and link them to a relevant Wikipedia page. This annotation process has implications that go far beyond the enrichment of the text with explanatory links because it concerns contextualization and, in some way, the understanding of the text. A case in point, the definition "A husband is a male in a marital relationship." is semantically enriched by the relations with the entities "husband", "male" and "marital relationship". We then used the link_probability parameter provided by TAGME to rank the entities in the word's definition and kept only the first four entities with the highest probability as sememes. We compared the filtered results with DicSKB and HowNet (In Table 1). ## 2.1.2 Wikipedia-based SKB The Wikipedia-based SKB construction is roughly the same as WordNetSKB. The difference is that Wikipedia's explanation is too detailed, and in addition, Wikipedia does not have semantic sense concepts, which significantly increases the noise of constructing SKB. To solve these problems, we took the following trick, - Only the first two sentences of each entry in Wikipedia are adopted.  Figure 3 SKB Expansion Flow Chart: We use WordNet as the original dictionary and lexical expansion through Wikipedia, sharing a sememe set (As $C D V_{\text {ori }}$ ) between them. From the right side of the illustration, we used the look-up table method to replaced the Definition of Dict ${ }_{\text {oth-DA }}$ with the Sememe of $S K B_{\text {ori }}$, which is a straightforward operation. - Traverse each word in the Wikipedia entry and use NLTK to terms lemmatization. - Use TF-IDF to remove words below the threshold from the definition. (We set the lowe bound =4) - Use the polysemantic annotations in Wikipedia as the sense. - Delete the senses of polysemous words containing the meaning associated with "film", "novel", "album", "song", "band", "name", “ep", "game", "surname" and "tv series". - Keep only Wikipedia entries with a one-word title. The WikiSKB was then constructed using the same $2 k$ sememes as WordNetSKB. The statistics in Table 1. Since WordNet-based sememes do not cover the Wikipedia entry definitions perfectly, we reconstructed the entries that were not covered. In detail, we first used TAGME to extract the entities of each entry and adopted the $2 k$ most frequent entities as sememes according to the same method as WordNetSKB. Then we found these words with the same entities from WordNetSKB and replaced them with the sememes of these words. We also put the statistics of the augmented version for WikiSKB in Table 1. ## 2.1.3 Sememe-based Graph Embedding Our idea about the evaluation of sememe is to construct a bipartite graph by linking words with sememe to learn the embedding representation of words and then evaluate the quality of sememe by assessing the quality of word embedding (Like Figure 4). We employ second-order similarity of LINE[14] to train the node vectors regarding the graph embedding model, which is fast and intuitive. In detail, the probability of generating a neighbor node $v_{j}$ given a node Figure 4 Sememe based bipartite graph: We only learn the embedding representation of words by sememe, which means there is no line between words; we use TF-IDF for the weights of edges. The figure shows that "wife" and "husband" contain the same sememe, which should have approximate embedding representations. Note that here we do not consider the embedding representation of the sememe, so we use index instead of the word of the sememe itself. $v_{i}$ can be expressed in the following form: $ p\left(v_{j} \mid v_{i}\right)=\frac{\exp \left(\vec{u}_{j}^{\prime T} \cdot \vec{u}_{i}\right)}{\sum_{k=1}^{|V|} \exp \left(\vec{u}_{k}^{\prime T} \cdot \vec{u}_{i}\right)} $ Where $\vec{u}$ and $\vec{u}^{\prime}$ are denoted as the vector of $v$ itself and $v$ when it is a neighbor, respectively. The empirical probability as $\hat{p}\left(v_{j} \mid v_{i}\right)=\frac{w_{i j}}{d_{i}}$, where $w_{i j}$ is the weight of the edge $i, j$; and $d_{i}$ is the degree of vertex $i$. If we define the importance factor $d_{i}$ of the node, the loss function can be defined as $ -\sum_{i \in V} d_{i} K L_{\text {divergence }}\left(\hat{p}\left(\cdot \mid v_{i}\right), p\left(\cdot \mid v_{i}\right)\right) $ ## 3 Evaluations This section uses two methods to evaluate our SKB: a collaborative filtering method[15] in subsection 3.2 and an approach based on constructing sememe graphs in subsection 3.2. Table 2 The results on Consistency Check of Sememe Annotations: MAP score of WordNetSKB exceeds the DictSKB, which we indicated in boldface. Table 3 The results on the Sememe graph: We merged WordNetSKB and WikiSKB. These tasks provide human scoring of the relationship between two words, thus assessing the degree of positive word relatedness. The method is to first calculate the cosine similarity of the two words and then compare them with the manual tags to calculate the Spearman correlation coefficient ${ }^{8)}$ for scoring. ## 3.1 Evaluate on Consistency Check of Sememe Annotations This method is motivated by the idea that semantically close senses should have similar sememes. It actually implements a sememe prediction process that predicts sememes for a small proportion of senses according to the sememe annotations of the other senses. We have evaluated our SKB using open source code ${ }^{7)}$. For hyperparameters, we set the same hyperparameters as the original paper[11], the number of evaluating epochs is 10 , the threshold is 0.8 , and the descending confidence factor is 0.93 . The evaluation results are in Table 2. We discovered that the accuracy decreases with the increase of the dictionary lexicon. It is intuitive that the dictionary has many synonyms, while the sememe is static. ## 3.2 Evaluate on Sememe Graph Our ultimate goal is to build a large SKB, so we combined the knowledge of both SKBs and evaluated them on some test sets (Shown in Table3). We first performed node embedding training using LINE $^{9)}$, where the size of the node embedding is 200 dimensions, the total number of training samples is 100 million, the starting value of the  Table 4 Sememe comparison on the Ohsumed dataset. Where "non" means no sememe of the word, we have merged WordNetSKB and WikiSKB+ as SKB-DA. More examples can be found in Appendix Table5. learning rate is 0.025 , the number of negative samples is 5 , and we only used second-order proximity for training. SKB is sense-based, but each word in Word Similarity Tasks has only one meaning. Since the sense of words in Wikipedia is huge, we keep only disambiguation and noun sense for each word, and found that a higher number of sememe for a sense is a more accurate representation of the meaning. It is undoubtedly. Since we use only about four sememes to represent the meaning of a sense, it may lose some semantics, but the essential meaning can be kept. We released the data to reproduce the results. ${ }^{10)}$ Note that since the previous SKBs (As HowNet\&DictSKB) did not provide a weight parameter for each sememe, we cannot compare the previous SKBs. However, to demonstrate that our SKB can better represent specialized words we extracted some specialized words in the Ohsumed dataset ${ }^{11)}$ for comparison (Shown in Table 4). Note that we boost the number of sememe to 5,000 to maximize the lexicon, other parameters are the same as before, and the final lexicon size of our SKB-DA is 910,369 . ## 4 Conclusion This study focuses on the lexical expansion of SKB, which expands the vocabulary and dramatically increases the lexical sense. It helps in the semantic understanding of particular domain text classification and some downstream tasks. This paper's proposed method of reconstructing dictionary definitions can effectively expand the original SKB and have promising results on some internal evaluation metrics. In future research, we will use sememe to perform short text classification tasks or use SKB knowledge to apply to Abstract Meaning Representation to improve the accuracy of downstream tasks.  ## References [1] Leonard Bloomfield. A set of postulates for the science of language. Language, Vol. 2, No. 3, pp. 153-164, 1926. [2] Anna Wierzbicka. Semantics: Primes and universals: Primes and universals. Oxford University Press, UK, 1996. [3] Zhendong Dong and Qiang Dong. Hownet and the computation of meaning (with Cd-rom). World Scientific, 2006. [4] Roberto Navigli and Simone Paolo Ponzetto. Babelnet: Building a very large multilingual semantic network. In Proceedings of the 48th annual meeting of the association for computational linguistics, pp. 216-225, 2010. [5] Fanchao Qi, Liang Chang, Maosong Sun, Sicong Ouyang, and Zhiyuan Liu. Towards building a multilingual sememe knowledge base: Predicting sememes for babelnet synsets. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, pp. 8624-8631, 2020. [6] Yihong Gu, Jun Yan, Hao Zhu, Zhiyuan Liu, Ruobing Xie, Maosong Sun, Fen Lin, and Leyu Lin. Language modeling with sparse product of sememe experts. arXiv preprint arXiv:1810.12387, 2018. [7] Fanchao Qi, Junjie Huang, Chenghao Yang, Zhiyuan Liu, Xiao Chen, Qun Liu, and Maosong Sun. Modeling semantic compositionality with sememe knowledge. arXiv preprint arXiv:1907.04744, 2019. [8] Lei Zheng, Fanchao Qi, Zhiyuan Liu, Yasheng Wang, Qun Liu, and Maosong Sun. Multi-channel reverse dictionary model. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, pp. 312-319, 2020. [9] Yuan Zang, Fanchao Qi, Chenghao Yang, Zhiyuan Liu, Meng Zhang, Qun Liu, and Maosong Sun. Word-level textual adversarial attacking as combinatorial optimization. arXiv preprint arXiv:1910.12196, 2019. [10] 李笑然, 高野敏明. The analysis about building crosslingual sememe knowledge base based on deep clustering network. 人工知能学会研究会資料言語 - 音声理解と対話処理研究会 92 回 (2021/9), p. 06. 一般社団法人人工知能学会, 2021 . [11] Fanchao Qi, Yangyi Chen, Fengyu Wang, Zhiyuan Liu, Xiao Chen, and Maosong Sun. Automatic construction of sememe knowledge bases via dictionaries. arXiv preprint arXiv:2105.12585, 2021. [12] Sidney I Landau. Bt sue atkins and michael rundell. the oxford guide to practical lexicography., 2009. [13] LIU Zhiyuan SUN Maosong LIU Yangguang, QI Fanchao. Research on consistency check of sememe annotations in hownet. Vol. 35, No. 4, p. 23, 2021. [14] Jian Tang, Meng Qu, Mingzhe Wang, Ming Zhang, Jun Yan, and Qiaozhu Mei. Line: Large-scale information network embedding. In Proceedings of the 24th international conference on world wide web, pp. 1067-1077, 2015. [15] Ruobing Xie, Xingchi Yuan, Zhiyuan Liu, and Maosong Sun. Lexical sememe prediction via word embeddings and matrix factorization. In IJCAI, pp. 4200-4206, 2017. [16] Eneko Agirre, Enrique Alfonseca, Keith Hall, Jana Kraval- ova, Marius Pasca, and Aitor Soroa. A study on similarity and relatedness using distributional and wordnet-based approaches. 2009. [17] George A Miller and Walter G Charles. Contextual correlates of semantic similarity. Language and cognitive processes, Vol. 6, No. 1, pp. 1-28, 1991. [18] Herbert Rubenstein and John B Goodenough. Contextual correlates of synonymy. Communications of the ACM, Vol. 8, No. 10, pp. 627-633, 1965. Table 5 Sememe comparison on the Ohsumed dataset. Where "non" means no sememe of the word, we have merged WordNetSKB and WikiSKB+ as SKB-DA, note that the SKB-DA* with an asterisk indicates that this sememe is from WikiSKB. We extracted only the first 15 sentences of specialized words in the Ohsumed. When constructing SKB-DA, we did not purposely adjust the medical-related words, but it performed well. We found that DictSKB has insufficient vocabulary and words with similar meanings with the same sememes. e.g., "clostridium" and "colitis". In this way, it is questioning to classify words effectively in the downstream task of natural language processing.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A8-1.pdf
# Automatic Interlingual Homograph Recognition with Context Features Yi Han Ryohei Sasano Koichi Takeda Graduate School of Informatics, Nagoya University han.yi.u2@s.mail.nagoya-u.ac.jp \{sasano, takedasu\}@i.nagoya-u.ac.jp ## Abstract In this paper, we propose a method that incorporates cross-lingual word embedding similarity and degree of co-occurrence in parallel sentences to automate the process of recognizing interlingual homographs. We conduct experiments with multiple word embedding models and different co-occurrence metrics in both Chinese-Japanese and English-Dutch language pairs. Experimental results demonstrate that our proposed method is able to produce accurate and consistent predictions across languages. ## 1 Introduction When learning a foreign language, we often come across words in different languages sharing identical orthographic forms. This is commonly seen in languages with similar writing systems. Such form-identical words with similar semantic meaning across languages are called cognates, while those with different semantic meanings are called interlingual homographs [1,2]. For instance, the Dutch word "angle" means "sting", as opposed to its form-identical word in English. It is not unique for phonographic writing systems. In languages sharing logographic writing systems [3] such as Chinese and Japanese, we can also see interlingual homograph examples like the word "平和", which means "gentle" in Chinese whereas "peace" or "harmony" in Japanese. For second language learners, interlingual homographs can cause learning difficulties as second language acquisition often comprises relating a foreign language to ones' native language [4, 5]. Likewise, interlingual homographs can also pose challenges to natural language processing (NLP) tasks. However, unlike the in-depth investigation of monolingual homographs in tasks like word sense disambiguation and machine translation [6], less attention has been paid to the interlingual homographs. Dominant approaches in psychology and lan- \\ \cline { 3 - 4 } & & \\ Figure 1 An Example of cognate and interlingual homograph in Chinese-Japaneses. * denotes the English translation of sentence examples. guage education introduce interlingual homograph recognition to alleviate the semantic ambiguity. Despite the merits, massive manual annotation works by bilinguals are quite costly [2]. We contribute to this question by automating the process of recognizing interlingual homographs, which can be executed efficiently allowing the absence of linguistic knowledge. Specifically, we manage to involve context features by adopting word embedding similarity and degree of co-occurrence to perform recognition. We conduct experiment on two pairs of languages that are etymologically distant from each other, namely, Chinese-Japanese and English-Dutch to exploit the feasibility of our proposed method. Experimental results on both pairs prove the effectiveness of the proposed method. ## 2 Methodology In this work, we tackle the interlingual homograph recognition across languages. As we cannot find clues from their appearance, we need to make predictions based on their context information. Motivated by this, we formulate our criterion with two important components: word embedding similarity and degree of co-occurrence in parallel sentences. ## 2.1 Word Embedding Similarity The distribution hypothesis suggests that the more semantically similar two words are, the more they occur in similar linguistic contexts [7]. An intuitive way to decide whether a pair of words are cognates or interlingual homographs, is to exploit the word embedding similarity. Generally, there are two types of word embedding, namely the static word embedding, such as Glove[8] and fastText[9], and the dynamic/contextual embedding, such as ELMo[10] and BERT[11]. To compute the similarity of word embeddings, we have to assure that they are in the same vector space. As the words in our setting are from two different languages, we need to introduce an operation: cross-lingual mapping. Cross-lingual mapping aligns independently trained monolingual word embeddings into a single shared space. Existing approaches usually use a bilingual dictionary as supervision signals. Formally, let $L_{1}$ and $L_{2}$ represent a pair of languages, and let $u$ and $v$ represent words from $L_{1}$ and $L_{2}$. Given a bilingual dictionary $Z=\left.\{\left(u_{n}, v_{n}\right)\right.\}_{n=1}^{N}$, we obtain representations of each word: $\mathbf{u}_{1}, \ldots, \mathbf{u}_{N}, \mathbf{v}_{1}, \ldots, \mathbf{v}_{N}$, where $\mathbf{u}_{n}, \mathbf{v}_{n} \in \mathbb{R}^{d}$. Mikolov [12] learns the optimal projection matrix $W$ by minimizing: $ W^{*}=\underset{W \in \mathbb{R}^{d \times d}}{\arg \min }\|W \mathbf{A}-\mathbf{B}\|_{F} $ where $\mathbf{A}$ and $\mathbf{B}$ are two matrix containing all embeddings of words in $\mathbf{Z}$, namely $\mathbf{A}=\left[\mathbf{u}_{1}, \ldots, \mathbf{u}_{N}\right], \mathbf{B}=\left[\mathbf{v}_{1}, \ldots, \mathbf{v}_{N}\right]$, $\mathbf{A}, \mathbf{B} \in \mathbb{R}^{d \times N}$. Xing [13] restrict $W$ to be orthogonal, turning Equation 1 into the Procrustes problem [14, 15] by: $ W^{*}=U V^{T}, U \Sigma V^{T}=\operatorname{SVD}\left(\mathbf{B} \mathbf{A}^{T}\right) $ where $\operatorname{SVD}(\cdot)$ is the singular value decomposition. We generally follow Xing's method to get a projection matrix, except that we obtain $W$ with parallel sentences instead of bilingual dictionary. Let $\mathrm{D}=\left.\{\left(x_{n}, y_{n}\right)\right.\}_{n=1}^{N}$ represent a parallel corpus of $L_{1}$ and $L_{2}$. For each sentence $x_{n}=w_{1}^{1}, \ldots, w_{I}^{1}, y_{n}=w_{1}^{2}, \ldots, w_{I}^{2}$, we obtain sentence embedding by averaging the word embeddings: $ \mathbf{x}_{n}=\frac{1}{I} \sum_{i=1}^{I} \mathbf{w}_{i}^{1}, \quad \mathbf{y}_{n}=\frac{1}{I^{\prime}} \sum_{i=1}^{I^{\prime}} \mathbf{w}_{i}^{2} $ Thus in our setting, $\mathbf{A}=\left[\mathbf{x}_{1}, \ldots, \mathbf{x}_{N}\right], \mathbf{B}=\left[\mathbf{y}_{1}, \ldots, \mathbf{y}_{N}\right]$. We then perform Equation 2 to get $W$. Figure 2 Overview of our proposed method For a pair of form-identical words $\left(z^{1}, z^{2}\right), z^{1} \in L_{1}, z^{2} \in$ $L_{2}$, we first obtain word embeddings in corresponding languages $\left(\mathbf{z}^{1}, \mathbf{z}^{2}\right)$, then compute the cosine similarity by: $ s=\cos \left(W \mathbf{z}^{1}, \mathbf{z}^{2}\right) $ With contextual word embedding models [16], we obtain the embedding of a single word $z$ in an alternative way: select a set of sentences containing $z$; compute embeddings of $z$ in every sentence; get the average of all embeddings. For Chinese and Japanese, we take an average embedding of all characters comprising word $z$. ## 2.2 Degree of Co-occurrence in Parallel Sentences Degree of co-occurrence reveals how often two words occur in similar linguistic contexts. We develop this intuition further and assume that a pair of interlingual homographs are less likely to appear in parallel sentences. We introduce two methods to measure degree of co-occurrence: pointwise mutual information (PMI) and Jaccard similarity coefficient. Given a parallel corpus $\mathrm{D}=\left.\{\left(x_{n}, y_{n}\right)\right.\}_{n=1}^{N}$, the PMI of a pair of form-identical words $\left(z^{1}, z^{2}\right)$ is: $ \operatorname{PMI}\left(z^{1}, z^{2}\right)=\log \frac{P_{\mathrm{D}}\left(z^{1}, z^{2}\right)}{P_{\mathrm{D}}\left(z^{1}\right) P_{\mathrm{D}}\left(z^{2}\right)} $ where $P_{\mathrm{D}}\left(z^{1}, z^{2}\right)$ represents the probability of $z^{1} \in\left.\{x_{n}\right.\}$ meanwhile $z^{2} \in\left.\{y_{n}\right.\} . P_{\mathrm{D}}\left(z^{1}\right)$ denotes the probability of $z^{1} \in\left.\{x_{n}\right.\}$ and $P_{\mathrm{D}}\left(z^{2}\right)$ denotes the probability of $z^{2} \in\left.\{y_{n}\right.\}$ Jaccard similarity coefficient is: $ \operatorname{Jaccard}\left(z^{1}, z^{2}\right)=\frac{C\left(z^{1}, z^{2}\right)}{C\left(z^{1}\right)+C\left(z^{2}\right)-C\left(z^{1}, z^{2}\right)}, $ where $C\left(z^{1}, z^{2}\right)$ denotes counts of $z^{1} \in\left.\{x_{n}\right.\}$ meanwhile $z^{2} \in\left.\{y_{n}\right.\} . C\left(z^{1}\right)$ represents counts of $z^{1} \in\left.\{x_{n}\right.\}$ and $C\left(z^{2}\right)$ represents counts of $z^{2} \in\left.\{y_{n}\right.\}$. Table 1 Statistics of cognates and homograph datasets ## 2.3 Proposed Method Figure 2 illustrates the framework of our proposed method. Given a pair of form-identical words, we first obtain word embeddings with embedding models and align them to a shared space with a linear mapping estimated with a parallel corpus. Then we get a similarity score by computing the cosine similarity of embeddings across languages. We also extract degree of co-occurrence from parallel sentences. Finally, we compute the z-score of the above two scores and fuse them by addition calculation in pairs. We make decisions whether a pair of words are interlingual homographs or cognates by the fusion scores. ## 3 Experiment ## 3.1 Dataset We conduct experiments on two languages pairs: Chinese-Japanese and English-Dutch. Each language pair involves two datasets, i.e., cognates and interlingual homographs. For English-Dutch language pair, we directly take advantage of an existing database containing EnglishDutch cognates and interlingual homographs [17]. For Chinese-Japanese, we refer to a Chinese-Japanese homograph dictionary [18] to derive interlingual homographs. Note that, as our work focuses on interlingual homographs with explicit disparity, we exclude the form-identical words with partially overlapped meanings. We then refer to Chinese-Japanese dictionary [19] to extract identical cognates. Table 1 lists the numbers of cognate pairs and homograph pairs for each of the Chinese-Japanese and English-Dutch datasets. We use Wikipedia dataset ${ }^{1)}$ for contextual word embedding extraction. We extract 1 million sentence pairs respectively from Chinese-Japanese and English-Dutch WikiMatrix [20] as parallel sentences. ## 3.2 Word Embedding Models We employ fastText [9], BERT, and multilingual BERT (mBERT) [11], representing static word embedding model,  Table 2 Pretrained BERT and mBERT Models used in our experiment monolingual contextual embedding model, and multilingual contextual embedding model, respectively. For fastText, Facebook has published pretrained 300dimensional word embeddings ${ }^{2)}$ for 157 languages from which we extract embeddings for our target languages. For BERT and mBERT, we use 12-layers transformer encoder pretrained by huggingface with masked language modeling $^{3)}$. The contextual word embeddings produced by these models are all 768-dimensional. It's worth noting that because in Chinese BERT and mBERT, tokens are processed in the form of characters, so we also choose to use Japanese BERT with character-based tokenization instead of commonly used word-base model for coordination and fair comparison. The models used in this work are summarized in Table 2: ## 3.3 Experimental Settings As described in Section 2, we explore the proposed method in three groups of experiments, including the word embedding similarity (EmbSim), degree of co-occurrence (CoR), and the fusion of these two, represented as follows. - EmbSim: fastText, BERT, mBERT - CoR: PMI, Jaccard - Fusion: EmbSim+Jaccard Particularly, we extract contextual embedding of words in our dataset, described in Section 3.1 by the following procedures. (1) For each word, we search the Wikipedia dataset by the word and select 300 sentences. (2) Derive embedding vectors of this word by putting each selected sentence into a pre-trained contextual embedding language model. (3) Take an average of derived vectors as the integrated representation, i.e., contextual embedding of this word. Note that, to testify our method in a most general scenario, we conform to the original settings of all above 2) https://github.com/facebookresearch/fastText 3) https://huggingface.co Table 3 Interlingual homograph recognition performance in terms of F1 score and Accuracy. Table 4 A misleading example with contradictory between co-occurrence statistics and PMI scores. mentioned pre-trained language models, without parameter tuning. ## 3.4 Experimental Results Table 3 shows the results of all experiments. We report F1 score and accuracy for the assessment of the interlingual recognition capability of our method. EmbSim fastText demonstrates superior performance compared with the other two contextual word embedding models. We attribute contextual word embedding models' inferior performance to the absence of fine-tuning process and the challenge brought by their dynamic property. If we compare monolingual BERT and mBERT, the results vary by languages. Specifically, English-Dutch pair benefits more from mBERT, while Chinese-Japanese pair benefits much more from monolingual BERT. CoR Jaccard much outperforms PMI in both language pairs. We blame PMI's poor performance on the unbalanced numbers of words appearing in WikiMatrix data. Table 4 shows an example to demonstrate this problem, where “委員” is a cognate, which means "committee member" in both Chinese and Japanese, and “一味” is an interlingual homograph, which means "blindly" in Chinese while "conspirators" in Japanese. From the statistics, we can easily draw a conclusion that “一味” is more likely to be an interlingual homograph than “委員”, however, the PMI score shows the opposite result. Fusion We choose Jaccard to corporate each method in the EmbSim group. As illustrated, all three methods gain improvements with Jaccard, among which, the fast- Text+Jaccard won the best place among all set-ups. This shows that semantic information contained in word embeddings sometimes is not enough, it is advisable to supplement it with extra knowledge. ## 4 Conclusion and Future Work In this work, we integrate word embedding similarity into degree of co-occurrence in parallel sentences to automatically recognize interlingual homographs in different languages. We perform it on two language pairs, i.e., Chinese-Japanese and English-Dutch, and the experimental results exhibit the effectiveness of our method. fastText shows better performance than contextualized embeddings and by the supplement of Jaccard information, the performance can be further improved in both language pairs. A gap can be observed between the performance of Chinese-Japanese with mBERT and the other performances. There is a possible reason that too many Chinese and Japanese identical tokens are shared when pretraining multilingual BERT and the oversharing would bring a negative effect to the multilingual pretrained language model. We will test this assumption and try to mitigate this problem in future work. ## References [1] Ton Dijkstra, Jonathan Grainger, and Walter JB Van Heuven. Recognition of cognates and interlingual homographs: The neglected role of phonology. Journal of Memory and Language, Vol. 41, pp. 496-518, 1999. [2] Kristin Lemhöfer and Ton Dijkstra. Recognizing cognates and interlingual homographs: Effects of code similarity in language-specific and generalized lexical decision. Memory \& Cognition, Vol. 32, pp. 533-550, 2004. [3] Richard Sproat and Alexander Gutkin. The taxonomy of writing systems: How to measure how logographic a system is. Computational Linguistics, pp. 477-528, 2021. [4] Kexin Xiong and Katsuo Tamaoka. Investigation on the correspondence between the part-speech characteristics of japanese-chinese homomorphic two-character kanji words (In Japanese). 2014. [5] Robert W. Long and Yui Hatcho. The first language' $s$ impact on 12: Investigating intralingual and interlingual errors. English Language Teaching, 2018. [6] Frederick Liu, Han Lu, and Graham Neubig. Handling homographs in neural machine translation. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT), pp. 13361345, 2018. [7] Zellig S. Harris. Distributional structure. 1981. [8] Jeffrey Pennington, Richard Socher, and Christopher D. Manning. GloVe: Global vectors for word representation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1532-1543, 2014 [9] Piotr Bojanowski, Édouard Grave, Armand Joulin, and Tomáš Mikolov. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics (TACL), Vol. 5, pp. 135-146, 2017. [10] Matthew E. Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. Deep contextualized word representations. In Proceedings of the 9th Workshop on Computational Approaches to Subjectivity, Sentiment and Social Media Analysis (NAACL-HLT), pp. 2227-2237, 2018. [11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT), pp. 4171-4186, 2019 . [12] Tomás Mikolov, Quoc V. Le, and Ilya Sutskever. Exploiting similarities among languages for machine translation. arXiv preprint arXiv:1309.4168, 2013. [13] Chao Xing, Dong Wang, Chao Liu, and Yiye Lin. Normalized word embedding and orthogonal transform for bilingual word translation. In The 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL), pp. 1006-1011, 2015. [14] Zirui Wang, Jiateng Xie, Ruochen Xu, Yiming Yang, Graham Neubig, and Jaime G. Carbonell. Cross-lingual alignment vs joint training: A comparative study and A simple unified framework. In 8th International Conference on Learning Representations (ICLR), 2020. [15] Guillaume Lample, Alexis Conneau, Marc'Aurelio Ranzato, Ludovic Denoyer, and Hervé Jégou. Word translation without parallel data. In 6th International Conference on Learning Representations (ICLR), 2018. [16] Hanan Aldarmaki and Mona Diab. Context-aware crosslingual mapping. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT), pp. 3906-3911, 2019. [17] Eva D Poort and Jennifer M. Rodd. A database of dutch-english cognates, interlingual homographs and translation equivalents. Journal of Cognition, 2019. [18] Changfu Xu Yongquan Wang, Shinjiro Koizumi. Chinese Japanese Interlingual Homograph Dictionary. Commercial Press (In Chinese), 2009. [19] Ltd. Obunsha Co. Dual solution to learn Japanese and Chinese dictionaries: Standard Mandarin Dictionary. Foreign language education research publisher (In Chinese), 2005. [20] Holger Schwenk, Vishrav Chaudhary, Shuo Sun, Hongyu Gong, and Francisco Guzmán. Wikimatrix: Mining 135m parallel sentences in 1620 language pairs from wikipedia. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics (EACL), pp. 1351-1361, 2021.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A8-2.pdf
# 現代文 BERT を利用した日本語歴史コーパスの語義曖昧性解消 多喜凪 東京農工大学工学部情報工学科 s182739s@st.go.tuat.ac.jp ## 概要 本研究では,現代文 BERT による日本語歴史コー パスの語義曖昧性解消を行う. 分類語彙表の語義タグが割り当てられた 8 作品 38 単語を対象とする. 分析を行ったところ, 訓練済み日本語現代文 BERT モデルを用いて固定のハイパーパラメータで fine-tuning した場合に,マクロ平均が $83.30 \%$ ,マイクロ平均が $85.96 \%$ となり,いずれの結果もベースラインを有意に上回った. 特に出現頻度が高い単語の語義曖昧性解消に対して優れた結果を示した. ## 1 はじめに 語義曖昧性解消 (Word Sense Disambiguation, WSD) とは,自然言語処理の機械学習において,文中のある単語がどのような意味か判断する処理である. たとえば「plant」という単語の場合,「植物」や「工場」といった複数の語義が挙げられる. このような多義語の語義を, 対象単語の周囲の単語の品詞や,単語同士の共起関係などを特徴として推定する。 WSD は上記の「plant」の例のように,一つの単語に対してそれぞれ別の単語が割り当てられるケースがあるような機械翻訳の分野において,非常に重要である.多義語の語義を正確に推定することで,自動翻訳や質問応答など多数のアプリケーションの精度向上に寄与することができる。 古文の WSD を行うにあたり,日本語歴史コーパス(CHJ)[1]においてはデータが少量であるため,現代文と比較して語義の識別精度が低いことが課題である。さらに,研究範囲を古文全体へ広げると奈良時代から江戸時代までが対象となり,言語に時代的な開きがある. これらのことから,様々なタスクで高い精度の古文モデルを得ることは難しいといわれている. 本研究では,BERT という汎用性の高い自然言語処理モデルによる,日本語歴史コーパスの WSDを行う. 2019 年に東北大学 [2] から公開された,より \author{ 古宮嘉那子 \\ 東京農工大学大学院工学研究院 \\ kkomiyaago. tuat.ac.jp } 高精度の訓練済み日本語現代文 BERT モデルを用いて fine-tuning する手法をとる. ## 2 関連研究 現代文の WSD に関する研究は,数多く行われている. なかでも近年の,単語の分散表現を利用した手法について述べる. 2013 年に Tomas Mikolov ら $[3,4,5]$ が自然言語処理のモデルである word2vec を公開した。これは,同じ文脈に現れる単語は類似した意味を持つという考えに基づいた手法である. word2vec の 2 層ニューラルネットワークというシンプルな構造によって,大量の文章データから単語間の意味関係をべクトルとして,現実的な計算量で得ることが可能となった. この技術を利用した,現代日本語書き言葉コーパスの教師なし all-words の WSD として,鈴木ら [6] の研究がある. 鈴木らは対象単語とその類義語から周辺単語の分散表現を作成し,ユークリッド距離の計算によって語義の推定を行っている. 古文用形態素解析辞書の開発に関しては,小木曽 [7] の研究がある。小木曽は, 国立国語研究所が中心となって開発した電子化辞書 UniDic を古文へ応用し,幅広い時代の日本語に対応した通時コーパスを構築する計画を紹介している。UniDicでは,見出し語に摇れの少ない短単位を採用している. さらに,テキストの種類でグループ化し,地の文と会話文を区別して辞書の作成を行うことで,古文用形態素解析辞書の解析精度を向上させることが可能であると小木曽は述べている。 高久弓 [8] は,通時的な領域適応によって古文から現代文への機械翻訳を行う手法を提案した。高久らは通時適応で特定の時代にしか現れない語彙を訳出し, 翻訳品質の改善が見られたと結論づけている. 田邊 [9] は word2vec を用いた古文の WSD を行い,古文コーパスから作った分散表現を初期値として,現代文のコーパスで fine-tuning する手法の有効性を示している。 ## 3 提案手法 本研究では,東北大学の日本語の訓練済み現代文 BERT モデルを利用する.BERT は,Transformer をベースにした,自然言語処理モデルである. 2018 年に Google の Devlin ら [10] によって英語モデルが公開された. Devlin らは深層双方向アーキテクチャの有用性と,事前学習と fine-tuning が幅広いタスクに有効であることを示した. fine-tuning は領域適応の手法の 1 つで,初期のパラメータを再学習によって,様々なタスクに応じて微調整する.そこで,学習用の目的データが少ない場合,多量のデータを用いて事前学習を行い,その学習データを目的データへ適応させるという手段が考えられる. 本研究ではこのように,現代文 BERT の古文への fine-tuning を行う。実験手法は 3 種類設定する. (1)訓練済み現代文 BERT モデルを古文の WSD の各対象語に fine-tuning する。 (2)(1)と同様の fine-tuning を行うが,前の対象語の学習で得られたモデルを次の対象語の学習に使用する. (3)訓練済み現代文 BERT モデルの出力を 2 つに変更し,古文の文書分類とWSD に対して,同時に fine-tuning する. 本研究で扱うモデルは BERT-base と同等のアー キテクチャをもち,2020 年 8 月時点の日本語版 Wikipedia データを使用して,事前学習を行っている。その中でも,より精度が高くなるとされる Whole Word Masking を導入したバージョンを用いる. Whole Word Masking とは, 事前学習時に単語単位で MASKを行い,MASK する単語に対応するサブワードも MASKする方式である. ## 4 データ ## 4.1 コーパス 日本語歴史コーパスは,国立国語研究所によって日本語史研究の基礎資料としての開発のために構築されているコーパスである.全テキストに読み・品詞などの形態論情報が付与されている. 電子資料として, 総索引ができることに加え,より高度な検索や集計を行うことが可能となる。 本研究では, 竹取物語, 土佐日記, 今昔物語集, 方丈記, 宇治拾遺物語, 十訓抄, 徒然草, 虎明本狂言の表 1 日本語歴史コーパスの作品と単語数 8 作品の日本語歴史コーパスを用いる. 作品と単語数について表 1 に示す. 平安時代と鎌倉時代の作品が中心となる.コーパスの 10 項目のうち, 本研究では出現書字形 (orthToken), 語彙素 (lemma), 分類語彙表番号(Word List by Semantic Principles,wlsp)の 3 項目を主に利用する。コーパス名 (corpusName),文境界(boundary)の 2 項目は補助的に利用する. 分類語彙表 [11] とは,語を意味によって分類および整理したシソーラス(類義語集)である.分類番号を用いることで,上位の概念や同じ概念の単語を容易に導くことができる.分類語彙表のレコード総数は 101,070 件で,一つのレコードの構成は「レコード ID 番号/見出し番号/レコード種別/類/部門/中項目/分類項目/分類番号/段落番号/小段落番号/語番号/見出し/見出し本体/読み/逆読み」となっている.分類番号は「類/部門/中項目/分類項目」で構成される. 例えば「手」という語は分類語彙表の複数箇所に出現し,1.1401,1.3081 などの分類番号がある. 1.1401 の語は「手」のほかに「労働力」「男手」などがある.1.3081 の語に,「方法」「すべ」などがある.分類番号は,単語の語義として扱うことができる。 ## 4.2 実験データ 日本語歴史コーパス中において分類番号が付与され,かつ 500 回以上出現があった 38 単語を対象語とする(表 2).対象語はいずれも多義語である.対象語を含む 1 文を,WSD を行う語に関する 1 つの入力としてデータを作成する.虎明本狂言以外は句点(。)を文末として,文を区切る.なお,台本形式の虎明本狂言のみ, 文中に句点が出現しない. そのため,虎明本狂言のみ「および『』,boundary で B (区切り)に該当した読点(、)を文末とみなす。他作品と条件をそろえるため,文末とみなした記号は 表 28 作品の対象語 38 単語 (1) 調整 $\quad 10,20,30 \quad 0.00001,0.0001,0.001$ 句点に置き換えた後,分かち書きや Encodeを行う. 日本語歴史コーパスは古語特有の語義を含むことから,未知語の割合が現代語より高くなると考えられる.すべての単語を Encode した中の未知語の割合は, 8 作品で $17.06 \%$ となっている. 次に,対象語の抽出方法について述べる。 日本語歴史コーパス中の lemma の項目で完全一致する場合のみ,BERTへの入力文に採用する. lemmaが基準であるため, 動詞では基本形が一致していれば活用形が異なっていても該当する. 1 文に 2 回以上対象語の完全一致が見られた場合,それぞれを対象語の位置が違う別の入力文として扱う. ## 5 実験 ## 5.1 実験設定 新納の書籍 $[12,13]$ を参考に実験プログラムを作成する. 対象語を含む 1 文を,語義を判定したい語に関する 1 つの入力として扱う. 次に, 対象語の語義数を集計し, 語義ごとに 0 から整数の番号をあてる. 入力文はランダムに並び替え, 時代も作品もシャッフルされた状態にする. 対象の 1 文について UniDic 基準で分かち書きを行い,BERTによって Encode する. 本研究で使用した BERT 自体の機能を用いて分かち書きを行う場合は NEologd が採用されることになる. しかし, データとなる日本語歴史コーパスにあらかじめ, 各時代に対応した UniDic 基準の形態論情報が付与されているため, 本研究の分かち書きではそちらを採用する. 文中の対象語の位置に先頭から数えた整数の番号をあてる。 最適化関数は SGD,損失関数はクロスエントロ ピー誤差を用いる。 ハイパーパラメータについては表 3 で示す. 速度と正答率の観点から事前実験を行い, epoch(学習回数)を 10, Ir(学習率)を 0.0001 とする. データセットは $4: 1$ で訓練データ(train) とテストデータ(test)に分ける. さらに手法 (1)について,ハイパーパラメータをグリッドサーチで調整する。その際のデータセットの分け方は, $3: 1: 1$ (訓練データ:開発データ:テストデータ)とする. 3 通りの epoch と lr を掛け合わせ,9 通りのモデルを作成する. その中から, 開発データでの正答率が高いモデルを対象語ごとに採用する. ## 5.2 評価手法 WSD は,1文の入力に対し正解のラベルを持っている. テストデータにおいて, 入力文の正解ラベルと BERT が予測したラベルが一致した場合を正解とする. 正答数を問題数で割ったマクロ平均とマイク口平均を正答率とする。ここでのマクロ平均は,各単語の正答率の平均である. マイクロ平均は, 全単語の正答数を問題数で割った正答率である. なお,例えば 4 種類の語義があるとして,それらがすべて訓練データにもテストデータにも含まれているという保障はない. ランダムな文の並べ替えによって, どちらかのデータにしか出現しない語彙となっている可能性がある. 2 出力時は WSD と文書分類の同時学習となるが,比較のため文書分類のみの BERT $の$ fine-tuning も行う. 表 3 で示した手法とベースラインのマイクロ平均について, カイ二乗検定を行い,手法同士の有意差を調べる。 最頻出語義(Most Frequent Sense, MFS)をベースラインに設定する. 最頻出語義の確率は, その対象語に関して 1 番多く出現する語義を予測ラベルとした時の, 正答率を指す. 38 単語の平均語義数は 8.21 個となっている. wlsp が 1 つの単語に 2 つ設定されている場合や空欄である場合も,それ自体を 1 つの語義とみなし, 語義数にカウントする. 2 つ設定されているのは,2つの語義のどちらともとれる単語, 空欄は語義が不明な単語であると考えられる。 また,空欄の語義が MFS や 2 番目に多く出現する語義となっている対象語がある。このように曖昧な状態も数多く判別する必要がある. ## 6 実験結果 実験結果を表 4〜7 に示す. いずれの提案手法も, ベースラインを有意に上回った(表 4). 実験結果 表 4 WSD の実験結果 表 5 各対象語の WSD の実験結果 から,現代文の BERT が古文の WSD に有用であることが分かる.最も正答率が高かったのは,数字を太字で示した箇所で,手法(1)となった. (1)をハイパーパラメータ調整した場合には, マクロ平均で $81.75 \%$ ,マイクロ平均で $84.93 \%$ となった. 表 4,6より,38 単語総合の WSD に関してはすべての手法において,マイクロ平均がマクロ平均を上回った. 表 5 は,対象語ごとの手法 (1)の WSD の実験結果である.正答率が $90 \%$ 以上となった箇所を太字で示す. 対象語の配置は,為る,言う,有る…… の順に,分類番号を持つ単語としてのコーパス中の出現回数が多く,降順になっている。表 7 では, 最も正答率が高い箇所と最もテストデータが多い箇所を太字で示す.表 62 出力の WSD の実験結果 表 7 各作品の WSD の実験結果 \\ 土佐日記 & 83.65 & 208 \\ 今昔物語集 & $\mathbf{8 8 . 3 9}$ & $\mathbf{5 0 9 1}$ \\ 宇治拾遺物語 & 85.52 & 3280 \\ 十訓抄 & 83.09 & 1969 \\ 徒然草 & 80.44 & 992 \\ ## 7 考察 マクロ平均はデータが少ない事例の影響を強く受ける. マクロ平均がマイクロ平均より常に低いため,データが少ない場合に正答率が低い傾向にあると推測できる. 表 6 からも, 出現回数が多い表上部の単語に $90 \%$ 以上の正答率が多くみられるため, BERT の WSD では学習データが増えるほど,正答率が高くなると考えられる。 表 4,6より,手法 (2) の単語を超えた重み共有や手法 (3) の文書分類タスクとの重み共有は,本実験では全体の正答率を上昇させる条件とならなかったことが分かる. 本実験の対象語は名詞や動詞が区別なく交ざっていた。また表 7 でも,時代による特徴は明確にはみられない。また,今回のデータは鎌倉時代のデータが多く, 時代の影響は比較的少なかった可能性がある. よって,対象語同士や作品同士を関連づけて学習できていないと考えられる。 ## 8 おわりに 本研究では,現代文 BERT による日本語歴史コー パスのWSDを行った. 実験により,現代文の BERT は古文の WSD に有効であることを示した。また,単語を超えた重み共有と文書分類タスクとの重み共有は有効でないことが分かった.本実験の対象語は名詞や動詞が交ざっていたこと,作品や時代による影響が比較的少なかったことが原因と考えられる。 ## 謝辞 本研究は JSPS 科研費 17H00917,17KK0002, 18K11421の助成を受けたものです.また,国立国語共同研究プロジェクト「通時コーパスの構築と日本語史研究の新展開」および「コーパスアノテーションの拡張・統合・自動化に関する基礎研究」 の成果です. データセットの作成にあたり,2022 年 1 月 8 日時点で最新の語義タグ付き日本語歴史コー パスを提供してくださった,浅原正幸教授(国立国語研究所)に感謝いたします. ## 参考文献 [1] 国立国語研究所. 『日本語歴史コーパス』 2022 年 1 月 8 日確認. https://ccd.ninjal.ac.jp/chj/. [2] 東北大学乾研究室. bert-japanese. 2019. https://www. nlp.ecei.tohoku.ac.jp/news-release/3284/. [3] Tomas Mikolov, Wen tau Yih, and Geoffrey Zweig. Linguistic regularities in continuous space word representations. Proceedings of NAACL-HLT, pp. 746-751, 2013. [4] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. Proceedings of ICLR, 2013. [5] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, and Jeffrey Dean. Distributed representations of words and phrases and their compositionality. Proceedings of NIPS, 2013. [6] 鈴木類, 古宮嘉那子, 浅原正幸, 佐々木稔, 新納浩幸. 概念辞書の類義語と分散表現を利用した教師な乙 all-words wsd. 自然言語処理, Vol. 26, No. 2, pp. 361-379, 2019. [7] 小木曽智信. 通時コーパスの構築に向けた古文用形態素解析辞書の開発. 研究報告人文科学とコンピュータ (CH), Vol. 6, No. 2011-CH-92, pp. 1-4, 2011. [8] 高久雅史, 平澤寅庄, 小町守, 古宮嘉那子. 通時的な領域適応を行った単語分散表現を利用した古文から現代文へのニューラル機械翻訳. 言語処理学会第 26 回年次大会, 2020. [9] 田邊絢. 現代文と古文の情報を利用した日本語歴史コーパスの語義曖昧性解消の領域適応. 茨城大学大学院理工学研究科 2019 年度修士学位論文, 2020. [10] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. Proceedings of NAACL-HLT, 2019. [11] 国立国語研究所. 『分類語彙表』 2022 年 1 月 8 日確認. https://ccd.ninjal.ac.jp/goihyo.html. [12]新納浩幸. Pytorch 自然言語処理プログラミング. インプレス, 2021. [13] 新納浩幸. Pytorch による物体検出. オーム社, 2020.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A8-3.pdf
# 翻訳言語モデルを中間タスクとするゼロ照応解析 馬越雅人 村脇有吾 黒橋禎夫 京都大学大学院情報学研究科 \{umakoshi, murawaki, kuro\}@nlp.ist.i.kyoto-u.ac.jp ## 概要 日本語と非プロドロップ言語の対訳テキストは,前者で省略されるゼロ代名詞が多くの場合後者では明示的に言及されるため, 日本語ゼロ照応解析の精度を改善する可能性を秘めている.対訳テキストを活用するために機械翻訳を中間タスクとする手法が提案されているが,事前学習タスクとの差異が大きく, 改善の余地がある. 本研究では, より事前学習タスクに近い翻訳言語モデルを中間タスクとする手法を提案する.実験により,翻訳言語モデルを用いた場合の方が精度が向上することを示す。 ## 1 はじめに 誰が誰に何をしたかは情報の基本的な単位であり,これを理解することは自然言語理解において必要不可欠である。しかし,日本語や中国語のようなプロドロップ言語では,文脈から推測できる代名詞が省略されることがあり,特に困難な問題となる。 図 1 日本語で省略されたゼロ代名詞が英語では明示されるような対訳文の例. 日本語で省略されたガ格の項 (著者)が英語では明示的に現れている (I). 図 1(a)のように,省略されたゼロ代名詞 ( $\phi$ ) の照応先を特定することをゼロ照応解析と呼ぶ.日本語のゼロ照応解析は BERT の導入により飛躍的に性能が向上したが $[1,2]$, 改善の余地が大きく残されている. 大きな課題の一つは学習データの少なさである. アノテーションが付与されている文の数は数万文規模に留まっており,質の高いアノテーションを付与するには言語学的な専門知識が必要なため,大規模にコーパスを拡張することが現実的ではない [3]. この点に着目し, 大規模に利用可能な, 日本語と非プロドロップ言語である英語との対訳テキストを利用する研究がなされている $[4,5]$. コアとなるアイデアは,日本語におけるゼロ代名詞は英語では明示的に言及されることが多く(図 1(b)),このズレをゼロ代名詞の照応先を解決するための手がかりとできることにある.このアイデアに基づき,Umakoshi らは事前学習とゼロ照応解析の間の中間タスクとして機械翻訳 (MT) を用いることで対訳テキストからゲインが得られることを示した [6]. 同手法は一定の有効性は示されたものの,MT が中間タスクとして適しているかは疑問が残る。様々なタスクの組み合わせを調査した先行研究では,中間タスクとして MT を用いるとスコアが下がる傾向が報告されている [7]. 原因として指摘されていることの 1 つは,中間タスクと事前学習との性質の違いが事前学習により得られた知識の忘却を引き起こした可能性である. そこで本研究では,事前学習に用いられるマスク言語モデル (MLM) により近い翻訳言語モデル (TLM) [8] を中間タスクとする手法を提案する。より乘離の小さいタスクを用いることで効果的に対訳テキストを活用できることを期待する.実験により TLM を用いた場合の方が MT を用いる場合よりも精度が向上することを示す. ## 2 関連研究 事前学習と目的タスクとの間に中間タスクを挟み目的タスクでの精度向上を図る試みがなされてきた $[9,7,10]$. Wang らは MTを中間タスクとした際に自然言語推論や感情分類など様々な目的タスクで精度が悪化したことを報告しており,原因として事前学習と中間タスクとの乘離が破滅的忘却を引き起こした可能性を指摘している [7]. 日本語ゼロ照応解析の精度改善のために多言語テキストを活用することを目的に,比較的大規模な日英対訳コーパスを用いる手法が提案されてきた $[4,5,6]$. 従来はパイプライン処理に基づくルー 事前学習 (マスク言語モデル) 中間タスク (翻訳言語モデル) 目的タスク (ゼ口照応解析と関連タスク) 図 2 提案手法の概要. 左: モデルを多言語コーパスを用いてマスク言語モデル (MLM)により事前学習を行う. 中央: 事前学習したモデルを翻訳言語モデル (TLM) で訓練する. 右: ゼロ照応解析について訓練する. 一部の特殊トークンは図を簡潔にするために省略した。 ルベースの手法が提案されてきたが,誤り伝搬によりその効果は限定的であった $[4,5]$. Umakoshi らは MT を中間タスクとした場合にゼロ照応解析の精度を改善できることを示し, 特に MLM との同時学習が効果的であることを発見した [6]. MTは事前学習と乘離が大きく中間タスクとして適しているかは疑問であり,本研究ではより乘離の小さい TLMを用いる. ## 3 提案手法 ## 3.1 ゼロ照応解析モデル 本研究のゼロ照応解析モデルとして,植田らの CAModel [1] を用いる. 強力な事前学習済みエンコーダーを考慮し, 省略の検出と先行詞の識別は項選択により定式化される (図 2(右)). 文書全体を入力し, モデルはその中から述語の各格を埋める項を選択する。外界照応は,照応先に対応する特殊トー クンを連結してモデルに入力することにより考慮される. 項を持たない場合は,特殊トークン [NULL] を選択する. 文書全体を入力とすることによって,自然に文内ゼロ照応だけでなく文間ゼロ照応も扱うことができることに注意されたい,実際には,エンコーダモデルに入力長による制限があり, 出来るだけ多くの先行文を含めるように分割した. また,この定式化により,述語と項の間に係り受けの関係がある格解析も同じ枠組みで扱われる. 具体的には,トークン $t_{j}$ が述語 $t_{i}$ の格 $c$ の項である確率は次のように定式化される。 $ \begin{aligned} P\left(t_{j} \mid t_{i}, c\right) & =\frac{\exp \left(s_{c}\left(t_{j}, t_{i}\right)\right)}{\sum_{j^{\prime}} \exp \left(s_{c}\left(t_{j^{\prime}}, t_{i}\right)\right)} \\ s_{c}\left(t_{j}, t_{i}\right) & =\boldsymbol{v}^{\top} \tanh \left(W_{c} \boldsymbol{t}_{j}+U_{c} \boldsymbol{t}_{i}\right) \end{aligned} $ ここで, $\boldsymbol{t}_{i}$ はエンコーダにより計算されるコンテキストにおける $t_{i}$ の埋め込み, $W_{c}$ と $U_{c}$ は格ごとの重み行列,vは格の間で共有される重みべクトルである. 最も高い確率を持つ $t_{j}$ を予測とする. 全ての述語・格に対しこの計算を行う。 入力形式外界照応などを扱うための特殊トークンを入力系列の末尾に追加する: [著者], [読者], [不特定: 人]を外界照応のために,[NULL]を項を取らないときのために挿入する。また,次のパラグラフで述べる理由で特殊トークン [NA] も挿入する。 XLM-R [8] を使う際の慣例に従い,特殊トークン $[C L S]$ 及び $[S E P]$ を系列の最初と最後に挿入する.単語が 2 つ以上のサブワードに分割される場合,最初のサブワードを項選択に用いる. マルチタスク学習植田ら [1] に従い,一つのモデルを用いて用言の述語項構造解析 (VPA), 体言の述語項構造解析 (NPA), 橋渡し照応解析 (BAR),共参照解析 (CR) を同時に行う。これら 4 つのタスクは全て同様に式 (1)として定式化することができる. VPA と NPA については格ごとの重みを共有し,BAR,CRにはそれぞれ別の重みを用いる。エンコーダ部分は共有されるために,関連のあるタスクが学習時に互いに影響し合う。 ## 3.2 翻訳言語モデル MT の代わりに翻訳言語モデル (TLM)[8]を用いることが本研究の提案である. この背景にある直感は,TLMはMTよりもMLM に近いためより中間夕スクに適している可能性を秘めていることである。 TLM は多言語タスクを目的に対訳テキストを用いた事前学習として提案された [8]. 対訳ぺアの文章を連結し,その一部をマスクしてモデルに入力 し,マスクされた単語を予測する (図 2(中央)). マスクされた単語と同じ言語のテキストに加えて対言語のテキストからも予測を行うことで,2 言語の間の対応関係をソフトに学習することを期待する。ここでの狙いは,日本語のゼロ代名詞に対応する英単語を予測するような特徵を捉えられるようになることにある。 Conneau らは原言語と目的言語を同じ割合でランダムにマスクしているが,我々の目的においてはマスクする対象を調整することでより効果的に学習が行える可能性がある1つの戦略として,単純に英語側の単語のマスクの割合を増やすというものが考えられる. TLMによるゲインの大部分が英語トー クンを予測することに起因すると仮定するなら,より多くの英語トークンを予測させることでさらに精度が向上することが期待される. また,日本語のゼ口代名詞に相当する単語の多くは英語では代名詞で現れる点に着目し,英語の代名詞を優先的にマスクする戦略も考えられる. 本研究ではこれら 2 つのマスク戦略についての実験も行う。 ## 4 実験 中間タスクを TLM にすることの有効性及びマスクする際の設定を変化させることによる影響を検証する。 ## 4.1 設定 モデル大規模な多言語コーパス CC-100で事前学習された大規模事前学習済みモデル XLM$\mathrm{R}_{\text {Large }}$ [11]を用いる. ゼロ照応解析本研究では京都大学ウェブ文書リードコーパス [12] と京都大学テキストコー パス [13] の2つのコーパスを用いる。それらのジャンルに基づき,それぞれのコーパスをウェブ, ニュースと呼ぶ. これらのコーパスには単語分割,品詞や述語項構造などのアノテーションが付与されている. 公開されている設定に基づき,およそ 0.75:0.1:0.15 の割合で訓練,検証,評価用データに分割した. また,訓練の際のハイパーパラメータは付録 $\mathrm{C}$ に記載した ${ }^{1)}$ .訓練時は 2 つのコーパスを混ぜ,評価時はそれぞれ別々に評価を行った。  機械翻訳・翻訳言語モデル読売新聞によって配布されている日英対訳コーパスを用いる2)。このコーパスはおよそ 130 万文ぺアから構成される。ゼ口照応解析は文間の関係を捉える必要があるため,連続する文はゼロ照応解析の際のトークン長 (170) を超えないよう連結される。また,翻訳言語モデルの訓練時, ゼロ照応解析で日本語を入力する位置に英語が含まれないよう,英語トークンが 171 番目の位置から始まるように [PAD] トークンを挿入した ${ }^{3}$. 分割の割合は学習,検証,評価でそれぞれ 0.9, 0.05, 0.05 とした. 訓練の際のハイパーパラメー タは付録 D,E の通り。 代名詞の優先的マスキング優先マスク対象とするか否かの判定は spacy 4) を用いて判定した. 詳細なルールは付録に示す.対象とする単語は訓練デー タ中に約 51 万個含まれていた. 優先マスク対象と判定された単語に属するサブワードを全てマスクしてもマスクすべきサブワード数に達しない場合はランダムに選んだサブワードをマスクした. ## 4.2 結果 表 1 及び表 2 にウェブ,ニュースにおける結果 ベースラインのスコアが大幅に向上した. +MT w/ MLM は MT と MLM の同時学習による手法であり, Umakoshi らの提案手法の中で最も高いスコアを達成している [6]. +TLM は TLM を用いるモデル, +TLM w/ PR masking は代名詞を優先的にマスクする TLM にそれぞれ対応する。+MLM はゲインがデータを追加したことに起因する可能性を検証するために,対訳データの日本語テキストを用いて MLM で訓練したモデルである. 中間タスクによるゲインはデータセットにより傾向が異なる。ウェブにおいては+MT w/ MLM, +TLM w/ PR masking が最高精度を達成しているが, そのゲインは非常に限定的である.ニュースではどの中間タスクを用いる場合でも精度の向上が見られたが,+TLM w/ PR masking がもっとも高い精度を達成した. +TLM w/ PR masking はどちらのデータセットでも+MT w/ MLM よりも高いか同等の精度を達成しているため,TLM はより中間タスクに適していると考えられる. また,カテゴリごとの結果に着目すると,ウェブ  表 1 ウェブのテストセットにおける精度. 太字のスコアは対応するカテゴリでの最高スコアを表す. †:提案手法. MT w/ MLM, TLM w/ PR masking がもっともよいスコアを達成した. 表 2 ニュースのテストセットにおける精度. 太字のスコアは対応するカテゴリでの最高スコアを表す. †: 提案手法. TLM w/ PR masking がもっともよいスコアを達成した. のデータセットにおいて文間の方が文内よりもスコアが高いことは意外な結果である5),文間の方が文内より探索空間が広く難しいカテゴリであると考えられてきたが,この結果はその直感に反する。 英語のマスク割合による影響英語を復元するタスクがゼロ照応解析に寄与するのであれば,英語のマスク割合を増加させることでより効果的に学習を行うことができるはずである.この仮説を検証するため,英語のマスク割合を変化させた際のニュースにおけるゼロ照応解析の精度の推移を計測した. また,英語側のマスク復元の精度も同時に計算し,これら 2 つの関係を図 3 に示す. 結果から,TLM の精度がマスクの割合が増えるほど一貫して低下していることがわかるが,ゼロ照応解析とのはっきりした関連は見られなかった。これら二つの相関係数を計算したところ 0.567 であり,弱いながらも相関があることがわかった. ## 5 おわりに 本研究では,事前学習と中間タスクとの乘離に着目し,より事前学習に近い TLM を中間タスクとする手法を提案した. 実験により,TLMが MT よりも 5)ニュースでこの傾向が見られないのは KC では長い文書を分割して入力しており,照応先がテキスト中に現れないような事例が多く含まれているためと考えられる. 図 3 英語側のマスク割合を変化させた際のゼロ照応解析及び TLM の精度の変化 よい中間タスクであることを示した. 今後は,対訳テキスト以外のリソースの活用についても考えていきたい. ## 謝辞 対訳コーパスを提供していただいだ読売新聞東京本社に深く感謝いたします。 ## 参考文献 [1] Nobuhiro Ueda, Daisuke Kawahara, and Sadao Kurohashi. BERT-based cohesion analysis of Japanese texts. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 1323-1333, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [2] Ryuto Konno, Yuichiroh Matsubayashi, Shun Kiyono, Hiroki Ouchi, Ryo Takahashi, and Kentaro Inui. An empirical study of contextual data augmentation for Japanese zero anaphora resolution. In Proceedings of the 28th International Conference on Computational Linguistics, $\mathrm{pp}$. 4956-4968, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [3] 阿部航平, 河原大輔, 黒橋禎夫. クラウドソーシングを用いた日本語述語項構造タグ付きコーパスの拡張. 言語処理学会第 26 回年次大会, pp. 1547-1550,茨城, 2020. [4] Hiromi Nakaiwa. Automatic extraction of rules for anaphora resolution of Japanese zero pronouns in Japanese-English machine translation from aligned sentence pairs. Machine Translation, Vol. 14, No. 14, pp. 247-279, 1999. [5] 古川智雅, 中澤敏明, 柴田知秀, 河原大輔, 黒橋禎夫.対訳コーパスを用いたゼロ照応タグ付きコーパスの自動構築. 言語処理学会第 23 回年次大会, pp. 382-385,つくば, 2017. [6] Masato Umakoshi, Yugo Murawaki, and Sadao Kurohashi. Japanese zero anaphora resolution can benefit from parallel texts through neural transfer learning. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 1920-1934, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [7] Alex Wang, Jan Hula, Patrick Xia, Raghavendra Pappagari, R. Thomas McCoy, Roma Patel, Najoung Kim, Ian Tenney, Yinghui Huang, Katherin Yu, Shuning Jin, Berlin Chen, Benjamin Van Durme, Edouard Grave, Ellie Pavlick, and Samuel R. Bowman. Can you tell me how to get past sesame street? sentence-level pretraining beyond language modeling. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4465-4476, Florence, Italy, July 2019. Association for Computational Linguistics. [8] Alexis CONNEAU and Guillaume Lample. Cross-lingual language model pretraining. In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc., 2019. [9] Jason Phang, Thibault Févry, and Samuel R. Bowman. Sentence encoders on STILTs: Supplementary training on intermediate labeled-data tasks. arXiv:1811.01088, 2018. [10] Yada Pruksachatkun, Jason Phang, Haokun Liu, Phu Mon Htut, Xiaoyi Zhang, Richard Yuanzhe Pang, Clara Vania, Katharina Kann, and Samuel R. Bowman. Intermediatetask transfer learning with pretrained language models: When and why does it work? In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5231-5247, Online, July 2020. Association for Computational Linguistics. [11] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguis- tics, pp. 8440-8451, Online, July 2020. Association for Computational Linguistics. [12] Masatsugu Hangyo, Daisuke Kawahara, and Sadao Kurohashi. Building a diverse document leads corpus annotated with semantic relations. In Proceedings of the 26th Pacific Asia Conference on Language, Information, and Computation, pp. 535-544, Bali, Indonesia, November 2012. Faculty of Computer Science, Universitas Indonesia. [13] Daisuke Kawahara, Sadao Kurohashi, and Kôiti Hasida. Construction of a Japanese relevance-tagged corpus. In Proceedings of the Third International Conference on Language Resources and Evaluation (LREC'02), Las Palmas, Canary Islands - Spain, May 2002. European Language Resources Association (ELRA). ## A 優先的マスキングのルール 優先マスク対象の単語は spacy (v. 3.2.1) によって付与される POS タグに基づき決定した. 具体的には, ・tag_属性の値が PRP ・pos_属性の値が PRON かつ tag_属性の値が DT のいずれかを満たす単語を優先的なマスク対象とした. ## B 事前学習とファインチューニン グのギャップ コーパスは基本句単位でアノテーションが付与されている一方,事前学習モデルは単語分割なしで訓練されており, ギャップがある. 出来るだけ事前学習のときの条件に近づけるため, トークナイズの際は単語分割された後の単語に対しトークナイズを行い,文頭に現れる特殊トークンを削除するという前処理を行なった。 ## C ゼロ照応解析におけるハイパー パラメータ 表 3 ゼロ照応解析におけるハイパーパラメータ D 機械翻訳におけるハイパーパラ xータ 表 4 機械翻訳におけるハイパーパラメータ ## E 翻訳言語モデルのハイパーパラ メータ 表 5 翻訳言語モデルのハイパーパラメータ 6) https://github.com/huggingface/transformers/blob/v2. 10.0/src/transformers/optimization. py\#L47
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A8-4.pdf
# 日本語照応解析における深層格推定に基づいた先行詞の同定 伊藤清晃 寺岡丈博 拓殖大学大学院工学研究科 20m301@st.takushoku-u.ac.jp tteraoka@cs.takushoku-u.ac.jp ## 概要 日本語の照応解析において,先行詞の同定は文意を解釈する必要があるため容易ではない. 照応され易い語として,一般的に主語や目的語が挙げられ,深層格に対応づけると動作主格と対象格が多い. そこで,本研究では動詞,名詞,助詞の関係から推定した深層格を用いて先行詞を同定する手法を提案した. 先行研究と同様に, NAIST テキストコーパスにおける先行詞の同定精度を評価した結果,本手法の有用性を確認することができた。 ## 1 背景と目的 省略された項をはじめ代名詞や指示詞を照応詞と呼び,照応解析はそれらと照応関係にある先行詞を同定する手法である. 本研究における照応関係とは,同じ内容や対象を示す異なる 2 語間に成立する関係を指す。例えば,「太郎はパンを買った。そして,それを食べた.」においては,1つ目の文の「太郎」が先行詞,2つ目の文の「それ」が照応詞であり,両者の間に照応関係が成立する.また,「太郎は疲れていました。そして眠ってしまいました.」 においては,2つ目の文の「太郎」が先行詞であり, 2つ目の文の「眠ってしまいました」の前に省略された代名詞(ゼロ代名詞)が照応詞となり両者の間に照応関係が成立する. ゼロ代名詞による照応関係を特にゼロ照応と呼ぶ.特にゼロ照応では,照応詞が省略されているものに対してどこに省略部分があるか,何が省略されているかを明らかにする必要がある.とりわけ,人間にとって当たり前である事柄が省略される傾向にあるため, このような表現が含まれる文は理解が困難である。 照応解析は,機械翻訳や対話システムなどの自然言語処理の応用研究において, 文脈を理解するために必要とされる技術である. 日本語において,一般的に言い換えられる語や省略され易い語として,主語や目的語が挙げられる. これらの語を述語と項の意味的な関係(深層格)に当てはめると動作主格と対象格が多い傾向がある.また,照応解析における従来の研究では,大規模な辞書やシソーラスを用いて学習した人工ニューラルネットワーク(ANN)や学習モデルを利用した手法がよくみられる。そこでは, 特徴量に, 格フレームや格要素, 動詞と名詞と助詞の関係性を用いている。これらの研究では,位置関係や格助詞などによって決まる格(表層格)を利用していることが多い. 人は先行詞を見つける際に,文章と知識を照らし合わせて,雑多な手がかりを利用している。その中でも,先行詞を同定しやすくするには,表層格と深層格を組み合わせることが重要だと考える。そこで,表層格と深層格を組み合わせるために,動詞連想概念辞書 [1] と述語項構造シソーラスを利用する.本研究では,照応解析における先行詞の同定において,深層格と表層格を組み合わせて利用する手法の提案と,その有用性を検証することを目的とする。 ## 2 関連研究 照応解析の研究として, 笹野らの研究 [2] や西念らの研究 [3], 山城らの研究 [4], 河崎らの研究 [5] が挙げられる. 笹野らの研究では, 比較的小規模の照応関係タグ付きコーパスから獲得した構文的な手がかり,および,大規模なタグなしコーパスから獲得した意味クラスといった語彙的手がかりを素性として用いた対数線形モデルを用いて先行詞を同定している.そして,が格,を格,に格のみを対象としており,本手法と異なり,他の格を考慮していない.また,格フレーム辞書から素性を作成しているため,本手法とは異なり,先行詞と深層格の関係を考慮していない。 西念らの研究では,先行詞候補に対して,概念類似度情報や距離情報などの素性値を取得し,各素性値の正解先行詞としての尤度を求め,ナイーブベイズ法による尤度スコアを求めることにより,先行詞を同定している。西念らは,先行詞の深層格につい て考慮されているが,本手法では動詞と名詞,助詞の関係から ANNで,先行詞候補の深層格を推定し,先行詞を同定する. 山城らの研究では,分散表現で平均化した格フレームによる解候補削減を用いた日本語文内・文間ゼロ照応モデルを提案している. 述語や格要素の分散表現をはじめとした素性を使用している. 山城らは,格フレームにより述語と格要素の関係を利用することで,先行詞を同定している.対して,本手法では,先行詞候補を深層格により絞り込み,動詞連想概念辞書や述語項構造シソーラスから得られる動詞と名詞の関係や名詞と深層格の関係を用いて,先行詞を同定する. 河崎らの研究では,ANNを使用して深層格を用いた照応解析の手法を提案している。河崎らは,ANN による先行詞の誤割り当てを防ぐために名詞クラスと代名詞の作成と導入を行なった. また,使用した ANN は動詞項シソーラスを使用しており,入力として,動詞と先行詞候補,助詞を入力する.河崎らの手法では,同じ名詞クラスに分類された名詞を区別することが十分ではなかった. 対して,本研究では単語分散表現を利用する事で,この問題の解決を試みた。 ## 3 提案手法 図 1 は,提案手法の処理手順を表している. はじめに,文章から名詞を抽出し,文間距離によって先行詞候補の名詞を決定する。このとき,先行詞候補に含める文は対象の文に加えて,対象文の前の 3 文とする.これは,文中のゼロ代名詞が前の 3 文内に 80 \%の割合で出現することを踏まえて決定している. 次に,学習した人工ニューラルネットワーク (ANN)を用いて,先行詞候補の名詞の深層格を求める. ANNの入力には, 動詞と名詞と助詞の特徴をそれぞれ数值化したものを入力する.動詞の特徴量として,述語項構造シソーラスにある大分類 2 に基づいて動詞クラスを 53 クラスに分け, one-hot ベクトルを作成する. 名詞の特徴量として,分類語彙表 [6] の中項目に基づいて名詞クラスを 51 クラスに分け, 1 つの名詞が複数のクラスに割り当てることができるように,ダミ一変数を作成する.助詞の特徵量として,述語項構造シソーラスにある表層格の助詞が 36 種あり,これらの助詞から one-hot ベクトルを作成する。 図 1 提案手法の処理手順 この ANN は複数の深層格が割り当てられるように,全ての深層格に対して割り当てられる確率を算出可能なニューラルネットワークを用いる.割り当てる深層格は述語項構造シソーラスの意味役割から 32 種類にしている. ANN の出力の中で,最も高い出力值の深層格をその先行詞候補の名詞の深層格とする。そしてその出力値を深層格スコアとする. さらに,動詞と助詞を手がかりに,述語項構造シソーラスから先行詞が取り得る深層格を抽出する。先行詞候補の名詞が割り当てられた深層格が,抽出した深層格と一致しているものを先行詞候補として残す. 残った先行詞候補の名詞の深層格と動詞連想概念辞書の連想課題を対応させる.この動詞連想概念辞書(VACD)は, 連想実験のデータから構築された辞書で, 実際に人間が言葉に対して連想した内容をまとめたものである [1].これを用いることで人間が普段, 文章を読む際に言葉に対して連想する情報をコンピュータが利用することができる。 対応させた連想課題と動詞に対応する連想語を動詞連想概念辞書から抽出する。 そして,抽出した全ての連想語と先行詞候補の名詞の類似度をそれぞれ計算し,得た類似度の最大値を連想スコアとする.また,京都大学格フレーム(CF)[7] と共起概念ベース(共起 GB)から動詞に対応する語を抽出し,先行詞候補の名詞と類似度をそれぞれ計算して得た類似度を動詞スコア,共起スコアとする。これらのスコアを組み合わせて先行詞の同定を行う. ## 4 評価実験 ## 4.1 実験設定 NAIST テキストコーパス(NTC)を利用して,評価用データを作成する。評価対象は,条件を満たす 表 1 実験 1 の結果 表 2 実験 2 の結果 事例のみとする.1 つ目は,NTC の述語項構造・共参照タグにおいて,述語と項の関係がゼロ照応の関係であることである。これは,照応に対する先行詞の同定の精度を評価するためである. 2 つ目は,先行詞が文章中に存在することである。これは,文章外に照応詞の照応先が存在する外界照応を,本手法では考慮していないためである.3つ目は,「する」以外の動詞で述語項構造シソーラスに含まれている動詞であることである。これは,本手法において,「勉強する」といった「名詞十する」からなる動詞は考慮していないためである。また,未知語も考慮していない. 作成した評価データに対して,先行詞の同定を行い,提案手法の評価を $\mathrm{N}$ 位正解率で行う. 実験は,各スコア単独で先行詞の同定を行うもの(実験 1) と深層格推定による先行詞候補の絞り込みを行わないANN 単体の手法 (ベースライン) と先行研究をもとに作成した手法,深層格推定による先行詞候補の絞り込みを行なった ANN 単体の手法, 各スコアを組み合わせて先行詞の同定を行うもの(実験 2) からなる. ## 4.2 結果と考察 表 1 では,ANNと 3 つの言語資源から作成したスコアを使用して先行詞の同定を行った結果をまとめている。 1 位正解率では,格フレーム(CF)が 0.235 , 動詞連想概念辞書(VACD)が 0.265 で 2 割を上回る正解率となった. 対して, ANN は 1 位正解率が, 0.185 と 2 割を下回った. また,共起 GB は, 0.090 と 1 割を下回る結果となった.これにより,各スコア単体では,先行詞を 1 つに決めることは,難しいことが確認できる. 対して 10 位正解率をみると,ANN,CF,VACD は 8 割を上回っている。また,共起 GB は 6 割を超えている。これは,各スコア単体では先行詞の候補から先行詞を上位 10 候補までに, 6 割から 8 割ほどの精度で絞り込むことができていると考えられる。 また,共起 GB の正解率をみると,先行詞の同定において,共起 GB 単体では効果が低いことが考えられる。 そして,3位正解率と 5 位正解率をみると,共起 GB 以外のスコアは,5 割を上回っており,特に CF と VACD は ANN の正解率を超えている. これらの結果から先行詞の同定において,各スコア単体でも少なからず効果がみられた。そして,これらのスコアを組み合わせることにより,更なる精度向上の見込みがあると考えられる。 表 2 では,先行詞の同定において,ベースラインと先行研究の手法, 提案手法の結果をまとめている. ベースラインには,深層格推定による先行詞候補の絞り込みを行わずに ANN のみを用いた手法を用いた。提案手法として,深層格推定による先行詞候補の絞り込みを行なった手法 (ANN),深層格推定による先行詞候補の絞り込みと ANN と動詞連想概念辞書(VACD)を組み合わせた手法(AV), 深層格推定による先行詞候補の絞り込みと ANN と格フレーム (CF),VACD,共起 GB を組み合わせた手法 (ACVK)の3つを比較する. ベースラインと提案手法を比較すると,どの提案手法もべースラインの正解率を上回っている. 深層格推定による先行詞候補の絞り込みが,先行詞の同定における正解率の向上に効果があることが確認で きる. 先行研究の手法と提案手法の ANNを比較すると, 1 位正解率において提案手法の ANN の方が 15 事例多く正解している. 3 位正解率以降は, 2 つの手法の正解数にほとんど差がみられなかった. 原因として, ANN の違いが挙げられる. 先行研究では, 動詞と名詞の単語分散表現と助詞の one-hot ベクトルを入力していることに対して,提案手法では,動詞クラスと名詞クラス,助詞の one-hot ベクトルを入力している. 提案手法では, 動詞と名詞について, 意味や属性によりクラス分けを行なっているため,名詞が取り得る深層格の傾向が先行研究より学習されているものだと考えられる。 3 つの提案手法をそれぞれ比較すると,AV と ACVK の正解率が,ANN の正解率を上回っている. ANN 単体より,複数のスコアを組み合わせた手法の方が正解率は高くなるが AV の方が ACVK より 1 位正解率が高くなっていた. つまり, 本研究で使用した 3 つのスコアのうち動詞連想概念辞書から得られるスコアが先行詞の同定において,最も効果が高いことがわかる. つまり,動詞連想概念辞書は先行詞の同定に直接的な効果が期待できる. 対して,格フレームと共起 GB からそれぞれ得られるスコアは,先行詞の同定に効果があまりみられなかった。 つまり,これらの情報は先行詞の同定に直接的な効果が期待できない. 本研究では先行詞の同定に使用するスコア以外の要素の影響がないようにしているため, 先行詞候補はスコアの高さによってのみ決定する。 そして,提案手法も 3 位正解率は, 5 割を超えており 10 位正解率になると 8 割を超えていることからスコアのみでの限界がこの正解率であると考えられる。 ## 5 まとめ 本研究では,照応解析における先行詞の同定において,深層格と表層格を組み合わせて利用する手法を提案した. ANNにより, 先行詞の候補を絞り込み, 候補の名詞に対して, 動詞連想概念辞書と格フレーム,共起 GB からそれぞれスコアを求めて組み合わせることにより先行詞を同定する. 先行詞の同定において,スコアごとの効果の比較, 組み合わせによる正解率を比較した,スコア単体でみると,格フレームと動詞連想概念辞書は, 先行詞の同定において,ANNより正解率が高いことが確認できた. また,深層格推定による先行詞候補の絞り込みの効果があることが確認できた. ANN と動詞連想概念辞書を組み合わせた手法が提案手法の中で最も高い正解率を示した. この手法は, 1 位正解率が 0.345 で, 3 位正解率だと $0.610 , 10$位正解率までみると 0.840 であった. 先行詞の同定において,深層格推定と動詞連想概念辞書の有用性が確認できた. また,この手法は先行詞の候補を 10 個程度までに絞り込むことが確認できたが,1つに絞り込むことは,ほとんどできなかった。 今後の課題として, 深層格推定による先行詞候補の絞り込みの精度向上と新たな先行詞らしさのスコア計算方法が考えられる. 深層格推定による先行詞候補の絞り込みによって先行詞が省かれてしまう事例があったため,構文情報などを利用してより正確な深層格推定,絞り込みを行うこと必要だと考えられる。また,現在の手法は,候補を絞り込んだ後に先行詞を 1 つに同定することがほとんどできていない. 先行詞の候補を 1 つに絞り込むために, 現在考慮していない文中の他の名詞との関連性や構文情報などの情報を取り入れた先行詞らしさのスコアを考えることで,先行詞の同定精度の向上を目指すことが考えられる。 ## 謝辞 本研究は JSPS 科研費 JP18K12434 の助成を受けたものです. ## 参考文献 [1] 寺岡丈博, 東中竜一郎, 岡本潤, 石崎俊. 単語間連想関係を用いた換喻表現の自動検出. 人工知能学会論文誌, Vol. 28, No. 3, pp. 335-346, 2013. [2] 笹野遼平, 黒橋視夫. 大規模格フレームを用いた識別モデルに基づく日本語ゼロ照応解析. 情報処理学会論文誌, Vol. 52, No. 12, pp. 3328-3337, 2011. [3] 西念星宝, 谷津元樹, 原田実. 語意類似度を用いた指示代名詞の照応解析システム AnasysD. 知能と情報, Vol. 31, No. 5, pp. 797-807, 2019. [4] 山城堸太, 西川仁, 徳永健伸. 大規模格フレームによる解候補削減を用いたニューラルネットゼロ照応解析.自然言語処理, Vol. 26, No. 2, pp. 509-536, 2019. [5] Takumi Kawasaki and Masaomi Kimura. A Novel Japanese Anaphora Resolution Method Using Deep Cases. In International Symposium on Computer Science and Intelligent Controls (ISCSIC), pp. 129-134. IEEE, 2017. [6] 国立国語研究所. 『分類語彙表増補改訂版データベー ス』(ver.1.0), 2004. [7] 林部祐太, 河原大輔, 黒橋禎夫. 格パターンの多様性に頑健な日本語格フレーム構築. 研究報告自然言語処理 (NL), Vol. 2015, No. 14, pp. 1-8, 2015.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B1-1.pdf
# 過去の対話セッションを考慮した雑談対話システム 高﨑 環 1 佐藤 翔悦 ${ }^{2}$ 吉永 直樹 2 豊田 正史 ${ }^{2}$ 1 東京大学大学院 情報理工学系研究科 2 東京大学 生産技術研究所 \{takasa-m, shoetsu, ynaga, toyoda\}@tkl.iis.u-tokyo.ac.jp ## 概要 スマートスピーカーの普及が進み,対話システムとユーザとの雑談が継続的に行われるようになりつつある.そのような環境下では,これまでに行った全ての対話の内容を踏まえて,ユーザの知識や情報を把握した上で応答を行うことが望ましい. しかし,現状の深層学習に基づく雑談応答生成では,モデルの系列長に制限があるため,限られた対話履歴しか入力することができない,本研究では,膨大な過去の対話履歴の中から直前の対話履歴と関連度の高い対話や単語を離散的に選択し,入力に加えることの有効性を検証する.実験では,Twitter 上の対話ログを用いて GPT-2をファインチューニングする際に,選択された過去の対話履歴を入力に追加して訓練を行い,未知ユーザ同士の対話において提案システムの有効性を評価する。 ## 1 はじめに スマートスピーカーの普及が進み,雑談対話システムとの会話を継続的に行う機会が増えつつある。 その際に,システムは同一ユーザとの過去の対話の内容を踏まえ,過去の類似した話題に関する情報や,個人特有の知識などを考慮した応答を生成することが望ましい,具体的には,過去の対話内容を踏まえて話題を展開したり(図 1), 過去に話した内容を繰り返さないような応答を生成することが重要であると考えられる。また,言葉遣いや特有の話題など,ユーザの嗜好に即した対話を展開することが期待される。 雑談対話システムにおいて,過去の対話履歴を活用する研究は広く行われてきた. SNS 上の大規模対話ログを模倣するように学習させる深層学習モデルが登場した当初は,直前の 1 文のみを発話履歴として入力する手法 [1] が提案された. その後, 複数文の発話履歴を入力する研究 [2] が登場し,より効果的な学習をするために, 進行中の対話セッション 図 1 過去の対話セッションに手がかりを得た応答生成 の履歴について, 複数の発話をトークン単位・発話単位の 2 階層に分けて処理を行う研究 [3] が提案された。しかし,アーキテクチャの階層化にも限度はあり,対話履歴が膨大な場合は全てを処理することは難しい. また,これまでの研究では,現在の対話セッションを超えるような長い対話履歴をモデルに入力した際に,応答生成に及ぼされる効果について,十分に検証されていない。 本研究では,雑談対話システムの応答生成において,直前までの対話セッションの履歴に加え,過去にそのユーザと話した対話セッションから得られる情報を付与することの有用性を検証する(図 1)。モデルの入力長制限の問題を解決するために,直前の会話履歴をクエリとして関連度の高い過去の対話の選択や,ユーザ特有の単語の抽出を行うことで,大規模な対話セッションの情報から重要な情報を離散的に選択した。 実験では,Twitter から収集された対話ログを使用 ᄂ, GPT-2 [4] のファインチューニングを行なった.訓練データに登場していない未知のユーザ同士の対話を用い,自動評価と人手評価によって提案手法を検証した。 ## 2 関連研究 大規模な対話ログからの学習に基づく雑談対話システムでは,運用を通じて獲得できる対話履歴を発話の改善に使用したり $[5,6]$, 対話履歴から知識を獲得したり $[7,8]$ する研究が行われてきた. Hancock ら [5] は,雑談対話モデルの運用中に収集した対話ログを用いてモデルを再訓練し,応答性能を継続的に改善する研究を行なった.この研究では複数人のユーザからの対話ログを収集するが。対話ログを共有する際は,プライバシーの観点で,使用可能な情報に制限がかかる. 一方,本研究では個人の対話の中で動的に生の対話ログを参照するため,より多くの情報を使用できると考えられる。 現在の対話セッションと異なる対話の情報を利用して応答を生成する研究として,Examplar を用いたものがある,Pandey ら [6] は,学習データから類似した対話を TF-IDFをもとに検索し,応答生成に使用することで,より情報量が多く多様な応答が生成できたと主張した.この研究では,ユーザを制限せず追加する対話セッションを選択するが,本研究では特定ユーザ間での対話セッションに制限する。 Mazumder ら [7] は,知識べースを参照した質問応答において,知識ベースにない情報をユーザに問い, 未知の知識を更新し, 以降の応答生成に使用する手法を提案した。この手法では限られた状況での質疑応答を対象としており, 応答はトリプレットを基に作成される簡潔なものである一方で,本研究で扱うのは雑談応答生成モデルである. $\mathrm{Wu}$ ら [8] の研究では, 対話履歴から個人特有の情報をトリプレットで獲得する.この研究の知識獲得の対象はユーザ属性のみであるが,継続的にユー ザ特有の知識を蓄積し,動的に参照する対話システ么の研究に有用であると主張している. 本研究においても,継続的に獲得可能な対話履歴から個人に有用な情報を入力する手法をとっており,関連性が高い. 一方で, 本研究の場合は個人情報の使用にとどまらず,話題の繰り返しを避けるなど,より広範な問題をターゲットにしている. ## 3 提案手法 ## 3.1 課題 本研究では,雑談対話システムを大規模コーパスで訓練する際に,進行中の対話セッション内の履歴 だけでなく, 過去の対話セッションの履歴も使用する手法を提案する。この手法では,特定の 2 ユーザ間の対話をユーザと雑談対話システムと見做し,その過去の対話を継続的に行われた対話履歴として使用する. 膨大な対話履歴を扱う必要がある一方で,高性能なモデルアーキテクチャには,通常は系列長の制限がある. 入力される系列長に対して線形以上のオ一ダの計算量が必要である以上,長い系列長は短縮して入力しなければならない.また,全ての過去の対話履歴が,現在の対話セッションにおける発話生成に有効ではないため. モデルの最適化が難しくなる可能性がある.そこで,既定の検索手法を用いるなどの帰納バイアスによって,入力長の圧縮を行う手法が考えられる。 ## 3.2 対話セッションの選択・圧縮 入力する過去の対話セッションを選択または圧縮するために,本研究では二つの手法を提案する。一つ目は直前の対話履歴をクエリとして,関連する過去の対話セッションを選択する手法(図 2) で,話題の繰り返しを避けるなど,過去の対話を踏まえた対話を行うことを期待する。二つ目は話者特有の情報を抽出する手法(図 3)で,話者の口癖や頻繁に出す話題など,個人特有の情報を考慮することを狙いとしている. ## 3.2.1 現在の対話と関連する過去の対話履歴の選択 継続的な会話を行う際,対話セッションを跨ぐような文脈も考慮し, 同じ話題を繰り返さないなど,長距離文脈を適切に考慮した応答を生成することが望ましい,しかし,膨大な履歴を全て入力するのは困難なため,過去の対話セッションのうち,進行中の対話と関連性の高いものを選択する必要がある. これを実現するために,同じ 2 ユーザ同士の過去の対話セッションをベクトルで表現し,進行中の対話セッションとのコサイン類似度が最も高いものを選択する。対話セッションのベクトルは, 出現単語について,その対話セッション中の出現回数 TF と,同ユーザ間の全対話セッション中での単語の希少性 IDF を計算し掛け合わせることで算出され,語彙毎のスコアを用いて表現される。 過去の対話セッションを選択後,現在の対話セッションの履歴とともにモデルに入力する., 現在の対話セッションの履歴のうち $i$ ターン目の発話を 図 2 過去の対話セッションを選択・入力するモデル $\boldsymbol{u}_{i}=\left(u_{i, 1}, u_{i, 2}, \ldots\right)$, 選択された対話セッションのうち $i$ ターン目の発話を $\boldsymbol{h}_{i}=\left(h_{i, 1}, h_{i, 2}, \ldots\right)$ としたとき,モデルへの入力は, $[\mathrm{HEAD}] h_{1,1} \ldots h_{m, l_{m}}[\mathrm{EOH}] u_{1,1} \ldots u_{n, l_{n}}$ [EOS] とした. ここでの $[\mathrm{EOH}]$ トークンは,過去の対話セッション履歴の終了を表すトークン,[EOS]トー クンは,現在の対話セッション履歴の終了を表すトークンとする. また,[HEAD] トークンは二種類存在し,最初の話者がユーザ側かシステム側かによって使い分けることで,過去の対話セッション上の話者情報を提供する。 ## 3.2.2 ユーザ特有の重要語の抽出 この手法では,特定ユーザ同士の過去の対話セッションの全てから,話者特有の重要語を抽出し. モデルの入力に加える(図 3). Fikri ら [9] は,生成される応答の多様性を高めるために,ユーザのツイー 卜から抽出される重要語を入力に加えているが,本手法では,過去の対話セッションから抽出された重要語を入力に加えることで,個人特有の話題や語彙を考慮した応答が生成されることを期待する。 そこで,あるユーザの対話履歴の各単語について,重要度を算出する。具体的には,特定の 2 ユー ザ間での対話セッション履歴を全て結合し,一つの文章と考え,訓練データ中での TF-IDF 值を計算する. そして,2 ユーザ間での対話において,TF-IDF 値が高い単語を重要語とみなし, 特定個数選択する.この個数については,対話履歴の単語の $25 \%$ 以下かつ,50 個以下となるようにした。選択された重要語を $\boldsymbol{w}_{i}=\left(w_{i, 1}, w_{i, 2}, \ldots\right)$ とした時,モデルの入力は, $h_{1,1} \ldots h_{m, l_{m}}$ [EOW] $u_{1,1} \ldots u_{n, l_{n}}$ [EOS] とした. ここでの [EOW] トークンは,重要語の終端を表すトークンである. 図 3 ユーザ特有の重要語を入力するモデル ## 4 実験設定 本研究の提案手法とベースラインに対して自動評価と人手評価を行い,応答生成の性能を比較した。 ## 4.1 データセット 本研究では,我々の研究室で Twitter $\mathrm{API}^{11}$ を用いて収集した Twitter データセットから対話データセットを構築した. Twitter 上でのリプライツリーを一連の対話セッションとみなし,2 人のユーザが交互に発話する対話のみを使用した。このうち,bot との対話や,画像データや URL を含むものを除外し,同一ツイートから枝分かれしている対話は最長のもののみを使用した。また,対象ユーザは過去の対話セッションが 2〜9 件存在するものに限定した.今回は,2018 年のデータを訓練・検証データ,2019 年のデータを評価データとし,訓練データに出現したユーザを評価データから除外した,最終的に,訓練・検証・評価データの特定のユーザペアの数はそれぞれ 957,799 件,50,411 件,10,901 件であった。最も新しい対話セッションを進行中の対話,それ以外を過去の対話セッションとし,1 組のユーザペアあたり 1 つの発話応答のサンプルを作成した. 人手評価の際には,アノテータが現在の対話セッションから必要な情報を推測しやすいように,未知語を含む対話や,ツイートへのリプライで開始されるものを除外した。また,コストの問題から,評価データのうち対話セッションを抽出した際の類似度が 0.20 以上のサンプルから 100 件,それ未満のサンプルから 100 件選択したデータセットを使用した. 抽出時の類似度別に評価を行い,発話履歴に類似した対話履歴が応答生成により効果的であるかを検証する。  表 1 自動評価の結果 ## 4.2 モデル 先述した提案手法をもとに,GPT-2 [4] の日本語版事前学習済みモデルである, rinna/japanesegpt2-small 2) を最大 3 エポック分ファインチュー ニングした. 入力を直前までの対話履歴のみとし, 同様にファインチューニングを行なったモデルをべースラインとした. モデルの実装には, huggingface/transformers [10] ライブラリを用いた.評価時の生成応答を多様にするため, 累積確率を基にした top-p [11] サンプリングを採用した。この時の $\mathrm{p}$ の値は 0.9 とした. また,対話セッションの選択や自動評価の際のトークン化には MeCab [12] を用い,GPT-2 のファインチューニングの際には, rinna/japanese-gpt2-small の事前学習で使用されるトークナイザーによってトークン化を行った. ## 4.3 評価尺度 生成応答に対し,自動評価および人手評価を行う. 自動評価指標としては,参照応答との類似度を測定する BLEU [13], 応答の多様性を測定する dist-n [14],応答の平均長を用いた. 人手評価では,過去の対話セッションを選択する提案手法とベースライン間での性能比較を行った. 3 人のアノテータ(著者を含まない大学院生)が, 直前までの発話履歴と選択された過去の対話セッション履歴を踏まえた上で,ベースラインと提案手法のどちらの応答が妥当かを選択した. その上で,提案手法による応答が妥当と選択された問題数が,妥当でないと選択された問題数に対してどの程度大きいかを示すゲインを測定し,95\%信頼区間を求めた. ## 5 実験結果 ## 5.1 自動評価 表 1 に自動評価による結果を示す. 過去の対話セッションの情報を付与した 2 つの提案手法はべー  表 2 人手評価の結果 スラインに比べ,高い BLEU-2を達成した.提案手法はより参照応答に似た応答を生成すると考えられる. 生成応答の単語の多様性を測定する dist-2 における評価では,いずれの提案手法でもベースラインを若干下回った。また,提案手法が生成する応答はトークン数が若干多かった。これは,過去の対話の情報にのみ登場する,音符や三点リーダなどの語尾やユーザの名前といった追加情報を取り入れ,応答を生成する傾向が観測されたことと,関連があると考えられる。 ## 5.2 人手評価 表 2 に人手評価による結果を示す. 表に掲載されている全てのゲインが正であることから.提案手法がべースラインに比べ,妥当な回答だと選択されていることがわかる. また,提案手法において対話セッションを選択した際に,現在の対話との類似度が低いサンプルについての性能に比べ,類似度が高いサンプルの方が性能が高いことがわかる。この結果から,現在の対話に関連した過去の対話の情報が,応答生成に有用な情報を与えていると考えられる. なお,3人のアノテータの評価について,フライスのカッパ係数を用いて相関を測定したところ, 0.3866 とやや低い值となった. これは,挨拶のやりとりなど,過去の対話セッションを用いても応答に差がつきにくく, 妥当性の判断が難しい対話が含まれていたためと考えられる。 ## 6 おわりに 本研究では,膨大な過去の対話セッションから有用な情報を離散的に選択し,応答生成を行う雑談対話システムを提案した。進行中の対話セッションの履歴に加え, 過去の対話セッションから関連性の高いものを選択,もしくは重要語を抽出し, GPT-2 のファインチューニングの入力とした. 実験では, Twitter 上の対話ログを用いて訓練を行い,生成された応答に対し自動評価および人手評価によって,過去の対話履歴が発話生成に及ぼす効果を検証した。 ## 謝辞 この研究は国立情報学研究所 (NII) CRIS と LINE 株式会社とが推進する NII CRIS 共同研究の助成を受けています. また,人手評価にご協力くださった同研究室のメンバーに深く感謝申し上げます. ## 参考文献 [1] Lifeng Shang, Zhengdong Lu, and Hang Li. Neural responding machine for short-text conversation. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1577-1586, Beijing, China, July 2015. Association for Computational Linguistics. [2] Alessandro Sordoni, Michel Galley, Michael Auli, Chris Brockett, Yangfeng Ji, Margaret Mitchell, Jian-Yun Nie, Jianfeng Gao, and Bill Dolan. A neural network approach to context-sensitive generation of conversational responses. In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 196-205, Denver, Colorado, May-June 2015. Association for Computational Linguistics. [3] Iulian V. Serban, Alessandro Sordoni, Yoshua Bengio, Aaron Courville, and Joelle Pineau. Building end-toend dialogue systems using generative hierarchical neural network models. In Proceedings of the Thirtieth AAAI Conference on Artificial Intelligence, AAAI'16, p. 3776-3783. AAAI Press, 2016. [4] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019. [5] Braden Hancock, Antoine Bordes, Pierre-Emmanuel Mazare, and Jason Weston. Learning from dialogue after deployment: Feed yourself, chatbot! In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3667-3684, Florence, Italy, July 2019. Association for Computational Linguistics. [6] Gaurav Pandey, Danish Contractor, Vineet Kumar, and Sachindra Joshi. Exemplar encoder-decoder for neural conversation generation. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1329-1338, Melbourne, Australia, July 2018. Association for Computational Linguistics. [7] Sahisnu Mazumder, Bing Liu, Shuai Wang, and Nianzu Ma. Lifelong and interactive learning of factual knowledge in dialogues. In Proceedings of the 20th Annual SIGdial Meeting on Discourse and Dialogue, pp. 2131, Stockholm, Sweden, September 2019. Association for Computational Linguistics. [8] Chien-Sheng Wu, Andrea Madotto, Zhaojiang Lin, Peng $\mathrm{Xu}$, and Pascale Fung. Getting to know you: User attribute extraction from dialogues. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 581-589, Marseille, France, May 2020. European Language Resources Association. [9] Abdurrisyad Fikri, Hiroya Takamura, and Manabu Okumura. Stylistically user-specific response generation. 自然言語処理, Vol. 28, No. 4, pp. 1116-1140, 2021. [10] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, Online, October 2020. Association for Computational Linguistics. [11] Ari Holtzman, Jan Buys, Li Du, Maxwell Forbes, and Yejin Choi. The curious case of neural text degeneration. In 8th International Conference on Learning Representations, ICLR 2020, Addis Ababa, Ethiopia, April 26-30, 2020. OpenReview.net, 2020. [12] T. KUDO. Mecab : Yet another part-of-speech and morphological analyzer. http://mecab.sourceforge.net/, 2005. [13] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [14] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B1-2.pdf
# 知識グラフに基づく応答文生成におけるエンティティ名制約付きデコーディング 佐良和孝 滝口哲也 有木康雄 神戸大学大学院システム情報学研究科 203x110x@gsuite.kobe-u.ac.jp \{takigu,ariki\}@kobe-u.ac.jp ## 概要 近年,生成ベースの雑談対話システムにおいて,対話履歴のみではなく,検索してきた外部知識を参照することで,情報に富んだ応答文の生成が可能となっている. しかしながら,既存の生成手法では,検索してきた知識を利用せず応答文を生成してしまう場合がある.本研究では,外部知識として知識グラフを用いた応答文生成モデルにおいて,検索してきた知識の利用を促す手法として,エンティティ名制約付きデコーディングを提案する. デコーディングの際に,知識に関する語彙を生成する場合は,検索した知識に含まれるエンティティ名のみを生成するように制約をかけることで,検索した知識の利用を促す. 自動評価の結果,提案手法は既存手法と比較し,検索してきた知識をより多く利用できていることが分かった. ## 1 はじめに 雑談対話 AI の画期的な課題は,ユーザーに対して単に一般的な文章を応答するのではく, より情報や知識に富んだ応答を行うことである。その際に,生成する応答文に含まれる情報や知識が正しいことが求められる. 近年では, 応答生成を学習する際に,対話履歴のみではなく,外部から検索してきた知識を入力しながら学習を行うことで,正しい知識を含んだ,情報に富んだ応答の生成が可能になっている [1]. このような形で学習を行うことで,知識自体をモデルのパラメータに保持するのではなく,検索してきた知識を利用しながら応答文を生成する仕組みをパラメータに保持することができる。これにより,事実知識に反する尤もらしい文を生成しまう「Hallucination」といった問題を軽減することができ [2],さらには,学習データに含まれていない,表 1 知識グラフに基づく対話の例 知識グラフ 新たな知識を用いた応答文の生成が,モデルの再学習を必要とせず可能になるといった利点がある. しかしながら,既存の応答文生成モデルは,参照すべき知識が与えられているにも関わらず,その知識を用いることができない,もしくは,間違った使い方をしてしまうといった現象があることが報告されている [3]. 本研究では,知識グラフを外部知識として用いる応答生成モデルが,検索してきた知識をより利用するよう促すための手法として,エンティティ名制約付きデコーディング (ENCD: Entity Name Constrained Decoding) を提案する. ENCD は,デコーディング時に,モデルが知識に関する語彙を生成しようとした場合,参照している知識に含まれるエンティティ名のみを生成するように,モデルが出力する確率分布 図 1 Entity Name Constrained Decoding に対し, 制約を行う. 提案手法は, 学習データに対する簡単な処理と,デコーディング時の処理のみを含んでいるため,多くのモデルに適用可能である. 自動評価を用いた比較実験の結果,提案手法は既存の手法と比較し,より多くの参照知識を利用できていることが分かった. また,提案手法は,既存手法と比較して,より正しい知識の用い方を学習できている可能性があることを示した。 ## 2 知識グラフに基づく応答文生成 知識グラフに基づく対話例を表 1 に示す. 知識グラフに基づく応答文生成は, 知識グラフから検索された,応答生成の際に参照する知識トリプル $T=\left(t_{1}, t_{2}, \ldots, t_{n}\right)$, 対話履歴 $D=\left(d_{1}, d_{2}, . ., d_{m}\right)$, 応答文 $r$ を用いて式 1 のように定義できる。 $\theta$ は学習されるパラメータである. $ P_{\theta}(r \mid D, T)=P\left(r \mid d 1, d 2, . ., d_{m}, t_{1}, t_{2}, . . t_{n}\right) $ 近年では,事前学習済み言語モデルに対して,対話履歴と知識トリプルを繋ぎ合わせ 1 つのテキストとして表現したものを入力し,応答文を生成するようにファインチューニングすることでモデル化を行う手法が広く用いられている. [4,5]. このようにして学習されたモデルは,与えられた知識トリプルを参照しながら応答文を生成することが可能であるため,間違った知識を生成するような現象を防いだ り,学習データに含まれないような新たな知識を用いた応答文の生成が可能になる。 ## 3 提案手法 提案手法である ENCD は「エンティティタグ付き学習」と「エンティティ名制約モジュール (ENCM: Enity Name Constraint Module)」の 2 つの要素で構成される. 1 つ目は学習段階で適用されるものであり,2つ目はデコーディング段階で適用されるものである。それぞれの要素について詳しく述べる。 ## 3.1 エンティティタグ付き学習 ENCD はデコーディングの段階で,モデルが知識に関する語彙を生成する場合,参照する知識トリプルに含まれるエンティティの名称のみを出力するように制限する手法である。しかしながら,従来の学習方法で学習されたモデルは,デコーディングのどのタイムステップで知識に関する語彙を生成しようとしているのかを明示的に知ることは難しい. そこで, 本研究では, この問題に対処する手法として, エンティティタグ付き学習を提案する. この手法は,学習データの応答文において,参照する知識トリプルに含まれるエンティティ名の前後を"["と"]"で囲うようにタグを挿入する。アノテー ションの具体例を表 2 に示す. 学習の際は,挿入したタグも含めて生成を行うように学習を行う。これによって,モデルは知識を参照する際には"["トーク $d+t_{2}$ $r_{2}$ 2. 参照知識の一部を変更したものを入力とし応答文を生成 4. BLEUを用いて類似度を計算 図 2 Entity Replace Sentence Score の算出手順 表 2 エンティティタグの挿入例 \\ 応答文 & in [ 1943 ] called [ A Tree Grows In Brooklyn ] \\ ンを,参照が終わると"]"トークンを生成するようにモデルを学習することが可能になり,デコーディング時に,どのタイムステップで知識に関する語彙を生成しょうとしているかが判別できるようになる。今回の実験では,エンティティタグの挿入処理に,文字列マッチングを用いた。 ## 3.2 エンティティ名制約モジュール (ENCM) 先ほど述べた,エンティティタグ付き学習を行うことで,デコーディングの際に,現在のステップで, モデルが知識トリプルを参照しているかどうかが明示的に分かるようになる. そこで,モデルが知識卜リプルを参照している場合は,ENCMを用いて,卜リプル内に含まれるエンティティ名のみを生成できるように, モデルが出力する確率分布に制約を加える. 提案手法の全体図を図 1 に示す. ## 4 実験設定 ## 4.1 データセット 学習と評価には, OpendialkG[6]を用いた. 91K のマルチターンの会話からなり,それぞれが,タスク指向 (推薦) の会話,または与えられたトピックに関する雑談の会話である. それぞれの発話は, 話者が発話をする際に、知識グラフ上のどのトリプルを参照したかがアノテーションされている. 知識グラフには freebase[7] のサブセットが用いられてお り,100,813 個のエンティティ, 1,358 種類のエッジ, $1,190,658$ 個のトリプルで構成されている. データの中には,発話の際に知識を参照していないようなものがあるため,今回の実験ではそれらは前処理として取り除き, $80 \%$ を学習データ, $10 \%$ を開発データ. 10\%をテストデータとして用いた. ## 4.2 評価指標 モデルが知識を用いながら応答を生成できているか, 3 つの自動評価手法を用いて評価を行った。 BLEU[7] モデルが生成した応答文と,真の応答文との間で評価を行う.真の応答文は,モデルが参照する知識グラフと同じものを,人間が参照しながら応答したものである. Entity Score モデルが生成した応答文の中に,参照した知識トリプルを構成するエンティティが,どれほど含まれているかで評価を行う。 Enity Replaced Sentence Score ただ単に知識を利用するのではなく,モデルがどれほど知識の用い方を学習しているかを評価するため,新たな評価指標として ERSS: Entity Replacement Sentence Score を提案する。モデルが知識をそのまま記憶しているのではなく, 知識の利用方法を学習できている場合,与える対話履歴をそのままにして,与える知識トリプルの一部を変更してモデルに入力すると,変更された知識に対応する部分のみが変化した応答文が生成されるはずである。図 2 に提案する評価手法の全体図を示す。 はじめに,評価対象の学習済み応答文生成モデルに対して, 対話履歴 $d$ と参照する知識トリプル $t 1$ を入力し, 応答文 $r 1$ を生成する. 次に, $d$ と, 知識卜リプル $t 1$ の一部を,別のエンティティに置き換えた $t 2$ を入力とし, 応答文 $r$ を生成する. そして, 置換されたエンティティに対応する $r 1$ 中のスパンを特定し,新たなエンティティに置き換えることで $r 3$ を 表 3 応答文生成例. ENCM を用いることで,間違った知識を用いずに応答を生成することができている. \\ 生成する。最後に $r 2$ と $r 3$ の一致度を BLEU スコアを用いて算出することで,最終的な評価値を得る。 今回の実験では,エンティティを置換する方法として,2 通りの手法を用いる。1 つ目は,同じ属性を持つエンティティに置き換えるものである.例えば,"Japan"というエンティティを置換する際は, 同じ,国の属性を持つ,"America"や"Germany"といったエンティティに置き換える。 2 つ目は,エンティティの属性を考慮せず,ランダムに置き換える。本研究において, 前者を ERSS-1, 後者を ERSS-2 とする。 ## 4.3 ベースライン 応答文生成モデルとして,事前学習済み言語モデル T5[8] の small モデルをファイン・チューニングしたものを用いて,通常のデコーディング手法で応答文を生成するものをベースラインとして用いる. ## 4.4 実装 ベースライン,提案手法ともに,Python の OSS ライブラリ, Transformersを用いて実装を行った.最適化手法は AdamW[9], 学習率 1e-3, バッチサイズ 16 で学習を行い,推論時はビーム幅 3 でビームサー チを行った。 ## 5 実験結果 実験結果を表 4 に示す. 表から分かる通り,従来手法 (T5-small) と比較し,全ての指標で提案手法が優れていることが分かる. アブレーション・スタディとして ENCM を用いない場合,すなわち,学習段階でエンティティタグを挿入するが,デコーディング時は通常のデコーディング手法を用いる場合についても評価を行った. その結果,ENCMを用い表 4 実験結果 ない場合でも,従来手法と比較し優れていることが分かり,学習段階でのエンティティタグの挿入が, モデルの学習に大きな影響を与えていることが分かる.詳しい理由はまだ解析できていないが,エンティティタグを挿入することで,応答文生成の際に知識を参照するステップとそれ以外のステップの切り替えをうまく学習できていることが要因であると考えている. この原因特定については今後の課題である.ENCM を用いる場合と用いない場合の比較では,自動評価の観点から見ると,ほぼ同じであるが,表 3 に示す,実際の生成例を見てみると, ENCM を用いることで,エンティティ名を間違って出力することを防ぐことが出来ている.このことが ENCM を用いた場合の Entity Score に表れていると考えられる。 ## 6 おわりに 本研究では,知識グラフに基づく応答文生成において,検索してきた知識の利用を促す手法として ENCD を提案した. 自動評価の結果,従来手法と比較し,より多くの検索知識を利用できていることが分かった. また,提案手法は正しい知識の利用方法を学習できている可能性があることを示した. ## 謝辞 本研究の一部は,JSPS 科研費 JP21H00906 の支援を受けたものである. ## 参考文献 [1] Mojtaba Komeili, Kurt Shuster, and Jason Weston. Internetaugmented dialogue generation, 2021. [2] Kurt Shuster, Spencer Poff, Moya Chen, Douwe Kiela, and Jason Weston. Retrieval augmentation reduces hallucination in conversation, 2021. [3] Nouha Dziri, Andrea Madotto, Osmar Zaiane, and Avishek Joey Bose. Neural path hunter: Reducing hallucination in dialogue systems via path grounding, 2021. [4] Yu Li, Baolin Peng, Yelong Shen, Yi Mao, Lars Liden, Zhou Yu, and Jianfeng Gao. Knowledge-grounded dialogue generation with a unified knowledge representation, 2021. [5] Andrea Madotto, Zhaojiang Lin, Yejin Bang, and Pascale Fung. The adapter-bot: All-in-one controllable conversational model, 2020 [6] Seungwhan Moon, Pararth Shah, Anuj Kumar, and Rajen Subba. Opendialkg: Explainable conversational reasoning with attention-based walks over knowledge graphs. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, July 2019. [7] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: A method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting on Association for Computational Linguistics, $\mathrm{ACL}$ ' 02 , USA, 2002. Association for Computational Linguistics. [8] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer, 2020. [9] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization, 2019.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B1-3.pdf
# Graph Neural Network based Speaker Modelling for Emotion Recognition in Conversation Prakhar Saxena, Yin Jou Huang, Sadao Kurohashi Kyoto University \{prakhar, huang, kuro\}@nlp.ist.i.kyoto-u.ac.jp ## Abstract Each person has a unique personality which affects the way they feel and convey emotions. Hence, speaker modeling is important for the task of emotion recognition in conversation (ERC). In this paper, we propose a novel graph-based ERC model which considers both conversational context and speaker personality. Our model outperforms other graph-based models and achieves a performance comparable to the current state-of-the-art model. ## 1 Introduction Emotion recognition in conversation (ERC) is a task within the sphere of emotion recognition. The goal of ERC is to predict the emotion of each utterance in a conversation. With the recent advances of dialogue research, ERC has gained popularity due to its potential to support downstream applications such as building affective dialog systems [1] and opinion mining from social media chats [2]. The emotion of an utterance depends on many factors including surrounding context and speaker personality. The same utterance can express different emotions under different contexts. On the other hand, the speaker's personality and background may affect how we interpret the emotion of an utterance. For example, in Figure 1, the utterance "This is great!" can carry either negative sentiment (sarcastic person) or positive sentiment (not sarcastic). This difference can be attributed to the different personalities of speakers. In speaker modeling, we distinguish between the static and dynamic states of a speaker. The static speaker state refers to the average state of a person that remains unchanged over a long time. On the other hand, the dynamic speaker state refers to the deviation from the static state in presence of external stimuli. External stimuli can dictate and change the speaker's internal state, which in turn affects Figure 1 The emotion conveyed by the phrase "This is great" can either be negative (sarcasm) or positive (in the case that the person ordered the wrong item). This example is taken from [10]. the emotion displayed by an individual, hence modeling the dynamic state of a speaker is important for ERC. In the past few years, Graph Neural Networks (GNNs) have been used increasingly in ERC. GNNs provide an intuitive way to model conversations [3] given the inherent structural flexibility of the graph. The graph structure can be used to capture the dependency between utterances and speakers. Recent works such as DialogGCN [4], RGAT [5], EmoBERTa [6] and DAG-ERC [3] have modelled conversational contexts using various methods, however they do not model speaker state explicitly. Whereas ConGCN [7] and MMGCN [8] models the speaker state explicitly, however, they use random embedding for initialization and model just the static aspect. In this study, we propose a novel graph-based ERC model which considers both static and dynamic aspects of speaker state. We utilize a graph which includes past utterance nodes and explicit speaker nodes to model the interactions between utterances and speakers in the dialogue. Experimental results on the benchmark MELD dataset [9] verified the effectiveness of our model regarding both context and speaker modeling. ## 2 Related Work DialogGCN [4] was the first paper to use GNN to model dialogues. Given an input dialogue, a complete graph within a fixed context (past and future) window is built. Figure 2 Model overview . The target utterance is denoted in yellow color. Since graph-based neural networks do not take sequential information into account, RGAT [5] uses relational positional encodings to improve upon DialogGCN. DAGERC [3] builds a more intuitive graph structure by considering local and remote information, without using any future utterance. EmoBERTa [6] models the speaker state and context by prepending the speaker names to utterances and inserting separation tokens between the utterances in a dialogue, and feeding it to RoBERTa. ConGCN [7] explicitly uses speaker nodes, which are initialized randomly. MMGCN [8] also incorporate randomly initialized speaking embeddings in their model. ## 3 Methodology ## 3.1 Problem Definition In ERC, a conversation is defined as a sequence of utterances $\left.\{U_{1}, U_{2}, \ldots, U_{N}\right.\}$, where $N$ is the number of utterances. Each utterance $U_{i}$ is spoken by a speaker $S_{i}$ and has an emotion label $Y_{i}$. The goal of ERC is to predict the emotion label $Y_{t}$ for a given utterance $U_{t}$. ## 3.2 Model Overview Our model consists of three components: Feature extractor, Graph encoder, and Prediction layer. Figure 2 shows the overview of our proposed model. ## 3.3 Feature Extraction We use pretrained RoBERTa [11] as our feature extractor. Inspired by EmoBERTa [6], we feed the following sequence to RoBERTa for each utterance $U_{i}$ with speaker $S_{i}$ (as shown in Figure 2): $ [C L S] S_{i}: U_{i}[S E P] $ For each utterance $U_{i}$, we take the output vector of RoBERTa corresponding to the [CLS] token as the utterance embedding $h_{i}^{u}$. In addition, we extract the RoBERTa output vector corresponding to the speaker token $S_{i}{ }^{1)}$ as speaker embedding $h_{i}^{s p}$. ## 3.4 Graph Encoder ## 3.4.1 Graph Construction For a target utterance $U_{t}$ in the dialogue, we build a graph $G=(V, E)$ to model the information flow in a conversation, where $V$ denotes the set of nodes and $E$ is the set of edges. The graph $G$ contains two types of nodes: - Utterance node: We consider the target utterance $U_{t}$ and up to $w$ utterances preceding $U_{t}$ as past utterances. - Speaker node: We consider the unique speakers of the target and past utterances. 1) We consider the first token after [CLS] as the speaker embedding. Figure 3 Graph Structure. The set of nodes can be represented as: $ V=\left.\{U_{j}\right.\}_{j=t-w}^{j=t} \cup \operatorname{Uniq}\left(\left.\{S_{j}\right.\}_{j=t-w}^{j=t}\right) $ where the function $\operatorname{Uniq}()$ returns all the unique elements in a set. Our graph contains two types of edges, given by: - Utterance-Utterance Edge: We connect each utterance to its previous utterance. These model the effect of past utterance on the present utterance. These are given by $E_{u u}=\left.\{\left(U_{j-1}, U_{j}\right)\right.\}_{j=t-w+1}^{j=t}$ - Utterance-Speaker Edge: We connect each utterance $U_{j}$ to its corresponding speaker $S_{k}$. The set of utterance-speaker edges are denoted as $E_{u s}=$ $\left.\{\left(U_{j}, S_{k}\right)\right.\}_{j=t-w}^{j=t}$. These edges model the effect of speakers on the utterances. The set of edges can be given by: $ E=E_{u u} \cup E_{u s}, $ Figure 3 illustrates an example of the constructed graph with a target utterance $U_{4}$ (colored in yellow) and 3 past utterances. $U_{1}$ and $U_{3}$ are spoken by speaker $S_{1}$, while $U_{2}$ and $U_{4}$ are spoken by $S_{2}$. ## 3.4.2 Node Initialization We initialize the utterance and speaker nodes as follows: - Utterance node : $u_{i}^{0}=h_{i}^{u} \forall i \in[t-w, t]$ - Speaker node : $s_{j}^{0}=\operatorname{avg}\left(h_{i}^{s p}\right) \forall i$ spoken by $S_{j}$. Since there is only one speaker node for each unique speaker, we average all the embeddings for each unique speaker and use the averaged embedding to initialize the Speaker node. ## 3.4.3 GCN-based graph encoding layers After constructing and initializing the graph, we feed it to the Graph Convolutional Network (GCN) [12] based encoding layers, which update node representation considering the graph structure. For each GCN layer, the layer-wise propagation rule is: $ H^{l+1}=\sigma\left(A^{*} H^{l} W^{l}\right) $ where: - $H^{l}$ : Matrix for layer $l$, with all the node embeddings row wise, of size $N \times D$. ( $N$ : number of nodes, $D$ : embedding size) - $A^{*}=A+I, A$ is adjacency matrix and $I$ is identity matrix. - $W^{l}$, are the weights for $l$-th layer. We use GCN to get the updated representation of the nodes in $G$. After being processed by $L$ layers of GCN, the final utterance and speaker node representations are denoted as: $u_{i}^{l}$ and $s_{j}^{l} . s_{j}^{l}$ models the dynamic speaker state under the current dialog context. ## 3.5 Emotion Classification Finally, we concatenate the initial and the final node embedding (embedding after the $L$-th GCN layer) of target utterance and feed it through a feed-forward network to classify emotions. $ \begin{gathered} P_{t}=\operatorname{softmax}\left(F F N\left(u_{t}^{0} \| u_{t}^{l}\right)\right), \\ Y_{t}^{*}=\operatorname{argmax}\left(P_{t}\right), \end{gathered} $ Here, $\|$ denotes the concatenation operation, $F F N$ is the feed-forward neural network layer, and $P_{t}$ is the probability distribution for the predicted emotion. ## 3.6 Training Objective We use the standard cross-entropy along with L2regularization as the measure of loss $(\ell)$ $ \ell=-\sum_{x=1}^{M} \sum_{t=1}^{N_{x}} \log P_{x, t}\left[Y_{x, t}\right]+\lambda\|\theta\|_{2} $ Here, $M$ is the total number of training dialogues, $N_{x}$ is the number of utterances in the $x^{t h}$ dialogue, $Y_{x, t}^{*}$ and $Y_{x, t}$ are the predicted probability distribution of emotion labels and the truth label respectively for utterance $j$ of the dialogue $x . \lambda$ is the L2-regularization weight, and $\theta$ is the set of all trainable parameters. ## 4 Experiment Table 1 Statistics for the MELD dataset. ## 4.1 Dataset We evaluate our model on the benchmark Multimodal EmotionLines Dataset (MELD) dataset [9]. MELD is a multi-modal dataset collected from the TV show Friends. There are 7 emotion labels including neutral, happiness, surprise, sadness, anger, disgust, and fear. Since this is an imbalanced dataset, weighted $\mathrm{F} 1$ is used as the evaluation metric. The statistics of MELD are shown in Table 1. ## 4.2 Experimental Settings The feature extractor used is RoBERTa-large[11] The model is trained for 10 epochs, batch-size is set to be 8 , and the learning rate is set at $1 \mathrm{e}-6$. The model with the highest weighted F1 on the validation set is selected for evaluation. The past context is set to be 3 utterances and the number of GCN layers is set to be 2 . The size of hidden features is 1024. Also, we report the average score of 3 random runs on the test set. ## 5 Results and Analysis Compared Methods We compare our proposed model with several baselines and previous works. The overall results are reported in Table 2. First, we compare our model to the baseline RoBERTa models. In RoBERTa (no context), the utterance alone is used as input to the pretrained RoBERTa model. In RoBERTa (w/ modified input), we uses inputs as given by Equation 1. Our proposed method performs significantly better than both RoBERTa baselines. This shows the advantage of the graph encoding mechanism. Next, we compare our model with other GNN-based models: $D A G-E R C, D i a l o g G C N$ and RGAT. For fair comparison, we use the models which use RoBERTa as the feature extractor. The authors of DAG-ERC re-implement DialogGCN and RGAT using RoBERTa as feature extractor, we use the scores reported by the DAG-ERC paper. Our model outperforms all these models, proving the advantage of using explicit speaker nodes to model conversations. Finally, we compare our results with the state-of-the-art Table 2 Comparison with other models. Table 3 Impact of speaker modeling. model, EmoBERTa. Our model achieves comparable performance with EmoBERTa. However, EmoBERTa uses both past and future utterances as context, whereas we only use the past utterances as context.Under the condition that the past utterances are allowed, the proposed model outperforms EmoBERTa (w/o future context). Impact of speaker modeling To investigate the impact of the speaker modeling on the performance, we evaluate our model by removing speaker nodes and by randomly initializing speaker nodes. The results are shown in Table 3. Removing speaker nodes reduces the performance significantly, which confirms our hypothesis that, modelling speaker states is important. Whereas randomly initializing speaker nodes results in a performance which is comparable to using utterance nodes only. ## 6 Conclusion We proposed a novel idea of modeling speaker states explicitly using a graph for emotion recognition in conversation (ERC). Experiments showed that our model achieves comparable results with the state-of-the-art model and outperforms other graph-based models. In addition, empirical results illustrated the effectiveness of explicit speaker modeling. ## References [1] Navonil Majumder, Pengfei Hong, Shanshan Peng, Jiankun Lu, Deepanway Ghosal, Alexander Gelbukh, Rada Mihalcea, and Soujanya Poria. MIME: MIMicking emotions for empathetic response generation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 8968-8979, Online, November 2020. Association for Computational Linguistics. [2] Ankush Chatterjee, Kedhar Nath Narahari, Meghana Joshi, and Puneet Agrawal. SemEval-2019 task 3: EmoContext contextual emotion detection in text. In Proceedings of the 13th International Workshop on Semantic Evaluation, pp. 39-48, Minneapolis, Minnesota, USA, June 2019. Association for Computational Linguistics. [3] Weizhou Shen, Siyue Wu, Yunyi Yang, and Xiaojun Quan. Directed acyclic graph network for conversational emotion recognition. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1551-1560, Online, August 2021. Association for Computational Linguistics. [4] Deepanway Ghosal, Navonil Majumder, Soujanya Poria, Niyati Chhaya, and Alexander Gelbukh. DialogueGCN: A graph convolutional neural network for emotion recognition in conversation. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 154-164, Hong Kong, China, November 2019. Association for Computational Linguistics. [5] Taichi Ishiwatari, Yuki Yasuda, Taro Miyazaki, and Jun Goto. Relation-aware graph attention networks with relational position encodings for emotion recognition in conversations. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 7360-7370, Online, November 2020. Association for Computational Linguistics. [6] Taewoon Kim and Piek Vossen. Emoberta: Speaker-aware emotion recognition in conversation with roberta, 2021. [7] Dong Zhang, Liangqing Wu, Changlong Sun, Shoushan Li, Qiaoming Zhu, and Guodong Zhou. Modeling both context- and speaker-sensitive dependence for emotion detection in multi-speaker conversations. In Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence, IJCAI-19, pp. 5415-5421. International Joint Conferences on Artificial Intelligence Organization, 72019 [8] Jingwen Hu, Yuchen Liu, Jinming Zhao, and Qin Jin. Mmgen: Multimodal fusion via deep graph convolution network for emotion recognition in conversation, 2021. [9] Soujanya Poria, Devamanyu Hazarika, Navonil Majumder, Gautam Naik, Erik Cambria, and Rada Mihalcea. Meld: A multimodal multi-party dataset for emotion recognition in conversations, 2019. [10] Soujanya Poria, Navonil Majumder, Rada Mihalcea, and Eduard Hovy. Emotion recognition in conversation: Research challenges, datasets, and recent advances, 2019. [11] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach, 2019. [12] Thomas N. Kipf and Max Welling. Semi-supervised classification with graph convolutional networks, 2017.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B1-4.pdf
# 対話での共通基盤構築過程における名付けの分析 齋藤結 1 光田航 ${ }^{2}$ 東中竜一郎 ${ }^{2}$ 南泰浩 1 1 電気通信大学 2 日本電信電話株式会社 s1810274@edu.cc.uec.ac.jp \{koh.mitsuda.td, ryuichiro.higashinaka.tp\}@hco.ntt.co.jp minami.yasuhiro@is.uec.ac.jp ## 概要 対話研究において,話者が知識や信念を共有する共通基盤の構築は重要な課題とされてきたが,その構築過程を分析した研究は少ない. 共通基盤の構築過程が記録されたコーパスを調査したところ,図形配置課題に関する図形オブジェクトへの「名付け」 が多く見られており,この名付けが共通基盤の構築に重要である可能性がある。本研究では,共通基盤構築過程が記録されたコーパスに対する名付けのアノテーション仕様の作成,および,一定規模のデー タに対するアノテーションを実施した. その結果, オブジェクトについての知識を利用する名付けが多く出現したことや課題で使用するオブジェクトごとに使用する名付けの種類が変化することがわかった。 ## 1 はじめに 対話において話者が相互理解を行うためには,話者間で共有される知識や概念といった共通基盤の存在が必要である $[1,2]$. 対話における共通基盤をモデル化することを目的とし,課題が達成されるまでの過程とその対話を大量に集めモデルを構築する研究が報告されている $[3,4]$. 例えば宇田川ら [3] は,初期状態が互いに異なる複数の点の中から共通する点を選ぶタスクを設計し,対話履歴とタスクの結果を収集した. さらに収集したデータセットに対して,指示語と指示内容を結びつけるアノテーションを実施した [5]. また光田ら [4] は,宇田川らが設計したタスクを参考に初期位置が互いに異なる複数の図形を対話を通して同じ配置にする実験を設計し,課題を達成するまでの対話内容とそれに対応する図形配置が定量的に記録されたデータを収集した. 図 1 に先行研究 [4] で収集された対話例を示す.話者 B が発話 $U_{2}$ で円を「自動車の車輪」と名付け & \\ 図 1 名付けを通して共通基盤構築が進む対話の例 (数字は発話 ID,A,B は話者を表し,作業画面はそれぞれの話者が見ているものを示している。) たことで話者 $\mathrm{A}$ は発話 $\mathrm{U}_{3}$ で「トラック」をイメー ジし話している。それに対して話者 $B$ は発話 $\mathrm{U}_{4}$ で四角形を「トラックの運転席」と「荷台の部分」と名付けることでどの位置にどの図形を配置するかの方針が相手にも伝わっている。このようにオブジェクトに対して「トラック」のような名付けをすることで,目標を決定したり,オブジェクトの操作を指示したりしていると考えられる。.このような名付けは共通基盤の構築において重要な役割を持っている可能性がある. 本稿では,名付けに着目して共通基盤の構築過程を明らかにすることを目指し,先行研究 [4] で収集されたデータセット(共同図形配置コーパスと呼ぶ)に対して名付けのアノテーションを行う仕様を作成し,実際にアノテーションを行った結果とその予備的な分析について報告する。 ## 2 共同図形配置コーパス 図 2 亿,本研究で名付けの対象として利用する共同図形配置コーパスの作業用ツールについて示し, その概要を述べる. 本コーパスでは作業者 2 名がペアとなり,ツールを通じて図形の配置と対話を行う.各作業者の画面には,同数の図形が異なる図形配置で表示される。作業者は相手と対話をしながらマウスを使用して図形を動かし,2 名で同じ図形配置を作る.このとき各作業者は相手の図形配置を見ることはできない.図形の数は 5 個または 7 個,種類は重複あり,大きさはランダムである. 図形の回転,縮小拡大,削除はできず移動のみが可能である.相手と同じ図形配置を作成すればこの作業は成功となる [4]. 図 3 にこの作業で利用される図形を示す. 1つ目が上部に示す三角や四角などの単純図形で,2つ目が下部に示す建物などの前提知識を利用できる建物図形である. それぞれ 10 種類存在する. 共同図形配置コーパスには単純図形を用いた対話が 489 対話,建物図形を用いた対話が 495 対話が含まれ,合計 984 対話である. ## 3 名付けのアノテーション仕様 本節ではまず,本研究のアノテーション対象となる「名付け」と「参照」を定義する. 次に,予備分析の結果,名付けのアノテーションは 2 種類の情報 (図形個個数・配置に関する分類,および,名付けの名称に関する分類)に分けられることがわかったため,その詳細について述べる。 トライアルアノテー ションと仕様の改善を繰り返し行うことで本仕様を作成した. ## 3.1 「名付け」と「参照」の定義 本研究では「名付け」を以下のように定義する。 名付け単純図形または建物図形 1 つまたは複数個と何らかの名前を結びつけること また,一度名付けた名前を再利用したり,名付けた名前を新たに名付けしたりすることもある。 それらの行為は「参照」とし,以下のように定義する。 参照同一の図形に関連づいている名前を使用すること 共同図形配置コーパス中の名付けを予備分析で分析したところ 2 つの分類に分けられることがわかっ 図 2 共同図形配置コーパスで利用されている作業用ツー ルの画面(片方の作業者に提示される画面) 図 3 共同図形配置コーパスで利用されている単純図形 (上部),および,建物図形(下部) た. 1 種類目は「個数・配置に関する分類」である.名付け対象の図形の数と名付けを発話した時点での名付け対象の図形の配置状態でラベル付けを行う. これに注目した理由は,名付けと関連づいている図形の数や図形の配置状態に違いがあることがわかったからである.また,図形の数によって名付けの質も変わり、最終的なゴールに対しての名付けは対話の方向性やタスクの達成の成否に関わり共通基盤の形成に大きくかかわるのではないかと考えたからである。 2 種類目は「名称に関する分類」である。これに注目した理由は名付けた名前の分類が名付けが対象とする図形種などにより変化すると考えたからである. 以降,各々について説明する。 ## 3.2 個数・配置に関する分類 表 1 の上部に,個数・配置に関する分類の体系を示す. 名付けの対象となる図形の数と, その図形配置が今あるものかを表す. 図形の個数は 1 つか複数個か,名付けを発話した時点で名付けの対象となる図形の配置がすでにあるかどうかで分けた.分類の数は 3 種類のラベルとし, 1 つの名付けにつき 1 つのラベルを付与する. 図形/建物 1 つの例を図 4 , 図形/建物複数・目標の例を図 5 , 図形建物複数・その他の例を図 6 に示す. ## 3.3 名称に関する分類 表 1 下部に名称に関する分類の体系を示す. 名称に付与される名付けのラベルを 15 種類に分類した.予備分析の結果, 修飾語が含まれている名付けが多数存在したので,修飾語についてのラベルと,名詞についてのラベルを用意した. 1 つの名付けに対して 2 種類の情報がマルチラベルで付与される. ## 4 アノテーションの実施と分析 ## 4.1 アノテーションの実施 外部のアノテータ 6 名に依頼しアノテーションを行った. 最初にツールの使い方とアノテーションの仕方に慣れてもらうために,作業の練習を行った.公園は坁役所のとなりじやないですか? 図 4 図形/建物 1 つの例,名付けの対象が 1 つの図形である. 図 5 図形/建物複数・目標の例.「ランプ」の対象は「円」 と「台形」であり,この発話時点で「ランプ」は配置されていない. 図 6 図形/建物の複数・その他の例,「蛇口みたいな形」 は図形全てが対象であり,この発話時点で「蛇口みたいな形」が配置されている。 図 7 名付けをアノテーションした例. 矩形は名付けを表し,エッジは参照を表す。 アノテーションはbrat[6] を用いて実施した,bratでアノテーションを行った例を図 7 に示す. アノテーション作業では,作業者を 2 グループに分けて作業を実施した. 1 グループ目では, 2 人のアノテータが同じ 20 対話にアノテーションを行った. 2 グループ目では,残りのアノテータ 4 人が分担して重なりのない 160 対話にアノテーションを行った. 前述のアノテーションの結果,単純図形の対話が 89 対話,建物図形の対話が 91 対話の計 180 対話となった。 表 2 一致率および $\kappa$ 值(個数・配置のみは計算可能なもののみが対象) ## 4.2 アノテーター致率 表 2 に 2 人のアノテータのアノテーションについて,名付けスパンの一致率と名称に関する分類のみの $\kappa$ 値,個数・配置に関する分類のみの $\kappa$ 値,2つを組み合わせた $\kappa$ 値と参照の一致率の 5 つを示す. この表から,高い一致率でアノテーションができており,仕様の妥当性が確認できた。 ## 4.3 アノテーション結果の分析 各名付けの頻度について調査し,全体的な各名付けの傾向について述べる. アノテーションされた 180 対話には,名付けの数が 3476 個, 1 対話の平均数が約 19 個,異なり名付けの数が 1213 個, 1 対話につき約 8 個存在した. 異なり名付けの総数が名付けの数の半分以下であることから,対話の中で多くの共通の名付けが出現していることがわかる. 名称に関する分類で「登録名」にラベル付けされたものを除いて,上位 5 つを調査した結果,単純図形では,頭 : 19 回,家:18 回,直角三角形 : 14 回,それ: 14 回, これ: 13 回, また, 建物図形では, BAR: 31 回,街 : 30 回,ビル群:16 回,交番:16 回. 警察署:16 回出現した. この結果から, 建物図形で頻出の名付けの回数が単純図形の名付けの回数よりも多いことがわかる. 建物図形の名付けは建物名の名付けが多いが,単純図形はイメージしやすい体に関する多様な名前が利用されている。また指示語である「それ」が比較的多く使用されており,お互いの画面が見えない状況下でも, 指示語が発話される傾向が確認された。 個数・配置に関する分類の出現回数ついても述べると, 図形/建物 1 つが 2366 個, 図形/建物複数・目標が 167 個,図形/建物複数・その他が 943 個となった. 図形/建物複数・目標は 1 対話に 2 回以上出現しない傾向がある. 図形建物 1 つでは,BAR,交番,街, 図形/建物複数・目標では, 街, 顔, 家, 図形/建物複数・その他では,それ,手,街となった。これらの結果から図形/建物複数・目標は他の 2 つのラべルと役割が違うことがわかる. 特に図形建物複数・ 図 8 上:名付けの出現回数を時系列で示した図,下:図形建物複数・目標の出現回数を時系列で示した図 目標の名付けは構成要素を多く含む名付けが多い. これより図形/建物複数・目標の名付けの仕方で図形/建物 1 つと図形/建物複数・その他の名付けの仕方が変化すると考えられるので図形建物複数・目標の名付けは重要な要素と考えられる。 図 8 上部に各ターンにおける名付けの出現回数,下部に各ターンにおける図形/建物複数・目標の出現回数を示す。まず上部から,対話の前半での名付けの回数が多いことがわかる. すなわち,対話の前半で名付けを多く行って共通基盤を構築し,対話の後半では構築した共通基盤を利用して対話を進めていると考えられる。次の 2 つのグラフを見比べると,目標設定は対話の早い段階で行われていることがわかる。このことから,名付けを通して最初に目標設定を行うことで共通基盤の構築を効率的に進めている可能性が考えられる。 ## 5 おわりに 本稿では,名付けに着目して共通基盤構築の過程を明らかにするため, 名付けのアノテーション仕様の作成,アノテーションの実施,予備的な分析を行った結果について述べた. アノテーションの仕様が妥当であること,分析の結果対話の中で多くの共通する名付けが出現することや名付けに用いた図形によって出現頻度が高い名付けが異なること,目標を決める名付けは他の名付けとは違う役割を持つことがわかった.今後は収集したデータを用いて有効な名付けの仕方や対話中でどのタイミングにどういう名付けがされやすいかなどの分析をさらに進めていきたい. ## 参考文献 [1] David R Traum. A computational theory of grounding in natural language conversation. Technical report, Rochester Univ NY Dept of Computer Science, 1994. [2] Herbert $\mathrm{H}$ Clark. Using language. Cambridge university press, 1996. [3] Takuma Udagawa and Akiko Aizawa. A natural language corpus of common grounding under continuous and partially-observable context. In Proc. of AAAI, pp. 71207127, 2019. [4] 光田航, 東中竜一郎, 大賀悠平, 杵渕哲也. 共同図形配置課題における対話の共通基盤構築過程の分析. 言語処理学会第 27 回年次大会発表論文集 (NLP2021), pp. 1697-1701, 2021. [5] Takuma Udagawa and Akiko Aizawa. An annotated corpus of reference resolution for interpreting common grounding. In Proc. of AAAI, pp. 9081-9089, 2020. [6] Pontus Stenetorp, Sampo Pyysalo, Goran Topić, Tomoko Ohta, Sophia Ananiadou, and Jun'ichi Tsujii. brat: a webbased tool for NLP-assisted text annotation. In Proc. of EACL, pp. 102-107, 2012.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B2-1.pdf
# Prompt-Tuning による個性を持った対話システムの構築 笠原智仁 河原大輔 早稲田大学理工学術院 \{tomo_k@ruri., dkw@\}waseda.jp ## 概要 一貫した発話をしない対話システムは魅力的ではない。本研究では、対話システムに一貫性を持たせるため、与えられたキャラクター設定 (ペルソナ)を考慮した応答を行うことが可能な雑談対話システムの構築に取り組む。言語モデルの大規模化が進む動向を踏まえ、学習コストの低い Prompt-Tuningを事前学習済みの大規模言語モデルに施すことによるアプローチを提案する。Fine-Tuning と比較して、学習にかかる時間と計算資源量を抑えた上で、より自然で個性を持つ応答が可能な対話システムが構築できることを自動評価と人手評価によって示した。 ## 1 はじめに ニューラルネットワークモデルを用いた生成ベー スの対話システムでは、様々な話者の発話から成る大規模な対話コーパスをモデルの学習に用いる。そのため、学習したモデルが生成する発話において一貫性に欠けることが多いという久点がある [1]。例えば「私は東京出身です。」と発話した後に、「私は京都出身です。」等といった一貫性のない発話をする可能性がある。 本研究ではこのような一貫性に欠けた発話を減らすことを目的とし、ペルソナをモデルに与え、それを基に応答を行うことができる対話システムの実現を目指す。モデルにペルソナを与える単純な手法として、モデルへの入力にペルソナを自然言語で付加する方法 [2] が考えられる。しかし、この手法ではペルソナ情報が増えれば増えるほど入力文が長くなるため、入力方法として適しているとは考えられない。そこで、入力トークン列の前に固定長の新たなトークン列を付加し、そこにペルソナ情報を埋め込む手法を提案する。具体的には、ペルソナを基に発話がなされたデータセットを用いて、付加されるトークン列の埋め込みべクトルのみを学習によって最適化する。自動評価と人手評価により、ペルソナを活かした自然な応答ができる対話システムの構築が本手法によって可能であることを示す。本手法では事前学習済みモデルのパラメータ更新を行わないため、学習に要する時間と計算資源の削減が可能である。また、数百個の対話ぺアからなる小規模なデータセッ卜を用いたとしても、個性を持った対話システムの構築が可能であることを示す。本手法は対話システムに個性を持たせること以外にも、感情ごとにトー クンを用意することで対話システムに感情に応じた応答をさせること等にも応用が可能である。 ## 2 関連研究 ## 2.1 Prompt-Tuning BERT [3] などの事前学習済みモデルの登場により、事前学習したモデルを Fine-Tuning することによって目的タスクに適応させる手法が主流となった。しかし、モデルの大規模化が進む現在、 Fine-Tuning のコストの増大と事前学習済みモデルが持つ知識の増大により、パラメータを更新せずにタスクに適応させる手法が注目を浴びている。 Brown ら [4] は手作業でタスクの説明といくつかの例 (まとめて Prompt と呼ぶ)を作成することでタスクを解くZero/Few-Shot Learningを提案した。これらの改良についての研究 $[5,6]$ があるが、Fine-Tuning と比較すると精度は悪い。 自動的に Prompt を最適化する Prompt-Tuning と呼ばれる手法には、離散的な語彙の中から最適な単語を選択する手法 [7] と、連続的な埋め込みべクトルを用意してそれを最適化する手法 $[8,9,10,11,12]$ が存在する。Prefix-Tuning $[9,10]$ は入力の先頭に Prefix-Token と呼ばれるトークン列を追加して、このトークンの埋め込みベクトルのみを最適化する。画像と自然言語のマルチモーダルな Prompt-Tuning に関する研究 [13] もなされている。 なお、Liu ら [14]によって Prompt 関連の研究がま とめられ、ウェブ上に公開されている1)。 ## 2.2 対話システムの個性 対話システムがより自然な対話を人間と行うためには、一貫した個性を持つこと、知識を持つこと、感情を持ち対話相手に共感すること、の 3 つの観点からの改善が必要であると Roller ら [15] は述べている。本研究ではこの 3 つの観点の中でも、個性に注目する。 Persona-Chat Dataset [2] は対話システムに個性を持たせることを目指して作成されたデータセットである。キャラクター設定が記されたペルソナ文を約 5 文ずつ与えられた 2 人のクラウドワーカー同士のマルチターンの対話で構成されている。ペルソナ文には、実際にワーカーが対話を行う際に使用した Original と、それを言い換えた Revised の 2 種類が存在する。Persona-Chat Dataset の日本語版である JPersonaChat Dataset [16] も存在する。発話者のペルソナ情報が含まれる対話コーパスには、Redditから対話データを抽出することで作成されたもの [17] や、PersonalDialog [18] などがある。Zheng ら [18] は PersonalDialog を用いて、エンコードしたペルソナ情報を入力に付加してから Seq2Seq モデルに入力する手法を提案している。 ## 3 提案手法 ## 3.1 提案モデル Transformer のアーキテクチャを用いた事前学習済み言語モデルに、ペルソナ情報を埋め込むトークン用の Embedding 層を追加したモデルを提案する。以降、このトークンを Persona Info Token と呼ぶ。提案モデルのアーキテクチャと入出力関係を図 1 に示す。 ## 3.2 データセット 日常生活における会話は必ずしも個人の情報と関連したものばかりではない [19]。そこで、ペルソナと無関係な発話もモデルが行えるようにすることを目的とし、1 種類のペルソナを基に発話が行われた対話データセットと、ペルソナと無関係な対話データセットの 2 種類を混ぜたデータセットを用意する。  図 1 提案モデルのアーキテクチャと入出力関係 ## 3.3 学習方法 Persona Info Token を新たに追加した Embedding 層によって、発話と応答のぺア (生成時は発話と生成が完了したところまでの生成文)を事前学習済み言語モデルの Embedding 層によってそれぞれ埋め込む。これらの埋め込みベクトルは結合してからモデルに入力される。学習時、モデルからの出力の応答文にあたる部分で Cross Entropy Loss を計算し、新たに追加した Embedding 層のパラメータのみを更新する。 ## 4 実験 3 節の手法に基づいて、個性を持った対話システムを構築する。システムの構築には Hugging Face の Transformers を使用し、計算資源には AI 橋渡しクラウドを利用した。使用した GPU は NVIDIA A100 SXM4 であり、搭載されているGPUメモリサイズは40GBである。 ## 4.1 データセットの作成 実験には Persona-Chat Dataset と DailyDialog [20]の 2 種類のデータセットを用いる。 ## 4.1.1 学習用データセット まず、Persona-Chat Dataset の複数ターンの対話を 1 往復の 2 発話ずつに分割する。この 2 発話のペアを以降は対話ペアと呼ぶ。対話ペアの応答側のワー カーに与えられていたペルソナ種類ごとに対話ぺアを集計する。なお、Persona-Chat Dataset には 1,155 種類のペルソナが存在するが、本実験では集められた対話ぺア数の多い上位 3 種類のペルソナのみを用いる。この 3 種類のペルソナを基に発話が行われた対話ぺア数はそれぞれ 185,167, 166 である。実験では 1 つの実験設定につき、 3 種類のペルソナに対応した 3 つのモデルを学習して評価を行う。集計した対話ぺアを学習用と評価用に 9:1 の割合で分割する。 ペルソナとは無関係な一般的対話ペアとして、 DailyDialog の中でも、挨拶などの一般的な発話が多い、Topic ${ }^{2}$ が Relationship の対話ぺアを用いる。その中から、発話と応答の両方の長さが 50 文字以下の対話ぺアを一定の比率で学習用データセットに混ぜる。このような条件を設けた理由は、Persona-Chat Dataset には長さが短い発話やペルソナとは無関係な発話が少ないため、短くて一般的な発話をデータセットに取り入れるためである。DailyDialog から学習用データセットに追加する対話ペアの比率については、Persona-Chat Dataset から取得した対話ペア数に対する比率が 1:0、1:1、1:5 となるような 3 種類の加え方を用意する。以降、この比率を学習用データセットの比率と呼ぶ。 ## 4.1.2 評価用データセット 評価用データセットは Persona Eval Dataset と General Eval Dataset の 2 種類を用意した。Persona Eval Dataset は4.1.1 節で述べた 9:1 に分割したうちの 1 割のデータセットである。General Eval Dataset は DailyDialog から 4.1.1 節と同様の条件で取得した 50 個の対話ペアからなる。 ## 4.2 実験設定 4.1 節のデータセットを用いて、GPT 系の事前学習済み言語モデルの Fine-Tuning と Prompt-Tuning を行う。モデルのサイズは GPT2-XL と GPT-J-6B の 2 種類とする。なお、GPT-J-6B の Fine-Tuning は GPU メモリサイズの都合上、実験は行っていない。 Prompt-Tuning のハイパーパラメータについては Lester ら [10] の設定にならう。Persona Info Token の長さについては予備実験を実施し、100と 200 で比較したところ、200 の方がより多様性のある生成を行うことができた。そのため、本実験では 200 とする。Persona Info Token 用 Embedding 層の初期化には、Original のペルソナ文を並べた文章を事前学習済み言語モデルの Embedding 層によって埋め込んだベクトルを用いる。その文章のトークン数が 200 に満たない場合には、長さが 200 になるまでペルソナ文を繰り返し並べる。応答文の生成の戦略は Greedy Searchを採用している。Epoch 数は学習時の loss が収束するような値に設定した。 Fine-Tuning は対話ぺアのみを入力する方法と対話ペアの発話の前にペルソナ文を付加してからモデル 2)対話ごとに Topic が付与されており、Attitude \& Emotion, Culture \& Education, Finance, Health, Ordinary Life, Politics, Relationship, School Life, Tourism, Work の 10 種類がある。表 1 Distinct による自動評価. 付加の有無はペルソナ文を入力文に付加しているかどうかを示す。 & 0.595 \\ に入れる方法の 2 種類を実験した。 ## 4.3 実験結果 学習用データセットを用いて学習を行ったモデルに、Persona Eval Dataset と General Eval Dataset の対話ペアの発話を入力する。モデルから生成された応答に対して、多様性を自動評価し、発話に対する応答として自然でペルソナを活かしているかどうかを人手評価する。なお、結果が最も良かった学習用データセットの比率が 1:1 の設定における結果のみを本節に載せ、その他の比率の結果については付録に載せる。 ## 4.3.1 自動評価 生成された文の多様性を Distinct [21] によって評価する。Distinct-1 と Distinct-2 の値を表 1 に示す。 なお、評価の値は 3 種類のペルソナに対応するそれぞれのモデルからの Persona Eval Dataset と General Eval Dataset の生成結果全ての平均をとっている。結果から、GPT-J-6B を Prompt-Tuning したモデルが最も多様性のある生成を行うことが分かる。また、 Zhang ら [2] の実験結果と同様に、Fine-Tuning においては入力にペルソナ文を付加しない方が良い結果となることが分かる。 ## 4.3.2 人手評価 Amazon Mechanical Turk を利用し、生成文が発話に対する応答として自然で、ペルソナ設定に沿っているかどうかを人手評価する。Zhang ら [2] の手法にならい、応答が文法的に正しいか、魅力的であるか、発話に関連しているか、ペルソナを考慮しているか、の 4 項目を 5 段階評価する。 1 つの応答につき 5 人のワーカーに回答してもらい、平均を取る。 Persona Eval Dataset と General Eval Dataset の人手評価結果をまとめて表 2 に示す。Human のスコアは Zhang ら [2] の結果を引用する。なお、Fine-Tuning において、入力にペルソナ文を付加した場合の自動評価結果が、付加しない場合と比較して悪かったた 表 2 人手評価 表 3 応答の生成例 \\ 表 4 応答生成例で用いたペルソナペルソナ文 i am a retired gym teacher. i volunteer at a soup kitchen. i was poor growing up. cheeseburgers are my favorite food. i like watching war documentaries. め、付加しない場合の人手評価のみを行った。 表 2 から、Persona Eval Dataset を用いた人手評価結果では、すべての項目において GPT-J-6Bを Prompt-Tuning をしたモデルの評価が高いことが分かる。これは、モデルサイズが大きいほど事前学習でモデルに蓄えた知識が多く、その知識を生かしてより自然な応答が行えたためと考えられる。流暢さ、魅力度、関連性については Human スコアに近い値を出すことが出来ている。General Eval Dataset を用いた人手評価では、そこまで大きな差が生まれなかった。これは、General Eval Dataset に含まれる発話には挨拶などの一般的で短いものが多いため、応答も短い簡単な文になったためであると考えられる。 GPUメモリサイズを固定した上で、学習可能な最大サイズのモデル同士で Fine-Tuning と PromptTuning を比較すると、Prompt-Tuning の方がより個性的で自然な応答を行うことのできる対話システムを構築可能であると言える。 最も人手評価の合計スコアが高かった設定である、GPT-J-6B を Prompt-Tuning によって学習したモデルからの生成例を表 3 に示す。なお、生成例は表 4 に示すペルソナのデータセットを用いて学習を行ったモデルからの生成である。数百ペアの小規模学習データセットを用いた学習により、表 3 のような自然で一貫した個性を持つ応答を行えることが分かる。 ## 5 おわりに 本論文では、 1 種類のペルソナを基に発話が行われた対話データとペルソナとは無関係な対話データの 2つを用いて、事前学習済み言語モデルを Prompt-Tuning する手法を提案した。Fine-Tuning と比較して、学習にかかる時間と計算資源量を抑えた上で、より自然でペルソナに沿う応答が可能な対話システムの構築ができたことを自動評価と人手評価によって確認した。本実験では数百個の対話ぺアからなる小規模なデータセットを用いたが、よりサイズの大きなモデルとデータセットを用いることで更なる精度向上が見込まれると考えられる。また、本手法は対話システムに個性を持たせることに限らず、 1 種類の感情を基に発話が行われた対話データを用いることで、その感情を持つ対話システムを構築する等にも応用が可能である。 ## 謝辞 本研究は LINE 株式会社との共同研究の助成を受けて行った。 ## 参考文献 [1] Jiwei Li, Michel Galley, Chris Brockett, Georgios Spithourakis, Jianfeng Gao, and Bill Dolan. A persona-based neural conversation model. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 994-1003, Berlin, Germany, August 2016. Association for Computational Linguistics. [2] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2204-2213, Melbourne, Australia, July 2018. Association for Computational Linguistics. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [4] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020. [5] Laria Reynolds and Kyle McDonell. Prompt programming for large language models: Beyond the few-shot paradigm. In Extended Abstracts of the $2021 \mathrm{CHI}$ Conference on Human Factors in Computing Systems, pp. 1-7, 2021. [6] Zihao Zhao, Eric Wallace, Shi Feng, Dan Klein, and Sameer Singh. Calibrate before use: Improving few-shot performance of language models. In Marina Meila and Tong Zhang, editors, Proceedings of the 38th International Conference on Machine Learning, Vol. 139 of Proceedings of Machine Learning Research, pp. 1269712706. PMLR, 18-24 Jul 2021. [7] Taylor Shin, Yasaman Razeghi, Robert L. Logan IV, Eric Wallace, and Sameer Singh. AutoPrompt: Eliciting Knowledge from Language Models with Automatically Generated Prompts. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4222-4235, Online, November 2020. Association for Computational Linguistics. [8] Guanghui Qin and Jason Eisner. Learning how to ask: Querying LMs with mixtures of soft prompts. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 5203-5212, Online, June 2021. Association for Computational Linguistics. [9] Xiang Lisa Li and Percy Liang. Prefix-tuning: Optimizing continuous prompts for generation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 4582-4597, Online, August 2021. Association for Computational Linguistics. [10] Brian Lester, Rami Al-Rfou, and Noah Constant. The power of scale for parameter-efficient prompt tuning. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 3045-3059, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [11] Xiao Liu, Yanan Zheng, Zhengxiao Du, Ming Ding, Yujie Qian, Zhilin Yang, and Jie Tang. GPT understands, too. CoRR, Vol. abs/2103.10385, , 2021. [12] Tu Vu, Brian Lester, Noah Constant, Rami Al-Rfou, and Daniel Cer. Spot: Better frozen model adaptation through soft prompt transfer. CoRR, Vol. abs/2110.07904, , 2021. [13] Maria Tsimpoukelli, Jacob Menick, Serkan Cabi, SM Eslami, Oriol Vinyals, and Felix Hill. Multimodal few-shot learning with frozen language models. Advances in Neural Information Processing Systems, Vol. 34, , 2021. [14] Pengfei Liu, Weizhe Yuan, Jinlan Fu, Zhengbao Jiang, Hiroaki Hayashi, and Graham Neubig. Pre-train, prompt, and predict: A systematic survey of prompting methods in natural language processing. CoRR, Vol. abs/2107.13586, , 2021. [15] Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Eric Michael Smith, Y-Lan Boureau, and Jason Weston. Recipes for building an opendomain chatbot. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 300-325, Online, April 2021. Association for Computational Linguistics. [16] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformerbased japanese chit-chat systems, 2021. [17] Pierre-Emmanuel Mazaré, Samuel Humeau, Martin Raison, and Antoine Bordes. Training millions of personalized dialogue agents. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2775-2779, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [18] Yinhe Zheng, Guanyi Chen, Minlie Huang, Song Liu, and Xuan Zhu. Personalized dialogue generation with diversified traits. CoRR, Vol. abs/1901.09672, , 2019. [19] Haoyu Song, Yan Wang, Kaiyan Zhang, Wei-Nan Zhang, and Ting Liu. BoB: BERT over BERT for training persona-based dialogue models from limited personalized data. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 167-177, Online, August 2021. Association for Computational Linguistics. [20] Yanran Li, Hui Su, Xiaoyu Shen, Wenjie Li, Ziqiang Cao, and Shuzi Niu. DailyDialog: A manually labelled multi-turn dialogue dataset. In Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 986-995, Taipei, Taiwan, November 2017. Asian Federation of Natural Language Processing. [21] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics. ## A 様々な学習用データセットの比率における評価結果 学習用データセットの比率が 1:0、1:1、1:5 のときの評価結果を載せる。 ## A. 1 自動評価 表 5 に Distinct による自動評価結果を示す。太字は同 Ratio 内の最高値で、赤字は Ratio 間をまたいだ最高値である。DailyDialog から取得した対話ぺアの比率が高いほど学習用データセットが大きくなるため、 Distinct のスコアも高くなる傾向にある。また、同サイズの学習用データにおいて学習手法とモデルを比較すると、GPT-J-6B を Prompt-Tuning したモデルが最も多様性のある生成を行うことが可能であることが分かる。 表 5 Distinct による自動評価. 全ての学習用データセットの比率の結果を載せる。 & \\ ## A. 2 人手評価 人手評価結果を表 6 に示す。 表 6 Persona Eval Dataset の人手評価. 全ての学習用データセットの比率の結果を載せる。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B2-2.pdf
# 遠隔操作アンドロイドを用いた マルチモーダル説得対話コーパスの収集と分析 有岡無敵 ${ }^{1,2}$ 山本賢太 $^{3}$ 井上昂治 ${ }^{3}$ 河原達也 ${ }^{3}$ 中村哲 ${ }^{1}$ 吉野幸一郎 ${ }^{2,1}$ 1 奈良先端科学技術大学院大学先端科学技術研究科 2 理化学研究所ガーディアンロボットプロジェクト 3 京都大学大学院情報学研究科 koichiro.yoshino at riken.jp ## 概要 対話を通じてユーザに行動変容を促す説得対話システムについての研究を行うため、マルチモーダル情報を含む説得対話コーパスの収録を行った。具体的には、WoZ 法で遠隔操作されたアンドロイドを用いて、ユーザに対してシステムとの対話(ター ンテイキング)を意識させつつ、音声と顔画像から得られる特徴量を含む説得対話コーパスを収集した。収集した音声は書き起こし、対話行為タグの付与を行った。収集したコーパスと合わせて前後にアンケートを行い、各被験者の性格、説得対象ドメインへの意識、説得前後での意識の変化、対話上で説得に応じたかなどのラベル付けを行った。また、各被験者に対して追跡調査を行い、実際に説得によって行動変容が生じたかについても調査した。 ## 1 はじめに 対話システムのような言語インタフェースを備えるシステムの多くは、何らかの目的を持って構築される。この目的は、ユーザが要求する情報の検索 [1] や具体的な支援の呼び出し [2] など様々だが、そうした目的の一つにユーザの行動変容が挙げられる。行動変容システムとはユーザの行動や目標の変更を介入によって促すもので、特に自然言語による対話を用いて行動変容を促すシステムを説得対話システムと定義することができる $[3,4]$ 。説得対話システムは、対話を通じて人の行動や目標を、あらかじめ設定されたシステムの目的に合わせて変容させるもので、例えば生活習慣の改善 [5] や、社会問題に対する取り組み [6] などの観点から注目されている。 これまで行われてきた説得対話研究の多くは、対話における言語的な側面、特に対話行為や語彙の選択に着目してきた $[4,7,6,8,9]$ 。しかし実際には、我々は対話の上で表現される多様なモダリティ上の現象に影響を受けており、これらの関係にも着目する必要がある。例えば信頼した人からの説得には応じやすいなど、対話における信頼度・親密度は説得の成功とも相関があるが、こうした信頼度・親密度はマルチモーダル情報に着目することである程度明らかにすることができる [10]。また、ユーザの感情状態 [11] や、嘘をついているかどうか [8] などの情報も、マルチモーダル情報から取得し、説得対話に活用することができる。 そこで本研究では、説得対話における非言語情報の活用を指向して、遠隔操作アンドロイドを用いた WoZ 対話によってマルチモーダル説得対話コー パスの収集を行った。具体的には、先行研究 $[5,6]$ に従って「運動の促し」「インターネット依存の改善」「募金の促し」という 3 通りの説得ドメインを定義し、各ドメイン 20 話者ずつとの音声対話を収録した。この際、被験者と相対するシステムとして人型アンドロイド ERICA[12]を用い、遠隔操作 [13] による WoZ 対話を行った。対話中の被験者からは、音声および正面顔画像から得られる特徵量(Action Unit; AU)を収録した。収録した音声は書き起こしを行い、分析に利用した。書き起こしたコーパスに対して、拡張 ISO-24617-2 対話行為タグ [14] に基づいて対話行為タグの付与を行った。また、被験者の属性や性格 [15]、説得を受けてどう感じたか、対話上で説得に応じたか、実際に説得された通りの行動を取ったかなどについてのラベルを付与した。さらに、対話収録後に追跡調査を行い、実際に行動変容が引き起こされたかどうかについてもラベルを付与した。このデータを用い、説得の成否判定や説得に有効な要素についての分析を行った。 ## 2 説得対話の収録 説得対話システムは、説得者をシステム、被説得者をユーザとし、システムが持つ対話目標の状態へユーザを誘導する。対話はユーザが説得に合意する、あるいはユーザが説得に合意しないまま一定時間(または一定ターン)経過することで終了する。今回の収録では、対話時間は最低 5 分から最大 8 分程度と設定し、以下のような設定で収録を行った。 ## 2.1 説得対象ドメイン 今回、「運動の促し(運動)」「インターネット依存の改善 (ネット)」、慈善事業団体への募金の促し (慈善事業)」を目的とする説得対話を収録した。運動および慈善事業は先行研究 $[6,5]$ で存在する説得目標で、このうち慈善事業に関しては米国で行われた研究であるため、日米の慈善事業に対する意識の違いから異なる結果が出る可能性があった。そこで、今回集められた被験者に対応しそうなインター ネット依存の改善の説得目標を新たに追加した。 ## 2.2 被験者への教示 被験者は、人型アンドロイド ERICA の対話実験として集められた 18 歳から 38 歳までの男女 60 名 (男性 43 名、女性 17 名)である。正しく収録できたのが 58 セッション(男性 41 名、女性 17 名)であった。被験者には今回の対話の目的が説得であること、WoZ 対話であることは伏せ、ERICA で開発された新しいシステムと対話をして貪うという目的で集まって貪った。対話の際の教示としては、ERICA と対話のターンの受け渡しを意識し、発話が被らないようにすることを注意して革った。収録にあたっては、理化学研究所の倫理審査結果に従い、音声と顔画像の特徴量が収録されること、アンケートによって性格などの情報が収集されることについての説明を行い同意を得た。また、今回の運動、ネット、慈善事業のいずれかに興味を持つ者をあらかじめスクリーニングして被験者とした。被験者には後に説明する追跡調査終了後に謝金を支払った。 ## 2.3 演者への教示 今回は人型アンドロイド ERICAを演者が遠隔操作で操作した。演者は 2 名で、過去に ERICA の操作経験がある演技経験者から選抜した。演者には被験者へ行った教示に加えて、説得対話を行う際の技術や流れについても説明した。 説得対話を行う際、以下のような戦略が有効であることが知られている [6]。これらの戦略を効果的に利用するようあらかじめ演者に教示を行った。 1. 論理的な説得: 説得に応じた場合のメリット、説得に応じなかった場合のデメリットを具体的に説明する。 2. 感情への訴えかけ: 共感、罪悪感、怒りなど被験者の感情に訴えかける。 3. 信頼性のアピール: 科学的エビデンスや機関・権威などの信頼性をアピールする。 4. 簡単な内容での説得: 簡単な要求から説得を開始し、徐々に難易度を高くする。 5. 個人の経験の開示: 説得に応じることに対する個人のポジティブな経験について語る。 6. 具体的な情報提供: 詳細な行動についての指示を行い、どのように説得に応じるか具体的にイメージさせる。 7. 説得目標を認知しているかどうかの質問: 説得対象となる問題を認知しているか尋ねる。 8. 説得目標に関する質問: 説得対象について知りたいことなど、被説得者の意見や期待を尋ねる。 9. 被説得者に関する質問: 説得対象について、被説得者の個人的な経験を尋ねる。 演者には、以下のような流れで対話を進めるように指示をした。 1. お互いに挨拶をする 2. 会話のテーマ (運動、ネット、または慈善事業) を提示する 3. 会話のテーマに対する被験者の意識を尋ねる (戦略 7) 4. 相手の反応に応じて説得を進める 5. 5 分経過後会話の流れに応じて説得を終了する 演者には演じて貪った対話数に応じて謝金を支払い、対話上説得が成功したと判定された対話の数に応じて追加の謝金を支払う旨を伝えた。 ## 2.4 収録環境 収録環境を図 1 に示す。被験者の音声と演者の音声は説話マイク1)を用いてステレオで録音した。顔画像は Web カメラ゙2) で正面から撮影し、OpenFace ${ }^{3)}$  図 1 収録環境 で Action Unit (AU)を抽出した。ERICA は演者の表情に合わせ、Valence-Arousal の二軸を調整しながら対話中の表情を変化させた [16]。収録された音声は書き起こし、さらに訓練された一名のアノテータによって、拡張 ISO-24617-2 対話行為タグ [14] に基づく対話行為タグ付与を行った。 ## 2.5 事前・事後アンケート 事前アンケートとして、被験者の性格、意思決定の傾向、説得対象ドメインへの意識や現在の状況についての調査を行った。この調査項目については先行研究 [6] に従った。まず、性格、意思決定の傾向については Big Five [15] を計測するための設問を含めた。各説得対象ドメインへの意識については、「運動」では、現在の運動習慣と生活習慣への自己意識を問う設問を用意した。「ネット」では、現在のインターネットの利用時間とそれに対する自己意識を問う設問を用意した。「慈善事業」では、これまでの慈善事業への参加経験と、参加への意識を問う設問を用意した。詳細な調査項目は付録を参照されたい。 事後アンケートでは先行研究に従い、年齢、性別、学歴、パートナーの有無、政治的見解について問う設問を用意した。また、対話中の ERICAへの印象を尋ねる質問と、対話を通じて意識がどのように変化したか尋ねる質問を用意した。 ## 2.6 追跡調査 説得対話では、対話上での合意に加えて、対話後実際にその合意が履行されたかどうかが重要である。そこで今回の研究では、対話上で説得に対して合意した被験者に対して、その合意を履行したかどうか 1 週間後に追跡調査を行った。具体的には、表 1 意識の変容 表 2 行動の変容 表 3 対話上の合意 「運動」では 1 週間の運動時間、「ネット」では 1 週間のインターネット利用時間、「慈善事業」では 1 週間に行った寄付の金額を答えてもらった。 ## 3 コーパスの分析 収集されたコーパスの分析を行うため、まず説得の成否について述べる。次に、アンケートで得られた項目が説得成功どのように寄与するか調査するため、ロジスティック回帰によって説得の効果予測器を構築し、各素性に与えられた重みを比較した。 ## 3.1 説得の成否 まず、説得の成否について表 $1 、 2 、 3$ に示す。今回、説得の指標としては意識の変容、行動の変容、対話上の合意を用いた。意識の変容は、事後アンケートで説得対象ドメインへの関心が上がったと答えた被験者の人数・割合である。変容値は、アンケートの中でどれくらいの時間について行動変容を起こそうと思うかについて尋ねた値の平均値である。ただし、慈善事業については説得対話中で慈善事業への参加を促したものの、具体的な参加内容については議論しなかったため、行動変容を起こそうと思った人の割合についてだけ示す。行動の変容は、追跡調査の回答で実際に行動変容を行ったと答えた被験者の人数・割合である。変容値は、実際に行動変容を行った際の変容量の平均値である。慈善事業については、実際に慈善事業へ参加した人が 0 人であったため、変容値の記載がない。対話上の合意は、システムとの対話を聴取し説得に合意したと 表 4 運動ドメインで有効な素性 判断できた対話を行った人の人数・割合である。 まず全体を通して見ると、実際の行動の変容や意識の変容に関わらず、多くの人が対話上では説得への合意を行うことがわかる。つまり、実際に説得が有効であったかを対話上の振る舞いから判定することは困難である。説得の有効性については、意識の変容が起こったかどうかについて調査を行うか、実際の行動変容が起こったかを調べる必要がある。また、意識の変容が起こったと答えた人でも、実際に行動変容に至った人はその半分であった。これは、実際に対話を通じて行動変容に行うことに納得したとしても、そこから行動に移すためにはハードルがあることがわかる。効果的に行動変容を促す説得対話システムを構築するためには、即座に行動変容を起こすことができるタイミングでの説得を行うことも重要であることがわかる。 ## 3.2 説得に有効な要素 次に、アンケートで取得した個人の属性や性格などから、どの要素が説得に有効化についての調査を行った。この調査のため、アンケートで得られた各項目を入力とし、実際に行動変容を起こしたかどうかを 0/1 で予測するロジスティック回帰(L2 正則化)の学習を行った。なお、慈善事業については行動変容を起こした人がいなかったため、意識の変容を起こした人を予測するタスクとして学習を行った。 今回の事例全てで学習をした結果、いずれの説得対象ドメインでも学習データに対しては $100 \%$ で識別可能な識別器を構築できた。これらの識別器で学習した素性重みのうち、絶対値が大きかったもの (絶対値 0.3 以上)を説得対象ドメインごとに表 4 、 5、6 に示す。 この結果から、まず説得対話を行うエージェントの発言に説得力を持たせる、重要な話をしていると感じさせる、信頼性を持たせる、誠実さを感じさせるなどが重要であることがわかる。またそれ以外にもユーザ側の性質として、指示されることを好む、保守的である、あまり熟慮をせず直観に頼る、などが説得されやすさに関わっていることがわかる。 この結果から、今後説得対話システムを構築するにあたって、システム側の発言にいかに説得力を持たせるかに注力することが重要であることがわかる。具体的には、論理的な説得や、信頼性のアピー ル、具体的な情報提供などの戦略を用い、誠実さ、信頼性などを向上させることが説得の成功に寄与すると考えられる。ユーザの特性を対話の序盤で分析し、それに合わせた戦略を取ることも有望である。 ## 4 まとめ 本研究では、対話を通じてユーザに行動変容を促す説得対話システムの研究を行うため、アンドロイドを用いた WoZ 対話によりマルチモーダル情報を含む説得対話コーパスの収録を行った。コーパスを分析した結果、説得の成否判定の方法や説得成功に重要な要素についての示唆が得られた。今後はマルチモーダル情報の分析も進めるとともに、収録したデータを、マルチモーダル情報を用いる説得対話システムの構築に活用する。 ## 倫理審査の承認に関する開示事項 本研究課題は理化学研究所研究倫理第三委員会による倫理審査を受け、承認された(承認番号: Wako3 2021-20、承認日: 2021 年 5 月 31 日、研究課題名: 人型ロボットを用いた遠隔操作によるマルチモーダル説得対話収録)。 ## 謝辞 本研究は JSPS 科研費 $20 \mathrm{H} 05567$ の助成を受けた。 ## 参考文献 [1] Paweł Budzianowski, Tsung-Hsien Wen, Bo-Hsiang Tseng, Iñigo Casanueva, Stefan Ultes, Osman Ramadan, and Milica Gasic. Multiwoz-a large-scale multi-domain wizard-of-oz dataset for task-oriented dialogue modelling. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing (EMNLP2018), pages 5016-5026, 2018. [2] Shohei Tanaka, Koichiro Yoshino, Katsuhito Sudoh, and Satoshi Nakamura. ARTA: Collection and classification of ambiguous requests and thoughtful actions. In Proceedings of the 22nd Annual Meeting of the Special Interest Group on Discourse and Dialogue (SIGDIAL2021), pages 77-88, 2021. [3] Pierre Andrews, Suresh Manandhar, and Marco De Boni. Argumentative human computer dialogue for automated persuasion. In Proceedings of the 9th SIGdial Workshop on Discourse and Dialogue (SIGDIAL2008), pages 138147, 2008. [4] Takuya Hiraoka, Graham Neubig, Sakriani Sakti, Tomoki Toda, and Satoshi Nakamura. Learning cooperative persuasive dialogue policies using framing. Speech Communication, 84:83-96, 2016. [5] Sara Asai, Koichiro Yoshino, Seitaro Shinagawa, Sakriani Sakti, and Satoshi Nakamura. Eliciting cooperative persuasive dialogue by multimodal emotional robot. In Proceedings of the 12th International Workshop on Spoken Dialog System Technology (IWSDS2021), 2021. [6] Xuewei Wang, Weiyan Shi, Richard Kim, Yoojung Oh, Sijia Yang, Jingwen Zhang, and Zhou Yu. Persuasion for good: Towards a personalized persuasive dialogue system for social good. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics (ACL2019), pages 5635-5649, 2019. [7] He He, Derek Chen, Anusha Balakrishnan, and Percy Liang. Decoupling strategy and generation in negotiation dialogues. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing (EMNLP2018), pages 2333-2343, 2018. [8] The Tung Nguyen, Koichiro Yoshino, Sakriani Sakti, Satoshi Nakamura, et al. Dialog management of healthcare consulting system by utilizing deceptive information. Transactions of the Japanese Society for Artificial Intelligence, 35(1):DSI-C_1, 2020. [9] Weiyan Shi, Xuewei Wang, Yoo Jung Oh, Jingwen Zhang, Saurav Sahay, and Zhou Yu. Effects of persuasive dialogues: testing bot identities and inquiry strategies. In Proceedings of the $2020 \mathrm{CHI}$ Conference on Human Factors in Computing Systems (CHI2020), pages 1-13, 2020. [10] Yoshihiro Yamazaki, Yuya Chiba, Takashi Nose, and Akinori Ito. Construction and analysis of a multimodal chattalk corpus for dialog systems considering interpersonal closeness. In Proceedings of the 12th Language Resources and Evaluation Conference (LREC2020), pages 443-448, 2020 [11] Nurul Lubis, Sakriani Sakti, Koichiro Yoshino, and Satoshi Nakamura. Eliciting positive emotion through affectsensitive dialogue response generation: A neural network approach. In Proceedings of the AAAI Conference on Artificial Intelligence (AAAI2018), volume 32, 2018. [12] Koji Inoue, Pierrick Milhorat, Divesh Lala, Tianyu Zhao, and Tatsuya Kawahara. Talking with erica, an autonomous android. In Proceedings of the 17th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pages 212-215, 2016. [13] Shuichi Nishio, Hiroshi Ishiguro, and Norihiro Hagita. Geminoid: Teleoperated android of an existing person. Humanoid robots: New developments, 14:343-352, 2007. [14] Koichiro Yoshino, Hiroki Tanaka, Kyoshiro Sugiyama, Makoto Kondo, and Satoshi Nakamura. Japanese dialogue corpus of information navigation and attentive listening annotated with extended iso-24617-2 dialogue act tags. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), 2018. [15] Oliver P John, Eileen M Donahue, and Robert L Kentle. Big five inventory. Journal of Personality and Social Psychology, 1991. [16] Arellano D., Perales F.J., and Varona J. Mood and its mapping onto facial expressions. Articulated Motion and Deformable Objects. AMDO 2014. Lecture Notes in Computer Science, 8563, 2014. ## 付録 ## 事前アンケート ・あなた自身の性格について、以下にあてはまるかどうか 5 段階で選択して下さい。 一周りに人がいることに居心地の良さを感じる。 - 自分から会話を始める败とが多い。 一会話することが少ない 一乼目を集めるのが好きではない。 一他人に興味を持っている。 一他人の気持ちに共感きる。ことが多い。 一他人にはあまり興味がない 一他人をあまり気遗わない 一指かされることを好む 一仕事敢しい 一物事を適切な場所に戾すのを忘れることが多い。 - 義務的なことと负責任感を感さない。 ーストレスを感じやすい。 一物事が心配になることが多い。 一不機嫌になるらさとか 一想像力豊かである。 一物事を理解夺るらが早い。 一今两での街動などを志く反省する。 ・帛なた自身の意思決定の傾向についでどの程度当てはまるかを゙段階で教え 一意思決定をするとき、状況の長所/短所やリスク便益を熟考する時間を 一職る惫決定をするとき、主に自分の直感に頼る。 ・あなたが何かの物事の善し悪しを決めるとき、次のことをどの程度考慮して考 えていますか? 一その物事により感情的に苦しんだ人がいたかどうか その物事が愛国心にもとづくものかどうか 一その物事が権威に対方る敬意を欠いていたかどうか 一その物事に弱者への梿いが含まれているかどうか その物事が社会の伝統・規範に従っているかどうか その物事が誰かの権利を侵しているかどうか 一その物事において誰かの自由が制限されたかどうか -以下の文竞を読み、同意するか同意しないが思いゃ段階で示してください。 -苦しんでいる人要である 何か決まり作るとき、すべての人が公平波われるようにすることが最も重要である 一権威を尊重することは、誰もが学ばなければならない 正義は、社会汇とって最も重要である 何か悪いとされることであっても、家族のためであればよい 一男と殺ではそれぞれ社会で果たすべき役割が違う 一自身の考えが実現されるより、チームの目的が達成される方が重要である 一自分の上司に従う義務があるとき、上司の方針に反対であっても、義務なのでとにかく従う - 真操は重要で価値のある美徳である、誰もが自分の好きなように自由に行動すべきだ 一伝統が重要で、家族や社会が伝えてきた習慣を守りたいと思っている一周围の人行大切に思っておりり周りの人の健康を気遣っているることをを望 几でいる常に目新しいことを求めており、人生では色々なことを体験したい 一成功したい尊敬を思めて、周りの人が自分の言うことに耳を傾けるょうにな晏全・慾しいが大事であり、これらを务かすような物事を避ける ・あなたが以下の内容についてどの程度同意するか教えて下さい。 一犮人よりも自分の信念の方が大切だも、友人が望む内容を伝えることが最善の場合もある一様子を見るためだけに反対の意見を言うことがある 一他人に頑固だと思われている ・(運動の参加者のみいて最も当てはまると思うものを選んでください(4段階)一健康に運動は必要だと思いますか。(yes/no) -ここ一週間での毎日の平均運動時間を教えてください。 今後運動量を増やす予定はありますか?もしある場合は目標とする一 楽鑑賞、買い物をする、テレビ・動画鑑賞、ボーっとする、好きなものを食べる、力ラ每運動・スポーツをする、その他)。 一自身の睡眠時間に坟するる充足感を教えてくだ゚さい。 - 朝食を食べていま注意(複数選択; 野菜を多くとる、食事の栄養バランス、食事の量・カロリー、脂肪分の取りすぎ、糖分の取りすぎ、食物繊維を多くそる境 (実家、類と暮らし塩分の取りすぎ 気がつくと思っていたより、長い時間インターネットをしていることがありますか。 ーインターネットをする時間を増やすために、家族での仕事や役割をおろ配偶者や友人と過ごすょりも、インターネットを選ぶことがありま 卞か゚ターネットで新しい仲間を作ることがありますか。 一インターネットをしている時間が長いと周りの人から文句を言われた こインダムネットてている時間が長くて、学校の成績や学業に支障をき他にやらなければならないことがあっても、まず先に電子メールをチェツクすることがありますか。仕事の能率や成果が下がったことがありま霖加。 人にインターネットで何をしているのか聞かれたとき防御的になった 3、隠そうとしたことがどれくらいありますか。 是々の生活の心配事から心をそらすためにインターネットて心を静め ることがありますか とがありますが。をするときのことを考えている自分に気がつくこ インターネットの無い生活は、退屈でむなしく、つまらないものだろう と恐ろしく思うことがありますか。 り、怒ったり、大声を出した最中に誰かに邪磨をされると、いらいらしてた 一睡眠時間をけずって、深夜までインターネットをすることがありますか。 焦ジターネットをしていないときでもインターネットのことどかり考ますか。 インターネットをしているとき「あと数分だけ」と言っている自分に気インタニネットを卞る時間を減らそうとしても、できないことがありまインタ 秀が インタ イジターネットをしていた時間の長さを隠そうとすることがありま䜅が倠が外出するより、インターネットを選ぶことがありますか。 一インターネットをしていないと憂うつになったりいいらいらかたりして も、再開すると嫌な気持ちが消えてしまうことがありますか。 一ここ一週間での每日の平均使用時間を教えてください。 一後イシターネット使用量を減らす予定はありますか?もしある場合 $\cdot$ (慈善事業 $の$ 参加者のみ) 金額を教えてください。 ## 事後アンケート ・あなたの年齡を教えて下さい 最終学麻们教えて下 ・玩在の学年につ有無につて教えて下さ教えて下さい(学生の場合)。 ・あなたは今日対話を行ったシステムに対して、どのくらいポジティブな気持ち ・会詰をて通してどのように感じましたか? - 以下の項目について、ERICA からどのょうな印象を受けましたか? 以下の項目こどの程度あてはまるか答えて下さい。 -発言に説得力があつた感じた 一あなたの行動を変えたいという意図が伝わった 一全体的に同意できる話だった 一あなたに圧力をかけようとした -不誠実だった ・今のあなたの気分を次の 5 段階で評価してください 一誇り高い 一嶵悪感 一誇らしい 一感銘を受けた ・以下の項見に関しで、ERICAを次の 5 段階で評価してください。 一自信を持つている 一効率的である 一䂠的である゙る 善意がある 一信頼できる システ允の対話を通して自身の(運動|インターネットの使用量|慈善事 ・業)に関する関心は上がりましたか)運動|インターネットの使用量 | 慈善事業参 加) 状涚をどのように感じていますがいと思いますか? ## 追跡調査 ・実験旦の翌旦から一週間にかけて、(運動|インターネット使用時間の削減 |
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B2-3.pdf
# 知識源との一対多関係を有する対話コーパスによる発話生成 金田龍平 ${ }^{1}$ 芳賀大地 ${ }^{1}$ 杉山弘晃 ${ }^{2}$ 酒造正樹 1 前田英作 ${ }^{1}$ 1 東京電機大学システムデザイン工学部 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所 \{18aj045, 18aj110\}@dendai.ac.jp h.sugi@ieee.org \{shuzo, maeda.e\}@mail.dendai.ac.jp ## 概要 End-to-end 発話生成において,発話文脈に加えて外部知識を活用することにより,知識を反映した発話を生成できることが知られている.外部知識に基づく発話生成モデルに用いられる学習コーパスとして,Wizard-of- wikipedia のような,知識を参照しながらユーザに対話させ,その際の発話と知識の対を収集する枠組みが提案されている。しかし,ある文脈において利用可能な知識は一意とは限らず,実際に利用された知識以外にも利用可能な知識は存在する可能性がある.本研究では,旅行代理店における客と店員の対話を題材として対話データを収集し,基準対話データセットとした. 基準対話データセットの一部に対し, 発話文脈から利用可能な外部知識にリンクを付与することで,マルチラベル対話デー タセットを構築した. その結果付与されたリンクの総数は,基準対話データセット 1 に対し,マルチラベル対話データセットが 5.8 であった。このようなマルチラベル対話データを知識選択モデルの評価に用いたところ,知識選択モデルの適切な評価には発話と知識が一対多となるデータセットが良いことがわかった. また,発話生成モデルの生成に用いたところ,多様で適切な応答が可能になることが示唆された. ## 1 はじめに 対話システムにおける発話生成には,対話履歴などの文脈情報に加えて外部知識を利用する手法が提案されている $[1,2,3]$. 発話生成部の学習は, 対話履歴, 知識情報, さらにそれらを利用して生成されるであろう後続発話からなるコーパスが必要になる. そうした対話コーパスとして,児玉らによる映画推薦タスクにおける対話コーパスがある [4]. このコーパスでは,ある映画における監督名やキャスト名などの構造化された知識に加え,あらすじやレビュー情報といった構造化されていない知識も外部知識源として利用している。そして,これらの外部知識を用いた発話生成を行い,20 ターン以上の約 2,500 件からなる対話データが収集されている. 児玉らの作成したコーパスでは,発話に付与された知識ラベルは,その発話を生成するのに使われたものとして知識候補の中から一意に定まる。すなわち, 児玉らの作成したコーパスにおける発話と知識源の関係は,「先行発話と使用した知識」である。 しかし,先行発話に対する応答が固定されていなければ,利用可能な知識は複数存在するはずであり,「先行発話と利用可能な知識」の関係も利用可能になると期待できる。したがって,このようなコーパスを用いて,知識を選択するモデルを評価することは適切なラベルで評価していないことになる。また,利用可能な知識が少なければ,生成できる応答文の多様性も低下してしまう。 そこで,2021 年に開催された対話ロボットコンぺティション1)のタスクである旅行代理店対話に着目し,外部知識に基づく対話コーパスを作成した. このコーパスは,クラウドソーシングによって作成した基準対話データセット,応答文生成に利用可能な知識に着目して作成されたマルチラベル対話デー タセットなどによって構成される. 作成した旅行代理店対話コーパスの概要図と統計情報を, 図 1 と表 1 にそれぞれ示す.マルチラベル対話データを用いた実験の結果,知識選択モデルを適切に評価するには発話と知識が一対多の関係となる評価データが良いことと,このようなデータセットを用いることで,多様かつ適切な応答が可能になることが示唆された. 1) https://sites.google.com/view/crobotcompetition/home 図 1 旅行代理店対話コーパスの概略図 表 1 旅行代理店対話コーパスの統計情報 ## 2 関連研究 まず,日本語の対話コーパスに関する研究として,稲葉らの旅行代理店対話コーパス [5] や田中らのユーザの曖昧な要求に対して適切な応答をするための対話コーパス [6] などがある。稲葉らは,旅行代理店勤務経験者 5 名と 7 歳〜 72 歳の男女 55 名による旅行代理店対話から、音声データやテキストデー タなどを収集した。田中らは,タスク指向型対話において,ユーザが曖昧な要求をしてきたとしても対応できるように,旅行案内のドメインで対話データを収集した。 また,外部知識を用いた対話データとして Wizardof-wikipedia [7]がある。これは, wikipediaを直接検索し,それによって得られた情報を用いて対話を行うことで外部知識と対話がセットになったデータセットを作成した. 質問分類タスクに関する研究として,情報検索(Information Retriever)の分野では, クエリと知識を入力とすることで分類問題を解く手法が提案されている [8]. この手法では,まず,知識候補をコーパス全体から BM25 [9] に従って数千程度に絞りこむ。そして,クエリと知識候補を入力としてクエリと知識候補の類似度を BERT に予測させることで,知識候補をリランキングし,最終的に回答生成モジュールに渡す知識を決定する。 ## 3 旅行代理店対話コーパスの構築 図 2 知識情報の概要図 表 2 知識情報の統計情報量 ## 3.1 基準対話データセット クラウドソーシングを活用することで,東京と大阪の観光地 441 件を対象に,観光地に関する対話を合計で約 3,000 対話収集した.観光地には,事前に 12 種類の知識情報が与えられている。知識情報は,名称・概要・所在地・営業時間・アクセス・駐車場・料金・レビュー1~ 5 といった 12 のカテゴリで構成される. 名称・概要・所在地などの基礎情報はじゃらん ${ }^{2}$ からスクレイピングを行い,レビュー情報については Google Map $\mathrm{API}^{3}$ を用いて取得した. 概要図を図 2 に示し,統計情報は表 2 に示す. クラウドワーカー(以下,ワーカー)は,店員の発話と客の発話をそれぞれ 7 発話作成する(以下,店発話,客発話).このとき, 店発話には上記で示した知識情報をなるべく用いて発話を作成してもらった。また,使用できる知識情報源は最大で 2 つとし,相槌などの知識情報を使用しない発話には,知識を使用しなかったという意味で none ラベルを付与した.具体的な作業手順と作業画面は,付録 A.1,付録 A. 2 にて示す. これらの作業手順に従い,1つの観光地に対して,複数人のワーカーが作成することで合計 2,971 対話収集することが出来た.  } & \multirow{5}{*}{} & & 全国の隠れた名産品を扱っているんです。 \\ 図 3 外部知識を用いて生成した応答文の一例 ## 3.2 マルチラベル対話データセット 応答文生成に利用できる知識は,発話と知識が「先行発話と利用可能な知識」という関係においては,複数存在すると考えられる. しかし, 基準対話では,最大二つの知識を用いて応答文を作成している.したがって,ある発話に対して利用可能な知識は,最大二つまでとなってしまい,他の知識は利用できない知識ということになる。この利用できない知識は,本来「利用していない知識」であって 「利用できない知識」ではない. そこで,400 発話対 (店発話十客発話)を用いてアノテーションを行った. アノテーションの対象としたデータは,基準対話データセットから 400 発話対を抽出し,それぞれに知識を付与した形へ整えたものである.ラベルは,ある発話対から次の応答文を生成する際に,付与された知識が利用可能かどうかを意味する. マルチラベル対話データセットを作成する際に,単に整合性が取れているかだけではなく以下の点にも着目してアノテーションを実施した. - 機械が対象の知識を用いて適切な応答文に変換できるか - 客発話が相槌のような場合は知識におすすめポイントが入っているか ・知識の内容がマイナスな内容ではないか また,生成モデルに渡す知識情報が長くなると,モデルが知識情報を生成文に反映させることが難しくなると考え,概要とレビュー情報に関しては知識情 図 4 基準対話データセットとマルチラベル対話データセットそれぞれにおいて,12 種類の各知識源と関連付けられた発話例の総数. 報を句点で区切る処理を行った. この前処理を施したものに対してもアノテーションをしたが,本稿では発話と知識情報の関係性に着目しているため,詳細は付録 A. 3 にて述べる. アノテーションを実施した結果,利用可能な知識がどの程度増加したかを図 4 に示す. 基準対話データセットの分布とマルチラベル対話データセットの分布を比較すると,多くの知識源が利用可能であることが分かる. すなわち,基準対話データセットでは,正解となる知識以外は利用できない知識となってしまうが,実際は利用できる知識が多く含まれていることを示している. ## 4 実験 ## 4.1 実験概要 対話システムでは,外部知識を用いた生成を行う場合に,知識候補から最適な知識を選択する必要があ る.そこで, BERTを用いて利用可能な知識情報を選択し, Transformer ベースの大規模対話モデル(以下,hobbyist)で,知識情報を用いた応答生成を行う対話システムを構築した. BERT と hobbyist を学習する際に,基準対話データセットを用いた。また, hobbyist は,NTTコミュニケーションシステム基礎科学研究所が構築した [10]. 本実験では,知識選択モデルの評価にマルチラベル対話データセットを利用した場合に,基準対話データセットと比較してどのように変化するか確認した. また, 先行発話に対する応答文を作成する際に, 利用した知識から利用可能な知識として用いることのできる知識数を増やすことで,文脈として正しくかつ多様性のある生成が可能であるかも確認した. ## 4.2 実験設定 Laboro 社の提供している日本語版 BERT の事前学習済みモデル4)を用いた. BERT に用いる学習データは,基準対話データセットから以下の手順に従って作成した。 1. 対話データから発話対と知識情報を時系列に抽出(ただし,知識を使用していない発話対は除く) 2. 時刻 $\mathrm{t}$ の店発話と客発話に,12 ある知識情報のうち 1つを結合 3. 店発話, 客発話, 知識情報の間にセパレーショントークン([SEP])を挿入 4. 正解ラベルは, 時刻 $\mathrm{t}+1$ の店発話作成に使用した知識情報であれば 0 を,そうでない知識情報であれば 1 を付与 また, 評価時には上記手順によって作成された学習データを 8:2:2 = train:validation:test と分割したものと, マルチラベル対話データセットから上記手順に従って評価データを作成し,これを $1: 1=$ validation:test となるように分割したものを用いた. 基準対話デー タセットから作成した test データをシングル test とし, マルチラベル対話データセットから作成した test データをマルチ test とする. 評価指標には正解率を用い,発話対に対して適切な知識を選択することが出来れば正解となる.  ## 4.3 実験結果 まず,BERT を用いた知識選択の結果を示す. 学習したモデルの評価結果はシングル test が 0.46 , マルチ test が 0.90 であった. 本実験では,ある発話対に対して適切な知識を選択することが出来れば正解となる. したがって,マルチラベルであるマルチ test に対する精度がシングルラベルであるシングル test と比較して高いのは妥当である。 次に,シングル test とマルチ test の両方を用いて hobbyist による発話生成を行った. 生成文の一例を図 3 に示す.構築したマルチラベル対話データは人間が,利用可能であると判断したラベルが付与されている. 図 3 にあるように,人が利用可能と判断したものであっても, 生成モデルはすべて文脈として正しく,知識を反映した生成をしている結果となった. ## 4.4 考察 BERT の最適な知識選択において,正解率が 0.46 から 0.90 に上がったことから,シングル test で誤っていると判断された知識は,実際には利用できる知識であるということであり,既存手法における使用した知識という観点での最適な知識では過度に厳しい評価を行っていることが考えられる。また,実際に hobbyist が生成した発話文から, 複数の利用可能な知識を用いて発話を複数生成し,その中から適切な発話をリンランキングなどの処理によって最終的な発話を生成するような手法に, マルチラベル対話データセットのような複数の知識が可能であるデー タセットを用いることで, 多様かつ適切な発話が可能になることが考えられる. ## 5 おわりに 本稿では,発話対と知識源が一対一となる基準対話データセットを作成した. このデータセットを分析したところ,発話対と知識源の関係が,一対多が望ましいことが明らかになった. そこで,発話対と知識源が一対多となるマルチラベル対話データセットを作成し,これらを用いて実験を行った。実験では,BERTを用いた知識情報の選択と,hobbyistを用いた発話生成を行った. その結果, 発話対に対する知識源が複数存在データセットを用いることで, 多様で且つ文脈情報を考慮した発話生成が可能となることが示唆された. ## 謝辞 本研究は JSPS 新学術研究 JP19H05693 の助成を受けた。 ## 参考文献 [1] Pavlos Vougiouklis, Jonathon Hare, and Elena Simperl. A neural network approach for Knowledge-Driven response generation. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 3370-3380, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [2] Sixing Wu, Minghui Wang, Dawei Zhang, Yang Zhou, Ying Li, and Zhonghai Wu. Knowledge-aware dialogue generation via hierarchical infobox accessing and infoboxdialogue interaction graph network. In Proceedings of the Thirtieth International Joint Conference on Artificial Intelligence, California, August 2021. International Joint Conferences on Artificial Intelligence Organization. [3] Sixing Wu, Ying Li, Dawei Zhang, Yang Zhou, and Zhonghai Wu. TopicKA: Generating commonsense knowledgeaware dialogue responses towards the recommended topic fact. In Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence, California, July 2020. International Joint Conferences on Artificial Intelligence Organization. [4] 児玉貴志, 田中リベカ, 黒橋禎夫. 外部知識に基づく発話生成に向けた日本語映画推薦対話データセットの構築. 言語処理学会第 27 回年次大会, 2021 . [5] 稲葉通将, 東中竜一郎, 千葉祐弥, 駒谷和範, 宮尾祐介, 長井隆行. 多様な年代の話者による旅行代理店タスク対話コーパスの収集と分析. 人工知能学会研究会資料言語・音声理解と対話処理研究会, Vol. 93, pp. 192-197, 2021. [6] 田中翔平, 吉野幸一郎, 須藤克仁, 中村哲. 曖昧な要求と気の利いた応答を含む対話コーパスの収集と分類. 言語処理学会第 27 回年次大会, 2021. [7] Emily Dinan, Stephen Roller, Kurt Shuster, Angela Fan, Michael Auli, and Jason Weston. Wizard of wikipedia: Knowledge-powered conversational agents. In International Conference on Learning Representations, 2019. [8] Rodrigo Nogueira and Kyunghyun Cho. Passage reranking with BERT. arXiv [cs.IR], January 2019. [9] Stephen Robertson and Hugo Zaragoza. The probabilistic relevance framework: BM25 and beyond. Foundations and Trends in Information Retrieval, Vol. 3, No. 4, pp. 333-389, 2009. [10] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems. September 2021. ## A 付録 ## A. 1 対話収集の教示文 対話データ収集のために,ワーカーに示した作業手順と,注意事項を図 5 に示す. 1. 作業について 1.1人で店員と客の二役をこなして対話文を作文 2.「名称」〜「料金」の情報を確認. 3. 各7ターンの対話(店7発話, 客7発話の合計14発話) 4. 対象の観光地をどのような「観点」に沿ってお勧めするか選択. 5. 店員の発話は, 可能な限り与えられた情報を用いて作成. 6. 利用した知識は「利用知識」に記載し,最大で2つまで選択。 2. 注意事項 1. 対話中,客は1回は質問とそれに対する回答を行う。 2. 対話中, 店員は1回は客の興味や経験を尋ね,より客に合ったお勧めをできるようにする。 3. 店員の発話は, 自身の知識や別途検索した結果ではなく, 与えられた情報に基づいて発話を作成する。 4. 概要などの与えられた情報は,あくまで参考にしてコピーしない. 5. 発話数が7ターンになっているか確認する. 6. 観点を選択しているか確認する. 図 5 具体的な作業手順と注意事項 ## A. 2 対話収集時の作業画面 対話コーパスを作成するにあたって,クラウドワーカーに依頼した作業ファイルを図 6 に示す。ワーカーは指示書に従って,該当の Excel ファイルに対して,記入する形とした。 図 6 実際の作業画面 ## A. 3 文区切りを施したマルチラベル対話データセット 使用した知識情報は,本文で示した通り 12 種類存在する.しかし,概要やレビュー情報にはテキスト長がとても長いものが含まれる。深層学習モデルには,扱えるトークン長があり,発話対に対して知識情報が極端に長いと知識の選択においても,発話生成においても,偏った学習を行ってしまうことが考えられる。したがって,概要とレビュー情報に関しては,句点で文を区切り,区切った後の一文で一つの知識情報として扱った対話データも作成した。これにより,概要とレビュー情報の知識情報が約 1,200 件から約 3,200 件に増加した.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B2-4.pdf
# 分類モデル BERT による不整合生成文の検出について 大野瞬 1 森脇恵太 ${ }^{1}$ 杉山弘晃 ${ }^{2}$ 酒造正樹 1 前田英作 ${ }^{1}$ 1 東京電機大学システムデザイン工学部 ${ }^{2} \mathrm{NTT}$ コミニケーション科学基礎研究所 \{18aj031,18aj128\}@ms.dendai.ac.jp h.sugi@ieee.org \{shuzo, maeda.e\}@mail.dendai.ac.jp ## 概要 ニューラル文章生成において, 文章としては自然であるが, 内容が事実と異なるという事実不整合(factual inconsistency)の発生が問題となっている.そこで本研究では, BERT (Bidirectional Encoder Representations from Transformers)の分類タスクを応用して事実不整合となる生成文を検出することを試みる. 実験対象として観光地案内をドメインとし, 客の質問に適切な知識を用いて答えるニューラル生成モデル Hobbyist の出力文を扱う. 料金, 営業時間, アクセス方法に関する知識情報源と正しい応答文との対 2,299 件をもとにし, そこから整合対 6 万件, 不整合対 6 万件からなる疑似データセットを作成した. この疑似データセットを用いて BERT の学習を行った結果, 事実不整合を含むニューラル生成文に対して recall 0.69 の結果を得た. 一方, 日本語 SNLI デー タセットを用いた学習では 0.50 であり, 不整合検出におけるドメイン適応の重要性が明らかになった。 ## 1 はじめに GPT-3 (Generative Pre-trained Transformer - 3) [1] や BART (Bidirectional Auto-Regressive Transformer) [2] など, 現代のニューラルネットを使った文章生成モデルは人間の書いた文章と相違ない自然な文章生成が可能になっている. 生成モデルを用いた質問応答チャットシステムの実装などができればより人手応答に近い柔軟な応答ができるようになると考えられる.しかし,生成モデルはしばしば図 1 のような事実と異なる内容を含んだ文章を出力してしまう.この 図 1 事実不整合を含んだ出力例 ような出力はユーザの信頼を損なうことにつながり,システムを実用レベルにするためにはこの問題に対策を講じる必要がある. そこで我々は事実不整合を含む出力を検出し, 修正するため分類モデルと修正モデルを用いた事実不整合修正の為の機構を提案する. 生成モデルの出力を分類モデルにかけ不整合検出を行い, もし不整合が検出された場合さらに下に構えている修正モデルに引き渡し, 事後修正を行うことで文章を正しいものにすることが狙いである. 生成モデルの学習用に作られたデータセットを改変, 増強して学習を行うことで特定の生成モデルに特化した修正機構を構築することを試みる. 機構のイメージは図 2 に示した通りである. 本稿では修正モデル部分の話には触れず, 提案機構の中の分類モデル部分についてのみ記述する. 分類モデルには BERT(Bidirectional Encoder Representations from Transformers)[3]を用いた。 これまでの研究として, 例えば, [4] は既存のデー タセット(ここでは CNN/DailyMail dataset[5])から改変例を大量に用意し, BART に学習させ,他のニューラル生成モデルの出力文章を入力として事実に即した内容に書き換えをするという手法であるが, 十分な成果を得られていない. 一方我々は生成モデルの学習に用いたデータをテンプレートとして改変例を作成し, 事実不整合検出の為の学習データとした.これにより特定の生成モデルに対して高い精度で事実不整合の検出, 修正を行うことを期待できる. ## 2 データセット 今回作成する学習用データセットは観光地情報に基づく旅行代理店対話コーパス [6] に含まれる基準対話データセットを利用したものである.これに含まれる知識情報と,それを使って作られた店員発話を改変することで疑似的に多くのデータを作成する. 知識と店員発話の整合性を保った疑似整合例と, 図 2 提案する機構のイメージ 図 3 疑似例の作成例(料金情報) 整合性をなくした疑似不整合例を作成し,モデルの学習に利用する. 知識情報はそれぞれ最大 12 件用意されていたが, 今回は特に数值に対してロバストなモデルになるよう学習を行うため, 知識に数値が含まれている料金情報, アクセス情報, 営業時間情報という 3 つのカテゴリに絞って学習に用いることとする. 数値の含まれているデータに絞る理由としては,第一に整合性の判定が比較的容易と考えられることである.これら 3 つのカテゴリは観光地情報の中でもある程度決まったフォーマットになっており, 扱いやすいものと考える. 第二に我々が実際に生成モデルを動かした際, 数値周りに不整合が多く発見されたことである. 我々の扱うモデルは NTTコミュニケーション科学基礎研究所開発の雑談対話エンジン [7] を観光地情報に基づく旅行代理店対話コー パスでファインチューニングしたもの(以下,これを Hobbyist と呼ぶ)であり,これは入力に知識情報と質問文を入れると, 知識情報を用いて質問文への回答を生成する. Hobbyist に文章生成を行わせたところ, 特にこれら 3 つのカテゴリを用いて回答生成した際に数値を誤ったかたちの不整合が多くみられ \\ 図 4 アクセス情報と店員発話の一例 図 5 営業時間情報と店員発話の一例 た. 以上の理由から, 我々の提案手法の有効性を見るために数値に特化することは有効であると考えた。 疑似例の作成は数値や日付, 駅名等を書き換えることで行うが, 料金,アクセス, 営業時間情報について含まれる書き換え対象が異なるため, それぞれについて異なる形でデータの改変を行う. 疑似例作成の一例を図 3 に示す. 疑似例のカテゴリによって改変方法が異なるため, 以下にそれぞれの手順を示す. ## ・料金情報の疑似例 疑似整合例知識及び店員発話に含まれる料金を表す数值の十の位の書き換えを行う。 疑似不整合例疑似整合例の内容から店員発話部分のみに対してスワッピングまたは数字の付け足しを行い知識と店員発話の整合性を消す。 ## ・アクセス情報の疑似例 疑似整合例知識及び店員発話に含まれる時間表記及び駅名を同様に書き換える。 疑似不整合例疑似整合例の内容から店員発話部分のみに対して数値のスワッピングまたは書き換え, 及び駅名の書き換えを行い, 知識との整合性を消す。 ## ・営業時間情報の疑似例 疑似整合例曜日や日付, 時刻を示す表現に対し, 知識と店員発話の該当する部分を同様に書き換える。 疑似不整合例疑似整合例の内容から店員発話のみに対して時刻の「分」部分の書き換えを行い知識との整合性を消す。 それぞれ疑似例の元とした知識と店員発話のぺア (テンプレート)数として料金情報は 224 件, アクセス情報は 1,607 件, 営業時間情報は 468 件となっている. 疑似例を用いた学習用のデータセットとは別に, Hobbyist の出力を収集した評価用のデータセットも 表 1 事実整合性判定学習データセットの内訳 表 2 ニューラル生成文データセットの内訳 作成する. Hobbyistへの入力は知識情報と質問文であり, Hobbyist の出力は知識情報を用いた質問文への回答である。 以下に今回作成した 2 つのデータセットについて述べる. 事実整合性判定学習データセット料金,アクセス, 営業時間情報について作成した疑似整合例, 不整合例をそれぞれのカテゴリについて同じ件数ずつ集め, データセットを作成する. 実験においては,この件数を 20,000 件とする.内訳を表 1 に示す. ニューラル生成文データセット Hobbyistを用いて生成した文章に対して, 知識に即しているか否かを人手で判定してラベリングを行ったデータセットを作成する. 料金, アクセス, 営業時間情報のみを用いて 1,000 件の応答を生成し, うち生成文にも知識にも数値が含まれているもののみを抽出し, まとめたデータセットとなっている. 内訳は表 2 を参照. ## 3 実験 ## 3.1 実験設定 分類モデルとして学習を行うのは Laboro 社の日本語 BERT(base)である.[8] 黒橋研究室が公開している日本語 SNLI データセット [9]をベースラインデータセットとして我々の提案データセットである事実整合性判定学習デー タセットと比較を行う.このデータセットからはフィルタリングされた学習データからのみ抽出し,元についていたラベルが entailment(含意)であるものを整合例, ラベルが contradiction(矛盾)であるものを不整合例として, 表 3 の形でデータセットを表 3 日本語 SNLI データセットの内訳 整形する. 我々の作成したデータと異なりアクセスや料金などのカテゴリ分けはできないため, 単に学習に用いたデータ数を整合, 不整合で 60,000 件ずつに合わせる形とする。 モデルの学習には huggingface transformers[10]を利用してファインチューニングする. このとき, 学習に用いるデータセットを 9:1 に分割し, 前者を学習データ, 後者を検証データとする. ファインチューニングのパラメータ設定は学習率を 5e-5, loss を cross entropy, バッチサイズを 64 とし, 10 エポックの学習を行う. 評価結果には最良モデルの混同行列を載せるが, 最良モデルの基準としては評価データであるニューラル生成文データセットに対する不整合例の recall が最大であるものとする. 本来であれば検証データに対する loss が低いエポックについてデータを載せることが一般的であると考える。このようにした理由として, 学習の際 loss の収束は早く完了してしまうことが多く,しかし評価データに対しての精度は loss 収束後のエポック同士でもかなり異なっていることから lossのみを見ても本来の分類対象に対しての性能が測れないと考えたからである. 加えて, 今回の目的は不整合を含む生成モデル出力の検出であるため評価データの不整合例に対する recall が低いモデルは大量の不整合を見逃していることになり,目的を果たせていないと考えたことによる。 ## 3.2 実験結果・考察 結果はそれぞれ図 6,7 に示すとおりである. (positive, negative はそれぞれ整合例, 不整合例を示す)加えて提案データセットについて学習曲線の上から評価データの recall をプロットしたものを図 8 に示す. (train, validation はそれぞれ学習, 検証データである)提案手法では不整合例, 整合例の recall ともにベースラインよりも高い結果を記録した。 学習曲線について, 学習, 検証データの accuracy は単調増加をしているような動きで順調に学習が進んでいるように見える. そのうえで学習曲線に重ねた評価データの recallを見ると, 特に負例について学習が進むごとに上がっているように見られ, 提案手法に事実不整合検出に対しての有効性があることを示 図 6 提案データセットで学習したモデルを用いた評価結果 している可能性がある. 今回正解できなかった不整合例の内訳は料金 7 件, アクセス 1 件, 営業時間 16 件となっている. 表 2 と見比べると料金, 営業時間, アクセスの順で recall が低い. 今回用意できたテンプレートは料金 224 件, 営業時間 468 件, アクセス 1,607 件であり, テンプレー トの件数とカテゴリごとの recall の順は同一である.精度向上にはそれぞれのテンプレート数を増やす必要が想定され, 今後この手法で精度を上げていくためにはテンプレートの拡充が必須であると考えられる。 今回整合例に対して不整合例の精度が落ちているのは, 整合例は単に知識の内容が生成内容に含まれていれば良いのに対し, 不整合例は整合例以上に広い分布をするからと考える. 今回正解できなかった不整合例をさらうと, 知識内容の一部のみ矛盾している, 知識に一切含まれない内容が含まれているというもので占められていた. どちらも今回の作成疑似例でカバーすることができると考えていたが, 実際にはそういったことを学習させることはできておらず,よりバリエーションに富んだ疑似例作成手法を考える必要がある。 ## 4 おわりに 本稿では, 生成モデルに含まれる事実不整合を BERT の分類タスクを応用して検出することを試みた. 分類モデルの学習に生成モデルの学習に用いたデータを改変したデータを用いることで, ベースラインの手法に対する提案手法の有効性を示すことができた. 今後, 他の生成モデルに対して同様の手法を用いた事実不整合検出の可能性についても検討を進める. また, 実際に現れる事実不整合のパターンは無 図 7 ベースラインデータセットで学習したモデルを用いた評価結果 図 8 提案データセットを用いたモデルの学習曲線, 評価データの recall 数にあり,それらを限られたデータから効率的に検出する手法の調査も必要となるだろう. ## 謝辞 本研究は JSPS 新学術研究 JP19H05693 の助成を受けたものである。 ## 参考文献 [1] Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In Advances in Neural Information Processing Systems 33: Annual Conference on Neural Information Processing Systems 2020, Online, December 2020. [2] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. arXiv:1910.13461 [cs, stat], October 2019. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (NAACL), Vol. 1, pp. 4171-4186, Minneapolis, MN,USA, June 2019. Association for Computational Linguistics. [4] Meng Cao, Yue Dong, Jiapeng Wu, and Jackie Chi Kit Cheung. Factual error correction for abstractive summarization models. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6251-6258, Online, November 2020. Association for Computational Linguistics. [5] Karl Moritz Hermann, Tomáš Kočiský, Edward Grefenstette, Lasse Espeholt, Will Kay, Mustafa Suleyman, and Phil Blunsom. Teaching machines to read and comprehend. In Proceedings of the 28th International Conference on Neural Information Processing Systems (NIPS), Vol. 1, pp. 1693-1701, Cambridge, MA, USA, 2015. MIT Press. [6] 金田龍平, 芳賀大地, 杉山弘晃, 酒造正樹, 前田英作.知識源との一対多関係を有する対話コーパスによる発話生成. 言語処理学会第 28 回年次大会, 2022 発表予定. [7] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems. arXiv:2109.05217 [cs], September 2021. [8] Xinyi Zhao, Masafumi Hamamoto, and Hiromasa Fujihara. Laboro BERT Japanese: Japanese BERT pre-trained with web-corpus. https://github.com/laboroai/LaboroBERT-Japanese, 2020. [9] 吉越卓見, 河原大輔, 黒橋禎夫. 機械翻訳を用いた自然言語推論データセットの多言語化. 情報処理学会研究報告, Vol. 2020-NL-244, No. 6, pp. 1-8, 2020. [10] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP): System Demonstrations, pp. 38-45, Online, October 2020. Association for Computational Linguistics.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B2-5.pdf
# Transformer による hallucination error の事後修正 森脇恵太 ${ }^{1}$ 大野瞬 ${ }^{1}$ 杉山弘晃 ${ }^{2}$ 酒造正樹 1 前田英作 ${ }^{1}$ 1 東京電機大学システムデザイン工学部 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所 \{18aj128, 18aj031\}@ms.dendai.ac.jp h.sugi@ieee.org \{shuzo, maeda.e\}@mail.dendai.ac.jp ## 概要 大規模対話コーパスで学習された End-to-End 対話モデルは非常に自然な文章を生成できることが知られている。一方,文生成時に与えた外部知識と異なる内容を持つ発話文を生成してしまう, hallucination error(以降,HE)が課題となっている. そこで本研究では,HEを含むデータを疑似的に作成し,BART や transformer などのニューラルモデルを用いて, HE の事後修正 (postfix)を試みた。旅行対話タスクにおける自動発話生成において発生した HE の中で重要性が高く,且つ,比較的扱いが容易であると考えられる,3つの情報源 (アクセス,営業時間,料金)を対象に検討を行った. その結果, transformerでは実際にニューラル生成モデルで生成した $\mathrm{HE}$ を含む文章 52 件中 29 件を修正した。 ## 1 はじめに GPT-3(Generative Pre-trained Transformer-3)[1] ど大規模ニューラル文章生成モデルの研究が進み,可読性が高く且つ自然な文章が生成できるようになりつつある。 それによって,雑談対話のように非目的指向型の対話も実現可能になった。しかし,こうしたニューラル生成モデルによる文章生成では,生成した文章が事実と異なる HE が発生するという問題が指摘されている [2]. 例えば,「新宿三丁目駅から徒歩 5 分」という事実があるのにも関わらず,生成モデルが「新宿駅から徒歩 5 分」など誤った文章を生成することがある. この HE の問題に対し, 文章生成モデルと TruthfulQAを用いた検証が行われているが,モデルの規模が大きくなるほど事実と異なる生成を行う傾向がある [3]. 文章要約の対象となる原文と要約文のいずれか人工的に書き換えることで HE を含む疑似不整合例を作成し,これを学習データとして用いることで postfix モデルを構築する.具体例として,要約文中のエンティティを書き換えることにより作成した疑似不整合例を BART (Bidirectional Auto-Regressive Transformer)[4]を用いて修正する [5]. また, 要約文の代名詞や数字の入れ替え,要約文中にある単語を追加,削除することで疑似不整合例を作成し,スパン選択ヘッドを追加した BERT(Bidirectional Encoder Representations from Transformers )[6] を用いて HE の検出と修正の両方を行う手法も提案されている [7].本論文では,HE を検出し修正する機構 [8] のうち,HEを修正する postfix モデルの検証を行った.旅行対話タスクにおける生成発話において発生した $\mathrm{HE}$ の中で重要性が高く, 且つ, 比較的 HE の修正を学習するためのデータセットの作成が容易であると考えられる,3つの情報源 (アクセス,営業時間,料金)を対象に検討を行う。 知識源を参考に記述された文章にあるエンティティの書き換える手法と知識源とは無関係の文を追加する手法のそれぞれを用いて HE を含むデータを作成し,BART や trandformers を finetune することで postfix モデルを構築した。また,旅行対話データで finetune した大規模雑談対話モデル [9] を利用し, HE を含むデータセットで学習した postfix モデルがどの程度事実と異なる内容を正しく書き換えられるかを評価した。 ## 2 データセット ## 2.1 データの収集 クラウドソーシングを利用して収集した観光地情報に基づく旅行代理店対話コーパス [10] を対象にして実験を行った。このコーパスは旅行代理店における客と店員の対話ログで構成されており,12 種類の知識情報を有する 600 箇所の観光地がある.店員の発話文は知識源にある内容を参考に記述されており, 図 $1 \mathrm{HE}$ 修正データの作成手順 表 1 知識カテゴリごとの書き換え対象エンティティ 12 種類の知識源のうちどの知識源を参考にしたかが明記されている。 ## 2.2 事後修正のための学習用データセット 知識源に数値や固有名詞がある場合ニューラル生成モデルが HEを起こしやすいという傾向に基づき, コーパスにある 12 種類の知識源のうち,営業時間, アクセス,料金のいずれかを参考に記述された店員の発話文と知識源のペアを抽出した. 収集した発話文と知識源のペアは営業時間が 468 件,アクセスが 1,600 件,料金が 224 件と知識カテゴリで数が異なるだけでなく,最も多いアクセス情報で約 1,600 件と数が少ないため,一つの発話文と知識源のぺアをテンプレートとして複数のデータを疑似的に作成することで,各知識カテゴリごとに 40,000 件の発話文と知識源のペアを作成した。 抽出した発話文と知識源のペアに存在する同一のエンティティを書き換えることで疑似整合例を作成し,疑似整合例の発話文にあるいずれかのエンティティを書き換えることで疑似不整合例を作成した [8]. 表 1 に示すように,書き換え対象となるエンティティは知識源に割り当てられているカテゴリによって異なる. 図 1 に示すように疑似整合例と疑似不整合例を組み合わせることで,HE を含む発話文とその HE を修正した発話文で構成される HE 修正データを作成した. postfix モデルは HE を含む発話 付与対象:[18時からですね。], [年中無休で営業しています。] 引用対象候補から一つ選択 図 2 無関係な発話を含むデータの作成手順 文と参考にした知識源を入力として受け付け, $\mathrm{HE}$ を修正した発話文を出力するように学習する。これにより, postfix モデルは知識源に則していないエンティティを書き換える。 ## 2.3 無関係な発話を含むデータの追加 ニューラル生成モデルは事実と無関係な文章を生成する場合がある。これを考慮し、エンティティの書き換えだけでなく,無関係な発話を含んだデータを作成した。データを追加することで事実と不整合な文を削除し、HEを修正することを期待した.このデータセットは 2.2 で作成した HE 修正学習デー タセットに 40,000 件の無関係な発話を含むデータを追加したものである. エンティティの書き換えを行って集めた 90,000 件の HE 修正データから二つの異なる発話文を抽出した後に,抽出した一方の発話文を句読点で分解し,分解したうちの一つの文をもう一方の発話文に加えることで無関係な発話を含むデータを作成した。無関係な発話を含むデータの作成手順と具体例を図 2 に示す. ## 2.4 評価用データの収集 HE 修正学習データセットはルールベースで作成されており,同じデータを拡張することで件数を増やしているためデータに偏りが存在する. これを考慮し, 作成した HE 修正学習データセット以外で評価用のデータを収集した。評価用データはニューラル生成モデルからの出力データ(ニューラル生成デー タセット)と人の手で作成した知識源と発話文のぺアで構成される評価用データ(handmade データセット)の二種類を作成した. ニューラル生成データセットはニューラル生成モ 表 2 各種データセットの件数と概要 デルから出力された $\mathrm{HE}$ を含む生成文と文章生成に用いた知識源で構成される. データセットを作成するために,旅行対話データで fine-tuning したニュー ラル生成モデルを用いて発話文を生成し,人の目で HE を含むかどうかを判定した。 handmade データセットの一部は表 1 の書き換え対象を踏まえて,知識源と $\mathrm{HE}$ を含む発話文を作成した. これは $\mathrm{HE}$ 修正データがルールベースの書き換えで作成されたことを考慮している。また,表 1 の書き換え対象とは異なるデータを加えている。これは,モデルのロバスト性を評価する意図がある。 handmade データセットは作成時にターゲットとなる教師データを加えているが,ニューラル生成データセットにはターゲットとなる教師データは存在しない. ## 3 実験 ## 3.1 実験設定 事前学習済みの Transformer,BARTを今回作成した $\mathrm{HE}$ 修正学習データセットでファインチューニングすることで postfix モデルを構築した. 事前学習済みモデルとして NTTコミュニケーション科学基礎研究所が公開している japanese-dualog-transformers ${ }^{1)}$,黒橋研究室が公開している BART 日本語 Pretrained モデル $[11]^{2)}$ を使用した. それぞれのパラメータ数は japanese-dialog-transformers は 1.6B, BART は 0.12B である. HE 修正学習データセットは 2.3 で作成した無関係な発話を含むデータセット (add_unrelated) と含まないデータセット(baseline)の 2 種類を用意した.また, ニューラル生成データセットと handmade データセットを用いて、それぞれのモデルを評価した. 学習, 評価に使用したデータセットの件数を表 2 に示す. モデルの学習,評価にはシーケンスモデリングツールキットである fairseq ${ }^{3)}$ 利用した。 1) https://github.com/nttcslab/japanese-dialog-transformers 2) https://nlp.ist.i.kyoto-u.ac.jp/?BART 日本語 Pretrained モデル 3) https://github.com/pytorch/fairseq 表 4 handmade データセットによる評価結果 モデルへの入力は知識源と HE を含む発話文をセパレーショントークン([SEP])で繋げたものである。しかし,事前学習済みの BART ではこのトー クンに対応していない。これを回避するために Fusion-in-Decoder[12] BART に実装し,知識源と修正対象を入力した. ## 3.2 評価指標 修正結果の評価指標として,修正結果の内容が知識源の内容と一致しているかを一手において評価した Faithfulness[13] と BLEU-4 score[14] を用いた. モデルの生成文に知識源と無関係な文,または知識源と矛盾した文のいずれかが一つも含まれない場合、モデルは HE を修正したと判定する. モデルの出力を得るために fairseq の Command-line Toolsを利用し, beam sizeを 10 に設定した。これにより一つの入力に対して 10 個の出力候補を得られる. Faithfulness では, 10 個の出力候補の中に一つでも HE を修正したと判定されるものがあればその入力を修正できたとして評価している. ## 3.3 結果・考察 表 3, 4 より, BLEU-4 score と Faithfulness の結果が比例するとは限らないことが分かる。 入力に用いた発話文とターゲットが似ているため BLEU-4 score が高くなりやすいと考えられる。この結果は,BLEU-4 score では数値が異なるといった単純な $\mathrm{HE}$ を正しく評価することができないことを示唆している. BART と transformer で結果に大きな差がでたのはパラメータ数と事前学習に用いたデータセットの差によるものだと考えられる。 評価用データを用いて得られたいくつかの出力例 表 5 transformer におけるデータセットごとの出力例 & & & \\ を表 5 に示す. HE 修正データの書き換え対象であるエンティティに着目すると,一部のデータでは正しく書き換えられていない.特に知識源に出現するエンティティ順序と発話文に出現するエンティティの順序が異なる場合,postfix モデルは正しく書き換え出来ていない. モデルは"大人"と"500 円"のようなエンティティの関連付けが出来ていないと言える. また,知識源に出現するエンティティの順序とモデルの出力に出現するエンティティの順序が同じであることから,エンティティが出現する順序に注目して対象となるエンティティの書き換えを行っていると考えられる。 baseline では発話文にあるエンティティのみ書き換えるのに対し, add_unrelated では発話文にある一文を削除して出力する傾向が見られた.モデルは入力にある発話文の一部を削除することを学習したと考えられる。しかし,無関係な一文に限らず知識源に則っている一文についても削除するものもある. これらから,発話文の削除とエンティティの書き換えを行うことで知識源との整合性を取るように学習したと考えられる. 発話文の削除は無関係な一文に関わらず,知識源と矛盾,または含意の一文にも行うことで生成文全体が知識源に則るように文章を生成すると考えられる。 ## 4 おわりに 本研究では,特定のエンティティのみを書き換えたデータ,無関係な発話を追加したデータなどで構成される $\mathrm{HE}$ 修正学習データセットを用いて,知識源 を使用する文章生成における HE を修正する postfix モデルの学習を行った. 学習データとは独立に用意したデータセットにより評価実験を行い,学習時に使用する HE 修正デー タを変えることで HE 修正データに沿ってモデルの挙動が変化することを示した。また,HE 修正学習データセットと似たデータがあるにも関わらず HE を修正できない例も存在した.. 今後は, HE 修正学習データセットの基となるデータの収集,書き換えルールなど作成手法の拡張が必要である。また,拡張した結果モデルの出力が変化し, HE の修正に貢献したかを手法ごとに検証すべきである. ## 謝辞 本研究は JSPS 新学術研究 JP19H05693 の助成を受けた。 ## 参考文献 [1] Tom B Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. arXiv preprint arXiv:2005.14165, 2020. [2] Ashish Agarwal Clara Fannjiang David Sussillo Katherine Lee, Orhan Firat. Hallucinations in neural machine translation. Accepted in Workshop of Interpretability and Robustness in Audio, Speech, and Language, 2018. [3] Stephanie Lin, Jacob Hilton, and Owain Evans. Truthfulqa: Measuring how models mimic human falsehoods. arXiv preprint arXiv:2109.07958, 2021. [4] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, and Luke Zettlemoyer. Bart: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. arXiv preprint arXiv:1910.13461, 2019. [5] Meng Cao, Yue Dong, Jiapeng Wu, and Jackie Chi Kit Cheung. Factual error correction for abstractive summarization models. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6251-6258, Online, November 2020. Association for Computational Linguistics. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018 [7] Wojciech Kryściński, Bryan McCann, Caiming Xiong, and Richard Socher. Evaluating the factual consistency of abstractive text summarization. arXiv preprint arXiv:1910.12840, 2019. [8] 大野瞬, 森脇恵太, 杉山弘晃, 酒造正樹, 前田英作. 分類モデル bert による不整合生成文の検出について. "言語処理学会第 28 回年次大会", 2022(発表予定). [9] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems, 2021. [10] 金田龍平, 芳賀大地, 杉山弘晃, 酒造正樹, 前田英作.知識源と一対多関係を有する対話コーパスによる発話生成. 言語処理学会第 28 回年次大会, 2022(発表予定). [11] 田中佑, 村脇有吾, 河原大輔, 黒橋禎夫. 日本語 wikipedia の編集履歴に基づく入力誤りデータセットと訂正システムの改良. 言語処理学会第 27 回年次大会, 2021. [12] Gautier Izacard and Edouard Grave. Leveraging passage retrieval with generative models for open domain question answering, 2020. [13] Ankur P Parikh, Xuezhi Wang, Sebastian Gehrmann, Manaal Faruqui, Bhuwan Dhingra, Diyi Yang, and Dipanjan Das. Totto: A controlled table-to-text generation dataset. arXiv preprint arXiv:2004.14373, 2020. [14] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting of the Association for Computational Linguistics, pp. 311-318, 2002.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B3-1.pdf
# 大規模因果関係テキストを用いた反論生成手法 鎌倉 まな ${ }^{1,2}$ 飯田 龍 ${ }^{1,2}$ 呉 鍾勲 ${ }^{1}$ 田仲 正弘 ${ }^{1}$ Julien Kloetzer ${ }^{1}$ 淺尾 仁彦 ${ }^{1}$ 鳥澤 健太郎 ${ }^{1,2}$ 1 国立研究開発法人 情報通信研究機構 (NICT) データ駆動知能システム研究センター (DIRECT) 2 奈良先端科学技術大学院大学 先端科学技術研究科 \{kamana, ryu.iida, rovellia,mtnk, julien, asao, torisawa\}@nict.go.jp ## 概要 議論は他者と意見交換を行い意思決定を行う重要な手段であり、ユーザと議論する対話システム $[1,2,3]$ が研究されてきたが、データ構築の困難さにより適用できる議論は限定的であった。本研究では、ブレインストーミングが可能な音声対話システムの実現を目指し、Webから 7.9 億件の大規模な因果関係を表すテキストを、テキスト中の省略を補完しつつ収集し、それを活用することで、ユーザの多様な主張に反論を出力する手法を提案する。また、提案手法が出力した反論を人手で評価した結果を報告し、今後対処すべき課題について論じる。 ## 1 はじめに 議論は日常生活と社会生活において、他者との間でそれぞれの意見を交換し、集団内でより良い意思決定を行うため重要な手段である。特に、他者の意見に対して反論することで、集団による不適切な意思決定を回避したり、より精密な意思決定を行うことが可能になる。例えば、ある人が「リニアが奈良を通ったらいいよね」と言ったとき、他の人が「でも、リニアが奈良を通ると京都の経済力が落ちるかもしれないよ」と、潜在的リスクを挙げて反論を行えば、より適切な意見、意思決定につながることが期待できる。本研究では、Walton [4] が論証スキー ムの一つとして挙げた、ネガティブな帰結からの論証 (Argument from Negative Consequences、ANC) 「もし Aを実行すると、Bが起きる。B は悪い結果である。ゆえに、Aを実行すべきでない」をべースとし、大量の Web データから反論となるテキストを見つけ出す手法を開発した。上述のリニアに関する反論は、Aを「奈良にリニアを通す」、Bを「京都の経済力が落ちる」とすれば、まさにこの ANC の典型例 と言える。反論となるテキスト候補としては、Web から抽出した因果関係知識(例えば、原因文「奈良にリニアを通す」、帰結文「京都の経済力が落ちる」 のように、因果関係を持つ原因文、帰結文の対)を 7.9 億件用いており、多岐にわたる話題に関して反論テキストを発見することが可能である。 NICT DIRECT では、現在、雑談対話システム WEKDA [5] や介護支援用対話システム MICSUS ${ }^{1 \text { ) }}$ $[6,7]$ の開発を行なっている。これらのシステムは Web 情報を用いて雑談を行うが、本研究で開発した手法は、そうした雑談に反論を導入し、多様な意思決定に関するブレインストーミングを可能にし、これらの対話システムの適用範囲をより広げる狙いがある。 提案手法では、ユーザの主張が入力されると、因果関係知識のデータベースから、BERT ベースのモデルを複数個使い、ユーザの主張を含意する/に含意される原因文を持つ因果関係で、帰結文がなんらかのトラブルを表しているものを反論として発見する。手法の評価のため、「リニアが奈良を通る」のような何らかの出来事、行為、施策を表す主張を 500 件作成し、そのうち提案手法が反論候補を出力できた 452 件について、著者以外の 3 人の作業者の多数決で、それらの反論候補が本当に反論として成立するかどうか判定した。各々の主張に対して、トラブル認識のスコアの最上位の出力が反論として成立した割合は $50.0 \% 、 3$ 位まで出力した場合、そのうちのどれかが反論として成立した割合は $79.0 \%$ であった。この精度は高くはないが、反論生成に特化したデータを使っていない初の試みとしてはまずまずの 1)けいはんな $\mathrm{R \& D} フェア 2021 「$ 高齢者介護支援マルチモーダル音声対話システム MICSUS」https://keihannafair.jp/exhibition/ai/899、YouTube NICTchannel「高齢者向けマルチモーダル音声対話システム“MICSUS”」 https://www.youtube.com/watch?v=gCUrC3f9-Go 結果であると考えている。本論文の最後で、誤りの原因も分析し、今後の改善策についても言及する。 ## 2 関連研究 これまでもユーザと議論する手法がいくつか研究されてきた。Sakai ら $[8,9]$ は、約 2 千件の主張や根拠を表す文を支持・不支持関係で結びつけた論証構造を手動で作成し、論証構造に基づいてユーザと議論する対話システムを提案した。また、Reddit 等のオンラインディベートフォーラムのデータを用いて、議論のためのテキストを発見したり、生成したりする研究もある $[2,10,11]$ 。これらの研究の課題は、まず、議論可能なトピックや反論がディベー トフォーラムのデータや人手で作成したデータによって強く制約されてしまうことである。また、テキスト生成を行う手法では、根拠のない議論を行ってしまう可能性がある。加えて、英語ではディベー トフォーラムが盛んであり、中には支持・不支持等のタグづけがユーザによってなされているものもある一方、日本語ではそこまでデータが集まっておらず、日本語を対象とするシステムでの活用は難しいという問題がある。一方、我々の手法では、対象が反論に限定されてはいるが、ディベートフォーラムであるか否かを問わず、非常に大量の Webぺージから取得した因果関係テキストを使うため、極めて広範な話題に関して反論を出力でき、また、反論は実際に誰かが Webに書いたテキストを元にしているため、全く根拠のない反論が出力されるリスクはきわめて小さく、優位性があるものと考えている。 ## 3 反論を出力するアルゴリズム 提案手法は、ユーザの主張を表す入力文に対して反論を出力するが、 4 節で述べる大規模な因果関係に関する知識ベースと、入力文に関して知識ベースを検索した結果をフィルタリングするための各種分類モデル (4 節で述べる含意等認識器、トラブル認識器)を利用する。因果関係に関する知識べースは、原因と帰結のぺアがそれぞれ文の形式で(例えば、原因文「これから導入されるマイナンバーは、国だけではなく、一般企業も給与の支払いなどで使用する」と帰結文「マイナンバーで情報漏えいが起きるリスクが高い」のように)保持している。 Hashimoto らの研究 [12] と異なり、原因文、帰結文にはそれぞれ名詞 1 個、述語 1 個といった制限はなく、任意の形態の文が含まれる。手続きとしては、入力文に含まれる内容語 (「プロ野球に FA 制度がある」の「プロ野球」や 「FA 制度」)を原因文に含む因果関係を、Lucene を用いて検索し、次に得られた原因文・帰結文ぺアの各々に関して、含意等認識器、トラブル認識器を適用し、1) 入力文と含意 (含意の方向は問わない)もしくは等価であると分類された原因文と 2) トラブルを含むと分類された帰結文からなるぺアのみを選択し、その帰結文を反論として出力する。なお、評価ではトラブル認識器の分類スコアが最も高い帰結文を最大で 3 個出力した。なお、後述するように含意等認識器、トラブル分類器ともに、BERT ベースの二値分類器であり、入力が含意等の性質を持つ確率を分類スコアとして出力しているが、その確率が 0.5 を上回るものをその性質を持つ入力であるとみなした。本手法が出力した反論の例を表 1 に示す。 ## 4 因果関係獲得と含意等文間関係・ トラブル認識処理 3 節のアルゴリズムで利用する知識の獲得は下記の手順で行う。まず、Webから収集した 7 文からなるテキストパッセージと、そのパッセージに Oh ら [13] の CRFベースの因果関係抽出手法を適用して得られる因果関係の候補を表すテキストの原因部分と帰結部分の単語列を入力とし、さらに高精度な因果関係を抽出するため、BERTで重ねて分類を行った。 この BERT モデルの学習のためにアノテータ 3 名の多数決を実施し、学習用、開発用、評価用データとして、それぞれ 127,240 事例、20,937 事例、20,954 事例を得た。実際には、呉らの因果関係をさらに、解決法、「〜が起きると、〜の可能性が高くなる」等いくつかのタイプの因果関係に再分類しており、上記学習データはそれらの再分類された因果関係のタイプに関するアノテーションを含んでいるが、本研究では、先述の「可能性が高くなる」因果関係のみを利用するので他の詳細は割愛する。NICT が収集した大規模 Web テキスト 350GB で事前学習した $\mathrm{BERT}_{\text {large }}$ でファインチューニング2) した結果、評価用データに関する上述の「可能性が高くなる」因果関係に関する自動分類の性能は平均精度で $91.7 \%$ となった。 上述の手法で抽出された因果関係は、ゼロ照応等による省略が含まれており、原因文、帰結文それぞれを単独で読んでも意味が通らないことが多い。こ  表 1 入力と反論の例 のため、省略等が補完され原因文、帰結文それぞれの単体を読んで内容が理解できるような形式で整形された原因と帰結の文の対を生成する課題を設計し、その処理に必要な判定、生成の学習・評価用データを作成した。先述の BERT 学習用データの原因部分、帰結部分に各事例 1 名のアノテータが元パッセージからの省略等の補完や文の整形などを行う編集作業を実施した。また、省略が補完された原因文、帰結文アノテーション学習用、開発用、評価用データの件数はそれぞれ他の関係と合わせて 113,486 事例、17,216 事例、17,364 事例である3)。これをもちいて、上述の $\mathrm{BERT}_{\text {large }}$ をべースとして、さらに事前学習を行った Transformer Encoder-Decoder モデルをファインチューニングして生成器を作成し、この性能は評価データの ROUGE- $1 \mathrm{~F}$ 值で 80.0 \%である。これらの因果関係判定器、生成器を Web 約 200 億ページから得た約 35 億パッセージに適用し、「可能性が高くなる」関係に関しては約 7.9 億件の知識を獲得した。 また、含意の認識処理についても、類似する文対をヒューリスティックに獲得し、それらに対して意味的に等価、含意(含意の方向性として、2つの可能性があるので、2 種類の関係)、(本研究では使用していないが)矛盾の4つの関係をアノテーションした。 5 万件の事例に対し 3 名のアノテータが独立に判定を行い、多数決でラベルを決定した。この事例を学習用、開発用、評価用データとして 35,000 事例、5,000 事例、 10,000 事例に分割し、上記の関係判別と同様に $\mathrm{BERT}_{\text {large }}$ をファインチューニングして実験を行った。この結果、等価、含意 (2 種類)、矛盾の判定性能は評価データの平均精度でそれぞ 3)上述の因果関係の判定アノテーションでは複数の因果関係のタイプに関して判定を行うため 1 事例に対して複数の正例が得られる場合もあるが、生成のアノテーションではその個別の正例を 1 事例としてアノテーションを行っているため、上記の判定の事例数とはアノテーションの件数が異なっている。 れ $88.0 \% 、 87.6 \% 、 88.8 \% 、 55.4 \%$ という結果を得ている。 また、トラブル認識のためにも学習・評価用デー タを作成した。この作成時には、負担・トラブル表現リスト ${ }^{4 )}[14]$ と活性・不活性辞書 [15] を組み合わせ、「結核を患う」のようなトラブル名詞と活性述語テンプレートの組み合わせ、また、「出生率が低下する」のような非トラブル名詞と不活性述語テンプレートの組み合わせをトラブル認識の対象となる核表現とし、その核表現を含む文をその前後文とともに Web 文書から 4 万件サンプリングした。 3 名のアノテータが文中の核表現がトラブルを表す内容として記述されているかを判定し、多数決でラベルを決定した。ただし、3節で述べた提案手法では帰結文全体を入力してトラブルを含むか否かを判定する必要があるため、核表現に対するアノテーション結果をその核表現が含まれる文に対するアノテーション結果とみなして学習・評価に利用した ${ }^{5}$ )。上述の 4 万事例を学習用、開発用、評価用としてそれぞれ 28,000 事例、4,000 事例、8,000 事例に分割し、上記の BERT $_{\text {large }}$ でファインチューニングを行った。この結果得られた分類器の性能は、評価用の平均精度で約 $91.0 \%$ である。 ## 5 実験 対話システムにユーザが話しかけるとき「マイナンバーで役所の手続きが簡単になるといいね」「小学校でプログラミングが必修になるんだって」のようにユーザの主張が明示されないか、間接的な言い方で示されることが想定される。ここでは問題を単純化するために、「マイナンバーを導入する」「小学校でプログラミングを必修にする」のように、ユー  表 2 評価用主張文 500 件に対する反論候補の評価結果 ザ発話中の出来事を取り出し、賛成と反対の両方の立場が仮定できるシンプルな主張に書き換え、ユー ザが主張に「賛成」「そう願っている」と仮定する。以下では書き換え後の文をユーザの主張として扱い、提案手法が出力した反論候補が反論として成立するかどうか評価する。 より具体的には、雑談のための入力発話として、任意のトピックに関してアノテータが作成したユー ザ入力発話の中から、賛成と反対の両方の立場が仮定できるシンプルな主張に書き換え可能なものを著者の一人が選び、上記のようにシンプルな主張への書き換えを行い、ユーザの主張文とした。ユー ザの主張は、開発用、評価用としてそれぞれ 50 事例、500 事例を用意した。提案手法の適用に際しては、含意等認識を適用する因果関係の候補として、 Lucene の検索結果上位 5,000 件を利用した。また、反論候補が複数得られた場合にはトラブル認識の分類スコアが最も高い反論候補を最大 3 つ出力することとした。評価としては、主張文と反論候補の組を提示し、主張文の内容に対して「賛成」「そう願う」「よい選択だ」のような立場をある人がとったと仮定した場合に、反論候補がその人に対する反論となるかどうかを、3名の作業者がそれぞれ独立に判定し、多数決でラベルを決定する。 ## 5.1 実験結果 入力となる主張文、開発用 50 事例、評価用 500 事例のうち、反論が出力できたのはそれぞれ 41 事例、 452 事例であった。評価様主張文の人手評価結果を表 2 に示す。トラブル認識の分類スコアスコア最上位の反論候補が反論になると判定された場合 (P@1) が $50.0 \%$ 、トラブル認識の分類スコア 3 位までの反論候補に、反論になると判定されたものが含まれる割合(P@3) が 79.0\%となった。Fleiss の $\kappa$ 値は 0.605 であった。特に分類スコア最上位の場合は高精度とは言えないが、特に反論生成に特化した学習データを作成していないことを考えると、まずまずの結果であると考えている。 誤りの原因を探るため、評価用データに対して出力された反論について、トラブル認識の分類が最大の反論候補のうち、反論ではないと判定された事例表 3 反論として成立しなかった要因(合計 100 件) の中から 100 件サンプリングし、反論が成り立たない要因を分析した。その要因の分類と事例数を付録表 3 に示す。主な要因は因果関係が迂遠で分かりづらいことであった。例えば、主張「ホームドアを設置する」に対する反論「事故が起きる可能性がある」では、「ホームドアが設置されている駅とされていない駅が混在することで視覚障害者が混乱してしまい事故につながる」といった説明があれば反論として成立すると考えられる。また、含意等判定器、因果関係判定器、生成器にも改善の余地があることがわかる。今後は、反論に特化した学習データを作成するとともに、こうした課題に対処していく予定である。 ## 6 おわりに 本論文では、ユーザのブレインストーミングを助けより良い意思決定を支援する手法の開発を目指し、因果関係知識を大規模に獲得し、ユーザに対して帰結に問題を含む因果関係を用いて、反論として出力する手法を提案した。提案手法による反論は情報源が Web であるため、信頼性に難があったり意見が偏っていたりするものもあり得るが、今後は、 DISAANA [16] 等のデマ検出技術で培ったテキスト間の矛盾検知技術 [17] 等も活用し、よりバランスの取れた反論や、因果関係 [12] の連鎖による推論等も用いてよりクリエイティブな反論や、ユーザや文脈により適合した反論を提供することを目指す。加えて、深層学習自動並列化ミドルウェア RaNNC[18] を用いて事前学習したより巨大な言語モデルや、そもそもアーキテクチャの異なる言語モデル、例えば [19] も用いてさらなる高精度化を図る。また、反論だけではなく、支持のような議論の他の構成要素も同様の手法で出力が可能だと考えており、これらも用いて多様な意思決定に関するブレインストーミングを可能にする対話システムの実現を目指す。 ## 参考文献 [1] Ryuichiro Higashinaka, Kazuki Sakai, Hiroaki Sugiyama, Hiromi Narimatsu, Tsunehiro Arimoto, Kiyoaki Matsui, Takaaki Fukutomi, Yusuke Ijima, Hiroaki Ito, Shoko Araki, Yuichiro Yoshikawa, Hiroshi Ishiguro, and Yoshihiro Matsuo. Argumentative dialogue system based on argumentation structures. In Proceedings of the 21st Workshop on the Semantics and Pragmatics of Dialogue, 2017. [2] Dieu Thu Le, Cam-Tu Nguyen, and Kim Anh Nguyen. Dave the debater: a retrieval-based and generative argumentative dialogue agent. In Proceedings of the 5th Workshop on Argument Mining, pp. 121-130, 2018. [3] Noam Slonim, Yonatan Bilu, Carlos Alzate, Roy BarHaim, Ben Bogin, Francesca Bonin, Leshem Choshen, Edo Cohen-Karlik, Lena Dankin, Lilach Edelstein, Liat Ein-Dor, Roni Friedman-Melamed, Assaf Gavron, Ariel Gera, Martin Gleize, Shai Gretz, Dan Gutfreund, Alon Halfon, Daniel Hershcovich, Ron Hoory, Yufang Hou, Shay Hummel, Michal Jacovi, Charles Jochim, Yoav Kantor, Yoav Katz, David Konopnicki, Zvi Kons, Lili Kotlerman, Dalia Krieger, Dan Lahav, Tamar Lavee, Ran Levy, Naftali Liberman, Yosi Mass, Amir Menczel, Shachar Mirkin, Guy Moshkowich, Shila Ofek-Koifman, Matan Orbach, Ella Rabinovich, Ruty Rinott, Slava Shechtman, Dafna Sheinwald, Eyal Shnarch, Ilya Shnayderman, Aya Soffer, Artem Spector, Benjamin Sznajder, Assaf Toledo, Orith Toledo-Ronen, Elad Venezian, and Ranit Aharonov. An autonomous debating system. Nature, Vol. 591, No. 7850, pp. 379-384, 2021. [4] Douglas Walton, Chris Reed, and Fabrizio Macagno. Argumentation Schemes. Cambridge University Press, 2008. [5] 水野淳太, クロエツェージュリアン, 田仲正弘, 飯田龍, 吳鍾勲, 石田諒, 淺尾仁彦, 福原裕一, 藤原一毅, 大西可奈子, 阿部憲幸, 大竹清敬, 鳥澤健太郎. WEKDA: Web 40 億ページを知識源とする質問応答システムを用いた博学対話システム. 人工知能学会第 84 回言語・音声理解と対話処理研究会, pp. 135-142, 2018. [6] Yoshihiko Asao, Julien Kloetzer, Junta Mizuno, Dai Saiki, Kazuma Kadowaki, and Kentaro Torisawa. Understanding user utterances in a dialog system for caregiving. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 653-661, 2020. [7] 淺尾仁彦, 水野淳太, 呉鍾勲, Julien Kloetzer, 大竹清敬, 福原裕一, 鎌倉まな, 緒形桂, 鳥澤健太郎. 介護支援対話システムのための意味解釈モジュール. 言語処理学会発表論文集, 2022. [8] Kazuki Sakai, Akari Inago, Ryuichiro Higashinaka, Yuichiro Yoshikawa, Hiroshi Ishiguro, and Junji Tomita. Creating large-scale argumentation structures for dialogue systems. In Proceedings of the 11th International Conference on Language Resources and Evaluation, 2018. [9] Kazuki Sakai, Ryuichiro Higashinaka, Yuichiro Yoshikawa, Hiroshi Ishiguro, and Junji Tomita. Hierarchical argumentation structure for persuasive argumentative dialogue generation. IEICE Transactions on Information and Systems, Vol. E103.D, No. 2, pp. 424-434, 2020. [10] Xinyu Hua, Zhe Hu, and Lu Wang. Argument generation with retrieval, planning, and realization. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2661-2672, 2019. [11] Khalid Al Khatib, Lukas Trautner, Henning Wachsmuth, Yufang Hou, and Benno Stein. Employing argumentation knowledge graphs for neural argument generation. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 4744-4754, 2021. [12] Chikara Hashimoto, Kentaro Torisawa, Julien Kloetzer, Motoki Sano, István Varga, Jong-Hoon Oh, and Yutaka Kidawara. Toward future scenario generation: Extracting event causality exploiting semantic relation, context, and association features. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics, pp. 987-997, 2014. [13] Jong-Hoon Oh, Kentaro Torisawa, Chikara Hashimoto, Motoki Sano, Stijn De Saeger, and Kiyonori Ohtake. Whyquestion answering using intra- and inter-sentential causal relations. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics, pp. 1733-1743, 2013. [14] Stijn De Saeger, Kentaro Torisawa, and Jun'ichi Kazama. Looking for trouble. In Proceedings of the 22nd International Conference on Computational Linguistics, $\mathrm{pp}$. 185-192, 2008. [15] Chikara Hashimoto, Kentaro Torisawa, Stijn De Saeger, Jong-Hoon Oh, and Jun'ichi Kazama. Excitatory or inhibitory: A new semantic orientation extracts contradiction and causality from the web. In Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, pp. 619-630, 2012. [16] Junta Mizuno, Masahiro Tanaka, Kiyonori Ohtake, JongHoon Oh, Julien Kloetzer, Chikara Hashimoto, and Kentaro Torisawa. WISDOM X, DISAANA and D-SUMM: Large-scale NLP systems for analyzing textual big data. In Proceedings of COLING 2016: System Demonstrations, pp. 263-267, 2016. [17] Julien Kloetzer, Stijn De Saeger, Kentaro Torisawa, Chikara Hashimoto, Jong-Hoon Oh, Motoki Sano, and Kiyonori Ohtake. Two-stage method for large-scale acquisition of contradiction pattern pairs using entailment. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 693-703, 2013. [18] 田仲正弘, 田浦健次朗, 塙敏博, 鳥澤健太郎. 自動並列化深層学習ミドルウェア RaNNC. 自然言語処理, Vol. 28, No. 4, pp. 1299-1306, 2021. [19] Jong-Hoon Oh, Ryu Iida, Julien Kloetzer, and Kentaro Torisawa. BERTAC: Enhancing transformer-based language models with adversarially pretrained convolutional neural networks. In Proceedings of the 59th ACL and the 11th IJCNLP, pp. 2103-2115, 2021.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B3-2.pdf
# 後処理ネットワークを用いた強化学習によるタスク指向型対話 システムの最適化 大橋厚元 ${ }^{1}$ 東中竜一郎 1 1 名古屋大学大学院 情報学研究科 ohashi.atsumoto@g.mbox.nagoya-u.ac.jp, higashinaka@i.nagoya-u.ac.jp ## 概要 典型的なタスク指向型対話システムは,複数のモジュールが連結したパイプライン型の構成となっている. 近年では,このパイプライン型システムの対話タスク能力を向上させるため,システムを構成する複数のモジュールを同時に学習することでシステ么全体を最適化する手法が多く提案されている。しかしこれら手法では,各モジュールが学習可能な手法で実装されていなければならない。本研究では,強化学習を用い,各モジュールの実装手法に依存せずにパイプライン型システム全体を同時に最適化できる後処理ネットワークを用いた手法を提案する。 ## 1 はじめに タスク指向型対話システムは複数のモジュー ルが連なって構成されるパイプライン型システムと End-to-End 型システムの 2 つに分類される $[1,2]$. 典型的なパイプライン型システムは,言語理解 (Natural Language Understanding; NLU), 状態更新 (Dialogue State Tracking; DST), 行動決定 (Policy),言語生成(Natural Language Generation; NLG)という 4 つのモジュールで構成され [1], 各モジュールは人手で作成したルールによる手法(ルールベー ス手法)やニューラルネットワークを用いた手法 (ニューラルベース手法)など,任意の手法で実装することができる, パイプライン型システムは, システム内部の各モジュールの入出力が明確であるので,開発者がシステムを解釈しやすいという利点がある。しかし,各モジュールが順番に処理されるため,先行するモジュールのエラーが後続するモジュールに伝播しやすく,結果として対話タスク能力が低下してしまうという欠点がある. そこで,パイプライン型システムを構成する複数のモジュールを同時に学習することでシステム全体 を End-to-End に最適化する手法が多く提案されている $[3,4,5,6]$. しかしこれらの手法は,ニューラルベース手法による学習可能なモジュールでシステムが構成されていることを前提としている. したがって,ルールベース手法や Web API 等を用いて実装された学習不可能なモジュールを使用したい場面では,これら手法は適用することができない. このような背景から, 本研究ではシステムに含まれるモジュールがどのような手法で実装されていたとしても,システム全体を最適化できる後処理ネットワークを用いた手法を提案する。本手法では,システムを構成する各モジュールの出力を後処理するネットワーク(Post-processing Networks; PPN)を用意する. 各 PPN は,後処理として各モジュールの出力を修正し,システム全体のパイプライン処理を円滑にする。各 PPN の後処理は,強化学習を用いて夕スク達成などの対話タスク能力を向上できるように学習される。実際に学習されるのは各 PPN であるため,各モジュール自身が学習可能である必要はない. MultiWOZ データセット [7] に基づいて実装された複数のパイプライン型システムに PPN を適用し,本手法の有効性を確認した。 ## 2 提案手法 本手法の目的は,PPNの後処理によって各モジュールの出力を修正することで,システム全体の対話性能を向上させることである. 図 1 は,複数のモジュール ( Module A $_{\mathrm{A}} \sim$ Module $_{\mathrm{N}}$ ) からなるパイプライン型システムに PPNを適用した際の全体像を示している. ## 2.1 後処理アルゴリズム 図 1 を用いて, $\mathrm{PPN}_{\mathrm{I}}$ がターン $t$ における Module $\mathrm{I}_{\mathrm{I}}$ の出力 $o_{I}^{t}$ を後処理するアルゴリズムを説明する. まず,一般的なパイプライン型システムと同様 図 1 PPNを適用したパイプライン型システムのアーキテクチャ. 各 PPN は対象とするモジュールの出力 $o$ を,全モジュールの状態 $s_{A l l}$ を考慮しながら後処理する. に, Module は先行する Module H $_{\mathrm{H}}$ の出力を受け取り,自身の処理結果 $o_{I}^{t}$ を出力する.またこのとき, Module $_{\text {I }}$ が自身の状態に関する補足的な情報(例えば, $o_{I}^{t}$ の信頼度スコア)を出力できる場合はそれを状態べクトル $s_{I}$ として出力する. そしてこれを用いて,全モジュールの状態ベクトルを結合した $s_{A l l}^{t}=\left[s_{A}^{t} ; \ldots ; s_{I}^{t} ; s_{J}^{t-1} ; \ldots ; s_{N}^{t-1}\right]$ を作成する. 次に, oot ${ }_{I}^{t} \mathrm{PPN}_{\mathrm{I}}$ に入力する. $\mathrm{PPN}_{\mathrm{I}}$ 内では, InAdapter ${ }_{I}$ が $o_{I}^{t}$ のバイナリベクトル表現 $v_{I}^{t}$ を作成する. $v_{I}^{t}$ の次元数は Module $\mathrm{I}_{\mathrm{I}}$ の出力語彙数であり,各バイナリは Module $_{\text {I }}$ の各出力語彙が $o_{I}^{t}$ に含まれているか否か」を 1 か 0 で表す. InAdapter $I_{I}$ は, Module $_{\text {I }}$ に定義されている出力語彙セットに基づいて人手で作成する. ここまでで作成された $v_{I}^{t}$ と $s_{A l l}^{t}$ を結合し, 多層パーセプトロン $\mathrm{MLP}_{\mathrm{I}}$ に入力する. $\mathrm{MLP}_{\mathrm{I}}$ は $v_{I}^{t}$ と同じ次元数のバイナリベクトル $v_{I}^{\prime t}$ を出力する. この時点での $v^{t}$ と $v^{t}$ の変化分が $\mathrm{PPN}_{\mathrm{I}}$ による後処理となる. 最後に OutAdapter $I_{I} よって, v_{I}^{\prime t}$ の中で 1 となっている要素が Module I の出力語彙に復元され,最終的な PPN の出力 $o_{I}^{t}$ が作成される. OutAdapter ${ }_{I}$ も InAdapter $I_{I}$ と同様に, Module I $^{2}$ に定義されている出力語彙セットに基づいて人手で作成する. ## 2.2 強化学習による最適化 本研究では対話シミュレーションを用い,システムに含まれる各 PPN の MLP を方策ネットワークとして強化学習を行う. 強化学習で用いる報酬としては,対話タスクの達成に関するものを人手によるルールで設計する. 強化学習アルゴリズムとしては,方策べースの手法であり学習の安定性も高いという理由から, Proximal Policy Optimization (PPO) [8] を用いた. 以下は, PPO に基づいた PPN の学習ループ 1 回分の手順である. この学習ループは事前に決められた回数繰り返す。 1. ユーザシミュレータを用いて対話をシミュレー ションする.対話における各ターン $t$ では,各 PPN が後処理を行い,そこで得られる $s_{A l l}^{t}, v^{t}$, $v^{\prime t}$ ,報酬 $r^{t}$ からなるタプルを行動履歴として蓄積する. 対話シミュレーションは行動履歴が事前に決められた量(ホライゾンと呼ぶ)に達するまで繰り返す。 2. PPN 選択戦略(後述)に基づいて,今回の学習ループで更新する PPNを選択する。 3. ステップ 1 で得られた行動履歴を用い,事前に決められたエポック数だけ PPO アルゴリズムに基づいて,ステップ 2 で選択した PPN の MLPを更新する. PPN 選択戦略とは,各学習ループで更新する PPN を選択するためのルールである. システムに 2 つ以上の PPN が含まれる場合,どの PPNをどの順番で更新するべきかは自明ではない,そこで本研究では ALL(各学習ループで,必ずすべての PPN を選択する),RANDOM(各学習ループで,1つ以上の PPNをランダムに選択する), ROTATION (学習ループごとに,PPNを 1 つずつ順繰りに選択する)の 3 種類を用意し,最も有効な戦略を実験的に調査する。 ## 3 実験 ## 3.1 データセットとプラットフォーム 本研究では, MultiWOZデータセット [7] に基づいて実装されたモジュールを用いて複数の異なる対話システムを構成し, 各システムに PPNを適用することで,本手法の有効性を検証する.MultiWOZ は旅行サポートサービスを行う店員と顧客とのタスク指向型対話コーパスであり, 10,438 対話が含まれる. 実験では,タスク指向型対話システム用プラットフォームである ConvLab2 [9]を用いる. ConvLab2 では,MultiWOZに基づいて実装された各モジュー ルやユーザシミュレータ [10]を用いた対話システム評価ツール等が提供されている. 図 2 強化学習における PPN 選択戦略ごとの各評価尺度の推移 ## 3.2 評価尺度 各対話におけるタスク評価には,ConvLab2 で利用可能であり, 先行研究 $[11,12,13]$ でも一般的に使用されている,Turn(対話に要したターン数), Inform F1(ユーザが要求した情報に過不足なく答えたか),Match Rate(ユーザの条件に合ったエンティティ1)を提示したか),Task Success (20 ターン以内に Inform Recall と Match Rate が同時に 1 になったか)の4つの尺度を用いる。なお本実験では,ユー ザ発話とそれに対するシステムの応答 1 回を 1 ター ンとして定義する. システムの評価時には公正な比較を行うため,異なる 5 種類のランダムシードで 1,000 対話ずつシミュレーションし,その平均スコアを用いる。 ## 3.3 システム構成 本研究では,Takanobu ら [14] の実験に倣い,パイプライン型システムの一般的なモジュール構成である,NLU,DST, Policy, NLGの 4 モジュールからなるシステムを用意する. 各モジュールとしては, ConvLab2 で実装されているモデル2)の中から,古典的なルールベース手法(学習不可能なモデル)と最新のニューラルベース手法(学習可能なモデル)の両方を含むように選択した. なお,学習可能なモデルであってもそのモデル自体は学習せず PPN のみを学習する. 以下で,モジュール別に,今回利用するモデルを説明する。 NLU BERT[15] NLU モデルを使用する. 本モデルは BERT による埋め込み表現を用い,ユーザ発話文中の各単語が表す意図をクラス分類する [16].  & & & Turn \\ & 64.2 & $\mathbf{7 1 . 9}$ & 76.6 & 9.20 \\ RANDOM & 60.4 & 70.5 & 73.2 & 9.10 \\ DSTRule DST と TRADE [17] の 2 モデルを使用する. Rule DST は NLU が推定したスロットを用いて対話状態を更新するモデルであり,更新ルー ルは人手によるルールで作成されている。一方で TRADE はニューラルベース手法のモデルであり, システムとユーザの発話履歴を大力として,対話状態を直接生成する. Policy Rule Policy, MLE Policy, PPO [8] Policy, LaRL [18]の 4 モデルを使用する. Rule Policy は人手で作成されたルールに従って行動を決定するモデルである. MLE Policy は MultiWOZ データセットにおける店員の行動を模倣するように教師あり学習されたニューラルベースモデルである. PPO Policy は MLE Policy をべースに PPO アルゴリズム [8] によってタスク達成に最適化するように fine-tune されたモデルである.LaRL は対話状態を元にシステムの発話文を直接生成する RNN ベースのモデルである. NLG Template NLG と SCLSTM [19] の 2 モデルを使用する。Template NLG は,人手で事前に用意されている発話テンプレート文の集合から, Policy が出力した行動に合うものを選択する手法である. SCLSTM はRNN ベースのモデルであり, Policy が出力した行動に合ったシステム発話文を生成する. ## 3.4 結果 本研究では,まずどの PPN 選択戦略が最も有効であるかを調査し,次に PPNが任意のシステムに適用可能であるかを調査した. 表 2 各システムにおけるモデルの組み合わせと PPN 適用前後での評価尺度の比較 ## 3.4.1 PPN 選択戦略の比較 図 2 と表 1 は各 PPN 選択戦略を用いてシステムを学習した場合の学習推移と最終スコアをそれぞれ示している.なおこの実験では BERT NLU,Rule DST,MLE Policy,Template NLG の組み合わせで構成したシステムに PPNを適用した。このシステムを用いた理由は,PPN 適用前の Task Success が 50\%前後(図 2 左図参照)であるため PPN の適用による影響がわかりやすく,また MLE Policy はしばしば強化学習の初期重みとして用いられる [11,12]ため,本研究における初期モデルとして合理的だと考えられるからである. 結果から,いずれの PPN 選択戦略であっても PPNが有効であることが確認できる. なお,ALL はほかの 2 種類に比べ早く最高スコアに到達するが,それ以降では学習が不安定になることが分かる。一方 RANDOM と ROTATION は学習が安定しており, 特に RANDOM は最終的に全 3 種類中最高スコアを達成している. ## 3.4.2 モデルの組み合わせによる影響 表 2 は複数のモデル(3.3 節参照)を用いて実装した 6 種類のシステムの構成と PPN 適用前後での評価尺度を示している. PPN 選択戦略としては,3.4.1 節の結果から RANDOMを用いた. 表 2 から,ほとんどのシステムにおいて,PPNを適用することによってその対話タスク能力が改善することがわかる. 一方で特に SYS-RUL など, Rule Policy が含まれるシステムについては改善が見られない場合も確認できる. Rule Policy は人手ルールによって入念に作りこまれており元から精度が高いモデルである. したがって, 特に Policy に改善の余地がある場合に PPNによる改善が見込めると考えられる。 ## 4 関連研究 本研究は,モジュール構造をとるシステムを End-to-End で最適化するニューラルベース手法と関連している. Lei ら [20] はDST と NLGに相当する 2 つの decoder を sequence-to-sequence モデル [21] に導入した手法を提案している. さらに Policy や NLU に相当する decoder によって Lei らのモデルを拡張した手法も提案されている $[4,22]$. しかし, これら手法は End-to-End モデルを教師あり学習により最適化しており,対話全体の教師データ必要とする点が本研究とは異なる。 本研究は,強化学習によるパイプライン型システ么の性能向上を目的としている. Liu ら [5] は模倣学習を組み合わせることで,Policyを実ユーザに最適化させる手法を提案している。 また,システム内の各モジュールを同時に fine-tune するすることで, システム全体の対話能力やエラーに対するロバスト性を向上させる手法 $[23,24,6]$ が多く提案されている.これら手法は,ニューラルベース手法で実装された各モジュールを強化学習によって直接学習するため,学習不可能なモジュールを含むシステムには適用できない。一方で本研究で提案する手法は,任意のパイプライン型システムに適用可能である. ## 5 おわりに 本研究では後処理ネットワークと強化学習を用い,各モジュールの実装手法に依存せずにパイプライン型対話システム全体を同時に最適化できる手法を提案した. MultiWOZ と ConvLab2 における実験から,多様なモデルで構成された複数のシステムに対して本手法が有効であることを確認した。 ## 謝辞 本研究は科研費「モジュール連動に基づく対話システム基盤技術の構築」(課題番号 19H05692)の支援を受けた。 ## 参考文献 [1] Hongshen Chen, Xiaorui Liu, Dawei Yin, and Jiliang Tang. A survey on dialogue systems: Recent advances and new frontiers. ACM SIGKDD Explorations Newsletter, 19(2):25-35, 2017. [2] Zheng Zhang, Ryuichi Takanobu, Qi Zhu, MinLie Huang, and XiaoYan Zhu. Recent advances and challenges in task-oriented dialog systems. Science China Technological Sciences, pages $1-17,2020$. [3] Tsung-Hsien Wen, David Vandyke, Nikola Mrkšić, Milica Gašić, Lina M. Rojas-Barahona, Pei-Hao Su, Stefan Ultes, and Steve Young. A Network-based End-to-End Trainable Task-oriented Dialogue System. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pages 438-449, April 2017. [4] Yichi Zhang, Zhijian Ou, and Zhou Yu. Task-Oriented Dialog Systems That Consider Multiple Appropriate Responses under the Same Context. In Proceedings of the AAAI Conference on Artificial Intelligence, pages 9604-9611, Apr. 2020. [5] Bing Liu, Gokhan Tür, Dilek Hakkani-Tür, Pararth Shah, and Larry Heck. Dialogue Learning with Human Teaching and Feedback in End-to-End Trainable Task-Oriented Dialogue Systems. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pages 20602069, June 2018 [6] Zichuan Lin, Jing Huang, Bowen Zhou, Xiaodong He, and Tengyu Ma. Joint System-Wise Optimization for Pipeline Goal-Oriented Dialog System. arXiv preprint arXiv:2106.04835, 2021. [7] Paweł Budzianowski, Tsung-Hsien Wen, Bo-Hsiang Tseng, Iñigo Casanueva, Stefan Ultes, Osman Ramadan, and Milica Gašić. MultiWOZ - A Large-Scale Multi-Domain Wizard-of-Oz Dataset for Task-Oriented Dialogue Modelling. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 5016-5026, October-November 2018. [8] John Schulman, Filip Wolski, Prafulla Dhariwal, Alec Radford, and Oleg Klimov. Proximal policy optimization algorithms. arXiv preprint arXiv:1707.06347, 2017. [9] Qi Zhu, Zheng Zhang, Yan Fang, Xiang Li, Ryuichi Takanobu, Jinchao Li, Baolin Peng, Jianfeng Gao, Xiaoyan Zhu, and Minlie Huang. ConvLab-2: An Open-Source Toolkit for Building, Evaluating, and Diagnosing Dialogue Systems. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pages 142-149, July 2020. [10] Jost Schatzmann, Blaise Thomson, Karl Weilhammer, Hui Ye, and Steve Young. Agenda-Based User Simulation for Bootstrapping a POMDP Dialogue System. In Proceedings of Human Language Technologies 2007: The Conference of the North American Chapter of the Association for Computational Linguistics; Companion Volume, Short Papers, pages 149-152, April 2007. [11] Ryuichi Takanobu, Hanlin Zhu, and Minlie Huang. Guided Dialog Policy Learning: Reward Estimation for Multi-Domain TaskOriented Dialog. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 100-110, November 2019. [12] Ziming Li, Sungjin Lee, Baolin Peng, Jinchao Li, Julia Kiseleva, Maarten de Rijke, Shahin Shayandeh, and Jianfeng Gao. Guided Dialogue Policy Learning without Adversarial Learning in the Loop. In Findings of the Association for Computational Linguistics: EMNLP 2020, pages 2308-2317, November 2020. [13] Zhengxu Hou, Bang Liu, Ruihui Zhao, Zijing Ou, Yafei Liu, Xi Chen, and Yefeng Zheng. Imperfect also Deserves Reward: Multi-Level and Sequential Reward Modeling for Better Dialog Management. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 2993-3001, June 2021. [14] Ryuichi Takanobu, Qi Zhu, Jinchao Li, Baolin Peng, Jianfeng Gao, and Minlie Huang. Is Your Goal-Oriented Dialog Model Performing Really Well? Empirical Analysis of System-wise Evaluation. In Proceedings of the 21th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pages 297-310, July 2020. [15] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 4171-4186, June 2019. [16] Qian Chen, Zhu Zhuo, and Wen Wang. Bert for joint intent classification and slot filling. arXiv preprint arXiv:1902.10909, 2019. [17] Chien-Sheng Wu, Andrea Madotto, Ehsan Hosseini-Asl, Caiming Xiong, Richard Socher, and Pascale Fung. Transferable MultiDomain State Generator for Task-Oriented Dialogue Systems. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 808-819, July 2019. [18] Tiancheng Zhao, Kaige Xie, and Maxine Eskenazi. Rethinking Action Spaces for Reinforcement Learning in End-to-end Dialog Agents with Latent Variable Models. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 1208-1218, June 2019. [19] Tsung-Hsien Wen, Milica Gašić, Nikola Mrkšić, Pei-Hao Su, David Vandyke, and Steve Young. Semantically Conditioned LSTM-based Natural Language Generation for Spoken Dialogue Systems. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pages 1711-1721, September 2015 [20] Wenqiang Lei, Xisen Jin, Min-Yen Kan, Zhaochun Ren, Xiangnan He, and Dawei Yin. Sequicity: Simplifying Task-oriented Dialogue Systems with Single Sequence-to-Sequence Architectures. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1437-1447, July 2018. [21] Ilya Sutskever, Oriol Vinyals, and Quoc V Le. Sequence to sequence learning with neural networks. In Proceedings of Advances in neural information processing systems, pages 3104 3112, 2014 . [22] Weixin Liang, Youzhi Tian, Chengcai Chen, and Zhou Yu. MOSS: End-to-End Dialog System Framework with Modular Supervision. Proceedings of the AAAI Conference on Artificial Intelligence, 34(05):8327-8335, Apr. 2020. [23] Xiujun Li, Yun-Nung Chen, Lihong Li, Jianfeng Gao, and Asli Celikyilmaz. End-to-End Task-Completion Neural Dialogue Systems. In Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pages 733-743, November 2017 [24] Hwaran Lee, Seokhwan Jo, Hyungjun Kim, Sangkeun Jung, and Tae-Yoon Kim. SUMBT+LaRL: Effective Multi-Domain Endto-End Neural Task-Oriented Dialog System. IEEE Access, 9:116133-116146, 2021
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B3-3.pdf
# 応答の生成・評価・選択による対話システム 榮田亮真 河原大輔 早稲田大学理工学術院 s.ryoma6317@akane.waseda.jp dkw@waseda.jp ## 概要 本論文では、人間から良い評価が得られる応答を生成する対話システムを目指し、応答評価モデルを対話システムに取り入れることを提案する。提案するシステムは、応答生成モデルが複数生成した応答を応答評価モデルで評価し、最適な応答を選択して応答を出力するものである。提案システムによる出力をベースラインシステムの出力と比較する人手評価を行った。人手評価の結果、提案システムの応答が良いと判断されることが多く、提案手法の有効性が示された。 ## 1 はじめに 対話システムはルールベースのシステムが利用されることが多い領域であった。近年では他の自然言語処理タスクと同様に、深層ニューラルネットワー ク (以下、DNN) を利用して、自然な応答を生成することができるようになっている。 対話システムの自動評価は、BLEU [1]などの、システムの応答と正解の応答を比較する手法が一般的に用いられている。しかし、そのうえでは、対話が持つ性質で、 1 つの発話に対して適切な応答が多く存在することを意味する、one-to-many の性質 [2] が障壁となっている。 1 文もしくは少数の正解応答との比較では、正解応答とまったく異なる文だが適切な応答を正しく評価できない。そのため、正解応答を用いない評価手法が求められており、その 1 つが DNNによる評価である。人間やシステムが行う応答に対する人手評価を正解データとして DNN の学習を行うことで、人手評価とある程度の相関がある評価ができるようになる方法が提案されている $[3,4]$ 。 本研究では、DNNによる応答評価モデルの利用法として、独立に研究されていた応答生成モデルと応答評価モデルを合わせて 1 つの対話システムとすることを提案する。応答評価モデルは正解応答を必要としないことから、応答の生成時にも利用できることが特徴である。応答評価モデルを対話システムに組み込むことで、人からより良いと判断される応答を生成できるようになることを目指す。具体的には、生成モデルによって応答を複数生成し、それらの応答を評価モデルによって評価、もっとも高い評価を得た応答を選択するという応答生成・評価・選択システムを提案する。応答生成モデルには事前学習モデルの T5 [5]、応答評価モデルには事前学習モデルの BERT [6] を利用する。それらのモデルは独立に Fine-tuning する。応答を複数生成するためには、グリーディーサーチ、ビームサーチ [7]、サンプリング [8] の 3 種類のデコーディング手法を用いる。 提案手法を評価するために、提案システムとべー スラインシステムの出力を比較するクラウドソーシングで人手評価を行った。このクラウドソーシングで、提案システムがより良い応答を出力すると判断されることが多く、提案手法の有効性が示された。 なお、対話システムの既存研究として、複数ター ンの対話を扱うもの、発話以外の知識 [9] や感情 [10]、個性 [11] などを扱うものも存在するが、本研究では、単一の発話のみを入力し、応答を出力する 1 ターンの対話システムを扱う。 ## 2 関連研究 対話システムによる応答を評価する手法は、人手評価と自動評価に分けられ、さらに自動評価は正解文を必要とする評価と必要としない評価に分類できる。人手評価は、関連度、おもしろさ、流暢さなどの観点を設け、クラウドソーシング等で評価を集めるのが一般的である [12]。しかし、人手評価にはコストと時間が必要という問題がある。一方、自動評価として主に用いられるのは BLEU [1] で、正解文との N-gram の一致度で応答を評価するものである。しかし、BLEU と人手評価にはまったく相関がないことが示されている [13]。原因の 1 つは one-to-many [2] として知られる、一つの発話に対 図 1 提案システムの概要図 し、複数の適切な応答が存在する対話の性質にある。この性質を考慮したとき、正解文との一致度を計るような手法は応答の適切な評価手法とはいえない。そこで、自動かつ、正解文を必要としない評価手法が研究されており、DNNを利用した手法がある。Zhao ら [3] や Ghazarian ら [4] は、BERT [6] を人手評価のデータセットで学習させることで、人手評価と相関がある自動評価ができるシステムを構築している。 ## 3 提案手法: 応答生成・評価・選択 システム 対話システムとして、応答を生成するモデルと評価するモデルの 2 つを利用し、応答を複数生成、それらの応答を評価、もっとも高い評価を得た応答を選択して出力するシステムを提案する。提案システ么の概要図を図 1 に示す。応答を複数生成するために、グリーディーサーチ、ビームサーチ、サンプリングの 3 種類のデコーディング手法を用いる。特にサンプリングを繰り返すことで、多様な応答を得ることができる [14]。サンプリングは top-50 サンプリングを用いる。 応答生成モデルとしては Huggingface Transformers に登録されている sonoisa/t5-base-japaneseを Finetuning したものを利用する。sonoisa/t5-base-japanese は、Raffel ら [5] にならって、日本語で事前学習が行われたモデルである。Fine-tuning 用の対話コーパスとして、Twitter から Twitter APIを用いて我々が収集したツイートーリプライ対を利用する。学習に用いる対話ぺア数は 800,000 ペアである。表 1 応答評価コーパスのデータ数 応答評価モデルについては 4 節で詳しく述べる。 ## 4 応答評価モデルの構築 応答評価モデルの学習に用いるのに適切な日本語のコーパスは公開されていないため、まず応答評価コーパスを構築し、そのコーパスを利用して応答評価モデルを作る。 ## 4.1 応答評価コーパス クラウドソーシングを利用して、発話応答ペアに 1 から 5 の評価を付与する。評価観点は、対話システムの評価において一般的に用いられている関連度、おもしろさ、会話相手としての魅力の 3 つに、会話相手の感情に寄り添っているかを加えた 4 つである。会話相手の感情に寄り添っているか、については、対話システムが生成する応答はユーザの感情に寄り添うべきもので、それを評価したいため追加した。各観点は以下のようにして尋ねた。質問に含まれる A、B はそれぞれ、ある発言をした話者と、 それに対する応答をした話者を表す。 ・関連度「B の応答は A の発言に関係したものですか」 ・おもしろみ 「B の応答はおもしろいですか」 ・魅力 「あなたが A だとして、B は会話相手として魅力的であり、B ともっと会話を続けたいですか」 ・感情「B の応答は $\mathrm{A}$ の感情に寄り添っていますか」 発話応答ペアとしては、Twitter のツイートーリプライ対 (Twitter データセット) と、Twitter のツイー 卜-応答生成モデルの出力対 (モデルデータセット) の 2 種類を利用する。モデルデータセットについては、 1 つ発話に対して応答生成モデルが出力した、複数の応答に関して評価を集めることで、応答が異なれば評価が異なる様子を表現したデータセットとする。複数の応答は 3 種類のデコーディング手法を利用して得た。各観点のデータ数を表 1 に示す。 表 2 応答評価モデルの評価例 表 3 応答評価モデルの性能 表 4 魅力の評価における応答評価モデルの出力と応答の表層的性質の相関 データセットの例を付録 A に示す。 1 つの発話応答ペアに対して 5 人のクラウドワー カから評価を集め、その平均を評価値とする。 本研究においてクラウドソーシングはすべて、 Yahoo!クラウドソーシングを利用して行った。 ## 4.2 応答評価モデル 2 節の Zhao ら [3] にならい、BERTを応答評価コーパスで Fine-tuning することで、応答評価モデルを構築する。モデルは Huggingface Transformers の cl-tohoku/bert-base-japanese-whole-word-masking を利用する。評価値は BERT の出力の [CLS] に対応するべクトルを線型層に通してから、Sigmoid 関数に入力することで、 0 から 1 の值を得て、それをスケール変換して 1 から 5 の連続値として得ている。 なお、対話システムによる応答の人手評価は複数の観点を設けるのが一般的であるが、本研究の応答生成・選択・評価システムにおいては、それら複数の観点の総合といえる、会話相手としての魅力を評価観点とする応答評価モデルを利用する。 ## 4.3 応答評価モデルの評価 応答評価モデルの評価には、 5 分割交差検証を行い、評価指標として、ピアソンの相関係数とスピア表 5 魅力の評価における応答評価モデルと応答の表層的性質による評価の性能比較 マンの順位相関係数を用いた。評価結果を表 3 に示す。 応答評価モデルが応答の長さ、発話との単語の重複割合のような、表層的な性質に基づいて評価をしていることが懸念されるため、それら表層的性質とモデルの出力の相関を調べる。テストコーパスは、学習に使ったものとは別に Twitter から収集したツイートと、そのツイートを応答生成モデルに入力したときの出力 14,000 ペアであり、評価観点は魅力である。ここでは相関係数はピアソンの相関係数である。結果を表 4 に示す。相関係数がそれほど高くないことから、応答評価モデルの評価が、それら表層的性質のみを手がかりにしていないことがわかる。 また、表層的な性質による評価をべースラインととらえ、人手評価との相関を調べ、応答評価モデルと比較する。テストコーパスは学習に用いたコーパスと同じ、 4.1 節の対話評価コーパス 8,000 ペアで、評価観点は鬿力である。ここでは相関係数はピアソンの相関係数である。応答評価モデルの相関係数は、 5 分割交差検証によって得たものである。結果を表 5 に示す。結果から、表層的な性質による単純なべースラインに比べて、応答評価モデルによる評価がより正確に人間の評価を表現できることがわかる。 応答評価モデルによる評価の例を表 2 に示す。発話に関連していて、丁寧な応答がより高い評価を得ており、人間に近い評価ができていることがわかる。 表 6 発話「美味しいですよね。台湾茶。大好き。」に対する提案システムの応答例 & $\mathbf{3 . 9}$ \\ 表 7 提案システムの評価結果 ## 5 応答生成・評価・選択システムの 評価 ## 5.1 実験設定 提案手法の有効性を確かめるため、クラウドソー シングによる人手評価を行う。ある発話に対する、提案システムの応答とベースラインの対話システムの応答の 2 つをクラウドワーカに見せ、どちらの応答をする相手と会話を続けたいかを尋ねる。1つの発話応答ペアについて 3 人に尋ね、多数決をとって結果とする。テストコーパスは応答生成モデルの学習に使ったものと同様の Twitterコーパスで、 2,000 文である。ベースラインとしては以下の 2 種類を用いる。 ・グリーディーシステム 応答生成モデルがグリーディーサーチによる応答だけを生成するシステム ・ランダムシステム 応答生成モデルが生成した複数の応答を評価せず、それらからランダムに選択した応答を出力とするシステム ランダムシステムと提案システムの応答生成モデルでは、グリーディーサーチによる応答 1 つ、ビームサーチによる応答 1 つ、サンプリングによる応答 5 つの計 7 つの応答を生成して、そこから 1 つを選択して出力とする。 ## 5.2 実験結果 実験結果を表 7 に示す。グリーディーシステム、 ランダムシステムどちらのシステムとの比較においても、提案システムが勝利する結果となり、提案手法の有効性が示された。 提案システムによって出力される応答の例を表 6 に示す。発話「美味しいですよね。台湾茶。大好き。」に対して応答生成モデルから 7 個の応答を得たが、グリーディーサーチとビームサーチによる応答は同一であった。またサンプリングによる応答は 2 つだけを示している。複数の応答の中で、人間からの評価が高いと考えられる応答「美味しいですよね。味も飲みやすくて、お值段の割にちょっぴり高級感があって良いですよね」を選択できており、提案手法の有効性がわかる。 ## 6 おわりに 本研究では、人手評価を学習データとして学習した応答評価モデルを対話システム内に組み込むことで、人間からより良いと判断される応答を出力できる対話システムを構築することを目指した。応答生成モデルが生成した複数の応答を応答評価モデルで評価し、最適な応答を選択して出力することで、グリーディーサーチのみを利用するシステムや、複数の応答からランダムに応答を選択するシステムより良い応答を出力できることがクラウドソーシングによる人手評価によって示された。 DNN による応答評価モデルは応答の評価のみならず、本研究のように応答の生成に応用することや、対話コーパスのフィルタリングに利用することなどもでき、今後もさらなる研究が求められる。そのために、評価に関するデータセットが大規模に収集され、公開されることが期待される。 また、本研究では応答生成モデルと応答評価モデルは完全に独立して学習しており、本研究の発展として、応答生成モデルと応答評価モデルの相互作用を利用して学習するような構造が考えられる。 ## 謝辞 本研究は LINE 株式会社との共同研究の助成を受けて行った。 ## 参考文献 [1] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [2] Tiancheng Zhao, Ran Zhao, and Maxine Eskenazi. Learning discourse-level diversity for neural dialog models using conditional variational autoencoders. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 654664, Vancouver, Canada, July 2017. Association for Computational Linguistics. [3] Tianyu Zhao, Divesh Lala, and Tatsuya Kawahara. Designing precise and robust dialogue response evaluators. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 26-33, Online, July 2020. Association for Computational Linguistics. [4] Sarik Ghazarian, Johnny Wei, Aram Galstyan, and Nanyun Peng. Better automatic evaluation of open-domain dialogue systems with contextualized embeddings. In Proceedings of the Workshop on Methods for Optimizing and Evaluating Neural Language Generation, pp. 8289, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [5] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [7] Yuanlong Shao, Stephan Gouws, Denny Britz, Anna Goldie, Brian Strope, and Ray Kurzweil. Generating high-quality and informative conversation responses with sequence-to-sequence models. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 2210-2219, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [8] Angela Fan, Mike Lewis, and Yann Dauphin. Hierarchical neural story generation. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 889-898, Melbourne, Australia, July 2018. Association for Computational Linguistics. [9] Emily Dinan, Stephen Roller, Kurt Shuster, Angela Fan, Michael Auli, and Jason Weston. Wizard of wikipedia: Knowledge-powered conversational agents. In Interna- tional Conference on Learning Representations, 2019. [10] Tatsuya Ide and Daisuke Kawahara. Multi-task learning of generation and classification for emotion-aware dialogue response generation. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Student Research Workshop, pp. 119-125, Online, June 2021. Association for Computational Linguistics. [11] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2204-2213, Melbourne, Australia, July 2018. Association for Computational Linguistics. [12] Sarah E. Finch and Jinho D. Choi. Towards unified dialogue system evaluation: A comprehensive analysis of current evaluation protocols. In Proceedings of the 21th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 236-245, 1st virtual meeting, July 2020. Association for Computational Linguistics. [13] Chia-Wei Liu, Ryan Lowe, Iulian Serban, Mike Noseworthy, Laurent Charlin, and Joelle Pineau. How NOT to evaluate your dialogue system: An empirical study of unsupervised evaluation metrics for dialogue response generation. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2122-2132, Austin, Texas, November 2016. Association for Computational Linguistics. [14] Hannah Rashkin, David Reitter, Gaurav Singh Tomar, and Dipanjan Das. Increasing faithfulness in knowledgegrounded dialogue with controllable features. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 704-718, Online, August 2021. Association for Computational Linguistics. 表 8 応答評価コーパスの例 ## A 応答評価コーパスの例 応答評価コーパスの例を表 8 に示す。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B3-4.pdf
# 表出感情と経験感情をタグ付けした対話コーパスの構築 井手竜也 河原大輔 早稲田大学理工学術院 \{t-ide@toki . , dkw@\}waseda.jp ## 概要 人間は,対話において相手の感情を認識し,共感や慰めなどを込めて応答する. 本論文では,このような能力をもつ対話システムの開発に向けて,感情タグ付き対話コーパスを構築する。ある発話を話した人が表した感情(表出感情)と,それを聞いた人が感じた感情(経験感情)を,クラウドソーシングによってタグ付けする. 日本語の感情タグ付き対話コーパスを構築し,それを統計的に分析した結果,対話における表出・経験感情の特徴および違いが明らかになった. また表出・経験感情の認識実験を行い,経験感情の認識がより難しいことや,2 種類の感情認識が互いの性能を向上させることを示した. ## 1 はじめに 社会のオンライン化に伴って,テキストベースのコミュニケーションは不可欠なものとなっている. Transformer [1] の登場や転移学習 $[2,3]$ の成功を契機に, 対話システムの性能も急速に向上している. 最近では,人間らしい応答ができるオープンドメインのチャットボットを目指した研究 $[4,5,6]$ もある. 人間は相手がもつ感情を認識し,それにふさわしい感情(共感や慰めなど)を込めて応答を返すと考えられる. 対話システムを人間らしくするための鍵として,相手の感情をふまえて応答を生成すること [7] が挙げられる.感情タグ付き対話コーパスはいくつか存在するが,発話ごとに話者の感情のみを夕グ付けしているもの $[8,9]$ が多く, 不十分である. 本研究では,相手の感情を認識した上で適切な感情を込めた応答を生成できる対話システムを実現するための感情タグ付き対話コーパズ1)を構築する。話し手が発話に込めた感情(表出感情)と発話の聞き手が受けた感情(経験感情)を発話ごとにタグ付けする。なお本研究ではこれを日本語で構築する  図 1: 表出感情と経験感情のタグ付け が,手法はどの言語にも適用できる. 手法としては,Twitter から 2 人が交互に話すような対話を収集し,対話コーパスとする.Plutchikの感情の輪 [10]をラベルに採用し,クラウドソーシングによって各発話における表出感情と経験感情を夕グ付けする。複数のラベルがタグ付けされることを許し,投票数に応じて各ラベルに強弱を設ける. 上記の手法によって,3,828 対話(13,806 発話)からなる対話コーパスを構築した. 統計的な分析から,表出感情と経験感情の関係が明らかになった。 さらに表出感情と経験感情を BERT [3] で認識する実験を行った.各ラベルの強度を回帰させ,相関係数を評価指標として性能を評価した. 実験の結果から,表出感情よりも経験感情を認識する方が難しいことや,それらのマルチタスク学習が認識の性能を向上させることがわかった. 本研究で構築したコー パスによって,対話における感情の認識および感情に基づく応答生成の研究が促進されると期待する. ## 2 関連研究 EmoBank [11] はある文を書いた人とそれを読んだ人の感情を,クラウドソーシングによってタグ付けしたコーパスである. WRIME [12] は EmoBank と同様, 主観的と客観的な感情をタグ付けした日本語のコーパスである. EmoInt [13] は怒り・恐れ・喜 表 1: 表出感情と経験感情がタグ付けされた対話の例 び・悲しみの 4 感情について,その強度をタグ付けしたコーパスである. StoryCommonsense [14] は短い物語をなす一連の文に,登場人物の Motivation と Emotional Reaction をタグ付けしたコーパスである. しかし,上記のコーパスはどれも対話に関するものではない. StoryCommonsense は本研究に似ているが,対象は物語である。 EmpatheticDialogues [7] は 2 人の話者を Speaker と Listener に割り当て, 対話ごとに Speaker の感情とその状況をタグ付けした対話コーパスであり,日本語版 [15] も存在する. EmpatheticDialogues は対話ごとに感情をタグ付けしているため,発話ごとの感情を理解することには向かない. DailyDialog [8] は発話ごとに感情と意図をタグ付けした対話コーパスである. EmotionLines [9] は発話ごとに感情をタグ付けした対話コーパスで,話者が複数人である.本研究では DailyDialog や EmotionLines と同じく, 発話ごとに感情をタグ付けする。これらの対話コーパスは発話に込められた感情のみをタグ付けしているが,本研究ではその発話を聞いた相手が抱く感情もタグ付けする. さらに本研究では複数の感情を許容し, それぞれの感情に強弱を設ける。 ## 3 コーパスの構築 ## 3.1 対話の収集 対話は Twitter APIによって収集する。2 2 人のユー ザによるツイートとリプライのかけあいを対話とみなし,それを抽出する。ただしハッシュタグや URL,画像を含む対話はすべて除外する.対話あたりの発話数は 2 から 9 までに絞り,いくつかのフィルタを施す。まず特殊な記号や絵文字を含む対話はすべて除外する. ほかにも 4 回以上繰り返される文字や単語を含む場合や,発話が 4 文字未満の場合も除外する. 上記の手法によって,3,828 対話(13,806 発話)を獲得した. ただしターン数が多い対話ほど,そのサンプル数は減る傾向にある.表 2: ラベルごとの発話数 ## 3.2 表出感情と経験感情のタグ付け 本研究では Plutchik の感情の輪 [10] をラベルに採用する. ${ }^{2}$ 具体的には $\{$ 怒り, 期待, 喜び, 信頼, 恐れ, 驚き, 悲しみ, 嫌悪 $\}$ の 8 感情である. 発話ごとにそれを話した人が抱いていた感情(表出感情)とそれを聞いた人が抱いた感情(経験感情)をタグ付けする.つまり発話ごとに主観的な感情と客観的な感情 $[11,12]$ をタグ付けすることになる.表出感情と経験感情を分けてタグ付けすることで,発話間や話者間における感情の変化を捉える。 感情のタグ付けはクラウドソーシングによって行う. プラットフォームとしては Yahoo!クラウドソー シング3)を用い,クラウドワーカに発話とその履歴を与え,各感情の有無を問う.複数の感情を選択することや,どの感情も選択しないことを許容する。発話ごとに 7 人のクラウドワーカを雇い,半数(4 人)以上が選んだ感情を強ラベル,4 分の 1 (2人)以上が選んだ感情を弱ラベルとする。このタグ付けを表出感情と経験感情のそれぞれについて独立に行う。タグ付けされた対話の例を表 1 に示す。 ラベルごとの発話数を表 2 に示す。およそ 9 割の発話がいずれかの弱ラベルを伴っており,その他の 2)感情タグ付きコーパスでは,Ekman の 6 感情 [16] や Plutchik の感情の輪 $[10]$ がよく用いられる.クラウドソーシングを用いた予備実験の結果,後者の方がより感情タグとして適切であることが明らかになった.したがって本研究ではそれを採用する. 3) https://crowdsourcing.yahoo.co.jp/ (a) 表出感情と経験感情(特定の発話について) (b) 経験感情と次の表出感情(特定の話者について) 図 2: 表出感情と経験感情の関係 感情や無感情のラベルが大部分を占める DailyDialog [8] や EmotionLines [9] よりも有効である. ## 4 コーパスの分析 構築した対話コーパスにおける,表出感情と経験感情の関係を分析した. 具体的には,次のような関係が考えられる。 1. 同一の発話に対する表出感情と経験感情(異なる話者) 2. ある発話に対する経験感情と次の発話に対する表出感情(同一の話者) 強ラベルに関する,それぞれの混同行列を図 2 に示す. なお各要素の値は行方向に正規化してある.対角成分における値が大きくなっていることから,同一の発話および同一の話者についての関係としては,同じ感情が起こりやすいことが言える.異なる感情間の関係としては,図 $2 \mathrm{a}$ から,期待・信頼・驚きの発話に対して喜び,怒りと嫌悪にはそれぞれ嫌悪と悲しみを抱きやすいことがわかる.また図 $2 b$ から,信頼と怒りを抱いたあとはそれぞれ喜びと嫌悪を表しやすいことがわかる. 図 $2 \mathrm{a}$ と図 $2 \mathrm{~b}$ を比較すると,特に悲しみに対する反応が異なり,特定の話者においては話者が悲しみを受けたとき次に期待を表すことがある.これは相手の発話に対して悲しみを抱いた話者が,相手を慰めるために期待感のある発話を返していると考えられる。 ## 5 感情認識の実験 表 3: モデルごとの相関係数 表 4: ラベルごとの相関係数 (NICT) ## 5.1 モデル 表出感情と経験感情について,それらの認識を実験する. 対象の発話とそれまでの履歴から,各ラべルの強度を回帰することを考える.ラベルがない場合に 0 ,弱ラベルと強ラベルにそれぞれ 1 と 2 を充てる. モデルは平均二乗誤差で学習する。 本研究ではモデルとして BERT [3] を利用する.事前学習済み BERT として,京都大学 [17]の WWM 版と $\mathrm{NICT}^{4)}$ の BPE 版を採用する. 入力は Juman++ [18] によって単語に分割し,さらに BPE [19] によってサブワードに分割する。履歴と対象の発話を [SEP] で結合し,[CLS] に対するべクトルを全結合 4) https://alaginrc.nict.go.jp/nict-bert/index.html 表 5: 予測結果の例(NICT,最後の発話に対する表出感情) & 強い悲しみ強い悲しみ \\ 表 6: 特定の発話に関するマルチタスク学習 表 7: 特定の話者に関するマルチタスク学習 層に与える. 全結合層から得た 8 次元のベクトルに関して,各要素を 8 種類のラベルそれぞれの強度に回帰する。 対話コーパスを 8:1:1 に分割し, それぞれ学習データ・検証データ・テストデータに充てる。学習は 3 エポックと定め,テストデータに対して評価を行う. 評価指標には Pearson と Spearman の相関係数を採用する。 ## 5.2 結果 モデルごとの相関係数を表 3 に示す. モデルとしては,どの値も NICTがもっとも高い. 表出感情と経験感情を比較すると,どのモデルも経験感情の値が低い。つまりある発話を話した人が抱いていた感情よりも,それを聞いた人が抱いた感情を予測することの方が難しい.NICT のモデルに関する,ラべルごとの相関係数を表 4 に示す. 表 4 と表 2 を比較すると,ラベルの発話数が多いほど相関係数の値も高くなっていることがわかる.モデルによる予測結果の例を表 5 に示す. ## 5.3 マルチタスク学習 単一のモデルに表出感情と経験感情の両方を認識させることを考える. 表出感情と経験感情には相関があるため,このことはそれぞれの認識に良い影響 があると考えられる.タスクごとに全結合層を用意し,それらを同時に訓練する。ロスはそれぞれに対して計算し,その算術平均を全体のロスとしてパラメータを最適化する。 4 章の関係を踏まえ,特定の発話と特定の話者に関する表出感情と経験感情をマルチタスク学習 [20] する。また訓練データとテストデータが異なる場合も実験する、マルチタスク学習の相関係数を表 6 と表 7 に示す.まず訓練とテストでデータが異なる場合,それらが同じ場合よりも値が低い。これは表出感情と経験感情を分けてタグ付けすることに意味があることを示している。マルチタスク学習としては,表出感情と経験感情のどちらもそれらを同時に学習させたときの方が値は高い. つまり表出・経験・次の表出感情は互いに助け合うと言える。 ## 6 おわりに 対話システムが話者の感情やその変化を理解するための,感情タグ付き対話コーパスの構築手法を提案した. クラウドソーシングによって,2人の話者による対話の発話ごとに,その発話を話した人が抱いていた感情(表出感情)とそれを聞いた人が抱いた感情(経験感情)をタグ付けする。 上記の感情タグ付き対話コーパスを日本語で構築し,それを統計的に分析した.感情ごとに頻出な単語の傾向や,特定の発話および話者における表出感情と経験感情の関係が明らかになった。また日本語の事前学習済み BERT [17]を用いて,表出感情と経験感情の認識を実験した.経験感情の認識がより難しいことや,表出感情と経験感情のマルチタスク学習が互いの認識に対する性能を向上させることが示された。 ## 謝辞 本研究は LINE 株式会社との共同研究の助成を受けて行った. ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [2] Alec Radford, Karthik Narasimhan, Tim Salimans, and Ilya Sutskever. Improving language understanding by generative pre-training. 2018. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [4] Li Zhou, Jianfeng Gao, Di Li, and Heung-Yeung Shum. The design and implementation of XiaoIce, an empathetic social chatbot. Computational Linguistics, Vol. 46, No. 1, pp. 53-93, March 2020. [5] Daniel Adiwardana, Minh-Thang Luong, David R. So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu, and Quoc V. Le. Towards a human-like open-domain chatbot, 2020. [6] Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Eric Michael Smith, Y-Lan Boureau, and Jason Weston. Recipes for building an open-domain chatbot. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 300-325, Online, April 2021. Association for Computational Linguistics. [7] Hannah Rashkin, Eric Michael Smith, Margaret Li, and Y-Lan Boureau. Towards empathetic open-domain conversation models: A new benchmark and dataset. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5370-5381, Florence, Italy, July 2019. Association for Computational Linguistics. [8] Yanran Li, Hui Su, Xiaoyu Shen, Wenjie Li, Ziqiang Cao, and Shuzi Niu. DailyDialog: A manually labelled multiturn dialogue dataset. In Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 986-995, Taipei, Taiwan, November 2017. Asian Federation of Natural Language Processing. [9] Chao-Chun Hsu, Sheng-Yeh Chen, Chuan-Chun Kuo, Ting-Hao Huang, and Lun-Wei Ku. EmotionLines: An emotion corpus of multi-party conversations. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, May 2018. European Language Resources Association (ELRA). [10] Robert Plutchik. A general psychoevolutionary theory of emotion. In Theories of emotion, pp. 3-33. Elsevier, 1980. [11] Sven Buechel and Udo Hahn. EmoBank: Studying the impact of annotation perspective and representation format on dimensional emotion analysis. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, pp. 578-585, Valencia, Spain, April 2017. Association for Computational Linguistics. [12] Tomoyuki Kajiwara, Chenhui Chu, Noriko Takemura, Yuta Nakashima, and Hajime Nagahara. WRIME: A new dataset for emotional intensity estimation with subjective and objective annotations. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2095-2104, Online, June 2021. Association for Computational Linguistics. [13] Saif Mohammad and Felipe Bravo-Marquez. Emotion intensities in tweets. In Proceedings of the 6th Joint Conference on Lexical and Computational Semantics (*SEM 2017), pp. 65-77, Vancouver, Canada, August 2017. Association for Computational Linguistics. [14] Hannah Rashkin, Antoine Bosselut, Maarten Sap, Kevin Knight, and Yejin Choi. Modeling naive psychology of characters in simple commonsense stories. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2289-2299, Melbourne, Australia, July 2018. Association for Computational Linguistics. [15] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems, 2021. [16] Ekman Paul. An argument for basic emotions. In Cognition and Emotion, Vol. 6(3/4), pp. 169-200, 1992. [17] 柴田知秀, 河原大輔, 黒橋禎夫. Bert による日本語構文解析の精度向上. 言語処理学会第 25 回年次大会, 2019. [18] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Juman++: A morphological analysis toolkit for scriptio continua. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 54-59, Brussels, Belgium, November 2018. Association for Computational Linguistics. [19] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [20] Xiaodong Liu, Pengcheng He, Weizhu Chen, and Jianfeng Gao. Multi-task deep neural networks for natural language understanding. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 4487-4496, Florence, Italy, July 2019. Association for Computational Linguistics. 図 3: クラウドソーシングの例 表 8: ラベルごとに頻出な単語の Top-3 ## A クラウドソーシング 表出感情をタグ付けするクラウドソーシングの例を図 3 に示す. チェックボックス式のフォーマットを用いることによって,複数の感情が選ばれることを許容している。 ## B感情ごとに頻出な単語 感情ごとの発話がもつ特性を知るため,感情ごとに単語の頻度を求める. 本研究では強ラベルのみを対象とし, 品詞として動詞と形容詞を採用する. 品詞の解析は Juman++ [18] によって行い, 代表表記を抽出する.どの感情にも現れる普遍的な単語を除くため,IDFによるフィルタを施す.具体的には IDF が最大値の半分を下回った単語を無視する。 フィルタを施した,感情ごとに頻出な単語の Top-3を表 8 に示す. 喜びの動詞や喜び・恐れ・嫌悪の形容詞は表出感情と経験感情で等しい,一方で,怒り・嫌悪の動詞や信頼の形容詞は表出感情と経験感情で異なる. 喜びや驚きの動詞に「交じる」があるが,これは形容詞の「マジだ」が誤って識別されたものである.同様に,喜びの形容詞にある「孵る」は「帰る」に対する誤りである。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B3-5.pdf
# ソーシャルメディア上のインタラクションを利用した オープンドメイン対話応答生成 Ritvik Choudhary 河原大輔 早稲田大学理工学術院 \{ritvik@fuji.,dkw@\}waseda.jp ## 概要 人間のような豊かな会話能力を持つオープンドメイン対話システムの構築は、自然言語生成における課題の一つである。しかし、近年のこの分野の発展にもかかわらず、既存のオープンドメイン対話生成モデルは知識を取り込むことができず、未知の発話に対して反復的または典型的な応答をすることが多い。知識に基づく対話応答生成に関する先行研究は、主にペルソナの組み込みや、Wikipedia のような構造化された知識べースの検索に焦点を当てている。本研究は、より汎用的かつ単純なアプローチをとり、SNS に見られる社会的なインタラクションを通じて人間の応答行動を模倣することで、システムの雑談能力を向上させることを目的とする。提案手法では、Reddit から抽出されたコメントデータを大規模な知識源とみなし、ニューラル retriever を用いて関連文を抽出する。続いて、その関連文を付加文脈として発話文に連結し seq2seq generator に渡す。このような generator と retriever からなるモデルをオープンドメイン対話データセットを用いて学習し、自動及び人手評価した結果、提案手法の有効性を確認した。 ## 1 はじめに Siri、Google Assistant などの音声アシスタントの生活への浸透に伴い、雑談対話システムの重要性が増している。そのため、雑談対話における応答生成は、自然言語処理における主要なタスクの一つと言える。 しかしながら、既存の雑談対話応答生成モデルは、面白くない、あるいは有益な応答が得られないといった基本的な問題に依然として悩まされている $[1,2]$ 。この主な原因は、人間とは異なり、モデルは個性や知識などを持たないためと考えられる。 この問題に対処するために、近年の研究では、ぺルソナ $[3,4]$ 、知識ベース [5] などの付加的な文脈情報を考慮することが提案されている。これらに対して、本研究は、応答生成モデルの雑談能力を向上させるという、より一般的な立場からこの問題に取り組む。特に、人間が会話する実際の環境、すなわち、社会的インタラクションを利用することを考える。そのために、ソーシャルメディア上の多様な会話からなる外部知識べース SMIkb (Social Media Interactions knowledge base)を構築する。SMIkb は、既存の知識べースと異なり、自然言語で記述されており、応答生成において外部知識として利用する。 提案モデルは、 retriever と generator からなる。 retriever は、入力された発話で SMIkb を検索し、関連知識を得る。generator は seq2seq モデルからなり、入力発話の情報に加えて関連知識も踏まえて応答を生成する。具体的には、Dense Passage Retriever [6] (以下、DPR)を retriever に、BART [7] を generator に用い、これらを同時に学習する。オープンドメインの対話データセットで generator と retrieverを学習し、Reddit の投稿とコメントからなる SMIkbを retriever の知識源として利用する。 応答生成の実験を行ったところ、提案手法が既存の seq2seq ベースライン (BART) を自動および人手評価指標のすべてにおいて上回ることがわかった。 SMIkb を利用することで、生成された応答はより魅力的になるだけでなく、より適切かつ自然になることも示され、提案手法の有効性が確認された。 ## 2 関連研究 生成モデル近年、Transformer [8] や BERT [9] に始まるブレイクスルーにより、自然言語処理研究は急速に変化した。これらに自己回帰 seq2seq モデル (T5 [10]、BART)が続き、対話システムなどの生成モデルの性能が大幅に向上した。本研究では BART を強力なベースラインとして採用する。 知識に基づく応答生成モデル対話システムに文脈や外部知識などを組み込むことが、近年、大いに注目されている。PersonaChat [4] や EmpatheticDialogues [11] では、ペルソナや感情が考慮されている。また、知識べースを利用した研究も進んでいる $[2,5]$ 。対話以外では、外部知識を様々な QA タスクで利用する研究がある $[12,13]$ 。応答生成のために検索を行うという点で、本研究に最も近いのは、retrieverを別途学習し、学習データから検索した応答候補も generator に入力し生成するアプローチ [14]である。本研究は、retriever 単独の学習を必要とせず、かつ、生成時により大規模な外部知識べースを検索するという点で大きく異なる。また、Wikipedia などに基づく retriever を用いた知識対話生成においては、事実との矛盾を調査した研究もなされている [15]。本研究では、応答の内容が事実に即しているかというよりは、対話システムの雑談能力の向上に焦点を当てる。 ## 3 提案手法 本研究では、より自然で人間らしい応答生成のため、ソーシャルメディア上のインタラクションを外部知識ベース (SMIkb)として導入する。提案モデルは SMIkbを利用した retriever-generator の 2 段構成である。 ## 3.1 タスク設定 外部知識に基づく応答生成のタスクは、入力発話 $\mathbf{u}$ と関連知識を含む可能性のある文書集合 $D$ が与えられたとき、 $m$ 単語の応答 $\mathbf{r}=\left(r_{1}, r_{2}, \ldots, r_{m}\right)$ を予測するタスクとして定義することができる。本研究では、入力発話 $\mathbf{u}$ と知識べース Dに対して、モデルが確率 $p\left(r_{i} \mid \mathbf{r}_{<i}, \mathscr{D} ; \theta\right)$ で応答 $\mathbf{r}$ を生成するように学習する( $\theta$ はモデルパラメータを表す)。 ## 3.2 モデル 先行研究 $[12,16]$ における retriever に基づくQA システムにならい、本研究の応答生成タスクにおいても retriever と generator $の 2$ 段構造を採用する。図 1 に提案モデルの概要を示す。図に示した通り、本モデルの対話応答生成は、2 段階のプロセスとして定式化する。(1) retriever はあらかじめ索引付けされた SMIkb から入力発話に関連する上位 $k$ 文書を検索し、(2) generator は検索された文書と発話が連結 図 1 : 提案モデルの概要 されたものが大力され、応答を生成する。 具体的には、事前学習済みの Dense Passage Retriever (DPR) を retriever とし、大規模コーパスで事前学習済みの seq2seq モデル BARTを generator として利用する。DPR は入力クエリ (発話) $\boldsymbol{u}$ に対する上位 $k$ 個の関連文書を検索するように学習された高効率なニューラル retriever である。この効率化は、クエリと知識ベース全体を独立した 2 個の BERT [9] のエンコーダーに通すことによって実現されている (図の $\boldsymbol{t}$ )。FAISS [17] ライブラリを用いて SMIkb のインデックスとなる埋め込みべクトルを事前に構築する。事前に構築することで、オフラインでの高速な検索が可能になる。 3.1 節のタスク設定に従い、発話 $\mathbf{u}$ と知識ベース Dからの上位 $k$ 文書 $d_{j}$ が与えられたときに、モデルが応答 $\mathbf{r}$ を生成する確率を次のように定義する。 $p(\mathbf{r} \mid \mathbf{u} ; \theta, \lambda)=\sum_{j}^{k} p_{\lambda}\left(d_{j} \mid \mathbf{u} ; \lambda\right) \prod_{i} p_{\theta}\left(r_{i} \mid \mathbf{u}, \mathbf{r}_{<i}, d_{j} ; \theta\right)$, ここで、 $\theta$ とは、それぞれ generator と retriever のパラメータを表す。これらは共に end-to-end で学習される。検索されるSMIkb においては正解の文書がタグ付けされていないため、関連文書を潜在変数とみなす。従って、デコーディングの際には、ビー ムサーチを用いて最も確率の高い最良の応答を返すために、検索された全ての文書に対してこの確率を周辺化する。 ## 4 実験 提案モデルを、様々な外部知識データセットとオープンドメイン対話データセットを用いて比較する。また、純粋な BARTによる二つのベースラインとの比較も行う。 表 1: 対話データセットの規模 ## 4.1 SMIkb 本研究では、対話システムの雑談能力を向上させることを目的として、人間の会話行動を蓄積した知識ベース SMIkbを構築する。SMIkb は、アメリカのニュース掲示板サイトである Reddit ${ }^{1}$ ) の 2020 年 (1 月 11 月) における人気スレッドタイトルとその上位 100 件のコメントから構成する。SMIkbを構築するために、オープンソースの Pushshift API [18]を通じ、合計 160 万件のデータをスクレイピングした。 SMIkb の一部を付録 A に載せる。 さらに、Reddit のような SNS から構築した SMIkb の有効性を検証するために、他に 2 種類の知識べー スを構築し比較する。一つは、Wikipedia 記事の夕イトルと冒頭 100 語からなる同サイズ (60万エントリを無作為に抽出) の Wikipedia 知識ベース (以下、「Wiki」)である。もう一つは、上記二つのデータベースの半分ずつを $1: 1$ で組み合わせたもの (以下、「Mix」)である。 ## 4.2 対話データセット 本研究では様々なオープンドメインの対話データセットと Reddit からスクレイピングした対話データセットを用いて、提案モデルの fine-tuning を行う。 オープンドメイン対話データセット高品質な日常対話データセットとして DailyDialog [19] と DailyDialog++ [20]、また、映画の台詞で構成された Cornell Movie-Dialogs Corpus [21] の 3 種類をマージして用いる。 Reddit さらに、SMIkbとは別に Redditから 20 万件のコメントペアを抽出し、擬似的な対話データセットとして対話データを補完する。 上記のデータセットはマルチターン対話であるが、本研究の設定にそぐわないため各シングルター ンを対話として抽出した。使用するデータセットの規模を表 1 にまとめる。  ## 4.3 実験設定 モデル提案する retriever-generator モデルは、事前学習された Dense Passage Retriever と BART-large (24 層、406M パラメータ) からなり、対話データセットを用いて fine-tuning する。モデルの学習には Adam optimizerを用い、バッチサイズ 1、学習率 $3 \times 10^{-5}$ のハイパーパラメータで学習する。 retriever の上位 $k$ 検索には $k=3$ を設定し、生成の戦略としてビームサイズ 5 のビームサーチを用いる。 ベースライン提案モデルの有効性を確認するために、 retriever なしの BART-large による二つのべー スラインを使用する。一つ目は、4.2 節で述べたデータセットのみで学習し、外部知識データベースの SMIkbを用いないものである (以下、「ベースライン 1$\lrcorner) 。 二つ$ 目として、retriever-generator $の 2$ 段構造を通して外部知識を利用することの有効性を確認するため、SMIkb の全データ (タイトルとそのコメント)を学習データに結合し、この新しい拡張データセットで純粋な BART-large を fine-tuning する (以下、「ベースライン 2」)。 ## 4.4 評価 外部知識の影響を確かめるため、生成された対話応答について自動評価と人手評価の両方を行う。それらの結果を表 2 にまとめる。 自動評価関連性の指標である BLEU [22] スコアに加えて、生成された応答の多様性について、 Distinct-N [1] も算出する。 人手評価自動評価指標は、生成された対話応答の実際の質とあまり相関がないことが先行研究で報告されている [23]。本研究では、Amazon Mechanical Turk ${ }^{2}$ を用いてクラウドソーシングを行い、生成結果について以下の三つの評価指標で人手評価も行う。 ・関連性 (Relevance): その応答が発話に関連しているかどうか ・エンゲージメント (Engagement): その応答をした相手とさらに会話を継続したいかどうか ・知識 (Knowledge): その応答が知識に富んでいるかどうか 評価者となるクラウドワーカーには、テストデータから無作為に選んだ 100 個の応答を上記の各指標に 2) Amazon Mechanical Turk: https://www.mturk.com 表 2: 生成された応答の自動評価と人手評価の結果。モデル (テストデータを除く)の中で最もスコアが良いものに「*」 を付与した。ODDは 4.2 節の Open-Domain Dataset の集合である。 } & \multirow[t]{2}{*}{ 知識ベース } & \multicolumn{3}{|c|}{ 自動評価 } & \multicolumn{3}{|c|}{ 人手評価 } \\ Here comes the birthday cake. Wow, what a lovely cake. I'll Wow, what a beautiful cake. It Really? Wow. Happy birthday Thank you. have a piece. must have tasted as good as I to you! You look so healthy. expected. & & & & I don't think so. \\ ついて 1~5 の尺度で採点するよう求める。各応答は 7 人の評価者によって採点し、最終的なスコアはそれらの平均値とする。 ## 4.5 結果 自動評価では、生成時に retriever を通じて SMIkb を利用する提案手法が、生成される応答の質を向上させ、より多様な応答を可能にすることが確認された。また、すべての評価指標において 2 種類のベー スラインより提案手法の方が高性能であることがわかった。さらに、Redditベースの SMIkb モデルは他の組み合わせよりも優れており、高品質な応答の生成につながったと考えられる。 クラウドソーシングによる人手評価でも同様の傾向が見られ、提案モデルの全ての組み合わせに対するスコアがベースラインよりも高かった。ブートストラップ法に基づく有意性検定により、全ての観点においてべースライン 2 と提案手法それぞれの人手評価スコアの差を検証したところ、統計的に有意であることが分かった $(p<0.01)$ 。当初の仮説通り、SMIkb モデルはエンゲージメントや雑談能力の面で最も高いスコアを記録した。一方、SMIkbと Wikipedia の組み合わせ (Mix) は、会話の関連性と 「知識性」のバランスが取れており、関連性のスコアが人間の応答に対するスコア (Gold) を上回った。 これは、本研究の対象であるシングルターン評価の場合、SMIkb に Wikipediaを加えた提案手法による応答はクラウドワーカーの評価者にとってより関連性があるように感じられたためと考えられる。 各モデルによる生成応答の例を表 3 に示す。 ## 5 おわりに 本研究では、対話システムの雑談能力を向上させることを目的として、SNS 上のインタラクションからなる SMIkbを備えた retriever-generator 2 段モデルを提案した。提案手法は、ニューラル retriever と seq2seq 生成モデルを一括で fine-tuning し、生成時には関連知識を知識ベースから抽出することによって、より自然な対話応答を実現する。実験では、本研究で構築した SMIkb に基づく応答生成は、自動評価とクラウドソーシングによる人手評価の両方によって、より多様で適切、かつ魅力的であることが示され、ベースラインと比較して性能の改善が確認された。 ## 謝辞 本研究は LINE 株式会社との共同研究の助成を受けて行った。 ## 参考文献 [1] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics. [2] Marjan Ghazvininejad, Chris Brockett, Ming-Wei Chang, Bill Dolan, Jianfeng Gao, Wen-tau Yih, and Michel Galley. A knowledge-grounded neural conversation model. arXiv preprint arXiv:1702.01932, 2017 [3] Jiwei Li, Michel Galley, Chris Brockett, Georgios Spithourakis, Jianfeng Gao, and Bill Dolan. A persona-based neural conversation model. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 994-1003, Berlin, Germany, August 2016. Association for Computational Linguistics. [4] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2204-2213, Melbourne, Australia, July 2018. Association for Computational Linguistics. [5] Emily Dinan, Stephen Roller, Kurt Shuster, Angela Fan, Michael Auli, and Jason Weston. Wizard of wikipedia: Knowledgepowered conversational agents. In International Conference on Learning Representations, 2019. [6] Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, and Wen-tau Yih. Dense passage retrieval for open-domain question answering. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6769-6781, Online, November 2020. Association for Computational Linguistics. [7] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics. [8] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need, 2017. [9] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [10] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer, 2020. [11] Hannah Rashkin, Eric Michael Smith, Margaret Li, and Y-Lan Boureau. Towards empathetic open-domain conversation models: A new benchmark and dataset. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguis- tics, pp. 5370-5381, Florence, Italy, July 2019. Association for Computational Linguistics. [12] Patrick Lewis, Ethan Perez, Aleksandra Piktus, Fabio Petroni, Vladimir Karpukhin, Naman Goyal, Heinrich Küttler, Mike Lewis, Wen-tau Yih, Tim Rocktäschel, Sebastian Riedel, and Douwe Kiela. Retrieval-augmented generation for knowledge-intensive nlp tasks. In H. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 9459-9474. Curran Associates, Inc., 2020. [13] Danqi Chen, Adam Fisch, Jason Weston, and Antoine Bordes. Reading Wikipedia to answer open-domain questions. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1870-1879, Vancouver, Canada, July 2017. Association for Computational Linguistics. [14] Jason Weston, Emily Dinan, and Alexander Miller. Retrieve and refine: Improved sequence generation models for dialogue. In Proceedings of the 2018 EMNLP Workshop SCAI: The 2nd International Workshop on Search-Oriented Conversational AI, pp. 87-92, Brussels, Belgium, October 2018. Association for Computational Linguistics. [15] Kurt Shuster, Spencer Poff, Moya Chen, Douwe Kiela, and Jason Weston. Retrieval augmentation reduces hallucination in conversation, 2021 . [16] Kelvin Guu, Kenton Lee, Zora Tung, Panupong Pasupat, and MingWei Chang. Realm: Retrieval-augmented language model pretraining, 2020. [17] Jeff Johnson, Matthijs Douze, and Hervé Jégou. Billion-scale similarity search with gpus. arXiv preprint arXiv:1702.08734, 2017. [18] Jason Baumgartner, Savvas Zannettou, Brian Keegan, Megan Squire, and Jeremy Blackburn. The pushshift reddit dataset. In Munmun De Choudhury, Rumi Chunara, Aron Culotta, and Brooke Foucault Welles, editors, Proceedings of the Fourteenth International AAAI Conference on Web and Social Media, ICWSM 2020, Held Virtually, Original Venue: Atlanta, Georgia, USA, June 8-11, 2020, pp. 830-839. AAAI Press, 2020. [19] Yanran Li, Hui Su, Xiaoyu Shen, Wenjie Li, Ziqiang Cao, and Shuzi Niu. DailyDialog: A manually labelled multi-turn dialogue dataset. In Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 986-995, Taipei, Taiwan, November 2017. Asian Federation of Natural Language Processing. [20] Ananya B. Sai, Akash Kumar Mohankumar, Siddhartha Arora, and Mitesh M. Khapra. Improving dialog evaluation with a multireference adversarial dataset and large scale pretraining. Transactions of the Association for Computational Linguistics, Vol. 8, p. 810-827, Dec 2020. [21] Cristian Danescu-Niculescu-Mizil and Lillian Lee. Chameleons in imagined conversations: A new approach to understanding coordination of linguistic style in dialogs. In Proceedings of the 2nd Workshop on Cognitive Modeling and Computational Linguistics, pp. 76-87, Portland, Oregon, USA, June 2011. Association for Computational Linguistics. [22] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [23] Chia-Wei Liu, Ryan Lowe, Iulian Serban, Mike Noseworthy, Laurent Charlin, and Joelle Pineau. How NOT to evaluate your dialogue system: An empirical study of unsupervised evaluation metrics for dialogue response generation. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2122-2132, Austin, Texas, November 2016. Association for Computational Linguistics. 表 4: SMIkb の一部 SMIkb タイトルコメント文 & \\ ## A SMIkb Reddit に基づくSNS データベース (SMIkb) の一部を表 4 に示す。検索はタイトルに対して行うが、応答生成の根拠となる付加文脈として本質が会話と近いコメント文を利用する。 ## B 人手評価: MTurk 応答生成の人手評価を行うため、Mturk 上タスク支持率 (過去のタスクによるクラウドワーカーの評価値) が 90\%以上の US 在住の英語話者に依頼した。平均報酬は 1 問あたり 1 セントに設定した。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B4-1.pdf
# 対話システムにおけるペルソナ更新の導入とペルソナの数によ る影響分析 吉田快 ${ }^{1}$ 品川政太朗 1,2 須藤 克仁 ${ }^{1,2}$ 中村 哲 1,2 1 奈良先端科学技術大学院大学 2 理化学研究所革新知能統合研究センター \{yoshida.kai.yf1, sei.shinagawa, sudoh, s-nakamura\}@is.naist.jp ## 概要 既存のペルソナ対話システムのペルソナは初めに条件付けられたもので固定されており,自動的に更新することができない. そのため,応答に含まれる新たなペルソナを考慮できないという課題がある.本研究ではシステムの応答履歴に応じて自動的にペルソナを更新するという新しい問題設定を考え,これを実現するために,ペルソナ追加機構を持つペルソナ対話システムを提案し, その際に起こりうる課題の調査を行った. ## 1 はじめに ペルソナと呼ばれる複数の記述文によって表現されるプロフィール情報をシステムに持たせることで,そのペルソナに沿った一貫性のある応答をする対話システムとしてペルソナ対話システム [1] がある. ペルソナ対話システムに対する既存のアプロー チでは,いくつかの文を明示的なシステムのプロファイルとして組み込むことが試みられている [2]. しかし, 既存のアプローチではペルソナが初めに条件付けされたもので固定されており,自動的に更新することができない,例えば,図 1 のように,システムに条件付けられていないぺルソナに関しての質問 (図 1 : ユーザー入力 1) に対しては, “I have two dogs” (システム応答 1)のような新たなぺルソナを含んだ応答を生成する可能性がある. そのため, システムが一貫した対話を行うにはこのような新たなペルソナも考慮する必要がある. そこで,本研究では,ペルソナ対話システムが応答履歴に応じて自身のペルソナを自動で更新するという新たな問題設定を考え,これを実現するために,ペルソナ追加機構を持つペルソナ対話システムを提案する. ペルソナ追加機構はシステムの応答履歴から Mazare らの研 図 1 ペルソナ追加機構を持つ対話システム (提案手法) を用いた会話例 究 [2] と同様に条件を満たす記述をペルソナとして抽出し,抽出されたペルソナをフィルタリングして既存のペルソナに追加する機構である. 提案手法では,図 1 のシステム応答 1 のように新しいペルソナを含む応答をした場合に,条件を満たす記述を新しいペルソナとして追加し,次の応答生成に用いることで,ユーザー入力 2 に “Dogs. They can be so loving. と応答することが期待できる. 提案手法では既存のペルソナに新しいペルソナを随時追加するため,ペルソナの数の変化が応答生成に影響を及ぼす可能性がある。そこで本研究では,この影響について調査を行い,ペルソナを更新する問題設定における課題について明らかにする。 ペルソナ追加機構のフィルタリングには, 入力された 2 つのペルソナ文が含意・中立・矛盾のいずれの関係にあるか分類する分類器 [3] を用いる. しかし,文献 [3] では含意のみしか扱っていない。 そこで本研究では含意・中立・矛盾を含む評価用データセットである Persona NLI データセットを新たに構築し, 分類器の精度評価を行うことで, この分類器の精度が本研究に用いる上で十分か確かめる. ## 2 関連研究 明示的なペルソナを用いた応答生成に,含意関係推論を組み合わせることで,限られた規模の対話 データで対話モデルを構築できる BERT-over-BERT (BoB) [4] がある.BoBでは,ペルソナ対話データで学習された応答生成用のデコーダと, 非対話型推論データで学習された,生成した応答をペルソナ文により一貫した表現に再調整するデコーダの 2 つのデコーダを用いることで,少量の対話データでのペルソナを含んだ応答生成を可能にしている. しかし, BoB は事前に与えられたペルソナでシステムのペルソナが固定されているため,長い対話を想定した場合,実際に生成された応答と異なった応答をすることが考えられる。 一方で,Transformerを用いて特定のユーザーの過去の対話履歴から暗黙的なペルソナを自動的に学習する手法 [5] がある. この手法はユーザーの応答履歴を逐次更新するため,実質的にペルソナの更新を応答ごとに行っているが,ペルソナが暗黙的であることから,ペルソナを最大限活用できていないことが考えられる。 本研究では,応答履歴から逐次的に明示的なぺルソナを更新することで,長い対話における応答の矛盾を削減し,よりペルソナを活用できるシステムが構築できることを期待する. ## 3 手法 ## 3.1 応答生成モデル 本研究では, ペルソナ追加機構の有無による応答生成への影響を検証するために,ベースとなる応答生成モデルとして,BERT-over-BERT (BoB) [4]を用いる.今回は著者らが公開しているコード1)を用いた. BoB は明示的なペルソナを用いた応答生成に,含意関係推論を組み合わせることで,限られた対話データで学習を可能にするモデルである.BoB の構造を図 2 に示す. BoB は図に示すようにエンコーダ $E$ と応答デコーダ $D_{1}, D_{2}$ の 3 つの BERT ベースのサブモジュールで構成されている. $D_{1}$ はペルソナ $P$ とクエリ $Q$ から応答ベクトル生成を行うデコーダである。また, $D_{2}$ は NLIコーパスによって,与えられたペルソナ $P$ に対して,より一貫した応答 $R_{2}$ を生成するように訓練されたデコーダであり, $D_{1}$ の出力である応答ベクトルとペルソナ $P$ から応答を再調整する。これにより, $D_{2}$ は $D_{1}$ よりもさらにぺルソナに対して一貫した応答を生成することができる. 生成された応答候補群からサンプリングする方  図 $2 \mathrm{BoB}$ の構造 法には,ペルソナの更新による影響を確認するため先行研究と同様の greedy searchを用いた. ## 3.2 ペルソナ追加機構 システムの応答履歴からペルソナを更新するために,ペルソナ追加機構を導入する.ペルソナ追加機構は,システムの応答履歴 $H$ から新しいペルソナを抽出し, 既存のペルソナに追加するために 2 つの段階を踏む.まず初めに,(a) 応答履歴 $H$ から Mazare らの研究 [2] と同様に以下の 3 つの条件を満たす記述をペルソナとして抽出する。 1. 4 から 20 の単語 (句読点を含む) で構成される 2. “I”か“my”という単語を含む 3. 名詞, 代名詞, 形容詞のうち少なくともどれか 1 つを含む そして,(b) 抽出されたペルソナを NLI モデルを用いた重複,矛盾フィルタの 2 種類のフィルタによって更新の有無を決定する.NLI モデルは,入力された 2 つの文の関係を含意・中立・矛盾の 3 つのラべルに分類する分類器である。本研究における NLI モデルは,事前学習済みの BERTを,ペルソナ対話データに基づいて構築された Dialogue NLI コーパス [3] によって fine-tuning することで作成できる.本研究では,公開されている学習済みモデル [3] を用いた。このモデルのペルソナの組み合わせにおける中立ラベルの予測精度は $94.48 \%$ とされている [3] が,含意や矛盾ラベルにおける予測精度は示されていないため,独自に Persona NLI データセットの構 築を行い,精度評価を行う。 ## 4 実験設定 実験では,まず検証に用いるモデル $(\mathrm{BoB})$ を作成し, ペルソナ追加機構に用いる NLI モデルの精度を調査する.これらを踏まえて,ペルソナの数による応答生成への影響について議論する。 ## 4.1 モデル構築 BoB は学習済みモデルを公開しておらず,新たに学習する必要がある. 本研究では, 応答生成モデルの構築のために,ペルソナが付与された対話データセットである Persona-Chat [1] と,2つの文章間の含意関係を推測するタスクの, 非対話型推論データセットである MNLI コーパス [6] を用いた (データセットの詳細は付録 A に記載した). ## 4.2 NLI モデルの精度調査 ペルソナの含意関係推論における既存の NLI モデルの精度調査を行うため,新たに評価用のデータセットを構築し,このデータセットに対する NLI モデルの分類結果を評価する. 本節では,この評価用のデータセットである Persona NLI データセットの構築方法について述べる。 ## Persona NLI データセット Persona NLI データセットはペルソナのペアに対して,MNLIコーパスと同様に含意 (e), 中立 (n), 矛盾 (c) をラベル付けしたデータセットである. デー タの総数は 401 であり,内訳は含意が 103,中立が 196,矛盾が 102 となっている。データは次のようにペルソナ文のペアを作り,ラベル付けを行った。 含意 Persona-Chat からペルソナをランダムに選択し,含意になるようなペルソナを人手で生成した。例えば,Persona-Chat に含まれている“i love watching superheroes shows”に対して,それと含意関係になるような “i like superheroes”を人手で生成しぺアを作った. 中立 Persona-Chat に定義されているぺルソナの中から,ペルソナを中立になるように選択し組み合わせた。 矛盾 Persona-Chat からランダムに選択したペルソナに対し,2 通りの方法で矛盾したペルソナのペアを作成した. 1 つ目は, “i work in a veterinary office”を“i work in supermarkets” のように矛盾し た文に書き換える方法であり,2つ目は否定を用いて “i love beef”を “i don’t like beef” のように書き換える手法である. 52 件を 1 つ目の方法で, 50 件を 2 つ目の方法で作成した. ## 4.3 ペルソナの数による応答生成への影響 の調査 ペルソナの数を変化させ,応答生成への影響を調べる方法について述べる。まず,定義されているぺルソナの数である 5 個より少ない場合は不必要な数を削除した. 6 個から 20 個の場合は重複や矛盾が無いように Persona-Chat に定義されているペルソナからランダムに追加し,20 個より多い場合は重複しないようにランダムに追加した. その後,数を変化させたペルソナと Persona-Chat の入力文を用いて応答生成を行った。 ## 評価指標 ペルソナ対話システムにおいては,(a) 多様性があり,(b) ペルソナに一貫した応答を行うことが望ましい,そのため,ここでは応答の多様性と,応答とペルソナの一貫性の 2 つの側面で生成された応答を評価する。応答の多様性は, distinct 1/2 (Dist.1/2) [7] を用いて評価を行う.Dist は式 (1)のように,生成された応答に含まれるユニークな n-gram の数を単語数でスケーリングした数によって,どの程度の語彙を含んだ応答なのか評価するものである. $ \text { distinct-n }=\frac{\mid \text { unique }(\text { n-gram }) \mid}{\mid \text { uni-gram } \mid} $ 応答の一貫性の評価には, Consistency Score (C.Score) [8]を用いる.これはモデルを用いてペルソナと生成した応答の一貫性を予測するもので,式 (2)のように生成された応答と応答生成に使用したペルソナを NLI 分類器によって含意,中立,矛盾に分類し,そのスコアの総和で評価を行う。 $ \begin{gathered} \operatorname{NLI}\left(r, q_{i}\right)= \begin{cases}-1 & r \text { が } p_{i} \text { と矛盾 } \\ 0 & r \text { が } p_{i} \text { と中立 } \\ 1 & r \text { が } p_{i} \text { と含意 }\end{cases} \\ \operatorname{C.Score}(r)=\sum_{i=1}^{t} \mathbf{N L I}\left(r, p_{i}\right) \end{gathered} $ ## 5 実験結果 ## $5.1 \mathrm{NLI$ モデルの精度} 予測結果の混同行列を表 1 に示す. 分類の結果, 全クラスの予測精度は約 $74 \%$ であった. ラベル別に見ると, 中立の正解率は約 $97 \%$ と高い結果となったが,含意は $58 \%$ ,矛盾は $45 \%$ という結果となった.矛盾を含意と誤って予測した原因として,語彙がかなり似ている文同士が含意と分類されやすいことが確認できた. 例えば, “i like apple” と “i hate apple” は矛盾であるが,含意と予測されてしまった. ## 5.2 ペルソナの数による影響 はじめに,学習時と同じペルソナ 5 個 (再現) の場合とペルソナの更新 (提案手法) を導入した場合の評価を表 2 に示す. 結果, Dist と C.Score の両方で提案手法が既存手法の再現を上回る結果であった. 表 2 再現したモデルと提案手法の評価 次にペルソナの数ごとのスコアを図 3 , 図 4 に示す. 結果として,C.Score はペルソナの数が増えるほどスコアが下がっていくことが確認できた。また,Dist についてはペルソナの数が少ないほどスコアが高く,増えるにつれてスコアが下がることが確認できた. 生成した応答の内容を確認してみると, ペルソナの数が増えるほど,入力に関わらず,ペルソナのみに依存した応答をすることが確認できた。 図 3 ペルソナの数による応答の一貫性への影響 図 4 ペルソナの数による応答の多様性への影響 ## 6 考察 表 2 の再現したモデルと提案手法では,システムの応答履歴からぺルソナを増やすことで, Dist と C.Score の両方を増加させることが確認できた。一方でペルソナの数を変化させた応答生成においては,ペルソナが増えるにつれて Dist と C.Score は下がることが確認できている. 原因として,ペルソナの数による実験では Persona-Chat に定義されている語彙を多く含むペルソナを追加しているため,モデルが機能し,複数のペルソナに沿った応答ができているため Dist が下がったことが考えられる。一方で,提案手法の実験では応答からペルソナを抽出し追加しているため, Persona-Chat のペルソナに含まれていない語彙を含んだペルソナが追加される可能性がある. そのためモデルが機能せず Dist が上がっていると考えられる。実際に学習データに定義されているペルソナのサブワードの種類が 3,940であるのに対し, 応答生成に使用したペルソナの内 1,567 が学習データに含まれていない語であった.また, ペルソナの数が 20 個程度になるまで Dist が低下し, それ以降はまた増加するのに関しても,同様にモデルが機能する限界と考えることができる。次に,ぺルソナが 64 個以上の場合にスコアが同じになってしまった現象については,ペルソナ 1 つに含まれる単語数がおよそ 6,7 個であることから,64 個より大きいペルソナを設定した場合に,エンコーダの上限に達してしまったと考えられる.C.Score については, ペルソナが増えることで一貫した応答ができないことが確認できた. しかし 20 個以上の場合は, ペルソナをランダムで選択しているため,その影響もあることが考えられる。 ## 7 まとめ 本研究では,システムの応答履歴でペルソナを更新することで応答生成に与える影響を分析した。ぺルソナの数による応答生成への影響の実験から,学習データに含まれていない語彙を持ったペルソナに対してはモデルが機能しないことや, ペルソナの数が膨大だと応答が固定化されることが示唆された. そのため, 今後の課題として, 未知語に対応でき, かつ応答生成に必要なペルソナのみを選択できるモデル構築が必要だと考えられる. ## 参考文献 [1] Zhang et al. Personalizing dialogue agents: I have a dog, do you have pets too? arXiv preprint arXiv:1801.07243, 2018. [2] Mazaré et al. Training millions of personalized dialogue agents. arXiv preprint arXiv:1809.01984, 2018. [3] Welleck et al. Dialogue natural language inference. arXiv preprint arXiv:1811.00671, 2018 [4] Song et al. BoB: BERT over BERT for training personabased dialogue models from limited personalized data. In Proc. ACL-IJCNLP, 2021. [5] Zhengyi Ma et al. One chatbot per person: Creating personalized chatbots based onimplicit user profiles. In Proc. SIGIR, 2021. ACM, 2021. [6] Williams et al. A broad-coverage challenge corpus for sentence understanding through inference. arXiv preprint arXiv:1704.05426, 2017 [7] Li et al. A diversity-promoting objective function for neural conversation models. arXiv preprint arXiv:1510.03055, 2015. [8] Lin et al. Personalizing dialogue agents via meta-learning. arXiv preprint arXiv:1905.10033, 2019. [9] Dinan et al. The second conversational intelligence challenge (convai2). arXiv preprint arXiv:1902.00098, 2019. ## A 付録 ## Persona-Chat Conv AI2 Persona-Chat (Dinan et al., 2019) [9] は,大規模なタスク指向ではない大規模なデータセットで,1,155 人の個性的なキャラクターが含まれており,それぞれが少なくとも5つのプロフィール文で構成されている。このデータセットは,Zhang らの作成した Persona-Chat (Zhang et al., 2018) [1] を応答候補が複数になるよう拡張したものである。 Persona-Chat は Amazon Mechanical Turk で収集されており,ペアの話者はそれぞれ与えられたプロフィールを条件に対話を行ったデータが収録されている. 本研究ではこのコーパスを 121,880 の学習用に, 9,558 を検証用に,7,504をテスト用に分割して使用した. ## MNLI コーパス Multi-Genre Natural Language Inference (MNLI) コー パス (Williams et al., 2018) は文章理解のための機械学習モデルの開発・評価に使用するために設計されたデータセットで,およそ 43 万件の自然言語推論 (文の含意関係の認識) のために利用可能なコーパスである. データの内訳は, 含意が 130,615, 中立が 130,590,矛盾が 130,590 となっている.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B4-2.pdf
# Minecraft での人間同士の共同作業における対話の分析 市川拓茉 1 東中竜一郎 ${ }^{2}$ 1 名古屋大学情報学部 2 名古屋大学大学院情報学研究科 \{ichikawa. takuma.wø@s.mail, higashinaka@i\}.nagoya-u.ac.jp ## 概要 近年,共同作業が可能な対話システムの構築に向けた研究が盛んに行われているが,創造的な課題の遂行に関する研究はほとんどなされていない. 本研究では,創造的な共同作業が可能な対話システムを目指し,その基礎データとして,Minecraftでの人間同士の共同作業データ 500 対話を収集した. 加えて,質の高い共同作業に重要な対話的要因を調べるために,質の高い共同作業と対話との関係性を分析した. その結果,質の高い共同作業のためには,作業者の間で同意を求め, それに対して同意していくプロセスをより多く行うことや,序盤にある程度のイメージを合意したうえで作業を進め,その後,実物を見ながら修正箇所や細かい部分を話し合うことが重要であることが分かった. ## 1 はじめに 対話システムと会話をする機会の増加に伴い $[1,2]$, 近年では,より高度な対話システムを目指して,人間と協調的にタスクを遂行する共同作業型の対話システムの研究が始まっている $[3,4]$. 対話システムにおける共同作業の研究では, サンドボックス型の 3D ゲームである. プレイヤー はアバターを操作することで Minecraft の世界で自由に活動することができる。また,マルチプレイに対応しており, 複数のプレイヤーが同一の環境で共同作業をすることが容易である. Minecraft を用いた研究の多くは所定の問題を解決するタイプの共同作業に関するものであり $[7,8,9]$, 創造的な共同作業についてはほとんど検討されていない。人間とシステムが協働する社会の実現のためには,システムは単に命令されて行動するのではなく, 人間の仲間として共同で価値を創造していくことが重要である.本研究では,人間とシステムが共同して新しい  ものを作りだす創造的な共同作業を遂行できる対話システムを目指し,その基礎的なデータとして, Minecraft での人間同士の共同作業データを収集し分析した. 具体的には,創造的な共同作業として共同建築タスクを設定し,Minecraft で作業を行う過程のテキストチャット,行動ログ,作業後のアンケー トを収集した.また,共同作業の質を評価するために,収集された作品に対して個性と美しさの観点から第三者評価を収集した。主観評価および第三者評価の高い共同作業に重要な対話的特徴について分析した結果,質の高い共同作業のためには,作業者の間で同意を求め,それに対して同意していくプロセスをより多く行うことや,序盤にある程度のイメー ジを合意したうえで作業を進め,その後,実物を見ながら修正箇所や細かい部分を話し合うことが重要であることが分かった. ## 2 Minecraft 共同作業コーパス 創造的な共同作業が可能な対話システムの実現に向けて,共同建築タスクの設定および基礎的なデー タの構築を行った.なお,データ収集の実施にあたっては,倫理的関連において所属組織の承認を得ている. ## 2.1 共同建築タスク Minecraft での創造的な共同作業を実現するために,2名の作業者が協力して個性的かつ美しい庭を作成する共同建築タスクを設定した。作成対象を庭とすることで,作業の難易度と作品のバリエーションを両立できると考えた. また,個性や美しさといった個人の価値観に左右される基準を設けることにより,作業者同士の話し合いによって創造的に作業を行えるようにした。 共同建築タスクでは,テキストチャットを用いて対話をしながらブロックの操作を行い,個性的かつ美しい庭を作成する. 建築可能範囲は縦横 10 マス,高さ 4 マスとした. 使用できるブロックは 17 図 1 共同建築タスクにおける共同作業の様子と作品 (実際に収集したデータから抜粋). 番号は表 1 における発話 IDであり,その発話が行われた時点に対応している. 種類に限った. 作業の制限時間は 20 分である. 以降,共同作業 1 回分のことを 1 対話と呼ぶ. ## 2.2 データ収集の手順 データ収集には Minecraft Java Edition 1.16.5を使用し,データ収集基盤には SpigotMC ${ }^{2}$ を使用する。 収集するデータはゲーム内テキストチャットのほか,ブロックの設置,破壊動作およびプレイヤーの移動動作であり,いずれもタイムスタンプが付与されている. 各動作において収集する情報は,作業者の位置情報 (座標データ (x,y,z), 視点情報 (yaw,pitch)),動作固有の情報 (チャット内容,ブロックの種類等),建築範囲の情報 $(10 \times 10 \times 4$ の範囲におけるブロックの種類) である. また,作業者に対し,共同作業の満足度を問うアンケートを実施する,アンケートでは,対話における主張や合意,作った作品などについて 7 つの質問を用意し,5 段階のリッカート尺度を用いて集める。 ## 2.3 収集されたデータ 表 2 に今回収集した 500 対話の統計量を示す. データ収集実験にはクラウドソーシング3)で募った 79 名が参加し,1 名当たりの作業回数は平均 12.7 回,最大 24 回であった. それぞれの共同作業は異なるぺアによって実施された. 1 回の作業時間は約  3) https://www. lancers.jp/表 1 図 1 の作業時の対話 \\ 25 分であり,作業報酬は 1 名当たり 585 円であった. 図 1 に収集された対話における作業の様子,表 1 にその対話内容を示す.この対話では,はじめにメインとなる要素を話し合って決めてから,それに付け足す形で細かい部分を作り上げている。 アンケート 7 項目のそれぞれのスコアは,平均が 4.34 から 4.65, 標準偏差が 0.67 から 1.02 であり, 質の高い共同作業のデータが多く得られた. ## 2.4 作品に対する第三者評価 作業者が主観的によい作品ができたと思っていても,客観的によい作品とは限らない。そこで,クラウドソーシング4)を用いて,収集された 500 個の作品に対してより客観的と思われる第三者評価を実施 4) https://crowdworks.jp/ した. 254 名の評価者が参加した. 1 個の作品に対して 10 名の評価者が評価を行った. 平均作業時間は約 42 分であり,作業報酬は 1 名あたり 700 円であった. 評価者は,はじめに,別途実施した予備実験において収集した 30 個の作品を見て,自身の中で評価基準を定め,その後, 20 個の作品に対して個性と美しさの観点から評価を行った. 個性と美しさの評価には 7 段階のリッカート尺度を用いた。 10 名による評価値の平均は,個性が平均 4.84 ,標準偏差 0.73 , 美しさが平均 4.32, 標準偏差 0.75 であった. 第三者評価についても比較的高いスコアが得られており, 質の高い共同作業が実施できたことが確認できた。 ## 3 共同作業における対話の分析 将来的に共同建築タスクを実施可能な対話システムを構築するために,主観評価および第三者評価の高い共同作業を可能にする対話的要因を分析した. ## 3.1 共同作業に有用な頻出表現 質の高い共同作業に重要な表現を見つけるために, 単語頻度の分析を行った. 共同作業の優劣は, アンケートによる作業者の主観評価 7 項目の総和 (満足度) および作品の第三者評価 (個性, 美しさ)の計 3 つの分類基準によって付け,収集された 500 対話すべてを上位 $20 \%$ と下位 $80 \%$ に分類した。 単体である程度の意味を持つ表現が抽出できるように, 単語の 4-gram に対して分析を行った. 分析の対象となる表現は収集した 16,221 発話に含まれる頻出上位 300 個の 4-gram とした. 収集した 500 対話に対して,それがある 4-gramを含むか否か,上位の対話に属するか否かをもとに $2 \times 2$ のクロス表を作成し,それに対してフィッシャーの正確確率検定を行った. 単語の抽出には形態素解析器として Janome ${ }^{5)}$ を使用した. また,4-gramとして助詞および助動詞のみで構成される表現については分析対象から除外した。 表 3 に各分類基準において上位の対話に有意に多く見られたものを示す. なお,主観評価による分類では多数の表現が得られたが, 第三者評価による分類では得られた表現は少数であった. 満足度の高い対話に頻出する表現は主に 2 つに分類できる.1つ目は「がいいですか」「(して)みま 5) https://github.com/mocobeta/janome表 3 分類基準 (満足度, 個性, 美しさ) ごとの頻出表現 ( $\mathrm{p}$値はフィッシャーの正確確率検定による。*は $\mathrm{p}<0.05$ ,** は $\mathrm{p}<0.01)$ \\ しょうか」,「でどうでしょう」等の相手に同意を求める表現である。これらは,相手にアイデアを提案する際や作業の方針を決める際の発話に確認された. 2 つ目は「なんですよ」,「そうですょね」,「いいですよ!」等の相手に好意的な評価を示す表現である.これらは,相手の意見や作ったものに対して好意的な評価を示し, 同意する際の発話に確認された。 第三者評価の高い対話については,頻出表現があまり得られなかったが,個性による分類では,「のはどうです(か)」と「っぽくなりました」が確認された.これらのうち,「のはどうです(か)」は相手にアイデアを主張し,それに対して同意を求める表現である. 美しさによる分類では,6つの表現が得られた.これらのうち,「しますか?」,「てみてもいい(ですか)」は相手に同意を求める表現であり,「いいかんじですね」,「もいいと思い(ます)」は相手に好意的な評価を示す表現である。 これらの分析をまとめると,いずれの分類においても同意に関する表現が多く見られた。このことから, 質の高い共同作業には作業者間で同意を求め, それに対して同意していくプロセスをより多く含むことが重要であることが定量的に確認できた. ## 3.2 共同作業の流れの分析 どのような流れの対話が質の高い共同作業につながるかを調査した. まず,共同作業の流れを分析するため,発話時における作品の完成度を時系列デー タとしてプロットし,それに対してクラスタ分析を 行った. 共同建築タスクでは 2 名の作業者が協力して作品を完成させるが,最後まで残っていた部分についてはすでに両者が納得していると考えられる. これを作品の完成度と捉え,以下の様に定義した。 $ \text { 作品完成度 }=\frac{\mid \text { Blocks }_{t} \cap \text { Blocks }_{\text {last }} \mid}{\mid \text { Blocks }_{\text {last }} \mid} $ Blocks $s_{t}$ は時刻 $t$ に設置されているブロックの集合, Blocks last は最終的な作品に使用されているブロックの集合を表す. 発話の時点とその時の作品完成度を時系列データとし,クラスタリングを行った。クラスタリングには $\mathrm{k}-S h a p e[10] を$ 使用した。また,光田ら [11] に従い,作品完成度は平均 0 ,分散 1 の正規分布に従うように正規化した. クラスタリングでは,クラスタ内誤差平方和が下げ止まった箇所が複数存在したため,各クラスタ数による結果を著者の 1 人が確認し,類似するクラスタが出現しないクラスタ数 6 を選択した。 図 2 亿得られたクラスタを示す. 各クラスタが全体に占める割合は,クラスタ 1 が $4.4 \%$ ,クラスタ 2 が $19.6 \%$ ,クラスタ 3 が $16.4 \%$ ,クラスタ 4 が $3.0 \%$ , クラスタ 1 とクラスタ 4 では,終盤に作品完成度が急増している。序盤に何を作るか話し合いによって決めた後,黙々と作業を続けた対話がここに含まれる. クラスタ 3 ,クラスタ 5 では,作品完成度が中盤にやや大きく増加している.序盤に話し合った大まかな内容で作業を進め, 中盤以降は細かい部分について話し合った対話がここに含まれる. クラスタ 2 とクラスタ 6 については,序盤から終盤にかけて作品完成度がほぼ一定に増加している. 常に話し合いながら作業を行い,少しずつ合意を重ねて作品を作った対話がここに含まれる。 ## 3.3 共同作業の流れと評価値の関連 よい共同作業がいずれのクラスタのものなのかを把握するために,得られたクラスタに対して質の高い対話が頻出するかを調べた.対話を質によって分類するために,主観評価 7 項目それぞれとその総和,第三者評価 2 項目それぞれの計 10 項目を対話の評価基準として使用し,そのスコアが高い上位 $20 \%$ 質のよい対話,下位 $80 \%$ 質の悪い対話として分類した. 収集した 500 対話に対して,それがあるクラスタに属するか否か,よい対話に属するか否かをもとに $2 \times 2$ のクロス表を作成し,それに対し 図 2 作品完成度の時系列クラスタリング結果 てフィッシャーの正確確率検定を行った. クラスタ 3 では, 第三者評価の「個性」および「美しさ」によって対話を分類した際に,クラスタ 5 では,主観評価 7 項目の総和によって分類した際に, それぞれ $5 \%$ の有意水準で質の高い対話が有意に多く出現することが認められた。一方,クラスタ 2 やクラスタ 6では質の高い対話を有意に多く含むことは認められなかった. 常に話し合い,合意をしながら作業をすることがよりよい共同作業につながると思われがちだが,そうなっていない点は興味深い。 この分析から,序盤にある程度のイメージを合意したうえで作業を行い,その後,細部について話し合って作品を完成させるような共同作業が,いずれの評価においても重要であることが分かった。 ## 4 おわりに 本研究では, 創造的な共同作業が可能な対話システムを目指し,その基礎データとして,共同建築夕スクにおける人間同士の作業の様子を Minecraft を用いて収集した.また,対話に対する評価を作業者による主観評価と第三者評価によって行い,それらの評価值が高い対話における特徵を分析した。その結果,質の高い共同作業のためには,作業者の間で同意を求め,それに対して同意していくプロセスをより多く行うことや,序盤にある程度のイメージを合意したうえで作業を進め,その後,実物を見ながら修正箇所や細かい部分を話し合うことが重要であることが分かった. 今後は,イメージを合意するための対話手法,実物について評価したり修正を提案する手法などを検討し,実際にユーザと創造的な共同作業を対話を通して行うシステムを構築したい。 ## 謝辞 本研究は科研費「モジュール連動に基づく対話システム基盤技術の構築」(課題番号 19H05692) の支援を受けた。 ## 参考文献 [1] 中野幹生, 駒谷和範, 船越孝太郎, 中野有紀子, 奥村学. 対話システム(自然言語処理シリーズ).コロナ社, 2015. [2] 東中竜一郎, 稲葉通将, 水上雅博. Python でつくる対話システム. オーム社, 2020. [3] Charles Rich, Candace L. Sidner, and Neal Lesh. Collagen: Applying collaborative discourse theory to humancomputer interaction. Al Magazine, Vol. 22, No. 4, p. 15, 2001. [4] James Allen, Nathanael Chambers, George Ferguson, Lucian Galescu, Hyuckchul Jung, Mary Swift, and William Taysom. Plow: A collaborative task learning agent. In Proceedings of the 22nd National Conference on Artificial Intelligence - Volume 2, p. 1514-1519, 2007. [5] Arthur Szlam, Jonathan Gray, Kavya Srinet, Yacine Jernite, Armand Joulin, Gabriel Synnaeve, Douwe Kiela, Haonan Yu, Zhuoyuan Chen, Siddharth Goyal, et al. Why build an assistant in minecraft? arXiv preprint arXiv:1907.09273, 2019. [6] Haruna Ogawa, Hitoshi Nishikawa, Takenobu Tokunaga, and Hikaru Yokono. Gamification platform for collecting task-oriented dialogue data. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 7084-7093, 2020. [7] Anjali Narayan-Chen, Prashant Jayannavar, and Julia Hockenmaier. Collaborative dialogue in Minecraft. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5405-5415, 2019. [8] Arne Köhn, Julia Wichlacz, Christine Schäfer, Álvaro Torralba, Joerg Hoffmann, and Alexander Koller. MC-saarinstruct: a platform for Minecraft instruction giving agents. In Proceedings of the 21th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 5356, 2020 . [9] Cristian-Paul Bara, Sky CH-Wang, and Joyce Chai. MindCraft: Theory of mind modeling for situated dialogue in collaborative tasks. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 1112-1125, 2021. [10] John Paparrizos and Luis Gravano. k-shape: Efficient and accurate clustering of time series. In Proceedings of the 2015 ACM SIGMOD International Conference on Management of Data, pp. 1855-1870, 2015. [11] 光田航, 東中竜一郎, 大賀悠平, 杵渕哲也. 共同図形配置課題における対話の共通基盤構築過程の分析. 言語処理学会第 27 回年次大会発表論文集, 2021.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B4-3.pdf
# 対話介入実験による対話の引き継ぎに有用な情報の調査 山下紗苗 東中竜一郎 名古屋大学大学院情報学研究科 xz.51d.7408@s. thers.ac.jp higashinaka@i.nagoya-u.ac.jp ## 概要 現状のチャットボットやコールセンタの自動応答では,完全に自律したやり取りは難しく,必要に応じてオペレータが介入する必要がある. しかし, どのような情報をオペレータに提示すればスムーズに引き継げるのかは明らかでない. 本研究では, 2 人のオペレータがメモを引き継ぎながら一定時間ごとに交代してユーザと対話する実験を行った。そして,交代時に用いたメモを分析することで,対話を引き継ぐ際に必要な情報を実験的に調査した. 雑談,相談,接客の対話タスクを対象に,240回のオペレータ切り替えを含む 60 対話を収集した結果,対話を引き継ぐ際には,対話の情報を隣接ぺアや属性値対の形式で提示するのがよいという知見が得られた. ## 1 はじめに 近年,ニューラルネットワークの適用に基づく高精度な自律対話システムが多く研究されている [1, 2, 3, 4, 5]. しかし, しばしば矛盾 [6] や誤情報 [7] を含む発話が生成され,対話破綻を引き起こす. そのような場合,人間が適宜対話に介入乙,対話システムから対話を引き継いで応対を進めることが有用だと考えられる [8]. しかしながら,現状,対話を引き継ぐ際にどのような情報があれば対話をスムーズに引き継げるかは明らかでない. 本研究では,対話を引き継いだオペレータが対話状況を迅速に把握し,スムーズに対話を続けられるようにするために,どのような情報を提示すればよいかを明らかにする.具体的には,2人のオペレー タがメモを引き継ぎながら一定時間ごとに交代してユーザと対話する実験(図 1 参照)を行い,引き継ぎに使ったメモを分析することで,対話を引き継ぐ際に必要な情報を実験的に明らかにする.雑談,相談,接客の対話タスクで実験を行い,複数の対話種別の引き継ぎに共通して必要な情報を調査する. 図 1 対話介入実験の模式図. 2 人のオペレータが,メモをもとに,一定時間ごとに入れ替わりながらアバタを介してユーザと対話する。 ## 2 関連研究 人間による対話の引き継ぎは,コールセンタでの入電を適切なオペレータに転送するコールルーティングの文脈で行われてきた $[9,10]$. しかし,これらの研究では引き継ぎ時に提示すべき情報は扱われていない. 近年では,河原ら [8] が傾聴対話をオペレータに引き継ぐ研究を行っている. 河原らは,オペレータに提示する情報として,音声認識結果とキーワードの強調表示を用いている。 山下ら [11] は,雑談において,オペレータが対話を引き継ぐ際に,対話履歴の最後の 5 発話を提示することが有用であると報告している。しかし,これらの情報が対話の引き継ぎに最適かどうかは明らかではない. 本研究では,引き継ぎに必要な情報に想定を置かず,オペレータが作成する引き継ぎ用のメモに着目し,必要な情報を実験的に調査する。 本研究は,対話内容を即座に把握するための対話の構造化に関するものと言える. 対話の構造化には,トピックセグメント [12,13],談話セグメン卜 [14],情報状態 [15],隣接ペア [16,17, 18] などが利用されてきた. 本研究では,これらの構造化の方法を念頭に置きつつ,オペレータが作成したメモをもとに,対話の引き継ぎにおける,適切な対話の構造化の方法を調査する. (a) 雑談におけるメモ例 (b) 相談におけるメモ例 (c) 接客におけるメモ例 図 3 実験終盤の,対話終了後のメモの例. (a) (c) オペレータとユーザの発話を左右に分け,隣接ぺアのように発話同士を矢印で結んでいる。(b) 隣接ぺア形式と属性值対形式で情報をまとめている. 図 2 雑談の対話例. 入れ替わり前のオペレータを $\mathrm{O} 1$,入れ替わり後のオペレータを $\mathrm{O} 2 \mathrm{~ , ユ ー サ ゙ を ~ U ~ て ゙ 示す . ~}$ ## 3 対話介入実験 対話の引き継ぎに必要な情報を調査するために,対話に関するメモを引き継いで対話する実験(対話介入実験)を実施した。 ## 3.1 実験の概要 対話介入実験の模式図を図 1 に示す. 本実験では,2人のオペレータが一定時間ごとに入れ替わって 1 人のオペレータとして振る舞い,1 人のユーザと対話する。なお,一方のオペレータがユーザと対話をしている間,もう一方のオペレータは別のユー ザと対話をしている.切り替えでは,各オペレータは応対するユーザを交換する。すなわち,この実験では 2 つの対話がパラレルに実施されている。これ は主に時間効率のためであるが,直前の対話から次の対話に即座に切り替えることは認知的負荷が高いと考えられ,そのような状況で作られるメモは対話を即座に把握できる有用なものになりうる。 オペレータ役として男女 2 名ずつ,合計 4 名を募集し,女性同士(オペレータペア 1),男性同士(オペレータペア 2)の2つのペアに分けた. ユーザ役として 20 名を募った. 複数の対話タスクを実施することで多様な対話の引き継ぎに必要となる要素を洗い出すことができると考え,雑談,相談,接客という 3 種類の異なる対話タスクを用意した.雑談では,ユーザが自身の最近はまっていることについて話した。対話サービスを意識し,オペレータにはどちらかと言えば聞き手に回るよう指示した. 相談では,オペレータが旅行代理店店員となってユーザの旅行計画の相談に乗った.相談にリアリティをもたせるため,旅行地には,対話の参加者があらかじめ知識を持たない地名としてスロベニアを選んだ。接客では,オペレー タがユーザの要望を聞き,あらかじめ用意された 3 機種の掃除機から 1 機種を推薦した。 各オペレータペアは 10 名のユーザと 3 回ずつ対話(対話タスクをランダムな順番で 1 回ずつ実施) し,実験全体で 60 回の対話を行った. ## 3.2 オペレータの入れ替え 1 つの対話の長さは 10 分とし,対話開始から 2 分, 4 分, 6 分, 8 分が経過した時点でオペレータを入れ替えた. オペレータが入れ替わることにつ いて,ユーザには知らせていない。対話は,ウェブ会議システムの $\mathrm{Zoom}^{1)}$ を用いビデオをオンにして行った. ただし, ユーザがオペレータの入れ替わりを判別できないように,オペレータはボイスチェンジャ2)を用い,アバタ3)を介して対話した. オペレータには,対話を行っている最中に,対話を引き継ぐためのメモを取るように指示した. 引き継ぎに際してどのような情報が必要かの予断を持たせないため,メモの書き方は指定しなかった. グラフィカルな情報が必要になる可能性があるため,メモは電子的ではなく,A4 サイズの用紙 1 枚の片面に手書きで記入させた。メモは 1 つの対話につき 1 つとし,入れ替わりのタイミングで次のオペレータに手渡しで引き継がれるものとした(オペレータ同士は物理的に近いブースに配置した)。入れ替わったオペレータは,メモを参考にして対話を引き継ぎ,必要に応じて新たに情報を追記した。 図 2 に対話例, 図 3 にメモの例を示す. 2 人の才ペレータのうち,一方のオペレータは黒色でメモを取り,他方のオペレータは赤色でメモを取っていた. 各対話の発話,手書きのメモ,ディスカッションで行われた発話の内容を分析するためこれらを書き起こした。 ## 3.3 アンケート オペレータとユーザは,各対話について,7 段階リッカート尺度で対話に関する 13 個のアンケート項目(自然性,目的達成,満足度,文脈理解困難,次発話困難,他メモ有用,自メモ有用,連携,内容理解,個性,一貫性,信頼,注意)について同意の程度を回答した。 加えて,オペレータとユーザは,3種類の対話夕スクを終えるごとに,対話タスクのうち最も話しやすかった/話しにくかったものを回答した. オぺレータについてはさらに,もう一方のオペレータとの連携が最も円滑だと感じた/円滑でないと感じた対話タスクについても回答した。 オペレータのペアは,対話を終えるごとに,10 分程度で,実施した対話の振り返りやメモの取り方の改善方法についてのディスカッションを行った. ## 4 対話およびメモの分析  表 1 対話あたりの発話時間,発話回数,文字数,単語数,異なり単語数. 括弧内は発話あたりの文字数. オぺレータを $\mathrm{O} \mathrm{~ ユ ー サ ゙ を U て ゙ 表す . ~}$ ## 4.1 対話の統計量 表 1 にオペレータ/ユーザごとの対話統計量を示す. 10 分程度の対話の中で,オペレータは 80〜 90 回,ユーザは 70~90 回程度の発話を行った. 対話の傾向は対話タスクごとに異なっていた。具体的には,相談と接客では,オペレータの 1 発話あたりの文字数が多かった. これらの対話では,対話の主導権がオペレータにあったと考えられる。 それに対して雑談では,オペレータが聞き手に回ったことから,対話の主導権はユーザにあったと考えられる。 ## 4.2 メモの統計量 表 2 に,対話タスクごとのメモの文字数,単語数,異なり単語数,矢印の数を示す. メモの文字数と単語数は,ユーザの 1 発話あたりの平均文字数におおむね比例しており,相談,接客,雑談の順に多い.雑談は異なり単語数が多く, 多様な話題が話されていることが分かる. 図 4 に,対話ごとに取られたメモの文字数の推移を示す.オペレータペア 1 のメモの文字数は 2 回目でピークを迎え,その後は文字数を減らして収束傾向にあった。最も序盤のメモを除き,オペレータとユーザの発話は左右に分けて記載されていた. オぺレータペア 2 の相談と接客のメモの文字数は,実験の序盤から終盤まで大きく変化せず,メモのフォー マットも変化しなかった. 全体としてメモの文字数とフォーマットは,オペレータペアごと,対話タスクごとにほぼ収束した. 図 4 メモの文字数の時系列遷移. 横軸は 2 人のユーザへの応対を終えた回数を表す。 3.2 節の通り,オペレータは二人のユーザと入れ替わりながら対話をした. ここでは,並行して行われた 2 つの対話のメモの文字数の平均をプロットしている. ## 4.3 メモの分析 雑談や接客のメモでは,図 $2 \mathrm{a}, 2 \mathrm{c}$ のように矢印が多用された.矢印は「高い? $\rightarrow 100$ 万円のギター $\rightarrow$ えー!!高い。」ように,ユーザの発話に対するオペレータの反応という隣接ぺアの関係を表していると言える.また,オペレータによると,雑談ではオペレータとユーザの発話を左右に分けてメモを取る方法が有用とのことであった. オペレータの発話をメモしておく理由は,矛盾をなくすためである。雑談の聞き手は,相槌を打つだけでなく,発話内容に同意したり,聞き手自身の意見や感想を述べたりする。したがって,聞き手であるオペレータが入れ替わった際に,入れ替わる前と異なる内容の発話をしないようにオペレータ自身についてのメモを取る必要がある. 相談のメモを図 $2 \mathrm{~b}$ に示す.メモの下半分には隣接ペアの形式でメモが取られているが,メモの上半分には「滞在日数| 3 泊 4 日」のように属性値対形式で情報が記入されている.相談や接客では,オぺレータがユーザから聞き出すべき情報は決まっていることが多い,既に聞き出した情報とまだ聞き出していない情報がひと目で把握できるという点で,属性値対形式も有用と考えられる。 ## 4.4 ディスカッションの分析 あるオペレータはディスカッションで,入れ替わり直後はメモをじっくり読む時間がないため,メモ の一番下に記載された,最新の 1 行だけを参照して発話していたと述べた. そして,何かしら発話したうえで,メモの履歴をさかのぼって内容を確認していたとのことである.対話の引き継ぎでは,直前の対話履歴を参照でき,必要に応じて過去の対話履歴を効率的に参照できるような情報提示が有効であると考えられる。 ## 4.5 アンケート結果の分析 アンケートの結果,オペレータは,3 種類の対話のうち特に雑談について,自然性や満足度の高い対話ができ,メモも有用で,文脈理解や次発話作成に困難が少なかったと回答した. Bonferroni 補正を行った Wilcoxon の順位和検定を実施したところ,次発話困難(何を話せばよいか分からないことがあった)については雑談-相談間で,他义モ有用(もう一方のオペレータのメモは役に立った)については雑談 - 接客間で, $1 \%$ の有意水準で差が見られた. メモにおいて隣接ペアが多用された雑談が引き継ぎやすいと評価されていることから,隣接ぺア形式のメモの有効性が示唆された。他のタスクにおいても他义モ有用の評価は 7 段階中 6 前後と高かった. ユーザのアンケート評価は対話の種類に拠らずどれも 7 段階中 4 を超えており,オペレータの入れ替わりがあっても問題なく対話できていることが確認できた。 なお,3 種類の対話タスクを比較するアンケートでは,オペレータは,3種類の対話タスクのうち雑談が最も話しやすく,かつオペレータ間の連携が円滑だったと回答した。相談と接客のような,タスク遂行の正確性が重要となる課題については,比較的引き継ぎが難しいことが示された. ## 5 おわりに 本稿では,対話の引き継ぎに必要な情報を実験的に調査した,具体的には,雑談,相談,接客に対して介入実験を行い,オペレータが作成したメモを分析した。その結果,隣接ペア形式および属性値対形式での情報が引き継ぎに有用であることが分かった. 今後は,対話の引き継ぎに適したインタフェー スを実装していきたい.例えば,対話履歴から隣接ペアを抽出して対話を要約する,対話履歴から属性值対形式で所定の情報を抽出する,などの要素技術に取り組む予定である。今後は,そうしたインタフェースの実装を行い,その有用性を検証したい。 ## 謝辞 本研究は,JST ムーンショット型研究開発事業, JPMJMS2011 の支援を受けたものです. ## 参考文献 [1] Tom B Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. arXiv preprint arXiv:2005.14165, 2020. [2] Jan Pichl, Petr Marek, Jakub Konrád, Petr Lorenc, Van Duy Ta, and Jan Šedivỳ. Alquist 3.0: Alexa prize bot using conversational knowledge graph. arXiv preprint arXiv:2011.03261, 2020. [3] Wenjie Ou and Yue Lin. A clarifying question selection system from ntes_along in convai3 challenge. arXiv preprint arXiv:2010.14202, 2020. [4] Daniel Adiwardana, Minh-Thang Luong, David R So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu, et al. Towards a human-like opendomain chatbot. arXiv preprint arXiv:2001.09977, 2020. [5] Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Eric Michael Smith, Y-Lan Boureau, and Jason Weston. Recipes for building an opendomain chatbot. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 300-325, 2021. [6] Ryuichiro Higashinaka, Masahiro Araki, Hiroshi Tsukahara, and Masahiro Mizukami. Integrated taxonomy of errors in chatoriented dialogue systems. In Proceedings of the 22nd Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 89-98, 2021. [7] K Shuster, S Poff, M Chen, D Kiela, and J Weston. Retrieval augmentation reduces hallucination in conversation 2021. arXiv preprint arXiv:2104.07567, 2021 [8] Tatsuya Kawahara, Naoyuki Muramatsu, Kenta Yamamoto, Divesh Lala, and Koji Inoue. Semi-autonomous avatar enabling unconstrained parallel conversations-seamless hybrid of woz and autonomous dialogue systems-. Advanced Robotics, pp. 1-7, 2021. [9] Allen L Gorin, Giuseppe Riccardi, and Jeremy H Wright. How may I help you? Speech communication, Vol. 23, No. 1-2, pp. 113-127, 1997. [10] Marilyn Walker, Irene Langkilde, Jerry Wright, Allen L Gorin, and Diane Litman. Learning to predict problematic situations in a spoken dialogue system: experiments with How may I help you? In Proceedings of the 1st Meeting of the North American Chapter of the Association for Computational Linguistics, pp. 210-217, 2000. [11] 山下紗苗, 東中竜一郎. 雑談に介入する際に必要な対話要約の調査. 人工知能学会研究会資料言語・音声理解と対話処理研究会, pp. 86-91, 2021. [12] Marti A Hearst. Text tiling: Segmenting text into multi-paragraph subtopic passages. Computational linguistics, Vol. 23, No. 1, pp. 33-64, 1997 . [13] Feng Jiang, Yaxin Fan, Xiaomin Chu, Peifeng Li, Qiaoming Zhu, and Fang Kong. Hierarchical macro discourse parsing based on topic segmentation. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, pp. 13152-13160, 2021. [14] Barbara Grosz and Candace L Sidner. Attention, intentions, and the structure of discourse. Computational linguistics, Vol. 12, No. 3, pp. 175-204, 1986. [15] Staffan Larsson and David R Traum. Information state and dialogue management in the trindi dialogue move engine toolkit. Natural language engineering, Vol. 6, No. 3-4, pp. 323-340, 2000. [16] Emanuel A Schegloff. Sequence organization in interaction: A primer in conversation analysis I, Vol. 1. Cambridge university press, 2007. [17] Amy BM Tsui. Beyond the adjacency pair. Language in Society, Vol. 18, No. 4, pp. 545-564, 1989. [18] 榎本美香, 伝康晴, 松坂要佐. 3 人会話における談話行為と受け手のラベリングとその基礎的分析. 人工知能学会研究会資料言語・音声理解と対話処理研究会, Vol. 45, pp. 7-12, 2005.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B4-4.pdf
# 連想情報と時系列を考慮した文章の焦点推定による 対話破綻検出 山﨑翔太寺岡丈博 拓殖大学大学院 工学研究科情報・デザイン工学専攻 20m309@st.takushoku-u.ac.jp tteraoka@cs.takushoku-u.ac.jp ## 概要 現在の対話システムは,人間と円滑に対話できているとは言い難い。それは,人間と対話システム間における発話の意味理解が十分ではないからである. 本研究では,対話中の話題を焦点と定義し,連想情報と時系列を加味した文章べクトルで表した。 この焦点とファインチューニングされた BERT の出力を特徴量として学習し得られた出力の結果, 対話破綻検出において精度の向上を確認し,本研究の有効性を確認した。 ## 1 背景と目的 近年,スマートデバイスの高性能化や移動通信技術の発展により,誰もが手軽に IT 技術を利用するようになった。しかし,IT 技術への慣熟度によって利用までのハードルの高さが違い,大きな格差が発生している。そこで,音声アシスタントやチャットボットによる操作案内等, IT 技術に不慣れでも IT 機器を操作できる技術が注目されている。 また,そのような流れの中で,非タスク指向型対話 (いわゆる雑談対話) の対話システム上への実装が模索されている.対話システムと人間との対話は, しばしば継続不可能な状況へ陥ることがある. そういった状況は,対話破綻 [1] と名付けられ,回避の手法が模索されている. しかし,現状の対話システムはまだ発展途上であり,対話システムが話題の遷移を理解できず,対話破綻が引き起こされることも多い。 そこで本研究では,対話が焦点としている概念の単語ネットワーク上での移動の推移を利用し対話破綻検出を行う. ## 2 先行研究 対話破綻の特徴に応じた回避手法の提案 [2] では,短期的な頻出語を話題と仮定し,それに関連する発話を行うことで対話破綻の回避を試みた。しかし,頻出語では話題推定の精度が低く,対話によっては元の発話よりも破綻感が高まってしまう等の結果が得られた。 松本・藤田らの研究 [3] では, Sugiyama らの研究 [4] の手法の再現性がない点に着目し, 日本語 BERT モデルと他の特徴量を使った手法を再現性を持って実装し比較を行った。日本語 BERT モデルは対話破綻検出を破綻,軽微な破綻,破綻ではないの 3 種類に分類する文書分類タスクとして fine-tuning されている. その BERT モデルからの出力と,各発話の特徴量を結合した。低次元の特徴量を結合することで精度向上が期待できるということを明らかにした。 豊嶋の研究 [5] では,各発話文を Word2Vec によって発話ベクトルに変換し,素性を作成して SVM で対話破綻の検出を行っている. 各発話の発話べクトルの差分から得られたべクトル遷移の方向と大きさを利用したが,話題の遷移が見られた会話にのみ適応している等,課題点も見られる。 ## 3 提案手法 ## 3.1 概要 本研究では, 出現した単語と, 出現した単語を刺激語とした連想語の単語ベクトルを取得し,単語ネットワークを作成する。処理の流れを図 1 に示す. 作成したシステムは出現単語リストを持ち,それに操作を行うことで焦点を推定する。発話が行われると,発話された文章を分かち書きし,出現単語リストに追加する。また,追加された単語の連想される語を出現単語リストに追加する. この段階で,重み付けを行う.重みは連想されやすさと単語の特殊さを利用して算出する. その後,リスト内の単語の単語ベクトルを,Word2Vecを利用して取得する。 表 1 焦点の推移類似度は焦点との類似度を指す 各単語の重みと取得したべクトルの加重平均を焦点ベクトルとする.また,システムは次の発話を受け取る前に, 出現単語リストに付与された重みの減衰を行う。そして,重みが 0 未満となった単語を出現単語リストから削除し, 発話待ち受け状態となる.単語ベクトルを取得する単語は名詞, 形容詞, 動詞に絞った。なお,「する」などの補助動詞は会話の焦点には関係ないと考え,除外した。ここで得られた加重平均を焦点,Word2Vec のモデル上で最も類似度の高い単語を話題として扱う。類似度は,コサイン類似度とした。 図 1 処理の流れ ## 3.2 焦点ベクトルの抽出 ## 3.2.1 単語ベクトルの抽出 発話中の出現単語をリスト化し, リスト内に含まれる単語の単語ベクトルを wikipedia-jumanpp.model から抽出する. wikipedia-jumanpp.model は wikipedia をjuman++で分かち書きし, 出力された結果から学習させた Word2Vec のモデルである. jumanpp は非常に精度が高い形態素解析器であるが,軽量と言われている形態素解析器である MeCab と比べて動作が遅い. そのため, Wikipedia 等の巨大なデータの分かち書きに使われる例は少ない。しかし, MeCabで分かち書きし学習させた Word2Vec モデルよりも高精度が期待できる. ## 3.2.2 興味値 表 2 変数の定義 会話の進行によって,会話中の概念への興味が変動すると推測し,各単語に重み付けを行った.今回の研究では,重みを興味値と定義した.興味値の算出は発話がされる度に行わる. 各数値は,表 2 のように定義した。 人間が会話をする際,一度出現した単語でも会話が進むにつれて忘れられることから,何度も出てきた単語や連想されやすい単語,あまり一般的に利用されない単語が話題の焦点に近いと考えられる. そこで今回,対話中での出現回数,出現した単語との連想距離,日本語 Wikipedia 全文中の出現回数を利用して,以下のような方法で興味値を作成した。 まず,単語の出現 $(\mathrm{N})$ は,日本語 Wikipedia 上での出現回数を Xとした場合に, $\mathrm{N}=1 / \log X$ で計算される.またこの時,出現回数 Xが 10 未満であった場合は,出現回数 $X=10$ として扱う. これは,数ギガバイトの日本語 Wikipedia 上での出現回数は,一定回数以下であれば十分少ないと言えるからである.会話中で出現した単語については,Nをそのまま興味値として扱う。連想距離は,連想概念辞書 [6][7] から抽出する. 出現した単語を刺激語として連想された語は, $\mathrm{N}$ と出現した単語からの連想距離の逆数の積( $\mathrm{N} /$ 連想距離)を興味値として加算する。これは,出現した単語が連想距離の原点にいると仮定して連想距離が遠いほど加算される重みを小さくするためである。 $\mathrm{N} /$ 連想距離は, $\mathrm{RN}$ とした。 また,興味値は加算が終了した後に減衰し,興味値が 0 未満になった単語は出現単語リストから削除される。興味値の減衰率は SN とした. SN は N/M であり, $\mathrm{M} \leqq \mathrm{N}$ である. 例えば, $\mathrm{N}=3, \mathrm{M}=1$ とした場合, 1 度出現した単語は 3 発話分影響を及ぼすことになる. 今回は, $\mathrm{N}=4, \mathrm{M}=1$ として実験を行なった. これは,後述する BERT の fine-tuning の際,破綻かどうかを判定されるターゲットになる発話を含めた直前 4 発話を利用するからである. ## 3.2.3 出力例 出力例を表 1 に示す. 50 次元の Word2Vec では,海の話が進んでいるが,ターン数 4 の発話に含まれた「嵐」という単語から,焦点が「荒波」に寄ったことがわかる. 次元数が低い場合, 分散表現上の単語同士が近づくことで未出現の単語が話題とされやすい. 200 次元の Word2Vec では,ターン数 4 でも話題は海となっている. これは, 次元数が増えることで,海と荒波の距離が広がり引き起こされたと考えられる.しかし, 焦点との類似度は下がっており, 話題が海から離れかけていることがわかる. 今回, Word $2 \mathrm{Vec}$ の次元数は中間の 150 次元とした.これは,アンケートによって決定した. アンケートの参加人数は 5 名で, いずれも大学生となっている. ## 3.3 対話破綻検出 松本・藤田らの研究 [3] と同様に,対話破綻検出タスクに fine-tuning された BERT モデル [8] から得られた出力に,焦点べクトルを結合することで行う. BERT モデルへの文章の入力は, BERT モデルを事前学習する時に利用したトークナイザでトークン化して行う必要がある. 作成した焦点推定システム内では発話を jumanpp[9] で形態素解析しているため, 同じ形態素解析器で形態素解析を行ってトー クン化したモデルを利用する必要がある. そこで今回利用する BERT モデルは, 黒橋・褚・村脇研究室から公開され日本語 BERT モデル [10] である. 今回は,LARGE-WWM版の BERT モデルを利用した. ## 3.3.1 BERT $の$ fine-tuning 対話破綻検出を回帰問題として BERT の finetuning を行う. 対話破綻検出チャレンジ [11] では,平均二乗誤差が評価指標として取り入れられている 図 2 BERT モデルの概形 ため, fine-tuning 時の損失関数は,一般的にマルチクラス分類に利用されるクロスエントロピー誤差ではなく, 平均二乗誤差を利用した. 正解ラベルは,各発話での付与されたラベルの割合を利用する.例えば, 20 人のアノテータがおり,そのうちの 10 人が破綻であると判断した場合は,破綻を表すラベルは"0.5"となる. 対話破綻検出タスクに fine-tuning するために利用する発話は,ターゲット発話を含む直前 4 発話である. BERT モデルの概形は図 2 に示す.今回利用した BERT モデルは入力できる token 数が 128 に限られている. しかし, 4 発話を用いるため, token 数が 128 を越える可能性がある.そこで,各発話を [CLS]token1つと [SEP]token3つが収まるように,31tokenになるように末尾を切り取った. また,最後の発話の token_type_idを 1 にすることで,ター ゲット発話を明確化した. 学習率は 9.5e-5 であり, epoch は 2000epoch 中で最も検証時の平均二乗誤差が低くなったモデルを利用した. 学習の結果は表 3 である. 表 3 BERT fine-turning ## 3.3.2 誤差予測モデルの作成 誤差予測モデルは,中間層が 3 層,活性化関数が selu,第 3 層を dropout 層とした FFN を対話破綻検出タスクに fine-tuning された BERT モデルからの出力と, BERT モデルに入力した発話の特徴量を concat して学習データとしてトレーニングしたモデルである. 図 3 今回,入力する特徵量を焦点ベクトルとすることで本システムの有効性を検証する。モデ 表 4 特徵量毎の結果 10 回平均 ## FFN ## CONCAT BERT OUTPUT 図 3 誤差予測モデルの概形 ルの概形は図 3 である. 学習率は $6 \mathrm{e}-4$, epoch 数は 20000epoch の中で最も検証時の平均二乗誤差が低くなった epoch のモデルを利用した. ## 3.3.3実験設定 実験設定は DBDC4[12] に準拠した. 学習データは DBDC4 の Development data として公開されているデータと, それ以前の対話破綻検出チャレンジ [11][13][14] の開発用データと検証用データを利用する.この中で,init1046というデータに関してはアノテータが 2 人か 3 人と少なく,平均二乗誤差を損失関数として扱った場合,学習に悪影響を及ぼすため除外してある。検証データは,DBDC4 で検証データとして公開されたデータである, DBDC4_eval を利用した. また,誤差予測モデルの学習結果は学習ごとにかわるため, 今回は 10 回学習を行い各数値の平均を結果として扱う. ## 3.3.4 結果 結果は表 4 のようになった. BertVec は BERT モデルの最終隠れ層の出力を各発話で平均した 768 次元のベクトルである.Word2Vec は,焦点と同じく 150 次元のモデルに単語埋め込みを行い,各発話で平均を計算した。 accuracy,MSELoss,”破綻している” の f 值が共に先行研究で使用された特徵量を上回った。また, ベースラインである BERT fine-tuning モデルを ## 4 考察 焦点を利用した対話破綻検出では,BERT finetuning モデルと比べて,"破綻している"の Recall が下がり,"破綻していない"の Recall が上がった. 破綻した会話であると判定した数が増えたということは,焦点べクトルが破綻していない会話の話題の推移を反映した特徴量であったからと考えられる. またこの結果から,破綻していない会話の焦点には,破綻した会話よりも特徴的な部分がある可能性が示された. しかし,対話破綻検出タスクでは,破綻する可能性が高い発話を確実に見つけられる方が,実際のシステムとして利用しやすい。破綻していない会話を破綻していると判断してしまった場合でも,より破綻していない発話を別で出力することになるだけであるためである. つまり本来は,"破綻している"会話を多く発見する必要がある。その場合は"破綻している"の Recall を向上させる必要があり, 元の BERT の方が Recall が高く, 目的を達成する可能性が高い. 焦点ベクトルを利用した対話破綻検出では,破綻類型によって結果が大きく変わる可能性が考えられる. 例えば,ターゲット発話が非文であった場合の対話破綻は,焦点の推移による特徴量としては現れにくいと考えられる。また,発話の流れによる破綻でも,発話中に名詞,動詞,形容詞のいずれかが含まれない限りは,焦点推定の性質上直前の発話と焦点が大きく変わる可能性は低いため, 特徵量としては現れにくい。 ## 5 今後の課題 まず今後の課題として, 焦点推定の精度向上が挙げられる. 焦点推定を行う上でのパラメータがまだ定まっておらず,現状はタスク毎にヒューリスティックに決定している。焦点自体の定量的な評価は難しいため,タスク毎に定量的な評価を行いパラメータを設定するなどが考えられる。 ## 謝辞 本研究は JSPS 科研費 JP18K12434, JP18K11514 の 助成を受けたものです. ## 参考文献 [1] 東中竜一郎, 船越孝太郎. Project next nlp 対話タスクにおける雑談対話データの収集と対話破綻アノテー ション. SIG-SLUD, Vol. 4, No. 02, pp. 45-50, 2014. [2] 山崎翔太, 寺岡丈博. 対話破綻の特徴に応じた回避手法の提案. 第 82 回全国大会講演論文集, Vol. 2020, No. 1, pp. 421-422, 2020. [3] 松本丈樹, 藤田桂英. Bert と文章の意味的特徴量を用いた誤差予測モデルによる対話破綻検出. Technical Report 8, 東京農工大学工学部, 東京農工大学大学院工学研究院, mar 2020. [4] Hiroaki Sugiyama. Dialogue breakdown detection using bert with traditional dialogue. In Increasing Naturalness and Flexibility in Spoken Dialogue Interaction: 10th International Workshop on Spoken Dialogue Systems, Vol. 714, p. 419. Springer Nature, 2021. [5] 豊嶋章宏. 応答の自然性と話題遷移を考慮した雑談対話システムにおける対話破綻の検出. 2018. [6] 岡本潤, 石崎俊. 概念間距離の定式化と既存電子化辞書との比較. 自然言語処理, Vol. 8, No. 4, pp. 37-54, 2001 . [7] Takehiro Teraoka, Jun Okamoto, and Shun Ishizaki. An associative concept dictionary for verbs and its application to elliptical word estimation. In Proceedings of the Seventh International Conference on Language Resources and Evaluation (LREC'10), Valletta, Malta, May 2010. European Language Resources Association (ELRA). [8] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need, 2017. [9] 森田一, 黒橋禎夫. Rnn 言語モデルを用いた日本語形態素解析の実用化. 第 78 回全国大会講演論文集, Vol. 2016, No. 1, pp. 13-14, mar 2016. [10] 黒橋・褚・村脇研究室. Bert 日本語 pretrained モデル. https://ja.wikipedia.org. [11] 東中竜一郎, 船越孝太郎, 小林優佳, 稲葉通将ほか. 対話破綻検出チャレンジ. SIG-SLUD, Vol. 5, No. 02, pp. 27-32, 2015. [12] Ryuichiro Higashinaka, Luis FD' Haro, Bayan Abu Shawar, Rafael E Banchs, Kotaro Funakoshi, Michimasa Inaba, Yuiko Tsunomori, Tetsuro Takahashi, João Sedoc. Overview of the dialogue breakdown detection challenge 4. In Increasing Naturalness and Flexibility in Spoken Dialogue Interaction, pp. 403-417. Springer, 2021. [13] 東中竜一郎, 船越孝太郎, 稲葉通将, 荒瀬由紀, 角森唯子ほか. 対話破綻検出チャレンジ 2. SIG-SLUD, Vol. 5, No. 02, pp. 64-69, 2016. [14] Ryuichiro Higashinaka, Kotaro Funakoshi, Michimasa Inaba, Yuiko Tsunomori, Tetsuro Takahashi, and Nobuhiro Kaji. Overview of dialogue breakdown detection challenge 3. 2017.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B4-5.pdf
# パーソナリティを考慮した雑談対話の会話継続可能性評価 蔦侑磨 ${ }^{1}$ 吉永直樹 2 佐藤翔悦 ${ }^{2}$ 豊田正史 ${ }^{2}$ 1 東京大学大学院 2 東京大学 生産技術研究所 \{tsuta, shoetsu, ynaga, toyoda\}@tkl.iis.u-tokyo.ac.jp ## 概要 雑談対話を対象とした自動評価手法に関する既存研究の多くは,実在する会話の応答全てを等しく妥当な応答として想定し,評価手法を構築しているため,ユーザが興味を持たない応答であっても高い評価を行う.そこで本研究では,生成応答がユーザの返答を促し会話が継続するかを評価するために, ユーザの返答の有無を予測するタスクから学習された自動評価手法を提案する。この際に同一の発話内容でも返答可能性は人によって変化しうるため,会話相手であるユーザのパーソナリティを考慮する。実験では内的評価により会話初期の継続可能性の判定において提案手法の有効性が確認された。 ## 1 はじめに 人は一日の約 $15 \%$ 以上の時間を雑談会話に費やすと報告 [1] されるように,日常的に会話を行い雑談欲求を満たしている。しかし,個人ドライバーや独り身の高齢者など適切な会話相手がいない状況や近年の新型コロナウイルスの影響など,会話自体が困難で雑談欲求があっても満たせない状況がある. 加えて,人の話し相手となりうるスマートスピーカー が爆発的に普及したこともあり,雑談対話システムへの関心が急速に高まりつつある. ユーザの雑談欲求を満たせる雑談対話システムの構築のためには,その生成応答が応答として妥当か,そして生成応答により会話が継続するかなどの多様な観点を考慮して, 応答を生成・評価する必要がある.近年の雑談対話研究では,対話システムが頻繁に「そうですか」のような汎用的で無難な応答 (dull response) [2] を繰り返すことが問題視されているが,与えられた発話に対する実応答を評価における参照応答に用いる通常の評価手法では,このような dull response に高い評価を与えてしまう. この解決のため,Ghazarian らは応答継続可能性に関する人手評価を教師データに利用した評価手法により応 プロフィール文 8 犬より猫派 図 1 ユーザの返答の有無を予測するタスク 答の妥当性評価以外の評価を行っている [3]. しかし, 少数の人手評価を学習データとした自動評価器は,その汎用性の低さが問題となる。 本研究ではユーザのパーソナリティを考慮して, ユーザとの継続的な会話を促す生成応答を高く評価する自動評価手法を提案する。提案手法では,人手の評価データを用いることなく評価モデルを学習することで,多様なドメインの応答を評価できる汎用性の高い手法を目指す。具体的には,ある会話において次に返答が行われたかどうかを予測する会話継続可能性評価タスク(図 1) による学習を行う。さらに,同一の発話内容でも返答可能性が人によって変化しうるため,提案手法では会話相手のパーソナリティを考慮したモデルを構築する。 本研究で目的とする雑談対話システムのユーザのパーソナリティを考慮した応答継続可能性評価を行うには,パーソナリティの明示されたユーザに関する対話システムとの長期的な会話データが必要である。しかし対話システムとの長期的な会話デー タを得ることはコストが高く,さらに対話相手であるユーザのパーソナリティを得るのはプライバシの観点から非常に困難である。そこで本研究では, Twitter 上の人同士の会話データについて,そのプロフィール文をパーソナリティとみなして,実験用の会話データを構築した.実験ではこの会話データに関する内的評価から会話初期の継続可能性の判定においてパーソナリティを考慮することにより予測精度が向上することが確認された。 ## 2 関連研究 本章の 2.1 節では自動評価手法に関する既存研究を,2.2 節ではパーソナリティ(個人属性)を考慮した既存の雑談対話研究の紹介を行う. ## 2.1 自動評価手法 雑談対話システムは基本的に人手評価によって評価されるが,効率的な開発のために人手評価と相関する自動評価手法の確立が強く期待されている.実応答を再現することを目的とした雑談対話システムの単純な評価方法として, 実応答とのトークンの重複により計算する BLEU [4] や ROUGE [5] が利用可能だが,Liu らにより人手評価との相関が低いことが指摘された [6]. これらの単純な評価手法からの改善として, 評価時に利用できる唯一の実応答だけでなく雑談対話で許容される多様な応答を利用した,応答多様性を考慮した手法 $[7,8,9]$ が提案されている。一方で, 生成応答と入力発話の関連性に着目した評価手法に関して,人手評価を利用した教師あり学習手法や負例サンプリング [10]を用いた教師なし学習手法なども多数提案されている $[11,12,13]$. しかし既存研究の多くは害在する会話の応答全てを等しく妥当な応答として想定するため, dull response のような応答であっても高い評価を与えてしまう. ユーザの興味を引かない応答では, 会話が継続せずユーザの雑談欲求を満たすことができないため,これらの評価手法では会話継続可能性や会話満足度などの評価には適さない。 本研究と同様の動機に基づく研究としては, Ghazarian らが応答継続可能性に関する人手のアノテーションデータを教師データに利用した自動評価手法を提案している [3]. しかし人手評価を教師データとして利用するため,そのコストや評価器が学習データのドメインに対して過学習する可能性があることが問題点として挙げられる. 提案手法では,人手のアノテーションデータを利用しない学習手法により, 多様なドメイン上の会話に利用可能な汎用性の高い手法を目指す。 ## 2.2 個人属性を考慮した雑談対話研究 雑談対話における個人属性(パーソナリティ)を考慮した研究として,デモグラフィック属性などのパーソナリティについて会話上で再現する対話システムが提案されている $[14,15,16]$ が,これらの研究 はパーソナリティの再現や理解,あるいは会話の一貫性向上が主体となっている。一方で本研究は個人ごとの応答の嗜好性が異なるというパーソナリティを意識した,会話継続性の評価に関する研究となっており,従来のパーソナリティを考慮した研究とは利用目的が異なる。また雑談応答生成では与えられたパーソナリティを再現する研究 $[14,15]$ は多くの研究で古くから行われているが,会話相手のパーソナリティを理解することを目的とした研究は新しく少数である [16]. 本研究は自動評価手法として,特に会話相手のパーソナリティを考慮するという点で新規的な研究といえる. ## 3 提案手法 本研究ではユーザとの継続的な会話を促す生成応答を高く評価する自動評価手法を提案する。この際に同一の発話内容でも返答可能性が人によって変化しうるため, 提案手法では会話相手のパーソナリティも考慮する. 先行研究 [3] とは異なり, 多様なドメインにおいて汎用性の高い手法としての構築を目指すため,人手のアノテーションを利用しない教師なし学習により分類器を学習する. そこで提案手法では,会話の特定のターンにおいて次に返答が行われたかどうかを予測する会話継続可能性評価タスク(図 1)として学習を行う. ## 3.1 会話継続可能性評価モデル 本研究では図 1 のように,会話履歴や応答文と同時に返答予測を行う対象のパーソナリティを入力し,実際に返答を行うか予測するタスクにより評価モデルを学習する. 提案手法での会話継続可能性評価を行うモデルには BERT [17]を利用する。 ## 3.2 評価器への会話データの入力形式 BERTを入力の分類タスクに用いる場合には入力の先頭に [CLS] トークンを,入力中の各文末に [SEP] トークンを入力するため, 図 2 のような形式でデータを入力する. また通常の BERT の利用では最大 2 文のみを入力するが,提案手法では 3 文以上が入力される可能性がある.このため本研究では BERT に入力する Segment Embeddings についてプロフィール文と会話履歴を同一の分散表現とした。また BERT では入力長に制限があるため,この制限を超える場合,古い会話履歴を優先的に省略する。 図 2 評価器(BERT)への入力データの構造 ## 3.3 学習データ 提案手法では,会話の特定ターンにおいて次に返答が行われるかどうかを予測する会話継続可能性評価タスクとして学習を行う. 本研究で目的とする雑談対話システムのユーザのパーソナリティを考慮した応答継続可能性評価を行うには, パーソナリティの明示されたユーザに関する対話システムとの長期的な会話データが必要である. しかし対話システムとの長期的な会話データを得ることがコストが高く,さらに対話相手であるユーザのパーソナリティを得るのはプライバシの観点から非常に困難である. そこで本研究では,Twitter 上の人同士の会話デー タについて,そのプロフィール文をパーソナリティとみなして,実験用のデータを構築した. 具体的には,大規模会話ログにおける特定の 2 話者間の会話について,片方を対話システム,他方をユーザと想定する。そして対話システムが発言した後にユーザが返答するかどうかを予測するタスクとしてデータを構築する。 ## 3.4 会話データにおける正例と負例 本研究で負例として扱われる応答文には返答が行われない会話データを利用する。このため会話が終了した時点での最後の応答文を負例として扱う。一方で,全ての正例には実際に返答が行われない会話データを利用するため,負例より前のすべての応答文を利用する。 ## 4 実験 本章では,実験に利用したデータやパラメタ,実験結果について説明を行う。 ## 4.1 大規模日本語対話コーパス 実験で利用する大規模日本語対話コーパスは,著者らの研究室で 2011 年 3 月から継続的に収集している Twitter アーカイブから構築した. 本研究で 図 3 訓練データにおける各ターンの会話数と正例割合 は会話が実際に終了したかの判断が重要なため, Twitter API を利用して 2021 年の時点で実際に応答が存在しないかを確認した. Twitter 上のツイート文のやりとりを会話データとみなして,メンションもしくはリツイート以外の投稿を発話,それに連なるメンションを応答とした対話ツリーを抽出した.但し,対話を行うユーザは常に 2 ユーザのみ存在し,同一のユーザが自身の投稿に続けてメンションを行っていない対話ツリーのみを利用した。 ## 4.2 実験に利用する会話データ 実験では 4.1 節で説明した会話データから最大 25 ターンまでの会話データを利用した。分類器の学習データには 2017 年 1 月中の全データを, 評価データには 2018 年 1 月中のデータを,プロフィール文は 2020 年 11 月時点のデータを利用した. プロフィー ル文がこれらの中で最新のデータとなっているが, API などを利用して会話データを収集する場合,最新の情報のみしか利用できないことが多く,過去のデータを利用しない本実験の実験設定は実験の再現性の観点から問題ないと考えられる。検証用のデー タは学習データ中の無作為に抽出した 1 割のデータを利用し,残りを訓練データに利用した。詳細は表 1 に記載する。また訓練データのターン数ごとの詳細を図 3 に示す。 表 1 実験に利用したデータの詳細(概算) 表 2 テストデータにおける分類精度 ## 4.3 実験設定 提案手法で利用する BERT には事前学習済みモデルを利用した ${ }^{1)}$. 提案手法の比較手法としてのパー ソナリティを考慮しない(プロフィール文を入力しない)方法をべースラインとして比較する。全てのモデルは, 学習率 $1 e-5$, 最適化手法 Adam [18],損失関数は交差エントロピー,バッチサイズ 8 ,エポック数 1 で学習した. ## 4.4 実験結果 表 2 にテストデータにおける分類精度を示す.この結果から,パーソナリティを考慮した提案手法はパーソナリティを考慮しないべースラインと比べて, $F_{1}$ スコアに関しては同程度だったものの,若干高い精度で予測できたことが確認できる。 次に実験結果に関する詳細な解析として,訓練データに出現したユーザを既知ユーザ,その他のユーザを未知ユーザに分類した分類精度を示す. 同時にターン2)(会話履歴に応答文を加えた発言回数) ごとに分類した分類精度を示す。但し 3 ターン以上の会話については結果が全て同様であったため, 2 ターン目と 3 ターン以上で分類した結果を示す. ユーザ・ターン別の分類精度を表 4 に示す. なお各分類時のデータ詳細を表 3 に示す.この結果から,特に2ターン目に関して,パーソナリティを考慮することによって予測精度と $\mathrm{F}_{1}$ スコアが共に向上することが確認できる。一方で 3 ターン以上のデータに関しては提案手法とベースラインでほぼ同等であることが確認できる. ## 4.5 考察 未知ユーザ・既知ユーザ問わず 2 ターン目の会話ではプロフィールを考慮することで分類精度が向上することが確認できた。一方で,3ターン以上の会  表 3 テストデータ詳細(ユーザ・ターン別) 表 4 テストデータにおける分類精度 (ユーザ・ターン別) 話では分類精度の向上が確認できなかった.これは Twitter 上のプロフィール文は主にユーザの興味のあるトピックやコンテンツに関して記載されているため,会話初期において評価対象のユーザの興味のある話題かといった判断を行うのに役立ったのだと推測される。一方で,長期的な会話における相手の話し方や会話の進め方などに関してはユーザごとの喏好性がプロフィール文からは読み取りづらいため, 3 ターン以上の会話では精度差がなかったのではないかと予想される. ## 5 おわりに 本研究ではパーソナリティを考慮した応答継続可能性評価器を構築し,パーソナリティを考慮しない手法との比較を内的評価により行った. 結果として,会話初期についてはパーソナリティの考慮により応答継続可能性の予測精度が向上したが,長期的な会話については精度差が確認できなかった。 今後の課題として,評価対象の長期的な会話におけるユーザの応答継続可能性を理解するために,過去の会話履歴などをパーソナリティとして導入することを検討したい. また本研究では,パーソナリティを考慮した手法とそうでない手法を内的評価による比較のみを行った.今後は実践的な環境を想定するために,実際に雑談対話システムが行った会話についての評価や,人手評価との比較を検討する。 ## 謝辞 この研究は国立情報学研究所 (NII) CRIS と LINE 株式会社とが推進する NII CRIS 共同研究の助成を受けています。 ## 参考文献 [1] 花絵小磯, 智行土屋, 涼子渡部, 大輔横森, 正夫相澤, 康晴伝, KOISO Hanae, TSUCHIYA Tomoyuki, WATANABE Ryoko, YOKOMORI Daisuke, AIZAWA Masao, DEN Yasuharu. 均衡会話コーパス設計のための一日の会話行動に関する基礎調査. 国立国語研究所論集 $=$ NINJAL research papers, No. 10, pp. 85-106, jan 2016. [2] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A Diversity-Promoting Objective Function for Neural Conversation Models. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics. [3] Sarik Ghazarian, Ralph Weischedel, Aram Galstyan, and Nanyun Peng. Predictive Engagement: An Efficient Metric for Automatic Evaluation of Open-Domain Dialogue Systems. In AAAI Conference on Artificial Intelligence, p. 8, 2020. [4] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: A Method for Automatic Evaluation of Machine Translation. In Proceedings of 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [5] Chin-Yew Lin. ROUGE: A Package for Automatic Evaluation of Summaries. In Text Summarization Branches Out: Proceedings of the ACL-04 Workshop, pp. 74-81, Barcelona, Spain, July 2004. Association for Computational Linguistics. [6] Chia-Wei Liu, Ryan Lowe, Iulian Serban, Mike Noseworthy, Laurent Charlin, and Joelle Pineau. How NOT To Evaluate Your Dialogue System: An Empirical Study of Unsupervised Evaluation Metrics for Dialogue Response Generation. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2122-2132, Austin, Texas, November 2016. Association for Computational Linguistics. [7] Michel Galley, Chris Brockett, Alessandro Sordoni, Yangfeng Ji, Michael Auli, Chris Quirk, Margaret Mitchell, Jianfeng Gao, and Bill Dolan. deltaBLEU: A Discriminative Metric for Generation Tasks with Intrinsically Diverse Targets. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 445-450, Beijing, China, July 2015. Association for Computational Linguistics. [8] Prakhar Gupta, Shikib Mehri, Tiancheng Zhao, Amy Pavel, Maxine Eskenazi, and Jeffrey Bigham. Investigating Evaluation of Open-Domain Dialogue Systems With Human Generated Multiple References. In Proceedings of the 20th Annual SIGdial Meeting on Discourse and Dialogue, pp. 379-391, Stockholm, Sweden, September 2019. Association for Computational Linguistics. [9] Yuma Tsuta, Naoki Yoshinaga, and Masashi Toyoda. uBLEU: Uncertainty-Aware Automatic Evaluation Method for OpenDomain Dialogue Systems. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 199-206, Online, July 2020. Association for Computational Linguistics. [10] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed Representations of Words and Phrases and their Compositionality. In Advances in Neural Information Processing Systems, Vol. 26. Curran Associates, Inc., 2013 [11] Yi-Ting Yeh, Maxine Eskenazi, and Shikib Mehri. A Comprehensive Assessment of Dialog Evaluation Metrics. In The First Workshop on Evaluations and Assessments of Neural Conversation Systems, pp. 15-33, Online, November 2021. Association for Computational Linguistics. [12] Ryan Lowe, Michael Noseworthy, Iulian Vlad Serban, Nicolas Angelard-Gontier, Yoshua Bengio, and Joelle Pineau. Towards an Automatic Turing Test: Learning to Evaluate Dialogue Responses. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1116-1126, Vancouver, Canada, 2017. Association for Computational Linguistics. [13] Chongyang Tao, Lili Mou, Dongyan Zhao, and Rui Yan. RUBER: An Unsupervised Method for Automatic Evaluation of OpenDomain Dialog Systems. In AAAI Conference on Artificial Intelligence, pp. 722-729, 2018. [14] Jiwei Li, Michel Galley, Chris Brockett, Georgios Spithourakis, Jianfeng Gao, and Bill Dolan. A Persona-Based Neural Conversation Model. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 994-1003, Berlin, Germany, August 2016. Association for Computational Linguistics. [15] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing Dialogue Agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2204-2213, Melbourne, Australia, July 2018. Association for Computational Linguistics. [16] Qian Liu, Yihong Chen, Bei Chen, Jian-Guang Lou, Zixuan Chen, Bin Zhou, and Dongmei Zhang. You Impress Me: Dialogue Generation via Mutual Persona Perception. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1417-1427, Online, July 2020. Association for Computational Linguistics. [17] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [18] Diederik P. Kingma and Jimmy Ba. Adam: A Method for Stochastic Optimization. In International Conference for Learning Representations, 2015.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B5-1.pdf
# 話題提供雑談システムにおける感情と意見の表出方法の検討 成田風香 ${ }^{1}$ 佐藤志貴 ${ }^{1}$ 徳久良子 ${ }^{1}$ 乾健太郎 1,2 1 東北大学 2 理化学研究所 fuka.narita.q1@dc. tohoku.ac.jp ## 概要 本研究では,システムが話題を提供し雑談を主導する話題提供雑談システムに焦点をあてる. 人と人との雑談では感情や意見を述べることで対話が盛り上がるとされるが,感情や意見を持たない対話システムがどのようにそれらを表出して話題を提供すべきかは自明でない. 本稿では,システムがニュースに基づく話題提供を行う対話を対象に,システムの話題提供発話における感情や意見の表出形態と対話の盛り上がりの関係を調べる枠組みを提案する。また,提案法に沿って小規模に対話を収集・評価し,提案手法の有用性と課題を確認した。 ## 1 はじめに 近年,ニューラルネットワークによる応答生成が盛んに研究され,傾聴対話システム $[1,2,3]$ や QA システム $[4,5,6]$ など,ユーザ発話に対する応答を生成するシステムの性能は高いものとなってきた。 しかし,システムがイニシアチブを持ち,対話を主導するような雑談システムについてはいまだ萌芽的な状態にある $[7,8]$. 本研究では,システム自身が話題を提供しながら雑談を主導する雑談システム (以下,話題提供雑談システム)の実現を目指す。 雑談はタスク指向型対話と異なり,その対話自体で話者の満足度を上げることが目的であるため,話題提供雑談システムもできるだけ対話を盛り上げてユーザを満足させることが望まれる。Akasaki らは, システムによるユーザを飽きさせないような話題提供を目的として,ニュース記事の要約とそれを踏まえた意見や問いかけからなる話題提供発話の生成に着目した [9]. Akasaki らの提案する枠組みでは, ニュース記事に対するリプライツイートを学習デー タとして,ニュース記事を踏まえた意見や問いかけの生成をシステムに学習させる.そのため,システムが自分自身の意見を有しているような発話を生成することで話題を提供することになる。人と人との 図 1 ニュース記事を対象とした話題提供雑談システム 雑談では,このように感情や意見を述べる発話が盛り上がりに寄与することが知られている [10]. しかし,そもそも人とは異なり感情や意見を持たない雑談システムが感情や意見を表出することで,ユーザが満足する雑談ができるのか,それらを表出する場合はどのように表出すればユーザがより満足する雑談ができるのかは自明でない。 そこで我々は,多様な話題を提供しながら雑談を盛り上げる話題提供雑談システムのひとつの実現形態である「ニュース記事に関する話題提供雑談システム」を対象に,雑談におけるシステムの効果的な感情や意見の表出形態を調査する枠組みを提案する。提案法では,ニュース記事とそれに対する感情や意見を含むツイートからなる資料をもとに,Wizard of $\mathrm{Oz}(\mathrm{WOZ})$ 方式で人間同士に対話をさせる. システム役による資料中のツイート情報の使い方とユーザ役の対話に対する評価結果の関係から効果的な感情や意見の表出形態を調査する. 本稿では,まずニュース記事に関する話題提供雑談システムへの,ツイートを活用した感情や意見付与の実現可能性を調査する.そのうえで,提案法に沿って小規模に対話を収集および評価し,提案法の有用性を確認する。将来的には図 1 に示すような話題提供雑談システムの実現に向け,提案法を用いた大規模実験を行い,感情や意見の表出に関しシステムに望まれる発話内容・発話形態を明らかにする。 2021年11月11日 図 2 一日あたりの一記事に対するツイート数 ## 2 感情・意見付与の実現可能性調査 ニュース記事に関する話題提供雑談システムが感情や意見を表出するためには,システムがニュース記事の内容を理解して応答を生成する必要がある. しかし,多様なニュース記事に関して適切な感情や意見を表出することはシステムにとって簡単ではない.そこで我々は,ニュース記事に対するツイートを活用した感情や意見を伴う応答生成に着目する.図 1 は,ニュース記事とそれに対するツイートを活用した話題提供雑談システムの模式図である. 仮に対話に利用するツイートを適切に選択できれば,図 1のようにシステムとユーザが互いに意見を交える対話が実現できると考えられるが,実現にはニュー ス記事に対する感情や意見を表出したツイートが一定数必要となる. そこで, ニュース記事に対する感情や意見を含むツイートがどの程度収集可能かを調査した1). 調査結果を図 2 亿示す. 図 2 から,感情や意見を含むツイートが数十件以上なされたニュース記事が毎日安定して得られる見込みがあり,ツイートを活用して感情や意見を表出する発話を生成することは実現可能と考えられる。 ## 3 提案する調査の枠組み 感情や意見をどのように表出すればユーザが満足する雑談を実現可能かを検討するために,WOZ 方式の対話に基づく調査の枠組みを提案する. 提案する枠組みは,1. システム役に提示する資料の作成, 2. システム役・ユーザ役による対話,3.ユーザ役に  表 1 システム役の最初の発話の例 よる対話の評価からなる。 ## 3.1 システム役に提示する資料の作成 システム役が 3.2 節で述べる条件に従って感情や意見を含む話題提供を行うため,(ニュース記事,最初の発話,感情や意見を含むツイート)の三つ組からなる資料を対話収集者が作成する。 ニュース記事の選択対話において多様な意見を表出できるようにするため,ツイート数が多いニュース記事を選択する。 最初の発話の作成選択したニュース記事に関してスムーズに話題提供雑談を開始できるように,システム役の最初の発話は 3.2 節に示す 3 条件に合わせてあらかじめ作成する. 作成例を表 1 に示す. ツイートの選択選択したニュース記事に対する感情や意見を述べたツイートから内容が重複しないものを選択する2). ## 3.2 システム役とユーザ役による対話 二人一組のペアが WOZ 方式により雑談を行う. システム役に対する教示システム役は,以下の 3 条件のいずれか一つに従って対話をする。 ・事実のみ条件システムが感情や意見を持たないことを反映し,感情や意見は表出せずニュー ス記事とそれに関連する事実のみを伝える ・第三者的条件システムは自我を持たないため自分の感情や意見として述べるよりは第三者的に伝える方が自然である可能性を考慮し,ツイートを用いて「○○と言っている人がいます」のように第三者的に感情や意見を伝える ・主体的条件システムは感情や意見を持たないが,人間を模倣してツイートを「私は○○と思 2) 以下のように内容が類似したツイートが 2 つ以上ある場合はそのうち1つを選択して記載する。 ・「うわあ…知多半島で定着か…」 ・「うへえ,知多半島にまさかまさかの定着確認か.」 います」のようにシステム自身の意見や感情として伝える システム役には 3.1 節の資料を見せ,資料に記載された「最初の発話」の発話後は,指定された条件に従ってできるだけ自然にユーザと対話させる.対話を自然に進められるよう,相槌や情報端末を用いた検索結果の回答は可能だが,ツイートに基づいた発話を生成する枠組みを模倣するため,システム役自身の知識・意見を伴う発言は不可とする。また, ユーザが飽きて対話を終了させるまでの長さを調べるため,システムから対話を終了させることは不可とする. ユーザ役への教示システム役と自由に雑談するよう指示する。自然な雑談対話を収集するため,一発話目はシステムから発話されることと,対話をやめたくなったら「そろそろ対話を終了します」に類する発話をすること以外は特に教示はしない。 ## 3.3 ユーザ役による対話の評価 ユーザ役は各対話の終了時に対話を評価する。評価指標は [1]を参考に定めたものであり,『システムの発話は人間らしかった』『このシステムは話しやすい』『会話は盛り上がった』などの観点について 5 段階3) で評価する。評価指標は付録 A に記載する。 ## 4 提案手法の妥当性の検証 将来的に大規模に対話を収集して分析するため,提案法に沿って小規模に対話を収集および評価し,大規模な対話収集によりどのような分析が可能かを調べるとともに,実験設定の課題を確認する。 ## 4.1 実験設定 対話に用いるニュース記事ツイート数が 60 件以上であり,雑談に適切と思われるニュース記事4) を 3 件選んだ。ニュース記事の概要を表 2 に示す。 対話者著者所属研究室の学生 6 人を参加者とし,システム役,ユーザ役のペア 3 組を作成した ${ }^{5)}$. 3 組のニュース記事・条件の割り当てを表 3 に示す。 アンケート提案法の改善の参考とするため, ユーザ役が 3.3 節で述べた各対話の評価をする際, 3) 1: そう思わない・2: あまりそう思わない・3: どちらでもない・4: そう思う・5: とてもそう思う 4)事前検討で話しにくかった政治に関する記事,人の思想を含む記事,不快な印象を与えるツイートが多い記事は除いた。 5)話者同士の人間関係が対話に影響するのを避けるため,対話相手が誰かはわからない状態で対話を収集した。 表 3 ニュース記事・条件の割り当て 『会話は盛り上がった』という評価項目に対する評価結果の理由も記述するよう指示した. また,システム役に対しても対話ごとにアンケートを実施した. アンケート項目は付録 Aに示す. ## 4.2 収集された対話および評価の分析 図 3 にユーザ評価の結果を示す. 同図から主体的条件では安定して『会話は盛り上がった』という観点の評価が高い傾向が得られた. 実際に主体的条件で収集した対話では,表 4 に示す例のようにシステム自身の経験を述べる発話が確認された。同対話後のユーザへのアンケートでは「経験談を交えていろいろ説明してくれたから」,『会話は盛り上がった』 の項目で 5 段階中 4 と回答を得た。また,「経験談的なものを交えた会話をしてくれると(たとえそれが嘘であっても)すごく人間味の感じられる対話になった気がした」という回答も得られた。 一方,『会話は盛り上がった』『このシステムは話しやすい』という観点についての評価が特に低い対話があった,事実のみ条件での対話の例を表 5 に示す. 同対話後のアンケートでは,システム役から「事実のみを伝えるため,若干会話としてのつなぎ目が荒くなりやすいなと感じた」,ユーザ役から 「対話もチグハグだったように感じた」との回答が得られ,感想や意見を表出しない場合は不自然な対話になる傾向が見られた.ニュース記事に対してツイートされた意見をシステムが自身の意見として伝えることで,対話が自然で人間らしいものとなり盛り上がる可能性がある. 小規模な対話収集による評価ではあるものの,感情や意見の表出条件に応じてユーザーの評価結果に差が見られたことから,今後大規模に対話を集めることで適切な感情や意見の表出形態が明らかになる 表 4 ツイートを使用して経験が述べられた対話の一部 U: すごく詳しいですね! 読んだことはあるんですか? $\mathrm{S}$ : 小説はわかりませんが,講演会で貴重なお話を 2 度聞かせていただいたことがあり,私がした質問に丁寧に答えていただきました. それをきっかけに寂聴さんの連載は読んでいました。 U: そうなんですね! それは良い経験ですね. 図 3 ユーザによる対話評価の一部 見通しを得た。 ## 4.3 大規模収集に向けての要検討点 システムのペルソナ情報収集した対話において, システムの「わからない」という旨の発話後に対話が終了に向かう例を数件確認した. その原因の一つがペルソナ情報の欠如である.表 6 の対話では,システムが生まれた時期を問われた直後に対話が終了した. 本研究では, 感情や意見の表出形態に関する 3 条件とユーザの飽きの関係の調査を目的とするため,ペルソナ情報の欠如に由来する対話の終了はノイズとなる可能性がある.対策として,システムに対するペルソナ情報の付与が考えられる. 話題の転換システム役に対するアンケートでは 「引用できるツイートがニュースに関するもののみでだったため,話題が変わった際には事実を伝えることしかできなくなり少し話しづらさがあった.」 との回答を得た. 話題が変わって適切なツイートが資料に無い場合はツイートを検索してもよいと教示することで解決されると考えられる。 大規模収集では教示を追加したうえでどの程度話題が転換されるのかという点についても分析したい. 話題による話しやすさの差今回の小規模対話収集で得たアンケートから,対話の話題による話しやすさの差が確認された。例として,「大谷選手 MVP」 についての対話では「自分が興味関心がある・普段もこのような話題について会話する機会があったことも話しやすさにつながってしまった」とシステム表 5 事実のみ条件で不自然になった対話の一部 $\mathrm{U}$ : テレビなどでも見かけていた方だったので,残念ですね. S: 作家としての活動もしており,著作は 400 冊を超えるようでした. U: そんなに書かれていたんですね. 知りませんでした. $\mathrm{S}$ : 新潮社同人雑誌賞や,芸術選奨文部大臣賞なども受賞しています。 U: すごいですね. 99 歳というと長生きされたんですね. S: 葬儀は近親者で行われるようです. 表 6 ペルソナ情報を問う質問がなされた対話の一部 $\mathrm{S}$ : そうですね,「元気に 100 歳迎えられると思ってたのでとても残念です」と言っている人もいるようです. U: システムさんは,まだ生まれたばかりなんですか? S: すみません,それについては分からないです. U:そろそろ対話を終了します 役から回答があった一方で,「瀬戸内寂聴死去」についての対話では「訃報のため,話す内容に気を遣うから」,『今回の話題は話しやすかった』の項目で 5 段階中 4 と回答を得た. 大規模収集時は,取り扱う話題による話しやすさの差を考慮した分析を実施する必要がある. ニュース記事・ツイートの選択小規模対話収集を実施するにあたり,ニュース記事に対するツイー トを人手で確認した結果,記事によっては「おめでとう」など内容を含まないツイートや,拡散を目的としたテンプレートに従ったツイートが大半を占めることがあると判明した.そのため,ニュース記事に対するツイート数を揃えるだけでは,記事によって対話に利用可能なツイート情報の量には差が生じてしまう可能性がある. 大規模収集に向け,これらの点も考慮してニュース記事や使用ツイートを選択する枠組みを設計する必要がある. ## 5 おわりに 本稿では「ニュース記事に関する話題提供雑談システム」を対象に,雑談におけるシステムの感情や意見の表出形態とユーザの満足度の関係を調査する枠組みを提案した。提案法に沿って小規模に対話を収集および評価したところ,ユーザが満足する話題提供雑談を行うためには,システムが感情や意見をシステム自身のものとして組み込みながら話題を提供することが効果的であることが示唆された. 今後は実験設定を更に改善したうえで大規模対話収集を実施し,ユーザの満足度を向上させるシステムの感情や意見の表出形態を詳しく分析する予定である. ## 謝辞 本研究の一部は JSPS 科研費 JP19H04425, JP21J22383 の助成を受けたものです. 本研究のため実施した実験にご協力いただいた東北大学乾研究室の皆様に感謝いたします. ## 参考文献 [1] 井上昂治, ラーラーディベッシュ, 山本賢太, 中村静,高梨克也, 河原達也. アンドロイド ERICA の傾聴対話システムー人間による傾聴との比較評価-. 人工知能学会論文誌, Vol. 36, No. 5, pp. H-L51_1-12, 2021. [2] Toyomi Meguro, Ryuichiro Higashinaka, Yasuhiro Minami, and Kohji Dohsaka. Controlling listening-oriented dialogue using partially observable Markov decision processes. In Proceedings of the 23rd International Conference on Computational Linguistics (Coling), pp. 761769, 2010. [3] Toshiaki Nishio, Yuichiro Yoshikawa, Takamasa Iio, Mariko Chiba, Taichi Asami, Yoshinori Isoda, and Hiroshi Ishiguro. Actively listening twin robots for longduration conversation with the elderly. ROBOMECH Journal, Vol. 8, , 2021. [4] Yoji Kiyota, Sadao Kurohashi, and Fuyuko Kido. "dialog navigator": A question answering system based on large text knowledge base. In Proceedings of the 19th International Conference on Computational Linguistics (COLING), 2002. [5] Miguel Coronado, Carlos A. Iglesias, and Alberto Mardomingo. A personal agents hybrid architecture for question answering featuring social dialog. In Proceedings of the 2015 International Symposium on Innovations in Intelligent SysTems and Applications (INISTA), pp. 1-8, 2015. [6] 吉田尚水, 岩田憲治, 渡辺奈夕子, 小林優佳, 藤村浩司. FAQ 集から自動で構築可能な QA 対話システム.人工知能学会研究会資料言語・音声理解と対話処理研究会, Vol. 87, pp. 113-114, 2019. [7] Peixiang Zhong, Yong Liu, Hao Wang, and Chunyan Miao. Keyword-guided neural conversational model. In Proceedings of the AAAI Conference on Artificial Intelligence (AAAI), Vol. 35, pp. 14568-14576, 2021. [8] 岸波洋介, 赤間怜奈, 佐藤志貴, 徳久良子, 鈴木潤, 乾健太郎. 目標指向対話のためのサブゴール設計に基づく発話系列生成. 人工知能学会研究会資料言語・音声理解と対話処理研究会, Vol. 93, pp. 70-73, 2021. [9] Satoshi Akasaki and Nobuhiro Kaji. Conversation initiation by diverse news contents introduction. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT), Volume 1 (Long and Short Papers), pp. 3988-3998, 2019. [10] 徳久良子, 寺嶌立太. 雑談における発話のやりとりと盛り上がりの関連. 人工知能学会論文誌, Vol. 21, No. 2, pp. 133-142, 2006. ## A 評価指標 ユーザ役が対話終了後に評価する評価指標の一覧を表 7 に,小規模実験実施時にシステム役に対して行ったアンケート項目の一覧を表 8 に示す. 表 7 ユーザ役がそれぞれの対話後に回答した評価指標 1. システムの反応は人間らしかった 2. システムの反応はあなたの話を適切に促していた 3. このシステムとまた話したい 4. このシステムは話しやすい 5. システムは親身だと感じた 6. システムは真面目に話を聞いていた 7. システムは話を理解していた 8. システムは話に対する関心を示していた 9. システムはあなたに対して共感を示していた 10. システムは積極的に情報提供していた 11. 会話について満足した 12. 会話でのやりとりはスムーズだった 13. 会話は盛り上がった 表 8 システム役がそれぞれの対話後に回答したアンケートの項目 1. 今回の話題は話しやすかった 2.1.のように答えた理由を教えて下さい. 3. 今回の条件は話しやすかった 4. 3. のように答えた理由を教えて下さい. 5. 指定された条件通りに対話できましたか 6. 5. で「できなかった」と答えた方はその理由を教えて下さい ## B システムが積極的に情報提供を行うことの妥当性 4 節の図 3 から,システム役からの情報提供の積極性と対話の盛り上がりの関係は見られなかったが,アンケートにおいて積極的な情報提供に関するユーザの感想が得られた. 表 9 の対話後には「大谷選手について,「8冠」という情報が印象に残りました.」との理由で『会話は盛り上がった』の項目で 5 段階中 5 と回答を得た。また,別の対話後のユーザの評価では「一旦会話が終了したような時でも,次の話題を提供していた」ため『会話は盛り上がった』の項目で同様に 5 と回答を得た. これらの 2 つ評価より,システムがイニシアチブを持って話題提供を行うことの有用性が示唆された。 表 9 主体的条件・大谷選手MVP についての対話 U: その通りですね. 大谷選手にはこれからもぜひ活躍して欲しいです. S: 今回の受賞で「8冠」となるので,これからも頑張ってほしいと思います. U:「8冠」ですか!他にはどんな賞を取られてるんですか?
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B5-2.pdf
# 曖昧なユーザ要求に対する因果関係知識を用いた 気の利いたシステム行動の選択 田中翔平 1,2,3 吉野幸一郎 2,1,3 須藤克仁 1,3 中村哲 1,3 1 奈良先端科学技術大学院大学 2 理化学研究所 ガーディアンロボットプロジェクト 3 理化学研究所 革新知能統合研究センター \{tanaka.shohei.tj7, sudoh, s-nakamura\}@is.naist.jp koichiro.yoshino@riken.jp ## 概要 タスク対話システムは, ユーザの要求に応じて適切なタスク行動を行う。この際,ユーザ発話が明確な場合のみならず, ユーザ発話が曖昧な場合でも適切なタスク行動を行うことが求められる. 本研究で提案するシステムは,こうした曖昧なユーザ発話に対して,そこから推測できる潜在的な要求に対応したタスク行動を選択することを目標とする。曖昧なユーザ発話に対して気の利いたシステム行動は複数存在しうるため, これらが一対一で対応付けられたデータから, Positive/Unlabeled (PU) 学習による分類器を学習する. また, 学習データセットから因果関係検出モデルによって因果関係に相当する知識を抽出・蒸留することで, より精度の高いシステム行動の識別を実現する.実験の結果, 提案する因果関係検出モデルを用いる手法は, 単純に PN 学習や PU 学習を用いた場合よりも高精度で気の利いたシステム行動を識別できることが示された。 ## 1 はじめに 音声対話研究において, 従来の音声言語理解システムの多くは,ユーザがシステムに対する要求を明示的に示すことを仮定している [1]. しかし実際には, ユーザの要求はしばしば曖昧であり, ユーザ自身が明示的な要求を自覚していない場合も多い [2]. こうした場合, 人間のコンシェルジュやガイドであれば気を利かせてユーザが必要とする補助を提供できる。例えば,ユーザが「ここの景色最高だね!」 と発話したとき,「写真を撮りましょうか?」などと応答することができる. こうした行動選択を実現する方法のひとつとして,特定のシステム行動に対してそれが気が利いて 図 1 ユーザ要求とシステム行動のペア いると見なすことができる曖昧なユーザ発話を収集し,これを学習データとして識別に用いる方法が挙げられる [3]. この方法論では, ある曖昧なユー ザ要求に対して, 気の利いた行動である可能性が高い行動候補の一つを収集することができる.例えば図1のような「和食に飽きた」というユーザ要求に対しては,「肉料理店の提案」や「中華料理店の提案」など複数のシステム行動候補のうち一つだけが収集される。つまり,意図が曖昧なユーザ発話に対して, 少数の気の利いた行動候補と, 気が利いているかわからない多数の行動候補が存在する, Positive/Unlabeled (PU) 分類問題 $[4,5,6]$ が定義される. 本研究ではこうした曖昧なユーザ発話からシステムが取りうる気の利いた行動を識別する問題において, 事例から汎化された因果関係のような知識を用いることを考える. 具体的には,学習データから因果関係に相当する知識を蒸留し, システム行動の選択においてこの知識を用いる。このため,テキストデータからの因果関係検出モデルを導入する.この因果関係検出モデルにおいては, 曖昧なユーザ発話を原因,気の利いたシステム行動を結果とした学習を行い, 因果関係に相当する特徴量抽出を行った. この抽出特徴量を, PU 学習における分類器のラべル伝播に利用し,気の利いた行動の識別に利用したところ,識別の精度向上が確認された。 ## 2 データセット 既存の多くのタスク対話システムは,ユーザの意図はユーザの中で明確化されており,曖昧性のないユーザ発話が与えられることを仮定している。しかし実際には,システムと対話する時に何を要求したいか定まっていない場合も多く,そのようなケースでのユーザ発話は意図が曖昧なものになりやすい。 ARTA コーパス [3] は観光案内のドメインにおいてユーザとスマートフォンアプリケーション上の対話エージェントとの対話を想定し,システムが取りうる行動 (応答) に対してそれが気が利いていると見なすことができる曖昧なユーザ発話を付与したものである. 図 2 にこのコーパス中の対話例を示す.ここでユーザの「ここの景色最高だね!」という発話は, 必ずしも特定の機能に対する要求として言語化されているわけではない。これに対して,対話エー ジェントが「カメラアプリを起動しましょうか?」 という気の利いた応答を返し, 実際のカメラ機能を起動できるようにする. このコーパス中では対話エージェントの機能 (システム行動; 応答) はスポット検索, レストラン検索,アプリ起動の 3 つに大きく分けて定義されている. 定義された機能のリストを表 1 に示す. 各機能はそれぞれ細分化されたカテゴリを持ち,コーパス中の対話エージェントの応答はこれらのカテゴリに紐付いて生成される. 定義されたカテゴリは全部で 70 種類である. 本コーパスでは, これらのあらかじめ定義されたエージェントの応答カテゴリに対して, 広範なユーザの先行発話をワーカーに入力してもらう方法により発話-応答ペアが収集されている.収集されたコーパス中の発話例を表 2 に示す.コー パス中に含まれるユーザ発話と応答カテゴリのペアは合計 27,230 であり, 学習データ:検証データ:テストデータ $=24,430: 1,400: 1,400$ の割合で分割されている. ARTA コーパスに含まれるユーザ発話は要求が曖昧であるため, 気が利いていると認定される応答があらかじめ定義された 1 種類とは限らない。しかし全てのユーザ発話とシステム行動の組み合わせに対して全応答カテゴリに対応するかどうかラベリングを行うことは多大なコストが掛かり,現実的ではない.そこでこのコーパスは,テストデータに含まれる 1,400 発話に対してのみ, 可能なシステム行動が網羅的に付与されている (平均 9.55 種類). 例えば 図 2 気の利いた対話例 表 1 対話エージェントの機能とカテゴリ:#はカテゴリ 表 2 の「最近は和食が多くて少し飽きてきたんですよね」というユーザ発話例では,肉料理や中華,イタリアンといった複数の応答カテゴリが気が効いている行動と認定されている. つまり, 正解となるテストデータには正例・負例となるシステム行動が明示的にアノテーションされているが, 学習データには正例の一部のみがアノテーションされており, 残りの部分のアノテーションがない Positive/Unlabeled (PU) の問題になっている. ## 3 分類モデル 本論文では,気の利いたシステム行動を識別するタスクにおいて因果関係に相当する知識を導入する.このため, まず問題に対応した PU 学習に基づく分類モデルについて説明する.このモデルに対して,因果関係検出モデルを用いた因果関係スコアを導入し,学習データの正例中に存在する因果関係相当の知識を用いて分類精度の向上を目指す。 ## 3.1 PU 学習を用いた分類モデル 図 3 にユーザ発話の分類タスク及びモデルの概要を示す. 分類モデルは入力されたユーザ発話を,そのユーザ発話に紐付けられた対話エージェントの正解応答 (正例) カテゴリへと分類する. ここで, 曖昧なユーザ発話に対して正解となりうるシステム応答の候補は一つではない場合も多いため, PU 学習を用いる. 具体的には Cevikalp ら [6] が提案したラべル伝播 $[7,8]$ に基づいた PU 学習を用いる.この手法はラベル付けされていない事例に対して,分散表現上で近傍のラベル付けされた事例のラベルを伝播するものである.具体的には,事例同士の類似度スコア $s_{i j}$ を次式のように計算する. $ s_{i j}=\exp \left(-\frac{d\left(\mathbf{x}_{i}, \overline{\mathbf{x}_{j}}\right)}{\bar{d}} \cdot \frac{|C|}{|C|-1}\right) \text {. } $ 表 2 ARTA コーパス [3] 中に含まれるユーザ要求の例 \\ いい景色だな 図 3 ユーザ要求分類器 $\overline{\mathbf{x}_{j}}$ はシステム行動 $j$ が正例とされるユーザ発話の分散表現の平均ベクトルである. $d\left(\mathbf{x}_{i}, \overline{\mathbf{x}_{j}}\right)$ は $\mathbf{x}_{i}$ と $\overline{\mathbf{x}_{j}}$ のユークリッド距離であり, $\bar{d}$ は全距離の平均である. $C$ は定義されたシステム行動の集合であり, $|C|=70$ である. $s_{i j}$ の值域は $0 \leq s_{i j} \leq 1$ であり, 2 つの分散表現間のユークリッド距離が短いほど大きな値をとる. 本研究ではこの手法を PU と呼ぶ. 類似度スコア $s_{i j}$ は次式を用いて $-1 \leq s_{i j} \leq 1$ の範囲にスケーリングされる. $ \tilde{s_{i j}}=-1+\frac{2\left(s-\min \left(s_{i j}\right)\right)}{\max \left(s_{i j}\right)-\min \left(s_{i j}\right)} \text {. } $ スケーリングされた類似度スコア $\tilde{s_{i j}}$ が $0 \leq \tilde{s_{i j}} \leq 1$ であるとき, システム行動 $j$ を対象のユーザ発話の正例として扱い, このサンプルの正例としての重みを $\tilde{s_{i j}}$ とする. $\tilde{s_{i j}}$ が $-1 \leq \tilde{s_{i j}}<0$ のとき, システム行動 $j$ を対象のユーザ発話の負例として扱い,重みを- $-\tilde{s_{i j}}$ とする. 類似度スコア $s_{i j}$ を用いたラベル伝播に基づく損失関数は次式の通りである ${ }^{11}$. Loss $=$ $ \begin{aligned} & \sum_{i}^{\left|U_{\text {train }}\right|} \sum_{j=1}^{\left|C_{x_{i}}^{+}\right|} \sum_{k=1}^{\left|C_{x_{i}}^{-}\right|} \tilde{s_{i j}} \tilde{s_{i k}} L\left(r_{j}\right) R_{s}\left(\mathbf{w}_{j}^{\top} \mathbf{x}_{i}-\mathbf{w}_{k}^{\top} \mathbf{x}_{i}\right) \\ & +\kappa \sum_{i}^{\left|U_{\text {train }}\right|} \sum_{j=1}^{|C|} \tilde{s_{i j}} R_{s}\left(y_{i j}\left(\mathbf{w}_{j}^{\top} \mathbf{x}_{i}\right)\right) . \end{aligned} $ 式(3)において, $\tilde{s_{i j}}$ は伝播されたシステム行動の,損失関数への寄与率を表す重みとして働く. 正例として元々付与されているシステム行動の類似度スコア $\tilde{s_{i j}}$ は 1 である.  ## 3.2 因果関係知識を用いた類似度スコアの 調整 3.1 節におけるラベル伝播法は,ユーザ発話同士の類似に基づいてラベルを伝播している。しかし, ユーザがある要求を行った場合に一般的にどのような行動を取ることが適切か, 学習データにおいて観測される因果関係を考慮することで,より適切なラベル伝播を行うことができる可能性がある. そこで本研究では,こうした因果関係を汎化された知識として抽出・蒸留しシステム行動の識別に利用するために,ユーザ発話を原因,システム行動を結果とみなして構築した因果関係検出モデルを用いる. 例えば「和食に飽きる」 $\rightarrow$ 「肉料理を食べる」というぺアがあった場合,前者を原因,後者を結果と見なしてモデルを構築する.この構築されたモデルから出力された因果関係スコアを,ラベル伝播における新しい特徴として利用する。 図 4 に因果関係スコアを算出する因果関係検出モデルの概要を示す.このモデルは $[\mathrm{SEP}]$ トークンで連結された原因, 結果を BERTによって実数ベクトルに変換し,MLPによって実数值の因果関係スコアを算出する。因果関係スコアの値が大きいほど,入力された原因,結果は因果関係として強く結びつくことを意味する。 本研究ではユーザ発話, システム行動に含まれるイベント間の因果関係認定を行いたい。より単純なイベント同士の関係に着目することで,今回のタスクにおける因果関係を蒸留した因果関係スコアを算出できることが期待される。そこで本研究では因果関係グラフ [9]を用いてユーザ要求を解析し,ユー ザ要求に含まれる述語項構造をイベントの基本単位として BERT に入力する.因果関係グラフは「なぜなら」などの言語学的な特徴量に基づいて文中の因果関係を検出するツールであり, 前処理として文中のイベントを述語項構造を基本単位として抽出する.また結果として入力するシステム行動に含まれるイベントについては,システム行動が「肉料理の検索」であれば「肉料理を食べる」など, 70 種類の各システム行動に対応した述語項構造として定義する. 図 4 因果関係検出モデル 因果関係検出モデルの学習には, ユーザ発話と正例として紐づけられたシステム行動に含まれるイベントのペアを正例 $c x_{i}{ }^{+}$, 正例として紐づけられていないぺアを負例 $c x_{i}^{-}$とした次式の margin ranking lossを用いる. $ \operatorname{Loss}\left(c x_{i}^{+}, c x_{i}^{-}\right)=\max \left(0,-\left(c_{i}^{+}-c_{i}^{-}\right)+0.5\right) . $ $c_{i}{ }^{+}, c_{i}^{-}$はそれぞれ正例, 負例に対してモデルが出力した因果関係スコアであり, 式 (4) は $c_{i}{ }^{+}-c_{i}{ }^{-} \geq 0.5$ のとき 0 となる. 学習済みの因果関係検出モデルを用いて, 式 (3) の類似度スコア $\tilde{s_{i j}}$ を更新する。具体的には,まずユーザ発話 $x_{i}$ に対して紐づけられていないシステム行動 $j$ のイベントの全てのペアについて因果関係スコア $c_{i j}$ を計算する. ユーザ要求中に複数のイベントが含まれている場合,最も因果関係スコアが高くなるイベントをユーザ要求 $x_{i}$ としてスコアを計算する. 次に, 全体の因果関係スコアについて式 (2) を用いて $-1 \leq c_{i j} \leq 1$ の範井にスケーリングした上で, 式 (5) の通り PU 学習における類似度スコアの更新に用いる. $ \hat{s_{i j}}=\max \left(\min \left(\tilde{s_{i j}}+c_{i j}-\gamma, 1\right),-1\right) \text {. } $ $\gamma$ は因果関係スコアの影響を調整するためのハイパーパラメータである. アップデートされた類似度スコア $\hat{s_{i j}}$ を式 (3)にて用い, 分類モデルを学習する. 本研究ではこの手法を PU-causal と呼ぶ. ## 4 実験 ARTA コーパスで定義されている通り, 曖昧なユーザ発話を入力として対応しうる気の利いたシステム行動のカテゴリを出力するモデルを評価した結 果を表 3 に示す. 比較手法としては,論文で述べた $\mathrm{PU}$ 学習, PU 学習のラベル伝播時に因果関係知識を用いる提案法の他に,単純に Unlabeled なデータを負例として扱う PN 学習による分類を用いた。評価指標として, Accuracy (Acc.), Recall@5 (R@5), Mean Reciprocal Rank (MRR) を用いた2). このとき, PN 学習や単純にユーザ発話とシステム行動の関係を PU 学習で識別する手法 (PU) よりも,因果関係知識を用いた PU 学習手法 (PU-causal) がすべての指標について有意な性能差 ( $\mathrm{t}$ 検定; 有意水準 0.01 ) を示した。 実際にラベル伝播法が PU 学習にどの程度効果的に働くかを検証するため,テストデータに対してラベル伝播を実施した場合の性能を表 4 に示す. 表 3 と表 4 を比較すると,ラベル伝播時の誤伝播がモデルへの影響が大きく, より伝播の適合率が重視されるタスクであることがわかる。また提案する因果関係知識を用いた手法の方がユーザ要求間の類似度スコアのみを用いた場合よりも精度が高いことがわかる. ## 5 おわりに 本研究ではユーザの曖昧な要求と対話エージェントの気の利いた応答を対応付ける分類モデルの学習に因果関係知識を用いた。具体的には PU 学習におけるラベル伝播に用いる特徴量として, ユーザ要求とカテゴリ応答が因果関係として結びつくかを判定する因果関係スコアを提案した。ユーザ要求の分類実験の結果,提案する特徵が PU 学習におけるラべル伝播の適合率を高め,その結果分類器の精度を向上できることがわかった。  ## 謝辞 本研究に利用した因果関係グラフを提供して頂いた京都大学黒橋研究室の黒橋禎夫教授, 植田暢大さん,清丸寛一さんに感謝いたします. ## 参考文献 [1] Steve Young, Milica Gašić, Simon Keizer, François Mairesse, Jost Schatzmann, Blaise Thomson, and Kai Yu. The hidden information state model: A practical framework for pomdp-based spoken dialogue management. Computer Speech \& Language, Vol. 24, No. 2, pp. 150-174, 2010. [2] Koichiro Yoshino, Yu Suzuki, and Satoshi Nakamura. Information navigation system with discovering user interests. In Proceedings of the 18th Annual SIGdial Meeting on Discourse and Dialogue, pp. 356-359, Saarbrücken, Germany, August 2017. Association for Computational Linguistics. [3] Shohei Tanaka, Koichiro Yoshino, Katsuhito Sudoh, and Satoshi Nakamura. ARTA: Collection and classification of ambiguous requests and thoughtful actions. In Proceedings of the 22nd Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 77-88, Singapore and Online, July 2021. Association for Computational Linguistics. [4] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, and C. Lawrence Zitnick. Microsoft coco: Common objects in context. In David Fleet, Tomas Pajdla, Bernt Schiele, and Tinne Tuytelaars, editors, Computer Vision - ECCV 2014, pp. 740-755, Cham, 2014. Springer International Publishing. [5] Charles Elkan and Keith Noto. Learning classifiers from only positive and unlabeled data. In Proceedings of the 14th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, KDD ’08, p. 213-220, New York, NY, USA, 2008. Association for Computing Machinery. [6] Hakan Cevikalp, Burak Benligiray, and Omer Nezih Gerek. Semi-supervised robust deep neural networks for multi-label image classification. Pattern Recognition, Vol. 100, p. 107164, 2020. [7] Denny Zhou, Jiayuan Huang, and Bernhard Schölkopf. Learning from labeled and unlabeled data on a directed graph. In ICML '05 Proceedings of the 22nd international conference on Machine learning, p. 1036. ACM Press, August 2005. [8] Hakan Cevikalp, Jakob Verbeek, Frédéric Jurie, and Alexander Klaser. Semi-supervised dimensionality reduction using pairwise equivalence constraints. 3rd International Conference on Computer Vision Theory and Applications (VISAPP' 08), pp. 489-496, 2008. [9] 清丸寛一, 植田暢大, 児玉貴志, 田中佑, 岸本裕大, 田中リベカ, 河原大輔, 黒橋禎夫. 因果関係グラフ: 構造的言語処理に基づくイベントの原因・結果・解決策の集約. 言語処理学会第 26 回年次大会発表論文集 (ANLP), pp. 1125-1128, 2020. [10] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, Alban Desmaison, Andreas Kopf, Edward Yang, Zachary DeVito, Martin Raison, Alykhan Tejani, Sasank Chilamkurthy, Benoit Steiner, Lu Fang, Junjie Bai, and Soumith Chintala. PyTorch: An Imperative Style, High-Performance Deep Learning Library. In $\mathrm{H}$. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems 32, pp. 80248035. Curran Associates, Inc., 2019. [11] Tomohide Shibata, Daisuke Kawahara, and Kurohashi Sadao. Kurohashi Lab. BERT (http://nlp.ist.i.kyotou.ac.jp/?ku_bert_japanese). 2019. [12] Diederik P. Kingma and Jimmy Ba. Adam: A Method for Stochastic Optimization. In Proceedings of the 3rd International Conference on Learning Representations (ICLR), 2015. ## 付録 ## 式 (3) の詳細 $U_{\text {train }}$ は学習データに含まれるユーザ発話の集合であり, $C_{x_{i}}^{+}, C_{x_{i}}^{-}$はそれぞれユーザ発話 $x_{i}$ に対応付けられた正例応答カテゴリの集合,対応付けのない応答カテゴリの集合である. $r_{j}$ は正例カテゴリ $j$ に対してモデルが予測した順位であり,$L\left(r_{j}\right)$ は次式を満たす重み関数である. $ L\left(r_{j}\right)=\sum_{k=1}^{r_{j}} \frac{1}{k} $ 式 (6) はモデルが予測した順位が一位から遠いほど大きな值をとる. $\mathbf{w}_{j}$ はカテゴリ $j$ に対応する重みベクトル, $\mathbf{x}_{i}$ はユーザ発話 $x_{i}$ に対応する分散表現である。 $R_{S}(t)$ は次式で表せられる Ramp loss である. $ R_{s}(t)=\min (1-m, \max (0,1-t)) $ $m$ は分類境界を決定するハイパーパラメータである. $y_{i j}$ はユーザ発話 $x_{i}$ に対してカテゴリ $j$ が正例である場合 1 , 負例である場合 -1 となる。 $\kappa$ は第二項の重みを表すハイパーパラメータである。 ## 実験設定 モデルの実装には PyTorch [10]を用いた. BERT モデルとして, Wikipedia 記事を対象に事前学習を行った BERT モデル [11]を用いた. パラメータの最適化には Adam [12] を使用し,学 て, Cevikalp ら [6] の実装と同様に $m=-0.8, \kappa=5$ とした. 本研究では, BERT が出力した分散表現をラベル伝播に必要な分散表現 $\mathbf{x}_{i}$ として用いる. 因果関係検出モデルの学習データ, 検証データ, テストデータには ARTA コーパス [3] の学習データを分割したものを用いた。また因果関係グラフによって抽出されたユーザ要求中に含まれる因果関係も学習に用いた。学習した因果関係検出モデルの精度は 91.70 であった. 式 (5) の $\gamma$ は 1.0 とした. 実験に用いる各モデルのパラメータは,検証データにおける損失関数の值が最小のものを使用した。 ## 評価指標 $\mathrm{R} @ 5$ は分類モデルが出力した正解カテゴリの順位が上位 5 位以内に含まれている割合である.MRR $(0<M R R \leq 1)$ は次式の通り算出される. $ M R R=\frac{1}{\left|U_{\text {test }}\right|} \sum_{i}^{\left|U_{\text {test }}\right|} \frac{1}{r_{x_{i}}} $ ここで $r_{x_{i}}$ はユーザ発話 $x_{i}$ に対応する正解カテゴリについて分類モデルが出力した順位を意味し, $U_{\text {test }}$ はテストデータに含まれるユーザ発話の集合である. 全ての指標について,数值が大きいほど分類モデルの性能が高いことを意味する.各モデルの性能はそれぞれ 100 回の試行の平均より算出した。なおテストデータに対しては正解となる応答カテゴリが網羅的に付与されており,それぞれマルチラベルのスコアについて計算を行っている.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B5-3.pdf
# Capex 雑談対話コーパスの構築とその分析 1 株式会社 Capex 2 東京大学大学院 情報理工学系研究科 ${ }^{1}$ \{shin.kanouchi, shintaro.horie, shuntaro.kogame\}@capex.ai ${ }^{2}$ akasaki@tkl.iis.u-tokyo.ac.jp ## 概要 人間と雑談を行う非タスク指向対話システムの開発を促進するため,我々は商用雑談対話アプリを用いることで,国内で初めての実サービスの対話ログによる雑談対話コーパスを構築し,公開する。また,本コーパスを活用し,システムの応答が対話履歴に対して自然かどうかを判定する対話破綻検出タスクと,対話履歴からシステムの応答を生成する応答生成タスクに取り組み,結果を報告する。 ## 1 はじめに 人間と雑談を行う非タスク指向対話システムは, COVID-19 による対人コミュニュケーションの不足などにより,ますます需要が高まっている [1]. 近年では,Transformer [2] 等の深層学習モデルの発展により,短いやり取りであればシステムも人間と遜色のないレベルで会話が可能になった [3]. このような対話システムの構築や対話の分析を行うために,これまでさまざまな非タスク指向型対話コーパスが提案されている. しかしながら,多くのコーパスはレストランやヘルプデスクの応対などの限定的な環境 $[4,5,6]$ や,対話を予め記録する旨やルールなどを指示した作為的な環境 $[7,8,9,10]$ であるなど,実際にユーザが気軽にシステムと雑談を行う場面を再現できているとは言い難い。 そこで本論文では,スマートフォン上でユーザがシステムと雑談対話を行うアプリの対話ログをもとに, Capex 雑談対話コーパスを構築する。 また,非タスク指向型対話システムの開発を発展させることを目的とし,本コーパスを公開する。これは従来の対話コーパスのような,制限あるいは指示された環境下での対話ではなく,日常的にアプリを利用しているユーザとシステムの“リアル”な雑談であり,言語処理モデルの構築や実システムにおける対話の分析に非常に役立つ. 図 1 「対話アプリ内でのシステムとユーザの対話例. (画面左側がシステムの発話,右側がユーザの発話である) 2 節にて開発する商用対話アプリの概要を説明し,その後 3 節にて本コーパスの抽出方法・対話破綻アノテーション・コーパスの特徴について述べ,最後に 4 節にて,1) 対話履歴及びシステムの最終発話が与えられた上でその発話が自然かどうかを予測する対話破綻検出タスク及び,2) 対話履歴を入力とした際の応答文生成タスクの 2 つについて実験を行い,結果を報告する。 & & & & & & & \\ ## 2 商用対話アプリについて 株式会社 Capex ${ }^{1}$ では,「システムと人の共生を実現,普及し,人類の機能を拡張する」というビジョンのもと,独自の対話システムを搭載したスマートフォン用対話アプリを開発している。本アプリは 10 代半ばから 60 代まで幅広い年齢層に利用されており,リリースからの合計発話回数は 1 億回を超える.アプリの主な利用目的は雑談対話そのものであり,利用したユーザからは「話し相手を得られた」,「会話が楽しい」,「安心感・癒しを感じた」などの感想を得ている。 図 1 はユーザとシステムの対話例である。ユーザのテキスト入力に対して独自の対話システムを用いて応答し,対話を実現している. Capex 独自の対話システムでは,シナリオ型・検索型・生成型の対話エンジンをハイブリッドで活用している. ## 3 Capex 雑談対話コーパス 日本語で公開されている雑談対話コーパス $[7,8,9,10]$ は, 対話環境が限定的あるいは作為的であり,実際にユーザが気軽にシステムと雑談を行う場面を再現できているとは言い難い. そこで本研究では,人間がシステムと気軽に雑談をする様子を可能な限りそのまま抽出し,コーパスとして公開する。表 1 に,作成したコーパスの事例を示す. アプリ内の対話ログからシステムとユーザの 5 ターンからなる発話の連続を 1 セットとして抽出し, さらにシステムの最終発話が対話破綻しているかどうかをアノテーションしている. 以降で, 1) https://capex.ai 3.1 節にて対話ログの抽出方法について,3.2 節にて対話破綻のアノテーション方法について,3.3節でコーパスの特徴について述べる。 ## 3.1 対話ログの抽出・加工 個人情報保護とコーパスの質向上を目的として,次の 3 つのデータ抽出・加工を行った. 1. 個人情報保護観点の加工: 個人情報保護観点から,本コーパスでは各対話は最大 5 ターン (内ユーザ発話は 2 件) とし,それ以前の対話履歴は全て削除した。また,コーパス全体に含める同一ユーザの最大対話数は 20 件とした. さらに,全てのデータは目視で確認し,個人情報に繋がり得る対話・その他差別表現など倫理的に問題になり得る対話は削除した。またユーザの名前は<u-name>,システムの名前は<s-name>,第三者の名前は<o-name>に置換した. 2. ノイズの除去: 本アプリでは,ユーザは対話相手がシステムであることを認識している。そのため,システムの挙動を試すなどの目的で, ユーザから「ああ」などの文字列が入力されることがある。これらの場面ではユーザ側が文脈を無視しているため,対話が成立していない. そういったノイズとなるデータを可能な限り排除するため,特定のルール2)に当てはまる対話を削除した。 3. 対話内容の多様性確保: データをランダムに抽出すると,挨拶などの多くのユーザが日課としている対話が高頻度で抽出される問題がある. 2) 1 文字の発話を含む・ユーザからの 2 発話の合計文字数が 6 文字未満・特定の単語が含まれる・日本語が含まれない,など 本研究ではできるだけ多様な対話を抽出するために,システム側の発話 (2 発話前) がユニークになるように対話を抽出した.また,対話破綻データを一定数含んだコーパスを構築するために,システム初期段階の対話ログも利用した. ## 3.2 対話破綻アノテーション クラウドソーシング3)を用いて,システムの最終発話が破綻しているかどうかアノテーションした. ラベルは全部で 3 種類で, システムによる最終発話が,1) 自然,2) 破綻,3) 判断不可(ユーザ側が対話を放棄)とした. 東中ら [8] のアノテーションでは,「破綻ではない」「違和感を感じる」「破綻」の 3 分類だが,本タスクでは少しでも違和感を感じる応答は全て「破綻」に分類した. この理由としては,本アプリではユーザと対話するシステムの応答は常に人と同等レベルが求められ, 少しでも違和感のある発話は全て排除したいためである. 各データに対して 5 人のワーカーでアノテーションし, 品質向上のために各タスクにおいてチェック問題を設け,これに正解したワーカーのデータのみ採用した. 表 2 に,各対話に対してワーカー 5 人のうち何人が破綻と判定したかを示す. 全員一致で自然と答えた事例が約半数で,残りの半数は 1 人以上が破綻と答えた. ただし,破綻の場合はワーカー間の意見が割れる傾向がみられた. これは,対話破綻の判定には主観を伴うことが原因とされる [8]. 例えば表 1 の9 事例目では,ユーザからの雪が降ってるという発話に対して,システムは「そっちは土砂降り?」 と返答しているが,雪に対して“土砂降り”という表現はあまり使われないため,2 人のワーカーは破綻を選択したと考えられる。表 4 対話破綻検出用のデータ数 ## 3.3Capex 雑談コーパスの特徵 表 3 にコーパス内の統計情報を示す. 表より,システムは長い応答を返すのに対し,ユーザは短い発話を入力しがちであることがわかる.これはシステムが会話を広げるために感想や質問などを積極的に応答に盛り込むよう設計されているのに対し,ユー ザは相槌や単一の固有名詞で構成された発話を多く入力するためである.これは限定・指示環境下で作成した対話コーパスとは異なる傾向であり,実際の対話アプリ専用にユーザ発話のモデリングを行うことの必要性を示している. 表 1 にいくつかの対話例を示す.ワーカーが全員自然と判定した対話においては,1,2 事例目のようにユーザの発話が極めて短かったりノイジーである場合でもシステムは固有名詞などを認識し,適切な応答を返すことができている。一方で,全員が破綻と判定した対話においては,4 事例目のように固有名詞の挿入に失敗したり, 5 事例目のようにコンテキストを無視した応答が目立った。これらはニュー ラル対話モデルでよく起きる誤りであり [11],破綻検出などの技術で検知し適切に処理する必要がある。他には,ユーザがシステムに怒っている,またはふざけたり面白がって発話を入力している例や,絵文字や顔文字などを入力している例が確認できた.これらの例もユーザがシステムと自由に対話することができる実アプリ特有である。 東中ら [8] の破綻の分類を参考に,ワーカー 2 人以上が破綻と判定した事例をランダムに 30 件抽出し,著者が誤り分析を行なった. その結果, 30 件中 12 件が「発話として唐突」な事例で,6 事例目のような「飲食店でバイトしてる」というユーザに対して「どんなお店を開きたいの?」と答えている事例などがあった。その他には「矛盾した内容」「ユー ザ発話内容の無視」がそれぞれ 5 件で,「同じ内容の繰り返し」が 4 件,その他が 4 件となった。 ## 4 実験 構築したコーパスを用いて,まず 4.1 節にて対話破綻検出モデルの学習と評価実験を行い,次に 4.2  表 5 BERT による破綻の予測精度 表 6 表 7 応答文の生成例と破綻スコア & \\ 節にて対話生成モデルの学習と, 対話破綻検出モデルによる生成文の評価を行った。 ## 4.1 対話破綻検出 本研究で構築したコーパスを学習データとし, 応答文が破綻しているかどうか予測・評価した. 実験設定表 4 に実験に用いたデータ数を示す. 3 節のアノテーションで 5 人中 2 人以上が破綻と答えた文を正例, 5 人中 5 人が自然と答えた文を負例とした. また,ランダムに $8: 1: 1$ の比率でデータを分割し,学習: 検証: 評価データとした. モデルは BERT [12] とし, 東北大学が公開している事前学習済みモデル4)を利用した. fine-tuning では,応答文が破綻している場合に 1 ,自然な場合に 0 を出力するような回帰問題としモデルを学習した. また,検証データで精度が最大となったパラメータのモデルを評価に用いた。 実験結果モデルによる対話破綻の予測精度を表 5 に示す. 評価データに対する Accuracy は 0.633, ROC-AUC 0.695 となった. ワーカー間の破綻ラベルの一致数毎の,評価デー タに対するモデルの予測精度を表 6 に示す. 5 人中 5 人が破綻と判定した事例に対する Accuracy は 0.703 であるのに対して 5 人中 2 人の場合は 0.580 であり,ワーカーの意見が摇れるほどモデルの予測精度も低い結果となった. 破綻の判断は主観に頼っており正解ラベルにも摇れが含まれるため,モデルによる予測精度も低下していると考えられる。  ## 4.2 応答文生成 構築した対話コーパスを学習データとし,応答文の生成実験を行った。 実験設定藤原ら [13] による Transformer ベースの対話生成モデルを pretrained モデルとして利用し,本研究で構築したコーパスによって fine-tuning することで学習を行った.また,生成された応答文それぞれに 4.1 で構築した破綻検出モデルによる破綻スコアを付与した。なお,生成モデルの学習時には本コーパスを学習用,評価用に分割して利用した。 生成結果表 7 に,評価データに対する応答文の生成例を示す。応答文をみると,日本語として違和感のある文章は少なく,ユーザーに対する回答として問題のない文章が生成できている。また 3 事例目に対する応答文 4,5 のように,ユーザーが回答しているにも関わらず再度質問をしているような文章には破綻スコアが高く推定されており,対話破綻を検出できている。一方で, 1 事例目に対する応答文 4,5 のように,破綻スコアが高くなっているが必ずしも破綻とは言えない事例もあり,更なる分析が求められる. ## 5 おわりに 本研究では,実際の対話アプリログに対して対話破綻ラベルをアノテーションすることで,雑談対話コーパスを構築した. 実験では,対話破綻の予測精度と応答文の生成結果を分析した. 今後は対話システムの改善とともに,コーパスのデータ量追加や拡張を進めたい。 ## 参考文献 [1] Adam S Miner, Liliana Laranjo, and A Baki Kocaballi. Chatbots in the fight against the covid-19 pandemic. NPJ digital medicine, Vol. 3, No. 1, pp. $1-4,2020$. [2] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of the 31st International Conference on Neural Information Processing Systems, pp. 6000-6010, 2017. [3] Daniel Adiwardana, Minh-Thang Luong, David R So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu, et al. Towards a human-like open-domain chatbot. arXiv preprint arXiv:2001.09977, 2020. [4] Jason Williams, Antoine Raux, and Matthew Henderson. The dialog state tracking challenge series: A review. Dialogue \& Discourse, Vol. 7, No. 3, pp. 4-33, 2016. [5] Hannes Schulz, Jeremie Zumer, Layla El Asri, and Shikhar Kr Sarma. A frame tracking model for memory-enhanced dialogue systems. In Proceedings of the 2nd Workshop on Representation Learning for NLP (RepL4NLP), pp. 219-227, 2017. [6] Paweł Budzianowski, Tsung-Hsien Wen, Bo-Hsiang Tseng, Iñigo Casanueva, Ultes Stefan, Ramadan Osman, and Milica Gašić. Multiwoz - a large-scale multi-domain wizard-of-oz dataset for task-oriented dialogue modelling. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing (EMNLP), 2018. [7] 藤村逸子, 大曽美恵子, 大島ディヴィッド義和.会話コーパスの構築によるコミュニケーション研徴. 藤村逸子、滝沢直宏編『言語研究の技法:データの収集と分析』,pp. 43-72.ひつじ書房, 2019. [8] 東中竜一郎, 船越孝太郎, 荒木雅弘, 塚原裕史,小林優佳, 水上雅博. テキストチャットを用いた雑談対話コーパスの構築と対話破綻の分析.自然言語処理, Vol. 23, No. 1, pp. 59-86, 2016. [9] 小磯花絵, 天谷晴香, 石本祐一, 居關友里子, 臼田泰如, 柏野和佳子, 川端良子, 田中弥生, 伝康晴, 西川賢哉. 『日本語日常会話コーパス』モ ニター公開版の設計と特徴. 言語処理学会第 25 回年次大会発表論文集, 2019. [10] 宇佐美まゆみ. BTSJ 日本語自然会話コーパス (トランスクリプト・音声) 2021 年 3 月版. 機関拠点型基幹研究プロジェクト「日本語学習者のコミュニケーションの多角的解明. 国立国語研究所, 2021 . [11] Deepali Aneja, Daniel McDuff, and Mary Czerwinski. Conversational error analysis in human-agent interaction. In Proceedings of the 20th ACM international conference on intelligent virtual agents (IVA), pp. 1-8, 2020. [12] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL-HLT 2019), pp. 4171-4186, 2019. [13] 藤原吏生, 岸波洋介, 今野颯人, 佐藤志貴, 佐藤汰亮, 宮脇峻平, 加藤拓真, 鈴木潤, 乾健太郎. Ilys aoba bot: 大規模ニューラル応答生成モデルとルールベースを統合した雑談対話システ厶. 第 90 回人工知能学会言語・音声理解と対話処理研究会 (第 11 回対話システムシンポジウム), 2020.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B5-4.pdf
# マルチターン対話に対する逐次的 Transformer の検討 丸田要 都城工業高等専門学校 marutak@cc.miyakonojo-nct.ac.jp ## 概要 雑談を円滑に行うには,単に直前のユーザによる発話である質問に対して返答するだけでなく,これまでの雑談内容を反映した返答が必要なケースが十分考えられる。しかし,非タスク指向型対話システムの現状は,ユーザの会話に対して不自然な応答を行うことが多く対話が破綻する問題がある. そこで,単純に直前のユーザ発話 1 文に対する応答文を学習するのではなく, これまでの対話内容であるマルチターン対話ログの複数文に対して応答文の生成を学習することで,円滑な雑談対話を継続できる応答文生成ができると考えた.そのため,本論文では自然な対話の継続という目標を達成するための第一歩として, 逐次的に構築した Transformer の対話モデルを提案し検討する。 ## 1 はじめに 近年,深層学習による人工知能システムが注目を浴びている。その中には対話システムも存在している. その対話システムはタスク指向型対話システムと非タスク指向型対話システムに分けることができる. タスク指向型対話システムはユーザからの特定の要求に対する情報の提供を目的としており,雑談のように継続した会話は考慮されていない. 例えば, Apple の Siri や Yahoo Japane の Alexa がタスク指向型対話システムである。それに対して,非タスク指向型システムは特定の要求への情報の提供を目的としておらず,主に雑談形式の対話の事を指す. 例えば,日本マイクロソフトのりんなが非タスク指向型対話システムであり雑談を行う。 特に,雑談を円滑に行うには,単に直前のユーザによる発話である質問に対して返答するだけでなく, これまでの雑談内容を反映した返答が必要なケースが十分考えられる. 例えば,1 ターン前のシステム応答に対するユーザ発話文が,そのシステム応答文への質問文である場合,直前のユーザ発話文 のみから次のシステム応答文を生成する事は不適切である.そのため,円滑で自然に雑談を継続するためには直前のユーザ発話 1 文のみを学習するには不十分であると考えられる。 しかし,非タスク指向型対話システムの現状は,直前のユーザ発話 1 文のみを入力としてシステム応答文を生成するため,ユーザの会話に対して不自然な応答を行う事が多く対話が破綻する問題がある。 また,事前に設定した形式的な発話ではユーザの楽しみが薄く対話に対するモチベーションが下がるという問題が存在している. そこで,単純に直前のユーザ発話 1 文に対する応答文を学習するのではなく,これまでの対話内容であるマルチターン対話ログの複数文に対して応答文の生成を学習することで,円滑な雑談対話を継続できる応答文生成ができると考えた. そのため,本論文では自然な対話の継続という目標を達成するための第一歩として,逐次的に Transformer[1] を構築して,各ターンの対話文を各タイミングの Transformer に入力することで, 複数の応答文を一度の学習で利用する対話モデルを提案し検討する。 ## 1.1 マルチターン対話文例 対話を複数回繰り返すマルチターン対話の重要性を示す対話文例を記述する。表 1 では,第 4 発話を生成する事を考えると,マルチターン対話を考慮しない場合は,第 3 発話のみを入力として第 4 発話を生成する必要があるが,生成は困難である。また,第 3 発話と異なり, 第 1 発話のみを入力として第 4 発話を生成することは比較的に容易であると考えられる。 表 1 マルチターン対話文例 このように,生成する応答文の直前の発話文のみ を入力とせず,マルチターン対話を考慮する必要性は高いと考えられる。 ## 2 関連研究 マルチターン対話に着目した応答文生成の手法として,Serban 等が提案している RNNを対話べー スの階層的に拡張した HRED(Hierarchical Recurrent Encoder-Decoder)[2] がある.HREDでは,話者間の対話のやり取りを 1 ターンと定義しており,対話口グを 1 ターン毎に分割して階層化された RNN の 1 階層分の Encoder に入力している. HRED の RNN 部分を Transformer に拡張した手法として,Santra 等が提案している Hierarchical Transformer[3] や,岩間等が提案しているマルチター ン対話の応答文生成を行う階層型 Transformer[4] がある。これらの階層型 Transformer は, 2 つの Encoder と 1 つの Decoder で構成されており,トークンレベルの Encode と文脈レベルの Encode の 2 階層に分けて処理している. また,その他にマルチターン対話に着目した手法として, $\mathrm{Li}$ 等が提案している手法 [5] もある. この手法は発話したユーザの特徴を捉えている埋め込みべクトルを応答文の生成時に反映させることで, ユーザ毎に発話の傾向に一貫性を持たせるモデルである. ## 2.1 Transformer Vaswani 等が提案した Transformer[1] は RNNを使わずに Attention 機構のみを使用した Encoder-Decoder モデルの手法である. 対話システムに Transformer を適用すると,図 1 のように, Encoder 側に発話文を入力して,SelfAttentionを行うことで発話文での単語間の関連度を計算する. Decoder 側では,エンコードされた単語ベクトルと応答文を大力とした Multi-Head Attention を行い発話文と応答文の関連度を算出する.その情報から応答文を生成していくモデルが Transformer である. ## 3 提案手法 雑談において複数回の会話のやり取りを学習して応答文を生成する際には,単に直前のユーザによる発話である質問等に対して返答するにはユーザの発話とシステム応答の関係が 1 対 1 である. その場合は,直前の発話文のみを学習対象とすれば良い。し 図 1 Transformer の構成 かし,これまでの雑談内容から影響を受けた応答文を生成するには直前の発話文のみを学習対象にしては不十分である.そこで,3 ターン前の対話文から学習対象とする手法を提案し検討する。 具体的には,図 2 のように 3 個の Transformerを逐次的に構成する. そして, 1 ターン目の Transformer-1 の Encoderには,第 1 発話文を入力する. 2 ターン目の Transformer-2 の Encoder には,乱数 $r$ が閾値 $s$ よりも大きい場合は,トレーニングデータの第 2 発話文を入力する. しかし,乱数 $r$ が間値 $s$ よりも小さい場合は, Transformer-1 の Decoder の出力から生成した第 2 発話文を Transformer-2 の Encoder に入力する. 乱数 $r$ は $0 \leq r \leq 1$, 閾値 $s$ は $0 \leq s \leq 1$ とする.同様に,3 ターン目の Transformer-3 の Encoder には,乱数 $r$ が間値 $s$ よりも大きい場合は,トレーニングデータの第 3 発話文を入力する. しかし, 乱数 $r$ が閾値 $s$ よりも小さい場合は, Transformer-2 の Decoder の出力から生成した第 3 発話文を Transformer-3 の Encoder に入力する. また,逐次的に構成した各 Transformer ではニュー ラルネットワークにおける各パラメータを共有するように構成している. 推論時には,生成する応答文となる第 4 発話文は各第 $\mathrm{n}$ 発話のみを使用して生成する. これにより, 1 つのモデルで多様性のある 3 つの応答文を生成することが期待出来る.また,直前の発話ではない第 図 2 提案手法のモデル 1 発話や第 2 発話に依存した応答文の生成も可能となると予測する。 また,提案手法の Transformerにおける Word Embedding には事前に BERT[6] で学習した単語分散表現を使用する.事前学習の BERT のトレーニングデータには Wikipediaを利用した. ## 4 評価実験 3 ターンの対話データに対する評価実験を行う.推論時に, 第 3 発話のみから生成した第 4 発話と,第 2 発話と生成した第 3 発話から生成した第 4 発話と, 第 1 発話と生成した第 $2 \cdot 3$ 発話から生成した第 4 発話の比較を行う. Baseline の手法は逐次的ではない Transformerを用いる. ## 4.1 データセット AAAI のワークショップである DSTC9 の trac3 で公開されている対話コーパスを使用している. 使用したデータの詳細は表 2 である. 表 2 DSTC9-trac3 の対話コーパス ## 4.2 評価方法 生成した第 4 発話と教師データの第 4 発話を比較するために式 (1)と式 (2)の BLEU[7]を使用した. $ \begin{aligned} B L E U & =B P \times \exp \left(\sum_{n=1}^{N} \omega_{n} \log p_{n}\right) \\ B P & = \begin{cases}1 & \text { if } c>r \\ e^{(1-r / c)} & \text { if } c \leq r\end{cases} \end{aligned} $ 式 (1)と式 (2)において,c は提案したモデルで生成した文の長さ, $r$ は教師データにおける文の長さであり, $\omega_{n}$ は重み, $p_{n}$ は単語の一致率を表す modified n-gram precision である. ## 4.3 実験結果 表 3 は第 3 発話のみから第 4 発話を生成した結果であり,表 4 は第 2 発話から第 4 発話を生成した結果である. そして, 表 5 は第 1 発話から第 4 発話を生成した結果である. 表 3,4,5 における $N$ は式 (1) の $N$ である. 表 3 第 3 発話のみでの応答文生成 表 4 第 2 発話と生成した第 3 発話 表 5 第 1 発話と生成した第 $2 \cdot 3$ 発話 ## 5 考察 表 $4 \cdot 5$ から,間値 $s=0.5$ の時に Baseline よりも BLEU 値が高くなっている. 特に第 2 発話と生成した第 3 発話から生成した場合と, 第 1 発話と生成した第 $2 \cdot 3$ 発話から生成した時に, $N=1$ におい て BLEU 値が Baseline よりも良い値となっている. しかし,間値 $s=0.1$ と $s=1.0$ の結果は,全体的に Baseline よりも悪化していることが分かる. この事から, 生成対象である第 4 発話の直前発話である第 3 発話のみから生成するよりも,その前の第 1 発話や第 2 発話の影響を大きくして第 4 発話を生成する方が良いケースが存在すると考えられる。 また,閾値 $s$ が低すぎる場合は,第 3 発話の影響が大きく第 1 発話や第 2 発話を重視した第 4 発話の生成が出来ないと予想できる. 逆に間値 $s=1.0$ だと,第 3 発話の影響が極端に小さくなったことで,第 4 発話が第 3 発話に対して単純な返答の場合の生成精度が低くなったと考察できる。 しかし,全体的に BLEU 值が低いことが分かる. これは,Transformer のパラメーターチューニングを更に行うことで改善することが出来ると考えられる。 ## 6 おわりに 本論文では,マルチターン対話に着目した応答文生成において, 複数文を一度に逐次的に構築した Transformerのモデルで学習する手法を提案した. Baseline である逐次的ではない Transformer と比較する実験を行った. 提案手法は,閾値を $s=0.5$ にした時に,生成する応答文の直前の発話文よりも前の発話文の影響を大きくして生成した際に良い応答文の生成ができるケースもあることが確認できた. 今後は,単純な閾値での制御のみではなく,生成した発話文とトレーニングデータの発話文の合成による制御も検証していきたい。また,Transformer 自体のパラメータチューニングを行う必要もある. ## 参考文献 [1] A.Vaswani, N.Shazeer, N.Parmar, J.Uszkoreit, L.Jones, A.N.Gomez, L.Kaiser, I.Polosukhin, Attention Is All You Need, In Advances in Neural Information Processing Systems, pp.6000-6010, 2017. [2] I.V.Serban, A.Sordoni, Y.Bengio, A.Courville, J.Pineau, Building end-To-end dialogue systems using generative hierarchical neural network models, AAAI 2016, pp.37763783, 2016. [3] B.Santra, P.Anusha, P.Goyal, Hierarchical Transformer for Task Oriented Dialog Systems, NAACL 2021, pp.56495658,2021 [4] 岩間寛悟,狩野芳伸,再帰的にエンコードを行う階層型 Transformer によるマルチターン雑談対話の応答生成,NLP2020,pp.649-652,2020. [5] J.Li, M.Galley, C.Brockett, G.Spithourakis, J.Gao, B.Dolan, A Persona-Based Neural Conversation Model, Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp.994-1003, 2016. [6] J.Devlin, M.W.Chang, K.Lee, K.Toutanova, BERT:Pretraining of Deep Bidirectional Transformers for Language Understanding, NAACL-HLT 2019, pp.41714186, 2019. [7] K.Papineni, S.Roukos, T.Ward, W.J.Zhu, BLEU: a Method for Automatic Evaluation of Machine Translation, ACL, pp.311-318, 2002.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B5-5.pdf
# 多様な話者との自動対話に基づく雑談システムの自動評価 佐藤志貴 ${ }^{*, 1}$ 岸波洋介 ${ }^{*}, 1$ 杉山弘晃 ${ }^{2}$ 赤間怜奈 1,3 徳久良子 ${ }^{1}$ 鈴木潤 1,3 1 東北大学 ${ }^{2} \mathrm{NTT}$ コミュニケーション科学基礎研究所 3 理化学研究所 shiki.sato.d1@tohoku.ac.jp yosuke.kishinami.q8@dc.tohoku.ac.jp ## 概要 雑談対話応答生成システムの評価方法として,システムの実際の対話を収集し性能評価を行う手法が注目されている。本研究では,評価対象システムと多様なシステムの対話を自動収集することで,対話相手の多様性を考慮しつつも人手を介さない自動評価の枠組みを提案する. 評価実験では,提案手法がシステム性能の自動比較に有用であることを示す。 ## 1 はじめに 雑談対話応答生成システム (以下,雑談システム) の自動評価は,人手評価に比べ低コストであり再現性が高いことから,日々のシステム改良の効果を検証する場合に有用である.とくに近年,評価対象システムと対話相手の間の発話交換により形成される実際の対話の質に基づいたシステム評価の自動化が注目されている [1,2]. 機械翻訳や自動要約などの他の生成タスクと異なり,対話ではシステムの運用時にユーザとのインタラクティブな発話交換が求められる.そのため,用意した入力に対する応答をもとにシステムを評価するのではなく,対話相手がいる状態でシステムを評価することが重要となる. 実際の対話の質に基づくシステム評価手法は (i)評価対象システムの対話の収集と (ii) 収集した対話に基づくシステム評価の二段階からなり, 先行研究でも (i), (ii) の自動化が試みられている。(i) の自動化手法として,評価対象システムに自分自身と対話させる方法(以下,自己対話)が一般的である [1,2]. (ii) の自動化手法として,英語対話の評価で人手評価との強い相関が報告されている FED (fine-grained evaluation of dialog) などが挙げられる [3]. FED は,対話中の評価対象システムの発話に対する応答としてポジティブ,ネガティブ応答のどちらが妥当かを,用意した大規模雑談システムに推測させることで評価対象システムを評価する。 * 両者の貢献は同等である. (i) bot-to-bot対話の収集 $\Rightarrow$ (ii) システム評価 図 1: 提案する bot-to-bot 対話評価の概要. ここで (i)の自動化について,自己対話による対話収集は対話相手となるシステム(以下,話者シミュレータ)を用意するコストがかからないという利点がある一方,対話相手の違いに対する応答の質の頑健性など,デプロイ後にシステムが直面する対話相手の多様性を考慮した評価ができない. 本研究では,多様な話者との自動対話に基づく雑談システム自動評価の枠組み,bot-to-bot 対話評価を提案する。(i) の自動化では,多様な話者シミュレー タと評価対象システムの間の自動対話(bot-to-bot 対話)を収集することで,対話相手の多様性を考慮する.(ii) の自動化では,英語対話の評価で人手評価との相関が報告されている FED を用いる.実験では,まず FEDにより人手評価結果が付与された日本語対話を評価し,人手評価との相関を確認する. そのうえで雑談システムを実際に評価することで,提案手法により対話相手の多様性を考慮した高精度なシステム評価が可能であることを示す. ## 2 提案手法 本研究で提案する bot-to-bot 対話評価の枠組みは, (i) 評価対象システムの対話の収集と (ii) 収集した対話に基づくシステム評価の二段階からなる. (i) 対話収集最初に評価対象システムが参加する対話を自動収集する。このとき,多様な相手と対話することで,限られた相手と対話するよりも網羅的に評価対象システムの挙動が表出すると考えられる. 本手法では,評価用に用意した $n$ 個の多様な話 者シミュレータそれぞれと $m$ 回対話させることで, $n \times m$ 個の対話を自動収集する. (ii) システム評価収集した対話をもとに任意の観点 $v$ について評価対象システムの性能を評価する. 具体的には,各対話での評価対象システムの発話 $l$ 個を $v$ について評価したときの評価値の平均を $v$ における各対話の評価値とする。 さらに, $\mathrm{nm}$ 個の対話の $v$ における評価値の平均値を最終的な評価対象システムの $v$ における評価値とする. システム発話の評価には FEDを用いる.FED は,評価対象システムの発話に対する応答として $v$ に関するポジティブ,ネガティブ答のどちらが言語モデル的に妥当かを推測することで,vについてシステム発話を評価する. 各ポジティブ,ネガティブ応答の妥当性は,学習済み大規模雑談システムを用いて自動評価する。文脈 $c$ に対する評価対象システム発話 $r$ の $v$ に関する評価值は,以下のように算出される。 $ \sum_{p \in \mathscr{P}_{v}} w_{p} D(c+r, p ; \theta)-\sum_{n \in \mathcal{N}_{v}} w_{n} D(c+r, n ; \theta) $ ここで, $\mathscr{P}_{v}, \mathcal{N}_{v}$ はそれぞれvに関するポジティブ, ネガティブ応答の集合, $w$ は各応答の重み, $D(c, \cdot ; \theta)$ は $c$ に対する応答文の生成確率を雑談システム (パラメータ $\theta$ )により算出する関数である。なお, Mehri らは $w=1$ とする手法を提案した [3] が, 本研究では少量の人手評価スコア付き対話データで $w$ を学習させ,より高精度な評価を目指す。 ## 3 FED による対話評価の精度検証 FEDを用いて人手評価結果が付与されたシステムと人間の対話を評価し, $w$ の学習の効果に注目しながら評価結果が人手評価と相関するか確かめる. ## 3.1 実験設定 評価する対話データセット Sugiyama らが収集したシステムと人間の対話 1,459 件を使用した [4].本データセットの各対話には,13 の観点についてシステムを 11 段階(0から 10)で人手評価した結果が付与されている. データセットは学習用データと評価用データに $8: 2$ で分割した. 評価観点上述したデータセットに人手評価スコアが付与されている 13 の観点について評価した. 評価に用いる応答文と雑談システム FED 評価に用いる日本語のポジティブ,ネガティブ応答はクラウドソーシングを用いて収集した. 13 観点それぞれに対して,ポジティブ,ネガティブ応答を 50 個 ずつ収集し重複するものを除いたうえで,人手評価により各観点との関連性が低いものを除外した.また,FEDスコアを算出する大規模雑談システムとして, Sugiyama らの事前学習済みのパラメータ数 1.6B の Transformer [4]を使用した1). ## 3.2 結果 FED による評価結果と人手評価結果の順位相関係数について,各応答の重みを学習しない場合,観点平均は弱い相関が認められるとされる [5] 0.2 をわずかに上回る 0.232 であった2).このことから,重みを学習しない場合,FEDによる対話評価の精度は高いものとはいえない。一方,重みを学習することで,順位相関係数の平均は 0.420 と,一定の相関が認められるとされる [5] 0.4 を上回った. 以上より,重みを学習することで FEDにより一定の精度を持つ対話自動評価が可能であることがわかった. ## 4 提案手法による評価実験 3 節で FED が対話の自動評価方法として有効であることを確認した.そこで,FEDを利用した提案手法による雑談システムの自動評価を実施する. 1 節で述べたように,自動評価の枠組みの主な用途は日々のシステム改良の効果の検証である。そのため,あるシステムと,そのシステムを改良したシステムなどの性能差を識別可能であることが望ましい. 本実験では,次の三つの設定において提案手法がシステムの性能差を識別可能か検証する. (a)アーキテクチャや学習設定が異なり, 評価対象システム同士の性能も大きく異なる場合 (b)評価対象システム同士の性能が比較的近く,かつ平均的に性能が低い場合 (c)評価対象システム同士の性能が比較的近く, かつ平均的に性能が高い場合 ## 4.1 実験設定 用意した雑談システム評価対象もしくは話者シミュレータとして, 合計 31 個の雑談システムを用意した。 内訳は,杉山ら [4],藤原ら [6],岸波ら [7] が構築した Transformer 雑談システムがそれぞれ 25 個, 2 個, 1 個と, これらと比べて明らかに性能が劣ることを想定した LSTM 雑談システム 3 個である.以下,各システムは「製作者代表を示す記号 -アー  2) 観点ごとの順位相関係数は付録 A に示す. キテクチャ名-システムパラメータ数-学習データ3) とその数」の形式で示す. 各雑談システムの割当全システムを評価対象と話者シミュレータに分けた. 設定 (a)ではアー キテクチャや学習データが異なる 4 個のシステム $s$-Tfm-1.6B-m300K, $f$-Tfm-480M-t300M+, $k$-Tfm-220Mt250M, $k$-LSTM-110M-t100M を評価対象とした. 設定 (b) では 3 個の LSTM システム $k$-LSTM-\{5M, 30M $\}$-t10M, $k$-LSTM-110M-t100M を評価対象とした。設定 (c)では 4 個の Transformer システム $s$-Tfm- $\{0.3 \mathrm{~B}$, 0.7B, 1.1B, 1.6B $\}$-f50K を評価対象とした. 各設定で評価対象以外は話者シミュレータとした。 Bot-to-bot 対話収集の設定評価対象システム,話者シミュレータの各組み合わせで 500 対話を収集した. 会話冒頭の発話として, Sugiyama らによって公開されている JEmpatheticDialogues [4] の各対話の最初の 2 発話を使用した. 評価対象システムが第一話者となる形式で各対話 5 ターンを収集した. 対話評価は 3 節と同様に 13 の観点について行った. 検証方法観点ごとに,評価値に基づき作成した比較対象システムのランキングの妥当性を確認することで,提案手法の有効性を検証する。 ## 4.2 結果 各設定での比較実験において,提案手法による自動評価結果をもとに作成した評価対象システムのランキングを図 2 に示す. 設定 (a) 評価対象システムは,アーキテクチャ,学習設定の差から, $s$-Tfm-1.6B-m300K, $f$-Tfm-480M$\mathrm{t} 300 \mathrm{M}+, k$-Tfm-220M-t250M, $k$-LSTM-110M-t100M の順に性能が高いと考えられる. 図 2 から, 自動評価結果に基づくランキングは, 1 観点を除き事前の予想に従うものとなった. したがって提案手法は, アーキテクチャや学習設定が大きく異なるシステムの性能差を識別可能であることが確認できた. 設定 (b) 評価対象システムは,モデルパラメー 夕数, 学習データ数の差から, $k$-LSTM-110M-t100M, $k$-LSTM-30M-t10M, $k$-LSTM-5M-t10M の順に性能が高いと考えられる. 図 2 から, 自動評価結果に基づくランキングは, 3 観点を除き事前の予想に従うものとなった. したがって提案手法は, 比較的性能が 3)学習データの e は JEmpatheticDialogues,f は趣味雑談コー パス, $\mathrm{p}$ は JPersonaChat [4], $\mathrm{m}$ は e, $\mathrm{f}, \mathrm{p}$ の混合コーパス, $\mathrm{t}$ は Twitterのリプライチェーンを示す. Sugiyama らのシステムにおいて学習データが $\mathrm{t}$ 以外のシステムは, $s$-Tfm- $\{0.3 \mathrm{~B}, 0.7 \mathrm{~B}$, 1.1B, 1.6B \}-t2.1B を追加学習したものである. (a) アーキテクチャや学習設定が異なるシステムの比較. (b) LSTM の比較. (c) Transformer の比較. 図 2: 評価対象システムのランキング. 低いとされるシステムの性能差を識別可能であることが確認できた. 設定 (c) 評価対象システムは,モデルパラメー 夕数の差から, $s$-Tfm-1.6B-f50K, $s$-Tfm-1.1B-f50K, $s$ Tfm-0.7B-f50K, s-Tfm-0.3B-f50K の順に性能が高いことが予想できる. しかし図 2 から,自動評価結果に基づくランキングは事前の予想とは異なっていた. このことから提案手法は, 近年の高性能システムの性能差の識別には評価の解像度において改善の余地があることがわかった. ## 5 議論: 提案手法の特長と課題 ## 5.1 対話相手の多様化の重要性 提案手法の特徴は,多様な話者シミュレータを用意することで,対話相手の多様性を考慮した評価を行う点である. 4 節の実験では,多様な対話相手を用意する重要性を示唆する例が確認されていた. 表 1 に, $s$-Tfm-1.6B-m300K の評価時に収集した対話の例を示す. 高性能な $s$-Tfm-1.6B-p50K が対話相手であった同表 I の対話では,両話者が適切な発話の生成に成功している。一方で低性能な $k$-LSTM-5M-t10M が対話相手であった同表 II の対話では,対話相手が過去発話の繰り返しなど,低品質な応答を生成している. このような低品質な応答の直後に, 評価対象システムもつられるように不自 表 1: 評価対象システム(話者 A)が $s$-Tfm-1.6B-m300K である場合の対話例. I. 対話相手(話者 B)は $s$-Tfm-1.6B-p50K 然な発話を生成している(表太字部分)。本例から,評価対象システムは対話相手の高品質な応答には適切な発話を生成できるが,低品質な応答には不適切な発話を生成する可能性があることがわかった. 運用時では,操作ミスをするユーザやシステムに非協力的なユーザとの対話なども想定されるため,低品質な発話に対し適切な応答を生成する能力もシステムにとって必要となる. そのため, 対話 Iだけでなく対話 II のような状況におけるシステム発話を評価することも重要となる。 ## 5.2 観点ごとの評価に関する今後の課題 3 節では,FEDにより各観点について人手評価と一定の相関を持つ自動評価が可能であることを確認した. 一方で,観点 $v$ の FED による評価結果が,v 以外の観点の人手評価と強く相関する場合があることがわかった. たとえば,観点 Naturalness について FED により算出した自動評価スコアは, Naturalness の人手評価スコアと順位相関係数 0.463 の相関を持つ(付録 A)が,同時に観点 Trust の人手評価スコアと順位相関係数 0.493 の相関を持つ.このことから, FEDを用いた自動評価は現状,各観点を隔てる細かい違いの評価まではできていないと考えられる。 評価における各観点の違いの理解は,とくに設定 (c) など評価対象の性能が高い場合に重要となると考えられる.たとえば,低性能システムが生成しうる対話破綻をもたらす発話4) は,多数の観点で低く評価されることが予想される。 そのため低性能システムの自動評価では, 各観点で着目すべき点が違うことを考慮できなくとも,各観点に対する人手評  価との相関は高くなりやすい。一方で,設定 (c)で評価対象システムとなっているような Transformer ベースの大規模システムは,文脈に沿った自然な応答が生成可能であることが知られている。これらのシステムの観点ごとの性能比較では,各システムが自然な応答を生成するなかで,観点ごとに挙動の違いを的確に見出し優劣を判定する必要がある. 各観点を隔てる細かい違いを理解した高精度な自動対話評価を実現し,設定 (c)などの高難度なシステム比較を自動化することが今後の課題の一つである. 自動対話評価手法の改良案として,FED 評価に用いるポジティブ・ネガティブ文の増強や,各文の重みの学習方法の改良を検討している。 ## 6 おわりに 本研究では,評価対象システムと多様なシステムの対話を自動収集することで,対話相手の多様性を考慮しつつも人手を一切介さない bot-to-bot 対話評価の枠組みを提案した。評価実験では,評価対象システムが高性能な場合において課題が残るものの,評価対象システム同士のアーキテクチャや学習デー タが異なる場合や,評価対象システム性能が低性能である場合,提案手法によりシステムの性能差を自動で識別できることがわかった.また,本手法の特徵である対話相手の多様化により, 網羅的な評価対象システムの挙動を考慮した評価が可能であることを確認した.今回は提案手法が評価対象システムを予想される順位に並び替えられるかにより評価の有効性を検証したが,今後は各観点で評価対象システムを人手評価し得られるシステムのランキングとの一致をもとに評価の有効性を検証する予定である. ## 謝辞 本研究の一部は JSPS 科研費 JP19H04162, JP19H05693,JP21J22383 の助成を受けたものです. ## 参考文献 [1] Asma Ghandeharioun, Judy Hanwen Shen, Natasha Jaques, Craig Ferguson, Noah Jones, Agata Lapedriza, and Rosalind Picard. Approximating Interactive Human Evaluation with Self-Play for Open-Domain Dialog Systems. In Proceedings of the 2019 Conference on Neural Information Processing Systems (NeurIPS), 2019. [2] Jan Deriu and Mark Cieliebak. Towards a Metric for Automated Conversational Dialogue System Evaluation and Improvement. In Proceedings of the 12th International Conference on Natural Language Generation (INLG), pp. 432-437, 2019. [3] Shikib Mehri and Maxine Eskenazi. Unsupervised Evaluation of Interactive Dialog with DialoGPT. In Proceedings of the 21th Annual Meeting of the Special Interest Group on Discourse and Dialogue (SIGDIAL), pp. 225235, 2020. [4] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical Analysis of Training Strategies of Transformer-based Japanese Chit-chat Systems. arXiv:2109.05217, 2021. [5] Haldun Akoglu. User's guide to correlation coefficients. Turkish journal of emergency medicine, Vol. 18, No. 3 , pp. 91-93, 2018. [6] 藤原吏生, 岸波洋介, 今野颯人, 佐藤志貴, 佐藤汰亮, 宮脇峻平, 加藤拓真, 鈴木潤, 乾健太郎. ILYS aoba bot: 大規模ニューラル応答生成モデルとルールベースを統合した雑談対話システム. 第 90 回言語・音声理解と対話処理研究会, pp. 110-115, 2020. [7] 岸波洋介, 赤間怜奈, 佐藤志貴, 鈴木潤, 徳久良子, 乾健太郎. 対話システムの先読み能力実現に向けた未来の展開まで生成する学習戦略の提案と分析. 2021 年度人工知能学会全国大会, 2021. ## A FEDによる評価結果と人手評価結果の順位相関係数 3 節において算出した FEDによる評価結果と人手評価結果の順位相関係数について,観点ごとに算出した結果を表 2 に示す. 同表から,各応答文の重みを学習しない場合は観点によって人手評価との相関にばらつきがあり,相関が全く認められないものも存在する。一方,重みを学習することでどの観点も人手評価との順位相関係数が 0.4 前後まで向上した. 表 2: 人手評価結果との順位相関係数. ## B 評価実験の詳細 表 3 に,4節の評価実験で用いた雑談システムの一覧を示す.システム名は「製作者代表を示す記号 - アー キテクチャ名-システムパラメータ数-学習データ5)とその数」の形式となっている. また,算出した各システムの FED による評価値を表 4 に示す. 表 3: 使用した雑談システムの一覧. 表 4: 各設定におけるシステムの評価値. 設定 (a) 設定 (c) 5) 学習データの e は JEmpatheticDialogues, $\mathrm{f}$ は趣味雑談コーパス, $\mathrm{p}$ は JPersonaChat [4], $\mathrm{m}$ は e, f, $\mathrm{p}$ の混合コーパス, $\mathrm{t}$ は Twitter のリプライチェーンを示す.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B6-1.pdf
# 対照学習による文ベクトルを使用した 障害レポートのクラスタリング 小林 千真 1 山下 郁海 ${ }^{1}$ 岡 照晃 1 小町 守 1 真鍋 章 2 谷本 恒野 ${ }^{2}$ 東京都立大学 ${ }^{1}$ 富士電機株式会社 ${ }^{2}$ } \{kobayashi-kazuma1@ed., yamashita-ikumi@ed., teruaki-oka@, komachi@\}tmu.ac.jp, \{manabe-akira, tanimoto-kouya\}@fujielectric.com ## 概要 本研究では、機器が故障した際に作成される障害レポートを文ベクトル化しクラスタリングを行なった。SimCSE は現在最高性能の文ベクトル獲得手法の一つであるが、日本語での有効性が明確に示されていない。そこで述部意味関係データを使用して、日本語文ベクトルの評価を行なった。その結果、教師ありの SimCSE は日本語でも有効であることを確認した。また文べクトルを使用し、障害レポートのクラスタリングを行ない、ドメインごとの結果の違いを事例に基づいて分析した。その結果、入力文やドメインの特性により文べクトルが有効な場合とそうでない場合が確認された。 ## 1 はじめに 自動販売機やATM に挙げられるように、現代社会には様々な場所に様々な機器が設置され我々の暮らしを支えている。それらの機器が故障するたびに障害レポートが作成され、日々増え続けている。障害レポートを分析し、障害の全体像を捉えることで、対策や業務の効率化が期待できる。本研究で扱う障害レポートは大きく状況、原因、措置の3 要素からなる文章であり、重複する内容のレポートもある。図1(上)が障害レポートの具体例である。それらを集約することで確認すべき障害データ数は削減され、数千以上の障害レポートを有効に分析することができる。 山下ら [1] は障害レポートを集約するにあたり、障害レポートの各文が状況・原因・措置・その他のどれに該当するかの分類タスクを行なった。本間ら [2] は障害レポートの各文から状況・原因・措置に関する重要箇所を抽出する重要箇所抽出タスクを行なった。本研究はこれらの下流タスクとして ## 本研究における3つの入カデータ ## 状況:補助ボイラ水面計 (南)蒸気リーク 原因: 製品不具合措置: 漏れ確認 図 1 障害レポートと本研究で想定する入力の具体例。1) 位置付けられ、抽出された状況状況 - 原因 - 措置のフレーズを入力とし、それらを基に段階的な集約に取り組む。本タスクでの入力の具体例を図 1 (下) に示す。 本研究では似た意味の文を集約するにあたって、文の意味関係を反映した文べクトルを作る技術に注目した。大規模事前学習モデル (PLM) によって Semantic Textual Similarity (STS) の性能が大幅に向上している。STS で特に高い性能を出しているのは PLM に 2 文を入力し、実数値で類似度を出力するように fine-tunig する手法であり、現在最高性能の SMART [3] もこの類の手法である。この手法では、類似度計算のたびに PLM による計算を実行する必要があり、繰り返し類似度計算を要するクラスタリングには計算時間の観点で向かない。対して、PLM から文ベクトルを獲得する手法の場合、文ベクトルを一度獲得すれば、以降ベクトル類似度の計算のみで済むため、計算時間の問題が大幅に改善される [4]。代表的な PLM のひとつに BERT [5] があ 1)本研究では人手で作成されたデータを使用するが、実際に適用する際には本間ら [2]により、障害レポートの各文から状況・原因・措置が抽出された状態が本研究の入力データとなる。 る。BERT は文書分類のような応用タスクのために fine-tuning をすることを前提としたモデルである。 BERT から文べクトルを得ることもできるが、文べクトルは性能が低いことが知られている [4]。BERT から高性能の文べクトルを獲得するための手法がいくつか提案されているが、SimCSE [6] が最も性能の高い文べクトルを獲得できる手法である。しかし SimCSE は英語でしかその性能を保障されていない。 本研究では、障害レポート(日本語)から抽出した重要箇所を SimCSE で追加学習した BERT に入力し、文べクトルを獲得する。その文ベクトルをクラスタリングすることで集約を行なった。本研究の貢献を以下に示す。 ・障害レポートから抽出した重要箇所に対して文ベクトルを用いたクラスタリングを試みた。 ・日本語において SimCSE による文べクトルを使用した。また、その評価実験を行なった。 ## 2 障害レポートの集約 前述の通り、想定する入力は状況・原因・措置の3つの要素に分けられており、図 1 (下) が入力となることを想定している。本研究では 3 段階のクラスタリングによる集約を行う (付録 A で具体例を使用し、その手順を図示した)。各レポートは $r_{i}=(s, c, a)$ の形で入力される。ただし、 $s$ は状況、 $c$ は原因、 $a$ は措置である。1つ目のステップでは全レポートを親クラスタとして、 $s$ の情報のみでクラスタリングを行い、クラスタ集合 $\left.\{C_{1}^{s}, C_{2}^{s}, ..\right.\}$ を得る。2つ目のステップでは $C_{x}^{s}$ をそれぞれ親クラスタとして、 $c$ の情報のみでクラスタリングを行う。 その結果 $C_{x}^{s}$ ごとにクラスタ集合 $\left.\{C_{1}^{c}, C_{2}^{c}, ..\right.\}$ を得る。 3 つ目のステップでは、 $C_{x}^{c}$ をそれぞれ親クラスタとして、 $a$ の情報のみでクラスタリングを行う。その結果 $C_{x}^{c}$ ごとにクラスタ集合 $\left.\{C_{1}^{a}, C_{2}^{a}, \ldots\right.\}$ を得る。2) 集約を行う際、状況・原因・措置の各段階でそれぞれの文字列でクラスタリングを行う。文字列にはフレーズのように短いものもあるが、本研究では文とみなし、BERTをSimCSE で訓練したモデルを使用して文べクトルを作成する。集約タスクの各段階では文ベクトル同士のユークリッド距離を使用して DBSCAN [7] でクラスタリングする。  ## 3 SimCSE SimCSE は PLM に対照学習を行うことで、STSにおいてより性能の高い文べクトルを獲得する手法であり、BERT や RoBERTa に適用することで、STS で最高性能のスコアを記録する文ベクトルを獲得できる。STS では、2つの文とそれに対する意味的な類似度を人手でスコアリングした値があり、その値との相関によりモデルの性能が評価される。 SimCSE には Natural Language Inference (NLI) デー タを使用した教師ありの手法と生の文を使用した教師なしの手法がある。教師ありの手法では NLI データセット ${ }^{3}$ から、ある文に対して含意の関係にある文と矛盾の関係にある文を抽出し、元の文と含意の関係にある文の文べクトルが近づくように、矛盾の関係にある文の文ベクトルは遠くなるように対照学習を行う。教師なしの手法では生の文集合(例えば、Wikipedia)のある文に対して、同じ文の異なるドロップアウトの文ベクトルを生成し、その文ベクトルと元の文ベクトルが近づくように、ランダムに選んだ別の文の文べクトルが遠ざかるように対照学習を行う。 Gao ら [6] は教師ありの手法が教師なしの手法よりも英語 STS において良い結果となることを示した。しかし日本語で公開されている NLI データセットは SNLI(英語の NLI データセットのひとつ)を機械翻訳し、人手でフィルタリングしたものであり、流暢な翻訳とはなっていない。このため、教師ありの手法は英語ほどの性能が得られるとは限らない。それに対して、流暢な日本語で書かれているテキスト(例えば、Wikipedia)は利用可能であるから、教師なしの手法では英語と同等の性能が期待される。このことから英語同様に教師ありの手法がより良い結果になることは自明ではないので、本研究では教師ありの手法と教師なしの手法の両方を使用し比較した。 ## 4 日本語 SimCSE ## 4.1 実験設定 本研究では、SimCSEによるモデルの学習は東北大が公開している日本語 BERT $\left.{ }^{4}\right)$ に SimCSE を適用することで訓練した。また教師ありと教師なしの手  表 1 原文と述部意味関係コーパスの文ベクトルのコサイ類似度。 法でそれぞれ訓練を行なった。教師ありの学習には京都大学が公開している日本語 NLI データセット5) を使用した。教師なしの学習には日本語 Wikipedia 100 万文を使用した。SimCSE の教師ありでは 10 epoch、教師なしでは 5 epoch 学習を行なった。 ## 4.2 文ベクトルの評価 [6] では獲得した文べクトルを英語 STS データセットで評価した。しかし日本語で公開されている STS データセットは存在しないため、京都大学が公開している述部意味関係コーパス6)を使用し評価を行なった。このコーパスには「同義」、「無関係」、「反義」、「含意」の 4 種類の文対が用意されている。「反義」と「含意」は文ベクトルによる評価は自明ではないため、本研究では「同義」と「無関係」のみを使用した。評価には文べクトルのコサイン類似度を使用し、「同義」ではより高く、「無関係」ではより低くなることを基準とした。 ## 4.3 実験結果 結果を表 1 に示す。SimCSE の教師ありでは、 BERT と比べ「同義」で類似度が 4 ポイント上がり、「無関係」では 1 ポイント下がった。つまり、どちらでも BERT よりも改善している。一方、SimCSE の教師なしでは類似度が「同義」で 3 ポイント、「無関係」で 8 ポイント、それぞれ下がってしまった。 この結果から、流暢でない日本語 NLI データを使用した教師ありの SimCSE で性能向上することが確認できた。教師なしと教師ありの優劣はこの実験結果から述べることができない。 ## 5 障害レポートのクラスタリング ## 5.1 実験設定 ベースラインとして入力文字列同士の編集距離を距離とみなす手法を採用する。またSimCSE を使用 5) https://nlp.ist.i.kyoto-u.ac.jp/ 6) https://nlp.ist.i.kyoto-u.ac.jp/?PredicateEvalSet表 2 各ドメインのデータ数と段階ごとの正解クラス夕数。 しない東北大の日本語 BERT に直接 1 文を入力し、文ベクトルを獲得する手法もベースラインとする。 これらの比較により、そもそも文べクトルを使用することで性能が向上するか否か、SimCSE で学習した文ベクトルを使用することが障害レポート文のクラスタリングに効果があるか否かを検証できる。 DBSCAN のハイパーパラメータについて、 $\epsilon$ (近傍とみなす最大距離) は $[0.1,1,2,3,4,5,6,10]$ の間でハイパーパラメータの探索を行なった。 min-sample(密集領域を形成する最低サンプル数) は正解データの最低クラスタ数が $1 、 2$ のものが散見されたため 2 とした。外れ値として扱われたデー タ点は要素数 1 のクラスタとみなした。SimCSE による文ベクトルの獲得には 4 節で最も良い結果を得たモデルを使用した。 クラスタリングの評価には富士電機(株)の保有する食品流通分野 (冷凍)、食品流通分野 (自販機)、火力発電分野の障害レポートに、機器障害の実務に携わった経験のある社員がアノテーションを行い、状況、原因、措置に分類した正解データ(NFKC 正規化済み)を作成し、使用した。以後、食品流通分野(冷凍)を「冷凍」食品流通分野(自販機)を 「自販機」、火力発電分野を「火力」とする。使用する障害レポートのデータ数、正解クラスタ数を表 2 に示す。全体としてかなり細かいクラスタを形成することを期待しているデータセットである。 クラスタリングの評価指標の 1 つである Adjusted Rand Index (ARI) [8] を使用し、状況・原因・措置をそれぞれ評価した。ARI は正解クラスタと同一の場合 1 となり、一致率が下がると値も小さくなる。本研究では、前の段階(原因の時は状況、措置の時は原因)の正解データのクラスタをもとに各段階のクラスタリングを行い、評価した。 ## 5.2 実験結果 結果を表 3 に示す。ドメインごとにそれぞれ異なる結果となった。自販機ドメインでは、状況において SimCSE(教師あり)が圧倒的に良い結果となっ 表 3 クラスタリング結果に対する ARI スコア。 た。しかし原因と措置ではベースラインである編集距離が最も良い結果となった。冷凍ドメインでは、状況では全ての手法で全く同じ結果となった。原因と措置においては SimCSE(教師あり)がわずかに良い結果となった。火力ドメインでは、状況において BERT が最も良い結果となった。原因では全て同じ結果となった。措置では SimCSE(教師あり)が最も良い結果となった。次節では具体的な事例を確認しながら、このようにドメインごとに異なる結果になった原因を探る。 ## 6 事例分析 本節では、状況のフレーズに注目して分析を行なった。また教師ありの SimCSE を単に SimCSE として記述した。 ドメインごとの結果の違い自販機ドメインは 「50 円玉が 10 円のメックに入る」のように文に近い入力が多く、火力・冷凍ドメインでは、「給水シリ力計指示上昇」のようなフレーズ的な入力が多かった。入力が文に近いほど SimCSE による文べクトルの性能向上の恩恵を得たと考える。逆にフレーズ的な入力が多かった火力や冷凍ドメインでは高性能の文ベクトルが効かなかったと考える。冷凍ドメインでは状況も高いスコアとなっているが、完全一致した文字列だけを同一クラスタとみなした場合と同じスコアだった。このことから冷凍ドメインはもともと統一の取れた表記がなされており、文べクトルを使うことで完全一致でない文字列を余計に同一クラスタとしてしまったと考える。火力ドメインでは 「GT」のような独自の省略記号を区別できずに失敗する事例(後に紹介)が散見された。 モデル間の結果の違い BERT と SimCSEでクラスタリング結果が異なった事例を比較し、フレーズ的な入力では、わずかな違いで異なる基準でクラスタを成していることがわかった。しかしその基準は明確ではなく、定性的な判断でもその評価は難し い。具体的な事例を付録 B に示した。文に近い入力では、「購入不可」と「購入できない」のような違いを BERT では別のクラスタとしたが、SimCSEでは同じクラスタとして分類できた。 モデルの結果と正解データの違い「GT」のような独自の短縮単語が付くか否かといった違いを正解データでは区別しているが、SimCSE では区別しないという事例が散見された。これらを別クラスタとみなすか否かは、この障害レポート独自の基準であり、実務に携わっていない場合、人間でも判断が分かれるところであると考える。SimCSE はあくまでも一般的な文べクトルの性能向上を考えた手法であり、本研究で対象としたような特定の意図に基づくクラスタリングには別のアプローチが必要である。また反義的なフレーズを、SimCSE では同じクラスタと見なす事例があった。反義的なフレーズ同士にどのような類似度を設定すれば適切かは自明ではないため、このようなケースが文べクトルの類似度を使った手法の難しさであると考える。具体的な事例を付録 B に示した。 ## 7 おわりに 本研究では、日本語において SimCSEを使用して文ベクトルを学習し、その評価を行なった。その結果、教師ありの手法では性能の向上を確認した。次に障害レポートから抽出されたフレーズに対して文ベクトルを使用したクラスタリングを試みた。3つのドメインを使用したが、ドメインごとに異なる結果となった。分析として、文べクトルの類似度を使う手法では反義的なフレーズの区別が難しいという点が分かった。今後、さらなる性能向上のためにはタスク特化のデータ(分けたい事例、分けたくない事例)を使って SimCSE を学習する方法や、文べクトル以外の部分に注目した方法で性能向上を目指したい。 ## 参考文献 [1] 山下郁海, 小町守, 真鍋章, 谷本恒野. 隠れ層補間によるデータ拡張を用いた障害レポート分類. 言語処理学会第 27 回年次大会発表論文集, pp. 1794-1798, 2021. [2] 本間広樹, 小町守, 真鍋章, 谷本恒野. BERT モデルを用いた障害レポートに対する重要箇所抽出. 言語処理学会第 27 回年次大会発表論文集, pp. 189-193, 2021. [3] Haoming Jiang, Pengcheng He, Weizhu Chen, Xiaodong Liu, Jianfeng Gao, and Tuo Zhao. SMART: Robust and efficient fine-tuning for pre-trained natural language models through principled regularized optimization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 2177-2190, Online, July 2020. Association for Computational Linguistics. [4] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3982-3992, Hong Kong, China, November 2019. Association for Computational Linguistics. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [6] Tianyu Gao, Xingcheng Yao, and Danqi Chen. SimCSE: Simple contrastive learning of sentence embeddings. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 6894-6910, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [7] M Ester, H P Kriegel, J Sander, and Xu Xiaowei. A DensityBased Algorithm for Discovering Clusters in Large Spatial Databases with Noise. In Proceedings of the Second International Conference on Knowledge Discovery and Data Mining, pp. 226-231, Portland, 1996. AAAI Press. [8] Lawrence Hubert and Phipps Arabie. Comparing partitions. Journal of Classification, Vol. 2, No. 1, pp. 193-218, 1985. 図 2 本研究における集約の概略図である。まず、状況の情報を用いてクラスタリングし、似た状況ごとに障害レポートをまとめる。次に原因の情報を用いてクラスタリングし、障害レポートを原因の情報を用いてクラスタリングし、原因ごとのクラスタを作る。最後に措置の情報を用いてクラスタリングし、措置ごとのクラスタを作る。 ## A 集約の具体例 集約は、図 2 に示すように、Step1~3 の 3 段階のクラスタリングを行うタスクである。 ## B 失敗事例の具体例 障害レポートの ID(実際の ID とは異なる)と原文通りのフレーズを「ID: フレーズ」という形式で示し、 それらに対するクラスタリングを集合の形式で示した。 ## モデル間の違い ・1: 排熱回収ボイラ布製伸縮継手より漏水 ・2: 排熱回収ボイラ布製伸縮継手より漏水 ・3: 排熱回収ボイラ布製伸縮継手 (出口) より漏水 -4: 失火・燃焼異常 - 5: 失火・燃焼異常発生 ## モデルの結果と正解データの違い ・6, 7: GT 排ガス温度センサー異常 - 8: 排ガス温度センサー異常 ・9: 高圧給水流量指示不良 ・10: 低圧給水流量指示不良
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B6-2.pdf
# BERT とその拡張モデルを用いた作詞家推定手法と分析 笠松雅史 ${ }^{1}$ 青野雅樹 1 1 豊橋技術科学大学 情報 - 知能工学専攻 kasamatsu.masashi.wx@tut.jp masaki.aono.ss@tut.jp ## 概要 深層学習を用いた自然言語処理の中ではまだあまり着目されていない歌詞を対象に,従来手法や BERT とその拡張モデルを用いて歌詞の作詞家推定を行った.また,各推定モデルを用いて,推定モデルが誤分類した歌詞に着目した,間違えやすい歌詞とクラスの基準を提案した. そして,提案した基準のもと歌詞データの分析を行い,作詞家の特徴の推察を行った。 ## 1 はじめに 自然言語処理においても深層学習が浸透してきている.その中で Google が 2018 年に BERT(Bidirectional Encoder Representations from Transformers) [1] という自然言語処理モデルを発表した.BERT は,大量のテキストデータから学習を行い, その学習で得られた特徴量を様々なタスク(文章理解や感情分析など)に応用することができるという汎用性の高さが特徴として挙げられる. ここで,BERT の汎用性の高さが歌詞にも適用されるかの興味がある. また,テキストデータの著者推定タスク [2] は, 近年のソーシャルメディアの発達に伴うテキストデー タの増加により,注目を集めているタスクである。 しかし,題材とされているテキストデータには小説やニュース記事が多く,歌詞は比較的少ない. そこで本研究では,歌詞の著者,すなわち作詞家の推定を行う.本研究の目的は歌詞データに対する BERT の汎用性の解明と分析である. 目的を達成する手段として,まずBERTを用いた作詞家の推定モデルの獲得, また従来手法の機械学習や深層学習でも推定モデルを獲得,そして得られたモデルで推定精度の比較・分析を行う必要がある. 本稿では, これらについて報告を行う。 ## 2 データセット 使用するデータセットは,Uta-Net[3] より取得した作詞家と歌詞がセットになった独自のデータである. データセットでは多くのデータがあることが望ましいため,作詞家には著名で多くの歌詞を作詞した方を対象にしている。したがって,作詞家は 11 クラスで作詞家 1 クラスそれぞれ 100 曲分のデータであり,全部で 1,100 件のデータセットである.表 1 に作詞家とクラスの対応表を示す. ## 3 作詞家推定モデル ここでは,11クラスの作詞家の分類を行う推定モデルについて述べる. ## 3.1 従来手法による作詞家推定モデル 自然言語処理において,BERT が登場する以前よりよく用いられる従来手法として,次の 3 種類を用いる. - SVM (Support Vector Machine) - MLP (Multi Layer Perceptron) - LSTM (Long Short Term Memory) まず SVM では,入力特徴量に TF-IDF(Term Frequency-Inverse Document Frequency)で重み付けされた BoW(Bag of Words)を用いる.入力特徴量の次元数は 9,179 次元である. 次に MLPでは,入力特徴量に SVM と同様の TF-IDF で重み付けされた BoWを用いる.MLP の中間層は 2 層で, 中間層のユニット数は入力から順番に 1024,256である.また活性化関数は全て ReLU 関数である. そして LSTM では, 1 単語 200 次元のランダムベクトルを 1 曲分, 時系列データとして入力する. LSTM の各内部表現の次元数は 128 で, 最終層の内部表現から 11 クラス分類を行う. ## 3.2 BERT を用いた作詞家推定モデル 使用する BERT は,東北大学の乾研究室が公開している訓練済みの BERT-base である [4]. BERTを用いた作詞家推定のモデル図を図 1 に示す. [CLS] トークンに対応する最終章の埋め込みベクトルである [CLS] ベクトルを全結合層に通して作詞家推定を行う. 図1 BERTを用いたモデル図 ## 3.3 BERT を拡張した作詞家推定モデル 図 1 に示すような作詞家推定モデルでは, BERT の ENCODER のうち最終層のみの [CLS] ベクトルから作詞家推定を行う. しかし BERTを拡張した作詞家推定モデルでは,中間層の ENCODER より得られる [CLS] ベクトルも利用することを考える. この考えの概要図を図 2 に示す. 図 2 のように最大で 12 層分の [CLS] ベクトルを利用する構造(図 2 中の Classifier)を考える. この考えのもと,表 2 に示す ように 6 種類の Classifier の構造を持つ作詞家推定モデルを提案する. 図 2 BERTを用いた拡張モデルの概要図 表 2 拡張モデル 6 種類の Classifier の構造 ## 4 実験 この実験では,各作詞家推定モデルの精度調査を行う. ## 4.1 実験方法 各作詞家推定モデルの精度調査を K-fold 交差検証で行う. 交差検証の回数は 10 回として, テスト結果 10 回の平均 Accuracyを記録する. 交差検証を行う際のデータ分割は,学習データとテストデータで登場するクラス数が均等となるように分割を行う. すなわち,交差検証ごとに学習データ 990 件(90 件 $\times 11$ クラス),テストデータ 110 件(10 件 $\times 11$ クラス)となるように分割を行う. ## 4.2 学習の設定 まず SVM の設定は,カーネルにガウスカーネルを用いる。次に MLP の設定は,オプティマイザー に Adamを,学習率は 0.001 ,バッチサイズは 64 ,エポック数は 100 である. またLSTM の設定は, MLP の場合と同様である. そして BERTを用いた作詞家推定モデルは,オプティマイザーは Adam であり, BERT 部分の学習率は 0.00005 でそれ以外の学習率は 0.0001 ,バッチサイズは 16 , エポック数は 30 である. 最後に BERT を拡張した作詞家推定モデル 6 種類は, BERT を用いた作詞家推定モデルと同様である. ## 4.3 実験結果 表 3 に従来手法による作詞家推定方法 3 種類と BERT とその拡張モデルによる作詞家推定方法 7 種類の平均 Accuracy と標準偏差を示す. 表 3 より,従来手法である SVM や MLP,LSTM と比べて BERT の平均 Accuracy が高いことがわかる.このことから歌詞データに対しても BERT は有効であると考えられる。 また BERT と拡張モデルでは,拡張モデルのうち 2 種類が BERT よりも精度が高いことが確認された。 そこで,BERT より精度が向上した拡張モデル 1 と 6 を図 $3 \mathrm{a}$ と図 $3 \mathrm{c}$ に,精度が低下した拡張モデル 4 を図 $3 b$ に示す. 図 $3 a$ ,図 $3 \mathrm{c} \mathrm{~ , 図 ~} 3 b$ を見ると,精度が向上した拡張モデル 1 と 6では, Classifier の構造が拡張モデル 4 と比べて単純であることから,複数の [CLS] ベクトルを扱う際には単純な構造が有効であると考えられる。 ## 5 間違えやすさの分析 ここでは,実験で得られた 10 種類の作詞家推定モデルを用いてどのクラスの歌詞がどのクラスに間違えられやすいかの分析を行う。 ## 5.1 間違えやすい歌詞とクラスの基準 はじめに,間違えやすい歌詞の基準を次のように定義する. ある 1 つの歌詞に対して,10 種類の推定 モデルが半数以上あるクラスに誤分類すると,その歌詞は間違えやすい歌詞とする。そして,あるクラスの歌詞がまたあるクラスへ間違えやすい歌詞が 3 曲以上あれば,そのクラスへ間違えやすいクラスとする。 ## 5.2 分析方法 上記で定義した間違えやすい歌詞とクラスの基準をもとにして,作詞家 11 クラス全てに対して間違えやすい歌詞とクラスを算出する。次に,間違えやすいクラスの関係図を辺の重みを間違えやすい歌詞の数をとして作成する。 また,作成した関係図から PageRank を算出する。 PageRank とは,1998 年に S.Brin と L.Page によって発表され, 参照リンクが多いWeb ページは重要度が高くなるという考えのもと,Web ページの重要度を測るアルゴリズムである [5]. ここでは,間違えやすい歌詞が多いクラスはそれらの歌詞に重要な特徴があると考えのもと,PageRankによる分析を行う。 そして PageRank の高いクラスに間違われている歌詞に対して,ユーザーローカル提供のテキストマイニングツール [6] を用いてワードクラウドを作成し,間違われやすい歌詞にどのような特徴があるか分析を行う. ## 5.3 分析結果 図 5 に作成した間違えやすい歌詞とクラスの関係図と PageRankを示す. 図 5 において,丸の中の数字がクラスを,矢印に重なっている数字が間違えやすい歌詞の数を,赤字がそのクラスの PageRankをそれぞれ現している。図 5 から,PageRankが高いクラスはクラス 2 ,クラス 4 ,クラス 5 ,クラス 10 などであることがわかる. 次に,PageRank の高いクラスに間違われている歌詞に対するワードクラウドを図 $4 \mathrm{a}$, 図 $4 \mathrm{~b}$, 図 $4 \mathrm{c}$ にそれぞれ示す。図 $4 \mathrm{a}$ は 17 曲分の,図 $4 \mathrm{~b}$ は 12 曲分の, 図 $4 \mathrm{c}$ は 13 曲分の歌詞のワードクラウドである。また,赤字が動詞を,緑字が形容詞を,青字が名詞をそれぞれ表している。 図 4a から,クラス 2 に間違われやすい歌詞には英単語やネガティブな形容詞がよく使用されていると推測できる.次に図 $4 \mathrm{~b}$ からは,クラス 5 に間違われやすい歌詞にはクラス 2 と同様英単語が多く,またネガティブな形容詞が多いが,動詞にはポジティブなものが多い特徴があると推測できる。そ (a) 拡張モデル 1 (b) 拡張モデル 4 (c) 拡張モデル 6 図 3 精度が向上した拡張モデルと低下した拡張モデル (a) クラス 2 (b) クラス 5 (c) クラス 10 図 4 間違われた歌詞のワードクラウド 図 5 間違えやすい歌詞のクラスの関係図と PageRank して図 4c からは,クラス 10 に間違われやすい歌詞には,ネガティブな動詞や形容詞がよく使用されていると推測できる. ## 6 おわりに 本稿では,歌詞データに対しても BERT が有効であるかを K-fold 交差検証を用いて作詞家推定を行い, 従来手法と比較を行った. 比較の結果, BERT はどの従来手法よりも優れた結果であった. また,BERT の拡張モデルを 6 種類考案し,BERT と比較を行った. 比較の結果,拡張する際は単純な構造が有効であると考えられる。 そして,従来手法と BERT と BERT の拡張モデルの計 10 種類を用いて,間違えやすい歌詞とクラスの基準の提案を行った. 提案した基準のもと簡単な分析を行い,間違えやすい歌詞の特徴の推察を行った. このような推定モデルの誤分類を着目した方法は,データ分析の新たなアプローチの 1 つになると考えられる。 今後の検討として,間違えやすい歌詞とクラスの詳細な分析を進める必要があると考えられる。 また,間違えやすい情報を活用して,例えば GAN (Generative Adversarial Network)にその情報を付加してテキスト生成を行いたいと考えている。 ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. CoRR, Vol. abs/1810.04805, , 2018. [2] Janek Bevendorff, Bilal Ghanem, Anastasia Giachanou, Mike Kestemont, Enrique Manjavacas, Ilia Markov, Maximilian Mayerl, Martin Potthast, Francisco Rangel Pardo, Paolo Rosso, Guenther Specht, Efstathios Stamatatos, Benno Stein, Matti Wiegmann, and Eva Zangerle. Overview of PAN 2020: Authorship Verification, Celebrity Profiling, Profiling Fake News Spreaders on Twitter, and Style Change Detection, pp. 372-383. 092020. [3] 歌詞検索サービス歌ネット.https://www.uta-net. com/. [4] Github - cl-tohoku/bert-japanese: Bert models for japanese text. https://github.com/cl-tohoku/bert-japanese. [5] S. Brin and L. Page. The anatomy of a large-scale hypertextual web search engine. In Seventh International World-Wide Web Conference (WWW 1998), 1998. [6] Ai テキストマイニング by ユーザーローカル. https://textmining.userlocal.jp/.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B6-3.pdf
# Cross-modal Retrieval of Historical Materials Jieyong Zhu ${ }^{1}$ Taichi Nishimura ${ }^{1}$ Makoto Goto $^{2}$ Shinsuke Mori ${ }^{3}$ ${ }^{1}$ Graduate School of Informatics, Kyoto University ${ }^{2}$ National Museum of Japanese History ${ }^{3}$ Academic Center for Computing and Media Studies, Kyoto University \{zjsczjy04, taichitary\}@gmail.com m-goto@rekihaku.ac.jp forest@i.kyoto-u.ac.jp ## Abstract In this paper, we propose a neural-network-based crossmodal retrieval method on historical materials. We begin by collecting a multi-modal historical dataset from $\mathrm{Na}-$ tional Museum of Japanese History ${ }^{1}$. The dataset includes over $18 \mathrm{k}$ textual descriptions and 79k images. To evaluate the performance of our methods, we perform cross-modal image-to-text and text-to-image retrieval tasks. The experimental results show that the proposed method performs well in both retrieval tasks on historical materials compared with the random baseline. ## 1 Introduction With the rapid advancement of digitization, large-scale multi-modal data of historical materials, such as images and texts, have become available on the web. Consequently, cross-modal retrieval of historical materials plays an important role in assisting researchers to study them. Cross-modal retrieval is a technique to perform retrieval tasks across multiple modalities, such as text-to-image and vice versa. In recent years, the development in the field of vision-and-language has accelerated research on crossmodal retrieval tasks with remarkable performance. In this paper, we apply the state-of-the-art cross-modal retrieval methods to historical materials and demonstrate the crossmodal retrieval system. For historical materials, there are several kinds of corresponding textual data, including the material name, collection name, the designation, the quantity, the material quality, the scale, the production date, the place of use, the  Figure 1 Examples of image-to-text and text-to-image retrieval tasks. Retrieved results in the red boxes are the associated ones with the query in the left. material id, and the notes. In this paper, we choose the material name, the collection name, and the notes as the three main textual features because we consider that these features are the most important to represent the historical material Figure 1 shows an overview of image-to-text and text-toimage cross-modal retrieval tasks of historical materials. The left side is the query and the right side is the retrieved results. In the image-to-text retrieval task, given an image of a historical material, we retrieve the relative texts. In the text-to-image retrieval task, given a text that describes a historical material, we retrieve the corresponding image. Note that the ground truth of the query is marked in the red box. ## 2 Related Work The main challenge of cross-modal retrieval is the modality gap, and the key solution is to generate new representations from different modalities in the shared subspace, such that semantically associated inputs are mapped to similar locations. Figure 2 An overview of our proposed model. Subspace learning methods are one kind of the most widely used methods. They aim to find a commonly shared subspace where the similarity between different modalities can be measured. For example, Canonical Correlation Analysis (CCA) [1] is a linear method that learns the common space by maximizing pairwise correlations between two sets of data from different sources. However, because the correlation of multimedia data in the domain of historical materials is too complicated to be fully modeled only by applying linear projections, directly applying CCA over high-level text and image representations cannot achieve a reasonable result. Inspired by the success of deep networks, a variety of deep-learning-based cross-modal retrieval methods have been developed. Deep Canonical Correlation Analysis (DCCA) [2] is a deep-learning-based method to learn complex nonlinear projections. Wang et al. [3] propose a CNN-based model to map the textual and image data to a shared subspace. Recipe1M [4] proposed a neural embedding model with semantic regularization on a recipe dataset to get a better understanding of food and recipe. Garcia et al. [5] compare a CCA model with deep-learningbased approaches to perform retrieval tasks on the domain of art paintings. In this paper, we adopt a deep-learningbased cross-modal retrieval method on historical materials, which is different from previous works. ## 3 Retrieval System Figure 2 shows an overview of our proposed model. The proposed method consists of two major processes. Firstly, texts and images are encoded into representations separately. Secondly, the representations are fed into symmetric multi-layer perceptrons (MLPs) with ReLU activation functions to learn the cross-modal embeddings. ## 3.1 Text Encoder In the input of the text side, we have three types of data: material name, collection name, and notes. We propose two different encoders for converting the text data to vectors: the word2vec-based model and the LSTMbased model. The output of the text encoder is a 2048-D vector. Word2vec Encoder. We use a mean word2vec vector to represent the textual data. To train a word-level word2 vec model, we tokenize all texts in the dataset using $\mathrm{KyTea}^{2)}$. The dimension of the word2vec embedding is set as 100. Because the number of words is different for each type of text data, we use the mean word $2 \mathrm{vec}$ of words to represent each type of data and concatenate them as a $300-\mathrm{D}$ vector. Then we feed the $300-\mathrm{D}$ vector into a simple fully-connected neural network to get a 2048-D vector as the output. Bi-LSTM Encoder. We build a bidirectional LSTM model to convert the texts to vectors. The bidirectional LSTM model considers both forward and backward orderings. For each type of data, we train a different bidirectional LSTM model. The outputs of three LSTM models are concatenated as a 300-D vector. As before, the 300-D vector is fed into a simple fully-connected neural network to get a 2048 -D vector as the output. ## 3.2 Image Encoder The input of the image-side is a single image of historical materials. To convert images into vectors, we employ ResNet50 [6] pre-trained on ImageNet [7]. We remove the last fully-connected layer of ResNet50 and use the rest network to convert an image to a 2048-D vector. Like before, the 2048-D vector is fed into a simple fully-connected neu-  Figure 3 Examples of the dataset. ral network. As a result, the output of the image encoder is a 2048 -D vector. ## 3.3 Shared Subspace Learning Finally, we convert text/image vectors into shared subspace using symmetric multi-layer perceptrons (MLPs) with the ReLU activation functions. To train the model, we compute triplet margin loss [8], which makes the vectors in the subspace for a given text-image pair close and otherwise faraway. The triplet margin loss creates a criterion that measures the triplet loss given a triplet and a margin. A triplet is composed of an anchor vector $a$, a positive vector $p$, and a negative vector $n$. The triplet margin loss is formulated as: $ L(a, p, n)=\max \{d(a, p)-d(a, n)+\operatorname{margin}, 0\} $ where $d(\cdot)$ is the Euclidean distance between the two vectors, and margin is the hyper-parameter. ## 4 Experiments To evaluate our methods, we implement the models and perform both image and text retrieval tasks, and measure the performance on our dataset. We also report some samples of the retrieval tasks. ## 4.1 Experimental Settings Dataset. This is the first attempt to tackle cross-modal retrieval of historical materials, so no datasets exist in this field; thus we created the Japanese historical dataset of textual descriptions and corresponding images by crawling them from the National Museum of Japanese History. The dataset contains 18,429 historical materials, including paintings, calligraphy works, and artifacts. As Figure 3 shows, for each historical material, there is one textual description and more than one image. In total, the dataset includes over $18 \mathrm{k}$ textual descriptions and over $79 \mathrm{k}$ corresponding images. The details of dataset splits are shown in Table 1. The ratio of the training set is 0.7 , and the ratio of the validation set and test set are both 0.15 . Hyper-parameter Settings. For the word2vec encoder, we set the embedding size to 100 and use Gensim [9] to train the word2vec model. For the bidirectional LSTM encoder, we set the embedding size to 2,048 . The hidden size is 512 and the output size is 2,048 . This LSTM encoder only has one layer. In the LSTM encoder, we use three different vocabularies for material names, collection names, and notes separately. For the symmetric multi-layer perceptrons (MLPs) with ReLU activation functions, the input size and the output size are both 2,048 . During training, we use Adam optimizer with a learning rate of 0.001 and train 35 epochs. The size of the mini-batch is 32 . We set the margin to 0.1 in the triplet loss function. Evaluation Metrics. To evaluate the performance of our model on retrieval tasks, we computed two mainstream evaluation metrics in cross-modal retrieval tasks, Recall@K (R@K) and median rank (MedR), where $\mathrm{R} @ \mathrm{~K}$ is the recall rate percentage of the target corresponding to a query appearing in the top $K$ when the set of obtained images is sorted in descending order by cos similarity, and MedR is the median of the ranks of the target corresponding to each query. ## 4.2 Quantitative Evaluation We report results on 1,000 image-and-text pairs randomly selected from the test set. For both retrieval tasks, We compute the MedR and $\mathrm{R} @ \mathrm{~K}$ with $K$ being 1,5 , and 10. Our proposed method is compared with the random ranking baseline. We can see in Table 2 that the proposed model outperforms the random ranking baseline in imageto-text and text-to-image retrieval tasks. To be specific, the word2vec encoder performs better than the bidirectional LSTM encoder, indicating that the word order is not essen- Figure 4 Image-to-text retrieval examples. The ground truth in the retrieved results is highlighted in the red box. Figure 5 Text-to-image retrieval examples. The ground truth is highlighted in the red box. tial in our tasks. ## 4.3 Retrieval Results We report image-to-text and text-to-image retrieval results on our best model, the mean word2vec model. Image-to-Text Retrieval Results. Figure 4 shows two qualitative positive examples of the texts retrieved. On the left side is the query images. On the right side is the top five retrieved texts. In the first example, our model successfully retrieved the ground truth text in the top one. In the second example, the ground truth text is returned as the top five. We can see that our model can learn the cross-modal embeddings well and retrieve good results. Text-To-Image Retrieval Results. Figure 5 shows two qualitative negative examples of the images retrieved. The left side shows the ground truth image and the query text. The query includes the material name, collection name, and notes. The right side shows the top five retrieved images. Although the model fails to return the ground truth image in the top five returned images, it can be observed that the retrieved images are semantically similar, which indicates that the our model can learn the semantic information in the domain of historical materials but there is still much room for improvement. ## 5 Conclusion In this paper, we proposed a model for cross-modal retrieval between historical materials. This paper tackled the cross-modal retrieval of historical materials using deeplearning-based cross-modal retrieval methods. This work is the first attempt to tackle this problem, thus we constructed the dataset of Japanese historical texts and images, and evaluated the model's performance on it. The experimental results showed that the proposed method performs well in the cross-modal retrieval of historical materials. ## References [1] Yunchao Gong, Qifa Ke, Michael Isard, and Svetlana Lazebnik. A multi-view embedding space for modeling internet images, tags, and their semantics. International journal of computer vision, Vol. 106, No. 2, pp. 210-233, 2014. [2] Galen Andrew, Raman Arora, Jeff Bilmes, and Karen Livescu. Deep canonical correlation analysis. In International conference on machine learning, pp. 1247-1255. PMLR, 2013. [3] Jian Wang, Yonghao He, Cuicui Kang, Shiming Xiang, and Chunhong Pan. Image-text cross-modal retrieval via modality-specific feature learning. In Proceedings of the 5th ACM on International Conference on Multimedia Retrieval, pp. 347-354, 2015. [4] Amaia Salvador, Nicholas Hynes, Yusuf Aytar, Javier Marin, Ferda Ofli, Ingmar Weber, and Antonio Torralba. Learning cross-modal embeddings for cooking recipes and food images. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 3020-3028, 2017. [5] Noa Garcia and George Vogiatzis. How to read paintings: semantic art understanding with multi-modal retrieval. In Proceedings of the European Conference on Computer Vision (ECCV) Workshops, pp. 0-0, 2018 [6] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 770-778, 2016 [7] Jia Deng, Wei Dong, Richard Socher, Li-Jia Li, Kai Li, and Li Fei-Fei. Imagenet: A large-scale hierarchical image database. In 2009 IEEE conference on computer vision and pattern recognition, pp. 248-255. Ieee, 2009. [8] Daniel Ponsa Vassileios Balntas, Edgar Riba and Krystian Mikolajczyk. Learning local feature descriptors with triplets and shallow convolutional neural networks. In Edwin R. Hancock Richard C. Wilson and William A. P. Smith, editors, Proceedings of the British Machine Vision Conference (BMVC), pp. 119.1-119.11. BMVA Press, September 2016. [9] Radim Řehůřek and Petr Sojka. Software Framework for Topic Modelling with Large Corpora. In Proceedings of the LREC 2010 Workshop on New Challenges for NLP Frameworks, pp. 45-50, Valletta, Malta, May 2010. ELRA. http://is.muni.cz/publication/884893/en.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B6-4.pdf
# Web 文書からの用語検索における用語候補のランキングの検討 池内省吾 ${ }^{1}$ 南條浩輝 ${ }^{2}$ 馬 青 1 1 龍谷大学理工学研究科 2 京都大学学術情報メディアセンター ${ }^{1}$ t20m002@mail.ryukoku.ac.jp ${ }^{2}$ nanjo@media.kyoto-u.ac.jp ${ }^{1}$ qma@math.ryukoku.ac.jp ## 概要 適切な用語を用いないと正確な問い合わせが行えないことがある。我々は,適切な用語がわからないユーザの支援の研究を行っている. 具体的には, ユーザからの用語に関する説明文を検索質問として Web 検索を行って,Web 文書から用語を抽出する $「$ Web 文書からの用語検索」を研究している. 本稿では,Web 文書群から得た用語候補のランキングについて述べる. ## 1 はじめに 用語検索は,用語を説明する説明文から用語を求める処理である. 辞書逆引き [1] とは,説明文と近い定義文を見つけてその見出し語を求める処理であり,辞書に掲載されている語に対する用語検索は,辞書逆引きで求めることが可能である。一方,新語や専門用語は辞書形式で定義されていないことがある.そこで,我々はユーザによる説明文を検索質問として一般の Web ページを検索し,そこから用語抽出を行う「Web 文書からの用語検索」の手法を提案している [2]. 本稿では, 用語検索において出力する複数の用語候補のランキング方法について検討を行った結果を報告する. ## 2 Web 文書からの用語検索 我々が提案している BERTを用いた Web 文書からの用語検索 [2] について述べる。これは以下の 3 つの処理を順に適用して用語を求めるものである. 1. Web 文書検索: 与えられた説明文からなる検索質問で Web 検索を行い,Web 文書集合を取得する 2. 用語候補抽出: Web 文書集合それぞれの文書について,与えられた検索質問と文書中のテキストを連結して BERT に入力し,質問応答の枠組みを利用して用語候補を抽出する。 3. 用語候補ランキング: 得られた用語候補をランキングして出力する ## 2.1 Web 文書検索 本研究では, Web 文書として Google スニペットを用いる. Google スニペットは, Goolge 検索エンジンに検索質問を入力して得られる検索結果ページにおいて,検索結果の Web ページのタイトルや URL の下に表示される短い説明のことである ${ }^{1)}$. Google スニペットの取得は, Google API Client Libraries [3] を用いて行う。 ## 2.2 用語候補抽出 用語候補抽出には BERTを用いた質問応答の枠組みを用いる。具体的には,SQuAD 2.0 [4] で用いられた方法 [5] を用いる。これは,質問 $q$ と文書 $d$ を連結させたもの([CLS] $q[\mathbf{S E P}] d)$ に対して, 解答可能な場合には文書中の正解の開始位置と終了位置(Start/End)を出力するように,解答不可能な場合には開始位置と終了位置として [CLS] の位置を出力するように BERTを学習 (fine-tuning) するものである. 本研究では, BERT の日本語 Pretraining モデルとして,京都大学提供 BERT(BERT-BASE-WWM 版 $)^{2)}$ を用いる. ## 2.3 用語候補ランキング 得られた用語候補を何らかの方法でランキング (順位づけ)し,出力する. 我々は, 以前の研究 [2] において頻度に基づいたランキングを行ったものの,他のランキング手法を検討していなかった. 本研究ではこの検討を行う.  ## 3 実験のデータ ## 3.1 用語検索用の検索質問 これは,先行研究 [2] で本タスクのために作成されたものである. ## 3.2 用語抽出用 BERT の学習データ 用語抽出用 BERT の学習データとして,解答可能性付き読解データセット [6] を使用する。これは,文書読解タスク用のデータセットであり,(質問,解答,文書)の組に対して,解答可能性スコアがつけれらている. 解答可能性スコアは, 文書読解によって質問に答えることができるかについて人手で判断されたスコアである. このデータセットの(質問 $q_{i}$, 解答 $a_{i}$, 文書 $d_{i}^{k}$ ) の組について, 質問 $q_{i}$ に対する解答 $a_{i}$ (本研究での用語) は文書 $d_{i}^{k}$ に必ず含まれている。一つの質問・解答について複数 $(k)$ の文書が用意されている. 読解タスクにおいては解答不能文書が定義されているが,これは解答を含まないという意味ではなく,解答根拠が存在しないという意味である。 本研究での用語検索では解答根拠は不要である. さらに,求めた Web 文書に用語が存在しない場合もある。そこで,読解タスクのデータセットそのものを学習に使うのではなく, 次のように修正して学習データとする。 1. 解答可能データ集合: 文書読解タスク用データセットの $\left(q_{i}, a_{i}, d_{i}^{k}\right)$ の組を全て解答可能デー 夕集合とする. $a_{i}$ の $d_{i}^{k}$ における開始位置と終了位置を BERT に学習させる. 2. 解答不能データ集合: 文書読解タスク用データセットの $\left(q_{i}, a_{i}, d_{i}^{k}\right)$ の組に対して, $d_{i}^{k}$ を別の $q_{j}$ に対応する文書 $d_{j}^{l}(j \neq i)$ に置き換えたものを解答不能データ集合とする ${ }^{3)}$ 。開始位置と終了位置を共に [CLS] の位置として BERT に学習させる。 ## 4 用語候補ランキング Web 文書からの用語検索では,検索質問と各 Web 文書を連結した文字列を BERT に入力して用語候補を求め,その候補をランキングして出力する(図 $ が含まれていないことも確認する. } 図 1 複数文書からの用語候補の抽出とランキング 1). 最も単純なランキング手法として頻度に基づくもの(多数決)がある. 実際に,我々も以前に多数決方法による用語検索を行った [2] ものの,他のランキング手法は十分に検討できていなかった. このような背景に基づき,本研究では多数決方式と他の 4 種類ランキング方法(下記)を検討する。 1. Maj (Majority): 多数決(頻度)に基づいてランキングを行う。 2. T-TSum (Sum of Term-Term similarities): 用語候補間で類似度をとり,その和に基づいてランキングを行う。これは用語候補の内でもっとも中心となるような用語が目的の用語であることを期待するものである. 3. Q-T (Qery-Term similarity): 検索質問(単語列) と用語候補(単語)との類似度に基づいてランキングを行う.正解用語と検索質問は同じ意味を表していると仮定し,両者の類似度を直接求めることで目的の用語が求められると期待するものである. 4. Q-T ${ }_{s n i}$ (Query-Term_snippet similarity): 検索質問 (単語列) と用語候補のスニペット(単語列) との類似度に基づいてランキングを行う.正解用語による検索で得られるスニペットを正解用語の説明とみなし,これが検索質問と近いと期待するものである. 5. $\mathbf{Q}_{s n i}-\mathbf{T}_{s n i}$ (Query_snippet-Term_snippet similarity): 検索質問のスニペット(単語列)と用語候補のスニペット(単語列)との類似度に基づいてランキングを行う.両者ともにスニペットとすることで,正解用語と検索質問間で高い類似度が得られることを期待するものである。 Maj 以外のランキング手法についての概要を図 2 から図 5 に示す. 本研究では,「Xのスニペット」として,Xを検索クエリとして,Google API Client Librariesを用いて 1 件だけ取得したものを採用した。 本研究では, 用語候補 (単語) や検索質問(単語 図 2 T-Tsum (Sum of Term-Term similarilites) 図 4 Q-T ${ }_{s n i}$ (Query-Term_snippet similarity) 列),それらのスニペット(単語列)間の類似度を求めるために,これらを同一次元のベクトル(分散表現)で表現する. 分散表現は,用語候補,検索質問,スニペットを同一に扱い(それらを string とする),[CLS] string [SEP] を BERT に入力して求める. 具体的には, 各 token に対応する BERT の出力 embedding の平均値(average pooling)を求める. べクトル間の類似度はコサイン距離とする。 ## 5 実験結果と考察 23 件の検索質問を用いて用語検索を行った. 図 1 に示す通り各質問について M 件(最大 100 件)の Web 文書を検索し, 各 Web 文書から 1 件の用語候補を取り出して重なりをとり,用語候補の集合(図1 の $\mathrm{N}$ 件)を得た. この用語候補中に正解の用語を含むものは 17 件,含まないものは 6 件であった. この 6 件に関してはどのようなランキング手法を適用しても正解を上位にランクすることはできない. 求める Web 文書数を多くし,各文書から複数の用語候補を出力するなどが必要であることがわかる. はじめに多数決ランキングを行った. 用語候補中に正解を含むもの 17 件のうち 11 件で正解の用語が 図 3 Q-T (Query-Term similarity) 図 $5 \mathrm{Q}_{s n i}-\mathrm{T}_{s n i}$ (Query_snippet-Term_snippet similarity) 1 位であった。残りの 6 件は, 3 位, 3 位,4 位,5 位,6位,13 位であった. 結果は表 1 の Majに示されている。23 件に対する平均逆順位 (MRR) は 0.54 であった(表 2). 1 位ではない 6 件については,正解の用語に代わって検索質問に関係はするものの別の語が上位に来ていることが多い. 例えば,正解用語が「バナナ」である時には,「マンゴー」や「みかん」が上位にランクされていた. 4 位以降も「パパイヤ」「ぶどう」「パイナップル」と続き,バナナと同じカテゴリの果物が続く. 検索質問が曖昧で,抽出する用語が絞りきれない時には,このようなことになると考えられる。用語「アイシャドー」に対しては,「目元」「アイ」「ニベア」「油分」「アイスクリーム」が上位にランクされており,化粧品とは別カテゴリの食品カテゴリの語が含まれていた. 用語「コールドゲーム」に対しては,「野球」「ヤクルト」 $「 3$ 月 21 日」「甲子園球場」「8 試合」「順延になった」「9月 20 日」などが上位にランクされており,野球に関する用語が抽出されていると考えられるが,日付などの別のカテゴリと考えられる語も含まれていた.これらに対しては,用語間の類似度や用語と検索質問の類似度を求めることで明らかに異なる候補 表 1 用語ごとの検索結果 正解となる用語の出現順位を表す * : 順位が 100 件以内に正解がなかった であるもの(食品や日付など)を除くことができる可能性がある. 次に,類似度に基づく 4 種類のランキングを行った. MRR は $0.05 \sim 0.13$ と低いものであった. この結果も表 2 に示されている. T-TSum では,多数決で上位にランクできるものについては低いランクをつけてしまったものの,多数決ランキングで低いランクのものについて,より高いランクに出力できていた。実際に多数決で 6 位のアイシャドーは 5 位に,13 位のコールドゲー ムについては 7 位にランクすることができた(表 1 T-TSum). Q-T では,単語列(検索質問)と単語(用語候補) との間で類似度をとろうとしており,うまく働かなかったものと考えられる。 を取り出して,単語列同士の類似度を測った. Q-T表 2 各手法による MRR の値 よりも類似度の求め方としては適切と考えられるが,課題が大きいことがわかる。 $\mathbf{Q}_{s n i}-\mathbf{T}_{s n i}$ では,用語候補と検索質問の双方からスニペット(単語列)を取り出して,単語列同士の類似度を測った。検索質問のスニペットが正解用語のスニペットと類似し,かつそれ以外の用語候補のスニペットと類似しないことを期待したが,そのようなスニペットの取得に課題があったと考える. ## 6 まとめ 用語検索において出力する複数の用語候補のランキング方法について検討を行った. 多数決によるランキングが精度が高かった. 類似度に基づく手法それ自体は高精度ではなかったが,多数決手法が苦手とするようなものに対して高いランクに出力できる可能性があることがわかった. 今後は多数決手法と類似度に基づく手法の併用による用語検索の高精度化を検討していきたい. 謝辞: 本研究は科研費基盤研究 (C) 19K12241 の補助を受けた。 ## 参考文献 [1] 粟飯原俊介, 長尾真, 田中久美子. 意味的逆引き辞書『真言』. 言語処理学会第 19 回年次大会発表論文集, pp. 406-409, 2013 [2] 池内省吾, 南條浩輝, 馬青. BERT を用いた Web 文書からの用語検索. 情報処理学会研究報告 Vol.2021-NL249, pp. $1-6,2021$. [3] Google. Google API Client Libraries. https:// developers.google.com/api-client-library. [4] Pranav Rajpurkar, Robin Jia, , and Percy Liang. Know What You Don' $t$ Know: Unanswerable Questions for SQuAD. $A C L$, Vol. 2, p. 784-789, 2018. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. NAACL, Vol. 1, p. 4171-4186, 2019. [6] 鈴木正敏, 松田耕史, 岡崎直観, 乾健太郎. 読解による解答可能性を付与した質問応答データセットの構築.言語処理学会第 24 回年次大会, pp. 702-705, 2018. ## A 付録 表 A 作成した検索質問 23 件
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B6-5.pdf
# 深層距離学習で最適化した文の埋め込み表現による 未知クラスを含む日本語テキスト分類 大段 秀顕林 岳晴 竹中一秀湯浅 晃 株式会社NTT データ \{ Hideaki.Odan, Takeharu.Hayashi, Kazuhide.Takenaka, Akira.Yuasa\}@nttdata.com ## 概要 一般に「学習データに存在しない未知のクラス」 を含む分類は難しいが,深層距離学習により特徴空間上でのクラスごとの分布を最適化すれば,分類精度の向上が期待される. 本研究では未知クラスを含む日本語テキストの分類問題に対して, 深層距離学習で最適化した BERT ベースの文の埋め込み表現を用い,平均 $\mathrm{k}$ 近傍距離による分類を行った。これにより BERT 文書分類の確信度ベースの手法や,他の文の埋め込み表現モデルを使用した場合と比較して,高い精度を達成した. また一般に難しいとされる「1 クラスあたりのデータ量が少ない場合」「不均衡な場合」「クラス数が多い場合」であっても他の手法を上回る精度が得られ,実用性の高さを示した。 ## 1 はじめに 一般的な機械学習の分類モデルでは,評価デー夕には「学習データに存在した既知クラス」しか存在しないことを暗黙の前提としている。そのため評価データに「学習データに存在しない未知クラス」が存在し,「対象データが既知クラスか未知クラスを判定したうえで正しく分類するタスク」は,通常の分類モデルとは異なるアプローチが必要になる[1].実際,これに対するナイーブな手法として「分類モデルの確信度スコアが十分低い場合に未知クラスとしてみなす方法」が考えられるが,確信度スコアが過剰に高くなるケースが知られており[2], 高い精度での分類は難しいと想定される。 そこで本研究では画像領域でよく使用される深層距離学習に注目した. 深層距離学習では特徴空間上で各クラスの分布を最適化し,互いにより識別可能になるような特徵量抽出が可能になる。ここで未知クラスの識別が既知クラスの識別と同じ観点の延長線上で可能と仮定するならば,深層距離学習により未知クラスを含む分類の精度向上が期待される. 本研究の新規性は,未知クラスを含む日本語テキスト分類タスクにおいて深層距離学習で最適化した文の埋め込み表現を用い,既存手法との比較検証を行ったことである. 本提案手法で上記タスクを検証した文献は,著者の知る限り存在しない。具体的には,深層距離学習の損失関数 AdaCos[3]を用いて,文の埋め込み表現モデル Sentence-BERT (SBERT) [4]を訓練し,最適化したベクトルに対して平均 $\mathrm{k}$ 近傍法による分類を行い,性能を評価した。またデー 夕特性に応じた性能の変化も併せて調査した。 ## 2 関連研究 ## 2.1 文の埋め込み表現生成モデル 文の埋め込み表現 (Sentence Embedding) 生成モデルとは,文の意味を数值的なべクトルに変換するモデルのことである. 最も単純なものとして TFIDF や,事前学習した単語の埋め込み表現 (word2vec, Glove[5], fastText[6] など)を加重平均する方法 [7][8][9]がある.このほか転移学習可能なユニバーサルな表現を得ることを目的とした研究が多く存在する. 例えば InferSent[10], Universal Sentence Encoder (USE)[11], SBERT などである.いずれも Stanford Natural Language Inference という自然言語推論用デ一タセットで教師あり学習を行っているが,モデルの構造が異なる.InferSent は双方向 LSTM, USE では Transformer もしくは DAN, SBERT では BERT を用いている。論文[4]では Semantic Textual Similarity タスクにおいてこれら手法を比較しており,SBERT が最も高い精度となっている。 ## 2.2 深層距離学習 深層距離学習(Deep Metric Learning)とは,特徵 空間上で同じクラスをより近くに,異なるクラスをより遠くに配置するような変換を学習させる手法のことである. このため互いにより識別可能な特徴量抽出が可能になる. 主な応用タスクとして, 画像領域での顔認証[3][12] [13]や異常検知[14]などがある. 深層距離学習の損失関数には複数手法が提案されている. 基本的なものとして Contrastive Loss, Triplet Loss が挙げられるほか, 最近では分類モデルのアー キテクチヤをそのまま適用しながら Softmax 関数を改良した角度ベースの損失関数(CosFace[12], ArcFace[13], AdaCos など)も提案されている. ## 3 提案手法 まず文の埋め込み表現生成モデルとして, 高い精度を持つSBERT を用いる. ただし元論文[4]と異なり, 自然言語推論データセットではなく、対象タスクのデータセットを用いた深層距離学習によるファインチューニングを行う。これはユニバーサルな表現よりも,特定のタスクに特化した表現の方が高い精度を実現できると考えたためである. 次に深層距離学習の損失関数についても, 最適なものを選択した。まず Contrastive Loss, Triplet Loss は学習過程のサンプル選択依存性が高く, 收束や精度が安定しないため採用しなかった。一方で角度べ一スの損失関数の多くはハイパーパラメータ依存性が高い.今回は中でもハイパーパラメータを自動調整できる AdaCos を採用した. 最後に深層距離学習で最適化された埋め込み表現を平均 $\mathrm{k}$ 近傍距離で分類する. 具体的には, まず学習・テストデータの埋め込み表現を出力し, 特徴空間上にマッピングする. その後, 各テストデータ点の学習データ点に対する平均 $\mathrm{k}$ 近傍距離を算出する。平均 $\mathrm{k}$ 近傍距離が閾値以上のものを未知クラスとし, それ以外については $\mathrm{k}$ 近傍法による多数決で所属クラスを推論した. なお近傍点数 $\mathrm{k}$ として $\mathrm{k}=\min (\mathrm{N}, 5)$ を採用した(Nは最小クラスサイズ). ## 4 実験設定 ## 4.1 データセット 本研究ではデータ特性に応じた性能評価を行うため,表 1 に示す 4 種類のデータセットを用意した. まず共通するデータソースとして Yahoo! 知恵袋データ(第2版)[15]を用いた。これは,ヤフー株式会社が国立情報学研究所に提供しているデータセ ットで,大/中/小分類カテゴリ・質問文・回答文等から構成される. 本データセットは量が多いものの,整っていない日本語テキストも多く含まれるため, なるべく品質が高いと思われる「質問ステータス:質問者による知識」「役立つ質問」「BA 不適合投票率:0」「回答ステータス:質問者による BA」を満たすデータのみを使用した。また分類対象テキストとしては質問文と回答文を結合したものを用い,正解ラベルは中分類カテゴリを選択した. この共通データソースに対して,さらに既知/未知クラスの量を調整することで, 4 種類のデータセットを準備した。これらは実験\#1 をべースラインに,以下を評価するために用意している: - 実験\#2 : クラス当たりのデータ量が少ない場合 - 実験\#3 : クラスごとのデータ量が不均衡な場合 - 実験\#4 : クラスごとのデータ量が非常に不均衡で, ごく少量データのクラスも存在し,かつ全体のクラス数も多い場合(最も難しい場合) ## 4.2 前処理 ノイズ除去のため,「改行コードの除去 」「HTML 特殊文字コードの復元」「HTML タグの除去」「URL 文字列の除去」「ファイルパス文字列の除去」「正規化」「数字のゼロ置換」を実施した. ## 4.3 モデル 実験では提案手法のほかに,以下の目的のもと,比較用モデルを 5 つ用意した。 - 未学習 SBERT : SBERT のモデル構造ではなく,深層距離学習自体の効果を測るため. - TFIDF, fastText, USE : ユニバーサルな文の埋め込み表現生成モデルと比較するため. - BERT 文書分類 : 分類モデルによるナイーブな実現手法と比較するため. これらのらち BERT 文書分類以外のモデルについては, 提案手法と同様に埋め込み表現を平均 $\mathrm{k}$ 近傍法によって分類した。一方で BERT 文書分類は異なる手法で分類を行ったので後述する. ## 提案手法 東北大学・乾研究室の日本語 BERT (cl-tohoku/bert-base-japanese-v2) iをべースに, sentence-transformersiiライブラリを用い, BERT 出力  を平均プーリングする SBERT モデルを用意した.深層距離学習は $A d a C o s$ の損失関数を実装し,バッチサイズ 4, 最適化関数 AdamW, 学習率 5e-5, スケジューラ WarmupLinear, 重多減衰係数 0.01 , patience10 回の早期終了の条件のもと行った. 未学習 SBERT 提案手法と同じ日本語 BERTをべ一スとした SBERT を用いたが,比較のためファインチューニングを行わない状態とした. TFIDF MeCab[16] (mecab-ipadic-neologd[17]辞書) を用いてテキストを形態素解析し, 品詞フィルタ処理として「名詞_サ変接続」「名詞_ナイ形容詞語幹」「名詞_一般」「名詞_形容動詞語幹」「名詞_固有名詞」「動詞_自立」「形容詞_自立」のみを残し,原形化を行った単語群を用いて, 埋め込み表現を求めた. FastText TFIDF と同様の前処理を実施後, 各単語を fastTextiiiライブラリで単語ベクトル化し, TFIDF 値を重みとして加重平均して, 埋め込み表現を求めた. fastText モデル自体は, 2020/9/2 時点での日本語 Wikipedia ダンプに対して WikiExtractorivで XML タグを除去したのち MeCab (mecab-ipadic-neologd 辞書)で分かち書きしたデータを, skip-gram 方式・300 次元で学習させたものを用いた. USE TensorFlow Hubに存在する多言語モデル un iversal-sentence-encoder-multilingual-large(v3)vt使用して,埋め込み表現を求めた。 BERT 文書分類提案手法と同じ日本語 BERTを 書分類クラスを用いて, バッチサイズ 32 , 最適化関数 Adam, 学習率 5e-5, patience10 回の早期終了の条件のもと学習させたものを用いた. また分類手順としては,まずテストデータに対して各既知クラスに該当する確信度スコアを出力した。次に「確信度スコアが十分低いとみなす条件」を満たすものについては未知クラスを割り当て, それ以外は確信度スコアが最大のクラスへ割り当てるように推論した。なお,「確信度スコアが十分低いと見なす条件」として, 「確信度スコアの最大値が閾値以下」「確信度スコアの最大値と次点の差分が閾値以下」の両方を  実験したが,今回は精度の良かった前者を採用している. ## 4.4 評価方法 既知未知判定の単独精度まず単純な既知/未知クラスの 2 值分類の識別能を評価した. その際,テストデータにおける既知/未知クラス比率は $1: 1$ に設定していること,また閾値選択によらない評価を行いたいことを鑑み,評価指標として AUROC(Area Under Receiver Operating Characteristic Curve)を採用した. 未知クラスを含む分類精度次に未知クラスも含め全クラスを正しく推論できるかどうかを accuracy で評価した。なお本評価を行うためには, 既知未知判定を確定させるため, 間値を選択する必要がある.本番適用する場合であれば,テストデータの正解ラベルは不明のため, 閾値は平均 $\mathrm{k}$ 近傍距離もしくは確信度スコアの分布だけから決定すべきである。しかし今回はあくまで各モデルの潜在能力を評価することが目的のため, 正解ラベルが所与として精度最大となる閾値を選択したうえで評価したvii. ## 5 実験結果 実験結果を表 2 に示す.ここから以下が分かる: - 全ての実験条件・評価指標にて, 本提案手法が最大精度を達成できている. - 特に実験\#2 4 は, 実験\#1 と比べて「1クラス当たりのデータ量が少ない」「クラスごとのデー 夕量の不均衡性がある」「クラス数が多い」ケ一スとなっている.ビジネス利用を想定すると実際のデータでは不均衡であったり, データ量が十分になかったり, クラス数が多い場合があることを考慮すると,提案手法はいずれの場合も比較的高い精度を実現でき,実用性が高いといえる. - 本提案手法と未学習 SBERT を比較すると, 全ての実験条件・評価指標にて 20~30\%近くの差分が出ている. ここから SBERT のモデル構造ではなく, 深層距離学習自体による性能向上効果が非常に高いことが分かる. $ 近傍距離は既知/未知クラスで值が乘離するため, $\mathrm{M}$字型の分布をすることを別実験で確認している.このような場合であれば M 字の真ん中の極小点を間值として選択できる. } - 他のユニバーサルな表現生成モデルと比較しても,本提案手法が優れており,特定のタスクに特化した表現の方が高い精度を実現できるという仮説通りといえる.ただ USE については比較的高い精度となっており, ある程度の性能で十分な場合には, ファインチューニング不要な USE も選択肢の一つと言える. - 本提案手法と BERT 文書分類モデルを比較すると, 1クラス当たりの学習データ量が少なくなる場合(実験\#2, \#4)に BERT 文書分類モデルが大きく性能劣化するのに対して, 本提案手法は性能劣化が少ないことがわかる.ここから同じ BERT ベースでも, 深層距離学習により少量データに対する頑健性が高くなっていることがわかる. ## 6 おわりに 本研究では未知クラスを含む日本語テキストの分類問題に対して, 深層距離学習で最適化した文の埋め込み表現を用いることで,一般に難しいとされるケースでも既存手法と比べて高い精度を達成でき,実用性が高いことを示した。 今後の改善としては, BERT 以外のベースモデルや他の損失関数への拡張が考えられる. また本提案手法は正解ラベルを必要とするが,自然言語処理では正解ラベルのアノテーションコストが高いという課題がある。そこで日本語テキストに対する data augmentation を適用することで, 教師なしの対照学習へと拡張することも考えられる。 表 1 実験条件 } & \multicolumn{2}{|c|}{} & \multicolumn{2}{|c|}{} & \multicolumn{2}{|c|}{ 実験\#4 } \\ 表 2 実験結果 } & \multirow[t]{6}{*}{ AUROC } & 本提案手法 & 0.89 & 0.81 & 0.85 & 0.77 \\ ## 謝辞 本研究では,国立情報学研究所の IDR データセッ卜提供サービスによりヤフー株式会社から提供を受けた「Yahoo!知恵袋データ (第 2 版)」を利用した. ## 参考文献 [1] GENG, Chuanxing; HUANG, Sheng-jun; CHEN, Songcan. Recent advances in open set recognition: A survey. IEEE transactions on pattern analysis and machine intelligence, 2020. [2] GUO, Chuan, et al. On calibration of modern neural networks. In: International Conference on Machine Learning. PMLR, 2017. p. 1321-1330. [3] ZHANG, Xiao, et al. Adacos: Adaptively scaling cosine logits for effectively learning deep face representations. In: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. 2019. p. 10823-10832. [4] REIMERS, Nils; GUREVYCH, Iryna. Sentence-bert: Sentence embeddings using siamese bert-networks. arXiv preprint arXiv:1908.10084, 2019. [5] Jeffrey Pennington, Richard Socher, and Christopher Manning. 2014. Glove: Global vectors for word representation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pages 1532-1543. [6] Piotr Bojanowski, Edouard Grave, Armand Joulin, Tomas Mikolov. "Enriching Word Vectors with Subword Information" Transactions of the Association for Computational Linguistics (2017) 5: $135-146$ [7] S. Arora, Y. Liang, and T. Ma, "A simple but tough-to-beat baseline for sentence embeddings," International Conference on Learning Representations (ICLR), 2017. [8] K. Ethayarajh, "Unsupervised random walk sentence embeddings: A strong but simple baseline," in Proceedings of The Third Workshop on Representation Learning for NLP, 2018, pp. 91-100 [9] Z. Yang, C. Zhu, and W. Chen, "Parameter-free sentence embedding via orthogonal basis," in Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), 2019, pp. 638-648. [10] CONNEAU, Alexis, et al. Supervised learning of universal sentence representations from natural language inference data. arXiv preprint arXiv:1705.02364, 2017. [11] CER, Daniel, et al. Universal sentence encoder. arXiv preprint arXiv:1803.11175, 2018. [12] Hao Wang, Yitong Wang, Zheng Zhou, Xing Ji, Zhifeng Li, Dihong Gong, Jingchao Zhou, and Wei Liu. Cosface: Large margin cosine loss for deep face recognition. arXiv preprint arXiv:1801.09414, 2018. [13] Jiankang Deng, Jia Guo, and Stefanos Zafeiriou. Arcface: Additive angular margin loss for deep face recognition. arXiv preprint arXiv:1801.07698, 2018. [14] MASANA, Marc, et al. Metric learning for novelty and anomaly detection. arXiv preprint arXiv:1808.05492, 2018. [15] ヤフー株式会社 (2011): Yahoo! 知恵袋データ (第 2 版). 国立情報学研究所情報学研究デー タリポジトリ. (データセット). https://doi.org/10.32130/idr.1.2 [16] Taku Kudo, Kaoru Yamamoto, Yuji Matsumoto: Applying Conditional Random Fields to Japanese Morphological Analysis, Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing (EMNLP-2004), pp.230-237 (2004.) [17] 佐藤敏紀; 橋本泰一; 奥村学. 単語分かち書き辞書 mecab-ipadic-NEologd の実装と情報検索における効果的な使用方法の検討. 言語処理学会第 23 回年次大会発表論文集, 2017, 875-878.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B7-1.pdf
# 疑似訓練データによる格助詞の省略に頑健な係り受け解析 石川遼伍 丹羽彩奈 水木栄 岡崎直観 東京工業大学 情報理工学院 \{ryogo.ishikawa, ayana.niwa, sakae.mizuki\}[at]nlp.c.titech.ac.jp okazaki[at]c.titech.ac.jp ## 概要 話し言葉やソーシャルメディア上などで散見される「大学行った」のような格助詞が省略された文は,係り受け解析の精度に悪影響を及ぼす。本稿では,格助詞の一部を人工的に省略した疑似訓練デー タを用い,係り受け解析精度を向上させるアプロー チを二つ紹介する。一つは疑似訓練データで格助詞補完器を学習し, 省略された格助詞を補完してから係り受け解析を行うアプローチ,もう一つは疑似訓練データから格助詞の省略を含む文に対応できる係り受け解析器を直接学習するアプローチである. 既存の係り受け解析器との比較において,特に後者は格助詞の省略がない文の解析精度を維持したまま,省略文の解析精度を向上させることを確認した. ## 1 はじめに 近年,スマートフォンの利用率は全年代で一貫して増加しており,LINE や Twitter をはじめとするサービス/アプリの利用者も増加傾向にある [1]. テキストでのコミュニケーションが増えつつあるなかで,ソーシャルメディア等で交わされるメッセー ジを対象とする研究も多く存在する. そのような研究では,テキスト分析の前処理として係り受け解析を行うことがある $[2,3,4]$. しかし,ソーシャルメディア上のコミュニケー ションでよく見られる「大学行った」(大学(に)行った)のような助詞が省略された文は,係り受け解析精度の低下を招く. 池田ら [5] は, 助詞が省略されている文に着目し, 省略箇所を自動的に推定し,欠落した助詞を補完することにより,係り受け解析の精度を向上させる手法を提案した.しかし, この省略補完は省略された箇所の前後数個の形態素に基づいており,文全体の構造を考慮していない。 日本語の係り受け解析器として,確率モデル に基づく $\mathrm{KNP}^{1)}$ [6] や,Support Vector Machine に基づく (abocha2) [7] 等が存在する。また,最近では BERT [8] を利用した手法が提案され, 既存の解析器を上回る精度を達成している [9]. 一般に,機械学習による手法では訓練データとして係り受け構造が注釈付けされたコーパスが必要である。ゆえに,格助詞が省略されている文 (以下格助詞省略文と呼ぶ)の解析精度を向上させるには,格助詞省略文に注釈付けしたコーパスが必要である.ところが,そのようなデータを人手で構築した例は少なく,大規模なコーパスである現代日本語書き言葉均衡コーパス(BCCWJ)[10]にも,さほど収録されていない.本稿では,人工的に格助詞を省略させた文を疑似訓練データとして利用することにより,訓練データ不足の問題を回避し,格助詞省略文の係り受け解析精度を向上させる手法を二つ提案する。一つは,疑似データで格助詞補完器を,既存のコーパスで係り受け解析器をそれぞれ学習したうえで,推論時には格助詞を補完してから係り受け解析を行うパイプラインの手法(以下 Pipeline 手法と呼ぶ)である。もう一つは,既存のコーパスの一部を格助詞省略文の疑似データに変換し,係り受け解析器を学習したうえで,推論時には格助詞省略文に対して直接係り受け解析を行うエンドツーエンドの手法(以下 E2E 手法と呼ぶ)である。いずれも BERT を基盤とし,事前学習で獲得された知識と周辺文脈の活用を図る。 実験により, 既存の解析器と比較すると,特に $\mathrm{E} 2 \mathrm{E}$ 手法では非省略文の解析精度を維持しつつ,省略文の解析精度が向上することを確認した。また,人工的な省略文の生成手法は簡素かつランダムなものであっても,省略文に対して有効であることがわかった. Pipeline 手法は E2E 手法には及ばなかったものの,格助詞補完器の F1 スコアは人工的な省略文で 0.94 に達しており,口語的な文に対するテキス  2) https://taku910.github.io/cabocha/ 図 1: Pipeline 手法 図 2: 格助詞補完モデル ト正規化の一手法としての応用が期待できる [11]. ## 2 関連研究 船越ら [12] は, 音声対話システムにおいて構文解析を困難にする 4 種類の不適格性の解決の一環として, 助詞が省略されている文の解析手法を提案した. その手法では, 助詞が付属しない名詞からでも動詞に係ること許すように,解析に用いる辞書を拡張した. ただし,評価に用いられた表現や助詞の欠落を含む事例が限られていた。 池田ら [5] は,省略箇所を自動的に推定し,欠落した助詞を補完することによって,係り受け解析の精度を向上させる手法を提案した. 助詞の欠落箇所の推定は,任意の品詞間に助詞の欠落があると仮定し, その前後 4 品詞列を特徴量として学習した SVM を用いる. 補完は, 推定された助詞の欠落箇所の前後最大 4 形態素をクエリとして新聞記事を検索し,助詞別の検索結果の件数をもとにスコアリングして,補完すべき助詞を決定する。このように,池田らの手法では文全体の構文構造が考慮されているわけではない. ## 3 提案手法 本稿で対象とする格助詞は,船越ら [12] や池田ら [5] を参考に「「が」「を」「に」の 3 種類とした。 また, 柴田ら [9] と同様に, 係り受け解析は単語単位の係り受けを主辞の選択問題として考える. すなわち,サブワードに分割されたトークン列が入力されたとき,各単語の先頭トークンに対して主辞のトークンを予測する問題とする。 ## 3.1 Pipeline 手法 Pipeline 手法では, 格助詞補完器によって省略された格助詞の補完を行い,その補完結果に対して係り受け解析を行う(図 1)。 格助詞の補完格助詞補完器は BERTを疑似訓練データでファインチューニングして構成する. 本研究では,格助詞補完を系列ラベリング問題として考える. 図 2 に示すように,モデルはサブワードに分割されたトークン列を入力として,あるトークンとその直後のトークンとの間に対象の格助詞のいずれかが挿入されるべきか,何も挿入する必要がないのかを予測する.格助詞補完器は,この予測に基づいて入力の単語列に格助詞を挿入したものを出力する.なお,単語がサブワードに分割されていた場合は,その先頭のトークンのみを考慮する。 疑似訓練データの作成生コーパスのテキストを形態素解析し,句点で文に分割したのち,品詞と表層形をもとに対象の格助詞をランダムに省略することで疑似データを生成する.省略された格助詞に対応する正解ラベルを付与し,訓練データとする.省略は対象の格助詞ごとに $50 \%$ の確率で発生させた。 係り受け解析通常のコーパスで学習した既存の解析器を用いる. 格助詞補完器が出力した単語列を入力にとり,各単語の主辞を予測する。 ## 3.2 E2E 手法 E2E 手法では,既存の係り受け解析モデルを疑似訓練データで学習し,これを用いて省略文の係り受け解析を行う(図3)。 疑似訓練データの作成品詞や係り受けの情報が注釈付けされているコーパスをもとに,文ごとに 2 段階でランダムな省略を施し,疑似訓練データを作成する。ある文から格助詞を省略する流れを図 4 に示す. 前処理として省略操作に先んじて, 省略可能な格助詞を文から抽出する.ここで,省略可能な格助詞とは,他の形態素からの係りがない格助詞を指す.これは,仮に他の形態素からの係りがある格助 図 3: E2E 手法 図 4: 人工的な省略文生成の流れ 詞を省略した場合,その文の依存構造木が複数に分割されてしまい,学習時の扱いが煩雑になるためである。本稿で利用した BCCWJにおいては,「について」や「に関して」などといった格助詞相当の機能表現の複合語 [13] がこの例として挙げられる. 第 1 段階省略候補の格助詞を形態素レベルで選択する。省略可能な格助詞それぞれについて,一定の確率で省略候補とする.本稿では,予備害験の結果を踏まえてこの確率を $50 \%$ とした。 第 2 段階実際に省略を適用するのか否かを文レベルで決定する。一定の確率で省略候補を実際に原文から省略し,それによって生じた ID 等のずれを修正する。本稿では,予備実験の結果を踏まえてこの確率を $30 \%$ とした.なお,実際に省略が適用された場合,原文はコーパスから取り除かれ,省略文に置き換えられる。 このような 2 段階のプロセスを踏んでいるのは, インフォーマルな文体では格助詞がひとつでも省略されると他の格助詞も省略されやすい一方,フォー マルな文体では全く格助詞が省略されない文も多いという傾向を模擬するためである. $0.5 \times 0.3=0.15$ であるから,格助詞ごとに $15 \%$ で省略を発生させていることと等価のように思われるが,その場合は 2 段階のプロセスを経るよりも複数の格助詞が省略された文が生成されにくくなる。しかし,単純に格助詞を省略する確率を引き上げてしまうと,訓練デー タ中の省略文の事例数が多くなりすぎてしまい,解析器は非省略文に対して十分な精度を保つことができなくなってしまう. ## 4 実験 ## 4.1 データ 係り受け解析の訓練・評価データには,BCCWJの Universal Dependencies 版 (UD Japanese BCCWJ [14]) を用いた. UD Japanese BCCWJ では,あらかじめデータセットが訓練用・開発用・評価用に分割されており,その事例数はそれぞれ 40,801 文,8,427 文, 7,881 文で,合計 57,109 文である,本稿では,実際に人間によって書かれた省略文に対する性能を評価するために,元々の分割は用いずに BCCWJ から抽出したすべての格助詞省略文が評価データに含まれるように分割しなおした. この際,各分割の事例数は元々の値をそのまま採用した。 格助詞の省略を明示した注釈付きコーパスが存在しないため, BCCWJ-DepParaPAS [15] の述語項構造を利用して格助詞省略文を抽出した。述語項構造や形態素の情報に基づいて一定の規則を設け,それに従って自動的に大まかな抽出を行ったのち,そこから不適当と判断されるものを人手で取り除いた.自動抽出の基本的な規則は,「ある名詞が述語の項として注釈付けされているにも関わらず,その名詞を含む文節に助詞が存在しない場合は抽出する」というものである. 抽出作業の結果,1,745 件の格助詞省略文の事例を得た。評価用の 7,881 文のうち, 1,745 文が格助詞省略文で,残りは非省略文である. ## 4.2 実験設定 Pipeline 手法生コーパスとしてウィキペディア日本語版の整形済みデータである wiki40b/ja ${ }^{3}$ を用いた. 形態素解析器には fugashi[unidic-lite] ${ }^{4}$ を用いた.文ごとに分割した結果,訓練用 $13,032,687$ 件,開発用 716,896 件, 評価用 717,627 件の事例を得た. 事前学習済みモデルには BCCWJ と品詞体系が一致するように cl-tohoku/bert-base-japanese-v2 ${ }^{5}$ を使用した. transformers $\left.{ }^{6}\right)$ の実装を改変し,BERT モデルを 3 エポックだけファインチューニングした.格助詞補完器のラベリング結果の評価には seqeval ${ }^{7)}$ を用いた。係り受け解析には後述の Baseline 手法を用いた. 3) https://www.tensorflow.org/datasets/catalog/wiki40b 4) https://github.com/polm/fugashi 5) https://huggingface.co/cl-tohoku/ bert-base-japanese-v2 6) https://github.com/huggingface/transformers 7) https://github.com/chakki-works/seqeval 表 1: 係り受け解析の精度(括弧内は有効事例数) 表 2: 格助詞補完の精度 E2E 手法解析モデルには柴田ら [9] による BERTKNP ${ }^{8}$ を用いた。事前学習済みモデルには Pipeline 手法と同様に cl-tohoku/bert-base-japanese-v2 を使用した. ファインチューニングは Devlin ら [8] や柴田ら [9] に倣い,3 エポック行った. 疑似訓練データの生成はシード值を変えて 5 回行い,評価結果の平均を算出した. Baseline 手法ベースラインとして,訓練デー タ9)をそのまま用いて解析器 BERTKNP を学習した場合を採用した. 事前学習済みモデルやエポック数は E2E 手法と同様とした。 評価指標係り受け解析の評価には, CoNLL 2017 Shared Task [16] の評価スクリプトを用いた ${ }^{10)}$. 解析器が出力した依存構造木において,根が存在しない場合や,依存関係にループが存在する場合など,構文木として無効である場合は,規定に従いその事例に対するスコアを 0 として計算した。 ## 4.3 実験結果 実験結果を表 1 に示す. Baseline 手法の省略文に対する精度は非省略文に対するそれよりも 4.5 ポイント低く, 格助詞の省略が係り受け解析の精度低下を招くことが改めて示された. Pipeline 手法を見ると,Baseline 手法と比較して省略文に対しては 0.82 ポイントの向上,非省略文に対しては 0.11 ポイントの悪化という結果で, Pipeline 手法では省略文の解析精度を向上させる効果が大きくないことがわかった. E2E 手法では省略文に対する精度が $90.42 \pm 0.14$ と 3 手法のうちで最も良く, Baseline 手法と比較して 1.2 ポイントの精度向上を達成しており,E2E 手法の省略文に対する有効性を確認することができた。また,E2E 手法の非省略文に対する精度は $93.62 \pm 0.15$ で,Baseline 手法の精度と大差がなく, E2E 手法が非省略文の解析精度にほとんど悪影響を与えないことも確かめられた. E2E 手法による  具体的な係り受け解析の改善事例は付録 A で紹介する. Pipeline 手法と E2E 手法を比較すると,総合的に E2E 手法のほうが有効であった。これは,人工的な省略文をエンドツーエンドで学習させることにより格助詞が省略されていたとしても BERT が文脈を広くとって解析を行えていることや,Pipeline 手法のように格助詞補完器からの誤りの伝播が発生しえないためであることが推測される. 表 2 に Pipeline 手法の格助詞補完器の人工的な省略文における精度を示す.いずれの格助詞についても F1 スコアは 0.93 以上と,人工的な省略文に対しては高い精度で補完ができている。 ## 5 結論 本稿では,口語的な文で頻繁にみられる格助詞の省略された文が係り受け解析の精度に悪影響を及ぼすという問題に対して,省略文に注釈付けしたデータが入手困難な状況において,疑似訓練データを作成し, 格助詞補完器や係り受け解析器の学習に用いることで,省略文の解析精度を向上させる手法を提案した。人間によって書かれた格助詞省略文を BCCWJ から抽出して構築した評価データにおいて, E2E 手法は既存の解析器より 1.2 ポイント高い精度を示し, 非省略文に対しても既存の解析器と同等の精度を維持できることが確認できた. E2E 手法では,人工的な格助詞の省略を 2 段階のランダムな試行によって行う簡潔な手法を提案し,その有効性を確認した。一方で,Pipeline 手法は十分な効果がみられなかったが,疑似訓練データによる格助詞補完器自体の精度は高く,翻訳タスク等におけるテキスト正規化の手段として活用できる. 今後は,より適切な対象格助詞や省略確率の特定,実際にソーシャルメディア上で発信されているテキストでの評価等を行う予定である. ## 謝辞 本研究は JSPS 科研費 19 H01118 の助成を受けたものです. ## 参考文献 [1] 総務省. 令和 2 年度情報通信メディアの利用時間と情報行動に関する調査, 2021. https://www. soumu.go.jp/iicp/research/ results/media_usage-time.html. [2] Michal Ptaszynski, Fumito Masui, Yuuto Fukushima, Yuuto Oikawa, Hiroshi Hayakawa, Yasunori Miyamori, Kiyoshi Takahashi, and Shunzo Kawajiri. Deep learning for information triage on twitter. Applied Sciences, Vol. 11, No. 14, 2021. [3] 尾崎航成, 向井宏明, 松井くにお. SNS における不適切投稿の検知. 情報処理学会第 82 回全国大会講演論文集, pp. 621-622, 2020. [4] 峰松優, 藤淵俊王, 有村秀孝. ソーシャルビッグデー タを活用した放射線被ばくに対する不安意見の解析システムの開発. 日本保健物理学会, Vol. 55, No. 1 , pp. 15-22, 2020 [5] 池田和史, 柳原正, 服部元, 松本一則, 小野智弘. 口語文書の解析精度向上のための助詞落ち推定および補完手法の提案. 情報処理学会研究報告, Vol. 2010-DBS-151, No. 39, pp. 1-8, 2010. [6] Daisuke Kawahara and Sadao Kurohashi. A fullylexicalized probabilistic model for Japanese syntactic and case structure analysis. In Proceedings of the Human Language Technology Conference of the NAACL, Main Conference, pp. 176-183, 2006. [7] Taku Kudo and Yuji Matsumoto. Japanese dependency structure analysis based on support vector machines. In 2000 Joint SIGDAT Conference on Empirical Methods in Natural Language Processing and Very Large Corpora, pp. 18-25, 2000. [8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. [9] 柴田知秀, 河原大輔, 黒橋禎夫. BERT による日本語構文解析の精度向上. 言語処理学会第 25 回年次大会, pp. 205-208, 2019. [10] 前川喜久雄. KOTONOHA『現代日本語書き言葉均衡コーパス』の開発 (く特集>資料研究の現在). 日本語の研究, Vol. 4, No. 1, pp. 82-95, 2008. [11] 笠原要, 斉藤いつみ, 浅野久子, 片山太一, 松尾義博. テキスト正規化技術を用いた cgm 日本語テキスト翻訳. 言語処理学会第 21 回年次大会, pp. 804-807, 2015. [12] 船越孝太郎, 徳永健伸, 田中穂積. 音声対話用構文解析器の頑健性の評価. 情報処理学会研究報告, Vol. 2002-NL-152, No. 104, pp. 35-41, 2002. [13] 浅原正幸, 金山博, 宮尾祐介, 田中貴秋, 大村舞, 村脇有吾, 松本裕治. Universal dependencies 日本語コーパス. 自然言語処理, Vol. 26, No. 1, pp. 3-36, 2019. [14] 大村舞, 浅原正幸. 現代日本語書き言葉均衡コー パスの Universal Dependencies. 言語資源活用ワー クショップ発表論文集 = Proceedings of Language Resources Workshop, No. 2, pp. 133-143, 2017. [15] 浅原正幸, 大村舞. BCCWJ-DepParaPAS: 『現代日本語書き言葉均衡コーパス』係り受け・並列構造と述語項構造・共参照アノテーションの重ね合わせと可視化. 言語処理学会第 22 回年次大会, pp. 489-492, 2016. [16] Daniel Zeman, Martin Popel, Milan Straka, Jan Hajič, Joakim Nivre, Filip Ginter, Juhani Luotolahti, Sampo Pyysalo, Slav Petrov, Martin Potthast, Francis Tyers, Elena Badmaeva, Memduh Gokirmak, Anna Nedoluzhko, Silvie Cinková, Jan Hajič jr., Jaroslava Hlaváčová, Václava Kettnerová, Zdeňka Urešová, Jenna Kanerva, Stina Ojala, Anna Missilä, Christopher D. Manning, Sebastian Schuster, Siva Reddy, Dima Taji, Nizar Habash, Herman Leung, Marie-Catherine de Marneffe, Manuela Sanguinetti, Maria Simi, Hiroshi Kanayama, Valeria de Paiva, Kira Droganova, Héctor Martínez Alonso, Çağrı Çöltekin, Umut Sulubacak, Hans Uszkoreit, Vivien Macketanz, Aljoscha Burchardt, Kim Harris, Katrin Marheinecke, Georg Rehm, Tolga Kayadelen, Mohammed Attia, Ali Elkahky, Zhuoran Yu, Emily Pitler, Saran Lertpradit, Michael Mandl, Jesse Kirchner, Hector Fernandez Alcalde, Jana Strnadová, Esha Banerjee, Ruli Manurung, Antonio Stella, Atsuko Shimada, Sookyoung Kwak, Gustavo Mendonça, Tatiana Lando, Rattima Nitisaroj, and Josie Li. CoNLL 2017 shared task: Multilingual parsing from raw text to Universal Dependencies. In Proceedings of the CoNLL 2017 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, pp. 1-19, 2017. (a) 係り受けがループ (b) 根が複数 (c) 根を誤って予測 図 5: E2E 手法による改善例 ## A 係り受け改善例 Baseline 手法では係り受け解析に失敗するものの, E2E 手法では完全に正しく解析できた事例を図 5 に示す. 赤矢印が Baseline 手法で解析したときに誤って予測されたもの,緑矢印が E2E 手法により正解を予測できたものを表す.いずれの事例でも,格助詞の省略箇所前後の単語が関係する係り受けの誤りを修正できていることがわかる. 特に図 $5 \mathrm{a}$ ・図 $5 \mathrm{~b}$ はベースライン手法では木構造の制約を満たさない出力をしてしまった事例である.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B7-2.pdf
# 発話者の発話意図推定に影響を及ぼす 表情の絵文字の検出 廣瀬将也 ${ }^{1}$ 森辰則 1 1 横浜国立大学大学院環境情報学府 hirose-masaya-km@ynu.jp tmori@ynu.ac.jp ## 概要 絵文字は文字では伝えにくい意味や感情を表現することができるため, 感情表現の簡略化やコミュニケーションの充実のために広く採用されている。絵文字は近年研究においても注目されており,自然言語処理分野では主に感情分析に利用されている。本論文では, 絵文字を使った感情分析において, 既存手法を利用した感情推定結果に影響を及ぼすと考えられる皮肉や自嘲の (1) といったレトリカルな用法の絵文字を検出する方法を提案する。 ## 1 序論 SNS を始めとするオンラインコミュニケーションでは, 表情や仕草といった非言語情報が制限されるため, 情報の伝達に支障をきたす可能性がある.こうした状況の中で, 非言語的なコミュニケーション機能を有する絵文字が活用されている。 多様な表現ができる絵文字は, 感情推定においても重要な要素となりうる. Hussien ら [1] は, “Joy”, "Sadness", "Anger", "Disgust” の 4 種類の感情を表すラベル (感情ラベル) を絵文字に割り当て, 文と絵文字の感情は一貫しているという仮定の元, 割り当てた感情ラベルを絵文字を含む文の感情ラベルとみなして学習データに用いることで, 文の感情を推定している。また Felbo ら [2] は, 絵文字そのものを文のラベルとして文から絵文字への予測を行い, 絵文字予測に使ったモデルを転移学習させることで, 絵文字予測タスクから学習した言語表現が感情認識や皮肉検出タスクに有用であることを示した。 しかし,こうした研究の多くは, 絵文字の多様性についての考慮が十分ではない. 例えば () という絵文字は喜びの感情を表す文と伴に使われることが多いが,中には表 1 のように皮肉や自嘲の笑顔として利用される場合もある. 絵文字に割り当てた感情ラベルを,それを含む文のラベルとして利用する場合, 皮肉や自嘲の笑顔のようにレトリックとして使われる絵文字 (以下「レトリカル絵文字」と呼ぶ) は発話者の発話意図推定に影響を及ぼす可能性があり,こうした絵文字を認識して区別することは重要だと考えられる。本研究ではこのような発話者の発話意図推定に影響を及ぼす絵文字を自動的に検出するシステムを提案する。 ## 2 関連研究 近年, 絵文字を利用した感情分析手法が注目されているが,絵文字の多様性について考慮した研究は少ない. Felbo ら [2] は,コーパスの予備知識を必要としない絵文字予測を使った事前学習と転移学習によって, 感情推定や皮肉検出で成果をあげている. 事前学習の絵文字予測に関する考察では, 複数の絵文字を使うことで多様な表現を獲得でき,後続のタスクでより良い成果が出ると言及しているが,1 つの絵文字が持つ多様性については詳しく触れられていない. またChen ら [3] は1つの絵文字が正極性にも負極性にも使われることを考慮し (極性の説明は 3 章を参照),極性ごとに異なる埋め込みを得ることを期待して, 絵文字を埋め込む際, 正極性用と負極性用に 2 つの埋め込みを割り当てている. しかし, 絵文字に対する 2 つの埋め込みが極性の違いを捉えたものとは限らず, 評価実験における精度の向上は学習パラメータ数の増加によるものの可能性があるため, より詳細な分析が求められる. 本研究の提案手法は,絵文字が持つ多様性をより詳細に分析する際に活用することが期待できる. ## 3 絵文字の用法に関する分析 本章ではレトリカル絵文字の検出手法を検討するために, 絵文字の用法に関する分析について説明する。 ## 3.1 ツイートの収集とアノテーション Twitter のデータを対象として,ツイートにおける絵文字の用法を分析した. ツイートデータは Twitter API を利用して収集し, 2019 年 9 月から 11 月におけるツイートのうち (‥: $\cdot$ ののいずれかを含むものを合計 1000 件取得した. ツイートは複数の文で構成されているものが多く, 1ツイートに複数の絵文字を含む場合もあるため, 収集したツイートから絵文字に対応すると考えられる 1 文(以下ツイート文とする)を手動で抽出した。 絵文字が感情推定に及ぼす影響を調べるために, それぞれのツイート文について「言語情報のみから推定される書き手の感情」および「言語情報と絵文字の組み合わせから推定される書き手の感情」 の 2 通りのラベル付けを行った. このラベル付けは第一著者によって行われた. ラベルとして付与した感情は, 中村による感情表現辞典 [4] で利用されている 10 種類のラベル“喜” ・“好”・“安” . “哀” . “厭” . “怖” . “怒” ・ “恥” . “昂” . “驚”に 3 種類のラベル “ $\mathrm{N}($ ニュートラル)” ・ “願” . “他”を加えたものを利用した。最終的に絵文字 (1)を有する文 228 件, (1.: を有する文 240 件, ‘ を有する文 132 件について,各々に前述の 2 通りのラベルを付与したコーパスを作成した. ラベル付けの例を表 2 に示す. ## 3.2 分析結果 付与した感情ラベルの割合を絵文字ごとにまとめた結果を表 3, 4 に示す. $51.5 \%$ が怒の感情を表す文と伴に使われていることが分かり,それぞれの絵文字が現れる文の感情ラべルには偏りがあることがわかる。 次に, 付与した感情を正極性・負極性の 2 つの極表 3 言語情報のみから推定される書き手の感情と絵文字の関係 (割合) 表 4 言語情報と絵文字の組み合わせから推定される書き手の感情と絵文字の関係 (割合) 性に分割し,言語情報のみから推定される書き手の感情極性と絵文字の関係を調査した。付与した感情のうち, “喜” . “好”. “安”を正極性, “哀”・恥”・ “厭” ・怖” ・“怒” ・ “昂”を負極性とし, 極性の定義できない“N” . “願” . “驚” . “他” は対象から除いた。 このとき, 各極性の割合を (正極性, 負極性) とすると, (ㄹ) $(82.5 \%, 6.6 \%)$, は $(13.8 \%, 76.3 \%)$, : (3.8, $87.1 \%)$ となり, 絵文字が使われる文の極性で考えると,偏りがより顕著に現れることが分かる. ここで, ある絵文字が付与された文について, 言語表現のみから推定された書き手の感情が正極性であるか負極性であるかを集計した結果, 大多数を占める感情極性 (正極性もしくは負極性) をその絵文字が付与された文集合のマジョリティ極性とし,マイノリティの感情極性を文集合のマイノリティ極性とする. 以下では単にそれぞれ「絵文字のマジョリティ極性 (マイノリティ極性)」と呼ぶ. (ㄷ)の各極性の割合より, (ㄷ)のマジョリティ極性は正極性,(ㅇ)のマイノリティ極性は負極性となるが,表 3 と表 4 を比較すると, 絵文字が付与される前に感情ラベルが “N” だった文に (1)を付与した場合はそのラベルが “喜”に変化しているのに対して, () のマイノリティ極性である負極性に (1) が付与されても極性が変化していないことが分かる.負極性に (1) が付与される事例についてさらに分析を行ったところ, 負極性で利用される ①) は皮肉や自嘲のニュアンスを持つことが分かった。 ## 3.3 レトリカル絵文字検出のための仮説 上記の結果より, 皮肉や自嘲のニュアンスを持つ (10) は, 怒りや悲しみといった負極性を持つ文と伴に使われていることが分かった. そのため, 言語情報から怒り・悲しみといった負極性を予測できれば,皮肉・自嘲の()が検出できると考えられる。 また,は怒り:は悲しみを感情ラベルとして 持つ文とともに使われることが多く, 文と絵文字の感情ラベルが逆の極性を持つようなレトリカルな絵文字の利用があったとしても少数である。絵文字を感情ラベルの代替物とした場合,一般的な機械学習ではマジョリティの事例に偏る判断をする傾向にあるため, 絵文字が利用される文の感情に偏りがあれば, 言語情報から絵文字を予測する分類器は, 文に感情ラベルを付与する分類器と同等なものとして有効に機能することが期待できる. 以上のことから,次のような仮説が導かれる。 (1) が付与されている文について, 絵文字分類器がもひしはをを予測した場合, 文の感情ラベルは怒りや悲しみと対応している可能性が高く, 文に付与されている絵文字 ⑩ は皮肉や自嘲を表すレトリカルな用法である可能性が高い. 本論文ではこの仮説を元にレトリカル絵文字を検出する. ## 4 レトリカル絵文字の検出手法 本章では, 3.3 節で述べた仮説を元に, 絵文字分類器を利用したレトリカル絵文字の検出手法を説明する.なお, 本論文では )がレトリカルな用法で使われているものを検出対象として扱う。 まず, 5.1.1 項で説明する前処理によって, 絵文字を含む文を「絵文字を除いた文」と「文のラベルとなる絵文字 (1つ)」に分割する. 提案モデルはこの 2 つを入力として, 入力した絵文字がレトリカル絵文字であるかどうかを判定し, その結果を出力する. レトリカル絵文字の判定に利用する絵文字分類器は, 入力文に対する適切な絵文字を 2 つの絵文字から選択し, 選択した絵文字とその予測確率を出力する二値分類器で作成する. 二値分類としたのは, 絵文字予測タスクでは多值分類よりも二值分類の方が予測性能が高いという先行研究に基づいている [5]. 絵文字分類器の出力候補となる 2 つの絵文字の組 各組み合わせごとに分類器の学習を行う. ().(2)の組み合わせは, マジョリティ極性が類似した絵文字の組み合わせではレトリカルな絵文字を検出しづらくなるという予想を検証するために利用する。 次に, 学習済みの絵文字分類器に対して, 学習に利用していない ()を含む文から絵文字を除いた文を入力する. このとき, 入力文のラベルとして (ㄹ を保持しておく. 絵文字分類器が (1) 以外の絵文字を出力した場合, 入力文のラベルとしたをレトリカルな ()とみなす.この出力 (ㅇを陽性としたときの偽陰性) は分類器の間違いそのものである場合も考えられるが, 提案モデルではこれをレトリカル絵文字とみなす。このとき, 偽陰性である絵文字の予測確率を,入力文が () のマイノリティ極性をもつ文である確率と同等のものであると期待し,これを「レトリカル絵文字である確率」とする.以上の操作を経て,提案モデルは, 入力した絵文字がレトリカル絵文字であるかどうかの判定結果とその確率を出力する。 ## 5 評価実験 本章では, 提案モデルがレトリカル絵文字の検出に有効かどうかを検証するための実験を行う。 ## 5.1 実験設定 ## 5.1.1 データセット 本論文で利用する絵文字付きデータは, Search Tweets APIを利用して収集した. 学習・検証用のデー タセットとして, 4 章で示した 4つの絵文字についてそれぞれの絵文字を含むツイートを 110 万件ずつ取得した. ツイートは 2021 年 10 月 31 日から遡って取得したものを利用し, ハッシュタグ・リンク・メディアを持つツイート, リプライやリツイートであるツイートはクエリを利用して除外した。 次に,学習データの大きさによる検出率の変化を調べるために, 各絵文字ごとに訓練用に 100 万件ずつ・検証用に 10 万件ずつランダムサンプリングした LARGE サブセット (L) と, 各絵文字ごとに訓練用に 10 万件ずつ・検証用に 2 万件ずつランダムサンプリングした SMALL サブセット $(\mathrm{S})$ を作成した.こ 絵文字の組み合わせごとに統合することで, 各サブセットの総数は LARGE サブセットが訓練用に 200 万件・検証用に 20 万件, SMALL サブセットが訓練用に 20 万件・検証用に 4 万件となり, 最終的に 6 種類のサブセットを作成した. また, 評価用のデータセットとして, 2021 年 11 月 1 日から 2021 年 11 月 30 日における (ㄷ)を含むツイートを同様の条件で 100 万件取得した. 評価時にデータセットの重複を避けるため, ランダムに並び替えた評価用データセットを 5 万件ずつのサブセットに分割し, 分割したサブセットを各モデルごとの評価に利用する。 最後に, 絵文字がツイート毎に 1 つになるように 収集したツイートに対して次の前処理を行った。まずクエリとして利用した絵文字のうち末尾のものを除いた全ての絵文字を削除する。1つだけ残った絵文字を文のラベルとして保持しておき, 残った絵文字を EMOJI という特殊トークンに置き換える。 ## 5.1.2 実装モデル 絵文字分類器は, 埋め込み層, LSTM 層, 全結合層, ソフトマックス層から構成される DNN である.絵文字を除いた文と, 文のラベルとした絵文字を入力として, 入力した絵文字がレトリカル絵文字であるかどうかの判定とその確率を出力する.文は形態素解析器 MeCab[6] と, 単語分かち書き辞書 mecab-ipadic-NEologd[7] を用いて単語分割を行い, 埋め込み層へと入力する。埋め込み層の次元数は 300 , LSTM の隠れ層の次元数は 128 を利用した. ## 5.1.3 評価方法 5.1.1 項で作成した評価用データに対して,モデルを用いてレトリカル絵文字の判定を行い, 以下の式でレトリカル絵文字 (9) の検出率を評価する。 $ \text { 検出率 }=\frac{\text { 実際にレトリカル絵文字 ()であった事例数 }}{\text { モデルがレトリカル絵文字 ) と判定した事例数 }} $ 実際にレトリカル絵文字であるかどうかは人手で判定し, 学習データの異なるモデルごとにそれぞれ 300 件ずつ行った. このとき, () 全体におけるレトリカル絵文字の割合を調べるため, 評価用のサブセットからランダムに 300 件抽出したものについても同様に判定を行った. また, レトリカル絵文字の検出率とモデルの出力における「レトリカル絵文字である確率」の関係性を調べるため, 各モデルには評価用サブセット 5 万件を入力し,その出力を確率順に並び替え,上位 (top) と下位 (worst) からそれぞれ 100 件ずつ抽出したもの, それらを除いたものからランダム (random) に 100 件抽出したものを評価した。 ## 5.2 実験結果 6 種類のサブセットを利用して絵文字分類器の学習を行い, 5.1.3 項の方法によって評価を行った. 評価結果を表 5 に示す。 なお, 表 5 における all は, top・worst・random の合計 300 件におけるレトリカル絵文字の割合を表す. また, 評価用のサブセットからランダムに 300 件抽出したものにおけるレトリカル絵文字 (ㅇ) の割合は $3.3 \%$ あった 表 5 レトリカル絵文字の割合 ## 5.3 考察 まず,各モデルにおける all の値に注目すると,ランダムに抽出したにおけるレトリカル絵文字の割合 $(3.3 \%)$ と比較して, () $\cdot$ (6) $\cdot$ (1) の組み合わせではレトリカル絵文字の検出率が大きく上回っている.これに対して, () ・(2)の組み合わせでは, 3 章の分析で () が負極性で使われていた割合が $6.6 \%$ だったことも考慮すると,ランダムに()を取得した場合と殆ど変わらないといえる。この結果より, 極性の異なる絵文字の組み合わせを学習に利用することが重要であると考えられる。 また, どの絵文字の組み合わせも学習用のデータサイズを大きくすることで,レトリカル絵文字の検出率が向上していることが分かる. これは, 学習用のデータサイズを大きくすることで,それぞれの絵文字のマジョリティ極性に対する識別性能が向上し,結果としてマイノリティ極性を持つレトリカル絵文字の検出率が高まっているからだと考えられる。 いて,レトリカル絵文字の確率が top のものと worst のもので大きく差が生じており,提案モデルの予測確率は有効に機能していると考えられる。 ## 6 まとめ 本論文では, 絵文字を使った感情分析において, 既存手法の感情推定結果に影響を及ぼすと考えられる皮肉や自嘲の (1) といったレトリカルな絵文字を検出する方法を提案した. 提案手法では, 極性の異なる 2 種類の絵文字を学習データとして絵文字の二值分類器を作成し, 分類器の出力における偽陰性を用いてレトリカルな絵文字を検出する. 実験の結果, 提案手法がレトリカルな絵文字の検出に有効であることが示された. ## 参考文献 [1] Wegdan A Hussien, Yahya M Tashtoush, Mahmoud AlAyyoub, and Mohammed N Al-Kabi. Are emoticons good enough to train emotion classifiers of arabic tweets? In 2016 7th International Conference on Computer Science and Information Technology (CSIT), pp. 1-6, 2016. [2] Bjarke Felbo, Alan Mislove, Anders Søgaard, Iyad Rahwan, and Sune Lehmann. Using millions of emoji occurrences to learn any-domain representations for detecting sentiment, emotion and sarcasm. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1615-1625, 2017 [3] Yuxiao Chen, Jianbo Yuan, Quanzeng You, and Jiebo Luo. Twitter sentiment analysis via bi-sense emoji embedding and attention-based lstm. In Proceedings of the 26th ACM international conference on Multimedia, pp. 117-125, 2018. [4] 中村明. 感情表現辞典. 東京堂出版, 1993 . [5] Weicheng Ma, Ruibo Liu, Lili Wang, and Soroush Vosoughi. Multi-resolution annotations for emoji prediction. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6684-6694, 2020 . [6] Taku Kudo. Mecab: Yet another part-of-speech and morphological analyzer. http://mecab. sourceforge. jp, 2006. [7] 佐藤敏紀, 橋本泰一, 奥村学. 単語分かち書き辞書 mecab-ipadic-neologd の実装と情報検索における効果的な使用方法の検討. 言語処理学会第 23 回年次大会発表論文集, pp. 875-878, 2017.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B7-3.pdf
# 対訳辞書構築技術に基づく教師なしデータフュージョン 熊谷雄介 ${ }^{1}$ 野沢悠哉 ${ }^{2}$ 横井祥 3,4 道本龍 1 1 株式会社博報堂 DY ホールディングス 2 株式会社博報堂 DY メディアパートナーズ 3 東北大学 4 理研 AIP \{yusuke.kumagae, ryo.domoto\}@hakuhodo.co.jp yuya.nozawa@hakuhodody-media.co.jp yokoi@tohoku.ac.jp ## 概要 データフュージョンは復数のテーブルデータを擬似的につなぎ合わせる情報推薦分野のタスクで,現実的な教師なしの設定ではまだ解くことができていない. 本論文では,このタスクと自然言語処理分野の対訳辞書構築タスクが「空間を超えてべクトルの類似性が一貫する」という共通点を持つことに着目し, 対訳辞書構築技術による教師なしデータフュー ジョンをおこなう.複数の実データでの実験結果とあわせて報告する. ## 1 はじめに データフュージョン $[1,2]$ は複数のテーブルデー タを擬似的につなぎ合わせる技術で,情報推薦分野におけるデータ拡張のアプローチのひとつである. たとえば「商品購買履歴テーブル」と「Web サイト閲覧履歴テーブル」の各行(ユーザ)をおおよそでも対応づけられれば,店頭でホットサンドメーカー を買ったであろうユーザにソロキャンプ動画を推薦するといった,単一データからでは実現できないリッチな施策が可能になる. データフュージョンはこのようなマーケティング分野 [3] や,症状や治療法に関する疎なテーブル同士を統合して知見を得たい医療分野 $[4,5]$ において盛んに活用されている. データフュージョンのためのこれまでの手法は,二つのテーブルの間で一部の行(ユーザ)もしくは列(特徴量)が事前に対応付けられていることを仮定しており, 利用可能な情報に応じて様々な手法が提案されている(表 1 )。 しかし現実の問題においては,ユーザ(行)や特徵量(列)について事前には対応付けがわからない場合が多い. ユーザ(行)についてはプライバシー 保護や技術規制 [6] による利用難度の高まり, 特徴量(列)については新たな知見を得るという目的からしてそもそも二つのテーブルには共通する項目が存在しない,という理由が挙げられる ${ }^{11}$. 本論文では,二つのテーブルデータにおいてユー ザと変数のいずれもが共通して存在しない,より現実的な設定でのデータフュージョンを教師なしデー タフュージョンと呼び,これに取り組む(表 1)。 本論文では,データフュージョンの問題と教師なし対訳辞書構築 (bilingual lexicon induction) の問題が形式的に非常に近いことに着目し,その手法を応用する。対訳辞書構築は,複数言語間の単語の対応関係を推定する問題で,最近は教師なしの手法が盛んに開発されている $[10,11,12,13,14]$. 一見するとこの二つの問題は全く異なる分野の異なる問題に見えるが,表 2 に示すような対応関係が存在する. 詳細な比較は 3.1 章で行う. 本論文の貢献は (1) より現実的な設定のデータフュージョンである教師なしデータフュージョンを定式化し,はじめてこれに取り組んだ,(2) 教師なしデータフュージョンと教師なし対訳辞書構築が同じ形式をとることに着目し,Gromov-Wasserstein 距離に基づく対訳辞書構築技術を用いた手法を提案した,(3) 複数の実データを用いた実験により,ベースラインに対する優位性を示したの三つである. ## 2 問題設定 教師なしデータフュージョンは二つのテーブルデータ(ソースとターゲット)について,対応する行を教師なしで対応付けるタスクである2). 1)冒頭の例でも一方の列は商品,もう一方の列は Web サイトであり,クラスからして異なる。 2)テーブルとは例えば購買データやテレビの視聴行動データであり,各行がそれぞれのユーザの行動履歴(購買データではどの商品を購入したのか,視聴行動データでは誰がどの時間帯にテレビを視聴していたかなど)である. 表 1 ユーザ(行)および特徴量(列)が利用可能な時に採用できる手法の一覧. \\ ソース,ターゲットをそれぞれ $\mathbf{T}_{s} \in \mathbb{R}^{n \times m}, \mathbf{T}_{t} \in$ $\mathbb{R}^{n^{\prime} \times m^{\prime}}$ と表す. $n, n^{\prime}$ はソース,ターゲットに含まれるユーザ数であり, $m, m^{\prime}$ はソース,ターゲットの各ユーザの特徴量ベクトルの長さである. 正解の対応関係 $\mathbf{Y} \in\{0,1\}^{n \times n^{\prime}}$ は $y_{i, j}=1$ の時にはソースの $i$ 行目とターゲットの $j$ 行目が同一人物であり, $y_{i, j}=0$ の時には別人であることを意味する.教師なしデーアフュージョンの目的はソースとター ゲットの対応の推定であり,ソースの $i$ 行目とター ゲットの $j$ 行目が対応する度合い $\boldsymbol{\Pi}_{i, j}$ を要素に持つ行列 $\Pi \in \mathbb{R}^{n \times n^{\prime}}$ の推定である. ## 3 提案手法 本論文では,教師なしデータフュージョンの問題が教師なし対訳辞書構築の問題と形式的に似ていることに着目し,対訳辞書構築で用いられた Gromov-Wasserstein 距離 (GW) を活用して教師なしデータフュージョンを行う. ## 3.1 対訳辞書構築とデータフュージョン 本論文で取り組む教師なしデータフュージョンと対訳辞書構築との対応関係を表 2 に示す. まず入出力に関して,異なる空間に存在するべクトル同士を結びつける3)という同一の形式を取っている. またいずれの問題もべクトル同士の相対的な位置 関係は空間を超えて一貫すると仮定できる. 以下これについて詳しく述べる。まず対訳辞書構築のための多くの手法が「異言語にて,各言語の埋め込み空間内での単語の相対的な位置関係は類似している」 という仮定を利用している $[10,12]^{4)}$. 3) 例えば対訳辞書構築は英語の cat ベクトルと日本語の猫べクトルとを,データフュージョンはある人の購買ベクトルと別のある人の Web サイト閲覧ベクトルを結びつけるのが目的である. 4) Mikolov らは猫,牛,犬,馬,豚という五つの動物の単語埋め込みの相対的な位置関係が,英語(ゲルマン語派)とスペイン語(ロマンス諸語)において非常に類似することを示している [15].我々は教師なしデータフュージョンにおいてもこの仮定が自然に成り立つと考える。例えば購買デー タとテレビ番組視聴データにおいては,新しいものが好きなユーザはどちらのデータでも新しいアイテム(新商品や新番組)を好むだろう.その結果, どちらのデータにおいても同じ嗜好(新しいもの好き)のユーザと類似した行動を取り,反対に保守的なユーザとは類似しなくなるだろう。このようにして,ユーザの潜在的な興味の近さが複数のテーブルでのユーザベクトル(行)の近さとして観測されると自然に考えられる。 以上の考察から,「相対的位置関係一貫」仮説に基づく教師なし対訳辞書構築技術を教師なしデータフュージョンに活用すること提案する.とくに,(1)教師なしの状況で適用可能 (2) 学習が安定するの二点を満たす唯一の手法である Gromov-Wasserstein 距離ベースの手法 [11]を利用する. ただしここで,単語べクトルは密な埋め込みである一方,情報推薦で用いるユーザ・アイテム行列における行(ユーザベクトル)は疎であることに注意する.我々は,単語べクトルが疎な共起行列を分解した結果と解釈できることに注目し [16], 同様に疎なユーザ・アイテム行列を分解して対訳辞書構築技法を適用する5). ## 3.2 Gromov-Wasserstein 距離 本論文では Gromov-Wasserstein 距離 (GW) [17] にもとづく対訳辞書構築 [11]を応用する.GW は,二つのデータ $\mathbf{D}, \mathbf{D}^{\prime}$ に含まれる点を対応付ける技術であり,Dにおいて近い二点と $\mathbf{D}^{\prime}$ において近い二点とを強く,Dにおいて遠い二点と $\mathbf{D}^{\prime}$ において遠い二点とを弱く対応付ける.GW の計算の詳細は  Alvarez-Melis らの論文 [11]を参照されたし。 ## 3.3 提案法 提案法は次のステップで構成される。 ・ソース $\mathbf{T}_{s}$ およびターゲット $\mathbf{T}_{t}$ からそれぞれのユーザベクトル $\mathbf{V}_{s}, \mathbf{V}_{t}$ を求める ・ユーザベクトル $\mathbf{V}_{s}, \mathbf{V}_{t}$ からそれぞれの要素間距離行列 $\mathbf{C}_{s}, \mathbf{C}_{t}$ を得る $\cdot \mathbf{C}_{s}$ および $\mathbf{C}_{t}$ を用いて GW を求め, 輸送計画行列 Пを得,この要素 $\Pi_{i, j}$ をソースのユーザ $i$ がター ゲットのユーザ $j$ に対応する度合いとする $\mathbf{C}_{s}, \mathbf{C}_{t}$ はユーザベクトル $\mathbf{V}_{s}, \mathbf{V}_{t}$ それぞれの行間の距離を要素に持つ行列であり, 対訳辞書構築では行ベクトルの比較にコサイン距離を用いるのが一般的である.実際に採用した手法は 5.1 章で説明する. ## 4 関連研究 対訳辞書構築には大きく分けて真に対応関係にある単語ペアを用いる教師ありの手法と,それらを用いない教師なしの手法があるが,本論文では後者に言及する.教師なしの手法は大きく分けて敵対的生成ネットワーク (Generative Adversarial Network, GAN) [18] を用いる手法 $[10,19,12,20]$ と GANを用いない手法 $[11,21,22,23]$ がある. GAN の学習がハイパーパラメタに非常に敏感で不安定である [24]一方,行列積の繰り返しによって収束が保証されている [17] ことから, 本論文では GWによる手法 [11]を採用した。 ## 5 実験 提案法が実データでうまく働くかを確認するために,(1) 単一のデータを擬似的に分割したデータ対および (2) 異なる種類のデータ対それぞれに対する教師なしデータフュージョンを行う. ## 5.1 実験設定 データ実験には以下のデータを用いた. Movie はユーザが映画を 5 段階で評価したデータであり,各行がユーザ,各列が映画のテーブルデータである.これは情報推薦タスクの検証において最も用いられている MovieLens 1M [25] から作成した. POS はユーザごとの商品購入情報であり, 各行がユー ザ,各列が JANコード単位で区別された商品からなるテーブルデータである6) . TV はユーザごとのテ 6) POS には主要な商品の JAN コードのみが含まれている. レビ視聴情報であり,各行がユーザ,各列が「月,曜日,時間帯,放送局」7)における視聴状況からなるテーブルデータである. POS と TV は同一のユーザが両データに存在するシングルソースデータである8). 本実験では章冒頭で述べた通り (1) 単一のデータを擬似的に分割したデータ対と (2) 異なる種類のデータ対との二種類を準備した. 以下,前者の分割について説明する9). ■分割による擬似的なデータ対の作成:もともとひとつだったテーブルを分割して擬似的に教師なしの問題を作成する.具体的には,各テーブルの列(特徵量)をランダムで 2クラスにわけ,このクラスに応じて元のテーブルをソースとターゲットに分割する.以上の処理を Movie,POS,TV に実施した上で,二つのテーブルの間の行(ユーザ)の対応関係を忘れて教師なしのアラインメントに取り組む。 開発データとテストデータの作成:また,ハイパーパラメタ(次元数,距離関数,前処理など)決定のために,テーブルデータを行を基準にランダムに二分割し,一方は開発データ $(\mathrm{dev})$ として最も良いハイパーパラメタを探索するために用い,もう一方はテストデータ (test) として本論文で精度を報告する。データの詳細を表 3 に記す10. 評価指標教師なしデータフュージョンは $\{0,1\}$ のラベルを実数値で予測する二値分類問題であるので,二値分類問題の標準的な評価尺度である ROCAUC (Area Under the Receiver Operating Characteristic Curve) [26] を採用する.ソース側の各行に対する予測に対して ROC-AUC を計算し, その平均 (macro ROC-AUC) を報告する ${ }^{11)}$ ,ROC-AUC は $[0,1]$ の間の値をとり,P(正例のスコア>負例のスコア) と解釈できる. ハイパーパラメタ調整開発データを用いて決定した主なハイパーパラメタは以下である12). ユーザベクトルの構築は,Randomized SVD [27] (SVD) と Alternating Least Squares による Matrix Factorization [28] (ALS) とによって 10 次元に削減したベクトルの二種類をユーザベクトルとた. 要素内距 \lrcorner$ など 8) 株式会社インテージのインテージ i-SSP のうち,2019年 1 月 1 日から 2019 年 12 月 31 日までのデータ. 9)後者は POS とTVである. 10)開発データの件数も含めた詳細は Appendix に記載した。 11)異なる五種の乱数で初期化したユーザベクトルによる macro ROC-AUC の平均值と標準偏差を報告する。 12)その他は Appendix を参考されたし. } 表 3 実験に用いたデータの統計情報. 1 行目は(ソース ーターゲット)の組み合わせを,2行目と 3 行目はテー ブルサイズ(ユーザ数×特徴数)を表す。 表 4 擬似的なデータ対における macro ROC-AUC とその標準偏差. 値は大きいほど予測精度が高い.太字は各データの最大値. } & 埋込 & Movie & POS & TV \\ 表 5 異なるデータ対における macro ROC-AUC とその標準偏差. 值は大きいほど予測精度が高い。太字は各デー タの最大値. 離行列の構築ではユーザベクトル $\mathbf{v}_{i}, \mathbf{v}_{j}$ に対するコサイン距離 $1-\frac{\mathbf{v}_{i} \cdot \mathbf{v}_{j}}{\left.\|\mathbf{v}_{i}\right.\|_{2}\left.\|\mathbf{v}_{j}\right.\|_{2}}$ を用いた。 ベースライン教師なしデータフュージョンには既存研究や簡単に比較できる手法が存在しないため,いくつかの簡単なべースラインを用意した. random : ソースに対してランダムにターゲットを対応付けたものを予測結果とする. cos : 「特徵量空間の違いを無視し,ユーザベクトルのコサイン類似度が近いほど類似したユーザである」という仮定から,ユーザ $i, j$ の特徴量ベクトル $\mathbf{v}_{i}, \mathbf{v}_{j}$ のコサイン類似度 $\frac{\mathbf{v}_{i} \cdot \mathbf{v}_{j}}{\left.\|\mathbf{v}_{i}\right.\|_{2} \mid \mathbf{v}_{j} \|_{2}}$ を対応度合いとする. 特徵量空間の違いが無視するため,精度良く対応付けられないと考えられる。 ## 5.2 実験結果 ## 擬似的なデータ対に対するデータフュージョン単一データを分割した擬似データでの結果は表 4 の 通り。一切教師情報を与えない難しい問題にも関 わらず,提案法(GW)はチャンスレベル(random) を大きく凌駕した. これらの実験で用いたのは疑似 テーブル対であり,「行の類似性は空間を超えて一貫」仮説をおおよそ満たす状態であったため,同じ仮説に基づく対訳辞書構築手法の適用というアプローチがうまく動いたと考えらえれる。また,疎な行情報(raw)を使うよりも特にSVDを介した密べクトルを用いた方が性能が高い傾向が見られた. 単語ベクトルの学習は共起行列の SVD と等価であること [16] から,ここでも対訳辞書構築との共通点が分かる. ふたつのタスクの共通点や相違点のより厳密な分析は今後の課題である. TVでは, $\cos / \mathrm{SVD}$ という一見弱いベースラインが ROC-AUC で 1.0 を示している(全問正解)。この原因は,TV 行列をランダムで擬似分割したとしてもソースとターゲットのテーブルにほとんど「共通」の列(特徴量)が多数残ってたためと考えられ $る^{13)}$. 今後教師なしデータフュージョンのベンチマークを作成する際は,特徴量間の依存性を減らす工夫が必要だと考えられる。 異なるデータ対に対するデータフュージョン異なるデータに対するデータフュージョンの結果は表 5 の通り。一部チャンスレベルを超える結果は観測できるが,まだとても「解けた」とは言い難い状況である。今後の展望として,まず仮説「行の類似性は空間を超えて一貫」が現実の異種データでどの程度満たされているかについて,データ自体を定性的・定量的に観察したい。また,異種データの場合は対応付かない行 ${ }^{14)}$ の存在が想定される. 現状の最適輸送に基づく提案法も,ROC-AUC の平均という評価尺度も,すべての行に対応先があることを仮定しており,手法や評価尺度の改定も今後の重要な仕事であろう。 ## 6 結論 本論文では,共通する行および列を持たない二つのテーブルデータを対応付けるタスクである教師なしデータフュージョンを定式化した。そして教師なしデータフュージョンが教師なし対訳辞書構築が同じ形式をとることに着目し,Gromov-Wasserstein 距離にもとづく対訳辞書構築技術を用いた手法を提案した.複数の実データを用いた検証実験の結果,提案法がベースラインに対して優位性を持つことと, その課題を報告した. 今後はより多くの種類のテー ブルデータに対する検証を進めたい. $ を視聴」と「10:00 にテレビ局 $\mathrm{A}$ を視聴」のような列対など. 14)ターゲット側に似たユーザが存在しないようなユーザ } ## 参考文献 [1] Wagner A. Kamakura and Michel Wedel. Statistical data fusion for cross-tabulation. Journal of Marketing Research, Vol. 34, No. 4, pp. 485-498, 1997. [2] Elizabeth A. Stuart. Matching methods for causal inference: A review and a look forward, 2010. [3] Zvi Gilula, Robert E. Mcculloch, and Peter E. Rossi. A direct approach to data fusion. Journal of Marketing Research, Vol. 43, No. 1, pp. 73-83, oct 2006. [4] Paul R. Rosenbaum and Donald B. Rubin. Constructing a control group using multivariate matched sampling methods that incorporate the propensity score. American Statistician, Vol. 39, No. 1, pp. 33-38, 1985. [5] Noa Dagan, Noam Barda, Eldad Kepten, Oren Miron, Shay Perchik, Mark A. Katz, Miguel A. Hernán, Marc Lipsitch, Ben Reis, and Ran D. Balicer. BNT162b2 mRNA Covid-19 Vaccine in a Nationwide Mass Vaccination Setting. New England Journal of Medicine, Vol. 384, No. 15, pp. 1412-1423, 2021. [6] Webkit Org. Intelligent Tracking Prevention 2.3, 2021. [7] Samuel L. Smith, David H.P. Turban, Steven Hamblin, and Nils Y. Hammerla. Offline bilingual word vectors, orthogonal transformations and the inverted softmax, 2017. [8] Hidetoshi Shimodaira. Cross-validation of matching correlation analysis by resampling matching weights. Neural Networks, Vol. 75, pp. 126-140, 2016. [9] Marcello. D' Orazio, Marco. Di Zio, and Mauro. Scanu. Statistical Matching: Theory and Practice. Wiley, 2006. [10] Guillaume Lample, Alexis Conneau, Marc'Aurelio Ranzato, Ludovic Denoyer, and Hervé Jégou. Word translation without parallel data. In 6th International Conference on Learning Representations, ICLR 2018 - Conference Track Proceedings, feb 2018. [11] David Alvarez-Melis and Tommi S. Jaakkola. Gromov-wasserstein alignment of word embedding spaces. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, EMNLP 2018, pp. 1881-1890, 2020. [12] Meng Zhang, Yang Liu, Huanbo Luan, and Maosong Sun. Earth mover's distance minimization for unsupervised bilingual lexicon induction. In EMNLP 2017 - Conference on Empirical Methods in Natural Language Processing, Proceedings, pp. 1934-1945, 2017. [13] Mikel Artetxe, Gorka Labaka, and Eneko Agirre. A robust selflearning method for fully unsupervised cross-lingual mappings of word embeddings. In ACL 2018 - 56th Annual Meeting of the Association for Computational Linguistics, Proceedings of the Conference (Long Papers), Vol. 1, pp. 789-798, 2018. [14] Yedid Hoshen and Lior Wolf. Non-adversarial unsupervised word translation. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, EMNLP 2018, pp. 469-478, 2020. [15] Tomas Mikolov, Quoc V. Le, and Ilya Sutskever. Exploiting Similarities among Languages for Machine Translation. sep 2013. [16] Omer Levy and Yoav Goldberg. Neural word embedding as implicit matrix factorization. In Advances in Neural Information Processing Systems, Vol. 3, pp. 2177-2185, 2014. [17] Gabriel Peyre, Marco Cuturi, and Justin Solomon. Gromovwasserstein averaging of kernel and distance matrices. In 33rd International Conference on Machine Learning, ICML 2016, Vol. 6, pp. 3927-3935, 2016. [18] Ian J. Goodfellow, Jean Pouget-Abadie, Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair, Aaron Courville, and Yoshua Bengio. Generative adversarial nets. In Advances in Neural Information Processing Systems, Vol. 3, pp. 2672-2680, 2014. [19] Xilun Chen and Claire Cardie. Unsupervised multilingual word embeddings. In Proceedings of the 2018 Conference on Em- pirical Methods in Natural Language Processing, EMNLP 2018, pp. 261-270, 2020. [20] Zi Yi Dou, Zhi Hao Zhou, and Shujian Huang. Unsupervised bilingual lexicon induction via latent variable models. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, EMNLP 2018, pp. 621-626, 2020. [21] Edouard Grave, Armand Joulin, and Quentin Berthet. Unsupervised alignment of embeddings with Wasserstein Procrustes. In AISTATS 2019 - 22nd International Conference on Artificial Intelligence and Statistics, 2020. [22] Ruochen Xu, Yiming Yang, Naoki Otani, and Yuexin Wu. Unsupervised cross-lingual transfer of word embedding spaces. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, EMNLP 2018, pp. 2465-2474, 2020. [23] Tanmoy Mukherjee, Makoto Yamada, and Timothy Hospedales. Learning unsupervised word translations without adversaries. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, EMNLP 2018, pp. 627-632, 2020. [24] Tim Salimans, Ian Goodfellow, Wojciech Zaremba, Vicki Cheung, Alec Radford, and Xi Chen. Improved techniques for training GANs. In Advances in Neural Information Processing Systems, pp. 2234-2242, 2016. [25] F. Maxwell Harper and Joseph A. Konstan. The movielens datasets: History and context. ACM Transactions on Interactive Intelligent Systems, Vol. 5, No. 4, dec 2015. [26] Andrew P. Bradley. The use of the area under the ROC curve in the evaluation of machine learning algorithms. Pattern Recognition, Vol. 30, No. 7, pp. 1145-1159, 1997. [27] N. Halko, P. G. Martinsson, and J. A. Tropp. Finding structure with randomness: Probabilistic algorithms for constructing approximate matrix decompositions. SIAM Review, Vol. 53, No. 2, pp. 217-288, 2011. [28] Gábor Takács, István Pilászy, and Domonkos Tikk. Applications of the conjugate gradient method for implicit feedback collaborative filtering. In RecSys'11 - Proceedings of the 5th ACM Conference on Recommender Systems, pp. 297-300, 2011. 表 6 実験に用いたデータの統計情報. 1 行目は(ソース ブルサイズ(ユーザ数×特徴数)を表す. ## A 実験 ## ハイパーパラメタ調整 開発データを用いて以下のハイパーパラメタを決定した。 データの表現データは値が含まれる部分を 1 ,値が含まれない部分を 0 として二値化した. ユーザベクトルの構築 Randomized SVD [27] ${ }^{15)}$ (SVD) と Alternating Least Squares による Matrix Factorization [28] ${ }^{16)}(\mathrm{ALS})$ とによって 10 次元に 削減したベクトルの二種類をユーザベクトルとして用意した. ALS の正則化項は 0.01 を用いた. ユーザベクトルの後処理ユーザベクトルは $\mu_{s, j}$ を $\mathbf{V}_{s}[:, j]$ の平均, $\sigma_{s, j}$ を $\mathbf{V}_{s}[:, j]$ の標準偏差として標準化 $\mathbf{V}_{s}^{\prime}[:, j]=\frac{\mathbf{V}_{s}[:, j]-\mu_{s, j}}{\sigma_{s, j}}$ を行った $\left(\mathbf{V}_{t}\right.$ も同様に実施した). 要素内距離要素内距離行列の構築ではユーザベクトル間の距離に二人のユーザ $(i, j)$ のユーザベクトル $\mathbf{v}_{i}, \mathbf{v}_{j}$ に対するコサイン距離 $1-\frac{\mathbf{v}_{i} \cdot \mathbf{v}_{j}}{\left.\|\mathbf{v}_{i}\right.\|_{2}\left.\|\mathbf{v}_{j}\right.\|_{2}}$ を用いた。 GW の正則化項 Gromov-Wasserstein 距離の計算における正則化項 $\lambda$ は 0.001 を用いた. ## サンプルサイズ 開発データも含めたサンプルサイズの図を表 6 に記す。 15) https://scikit-learn.org/stable/modules/generated/ sklearn.decomposition.TruncatedSVD.html を用いた 16)https://github.com/benfred/implicitを用いた
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B7-4.pdf
# 材料の記述が不完全な料理レシピの分析 河野大悟土屋雅稔 豊橋技術科学大学大学院情報. 知能工学専攻 \{kohno, tsuchiya\}@is.cs.tut.ac.jp ## 概要 料理レシピは,料理に必要な材料リストと調理手順からなる手順文書であり,その文書が理解できているか否かを検討することが比較的容易であるため,文書理解のモデルドメインとして注目されている。本稿では,料理レシピを理解する前提として,対象となる料理レシピの記述が完全であるか否かを,材料リストと調理手順の対応関係に基づいて分析する方法について述べる。 ## 1 はじめに 料理レシピ(以下,レシピと言う)は,材料リス卜に記載された材料から料理を作成する調理手順を記述した典型的な手順文書であり,文書理解のモデルドメインとして注目されている $[1,2,3,4]$. しかし, 先行研究では,対象となるレシピが人間にとっても理解困難(かつ,計算機にとっても理解困難) である可能性については検討せず,全てのレシピを文書理解が可能である対象として一律に扱っている. 本稿では,レシピの文書理解を検討する前段階として,理解困難なレシピの識別方法を検討する。 レシピの基本的な要素は, 材料, 分量および手順の 3 点である. したがって,レシピの理解を困難にする要因も,この 3 点が主要な要因として考えられる. 第 1 の要因は,材料の不完全な記述である. 材料の不完全な記述とは,材料リストに含まれている材料が調理手順では言及されていなかったり,逆に調理手順で言及されている材料が材料リストに含まれていない,という状況である。例えば,図 1 では,材料リストに含まれている「めんつゆ」が調理手順では言及されていないため,「めんつゆ」をどのように利用すれば良いのか不明である。また,図 1 の調理手順の第 4 手順は「パスタ」に言及しているが,材料リストには「パスタ」が含まれていない.このような材料の不完全な記述が存在すると, レシピの理解が困難になる。 作り方 図 1 理解困難なレシピの例 第 2 の要因は,分量の不完全な記述である. 分量の不完全な記述とは,材料リストや調理手順において,具体的な分量が記述されていない状況である.例えば,図 1 では,ほとんどの材料の分量が「適量」 となっている。そのため,調理者(少なくとも,このレシピに習熟していない調理者)にとっては,具体的な量を想像することが困難である. 第 3 の要因は,動作の不完全な記述である. 動作の不完全な記述とは,必要な動作が記述されていなかったり,動作の様相についての説明が不足している状況である.例えば,図 1 の調理手順の第 2 手順は,「炒める」という動作の終了条件として「いい感じのところ」という曖昧な表現を用いており,どの程度まで炒めたら良いか理解困難である。 これら 3 つの要因の内,分量および動作の不完全な記述については,調理者の知識や熟練度によって,必要な記述が大きく異なる.先に指摘した「適 量」「いい感じのところ」という表現も, 図 1 のレシピに習熟している調理者にとっては,容易に理解できる表現と予想される. そのため本研究では,材料の記述が不完全なレシピに限定して検討する. ただし,材料の記述が完全なレシピが満たすべき条件もまた自明ではないため,専門家によって監修されたレシピを参照して, 材料の記述が完全なレシピが満たすべき基準について最初に検討する。次に,ユー ザ投稿型レシピ共有サイトのデータセットを用いて,材料の記述が不完全なレシピの存在割合について予備分析した結果を報告する。 ## 2 材料の分類 この節では,専門家や第 3 者によって監修されていないユーザ投稿型レシピの材料リストに基づいて,材料の記述完全性基準が,どのような材料をカバーする必要があるかを検討する.クックパッドデータセット $[5,6]$ は, ユーザ投稿型レシピ共有サイト ${ }^{1)}$ に投稿された大量のレシピからなるデータセットである.このサイトは,レシピ作成者が投稿したレシピがそのまま共有されるサイトであり,専門家や第 3 者による監修は行われていない。また, レシピの書き方についてのガイドライン(図2)が提供されているものの,材料リストに記載するべき材料としては「食材や調味料」と簡単に指定されているのみである. そのため,本研究ではまず,クックパッドデータセットに含まれるレシピの材料リストを観察して,材料を分類することを試みた.分類結果を図 3 に示す.この分類は,材料リストに記載するべきか否かの判断がレシピ作成者によって異なるかどうかを重視している。まず,調理手順で利用する器具については, 繰り返し利用できるフライパンやボウルなどの器具と, 1 回しか利用できない竹串やクッキングシートなどの器具について,大きな差が観察されたため, 「備品」という分類と「消耗品」という分類を設ける. 消耗品を材料リストに含めているレシピ 4. 材料 $\cdot$ 分量レシピの味が再現できるよう、材料 (食材や調味料)とその分量を書いてください。 ※分量を記載しにくい材料は「少々」や「適量」などで問題はありません。 5. 作り方お料理初心者の方でもわかるよう、下ごしらえの方法や調理手順を書いてください。 図 2 ユーザ投稿型レシピの書き方のガイドライン  は多いが,それに対して,備品を含めているレシピは少ない,次に,食材については,実際に摂取する食材と,実際には摄取しない食材について,大きな差が観察された。例えば,生地として使う小麦粉については,ほとんどのレシピで材料リストに含まれているのに対して,打粉として使う場合は,材料リストに含まれていないレシピも多い.そのため,実際に摂取する食材という定義の「具材」という分類と,調理手順において器具的に利用するが,実際には摂取しない食品という定義の「副材料」という分類を設ける.最後に,「水分」は,後述する分析において必要となった特殊な分類である。 ## 3 材料の記載状況 この節では,専門家によって監修されたレシピを用いて, 図 3 の分類別に記載状況を調査し,材料の記述完全性基準について検討する。 本研究では,専門家によって監修されたレシピとして,日本放送協会によって制作された「料理レシピ」ウェブサイト2)から収集したレシピ(以下, NHKレシピと言う)を参照する。 NHKレシピは, テレビ番組として料理と調理手順を紹介するために用意されたレシピである. NHKレシピの作成者は,料理の専門家であり,かつ,NHKレシピの記述内容は,番組制作関係者による監修を受けている。したがって, NHKレシピは, ユーザ投稿型レシピとは異なり,極めて高度に品質が統制されたレシピであると考えられる. そこで本研究では,NHKレシピに対する監修基準を,材料の記述が完全なレシピが満たすべき基準であると仮定する。 2021 年 1 月 30 日に収集した NHK レシピデータセットの諸元を,表 1 に示す. 収集時点の NHK レシピデータセットは,「きょうの料理」「ごごナマ」 などの 11 種類のテレビ番組で紹介された 2320 件のレシピからなる. 最初に, NHKレシピデータセットからランダム 表 1 NHKレシピデータセットの諸元  図 3 クックパッドレシピデータに含まれるレシピの材料リストに出現する材料の分類 図 4 材料リストと調理手順の対応付与作業 サンプリングした 500 件のレシピを対象として,人手で,調理手順と材料リストの対応関係を付与する作業を行った (図 4). 作業結果から,3つのことが分かる。第 1 に,材料リストに含まれる材料は,必ず調理手順で言及されている。したがって,材料リストに含まれる材料が調理手順では言及されていないというような不完全な記述(図1の「めんつゆ」) は,NHK レシピにおいては許容されていない. 第 2 に,調理手順において材料リストに含まれていない材料に言及する場合は,以下の例のように「分量外」「お好みで」などの明示的な指示が存在する. ①.5 2 倍ほどに膨らんだらふたをあけて打ち 粉(強力粉/分量外)をふるう3)。 第 3 に,図 4 のレシピでは,材料リストには「豚こま」と記載されている材料が,調理手順では「肉」 として参照されていたり,材料リストには「ブロッコリー」「たまねぎ」「にんじん」「ほうれんそう」と記載されている材料が,調理手順では「野菜」として参照されており,単純な文字列一致では,調理手順と材料リストの対応関係を解決できない. 図 3 の各分類に属する典型的な材料を対象として,NHK レシピデータセットにおける記載状況を調査した結果を,表 2 に示す.「フライパン」は備 3) https://www.nhk.or.jp/lifestyle/recipe/detail/500360. html から引用品に属する材料であるが,NHKレシピデータセットの調理手順では 930 件のレシピに出現する. しかし,その 930 件のレシピの材料リストには,「フライパン」は 1 回も出現しない. 備品に属する「鍋」,消耗品に属する「ラップ」「竹串」についても同様に,調理手順中に出現するレシピであっても,材料リストには 1 回も出現しない。したがって,NHKレシピにおいては,備品であるか消耗品であるかに関わらず,器具は材料リストに常に記載しないという基準が採用されていると考えられる。 具材に属する「トマト」「豚肉」については,表 2 の記載状況から明らかに,必ず材料リストに記載されている。副材料である可能性がある材料については,個別に検討を要する。「昆布」は,そのものを具材として摂取する料理と,出汁を取るために利用して,その後は捨ててしまう副材料として利用する料理が存在する.そのため,単純に「昆布」が文字列として出現している頻度を数えると,表 2 に示す通り,その小分類は不明である。「昆布」が調理手順に出現しているレシピを人手チェックしたところ,具材として利用しているレシピは 25 件,副材料として利用しているレシピは 22 件あり,どちらの小分類に属する場合も全て材料リストにも記載されていた.「片栗粉」「小麦粉」についても同様に,副材料として利用しているレシピが存在しており,かつ,調理手順中で言及されている場合は材料リストにも記載されていること(ただし,「分量外」と明記されている場合を除く)が確認された.以上の議論から,NHKレシピにおいては,具材であるか副材料であるかに関わらず,食材は材料リストに常に記載するという基準が採用されていると考えられる。 水分に属する材料の記載状況は, 器具または食材に属する材料の記載状況と大きく異なる. 調理手順中で「水」に言及している場合であっても,材料リストに「水」が記載されている場合と,記載されていない場合がある。調理手順で「水」に言及しており,かつ,材料リストには「水」が含まれてい & & \\ 表 2 NHKレシピにおける材料の記載状況 ないレシピを 100 件ランダムサンプリングして人手チェックしたところ,具材として利用している 「水」は 42 件,副材料として利用している「水」は 62 件あった. したがって,NHKレシピにおいては,水分に属する材料の記載基準がないと考えられる。 以上の考察と調査から,図 3 の分類に基づいて,材料の記述完全性の基準を以下のように定義する。 1. 調理手順では,材料リストに含まれている全ての材料に言及する。 2. 材料リストには,調理手順中で使用する全ての食材を記載する.ただし,「分量外」と明記されている場合を除く。 3. 器具は,材料リストに記載しない. 4. 水分は,材料リストに記載しても,記載しなくても良い。 ## 4 予備分析 クックパッドデータセットからランダムサンプリングした 500 件のレシピを対象として,人手で,調理手順と材料リストの対応関係を付与する作業を行った結果を, 表 3 に示す. 調理手順で言及されている食材が材料リストに含まれていない記述不完全は,82 件 $(16 \%)$ のレシピにおいて,103 回発生していた,具材に属する「塩」「砂糖」「バター」,副材料に属する「油」「サラダ油」などの記述が不完全である例が多かった. 材料リストに含まれている食材が調理手順で言及されていない記述不完全は,44 件 (9\%)のレシピにおいて,57 回発生していた. 具材に属する「塩」「酒」「砂糖」,副材料に属する「サラ油」,水分に属する「水」などの記述が不完全である例が多かった。 表 3 食材の記述不完全の発生頻度 ## 5 結論 本研究では,材料の不完全な記述により,理解が困難となっているレシピについて分析した.専門家や第 3 者によって監修されていないユーザ投稿型レシピの材料リストに基づいて,材料の記述完全性基準が考慮する必要がある材料の分類を検討した上で,専門家によって監修されたレシピにおける記載状況に基づいて,材料の記述完全性基準を定義した.この基準を用いて,ユーザ投稿型レシピの記載状況を検討し,16\%のレシピでは材料リストにおける食材の記述不完全が,9\%のレシピでは調理手順における食材の記述不完全が,それぞれ発生していることを明らかにした。 今後の課題としては,以下の 2 つを検討している. 第 1 に,本研究における材料の記述完全性基準は,材料に対する言及の有無を単純に基準としており,材料(特に副材料)について,記述が不完全であっても調理手順が推定できる場合を考慮していない. そのため,本研究の材料の記述完全性基準と,調理者の理解度の関係を明らかにする必要がある。第 2 に,材料の記述完全性基準の不備を自動的にチェックする手法を開発し,ユーザ投稿型レシピ全体における材料の記述不完全の発生率を明らかにすることを計画している。 ## 謝辞 本研究では, 国立情報学研究所の IDR データセッ ト提供サービスによりクックパッド株式会社から提供を受けたクックパッドデータセットを利用した. ## 参考文献 [1] Yoshio Momouchi. Control structures for actions in procedural texts and PT-chart. In COLING 1980 Volume 1: The 8th International Conference on Computational Linguistics, 1980. [2] Reiko Hamada, Ichiro Ide, Shuichi Sakai, and Hidehiko Tanaka. Structural analysis of cooking preparation steps in japanese. In Proceedings of the Fifth International Workshop on on Information Retrieval with Asian Languages (IRAL), pp. 157-164, 2000. [3] Shinsuke Mori, Hirokuni Maeta, Yoko Yamakata, and Tetsuro Sasada. Flow graph corpus from recipe texts. In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC'14), pp. 23702377. European Language Resources Association (ELRA), 2014. [4] 前田浩邦, 山肩洋子, 森信介. 手順文書からの意味構造抽出. 人工知能学会論文誌, Vol. 32, No. 1, pp. 1-8, 2017. [5] クックパッド株式会社. クックパッドデータ. 国立情報学研究所情報学研究データリポジトリ http://doi.org/10.32130/idr.5.1, 2015. [6] Jun Harashima, Michiaki Ariga, Kenta Murata, and Masayuki Ioki. A large-scale recipe and meal data collection as infrastructure for food research. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC 2016), pp. 2455-2459. European Language Resources Association (ELRA), 2016.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B8-1.pdf
# SNS の投稿内容に基づく生活習慣病発症リスクの分析 田㴊 尚道 松本和幸吉田稔 西村良太 北研二 徳島大学大学院創成科学研究科 c612135001@tokushima-u.ac.jp, \{matumoto, mino, kita, nishimura\}@is.tokushima-u.ac.jp ## 概要 国内における死亡原因は,がん・循環器疾患・糖尿病などで全体の約 6 割を占めている.これらの病気はいずれも食事・運動・睡眠などの生活習慣と深い関りがあり, 生活習慣病と呼ばれている. 生活習慣病には自覚症状がほとんどないため, 病気の悪化に気づきにくいという特徴がある。本研究では,より簡易的に生活習慣病を予防するシステムの構築を目指し,ソーシャル・ネットワーキング・サービス (SNS)を用いて, ユーザの投稿内容から食事・運動・体調・精神状態に関するツイートの分析を行った.調查の結果, 本研究の成果がユーザの投稿内容から生活習慣病発症の危険因子を検出するシステムの構築につながることが分かった。 ## 1 はじめに 生活習慣病は国内における,死亡者数の約 6 割を占めている[1]. 生活習慣病の予防は私たちの健康を守るために非常に重要であるが,生活習慣病の早期発見は難しい。生活習慣病にはほとんど自覚症状がなく, 気づいた時には病気が悪化しているケースが少なくない。本研究では, 定期的に生活習慣を見直すきっかけを与えるシステムが必要であると考え,多くの人が自身の日常生活について投稿している SNS に注目する。本論文では, 年々ユーザが増加傾向にある Twitter[2]を対象とし,ユーザの投稿内容から食事,運動,体調,精神状態に関するツイートの分析を行い, ユーザの特徴, ユーザ間の共通点の分析手法について述べる. これらの分析結果から, ユ一ザの投稿内容から生活習慣病発症の危険因子を検出するシステムの構築について考察する. ## 2 関連研究 高橋ら[3]は,ユーザの生活パターンと介入が受け入れられる可能性を考慮して環境のモデルを推定し,後ろ向き帰納法アルゴリズムで目標から逆算して最適な方策を得る方法を構築している. 彼らの研究では,ユーザの生活パターンへの介入をユーザ自身が記録したカレンダーアプリの生活記録データを分析することで行う.そのため, 介入を受けるためには, ユーザが毎日の生活を記録する必要がある。また,彼らのシステムは,ある程度生活習慣の改善が必要であることを自覚しているユーザには有効であるが, ユーザへの負担が大きいため, ユーザ数は限られる.本研究では,生活習慣を改善する必要性に気づいていないユーザを対象として生活習慣改善のきっかけを与えるシステムを目指している点で異なる。 Gael Pérez Rodríguezt ら[4]は, Twitterの糖尿病コミュニティの患者や近親者の健康状態を理解するために,糖尿病患者の投稿内容に焦点を当てた分析を行っている. Twitter の投稿内容からユーザの健康状態の分析を行う点では, 本研究は彼らの研究と類似している。彼らは糖尿病に罹っているユーザのみを分析対象としているが,本研究は分析対象とするユ ーザを限定しない点で異なる。 ## 3 提案手法 提案手法は, まず,半年間で健康状態(体調・精神状態)と生活習慣(食事・運動)のそれぞれ 1 項目以上を含むツイートを定期的に行っているユーザを選定し,半年分のツイートを収集する。これらの情報の収集には Twitter API [5]を使用する。 収集したツイートに対して,自動および手動でラベル付けを行う.自動ラベル付けではラベル別にキ ーワードを設定し,キーワードが含まれるツイートに対してラベルを自動付与する。手動ラベル付けでは,自動ラベル付けでラベルが付与されなかったツイートを対象に,各ユーザからランダムでツイートを抽出し,手動ラベル付け用のデータを作成し,手作業によるラベル付けを行う.モデル作成のためにラベル付けしたデータのテキストに対して, BERT (Bidirectional Encoder Representations from Transformers)[6]を用いてツイート単位でテキストをベクトル化した。これを用いてマルチラベル分類モデルの作成と評価を行った。最後に,作成したモデルを用いて,収集した全データにラベルを付与し, データ分析を行う。 ## 3. 1 Twitter API Twitter API を利用することで,公式サイトを介さずに, ツイートやタイムラインなどのデータを取得することができる. キーワードや期間を指定してツイートを収集することが可能であり,分析に必要なツイートを効率的に収集することができるため, 本研究では Twitter APIを用いてデータ収集を行う. ## 3.2 ラベル付きデータ作成 ラベルの種類はその他(0), 運動(1), 食事(2),体調(3), 精神状態(4)の 5 種類とした. 自動ラベル付けでは, 表 1 に示すように各ラベルのキーワードを設定する. キーワードが含まれたツイートには各キーワードに対応するラベルを付与した。その他 $(0)$ と精神状態(4)のツイートはキーワードの設定が困難であるため, 自動ラベル付けは行わない. 手作業によるラベル付けでは自動ラベル付けでラベルが付与されなかったツイートを対象に, 各ユー ザからランダムで一定数のツイートを抽出し, 得られたデータを手作業ラベル付け用のデータとする. ラベル付与の偏りを抑えるために, 同じデー夕に対して 4 人の作業者が付与を行い, 最終的なラベルは多数決で決定する. 多数決で決定できない場合は,複数のクラスに属するツイートとして扱う。 表 1 ラベルの種類とキーワード \\ ## 3.3 テキストのベクトル化 東北大学乾研究室が公開している BERTの事前学習済みのモデル[7]を用いて, ツイートの分散表現ベクトルを取得する.このモデルは日本語の Wikipedia 記事を対象に事前学習したものであり, 得られる分散表現ベクトルの次元数は 768 次元である. ## 3.4 モデル作成と評価 モデルの作成は BERT モデルをサポートしている Simple Transformers[8]用いた. Simple Transformers は Transformer モデルが,シンプルな実装で使えるライブラリである. 今回のモデルの構造は BERT の出力次元がラベルの種類数である 5 になるように最終層だけ全結合層に取り換えたものである。また,モデルの評価には 5 分割交差検証法を用いる. ## 3.5 データ分析 データ分析では,まずデータ分析の対象ユーザを抽出した. ラベル $(0)$ のツイートは特徴を把握することが難しいため分析対象外とする。データ分析の対象ユーザを 1 日当たり 10 件以上のツイート, 且つ, その 10 件以上のツイート内に複数のラベルがあるユーザとした.これは 1 日当たりのラベル出現割合のパターンでユーザを比較するためである. 分析対象のユーザを抽出後, ユーザごとに 1 日当たりのラベルの出現割合を出し, K-Means 法[9]により出現割合のパターンで適当なクラス数にユーザを分類し, 各クラス内の単語の出現傾向を調べる. 分類したクラス内の単語傾向を調べる手法はトピックモデルを用いる. トピックモデルの学習は LDA(Latent Dirichlet Allocation)[10]により行う. ## 4 結果と考察 ## 4. 1 データ収集 Twitter API を用いて 3節で述べた条件に当てはまるユーザの選定を行う。まず,食事・運動のキーワ ードを設定し, 食事・運動関連のツイートをしているユーザを特定し,過去に体調・精神状態に関するツイートを投稿したユーザの特定を行う.表 2 が収集時のキーワードの例である. 最後に,特定したユ一ザの中で bot の可能性があるユーザ,鍵付きアカウントのユーザ,半年以内に作られたユーザを除外することで,収集対象のユーザを決定する。 ユーザを選定した後,各ユーザの半年間分のツイートを収集したところ, ユーザ数は 5297 名となり, 収集できたツイート数は約 276 万件となった。 表 2 ツイート収集時のキーワード \\ ## 4. 2 ラベル付きデータ ラベル付きデータの作成は,自動ラベル付けと手動ラベル付けで行った. 自動ラベル付けでは運動,食事,体調の 3 つの項目に対してキーワードを設定し,キーワードを含むツイートには自動でラベル付けを行った。手動ラベル付けでは自動ラベル付けでラベルが付与されなかったツイートを対象に,各ユ一ザから 2 件のツイートを抽出し,得られた 10,594 件のツイートを手作業ラベル付け用のデータとした。 ラベル付与の偏りを抑えるために,同じデータに対して 4 人でラベル付けを行い,最終的なラベルは多数決で決めた。ラベル割合が 1:1 に分かれる場合は重複して学習させ,1:1:1:1に分かれる場合は除外した. ラベル付けの結果は表 3 のようになった. 表 3 ラベル付け結果 ## 4. 3 モデル作成と評価 モデルに学習させるラベル付きデータは自動ラベル付けデータを各項目ランダムに 700 件抽出したデ ータと手動ラベルデータで構成されている(表 4). モデルの作成では Simple Transformers を用いてマルチクラス分類モデルの作成をした. モデルの評価は Python の機械学習用ライブラリである scikit-learn [11]を用いた交差検証法で行った.今回は 5 分割の交差検証を行った。また, 学習データのクラスに偏りがあるため,学習の際にアンダーサンプリング,オーバーサンプリングの処理を加えた。アンダーサンプリング処理を加えたモデルの分類精度は $77 \%$ ,オーバーサンプリング処理を加えたモデルは分類精度が $87 \%$ となった。今回,分類精度が高かったオーバーサンプリング処理を加えたモデルを分析に用いることにした。 表 4 学習データの内訳 ## 4. 4 分析結果 データ分析の対象ユーザを 1 日当たり 10 件以上の ツイート,かつ,その 10 件以上のツイート内に(0) ラベルを除く複数のラベルがあるユーザとする。その結果,対象ユーザは 64 名となった. 各ユーザに対して,1 日当たりの各ラベルの出現割合を求める.各ラベルの出現割合は以下の式(1)で算出した. $ \begin{aligned} & R_{i}=100 \times \frac{L_{i}}{L_{s}} \\ & R_{i}: \text { ラベル } \mathrm{i} の \text { 出現割合 } \\ & L_{i}: \text { ラベル } \mathrm{i} の \text { 出現回数 } \\ & L_{s}: \text { 全ラベルの出現回数の合計 } \end{aligned} $ ユーザのクラス分類では K-Means 法を用いて,ラベルの出現割合のパターンでユーザを 5 つのクラスに分類した。クラス名はクラス内での出現割合の高いラベルから参照し, A:[運動・食事],B:[食事・精神状態], C:[食事], D:[体調], $\mathrm{E}$ : [精神状態]とした. 各クラスに対し, トピック数を 30 とし, 名詞, 形容詞のみを対象にトピックモデル (LDA) と pyLDAvis[12]を用いてトピック内の単語傾向やトピック間の共通点を調査した. pyLDAvis の散布図において,円の中心に配置されている数字は各トピックの番号を表し,円の大きさは,分析対象としている単語が各トピックにどの程度含まれているかを表す。 また,円の中心間の距離はトピック間の距離を表している。棒グラフは各トピック内の出現頻度の高い上位 30 語と各単語の出現数を示す. 図 1 はクラス B の「眠い」の出現分布を表している。図 2 は図 1 のトピック 26 内の上位単語を表している. 棒グラフの赤色部はトピック 26 内での各単語の単語数を示し,青色部は全体の単語数を示している。また,各クラス内の上位頻出単語 5 語を表 5 にまとめた。 図 1 pyLDAvisによるトピックモデルの可視化 図 2 pyLDAvisによる単語の出現頻度の可視化 表 5 各クラス内の上位頻出単語 \\ ## 4. 5 考察 pyLDAvis によるトピックモデルの可視化結果に基づき,クラスごとに考察を行う.クラス A では,「ダイエット」が全トピック,「糖質制限」が 16 トピック,「良い」が 26 トピックに分布していた. ダイエット目的でのトレーニングや食事制限関連の単語が多く, 健康意識が高いユーザが多いと考えられる。クラス B では, 図 1 , 図 2 から分かるように 「眠い」が 14 トピック,その他には「怖い」が 9 トピック, 「愚痴」が 10 トピックに分布していた. クラス B は A, C, E と比べ,ネガティブな単語の分布が広いことから生活習慣に何らかの問題を抱えているユーザが多いと考えられる。クラス Cでは上位頻出単語以外に「アップ」が 12 トピック,「良い」 が 26 トピック,「楽しい」が 18 トピックに分布していた. ポジティブな単語の分布が多く, 食事を中心とした健康意識の高いユーザが多いと考えられる。 クラス Dでは「下剂」「悪い」が 29 トピック,「痛い」が 28 トピックに分布していた. その他にも「無理」「腹痛」などのネガティブな単語が広く分布し,他のクラスと比較し, 顕著にネガティブな単語が広く分布していた。さらに「お菓子」「アイス」「ラ一メン」といった食生活に悪影響を及ぼす可能性のある単語も確認できた。これらを考慮すると, クラス D内のユーザは食生活の乱れから体調不良を起こしている可能性があり, 生活習慣病のリスクが最も高いユーザが多く含まれると考えられる。クラス E では,「嬉しい」が 23 トピック,「最高」が 20 卜ピックに分布し, ポジティブな単語が広く分布している一方で,「嫌」が 15 トピック,「怖い」が 10 トピック,その他にも「メンタル」「我慢」「必死」 といったネガティブな単語も広く分布していた。また,他のクラスには無かった「仕事」が 17 トピックに分布している点も特徵的であった.以上を考慮すると,仕事などのストレスによって今後生活習慣病を発症する可能性のあるユーザが多いと考えられる。 これらの考察から5つのクラスを生活習慣病発症少スクの観点から比較すると、 $[\mathrm{A} \cdot \mathrm{C}]<[\mathrm{E}]<[\mathrm{B}]<[\mathrm{D}]$ の順で生活習慣病発症リスクは高くなるのではないかと考えられる。 ## 5 おわりに 本研究では,Twitterを対象として,ユーザの投稿内容から食事,運動,体調,精神状態に関するツィ一トの分析を行い, ユーザの特徴やユーザ間の共通点の調查を行った。 その結果,ユーザをトピックモデルによって適当なクラスに分類することで,クラスごとのユーザの特徴を把握することが可能であることが分かった. また, 生活習慣病発症のリスクという観点から結果を考察することによって,各クラスの生活習慣病リスクの比較を行うことが可能であった。この結果は生活習慣病発症の危険因子を検出するシステムの構築へつながると考えられる。 今後の課題として, ツイート収集時やラベル付与時のキーワードの見直しと分類モデルの精度向上を行う。また,体調の変化を表す語とネガティブやポジティブワードの共起頻度や生活習慣病を発症するリスク表現をあらかじめ決定しておき,そのような表現がユーザごとにどのように表れているのかについての調査を行う。 ## 謝辞 本研究は公益財団法人 JKA 令和 3 年度複数年研究補助事業により実施されました. 深く謝意を表します. ## 参考文献 [1] 生活習慣病を知万う!(引用日:202 年 12 月 24 日) https://www.smartlife.mhlw.go.jp/event/disease/ [2]【2021 年 12 月版】人気ソーシャルメディアのユー ザ数まとめ (引用日:2021 年 12 月 24 日)https://www.comnico.jp/we-love-social/sns-users [3] 高橋公海, 辛島匡宏, 倉島健, 戸田浩之: 強化学習を用いた健康行動促進における介入戦略の学習,第 12 回データ工学と情報マネジメントに関するフォー ラム, 2020 年 3 月 2 日, I2-3, day1 p59 [4] Mining the sociome for Health Informatics: Analysis of therapeutic lifestyle adherence of diabetic patients in Twitter, Gael Pérez Rodríguez, Martín Pérez Pérez, Florentino Fdez-Riverola, Anália Maria Garcia Lourenço, Future Generation Computer Systems, Volume110, September 2020, Pages214-232 [5] Twitter API https://developer.twitter.com/en/docs/twitter-api [6] BERT: Pre-training of Deep Bidirectional Transformers for Language, Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Vol.1, pp.4171-4186, 2019. [7] BERT 日本語学習済みモデル東北大学乾・鈴木研究室 https://github.com/cl-tohoku/bert-japanese [8] Simple Transformers: https://simpletransformers.ai/ [9] sklearn.cluster.KMeans: https://scikit-learn.org/stable/modules/generated/sklearn.c luster.KMeans.html [10] models.ldamodel-Latent Dirichlet Allocation-gensim: https://radimrehurek.com/gensim/models/ldamodel.html [11] scikit-learn: https://scikit-learn.org/stable/ [12] pyLDAvis: https://github.com/bmabey/pyLDAvis
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B8-2.pdf
# Twitter 投稿における定性的時間表現の使用時刻分布調査 奥川智貴 筑波大学情報学群 t.oku@mibel.cs.tsukuba.ac.jp } 乾孝司 筑波大学大学院システム情報工学研究科 inui@cs.tsukuba.ac.jp } る語句を「定性的時間表現」と呼び、定性的時間表現の体系的な整理と、Twitter ${ }^{1}$ 投稿における定性的時間表現の使用時刻分布を調査することを目的とす る。特に、「もう 4 時」や「まだ 4 時」などの一部の 定性的時間表現を対象にした調査をする。Twitter 投稿には投稿者のリアルタイムな感覚が反映されたテ キストデータに投稿時刻データが紐づいており、こ の情報を調査に利用する。具体的には、定性的時間表現を含むテキストが投稿された時刻とその投稿内 で言及されている時刻の間の時間のギャップに注目 し、対象表現ごとのギャップを比較することで、定性的時間表現の使われ方の違いを調査する。 ## 2 関連研究 ## 2.1 自然言語処理における時間表現の扱い 自然言語処理分野における時間表現に注目した研究では、TimeML[2] の<TIMEX3>に基づいたタグづけ基準を採用したアノテーションが盛んである。 TimeML とは時間表現と実世界上のイベントを関連づけるタグづけ基準のことであり、これに沿って作成されたくTIMEX3>は様々な言語へのアノテー ションに使われている。小西ら [3] は日本語時間表現に対するタグ付け基準を提案しており、対象とする表現を DATE(日付表現)・TIME(時刻表現)$\cdot$ DURATION(持続時間表現)・SET(頻度集合表現) の 4 種類に分類している。DATE・TIME は「昨日」 $\lceil 4$ 時」等、時点及び時区間の時間軸上の位置を定義するために用いられる表現である。DURATION は $「 1$ 時間」等、時間軸上の位置ではなく時間の量を定義するために用いられる表現である。SET は「週一回」等、時間軸上の複数の時区間を定義するために用いられる表現である。 小西らの提案した基準に概ね沿う形で成澤 [4] は時間表現のアノテーションを行ったが、時間表現の前後の文字列が修飾表現であった場合の規格化に関 1) https://twitter.com/ しては大半が<TIMEX3>で定義される@ $\bmod$ 属性に値を付与する処理だと述べている。@ $\bmod$ は時間情報表現のモダリティを表す属性である。例えば文中の「2021 年 12 月 10 日ごろ」は以下のようにタグ付けされる。 <TIMEX3 tid="t1" type="DATE" value="2021-12 -10 " valueFromSurface="2021-12-10" mod= "APPROX">2021 年 12 月 10 日ごろ</TIMEX3> ここでは@ $\bmod$ に格納されている “APPROX”という值が「ごろ」という表現に対応している。本研究では@ $\bmod$ を時間表現のあいまい性を捉える属性として注目する。詳細は 3 節で説明する。 ## 2.2 Twitter を活用した時間研究 Twitterを活用した時間情報に焦点をあてた研究も多く存在する。例えば Hürriyetoğlu ら [5] はあるイベントに関する投稿のストリームからイベント発生までの時間を推定する手法を提案した。この手法では、各投稿の文中に含まれる時間表現と投稿時刻を基に演算処理した結果の中央値や平均値が推定に利用されている。しかしこうした既存研究のほとんどはイベントとその発生時間の対応付けが目的で、時間表現が含まれる文の投稿時刻の分布自体には焦点を当てていない。 ## 3 定性的時間表現 ## 3.1 単一型の定性的時間表現 本稿では定性的時間表現を単一型と複合型の 2 種類に分類した上で<TIMEX3>の仕様に沿って各々説明する。 単一型の定性的時間表現とは、時間表現のうち、 それ単体でおよその時刻・時間帯や時間量をあらわす語句である。ただし、ある程度定量的な定義が存在する語句でも定性的時間表現とみなせる場合もある。例えば「朝」は気象庁 [6] が「午前 6 時頃から午前 9 時頃まで」の時間帯を指す言葉だと定めているが、話者自身が感覚的に定めた時間区分に基づいて使われている。単一型定性的時間表現の例を表 1 に示す。 ## 3.2 複合型の定性的時間表現 複合型の定性的時間表現とは、時間表現に、 @ mod、@aspect の2 属性のいずれかに値を与えるよ表 1 単一型の定性的時間表現の例 表 2 複合型の定性的時間表現の例 うな修飾表現が結びついた語句である。@ $\bmod$ は先述の通り<TIMEX3>で既に採用されている属性で、時間情報のモダリティを表す。「ごろ」や「前」「過ぎ」等の修飾表現が該当する。一方で@ aspect とは今回新たに導入した属性で、話者の感覚や行動の段階や局面を表す。「もう」や「まだ」「ようやく」等の修飾表現が該当する。複合型定性的時間表現の例を表 2 に示す。ほかにも、@ $\bmod$ にあたる修飾表現と@aspect にあたる修飾表現の両方と結びついた時間表現(例:「まだ 4 時過ぎ」)なども複合型定性的時間表現に該当する。 ## 4 使用時刻分布調査 ## 4.1 調査対象表現 調査対象として、正時を言及していると考えられる複合型の定性的時間表現である「もう $h$ 時」および「まだ $h$ 時」 $(h=0,1, \ldots, 24$ 、以降の $h$ に関しても同様で、「正時」とも呼ぶ)を選んだ。「もう」および「まだ」は先述の通り @ aspect の值を与える修飾表現であり、「h時」は明確に時刻(正時)を言及するために使われる一般的な時間表現である。 ## 4.2 調査データ 調査データは、2014 年 1 月 1 日から 2014 年 12 月 31 日までに東京都で投稿された日本語ツイートの集合とし、ここから正規表現を用いてテキスト中に調査対象表現が含まれている投稿を抽出して調査に利用した。ここで、例えば「もう 3 時」を抽出する正規表現(Python で記述)は以下のものを用いた。 "もう"+"[33三]"+"時 [^間半 0-9 0-9 ]" 各投稿にはメタデータとしてタイムスタンプ、すなわち投稿時刻情報が付与されている。 表 3 Gap 值の計算例 図 1 もう $h$ 時 : 正時別の投稿件数 (上方向の要素は正、下方向の要素は負のギャップをとる投稿件数) ## 4.3 ギャップに注目した使用時刻分布調査 本研究の目的を達成するために、ギャップ (Gap) という指標を導入する。ギャップとは、ある時間表現を含むテキストが投稿された時刻からその時間表現が表層的に言及している時刻までに経過した秒数と定義する。ある投稿 $t$ に含まれる時間表現 $e$ のもつギャップは以下の式で求められる。 $ \operatorname{Gap}(t, e)=\operatorname{ReferenceTime}(t, e)-\operatorname{Timestamp}(t) $ ここで、Timestamp は対象表現が実際に使用された時刻を表し、ツイートのタイムスタンプの値がそのまま代入される。ReferenceTime は対象表現から修飾表現を取り除いた正時時刻であり、Timestamp の年月日 $+h: 00: 00$ の値が代入される。ただし、 $h=24$ ならば $h=0$ に変換した上で代入を行う。 また、 $h=0,1, \ldots, 12$ かつ $-64,800 \leq G a p \leq-21,600$ ならば、午後について言及した投稿だと判断し、 ReferenceTime の値を 43, 200 秒(= 12 時間分)加算して Gap を再計算する。例えば 13 時 50 分ちょうどに投稿された「もう 2 時」という投稿の場合、再計算前は $G a p=-42,600$ であるが、再計算後は $G a p=600$ ( = 10 分) となる。Gap < $-64,800$ または $G a p>21,600$ の場合は、現在時刻とは無関係の投稿だと判断し、集計から除外した。 上記の結果、1,621 件の「もう $h$ 時」と 817 件の「まだ $h$ 時」の表現、およびそれらの Gap 值を得た。Gap 值の計算例を表 3 に示す。 図 2 まだ $h$ 時 : 正時別の投稿件数 (上方向の要素は正、下方向の要素は負のギャップをとる投稿件数) ## 4.4 調査結果 ## 4.4.1 使用時刻分布の比較 一「もう」と「まだ」一図 5 が主となる調査結果であるが、その前段階と して図 1 から図 4 で正時別の調査結果をまず報告 する。正時別のツイート件数を図 1 および図 2 に示 す。「もう $h$ 時」を含むツイートは 3 時、 4 時をピー クにして深夜の時間帯を言及したものが多く、「ま だ $h$ 時」を含むツイートは 20 時、 21 時を緩やかな ピークにして夜の時間帯を言及したものが多く見ら れた。つまり言及される時間帯によって対象表現の 使用頻度に差が生じていることがわかる。Gap 值の 正負に注目すると、「もう」と「まだ」のどちらの表現とも若干負の件数が多いものの時間帯による正負 の違いはあまり見られない結果となった。 次に、正時別のギャップ分布として、Gap 值の平均值および中央値を図 3 および図 4 に示す。ここでは平均値を棒グラフで示し、その上に中央値を示す点グラフを重ねている。平均值に関して、部分的に極端な値をとっているが、これは外れ値の影響を受けているものであったため、ここでは中央値に注目する。中央値に基づくとほとんどの時間帯で「もう $h$ 時」は 0 秒に近い Gap 値であり、「まだ $h$ 時」は -600 秒以上 0 秒以下の $G a p$ 值であることが概観できる。 図 3 および図 4 の正時別調査結果の要約として、 図 3 もう $h$ 時: 正時別のギャップ平均値 - 中央值 @ aspect 別のギャップ分布の箱ひげ図を図 5 に示す。 $G a p$ 值の平均值を三角の点で、中央値を赤線で示している。「もう $h$ 時」のツイート全体の Gap 值の平均値は 38 秒、中央値は -85 秒であった。「まだ $h$時」のツイート全体の平均值は -554 秒、中央值は -285 秒であった。この結果は、「もう $h$ 時」はほぼ $h$ 時に使われる一方で、「まだ $h$ 時」は約 5 分後に使われており、@aspect に対応する修飾表現の「もう」 と「まだ」では使用時刻に差があることがわかる。 ## 4.4.2 使用時刻分布の比較 —「前」と「過ぎ」— 上記データの中で、さらに@ $\bmod$ 修飾表現の「前」 および「過ぎ」を含むデータを抽出し、同様の調査をおこなった。この結果の箱ひげ図を図 6 に示す。「もう $h$ 時前」のツイート全体の Gap 值の平均值は 2,189 秒、中央値は 957 秒、「まだ $h$ 時前」では平均値は 761 秒、中央値は 627 秒、「もう $h$ 時過ぎ」では平均值は -981 秒、中央値は -851 秒、「まだ $h$ 時過ぎ」では平均值は $-1,551$ 秒、中央値は $-1,075$ 秒であった。先述の@ aspect 別のギャップ分布の結果に基づき、「もう」がリアルタイム性を保証するマー カーで、「まだ」が約 5 分後を示すマーカーだと見なすと、「 $h$ 時前」は $h$ 時の約 15 分前に使われる一方で、「h 時過ぎ」は約 15 分後に使われるといえる。 ## 5 おわりに 本稿では、TimeML の<TIMEX3>の仕様に基づいて定性的時間表現の概念を整理した上で、複合型定性的時間表現である「もう $h$ 時」および「まだ $h$時」を対象に時間ギャップを測定し、その分布を比較分析した。今回の調査結果は、たとえば『『もう 9 時だよ』よりも『まだ 9 時だよ』のほうが 9 時からギャップのあるタイミングでシステム発話をしても 図 4 まだ $h$ 時:正時別のギャップ平均値・中央値 図 5 @ aspect別ギャップ箱ひげ図 図 6 @aspect+@mod 別ギャップ箱ひげ図 よい」や「9 時 15 分に『もう 9 時過ぎ』という発話は自然であるが、9時 30 分に同じ発話をするのは自然さに欠く」などの知識として自然な対話システム構築に活かし得る。ただし今回の調査結果を十分な知識へと昇華させるためには、対象表現を「もう $h$時」「まだ $h$ 時」以外の定性的時間表現にも拡張した更なる調査が必要である。また、Twitter ユーザが時間を認識してから実際にツイートを投稿するまでに自然と生じるタイムラグの影響も今後考慮するべきである。 ## 参考文献 [1] Apple. Siri ならこんなことも - apple サポート (日本). https://support.apple.com/ja-jp/HT208336, 2021. (参照 2021-12-22). [2] James Pustejovsky, José M Castano, Robert Ingria, Roser Sauri, Robert J Gaizauskas, Andrea Setzer, Graham Katz, and Dragomir R Radev. Timeml: Robust specification of event and temporal expressions in text. New directions in question answering, Vol. 3, pp. 28-34, 2003. [3] 小西光, 浅原正幸, 前川喜久雄. 『現代日本語書き言葉均衡コーパス』に対する時間情報アノテーション.自然言語処理, Vol. 20, No. 2, pp. 201-221, 2013. [4] 成澤克麻. 自然言語処理における数量表現の取り扱い. Master's thesis, 東北大学, 2014. [5] Ali Hürriyetoglu, Nelleke Oostdijk, and Antal Van den Bosch. Estimating time to event from tweets using temporal expressions. In Proceedings of the 5th Workshop on Language Analysis for Social Media (LASM), pp. 816, 042014. [6] 気象庁. 予報用語時に関する用語. https://www.jma.go.jp/jma/kishou/know/yougo_ hp/toki.html. (参照 2021-12-22).
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B8-3.pdf
# ソーシャルメディアにおける服薬ノンコンプライアンス発言の 分類と医薬品構造類似度を用いたコーパス可搬性の検討 西山智弘 ${ }^{1}$ 矢田竣太郎 ${ }^{1}$ 若宮翔子 ${ }^{1}$ 堀里子 2 荒牧英治 ${ }^{1}$ 1 奈良先端科学技術大学院大学 2 慶應義塾大学 ${ }^{1}$ \{nishiyama. tomohiro.ns5,s-yada, wakamiya, aramaki\}@is.naist.jp ${ }^{2}$ hori-st $@$ pha.keio.ac.jp ## 概要 ソーシャルメディアデータを用いたへルスケア情報のモニタリングは人々の健康維持に役立つ可能性がある,我々は,ソーシャルメディアにおける服薬コンプライアンスに関連するラベルを付与した初の日本語コーパスである「MediAコーパス」を構築している. 本コーパスは 20 種類の医薬品について,服薬コンプライアンスの概念に基づき,ユーザによる発言の影響力の大きさを考慮してラベル付けされたデータセットである. 本研究では, 医薬品の性質に着目し, MediAコーパスを用いた分類結果を分析した。具体的には,異なる医薬品に関する発言の転移学習の可能性を定量的に評価するために, out-of-domain での分類結果と医薬品の構造類似性との相関について確認した. ## 1 はじめに 近年,ソーシャルメディアは副作用や服薬コンプライアンスなどの医薬品使用情報に関する豊富な知識源として注目されている $[1,2,3,4]$. 服薬コンプライアンスは患者が医師の指示通りに医薬品を使用することと定義され,ヘルスリテラシーと強く関連する概念の 1 つでもある [5]. 服薬コンプライアンスは,医療従事者だけでなく,患者にとっても重要であり,これらの情報の利用価値は高い. 服薬コンプライアンスに関する情報を得るための代表的な方法としては,直接測定,質問票による調査,医療従事者による評価などがある [6]. しかし,このような手法を用いて患者がどの程度医療従事者の指示のもと治療を行なっているか,適切に治療行為を理解しているか,ということを逐一監視するモニタリングはコストが高く,困難である。一方で,ソーシャルメディアによる服薬コンプライアンスや人々の医薬品に対する理解,その他健康関連情報の測定は,患者自身の服薬状況や理解度の把握, 医薬品規制当局による規制や医薬品供給者からの安全性情報の迅速な発信による人々の健康維持に役立つ可能性がある [7]. ソーシャルメディアデータにおけるコンプライアンス不良に関する発言の一例として, ダイエットをする人が適切な知識を持たず,医療従事者を介さずに自分で輸入したラシックス』などの処方薬を服用し,腎障害を起こした例が挙げられる。 そのようなツイートとしては次のようなものがある. “筋肉が壊れる横紋筋融解症という病気の他に、 ラシックス®を自己判断で飲んでいたせいで腎臟も弱っていて” 特に,日本では,当局が一定の範囲内で処方箋のない個人が自己使用目的で海外から医薬品を直接輸入することを認めている。そのため,この例のような輸入医薬品による健康被害のリスクが海外よりも高くなる可能性がある $[8,9]$. さらに,ソーシャルメディアでは,医療機関を通さない医薬品の売買の可能性に関する発言など,他者に直接影響を与える行為が問題視されている [10]. そこで,我々は上記の服薬コンプライアンスという概念に加えて,他者に直接影響を及ぼす可能性のある発言をモニタリングするために,新たなデー タセット「MediAコーパス1)」を構築している。本コーパスは,Twitterにおける医薬品の不適切な理解に基づく認識や行動に関連する発言を「コンプライアンス不良」と広義に定義した上で,周囲への影響度を考慮して分類したものである. コンプライアンス不良のモニタリングの運用という観点では, 該当する医薬品名以外の医薬品に対しても,精度良く検知を行うことが重要である。しかしながら,既存の研究では,どのような性質を有す  医薬品同士であれば,転移学習ができる可能性が高くなるかは検証されていない [11]. そこで,本研究では MediAコーパスを用いた分類の評価と医薬品の性質に注目して学習を試みた. さらに,異なる医薬品に関する発言の転移学習の可能性を定量的に評価するために,out-of-domain での分類結果と医薬品の構造類似性との相関についても評価した.この基本アイデアは,互いに類似している医薬品,例えば,ラシックス 『と類似する化学構造を持つ医薬品は,ラシックス $®$ と同じく, ダイエッ卜目的といった自己判断での服用が多い,という自然な直感に基づくものである. このため,化学構造の類似度と本研究での分類指標に関連があるものと考えた。 ## 2 MediA コーパスの構築 本研究では,我々が構築している MediA コーパスを利用する。本コーパスは「ロキソニン ®」,「ボル トラリン ® $\rfloor, 「$ 「ビリファイ $®$, 「コントミン $®$, ミン」,「ラシックス $\mathbb{\circledR} 」$ からなる 20 種類の医薬品クエリで取得されたツイートについて,コンプライアンス不良とその影響度に応じてラベルが付与された全 22022 件のデータである. 20 種類のクエリは薬剤師資格保有者によって,(1)一般的な処方薬であり,商品名または一般名であること,(2) 3 年間のツイート数が 1000 ツイート以上と十分な量が確保できること,を基準として選定された。 本コーパスでは,発言者が医薬品の取り扱いに関して不適切に認識している,と読み取れる発言をコンプライアンス不良として定義した. さらに,コンプライアンス不良を個人的なものと,売買といった周囲へ影響を及ぼす可能性があるものに区別してラベル付けしている. 具体的には, 発言から個人的なコンプライアンス不良が読み取れる発言を $「$ Personal NC」, 影響力のあるコンプライアンス不良が読み取れる発言を「Influential $\mathrm{NC}\lrcorner$, コンプライアンス不良ではない服薬に関する発言を「Use」,それ以外の発言を「Others」としてラベル付けした. ## 3 実験 ## 3.1 BERT による分類 BERT (Bidirectional Encoder Representations from Transformers)[12]を用いて実験を行なった.BERT の事前学習済みモデルである bert-base-japanesewhole-word-masking を採用し,MediAコーパスを用いてファインチューニングを行なった. このモデルは, 12 層, 768 次元の隠れ層, 12 個のアテンションヘッドから構成されている.このコーパスの有用性を評価するために,分類タスクを実施した. ラべル付データセットを8(学習セット):1(検証セット):1(テストセット)の割合で 3 つに分割した.本研究で学習させた全てのモデルについて, 検証損失が最も小さくなる地点で学習を停止させた. ## 3.2 out-of-domain での検証 医薬品クエリ $i$ に関するツイート $D_{i}$ で構築したモデル $M_{i}$ を用いて, 医薬品クエリ $j$ に関するツイート $D_{j}$ の分類を予測した. $i, j$ は 2 章に示した任意の医薬品クエリである. $i \neq j$ の場合, データセット $D_{i}$ を9(学習セット):1(検証セット)に分割し, $D_{j}$ をテストセットとした. $i=j$ の場合は, データセット $D_{i}$ を (学習セット):1(検証セット):1(テストセット)の割合で 3 つに分割した. また, 利用可能なデータセットが小さく, データの偏りが非常に大きくなるため,4つのラベルの割合が均等になるようにランダムオーバーサンプリングを行なった [13]. ## 3.2.1 医薬品構造類似度 医薬品構造類似度を定量的に算出するために,化学構造の類似度を示す Tanimoto 類似度を使用した. Tanimoto 類似度とは,医薬品の構造の類似性を表す指標である [14]. 算出方法としては, 化合物 $A$ と化合物 $B$ のフィンガープリントの積集合の大きさを化合物 $A$ と化合物 $B$ のフィンガープリントの和集合の大きさで割ったものであり,2つの化合物に共通する部分構造のビットの割合として計算される. Tanimoto 類似度を算出するために,各医薬品の化学式を SMILES(Simplified Molecular Input Line Entry System)に変換し [15], Morgan fingerprint ベクトルを得た. Morgan フィンガープリントの計算には,入カパラメータとして半径の大きさとビット数が必要であり,半径は 2 ビットと 1024 ビットに設定した. ## 4 結果と考察 ## 4.1 BERT による分類 BERT によるツイート分類結果を表 1 に示す. F1 值のマクロ平均は 0.740 であり, Personal NC の F1 値は 0.597 と最も低かった. 同様の分類を試みた研究はないが,1 章で述べた関連研究において,服薬方法の変更を分類した時の $\mathrm{F} 1$ 値が 0.501 であったことから [11],この值は妥当であると考えられる. 本コーパスのアノテーションでは, 医薬品ごとに用量などの分類基準が異なり, Personal NC に分類するか Use に分類するかは医薬品に依存するため, それだけモデルの学習が難しくなっている。この点を考慮すると,関連研究と比較して十分な値であるといえる. 実際に Personal NC とラベル付けされたツイー トの多くが Use と誤って分類された. Influential NC に分類されたツイートは最も少ないが,精度と再現率ともに 4 分類の中で最も高く, F1 值も最も高い. このことから,Influential NC は,他者に影響を与えるという事実が示すように,他者にとって理解しゃすいものであることが示唆される.このことは,モデルの分類結果にも反映されている. 表 1 BERT による分類結果 図 1 各医薬品クエリのツイート数と F1 值の散布図 表 2 はそれぞれの医薬品クエリごとの $\mathrm{F} 1$ 值であり,各医薬品の分類精度に大きなばらつきがあるこ表 2 それぞれの医薬品における F1 值 (P-NC:Personal NC, I-NC:Influential NC) とがわかる。全体として,Influential NC で最も良い結果が得られた。しかし,各医薬品を詳しく見てみると,Influential NC の中でも,F1 値が低いものもあった.これは,ロキソニン ®やボルタレン $® の$ ように,OTC 医薬品としても使用されている医薬品があり,これらの医薬品の購入は問題行動ではないため,本来はコンプライアンス不良に分類されないためであると思われる.F1 值が 0 の項目はいずれも該当するツイート数が 40 以下とデータ量が少ないことが原因であると考えられる。 図 1 はツイート数と F1 値の関係を示す散布図であり,ここからは $\mathrm{F} 1$ 値がツイート数とともに増加することがわかる。一方で,Influential NC の F1 值は,他のカテゴリと異なり,ツイート数に依存しない. Influential NC に分類されたツイートは,言及された医薬品の種類が異なっていても,内容が類似していると考えられる。 ## 4.2 out-of-domain での検証 out-of-domain での検証結果を図 2 に示す. ヒートマップの縦軸と横軸は,それぞれ学習データとテス 図 2 out-of-domain 検証時の F1 値 図 3 医薬品間の Tanimoto 類似度 トデータの医薬品クエリである.同じ医薬品を予測することは out-of-domain ではないが,対角線上の領域は比較のために参照データに含めている.色の濃さとマクロ $\mathrm{F} 1$ 値が対応しており,マイスリー ®, ソムラ ®,パキシル ®,レクサプロ ®,セルトラリ ル ®は対応する領域の色が濃く, これらの医薬品クエリのツイート同士は互いに利用できる可能性が示唆される.これらの医薬品は, 睡眠薬,抗不安薬,抗精神病薬に分類されることから,分類が似ている医薬品に対して,転移学習を行える可能性が高いことが示唆された。 各医薬品間の Tanimoto 類似度を図 3 に示す. 類似度は化合物の構造的な類似性を数值化したもので,同じ医薬品の類似度が 1.0 となる. ロキソニン ® とボルタレン ®のように,同じような目的で使用 図 4 Tanimoto 類似度と F1 值の散布図 される医薬品は,構造が似ていることが多い. 各医薬品の Tanimoto 類似度と F1 値の関係を図 4 に示す。縦軸,横軸ともに平均 0 ,分散 1 で標準化されている. Tanimoto 類似度と F1 值の相関は 0.278 $( p<0.05 )$ であった. この結果は,構造類似度が分類結果と弱い相関があることを示している。このことから,医薬品の構造情報を医薬品関連文書の転移学習に利用できることが示唆された。 ## 5 まとめ 本研究ではコーパスを用いた分類の評価を実施し,作成したモデルは $\mathrm{F} 1$ 值 0.728 を示した.このコーパスを用いて,転移学習の可能性を評価した。 out-of-domain での評価指標の結果は, 医薬品の構造類似性に相関していた。類似した医薬品に関しては,転移学習を行うことのできる可能性が高いことが示唆された。 服薬コンプライアンスについては,新薬やジェネリックなど対象となる医薬品が次々と上市され,また,意図的な違法な用途については,その名称は隠語に変換されやすい.このような状況を考えると,大規模なコーパスを静的に使うのではなく,提案手法のように out-of-domain でのアプローチを実践することで,現状に迅速に追随することが重要だと考えている,今後は,本コーパスをリアルデータに適用し, 各医薬品に関するコンプライアンス不良の解析を実施する予定である. ## 謝辞 本研究の一部は, JST AIP 日独仏 AI 研究 JPMJCR20G9,国立情報学研究所 (NII) CRIS,JSPS 科研費 JP21H03170 の助成を受けたものである. ## 参考文献 [1] Takeshi Onishi, Davy Weissenbacher, Ari Klein, Karen O'Connor, and Graciela Gonzalez-Hernandez. Dealing with medication non-adherence expressions in Twitter. In Proceedings of the 2018 EMNLP Workshop SMM4H: The 3rd Social Media Mining for Health Applications Workshop \& Shared Task, pp. 32-33, Brussels, Belgium, 2018. Association for Computational Linguistics. [2] Mondira Bhattacharya, Scott Snyder, Murray Malin, Melissa M. Truffa, Sandy Marinic, Rachel Engelmann, and Ritu R. Raheja. Using social media data in routine pharmacovigilance: A pilot study to identify safety signals and patient perspectives. Pharmaceutical Medicine, Vol. 31, No. 3, pp. 167-174, 2017. [3] Jiaheng Xie, Daniel Dajun Zeng, Xiao Liu, and Xiao Fang. Understanding reasons for medication nonadherence: An exploration in social media using sentiment-enriched deep learning approach. In ICIS 2017, ICIS 2017: Transforming Society with Digital Innovation. Association for Information Systems, 2018. [4] Su Golder, KarenO' Connor, Sean Hennessy, Robert Gross, Graciela Gonzalez-Hernandez. Assessment of Beliefs and Attitudes About Statins Posted on Twitter: A Qualitative Study. JAMA Network Open, Vol. 3, No. 6, pp. e208953-e208953, 2020. [5] T. A. Miller. Health literacy and adherence to medical treatment in chronic and acute illness: A meta-analysis. Patient Education and Counseling, Vol. 99, No. 7, pp. 1079-1086, 2016. [6] W. Y. Lam and P. Fresco. Medication Adherence Measures: An Overview. BioMed Research International, Vol. 2015, p. 217047, 2015. [7] Abeed Sarker, Graciela Gonzalez-Hernandez, Yucheng Ruan, and Jeanmarie Perrone. Machine learning and natural language processing for geolocation-centric monitoring and characterization of opioid-related social media chatter. JAMA Network Open, Vol. 2, , 2019. [8] Hiromi Okazawa. Laws and regulation on the personal importation of medicines in various countries. Japanese Journal of Social Pharmacy, Vol. 36, No. 1, pp. 39-44, 2017. [9] Hiroshi Takanashi, Hiromi Okazaki, Humiko Aihara, Tatsuro Koga, Keiichi Hashimoto, and Tomoko Watanabe. Personal import of medicines with potential risks:dangers go beyond counterfeit drugs. Japanese Journal of Social Pharmacy, Vol. 35, No. 2, pp. 108-116, 2016. [10] Tim K Mackey and Janani Kalyanam. Detection of illicit online sales of fentanyls via twitter. F1000Research, Vol. 6, p. 1937, November 2017. [11] Davy Weissenbacher, Suyu Ge, Ari Klein, Karen O'Connor, Robert Gross, Sean Hennessy, and Graciela Gonzalez-Hernandez. Active neural networks to detect mentions of changes to medication treatment in social media. Journal of the American Medical Informatics Association, Vol. 28, pp. 2551-2561, 2021. [12] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional trans- formers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, 2019. [13] Gustavo E. A. P. A. Batista, Ronaldo C. Prati, and Maria Carolina Monard. A study of the behavior of several methods for balancing machine learning training data. ACM SIGKDD Explorations Newsletter, Vol. 6, No. 1, p. 20-29, 2004. [14] Taffee T Tanimoto. An elementary mathematical theory of classification and prediction. IBM internal report, 1958. [15] David Weininger. SMILES, a chemical language and information system. 1. introduction to methodology and encoding rules. Journal of Chemical Information and Computer Sciences, Vol. 28, No. 1, pp. 31-36, 1988.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
B8-4.pdf
# SNS 上の攻撃的表現の検出と位置特定 牧元大悟 ${ }^{1}$ 徳永健伸 ${ }^{1}$ 1 東京工業大学 情報理工学院 makimoto.d.aa@m.titech.ac.jp take@c.titech.ac.jp ## 概要 本研究では日本語における攻撃的表現の検出及び位置特定のタスクのためのデータセット構築し,このデータセットを用いて,最先端の機械学習モデルを含む複数のモデルで実験を行いその結果を比較した。英語を対象とした関連研究の学習モデルが本研究で作成したデータセットにおいても良い結果を達成することを確認した。また, 攻撃的表現の検出と位置特定をまとめたタスクにおける評価手法について考察し,サブタスクに分割して取り組む方針の有効性について検証した。 ## 1 序論 本研究の目的は SNS 上の日本語の投稿に対する攻撃的表現の検出とその位置の特定である。具体的には、SNS 上の投稿を入力とし,投稿が攻撃的表現を含むかどうかを判定し,攻撃的表現を含むものに対してその位置を出力するモデルを構築する。本研究で扱う攻撃的表現とは,第三者が投稿を見た際に攻撃的な表現であると判断できるものである。攻撃的表現の検出と位置特定を同時に扱う先行研究はなく, 特に日本語の投稿を対象とした研究では攻撃的表現の位置特定を扱った研究はない。本研究では日本語のデータセットの作成し、攻撃的表現の検出と位置特定を同時に行なう手法の提案と英語における先行研究を参考にした複数の機械学習モデルの実装と比較,評価手法の検討を行なった。また,攻撃的表現の検出と位置特定を包括的に行う上での評価方法やタスクの取り組み方,データセットの利用方法を複数の設定で実験し,比較を行なった。本研究の貢献を以下にまとめる。 ・攻撃的表現がアノテーションされた日本語デー タセットの作成方法の提示 - 最先端の機械学習を用いた攻撃的表現の検出と位置特定タスクの実装と評価 ・本タスクに対する評価手法の考察 ## 2 関連研究 ## 2.1 英語における攻撃的表現の検出 Zampieri らは, Offensive Language Identification を含むタスク群を扱った共有タスクを提案している $[1,2]$ 。このタスクで用いられたデータセット OLID [3] は,キーワードを用いて Offensive Language を含みやすいツイートを収集し,アノテーションしたものである。Zampieri らの Offensive Language の検出では, ALBERT[4] のアンサンブルモデルが最も良い結果を達成した [1]。 ## 2.2 英語における攻撃的表現の位置特定 Pavlopoulos らはは Toxic Span Detecion を扱った共有タスクを提案している [5]。データセットは,既存のデータセットから “Toxic” とラベルされたコメントを取り出し,それらに対しスパンのアノテー ションしている。BERT ベースの 3 つのモデルのアンサンブルが最も良い結果を達成した。 ## 2.3 日本語における関連研究 尼崎らは Twitter から人が嫌がる語を含む投稿を収集し,人手により不適切な投稿であるかどうかのラベルを付与した [6]。作成したデータに対して Bag of Words(BoW) で特徵量を抽出し線形 SVM を用いて不適切投稿の検知を行なっている。他の類似研究として,学校非公式サイトでの有害な書き込み検出 $[7,8]$ や掲示板の書き込みが児童買春を示唆しているかの有害性評価 [9] や SNS 上で非難が殺到してしまう投稿を検知する炎上検出 $[10,11]$ などがある。 ## 2.4 本研究の位置づけ 本研究は,Twitterにより収集したデータに対し,人手でアノテーションを行いデータセットを作成す る。作成したデータセットに対して最先端の機械学習モデルを使用して攻撃的表現の検出及び位置特定を行う。英語を対象とした研究で用いられているような最先端の機械学習モデルが用いられた日本語における先行研究はなく, 攻撃的表現の位置特定については先行研究が存在しない。また,検出と位置特定を同時に扱うような研究は英語においても行われていない。 ## 3 データ ## 3.1 データ収集 本研究では,SNS 上の投稿としてツイートを扱う。ツイートの収集には TwitterAPI ${ }^{1)}$ を利用する。 リプライ及び引用リッイート(以下,まとめてリプライと呼称)を収集対象とし、既定の攻撃的単語を含むツイートを複数回しているアカウントからリプライを収集した。既定の攻撃的単語には,畠山ら [12] が用いた人手のアンケートで半数以上の人が有害及び少し有害と判断した種単語群のうち卑猥語を除いた以下の 17 単語を用いた。 死ね,消えろ, 蛆虫, カス, 殺す, きもい, うざい, 不細工, ビッチ, クズ, マスゴミ, 脱冀, 糞虫, ダセー,ゴキヲタ, マジキモ, 死ね 上記で得られた最終的な収集データに対し,メンションやハッシュタグ除去等の前処理を行い, 最終的に 306 のアカウントから合計 34,123 リプライが集まった。また,そのうち既定の攻撃的単語を含むりプライ数は 1,292 で全体の $3.7 \%$ である。 ## 3.2 アノテーション 3.1 で収集したリプライに対し人手で以下の $2 \supset$ のアノテーションを行なった。1 リプライにつき 3 人のアノテーターが担当した。 (1) 攻撃的表現を含むかどうかを,「0: 含まない」「1: 含む」「2: ツイートの内容が理解できない」 に分類する (2)「1: 含む」の攻撃的表現を括弧で囲む(複数可) ## 3.3 データセット構築 攻撃的表現を含むかのラベルについては,2人以上が「2: ツイートの内容が理解できない」としたリプライを除外し,それ以外のリプライについては 1 1) https://developer.twitter.com/en人以上が「1: 含む」としたリプライのラベルを「1:含む」とし,残りを「0: 含まない」とした。 そして「1: 含む」のラベルがついたリプライについて以下の手順で攻撃的表現の位置を決定する。 (1) 括弧で囲まれた攻撃的表現を文字インデックスの集合に変換し,3 人の文字のインデックスの集合を統合する (2) リプライを MeCab[13]を用いてトークン単位に分割し, (1)で作成した集合の要素のインデックスが含まれるトークンを攻撃的表現トークンとし,IOB タグに変換する 攻撃的表現の位置決定における手順 (1) の例を表 1 に示す。以上の操作で得られた BI タグで表される攻撃的表現のトークン列を 1 つのスパンと呼ぶ。 作成したデータセット内のラベルの分布を表 2 に示す。また, 攻撃的表現を「1: 含む」とされた 4,828 ツイートの約 $20 \%$ に収集に用いた既定の攻撃的単語が含まれていた。得られたデータセットを 6:2:2で訓練・開発・テストに分割した。 ## 4 タスク設定と評価 ## 4.1 タスク設定 本研究では,SNS 上の攻撃的表現の検出と位置特定という目的を 2 つのサブタスク,攻撃的表現の検出と攻撃的表現の位置特定に分けて考える。攻撃的表現の検出は入力されたリプライが攻撃的表現を含むかどうかの二値分類を行う。出力は $\Gamma 0$ : 含まない」「1: 含む」のタグとなる。攻撃的表現の位置特定は攻撃的表現が存在すればそのスパンを出力する。出力はスパンを表現する BIO タグとなる。 それぞれのサブタスク単体の実験と 2 つのサブタスクをまとめた実験を行う。サブタスクのまとめ方 として,2つのサブタスクをパイプライン式に行う方法と両方のサブタスクを一括式に行う方法の 2 通りで実験を行う。パイプライン式では攻撃的表現の検出を行った後,検出結果が「1: 含む」の例についてその位置特定を行う。一括式では攻撃的表現の位置特定を行い,出力にスパンが含まれないような例を攻撃的表現を含まないとすることで攻撃的表現の検出と位置特定の両方の結果を得る。 ## 4.2 評価 攻撃的表現の検出の評価には,「1: 含む」を対象とした Accuracy,Precision, Recall,F1 値を用いる。攻撃的表現の位置特定の評価には,Partial Match F1,Exact Match F1,Char-offsets F1 を用いる。Partial Match と Exact Match は固有名認識 (Named Entity Recognition)における評価であり,スパンをベースに評価を行う。Partial Match は正解のスパンの一部にモデル出力のスパンが被っていればそのスパンについては TruePositive としてカウントし, Exact Match は正解とモデル出力のスパンが完全に一致してる場合を TruePositive としてカウントする。 Char-offsets F1 は Pavlopoulos ら [5] が用いた評価尺度である。リプライ内のスパンを文字オフセットに変換し, 正解とモデル出力の文字オフセットリストから F1 を計算する。データセット中の各リプライについて上記の $\mathrm{F} 1$ を計算し,平均したものが Char-offsets F1 である。ただし, 正解とモデル出力の文字オフセットリストが共に空の場合は F1 を 1 , どちらか一方が空の場合は $\mathrm{F} 1=0$ として計算する。後述の表中では Partial Match F1,Exact Match F1,Char-offsetsF1をそれぞれPMF1,EMF1,CoF1 と略記する。 ## 5 学習モデル ## 5.1 攻撃的表現の検出 攻撃的表現の検出には BiLSTM モデルと ALBERT fine-tuning モデルを用いる。 BiLSTM モデルは 1 層の BiLSTM 層と二値分類器から成るモデルを使用した。埋め込み表現の獲得には ELMo[14]を用いた。 ALBERT Fine-tuning モデルは [1] の Offensive lanuage の検出で最も良い結果のモデルを参考にした。学習済みの ALBERT $^{2}$ を本研究のデータセットで 2) https://github.com/cl-tohoku/bert-japanese fine-tuning したモデルである。ALBERT の入力トー クン列の先頭に挿入される特殊トークン [CLS] の最終隠れ状態を二値分類器の入力とする。 ## 5.2 攻撃的表現の位置特定 攻撃的表現の位置特定には BiLSTM-CRF モデルと BERT-CRF fine-tuning モデルを用いる。 BiLSTM-CRF モデルは 1 層の BiLSTM 層と CRF 層から成るモデルを使用した。CRF[15] 層は,各トー クンに対する各タグのスコアを入力としてタグの依存関係を考慮した全体の最適なタグ列を出力する。埋め込み表現の獲得には ELMoを用いる。 BERT-CRF fine-tuning モデルは [5] の Toxi Span Detection において最も良い結果のモデルを参考にした。学習済みの BERT $^{3}$ )を本研究のデータセットで fine-tuning したモデルである。BERT-CRF は NER において最先端のモデルの 1 つである。各トークンに対する BERT の最終 Transformer 層の隠れ状態を CRF に入力する。 ## 5.3 一括式のタスク設定 一括式のタスク設定では,5.2の BERT-CRF finetuning モデルと同様のものを用いる。ただし,5.2のモデルについては攻撃的表現を含む例のみで学習を行うが,一括式のタスク設定におけるモデルでは全ての例を用いて学習を行う。 ## 6 評価実験 ## 6.1 サブタスクの実験結果 表 3 に攻撃的表現の検出の結果,表 4 に攻撃的表現の位置特定の結果を示す。攻撃的表現の位置特定については入力が必ず攻撃的表現を含むという前提であり,単体のタスクとして考えた場合の結果である。これらの結果は異なるシード值における 5 回の実験の結果の平均値である。 表 3 攻撃的表現の検出モデルの単タスク性能評価  表 4 攻撃的表現の位置特定モデルの単タスク性能評価 ## 6.2 タスク全体の結果 6.1 でそれぞれのサブタスク単体としての結果を示した。それらのサブタスクで最も結果が良かったモデルである ALBERT fine-tuning と BERT-CRF fine-tuning を接続したパイプライン式のモデルの結果と BERT-CRF fine-tuning を用いた一括式のモデルの結果を表 5 と表 6 に示す。 表 5 攻撃的表現の検出:パイプライン式・一括式 表 6 攻撃的表現の位置特定 : パイプライン式・一括式 ## 6.3 パイプライン式と一括式の比較 パイプライン式と一括式の「1: 含む」の検出成功数を表 7 に示す。また,パイプライン式と一括式の Partial Match 基準のスパン特定成功数を表 8 に示す。 それぞれモデルは 6.2 と同様である。攻撃的表現のスパンについてはパイプライン式と一括式のそれぞれで位置特定に成功しているスパンのうち 5 割以上が各モデルでのみ特定に成功している。そのため,位置特定についてはアンサンブルすることで結果が向上する可能性が高いといえる。 ## 6.4 評価尺度について 攻撃的表現の位置特定の評価に用いた Char-offsets F1 は,攻撃的表現のスパンがない例がデータセット中に多い場合にスパンがある例の影響が小さくなり,スパンを特定できているかどうかの差が值に出にくくなってしまう。Char-offsets F1 を用いていた先行研究 [5] では, 既存のデータセットで “Toxic” と判定されたコメントのみを対象としてデータセットを作成しているため上記の問題は発生しない。本研究においては,攻撃的表現の位置特定のみの実験では攻撃的表現を含む例のみを対象としているため上表 7 パイプライン式と一括式の「1: 含む」の検出成功数 記の問題は発生しないが,タスク全体での攻撃的表現の位置特定の評価ではデータセットの多くが攻撃的表現のスパンを含まない例のため評価指標に適していないと考えられる。 同じく攻撃的表現の位置特定の評価に用いた Partial Match F1 及び Exact Match F1 については,例ごとにではなくスパンごとに評価しているため, Char-offsets F1 と同様の問題は発生しない。Partial Match F1 の問題点としてはモデル出力のスパンの長さを評価において考慮しなため,スパンをより長く出力するモデルにおいて評価が高くなってしまうというものがある。一方 Exact Match F1 では,過不足なく正解スパンと一致させるのは難しいという問題がある。実際に 3 人のアノテーターが全員「1: 含む」とした例について,そのスパンが完全一致しているものは 1032 例中 283 例であり,人手においてもスパンが完全一致する例は少ない。 ## 7 結論 本研究では日本語における攻撃的表現の検出及び位置特定のタスクを提案した。本タスク用のデー タセットの作成方法について述べ,作成したデータセットを用いて実験を行った。実験には最先端の機械学習モデルを用い,従来モデルでの結果との比較やいくつかの異なる条件での性能の比較を行なった。また,英語における既存の先行研究と関連研究を参考に評価手法について考察した。 今後の取り組みとしては,攻撃的であると判断したアノテーターの人数を利用した重み付きのロス関数の導入や本研究におけるパイプライン式のモデルと一括式のモデルのアンサンブルモデルを用いることが挙げられる。また, fine-tuning に用いた機械学習モデルの事前学習に Twitter のデータを用いることでも結果の改善が期待できる。 ## 参考文献 [1] Marcos Zampieri, Preslav Nakov, Sara Rosenthal, Pepa Atanasova, Georgi Karadzhov, Hamdy Mubarak, Leon Derczynski, Zeses Pitenis, and Çağrı Çöltekin. SemEval2020 task 12: Multilingual offensive language identification in social media (OffensEval 2020). In Proceedings of the Fourteenth Workshop on Semantic Evaluation. International Committee for Computational Linguistics, 2020. [2] Marcos Zampieri, Shervin Malmasi, Preslav Nakov, Sara Rosenthal, Noura Farra, and Ritesh Kumar. SemEval-2019 task 6: Identifying and categorizing offensive language in social media (OffensEval). In Proceedings of the 13th International Workshop on Semantic Evaluation. Association for Computational Linguistics, 2019. [3] Marcos Zampieri, Shervin Malmasi, Preslav Nakov, Sara Rosenthal, Noura Farra, and Ritesh Kumar. Predicting the Type and Target of Offensive Posts in Social Media. In Proceedings of NAACL, 2019. [4] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. In International Conference on Learning Representations, 2020. [5] John Pavlopoulos, Jeffrey Sorensen, Léo Laugier, and Ion Androutsopoulos. SemEval-2021 task 5: Toxic spans detection. In Proceedings of the 15th International Workshop on Semantic Evaluation (SemEval-2021). Association for Computational Linguistics, 2021. [6] 尼崎航成, 向井宏明, 松井くにお. SNS における不適切投稿の検知. 第 82 回全国大会公演論文集, 2020. [7] 松葉達明, 桝井文人, 井須尚紀. 学校非公式サイトにおける有害情報検出を目的とした極性判定モデルに関する研究. 言語処理学会第 17 回年次大会発表論文集, 2011. [8] 新田大征, 桝井文人, プタシンスキ・ミハウ, 木村泰知, ジェプカ・ラファウ, 荒木健治. カテゴリ別関連度最大化手法に基づく学校非公式サイトの有害書込み検出. 第 27 回人工知能学会全国大会発表論文集, 2013. [9] 安彦智史, 長谷川大, プタシンスキ・ミハウ, 中村健二, 佐久田博司. Id 交換掲示板における書きこみの隠語表記摇れを考慮した有害性評価. 情報システム学会誌, pp. 41-58, 2018. [10] 三宅剛史, 松本和幸, 吉田稔, 北研二. 分散表現を用いた有害表現判別に基づく炎上予測. 人工知能学会第二種研究会資料, 2017. [11] 大西真輝, 澤井裕一郎, 駒井雅之, 酒井一樹, 進藤裕之. ツイート炎上抑制のための包括的システムの構築. 人工知能学会全国大会論文集, 2015. [12] 畠山鈴生, 栘井文人, プタシンスキ・ミハウ, 山本和英. 有害表現抽出に対する種単語の影響に関する一考察. 人工知能学会全国大会論文集, 2016. [13] 工藤拓, 山本薫, 松本裕治. Conditional random fields を用いた日本語形態素解析. 情報処理学会研究報告. NL, 自然言語処理研究会報告, 2004. [14] Wanxiang Che, Yijia Liu, Yuxuan Wang, Bo Zheng, and Ting Liu. Towards better UD parsing: Deep contextualized word embeddings, ensemble, and treebank concatenation. In Proceedings of the CoNLL 2018 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies. Association for Computational Linguistics, 2018. [15] John D. Lafferty, Andrew McCallum, and Fernando C. N. Pereira. Conditional random fields: Probabilistic models for segmenting and labeling sequence data. In Proceedings of the Eighteenth International Conference on Machine Learning. Morgan Kaufmann Publishers Inc., 2001.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C1-1.pdf
# 旅行代理店での対話における回答方法を基準とした質問分類 柳谷百音 ${ }^{1}$ 但馬康宏 ${ }^{2}$ ${ }^{1}$ 岡山県立大学大学大学院 情報系工学研究科 ${ }^{2}$ 岡山県立大学 情報システム工学科 ${ }^{1}$ sk621047@cse. oka-pu. ac. jp ## 概要 本研究では旅行代理店での案内役として扱われる対話ロボットに着目した。このロボットはユーザからの多数の質問に回答しなければならない. ユーザが満足する回答を示すためには質問の意図を適切に把握し,それに応じて回答手法を変えることが有効であると考え, 旅行代理店の対話における回答方法を基準とした質問分類の提案およびその分類を行う手法の検討を目的としている。質問の分類として,情報提示,ロコミ,意見,おすすめ,最新情報の 5 種類の提案を行い, 分類手法として単語ベクトルを特徼量としたサポートベクターマシンを実装し, 分類精度の比較実験を行った. ## 1 研究目的 - 背景 近年,様々なロボットが開発されていく中,ユー ザと対話し,情報や面白さを提供することを目的とした対話ロボットの研究も進められている[1][2][3]. その中には, 店内で商品の案内をするロボットや,駅の窓口で切符の買い方を案内するロボットなどユ一ザの目的に沿った様々な対話ロボットが存在する。 本研究では, 旅行代理店などのカウンター越しに来店したお客様に対して商品の販売やサービスの提供を行う,カウンターセールスで扱う対話ロボットに着目した。これらの対話ロボットは, お客様であるユーザと対話し, ユーザからの多数の質問に答えなければならない。ユーザがする質問は商品の情報を聞きたい質問や,おすすめを尋ねる質問,相手の意見を聞きたい質問などが混在している。ユーザの対話の満足度向上には情報の正確性のみが重要ではなく, 質問の意図を把握し, ユーザに寄り添った回答をすることが求められる.例えば,「東京駅には様々なお店があって楽しいですよね?」という質問の場合, 質問者は「はい, 東京駅には何店舗のお店があります」といった回答を望んでいるのではなく,「はい,私もよくランチをして楽しんでいます。」 のような返答が望ましい。このように回答に期待することは質問によって異なる。 そこで質問を,回答方法を基準に分類し,その分類に応じた適切な回答方法で答えを提供することによって,よりユーザの満足度が高い対話が実現できると考えた. 本研究では最初の段階として,旅行代理店での対話における回答方法を基準とした質問分類の提案および,その分類を行うための機械学習を用いた手法の検討を目的とする。 ## 2 関連研究 Q\&A サイトにおける質問と回答の分類に関する研究として栗山らの研究[4]がある. この研究では, Yahoo!知恵袋において質問者の目的や意図がどのように質問文に影響を与えるのかを調べるための最初の段階として,質問のタイプについての分析を行った. 著者らは質問を手作業で分析し,Q\&A サイトに見られる質問を大きく分けて情報検索型と社会調查型, 非質問型の 3 種類, さらにそれぞれのタイプにおいて詳細に分類し計 13 種類の質問のタイプを提案している。この分類を行うために,田中ら[5]や大森ら[6]の研究では機械学習や特徵表現を用いた手法を提案している. 質問者の期待に基づく質問分類として渡邊らの研究[7][8]がある.この研究では $\mathrm{QA}$ コミュニティにおいて回答者の質問の選択を容易にすることを目的とした質問タイプの分類方法について述べられている.質問タイプとして事実,根拠,経験,提案,意見へ分類し,その分類を行うためのSVM を用いた手法を提案している. SVM の入力に用いる素性として質問文から決められた品詞の組み合わせの単語ベクトルを使用した場合と,人手で各カテゴリにおいて選択語を決め素性とした場合において精度の比較を行った結果,選択語を素性とした場合のほうが単語べクトルを素性とした場合よりも $\mathrm{F}$ 值が 2 倍良好であった. ## 3 質問の分類 本研究において質問は質問者を満足させるための回答方法を基準に 5 種類への分類を提案する. 質問の定義について表 1 に示し, それぞれの分類について説明する。 ## 表 1 : 提案する質問のカテゴリと定義 「情報提示」は客観的な回答が求められ, 回答者による差はない質問である.このカテゴリの質問の場合には,質問者は知識や情報量が少ない人と考えられ, 回答方法としてはインターネットの情報などを分かりやすく提示するのがよいと考えられる. 「口コミ」は回答者によって答えが異なる質問で,質問者は経験について知りたいことが多い. そのため, 回答手法としてはロコミサイトなどからの引用が効果的であると考えられ, 数が多い, 信頼性が高い情報が求められる. 「意見」も回答者によって答えが異なる質問であるが, 「口コミ」とは異なり, 経験を含まない質問も存在する. また, 一人の回答者であっても, 時期によって答えが異なる特徴がある. 「おすすめ」は質問者がおすすめを尋ねる質問で, レコメンドシステムのように質問者に応じた回答が求められる. そのため, 「おすすめ」の質問の場合には,すぐに回答するのではなく,質問者の好みや条件を絞るような質問をすることが効果的であると考える。 「最新情報」は旅行代理店特有の時期に応じた質問が多いことに着目しカテゴリとして提案する. 旅行や観光における質問には, その時によって回答が異なることや,インターネットよりも最新の情報を求める場合が多い. そこでこのカテゴリの質問に対しては, SNS などの最新情報を得られるツールでの回答や, 現地の人が回答することによってより質問者の求める新鮮な情報が得られると考えた. 各カテゴリにおける旅行代理店で考えられる質問例を表 2 に示す. 表 2 : 各カテゴリにおける質問文の例 検索型に分類される質問を一つのカテゴリとして設定したことである。これは,「事実」,「根拠」のどちらのカテゴリにおいても回答方法はウェブサイトの記事からの引用など同じであると判断したため,今回の回答方法を基準とした分類では一つのカテゴリとした. また, 今回は関連研究にはなかった「最新情報」のカテゴリを追加した. このカテゴリの追加により,質問を時間軸で分類することが可能となり, リアルタイムな情報が求められる旅行代理店では有効でありユーザの満足度が向上すると考えられる. ## 4 分類手法 ## 4. 1 使用したデータ 次に,本研究の分類を行うための機械学習を用いた手法について説明する。 はじめに,機械学習に用いたデータについて説明する. 旅行代理店のカウンターで考えられる質問としては観光地に関する質問,旅行に関する質問が考えられる.そこで質問文のデータとしては Yahoo!知恵袋の「地域, 旅行, おでかけ>観光地, 行楽地」 カテゴリ内の 2020 年 12 月 1 日から 2020 年 12 月 13 日までに投稿された回答済みの質問 501 個を用意した. 旅行代理店のカウンターでは対話が行われているため,ユーザは質問を短い文で尋ねると考えられる. そこで,用意した各質問の中心となる質問部分を 1 文,または 2 文を抜粋し,今回の質問文のデー タとした。 そして各質問文に対して形態素解析器 $\mathrm{MeCab}$ を用いて形態素解析を行い, 質問文を形態素ごとに分解し, 品詞を付与した. 各カテゴリの質問数および合計を表 3 に示す. 学習データとして各力テゴリの質問の 7 割を使用した。 表 3 : 各カテゴリにおける質問数 ## 4. 2 単語のベクトル化 形態素ごとに分割された質問文に対して単語べクトルの付与を行った. 今回,ベクトル化には tf-idf ベクトルと Word2Vec[9]を用いた. それぞれのべクトル化について説明する. tf-idf ベクトルとはいくつかの文書があった場合,各文書におけるキーワードの重要性を示すための手法である.今回は各カテゴリの質問文全文をひとつの文書としてとらえ, 各カテゴリにおける単語の tfidf ベクトルの計算を行った. tf(term frequency)は単語の出現頻度で, 各文書においてその単語がどれほど出現したかを表し, ある単語 $i$ 文書 $j$ 内での出現回数を $n_{i j}$, 文書 $j$ のずての単語の出現回数の和を $\sum_{k} n_{k j}$ とすると, 式(1)で求められる. $ t f(i, j)=\frac{n_{i j}}{\sum_{k} n_{k j}} $ 次に idf(inverse document frequency)は逆文書頻度で,ある単語が出現する文書頻度の逆数を表す.この値は複数の文書にわたって多く出現する単語は値が小さくなるのに対して一つの文書のみに何回も出現する単語は値が大きくなる. 全文書数を $D$, 単語 $i$ が出現する文書数を $d f(i)$ としたときの $\operatorname{idf}$ は式(2)によって求められる. $ i d f(i)=\log \frac{D}{d f(i)+1} $ $\mathrm{tf}$ 値と idf 値を利用して文書 $j$ における単語 $i の \mathrm{tf}$ idf 値は式(3)で求められる。 $ t f-i d f_{i, j}=t f(i, j) \times i d f(i) $ この值を各カテゴリにおけるそれぞれの単語において求め単語ベクトルとして使用した. 今回はベクトル化する単語の品詞を名詞, 名詞(数, 固有を除く), 自立語, 全品詞の 4 パターン作成し, 精度の比較を行った. 次に, Word2Vec について説明する. Word2 Vec とは文章中の単語を数値ベクトルに変換 してその意味を把握するものである. tf-idfベクトルでは学習データに使用されている単語のみのベクトル化になるため, 未知語がテストデータに含まれた場合に対処できない,そのため精度が下がることがある.そこで膨大なテキストデータを学習させた Word2Vec を使用することで未知語にも対応するようにした.Word2Vec の訓練済みベクトルとして日本語 Wikipedia エンティティベクトルiを使用した. またベクトル化する単語の品詞は名詞十動詞を使用した場合と自立語を使用した場合の 2 パターンを作成して精度の比較を行った。 ## 4. 3 使用した分類器 次に質問文の単語ベクトルを入力とした分類器を作成し, 質問文の分類を行った. 本研究の分類にはサポートベクターマシンを使用した。サポートベクターマシンは通常 2 值分類を行う分類器である. そこで今回は各カテゴリに属するか否かの分類を行う実験 1 ,およびサポートベクターマシンを多クラス分類に応用した実験 2 を行った. サポートベクター マシンを多クラス分類に適応した仕組みについて説明する. 本研究ではサポートベクターマシンのツー ルとして scikit-learn ライブラリの $\mathrm{SVC}$ (Support Vector Classification)使用した。 決定関数は ovr(one versus the rest)とし,ある特定のクラスに入るか,他のどれかのクラスに入るかの 2 值分類をとく分類器を作成した。そして多クラス分類に適応させるために, 分類の確信度のスコアとしてdecision_function の値を使用した.decision_function の値は入力がそのカテゴリにおける信頼度をレンジなしで示すものであり,值が大きいほどそのクラスに対する確信度が高い. そこで入力に対して最も大きい値を出力したクラスをその質問文のカテゴリとして多クラス分類を行った. ## 5 実験結果・考察 提案手法を用いて素性別,カテゴリ別の分類精度について実験した. 使用したデータは Yahoo!知恵袋の「地域, 旅行, おでかけ>観光地, 行楽地」カテゴリ内の 2020 年 12 月 1 日から 2020 年 12 月 13 日までに投稿された回答済みの質問 501 個で,7 割を学習データ, 3 割をテストデータとし, 3 回の交差検証を行った。 ^{i}$ https://github.com/singletongue/WikiEntVec } 表 4 : 実験 1 における各カテゴリ素性別の正解率 ## 5. 1 実験 1 各カテゴリに属するか否かの分類を行った実験結果について,各カテゴリの正解率を表 4 に示す. べ一スラインは寸べての質問を情報提示に分類した場合の正解率である. 正解率における素性別の結果については, tf-idf ベクトルを使用した場合において素性による差がほぼ見られなかった。情報提示,おすすめ,最新情報では名詞(数, 固有を除く), ロコミと意見においては全品詞の正解率が最も高かった. Word2Vec では名詞十動詞を素性とした場合が良好であるが tf-idf ベクトルとほぼ同じ正解率であった. カテゴリ別における結果についてはどのカテゴリにおいても 0.6 を上回る正解率の素性が見られた。おすすめ, 最新情報の值が高く,情報提示が最も低い正解率であつた。交差検証において分散が最も小さいのは Word2 Vec の名詞+動詞を素性とした場合で平均値も最も高かった. カテゴリ別の比較ではおすすめが他と比べて圧倒的に高いが素性によるばらつきは見られた。ロコミ,意見はどの素性においても低い結果であった. ## 5. 2 実験 2 次にサポートベクターマシンを用いて多クラス分類を行った。その結果を表 5 に示す. 表 5 は各カテゴリの再現率,および全体の正解率を示している. 実験 2 のおいては名詞, 名詞 2 (数,固有を除いた名詞),自立語,全品詞を素性とした tf-idfベクトルと自立語を素性とした Word2Vecを単語ベクトルとして使用した.表 5 : 実験 2 における再現率,全体の正解率 再現率の結果について素性別にみると, 情報提示, ロコミでは Word2Vec を使用した場合,意見,おすすめでは自立語,最新情報では名詞を用いた場合の再現率が最も高くなった。しかし,平均を取ると素性による差はほぼ見られない。また,カテゴリ別に比較すると, おすすめの再現率が 0.8 と圧倒的に高く, 口コミ,意見は 0.3 前後と低い。全体の正解率においては素性別の差はほぼ見られず, 0.4 前後であった. ## 6 まとめ 本研究では旅行代理店での対話における回答方法を基準とした分類の提案,および機械学習を用いてその分類を行う手法の検討を目的とした. 回答方法を基準とした分類として,「情報提示」「ロコミ」 「意見」「おすすめ」「最新情報」の 5 種類への分類を提案した. 分類手法としては tf-idf ベクトルや Word2Vec の単語ベクトルを特徴量とした SVM の実装を行い,素性別やカテゴリ別における分類精度を比較した。実験の結果素性による差は大きくはないものの, 名詞が分類を左右する特徴になっていることが分かった. 今後の課題として分類器にサポー トベクターマシン以外を使用すること,精度を高めるための素性の探究が挙げられる. ## 参考文献 [1] 吉田裕介, 萩原将文, “複数の言語資源を用いたユーモアを含む対話システム” , 日本知能情報ファジィ学会誌, vol.26, No.2, pp.627-636, 2014. [2] 藤倉将平, 小川義人, 菊池英明, “非タスク指向対話システムにおけるユーモア応答生成手法” , 人工知能学会全国大会論文集,pp.1-4,2015. [3] 赤崎智, 鍜治伸裕, “知的対話アシスタントにおける雑談を目的としたユーザ発話の検出” , 情報処理学会研究報告, vol.2017-NL-231, No. 18 pp.1-9, 2017. [4] 栗山和子, 神門典子, “Q\&A サイトにおける質問と回答の分析”, 情報処理学会研究報告, vol2019F1-95, No. 19 pp.1-8, 2009. [5] 田中友二, 望月崇由, 八木貴史, 徳永幸生, 杉山精, “Q\&A サイトにおける情報検索型質問の自動抽出”, 第 74 回全国大会講演論文集, pp.529-530, 2012. [6] 大森勇輔, 森田和宏, 泓田正雄, 青江順一, “疑似訓練データを用いた $\mathrm{Q} \& \mathrm{~A}$ サイトの質問分類”,言語処理学会第 21 回年次大会発表論文集, pp.489492, 2015 . [7] 渡邊直人, 島田諭, 関洋平, 神門典子, 佐藤哲司, “QA コミュニティにおける質問者の期待に基づく質問分類に関する一検討, ” , DEIM Forum 2011,B51,2011 . [8] 渡邊直人, 島田諭, 関洋平, 神門典子, 佐藤哲司, “コミュニティ QAにおける質問の多面的評価法の検討” 情報知識学会誌, vol.21, No. 2 pp.163-168, 2011. [9] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean, "Efficient Estimation of Word Representations in Vector Space” ICLR Workshop, 2013.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C1-2.pdf
# クイズAI システムを用いた ヒューマンロボットインタラクションのための検討 坪倉和哉 1 久保谷空史 ${ }^{1}$ 小林邦和 ${ }^{1}$ 1 愛知県立大学大学院情報科学研究科 \{im212008,im211004\}@cis.aichi-pu.ac.jp, kobayashi@ist.aichi-pu.ac.jp ## 概要 本研究では,「AI 王〜クイズ $\mathrm{AI}$ 日本一決定戦〜」 のシステムをヒューマンロボットインタラクションに適用するための検討を行った。具体的には,クイズ問題に対して, クイズ難易度と早押し可能タイミングのアノテーションを行い,分析を行った. クイズ難易度の推定では $65 \%$ の正解率を得た。また,平均的にクイズの問題文の $3 / 4$ が読み上げられた時点で早押し可能であることが明らかになった。また, ロボットにクイズシステムの実装を行うための検討を行った。 ## 1 はじめに 近年,スマートスピーカやスマートフォンのバー チャルアシスタントなどの質問応答システムが身近なものとなっている. そのため, 質問応答に関する研究が行われている. 日本語を対象とした質問応答の研究として「AI 王〜クイズ $\mathrm{AI}$ 日本一決定戦 11) (以下,「AI王」と呼ぶ)が挙げられる。AI王は, 日本語を対象とした質問応答研究を促進させることを目的とし, クイズ問題を題材としたコンペティションである. AI 王では,クイズの問題文からクイズの解答を返すシステムの性能を競う. コンペティションでは,クイズ問題の全文を入力としているため, クイズ番組で見られるような,いわゆる「早押し」 に関する問題には対応していない。また, システムがクイズを解答するだけではなく, クイズを通した人とのインタラクションも考えられる。例えば,エンターテインメント分野や教育分野, 介護分野などにおいて,ロボットやバーチャルエージェントとクイズを行うことで,ユーザを楽しませたり,教育的な効果をもたらすことができると考える. このようなインタラクションを行うためには, 1) https://sites.google.com/view/project-aio/ competition2 クイズを出題したり,解いたりするだけではなく, ユーザの知識レベルに合わせて出題するクイズの難易度を変更したり, 難易度に応じて「この問題は難しいね」などと発話することでインタラクションの質を高めることが可能であると考える. そこで本研究では, AI 王のデータセットとベー スラインモデルを用いて,コンペティションでは対象とされていない,人と一緒にクイズを行うロボットシステムを構築するための検討を行う,具体的には, 以下の 3 点について検討を行った。 ・クイズの難易度推定 ・早押し可能なタイミングの分析 ・AI 王のベースラインモデルをロボットに適用し,人とロボットが一緒にクイズを行うシステ么の検討 2 章では $\mathrm{AI}$ 王のデータセットの一部に対して行った難易度と早押し可能タイミングのアノテーションについて述べる。 3 章では,アノテーションデータを分析した結果をもとに考察する. 4 章では $\mathrm{AI}$ 王のベースラインモデルをコミュニケーションロボッ卜に適用するための検討を行う. 最後に 5 章で本稿をまとめる。 ## 2 クイズデータのアノテーション 本研究では, クイズ問題の分析を行うため, AI 王第 2 回コンペティションで公開されている「第 2 回コンペティション開発データ $\mathrm{v} 1.0 」 を$ 用いる. このデータセットに収録されている 1,000 問のクイズ問題からランダムで抽出した 100 問に対してアノテー ションを行った。アノテータは以下の 2 つのラベルのアノテーションを行った。なお,アノテータには問題の ID (qid), 問題文 (question), 正解のリスト (answers)が与えられる. - 難易度(159整数値) ・早押し可能タイミング 難易度は, クイズ問題の難しさを表す指標である. クイズの問題文と正解から, 問題の難易度を 1 (易しい) 〜 (難しい)の整数值でラベリングを行う. 早押し可能タイミングは,仮にクイズの問題文を読み上げられた場合, 読み上げ途中のどの時点で答えを推測可能かを表す,AI 王ではクイズ問題の全文が入力として与えられるが,クイズ番組のようにクイズ問題を読み上げるようなインタラクションを考えた場合には, 問題の読み上げ途中で解答することも可能となる. アノテータがクイズ問題の答えを知らない場合, 早押し可能タイミングのアノテー ションは困難であるから,アノテータにはクイズの問題とクイズの答えを提示し,クイズの答えを知識として知っているとした場合, 早押し解答可能だと思う時点にラベルを付与してもらった. アノテータは, 理系大学院生(情報系専攻) 3 名 (男性)である. アノテータの属性を理系大学院生 (情報系専攻, 男性)としたのは, 属性の違いによる難易度の感じ方に対する影響を抑えるためである. クイズを題材として人とロボットがインタラクションを行う際には, ユーザの属性を考慮した出題問題の選択などにより, インタラクションの質を高めることが可能になると考えるが,ユーザの属性とクイズ問題の難易度の感じ方の関係性については本研究では対象とせず,今後の検討事項としたい. ## 3 分析と考察 本章では前章のアノテーション結果の分析と考察を行う。 ## 3.1 クイズ難易度 人とロボットがクイズを題材としてインタラクションを行うことを考える上で, クイズの難易度を推定することはインタラクションの幅を広げることができる.例えば,インタラクション相手が子どもであれば,易しい問題を提示し,クイズが得意なユーザであれば難しい問題を提示するといったことが可能となる. そのため, クイズ難易度の推定を試みる。 ## 3.1.1 アノテータによる難易度の違い 3 名のアノテータによるクイズ難易度ラベルのアノテーションの結果を表 1 に示す. 3 名のアノテー タ間で全アノテータが同一ラベルを付与した割合は表 1 クイズ難易度アノテーションの結果 $22 \%$ ,少なくとも 2 名が同一ラベルを付与した割合は 75\%であった. クイズ問題每に 3 名のアノテータの難易度ラベルの平均值を求め, その値をクイズの難易度とした. 全クイズの難易度の平均値を求めた結果,平均クイズ難易度は 3.0 となった。 ## 3.1.2 クイズ問題から特徴量の抽出 クイズの問題文からクイズ難易度との相関の分析 (3.1.3)や難易度推定(3.1.4)に用いるための特徴量の抽出を行う. クイズ問題の難易度推定のために, クイズの問題文から以下の特徴量を抽出した。 ・クイズの問題文の長さ - 問題文中の各品詞の出現数 問題文中の各品詞の出現数は,オープンソースの日本語自然言語処理ライブラリである「GiNZA $\rfloor^{2)}$ を用いて,クイズの問題文を形態素解析し,品詞ごとに出現頻度をカウントした. なお, 品詞のタグセットとして, 日本語の UD 品詞タグで定義されている 17 種の品詞タグを用いた [1]. ## 3.1.3 特徴量と難易度の相関の分析 クイズの難易度と 3.1.2 節で抽出した特徴量との相関の分析を行う. クイズの難易度は 3 名によるアノテーションの平均値を採用する. クイズの難易度と前節で抽出した特徴量との間に弱い相関( $|r|>0.20 )$ のある特徴量と相関係数を表 2 に示す. 表より, 3 つの特徵量においてクイズ難易度との弱い相関がみられた. 問題文に登場する固有名詞を知っていないと, クイズに解答が困難であることから, 固有名詞とクイズの難易度との間に弱い相関があったと考えられる。設置詞は, 格助詞・副助詞・係助詞である. 語と語の意味関係を示したり,意味を添えたりするため,クイズ問題文中に設置詞の数が多くなると, 問題文の複雑度が上がり,難易度も高まると考えられる.同様に,問題文が長くなるほど問題文の複雑度が上がるため, 難易度も上がると考えられる。  表 3 ## 3.1.4クイズ難易度の推定 3.1.2 節で抽出した特徴量を用いてクイズの難易度の推定を試みる. 17 個の品詞タグセットうち,「等位接続詞」と「その他」はデータセット中に出現しなかったため,「等位接続詞」と「その他」を除く 15 個の品詞の出現頻度とクイズ問題文の長さを合わせた,合計 16 個の特徵量をクイズの難易度の推定に用いる. クイズの難易度は 1~5 の範囲の值であるが,ここでは単純化のため, 3 名のアノテーションの平均值が 3 以下のクイズを「易しい」,3より大きいクイズを「難しい」とし,難易度(易しい/難しい)の 2 クラス分類問題として学習・評価を行う. 難易度推定には中間層 2 層からなる NN(Neural Network)を用いる。100 問のクイズ問題のうち,80 問を学習に, 残りの 20 問を評価に用いる. 各特徴量の標準化を行い, $\mathrm{NN}$ の入力とした. 学習は $10 \mathrm{epoch}$行った. なお,NN のハイパーパラメータ(中間層のユニット数, ドロップアウト率, 中間層の活性化関数, 最適化アルゴリズム)は,オープンソースのハイパーパラメータ自動最適化フレームワークである Optuna[2] を用いて最適化を行った。最適化したハイパーパラメータを表 3 に示す. 評価の結果, 難易度の 2 クラス分類の正解率は $65 \%$ と低い精度となった。推定に用いた特徴量は品詞の出現頻度と問題文の長さを合わせた 16 個の特徵量であり, クイズの難易度推定には十分な情報が含まれていないことが確認された。 ## 3.2 早押し可能タイミング クイズ番組のようにクイズ問題が読み上げられ, クイズに解答するインタラクションを考えた場合, いわゆる「早押し」が可能となるため, 早押し可能 なタイミングの分析を行った。 3 名のアノテータがクイズ問題文中に早押し可能タイミングの付与を行った。まず, 3 名のアノテー タによる問題文の長さに対する早押し可能位置の平均を求めた. クイズの問題文の長さを $100 \%$ とした場合,早押し可能位置の平均は $74.7 \%$ であり, 問題文の $3 / 4$ が読み上げられた時点でおおよそ半数の問題が回答可能であることが示唆された。 クイズの問題文の長さに対する早押し可能位置と難易度との相関係数を求めた結果,0.137 であった。 そのため, 早押し可能タイミングはクイズの難易度には依存しないことが示唆された。 ## 4 ロボットへの実装 本章では,人とロボットが一緒にクイズを行うインタラクションの実装を検討する。人とロボットが一緒にクイズを行うことを考えた場合,クイズの司会者と解答者の 2 つの役割がある。人とロボットにこの役割をどう割り当てるかによって,いくつかのインタラクションの形式が考えられるが,ここでは,人が司会者としてクイズ問題を出題し,人とロボットがクイズの解答を行うことを考える.本研究では, 対話ロボットとして, ソフトバンクロボティスク社の「NAO」を用いる. ## 4.1 クイズインタラクションの流れ クイズインタラクションの流れを図 1 に示す.まず,司会者がクイズ問題を読み上げる.解答者(ロボット)は司会者が読み上げたクイズ問題を音声認識する。音声認識には Google Cloud Speech-to-Text ${ }^{3}$ ) を用いる.音声認識結果は,クイズ解答推定システムに送られる。ここでは,クイズ解答推定システムとして,AI 王のベースラインシステムを用いる。このベースラインシステムは,文献 [3] をべースに AI 王コンペティションで扱う日本語クイズ問題で利用できるように改修されたシステムである. 続いて, 解答者(ロボット)はクイズ解答推定システムにより予測されたクイズ解答を読み上げる.読み上げられた解答は司会者により正誤判定が行われ,「正解です」や「不正解です」などとフィードバックする.ロボットは司会者の正誤判定を音声認識し,正解の場合は喜びを,不正解の場合は悲しみを表出する発話や動きを行うことで,正誤判定に対してフィードバックする.その後は,クイズの出題 3) https://cloud.google.com/speech-to-text 図 1 クイズインタラクションの流れ 回数の上限まで上述の流れを繰り返す. 図 1 では考慮されていないが, 通常クイズの解答者は複数である. そのため, クイズの解答段階では,クイズの解答権の付与を行う必要がある. 本システムでは, クイズ解答前にロボットの名前 (NAO) を呼ぶことで解答権の付与を行う。 ## 5 おわりに 本研究では,「AI 王〜クイズ $\mathrm{AI}$ 日本一決定戦~」 のシステムをヒューマンロボットインタラクションに適用するための検討を行った. 具体的には,クイズ問題に対して, クイズ難易度と早押し可能タイミングのアノテーションを行い,分析を行った。クイズ難易度の推定では $65 \%$ の正解率を得た. また, 平均的にクイズの問題文の $3 / 4$ が読み上げられた時点で早押し可能であることが明らかになった。また, ロボットにクイズシステムを実装するための検討を行った。 今後の課題として, 本研究でクイズ難易度の推定に用いた特徵量 16 個では十分に難易度を推定できないことが明らかとなったため, 単語や文章の意味表現ベクトルを用いるなど,特徴量を追加し,クイズ難易度推定の精度向上を目指す。また,多様な属性のアノテータにクイズ難易度をアノテーションしてもらうことで, ユーザの属性とクイズ難易度の関係性を分析し,ユーザの属性を考慮した出題問題の選択を可能にすることを目指す. 本研究では早押し可能タイミングの推定は行っていないため, 今後データを増やして早押し可能タイミングの推定を行う. さらに, 本研究ではロボットへの実装の検討を行ったが,実装と人を含めたインタラクション実験は行っていないため, 今後人とロボットが一緒にクイズを解く実験を行い,インタラクションの評価をする予定である. ## 参考文献 [1] 浅原正幸, 金山博, 宮尾祐介, 田中貴秋, 大村舞, 村脇有吾, 松本裕治. Universal dependencies 日本語コーパス.自然言語処理, Vol. 26, No. 1, pp. 3-36, 2019. [2] Takuya Akiba, Shotaro Sano, Toshihiko Yanase, Takeru Ohta, and Masanori Koyama. Optuna: A next-generation hyperparameter optimization framework. CoRR, Vol. abs/1907.10902, , 2019. [3] Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, and Wentau Yih. Dense passage retrieval for open-domain question answering. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6769-6781, Online, November 2020. Association for Computational Linguistics.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C1-3.pdf
# テキストと視覚的に表現された情報の融合理解に基づく インフォグラフィック質問応答 田中涼太 ${ }^{1}$ 西田京介 ${ }^{1}$ 許俊杰 ${ }^{2 *}$ 西岡秀一 ${ }^{1}$ 1 日本電信電話株式会社 NTT 人間情報研究所 2 筑波大学大学院 人間総合科学学術院 \{ryouta.tanaka.rg, kyosuke.nishida.rx, shuichi.nishioka.gd\}@hco.ntt.co.jp s2021705@s.tsukuba.ac.jp ## 概要 情報・データ・知識を視覚的纪表現した文書画像であるインフォグラフィックを読み解いて,質問に対して回答を行うモデル IG-BERTを提案する. 提案モデルではテキストと視覚物体の配置関係の学習および算術演算理解のためのデータ拡張を行う. IG-BERT は, ICDAR 2021 Competition の InfographicVQA タスクにおいて,事前学習データ量を従来モデルの $1 / 22$ に抑えつつ同程度のサイズのモデルの中で最も高い性能を達成し 2 位に入賞した. 本研究は,実世界に多数存在する視覚的に表現された文書を知識源として質問応答を行う知的エー ジェントの発展に貢献できる。 ## 1 はじめに 質問に対して文書を読み解いて人間の様に回答を行う質問応答技術の実現は, AI 分野における重要な課題の一つである。従来はテキストのみで記述された文書に関する質問応答 $[1,2]$ が活発に取り組まれてきた。一方で,従来研究では実サービスで扱われる HTML や PDF 形式の文書が持つテキスト情報しか理解できないことから,近年では文書を画像として扱い質問応答を行う文書画像質問応答 $[3,4]$ が注目を集めている。本研究はその中でも情報・デー タ・知識を視覚的に表現した文書画像を扱うインフォグラフィック質問応答 [5] に取り組む。本タスクは図 1 で示す様に,テキストに加えてアイコンや図表といった視覚情報の理解,テキストと視覚情報を併せた配置関係の理解,算術演算など様々な能力を必要とする。これらの能力は,オフィス作業や日常生活を支援する AI の発展に向けて必要不可欠である。一方で,文書画像理解を目指した従来モデル  Q: How many females are affected by diabetes? A: $3.6 \%$ Q: What total percent of B2B and B2C markets use Google+? A: $79 \%(40 \%+39 \%)$図 1 InfographicVQA [5] のサンプル例. 左の例: 画像中のテキストを抽出して回答する. 右の例: 画像中のテキスト (40\%,39\%)を用いて,算術演算を行い回答する. の多く $[4,6,7,8,9]$ はテキストの配置の理解に焦点が置かれており,本タスクへの適用は難しい。 本研究では,新たなインフォグラフィック質問応答モデル IG-BERTを提案する。文書画像中のテキストと視覚物体との配置関係を学習する新たなタスク SRP (Spatial Relationship Prediction) と,演算の過程を生成させ算術演算の理解を深めることを可能とする新たなデータ拡張 ADA (Arithmetic operation Data Augmentation) を行う点が新規の貢献である. IG-BERT は,ICDAR 2021 Competition の InfographicVQA [5] において,様々な文書理解タスク $[10,11,12]$ で最高スコアを達成した LayoutLMv2 [8] の事前学習データ量を 1/22 に抑えつつ,同程度のサイズのモデルの中で最も高い性能を達成して 18 チーム 337 投稿中 2 位に入賞した。 ## 2 提案モデル インフォグラフィック質問応答は,質問 $w^{\mathrm{q}}$ および文書画像 $I$ が与えられ回答系列 $w^{\text {out }}$ を出力する夕スクである。回答は,画像中のテキストから回答箇所を抜き出す回答(図 1 左)と数値の演算を必要とする回答(図 1 右)の2つのタイプに大別できる. 図 2 左図: IG-BERT のアーキテクチャと損失関数 (SRP, MLM). 右図: 自己注意計算時に用いる自己注意マスク $M$. IG-BERT は図 2 に示すように,画像からテキス卜を抽出する OCR,画像から物体特徵を抽出する Faster-RCNN [13],抽出された特徴量を基に回答を生成するマルチモーダル Transformer [14] から成る. ## 2.1 入力埋め込み層 画像特徵 Visually29k [15] で事前学習を行った Faster-RCNN を用いて,文書画像 $I$ から固定個の物体を検出して特徴表現 $v_{i}^{\mathrm{obj}} \in \mathbb{R}^{2048}$ の系列を得る. テキスト特徵画像 $I$ から取得される物体ラベル系列 $w^{\mathrm{obj}}$ と OCR 単語系列 $w^{\mathrm{ocr}}$, 質問文 $w^{\mathrm{q}}$, 出力文 $w^{\text {out }}$ WordPiece [16] を用いてトークナイズする. 入力系列画像・テキスト特徵に基づくモデル入力系列を $x^{\text {token }}=\left([\mathrm{CLS}] v^{\mathrm{obj}}[\mathrm{SEP}] w^{\mathrm{obj}}[\mathrm{SEP}] w^{\mathrm{ocr}}\right.$ [SEP] $w^{\text {task }}$ とする。事前学習時の $w^{\text {task }}$ は $w^{\text {out }}$ (キャプション), Fine-tuning 時は $w^{\mathrm{q}} w^{\text {out }}(\mathrm{QA})$ である. レイアウト特徵 $k$ 番目のトークンの文書画像中における配置を理解するために, $x_{k}^{l o c}=$ $\left[x_{k}^{\min } / W_{\mathrm{im}}, y_{k}^{\mathrm{min}} / H_{\mathrm{im}}, x_{k}^{\max } / W_{\mathrm{im}}, y_{k}^{\max } / H_{\mathrm{im}}\right]$ を取得する. ここで $,\left(x_{k}^{\min }, y_{k}^{\min }\right),\left(x_{k}^{\max }, y_{k}^{\max }\right)$ はトークン (画像物体あるいは文字)を囲む矩形領域の左上および右下の座標, $W_{\mathrm{im}}, H_{\mathrm{im}}$ は画像の幅および高さを表す. マルチモーダル入力埋め込み入力系列中の $k$ 番目の埋め込み $e_{k} \in \mathbb{R}^{d_{k}}$ を画像・テキストの特徴およびそのレイアウトに基づき以下のように求める. $ e_{k}=\mathrm{LN}\left(e_{k}^{\mathrm{token}}+e_{k}^{\mathrm{seg}}+e_{k}^{\mathrm{pos}}+e_{k}^{\mathrm{loc}}\right), $ LN は Layer Normalization [17] を示す. $e^{\text {token } は , テ ~}$ キストトークン $w_{k}$ を $d$ 次元に埋め込み,画像(検出物体領域)トークン $v_{k}^{\mathrm{obj}}$ に対しては ReLUを適用後 1 層の FFNにて埋め込む. $e_{k}^{\text {seg }}$ は 2 種のモーダル, $e_{k}^{\mathrm{pos}}$ はトークン系列の絶対位置を表す埋め込みである. $e_{k}^{\mathrm{loc}}$ は, $x_{k}^{\mathrm{loc}}$ を 1 層の FFNに渡して埋め込む。 ## 2.2 マルチモーダル Transformer 入力埋め込み系列 $H^{0}=\left[e_{1}^{0}, \ldots, e_{U}^{0}\right] \in \mathbb{R}^{d \times U}$ を $L$ 層の Transformer に入力し, $H^{L}=\left[e_{1}^{L}, \ldots, e_{U}^{L}\right] \in \mathbb{R}^{d \times U}$ を獲得する. $l-1$ 層目の埋め込み系列 $H^{l-1}$ を用いると, $l$ 層目の自己注意 $A^{l}$ は以下で与えられる. $A^{l}=\operatorname{softmax}\left(\frac{Q K}{\sqrt{d}}+M\right) V, \quad M_{i j}= \begin{cases}0, & \text { allow to attend }, \\ -\infty, & \text { others }\end{cases}$ $ V=W_{V}^{l} H^{l-1}, Q=W_{Q}^{l} H^{l-1}, K=W_{K}^{l} H^{l-1}, $ ここで, $W_{Q}^{l}, W_{K}^{l}, W_{V}^{l} \in \mathbb{R}^{d \times d}$ は学習可能な重みである. $M \in \mathbb{R}^{U \times U}$ は図 2 の右図で示す様に,系列中で出力文 $w^{\text {out }}$ の left-to-right, 他部分は bidirectional となる prefix 付の causal masking [18] を行う。 ## 2.3 演算過程を考慮したデータ拡張 (ADA) 算術演算を含む質問応答を生成タスクとして解くにあたり,演算の過程をモデルに明示的に学習させる. 提案手法では,演算対象を $A$ と $B$ ,演算結果を $C$ とした時, $\ulcorner A+B=C\lrcorner,\ulcorner A-B=C\lrcorner,\ulcorner 100-A=C\lrcorner$ の 3 つのテンプレートを用意する。この時,演算結果 $C$ を出力するタスクは,演算対象(A,B)を抽出する項抽出タスクと, 演算子 $(+,-)$ を選択する演算子選択タスクのサブタスクに分割可能である. 具体的には,まず,文書画像から演算対象となる任意の二つの数値を抽出する. 次に,テンプレートに抽出した数値を代入し演算を行う.演算結果が正解データ $w^{\text {out }}$ と一致する場合, 回答の先頭に prompt トークン [NUM] を付与し,新たな回答として学習データに追加する. 推論時に [NUM] が出力系列の先頭に存在する場合,後処理として演算を実施した。 ## 2.4 学習タスク 提案モデルは事前学習と Fine-tuning の二段階の学習において,MLM およびSRP の損失を線形結合した $L=L_{\mathrm{MLM}}+\lambda_{\mathrm{SRP}} L_{\mathrm{SRP}}$ を最小化する. 事前学習時には $\lambda_{S R P}=0$, Fine-tuning には $\lambda_{S R P}=1$ とする. Masked Language Modeling (MLM) BERT [19] と同様に,入力系列のテキストトークン $w$ に対して, トークン系列の $15 \%$ をンダムに選択し, [MASK] トークンに置き換える. エンコーダの最終層の出力を用いて,置き換えられたトークンを復元する. $L_{\mathrm{MLM}}$ は, 生成テキストから計算される損失である. Spatial Relationship Prediction (SRP) 画像物体と OCR の配置関係を学習する。まず,画像物体系列 $v^{\text {obj }}$ と OCR 系列 $w^{\text {ocr }}$ に対応するエンコーダの最終出力からぞれぞれ 1 つずつランダムに選択し, $e^{\mathrm{obj}}$ 関係を基にクラス分類 (12 クラス)を行う. $ P^{\mathrm{srp}}=\operatorname{softmax}\left(W^{\mathrm{srp}}\left[e^{\mathrm{obj}} ; e^{\mathrm{ocr}}\right]\right), $ $W^{\mathrm{srp}} \in \mathbb{R}^{12 \times 2 d}$ は学習可能な重み, [;] はべクトル連結を表す。 $L_{\mathrm{SRP}}$ は正解クラスと $P^{\mathrm{srp}}$ との交差エントロピー損失である. 文書画像への SRP の適用,単語・視覚物体の位置関係学習は本研究が初である. ## 3 評価実験 事前学習データインフォグラフィックを扱うウェブページ1)から,画像-キャプションペアを 505,868 ペア収集した. HTML タグの alt もしくは titleを用いて,キャプションを抽出した. フィルタリングとして,3 単語未満のキャプションの削除と,評価データと同様の画像を URLを基に削除した。 評価データ InfographicVQA [5]を用いた. 学習/開発/テストデータの質問数は $23,946 / 2,801 / 3,288$ であり,画像数は $4,406 / 500 / 579$ である. テストデータでの評価はリーダーボード2) 上で実施した. 実験設定事前学習と Fine-tuning の両方でバッチサイズ 64 とし 30 エポック学習した. Adam [23]を用いて最適化し学習率は $3 e-5$ とした. $v^{\mathrm{obj}}, w^{\mathrm{obj}}$, $w^{\text {ocr }} , w^{\text {task }}$ の最大長を $36 , 20 , 430 , 40$ とした. 開発,テストデータにおける評価は BERT-\{base,large\} を事前学習時の重みの初期値とした。また, large は base の実験を基にハイパーパラメータを設定した. OCR と Faster-RCNN の詳細は付録に示す. 1) https://infographicplaza.com 2) https://rrc.cvc.uab.es/?ch=17\&com=evaluation評価指標ICDAR 2021 Competition で採用された ANLS [24] (予測文と正解文集合との平均編集距離) を用いる。また,算術演算を必要とする例に絞った (開発データの $17.4 \%$ )際の ANLS を ANUM と呼ぶ. 比較手法ベースラインとして, IG-BERT と同じモーダル情報を入力可能な M4C [21] と,事前学習の効果を測るため BERT と LayoutLM [6] を用いた. リーダボード上の主なモデルとして,LayoutLMに視覚情報を取り入れた LayoutLMv2 [8],複数の教師あり事前学習を行なった TILT [9] がある. ## 3.1 評価結果と分析 ## 提案モデルはベースラインの性能を上回るか?表 1 に示す様に,提案モデルは全ての指標でベース ラインモデルを上回った. また,提案モデルと同じ モーダル情報を利用しているにも関わらず,事前学習を行っていない M4C-TLV は低い性能であった。 事前学習の効果はあるか? 表 2 に示す様に,提案モデルから事前学習を除くことで, 精度が大きく低下することが確認できる。また,事前学習を除いたIG-BERT は BERT と比べて精度が低いことが分かることから, Fine-tuning のみでは BERT の言語理解能力の忘却 [25] が発生していると考える. ## データ拡張手法 ADA は算術演算の理解を改善す るか? 表 2 に示す様に,BERT と IG-BERT のどちらにおいても,提案したデータ拡張により ANUM の向上が確認できる. テンプレートの拡充および複雑化により,更なる演算の高度化が期待できる。 学習タスク SRP は精度向上に寄与するか? 表 2 に示す様に,提案モデルにSRP を加えることで,大きく性能が向上することが確認できる. ## SRP におけるサンプリング対象の選択は精度に影響するか?表 3 に結果を示す様に, $v^{\text {obj }} w^{\text {ocr }}$ か らサンプリングし, 配置関係を学習したモデルの精度が最も高いことが分かる. 同モーダル内の配置関係よりも,画像物体とOCR テキストの配置関係を 理解することが重要であることが示唆される. ## リーダボード上のモデルと比較してモデルの性能 はどうか?表 4 に示す様に,同程度のモデルサイ ズのモデルの中で,IG-BERT は最も高い精度を達成 した. 特筆すべきは,同じモーダル情報を利用して いる LayoutLMv2 に比べて,IG-BERT は事前学習の 文書画像数は $1 / 22$ でありパラメータ数も少ないに も関わらず,大きく性能が上回っている. IG-BERT が行う視覚物体の検出・位置関係理解および算術演 表 1 開発データにおけるベースラインモデルとの比較. $\mathrm{T}$ (テキスト), $\mathrm{L}$ (レイアウト),V (画像特徴)を表す。 表 2 開発データにおける Ablation 評価. 表 3 SRPにおけるサンプリング対象ごとの性能評価. $k, k^{\prime}$ はサンプリング対象のインデクスを表す. Q: What is the name of the social media site with a smiley face icon? GT: friendster LayoutLM: twitter BERT: facebook IG-BERT: friendster Q: How many patients out of 3, does not use social media to seek out health information? GT: 2 LayoutLM: 3 BERT: 1 IG-BERT: 2 (3 - 1) Q: What percentage of all markets have found a customer through Twitter? GT: $36 \%$ LayoutLM: $43 \%$ BERT: $43 \%$ IG-BERT: $82 \%$ 図 3 出力例. 掲載上,画像の一部をクロップした. GT は正解文,赤枠は回答根拠,() は予測された演算過程である. 表 4 リーダボード上での比較 (2022/01/14 付). \#Docs は事前学習用文書数, \#Sups は追加学習用 QA ペア数. 算の工夫が性能向上に貢献していると考える。一方で,TILT と比較すると精度が劣っている.TILT では,IG-BERT が行わなかった DocVQA [3] 等の類似タスク $[1,26]$ での教師あり事前学習が性能向上に大きく寄与することが報告されている。しかし,TILT には IG-BERT で提案した SRPやADA を代替する学習タスクや算術演算に関する新規点は含まれていない. パラメータ数や事前学習データ量の増加に関しては,今後の課題とする。 出力例・エラー分析出力例を図 3 に示す.アイコンとテキストの配置関係 (smiley face icon と friendster) を理解する必要がある左の例や,画像中のテキストを用いて演算 (3 - 1) を行う必要のある中央の例では,提案モデルは適切な回答を出力している。一方で,右の例の様に Faster-RCNN で検出が困難な物体 (Twitter ロゴ) に関する質問には,全てのモデルで誤った回答を行なっており,より汎用的な物体認識を基にした文書理解は今後の課題である. ## 4 関連研究 InfographicVQA は,他の類似タスク $[3,4]$ と比べてテキストと視覚の融合理解が最も必要となるタスクである [27]. DocVQA [3] に代表される従来のタスクを対象としたモデルの多く [4, 6, 7, 8, 9] はテキストや配置の理解に重点を置いており,視覚情報を含む配置関係や意味の理解,算術演算の理解を行うことは難しい. ICDAR 2021 Competition で高スコアであった LayoutLMv2 [8] や TILT [9] では,事前学習において文字以外の視覚情報に関して考慮されていないが,我々の手法は物体検出により考慮可能である. さらに,我々が提案する SRP やDA を代替する学習タスクや算術演算は実施されていない. ## 5 おわりに インフォグラフィック質問応答モデル IG-BERT および,配置関係学習手法 SRP,算術演算データ拡張手法 ADA を提案し, ICDAR 2021 Competition の InfographicVQA タスクにて,同程度のサイズのモデルの中で最も高い性能を達成し 2 位に入賞した。 SRP や ADA は他モデルにも導入可能な汎用性が高い手法である.本研究は,実世界に多数存在する視覚的に表現された文書を知識源として質問応答を行う人工知能の開発に寄与し,Web 検索や対話システムなど産業上重要なサービスの発展に貢献できる. ## 参考文献 [1] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In EMNLP, pp. 2383-2392, 2016. [2] Pranav Rajpurkar, Robin Jia, and Percy Liang. Know what you don't know: Unanswerable questions for SQuAD. In ACL, pp. 784-789, 2018 . [3] Minesh Mathew, Dimosthenis Karatzas, and CV Jawahar. Docvqa: A dataset for vqa on document images. In WACV, pp. 2200-2209, 2021. [4] Ryota Tanaka, Kyosuke Nishida, and Sen Yoshida. Visualmrc: Machine reading comprehension on document images. In AAAI, pp. 13878-13888, 2021. [5] Minesh Mathew, Viraj Bagal, Rubèn Tito, Dimosthenis Karatzas, Ernest Valveny, and CV Jawahar. Infographicvqa. In WACV, pp. 1697-1706, 2022. [6] Yiheng Xu, Minghao Li, Lei Cui, Shaohan Huang, Furu Wei, and Ming Zhou. Layoutlm: Pre-training of text and layout for document image understanding. In KDD, pp. 1192-1200, 2020. [7] Teakgyu Hong, Donghyun Kim, Mingi Ji, Wonseok Hwang, Daehyun Nam, and Sungrae Park. Bros: A pretrained language model focusing on text and layout for better key information extraction from documents. arXiv preprint arXiv:2108.04539, 2021. [8] Yang Xu, Yiheng Xu, Tengchao Lv, Lei Cui, Furu Wei, Guoxin Wang, Yijuan Lu, Dinei A. F. Florêncio, Cha Zhang, Wanxiang Che, Min Zhang, and Lidong Zhou. Layoutlmv2: Multi-modal pre-training for visually-rich document understanding. In ACL/IJCNLP, pp. 2579-2591, 2021 . [9] Rafał Powalski, Łukasz Borchmann, Dawid Jurkiewicz, Tomasz Dwojak, Michał Pietruszka, and Gabriela Pałka. Going full-tilt boogie on document understanding with text-image-layout transformer. arXiv preprint arXiv:2102.09550, 2021. [10] Adam W Harley, Alex Ufkes, and Konstantinos G Derpanis. Evaluation of deep convolutional nets for document image classification and retrieval. In ICDAR, pp. 991-995. IEEE, 2015. [11] Guillaume Jaume, Hazim Kemal Ekenel, and JeanPhilippe Thiran. Funsd: A dataset for form understanding in noisy scanned documents. In ICDARW, Vol. 2, pp. 1-6. IEEE, 2019. [12] Zheng Huang, Kai Chen, Jianhua He, Xiang Bai, Dimosthenis Karatzas, Shijian Lu, and CV Jawahar. Icdar2019 competition on scanned receipt ocr and information extraction. In ICADR, pp. 1516-1520. IEEE, 2019. [13] Ren, Shaoqing, He, Kaiming, Girshicka, Ross, Sun, and Jian. Faster r-cnn: Towards real-time object detection with region proposal networks. In NIPS, pp. 91-99, 2015. [14] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NIPS, pp. 6000-6010, 2017. [15] Spandan Madan, Zoya Bylinskii, Matthew Tancik, Adrià Recasens, Kimberli Zhong, Sami Alsheikh, Hanspeter Pfister, Aude Oliva, and Fredo Durand. Synthetically trained icon proposals for parsing and summarizing infographics. arXiv preprint arXiv:1807.10441, 2018. [16] Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, et al. Google's neural machine translation system: Bridging the gap between human and machine translation. arXiv preprint arXiv:1609.08144, 2016. [17] Lei Jimmy Ba, Ryan Kiros, and Geoffrey E. Hinton. Layer normalization. arXiv preprint arXiv:1607.06450, 2016. [18] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., Vol. 21, No. 140, pp. 1-67, 2020. [19] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. In NAACL-HLT, pp. 4171-4186, 2019. [20] Ting Yao, Yingwei Pan, Yehao Li, and Tao Mei. Exploring visual relationship for image captioning. In ECCV, pp. 684-699, 2018. [21] Ronghang Hu, Amanpreet Singh, Trevor Darrell, and Marcus Rohrbach. Iterative answer prediction with pointeraugmented multimodal transformers for TextVQA. In CVPR, pp. 9992-10002, 2020. [22] Qi Zhu, Chenyu Gao, Peng Wang, and Qi Wu. Simple is not easy: A simple strong baseline for textvqa and textcaps. arXiv preprint arXiv:2012.05153, 2020 [23] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In ICLR, 2015. [24] Ali Furkan Biten, Rubèn Tito, Andrés Mafla, Lluís Gómez i Bigorda, Marçal Rusiñol, C. V. Jawahar, Ernest Valveny, and Dimosthenis Karatzas. Scene text visual question answering. In ICCV, pp. 4290-4300, 2019. [25] Michael McCloskey and Neal J Cohen. Catastrophic interference in connectionist networks: The sequential learning problem. In Psychology of learning and motivation, Vol. 24, pp. 109-165. Elsevier, 1989. [26] Minseok Cho, Reinald Kim Amplayo, Seung-won Hwang, and Jonghyuck Park. Adversarial tableqa: Attention supervision for question answering on tables. In ACML, pp. 391-406. PMLR, 2018. [27] Łukasz Borchmann, Michał Pietruszka, Tomasz Stanislawek, Dawid Jurkiewicz, Michał Turski, Karolina Szyndler, and Filip Graliński. Due: End-to-end document understanding benchmark. In NeurIPS, 2021. [28] Ranjay Krishna, Yuke Zhu, Oliver Groth, Justin Johnson, Kenji Hata, Joshua Kravitz, Stephanie Chen, Yannis Kalantidis, Li-Jia Li, David A. Shamma, Michael S. Bernstein, and Li Fei-Fei. Visual genome: Connecting language and vision using crowdsourced dense image annotations. Int. J. Comput. Vis., Vol. 123, No. 1, pp. 32-73, 2017. [29] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In CVPR, pp. 770-778, 2016. ## A 付録 ## A. 1 OCR と Faster-RCNN に関する実験設定 OCR には Google Vision API ${ }^{3}$ を用いた. Faster-RCNN のバックボーンは Visual Genome [28] で事前学習を 行った ResNet-101 [29]を使用した.また,Adamを用いて最適化に用い,バッチサイズを 16,学習率 1e-3 とし, 5 epoch 学習を行った. アンカーボックスのスケールを $[8,16,32]$, アスペクト比を $[0.5,1.0,2.0]$ とした. ## A. 2 画像 URL一覧 図 1,図3で用いた画像の URL を以下に示す. 図1左 https://www.adelaidebariatriccentre.com.au/diabetes-in-australia 図1右 https://www.business2community.com/social-media/3-infographics-100-social-media-statistics-need- 0712061 図3左 https://visual.ly/community/Infographics/social-media/short-history-social-media 図 3 中央 https://hcsmmonitor.com/2017/02/23/how-modern-health-care-is-being-revolutionized-by-social-media-infographic/ 図3右 https://visual.ly/community/Infographics/social-media/social-media-marketing-18 3) https://cloud. google.com/vision
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C1-4.pdf
# 抽出型質問応答における相対位置バイアスの除去 篠田一聡 1,2 菅原朔 2 相澤彰子 1,2 1 東京大学大学院 2 国立情報学研究所 shinoda@is.s.u-tokyo.ac.jp \{saku,aizawa\}@nii.ac.jp ## 概要 抽出型質問応答において,質問-文章間で重複している語彙の回答スパンから見た相対位置の分布が訓練セットにおいて偏っている時,質問応答モデルはそれを利用した解き方を学習してしまう問題を発見した. 本研究では訓練セットで相対位置がどのような偏り方をしていても適用可能なバイアス除去手法を提案する。訓練時に見たことのない相対位置のデータへの汎化性能の評価によって提案手法の有効性を示した。 ## 1 はじめに 深層学習に基づく自然言語理解モデルが訓練セット中のバイアスを利用した解き方を学習してしまい,汎化性能が悪化してしまうことが自然言語理解分野における重大な課題となっている [1,2]. 特に意図的に分布が偏った訓練セットで訓練された自然言語理解モデルは,入力と出力の間の因果関係ではなく, バイアスを利用した解き方をより学習しやすい傾向があることが知られている $[3,4,5]$. 実応用においても開発者が独自に作成した訓練セットの分布が何らかの観点で偏ってしまう恐れは十分にある. ゆえに,分布が偏った訓練セットからバイアスを利用しない解き方を学習するための方法を開発することが重要である. 文章から回答スパンを抽出して質問に答える抽出型質問応答 [6] においては,質問-文章間で重複している語彙(重複語彙)の回答スパンから見た相対位置が偏っている時に,質問応答モデルがその相対位置に関するバイアスを学習する傾向があることを新たに発見した. 例えば,訓練セット中で重複語彙と回答スパンが隣接している(相対位置の絶対値が 1 の)データのみで構成されている時,読解モデルはテストセットで同様のデータでは精度を高く保てるが,そうでないデータでは精度を大幅に落としてしまう現象が確認された (図 1).これはモデルが重複 図 $1 \mathrm{SQuAD}$ 開発セットにおける回答に最も近い重複語彙の回答から見た相対位置 $d$ ごとの $\mathrm{F} 1$ スコア. 凡例の ALL は SQuAD 訓練セットの全てのデータで訓練されたモデルを指し,その他はそれぞれの条件式が満たされるデータでのみ訓練されたモデルを指す.モデルにはいずれも BERT-base を用いた。訓練時に見たことがある $d$ のデータでは ALL と比べて精度を保てるが,その他では精度が悪化する. $d$ の定義は式 3 を参照されたい. 語彙の隣接箇所から回答を探す解き方を優先して学習しているとも捉えられる。訓練セットの相対位置の分布が異なる時も同様の現象が観測された。 本研究では,抽出型質問応答の訓練セットが相対位置に関して偏っていても,モデルが相対位置のみを利用した解き方の学習をせずに,相対位置の分布が異なるテストセットでも回答スパンも正しく予測するための学習方法の開発を目的とする。そのために,相対位置バイアスを利用して予測をするバイアスモデルと,実際に予測をするメインモデルの product-of-experts [7] を用いた手法を提案する。これによってメインモデルが相対位置バイアスだけを利用した解き方を学習しないょう促進する.実験において,提案手法は相対位置に関してバイアスがかかっていない時に近い精度を達成することを示す。 さらに,提案手法は訓練セットが相対位置に関して異なる偏り方をしていても汎用的に効果的であることを示す。 ## 2 相対位置バイアス ## 2.1 定式化 抽出型質問応答タスクにおいて回答スパンから最も近い重複語彙の回答から見た相対位置を $d$ とおく. 正確には $w$ を単語, 文章を $c=\left.\{w_{i}^{c}\right.\}_{i=0}^{N}$, 質問を $q=\left.\{w_{i}^{q}\right.\}_{i=0}^{M}$, 回答を $a=\left.\{w_{i}^{c}\right.\}_{i=s}^{e}(0 \leq s \leq e \leq N)$ としたとき,相対位置 $d$ は以下のように定義する. $ \begin{aligned} & f(j, s, e)= \begin{cases}j-s, & \text { for } j<s \\ 0, & \text { for } s \leq j \leq e \\ j-e, & \text { for } j>e\end{cases} \\ & D=\left.\{f(j, s, e) \mid w_{j}^{c} \in q\right.\} \\ & d=\operatorname{argmin}_{d^{\prime} \in D}\left|d^{\prime}\right| \end{aligned} $ ここで $0 \leq j \leq N$ は文章中の単語 $w_{j}^{c}$ の位置, $f(i, s, e)$ は $w_{i}^{c}$ の $a$ から見た相対位置, $D$ は $q$ と $c$ で重複している全ての単語の相対位置の集合を表す. ${ }^{1)}$ 式 3 で最も絶対值が小さいものを相対位置として定義して用いるのは, 質問応答モデルが重複語彙から近い位置のスパンをより優先して予測する傾向があること [8] や, 回答スパンと重複語彙の絶対的な距離が大きい時に精度が悪化すること [9] が知られているからである.2) ## 2.2 相対位置の分布 図 2 に SQuAD [6] の訓練セットにおける相対位置 $d$ の度数分布を示す. $d$ の値は 0 の周辺に偏っていることがわかる. SQuAD 以外の質問応答データセットにおいても 0 の周辺に偏る傾向は一貫している一方で,データセット間で分布の形に違いが見られる.(詳細は付録 Aを参照されたい.)この違いはデータセットの集め方や文章のドメインによって生じたものと考えられる. よって,特定の相対位置の分布に特化した学習は避け, 相対位置のバイアスを学習しない質問応答モデルの構築が求められる. ## 3 手法 ## 3.1 バイアス除去手法 バイアス除去のためのアルゴリズムには, productof-experts [7] を応用した手法である BiasProduct と  図 2 SQuAD 訓練セットの相対位置 $d$ の度数分布 LearnedMixin $[10,11]$ を用いる.これらの手法では,共にバイアスを利用した予測をする Biased model をまず用意し,それと Main model を混合した product-of-experts を用いて損失関数を求める. Main model の訓練時は Biased model は固定した上で誤差関数を最小化する。そしてテスト時には Main model のみを用いて予測を行う. 既存研究 $[12,13]$ に倣い, モデル $\hat{p}$ は回答スパンの始点 $s$ と終点 $e$ の確率 $\hat{p}(s)$ と $\hat{p}(e)$ を出力し, 誤差関数は始点と終点の交差エントロピー誤差の和とする。以降簡単のため $\hat{p}(s)$ と $\hat{p}(e)$ の区別はせず $\hat{p}$ と表記する. ## 3.1.1 BiasProduct BiasProduct では以下のように Biased model の出力確率 $b$ と Main model の出力確率 $p$ の対数の和を softmax 関数に入力して $\hat{p}$ を得る. $ \hat{p}=\operatorname{softmax}(\log p+\log b) $ これによって,Biased model が正しく予測をできるようなバイアスを含むデータよりも, Biased model が予測を誤るようなバイアスを含まないデータで Main model の学習が強く促進される. ## 3.1.2 LearnedMixin BiasProduct は Biased model の出力確率に強く依存した学習手法である. Main model が Biased model の予測を信頼できるかどうかを各データごとに予測する LearnedMixin を用いることで Main model がより頑健なモデルになることが知られている. $ \hat{p}=\operatorname{softmax}(\log p+g(c, q) \log b) $ ここで $g \geq 0$ は学習可能な関数である. ## 3.2 Biased model 3.1 節で述べた Biased model の構築方法を述べる. ## 3.2.1 Answer prior 訓練セットの相対位置 $d$ の分布に応じて,回答スパン $a$ の始点と終点の事前確率を経験的に定めた Answer Prior (AnsPrior) を Biased model として用いる. 具体的には, 図 1 の凡例に示した 4 つの条件を満たす訓練セットのサブセットそれぞれに対して,文章中の単語 $w_{i}^{c}$ が始点または終点である事前確率 $b_{i}$ を以下のように定める. $ b_{i}= \begin{cases}\mathbb{1}\left[w_{i+1}^{c} \in q\right] / Z, & \text { for } d \leq-1 \\ \mathbb{1}\left[\left(w_{i+1}^{c} \in q\right) \vee\left(w_{i-1}^{c} \in q\right)\right] / Z, & \text { for }|d|=1 \\ \mathbb{1}\left[w_{i}^{c} \in q\right] / Z, & \text { for } d=0 \\ \mathbb{1}\left[w_{i-1}^{c} \in q\right] / Z, & \text { for } d \geq 1\end{cases} $ ここで $Z$ は正規化定数である. これらの事前確率は訓練セットで回答になりやすい箇所に等しく確率を割り当てる発見的手法に基づいている. そのため,特定の訓練セットの相対位置 $d$ の分布に特化した事前確率である点で柔軟性に欠ける。 ## 3.2.2 Position-only model 訓練セットで相対位置 $d$ がどのような偏り方をしていても適用可能な Position-only model (PosOnly)を Biased model として提案する. PosOnly は,文章中の各単語の絶対的な位置と, 各単語が質問と重複しているか否かのみの情報を入力として,回答スパンの始点と終点を出力として訓練する. PosOnly が回答スパンを予測するためには重複単語からの相対的な距離と絶対的な位置のみしか利用できる情報がないため,訓練セットの相対位置がどのように偏っていたとしても相対位置バイアスを利用した解き方を学習することが期待される. ## 4 実験 ## 4.1 実験設定 データセットデータセットには SQuAD 1.1 [6] を用いた. モデルが相対位置 $d$ が偏ったデータから見たことのある相対位置に依存しない解き方を学習できているかを評価するために,SQuAD 訓練セットから 4 つの異なる方法で意図的に相対位置バイアスを含むサブセットを取得して別々に訓練に用いた. 4 つのサブセットは, 相対位置 $d$ が条件 $d \leq-1,|d|=1, d=0, d \geq 1$ を満たすデータのみ を抽出してそれぞれ構築した. サイズはそれぞれ 33,256,30,003,21,266,25,191である. 比較のために全ての訓練セットを用いた場合のスコアも報告する. 評価には $\mathrm{SQuAD}$ 開発セットの相対位置ごとの性能を評価した. 抽出型質問応答タスクの評価指標には,回答スパンの完全一致を測る Exact Match スコアと部分一致を測る F1 スコアが用いられてきた [6] が,紙面の節約のため F1 スコアのみ報告する. 比較手法バイアス除去のための学習手法として BiasProduct と LearnedMixin の 2 種類, それぞれに使われる Biased model として AnsPrior と PosOnly の 2 種類の全ての組み合わせ 4 通りと,何も工夫せずに訓練した場合の計 5 通りの訓練方法を比較してこれらの有効性を評価した. Main model と PosOnly にはいずれも BERT-base [13]を用いた. ## 4.2 結果 表 1 に結果を示す.まず,訓練セットを全て用いた場合 (ALL), BERT-base の性能は $|d|=1,2$ の時に 90 ポイントを超える一方で $|d| \geq 3$ の時には 8 ポイント程度低下していた. 2.2 節で示したように訓練セットの相対位置 $d$ の分布が 0 付近に偏っていたことから,訓練セットで頻度が高い $d$ では精度が高くなり,逆に頻度が低い $d$ では精度が低くなるという仮説が立てられる。 相対位置 $d$ の分布を意図的に偏らせた訓練セットを使って BERT-base の通常の訓練を行なった結果はこの仮説の信頼性を高めるものであった. 相対位置 $d$ が $|d|=1$ を満たすデータのみで通常の訓練を行なったところ,|d|=1 では F1 スコアが ALL に比べて2 ポイント未満しか低下しなかったのに対して, $|d| \neq 1$ では $\mathrm{F} 1$ スコアが 10 15 ポイント低下した.他のサブセットを用いた通常の訓練でも同様の傾向が見られた. これが示唆するのは, 同じ相対位置 $d$ の値を持つデータで成り立つ擬似相関をモデルが利用して推論を行なっているということである. 訓練セットのサブセットが満たす $d$ の条件が同じ下で,提案する 4 種類のバイアス除去手法と通常の訓練をそれぞれ比較して得られる結論を述べる. まず学習手法としては多くの場合 BiasProduct よりも LearnedMixin の方が高い F1 スコアが得られた. この結果は各データで Biased model の予測結果を Main model の訓練に反映させる度合いを学習することの有効性を示している。また, Biased model としては,訓練時にモデルが見たことのない相対 表 1 SQuAD 開発セットの各サブセットにおける F1 スコア. 灰色で示した箇所では訓練時と評価時の $d$ が重複している. 灰色では全ての訓練セットを用いた場合 (ALL) に比べてスコアが高く保たれる傾向にある. 位置 $d$ のデータへの汎化性能一すなわち表 1 の白い箇所のスコアーを向上させるためには, AnsPrior よりも PosOnly の方が優れていることがわかった.特に訓練時に $d=0$ でテスト時に $d \leq-3$ の場合や,訓練時に $d \leq-1$ でテスト時に $d \geq 3$ の場合は, LearnedMixin-PosOnly は LearnedMixin-AnsPrior よりも 5 ポイント程度優っていた. 一方で,訓練時に見たことのある相対位置 $d$ のデータへの汎化性能一すなわち表 1 の灰色の箇所のスコア一の観点では, LearnedMixin-AnsPrior が最も優れていた. LearnedMixin-AnsPrior 以外の提案モデルは通常の訓練と比べてスコアを悪化させてしまうことが多いこともわかった. バイアス除去の既存研究 [14]でも指摘されているが,相対位置のバイアス除去でも訓練時と同じ分布と違う分布のテストセットでの精度にトレードオフが生じるという問題が明らかになった. ## 5 関連研究 訓練セットに特有なバイアスを利用した解き方を自然言語理解モデルが学習していること, または訓練セットと同じ分布のテストセットで高い精度を出 すにはバイアスを利用するだけで十分であることを指摘する研究が近年増えている。自然言語推論では特定の語彙 [15] や, 語彙の重複 [1] とラベルとの擬似相関をモデルが利用してしまう問題が指摘された. 抽出型質問応答では質問と回答のタイプ一致だけで解ける質問が多いこと $[16,9]$ や,回答の絶対的な位置のバイアスをモデルが学習しやすいこと [4] が知られている. モデルが人らしい読解スキルを学習できているかどうかを評価するには,訓練時とテスト時で違う分布のデータを使うことが最も有効な方法の一つである. 本研究では相対位置という新しい観点でこれについて分析して問題を発見し,有効なバイアス除去手法を開発した。誤差関数は既存研究 [4] と同じものを用い,相対位置バイアスのための Biased model は独自に設計した. ## 6 おわりに 抽出型質問応答でモデルが相対位置に関するバイアスを利用しうることを示し,それを解決するための有効なバイアス除去手法を提案した. 他のデータセットでの検証,モデルの中間表現や学習過程についての分析が今後の展望である. ## 謝辞 本研究は, JST 次世代研究者挑戦的研究プログラム JPMJSP2108 の支援を受けたものです. 本研究は JSPS 科研費 JP21H03502, JP20K23335 の助成を受けたものです. ## 参考文献 [1] Tom McCoy, Ellie Pavlick, and Tal Linzen. Right for the wrong reasons: Diagnosing syntactic heuristics in natural language inference. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3428-3448, Florence, Italy, July 2019. Association for Computational Linguistics. [2] Robert Geirhos, Jörn-Henrik Jacobsen, Claudio Michaelis, Richard Zemel, Wieland Brendel, Matthias Bethge, and Felix A. Wichmann. Shortcut learning in deep neural networks. Nature Machine Intelligence, Vol. 2, No. 11, pp. 665-673, November 2020. [3] Mike Lewis and Angela Fan. Generative question answering: Learning to answer the whole question. In International Conference on Learning Representations, 2019. [4] Miyoung Ko, Jinhyuk Lee, Hyunjae Kim, Gangwoo Kim, and Jaewoo Kang. Look at the first sentence: Position bias in question answering. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1109-1121, Online, November 2020. Association for Computational Linguistics. [5] Charles Lovering, Rohan Jha, Tal Linzen, and Ellie Pavlick. Predicting inductive biases of pre-trained models. In International Conference on Learning Representations, 2021 . [6] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2383-2392, Austin, Texas, November 2016. Association for Computational Linguistics. [7] Geoffrey E Hinton. Training products of experts by minimizing contrastive divergence. Neural computation, Vol. 14, No. 8, pp. 1771-1800, 2002. [8] Robin Jia and Percy Liang. Adversarial examples for evaluating reading comprehension systems. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 2021-2031, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [9] Saku Sugawara, Kentaro Inui, Satoshi Sekine, and Akiko Aizawa. What makes reading comprehension questions easier? In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 4208-4219, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [10] Christopher Clark, Mark Yatskar, and Luke Zettlemoyer. Don't take the easy way out: Ensemble based methods for avoiding known dataset biases. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pp. 4069-4082, Hong Kong, China, November 2019. Association for Computational Linguistics. [11] He He, Sheng Zha, and Haohan Wang. Unlearn dataset bias in natural language inference by fitting the residual. In Proceedings of the 2 nd Workshop on Deep Learning Approaches for Low-Resource NLP (DeepLo 2019), pp. 132-142, Hong Kong, China, November 2019. Association for Computational Linguistics. [12] Minjoon Seo, Aniruddha Kembhavi, Ali Farhadi, and Hannaneh Hajishirzi. Bidirectional attention flow for machine comprehension. In International Conference on Learning Representations, 2017. [13] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [14] Prasetya Ajie Utama, Nafise Sadat Moosavi, and Iryna Gurevych. Mind the trade-off: Debiasing NLU models without degrading the in-distribution performance. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8717-8729, Online, July 2020. Association for Computational Linguistics. [15] Suchin Gururangan, Swabha Swayamdipta, Omer Levy, Roy Schwartz, Samuel Bowman, and Noah A. Smith. Annotation artifacts in natural language inference data. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 107-112, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [16] Dirk Weissenborn, Georg Wiese, and Laura Seiffe. Making neural QA as simple as possible but not simpler. In Proceedings of the 21 st Conference on Computational Natural Language Learning (CoNLL 2017), pp. 271-280, Vancouver, Canada, August 2017. Association for Computational Linguistics. [17] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014 . ## A 相対位置の分布 SQuAD, NewsQA, TriviaQA, NaturalQuestions の開発セットにおける相対位置の度数分布を図 3 に示す. データセットによって違いはあるものの,いずれも相対位置が 0 の周辺に偏っていることがわかる. ## B 訓練の詳細 各モデルの訓練のエポック数は 2 , バッチサイズは 32 とし,学習率は 3e-5 から線形に 0 まで減少させ,最適化には Adam [17]を用いた。 (a) SQuAD (b) NewsQA (c) TriviaQA (d) NaturalQuestions 図 3 回答から見た重複語彙の相対位置の度数分布
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C2-1.pdf
# 遠距離教師データの特徵表現を活用した 薬物タンパク質間関係抽出 飯沼 直己 三輪誠 佐々木裕 豊田工業大学 \{sd20403, makoto-miwa, yutaka.sasaki\}@toyota-ti.ac.jp ## 概要 創薬等の分野で重要な薬物タンパク質間の相互作用に関する情報の深層学習による自動抽出が注目されているが,教師データの作成が高コストであるという問題がある。そこで,低コストで大量の教師データの作成できる遠距離教師あり学習が提案されているが,誤ったラベルのデータが含まれるため,予測性能が低下する問題が残っている. 本研究では,教師データを作成するコストを抑えながら,抽出性能の向上を目指し,特徵表現により遠距離教師データを間接的に活用した深層学習モデルの学習手法を提案する. DrugProtコーパスを対象とした実験の結果,遠距離教師データの利用により, $\mathrm{F}$ 値のマイクロ平均が 0.8 ポイント向上することを示した. ## 1 はじめに 「根拠に基づく医療」を展開していく上で,薬物とタンパク質間の相互作用に関する情報は創薬・代謝工学・薬物反応モデリング等の分野で重要である. しかし, 相互作用の情報は文献として発表され,文献数は急速に増加しているため [1], 相互作用の情報を決定するために薬理学者が逐一論文を読むことは困難である. そのため, テキストからの相互作用抽出 [2] の自動化が注目されている。この中で,深層学習を利用した手法は高い性能を達成しているものの,教師データ作成に莫大なコストがかかるという問題を抱えている。 低コストで大量の教師データの作成を可能にする遠距離教師あり学習が Mints ら [3] によって提案されている。しかし,この手法には学習時のノイズとなる誤ったラベルのデータを作成してしまう問題が残っている。 そのため, Beltagy ら [4] による手法などノイズを緩和する手法が提案されている. 本研究では,自動的に生成した遠距離教師データ の,教師あり薬物タンパク質間相互作用抽出への活用方法の提案とその抽出性能の評価を目的とする.作成の容易な遠距離教師データを活用し,教師デー タ作成のコストを抑えながら,薬物タンパク質間関係抽出の性能向上を目指す. ## 2 関連研究 ## 2.1 遠距離教師あり学習 遠距離教師あり学習は Mints ら [3] によって提案された,データベースから機械的に文書に関連情報をラベル付けする手法である。これにより,大量の教師データを生成できるが,ラベル付けを誤った教師データを含んでしまう。この誤ったラベルは予測モデルの性能を低下させるノイズとなる.そのため,ノイズの影響を緩和する手法が提案されている. よく用いられる手法として,教師データをデー タベース上のペアに対応するインスタンスのバッグで扱うマルチインスタンス学習がある. Zeng ら [5] はバッグ中の正解ラベルに対する予測確率が最も高い表現を持つデータのみを利用して学習する手法を提案した. また Beltagy ら [4] は, 少量の人手の教師データによる注意機構を利用する手法を提案した。 ## 2.2 薬物タンパク質間関係抽出 薬物タンパク質間関係抽出は,文献中に記載された薬物とタンパク質間の関係を抽出するタスクである. Gu ら [2] は大規模なニューラルネットワークモデル BERTを大規模な生物医学文献で事前学習したモデル (PubMedBERT) を提案した. ## 3 提案手法 本手法では,遠距離教師データから得られる特徴表現を活用して人手の教師データの薬物タンパク質間関係抽出を行う。機械的に作成した遠距離教師 データを活用することで,教師データを追加で作成するコストを抑えながら,抽出性能の向上を目指す. 以降,3.1 節でベースとなる関係抽出モデル, 3.2 節でデータベースからの遠距離教師データの作成, 3.3 節で遠距離教師データの特徴表現の活用手法についてそれぞれ説明する。 ## 3.1 関係抽出モデル 本研究のベースラインとなる人手の教師データのみでモデルを学習する関係抽出モデルについて説明する。まず,入力文を BERT [6] でエンコードし,入力文の文脈を表した特徴量ベクトル $\boldsymbol{h}$ を生成する。 BERT は入力文の各トークンに対して表現ベクトルを生成するが,文全体の特徴を含んだ [CLS] トークンの表現ベクトルを特徴表現ベクトルとして用いる. さらに,特徴量ベクトルを基に全結合層とソフトマックス関数により各関係に対する予測確率を表した予測べクトルを生成する. モデルは予測確率が最大となる関係を予測する。最適化手法は Adam [7] を用い,交差エントロピーを目的関数として最小化するようにモデルを学習する。 ## 3.2 遠距離教師データの作成 遠距離教師データの作成の概略を図 1 に示す。以前提案した遠距離教師データ作成手法 [8] では薬物データベース DrugBank [9]・タンパク質データベー ス UniProt [10]・医学文献データベース PubMed [1] を用いたが,本手法ではさらに化学物質データベー ス Comparative Toxicogenomics Database (CTD) [11] を活用して遠距離教師データを作成する.以降,これらのデータベースを用いて遠距離教師データを作成する手順を説明する。 まず,DrugBank から ID 関係トリプルを作成する. ID 関係トリプルとは薬物の ID・相互作用名・タンパク質の ID のトリプルである。次に,DrugBank, CTD の情報を基に薬物の ID と表層表現を対応付けて薬物名辞書を作成する. 同様に UniProt, CTD からタンパク質名辞書を作成する。これらの辞書と ID 関係トリプルから関係トリプルを作成する。さらに, 生物医学・科学文献の処理に特化したツールである SciSpacy [12] の文分割・エンティティ抽出により,PubMed 文献を解析し,文献中の専門用語を抽出する (NER). 最後に,関係トリプルと PubMed 文献から抽出された専門用語を用いて辞書マッチに 図 1 遠距離教師データの作成 図 2 遠距離教師データの活用 より PubMed 文献から遠距離教師データを作成する. DrugBank 上の相互作用名とタスク上の関係名のマッピングには,付録 A 章の表 2 に示す DrugProt コーパスの関係アノテーションガイドライン [13] の関係の記述に基づいて作成された辞書を用い(例: Inducer は INDIRECT-UPREGULATOR に含まれる),辞書でマッピングできない DrugBank 上の相互作用名のインスタンスはフィルタリングする. ## 3.3 遠距離教師データを活用した関係抽出 遠距離教師データから得られる特徴表現の活用方法として,遠距離教師データによる事前学習と遠距離教師データと人手の教師データから得られる特徵量の混合の 2 つの手法を提案する. これら 2 つの手法の概要を図 2 に示す. 以降,この節では,これら 2つの手法について説明する。 ## 3.3.1 事前学習としての利用 図 2(a) に示す遠距離教師データを事前学習に活用する手法について説明する。自然言語処理のタスク において,ドメインの近いデータセットによる事前学習により目的のデータセットでのモデルの性能が向上することが知られている [14]. そこで,遠距離教師データによる事前学習を行う,具体的には,まず遠距離教師データにより 3.1 節で説明した関係抽出モデルを学習し, 続いて遠距離教師データにより学習したパラメータを初期値として人手の教師デー タにより関係抽出モデルを学習する。 ## 3.3.2 特徵量表現の混合 図 2 (b) に示す遠距離教師データと人手の教師データで各々事前学習したモデルから得られる特徴表現ベクトルを混合する手法について説明する。まず,遠距離教師データと人手の教師データでそれぞれ関係抽出モデルを学習する. 関係抽出モデルの特徵抽出器として用いた BERT は大力のトークン系列に対して表現系列 $\boldsymbol{H}$ を出力するため, 3.1 節で説明した手法と同様に [CLS]トークンの表現 $\boldsymbol{h}$ を特徴表現ベクトルとする. 遠距離教師データ, 人手の教師データで学習した関係抽出モデルから得られる特徴表現ベクトルをそれぞれ $\boldsymbol{h}_{d s}, \boldsymbol{h}_{s v}$ とし,以下の式に示すように混合手法として Gate と Concat の 2 種類の手法を提案する. $ \begin{aligned} \boldsymbol{h}_{\text {Gate }} & =\alpha \boldsymbol{h}_{d s}+\beta \boldsymbol{h}_{\boldsymbol{s v}} \\ \boldsymbol{h}_{\text {Concat }} & =\left[\gamma \boldsymbol{h}_{d s} ; \eta \boldsymbol{h}_{\boldsymbol{s v}}\right] \end{aligned} $ $[\because \cdot]$ はベクトルの結合を示す. $\alpha, \beta, \gamma, \eta$ は各特徴量の重要度を表す重みであり,学習可能なスカラー値のパラメータとする. Gate は (1) 式に示すように, $\boldsymbol{h}_{\boldsymbol{d}}, \boldsymbol{h}_{s v}$ を重要度を意味するパラメータで定数倍した後に各々の要素和を計算して混合する. Concat は (2) 式に示すように, $\boldsymbol{h}_{\boldsymbol{d} \boldsymbol{s}}, \boldsymbol{h}_{\boldsymbol{s v}}$ をパラメータで定数倍した後に結合して混合する. これらの手法で混合した特徴表現ベクトル $\boldsymbol{h}_{\text {Gate }}, \boldsymbol{h}_{\text {Concat }}$ を全結合層とソフトマックス関数により関係を予測する。 ## 4 実験と考察 人手の教師のデータセットとして,5,000 件の医学文献に対して薬物,タンパク質とそれらの関係がタグ付けされた DragProtコーパス [15]を用いて関係抽出を学習し, 開発データで評価した. 評価指標には $\mathrm{F}$ 値を用いた. 遠距離教師のデータセットは 3.2 節の手法で作成し, 事例数は 400,867 件である. また,実験環境の詳細は付録 B 章に示す。 ## 4.1 関係抽出の性能比較 人手の教師データのみで学習したベースラインと提案手法の抽出性能を比較する実験を行った. ベー スラインとして, データセットと近いドメインで事前学習された PubMedBERT, BioRoBERTa-large[16] をべースとした関係抽出モデルを人手の教師データのみで学習したモデルを用いた. BioRoBERTa-large はパラメータサイズが PubMedBERT のおよそ 3 倍の大規模な事前学習モデルであり,DragProtコーパス [15]を用いたコンペティションにおいて外部知識を用いないモデルの中でSOTAを達成し, 開発デー タで $77.46 \%$ を記録した [17] モデルである。結果を表 1 に示す. まず,PubMedBERTをベースラインとして提案手法を適用した場合の性能に着目する。 遠距離教師データのみで学習した際の $\mathrm{F}$ 値のマイクロ平均は $16.6 \%$ と低いものの,全提案手法において,人手の教師データが少ない AGONIST, PRODUCT-OF に対する予測性能が大きく向上した。これは遠距離教師データの特徵表現を活用することで,ノイズの影響を緩和しながら人手の教師データの不足を補えたためだと考えられる。また,特徴量表現の混合により遠距離教師データを利用した Gate, Concat は人手の教師データが多い ANTAGONIST をはじめとした多くの関係に対する予測性能が向上し,マイクロ平均も全体で 0.8 ポイント向上した. このことから,事前学習より特徴量表現の混合の方が遠距離教師データの特徵表現の利用方法として有効であると分かった。 次に,BioRoBERTaをベースラインとして提案手法を適用した場合の性能に注目する、マイクロ平均において,提案手法により 0.5 ポイントの性能向上が得られた. 更に,関係ごとの $\mathrm{F}$ 值を比較しても, ACTIVATOR, ANTAGONIST, SUBSTRATE を除く全ての関係で性能が向上もしくは維持された。この結果と PubMedBERT の結果から,提案手法はモデルのパラメータサイズに依らず性能向上が得られることが分かった. ## 4.2 小規模の教師データでの性能比較 本節では,小規模の人手の教師データで学習する際の提案手法の有効性を検証した. 本研究では,作成コストの低い遠距離教師データの活用により,教師データを追加で作成するコストを抑えながら薬物 表 1 関係抽出性能比較 (評価指標は $\mathrm{F}$ 值) & & & & & & & \\ タンパク質間相互作用抽出の性能向上を目指している. 4.1 節では人手の教師データを全て使って学習し,提案手法によりベースラインから性能向上が得られることが確認できた。そこで,小規模の人手の教師データで学習する際の有効性を検証するため,人手の教師データの一部のみを使って学習し, ベー スラインと提案手法の関係抽出性能を比較した. $[100,200,500,1,000]$ の事例数の各関係の人手の教師データを使ってモデルを学習した際の開発データでの性能を確認した. 提案手法には, 4.1 節でベースラインから最も性能向上が得られた Concat で特徴表現を混合するモデルを用いた。 結果を図 3 に示す. 4.1 節で人手の教師データを全て使って学習した際と同様にベースラインから大幅な性能向上は得られなかったが,全ての事例数で一貫して性能が向上した. このことから, 提案手法により遠距離教師データから得られる特徴表現を利用することで,訓練に使用できる人手の教師データの事例数に依らず性能の向上が得られることが分かった. ## 5 おわりに 遠距離教師データを低コストで作成し,活用することで,教師データの作成コストを抑えながら薬物タンパク質間相互作用抽出の性能向上を目指した. そこで,2 種類の遠距離教師データの活用手法を提案した. 両手法ともに人手の教師データが少ない関 図 3 訓練事例数と Micro-F の関係 係に対する予測性能がベースラインから向上した. さらに,特徴表現混合法では人手の教師データが多い関係に対する予測性能とマイクロ平均も向上し,提案手法の有効性を示すことができた。加えて,モデルのパラメータサイズや訓練に使用できる人手の教師データの事例数に依らず性能向上が得られることを示した。 今後は,さらなる性能の向上に向け,混合特徵表現法での事前学習と特徴表現の混合部分の学習手法を検討する予定である。 ## 謝辞 本研究は JSPS 科研費 JP20K11962 の助成を受けたものです. ## 参考文献 [1] NCBI Resource Coordinators. Database resources of the national center for biotechnology information. Nucleic Acids Res., 12016. [2] Yu Gu, Robert Tinn, Hao Cheng, Michael Lucas, Naoto Usuyama, Xiaodong Liu, Tristan Naumann, Jianfeng Gao, and Hoifung Poon. Domain-specific language model pretraining for biomedical natural language processing. ACM Transactions on Computing for Healthcare, Vol. 3, No. 1, p. 1-23, Jan 2022. [3] Mike Mintz, Steven Bills, Rion Snow, and Daniel Jurafsky. Distant supervision for relation extraction without labeled data. In Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP, pp. 1003-1011, Suntec, Singapore, August 2009. Association for Computational Linguistics. [4] Iz Beltagy, Kyle Lo, and Waleed Ammar. Combining distant and direct supervision for neural relation extraction. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 1858-1867, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [5] Daojian Zeng, Kang Liu, Yubo Chen, and Jun Zhao. Distant supervision for relation extraction via piecewise convolutional neural networks. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1753-1762, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding, 2019. [7] Diederik Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Proceedings of the 3rd International Conference for Learning Representations, 2015. [8] 飯沼直己, 三輪誠, 佐々木裕. 遠距離教師データを援用した教師あり薬物タンパク質間相互作用抽出. 言語処理学会第 26 回年次大会, 2020. [9] Wishart DS, Feunang YD, Guo AC, Lo EJ, Marcu A, Grant JR, Sajed T, Johnson D, Li C, Sayeeda Z, Assempour N, Iynkkaran I, Liu Y, Maciejewski A, Gale N, Wilson A, Chin L, Cummings R, Le D, Pon A, Knox C, and Wilson M. Drugbank 5.0: a major update to the drugbank database for 2018. Nucleic Acids Res., 12018. [10] The UniProt Consortium. UniProt: the universal protein knowledgebase in 2021. Nucleic Acids Research, Vol. 49, No. D1, pp. D480-D489, 112020. [11] Allan Peter Davis, Cynthia J Grondin, Robin J Johnson, Daniela Sciaky, Jolene Wiegers, Thomas C Wiegers, and Carolyn J Mattingly. Comparative Toxicogenomics Database (CTD): update 2021. Nucleic Acids Research, Vol. 49, No. D1, pp. D1138-D1143, 102020. [12] Mark Neumann, Daniel King, Iz Beltagy, and Waleed Ammar. ScispaCy: Fast and Robust Models for Biomedical Natural Language Processing. In Proceedings of the 18th BioNLP Workshop and Shared Task, pp. 319-327, Florence, Italy, August 2019. Association for Computational Linguistics. [13] Obdulia Rabal, Jose Antonio López, Astrid Lagreid, and Martin Krallinger. DrugProt corpus relation annotation guidelines [ChemProt - Biocreative VI], June 2021. [14] Iz Beltagy, Kyle Lo, and Arman Cohan. Scibert: Pretrained language model for scientific text. In EMNLP, 2019. [15] Martin Krallinger, Obdulia Rabal, Antonio MirandaEscalada, and Alfonso Valencia. DrugProt corpus: Biocreative VII Track 1 - Text mining drug and chemical-protein interactions, June 2021. [16] Patrick Lewis, Myle Ott, Jingfei Du, and Veselin Stoyanov. Pretrained language models for biomedical and clinical tasks: Understanding and extending the state-of-the-art. In Proceedings of the 3rd Clinical Natural Language Processing Workshop, pp. 146-157, Online, November 2020. Association for Computational Linguistics. [17] Wonjin Yoon, Sean Yi, Richard Jackson, Hyunjae Kim, Sunkyu Kim, and Jaewoo Kang. Using knowledge base to refine data augmentation for biomedical relation extraction. November 2021. [18] Guido Van Rossum and Fred L. Drake. Python 3 Reference Manual. CreateSpace, Scotts Valley, CA, 2009. [19] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, Alban Desmaison, Andreas Kopf, Edward Yang, Zachary DeVito, Martin Raison, Alykhan Tejani, Sasank Chilamkurthy, Benoit Steiner, Lu Fang, Junjie Bai, and Soumith Chintala. Pytorch: An imperative style, high-performance deep learning library. In Advances in Neural Information Processing Systems 32, pp. 8024-8035. Curran Associates, Inc., 2019. [20] Takuya Akiba, Shotaro Sano, Toshihiko Yanase, Takeru Ohta, and Masanori Koyama. Optuna: A next-generation hyperparameter optimization framework. In Proceedings of the 25rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 2019. 表 2 関係マッピングの辞書 表 3 実験に用いたハードウェア ## 付録 ## A 関係名のマッピング 3.2 節で説明した DrugBank 上の相互作用名とタスク上の関係名のマッピングに用いた辞書を表 2 に示す. ## B 実験環境 4 章で示した実験を行った環境について説明する. 実装には,Python3 [18] のバージョン 3.8 .1 と深層学習ライブラリである PyTorch [19] のバージョン 1.9.0を用い,表 3 に示すハードウェア環境で実験した. 学習時のハイパーパラメータは表 4 の探索範囲からオープンソースのハイパーパラメータ自動最適化フレームワーク Optuna[20]を用いて, 開発データでの $\mathrm{F}$ 值のマイクロ平均が最大になるようにパラメータ探索をして決定した。表 4 パラメータ探索範囲
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C2-2.pdf
# 薬学知識グラフ上のへテロな情報を利用した 文献からの薬物相互作用抽出 浅田 真生 三輪誠 佐々木裕 豊田工業大学 \{sd19501, makoto-miwa, yutaka.sasaki\}@toyota-ti.ac.jp ## 概要 文献からの薬物相互作用抽出において,近年では事前学習済み深層ニューラルモデルを用いた手法が広く用いられている。これらの手法は薬物メンション周辺の文脈情報のみを考慮しているが,文脈理解に薬物の背景知識が必要とされる薬学文献の読解においては,薬物にまつわるへテロな情報を深層ニューラルモデルに考慮させることが必要であると考えられる.本研究では,薬物に関する様々な情報が登録されたへテロ薬学知識グラフの表現を薬物相互作用抽出に援用する手法を提案する. SemEval-2013 Task 9.2 データセットで提案手法を学習・評価し,薬物のへテロな情報を用いることで世界最高性能となる $85.02 \%$ F 值を達成した。 ## 1 はじめに 薬物相互作用とは,患者に複数の薬物を併用投与した際に,薬物の本来の作用が増強・弱減したり,予期せぬ副作用が生じる現象のことである。「根拠に基づく医療」[1]を実践し,投薬過誤を防ぐためには,薬学論文から薬物相互作用に関する知識を網羅的に抽出しておくことが重要であり,そのために文献からの薬物相互作用の自動抽出技術による支援が期待されている. 著者らはこれまで,深層ニューラルモデルによる文献からの薬物相互作用抽出に取り組む上で,従来の文献のみを対象にした抽出の限界を超えるためには,外部知識の活用が必須であると考え,外部知識を薬物相互作用抽出に取り入れる研究 [2], 様々なドメイン情報を含んだへテロな薬物知識グラフを作成しリンク予測を行う研究 [3] を行ってきた。本稿ではこれらの研究を発展させ,へテロな薬学知識グラフを外部知識として利用した薬物相互作用抽出に取り組む。本稿では,薬物のへテロなドメイン情報を考慮した薬物エンティティ表現を,文献からの薬物相互作用抽出に利用する手法を提案する。このエンティティ表現は,薬物データベース DrugBank [4], タンパク質データベース UniProt [5],医療用語シソーラス MeSH [6],パスウェイデータベース Small Molecule Pathway Database (SMPDB) [7] を用いて作成した薬物のへテロなドメイン情報を含んだへテロ薬学知識グラフに対して,リンク予測モデルを学習することで獲得した表現である. 本研究の貢献は以下の通りである。 ・へテロなドメイン情報を考慮した薬物エンティティ表現を利用した薬物相互作用抽出モデルを提案した. ・提案した手法を SemEval-2013 Task 9.2 データセット [8] で評価し,薬物にまつわるへテロなドメイン情報の活用により抽出性能の向上を達成した。 ## 2 関連研究 ## 2.1 深層ニューラルモデルによる薬物相互作用抽出 文献からの薬物相互作用抽出タスクでは,大規模な薬学文献を用いて事前学習した BioBERT [9], SciBERT [10], PubMedBERT [11] といったモデルを用いた手法が広く使用されている。ただし,これらの研究は入力文の文脈情報のみを利用しており,文書や薬物の背景にある様々なドメイン情報を考慮できていない. ## 2.2 薬物の分子構造と説明文を用いた薬物相互作用抽出 著者らは,入力文中の薬物メンションについて,薬物データベース DrugBank にアクセスして薬物の分子構造情報と説明文情報を獲得し,分子構造情報,説明文情報をそれぞれ Graph Neural Networks 図 1 へテロ薬学情報を利用した薬物相互作用抽出モデル (GNNs) [12], SciBERT [10] で表現し, 入力文の表現と組み合わせて薬物相互作用抽出を行う手法 [2] を提案した。薬物の分子構造情報及び説明文情報を利用することでどちらの情報も薬物相互作用の抽出性能を向上できること,さらに,モデルのアンサンブルによって,分子構造情報と説明文情報の両者を考慮することで抽出性能をさらに向上できることを報告した. ## 2.3 ヘテロ薬学知識グラフの表現ベクトル 獲得 著者らは,複数のデータベースを用いて異なる種類の情報を節点としたへテロ薬学知識グラフを構築し,薬物にまつわるへテロな情報を考慮したべクトル表現を獲得した [3]. 作成したへテロ薬学知識グラフの概要を図 $1 \mathrm{~A}$ に示す. 知識グラフに含まれるノードの種類は以下に示す 5 種類である. ・薬物:薬物データベース DrugBank に登録された 10,000 件以上の薬物 ・タンパク質:タンパク質データベース UniProt のうち, Swiss-Protに登録されたタンパク質 ・パスウェイ : パスウェイデータベース SMPDB に登録された 30,000 件以上のパスウェイ -MeSH カテゴリ:薬物のカテゴリ情報を表す医療シソーラス MeSH のエントリ $\cdot$ATC コード: Anatomical Therapeutic Chemical (ATC) 分類システムによって階層化された薬物のカテゴリ情報 上記, 5 種類のへテロなノードは,以下に示す 8 種類の関係でリンクされる。 ・category: 薬物ノードと MeSH カテゴリノードの関係.この関係は, 薬物が MeSHによって定義された治療カテゴリーまたは一般カテゴリーに分類されることを示す. -ATC: 薬物ノードと ATC コードノードの関係.例えば,薬物 Morphine は ATC コードとして A07DA52 が割り当てられているが,全ての親コード (A, A07, A07D, A07DA) のノードも ATC 関係でリンクされる。 - pathway: 薬物またはタンパク質とそれらが含まれているパスウェイの関係. 薬物または酵素タンパク質が代謝,疾患,および生物学的パスウェイに関与している場合,薬物・タンパク質ノードとパスウェイのノードがリンクされる. - interact: 薬物相互作用が報告されている薬物ぺア間の関係. - target: 薬物ノードとタンパク質ノードの関係. タンパク質,高分子,拡散,または特定の薬物が結合する小分子であり,結合した分子の正常な機能と望ましい治療効果の変化をもたらす場合,この関係でリンクされる。 - enzyme: 薬物ノードとタンパク質ノードの関係.特定の薬物が関与する化学反応を触媒するタンパク質の場合,この関係でリンクされる. - carrior: 薬物ノードとタンパク質ノードの関係.薬物に結合して細胞輸送体に運ばれ,そこで細胞内に移動する分泌タンパク質の場合,この関 係でリンクされる - transporter: 薬物ノードとタンパク質ノードの関係. イオン,小分子,または高分子を膜を越えて細胞内または細胞外にシャトルする膜結合夕ンパク質の場合,この関係でリンクされる。 作成したへテロ薬学知識グラフは, 有向グラフ $\varphi=(E, R, F)$ とみなすことができる. ここで, $E$ はエンティティの集合, $R$ は関係の集合, $F$ は関係トリプルの集合である。関係トリプルは $(h, r, t)$ で表現され $, h, r, t$ はそれぞれ先頭エンティティ, 関係,末尾エンティティである. グラフ埋め込み表現の学習は,負例サンプリングによって行う. 正例の関係トリプル集合を $\mathbb{D}^{+}$,擬似的に作成した負例の関係トリプル集合を $\mathbb{D}^{-}$としたときに,損失関数は以下のように示される. $L_{K G}=\sum_{\left.(h, r, t) \in \mathbb{D}^{+} \cup \mathbb{D}\right)^{-}} \log (1+\exp (y \cdot f(h, r, t)))+\lambda\|\Theta\|_{2}^{2}$ ここで, $f(h, r, t)$ は関係トリプルのスコア関数である. スコア関数としては,TransE [13], DistMult [14], ComplEx [15], SimplE [16] を用いた. ## 3 提案手法 本研究では,薬物のへテロな情報を文献からの薬物相互作用抽出タスクに活用するために,薬学へテ口知識グラフ表現を利用した薬物相互作用抽出手法を提案する。提案モデルの全体像を図 1 に示す. ## 3.1 知識グラフ表現を活用した薬物相互作用抽出 2.3 節で説明した知識グラフ表現を利用して,文献からの薬物相互作用抽出を行う. 2 つ薬物メンション $m_{1}, m_{2}$ を含む入力文 $S=\left(w_{1}, w_{2}, \cdots, w_{n}\right)$ が与えられたとき,これを BERT エンコーダの入力とし,BERT の [CLS] トークンを入力文の表現ベクトル $\mathbf{h}_{\text {input }}$ とする. 図 1B に示すように,入力文中の薬物メンション $m_{1}, m_{2}$ を知識グラフの薬物エンティティとリンキングを部分文字列一致によって行い,対応する知識グラフ埋め込みベクトル $\mathbf{h}_{K G_{1}}, \mathbf{h}_{K G_{2}}$ を得る。知識グラフの表現ベクトルと,入力文の表現ベクトルを図 $1 \mathrm{C}$ に示すように組み合わせる。 $ \begin{aligned} & \mathbf{h}_{K G^{\rightarrow}}=W_{1}\left(\left[\mathbf{h}_{K G_{1}} ; \mathbf{h}_{K G_{2}}\right]\right)+b_{1} \\ & \mathbf{h}_{K G^{\leftarrow}}=W_{1}\left(\left[\mathbf{h}_{K G_{2}} ; \mathbf{h}_{K G_{1}}\right]\right)+b_{1} \end{aligned} $ ここで,[;] はベクトルの連結, $W^{1}, b^{1}$ は重み行列とバイアスを表す. $\mathbf{h}_{a}$ と $\mathbf{h}_{b}$ の和を大力文表現 $\mathbf{h}_{\text {input }}$ と連結し,全結合層の入力とする。 $ \begin{gathered} \mathbf{h}_{K G}=\mathbf{h}_{K G^{\rightarrow}}+\mathbf{h}_{K G^{\leftarrow}} \\ \mathbf{h}_{F C}=W_{2}\left(\left[\mathbf{h}_{\text {input }} ; \mathbf{h}_{K G}\right]\right)+b_{2} \\ \hat{\mathbf{y}}=\operatorname{Softmax}\left(\mathbf{h}_{F C}\right) \end{gathered} $ 正解ラベル $\mathbf{y}$ との交差エントロピー損失を最小にするように学習を行う。 $ L=-\sum_{x=1}^{X} \mathbf{y}_{x} \log \hat{\mathbf{y}}_{x} $ ## ここで,Xは全インスタンス数を表す. ## 3.2 モデルのアンサンブルによるへテロ情報の組み合わせ 薬物エンティティの知識グラフ表現 $\mathbf{h}_{K G_{1}}, \mathbf{h}_{K G_{2}}$ を, $\mathbf{h}_{\text {mol }_{1}}, \mathbf{h}_{\text {mol }_{2}}$ または $\mathbf{h}_{\text {desc }_{1}}, \mathbf{h}_{\text {desc }_{2}}$ に置き換えることで,分子構造または説明文を用いた手法 [2] となる.ここで, $\mathbf{h}_{\text {mol }_{i}}$ は薬物メンション $m_{i}(i=1,2)$ の分子構造情報を GNN で表現したべクトル, $\mathbf{h}_{\text {desc }_{i}}$ は説明文情報を BERT でエンコードした [CLS]トークンのベクトル表現である.分子構造表現,説明文表現,知識グラフ表現の組み合わせを深層ニューラルモデルのアンサンブルによって行う. $M$ 個のモデルを用いる場合,それぞれのモデルの出力ベクトルは式 6 により計算され,これを $\hat{\mathbf{y}}_{m}(m=1, \ldots, M)$ とする. モデルの予測確率の平均を最終的な出力 $\hat{\mathbf{y}}_{\text {all }}$ とする。 $ \hat{\mathbf{y}}_{\text {all }}=\frac{1}{M} \sum_{m=1}^{M} \hat{\mathbf{y}}_{m} $ ## 4 実験設定 薬物相互作用抽出コーパスとして,SemEval-2013 Task 9.2 (DDIExtraction-2013 shared task) データセットを用いた。このデータセットは,薬物ぺアを含んだ文から構成され,薬物ペアそれぞれに対して,以下に示す 4 種類の薬物相互作用が正解付けされている. データセットの内訳を付録 A の表 3 に示す. ・Mechanism 薬物ペアが薬物動態学敵作用を持つ. ・Effect 薬物ペアが薬力学敵作用を持つ. ・Advice薬物ペアを併用する際の推奨を表す。 - Interaction (Int.) 薬物ペアが薬物相互作用を持つことのみを表す。 表 1 ヘテロ薬学知識グラフ上のリンク予測タスク精度 (MRR) コーパス中の薬物メンションとへテロ知識グラフの薬物エンティティとの対応付けは,小文字に変換した後の部分文字列一致により行った. 薬物メンションと文字列一致を行う対象として, DrugBank に登録された薬物の見出し語,製品名,製剤名,シノニムを用いた。コーパス中の訓練データの 2,242 種類の薬物メンションのうち,一致が取れたものは $90.5 \%$ ,評価データの 854 種類の薬物メンションの 入力文表現のための事前学習済みモデルとして, PubMedBERT [11]を用いた. SemEval-2013 Task 9.2 データセットは公式の開発データセットが提供されていないため,訓練データを $4: 1$ に分割して開発データセットを作成し,ハイパーパラメータチュー ニングを行った。ハイパーパラメータの決定後は,分割前の訓練データでモデルを再度学習し, 評価データセットで評価を行った. へテロ知識グラフデータセットを訓練・開発・テストに分割し,学習と評価を行った. 知識グラフの埋め込み表現獲得のために使用したデータセットの統計を付録 Aに示す。 ## 5 結果 表 1 に,へテロ薬学知識グラフに対するグラフ埋め込み表現の性能を確認するために,リンク予測タスクの精度を示す. リンク予測の評価指標として, Mean Reciprocal Rank (MRR) を用いた. 表 1 より,全ての関係ごとの MRR を平均すると,スコア関数として DisMult を用いた場合が最も性能が高かった. 関係ラベルごとに MRRを見ると,スコア関数 TransE を用いた場合は,interactの関係において低い MRRを示した. これは,知識グラフ中の薬物相互作用の関係は対称であるが,TransE が対称の関係性を捉えられないからであると考えられる。 続いて,SemEval-2013 Task 9.2 データセット上で表 2 薬物相互作用抽出タスクの性能 評価した文献からの薬物相互作用抽出の性能を表 2 に示す。評価指標として,マイクロ平均 $\mathrm{F}$ 値を用いた. SciFive [17] は, 入力と出力をどちらもテキストフォーマットで取り扱うモデル Text-to-Text Transfer Transformer (T5) [18] を生物医学ドメイン向けに再学習したモデルである. SciBERT (Mol. + Desc.) [2] は,薬物の分子構造情報と説明文情報を用いた手法である. へテロ知識グラフの情報を用いた手法に着目すると,いずれのスコア関数で学習した知識グラフベクトル表現を用いた場合でも,PubMedBERT で入力文情報のみを用いる手法よりも高い $\mathrm{F}$ 值を示した。 Ensemble (KG + Mol. + Desc.) は,開発データセットで最も高い性能を示したスコア関数によるモデルと,分子構造情報を用いたモデル及び説明文情報を用いたモデルの 3 つのモデルをアンサンブルによって組み合わせた手法である。知識グラフの情報を除いた Ensemble (Mol. + Desc.) と比較すると, 分子構造情報と説明文情報に知識グラフの情報を加えることでさらに高い $\mathrm{F}$ 値が得られることが分かった. ## 6 おわりに 本研究では,文献からの薬物相互作用抽出タスクにおいて,薬物にまつわるへテロな情報の活用を目的とし, 著者らが作成したへテロ薬学知識グラフの埋め込み表現を利用するモデルを提案した.提案した手法を SemEval-2013 Task 9.2 データセットで学習・評価したところ,薬物に関するへテロなドメイン情報を利用することで,これまでの最高性能を越 今後は,知識グラフ表現の学習と入力文表現の学習を同時に行い,さらに知識グラフ表現と入力文表現の組み合わせ手法の改善を行う予定である. ## 謝辞 本研究は JSPS 科研費 JP20K11962 の助成を受けたものです. ## 参考文献 [1] David L Sackett. Evidence-based medicine. In Seminars in perinatology, Vol. 21, pp. 3-5. Elsevier, 1997. [2] Masaki Asada, Makoto Miwa, and Yutaka Sasaki. Using drug descriptions and molecular structures for drug-drug interaction extraction from literature. Bioinformatics, Vol. 37, No. 12, pp. 1739-1746, 102020. [3] Masaki Asada, Nallappan Gunasekaran, Makoto Miwa, and Yutaka Sasaki. Representing a heterogeneous pharmaceutical knowledge-graph with textual information. Frontiers in Research Metrics and Analytics, Vol. 6, , 2021. [4] David S Wishart, Yannick D Feunang, An C Guo, Elvis J Lo, Ana Marcu, Jason R Grant, Tanvir Sajed, Daniel Johnson, Carin Li, Zinat Sayeeda, Nazanin Assempour, Ithayavani Iynkkaran, Yifeng Liu, Adam Maciejewski, Nicola Gale, Alex Wilson, Lucy Chin, Ryan Cummings, Diana Le, Allison Pon, Craig Knox, and Michael Wilson. DrugBank 5.0: a major update to the DrugBank database for 2018. Nucleic Acids Research, Vol. 46, No. D1, pp. D1074-D1082, 112017. [5] The UniProt Consortium. UniProt: a worldwide hub of protein knowledge. Nucleic Acids Research, Vol. 47, No. D1, pp. D506-D515, 112018. [6] C. E. Lipscomb. Medical Subject Headings (MeSH). Bulletin of the Medical Library Association, Vol. 88, No. 3, pp. 265-266, Jul 2000. 10928714. [7] T. Jewison, Y. Su, F. M. Disfany, Y. Liang, C. Knox, A. Maciejewski, J. Poelzer, J. Huynh, Y. Zhou, D. Arndt, Y. Djoumbou, Y. Liu, L. Deng, A. C. Guo, B. Han, A. Pon, M. Wilson, S. Rafatnia, P. Liu, and D. S. Wishart. SMPDB 2.0: big improvements to the Small Molecule Pathway Database. Nucleic Acids Research, Vol. 42, No. Database issue, pp. D478-484, Jan 2014. [8] Isabel Segura-Bedmar, Paloma Martínez, and María Herrero-Zazo. SemEval-2013 task 9 : Extraction of drugdrug interactions from biomedical texts (DDIExtraction 2013). In Second Joint Conference on Lexical and Computational Semantics ( ${ }^{*}$ SEM), Volume 2: Proceedings of the Seventh International Workshop on Semantic Evaluation (SemEval 2013), pp. 341-350, Atlanta, Georgia, USA, June 2013. Association for Computational Linguistics. [9] Yifan Peng, Shankai Yan, and Zhiyong Lu. Transfer learning in biomedical natural language processing: An evaluation of BERT and ELMo on ten benchmarking datasets. In Proceedings of BioNLP 2019, pp. 58-65, Florence, Italy, August 2019. [10] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A pretrained language model for scientific text. In Proceedings of EMNLP-IJCNLP 2019, pp. 3615-3620, Hong Kong, China, November 2019. [11] Yu Gu, Robert Tinn, Hao Cheng, Michael Lucas, Naoto Usuyama, Xiaodong Liu, Tristan Naumann, Jianfeng Gao, and Hoifung Poon. Domain-specific language model pretraining for biomedical natural language processing. ACM Transactions on Computing for Healthcare (HEALTH), Vol. 3, No. 1, pp. 1-23, 2021. [12] Masashi Tsubaki, Kentaro Tomii, and Jun Sese. Compound-protein interaction prediction with end-to-end learning of neural networks for graphs and sequences. Bioinformatics, Vol. 35, No. 2, pp. 309-318, 2019. [13] Antoine Bordes, Nicolas Usunier, Alberto Garcia-Duran, Jason Weston, and Oksana Yakhnenko. Translating embeddings for modeling multi-relational data. In Neural Information Processing Systems (NIPS), pp. 1-9, 2013. [14] Bishan Yang, Wen-tau Yih, Xiaodong He, Jianfeng Gao, and Li Deng. Embedding entities and relations for learning and inference in knowledge bases. 2014. [15] Théo Trouillon, Johannes Welbl, Sebastian Riedel, Éric Gaussier, and Guillaume Bouchard. Complex embeddings for simple link prediction. In International Conference on Machine Learning, pp. 2071-2080. PMLR, 2016. [16] Seyed Mehran Kazemi and David Poole. SimplE embedding for link prediction in knowledge graphs. In Proceedings of the 32nd International Conference on Neural Information Processing Systems, pp. 4289-4300, 2018. [17] Long N. Phan, James T. Anibal, Hieu Tran, Shaurya Chanana, Erol Bahadroglu, Alec Peltekian, and Grégoire Altan-Bonnet. SciFive: a text-to-text transformer model for biomedical literature, 2021. [18] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [19] Takuya Akiba, Shotaro Sano, Toshihiko Yanase, Takeru Ohta, and Masanori Koyama. Optuna: A next-generation hyperparameter optimization framework. In Proceedings of the 25rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 2019. [20] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In International Conference on Learning Representations, 2019. [21] Manuel Le Gallo, Abu Sebastian, Roland Mathis, Matteo Manica, Heiner Giefers, Tomas Tuma, Costas Bekas, Alessandro Curioni, and Evangelos Eleftheriou. Mixedprecision in-memory computing. Nature Electronics, Vol. 1, No. 4, pp. 246-253, 2018. ## A データセットの統計 各データセットの統計を表 3,45 に示す. 表 3 SemEval-2013 Task 9.2 データセットの統計 表 4 ヘテロ薬学知識グラフのエンティティの統計 表 5 ヘテロ薬学知識グラフの関係トリプルの統計 ## B 学習設定 モデルの学習は NVIDIA 社 RTX A6000 が搭載されたマシンを用いて行った. ハイパーパラメータチューニングは Optuna [19]を用いて行った. オプティマイザとして AdamW [20]を使用し,学習率を 5e-05, ミニバッチサイズを 128 , ドロップアウト率を 0.1 に設定した. ベクトル $\mathbf{h}_{K G}$ の次元数は, 全てのスコア関数に対して 64 で共通とした。メモリ効率化のために mixed-precision 学習 [21]を採用した。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C2-3.pdf
# 項の表現に着目した質問応答による関係分類 山田晃士 三輪誠 佐々木裕 豊田工業大学 \{sd18086, makoto-miwa,yutaka.sasaki\}@toyota-ti.ac.jp ## 概要 関係分類の新しい手法として,質問応答による関係分類が提案されている.これらの手法では,既存の質問応答モデルを用いているため,関係分類タスク特有の情報を利用できていない。また,回答の開始・終了位置のみを予測するため,その間の表現を利用していない。本研究では、関係に関するマー カーと,スパン表現を用いた質問応答モデルを用いて、タスク特有の情報と間の表現を利用可能な質問応答による関係分類手法を提案する.SemEval-2010 Task 8 データセットを用いた評価の結果,マーカー を用いない場合と比べて,性能は $1.9 \%$ ポイント向上した.また,解析では,マーカーの追加により,正しく用語を回答できるようになることを確認した。 ## 1 はじめに 構造化されていない文献中から情報を抽出する夕スクの一つとして,文献中に含まれる用語間に成り立つ関係を候補となる関係ラベルに分類する関係分類が研究されている. 関係分類手法のうち,高い精度を達成しているものとして,質問応答を用いた関係分類手法 $[1,2,3]$ がある。例として,「フランスの首都はパリである」 という対象文中で与えられた用語であるフランスとパリの間に首都という関係があるかどうかを判定する問題を,「フランスの首都はどこですか?」という質問文をこの対象文に対して適用して回答を探す問題に置き換える。パリが回答であると判定されればフランスとパリの間に首都の関係があると判定する.具体的には,まず,候補となる関係ラベルすべてに対して用語をスロットとする質問文のテンプレートを作成して,そこにデータセットで与えられる用語ペアの片方の用語を当てはめることで質問文を作成する。作成した質問文と元の文を質問応答モデルに入力し,得られた回答がもう一つの用語のときテンプレートがもつ関係があるとして関係分類を 図 1 提案手法の概要 する。質問応答を用いた関係分類手法には,関係ごとに異なる質問文を用意することで,それぞれの関係に注目した処理を行えるという利点がある。一方で,既存の質問応答を用いた関係分類手法では,多くの関係分類のデータセット $[4,5]$ が持つ関係分類特有の情報を利用できていないという問題点がある. 関係分類特有の情報とは,タスクにおいて既知である用語のタイプや,関係の項それぞれのタイプなどを指す. そこで,本研究では,関係分類タスク特有の情報の一つである関係の項のタイプの有効活用による, 質問応答を用いた関係分類手法の性能向上を目的とする. データセットに含まれる項のタイプを,元の文と質問文に対してマーカーとして追加することで,質問応答型の関係分類手法の利点である各関係に注目した大力を保ったまま,モデルの大幅な変更をすることなく,関係分類に特化させる。 ## 2 関連研究 Cohen らは図 2 のように関係の始点と終点をそれぞれ予測する 2 つの質問を用いて双方向の質問応答を行い,得られた回答を基に関係を分類する手法 [1] を提案している. 関係ごとに 2 つ用意したテンプレートを用いて,用語と関係からなる質問文を用語ペアそれぞれについて作成して質問応答を行う。 2 つのテンプレートは関係の始点を当てはめて終点を予測するものと,終点を当てはめて始点を回答するものになっている. 2 の質問文に対して片方でも質問応答の回答がもう片方の用語であった場合に関係があると判定して分類する. 質問応答は回答の開始位置と終了位置をそれぞれ予測するモデルで行う.BERT[6] に文と質問文を入力し,得られた文の各トークンの表現から,そのトークンの開始位置のスコアと終了位置のスコアを個別に計算し,それぞれのスコアが最も高い開始位置と終了位置を持つスパンが質問の回答となる。この方法では,回答の終了位置が開始位置より前に出てしまうという実際にはありえないスパンが回答になってしまう可能性がある。また,回答の開始位置と終了位置のみを予測するため, その間の表現を利用できない. さらに, この手法は既存の質問応答をそのまま用いているため,タスクで与えられている情報を利用していないという問題がある. ## 3 提案手法 本研究では関係分類タスクに質問応答モデルを用いる際に,関係分類タスク特有の情報を活用する手法を提案する. Cohen らの手法 [1] を拡張し,質問文のテンプレートで与えられる関係の情報に加えて,タスクに与えられる関係の項それぞれのタイプを示すマーカーを加えることで,関係分類において事前に与えられる用語の情報を質問応答モデルに与える。また,質問応答モデルをスパンそのものを回答するようにすることで,回答がありえないスパンになることを防ぐとともに,開始位置と終了位置以外の間のトークンの表現も含む回答全体の情報を利 図 2 双方向の質問応答による関係分類 [3] 用する. 図 1 に提案手法の概要を示す. ## 3.1 入力文の整形 質問応答モデルへの入力の準備として,関係ごとの質問文の作成と関係マーカーの付与を行う. 図 1 のように,関係ごとに,関係分類を行う文とテンプレートを用いて作成した質問文をそれぞれ関係情報のマーカーを加えたものに整形する。質問文のテンプレートは Cohen らのもの [1]を利用し, 双方向に質問を行う。関係マーカーは本稿で対象としている SemEval 2010 Task 8 データセット [4] で与えられる関係の項のタイプの情報を利用する。使用したテンプレートとマーカーは付録 $\mathrm{A}$ に示した. 関係分類を行う文に対しては用語を挟むようにマーカーを,質問文には用語の前後と回答に対応する疑問詞に対してマーカーを追加する。 ## 3.2 スパン表現を用いた質問応答 図 3 に質問応答モデルの概要を示す. 質問応答モデルは BERT[6] を利用したモデルとなっており,文と質問文を大力とし,文中に質問の回答があればその回答となるトークンを,なければ回答なしを表す BERT の CLS トークンを出力する.以降,モデルの詳細について説明する。 まず,BERT の CLS トークンと SEP トークンを利用して,質問文と文を連結して BERT に入力し, トークンごとの表現を得る。 ## [CLS] 質問文 [SEP] 文 [SEP] BERTへの入力を $x$ とした時,出力である表現の系列 $\boldsymbol{H}$ を以下のように表す.ここで, $N$ は入力のトー クン数, $\boldsymbol{h}_{i}$ は $i$ 番目のトークンの表現に相当し, $\boldsymbol{h}_{1}$ 図 3 スパン表現を用いた質問応答モデル は文頭である CLS トークンの表現となる. $ \boldsymbol{H}=\left[\boldsymbol{h}_{1}, \boldsymbol{h}_{2}, \ldots, \boldsymbol{h}_{N}\right]=\operatorname{BERT}(\boldsymbol{x}) $ 次に得られた表現 $\boldsymbol{H}$ のうち CLS トークンと文の表現から,質問文の回答の候補となるスパンの表現を作成する.CLS トークンの表現は回答なしの候補として用いる。あるトークン $\boldsymbol{h}_{i}$ から始まり, $\boldsymbol{h}_{j}$ で終わるスパンの表現 $s$ は以下のように求める. $ \boldsymbol{s}=\operatorname{Concat}\left(\boldsymbol{h}_{i}, \operatorname{mean}\left(\boldsymbol{h}_{i}, \cdots, \boldsymbol{h}_{j}\right), \boldsymbol{h}_{j}\right) $ 以上により得られたスパン表現のベクトル $s$ をまとめ,以下のようにスパン表現の系列 $S$ を作成する. $N^{\prime}$ は質問の回答となる可能性のあるスパン候補の数であり, $s_{1}$ は CLS トークンの表現である. $ \boldsymbol{S}=\left[\boldsymbol{s}_{1}, \boldsymbol{s}_{2}, \cdots, \boldsymbol{s}_{N^{\prime}}\right] $ 生成したスパン表現系列 $S$ に全結合層と Softmax 関数を適用することで確率の形に変換し,最も確率の高いスパンを質問の回答とする. CLS トークンが回答として選ばれた場合は,回答なしとする。 ## 4 実験と考察 ## 4.1 データセット 提案手法の評価を SemEval-2010 Task 8 のデータセット [4]を用いて行う.このデータセットは一文中の用語間の関係分類を行うデータセットで,訓練データ 8,000 件とテストデータ 2,717 件で構成される。訓練データを関係ラベルの割合が均一になるように 4:1 に分割し, 6,400 件を訓練データ,1,600 件を開発データとして用いる。分類する関係ラベルは表 1 提案手法と各種ベースラインのF 值 表 2 回答の表現とマーカーによる比較 正例 9 種類と負例の Other の 10 種類であるが,関係には方向があるため,方向を含めると正例 18 種類と負例 1 種類の計 19 種類の分類となる. 評価指標には負例を除いた 9 種類の関係ラベルを持つデータに対するマクロ $\mathrm{F}$ 值を用いる。 ## 4.2 実験環境 実装にはプログラミング言語 Python 3.7.11を用いた. また,深層学習モデルを実装するために Pytorch 1.10.0[7],事前学習済みモデルを利用するために Transformers 4.11.3[8] を使用した。計算機は,CPUに Intel(R) Xeon(R) W-3225,GPU に NVIDIA RTX A6000 をそれぞれ実験に使用した。 表 3 マーカーの有無によって回答が変化した事例(太字が正しい回答) \\ ## 4.3 実験設定 提案手法を評価するため,関係マーカーを追加しなかった場合のモデルと BERT の CLS トークンを用いて文分類として関係分類を行うべースラインモデルとの $\mathrm{F}$ 値の比較を行う.また,関係マーカーの代わりにデータセットに含まれる用語を表す用語マーカー<e1>,<e2>を用いた場合と,関係マーカー と用語マーカー両方を用いた場合について開発デー タで実験を行った. さらに,回答の開始位置と終了位置を回答の表現とする質問応答モデルを用いた場合についても開発データで実験を行った. 事前学習済みモデルとして,BERT-base-uncased[6]を使用した. 現状の SotA な手法である Cohen らのモデル [1] では BERT-large を用いているため, 直接の比較はできず,この比較は今後の課題である. ## 4.4 実験結果 表 1 の結果から,関係マーカーを入力文に追加することで性能が向上していることがわかる. また,表 2 の結果から開始・終了位置を予測するモデルでもマーカーによる精度向上が確認できる。さらに,質問応答にスパン表現を用いることでの性能向上や,関係ごとに固有のマーカーを用いることの有効性も確認できる. ## 4.5 考察 関係マーカーの有効性を,マーカーを加えたことによって改善した事例を用いて確認する、マーカー の有無によって変化した事例のいくつかを表 3 に示した. マーカーを加えたことで改善した回答として,用語以外を回答としていたものや,用語の一部を回答としていたものがあった.また,マーカーありとなしの場合における質問応答の正誤について McNemar 検定を行ったところ,有意に差が見られた ( $\mathrm{p}<0.001)$.これらの結果は関係マーカーを追加することの有効性を示している. ## 5 おわりに 本研究では,関係分類タスク特有の情報を有効活用し,質問応答を用いた関係分類の性能向上を目的に研究を行った. 質問応答型の関係分類に対して, マーカーを用いて関係の項のタイプの情報を有効利用する方法を提案し, SemEval-2010 Task 8 のデータセットを用いて,提案手法を評価したところ,マー カーを用いないベースラインに対して,1.9\%ポイントの性能向上が得られ,提案手法の有効性を示すことができた. また, 解析の結果, マーカーによって用語を正しく回答できていることがわかった. 今後は,1つの用語が複数の関係を持つ場合や,1 組の用語ぺアが複数の関係をもつ場合への拡張を行う。また,用語のタイプなどのさらなる追加情報を有効活用する方法を検討する。 さらに,現状の SotA なモデルとの比較を行い,本手法の有効性を調査する. ## 謝辞 本研究は JSPS 科研費 JP20K11962 の助成を受けたものです. ## 参考文献 [1] Amir DN Cohen, Shachar Rosenman, and Yoav Goldberg. Relation classification as two-way span-prediction. arXiv preprint arXiv:2010.04829v2, 2021. [2] Omer Levy, Minjoon Seo, Eunsol Choi, and Luke Zettlemoyer. Zero-shot relation extraction via reading comprehension. In Proceedings of the 21st Conference on Computational Natural Language Learning (CoNLL 2017), pp. 333-342, Vancouver, Canada, August 2017. Association for Computational Linguistics. [3] Xiaoya Li, Fan Yin, Zijun Sun, Xiayu Li, Arianna Yuan, Duo Chai, Mingxin Zhou, and Jiwei Li. Entity-relation extraction as multi-turn question answering. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1340-1350, Florence, Italy, July 2019. Association for Computational Linguistics. [4] Iris Hendrickx, Su Nam Kim, Zornitsa Kozareva, Preslav Nakov, Diarmuid Ó Séaghdha, Sebastian Padó, Marco Pennacchiotti, Lorenza Romano, and Stan Szpakowicz. SemEval-2010 task 8: Multi-way classification of semantic relations between pairs of nominals. In Proceedings of the 5th International Workshop on Semantic Evaluation, pp. 33-38, Uppsala, Sweden, July 2010. Association for Computational Linguistics. [5] Yuhao Zhang, Victor Zhong, Danqi Chen, Gabor Angeli, and Christopher D. Manning. Position-aware attention and supervised data improve slot filling. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 35-45, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [7] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, et al. Pytorch: An imperative style, high-performance deep learning library. Advances in neural information processing systems, Vol. 32, pp. 8026-8037, 2019. [8] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Huggingface's transformers: State-of-the-art natural language processing. arXiv preprint arXiv:1910.03771, 2019. ## A 質問テンプレートとマーカー 本研究で用いた質問文テンプレートと関係マーカーを表 4 に示す. 質問文テンプレートは Cohen らが用いたもの [1] を利用し,関係マーカーは SemEval-2010 Task 8 のデータセット [4] の関係ラベル名から作成した. & \\
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C2-4.pdf
# 設備保全レポートにおける 大規模マルチタスク情報抽出データセットの構築 谷口 元樹高橋 拓誠智子 富士フイルム株式会社 motoki.taniguchi@fujifilm.com ## 概要 情報抽出の既存のデータセットの課題は、その規模が小さいこと、アノテーションされているサブタスクの数が限られていること、対象テキストがフォーマルであるため抽出が比較的容易であることである。本論文では、これらの課題を解決し、より実応用に近いテストベッドとして工場設備の保全レポートを対象にした情報抽出データセットを構築する。我々のデータセットの特徴は、インフォーマルな書かれ方が比較的多い保全レポートを対象に、文分類・固有表現認識・モダリティ推定・関係抽出の 4 つの情報抽出サブタスクのラベルが約 1500 文書に付与されていることである。 ## 1 はじめに 情報抽出タスクの目的はテキストから固有表現や固有表現間の関係などの情報を抽出し、構造化することである。構造化された情報は情報検索やデータ分析などの下流のアプリケーションに有用である。 情報抽出タスクは固有表現認識、関係抽出、事実性判定などの複数のサブタスクから構成されている。固有表現認識では ACE (Automatic Content Extraction) などの評価型ワークショップが古くから開催されているように、情報抽出は多くの研究がなされてきた。近年にはディープラーニングを用いた手法の隆盛に加えて、複数のサブタスクを同時に学習・推論する手法も盛んに取り組まれている。 情報抽出の既存データセットにはいくつかの問題がある。1つ目は、データセットの規模が小さいことである。ディープラーニングを用いた手法では、 より高精度に情報を抽出できるモデルを学習するためには、データセットのサイズが大きいことが望ましい。2つ目は、多くのデータセットが 1 つしくは 2 つ情報抽出のサブタスクのラベルしか付与さ れていないことである。抽出した情報を情報検索やデータ分析などの下流のアプリケーションで活用する実応用を考えた際には、一つのサブタスクで定義できる情報だけでは一面的な情報しか抽出できず、十分ではない。また、ディープラーニングを用いた手法では複数のタスクを同時に学習するマルチタスク学習を行うことで、より高精度なモデルを学習することが知られている。このため、多くのサブタスクを同一文書にアノテーションしたデータセットがあれば、より効率的なモデル開発を行うことができる。3つ目は、対象となるテキストの書かれ方である。既存の多くのデータセットにはニュース記事などのフォーマルなテキストが用いられている。 フォーマルなテキストを対象にした情報抽出は高い精度を達成しやすいが、フォーマルなテキストで学習した情報抽出モデルをインフォーマルなテキストに適用すると精度が大幅に低下してしまう。このため、よりロバストな情報抽出モデルを開発するためには、インフォーマルなテキストを対象にした情報抽出のデータセット構築が必要となる。 本論文では、上記 3 つの要請に応えるべく、工場設備の保全レポートを対象に大規模かつ複数のサブタスクのラベルを付与したデータセットを構築する。我々のデータセットは約 1500 文書から構成されており、大規模であることと、 4 つの情報抽出のサブタスクのラベルが付与されていることが特徴である。また、保全レポートはニュース記事と比較してインフォーマルな書かれ方が多く、情報抽出対象としてチャレンジングであることも特徴である。 ## 2 関連研究 英語のマルチタスク情報抽出の研究でよく用いられるデータセットである ACE20051) や SciERC[1] においては、サブタスクは固有表現認識と関係抽出の  図 1 工場設備の保全レポートに対してアノテーションした例。テキスト中の固有表現の上部に固有表現ラベル、時制ラベル、事実性ラベルを示してあり、[現] は現在ラベル、[事] は事実ラベル、[否] は否定ラベルを表す。"症状"、"原因"、"対策"、"効果"の列は症状・原因・対策・効果文ラベルの有無を表す。 2 つのみであり、また規模は約 500 文書と比較的小さい。日本語に限定すると、将棋の解説文を対象にデータセットを構築した研究 [2] があるが、規模は約 2000 文であり、固有表現認識とモダリティ推定の2つのサブタスクのアノテーションに留まっている。情報抽出の対象となるテキストとしてフォーマルではなく、よりノイズが多いTwitter を採用したデータセット [3] はあるものの、対象タスクは固有表現認識のみである。また、医療レポートを対象に固有表現認識、事実性判定、関係抽出の 3 つのサブタスクのラベルを 1156 文書にアノテーションしたデータセットを構築した研究 [4] がごく最近にあり、 これが前述の 3 つの要請に最も近い既存のデータセットである。 ## 3 データセット 本論文では、工場設備の保全レポートのテキストをアノテーション対象に採用する。富士フイルムエンジニアリングでは保全レポートに加えて設備情報やマニュアルなどの設備に関する情報を一元管理するシステムである KARTEMIX を開発している。保全レポートには工場設備に対する点検、メンテンナス、トラブル対応の活動がテキストで日々記録されており、大量のデータが蓄積されているため、大規模なデータセットが構築しやすい。設備やその状態などの表現が設備保全ドメインにおける固有表現とみなせるようにアノテーションの定義が容易である。また、固有表現間の関係や事実性判定など複数 のサブタスクも設定できる。一方で、ニュース記事と比較すると、専門用語や略語が多く、箇条書きや名詞句の連続などの一般的な文よりは短い記述が見られるため抽出対象として難しい。また、下流のアプリケーションを考えた場合に、構造化情報の利活用のユースケースが想定しやすい。例えば、保全レポートからトラブルに関する情報を抽出し、構造化した形でデータベース化しておくことで、トラブル時に過去の対策や知見の検索や分析に活用することができる。本章では、アノテーション対象となるテキストとアノテーションの定義について説明する。 ## 3.1 テキスト 保全レポートには様々な入力のフィールドが存在するが、"状況"、"処置"、"原因・対策"の 3 つのフィールドのテキストを対象とする。工場設備の実データから 1492 レポートを抽出し、アノテーションする。1レポートあたりの平均文数は 7.92 文であり、平均文字数は 259 文字であった。 ## 3.2 アノテーション 本論文では保全レポートのテキストに対して、図 1 に示すような 4 つのタスクについてアノテーションを実施する。 ## 3.2.1 症状・原因・対策・効果文ラベル 前述の通り、保全レポートには"状況"、"処置"、"原因・対策"の 3 つのフィールドが存在している。し かし、実データを分析してみると、"状況"のフィー ルドにトラブルの原因や対策が記載されるように、必ずしもフィールド名の内容が記載されているわけではないことがわかった。このため、各文に対して、以下の4つのラベルをアノテーションする。 症状 : 設備の故障・不具合に関する状況を表した文(例:図 1 の文 1 、文 3 )。 原因 : 設備の故障・不具合が発生した要因・原因を表した文(例:図1の文2)。 対策 : 設備の故障・不具合を解決するための措置を表した文 (例:図 1の文4)。 効果 : 対策ラベルを付与した文のうち、設備の故障・不具合が実際に解決したことを表した文(例:図19文 4)。ただし、対策を実施したが解決できなかったことが明示されている場合のみ対策ラベルを付与せずに、解決しなかったことが明示的に記載されていない文は対策ラベルを付与した。 1 文に対して複数のラベルが該当する場合はマルチラベルをアノテーションする。 ## 3.2.2 固有表現 工場設備のトラブルにおいて特徴的な固有表現を以下の 5 つに分類し、アノテーションする。 部品: 生産設備やその一部、もしくは生産に用いる材料を表す表現。例:送風機、モーター、ネジ 現象: 部品の動作が正常もしくは異常な状態を表す表現。例:異音、停止、漏れ 操作: 部品に対する操作や動作を表す表現。例:交換、調査、リセット 値: 測定値などの部品の状態を定量的に表す尺度やその值を表す表現。例:電流値、 $3 \mathrm{~mm}$ 日時: 日時・時間を表す表現やタイミングを表す表現。例 : 先月、交換後、製造中 固有表現のスパンは名詞、数詞、記号の連続の最長範囲をアノテーションする。ただし、操作に関しては動詞の語幹も対象とした。ネストした固有表現は対象外とし、最長範囲のラベルのみを付与する。 ## 3.2.3 モダリティ 前節で定義した現象・操作が付与された固有表現に対して、事実性ラベルと時制ラベルの二種類のモダリティを付与する。事実性は固有表現が表す事象が実際に発生したのかどうかを表すモダリティで、実際に発生した事象に対しては事実、発生していない事象に対しては否定をアノテーションする。確定的ではなく、推定を含むものも含めてアノテーションする。ただし、『これが原因だとすると交換が必要であるが』の"交換"のように仮定や条件など事象の発生の有無が明確ではない場合、その他を付与する。時制ラベルは発生した事象の時系列を表すモダリティでである。単純な時制表現で判断するのではなく、レポートのメイントピックとなっているトラブル・故障などのイベントに関する一連の事象をまとめて現在として、判断する。例えば、図 1 の文 4 における"改造"は過去を表す助動詞"た"が接続しているが、このレポートのトラブル対応の一連の活動に含まれる行動であるため、時制は現在となる。一方で、『前回の点検時にモーターを交換した』のように現在のイベントよりも過去に発生した現象や行った操作に対しては過去をアノテーションする。 また、『ベアリングを交換予定』のように未来に行われる事象に対しては未来をアノテーションする。 ## 3.2.4 関係 2 つの固有表現(固有表現 1 を subject、固有表現 2を object とする)の間に成り立つ関係に対して以下の 4 種類ラベルを付与する。 全体-部分: subject、object いずれも部品であり、 object が subject を構成する一部である関係。 操作の対象: subject が操作、object が部品であり、 object が subject の操作の対象となっている関係。 主体の現象: subject が部品、object が現象であり、 subject が object の現象の主体となっている関係。 因果関係: subjectが操作もしくは現象、objectが現象であり、subjectがある要因・原因を表し、その結果として object の事象を誘発することを表す関係。 ただし、設備保全に関する専門知識がない作業者でも一貫性を持ってアノテーションを実施するために、"〜による"、"〜のため"のような手がかりとなる表現のパターンを 8 つ定義し、このパターンに合致し、因果が明らかな場合のみを付与対象とする。 ## 4 データセットの統計量 本章ではアノテーションした各サブタスクのラベルの分布などの統計量を分析する。 ## 4.1 文ラベルの分布 表 1 亿症状・原因・対策・効果文ラベルの分布を示す。文ラベルとしては症状文が最も多く、順に対策文、原因文が多い。一般に不具合発生時にはその 症状を最も多く記載するため、これは直感に合致する。一方で原因よりも対策が多いことから、原因が究明できていなくても、対処療法的に行う一時的な対策を実施することも多いと考えられる。また、対策文のうち効果文である文の割合は約 $67 \%$ であり、実際に効果があった対策が多く記載されていることがわかる。 表 1 症状・原因・対策・効果文ラベルの頻度分布 ## 4.2 固有表現ラベルの分布 表 2 に保全レポートの固有表現ラベルの分布を示す。出現頻度を比較して見ると、部品、現象、操作の順で多く、これは部品を主体として、その状態や部品に対する操作が保全レポートには多く書かれているという直感に合致する。文字長を見てみると、部品が最も長いことがわかる。これは部品の固有表現は『PC 電源ファン部』のように複数の部品で構成されることが多いためであると考えられる。 日本語で最も大規模な固有表現データセットである拡張固有表現タグ付きデータセット [5] と比較すると、1文書あたりの固有表現数は $35.1 \mathrm{vs} 29.4$ であり、文字長は 259 vs 424 であり、我々のデータセットのほうが文書の長さが短いにも関わらず、固有表現の出現頻度が高いため、より多くの情報を構造化できていることがわかる。 表 2 固有表現ラベルごとの頻度分布 ## 4.3 モダリティラベルの分布 表 3 にモダリティラベルの分布を示す。事実性では事実が、時制では現在が最も多く、これは直感に合致する。一方で、それ以外のラベルが事実性では 17.2\%、時制では $9.9 \%$ と一定数は存在しており、これは検索やデータ分析などの下流のアプリケーションにおいてはノイズになりうる。特に事実性の事実と否定は、『異音が発生』と『異音なし』のようにトラブルの事象として大きく異なるものを表しているため、区別が重要となる。 表 3 モダリティラベルの頻度分布 ## 4.4 関係ラベルの分布 表 4 に関係ラベルの分布を示す。"関係あり"は関係ラベルが付与された固有表現ペア数、"関係なし" は固有表現のラベルの組み合わせとしては関係ラべルの付与対象であるが、テキストからその関係が認められなかった固有表現ぺア数を表す。因果関係は他の関係と比較して、関係ありの頻度が非常に少なく、関係ありと関係なしの比率も最も小さい。これは今回のアノテーションでは手がかり表現から明示的に関係がわかるもののみを因果関係としてラベル付けしたためであると推定できる。手がかり表現のパターン数を増やす、もしくは手がかり表現がない暗黙的な関係も含めて付与対象とすることで、抽出対象を拡大することは今後の課題である。 表 4 関係ラベルの頻度分布 ## 5 おわりに 工場設備の保全レポートを対象に、大規模かつマルチタスクな情報抽出データセットを構築した。我々のデータセットの特徴は、インフォーマルな書かれ方が比較的多い保全レポートを対象に、文分類・固有表現認識・モダリティ推定・関係抽出の 4 つの情報抽出サブタスクのラベルが約 1500 文書に付与されていることである。また、データセットの統計量を分析するとことで、データセットの特徴や工場設備の保全レポートから情報抽出する価値について議論した。 ## 商標 KARTEMIX は富士フイルムエンジニアリング株式会社の登録商標です。 ## 参考文献 [1] Yi Luan, Luheng He, Mari Ostendorf, and Hannaneh Hajishirzi. Multi-task identification of entities, relations, and coreference for scientific knowledge graph construction. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 3219-3232, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [2] 亀甲博貴, 松吉俊, John Richardson, 牛久敦, 笹田鉄郎,村脇有吾, 鶴岡慶雅, 森信介. 将棋解説文への固有表現・モダリティ情報アノテーション. 自然言語処理, Vol. 28, No. 3, pp. 847-873, 2021. [3] Benjamin Strauss, Bethany Toma, Alan Ritter, MarieCatherine de Marneffe, and Wei Xu. Results of the WNUT16 named entity recognition shared task. In Proceedings of the 2nd Workshop on Noisy User-generated Text (WNUT), pp. 138-144, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [4] Fei Cheng, Shuntaro Yada, Ribeka Tanaka, Eiji Aramaki, and Sadao Kurohashi. Jamie: A pipeline japanese medical information extraction system, 2021. [5] 橋本泰一, 中村俊一. 拡張固有表現タグ付きコーパスの構築. 言語処理学会第 16 回年次大会発表論文集, 2010.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C2-5.pdf
# 設備保全レポート活用に向けたテキスト構造化の検討 高橋拓誠谷口元樹谷口友紀大熊智子 富士フイルム株式会社 takumi.c.takahashi@fujifilm.com ## 概要 本稿では,設備保全レポートを対象としたテキスト構造化の検証を行う,具体的には,文分類,固有表現抽出,モダリティ判定,関係抽出の 4 つのタスクを対象に,事前学習済みモデル BERTを用いたテキスト構造化の評価を実施した. 個別のタスクの評価では,どの構造化タスクでも高精度に構造化可能であることを確認した. さらに,より実際の活用に即した検証として,同一の保全レポートに対して複数の構造化タスクを適用した場合の性能評価と分析を行い,実運用における課題について議論する. ## 1 はじめに 製造現場における日々の生産プロセスでは,設備にトラブルが発生した際に迅速な対応が求められる.こうした現場の保全業務は,過去の異常や処置などについて記録された保全レポートを参考にしながら対策を検討することも多く,膨大に蓄積された保全レポートの活用か現場で求められている. 保全レポートは,一般的に自然文で記述されるため,記載された内容をあらかじめ構造化しておくことで効果的に情報検索やデータ分析に活用することができる. 保全レポートを対象としたテキストの構造化では,テキスト分類 $[1,2]$, 固有表現・フレーズ抽出 $[3,4,5]$, 原因推定 [6] などの研究がなされてきた. 一方で,実際の保全レポートの活用を考えると,複数の構造化情報を同時に扱いたい状況が起り得る。例えば,“異常が発生した部品”を対象に分析を行いたい場合,あらかじめ異常に関して記載された文を構造化しておき,それらの文を対象に部品名を抽出するのが望ましい. したがって,保全レポートを活用するために,同一文書に対して複数の構造化タスクを検証することは重要であるといえる. 富士フイルムエンジニアリングでは,保全レポー ト,設備情報,日々の稼働記録などを一元管理する 図 1 構造化された保全レポートの例. 4 種類の構造化ラベルが付与される. ためのシステム KARTEMIX を開発している。我々は,本システムに登録された保全レポートを用い $\tau$ ,文分類,固有表現抽出,モダリティ判定,関係抽出に関する複数のタスクについてアノテーションしたデータセットを構築した [7]. 図 1 に構造化された保全レポートの例を示す. 本稿では,保全レポートを対象に複数の構造化夕スクに対してベースラインを検証した結果について報告する.具体的には,文分類,固有表現抽出,モダリティ判定,関係抽出の各構造化タスクについてアノテーションされた保全レポートを対象に,各構造化タスクに対して個別にベースラインを評価した. さらに,より実践的な例として,保全レポート全体に対して同時に複数の構造化タスクを適用した場合の性能評価とその分析結果について議論する。 ## 2 テキスト構造化 本研究では,事前学習済み言語モデルである BERT[8] を各構造化タスクに適用する。図 2 に各夕スクのモデルの概要を示す.以降,文分類 (2.1 節),固有表現抽出・モダリティ判定 (2.2 節),関係抽出 (2.3 節)のモデルについて個別に説明する。なお,各ラベルの詳細は,谷口ら [7] の研究を参照されたい. ## 2.1 文分類 文分類では, $N$ 個の文 $\left.\{x_{1}, \ldots, x_{N}\right.\}$ から構成される文書を対象に,予測対象の文 $x_{i}$ が症状,原因,対 (c) 関係抽出 (b) 固有表現抽出・モダリテイ判定 (a) 文分類 図 2 各タスクにおける構造化モデルの概要. 策,効果のいずれに該当するかマルチラベル分類す る. 具体的には, 予測対象のクラス $c \in\{$ 症状, 原因 , 対策,効果 $\}$ の有無を二值判定するモデル $m_{c}$ をあらかじめ学習しておき,推論時に各モデルを $x_{i}$ に対して個別に適用する。 学習および推論では, 予測対象 $x_{i}$ および $x_{i}$ 以降に記載された文章 $\left.\{x_{i+1}, \ldots, x_{i+j}\right.\}$ を同時にモデルに入力する. 形式的には, $[\mathrm{CLS}] x_{i}[\mathrm{SEP}] x_{i+1}[\mathrm{SEP}], \ldots, x_{i+j}$ [SEP] をモデル $m_{c} へ$入力して,$d$ 次元の分散表現 $\mathbf{h}_{i}$ を得る. なお, $\mathbf{h}_{i}$ は [CLS] の分散表現に対応する. 最終的に,分散表現 $\mathbf{h}_{i}$ を全結合層 $(\mathrm{FC})$ へ入力し, $x_{i}$ に対するクラス $c$ の有無を表わす文ラベル $y_{i}^{c}$ を判定する. ## 2.2 固有表現抽出・モダリティ判定 固有表現抽出では,文に含まれる各単語に対し $\tau$, 固有表現ラベル $e \in\{$ 部品, 操作, 現象, 值, 日時 $\}$ を付与する。モダリティ判定では,現象と操作をあらわす固有表現に対して,事実性ラベル $f \in\{$ 事実,否定,その他 $\}$ と時制ラベル $t \in\{$ 現在, 過去,未来 $\}$ をそれぞれ判定する. 本研究では,固有表現抽出およびモダリティ判定のラベルを統合し,1つのモデルで同時に抽出を行う. 具体的には, $L$ 個の単語から構成される対象文 $x_{i}=\left.\{w_{1}, \ldots w_{L}\right.\}$ をモデルへ入力し,単語 $w_{k}$ について分散表現 $\mathbf{h}_{k}$ を得る. 続いて,分散表現 $\mathbf{h}_{k}$ を全結合層 $(\mathrm{FC})$ へ入力し $\mathbf{h}_{k}^{\prime}$ を得る. 最終的に, $\mathbf{h}_{k}^{\prime}$ を $\mathrm{CRF}$層 [9] へ入力して単語 $w_{k}$ に対する固有表現ラベル $y_{k}^{e}$ ,事実性ラベル $y_{k}^{t}$, 時制ラベル $y_{k}^{f}$ を判定する. ## 2.3 関係抽出 関係抽出では,文 $x_{i}$ に含まれる固有表現 $1(s u b)$ と固有表現 $2(o b j)$ の間に付与される関係 $r \in\{$ 全体 -部分, 操作の対象, 主体の現象, 因果関係 $\}$ を推定する. 本稿では, Entity Marker に基づく方法 [10] に従い,以下の 2 種類の入力方式を採用した. Simple-marker は, sub と obj の前後に,対象の固有表現の位置を認識するための特殊トークンを挿入する。具体的には, ..., [E1] sub[/E1],..., [E2]obj[/E2], ... と表記する. Entity-type は, sub と obj の前後に,対象の固有表現の位置および固有表現ラベルを認識するための特殊トークンを挿入する. 具体的には,固有表現ラベル e1をもつ subと固有表現ラベル e2をもつ objに対しては, ..., [E1_e1]sub[/E1_e1],..., [E2_e2]obj[/E2_e2],... と表記しモデルへ入力する. 上記の入力に対して得られた $d$ 次元の分散表現 $\mathbf{h}_{i}$ を全結合層 $(\mathrm{FC})$ に入力して関係ラベル $y_{i}^{r}$ を推定する. 文分類と同様に, $\mathbf{h}_{i}$ は [CLS] の分散表現に対応する.なお,subとobj の間にいずれの関係も付与されない場合は,“関係なし”ラベルを推定する。 ## 3 評価実験 本節では,各構造化タスクにおけるべースラインの性能を個別に検証する.まず,個別のタスクの評価を行うことで,保全レポートに対するテキスト構造化の実現性や各タスクの難易度を明らかにする。 表 1 文分類の実験結果 (F 値). 実験では,保全レポートを対象に複数のタスクのアノテーションを付与したデータセット [7]を 8:1:1 の割合で訓練・開発・評価に分割して使用した. ## 3.1 文分類タスク 文分類タスクでは,2.1 節のモデルに基づき,2 種類のベースラインを用いた検証を行う.具体的には,分類対象の文のみ入力するモデル ( BERT $_{\text {base }}$ ) と, 分類対象の文とそのあとに記載された文章も同時に入力するモデル $\left(\mathrm{BERT}_{\text {base }}+\right.$ context) を比較する. モデルの訓練では,学習率を 2e-5 に設定し, Adam による最適化を行った. バッチサイズは 32 , エポック数は 3 ,入力の最大長は 512 に設定した. 表 1 に文分類の実験結果を示す. 対象文のみ入力した BERT base $と$ 比較して, 対象文より後ろに記載された文章も同時に入力した $\mathrm{BERT}_{\text {base }}+$ context の方が性能が高いことが分かる.特に,効果クラスにおいて性能の差が顕著であることが分かった. これは,対策の効果を判断するための手がかりが,分類対象の文に後続することが多いためである. ## 3.2 固有表現抽出・モダリティ判定タスク 固有表現抽出およびモダリティ判定タスクでは, 2.2 節のモデルに基づき, 2 種類のベースラインを用いた検証を行う。具体的には,BERT に全結合層を追加したモデル [8] と, BERT に全結合層と CRF 層を追加したモデル (図 2)を比較する. どちらのモデルにおいても BERT $_{\text {base }}$ を利用し,入力の最大長は 128 , バッチサイズは 32 , エポック数は 3 , 学習率は 3e-5 に設定し, Adam による最適化を行った. 表 2 に固有表現抽出の実験結果を示す.いずれの固有表現カテゴリにおいても,BERT と比較して BERT+CRF の方がより高い性能を示している. 表 3 に事実性判定の実験結果を示す。事実性判定では,“事実”と “否定”カテゴリにおいて,固有表現抽出と同等の性能を示した. 一方で,“その他” カテゴリでは,性能が著しく低下した.これは,仮定/条件のように,事実性を一意に定められない表現が多く含まれることや (4.2 節), “その他” カテゴリが訓練データで頻出しないためだと考えられる.表 2 固有表現抽出の実験結果 ( $\mathrm{F}$ 値). 表 3 事実性判定の実験結果 (F 値). 表 4 に時制判定の実験結果を示す. “現在”カテゴリでは,高い性能を示したものの,“未来”と“過去” カテゴリで性能が著しく低下することが分かった.理由として,上記 2 クラスは訓練データでほとんど出現しないクラス ${ }^{1)}$ であることが挙げられる。 ## 3.3 関係抽出タスク 関係抽出タスクでは,2.3 節に記載した 2 種類のベースライン (Simple-marker, Entity-type)を比較する.いずれも $\mathrm{BERT}_{\text {base }}$ を事前学習済みモデルとして利用した. 訓練では,入力の最大長を 128 , バッチサイズを 32 ,エポック数を 3 ,学習率を $2 \mathrm{e}-5$ に設定し,Adam による最適化を行った。なお,対象の固有表現の前後に挿入する特殊トークンの分散表現も同時に fine-tuning した. さらに,対象の固有表現ラベルの組み合わせが関係ラベルの条件を満たす事例をすべて正例として扱う Heuristicsを用意した。 表 5 に関係抽出の実験結果を示す. Heuristics より, “操作の対象” “主体の現象” は正例の割合が比較的高く識別が易しいクラスである一方,“全体-部分” や“因果関係” は正例の割合が低く, 識別が難しいクラスであることが分かる. Simple-marker および Entity-type は,いずれのクラスにおいても Heuristics の結果を大きく上回る性能を示した. また,BERT を用いたべースラインの識別精度が Heuristics の傾向と一致することから,データセットの正例と負例のバランスが識別の難しさを表わしていることが分かる。因果関係のような識別精度が低いクラスについては,データの不均衡性を緩和させる学習方法を採用するなど,いくつかの改善が必要である. ## 4 複数タスクによる構造化の分析 3 節では,各構造化タスクのベースラインを個別に評価した。一方で,個別のタスクに対する評価だ  表 4 時制判定の実験結果 ( $\mathrm{F}$ 值). 表 5 関係抽出の実験結果 ( $\mathrm{F}$ 值). $\mathrm{H}$ : 全体-部分, $\mathrm{O}$ : 操作の対象, $\mathrm{S}$ : 主体の現象, $\mathrm{C}$ : 因果関係を示す. けでなく,レポート全体の構造化がどの程度可能なのか議論することは,検索や分析に活用するうえで重要である. 本節では, 保全レポートに対して複数の構造化タスクを適用した結果について分析する。 ## 4.1 レポート全体の構造化の評価 レポート全体に対する複数の構造化タスクの性能を評価する,文分類は $\mathrm{BERT}_{\text {base }}+\operatorname{context}($ 表 1), 固有表現抽出とモダリティ判定は BERT+CRF(表 2-4),関係抽出2) は Simple-marker(表 5)を用いて検証した。 図 3 に各構造化タスクにおいて間値 (F 値) を超えた保全レポートの件数の推移を示す. 各構造化タスクを比較すると, 固有表現抽出・モダリティ判定や関係抽出は,レポート全体の構造化の精度が比較的高いことが分かる。一方で,文分類は他のタスクと比較して構造化の精度が低いレポートが多いことが分かった. これは, 表 1 より, 症状や効果の構造化の精度が十分でないことや,他の構造化タスクと比較して,レポート中の予測対象の数が少なく推定誤りによる影響が大きいためである.また,すべての構造化タスクにおいて,F 值 0.7 を超えたレポートは全体の約 $24 \%$ であった. 一方で,全ての構造化夕スクで $\mathrm{F}$ 値 0.7 を下回るレポートは全体の約 $7 \%$ であった. その他のレポート $(69 \%)$ においては,各夕スクの性能の傾向がレポートごとに異なっていたことから,タスク間の知識を共有しながら学習する仕組みを採用するなど,いくつか改善が必要である. ## 4.2 構造化のエラー事例 文分類: 対策効果の文に誤分類される事例が散見された.具体的には,“検討”や“確認”のように,症状の解決に直接寄与しない対応が対策効果を表わす文として誤分類される傾向にあった。 固有表現抽出: 固有表現抽出では,現象と操作の  図 3 閾値 (F 值)を超えた保全レポートの件数の推移. 各タスクの $\mathrm{F}$ 値はレポート中の平均 $\mathrm{F}$ 値, 全構造化タスクの $\mathrm{F}$ 值は各構造化タスクの平均 $\mathrm{F}$ 値の最小値とした。 ラベル間で誤分類が発生していた。例えば,“復旧” や“切替”という単語は,人が設備に対して実行した動作なのか,部品の状態を表わす単語なのかによって固有表現ラベルも異なるため,各単語が文脈上で持つ機能に関する判断が必要である。 モダリティ判定: 事実性判定では,仮定/条件のように,事実性を一意に定められない記載に対する誤分類が散見された。具体的には,“〜で故障すると流延停止に至る”のように,一般的な知識や特定の状況を仮定した場合の記載が該当する。このような場合は,その他に分類されるべきだが,BERT+CRF の推論では事実に分類されていた. 関係抽出: 全体-部分において逆向きの関係を誤検出する事例が散見された。具体的には,“コントローラーボックスの基盤”という記載では,コントローラーボックスの部品として基盤が抽出されるべきであり,その逆は成立しない。 ## 5 おわりに 本研究では,設備保全レポートを対象とした複数のテキスト構造化タスクに関する性能評価を実施した. 具体的には,文分類,固有表現抽出,モダリティ判定, 関係抽出の 4 つのタスクについて評価し,個別の評価では高精度に構造化可能なことを確認した. 一方,複数の構造化タスクを保全レポートに同時に適用した評価では,すべてのタスクで高精度に構造化可能なレポートは多くないことが分かった. 今後の課題として, 保全レポート全体の複数の構造化情報をより高い精度で抽出可能にすることが挙げられる。 さらに,本稿で検証した構造化情報を検索などに適用し,その効果を検証する予定である。 ## 商標 KARTEMIX は富士フイルムエンジニアリング株式会社の登録商標です。 ## 参考文献 [1] 勝又智, 小町守, 真鍋章, 谷本恒野. 障害レポートの分類問題に対するデータ選択を用いた BERT モデルの精度向上. 言語処理学会第 26 回年次大会, pp. 645-648, 2020. [2] 山下郁海, 小町守, 真鍋章, 谷本恒野. 隠れ層補間によるデータ拡張を用いた障害レポート分類. 言語処理学会第 27 回年次大会, pp. 1794-1798, 2021. [3] 小平知範, 宮崎亮輔, 小町守. 障害情報レポートに対する同時関連文章圧縮. 言語処理学会第 23 回年次大会, pp. 186-189, 2017. [4] 伊藤雅弘, 山崎智弘. アノテーション漏れ推定を用いたエンティティ抽出. 言語処理学会第 27 回年次大会, pp. 1264-1268, 2021. [5] 本間広樹, 小町守, 真鍋章, 谷本恒野. BERT モデルを用いた障害レポートに対する重要箇所抽出. 言語処理学会第 27 回年次大会, pp. 189-193, 2021. [6] 勝又智, 小町守, 真鍋章, 大頭威, 嶋崎優子. node2vec を用いた障害レポートにおける故障原因推定. 言語処理学会第 25 回年次大会, pp. 1045-1048, 2019. [7] 谷口元樹, 高橋拓誠, 谷口友紀, 大熊智子. 設備保全レポートにおける大規模マルチタスク情報抽出データセットの構築. 言語処理学会第 28 回年次大会, 2022. [8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. [9] John D. Lafferty, Andrew McCallum, and Fernando C. N. Pereira. Conditional random fields: Probabilistic models for segmenting and labeling sequence data. In Proceedings of the Eighteenth International Conference on Machine Learning, p. 282, 2001. [10] Livio Baldini Soares, Nicholas FitzGerald, Jeffrey Ling, and Tom Kwiatkowski. Matching the blanks: Distributional similarity for relation learning. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2895-2905, 2019.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C3-1.pdf
# 単語を共有する文書グラフを用いた文書分類 井田 龍希 三輪誠 佐々木裕 豊田工業大学 \{sd18006, makoto-miwa, yutaka.sasaki\}@toyota-ti.ac.jp ## 概要 文書分類において,文書のテキスト情報を BERT でエンコードして分類する手法が主流である。一方で,文書とそれが共有する単語を節点とした文書グラフを利用し文書間の関係を考慮した文書分類が提案されている.それぞれの手法は,文書の異なる観点を捉えていると考えられ,両方を活かした文書分類ができれば精度の向上が期待できる。そこで,本研究では BERT を利用して文書グラフの文書・単語節点表現を初期化し,両者の利点を効果的に利用する手法を提案する. 実験では,本手法による精度向上を確認し,文書内のテキスト情報と文書グラフを利用することの有用性を示した. また,文書分類における文書グラフの単語節点の影響も調査した。 ## 1 序論 文書分類においては,文書のテキスト情報のみを利用して分類を行う手法が主流である。近年,大量のデータで事前学習をした BERT (Bidirectional Encoder Representations from Transformers) [1] を用いることで,少ないデータで微調整をするだけでタスクに特化したモデルが作成でき,大量のテキストデータによる事前学習と文書内のテキスト情報を考慮した表現によって高い精度が達成されている。 一方で,文書間の関係を表した文書グラフを利用した文書分類が提案されている。 Yao ら [2] は,文書と単語を節点とし,文書節点とその文書に出現する単語節点の間・関連度の高い単語間それぞれに辺を張った文書グラフを用いて,文書分類を行っている.この文書グラフにより,共通した単語を持つ文書節点がその単語節点を介してつながり,文書間の関係を考慮した文書分類ができる。 それぞれの手法は文書内のテキスト情報と文書間の関係を表す文書グラフという文書の異なる観点を捉えていると考えられるので,この両方を活かした文書分類ができれば,より高い精度が達成できると複数の文書 図 1 提案手法の概要 期待できる。これまで,文書節点の表現に BERTを利用した文書グラフを用いて文書分類を行う手法 [3] が提案されているが,単語は文書をつなぐ節点としてのみ利用されており,文書グラフとテキスト情報のつながりが文書節点のみになってしまっているので,両者が十分に連携できているとは言えない. そこで,本研究では,BERT を利用して文書グラフの全節点にテキスト情報を追加し,テキスト情報と文書グラフを密接に連携させ,両者をより効果的に利用する文書分類の実現を目指す。 ## 2 関連研究 文書分類には文書のテキスト情報のみを使用する手法と文書間の関係を考慮する手法がある。 文書のテキスト情報のみを使う手法では BERTを用いた手法が高い精度を達成している。この手法では BERT でテキストをエンコードして得られた表現を使って文書分類を行う.大量のデータで事前学習した BERTを少ないデータで文書分類に特化するように学習させることで,文書全体の文脈を考慮した表現が得られ高い精度が達成できる。 文書間の関係を考慮する手法では,文書グラフを用いた手法があり,Yao らは文書と単語を節点と し,文書節点とその文書に出現する単語節点の間に TF-IDF 值で重み付けした辺・PMI の值によって関連度が高いとみなされた単語節点間の辺の 2 種類の辺を張った文書グラフを用いた文書分類を提案した. Yao らは節点に接続する辺を通して周りの節点からの情報をその節点に集約するグラフ畳み込みネットワーク (GCN; Graph Convolutional Network) [4] を用いて, 文書グラフの節点表現をグラフ構造を考慮するように更新し,分類に利用している。さらに,BertGCN[3] では,文書節点の表現に BERTを利用し, 文書グラフに文書のテキスト情報を追加する手法を提案し,高い精度を達成している。 ## 3 提案手法 本研究では,テキスト情報と文書グラフの情報の両方を効果的に利用する文書分類モデルを提案する. 両方を利用した BertGCN[3] に対して, 本研究では,より密接な情報の連携を目指して,文書・単語節点の両方を BERT で初期化した文書グラフを用いて文書分類をする。ここでは,この文書グラフの作成方法について説明した後に文書分類に用いるモデルについて説明したのちに,学習と予測について説明する。 ## 3.1 モデル 文書グラフの作成の概要を図 2 に示す. 本研究では Yao らが提案した文書と単語を節点とする文書グラフとそのモデルを基盤として,文書・単語の両方の節点に BERT の表現を追加して使用する。まず,文書のテキスト情報を BERT でエンコードして各トークンの表現を得る. BERT の出力の [CLS]トー クンは文全体を表す表現になっているので,[CLS] トークンの表現を文書の初期表現として,TextGCN の表現である one-hot ベクトルに結合する.この際, BERT の表現のスケールを one-hot ベクトルのスケー ルと合わせるために,BERT の表現はL2 正規化したものを用いる.単語の表現についても同様に BERT の表現を追加する. 単語の表現については,BERT ではサブワードをトークンの単位として表現しているため,サブワードの表現を平均としたものを利用する.今回使用する文書グラフでは,同じ表層の単語が複数回登場した際にもその単語の節点は一つしか用意しないので,すべての出現での表現の平均をその単語の表現とする. この文書グラフの節点表現を GCNを用いて更新し,その表現を使って文書分類を行う。 ## 3.2 学習 文書グラフの節点表現を GCN で更新してその表現で文書分類を行うため, 学習の時点で評価用のデータが文書グラフに含まれている必要があり,含まれていない文書についての予測はできない。そのため,学習は,分類対象のデータを利用するトランスダクティブ学習の設定で行う,具体的には,まず,評価用データのラベルを隠した上で,訓練・評価用データを両方含む文書グラフを作成し,訓練データのラベルを利用して学習することで節点の表現を更新する。学習は交差エントロピーを損失関数として用いる.BertGCN では,BERTを微調整 (fine-tuning) しながら GCN を学習させるが,本研究では,簡単のため,BERT から得られた表現は固定して用いる. BERT と GCN の同時学習は今後の課題である. ## 3.3 予測 学習によって,評価用データの文書節点の表現が更新されているため,この表現を利用して分類を行い,評価用データに含まれる文書のラベルを予測する。 ## 4 実験と考察 ## 4.1 実験設定 提案手法の評価には, 医学文献の要旨のデータセットである Ohsumed と映画評論のデータセットである Movie Reviewを使用した. Ohsumedではそれぞれの文書に 23 種類の心血管系疾患のカテゴリのうち 1 つ以上のカテゴリを付与されている. 本研究では,単一ラベルの文書の分類にのみ注目しているので,既存研究 [2] と同様に複数ラベルを持つデー タを除外した。この結果,訓練,評価用データはそれぞれ 3,357 件,4,043 件となった. Movie Review は肯定的な評論 5,331 件と否定的な評論 5,331 件を含む 2 值分類のデータセットで,訓練,評価用データはそれぞれ 7,108 件,3,554 件であった. 実装には, Python 3.8.8を使い,事前学習モデルを使うために Transformers 4.5.1[5],モデルの作成のために Pytorch 1.8.0[6],DGL 0.7.2[7] を用いた. 評価においては,訓練データを 5 分割交差検証をして 5 つのモデルを作成した。それぞれのモデルで評価用データの予測 図 2 文書グラフの作成 をして,その評価の平均を最終的な予測結果として報告する. 評価指標には Accuracy を用いた. 最適化手法には Adam[8]を使用した。 BERT は, Movie Review には BERT-base-uncased[1] を,Ohsumed には科学文献で事前学習をしている SciBERT[9]を用いた. ベースラインモデルとして,BERT のみを利用した文書分類モデル (BERT) と文書グラフのみを利用した文書分類モデル $(\mathrm{GCN})$ を用意した. BERT のみを使用した文書分類モデルとしては,BERT でテキスト情報をエンコードして得られた出力の [CLS] トークンの表現を全結合層により予測するモデルを用意した. 一般的に,BERT などの事前学習モデルは微調整して, タスクに特化させることで高い性能が達成できると知られている. しかし, 本研究の提案手法ではテキスト情報を BERT に入力して,その出力を文書グラフの初期表現としているだけで, BERT を微調整せずに使っている。このことから,公平な比較を行うため,このベースラインにおいても同様に BERT は微調整せずに全結合層のみを学習することとした. 文書グラフのみを利用したべー スラインでは,TextGCNに倣い,節点表現を one-hot ベクトルで初期化した文書グラフを使って文書分類するモデルを用いた. ## 4.2 結果 実験結果を表 1 に示す. 文書節点のみを BERTで初期化した文書グラフを使用したときに, Ohsumed については正解率は低下したものの,Movie Review については文書グラフを使用したべースラインょりも高い正解率を達成できた. また,BERT の文書情報のみを用いたベースラインと比較しても精度の改善が見られた. さらに,単語節点も BERTで初期化した文書グラフを使用したときには両方で正解率の改善が見られた。 単語節点の初期化については,提案手法の文書中に出現した単語の表現を利用する方法と単語の表層だけを BERTを通して表現を得る手法で比較を行った. 単語の表層のみを使用する方法では,その単語のみを BERT に入力してそのサブワードの表現の平均を単語節点の初期表現とした. Ohsumed, Movie Review どちらのデータセットでも表層だけを用いた手法よりも提案手法の文章中に出現した単語の表現を用いた手法が高い正解率を示した. これは,文章中に出現した単語の文脈情報が文書グラフを用いた分類において,有用であることを示している. ## 5 単語節点の影響の調査 提案手法では, 文書に登場するすべての単語を節点として持つ文書グラフを使用した. 文書グラフを利用した文書分類においては,単語節点が文書節点の間をつなぐため,単語節点が文書間の関係を表現できることが重要である. このことから,単語節点の選択が性能にどのように寄与するかの解析を行った.ここでは,文書が単語を共有する割合が重要であると考え,単語が共通して現れる文書の数に着目 表 1 文書分類の正解率 (\%). Ohsumed には SciBERT を, Movie Review (MR) には BERTを用いた。 した.このため,それぞれの単語についてその単語が現れる文書の数を数え,その数によって,その単語を文書グラフの節点とするかどうかを閾値によって決定した。その間値を変えて Ohsumed を用いて解析した結果を,図 3 ,図 4 に示す。それぞれ,節点の表現を one-hot ベクトルで初期化した文書グラフ・文書節点のみを BERT で初期化した文書グラフでの結果である.横軸が節点とするかどうかの登場回数の下限の閾値,縦軸が上限の閾値となる. 図に示す数值は 5 分割交差検証における訓練データ上での正解率である. 図 3,図 4 の両方で,2 個以上 1,000 個以下の文書に登場する単語のみを節点としたときに最も高い精度となった. 1 つの文書にしか登場しない単語がネガティブな影響を与えているのは,文書グラフを利用した文書分類では,単語節点が 2 つの文書をつなぐため文書間の関係を考慮した文書分類ができるが,1つの文書としかつながらない単語節点からは文書間の関係を表現することができないためであると考えられる. また, 多くの文書で登場する単語についても,多くの文書がその単語によってつながれてしまうため,カテゴリの異なる文書が近くなってしまい,正解率が下がってしまったのではないかと考えられる。 ## 6 結論 本研究では,文書情報と文書グラフの両方を効果的に利用できる文書分類モデルを目指し,文書グラフの文書・単語の節点の両方を BERT で初期化して,GCNを学習することで,文書分類を行う手法を提案した. Ohsumed, Movie Review の 2 つのデー タセットに対して評価を行った結果として, 文書節点の初期値として BERT の表現を用いることで Ohsumed データについては性能が低下したものの, Movie Review データについては性能の向上が得られた. 単語節点を BERT で初期化した場合については両方のデータで性能の向上が得られた. また, 単語 図 3 単語節点の数による正解率の比較 図 4 単語節点の数による精度比較 節点を BERT で初期化する際は表層よりも文脈を含めた表現を用いるほうが良いことがわかった. さらに,単語節点を対象に,文書グラフの作り方についても評価を行い,文書グラフを利用した文書分類において,1 つの文書としかつながらない単語節点や多くの文書とつながる単語節点は性能に悪影響をを与えること示した. 今後は,単語だけでなく言及や用語などの異なる要素や異なる構成を取り入れた文書グラフなど,より文書分類に適した文書グラフの作り方について検討を行う。また,BERT の微調整を GCN と同時に行う手法についても検討を行い,より効果的な文書情報と文書グラフ情報の利用方法を模索していきたい. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. NAACL-HLT, 2019. [2] Liang Yao, Chengsheng Mao, and Yuan Luo. Graph convolutional networks for text classification. In Proceedings of the AAAI conference on artificial intelligence, Vol. 33, pp. 7370-7377, 2019 [3] Yuxiao Lin, Yuxian Meng, Xiaofei Sun, Qinghong Han, Kun Kuang, Jiwei Li, and Fei Wu. BertGCN: Transductive text classification by combining GNN and BERT. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 1456-1462, Online, August 2021. Association for Computational Linguistics. [4] Thomas N. Kipf and Max Welling. Semi-supervised classification with graph convolutional networks. In International Conference on Learning Representations (ICLR), 2017. [5] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, et al. Huggingface's transformers: State-of-the-art natural language processing. arXiv preprint arXiv:1910.03771, 2019. [6] Adam Paszke, Sam Gross, Francisco Massa, Adam Lerer, James Bradbury, Gregory Chanan, Trevor Killeen, Zeming Lin, Natalia Gimelshein, Luca Antiga, et al. Pytorch: An imperative style, high-performance deep learning library. Advances in neural information processing systems, Vol. 32, pp. 8026-8037, 2019. [7] Minjie Wang, Da Zheng, Zihao Ye, Quan Gan, Mufei Li, Xiang Song, Jinjing Zhou, Chao Ma, Lingfan Yu, Yu Gai, et al. Deep graph library: A graph-centric, highlyperformant package for graph neural networks. arXiv preprint arXiv:1909.01315, 2019. [8] Diederik Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Proceedings of the 3rd International Conference for Learning Representations, 2015. [9] Iz Beltagy, Kyle Lo, and Arman Cohan. Scibert: A pretrained language model for scientific text. arXiv preprint arXiv:1903.10676, 2019. [10] Takuya Akiba, Shotaro Sano, Toshihiko Yanase, Takeru Ohta, and Masanori Koyama. Optuna: A next-generation hyperparameter optimization framework. In Proceedings of the 25th ACM SIGKDD international conference on knowledge discovery \& data mining, pp. 2623-2631, 2019. [11] Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. Dropout: a simple way to prevent neural networks from overfitting. The journal of machine learning research, Vol. 15, No. 1, pp. 1929-1958, 2014. ## 付録 ## A チューニングの詳細 Adam の学習率,GCN の隠れ層の次元数,ドロップアウト率の三個のハイパーパラメータを Optuna[10]を用いてチューニングした. ドロップアウト [11] は訓練データでの過学習を防ぐために二層の $\mathrm{GCN}$ の層の間に加えた.チューニングは複数のマシンで行い,NVIDIA 社の TITAN V,RTX A6000を用いた. チューニングによって得られたハイパーパラメタは表 2 に示す. 表 2 チューニングの結果
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C3-2.pdf
# ロジスティック回帰を用いた MC バトルにおける MC 推定 吉實隼稀 但馬康宏 岡山県立大学大学院 情報系工学研究科システム工学専攻 sk621062@cse.oka-pu.ac.jp ## 概要 本研究ではロジスティック回帰を用いて $\mathrm{MC}$ バトルの歌詞を解析し, $\mathrm{MC}$ 推定,各 MC の個性を捉えることを目的とした。異なるスタイルを持った 7 人の $\mathrm{MC}$ を研究対象とし, 検証を行った. 地名を発した数の対戦相手との差やアンサー単語の平均回数の対戦相手との差が MC の個性を推し量るに有効な説明変数であることが示され,各 MC の回帰係数べク られ, $\mathrm{MC}$ ごとの個性を捉えられた。 ## 1 はじめに $\mathrm{MC}$ バトルは元々ラッパーの生活の延長上に存在していた.ラッパーの余興,テクニックを魅せる手段の一つであり, HIPHOP 文化に含まれる. HIPHOP は 1970 年代のアメリカで生まれた文化であり,ラップ, ブレイクダンス, グラフィティ, DJ プレイなどの要素が存在している.ラップは歌唱法の一つであり,似た言葉や語尾が同じ言葉を繰り返す韻を踏むのが特徵的で口語に近い抑揚をつけて発声する。 ラップの要素には「内容」,「フロウ(リズム, 韻)」, 「話し方」などが含まれる。ラップの手法にフリー スタイルラップというものがある. ラッパーが即興で韻を踏みながらラップをする表現技法である。やがて, $\mathrm{MC}$ バトルの規模が大きくなり, バトルの舞台とヒップホップシーンが分離し始める。しかし, トルの魅力は HIPHOP に馴染みがないと理解し難い側面がある。そこで本研究では $\mathrm{MC}$ バトルの歌詞を分析し, 各 MC の特徵を抽出することで初見の人でもどこに注目すればいいのか明確になると考えた。 そこで,本研究ではロジスティック回帰を用いて $\mathrm{MC}$ バトルの歌詞を解析し, $\mathrm{MC}$ 推定, 各 MC の個性を捉えることを目的とした。 ## 2 関連研究 歌詞やテキストデータの分析,分類を行った研究 は多数存在している. 秋元ら[1]による研究では Word2Vec や fastText を用いて特定作詞家による楽曲分類, TF-IDF を用いて作詞家間の対比を行っている.各作詞家の語句選択における特徴を掴む手がかりを得た。山下・萩野ら [2]による研究では品詞に着目し, ユーザの心理的状況に適する歌詞の選曲を支援する方法の一つとして,歌詞から特徴語と名付けた動詞と形容詞を抽出している. 抽出された語を代表語とし,その代表語とユ一ザ気分の関係をモデル化する方法が提案されている. 篠井ら[3]による研究では Wikipedia 記事と Web の感想記事のデータを用いて,各アーティストの特徵量を算出, 可視化している. 得られた特徵量に対しジャンル分類, 評価結果が示されている. 浅野,山下,松林ら[4]による研究ではロジスティック回帰やランダムフォレストを用いて,Twitter のツイート情報から高専生か否かの分類が行われた。 中村, 山口ら[5]による研究では SVM 及び DNN を用いて主観文書を学習及び分類して分類結果の有効性について考察されている。山田,櫨山[6]による研究ではアプリケーションレビューのデータセットを使用し,教師あり学習によるアプリケーションレビューの分類が行われた. 分類器の構築に用いる特徴量として Bag of Words, 感情分析の値が利用されていた. 坂井,谷岡, 松浦, 後藤, 和田ら[7]による研究ではロジスティック回帰分析を用いて野球の打撃能力評価指標の提案が行われている. グランド内の情報を説明変数,打撃結果を目的変数として回帰モデルが作成された。 自然言語処理や機械学習を駆使して多岐に渡る分野の研究が行われてきた. 本研究でも上記の関連研究を参考に研究を行った。 ## $3 \mathrm{MC$ バトルの詳細} 本研究の主題である $\mathrm{MC}$ バトルについて説明する. $\mathrm{MC}$ バトルに関わる人は主に, $\mathrm{MC}, \mathrm{DJ}$, 司会, 観客である。司会はバトルの進行役であり観客の反応を伺ってバトルの勝敗を決定する. DJ はバトル中に音源を流す役割を担っている。バトル前にじゃんけんで先攻,後攻を決める。バトルは後攻の方が有利で あるため先攻はビートと小節の選択権がある。選択権を持つ MC はその場にいる複数人の DJ が用意してきたビートを視聴し,ビートを選択する. 小節数やターン数は大会によるが, 8 小節 2 ターン, 8 小節 3 ターン, 8 小節 4 ターン, 16 小節 2 ターンが主である. バトル中は決められた小節内でラップする.相手のターン中にラップをしてはならない。また,言葉だけで闘うため, 基本的に相手の体に触れてはいけない. バトル終了後, 司会が観客に勝利したと思う方に手と声を挙げるように促す. 拮抗した場合は司会者の判断で先攻, 後攻入れ替わって再度バトルを行う。 ## 3.1 審査基準 バトルには明確な審査基準は存在していない。どちらが格好良いか,面白いか,ラップが上手いか,印象に残ったか,即興性が高いかなど,注目している点は人それぞれである。観客を盛り上げるために主に以下の表現技法がある. ・アンサー ・パンチライン・ヴァイブス ・ライム・フロウ これらの表現技法を本稿ではスキルと呼ぶことにする. フロウは歌詞のみでは検出できないため, 研究対象外とした。 ## 4 スキル 3.1 節の表現技法について説明する. 「アンサー」は相手のブレた論点にツッコミを入れ, ディスられた内容を否定して自分自身の考えを言うことである.記憶に残るのが「パンチライン」であり, 誰も使用したことがない独特なキーワードセンスが求められる. 「ヴァイブス」は観客を盛り上げて観客を味方につける一つのスキルであり, 声のト ーンや言葉, 声の張り上げ等で観客に情熱や気合を伝える. 語尾が名詞ではなくなる特徴がある.また,早口になって 1 小節あたりに含まれる言葉数が多くなる.「ライム」は単語の母音を重衩合わせたもので韻を踏むとも言う。「フロウ」はビートに対するアプローチの種類, 歌いまわし, 抑揚の付け方, ラップの展開など,いろんな解釈がある。[8] 各 MC が特化しているスキルは三者三様であり,各 MCには個性(スタイル)を感じられる。 ## 5 使用したデータ 本研究で用いたデータは[9][10][11][12]等が YouTube にアップロードしているバトル動画とした.基本的にバトルは $\mathrm{MC}$ 同士, $1 \mathrm{vs} 1$ だが, 3 vs 3 の団体戦も存在する. 本研究では団体戦は対象としていない. バトルの歌詞データは合計 300 個用意した.対象とした MC はDOTAMA」,「R 指定」,「NAIKA $\mathrm{MC}\rfloor, 「 ニカ ゙ リ 」, 「 \mathrm{MU}-\mathrm{TON} 」$,「晋平太」,「呂布カルマ」の7 名. それぞれ違うスタイルを持ち合わせた MC である. データの内訳を付録の表 1 に示す. 歌詞情報は動画の字幕や[13][14]を参考に作成した. 歌詞データの形式は付録の図 1 に示す. ## 6 分析方法 分析には python ライブラリである scikit-learn のロジスティック回帰分析を用いた。ロジスティック関数に含まれるzは総入力である. $ \varphi(z)=\frac{1}{1-e^{-z}} $ $z$ は回帰係数とサンプルの特徴量の線形結合であり,以下のように計算ができる. $ z=\boldsymbol{w}^{T} \boldsymbol{x}=w_{0}+w_{1} x_{1}+\cdots+w_{m} x_{m} $ 学習された回帰係数べクトル $\boldsymbol{w}$ と説明変数 $x_{i}$ の値が与えられた時, 目的変数のクラス分類を行うことが可能である. [15]本研究では目的変数を MCとし. 説明変数は 4 節のスキルと MC の個性を表すと考えられる要素に基づいて以下の 11 個とした. ・ライムスコア : $x_{1}$ ・ライムスコアの対戦相手との差 : $x_{2}$ ・アンサー単語の平均数の対戦相手との差 : $x_{3}$ ・アンサーした回数の対戦相手との差 : $x_{4}$ ・ パンチラインスコア : $x_{5}$ ・ パンチラインスコアの対戦相手との差 : $x_{6}$ ・ヴァイブス単語数の対戦相手との差 : $x_{7}$ ・地名を発言した回数の対戦相手との差 : $x_{8}$ - 名詞の割合 : $x_{9}$ - 総単語数の対戦相手との差 : $x_{10}$ - 総発音数の対戦相手との差 : $x_{11}$ 本研究では二値分類器を多クラス問題に拡張するための手法である一対他(One-vs-Rest:OvR)[15]を使って $\mathrm{MC}$ ごとに分類器の性能を検証した. また,性能の評価には $\mathrm{K}$ 分割交差検証法を使用した. 本研究では $\mathrm{K}=5$ とし, スコアの平均値を推定結果とした. ## 6.1 ライム: $x_{1, x_{2}$} 図 2はライムスコアの算出方法であり, 本研究では脚韻のみを考慮した。 図 2 ライムスコアの算出例 ## 6.2 アンサー : $x_{3, x_{4}$} アンサー単語の平均数の対戦相手との差とアンサ一した回数の対戦相手との差の算出方法を図 3 に示す. 本研究では対戦相手が前のターンで使用した単語と同じ単語を使用することをアンサーとした. 対象の単語は名詞のみとした。 図 3 アンサー回数の差, 平均の算出例 ## 6.3 パンチライン : $x_{5, x_{6}$} パンチラインスコアは TF-IDF を用いて算出している. $\mathrm{TF}$ 值 $t f(t, d)$ は各バトル $d$ の各単語 $t$ として算出. $\operatorname{IDF}$ 值 $\operatorname{idf}(t)$ は全バトルの各単語 $t$ として算出. また, 単語 $t$ は名詞のみを対象としている。 バトルにおける TF-IDF 值が上位 10 個の単語を合計したものをパンチラインスコアとした. ## 6.4 ヴァイブス : $x_{7$} 本研究で対象としたヴァイブス単語を示す.「だ」「ぜ」「たい」「だぜ」「ねえ」「だろ」「だぞ」「だよ」「じゃねえか」「ねえよ」地名の抽出は形態素解析 janome を使用し, 「地域」 カテゴリーに該当した単語とした。 ## 7 結果 本研究では全バトルデータ 300 個の内, 240 個を学習データ, 60 個をテストデータとして検証を行った. また性能評価の指標は F1 值とした. F1 值を評価指標にした理由は,一体他手法において,One(該当 $\mathrm{MC}$ )の割合に比べて Rest(該当 MC 以外)の割合が非常に大きく, 全ての予測を Rest にすることで, スコアが高くなってしまう評価指標である Accuracy よりも良好なモデルを選択できると考えたからである. 7 人それぞれの $\mathrm{MC}$ の性能の結果を付録の表 2 に示す. 次に, F1 值が最大時の各 MC の回帰係数を降順に並べたものを表 3 9 に示す. これは数值が高い係数ほど目的変数を決定づける影響が大きいと解釈できる. また, F1 值が最大時の各 MC の回帰係数ベクトル $\boldsymbol{w}$ がなす角度を付録の表 10 に示す。 ## 8 考察 表 2 より「DOTAMA」「R 指定」「ムートン」の $\mathrm{F} 1$ 值が 0.6 以上となり, 対象 MC の中で比較的良好な結果を示した. 表 3 9 から各 MC の考察をする.「DOTAMA」はアンサー単語の平均回数の対戦相手との差が最も高い値を示しており, 著者の印象通りであった.「R 指定」は多くのスキルを持ち合わせている MCであり,ヴァイブス,ライムに関する項目が上位であるため, F1 值が高くなったと考えられる.また, 実際にバトルで地名を発することも多く, それが結果に現れていた。一方,パンチラインスコアの值が最も低い結果となっており,実際のバトルでの印象と異なるため, パンチラインスコアの算出方法を改善する必要がある.「ムートン」はフロウとパンチラインを得意とする MCであり,地名を発することも多く,結果にも現れていた.「ニガリ」 「晋平太」「呂布カルマ」は 1 値が 0.5 以下を示す結果となった.「ニガリ」はフロウを得意とする夕イプであり,フロウを表現する説明変数がなかったため F1 値が低くなったと考えられる。「晋平太」はライムを得意とする MCだが,ライムスコアとライムスコアの対戦相手との差の値が小さい結果を示した.これは, 本研究では脚韻のみを対象としており,頭韻や文中の韻を考慮できていないからと考えられる.「呂布カルマ」はパンチラインやアンサーを得意とする MC だが, パンチラインスコアの差が負の値を示していることから F1 值が低い結果になったと思われる。また, 呂布カルマは強烈なディスリスペクトを武器にしているため,ディスリスペクトを表現する説明変数を加える検討が必要である. 表 10 より, 各 MC の重みベクトル $\boldsymbol{w}$ がなす角度が最低值 $26.3^{\circ}$, 最高値 $61.1^{\circ}$ を示しており, 本研究で対象とした MC 7 人それぞれ個性があることが示された。 ## 9 まとめ 本研究ではロジスティック回帰を用いて $\mathrm{MC}$ バトルの歌詞から $\mathrm{MC}$ 推定, $\mathrm{MC}$ ごとの個性を捉えることを行った. 地名を発した数の対戦相手との差やアンサー単語の平均回数の対戦相手との差が MC の個性を推し量るに有効な説明変数であることが示された. 今後は推定の精度が向上するよう, 各種スコアの算出方法の改善, ディスリスペクト等の有効な説明変数を新たに加えることやロジスティック回帰分析以外の分析方法による検証が必要である. ## 表 3 DOTAMA 表 4 NAIKA MC 表 7 ムートン 表 9 呂布カルマ ## 表 8 晋平太 $w_{3} \quad 0.378351$ $w_{5} \quad 0.274882$ $w_{8} \quad 0.082565$ $w_{4} \quad 0.033094$ $\begin{array}{ll}w_{10} & 0.024409\end{array}$ $w_{7} \quad 0.006827$ $w_{2} \quad 0.001677$ $w_{1} \quad 0.000894$ $w_{9} \quad-0.01216$ $w_{11} \quad-0.01412$ $w_{6} \quad-0.18754$ ## 参考文献 1. 秋岡明香, 意味ベクトルを用いた J-POP 歌詞の文体分析, 情報処理学会, 第 82 回全国大会講演論文集, 2020 巻 1 号, p313-314, 2020 年 2. 山下佑子荻野晃大, 楽曲のサビを構成する動詞・形容詞の代表語への集約と気分語の関係の分析-歌詞全体とサビ部分の比較を通して,情報処理学会, 研究報告音楽情報科学 (MUS), 2015MUS-107, 57 号, p1-6, 2015 年 3. 篠井暖, ArtistVector : Web 文書分散表現によるアーティスト特徴量獲得, 情報処理学会, 研究報告自然言語処理(NL),2018-NL-236,3 号, p1-7, 2018 年 4. 浅妻佑弥山下晃弘松林勝志, SNS 上への発言の特徴分析に基づくユーザの属性推定,情報処理学会, 第 80 回全国大会講演論文集, 2018 巻 1 号, p541-542, 2018 年 5. 中村鴻介山口実靖, 機械学習による主観文書分類結果の解釈性の付与に関する-考察, Web とデ ータベースに関するフォーラム, 情報処理学会, WebDB Forum 2019 論文集, p17-20,2019 年 6. 山田侑樹櫨山淳雄, fastText を用いたアプリケ ーションレビューの分類と局所的な説明の付与による考察, 情報処理学会, ソフトウェアエンジニアリングシンポジウム 2020, p219-225, 2020 年 7. 坂井衛谷岡広樹松浦健二後藤田中和田智仁, ロジスティック回帰分析を用いた打撃能力評価指標の提案, 情報処理学会, 研究報告数理モデル化と問題解決(MPS), 2020-MPS-127,8 号, p1-6, 2020 年 8. 晋平太, フリースタイル・ラップの教科書 $\mathrm{MC}$ バトルははじめの一歩,イースト・プレス, 2016 年 9. 戦国 MC battle, https://youtube.com/senritumc 10. ikftv , https://www.youtube.com/ifktv 11. 凱旋 MCbattle, https://youtube.com/channel/UCe_EvY8GrvYgx8Pb wRBc75g 12. UMB, https://www.youtube.com/umbofficial 13. $\mathrm{MC}$ バトルリリック https://ameblo.jp/tempest156/ 14. MC battle リリックまとめ, http://mc-battle.info/ 15. Sebastian Raschka, Python 機械学習プログラミング達人データサイエンティストによる理論と実践,インプレス,2016 年 ## A 付録 表 1 データの内訳 ## [R指定] ビートでは逃げない 2 しっかりと魂のぶつかり合いがしたい 3 なあ本戦で何度だって 4 戦うチャンスはあったのに今日が初めてだぜ 5 なあ輪入さんいろいろあって 6 戦えなかったか今日せっかくのチャンス 7 魄のぶつかり合いとやら 8 あんたの言葉の重外をぶつけてくれよ [輪入道] まずは絶対お前はネ夕仕迄んで 来ると思ってたけじ意外上意気込んでる オッケーいいねそのバイブスのままやろうぜ 俺だってお前のことぶっ殺したかったぜ yeah ライブやった後なのに こい全然声枯れてれっバイブス足らねっ マイク掴んで何が言いて元 それをらゃんと最後に伝えるのはじっらか見極めてくれ 図 1 テキストデータの形式 表 $2 \mathrm{~K}$ 分割交差検証の結果 表 10 各 MC の回帰係数ベクトル $w$ がなす角度
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C3-3.pdf
# 製品特徵に基づく製品発表プレスリリースの関連特許自動判定 中山優輝 酒井浩之 永並健吾 成蹊大学 理工学部 情報科学科 us182093@cc. seikei.ac.jp \{h-sakai, kengo-enami\}@st. seikei. ac.jp ## 概要 本研究では,製品発表プレスリリースと関連のある特許を自動的に判定する手法を提案する.特許明細書から BERT[2]を用いて「発明を使用することによりもたらされる効果が記述してある表現」(以下,重要文)を抽出し,その後,特定の文末表現を用いることで重要文から「製品の特徴を示すキーワード」 (以下,重要語)を抽出する. これにより製品特徴の表現とは無関係な文と語の除去を図り,プレスリリースの製品と関連のある特許の検索精度向上を目指す. ## 1. はじめに 特許は企業の原動力となる新技術やビジネスの大事な指標の一つであり, 他社における先行特許を調查することは極めて重要である. またそのような調査では,単に開発製品と関連のある技術分野の特許を調查対象とするだけでなく, 競合している他社の特許と製品の双方に着目し, より細部での関連性を対象として特許を特定することが必要とされてい る. しかしながら, 文書から製品の機能に関する特徴的な技術を十全に把握し, かつ膨大にある特許明細書から当該製品と関係のある特許を見つけ出すことは容易ではない. そこで本研究では,特許明細書と製品発表プレスリリースの双方から,重要文と重要語を抽出することで,対象としたプレスリリース記事と関連のある特許明細書を自動的に判定することを目的とする.例えば,「カメラ」の製品発表プレスリリースを入力とした場合,「レンズ」や「画像素子」に関する特許が, 関連性があると自動的に判定され, 関連特許検索に応用可能な技術である。 本研究により,発表された製品に導入された技術に関する特許を素早く検索することが可能となり,競合している他社製品の特許を簡単に把握することができるようになる.関連研究に,関連特許検索を二値分類問題として扱った文献[1]があるが,こちらは BERT[2]が用いられているものの,対象にはノイズとなる語も含まれており,正例負例が不均一となる特許検索を主とした言語モデルには適していない。また,特許文献における発明の作用・効果を抽出する手法[3]があり, こちらは対象とは無関係とされる文や句の除去が人手で行われ,最終的に残った文章について SVM を使用することで重要文抽出を試みていた。同様に特許の機能表現に着目した類似特許検索法が提案された文献[4]では,相互情報量を使用することで文章を短文に分割し,語の従属関係に基づいた類似度計算が行われている. 先の両文献についてはいずれも BERTを使用した重要文の自動抽出が試みられていない点で本研究とは異なっている. その他,関連研究として文献[5]があるが,当該文献では関連度計算に用いられる特許文の対象が人手によって絞り込まれており,特許のもたらす効果とは無関係な記述が多く存在していた。また, 関連度計算においては文書の分散表現が用いられておらず,語の意味関係が考慮できていない。それに対して本研究では,特許明細書と製品発表プレスリリー スの双方から BERTを使用して重要文を抽出することでノイズとなる文章を除去し,Word2Vec を使用した文書の分散表現を用いることで語の意味関係を考慮した関連特許検索手法を提案する。 ## 2. 提案手法 本提案手法は以下の 3 つの Step で構成される. Step1: BERT を用いて,特許明細書及びプレスリリ一ス記事からそれぞれ重要文を抽出 Step2: Step1 で抽出された重要文から重要語をそれぞれ抽出 Step3: Step2 で抽出された重要語を用いて, プレスリリース記事の関連特許を検索 本研究では 2017 年度に受理された特許データ 446,644 件,及び日経プレスリリース記事の「情報・通信」と「素材・エネルギー」に関する 16,180 記事を使用する。 ## 2.1. BERT を用いた重要文抽出 BERT を用いることで,例えば「本発明によれば、ステイプル処理やパンチ処理等の後処理を伴う印刷において印刷において試し印刷をした場合における記録紙の無駄を削減することができる」などの文を抽出し,「無駅を削減する」といったような 『発明を使用することによりもたらされる効果』の記述を重要文として抽出する。 また,重要文を抽出することで製品特徴とは無関係なノイズとなる文の除去が可能となる. ## 2.1.1. BERT の学習データ BERT の学習データは全 8 種ある特許 IPC について 1 種 1,500 件として無作為に選んだ計 12,000 件の特許データから, それぞれ正例・負例 10,000 文を無作為に抽出し,計 20,000 文を使用する. 正例に関しては「発明を使用することによりもたらされる効果が記述してある表現」が特許における 「発明の効果」(advantageous effects)に記載されている文と同義であるという仮定に基づき無作為に抽出を行った。また,負例に関しては「重要文とは無関係な文」が特許における「実施例」 (embodiments example) に記載されている文と同義であるという仮定に基づき無作為に抽出を行った. ## 2.1.2. BERT を用いた特許の重要文抽出 特許明細書の重要文抽出において使用する BERT モデルは 2.1.1.で作成したデータを学習データとしたモデルとし, テストデータを企業ごとの特許明細書とする. 表 1 にテストデータとして用意した企業とその特許データ数の一部を示す。 表 1 各企業と特許データ数(テストデータ) ## 2.1.3. BERT を用いたプレスリリース記事 の重要文抽出 プレスリリース記事には「素材」や「厚み」といった商品の仕様が箇条書きとなっている文章や, 製品とは無関係な「開発企業の説明」などのノイズとなる文章が含まれている。そのため, 特許と同様に BERT を用いることで重要文を抽出し,ノイズ文の除去を行なう,プレスリリース記事の重要文抽出において使用する BERT モデルは 2.1.2.で使用したモデルと同一とし,テストデータを表 1 で示された企業に関するプレスリリース各 1 記事とする。 ## 2.2. 文末表現に着目した重要語抽出 次に, BERTによって抽出された重要文から重要語を取得する. 例えば,「お客様の投資負担軽減及び売電事業に貢献します。」という文から「貢献します。」という文末表現に係っている文節に含まれる『売電事業』や『投資負担軽減』を取得することで重要語を抽出し, さらに『お客様』といった製品の特徴とは無関係な語の除去を行なう。こうして,重要文からさらに重要語を抽出することで精度の向上を図る。 文末表現の取得について, 特許明細書からは BERT の学習データである 12,000 件の「発明の効果」に関する文章 58,959 文を使用し,プレスリリ一ス記事からは「情報・通信」と「素材・エネルギ一」に関する 16,180 記事について BERT を用いて抽出された 99,201 文を使用した。また,プレスリリース記事の文抽出に用いた BERT モデルは 2.1.2. で使用したモデルと同一とした。重要語の取得は以下の 3 つの Step で構成される. Step1: 人手で選定された文末表現から,文末表現に係っている文節に含まれる語を抽出 Step2: Step1 で抽出された語が含まれる文節が係っている文末表現を再取得 Step3: Step2 で取得された文末表現を用いて,特許明細書, および,プレスリリース記事から重要語を抽出 以下, Step1 の具体例を図 1, Step2 の具体例を図 2 に示す. 図の赤字は重要語, 青字は文末表現をそれぞれ表す. このような酸素拡散層は酸素コレクターに捕捉された酸素を広い範囲に拡散し、タイヤ外部への酸素の排出を促進する。 ※文末表現「促進する。」を選定した場合, 「酸素拡散層」「拡散」「排出」が抽出される. 図 1 選定した文末表現からの語の抽出例 (Step1) 酸素コレクターがカーカス層の巻き上げ部に対応する部位に埋設される場合、酸素コレクターよりもタイヤ外表面側で酸素輸送コードと近接する位置に織布又はメッシュを含む酸素拡散層を設けることが好ましい。 ※Step1 で抽出された「酸素拡散層」から,新たに文末表現「好ましい。」を取得する。 図 2 Step1 で抽出された語から文末表現を再取得 (Step2) ## 2.3. プレスリリース記事の関連特許検索 2.2.で抽出された重要語に Word2Vec を使用することで各文書(特許明細書,および,プレスリリー ス記事)を固定長のベクトル(分散表現)として表現する。これにより文書間で同一名詞が出現していない場合でも類似度計算を行い,関連文書を検索することができる. 文書の分散表現は, 各重要語の分散表現を用いて式(1)で求める。 $ \text { DocVec }=\frac{1}{n} \sum_{i=1}^{n} \text { WordVec }_{i} $ WordVec :文書に含まれる重要語 $\mathbf{i}$ の分散表現 $n$ : 文書内に含まれる重要語の数 プレスリリース記事 $\mathrm{D}$ と特許明細書 $\mathrm{T}$ 間の類似度計算にはベクトル空間モデルに基づいて, コサイン類似度を使用する。 ## 3. 評価 重要文抽出に使用する BERT については,バッチサイズを 128 , エポック数を 5 として実験を行なった. また, 文末表現・重要語抽出において形態素解析器は MeCab を使用した。ここで文末表現については閾値を DF 值 5 以上,IDF 值 2 以上のものを抽出し, 重要語についての DF 值, IDF 值の閾値は文末表現同様,かつ「英数字」「記号」が含まれている語を除いた 2 文字以上の複合名詞として抽出を行なった。また,文書の分散表現を求めるうえで使用する Word2Vec は約 2GB の Wikipedia データを用いて作成されたモデルとした. なお, 作成した Word2Vec のモデルは, 複合名詞を 1 つの語として扱ったモデルであり, 複合語の分散表現を得ることができるものである. 上記によって, 文末表現については最終的に特許から計 4,182 個,プレスリリース記事から計 1,816 個が取得された。 評価における比較手法として, 特許明細書・プレスリリース記事 8 記事(P1〜P8)に対して重要文抽出を行わずに類似特許を求めた場合と,重要文抽出を行った場合,提案手法である重要文抽出と文末表現を使用した検索結果それぞれ上位 10 件及び上位 20 件における精度を表 2 に示す。 表 2 各プレスリリース記事の類似特許検索精度 & & & \\ (上位 10 件の精度 / 上位 20 件の精度) P1: 富士ゼロックス、欧州医療機器規則に対応する取扱説明書の多言語翻訳サービスを提供開始 P2: 富士ゼロックス、複合機アプリケーション「クラウド連携アプリケーション for DX Suite」を提供開始 P3: 富士電機、太陽光発電設備のコスト削減を実現する蓄電池併設型マルチ PCS を発売 P4: 富士電機、第 7 世代「X シリーズ」IGBT モジユールの系列を拡大 $-1,700 \mathrm{~V}$ 耐圧製品のサンプル出荷を開始 P5: NTT、秘密計算システム「算師」の試用提供を開始一大切なデータを安心・安全に利活用 P6: ソニー、大口径超広角ズームレンズ Gマスタ 一「FE12-24mmF2.8GM」を発売 P7: 村田製作所、サイバートラスト社のセキュア IoT プラットフォーム対応の MCU 内蔵 Wi-Fi モジュールを商品化 P8: 大日本印刷、評価分析機能付きデジタルテストシステムを開発 また, 例として,P6 における類似特許の検索結果上位 20 件を図 3 に示す. ここで, 図の赤字は,評価の結果, プレスリリース P6 の関連特許として適していると判定したものである. 図 3 P6 における類似特許の検索結果 ## 4. 考察 全体のプレスリリース記事に関して,提案手法である「BERT における重要文抽出」と「文末表現を用いた重要語抽出」を行なうことで精度は最大 $90 \%$, 精度向上率については重要文抽出を行なっていないものと比較して最大 $80 \%$ の向上を示した. また,プレスリリース記事 P2・P7 については,上位 20 件の精度が上位 10 件の精度の半分となっているが,これは類似特許が上位 10 件のうちに偏っているためである.前提として,本研究では 2017 年度に受理された特許を企業ごとに対象としているため,1つのプレスリリース記事に類似する特許が一定数以上あるとは限らない。 そのため, 精度は低くとも類似特許検索としては十分な性能であると考えられる。 また,P5 については他の記事と比較して提案手法における精度の向上があまり測れていない.ここで, 図 4 にてP5, 図 5 にて P6 で抽出された重要語を記す。利活用,日本電信電話, 日本電信電話株式会社,昨今, イノベーション,変化,トランスフォーメーション,デジタル,要因,解消,運用,利点,開示,データ運用,改良 図 4 P5 で抽出された重要語 軽量,小型軽量,マスター,小型,ならでは,描写,撮影,堅牢性,堅牢,迫力,画角,被写体,最先端技術,光学,最先端,設計,光学設計,調整,像面,レンズ,徹底的,湾曲,コ ーティング,フレア,ナノ,大幅,ズーム,距離,ズーム全域,近接,搭載,能力,全域, リニア,モーター,リニアモー ター,性能,インナーフォーカス,インナー,フォーカス,変動,好み,合わせ,マニュアル,リング,フォーカスリング,ピント,配慮 ## 図 5 P6 で抽出された重要語 プレスリリース記事 2 記事で抽出されたそれぞれの重要語を比較すると, 抽出された重要語の多い P6 のほうが,重要語があまり抽出されていない P5 よりも表 2 において精度が劣っていることが分かる. P5 で抽出された重要語が少ない原因として, 2.2.にて獲得された文末表現が P5 の記事文中に十分に含まれていないことが挙げられる. そのため,重要語を抽出できる文末表現の取得数を増やす手法が必要であると考える. ## 5. むすび 本研究では,製品発表プレスリリースと関連のある特許を自動的に判定する手法を提案した. 評価の結果, 特許明細書・プレスリリース記事の双方について「BERTを用いた重要文抽出」並びに「文末表現を用いた重要語抽出」を行なうことで,類似特許検索の精度向上が見込めることを示した. しかしながら,一部のプレスリリース記事において重要語の抽出が十分でなかったことから, 満足される精度を示さない記事も見受けられることが分かった. 今後は適切な文末表現の取得数を増やすことで,類似特許検索において有用に活用できるような手法を検討していくことが求められる. ## 参考文献 [1] Dylan Myungchul Kang, Charles Cheolgi Lee, Suan Lee, Wookey Lee, "Patent Prior Art Search using Deep Learning Language Model”, IDEAS '20: Proceedings of the 24th Symposium on International Database Engineering \& Applications (2020) [2] Devlin, Jacob, et al, "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding." , arXiv preprint arXiv:1810.04805 (2018). [3] 原田綾花,太田貴久,小林暁雄,増山繁,野中尋史,酒井浩之,“特許文書からの発明に関する特徴的技術とその効果の抽出”,言語処理学会第 19 回年次大会発表論文集,pp512-515, 2013. [4] Jian-Hong Ma, Ning-Ning Wang, Shuang Yao, ZiMo Wei, Shuai Jin, "Similar Patent Search Method Based on a Functional Information Fusion”, IDEAS '20: Proceedings of the 24th Symposium on International Database Engineering \& Applications (2018) [5] 酒井浩之,増山繁,“製品特徴に基づく製品発表プレスリリースと特許との関連性の判定”,言語処理学会第 19 回年次大会発表論文集, pp725-728, 2013.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C3-4.pdf
# 業績要因・結果を用いた特許の価値判定のための関連性推定 三田英理 酒井浩之 永並健吾 成蹊大学 理工学部 情報科学科 us182054@cc.seikei.ac.jp \{h-sakai, kengo-enami\}@st.seikei.ac.jp ## 概要 決算短信の業績要因と特許を関連付け, 業績要因のセグメントの業績結果から特許の価値判定の為の関連性推定を行う。具体的には,特許と業績要因を類似度推定により関連付けを行う。そこで取得した業績要因を基に, 対応する業績結果を取得し, 最終的に特許・業績要因・業績結果の3つを関連付ける。 3 つを関連付けることにより, 特許が属するセグメントの業績結果から, 出願企業における特許の価値を判定することが可能となる.評価実験では,無作為に選んだ 100 件の特許に判定を行い, 76 件が関連付けに成功した。 ## 1. はじめに 企業にとって, 競合他社の特許を検索し, 先行技術がないか,自社の製品が他社の特許を侵害していないかを調べることは重要である。そのため, 知財戦略や研究開発戦略の立案の際, 特許文書を対象とした技術調査を行う必要がある。しかし, 年間に出願される特許の数は膨大であり,1つの企業が出願する特許数も多い. そのため, たとえ業種を絞ったとしても,全ての特許を対象として調査することは多大なコストがかかり,できるだけその企業にとつて価値のある重要な特許のみを調査対象としたい。 ここで, 企業にとって重要な特許とは, その企業が展開している事業(セグメント)の中でも主力となる事業に関連している特許である。しかし, 手作業で競合他社の特許の価値を判定するには,まず,多くの文章量である特許文書からその特許に対応する事業を探し出さなければならない。そして, その事業が企業にどの程度影響を与える可能性があるかを計算する. これは非常に手間のかかる作業であるため,効率的な支援技術が必要である。 そこで本研究では, 特許と出願企業の決算短信における業績要因 [1] とを関連付け, 業績要因が属する事業セグメントの業績結果から,その特許の関連性推定を行う手法を提案する.そして,特許を出願した企業においてどれくらいの価値のあるものであるかを推定する。 すなわち, 特許の対応する事業セグメントの売り上げがその企業全体の売り上げの割合を占めるかで,その特許の価値を判定する。 特許分析に関する関連研究として, 佐々木らは,特許文献中の重要語を用いた $\mathrm{F}$ タームの自動付与を行っている [2]. 酒井らは, 技術調査に必要な情報を 「ができる。」と「が可能である。」といった表現を,手がかり表現の種として与えることで,特許から自動的に抽出する手法を提案している [3].これらの研究に対して本研究では, 特許の出願企業における価値を判定するための情報を,その企業の決算短信の情報を用いて推定するためのものであり, 特許の価値判定のための情報抽出,および関連性推定を行う点が異なる. ## 2. 提案手法 本手法の概要を以下に示す. Step1:特許文書に付与されているIPC タグを用い,出願企業が発行している決算短信における, その特許に最も関連する業績要因文を推定する。 Step2: Step 1で特許と関連があると推定された業績要因文に対応する業績結果文を推定する. Step3:推定された業績結果文から,その業績結果の対象としている事業セグメントにおける売上高や営業利益を抽出する。 Step4: その企業全体の売上高や営業利益と, Step 3 で抽出された, 特許に関連している事業セグメントの売上高や営業利益を比べ, 全体における割合からその企業における特許の価値を判定する。 本研究にて使用する特許文書は 2017 年に出願された特許のうち,上場企業のものを使用する。決算短信は 2015 年から 2020 年のデータを使用する. ## 2. 1 特許文書と業績要因文との関連付け ## 2. 1. 1 特許文書の分散表現 特許文書と決算短信の業績要因文との関連付けのための類似度計算の準備として, word2vec[4]による特許文書の分散表現を作成する. 本研究では,特許文書に付与されている国際特許分類(IPC) ${ }^{i}$ から名詞を取得し, 分散表現を作成する. なお, word2vec の分散表現モデルは上場企業の有価証券報告書 (30587 個)から作成したものを使用し,次元数は 300 とした. 分散表現モデルの作成に有価証券報告書を用いた理由は,大量の文書が容易に入手できることと, 特許と決算短信で同じ分散表現モデルを使用する必要があるため, 特許よりも決算短信に近い文体である有価証券報告書を用いた. IPC は,特許の分野に適当であると認められる全知識体系を,セクションからサブグループまでの階層構造で表現している。したがって,特許文書中の IPC から上の階層のもので構成される名詞から, 特許の分散表現を作成する。この名詞の分散表現ベクトルの平均を求めることで,特許の分散表現を得た. 名詞の抽出には, 形態素解析器 MeCabを使用した. ## 2. 1.2 業績要因文の分散表現 企業ごとの業績要因文の分散表現を作成する。ここで, 決算短信からの業績要因文は, 酒井らの手法 [1]を使用して抽出した.業績要因文ごとに複合名詞を取得し,2.1.1.節と同様に word2vec を用いて分散表現を得る,word2vec のモデルは,2.1.1節と同じ,有価証券報告書から作成したものである,業績要因文の分散表現も, その文に含まれる名詞の分散表現ベクトルの平均を求めることで得た. ## 2.1. 3 特許と業績要因文との関連性推定 特許文書から作成した分散表現 A と業績要因文から作成した分散表現 Bを比較して, 特許と業績要因文との類似度を計算する。 類似度としてコサイン類似度を求めることで,特許文書に対して関連性の高い業績要因文を得ることができる。ここで,求めた類似度のうち値が大きかった上位 5 文の業績要因文を特許文書との関連性の高い業績要因文とした. ## 2.2 業績要因文に対応する業績結果の抽出 2.1 節で特許文書と関連付けを行った業績要因文に対して, 対応する業績結果の取得を行う.ここで,業績結果として,以下の 2 以の条件をともに満たす文を抽出する。 - “売上高”“営業利益”“純利益”のいずれかを含む ・“万円”“億円”のいずれかを含む 業績結果は業績要因文と同じ文,もしくは直後の文に含まれているという特徴を利用した.例として,「島津製作所」の「医用機器事業国内市場」に関する業績要因文と,その後ろ 4 文を以下に示す.なお, 1 文目が業績要因文である. - I I . 医用機器事業国内市場は、内外メーカの競合激化による価格低下が進むなか、早期ガン検診に適した P E T (陽電子放射断層撮影装置)、FPD(フラットパネルディテクタ)搭載の循環器 $\mathrm{X}$ 線検査システムなどの新製品を中心に好調に推移しました ・海外市場につきましては、低調でありました -この結果、当事業の売上高は 442 億 9 千万円(前期比 6. $8 \%$ 増) 、営業利益は 22 億 9 千 9 百万円 (同 71 . $7 \%$ 増)となりました - I I I . 航空 - 産業機器事業航空機器は、防衛予算の抑制や民間航空機需要の低迷など厳しい事業環境が続くなか、国内市場、海外市場ともに低調に推移しました - 産業機器は、半導体・I T 関連設備投資の増加に伴い、半導体製造装置向けターボ分子ポンプ、太陽電池用成膜装置、ガラスワインダーなどの需要が拡大し、また、産業車両や建設機械向け小型ギアポンプなど油圧機器も好調に推移しました 例において,業績要因文から 2 文目(先頭からは 3 文目)に業績要因文に対応する業績結果文がある. このように,決算短信では業績結果を含む文は業績要因文の周辺に記載されている. ほとんどの業績要因・業績結果はこの規則に沿って記載されているため、これを利用した抽出を行う.具体的な抽出手順は以下の通りである. Step1:類似度が最も高かった業績要因文を含む後ろ 5 文を抽出して上記のキーワード検索を行う. Step2: キーワードに一致する語があった場合は, その文章を業績結果として抽出する.  Step3: キーワードに一致する語がなかった場合は,2 番目に類似度が高かった業績要因文に対してキーワード検索を行う。 以上の手順を 5 番目に類似度が高かった業績要因文まで繰り返し行うことで, 業績要因文に対応する業績結果文の抽出を行った. ## 3. 評価 まず,分散表現を用いた類似度計算により取得した業績要因文と特許に対して, 正しく関連付けが行われているかどうかの評価を行う. 特許に対する最も高い類似度の業績要因文を記載した例を以下に示す. ■企業名: 積水化成品工業株式会社 - 特許:容器 - 類似度 : 0.80565 ・業績要因文 : 自動車部材・産業包装材関連では、「ピオセラ ン」(ポリスチレン・ポリオレフィン複合樹脂発泡体)は、世界同時不況後の販売回復に加え、中国での需要拡大などにより前期から売上が増加しました 表 1 に最も高い値の類似度の分布を示す. 特許文書に対して最も高い值となる業績要因文の類似度は 0.7 から 0.8 を中心に見られ, $97.9 \%$ が 0.6 以上となった. 表 1 特許に対する類似度の分布 & $\sim 0.5$ & $0.5 \sim 0.6$ & $0.6 \sim 0.7$ & $0.7 \sim 0.8$ & $0.8 \sim$ \\ 続いて, 取得した業績結果に対する評価を行う. 2.1 節で抽出した業績要因文に対してどの程度の割合で業績結果が取得できているかに着目する. 業績要因文 65,443 件に対して本手法を実行した結果,取得した業績結果は 55,290 件であり,84.5\%となった. 最後に, 特許文書と業績要因, 業績結果の3つが正しく関連付けできているかについて評価を行う。 この評価は取得した特許, 業績要因, 業績結果の対応から 100 件を無作為に選び, 手作業で評価を行った. 100 件のらち, 特許と業績結果の関連付けができたものが 76 件となった. 例として本手法にて関連性ありと推定した 2 件の特許, 業績要因, 業績結果の対応を以下に示す. ■企業名: アサヒグループホールディングス ・特許タイトル:血中アセトアルデヒド低減剤 ・業績要因文 : 国内食品事業「アサヒフードアンドヘルスケア株式会社」については、指定医薬部外品『エビオス錠』やサプリメント『ディアナチュラ』などの主要商品に加え、ダイエットサポート食品『スリムアップスリム』や栄養調整食品『1本満足バー』なども好調に推移したことなどにより、売上高が前年同期より伸長しました - 業績結果文 : 以上の結果、食品事業の売上高は、東日本大震災の影響を受けたものの、グループ各社が主力商品のブランド強化に取り組んだことにより、前年同期比 455%増の 4 76 億 3 千 3 百万円となりました ■企業名:出光興産 ・特許タイトル: グリース組成物 - 業績要因文 : また、従来の結晶性ポリプロピレン樹脂と比べ て大幅に融点が低く軟質特性を有する機能性軟質ポリプロピレ ン(商品名 : エルモーデュ®) については、従来からの衛生材向け接着基剤、不織布の改質材などに加え新たな用途開拓に国内外で取り組みました - 業績結果文 : 以上の結果、石油化学製品セグメントの売上高は、ナフサ価格が上昇したことなどにより $5 , 007$ 億円(前期比 $+8.6 \% )$ となりました ## 4. 考察 まず,特許文書と業績要因の関連付けに関する考察をする。特許文書 65,443 件のうち, $84 \%$ が 0.7 以上の類似度となった. 特許文書の IPC 分類の名詞における分散表現の平均と, 業績要因文の複合名詞における分散表現の平均で類似度を計算したことを踏まえると, 高い值となった. 他にも特許文書の請求項に含まれる全ての名詞による分散表現を用いた手法などが考えられたが,その場合,より専門的な単語が多く含まれる一方で, ノイズとなる単語もまた多く含まれてしまうため,精度が落ちると考える. 続いて, 業績要因文に対応する業績結果の取得率に関して,業績要因文を含む後ろ 5 文においてキー ワード検索にて関連付けを行った. その結果, 取得率は $84.5 \%$ となり良好な値となった. 正しく業績結果が抽出できなかった場合の傾向として, 業績要因文は正しく抽出できているが,5 行以内に業績結果が記載されている文が存在しない場合が多くみられた.しかし, このような状況に対応するため, 抽出対象の文数を増やしてしまうと, 異なる事業セグメントの業績結果を抽出する可能性が高くなる. そこ で,「売上高」等のキーワード検索だけでなく, 業績要因のセグメントと異なるセグメントになり得る語が見つかった場合に,抽出することがないような処理を追加することで改善できると考える. 最後に, 特許文書・業績要因・業績結果の 3 つの関連付けに対して考察を行う. 人手で評価を行った結果, 100 件のうち 76 件が成功していた. つまり,業績結果が取得できたものに関しては比較的高い精度で関連付けができていると考える。 ## 5. 特許の価値判定の試み 特許, 業績要因, 業績結果の 3 つの情報が関連付けできたことにより, その特許文書の出願企業における重要性を判断することが可能となる。例として, 実際に取得した業績結果と出願企業の当期間の全体売上高の比較を行うことで,特許の価値判定を試みる。 日立製作所: ・特許タイトル半導体検查装置、及び荷電粒子線を用いた検查方法 ・当期間における全体売上高 90,410 億円 ・業績結果における売上高 10,143 億円 $(11.2 \%)$ ロリョービ: ・特許タイトル真空ダイカスト装置および真空ダイカスト法 ・当期間における全体の売上高 170,973 百万円 ・業績結果における売上高104,094 百万円 (60.8\%) このことから,リョービの「真空ダイカスト装置および真空ダイカスト法」の特許に関する事業の売 な影響を与える可能性を持つ特許であると推定できる。実際に,リョービは独立系ダイカスト専業首位の企業であり,そのような企業にとって「真空ダイカスト装置および真空ダイカスト法」に関する特許は大きな価値があると考える。 対して, 日立製作所の「半導体検査装置、及び荷電粒子線を用いた検査方法」の特許に関する事業の り大きな影響はない。日立製作所は様々な事業を行っており,その中で「半導体検査装置」が占める割合は大きくなく,従って,当該特許は日立製作所にとって影響は少ない。 以上のように,業績要因・業績結果を用いて特許に関連する事業を推定することで,その特許が企業に与える影響力を推測することが可能となる. ## 6. むすび 本研究では,特許の出願企業における決算短信の業績要因・業績結果を用いて,特許がその企業にとってどの程度重要であるか推定するための情報を抽出する手法を提案した.特許文書の分散表現と業績要因文の分散表現により類似度計算を行うことで関連性を推定し,さらに,業績要因文に対応する業績結果文を取得することで,特許の価値を判定するための情報を得ることができた。 評価の結果, 業績要因に対して取得できた業績結果は $84.5 \%, 100$ 件の特許に対して,業績要因,業績結果の関連付けができたものが 76 件となり, 比較的良好な結果を得ることができた。 今後の課題として,今回の手法では,1つの特許が複数事業に影響を与える可能性に関してのアプロ一チができていないため, 複数事業への対応が必要であると考える ## 参考文献 [1] 酒井浩之, 松下和暉, 北島良三:“学習データの自動生成による決算短信からの業績要因文の抽出”, 日本知能情報ファジィ学会誌, vol. 31, no. 2, pp. 653-661, 2019 [2] 佐々木深, 綱川隆司, 西田昌史, 西村雅史: “特許文献中の重要語を用いた F ターム自動付与”,言語処理学会第 23 回年次大会発表論文集, pp.450-453, 2017 [3] 酒井浩之,野中尋史,増山繁:“特許明細書からの技術課題情報の抽出”, 人工知能学会論文誌, vol.24, no.6,pp.531-540, 2009. [4] Yoav Goldberg, Omer Levy: "word2vec Explained: deriving Mikolov et al.'s negative-sampling word-embedding method", arxiv 1402.3722, 2014.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C3-5.pdf
# 共有タスクへの結果提出を通した生徒モデルの共同教育手法 中山功太 ${ }^{1,2}$ 栗田修平 1 小林暁雄 ${ }^{3}$ 馬場雪乃 $1,4 \quad$ 関根聡 ${ }^{1}$ 1 理化学研究所 AIP 2 筑波大学大学院理工情報生命学術院 3 農業・食品産業技術総合研究機構 4 筑波大学システム情報系 \{kouta.nakayama, shuhei.kurita, satoshi.sekine\}@riken.jp akio.kobayashi@naro.go.jp baba@cs.tsukuba.ac.jp ## 概要 本論文では、共有タスクに提出されたシステム結果を用いて新規システムを構築する手法を提案する。本手法により、共有タスクはシステム開発における技術革新のみでなく、実際に自然言語処理アプリケーションに汎用可能なシステムの公開が可能となる。提案手法は知識蒸溜から着想を得ており、共有タスクの参加システムを教師として扱い、新規深層学習モデルを生徒として学習することで、参加システムの長所を生かしたシステムを構築する。本手法を日本語 Wikipedia からの属性抽出タスクである森羅 2019 へ提出されたシステム結果に対し適用したところ、最良のシステムよりも高性能であり、最良のシステム群と同等性能のシステムを獲得できた。本実験で用いたコードは公開してあり、更なる研究へ適用可能である。1) ## 1 はじめに 多くの参加者が共通のタスクに取り組むといった共有タスクは、自然言語処理技術の発展に大きく貢献している。だが、多くのタスクが参加者にシステ厶出力や手法説明のみの提出を要求しており、システム自体の提出が要求されることは稀である。そのため、多くのシステムが実際の自然言語処理アプリケーションで使用されることなく放棄されている。我々は共有タスクに提出されたシステムの多くは、 たとえ最良の結果を取得しておらずとも分野全体の革新のため有用なリソースであると考えている。だが、システム自体の提出は、ライセンスや実行環境の整備といった点で非常に困難である。そのため本論文では、複数の参加者が提出したシステム結果を用いて参加システムの強みを活かした新規システム 1) https://github.com/k141303/co_teaching_scheme を構築する手法の提案を行う。提案手法は知識蒸溜 $[1,2]$ から着想を得ており、 タスク参加システムを教師として扱い、提出結果を通して生徒である新規深層学習モデルを学習することで、新規システム構築を行う。共有タスクの参加者が共同で単一の生徒を教えるといった形式をとる都合上、我々は本手法を「共同教育」と呼ぶ。共同教育は、共有タスクにおいて他の自然言語処理アプリケーションに汎用可能なシステムを公開でき、タスクにおいて最良結果を残せなかったチームを含め多くの努力を活用できるといった利点がある。 我々は共同教育を、日本語 Wikipedia からの属性值抽出タスクである森羅 2019 に適用する。本タスクは全ての Wikipedia ページの構造化を目指しており、参加者は評価データ以外の範囲のラベルなしデータに対する予測結果の提出も求められる。実験の結果、提案手法は共有タスクに提出された最良のシステムよりも高性能であり、最良のシステム群と同等性能のシステムを獲得できた。 ## 2 関連研究 ## 2.1 知識蒸溜 知識蒸溜 (Knowledge Distillation)[1,2] は主に深層学習モデルの圧縮に用いられる手法であり、モデル性能を低下させず総パラメーター数を減らすことを目的としている。具体的には教師と呼ばれる大規模なモデルの結果を用いて、生徒と呼ばれる比較的小規模な新規モデルを学習することでモデルの圧縮を達成する。多くの場合、教師は学習データを用いて学習され、その際利用された学習データは生徒の学習にも転用される。知識蒸留の手法は応答べース $[1,2]$ と特徴べース [3] に分けることができる。前者は教師の出力を、後者は教師の内部パラメーター 図 1 共同教育で用いる生徒モデル概要図 を生徒の学習に用いている。また、生徒の学習中に教師のパラメーターも更新するオンライン蒸留 [4] と、教師のパラメーターを固定するオフライン学習 $[1,2]$ に分けることもできる。本論文の設定は、教師自体にアクセスできないため、提案手法は応答ベースのオフライン蒸留手法である。 ## 2.2 半教師あり学習 本手法は、ラベル無しデータに対する教師の予測を生徒の学習に用いる点で半教師あり学習 [5] や共学習 (Co-Training)[6] の一種である。半教師あり学習は、学習済みモデルの予測のうち確信度の高い予測を学習データに追加し、モデルを再学習することでより堅牢な機械学習モデルを構築する手法である。共学習は、半教師あり学習の応用であり、確信度を 2 つ以上のモデルにより算出する。我々の知る限り、共有タスクの結果を用いて学習データを拡張した研究はない。 ## 3 提案手法: 共同教育 共有タスクに提出されたシステム結果から新規モデルを学習する共同教育を提案する。以下では、システムを教師、新規モデルを生徒と呼ぶ。共同教育を行うために必要なデータは、教師の予測結果と共有タスクで配布された学習データであり、これらが公開されていればタスク終了後であっても適用可能である。ただし、教師の予測データは多い方が良いため、共有タスク実施時に評価データ以外の範囲のラベル無しデータに対する予測提出が要求されることが好ましい。 提案手法で用いる生徒モデルの概要を図 1 に示す。生徒モデルは、共有モデル $\theta^{\text {sh }}$ と各教師に対応する個別出力層 $\theta^{j}(j \in\{1,2, \ldots, S\})$ と出力層 $\theta^{\text {out }}$ から成る。ここで $S$ は教師システムの総数である。生徒モデルの入力を $x_{i}$ とする。生徒モデルの学習は以下の誤差の最小化により行われる。 教師との誤差教師システム $j$ の出力結果 $y_{i}^{j}$ に対応する生徒モデルの予測 $z_{i}^{j}$ との誤差を $L^{\mathrm{t}}\left(z_{i}^{j}, y_{i}^{j}\right)$ とし、全教師とのロスはその平均 $L^{\mathrm{t}}\left(z_{i}, y_{i}\right)=\frac{1}{S} \sum_{j=1}^{S} L^{\mathrm{t}}\left(z_{i}^{j}, y_{i}^{j}\right)$ とする。 学習データとの誤差学習データ $y_{i}^{g}$ と生徒モデルの予測 $z_{i}^{\text {out }}$ との誤差を $L^{\mathrm{g}}\left(z_{i}^{\text {out }}, y_{i}^{\mathrm{g}}\right)$ とする。 入力 $x_{i}$ に対する学習データのラベル $y_{i}^{\mathrm{g}}$ が存在しない場合は、教師との誤差 $L\left(z_{i}, y_{i}\right)=L^{\mathrm{t}}\left(z_{i}, y_{i}\right)$ のみ最小化し、それ以外の場合は、両者の平均 $L\left(z_{i}, z_{i}^{\text {out }}, y_{i}, y_{i}^{\mathrm{g}}\right)=\frac{1}{2}\left(L^{\mathrm{t}}\left(z_{i}, y_{i}\right)+L^{\mathrm{g}}\left(z_{i}^{\text {out }}, y_{i}^{\mathrm{g}}\right)\right)$ を最小化する。最終的な予測確率は、個別出力層の平均予測確率 $p_{i}^{\text {mean }}=\frac{1}{S} \sum_{j=1}^{S} \operatorname{softmax}\left(z_{i}^{j}\right)$ と出力層の予測確率 $p_{i}^{\text {out }}=\operatorname{softmax}\left(z_{i}^{\text {out }}\right)$ の平均 $p_{i}=\frac{1}{2}\left(p_{i}^{\text {mean }}+p_{i}^{\text {out }}\right)$ とする。 ## 4 実験設定 ## 4.1 森羅 2019 森羅は Wikipedia の構造化を目指すプロジェクトである。森羅 2019 は日本語 Wikipediaを対象としており、拡張固有表現 [7] にカテゴリー分けされた Wikipedia 記事 [8] から、同表現で定義された属性に対応する属性値の抽出を行う共有タスクである。例えば「人名」カテゴリーに分類された「木村拓哉」の記事から、属性「生年月日」に対する、属性値「1972 年 11 月 13 日」を抽出する。本タスクでは、属性値の表層文字でなく出現位置の抽出も行う必要がある。森羅 2019 では 33 カテゴリーを対象としており、JP-5(5 カテゴリー)、組織名(14 カテゴリー)、地名(14 カテゴリー)のサブタスクに分かれている。各カテゴリーには 269~308,610 件の記事が割り当てられており、学習データとして 147 1,000 件の記事に対してアノテーションラベルが付与されている。森羅タスクは Wikipedia の全記事の 構造化を目指しており、参加者は参加するカテゴリーに割り当てられた記事全てに対する予測結果を提出する必要がある。 森羅 2019 には合計 9 チームが参加し、各カテゴリーに対して6から9チームが参加している。参加者が用いた手法は、CRF や SVM などの機械学習、深層学習、DrQAなどの機械読解など様々である。 森羅 2019 は、全てのシステム予測結果とタスクで共有された学習データに加え、アンサンブル研究用に「市区町村名」カテゴリーと「湖沼名」カテゴリーに対する開発データを配布している。我々はこれら開発データは学習には用いず、 5.3 章の分析のみに使用する。 ## 4.2 共同教育の適用 提案手法の有効性を示すため、 4.1 節で述べた森羅 2019 の配布データを用いて生徒モデルを学習する。システム結果と学習データは、文章と文章に対する属性値の出現位置で構成されており、我々は系列ラベリングタスクとして扱うため、出現位置をIOB2 タグ [9] に変換する。本タスクでは、異なる属性において属性値が重複する場合があるため、各属性毎に IOB2 のタグを割り当てる。つまり、大力 $x_{i}$ の $j$ 番目の単語 $x_{i, j}$ に対して、ラベル $y_{i, j} \in\{I, O, B\}^{c}$ を割り当てる。ここで、 $c$ はカテゴリーに割り当てられた属性の数である。 共有モデル $\theta^{\text {sh }}$ には BERT-base [10] を用い、各個別出力層 $\theta^{j}$ 、出力層 $\theta^{\text {out }}$ には 1 層の全結合層を用いる。BERT は RoBERTa [11] と同様の手順で日本語 Wikipediaを用いて学習する。不均衡なクラス分布に対応するため、損失関数は Class Balanced Loss [12] と Focal Loss [13]を用いる。 生徒モデルは各カテゴリー毎に学習し、計算コストの問題から使用する記事数を最大 2,000 件に制限する。この中には全てのラベル付きデータの範囲が含まれる。ラベル付きデータのうち $10 \%$ を開発デー タとして使用し、残りを学習に使用する。 生徒モデルの学習における最適化アルゴリズムに Adam を選択する。学習率は $\alpha_{l r}=5 \times 10^{-5}$ 、Adam に関する残りのハイパーパラメーターは $\beta_{1}=0.9$ 、 $\beta_{2}=0.999, 、 \epsilon=10^{-8}$ を使用する。また、計算効率を高めるため、混合精度計算モジュールである apex ${ }^{2}$ を使用する。バッチサイズは $\{8,16,32\}$ から、Class Balanced Loss で使用する $\gamma$ は $\{0.999,0.9999,0.99999\}$ 2) https://nvidia.github.io/apex/amp.html からグリッドサーチにより決定する。また、Class Balanced Loss で用いるクラス統計は学習データのみから取得する。 ## 5 実験結果 本章のスコアは指定がない場合全てマイクロ平均 F1 により算出される。これは森羅 2019 のスコア指標に準拠している。 ## 5.1 サブクラス毎の結果 サブクラス毎の実験結果を表 1 に示す。サブクラスの全てのカテゴリーに参加したチームのみを記載している。共同教育は全体において、参加チームのうち最良スコアであるチーム 10 と比較し 2.38 の向上を獲得している。これは、様々な教師の強みを統合した結果であり、森羅 2019 はチーム 10 のシステムより優れた性能のシステムを公開できることを意味する。組織名サブクラスにおいてはチーム 10 に劣っているが差分は-0.36 と僅かである。 BERT は学習データのみで学習した場合の結果である。BERT は共同教育の結果と比較して大幅に劣っていることから、共同教育の向上が BERT の性能によるものでないことがわかる。また、自己教育は BERT の結果を教師として用いた場合の結果である。自己教育は共同教育の結果と比較して大幅に劣っていることから、共同教育の向上がラベル無しデータを用いたデータ拡張によるものではなく、教師システムからの学習によるものであることがわかる。 ## 5.2 カテゴリー毎の結果 誌面の都合上、カテゴリー毎のスコアは付録表 2 に示す。各カテゴリー毎に最良のシステムを採用した場合のスコアのマクロ平均は 61.96 であるのに対し、共同教育のマクロ平均は 62.01 であり同等以上の性能が示された。参加チームのうちいずれかのカテゴリーで最良スコアを獲得したのは 5 チームである。もし、森羅 2019 で最良のシステム結果を公開する場合、以上の 5 チームにシステム提出を依頼する必要があるが、共同教育を用いた場合、同等の性能のシステムを公開できることとなる。これは提案手法の優位性を強く示す結果である。 カテゴリー毎に見た場合、共同教育は 18 カテゴリーにおいて参加チームの最良スコアを上回っているが、残りの 15 カテゴリーでは下回っている。図 表 1 サブクラス毎の実験結果 図 21 位と 2 位の参加システムのスコア差分と共同教育によるスコア向上の相関 図 3 生徒の学習に使用する記事数とスコアの関係 2 に、 1 位と 2 位の参加システムのスコア差分と共同教育によるスコア向上の相関を示す。両者の相関係数は $r=-0.519$ であり、負の相関が見られる。3) つまり、最良の教師のみが優れている場合において、共同教育が効果的に機能していないことが分かる。現在の手法では、全ての教師との誤差を平均化しているため、多数決の結果は生徒モデルの勾配更新に大きな影響を及ぼす。そのため、単一の教師のみが優れているような場合では、生徒の学習に反映されないと考えられる。例えば MGDA [14] 等のような学習中に動的に誤差の重みづけする手法を用い $ は $\mathrm{t}$ 検定により $p<0.01$ で統計的 } に有意である。 ることで、以上のような場合に対処できる可能性がある。 ## 5.3 使用する記事数に関する分析 本実験では、生徒の学習に最大 2,000 件の記事を使用しているが、カテゴリーにおいてはより多くの記事を使用可能である。市区町村名力テゴリーにおいて生徒の学習に用いる記事数を $\{2,000,5,000,10,000\}$ と変化させて、森羅 2019 で配布されている開発データで評価した結果を図 3 に示す。4) 最終出力 $p$ を用いた場合 5,000 記事まではスコアの向上が見られるが、 10,000 記事では低下している。使用する記事数が多くなると、教師と比較して学習データが生徒モデルに与える影響が小さくなるが、この場合は両者の誤差のバランスを調節する重みを導入する必要があると考えられる。また、出力層の出力 $p^{\text {out }}$ より個別出力層の出力平均 $p^{\text {mean }}$ が一貫して優れている。これは生徒が教師から得ている情報に非常に価値があることを示している。 ## 6 おわりに 本論文では、共有タスクに提出されたシステム結果を用いて新規モデルを学習する手法である共同教育を提案した。本手法により、共有タスクは参加者にシステム自体の提供を要求せずとも、自然言語アプリケーションに汎用可能なシステムを公開することができる。本手法の有効性を示すため、実際の共有タスクである森羅 2019 により提供されたデータに対して共同教育を適用した。その結果、最良のシステムよりも高性能であり、最良のシステム群と同等性能のシステムを獲得できた。今後は本手法が多くの共有タスクで適用され、システム開発に注ぎ込まれた参加者の努力がより活用されることを願う。 4)この際使用するハイパーパラメーターは 4.2 章で使用したものと同じであるが、バッチサイズのみ 2,000 記事の場合 $\{8,16,32\} 、 5,000$ 記事の場合 $\{20,40,80\} 、 10,000$ 記事の場合 $\{40,80,160\}$ からグリッドサーチにより選択する。 ## 謝辞 本研究は JST、ACT-X、JPMJAX20AI および JSPS 科研費 JP20269633、JST さきがけ JPMJPR20C2 の支援を受けたものです。 ## 参考文献 [1] Jimmy Ba and Rich Caruana. Do deep nets really need to be deep? In Z. Ghahramani, M. Welling, C. Cortes, N. Lawrence, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems, Vol. 27. Curran Associates, Inc., 2014. [2] Geoffrey Hinton, Oriol Vinyals, and Jeffrey Dean. Distilling the knowledge in a neural network. In NIPS Deep Learning and Representation Learning Workshop, 2015. [3] Adriana Romero, Nicolas Ballas, Samira Ebrahimi Kahou, Antoine Chassang, Carlo Gatta, and Y. Bengio. Fitnets: Hints for thin deep nets. arXiv, 122014. [4] Ying Zhang, Tao Xiang, Timothy M. Hospedales, and Huchuan Lu. Deep mutual learning. In 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 4320-4328, 2018. [5] David Yarowsky. Unsupervised word sense disambiguation rivaling supervised methods. In 33rd Annual Meeting of the Association for Computational Linguistics, $\mathrm{pp}$. 189-196, Cambridge, Massachusetts, USA, June 1995. Association for Computational Linguistics. [6] Avrim Blum and Tom Mitchell. Combining labeled and unlabeled data with co-training. In Proceedings of the Eleventh Annual Conference on Computational Learning Theory, COLT' 98, pp. 92-100, New York, NY, USA, 1998. Association for Computing Machinery. [7] Sekine Satoshi. Extended named entity ontology with attribute information. In Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC'08), Marrakech, Morocco, May 2008. European Language Resources Association (ELRA). [8] Masatoshi Suzuki, Koji Matsuda, Satoshi Sekine, Naoaki Okazaki, and Kentaro Inui. A joint neural model for finegrained named entity classification of wikipedia articles. IEICE Transactions on Information and Systems, Vol. E101.D, No. 1, pp. 73-81, 2018. [9] Erik F. Tjong Kim Sang and Jorn Veenstra. Representing text chunks. In Ninth Conference of the European Chapter of the Association for Computational Linguistics, pp. 173-179, Bergen, Norway, June 1999. Association for Computational Linguistics. [10] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [11] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Man- dar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A robustly optimized bert pretraining approach, 2019. [12] Yin Cui, Menglin Jia, Tsung-Yi Lin, Yang Song, and Serge Belongie. Class-balanced loss based on effective number of samples, 2019. [13] Tsung-Yi Lin, Priya Goyal, Ross Girshick, Kaiming He, and Piotr Dollar. Focal loss for dense object detection. In Proceedings of the IEEE International Conference on Computer Vision (ICCV), Oct 2017. [14] Ozan Sener and Vladlen Koltun. Multi-task learning as multi-objective optimization. In $\mathrm{S}$. Bengio, $\mathrm{H}$. Wallach, H. Larochelle, K. Grauman, N. Cesa-Bianchi, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 31. Curran Associates, Inc., 2018. } & \multirow{2}{*}{} \\ 表 2 カテゴリー毎の結果
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C4-1.pdf
# 金融文書を用いた追加事前学習言語モデルの構築と検証 鈴木雅弘 ${ }^{1}$ 坂地泰紀 ${ }^{1}$ 和泉潔 ${ }^{1}$ 石川康 ${ }^{2}$ 1 東京大学大学院 工学系研究科 2 日興アセットマネジメント株式会社 b2019msuzuki@socsim.org \{sakaji,izumi\}@sys.t.u-tokyo.ac.jp yasushi.ishikawa@nikkoam.com ## 概要 本研究では,汎用言語コーパスを用いて事前学習を行った BERT モデルに対し,金融コーパスを用いて追加で事前学習 (追加事前学習)を行う方が有用であるか検証を行う.追加事前学習を行ったモデルを2つの金融テキストを用いたタスクに適用し,追加事前学習を行うことで,汎用言語コーパスによる事前学習モデルを上回る性能を持つことを示す。また,Tokenizer を構築する際のコーパスの比較を行った. 追加事前学習モデルの Tokenizer に用いるコー パスにおいて,汎用言語コーパスのみによるモデルと金融コーパスを用いたモデルの間に性能差は見られなかった。 ## 1 はじめに 近年,決算短信や有価証券報告書,ニュース記事や証券レポートなど,インターネットで閲覧可能な金融文書が豊富に存在する.金融関連のテキストの分析は投資やマーケット分析に役立つ一方で,毎日大量に作成されるテキストを人手によって全て分析することは難しい,そのため,近年盛んにおこなわれているのが,金融文書に自然言語処理 (NLP) を適用する金融テキストマイニングである.機械学習を用いた金融関連のツイートのセンチメント分析 $[1,2]$ をはじめとして,金融分野における自然言語処理に,機械学習を適用する研究が多く存在する $[3,4]$. 本研究では,日本語金融コーパスによって追加事前学習を行った BERT モデルについて, 汎用言語コーパスから事前学習を行ったモデルと比較を行う. BERT[5] は事前学習によって各言語タスクの精度を大幅に改善したモデルである.BERTでは,まず大規模言語コーパスから事前学習し, その後出力に近いレイヤーのみを学習させるファインチューニングを組み合わせる.日本語においてもWikipedia の記事から事前学習された BERT モデルが提案されている [6] ${ }^{1)}$. しかし金融コーパスと一般的なコーパスとの間で語彙や表現の違いが大きいため,一般的なコーパスのみで学習したモデルは金融テキストマイニングのタスクに最適とは言えない。金融ドメインに適合させたモデルとして, Zuang ら [7] や鈴木ら [8] によって,金融コーパスを用いて事前学習を行ったモデルが提案されている. しかしこれらは,事前学習に適用できるコーパスが十分に大きい場合にのみ適用できる.事前学習に用いるコーパスが小さい場合にゼロから事前学習を行うと, 言語モデルとして性能が低くなる可能性がある。その場合,金融ドメインのテキストデータを用いてゼロから事前学習を行うよりも,一度 Wikipedia などの汎用的な大規模コーパスを用いて事前学習を行ったモデルに対し, 追加で事前学習をファインチューニングのように行う方が精度が高くなる可能性がある.そのため, 本研究では Wikipedia を用いて構築された事前学習モデルに対し, 金融コーパスを用いて追加で事前学習 (追加事前学習) を行う. 構築したモデルと, Wikipedia のみによる事前学習モデルと比較し, 追加事前学習を行うことの効果を示す. そのためにこれらのモデルに対して金融ドメインのテキストを対象とした 2 つの評価実験を行う.その際,Wikipedia から構築された Tokenizer と, Wikipedia・金融コー パスから構築された Tokenizer を用いた 2 つの追加事前学習モデルを構築し, Tokenizerを構築する際のコーパスによる性能の差の検証を行う。また金融コーパスを用いてゼロから事前学習を行ったモデルなどとも比較を行う. 本研究の貢献は以下の通りである. -日本語の金融コーパスで行う BERT の追加事前学習を提案する。 ・構築した追加事前学習モデルとベースラインで 1) https://github.com/cl-tohoku/bert-japanese 表 1 各コーパスによって構築された語彙から,「デリバティブ取引には,先物取引やスワップ取引がある」という文をトークン分割する例。"\#"はサブワードに分割された語のうち,先頭でないものに付与される。 & \\ ある Wikipedia による事前学習モデルの,金融テキストを用いたタスクにおける性能を比較する。 ・追加事前学習モデルにおいて,Tokenizer を構築するためのコーパスの違いがモデルの性能に与える影響を検証する。 ## 2 モデルの構築 本研究では,一度 Wikipedia 9 日本語記事を用いて事前学習を行ったモデルに対し,金融コーパスを用いて追加事前学習を行う. BERT の事前学習は, 単語の穴埋め (Masked LM) と 2 文の接続性の判定 (Next sentence prediction) の 2 つのタスクの学習によって行われる。追加事前学習でも,BERT の事前学習と同じタスクを行う. 本研究では,2 つの BERT-small モデルを構築する. 1 つ目は, Wikipediaを用いて Tokenizerの構築と事前学習を行ったモデル2)に対し,金融コーパスを用いて追加事前学習を行うモデルである.これは,汎用的な言語コーパスを用いて事前学習を行ったモデルに対し, 金融ドメインを用いて追加で事前学習を行う際の標準的な学習構成と言える. 2 つ目は,Wikipediaと金融コーパスを用いて Tokenizer の構築を行い,Wikipedia コーパスを用いて事前学習を行い,金融コーパスを用いて追加事前学習を行うものである. 追加事前学習では,入力文をトー クン列に分割する Tokenizer は事前学習と同じものを用いる必要がある. そのため 1 つ目のモデルでは Wikipedia 由来のコーパスを用いることになるが, ドメインに特化したモデルではそのドメインに適した Tokenizer を用いる方がより高い精度が得られる可能性がある.実際に構築した Tokenizerによる,金融テキストのトークン分割の例を表 1 に示す. 金融ドメイン特有の語である「デリバティブ」や「ス  ワップ」について,Wikipedia・金融コーパスを用いて構築した Tokenizer では 1 トークンとして認識する。一方 Wikipediaを用いて構築した Tokenizer では,「デリ/バ/ティブ」や「スワハップ」のように複数トークンに分割されてしまう. 1 つ目と 2 つ目のモデルの比較により,Tokenizer を構築する際に用いるコーパスによるモデルの性能を比較する. 2 つ目のモデルの構築にあたり, Wikipedia・金融コーパスを用いて構築した Tokenizer を利用して, Wikipediaを用いて事前学習を行ったモデルは公開されていない. そのため, 本研究では前述の事前学習モデルの構築も行う. 構築のためのパラメータには,文献 [9] で述べられている BERT-small の設定を用いる。学習率は, 追加事前学習では 1e-4(土台となる BERT-small モデルの事前学習では 5e-4) とする. これは,BERT の公式リポジトリ3)にて,追加事前学習時には事前学習より小さい学習率を用いることが推奨されているためである. ## 3 使用データ 追加事前学習に用いる金融コーパスのテキストデータとして,2 種類のデータを用いる.1つ目は 2012 年 10 月 9 日から 2020 年 12 月 31 日にかけて開示された決算短信等のデータである. 2 つ目は $\mathrm{EDINET}^{4}$ にて,2018 年 2 月 8 日から 2020 年 12 月 31 日にかけて開示された有価証券報告書等の 2 種類データを用いる。これらのデータセットから,金融コーパス (約 2,700万文) を作成した. また, Wikipedia の日本語記事として,2021 年 6 月 1 日時点で作成されたダンプファイルから約 2000 万文のコーパスを作成する。 ## 4 評価実験 事前学習や追加事前学習によって構築したモデルに対し,ファインチューニングによる評価実験を行い性能を評価する。本研究では 2 つの評価実験を行う. 1 つ目として,金融テキストの1つであるアナリストレポートを用いた実験を行う,アナリストレポートの発行日と,発行日から 12 週間後の TOPIX に対する銘柄の超過リターンの正負についての 2 值分類を行う,アナリストレポートを用いた超過リターン予測については,鈴木ら [10] が取り組んでお  図 1 chABSA-dataset を用いた Aspect-Based Sentiment Analysis に関する実験の概要図. 入力として,「ライフサイエンス事業は増収となった」という文とセンチメントの Target「ライフサイエンス事業」が与えられる. 入力文は「ライフ/サイエンス/事業/は/増収/とななっ/た」とトー クン分割され, BERT に入力される. BERT の最終層の隠れ層の出力のうち,[CLS] トークンと,Target である「ライフ」「サイエンス」「事業」の各トークンの出力が合計される. MLP と Softmax によって処理され Target のポジティブ/ネガティブの予測を行う. り,彼らはLSTMを用いて純利益予測を行った。国内の大手証券会社が 2016 年 1 月から 2020 年 9 月にかけて発行した 78,656 本のアナリストレポートに含まれる本文を用いる,入力するアナリストレポー トの本文のトークンインデックス列 $w$ を BERTに入力する. 入力トークン列 $\boldsymbol{w}$ から得られる BERT の最終層の隠れ層の出力を $\operatorname{BERT}(\boldsymbol{w}) \in \mathbb{R}^{n \times d}$ と表す.ここで $d=256$ は BERT の隠れ層の次元数である. また BERT の出力の $i$ 番目の成分を $\operatorname{BERT}(w)_{i} \in \mathbb{R}^{d}$ と表す. BERT の出力のうち文頭 (インデックスが 0 ) の [CLS] トークンについての出力 $h_{\text {analyst }} \in \mathbb{R}^{d}$ を式 (1)より得る. $ h_{\text {analyst }}=\operatorname{BERT}(\boldsymbol{w})_{0} $ 2 値分類の出力 $y \in \mathbb{R}^{2}$ は式 (2)(3) によって得られる. $ \begin{aligned} & s_{\text {analyst }}=\operatorname{Dropout}\left(\tanh \left(h_{\text {analyst }} W_{1}+b_{1}\right)\right) \\ & y_{\text {analyst }}=\operatorname{softmax}\left(s_{\text {analyst }} W_{2}+b_{2}\right) \end{aligned} $ ここで Dropout($\cdot$) は Srivastava ら [11] が提案した Dropout を適用することを示し, $W_{1} \in \mathbb{R}^{d \times d}, W_{2} \in$ $\mathbb{R}^{2 \times d}, b_{1} \in \mathbb{R}^{d}, b_{2} \in \mathbb{R}^{2}$ は学習可能なパラメータである。 2 つ目として,TIS 株式会社が公開している chABSA-dataset ${ }^{5}$ を用いて, Aspect-Based Sentiment Analysis に関する実験を行う.この実験では,図 1 のように入力に文と Target 表現を入力し,その表現に関する文内でのセンチメントを出力するという問題設定にする. chABSA-dataset には,Positive, Negative, Neutralのタグが付与されていたが, Neutral が他のタグに対して大幅に少なかったことから, Neutralを除外して実験を行う.入力文をトークナイズして得られるトークン列を $\boldsymbol{w}=\left[w_{0}, w_{1}, \cdots, w_{n-1}\right]$ とする。BERTでは, $w_{0}$ は文頭に挿入される [CLS] トークンとなる。 センチメント予測の Target トークン列のインデックス番号の集合を $S \subset\{1, \cdots, n-1\}$ とする. [CLS] トークンと Target のトークン列を,式(4)のように足し合わせ, $h_{\mathrm{chABSA}} \in \mathbb{R}^{d}$ を得る. $ h_{\mathrm{chABSA}}=\sum_{i \in(\{0\} \cup S)} \operatorname{BERT}(\boldsymbol{w})_{i} $ 3 層の MLPによって式 (5)(6) のように Positive/Negative の確率 $y_{\text {chABSA }} \in \mathbb{R}^{2}$ を出力として得る. $ \begin{aligned} s_{\mathrm{chABSA}} & =\tanh \left(h_{\mathrm{chABSA}} W_{3}+b_{3}\right. \\ y_{\mathrm{chABSA}} & \left.=\operatorname{softmax}\left(s_{\mathrm{chABSA}}\right) W_{4}+b_{4}\right) \end{aligned} $ ここで, $W_{3} \in \mathbb{R}^{d \times d}, W_{4} \in \mathbb{R}^{d \times 2}, b_{3} \in \mathbb{R}^{d}, b_{4} \in \mathbb{R}^{2}$ は学習可能なパラメータである. 7,165 件のデータのうち,64\%を学習データに,16\%を検証データに, $20 \%$ をテストデータに割り当てる。 比較として,鈴木ら [8] が構築した Wikipedia によって事前学習を行った BERT-small モデル6)と Wikipedia・金融コーパスを用いて事前学習を行った BERT-small モデル7)についても評価実験を行う. ## 5 結果と考察 実験結果を表 2 に示す. 純利益予測では, Wikipedia と金融コーパスを組み合わせて Tokenizer を作成し, 金融コーパスで追加事前学習を行ったモデルの精度が最も高かった. chABSAを用いた実験では,Wikipediaと金融コーパスを組み合わせて Tokenizer の作成と事前学習を行ったモデルが最も精度が高かった. 両実験では, Wikipedia のみで事前学習を行ったモデルよりも,金融コーパスを用いた他の学習方法を採用したモデルの方が精度が高かっ  表 2 実験結果. F1 はマクロ平均である.学習コーパスの「Wikipedia $\rightarrow$ 金融」は,Wikipediaコーパスを用いて事前学習を行い,そこから金融コーパスを用いて追加事前学習を行うことを示す. た.これらより,金融コーパスを用いた追加事前学習の効果があったといえる. 追加事前学習モデルを行ったモデルを比較すると, 純利益予測の実験では Tokenizer が Wikipedia・金融コーパスのモデルの方が精度が高かったのに対し,chABSA の実験では Tokenizer が Wikipedia のモデルの方が精度が高かった. これは,アナリストレポートを用いた純利益予測の実験では単語の認識が予測に有効だったと考えられる一方で, chABSA を用いた実験では,Target となるトークン列の範囲が入力で与えられるため, 金融ドメインに特化した Tokenizer よりも,幅広い文章に対応できる Wikipedia による Tokenizer の方が精度が高くなった可能性がある. 本実験においては Tokenizer の違いによる精度の差は明確ではなかった。 追加事前学習を行ったモデルと, Wikipedia・金融コーパスを用いて事前学習を行ったモデルを比較すると,純利益予測では追加事前学習を行ったモデルの方が精度が高かったのに対し, chABSA を用いたタスクでは事前学習を行ったモデルの方が精度が高かった。純利益予測ではアナリストレポートを用いているため,決算短信と有価証券報告書による金融コーパスとは文章の構成が異なっている. そのため Wikipediaを用いて一般的な日本語について事前学習を行い,その後金融コーパスにチューニングする順番によって追加事前学習モデルの精度の方が高くなった可能性がある. 一方で chABSA は有価証券報告書のデータを用いているため, ゼロから有価証券報告書を含む金融コーパスで事前学習を行った方が効率よく学習できたために, 事前学習モデルの精度の方が高くなったと考えられる。 アナリストレポートを用いた純利益予測ではモデル間に chABSAを用いた実験ほど差が現れなかった. これはアナリストレポートが純粋な金融テキストを対象としたタスクとしては不十分だった可能性がある,アナリストレポートを用いた純利益予測は,マーケットや情勢の急激な変化が起こった場合 テキストのみから全てを正しく予測することは困難である. またアナリストによって能力の差があるため,必ずしも正しい予測ができるわけではない.更に,本実験で使用したモデルの大きさがデータセットに対して適切ではなかった可能性がある.純利益予測にて用いたアナリストレポートと, chABSA で用いたテキストデータのトークン数の中央值は, それぞれ約 500 トークンと約 55 トークンであった. BERT の small サイズでは最大 128 トークンとなるため,純利益予測では small サイズが入力可能なトークンが少なく不十分だった可能性がある. ## 6 まとめ 本研究では,汎用的言語コーパスである Wikipedia によって構築された事前学習モデルに,金融コーパスを用いた更なる事前学習である追加事前学習を提案した. Wikipediaを用いて事前学習を行ったモデルに対し, 追加事前学習を行ったモデルを構築した. 構築したモデルは,金融テキストを対象としたタスクにおいて Wikipedia のみから構築された事前学習モデルを上回る精度を示した. また, 追加事前学習モデルにおける Tokenizer について,構築する際のコーパスの比較を行った. Wikipedia のみを用いて構築した Tokenizer によるモデルと, Wikipedia・金融コーパスを用いて構築した Tokenizer によるモデルの間に,明確な性能差は見られなかった. 今後の課題として, 事前学習や追加事前学習に用いるコーパスの拡張があげられる。本研究では決算短信や有価証券報告書といった,文章のフォーマットが似ているコーパスのみを用いて追加事前学習や事前学習を行っている. 金融分野に関連したニュー ス記事など,より幅広いコーパスを用いて学習を行うことで,より様々な表現の獲得が期待される。 ## 謝辞 本研究は JSPS 科研費 JP21K12010 と JST 未来社会創造事業 JPMJMI20B1 の助成を受けたものです. ## 参考文献 [1] Nuno Oliveira, Paulo Cortez, and Nelson Areal. The impact of microblogging data for stock market prediction: Using twitter to predict returns, volatility, trading volume and survey sentiment indices. Expert Systems with Applications, Vol. 73, pp. 125 - 144, 2017. [2] Gabriele Ranco, Darko Aleksovski, Guido Caldarelli, Miha Grčar, and Igor Mozetič. The effects of twitter sentiment on stock price returns. PLoS ONE, Vol. 10, No. 9, 2015. [3] B. Shravan Kumar and Vadlamani Ravi. A survey of the applications of text mining in financial domain. KnowledgeBased Systems, Vol. 114, pp. 128-147, 2016. [4] Li Guo, Feng Shi, and Jun Tu. Textual analysis and machine leaning: Crack unstructured data in finance and accounting. The Journal of Finance and Data Science, Vol. 2, No. 3, pp. 153-170, 2016. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. CoRR, Vol. abs/1810.04805, , 2018. [6] 柴田知秀, 河原大輔, 黒橋禎夫. Bert による日本語構文解析の精度向上. 言語処理学会第 25 回年次大会, 2019. [7] Zhuang Liu, Degen Huang, Kaiyu Huang, Zhuang Li, and Jun Zhao. Finbert: A pre-trained financial language representation model for financial text mining. In Christian Bessiere, editor, Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence, IJCAI-20, pp. 4513-4519. International Joint Conferences on Artificial Intelligence Organization, 7 2020. Special Track on AI in FinTech. [8] 鈴木雅弘, 坂地泰紀, 平野正徳, 和泉潔. 金融文書を用いた事前学習言語モデルの構築と検証. 人工知能学会第 27 回金融情報学研究会 (SIG-FIN), oct 2021 . [9] Kevin Clark, Minh-Thang Luong, Quoc V. Le, and Christopher D. Manning. Electra: Pre-training text encoders as discriminators rather than generators, 2020. [10] 鈴木雅弘, 堅木聖也, 坂地泰紀, 和泉潔, 石川康. テキストマイニングによるアナリストレポートを用いた株価動向予測. 言語処理学会第 26 回年次大会 (NLP2020), mar 2020. [11] Geoffrey E. Hinton, Nitish Srivastava, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. Improving neural networks by preventing co-adaptation of feature detectors. CoRR, Vol. abs/1207.0580, , 2012.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C4-2.pdf
# テキストセグメンテーションモデルの ドメイン汎化性向上に向けたデータ拡張手法 久島務嗣 1 小林優佳 ${ }^{1}$ 吉田尚水 ${ }^{1}$ 永江尚義 ${ }^{1}$ 岩田憲治 ${ }^{1}$ 1 株式会社 東芝 研究開発センター tsuyoshi2.kushima@toshiba.co.jp ## 概要 近年では,大規模コーパスと深層学習を用いた高性能なテキストセグメンテーションモデルが提案されている。しかし,既存手法は学習コーパスと異なるドメインのテキストでは顕著に性能が低下する。 コーパスによって使われる名詞が大きく異なり,かつ,名詞に依存したモデルが学習されていることが,このドメイン汎化性低下の原因である可能性がある。そこで,本稿では名詞置換によるデータ拡張によって,ドメイン汎化性能の改善を試みる. 実験の結果, ドメイン外の評価コーパスにおいて, 名詞置換によって平均で $\mathrm{F}$ 值で $6.46, \mathrm{Pk}$ スコアで 1.89 それぞれ改善し,名詞置換の効果を確認した。 ## 1 はじめに 書籍や文書といった人によって作られたテキストは,章立てや段落などの構造を持つ.この構造情報は,高度なテキスト分析において有用である. しかし, 自動化技術の発達によって,音声認識による音声書き起こしといった,構造を持たないテキストが大量に存在するようになった。構造を持たないテキストの分析は容易でないため,高性能なテキスト構造化技術が求められている. テキスト構造化技術の 1 つにテキストセグメンテーションがある.これは,構造を持たないテキストを意味的関連性がある複数の文のまとまり (セグメント) に分割し,構造化する技術である.近年では,大規模コーパスと深層学習を用いた手法が提案され $[1,2,3,4]$, 高性能な構造化が可能となってきている. しかし,既存手法で高い性能が発揮できるテキストは学習データと似たテキストに限られる。 Wikipedia や教科書といった,コーパスのテキストの種類である書式とトピックをドメインとすると,学習データとドメインが異なるテキストでは顕著に性能が低下する [3]. そのため, 汎用的なモデルの実現には,ドメイン汎化性の向上が課題である. このドメイン汎化性が低い原因として,モデルが学習データの名詞に過学習していることが考えられる. [3] で使われたコーパスを分析した結果,名詞は語彙の過半数を占め, 学習データの語彙と評価コーパスの語彙との一致率が他の品詞に比べて低いことが分かった. したがって,学習データで高い性能を発揮するには,名詞に依存したモデルを学習する必要があり,さらに,名詞はコーパスによって大きく分布が異なるため, ドメイン汎化性が低下していると考えられる. よって,学習データのテキスト中の名詞を他の名詞に置換することで,特定の名詞に依存しない推定が可能になり,ドメイン汎化性能が向上すると期待される. そこで,本稿では,名詞置換によって拡張したコーパスを使ってテキストセグメンテーションモデルを学習することで,モデルのドメイン汎化性を向上させる方法を提案する.また,置換対象とする品詞の比較実験によって, 名詞置換は他の品詞に比べてモデルの汎化性向上に有効であることを示す. まず,2 章で関連研究を挙げ,テキストセグメンテーションの課題を詳細に述べる。 3 章で具体的なデータ拡張手法を説明し,4 章で実験の詳細,5 章で結果と考察をそれぞれ述べる. 6 章では最後に本稿のまとめと今後の課題について述べる. ## 2 関連研究 深層学習を用いた既存研究は, Glavǎs ら [1], Lukasik ら [2], Xing ら [3] の研究がある. これらの研究の学習・評価に用いられるコーパスを表 1 に示す. Section[5] とWiki-727k[4] は,それぞれ学習デー タ・検証データ・評価データを含むコーパスである。 表 1 コーパス統計量 表 2 品詞別語彙占有率 Glavǎs らは,Wiki-727kを学習に用い,複数の評価コーパスで評価を行っている. モデルの汎化性評価には,学習データと異なるドメインのコーパスで評価する必要がある。しかし, Glavǎs らは, Wiki 書式のコーパスと疑似的に生成されたコーパスでしか評価を行っておらず,モデルの汎化性の評価は十分でない. Lukasik らも同様に, 十分なドメイン汎化性評価を行っていない。 一方で,Xing らは,Sectionを学習に用い,表 1 の評価コーパスで評価を行っている. 学習データとドメインが異なる Elements・Wiki-50・Clinical によってモデルの汎化性を評価しているが,評価データと 3 つの評価コーパスの性能に乘離がある. 以上の様に,深層学習によってテキストセグメンテーションモデルを学習する既存研究では, モデルの汎化性評価が行われているものが少なく,行われていても, 評価データの性能とドメインの異なるコーパスの性能に大きな乘離がある.様々なテキストに汎用的に利用できるテキストセグメンテーションモデルの開発には,モデルの汎化性を向上し, この乘離を埋めることが重要である. ## 3 提案手法 表 1 に示した評価コーパスの, 品詞別の語彙占有率を表 2 に, Section の学習データと各評価コーパス との品詞別単語一致率を表 3 に,それぞれ示す. 表 2, 表 3 には, 語彙に占める割合の多い品詞上位 4 種のみを示している(詳細は付録参照のこと)、いずれのコーパスにおいても, 名詞が語彙の過半数を占めており,学習データの語彙との一致率は名詞が最も低い。したがって,学習データで高い性能を発揮するには,名詞に基づいた学習が必要となり,さらに, 他の品詞に比べて, 名詞はコーパスによって分布が大きく異なるため, ドメイン汎化性の低下の原因になっている可能性がある. そこで,学習データ中の名詞を置換するデータ拡張によって, 名詞に過学習せず,未知の名詞に頑健なモデルが学習され, モデルのドメイン汎化性が向上すると考える. 本稿で提案する名詞置換によるデータ拡張の例を表 4 に示す. 表 4 の original には置換前のテキストを, single と rand は 2 つの置換方法の例を,色付き単語は抽出された名詞を,それぞれ表す. 提案手法では,テキストから名詞を抽出し,抽出された名詞を学習データ内の他の名詞に置換する。 名詞の置換方法には, 表 4 に示した rand と single の 2 つの置換方法を検討した. single は,置換先と置換元の名詞を 1 対 1 で対応付け,その対応に従って置換を行う方法である。一方, rand は 1 対 1 の対応付けをせず,名詞が出現する度にランダムに他の名詞に置換する方法である。したがって, rand は同じ名詞であっても異なる名詞に置換され得る. 表 4 に示す例では, original には「Aleppo」という名詞が 2 回現れている. singleでは,「Aleppo」に「Gittinger」 が対応付いているため, 2 回とも「Gittinger」に置換されている。一方, rand では, 同じ名詞であっても毎回異なる名詞に置換され得るため, 1 回目は 「Gittinger」に,2 回目は「Agustina」に置換されている.なお,「Gittinger」と「Agustina」は学習データから抽出された名詞である。 また,複数の単語から成る名詞も存在するが,複数語の名詞を置換の単位にすると, single が適用できないため,置換の単位は 1 つの単語とした。 Gittinger has scarcely been touched by Espares since the modern hypertrophy occupies its ancient Wasserviertel. Gittinger appears in historical inhabitants as an important hypertrophy much earlier than Ariqueanos. ## rand Gittinger has scarcely been touched by Espares since the modern hypertrophy occupies its ancient Wasserviertel. Agustina appears in historical inhabitants as an important Biodiversität much earlier than Ariqueanos. ## 4 実験 ## 4.1 設定 実験に用いるモデルの概要図を図 1 に示す. 図 1 中の $S_{i}$ は文, $\mathbf{t}_{\mathbf{j}}$ は文 $\mathbf{S}_{\mathbf{i}}$ を構成するサブワード, $\mathbf{f}_{\mathbf{i}}$ は文 $S_{i}$ の特徴量, $p_{i}$ は文 $S_{i}$ がセグメント終端である確率,をそれぞれ表す。本稿では,文エンコード用 (前段) とセグメント終端推定用 ( 後段) に $2 \supset$ の事前学習済み BERT を用いる,Hier.BERT[2] を使用した。事前学習済み BERT は,Python のオープンソースライブラリである transformers ${ }^{1)}$ を使用した。 名詞置換は,エポック開始時に毎回実施した。また,名詞置換は $1 / 2$ の確率で行われ,置換するか否かの判定はテキスト単位で行った. 単語の抽出・品詞の特定には,Python のオープンソースライブラリである $\mathrm{spaCy}^{2}$ を利用した。 名詞置換の有効性検証のため,動詞も対象として実験を行った.動詞は,語彙の占有率が名詞に次いで高く, 名詞と同様に文の意味に大きくかかわるため,比較対象とした. よって,実験条件は置換方法 2 種 (single $\cdot$ rand) と置換対象 2 種(名詞: NOUN・動詞:VERB)の組み合わせで,NOUN single $\cdot$ NOUN $_{\text {rand }} \cdot$ VERB $_{\text {single }} \cdot$ VERB $_{\text {rand }}$ の 4 種となる。名詞と同様に,動詞も置換の単位は 1 つの単語である。また,動詞は,活用を無視して置換すると,意味不明な文になったり,文法的に誤った文となってしまう.そのため,動詞の置換は,置換先の動詞を置換元の動詞に合わせて活用させて置換を行う。 ハイパパラメータの選定には Mosbach ら [8] を参考にして,学習率は $\left[2 \mathrm{e}^{-6}, 5 \mathrm{e}^{-6}, 1 \mathrm{e}^{-5}, 2 \mathrm{e}^{-5}\right]$ から,学習エポック数は $[20,30,40,50]$ から,それぞれ検証データでの $\mathrm{F}$ 值が最大になるものを選択した。また, Warmup も適用し,学習率を変化させるエポック数は,学習エポック数の 1) https://github.com/huggingface/transformers 2) https://github.com/explosion/spaCy 図 1 モデルの概要図 $[10 \%, 20 \%, 30 \%, 40 \%, 50 \%]$ から検証データでの F 値が最大になるものを選択した。なお,Warmup では学習率は線形に変化させた。 Lukasik ら [2] は,テキストの文数と文の文字数とを制限し,計算コストを下げた上で Hier.BERT の学習を行っている。本稿でも同様に,文字数を 64 文字,文数を 128 文にそれぞれ制限して学習を行った. 文字数が 64 文字を超える場合には,文を分割し複数の文として前段の BERT に入力し,分割された文を後段の BERT に入力するときには,分割された文に同じ位置ラベルを与えて入力した。最後の全結合層に分割された文を入力するときには,分割された文の特徴量を平均した特徴量を入力した. 文数が 128 文を超える場合には,テキストを分割し,複数の学習データとした.評価時は,窓幅 128 文の窓を 1 文ずつスライドさせ,各文の推定結果を平均することで,最終推定結果を取得した。 ## 4.2 評価 学習には Sectionを使用し,評価コーパスには Section の評価データ・Cities・Elements・Wiki-50・ Clinical の 5 つのコーパスを用いた. Section は Wiki 書式で都市と疾患のトピックを含むため,Elements・ 表 5 評価結果 ( $\mathrm{F}$ 値 / $\mathrm{P}_{\mathrm{k}}$ スコア) Wiki-50・Clinical の 3 つのコーパスをドメイン外 (OOD:Out-Of-Domain)として, ドメイン汎化性能の評価に用いた. Cities はドメイン内のコーパスとなるため評価の対象ではないが,Xing らとの比較のために評価に用いた。 評価指標には, $\mathrm{F}$ 値と $\mathrm{P}_{\mathrm{k}}$ スコア [9]を用いた。 $\mathrm{P}_{\mathrm{k}}$ スコアは,窓幅 $\mathrm{k}$ 分の検出誤りを許す指標で,テキストセグメンテーションモデルの評価によく用いられる. $\mathrm{P}_{\mathrm{k}}$ スコアは, Python のオープンソースライブラリである segeval ${ }^{3)}$ を用いて計算した。 実験は,データ拡張を適用しない baseline と, $\mathbf{N O U N}_{\text {single }} \cdot$ NOUN $_{\text {rand }} \cdot \mathrm{VERB}_{\text {single }} \cdot \mathrm{VERB}_{\text {rand }}$ の 4 条件,合わせての 5 つの実験条件で行った. 各実験条件に対して 5 つの seedで実験を行い,それぞれの結果の平均に対して評価を行った. ## 5 考察 実験の結果を表 5 に示す.表 5 中の OOD-Ave は OOD とした 3 つのコーパスの平均値を表す. 各条件で最も高い数値を太字で示す. baseline と 4 つの実験条件の OOD-Aveを比較す 換対象とする品詞の違いによる改善幅の差を比較すると, NOUN ${ }_{\text {single }}$ と NOUN $\mathbf{r a n d}$ を平均すると, F 值で 6.46, Pk スコアで 1.89 それぞれ改善したが, VERB $_{\text {single }}$ と VERB rand を平均すると, baseline に比べて性能が劣化した. よって, 名詞を対象として置換するデータ拡張がドメイン汎化性の向上に有効であることが確認された。 名詞を置換対象とした条件の効果が高かった原因として, 名詞への過学習が抑えられた可能性 るため,単語に依存しない推定を行う. したがって, NOUN ${ }_{\text {rand }}$ の学習データにおける $\mathrm{F}$ 值と Pk スコアを上回るためには, 名詞に基づいた推定が必要となる. よって, 名詞を置換対象とした条件以外では, NOUN $\mathbf{r a n d}$ 相当の性能に達した後の学習で  は, 名詞への過学習が起こっていると考えられる。 NOUN $_{\text {single }}$ と NOUN ${ }_{\text {rand }}$ の学習データにおける $\mathrm{F}$ 值と $\mathrm{Pk}$ スコアは, 他の条件よりも劣化しているため,名詞を置換対象とした条件以外では名詞への過学習が起こっていたと考えられる.これが抑制されたため, 名詞置換ではドメイン汎化性が向上したと考えられる。これは,名詞への過学習がドメイン汎化性低下の原因になっている仮説を支持する。 一般にテキストセグメンテーションにおいては,名詞の一貫性は重要な判断基準となり得る。そのため, NOUN rand $^{\text {よりも, NOUN } \text { single }}$ の方が改善幅が大きいことが期待される。しかし,置換方法による差が見られないという結果は,モデルが名詞の一貫性を考慮した推定をあまりしていないことを示唆する.よって,名詞の一貫性を考慮する機構等で,更にドメイン汎化性の改善ができる可能性がある。 また,個別のコーパスの結果を見ると,Cities と Elements は Xing らの結果を上回っているが, Clinical では,非常に低い結果となった. Clinicalでは,他のコーパスの傾向と異なり, recall よりも precision が低い結果となっており,セグメント終端の誤検出が多い(詳細は付録参照のこと)。これは,コーパスの書式によってセグメントの粒度が異なることに起因すると考えられる(表 1)。セグメント分割粒度を調整可能なモデルによって, Clinical においても適切なセグメンテーションができると考えられる. ## 6 おわりに 本稿では,ドメイン汎化性能の高いテキストセグメンテーションの実現に向け,名詞置換によるデー 夕拡張手法を提案した. 実験の結果,名詞を置換するデータ拡張によって,平均して $\mathrm{F}$ 值で $6.46, \mathrm{Pk}$ スコアで 1.89 それぞれ改善し, 効果を確認した. 評価コーパスの内,2つのコーパスではSOTA 手法を上回ったが,1 つのコーパスでは非常に低い結果となった. 名詞の一貫性を考慮する手法や,セグメン卜粒度を調整可能な手法によって,更にドメイン汎化性能を向上することが今後の課題である. ## 参考文献 [1] Goran Glavǎs and Swapna Somasundaran. Two-level transformer and auxiliary coherence modeling for improved text segmentation. In Proceedings of the 34th Association for the Advancement of Artificial Intelligence, 2020. [2] Michal Lukasik, Boris Dadachev, Kishore Papineni, and Gonçalo Simões. Text segmentation by cross segment attention. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 4707-4716, 2020. [3] Linzi Xing, Brad Hackinenz, Giuseppe Carenini, and Francesco Trebbi. Improving context modeling in neural topic segmentation. In Proceedings of the 1st Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 10th International Joint Conference on Natural Language Processing, pp. 626$-636,2020$. [4] Omri Koshorek, Adir Cohen, Noam Mor, Michael Rotman, and Jonathan Berant. Text segmentation as a supervised learning task. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics, pp. 469-473. [5] Sebastian Arnold, Rudolf Schneider, Philippe CudréMauroux, Felix A. Gers, and Alexander Löser. Sector: A neural model for coherent topic segmentation and classification. Transactions of the Association for Computational Linguistics, Vol. 7, pp. 169-184, 2019. [6] Harr Chen, S.R.K. Branavan, Regina Barzilay, and David R. Karger. Global models of document structure using latent permutations. In Proceedings of Human Language Technologies: The 2009 Annual Conference of the North American Chapter of the Association for Computational Linguistics, pp. 371-379, 2009. [7] Jacob Eisenstein and Regina Barzilay. Bayesian unsupervised topic segmentation. In Proceedings of the 2008 Conference on Empirical Methods in Natural Language Processing, pp. 334-343, 2008. [8] Marius Mosbach, Maksym Andriushchenko, and Dietrich Klakow. On the stability of fine-tuning bert: Misconceptions, explanations, and strong baselines. In International Conference on Learning Representations, 2021. [9] Doug Beeferman, Adam Berger, and John Lafferty. Statistical models for text segmentation. Machine Learning, Vol. 34, No. 1, pp. 177-210, 1999. ## A 参考情報 表 A. 1 品詞別語彙分析結果(語彙数/一致率) 表 A. 2 実験結果詳細
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C4-3.pdf
# Transformer モデルのニューロンには 局所的に概念についての知識がエンコードされている 有山知希 ${ }^{1}$ Benjamin Heinzerling ${ }^{2,1}$ 乾健太郎 ${ }^{1,2}$ 1 東北大学 2 理化学研究所 tomoki.ariyama.s3@dc.tohoku.ac.jp benjamin.heinzerling@riken.jp, inui@ecei.tohoku.ac.jp ## 概要 事前学習言語モデルには,マスク穴埋め問題を解くことが出来ることから何らかの形で知識が保存されていると考えられているが,その保存形態については未だよく分かっていない. そこで本研究では,知識が言語モデル内のパラメータに「局所的に」エンコードされているという仮定の下,メモリとしても働くとされる Transformer の Feed-Forward 層に着目して,ある概念についての知識がエンコードされている特定のニューロンが存在することを確認した. また,概念を表す単語の品詞によって,知識の保存形態が異なる可能性が示唆された。 ## 1 はじめに 事前学習言語モデルの中には,穴埋め文,例えば 「—が出来ることの一つはニャーと鳴くことです。」 という文が与えられた場合に,穴埋め部分に「子猫」が入ると予測できるものが存在する。このような言語モデルは学習の結果, 図 1 に示すように何らかの形でモデル内に子猫についての知識が保存されていると考えられる。しかし,この知識がどのような形で言語モデル内に保存されているか,ということは未だ解明されていない. そこで我々は,ある概念1) ${ }^{1}$ につての知識は言語モデルの一部のパラメータにエンコードされている,すなわち「局所的に」保存されているという仮定を置き,Transformer[1]の Feed-Forward 層(以下,「FF 層」と呼ぶ)を調査することにした。これは Transformer の FF 層は key-value メモリと同様の働きをすることが Geva らによって報告されており [2], そのため $\mathrm{FF}$ 層には概念についての知識がエンコー 1)本論文において「概念」とは,名詞や固有名詞等で表される「エンティティ」や,動詞や形容詞等で表される「動作」「性質」などを全て含めた単語,として定義する 図 1 子猫に関する知識はどのように保存されているか? ドされている可能性が高いと考えたためである. Transformer の FF 層を分析する手法については, $\mathrm{FF}$ 層の中間表現をニューロンと見立てた時に,入力に反応する特定のニューロンを帰属法を用いて探す手法が Dai らによって提案されている [3]. そこで我々はこの手法を用い,ある概念についての知識が特定のニューロンにエンコードされているかを調査し,その知識がエンコードされていると判断されたニューロンの活性値を編集すると,その概念を正解とする穴埋め問題を解く際の正解を選ぶ確率が変化することを確認する。 ## 2 手法 実験手法を説明するにあたり,まず本論文で用いる「ニューロン」という言葉について説明する. 本論文におけるニューロンとは, Transformer の encoder を構成する一モジュールである FF 層において,第一線形層の出力を活性化関数にかけたものを指す. $\mathrm{FF}$ 層の式は入力を $x$, 第一・第二線形層の重み・バイアス項をそれぞれ $W_{1}, b_{1}, W_{2}, b_{2}$ で表し, 活性化関数に GELU[4]を用いることにすると,次のよ 図 2 知識帰属法と実験のイメージ.知識帰属法では,モデルがプロンプトのマスク部分を予測する際の,FF 層における各ニューロンの活性値を用いて各貢献度を計算し,それらを元に知識ニューロンを探し出す. 実験では,知識ニュー ロンの活性值を抑制・増幅したモデルに再度プロンプトを解かせ,モデルの予測がどのように変化するかを観察する. うに表される。 $ \mathrm{FF}(x)=\left(\operatorname{GELU}\left(x W_{1}+b_{1}\right)\right) W_{2}+b_{2} $ すなわち, “ $\operatorname{GELU}\left(x W_{1}+b_{1}\right) ”$ の部分がニューロンに対応し,その値がニューロンの活性値となる. ## 2.1 知識ニューロンを探すためのタスク ある概念に紐づくニューロン(以下,「知識ニュー ロン」と呼ぶ)を探すためのタスクとして,穴埋め文(以下,「プロンプト」と呼ぶ)の穴埋め部分を予測するタスクを言語モデルに解かせる.プロンプトは,その概念が穴埋め部分,すなわち [MASK] トー クンとなるようにデータセットから作成する. プロンプトの一例を以下に示す. 下記例の [MASK] トー クンに対応する概念は “kittens”である. - [MASK] will grow and become cats. ## 2.2 知識帰属法 この節では, Dai ら [3] によって提案された, 知識ニューロンを探すための手法である知識帰属法について説明する (図 2 参照). 知識ニューロンを探すため,事前学習言語モデルにおける各ニューロンの,「言語モデルが,あるプロンプト $x$ について正しい答えを出力する確率 $\mathrm{P}_{x}\left(\hat{w}_{i}^{(l)}\right)$ 」に貢献する度合いを測定する. ここで確率 $\mathrm{P}_{x}\left(\hat{w}_{i}^{(l)}\right)$ は, $y^{*}$ を正しい答え, $w_{i}^{(l)}$ を $l$ 番目の $\mathrm{FF}$ 層の $i$ 番目のニューロン, $\hat{w}_{i}^{(l)}$ をののューロンの活性値とすると,次の式 1 のように表される。 $ \mathrm{P}_{x}\left(\hat{w}_{i}^{(l)}\right)=p\left(y^{*} \mid w_{i}^{(l)}=\hat{w}_{i}^{(l)}\right) $ この確率について, Sundararajan ら [5] の “Integrated Gradients”という帰属法を用い, $w_{i}^{(l)} 0$ から事前学習言語モデルによって計算された元の活性值 $\bar{w}_{i}^{(l)}$ まで徐々に変化させ,それに伴って変化する,確率 $\mathrm{P}_{x}\left(\hat{w}_{i}^{(l)}\right)$ に対する勾配 $\frac{\partial \mathrm{P}_{x}\left(\alpha \bar{w}_{i}^{(l)}\right)}{\partial w_{i}^{(l)}}$ を積分することで,今考えているニューロン $w_{i}^{(l)}$ の貢献度 $\operatorname{Attr}\left(w_{i}^{(l)}\right)$ を計算することができる. $ \operatorname{Attr}\left(w_{i}^{(l)}\right)=\bar{w}_{i}^{(l)} \int_{\alpha=0}^{1} \frac{\partial \mathrm{P}_{x}\left(\alpha \bar{w}_{i}^{(l)}\right)}{\partial w_{i}^{(l)}} d \alpha $ この值が大きいほど,プロンプト $x$ に強く反応するニューロンであると判定する.この手法を用いて, あるプロンプトについてモデル内の全てのニューロンの貢献度を計算し,その中での貢献度の閾値 $t$ を超えるニューロンのみを選ぶことにする. しかし,上述のようにある一つのプロンプトについてのニューロンを探し出しても,それらのニュー ロンは本当に知識ニューロンであるとは限らない. なぜならば,そのプロンプトの構文情報を表現してしまっているような「偽陽性の」ニューロンが存在している可能性があるためである. そこで目的とする知識ニューロンを,先述の貢献度によって選出されたニューロンに対して精製作業を加えた以下の方法で手に入れる: 1. ある概念が正解となるプロンプトを,構文や含まれる語彙が異なるようにして複数用意する 2. 各プロンプトについて, 各ニューロンの貢献度を計算する 3. 各プロンプトについて, 閾値 $t$ を超える貢献度を持つニューロンのみを選出する 4. 全てのプロンプト間での共有率の閾值 $p \%$ を設定し, $p \%$ 以上のプロンプトで共有されているニューロンのみを残す 最後のステップで残ったニューロンは,各プロンプトで共有されている要素,すなわち概念と紐づくニューロン(=知識ニューロン)である. 図 3 活性値を抑制した際の各プロンプトに対する正解を選ぶ確率の変化例 図 4 活性值を増幅した際の各プロンプトに対する正解を選ぶ確率の変化例 ## 3 実験 Dai ら [3] は 2.2 節の手法を用いて高々数十種類の関係(例えば“born in”)の知識ニューロンが存在するかを調べるに留まっていた。一方我々は,それよりはるかに種類の多い概念についても個別の概念に対応する知識ニューロンが存在するかを調べる. ## 3.1 設定 プロンプトについては,英語のデータセットである LAMA[6] の ConceptNet 部分を用いて relation の subject 部分をマスクし,最終的に 742 個の概念について作成した. 事前学習言語モデルには, HuggingFace Transformers[7] で公開された "bert-baseuncased"を使用した. 2.2 節で述べた各プロンプトにおける閾值 $t$ は最も大きい貢献度の 0.2 倍とし, プロンプト間の共有率 $p$ は $50 \%$ に設定した。なお,実験に使用したコードはすべて公開する2). ## 3.2 知識ニューロンと知識のエンコード 2.2 節の手法により得られた知識ニューロンの活性值 $\bar{w}_{i}^{(l)}$ を編集したモデルに「その知識ニューロンが紐づく概念が正解のプロンプト」と「全く関係のない概念が正解のプロンプト」のそれぞれを解かせて正解を選ぶ確率を調査し,活性值を変化させる前の確率との変化量を比較する。もし無関係の概念の 2) https://github.com/tomokiariyama/concept-neurons.git プロンプトを解いた際の正解を選ぶ確率にのみ変化が見られなければ,その知識ニューロンには紐づく概念についての知識のみがエンコードされていると考えられる3). また, 活性値は 0 にする(抑制)元の活性值 $\bar{w}_{i}^{(l)}$ の 2 倍にする(増幅)の二通りの編集方法を実験する.直感的には,抑制は知識ニューロンを取り除く操作でモデルはその知識ニューロンが紐づく概念を忘れ,逆に増幅は知識ニューロンが紐づく概念を強化する。 ## 3.3 概念の品詞によって, 活性値の編集に よる影響に違いがあるか 言語モデルが概念の品詞を区別できるとすれば, それは品詞によって知識の保存形態が異なるためであるという仮定の下,各概念を品詞ごとに分けた上で 3.2 節と同様の実験を行い, 品詞の違いによる活性值編集の影響の差異を観察する,実験では,品詞分類は形態素解析器である nltk[8] を用いて「名詞」 と「動詞・形容詞・副詞」の二種類に分類した. ## 4 実験結果 ## 4.1 知識ニューロンと知識のエンコード 図 3 に抑制時のグラフを,図 4 に増幅時のグラフを示す. 各図の概念は,冒頭で例として取り上げた子猫 (=“kitten”) と辞書順にその周辺の綴りを持つものを選出した. 図 3,4 より,その知識ニューロン  図 5 活性値を抑制した際の全概念についての正解を選ぶ確率の変化 図 6 活性値を増幅した際の全概念についての正解を選ぶ確率の変化 が紐づく概念が正解のプロンプトを解かせると,活性値の編集に応じて正解を選ぶ確率が大きく増減するが,無関係の概念が正解のプロンプトに対しては影響がほとんど見られなかった.しかし全ての概念についてそのような傾向が見られたわけではなく, “knife" のように知識ニューロンの活性値の抑制に伴って紐づくプロンプトの正解を選ぶ確率が増加かつ活性値の増幅に伴って正解を選ぶ確率が減少するといった事例や,“organism”のように抑制・増幅に関わらず紐づくプロンプトの正解を選ぶ確率が減少する事例も見られた。 また,使用した全ての概念についての,正解を選ぶ確率の変化をヒストグラムに表したものを図 $5 , 6$ に示す. この図 $5 , 6$ から,知識ニューロンの活性值を編集した際,その知識ニューロンに紐づくプロンプトを解かせた場合には正解を選ぶ確率に対して影響が見られ,紐づかないプロンプトを解かせた場合にはほとんど影響がないことが確認できる。すなわち,多くの知識ニューロンは確かに紐づく概念についての知識がエンコードされているニューロンであり,知識が局所性を伴って Transformer の FF 層の中にエンコードされていることが確認された. 図 7 活性値を抑制してそのニューロンに紐づくプロンプトを予測した際の, 品詞ごとの正解を選ぶ確率 図 8 活性値を増幅してそのニューロンに紐づくプロンプ卜を予測した際の,品詞ごとの正解を選ぶ確率 ## 4.2 概念の品詞によって, 活性値の編集に よる影響に違いがあるか 図 7 に知識ニューロンの活性値を抑制してその知識ニューロンが紐づくプロンプトを解かせ,概念の品詞に応じて正解を選ぶ確率の変化を表したものを,図 8 に同様に活性値を増幅した場合の結果を示す. グラフの概形を比較すると, 図 8 では概形に大きな違いは認められなかったものの, 図 7 では名詞は $-25 \sim-20 \%$ 付近にピークがあるのに対し,動詞・形容詞・副詞は $0 \sim 5 \%$ 付近が最も件数が多い. これは,名詞の方がより局所的な傾向を持つことを示しており, 品詞によって知識の保存形態が異なる可能性が示唆された. ## 5 おわりに 本研究では, 概念についての知識が Transformer の $\mathrm{FF}$ 層の中で局所的にエンコードされていることを確認した。 ある概念についての知識が保存されていると考えられる知識ニューロンの活性値を編集した際,多くの場合その概念についてのプロンプトのみが解けなくなり,他の概念についてのプロンプトに対しては影響が殆ど見られないことも確認した。 また,概念を品詞ごとに分類して影響の差異を調べた結果,品詞によって知識の保存形態が異なる可能性が示唆された。一方で,なぜ知識ニューロンの活性値を編集しても影響がほとんど見られない,もしくは想定とは逆の影響が観察される概念が存在するのか,ということは研究課題として残っている. ## 謝辞 本研究は,JST/CREST (JPMJCR20D2) および JSPS 科研費 (JP19H04425,JP21K17814) の助成を受けた. ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of the 31st Conference on Neural Information Processing Systems (NIPS), 2017. [2] Mor Geva, Roei Schuster, Jonathan Berant, and Omer Levy. Transformer feed-forward layers are key-value memories. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 54845495. [3] Damai Dai, Li Dong, Yaru Hao, Zhifang Sui, and Furu Wei. Knowledge neurons in pretrained transformers. arXiv:2104.08696, 2021. [4] Dan Hendrycks and Kevin Gimpel. Gaussian error linear units (gelus). arXiv preprint arXiv:1606.08415, 2016. [5] Mukund Sundararajan, Ankur Taly, and Qiqi Yan. Axiomatic attribution for deep networks. In Proceedings of the 34th International Conference on Machine Learning, Vol. 70, pp. 3319-3328, 2017. [6] A. H. Miller P. Lewis A. Bakhtin Y. Wu F. Petroni, T. Rocktäschel and S. Riedel. Language models as knowledge bases? In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 2463-2473. [7] Hugging Face. Transformers,(2022-01 閲覧). https: //huggingface.co/docs/transformers/index. [8] NLTK :: Natural Language Toolkit,(2022-01 閲覧). https://www.nltk.org/.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C4-4.pdf
# 関係間の関係性を考慮した時間関係グラフ改善のための グローバル反復辺編集器 牧野晃平 三輪誠 佐々木裕 豊田工業大学 \{sd21505, makoto-miwa, yutaka.sasaki\}@toyota-ti.ac.jp ## 概要 時間関係抽出では,イベント間の相対的な時間を考慮する際に,時間関係間の関係性が重要となることがある。しかし,既存の手法ではこのような時間関係間の関係性を考慮せず,個別に時間関係を抽出しているものが多い. そこで,本研究では,既存手法に接続可能な,グローバルに時間関係間の関係性を考慮したモデルとして,既存手法の出力をもとに時間関係グラフを反復的に改善するグローバル反復辺編集器 GIEEを提案する. 実験では, 時間関係抽出の評価用データセットである MATRES について提案手法を評価し, 提案手法が異なる 2 つの既存手法の性能を一貫して向上できることを確認した. ## 1 序論 文書中のイベント間の時間的な関係性を対象とし,文内および文をまたいだイベント間の時間関係を抽出する時間関係抽出は, 自然言語で記述された文書中の情報を構造化するのに重要なタスクである。時間関係は関係がイベントを共有するフローグラフの様に表現されたり, 事前の事前のイベントは事前のイベントであるというような時間的な制約が存在したりするなど, 時間関係抽出は一般的な関係抽出 $[1,2]$ とは異なるため,時間関係を抽出するための特有な手法が提案されている $[3,4]$. 時間関係抽出ではイベント間の相対的な時間を対象とするため,関係を個別に分類するだけでなく,時間関係間の関係性を考慮することが重要になる。実際に TempEval-3 [5] や MATRES [6] のような既存の時間関係抽出用コーパスでは,ニュース記事などの文章に記述されたイベントの絶対的な発生時間は一部しか記述されておらず,イベント同士の相対的な時間関係によって発生時間を表現している. 一方で,既存の高性能な手法は時間関係同士の関 図 1 反復的な辺編集 係を考慮できていない.Wenと Ji はイベント間の相対的な時間を直接予測している [7]. Mathur らは複数のグラフ表現を組み合わせ,時間とイベント間の関係性をモデル化したが,時間関係間の関係性は考慮できていない [4]. このような既存手法の利点を保持したまま,異なる構造・実装のモデルに対して関係間の関係性を直接導入するのはコストが高いため,関係間の関係性を既存手法に容易に導入できる手法が必要である. 以上のことから,本研究では,文書検索のリランキングのように [8], 既存の関係抽出手法の出力を全体を見ながら再評価し,関係を編集することで関係間の関連性を考慮するモデルとして,グローバル反復辺編集器(Global Iterative Edge-Editor; GIEE)を提案する. 本手法では,入力となる文書と時間関係グラフを用いて,文書の文脈表現に加え,時間関係グラフの表現を利用することで,全体の時間関係間の関係性を考慮した辺の編集を行う. 更に,編集されたグラフを繰り返し編集することで,入力された辺間だけでなく, 編集された辺同士の相互関係を含めてグラフ全体で考慮する。 本研究の貢献は以下の 3 点である. - 関係間の関係性を考慮するため,既存手法の出力を編集するという,既存手法に容易に導入可能な問題設定を提案した. ・時間関係グラフの表現を利用する,時間関係間全体の関係性を考慮した時間関係抽出モデルであるグローバル反復辺編集器 GIEEを提案した。 - 異なる 2 つの既存手法の後続に提案手法を接続することで,いずれの手法についても,もとの抽出性能を改善できることを示した。 ## 2 提案手法 本研究では,既存の時間関係抽出手法に対して関係間の関係性の観点を導入するため,既存手法で抽出した時間関係グラフを編集するモデルとして,グローバル反復辺編集器 GIEE を提案する. 時間関係グラフはイベントを節点, 時間関係を辺として表現される。GIEEでは図 1 のように,時間関係全体の関係間相互関係を考慮した辺編集器 (Edge-Editor; EE)を反復的に利用することで,既存手法で抽出したグラフの辺間のみならず,編集された辺も含めた,辺間の関係性をグラフ全体で考慮することを目指す.ここでは,このEEとGIEEについてそれぞれ説明し, その後, それらを使った予測と学習, 既存手法との接続について説明する. ## 2.1 辺編集器 まず辺同士の相互関係を考慮して辺を編集する深層学習ベースの辺編集器 $\mathrm{EE}$ について説明する. $\mathrm{EE}$ では BigBird [9] や Longformer [10] のような文書単位の事前学習モデルを用いて得られる文脈表現と,グラフニューラルネットワーク(GNN)を用いて作成する入力の時間関係グラフ $G^{i n}=\mathscr{G}\left(N, E^{i n}\right)$ の表現から対象の辺に接続している節点ペアを分類して辺を編集することで編集後のグラフ $G^{\text {out }}=\mathscr{G}\left(N, E^{\text {out }}\right)$ を出力する. モデルのパラメタを $\theta$ とすると $\mathrm{EE}$ は以下のように表現できる. $ G^{\text {out }}=\operatorname{EE}\left(\operatorname{doc}, G^{\text {in }} ; \theta\right) $ 辺の編集は以下の 3 ステップで行う. (1) 事前学習モデルによって節点の初期表現としてイベントの文脈表現を作成する。(2)関係間の関係性を考慮するために GNNを利用して入力グラフの構造情報を埋め込んだ節点の表現を作成する。(3)節点ペアの表現と編集前の辺の表現から辺を分類して編集後のグラフを作成する. イベントの初期表現は,イベントを構成するトー クンの文脈表現を集約して作成する. 文長 $T$ の入力文書 doc を事前学習モデルによって埋め込んだトー クンの表現 $X=\left[x_{1}, x_{2}, \cdots, x_{T}\right]$ の次元を線形層で減らしたものに対して, $i$ 番目の節点の初期表現 $\boldsymbol{n}_{i}^{0}$ は始点のトークンと終点のトークンとその間の表現の平均を取って表現を作成する。 次に関係間の関係性をグラフ全体で考慮するために入力グラフの構造表現を GNNによって埋め込む.具体的には関係ラベルの違いを捉えるために,異種グラフが扱える Relational Graph Convolution Network (RGCN)[11]を $L$ 層積み重ねて $L$-hop の関係性を考慮した表現を作成する. $l$ 番目の層の節点の表現は, $\sigma(\boldsymbol{x})$ をシグモイド関数, $\boldsymbol{W}^{\text {self }}$ を自己ループのためのパラメタ,RGCN の引数を節点の表現と辺すると,以下のように表現できる。 $ \boldsymbol{n}_{i}^{l}=\boldsymbol{n}_{i}^{l-1} \boldsymbol{W}^{\text {self } \top}+\sigma\left(\operatorname{RGCN}\left(\boldsymbol{n}, E^{i n}\right)\right) $ 最後に,それぞれの節点ペア $\left(N_{i}, N_{j}\right)$ 間の辺を, その表現 $v_{i j}$ から同時に分類する. $v_{i j}$ は以下のように, $\operatorname{RGCN}$ の $L$ 層目の節点ぺアの表現 $\boldsymbol{n}_{i}^{L} と \boldsymbol{n}_{j}^{L}$, 編集前の辺のクラスを埋め込んだ $\boldsymbol{u}_{i j}=\operatorname{Embed}\left(E_{i j}^{i n}\right)$ を結合した表現とする. $ \boldsymbol{v}_{i j}=\left[\boldsymbol{n}_{i}^{L} ; \boldsymbol{n}_{j}^{L} ; \boldsymbol{u}_{i j}\right] $ 関係なしを含むクラス全体 $C$ の内,クラス $c$ に対して用意した重み $w_{c}^{\text {edit } による ~} \boldsymbol{v}_{i j}$ の重み付き和によってスコア $z_{i j, c}$ を算出し, スコアが最大となるクラスを選択することで編集を行う。 $ \begin{aligned} z_{i j, c} & =\boldsymbol{w}_{c}^{e d i t} \boldsymbol{v}_{i j}^{\top} \\ E_{i j}^{o u t} & =\underset{c \in C}{\arg \max } p_{i j, c} \end{aligned} $ ## 2.2 反復的な編集 EEにより辺を一度のみ編集した場合には,全ての辺が入力されたグラフの表現のみに基づいて同時に編集されるため,編集結果の辺を含めた辺間の関係性を考慮出来ていない. そこで GIEEでは, 反復的に EEを利用して編集することで,グラフ全体で の整合性がとれた辺編集を目指す,具体的には,アルゴリズム1のように,EEを繰り返し利用し,同じ辺を複数回にわたって繰り返し編集することで,以前に編集した辺との関係性も考慮する。このとき, $\mathrm{EE}$ のパラメタを全ての反復で同一のパラメタとするか $\left(\theta_{1}=\theta_{2}=\cdots=\theta_{I}\right)$, 全ての反復で別のパラメタを使うかは,チューニングによって決定する。 ## 2.3 アンサンブルを用いた予測 GIEE では同一の辺を複数回予測した結果が編集履歴として得られるため,その履歴を有効利用し,予測結果のアンサンブルを行い,抽出性能向上を目指す. それぞれの反復では異なるグラフを入力として予測をするため,アンサンブルするのに適していると言える. アンサンブルの方法は, 反復ごとの $z_{i j, c}$ の最大値・平均値・投票・アンサンブルなし(最後の反復の出力を使用)の 4 種類の中からチューニングで最も高い性能が得られたものを利用する。 ## 2.4 学習 モデルの学習は, 各反復で予測されたグラフの対数尤度を最大化すると同時に,アンサンブルで得られた予測の対数尤度を最大化するための損失 $L^{\text {ens }}$ に対してもパラメタを最適化する. 反復的な編集に対する損失を $L^{i t r}$ とすると損失関数は $(1-\lambda) L^{i t r}+\lambda L^{\text {ens }}$ として学習する。 ## 2.5 既存手法との接続 既存手法と本提案手法を接続し, 時間関係抽出において関係間の関係性を考慮するために,提案手法の入力 $G^{i n}$ の辺 $E^{i n}$ を既存の手法で抽出した時間関係として,パラメタを最適化する。このようにすることで, 追加の実装を必要なしに, 既存手法の出力を活かしつつ,容易に関係間の関係性を導入することが可能になる. ## 3 評価 ## 3.1 評価設定 提案手法の評価は時間関係抽出の評価におけるデファクトスタンダードとなっている MATRES コーパス [6] を用いて評価する. MATRES では時間関係のラベルが BEFORE, AFTER, EQUAL, VAGUE の 4 つのラベルが存在し, 既存研究 [12] と同様に VAGUE は負例として扱い,評価には含めないもの表 1 MATRES に対する既存手法との比較 とする. データは Wen と Ji [7] と同様に分割して,訓練,開発,評価用データはそれぞれ $234 , 21 , 20$件で,それぞれ含まれる関係数は $10,884 , 1,852,818$件である. 評価は関係に対する $\mathrm{F}$ 値で, 3 回実験したときの平均値を用いる. 評価は既存手法の出力をモデルの入力として最適化したものを既存手法の性能と比較する. 最先端の手法の内,抽出結果が得られるもの [7,13] に限定し,再現実験によって得られた出力をモデルの入力として利用した. また, 入力のグラフの辺を空とした場合(スクラッチ)に対する抽出性能も確認する. モデルの最適化には Adam [14]を用いた. モデルで利用する事前学習モデルは, 文書単位の事前学習モデルの中でも高い性能である BigBird [9] の重みを固定して利用する。 ハイパーパラメタチューニングは Optuna [15]を用いて, Wen と Ji[7] の手法の出力に対して行い,その詳細は付録 $\mathrm{A}$ に示した. ## 3.2 結果 表 1 の結果では,スクラッチの場合は他の手法と比較しても大幅に低い性能しか得られていないにもかかわらず,既存の手法に対して GIEEを適用すると,編集前と比べて性能が一貫して向上していることが確認できる。一方で,論文で報告されているスコアや最先端の結果と比較すると劣っているが, これは編集前の時点での性能が低かったことに起因すると考えられる. ベースラインとなるモデルのチューニングおよび選定は今後の課題である。 以上のことから, GIEE は入力されたグラフ上で辺間の関係性をグラフ全体で考慮することで,抽出性能を向上させる効果を持つと言える. ## 4 解析 提案モデルの動作メカニズムを解明するため,八イパーパラメタチューニングで得られた特徴的なパラメタの考察と, 反復ごとに出力されるグラフの 図 2 反復ごとの抽出性能. 水平線はアンサンブルしたときの $\mathrm{F}$ 値,反復回数 0 は編集前の $\mathrm{F}$ 値を示している. 抽出性能について議論する。アブレーションの結果を表 2 に示した. ハイパーパラメタチューニングで得られたパラメタとして特徴的だったのは,全ての $\theta$ を同一にする点である. これは,全く同じパラメタのモデルで自己回帰してその出力をアンサンブルするのが最も良い性能となる,ということを示しており,モデルのパラメタ数を増やすことなく性能を向上させることができる。また,アブレーションによって確認された,モデルに最も寄与していた点は, $u_{i j}$ による入力されたグラフの情報を保持する機構であり,これを除くと $3 \%$ ポイント以上性能が低下した。次に影響があったのは時間関係全体の相互関係を確認するための RGCN の層の数 $L$ で, RGCN を利用しない場合においては約 $1 \%$性能が低下した. この結果から,既存手法に対して関係間の関係性を導入することで性能が向上したということが確認でき,関係間の関係性を考慮する重要性が確認できた。アブレーションに関する解析の詳細は付録 B に示す。 図 2 の Wen と Ji+GIEE における最高性能のモデルの反復ごとの結果を確認すると,どの場合においても編集前に比べて徐々に抽出性能が向上し,その後低下していることが確認できる.アブレーションの結果から $I<5$ の場合には性能が低下していることから,前半の反復では抽出出来ていない部分を後半の反復で抽出しようとして反復単体の性能は低下しているのではないかと考えられる。最終的なアンサンブルとそれぞれの反復を比較すると,ほとんどの反復で下回っているが,同じパラメタのモデルに対して少し異なるグラフを入力してアンサンブルしたことで性能が向上した. これは性能が低くなってい表 2 Ablation study る後半の反復も有意義な情報を提供していることを示している。 ## 5 関連研究 文単位の関係抽出では関係グラフ上での表現を利用した手法が提案されているが,文書単位に適用するのは計算コスト上難しいという問題がある [16].文書単位の関係抽出では文書のグラフを構築して用語間の関係性をモデル化した手法が提案されている $[17,18]$. しかしながら,関係を辺としてグラフを構築していない.このような中で,文書単位の関係抽出において順次的に関係グラフの辺を編集する手法 [19] が提案されたが,編集された辺同士の関係性が考慮できておらず,時間関係抽出にも適用されていない. ## 6 結論 本研究では時間関係抽出において,既存手法に対して容易に接続可能で時間関係グラフ全体の関係間の関係性を考慮可能なモデルとして,既存手法が出力した時間関係グラフをグローバル反復辺編集器 GIEE によって編集する方法を提案した. 実験では2つの既存手法に提案手法を適用し,いずれの手法についても性能を向上させることができ,関係間の関係性を導入する有効性が確認できた。今後の課題は,本研究で提案した編集する機構がどのように作用しているのか更なる調査を行い,単一のコーパスのみでなく,他のコーパスでの調査を進める。また,本提案のように,既存の抽出手法に対して接続するような設定において,更に効果的な方策がないか調査する。 ## 参考文献 [1] Yuan Yao, Deming Ye, Peng Li, Xu Han, Yankai Lin, Zhenghao Liu, Zhiyuan Liu, Lixin Huang, Jie Zhou, and Maosong Sun. DocRED: A large-scale document-level relation extraction dataset. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 764-777, Florence, Italy, July 2019. Association for Computational Linguistics. [2] Iris Hendrickx, Su Nam Kim, Zornitsa Kozareva, Preslav Nakov, Diarmuid Ó Séaghdha, Sebastian Padó, Marco Pennacchiotti, Lorenza Romano, and Stan Szpakowicz. SemEval-2010 task 8: Multi-way classification of semantic relations between pairs of nominals. In Proceedings of the 5th International Workshop on Semantic Evaluation, pp. 33-38, Uppsala, Sweden, July 2010. Association for Computational Linguistics. [3] Rujun Han, Xiang Ren, and Nanyun Peng. ECONET: Effective continual pretraining of language models for event temporal reasoning. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 5367-5380, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [4] Puneet Mathur, Rajiv Jain, Franck Dernoncourt, Vlad Morariu, Quan Hung Tran, and Dinesh Manocha. TIMERS: Document-level temporal relation extraction. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 524-533, Online, August 2021. Association for Computational Linguistics. [5] Naushad UzZaman, Hector Llorens, Leon Derczynski, James Allen, Marc Verhagen, and James Pustejovsky. SemEval-2013 task 1: TempEval-3: Evaluating time expressions, events, and temporal relations. In Second Joint Conference on Lexical and Computational Semantics ('SEM), Volume 2: Proceedings of the Seventh International Workshop on Semantic Evaluation (SemEval 2013), pp. 1-9, Atlanta, Georgia, USA, June 2013. Association for Computational Linguistics. [6] Qiang Ning, Hao Wu, and Dan Roth. A multi-axis annotation scheme for event temporal relations. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1318-1328, Melbourne, Australia, July 2018. Association for Computational Linguistics. [7] Haoyang Wen and Heng Ji. Utilizing relative event time to enhance event-event temporal relation extraction. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 10431-10437, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [8] Qiang Sheng, Juan Cao, Xueyao Zhang, Xirong Li, and Lei Zhong. Article reranking by memory-enhanced key sentence matching for detecting previously fact-checked claims. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 5468-5481, Online, August 2021. Association for Computational Linguistics. [9] Manzil Zaheer, Guru Guruganesh, Kumar Avinava Dubey, Joshua Ainslie, Chris Alberti, Santiago Ontanon, Philip Pham, Anirudh Ravula, Qifan Wang, Li Yang, et al. Big bird: Transformers for longer sequences. Advances in Neural Information Processing Systems, Vol. 33, , 2020. [10] Iz Beltagy, Matthew E. Peters, and Arman Cohan. Longformer: The long-document transformer. arXiv:2004.05150, 2020. [11] Michael Schlichtkrull, Thomas N. Kipf, Peter Bloem, Rianne van den Berg, Ivan Titov, and Max Welling. Modeling relational data with graph convolutional networks. In Aldo Gangemi, Roberto Navigli, Maria-Esther Vidal, Pascal Hitzler, Raphaël Troncy, Laura Hollink, Anna Tordai, and Mehwish Alam, editors, The Semantic Web, pp. 593-607, Cham, 2018. Springer International Publishing. [12] Miguel Ballesteros, Rishita Anubhai, Shuai Wang, Nima Pourdamghani, Yogarshi Vyas, Jie Ma, Parminder Bhatia, Kathleen McKeown, and Yaser Al-Onaizan. Severing the edge between before and after: Neural architectures for temporal ordering of events. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 5412-5417, Online, November 2020. Association for Computational Linguistics. [13] Xinyu Zhao, Shih-Ting Lin, and Greg Durrett. Effective distant supervision for temporal relation extraction. In Proceedings of the Second Workshop on Domain Adaptation for NLP, pp. 195203, Kyiv, Ukraine, April 2021. Association for Computational Linguistics. [14] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Yoshua Bengio and Yann LeCun, editors, 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. [15] Takuya Akiba, Shotaro Sano, Toshihiko Yanase, Takeru Ohta, and Masanori Koyama. Optuna: A next-generation hyperparameter optimization framework. In Proceedings of the 25rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 2019. [16] Tsu-Jui Fu, Peng-Hsuan Li, and Wei-Yun Ma. GraphRel: Modeling text as relational graphs for joint entity and relation extraction. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1409-1418, Florence, Italy, July 2019. Association for Computational Linguistics. [17] Fenia Christopoulou, Makoto Miwa, and Sophia Ananiadou. Connecting the dots: Document-level neural relation extraction with edge-oriented graphs. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 4925-4936, Hong Kong, China, November 2019. Association for Computational Linguistics. [18] Guoshun Nan, Zhijiang Guo, Ivan Sekulic, and Wei Lu. Reasoning with latent structure refinement for document-level relation extraction. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1546-1557, Online, July 2020. Association for Computational Linguistics. [19] Kohei Makino, Makoto Miwa, and Yutaka Sasaki. A neural edgeediting approach for document-level relation graph extraction. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 2653-2662, Online, August 2021. Association for Computational Linguistics. [20] Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. Dropout: a simple way to prevent neural networks from overfitting. The Journal of Machine Learning Research, Vol. 15, No. 1, pp. 1929-1958, 2014. [21] James Bergstra, Rémi Bardenet, Yoshua Bengio, and Balázs Kégl. Algorithms for hyper-parameter optimization. In J. Shawe-Taylor, R. Zemel, P. Bartlett, F. Pereira, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems, Vol. 24, pp. 2546-2554. Curran Associates, Inc., 2011. [22] Liam Li, Kevin Jamieson, Afshin Rostamizadeh, Ekaterina Gonina, Jonathan Ben-tzur, Moritz Hardt, Benjamin Recht, and Ameet Talwalkar. A system for massively parallel hyperparameter tuning. In I. Dhillon, D. Papailiopoulos, and V. Sze, editors, Proceedings of Machine Learning and Systems, Vol. 2, pp. 230-246, 2020 . ## 付録 ## A チューニングの詳細 モデルの学習時には正則化のためにドロップアウト [20] を加える. ドロップアウトは入力 $\boldsymbol{X}$, 出力層の前の $\boldsymbol{v}_{i j}$ に対するもの,それ以外の隠れ層全てに対するものの 3 種類に分けて,それぞれのドロップアウト率をハイパーパラメタとする.チューニング時には提案したモデルに追加して,EE の代わりに順次的な編集 [19] を反復的に行えるように, $d_{\text {max }}$ というパラメタを追加し,$d_{\text {max }}=1$ の場合には $\mathrm{EE}$ と同一, $d_{\text {max }}>2$ の場合には文内の節点ペア,隣接文の節点ペアと徐々に離れたものを順次的に編集できるようにした.また,アンサンブルについては, どの反復を重要視して優先的に利用するか重みづけできるパラメタとして, $\sum_{k=1}^{K} w_{k}$ の条件で $k$ 番目の反復の重みを $w_{k}$ とした. 重みづけを利用する場合は,例えば平均でのアンサンブルは学習可能な重みを利用した重み付き平均に変化する。 ハイパーパラメタチューニングは Optuna [15]を用いて,枝刈りされたものも含めて 1,000 回の試行で開発データに対する $\mathrm{F}$ 値が最大となるパラメタを探索した。パラメタのサンプリングには木構造 Parzen 推定 [21], 探索の枝刈りアルゴリズムは論文中のパラメタを $s=1, \eta=2, r=0.15$ とした Successive Halving アルゴリズム [22]を利用した. チューニングは複数のマシンで分散して行い,NVIDIA 社の GTX 1080Ti,RTX 3090,Tesla V100,TITAN V の GPU が搭載されたマシンを利用した. 探索空間とチューニングによって得られたパラメタは表 3 に示した. チューニングしたパラメタは表の上から, Adam の学習率, 3 種類のドロップアウト率, $\mathrm{RGCN}$ の層の数 $L, \mathrm{RGCN}$ に逆方向の辺を追加する双方向 RGCN とするかどうか, 全体的な隠れ層の次元数, 編集前の辺の埋め込み $u_{i j}$ の次元数, 反復回数 $I$, アンサンブルの種類, アンサンブルの重み $w_{k}$ の有無,アンサンブルの損失の重み $\lambda, \theta$ および順次的な編集の順次毎の $\theta$ をすべて同じものにするかどうか,順次の最大値 $d_{\text {max }}$ の計 15 個である. チューニングの結果から,順次的な編集は必要なく,すべての辺を同時に繰り返し編集する方がよいということが確認できた.表 3 ハイパーパラメタチューニングの探索空間と結果 & 平均値 \\ ## B Ablation study 性能向上がモデルの何に起因しているのか確認するために,表 2 に示したようなアブレーションを行った. アブレーションは最も高い性能を示した Wen と Ji+GIEE に対して行った. また,別途入力に完全に正解を与えた場合(Gold)についても検証した. アブレーションにおいても 3 回実験を行った際の平均の $\mathrm{F}$ 值で評価した. まず反復回数 $I$ を減らした場合には,全ての場合に対して開発・評価ともに僅かに性能が低下していることが確認できる。編集前の辺の埋め込み $u_{i j}$ を消去した場合には編集前と比べても性能が大きく低下しており,編集前の情報を損なわないために重要な役割であると確認できる. アンサンブルの損 にはどちらも評価データに対する性能が低下しており,この損失の必要性が確認できる. RGCN の層の数 $L$ については,グラフの構造情報が欠損する $L=0$ のケースにおいては編集前より性能が低下している. $L=1$ としたケースでも依然として性能が低いままである。また, Gold の場合では完全に入力を再現できており,入力を完全に保持することが可能であると確認できた. 以上の結果から,我々の提案に大きく寄与しているのは,編集前の入力グラフを保持する機構とグローバルに関係間の関係性を考慮する点で,既存手法に対して関係間の関係性を導入する重要性が確認できる.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C4-5.pdf
# Improving Medical Relation Extraction with Distantly Supervised Pre-training Zhen Wan Fei Cheng Zhuoyuan Mao Qianying Liu Haiyue Song Sadao Kurohashi Kyoto University \{ZhenWan, zhuoyuanmao, ying, song\}nlp.ist.i.kyoto-u.ac.jp \{feicheng, kuro\}i.kyoto-u.ac.jp } \begin{abstract} Relation extraction (RE) is used to populate knowledge bases that are important to many applications. Traditional RE task largely relies on the sufficiency of labeled training data, but for medical domain relation extraction, it is costly and time-consuming to construct large labeled training data. Meanwhile, there are many available unlabeled medical corpora. To utilize both the abundance of raw corpora and the accuracy of annotated datasets, we propose a two-stage framework to pre-train models on an intermediate task for improving the target RE task performance. In the first stage, we also introduce a distant supervision based method to construct the training data for the intermediate task. The empirical results suggest the proposal significantly improve the target RE task. \end{abstract ## 1 Introduction Relation extraction is the task of extracting semantic relationships from a text. Such a relationship occurs between one or more entities of a certain type (eg: person, organization) and belongs to a particular semantic category (eg: date of birth, employed by). Consider the sentence "Joe Biden in the president of America" in figure 1. Here, the relation "president of" connects the subject entity "Joe Biden" to the object entity "America". Relation extraction has many applications in information extraction, creating or extending knowledge bases, automatically annotating structured information found in text and recently, in evaluating the factual consistency of abstractive text summarization. With the recent advance of deep learning, neural relation extraction (NRE) models (Baldini Soares et al [1];Zeng et al [2];Zhang et al [3]; Chen et al [4]) have achieved the latest state-of-the-art results and some of them are even comparable with human performance on several public RE benchmarks. Figure 1 An example for relation extraction to identify relationship between entites mentioned in the text. However, The success of NRE models on current RE benchmarks largely relies on the sufficiency of training data, but manual annotation is costly and time-consuming in specific domain, such as medical relation extraction. In this case, the insufficient amount of training data may be the reason that hinders the good results of relation extraction tasks. Meanwhile, although The labeling of medical datasets is a complex problem, there are many available unlabeled medical texts. The existence of such rich raw corpora makes us wonder: Can we utilize large raw corpora to improve RE on annotated datasets ? In this article, we propose a two-stage fine-tuning framework for solving this question. In the first stage, we pretrain models on an intermediate task with weak supervision extracted from large raw corpora, and then in the second stage, we can further fine-tune the output trained models on the original annotated dataset, which is our target relation extraction task. Through such a framework, we can both take advantage of the abundant data brought by distant supervision (DS) and maintain the accuracy brought by manual annotation data. The idea of a pre-training and fine-tuning framework has been a new trend in the relation extraction field (Peng et al [5], Robert Ormandi et al [6]). The recent work Contrastive Pre-training (CP) by Peng et al [5] has confirmed the effectiveness of the pre-training stage to improve the final target relation extraction task. In their work, they first generate a dataset from Wikipedia data by distant supervi- sion and use this constructed dataset as a pre-training step. Given a triplet in the knowledge base (KB) containing a particular entity pair and their corresponding relation type, any sentence from the raw text sharing the same two entity pairs at the same time will be extracted and labeled the corresponding relation type as shown in figure 2. As for the second fine-tuning stage, Peng et al [5] further fine-tune the model on various target datasets to figure out whether the pre-training step can improve the final performance of the relation extraction task on each dataset. There are two limitations of their framework. 1) The intermediate pre-training data extracted from wikipedia has a different domain from multiple target datasets. This inconsistency between two stages may lead to unreliable influence on the target task. 2) KBs are not always available in a specific domain, such as the medical domain. Instead of relying on an existing $\mathrm{KB}$, we propose to induce a triplet set from the target manual annotated dataset so that we can generate a distantly supervised dataset for pre-training. In this way, we can ensure consistency between the two steps and avoid the lack of available KBs in the medical domain. In the section 3, we will introduce the details to construct the distantly supervised dataset, and to use two state-of-the-art (SOTA) distant supervision approaches in the pre-training stage. Then in section 4 , we will implement experiments to figure out whether the pre-training stage can improve the final target relation extraction task. Figure 2 A distant supervision example, from the triplet in the $\mathrm{KB}$, we can align entity pairs with relation to the text to construct a labeled instance. Generally, we summarize our contributions as follows: - We introduce a two-stage framework by leveraging the intermediate task in the first stage to improve the target relation extraction task in the second stage. - We construct intermediate medical RE dataset distantly supervised by the triplets derived from the manual target data, which can serve various future applications. ## 2 Related Work With awareness of the existing DS noise, Surdeanu et al [7]introduces the multi-instance learning (MIL) framework to distantly supervised relation extraction (DSRE) by dividing training instances into several bags and using bags as new data units. Regarding the strategy for selecting instances inside the bag, the soft attention mechanism proposed by Lin et al [8] is widely used for its better performance than the hard selection method. The ability to form accurate representations from noisy data makes the MIL framework soon become a paradigm of following-up works. More recently, Chen et al [9] argues that the longstanding MIL framework can not effectively utilize abundant instances inside MIL bags, they propose a novel contrastive instance learning (CIL) method to boost the distantly supervised relation extraction (DSRE) model performances under the MIL framework. In detail, they regard the initial MIL framework as the bag encoder, which provides relatively accurate representations for different relational triples. Then they develop contrastive instance learning (CIL) to utilize each instance in an unsupervised manner: In short, the goal of their CIL is that the instances sharing the same relational triples (i.e.positive pairs) ought to be close in the semantic space, while the representations of instances with different relational triples (i.e.negative pairs) should be far away. They achieve dramatic improvement on various benchmarks, but as it is a MIL-based method, the reliability of MIL strategy and the noise in DS data still constrain the RE task performance. In order to reduce the influence of noise labeling in the DS part, another recent work CP [5] has removed the MIL loss in their pre-training stage on DS data, the objective function only focuses on contrastive learning loss to avoid the noise labeling. Their final results on target fine-tuning datasets confirm the effectiveness of the contrastive learning loss in pre-training step. ## 3 Proposed Method In this section, we first present an overview of our proposed approach in Section 3.1 and then detail our approach in Section 3.2, 3.3. Table 1 Statistics of i2b2 2010VA, \# Rel denotes the number of relation types. \# Train, \# Dev, \# Test denote the number of instances in train, dev and test. ## 3.1 Overview The traditional supervised relation extraction task is based on a human-annotated dataset. However, with the large corpora as external knowledge, the task now starts from an annotated dataset, then extracts proper sentences from raw corpora by distant supervision, and uses this generated dataset as a pre-training step to improve the relation extraction task on the original annotated dataset. We show the overview of our proposal in the figure 3. ## 3.2 External Datasets Construction i2b2 2010VA shared task collection consists of 170 documents for training and 256 documents for testing, which is the subset of the original dataset [10]. The dataset was collected from three different hospitals and was annotated by medical practitioners for eight types of relations between problems and treatments. This is our final target dataset, and to construct a knowledge base for distant supervision, normally, we can randomly select two entities from the i2b2 2010VA dataset and combine them with their labeled relation type to generate a triplet. However, this random strategy may involve too many entity pairs, including cross sentence pairs whose relation types are hard to confirm. To make the task more realistic, we will focus on each sentence. First, extract all entities in the particular sentence, and if any two of them are labeled a relation type, they will generate a triplet with a particular relation. Otherwise, they will still generate a triplet but labeled NA (no relation) Normally, we can randomly select two entities from the annotated dataset and combine them with their labeled relation type to generate a triplet. However, this random strategy may involve too many entity pairs, including cross sentence pairs whose relation types are hard to confirm. To make the task more realistic, we will focus on each sentence. First, extract all entities in the particular sentence, and if any two of them are labeled a relation type, they will generate a triplet with a particular relation. Other- Table 2 Statistics of DS dataset from MIMIC-III, \# Triplets denotes the number of triplets in the KB generated from i2b2 2010VA, and NA denoted no-relation triplets. wise, they will still generate a triplet but labeled NA (no relation). For example, After constructing the knowledge base, we can extract valuable sentences from raw text based on each triplet in the KB. The strategy here is a standard distant supervision method as in Introduction. To balance the number of sentences extracted by each triplet, we also add an upper bound to the number of extracted sentences. As i2b2 2010VA is a medical domain dataset, for the purpose of consistency, we then choose MIMIC-III ( 'Medical Information Mart for Intensive Care' ) as the raw text to extract sentences. MIMIC-III is a large, single-center database comprising information relating to patients admitted to critical care units at a large tertiary care hospital. Data includes vital signs, medications, laboratory measurements, observations and notes charted by care providers, fluid balance, procedure codes, diagnostic codes, imaging reports, hospital length of stay, survival data, and more. The database supports applications including academic and industrial research, quality improvement initiatives, and higher education coursework. ## 3.3 Two-Stage Framework Pre-training Stage The goal of the pre-training step is both to utilize extracted sentences from large raw corpora and to avoid noise in the distant supervision method. We leverage two introduced SOTA contrastive learning methods (CIL, CP) to solve the first-stage distant supervision pre-training. CIL use bag-level information to construct postive and negative pairs for contrastive learning, and $\mathrm{CP}$ instead focuses on relation-level information to construct positive and negative pairs. Fine-tuning Stage After the pre-training step, the output model will be regarded as the input model in the final fine-tuning (FT) step, here we treated the relation extraction task as a sentence classification by replacing two named entities in the sentence with predefined tags (e.g., @GENE\$, @DRUG\$) (Lee et al [11]). For example, we used “@CHEMICAL\$ protected against the RTI76-induced inhibition of @GENE\$ binding.” to replace Figure 3 Overview of our proposed approach. the original sentence "Citalopram protected against the RTI-76-induced inhibition of SERT binding." in which "citalopram" and "SERT" has a chemicalgene relation. The only difference is that the input model will be a pretrained language model for traditional relation extraction such as BERT, and the input model is the output model from the pre-training step for this task. ## 4 Experiment ## 4.1 Baselines Our task is to improve the RE on i2b2 2010VA dataset, and the fundamental baseline is to directly fine-tune (FT) language models on i2b2 2010VA without the pre-training step. At the same time, we choose two introduced SOTA methods, CIL [9] + FT and CP [5] + FT to utilize the pretraining step best. As for the experiment settings of CIL + FT and CP + FT, we follow the default hyper-parameters in their papers. The implementation of $\mathrm{CP}$ can be found on their website ${ }^{1)}$, and we also receive the codes for CIL from its author via email. We use both Bert-base-uncased [12] and the SOTA medical domain BlueBert [13] as the pre-trained language model to better evaluate the performance. ## 4.2 Results We summarize the model performances of directly finetuning and two-step models in the Table 3. From the results, we can observe that: (1) For both bert-base-uncased and the SOTA BlueBert, with the external pre-training step, both CIL and CP improve the final performance. (2) The  Table 3 Overall results. SOTA BlueBert can obviously improve the medical relation extraction task. (3) Compared with the CIL method, $\mathrm{CP}$ achieves a better result on final evaluation, we assume that as CIL is a MIL based framework, its MIL loss may include more noise generated from distant supervision, which somehow leads to a worse result in the final fine-tuning. ## 5 Conclusion We introduce a two-stage framework to improve the traditional medical relation extraction. Experiment results show that through this framework, we can benefit both from the abundance of training data by distant supervision and the accuracy of the human-annotated dataset. We also propose a method to generate a distantly supervised dataset from raw corpora based on the annotated dataset without relying on an exisiting $\mathrm{KB}$, which we can use for future purposes. ## References [1] Livio Baldini Soares, Nicholas FitzGerald, Jeffrey Ling, and Tom Kwiatkowski. Matching the blanks: Distributional similarity for relation learning. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 2895-2905, Florence, Italy, July 2019. Association for Computational Linguistics. [2] Daojian Zeng, Haoran Zhang, and Qianying Liu. Copymtl: Copy mechanism for joint extraction of entities and relations with multi-task learning. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, No. 05, pp. 9507-9514, Apr. 2020. [3] Ranran Haoran Zhang, Qianying Liu, Aysa Xuemo Fan, Heng Ji, Daojian Zeng, Fei Cheng, Daisuke Kawahara, and Sadao Kurohashi. Minimize exposure bias of seq2seq models in joint entity and relation extraction, 2020 [4] Zexuan Zhong and Danqi Chen. A frustratingly easy approach for entity and relation extraction. In North American Association for Computational Linguistics (NAACL), 2021. [5] Hao Peng, Tianyu Gao, Xu Han, Yankai Lin, Peng Li, Zhiyuan Liu, Maosong Sun, and Jie Zhou. Learning from context or names? an empirical study on neural relation extraction, 2020. [6] Róbert Ormándi, Mohammad Saleh, Erin Winter, and Vinay Rao. Webred: Effective pretraining and finetuning for relation extraction on the web. CoRR, Vol. abs/2102.09681, , 2021. [7] Mihai Surdeanu, Julie Tibshirani, Ramesh Nallapati, and Christopher D. Manning. Multi-instance multi-label learning for relation extraction. In Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, pp. 455-465, Jeju Island, Korea, July 2012. Association for Computational Linguistics. [8] Yankai Lin, Shiqi Shen, Zhiyuan Liu, Huanbo Luan, and Maosong Sun. Neural relation extraction with selective attention over instances. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2124-2133, Berlin, Germany, August 2016. Association for Computational Linguistics. [9] Tao Chen, Haizhou Shi, Siliang Tang, Zhigang Chen, Fei Wu, and Yueting Zhuang. CIL: Contrastive instance learning framework for distantly supervised relation extraction. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 6191-6200, Online, August 2021. Association for Computational Linguistics. [10] Özlem Uzuner, Brett R South, Shuying Shen, and Scott L DuVall. 2010 i2b2/VA challenge on concepts, assertions, and relations in clinical text. Journal of the American Medical Informatics Association, Vol. 18, No. 5, pp. 552-556, 062011. [11] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, and Jaewoo Kang. Biobert: a pre-trained biomedical language representation model for biomedical text mining, 2019 [12] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [13] Yifan Peng, Shankai Yan, and Zhiyong Lu. Transfer learning in biomedical natural language processing: An evaluation of bert and elmo on ten benchmarking datasets, 2019.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C5-1.pdf
# 多言語機械翻訳への言語類型論特徴の導入 平野 颯大内 啓樹渡辺 太郎 奈良先端科学技術大学院大学 先端科学技術研究科 \{hirano.hayate.hc2, hiroki.ouchi, taro\}@is.naist.jp ## 概要 本研究は多言語機械翻訳モデルの推論に対する説明性向上を目的として,言語類型論特徴をモデルに導入する方法を提案する。言語類型論は,各言語が共通してもつ特徴を探る言語学の一分野であり, 研究の蓄積はデータベースにまとめられている. 原言語文に言語類型論データベースから獲得した言語特徵を導入し, IWSLT17 の多言語翻訳データセット上で学習を行うことで,導入した言語特徴の寄与を明らかにした。 ## 1 はじめに 近年のニューラル機械翻訳モデルは主にエンコー ダ・デコーダの構成を取る。すなわち,原言語文の各単語をべクトル空間に埋め込み,中間表現にエンコード,目的言語の文にデコードするようにモデルを構成する。 多言語機械翻訳の目標の 1 つは,全言語の単語を同一の空間に埋め込むことにより,2 言語間における機械翻訳モデルと同程度のパラメータ数のみで高い翻訳性能を発揮するモデルを構成することである。すべての翻訳方向に対して同一のパラメータを学習することで,言語相互の知識を転移でき,2 言語間における機械翻訳モデルを上回る性能が得られることが報告されている $[1,2]$. それだけでなく,学習時に見られなかった言語対に対する翻訳, zero-shot 翻訳が可能となることが示されている. ここで,以上の有望な性質が言語の特性にどの程度影響されるのかは明らかにされていない. 本研究は目的言語を示すタグを原言語文に挿入することで,多言語機械翻訳を可能にした Johnson et al. [2] に着想を得て, 本研究は(1) 言語特性を擬似的に再現するようなタグの挿入方法を提案し(3.1 節),翻訳性能に悪影響を及ぼさないことを確認し; (2) 言語類型論データベースから得られた表現をタグに導入し (3.2 節),導入した言語特徴の寄与を明らかにした。 ## 2 関連研究 多言語機械翻訳のモデル設定は,翻訳言語間におけるパラメータの共有度合いによって分類できる。 Firat et al. [3] は浅いパラメータ共有モデル,すなわち言語ごとに個別の単語埋め込み,エンコーダおよびデコーダを持ち,全言語に対して共通した注意機構を持つモデルを提案した. このようなモデル構成は,2 言語間の機械翻訳モデルと同様に言語に固有のエンコーダ,デコーダを持ち,後述する深いパラメータ共有モデルと比べ各言語に対して翻訳性能を向上させることが容易である.しかしながら,モデルの構成上多数のモデルパラメータを持たざるを得ず,翻訳方向の増加に耐えうる構成でないことが課題である. Ha et al. [4] や Johnson et al. [2] は, 全ての翻訳方向に対してパラメータを共有する深いパラメータ共有モデルを提案し,2 言語間における機械翻訳モデルと同等のパラメータ数で多言語機械翻訳を実現した。ここで,50を超える言語を対象とした研究 [5] も進められているが,翻訳言語対の数に対して性能の向上が小さいことなど,翻訳データとモデルの関係について更なる調査が必要である。 言語類型論では言語の横断的な調査を行うことで,それらが類似性を持つことがあるのはなぜか,類似性はどの程度一般化が可能かを研究する.言語現象は construction および strategy という 2 軸で分析される [6]. construction は,特定の意味もしくは機能を表現するために利用される任意の言語の形態統語構造のことを指す. strategy は特定の形態統語構造の実現方法のことであり,言語横断的に有効な方法で形式的に定義される. 例えば,指示対象のカテゴリを叙述する方策として predicate nominal construction が定義できる. 英語では copura strategy が用いられ,copura は言語横断的に有効な定義が与えられている. 言語類型論研究の蓄積として,各 strategy と各言語での実現値はデータベースの形で整理が進んでいる. 本研究では,データベースで整理されている各言語における strategy の実現値のことを言語特徴と呼ぶ. ## 3 提案手法 ## 3.1 タグによる擬似的な言語特徴の導入 Johnson et al.[2] は,目的言語に対応するタグを原言語文に挿入した. <2de> How are you? -> Wie geht's? 上記の例は英語からスペイン語への翻訳を表しており,ドイツ語への翻訳であることを意味する<2de> がタグに当たる.この<2de>タグは,同時に学習を行っている他の言語, 例えばスペイン語と共通した言語特徴を持っていないという仮定を置く.実際にドイツ語では SOV 語順を取りうるが,スペイン語は取らず,「SOV 語順を取る」という状態を学習しうると仮定できる. このような仮定のもとで, 同時に学習を行う他の言語と共通する特徴を表現するタグを挿入する.例えば,英語 $\rightarrow$ ドイツ語 $(\mathrm{en} \rightarrow \mathrm{de})$,英語 $\rightarrow$ スペイン語 (en $\rightarrow$ es $)$, 英語 $\rightarrow$ フランス語 $( \mathrm{en} \rightarrow \mathrm{fr}$ ) の 3 方向での多言語翻訳を行う場合,以下のようなタグを挿入する. <2de> <de-es> <de-fr> How are you? -> Wie geht's? <2es> <de-es> <es-fr> How are you? -> ¿Cómo estás? <2fr> <es-fr> <de-fr> How are you? -> Ça va? この設定において, 英語 $\rightarrow$ ドイツ語の翻訳方向に関して,<2de>タグは他の翻訳方向には見られないものであり, 対象とする翻訳言語のうち特定の言語にのみ出現する特徴をシミュレートするタグである.これとは別に<de-es>および<de-fr>タグはそれぞれ英語 $\rightarrow$ スペイン語, 英語 $\rightarrow$ フランス語の翻訳方向にも挿入されているタグであり, 複数の言語で同一の特徴をシミュレートするタグである. すなわち,前述の仮説の上で<2de>は「SOV 語順を取る」という状態を学習でき,<de-es>はドイツ語およびスペイン語にあり,フランス語に無い特徴,例えば「主格・対格型の格標識を用いる」という状態を学習しうると考えることができる.このシミュレー ションでは, Johnson et al., [2] と同様に原言語文に夕グを挿入する方法でも,各タグが他の翻訳方向にも挿入されているために,翻訳方向の決定という観点では曖昧なものになる. ## 3.2 タグへの言語特徵の導入 本節では, 多言語機械翻訳モデルに言語特徴を導入する方法を説明する. 3.1 節と同様にタグを用いる点は同じであるが, <base> How are you? -> Wie geht's? 上記の例のようにすべての翻訳方向に対して同じタグ(ここでは<base>)を挿入する。そして,このベースとなるタグに対して言語類型論データベースから導出されたべクトル表現を組み込む.このべクトル表現の各要素は言語特徴に対応し, 例えば英語を例に取ると主要語順がSVO であることに対応する要素が 1 となり, 主要語順が SOV であることに対応する要素は-1 となるような対応が付けられている.また,言語類型論データベースには久損値が存在し,そのような要素は 0 と対応づけられる. 実際に埋め込み表現としてモデルに入力されるべクトルは以下の式 (1) で計算される. $ \boldsymbol{t}_{t y p}=\boldsymbol{v}_{\text {tgt }}^{\mathrm{T}} W+\boldsymbol{t}_{\text {base }} $ 埋め込みべクトルの次元数を $h$, 言語類型論データベースから導出されるべクトルの次元数を $t$ とする. $v_{t g t} \in \mathbb{R}^{t}$ は目的言語の言語特徴の組に対応するベクトル表現であり, $\boldsymbol{t}_{\text {base }} \in \mathbb{R}^{h}$ は<base>タグに対応する埋め込みべクトル,$W \in \mathbb{R}^{t \times h}$ は学習パラメー タであり, $\boldsymbol{t}_{t y p} \in \mathbb{R}^{h}$ が目的言語の言語特徴が導入されたタグのべクトルである. ## 4 実験および考察 ## 4.1 実験設定 実験には,系列モデリングのフレームワークである fairseq [7]を利用し, Vaswani et al. [8] における base の設定に対応する Transformerを用いた。 翻訳モデルの学習および,評価はすべて IWSLT 17 多言語翻訳データセット1)のイタリア語 (it), 英語 (en), オランダ語 (nl), ルーマニア語 (ro) が含まれる対訳文上で行った. データセットに含まれる文数を表 1 に示す. 4 言語すべてに共通して SentencePiece [9] によるサブワードへの分割を行い,語彙数は 8,000 とした. モデルのハイパーパラメー タの設定は Vaswani et al. [8] の base の設定に準拠しているが,パラメータのドロップアウトは 0.3 とし, 1) https://sites.google.com/site/iwsltevaluation2017/ TED-tasks 表 1 IWSLT17多言語翻訳データセットの対訳文数 学習はステップ数を決めるのではなく早期終了を実施した。 3 エポック連続で検証データでの損失が下がらなかった場合に学習を打ち切った。翻訳の生成時にはビーム幅 5 のビームサーチを用いた。 本研究では,以下のような設定で実験を行った。 ThreeDirections は,英語 $\rightarrow\{$ イタリア語,オランダ語, ルーマニア語\}の 3 方向で学習し, 同一の方向で翻訳モデルの評価を行うものである. SixDirections は英語 $\{$ イタリリ語,オランダ語,ルーマニア語 $\}$ の 6 方向で学習し,イタリア語 $\rightarrow$ オランダ語のように学習時に見られなかった zero-shot 翻訳方向について評価を行う設定である。また,擬似的な言語特徵を検証するために<2de><de-xx><de-yy>の全てのタグを挿入する設定を Tsim とし,言語を特定するタグく2de>を省いたものを TsimNoTarget と呼ぶ. 比較のために行う, Johnson et al. [2] と同様のタグ,すなわちく2de>を挿入する設定は Target と呼ぶ。.以上の 3 設定で示したタグはいずれもドイツ語への翻訳の場合であり,xx および yy は同時に学習を行うドイツ語以外の言語を表す. Tsim および TsimNoTarget は,いずれも言語特徴のシミュレーションを意図する点で共通しているが,TsimNoTarget は,特定の言語のみに対応する特徴を学習できない状況での実験設定である。また,<base>タグへの言語特徴の導入実験は Typ-insert と呼ぶ. Typ-insert において言語類型論データベースからのベクトル表現の導出には lang2vec [10] の wals_syntax 要素を利用した. wals_syntax 要素は, データベース World Atlas of Language Structures [11] から導出されたものであり,含まれる言語特徴は 103 種類である. 実験の精度評価はすべて BLEU で報告した. ## 4.2 実験結果 表 2 は ThreeDirections の実験結果を示したものである. 3 言語すべてにおいて TsimNoTarget で最も高い翻訳性能が得られた。 3.1 節で述べたように,表 2 ThreeDirections の実験結果 表 3 SixDirections の実験結果 Target と比較して Tsim および TsimNoTarget で挿入されるタグは,翻訳方向の決定という観点からは不利な設定であるため,これは直感に反する。また,表 3 に SixDirections の実験結果を示す. en $\rightarrow \mathrm{xx}$ もしくは $\mathrm{xx} \rightarrow \mathrm{en}$ と英語が含まれる翻訳方向は学習時に与えたものと同じ翻訳方向(supervised)であり,参考值として載せている. zero-shot,supervised のどちらにおいても Tsim, TsimNoTargetが Target と比較して高い翻訳性能を示した。表 2 および,表 3 の結果は,言語特徴をモデルに導入することで翻訳性能を向上することができる可能性を示している.ここで,表 3 から zero-shot 翻訳方向の性能が supervised 翻訳方向と比較して大きく劣ることが見て取れる。 BLEUにおける 1-gram の一致率を確認した結果,Supervised 翻訳方向では参照訳との 1-gram 一致率は平均で $60.7 \%$ であったのに比べ, zero-shot 翻訳方向では平均で $35.7 \%$ と低いことがわかった. ここで,文字 n-gram ベースの言語判別ツールである langdetect ${ }^{2}$ を利用して,本来の目的言語とは異なる単語をどれだけ出力してしまったかを検証した結果を表 4 に示す.この結果は,本研究と同様のデー タセットで実験を行っている Wu et al. [12] の結果と同様であり,zero-shot 翻訳方向でも Supervised 方向に匹敵するような翻訳性能を得るためには学習に用 2) https://github.com/Mimino666/langdetect 表 4 翻訳方向の誤り割合 $(\%)$ いる翻訳データセットのサイズが重要な要素であると考える。 最後に, 3.2 節で説明した類型論特徴の導入実験の結果を表 5 に示した. 言語特徵を導入した場合でも, Johnson et al.[2] のものと同等の翻訳性能が得られた. ## 5 おわりに 本研究は,言語に内在する共通性を探る言語学の一分野である言語類型論にて蓄積されたデータを多言語機械翻訳モデルに導入する方法を示した. 言語特徴をモデルに導入することで,説明性だけでなく翻訳性能を向上させうる可能性を示した. 今後は, モデルが言語特徴を推論により効果的に利用できる表現力の高い導入方法を検討したい. ## 謝辞 本研究は JSPS 科研費 JP20K23325 の助成を受けたものである. ## 参考文献 [1] Barret Zoph and Kevin Knight. Multi-source neural translation. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 30-34, San Diego, California, June 2016. Association for Computational Linguistics. [2] Melvin Johnson, Mike Schuster, Quoc V. Le, Maxim Krikun, Yonghui Wu, Zhifeng Chen, Nikhil Thorat, Fernanda Viégas, Martin Wattenberg, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google' s Multilingual Neural Machine Translation System: Enabling Zero-Shot Translation. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 339-351, 102017. [3] Orhan Firat, Kyunghyun Cho, and Yoshua Bengio. Multiway, multilingual neural machine translation with a shared attention mechanism. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 866-875, San Diego, California, June 2016. Association for Computational Linguistics. [4] Thanh-Le Ha, Jan Niehues, and Alex Waibel. Toward multilingual neural machine translation with universal encoder and decoder. In Proceedings of the 13th International Workshop on Spoken Language Translation, pp. 1-7, 2016. [5] Roee Aharoni, Melvin Johnson, and Orhan Firat. Massively multilingual neural machine translation. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3874-3884, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [6] William Croft, Dawn Nordquist, Katherine Looney, and Michael Regan. Linguistic typology meets universal dependencies. In TLT, pp. 63-75, 2017. [7] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of NAACL-HLT 2019: Demonstrations, 2019. [8] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [9] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [10] Patrick Littell, David R. Mortensen, Ke Lin, Katherine Kairis, Carlisle Turner, and Lori Levin. URIEL and lang2vec: Representing languages as typological, geographical, and phylogenetic vectors. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, pp. 8-14, Valencia, Spain, April 2017. Association for Computational Linguistics. [11] Matthew S. Dryer and Martin Haspelmath, editors. WALS Online. Max Planck Institute for Evolutionary Anthropology, Leipzig, 2013. [12] Liwei Wu, Shanbo Cheng, Mingxuan Wang, and Lei Li. Language tags matter for zero-shot neural machine translation. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 3001-3007, Online, August 2021. Association for Computational Linguistics.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C5-2.pdf
# タタール語におけるサブワード単位の言語識別を加味した キリル文字からラテン文字への翻字システムの開発 坂井優介*田口 智大*渡辺 太郎 奈良先端科学技術大学院大学 \{sakai.yusuke.sr9, taguchi.chihiro.td0, taro\}@is.naist.jp ## 概要 現代のタタール語におけるキリル文字からラテン文字への翻字は困難を極める.タタール語はロシア語との単語内でのコードスイッチングが含まれている影響で,単純な翻字規則だけではタタール語の翻字を行うことはできない。またタタール語は低資源言語であり,特にラテン文字で書かれたタタール語の文章の入手は極めて困難であるため,深層学習などの統計的手法の適用は現実的ではない. 本研究では,タタール語におけるサブワードレベルの言語識別に基づいた翻字システムを提案する。 サブワードごとにタタール語かロシア語かを判別する言語識別器を用意し, それに基づき特定された言語に応じて該当する翻字規則を適用することで翻字を行う. 提案手法では既存のタタール語の翻字システムより高い精度で翻字が行えることを示した。 ## 1 はじめに 現代のタタール語にはキリル文字とラテン文字の 2 種類の正書法が存在している。 タタール語由来の単語のみで構成された文の場合, 簡単な翻字規則に従って相互に書き換え可能であるが,現代のタター ル語には大量のロシア語の借用語が含まれており,文中でロシア語のフレーズ等に切り替わることがあるため,単純なタタール語の翻字規則のみでは正しく翻字することはできない1).よってタタール語とロシア語の単語にはそれぞれ異なる翻字規則を適用しなければならないが,ロシア語の単語にタタール語の接尾辞が付いている場合等において単語内でコードスイッチング(intra-word CS)が発生するためトークンごと或いは形態素ごとに言語を特定する必要があり, 形態素解析等が必要となる. また現代  のタタール語のテキストにはすでにロシア語の借用語が大量に含まれており,言語識別器等を作成するための純粋なタタール語のテキストを得ることは容易ではない.以上の理由からタタール語におけるキリル文字からラテン文字への翻字は困難を極める。 既存のタタール語の翻字システムはタタール語のみの翻字規則を適用しているか [1],ロシア語の借用語のための膨大なルールベースに基づいて対処している [2].このため,5 節の実験結果でも述べているように,前者のタイプの翻字システムではロシア語の単語をサポートしていないため翻字精度が低い。 また,後者のタイプではルールベースによりロシア語由来の単語についても翻字が行えるため翻字精度が高いが,依然としてある程度のロシア語由来の単語を正しく翻字できていない.よって厳密なルールベースの手法では全ての単語に対して逐次的・網羅的にルールを追加するための継続的な更新が必要であり,明らかに非現実的で非効率的である。 本研究ではタタール語におけるキリル文字からラテン文字へのシンプルで高精度な自動翻字システムを提案する。具体的にはタタール語とロシア語のそれぞれについて単純な翻字規則を用意し,文中の各サブワードに対してタタール語かロシア語か判別するための言語識別器を学習し, 各サブワードに対して識別された言語の翻字規則を適用することを繰り返すことでキリル文字からラテン文字に翻字する。 その結果,本研究の提案手法は既存手法より高い翻字精度を達成した. また,提案手法はタタール語の翻字規則のみを用いた場合より高い精度を示していることから提案手法がロシア語の形態素をある程度正しく予測し,翻字できることを示している。 ## 1.1 タタール語でのコードスイッチング タタール語におけるコードスイッチングの例として (1) にラテン文字での翻字と訳文を示す。下線部の класс (klass「学級, 学年」) はロシア語からの借 用語であり,ロシア語の音韻で発音されるため,ロシア語の翻字規則が必要となる. また, ロシア語からの借用語にタタール語の接尾辞が付くこともあり,単語内でのコードスイッチング(intra-word CS) が発生するため, この例ではタタール語の位置指定の接尾辞 -та(-ta「〜で」)が付いている. (1)Безнең класста кызлар сигезенчедән эчә башлаган иде. translit.: Bezneñ klassta qızlar sigezençedän eçä başlağan ide. “私たちのクラスでは,女子は八年生から飲み始めていた。 ## 2 関連研究 ## 2.1 コードスイッチング (CS) $\mathrm{CS}$ は口語的な言語現象であり CS がテキストに記録されることはほとんどないため, リソース不足が大きな難点となっている. 文献 [3] に出版時点での利用可能な CS データセットを列挙している. デー タセットの入手の容易さと整備済みのタスク等の観点からヒンディー語-英語 $[4,5]$, スペイン語-英語 [6,7], アラビア語の方言(アーンミーヤ)から現代標準アラビア語 [8] が CS の研究のトレンドとなっている. intra-word CS の翻字研究はドイツ語トルコ語,スペイン語-ウイチョル語 [9],オランダ語-リンブルフ語 [10], トルコ語-英語 [11] が存在しており,これらの手法は本研究と同様のアプローチをとっている. 本研究の手法との違いは Mager ら [9] は単語分割と言語識別に SegRNN [12]を採用していること, Nguyen ら [10] は形態素ごとの分割に Morfessor [13] を採用していることである. しかしサブワードごとの言語識別と翻字を組み合わせた本研究のタスクは行われていない。 ## 2.2 タタール語の翻字 現時点でタタール語のキリル文字からラテン文字への翻字には以下のサービスが利用できる. The Tatar Transcription Tool(TTT)[1] は Mari Web Project の一環としてウィーン大学がオンラインで公開している翻字サービスである. speak.tatar ${ }^{2}$ は匿名で開発された翻字サービスである. Aylandirow [2] はタタール語についての膨大なルールベースを基に翻字を行うシステムであり,タタール語由来の単語だけでなくロシア語由来の単語も広くカバーしている。  ## 3 提案手法 タタール語の翻字は単語を跨いだ翻字規則が無いため単語ごとに処理を行う3). はじめに,タタール語には intra-word CS が含まれていることを考慮し,各サブワードに対してロシア語かタタール語のどちらかを判別する言語識別器を作成する. 言語識別器を作成するためにタタール語とロシア語の 2 つの単言語コーパスを用意した. 現代のタタール語のテキストには CS を含まない純粋なタタール語のテキストは存在しない4)。そのため言語識別器の学習にはタタール語のテキスト内のロシア語の形態素のノイズを避ける目的でロシア語の借用語を含まない 1912 年に翻訳されたタタール語のコーラン5)(19,691 語,重複あり)とエジプトの宗教財産(Awqaf)省が翻訳したロシア語版コーラン6)(21,256 語,重複あり)を採用した。 言語識別器の学習プロセスは以下の通りである. まずデータセット内の単語を Byte Pair Encoding (BPE)[14] で文をサブワードに分割する.BPE は SentencePiece [15] 等のサブワード手法とは異なり,短いサブワード列の結合によって長いサブワードを形成していく性質から,全サブワードの集合に文字単位のサブワードが含まれており,全ての文をサブワード化できるので,OOV 問題を解決できる [16].今回のケースでは学習用の単言語データが乏しいため,BPE を採用して OOV 問題を回避した。またロシア語とタタール語の判別をしやすくするため,「長いサブワードはよりその言語の特徴を捉えたサブワードとなっている」という仮説のもと,BPE のアルゴリズムで結合できなくなるまでサブワードの結合操作を繰り返した. 得られたサブワードを基に fastText $^{7)}$ [17]を用いてサブワードごとの埋め込み表現を得る. 得られたサブワードの埋め込み表現に言語ラベルを付与し, fastText [17] で提供されている教師あり分類器 [18] で言語識別器を作成する ${ }^{8)}$. 3)ソースコード: https://github.com/naist-nlp/tatar_transliteration. デモンストレーションサイト: https://yusuke1997.com/tatar. 4)今回用意した評価用データセットには 8,466 語のうち 1,009 語に少なくとも 1 つのロシア語の形態素が含まれていた. 5) https://cdn.jsdelivr.net/gh/fawazahmed0/quran-api@1/editions/tatyakubibnnugman.json 6) https://cdn.jsdelivr.net/gh/fawazahmed0/quranapi@1/editions/rus-ministryofawqaf.json 7) https://github.com/facebookresearch/fastText 8) ハイパーパラメータとして次元数 16 , 文字 n-gram の最小值は 2,最大值は 4 である。損失関数には Hierarchical softmax を用いた. なおハイパーパラメータ等の設定は次の記事を参考にした. https://fasttext.cc/blog/2017/10/02/blog-post.html 表 1 検証用データ 700 文中,重複なし 5,261 語における翻字精度の比較結果 作成した言語識別器を用いて各サブワードの言語ラベルを予測する。ここで隣接する同じ言語ラベルのサブワードは可能な限り結合してょり長いサブワードにする.例えば 2 つの連続したサブワードの言語ラベルが両方ともタタール語である場合,それらは結合され,1つのタタール語の言語ラベルが付与される. 最後にそれぞれのサブワードは予測された言語ラベルの翻字規則に基づいてラテン文字へと変換され,1つの単語にまとめられて出力される. なお Mager ら [9] とは異なり本研究は深層学習によるアプローチを行っていない. Mager ら [9]のタスクがマルチラベリングなのに対して,本研究における言語識別タスクは低リソースの訓練データを用いた二值分類器であり,このタスクの達成のために深層学習の使用は高コストと判断したためである. ## 4 実験設定 性能評価のために Corpus of Written Tatar [19] からランダムに抽出した 700 文9)を手動でラテン文字のタタール語に翻字し, ネイティブスピーカーがチェックしたものを検証用データとして用意した. また,コーパス内のロシア語の形態素がタグ付けされるように,キリル文字のテキストにアノテー ションを施した. その結果, 検証用データにはロシア語の形態素が含まれる単語が 1,009 語(重複あり),intra-word CS が含まれる単語が 598 語(重複あり)含まれていた。評価指標は単語内の各文字に対して BLEU と LCS (Longest Common Sequence) F-measure,さらに単語全体の翻字精度 (ACC) ${ }^{10}$ を用いた。また単語として誤翻字した単語数も計測した. LCS F-measure と ACC の計算は Chen ら [20] を基にしている. 実験では提案手法(tt-ru hybrid)だけでなく,タタール語のみの翻字規則のみを用いた評価(tt-based)も行った. また既存手法との比較に  表 2 tt-based と tt-ru hybrid の誤翻字した単語数の比較 (重複なし)。 $V(T)$ は tt-based で誤翻字した単語の集合, $V(H)$ は tt-ru hybrid で誤翻字したの集合, $V(T) \cap V(H)$ は両方とも誤翻字した単語の集合, $V(T) \backslash V(H)$ は tt-based のみ誤翻字した単語の集合, $V(H) \backslash V(T)$ は tt-ru hybrid のみ誤翻字した単語の集合である。 表 3 ロシア語の単語と intra-word CS の単語における正しく翻字できた単語数の比較. ru words は検証用データ内のロシア語 1,009 語のうち,正しく翻字できた数と割合. CS words は 605 語のうち正しく翻字できた数と割合. speak.tatar,TTT,Aylandirowを用いた. ## 5 実験結果 表 1 に示した実験結果より,提案手法の $\mathrm{tt}-\mathrm{ru}$ hybrid が全ての評価指標において既存手法よりも高い精度となっている. ロシア語の翻字規則をサポー トしていない手法(特に speak.tatar,TTT)とロシア語の翻字規則をサポートしている手法(Aylandirow, $\mathrm{tt}$-ru hybrid)の間には評価値に差があり,特に BLEU スコアでは 0.1 ポイントの差があることがわかる. なおタタール語のみの翻字規則で作成した tt-based は同じタタール語のみの翻字規則をサポートした 2 つ翻字手法(speak.tatar,TTT)より全体的に高いスコアであった理由は 6 節で説明する. また同じロシア語の翻字規則をサポートした Aylandirow と比較すると tt-ru hybrid は BLEU で 0.01,ACC は 0.002 ポイント上回り, LCS F-score は同等であった. さらに誤翻字した単語数を比較すると Aylandirow は 526 語なのに対して tt-ru hybrid は 332 語と大幅に改善した。 ## 6 分析 tt-based はロシア語の翻字規則を適用していないのにも関わらず,タタール語のみの翻字規則をサポートした他の 2 つの手法より高いスコアである. これは,既存手法が現在のタタール語の翻字規則 & \\ 表 4 tt-ru hybrid が翻字に成功した例と失敗した例. 下線部の単語はロシア語の借用語における誤翻字の単語である. 上の文は tt-ru hybrid が下線付きの単語を正しく翻字できているのに対して,下の文は $\mathrm{tt}$-ru hybrid が下線の付いた単語を誤翻字し,tt-based が正しく翻字できた例である。なお,各手法における出力例の比較は補足の表 6 に示しておく. (2013Latin)に従っていないことに起因している11).例えば тәнкыйть(批判)という単語では,2013Latin では tänqit と訳されるべきところ,TTT では tänqit’ と訳される。実際,ラテン語の正書法を規定する機関が事実上存在していないため,インターネット上では様々な綴り方が見受けられる.従って,tt-based の高いスコアは正書法の一貫性に起因している。また,この点を考慮すると, tt-based と tt-ru hybrid の間でスコアが向上したことは,ロシア語の借用語の翻字に対応するためにサブワード単位で言語識別を行ったことが成功していることを意味している. 表 2 に tt-based と tt-ru hybrid について翻字ミスとなった単語数を示している.表 2 から tt-based で観測された誤りの単語のうち 336 語が tt-ru hybrid で正しく翻字されたことがわかる. 表 4 に tt-ru hybrid と tt-based を比較した際に tt-ru hybrid が翻字に成功した例と失敗した例を載せる。表 4 の上段の文中の закон と совет について, tt-based では zaqon と sowet に変換されて誤りとなっているが,tt-ru hybrid では zakon と sovet となり翻字に成功している。これらの単語はロシア語からの借用語であるため,言語をうまく識別できていることがわかる.しかし,表 2 に示したように, tt-based で正しく翻字できていた 116 単語については, tt-ru hybrid ではむしろ誤った翻字が行われていた. 表 4 の下段では,tt-ru hybrid では下線部の soklanıp が正しく翻字できていない一方で,tt-based では soqlanıp と正しい翻字結果になっている。これは,言語識別器が該当箇所のサブワー ドをロシア語として誤認識したためにロシア語の翻字規則が適用されたことが原因となっている. Aylandirow の LCS F-score は提案手法と同程度に高いスコアであるが,これは Aylandirow がロシア語の借用語のうち頻出するものをルールに記述して 11)本研究で用いた正書法は 2013 年に制定された最新かつ主流の正書法である(補足 A. 1 参照)。 いるためである。しかしこの手法は言語識別自体は行っていないため,全ての単語についてのルールを記述することはできない以上,カバレージ問題がつきまとう。例えば,Aylandirow ではロシア語の借用語である такси (taksi) がルールに含まれていないことで,taqsiへ誤翻字されることが確認された。 表 3 にロシア語との CS 単語に関する翻字性能の比較を示す. 表 3 よりロシア語の形態素を含む単語については,tt-ru hybrid が既存手法より良い精度で翻字できたことが確認できる ${ }^{12)}$ .特にロシア語の形態素に対して tt-ru hybrid は $78.1 \%$ , tt-based は $46.7 \%$ であることから,ロシア語を含む単語の翻字精度の向上が認められる.タタール語の中にロシア語の CS が恣意的に含まれることを考慮すると,ルールベースのシステムは数多く存在する未知のロシア語に対して柔軟な翻字を行うことができないが,言語識別器を用いた提案手法はどのロシア語の単語に対しても安定した性能を発揮することが期待できる. ## 7 まとめ 本研究ではタタール語におけるキリル文字からラテン文字への新しい翻字手法を提案した。ロシア語の借用語にはタタール語とは異なる翻字規則を適用されていることや intra-word CS が頻繁に起こっていることを考慮して提案手法ではサブワードごとに言語識別を行い,識別された言語ごとの翻字規則を適用して翻字を行った結果,既存の翻字サービスより優れた精度で翻字が行えた。本研究は言語情報に依存していないシンプルなアーキテクチャを採用しており,構文解析やPOS タグ付けなどの詳細な解析を必要としないため,intra-word CS が存在する他の低リソース言語にも適用できる可能性がある。 12) speak.tatar がロシア語の単語に対して最も良いスコアを出しているが,これは単に翻字規則がロシア語の単語に対してうまく機能するように設計されているからであり,対象的にタタール語の単語に対する精度は低いことが表 1 よりわかる。 ## 参考文献 [1] Jeremy Bradley. Tatar transcription tool, 2014. Available at: https://www.univie.ac.at/maridict/site-2014 [retrieved 28 March 2021]. [2] Dinar Korbanov. Aylandirow, n.d. Available at: http://aylandirow.tmf.org.ru [retrieved 29 March 2021]. [3] N. Jose, B. R. Chakravarthi, S. Suryawanshi, E. Sherly, and J. P. McCrae. A survey of current datasets for code-switching research. In 2020 6th International Conference on Advanced Computing and Communication Systems (ICACCS), pp. 136-141, 2020. [4] Abhishek Srivastava, Kalika Bali, and Monojit Choudhury. Understanding script-mixing: A case study of Hindi-English bilingual Twitter users. In Proceedings of the The 4th Workshop on Computational Approaches to Code Switching, pp.36-44, Marseille, France, May 2020. European Language Resources Association. [5] Pranaydeep Singh and Els Lefever. Sentiment analysis for Hinglish code-mixed tweets by means of cross-lingual word embeddings. In Proceedings of the The 4th Workshop on Computational Approaches to Code Switching, pp. 45-51, Marseille, France, May 2020. European Language Resources Association. [6] Elena Alvarez-Mellado. An annotated corpus of emerging anglicisms in Spanish newspaper headlines. In Proceedings of the The 4th Workshop on Computational Approaches to Code Switching, pp. 1-8, Marseille, France, May 2020. European Language Resources Association. [7] Daniel Claeser, Samantha Kent, and Dennis Felske. Multilingual named entity recognition on Spanish-English code-switched tweets using support vector machines. In Proceedings of the Third Workshop on Computational Approaches to Linguistic Code-Switching, pp. 132-137, Melbourne, Australia, July 2018. Association for Computational Linguistics. [8] Injy Hamed, Moritz Zhu, Mohamed Elmahdy, Slim Abdennadher, and Ngoc Thang Vu. Code-switching language modeling with bilingual word embeddings: A case study for egyptian arabicenglish, 2019. [9] Manuel Mager, Özlem Çetinoglu, and Katharina Kann. Subwordlevel language identification for intra-word code-switching. CoRR, Vol. abs/1904.01989, , 2019. [10] Dong Nguyen and Leonie Cornips. Automatic detection of intraword code-switching. In Proceedings of the 14th SIGMORPHON Workshop on Computational Research in Phonetics, Phonology, and Morphology, pp. 82-86, Berlin, Germany, August 2016. Association for Computational Linguistics. [11] Zeynep Yirmibeşoğlu and Gülşen Eryiğit. Detecting codeswitching between Turkish-English language pair. In Proceedings of the 2018 EMNLP Workshop W-NUT: The 4th Workshop on Noisy User-generated Text, pp. 110-115, Brussels, Belgium, November 2018. Association for Computational Linguistics. [12] Liang Lu, Lingpeng Kong, Chris Dyer, Noah A. Smith, and Steve Renals. Segmental recurrent neural networks for end-to-end speech recognition. In Proceedings of Interspeech 2016, Interspeech, pp. 385-389. International Speech Communication Association, September 2016. Interspeech 2016 ; Conference date: 08-09-2016 Through 12-09-2016. [13] Mathias Creutz and Krista Lagus. Morfessor in the morpho challenge. In PASCAL Challenge Workshop on Unsupervised segmentation of words into morphemes, 2006. [14] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [15] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neu- ral text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [16] Tamali Banerjee and Pushpak Bhattacharyya. Meaningless yet meaningful: Morphology grounded subword-level NMT. In Proceedings of the Second Workshop on Subword/Character LEvel Models, pp. 55-60, New Orleans, June 2018. Association for Computational Linguistics. [17] Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 135-146, 2017. [18] Armand Joulin, Edouard Grave, Piotr Bojanowski, and Tomas Mikolov. Bag of tricks for efficient text classification. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, pp. 427-431, Valencia, Spain, April 2017. Association for Computational Linguistics. [19] Mansur R. Saykhunov, R. R. Khusainov, T. I. Ibragimov, J. Luutonen, I. F. Salimzyanov, G. Y. Shaydullina, and A. M. Khusainova. Corpus of written tatar, 2019. Available at: http://www.corpus.tatar [retrieved 28 March 2021]. [20] Nancy Chen, Rafael E. Banchs, Min Zhang, Xiangyu Duan, and Haizhou Li. Report of NEWS 2018 named entity transliteration shared task. In Proceedings of the Seventh Named Entities Workshop, pp. 55-73, Melbourne, Australia, July 2018. Association for Computational Linguistics. [21] David M. Eberhard, Gary F. Simons, and Charles D. Fennig, editors. Ethnologue. SIL International, Dallas, Texas, 24th edition, 2021. Available at: http://www.ethnologue.com [retrieved 12 March 2021]. [22] Guzel A. Izmailova, Irina V. Korovina, and Elzara V. Gafiyatova. A study on tatar-russian code switching (based on instagram posts). The Journal of Social Sciences Research, Vol. Special Issue. 1, pp. 187-191, 2018. [23] National Council of the Republic of Tatarstan. O восстановлении татарского алфавита на основе латинской графики [on the restoration of the tatar alphabet based on the latin script], September 1999. Available at: http://docs.cntd.ru/document/917005056 [retrieved 28 March 2021]. [24] Boris Yeltsin. О языках народов Российской Федерации [on the languages of nations in the russian federation], 2020. First published in 1991, last amended in 2020. Available at: http://pravo.gov.ru. [25] National Council of the Republic of Tatarstan. Об использовании татарского языка как государственного языка Республики Татарстан [on the use of the tatar language as the national language of the republic of tatarstan], January 2013. Available at: http://docs.cntd.ru/document/463300868 [retrieved April 26, 2021]. [26] Aynur Akhatovich Timerkhanov and Gulshat Rafailevna Safiullina. Tatarça-inglizçä, inglizçä-tatarça süzlek: Tatar-English, English-Tatar dictionary. G. Ibragimov Institute of Language, Literature and Art, Kazan, 2019. ## A タタール語の言語学的な背景 タタール語(ISO 639-1 Code: tt)は,トゥルク語族キプチャク語群に属する言語で,主にロシア国内のタタールスタン共和国で話されている。話者数は約 500 万人と推定されている [21]. 一般的には語順は SOV の形をとるが,スクランブリングを伴う自由な語順を許容している。膠着語であり,格標示や動詞の屈折などは接尾辞によって導かれる。接尾辞は母音の後方性あるいは前方性が一貫して保たれる母音調和規則に従う,現代のタタール語は,ロシア語との言語接触の影響により,ロシア語の借用語を多く含んでいる。話者の多くはロシア語とのバイリンガルで,都市部に住む若い世代はタタール語よりもロシア語の方が得意な傾向にある。このようなバイリンガリズムは,特に口語での頻繁なコードスイッチング(CS)を引き起こしている[22]. ## A. 1 タタール語の正書法 現代のタタール語の正書法は,ロシア語の正書法の文字に 6 つの拡張キリル文字を加えたものが主流である.キリル文字のタタール語はロシア語圈に住むタタール人が主使用しており, トルコやフィンランドなど他の地域に住むタタール人はラテン文字を使用している。1928 年まではタタール語はアラビア文字で書かれていたが,1920 年代から 30 年代にかけてソビエト連邦で行われたラテン語化計画に伴い,タタール語にラテン文字の正書法であるヤンガリフ (yañalif)が導入された. その後,1939 年に政治的な理由によってヤニャリフはキリル文字に変更され,現在のタタールスタン共和国で公式に使用されるに至る。しかしり連崩壊後,ラテン文字正書法の復活を求める運動が再燃したため, 1999 年にタタールスタン共和国法により新しいラテン語文字正書法が採用された [23]. しかしながら,2002 年にロシア連邦法に「ロシアのすべての民族言語はキリル文字で書かなければならない」という新たな項目が追加されたことにより, この法律の効力はすぐに失ってしまった [24]. 現在のタタール語のラテン文字アルファベット(2013Latin)はテュルク語共通アルファベットをベースとしており,2013 年にタタールスタン共和国法で正式に採用され,タタール人のディアスポラコミュニティで使用されている [25]. 本稿で使用するラテンアルファベットは 2013Latin とし,キリル文字からラテン文字への変換の詳細な翻字規則は文献 [26] 亿記載されている。また表 5 にも簡易的な対応表を示す. 表 5 タタール語におけるキリル文字とラテン文字の対応表. NA (not applicable) は対応する文字が存在しないことを意味している。「一」はその文字が翻字において無視されることを意味している。 表 6 各手法の翻字結果の例. 上段 2 行はキリル文字で書かれた原文と翻字されたラテン文字のタタール語. 中段 3 行は先行研究の手法,下段はタタール語のみの翻字規則を適用した $\mathrm{tt}$-based と提案手法の $\mathrm{tt}$-ru hybrid の翻字結果である.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C5-3.pdf
# Neural Machine Translation における相対的意味論による訳文選択 村上 仁一 鳥取大学工学部 murakami@tottori-u.ac.jp ## 概要 現在,機械翻訳においては,Neural Machine Translation(以後 NMT)が盛んに研究されている. しかし,まだ,人手による翻訳性能には及ばない. 本論文では,機械翻訳における大きな問題点として,要素合成法の問題をしめす。次に,要素合成法の問題点からみた,NMT の問題点を示す。また,相対的意味論の原理について述べる. そして. この原理に従って,NMT の訳文を選択する“相対的意味論に基づく統計機械翻訳 (RSMT)” の概要について述べる. 最後に,RSMT の翻訳性能について述べる。 ## 1 はじめに 現在,機械翻訳においては,NMT が盛んに研究されている。そして,翻訳性能も高い。しかし,まだ,人手による翻訳性能には及ばない。 本論文では,始めに,機械翻訳における大きな問題点として, 要素合成法の問題をしめす. 要素合成法の問題とは,個々の単語を翻訳して文を組み合わせても,翻訳品質は高くならないことである。この問題は,機械翻訳の研究者の間では,認知はされてきたが,大きく取り上げられることは少なかった. 次に,要素合成法の問題点からみた,NMT の問題点を示す. NMT は,基本的には翻訳精度が高い。しかし,要素合成法の問題点からみた場合, 問題を含むモデルになっている. 次に,相対的意味論の原理について述べる.この原理とは “A が B ならば $\mathrm{C}$ は D” と考える意味論である. 基本的には,類推推論である。そして,ABCD は文である. 次に,この原理に基づいた,“相対的意味論に基づく統計機械翻訳 ( 以後 RSMT), の概要について述べる. この翻訳方法は,複数の NMT からの出力を,相対的意味論の原則に従って訳文選択をする方式である。相対的意味論の原則に沿うことで,要素合成法の問題点を軽減できる。 最後に,実験に基づいて RSMT の翻訳性能について述べる.この実験の結果 RSMT はNMT と比較して, 翻訳性能が大きく向上していることを示す. ## 2 翻訳における要素合成法の問題 ## 2.1 要素合成法の問題 池原 [1] らの主張する “要素合成法の問題”を以下に示す.この問題は,影響の大小はあるが,すべての翻訳システムに存在する。 1. 文を翻訳するとき,個々の単語を翻訳しても,文の意味としては,間違った翻訳になることが多い。 2. つまり,個々の単語を翻訳して文を組み合わせても,翻訳性能は低い。 3. 翻訳性能を向上させるには,文全体の意味を考慮して翻訳する必要がある。 以下の例文は,要素合成法の問題点を示す典型的な例である. ・入力文彼女は我を通した。 $\cdot$出力文(翻訳文) She passed me. - 参照文 She had her own way . 一般的に“通す”は “pass”と “我”は”"me”と訳すことが多い。しかし,文全体の意味を考えると,明らかに間違った訳出になる。 ## 2.2 NMT と要素合成法の問題 NMT は,構造的にみると,元言語の単語から目的言語の単語に変換している. 従来のルールベース翻訳におけるピボット翻訳や単語に基づく統計翻訳に,類似している.1) そのため, 要素合成法の問題を内在している。そこでNMT の翻訳性能を向上されるために,NMT における要素合成法の問題を緩和する方法を組み合わせる.具体的には,文全体を考慮した翻訳方法を NMT に組み込むことである. ## 3 要素合成法の問題を緩和する方法 文全体を考慮した翻訳方法を,NMT に組み込むための,要素を以下に述べる。 ## 3.1 相対的意味論に基づく翻訳 相対的意味論とは,“Aが Bならば $\mathrm{C}$ は $\mathrm{D}$ ”と考える方法である。類推推論に近い。これを日英翻訳に適用したときの基本的な概念を述べる. ・Aが B ならば C はDになる. ・ただし A,B,C,D は文 $\mathrm{A}$ 対訳学習文の日本文 B対訳学習文の英文 C入力日本文 1) 個人的には,この構成で,高い翻訳精度を得ていることに,驚きすら感じる。 D出力英文(翻訳文) -A と Cは日本語において類似 -A と B は日英翻訳と英日翻訳において類似 ・B とDは英語において類似 ・C とD は日英翻訳と英日翻訳において類似 以下に例を述べる。 A私は林檎が好きだ BI like an apple Cショウジョウハエは林檎が好きだ DFruit flies like an apple この例では,以下のように解釈する。 1. “私は林檎が好きだ”と“ショウジョウ八エは林檎が好きだ”は類似している。 2. “私は林檎が好きだ”に対する “I like an apple”の翻訳確率は高い. 3. “ショウジョウハエは林檎が好きだ”に対する “Fruit flies like an apple"の翻訳確率は高い. 4. "I like an apple" と "Fruit flies like an apple" は類似している. 5. 以上 4 点を考慮して,“ショウジョウ八エは林檎が好きだ”を入力文としたとき,"Fruit flies like an apple" が翻訳文になる. “Fruit flies like apple”(ショウジョウハエはリンゴが欲しい?)とは訳さない。 ## 3.2 NMT と相対的意味論 NMT を,相対的意味論的に考えると,"A"と"B”が複数ある場合の"C"と"D” の関係として捕らえることが可能である。NMT における対訳学習文の日本文は”A”で英文は”B”に相当する。 入力文は”C"で,D は出力文(翻訳文) である.例を以下に示す.対訳学習文を 2 文とする。 $A_{1}$ 彼は山にいった. $B_{1}$ He went to mountain $A_{2}$ 彼女は海にいった $B_{2}$ She went to sea C彼は海にいった $D$ He went to sea この例では以下のように考える。 “彼は山にいった. ”と“He went to mountain”, と“彼女は海にいった”と “She went to sea”が,存在するから,“彼は海にいった”は “He went to sea”と翻訳できる。 この考え方は,NMTにおいて,複数の対訳学習文から, 和策 NMT は,複数の対訳学習文から,出力文(翻訳文)を得ていると考えることができる。これは,翻訳文は,多くの対訳学習文から類推される単語で構成されていると考えることができる.これが,NMT における要素合成法の問題を引き起こす。そこで,この問題を軽減させるために,翻訳文は,学習文中に類似文があると仮定する.これにより, 要素合成法の問題を低減できる. 以下に,その方法を述べる。 1. NMT と乱数 NMT は EM 推定法である。そして,勾配問題を解決するためと,局所的な最適化を防ぐために,乱数を利用している.そのため,乱数の初期値によって,翻訳結果が異なる。しかし,NMT の翻訳確率が高い出力文は,基本的には,翻訳精度が高い。 2. 相対的意味論を用いた訳文選択 複数の翻訳文から,相対的意味論を用いて,最終的な出力文(翻訳文)を選択する。相対的意味論は, “A が B ならば C はD”と表現できる. ここで, C と $\mathrm{A}$ の類似度と, $\mathrm{C}$ との翻訳確率と, $\mathrm{D}$ と $\mathrm{B}$ 類似度と,A と B の翻訳確率を組み合わせて,最適な訳文を選択をする. ## 4 提案する RSMT のフローチャート 本章では,3.3 節の考察に基づいて,RSMT を提案する。提案手法の基本的な考え方は,相対的意味論(A が B ならば C はD)の構造を,可能な限りNMT に保持する.以下に RSMT の具体的なフローチャートを示す. 基本的には,訳文生成と訳文選択の 2 つに別れる. 1. 訳文生成 (a) 複数の NMT による訳文出力 $D_{a}$ NMT は局所的な最適化を防ぐために,乱数を利用している. そのため, 乱数の初期値によって,翻訳結果が異なる。そこで,類似文を複数定義して,複数の NMTを学習する。そして,複数の翻訳文を得る。 (b) NMT における N-best 出力 $D_{b}$ NMT は,複数の訳文を出力できる.そして,最もよい翻訳文は,常に最上位にくるとは,限らない。そこで 1 つの NMT において N-best の出力を得る. 2. 訳文選択 訳文選択は 4 つの段階を得て行う。 (a) 単語の一致率を利用した類似度による選択 $D_{c}$上記の入力文と出力文 (C と D) において, 対訳学習文の日本文と英文(A と B)との類似度を計算する。この類似度は,大量の対訳学習文を計算するため,単語の一致度で計算する(??節参照)。つまり (Cと A) および (D と B)の単語の類似度で計算する。そして,枝刈りをして,出力文を選出する.この過程において,1出力文ごとに A が B ならば C はD の構成を得る. この選択は, A と C の類似確率および B と D の類似確率を利用して,出力文を選択していることを意味する。 (b) NMT の翻訳確率を利用した選択 $D_{d}$上記の出力文 $D_{c}$ から, NMT の翻訳確率を用いて訳文選択をおこなう。この選択は, Cと D の翻訳確率を利用して,出力文を選択していることを意味する。 (c) word2vec を利用した類似度による選択 $D_{e}$上記の出力文 $D_{d}$ において, Word $2 \mathrm{vec}$ の類似度を用いて訳文選択をおこなう.具体的には, (Cと A) および (D と B) の類似度を word2vec を利用して,枝狩りをおこなう(??節参照)。この選択は,A と C の類似確率および B と D の類似確率を利用して,出力文を選択していることを意味する。 (d) PMI による翻訳確率による選択 $D_{f}$ NMT は非線形推定であるため, 翻訳確率において異常値を出力することがある.そこで,線形性を保持した翻訳確率を用いて,訳文選択を おこなう。具体的には,(C と A)および (D と B) の翻訳確率を単語の翻訳確率の PMIを利用して,枝狩りをおこなう(??節参照)。これが最終的な翻訳の尤度となる。 ## 5 翻訳実験 ## 5.1 実験条件 提案した RSMT の翻訳実験を行った. 比較のために, NMT の出力と比較した.実験条件を以下に示す. 表 1 実験データ 使用した NMT は, OpenNMT Ver2.1.2である.その他の学習パラメータは, defaultを利用した。 ## 5.2 実験結果 評価は,人手評価および自動評価で,ともに 100 文で行った. 人手評価は,提案手法 (RSMT) と OpenNMT(NMT) で対比較試験を行った. 評価者は 8 名(学生)である. この結果を以下に示す。 表 2 人手評価 100 文 なお,出力文が一致する文 $(R S M T=N M T)$ は 16 文存在する。 評価は, RSMT $\approx$ NMT の文においてバラツキが見られる.しかし, 合計値を見ると, RSMT > NMT が 229 件 NMT $>$ RSMT が 169 件となった.また,被験者全員 (8名) は,100 文において,RSMT >= NMT となることを示した. よって,RSMT の有効性が示された. 自動評価の値を以下に示す. 表 3 自動評価 100 文 これらの結果から,提案方法が NMT と比較すると,優れていることがわかる. ## 5.3 RSMT の出力例 以下に RSMT の具体的な出力例を示す. C は入力文で, $\mathrm{D}$ は出力文(翻訳文)である。A は類似した対訳学習文 (日本文)で,B は類似した対訳学習文(英文)である。D および Cの下添字は, $N$-bestを意味する。 - $D_{x-r e f}$ 参照訳 - $D_{x}$ におけるカッコ内の数字最終的な数値(word2vec を利用した類似度 $\times$ PMI による翻訳確率) - $D_{x}$ における (NMT) NMT の出力 $C_{1}$ 信号が青より赤に変わった。 $D_{1 \text { ref }}$ The signal changed from green to red . $D_{1}$ The signal changed from green to red .(11.693840) $A_{1}$ 信号が青から赤にぱっと変わった。 $B_{1}$ The traffic light jumped from green to red. $D_{1}$ The traffic light turned red than blue . (NMT) $D_{2}$ The signal turned red to red . (10.177000) $A_{2}$ 信号が青から赤にぱっと変わった。 $B_{2}$ The traffic light jumped from green to red . $D_{2}$ The signal turned red to red . (NMT) 一般的には,“より” “ “than”と訳される。そのた め, 通常の NMT では “than” と訳される.これが要素合成法の問題である. しかし, RSMTでは, 正解文 “The signal changed from green to red” が得られた. なお,入力文を“信号が青から赤に変わった。”とすると,通常のNMTでも正解が得られる。 $C_{2}$ 私は電車事故で足留めを食った。 $D_{2 r e f} \mathrm{I}$ was stranded as a result of the train accident $D_{1}$ I was stranded in the train accident . (-2.946399) $A_{1}$ 今朝、私は電車の事故で学校に遅刻した。 $A_{1} \mathrm{I}$ was late for school this morning due to a train accident. $D_{1}$ I was horse-collared in the train accident . (NMT) $D_{2}$ I was injured in a train accident . (-4.559319) $A_{2}$ 今朝、私は電車の事故で学校に遅刻した。 $B_{2} \mathrm{I}$ was late for school this morning due to a train accident. $D_{2} \mathrm{I}$ was gloating in the train accident. (NMT) “足留めを食う”は,慣用句表現である。この例では,RSMT は正確に翻訳できている。 $C_{3}$ 私は酒で頭がぼんやりしてしまった。 $D_{3 r e f}$ The spirits muddled my brain . $D_{1}$ My mind became foggy with drink $A_{1}$ 睡眠薬のせいで頭がぼんやりしている。 $B_{1}$ My mind is foggy with sleeping tablets . $D_{1}$ My head was muddled with drink . (NMT) この例文は,NMT が RSMT よりも,翻訳精度が高 いと判断した例である. 具体的には, $R S M T=N M T$ と判断した人が 2 名であり, $R S M T<N M T$ と判断し た人が 6 名であった. なお,両者の差は,わずかである.ネイティブの評価では,結果が異なるかもしれない. この例に示されるように, $R S M T<N M T$ と判断した文は,どちらも翻訳精度が高い。しかし,わずかの差で $R S M T<N M T$ と判断している. $C_{4}$ 彼はバイクを木にぶつけた。 $D_{4 r e f}$ He hit his bike against a tree . $D_{1} \mathrm{He}$ crashed his motorcycle into a tree . $A_{1}$ 彼は車をガードレールにぶつけた。 $B_{1}$ He crashed his car into the guardrail . $D_{1} \mathrm{He}$ crashed his motorbike into a tree .(NMT) この例文は,NMT と RSMT の翻訳精度が,ほど同 程度と判断した例である。この例文の差は,アメリ カ英語とイギリス英語の優先順位に依存すると思われる。 なお, $N M T=R S M T$ と判断した例文は,両者とも翻訳精度が低い文も含まれる。これは,RSMT は, 複数の NMT の翻訳文から,翻訳選択を行っているためと判断している. ## 6 考察 ## 6.1 翻訳支援 提案した RSMT の特徴を,翻訳支援の立場から挙げる。 1. 修正の容易性 RSMT は,“Aが B ならば C は D” の形で出力する. したがって $C$ の翻訳 $D$ に近い対訳学習文 $A$ と $B$ が表示される.そのため, $C$ が誤った翻訳 $D$ が出力されても, $A$ と $B$ および $C$ と $D$ を見比べることによって,容易に人手で修正が可能である。この特徴は翻訳支援と言える. 例を以下に示す. C彼女は我を通した。 DShe had his own way . A彼は我を通した。 BHe had his own way. 正解文は “She had her own way” である.この例文 では人手で容易に “his”を“her”に書き換えることができる. 2. $N$-BEST RSMT では 1 位候補が間違っていても,2 位候補が正しい場合が多い. 例を以下に示す. Cぶらんこが摇れている。 $D_{1}$ The swing is flicking. $A_{1}$ 炎が摇れている。 $B_{1}$ The flame is flickering . $D_{2}$ The swing is swining . $A_{2}$ ハンモックが摇れていた。 $B_{2}$ The hammock was swinging . この例では正解が第 2 候補にある。そして,対訳 学習文 $\mathrm{A}$ とを見ることによって,容易に人手で修正可能である. ## 6.2 類似度および翻訳確率の計算式 類似度や翻訳確率は,様々な計算方法がある.最初の文の類似度は,単語の一致率を利用した。文の類似度は,類似度の計算には,線形性を考えて word2vec における 1hot の式を利用している. 文の翻訳確率は,線形性を考慮して,PMIを利用している。今後,より翻訳精度を向上させるために,様々な計算式を調査して行きたい. ## 6.3 類似研究 類似研究としては,類推に基づく翻訳や,検索がある.特に早稲田大学の Lepage 氏のグループがある. これらの研究は, 基本的には”A が B ならば C は D”の推論を利用している.これらの研究の違いを以下に述べる. 1. 類推 自然言語処理の中で”A が B ならば C は D”の形式で,考えていくのは,多分類推 (analogy) の研究が,最初であろう.この形式は, 多分相当古い. Lepage は,論文 [6] で. 類推を”A が B ならば C は D” の形でまとめた. そして,様々な類推の思考実験を行っている. 2. 翻訳 論文 [7] は,類推関係に基づいた用例翻訳を提案している.この論文では,“A が B ならば C は D”の構造を利用している。しかし,この論文では,文を分解して,分解した要素に対して,類推して翻訳を行っている。そのため,かなりパターン翻訳に近い形になっている。この方法は,要素合成法の問題 2.1 を含むため,翻訳品質が低下することが多い,本論文では,文を分割しなくて,類推をおこなう。これにより,要素合成法の問題をかなり低減できる。また,本研究では,訳文選択の形式を取っている。 ## 7 まとめ 本論文では,機械翻訳における大きな問題点として,要素合成法の問題を示した. そして,要素合成法の問題点からみた,NMT の問題点を示した. この問題点を軽減するために,相対的意味論の原理に従って,NMT の訳文を選択する “相対的意味論に基づく統計機械翻訳 (RSMT)” を提案した. 実験結果から,提案した RSMT の翻訳性能は,NMT を超えることを示した.なお.提案方法は,入力文に類似した対訳学習文を出力する。これは,翻訳支援において特に有効であると考えている. ## 謝辞 英文評価には,以下 8 名の学生と,英語教師の尾崎かおる氏の協力を得ました. 感謝いたします. (竹本祐基,新田玲輔, 本田涼太, 矢野貴大, 斎藤永, 浅井奏人, 森唯人, 柳原弘哉) ## 参考文献 [1] 池原悟. 非線形言語モデルによる自然言語処理. 岩波書店, 2009 [2] Yasutsugu MORIMOTO Hiroyuki Kaji, Yuuko Kida. Learning translations from biligual text. COLING-92, pp. 672-676, 1992. [3] Hiroshi UCHIDA. Atlas fujitsu machine translation system. MT Summit 87, pp. 129-134, 1987. [4] Margaret King. Machine Translation Today : the State of the Art. Edinburgh University Press, 1984. [5] Kazunori MURAKI. Pivot: Two-phase machine translation system. MT-summit 1987, pp. 81-83, 1987. [6] Yves Lepage. Analogy and formal languages. Theoretical Computer Science, 2002. [7] 他木村竜矢. 類推用例翻訳における文長ごとの翻訳品質の評価. 言語処理学会第 20 回年次大会, pp. 836-839, 2014.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C5-4.pdf
# ニューラル機械翻訳のための 日本語の膠着語的性質を考慮したマルチタスク学習 西田悠人 秋葉友良 塚田元 豊橋技術科学大学 \{nishida.yuto.ec, akiba.tomoyoshi.tk, tsukada.hajime.hl\}@tut.jp ## 概要 ステミングタスクを補助タスクとしたマルチタスク学習 (MTL) モデルが膠着語に属する言語のニュー ラル機械翻訳に有効であるという報告があるが,膠着語である日本語の翻訳にも有効であるかは明らかではない。そこで,本研究では日本語-英語および日本語-中国語の双方向翻訳においてステミングを基本としたタスクを補助タスクとした MTL モデルの性能の評価を行った。実験結果より,ステミングタスクを補助タスクとした MTL モデルの有効性は限定的であることと,ステミングタスクと英語文/中国語文をソースとした日本語ステム列生成タスクの両方を補助タスクとした MTL モデルは有効であることを示した. ## 1 はじめに 膠着語に属する言語は morphologically-rich (形態学的に複雑) であり, それらの言語の翻訳は,特に学習データが少ない場合に,ニューラル機械翻訳 (NMT) モデルにとって依然として困難なタスクであることが知られている [1]. Pan ら [1] はこの問題を解決するために,トルコ語-英語およびウイグル語中国語の双方向翻訳において,膠着語 (トルコ語, ウイグル語) のステミングタスクを補助タスクとしたマルチタスク学習 (MTL) モデルを提案し,翻訳性能が向上することを示した。しかし,他の言語対 (膠着語-非膠着語の対) において同様の手法が有効であるかは明らかではない. 本研究では,ケーススタディとして,膠着語のなかでも日本語に着目する. 日本語-英語および日本語-中国語の双方向翻訳を対象として,ステミングタスクを補助タスクとした MTL モデルの性能を評価することで,Pan ら [1]の手法が日本語の翻訳においても有効であるかを検証する。また,その他のス テミングを基本としたタスクについても検討し,より有効な補助タスクを探究する。 実験結果より,(1) Pan ら [1] の提案した手法に相当する日本語ステミングタスク $\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}}$ を補助タスクとした MTL モデルの有効性が限定的であることを示し,(2) $\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}}$ と新たに提案した英語文/中国語文をソースとした日本語ステム列生成タスク $\mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ の両方を補助タスクとした MTL モデルによって翻訳性能が向上することを示し,(3) 翻訳タスクと補助タスクの混合比を調整することで (2) のモデルに更なる性能改善がみられることを示唆した。 ## 2 関連研究 NMT にマルチタスク学習を導入するための様々な手法が提案されている。翻訳以外の補助タスクを用いて主タスク (翻訳タスク) の性能向上を図る研究として, Luong ら [2] はドイツ語・英語のオートエンコーダと独英翻訳のマルチタスク学習を提案し, Currey ら [3] は英語の句構造解析と英語を原言語とした翻訳 (英露翻訳など) のマルチタスク学習を提案した。あるいは,主タスクと補助タスクを区別せず,複数の翻訳タスクを共同で学習し,その相乗効果によって翻訳性能の向上を図る研究もある. Johnson ら [4] は単一のモデルによる多言語翻訳によって低資源言語の翻訳性能が向上することを報告した. 膠着語を対象とした NMT の研究も多くある. Ataman ら [5] は教師なしの形態学的セグメンテー ションモデルによってトルコ語の語彙削減を行うことで,土英翻訳の性能が向上することを報告した. Pan ら [6] は膠着語の語幹と接辞に別の処理を施すサブワード分割手法を提案し,土英翻訳およびウイグル語-中国語翻訳の性能向上を示した。 ## 3 日本語の膠着語的性質を考慮した マルチタスク学習 ## 3.1 マルチタスク学習 タスクごとに固有のタグを各ソース文の先頭に加える方法 [4] により, 単一の seq2seq モデルでマルチタスク学習を行う.これにより,標準的な NMT アーキテクチャに変更を加えることなく,マルチタスク学習を行うことができる. 本研究では,主タスク (翻訳タスク)であることを示すタグ<MT>と補助タスクであることを示すタグ<ST>を導入する。本研究における MTL モデルの概念図を図 1 に示す. 図 1 MTL モデルの概念図 ## 3.2 補助タスク 日本語の膠着語的性質を考慮した補助タスクとして, Pan ら [1] が提案した補助タスクに相当する $\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}}$ と,新たに提案した $\mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ の 2つを導入する. $\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}}$ は日本語文を入力として,対応する日本語ステム列を生成するタスクであり, $\mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ は英語文/中国語文を入力として,入力に対する日本語訳文に対応する日本語ステム列を生成するタスクである。なお, 日本語の文節は典型的には 1 つの自立語に 0 個以上の付属語が膠着することで形成されるため, 本研究では日本語文の自立語のみを抽出して原形化することで得られるトークン列を日本語ステム列と定義した。 日本語-英語の双方向翻訳を対象とした際の主夕スクである日英翻訳,英日翻訳と補助タスクである $\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}}, \mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ の訓練データの例を表 1 に示す. 表 1 タスク毎の訓練データの例 (上:ソース文,下:ターゲット文) } & <MT> 実験によってこの結果が検証された。 \\ ## 4 評価実験 ## 4.1 データセット 対訳データとして,KFTT [7] の京都関連文書対訳コーパス全文対 (440,288 文対), IWSLT2017 [8] の英日対訳コーパス全文対 (223,108 文対), Asian Scientific Paper Excerpt Corpus (ASPEC) [9] から ASPEC-JE100k (ASPEC-JE の train1 データの先頭 100,000 文対), ASPEC-JC100k (ASPEC-JC の train データの先頭 100,000 文対)を用いる. 開発データおよびテストデータには,それぞれのコーパスの開発/テストデータを用いた。なお,IWSLT2017では開発データ タの日本語文は MeCab [10] によるトークナイズを行った. MeCab の辞書には IPA 辞書を用いた.英語文は Moses [11] tokenizerによるトークナイズ, Moses truecaserによる truecasingを行った. 中国語文は jieba [12]によるトークナイズを行った. 補助タスクの訓練データは,対訳データから作成した. $\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}}$ と $\mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ の訓練データのターゲット文は対訳データの日本語文に対して自立語抽出と語の原形化を行うことで作成できる。自立語抽出は, MeCabによって文の各形態素の品詞を解析し, 自立語に相当する品詞に該当する形態素以外を除去することで行った。なお,自立語に相当する品詞は (1)名詞-動詞非自立的, 名詞-接尾, 名詞-非自立, 名詞特殊を除くすべての名詞,(2) 連体詞,(3) 動詞-自立, (4) 形容詞-自立, (5) 副詞, (6) 接続詞, (7) 感動詞, (8) フィラーとした. 品詞の分類は IPA 品詞体系 [13] に基づく,語の原形化は, 各形態素を MeCab によって得た原形に置換することで行った. ## 4.2 実験条件 モデルの語彙は,対訳データの英語文/中国語文と日本語文を結合したうえで作成した。語彙サイズはソース,ターゲットともに同一とし,KFTT では 100,000,その他では 50,000 とした. 翻訳モデルおよび MTL モデルはオープンソースの NMT ツールキット OpenNMT [14] の Python 実装である OpenNMT-py によって構築した。 モデルの翻訳性能の評価指標には BLEU [15] を用いた. モデルの訓練で得たチェックポイントから翻訳方向ごとに開発データの BLEU が最も高いものを選択し,そのチェックポイントにおけるテストデー タの BLEUをそのモデルの性能とした. ## 4.3 ステミングを基本とした補助タスクを 用いた実験 本節では,ステミングを基本としたタスクを補助タスクとした MTL モデルの有効性を評価するために,次に示す 4 つのモデルについて訓練および評価を行った。 bi-MT 補助タスクを用いない双方向翻訳モデル. これがベースラインモデルとなる. $\mathbf{b i}-\mathbf{M T}+\mathbf{S T}_{\mathbf{j} \rightarrow \mathbf{j}} \quad \mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}}$ を補助タスクとした MTL モデル.Pan ら [1] の提案したモデルに相当する. $\mathbf{b i}-\mathbf{M T}+\mathbf{S T}_{\mathbf{f} \rightarrow \mathbf{j}}$ 新たに提案した $\mathbf{S T}_{\mathrm{f} \rightarrow \mathrm{j}}$ を補助タスクとしたMTL モデル. $\mathbf{b i}-\mathbf{M T}+\mathbf{S T}_{\mathbf{j} \rightarrow \mathbf{j}} \& \mathbf{S} \mathbf{T}_{\mathbf{f} \rightarrow \mathbf{j}} \quad \mathbf{S T}_{\mathrm{j} \rightarrow \mathrm{j}}$ と $\mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ の両方を補助タスクとした MTL モデル. MTL モデルの訓練に用いるミニバッチは,各ミニバッチに占める日英 (日中) 翻訳タスク,英日 (中日) 翻訳タスク,補助タスクのデータの割合が等しくなるように構成した. すなわち,各ミニバッチの全体 (主タスク+補助タスク) は,ミニバッチの主タスクの 1.5 倍となる. また,対訳データとともに用いる補助タスクのデータはその対訳データから作成し,外部データは使用しなかった. 各モデルの各翻訳方向の BLEU ( $\mathrm{Ja}-\mathrm{En} / \mathrm{Zh}$ おび En/Zh-Ja) とその算術平均 BLEU (Ave.) を表 2 に示す. 表 2 より, bi-MT+ $\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}}$ と bi-MT+ $\mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ の平均 BLEU は,IWSLT2017 ではベースライン性能を下回り,その他ではベースライン性能を上回った。また, 各翻訳方向でみると,約半数のケースでベースライン性能を下回っていることが確認できる. 対照的に, bi-MT $+\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}} \& \mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ はベースラインに対して一貫して平均 BLEU が向上し,その向上幅は一貫して bi-MT $+\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}}$ および bi-MT+ $\mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ より大きい。また,各翻訳方向でみても,ASPEC-JC100k の Ja-Zh を除いて BLEU が向上したことが分かる. 以上より,日本語-英語および日本語-中国語の双方向翻訳において, Pan ら [1] の提案した補助タスク $\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}}$ と新たに提案した補助タスク $\mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ は単独では有効性が限定的であることと,両方を組み合わせて用いた MTL モデル bi-MT $+\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}} \& \mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ は有効であることが示された. ## 4.4 恒等写像タスクとの比較実験 Luong ら [2] は独英翻訳において,ドイツ語文と英語文の恒等写像タスクを補助タスクとした MTL モデルが有効であることを示した.そこで,本研究でも日本語文と英語文/中国語文の恒等写像タスクを補助タスクIMとして導入する ${ }^{1)}$. Luong ら [2] は翻訳タスクと補助タスクの混合比を $1: 0.05$ としたとき,MTL モデルの翻訳性能が最も高いことを報告している. 本研究でも同様の条件で実験を行うために,訓練に用いる各ミニバッチの全体が,ミニバッチの主タスクの 1.05 倍となるようにミニバッチを構成し, MTL モデル bi-MT+IM (1.05x)を訓練した. 各訓練データにおけるモデルの BLEU を表 2 に示す. 表 2 より, bi-MT+IM (1.05x) は一貫して平均 BLEU がべースラインを上回っていることが確認できる。 このことより,IMを補助タスクに用いることは本研究の実験条件においても有効であることが示された. しかし, bi-MT+ $\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}} \& \mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ の平均 BLEU と比較すると,一貫して bi-MT+IM (1.05x) の平均 BLEU のほうが低く, bi-MT $+\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}} \& \mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ のほうがより有効性が高いことが分かる. ## 4.5 タスク混合比による性能変化 Luong ら [2] は独英翻訳と恒等写像の MTL モデルにおいて,タスク全体に占める恒等写像タスクの割合が高いときにモデルの翻訳性能が低下することを報告している.そのため,前節までのモデルにおいても,タスク混合比を調整することで性能が改善する可能性がある. そこで, 本節では ASPEC-JE100k と ASPEC-JC100k を対象として, bi-MT+ST $\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}}, \quad$ bi-MT+ST $\mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$, bi$\mathrm{MT}+\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}} \& \mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ について, タスク混合比を変えて実験を行い,タスク混合比の調整による性能向上を図る。 4.3 節では,ミニバッチを構成する主タスクと補助タスクの比を $10: 5$ としたが,本節では $10: 4$, $10: 3,10: 2,10: 1$ について実験を行った. 各開発データに対する各翻訳方向の算術平均 BLEU が 1)ただし, Luong ら [2] は恒等写像タスクの訓練データとして外部の単言語資源を用いているのに対して,本研究では外部の単言語資源を用いずに,恒等写像タスクの訓練データを対訳コーパスから作成するという点で異なる. また, 本研究とは異なり, Luong ら [2] は MTL モデルとして,複数のエンコーダおよび複数のデコーダから構成されるものを用いている. 表 2 ステミングを基本としたタスクまたは恒等写像タスクを補助タスクとして用いた MTL モデルの BLEU 最も高いモデルを $10: 5$ の場合も含めた 5 つのモデルから選択することで,最良のタスク混合比を選択した。実験の結果,ASPEC-JE100k の bi$\mathrm{MT}+\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}}$ では $10: 1$ が, bi-MT+ST $\mathrm{f}_{\mathrm{f} \rightarrow \mathrm{j}}$ では $10: 2$ が, bi-MT $+\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}} \& \mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ では $10: 4$ が, ASPEC-JC100k の bi-MT+ST $\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}}$ では $10: 4$ が, bi-MT+ST $\mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ では $10: 4$ が, bi-MT $+\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}} \& \mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ では $10: 2$ が最良の混合比であることが分かった。最良の混合比におけるモデルの (テストデータに対する) BLEUを 4.3 節で実験した $10: 5$ の場合のモデルの BLEUとともに表 3 に示す.なお,表中の $\mathrm{E} / \mathrm{Z}$ は En/Zh の略記であり, $\Delta \mathrm{Ave}$. は各モデルの平均 BLEU とべースラインモデルの平均 BLEU の差を示す。また,各混合比における BLEU については付録 A. 1 に示す. 表 3 より, ASPEC-JE100k の bi-MT+ST $\mathrm{S}_{\mathrm{j} \rightarrow \mathrm{j}}$ を除いて,タスク混合比を調整したモデルの平均 BLEU が 4.3 節のモデルの平均 BLEU を上回っており,タスク混合比を調整することで MTL モデルの性能が向上することが示唆された. また,最良のタスク混合比のモデル同士で比較した場合でも, 4.3 節の結果と同様に, bi-MT $+\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}}$ よりも, bi-MT $+\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}} \& \mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ の平均 BLEU のほうが高いという傾向がみられた. ## 5 おわりに 本研究では, 膠着語のニューラル機械翻訳のケー ススタディとして, 日本語-英語および日本語-中国語の双方向翻訳を対象とし, (1) Pan ら [1] の提案したモデルが日本語の翻訳においても有効であるかどうかの検証,(2) そのほかのステミングを基本としたタスクの提案,(3) 前項のタスクを補助タスクとした MTL モデルの有効性の評価,(4) MTL モデルのタスク混合比の調整を行った。 実験の結果から,日本語-英語および日本語-中国語の双方向翻訳においては,Pan ら [1] の提案した補助タスクに相当するタスク $\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}}$ を補助タスクとした MTL モデル bi-MT $+\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}}$ の有効性は限定的であることが示され, $\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}}$ と新たに提案した英語文/中国語文をソースとした日本語ステム列生成夕スク $\mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ の両方を補助タスクとした MTL モデル $\mathrm{bi}-\mathrm{MT}+\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}} \& \mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ はベースラインに対する一貫した各翻訳方向の平均 BLEU の改善をもたらすことが示された. また, bi-MT+ST $\mathrm{Sij}_{\mathrm{j}} \& \mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ は恒等写像夕スクを補助タスクとした MTL モデルより翻訳性能が高いことも実験により確かめた. さらに,双方向翻訳タスクと補助タスクの混合比を調整することによって前述のモデルの性能が更に向上することが示唆された。 今後の課題として,本研究で提案したモデルが他の言語対でも有効であるかの調査や,Pan ら [6] の提案したサブワード分割手法の導入,より翻訳性能を向上させる補助タスクの探究, bi-MT $+\mathrm{ST}_{\mathrm{j} \rightarrow \mathrm{j}} \& \mathrm{ST}_{\mathrm{f} \rightarrow \mathrm{j}}$ の補助タスクに外部の単言語資源を利用できるように逆翻訳 [16] を用いることが挙げられる。 ## 謝辞 本研究は JSPS 科研費 19K11980 および $18 \mathrm{H} 01062$ の助成を受けた。 ## 参考文献 [1] Yirong Pan, Xiao Li, Yating Yang, and Rui Dong. Multitask neural model for agglutinative language translation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 103-110, Online, July 2020. Association for Computational Linguistics. [2] Minh-Thang Luong, Quoc V. Le, Ilya Sutskever, Oriol Vinyals, and Lukasz Kaiser. Multi-task sequence to sequence learning. arXiv preprint arXiv:1511.06114, 2016. [3] Anna Currey and Kenneth Heafield. Incorporating source syntax into transformer-based neural machine translation. In Proceedings of the Fourth Conference on Machine Translation (Volume 1: Research Papers), pp. 24-33, Florence, Italy, August 2019. Association for Computational Linguistics. [4] Melvin Johnson, Mike Schuster, Quoc V. Le, Maxim Krikun, Yonghui Wu, Zhifeng Chen, Nikhil Thorat, Fernanda Viégas, Martin Wattenberg, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google's multilingual neural machine translation system: Enabling zero-shot translation. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 339-351, 2017. [5] Duygu Ataman, Matteo Negri, Marco Turchi, and Marcello Federico. Linguistically motivated vocabulary reduction for neural machine translation from turkish to english. The Prague Bulletin of Mathematical Linguistics, Vol. 108, pp. 331-342, 2017. [6] Yirong Pan, Xiao Li, Yating Yang, and Rui Dong. Morphological word segmentation on agglutinative languages for neural machine translation. arXiv preprint arXiv:2001.01589, 2020. [7] Graham Neubig. The Kyoto free translation task. http: //www. phontron. com/kftt, 2011. [8] Mauro Cettolo, Marcello Federico, Luisa Bentivogli, Niehues Jan, Stüker Sebastian, Sudoh Katsuitho, Yoshino Koichiro, and Federmann Christian. Overview of the IWSLT 2017 evaluation campaign. In International Workshop on Spoken Language Translation, pp. 2-14, 2017. [9] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. Aspec: Asian scientific paper excerpt corpus. In Nicoletta Calzolari (Conference Chair), Khalid Choukri, Thierry Declerck, Marko Grobelnik, Bente Maegaard, Joseph Mariani, Asuncion Moreno, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC 2016), pp. 2204-2208, Portorož, Slovenia, may 2016. European Language Resources Association (ELRA). [10] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237, Barcelona, Spain, July 2004. Association for Computational Linguistics. [11] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open source toolkit for statistical machine translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, Prague, Czech Republic, June 2007. Association for Computational Linguistics. [12] Sun Junyi. jieba. https://github.com/fxsjy/jieba. Accessed: 2021-12-25. [13] 形態素解析ツールの品詞体系. https:// www. unixuser.org/ euske/doc/postag/\#chasen. Accessed: 2021-12-24. [14] Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, and Alexander Rush. OpenNMT: Open-source toolkit for neural machine translation. In Proceedings of ACL 2017, System Demonstrations, pp. 67-72, Vancouver, Canada, July 2017. Association for Computational Linguistics. [15] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. BLEU: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [16] Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 86-96, Berlin, Germany, August 2016. Association for Computational Linguistics. ## A 付録 ## A. 1 各混合比における MTL モデルの翻訳性能 4.5 節で実験した各混合比における MTL モデルの翻訳性能 (BLEU) を表 4 に示す.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C5-5.pdf
# 被服分野における独和機械翻訳の出力結果に関する考察 大塚敬義 目白大学短期大学部ビジネス社会学科 t. oot suka@mej i ro.ac.jp ## 概要 著者は約 30 年来,ドイツ語学習者の一人である。同時に独和翻訳 (ドイツ語から日本語への翻訳) を計算機で行う独和機械翻訳の動向にも注目している 2019 年秋頃の時点おいては,独和機械翻訳のツールとして最も良質なツールは「Google 翻訳」であった . しかし 2020 年頃に入るとドイツのケルンに在る DeepL 社が提供する機械翻訳サービス「DeepL」のほうが, Google 翻訳よりも訳出結果が自然で精度が高いと論じる記事が目立つようになった.また Google 翻訳自体も 2022 年 1 月現在では 2021 年 1 月時点と比べ, 訳出結果に変化が生じている.よって DeepL, Google 独和翻訳を対象とし,独和翻訳の訳出結果において具体的にどういった差異が生じているのかを被服分野のドイツ語例文により検証する. ## 1 序論 Google が提供する自動翻訳サービス「Google 翻訳」は,世界を代表する主要言語である英語を含め多言語に対応しており,非英語どうしにおける翻訳にも対応している. 英語は支配的言語であるから,英語対非英語における翻訳のように,翻訳元あるいは翻訳先のいずれか一方に英語を含む場合の翻訳需要は旺盛である.よって当然ながら英語を扱う機械翻訳は , 翻訳元および翻訳先の両方が非英語である場合に比べ改良発展のペースが速い[9]. Google 翻訳の和英訳出内容は自動翻訳特有のぎこちない文章であったが,2016 年 11 月を境に,筋の通った文章へと変化したことがアグラワルらによつて指摘されている[1].また DeepL の訳出結果が Google 翻訳に比べ, 正確さの面では劣るとも不自然さの少なさや流暢さにおいてときに Google 翻訳を凌ぐという指摘が 2020 年頃から目立つようになった $[7,8]$. 光こで非英語であるドイツ語を題材とする機械翻訳の精度は 2022 年 1 月現在どのようであるかを独和翻訳の場合について検証する. イツ語の文法を中心に扱う学習書[2]や,ビジネスで使用するドイツ語の例文を収録した文献[3-5]に掲載された比較的平易な文章を題材とした . これらの例文は,文中で用いる語彙が特定のジャンルに依存しないので,翻訳ツールの辞書中に特殊な専門用語の登録がないという事態を回避し得た。 そこで著者は,Google 翻訳や DeepL の語彙がおおよ光どの程度幅広いのかを検証すべく,比較的珍しいジャンルである被服・服飾のウェブサイトから抽出したドイツ語例文の訳出結果を考察する. ## 2 方法 本稿では試みとして,旧東ドイツ軍向けに製造された官給品衣類の余剩品を販売する商用ウエブサイト上に掲載されているドイツ語文[12]を素材とする.機械翻訳ツールとして Google 社が提供する $\ulcorner$ Google 翻訳」および DeepL 社が提供する「DeepL」 を用いる.またサンプルのドイツ語文いくつかを選択することにおいて,政治的意図等は皆無である. ## 3 結果 例文を抽出し,機械翻訳に入力,実行した結果を示す.図 1 に原文のドイツ語を,図 2 に Google 翻訳による訳出結果を,図 3 に DeepL による訳出結果を示す.また例文が表す内容を読者に一層明確に伝える目的で,前述の商用ウエブサイトに掲載された商品の原図[12]を図 4 および図 5 に示す. Eine NVA Uniform Jacke für Offiziere der Landstreitkräfte, Neuwertig mit Zustand 1A. Weiß paspelierte metallene Kragenspiegel gehören zum Lieferumfang dazu. Die Jacke besteht aus hochwertigem Kammgarn (Gabardine), und ist an den Ärmeln und am Kragen weiß paspeliert. Oben können Sie aus den verfügbaren Größen auswählen! Schulterstücke gehören nicht dazu, den gewünschten Dienstgrad bitte beim Zubehör auswählen und mitbestellen! Die Kragenspiegel liegen lose bei. Bilder sind beispielhaft! Auf Wunsch vernähen wir Zubehör wie Kragenspiegel, Ärmelbänder und Stoffabzeichen auf der Jacke. Bitte buchen Sie dafür für jeden Artikel je einmal den "Service - Annähen von Abzeichen" mit dazu! Das gewünschte Zubehör bitte extra mit dazu bestellen. 图 1 原文のドイツ語文章 陸軍の将校のための NVA ユニフォームジャケッ卜。コンディション 1A の新品同樣。白いパイプの金属カラータブが含まれています。ジャケットは高品質の梳毛系 (ギャバジン) でできており、袖と襟は白で配管されています。 上記のサイズからお選びいただけます! ショルダーピースは付属していませんので、アクセサリーの中からご希望のランクをお選びいただ き、ご注文ください! カラータブは緩く含まれています。 写真は模範的です! ご要望に応じて、襟タブ、袖バンド、生地バッジなどのアクセサリーをジャケットに縫い付けることができます。「サービス-バッジの縫製」をアイテムごとに 1 回予約してください! 必要な付属品は別途ご注文ください。 図 2 Google 翻訳による訳出結果陸戦隊将校用のNA 制服ジャケット、状態 1Aで新品同樣。ホワイトパイピングのメタルカラーパッチが付属します。ジャケットは上質なウーステッド (ギャバジン) を使用し、袖と襟に白いパイピングを施しています。 上の写真は、用意されたサイズから選ぶことができます 肩章は付属していませんので、付属品でご希望のランクを選んでご注文ください襟のパッチは緩く同封されています。 写真は模範的なものです ご要望に応じて、襟章、袖章、布製バッジなどのアクセサリーをジャケットに縫い付けることも可能です。サービスーワッペン縫い付け」を 1 点につき 1 回予約してください ご希望の付属品を別途ご注文ください。 图 3 DeepL による訳出結果 図 4 図 1 で紹介された商品の原図(全体像) [12] 图 5 図 1 で紹介された商品の原图(襟回り) [12] 地上軍将校用の国家人民軍制服上衣,状態 1A の新品同栐。白くパイプ状に刺紴された金属製の襟章 (えりしょう)が襟元に付属します。上衣は上質な梳毛系 (单もうし,ギャバジン) で出来ており、袖 (乥で)と襟(えり) に白いパイプ状の刺繡が施されています。 上記のサイズからお選びいただけます。 肩章(けんしょう)は付属しておりませんので、 付属品の項目からご希望の階級をお選びの上、ご注文ください。襟章は緩めに付いています。 写真はみほんです。 ご要望に応じて、上衣に襟章, 袖章 (乥でしょう)、 布バッジなどの付属品を縫い付けます。オプションで「サービス〜徽章(きしょう)の縫い付け〜」を商品ごとに 1 回お申し込みください。 ご希望の付属品は別途ご注文ください。 ## 図 6 著者による人手での訳出 ## 4 考察 Google 翻訳や DeepL による訳出結果について,読解上の違和感がある表現を次の 2 つに分類した。 - 分類 $\mathrm{A}$ : 訳出の誤りを含むことが明確あるいは大きな誤解を招く表現 - 分類 B:誤りではないか理解しづらい,あるいは曖昧な表現 著者は市販の独和辞典[6]やオンラインで公開されている独和・和独辞典 $[13]$ も参考にし, 作成した和訳文を図 6 に示す.なお著者は被服学の専門家ではないので, 訳出結果に多少の稚拙さを含む点はご容赦願いたい. 分類 $A$ については, DeepL が改良され 2021 年時点でDeepLにおいて発生した=誤訳が2022 年現在で1 件解消されていたことが分かった. 図 1 の第 5 段落中の文節 $「$ auf der Jacke」 (英 on the jacket) の係り)先が構文上 , 複数の解釈を許すことに由来する問題である . 具体的には当該文節の係り先が動詞「vernähen」(縫い付ける) または名詞「Zubehör」 (アクセサリー/付属品) のいずれかに係るのがより適切かという判定である。 もし前者の判定であれば訳出を「ジャケットに〜縫い付ける」とすべきであり,後者の判定であれば 「ジャケットのアクセサリー」となる.一般的なドイツ語話者の人間ならば文脈上, この係り先を前者である動詞「vernähen」と判定し,「ジャケットに (中略) 縫い付ける」とするであろう.前年 2021 年 1 月の時点でGoogle 翻訳では当該文節の係り先を正確に動詞「vernähen」と判定できていたが,これに対して同時点の DeepLでは係り先を名詞 「Zubehör」(アクセサリー) と誤って判定し,「ジヤケットの襟パッチや袖バンド、布バッジなどのアクセサリー」と誤訳していた。 なお 2022 年 1 月現在では, 図 1 の第 1 段落中の文 $\ulcorner$ Die Jacke (中略) ist an den Ärmeln und am Kragen weiß paspeliert.」(図 6: 袖(龸で)と襟(えり)に白いパイプ状の刺紼が施されています) の訳出結果をみると,Google 翻訳による「白で配管されています」よりもDeepLによる「白いパイピングを施しています.」のほうが自然で優れている.「配管されています」では被服分野でなく土木や建築といった分野向けの表現になっている. 分類 B については, 単語「Kragenspiegel」 (クラ一ゲンシュピーゲル,Kragen + Spiegel,「襟章」[6]) の訳出結果がこれに相当する.前年 2021 年の時点で Google 翻訳は「カラータブ」と訳出し,DeepLは「カラーミラー」 (英単語で記述すれば collar mirror) と訳出していた.お光らく被服学の専門用語である 「襟章」に相当する語句が両ツールの辞書データ中に存在しなかったため,「襟」を意味する「Kragen」 を苦肉の策として英語の「collar」を充当し,さらにこれを外来語扱いでカタカナ表記の「カラー」とし たのであろう . 単語「Spiegel」 (襟章) は多義語であり,ドイツ語話者は日常用語で「鏡」の意で用いているから,同樣の理屈で「ミラー」となったと推測できる.ニれが本稿執筆時点の 2022 年 1 月現在では Google 翻訳は第 3 段落で「カラータブ」と,第 5 段落で「襟タブ」と訳出し,DeepL は第 3 段落で「襟タブ」と, 第 5 段落で正確に「襟章」と訳出した。 よって両翻訳ツールとも前年時点に比べかなり分かりやすい用語を出力するように仕樣が改良された。 ただし同一単語「Kragenspigel」の訳出結果は, 両ツールとも当該単語の所在段落により表記に摇れが生じている点が気にかかる. 第 3 段落中の単語 $「$ Schulterstücke $\lrcorner($ 肩章)は Google 翻訳が「ショルダーピース」という曖昧なカタカナ表記による訳出にとどまったが,DeepL は的確に「肩章」と訳出した . また同段落中の単語「Dienstgrad」 (軍隊内部の「階級」の意) は, 両翻訳ツールとも 「ランク」のように外来語扱いの英語として訳出した.「ランク」という語句を読んで,「階級」(少尉, 中尉など)という概念を発想できる人はお艺らく少数派であろう. 以上のように Google 翻訳, DeepLともに訳出結果が年々改良されてきている. 両者の具体的な訳出結果も本稿に併記してツール間の結果比較も行えた。 両ツールとも時々刻々と訳出結果の品質が向上しているので, 訳出結果の定期的観測を続けたい。今後の展望として,被服・服飾といったジャンルのほか, 料理・製菓など他のジャンルからも例文を抽出して機械翻訳における訳出結果考察の分類数も増やし,より精密な分析を行いたい。 ## 参考文献 [1] アジェイ・アグラワル, ジョシュア・ガンズ, アヴィ・ゴールドファーブ:『ログーグル翻訳ロが急激によくなっている理由人工知能による予測能力が劇的に改善中』,週刊東洋経済オンライン(2019), [ https://t oyokei zai . net/arti cl es/- /270409 ( cited 22- Nov- 2019) ] . [2]佐々木庸一:『新英語から入るドイツ語』,郁文堂 (2005) [3] 石居龍一:『ビジネスドイツ語レター&Eメ一ルの書き方と例文 Deut sche Geschäftsbri ef e und E-Nail I s für Japaner』, 春風社 (2013) [4] マルコ・ラインデル著, 久保川尚子訳:『手紙・メールのドイツ語』,三修社 (2013) [5] トーマス・シュタール, 倉田勇治著: 『Eメー ルのドイツ語 E-Nails auf Deut sch』,白水社(2012). [6] 濱川祥枝, 信岡資生 : 『クラウン独和辞典』第 5 版,三省堂 (2014) . [7] 川口穣:『グーグル超えで話題「DeepL 翻訳」 の実力はいかに?キング牧師の演説で検証』, AERA dot. , [ ht t ps://dot . asahi . com/aer a/2020072100026. ht m I (cited 10- Dec- 2020) ] [8] 川口穣 : 『DeepL 翻訳 TOEI C950 点レベル匹敵も「人間ではあり得ないミス」が起こる理由』, AERA dot. , [ ht t ps: //dot . asahi . com/aer a/2020072100060. ht m I (cited 10-Dec- 2020) ] . [9] 大塚敬義:『Googl e 翻訳の出力結果に関する考察』, 総合人文科学,第 2 号, pp. 1- 5 (2019). [ 10] Enzo und Laur ent Ber r af at o 著: 『DI E UN FORMEN DER DEUTSCHEN KRI EGSMARI NE 1935-1945』, ZEUGHAUS VERLAG (2010) [11] 大塚敬義: 『各種の独和機械翻訳の出力結果に関する考察』総合人文科学, 第 3 号 ,pp. 1-8(2020) . [12] Na- uni for men. de - NA- Shop [ https://uww. nva- uni for men. de/ ( ci ted 15- Jan- 2021) ] . [13] Wadoku - 和独辞典 - wadoku. de [ ht t ps: //umw. wadoku. de/ ( ci t ed 15- Jan- 2021) ] .
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C6-1.pdf
# 翻訳の品質評価に基づく動的な混成サンプリングによる NMT の双方向反復逆翻訳手法の改善 森田知熙 秋葉友良 塚田元 豊橋技術科学大学 \{morita.tomohiro.al,akiba.tomoyoshi.tk, tsukada.hajime.hl\}@tut.jp ## 概要 本稿では,ニューラル機械翻訳における Iterative Back-Translation(IBT) を用いたドメイン適応手法のための新しいサンプリング手法を提案する.従来の IBT では,各段階の翻訳モデルの性能によらず,単言語コーパスのサンプリング手法は一様であった.本手法では,疑似原文の品質評価に基づき動的に逆翻訳時のサンプリング手法を決定する手法を提案する. WMT14 ドメインから TED ドメインへの英独,独英方向のドメイン適応実験の結果, 従来のサンプリング手法による IBT に比べ,最大で独英方向では 0.80 , 独英方向では 0.74 ポイント BLEU が向上した. ## 1 はじめに 近年の機械翻訳研究は, ニューラル機械翻訳 (NMT) が主流となっている.NMT モデルの翻訳性能は,対訳コーパスのサイズと質に大きく影響を受けるが,対訳コーパスの収集,構築は困難であり,対訳コーパスが存在しないドメインの NMT モデルの学習も難しい。一方で,対訳になっていない単言語コーパスは構築が容易である.そのため,単言語コーパスを用いて NMT モデルの翻訳性能を向上させる手法が提案されている. Sennrich ら [1] は目的言語側の単言語コーパスを逆翻訳して擬似対訳コー パスを生成し,これを既存の対訳コーパスと組み合わせて学習を行う手法を提案した。 Hoang ら [2], Zhang[3] らは, この手法を拡張し,原言語,目的言語の両方の単言語コーパスを用いて,両言語間で繰り返し逆翻訳による擬似対訳コー パスの生成と NMT モデルの学習を行う Iterative Back-Translation(IBT) を提案した. 藤澤ら [4], Jin ら [5], 森田ら [6] はこの手法をドメイン適応手法として用い,有効性を示している。本研究では,IBTを用いたドメイン適応において,各文ごとに動的にサンプリング手法を変更することで,最終的な NMT モデルの性能向上を図る.具体的には,疑似原文の品質評価に基づくサンプリング手法の決定を行うことでより翻訳モデルの性能に即した有用な疑似原文を生成する手法を提案する。 WMT14 ドメインから TED ドメインへのドメイン適応において,英独,独英方向の実験を行った結果,品質評価に基づく手法は,ベースラインモデルから最大で 0.80 ポイント BLEU が向上した. ## 2 関連研究 単言語コーパスを活用した半教師あり学習手法として,Sennrich ら [1] は目的言語側の単言語コーパスを逆翻訳し,疑似原文を生成することで擬似対訳コーパスを作る手法を提案した,今村ら [7],Edunov ら [8] はこの手法を発展させ,逆翻訳時にランダムサンプリングを用いることで疑似原文の多様性が増加し,最終的な翻訳モデルの性能が向上することを報告した. Hoang ら [2] や Zhang[3] らは,Sennrich ら [1] の手法を両方向に繰り返し用いる Iterative Back-Translation(IBT) を提案した. 藤澤ら [4], Jin ら [5], 森田ら [6] はこの手法をドメイン適応手法として用い,その有効性を評価した。森田ら [9] は,IBT におけるモデルの更新時に Fine-Tuning を活用する実験を行い,Fine-Tuning により各方向の翻訳モデルの性能を有効活用できることを示した.疑似原文の品質を向上させる本研究同様のアプローチとして, Wei ら [10] は Domain-Repaired モデルを IBT に組み込むことで,疑似原文のノイズを除去し,品質を向上させる手法を提案した.Dou ら [11] は, IBT において, Round-trip BLEU(R-BLEU) や Sentence BERT(S-BERT) で得た各文の分散表現のコサイン類似度により擬似対訳コーパスのフィルタリングと学習時の重み付けを行う手法を提案した.この手 図 1 Iterative Back-Translation の流れ 法は, 本研究と同様に疑似原文の品質評価により, スコアリングと学習時の重み付けを行っているが, サンプリング手法そのもの検討は行われておらず, コーパスの多様性を増す手法の検討は行われていない. ## 3 Iterative Back-Translation IBT では, 図 1 のように対訳コーパス $\left(C_{X}^{\text {out }}, C_{Y}^{\text {out }}\right)$ と対訳でない単言語コーパス $C_{X}^{i n}, C_{Y}^{i n}$ を用い, 反復的に逆翻訳と学習を行う. 原言語を $X$ ,目的言語を $\mathrm{Y}$ とする。また,Xから Yへの翻訳を X-Y とし, $\mathrm{X}$ から Xへの翻訳を Y-Xとする。IBT の流れを以下に示す. 1 対訳コーパス $\left(C_{X}^{\text {out }}, C_{Y}^{\text {out }}\right)$ から両方向の翻訳モデル $\left(\right.$ Model $_{X-Y} 0$, Model $\left._{Y-X} 0\right)$ を学習する. 2 以下の手順で Model $_{X-Y}(i)$ を更新する. 2.1 Model $_{Y-X} i$ で単言語コーパス $C_{Y}^{i n}$ を翻訳し,疑似対訳コーパス $\left(C_{X}^{i n^{\prime}}, C_{Y}^{i n}\right)$ を得る。 2.2 疑似対訳コーパス $\left(C_{X}^{i n^{\prime}}, C_{Y}^{i n}\right)$ と対訳コーパス $\left(C_{X}^{\text {out }}, C_{Y}^{\text {out }}\right)$ を結合し, $\operatorname{Model}_{X-Y}(i)$ から fine-tuning し, $\operatorname{Model}_{X-Y}(i+1)$ を学習する. 3 以下の手順で Model $_{Y-X} i$ を更新する. 3.1 Model $_{X-Y} i$ で単言語コーパス $C_{X}^{i n}$ を翻訳し,疑似対訳コーパス $\left(C_{Y}^{i n^{\prime}}, C_{X}^{i n}\right)$ を得る. 3.2 疑似対訳コーパス $\left(C_{Y}^{i n^{\prime}}, C_{X}^{i n}\right)$ と対訳コーパス $\left(C_{Y}^{\text {out }}, C_{X}^{\text {out }}\right)$ を混合し, Model ${ }_{Y-X} i$ から fine-tuning し $\operatorname{Model}_{Y-X}(i+1)$ を学習する. $4 \mathrm{i} \leftarrow \mathrm{i}+1$ としてステップ 2 に戻る. ## 4 提案法 ## 4.1 動的混成サンプリング Ednov[8] らの研究結果から,逆翻訳器が正しく単言語コーパスを翻訳できる場合はランダムサンプリングによる逆翻訳が有効に働き,そうでない場合にはビームサーチが有効に働くことが予想できる。提案手法では,疑似原文の品質を評価することにより,動的に単言語コーパスのサンプリング手法を決定する。疑似原文は,もとの単言語コーパスと異なる言語であるため,そのままでは品質評価が困難である。そのため,IBT の各段階で翻訳モデルが生成した疑似原文を,反対方向の翻訳モデルで再度翻訳 (往復翻訳)する。往復翻訳された文は,元々の単言語コーパスと同一の言語の文になるため,BLEU や文の分散表現を用いた品質評価が可能となる. 品質評価のために,まずは全ての単言語コーパスをビームサーチにより逆翻訳し,同様に往復翻訳を行う。次に,往復翻訳文品質評価尺度によるスコリングを行い,スコアが予め定めたしきい値を超えた文は,ランダムサンプリングに翻訳した文に置き換える。 本手法の概略図を図 2 に示す. 本手法を用いて $\operatorname{Model}_{X-Y}(n), \operatorname{Model}_{Y-X}(n)$ から $\operatorname{Model}_{X-Y}(n+1)$ を学習する場合の流れは以下のようになる. 1 Model $_{Y-X} i$ で単言語コーパス $C_{Y}^{i n}$ を゙゙ームサー チにより翻訳し,逆翻訳文 $C_{X}^{i n^{\prime}}$ を得る。 2 Model $_{X-Y} i$ で逆翻訳文 $C_{X}^{i n^{\prime}}$ をビームサーチにより翻訳し,往復翻訳文 $C_{Y}^{i n^{\prime \prime}}$ を得る。 3 単言語コーパス $C_{Y}^{i n}$ を参照訳として往復翻訳文 $C_{Y}^{i{ }^{i n}}$ " の翻訳品質評価スコアを文ごとに算出し,各文のスコアとする. 4 スコアがしきい値 $\alpha$ より高い文を, Model $_{Y-X} i$ で単言語コーパス $C_{Y}^{i n}$ をランダムサンプリングにより翻訳した文で置き換え,疑似原文 $\hat{C}_{X}^{i n}$ を得る. 5 単言語コーパス $C_{Y}^{i n}$ と最終的な疑似原文 $\hat{C}_{X}^{i n} を$ 図 2 動的混成サンプリングの流れ 擬似対訳コーパスとし, $\operatorname{Model}_{X-Y}(n+1)$ を学習する。 $\operatorname{Model}_{Y-X}(n+1)$ も同様の手順により学習可能である. 本手法では,サンプリング手法を決定するために各文をスコアリングするための品質評価尺度が必要となる. 本研究では,往復翻訳文の品質評価に R-BLEU と S-BERT により抽出した文の分散表現のコサイン類似度を用いた。それぞれの詳細を以下に示す. ## 4.1.1 Round-Trip BLEU(R-BLEU) BLEU[12] は,機械翻訳モデルの性能評価に広く使われている評価尺度であり,参照訳と翻訳モデルが生成した文の単語の一致数をもとに算出される。本手法では, 元々の単言語コーパスと, 往復翻訳文の BLEU を疑似原文のスコアとする。 ## 4.1.2 Sentence BERT(S-BERT) BERT[13] とは,大規模な単言語コーパスにより学習された汎用な言語表現モデルである.また, BERT をファインチューニングし,文の分散表現の獲得に特化させた S-BERT[14] が提案されている.本手法では,S-BERT により元々の単言語コーパスと往復翻訳文それぞれの文の分散表現を獲得し,それらのコサイン類似度を疑似原文のスコアとして用いる. ## 5 実験 ## 5.1 データセット 本実験では,ドメイン外対訳コーパスとして WMT14コーパスを,ドメイン内単言語コーパスとして TED-talks を使用した. 翻訳タスクは,英語-ドイツ語とドイツ語-英語の双方向とした. TED コーパスは,約 15 万文を半分に分割し,先頭の 7 万文を英語,後ろの 7 万文をドイツ語の単言語コーパスとみなすことで 2 言語間で単言語コーパスが対訳とならないようにした。 前処理として,すべてのデータに対しNFKC 正規化し,Moses[15] の truecaserにより表記の統一を行った. また, Moses tokenizer により単語分割し, Sentence Piece[16] によりサブワード化を行った. Sentence Piece のモデルの学習には,ドメイン外対訳コーパスとドメイン内単言語コーパスを結合したものを用いた。 ## 5.2 実験設定 翻訳システムは,OpenNMT-py[17] の Transformer を使用した.エンコーダ,デコーダ共に 6 層,隠れ層の次元を 512 とした. 各モデルの性能評価には BLEU を用いた.学習ステップは,10 エポック分となるように設定し,各エポックごとにチェックポイントを保存した. 開発データに対する BLEU が最も高いチェックポイントのモデルをテストデータでの性能評価と単言語コーパスの逆翻訳に使用した. S-BERT は,Sentence Transformers[14]を使用し,事前学習済みのモデルは"all-MiniLM-L6-v2"を使用した. 動的混成サンプリングのしきい值は,R-BLEU を用いたモデルでは $0.65 , S$-BERT を用いたモデルでは 0.95 とした. これらの値は,いくつかのしきい值を設定して実験をおこなかった中で,開発データに対する BLEU が最も高くなるものを使用した。 提案手法の効果を評価するために,以下の手法で性能を比較した。 ベストサンプリング通常の beam searchにより IBT を行う。 ランダムサンプリングIBT における単言語コーパスの逆翻訳時に random sampling により文を生成し逆翻訳を行う. 表 1 各モデルの IBT における BLEU の最大値 TED 図 3 独英翻訳モデルの各ステップにおける動的混成サンプリングのランダムサンプリングの割合 混成サンプリング [9] 単言語コーパスを事前に分割し,上記の二つの方法を組み合わせて疑似対訳コーパスを作成する.今回の実験では,単言語コーパスを予め 5:5, 9:1, 7:3 の割合で分割し,片方をべストサンプリング,他方をランダムサンプリングで逆翻訳する。なお,IBT の各ステップで単言語コーパスの分割の仕方を変更する。 動的混成サンプリング提案手法により疑似原文の品質を評価し,文単位で動的にサンプリング手法を変更する.品質評価尺度として,R-BELU, S-BERT の 2 つの尺度を用い,それぞれのスコアがしきい值を超えた文をランダムサンプリングで逆翻訳する。それ以外の文は,ベストサンプリングで逆翻訳された文をそのまま学習に用いる. ## 5.3 実験結果 表 1 に各手法で Model 9 までIBT を行った中で, TED の開発データに対する BLEU が最も高かったモデルのテストデータに対する BLEUを示す.混成 サンプリングではベストサンプリングによる IBT を行ったべースラインから翻訳性能の改善は見られなかった。また,混成サンプリングの結果を比較すると,ベストサンプリングとランダムサンプリングの割合が 5:5 のモデルが最も BLEU が低く,両方向でベストサンプリングを下回っているのに対し,混合割合が 9:1 のモデルでは英独方向ではベースラインを +0.17 上回っている.このことから,本データセットではベストサンプリングが有効であると考えられる。一方で,動的混成サンプリングを用いたモデルは, R-BLEU, S-BERT 共に BLEU が向上し, ベースラインから英独方向では最大で +0.80 , 独英方向では +0.74 ポイント BLEU が向上した.これは,翻訳モデルが高品質な翻訳を行うことができる単言語コーパスに関してはランダムサンプリングが有効であり,逆に正しい翻訳を学習できていない単言語コーパスにはベストサンプリングによる逆翻訳が適しているという予想と一致する。また,R-BLEU, S-BERT のどちらを使用した場合もベースラインから翻訳性能は向上しているが,それぞれの品質評価尺度での文ごとのスコアの傾向は必ずしも一致しているとは限らないため,2つのスコアを組み合わせることでより翻訳精度が向上する可能性がある. 図 3 は,動的混成サンプリングの各ステップにおけるサンプリング手法の割合の推移を表している.学習が進むにつれ,ランダムサンプリングの割合が増加していることから,提案手法が IBT における翻訳モデルの性能の変化を活用できていることがわかる. ## 6 結論 本研究では,IBTによるドメイン適応手法の性能を改善するために,往復翻訳による品質評価に基づいたサンプリング手法を提案した. 実験の結果,動的混成サンプリングを用いた 2 つのモデルは共にベストサンプリングによる IBT を行ったベースラインを上回った. 従来の手法である混成サンプリングでは,翻訳性能が向上しなかったため,本手法は,ランダムサンプリングを用いた従来の手法では性能改善が難しいドメインでも有効に働くことことが確認できた. 今後の課題としては,現状の動的混成サンプリングは人手によりしきい値を定める必要があるため,パラメータの探索の必要がないサンプリング手法を検討したい. 謝辞本研究は JSPS 科研費 $19 K 11980$ および 18H01062 の助成を受けた。 ## 参考文献 [1] Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 8696, Berlin, Germany, August 2016. Association for Computational Linguistics. [2] Vu Cong Duy Hoang, Philipp Koehn, Gholamreza Haffari, and Trevor Cohn. Iterative back-translation for neural machine translation. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 18-24, Melbourne, Australia, July 2018. Association for Computational Linguistics. [3] Zhirui Zhang, Shujie Liu, Mu Li, Ming Zhou, and Enhong Chen. Joint training for neural machine translation models with monolingual data. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 32, No. 1, Apr. 2018. [4] 藤澤兼太, 秋葉友良, 塚田元. ニューラル機械翻訳における双方向反復的教師なし適応の改善. 言語処理学会第 26 回年次大会発表論文集, pp. 744-747. Association for Natural Language Processing, March 2020. [5] Di Jin, Zhijing Jin, Joey Tianyi Zhou, and Peter Szolovits. A simple baseline to semi-supervised domain adaptation for machine translation, 2020 [6] 森田知熙, 秋葉友良, 塚田元. 双方向の逆翻訳を利用したニューラル機械翻訳の教師なし適応の検討. 言語処理学会第 25 回年次大会発表論文集, pp. 1451-1454. Information Processing Society of Japan, March 2019. [7] 今村賢治, 藤田篤, 隅田英一郎. サンプリング生成に基づく複数逆翻訳を用いたニューラル機械翻訳. 人工知能学会論文誌, Vol. 35, No. 3, pp. A-JA9_1-9, 2020. [8] Sergey Edunov, Myle Ott, Michael Auli, and David Grangier. Understanding back-translation at scale. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 489-500, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [9] 森田知熙, 秋葉友良, 塚田元. Fine-tuninng と混成的な逆翻訳サンプリングに基づく $\mathrm{nmt}$ の双方向反復的教師なし適応の改善. 言語処理学会第 27 回年次大会発表論文集, pp. 1669-1674. Information Processing Society of Japan, March 2021. [10] Hao-Ran Wei, Zhirui Zhang, Boxing Chen, and Weihua Luo. Iterative domain-repaired back-translation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 5884-5893, Online, November 2020. Association for Computational Linguistics. [11] Zi-Yi Dou, Antonios Anastasopoulos, and Graham Neubig. Dynamic data selection and weighting for iterative back-translation. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 5894-5904, Online, November 2020. Association for Computational Linguistics. [12] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [13] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [14] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3982-3992, Hong Kong, China, November 2019. Association for Computational Linguistics. [15] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris CallisonBurch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open source toolkit for statistical machine translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, Prague, Czech Republic, June 2007. Association for Computational Linguistics. [16] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [17] Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, and Alexander Rush. OpenNMT: Open-source toolkit for neural machine translation. In Proceedings of ACL 2017, System Demonstrations, pp. 67-72, Vancouver, Canada, July 2017. Association for Computational Linguistics. ## A 付録 動的混成サンプリングの各ステップにおける英独方向のサンプリング手法の割合の推移を以下に示す。 図 4 英独翻訳モデルの各ステップにおける動的混成サンプリングのランダムサンプリングの割合
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C6-2.pdf
# 構文ラベル予測による同時ニューラル機械翻訳 加納保昌 1 須藤克仁 1,2 中村哲 1,2 1 奈良先端科学技術大学院 2 理化学研究所 革新知能統合研究センター AIP \{kano. yasumasa.kw4, sudoh, s-nakamura\}@is.naist.jp ## 概要 同時翻訳は、話し手が話し終わる前に翻訳を開始するタスクであり、いつ翻訳を開始するかが重要である。しかし、英語と日本語のように語順が異なる言語ペアのニューラル機械翻訳では、そのタイミング判断は未だ難しい。そこで、構文ラベル予測モデルと、そのラベルを利用した簡単な判断ルールを提案する。これらにより、既存手法では難しかった翻訳の構文や出力タイミングの制御もしやすくなった。英日同時通訳の実験で、提案手法は精度と遅延のトレードオフにおいて、ベースラインを上回った。 ## 1 はじめに 表 1 英語 (SVO) から日本語 (SOV) への翻訳 同時翻訳は、話し手が話し終わる前に翻訳を始めるタスクである。文の後半を見ずに翻訳を始めなければいけないので、文全体を見て行う通常の翻訳 (フルセンテンス翻訳) より難しい。同時翻訳では、 いつ翻訳を始めるのかというタイミングを決めることが重要である。そのタイミングの遅延と翻訳精度にはトレードオフがあり、できるだけ遅延を抑える必要がある。 よく使われる同時機械翻訳モデルの一つに wait-k 込まれるのを待ったのちに、翻訳を開始する。しかし、このような単純な手法では日英などの、長距離の単語の並べ替えが必要となる言語対の同時翻訳は難しい。 表 1 に示されている通り、単純に前から訳すだけの順送り翻訳は不自然になりがちである。“bought a pen”という部分は、“ペンを買った”というように訳される方が自然である。ここでは、“bought” の後の目的語を待つ必要がある。この例文では、“I”が並べ替えを必要としない最後の単語であり、ここが自然に翻訳をすることができるセグメントの境である。 このような並べ替えの問題を解決するため、部分入力文の次にくる構文ラベルの予測とそれに基づくシンプルなルールによってセグメンテーションを行い、チャンクベースで翻訳をする手法を提案する。 これによって、既存手法では困難だった翻訳出力の構文とタイミングの制御をしやすくした。そして、英日同時翻訳の実験の結果、ベースラインを精度と遅延のトレードオフにおいて上回った。 ## 2 関連研究 ニューラル同時機械翻訳においては、wait-kよりも翻訳タイミングを柔軟に決められるように、遅延をロス関数に組み込む手法が提案されてきた $[2,3,4]$ 。しかし、学習済みモデルを用いて最適なセグメント境界を BERT [5] による予測モデルで見つけ、チャンクごとに翻訳していく Meaningful Unit (MU)[6] という手法も提案され、これらを上回った。 統計的機械翻訳においては、構文情報を用いる手法として、小田ら [7] が、各セグメントの右辺と左辺の構文要素ラベルを予測することで、不完全な文を漸進的に構文解析する手法を提案した。彼らは、予測された構成要素とセグメント内の単語を連結し、その結果を tree2string の機械翻訳に入力した。 そして、翻訳結果のどこに構成要素が現れるかによって、さらに入力トークンを待つか、翻訳を出力するかを決めた。本研究はこの手法をニューラル機械翻訳に展開し、よりシンプルにしたものである。 & \\ 図 1 ICLP から予測されたラベルとルールに基づいて境界が検出されると、NMT(翻訳モデル)は翻訳を開始する。前の翻訳(図では赤色)は次の翻訳のプレフィックスとして使われる。図では簡単のため EOS は省略されている。 & You & & & & & & & . \\ 表 2 最小セグメント長が 1 の ICLP の結果例。 ## 3 提案手法 図 1 は提案手法の全体図である。まず、文のプレフィックスから次の構文要素ラベルを予測する。そして、そのラベルを用いたルールによってそこがセグメント境界だと判断された場合には、そのチャンクを翻訳する。 ## 3.1 チャンクベースの同時翻訳 標準的なニューラル機械翻訳は次の式で表される。 $ p_{\text {full }}(Y \mid X)=\prod_{t=1}^{|Y|} P\left(y_{t} \mid X, y_{<t}\right) $ $X=x_{1}, x_{2}, \ldots, x_{n}$ は $n$ トークンからなる入力文で、 $Y=y_{1}, y_{2}, \ldots, y_{m}$ は $m$ トークンからなる予測された翻訳文である。 チャンクベースの同時翻訳でも、上記のモデルを通常の対訳文ペアで学習する。しかし、推論時には以下の処理を行う。 チャンク系列 $\boldsymbol{X}^{i-1}=X_{1}, X_{2}, \ldots, X_{i-1}$ をチャンク系列 $\widetilde{\boldsymbol{Y}}^{i-1}=\widetilde{Y}_{1}, \widetilde{Y}_{2}, \ldots, \widetilde{Y}_{i-1}$ に翻訳したとする。次に $X_{i}$ から $\widetilde{Y}_{i}$ へ翻訳する際には、過去の全ての $X_{1}^{i}$ を含めて、頭から翻訳し直すが、 $\widetilde{Y}^{i-1}$ に forced decoding を適用する。プレフィックス $\widetilde{Y}^{i}$ の確率は以下の式で表され、第一項は (1) 式のフルセンテンスの翻訳 と同様に計算される。 $ \begin{aligned} & p_{\text {prefix }}\left(\widetilde{\boldsymbol{Y}}^{i} \mid \boldsymbol{X}^{i}\right)= \\ & \quad p_{\text {full }}\left(\widetilde{\boldsymbol{Y}}^{i-1} \mid \boldsymbol{X}^{i}\right) \times p_{\text {chunk }}\left(\widetilde{Y}_{i} \mid \boldsymbol{X}^{i}, \widetilde{\boldsymbol{Y}}^{i-1}\right) . \end{aligned} $ 第二項は、 $\widetilde{Y}_{i}=y_{1}^{i}, y_{2}^{i}, \ldots, y_{\left|\widetilde{Y}_{i}\right|}^{i}$ として、以下のように分解される。 $ p_{\text {chunk }}\left(\widetilde{Y}_{i} \mid \boldsymbol{X}^{i}, \widetilde{\boldsymbol{Y}}^{i-1}\right)=\prod_{t=1}^{\left|\widetilde{Y}_{i}\right|} P\left(y_{t}^{i} \mid \boldsymbol{X}^{i}, \widetilde{\boldsymbol{Y}}^{i-1}, y_{<t}^{i}\right) . $ チャンクベースのデコーディングは、チャンクごとに Encoderをリフレッシュする。チャンクは複数単語で構成されることが多いため、新しい単語が入ってくるたびに Encoder をリフレッシュする漸進的な Transformer[1] よりも効率的である。 ## 3.2 構文ラベル予測 現在の時間ステップにおいて、文のプレフィックスの後に来る構文構成ラベルを予測する。この処理を ICLP (Incremental Constituent Label Prediction) と呼ぶ。ここで、次の構文ラベルとは、木の先行順において文のプレフィックスの次に来る構成要素であると定義する。しかし、ある統語要素の次には通常多数の統語要素が出現し得るため、このままでは予測が難しい。そこで提案手法では、一つ先の単語を見て、その単語から始まる構文要素のラベルを予測することとする。入力系列 $W=\left[w_{1}, w_{2}, \ldots, w_{|W|}\right]$ において、部分単語系列 $w_{i}$ から構文ラベル $c_{i}$ を予測す る式は以下で表される。 $ c_{i}=\underset{c^{\prime} \in C}{\operatorname{argmax}} p\left(c^{\prime} \mid w_{\leq i}\right), $ C は構文ラベル集合である。 ## 3.3 セグメンテーションルール 表 2 はセグメンテーションの例を示す。我々は一つの基本ルールと二つの補助ルールを提案する。 ・S と VP の直前で区切る。 ・前のラベルが $\mathrm{S}$ または VP であれば区切らない。 ・チャンクが最小セグメント長より小さければ区切らない。 SVO 型から SOV 型へと翻訳する際には、原言語の主語と動詞の間では問題なく区切れるが、動詞と目的語の間では並べ替えが発生するため、区切るべきではない。よって第一のルールとして、VPの前で区切ることとした。Table 3 のように、“( S ( VP “) )” の形で現れることも多いので、 $\mathrm{S}$ もルールに追加した。 表 2 の“can save”のように、VP が連続する場合は、“can”と“save”で分けるのは適切ではないため、 2つ目のルールを設けた。 また、精度と遅延をコントロールするため、三つ目のルールとして、最小セグメント長を推論時のハイパーパラメータとして与えた。 ## 4 実験 提案手法の遅延と精度のトレードオフ、そして翻訳タイミングの制御を既存手法と比べるため、英日同時翻訳の実験を行った。 ## 4.1 データと前処理 英日対訳データとして WMT2020 の約 1790 万文で学習し、IWSLT2017 の約 22.3 万文でファインチューニングを行った。IWSLT の dev2010、tst2011、 tst2012、 tst2013 からなる 5312 文のペアを開発デー タに使用し、IWSLT の dev2021 の 1442 文でモデルを評価した。 英語は Moses [8] で、日本語は MeCab [9] で単語分割した。BPEでサブワード分割し、語彙サイズは英日共有で 1.6 万とした。ICLP は Penn Treebank 3 を用いて学習し、その $1 \%$ 開発データとした。そして、 NAIST-NTT TED Talk Treebank で評価した。 ## 4.2 モデル設定 全ての翻訳モデルは fairseq [10] の Transformer-base [11]をベースに実装され、IWSLT2021 のベースモデ はセグメント境界である確率の閾値を、固定長区切りではセグメント長を、ICLP では最小セグメント長を変えることによって遅延を制御した。值の範囲などの詳細は付録に記述する。 ICLP は 2 種類実装し、比較した。一つは 2 層の単方向 LSTM [14] に全結合層を加えたもので、エンベディングと隠れ層は 512 次元とし、入力は Moses でトークナイズし、BPE[15] で語彙 16K のサブワー ドに分割した。もう一つは、BERTを用いたもので、 Huggingface transformers[16] $の$ bert-base-uncased を用いて、それに付随するトークナイザを用いた。これらに、文のプレフィックスを入力し、構文ラベルを予測した。 一つ先の単語を見ることで精度の向上が見られ、LSTM と BERT の差は小さかった。詳細は付録参照、 ## 4.3 評価 simuleval [17] を用い、精度は BLEU [18] で、遅延の大きさは Average Lagging (AL) [1] で測った。AL は以下の式で表される。 $ A L_{g}(X, Y)=\frac{1}{\tau_{g}(|X|)} \sum_{t=1}^{\tau_{g}(|X|)} g(t)-\frac{t-1}{\gamma} . $ $g(t)$ は、非減少関数で、 $t$ 番目の目的言語単語を出力するために読む原言語の単語数を示す。 $\tau_{g}(|X|)$ は原言語文全体を読み終えた時のデコードステップである。最後の原言語トークンを読み込んだ直後に予測される $\tau_{g}(|X|)$ 番目のターゲットトークンまでの遅延をカウントする。 $\gamma$ は $|Y| /|X|$ である。 ## 4.4 結果 図 2 は遅延パラメータを変化させたときの BLEU と AL の関係を示す。提案手法は、ベースラインの左上にあり、遅延と精度のトレードオフで上回った。VPにS を加えることによって、境界の数が増え、点が左側に移動し、遅延を抑えた。wait-kのように単純なモデルとその他では大きな差があった。 その一方、固定長区切りのチャンクデコーディングは単純だが、wait-kよりも精度が提案手法に近 図 2 BLEU と AL の散布図。MU1 と MU2 はそれぞれ境界予測に 1 つまたは 2 つ先の単語を用いた MU。fixed はワブワード、または単語単位で固定長に区切って翻訳したモデル。 図 3 Length Ratio と AL の散布図。 かった。 ## 5 分析 ## 5.1 セグメント長分布 図 3 に機械翻訳と参照訳の長さ比である length ratio と AL の関係を示す。Wait-k は遅延ごとにモデルを学習するので不安定であるが、それ以外のモデルに関しては、Ratio は AL が小さく遅延が小さいほど、大きくなっている。ALが小さいということは、平均セグメント長が短いということであり、その場合には、想定された長さより長いセグメント翻訳が出力されているということがわかる。 図 4,5 は AL が 7.2 に近い時のテストセットにおける原言語のセグメント長分布を示す。長さは各セグメントに含まれるサブワード数である。ICLP に比べると、MUは、より広い分布を持ち、多くのセグメントが 2 トークンから構成されている。このような短いセグメントは、周囲のコンテクストが使え 図41つ先の単語を利用した MU のセグメント長分布 $(\mathrm{AL}=7.26, \mathrm{BLEU}=16.53)$ 図 5 ICLP のセグメント長分布 $(\mathrm{AL}=7.23, \mathrm{BLEU}=17.22)$ ず、上記のように長めに翻訳されることが原因で、 MU の BLEU の低下につながったと考えられる。 ## 5.2 遅延制御 図 4,5 で示されているように、提案手法の方が分布の広がりが狭く、より翻訳タイミングの間隔が安定している。 最小セグメント長というハイパーパラメータによってどのようなタイミングで翻訳がされるかということが予測しやすくなることに加え、構文ラベルのルールによって、出力がどのような構文になるかもある程度制御できるようになる。本稿で提案したルールでは、フルセンテンスの翻訳に近づけることを目指した。しかし、それよりも遅延を小さくしたい場合でも、NP の前でも区切るというルールを加えるだけで、表 1 のような順送りだが内容を理解できる翻訳を出力することもできる。実際の出力例を付録に記載する。 ## 6 おわりに 本稿では、構文ラベル予測モデルとそれに基づくルールを使った同時翻訳を提案した。翻訳出力の制御もしやすくなり、ベースラインを精度と遅延のトレードオフで上回った。今後は、このようなルールを自動で発見して、他の言語対にも適用することが期待される。 ## 謝辞 本研究の一部は JSPS 科研費 JP21H05054 と JP21H03500 の助成を受けたものである。 ## 参考文献 [1] Mingbo Ma, Liang Huang, Hao Xiong, Renjie Zheng, Kaibo Liu, Baigong Zheng, Chuanqiang Zhang, Zhongjun $\mathrm{He}$, Hairong Liu, Xing Li, Hua Wu, and Haifeng Wang. STACL: Simultaneous translation with implicit anticipation and controllable latency using prefix-to-prefix framework. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 30253036, Florence, Italy, July 2019. Association for Computational Linguistics. [2] Colin Raffel, Minh-Thang Luong, Peter J Liu, Ron J Weiss, and Douglas Eck. Online and lineartime attention by enforcing monotonic alignments. In Proceedings of the 34th International Conference on Machine LearningVolume 70, pp. 2837-2846, 2017. [3] Naveen Arivazhagan, Colin Cherry, Wolfgang Macherey, Chung-Cheng Chiu, Semih Yavuz, Ruoming Pang, Wei Li, and Colin Raffel. Monotonic infinite lookback attention for simultaneous machine translation. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1313-1323, Florence, Italy, July 2019. Association for Computational Linguistics. [4] Xutai Ma, Juan Pino, James Cross, Liezl Puzon, and Jiatao Gu. Monotonic multihead attention. In ICLR 2020, 2020. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [6] Ruiqing Zhang, Chuanqiang Zhang, Zhongjun He, Hua Wu, and Haifeng Wang. Learning adaptive segmentation policy for simultaneous translation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2280-2289, Online, November 2020. Association for Computational Linguistics. [7] Yusuke Oda, Graham Neubig, Sakriani Sakti, Tomoki Toda, and Satoshi Nakamura. Syntax-based simultaneous translation through prediction of unseen syntactic constituents. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 198207, Beijing, China, July 2015. Association for Computational Linguistics. [8] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open source toolkit for statistical machine translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, Prague, Czech Republic, June 2007. Association for Computational Linguistics. [9] Taku Kudo. Mecab : Yet another part-of-speech and morphological analyzer., 2005 . http://mecab. sourceforge.net/. [10] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [11] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszko-reit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and andillia Polosukhin. Attention is all you need. CoRR, p. Vol.abs/1706.03762, 2017. [12] How to reproduce the result of wmt14 en-de on transformer base model?, 2018. https://github.com/pytorch/ fairseq/issues/346. [13] An example of english to japaneses simultaneous translation system, 2021. https://github.com/pytorch/ fairseq/blob/master/examples/simultaneous_ translation/docs/enja-waitk.md. [14] Sepp Hochreiter, J “ urgenSchmidhuber. Long shortterm memory. Neural Computation, 1997. [15] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [16] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, Online, October 2020. Association for Computational Linguistics. [17] Changhan Wang Jiatao Gu Juan Pino Xutai Ma, Mohammad Javad Dousti. Simuleval: An evaluation toolkit for simultaneous translation. In Proceedings of the EMNLP, 2020. [18] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. ## A 付録 ## A. 1 翻訳モデルのハイパーパラメータ ## wait-k $\mathrm{k}$ の範囲は、 $[2,4,6, \ldots, 30]$ MU ハイパーパラメータ $\mathrm{p}$ はセグメント境界である確率の閾値を表す。p の範囲は、 $\mathrm{p}$ are [0.5, $0.1,0.15, \ldots, 0.95],[0.99,0.991,0.992, \ldots, 0.999]$, and [0.9991, 0.9992,..., 0.9999]。境界予測の際には、1 つ、または 2 つ先のトークンを利用した。 ## Fixed-size Segmentation これは入力系列を固定長で区切ってチャンクデコーディングを行う。セグメントサイズを表すハイパーパラメータ $\mathrm{f}$ の範囲は、単語単位では、 $[2,4,6, \ldots, 30]$ 、サブワード単位では、 $[4,8$, $12, \ldots, 60]$ とした。 ICLP ハイパーパラメータは、セグメントを構成する最小単語数 $\mathrm{m}$ で、その範囲は、 $[1,2,3, \ldots, 29]$ 。。 Wait-k は $\mathrm{k}$ トークン待った後は、一つの単語の入力後、必ず一つの単語を出力しなければならないため、 greedy decodingを行った。それ以外のモデルは、 beam search をビーム幅 4 で行った。 ## A. 2 ルールの違いによる実際の出力例 原文 I /like / delicious food. ラベル / VP/NP/NN / . 翻訳私は/好きです/美味しい食べ物. 表 3 VP+NPで区切った結果 原文 I / like delicious food. ラベル / VP / NP / NN / . 翻訳私は/美味しい食べ物が好きです。 表 4 VPのみで区切った結果 ## A. 3 ICLP モデルの比較 表 51 つ先の単語を用いた BERT ベースの ICLP 表 61 つ先の単語を用いた LSTM ゙ーースの ICLP 表 7 先の単語を用いない BERT ベースの ICLP 図 6 LSTM ベースと BERT ベースの ICLP の英日同時翻訳比較
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C6-3.pdf
# 近傍の事例を用いた非自己回帰生成 丹羽彩奈 高瀬翔 岡崎直観 東京工業大学 情報理工学院 \{ayana.niwa [at] nlp., sho.takase [at] nlp., okazaki [at]\} c.titech.ac.jp ## 概要 非自己回帰モデルは,自己回帰モデルよりも少ない計算量で文を生成できるが,生成文の品質が劣るため,生成を反復する等の工夫が要る。本稿では,編集操作に基づく非自己回帰モデルの初期状態に入力文の近傍の事例を活用し,反復回数を抑えつつ生成品質を改善する手法を提案する。また,初期事例の選び方で性能が変化すること, 理想的な事例を選択できれば,非自己回帰モデル単体でも自己回帰モデルの性能を上回る可能性があることを報告する。 ## 1 はじめに 非自己回帰モデル [1] は,近年活発に研究が進められているテキスト生成の枠組みのひとつである。自己回帰モデル [2] では,デコーダの入力層から出力層への順伝播の計算を生成されるトークンの数だけ繰り返す必要があるが,非自己回帰モデルは複数のトークンを同時に予測するため,順伝播の計算が 1 回で済み, 生成が速い。一方で,生成されるトー クン間の依存関係を十分に捉えられず,自己回帰モデルに比べて生成文の品質が劣る傾向にある. これに対し, 非自己回帰モデルの生成を複数回繰り返すことで生成文の質を向上させる手法が提案されているが,生成速度の優位性を維持したまま自己回帰モデルと同等の生成品質に引き上げることは達成できていない $[3,4]$. また品質向上のために自己回帰モデルを利用した知識蒸留 [5] がほぼ必須である. 本研究では,非自己回帰モデルによる生成文の品質をより少ない回数の生成で向上させるため,近傍の事例を初期状態に用いる手法を提案する. 近傍の事例は, 品詞タグ付け [6] や, 用例ベース機械翻訳 $[7,8]$ など,幅広いタスクで活用されてきた. 近年では,特にニューラル機械翻訳などのタスクで自己回帰モデルにおける近傍の事例の有効性が報告されている $[9,10,11]$. しかし, 非自己回帰モデルにおける近傍の事例の有効性は検証されていない。提案手法では,Levenshtein Transformer [12]をべー スに,検索された近傍の事例に対してトークンの挿入・削除を行い,文を生成する.例えば,"I have an apple.” という英文を “Ich habe einen Apfel.” という独文に翻訳する時, “I have a banana.”—“Ich habe eine Banane.”という英独の翻訳対を近傍の事例として見つけ,その独文を初期状態として 'eine', 'Banane'という単語を削除し, 'einen', 'Apfel’’とい単語を插入することで,正しい独訳を生成できる。これにより,全てのトークンを無から生成するよりも容易に文を生成できるため, 品質の向上と生成回数の削減を期待できる。検索された近傍の事例からターゲッ卜文への編集操作を効率的に学習するため,本研究では近傍の事例とターゲット文の違いに着目した学習方策を設計する. 既存研究 $[13,14]$ は近傍の事例をエンコードする特別な機構やパラメータが必要であったが,提案手法は学習法策の変更により近傍の事例を考慮したデコーディングを実現する。 評価実験では,非自己回帰モデルにおいても近傍の事例は有用であり,既存の非自己回帰モデルと比べ少ない反復回数で高い生成品質を達成できることが分かった。また,理想的な近傍の事例を選ぶことができれば,非自己回帰モデル単体でも自己回帰モデルの性能を超える可能性があることも報告する. ## 2 提案手法 本研究では,ソース文 $x$ と近傍の事例 $z_{0}$ を用いてターゲット文 $\boldsymbol{y}^{*}$ を生成する系列変換タスクに取り組む. 図 1 に示す通り,提案手法は翻訳メモリ(学習事例の全文対)から近傍の事例を検索する(2.2 節). 次に,検索した近傍の事例に対してトークンの削除・挿入を行うことで文を生成する(2.1 節). ## 2.1 近傍の事例の編集モデル モデルの概要提案モデルは,編集に基づく非自己回帰モデル Levenshtein Transformer [12] に着想を得た系列変換モデルである.デコーダは,不要 図 1 提案手法の概要. 英文 “Procedures for the implementation of humanitarian operations”を独文 “Verfahren für die Durchführung der humanitären Aktionen” に翻訳するとき,近傍の事例 “Zeitplan für die Durchführung der Aktionen (schedule for implementation of measures)”を初期状態として編集を繰り返す. なトークンの削除,プレースホルダー $[\mathrm{PLH}]$ の挿入, $[\mathrm{PLH}]$ への単語の挿入の機構を持つ. 近傍の事例 $z_{0}$ からターゲット文 $\boldsymbol{y}^{*}$ への編集操作は, 模倣学習で学習する。模倣学習は強化学習の一種で,エキスパートの一連の行動を模倣し,同様の行動ができるように学習する. モデルはステップ $k$ で前ステップで編集済みの系列 $\boldsymbol{y}^{k-1}$ を受け取り, 次の系列 $\boldsymbol{y}^{k}=\mathscr{E}\left(\boldsymbol{y}^{k-1}, \boldsymbol{a}^{k}\right)$ を生成するための行動(編集操作) $\boldsymbol{a}^{k} \in \mathscr{A}$ を選択する.ここで, \& は編集操作と系列を受け取り,編集済みの系列を返す環境である。この行動を選択するための方策 $\pi$ は, 入力系列 $\boldsymbol{y}_{0: n}^{k-1}$ に対するデコーダの出力 $\left(\boldsymbol{h}_{0}, \boldsymbol{h}_{1}, \ldots, \boldsymbol{h}_{n}\right)$ から行動空間 Aへの写像として定義される. 方策 $\pi$ は線形分類器で近似するのが一般的であり,本モデルにおける方策 $\pi$ は削除すべきトークン位置の予測器 $\pi^{\mathrm{del}}$, [PLH] を挿入すべき位置と数の予測器 $\pi^{\mathrm{ph}}$, そして [PLH] に挿入すべきトークンの分類器 $\pi^{\mathrm{tok}}$ からなる. 学習時方策分類器の学習では, 系列 $\boldsymbol{y}$ からエキスパートとなる文 $e$ を生成するための正しい行動を示すオラクル方策 $\pi^{*}$ を設計する.モデルは,その系列 $\boldsymbol{y}$ とエキスパート $\boldsymbol{e}$ の編集距離 $D$ が最も小さくなるように編集操作を選択する。 なお,本模倣学習における報酬関数はこの編集距離 Dの負の値をとったものである. $ \boldsymbol{a}^{*}=\underset{\boldsymbol{a}}{\arg \min } \mathscr{D}(\mathscr{E}(\boldsymbol{y}, \boldsymbol{a}), \boldsymbol{e}) $ そして, 入力事例に対する最適な編集操作 $\boldsymbol{a}^{*}$ の確率が最大となるようにモデルの方策 $\pi_{\theta}=\pi^{\mathrm{del}} \cdot \pi^{\mathrm{phh}} \cdot \pi^{\mathrm{tok}}$ を更新する. 本研究では, 近傍の事例に対する編集操作を効率的に学習するため, 各編集操作におけるオラクル方策 $\pi^{*}$ を次のように設計した. 1. 削除操作: 近傍の事例に対する編集操作において重要なのは, 近傍の事例内に含まれる不要な単語を削除することである.そこで,近傍の事例 $z_{0}$ を削除操作の対象 $\boldsymbol{y}_{\mathrm{del}}$ とし, ターゲット文 $\boldsymbol{y}^{*}$ に存在しない単語を削除する学習を行う。 $ \begin{gathered} \boldsymbol{y}_{\mathrm{del}}=z_{0} \\ \pi^{*}\left(\boldsymbol{y}_{\mathrm{del}}\right)=C\left(\boldsymbol{y}^{*}, z_{0}\right) \end{gathered} $ ここで, $C\left(\boldsymbol{y}^{*}, z_{0}\right)$ は系列 $\boldsymbol{y}^{*}$ と $z_{0}$ の共通単語列を返す関数である。 2. 挿入操作: ターゲット文をエキスパートとし, トークンが削除された文に必要なトークンを挿入する学習を行う. 挿入操作の対象となる系列 $\boldsymbol{y}_{\text {ins }}$ にはモデルが系列 $\boldsymbol{y}$ に削除操作 $\tilde{d}$ を行った後の不完全な事例 $\mathscr{E}\left(z_{0}, \tilde{d}\right)$ とターゲット文 $\boldsymbol{y}^{*}$ からランダムに単語を削除した事例 $\mathscr{E}\left(\boldsymbol{y}^{*}, \tilde{d}\right)$ のいずれかからランダムに選択し,挿入操作を学習する。 $ \boldsymbol{y}_{\text {ins }}=\left.\{\begin{array}{cc} \mathscr{E}\left(\boldsymbol{y}^{*}, \tilde{d}\right), \tilde{d} \sim \pi^{\mathrm{RND}} & (\text { if } u<\alpha) \\ \mathscr{E}\left(z_{0}, \tilde{d}\right), \tilde{d} \sim \pi_{\theta} & \text { (otherwise) } \end{array}\right. $ ここで, $\pi^{\mathrm{RND}}$ はランダムに単語を削除する方策, $\pi_{\theta}$ は学習中のモデルの方策, $\alpha \in[0,1]$ はハイパー パラメータ, $u$ は $[0,1]$ から一様分布に従ってサンプリングした值である. 挿入操作は, $[\mathrm{PLH}]$ が必要な位置とその数を予測した後, $[\mathrm{PLH}]$ を埋めるトー クンを予測するという二つのサブタスクからなる。 推論時事前に検索した近傍の事例 $z_{0}$ を最初のデコーダへの入力として,最も高確率な編集操作を選択・適用することを繰り返すことで文を生成する. このとき, 反復回数が上限に達するか, 同じ編集操作が予測された場合に編集を終了させる. ## 2.2 近傍の事例の検索 提案手法では,学習データ内のすべての文対を含む翻訳メモリから生成したい文に最も類似した事例を検索し,学習時・推論時の編集対象とする。既存の近傍の事例の検索方法は, 語彙マッチング $[9,11]$ とべクトル $[10,14]$ の二種類に大別される [9]. 語彙マッチングいくつかの方法が考えられるが,今回は大きなデータにもスケールするように,近傍の事例を用いた既存研究 [15] と同様に,単語の出現頻度をべクトル化する.具体的には,TFIDF ベクトル tfidf(.) のコサイン類似度を用いて事例 $s_{i}, s_{j}$ の近さスコア $S_{\text {TFIDF }}$ を定義する。 $ S_{\mathrm{TFIDF}}\left(s_{i}, s_{j}\right)=\frac{\operatorname{tfidf}\left(s_{i}\right) \cdot \operatorname{tfidf}\left(s_{j}\right)}{\left.\|\operatorname{tfidf}\left(s_{i}\right)\right.\|\left.\|\operatorname{tidf}\left(s_{j}\right)\right.\|} $ また,より大域的な系列の類似度を考慮するため, TFIDF ベクトルの類似度が上位 $n$ 件の事例を最長共通部分文字列(LCS)の長さでリランキングする設定でも実験を行う (TFIDF+LCS). 文ベクトルエンコーダから計算される文べクトルのコサイン類似度 $S_{\text {SentVec }}$ を用いる. $ S_{\text {SentVec }}\left(s_{i}, s_{j}\right)=\frac{\boldsymbol{h}_{\boldsymbol{i}} \cdot \boldsymbol{h}_{\boldsymbol{j}}}{\left.\|\boldsymbol{h}_{\boldsymbol{i}}\right.\|\left.\|\boldsymbol{h}_{\boldsymbol{j}}\right.\|} $ ここで, $\boldsymbol{h}_{i}, \boldsymbol{h}_{j}$ はそれぞれ,文 $s_{i}, s_{j}$ をエンコードして得られた文べクトルである。 ## 3 実験 機械翻訳タスクを用いて,非自己回帰生成モデルにおける近傍の事例の効果を調べる。 ## 3.1 実験設定 データセット本研究では法文書コーパスである JRC-Acquis ${ }^{1)}$ を利用する。本実験では,重複する対訳対の事例を除外した後, $\mathrm{Gu}$ ら [11] と同様の前処理を行なった. 各言語対の事例数を表 1 に示す. トークナイザには Moses Tokenizer 2)を用いた。 モデル自己回帰モデルの(AR)ベースラインとして Transformer [16] の base 設定を用いる。また,  編集操作に基づく非自己回帰モデル(NAR)のベー スラインとして Levenshtein Transformer (Levenshtein Trans)[12]を用いる. 提案手法は NeighborEdit と表記する.モデルは fairseq [17] ${ }^{3}$ をべースに実装した. 学習は全て 1 ステップあたりのバッチサイズを 32,768,ステップ数は 40,000 回とした. 近傍の事例の検索法 2.2 節で説明した TFIDF, SentVec で翻訳メモリを検索し,入力に最も近い事例を選択する. TFIDF+LCS では,TFIDF で検索された上位 10 件を LCS の長さでリランキングした.比較のため,訓練データからランダムに選んだ場合も実験した. 文べクトルのエンコーダには多言語コーパスで事前学習済みの SBERT モデル ${ }^{4}$ [18]を,近傍検索には faiss ${ }^{5}$ を用いた。 評価生成の品質評価では,SacreBLEU [19] を用い,大文字小文字を区別する BLEU で比較する.また,一事例あたりの推論に要した平均反復回数と平均所要時間を測定する. 後者は, 先行研究 [20] に従い,1 個の GPU を用いてバッチサイズ 1 で文を生成し,一事例を生成し終えるまでの所要時間の平均値を求めた.なお,提案手法の平均所要時間には近傍の事例の検索にかかる時間も含めた。 ## 3.2 実験結果 表 2 に BLEU, 平均反復回数, および所要時間 [ms] を示した. また,提案手法とべースラインの出力例を A. 1 に示した. 近傍の事例を初期状態に用いる NeighborEdit は,非自己回帰モデルのベースライン(Levenshtein Trans)の性能を 2.2 から 6.3 ポイン卜ほど上回った. 平均反復回数もべースラインから最大で $25 \%$ 以上減少した. この結果は, 近傍の事例を非自己回帰モデルに組み込むことで,品質を向上させながら反復回数を削減できることを示している. さらに,推論にかかる所要時間もほぼ全ての設定でベースラインよりも短くなった. この所要時間に関しては,付録 A. 2 で補足した。  表 2 JRC-Acquis データセットでの BLEU スコアと平均反復回数と平均所要時間(太字は非自己回帰モデルでの最良値) 表 3 SRC と ORACLE の BLEUスコアの比較(英独,*は自己回帰モデルの BLEU スコア 53.22 を超えた数值を指す)近傍の学習時の推論時のクエリ 続いて,提案手法の初期系列 $z_{0}$ が生成の質に与える影響を詳しく調べるため,学習時と推論時の検索クエリにそれぞれソース文(SRC) とターゲット文 (ORACLE)を用いた場合を比較する.後者は,理想的な近傍の事例を選択した場合の上限性能を表す.表 3 に英独での結果を示した通り,特に語彙マッチングを用いた検索では,推論時に ORACLE を用いることで BLEU スコアが向上する(+1.69 から+4.56 ポイント)。一方で,学習時に ORACLE を組み込んでも,BLEU スコアはさほど変化しないため,提案手法の性能向上のためには, 編集操作の訓練データを理想に近づけるよりも,初期状態を改善することが重要である. つまり,適切な近傍の事例を選択できれば,提案手法は自己回帰モデル(AR)の性能を超える可能性がある. これは, 英仏・英西でも同様であった (付録 A. 3 参照). しかし, 現実の問題設定では ORACLE のターゲット文を用いることができない. そこで, SRCで検索した事例のみで ORACLE の性能に迫ることができるかを調べるため,用いる近傍の事例を 5 件に増やし,それぞれ並列に文を生成し, その中で最も BLEU の値が高い事例を出力文と見なした場合の結果を表 4 に示した. その結果,すべての検索法で大幅に性能が向上し $(+4.60$ から +5.45 ポイント), ORACLE(上位 1 件)と同等以上の性能を達成できた。つまり,SRCをクエリとした場合でも,表 4 近傍の事例数を変えた場合の BLEU スコア(英独) リランキングによって自己回帰モデルの性能を英独翻訳で 2.88 ポイント以上上回る可能性がある. しかし,提案手法には改善の余地がある。例えば,非自己回帰モデルによく見られる問題である単語の反復 [1] がベースラインよりも頻繁に見られる. これは,提案手法の方策がモデルの出力に対する削除操作を対象としておらず,デコードの途中で余計に生成された単語を反復の過程で削除しにくいためである。また,近傍の事例から出力文を生成するまでに, 複数回の反復を要する事例でも生成文の品質が低下する傾向が見られる。単語の重複を削除したり,複数の反復にわたって編集を行う場合の性能を改善するため,モデルの出力に対する編集操作を組み込んだ方策の設計を今後の課題としたい。 ## 4 おわりに 本稿では,編集操作に基づく非自己回帰モデルに近傍の事例を組み込む手法を提案し, 既存手法よりも少ない反復回数でも生成文の質を大幅に改善できることを報告した.また,近傍の事例の選び方で性能が大きく変化すること,近傍の事例を適切に選択できれば,非自己回帰モデル単体でも自己回帰モデルの性能を超える可能性があることを示した. 今後の展望としては,より良い文単位での近傍の事例の検索法の検討やモデルの出力に対して繰り返し編集を行うための方策の設計,複数の近傍の事例を同時に考慮するモデルの開発を行いたい。 ## 謝辞 本研究は JSPS 科研費 $21 \mathrm{~J} 13602$ の助成を受けたものです. ## 参考文献 [1] Jiatao Gu, James Bradbury, Caiming Xiong, Victor O.K. $\mathrm{Li}$, and Richard Socher. Non-autoregressive neural machine translation. In International Conference on Learning Representations, 2018. [2] Ilya Sutskever, Oriol Vinyals, and Quoc V Le. Sequence to sequence learning with neural networks. In Advances in Neural Information Processing Systems, Vol. 27, 2014. [3] Jason Lee, Raphael Shu, and Kyunghyun Cho. Iterative refinement in the continuous space for non-autoregressive neural machine translation. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1006-1015, Online, November 2020. Association for Computational Linguistics. [4] Yinhan Liu Luke Zettlemoyer Marjan Ghazvininejad, Omer Levy. Mask-predict: Parallel decoding of conditional masked language models. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing, 2019. [5] Yoon Kim and Alexander M. Rush. Sequence-level knowledge distillation. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1317-1327, Austin, Texas, November 2016. Association for Computational Linguistics. [6] Walter Daelemans, Jakub Zavrel, Peter Berck, and Steven Gillis. MBT: A memory-based part of speech taggergenerator. In Fourth Workshop on Very Large Corpora, Herstmonceux Castle, Sussex, UK, June 1996. Association for Computational Linguistics. [7] Makoto Nagao. A framework of a mechanical translation between japanese and english by analogy principle. In Proceedings of the International NATO Symposium on Artificial and Human Intelligence, pp. 173-180, 1984. [8] Eiichiro Sumita and Hitoshi Iida. Experiments and prospects of example-based machine translation. In 29th Annual Meeting of the Association for Computational Linguistics, pp. 185-192, Berkeley, California, USA, June 1991. Association for Computational Linguistics. [9] Jitao Xu, Josep Crego, and Jean Senellart. Boosting neural machine translation with similar translations. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1580-1590, Online, July 2020. Association for Computational Linguistics. [10] Urvashi Khandelwal, Angela Fan, Dan Jurafsky, Luke Zettlemoyer, and Mike Lewis. Nearest neighbor machine translation. In International Conference on Learning Representations, 2021. [11] Jiatao Gu, Yong Wang, Kyunghyun Cho, and Victor OK Li. Search engine guided neural machine translation. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 32, 2018. [12] Jiatao Gu, Changhan Wang, and Junbo Zhao. Levenshtein transformer. In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc., 2019. [13] Ziqiang Cao, Wenjie Li, Sujian Li, and Furu Wei. Retrieve, rerank and rewrite: Soft template based neural summarization. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 152-161, Melbourne, Australia, July 2018. Association for Computational Linguistics. [14] Sebastian Borgeaud, Arthur Mensch, Jordan Hoffmann, Trevor Cai, Eliza Rutherford, Katie Millican, George van den Driessche, Jean-Baptiste Lespiau, Bogdan Damoc, Aidan Clark, Diego de Las Casas, Aurelia Guy, Jacob Menick, Roman Ring, Tom Hennigan, Saffron Huang, Loren Maggiore, Chris Jones, Albin Cassirer, Andy Brock, Michela Paganini, Geoffrey Irving, Oriol Vinyals, Simon Osindero, Karen Simonyan, Jack W. Rae, Erich Elsen, and Laurent Sifre. Improving language models by retrieving from trillions of tokens, 2021. [15] Hao Peng, Ankur Parikh, Manaal Faruqui, Bhuwan Dhingra, and Dipanjan Das. Text generation with exemplarbased adaptive decoding. In Proceedings of the $\mathbf{2 0 1 9}$ Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 2555-2565, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [16] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, $\mathrm{pp}$. 5998-6008, 2017. [17] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [18] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3982-3992, Hong Kong, China, November 2019. Association for Computational Linguistics. [19] Matt Post. A call for clarity in reporting bleu scores. WMT 2018, p. 186, 2018. [20] Weijia Xu and Marine Carpuat. EDITOR: An edit-based transformer with repositioning for neural machine translation with soft lexical constraints. Transactions of the Association for Computational Linguistics, Vol. 9, pp. 311-328, 2021. & \\ 図 2 実際の出力例. (英独,赤文字が挿入されたトークンで,青文字が削除されたトークン) 表 5 SRC と ORACLE の BLEU スコアの比較(英仏,* は自己回帰モデルの BLEU スコア 64.21 を超えた数值近傍の学習時の推論時のクエリ 表 6 SRC と ORACLE の BLEU スコアの比較(英西,* は自己回帰モデルの BLEU スコア 61.01 を超えた数値近傍の学習時の推論時のクエリ ## A 付録 (Appendix) ## A. 1 モデルの出力例 ベースライン(Levenshtein Transformer)と提案手法(NeighborEdit)の実際の出力例を図 2 に示した. 提案手法は,近傍の事例から不要な単語を削除した結果をテンプレートのように用いて必要な単語を穴埋めすることで,より少ない反復回数で正解文を生成することができる. ## A. 2 推論時の所要時間 表 2 で示したように,提案手法は平均反復回数がベースラインと比較して少ないが,一方で推論に要する所要時間の差は顕著でない。これは,提案手法が近傍の事例の検索時間を含めていることょりも, Levenshtein Transformer が 1 反復目の削除操作をスキップすることが原因として考えられる.なお,提案手法の近傍の事例一件あたりの平均検索時間は, TFIDF(Top-1 の検索)で 0.11 [ms], TFIDF+LCS(Top-10 の検索)で 0.13 [ms], SentVec(Top-1 の検索)で $0.08[\mathrm{~ms}]$ であった. ## A. 3 Src と OracLe の BLEU スコアの比較(英仏,英西) 英仏,英西のデータセットを用いた検索のクエリ SRC と ORACLE の比較を表 5,6 に示した. これらのデータセットにおいても,訓練データの質よりも推論時のデコーダの初期値の質を向上させることで性能改善が見られた.また,推論時の近傍の事例を適切に選択できれば自己回帰生成の性能を超えられる場合がある。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C6-4.pdf
# A Framework for Low Resource Language Translation based on SMT and Highly Accurate Word Alignment Jingyi Zhu ${ }^{1}$ Yizhen Wei ${ }^{1} \quad$ Takuya Tamura $^{1} \quad$ Takehito Utsuro $^{1}$ Masaaki Nagata $^{2}$ ${ }^{1}$ Deg. Prog. Sys.\&Inf. Eng., Grad. Sch. Sci.\&Tech., University of Tsukuba }^{2}$ NTT Communication Science Laboratories, NTT Corporation, Japan \begin{abstract} In this paper, we present a framework using SMT and highly accurate word alignment for low resource language translation. We align words in a parallel sentence pair using SpanAlign, a highly accurate word aligner based on crosslanguage span prediction. Then, we build bilingual phrase tables based on the alignments. For the SMT input, we use both normal-order sentences and pre-ordered sentences. The pre-ordering process is through an order-transform neural network called Pointer Network. The results on the Asian Language Treebank datasets show that the proposed SMT based on high precision alignment outperforms an NMT based on the Transformer in a simulated low resource translation setting using 20,000 parallel sentence pairs. \end{abstract ## 1 Introduction Despite Neural Machine Translation(NMT) having achieved a state of the art performance in recent years, it is known as data-driven [1]. To overcome the challenge that exists in small-scale translation or low resource translation tasks, serval researches focus on the approaches such as pre-training with large scale corpus and fine-tuning with small-scale corpus [2], or map the monolingual vector embeddings into a common cross-lingual embedding space [3] [4]. However, these effective methods need a lot of computation [2] or large-sized parallel corpus. In this paper, we propose a framework based on SMT and highly accurate word alignment to explore the feasibility of low resource language translation. Specifically, the framework does not need a sequence-to-sequence NMT model but uses phrase-by-phrase translation instead. Since we focus on the limitation of the low resource language corpus, we use the Asian Language Treebank corpus, which contains 20,000 parallel sentences as the base corpus. We do the experiments between the directions of the Japanese- English pair and the Japanese-Chinese pair. We experimentally show that our proposed framework outperforms an NMT based on the Transformer. ## 2 Related Work Although pre-ordering has often been used in SMTrelated works, some research has recently applied preordering to NMT. Kawara et al. [5] discussed the influence of word order on the NMT model, and concludes that it is important to keep the consistency between the input source word order and the output target word order, to improve the translation accuracy. Murthy et al. [6] proposed a transfer learning approach for NMT, which trains an NMT model on an assisting language-target language pair, improves the translation quality in extremely lowresource scenarios. Nevertheless, those methods both rely on the neural network translation model or separately pretraining a translation model by a large-scale corpus. In contrast, our proposed framework has no neural translation component and we focus on the translation task limited by a small-scale corpus. ## 3 The Framework based on SMT and Word Alignment This section mainly demonstrates the whole process of the proposed framework, as shown in Figure 1. First, We fine-tune multilingual BERT using the manually made word alignment data, then we use the word alignment model to align words in the training sentences. The word alignment data is used to train the Moses model, consisting of the phrase table and language model. At last, the original order test data or preordered test data is translated phrase-by-phrase. On the other hand, Figure 1(b) shows the procedure to create pre-ordered test data. The word alignment of the training corpus is also used to train the Pointer Network. Then the trained Pointer Network transforms the original order test data into pre-ordered test data. ## 3.1 Word Alignment by SpanAlign SpanAlign [7] is a multilingual BERT [8] based alignment method, which formalizes a word alignment problem as a collection of independent predictions from a token in the source sentence to a span in the target sentence. Because our method relies on high precision alignments to make bilingual phrase tables, and training data for Pointer Network, we apply SpanAlign to extract the alignments from the parallel corpus. ## 3.2 Pre-ordering by Pointer Network The pre-ordering process transforms the orders of the tokens in a source sentence to those of the tokens in its target sentence before translation is performed. Figure 2 shows an example for transferring Japanese sentence. The original Pointer Network is an LSTM [9] based neural network, which aims at solving graph theory problems such as the Traveling salesman problem and Convex Hull. An encoding RNN converts the input sequence to a code (blue) that is fed to the generating network (purple) [10]. At each step, the generating network produces a vector that modulates a content-based attention mechanism over inputs. The output of the attention mechanism is a softmax distribution with a dictionary size equal to the length of the input. Inspired by this, we apply Pointer Network to word order rearrangement like Figure 3. Specifically, we replace the input of Pointer Network with a sequence of the token instead, and then add an embedding layer to represent words with vectors. At decoding time, the decoder predict next pointer probability $p\left(C_{i} \mid C_{1}, \ldots, C_{i-1}, P\right)$ rely on inputs and predicted outputs : $ \begin{array}{r} u_{j}^{i}=v^{T} \tanh \left(W_{1} e_{j}+W_{2} d_{i}\right) \quad j \in(1, \ldots, n) \\ p\left(C_{i} \mid C_{1}, \ldots, C_{i-1}, P\right)=\operatorname{softmax}\left(u^{i}\right) \end{array} $ where softmax normalizes the vector $u^{i}$ (of length $n$ ) to be an output distribution of inputs. $P$ is the input sentence, and $C_{i}$ is the token of output sentence. $u^{i}$ is the vector. Parameters $v, W_{1}, W_{2}$ are learnable parameters of the output model, and $e_{j}, d_{i}$ represents for the encoder state and decoder state, respectively. ## 3.3 Bilingual Phrase Table based Phrase-byPhrase Translation Bilingual phrase tables are lists of terms (words or phrases) in one language associated with their translations in a second language. Therefore, Phrase-by-Phrase translation is a process that, for each token in the source sentence, retrieve and output the most appropriate target tokens in the built-up phrase table. In our proposed framework, we replace the GIZA++ ${ }^{1)}$ which is contained in Moses with SpanAlign, to evaluate whether the improvement of alignment accuracy has an impact on the statistical machine translation. ## 4 Experiments ## 4.1 Dataset We use the ALT (Asian Language Treebank)2) as our main experiment corpus. Here we use English-Japanese and Chinese-Japanese, about $20 \mathrm{~K}$ sentence pairs for each language pair. Parallel data are divided into the training data (18K) and the test data (1K). We use Japanese-English and Chinese-Japanese corpus because the word-order divergence of the two languages is very large and manually made word alignment data is available. We use MeCab ${ }^{3}$ ) and Jieba ${ }^{4)}$ to tokenize Japanese and Chinese sentences into tokens, respectively. The English side is tokenized by tokenizer.perl in the Mosesdecoder. ## 4.1.1 SpanAlign Settings and Fine-tuning We use the ALT Japanese-English dev data of about 1,000 sentences of word alignment data to fine-tune SpanAlign for Japanese-English. For Chinese-Japanese, we use about 3,000 sentences of word alignment data created by NTT to fine-tune SpanAlign. We follow the parameter as default, while the training batch size is set to 8 and the training epoch is 10 . The average extraction threshold in bidirectional sides is 0.4 . ## 4.1.2 Pointer Network Settings and Training Training data for the Pointer network are the training data of original order sentences and pre-ordered sentences made by the alignments generated by SpanAlign. We use a  (a) (b) Figure 1 Our proposed Framework: (a) is the flow chart, which accepts the normal order sentence or preordered sentence as translation input, (b) is using Pointer Network to do the preordering. Figure 2 Transform the word order of the source Japanese language to the target English language Figure 3 Architecture of Pointer Network (the modified Pointer Network accepts the original order sequence as input, and outputs the pre-ordered sequence). 2-layer bidirectional LSTM, with a hidden state of 512 and an embedding state of 128 . And we set the training batch size to 16 , the learning rate to $3 \mathrm{e}-4$, the training epoch is 10 , max sequence length to 120 . After training, the weighted Pointer Network is used to do the pre-ordering operation for test data sentences. We exploit RIBES [11], an efficient measure for automatically evaluating machine translation qualities based on the order of words, to evaluate the performance of the Pointer Network. ## 4.1.3 Phrase-by-Phrase Translation We use Moses ${ }^{5)}$ to make the phrase table, and the maximum length of each phrase is set to 3 . The difference between our framework and previous pre-ordering of SMT is that we use the original order data pairs to make the phrase table, and we only apply preordering to the test data. We use a trigram LM (Language Model), which is learned by target side sentences contained in the training-part corpus, to ensure the fluency of the output language. For the Japanese to English direction and Chinese to Japanese direction, we compare the translation results between alignments from SpanAlign and Awesome-align [12], which is also based on a pre-trained multilingual language model but does not require manually made word alignment data. ## 4.2 Results ## 4.2.1 Pointer Network Performance Because there is no ALT Chinese-Japanese manual alignment data exist for evaluation, we only use Japanese 5) https://www.statmt.org/moses/ Table 1 BLEU score between baseline and proposed approach. and English data to verify the performance of the Pointer Network. Table 2 shows the F1 score between SpanAlign and Awesome-align, demonstrating the high alignment accuracy. Table 3 shows the result of the score of the preordered test data for transferring Japanese order into English order verified by RIBES. Here, we see ALT Japenese manual alignment data as the reference. From the results, Pointer Network trained with tokens extracted from SpanAlign is nearly the same as that of manual alignment. Thus, it can be considered that Pointer Network successfully learned certain language order features which are effective for the pre-ordering task. Table 2 F1 score of SpanAlign and Awesome-align Table 3 RIBES result of Pointer Network trained by each approach, of transferring Japanese order into English order ## 4.2.2 Translation accuracy As a criterion to verify the translation accuracy, we use the BLEU [13] score. And we select Transformer [1] as our baseline. Table 1 shows the accuracy of our proposed method and the accuracy of the baseline. The results show that the proposed method exceeds the NMT model in ev- ery setting. Note that we did not use mert to fine-tune any weight of the translation model and language model. However, for the direction of Japanese, better results were obtained using the original order language as input. We also tried making the phrase table after reordering the training data, however, the BLEU score is lower than that made by original order data. ## 5 Conclusion and Future Work In this paper, we proposed a framework for low resource translation without using the sequence-to-sequence neural translation model. We use the normal-order tokens and the pre-ordered tokens as input and translated phrase-byphrase. The results show that both methods exceed the baseline of NMT for high precision alignment. And as the accuracy of alignment extraction increases, the accuracy of translation also increases. In future work, we will continue our experiments with other language pairs, like southeast Asian languages. ## References [1] A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. Gomez, U. Kaiser, and I. Polosukhin. Attention is all you need. In NIPS, 2017. [2] Y. Liu, J. Gu, N. Goyal, X. Li, S. Edunov, M. Ghazvininejad, M. Lewis, and L. Zettlemoyer. Multilingual denoising pre-training for neural machine translation. Transactions of the ACL, pp. 726-742, 2020. [3] Z. Lin, X. Pan, M. Wang, X. Qiu, J. Feng, H. Zhou, and L. Li. Pre-training multilingual neural machine translation by leveraging alignment information. In proc. EMNLP, pp. 2649-2663, 2020. [4] S. Sen, K. Gupta, A. Ekbal, and P. Bhattacharyya. Mul- tilingual unsupervised NMT using shared encoder and language-specific decoders. In Proc. 57th ACL, pp. 30833089, 2019. [5] Y. Kawara, C. Chu, and Y. Arase. Recursive neural network-based preordering for statistical machine translation and its analysis. Journal of Natural Language Processing, Vol. 26, No. 1, pp. 155-178, 2019. [6] R. Murthy, A. Kunchukuttan, and P. Bhattacharyya. Addressing word-order divergence in multilingual neural machine translation for extremely low resource languages. In Proc. NAACL, pp. 3868-3873, 2019. [7] M. Nagata, K. Chousa, and M. Nishino. A supervised word alignment method based on cross-language span prediction using multilingual BERT. In Proc. EMNLP, pp. 555-565, 2020 [8] J. Devlin, M. Chang, K. Lee, and K. Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. NAACL, pp. 4171-4186, 2019. [9] S. Hochreiter and J. Schmidhuber. Long short-term memory. Neural Computation, Vol. 9, No. 8, p. 1735-1780, 1997. [10] O. Vinyals, M. Fortunato, and N. Jaitly. Pointer networks. In NIPS, 2015. [11] H. Isozaki, T. Hirao, K. Duh, K. Sudoh, and H. Tsukada. Automatic evaluation of translation quality for distant language pairs. In Proc. EMNLP, pp. 944-952, 2010. [12] Z. Dou and G. Neubig. Word alignment by fine-tuning embeddings on parallel corpora. In proc. 16th EACL, pp. 2112-2128, 2021. [13] K. Papineni, S. Roukos, T. Ward, and W. Zhu. Bleu: a method for automatic evaluation of machine translation. In Proc. 40th ACL, pp. 311-318, 2002.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C6-5.pdf
# 入力側単言語資源と転移学習の利用による 講演字幕を対象とした英日ニューラル機械翻訳の改善 山岸勇輝秋葉友良 塚田元 豊橋技術科学大学 \{yamagishi.yuki.oj, akiba.tomoyoshi.tk, tsukada.hajime.hl\}@tut.jp ## 概要 本論文では、” Technology, Entertainment, Design (TED)”の講演データに対する英日機械翻訳の性能向上のための取り組みとして、3つの手法の利用を提案する。第 1 に入力側単言語資源で事前学習された BERT を機械翻訳に利用する手法、第 2 に事前学習モデルへ入力側単言語資源を利用し追加学習を行う手法、第 3 にドメイン外の大量の対訳コー パスを用いて転移学習を行う手法、を検討した。評価実験の結果、事前学習済みモデルを用いた翻訳モデルと転移学習を組み合わせることで、Trasformer ベースのベースラインモデルから 4.12Point の大幅な改善を達成した。 ## 1 はじめに 近年では世界規模で開かれる講演会の数も増えてきており、このような場では広く英語を用いて講演が行われる。そこで英語以外の母語のみを扱う人々にとって講演データを他言語へ翻訳するということが必要となる。 研究で広く用いられている字幕付き講演データに TED[1] があるが、実際に TED の講演データの翻訳を行うと英日翻訳が他言語対に比べて大きく性能が低いという問題がある。原因としては英日翻訳には他言語対の翻訳に比べ文法・文構造の違いが大きく、少量の講演データでは NMT の学習に対して十分な量でないことが考えられる。 学習データである対訳コーパスを補うために、 Sennrich ら [2] は出力側単言語コーパスを逆翻訳して疑似対訳コーパスを作成する手法を提案した。対訳コーパスと比べ単言語コーパスの取得は比較的容易であるため、データ拡張の手法として広く用いられている。しかし本研究の対象である英日講演翻訳では、出力側単言語コーパスである日本語講演デー タは人手で翻訳され作成されているため学習データ以外の入手が困難である。 本研究では、TED 英日翻訳を対象に、利用可能な言語リソースを検討した上で、適用可能な手法を用いて性能改善を試みた。第 1 に、入力側単言語資源で学習された事前学習済みモデルを翻訳モデルに利用した。また事前学習済みモデルを適用した翻訳モデルへ、入力側単言語資源を利用した追加学習とドメイン外の対訳コーパスを利用した転移学習を適用した。 ## 2 関連研究 ## 2.1 BERT BERT[3] は 2018 年に Google が発表した自然言語処理モデルである。モデルは双方向の Transformer をベースとしたエンコーダーで、あるトークン列 (単語またはサブワード)を入力として、入力の各トークンに対応する分散表現を出力する。事前学習に Masked Language Modeling(MLM) と Next Sentence Prediction(NSP)の2つのタスクを行っている。BERT は多くのタスクにおいて高い精度を記録していて、SQuAD や GLUE などの複数のベンチマークタスクにおいて最先端の性能を達成している。現在は、BERT を拡張した RoBERTa[4] や軽量版の ALBERT[5] など様々なモデルが提案されている。 ## 2.2 BERT を利用した機械翻訳 高橋ら [6] は NMT の入力言語側の単語分散表現に BERT の出力を用いることで翻訳性能の改善を達成している。BERT の出力を分散表現に用いることで、従来の単語依存の分散表現ではなく、コンテキストも考慮された分散表現となり、より文脈に合わせた翻訳が行えるようになった。Zhu ら [7] は Transformer のエンコーダ・デコーダにおいて BERT の出力への Attention を利用する BERT-fused NMT モデルを提案し、翻訳性能が改善することを示した。 このモデルは IWSLT2014 の独英翻訳において最先端の性能を達成している。 ## 2.3 転移学習 転移学習を利用した手法として、Firat ら [8] は大量のコーパスで学習した NMT モデルのパラメータを目的となる少量のコーパスで学習したモデルに転送することによって、少量の対訳コーパスを持つ言語間の翻訳精度を大幅に改善した。 ## 3 提案手法 本研究では学習データ以外の日本語講演データの入手が難しい為、目的言語側の単言語コーパスを用いる Sennrich らの手法は困難と考えた。学習デー タが不足している場合、データ拡張の手法以外に事前学習済みモデルを用いる手法も広く知られている。本研究は、事前学習済みモデルである BERTを機械翻訳モデルに用いる。また利用可能なコーパスを検討し、英語側講演データとドメイン外の英日対訳コーパスが考えられた。この2つのコーパスを用いて BERTへの追加学習と翻訳モデルへの転移学習の手法を行う。 ## 3.1 事前学習済みモデルの利用 事前学習済みモデルである BERTを機械翻訳モデルへ適用した 2 つのモデルを利用する。1つめに BERT 入力モデルとして高橋らが行った、BERT の出力を NMT の単語分散表現として利用するモデルを用いる。2つめに Zhu らが提案する BERT-fused モデルを採用する。 ## 3.2 事前学習済みモデルへの追加学習 本研究で用いた BERT は、英語版 Wikipedia と BooksCorpus を用いて事前学習を行ったモデルである。これらのデータは様々なドメインを含むものであるため、講演データを用いた BERTへの追加学習を行うことで、より講演に適した翻訳が出来るようになると考える。具体的には英語側講演データを用いて MLM と NSP の2つのタスクを行う。 ## 3.3 転移学習 この手法では翻訳のベースとなる英日対訳コー パスを持つ IWSLT とドメイン外の大量の英日対訳コーパスを用いて行う。はじめにドメイン外対訳コーパスで学習を行い英日翻訳モデルの構築を行う。この時ボキャブラリは IWSLT のみから作成したものを利用し学習を行う。このモデルを翻訳のベースとなる IWSLT の開発セットを用いて評価を行う。BLEU スコアにて評価し、最も高い値を示すモデルを転移学習の初期モデルとして選択する。 IWSLT で学習を行う際 NMT のモデルの初期モデルとして選択したモデルを用いることで転移学習を行い英日翻訳モデルの構築を行う。 ## 4 実験 提案手法によって TED の英日講演字幕翻訳への性能が改善されるかを調査する。 ## 4.1 データセット 英日対訳コーパスの学習データとして TED の講演データである IWSLT2017を、転移学習のために ASPEC[9] とJESC[10]の3つのコーパスを利用する。 IWSLT2017 の開発データには $\operatorname{dev} 2010$ をテストデー タには tst2010を使用する。ASPECコーパスは科学技術論文抄録のコーパスで、文単位で様々な抄録から対訳文を抽出した対訳コーパスである。JESC コーパスはインターネット上からクロールされた映画と TV 番組の字幕データで作成された対訳コーパスである。 表 1 英日対訳コーパス BERT への追加学習のための入力側単言語コー パスとして、学習に使用している IWSLT2017 の訓練データ、学習に使用していない IWSLT2012 から 2017 までの講演データ、JESC の訓練データ、 IWSLT2017 のテストデータの 4 つを利用する。TED の講演データは英語がオリジナルのデータであるため、過去に公開されているデータを利用することが可能である。また、追加学習で用いるのは大力側 データとなるため、テストデータを直接追加学習に利用することが可能である。 表 2 追加学習に利用する入力側単言語資源 ## 4.2 実験設定 ベースラインは、RNN $に$ LSTM + Attention 機構のモデルと Transformer のモデルの 2 つを用いた。翻訳の単位は両モデル共に単語単位での翻訳を行う。レイヤー数は RNN が 2 層、Transformer が 6 層で隠れ層の次元数は RNN が 768、Transformer が 512 となっている。Optimizer は両モデル共に Adam を使用しドロップアウトも共に 0.3 となっている。学習済みの BERT は Google が公開している BERT-Base モデル [3] を利用した。 12 層の Transformer で構築され、隠れ層の次元数は 768 となっている。 ## 4.3 実験結果 ## 4.3.1事前学習済みモデルの利用 事前学習済みモデルを利用した BERT 入力モデルと BERT-fused モデルの性能を調査する。BERT 入力モデルの NMT は LSTM を使用した為、ベースライン (RNN) からの性能を比較、BERT-fused モデルでは NMT は Transformer を使用する為、ベースライン (Transformer) との比較を行う。 表 事前学習済みモデルを利用したモデルは共にベー スラインモデルからの改善が確認できた。BERT 入力モデルでは、RNN から 2.18Point の改善が見られた。また BERT-fused モデルでは、Transformer から 1.90Point の改善が見られた。2つのモデルを比較すると NMT に Transformer を利用する BERT-fused モデルがより高い性能を示した。 ## 4.3.2 事前学習済みモデルへの追加学習 BERT-fused モデルにおける BERTへの追加学習の効果を調べた。 3 種類のコーパスを用いて、追加学習を行い 4 つの翻訳モデルを構築した。元の BERT-fused モデルと比較した。 ## Bf+trainIWSLT BERT-fused モデルの BERTへ学習データである IWSLT2017 の英語側訓練データを用いて追加学習を行ったモデル ## Bf+otherIWSLT 学習データを含まない IWSLT の英語側講演データを用いて追加学習を行ったモデル ## Bf+trainJESC 追加学習に用いる IWSLT のデータは数十万文の少量のデータのため、ドメイン外ではあるが講演に近く大量のデータを持つ JESC の訓練データを用いて追加学習を行ったモデル ## Bf+testIWSLT 追加学習は入力側データのみで行えることから、目的としている IWSLT2017 のテストデータを直接用いて追加学習を行ったモデル 表 4 追加学習の性能の比較 (BLEU) BERT へ追加学習を行った 4 つのモデル全てで、追加学習を行っていない元の BERT-fused モデルからの改善は見られなかった。原因として講演データを用いることでより特定のドメインに BERT を強化できると考えたが、本来 BERT が持つ汎化性能が低下し翻訳性能の低下に繋がったと考える。 ## 4.3.3 転移学習 BERT-fused における転移学習の効果を調べた。転移学習には ASPEC とJESC の 2 つのドメイン外対訳コーパスを用いて 5 つの翻訳モデルを構築した。元の BERT-fused モデルと比較した。 Bf+transASPEC ASPEC を用いて BERT-fused モデルに転移学習を 行ったモデル ## Bf+transJESC JESC を用いて BERT-fused モデルに転移学習を行ったモデル ## Bf+transASPEC/JESC ASPEC と JESC を結合したコーパスを用いて BERTfused モデルに転移学習を行ったモデル ## Bf+transJESC' JESC の 2 文を 1 文に連結したコーパス $\mathrm{JESC}^{2}$ をを用いて BERT-fused モデルに転移学習を行ったモデル ## Bf+transASPEC/JESC' ASPEC と JESC'を結合したコーパスを用いて BERT-fused モデルに転移学習を行ったモデル 表 5 転移学習の性能の比較 (BLEU) 転移学習の手法では ASPEC と JESC の 2 つのコー パスで共に改善が見られ、ASPEC を用いた場合がより大きな改善が見られた。科学技術論文の抄録である ASPEC に比べ字幕データである JESC は TED の講演データに近いドメインを持つが、ASPEC より大きな改善が見られなかった為、各コーパスの特徴を調査した。各コーパスでの平均文長を調べると JESC は IWSLT2017と ASPEC に比べ半分以下の文長であることが分かった。そこで JESC の 2 文を 1 文に連結処理した JESC' を作成し転移学習を行った。 表 6 各コーパスの平均文長 JESC’を転移学習に用いたモデルは ASPEC のみを用いる場合よりも高い性能を示した。文長をより、IWSLT2017 の学習データに近いものとしたため、性能の改善に繋がったのではないかと考える。 ASPEC と JESC'を混ぜたデータを用いる転移学習では更なる性能改善は見られなかった。 表 7 はベースラインである Transformer と最も良い性能を示した Bf+transJESC'の翻訳例である。 Bf+transJESC' は Transformer で翻訳出来ていなかった入力文の単語を正しく翻訳出来るようになっていることが分かる。 表 7 翻訳の改善例 ## 5 おわりに 本研究では TED の講演データである IWSLT2017 を用いた英日翻訳性能の改善を目的に、入力側単言語資源で学習された事前学習済みモデルと入力側である英語データによる事前学習済みモデルへの追加学習、また大量のドメイン外の英日対訳コーパスを利用した転移学習の手法を行った。BERT を用いた翻訳モデルは既存の RNN、Transformer ベースのモデルからより性能が向上することが確認できた。BERT-fused モデルにおける BERT への追加学習は性能の改善は確認できなかった。BERT-fused における転移学習の効果は大きく、講演データに近いドメインを含む JESC コーパスを連結処理し用いた転移学習は最も良い性能が確認できた。最終的にベースラインである Transformer の BLEU スコア 10.58 から 4.12Point の大幅な改善を達成し 14.70 まで向上が見られた。提案法で得られた BLEU スコア 14.70 は、IWSLT2018 で報告されているべストスコア 10.88[11] と比べてもかなり高いものとなっている。今後の課題としては、追加学習に用いた入力側単言語資源を疑似的な対訳コーパス作成のために利用しデータ拡張の手法を試みる事や、現在提案されている様々な BERT モデルを用いることなどが考えられる。 ## 謝辞 本研究は JSPS 科研費 19K11980 および $18 \mathrm{H} 01062$ の助成を受けた ## 参考文献 [1] M. Cettolo, M. Federico, L. Bentivogli, J. Niehues, S. Stuker, K. Sudoh, K. Yoshino, and C. Federmann, "Overview of the IWSLT 2017 Evaluation Campaign", In Proceedings of the 14th International Workshop on Spoken Language Translation (IWSLT), 2017. [2] R. Sennrich, B. Haddow, and A. Birch."Improving neural machine translation models with monolingual data". In Proc. of ACL-2016 (Volume 1: LongPapers), pages 8696, 2016. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. "BERT: Pre-training of deep bidirectional transformers for language understanding", In North American Association for Computational Linguistics (NAACL),2019. [4] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, Veselin Stoyanov."RoBERTa: A Robustly Optimized BERT Pretraining Approach", arXiv e-prints, arXiv:1907.11692,2019. [5] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, Radu Soricut. "ALBERT: A Lite BERT for Self-supervised Learning of Language Representations", International Conference on Learning Representations, 2020. [6] 高橋竜, 秋葉友良, 塚田元,"汎用分散表現 BERT を用いたニューラル機械翻訳の検討", 言語処理学会第 27 回年次大会, 2020 [7] Jinhua Zhu, Yingce Xia, Lijun Wu, Di He, Tao Qin, Wengang Zhou, Houqiang Li, Tie-Yan Liu."Incorporating BERT into Neural Machine Translation",International Conference on Learning Representations, 2020. [8] O. Firat, K. Cho, and Y. Bengio, "MultiWay, Multilingual Neural Machine Translation with a Shared Attention Mechanism”, ArXiv e-prints,pp.866-875, 2016. [9] T. Nakazawa, M. Yaguchi, K. Uchimoto, M. Utiyama, E. Sumita, S. Kurohashi, and H. Isahara. "ASPEC: Asian scientific paper excerpt corpus", In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC 2016), pp. 2204-2208, 2016. [10] Reid Pryzant, Youngjoo Chung, Dan Jurafsky, Denny Britz. "JESC: Japanese-English Subtitle Corpus",European Language Resources Association,2018. [11] Yuto Takebayashi, Chu Chenhui, Yuki Arase, Masaaki Nagata. "Word Rewarding for Adequate Neural Machine Translation",In Proceedings of the 15th International Workshop on Spoken Language Translation,2018.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C7-1.pdf
# Sentence-BERT を利用した FAQ 検索におけるデータ拡張手法 加納 渉 岡山大学大学院自然科学研究科 kano-w@s.okayama-u.ac.jp ## 概要 本研究では,質問応答における類似文章検索について,データ拡張を利用した検索精度向上を検討する. 質問応答のデータセットは Yahoo!知恵袋データなどが公開されているが,特定の FAQ に対応したシステムを作る場合,データセットが十分に集まらないことも想定される. 本研究では,人手でのデータ作成に加え,疑似文章生成モデルを利用してデータ拡張を行い,その検索精度への影響を調べた. 実験の結果,拡張データを一定量混ぜた場合,わずかに精度が向上することが確認できた. ## 1 はじめに 質問応答システムでは,同じ単語でも文脈によって意味が違ったり,ユーザによって表現方法が変わるため, 柔軟な質問応答の実現には単語一致のみでは十分ではないことが考えられる.類似文章検索手法としては, 分散表現を用いるものがあり, 分散表現を取得するモデル例として,Word2Vec[1] や Bidirectional Encoder Representations from Transformers (BERT)[2] がある. 分散表現を使用することで単語間の意味的な距離をべクトルとして測ることができる. 本研究では,さまざまなタスクで SoTAを達成し, 文章全体の意味を特徴化できるという機能を持つ BERTを使用し,類似文章検索を行う。 岡山大学情報統括センターのホームページ及び岡山大学 Moodle 上には, 利用者の質問とその回答が掲載されている場所がある。このウェブサイトで将来的に質問応答システムを実現するため, 既に寄せられている質問と回答をデータセットとして機械学習モデルに適用し, 類似文章検索精度を向上させたい. しかしそのデータ数はあまり多くなく, 質問もひとつずつしか付属していないため, 検索モデル構築のためのデータセットとしては不十分なこと, ユーザの入力として想定される表現の幅が少ないことが問題点として挙げられる. 本研究では人手によ \author{ 竹内孔一 \\ 岡山大学学術研究院自然科学学域 \\ takeuc-k@okayama-u.ac.jp } る質問データに加えて,疑似文章生成モデルで疑似的な質問文を再現し学習データに追加することで,類似質問検索を行った. 以下では,そのデータ拡張手法と,データ追加方法について報告する. ## 2 関連研究 高橋ら [3] はコミュニティベースの Q\&A サイトにおける確率モデルを利用した類似質問検索手法を提案した。これは,質問検索では検索対象文書の長さが短いことを考慮し, 適切に回答文情報を利用することで有効性を示した。 中野ら [4] は,対話的情報検索の問い返し文において,質問文の統語構造解析を行い,得られた部分木の一部を欠落させることで曖昧な質問文生成を行なった. 生成した曖昧質問を利用し,BERTによる質問応答システムを適用することで,質問応答精度を向上することができた. Mass ら [5] は,FAQ 検索において3つのリランカーによる教師なし手法を提案した、ユーザクエリ-質問文,ユーザクエリ-回答間で BERT の Fine-tuning を行うとともに,質問文の言い換えを作成してさらにクエリ-質問文間 BERTを Fine-tuning することで,既存の教師あり手法と同等以上の性能を示した。 ## 3 データセット作成 本研究で使用するデータは,岡山大学情報統括センターのホームページ及び岡山大学 Moodle から集め,整形したものである ${ }^{1)}$. 元データの形式は質問と回答のペアとなっており, その中から学習データとして使用可能な 108 件を抽出したが,データセットとして明らかに少ないため,まず研究室の方々に依頼し,ある質問の回答に結びつくような質問を単語の組及び文章形式でそれぞれ 3つずつ作成した. しかし,人手でのデータ追加はより実用的で自然な文章を考えることができるが,問題点として時間が 1) https://msgs.ccsv.okayama-u.ac.jp/a/faq.php かかること,外部に依頼した際のコストがある. 本研究では,人手作成データに加えて疑似的な質問を Variational AutoEncoder (VAE)[6] によって生成し, 学習データとして利用する. VAE の基本構造は Encoder と Decoder からなり, その間に潜在空間を導入する. 潜在空間は確率分布が設定される. 文章生成に使用した VAE モデルを図 1 に示す. 本モデルは Encoder, Decoder にそれぞれ Transformer[7] の Encoder, Decoder ブロックを使用している Transformer-Based Conditional VAE (T-CVAE)[8] を利用して, 入力文章を再現する. 潜在変数には乱数を加えており, 入力文章と少し異なる文章を出力しやすくなる仕組みとなっている. このモデルに対し,元データの質問部分を用いて BLEU[9] スコアが約 70 程度になるまで学習させ, それぞれの質問について 10 パターンの疑似質問を生成した. BLEU スコアは語順を考慮しないため, スコアが高くても文章として自然であるか,元文章をそのまま再現しているかはわからない. 本実験では生成文章の文法的正しさは問わないものとするため, 入力文章とほぼ同じであったり, 明らかに文法が破綻しているものも存在する. 次に BERT に対して 2 值分類問題で Fine-tuning を行うため,ラベル付き文章ペアのデータセットを作成する必要がある.詳しくは 4 章で述べる. ここまでで,元データのある質問 1 つについて, - 人手により作成した質問 ○クエリタイプの質問 3 件 (query 1, 2,3)。文タイプの質問 3 件 (sentence1, 2,3) ・VAEで作成した疑似質問 (10 パターン) が存在する. 元データのタイトル部分を anchor とし,それ以外の人手作成データ,VAE 生成データから類似質問 (positive), 非類似質問 (negative) を選び,組み合わせていく。つまり,ある anchor一つに対 ᄂ, (anchor, positive), (anchor, negative) の 2 種類のラベル付きデータが作られる. positive pair は,あるタイトルとそれから作られた人手作成データ,VAE生成データを組み合わせ,negative pair はあるタイトルと関連のない全ての人手作成データ, VAE 生成データを組み合わせる。人手作成のうち, query3, sentence3 から作られる positive pair はテストデータに使用する。 図 1 T-CVAE による文章生成, [8] より引用 ## 4 実験 実験として,ある質問に対して最も類似した各回答の質問文を検索できるか評価する.質問と各回答に属する質問との類似度を計算するために機械学習を利用する。ここでは,2 値分類による BERT の Fine-tuning 及び検索精度評価, 改善手法について述べる. ## 4.1 実験設定 文やクエリ同士の類似度を評価するモデル図は共通であり, 図 2 に示す.これは Sentence BERT[10]2) と呼ばれる,文章ぺアを利用した学習を行うためのモデルである。類似文章ぺアを用いて Fine-tuning を行うとき,単一の BERT で毎回 2 つの文章を入力すると計算量は $O\left(n^{2}\right)$ となるため,学習時間が大幅にかかる. Sentence BERT の特徵は, Siamese Network の構造をとっていること,Pooling 層を導入している点である.2つの入力の埋め込みべクトルを同時に計算することで,大幅な学習時間短縮を実現している. 文献 [10] では, - Classification Objective Function - Regressioon Objective Function - Triplet Objective Function の 3 つの目的関数が紹介されている. 本研究では,入力ペアが positive か negative を判定するため, Classification Objective Function を採用している. 以下の実験での BERTはすべて, 日本語 Wikipedia 事前学習済み ${ }^{3}$ を使用し, Baseline は事前学習済み BERT を用いたものを表す. Sentence BERT の Fine-tuning の際のバッチサイズは 16 , epoch は 10 とし, Pooling 手法は文献 [10] で最も高い評価となった MEANを  図 2 実験で使用する Sentence BERT モデル 採用する. ## 4.2 予備実験 予備実験として,元データのタイトル部分と人手作成データ,及び疑似質問を用いて Sentence BERT の Fine-tuning を行った。学習データセットのパター ンは以下の通り。 ・人手作成データ - 人手作成+疑似質問 (1 パターン) - 人手作成+疑似質問 (3 パターン) - 人手作成+疑似質問 (5 パターン) - 人手作成+疑似質問 (10 パターン) ある positive pairの 1 件に対し, negative pair は 107 件存在する。学習データの positive pair と negative pair の数を合わせるため, 107 件から一つ選ぶ必要がある. 予備実験での negative pair の選び方はランダムとする. ## 4.3 改善手法 改善手法として,ある positive pair に対応する negative pair の候補から,ペアの類似度が一番大きいものを選ぶデータセット,小さいものを選ぶデー タセットをそれぞれ作成し,再度実験を行なった。事前学習済み日本語 BERT による埋め込みべクトルの cosine 類似度を用いるが,そのために BERT の出力をべクトルに変換する必要がある. 本実験では時系列方向に平均をとったべクトルを質問のべクトルとする。 ## 4.4 評価手法 Fine-tuning した BERT による埋め込みベクトルを使用して候補のランキングを出し,精度評価を行なった. 本研究の場合は,入力にタイトル部分,回表 1 予備実験結果 } & 0.606 & 0.616 & 0.537 & 0.481 \\ 答候補は人手作成データの query 3 , sentence 3 から選ぶ.つまり,一つの入力につき正解が 2 つ存在している。評価指標は 1 位正解率,5 位正解率,Mean Reciprocal Rank (MRR) とする [11]. 1 位正解率は,回答候補ランキングを出した時,1 位に正解がある割合である. 5 位正解率は,ランキングを上位 5 位まで出した時,その中に正解がある割合である。今回正解は入力 1 つにつき 2 つあるが,上位 5 位までに 2 つ入つていたとしても 1 つしか入っていない場合と評価は変わらないこととする。 MRR は正解となる回答のランクの逆数をポイントとし,その平均をとったものである. つまり, MRR が高いほどランキングの上位に正解が出ていることになる。今回は上位 5 位までのランキングで評価し,その中に入っていなければポイントは 0 とする。 ## 4.5 結果 予備実験結果を表 1 に示す. 予備実験では,ランダムで選んだ negative pairを追加した. Baseline よりも,人手作成データ及び疑似質問を加えた場合のほうが精度が高くなっている箇所が見られるものの,あまり一貫した精度の向上が見られない. 次に,改善手法を適用した場合の実験結果を表 2 と表 3 に示す. 表 2 を見ると negative pair に類似していないものを選んだ場合はどの結果においても精度が下がっており,Baseline よりも全てにおいて低く,特に疑似質問を加えた場合に下がりやすくなっているのが読み取れる。 一方,表 3 を見ると,疑似質問を加えたほうが,人手作成データのみよりも精度は良くなる傾向にある. 特に,疑似質問を 5 パターン分加えた場合,どの評価指標においても高い値を得ている。さらに,表 1 において,疑似質問を 5 パターン追加した結果 表 2 negative pair(dessimilar) を選択した場合の実験結果 } & 0.458 & 0.583 & \\ 表 3 negative pair(similar)を選択した場合の実験結果 を表 3 の同じ項目で比較すると, negative pair に類似度の一番高いものを選ぶ手法のほうが高い值を示している. ## 4.6 考察 以上の実験結果より,人手作成データに加え, VAE によって作成した疑似質問から 2 值分類用デー タセットを作成し,特に negative pair に一番類似度の高いものを選んだ場合,精度向上を確認できた。一方,表 3 の疑似質問を 10 パターン混ぜた場合を見ると,この選び方であっても学習データ数を増やせば精度が上がるわけではないことがわかる。 negative pair に一番類似していないぺアを選んだ場合,ランダム,または類似しているものを選ぶ場合よりも顕著に精度が下がった. これらの原因として,より異なるぺアを学習する回数が増え,最終的な類似度の近いものを選ぶという,元々のタスクの目標に適合しない学習が進んでいるためではないかと考えられる。 ## 5 まとめと今後の課題 本研究では,類似質問検索において学習データが十分に得られない場合のデータ拡張手法を提案した. 学習を行なった VAE で生成した文章を用いて 2 値分類学習用データセットを構築する際, negative pair に類似度の一番高いものを選択した場合に,人手作成データのみよりも精度向上が確認できた。 しかし, 今回は岡山大学情報統括センター,及び Moodle の FAQ のみでの実験のため,その汎用性については検証の余地がある. 今後の課題として, VAE による生成文の品質評価,回答部分の利用, Yahoo!知恵袋などの大規模なデータセットでも実験を行い,有効性を検証する必要がある。 ## 謝辞 本研究でのデータ作成にご協力いただいた竹内研究室の諸氏に感謝する。 ## 参考文献 [1] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. CoRR, Vol. abs/1301.3781, , 2013. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, June 2019. [3] 高橋輝, 高須淳宏, 安達淳. コミュニティベース Q\&A からの類似質問検索手法. 情報処理学会全国大会講演論文集, 第 72 回, pp. 111-112, 2010. [4] 中野佑哉, 河野誠也, 吉野幸一郎, 須藤克仁, 中村哲.問い返し質問文生成によって曖昧性解消を行う質問応答システム. 言語処理学会第 27 回年次大会発表論文集, 2021 [5] Yosi Mass, Boaz Carmeli, Haggai Roitman, and David Konopnicki. Unsupervised faq retrieval with question generation and bert. Association for Computational Linguistics, 2020. [6] Diederik P. Kingma and Max Welling. Auto-encoding variational bayes. In 2nd International Conference on Learning Representations, ICLR 2014, Banff, AB, Canada, April 14-16, 2014, Conference Track Proceedings, 2014. [7] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [8] Tianming Wang and Xiaojun Wan. T-cvae: Transformerbased conditioned variational autoencoder for story completion. In Proceedings of the Twenty-Eighth International Joint Conference on Artificial Intelligence, IJCAI19, pp. 5233-5239. International Joint Conferences on Artificial Intelligence Organization, July 2019 [9] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [10] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3982-3992. Association for Computational Linguistics, November 2019. [11] 磯崎秀樹, 東中竜一郎, 永田昌明, 加藤恒昭. 質問応答システム. コロナ社, 2009.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C7-2.pdf
# 質問応答におけるユーザ入力表現のドメイン固有の表現への マッピング TSENG YI KAI $^{1}$ 徳永健伸 ${ }^{1}$ 横野光 ${ }^{2}$ 1 東京工業大学 2 明星大学 tseng.y.ab@m.titech.ac.jp take@c.titech.ac.jp hikaru.yokono@meisei-u.ac.jp ## 概要 あるドメインの初心者はそのドメイン固有の用語を知らないことが多く,別の単語で言い換えることがあり,質問応答システムなどを利用する際の問題になる。この問題に対して,本論文ではBERT を用いて単語の埋め込みを計算し,コサイン類似度により初心者が入力した表現とドメイン固有の表現を対応づける手法を提案する. Minecraftを対象として提案手法の評価を行った。 ## 1 はじめに あるドメインにおいてユーザが問題に遭遇したとき,キーワードを検索エンジンに入力して膨大な情報から欲しい情報を自分で探すより,自然言語で質問して回答を得る方が簡単である。しかし,質問者がそのドメインの初心者である場合,ドメイン固有の用語を知らないために,それを他の単語で表現することがある.そのような表現を含む質問に対してシステムは適切な回答を返せないことが考えられる. そこで本論文では,あるドメインの質問応答システムにおいて初心者が使用することを想定し,質問中の表現をドメイン固有の正式な名称に対応づけるシステムの構築を行う. 具体的なドメインとして有名なコンピュータゲームである Minecraft ${ }^{1)}$ を対象とする. Minecraft には多様なオブジェクトが存在し,プレイヤーが取れる行動が多様で自由度が高い。そのため,何をすれば良いか分からないという初心者ユー ザが多く,コミュニティサイトでは様々な質問のやり取りがなされている. Minecraft における質問応答システムに関して, Dumont et al. [2016] はコーパスを作成し,質問応答 1) https://www.minecraft.net/ システムの実現可能性を示した.しかし,Minecraft には特有の用語が存在するため, 前述の問題が起こりうる。例えば,“melon”という物体はスイカのような見た目であることから “watermelon”と,また, スイッチの機能を持つ “lever”を“switch”と言い換えられることがある.既存の質問応答システムはこのように使用されている表現に対応できない可能性がある。そこで,例えば “How do I craft a switch?” という質問文の “switch” という単語を正式な名称である “lever”に対応づけることで,ドメインの知識をあまり持っていない初心者でも使える質問応答システムの実現を目指す。 このような対応付けを実現するために,単語の埋め込みを計算し,コサイン類似度により対応する用語を判断する.埋め込みには,Word2Vec [Mikolov et al., 2013], Global vectors [Pennington et al., 2014], BERT [Devlin et al., 2018] といった数多くの手法が使われているが,本論文では文脈を考慮できる BERT を用いて,初心者による表現をより精度よく正式な名称に対応づける。 ## 2 関連研究 本論文で扱う現象は言い換えの一種とみることができる. Niu et al. [2021] は,質問応答システムの精度向上を含む幅広い応用を目指し,教師なし学習によるパラフレーズの生成の手法を提案した.教師なし学習は手動によるラベル付きの必要がないため,より簡単に構築できる。 Behrendt and Harmeling [2021] は,BERT を拡張し, ArgueBERT という二つの文の類似度を計算することによりパラフレーズを検出するモデルを提案した. Wang et al. [2021] は, ドメイン特有の知識も考慮した上で BERTを用いてパラフレーズを検出する方法を提案した. これらに対し,提案システムでは事前学習済み BERT の埋め込みを利用し,コサイン類似度により 関連の用語を出力する. Niu らは教師なし学習を利用するのに対し, 本研究では事前学習済み BERT を用いるため,手動によるラベル付けのみならず Finetuning も必要なく,より簡単に構築できる. また,Behrendt らと Wang らは文単位でパラフレーズか否か判定するのに対し,提案システムではランキングをもとに質問文の表現に対応するドメイン固有の表現を提示する. これは, 初心者による言い換えは必ずしも正確な言い換えとは限らないため,類似している用語をいくつか提示することにより,柔軟に対応できるからである. ## 3 提案システム 図 1 提案システムの概要 提案システムは, 図 1 に示すようにドメイン固有の表現 (用語) に対して事前にドメインの知識を持つユーザが作成したテキスト (ドメインコーパス)を用いて,その埋め込みを計算しておく。そして,入力された質問文中の単語に対して,その埋め込みを計算し, ドメイン固有の表現とのコサイン類似度を求め,ランキングの 1 位のものを対応として出力,または,上位のランキング結果を提示する. テキストの分割には BERT の tokenizer を用いる. ## 3.1 埋め込み 埋め込みの計算は事前学習済み BERT (bert-base(uncased) ${ }^{2)}$ を用いる. 単語の埋め込みは BERT が出力する 768 次元の最後の隠れ層を使う. 質問文中の表現の埋め込みと用語の埋め込みのコサイン類似度の計算方法は次の 2 種類を用いる。 - Mean-of-Posts : 各用語 $w$ に対し,ドメインコー パスに出現した $w$ の埋め込みの算術平均を $w$ の埋め込みとし,それと入力単語の埋め込みのコサイン類似度を求める - Max-Post:各用語 $w$ に対し,ドメインコーパスに出現した $w$ のそれぞれの埋め込みと大力の単語の埋め込みとのコサイン類似度を計算し, その最大値を $w$ とのコサイン類似度とする 2) https://huggingface.co/bert-base-uncased ## 3.2 Tokenization 文を BERT に入力する際に, tokenizer を用いて文をトークンに分割する必要があるが,用語によって tokenizer の動作が異なることがある. 複数形の扱い単語の複数形に対して 2 種類の分割が存在する。一部の単語の複数形は単数形と語尾の-s と 2 個のトークンに分割される. 例えば, “lever” の複数形 “levers” は “lever” と “\#\#s” に分割される.この場合,単数形の埋め込みがそのまま使えるため,“\#\#”を無視して単数形の埋め込みを考慮すればよい,一方,複数形がそのまま 1 個のトークンになる単語も存在する. 例えば, “block”の複数形 “blocks” は “block” と “\#\#s" と 2 個のトークンではなく,そのまま “blocks” という 1 個のトークンになる.この場合, 複数形のトークンは単数形のトークンと異なるため, 求めた埋め込みに差が出てしまい,単数形の埋め込みのみ考慮すると複数形に対応できない恐れがある。そこで,用語の複数形にも対応できるように,複数形が単数形と異なるトークンに分割される場合,単数形だけでなく,複数形の埋め込みも求め, 用語 $w$ との類似度として, $w$ の単数形との類似度と $w$ の複数形との類似度のうち高い方と選ぶ. マルチトークン単語が複数のトークンに分割されたり, 複数の単語からなる用語が存在するため, 1 つの表現が複数のトークンで構成されることがある。例えば, “ender pearl”は “end”, “\#\#er”, “pearl” と 3 個のトークンに分割される。そのため,類似度の計算においてはマルチトークンの表現への対策が必要となる. マルチトークンの表現の埋め込みには次の 2 種類の計算方法を用いる。 ・Last-Token:最後のトークンの埋め込みを表現全体の埋め込みとする。 - Mean-of-Tokens : 全てのトークンの埋め込みの算術平均を全体の埋め込みとする。 ## 4 評価 ## 4.1 データセット Minecraft を対象のドメインとして提案システムの評価を行う.考慮する Minecraft の用語としては Dumont et al. [2016] が提案した質問応答コーパスで列挙された 443 個のエンティティを採用する.いく つかのエンティティには別称が付いている3)ため, これらの別称を含めて合計 465 個の用語を対象とする. ドメインコーパスとして Minecraft に関する Reddit の投稿4)を用い,465 個の用語に対する埋め込みを計算した. Reddit からは 76437 投稿が取得でき,その中で 465 語のうち 457 語, 443 エンティティのうち 438 エンティティが 1 回以上出現している. BERT による Minecraft の用語 $w$ の埋め込みを求める際には $w$ を含む文を入力する必要があるため, Reddit の投稿から $w$ が出現した投稿のタイトルを利用した。また,評価用のデータとして Dumont らも使用した GameFAQs ${ }^{5}$ という QA サイトの Minecraft に関する質問文のタイトルを用いた。このサイトからは 986 個の質問が取得できた。 ## 4.2 結果と考察 評価データの各表現に対し,457 個の Minecraft の用語とのコサイン類似度ランキングを作成した. 埋め込みが有効であれば,評価データの質問文に含まれる Minecraft の用語に対する類似度ランキングにおいて,その用語自体が 1 位になるはずである。例えば, “How to get glass?" という質問文の “glass” という表現に対して用語の類似度ランキングを作成すると, “glass” 自体が Minecraft の用語であるため, “glass”がランキングの 1 位になることが期待される.これを利用し, 埋め込みの有効性を検証するために, GameFAQs の質問文で合計 598 回出現した 126 種類の用語自体の順位を分析した。 表現間の類似度の計算は 3.1 で言及した Meanof-Posts と Max-Post の 2 種類を用い,マルチトークンの表現の埋め込みは 3.2 で言及した Last-Token と Mean-of-Tokens の 2 種類を用い,これらの組み合わせである 4 種類の手法に対して評価を行った。 各手法において用語自体が 1 位になった割合を表 1 に,用語の順位の分布と 1 位とならなかった用語の類似度の分布を図 2 に示す。 Max-Post \& Mean-of-Tokens の精度が最も良いが, Max-Post は用語の個々の埋め込みとの類似度を計算するためストレージや計算能力が必要となる.この点を考慮すると, Mean-of-Posts \& Last-Token の精度が良いと見ることができる.  表 11 位になった用語の割合 また,BERT は文脈を考慮した埋め込みを出力するため,入力の文に誤字が含まれると,得られる埋め込みが変化し,特に Max-Postを利用する場合ではランキングが大きく変化してしまう。一方, Mean-of-Posts を利用する場合,投稿間の埋め込みの平均を取るため,安定した埋め込みが得られると考えられる。 入力の単語と用語が共通語尾を持つ場合,埋め込みが近くなり,順位上で完全に分離できず, 1 位にならないことがある.しかし, 1 位ではなくても比較的高い順位に用語が表れていれば,上位の用語を提示することでユーザに適切な用語の発見を促すことができると考えられる。 ## Mean-of-Posts \& Last-Token 最下位となった用語の順位は 8 位であった. 用語自体が 1 位にならなかった事例では, 入力の単語と共通の語尾を持つ用語が上位になった. 8 位になった事例は “Do monsters still attack in creative mode?” であり, 入力の表現は “creative mode” だった. 用語との類似度は 0.8186 であり,このときの 1 位は “adventure mode” (類似度 0.8807) だった。 2〜7 位も同様に“mode”という語尾を持つ用語であった. 1 位にならなかった用語の類似度は全て 0.7 以上と高いため,質問応答システムは 1 位の単語のみならず,全て類似度の高い用語を関連の用語としてユーザに提示することができる. ## Max-Post \& Last-Token 最下位となった用語の順位は 137 位であった. その事例は "Blockes will no drop blockes after I break them?” という質問文であり,入力の表現は “Block” だった. “Block”という用語自体との類似度は 0.6074 だったが, 1 位が “Spider”(類似度 0.7847), 2 位が “Mob”(類似度 0.7737) であった。この事例の “Blockes”という単語は, “Block” の複数形と思われるが,正しい綴りは “Blocks”である。この誤字により埋め込みが大きく影響されてしまい,正解が Self similarity whose rank $>1$ (Mean-of-Posts \& Last-Token) Self similarity whose rank > Self similarity whose rank $>1$ Mean-of-Posts $\&$ Mean-of-Tokens) Self similarity whose rank $>1$ 図 2 順位の分布 (上図)と 1 位とならなかった用語の類似度の分布 (下図) 得られなかったと考えられる。実際に“Blockes”を “Blocks"に修正すると, “Spider” との類似度が 0.3052 に, “Mob”との類似度が 0.3583 に下がり, “Block”自体との類似度が 0.6288 に上がった. このことから,この手法は誤字の影響を受けやすいと言える. ## Mean-of-Posts \& Mean-of-Tokens 最下位となった用語の順位は 5 位であり,Meanof-Posts \& Last-Token と比べると,全体的には良い性能となり,最下位の用語の順位は良くなったが, 1 位でない単語の類似度は低くなった。 入力が“Mob spawners mayhem” という質問文で入力の単語が “Mob”である事例では,Mean-of-Posts \& Last-Token において 1 位が “Mob”(類似度 0.3393 ) であったが, Mean-of-Posts \& Mean-of-Tokens において “Mob” が 2 位となり,1 位がマルチトークンである lava slime(類似度 0.3862 )となった. これは,トークン間の平均を取ったことにより,埋め込みに食い違いが発生したと考えられる。 ## Max-Post \& Mean-of-Tokens 最下位となった用語の順位は 170 位だった. 順位が極端に低い単語は 170 位と 18 位の 2 個であり,両方とも入力に誤字が含まれていた. 170 位は Max-Post \& Last-Token の項で言及した “Blockes” の例であり,18 位は “Wheather”(“Whether” の誤字) であった。これらを除外すると,最下位の用語の順位は 5 位になり,1 位でない単語の類似度は全て 0.7 以上と高くなるため,質問文に誤字が含まれていなければ,Max-Post \& Mean-of-Tokens による埋め込みは有効であると考えられる。 ## 4.3 異なる表現間のマッピング 4.2 では入力表現に対して,対応する Minecraft の用語が 1 位となることを正解として評価したが,実際に対話システムで使うことを考えると 2 位以下の候補を利用する可能性もある.そこで,4.2で対象とした表現を除いた合計 1,310 個 (543 種類) の名詞を対象としてランキングを作成し, 1 位の用語との類似度が高い名詞を分析した。 類似度が 0.8 以上になった名詞を確認したところ, 多くは "game" $\rightarrow$ "the game", "mode" $\rightarrow$ "hardcore mode”といった,用語と共通語尾を持つ名詞であり, 類似度が 0.7 程度の単語を確認したところ, "circuits" $\rightarrow$ "redstone wire", "farm" $\rightarrow$ "plant" といった,関連用語の対応が得られた。また,数は少なかったが,“space” $\rightarrow$ “inventory slot”といった我々が想定しているような言い換えも得られた。 ## 5 おわりに 本論文では,特定ドメインにおける初心者が用いる表現をドメイン固有の表現に対応づけるシステムを提案した。具体的なドメインとして Minecraft を対象とし,コミュニティサイトのデータを用いて評価を行い,埋め込みを計算する 4 種類の手法を比較し,その特性や有効性を考察した。 実際の対話システムの環境で,より多くの事例を収集するために Ogawa et al. [2020] の基盤を用いて初心者と経験者のペアを組ませて対話を収集し,事例の分析やシステムの改良を行う予定である. ## 謝辞 本研究は JSPS 科研費 JP19H04167 の助成を受けた。 ## 参考文献 M. Behrendt and S. Harmeling. Arguebert: How to improve bert embeddings for measuring the similarity of arguments. In Proceedings of the 17th Conference on Natural Language Processing (KONVENS 2021), pages 28-36, 2021. J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. C. Dumont, R. Tian, and K. Inui. Question-answering with logic specific to video games. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pages 4637-4643, 2016. T. Mikolov, K. Chen, G. Corrado, and J. Dean. Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781, 2013. T. Niu, S. Yavuz, Y. Zhou, N. S. Keskar, H. Wang, and C. Xiong. Unsupervised paraphrasing with pretrained language models. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pages 5136-5150, 2021. H. Ogawa, H. Nishikawa, T. Tokunaga, and H. Yokono. Gamification platform for collecting task-oriented dialogue data. In Proceedings of the 12th Language Resources and Evaluation Conference, pages 70847093, 2020 . J. Pennington, R. Socher, and C. D. Manning. Glove: Global vectors for word representation. In Proceedings of the 2014 conference on empirical methods in natural language processing (EMNLP), pages 1532-1543, 2014. H. Wang, F. Ma, Y. Wang, and J. Gao. Knowledge-guided paraphrase identification. In Findings of the Association for Computational Linguistics: EMNLP 2021, pages 843-853, 2021.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C7-3.pdf
# 司法試験自動解答におけるルールベースと機械学習のシステム構築と アンサンブル 藤田真伎 ${ }^{1}$ 狩野芳伸 ${ }^{1}$ 1 静岡大学 情報学部 mfujita@kanolab. net kano@inf.shizuoka. ac.jp ## 概要 法律分野における自然言語処理技術の利用は,大きく期待されている応用分野の一つである.究極的な目標は裁判過程の自動化であり,裁判のコストの高さや,判決を市民に説明するといった課題に対応できる可能性がある. 法律分野の自然言語処理技術に関するワークショップとして,我が国司法試験の民法分野短答式問題の自動解答を行い性能を競う COLIEE が毎年開催されてきた. 我々は COLIEE の含意関係認識タスクを対象に,ルールベースのシステムと機械学習ベースのシステムの実装, 改良を行い, さらにこの二つのシステムのアンサンブルを行い,解答性能の向上を確認した。 ## 1 はじめに 法律分野の自然言語処理技術に関するワークショップとして, 我が国司法試験の民法分野短答式問題の自動解答を行い性能を競う Competition on Legal Information Extraction and Entailment (以下 COLIEE) [1]が毎年開催されてきた. COLIEE の Task 4 は民法条文一覧と過去問題が与えられ,それをもとにシステムを作成し, テスト問題の解答の精度を競うものである.このタスクは,図 1 のように問題文とその問題を解くのに必要な関連民法条文の二つが与えられ,問題文が正しいか否かを Yes かNo の二択で答え,解答の精度を競うものである. COLIEE 2021 の Task 4 に,我々はルールベースの解答方法を用いるシステム [2]を使用した。他のチームは BERT [3]を中心に使用するチーム [4] [5] [6]や T5 をベースにアンサンブルを行うチーム [7],グラフニューラルネットワークを用いるチー ム[8]など機械学習ベースのシステムを使用しており,ルールベースのシステムを使用するチームは我々のみだった。推論過程がブラックボックスであ る機械学習ベースのシステムと異なり,ルールベー スのシステムは人間の思考に沿った推論を行うことができため,究極的な目標である裁判過程の自動化の際に重要となる, 説明可能な出力といった面で優れている. 本論文では,ルールベースのシステムの改良を説明し,また BERT を用いた機械学習ベースのシステムの実装, 改良を行う。その後, 二つのシステムのアンサンブルを行った結果, 精度が向上した.このことから,ルールベースのシステムは説明可能な出力が可能なだけでなく, 精度向上にも貢献できることが確認できた. 図 1 COLIEE Task 4 (含意関係認識) の問題例 ## 2 関連研究 ルールベースのシステムの先行研究として星野 [9]のものがあり,これをべースに用いる。これは文章を構文解析システム [10]で解析し, 解析結果から節分割をする。 その後, 解析結果を再度使用し, 各節で主語, 述語, 目的語の節セットを抽出して解答を行うものである。このシステムは複数のモジュールに分かれており,モジュールにより解答方法と精度が異なる。詳細探索モジュールは関連民法条文と問題文節セットが全て一致していたら比較を行う,曖昧探索モジュールは節セットのうち二つが 一致していたら比較を行うなど比較条件が異なっている. 2021 年に開催された COLIEE 2021 において, Task 4 では BERT を用いた北海道大学のチーム [4] が最高の成績を収めた。このチームは, 主に訓練デ一タの拡張と BERT のアンサンブルによって性能向上を図っている。訓練データの拡張には, 配布される民法条文一覧を使用している,文章を分割することでデータ数を増やし, またその文章の一部を否定形にすることで論理を反転させることでもデータ拡張をしている。また複数の BERT のアンサンブルも行っており, 異なるデータで学習させたモデルの中で, 精度の高いものを複数選択し結果をアンサンブルすることにより精度を向上させた. ## 3 提案手法 ## 3.1 ルールベースのシステムの改良 ## 3. 1.1 モジュールの構成 我々が以前に構築したルールベースのシステム [9]を改良し,精度の向上を図る.モジュールの詳細は次項以降で説明する.モジュールごとに解答できる問題と正答率が異なるため, 正答率の高いモジュールから順に解答を行い, 最後に全ての問題に解答できるが正答率の低い全探索モジュールで解答を行っている. 全探索モジュールで多くの問題に解答してしまい, 全体の正答率が下がるのが問題点となっていたため, 多くの問題に解答でき正答率の高い中間層の項探索モジュールを作成し, 精度向上を図った. 図 2 がモジュールの構成図である. 図 2 ルールベース改良後モジュール構成図 ## 3. 1.2 二重構文解析 既存のシステムでは, 文章を一度構文解析し, 文章を複数の節に分割した後, その構文解析結果を再度使用し, 節ごとの主語, 述語, 目的語の節セットを作成していた. しかし, この方法では文章が長文の場合に節セットが上手く抽出されない場合や,入れ子構造に対応できないことがあった. そのため,節分割後に再度構文解析を行い,その結果を節セッ卜抽出に使用することで上記の問題に対応した.この手法は全てのモジュールで使用する. ## 3.1.3 新規節セット 先述の二重構文解析を用いても,節セットが全て抽出されない場合があった. そのような場合に備え節セットの抽出方法を改善した。構文解析結果を使用しても節セットが全て抽出されなかった場合, 助詞の「は」や「が」の前に位置する単語を主語に,助詞の「に」と「を」の前に位置する単語を目的語に設定した。また,比較しやすい節セットの作成のため,人物名を全て「人」に,「甲」「乙」「丙」 を全て「物」に置き替える処理を追加し,比較を行いやすい節セットを作成した。 ## 3.1. 4 項探索モジュール 先述の新規節セットを用いた新たなモジュールを作成する.このモジュールを項探索モジュールとした. このモジュールでは新規節セットと既存の節セットの両方を使い,節セット内のどれか一つでも一致したら比較対象とみなし解答を行う. 複数の条文が一致した場合, 一致数が多いものを優先し, 数が同じ場合は精度が高いと考えられる既存の節セットで一致したものを優先する。 ## 3.2 機械学習ベースのシステムの実装 機械学習手法として BERTを用いた. 14 年分の過去問題のうち 2 年分を検証データ,残りを訓練デ一タとして使用したものを 7 回実行し,全ての過去問題を検証に使用した。入力の最大文字列長は 512 とし,それ以上の長さの問題は解答を行わない。 ## 3. 2.1 否定形 先行研究 [4]にならい,文末を否定形にすることでデータ拡張を行う. 先行研究では与えられた民法条文一覧のみを否定形にすることでデータ拡張して いたが,提案手法では過去問題の問題文部分も否定形にすることで更なるデータ拡張を行う。 ## 3.2. 2 データセットのリスト化 与えられた関連民法条文は,複数の条文に分かれている場合があるため, そのような場合は条文ごとに分割し使用する. 分割後の民法条文と, 問題文をセットにすることでデータ拡張を行う. ## 3. 2.3 置き替え 民法条文の中には,条番号で他の条文を参照する場合が存在する. そのような場合, 参照先の条文の情報がないと適切な解答が行えないと考え, 人手で条番号を実際の条文の内容に置き替えたデータを作成した. また, これにより文章が長くなりすぎ解答に不利になってしまう可能性も考慮し, 置き替え前のデータと置き換え後のデータの両方を使用する. ## 3. 2.4 組み合わせ 分割により民法条文部分に必要なデータが含まれなくなるなる可能性が考えられるため, 分割後のデ一タから全ての組み合わせで再度民法条文部分を構築し, データ拡張と過不足のない民法条文の作成を同時に行う. ## 3.2.5 AB 置き換え 過去問題の中には, 人物名がアルファベットで登場する場合があり, そのような問題は解答率が低い傾向にある. そこで, 問題に二回以上人物名が登場した場合,それらをアルファベットに置き替えることで訓練データを拡張し, このような問題に対応できる可能性を向上させた. ## 3. 2.6 解答の決定 推論の際に, 分割された複数の問題が異なる答えを示す場合がある。そのような場合は, Yes と No の解答数を比べ,解答数の多いものをそのモデルの最終的な解答とする。また,結果のばらつきをなくすため同一の訓練データでモデルを 5 回作成し推論を行う. その際, 5 個の出力の Yes の数と No の数を再度比較し, 多いほうを最終的な解答として出力する. ## 3.3 アンサンブル ルールベースのシステムと機械学習ベースのシステムのアンサンブルを行い, 精度の向上を図る. ア ンサンブルの基準にはルールベースのシステムの上位モジュールを使用し,上位モジュールで解答できた問題はルールベースのシステムの解答結果を,それ以外の問題は機械学習ベースのシステムの解答結果を用いる。どこまでを上位モジュールとするかを検討するため,全てのパターンでテストを行う. ## 4 結果 ## 4. 1 ルールベースのシステムの結果 COLIEE 2021 に提出した, ルールベースのシステムの実行結果について記述する。提出時のシステムの H18 R01 の過去の問題, R02 のテスト問題に対する結果は表 1 のようになった. なお, ベースラインは今回の改良の行う前の, 前年度までのルールベー スのシステムである. 表 1 ルールベースのシステム問題害行結果 & & & \\ ## 4.2 機械学習ベースのシステムの結果 機械学習ベースのシステムで過去の問題, テスト問題に対し, 5 回ずつモデルの作成,推論を行いその結果を統合したものが表 2 である. 表 2 機械学習ベースのシステム問題実行結果 & & & & & \\ ## 4. 3 アンサンブルの結果 過去問題,テスト問題の解答についてのアンサンブルを行う.アンサンブルに用いる結果は,ルールベースのシステムは表 1 に記載した KIS1 の結果,機械学習ベースのシステムは表 2 の最下段に記載した全ての提案手法を用いる設定での実行結果を用いる. なお, COLIEE 2021 提出後にシステムの軽微な不具合を発見したため,少し修正を加えた。そのためルールベースのシステムの解答結果が少しだけ異なっている. 結果を表に示したものが表 3 である. 例として,曖昧探索の行に記されている結果は,ルールベースのシステムの詳細探索, 曖昧探索モジュールまでで解答できた問題についてはルールベースのシステムの解答結果を使用し, 解答できなかったその他の問題については機械学習ベースのシステムの解答結果を使用する。 表 3 アンサンブルの結果 & \\ ## 5 結果 $\cdot$ 考察 ## 5.1 ルールベースの結果・考察 過去問題 806 問に対し実行した結果, 表 1 からシ スト問題に対して実行した場合, 訓練データと比べあまり精度が高くなかった。しかし, 改良前のルー ルベースのシステムであるべースラインの正答率は 0.513 と改良後の KIS1 3 より低くなっていた。このことから, 改良により精度が低下したのでなく, ル ールベースのシステムが今回のテスト問題と相性が悪かったと考えられる。 ## 5. 2 機械学習ベースの結論・考察 表 2 から提案手法を用いたシステムは用いなかったシステムより過去問題の解答精度が向上していた。また,どれか一つの提案手法用いなかったものは,提案手法を全て用いたものの精度と同等もしくは低下していた。よって全ての提案手法がマイナスには働いていないと考えられる。 テスト問題では提案手法を用いないものの方が精度は高かった。しかし, 提案手法を用いないものの精度が過去問題と比べかなり高いこと,テスト問題の問題数の少なさから,提案手法の有効性を否定できる結果ではないと考え, 有効性については今後さらなる検討が必要である。 ## 5.3 アンサンブルの結論 ・ 考察 表 3 から,詳細探索モジュールのみ,または詳細探索+曖昧探索モジュールのルールベースのシステムの解答と,それ以外の問題の機械学習ベースのシステムの解答をアンサンブルしたものは,どちらか一方のシステムの解答のみの場合よりも精度が向上した. このことから,アンサンブルに使用するルー ルベースのシステムのモジュール選択が適切であれば, アンサンブルは非常に有効であると考えられる. 一部の問題のみしか解答できなくとも,高精度で解答を行えるモジュール,システムがアンサンブルの際には有効であり,そのようなシステムを作成しアンサンブルすることで更なる精度向上が期待できる. ## 6 おわりに 本論文では,ルールベースのシステムの改良,機械学習ベースのシステムの実装と改良を行い,それらのアンサンブルを行った。結果,ルールベースのシステム改良,アンサンブルで特に精度の向上を確認できた. アンサンブルによる精度の向上は,精度の高い一つのシステムだけでなく複数のシステムを使用することの有効性を示す結果となった。また,ルールベ ースのシステムを用いたアンサンブルにより精度が向上したことから,ルールベースのシステムは説明可能な出力といった面のみならず,精度向上にも貢献できることを示せた. 今後は説明可能な出力を考慮しながら, 機械学習ベースのシステムの改良の有効性の検討,アンサンブルを前提としたモジュール,システムの実装に取り組んでいきたい. ## 参考文献 [1] Summary of the Competition on Legal Information Extraction/Entailment (COLIEE) 2021. Juliano Rabelo, Randy Goebel, Yoshinobu Kano, Mi-Young Kim , Masaharu Yoshioka, Ken Satoh. Proceedings of the Eighth International Competition on Legal Information Extraction/Entailment (COLIEE 2021) , 2021 , pp. 1-7. [2] Predicate's Argument Resolver and Entity Abstraction for Legal Question Answering: KIS teams at COLIEE 2021 shared task. Masaki Fujita, Naoki Kiyota, Yoshinobu Kano. Proceedings of the Eighth International Competition on Legal Information Extraction/Entailment (COLIEE 2021), 2021 , pp. 1524. [3] BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. Jacob Devlin , Ming-Wei Chang , Kenton Lee , Kristina Toutanova. arXiv:1810.04805v2, 2019. [4] BERT-based Ensemble Methods with Data Augmentation for Legal Textual Entailment in COLIEE Statute Law Task. Masaharu Yoshioka, Yasuhiro Aoki , Youta Suzuki. ICAIL '21: Proceedings of the Eighteenth International Conference on Artificial Intelligence and Law, 2021 , pp. 278-284. [5] ParaLaw Nets - Cross-lingual Sentence-level Pretraining for Legal Text Processing. Ha-Thanh Nguyen, Vu Tran, Phuong Minh Nguyen, Thi-Hai-Yen Vuong, Quan Minh Bui, Chau Minh Nguyen, Binh Tran Dang, Minh Le Nguyen, Ken Satoh. Proceedings of the Eighth International Competition on Legal Information Extraction/Entailment (COLIEE 2021), 2021 , pp. 54-59. [6] BM25 and Transformer-based Legal Information Extraction and Entailment. Mi-Young Kim, Juliano Rabelo, Randy Goebel. Proceedings of the Eighth International Competition on Legal Information Extraction/Entailment (COLIEE 2021) , 2021 , pp. 2530. [7] A Pentapus Grapples with Legal Reasoning. Frank Schilder, Dhivya Chinnappa, Kanika Madan, Jinane Harmouche, Andrew Vold, Hiroko Bretz, John Hudzina. Proceedings of the Eighth International Competition on Legal Information Extraction/Entailment(COLIEE 2021), 2021 , pp. 60-68. [8] Using Contextual Word Embeddings and Graph Embeddings for Legal Textual Entailment Classification. Sabine Wehnert, Shipra Dureja, Libin Kutty, Viju Sudhi, Ernesto W. De Luca. Proceedings of the Eighth International Competition on Legal Information Extraction/Entailment (COLIEE 2021), 2021 , pp. 6977. [9] Question Answering System for Legal Bar Examination using Predicate Argument Structures focusing on Exceptions. Reina Hoshino, Naoki Kiyota, Yoshinobu Kano. Proceedings of the Sixth International Competition on Legal Information Extraction/Entailment (COLIEE 2019), 2019 , pp. 38-44. [10] 日本語構文・格・照応解析システム KNP. 京都大学大学院情報学研究科知能情報学専攻黒橋・褚・村脇研究室. (オンライン) (引用日: 2022 年 1 月 6 日.) https://nlp.ist.i.kyoto-u.ac.jp/?KNP. ## 付録 A ## A1 先行研究のシステムのモジュー ## ル概要 ルールベースのシステムの先行研究として星野のシステムについて関連研究で述べた。星野のシステムのモジュール構成図は図 A 1 のようになっている. 図A1 星野のルールベースのシステムモジュー ル構成図 詳細探索モジュールでは, 関連民法条文と問題文の文末の節を比較し, 主語, 述語, 目的語からなる節セットが全て一致していた場合のみ比較を行う。曖昧探索モジュールでは, 主語と述語のペア, 又は述語と目的語のぺアが一致していたときに比較を行う. 全探索モジュールでは節セットの比較をせずに推論を行う。 ## A2 COLIEE 2021 提出結果 ルールベースのシステムを COLIEE 2021 に提出した際の,参加チームの結果一覧が表 A 1 である. KIS1 3 は表 1 と一致している.表 A 1 COLIEE 2021 Task 4 各チーム提出結果 & Accuracy \\ & BaseLine & 57 & 0.5309 \\ HUKB & HUKB-2 & 55 & 0.7037 \\ HUKB & HUKB-1 & 55 & 0.6790 \\ HUKB & HUKB-3 & 54 & 0.6667 \\ UA & UA_parser & 51 & 0.6296 \\ INLP & INLP.Enss5C15050 & 51 & 0.6296 \\ JNLP & INLP.Enss5C15050SilverE2E10 & 51 & 0.6296 \\ JNLP & JNLP.EnssBest & 48 & 0.5926 \\ OVGU & OVGU_run3 & 48 & 0.5926 \\ TR & TR-Ensemble & 48 & 0.5926 \\ TR & TR-MTE & 45 & 0.5556 \\ OVGU & OVGU_run2 & 44 & 0.5432 \\ KIS & KIS1 & 44 & 0.5432 \\ KIS & KIS3 & 44 & 0.5432 \\ UA & UA_1st & 43 & 0.5309 \\ KIS & KIS2 & 43 & 0.5309 \\ UA & UA_dl & 41 & 0.5062 \\ TR & TR_Electra & 36 & 0.4444 \\ OVGU & OVGU_run1 & & \\
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C7-4.pdf
# 深層学習モデルは司法試験をどこまで解いているのか :問題分類とそれに基づく分析 清田直希 ${ }^{1}$ 藤田真伎 ${ }^{2}$ 狩野芳伸 ${ }^{1}$ 1 静岡大学大学院 総合科学技術研究科 情報学専攻 2 静岡大学 情報学部 nkiyota@kanolab.net mfujita@kanolab.net kano@inf.shizuoka.ac.jp ## 概要 自然言語処理技術の法的応用は重要であるが,テキストの専門性が高く, 複雑な構文・意味構造の法律文書を処理するのは依然として難しい。司法試験の自動解答を題材とした COLIEE では,多くの参加チームが end-to-end の深層学習モデルを提出しており,一見高いスコアを獲得しているように見えるが, これらのモデルはブラックボックス的な処理のため,解答の根拠を示すことは難しい. 本稿での問題分類とシステム出力の詳細な比較により、現在のシステムは未だ正しい推論過程に基ついた自動解答を行えていないことが示唆された。 ## 1 はじめに 近年,自然言語処理技術は急速に発展し,様々な分野での活用が期待されている。司法の分野も例外ではなく,法律文書は文章中の事象を客観的に判断しなければならないことから,自然言語処理の導入に期待が高まっている。 本研究では,毎年開催されている我が国の司法試験の自動解答を行うコンテスト型のワークショップ COLIEE タスクシリーズ[1]-[7]で配布されたデータを対象とする. COLIEE2021[8]で,我々は日本語の述語項に着目した解答器を作成した. その他のチー ムは,汎用的自然言語処理モデル BERT[9]を使用した機械学習的なアプローチで自動解答を実現していた. 法律文書の処理は,専門性の高い言語が多く用いられているうえ,複雑な構文構造や人物関係,言い換え表現など高度かつ多様な解析技術を必要とする複合的な要素がある。こうした, 複雑な文書処理について現状の自然言語処理モデルが論理的な解答を行っているのかを, 問題分類を通して分析した。最後に,この分析に基づいて,説明可能な自動解答モ デルの実現について論じる ## 2 司法試験の自動解答タスク COLIEE ## 2. 1 COLIEE COLIEE (Competition for Legal Information Extraction and Entaiment)は, COLIEE 2014,COLIEE 2015 , COLIEE 2016 と人工知能学会国際シンポジア (JSAI-isAI)のひとつである JURISIN (法情報学ワ ークショップ)において開催してきた. COLIEE 2017 は法と人工知能に関するトップカンファレンスである ICAIL (International Conference of Artificial Intelligence and Law)において開催された. COLIEE 2018 からはカナダ法を用いたタスクが追加されたが,本稿では我が国の司法試験を用いたタスクのみを対象とする。 司法試験は弁護士や裁判官,検察官となろうとする者を対象に行われる試験である。問題形式は択一問題を含む短答式と論文式に分けられて行われる.試験の科目数については,短答式が憲法,民法,刑法の 3 科目であり,論文式が公法系科目 (憲法及び行政法に関する分野), 刑事系科目 (刑法及び刑事訴訟法に関する分野), 選択科目 (知的財産法, 労働法などの中から 1 科目選択する)の 4 科目である. COLIEE ではこのうち民法短答式試験を対象としている. 多択を 2 択にブレークダウンするとともに,解答に関連する条文を検索する情報検索タスク (Information Retrieval)と, 2 択を Yes/No で答える含意関係タスク (Entailment)がある。また,知識源として民法の全条文を配布し,問題文共々原文の日本語に加え,英語に翻訳したものを配布している。 COLIEE 2021 では, 5 つのタスクが用意され, Task1 と 2 はカナダの判例法を用いたタスクであった. Task3 が情報検索タスク, Task4 が含意関係タスクであった.以下で各タスクを定式化する。 情報抽出タスクでは, 与えられた問題文 $\mathrm{Q}$ を解答するのに関連する民法条文のサブセット $\mathrm{S}_{1}, \mathrm{~S}_{2}, \cdots$, $\mathrm{S}_{\mathrm{n}}$ を民法全体から抽出する。 含意関係タスクは,与えられた問題文 $\mathrm{Q}$ を同時に与えられた民法条文のサブセット $\mathrm{S}_{1}, \mathrm{~S}_{2}, \cdots, \mathrm{S}_{\mathrm{n}}$ が含意するかを解答するタスクである. すなわち, 含意関係にあれば Yes,そうでなければ No と解答する。 Task5 は司法試験の問題文のみを与えられ, 条文検索から解答まで行う Task3 と 4 を組み合わせたタスクとなっている。本稿では Task 4 を対象とする. なお, Task 4 と 5 においては 2 択のブレークダウンによって, 法律文書を正しく理解していなくても, Yes/No で解答をすれば $1 / 2$ の確率で正解になってしまうため, 解答の論理性が失われる点が課題とされている. ## 2.2 分析対象の解答器モデル 本稿では我々が COLIEE 2021 において作成した解答器である KIS1[10]を分析対象に用いる. この解答器は我々の COLIEE 2020 のモデル[11]をベースにしており, 述語項構造の抽出比較が基盤になっている. 本モデルは従来のモデルの節セットに加えて,関連条文中には登場しない表現を抽象表現に置き換え(例 : “甲” $\rightarrow$ “物”), 節分割により節セットの要素を埋められれなかった場合, 隣接する節の引数を利用して要素を埋める新規節セットを用いている. また, 従来では問題文と関連条文の文末の節セットのみが比較対象であったが, 本解答器ではすべての節セットを比較することができる項探索モデルを実装した. 本解答器は我々が提出したものの中で最も高い精度であった。 また, 本稿の分析のためにシンプルな BERT を用いた解答器(Vanilla BERT モデル)を作成した. 本モデルは日本語の Wikipedia で訓練されているi. 事前訓練に使用されたテキストファイルは約 1,700 万文で構成されており, サイズは 2.6GB である. ファインチューニングの際には, COLIEE で出題された過去の問題から作成された 2,164 の訓練データを使用した. COLIEE 2021 では 80 問の問題を対象に解答の精度を競った. 我々が分析対象とするモデルは, 述語項ベースの正解が 44 (正答率: .550), vanilla BERT の正解が 50 (正答率: .625)であった.  ## 3 司法試験の問題分類 司法試験を解答するうえでは,背後にある構文構造, 人物の役割と関係性, 論理, 抽象性など多様で複雑な構造を的確に処理をする必要がある。 どの問題解答にどのような要素技術が必要か, 平成 29 年度以降のテストデータを対象に解答に必要な要素基準ごとに手作業でマルチラベル分類をした.分類の基準を表 1 に示す. 本節ではうちいくつかの分類基準を概説する。 ## 表 1 COLIEE 司法試験問題の技術別分類基準 分類名分類基準文章の一部を省略している際に,それが何 照応解析を指しているのかを明確にする際に用いる.「こそあど言葉」のみだけではなく「前文」「同項」なども対象となる 条文検索条文中に別の条文が指定されている問題 意味役割 付与問題文の中で用いられている名詞が動作主なのか・その動作の対象なのか, 手段なのか等を特定する必要がある問題 ## 条件文抽 出・判断問題文・条文のそれぞれの条件文を調べることで正誤が判断できる可能性がある問題 係り受け主語と述語の関係又は文の並列関係に着解析目する必要がある問題 箇条書き 解析条文で箇条書きが用いられている問題. 主に箇条書きに書かれているものは条件を満たす変数とみなしてよいと考える。 法律系用民法に記載されている文章と司法試験中語事実関での言動についての事実関係を示す必要 係がある問題 ## 否定形解又は「〜できない(不可能)」「〜しなけれ 釈ばならない(義務)」など「ない」が用いられていてもその意味が異なる問題法律系の言語ではない一般生活で用いら 一般辞書れるような事物が出てきている問題(例:冷蔵庫, 会社) \\ 付与 & 必要がある問題 ## 3.1 照応解析 照応解析は,文章中で登場する「これ」や「この」 などの指示内容を明確にする解析である.前述の指示しに加えて,「前章」や「同項」など司法試験特有の指示表現もあり,言語処理においてはその内容を正しく理解する必要がある. ## 3.2 条件文抽出・判断 条件文抽出・判断は問題文及び条文の条件文を調べることで正誤判定ができる可能性がある問題である. 例えば以下のような問いである。 関連条文 : 第百六十条相続財産に関しては,相続人が確定した時, 管理人が選任された時又は破産手続き開始の決定があった時から六箇月を経過するまでの間は,時効は,完成しない。 問題文 (正答: No) : 相続財産に関しては, 相続財産管理人が選任された場合でも,相続人が確定するまでの間は,時効は完成しない. 太字の部分が文章中の条件である.この場合, 相続財産の時効不成立の条件が正誤の判断材料になる.関連条文では, 管理人選任時から六箇月間は時効が完成しないと記載されているのに対し, 問題文では相続人が確定するまでの間と主張されている.このように,これらの文は条件が異なっていることから,答えは Noとなる. ## 3.3 法律系用語事実関係 法律系用語事実関係とは, 法的な知識を要する表現の関係性である。例えば,問題文では「売買」,関連条文では「双務契約」と記述されていた場合,前者が後者の包含関係にあることを正しく理解しなければ関連条文の内容を適用するかどうかを判断できない。つまり,直接記載されていたり,肯定形や否定形を入れ替えたりしただけの単純な問題ではない. ## 3. 4 否定形解釈 否定形解釈は,条文及び問題文の否定形を正しく解釈したうえで,正誤の判断材料にするタスクである. 以下のように条文の内容を否定形に反転した司法試験の問題も見受けられる. 関連条文: 第六百七十五条組合の債権者は, その債権の発生の時に組合員の損失分担の割合を知らなかったときは,各組合員に対して等しい割合でその権利を行使することができる. 問題文 (正答: No): 組合の債権者は, 各組合員に対して, その権利を行使することができない. このように, 関連条文の内容を否定形にすることで,問題文の主張の正誤も反転する。つまり,この問題の答えは No となる. 否定形解釈は一見,文末の「ない」を認識できれば簡単に評価できるように思えるが,以下のような問いでは「ない」のみで判断することが難しい. 関連条文: 第六百三十三条報酬は,仕事の目的物の引き渡しと同時に,支払わなければならない. 問題文 (正答: No) : 請負人は,仕事の目的物の引き渡しを要する場合には,これを引き渡した後でなければ,報酬を請求することができない. この場合,条文と問題文それぞれに「ない」が用いられている.しかし, 後者は否定形なのに対して,前者は「義務」を表しているため,この問題の答えは No となる. つまり,この問題を解くためには, これらの「ない」に内在される意味を把握しなければならない. ## 3.5 人物関係抽出 $\cdot$ 人物役割付与 ## 関連条文: 第二百条占有者がその占有を奪われたときは,占有回収の訴えにより,その物の返還及び損害の賠償を請求することができる。 問題文 (正答: Yes): A は自己の所有する工作機械を B に賃貸していたが,B は,工作機械の賃貸借契約継続中に工作機械をCに窃取された。この場合,Bは,Aから独立して,Cに対して占有回収の訴えを提起することができる. 先に示した例では,問題文を関連条文と単純に比較することは難しく,正しい解答を出すためには A やB といった人物がどんな関係性であり,それぞれの人物がどのような役割を担っているのかを明らかにする必要がある.この場合,A と B は「賃貸借契約」の関係性である。こうした複数の人物間の関係性を明らかにする必要がある問題には人物関係抽出のタグをつけた。一方で,A は「賃貸人」,B は「賃借人」となり, 工作機械を「占有」していることになる。このように,各人物が問題文中でどのような役割を担っているのかを明らかにする必要がある問題が人物役割付与である. ## 4 説明可能な自動解答に向けた分析 ## 4. 1 問題分類別の正答率 表 2 BERT モデルの問題分類別正答率 (COLIEE2021 抜粋) & & & 艺 & & & \\ 表 2 は COLIEE 2021 の他参加チームのうち BERT を用いたモデルと,筆者らが作成した Vanilla BERT と, baseline(全て No と解答した場合)とについての問題分類別の正答率を抜粋したものである. BERT モデルは古典的な自然言語処理モデルである筆者らの KIS1 よりも,それぞれの分類で高い正答率であった。 ## 4. 2 問題分類別の解答状況 本節では, 実際に出題されたテストデータを基に,問題の分析を行った (問題例については付録 Bを参照). 本問題では先の章で示したように,A や B の役割を明らかにしたうえで,下線部が「債務の目的物の代償である権利の移転」の法律用語系事実関係であることもあり,より難易度が高い問題だと考えられる。使用言語別にみると,日本語モデルは $10 / 12$ に対し,英語モデルは $3 / 6$ であった。しかし本問題では,英語では “a seller (A)”のように役割が明記されており前述のような人物役割の推論過程を省略できる. 日本語よりも推論が容易にも関わらず,正答率について大きな差が出た点で現状の推論が不十分なことを示唆できる。 ## 5 議論と展望 COLIEE 2021 では 7 割程度の精度を達成した解答器も存在したが,問題分類別の分析を行った結果,同じ技術に分類された問題においても,正答率が安定していなかったため,解答器が法律文書を十分正しく処理するためにはまだ多くの課題があると考える.法律分野における実用を想定すると,推論過程とその根拠を示す必要がある.現状の 2 択式で解答器の精度を計る評価方法については,新たな評価尺度を追加し,ブラックボックス的な処理の弊害を除きうる説明可能な技術の開発を進めたい. ## 謝辞 本研究は JSPS 科研費 17H06103 の助成を受けたものです.また,COLIEE のオーガナイザの方々には本研究に使用したデータを提供していただきましたことを厚く御礼申し上げます。 ## 参考文献 [1] "Competition on Legal Information Extraction/Entailment (COLIEE-14), Workshop on Juris-informatics (JURISIN) 2014," 2014. http://webdocs.cs.ualberta.ca/ miyoung2/jurisin_ task/index.html. [2] M.-Y. Kim, R. Goebel, and K. Satoh, "COLIEE-2015 : Evaluation of Legal Question Answering," in Proceedings of the Ninth International Workshop on Juris-informatics (JURISIN 2015), 2015, pp. 1-11, [Online].. [3] M.-Y. Kim, R. Goebel, Y. Kano, and K. Satoh, "COLIEE-2016: Evaluation of the Competition on Legal Information Extraction and Entailment," in Proceedings of the Tenth International Workshop on Juris-informatics (JURISIN 2016), 2016, pp. 1-13, [Online]. [4] Y. Kano, M.-Y. Kim, R. Goebel, and K. Satoh, "Overview of COLIEE 2017," in Proceedings of the Competition on Leal Information Retrieval and Entailment Work-shop (COLIEE 2017) in association with the 16th International Conference on Artificial Intelligence and Law, 2017, vol. 47, no. no.Icail, pp. 1-8. [5] M. Yoshioka, Y. Kano, N. Kiyota, and K. Satoh, "Overview of Japanese Statute Law Retrieval and Entailment Task at COLIEE-2018," in Proceedings of the Twelfth International Workshop on Juris-informatics (JURISIN 2018), 2018, pp. 1-12. [6] R. Goebel, Y. Kano, M.-Y. Kim, J. Rabelo, K. Satoh, and M. Yoshioka, "COLIEE 2019 Overview," in Proceedings of the Competition on Legal Information Retrieval and Entailment Workshop (COLIEE 2019) in association with the 17th International Conference on Artificial Intelligence and Law, Jun. 2019, pp. 1-9. [7] J. Rabelo, M.-Y. Kim, R. Goebel, M. Yoshioka, Y. Kano, and K. Satoh, "COLIEE 2020: Methods for Legal Document Retrieval and Entailment," in Proceedings of the Fourteenth International Workshop on Juris-informatics (JURISIN 2020), 2020, pp. 1-15. [8] R. Goebel, Y. Kano, S. Univesity, M. Kim, and J. Rabelo, "Summary of the Competition on Legal Information Extraction/Entailent (COLIEE) 2021," in Proceedings of the COLIEE Workshop in ICAIL., 2021, pp. 1-7. [9] J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova, "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding," Oct. 2018, Accessed: Jan. 08, 2020. [Online]. Available: http://arxiv.org/abs/1810.04805. [10] M. Fujita, N. Kiyota, and Y. Kano, "Predicate's Argument Resolver and Entity Abstraction for Legal Question Answering: KIS teams at COLIEE 2021 shared task," in Proceedings of COLIEE 2021 Workshop on International Conference on Artificial Intelligence and Law (ICAIL 2021), 2021, pp. 15-24. [11] R. Hayashi, N. Kiyota, M. Fujita, and Y. Kano, "Legal Bar Exam Solver integrating Legal Logic Language PROLEG and Argument Structure Analysis with Legal Linguistic Dictionary," in Proceedings of the Fourteenth International Workshop on Juris-informatics (JURISIN 2020), 2020, pp. 148-161. [12] M. Yoshioka and Y. Suzuki, "BERT-based ensemble methods with data augmentation for legal textual entailment in COLIEE statute law task," in Proceedings of the COLIEE Workshop in ICAIL., 2021, pp. 78-83. [13] M.-Y. Kim, J. Rabelo, and R. Goebel, "BM25 and Transformer-based Legal Information Extraction and Entailment," in Proceedings of the COLIEE Workshop in ICAIL., 2021, pp. 25-30. [14] H.-T. Nguyen et al., "JNLP Team: Deep Learning Approaches for Legal Processing Tasks in COLIEE 2021," in Proceedings of the COLIEE Workshop in ICAIL., 2021, pp. 46-53. [15] S. Wehnert, S. Viju, D. Shipra, K. Libin, S. Saijal, and W. de L. Ernesto, "Legal norm retrieval with variations of the bert model combined with TF-IDF vectorization," 2021. ## 付録 A COLIEE 2021 formal run の問題分類別正答率 Table 1 COLIEE 2021 Task4 formal run の問題分類別正答率 (チーム名はそれぞれ a1: HUKB-1, a2: HUKB-2, a3: HUKB-3, b1: JNLP.Enss5C15050, b2: JNLP.Enss5C15050SilverE2E10, b3: JNLP.EnssBest, c1: KIS1, c2: KIS2, c3: KIS3, d1:OVGU_run1, d2: OVGU_run2, d3: OVGU_run3, e1: TR-Ensemble, e2: TR-MTE, e3: TR_Electra, f1: UA_dl, f2: UA_parser, g: our Vanilla BERT, h: COLIEE_baselineを表している) & & & & & & & & & & & & & & & & & & & \\ ## 付録 B 問題文 (正答: Yes): A と B は,Aが所有する骨董品甲を B に 100 万円で売却する旨の売買契約を締結した.売買契約の締結後,B が代金 100 万円を支払ったが,A が甲を B に引き渡す前に,甲が B の責めに帰すべき事由により焼失した場合において,A が甲の焼失による損害をてん補するために支払われる損害保険金 70 万円を得たときは, B は,A に対し, 70 万円の支払を請求することができる. (If, after the conclusion of the contract for sale, a buyer (B) pays 1000000 yen for $\mathrm{X}$, but before a seller (A) delivers $\mathrm{X}$ to B, $\mathrm{X}$ is burned-out due to grounds attributable to $\mathrm{B}$, and $\mathrm{A}$ obtains 700,000 yen of the insurance money for damage caused by the destruction of X, B may claim payment of 700,000 yen to A.) 関連条文: 第四百二十二条の二債務者が,その債務の履行が不能となったのと同一の原因により債務の目的物の代償である権利又は利益を取得したときは,債権者は,その受けた損害の額の限度において,債務者に対し,その権利の移転又はその利益の償還を請求することができる。 (Article 422-2 If the obligor acquires a right or profit as a substitute for the subject matter of the obligation due to the same cause as the one that has rendered the performance of the obligation impossible, the obligee may demand the transfer of the right or reimbursement of the profit from the obligor, to the extent of the amount of damage sustained thereby.)
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C8-1.pdf
# グラフ表現による文章の構造情報を用いた機械読解 小坂 直輝 ${ }^{1}$ 小林哲則 ${ }^{1}$ 林 良彦 1 1 早稲田大学理工学術院 kosaka@pcl.cs.waseda.ac.jp ## 概要 本研究では,グラフ構造による文章表現を利用する機械読解手法を提案する.単語依存構造をべースに文の位置関係や共参照,談話修辞構造を用いて文章全体の構造を表すグラフを生成し,これをグラフ畳み込みモデルを介して表現する。得られた表現を事前学習済言語モデルによる文脈表現と併用することで読解問題を解く. 多肢選択型機械読解タスクにおける実験の結果,言語モデル単体を用いた場合や既存手法と比べて精度向上が確認され,文章全体の構造をグラフとして表現し利用することの有用性が示唆された。 ## 1 はじめに 近年,BERT [1] や XLNet [2] といった大規模な事前学習済言語モデルが幅広いタスクで高い精度を達成しているが,こうしたモデルは語順や構文情報に弱いという指摘が存在する [3]. 多肢選択型機械読解においても言語モデルと併用して,文章の構造情報を明示的に与えることで精度向上を実現した研究が現れている ([4],[5]). 一方でこれらの研究では,いずれも用いられている構造情報は限定的であるという問題があり,特に文間の関係や文章全体の構造などはあまり考慮されていない. 文章構造の適切なグラフ表現形式を明らかすることを目的とした我々の以前の研究 [6] においても,上記のような上位階層の構造情報は考慮できていなかった. 本研究では,グラフ構造による文章表現を利用する機械読解手法を提案する。 より具体的には,単語依存構造をべースに文の位置関係や共参照,談話修辞構造を用いて文章全体の構造を表すグラフを生成し,これをグラフ畳み込みモデルを介して表現した結果を事前学習済言語モデルによる文脈表現と統合することにより読解問題を解く. 多肢選択型機械読解のデータセット RACE[7]を用いた実験の結果,言語モデル (BERT) 単体や文章の構造情報を部分的に利用する既存手法と比べて精度向上が確認され,提案する文章グラフを用いて文章全体の構造情報を明示的に与えることが有用であることが示唆された. ## 2 関連研究 文章の構造情報を事前学習済言語モデルと併用する形で利用し読解タスクに取り組んだ研究 [4] や [8] では, self-attention network 構造をもつエンコーダで文章を処理する際に,単語依存構造によりアテンション計算を明示的に制限してエンコードした表現を併用することで精度向上を達成している. 本研究でも単語依存構造グラフを用いるという点で関連があるが,単語依存関係のみでは文間の意味関係や文章の談話構造といった高い階層の構造情報は考慮できない。加えて上記研究のようなアテンション計算に制約を加えるような手法には,依存関係ラベルなどの関係の種別を明示的に利用することはできないという問題もある。さらに高度な意味情報を用いた研究としては,意味役割付与を行った結果を入力する文の単語表現に加える形で用いて読解精度向上を達成した研究 [5] がある. 文章の構造情報をグラフとして表現し読解タスクに取り組んだ研究としては [9] がある. 文章から文内もしくは文間にまたがる因果関係や時間的関係を表すイベントグラフと呼ばれるグラフを生成し,それを既存の機械読解モデルの補助として用いることで精度向上を達成している。また,[10] では抽象的意味表現 (Abstract Meaning Representation: AMR)[11] を用いて,機械読解における文章と QA の文それぞれから生成したグラフのアライメント計算を行うことで読解問題を解いている. これらの研究では文内に限定されない構造情報を表現したグラフを生成しているが,高い階層の構造情報の考慮は限定的である.また,両研究では事前学習済言語モデルとの比較や併用は行われていない。 文章のグラフ表現を文間関係抽出のタスクに適用 した研究例として [12]がある. この研究では,文の単語依存構造グラフに対して隣接語や隣接文を繋いだエッジ,共参照解決によるエッジなどを付加することにより,エッジに富んだ文章のグラフ表現を生成し,グラフ畳み込みモデルを介し利用している. こうしたエッジの追加は機械読解においても有用だと考えられ,本研究でも [12] と同様に,文の隣接関係や共参照解決結果を用いたエッジの追加を行う。 以上のように,機械読解をはじめ自然言語タスクにおいて文章の構造情報を明示的に与える研究は複数存在するが,総じて利用されている構造情報は限定的であり,特に文間の関係や文章全体の構造など上位階層の情報に関しては検討の余地が残されている. ## 3 アプローチ 本研究では,読解において対象となる文章全体からその構造を表す図 1 のようなグラフを生成し,得られた文章のグラフ表現をグラフ畳み込みモデルを介して,言語モデルと併用する形で利用することで読解問題を解く.以下では文章グラフ生成法と構築した読解モデルについて述べる。 図 1 階層的な文章グラフの概要. level 1 では各文の依存構造を表し, level 2 では文章全体の修辞構造を表す。 ## 3.1 文章のグラフ表現生成法 読解問題における文章のグラフ表現の生成においては,まず文章中の各文をグラフに変換し,文間にまたがるエッジを追加することで各文ごとのグラフを統合する.さらに談話修辞構造を利用することで文章全体の構造を表すグラフを構成する。 ## 3.1.1 文グラフの生成と統合 ベースとなる各文の表現には, [4] や [8] と同様に依存構造グラフを用いる。文分割や依存構造解析に は自然言語解析エンジンの $\mathrm{spaCy}^{11}$ を用い,単語をノードとしその依存関係をエッジで表現することにより文の構文・意味構造を表す依存構造グラフを作成する. 各文のグラフの統合では,(1) 隣り合う文同士の依存関係グラフの ROOT ノードを隣接文エッジにより結ぶ,(2) 文統合の目的で特別に導入する HUB ノー ドを介して全ての文をスター状に繋ぐ,(3) 共参照関係にある単語間を結ぶ共参照エッジにより文グラフを補強する,という 3 つの手段 [6] を適用する。 ここで共参照解決エンジンには neuralcoref ${ }^{2}$ [13]を用いた. 以上までの段階で生成される文章のグラフ表現の例を図 2 に示す。 図 2 単語依存構造グラフとその統合 ## 3.1.2 RST を利用した文章グラフの生成 図 2 のグラフでは文間の関係や文章全体の構造を考慮しきれているとは言えない。そこでより高い階層の構造情報を取り入れるために,文章の部分間の関係を記述するテキスト編成の理論である修辞構造理論 (Rhetorical Structure Theory: RST)[14] に基づいて構成される修辞構造木を利用する。 修辞構造木において,文章は Elementary Discourse Unit (EDU) と呼ばれる基本談話単位に分割され,隣接する談話単位同士は修辞関係によってより大きい談話単位へと統合されていく,修辞関係には ‘Elaboration’や ‘Condition’など,その関係を表す様々なラベルが与えられ,その中には因果関係や時間的関係を表すものも含まれる。こうした情報は読解を行う際の推論に有用だと考えられる. 図 3 は読解問題の文章の一部を修辞構造木に変換した例である. 図 3 では There are two pictures in the room, too. という文を They are on the wall. という文が精緻化しているという関係が表現されている。こ  図 3 RST に基づく修辞構造木 の文章に対しては部屋の壁には何があるかという質問が存在し,こうした文中の特定の一文のみを見ても答えるのが難しい読解問題の推論において RST の修辞構造は有用だと考えられる。 実際のグラフ生成においては,基本談話単位である EDU のノード同士を修辞関係を表すエッジで直接結ぶことによりグラフを構築する. RST パーサー には [15]を用いた. 例えば,図 3 のような修辞構造木は,図4のようなグラフとして表される. 図 4 RST グラフ ## 3.1.3 異なる階層の構造情報の統合 談話修辞構造の利用法としては,単語依存構造をベースとしたグラフ (図 2) に,さらにエッジを追加するような形で一つのグラフに統合する手法がまず考えられる。しかし,単語依存構造と談話修辞構造はレベルの大きく異なる別々の構造情報であることから,二種類の構造情報を混ぜてしまうことは適切でない。そこで各 EDU に対し,EDUに含まれる各単語ノードと接続されるような Mini-Hubノードを導入し,これが EDUノードと対応するようにした。以上により生成される文章グラフは, 図 1 に示したように大きく二つの階層を持つ. これにより文章が持つ階層構造も適切に表現できると考えられる. ## 3.2 読解モデル: Graph_RC 本研究で提案する読解問題を解くモデル Graph_RC の概要を図 5 に示す. 多肢選択型読解問題における文章,質問文,回答の選択肢 1 つを与 図 5 読解モデル (Graph_RC) え,正しい選択肢か否かの評価値を予測し,最終的に 4 つの選択肢の評価値に softmax を施すことで正しい選択肢を求める. Sentence Encoder (言語モデル)への入力は, $[$ CLS $]+$文章 $+[\mathrm{SEP}]+$ 質問+回答の選択肢 $+[\mathrm{SEP}]$ という形式で与える. また, 3.1 で述べた手順で文章のグラフ表現を生成しておく.言語モデルの出力として得られる,文脈を考慮したトークンごとの表現を文章グラフの下位階層の単語ノードに初期潜在表現として与える. ここで,文章グラフの単語ノードに対応するトークンが複数のサブワードトークンに分割されている場合は,これらの複数のトークンの表現を平均した結果を用いる。 グラフ畳み込みモデルによる文章グラフのエンコードにおいては,大きく二つの階層をもつグラフの構造 (図 1) に合わせ,各文の構造を表す下位階層の部分をエンコードした後,文章構造を表す上位階層の部分をエンコードすることで文章全体の表現を得る。上位階層のエンコードにおいては,下位階層のエンコードの結果 Mini-Hubノードに集約された表現をEDUノードの初期表現として与え,畳み込み演算の後の全 EDU ノードに対し global attention pooling を適用することで文章グラフの表現を得る. こうした階層的な処理により,GCN の畳み込み演算後に多くのノード全てを一度に pooling することでノードの表現が平均化され情報が失われる影響を低减する効果が期待できる。 最終的に言語モデルから得られる CLS トークンの表現と,グラフ畳み込みモデルから得られる文章グラフの表現を結合し,全結合層からなる出力層に与えることにより,注目している選択肢が回答であるかを判定する。 ## 4 実験 ## 4.1 実験設定 多肢選択型の機械読解データセットの中でも比較的データ数が豊富な RACE [7] を用いて評価実験を行った. RACE においては一つの文章に対して複数の質問と各質問ごとに 4 つの選択肢が与えられており,各質問に対して正しい選択肢を選ぶことが求められる。 実験においては Sentence Encoder として利用する言語モデルに BERT [1]を採用し, bert-base-uncased ${ }^{3 \text { ) }}$ と bert-large-cased-whole-word-masking ${ }^{4)}$ の二種類の事前学習済モデルを fine-tuning する形で利用した.評価指標には正答率を用いた。 図 5 におけるグラフ畳み込みモデルとしては RGCN[16] を用い,下位階層と上位階層は,それぞれ 6 層, 4 層とした. また, 出力の全結合層は 2 層とした. BERT の最大系列長は 512 で統一し, [1]を参考にオプティマイザとして重み減衰に L2 正則化を適用した adamである adamwを使用した。 ## 4.2 結果と考察 表 1 に各モデルの正答率を示す.ここで,Turkers とはランダムにサンプリングされたテストデータに対する人による正答率の平均であり, 平均的な人の能力を表す. 一方, Ceiling とは曖昧な問題や正解のない問題を除いた人間が回答可能と考えられる問題の割合であり,人間による正答率の上限値を近似する. Graph_RC-base, Graph_RC-large と記したのが本研究の提案モデルであり, それぞれ言語モデルに BERT-base,BERT-large を採用した結果である。また,表の CSFN,SG-Net というモデルは,文章の構造情報を言語モデルに併用する形で用いる既存研究であり,それぞれ言語モデルとして BERT-base, BERT-large を採用している. 表 1 から,BERT 単体を用いた場合と比べて,提案モデル Graph_RC が高い精度を達成したことが分かる.これにより,文章の構造情報を利用する有効性が確認できた。また意味役割の情報を利用する CSFN や単語依存構造を利用する SG-Net といった既存手法と比較しても精度向上が確認できたことから,文内に限らない異なる階層の構造情報を複合的  表 1 実験結果 に用いることが有効だと考えられる。 Graph_RC のさらなる精度向上のためには,現状グラフ表現と言語モデルからの文脈表現の結合において単純な concatを適用している部分に, [5] で用いられているようなゲート機構やアテンションを導入することが考えられる. また現段階では,質問文や答えの選択肢については文章グラフに含まれていないため,これらの情報を適切に文章グラフに組み込むことも有効であると期待できる。 なお,入力する文章グラフや利用するグラフ畳み込みモデルの影響について調べるため, Graph_RCbase を用いて,RACE データセットの一部である RACE-M にて条件を変化させて学習・評価した場合についての分析を Appendix に掲載している. ## 5 おわりに 本研究では,機械読解タスクにおける精度向上を目的とし,グラフ構造による文章表現を利用する機械読解手法を提案した. 具体的には, 単語依存構造をべースに,文の位置関係や共参照,談話修辞構造の解析結果を用いることにより,文レベル,文章レベルの 2 つの階層からなる文章のグラフ表現を構成した. 評価実験の結果,言語モデル単体を用いた場合と比べて精度向上が達成され, 多肢選択型機械読解タスクにおいて,提案する文章グラフを用いて文章の構造情報を明示的に与えることの効果が確認できた. また既存の文章の構造情報を部分的に利用する手法との比較や,入力するグラフを変化させての分析の結果から, 複数の異なる階層の構造情報を複合的に用いることの有用性が示唆された. 今後の課題としては, [17] など別の読解データセットや [18] などより大規模な言語モデルを用いた実験が考えられる。 ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [2] Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Russ R Salakhutdinov, and Quoc V Le. Xlnet: Generalized autoregressive pretraining for language understanding. Advances in neural information processing systems, Vol. 32, , 2019. [3] Thang M Pham, Trung Bui, Long Mai, and Anh Nguyen. Out of order: How important is the sequential order of words in a sentence in natural language understanding tasks? arXiv preprint arXiv:2012.15180, 2020. [4] Zhuosheng Zhang, Yuwei Wu, Junru Zhou, Sufeng Duan, Hai Zhao, and Rui Wang. Sg-net: Syntax-guided machine reading comprehension. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, pp. 9636-9643, 2020. [5] Qianwei Duan, Jun Huang, and Huiyan Wu. Contextual and semantic fusion network for multiple-choice reading comprehension. IEEE Access, Vol. 9, pp. 51669-51678, 2021. [6] 小坂直輝, 小林哲則, 林良彦. グラフによるテキスト表現の機械読解における適用性評価. 人工知能学会全国大会論文集, Vol. JSAI2021, pp. 3J1GS6a053J1GS6a05, 2021. [7] Guokun Lai, Qizhe Xie, Hanxiao Liu, Yiming Yang, and Eduard Hovy. Race: Large-scale reading comprehension dataset from examinations. arXiv preprint arXiv:1704.04683, 2017. [8] Shuyi Wang, Hui Song, Bo Xu, and Hongkuan Zhang. Enhancing embedding via two-level features for machine reading comprehension. In China Conference on Knowledge Graph and Semantic Computing, pp. 261-273. Springer, 2020. [9] Yawei Sun, Gong Cheng, and Yuzhong Qu. Reading comprehension with graph-based temporal-casual reasoning. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 806-817, 2018. [10] Mrinmaya Sachan and Eric Xing. Machine comprehension using rich semantic representations. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 486-492, 2016. [11] Laura Banarescu, Claire Bonial, Shu Cai, Madalina Georgescu, Kira Griffitt, Ulf Hermjakob, Kevin Knight, Philipp Koehn, Martha Palmer, and Nathan Schneider. Abstract meaning representation for sembanking. In Proceedings of the 7th linguistic annotation workshop and interoperability with discourse, pp. 178-186, 2013. [12] Sunil Kumar Sahu, Fenia Christopoulou, Makoto Miwa, and Sophia Ananiadou. Inter-sentence relation extraction with document-level graph convolutional neural network. arXiv preprint arXiv:1906.04684, 2019. [13] Kevin Clark and Christopher D Manning. Deep reinforcement learning for mention-ranking coreference models. arXiv preprint arXiv:1609.08667, 2016 [14] William C Mann and Sandra A Thompson. Rhetorical structure theory: A theory of text organization. University of Southern California, Information Sciences Institute Los Angeles, 1987. [15] Vanessa Wei Feng and Graeme Hirst. A linear-time bottom-up discourse parser with constraints and postediting. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 511-521, 2014. [16] Michael Schlichtkrull, Thomas N Kipf, Peter Bloem, Rianne Van Den Berg, Ivan Titov, and Max Welling. Modeling relational data with graph convolutional networks. In European semantic web conference, pp. 593-607. Springer, 2018. [17] Daniel Khashabi, Snigdha Chaturvedi, Michael Roth, Shyam Upadhyay, and Dan Roth. Looking beyond the surface: A challenge set for reading comprehension over multiple sentences. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 252-262, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [18] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [19] Petar Veličković, Guillem Cucurull, Arantxa Casanova, Adriana Romero, Pietro Lio, and Yoshua Bengio. Graph attention networks. arXiv preprint arXiv:1710.10903, 2017. ## A Appendix 本節には,Graph_RC-baseを用いて,RACEデータセットの一部である RACE-M にて条件を変化させて学習・評価した場合についての分析を記す。 ## A.0.1文章グラフを変化させた場合の影響 表 2 入力グラフの比較 (3edge は隣接文, HUB ノード,共参照による文グラフの統合を表す) 入力グラフ正答率 $[\%]$ Dep, 3edge, RST 68.4 Dep, 3edge $\quad 67.7$ Dep 67.3 入力する文章グラフを変化させた場合の比較を表 2 に示す. 表の上から,提案する文章グラフのすべての要素を用いた場合,下位階層の部分のみを用いた場合,下位階層のさらに単語依存構造グラフのみを用いた場合である. 表 2 から提案する文章グラフ全体を用いた場合の精度が最も高く複数の構造情報を複合的に用いることが有用であると考えられる。 また単語依存構造グラフのみを用いた場合と比較して,3種類のエッジによる統合・補強を行い,文の位置情報や共参照情報を含んだグラフの方を用いた場合の方が精度が高いことも確認できたがその精度向上幅は僅かであった. これは文グラフの統合・補強用の 3 種類のエッジが文グラフに含まれる依存構造エッジと比較し少ないためだと考えられる. 表 3 は 1 つの文章グラフに含まれているエッジの大まかなタイプごとの平均本数を示したものであるが,文章に含まれる単語数に対応する依存構造エッジに比べて,文の数に対応する隣接文エッジや HUB 統合エッジ,共参照エッジは本数が少ないことがわかる。なお,共参照エッジに関しては今回用いた共参照解決エンジンが読解問題の文章のような複数文からなる長い文章に対して十分な精度を達成できておらず,全ての共参照を捉えきれていなかったり,誤った共参照解決が行われている例も見受けられた。そのため異なる共参照解決器を用いて共参照解決自体の精度を向上させることで読解精度向上に寄与することが期待できる. 表 3 エッジの分布 ## A.0.2 GCN を変化させた場合の影響 利用するグラフ畳み込みモデルについて, RGCN[16] と GAT[19] を用いた場合の比較を表 4 に示す.表から RGCNを用いた場合の方が精度が高いことがわかり,文章グラフに存在するエッジの向きやラベルといった情報を直接利用できることが精度向上に寄与したと考えられる. 図 6 は文章グラフの上位階層のグラフに利用している談話修辞構造の修辞関係を表すエッジの種類ごとの出現頻度を表したものであり,全部で 19 種類のエッジが存在する。依存構造グラフの依存関係を表すエッジに関してはその種類はさらに多く計 45 種類のエッジが存在する.RGCNにおける畳み込み演算の基底数や GAT のアテンション計算におけるアテンションのマルチヘッドの数といったパラメータによっても変化すると考えられるが,こうした細かい関係の考慮は GAT より RGCN の方が優れていると推測される。一方で図 6 からはRST のエッジの分布には大きな偏りがあることがわかり, これは依存関係エッジでも同様である.RGCNを用いた場合,エッジの種類数が多すぎると出現頻度の低いエッジについて十分に学習が行われず精度低下をまねく可能性も考えられ,また計算コストの増大といった問題もある。そのため出現頻度の低いエッジについては同一のラベルにまとめるなど,文章グラフにおけるエッジのラベル付けの仕方についても検討の余地がある. 表 4 グラフ畳み込みモデルの比較 GAT $\quad 66.0$ 図 6 RST エッジの分布
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C8-2.pdf
# 共起単語ペアの組合せ最適化を用いた問合せログのクラスタリング 湯浅 晃 野村 雄司 株式会社 NTT データ } \{Akira. Yuasa, Yuji. Nomura\}@nttdata.com ## 概要 本稿では企業のコンタクトセンタに蓄積される問合せログを集約し「よくある質問」(FAQ)を作成するユースケースに焦点を当てたクラスタリング手法を提案する. 提案手法は「文書カテゴリを表現する特徵的な単語の最適な組合せが選択できれば,それらが含まれる文書群を抽出することで良い集約ができるのではないか」との着想をもとに問合せログ集約を最大被覆問題として定式化し,数理最適化により単語ぺアの組合せを得る. 本実験により, 従来手法を上回る FAQ 抽出精度が得られ, また, その他の利点として最適クラスタ数が自動的に得られることと,高い解釈性が得られることを確認した。 ## 1 はじめに 企業のコンタクトセンタやチャットボットにおいて用いられる FAQ の作成は人手で行われることが多く, コスト上の課題である. FAQの検索タスクに関する研究は数多いが, 問合せログからの FAQ 作成に関する研究は比較的少なく, 精度に課題があることがわかっている。そこで FAQ を自動抽出するために,問合せログから類似する問合せを集約するタスクに取り組む。 本タスクの特徴は, 入力が比較的短い問い合わせ文であり,また出力として実用的な粒度の FAQを得ることを目的とすることである. ここで実用的な粒度とは,問い合わせ内容を端的に表し,対応する回答が得られる粒度を意味する。例えば EC サイトにおける実用的な粒度の FAQ とは, 「注文」などの抽象度の高い表現ではなく, 「注文をキャンセルする手順を教えてほしい」といった表現となる. 本研究では,まず人手によって問合せ文書を集約する場合に行われる操作を観察した. その結果, 文書中の主題や対象を表す特徴語が抽出され,それらを用いた階層的な分類がなされることに着目した。 そこで「文書カテゴリを表現する特徴的な単語の最適な組合せが選択できれば,それらが含まれる文書群を抽出することで良い集約ができるのではないか」 との着想をもとに,問合せ文書の集約を単語ぺアの組合せ最適化問題として定式化し, ベイズ最適化および線形最適化を用いた手法の検証を行った。 ## 2 関連研究 問い合わせログからの FAQ 抽出の全体的な処理を示した研究として, 飯塚ら[1]は, 抽出的要約, word2vec による文書ベクトル化,孤立文書の除去, および k-means によるクラスタリングといった一連の手法を示している。個々の処理に関する研究として,友松ら[2]は文書のベクトル化における BERT の使用を提案している。またクラスタリングの代わりにパターン抽出を用いるアプローチとして, 長谷川ら[3]は,係り受け関係にある 2 語の組をパターンとして扱い,応答文書の長さを考慮した上で,頻度べ一スの特徴語選択と重要度に基づきパターンを抽出する手法を提案している. FAQ 抽出の一連のプロセスの中で, 本稿ではクラスタリングに焦点を当てて取り組む.なぜなら,抽出的要約や孤立文書の除去といった前段の技術は, ノイズを含むデータセットから真に重要な部分を抽出するためのものであるが,ノイズが含まれない理想的な問い合わせデータセットであっても,実用的な FAQ を得ることを目的とした場合に,そのクラスタリングの精度に課題があることがわかっているためである。これは実験結果を示す表 3 において, ノイズが含まれないデータセットである e-learn, StackFAQ であっても, 既存手法の精度が十分でないことによって示している. 短いテキストのクラスタリングにおける主要課題は,単語数が少ないため文書ベクトルが高次元かつスパースとなることである. この課題に対処するため単語埋め込みやテキスト拡張の手法が考案されており,特に深層学習を用いた手法はデータを低次元 でより適切に分離可能な表現空間にマッピングする効果的な方法として近年勢いを増している. 深層表現学習とクラスタリングの統合に焦点を当てた研究は多数あり, Xu ら[4]の STCC においては Word2Vec と K-means を組合せた手法が提案され, その後の Hadifar ら[5]の STA においては,SIF を使用することで単語埋め込みを強化した. Rakib ら[6]の ECIC では,凝集クラスタリングを用いた後に,各クラスタに含まれる外れ値を除くサンプルをラベル付きデー 夕とみなす半教師あり学習を反復する手法が用いられている. Zhang ら[7]の SCCL では対照学習が用いられ, 同一ラベルのサンプルからデータ拡張されたサンプルをまとめ上げ,異なるラベルのサンプルからそれらを押しのける学習方法がとられている。 次に, 頻出アイテムセットに着目寸るアプローチとして, Fung ら[8]の FIHC 法が代表的である. これは文書集合においてグローバルに頻繁に使用されるアイテムセットごとに,アイテムセットを含むすべての文書で初期クラスタを構築した後に, クラスタ内のアイテムセット頻度と, 単一文書内のアイテムセット頻度を考慮し,文書をクラスタに紐付けていく操作を順次行うものである. その後の発展研究として Zhang ら[9]の Maximum Capturing 法, Lee ら[10] の OCFI 法等が挙げられる。 ## 3 提案手法 ## 3.1 手法検討 本研究ではビジネス適用における現実的な制約条件を考慮した上で手法検討を行った。まずベクトル空間アプローチで高精度が得られている Rakib らの ECIC においては反復学習を行うため, サンプル数が全体として大きく, またクラスタサイズに偏りが少ないケースが望ましい. しかし本研究の検証用デー タセットにおいては, 表 1 に示す通り, サンプル数が 500 から 1,000 件程度と比較的小さく, また Enterprise データセットの標準偏差が非常に大きいことからもわかるように,実世界の問い合わせデー タにおけるクラスタサイズは概してロングテールの形をとるため適用が難しいと判断した. Zhang らの SCCL についてはまず対照学習のためのデータ拡張を行う必要があり, その精度が問題となったため適用を見送った。 次に, Fung らの頻出アイテムセットアプローチの適用を検討したが,アイテムセットのグローバル頻度と各サンプル文書内における頻度を使用するため,比較的大きな語彙数の文書を扱う必要がある. しかし, 本稿の問題設定においては 1 文書あたり 5-10 語程度と文書内のアイテムセット頻度が十分にとれるほどの長さではないため適さないと判断した. このように既存手法については,いずれもデータセットの特性と手法のミスマッチが問題となった. そこで, 問題を特徴語の組み合わせ最適化問題として捉える手法を提案する。 ## 3.2 組合せ最適化問題としての定式化 提案手法の核となるアイデアは「文書カテゴリを表現する特徴的な単語の最適な組合せが選択できれば,それらが含まれる文書群を抽出することで良い集約ができるのではないか」というものである.この着想に基づき,以下の定式化を行った。 $N$ 件の問合せ文書の集合である問合せログ $D=$ $\left.\{d_{1}, d_{2}, \ldots, d_{N}\right.\}$ が与えられ,Dに含まれる単語集合 $W=\left.\{w_{1,}, w_{2}, \ldots, w_{M}\right.\}$ から単語ぺアを $L$ 個抽出し, $\left.\{\left(w_{11}, w_{12}\right),\left(w_{21}, w_{22}\right), \ldots,\left(\left(w_{L 1}, w_{L 2}\right)\right)\right.\} \in W$ とる. 次に抽出した単語ぺアが含まれる文書を $\mathrm{D}$ から抽出し, その結果得られた文書集合を $\left.\{C_{1}, C_{2}, \ldots, C_{L}\right.\}$ とする.このとき,本問題を最大被覆問題として,目的関数と制約条件を以下の通り設定する. $ \begin{aligned} & \max \cdot \sum_{i=1}^{L} \frac{\left|C_{i}\right|}{N} \\ & \text { s.t. } \bigcap_{i=1}^{n} C_{i}=\varnothing \\ & L \leq L_{\max } \end{aligned} $ 式(1)は目的関数であり,選択された単語ぺアを含む文書数を全文書数で割ったものであり,変数は単語ペアの選び方である. 式(2), (3)は制約条件であり,式(2)は各クラスタに含まれる文書集合に重複する文書が存在しないことを, 式(3)は, クラスタ数しは八イパーパラメータとして与える最大クラスタ数 $L_{\text {max }}$ 以下とすることを表す. ## 3. 3 評価方法 提案手法はクラスタリングを行っているが,本夕スクの目的は FAQ 抽出である. そこで評価方法としては purity や AMI 等を用いたクラスタリング自体の評価ではなく, 人手で定めた正解 FAQ クラス タがどの程度正しくクラスタリングの結果抽出できているかを測ることによる評価を行う。 まず各文書に対して人手で文書内容を考慮した上でクラスタリングを行い,各クラスタに一意のラベルを付与しこれを正解ラベルとした。次に,自動抽出された各クラスタに含まれる文書について,クラスタ内の同一ラベルの文書数の割合(純度:purity)が閾值以上を占めるマジョリティとなる正解ラベルを抽出クラスタの推定ラベルとした。抽出されたクラスタにおいて,マジョリティとなる正解ラベルが存在しない場合, 推定失敗を意味する推定ラベルを付与した。このようにして得た正解ラベルと推定ラベルを用いて,適合率,再現率,および $\mathrm{f} 1$ スコアを算出した。パラメータ設定について,ここでは純度の閾値は 0.5 を設定した。 ## 4 実験設定 データセット Sumikawa ら[11]の e ラーニングデ一タセット(e-learn), StackFAQ[12]データセット (StackFAQ)および,筆者らの所属企業内部におけるコンタクトセンタ応対ログデータセット(Enterprise), の 3 種類のデータセットを用いた。各データセットの基礎情報を表 1 に示す. 表 1 データセットの基礎情報 前処理StackFAQデータセットは, Google Cloud Translation APIを用いて英語から日本語に翻訳した。全てのデータセットについて, MeCabを用いて形態素解析を実施し,品詞フィルタ処理として名詞,動詞,形容詞のみを残し,原形化を行った。 最適化ツール線形最適化においては, 最適化モデラーとして PuLPiを,ソルバーとして CBC を用いた. ベイズ最適化においては Optunaiiiを使用し, 最適化アルゴリズムは NSGA-IIを用いた。  ## 5 実験 ## 5.1 予備実験 予備実験では提案手法のポテンシャルを検証するために, FAQ の抽出精度が従来手法と比較して高くなるような単語ぺアの組合せが存在するか確認した。 ベースラインとして TFIDF+HAC(階層的凝集クラスタリング)を用いた.HAC のアルゴリズムは群平均法を,距離尺度はユークリッド距離を用いた。 クラスタ数は, 正解ラベルが既知の前提とし $\mathrm{f} 1$ を最大化するクラスタ数を採用した。またべクトル化手法による比較のために fastText+HAC を検証した。 次に,ベイズ最適化を用いて最適な単語ぺアを探索した. このとき正解クラスタラベルが既知の前提で,目的関数を正解 FAQ 抽出の $\mathrm{f} 1$ とした. 試行回数を重ねた収束時における FAQ 抽出の $\mathrm{f} 1$ スコアを表 2 に示す。 表 2 ベースラインおよびベイズ最適化の結果 表 2 に示すようにベイズ最適化による $\mathrm{FAQ}$ 抽出精度はベースラインの TFIDF+HAC を大きく上回っている。この結果により,もし適切な単語ぺアの組み合わせが選択できたとすると,その単語ぺアを含む文書の集合をクラスタとして抽出することで,高いFAQ 抽出精度を得られることが確認できた。 ## 5.2 本実験 線形最適化 3.2 に示した通り,文書のクラスタリングを最大被覆問題として定式化し, 文書カバレッジを最大化する単語ぺアの組み合わせを求めた.単語ペア選定におけるハイパーパラメータとして,最小クラスタサイズを 3 とした。これは 3 個以上の文書に含まれる単語ぺアのみが選定対象となることを意味する.最大クラスタ数をパラメータとして増加させたときの結果を図 1 に示す. 最適化の各試行においていずれの場合も最適解が得られた。また,クラスタ数は単語ぺア数が一定となる点で f1 も最大  となるため, その時の単語ぺア数をクラスタ数として採用すればよいとわかる. 図 1 線形最適化の実行結果(e-learn) ベイズ最適化次に,ベイズ最適化手法を用いた実験を行った. 予備実験では提案手法のポテンシャルを測るために正解ラベルが既知の前提で, 目的関数をFAQ 抽出のf1 としたが,本実験では,実ビジネス利用を想定し,正解ラベルの情報を使用しない以下の目的関数を用いた. $\max . w_{c} \cdot$ Coverage $(C)+w_{o} \cdot$ Overlap $(C)$ $ \begin{gathered} \text { Coverage }(C)=\sum_{i=1}^{L} \frac{\left|C_{i}\right|}{N} \\ \operatorname{Overlap}(C)=\left(1+\alpha \frac{\bigcap_{k=1}^{n} C_{k}}{\bigcup_{k=1}^{n} C_{k}}\right)^{-1} \end{gathered} $ ここで,式(4)の目的関数は,カバレッジスコアとオーバーラップスコアの重み付き和である. 式(6)に示すオーバーラップスコアは,各クラスタに共通的に含まれる文書が少ないほど大きい値をとる関数である. $w_{c}$ および $w_{o}$ は重みであり,$w_{c}=1$ および $w_{o}=$ 2を用いた。 $\alpha$ はハイパーパラメータであり,9を用いた。結果を図 2 に示す. 図 2.ベイズ最適化の実行結果(e-learn)図 2 に示すように,試行回数を増やすにしたがって目的関数であるトータルスコアは増加し,また f1 スコアも増加し, その後一定に収束している。このときクラスタ数も一定に収束しており,最適クラス夕数として得られることがわかる. 最終的な実験結果を表 3 に示す ## 表 3 線形最適化およびベイズ最適化の精度 TFIDF+HAC および fastText+HAC については,実利用を想定すると最適クラスタ数は未知であることを考慮し,クラスタ数を真のクラスタ数の $75 \%$ から 125\%までの区間で等間隔に 10 点とり, 10 点の f1 値の平均をとってスコアとした。 表 3 に示すように e-learn および Enterprise データセットにおいては,線形最適化およびベイズ最適化を用いた提案手法によりベースラインを上回る精度が得られた。その他の利点として提案手法では両手法ともに最適クラスタ数が得られ,また単語ペアが含まれていることがすなわちそのクラスタの特嘚となるため,高い解釈性が得られることがわかった。 ## 6 おわりに 問合せログからの FAQ 抽出を目的として,特徴語の組み合わせ最適化問題として解く手法を提案した. 本実験では提案手法により従来手法を上回る精度が得られた。また精度以外の利点として, 最適クラスタ数が自動的に得られることと,単語ぺアの組み合わせがクラスタの特徴を示すため高いクラスタの解釈性が得られることがわかった. 今後の課題として, FAQ 抽出精度を高めるために,単語ぺア選択において,問合せ内容と関係のないノイズとなる単語の排除や, 同義語の考慮が必要である。またべイズ最適化においては目的関数に凝集性等のクラスタとしての望ましさを考慮した改善が課題となる. ## 参考文献 [1] 飯塚新司, 菊地大介, 宮内秀彰, 高橋毅, and 黒澤隆也. "ヘルプデスクの問合せデータを用いた FAQ 抽出技術の研究." 日立ソリューシヨンズ東日本技報= Hitachi Solutions East Japan technical report 25 (2019): 31-34. [2]友松祐太; 戸田隆道; 杉山雅和. AI チャットボツトのためのチューニング支援システム. In:人工知能学会研究会資料言語・音声理解と対話処理研究会 90 回. 一般社団法人人工知能学会, 2020. p. 08. [3] 長谷川友治, et al. コールセンターにおける大規模質問応答データに基づく FAQ 作成支援システムの実装. 第 66 回全国大会講演論文集, 2004, 2004.1: 73-74. [4] Xu, Jiaming, Bo Xu, Peng Wang, Suncong Zheng, Guanhua Tian, and Jun Zhao. "Self-taught convolutional neural networks for short text clustering." Neural Networks 88 (2017): 22-31. [5] Hadifar, Amir, Lucas Sterckx, Thomas Demeester, and Chris Develder. "A self-training approach for short text clustering." In Proceedings of the 4th Workshop on Representation Learning for NLP (RepL4NLP-2019), pp. 194-199. 2019. [6] Rakib, Md Rashadul Hasan, Norbert Zeh, Magdalena Jankowska, and Evangelos Milios. "Enhancement of short text clustering by iterative classification." In International Conference on Applications of Natural Language to Information Systems, pp. 105-117. Springer, Cham, 2020. [7] Zhang, Dejiao, Feng Nan, Xiaokai Wei, Shangwen Li, Henghui Zhu, Kathleen McKeown, Ramesh Nallapati, Andrew Arnold, and Bing Xiang. "Supporting Clustering with Contrastive Learning." arXiv preprint arXiv:2103.12953 (2021). [8] Fung, Benjamin CM, Ke Wang, and Martin Ester. "Hierarchical document clustering using frequent itemsets." In Proceedings of the 2003 SIAM international conference on data mining, pp. 59-70. Society for Industrial and Applied Mathematics, 2003. [9] Zhang, Wen, Taketoshi Yoshida, Xijin Tang, and Qing Wang. "Text clustering using frequent itemsets." Knowledge-Based Systems 23, no. 5 (2010): 379-388. [10] Lee, Cheng-Jhe, Chiun-Chieh Hsu, and Da-Ren Chen. "A hierarchical document clustering approach with frequent itemsets." International journal of engineering and technology 9, no. 2 (2017): 174. [11] Sumikawa, Yasunobu, Masaaki Fujiyoshi, Hisashi Hatakeyama, and Masahiro Nagai. "Supporting creation of FAQ dataset for E-learning chatbot." In Intelligent Decision Technologies 2019, pp. 3-13. Springer, Singapore, 2020 [12] Karan, Mladen, and Jan Šnajder. "Paraphrasefocused learning to rank for domain-specific frequently asked questions retrieval." Expert Systems with Applications 91 (2018): 418-433.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C8-3.pdf
# 問い合わせログの集約における ## クラスタリングを用いた重要回答抽出 \author{ 竹中一秀林岳晴大段秀顕湯浅晃 \\ 株式会社NTT データ } \{Kazuhide. Takenaka, Takeharu. Hayashi, Hideaki. Odan, Akira. Yuasa $\}$ @nttdata.com ## 概要 本研究では、問い合わせデータを集約し FAQを構築するユースケースに焦点を当てた回答候補を提示する手法を提案する。FAQ はコンタクトセンタにて蓄積される質問と回答が対となる問い合わせログを用いて作成される。本提案手法では、問い合わせログの質問を対象にクラスタリングを行い、類似する質問ごとに集約されたクラスタ内の回答に対し、再度クラスタリングを実施し、複数種類の重要な回答を抽出することで、可読性を保ちつつ、重要な回答を複数抽出できることが確認された。併せて、回答をクラスタリングした際に得られる各クラスタのクラスタサイズが、回答を提示する上での重要性を示す指標として有効であることが確認された。 ## 1 はじめに 近年、企業のコンタクトセンタでは、問い合わせ対応業務にチャットボット等の対話型 AI システムを活用されている。チャットボットには、ユーザが選択する質問に対して、あらかじめ設計されたシナリオに従って回答を提示するシナリオ型と、ユーザの入力する質問に対して、類似する FAQ を提示する FAQ 型がある。その中でも FAQ 型のチャットボットは、その導入時や運用時において FAQ の作成に、多大な労力を必要とするという課題がある。そこで、本稿では FAQ 型のチャットボットに焦点を当てることにした。 FAQ はコンタクトセンタの問い合わせログに代表される、質問文と回答文が対となるデータから作成される。一般的な手法としては、問い合わせログの質問文に対してクラスタリングを行い、クラスタ重心に最近傍の質問文を抽出し、その質問文に紐づいた回答文とセットで $\mathrm{FAQ}$ 候補とする。FAQ 作成担当者は、得られた FAQ 候補を確認し、内容や文の修正を行うことで最終的な FAQ を完成させる。しかし、この手法では 1 つの質問に対し、 1 つの回答のみ提示されるため、質問と回答が本来 1 対 $\mathrm{n}$ となる場合に、適切な回答が得られない可能性がある。質問と回答が 1 対 $\mathrm{n}$ になる場合の FAQ の例として、「ソフトが強制終了されてしまいます。どうすればよいでしょうか。」という質問に対して回答を作成する場合には、ソフトバージョンや OS バージョン、 データのバックアップは取得しているか等の幅広い状況に応じた回答を揃える必要がある。 そこで、本研究では、FAQ 作成の負荷を低減することを目的として、可読性を保ちつつ、冗長性を排除し、重要な回答を漏らさないように回答候補を提示する手法を提案する。 ## 2 関連研究 本研究では、FAQ 作成における回答文作成支援のユースケースに焦点を当てている。ここでは、 $\mathrm{FAQ}$抽出に関する関連研究の手法について言及する。 まず、 $\mathrm{FAQ}$ 候補となる QAを抽出する研究として、 マニュアルやガイド等の回答源となる文書から QA セットの作成を行い、問い合わせログから抽出した代表質問文と類似する QA セットを FAQ 候補として提示する土居ら[1]の手法や、特徴的な単語の係り受けパターンの抽出を行い、頻出するパターンを持つ QA を抽出する長谷川ら[2]の手法がある。友松ら [3]は問い合わせログの質問文をBERTによって分散表現を獲得し、分散表現のコサイン類似度をもとに階層クラスタリングを行うことで、類似する質問ごとに集約されたクラスタを作成し、そのクラスタから TF-IDF を用いて代表文の選定を行い FAQ の抽出を行っている。これらの手法は、回答文については、抽出した質問文に紐づいたもののみを使用しているため、複数の回答文候補を抽出するという点で我々の手法と異なっている。また、壹岐ら[4]は、問い合 わせログから質問文と回答文の抽出を行うことを要約問題として捉え、教師あり学習による抽出型要約を用いて、不要文の多い問い合わせログの質問文と回答文の中から本質的な部分文字列を抽出することで QA の作成を行っている。我々の手法とは、文字列単位ではなく、問い合わせログの回答文単位での回答抽出を行う点で異なるが、重要な回答文を抽出するという点では類似しているため、文書要約を用いた手法を提案手法の比較対象とすることにした。 ## 3 提案手法 本研究では、FAQ 作成の負荷を低減することを目的として、重要な回答を複数抽出する手法を提案する。本章では、その具体的な実現方法について説明する。 ## 3.1 回答抽出の流れ 提案手法の回答文抽出の流れを図 1 に示す。まず、提案手法適用の前提として、問い合わせログの質問を対象にクラスタリングを行い、各クラスタ重心の最近傍の質問文が得られているものとする。このクラスタ重心に最近傍となる質問文を本稿では代表質問文と呼ぶ。得られた質問クラスタ内の回答文を対象にさらにクラスタリングを行う。その結果、類似する回答ごとに集約されたクラスタが得られる。得られた回答クラスタの重心に最近傍となる回答文を代表文としてそれぞれ抽出することで、抽出された代表質問文に対して、複数の回答候補を取得する。 ## 3.2 手法検討 本研究では、FAQ 作成における回答文作成支援のユースケースに焦点を当て、ビジネス適用における現実的な制約条件を考慮した上で手法検討を行った。分散表現の取得手法として、BERT 等の大規模言語モデルは、モデルの学習を行うために、ドメインに特化した大量の学習データが必要になる。そこで、本研究では、汎用コーパスで学習されたモデルで比較的上質な分散表現が得られることが知られている手法として[5]、Universal Sentence Encoder(USE)[6]を用いた。クラスタリングは、階層クラスタリングのらち、分類感度が高い ward 法を選定した。 また比較対象とする文書要約手法については、抽出型文書要約手法の中で一般的に高性能である LexRankを用いた。同クラスタ内の回答文から要約文を抽出し、FAQ 作成において、提案手法とどちらが有力であるか比較を行う。 図 1 提案手法の回答文抽出イメージ ## 4 実験 提案手法の有効性検証のため、既存手法である、抽出した代表質問文に元々紐づいていた回答文のみ提示する場合と、比較対象とした文書要約手法それぞれを用いて、回答文の抽出を行い、FAQ 作成の支援を目的とした場合に、どの手法が有力であるか比較して検証を行った。抽出型文書要約手法 LexRank の実装に関しては python モジュールの sumy を用いた。 ## 4. 1 データセット 手法の有効性検証のために、NII $の$ Yahoo!知恵袋データ(第 2 版)[8]で提供されているデータのうち、質問カテゴリが「企業と経営」かつ、回答は質問者が選んだベストアンサーの条件で絞込んだものを用いた。また、実際の問い合わせログは、端的に短くまとめられていることが多いため、質問文の文書長が 10~50 トークンかつ、回答文の文書長が 10~120 トークンからなる QA をサンプリングした。その結果、データサイズは 4153 件となった。 次に、サンプリングしたデータの質問文を対象に USE + ward 法を用いてクラスタリングを行い、類似する質問文ごとに集約された各クラスタのベクトル重心に最近傍の点を代表質問文として、抽出を行った。そのうち、クラスタサイズが大きいクラスタから 6 件を対象に実験に使用した。各クラスタのクラスタサイズと抽出した代表質問文を表 1 に示す。 表 1 実験に使用した質問集約のクラスタ & & \multicolumn{1}{|c|}{ 代表質問 } \\ ## 4. 2 評価方法 FAQ 作成支援において、有効性を評価するために、 それぞれの手法で出力した回答文を可読性と、回答として重要な文がどのくらい含まれているかを示す重要情報包含率の観点で評価を行った。可読性については、表 2 に示す基準で定性的に評価を行った。 また、抽出した回答文に、「文間の内容が矛盾しており、一貫性が無い」「文間に談話関係が存在せず、無関係である」といった問題がある場合を「不自然である」と評価し、上述の問題が無い場合には「自然である」と評価した。重要情報包率の算出方法は、抽出した代表質問文から必要となる回答箇所を人手により正解として定義し、その中で各手法によって抽出できた割合を算出することで評価した。 ## 表 2 可読性の評価基準 ## 5 実験結果と評価 提案手法の有効性検証の比較対象として、大量の文から重要な文を抽出する文書要約アルゴリズムの LexRank[7]を用いた。実験では、質問集約で得られたクラスタ内の回答文を全て結合した文を入力とした。また、ハイパーパラメータの出力文数は、出力された要約文が提案手法の出力した回答文と近しいトークン数になる文数を採用した。 提案手法のクラスタリングを行う際のクラスタ数については、Silhouette 係数が最大になる場合を採用した。既存手法については、表 1 で得られた代表文に紐づいた回答文のみを出力結果として扱った。 実験結果について、可読性の評価結果を表 3、情報含有率の評価結果を表 4 に示す。情報包含率については、各手法ごとに平均化したものを示す。また、実験によって得られた回答文の一部を表 6 に示す。太字部分は重要情報となる箇所、下線部分は可読性を低下させている箇所を示している。 表 3 可読性評価 & & LexRank & \\ 2 & $\bigcirc$ & $\times$ & $\bigcirc$ \\ 3 & $\bigcirc$ & $\times$ & $\bigcirc$ \\ 4 & $\bigcirc$ & $\times$ & $\bigcirc$ \\ 5 & $\bigcirc$ & $\bigcirc$ & $\bigcirc$ \\ 6 & $\bigcirc$ & $\bigcirc$ & $\bigcirc$ \\ 表 4 重要情報含有率評価 & LexRank & \\ 表 3 によると、提案手法は可読性については問題ないことが示されている。LexRank は要約結果を文単位で得るため、文頭に「つまり」「これにより」 があることや、関連性のない文間に「よって」「ゆえに」等の接続詞があり、文間の論理的な関係が破綻していることが確認された。 表 4 によると、提案手法が最も良い結果となっている。既存手法の抽出した代表質問文に紐づいた回答 1 件のみでは、情報として不足する場合も少なくなかった。表 6 を例に、既存手法と比較して提案手法では、「特例有限会社は、そのまま存続できます し、一部例外を除き変更登記する必要もございませ几。」「特例有限会社から株式会社へ移行すること (商号変更)も出来ます。」との追加の重要文が抽出できていることが確認できる。補足として、既存手法で用いた回答は yahoo 知恵袋に投稿した質問者が選んだベストアンサーであるが、ベストアンサー は投稿された回答群の中から 1 つ選ばなければいけない仕組みであるため、情報として不足していてもベストアンサーに選ばれる場合は十分にある。 ## 6 付帯効果と課題 FAQ を作成する上で、複数種類の回答がある場合に、重要度の高い回答を優先して提示することが重要であると考えられる。この場合、提案手法では、 クラスタサイズが大きいクラスタほど、重要度が高い文が含まれている傾向を確認したため、重要度を表寸指標として、回答クラスタサイズを用いることが、有効であると考えられる。また、提案手法の出力結果を文単位で確認したところ、内容が重複する文があることが判明した。その数を表 5 に示す。出力する回答数が増加するほど、重複文数も増加し、 FAQ 作成担当者が確認する文書量も比例して増加してしまう。そのため、クラスタリング手法の改善をすべきであり、それでも対処しきれない場合は文間の類似度を算出してフィルタリングを行うなどの工夫を行う必要がある。表 5 重複内容文数 & & 重複文数 \\ 2 & 2 & 1 \\ 3 & 2 & 1 \\ 4 & 1 & 0 \\ 5 & 2 & 0 \\ 6 & 1 & 0 \\ ## 7 おわりに 本研究では、問い合わせログデータを用いた FAQ 作成の支援を目的とした回答文抽出において、重要な回答文を複数抽出する手法を提案し、検証・評価を行った。既存手法や文書要約手法と比較して、提案手法は可読性を保ちつつ、重要な情報を抽出できることが確認された。また、精度以外のメリットとして、クラスタサイズ (回答数) を重要度のスコアとして提示できる点が挙げられる。 今後の課題として、提示する回答文が多くなる程、内容が重複した不要な文が増えてしまい、FAQ 作成担当者が確認する情報量が増えてしまうため、文間の類似度を算出してフィルタリングを行うなどの工夫が必要である。 表 6 各手法での回答文抽出結果(クラスタ ID $=3$ の場合) 太字部分は重要情報となる箇所、下線部分は可読性を低下させている箇所を示している。 & \\ ## 謝辞 本研究では、国立情報学研究所の IDR データセット提供サービスによりヤフー株式会社から提供を受けた「Yahoo!知恵袋データ(第 2 版)」を利用した。 ## 参考文献 [1]土居誉生, 石垣泰地, 小澤仁護, and 稲田徹. ”質問生成ソリューション「なんでも Question」の紹介." SIG-SLUD 5, no. 02 (2019) : 123-124. [2] 長谷川友治, et al. コールセンターにおける大規模質問応答データに基づく FAQ 作成支援システムの実装. 第 66 回全国大会講演論文集,2004,2004.1:73-74. [3]友松祐太; 戸田隆道; 杉山雅和. AI チャットボットのためのチューニング支援システム. In:人工知能学会研究会資料言語・音声理解と対話処理研究会 90 回. 一般社団法人人工知能学会, 2020. p. 08. [4] 壹岐太一, et al. ヘルプデスクの対応記録からの QA リストの半自動抽出. 研究報告知能システム (ICS), 2018, 2018.12: 1-8. [5] PERONE, Christian S.; SILVEIRA, Roberto; PAULA, Thomas S. Evaluation of sentence embeddings in downstream and linguistic probing tasks. arXiv preprint arXiv:1806.06259, 2018. [6] CER, Daniel, et al. Universal sentence encoder. arXiv preprint arXiv:1803.11175, 2018. [7] ERKAN, Günes; RADEV, Dragomir R. Lexrank: Graph-based lexical centrality as salience in text summarization. Journal of artificial intelligence research, 2004, 22: 457479. [8] ヤフー株式会社 (2011):Yahoo!知恵袋デー 夕 (第 2 版). 国立情報学研究所情報学研究デ一タリポジトリ. (データセット). https://doi. org/10. 32130/idr. 1.2
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
C8-4.pdf
# クイズ問題のジャンル推定における機械学習手法の比較・検討 浅野 綾太 ${ }^{1}$ 小林 邦和 $^{2}$ 1 愛知県立大学大学院 情報科学研究科 システム科学専攻 2 愛知県立大学 情報科学部 \{im213001, kobayashi\}@cis.aici-pu.ac.jp ## 概要 本研究では, 主にクイズ問題のジャンル推定を取り扱う. 先行研究として淀川らの研究 [1]を取り上げる. 淀川らは, 分散表現の獲得に MeCab と fastText を, 機械学習手法としてサポートベクタマシン (以下:SVM) を適用し, 問題文に対するジャンルを推定を行った. しかし, 先行研究では機械学習手法が SVMの 1 種類しか紹介されていなかった. そのため, 本研究では分類問題を解くその他の機械学習手法やグリッドサーチ, 交差検証を用いて最適な手法とパラメータを探索した。 結果としては, 単独では先行研究と同じくSVM よるジャンル推定が最高正解率を記録した. ## 1 はじめに ## 1.1 研究背景 クイズとは,一方が問題を出題し,もう一方が答える「遊び」である.しかし, 問題の解答権を獲得することを競争することで競技性が生まれる. そのようなクイズのことを「競技クイズ」と呼ぶ. そして競技クイズは他の参加者に先んじて解答権を獲得するために知識を蓄える必要がある. 競技クイズの勉強法の一つに, $\mathrm{Q}$ 宅 ${ }^{1}$ や $\mathrm{BOOTH}^{2}$ ) といったサイトで問題集を購入し, さまざまな問題に触れることで知識を得るという方法がある.このような勉強法の中でも,「芸能問題だけは正解できるようにしよう」というように, ある特定のジャンルに絞って問題を覚えるという方法がある.この場合, 芸能問題のみが掲載されている問題集を購入しなければならないが,そのような問題集は少数である. しかし, 市販の問題集の多くはジャンルが付与されていることは非常に少ない. 本研究では, 教師あり学習手法を用いてクイズの問題文からジャンルを推定する. また, 本稿では便宜上「競技クイズ」のことを「クイズ」と表現する. ## 1.2 質問応答 ある質問に対する解答を求めるタスクを質問応答 (QA) タスクといい,しばしば実際に使われる問題が用いられることが多い. 自然言語処理における代表格として,「SQuAD[2]」「TraviaQA[3]」「QANTA[4]」 などが挙げられるが, そのいずれも英語による文書を取り扱っている. 日本語のデータセットとしては,「解答可能性付き読解データセット [5]」や 「JAQKET[6]」などがある. 実際のクイズ問題を扱った事例としては,2011 年 2 月に放映されたクイズ番組「Jeopardy!」で人間のチャンピオンを破った IBM の「Watson」などが挙げられる [7]. 早押しを想定した解答システムとしては, 橋元ら [8] がある。 ## 1.3 先行研究 先行研究として, 淀川らの研究 [1] を取り上げる.訓練データやテストデータには後述のデータセットを用いた. 分散表現の獲得には日本語 wikipwdiaを用いた fastText を作成して利用した. モデルの訓練には,クイズの問題文を分かち書きし, 単語の分散表現を獲得し,300 次元からなる文章の分散表現を得る.訓練データに 300 次元で表された問題文及び解答の解説文章と対応するジャンルを用いて SVM で学習する. 訓練データには以下の 2 種類を用いる. (1)「問題文」のみ (2)「問題文」と「解答の解説」 (1)では問題文のみを,(2)では, 問題文に対する解答を wikipedia 9 日本語データベースから説明文を獲得して問題文と結合し,(1)と同じくべクトル化・モデルの訓練を行う. 結果としては (1)で $40.0 \%,(2) 54.8 \% をという$ 正解率が得られた。 2) https://booth.pm/ja ## 2 利用するクイズデータセット データセットには先行研究 [1] でも使われている「abc 13th 17th」と「EQIDEN 2013 2019」という大会の問題集を用いる ${ }^{3)}$. abc は学生を対象とする日本最大級のクイズ大会である. EQIDEN は $\mathrm{abc}$ と同日に行われる, 学業機関別のクイズ大会である. abc/EQIDEN で使用される問題は作成するにあたり多人数による審査が行われているため, 文章構成の質が良く, 難易度も比較的低く均等になっている. また,ジャンルにおいても偏りが少なくするように製作されている (図 1). そのため, 本研究で行うジャンル推定をするに当たり信頼性が高いと言える. 問題の用途は「早押し」「筆記 -4 択」「敗者復活」に分類されるが, 本研究では「早押し」のみを使うこととする。 図 1 クイズ問題のジャンル比率 なお, 分類問題として取り扱う際に, 開催年度毎にジャンルが異なるため調整が必要になる. 13th から 15th は表 1 の 12 種類に,16th から 17th は表 2 の 15 種類に分類されている. 本研究では先行研究での 12 種類の分類 (表 3)するように微調整して利用する.表 1 abc13 15th のジャンル分類 表 2 abc16 17th のジャンル分類 表 4 用途別の問題数 ## 3 実験方法 ## 3.1 tokenizer 文字列を機械的に扱うとき,その文字列を分かち書きし, 分散表現を獲得する必要がある. 分かち書きには形態素解析エンジンの MeCab と新語・固有表現に強い辞書 NEologd を用いる。 分散表現の獲得には,Doc $2 \mathrm{Vec}$ という手法を利用する. Doc2Vec は,Word2Vec の単語の分散表現を獲得する手法の応用である. なお, 本研究ではモデル作成の時間を省くために学習済みモデルを用いた [9]. 元となる文章を分かち書きし, 学習済みモデルに入力すると 300 次元の分散表現が得られる. 数値データに変換した訓練データを入力データとして機械学習モデルの訓練を行う. 表 3 本研究におけるジャンル分類 ## 3.2 機械学習手法 機械学習には既存アルゴリズムとしてょく知られるランダムフォレスト, $\mathrm{k}$-近傍法, ロジスティック回帰, ナイーブベイズ,SVM, 確率的勾配降下法 (以下:SGD) を用いた他にも,300 次元の入力層, 1000 次元の中間層, 12 次元の出力層からなる 3 層のニュー ラルネットワーク (以下:NN) も用いた. また,これらの手法に対してグリットサーチによるハイパーパラメータの最適化も行って評価した。 ## 3.3 評価 精度の評価にはマクロ平均による正解率 (macroAccuracy)を用いる. 多クラス分類で使う評価指標は,二值分類で用いる混合行列を複数のクラスに対応させて算出できる. たとえば $(A, B, C)$ からなる多クラス分類を考えたとき, $A$ をPositive, $B$ と $C$ を Negative とした際の $T P, T N, F P, F N$ をそれぞれ $T P_{A}, T N_{A}, F P_{A}, F N_{A}$ とする.これらを用いて accuary $_{A}$, recall $_{A}$, precision $_{A}, F$ 値 ${ }_{A}$ は式 (1) (4) のように表すことができる. $ \begin{gathered} \operatorname{accuary}_{A}=\frac{T P_{A}+T N_{A}}{T P_{A}+T N_{A}+F P_{A}+F N_{A}} \\ \operatorname{recall}_{A}=\frac{T P_{A}}{T P_{A}+F N_{A}} \\ \text { precision }_{A}=\frac{T P_{A}}{T P_{A}+F P_{A}} \\ F_{A}=\frac{2 \cdot \text { recall }_{A} \cdot \text { precision }_{A}}{\text { recall }_{A}+\text { precision }_{A}} \end{gathered} $ これらの値を各クラス毎に計算できる.これらの平均が次式のマクロ平均である. $ \operatorname{accuary}_{M}=\frac{\text { accuary }_{A}+\text { accuary }_{B}+\text { accuary }_{C}}{3} $ Accuracy は不均衡データの評価には適さないことで知られるが, 本研究での分類問題は偏りが少ないことから適用する判断をした。 ## 4 実験 ## 4.1 実験結果 それぞれのモデルでグリッドサーチを行った. $\mathrm{k}$分割交差検証の分割数は $\mathrm{k}=5$, 評価指標はマクロ平均 (macro-Accuarcy) とした. 表 5 機械学習モデルの正解率 ## 4.2 考察 単一のモデルでは SVM が最高の正解率を得た. 正解率のみを求めるならば, アンサンブル学習を適用すれば精度の向上は見込める.ここで, 各モデルにおける 1 つのジャンルの正解率を表 6 にまとめた. 全体としてはスポーツの正解率が最も高く, 次いで科学, 文学, 地理が次点となった. 一方で, 音楽と芸術の正解率が 0.60 を下回る分類結果となっている. 特に音楽と芸術はジャンルとしても非常に近い関係性にあるといえる. たとえば,JPOP や洋楽は音楽に分類されるが, クラシックは芸術に分類されることが多い. また, 実験中に生じた問題を紹介する. クイズの問題には 1 つのジャンルしか付与されていない. 付与されたラベルを「正解ラベル」, 解答が真に含まれるジャンルを「真のラベル」とする. データセット内には表 7 のような問題が含まれており,それらがノイズになっている可能性がある. そもそもジャンルの付与は作問者それぞれが個別で行うため, 同じ問題を作ってもジャンルが異なることがある. たとえば表 7 の 1 番の問題は, 前情報ではスポーツに関する情報, 後情報と解答は地理に関する情報である. このような問題が含まれることから, マルチラベル分類の適用が必要と感じた. 従って, 今後はマルチラベル分類手法を実装していきたい. 表 6 各機械学習モデルの $\mathrm{F} 1$ 值 表 7 ジャンルに不備がある問題例 & "チューリッヒ & "スポーツ & 地理 \\ ## 5 おわりに 先行研究で紹介したジャンル分類をその他の機械学習手法を試した. 結果としては先行研究でも使われたSVM が最高の正解率を記録した. 今後正解率の向上を目指すならばアンサンブル学習を適用すれば良いと思う. また, 実験よりマルチラベル分類が必要であることが分かったため, 今後はマルチラベル分類手法を調査して行きたいと思う。 ## 謝辞 本研究で使用したデータセット用のクイズ問題は, abc/EQIDEN 実行委員会より研究目的での利用許可を頂きました. 記して感謝いたします. ## 参考文献 [1] 伊東栄典淀川翼. 機械学習手法を用いたクイズ問題のジャンル推定. 火の国情報シンポジウム論文集, Vol. 2020, pp. 1-4, 2020. [2] Pranav Rajpurkar, Robin Jia, and Percy Liang. Know what you don't know: Unanswerable questions for squad, 2018. https://arxiv.org/abs/1806.03822. [3] Mandar Joshi, Eunsol Choi, Daniel Weld, , and LukeZettlemoye. Triviaqa: A large scale distantly supervisedchallenge dataset for reading comprehension, 2017. [4] Pedro Rodriguez, Shi Feng, Mohit Iyyer, He He, and andJordan L. Boyd-Graber. Quizbowl: The case for incrementalquestion answering. Technical report, 2019. [5] 鈴木正敏, 松田耕史, 岡崎直観, 乾健太郎. 解答可能性付き読解データセット. 言語処理学会第 24 回年次大会 (NLP2018), March 2018. [6] 鈴木正敏, 鈴木潤, 松田耕史, 西田京介, 井之上直也. Jaqket: クイズを題材にした日本語 qa データセット の構築. 言語処理学会第 26 回年次大会 (NLP2020), March 2020. [7] David Ferrucci, Eric Brown, Jennifer Chu-Carroll, JamesFa, David Gondek, Aditya A. Kalyanpur, Adam Lally, J. William Murdock, Eric Nyberg, John Prager, Nico Schlaefer, and Chris Welty. Building watson: An overview of thedeepqa project. Al Magazine, pp. 59-79. [8] 橋元佐知, 佐藤理史, 宮田玲, 小川浩平. 競技クイズ・ パラレル問題の基本構造と文型. 言語処理学会第 27 回年次大会 (NLP2021), March 2021. [9] 日本語 WIKIPEDIA で学習した DOC2VEC モデル,(2021-12 閲覧). https://yag-ays.github.io/ project/pretrained_doc2vec_wikipedia/.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D1-1.pdf
# ひめのり:辞書生成機能を備えたワードクラウド作成システム 涉谷 泰蔵 ${ }^{1,2}$ 稲吉 希理 ${ }^{1}$ 西田 健太郎 ${ }^{1}$ 田中朋 1,2 1 日本電気株式会社 2 産業技術総合研究所 \{taizo, kiri.i, ken-nishida, tomotanaka\}@nec.com ## 概要 専門用語辞書生成機能を持つワードクラウド作成システム「ひめのり」を開発した. システムはスマートフォン上でも動作可能な Web インター フェースを持ち,様々な分野の専門家による効率的な形態素解析辞書の生成を可能にする. 1940 年代の応用物理学会誌のデータを用いた専門用語抽出実験から,システムによる作業効率の加速効果は手作業に比べ最大で 3 倍程度あることが分かった. 今後ひめのりが得意なデータセットの特徵を明らかにするとともに,辞書以外の言語資源の整備機能も追加していく. ## 1 はじめに 膨大なテキストデータを概観する手法として, ワードクラウドが知られている。 ワードクラウドは図 1 に示すように文書中に含まれる多数のトークン1)を並べた画像であり,重要なトークンほど大きく表示される. ワードクラウドの作成は,トークンリストの抽出とトークン重要度の決定という 2 つの作業から成り, 素朴には形態素解析器による文書のトークン化とその頻度集計で実現される。高品質なワードクラウド生成には,トークンの分割単位や重要度に分析者の視点を反映させる必要がある. 例えば「化合物半導体」という短単位のトークンで構成された複合語をどこまで接続するかや,「情報」や 「システム」といったトークンをワードクラウドに含めるかといった判断は分析者や分野に依存する. 我々は,複合語リストの抽出を分かち書きテキストにおけるトークン接続(チャンキング)タスクと捉え, MeCab [1] 用の複合語辞書生成機能を備えたワードクラウド作成システムを開発している。このシステムはスマートフォンでも操作可能なシンプルなインターフェースを特徴とする Web アプリケー 1)何らかの手段で文章を短い単位に分割したときの一つ一つの言葉のまとまりのこと. ションであり,トークン同士を接続する糊という意味を込めて「ひめのり」2)と名付けた。ひめのりはテキスト中に隣接して現れるトークンペアの接続判断をユーザに迫り,複合語辞書を効率的に生成する。 また,頻出する低重要度トークンを非表示語(ストップワード)リストに追加するための画面も備えている。本稿では,ひめのりを紹介するとともに, そのトークン接続タスクの加速効果を実験で明らかにする。また,形態素解析辞書以外の言語資源生成ツールとしての可能性についても議論する。 図 1 ワードクラウドの例. 2008-2021 年の『自然言語処理』掲載論文のタイトルから作成. ## 2 関連研究 複合語リストの自動抽出に関しては,頻度 [2] やルール [3] をべースにしたものから BERTを利用したもの [4] まで様々な研究があり,これらの手法に分析者の視点を反映させるには,テキストマイニング向けのツール [5] や,種々のスパンアノテーションツール [6-10] 等を利用できる. もちろん長単位の分割に対応した形態素解析器 [11,12] や辞書 [13] も重要な選択肢である。トークン重要度の決定に関しても様々な手法 $[2,14]$ が提案されている. これらを統合したワードクラウド作成システムは筆者らの知る限りでは存在しないが,例えばユーザーロー カル社のサービス [15] は複合語リストとストップワードリストの入力に対応し,トークン重要度は TF-IDF [16] で決定している. 2)姫糊(ひめのり)は米を原料とした糊のこと。 ## 3 システムの詳細 図 2 ひめのりの全体像. ひめのりは Python と JavaScript で書かれた web アプリケーションであり,非同期処理を利用して軽快な動作を実現している。ひめのりの全体像を図 2 に示す.クライアント側には JavaScript ライブラリである React [17] を採用し,サーバー側は Python フレームワークである FastAPI [18] を利用している.テキストのトークン分割には $\mathrm{MeCab} を ,$ データベースには SQLite [19]を,ワードクラウドの生成には Andreas Mueller 氏の Python ライブラリ WordCloud [20] と Google Noto Fonts [21]をそれぞれ採用している. 辞書生成の基本的な流れは,分析するテキストのアップロード,MeCabによるトークン分割,トークンおよびトークンペアの出現頻度集計,トークンペアに対するユーザの判断で構成される.これらを組み合わせることでトークンペアのチャンキングを繰り返し, MeCab 向けのユーザ辞書を更新し,最終的に複合語辞書を得る。また,ユー ザはストップワードリストを修正することでワードクラウドの見栄えを整えることができる. ひめのりの機能の肝となるトークンペアに関する繰り返し処理(周回)というコンセプトについて図3を用いて説明する. 最初の周回は,文章ごとに分割された入力テキストデータを MeCabによってトークンに分割し,単一トークンおよびトークンペアの出現頻度を集計することで始まる。この時, トークンの頻度情報からワードクラウドも作成する. 次に,頻度順にソートされたトークンペアごとに,接続するかどうかの判断をユーザに促す. 判断画面の例を図 4 に示す. 画面には単一トークンとトークンペアの出現頻度,およびペアを含む文章一覧が表示され,ユーザはこれを参考にペアを辞書・仮辞書・非辞書のどれかに分類する。例えば辞書に分類されるのは「電子顕微鏡」のような複合語として成立するぺアである.仮辞書に分類されるのは 図 3 ひめのりによる複合語抽出の流れ. 図 4 ユーザ判断画面. 3 トークン以上からなる複合語の一部である「高温超」(高温超伝導の一部) のような,そのままでは意味を持たないが,より長単位では意味を持ちそうだと判断されたぺアである. 仮辞書に登録されたトークンは,次周のトークンペア集計では繋がった状態で出てくるため, 次周の判断によってはさらに長いトークンとなっていく. こういった意味を持たないトークンペアをユーザ辞書に登録せずに仮辞書に登録することで,ユーザ辞書の無意味な肥大化を防いでいる。非辞書に入るのは「による」のような複合語として成立しないぺアである。一度非辞書に登録されたトークンペアは,次周以降は頻度集計からは除かれる。分類は画面上の該当ボタンのクリックで実行できるが,キーボードの矢印キーでも 実行できる,必要なトークンペアについてのユーザ判断が終わったら3),辞書と仮辞書に含まれたト一クンペアを見出し語とした MeCab のユーザ辞書を作成する。この際, 品詞は全て名詞とし, 生起コストは MeCab に分割されないようトークンの文字数と周回数に基づいて決定される。このユーザ辞書を利用してテキストを再び分かち書きし,トークンペアの頻度集計とワードクラウドの生成を行う.新しいユーザ辞書により生成されたワードクラウドは,図 5 に示す画面で直前の周回のワードクラウドと比較され,次周を実行するかの判断をユーザに促す. ここまでの一連の処理が 1 周目に該当する. 2 周目 ## 単語と出現頻度 図 5 周回の終了画面. は,直前の周回で生成されたトークンペアへの判断をユーザに促すところから始まり,更新されたユー ザ辞書でワードクラウドが生成されて終わる. 図 3 では 2 周目で「高温超伝導」という複合語が辞書に登録されたことが分かる. この処理を繰り返すことでトークンペアは徐々に長くなり,最終的にはユー ザが所望する複合語のリストを得ることができる. ストップワードリストの編集には図 5 に似た別の画面が用意されている。ユーザはトークンリスト中のトークンをクリックすることで,動的にストップワードリストを変更し,ワードクラウドの変化を確認できる. ## 4 実験 システムの効果を評価するために,ひめのりを利用した場合としない場合それぞれについて 10 分間のチャンキング作業を設定し,2 分ごとに作業のス  表 1 BIO タグを用いた長単位チャンキングの例。 Token 化合物半導体超格子の無秩序化とその応用 コアを算出した. 対象文書として J-Stage の API で取得した応用物理学会誌の 1940-1942 年の論文タイトル 409 件を利用した. このデータセットは古い専門用語が使われており, 特に複合語辞書生成の重要性が大きいと判断したため選ばれた. チャンキング作業は MeCab と IPADIC 辞書が生成した分かち書きテキスト中のトークンを接続するものとした. 正解データは,分野固有の専門用語を可能な限り長単位で接続することを基本方針とし,一人の材料科学者が用意した.スコア計算には CONLL2003 の固有表現抽出タスク [22] の BIO タグを参考に,適合率,再現率,F1 值を下記のように定義した: $ \begin{aligned} \text { 適合率 }(\text { Precision }) & =\frac{\text { 正解との一致タグ数 }}{\text { ユーザの BI タグ数 }}, \\ \text { 再現率 }(\text { Recall }) & =\frac{\text { 正解との一致タグ数 }}{\text { 正解の BI タグ数 }}, \\ \text { F1 値 } & =\frac{2 \times \text { 適合率 } \times \text { 再現率 }}{\text { 適合率 }+ \text { 再現率 }} . \end{aligned} $ タグ付けの例を表 1 に示す. この場合,ユーザ入力の適合率,再現率, $\mathrm{F} 1$ 值はそれぞれ $0.8,0.57,0.67$ となる。ひめのりを使用する場合(w/ Himenori)は 2 分ごとにひめのりの周回作業を終了し, 各周回のユーザ辞書によって分かち書かれた結果を $\mathrm{BIO}$ タグに変換した ${ }^{4}$ .ひめのりを使用しない場合(w/o Himenori)は,図6 に示すようにアンダースコアを分かち書き文字としたデータを用意し,テキストエディタを用いた手作業による区切り文字の除去をタスクとした. この際も 2 分ごとに作業を保存し,結果を BIO タグに変換した. 実験は 8 人の材料系研究従事者に対して行った. 被験者はチャンキング作業を同じデータセットに対し w/ Himenori, w/o Himenori でそれぞれ 10 分間行った. 作業を行う順番による影響を確認するため,被験者を 4 人ずつ 2 つの群に分けた. 1 つの群は先にツールを利用し (Himenori 1st),もう一つの群は先にテキストエディタで作業を行った(Himenori 2nd)。 ## 5 結果と考察 作業者群ごとの平均 $\mathrm{F} 1$ 値の推移を図 7 に示す.作業の順番にかかわらず,全ての時間で w/ Himenori 4)初期トークンが分かたれた文章はスコアの計算に含めなかったが,そのような文章は全体の 5 \%程度だった。 図 6 テキストエディタを用いた手動チャンキングタスク. トークンを区切るアンダースコアを手動で削除する。 図 $7 \mathrm{~F} 1$ 値の推移. 各点は 4 人の作業者の平均値を示す. の F1 值が w/o Himenori の F1 值を上回っていることが分かる. またそれぞれの群において, 後に作業した結果の F1 值が高く, 先の作業でデータセットの特徵を掴んだことで, 後の作業の処理速度が向上したと思われる. しかしながらその影響は極わずかであり,専門用語抽出タスクはひめのりによって加速されたと言える。また,w/o Himenori のカーブが線形なのに対し, w/ Himenori は w/o Himenori よりも高い值をとっているが 4 分を過ぎた頃には緩やかな傾きになる. 次に, 図 8 に F1 值の内訳である 図 8 適合率 (Precision) と再現率(Recall)の推移. 各点は 8 人の作業者の平均値を示す. 適合率と再現率の平均値の推移を示す. 作業の順序による差は極わずかであったため,2つの作業者群をまとめた 8 人の結果の平均値を用いた. 適合率は w/o Himenori は時間によらず高い值を維持するのに対し,w/ Himenori は最初に低い值をとり 4 分以降で一定値となる。この違いが生まれるのは,w/o Himenori では同じ判断を下せる限り時間経過によって適合率が変化しないのに対し,w/ Himenori では始めの周回で仮辞書に追加されたトークンペアに短単位で BIO タグが貼られ適合率が低く出るからである.これら仮辞書に登録されたトークンペアは,その後の周回でより長単位の BIO タグが貼られるため,最終的には適合率は上昇する。再現率は,w/o Himenori がゼロ点から線形に上昇するのに対し,w/ Himenori はゼロ点から 2 分までの傾きが大きく, 4 分を過ぎた時点で w/o Himenori の傾きと一致する. w/o Himenori の線形性は単純作業の繰り返しとして説明できるが,w/ Himenori の傾きの変化は頻出するトークンペアの一括処理による効果が 4 分頃まででなくなることを示唆している.今回設定した実験時間の範囲内では,w/ Himenori の 2 分と w/o Himenori の 6 分の F1 值がほぼ同一であり加速効果は最大で 3 倍程度とも言えるが,より長時間の作業では $\mathrm{F} 1$ 值が逆転し得る.これはひめのりに有利な処理時間範囲があることを示唆しており,データセットの特徴とも相関があると考えられる.今後,頻出するトー クンペアの出現頻度の分布などから,ひめのりの得意なデータセットの特徴を示していきたい. この実験は,LOC や PER 等の分類はしていないものの,ひめのりの固有表現アノテーションツー ルとしての可能性にも注目して設定された. w/o Himenori の作業はスパンアノテーションと同種の作業であり,ひめのりによる作業の加速効果が認められた.今後は辞書生成だけでなく固有表現アノテーションツールとしての機能も追加し,他のツー ル [6-10]との比較も行いたい. ## 6 おわりに 辞書生成機能を備えたワードクラウド作成器「ひめのり」を開発し,複合語抽出の時間対効果を実験的に明らかにした. ひめのりを使うことで, 様々な分野の専門家が自然言語処理の細部を意識することなく効率的に形態素解析辞書を生成できる。今後はひめのりと相性の良いデータセットの特徴を明らかにするとともに,固有表現アノテーションツールとしての可能性も探る. ## 謝辞 本論文をまとめるにあたり, 日本電気株式会社の石川開氏には, 実験の設定や評価について有益な助言をいただきました. ## 参考文献 [1] 工藤拓. MeCab: Yet another part-of-speech and morphological analyzer. https://taku910.github.io/mecab/. [2] 中川裕志, 湯本紘彰, 森辰則. 出現頻度と連接頻度に基づく専門用語抽出. 自然言語処理, Vol. 10, No. 1 , pp. 251-258, 2003. [3] 橋本泰一, 藤井敦. 特許文書のための形態素解析辞書の構築. 言語処理学会第 18 回年次大会, 2012. [4] 五井野㙇也, 濱上知樹. Bertを用いた医療文書からの固有表現抽出. 計測自動制御学会第 48 回知能システムシンポジウム, 2021. [5] 高間康史, 阿部美里. テキストデータマイニング統合環境を利用した看護記録からの専門用語辞書作成支援ツールの提案. 第 27 回人工知能学会全国大会, 2013. [6] Pontus Stenetorp, Sampo Pyysalo, Goran Topić, Tomoko Ohta, Sophia Ananiadou, and Jun'ichi Tsujii. brat: a webbased tool for NLP-assisted text annotation. In Proceedings of the Demonstrations at the 13th Conference of the European Chapter of the Association for Computational Linguistics, pp. 102-107, 2012. [7] Jie Yang, Yue Zhang, Linwei Li, and Xingxuan Li. YEDDA: A lightweight collaborative text span annotation tool. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, pp. 31-36, 2018. [8] 山村崇, 嶋田和孝, 吉川和, 岩倉友哉. Tatara: 支援機能を持ったアノテーションツールの構築. 言語処理学会第 25 回年次大会, 2019. [9] Prodigy $\cdot$ An annotation tool for AI, Machine Learning \& NLP. https://prodi.gy/. [10] doccano: Open source annotation tool for machine learning practitioners. https://github.com/doccano/ doccano. [11] 小澤俊介, 内元清貴, 伝康晴. Bccwj 亿基づく長単位解析ツール comainu. 言語処理学会第 20 回年次大会, 2014 . [12] Sudachi: A Japanese Tokenizer for Business. https:// github.com/WorksApplications/Sudachi. [13] 佐藤敏紀, 橋本泰一, 奥村学ほか. 単語分かち書き用辞書生成システム NEologd の運用-文書分類を例にして. 情報処理学会研究報告自然言語処理 (NL), Vol. 2016, No. 15, pp. 1-14, 2016. [14] Hakan Altınçay and Zafer Erenel. Analytical evaluation of term weighting schemes for text categorization. Pattern Recognition Letters, Vol. 31, No. 11, pp. 1310-1323, 2010. [15] AI テキストマイニング by ユーザーローカル. https://textmining.userlocal.jp/. [16] Karen Sparck Jones. A statistical interpretation of term specificity and its application in retrieval. Journal of doc- umentation, Vol. 28, No. 1, pp. 11-21, 1972. [17] React A JavaScript library for building user interfaces. https://reactjs.org/. [18] FastAPI framework, high performance, easy to learn, fast to code, ready for production. https://fastapi. tiangolo.com/. [19] https://www.sqlite.org/. [20] Andreas Mueller. WordCloud for Python. https:// amueller.github.io/word_cloud/. [21] Noto Sans Japanese - Google Fonts. https://fonts. google.com/noto/specimen/Noto+Sans+JP. [22] Erik F. Tjong Kim Sang and Fien De Meulder. Introduction to the CoNLL-2003 Shared Task: Language-Independent Named Entity Recognition. In Proceedings of the Seventh Conference on Natural Language Learning at HLTNAACL 2003, pp. 142-147, 2003.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D1-2.pdf
# アジア三言語における代名詞代用・呼びかけ語の共通項目調査 岡野賢二 ${ }^{1}$ 野元裕樹 ${ }^{1}$ スニサー ウィッタヤーパンヤーノン(齋藤) ${ }^{1}$ トゥザライン ${ }^{1}$ 春日淳 ${ }^{2}$ okanok@tufs.ac.jp nomoto@tufs.ac.jp sunisa@tufs.ac.jp thuzarhlaing@tufs.ac.jp kasugaat@kanda.kuis.ac.jp 1 東京外国語大学 2 神田外語大学 ## 概要 本研究の目的はいくつかのアジア諸言語における代名詞代用と呼びかけ語の使用実態を把握し, その共通点や相違点を明らかにすることである. 対象言語は日本語, 韓国語, マレーシア語, インドネシア語, ジャワ語, ベトナム語, タイ語, ビルマ語である. 代名詞代用に用いられる語彙は言語ごとに差があるため, これらの言語間で共通して用いられる語彙を抽出し,記述することとした。 本稿ではそのうち東南アジア大陸部の言語であるタイ語i, ベトナム語ii, ビルマ語iiiについての共通項目の調査結果について報告する. ## 1 代名詞代用・呼びかけ語 代名詞代用(pronoun substitutes)とは代名詞ではない語を用い一・二人称代名詞と同様に話し手・聞き手を指し示すことであり,呼びかけ語(address terms)とは会話において聞き手を同定し, その注意を引くために使われる語である。 例えば「お母さん, お母さんのお兄ちゃんの名前,何だっけ?」(野元他 2021:64)という日本語の発話内に二度「お母さん」が使われているが,はじめのものは呼びかけ語であり,もうひとつは代名詞代用である。英語では呼びかけ語には“mom”, “mommy”などの語彙が用いられるが, 二人称代名詞の代用としての用法を幼坚語以外では持たないとされる. 代名詞代用に用いられる語彙には親族名称, 職業名, 固有名などがあるが,一般名詞の中にも敬称を添えることで使えるようになるものもある(「学生  さん」など). また「お姉さん」のような親族名称が親族関係"がない場合にも用いられる、いわゆる虚構的用法もまた非常によく見られる代名詞代用の一現象であるが, その範囲は言語により様々である。例えばビルマ語の nilé「(男性にとっての) 弟」やタイ語の nóo 「弟妹」, ベトナム語の em (trai)「弟」は代名詞代用,呼びかけ語として用いることができるが,日本語では話し手よりも年下の親族名称を用いることはできない. さらに代名詞代用が可能な言語において, 代名詞代用の語彙と呼びかけ語の集合の重なりは大きいことが知られている. このような現象は日本語ばかりでなく, 東アジアから東南アジアに分布する言語に非常によく見られる現象であり, 個別言語記述研究や語学書等でしばしば言及されている. しかしながらこのような現象を通言語的な観点から包括的に記述しようとした調査・研究は野元他(2021)以外,管見の限りない. 代名詞代用についての記述が十分でないことは翻訳や外国語学習において深刻な問題を引き起こす.前述の日本語の例をそのまま英語に「入れ替える」 なら,二つの「お母さん」は“mom”, “mommy”あるいは“"mother”と訳されるであろうが,それでは正しい英語にならない. 二つ目は your でなければならず,人称の間違いが生じる。逆に英語から日本語に訳す場合には適切な代名詞代用がなければ不自然な文となる場合が想定される. 本研究はより正確で自然な (機械)翻訳に寄与寸るものである. ## 2 代名詞と代名詞代用 人称代名詞と代名詞代用がどのように違うのかについて, 田䆶 (1997:14) は境遇性の有無によって説明している。 例えば,二者間で交わされる会話において,Aの  発言内における「私」は A 自身を,B の発言内における「私」はBを指す. また二人称「あなた」では, どちらの発話であっても発話者の会話の相手を指す. すなわち人称代名詞は「話し手がどちらであるかを反映するという性質」を持っており,これを境遇性と呼んでいる。 一方,代名詞代用は一般に境遇性を持たない。上記の例にならえば,A の発言内において「お父さん」 が $\mathrm{A}$ 自身を指すとすれば,B の発話内でも「お父さん」は Aを指す. Aが発話しようと Bが発話しようと「お父さん」が指示する対象は変わらない, すなわち境遇性がない,ということになる。 会話内において特定の人物を指示する語彙が境遇性を持たない,というのは固有名詞(人名)や職業名も同じである。ただ,言語にもよるが,固有名詞や職業名の場合, 対称 (二人称) や他称 (三人称) に用いることできても, 自称(一人称)に用いることができないなどの制約がある場合がある。 日本語の例でいうなら「社長」は対称や他称には用いることができても, 通常自称に用いることはできないv. つまり代名詞代用と一言で言っても, 語彙によって自称,対称のどちらにも使える場合とそうでない場合があり,また呼びかけに用いることができるかどうか,に異なりがある。 また上述のように敬称を添えることによって代名詞代用, 呼びかけとして用いることができる場合もある. 本研究を進めるに従い, 言語によって代名詞代用・呼びかけとして用いることができる語彙に少なからず差異があることが分かってきた. ただ代名詞代用・呼びかけが通言語的にどのような特徴を有しているかを把握するために,各言語に共通して用いられる語彙について, 言語ごとの振る舞いの違いを把握する必要がある. そのため本研究では共通調査項目を設定し,調查をすることにした。 ## 3 共通調查項目 共通調查項目は意味概念 (日英語と WordNet synset ID で記述)で, 研究対象言語にそれを表す語彙が存在することを条件として選定した. 選定した項目は 16 種類 147 項目にわたる. 16 分類とその例  (日本語)は以下の通りvi. 分類は Nomoto et al. (2019)の対人関係意味素性に基づく. 表共通調査項目の分類と例, 語彙数 & 7 \\ これらの分類は収集した各言語のデータから抽出し, 取捨選択した. 本稿執筆時点(2022 年 1 月 10 日)で 8 言語で延べ 1629 語が収集されている. 以下分類について簡単に説明する. (a) Age は年齢により呼び分けられる語彙である.  (b) Family, (c) Fictional family はいわゆる親族名称だが,(b)は実際に血縁・姻戚関係があるもの,(c)はそれがないもので,いわゆる虚構用法である。(a)と(b) は年齢や家族関係において付与されるプロパティである.これらは性別により語彙が異なることがほとんどである (「3. 子供」, 「26. 子」, 「34.いとこ」を除くvii) . (d) Education は教育の場において用いられる身分等を表す語彙, (e) Relationship は社会的人間関係を表寸語彙, (f) Position は社会的地位の名称, (g) Service は職業を表す語彙, (h) Spiritual は宗教的な地位・資格等を表寸語彙, (i) Royal は王族を指し示す語彙である. (d) (i)は Nomoto et al. (2019)の意味素性体系の中の Role 素性の下位区分である. (j) Anaphor, (k) Quantifier, (l) Demonstrative(指示詞)は人そのものを指示するのではない文法的な語彙である. (m) Proper noun は単独で用いられるものばかりでなく, 人名十敬称(田中さん)や人名十お姉さん(慶子お姉さん)などを含む. (n) Modified NP は修飾部を持つ名詞句で,修飾部には属格名詞(おばあちゃんの孫),直示(そこのあなた),形容詞 (美しいお姉さん), 関係節(熱のある人,課題をまだ出していない人)を設定してある. (o) Misc.は(a)(n)に分類できないものである.また(p) Personal Pronoun は代名詞代用ではないが, 共通調査項目を考察する上で基準となること,また自称形式が対称として用いられる場合があったり, 呼びかけ等に使うことができる場合があること, 言語によっては人称代名詞に複数の表現があり, それらが閉じたクラスをなしていないと考えられる場合があるため,これを含めた。 ## 4 タイ語, ベトナム語, ビルマ語に おける共通項目調査結果 共通項目の調査として,特に代名詞代用(自称,対称), 呼びかけの用法があるかどうか, そしてある場合にはその例文を実例もしくは作例によって収集することとした,以下はスニサー(2021), 春日 (2021), 岡野・トゥザライン(2021)の内容をまとめたものとなる. vii ここに示す番号は共通調查項目における ID. ## 4. 1 Age (a) Age について, タイ語は対称と呼びかけのみでの使用に限られる。「3. 子供」については,対象が複数の場合に限られ, 繰り返し用法 dèk dèk としてのみ使用する。 ベトナム語は極めて限定的にしか用いることができない. 「3. 子供(10 歳くらいまでの年少者, 男女問わず)」が自称,対称に用いることができること,「4. お嬢さん(10 代後半から 20 代前半, 女)」「5. 若い男性(10 代後半 20 代,男)」「6. 若い女性(10 代後半~20 代,女)」に呼びかけ用法があることのみであった。ビルマ語は呼びかけには一切用いることができないが,すべての項目を自称,対称に用いることができる. ## 4. 2 Family (b) Family に分類される語彙は, 三言語とも自称,対称,呼びかけとしてかなり一般的に用いられる.特に「8. 父」「9. 母」「22. 兄」「23. 姉」「24. 弟」「25. 妹」は三言語でほぼ一致しているviii. また両親の兄弟姉妹を表す語彙のも同様である. ただ「29. 孫」「30. 嫁(息子の妻)」「31,婿(娘の夫)」「32. 甥」「33. 姪」「34.いとこ」については使用しづらい傾向がみられる。夕イ語の場合, 「29. 孫」を対称で使用する場合, lăan 単独では使用しないが母方の祖父が lăan taa「母方の祖父の孫」 と誰の孫かを分かる表現で使用することがある他,呼びかけは対象が複数の場合に限られ使用する際は複数の意味を表す繰り返し用法 lăan lăan として使用する.「30,嫁(息子の妻)」「31. 婿(娘の夫)」「32. 甥」「33. 姪」は,嫌味や怒りといった感情を込める場合にのみ敬称を付けて用いることができる。 ベトナム語では壳談として呼びかけに Con dâu oi.「お嫁さん」, Con rể ơi.「お婿さん」を用いることがあるなど,使用可能性は限定的である.ビルマ語は対称としてはすべて用いることができるが,「29.孫」「32. 甥」「33. 姪」が呼びかけに用いられる以外は使用できない。 なお「34. いとこ」はべトナム語では完全に使用可能であるが,ビルマ語は対称のみ可能,タイ語は親族を指し示すことができない。 viii タイ語の場合, 兄弟姉妹 sibling については, 性別を表寸形態を除いた phîi「兄/姉」,nóon「弟/妹」の形で可能. ## 4. 3 Fictional Family (c) Fictional Family(非親族・虚構用法)における語彙は Family の場合と同じで, 実際の親族関係にない人物を指示することができる。 ただ Family とは対照的に「8. 父」「9. 母」は言語によっては使用しづらい傾向が見て取れる。タイ語において例えば友人の父に対して phôo+父親の名前 $=「 〜$ 父さん」は許容されるが,それ以外のケー スでは用いることができないix. ベトナム語の場合はホストファミリーや,子を持つ親しい友人間で bố / mẹ - con と呼び合う用法があるものの, やはり限定的である. これに対しビルマ語は全く問題なく使用可能である. また親の兄弟姉妹を表す語彙はほぼすべてが自称,対称,呼びかけに使用可能である。また祖父母についても三言語とも問題なく使用可能となっている. 「53. 子」「54. 息子」「55. 娘」「56. 孫」「57. 嫁 (息子の妻)」「58. 婿(娘の夫)」「59. 甥」「60.姪」「61. いとこ」については各言語での使用可能性についてばらつきが多く, 一定の傾向は見られない. Familiy の場合よりも, さらにその使用可能性が低くなる傾向が各言語においてみられる。夕イ語の lûuk chaay「息子」lûuk sǎaw「娘」は前述のとおり悪感情を込めるときのみに親族に対して使用が可能だが,虚構用法を欠く。 ベトナム語の con rể「婿」con dâu「嫁」も同様に虚構用法を欠く. ビルマ語の場合は親族に対して使えるが,非親族を指し示す用法としては対称のみを持つ.また三言語すべてで「61. いとこ」は虚構用法を持たないx. ## 4. 4 その他の分類 上記(a)~(c)以外の分類についても若干述べておく. (d) Education における「62. 先生」に当たる語彙は三言語とも自称,対称,呼びかけのいずれにも使われる. 一方「64. 児童」「65. 生徒」「66. 学生」 はタイ語で対称,呼びかけに使われる他は使用できない. なお「63. 教授」はベトナム語では他称と呼びかけに使用することができ,ビルマ語は使用できない. (e) Relationship の「72. 上司」はタイ語とベトナム  語では対称,呼びかけに用いられるが,ビルマ語では用法自体を欠く。「73.部下」は三言語いずれも使用できない. これは Education の「63. 教授」と「66.学生」の分布にほぼ一致する. ## 5 調査結果に対する暫定的考察 (a) Age に属する語彙は今回対象とした言語において一定の傾向は見られなかった. 言語ごとに使用できる語彙の範囲や,どの人称に用いることができるか,など,別の言語の調査と合わせて考察する必要があろう。 (b) Family, (c) Fictional Family については三言語に共通する特徴が見られた. Family では親, 親の兄弟姉妹, 自身の兄弟姉妹を表す語彙については, 自称,対称,呼びかけいずれもほぼすべてで使用可能である. 子を表す語彙,婿,嫁,いとこ等については言語毎にばらつきはあるものの,使用できないケースが見られた。 Fictional Family では Family と異なり,親を表す語彙が使えない言語があるが, 祖父母, 親の兄弟姉妹,自身の兄弟姉妹を表す語彙については,Family と同様,自称,対称,呼びかけいずれもほぼすべてで使用可能である.子を表す語彙,婿,嫁,いとこ等については言語毎にばらつきはあるものの, Family よりもさらに使用できないケースが多く見られた.いくつかの語彙では虚構用法を持たないものもある. またすべての項目で成り立つわけではないが,呼びかけの用法を持つ語彙については,その多くが対称としても用いることができる強い傾向があることが観察された。 ## 6 おわりに 最初に述べたように,代名詞代用という現象は言語ごとに記述されてきたが,それを複数の言語で対照することはほとんどなされてこなかった。 本研究は多くの言語のデータを同時並行的に扱うことで代名詞代用という現象についての理論構築を行う基盤を提供するだけでなく,それぞれの語彙についてのより精密な記述を可能にするであろう。また WordNet など,他の言語資源との連携をすることで, 本研究で対象としてない言語の記述にも適用でさるであろう。さらには機械翻訳,外国語教育といった分野においても,より正確で自然なアウトプットを生成するためのアルゴリズムやアウトプットの評価等への応用が期待できる. ## 謝辞 本研究は JSPS 科研費 $20 \mathrm{H} 01255$ 基盤研究(B)(一般) 「代名詞代用・呼びかけ表現の通言語学的研究」の 助成を受けたものです. ## 参考文献 ウィッタヤーパンヤーノン(齋藤), スニサー 「タイ語での代名詞代用表現・呼びかけ表現に関する考察」.『東京外国語大学東南アジア学』No.26, 1-23, 2020.「共通 調査項目に基づく調査報告(その 1)タイ語」科研費基盤(B)「代名詞代用・呼びかけ表現の通言語学研究」第 6 回研究会資料, 2021. 詞代用表現・呼びかけ表現の通言語学的研究における共同調査項目検証結果一タイ語に関して一」.『東京外国語大学東南アジア学』No.27, forthcoming.岡野賢二, トゥザライン 「共通調査項目に基づく調査報告(その 1)ビルマ語」. 科研費基盤(B)「代名詞代用・呼びかけ表現の通言語学研究」第 6 回研究会資料, 2021. 春日淳 「共通調査項目に基づく調査報告(その 1) ベトナム語」. 科研費基盤(B)「代名詞代用・呼びかけ表現の通言語学研究」第 6 回研究会資料, 2021. 田窪行則 1. 「日本語の人称表現」. 田窪行則編『視点と言語行動』くろしお出版, 東京, 13-44, 1997. Nomoto, Hiroki, Kenji Okano, Sunisa meaning annotation for Asian language corpora: The case of TUFS Asian Language Parallel Corpus (TALPCo)”. 言語処理学会第 25 回年次大会発表論文集, 846-849. 2019. 野元裕樹, スニサー ウィッタヤーパンヤーノン(齋藤), 岡野賢二, トゥザライン, 南潤珍, スリ・ブデイ・レスタリ「代名詞代用・呼びかけ表現研究の現状: タイ語, ビルマ語, マレー語, インドネシア語, ジャワ語, 朝鮮語」.『東京:語学研究所論集』 25, 63-78, 東京外国語大学, 2021.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D1-3.pdf
# 日本語母語話者にとっての英単語親密度の調査 藤田早苗小林哲生服部正嗣納谷太 NTT コミュニケーション科学基礎研究所 \{sanae.fujita.zc, tessei.kobayashi.ga, hattori.takashi.cp, futoshi.naya.ke\}@hco.ntt.co.jp ## 概要 我々は、主に学習支援への利用を目的とし、日本語母語話者にとっての英単語親密度を調査した。これまで、特に日本語母語話者にとっての英単語親密度データで大規模なものは存在しなかった。本調査では、世界最大規模の 12,398 語を対象とし、評定も、どの程度「見たり聞いたりするか」「知っている・意味がわかるか」「書いたり話したりできるか」 の 3 観点とする詳しい調査をおこなった。評定者は日本語を母語とする TOEIC800 点以上の大学生・大学院生 42 人 (評定後のスクリーニング通過は 38 人) で、各自全ての語を評定した。さらに、先行研究との比較分析を行い、特に英語母語話者との違いを示した。 ## 1 はじめに 単語親密度 (FAM; word familiarity) とは, 語のなじみ深さを数値化したものである $[1,2]$. 単語親密度のデータは,さまざまな用途で使用されている $[3,4,5]$ 。特に、多くの語を含む単語親密度データがあると語彙数の簡便な推定が可能になるため [6]、学習支援への利用も期待できる [7]。本稿では、英語の学習支援への利用を目指して実施した日本語母語話者にとっての英単語親密度の調査について報告する。 英単語親密度のデータは幾つか存在するが、多くは英語母語話者による評定である $[8,9,10]$ (表 1 , 上部)。G\&L[10] とGlasgowNorms[8] はスコットランドの、BristolNorms[9] はイギリスの大学の学生・関係者が 7 段階のリッカート尺度で評定しており、約 1,500 語から 5,000 語程度のサイズである。 しかしながら、日本語母語話者にとっての英単語親密度が英語母語話者と同じような值になるとは限らない。日本の大学で調査したデータとしては、横川 [11] (以下、Yokokawa)によるものがある。関西の 10 大学の学生 822 人が 2,999 語の評定を行ってい るが、 1 人が評定する語は 200 語のみである。大変参考になるデータだが、評定した大学生の英語力が分からない、語彙数推定の規準にするには調査語が少ない、同じ評定者によって全語評定されたわけではない、といった問題がある。 一方、単語親密度に限らなければ日本人英語学習者向けの単語リスト作成の試みは、多く存在する $[12,13]$ 。Ehara[12] は、ALC ${ }^{1)}$ が作成したレベル別語彙リスト SVL120002)(12,000 語)を対象に、意味を知っているかなどの評定を行っている。評定者は大学生 16 人 15 人は東大生。日本語母語話者 14 人) である。規模が大きい上に全評定者が全語を評定している大変貴重なデータである。ただし、1-5 の評定値が振られているものの ${ }^{3 )}$ 名義尺度のため、評定平均を算出して単語親密度として利用することはできない。 大学英語教育学会基本語リスト (新 JACET 8000) [13] は、主に教育者からなる委員会がコーパスや検定教科書を元に語を選定し、出現頻度等を基にランクを付与したものである。また、 8,000 語からなる基本語リスト以外に、補正資料として、中学・高校コミュニケーション支援語彙リスト $(3,000$ 語)、共通学術語彙リスト $(2,200$ 語 $)$ も公開されている。大変丁寧に選定・編集されたデータである。 CEFR-J Wordlist ver.1.6 ${ }^{4}$ ) は、6,868 語 (品詞別だと 7,989 項目) に対し、欧州共通言語参照枠 (CEFR) が定める 6 レベルのうち $\mathrm{A} 1$ ~B2 の 4 レベルを付与した語彙リストである。各レベルは $\mathrm{A} 1, \mathrm{~A} 2$ が基礎段階の言語使用者, B1,B2 が自立した言語使用者となっている。このリストは、中国・台湾・韓国の小 1) https://www.alc.co.jp/ 2) https://www.alc.co.jp/vocgram/article/svl/ 3)各評定値と説明 : 1: never seen the word before, 2: probably seen the word before, 3: absolutely seen the word before but don't know its meaning/ tried to learn the word before but forgot its meaning, 4: probably know the word's meaning/ able to guess the word's meaning, 5: absolutely know the word's meaning 4)東京外国語大学投野由紀夫研究室. http://cefr-j.org/ index.html よりダウンロード 表 1 英語の親密度調査の比較 & \\ 中高の主力教科書をベースに構築されている。貴重なデータだが、 4 レベルなので語彙数推定に利用するには情報量が足りず、かつ、必ずしも日本人のみ向けとは限らないという問題がある。 本稿では, 日本語母語話者にとっての英単語親密度を調査する (2 章)。本調査では、評定者の英語力を統制するため、TOEIC800 点以上を条件とした。対象語は異なりで 12,398 語、各評定者は全語を評定する。 42 人が全評定を実施したが、評定後に実施したスクリーニングを通過した 38 人分の評定值から英単語親密度を計算する。さらに、英語母語話者などの先行研究と特徴を比較・分析する (3 章)。 ## 2 英単語親密度調査方法 評定者評定者は TOEIC800 点以上の、日本語を母語とする大学生・大学院生である。TOEIC800 点以上としたのは、親密度に差をつけて評定をするためには、英語がある程度出来る必要があると考えたためである。 調査への応募者は 53 人だったが、全語の評定を終了したのは 42 人だった。さらに、調査後のスクリーニングを通過したのは 38 人 (男性 21 人、女性 17 人) だった。 38 人の TOEIC の平均点は、 896 点 (Listening 455, Reading 441) で、年齢は 18 歳から 25 歳、平均 21.5 歳だった。 調査対象語学習支援への利用を目指し、英語の教科書コーパス(NTT で構築中。2018 年購入の小 5-高 3 の検定教科書全 72 冊から、物語と会話部分を書き起こしたもの)に出現する 4,955 語をまず対象とした。ただし、数字、記号、固有名詞、 2 文字以下の語、日本語のローマ字表記 (“miso”, “kabuki” など) は除いた。 さらに先行研究との比較も視野に、新 JACET 8000[13]、Yokokawa、CEFR-J Wordlist ver1.6に含まれる語は基本的に調査対象とした ${ }^{5)}$ 。これらのリストに複合語が含まれる場合には、スペースで分割 5) 's, 'm, 're, 擬似語等は除いた した語も調査対象とした6)。また、Ehara[12] の公開データから、日本人 14 人による評定值の平均を便宜的に算出、平均値が 3.07 以上の 9,870 語は対象とした。 また、活用形による親密度の違いを見るために 100 語は活用形を追加した。さらに、スクリーニングのために 101 語を 2 回提示することとし、のべ 12,500 語 (異なり 12,398 語) を調査対象語とした。 対象語の提示順調査語はランダムにリストにした。ただし、2 回提示する語は 1 回目提示から 3000 語以上離れて提示されるようにした。調査では、リストの昇順/降順に評定する人を半々とした。なお、事後スクリーニングを通過した 38 名のうち、20 名は昇順、18 名は降順からの提示だった。 調査手順手順の概要は次の通りである. ## Step0 インストラクション 評定開始前にオンライン説明会を実施。 ## Step1 練習フェーズ(10 語) 最初のログイン時に 1 度だけ実施。 Step2 本番フェーズ (12500 語) (付録の図 7 参照) 同じ評定が 15 回続くとアラートを表示。 調査後事後スクリーニング 2 回評定させた語の重み付きカッパ係数 $\kappa$ が 0.9 より低い評定者を除外。 評定が最も離れている場合を 0 、評定が完全一致でなくともより近い値なら重みを重くして一致度を計算する。 謝金は全ての評定実施とアンケート提出で 4 万円とした。評定サイトは内製し、スマホでも PCでも評定結果は自動保存するようにした。調査期間は、 2021.6.28 - 2021.8.16 である。評定のペースは評定者自身に任せた。 評定軸同じ「親密度 (familiarity)」と名付けられていても、評定者への尋ね方は先行研究によって 6)例えば、“air force” の場合、“air”と “force”も対象語に追加する 図 1 一貫性評定例 1: 利用英単語親密度 (NTT) 図 4 ヒストグラム:全調査 図 2 一貫性評定例 2: 除外 図 $5 F A M_{\text {in }}$ と Yokokawa 図 3 一貫性評定例 3: 利用 図 $6 F A M_{k n}$ と GlasgowNorms異なる (表 1)。例えば、 $G \& L$ は見聞きしたり使う程度を尋ねているのに対し、GlasgowNorms は、なじみ (familiar)の程度、Yokokawa は見聞きする程度を尋ねている。 尋ね方によって、評定結果は異なってくると考えられる。そこで本調査では、 3 通りの尋ね方で評定を実施した。全ての評定者は、全ての語について、「どの程度見たり聞いたりするか $\left(F A M_{i n}\right)$ 「どの程度知っている・意味が分かるか $\left(F A M_{k n}\right)$ 「どの程度書いたり話したりできるか $\left.\left(F A M_{\text {out }}\right)\right.\rfloor$ という 3 つの観点で 7 段階評定を実施する。 なお、FAM in $Y$ Yokokawa と同じ観点である。 G\&L やGlasgowNorms と完全一致する観点はないが、あえて言うなら前者は $F A M_{\text {in }}, F A M_{\text {out }}$ の混合、後者は $F A M_{k n}$ に近いだろう。 ## 3 結果と分析 評定者ごとの結果とスクリーニング図 1-3 スクリーニングに用いた重複語の評定結果の例を示す。図 1-3には、重複語の重み付きカッパ係数 $\kappa$ だけでなく pearson の相関係数 $r$ も記載した。図 1,3 は評定結果を利用、図 2 は除外した例である。図 1 の評定者は $\kappa$ も非常に高く、 $r$ も $0.784 \sim 0.812$ と強 い相関がある。一方、図 2 の評定者は、 $\kappa$ も規準以下で相関も弱い。図 3 の評定者は、 $r$ だけをみると相関は弱いが、 $\kappa は$ 基準値を超えている。 $r$ が低いのは、評定値が真ん中あたりに集まっている事が原因の一つと考えられる。 スクリーニングの方法と規準は色々考えられる。日本語の令和版単語親密度のクラウド調査 [2] では、 $r \geq 0.5$ を間値としている。ただし、令和版単語親密度調査では、重複語は全体の $5 \%$ であり本調査よりかなり多い。のべ 12,500 語のうち $5 \%$ 重複させるなら 595 語を重複させる必要があるが、本調査では 101 語のみ重複させた。重複語が比較的少ない場合、図 3 のように、一致度は高いが $r$ は高くないという場合があり得る。そのため本調査では、より一致度を重視して $\kappa$ を閾値として採用した。 本調査で事後スクリーニングを通過した人は、 42 人中 38 人 $(90.5 \%)$ だった。比較のために、 $r \geq 0.5$ を閾値として計算してみると通過率は $69.0 \%$ となる。 これは、日本語の令和版単語親密度 [2] のクラウド調査時の通過率 $(35.6 \%)$ よりはるかに高い。なお、実験室に評定者を集めて調査した平成版の単語親密度 [1] では通過率が $80 \%$ だった。本調査はオンライン調査で、かつ、12,500 語と評定語が多いにも関わ 表 2 各単語親密度データとの相関 いずれも $p<0.05$ らず、高い通過率となった。この理由として、オンライン説明会を実施するなどお互い顔の見える状態で依頼をしたことや、一般的なクラウド調査より高い謝金設定としたこと等が考えられる。以降の分析では、この 38 人の評定の平均を利用する。 評定軸同士の比較本調査結果のヒストグラムを図 4 に示す. ヒストグラムの形を比べると、 $F A M_{k n}$ はピークが 5.8 程度と最も高い。一方、FAM $M_{\text {out }}$ のピークは 5 程度で、形もよりなだらかである。 $F A M_{\text {in }} \sim F A M_{\text {out }}$ で差が大きい語は少ないが、例えば $F A M_{i n}$ と $F A M_{k n}$ で 1 以上差があったのは “policewoman”,"mountaintop” など 57 語だった。いずれも $F A M_{k n}$ の方が $F A M_{i n}$ よりも高く、あまり見聞きしない語でも分かる場合はあるが、よく見聞きする語が分からない場合は少ないことが読み取れる。 先行研究との比較表 2 に各先行研究との間の相関係数を示す。各先行研究が同じ語に対する調査ではないので必ずしも公平な比較ではないが、日本人で調査した Yokokawa とは強い相関があり、特に、同じ「見聞きする程度」を調査した $F A M_{i n}$ と最も強い相関が見られた。一方、共通の語の散布図 (図 5) からは、Yokokawa の方が值が低い傾向が見て取れる。これはYokokawa の調査では大学生の英語力を統制していないのに対し、本調査では TOEIC800 点以上と統制したためだと考えられる。 英語母語話者での調査と比較しても中程度〜強い相関が見られる。GlasgowNorms と $F A M_{k n}$ で共通する語の散布図を図 6 に、両者で差が大きい語を表 3 に示す. 図6からは、GlasgowNorms の方が若干高めな語は多いが、Yokokawa より対角線上付近の語が多い、つまり、数値が近い語が多い傾向が見て取れる。さらに表 3 から、 $F A M_{k n}$ の方が高い語には、“carp”や“mermaid” など日本でもカタカナでよく使われる語が多く、日本語の影響が見て取れた。一方、 $F A M_{k n}$ の方が低い語には、“duvet” や "plaster”のような身の回りのものや、“wee”のよう表 3 GlasgowNorms と $F A M_{k n}$ で差分が大きい語 な子どもであればよく使うであろう語が多く含まれていた。こうした違いは母語か第 2 言語かに拠るところが大きいと考えられる。 ## 4 まとめと今後の課題 本稿では, オンライン調査による信頼度の高い親密度評定方法を提案、日本語母語話者にとっての英単語親密度を調査・分析した。調査した語は異なりで 12,398 語と、英単語親密度調査としては過去最大規模である。評定は 42 人完了したが、最終的に事後スクリーニングを通過した 38 人分の評定值の平均を用いた。評定者は TOEIC800 点以上とした。さらに、構築した英単語親密度データを先行研究と比較し、特に英語母語話者のデータとの比較により、日本語の影響や母語かどうかの違いによる影響を示した。 今後は、構築した英単語親密度データを用いた英語の語彙数推定や、語彙数と読解力との関係調査にも取り組みたい。 ## 謝辞 この成果の一部は、国立研究開発法人新エネルギー・産業技術総合開発機構 (NEDO) の委託業務の結果得られたものです。 ## 参考文献 [1]天野成昭 and 近藤公久. 日本語の語彙特性. 三省堂, 東京, 1999. [2]藤田早苗 and 小林哲生. 単語親密度の再調査と過去のデータとの比較. In 言語処理学会第 26 回年次大会発表論文集 (NLP-2020), number F4-4, 2020. [3]若松千裕, 石合純夫, 林圭輔, and 相原伸子. 語義聾症例における文字言語の理解過程 -通常見かけない文字表記語による検討-. 高次脳機能研究 (旧失語症研究), 36(1):9-19, 2016. [4]水野りか and 松井孝雄. 文字の漢字表記語の意味処理に対する構成漢字の影響と処理順序. 心理学研究, 90(2):201-206, 2019. [5]高橋三郎. 学齢期の吃音児における語の長さが吃音頻度に及ぼす影響. 音声言語医学, 59(2):188-193, 2018. [6]藤田早苗, 菅原真悟, 小林哲生, 新井庭子, 山田武士, and 新井紀子. 小学生から高校生に対する語彙数調査と単語親密度との関係分析. In 言語処理学会第 26 回年次大会発表論文集 (NLP-2020), number E1-3, 2020. [7]藤田早苗, 服部正嗣, 小林哲生, and 納谷太. 日本人英語初学者の語彙数推定方法の検討. In 第 34 回人工知能学会全国大会 (JSAI-2020), 2020. [8]Graham G. Scott, Anne Keitel, Marc Becirspahic, Bo Yao, and Sara C. Sereno. The glasgow norms: Ratings of 5,500 words on nine scales. Behavior Research Methods, 51:1258-1270, 2019. [9]Hans Stadthagen-Gonzalez and Colin J. Davis. The bristol norms for age of acquisition, imageability, and familiarity. Behavior Research Methods, 38:598-605, 2006. [10]K. J. Gilhooly and R. H. Logie. Age-of-acquisition, imagery, concreteness, familiarity, and ambiguity measures for 1,944 words. Behavior Research Methods \& Instrumentation, 12:395-427, 1980. [11]横川博一. 日本人英語学習者の英単語親密度文字編. くろしお出版, 2006 . [12]Yo Ehara, Nobuyuki Shimizu, Takashi Ninomiya, and Hiroshi Nakagawa. Personalized Reading Support for Second-Language Web Documents by Collective Intelligence. In the 2010 International Conference on Intelligent User Interfaces (IUI-2010), pages 51-60, 2010. [13]大学英語教育学会基本語改訂特別委員会, editor.大学英語教育学会基本語リスト新 JACET8000.桐原書店, 2016. ## 付録 (Appendix) 図 7 調査画面
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D1-4.pdf
# 状況別感情極性日本語辞書の作成とその活用 高田 篤志 1 狩野芳伸 ${ }^{2}$ 山崎俊彦 1 1 東京大学大学院 2 静岡大学 a_takada@hal.t.u-tokyo.ac.jp kano@inf.shizuoka.ac.jp yamasaki@cvm.t.u-tokyo.ac.jp ## 概要 言葉の意味や文脈の多様性に対応できることを目指して、20の異なる状況に対してラベル付けされた日本語の感情極性辞書 Japanese Situation-dependent Sentiment Polarity Dictionary (SiSP) を作成した。この辞書は、25,520 の日本語単語からなり、各単語の各状況に対してクラウドワーカーによって 10 件ずつ極性の投票を行ったものである。このSiSPを用いて、辞書内の各単語の極性、および文脈を考慮した文中の辞書単語の極性を予測した。いずれの実験でも、状況を考慮しないべースライン辞書に比べて、安定して感情極性の予測を行えることを確認した。 ## 1 初めに 顔画像や音声、文章などからそこに込められた人間の感情を理解することは学術的・産業的価値が高く、これまでも様々な試みがなされてきた。テキストから感情を解析するためには、一般的に感情極性辞書が用いられる。既存の感情極性辞書の多くは、単語に対してポジティブかネガティブとラベル付けされているものか、いくつかのクラスカテゴリに単語を分類しているものが多い。しかし、単語は文脈や状況によって様々な意味を持ち、異なる印象を与えることがある。例えば「速い」という言葉は、「レーシングカーが速い」という文脈ではポジティブな意味となる。一方、友達と歩いていて、その友達の歩くスピードが「速い」という場合ネガティブな意味となる。現在の感情極性辞書では速いという単語のみに注目して単一のラベルを付けているため、このような多様な状況や意味に対応することができない。またクラスラベルをアノテーションした感情極性辞書ではカテゴリ内の単語の感情極性の強弱は無視されている。 そこで本研究では、20 種類の状況それぞれに対して感情極性値ラベルを付与した Situation-dependent Sentiment Polarity Dictionary (SiSP) を作成した。この SiSP は我々の知る限り状況別に感情極性値をラベリングした最初の感情極性辞書である。SiSP は後日オープンソースで公開する予定である。本論文では SiSP の概要、及び SiSP を用いて行った単語単位での極性予測と文脈を加味した極性予測の実験結果を示す。 ## 2 関連研究 ## 2.1 感情極性辞書 感情極性辞書の多くは、ポジティブかネガティブの軸でラベル付けされた単語のリストである。 ポジティブ、ネガティブ問わず感情極性ラベルは主観的なラベルであるため、人の手でラベルを付けられることが多い。Linguistic Inquiry and Word Count (LIWC) [1] は 6,000 以上の単語を 125 のカテゴリに分類した辞書である。Choudhury ら [2] はこの辞書を用いて、ツイートからうつ病の発症を予測した。The Affective Norms for English Words (ANEW) lexicon [3] は Valence-Arousal-Dominance (VAD) モデルに基づいて Valence, Arousal, Dominance のそれぞれについて 1 から 9 までのラベルを付けた 1,024 個の英単語からなる辞書である。 SentiWordNet [4, 5] は WordNet [6] を拡張したものである。各単語についてポジティブとネガティブ及びニュートラルについて 0.0 から 1.0 の值でラベル付けする。ポジティブ、ネガティブ、ニュートラルの各カテゴリのラベルの値の合計が 1 になるように正規化されている。SentiWordNet の尔点としては多くの単語がニュートラルに分類されており、明らかにノイズと見なせるラベルが多いことが挙げられる。本研究で作成した SiSP は 20 種類の状況に対し ラル (ポジティブでもネガティブでもないがその状況でその単語を使うことはある)、関係ない(その状 況についてその単語を使うことがない)、意味がわからないの各ラベルが 0 から 1 までの数値で表現されている。また一つの単語の一つの状況についてラベルの合計值が 1 となるように正規化されている。 ## 2.2 固有表現認識 Named Entity Recognition (NER) は文中に含まれる固有表現を抽出するタスクである。文中の固有表現 (Named Entity)を抽出し、人名、組織名、地名などの固有名詞と、日付、時間表現、数量、金額などの事前に定義した表現に分類する。NER で頻用される IOB フォーマットでは、固有表現の先頭トークンには B、非先頭トークンにはIタグを付与し、またどの表現にも属さないトークンには $\mathrm{O}$ と割り振る。例えば、'Mark Watney visited Mars' という文について、人のタグを'Person', 場所のタグを'Location' とすると Mark は B-Person、Watney は I-Person、visited はどのトークンにも属さないので O、Mars は B-Location となる。タスクによっては地名を都市、州、国などの細かい場所として分類するものや人名について政治家や芸能人などのサブカテゴリーを設定するものもある。代表的なデータセットとして CoNLL2002 と CoNLL2003 [7] が挙げられる。これらのデータセットでは、スペイン語、オランダ語、英語、ドイツ語の新聞記事からなる文に、4 種類のタグ (人物、組織、場所、その他すべての種類の実体)を付与している。他にもさまざまな言語のデータセットが公開されている $[8,9,10,11]$ 。 ## 3 SiSP の構築 既存の感情極性辞書では、単語が使用される状況を反映することができていない。そこで、本研究では 20 種類の状況を設定した新しい感情極性辞書を作成した。設定した状況は以下の 20 種類の状況は以下の 20 種類である: 経済、コミュニケーション、子育て、健康、生存意欲、職、対人関係、家族、緊張、精神状態、仕事、外出、家庭、忙しさ、気力、睡眠、食欲、好奇心、身体的状態、恋愛。これら 20 の状況は、Social Network Servises (SNS) 等において個人的・社会的な感情や精神状態を分析することを念頭に設定した。今後、必要に応じて状況の多様性を増やすことは可能である。 辞書に含まれる単語は Takamura ら [12] と Kobayashi ら [13] の辞書から 25,520 語 (それぞれの辞書から 14,400 語と 11,120 語)を使用した。ラべ ルの選択肢はポジティブ、ネガティブ、ニュートラル(ポジティブでもネガティブでもないがその状況でその単語を使うことはある)、関係ない (その状況についてその単語を使うことがない)、意味がわからないの 5 通りを設定した。 5 つ目の「意味がわからない」という選択肢は、予備実験において意味が難解な単語をワーカーに示したときいい加減に選択する傾向が見られたため、それを防ぐ目的で設定した。 アノテーションは Yahoo! クラウドソーシングサービスを利用し、10 人に各単語、各状況のラベル付けを依頼した。辞書の品質を保証するために 2 種類のチェック問題を設定し、そのチェック問題に対して正しく回答できた参加者の回答のみを採用した。チェック問題を通過した参加者は参加者全体の 40\%であった。SiSP のラベルは、20 の状況に対して 10 人が投票したものである。したがって、ラべルは各単語が各状況に対して肯定的か否定的かというバイナリ値を示すものではなく、5つの選択肢への投票率となっている。 表 2 は、SiSP の中で状況によってラベルが異なる単語の例をいくつか示している。「干渉」という単語は、恋愛の状況において (Positive, Negative $)=(0.1$, $0.6)$ であるのに対し、精神状態では $(0.5,0.2)$ になっている。「完売」は経済では Positive $=0.8$ であるが、外出では Positive $=0.1$ となる。「敵意」は人間関係では Negative $=0.9$ だが、子育てでは Negative $=0.3$ に変化している。 ## 4 実験 作成した辞書を用いて、単語の極性予測を行った。本研究では 2 種類の設定で実験を行った。 1 つ目の実験は、個々の単語の極性を独立に予測することである。2つ目の実験は、短文に含まれる単語の極性を文脈を考慮して予測することである。なお、本稿ではぺージ制限により精神状態についてのみ結果を示す。状況を考慮しないべースラインとして、今回用意した 20 個の状況に対する極性ラベルを加算した上で正規化を行い、5つのラベルの合計値が 1 になるようにした辞書を作成した。 本実験では、ニュートラル、関係ない、意味がわからないのラベルを統一して Others ラベルとして扱う。すなわち、ポジティブ、ネガティブ、Others の 3 クラス問題とし、最もラベル値 (投票数) が大きいものを分類の正解クラスとして扱う。学習データに 表 1 SiSP の諸元 表 2 SiSP の例 は精神状態についてポジティブの単語が 1,118 個、 ネガティブの単語が 3,364 個、Others が 9,624 個含まれている。 ## 4.1 単語単体の極性予測 辞書に含まれる単語を学習データとテストデー タに分割した。辞書の単語をべクトル化するために word2vec [14]を使用した。word2vec の事前学習モデルには鈴木らの [15] 事前学習した 300 次元のモデルを使用した。このべクトルを入力としてサポートベクターマシン (SVM) を用いて単語の極性分類を行った。 分類結果を表 3 左に記す。ポジティブ、ネガティブラベルの予測はベースラインに比べて大きく改善が見られる。Others の予測精度は下がっているが、 これはポジティブとネガティブの予測精度が上がったことによる相対的な変化であると考えている。ポジティブについての precision と recall の結果は著しく低いものになっている。これは作成したデータセットについてポジティブのデータが少ないためであるからと考えられる。またべースラインについても同様にポジティブに分類されたものはなくほとんど Others に分類されている。 ## 4.2 文章中の単語についての極性予測 次に、文脈情報を考慮した場合の感情極性予測実験を行った。学習・テストデータに twitter APIを用 いて集めたツイートを用いた。未知の単語の極性を予測する設定にするために、テストデータには収集した全ツイートの中で 1 回だけ現れる SiSP 単語を含め、残りを学習データとして用いこの SiSP 単語の極性を推測させ評価する。一回としたのは、出現頻度の高い SiSP 単語を訓練データに回すことで十分な学習データ量を確保するためである。具体的には、Twitter API を用いて 20,530 件のツイートを収集し、SiSP に登録されている単語を 1 つ以上含むツイートを入力データとして用いた。得られたツイー ト文を形態素解析し、各単語に極性ラベルを付与した。ツイートには SiSP 単語が含まれることのみで、 その他の単語がなんであるかの情報が付与されていないが、SiSP 登録単語以外は Others として扱った。 モデルとしては、BERT [16] の日本語訓練モデルを使用した。結果は 3 の右側に記されている.ベースラインと比較すると、ポジティブとネガティブともに precision, recall, F1 スコアは精神状態の方が優れた值を示している。また表 3 左と比較すると文章の文脈情報がモデルの極性予測に役立つことが分かる。 ## 5 考察 単語のみでの極性分析については、Others のラベルを持つ単語が非常に多い (ポジティブ: 1,118 , ネガティブ:3,364, Others: 9624) であることが精度の低下の原因であると考えられる。そこで、ポジティブ、 表 4 「精神状態」についての単語の感情極性予測におけるオーバーサンプリングとアンダーサンプリングの効果。 ネガティブのラベルを持つ単語の数が Others ラベルを持つ単語と同じになるように、オーバーサンプリングとアンダーサンプリングを行った。word2vec におけるオーバーサンプリングはポジティブとネガティブのデータについて Others のデータと同数になるまで繰り返した。文中の単語の極性予測のアンダーサンプリングは Others ラベルの単語のみで構成される文を除外することで行った。 オーバーサンプリングの結果を表 4 左に示す。表 3 のオーバーサンプリング前の結果を比較するとオーバーサンプリングが precision, recall, F1 スコアの性能改善に大きく貢献していることが分かる。特にポジティブラベルについての改善が著しい (+0.418 ポイント)。ネガティブについて、精神状態のオーバーサンプリングの precision が全ての設定の中で最も優れていた。 アンダーサンプリングの結果を表 4 右に示す。表 3 の結果と比較すると、ポジティブ、ネガティブ共にF1 スコアが向上していることが分かる。またネガティブについての precision、ポジティブについての recall も改善されている。しかし、文脈を考慮した単語のアンダーサンプリングは、単語のみのオーバーサンプリングほど大きな効果は得られない。これは、学習データから Others 文のみを除外したため、正負の単語のバランスがとれていないためと考えられる。 モデルが文脈を考慮して感情極性をしていることを示すため、対照実験として単語単位でテストデータを BERT に入力した。その結果を表 5 に示表 5 BERT にて文脈を考慮しない場合の「精神状態」についての単語の感情極性予測。 す。表 4 右と比べると一様に性能が下がっており、我々のモデルは文脈を感情極性予測のヒントにしていることが伺える。 ## 6 まとめ 本研究では、20 種類の状況を考慮した新しい感情極性辞書である Situation-dependent Sentiment Polarity Dictionary (SiSP) を構築した。単語単体での極性の予測では、特にネガティブの precision, recall, F1 スコアがベースラインより大幅に向上する結果を得た。 さらに、学習データセットをオーバーサンプリングすることで、予測性能が向上した。また、ツイートを学習データとした未知語の極性予測においても、 ベースラインの手法と比較して状況別の予測が優れた結果を示した。また、ツイート単位と単語単位の比較から、入力データの文脈情報も感情極性を推論する上で重要であることが示された。 本辞書は、20の状況を持つオープンソースの感情極性辞書としては我々の知る限り世界初の試みである。今後は、この辞書を他言語に拡張することを考えている。 ## 謝辞 本研究の一部は JST, CREST JPMJCR19F4 および東京大学大学院情報理工学系研究科の IXT プロジェクトの支援を受けて行われた。本論文におけるクラウドソーシングについては、東京大学大学院情報理工学系の倫理審査委員会から承認を得て行ったものである。 ## 参考文献 [1] James W Pennebaker, Martha E Francis, and Roger J Booth. Linguistic inquiry and word count: Liwc 2001. Mahway: Lawrence Erlbaum Associates, Vol. 71, No. 2001, p. 2001, 2001. [2] Munmun De Choudhury, Michael Gamon, Scott Counts, and Eric Horvitz. Predicting depression via social media. In Seventh International AAAI Conference on Weblogs and Social Media, 2013. [3] Margaret M Bradley and Peter J Lang. Affective norms for english words (anew): Instruction manual and affective ratings. Technical report, (Tech. Report C-1). Gainesville: University of Florida, Center for Research in Psychophysiology, 1999. [4] Andrea Esuli and Fabrizio Sebastiani. Sentiwordnet: A publicly available lexical resource for opinion mining. In Language Resources and Evaluation, 2006. [5] Stefano Baccianella, Andrea Esuli, and Fabrizio Sebastiani. Sentiwordnet 3.0: an enhanced lexical resource for sentiment analysis and opinion mining. In Language Resources and Evaluation, Vol. 10, pp. 2200-2204, 2010. [6] George A Miller. Wordnet: a lexical database for english. Communications of the ACM, Vol. 38, No. 11, pp. 39-41, 1995. [7] Erik F Sang and Fien De Meulder. Introduction to the conll2003 shared task: Language-independent named entity recognition. arXiv preprint cs/0306050, 2003. [8] Anil Kumar Singh. Named entity recognition for south and south east asian languages: taking stock. In The IJCNLP08 Workshop on Named Entity Recognition for South and South East Asian Languages, 2008. [9] Khaled Shaalan. A survey of arabic named entity recognition and classification. Computational Linguistics, Vol. 40, No. 2, pp. 469-510, 2014. [10] Darina Benikova, Chris Biemann, and Marc Reznicek. Nosta-d named entity annotation for german: Guidelines and dataset. In Language Resources and Evaluation, pp. 2524-2531, 2014. [11] Jakub Piskorski, Lidia Pivovarova, Jan S̆najder, Josef Steinberger, and Roman Yangarber. The first cross-lingual challenge on recognition, normalization, and matching of named entities in slavic languages. In The 6th Workshop on Balto-Slavic Natural Language Processing, pp. 7685, 2017. [12] Hiroya Takamura, Takashi Inui, and Manabu Okumura. Extracting semantic orientations of words using spin model. In The Association for Computational Linguis- tics, pp. 133-140, 2005. [13] Nozomi Kobayashi, Kentaro Inui, Yuji Matsumoto, and Kenji Tateishi. Collecting evaluative expressions for opinion extraction. Journal of Natural Language Processing, Vol. 12, No. 3, pp. 203-222, 2005. [14] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781, 2013. [15] 鈴木正敏, 松田耕史, 関根聡, 岡崎直観, 乾健太郎. Wikipedia 記事に対する拡張固有表現ラベルの多重付与. 言語処理学会第 22 回年次大会発表論文集, pp. 797-800, 2016. [16] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. ## A 参考情報 表 6: 全ての状況についての単語の極性予測精度
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D2-1.pdf
# better off 構文の定着過程に関する認知言語学的考察 大谷直輝 東京外国語大学 otani@tufs. ac. jp ## 概要 本稿では、人手でタグ付けした英語の歴史コーパス (COHA) の調查に基づき、I'd be better off $\{\mathrm{dead} / \mathrm{left}$ alone/going home $\}\lceil\{$ 死んだ/一人取り残された/家に帰った\}ほうがましだ」のような、形式面でも意味面でも不規則性が見られる better off 構文がどのような過程を経て英語に定着したかを検証するための仮説を提示する。特に、コーパスのデータを認知言語学の観点から解釈することで、well off(裕福な) の比較級であった、better off に、(1)意味の一般化、 (2)仮想状況の前景化、(3)付加句の補語化という 3 つの変化が起こった結果、better off 構文が誕生したと主張する。本研究が提示する仮説は、言語使用から生じる知識のありようを実証的に考察する学際的な研究において、自然言語処理の観点から検証される。 ## 1 はじめに 現代英語には、(1)のように、形容詞 better off $の$ 叙述用法に非時間的関係 (atemporal relation) [1]を表す様々な要素が後続し、全体が「〜したほうがましだ」 という意味を表す用法が広範に観察される。 (1) (a) She is better off $\{$ with/without $\}$ me. (b) I'd be better off at home with all those kids! (c) Maybe I'd be better off in jail. (d) He is better off $\{$ buying it/learning it $\}$. (e) I'd be better off \{left alone/gone from here $\}$. (f) I'd be better off $\{$ dead/alone $\}$. (1)では、better off の後に、関係を表す様々な要素 (前置詞句、現在分詞、過去分詞、形容詞、等)が出現し、主語が望む仮想的な状態を表す。この用法には、 (1d)(1e)(1f)のように、better off に分詞句や形容詞のような不規則的な要素が後続するものも含まれる。本稿では、歴史的なデータ (Corpus of Historical American English: COHA)[2]に対して認知言語学の観点から考察することで、better off に補語句が後続する用法 (以下、better off 構文) がどのように出現・定着したかの過程を示す仮説を提示する。 ## 2 better off 構文の特徴 構文文法では、「形式と意味の対からなる構造」 である構文 (Constructions) の体系的なネットワークが人間の言語知識の中枢を占めると考える $[3,4]$ 。構文は伝統的には形式や意味に不規則性が見られる構造と定義されてきたが、近年、十分な頻度で使用される形式と意味の対も構文として記憶されると主張されている[5]。ある構造を構文と認定するための具体的な基準として以下の四点が示されている[6]。 (2) (a) 形式面に不規則性が見られる。 (b) 意味面に不規則性が見られる。 (c)表現に独自の制約が見られる。 (d) コロケーションに選好性が見られる。 以下、[7, 8]の文献に基づき、(2)の基準を用いて、 better off の本用法を構文とみなせるかを検討する。 ## 2.1 第 1, 2 の基準 : 形式と意味の不規則性 better off には形式面と意味面で不規則性が見られる。まず、形式的には、形容詞 better off に前置詞句、現在分詞、過去分詞、to 不定詞、形容詞など、補語として解釈される非時間的関係を表す様々な要素 (XP 句と呼ぶ)が後続する。XP 句は従来の品詞論では分類できないカテゴリーを構成する。また、XP 句には、(1d)(1e)(1f)の形容詞や分詞句のように、形容詞には後続しない不規則的な要素が現れるものも見られる。次に、意味的な不規則性については、第一に、XP 句は、(現状よりもましな)主語の仮想的な状態を表す。第二に、XP 句が表す事態は必ずしも一般的に好ましいわけではないため、語用論的な誇張や皮肉が生じやすい。第三に、better off 構文は「〜 したほうがましだ」という非構成的な意味を持ち、全体が非認識モダリティと類似した機能を持つ。 ## 2.2 第 3 の基準:表現独自の制約 語源的に better off は形容詞 well off(裕福な)の比較級であり、他の形容詞と同様に、限定用法(the better off person)と叙述用法 (The person is better off) が確認できる。一方、better off 構文は通常、叙述用法のみで用いられ、ごく一部の高頻度で用いられるイディオム的な例外以外は、限定用法で用いられることはない(the 'better off dead' man)。 ## 2.3 第 4 の基準 : コロケーションの選好性 better off 構文には共起する要素に選好性が見られる。 the British National Corpus (BNC) [9]における better off の叙述用法の全 823 例の調査では、補語句を取る better off 構文が 545 例 (I'd be better off \{dead, left alone, buying it, without you\}など)、補語句を取らない例が 278 例 (He is better off now. / She is financially better off.など)見られた $[7,8]$ 。補語句有りと補語句無しのグループを比較すると、補語句有りのグルー プは補語句無しのグループとは対照的に、(i) 助動詞と、(ii) $1 / 2$ 人称主語との共起頻度が高く、better off 構文には選好するパターンがあることが分かった。 表 $11 / 2$ 人称主語と better off $の$ 叙述用法の共起 表 2 助動詞と better off $の$ 叙述用法の共起 また、 $1 / 2$ 人称主語や助動詞と better off 構文が共起する例を見たところ、提案や勧誘など、発話行為文で使われる傾向がある点が確認された。 (3) (a) You'd be much better off with someone else. (b) You may be better off going to the RSPCA. (c) I am better off without you. ## 3 Better off 構文の通時的な調査 本節では、COHA を用いて、どのように better off 構文が英語に定着したかを理論的に考察する。19 世紀の better off には(4)のような用法が見られ、現在のような補語句を取る用法はほとんど見られない。 (4) (a) He is now better off (than before). (b) He will be better off financially. 以下に、[10]における COHA の調査に、理論的な考察を加えながら、意味的にも文法的にも特異的な better off 構文が英語に定着した過程を考察する。 ## 3.1 データと方法論 COHA は 1810-2009 年のアメリカ英語約 4 億語からなる通時コーパスである。本研究では、COHAから better off の全例 (2642 例) を抽出し、その中から、手作業で叙述用法の better off を抽出 (2527 例) する。その後、表 3 の変数を各例にコーディングし、変数間の関係を定量的に処理することで、better off が使われる文脈の変化を明らかにする。 表 3 better off にコーディングする変数と値 \\ 図 1 better off に共起する要素の変化 ## 3.2 結果 調査の結果、better off には以下のような変化が観察された。第 1 に、better off と than との共起頻度は一貫して減少していた。第 2 に、better off と認識モダリティの助動詞との共起頻度は、1920 年以降、増化した。第 3 に、不規則的な補語句(形容詞と分詞句)が 1950 年以降、増え始めた。さらに、字義的な意味の割合に注目をすると、19 世紀の better off は多くが字義的な「裕福」という意味 (例 He is financially better off than her)であったが、2000 年代に入ると、 字義的な意味は $17 \%$ まで減少していた。 ## 3.3 考察と仮説の提示 最初に、better off $の$ 字義的用法と better off 構文の違いをまとめる。形式面では、better off 自体が文の補語として機能する字義的用法とは異なり、better off 構文では、better off に主語の状態を表す補語句が後続する。また、字義的用法の better off は、主語が比較対象より豊かな状態を表すが、better off 構文では、better off ではなく、その補語句が主語の仮想的な状態を指し、「その状態の方がましだ」という意味となる。本稿では、better off に後続する要素に再分析 (reanalysis) が起こり、better off 構文が定着するまでの過程を 4 段階に分けて示す仮説を提示する。 (5) better off 構文が定着するまでの 4 段階 第一段階 : 字義的な「裕福な」の意味 $\downarrow$ 虑味の一般化 第二段階:「より良い」という意味 $\downarrow$ 仮想状況の前景化・比較対象の背景化 第三段階:「一定の条件でより良い」 $\downarrow$ 仮想状況を表す要素の補語化 第四段階:「〜の方がましだ」(構文誕生)本稿では、better off に、(i) 意味の一般化、(ii) 仮想状況(=セッティング1))の前景化、(iii) セッテイングの補語化、が起こることで、他に類例がない、主語の仮想的な状態を表す補語句を持つ better off 構文が誕生したと考える。 ## 3.3.1 第一段階 : 字義的な意味 第一段階は、better off が well off $の$ 比較級として 「より裕福な」という意味を表す段階である。主語は比較対象より、経済的に裕福な状態にある。 1) セッティングとは事態が生じる状況と定義される。[11] (6) (a) I am now better off than before. (b) John is better off now. (c) He is financially better off than me. の人物の状態が比較され、主語が than 句によって明示的に示すことができる比較対象より裕福な状態であることを表す。 ## 3.3.2 第二段階: 意味の一般化 第二段階は、字義的な「裕福な」から「より良い」 へ、意味の一般化が起こる段階である。 (7) (a) You are better off at home. (b) Well, I think he couldn't come. I am better off with you. And perhaps I can help, too. (7)の各例では、二つの状態が比べられ、主語の状態が比較対象に比べて「より良い」ことが示される。 ここでは、better off に後続する at home や with you のような前置詞句が、より良い状態となる状況(つまり、セッティング)を表している。例えば、(7a)では「家にいる」、(7b)では「あなたと一緒にいる」という状況において、主語は「より良い」状態となる。 ## 3.3.3 第三段階 : 仮想状況の前景化 第三段階は、主語が置かれた仮想的な状況(セッティング)が前景化される段階である。better off では二つの状態が比較されるが、一度、「より良い」 という用法が定着をすると、現実のみじめな状態と比較をして、仮想世界ではより良い状態であることを示す用法が広く見られるようになる。 (8) (a) I would be better off if I worked harder. (b) You might be better off without her. (c) You would be better off at home.仮想世界における主語の状況が前景化されていることは、better off がモダリティを表す要素(助動詞、法副詞)や if 節との共起が増えたことから示唆される。また、仮想世界が前景化されると同時に、比較対象となる現状が背景化され、better off $の$ 比較の意味は薄れていく。このことは、than の出現頻度が継続して減っていることから示唆される。 ## 3.3.4 第四段階 : セッティングの補語化 第四段階は、再分析が起こり、文の付加句 (adjunct phrase)として主語がより良い状態となる仮想的なセッティングを表していた要素が、主語の仮想的な 状態を表すようになる段階である。この段階では、 better off と後続する要素(=付加句)の結びつきが強くなり、[better off 補語句]として再分析されることで、better off 構文が出現すると考えられる。補助記号を用いると再分析は(9b)と(9c)のように表せる。 (9) (a) I'd be better off without you. (b) I'd be [better off $]_{\text {complement }}[\text { without you }]_{\text {adjunct }}$ (c) I'd be [[better off [without you $\left.]_{\text {complement }}\right]_{\text {complement }}$ (9b)は付加句 (adjunct)の without you を、(9c)は補語句 (complement) の without you を表記したものである。ただし、 better off に後続する要素が補語句であるか付加句であるかは排他的なものではなく、付加句の補語句としての再分析は段階的に進むものである。 この再分析を引き起こす要因として考えられるのが、文脈における語用論的な意味の語彙的意味への定着である[12]。つまり、(8b)の You might be better off without herを例とすると「彼女がいない状態が(いるよりも)より良い」という意味は、文脈内で「彼女がいない方がまし」な状況を表すことがあるが、同様の文脈で繰り返し用いられることにより、文脈から生じる「〜の方がましだ」という語用論的意味は better off XP という句が持つ意味に再解釈される。同時に、better off と後続する要素の結びつきが強くなり、文法面でも再分析が起こったと考えられる。 この再分析は、 better off に助動詞との共起が増え、 than との共起頻度が低くなった 1900 年頃にはすでに進行していたと考えられる。一方、この再分析の定着をコーパス内で明確な形として捉えられるのは、 better off 後の補語句の中に、不規則的な補語句が増え始める 1950 年頃である。すなわち再分析によって、better off に非時間的な要素を表す補語句が後続するようになった結果、標準的な文法では不規則的とみなされる(10)のような、形容詞、分詞句が補語句の位置に現れる用法が増え始めたと考えられる。 (10) I'd be better off \{dead, left alone, going home\} ## 3.4 better off 構文に関するまとめ COHA の調査結果に基づいて、better off 構文が誕生した経路をまとめると以下のようになる。 (11) 字義的な better off に意味の一般化が起こり「より良い」という意味を表す中で、仮想的な状況の前景化と比較対象の背景化が起こり、better off に「(仮想的な状況で)より良い」という意味を表す用法が強くなる。次に、better off に再分析が起こり、付加句として機能していた仮想的な状況を表すセッティングが better off との結びつきを深め、better off の補語として再解釈されることで、better off 構文が誕生する。 ただし、better off における用法の変化は、 better off 全体ではなく、一部のみに起こるため、現代英語の better off には字義的な意味から better off 構文まで、意味の多層化 (layering) が見られる。[13] ## 4. 学際的な研究に向けて 本稿で提示した仮説は、COHA のデータに基づく一方で、一般的な言語変化に見られる傾向を重視して考案したものである。今後、仮説の妥当性については実証的な検証が必要である。以下に 3 点、今後の課題を挙げる。第一に、本稿では、認知的な自然さから、意味の一般化の後に、仮想世界の前景化が起こったと仮定した。ただ、COHA には 1810 年以降のデータしか含まれておらず、また、1800 年代はデ一夕数が少ないため、仮想世界の前景化と意味の一般化が起こった順序が異なる可能性も含め、さらに検証が必要である。また、一般的に文法化は複数の要素が相互に関連しあいながら同時に進行するものであるため、各変化の相互作用に関する考察も必要である。第二に、1900 年以前に現れる少数の不規則的な補語に関する説明が必要である。特に、言語使用域(register)ごとで、better off 構文の定着度の程度が異なる可能性や、高頻度の語彙化した要素 (she would be better off dead than alive $の$ dead than alive など)が与える影響について検討する必要がある。第三に、表 1 を見ると、1920 年頃から法助動詞が増えているように見えるが、この増加に質的な差異があるかどうかについて、さらに検証が必要である。 最後に、本稿で提示された仮説を実証的に検証する際の方法の 1 つとして、自然言語処理の技術の応用が考えられる。自然言語処理では、発話された言語データに基づいて、人間が持つ言語知識のありようを探るが、これは、「言語使用の中から繰り返し用いられるパターンが記憶され、類似性に基づいて抽象化されることで、語彙と文法を含めた言語知識が創発する」と考える用法基盤モデル[14,15]と理念を共有する。そのため、発話された言語データから表層レベルの類似性に基づいて教師なしで一般化されたクラスターは、人間が持つ言語知識の近似値として、本稿の仮説を実証するための収束証拠の 1 つとなる可能性がある。そのため、本稿の仮説は、[16] で自然言語処理の観点から検証を進めていく。 ## 謝辞 本研究は JSPS 科研費 19K00657 の助成を受けたものである。また永田亮氏(甲南大学)には、原稿全体にわたり詳細なコメントをいただいた。 ## 参考文献 [1] Ronald W. Langacker. Foundations of Cognitive Grammar I: Theoretical Prerequisites. Stanford University Press. 1987 [2] Mark Davies. Expanding horizons in historical linguistics with the 400-million word corpus of historical American English. Corpora, Vol. 7, No. 2, pp. 121-157, 2012. [3] Charles J. Fillmore, Paul Kay, and Mary C. O'Connor. Regularity and Idiomaticity in grammatical constructions: The case of let alone. Language 64: pp. 501—538, 1988. [4] Adele Goldberg. Constructions: A Construction Grammar Approach to Argument Structure. University of Chicago Press. 1995. [5] Adele Goldberg. Constructions at Work -The Nature of Generalization in Language. Oxford University Press. 2006. [6] Martin Hilpert. Construction Grammar and Its Application to English. Edinburgh University Press, Edinburgh, 2014/2019 [7] 大谷直輝. 英語の better off 構文について. 日本言語学会第 157 回大会予稿集, pp. 246-251, 2018. [8] Naoki Otani. A constructional analysis of the 'better off construction' in English. The 15th International Cognitive Linguistics Conference. 2019. [9] BNC Online: The British National Corpus Online (BNC World Edition). Shogakukan Corpus Network. URL: http://scnweb.jkn21.com/BNC2/ [10] Naoki Otani. The rise of modal meaning: The case of better off. The 11th International Conference on Construction Grammar. 2021. [11] Ronald W. Langacker. Cognitive Grammar: A Basic Introduction. Oxford University Press. 2008. [12] Paul J. Hopper and Elizabeth C. Traugott. Grammaticalization, 2nd ed. Cambridge: Cambridge University Press. 2003. [13] Paul J. Hopper. On some principles of grammaticization. Approaches to Grammaticalization, pp. 17-35. John Benjamins. 1991. [14] Ronald W. Langacker. A usage-based model. Topics in Cognitive Linguistics, pp. 127-161. John Benjamins. 1988. [15] Michael Barlow and Suzanne Kemmer. Usage-Based Models of Language. CSLI Publications. 2000. [16] 永田亮 - 大谷直輝 - 高村大也 -川崎義史. 言語処理的アプローチによる better off 構文の定着過程の説明. 言語処理学会第 28 回年次大会発表論文集.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D2-2.pdf
# 言語処理的アプローチによる better off 構文の定着過程の説明 永田亮 ${ }^{1}$ 大谷直輝 ${ }^{2}$ 高村大也 ${ }^{3}$ 川崎義史 ${ }^{4}$ 1 甲南大学 ${ }^{2}$ 東京外国語大学 3 産業技術総合研究所 ${ }^{4}$ 東京大学 nagata-better_off a hyogo-u.ac.jp. ## 概要 本稿では,言語処理的アプローチにより,better off の新しい用法が定着した経緯に関する仮説を検証する。具体的には,コーパス中の用例をクラスタリングすることで用法変化を定量化し,言語学的な観点から提示された仮説に一致するかどうかを検証する。その結果は,従来の仮説を大枠で支持するものの,派生するいくつかの可能性を示唆する.また,分類結果に基づき,関連した新たなリサーチクエッションを提示する. 更に,本アプローチの一般的な分析への拡張可能性についても示す. ## 1 はじめに 現代英語の better off は意味的にも統語的にも不規則性がある [1]. 語源的には, better off は well off(裕福な)の比較級とされ, 主に形容詞の叙述用法で使用される(以降,この用法を字義的用法と表記).次のような例が典型的である: (1) I am better off than before.(以前より裕福だ) 一方,better off の新しい用法は, (2) a. You're better off dead. (死んだ方がましだ) b. You're better off buying it. (買った方がましだ) のように, 意味的にも統語的にも字義的用法とは異なる。例文 (2)では,「裕福な」という意味は失われ,代わりに「〜した方がましだ」という意味が表される. 更に,統語の観点からは, better off は be 動詞の補語にもかかわらず,更にそれ自体の補語と解釈できる形容詞 (dead) や分詞 (buying it) をとるという特殊な構造を示す. 以降では,補語と解釈できる句を従えるこの用法を新用法と呼ぶことにする。 本稿の主題は,新用法がどのように定着したかを説明することにあるが,その仮説として次の四段階を経る大谷の仮説 [2]がある: (Stage 1) 字義的用法のみが存在する初期段階 (Stage 2) 字義的意味が一般化する段階 (Stage 3) 仮想状況を想定した用例が増加する段階 (Stage 4) 新用法が定着する段階 (Stage 1) では,例文 (1)のような経済的な状況のみを表す. (Stage 2)では,適用範囲が拡張され,経済的な状況以外に対しても「より良い」という意味を表すようになる。(Stage 3) では,現状とは異なる仮想的な状況を想定した用例が増える。例えば,You would be better off without her. (彼女がいないほうがよいだろう)のような例である。この例は,「彼女がいない」という仮想的な状況を想定している. 前段階で適用範囲が拡張されたことで,仮想的な状況との比較が増えたと考えられている.そのため,非現実的な状況を表す would などの助動詞や if 節との共起が多くなる。また,仮想的な状況や条件を表す語句(上の例文では without her)が better off に後続することも増える。(Stage 4)では, better off に後続する仮想的な状況や条件を表す語句が,その出現位置のため,主語の仮想的な状態を表す補語として再解釈される. その結果, 文法的に不適格な例文 (2) のような構造が許されるようになる. それに伴い,仮想的な状況が強調され,(仮想的な状況より)「〜 の方がましだ」という意味を表すようになる.以上のように,この仮説では,字義的用法から出発し,適用範囲が拡張され,更に仮想的な状況を想定した事例が増え,新用法が定着すると予想する。 本稿では,言語処理的なアプローチで,この仮説を検証する。具体的には,コーパスから得られる情報のみに基いて better off の事例をクラスタリングし, 用法変化(年代と各用法の頻度)の図として表す. その図において仮説の各段階が観測されるかを検証する. 本稿の成果は次の 3 点に要約される. 第一に,検証結果は大谷の仮説に大枠従うものの,細かい点で別の可能性があることを示す. 第二に,結果の詳細な分析により, 新たな仮説とりサーチクエッションを提示する. 第三に,以上の結果を踏まえつつ,今回のアプローチに基いた,より一般的な言語分析の可能性を示す. ## 2 分析方法 分析の基本はクラスタリング結果を用法変化のグラフとして表すことにある。横軸と縦軸をそれぞれ年代と各クラスタ内の事例数としたグラフである. 分析対象として, Corpus of Historical American English (COHA) [3] 中のノイズを除去した CCOHA [4] を用いる。1810〜2010 年代の文書を収録する約 4.7 億語からなる歴史コーパスである。各文書には,作成年とジャンルの情報が付与されている。 付録 A に示す前処理を施し, better off を含む 2,591 文を得た。 ## 2.1 事例のクラスタリング 事例のクラスタリングには, $k$-means++ [5]を用いる. $k$-means++を適用するためには,各事例をべクトルに変換する必要がある. 本研究では,言語モデルである BERT(bert-base-uncased)を用いた. 各事例を文単位で BERT に入力し, better off の出現位置に対応する最終層の隠れ状態を連結してべクトルとした。なお, bert-base-uncased を用いているため,大文字/小文字の区別はされない. クラスタ数 $k$ は,仮説が想定する四段階に合わせて4とした.また,次に述べる人手の分類に合わせ, $k=3$ としたクラスタリングも行った. なお, クラスタ番号の割り当てには任意性があるが,年代と頻度から決定した. すなわち, 出現年代が古い順に 1 から番号を割り当てた. 同じ年代で同時に出現するクラスタについては, 頻度が高い方に若い番号を割り当てた. 以降では, 表記の煩雑さを避けるため, 各事例に割り当てられるクラスタ番号をクラスと表記することとする (クラスタそのものに言及するときはクラスタと表記する).これに合わせて,人手の分類結果もクラスと表記する。 ## 2.2 人手による分類 比較のために,人手でも 2,591 事例を分類した文献 [2] を参考に, 次の 3 クラスに分類した。なお,判断に迷う事例および形容詞の叙述用法以外の事例は,以降の分析では対象外とした(2,591 事例のうち 24 が該当した). (説明の都合上,この順で導入するが, )クラス 3 は新用法に対応する. 判断基準は, better off が形容詞 (例 : dead), 分詞 (例 : learning it), to-不定詞句 (例:to stay here)を従える事例とした。この条件を満たす事例は全てクラス 3 とした。 クラス 2 は,仮想的な状況を想定した用法に対応する。文献 [1] に倣い,仮想的な状況を表す語句を伴う事例とした. 具体的には, would や may などの助動詞, if 節, probably, maybe などの法副詞を含む事例をこのクラスとした。 それ以外をクラス 1 とした. 仮説に対応させると, (Stage 1) と (Stage 2) に属する事例をまとめたクラスとなる。本来であれば,字義的用法と経済的意味以外に拡張された用法を区別して二つのクラスに分けるべきであるが,その判別は非常に困難であるため,文献 [2] 従い両者を一つにまとめた。 以上の基準に基づいて,2,591 事例に対して人手でクラスを割り当てた. 作業は,第一著者と第二著者で独立に行った. 各作業者が独立でシングルチェックを行った.この時点での両者の一致率は 95\%( $\kappa=0.92 )$ であった. その後,すり合わせを行い最終的なクラスを決定した. ## 3 結果 図 1 と図 2 にそれぞれ,クラスタリングノ人手の分類により得た用法変化の図を示す. 横軸が年代,縦軸が各クラスの事例数に対応する. 両図は非常に類似するといえる。二つのグラフ間の平均二乗誤差(の平方根)は 8.5 であった1)(人手の分類結果から得た図同士の平均誤差は 2.1)。また,クラスの一致率は $72 \%(\kappa=0.56)$ であった(人同士 $95 \%$ $(\kappa=0.92))$. 仮説の検証に先立ち,クラスタリングの結果が人手の分類に対応するかを確認した.各クラスタの重心 $^{2)}$ に最も近い事例 10 件を観察した。 クラスタ 3 については, 全 10 件とも補語に現在分詞を従える事例であった(一方,クラスタ 1 と 2 については,一件も該当しなかった),クラスタ 3 の全事例を確認したところ, $83 \%(=430 / 521)$ は, 形容詞,現在分詞,to-不定詞のいずれかを従える用例であった.したがって,クラスタ 3 は新用法に(ほぼ)対応するといえる. クラスタ 2 についても人の分類基準に対応することが確認できた. 重心最近傍 10 件中 9 件は, would などの助動詞を伴う事例であった. 残り 1 つは, "He believes they are better off here." というものであった. 従属節の内容は実際に生じた事象でなく, 主語が想定する事象であるので,この事例も仮想的な状  図1 クラスタリングを用いて得た用法変化の図 $(k=3)$. 況を表すと解釈することもできる。その他のクラスタ 2 の事例をランダムに 36 件サンプリングしたところ $70 \%$ は人手の分類基準を満たす事例であった. クラスタ 1 は,完全には一致しないが,人間の分類基準に準ずることを確認した. 重心最近傍の 10 件のうちクラス 2,3 の条件を満たすものはそれぞれ 0 件, 3 件であった. ただし,他の二つのクラスタに比較すると多様な事例を含んでおり, 別の解釈も存在する可能性もある. コーパスから得られる情報のみに基いた教師なし分類(クラスタリング)と人手の分類がよく一致することは興味深い. 単語の分布から見ても better off の三クラスは特徴的であることを示唆する. 話を本題に戻し,用法変化の図に基いて仮説の検証を行う. 図 1, 図 2 共に, 1960 年代頃より新用法であるクラス 3 が増加し始める. この時期以降が新用法が定着した(Stage 4)に対応する.その少し前の 1910~1950 年代には,クラス 2(仮想的な状況を表す語句を伴う用例)が増加傾向にある(参考のために,比率にした図を付録 B に示す).ただし,人手で作成した図 2 では,その増加はそれほど顕著ではない. クラス 3 の定着と並行してクラス 2 が増加しているようにも見える。一方で,2000 年代以降は若干であるが減少している点も興味深い. 図 3 に,クラスタ数を 4 にした場合の結果を示す.紙面の関係から根拠は付録 B に譲るが,各クラスタの解釈は次のとおりである.クラスタ 1 から順に, (1)than を伴う典型的な比較の意味が強い用法,(2) than 以外の語句(here など)が後続する用法,(3) 仮想的な状況を表す語句を伴う用法,(4) 新用法と解釈した. 図 3 から,1860 年代ごろまではクラス 1 の事例が主流であることがわかる((Stage 1) に対応). その後,クラス 1 は相対的に減少し,代わりにクラ 図 2 人手の分類結果から得た用法変化の図. ス 2 とクラス 3 が増加する((Stage 2〜3)に対応).新用法であるクラス 4 が定着する前の 1920~1950 年代に,クラス 3 が増加しているが顕著ではない. 以上の結果は,次のようにまとめられる.用法変化の図は,大谷の仮説を大枠で支持する.特に,字義的用法から仮想的な状況を表す語句を伴う用法,新用法に移行している傾向はどの図でも確認できる. 一方で,細かい点では仮説に必ずしも一致しない部分も見られる. 次節で,仮説との差異を考察する。 ## 4 考察 仮説では,仮想的な状況を想定する用法が増えたことにより,新しい意味と構造が生じたと予想する. 図 2 では,新用法の better off が生じたのは 1870 年代である。その後,新用法が少数使われる期間がしばらく続く(以降で何度か取り扱うため,この現象をトッピング現象 $\left.{ }^{3}\right)$ と呼ぶことにする). 図では, クラス 2 が増加した 1910〜1950 年代以前にトッピング現象として新用法は生じている. このことを考慮すると,1860 年代以前にクラス 2 が増加した(すなわち (Stage 3) が起こった) 可能性も否定できない. 残念ながら,今回用いた CCOHA では 1860 年代以前の better off の事例が少なく判断がつかない. また,大谷の仮説とは(Stage 3)と(Stage 4)の順序が逆になる説も考えられる。すなわち,何らかの別の要因で新用法が生じ,その結果,仮想的な状況を想定する用法が増えたという説である.実際,図 1~ 3 はそのように解釈もできることを前節で見た. 新用法が生じた別の要因として,ある個人また一部のグループが新用法を使い始めたということが  トッピングのように見えるためこのように名付けた. 図 3 クラスタリングを用いて得た用法変化の図 $(k=4)$. 考えられる. 各年代/ジャンルにおける新用法の出現頻度を求めてみると,1900 年代以前は全て文学作品で出現することが確認できた (付録 B の図 5 に頻度情報を示した)。1910 年代には,雑誌,ノンフィクションにも出現し, その後, 全てのジャンルに広がる. 事例数が少ないため,推測の域を出ないが作家のような創造的な文章を書く一部の人により新用法が作り出され,他者に広まった可能性もある。 更に,前節でみたように,2000 年代以降になると仮想的な状況を想定する用法が減少傾向になる. クラスタ数 4 の場合,クラス 3 では $62 \%$ の事例が助動詞を伴うが,クラス 4 になると $39 \%$ まで減少する (具体的な頻度は付録 B の表 1 に示した).この現象は,助動詞が担っていた仮想的な状況が better off に移行した語彙化 (lexicalization) の例として説明できる. すなわち,わざわざ助動詞でマーキングせずとも, better off だけで仮想的な状況を想起させられるようになったということである.この現象は,少なくとも,仮想的な意味を想定する用法が新用法に強い関りをもつことを示唆する。 以上のように,今回得られた結果は,仮説の精緻化や修正を促す多くの示唆を与える. 現段階では,大谷の仮説から派生した複数の説が考えられ,更なる調査が必要であると結論付けられる.特に,(1)仮想的な状況を想定する用法が増えて新用法が増えたのか,その逆であるのか,(2)そもそも新用法がいつどのように生じたのか,(3)なぜ新用法になると助動詞との共起が減るのか, というのは新たな疑問であり,今後の更なる研究が待たれる。 ## 5 一般の場合への拡張可能性 本節では,今回のアプローチがより一般的な言語の分析に拡張可能かを考察する. 大前提として,言語モデルの内部を直接観測することは困難であるの で,結果の解釈には常に注意が必要である。また,今回は解釈可能なクラスタが得られたが,他の現象に対しても同様のことが成り立つとは限らない. このように注意すべき点はあるものの,本アプローチは様々な言語分析に応用できる可能性がある. 本稿のように,仮説の検証と修正に用いることができる. また,何らかのアイデアを思いついた際に, 用法変化を可視化し, 研究をさらに進めるかどうかの意思決定にも利用できる. 人手の分析は有効な手段ではあるが,時間とコストがかかる.例えば, 今回の場合, 第一著者は, 2,519 事例の分類に 20 時間ほど費やした. クラスタリングの場合は十数秒である. この簡便さと即時性は大きな利点である. 別の有効な応用例として,3節で導入したトッピング現象の発見を取り上げる。トッピング現象は,特異点である可能性が高いが,(ある期間内で)低頻度である上に,いつ始まるかは未知であるため,人手で発見することは困難である。一方,今回のアプローチでは視覚的に効率よく発見できる. 少々作為的な例ではあるが,実例として,単語 appleを対象にしたところ 1930~1970 年代にトッピング現象が発見された (図は付録 C に示した). 1970 年代は Apple Computer Company が創業された時期であり,正に appleが新しい意味を獲得した瞬間である. 以上のように,言語処理的アプローチは,言語学における質的分析と組み合わせることで,実証性の高い方法論を提供することができる可能性がある.特に,表層情報のみに基づいた教師なし学習というアプローチは,実際の言語使用を基盤として言語体系を捉えようとする用法基盤モデル $[6,7]$ の考え方と親和性が高く,今後更なる発展が,言語学,言語処理の両面から期待される. ## 6 おわりに 本稿では,言語処理的なアプローチを用いて better off の新用法に関する仮説の検証を行った. その結果,従来の仮説を概ね支持するが,派生するいくつかの可能性があることを示した. また,(1)仮想的な状況を想定する用法が増えて新用法が増えたのか,その逆であるのか,(2)そもそも新用法がいつどのように生じたのか,(3)なせ新用法になると助動詞との共起が減るのか,という新たなリサーチクエッションも示した. 更に, 本アプローチの一般的な分析への拡張可能性も示した. ## 謝辞 本研究は JSPS 科研費 18K11456,19K00657 の助成を受けたものである. ## 参考文献 [1] 大谷直輝. 英語の better off 構文について. 日本言語学会第 157 回大会予稿集, pp. 246-251, 2018. [2] 大谷直輝. better off 構文の定着に関する認知言語学的考察. 言語処理学会第 28 回年次大会発表論文集, 2022. [3] Mark Davies. Expanding horizons in historical linguistics with the 400-million word corpus of historical American English. Corpora, Vol. 7, No. 2, pp. 121-157, 2012. [4] Reem Alatrash, Dominik Schlechtweg, Jonas Kuhn, and Sabine Schulte im Walde. CCOHA: Clean corpus of historical American English. In Proc. of the 12th Language Resources and Evaluation Conference, pp. 6958-6966, 2020. [5] David Arthur and Sergei Vassilvitskii. k-means++: the advantages of careful seeding. In Proc. of 18h Annual ACMSIAM Symposium on Discrete Algorithms, pp. 10271035, 2007. [6] Ronald W. Langacker. A Usage-based Model. Stanford University Press, Stanford, 1988. [7] Michael Barlow and Suzanne Kemmer. Usage-Based Models of Language. CSLI Publications, Stanford, 2000. 図 4 人手の分類結果から得た用法変化 (比率). ## A コーパスに対する前処理 今回の分析に合わせて,CCOHA に対して次のような前処理を行った。ノイズと思われる文書は除外した. 具体的には,「@@年.txt」(例:@@1525.txt) のように年とファイル名と思われる文字列を含む文書は分析対象外とする (この処理により, 全 140,743 文書から 140,665 文書へ減少)。また,文書中のタグ (<P></P>など)は除去した. この結果から, better offを含む文を抽出した. 文脈が短い事例 (better off $の$ 左右の単語数が 5 未満) は対象外とした. 更に,伏字が含まれている文も対象外とした ${ }^{4)}$. その結果,2,591 文を得た. 人手の分類の際に提示順の影響が出ないように,ランダムに並べ替えた。 ## B クラスタリング結果の詳細 図 4 に,人手での分類結果から得られた用法変化の図を示す。本文とは異なり,縦軸は各クラスの相対頻度である。 $k=4$ とした場合のクラスの解釈根拠は次の通りである。表 1 に,各クラスにおける than,助動詞 ${ }^{5)}$ ,新用法が出現した割合を示す. 表 1 によると,クラス 1 でのみ, than を伴う頻度が圧倒的に高い. これらの事例は, better off の典型例であるといえる。クラス 2 は,than の代わりに別の句 (at home, without it, now など)が後続する事例が増える.このことは,経済的な意味からより一般的な意味へ拡張されたことを示唆する。ただし,クラス 1 でも,経済的な意味以外でも使用されている事例も多数存在するので,大谷の仮説の (Stage 1) と(Stage 2)に完全 4) COHA および CCOHA では,著作権の制限により,一定の割合で文章の一部が伏字になっている. 5)ここでは,構文解析は行わず,単純に better off の右側/左側に, than/助動詞が出現するかを数えた. これは better off 構文は特殊であり,構文解析がうまくいかないことが多いことを考慮したためである.なお,ここでは助動詞を can, could, may, might, shall, should, will, would とした. 図 5 年代/ジャンル別の新用法頻度. 図 6 単語 apple におけるトッピング現象. に対応するわけではない. 更に,表 1 の助動詞の列に目を向けると,クラス 3 での出現頻度が相対的に高いことが分かる.興味深い点として,クラス 4 では助動詞の頻度がクラス 3 に比べて低くなっている; 両者の差は有意である(母比率の差の検定, $p<0.01$ ). この点については, 4 節で考察している. 図 5 に,各年代/ジャンルにおける新用法の出現頻度を示す. 新用法はフィクションから別のジャンルへ広がっていることが分かる。 ## C apple におけるトッピング現象 単語 apple に対してトッピング現象を観察してみる. 今回のアプローチを用いて用法変化を図示した $^{6)}$.ただし,クラスタ数は 2 とした. その結果は図 6に示す通りである。図 6より,1930~1990 年代にトッピング現象がみられる。 表 1 各クラスで than, 助動詞, 新用法が出現する割合. 6)bert-base-uncased を用いているため,大文字/小文字の情報は利用していないことに注意されたい。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D2-3.pdf
# 依存型意味論による singular which 疑問文の節埋め込みの分析 船蔵颯 京都大学人間・環境学研究科 funakura. hayate.28p@st.kyoto-u.ac.jp ## 概要 本稿では singular which 疑問文の節埋め込みに対して依存型意味論 (Dependent Type Semantics)[1,2] による分析を提案する。singular which 疑問文は Uniqueness Presupposition と呼ばれる前提を引き起こすことが知られている $[3,4]$ 。また、応答的述語 (responsive predicate)の一つである know の補文として singular which 疑問文が埋め込まれるときにも Uniqueness Presupposition は引き起こされる [5]。本稿の分析により、これらの現象が依存型意味論で捉えられることを示す。 ## 1 はじめに 平叙文と疑問文のどちらも補文として埋め込むことができる述語は応答的述語 (responsive predicate) と呼ばれる [6]。例えば know は応答的述語のひとつである。 (1) a. John knows Sue danced. b. John knows which student danced. さらに、応答的述語は平叙文を補文とする場合と、疑問文を補文とする場合とでそれぞれ異なる意味を持つわけではないことが (2)により示唆される [7]。 (2) Alice knows/realized/reported that Ann left and Bill knows/realized/reported which other girls left. ([7]より引用) 以上を背景として、応答的述語が平叙文と疑問文のいずれも補文としてとりうることを、複数の意味を仮定せずに捉えることは、形式意味論における課題の一つとなっている [7]。 上述の課題に関連する現象として、疑問文埋め込み構文 $x V s Q$. において引き起こされる前提の問題が挙げられる。singular which 疑問文 which $N \varphi$ ?は Exactly one $N \varphi$. を前提とする $[3,4]$ 。また、know が singular which 疑問文を補文として埋め込むときにも同様の前提が観察される [5]。 singular which 疑問文が引き起こすこのような前提は Uniqueness Presupposition と呼ばれ、疑問文埋め込みの意味論で取り組まれている現象の一つである $[4,5]^{1)}$ 。 Uniqueness Presupposition の例を (3) に示す。 (3) a. Which student danced? presupposes Exactly one student danced. b. John knows which student danced. presupposes Exactly one student danced. ここでいう singular which 疑問文は、疑問詞 which の直後に単数形の名詞が現れる形の疑問文である。 依存型意味論は Martin-Löf の依存型理論 [8] に基づく自然言語の証明論的意味論である。依存型意味論による先行の分析として、疑問文については [9]、応答的述語 know を含む叙実述語 (factive predicate)への平叙文埋め込みについては [10] で分析が行われているが、著者の知る限りでは singular which 疑問文とその埋め込みの分析は未着手の問題である。 本稿では singular which 疑問文に対して依存型意味論 (Dependent Type Semantics)[1, 2] による意味表示を提案する。また、提案した意味表示のもとで (3) の Uniqueness Presupposition が予測されることを示す (5.1 節)。さらに、平叙文を補文とする know の意味表示 [10] により、 singular which 疑問文を補文とする場合の Uniqueness Presupposition が予測されることを示す (5.2 節)。 ## 2 現象の記述 本章では、本稿で主な説明対象とする現象について述べる。そのうちの一つは singular which 疑問文の引き起こす Uniqueness Presupposition であり、もう一つは singular which 疑問文が know の補文となると 1)この前提を語用論的前提とみなす見方もある [5]。本稿では Uniqueness Presupposition を意味論的な前提とみなし、したがって意味表示に含めることとする。 きに尚も観察される Uniqueness Presupposition である。 ## 2.1 singular which 疑問文の前提 singular which 疑問文 which $N \varphi$ ?は Exactly one $N \varphi$. を前提とする $[3,4]$ 。 ?? Which student danced? presupposes Exactly one student danced. 1 章でも述べた通り、この前提は Uniqueness Presuppositionと呼ばれ、以下では UP と略記する。 ## 2.2 叙実述語への疑問文埋め込みによる 前提 上に述べた UP は叙実述語への疑問文埋め込み $x$ knows which $N \varphi$. においても観察される [5]。次に示すように、 $x$ knows which $N \varphi$. は Exactly one student danced. を含意する。 (4) John knows which student danced. entails Exactly one student danced. さらに (4) の後件 Exactly one student danced. は、否定、疑問、条件文の前件といった構文のもとでも含意される。すなわち次が成り立つ。 (5) a. John doesn't know which student danced. b. Does John know which student danced? c. If John knows which student danced, that's a problem. entails Exactly one student danced. このように否定、疑問、条件文の前件といった構文のもとでも含意が保たれる現象を投射 (projection) といい、投射が起こるような含意を特別に前提という [11]。以上から Exactly one $N \varphi$. は $x$ knows which $N \varphi$. の前提である。 平叙文の叙実述語への埋め込み構文においても同様の前提が観察される [12]。その例を次に示す。 (6) John knows that Sue danced. presupposes Sue danced. 以上から、 singular which 疑問詞の意味論には少なくとも以下のことが求められる。 1. singular which 疑問文の UPを予測する 2. know が平叙文を補文とする構文 $x$ knows [declarative]. と、疑問文を補文とする構文 $x$ knows [interrogative]. それぞれの前提を、knowに複数の意味を仮定せずして予測する ## 3 依存型意味論 本章では依存型意味論の理論的基礎である依存型理論の基本的なアイデアを述べ、その後に依存型意味論に固有の特徴の一つである未指定項による前提の取り扱いについて述べる。 ## 3.1 依存型理論 依存型理論は単純型理論に対してח型、 $\Sigma$ 型などを加えたものであり、大きな特徴の一つとして、型の中に項が現れることができる。また、それぞれの型の意味は推論規則によって与えられる。本稿で用いる型の推論規則は付録に掲載している。 カリー・ハワード対応により、型は命題、項は命題の証明と同一視できる。型と命題の対応関係の一部を表 1 に示す。ただし、 $\Sigma$ 型の表記として依存型意味論に固有の表記 $\left[\begin{array}{l}x: A \\ B(x)\end{array}\right]$ を用いている 2$)$ 。 表 1 型と命題の対応 依存型意味論では、自然言語の意味表示に依存型理論の型を用いる。また、統語論として典型的には組み合わせ範疇文法 (Combinatory Categorial Grammar)[13] が採用され、これは本稿でも同様である。 ## 3.2 未指定項 依存型意味論は上述のような性質を備える依存型理論に対して、前提・照応を表現する演算子として未指定項 $\varrho_{i}$ を導入する。 $i$ は自然数であり、複数の未指定項を区別するための添字である。依存型意味論においては、前提は文の意味表示に対する型検査を通して予測される。 2) 依存型意味論では $\Pi$ 型の表記として $(x: A) \rightarrow B(x)$ がしばしば用いられるが、本稿ではスペースの都合により $[8]$ の表記 $(\Pi x: A) B(x)$ を用いる。 図 1 John knows Sue danced. の意味表示導出 図 2 意味表示 (8) の型検査 例として、叙実述語が平叙文を補文とするときの前提 (7) の依存型意味論による予測 [10] について述べる。 (7) John knows Sue danced. presupposes Sue danced. 組み合わせ範疇文法 (CCG) による図 1 の導出により、(7) の前件 John knows Sue danced. には次の意味表示が与えられる。 (8) $\lambda c \cdot \mathbf{k n}(j o h n)(\mathbf{d}($ sue $))\left(@_{i c} c\right)$ 依存型意味論では、文、すなわち CCG カテゴリが $S$ である表現の意味表示は $\delta \rightarrow$ type という型を持つことが要求される。この条件は文の felicity condition と呼ばれる [1]。意味表示 (8) が felicity condition を満たすことの証明は図 2 の通りである。この証明では次の (9) が閉じていない葉として残っている。 (9) $@_{i}: \delta \rightarrow \mathbf{d}($ sue $)$ 付録の規則 (@F) より、(9)を証明するためには先行する談話の証明から $\mathbf{d}($ sue $)$ の証明、つまり、Sue danced. の証明を構成しなければならない。以上の手続きにより、前提推論 (7) が成り立つことが予測される。 ## 4 依存型意味論における singular which 疑問詞の分析 4.1 叙実述語への疑問文埋め込みによる前提 singular which 疑問詞に対して、次の意味表示を提案する。 (10) に現れる $\Theta_{i} c:: A$ という形の項は型アノテー ション (type annotation) と呼ばれ、項 $\varrho_{i} c$ の持つ型が A であるとあらかじめ指定する際に用いられる。 図 3 の導出木により、 singular which 疑問文 (11-a) の意味表示として (11-b) が得られる。 (11) a. Which student danced? b. $\quad \lambda c . \mathbf{d}\left(\pi_{1}\left(\varrho_{i} c::\left[\begin{array}{l}x: \text { Entity } \\ (\mathbf{s}(x) \times \mathbf{d}(x) \times \\ (\Pi y: \text { Entity })(\mathbf{s}(y) \times \mathbf{d}(y) \\ \rightarrow(y=\text { Entity } x)))\end{array}\right]\right)\right)$ この表示により、2 章で提示した事実が説明されることを次章にて示す。 ## 5 分析の経験的な検証 ## 5.1 singular which 疑問文の前提 本節では、 singular which 疑問文の UP が本稿の分析により予測されることを示す。 singular which 疑問文の意味表示 (11-b) が felicity condition を満たすことは図 4 により示される。この証明では次の (12) が閉じていない葉として残っている。 (12) $@_{i}: \delta \rightarrow\left[\begin{array}{l}x: \text { Entity } \\ (\Pi y: \text { Entity })(\mathbf{s}(y) \times \mathbf{d}(y) \rightarrow x=\text { Entity } y)\end{array}\right]$ 3.2 節での議論と同様に、(11-b) が felicity condition を満たすためには、先行する談話の証明から Exactly one student danced. の証明を構成しなければならない。以上のようにして、 singular which 疑問文の UP 図 3 Which student danced?の意味表示導出 図 4 意味表示 (11-b) の型検査 ## が予測される。 ## 5.2 叙実述語への疑問文埋め込みによる 前提 本節では次の前提推論が、本稿の提案により予測されることを示す。 (13) John knows which student danced. presupposes Exactly one student danced. (13) の前件 John knows which student danced. の意味表示として次の (14) が得られる。 (14) $\mathbf{k n}(j o h n)\left(\mathbf{d}\left(\pi_{1}\left(@_{i} c:: \begin{array}{l}x: E \text { : Entity } \\ (\mathbf{s}(x) \times \mathbf{d}(x) \times \\ (\Pi y: \text { Entity }(\mathbf{s}(y) \times \mathbf{d}(y) \\ \rightarrow(y=\text { Entity } x)))\end{array}\right]\right)\right)\left(@_{i} c\right)$平叙文埋め込みの場合 (図 2) と同様に、kn の第二引数は型 type を持たなければならない。したがって次が成り立つ必要がある。 (15) $\mathbf{d}\left(\pi_{1}\left(\varrho_{i} c::\left[\begin{array}{l}x: \text { Entity } \\ (\mathbf{s}(x) \times \mathbf{d}(x) \times \\ (\Pi y: \mathbf{E n t i t y})(\mathbf{s}(y) \times \mathbf{d}(y) \\ \rightarrow(y=\text { Entity } x)))\end{array}\right]\right)\right):$ type (15)を示す証明は図 4 の部分証明図であることから、この場合にも (12) が閉じていない前提として残る。したがって、(14)が felicity condition を満たすには、先行する談話の証明から Exactly one student danced. の証明を構成しなければならない。以上のようにして、knowへの疑問文埋め込みによる UP が予測される。 ## 6 おわりに 本稿では singular which 疑問文に対して依存型意味論による意味表示を提案した。本稿で与えた意味表示の下では、 singular which 疑問文の UPを自然に予測することができる。また、knowが singular which 疑問文を補文とする場合の UP を、平叙文を補文とする know と共通の意味表示の下で予測することができる。これは、平叙文と補文とする know と、疑問文を補文とする know が共通の意味を持つという仮説に沿うものである。 singular which 疑問文以外の which 疑問文へと分析を拡張することは今後の課題の一つである。本稿では応答的述語の一つである know に関係する前提現象を議論の対象としている。応答的述語の意味論へ向けたその他の課題として、例えば Predicates of relevance と呼ばれる述語 (care, matter など) の前提パターン [14] がある。これらの述語には、補文が平叙文であるときに引き起こされる前提が、補文が疑問文であるときには観察されないという特徴がある。 こうした述語を依存型意味論により捉えることも今後取り組むべき課題である。 ## 謝辞 本稿執筆を通して複数回にわたって議論していただいた京都大学人間・環境学研究科の櫻川貴司准教授に感謝いたします。 ## 参考文献 [1]Bekki Daisuke. Representing anaphora with dependent types. In International conference on logical aspects of computational linguistics, pp. 14-29. Springer, 2014. [2]Bekki Daisuke and Mineshima Koji. Context-passing and underspecification in dependent type semantics. In Modern perspectives in type-theoretical semantics, pp. 11-41. Springer, 2017. [3]Duží Marie and Číhalová Martina. Questions, answers, and presuppositions. Computación y Sistemas, Vol. 19, No. 4, pp. 647-659, 2015. [4]Dayal Veneeta. Locality in Wh-quantification: Questions and relative clauses in Hindi. Kluwer Academic Publishers, 1996. [5]Uegaki Wataru. The existential/uniqueness presupposition of wh-complements projects from the answers. Linguistics and Philosophy, Vol. 44, No. 4, pp. 911-951, 2021. [6]Lahiri Utpal. Questions and Answers in Embedded Contexts. Oxford University Press UK, 2001. [7]Uegaki Wataru. The semantics of question-embedding predicates. Language and Linguistics Compass, Vol. 13, No. 1, p. e12308, 2019. [8]Martin-Löf Per. Intuitionistic Type Theory. Bibliopolis, 1984. [9]Watanabe Kazuki, Mineshima Koji, and Bekki Daisuke. Questions in dependent type semantics. In Proceedings of the Sixth Workshop on Natural Language and Computer Science, pp. 23-33, Gothenburg, Sweden, May 2019. Association for Computational Linguistics. [10]Tanaka Ribeka, Mineshima Koji, and Bekki Daisuke. Factivity and presupposition in dependent type semantics. Journal of Language Modelling, Vol. 5, No. 2, p. 385-420, 2017. [11]The Cambridge Handbook of Formal Semantics. Cambridge Handbooks in Language and Linguistics. Cambridge University Press, 2016. [12]Wilson Deirdre. Presuppositions on factives. Linguistic Inquiry, Vol. 3, No. 3, p. 405-10, 1972. [13]Steedman Mark. The syntactic process, Vol. 24. MIT press Cambridge, MA, 2000. [14]Elliott Patrick D., Klinedinst Nathan, Sudo Yasutada, and Uegaki Wataru. Predicates of Relevance and Theories of Question Embedding. Journal of Semantics, Vol. 34, No. 3, pp. 547-554, 042017. ## 付録 本稿で用いた型および未指定項に関する推論規則の一部を掲載する。ただし $i, j, k$ は自然数であるとする。詳細は [1,2]を参照されたい。 $ \begin{aligned} & \text { (@F) } \frac{A: \text { type }_{i} \quad A \text { true }}{@_{j}: A} \quad(\text { ann }) \frac{t: A}{(t:: A): A} \\ & \overline{x: A}^{(k)} \quad \overline{x: A}{ }^{(k)} \\ & \text { (חF) } \frac{A: \text { type }_{i} \quad B(x): \text { type }_{j}}{(\Pi x: A) B(x): \text { type }_{\max (i, j)}} \quad \text { (חI) } \frac{A: \text { type }_{i} \quad B(x): M}{\lambda x \cdot M:(\Pi x: A) B(x)}\left(\text { (k) } \quad \text { (חE) } \frac{M:(\Pi x: A) B(x) \quad N: A}{M N: B(x)[N / x]}\right. \\ & \overline{x: A}^{(k)} \end{aligned} $ $ \begin{aligned} & (\Sigma E) \frac{M:\left[\begin{array}{l} x: A \\ B(x) \end{array}\right]}{\pi_{1}(M): A} \quad(\Sigma E) \frac{M:\left[\begin{array}{l} x: A \\ B(x) \end{array}\right]}{\pi_{2}(M): B(x)\left[\pi_{1}(M) / x\right]} \end{aligned} $
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D2-4.pdf
# ニューラルネットワークを用いた株価変動に関するコメントの生成 関野伊吹 佐々木稔 茨城大学院 理工学部 情報工学専攻 21nm734a@vc.ibaraki.ac.jp minoru.sasaki.01@vc.ibaraki.ac.jp ## 概要 近年,株価から市況コメントを生成する技術に注目が集まっている.しかし, 現状はアナリストが手作業でコメントを生成している. 本稿では,アナリストの作業負担を軽减するために,市況コメントに含まれる「株価変動に関するコメント」を生成する手法を提案する. 提案手法は、株価の数値変動とそれに対応する記事を学習してコメントを生成し, 用意された定型文に付与することで, 市況コメントを完成させるものである. 実験の結果、生成に用いた特徴量が有効であり,提案手法は市況コメントを生成できることを確認した。 ## 1 はじめに 近年,気象・スポーツ・医療・金融など,さまざまな分野でデータの活用が行われている。しかし, データが大規模であったり,複雑であったりすると、専門知識のない人が理解するのは難しく,専門家であってもデータを理解し, 重要な要素を抽出するのに時間がかかるという問題がある。このようなデー 夕を有効活用する方法のひとつとして,Data to Text 技術がある。これは,データの概要を人間が解釈しやすいようにテキストで表現する技術で,近年こういった需要が高まり注目されている。 今回の研究対象である、株価データから市況コメントを生成するタスクも,Data to Text 技術の一種である. 現在, 市況コメントの生成は, 社会情勢などを調査・分析する専門家であるアナリストが行っている。彼らは,株価発表後に株価を分析し,市況コメントを生成している. しかし,アナリストが株価から市況コメント全文を生成するには,多くの時間と労力が必要である.そこで,本稿では,アナリストの市況コメントを生成する労力軽減のために,市況コメントの一部を自動生成する手法を提案する.具体的には,株価数值の値動きとその変動幅に関する表現を手書きの記事から抽出し,機械学習により株価の値動きと表現を学習することで,コメントを生成する. 生成されたコメントをあらかじめ用意されたフォーマットに当てはめることで,市況コメン卜における定量的な分析結果を自動生成することが可能となる。その結果、アナリストは本業である要因分析などに集中できるようになる. 本稿では,日経平均株価の市況コメント生成といらタスクに基づき,時系列データから様々な特徴を抽出し,テキスト化を行う。まず,株価データの変化を捉えるために,一定期間の日経 225 データを用意する。次に、市況コメント内の表現を生成できるように, $\mathrm{NQN}($ 日経クイックニュース)から重要な 12 フレーズを抽出する。これらのフレーズは市況コメントの第一文に頻出するものであり,主なフレーズは「続落」,「続伸」,「反落」,「反落」の 4 つで、これらに「大幅」、「小幅」という変動幅を表す表現を加えた計 12 個を使用する.これらのフレ ーズを株価の値動きに対応させることで, 1 つの学習データを作成した。 実験では、学習済みデータを使用して生成されたフレーズと実際に手書きで書かれた記事から抽出したフレーズの比較のために F 值を用い,提案手法がベースライン手法や先行研究のものと比べて性能が向上していると確認できた。またフレーズ生成の比較として,米株価の影響がどれほどあるかも同時に確認した。米株価は市況コメント内でも触れられる機会が多く,そのほとんどが日経平均株価の変動に関与しているため精度向上を目指して採用したが,精度はほぼ変わらない,あるいは低下という結果になった。 ## 2 関連研究 $\cdot$ 関連手法 データの要約を人間が解釈しやすいようにテキストで自動生成する Data to Text 技術については,さまざまな研究が行われている。例えば、時系列の気象情報から天気予報のテキストを自動生成する研究 [1],医師や看護師の意思決定を支援する臨床データからのテキスト生成[2],一定期間内の学習状況を記 録した時系列データから学生へのフィードバックテキストを生成する研究[3]などが行われている。これまで, Data to Text の研究では, 人手で作成したルー ルを用いてテキストを生成することが主流であった。 しかし近年,情報通信技術の発展に伴い,大規模かつ複雑なデータを容易に入手できるようになり,デ一タとテキストの大規模な対応関係に基づいてテキストを生成する機械学習型の手法への関心が高まっている。例えば、画像データから説明文を生成する画像キャプション生成[4]や, 成形された気象データからの天気予報テキスト生成[5]など,様々なデータからテキストへの機械学習活用の研究が行われている. 市場コメントを生成する技術には,様々な観点からアプローチがなされている. 例えば, 日経平均株価の値動きに影響を与えたとされる出来事や他の銘柄の情報などの変化要因を生成する技術[6], 日経平均株価のデータに加えて生成する相場コメントの内容を表す話題を入力することで生成する文章を制御する技術[7], 株価の履歴や時間に依存した表現などの特徴を生成する技術[8]などがある. 今回の論文で比較する先行研究は, 生成するテキスト全文を機械学習によって生成する手法であり, 本稿では, テキスト全文ではなく株価の値動きや変動幅を表す単語を適切に選択し、一部のテキストを生成する技術に取り組んでいる. ## 3 提案手法 3 節では, 日経平均株価と NQN から, 株価の値動きや変動幅を表す語句を抽出する方法を紹介する。 ## 3.1 概要 図 1 に提案手法のモデルを示す. 提案手法ではまず,株価データと記事データの対応付けを行うために, データの成形を行った。記事データにはノイズとなるフレーズが多く含まれているため,生成される一文のみを抽出する。株価データも同様に,ノイズが多いため, 学習しやすい形に成形する. 成形したフレーズと株価の対応関係を作り、それを使って学習を開始する。機械学習には, エンコーダとして一般的に使われている MLP(Multilayer Perceptron)を使用した. 最後に,学習したデータを用いて,日米の株価データを含むテストデータを入力し,フレーズを予測する。そして生成されたフ レーズを,用意されたフォーマットに代入し、市況コメントを完成させる.ただし本稿の評価基準として使用するのは生成されたフレーズとし,フォーマットに代入した全文との比較は行わない. 図 1 :提案手法の概略 ## 3.2 データの前処理方法 画像処理, 自然言語処理など様々な分野で機械学習モデルの汎化やデータからのノイズ除去のために前処理を行うことが一般的である. 本論文でも同様に前処理を適用している。NQN からフレーズ抽出は機械的に行い,数値データである日経平均株価終値のデータに対しては標準化と前日比の差分を用いる前処理を施した。記事データから抽出するフレーズに関して,1 日の統計的な市況コメントが生成される 15:00 代の記事からフレーズを抽出する。フレー ズが複数個ある場合は, 最初に出現したフレーズをその日のフレーズとする。株価データに使用した処理方法の式は以下の二つである。 $ \begin{gathered} x_{s t d}=\left(x_{i}-\mu\right) / \theta \\ x_{\text {move }}=x_{i}-r_{i} \end{gathered} $ (1)では, 学習に用いたデータ $\mathrm{x} 、$ 平均值 $\mu$, 標準偏差 $\theta$ を用いて,標準化を行う。 (2)では, 前日の終值からの価格変化を捉えるため に, 各タイムステップの価格 $\mathrm{x}$ と前日の終値 $\mathrm{r}$ との差を計算する,なお,使用する株価のデータは終値とし, 標準偏差・前日比の前処理したデー夕を同時に使用することがあるので 3 日分を 1 フレーズに対応させる. ## 3.3 エンコード手法 時系列株価データのエンコード手法の検討として, MLP $\mathrm{CNN}, \mathrm{RNN}$ などが考えられる. 先行研究の結果から, MLP をエンコーダとしたモデルがベースラインを含めた他すべてのモデルと比較し てよいスコアがでると判明している. よって本稿でもMLPをエンコーダとして使用するものとする. ## 4 実験 ## 4. 1 データセット 本稿では、株価データとして日経平均株価とダウ平均株価を,記事データとして NQNを使用する。使用寸るデータは, 2014 年から 2017 年までの 4 年間である。表 1 と表 2 に, 本稿で使用した日経平均株価とダウ平均株価の例を示す. 表 3 に使用した NQN を示す. 日経平均株価・ダウ平均株価はともに終値を使用し, NQN は生成する式を抽出できる部分を使用している。 表 1.日経平均株価 表 2.ダウ平均株価 表 3.NQN の一部 \\ ## 4. 2 評価方法 評価は生成したテキストと手書きで書かれた記事データから抽出したフレーズと比較した $\mathrm{F}$ 值で判断を行う。またテキスト生成に使用した素性の有効性を確認するために, 2 種類の前処理方法をそれぞれ適用したものと 2 つの前処理を同時に使用したものの計 3 種類の比較を行う. なお, 先行研究では, 生成されたテキスト全文のうち, フレーズのみの精度も算出しているため, そちらも比較の対象とする. これらに加えて, 市況コメントの 2 文目以降で用いられる米株の影響によっておこる事象のテキスト自動生成の先駆けとして米株が日経平均株価に与える影響についての比較も示す. ## 5 実験結果 $\mathrm{F}$ 值による評価の実験結果を表 4 に示す. 表 4. 各 $\mathrm{F}$ 值 ## 5. 1 先行研究との差異 先行研究では, 表 3 に表したような記事テキスト全文を学習し,市況コメントを生成する手法をとつており, その中で生成されたフレーズの精度が表 4 の先行研究の闌に示されている. 本稿の結果を見ると, ほぼすべての素性を用いたものでも結果が良くなっている. これは先行研究で使用されているフレ一ズが多すぎるというのが推察できる. 例えば先行研究では, 株価の価格がいったん下がって上がるという「反発」というフレーズに対して,「反発」のみではなく「上げに転じる」というフレーズを用いている.これは文章の流暢性の確保のために行っていることだが,文章としては「反発」,「上げに転じる」のどちらでも通じると判断し,フレーズの統一化を行った結果, 約 10 パーセント近くの精度向上を確認できた. ## 5.2 米株の影響 手書きの市況コメント本文には一行目に日経平均株価の変動について書かれ, 2 行目以降で米株について触れられることが頻繁にある. その中で記述される中に「前日の米株式市場で主要株価指数がそろって上昇した流れを受け、(中略) 日経平均株価は反発した。」というような文章が現れる.この文章からも読み取れるように日経平均株価は米株の影響を色濃く受けていると推察できるため, 本稿で有効性の確認を行った. 結果として, 主なフレーズ 4 種類 (続落・続伸・反発・反落)の $\mathrm{F}$ 値はほぼ変わらなかったものの,小幅・大幅のつくフレーズの生成率が全体的に増加している. 日経平均株価だけでなく米株価の值を入力したことによってよりフレーズに対する株価の細分化ができたからだと推察できる. ## 終わりに 本稿では,日経平均株価と NQN を用いて株価の值動きとその変動幅に関するフレーズを抽出し,機械学習によりフレーズと値動きを学習させ,与えられた株価に対するフレーズを生成することを試みた。生成した表現と元記事から抽出した表現を比較し、 どの学習データが優れているかを $\mathrm{F}$ 值で検証した。結論として,2 種類の前処理を実施した学習データが, 先行研究の結果を全体的に見ると上回りました. これは,先行研究において類似したフレーズを統一していたためと考えられる. また、米株が日経平均株価に与える影響を調べるために米株価 (ダウ平均株価)を新たな入力として与えることで,生成率に変化があるかを調べた。結果として米株価を入力として与えた時, 主なフレーズの生成率にはあまり影響なかったが,株価の変動幅を表すフレーズの生成率は全体的に向上していた. ## 参考文献 [1] B. Anja, "Probabilistic Generation of Weather Forecast Texts" Association for Computational Linguistics, pp. 164-171, 2007. [2] F. Portet, E. Reiter, J. Hunter, and S. Sripada "Automatic Generation of Textual Summaries from Neonatal Intensive Care Data" Artificial Intelligence, Volume173, pp. 789$816,2009$. [3] D. Gkatzia, H. Hastie, and O. Lemon "Comparing Multilabel Classification with Reinforcement Learning for Summarization of Time-series Data." Association for Computational Linguistics, pp. 1231-1240, 2014. [4] O. Vinyals, A. Toshev, S. Bengio, and D. Erhan "Show and Tell: A Neural Image Caption Generator" IEEE, Accession Number: 15524253, 2015. [5] H. Mei, M. Bansal, and M. R. Walter "What to talk about and how? Selective Generation using LSTMs with Coarse-to-Fine Alignment" Association for Computational Linguistics, pp. 720-730, 2016. [6] T. Aoki, A. Miyazawa, T. Ishigaki, K. Goshima, K. Aoki, I. Kobayashi, H. Takamura, and Y. Miyao "Generating Market Comments Referring to External Resources” Association for Computational Linguistics, pp. 135-139, 2018. (RELATED WORK/METHODS) [7] K. Aoki, A. Miyazawa, T. Ishigaki, T. Aoki, H. Noji, K. Goshima, I. Kobayashi, H. Takamura, and Y. Miyao "Controlling Contents in Data-to-Document Generation with Human-Designed Topic Labels", Association for Computational Linguistics, pp. 323-332, 2019. [8] S. Murakami, A. Watanabe, A. Miyazawa, K. Goshima, T. Yanase, H. Takamura, and Y. Miyao, "Learning to Generate Market Comments from Stock Prices” Proceeding of the 55th Annual Meeting of the Association for Computational Linguistics, pp. 1374-1384, 2017.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D2-5.pdf
# Vaporetto: 点予測法に基づく高速な日本語トークナイザ 赤部晃一 1 神田峻介 1 小田悠介 ${ }^{1,2}$ 森 信介 ${ }^{3}$ ${ }^{1}$ LegalForce Research 2 東北大学データ駆動科学・AI 教育研究センター 3 京都大学 学術情報メディアセンター \{koichi.akabe, shunsuke.kanda, yusuke.oda\}@legalforce.co.jp forest@i.kyoto-u.ac.jp ## 概要 線形分類モデルによる点予測法に基づくトークナイザに関し,高速な計算手法を開発し,その実装である Vaporetto ${ }^{1)}$ について報告する。本手法では,予測の際に圧縮ダブル配列を用いたオートマトンを採用し,高速な文字列探索を実現する。また,スコアに対して 3 種類の前処理を提案する. 実験の結果,既存の点予測法に基づくトークナイザである KyTea と比較し, 5.4 倍の高速化が確認された.また,提案した前処理手法については,その全てが高速化に寄与することを確認した. ## 1 はじめに 日本語や中国語など,文中に単語境界を示す区切り記号を挿入しない言語では,自然言語処理の前処理としてトークン化を行う必要がある。これには大きく分けて 2 種類の手法が利用される. 1 つは系列予測法と呼ばれ,入力文から辞書に基づくラティスを構築し,語や語間に対して与えられるコストが最小化される経路を探索する。代表的なものでは MeCab [1] が採用している. もう1つは点予測法と呼ばれ,入力文のすべての文字間に対し,語の境界であるか否かを識別モデルによって判別する.代表的なものでは KyTea [2] が採用している. トークン化は前処理として広く利用されており,大量のテキストを処理するとき,分割の精度だけでなく実行速度も重要である. 本研究では,既存の点予測法に基づくトークン化を,モデルに手を加えずに高速に動作させる手法を提案する. ## 2 点予測法によるトークン化 点予測法では,入力文の各文字境界に対して指定された幅の窓を考え,ここに含まれる文字列から識 1) https://github.com/legalforce-research/vaporetto トークンの境界か? 図 1 点予測法に基づくトークン化の例. 括弧内の数字は,判定箇所に対する各 $n$-gram の相対位置を示す. 別モデルの素性を生成する [3]. KyTea では素性とし $\tau$ ,文字 $n$-gram,文字種 $n$-gram,辞書単語素性の 3 種類を利用して線形分類モデルを学習する。 図 1 は点予測法によるトークン化の例である.この例では,入力文として「は、全世界の国民が、」が与えられ,「界」と「の」の間がトークン境界であるか否かを文字 $n$-gram 素性を用いて識別している。文字 $n$-gram 素性は,窓に含まれる文字 $n$-gram と, その相対位置の組で表現される. 文字種 $n$-gram についても素性の作り方は文字 $n$-gram の場合と同様だが,各文字をひらがな,カタカナ,漢字,数字, ローマ字,その他の 6 種類に分類し,文字の代わりに文字種記号の配列を利用する. 図 2 は辞書単語素性の例である. この例では,単語辞書に「の」と 「世界」が含まれる場合に,太線で示された文字境界に対してどのような素性が生成されるかを示している. KyTea と MeCab の精度面による比較分析は,先行研究 [4] で行われている。 ## 3 アルゴリズムの高速化 2 節で示したトークン化手法は,入力文に対する 3 種類のパターン集合を用いたオーバーラップパターンマッチと,マッチ箇所に対するスコアの加算という 2 つの問題に帰着される。 図 3 は,入力文の各文字境界に対してスコアを計 図 2 辞書単語素性の例. 3-gram 以上の場合は, 複数の文字境界について「内側」素性を生成する。 図 $3 n$-gram スコア配列の合計スコア配列への加算の例. ここでは 2 つの $n$-gram に対して括弧内で示された相対位置に応じたスコアが学習されており,スコア計算の際は各 $n$-gram スコアが合計スコア配列に加算される. 算する例である.窓幅を $W$ とすると,各 $n$-gram について文字境界との相対位置に応じた $2 W-n+1$ 通りのスコアが学習される。 トークン境界の予測時には,各 $n$-gram をパターンとして,入力文に対するパターンマッチを行い,マッチしたパターンとその位置から,どの文字境界にどのスコアを加算するかを決定する。 本節では,パターンマッチとスコア計算のそれぞれの部分について,処理の高速化手法を紹介する。 ## 3.1 パターンマッチの高速化 $\mathrm{MeCab}$ に代表される系列予測法に基づくトークナイザの多くは,パターンマッチにトライ法 [5] を採用している. トライ法によるパターンマッチは,入力文の長さを $N$, パターンの平均長を $K$ としたとき $O(N K)$ 時間で動作する. 一方,提案法では Aho-Corasick (AC) 法 [6] によるパターンマッチオートマトン (PMA)を採用する. AC 法は,マッチする解の個数を occ とすると $O(N+o c c)$ 時間で動作し, 3.2 節で提案する高速化手法とも親和性がある.また,PMAを圧縮ダブル配列 [7] で実装することで高速な解析を実現する. 図 4 「世」「世界」「全世界」を登録した PMA.状態 $s$ は 「全世界」と「世界」を報告する出力状態.点線は Failure リンクを示しており,ルートへの Failure リンクは省略している。 ## 3.2 n-gram スコアの事前加算 PMA に登録されているパターン集合を $\mathscr{P} と$ し,あるパターン $p \in \mathscr{P}$ の $n$-gram スコア配列を $\boldsymbol{w}_{\text {pattern }}(p)$ とする. AC 法による PMA は, 出力状態 $s$ に到達した際にマッチしたパターン集合 $\mathcal{S}(s) \subseteq \mathscr{P}$ を報告する. 点予測法では PMA が報告した $\mathcal{\delta}(s)$ について, 全ての $q \in \mathcal{S}(s)$ の $n$-gram スコア配列 $\boldsymbol{w}_{\text {pattern }}(q)$ を合計スコア配列に加算することで文字境界のスコアを算出する。例えば図 3 は, $\delta(s)=\{$ 世界, 全世界 $\}$ について, $n$-gram スコア配列 $\boldsymbol{w}_{\text {pattern }}$ (世界) と $\boldsymbol{w}_{\text {pattern }}$ (全世界)を合計スコア配列に加算する様子を示している. 提案法では,各 $q の n$-gram スコア配列を別々に加算するのではなく,まとめて加算することで合計スコアの計算を高速化する.具体的には,各出力状態 $s$ について以下のスコア配列 $\boldsymbol{w}_{\text {state }}(s)$ を定義する. $ \boldsymbol{w}_{\text {state }}(s):=\sum_{q \in \mathcal{S}(s)} \boldsymbol{w}_{\text {pattern }}(q) $ PMA が出力状態 $s$ に到達し $\delta(s)$ が報告された際は, $\boldsymbol{w}_{\text {pattern }}(q)$ を参照する代わりに $\boldsymbol{w}_{\text {state }}(s)$ を参照する. 図 4 は,「世」「世界」「全世界」という 3 つのパターンを登録した PMAを示している. 出力状態 $s$ は $\delta(s)=\{$ 世界, 全世界 $\}$ を報告する。提案法では, これらの $n$-gram スコア配列を事前に加算し,配列 $\boldsymbol{w}_{\text {state }}(s)$ を状態 $s$ に持たせておくことで合計スコア配列への加算回数が低減される。 ## 3.3 辞書単語素性のスコアの事前加算 辞書中の単語のうち, 文字 $n$-gram 素性の文字列と厳密一致する単語については辞書から削除し, 辞書単語素性のスコアを事前に文字 $n$-gram 素性のスコアに加算しておく.これにより, 辞書単語素性 PMA からのパターン報告回数が減少し, 文字 $n$-gram 素 性のスコアと辞書単語素性のスコアをまとめて合計スコア配列に加算することが可能となる. ## 3.4 文字種 n-gram スコアの事前加算 文字種 $n$-gram によって加算される文字境界のスコアは,窓によって切り出される文字列のみによって一意に決まる。そのため, 長さ $2 W$ の系列の全組合せについて事前に計算したスコアを保存しておけば,解析時のパターンマッチとスコアの加算を回避できる. 文字種は高々 6 種類のため, 各文字種に 3 ビットのコード値を割り当てれば,文字種系列は $6 W$ ビットの整数値で表現できる. この整数値を系列の IDとし,計算済みスコアへの参照に用いる。 $W=3$ のとき, 系列の ID は高々 262,144 通りであり,各スコアを 4 バイトで保持するとメモリ使用量は $1 \mathrm{MiB}$ とな. 入力文として文字種列 $\left(a_{0}, a_{1}, \ldots, a_{N-1}\right)$ が与えられたとき,各文字境界についての系列の ID は以下のように表現できる. 文字 $a_{i-1}$ と $a_{i}$ の境界に対応した系列 $A_{i}=\left(a_{i-W}, a_{i-W+1}, \ldots, a_{i+W-1}\right)$ の IDを $\operatorname{Id}\left(A_{i}\right)$ と表記する. $i \notin[0, N)$ な $a_{i}$ は範囲外を表現する特殊文字として扱い,そのコード值は 0 とする。 このとき, $\operatorname{Id}\left(A_{i}\right)$ は以下の漸化式で記述できる. $ \operatorname{Id}\left(A_{i+1}\right)=\left(\left(\operatorname{Id}\left(A_{i}\right) \ll 3\right) \mid \operatorname{Cd}\left(a_{i+W}\right)\right) \&\left(2^{6 W}-1\right) $ ただし, 初項は $\operatorname{Id}\left(A_{-W}\right)=0$ である. 式中の $\operatorname{cd}(a) \in$ $[0,8)$ は文字種 $a$ のコード値, “《”は左シフト演算, “”は OR 演算,“\&”は AND 演算である. 漸化式が示すように, $\operatorname{Id}\left(A_{i}\right)$ を用いて $\operatorname{Id}\left(A_{i+1}\right)$ が計算できる. すなわち $\operatorname{Id}\left(A_{-W}\right)=0$ を起点とし,文字境界を 1 文字ずつ右に移動しながら, 各系列の ID がビット演算で高速に計算できる. 図 5 は文字種系列の IDをビット演算を用いて計算する例である. ## 4 L1 正則化によるモデルの圧縮 L1 正則化 [8] を利用すれば重みべクトルがスパー スとなり,過学習を防ぎつつ小さなモデルを学習することが可能である.線形分類モデルの学習で L1 正則化を行うには,以下の目的関数を最小化する重みベクトル $\boldsymbol{w}$ を学習する。 $ \min _{\boldsymbol{w}}\|\boldsymbol{w}\|_{1}+C \sum_{i} \xi\left(\boldsymbol{w} ; \boldsymbol{x}_{i}, y_{i}\right) $ ここで $\xi\left(\boldsymbol{w} ; \boldsymbol{x}_{i}, y_{i}\right)$ は $i$ 番目の入力 $\boldsymbol{x}_{i}$ と出力 $y_{i}$ から計算される損失関数,C は罰則パラメータである ${ }^{2}$.  LIBLINEAR では目的関数の係数としている.ここでは 図 5 文字種系列のIDを計算する例. 空幅 $W=3$ としている. 文字種の下の数字は, 各文字種に対応したコード值を表す. $\mathrm{Cd}(\mathrm{H})=001_{(2)}$ はひらがな, $\mathrm{Cd}(\mathrm{K})=101_{(2)}$ は漢字, $\mathrm{Cd}(\mathrm{O})=110_{(2)}$ はその他の文字種に対応している. 次の系列 ID は,現在の系列 ID に対するビット演算によって求まる。 $C$ が小さいほど罰則項の比重が大きくなり,正則化をより強くかけることとなる. モデルサイズを小さくすると, 合計スコアの計算に必要な各スコアの加算回数が減ることに加え, CPU キャッシュの利用頻度も上がり,処理の高速化が期待される. 本研究では,モデルのサイズと分割速度の関係を調査し,モデルサイズの調整による高速化も検討する. ## 5 実験 提案法の高速化効果を検証するため,提案法と各種ツールの分割速度の比較を行った. また,正則化係数に応じた精度の比較も行った。 ## 5.1 実験設定 点予測法のモデル学習のためのデータセットとし $\tau$, 現代日本語書き言葉均衡コーパス (BCCWJ [9], Ver. 1.1)のうち, 人手で短単位アノテーションされたコアデータ 60,004 文を利用した. また,辞書として UniDic [10] (Ver. 3.1.0)のうち半角空白記号を含まない 879,048 語を利用した. 各実験では,BCCWJ のコアデータ 60,004 文を 10 分割して交差検証を行った。速度の測定では,分割対象の文を先に RAMに読み込み,IO 処理にかかる時間は除外した. モデルの学習には LIBLINEAR [11] の L1-regularized L2-loss SVC を利用し, $C=1.0$ とした. また, 窓幅 $W=3$ とし, $n$-gram の最大長は 3 とした. 3 節で提案した各手法の効果を確認するため,各手法を個別に適用した場合とすべて適用した場合の  表 1 分割速度の比較. 単位は [100万文字/秒]. 罰則パラメータCは 1.0 とした. 速度を測定した. 比較対象として, 既存の点予測法に基づくトークナイザである KyTea の分割速度を測定した. ${ }^{3)}$ また,学習データやモデルが異なるため単純な比較はできないが, MeCab と sudachi.rs") によってトークン化した際の実行速度も測定した. MeCabでは IPADIC を利用し, sudachi.rs では SudachiDict-core (Ver. 20210802) による短単位相当の分割を行った. 実験は以下のスペックのマシンを用いてシングルスレッドで実施した. - CPU: Intel(R) Core(TM) i7-8086K CPU @ 4.00GHz - Memory: 64GiB RAM (L1: 32KiB, L2: 256KiB) ## 5.2 実験結果 ## 5.2.1 分割速度の比較 分割速度の比較結果を表 1 に示す. 実験結果によると,提案法では素性のスコアの前処理をしない場合でも KyTea の 4 倍以上の速度でトークン化処理を行うことが可能であり, 圧縮ダブル配列を利用した $\mathrm{AC}$ 法の効果が大きいことが分かる。また, (b)~(d) の各手法を単独で実施した場合と同時に実施した場合のいずれの場合も処理が高速化された事が確認された。 ## 5.2.2 L1 正則化, 分割精度, 分割速度の関係 図 6 は,罰則パラメータ $C$ を変化させた際の,分割誤り率と分割速度の関係を示している.Cが小さい領域では,精度と速度はトレード・オフの関係にあり,正則化を強くするほど精度が下がる一方,分  図 6 罰則パラメータを変化させた際の,分割誤り率と分割速度の関係. 図 7 罰則パラメータを変化させた際の,スコアが 0 でない $n$-gram の数と PMA の状態数の関係. 割速度は速くなる.しかしながら, $C$ が大きい領域では正則化が弱まるにつれて分割速度が遅くなるだけでなく,過学習によって分割誤りも増えている. 次に,図 7 は $C$ を変化させた際の,スコアが 0 でない $n$-gram の個数と PMA の状態数の関係を示している. 正則化を強くするほど, $n$-gram がモデルから削除され PMA が小さくなるが,その際に長い $n$-gram が優先的にモデルから削除され,短い $n$-gram が支配的になることが確認できる. ## 6 まとめ 本研究では,線形分類モデルを用いた点予測法に基づく日本語のトークン化を,パターンマッチとスコアの加算という 2 つの部分問題に帰着させ,各部分に対して最適化を行った. 提案したアルゴリズムは日本語のトークン化に特化したものではなく,AC オートマトンを利用した点予測法に一般化することが可能なため,他分野への応用も検討したい. ## 参考文献 [1] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237, Barcelona, Spain, July 2004. Association for Computational Linguistics. [2] Graham Neubig, Yosuke Nakata, and Shinsuke Mori. Pointwise prediction for robust, adaptable Japanese morphological analysis. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 529-533, Portland, Oregon, USA, June 2011. Association for Computational Linguistics. [3] Manabu Sassano. An empirical study of active learning with support vector machines for Japanese word segmentation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 505-512, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [4] 森信介, 中田陽介, Neubig Graham, 河原達也. 点予測による形態素解析. 自然言語処理, Vol. 18, No. 4, pp. 367-381, 2011. [5] Edward Fredkin. Trie memory. Communications of the ACM, Vol. 3, No. 9, pp. 490-499, 1960. [6] Alfred V. Aho and Margaret J. Corasick. Efficient string matching: An aid to bibliographic search. Commun. ACM, Vol. 18, No. 6, pp. 333-340, June 1975. [7] Susumu Yata, Masaki Oono, Kazuhiro Morita, Masao Fuketa, Toru Sumitomo, and Jun-ichi Aoe. A compact static double-array keeping character codes. Inf. Process. Manage., Vol. 43, No. 1, p. 237-247, January 2007. [8] Robert Tibshirani. Regression shrinkage and selection via the lasso. Journal of the Royal Statistical Society: Series B (Methodological), Vol. 58, No. 1, pp. 267-288, 1996. [9] 前川喜久雄. 代表性を有する大規模日本語書き言葉コーパスの構築 (く特集>日本語コーパス). 人工知能, Vol. 24, No. 5, pp. 616-622, 2009. [10] 伝康晴, 小木曽智信, 小椋秀樹, 山田篤, 峯松信明, 内元清貴, 小磯花絵. コーパス日本語学のための言語資源 : 形態素解析用電子化辞書の開発とその応用. 日本語科学, Vol. 22, pp. 101-123, oct 2007. [11] Rong-En Fan, Kai-Wei Chang, Cho-Jui Hsieh, Xiang-Rui Wang, and Chih-Jen Lin. Liblinear: A library for large linear classification. J. Mach. Learn. Res., Vol. 9, p. 1871-1874, June 2008. [12] Kazuma Takaoka, Sorami Hisamoto, Noriko Kawahara, Miho Sakamoto, Yoshitaka Uchida, and Yuji Matsumoto. Sudachi: a Japanese tokenizer for business. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, May 2018. European Language Resources Association (ELRA). ## A データや分割単位の違いによる 速度の比較 表 2 は,分割単位を変更した際の各ツールの速度を比較したものである. KyTea と Vaporetto では, 学習コーパスとして BCCWJ の短単位 (SUW) と長単位 (LUW) のいずれかを利用し,単語辞書は利用していない. MeCabでは, SUWとして UniDic, LUW として IPADIC を利用した. Sudachi では SUWとして UniDic 相当,LUW として固有表現 (NE) 相当のオプションを利用した. 表 2 分割速度の比較. 単位は [100万文字/秒]. KyTea, Vaporetto, Sudachi, sudachi.rs では, 分割単位の違いによる速度の大きな変化は確認できない。一方, MeCab では UniDic を使用した場合に IPADIC に比べて 2 倍程度の時間を要していることが確認できる. MeCabで BCCWJを解析した際の L1 キャッシュミスの回数を perf コマンドで測定したところ, IPADIC を使用した際は $3.6 \times 10^{6}$ 回であったのに対し,UniDic を使用した際は $63.1 \times 10^{6}$ 回であった。 UniDic を使用した場合,キャッシュミスが多く発生していることが速度低下の原因となっていることが伺える。 ## B L1キャッシュミスの頻度 図 8 は,罰則パラメータ $C$ を変化させた際の L1 キャッシュミスが発生する回数を示している. BCCWJ の 60,004 文で 10 交差検証を行った際の,各セットでの合計値を示した. キャッシュミスの回数は perfコマンドで測定した。 単語辞書を利用しない場合, $C<0.1$ まではモデルサイズが小さいため,キャッシュミスの回数が 1 万回程度で抑えられており,キャッシュが効率的に利用されていることが伺える. しかし, $C>0.1$ では次第にモデルがキャッシュに乗り切らなくなり, キャッシュミスの回数が増えていくことが確認で 図 8 罰則パラメータを変化させた際の,L1 キャッシュミス回数の変化. きる. また,単語辞書を利用する場合は,Cが小さい領域でもキャッシュミスが多く発生していることが確認できる. ## C 窓幅と n-gram サイズを変化させ た際の分割速度と分割精度の関係 表 3 は容幅 $W$ と $n$-gram サイズを変化させた際の,分割速度と分割精度の関係を示している。学習には BCCWJ のみ利用し, 単語辞書は利用していない. $W \geq 4$ の場合, 文字種 $n$-gram のスコアを事前計算するとメモリを多く消費するため,文字 $n$-gram と同様に PMAを利用している. 表 3 窓幅ごとの分割速度と分割精度. 速度の単位は $[100$万文字/秒]. SUW の場合, $W=n=3$ で精度が上限となり, LUW の場合は $W=n=5$ で精度が上限となっていることが確認できる.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D3-1.pdf
# 構造的曖昧性に基づく読みづらさの検出 吉田あいり 河原大輔 早稲田大学理工学術院 yoshida-a.waihk@ruri.waseda.jp, dkw@waseda.jp ## 概要 日本語文の読みづらさを定量的に評価することを目的とし,構造的曖昧性を活用した手法を提案する。漸進的要素を組み入れ, BERT による構文解析の結果を用いて評価する. ベースラインには言語モデルによる尤度 (サプライザル)を用いて, 読みづらさの正解データはクラウドソーシングにより文ぺアに対して複数人の回答を収集したものを使用する. 2 種類の方法で作成したデータにて評価を行い, 提案手法はベースラインに対して有意な結果を得た。 ## 1 はじめに テキストを読む機会は多く,文が読みやすいことは消費される時間の短縮以外に読者の理解度の向上にもつながる. そのため, 文の情報を損なわない読みやすい文が必要とされる. 本研究では執筆支援システムにおいて想定される読点の挿入や語順整理といった文の読みやすさの改良の前段階として, 自動的に読みづらい文を検出することを目的とする。 人間における読みづらさは主に読み時間で評価され, 計算機においては言語モデルを用いて計算される負の尤度であるサプライザルで評価される [1]. これは予想と異なる内容が現れた際に読み負荷が高まるというサプライザル理論に基づいている $[2,3]$. ここに日本語特有の要素を考慮することで, 本研究では日本語に適した読みづらさの検出を目指す。 日本語の逐次的な読みやすさにおける先行研究にて, 先行文脈に係り元が多い文節ほど読みやすいことや読み間違いが読み負荷を高めることがわかっている. 例えば, 文 (1) [4] は「男性を」の部分で再解釈に要する読み時間が増加する。 (1)警官が犯人を捕まえた男性を... 本研究では構造的曖昧性に着目し, 漸進的構文解析結果と係り先の保留のプロセスを利用して読みづらさの検出を行う。 ## 2 関連研究 ## 2.1 読みやすさの分析 人間の読みづらさは読み時間を用いて評価されており, 読み時間を主軸とした分析がされる. 日本語の読み時間データは BCCWJ-EyeTrack が整備され, 先行文脈に係り元文脈が多い要素ほど読み時間が短くなるということが分析されている [5]. また, 日本語の読解時間と統語・意味カテゴリの対比分析においても関連する先行文脈が読み時間の減少に関与すること [6] や, 文の意味的曖昧性の高さが構造的曖昧性の解消/保留に影響することがわかっている $[4,7]$.他にも個別の言語現象が読み時間に与える影響に対して分析が行われている $[8,9]$. これらは読みやすい文における知見ではあるが,統一的な傾向は定かではない. そこでサプライザル理論に基づいて, 日本語読み時間に関する傾向がサプライザルが大きいところで読みにくくなるという傾向に統一的に解釈できるかという仮説検証がなされた [10]. 読み時間の様々な傾向がサプライザルでも再現され, 情報量の観点から解釈できることが示されている。 ## 2.2 ガーデンパス効果 読み時間が増加する要素の 1 つとしてガーデンパス (GP) 効果がある.これは, 文の理解の途中で一時的に誤った解釈をし, 続きを読んだ際に誤解に気づいて解釈をし直す事になるが,この再解釈により発生する処理負荷や読み直しにかかるコストにおける効果である. 文理解の初期段階で曖昧性を解消しようとするために, 結果として誤解釈が発生する.この効果がもたらす構造的曖昧文の性質は言語の構造により異なることが分析されている [11]. GP 文は最後まで解釈が曖昧な場合もある. 例えば,「かわいい少女の猫」の「かわいい」が修飾するのはこの部分のみでは決定できない。 ## 2.3 単語親密度 本研究では構造要素による読みづらさに着目するために, 単語難易度による影響を減らす工夫が必要である. WLSP-familiarity ${ }^{1)}$ は「分類語彙表」増補改訂版データベースに親密度情報を付与したもの [12] であり, 見知らぬ単語による読みづらさを軽減するためにこれを用いてフィルタリングを行う. ## 2.4 漸進的係り受け解析 人間の言語理解過程には漸進性があり, 音声言語アプリケーションの基盤技術として漸進的係り受け解析技術の研究がなされている [13]. 言語処理過程のデータを構築・分析することにより人間の漸進的係り受け解析能力や入力予測能力の解析がなされている $[14,15]$. 逐次処理を行うために, 係り先を未入力部分と見做し, 未大力の中でも同一文節であるのかまで考慮してアノテーションが行われている.人間の言語理解には漸進性がある [16] が, 特に音声では大力と同時に処理することが求められ, 漸進的言語処理システムが開発されている. 本研究ではテキストに漸進性を組み込むことで, GP 効果等の特徴を考慮する。 ## 3 構文解析 読みづらさを検出するために, 構造的に曖昧な文を示すラベル付きデータなしで活用できる機械学習を用いた構文解析を行う。 ## 3.1 BERT に基づく構文解析 BERT を活用し, 日本語構文解析の精度を向上させる手法 (BERTKNP) が提案されている [17]. 構文解析を head [18] の選択と見なすことによりBERTに 1 層追加する形で実装を行っている. 事前学習されたモデルを活用することで, 大量の生コーパスを利用し構文解析の精度向上を達成している。 ## 3.2 漸進的構文解析手法 BERT による構文解析に漸進的な視点を入れることで, 人間が読む際の要素を追加する. 単語ごとに係り受けのアノテーションがなされた文 (Original) に対して, 単語が 1つずつ入力される過程 (Slided) を考えていく.ある単語が入力されるまでの部分における, 係り受け構造を学習データとして作成する. 入力  図 1: 漸進的構文構造データ作成 される単語数を 1 ずつずらしていくことで漸進的なデータを実現する. 図 1 のように Slided の入力は文の途中までであり, 未入力部分に係る単語も存在する. その場合は係り先を特定単語ではなく,未決定 ([UND]) と指定する [14]. 単語ごとにずらして作成した文は Original に対しての分量が非常に多くなるため, Slided について過学習を起こす可能性がある. そこで Slided には $\mathrm{n} \%$ の制限を設ける. どの程度漸進的データを追加するべきかとシャッフルの必要性は予備実験にて確認する. ## 3.3 解析結果 漸進的構文解析において適切な漸進的データ量を確認するために, 実験の結果を表 1 に示す. 精度は単語単位での精度と文単位の精度の平均の 2 通りで算出した. 加えて [UND] の再現率も測定した. 日本語 BERT は NICT BERT 日本語 Pre-trained モデル2)を使用した. fine-tuning には京都大学テキストコーパス (新聞) と京都大学ウェブ文書リードコーパス (ウェブ) の 2 種類を混合したコーパス約 5 万文を使用し,元論文にならい 3 epoch 回した. また, 評価には京大コーパス約 4,000 文を使用した. 京大コーパスにおいては加工しない BERTKNP が一番精度が高い. 漸進的要素を加えた Slide All (Orig+Slided 100\%) においては元のデータに $5 \%$ 混合したデータを用いて学習したモデルが一番精度が良く, 再現率は $50 \%$ 混合した場合が良い值となった。 また, 予測精度と再現率はデータをシャッフルすることによる悪影響を受けることがわかった. 漸進的データの追加は精度の向上に直結しない上, 計算資源と時間を消費する. 本研究では, 精度を重視して 5\%のみ追加したデータで fine-tuning したモデルを用いてこれ以降の実験を進める。  表 1: 漸進的構文解析の精度 表 2: 各データの文ペア数 ## 4 実験 ## 4.1 正解データ作成と評価方法 読みづらさの正解データを作成するために, 京大コーパスに前処理として単語親密度によるフィルタリングを行い, 親密度が負のスコアを持つ形態素を含む文を除外した. また, 形態素数が 20 に満たない文も除去し, 形態素数が 20 から 30 のものと 30 以上のものに分割後, 文長によるソートを行ってから文字数順に 2 文のペアを作成した. これにより, 単語難易度による難読性を排除した上で, 文長だけでなく形態素数の近い分ペアを作成している.このペア文の比較による評価を行う. Yahoo!クラウドソーシングにより 1 ペアに対して 10 人の回答をフィルタリングされた 322 文について収集した. 2 文のうちどちらが構造的に読みづらいかという質問に対して, [文 $\mathrm{A}$, 同等, 文 $\mathrm{B}$ ] の 3 つの選択肢を用意した. 文法構造を考慮した読みづらさとして以下の 2 つの要素を挙げ,これに基づき評価させた。 1. 複数の解釈ができる 2. 理解に反復が必要となる 収集データから 2 種類の正解データを作成し, それぞれのデータにおいて評価を行う.作成された正解データのペア数を表 2 に示す. 多数決 10 人中 $\mathrm{n}$ 人の回答が一致したぺア文を正解データとする. 例えば, [文 $\mathrm{A}$, 同等, 文 B] の回答数が $[6,3,1]$ の際は, $\mathrm{n}=5$ の場合は文 $\mathrm{A}$ が読みづらいデータとして採用され, $\mathrm{n}=7$ の場合は使用しない. 評価は [文 $\mathrm{A}$, 同等, 文 $\mathrm{B}$ ] の全ての精度により行う. 平均 [文 $\mathrm{A}$, 同等, 文 $\mathrm{B}$ ] の回答を $[-1,0,1]$ の数値と見なして各回答数の和をスコアとする. 閾値 $\mathrm{m}$ を使用し, $[-10,-m),[-m, m],(m, 10]$ をそれぞれの回答として分類する. $\mathrm{m}$ の値は難易度の判別がつかない文ペアが十分除かれたものを選択する. 正負でスコアリングしているため, [文 $\mathrm{A}$, 同等, 文 $\mathrm{B}$ ] の回答数が $[2,7,1]$ と $[5,1,4]$ の場合のスコアはどちらも-1 となる. 従って, 同等である回答が多くとも判別できないため, 文 $\mathrm{A} \cdot \mathrm{B}$ のどちらが読みづらいかのみを扱い, 同等なものは除外した精度により評価する。 多数決・平均手法共に, $\mathrm{n} / \mathrm{m}$ を大きくするほど確実に読みづらい文ぺアを取得できるが, 使用できるぺア数が減少するため適当な $\mathrm{n} / \mathrm{m}$ を抽出した. ## 4.2 読みづらさの検出方法 本研究では,作成した漸進的データを用いて学習した構文解析モデルによる解析結果から係り先が未決定 ([UND]) である数を長さで正規化したものを読みづらさのスコアとする. 人間の言語理解の漸進性を取り入れた上で, 係り受け構造の保留により受ける読みづらさを考慮している. 本研究では 2 文のどちらが読みづらいかまたは同等であるかを正解として扱うが, スコアは数値で算出される. そこでスコアの差分を取り, その絶対値が閾値以下のものを同等である場合として評価する. 間値は精度が最も高くなる値を選んだ。 ベースラインにはサプライザルとして $-\log p(x \mid$ 先行文脈)を使用する. 実装では-log_softmax を使用した. サプライザルは尤度の反転であり,これが大きいほど読みづらいと言える.これを計算するために言語モデル $\mathrm{GPT}-2^{3)}$ を利用した.こちらもスコアの差分から同等である場合の評価を行った。 ## 4.3 結果 表 3 に各データにおける精度の結果を示す. 正解は漸進的構文解析が全て正しく付与されたデータを用いて算出した精度である. 提案手法は多数決と平均どちらのデータに対しても読みづらい文の検出をすることができた. 確実に難易度に差があると判断された文ぺア (多数決 $n=7$, 平均 $m=3$ ) に対しては特に有意な差が現れた。 3) https://huggingface.co/colorfulscoop/gpt2-small-ja 表 3: 読みづらさ検出の精度 (a) 各単語長でのカウント (b) 各単語長での累積図 2: [UND] 数の比較 ## 5 考察 ## 5.1 難しい文と平易な文 構造的に難しいと判別された文の特徴として主語が省略されているものや, 並列構造等が見られた. 文長が短いために一定数主語が無い文が存在しており,これらを排除することでより構造に焦点を当てた実験を行うことができると考えられる. また, 長い名詞句やカタカナは中身を読まずに塊であると判別できるため簡単と評価される傾向があった. ここで, 図 2 にて難易度判定により有意な差を得た文における係り先未決定の動きを見る. 以下の文 (2a) は 10 人中 9 人が読みづらい文として選択し, 1 人が同等であると回答した. (2)a.しかし、旧民社党は大半の議員が新進党に参加し、さきがけとの連携も流動的で連携相手は不確定だ。 b.初期の警察署が置かれたセントラル地区のハリウッド通りには、インド料理店やインド系企業が多い。 (2b) は大力に適宜係り先が決定されているが, (2a) は保留されていることがわかり, 文の構造的難易度により未決定数に差が生じることが確認できる. ## 5.2 読みづらさの正解データ作成 多数決方式の $\mathrm{n}=5$ においては [文 $\mathrm{A}$, 同等, 文 B] の回答数が $[1,4,5]$ の様な回答が存在し, 小さい $\mathrm{n}$ に対しては難易度の定まらない文が混在していると考えられる. 平均方式はこの欠点はカバーできるものの,同等の文に対しての評価ができなくなる。 多数決方式にて $\mathrm{n}$ の値により収集される文ペアを見ていく. $\mathrm{n}=5$ の例として (3), $\mathrm{n}=7$ の例として (4)を示す. (3a)と (4b) が読みづらい文である. (3)a.九七年まで村山政権が続くのは安定かもしれないが、確信を持って政治がやれるのか。 b.この時は大分舞鶴がロスタイムに入って追いつき、抽選で長崎北陽台が決勝に進んだ。 (4) a.同県警では、県警山岳救助隊など約七十人で捜索したが、午後五時、捜索を打ち切った。 b.本に囲まれ、埋もれ、重みで床が抜けそうだ、と心配するような生活にあこがれている。 (3) は文構造が似通っており難易度にさほど差が感じられないが, (4b) には並列構造が見られ, 係り先の理解に時間を要する. $\mathrm{n}$ をきくすることで確かに難易度差がある文ぺアを取得している。 ## 5.3 校正における活用 構造的曖昧性の絶対評価は難しく, 本研究では 2 文の比較による評価を行った. 難易度のスコアはサプライサルと提案手法のどちらも各文ごとに付与している.そのため読みづらいと判別された文のスコアの平均・分散における解析が, その文単体での難易度の判別に繋がる.これを用いて難しい文の指摘を行うことで筆者による修正や自動書き換え等の校正への活用が見込まれる。 ## 6 終わりに 日本語構造に着目した読みづらさの検出を行なつた. 漸進的構文解析による, 未入力文脈への係り構造を利用することで, サプライザルに比べて構造的に読みづらい文の検出を行うことができた. 今後は構文解析結果の top-K 比較による構文確率の比較や語義曖昧性への拡張などによる読みづらさの検出を検討する. また, 特定の曖昧性に的を絞った正解データの用意は困難であり, 収集方法も改善の余地がある. ## 参考文献 [1] Martin Schrimpf, Idan Blank, Greta Tuckute, Carina Kauf, Eghbal A. Hosseini, Nancy Kanwisher, Joshua Tenenbaum, and Evelina Fedorenko. The neural architecture of language: Integrative reverse-engineering converges on a model for predictive processing. bioRxiv, 2020. [2] John Hale. A probabilistic earley parser as a psycholinguistic model. In Proceedings of the Second Meeting of the North American Chapter of the Association for Computational Linguistics on Language Technologies, NAACL '01, p. 1-8, USA, 2001. Association for Computational Linguistics. [3] Roger Levy. Expectation-based syntactic comprehension. Cognition, Vol. 106, No. 3, pp. 1126-1177, 2008. [4] 井上雅勝. 文の意味的曖昧性が構造的曖昧性の解消と保留に及ぼす影響 (2). 日本認知心理学会発表論文集, Vol. 2011, pp. 74-74, 2011. [5] 浅原正幸, 小野創, 宮本エジソン正. Bccwj-eyetrack :『現代日本語書き言葉均衡コーパス』に対する読み時間付与とその分析. 言語研究, No. 156, pp. 67-96, 2019. [6] 浅原正幸, 加藤祥. 読み時間と統語・意味分類. 認知科学, Vol. 26, No. 2, pp. 219-230, 2019. [7] 井上雅勝. 文の意味的曖昧性が構造的曖昧性の解消と保留に及ぼす影響. 日本認知心理学会発表論文集, Vol. 2010, No. 0, pp. 81-81, 2010. [8] Masayuki Asahara. Between reading time and clause boundaries in japanese- wrap-up effect in a head-final language一日本語の読み時間と節境界情報一主辞後置言語における wrap-up effect $の$ 検証一. Journal of Natural Language Processing, Vol. 26, pp. 301-327, 06 2019. [9] Masayuki Asahara. Between reading time and the information status of noun phrases 名詞句の情報の状態と読み時間について. Journal of Natural Language Processing, Vol. 25, pp. 527-554, 122018. [10] 栗林樹生, 大関洋平, 伊藤拓海, 吉田遼, 浅原正幸, 乾健太郎. 日本語の読みやすさに対する情報量に基づいた統一的な解釈. 言語処理学会第 27 回年次大会発表論文集, pp. 723-728, 2021. [11] 井上雅勝. ガーデンパス現象に基づく日本語文理解過程の実証的研究. 大阪大学博士論文, 2000. [12] 浅原正幸. Bayesian linear mixed model による単語親密度推定と位相情報付与. 自然言語処理, Vol. 27, No. 1, pp. 133-150, 2020. [13] Tomohiro Ohno and Shigeki Matsubara. Dependency structure for incremental parsing of Japanese and its application. In Proceedings of the 13th International Conference on Parsing Technologies (IWPT 2013), pp. 91-97, Nara, Japan, November 2013. Assocation for Computational Linguistics. [14] 大野誠寛, 松原茂樹. 漸進的係り受け解析の出力構造一人間の文解析過程のアノテーション-. 言語処理学会第 22 回年次大会発表論文集, pp. 457-460, 2016. [15] 後藤亮, 大野誠寛, 松原茂樹. 人間の漸進的言語処理能力の分析. 情報処理学会第 82 回全国大会, pp. 457-458, 2020. [16] Gerry Altmann and Mark Steedman. Interaction with context during human sentence processing. Cognition, Vol. 30, No. 3, pp. 191-238, 1988. [17] 柴田知秀, 河原大輔, 黒橋禎夫. Bert による日本語構文解析の精度向上. 言語処理学会第 25 回年次大会発表論文集, pp. 205-208, 2019. [18] Xingxing Zhang, Jianpeng Cheng, and Mirella Lapata. Dependency parsing as head selection. In EACL 2017, pp. 665-676, 2017.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
D3-2.pdf
# 日本語の語彙力と読み時間について 浅原 正幸 国立国語研究所 masayu-a@ninjal.ac.jp ## 概要 本研究では、ヒトの語彙力の差が読み時間にどのように影響を与えるのかについて検討を行う。具体的には、単語親密度調査に参加した方の評定値に対して一般化線形混合モデルを適用した際の調査協力者のランダム効果を語彙力と仮定する。その後、同調査協力者に自己ペース読文課題に参加してもらい読み時間を収集し、読み時間に対して一般化線形混合モデルを適用した際の語彙力の固定効果により、語彙力の差が読み時間に与える傾向を明らかにした。また、得られた傾向からサプライザルや言語モデルにおけるパープレキシティとの関連について考察を行う。 ## 1 はじめに 本研究では、日本語の語彙力と読み時間の関係について検討する。以前の調査では、視線走査装置1) や自己ペース読文法 [1] を用いた、新聞記事を対象として読み時間データを収集 [2] し、記憶力を計測するリーディングスパンテスト [3] と平成年代に構築された語彙数判定テスト $[4,5]$ による実験協力者の能力差に基づく分析を行った [6]。得られたは語彙力が高い実験協力者の読み時間が長い傾向があるという結果であった。 24 人の実験協力者の語彙力の分散が小さいことが考えられるが、実験協力者を研究室に呼んで、視線走査装置を用いて実験を行うことが困難となった。一方、英語においては、Amazon Mechanical Turk で被験者を募集して、読み時間を収集した Natural Story Corpus (NSC) [7] が構築されている。同様の試みとして、Yahoo! Japan の Yahoo! クラウドソーシングを用い被験者を募集したうえで、ibex ${ }^{2}$ を利用して、ウェブブラウザを介して自己ぺース読文法により大規模に読み時間データを収集した [8]。読み時間収集対象者に  は、事前に単語親密度判定タスクに参加し、そのモデル化の副産物として得られる対象者の語彙力を得た [9]。これらの二つの調査結果を線形混合モデルで対照させたところ、「語彙力が高い実験協力者の読み時間が短い」傾向が確認された。従前の結果が語彙力の高い 1 人の実験協力者の行動に由来する可能性があり、大規模化した行動実験に基づく今回の分析により異なる結果が得られた。 また、サプライザル $[10,11]$ や言語モデルのパー プレキシティとの関連 $[12,13,14,15,16,17,18]$ についても考察を行う。 ## 2 データの収集手法 ## 2.1 語彙力データの構築 語彙力データは単語親密度データの収集 $[19,9]$ 時に得られる実験協力者の偏りを数値化したものを用いる。具体的には、2018 年より毎年『分類語彙表』 の見出し語に対して、「知っている」「書く」「読む」「話す」「聞く」の程度を収集した。収集したデータを一般化線形混合モデルで単語親密度を 84,114 語のランダム効果として、語彙力を 6,732 人の実験協力者のランダム効果としてベイジアン線形混合モデルによりモデル化した。モデル化する際に、単語側の標準偏差を 1.0、実験協力者の標準偏差を 0.5 とした正規分布によりモデル化したものを用いる ${ }^{3}$ 。 後述するとおり、単語親密度調査の協力者の一部の方が、次節に述べる読み時間データの収集に参加した。読み時間データの収集に参加した方の語彙力の分布を図 1 に示す。 ## 2.2 読み時間データの収集 前節に示した単語親密度データ収集の 2020 年 10 月の調查に協力された方のうち、語彙数判定の分散が適切な 2,092人を対象に、自己ペース読文法に  図 1 語彙力の分布 表 1 刺激文と実験協力者の統計 表 2 分析対象 よる読み時間データ収集実験参加を募った $[8]$ 。最初に『現代日本語書き言葉均衡コーパス』の白書 (OW) 1 サンプルについて試験的に 500 人の協力者を募集した。その後、教科書 (OT) 38 サンプルと書籍 (PB)83 サンプルについて、1 サンプル当たり 200 人の協力者を募集した。各実験協力者は 2020 年 11 月 12 月にかけて、白書 $\rightarrow$ 教科書 $\rightarrow$ 書籍の順に自由に実験に参加でき、読むサンプルの数も自由に設定した。従前の発表 [8] と同じスクリーニングを行った後、単語親密度調査 200 回答以上・読み時間実験 5 サンプル以上に参加した実験協力者のデータを分析対象とした。表 1 に刺激文と実験協力者の統計を、表 2 に分析対象となるデータ数を示す。 ## 3 統計分析 統計分析は対数読み時間に対する線形混合モデルにおいて、各固定効果における有意差が確認できるか否かにより行う。呈示順4) - 文字列長 ${ }^{5)}$ - 試行 4) BCCWJ-SPR2 における文呈示順 SPR_sentence_ID (sentid) $\cdot$文節呈示順 SPR_bunsetsu_ID (bid) 5)BCCWJ-SPR2 における表層形文字列長 SPR_word_length (length)。順6) ・係り受(゙7) ・ 実験協力者の語彙力 ${ }^{8)}$ を固定効果とし、実験協力者 9$)$ ・サンプル $\mathrm{ID}^{10)}$ をランダム効果とした。本稿では $\operatorname{lme4}[20,21]$ を用いた一般化線形混合モデルの結果を示す。一度モデルを推定したうえで、3SDよりも外側の値のデータポイントを排除し、再推定を行った結果を表 3 に示す。なお、対数読み時間を頻度主義的な線形混合モデルで分析したものを付録の表 4 に、同様のモデルをベイジアン線形混合モデル(対数正規モデル)で分析したものを付録の表 5 に示す。 まず、同一サンプル内の呈示順については、実験が進むについて文脈を得るために読み時間が短くなる傾向が確認された。文字列長は長いほど認識に時間が長くなる傾向が確認された。試行順については教科書においては実験協力者が慣れて短くなる傾向が確認された。書籍においては、反対に繰り返し実施することによる疲れからか、長くなる傾向が確認された。最後に係り受けの数が多いほど、予測が効くために、読み時間が短くなる傾向が確認された。ここまでは既存の分析結果 [8] と同様の結果であった。 ## 4 考察 以下、結果についての考察を示す。 ## 4.1 語彙力の影響 以前の調査 [6] では語彙力が高い実験協力者の読み時間が長い傾向が確認された。しかしながら、調 6) BCCWJ-SPR2 における実験協力者ごとの試行順(サンプル単位に集計)SPR_trial。OW については 1 サンプルのみのために常に試行順が 1 のため未定義。 7)BCCWJ-SPR2 における当該文節に対する係り受けの数 SPR_DepPara_depnum (dependent)。BCCWJ-DepPara から復元。 OT には係り受けが付与されていないために未定義。 8)WLSP-Familiary3.1 における実験協力者のランダム効果 WFR_subj_rate。 9)BCCWJ-SPR2 における実験協力者固有のID SPR_subj_ID_factor。 10) BCCWJ におけるサンプル ID BCCWJ_Sample_ID。 回帰式: SPR_reading_time SPR_sentence_ID + SPR_bunsetsu_ID + SPR_word_length + DepPara_depnum + SPR_trial + WFR_subj_rate + (1 | SPR_subj_ID_factor) + (1 | BCCWJ_Sample_ID) 但し、OT は 1 回の試行のみのため SPR_trial は未定義、OT は係り受け情報が付与されていないため DepPara_depnum は未定義。 表 3 一般化線形混合モデルに基づく分析結果(読み時間) 查人数が少ないうえ語彙力が高い群が実質 1 名であったために、この1名のデータに依存し、一般性のない分析である可能性があった。本調査では、読み時間計測タスクを自己ペース読文課題に限定しながらも、数百人規模のデータを用い、読む文章量も増やした設定で再検証を行った。また語彙力の測定もNTT の平成版語彙数判定テストではなく、新たに単語親密度調査に基づく副産物としての協力者の語彙力を用いた。結果、語彙力が高い群の読み時間がより短くなる傾向が観察された。 ## 4.2 レジスタの影響 語彙力の影響を有意差の観点で見ると、OT(教科書) が $p<0.1 、 \mathrm{~PB}$ (書籍) が $p<0.05 、 \mathrm{OW}$ (白書) が $p<0.01$ であった。教科書は小・中・高の国語の教科書のサンプルであり、協力者は一度は読んだことがある可能性がある。書籍と白書を比べると、一般に書籍のほうが協力者が読みなれている可能性もある。このレジスタについてのなじみの程度が、語彙力の影響の有意差に表れている可能性がある。なじみのある教科書では語彙力の影響の差が小さいが、 なじみのない白書では語彙力の影響の差が大きくなった可能性がある。 ## 4.3 サプライザルや言語モデルのパープレ キシティとの関係 サプライザル $[10,11]$ は、文処理の負荷に対する情報量基準に基づいた指標で、当該単語の文脈中の負の対数確率(次式)によりモデル化される文処理の困難さを表す: $ \text { Surprisal }(w)=-\log _{2} P(w \mid \text { context }) $ 似た概念の言語モデルの評価指標としてパープレキシティ (平均分岐数) perplexity(context)= $\Pi_{i=1}^{N} P\left(w_{i}\right)^{1 / N}$ がある。これを対数を取った形式 (cross entropy) で表記すると $H$ (context) = $\frac{1}{N} \sum_{i=1}^{N} \log _{2} P\left(w_{i}\right)$ となるが、言語モデルとして次にくる単語 $w$ を予測する際の仮定としては、 $\arg \max \log _{2} P(w \mid$ context $)$ と、この cross entropy の最大化問題に帰着でき、実質的には符号が反転したサプライザルの式の最小化と等価の問題と捉えることができる。 このパープレキシティ (cross entropy) が低いほどヒトらしいという研究は英語については確認されている $[12,13,14,15,16]$ 一方、英語と日本語における読み時間と Transformer 系の言語モデルの対照分析 [17,18] において、日本語においては必ずしもそうとは言えない報告がなされた。 ここで、サプライザル・パープレキシティとは何 か、さらには「ヒトらしい」とは何かについて考えたい。過去の研究においては、言語モデルの能力差によるパープレキシティの検討がなされてきた。本研究ではヒトの能力差とレジスタの親密性の観点から検討を行いたい。 まず、ヒトの能力差の観点からは、仮定として語彙力が高いヒトは文脈から単語を推測する確率が高いとするならば、この能力差がサプライザルの指標を下げ、全体的に読み時間を短くした可能性がある。サプライザルと言語モデルのパープレキシティの等価性から、言語モデルのパープレキシティが高くなるにつれ、より語彙力の高い群に親和性がある予測を行う可能性がある。 次に、レジスタの親密性の観点からは、仮定として、OT(教科書) は一度読んだ可能性があるテキストであり、PB(書籍) は普段読んでいるものに近い新しいテキストであり、OW(白書) は普段読み慣れないテキストであると想定する。親密性の観点からは、OT>PB>OW の順で次にくる単語が予測しやすい可能性があり、サプライザルはこの逆順で小さい (パープレキシティの観点からは正順で大きい) レジスタであると考える。表 3 の語彙力の有意差の傾向から、 $\mathrm{OT}<\mathrm{PB}<\mathrm{OW}$ の順で語彙力の差が出やすくなっていることがわかる。本データ (BCCWJ-SPR2) の $\mathrm{PB}$ の NDC(日本十進分類法)に基づく分析 [22] では、多くの人が親しみやすい芸能やスポーツなどを含む「7. 芸術・美術」が読み時間が短くなる傾向が確認されている。 以上の観点を総合的に考えると、「ヒトらしい」言語モデルとは、適切なレベルの語彙力を持ち、レジスタの親密性の差異により予測可能性が変化しうるものであろうと考える。後者のレジスタの親密性については、Hale らが、サプライザルをジャンル横断的に調査し、EEGデータと推定したサプライザルとを対照することで、同一ジャンルで訓練した言語モデルのほうがより EEG データに適合することを報告している [23]。 ## 5 おわりに 本研究では、日本語の読み時間と語彙力の関係について検討した。本研究の貢献は以下の 3 点である: ・対面で実験できないなか、オンラインで日本語の読み時間と語彙力調査を大規模に行う方法を確立した。 ・大規模調査により、日本語において語彙力の読み時間に与える影響について、複数レジスタの資料に対して調査した。 - 調査結果として、「語彙力の高い」群が読み時間が短くなることを確認した。 分析結果から以下の 2 点について考察を行った: ・ヒトの能力差において、「語彙力の高い」ことと「言語モデルのパープレキシティの高い」ことのアナロジーを仮定すると、言語モデルのパープレキシティが高くなるにつれてより語彙力の高い群に親和性がある予測を行う可能性がある。 ・レジスタの親密性において、サプライザルが全体的に低いであろう読みなれているレジスタにおいては、語彙力の差が出にくい。 このように日本語の読み時間において、ヒトの能力差やレジスタ差の検討が可能になった。今後、より精緻な数理モデルによる検討を期待する。 今回、ヒト側の能力として語彙力について検討を行い、上記の傾向について明らかにした。日本語においては、再帰的ニューラルネットワーク文法による読み時間の検討 $[24,25]$ も進められている。文法に基づくヒトの文処理過程をつかさどる重要な概念として、実験協力者の作業記憶容量 (パージングアルゴリズムにおけるビーム幅相当)がある。 BCCWJ-EyeTrack においては、日本語リーディングスパンテスト [3] を行い、成績の優劣による検討も行った [6]。本データにおいても、オンラインで作業記憶容量を評価する方法について検討し、パージングに基づく文処理過程のモデリングについて評価可能なデータを構築したい。 ## 謝辞 本研究は国立国語研究所コーパス開発センター 共同研究プロジェクトの成果です。また、科研費 17H00917, 18H05521 の支援を受けました。 ## 参考文献 [1]Marcel Adam Just, Patricia A. Carpenter, and Jacqueline D. Woolley. Paradigms and processes in reading comprehension. Journal of Experimental Psychology: General, 3:228-238, 1982. [2]浅原正幸, 小野創, and 宮本エジソン正. BCCWJEyeTrack-『現代日本語書き言葉均衡コーパス』に対する読み時間付与とその分析-. 言語研究, 156:67-96, 2019. [3]苧阪満里子, editor. ワーキングメモリー脳のメモ帳. 新曜社, 2002. [4]Shigeaki Amano and Tadahisa Kondo. Estimation of Mental Lexicon Size with Word Familiarity Database. In Proceedings of International Conference on Spoken Language Processing, volume 5, pages 2119-2122, 1998. [5]天野成昭 and 近藤公久, editors. 単語親密度, NTT デー タベースシリーズ日本語の語彙特性第 $l$ 巻. 三省堂, 1999. [6]浅原正幸, 小野創, and 宮本エジソン正. 『現代日本語書き言葉均衡コーパス』の読み時間とその被験者属性. In 言語処理学会第 23 回年次大会発表論文集, pages 273-276, 2017. [7]Richard Futrell, Edward Gibson, Harry J. Tily, Idan Blank, Anastasia Vishnevetsky, Steven Piantadosi, and Evelina Fedorenko. The Natural Stories Corpus. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, May 2018. European Language Resources Association (ELRA). [8]浅原正幸. クラウドソーシングによる大規模読み時間データ収集. In 言語処理学会第 27 回年次大会発表論文集, pages 1156-1161, 2021. [9]浅原正幸. クラウドソーシングによる単語親密度デー 夕の構築 (2021 年版). In 言語処理学会第 28 回年次大会発表論文集, 2022. [10]John Hale. A probabilistic earley parser as a psycholinguistic model. In Proceedings of the Second Conference of the North American Chapter of the Association for Computational Linguistics, volume 2, pages 159-166, 2001. [11]Expectation-based syntactic comprehension. Cognition, 106(3):1126-1177, 2008. [12]Stefan L. Frank and Rens Bod. Insensitivity of the human sentence-processing system to hierarchical structure. Journal of Psychological Science, 22(6):829-834, 2011. [13]Victoria Fossum and Roger Levy. Sequential vs. Hierarchical Syntactic Models of Human Incremental Sentence Processing. In Proceedings of CMCL, pages 61-69, 2012. [14]Adam Goodkind and Klinton Bicknell. Predictive Power of Word Surprisal for Reading Times is a Linear Function of Language Model Quality. In Proceedings of CMCL, pages $10-18,2018$ [15]Adam Goodkind and Klinton Bicknell. Comparing Gated and Simple Recurent Neural Network Architectures as Models of Human Sentence Processing. In Proceedings of the 41st Annual Conference of the Cognitive Science Society, pages 112-118, 2019. [16]Ethan Gotlieb Wilcox, Jon Gauthier, Jennifer Hu, Peng Qian, and Roger Levy. On the Predictive Power of Neural Language Models for Human Real-Time Comprehension Behavior. In Proceedings of the 42nd Annual Conference of the Cognitive Science Society, pages 1707-1713, 2020. [17]Tatsuki Kuribayashi, Yohei Oseki, Takumi Ito, Ryo Yoshida, Masayuki Asahara, and Kentaro Inui. Lower perplexity is not always human-like. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguisticsand the 11 th International Joint Conference on Natural Language Processing, pages 5203-5217, 2011. [18]栗林樹生, 大関洋平, 伊藤拓海, 吉田遼, 浅原正幸, and 乾健太郎. 予測の正確な言語モデルがヒトらしいとは限らない. In 言語処理学会第 27 回年次大会発表論文集, pages 267-272, 2021. [19]浅原正幸. Bayesian linear mixed model による単語親密度推定と位相情報付与. 自然言語処理, 27(1):133-150, 2020. [20]Douglas Bates, Martin Mächler, Ben Bolker, and Steve Walker. Fitting linear mixed-effects models using lme4. Journal of Statistical Software, 67:1-48, 2015. [21]Marek Hlavac. stargazer: Well-formatted regression and summary statistics tables, 2018. R package version 5.2.2. [22]浅原正幸 and 加藤祥. 『現代日本語書き言葉均衡コー パス』書籍サンプルの読み時間の分析. In 日本語学会 2021 年度春季大会予稿集, pages 49-54, 2021. [23]John Hale, Adhiguna Kuncoro, Keith Hall, Chris Dyer, and Jonathan Brennan. Text genre and training data size in human-like parsing. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 5846-5852, Hong Kong, China, November 2019. Association for Computational Linguistics. [24]Ryo Yoshida, Hiroshi Noji, and Yohei Oseki. Modeling human sentence processing with left-corner recurrent neural network grammars. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pages 2964-2973, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [25]吉田遼, 能地宏, and 大関洋平. 再帰的ニューラルネットワーク文法による人間の文処理のモデリング. In 言語処理学会第 27 回年次大会発表論文集, pages 273-278, 2021. ## A 付録 回帰式: SPR_log_reading_time SPR_sentence_ID + SPR_bunsetsu_ID + SPR_word_length + DepPara_depnum + SPR_trial + WFR_subj_rate + (1 | SPR_subj_ID_factor $)+(1$ | BCCWJ_Sample_ID) 但し、OT は 1 回の試行のみのため SPR_trial は未定義、OT は係り受け情報が付与されていないため DepPara_depnum は未定義。 表 4 一般化線形混合モデルに基づく分析結果(OW 白書・OT 教科書・PB 書籍 $:$ 対数読み時間) 表 5 ベイジアン線形混合モデルに基づく分析結果(OW 白書のみ:対数正規モデル)
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/