filename
stringlengths
1
10
text
stringlengths
33
111k
category
stringclasses
9 values
license
stringclasses
1 value
credit
stringclasses
5 values
G1-3.pdf
# 言語と動作の統合表現獲得による双方向変換 豊田みのり ${ }^{1}$ 林良彦 1 鈴木彼方 1,2 尾形哲也 3,4 1 早稲田大学 理工学術院 2 富士通株式会社 3 早稲田大学 理工学術院/理工総研 4 産業技術総合研究所 minori-toyoda@fuji.waseda.jp yshk.hayashi@aoni.waseda.jp suzuki.kanata@fujitsu.com ogata@waseda.jp ## 概要 ロボットにとって,言語指示から動作を生成する能力,逆に動作を適切に言語化する能力は,日常生活の場で人間と協働する上で不可欠である. 本研究では言語と動作の Autoencoderを組み合わせ,さらに単語の事前学習済み分散表現を動作に即して変換することで,言語と動作の双方向変換を実現した.大規模モーションキャプチャデータセットを用いた相互変換の実験結果からは,提案するモデルが,既存手法に比べて一連の動作をより詳細に表す説明文を生成する傾向にあること,言語コーパスのみから学習された分散表現に比べ,より動作に基づいた表現を獲得できることが確認できた。 ## 1 はじめに ロボットにとって,言語指示から動作を生成する能力,自身の行動を伝える能力は人間と日常生活の場で協働する上で不可欠となる. ロボットによる言語理解では, 実世界の事物と言語表現を結びつける必要があり, 機械学習を用いて実現する場合にはそれらのペアデータセットが求められる. しかし,動作情報等を含めたデータセットは文章のみのデータセットに比べ構築のコストが高い. さらに, 実生活において言語も動作も一対一には対応しておらず,使用される可能性のある言語と動作の組み合わせを全て学習させることは現実的でない.したがって, ロボットは未学習の単語を含む指示にも適切に対処しながら,それらを双方向に生成する必要がある.言語と動作の双方向変換を単一のモデルで行なった研究として,言語と動作のそれぞれの Autoencoder (AE) の中間表現を近づけることで実現した研究 [1] が挙げられるが,データセット内の単語にのみ対応可能であった. 未学習の単語に関する研究としては,事前学習済みの分散表現の使用により学習済み someone moves forward in a jog a human starts jogging, moving up its hands and stopping the jogging movement a person jogs for some meters a person jogs a few steps. 図 1 動作と参照キャプション例 単語の類義語の動作を生成した研究 [2] や,言語と動作の相互変換において,動作の内容を反映するように分散表現を変換する学習を行う研究 [3] がある. 後者の研究は,使用文脈が類似している単語には類似した分散表現が与えられてしまうという分布仮説 [4] に起因する課題の解決を試みたものであり,例えば,対義語である"fast"と"slowly"を同一視することによるロボットの想定外の挙動を抑制するなどの実際的な効果が期待できる. しかし,これらの研究で用いられた指示や動作は非常に短く単純であり,実世界に比べ非常に簡易的な設定 ${ }^{1)}$ であった. 本研究では,より実生活に即した環境での双方向変換を実現することを目的とし,そのためにモー ションキャプチャと自然言語の参照キャプションの大規模なぺアデータセット [5]を使用する. 先述の 1 つのモデルで双方向変換を実現したモデル [1] と,分散表現を変換することで未学習の単語も受容可能としたモデル [3] の2つの双方向変換モデルを用い,様々な系列長のより多様な言語や動作へにおける挙動を比較する.後者のモデルでは,動作の情報を含むように変換された単語の分散表現が獲得されるため,その結果についても考察する。 1)前者の研究 [1] では 1 単語の指示から 3 種類の動作のいずれかを生成した. 後者の研究 [3] では BOS と EOS 含めた 5 単語の指示から 12 種類の動作を生成した. 後述するモーションキャプチャのデータセットと比べて,言語も動作もバリエー ションに乏しく小規模なものであった. 図 2 使用モデル:retrofitted Paired Recurrent Autoencoder ## 2 言語と動作の双方向変換モデル 本研究では,言語と動作の双方向変換を実現するモデルとして,単一のモデルで言語と動作の双方向変換を実現したモデル Paired Recurrent Autoencoder (PRAE) [1] と, 図 2 に示す未学習の単語も受容可能な統合表現獲得モデル retrofitted Paired Recurrent Autoencoder (rPRAE) [3] を用いる. PRAE は言語用と動作用の 2 つの Recurrent AE (RAE) で構成され,両 RAE は入出力の恒等写像を行うが,言語と動作を結びつけるために両中間表現を近づける制約を与えている. rPRAE は,PRAE に単語の分散表現を動作の情報を含むべクトル表現に変換する非線形層 retrofit layer を加えることで拡張したモデルである. ## 2.1 基本モデル 基本モデルとなる PRAE は動作用 RAE (図 2 上部) と言語用 RAE (図 2 中部) で構成され,共にエンコー ダ RNN とデコーダ RNN から成る. 本研究において,動作用 RAE ではエンコーダ・デコーダそれぞれにモーションキャプチャによって得られた全身の関節角度と身体の位置,向きを動作情報として入出力する. 言語用 RAEでも等しく単語の分散表現を入力し,各単語を出力する. PRAE は両 RAE の再構成誤差に加え,言語と動作を対応づけるための各中間表現を近づける制約を課している. 理想的には 2 つ表現が等しくなり, この表現でそれぞれのデコーダを初期化することで 1 つのモデルで双方向変換が可能となる. バッチサイズを $N$ ,言語・動作の中間表現をそれぞれ $\left.\{z_{i}^{d} \mid 1 \leq i \leq N\right.\},\left.\{z_{i}^{a} \mid 1 \leq i \leq N\right.\}$ とした時, 各内部表現を結びつける損失関数は以下である。 $ \begin{aligned} L_{b i} & =\sum_{i}^{N} \psi\left(z_{i}^{a}, z_{i}^{d}\right) \\ & +\sum_{i}^{N} \sum_{j \neq i} \max \left.\{0, \Delta+\psi\left(z_{i}^{a}, z_{i}^{d}\right)-\psi\left(z_{i}^{a}, z_{j}^{d}\right)\right.\} \end{aligned} $ ここで $\psi$ はユークリッド距離を表し,初項は対応する内部表現を近づけ,第二項は対応しないものを遠ざける. また $\Delta$ は閾值を示すパラメタである. ## 2.2 分散表現を動作に対応づける変換 事前学習済みの単語の分散表現を,ロボットにとって理解しやすい動作の情報も含む表現に変換するため,rPRAE では言語用 RAEへの入力前に非線形層 (retrofit layer, 図 2 下部) を組み込む.この非線形層では分布仮説によって学習された分散表現を動作や状況に合わせたべクトルに変換し,より実世界の事象に即した表現を言語用 RAE に入力する。 本研究では活性化関数に $\tanh$ を用いた 3 層の非線形層を用いている。また, パラメタ数の増加に伴うモデルの表現力を制限し過学習を防ぐため,2 つの RAE と retrofit layerを交互に学習する。 ## 3 実験 ## 3.1 実験設定 より実世界に近いデータでの双方向変換を実現するため,モーションキャプチャと参照キャプションの大規模データセット KIT Motion-Language Dataset [5]を用いて実験を行なった. 実験は動作情報からの説明文生成,参照キャプションからの全身の動作生成という 2 種類のタスクから成る. 文生成の評価は BLEU [6], 表 1 言語生成および動作生成結果 SimCSE [7] によって得られた文べクトルの $\cos$ 類似度, BERTScore [8] の定量的評価に加え定性的評価を行なった. 動作生成の評価は,各動作を評価する一定の尺度がなく動作レベルでの定量的評価が困難なため,生成した動作を共通の学習済みのモデルを用いて逆翻訳した文に同上の定量的評価を行なった。上記の指標を用い,PRAE と rPRAE を比較した。 ## 3.1.1 KIT Motion-Language Dataset KIT Motion-Language Dataset は 3,911 個 (約 11.23 時間) の動作情報と,それらを説明する 6,278 文の英語の参照キャプションで構成される. 動作情報とは 44DoF (Degrees of Freedom) の全身の関節角度と各 $3 \mathrm{DoF}$ の身体の位置と向きを合わせた計 $50 \mathrm{DoF}$ のデータである. 本研究では双方向変換の先行研究 [1] に則り 1 秒未満および 30 秒より長いデータを削除し,各動作を $100 \mathrm{~Hz}$ から $10 \mathrm{~Hz}$ にダウンサンプリングしている. 参照キャプションの文長は 5~44 単語である. 本研究では各単語の分散表現として 300 次元の事前学習済みの Word2Vec [9] のベクトル2)を用いる。この使用により, PRAEでも未学習の単語に対応可能となる. また適切に分散表現が変換されたことを確かめるために, 事前学習済みの Word2Vec モデルにない単語を含むキャプションも除いた. したがって, 本研究では少なくとも1つキャプションを持つ 100~3000 ステップの動作と,全ての単語に事前学習された分散表現を持つキャプションのペアデータを用いて学習および評価を行なった.使用した動作は 2721 データ,キャプションは 5〜38 語からなる 5538 文 (1331 語彙) であり,80\%を学習に,バリデーションと評価に $10 \%$ ずつを用いた. ## 3.2 実験結果 ## 3.2.1 実験 1 :動作による言語生成 動作用 RAE のエンコーダと言語用 RAE のデコー ダを用い,入力動作の説明文を生成した. 表 1 に生成文の定量的評価の結果を, AppendixA の図 5 に  具体的な生成例を示す. $P_{B E R T}, R_{B E R T}, F_{B E R T}$ は BERTScore の Precision, Recall, F1 值を表し, 文長と種類は生成文に含まれる平均単語数と出力文の異なり文数を表す。ここで,評価用参照キャプションの平均文長は 9.573 単語,異なり文数は 520 であった.定量的評価においては,PRAE の方が良い結果を示した. 用いた評価指標は,いずれもキャプションとの一致度に基づくものであり,PRAE の方がより学習データに忠実な生成を行う傾向にあることが分かる。一方で rPRAE は, 文法的にも複雑な表現を用いて詳細な記述を生成する傾向がみられた。これらの多くは意味的には適切であると定性的には評価できるが,現在用いている定量的指標だけでは評価が困難であると考えられる。 rPRAE がより詳細な文章を生成する理由として以下が推察される。.rPRAE は分散表現を動作に即した表現に変換するため,近い動作を表す複数の単語が類似した分散表現を持つ. このため,似ている分散表現を持つ多くの単語に対して学習される出力単語の例が増加し, より詳細な説明文が出力されたと推測できる. 本研究の文生成においては,greedy に次の単語を選択するため, 類似した表現を持つ複数の入力単語に対して, 確率の高い単一の単語を出力する。これにより,異なり文種が少なくなったと考えられる. PRAEが rPRAE に比べてやや文長が短くなった理由は,似ている分散表現に対する出力単語が rPRAE に比べて少ないことから, 各動作を形容する歩数や方向などの補足情報のうち多く共通している表現を出力したものと考えられる。 ## 3.2.2 実験 2 : 言語による動作生成 言語用 RAE のエンコーダと動作用 RAE のデコー ダを用い,キャプションから動作を生成した。表 1 に,rPRAEを用いて生成動作を逆翻訳した文の定量的評価の結果を示す. 実験 1 と同じく PRAE の方がやや高い結果となった。これは,今回の評価データには使用文脈の類似により動作生成に悪影響を及ぼす可能性のある単語が含まれておらず, rPRAEがその特性を発揮できなかったことが影響したと考えられる. rPRAE 自体の有効性を示すためにはそのよう 図 3 変換前の Word2Vec による各単語の $\cos$ 類似度 図 4 変換された各単語の $\cos$ 類似度 なデータを用いて再度検証を行う必要がある. ## 3.3 非線形変換後の分散表現 rPRAE の retrofit layer により動作の情報を含むよう変換した各単語の表現の $\cos$ 類似度の例を図 4 に示す. 図 3 は変換前の Word2Vec の分散表現である. これらの図から, 特に"forward"と"backward", "fast" と"slowly"などの文章中での使われ方が似ている対義語が,実際の動作に即し類義語間では高い類似度を,対義語間では低い類似度を示すようになった。一方で,大小に関する形容詞では期待した結果は得られなかった.まず,"small"と"little"が中程度の類似度を示したのは,キャプション内での使われ方に起因すると考えられる。"small"は circle などの物理的な形を形容する際に多く使われたが,"little"は程度を表す場合が多かった。これらの指す対象の差から類似度がやや低くなったと推察できる。また"small"と"big","large"が高い類似度を示した理由としては,元来の類似した表現に加え,アノテータによって尺度が異なるためと推測する。大人と子供が何かを見たときに感じる大きさが異なるように,自身の身体性により大小の感覚は様々である. 本研究では文脈非依存の単語の分散表現を用いているが,文脈としてロボットの身体情報やアノテータの尺度の傾向を与えた言語と動作の統合表現を獲得することで,よりロボットの言語理解に適した表現となると考えられる。 ## 4 おわりに 本研究ではより現実に即した設定で言語と動作の双方向変換を実現し,2つのモデルの比較を行った. 1 つは基本となる双方向変換モデル (PRAE)で, もう 1 つは単語の分散表現を動作の情報と対応づける変換を行う統合表現獲得モデル (rPRAE) である. モーションキャプチャと参照キャプションで構成される大規模データセットを用いて様々な系列長の多様な言語や動作への挙動を実験的に比較したところ,今回の実験設定では言語と動作の両方の生成において, 前者の双方向変換モデルの方が定量的評価が良いことが分かった. 一方で統合表現獲得モデルは,より詳細な文章を生成する傾向があることも確かめられた. 提案の rPRAE モデルは, 分布仮説に基づく分散表現の課題を解決し, 動作との対応付けにより対義語の表現を分離することを狙ったモデルであるため,この目的に適合したデータセットを作成する必要がある。 今回利用したデータセットには視覚情報は含まれなかった.より現実世界に近い状況での双方向変換実現においては,視覚などの他モダリティの統合も研究課題である. また言語生成の評価に関しては,動作情報を含むべクトル表現を活用した評価を行う. ## 謝辞 本研究は,JST ムーンショット型研究開発事業グラント番号 JPMJMS2031,JSPS 科研費 17H01831 の支援を受けた。 ## 参考文献 [1] Tatsuro Yamada, Hiroyuki Matsunaga, and Tetsuya Ogata. Paired recurrent autoencoders for bidirectional translation between robot actions and linguistic descriptions. In IEEE Robotics and Automation Letters, pp. 3441-3448, 2018. [2] David Matthews, Sam Kriegman, Collin Cappelle, and Josh Bongard. Word2vec to behavior: morphology facilitates the grounding of language in machines. 2019 IEEE/RSJ International Conference on Intelligent Robots and Systems, 2019. [3] Minori Toyoda, Kanata Suzuki, Hiroki Mori, Yoshihiko Hayashi, and Tetsuya Ogata. Embodying pre-trained word embeddings through robot actions. IEEE Robotics and Automation Letters, Vol. 6, No. 2, pp. 4225-4232, 2021. [4] Zellig S Harris. Distributional structure. Word, Vol. 10, No. 2-3, pp. 146-162, 1954. [5] Matthias Plappert, Christian Mandery, and Tamim Asfour. The KIT motion-language dataset. Big Data, Vol. 4, No. 4, pp. 236-252, 2016. [6] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting of the Association for Computational Linguistics, pp. 311318, 2002. [7] Tianyu Gao, Xingcheng Yao, and Danqi Chen. SimCSE: Simple contrastive learning of sentence embeddings. In Empirical Methods in Natural Language Processing, 2021. [8] Tianyi Zhang*, Varsha Kishore*, Felix Wu*, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020. [9] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. In Advances in neural information processing systems, pp. 3111-3119, 2013. ## A 動作による言語生成例 3.2.1 節で議論した言語生成結果を図 5 に示す. 特に注目すべき表現を赤字で,誤った表現を青字で表記している。表 1 から分かるように,言語生成において rPRAE は定量的評価では PRAE に比べ悪い結果を示したが,図 5 のように詳細な表現を記述を生成する傾向が確かめられた. (a) は左手で身体の前に円を描いている動作であるが,左右の手を正しく記述しているだけでなく,possibly 以下に補足情報をつけている。使用データセットでは手や指の開閉に関する情報はないため,実際の参照キャプションよりも詳細な例として提示する. (b), (c) も同じくrPRAEがキャプションに比べ,より細かく時系列に沿った文を生成した例である。それぞれの例の上部に提示した一連の動作から分かるように,接続詞や前置詞を正しく用いた適切な順序の記述が確かめられた。(d),(e) はキャプションよりも適切と思われる生成が確認できた。(d) は実際の動作からキャプションが誤りであることが確かめられており,PRAE と rPRAE の方が正しい生成ができた。 (e) は一見した限りでは不明な動作であるが,rPRAE は抽象的なレベルの表現での生成を的確に行っている. (f) は補足情報の付加による失敗例である. 具体的には,動作の向きの情報が誤っている. これらの例の多くは意味的には適切であると定性的に評価できるものの,現在用いている定量的指標だけでは評価が困難である。また,補足情報を必要以上に加えることで (f) の例のように不適切な文となってしまう場合がある.ここから,歩くや走るなどの動作の種類のみを出力し,確証度の低い補足情報は出力しない,といった出力される情報の粒度などを制御できることで,より実用的な場面での使用が期待できる. caption someone moves his left arm. a man wipes something with his left hand rPRAE a person performs a circular motion with his left hand possibly gripping an object PRAE a person wipes something with its left hand (a) wipe (left hand) caption a human who looks sad to the left. rPRAE a person practices a golf swing PRAE a person doing a golf swing. (d) play minigolf caption someone sprints forwards a human runs 4 steps forward in a fast speed. a person is running forward. a person runs forwards a person walks fast. rPRAE a person performs a few running steps from still stand and comes to rest again. PRAE a person jogs forward (b) run forward caption a human impersonates a chicken flapping its wings. someone imitates a chicken a human is wagging its arms like a "chicken" a person moves his hands to his chest and moves his elbows up and down several times a person does the chicken moves human performs a chicken dance a person squats while doing a chicken wing motion with his arms. rPRAE a person interacts with something uses a complex sequence of interactions. PRAE a person dances with another person (e) imitate chicken (uncertain action) 図 5 説明文の生成例 caption a person is pushed to the right. somebody is pushed to the right. rPRAE a person gets shoved from the left while standing and performs a recovery step to the right. PRAE a person gets pushed from the right (c) pushed to right caption a person walking forwards, turning on the righ food and walking back a person is walking forward than rotates 180 degree on it's right foot and walks back to it's starting position. rPRAE a person walks little bit and then makes a sharp turn to the left. PRAE human goes forward and turns around partway (f) walk forward and u-turn (turn right)
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G1-4.pdf
# 強化学習における画像キャプションの低識別性問題と Long-Tail 分類手法を用いた対処 本多右京 ${ }^{1,2}$ 渡辺太郎 ${ }^{1}$ 松本 裕治 ${ }^{2}$ 1 奈良先端科学技術大学院大学 2 理化学研究所 \{honda.ukyo.hn6, taro\}@is.naist.jp yuji.matsumoto@riken.jp ## 概要 画像キャプションは,他の画像から入力画像を識別できるような,各画像に特徴的な情報を述べていることが望ましい,しかし,強化学習を用いたキャプション生成モデルは,高性能でありながら過度に一般的な内容のキャプションを生成してしまう,興味深いことに,強化学習はキャプション中の語彙を減少させる. 本研究ではこの語彙の減少が低識別性の原因であると仮説を立て,long-tail 分類の手法を痛して既存モデルの語彙の増加を図る.実験の結果,提案手法が既存モデルの語彙を増加させるとともに,識別性も顕著に向上させることを確認した。 また,低計算コストながら,識別性向上を図った先行研究に対しても識別性で上回ることを確認した. ## 1 はじめに 画像キャプション生成 ${ }^{1}$ は画像の説明文を生成するタスクである.生成されたキャプションは,視覚障害者の補助 [1], 画像や動画の内容に基づく質問応答 $[2,3]$ ,画像に関する対話生成 [4],画像を用いたニュース生成 [5] など,様々な用途で活用されうる。 これらの用途で言及される情報は,各画像の特徴的な情報である. しかし,キャプション生成モデルは過度に一般的な内容のキャプションを生成してしまう (図 1 参照). 識別性のあるキャプション生成は,各画像の特徴的な情報を他の画像から大力画像を識別できる情報と捉え,この識別性を高めることを目標とする [6]. 先行研究では, 識別性向上に特化した新たな報酬やモデルが提案されてきた2) かし,これらの手法は計算コストの増加を伴い,さらにモデルを一から学習するコストを生じさせる. 本研究では,これらの計算コストを避け,学習済みの既存モデルの識別性を高める方法を検討する.  2)関連研究の詳細は付録 Aを参照. 図 1 MS COCO 開発セットでの出力例. Transformer RL は強化学習を用いた Transfromer モデル,+wFT はそれに提案手法の fine-tuning を加えたモデルを指す. 前者は同一の出力. 後者はその他に特徴的な情報(下線部)を含む. 特に,識別性改善の余地が大きい,強化学習を用いたモデル [7] に着目する. キャプション生成での強化学習は,様々な評価指標での顕著な性能向上にもかかわらず,識別性に関しては改善がないか,あるいは低下させることが報告されている $[8,9]$. 興味深いことに, 強化学習はキャプション中の語彙を減少させる [10]. モデルは実際に扱える語彙を超えた詳細を記述することが難しいため,語彙と識別性には強い関連がある。そこで,本研究ではこの語彙の減少が低識別性の原因であると仮説を立て,識別性のあるキャプション生成を,既存モデルの語彙増加のタスクとして捉え直す. 語彙増加の目的関数は簡明であり,提案手法である, long-tail 分類手法を応用した少量の fine-tuning で達成可能となる. 実験の結果,提案手法が既存モデルの語彙を増加させるとともに,識別性も顕著に向上させることを確認した。また,低計算コストながら,識別性のあるキャプション生成モデルに対しても識別性で上回った. ## 2 強化学習とその副作用 キャプション生成における強化学習キャプション生成における強化学習は,微分不可能な評価指標スコアを直接最大化することを目的とする。 REINFORCE [11]を適用することによって,評価指 図 2 MS COCO の学習用の各画像に 5 文ずつサンプリングされた単語系列中の,単語の相対頻度. OOVを示す特殊トークン 〈unk〉を除く9,486 語を対象とした. 単語は頻度順にソートされ,200の binに分割されている.最初の 10 個の bin と, 残りの合計の相対頻度を表示. GT は正解キャプション. CE は最尤推定法, RL は強化学習で学習されたモデルの出力を示す. モデルは Transformer. 標スコアの微分を回避しながら,勾配を以下のように求めることができる $[12,7]$. $ \nabla_{\theta} L_{\mathrm{RL}}(\theta) \approx-\left(r\left(w^{s}\right)-b\right) \nabla_{\theta} \log p_{\theta}\left(w^{s} \mid I\right) . $ ここで, $w^{s}=\left(w_{1}^{s}, \ldots, w_{T}^{s}\right) \sim p_{\theta}\left(w^{s} \mid I\right)$ は方策 $p_{\theta}$ からサンプリングされた単語系列, $I$ は大力画像, $r(\cdot)$ は報酬関数, $b$ は勾配の分散を安定させるための baseline 報酬である. 特に Rennie ら [7] の強化学習手法は高性能で, キャプション生成モデルの学習におけるデファクト・スタンダードとなっている [13]. しかし, 出力キャプションの語彙と識別性についてはむしろ減少させてしまうことがある $[10,8,9]$. 強化学習による語彙の減少 Choshen ら [14] の研究は,強化学習と語彙の減少の関係を明らかにする. 彼らは,強化学習がモデルの予測分布を peaky にすることを示した. 強化学習では, 方策 $p_{\theta}$ にもとづいて系列のサンプリングを行う. $p_{\theta}$ は, 正解キャプションを生成する事前学習によって初期化される.ところが,テキスト生成モデル一般において, 予測分布は高頻度語に偏ることが知られている $[15,16,17,18]$. このため, 強化学習では高頻度語のサンプリングと報酬の付与はできても,低頻度語についてはこれができない。この不均衡な報酬が,予測分布を高頻度語に向けてさらに peaky にし, 出力する語彙をそれら高頻度語に限定させる. 図 2 から,キャプション生成においても強化学習で高頻度語に peaky な分布が形成されることがわかる. 語彙の減少に伴う低識別性このように,モデル が実際に生成できる語彙は高頻度語に偏る。もし画像中にモデルが実際に扱える語彙ではカバーできない詳細があった場合,モデルはその詳細を避け,高頻度語で記述できる情報だけを出力せざるをえない. そこで,本研究では,語彙の減少が強化学習モデルの低識別性の原因であると仮説を立てる. ## 3 提案手法 強化学習による語彙の減少は,予測分布が低頻度語から高頻度語に向けて偏ることによって引き起こされる。そこで, 本研究では低頻度語の生成を促進することでこの語彙減少の問題に対処する.低頻度語の生成には, long-tail な不均衡データでの低頻度事例の分類手法が活用できる.以下では,これを応用した 2 つの fine-tuning 手法を提案する。 ## 3.1 Simple Fine-Tuning Simple fine-tuning (sFT) は, 正解キャプション上での単純な fine-tuning である.これは,画像分類問題における long-tail 分類手法で強力なベースラインとなっている, Kang ら [19] の手法にもとづいている. 彼らは分類器 $f_{\theta}(\cdot)$ を特徴抽出部分 $g_{\theta_{e}}(\cdot)$ と分類部分 $\boldsymbol{W}, \boldsymbol{b}$ に分解 ${ }^{3}$, さらに学習も 2 段階に分解する. 1 段階目の学習では, 特徴抽出部分の学習を主な目的として,全データを用いて分類器の全パラメータを学習する. 2 段階目の学習では, 特徴抽出部分のパラメータは固定し, 分類部分のパラメータのみを調整する。この調整の際,全データを使うのではなく,ラベルごとの事例数が均等になるようにサンプリングを行う. これを,強化学習を用いたキャプション生成に応用する. 1 段階目の特徵抽出部分の学習は, 強化学習を用いた通常のキャプション生成学習に相当する. 2 段階目で用いる, ラベルごとの事例数が均等なデータは,キャプションでは単語ごとの頻度の均衡がとれたデータに相当する。しかし,テキスト生成モデルからサンプリングされた系列は低頻度語を含まず,これを満たさない(2 節参照)。そこで,人手で作成された正解キャプションを,相対的に単語頻度の均衡がとれたデータとし, このデータの上で分類部分のパラメータの調整を行う. 学習データの語彙を $\mathscr{W}$ とし, ベクトル $z \in \mathbb{R}^{|W|}$ の単語 $w_{i}$ に対応する要素を $z_{w_{i}}$ と表記する. また, ベクトル $z$ に対して単語 $w_{i}$ に対応する要素を返す 3) $f_{\theta}(x)=\boldsymbol{W}^{\top} g_{\theta_{e}}(x)+\boldsymbol{b}$ softmax 関数を, $\Phi_{\beta, w_{i}}(z)=\frac{\exp \left(\beta z_{w_{i}}\right)}{\sum_{w_{j} \in \mathcal{W}} \exp \left(\beta z_{w_{j}}\right)}$ とする. $\beta$ は温度パラメータの逆数. これを用いて, 入力画像 $I$ の正解キャプション $w^{g}=\left(w_{1}^{g}, \ldots, w_{T}^{g}\right)$ の $\mathrm{t}$ 番目の単語 $w_{t}^{g}$ の尤度は,以下のように計算される. $ \begin{aligned} p_{\theta}\left(w_{t}^{g} \mid w_{<t}^{g}, I\right) & =\Phi_{\beta, w_{t}^{g}}\left(s_{\theta}^{t}\left(w^{g}, I\right)\right), \\ s_{\theta}^{t}\left(w^{g}, I\right) & =\boldsymbol{W}^{\top} g_{\theta_{e}}\left(w_{<t}^{g}, I\right)+\boldsymbol{b} . \end{aligned} $ 特徴抽出部分 $g_{\theta_{e}}(\cdot)$ の出力の次元数を $d$ とすると, $\boldsymbol{W} \in \mathbb{R}^{d \times|\mathscr{W}|}, \boldsymbol{b} \in \mathbb{R}^{|\mathscr{W}|} . g_{\theta_{e}}(\cdot)$ には Transformer [20] を用いた。分類部分の調整は, 以下の Cross-Entropy (CE) 誤差を最小化する fine-tuning によって行う. $ L_{\mathrm{CE}}(\hat{\theta})=-\frac{1}{T} \sum_{t=1}^{T} \log p_{\hat{\theta}}\left(w_{t}^{g} \mid w_{<t}^{g}, I\right) $ パラメータ $\hat{\theta}$ は強化学習を用いて事前学習されている。 パラメータの更新は,分類部分のパラメータ $\{\boldsymbol{W}, \boldsymbol{b}\} \in \hat{\theta}$ のみに対して,それぞれ勾配 $\nabla_{\boldsymbol{W}} L_{\mathrm{CE}}(\hat{\theta})$, $\nabla_{\boldsymbol{b}} L_{\mathrm{CE}}(\hat{\theta})$ を用いて行う. ## 3.2 Weighted Fine-Tuning 人手で作成された正解キャプションは,テキスト生成モデルからサンプリングされたキャプションに比べて低頻度語を含む割合が大きい.しかし,低頻度語は依然としてその頻度が低いことによって,高頻度語との間で学習の不均衡が残る. そこで, weighted fine-tuning (wFT) では, 頻度への操作ではなく各単語の $\mathrm{CE}$ 誤差への重み付けを行うことによって, この不均衡をさらに是正する. 強化学習モデルは,高頻度語に対しては高い確率を割り当て,低頻度語に対しては低い確率を割り当てるバイアスを学習している. Bias Product (BP) $[21,22]$ は,このようにバイアスを強く学習したモデルの確信度を利用することで,そのバイアスを取り除くように $\mathrm{CE}$誤差に重み付けを行うことができる.BPでの $w_{t}^{g}$ の尤度 $p_{\theta, \theta^{\prime}}$ は以下のように計算される。 $ \begin{aligned} & p_{\theta, \theta^{\prime}}\left(w_{t}^{g} \mid w_{<t}^{g}, I\right)= \\ & \Phi_{w_{t}^{g}}\left[\log \Phi_{\beta}\left(s_{\theta}^{t}\left(w^{g}, I\right)\right)+\log \Phi_{\beta^{\prime}}\left(s_{\theta^{\prime}}^{t}\left(w^{g}, I\right)\right)\right] . \\ & p_{\theta}\left(\cdot \mid w_{<t}^{g}, I\right) \quad p_{\theta^{\prime}}\left(\cdot \mid w_{<t}^{g}, I\right) \end{aligned} $ ただし, $\Phi_{\beta}(z) \in \mathbb{R}^{|W|}$. パラメータ $\theta$ と $\theta^{\prime}$ は同じ事前学習モデルで初期化されるが, $\theta$ は学習で更新されるのに対して $\boldsymbol{\theta}^{\prime}$ は固定される. 対数をとった上で $p_{\theta}$ と $p_{\theta^{\prime}}$ を足し合わせ,再度正規化することで, $p_{\theta}$ は,事前学習モデルのバイアスを反映した $p_{\theta^{\prime}}$ に対して相補的な値をとるよう学習される。 付録 Bに $\mathrm{CE}$ 誤差と BP 誤差を可視化した結果を示す. $\mathrm{wFT}$ の目的関数は, $L_{\mathrm{CE}}$ の $p_{\theta}$ を $p_{\theta, \theta^{\prime}}$ に置き換えて,以下のように定義する。 $ L_{\mathrm{BP}}(\hat{\theta})=-\frac{1}{T} \sum_{t=1}^{T} \log p_{\hat{\theta}, \hat{\theta}^{\prime}}\left(w_{t}^{g} \mid w_{<t}^{g}, I\right) $ $\mathrm{sFT}$ と同様に, パラメータ $\hat{\theta}$ と $\hat{\theta}^{\prime}$ は強化学習によって初期化され,パラメータの更新は,分類部分のパラメータ $\{\boldsymbol{W}, \boldsymbol{b}\} \in \hat{\theta}$ のみに対して,それぞれ勾配 $\nabla_{\boldsymbol{W}} L_{\mathrm{BP}}(\hat{\theta}), \nabla_{\boldsymbol{b}} L_{\mathrm{BP}}(\hat{\theta})$ を用いて行う. BP の先行研究に従い,予測時は $\boldsymbol{p}_{\boldsymbol{\theta}, \boldsymbol{\theta}^{\prime}}$ ではなく $\boldsymbol{p}_{\boldsymbol{\theta}}$ だけを用いる $[21,22]$. これは, $p_{\theta^{\prime}}$ の高頻度語へのバイアスを予測に取り込むことを防ぐためである. ## 4 実験 ## 4.1 実験設定 データセットと評価指標データセットには MS COCO [23, 24] の Karpathy 分割 ${ }^{4)}[25]$, 評価指標には, BLEU-4 (BL-4) [26], METEOR (MET) [27], ROUGE-L (RG-L) [28], CIDEr [29], SPICE [30], RefCLIP (RCLIP) [31] を使用した. 先行研究 [8, 9, 32] に 比較モデルベースライン (Transformer RL ${ }^{6}$ ) は, CIDErスコアを報酬とした強化学習 [7]で訓練された, 事前学習済みの配布モデルとした7). 識別性のあるキャプション生成モデルとの比較には, $\mathrm{R} @ \mathrm{~K}$ で最高性能を報告している CIDErBtw [9] と NLI [32] を用いた8). 強化学習モデルの語彙を増やす手法として, Joint CE [10] との比較も行った9). また, CE 誤差最小化だけを強化学習モデルと同エポック数学習したモデル Only CE との比較も行った. ハイパーパラメータの詳細は付録 $\mathrm{C}$ を参照. 提案手法の各 fine-tuning は 1 エポックのみ行い,メモリ 16 GB の GPU1 枚を用いて約 10 分で完了した. 4)頻度 5 以下の単語を〈unk〉に変換. 語彙は 9,487 語. 5) $\mathrm{R} @ \mathrm{~K}$ は, 出力キャプションを事前学習済みの画像-テキス卜検索モデル [33] に入力した際に,他の画像の中から入力画像を上位 $\mathrm{K}$ 位以内で検索できたキャプションの割合. $\mathrm{R} @ \mathrm{~K}$ が高いほど,出力キャプションの識別性が高いと判断される. 6)LSTM [34] モデルでも実験したが,同様の結果のため割愛. 7) https://github.com/ruotianluo/self-critical. pytorch Transformer+self_critical モデルを用いた. 8)これらは,CIDEr 報酬に加えて識別性に関する報酬を強化学習で最大化する手法である。 9)この手法では, $L_{\mathrm{RL}}$ と $L_{\mathrm{CE}}$ を同時に最適化することで,正解キャプション中の低頻度語のサンプリングを促す. しかし,依然として偏った分布からのサンプリングに依存することと, モデルを一から学習するコストが生じるという問題がある. 表 1 ベースライン・先行研究との比較. Uniq-1・Uniq-S は, 出力のうちの異なり語・異なり文の数. Len は出力の平均文長. 提案手法の結果は灰色の背景色. モデルは全て Transformer. 列の分割は左から,語彙,標準的評価,識別性に対応. 表 2 人手評価の比較. ベースライン(Transformer RL) の識別性スコアは,相対評価の基準として 3.00 に固定されている。*/**,ベースラインに対して, $\mathrm{t}$ 検定(識別性では 1 群 $\mathrm{t}$ 検定,それ以外では独立な 2 群の $\mathrm{t}$ 検定)で $p<0.05 / 0.01$ での統計的有意差があることを示す. ## 4.2 実験結果 表 1 に,MS COCO テストセットでのベースライン・先行研究との比較結果を示す. 語彙まず,sFT とwFT で Uniq-1 が顕著に増加していることから,提案手法が語彙の増加に成功していることがわかる.それにともなって Uniq-S も増加しており,各画像に対して個別のキャプションを生成できるようになっている。 また,Len が増加していないことから,単に文長を長くしてこれらの効果を得ているわけではないことがわかる. SFTに比べて wFT の方が語彙の増加が大きいことから,BP による重み付けに効果があることがわかる. 語彙増加を目的とした Joint CE や,強化学習を用いない Only CE もべースラインと比べて語彙の増加が顕著だが,提案手法が最も語彙の増加に成功している. 識別性仮説のとおり,語彙の増加を直接の目的関数とした提案手法によって,識別性(R@K)が顕著に向上していることがわかる. さらに,識別性向上を図った先行研究である CIDErBtw と NLI と比較しても,非常に高い $\mathrm{R} @ \mathrm{~K}$ スコアとなっている.これらの結果から, 語彙の減少が強化学習モデルの識別性を低くする大きな要因であったことがわかる。 標準的評価提案手法ではテキストベース指標 (BL-4, MET, RG-L, CIDEr, SPICE)でベースラインからスコアが減少しているが,人間の評価との相関がより高いとされるテキスト・画像ベース指標の RCLIP [31,35] では同等かそれ以上のスコアとなっている。このことから,提案手法の出力が質的に劣るわけではないことが示唆される. 提案手法の出力には,正解キャプションには含まれないが正しい低頻度語が多く見られた. これが,正解キャプションにある情報しか評価できないテキストベース指標のスコアを実際より大きく下げていると考えられる。 ## 4.3 人手評価 キャプションの識別性,正確性,流暢性について, Amazon Mechanical Turk を使って人手評価を行った.表 1 で高い性能を示したモデルを対象に,テストセットでの出力から 50 文をランダムに取り出し, 1 文に対して 5 人の作業者に,5 段階で各基準のスコアを付与してもらった ${ }^{10)}$ .表 2 に結果を示す. 識別性については提案手法が最も高いスコアを示し, ベースラインからも有意に高いスコアとなっている. 正確性と流暢性についてはベースラインと同等であり,ベースラインと比較して質的に劣るわけではないことを示している. これは, 4.2 節での RCLIP の結果と整合的である. ## 5 おわりに 本研究では,強化学習を用いたキャプション生成モデルの低識別性の原因が語彙の減少によるものと仮説を立て, long-tail 分類手法を応用して語彙を増加させる手法を提案した. 実験の結果,仮説のとおり,提案手法が語彙の増加によって既存モデルの識別性を顕著に向上させることを確認した.強化学習モデルの低識別性の原因を明らかにし,低コストで実用的な識別性向上手法を提案する貢献と考える. 10)ただし,識別性についてはスコアの絶対基準を設定することが難しいため, 先行研究 [9] に従って相対評価とした。この相対評価では, ベースライン(Transformer RL)の出力と比較して特徴的な情報が述べられていれば最大 5 , 同じ情報なら 3,それ以下の情報なら最小 1 という基準を提示した。 それ以外は,誤りの程度に応じて 5 から減点する絶対評価とした。 ## 参考文献 [1] Danna Gurari, Yinan Zhao, Meng Zhang, and Nilavra Bhattacharya. Captioning images taken by people who are blind. In ECCV, 2020. [2] Adam Fisch, Kenton Lee, Ming-Wei Chang, Jonathan H Clark, and Regina Barzilay. Capwap: Captioning with a purpose. In EMNLP, 2020. [3] Hyounghun Kim, Zineng Tang, and Mohit Bansal. Dense-caption matching and frame-selection gating for temporal localization in videoqa. In ACL, 2020. [4] Julia White, Gabriel Poesia, Robert Hawkins, Dorsa Sadigh, and Noah Goodman. Open-domain clarification question generation without question examples. In EMNLP, 2021. [5] Zhongping Zhang, Yiwen Gu, and Bryan A Plummer. Show and write: Entity-aware news generation with image information. arXiv preprint arXiv:2112.05917, 2021 [6] Amir Sadovnik, Yi-I Chiu, Noah Snavely, Shimon Edelman, and Tsuhan Chen. Image description with a goal: Building efficient discriminating expressions for images. In CVPR, 2012. [7] Steven J Rennie, Etienne Marcheret, Youssef Mroueh, Jerret Ross, and Vaibhava Goel. Self-critical sequence training for image captioning. In CVPR, 2017. [8] Lixin Liu, Jiajun Tang, Xiaojun Wan, and Zongming Guo. Generating diverse and descriptive image captions using visual paraphrases. In ICCV, 2019. [9] Jiuniu Wang, Wenjia Xu, Qingzhong Wang, and Antoni B Chan. Compare and reweight: Distinctive image captioning using similar images sets. In ECCV, 2020. [10] Qingzhong Wang and Antoni B Chan. Describing like humans: on diversity in image captioning. In CVPR, 2019. [11] Ronald J Williams. Simple statistical gradient-following algorithms for connectionist reinforcement learning. Machine learning, 1992. [12] Marc'Aurelio Ranzato, Sumit Chopra, Michael Auli, and Wojciech Zaremba. Sequence level training with recurrent neural networks. In ICLR, 2015. [13] Matteo Stefanini, Marcella Cornia, Lorenzo Baraldi, Silvia Cascianelli, Giuseppe Fiameni, and Rita Cucchiara. From show to tell: A survey on image captioning. arXiv preprint arXiv:2107.06912, 2021. [14] Leshem Choshen, Lior Fox, Zohar Aizenbud, and Omri Abend. On the weaknesses of reinforcement learning for neural machine translation. In ICLR, 2020. [15] Toan Q Nguyen and David Chiang. Improving lexical choice in neural machine translation. In NAACL-HLT, 2018 [16] Vikas Raunak, Siddharth Dalmia, Vivek Gupta, and Florian Metze. On long-tailed phenomena in neural machine translation. In Findings of ACL: EMNLP 2020, 2020. [17] David Demeter, Gregory Kimmel, and Doug Downey. Stolen probability: A structural weakness of neural language models. In ACL, 2020 . [18] Ari Holtzman, Jan Buys, Li Du, Maxwell Forbes, and Yejin Choi. The curious case of neural text degeneration. In ICLR, 2020. [19] Bingyi Kang, Saining Xie, Marcus Rohrbach, Zhicheng Yan, Albert Gordo, Jiashi Feng, and Yannis Kalantidis. Decoupling representation and classifier for long-tailed recognition. In ICLR, 2020. [20] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NeurIPS, 2017. [21] Christopher Clark, Mark Yatskar, and Luke Zettlemoyer. Don' $t$ take the easy way out: Ensemble based methods for avoiding known dataset biases. In EMNLP-IJCNLP, 2019. [22] He He, Sheng Zha, and Haohan Wang. Unlearn dataset bias in natural language inference by fitting the residual. In EMNLPJJCNLP, 2019 [23] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, and C Lawrence Zitnick. Microsoft coco: Common objects in context. In ECCV, 2014. [24] Xinlei Chen, Hao Fang, Tsung-Yi Lin, Ramakrishna Vedantam, Saurabh Gupta, Piotr Dollár, and C Lawrence Zitnick. Microsoft coco captions: Data collection and evaluation server. arXiv preprint arXiv:1504.00325, 2015. [25] Andrej Karpathy and Li Fei-Fei. Deep visual-semantic alignments for generating image descriptions. In CVPR, 2015. [26] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In ACL, 2002. [27] Michael Denkowski and Alon Lavie. Meteor universal: Language specific translation evaluation for any target language. In The Ninth Workshop on Statistical Machine Translation, 2014. [28] Chin-Yew Lin. Rouge: A package for automatic evaluation of summaries. In Text Summarization Branches Out, 2004. [29] Ramakrishna Vedantam, C Lawrence Zitnick, and Devi Parikh. Cider: Consensus-based image description evaluation. In CVPR, 2015. [30] Peter Anderson, Basura Fernando, Mark Johnson, and Stephen Gould. Spice: Semantic propositional image caption evaluation. In ECCV, 2016. [31] Jack Hessel, Ari Holtzman, Maxwell Forbes, Ronan Le Bras, and Yejin Choi. Clipscore: A reference-free evaluation metric for image captioning. In EMNLP, 2021. [32] Zhan Shi, Hui Liu, and Xiaodan Zhu. Enhancing descriptive image captioning with natural language inference. In ACL, 2021. [33] Fartash Faghri, David J Fleet, Jamie Ryan Kiros, and Sanja Fidler. Vse++: Improving visual-semantic embeddings with hard negatives. In BMVC, 2018. [34] Sepp Hochreiter and Jürgen Schmidhuber. Long short-term memory. Neural computation, 1997 [35] Jungo Kasai, Keisuke Sakaguchi, Lavinia Dunagan, Jacob Morrison, Ronan Le Bras, Yejin Choi, and Noah A Smith. Transparent human evaluation for image captioning. arXiv preprint arXiv:2111.08940, 2021 [36] Will Monroe, Robert XD Hawkins, Noah D Goodman, and Christopher Potts. Colors in context: A pragmatic neural model for grounded language understanding. TACL, 2017. [37] Ramakrishna Vedantam, Samy Bengio, Kevin Murphy, Devi Parikh, and Gal Chechik. Context-aware captions from contextagnostic supervision. In CVPR, 2017. [38] Reuben Cohn-Gordon, Noah Goodman, and Christopher Potts. Pragmatically informative image captioning with character-level inference. In NAACL-HLT, 2018 [39] Jiuniu Wang, Wenjia Xu, Qingzhong Wang, and Antoni B Chan. Group-based distinctive image captioning with memory attention. In ACM MM, 2021 [40] Ruotian Luo, Brian Price, Scott Cohen, and Gregory Shakhnarovich. Discriminability objective for training descriptive captions. In CVPR, 2018. [41] Xihui Liu, Hongsheng Li, Jing Shao, Dapeng Chen, and Xiaogang Wang. Show, tell and discriminate: Image captioning by selfretrieval with partially labeled data. In ECCV, 2018. [42] Gilad Vered, Gal Oren, Yuval Atzmon, and Gal Chechik. Joint optimization for cooperative image captioning. In ICCV, 2019. [43] Jie Wu, Tianshui Chen, Hefeng Wu, Zhi Yang, Guangchun Luo, and Liang Lin. Fine-grained image captioning with global-local discriminative objective. IEEE Transactions on Multimedia, 2021. [44] Bo Dai and Dahua Lin. Contrastive learning for image captioning. In NeurIPS, 2017. [45] Bo Dai, Sanja Fidler, Raquel Urtasun, and Dahua Lin. Towards diverse and natural image descriptions via a conditional gan. In ICCV, 2017 図 $3 \mathrm{CE}$ 誤差 $-\log p_{\theta}\left(w_{i}\right)$ と $\mathrm{BP}$ 誤差 $-\log p_{\theta, \theta^{\prime}}\left(w_{i}\right)$ の可視化結果. BP 誤差の計算には $\left.\{p_{\theta}\left(w_{j}\right)\right.\}_{w_{j} \in \mathscr{W}}$ と $\left.\{p_{\theta^{\prime}}\left(w_{j}\right)\right.\}_{w_{j} \in \mathscr{W}}$ の全単語の値を定める必要がある. ここでは, $i=1$ として,$\frac{1}{5}\left(1-p_{\theta}\left(w_{1}\right)\right)$ を次の 5 つの要素 $w_{2}, \ldots, w_{6}$ に割り振った. これは,強化学習の予測分布では,最も確率の高い 5 つ単語が全体の $99 \%$ の確率を占めているという観測にもとづく. $p_{\theta}$ と $p_{\theta}$ は同じパラメータで初期化されるため, 上位 5 つの単語は両者の出力で同一と仮定し, $\frac{1}{5}\left(1-p_{\theta^{\prime}}\left(w_{1}\right)\right)$ も次の 5 つの要素 $w_{2}, \ldots, w_{6}$ に割り振った. ここでは, $\beta=\beta^{\prime}=1$ とした. ## A 関連研究詳細 識別性のあるキャプション生成の初期に主流であった手法は, 入力画像に類似した画像を与えて, それらとは異なる情報を記述させる手法であった [30, 36, 37, 38, 39]. しかし, これらの手法では予測時にも類似画像を収集するコストがかかる. そこで,予測時に類似画像を必要としない手法が提案されるようになった ${ }^{11}$. これらの手法は主に,識別性に関する報酬を新たに設計し,これを追加報酬として強化学習等で最大化するものである $[40,41,42,43,9,32]$. その他には,負例のキャプションを用いて対照学習 [44] や敵対的学習 [45]を行うもの,正解キャプション12)を単純なものと複雑なものに分割し,前者から後者への言い換えを行うモデルを提案したもの [8]がある. 上記のいずれの手法も,識別性を直接的に向上させる目的で,新たな報酬やモデルの設計を行っている.しかし,これらは計算コストの増加を伴い,さらにモデルを一から学習するコストを生じさせる. これに対して,提案手法は, 既存モデルの語彙増加タスクとして捉え直されたタスクを扱う。これによって目的関数が簡明になり,既存モデルに対して少量の fine-tuning を適用するだけで識別性が向上する利点がある. ## B CE 誤差と BP 誤差の可視化 図 3 に CE 誤差と $\mathrm{BP}$ 誤差の可視化結果を示す.この図から,バイアスを反映したモデルの出力 $p_{\theta^{\prime}}$ が単語 $w_{i}$ について確信度が高いとき $\left(p_{\theta^{\prime}}\left(w_{i}\right)=0.9\right)$ は BP 誤差は非常に小さくなり, 逆に確信度が低いとき $\left(p_{\theta^{\prime}}\left(w_{i}\right) \in\{0.1,0.01\}\right)$ には BP 誤差は CE 誤差と比較して 11)本研究もこの設定に従っている. 12)人手でアノテーションされたキャプションで, 1 枚の画像に対して5つ付与されている [23, 24]. Transformer RL: a tower with a clock on top of it +wFT: a clock tower with a weather vane on top NLI: a tower with a clock on the top of it Human: a weather vane atop a cathedral clock tower Transformer RL: a group of birds standing in the water +wFT: a large group of flamingos stand in shallow water NLI: a group of pink umbrellas are standing in the water Human: a flock of pink flamingos standing in shallow water Transformer RL: a black cat wearing a hat on top of a table +wFT: a cat wears a funny hat while staring straight ahead NLI: a black cat wearing a hat sitting on a table Human: the cute black cat is wearing a bee's hat Transformer RL: a dog next to a cup of coffee +wFT: a dog is sniffing a cup of coffee NLI: a dog standing next to a coffee cup on a table Human: a squinting dog on a brick patio sniffs a cup of coffee 図 4 MS COCO 開発セットでの出力例. 青字はベースライン(Transformer RL)の開発セット中の出力に一度も現れなかった単語を示す。ただし,正解キャプション (Human)は青字表記の対象外. 大きくなることがわかる. ## C ハイパーパラメータ ハイパーパラメータは,エポック数,学習率,式 $(2,5)$ の $\beta$, 式 (5) の $\beta^{\prime}$ 以外は全てベースラインモデルと同じものを用いた ${ }^{13)}$. ただし, $\beta=1$ としたので, $\beta$ についてはベースラインモデルと同じである. 提案手法の fine-tuning のエポック数はいずれにおいても 1 とし, 学習率は $\{1 \mathrm{e}-3,1 \mathrm{e}-4,1 \mathrm{e}-5,1 \mathrm{e}-6\} , \beta^{\prime}$ は $\{0.1,1\}$ のち,開発セットでの R@1 スコアが最も高くなるものを選択した. ベストハイパーパラメータは,学習率は 1e-5, $\beta^{\prime}$ は 0.1 であった. モデルのパラメータサイズは,比較モデルも含めてすべて同一である.ただし, wFT での固定パラメータ $\theta^{\prime}$ は,学習されず予測時にも使用されないので,このパラメータ数には含めていない。 ## D 出力例の分析 図 4 にキャプションの出力例を示す. 提案手法出力 (+wFT)では青字表記が多く,強化学習モデルの語彙に含まれない低頻度語が生成されていることがわかる。また, これらは各画像の特徴的な情報にもなっており,低頻度語の生成が識別性の向上に貢献していることがわかる. 13) https://github.com/ruotianluo/self-critical. pytorch/blob/master/configs/transformer/transformer_ scl.yml
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G2-1.pdf
# Comparing Syntactic Complexity Measures Counted by Tregrexbased Tagging and UD-based Tagging for Evaluating L1 Japanese EFL Paragraph Writing SPRING Ryan ${ }^{1}$ JOHNSON Matthew ${ }^{2}$ ${ }^{1}$ Tohoku University ${ }^{2}$ Unaffiliated \{spring.ryan.edward.c4\}@tohoku.ac.jp \{mjokimoto\}@gmail.com } \begin{abstract} Automatically calculated measures of syntactic complexity can provide useful insight in L2 learners' writing ability and general proficiency. Many tools have been developed for this purpose, but so far many of them depend on Tregrex tagging. However, recent NLP tools provide universal dependency tags which can also be used to calculate some similar measures of syntactic complexity. This paper compares the ability of a tool on parsing provided by $\mathrm{SpaCy}[1]$ for this purpose, the SSCC, to another popular tool that provides measures based on Tregrex tagging, the L2SCA. We found that the SSCC and L2SCA calculated many measures similarly, but that for congruent measures (i.e., MLS, MLC, DC_C), the SSCC measures were more associated with L2 writing ability and general proficiency. Furthermore, some measures only provided by the L2SCA correlated with TOEFL ${ }^{\circledR}$ ITP scores, but not writing scores (i.e., C_T, VP_T, CT_T, CN_T, CN_C), whereas some measures that only the SSCC could provide were correlated with both (i.e., DC_S, and CSTR_S). We conclude that both the SSCC and L2SCA have advantages and disadvantages and that more study is required to see under what conditions certain measures from the two tools are most associated with L2 writing and general proficiency. \end{abstract ## 1 Introduction Many objective measures of syntactic complexity have been found to be correlated to writing ability, albeit in differing ways and amounts $[2,3,4]$. Due to the large and steadily increasing number of syntactic complexity measures that exist, automatic calculation of such measures through reliable tools can be helpful to researchers and educators. One such tool is the L2 Syntactic Complexity Analyzer (L2SCA) [5] which automatically provides a number of measures based on the results of Tregrex tagging provided by the Stanford Parser [6]. Recently one NLP tool of interest is SpaCy, which has been shown to be both quicker and, in some cases, more effective than many other similar NLP tools at tagging noun types [7], and providing measures of lexical complexity [8]. However, SpaCy uses universal dependency (UD) tagging [9] as opposed to Tregrex, and therefore the measures of syntactic complexity that can be provided by $\mathrm{SpaCy}$ may differ both theoretically and in usefulness as compared to previous systems such as the L2SCA. Therefore, this paper aims to determine what sorts of meaningful syntactic complexity measures can be calculated with $\mathrm{SpaCy}$, how comparable they are to Tregex-based measures, and how well they correlate to human-based writing assessments and general L2 proficiency. ## 2 Previous Studies ## 2.1 Syntactic Complexity and L2 Writing Syntactic complexity has been linked to L2 writing ability and proficiency in a wealth of studies $[5,10,11]$. However, the measures that correlate the most can vary depending on factors such as task [4] and learner L1 [12]. Furthermore, the syntactic features that assist L2 students in academic writing are not always congruent with those that will result in them receiving higher human rating [2]. Researchers have been continuing to invent, refine, and compare various measures of syntactic complexity in a variety of contexts in order to determine which are most universal and practical in certain situations. ## 2.2 Automatically Calculated Measures based on Tregex One popular tool that has been created to automatically calculate several measures of syntactic complexity is the L2SCA [5]. It takes a folder of text files and runs them through the Stanford Parser and then analyzes the resulting Tregex tree sentence by sentence to provide nine different counts of syntactic elements and 14 transformed measures based on average length of syntactic units, ratios or counts of subordinate clauses, t-units, verb phrases, noun phrases, complex nominals, and subordination. The measures that this tool calculates have been shown to be rather reliable as evidenced by several studies which found them to be associated with L2 proficiency and writing ability, although there is variance regarding which measures are associated and to what degree $[4,5,10,12$, 13]. ## 2.3 Syntactic Complexity Measures Based on UD It is not yet known how well automatically calculated measures of syntactic complexity based on UD syntax will correlate with L2 proficiency. Though various UD tags have been used for a more "fine-grained" analysis of syntactic complexity and demonstrated correlation with L2 writing proficiency, there are still many UD tags that have not been explored for L2 writing evaluation purposes, and the tags in initial works were human augmented, rather than purely automated calculations [10]. Here, the NLP tool SpaCy [1] could be potentially useful, as it has been shown to have superior parsing ability to similar tools such as NLTK [7, 8] and provides UD tagging, which could then be counted and used for calculating transformed measures similar to those of the L2SCA. However, simply counting UD tags does not allow for certain syntactic relationships to be observed as with Tregex parsing, and thus it is impossible to accurately measure the number of verb phrases or $t$-units with $\mathrm{SpaCy}$ in the same way that the L2SCA does. Thus, it is unclear exactly which measures of syntactic complexity $\mathrm{SpaCy}$ can be used to reliably calculate and how much these measures would be associated with L2 writing ability and general proficiency. ## 2.4 Research Questions Based on the body of work introduced above, $\mathrm{SpaCy}$ should be able to calculate some measures of syntactic complexity similarly to the L2SCA, but it is unclear exactly which measures can be calculated based on UD tagging or how associated the measures produced with these tags will be with L2 ability. This paper thus seeks to offer new insights by answering the following research questions: 1. What measures of syntactic complexity can be calculated with SpaCy UD tagging, and how do these measures compare to the measures calculated from a Tregrex-based tool? 2. To what degree are the measures of syntactic complexity calculated by $\mathrm{SpaCy}$ associated with the L2 writing ability and general proficiency of L1 Japanese EFL learners? ## 3 Methods ## 3.1 Creating a UD Tag-based Tool We created a SpaCy based Syntactic Complexity Calculator (SSCC) tool for automatically calculating syntactic measures using Python 3.9 that can run on both UNIX-based and windows-based machines. The user provides the SSCC with a set of text files, and the tool then parses each file using SpaCy, calculates measures based on the UD tags ${ }^{\mathrm{i}}$, and then exports the results into a csv file. However, since there is no Tregex pattern to follow, the SSCC can calculate only some of the same syntactic elements that the L2SCA does, while some must be counted in a different fashion, and others (i.e., T-units and verb phrases) become problematic or impossible to count. Based on SpaCy's outlined UD tagging, we designed the SSCC to calculate the following measures of syntactic complexity, as given in Table 1 and explained below. Some measures that are theoretically the same or highly similar between the SSCC and the L2SCA include: $\mathrm{W}, \mathrm{S}, \mathrm{C}, \mathrm{CO}, \mathrm{DC}$ and $\mathrm{CP}$. The SSCC calculates the number of words and sentences in almost an identical fashion to the L2SCA: the words are tokenized and then counted minus punctuation, and the number of sentences is calculated by counting the number of ROOT tags. The  number of clauses in the SSCC is obtained by counting the number of subject tags, since every clause requires a subject. The SSCC determines the number of dependent clauses by counting UD tags for dependent clauses: ACL, RELCL, and ADVCL. The number of coordinates, which is similar, but not identical to coordinate phrases counted by the L2SCA, is counted as the number of coordinate tags: $\mathrm{CC}$ and CONJ. Major differences between the SSCC and L2SCA are the former tools' inability to count $\mathrm{T}$-units and verb phrases. Navigating Tregrex parsing allows the L2SCA to define and reliably count $\mathrm{T}$-units, verb phrases and complex nominals by comparing their relationship to other syntactic elements within each sentence. However, the SSCC creates a string of UD tags, and thus counting certain syntax units only when they appear in relation to other units is not possible. Nevertheless, the UD tags do allow the counting of other syntactic units, such as modifications and compliments. Therefore, though the SSCC cannot count "complex" units in the same way as the L2SCA, it can provide a count of complex structures by summing the tags of all coordinates, compliments, modifications, etc. We programmed the SSCC to also give a count of all theoretically complex structures in a count called CSTR. The SSCC then calculates transformations based on the UD tag counts. Following the L2SCA [5], the mean number of the various counts were divided by the syntactic units that the SSCC can count (e.g. sentences and clauses). Table 1 SSCC Transformed Measures ## 3.2 Participants and Writing Task The used the same data set from a previous study [8]: 135 paragraphs written by 2nd year L1 Japanese university students on the topic of whether or not they thought tobacco should be made illegal in Japan. The participants performed the task under a 15 -minute time constraint and the 135 paragraphs were obtained after excluding any responses that were under 50 words or written off-topic from a wider participant set. According to the results of students' TOEFL® ITP scores (383-677, $\mathrm{M}=519.5, \mathrm{SD}=43.3$ ), 12 should be considered CEFR A2 level, 84 should be considered B1, 38 should be considered B2 level, and one should potentially be considered $\mathrm{C} 1$ level $[8,14]$. Five humans rated the paragraphs from 1 to 3 based on the fact that the students mostly belonged to one of three CEFR levels, and highly substantial agreement amongst raters was achieved; $\kappa$ $=.74, p<.001[8]$. ## 3.3 Data Analysis To compare the measures produced by the tools, we made pairwise Pearson's correlation analyses between those calculated by the L2SCA and the SSCC. The summed rater score was used as an ordinal measure of writing ability, and thus Spearman's correlation analyses were used to check for association between writing ability and individual measures of syntactic complexity given by the two tools. Pearson's correlation analyses were also used to check for association between the measures and TOEFL ${ }^{\circledR}$ ITP scores. ## 4 Results ## 4.1 Tool Comparison The correlations between the measures produced by the SSCC and the L2SCA are shown in Table 2. Table 2 SSCC Transformed Measures ${ }^{*} p<.05,{ }^{* *} p<.01$ ## 4.2 Association with L2 Proficiency The correlations between writing and TOEFL ${ }^{\circledR}$ ITP scores and various measures provided by the SSCC and L2SCA are given in Table 3. Table 3 SSCC Transformed Measures ## 5 Discussion and Conclusion The results of this study suggest that some measures of syntactic complexity provided by the SSCC and L2SCA are quite comparable. The pure counts of words, sentences, and clauses are similar between the two tools, as expected, as are the levels of correlation between their respective calculated measures and both writing and TOEFL $\circledR^{\circledR}$ ITP scores. The transformations of these variables, i.e., MLS, MLC and C_S, are also quite similar, although they show slightly less correlation than the pure counts, and the SSCC calculated measures show slightly higher correlation to human rating and TOEFL $\mathbb{R}$ ITP scores than those of the L2SCA. While both tools count dependent clauses and coordination, these counts and their transformations (i.e., $\mathrm{DC}_{-} \mathrm{T} / \mathrm{S}, \mathrm{DC}_{-} \mathrm{C}$ and $\mathrm{CP}_{-} \mathrm{T} / \mathrm{S}$ or $\left.\mathrm{CP}_{-} \mathrm{C}\right)$ show more variation than other measurements. These differences resulted in the SSCC's measures being generally more associated with L2 writing ability and proficiency than those of the L2SCA. One of the largest drawbacks to the SSCC, as compared to the L2SCA, is that it is unable to count VPs and T-units. However, despite the theoretical importance of these measures and transformations based on them [5, 13, 15], calculating them seems only somewhat important for the data set in this study. Specifically, the number of T-units, VPs and CTs showed significant correlation to human rating, and VPs and CTs showed correlation to TOEFL $\mathbb{B}$ ITP scores, but most of the transformations based on them did not. For example, MLT, C_T, VP_T, and CT_T were correlated with TOEFL® ITP scores, but not human rating. Furthermore, though $\mathrm{CN}_{-} \mathrm{T}$ was correlated with TOEFL ${ }^{\circledR}$ ITP scores, so was the similar transformation CSTR_S given by the SSCC, which correlated to writing scores as well. Finally, the correlation between $\mathrm{T}$ and $\mathrm{S}$, given by the L2SCA was $r=.859, p<.001$, and there was significant correlation between measures given by the SSCC divided by $\mathrm{S}$ as similar measures given by L2SCA divided by T (i.e., CP_T and CO_S, DC_T and DC_S). Therefore, it is questionable how important calculating Tunits is for L2 syntactic complexity analysis, when transformations based on sentences seem to be just as, if not more, associated with greater L2 writing ability and general L2 English proficiency. The results of this study vary from those of $\mathrm{Lu}$ [5], who found all of the transformations provided by the L2SCA showed significant differences in the average scores of three different level groups of L1 Chinese learners' essays. The discrepancies could be partially due to the fact that $\mathrm{Lu}[5]$ used ANOVA analyses to find average differences, whereas this study used Spearman's correlation tests to determine how closely each variable correlated with summed rater scores. Another possibility for the differences could be due to the task type - this study utilized single paragraphs rather than full essays. In summary, both the SSCC and L2SCA provide some very similar measurements of syntactic complexity, but those given by the UD-counting system of the SSCC seem to be more associated with the L2 paragraph writing ability of L1 Japanese EFL learners. However, the L2SCA provides some measures that the SSCC does not which seem to be correlated to general L2 proficiency, but not writing ability. Therefore, which tool and measurements to use will likely vary depending on user intent. ## References [1] M. Honnibal and I. Montani, "spaCy 2: natural language understanding with Bloom embeddings, convolutional neural networks and incremental parsing," 2017. [Online]. Available: https://spacy.io/ [2] S. A. Crossley and D. S. McNamara, "Does writing development equal writing quality? A computational investigation of syntactic complexity in L2 learners," Journal of Second Language Writing, vol. 26, pp. 66-79, 2014. [3] L. Ortega, "Syntactic complexity measures and their relationship to L2 proficiency: A research synthesis of college-level L2 writing," Applied Linguistics, vol. 24, no. 4, pp. 492-518, 2003. [4] W. Yang, X. Lu, and S. C. Weigle, "Different topics, different discourse: Relationships among writing topic, measures of syntactic complexity, and judgments of writing quality," Journal of Second Language Writing, vol. 28, pp. 53-67, 2015. [5] X. Lu, "Automatic analysis of syntactic complexity in second language writing," International Journal of Corpus Linguistics, vol. 15, no. 4, pp. 474-496, 2010. [6] D. Klein and C. D. Manning, "Fast exact inference with a factored model for natural language parsing," In S. Becker, S. Thrun, and K. Obermayer, editors, Advances in Neural Information Processing Systems 15, pp. 3-10. MIT Press, 2003 [7] X. Schmitt, S. Kubler, S., J. Robert, M. Papadakis, and Y. LeTraon, "A Replicable Comparison Study of NER Software: StanfordNLP, NLTK, OpenNLP, SpaCy, Gate," Sixth International Conference on Social Networks Analysis, Management and Security, pp. 338-343, 2019. [8] R. Spring and M. Johnson, "The possibility of improving automated calculation of measures of lexical richness for EFL writing: A comparison of the LCA, NLTK, and SpaCy tools," System, forthcoming, 2022. [9] C. M. de Marnefe, C. D., Manning, J. Nivre, and D. Zeman, "Universal Dependencies," Computational Linguistics, vol. 47, no. 2, pp. 255-308, 2021. [10] J. Jiang, P. Bi, and H. Liu, "Syntactic complexity development in the writings of EFL learners: Insights from a dependency syntactically-annotated corpus," Journal of Second Language Writing, vol. 46, pp. 1-13, 219. [11] K. Wolfe-Quintero, S. Inagaki, and H. Y. Kim, Second Language Development in Writing: Measures of Fluency, Accuracy, and Complexity, University of Hawaii Press, 1998. [12] X. Lu and H. Ai, "Syntactic complexity in collegelevel English writing: Differences among writers with diverse L1 backgrounds," Journal of Second Language Writing, vol. 29, pp. 16-27, 2015. [13] X. Lu, "A corpus-based evaluation of syntactic complexity measures as indices of college-level ESL writers' language development," TESOL Quarterly, vol. 45, no. 1, pp. 36-62, 2011. [14] Educational Testing Service, "Interpreting TOEFL® ITP scores," 17 December 2021. [Online]. Available: https://www.ets.org/toefl_itp/scoring/interpret/ [15] K. W. Hunt, "Do sentences in the second language grow like those in the first?," TESOL Quarterly, vol. 4, no. 3, pp. 195-202, 1970
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G2-2.pdf
# 機械学習を利用した日本語小論文採点手法の比較 堀江遼河 岡山大学大学院自然科学研究科 ptmn0udx@s.okayama-u.ac.jp ## 1 概要 本論文では日本語小論文採点システムの構築について記述する。採点手法として BERTやBOWを利用し小論文の文書ベクトルの獲得を行い,SVR やXGBoost などの分類器で学習することで人手に近い採点を得ることを目標とする。精度を QWK (Quadratic Weighted Kappa)を用いて評価することで作成したモデルを比較した. 実験の結果から BERT と BOW を組み合わせた方がより高性能であった。 また課題として書くべき内容が明確な設問に対して SVR の精度が高く, 自由記述の設問は XGBoost の精度が高い傾向があることが実験で示された. ## 2 はじめに 近年,大学入試改革において,資質や能力の育成が重点となっている. 初等中等教育を通じて論理的な思考力や表現力の育成は重要視されており, 大学入学共通テストでは思考力, 判断力, 表現力を測ることを目的として役割を果たしている. これらを評価する手段として,2021 年の大学入学共通テストでは当初国語と数学において記述式問題が採用されると発表されていた. しかしながら, 大学入学共通テストの記述式問題を導入することが見送られることが発表された. 採点者間における基準の差異が発生したり,質の高い採点者の確保が可能かどうかといった点が課題となっている。また,採点者間だけでなく,同一採点者であっても大量の答案をミスなく採点することは難しく,採点者の心理状態や疲労などにより公正,公平な採点の確保が課題となっている. したがって,人手による大量の記述式問題の採点は人員的かつ公平性の観点から実施難度が高く, 導入が難しい. これらの問題点から, 記述式問題を一貫して採点することができるシステムの構築が必要とされている.竹内孔一 岡山大学学術研究院自然科学学域 takeuc-k@okayama-u.ac.jp ## 3 関連研究 関連研究として, 竹谷ら [1] の小論文とキーフレーズを比較して採点を行う手法や清野ら [2] による Neural Attentionを組み込んだモデルや竹内ら [3] の IDF で評価する手法がある. 本手法では BERT を用いたモデルを作成し,得られる分散表現を用いて評価を行う。 ## 4 小論文採点システム 本提案システムは,採点結果として 1 点から 5 点を出力する. 図 1 にシステムの全体像を示す. 図 1 小論文採点システムの全体図 ## 4.1 文書ベクトル獲得モジュール BERT (Bidirectional Encoder Representations from Transformers)[4] は 2018 年に Google が開発した事前学習済み自然言語処理タスクを行うモデルである.前後の単語から該当単語の分散表現ベクトルを獲得するため,文脈を考慮したべクトルの得られる. BERT は入力文の先頭に CLS があり,CLS は入 力文全体に対する分散表現ベクトルが埋め込まれている. 本研究では一つの小論文から得られる文書を CLS を使用することで分散表現ベクトルに変換し,実験を行う. また,追加実験として bag of words と BERT を組み合わせたべクトルを使用したモデルの作成を行う. bag of words は文章に対して形態素解析を行い, 出現した形態素の頻度をべクトルとしたものである. bag of words の語彙数は 32,000 として実験を行う. BERT と bag of words のベクトルは結合し,一つの大きなべクトルとして獲得させる. 本実験で利用する BERT は HuugingFce の BERT ${ }^{1)}$ を利用する.トークナイザーとして MeCab の Wordpiece 版を利用する。 ## 4.2 分類器モジュール 本実験ではサポートベクターマシン (SVM) と XGBoostをそれぞれ分類器として利用し学習をさせる. 本問題を回帰問題としてサポートベクターマシンは回帰モデルでの実装を行う.点数データはすべて整数で表現されているため,サポートベクターマシンでも整数値で出力する. 回帰モデルでの出力は小数値のため少数第一位で四捨五入を行い,1 点から 5 点の整数値に丸め込みを行う. XGBoost はブー スティングで決定木の構築を繰り返して, 最適な結果を出力する手法である. 入力されたべクトルと正解データから最適な木構造を構築し, 学習を行う. その際に構築される木の深さは 6 とした. ## 5 評価実験 BERT および BOW を利用した場合のべクトルと分類器による採点性能の評価を行うために評価実験を行う.評価実験では,採点済み答案データを学習データとしテストデータに分けて,学習データで分類器を学習し, テストデータで評価する. 以下では各詳細について述べる. ## 5.1 小論文データ 本研究で使用する小論文データは講義に参加したそれぞれ約 300 人の学生の答案である. 表 1 に実験で利用する小論文課題と答案数う,ならびにテストデータ,学習データに利用する答案数について示す. 講義は「グローバリゼーションの光と影」,「自然科学の構成と科学教育」,「東アジア経済の現状」,「批判的思考とエセ科学」の 4 講義であり, 設問は 3  つずつある. 表では「グローバリゼーションの光と影」を「グローバル」,「自然科学の構成と科学教育」 を「自然科学」,「東アジア経済の現状」を「東アジア」,「批判的思考とエセ科学」を「批判的思考」と省略している.記述が一定の文字数に満たないものや空白であるものについては除外しているため,同講義内で回答者数は一致していない. 本研究で利用している小論文データは言語資源協会から公開されている2). 表 1 各講義の設問ごとの小論文データと実験に使用する ## 5.2 設問内容 本節では講義の設問内容を示す. 講義名 :「グローバリゼーションの光と影」 問 1 「グローバリゼーションは、世界、または各国の所得格差をどのように変化させましたか。また、なぜ所得格差拡大、または縮小の現象が現れたと考えますか。 300 字以内で答えなさい。」 問 2 「多国籍企業は、グローバリゼーションの進展の中でどのような役割を果たしましたか。多国籍企業の具体例をあげて、250 字以内で答えなさい。」 問 3 「文化のグローバリゼーションは、私たちの生活にどのような影響を与えましたか。また、あなたはそれをどのように評価しますか。具体例をあげて、300 字以内で答えなさい。」 講義名 :「自然科学の構成と科学教育」 問 1 「「科学的」とはどのような条件をみたす必要があるのか 100 字以内で答えよ。」 問 2 「講義で解説した自然科学の二つの側面を参考に、自然科学が果たす役割について 400 字以内 2) https://www.gsk.or.jp/catalog/gsk2021-b で論ぜよ。」 問 $3\lceil\lceil$ Scientific and Technological Literacy for All」 の狙いを考慮し、これからの科学教育はどうあるべきか 500 字以上 800 字以内で論ぜよ。」 ## 講義名:「東アジア経済の現状」 問 1 「日中韓の相互依存の強さを、データを示して簡潔に述べなさい。また、相互依存を示す経済協力・協業の具体例をあげ、合わせて 300 字以内で答えなさい。」 問 2 「「中所得国の罠」の概略を説明し、どうしたらそれを乗り越えることができるか 250 字以内で説明しなさい。」 問 3 「日中韓には少子化や環境問題など 3 国に共通する経済問題がある一方、それぞれの国に特有の課題も多くあります。それぞれの国が抱えている特徵的な経済問題をあげ、東アジアにおける協調と対立の構造を 300 字以内で説明しなさい。」 講義名:「批判的思考とエセ科学」 問 1 「「批判的思考」の定義に関連して、「批判的思考」に関する研究で共通に見出される「批判的思考」の3つの観点を述べなさい。100 文字。」 問 2 「講義で紹介した右のグラフを根拠に「長生きするためにはカラーテレビを多く所有すれば良い」と主張することが妥当ではない理由を 400 字以内で述べなさい。ただし、このようなグラフが形成される理由の説明を加えること。」 問 3 「各自で「ニセ科学」の可能性があると思う実例を挙げ、その実例が「二セ科学」であることを証明するためには、どのような方法で、どのような証拠を得て、どのように説明する必要があるのかを論じなさい。また、その実例がニセ科学でも信じてしまいやすい要因は何かについても考察し、説明しなさい。ただし、講義で扱った事例以外のものを挙げること。500 字以上 800 字以内。」 ## 5.3 評価尺度 本節では提案システムの精度を測る方法について示す. システムの評価は人手で採点された点数を正解データとして, システムの出力した点数データと比較を行う. 本研究では重み付きカッパ値 QWKを元に評価を行う. QWK はシステムの採点結果と人手の採点結果との評価ズレの程度を測定する. 2 つの評価のズレを 2 乗し重み付けしたものが計算され る. 結果が 1 に近いほどシステムの評価は高いと言える. num (a) はある採点者が $\mathrm{a}$ と採点した回数であり, $o b(a, b)$ は 2 人の採点者が $a, b$ と採点した回数である. $ \begin{gathered} \operatorname{byChance}(a, b)=\frac{\operatorname{num}(a) \times \operatorname{num}(b)}{n} \\ Q W K=1-\frac{\sum_{a, b=1}^{5} \operatorname{ob}(a, b) \times|a-b|^{2}}{\sum_{a, b=1}^{5} \operatorname{byChance}(a, b) \times|a-b|^{2}} \end{gathered} $ 作成したシステム間に有意差が認められるかの判定を $\mathrm{T}$ 検定にて行う. 対応する同一の標本である小論文データ $\mathrm{n}$ を用いて,システムで採点されたデー タを $x_{i}, y_{i}$ とし,その差を $d$ とする. $s_{d}$ はデータの差 $d$ の標準偏差である. 検定統計量 $\mathrm{T}$ は以下で表される。 $ \begin{gathered} T=\frac{\bar{d}}{\frac{S_{d}}{\sqrt{n}}} \\ \bar{d}=\frac{\sum d}{n}=\frac{\sum\left(x_{i}-y_{i}\right)}{n} \end{gathered} $ 本実験では有意水準を 0.05 として両実験に有意に差があるかを観測する。 ## 5.4 実験結果 小論文の各設問に対して出力された結果とその平 均を表 2 に示す。また, $\mathrm{T}$ 検定を適用した $\mathrm{P}$ 值について表 3 に記載する。 表 2 BERT+分類器モデルの QWK 表 3 BERT+分類器モデルの P 値 表 3 では $\mathrm{P}$ 値が 0.05 より高いため両者に有意差は認められていない。しかし,表 2 でSVR での実装 は,XGBoostでの実装に比べて各設問で平均値に近い出力をしていることがわかる. そのため, 安定した平均数值を出す SVR での実装が良いことが考えられる。 追加で行なった BERT と BOW の組み合わせについての結果とその平均を表 4 に示す. また, $\mathrm{T}$ 検定を適用した $\mathrm{P}$ 値について BERT+SVR の結果を含めて表 5 に記載する。 表 4 BERT+BOW+分類器モデルの QWK & \\ 表 5 BERT+BOW+分類器モデルの P 値 表 5 では $B E R T+B O W+S V R$ と BERT+BOW+XGBoost の P 值が 0.05 より高いため両者に有意差は認められていない. しかしながら,BERT だけでの実装に比べ BOWを組み込んだモデルは有意差があり, 平均値から BOWを組み込むことで精度が上がることがわかる. 表 4 においてもいくつかの設問で差はあるが,全体的に大きな差は出ていない. 設問に対する回答内容が絞られるような自由記述の要素が少ない設問 (1 および 2(ただしグローバルを除く)) の場合には SVR が高い傾向が見られた. また,自由記述に近い設問 (グローバルの設問 2 や設問 3) ではおおむね XGBoostが高い値を示している. ## 5.5 考察 BERT 単体では分散表現ベクトルから点数との関連性を見いだすことが難しいため, SVR やXGBoost では精度が低く, 両者に大きな差は出ていないと考えられる。一方 BOWを埋め込むことで単語自体の出現頻度と分散表現ベクトルの両者の特徴量を利用することが可能になるため,精度の向上が見られたと考えられる.BERT+BOWにおいてXGBoostが自由記述の設問において精度が高く見られたのは決定木で独自のルールが構築されたためだと考える。 ## 6 おわりに 本論文では日本語小論文の採点システムを構築し,BERT や BOW を使った際と SVR やXGBoost を使った際でのそれぞれのシステムを QWK のを用いて評価した. BERT+分類器の実装では SVR が平均値に近い安定した値を出力することを示した。また,文書べクトルとして BERT だけでなく BOWを取り込むことで QWK が向上することを実験的に示した. モデルの比較として,SVR とXGBoostでは設問の特性によって精度の差が観測された。概ね,小論文の記述すべき内容がはっきりしている場合は SVR が高く, 自由記述の幅が大き設問に対しては XGBoostが高い傾向を示した. ## 謝辞 本研究の遂行にあたって岡山大学運営費交付金機能強化経費「小論文、エッセイ等による入学試験での学力の三要素を評価するための採点評価支援システムの開発導入」の支援を受けた. ## 参考文献 [1] 竹谷謙吾, 高井浩平, 森康久仁, 須鎗弘樹. 日本語記述式問題の自動採点システムの提案. In IEICE Conferences Archives. The Institute of Electronics, Information and Communication Engineers, 2018. [2] 清野光雄, 竹内孔一. ニューラルネットワークを利用した日本語小論文の自動採点の検討. In IEICE Conferences Archives. The Institute of Electronics, Information and Communication Engineers, 2019. [3] 竹内孔一, 大野雅幸, 泉仁宏太, 田口雅弘, 稲田佳彦, 飯塚誠也, 阿保達彦, 上田均. 研究利用可能な小論文デー 夕に基づく参照文書を利用した小論文採点手法の開発. 情報処理学会論文誌, Vol. 62, pp. 1586-1604, 2021. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G2-3.pdf
# IMPARA: パラレルデータにおける修正の影響度に基づいた 文法誤り訂正の自動評価法 前田航希金子正弘 岡崎 直観 東京工業大学 \{koki.maeda@nlp., masahiro.kaneko@nlp., okazaki@\}c.titech. ac.jp ## 概要 文法誤り訂正 (Grammatical Error Correction; GEC) の自動評価は,低コストかつ定量的な評価に不可欠である。しかし,既存の GEC 自動評価手法は評価時に複数の参照文を必要としたり, 評価モデルの学習に特化した訓練データが必要になるなど,自動評価の実現のためのデータ作成コストが高いという難点がある.本稿では,誤文と正文の組からなるパラレルデータのみを用い,修正の影響度を考慮しながら GEC の評価尺度を学習する手法である IMPARA を提案する。提案手法は GEC の自動評価におけるデータ作成コストを大幅に軽減しつつ,人手評価との相関において既存手法と同等以上の性能を示した.また,評価尺度を学習するパラレルデータを変更することで,異なるドメインや訂正スタイルに適合した評価を実現できることを実験的に示した. ## 1 はじめに GEC は,文法的な誤りを含んだ文(誤文)が入力されたとき,文法的に正しい文(正文)となるように訂正して出力するタスクである. GEC はウェブテキスト [1] や言語学習者が書いたエッセイ [2] など,様々なドメインで活用される.GEC の精度は, システムが出力した文が文法的に正しいと人間に受け入れられる度合いで測定できる。ただ,人手評価はコストが高いため,人手評価と相関の高い自動評価手法の確立が望まれている。 GEC の自動評価手法は二つに大別される。一つは,誤文を含むコーパスに対して人間が正文を付与し, GEC システムの出力との近さを評価する参照文有りの手法 $[3,4,5]$ である。一般に,誤文の訂正の仕方は複数あり得るため,参照文有りの手法で正しい評価を行うには,複数の参照文を用意する必要がある.ところが,考えうるすべての訂正を網羅する のは困難である.とはいえ,参照文の数を絞ってしまうと,GEC システムの訂正が正しいとしても,参照文と訂正結果に差異があれば過小評価される。 もう一つは,入力文とシステム出力のみを用いる参照文なしの評価手法である.参照文なしの評価手法として,言語モデルに基づく手法 $[6,7,1]$ があるが,GEC に関するデータを全く用いないため,人間による評価との相関が低いことが知られている [8]. これに対し,GEC システムの出力文を人手で評価した結果を活用し,評価尺度を最適化する手法 SOME が提案されている [8]. しかし,SOME の訓練デー タを作成するには,GEC システムの出力文に対して人手評価を付与する必要がある.そのため,異なるドメインや訂正スタイルに対応するには,新たに人手評価データを作成しなければならない。 本研究では,評価時に参照文を用いず,誤文と正文から構成されるパラレルデータのみから GEC の自動評価尺度を学習できる IMPARA (IMpact-based metric for GEC using PARAllel data)を提案する. 評価尺度の学習では,GEC システムの訓練データと同じ形式のパラレルデータを利用できるため,データ作成コストを大幅に削減できる。また,自動評価尺度の学習に用いるパラレルデータを変えることで,様々なドメインや訂正スタイルの特徴を考慮した自動評価モデルを構築できる。 メタ評価実験では,(i) IMPARA が人手評価データを用いた既存の評価手法と比較して同等または上回る評価性能を持つこと,(ii) 異なるドメインや訂正スタイルのデータで評価尺度を学習することで,ドメインやスタイルの特性を考慮した自動評価手法を構築できることを実証する。 ## 2 提案手法 (IMPARA) IMPARA は,図 1 のように出力文を評価する訂正評価モデルと,入力文と出力文の類似性を評価する 教師データ生成 ERRANT 学習 事前学習済モデル 評価 図 1 IMPARAによる評価スコアの自動算出(右側)と評価尺度の学習方法(中央)および訓練データの自動作成(左側) 類似性評価モデルから構成される. 訂正評価モデルは訂正後の文に対する相対的な評価を付与する.誤文に対する編集操作の適用数により文対を順位付けし,GEC 評価指標をメタ評価する既存研究 [9] に着想を得て,誤文に対して編集操作をランダムに適用した文対を比較し,優劣の順序関係を学習する.誤文から正文への書き換えでは,編集操作ごとに異なる深刻さの誤りを訂正していると考え,編集操作の影響度を定義し,編集操作を適用した文対に関する順序関係を決定する。 類似性評価モデルは入力文と出力文の内容が乘離することを防止する.既存の参照文なし評価手法 [10] では,入力文と出力文の表層的な一致率を計算していたが,IMPARA では文べクトルの類似度を計算する。これにより,文意を変更しない表層的な訂正に対しても,類似性を頑健に判定できる. ## 2.1 編集の影響度 編集操作に対して影響度を形式的に定義する。誤文 $S$ と正文 $T$ の組を $(S, T)$ とする. ををを $S$ から $T$ への順序によらない編集操作の集合とする.編集を適用する関数 $f$ とし, $S$ に対して $\mathscr{R}$ に含まれる全ての編集を適用して $T$ を得ることを, $T=f(S, \mathscr{E})$ と書く. ある編集操作 $e \in \mathscr{E}$ が文の意味を大きく変化させるならば,その編集操作の影響度は高いと考える. そこで,編集 $e$ を除外した文 $T_{-e}=f(S, \mathscr{E} \backslash\{e\})$ と正文 $T$ との距離を考え, $e$ の影響度 $I_{e}$ を定義する。 $ I_{e}=1-\frac{\operatorname{BERT}(T) \cdot \operatorname{BERT}\left(T_{-e}\right)}{\|\operatorname{BERT}(T)\|\left.\|\operatorname{BERT}\left(T_{-e}\right)\right.\|} $ ここで, $\operatorname{BERT}(T)$ は文 $T$ に対して事前学習済み BERT が計算する文べクトルであり,文 $T$ の全トー クンの最終層のベクトルの平均である。また編集の部分集合 $E \subseteq \mathscr{E}$ を適用した文 $f(S, E)$ の影響度を $E$ に含まれる各編集の影響度の総和 $\sum_{e \in E} I_{e}$ とする。 ## 2.2 自動評価手法の構築 IMPARA は入力文 $S$ と出力文 $O$ に対して訂正評価モデルと類似性評価モデルの両方のスコアを考慮し,評価スコア $\operatorname{score}(S, O) \in[0,1]$ を計算する. $ \operatorname{score}(S, O)=\left.\{\begin{array}{l} \operatorname{corr}(O)(\text { if } \operatorname{sim}(S, O)>\theta) \\ 0 \text { (otherwise) } \end{array}\right. $ ただし, $\operatorname{sim}(S, O)$ は類似性スコア, $\operatorname{corr}(O)$ は訂正スコア, $\theta$ は類似性スコアの閾值である.類似性スコアが閾値 $\theta$ 以下である場合は,出力文が入力文に対する適切な訂正ではないと判断し,評価スコアを 0 とする。一方,類似性スコアが閾値よりも大きければ,訂正スコアの值をそのまま採用する。 訂正スコア訂正スコアは, 出力文 $O$ を訂正評価モデル $R$ に与え,シグモイド関数 $\sigma$ を用いて $\operatorname{corr}(O)=\sigma(R(O))$ で求める. 訂正評価モデル $R$ は BERT の先頭トークンに線形変換を適用し,実数値を計算するもので,ファインチューニングにより構築する.ファインチューニングのための訓練データは,誤文と正文のパラレルデータから自動的に作成する. $n$ 個の誤文と正文の対からなるパラレルデー タを $\mathscr{C}=\left.\{\left(S_{i}, T_{i}\right)\right.\}_{i=1}^{n}$ と表現する. 誤文と正文の組 $(S, T) \in \mathscr{C}$ に対し,ERRANT [5] を用いてアライメン卜を計算し,編集集合 $E$ を抽出する. $E$ から異なる編集の部分集合 $E^{\prime}, E^{\prime \prime}$ を作成する。 $E^{\prime}, E^{\prime \prime}$ を $S$ に適用することで新たな文対を生成し,式 1 の影響度でその順序関係を決定し,Rの訓練データとする。 訓練データの作成手順を説明する.誤文と正文の組 $(S, T)$ に対して抽出された編集集合を $E=\left.\{e_{1}, \ldots, e_{|E|}\right.\}$ とし, $k \in\{1,2, \ldots,|E|\}$ を離散一様分布から選ぶ. 編集操作 $e \in E$ を $k$ 回非復元抽出し, 抽出された編集操作の集合を $E^{\prime}$ とする. 続いて, $E^{\prime}$ を微修正することで $E^{\prime \prime}$ を作成する。まず $E^{\prime \prime}=E^{\prime}$ と初期化する. その後, $E$ の各要素 $e \in E$ について, 確率 $\frac{1}{|E|}$ で以下の操作を適用する. $ E^{\prime \prime} \leftarrow\left.\{\begin{array}{l} E^{\prime \prime} \cup\{e\} \text { if } e \notin E^{\prime} \\ E^{\prime \prime} \backslash\{e\} \text { if } e \in E^{\prime} \end{array}\right. $ $E^{\prime}, E^{\prime \prime}$ を誤文に適用して得た文 $f\left(S, E^{\prime}\right), f\left(S, E^{\prime \prime}\right)$ に対して影響度を計算し,影響度の低い文を $S_{-}$,高い文を $S_{+}$とする. このように $(S, T)$ から文対 $\left(S_{-}, S_{+}\right)$ を作成し, 訂正評価モデル $R$ の訓練データ $\mathscr{J}$ を得る. ただし,一つの文対から作成する訓練事例は最大で $c$ 件とする. また, $E^{\prime}$ と $E^{\prime \prime}$ が等しくなった場合は訓練事例として採用しない。 得られた訓練データすを用いて訂正評価モデル $R$ を学習する. 訂正文の順序関係を学習するため, モデル $R$ の損失関数 $L$ を次式で定義する. $ L=\frac{1}{|\mathscr{T}|} \sum_{\left(S_{-}, S_{+}\right) \in \mathscr{T}} \sigma\left(R\left(S_{-}\right)-R\left(S_{+}\right)\right) $ 損失関数にシグモイド関数 $\sigma$ を用いるのは一部の事例を極端に重要視することを防ぐためで,実験的に評価性能の向上に寄与することを確認している. 類似性スコア入力文 $S$ と出力文 $O$ をそれぞれ事前学習された BERT に与え,類似性スコア $\operatorname{sim}(S, O)$ を計算する。影響度と同様に,文中の全てのトークンの最終層のベクトルの平均として文べクトルを算出し, 両文ベクトルのコサイン類似度を $\operatorname{sim}(S, O)$ とする. これにより, 入力文 $S$ と出力文 $O$ の情報がどの程度類似しているかを計測できる。 ## 3 実験 IMPARA の評価スコアと人間の評価結果との相関を調べるため,二つのメタ評価実験を行った。 まず,GEC システムに対する人手評価と,自動評価手法の評価スコアとのピアソンの積率相関係数 (Pea)およびスピアマンの順位相関係数(Spe)を計測する。また,文の優劣比較の正解率 (Acc) とケンドールの順位相関係数(Ken)を計測する. 人手評価として,CoNLL2014 [11] データセットに対し複数の GEC システムの訂正文を人間に順位付けさせたデータセット1)を用いる. 1) 本実験では, Grundkiewicz ら [12] の論文の Table 3(b) に示される Expected Wins を人手評価とした.次に,ドメインや訂正スタイルを考慮した評価スコアを構築できたか検証する。この検証では, IMPARA の訂正評価モデルの学習に用いるコーパスと,評価尺度のメ夕評価に用いるコーパスの組合せを変え,それぞれについて MAEGE [9]によるメタ評価を実施する.MAEGE は,評価データの誤文に加えた編集数に基づく順序関係を構築する。この順序関係を用いて作成した評価スコアと自動評価手法の評価スコアの相関係数を測定してメタ評価を行う。 この実験には公開されている実装2)利用した. ## 3.1 実験設定 人手評価との相関を測定する実験では,IMPARA の訂正評価モデルの学習に CoNLL2013 [13] を用いた. ドメインや訂正スタイルを変更する実験では,CoNLL2014 [11] に加え,ウェブテキストの文法誤りを訂正する CWEB [1],流暢な訂正を含む JFLEG [14],エッセイに訂正を加えた FCE [2]を用 に利用し,10\%をメタ評価のためのデータとした。 実験では,Hugging Face が公開する事前学習済モデル3)(BERT-BASE-CASED)を BERT モデルとして採用した。類似性評価モデルは事前学習済モデルをそのまま用い,訂正評価モデルは自動生成した訓練データでファインチューニングした. ベースライン手法として参照文を用いない自動評価手法である SOME と Scribendi Score [10] を用いた. また,IMPARA の訂正評価モデルの訓練データ構築法の有効性を検証するため,パラレルコーパスの誤文と正文の文対のみを用いて BERTをファインチューニングした評価モデル(パラレルのみ) と比較した. SOME の評価モデルとして用いられる BERT のファインチューニングでは,公開されたデータセット4)を本研究と同じ学習・評価の分割で利用し,吉村ら [8] のハイパーパラメータ設定を利用した。 ## 3.2 実験結果 各自動評価と人手評価との相関を測定した結果を表 1 に示す5).IIMPARA はコーパス単位の評価では  表 1 Grundkiewiczの人手評価との相関 人手評価データを用いるSOME より高い相関を示した. さらに,パラレルコーパスに含まれる文対のみを訂正評価モデルの訓練データとした場合との比較から,提案手法で訓練データを自動構築することの効果を確認できた。また, MAEGE によるメタ評価によると, IMPARA はコーパス単位の評価で既存手法と同等程度, 文単位の評価で既存手法に対して 0.1 ポイント以上高い性能を示した(Appendix の表 4). これらの実験結果は, IMPARA はパラレルデー タのみから自動構築した訓練データのみを用いるが,人手評価を付与した訓練データを用いる既存の評価手法と同等程度の評価性能を達成することを示唆している. 4 種類の評価コーパスに対して,学習コーパスを変化させたときの MAEGE によるメタ評価を行った結果を表 2 に示す. 実験の結果, 評価に用いたコー パスと同じコーパスを用いて訂正評価モデルを学習させることで評価性能が向上した. 特に文単位の相関が大きく向上していることが確認された. さらに,MAEGEを用いて既存手法と評価性能を比較した (Appendix の表 5). SOME は CWEB, FCE において, Scribendi Score は CWEB, JFLEG において評価性能が極端に低下した.一方で,IMPARA はいずれの評価コーパスにおいても高い評価性能を示した.このことから, IMPARAを用いることでコーパスの特性により適合した評価を行えることが確認できた。 ## 3.3 誤りタイプごとの影響度 2.1 節で定義した影響度を用いたとき,BERT モデルがどのような誤りに対して高い影響度を算出するのか分析した. CoNLL2014に含まれる訂正文対について,ERRANTを用いて編集と誤りタイプを抽出し,編集ごとに影響度を求め,平均値を算出した。 平均影響度を算出した誤りタイプについて, OTHER を除き事例が 400 以上の誤りタイプを抜粋して表 3 に示す(全ての結果は Appendix の表 6). DET (冠詞), PREP (前置詞) などの機能語と比較し $\tau$, NOUN (名詞), VERB (動詞) など内容語の訂表 2 学習・評価コーパスの組合せによる性能変化 表 3 CoNLL2014において, OTHER を除く事例数が 400 以上の誤りタイプ 正に高い影響度を付した。また同じ名詞に関する訂正でも,数量に関する訂正には低い影響度が算出されることが確認された. 以上から, 本研究で定義した影響度は文法的な役割に関する訂正よりも内容語による意味の変化を重要視していると考えられる。 ## 4 おわりに 本稿では,パラレルコーパスを用いた GEC の自動評価手法の構築法である IMPARA を提案した。提案手法は, 編集に対して影響度を算出し, 訂正文の良し悪しに関する順序関係を自動的にラベル付けした訓練データを生成し、BERTをファインチュー ニングすることで,訂正文に対する相対的な評価尺度を獲得する。提案手法は,人手評価との相関において既存手法と同等以上の性能を示すこと,評価対象となるコーパスが持つ訂正の特性を考慮した自動評価を行えることを確認した。 今後の発展として, 文法誤り生成を用いた訓練データ生成を取り入れることがある. データ生成コストの緩和が見込まれるほか, 自動評価尺度の品質向上に寄与すると考えられる. ## 参考文献 [1] Simon Flachs, Ophélie Lacroix, Helen Yannakoudakis, Marek Rei, and Anders Søgaard. Grammatical error correction in low error density domains: A new benchmark and analyses. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 8467-8478, Online, November 2020. Association for Computational Linguistics. [2] Helen Yannakoudakis, Ted Briscoe, and Ben Medlock. A new dataset and method for automatically grading ESOL texts. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 180-189, Portland, Oregon, USA, June 2011. Association for Computational Linguistics. [3] Daniel Dahlmeier and Hwee Tou Ng. Better evaluation for grammatical error correction. In Proceedings of the 2012 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 568572, Montréal, Canada, June 2012. Association for Computational Linguistics. [4] Courtney Napoles, Keisuke Sakaguchi, Matt Post, and Joel Tetreault. Ground truth for grammatical error correction metrics. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 588-593, Beijing, China, July 2015. Association for Computational Linguistics. [5] Christopher Bryant, Mariano Felice, and Ted Briscoe. Automatic annotation and evaluation of error types for grammatical error correction. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 793-805, Vancouver, Canada, July 2017. Association for Computational Linguistics. [6] Courtney Napoles, Keisuke Sakaguchi, and Joel Tetreault. There's no comparison: Reference-less evaluation metrics in grammatical error correction. In Proceedings of the $\mathbf{2 0 1 6}$ Conference on Empirical Methods in Natural Language Processing, pp. 2109 2115, Austin, Texas, November 2016. Association for Computational Linguistics. [7] Hiroki Asano, Tomoya Mizumoto, and Kentaro Inui. Referencebased metrics can be replaced with reference-less metrics in evaluating grammatical error correction systems. In Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 343-348, Taipei, Taiwan, November 2017. Asian Federation of Natural Language Processing. [8] Ryoma Yoshimura, Masahiro Kaneko, Tomoyuki Kajiwara, and Mamoru Komachi. SOME: Reference-less sub-metrics optimized for manual evaluations of grammatical error correction. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 6516-6522, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [9] Leshem Choshen and Omri Abend. Automatic metric validation for grammatical error correction. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1372-1382, Melbourne, Australia, July 2018. Association for Computational Linguistics. [10] Md Asadul Islam and Enrico Magnani. Is this the end of the gold standard? a straightforward reference-less grammatical error correction metric. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 30093015, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [11] Hwee Tou Ng, Siew Mei Wu, Ted Briscoe, Christian Hadiwinoto, Raymond Hendy Susanto, and Christopher Bryant. The CoNLL- 2014 shared task on grammatical error correction. In Proceedings of the Eighteenth Conference on Computational Natural Language Learning: Shared Task, pp. 1-14, Baltimore, Maryland, June 2014. Association for Computational Linguistics. [12] Roman Grundkiewicz, Marcin Junczys-Dowmunt, and Edward Gillian. Human evaluation of grammatical error correction systems. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 461-470, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [13] Hwee Tou Ng, Siew Mei Wu, Yuanbin Wu, Christian Hadiwinoto, and Joel Tetreault. The CoNLL-2013 shared task on grammatical error correction. In Proceedings of the Seventeenth Conference on Computational Natural Language Learning: Shared Task, pp. 1-12, Sofia, Bulgaria, August 2013. Association for Computational Linguistics. [14] Courtney Napoles, Keisuke Sakaguchi, and Joel Tetreault. Jfleg: A fluency corpus and benchmark for grammatical error correction. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, pp. 229-234, Valencia, Spain, April 2017. Association for Computational Linguistics. 表 4 MAEGEによるメタ評価コーパス文束 Pea Spe Pea Spe Ken $\begin{array}{llllll}\text { Scribendi } & 0.884 & 0.981 & 0.374 & 0.421 & \mathbf{0 . 8 2 4}\end{array}$ 表 5 評価データと同じドメインの訓練データで学習した IMPARA と既存手法の性能比較 表 6 誤りタイプ毎の影響度と事例数(CoNLL2014) ## A ハイパーパラメータの設定 訂正評価モデルの再学習では, 比較時にコーパスの量による影響を回避するために,コーパスによらず $|\mathscr{T}|=4096$ となるように調整した. コーパスに含まれる訂正文対 1 つから生成する文対の最大数 $c$ を 30,学習率を $10^{-5}$ とし,バッチサイズは 32 とした. エポック数は $1, \ldots, 10$ と変化させ,モデルを学習した. 類似性スコアの閾値 $\theta$ は 0.9 とした.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G2-4.pdf
# 多次元項目反応理論と深層学習に基づく 複数観点同時自動採点手法 柴田拓海 ${ }^{1}$ 宇都雅輝 ${ }^{1}$ 1 電気通信大学大学院院 \{shibata,uto\}@ai.lab.uec.ac.jp ## 概要 近年,深層学習を用いた小論文自動採点手法とし $\tau$ ,全体得点と複数の評価観点別得点を同時に予測する手法が提案されている. しかし従来手法は,予測の根拠について解釈性が低いという問題があった.この問題を解決するために,本研究では,多次元項目反応理論を利用して予測根拠の解釈性を高めた複数観点同時自動採点手法を提案する。 ## 1 はじめに 近年,小論文試験の採点をコンピュータを用いて自動化する小論文自動採点 (Automated Essay Scoring ; AES)手法が多数提案されている. 自動採点を実現する手法は特徴量ベースと深層学習ベースの手法に大別される。これまでは,特徴量ベースの手法が一般的であったが (e.g., [1-4]), 近年では深層学習を用いた自動採点モデルが多数提案されている (e.g., [5-19]). 深層学習自動採点モデルは文章の単語系列を入力として,データから自動で複雑な特徵量を学習でき,高精度を達成している。 従来の自動採点モデルの多くは,全体得点のみを予測する採点場面を想定している (e.g., [6-15])。しかし, 学習場面などで小論文試験を運用する場合, より詳細なフィードバックを受験者に行うために,論理構成力や文章表現力などの評価観点別の得点付けを行いたい場面も少なくない [16]. そこで,複数の評価観点に対応する得点を同時に予測できるモデルもいくつか提案されている (e.g., [16-19]). 現時点では Ridley ら [19] のモデルが最高精度を達成しているが,このモデルには解釈性の観点から次のような問題がある. (1) 評価観点ごとに複雑な多層ニューラルネットワークを持つため予測根拠を解釈することが難しい。(2) 複数観点での評価では,測定対象の能力に観点間で共通性が仮定できる場合 が多いが [20],このモデルでは観点間の相関は考慮しているものの,背後にどのような能力尺度が想定されるかは解釈できない. これらの問題を解決するために,本研究では,項目反応理論を組み込んだモデルを提案する.具体的には,評価観点の特性を考慮した多次元項目反応モデル [21]を出力層とし,それ以外を Ridley らのモデルを元にした評価観点共通のニューラルネットワー クとしたモデルを開発する。提案手法の利点は以下の通りである。(1) 評価観点固有の出力層は, 識別力と困難度と呼ばれる項目反応理論で一般的な 2 種類のパラメータのみで説明されるため,それらのパラメータ值に基づいて観点ごとの特性を定量的に解釈できる. (2) 多次元項目反応モデル層の能力次元数を最適化してパラメータを分析することで,複数評価観点の背後に想定される能力尺度を解釈できる。 本論文では,複数観点自動採点の研究で広く利用されるべンチマークデータセットを用いて提案手法の有効性を評価する.実験の結果,提案手法は従来手法から大きく性能を落とすことなく,妥当な解釈が可能なパラメータ值を与えたことが確認できた。 また,背後に想定される能力次元数としては 1 次元が最適であることが確認できた。このことは,少なくとも本研究で使用したデータセットにおいては,観点間の関係は従来モデルのような複雑な構成でなくとも説明できることを示唆している. ## 2 複数観点同時自動採点モデル 提案モデルは,Ridley ら [19] が提案した複数観点同時自動採点モデルを基礎モデルとするため,本章ではこのモデルについて説明する。モデルの概念図を図 1 (左)に示した. このモデルは,受験者 $n$ の小論文を入力とし,評価観点 $m \in \mathcal{M}=\{1,2, \ldots, M\}$ に対応する得点 $\hat{y}_{n}^{m}$ を出力する.ここで $M$ は評価観点数を表す.また,受験者 $n$ の小論文は単語系列と 図 1 従来の複数観点同時自動採点モデル(左)と提案モデル(右)の概念図 して, $\left.\{w_{n s l} \mid s \in\{1,2, \ldots, S\}, l \in\left.\{1,2, \ldots, l_{s}\right.\}\right.\}$ と表せる. $w_{n s l}$ は受験者 $n$ の小論文における $s$ 番目の文の $l$ 番目の単語であり, $S$ はその小論文の文数, $l_{s}$ は $s$番目の文の単語数である.このモデルでは, 各単語 $w_{n s l}$ をそれぞれ品詞(part-of-speech;POS)タグ $p_{n s l}$ に変換し, POS タグ系列を入力として用いている. 得点予測は,共通層と観点固有層の二段階でデー タを処理することで行われる。共通層では,文ごとに Embedding 層, Convolution 層, Attention Pooling 層 [11]が適用され,全観点に共通する文単位の分散表現の系列が得られる。 次に,観点ごとに独立に処理を行う観点固有層で,共通層で得られた分散表現の系列をもとに評価観点ごとの得点を予測する. 共通層の出力系列に対して,観点ごとに Recurrent 層 [22], Attention Pooling 層が適用される. さらに単語数や可読性, 文章の複雑さなどを表す人手で設計した特徴量のべクトル $F$ を結合 (concat) することで文章単位の分散表現が得られる. 次にこの結合されたべクトルに対して,評価観点間の関係を考慮するために Trait Attention [19]を適用し, 得点予測のための最終的な分散表現 $\boldsymbol{c}_{n m}$ が得られる. 最後に, この $\boldsymbol{c}_{n m}$ に対し,シグモイド関数を活性化関数に持つ全結合層を適用させ,受験者 $n$ の $m$ 番目の観点別得点 $\hat{y}_{n}^{m}$ を $\hat{y}_{n}^{m}=\sigma\left(W_{m} \boldsymbol{c}_{n m}+b_{m}\right)$ で予測する. ここで, $\sigma$ はシグモイド関数, $W_{m}$ は重み, $b_{m}$ はバイアスを表す。なお,このモデルは得点予測にシグモイド関数を使用しているため, $\hat{y}_{n}^{m}$ は 0 から 1 の間の値をとる. 実際の得点尺度がこれと異なる場合には, $\hat{y}_{n}^{m}$ を一次変換して実際の得点尺度に合わせる。 モデルの学習は, 平均二乗誤差 (Mean Squared Error;MSE)を損失関数として誤差逆伝播法で行われる. 訓練データの小論文数が $N$, 予測観点数が $M$ のとき,MSE 誤差は以下のように表される. $ \mathscr{L}_{M S E}=\frac{1}{N M} \sum_{n=1}^{N} \sum_{m=1}^{M} D(n, m)\left(\hat{y}_{n}^{m}-y_{n}^{m}\right)^{2} $ ここで,$y_{n}^{m}$ は受験者 $n$ の小論文における $m$ 番目の観点の真の得点を表す。また $D(n, m)$ は, $n$ 番目の小論文における $m$ 番目の観点に対するデータのときに 1 を,そうでなければ 0 を返す関数である。 第 1 章でも述べた通り,このモデルは評価観点ごとに固有の複雑な層を持つため予測根拠の解釈が難しい.この問題を解決するために,本研究では次章で説明する項目反応理論を用いる. ## 3 項目反応理論 項目反応理論(Item Response Theory;IRT)[23] は,近年のコンピュータ・テスティングの発展に伴い,様々な分野で実用化が進められている数理モデルを用いたテスト理論の一つである. IRT モデルは正誤データなどの 2 值型のデータを前提とするものが多いが,多段階の得点データに対応した IRT モデルも多数提案されている. また,一般的な IRT モデルでは,測定対象の能力に 1 次元性を仮定しているが,測定される能力に多次元性を仮定できるモデルも提案されている. 本研究では,代表的な多次元多値型 IRT モデルである多次元一般化部分採点モデル(Generalized Partial Credit Model;GPCM)[24]を使用する. ここでは, 先行研究 $[20,21]$ のように各評価観点を項目とみなして多次元 GPCM を適用する.具体的には,受験 者 $n$ が評価観点 $m$ において,得点 $k \in\left.\{1,2, \ldots, K_{m}\right.\}$ を得る確率を次式で与えるモデルを適用する。 $ P_{n m k}=\frac{\exp \left(k \boldsymbol{\alpha}_{m}^{T} \boldsymbol{\theta}_{n}+\sum_{u=1}^{k} \beta_{m u}\right)}{\sum_{v=1}^{K_{m}} \exp \left(v \boldsymbol{\alpha}_{m}^{T} \boldsymbol{\theta}_{n}+\sum_{u=1}^{v} \beta_{m u}\right)} $ ここで, $\boldsymbol{\theta}_{n}=\left(\theta_{n 1}, \theta_{n 2}, \ldots, \theta_{n d}\right)$ は受験者 $n$ の $d$ 次元の能力を表すパラメータベクトルであり, ベクトルの各要素は各次元の能力値を表す. $\boldsymbol{\alpha}_{m}=\left(\alpha_{m 1}, \alpha_{m 2}, \ldots, \alpha_{m d}\right)$ は $\boldsymbol{\theta}_{n}$ に対応した評価観点 $m$ の $d$ 次元識別力, $\beta_{m u}$ は評価観点 $m$ においてカテゴリ $u-1$ から $u$ に遷移する困難度を表すパラメータである. $K_{m}$ は,評価観点 $m$ における得点段階数を表す。なお,モデルの識別性のために, $\beta_{m 1}=0: \forall m$ を所与とする. ## 4 提案モデル 本研究では,上記の多次元 GPCM を組み込んだ複数観点同時自動採点モデルを提案する. 提案モデルの概念図を図 1(右)に示す. 図 1 からわかるように,提案モデルは入力層から Concatenate 層まで評価観点数 $M=1$ とした従来モデルと同じ構造を持ち, これらの層を用いて文章単位の分散表現 $c_{n}$ を生成する. 提案モデルでは,このべクトル $c_{n}$ を全結合層に入力し, 多次元 IRT における能力値べクトル $\boldsymbol{\theta}_{n}$ に対応する值を $\boldsymbol{\theta}_{n}=W c_{n}+\boldsymbol{b}$ で求める. ここで, $\boldsymbol{W}$ は重み行列, $\boldsymbol{b}$ はバイアスベクトルを表す. 最後に, 得られた $\theta_{n}$ を用いて, 多次元 GPCM 層で式(2)を計算することで,各評価観点 $m \in M$ に対する得点の出力確率が得られる. 得点予測の際には, 確率 $P_{n m k}$ が最大となるカテゴリ $\arg \max _{k} P_{n m k}$ を予測得点とする。提案モデルにおける多次元 GPCM 層は従来モデルにおける観点固有層に相当する。 損失関数には,多クラス交差エントロピー (Categorical Cross-Entropy;CCE)誤差を用いる. 訓練データの小論文数が $N$, 予測観点数が $M$ のとき, $\mathrm{CCE}$ 誤差は以下のように表せる. $ \mathscr{L}_{C C E}=-\frac{1}{N M} \sum_{n=1}^{N} \sum_{m=1}^{M} \sum_{k=1}^{K_{m}} y_{n m k} \log \left(P_{n m k}\right) $ なお,モデルの各種ハイパーパラメータは先行研究 [19] に合わせ,最適化アルゴリズムには学習率を 0.001 に設定した RMSProp [25] を用いる. 以降では,提案モデルの解釈の方法について述べる. 前章でも述べた通り,提案モデルで使用している多次元 GPCM は, 評価観点の識別力 $\boldsymbol{\alpha}_{m}$ と困難度 $\beta_{m}$ ,および受験者の能力 $\theta_{n}$ の 3 つのパラメータで説明される. 識別力 $\alpha_{m}$ と困難度 $\beta_{m}$ の値からは,各評価観点がどの程度受験者の能力を識別でき,どれくらいの難易度であるかが解釈可能である. さらに, 能力値 $\boldsymbol{\theta}_{n}$ からは,その小論文を執筆した受験者の潜在的な多次元能力を読み取ることができる。 また, $\boldsymbol{\theta}_{n}$ の次元数を変えて,提案モデルの性能を評価することで,得点データの背後に想定される最適な能力次元数を分析できる.例えば, $\boldsymbol{\theta}_{n}$ に 2 次元を想定したときに最大の予測精度を示したとすると, その評価観点の背後に 2 次元的な能力尺度が想定されると解釈できる. 最適な次元数でモデルパラメータの分析を行うことで,尺度の構成を解釈することが可能となる. ## 5 実験 本研究では, 実データとして, Automated Student Assessment Prize (ASAP) と, ASAP++ [26]を用いる. ASAP は AES 研究の分野で広く使用されるデータセットである. ASAP と ASAP++には 8 つの小論文課題に関する答案が含まれており,それぞれの答案に対して全体得点と評価観点別の得点が与えられている. 小論文数の課題ごとの平均は約 1622 ,平均単語数は 275 である. なお課題 1 と課題 2 は, Content, Organization, Word Choice, Sentence Fluency, Conventions, 課題 3 から課題 6 は Content, Prompt Adherence, Language, Narrativity, 課題 7 は Content, Organization, Conventions, Style, 課題 8 は課題 1 と 2 に共通する評価観点に加えて Voice といった評価観点でそれぞれ得点付けされている. ## 5.1 得点予測精度の評価実験 ここでは,提案モデルの次元数を $1,2,3$ と変化させて得点予測精度を評価する実験を行う. 本実験では,モデルへの入力として,Ridley らと同様の POS タグを用いる場合と,一般的な深層学習自動採点モデルと同様に単語系列を利用する場合の両方を考える. なお単語系列を入力する場合には, Embedding 層で, 50 次元の GloVe [27] による事前学習済みの単語埋め込みを利用する。 モデルの性能評価は, 5 分割交差検証を用いて行う. 5 分割交差検証は課題ごとに独立して実施し, エポック数は全てのモデルで 30 としている. 評価関数には,2 次の重み付きカッパ係数(Quadratic Weighted Kappa;QWK)を用いる. 表 1 課題別の平均 QWK スコア 表 2 提案モデル(1 次元)を用いて推定した課題 2 の評価観点パラメータ 実験結果を表 1 に示す. 表 1 では観点ごとに QWK スコアを計算し,その平均スコアを課題ごとに示している. 各条件で最も精度が高い手法の結果を太字で示してある。 表 1 より,提案モデルは,次元数によって予測精度が異なることが読み取れるが,各課題に最適な次元数を持つ提案モデルは従来モデルと比較しても精度に大きな差はないことがわかる. ここで,各モデルの平均スコアに有意な差があるかを定量的に測定するため,ボンフェローニ法による多重比較検定を行った. 結果を表 1 の「 $p$ 値」列に示す. 表から, POS 入力,単語入力ともに,全てのモデル間で有意な差は認められなかったことが読み取れる.このことから,提案モデルは,従来モデルと比較して精度を落とさずに得点予測ができたことがわかる. ## 5.2 次元性の検証 本節では能力尺度の次元性を分析する。ここでは,まず課題 1 の得点データに関して因子分析を行った. その結果, 因子数が 1 のときの固有値は 4.97, 因子数が 2 のときの固有値は 0.41 と算出され,因子数が 1 から 2 に変化すると固有値が 1 を下回るほど大幅に減少していることがわかる。つまり, データの背後にある尺度構成は 1 次元で十分に説明できることが示唆される. なお,他の課題でも,これと同様の結果が得られた。 また,前節で示した表から,提案モデルの次元数の違いによる予測精度の差はほとんど見られなかっ たことがわかる.以上から,能力尺度の説明力としては 1 次元で十分であると解釈できる. ## 5.3 評価観点パラメータの解釈 ここでは,提案モデルで推定された評価観点パラメータの解釈について述べる. 例として表 2 に課題 2 のデータにおいて,能力次元数を 1 次元としたときの評価観点パラメータの推定結果を示した. まず表 2 に示した識別力の値から,それぞれの評価観点が受験者の能力をどの程度測定できるかを解釈できる. 例えば,全体得点の識別力値は他の評価観点の値よりも小さいことが読み取れ,このことは全体得点が他の観点と比べて受験者の能力を測定する力が低いことを示している。また,困難度パラメータからは,各観点における各得点の出現分布を解釈することができる.例えば,全体得点のパラメータを所与としたときの式 (2) で表現される項目特性曲線(Item Characteristic Curve;ICC)を描くと,全体得点は得点に中心化傾向があることがわかる. このように提案モデルでは得点予測の背後にある構造を解釈できることがわかる。 ## 6 まとめ 本研究では, 全体得点と同時に観点別得点も予測できる複数観点同時自動採点モデルに, 多次元項目反応理論を組み込んだモデルを提案した.提案モデルを用いた実験から,自動採点で広く使用されるベンチマークデータである ASAP と ASAP++データセットでは,採点に多くの評価観点が用いられているにもかかわらず,その背後には少数の能力尺度しか想定されない可能性が示唆された. このことは,観点固有層として, 従来モデルのような複雑な内部表現は必要でない可能性や,多次元的な能力評価が実現できていない可能性を示唆している. 今後は多様なデータセットで提案モデルの有効性を評価したい。 ## 謝辞 本研究は JSPS 科研費 19H05663,20K20817, 21H00898 の助成を受けたものです. ## 参考文献 [1] Yigal Attali and Jill Burstein. Automated essay scoring with e-rater® v.2. The Journal of Technology, Learning and Assessment, Vol. 4, No. 3, pp. 1-30, 2006. [2] Hongbo Chen and Ben He. Automated essay scoring by maximizing human-machine agreement. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1741-1752, 2013. [3] Peter Phandi, Kian Ming A Chai, and Hwee Tou Ng. Flexible domain adaptation for automated essay scoring using correlated linear regression. In Proceedings of the $\mathbf{2 0 1 5}$ Conference on Empirical Methods in Natural Language Processing, pp. 431-439, 2015. [4] Mihai Dascalu, Wim Westera, Stefan Ruseti, Stefan Trausan-Matu, and Hub Kurvers. Readerbench learns dutch: building a comprehensive automated essay scoring system for dutch language. In International Conference on Artificial Intelligence in Education, pp. 52-63. Springer, 2017. [5] Masaki Uto. A review of deep-neural automated essay scoring models. Behaviormetrika, pp. 1-26, 2021. [6] Robert Ridley, Liang He, Xinyu Dai, Shujian Huang, and Jiajun Chen. Prompt agnostic essay scorer: A domain generalization approach to cross-prompt automated essay scoring. arXiv, 2020. [7] Dimitrios Alikaniotis, Helen Yannakoudakis, and Marek Rei. Automatic text scoring using neural networks. arXiv, 2016. [8] Kaveh Taghipour and Hwee Tou Ng. A neural approach to automated essay scoring. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1882-1891, 2016. [9] Fei Dong and Yue Zhang. Automatic features for essay scoring-an empirical study. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 1072-1077, 2016. [10] Yi Tay, Minh C Phan, Luu Anh Tuan, and Siu Cheung Hui. Skipflow: Incorporating neural coherence features for end-to-end automatic text scoring. In Thirty-Second AAAI Conference on Artificial Intelligence, pp. 59485955, 2018. [11] Fei Dong, Yue Zhang, and Jie Yang. Attention-based recurrent convolutional neural network for automatic essay scoring. In Proceedings of the 21st Conference on Computational Natural Language Learning, pp. 153-162, 2017. [12] Youmna Farag, Helen Yannakoudakis, and Ted Briscoe. Neural automated essay scoring and coherence modeling for adversarially crafted input. arXiv, 2018. [13] Masaki Uto, Yikuan Xie, and Maomi Ueno. Neural automated essay scoring incorporating handcrafted features. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 6077-6088, 2020. [14] 岡野将士, 宇都雅輝. 評価者バイアスの影響を考慮した深層学習自動採点手法. 電子情報通信学会論文誌 D, Vol. 104, No. 8, pp. 650-662, 2021. [15] Pedro Uria Rodriguez, Amir Jafari, and Christopher M Ormerod. Language models and automated essay scoring. arXiv, 2019 [16] Sandeep Mathias and Pushpak Bhattacharyya. Can neural networks automatically score essay traits? In Proceedings of the Fifteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 85-91, 2020. [17] Mohamed A. Hussein, Hesham A. Hassan, and Mohammad Nassef. A trait-based deep learning automated essay scoring system with adaptive feedback. International Journal of Advanced Computer Science and Applications, Vol. 11, No. 5, pp. 287-293, 2020. [18] Farjana Sultana Mim, Naoya Inoue, Paul Reisert, Hiroki Ouchi, and Kentaro Inui. Unsupervised learning of discourse-aware text representation for essay scoring. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 378-385, 2019. [19] Robert Ridley, Liang He, Xin-yu Dai, Shujian Huang, and Jiajun Chen. Automated cross-prompt scoring of essay traits. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, pp. 13745-13753, 2021. [20] Masaki Uto. A multidimensional item response theory model for rubric-based writing assessment. In Artificial Intelligence in Education, pp. 420-432. Springer International Publishing, 2021. [21] Masaki Uto. A multidimensional generalized many-facet rasch model for rubric-based performance assessment. Behaviormetrika, Vol. 48, No. 2, pp. 425-457, 2021. [22] Jeffrey L Elman. Finding structure in time. Cognitive science, Vol. 14, No. 2, pp. 179-211, 1990. [23] Frederic M Lord. Applications of item response theory to practical testing problems. Routledge, 2012. [24] Lihua Yao and Richard D. Schwarz. A multidimensional partial credit model with associated item and test statistics: An application to mixed-format tests. Applied Psychological Measurement, Vol. 30, No. 6, pp. 469-492, 2006. [25] Yann Dauphin, Harm de Vries, and Yoshua Bengio. Equilibrated adaptive learning rates for non-convex optimization. In Advances in Neural Information Processing Systems, Vol. 28, pp. 1504-1512. Curran Associates, Inc., 2015. [26] Sandeep Mathias and Pushpak Bhattacharyya. ASAP++: Enriching the ASAP automated essay grading dataset with essay attribute scores. Proceedings of the Eleventh International Conference on Language Resources and Evaluation, 2018 [27] Jeffrey Pennington, Richard Socher, and Christopher D Manning. Glove: Global vectors for word representation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp. 15321543, 2014.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G2-5.pdf
# アノテータ特性を考慮した項目反応モデルを組み込んだ 深層学習自動採点手法 岡野将士 ${ }^{1}$ 宇都雅輝 1 1 電気通信大学大学院 \{okano,uto\}@ai.lab.uec.ac.jp ## 概要 近年注目されている深層学習を用いた小論文自動採点モデルを利用するためには,採点済みの小論文データセットを用いてモデル学習を行う必要がある。一般にモデル学習はアノテータが与えた得点を真値と仮定して行うが,小論文の採点結果はアノテータの特性に依存することが知られており,そのようなバイアスデータを用いてモデルを学習すると自動採点モデルの性能が低下してしまう. この問題を解決するために本研究では,アノテータの特性を考慮した項目反応理論を組み込んだ深層学習自動採点手法を提案する。 ## 1 はじめに 近年の急速な社会変化に伴い,学校教育では論理的思考力などの育成が求められ,そのような能力を評価する手法の一つとして小論文試験が注目されている. しかし,小論文試験を大規模な試験で実施する場合,時間的・金銭的コストの高さや採点の公平性の担保の難しさといった課題が存在する $[1,2,3]$.自動採点手法はこれらの問題の解決策の一つとして注目されている [4]. 自動採点を実現する手法として,近年では,深層学習を用いた手法が多数提案され,高精度を実現している $[5,6,7,8]$. 深層学習を用いた自動採点モデルを利用するためには,採点済み小論文のデータセットを用いてモデルを学習する必要がある.その際,データセット中の得点はバイアスのない正確な得点であると仮定する.しかしながら,大規模試験では多数のアノテータが分担をして採点を行うことが一般的であり,そのような場合,個々の答案に対する得点はアノテータの特性(甘さ/厳しさなど)に強く依存してしまう [9]. このようなアノテータの特性の影響を受けたデータを利用した場合,学習さ れるモデルもその影響を受け,性能が低下することが報告されている $[10,11,12,13]$. 他方で,教育・心理測定の分野において,アノテータの特性の影響を取り除くことができる手法が提案されている,具体的には,数理モデルを用いたテスト理論の一つである IRT(Item Respose Theory:項目反応理論)モデルに,アノテータの特性を表すパラメータを加えたモデルとして提案されている $[9,14,15,16,17,18,19,20]$. 岡野・宇都 $[21,22,23]$ はこのような IRT モデルを深層学習自動採点モデルと組み合わせて用いるアプローチを提案している.具体的には,アノテータの特性を考慮した IRT モデルを用いて訓練データ中の得点からアノテータのバイアスの影響を取り除いた得点(以降では IRT 得点と呼ぶ)を推定し,この得点を元に自動採点モデルの学習を行う手法である. この方法によって,アノテータのバイアスに頑健なモデル学習が可能になることが示されている. しかし,この手法では IRT 得点の推定にアノテータが与えた観測得点のみを用いており,答案文の情報は使用していない。一方で,答案文の内容自体も IRT 得点推定の有益な情報となりうるため,答案文の内容も加味するようにモデルを拡張することでこのアプローチの性能を更に向上できると予測される. そこで本研究では,IRT モデルと深層学習自動採点モデルを二段階で適用するのではなく, end-to-end で学習できるように拡張する. 具体的には,深層学習自動採点モデルの出力層に IRT モデルを組み込んで end-to-end で学習する。この手法では,IRT 得点の推定にアノテータが与えた観測得点だけでなく答案の文章も活用できるため,従来の IRT モデルと比べて IRT 得点の推定精度が改善し,このアプロー チの全体的な性能改善につながる,本論文では,実データ実験により提案手法の有効性を示す. ## 2 データ 本研究では,深層学習自動採点モデルの学習デー タとして,ある小論文問題に対する $J$ 人の受検者 $g=\{1, \ldots, J\}$ の答案集合 $\boldsymbol{A}$ と, 各答案を $R$ 人のアノテータ $\mathscr{R}=\{1, \ldots, R\}$ で分担して採点した得点集合 $\boldsymbol{U}$ で構成されるデータを想定する。 答案集合 $\boldsymbol{A}$ は, 受検者 $j \in \mathcal{g}$ の答案 $e_{j}$ の集合であり, 得点集合 $\boldsymbol{U}$ は答案 $e_{j}$ に対してアノテータ $r \in \mathscr{R}$ が $K$ 段階 $\mathscr{K}=\{1, \ldots, K\}$ で与えた得点 $U_{j r}$ の集合として, $\boldsymbol{U}=\left.\{U_{j r} \in \mathscr{K} \cup\{-1\} \mid j \in \mathcal{F}, r \in \mathscr{R}\right.\}$ と定義する. ここで $U_{j r}=-1$ は久測データを表す. 久測データは答案 $e_{j}$ にアノテータ $r$ が割り当てられていない場合に生じる.実際の採点場面では負担軽減のために,個々の答案に数名のアノテータを割り当てて採点が行われるため,このような欠測が生じる. ## 3 深層学習自動採点モデル 深層学習自動採点モデルは小論文答案の単語系列を深層学習モデルに入力することで得点を推定する手法であり,近年多くの手法が提案されている $[5,6,7,8]$. 本研究では Long short-term memory (LSTM)に基づくモデル [24] と Bidirectional Encoder Representations from Transformers (BERT) に基づくモデル $[25,26]$ を使用する. LSTM に基づくモデル [24] は深層学習自動採点モデルの基礎モデルとして知られている。 このモデルでは,答案の単語系列を入力し,5つの層(Lookup Table Layer $\cdot$ Convolution Layer $\cdot$ Recurrent Layer $\cdot$ Pooling Layer ・ Linear Layer with Sigmoid Activation)を通して得点を予測する.LSTM は 3 層目の Recurrent Layer で用いられ, 得点予測に有効な特徵量を文脈を考慮して抽出する。 BERT に基づくモデル $[25,26]$ では, 答案の単語系列を入力し,中間表現を生成する。この中間表現を LSTM に基づくモデルと同様の Linear Layer with Sigmoid Activation に通すことで得点を計算する. これらの深層学習自動採点モデルは, 一般に大量の採点済み答案データを訓練データとして用いてモデル学習を行う。具体的には,次式で定義される平均二乗誤差 (mean squared error:MSE)を損失関数として,誤差逆伝搬法で学習することが一般的である. $ \operatorname{MSE}(\boldsymbol{U}, \hat{\boldsymbol{U}})=\frac{1}{J} \sum_{j=1}^{J}\left(U_{j}-\hat{U}_{j}\right) $ ここで, $U_{j}$ は $e_{j}$ の得点を, $\hat{U}_{j}$ は $e_{j}$ の予測得点を表す。また,各答案に複数のアノテータが割り当てられている場合, $U_{j}$ にはアノテータが与えた観測得点の平均などを用いる。しかし,このような観測得点データはアノテータの特性に強く依存することが知られている [9]. そのようなバイアスデータをモデル学習に使用すると, 自動採点モデルにもアノテータの特性の影響が反映され,予測精度が低下してしまう $[10,11]$. 本研究では,この問題を解決するために IRTを用いる. ## 4 項目反応理論 IRT は,コンピュータ・テスティングの普及とともに近年様々な分野で実用化が進められている数理モデルを用いたテスト理論の一つである. 本研究では,小論文採点の文脈で利用できる宇都・植野のモデル $[15,16]$ を利用する. 宇都・植野のモデル $[15,16]$ では,受検者 $j \in \mathscr{g}$ の答案に対し,アノテータ $r \in \mathscr{R}$ が得点 $k \in \mathscr{K}$ を光る確率が次式で定義される。 $ P_{j r k}=\frac{\exp \sum_{m=1}^{k}\left[\alpha_{r}\left(\theta_{j}-\beta_{r m}\right)\right]}{\sum_{l=1}^{K} \exp \sum_{m=1}^{l}\left[\alpha_{r}\left(\theta_{j}-\beta_{r m}\right)\right]} $ ここで, $\alpha_{r}$ はアノテータ $r$ の採点の一貫性, $\beta_{r m}$ は得点 $m$ に対するアノテータ $r$ の厳しさを表す. ただし,パラメータの識別性のために, $\beta_{r 1}=0$ を仮定する. また, $\theta_{j}$ は受検者 $j$ の答案 $e_{j}$ に対応した潜在得点であり,アノテータバイアスの影響を取り除いた得点とみなせる. 本研究ではこの潜在得点を IRT 得点と呼ぶ. ## 5 IRT 得点を用いた自動採点手法 岡野・宇都 $[21,22,23]$ は上記の IRT モデルと自動採点モデルを組み合わせて用いる手法を提案した。 この手法では観測得点データ $\boldsymbol{U}$ から IRT 得点 $\theta_{j}$ を推定し,これを目的変数として自動採点モデルを学習する。以下で詳細を説明する。 モデル学習は, IRT モデルによる得点推定と自動採点モデルの学習の二段階で行われる. 具体的な手順は以下の通りである.1)アノテータが与える得点データ $\boldsymbol{U}$ から,アノテータの特性の影響を取り除いた各答案 $e_{j}$ のIRT 得点 $\theta_{j}$ を式 (2) の IRT モデルを用いて推定する.2)手順 1 で求めた IRT 得点 $\theta_{j}$ を予測するように自動採点モデルを学習する。具体的には損失関数を $\operatorname{MSE}(\boldsymbol{\theta}, \hat{\boldsymbol{\theta}})=\frac{1}{J} \sum_{j=1}^{J}\left(\theta_{j}-\hat{\theta}_{j}\right)^{2}$ と定義し,誤差逆伝播法によりパラメータを学習す る.ここで $\hat{\theta}_{j}$ は自動採点モデルの予測値を表す. 学習されたモデルを用いて新たな答案 $e_{j^{\prime}}$ の得点を予測する手順は以下の通りである.1)答案 $e_{j^{\prime}}$ の IRT 得点 $\theta_{j^{\prime}}$ を自動採点モデルを用いて予測する. 2) IRT 得点 $\theta_{j^{\prime}}$ とアノテータの特性パラメータを用いて,IRT モデルに基づく期待得点を以下の式で求め,この値を予測得点とする。 $ \hat{U}_{j^{\prime}}=\frac{1}{R} \sum_{r=1}^{R} \sum_{k=1}^{K} k \cdot P_{j^{\prime} r k} $ この手法を用いることで,アノテータのバイアスに頑健なモデル学習と得点予測が可能になった. しかし,モデル学習の手順 1 で行われる IRT 得点の推定にはアノテータが与える観測得点のみを用いており,答案文は情報として使用しない。一方で,答案文の内容自体も IRT 得点推定の有益な情報となりうるため,答案文の内容も加味するようにモデルを拡張することでこのアプローチの性能を更に向上できると予測される。 ## 6 提案手法 以上を踏まえ, 本研究では, 深層学習自動採点モデルの出力層にアノテータの特性を考慮した IRT モデルを組み込み, end-to-end で学習できるように拡張した手法を提案する。具体的には,深層学習自動採点モデルの最終層にあたる Linear Layer with Sigmoid Activation を活性化関数を利用しない Linear Layer に変更し,その出力を式(2)における IRT 得点 $\theta_{j}$ とみなす手法を提案する。提案手法による LSTM と BERT に基づくモデルの概念図を図 1 に示す. 提案手法に基づくモデルの学習は end-to-end で行い,深層学習モデルのパラメータと同時に IRT のパラメータも推定する. 具体的には,以下の損失関数に基づき誤差逆伝播法でパラメータ学習を行う. $ \operatorname{MSE}(\boldsymbol{U}, \hat{\boldsymbol{U}})=\frac{1}{J} \sum_{j=1}^{J}\left[\frac{1}{n_{j}} \sum_{r=1}^{R}\left(U_{j r}-\hat{U}_{j r}\right)^{2} I_{j r}\right] $ ここで, $I_{j r}$ は $U_{j r}=-1$ のときに 0 , それ以外のときに 1 を返す関数であり, 変数 $n_{j}$ は $n_{j}=\sum_{r=1}^{R} I_{j r}$ で定義される。また,学習されたモデルを用いて新たな答案 $e_{j^{\prime}}$ の得点を予測する手順は 5 章で説明した従来手法と同様である. 提案手法では,IRT 得点の推定にアノテータが与えた観測得点だけでなく答案の文章も活用できるため,従来の IRT モデルと比べて IRT 得点の推定精度が改善し, 本アプローチの性能が改善することが期 図 1 提案手法の概念図 待できる. ## 7 実データ実験 ## 7.1 実データ 本実験では,自動採点モデルのベンチマークデータとして広く利用されている Automated Student Assessment Prize(ASAP)[27]を使用する。ASAP は 8 つのトピックに対する答案データと得点データで構成されている。ただし,ASAPにはアノテータの情報が含まれていないため,提案手法を直接は適用できない。そのため,新たにアノテータを雇用して ASAP の答案データを再度採点し,本実験で用いる得点データを収集した. 具体的には, 先行研究で予測精度が最も高かったトピック 5 の 1805 個の答案に対して,Amazon Mechanical Turk で募集した英語ネイティブ 38 名のアノテータを 1 つの答案あたり 3 5 名割り当てて ASAP と同様に 5 段階の採点を行った. 元データとの相関は 0.675 であった. 本研究では,異なるアノテータが採点したデータを元にモデル学習を行ったとしても安定した得点を予測できるモデルの実現を目指している。そのような評価を行うために本実験では,各答案に与えられた複数の観測得点からランダムに一つの得点データを残すことでアノテータの割り当てを変えた得点データセットを複数パターン用意する。ただし,訓練データ中の全ての答案に単一の得点のみが与えられている場合,アノテータの特性パラメータを同一尺度上で推定するために必要な等化が保証されない. そこで,訓練データ中の半分の答案は元の複数アノテータによるデータをそのまま使用し,残りの半分の答案にはランダムに選択した 1 名のアノテー 表 1 IRT 得点の推定精度評価結果 タの得点を残すようにデータを作成する.以上の手順で ASAP データセットから新たにアノテータの割り当てが異なる 10 個のデータセットを作成し,これらを $\left.\{\boldsymbol{U}_{1}^{\prime}, \ldots, \boldsymbol{U}_{10}^{\prime}\right.\}$ とした。 ## 7.2 IRT 得点の推定精度評価 本節では,提案手法を用いることで,各答案に対する IRT 得点 $\theta$ の推定精度が向上するかを評価する. IRT 得点の推定精度は,アノテータが変わっても安定した得点が推定されている場合に高いと解釈できる $[21,22,23]$. そのため,アノテータの割り当て方が異なるデータセット $U_{n}^{\prime}$ を用いて各答案の IRT 得点 $\theta_{\boldsymbol{n}}$ を推定する操作を繰り返し行い,推定された値を比較することによって IRT 得点の推定精度を評価する。具体的には,次の手順に基づいて評価実験を行った.1) $n$ 番目のデータセット $\boldsymbol{U}_{n}^{\prime}$ の 4/5を訓練データとして,提案手法によりモデルの学習を行った. 2) 手順 1 で得られたモデルを所与として,データセット $\boldsymbol{U}_{n}^{\prime}$おける残り $1 / 5$ のテストデータに対して IRT 得点を推定した。3)以上を学習データとテストデータの切り分けを変えて 5 回繰り返すことで,全ての受検者の IRT 得点 $\theta_{\boldsymbol{n}}$ を求めた. 以上の操作を $n=\{1, \ldots, 10\}$ について行ったあと, $n$ 番目のデータセットから求めた $\boldsymbol{\theta}_{\boldsymbol{n}}$ と $n^{\prime}$ 番目の得点データセットから推定した $\boldsymbol{\theta}_{\boldsymbol{n}^{\prime}}$ との平均平方二乗誤差(Root Mean Square Error:RMSE),相関係数 (Correlation) $n \in\{1, \ldots, 10\}, n^{\prime} \in\{1, \ldots, 10\}$ の全ての組み合わせについて求め,それらの平均を算出した. 以上の実験を複数の構成のモデルで行った. 具体的には,LSTM に基づくモデルにおける Convolution layer の有無が異なるモデル ( $「 \mathrm{CNN}-\mathrm{LSTM}\lrcorner と$ $\lceil\mathrm{LSTM}\lrcorner$ )と BERT に基づくモデル(「BERT」)を用いた。また,比較のために,同様の実験を,答案の文章情報を利用しない式(2)の IRT モデル(「既存 IRT」)でも実施した。 実験結果を表 1 に示す. 全ての条件において提案手法のモデルが高い性能を示しており,IRT 得点の推定精度の改善に有効であることが確認できた.表 2 得点予測の頑健性評価結果 & \\ LSTM & $\mathbf{0 . 7 6 8}$ & 0.694 & 0.678 \\ BERT & $\mathbf{0 . 7 0 6}$ & 0.688 & 0.694 \\ LSTM & $\mathbf{0 . 9 4 5}$ & 0.926 & 0.903 \\ BERT & $\mathbf{0 . 9 3 1}$ & 0.923 & 0.920 \\ ## 7.3 得点予測の頑健性の評価 本節では,提案手法を利用することで,評価者バイアスに頑健な自動採点モデルを学習できるかを評価する。本実験では,個々の答案を採点する評価者を変化させても,安定した性能の自動採点モデルを学習できるかによってこれを評価する。具体的には,手順 1 3 は前節と同様に行い,手順 3 で得られた IRT 得点 $\boldsymbol{\theta}_{\boldsymbol{n}}$ を所与として,式(3)を用いて予測得点 $\hat{U}_{\boldsymbol{n}}$ を求めた. この手順を,前節と同様に $n=\{1, \ldots, 10\}$ について行い, $\hat{\boldsymbol{U}}_{\boldsymbol{n}}$ と $\hat{\boldsymbol{U}}_{\boldsymbol{n}^{\prime}}$ との重み付きカッパ係数(Linear Weighted Kappa:LWK),相関係数を全ての組み合わせについて求め,それらの平均を算出した。 比較のために,5 章で説明した IRT 得点を用いてモデル学習を行う手法 (「IRT 得点を用いた手法」) と観測得点の平均値を用いてモデル学習を行う手法 (「観測得点を用いた手法」)を用いて同様の実験を行った. 実験結果を表 2 に示す。性能が最も高い結果を太字で示している.全ての条件において,提案手法のモデルが高い性能を示していることから,提案手法により自動採点モデルのアノテータバイアスに対する頑健性の向上が確認できた. ## 8 まとめ 本研究では,深層学習自動採点モデルとアノテー タの特性を考慮したIRT モデルを統合し, end-to-end でモデル学習を行う手法を提案した。また,実デー 夕実験により,IRT 得点の推定精度と自動採点モデルの得点予測精度が改善されることを示した。 今後は,様々なデータに適用し提案手法の有効性を評価する。また,より高精度の自動採点モデルに組み込むことでさらなる精度改善を目指す。 ## 謝辞 本研究は JSPS 科研費 JP19H05663,JP20K20817, JP21H00898 の助成を受けたものです. ## 参考文献 [1] 河原宜央. 国語科の評価問題における記述式問題の採点過程に関する研究採点基準と採点答案の分析を通して. Technical report, 広島県立教育センター, 2017. [2] 野澤雄樹. 記述式項目の使用に関する教育測定学的考察. 教育心理学年報, Vol. 58, pp. 131-148, 2019. [3] 荒井清佳, 石岡恒憲. 小論文課題の複数人による採点の基礎的な分析: 採点者による得点の違いについて.大学入試研究ジャーナル, No. 26, pp. 53-58, 2016. [4] 石岡恒憲. 記述式答案、AI 採点「ほぼ人間並み」12 万件で精度検証. 日本経済新聞。日経電子版. https://www.nikkei.com/ article/DGXZQOCD02D8Y0S1A201C2000000/, December 2021. (Accessed on 1/9/2022). [5] Zixuan Ke and Vincent Ng. Automated essay scoring: A survey of the state of the art. In Proceedings of the International Joint Conference on Artificial Intelligence, pp. 6300-6308. International Joint Conferences on Artificial Intelligence Organization, July 2019. [6] Masaki Uto. A review of deep-neural automated essay scoring models. Behaviormetrika, 2021. [7] Paraskevas Lagakis and Stavros Demetriadis. Automated essay scoring: A review of the field. In Proceedings of the International Conference on Computer, Information and Telecommunication Systems, pp. 1-6, 2021. [8] Dadi Ramesh and Suresh Kumar Sanampudi. An automated essay scoring systems: a systematic literature review. Artificial Intelligence Review, pp. $1-33,2021$. [9] 宇都雅輝, 植野真臣. パフォーマンス評価のための項目反応モデルの比較と展望. 日本テスト学会誌, Vol. 12, No. 1, pp. 56-75, May 2016. [10] Evelin Amorim, Marcia Cançado, and Adriano Veloso. Automated essay scoring in the presence of biased ratings. In Proceedings of the Conference of the North American Chapter of the Association for Computational Linguistics, Vol. 1, pp. 229-237. Association for Computational Linguistics, June 2018. [11] Stefanie A. Wind, Edward W. Wolfe, George Engelhard, Peter W. Foltz, and Mark Rosenstein. The influence of rater effects in training sets on the psychometric quality of automated scoring for writing assessments. International Journal of Testing, Vol. 18, pp. 27 -49, 2018. [12] Jinchi Huang, Lie Qu, Rongfei Jia, and Binqiang Zhao. O2u-net: A simple noisy label detection approach for deep neural networks. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 33253333, 2019. [13] Shikun Li, Shiming Ge, Yingying Hua, Chunhui Zhang, Hao Wen, Tengfei Liu, and Weiqiang Wang. Coupled-view deep classifier learning from multiple noisy annotators. In Proceedings of the AAAI Conference on Artificial Intel- ligence, Vol. 34, pp. 4667-4674, 2020. [14] Masaki Uto and Maomi Ueno. Empirical comparison of item response theory models with rater's parameters. Heliyon, Elsevier, Vol. 4, No. 5, pp. 1-32, May 2018. [15] Masaki Uto and Maomi Ueno. A generalized many-facet Rasch model and its Bayesian estimation using Hamiltonian Monte Carlo. Behaviormetrika, Vol. 47, No. 2, pp. 469-496, May 2020. [16] 宇都雅輝, 植野真臣. ピアアセスメントにおける異質評価者に頑健な項目反応理論. 電子情報通信学会論文誌. D, 情報・システム, Vol. 101, No. 1, pp. 211-224, January 2018. [17] Richard J. Patz, Brian W. Junker, Matthew S. Johnson, and Louis T. Mariano. The hierarchical rater model for rated test items and its application to large-scale educational assessment data. Journal of Educational and Behavioral Statistics, Vol. 27, No. 4, pp. 341-384, January 2002. [18] Richard J. Patz and Brian W. Junker. Applications and extensions of MCMC in IRT: Multiple item types, missing data, and rated responses. Journal of Educational and Behavioral Statistics, Vol. 24, No. 4, pp. 342-366, December 1999. [19] J.M. Linacre. Many-faceted Rasch Measurement. MESA Press, January 1989. [20] 宇佐美慧. 採点者側と受験者側のバイアス要因の影響を同時に評価する多値型項目反応モデル. 教育心理学研究, Vol. 58, No. 2, pp. 163-175, 2010. [21] Masaki Uto and Masashi Okano. Robust neural automated essay scoring using item response theory. In Artificial Intelligence in Education, pp. 549-561. Springer International Publishing, 2020. [22] 岡野将士, 宇都雅輝. 評価者バイアスの影響を考慮した深層学習自動採点手法. 電子情報通信学会論文誌 D, Vol. 104, No. 8, pp. 650-662, 2021. [23] 岡野将士, 宇都雅輝. アノテータのバイアスを考慮した記述・論述式自動採点手法. 言語処理学会第 27 回年次大会, pp. 900-904. 言語処理学会, March 2021. [24] Kaveh Taghipour and Hwee Tou Ng. A neural approach to automated essay scoring. In Proceedings of the Conference on Empirical Methods in Natural Language Processing, pp. 1882-1891. Association for Computational Linguistics, November 2016. [25] Pedro Uria Rodriguez, Amir Jafari, and Christopher M. Ormerod. Language models and automated essay scoring. arXiv, September 2019. [26] Masaki Uto, Yikuan Xie, and Maomi Ueno. Neural automated essay scoring incorporating handcrafted features. In Proceedings of the International Conference on Computational Linguistics, pp. 6077-6088. International Committee on Computational Linguistics, 2020. [27] Automated Student Assessment Prize. https:// www.kaggle.com/c/asap-aes/data. (Accessed on $1 / 11 / 2022$ ).
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G3-1.pdf
# テキスト平易化システムの分析的評価のための 平易化方略体系の構築 山口大地 ${ }^{1}$ 島田紗裕華 1 宮田玲 ${ }^{2}$ 佐藤理史 ${ }^{2}$ 1 名古屋大学工学部 2 名古屋大学大学院工学研究科 yamaguchi.daichi@c.mbox.nagoya-u.ac.jp ## 概要 ニューラルネットワークを用いたテキスト平易化手法が盛んに研究されているが、実用化はあまり進んでいない。今後の研究・開発のさらなる発展のためには、現在の平易化技術にできること・できないことを分析的に把握するための評価ツールが必要である。本稿では、そのようなツールの一つとして、 どのような平易化操作がなされたかを分類するための平易化方略体系を、人手の平易化事例とシステム出力の分析に基づき構築した。また、この方略体系を用いて、人間と機械の差異を詳細に可視化できることを予備的に示した。 ## 1 はじめに テキスト平易化(text simplification, TS)とはテキストの主要な内容を保持しつつ、語彙や構造の複雑さを軽減することである。近年の TS システムは難解文から平易文への単一言語の翻訳問題として取り組まれ、ニューラルネットワークを用いた手法が盛んに研究されている。しかし、機械翻訳とは異なり、TS システムの実用化はあまり進んでいない。 $\mathrm{TS}$ システムの研究・開発のさらなる発展のためには、現在の TS 技術の限界を知り、人間の行っている平易化とのギャップを明確に把握することが重要である。 TS システムの評価には、SARI [1]、BLEU [2] Flesch-Kincaid Grade Level (FKGL) [3] といった自動評価指標が広く使われる。SARI と BLEU は人手による平易化参照文との N-gram に基づく一致度を用いた評価指標であり、FKGL は単語数と音節数を用いた評価指標である。この他にも、流暢性、妥当性、平易度 [4][5][6] といった側面を主観的な判断でスコア付けする人手評価が用いられることもある。これらはいずれもシステムの出力結果に対して、数値的 な評価を与えるものであり、TS システムにできること・できないことを分析的に評価する枠組みは十分に確立していない。 TS システムの分析的評価には大きく分けて、どのような変換操作がなされたかに関する方略分析とどのような誤りを含んでいるかに関するエラー分析があり、本稿では、主に方略分析を対象とする。既存の平易化研究では、書き換え操作として、言い換え、削除、分割の 3 つが認定されることが多い [7]。加えて文書レベルの平易化操作として文の並べ替えや統合が認定されることもある [8]。しかし、これらはテキストの表層的な操作を大まかに類型化したものであり、平易化固有の内容的変化を具体的に捉えるものではない。内容的な側面に踏み込んだものとしては、執筆者向けの平易化ガイドラインが多く作られてきたが [9]、これらも大まかな指針を示すに留まるものが多い。したがって、TS システムを評価するためのより詳細な平易化方略分析の枠組みが必要である。本稿では以下、平易化方略分析を可能とする方略体系の構築について報告した上で、人手事例とシステム出力の比較を行うことで人間と機械の平易化方略の違いについても予備的に観察する。 ## 2 平易化方略体系の構築 初めに人手事例を分析することで平易化方略体系のプロトタイプを作成した。続いて、複数の TS システムによる出力結果を用いて、それらを網羅的に分類できるように体系の拡張・修正を行った。 ## 2.1 人手事例分析による体系構築 分析対象として、Newsela [10] が公開するプロの編集者が文書単位で平易化を行ったニュース記事を用いた。まず、Newsela の記事の Popular のカテゴリ1)から、4 文書選定した。Newsela では文書ごとに  図 1 最小単位の書き換えへの分解例 4 段階の書き換えがなされている。オリジナルの文書を $\mathrm{Lv0}$ として最も平易な文書を Lv4 とする。隣接するレベルの文書ぺア全てに対して、手作業で文アラインメントを取り、合計 551 の難解文・平易文のペアを獲得した。次に図 1 のように、難解文から平易文に至る書き換えの過程を分解し、最小単位の書き換え事例を 1133 件得た。 これら全事例に対して、表層的方略(語や句、節といった文法的要素に対する置換や削除、追加といった形式的な操作)と内容的方略(平易化の観点からの意味・内容の変更操作)の 2 つの軸から分析した。筆者らが各事例に対するラベル付けとラベルのまとめ上げのサイクルを複数回繰り返すことで、 ボトムアップに平易化方略を体系化した。 ## 2.2 システム出力を用いた体系修正 人手事例分析で構築した平易化方略体系のプロトタイプを TS システムの出力を使用して修正した。TS システムのモデルとして、Transformer $[11]^{2)} 、$ DRESS [12] 3)、SUC [13] 9 の 3つを用いた。いずれも学習データには Newsela コーパスを用いたが、アラインメントの方法含め、元の論文と同じ設定で実装しているため、実際に学習に使われたデータはそれぞれ異なるら)。 人手事例分析に用いた Lv0 と Lv1 の文書から、 Transformer 用に 166 文、DRESS 用に 38 文、SUC 用に 38 文を選定し、各システムで平易化を行った。  これらの出力の内、平易化によりテキストに変化が生じた 125 文に対して、最小単位の書き換えへの分解を行い、計 217 件の書き換え事例を獲得した。書き換えをプロトタイプの方略体系(表層的方略および内容的方略)を用いて分類し、分類できない事例があった場合には体系を修正した。 ## 3 平易化方略体系 ## 3.1 表層的方略 表 1 に表層的方略の大分類と中分類を示す。大分類は、操作の観点から置換、削除、追加、統合、分割、移動、変化なしの 7 種類に分かれる。変化なし以外は、操作対象の観点から細分化した中分類を持ち、合計で 21 の中分類に分かれる。置換、削除、追加に関しては、対称性を持たせるために、同一の対象群(記号、語、語句、節、文)を中分類として設定した ${ }^{6)}$ 。以下、大分類ごとに説明する。 置換難解文と平易文で対応が取れる場合は置換とする。例えば図 1 の hard work will help you reach your goals $\rightarrow$ hard work is important は置換である。また置換される対象が句の場合は主要部が変化するという条件が加わる。よって video games $\rightarrow$ games は置換ではないが playing video games $\rightarrow$ video games は置換である。 削除難解文に平易文と対応の取れない部分がある場合は削除とする。また対応が取れた場合でも、書き換え前の従属部がなくなっているだけの場合は削除とする。例えば video games $\rightarrow$ games は削除である。 追加平易文に難解文と対応が取れない部分がある場合は追加とする。また対応が取れた場合でも、書き換え後に従属部が追加されているだけの場合は追加とする。例えば animals $\rightarrow$ small animals は追加である。 統合複数の難解文がそれより少ない数の平易文と対応を取れた場合は統合とする。しかし、文の主要部が含まれない場合は統合とはみなさない。 つまり、難解文の 2 文 In video games, working hard is not enough. You have to be smart, too. が平易文の 1 文 In video games, you also have to be smart. と対応の取れた場合は難解文の前者の主要部 working hard is not enough が含まれていないため、統合ではない。この場合は難解文の前者は文レベルで削除され、後者に 6)なお、記号置換と記号追加は分析事例中に存在しなかった。 表 1 表層的方略体系と検証用事例の分類結果 in video games を追加したという 2 ステップの書き換えとして、移動とはみなさない。 分割難解文の 1 文が 2 文以上の平易文と対応の取れた場合は分割とする。分割の際に必然的に伴う変更(主語の補完など)も分割操作に含める。 移動文中で語順が変わる場合と文書内で文の位置が移動する場合は移動とする。 変化なし難解文と平易文が同一の時は变化なしとする。 ## 3.2 内容的方略 表 2 に内容的方略の大分類と中分類を示す。内容的方略は大分類として意味変化なし、内容削除、内容追加、内容変更、文書レベル調整の 5 種類に分かれる。それぞれが中分類を持ち、合計で 30 の中分類に分かれる。以下、大分類ごとに説明する。 意味変化なし書き換えによって意味が変化しない場合は意味変化なしとする。例えば、文頭の接続詞を副詞にするなど文法的により正しい標準的な表現に変更する場合(e.g. but $\rightarrow$ however)や難解文と平易文が同一の場合は意味変化なしに分類する。なお、類義語へ言い換える場合や代名詞を参照先の表現に言い換える場合、意味は変化するとして内容変更に分類する。表 2 内容的方略体系と検証用事例の分類結果 内容削除書き換えによって内容が削除される場合は内容削除とする。例えば、修飾要素が削除される場合(e.g. the delicious pizza $\rightarrow$ the pizza)や図 1 の shows you that $\rightarrow$ shows that の書き換えは内容削除に分類される。中分類の主要情報の削除は人手の分析データ中には存在しなかったが、TS システムの出力を扱うために追加した項目である。 内容追加書き換えによって内容が追加される場合は内容追加とする。例えば、後に記述される内容の理解を促す前置きを追加する場合 (e.g. $\phi$ $\rightarrow$ Chocolate chip cookies seem like they've been around forever.) や記述された内容についての補足説明を追加する場合 (e.g. $\phi \rightarrow$ A billion is a thousand million.) を含む。 内容変更書き換えによって内容が変化する場合は内容変更とする。例えば、冗長性を排した簡潔な表現に変更する場合 (e.g. a plant called the coca plant $\rightarrow$ the coca plant) や図 1 の hard work will help you reach your goals $\rightarrow$ hard work is important $の$ 書き換えは内容変更に分類する。 表 3 システム(Transformer モデル)の出力例と人手参照文 \\ 参照文 1 & \\ 出力 2 & to succeed in video games, you can not just work harder . \\ 参照文 2 & In video games, working harder is not enough. \\ 出力 3 & they give you many different ways of dealing with problems. \\ 参照文 3 & They give you lots of different problems with several solutions. 文書レベル調整文の位置が文書内で移動する場合や他の書き換えの影響で変更が生じる場合(e.g.前の文が削除されたことで参照するものが不明になった代名詞を参照先の表現に言い換える場合) は文書レベル調整とする。 ## 4 人手事例とシステム出力の比較 構築した平易化方略を用いて、人手事例と TS システム出力の予備的な比較分析を行う。TS システムのモデルは Transformer のみを対象とし、2.2 節で用いた 166 文を検証対象文とする。比較のため、人手事例もこの 166 文に限定した。また最小単位の書き換えを事例とするだけでなく、書き換えが生じなかった文もそれぞれ 1 事例とした。表 1 と表 2 に、人手事例とシステム出力の事例数の統計を示す。 ## 4.1 表層的方略 表 1 から、システムは追加、統合、分割、移動がほとんどできていないことがわかる。また、システムの主な方略は削除であり、特に節削除を多く行っていることがわかる。これは、文単位でのみ対応付けられた学習データの構造に起因すると考えられる。例えば、原文 I bought an apple and ate it. が人手事例では I bought an apple. と I ate it に分割されたとする。現在の学習データでは、原文に対して、2 つの文が別々にアライメントされている。これにより、表 3 の出力 1 のように人手の場合には分割するような文に対して TS システムが大幅な削除を行っている可能性がある。 また、置換の方略については、語や語句を対象としたものが多いことがわかる。表 3 の参照文 2 のような比較的大きな変化を、システムではうまく学習できておらず、局所的な書き換えに留まる。 ## 4.2 内容的方略 表 2 から、システムは意味変化なし>構造の変換の事例数が、人手と比べて少ないことがわかる。人手事例では、構造の変換は主に分割によるものが多く、先にも述べたように、システムは分割操作を十分学習できていない。 それに対して、内容削除の件数は多い。ただし、 これらの削除が平易化の観点から妥当であるかは不問としている。システムのみに存在する、内容削除 $>$ 主要情報の削除の事例は、表層的方略の節削除とも対応した、大幅な削除操作である。表 3 の出力 1 は、文単位では情報を簡略化した事例ともみなせるが、文書全体を考慮すると情報が削除されすぎている。現在は、平易化方略に含めてはいるが、本来はエラーとみなすべきものある。 システムは内容追加がほとんどできていない。表 3 の参照文 1 の $\phi \rightarrow$ To find out whether other animals laugh and play のように、内容追加のためには文脈情報が必要となる場合は多い。今回使用したモデルは、文脈を考慮しない手法であるため、このような書き換えは原理的に難しい。 内容変更>類義語への言い換えは比較的件数が多い。表 3 の出力 3 の、lots of $\rightarrow$ many のような局所的な書き換えはある程度できていることがわかる。しかし、説明的な表現への言い換えなどの外部知識を使うような高度な内容変更はできていない。 ## 5 おわりに 本研究では人手で平易化されたテキストとテキス卜平易化システムの出力を分析し、表層的方略と内容的方略の 2 つの軸からなる平易化方略体系を構築した。体系構築に利用した事例を用いて、人間と機械の平易化事例を予備的に分類し、方略体系がシステムの分析的評価の枠組みとして利用できることを確認した。今後は複数の TS システムを対象に、未知のデータを用いて本評価を行う予定である。そして、現在のテキスト平易化技術の限界と可能性を緻密に見極めながら、技術の改良を目指す。 ## 謝辞 本研究は科研費(課題番号:19K20628, 19H05660) および KDDI 財団調査研究助成(課題名:平易な文化財情報を執筆・翻訳する技術)の支援を受けた。 Newsela からニュース記事のコーパスを提供いただいた。 ## 参考文献 [1] Wei Xu, Courtney Napoles, Ellie Pavlick, Quanze Chen, and Chris Callison-Burch. Optimizing statistical machine translation for text simplification. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 401-415, 2016. [2] Papineni Kishore, Roukos Salim, Ward Todd, and Zhu Wei-Jing. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002. [3] J. Peter Kincaid, Robert P. Fishburne Jr., Richard L. Rogers, and Brad S. Chissom. Derivation of new readability formulas (Automated Readability Index, Fog Count and Flesch Reading Ease Formula) for Navy enlisted personnel. Institute for Simulation and Training, No. 56, 1975. [4] Elior Sulem, Omri Abend, and Ari Rappoport. Simple and effective text simplification using semantic and neural methods. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, pp. 162-173, 2018. [5] 加藤汰一, 宮田玲, 佐藤理史. 説明文を対象とした日本語文末述語の平易化. 情報処理学会論文誌, Vol. 62, No. 9, pp. 1605-1619, 2021. [6] Suha S. Al-Thanyyan and Aqil M. Azmi. Automated text simplification: A survey. ACM Computing Surveys, Vol. 54, No. 2, 2021. [7] Lijun Feng. Text simplification: A survey. The City University of New York, Technical Report, 2008. [8] Fernando Alva-Manchego, Carolina Scarton, and Lucia Specia. Cross-sentence transformations in text simplification. In Proceedings of the 2019 Workshop on Widening NLP, pp. 181-184, 2019. [9] Mitkov Ruslan and Štajner Sanja. The fewer, the better? A contrastive study about ways to simplify. In Proceedings of the Workshop on Automatic Text Simplification - Methods and Applications in the Multilingual Society, pp. 30-40, 2014. [10] Wei Xu, Chris Callison-Burch, and Courtney Napoles. Problems in current text simplification research: New data can help. Transactions of the Association for Computational Linguistics, Vol. 3, pp. 283-297, 2015. [11] Chao Jiang, Mounica Maddela, Wuwei Lan, Yang Zhong, and Wei Xu. Neural CRF model for sentence alignment in text simplification. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7943-7960, Online, 2020. [12] Xingxing Zhang and Mirella Lapata. Sentence simplification with deep reinforcement learning. In Proceedings of the $\mathbf{2 0 1 7}$ Conference on Empirical Methods in Natural Language Processing, pp. 584-594, 2017. [13] Renliang Sun, Zhe Lin, and Xiaojun Wan. On the helpfulness of document context to sentence simplification. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 1411-1423, 2020.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G3-2.pdf
# 単語属性変換で作成した 疑似負例データを用いた自動機械翻訳評価 高橋 洸丞 ${ }^{1}$ 石橋 陽一 1 須藤 克仁 1,2 中村 哲 1 1 奈良先端科学技術大学院大学 2 科学技術振興機構さきがけ \{takahashi.kosuke.th0, ishibashi.yoichi.ir3, sudoh, s-nakamura\}@is.naist.jp ## 概要 本研究では、誤りを含む文の評価に対して評価性能の向上を狙って、WMT の metrics shared taskコー パスに含まれる単語属性を反対のものへ変換することで疑似負例データを作成し、疑似負例データで評価モデルの追加学習を行った。 その結果、提案手法は 20 年度の metrics コーパスにてコーパス全体での人手評価とのピアソンの相関係数が向上した。また事例分析では、提案手法が評価スコアの決定時に原言語文の内容との合致率をより重要視している傾向が見られた。 ## 1 はじめに 近年の自動評価モデルは多くがBidirectional Encoder Representations from Transformers (BERT) [1] という大規模な言語モデルを利用したものである。 BERTscore[2]、BLEURT[3]、C-SPEC[4]、COMET[5] などは BERT をエンコーダとして使用しているモデルで、 20 年度の WMT 評価用タスクの metrics shared task にて人手評価との高い相関を記録した。しかし、[4] で述べられているように BERT をべースとした評価手法は、品質が悪く人手評価のスコアが低い翻訳文に対して相関が低くなる。そこで [6] は低品質な翻訳文の評価を向上させるために、独自の人手評価の基準を設けて新たな人手評価が付けられたコーパスを作成した。 本研究は、低品質な翻訳文に対する評価性能を向上させるため、[6] とは異なり、疑似的な誤りを含む翻訳文コーパスを作成する。そしてどのような疑似的な誤りを作るのかを決めるために、低品質な翻訳文とその評価誤りの関係について、17 年度の WMT metrics shared task において、事前に BLEURT と C-SPEC を用いた評価実験をした。その結果、人手評価とのピアソンの相関係数を著しく下げる事例の多くは表 1 のように、名詞の翻訳誤りと述語構造の誤りに由来するものであった。そこで、本研究では名詞の評価誤りを改善するために、疑似的に誤った名詞また動詞を含むコーパスを作成する。疑似負例データの作成は [7] の手法に従い、単語の属性変換モデルを反対の意味・属性を持つ名詞そして動詞に適用することで、本来の翻訳文に含まれる単語とは逆の意味の単語に置き換わるように設定する。提案する評価モデル (C-SPECpn : Cross-lingual Sentence Pair Embedding Concatenation fine-tuned on pseudo-negatives) は、学習済みの C-SPEC を作成した疑似負例データで追加学習したものである。 ## 2 関連研究 機械翻訳に向けた自動評価システムは多くが WMT の metrics shared task のコーパスを用いて、訓練や評価性能の評価を行う。このワークショップが他の評価タスクと異なる特徴的な点は、大量の人手評価が機械翻訳文につけられているところであり、提出された評価システムの良し悪しが、人手評価との相関の高さによって決められる。人手評価には 2 種類の手法が取り入れられており、 DA(Direct Assesment)[8] が WMT15-20 の翻訳結果に、 MQM(Multidimensional Quality Metrics)[9] が WMT20 の翻訳結果にアノテーションされている。DA は 0-100 の整数值で参照訳文に対して翻訳文の出来を評価する手法で、高性能な翻訳システムの評価には信頼性が欠けるとされている [10]。一方で MQM は翻訳誤りの種類や程度を誤翻訳されている箇所にアノテーションし、その誤りの種類や程度によって各翻訳文の評価スコアを決定する。 近年、WMT の評価タスクで人手評価と高い相関を示した BLEURT[3]、C-SPEC[4]、COMET[5] などは、DA や文単位の MQM などの人手評価を学習に際して必要とする。これらの評価モデルは訓練済 みの BERT モデルをエンコーダとして用いて、参照訳文やシステム訳文は文単位の分散表現に符号化し、線形層を通してスコアを出力する。この内、 C-SPEC と COMET は参照訳文に加えて原言語文もシステム訳文の評価に使用することで評価性能を向上させるように設計されている。BLEURT も同様に 21 年度 WMT で提出されたモデルでは原言語文を扱うように変更されている。 ## 3 提案手法: C-SPECpn 提案手法の評価モデルは C-SPEC と同じモデル構造で、BERT 系モデルとして XLMRoBERTa[11]を使用する。対となる原言語文と参照訳文そしてシステム訳文が、システム訳文-原言語文、システム訳文-参照訳文の 2 つのペアとしてそれぞれ XLMRoBERTa に入力され、文対の分散表現 (ベクトル) に落とし込む。次に得られた 2 つのベクトルを結合し、多層パーセプトロンにより回帰の形で最終的な評価スコアを出力する。訓練時は、WMT15-20で人手評価として採用されているDAを標準化したものを教師データとし、平均二乗誤差 (MSE : Mean Squared Loss) によりモデルのパラメータをアップデートする。 具体的な評価モデルの訓練は次のような 4 ステップに分けて実行した。また、各評価ステップの始めでは、多層パーセプトロンのパラメータをランダムに初期化しており、次の訓練ステップに引き継がれるのは XLMRoBERTa のパラメータのみである。 訓練ステップ 1 WMT15-16の人手評価である DAコーパスで訓練を行う。この訓練ステップは、評価モデルの性能を安定させることを目的としており、WMT15-16 は機械翻訳の性能があまり高くないので DA に含まれるノイズの影響が小さく、学習時 のMSE ロスが低くなりやすい。 訓練ステップ 2 WMT15-17、WMT18-20、WMT1520 の 3つのコーパスからいずれかの DA が付与されたデータで、再度評価モデルの追加訓練を行う。3 つのコーパスに条件を分けた理由は、2018 年度以降の DA データはノイズを多く含むと、[3] にて述べられており、ノイズを含む可能性のある 2018 以前と以降で評価モデルの比較をするためである。 訓練ステップ 3 3つ目の訓練ステップでは、作成した負例コーパスで回帰ではなく分類問題としてモデルの追加訓練をする。 訓練ステップ 4 WMT20 年度の MQM と呼ばれる人手評価が付与された文単位のデータに対して追加訓練を行う。 ## 3.1 単語の属性変換による負例コーパスの 作成 鏡映変換に基づく埋め込み空間上の単語属性変換 [12]を用いてデータ拡張を行った。この手法は、2 つの MLP のパラメータにより決定される、単語の埋め込み空間中の鏡面により、単語の属性に関わる前知識なしで、特定の属性を持つ単語を反対の意味を持つ単語へ変換するものである。例えば、queen という単語の性別属性を反転させると king という単語に変換することが可能である。また、ターゲットの属性を持たない単語の場合、その単語は変化せず、apple に対して性別属性で単語属性変換を適用しても、apple が出力される。 そして、本研究では負例データの作成時に、性別と対義関係の 2 つの属性で、名詞や動詞と辞書に登録された単語を逆の属性を持つ単語に変換する。単語の属性変換は、2つ目の訓練ステップで使用されたコーパス内の英語の参照訳文において、全ての文 中に含まれる単語について適用する。例を挙げると、ある参照訳文 “It is our duty to remain at his sides", he said, to applause. に対して対義関係の属性変換を実行すると、“It is our duty to change at his sides", he said, to whisper. という文が得られ、remain $\rightarrow$ change 、 applause $\rightarrow$ whisper と変換されている。そして、参照訳文中に一つもターゲットの属性を持つ単語が存在しない場合、その参照訳文は一切変化が加えられないため、負例コーパスから排除した。 ## 3.2 負例コーパスでの追加訓練 作成した負例データには人手評価のスコアがついていないため、それまでの訓練ステップ $1 、 2$ と同様な訓練を行うことができない。そこで本研究では、 3 種類のシステム訳文の条件を設定し、分類問題として評価モデルの追加訓練を行う。それぞれの条件における評価モデルの真の入力は以下の通りであり、訓練時の評価モデルは、入力がこれらの内どれに当てはまるのかを学習していく。 1. システム訳文-原言語文、システム訳文-参照訳文 (変化なし) 2. 参照訳文-原言語文、参照訳文-参照訳文 (参照訳文に置き換え) 3. 負例文-原言語文、負例文-参照訳文 (負例文に置き換え) 分類カテゴリ 2 では、 18 年度以降は高性能な翻訳システムによる翻訳文が多く、システム訳文が正解に近い場合でも、評価モデルが些細な違いを識別できるように、正解訳文同士の入力ペアを導入した。また、分類問題の設定が簡単で分類の正解率が高く、訓練ステップ 2 のコーパスにおける過学習を防ぐために、各負例文は一度のみ学習に用いた。 ## 4 WMT20 年度 MQM コーパスでの 実験 評価実験は WMT20 の文単位 MQM コーパスの内、全体の 10\%で行われた。ただし、予め訓練に使用された DAコーパスと重複しないようにした。実験結果は、評価モデルのスコアと人手評価とのピアソンの相関係数をまとめたものである。 ## 4.1 実験結果 評価モデルごとの実験結果を表 2 に示す。C-SPEC と比べて、C-SPECpn の WMT15-17、WMT18-20で訓練されたモデルの方がピアソンの相関係数が高くなった。そして、3つの訓練コーパスでは WMT18-20 で訓練されたモデルが最も高いピアソンの相関係数を記録した。一方で、WMT15-20 で訓練された C-SPECpn は C-SPEC に及ばない結果となった。これは WMT15-20 がコーパスサイズが大きく、負例データも同様に大きくなるので、モデルが過学習をしてしまったのではないかと推察する。 ## 4.2 人手評価の値域ごとのピアソンの相関係数 本研究の目的であった低品質なシステム訳文への提案手法の有効性を調べるために、 5 段階に人手評価のスコアを分け、それぞれの值域でピアソンの相関係数を算出した。その結果を図 1 に示す。提案モデルの C-SPECpn は、[-25,-20)、[-10,0)の区間において C-SPEC よりも高い相関係数を記録した。このことから、作成した負例データによる追加訓練は、深刻な誤りを含むシステム訳文や、軽度な誤りを含むシステム訳文に対して、評価モデルの頑健性を高めることが示唆される。また、 21 年度の WMT metrics shared task[13] では、システム評価や文単位の評価においてトップを争う結果を記録した。 ## 5 WMT21 年度 challenge set での事例分析 これまでの実験結果に加えて、WMT21 年度の評価用 challenge set タスクにおける C-SPECとCSPECpn の比較を事例分析により行った。 challenge set とは、特定の翻訳誤りに対して評価モデルの性能を比較するためのタスクで、文意の極性変換、誤りを含む参照訳、また独英間の翻訳で発生する翻訳誤りを集めたものである [13]。 評価事例の一部を表 3 に示す。C-SPECpn は分類問題を追加で訓練しているので、C-SPEC とは出力の値域が異なり、人手評価が公開されていないので判断が難しいが、C-SPECpn は C-SPEC よりも原言語文との類似度が高そうなときにスコアが高くなる傾向があった。例文 1 は参照訳が誤っている例で、参照訳文に the flooding という名詞が出現しているが、原言語文では水という表現に留まっている。このとき、システム訳文に対して、C-SPECpn は C-SPEC よりも高いスコアをつけている。また例文 2 は独英間の翻訳で起こる翻訳誤りの例で、原言語文の konntet が翻訳されずにそのままシステム訳文に出現しているが、C-SPECpn は C-SPEC よりも 表 2 WMT20 MQM コーパスでのピアソンの相関係数。C-SPEC は負例データなし、C-SPECpn は負例データありで学習したモデル。en-de は英語からドイツ語、zh-en は中国語から英語へ翻訳されたデータ。avg は en-de、zh-en のピアソンの相関係数の平均、all は2つの言語対をまとめてコーパス全体でのピアソンの相関係数を示している。 人手評価の値域と文量 $\neg$ C-SPEC $\oplus$ C-SPECpn $\_$BLEURT 図 1 人手評価の值域におけるピアソンの相関係数。值域の下にはその値域に含まれる文の数が記されている。C-SPEC、 C-SPECpn は共に WMT18-20 で訓練されたモデル、BLEURT は WMT15-19 で訓練された配布モデルを使用した。 高いスコアを出力している。 表 3 WMT21 challengeset での評価結果の例。 ## 6 おわりに 本研究では、単語の属性変換を用いて疑似負例データを作成し、疑似負例データで評価モデルを追加訓練することで、評価性能が一部向上することを示した。また事例分析では、提案モデルである C-SPECpn は評価に際してより原言語文に重きを置いた評価となることがわかった。 ## 剆辞 本研究は JST さきがけ (JPMJPR1856) の支援を受けたものである。また全ての実験は JST さきがけの支援の元で理研の miniRAIDEN を用いて行われた。 ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. As- sociation for Computational Linguistics. [2] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020. [3] Thibault Sellam, Dipanjan Das, and Ankur Parikh. BLEURT: Learning robust metrics for text generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7881-7892, Online, July 2020. Association for Computational Linguistics. [4] Kosuke Takahashi, Katsuhito Sudoh, and Satoshi Nakamura. Automatic machine translation evaluation using source language inputs and cross-lingual language model. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3553-3558, Online, July 2020. Association for Computational Linguistics. [5] Ricardo Rei, Craig Stewart, Ana C Farinha, and Alon Lavie. COMET: A neural framework for MT evaluation. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2685-2702, Online, November 2020. Association for Computational Linguistics. [6] Sudoh Katsuhito, Takahashi Kosuke, and Nakamura Satoshi. Is this translation error critical?: Classificationbased human and automatic machine translation evaluation focusing on critical errors. In Proceedings of the Workshop on Human Evaluation of NLP Systems (HumEval), pp. 4655, Online, April 2021. Association for Computational Linguistics. [7] 石橋陽一, 須藤克仁, 中村哲. 単語属性変換による自然言語推論データの拡張. 言語処理学会第 26 回年次大会発表論文集, 2021. [8] Yvette Graham, Timothy Baldwin, and Nitika Mathur. Accurate Evaluation of Segment-level Machine Translation Metrics. In Proceedings of the 2015 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1183-1191, Denver, Colorado, May-June 2015. Association for Computational Linguistics. [9] Arle Lommel, Hans. Uszkoreit, and Aljoscha Burchardt. Multidimensional Quality Metrics (MQM) : A Framework for Declaring and Describing Translation Quality Metrics. Tradumàtica, No. 12, pp. 455-463, 2014. [10] Markus Freitag, George Foster, David Grangier, Viresh Ratnakar, Qijun Tan, and Wolfgang Macherey. Experts, errors, and context: A large-scale study of human evaluation for machine translation, 2021. [11] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, Online, July 2020. Association for Computational Linguistics. [12] Yoichi Ishibashi, Katsuhito Sudoh, Koichiro Yoshino, and Satoshi Nakamura. Reflection-based word attribute transfer. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 51-58, Online, July 2020. Association for Computational Linguistics. [13] Markus Freitag, Ricardo Rei, Nitika Mathur, Chi-kiu Lo, Craig Stewart, George Foster, Alon Lavie, and Ondřej Bojar. Results of the WMT21 metrics shared task: Evaluating metrics with expert-based human evaluations on TED and news domain. In Proceedings of the Sixth Conference on Machine Translation, pp. 733-774, Online, November 2021. Association for Computational Linguistics.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G3-3.pdf
# QENTS:テキスト平易化の品質推定のためのデータセット 廣中勇希 ${ }^{\dagger}$ 井川朋樹 梶原智之ま 二宮崇 $\dagger$ 愛媛大学工学部情報工学科 $¥$ 愛媛大学大学院理工学研究科 \{hironaka, ikawa\}@ai.cs.ehime-u.ac.jp \{kajiwara, ninomiya\}@cs.ehime-u.ac.jp ## 概要 本研究では,テキスト平易化の品質推定のための英語データセットを構築し,公開した. 本タスクにおける既存のデータセットには,数百文と小規模であり,また現在主流である深層学習に基づくテキスト平易化モデルを対象としていないという課題があった. 我々は,深層学習に基づく手法を含む 9 種類の代表的なテキスト平易化モデルを対象に, 10,770 文に対して文法性 - 同義性 - 平易性 - 総合評価の人手評価を行い,これらの課題を解決した。 ## 1 はじめに テキスト平易化 [1] は,意味を保持したまま難解な文法的表現や語句を平易に変換するタスクである. 自動的な文の平易化システムは,子どもや語学学習者などの学習支援や読解支援に貢献する。 テキスト平易化モデルの品質は, 文法性・同義性・平易性の観点からの人手評価や参照文に基づく SARI [2] などの自動評価によって評価されている. しかし,前者にはコストや再現性の課題があり,後者には人手評価との相関が低いという課題がある. また,実世界においてテキスト平易化モデルが使用される際には使用者は参照文を持っていない場合が多く,SARI などの参照文に基づく自動評価は活用できない。このような背景から,参照文を用いないテキスト平易化の品質推定 [3-5] が研究されている. 2016 年に開催された Shared Task on Quality Assessment for Text Simplification (QATS) [3] では,テキスト平易化の品質推定のためのデータセットが構築された. QATS データセットでは,631 文の英語文とそれに対応する平易化モデル [6-10] の出力文に対し $\tau$, 文法性 - 同義性 - 平易性 - 総合評価の 4 観点から $\mathrm{Good} \cdot \mathrm{OK} ・ \mathrm{Bad}$ の 3 段階の人手評価が付与されている. テキスト平易化の品質推定に関する以降の研究 $[4,5]$ では QATS データセットが用いられてい るものの,小規模である点および現在主流となっている深層学習に基づくテキスト平易化モデルが対象となっていない点の 2 点から, QATS データセットは近年のテキスト平易化モデルのための品質推定には適していないと考えられる。 本研究では,これらの課題を解決するテキスト平易化の品質推定のための新たなデータセット QENTS $^{1)}$ (Quality Estimation for Neural Text Simplification) を構築し, BERT [11] による品質推定のベンチマークを行う.本データセットは,深層学習に基づく手法を含む 9 種類のテキスト平易化モデルを対象に,10,770 文対の英語文とシステム出力文について, 文法性・同義性・平易性・総合評価の 4 観点から 4 段階で人手評価値を付与したものである. ## 2 関連研究 難解な英文と平易な英文の文対 [12]を用いて,系列変換タスクとしてのテキスト平易化の研究が行われている。2010 年から 2016 年ごろまで,フレー ズベース統計的機械翻訳 [13] に基づくテキスト平易化 [7,14-16] が研究された. ニューラル機械翻訳 [17] の成功を受け,2017 年から深層学習に基づくテキスト平易化 [18-20] が研究されている. 近年は,Transformer [21] に基づくテキスト平易化 [22,23] が主流となっている. QATS データセット [3] では, フレーズベース統計的機械翻訳に基づく初期のテキスト平易化モデル [7] を対象に人手評価を実施しているため,深層学習に基づく近年のテキスト平易化モデルの品質推定には適していないと考えられる。本研究では,深層学習に基づく手法を含む代表的なテキスト平易化モデルを対象に人手評価を行い,大規模な品質推定のデータセット(表 1)を構築する.品質推定の先行研究としては, QATS データセット [3] を用いて,サポートベクトルマシンやリッジ回帰などの機械学習に基づくテキスト平易化の品質  推定モデルが訓練されている.Kajiwara and Fujita [4] は,単語分散表現 [24] に基づく素性抽出を行い, $\mathrm{Good} \cdot \mathrm{OK} \cdot \mathrm{Bad}$ の 3 クラス分類としての品質推定を行った. Martin et al. [5] は,BLEU [25] などの機械翻訳の評価指標や FKGL [26] などのリーダビリティ指標に基づく素性抽出を行い,回帰モデルとしての品質推定を行った. 本研究では, QENTS データセットのベンチマークとして, 先行研究 [5] の適用に加えて,深層学習に基づく強力なベースラインである BERT [11] による回帰モデルの性能を調査する. ## 3 データセットの構築 ## 3.1 対象とするテキスト平易化モデル 本研究では,2 節で紹介した代表的なテキスト平易化モデルのうち,以下の 9 種類を用いて品質推定のためのデータセットを構築する. フレーズベース統計的機械翻訳(PBMT)に基づく手法のうち,PBMT-R [15] および Hybrid [16] の 2 モデルを用いる. PBMT-R は,PBMT モデルの出力を入力文との非類似度によってリランキングする手法である. Hybrid は,文分割などの前処理を行った後に PBMT モデルによる平易化を行う手法である. RNN ベースのニューラル機械翻訳に基づく手法のうち, EncDecA [18]$\cdot$DRESS [18] $\cdot$ S2S-All-FA [19]$\cdot$ EditNTS [20]の 4 モデルを用いる. EncDecA は,注意機構によるニューラル機械翻訳モデル [17] に基づく手法である. DRESS は, EncDecA モデルを強化学習によって再訓練する手法である. S2S-All-FA は, EncDecA モデルの出力を単語難易度によってリランキングする手法である. EditNTS は,単語の追加・削除・保持の明示的な編集操作を RNNによって推定する編集べースの手法である。 Transformer ベースのニューラル機械翻訳に基づく手法のうち, Transformer [23]$\cdot$DMASS [22]$\cdot$ BERT [23] の 3 モデルを用いる. Transformer は,自己注意機構によるニューラル機械翻訳モデル [21] に基づく手法である.DMASS は,Transformer モデル に言い換え知識 [27]を統合した手法である.BERT は, Transformer モデルの符号化器として事前訓練された BERT [11]を用いる手法である. 全てのモデルは Newsela コーパス [12]を用いて訓練されている. PBMT-R・Hybrid ・ EncDecA・DRESS の 4 モデルは, Zhang and Lapata [18] によって公開2)されている出力文を用いた. S2S-All-FA および DMASS は, Kriz et al. [19]によって公開3)されている出力文を用いた. EditNTS は, Dong et al. [20] によって公開4)されている出力文を用いた. Transformer および BERT は, Jiang et al. [23] によって公開5)されている出力文を用いた. ## 3.2 人手評価のアノテーション Newsela コーパス $[12,18]$ の評価用データ 1,077 文に対応する,3.1 節で述べた 9 種類のテキスト平易化モデルによる出力文および参照文の合計 10,770 文について,文法性・同義性・平易性・総合評価の 4 観点の人手評価を行う.以降では,Newselaコーパスに含まれる入力文を難解文,テキスト平易化モデルによる出力文および Newsela コーパスに含まれる参照文を平易文と表記する.以下に評価基準を示す。 文法性平易文の文法的な正しさを評価する。 $\mathrm{Xu}$ et al. [2] の人手評価の基準(4. 文法的である, 3. 1-2 件の文法誤りを含む,2. 複数件の文法誤りを含む,1. 文法的ではない)に従って 4 段階評価した. 同義性難解文と平易文の間の意味的な等価性を評価する. Xu et al. [2] の人手評価の基準(4. 同一, 3. わずかに異なる,2. 異なる,1. 大幅に異なる)に従って 4 段階評価した. 平易性難解文と比較した際の平易文の理解しやすさを評価する.文法性や同義性と同様に,4 段階 (4. 理解しやすい,3. わずかに理解しやすい,2. 変化なし,1. 理解しにくい)で評価した.  表 2 Quadratic Weighted Kappa によるアノテーションの一致率 総合評価文法性・同義性・平易性の 3 つの評価を踏まえて,4段階で総合評価を行った. クラウドソーシングの Amazon Mechanical Turk ${ }^{6)}$ を用いて,評価者を雇用した. データセットの品質を担保するために,US 在住者のうち,質の高い回答を行う Master 資格を保有し,過去のタスク承認率が $95 \%$ 以上の評価者を採用した. また, 10 文× 3 モデル(PBMT-R・DRESS・参照文)の小規模な予備アノテーションを実施し, 10 人の評価者候補のうち外れ値となる 2 人を除外した. 残りの 8 人の評価者候補の中から 1 人の評価者を選び, 10,770 文の全体のアノテーションを依頼した. なお,評価者には時給 7.5USD と見積もり合計 700USD の報酬を支払った. ## 3.3 アノテーションの信頼性評価 3.2 節の人手評価は 1 人の評価者(評価者 A)が行ったため, 本節ではアノテーションの信頼性を評価する。同じくAmazon Mechanical Turkを用いて, 3.2 節の条件を満たす評価者を新たに 3 名(評価者 $\mathrm{BCD}$ )雇用し, QENTS データセットの一部(10 文 × 10 モデル)へのアノテーションを追加で行った. そして, Quadratic Weighted Kappaを用いて, 評価者間のアノテーションの一致率を計算した。 表 2 に評価者間の一致率を示す. 文法性・同犠牲・平易性においては, $K>0.6$ の substantial agreement を確認できた. 総合評価については $0.4<K<0.6$ の moderate agreement も含まれるが,4つの観点をまとめた全体の一致率としては全評価者間で substantial agreementが得られた. この結果から, テキスト平易化の人手評価は評価者間の摇れが少なく, 3.2 節のアノテーションも充分に一般的な評価だと言える. ## 4 アノテーション結果の分析 ## 4.1 テキスト平易化モデルの品質 表 3 に,各テキスト平易化モデルの人手評価および自動評価の結果を示す. 自動評価には,テキス卜平易化の研究においてよく使用される SARI [2]・ BLEU [25]・FKGL [26] を用いる.また,変換の非積極性を表す selfBLEU(大出力間の BLEU)も用いる.初期のモデル(PBMT-R および EncDecA)は selfBLEU が高く, 入力文の大部分を出力文にコピー している。これらは同義性が高いものの, 平易性が低くFKGLが高いため, 平易な出力とは言えない. 対照的に,近年の RNN ベースのモデル(S2S-AllFA および EditNTS)は,同義性は低いものの,平易性が高くFKGL が低いため, 平易な出力を行っている.これらは参照文と似た傾向であると言える。 高度な訓練を行ったモデル(強化学習の DRESS および転移学習の BERT)は, 最も高品質なモデルであると言える.これらは文法性が高く, 参照文と同程度の同義性を持ちつつ, 平易性も比較的高い. ## 4.2 自動評価と人手評価の相関 表 4 に,自動評価と人手評価の間のピアソン相関係数を示す.テキスト平易化の自動評価に最もよく用いられる SARI は,平易性との正の相関を持つものの, 文法性とは無相関であり, 同義性および総合評価とは負の相関を持つことが明らかになった. SARI は消極的な変換にペナルティを与えるため,同義性の人手評価とは対照的な挙動が見られた. テキスト平易化の自動評価の文脈では否定的に語られることの多い BLEU は,本研究においては全ての人手評価の項目において正の相関が見られた。これは, BLEUと人手評価の相関が低いと報告している先行研究 $[2,28]$ が Simple Wikipedia に基づくデータセットを用いている一方で, 本研究は Newsela を用いていることが要因と考えられる. Simple Wikipedia が平易に記述されていないことは先行研究 [12] でも指摘されており, Zhang and Lapata [18] の人手評価においても, Simple Wikipedia の参照文は低い平易性と高い同義性を持ち, Newsela の参照文は高い平易性と低い同義性を持つことが報告されている. Newsela のような平易な参照文に対しては,BLEUによる自動評価が人手評価との良い相関を持つと言える. 6) https://www.mturk.com/ 表 3 テキスト平易化モデルの人手評価と自動評価の結果 表 4 自動評価と人手評価のピアソン相関係数 ## 5 品質推定の実験 本研究で構築した QENTS データセットを用いて, テキスト平易化モデルの文単位の品質推定を行う。 ## 5.1 実験設定 データセットは,8,770 件(877 文× 10 モデル)の訓練用データ, 1,000 件(100 文× 10 モデル)ずつの検証用データおよび評価用データに分割して実験した. 本実験では,文法性・同義性・平易性・総合評価の項目ごとに回帰モデルを訓練した. 品質推定モデルの性能は,モデルが推定した評価値と人手評価値の間のピアソン相関係数を用いて自動評価した。 ベンチマークとして,既存の品質推定モデル (Martin-2018) [5] と BERT [11] による品質推定モデルの性能を比較した. Martin-2018 モデルは, EASSE$^{7}$ [29] を用いて実装した. BERT モデルは, HuggingFace Transformers ${ }^{8}$ [30]を用いて実装した. バッチサイズは 32 , 学習率は $5 \mathrm{e}-5$, 最適化手法は Adam を用いて,30 エポックの訓練を行った。 7) https://github.com/feralvam/easse 8) https://huggingface.co/bert-base-uncased表 5 品質推定の実験結果(ピアソン相関係数) ## 5.2 実験結果 実験結果を表 5 に示す. 文法性・同義性・平易性・総合評価の全項目において,BERT による品質推定モデルが先行研究 [5] の性能を大幅に上回った. ## 6 おわりに 本研究では,現在主流の深層学習に基づくテキスト平易化モデルの品質推定を実現するために,品質推定モデルを訓練および評価するための大規模なデータセットを構築した.深層学習モデルを含む 9 種類のテキスト平易化モデルの出力文および人手で平易化された参照文を対象に,10,770 文に対して,文法性・同義性・平易性・総合評価の 4 つの観点から 4 段階の人手評価を行った. 既存のデータセットは 631 文と小規模なため,テキスト平易化の品質推定には深層学習に基づくモデルを適用することが難しかった.本研究では,約 17 倍の規模にデータセットを拡大できたため,深層学習に基づく品質推定モデルを訓練可能になった。 本研究の副産物として,自動評価と人手評価の相関分析から,Newsela のような平易な参照文を使用できる場合には,BLEU による自動評価が人手評価との良い相関を持つという知見が得られた。 ## 謝辞 本研究は JSPS 科研費(若手研究,課題番号: JP20K19861)の助成を受けたものです. ## 参考文献 [1] Fernando Alva-Manchego, Carolina Scarton, and Lucia Specia. Data-Driven Sentence Simplification: Survey and Benchmark. Computational Linguistics, Vol. 46, No. 1, pp. 135-187, 2020. [2] Wei Xu, Courtney Napoles, Ellie Pavlick, Quanze Chen, and Chris Callison-Burch. Optimizing Statistical Machine Translation for Text Simplification. TACL, Vol. 4, pp. 401$415,2016$. [3] Sanja Stajner, Maja Popovic, Horacio Saggion, Lucia Specia, and Mark Fishel. Shared Task on Quality Assessment for Text Simplification. In Proc. of QATS, pp. 22-31, 2016 [4] Tomoyuki Kajiwara and Atsushi Fujita. Semantic Features Based on Word Alignments for Estimating Quality of Text Simplification. In Proc. of IJCNLP, pp. 109-115, 2017. [5] Louis Martin, Samuel Humeau, Pierre-Emmanuel Mazaré, Éric de La Clergerie, Antoine Bordes, and Benoît Sagot. Reference-less Quality Estimation of Text Simplification Systems. In Proc. of ATA, pp. 29-38, 2018. [6] Goran Glavaš and Sanja Štajner. Event-Centered Simplification of News Stories. In Proc. of RANLP Student Research Workshop, pp. 71-78, 2013. [7] Sanja Štajner, Hannah Béchara, and Horacio Saggion. A Deeper Exploration of the Standard PB-SMT Approach to Text Simplification and its Evaluation. In Proc. of ACLIJCNLP, pp. 823-828, 2015. [8] Or Biran, Samuel Brody, and Noémie Elhadad. Putting it Simply: a Context-Aware Approach to Lexical Simplification. In Proc. of ACL, pp. 496-501, 2011 [9] Colby Horn, Cathryn Manduca, and David Kauchak. Learning a Lexical Simplifier Using Wikipedia. In Proc. of ACL, pp. 458-463, 2014. [10] Goran Glavaš and Sanja Štajner. Simplifying Lexical Simplification: Do We Need Simplified Corpora? In Proc. of ACL-IJCNLP, pp. 63-68, 2015. [11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proc. of NAACL, pp. 4171-4186, 2019. [12] Wei Xu, Chris Callison-Burch, and Courtney Napoles. Problems in Current Text Simplification Research: New Data Can Help. TACL, Vol. 3, pp. 283-297, 2015. [13] Philipp Koehn, Franz J. Och, and Daniel Marcu. Statistical Phrase-Based Translation. In Proc. of NAACL, pp. 127133, 2003. [14] Lucia Specia. Translating from Complex to Simplified Sentences. In Proc. of PROPOR, pp. 30-39, 2010. [15] Sander Wubben, Antal van den Bosch, and Emiel Krahmer. Sentence Simplification by Monolingual Machine Translation. In Proc. of ACL, pp. 1015-1024, 2012. [16] Shashi Narayan and Claire Gardent. Hybrid Simplification using Deep Semantics and Machine Translation. In Proc. of ACL, pp. 435-445, 2014. [17] Thang Luong, Hieu Pham, and Christopher D. Manning. Effective Approaches to Attention-based Neural Machine Translation. In Proc. of EMNLP, pp. 1412-1421, 2015. [18] Xingxing Zhang and Mirella Lapata. Sentence Simplification with Deep Reinforcement Learning. In Proc. of EMNLP, pp. 584-594, 2017. [19] Reno Kriz, João Sedoc, Marianna Apidianaki, Carolina Zheng, Gaurav Kumar, Eleni Miltsakaki, and Chris Callison-Burch. Complexity-Weighted Loss and Diverse Reranking for Sentence Simplification. In Proc. of NAACL, pp. 3137-3147, 2019. [20] Yue Dong, Zichao Li, Mehdi Rezagholizadeh, and Jackie Chi Kit Cheung. EditNTS: An Neural ProgrammerInterpreter Model for Sentence Simplification through Explicit Editing. In Proc. of ACL, pp. 3393-3402, 2019. [21] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention Is All You Need. In Proc. of NIPS, pp. 5998-6008, 2017 [22] Sanqiang Zhao, Rui Meng, Daqing He, Andi Saptono, and Bambang Parmanto. Integrating Transformer and Paraphrase Rules for Sentence Simplification. In Proc. of EMNLP, pp. 3164-3173, 2018. [23] Chao Jiang, Mounica Maddela, Wuwei Lan, Yang Zhong, and Wei Xu. Neural CRF Model for Sentence Alignment in Text Simplification. In Proc. of ACL, pp. 7943-7960, 2020. [24] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient Estimation of Word Representations in Vector Space. In Proc. of ICLR, 2013. [25] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. BLEU: a Method for Automatic Evaluation of Machine Translation. In Proc. of ACL, pp. 311-318, 2002. [26] J. Peter Kincaid, Robert P. Fishburne Jr., Richard L. Rogers, and Brad S. Chissom. Derivation of New Readability Formulas (Automated Readability Index, Fog Count and Flesch Reading Ease Formula) for Navy Enlisted Personnel. Technical report, DTIC Document, 1975. [27] Ellie Pavlick and Chris Callison-Burch. Simple PPDB: A Paraphrase Database for Simplification. In Proc. of ACL, pp. 143-148, 2016. [28] Elior Sulem, Omri Abend, and Ari Rappoport. BLEU is Not Suitable for the Evaluation of Text Simplification. In Proc. of EMNLP, pp. 738-744, 2018. [29] Fernando Alva-Manchego, Louis Martin, Carolina Scarton, and Lucia Specia. EASSE: Easier Automatic Sentence Simplification Evaluation. In Proc. of EMNLP, pp. 49-54, 2019. [30] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-Art Natural Language Processing. In Proc. of EMNLP, pp. 38-45, 2020.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G3-4.pdf
# 多言語文符号化器の言語表現と意味表現の分離に基づく 機械翻訳の品質推定 黒田勇斗 ${ }^{1}$ 梶原 智之 ${ }^{2}$ 荒瀬 由紀 ${ }^{3}$ 二宮崇 ${ }^{2}$ 1 愛媛大学工学部 2 愛媛大学大学院理工学研究科 ${ }^{3}$ 大阪大学大学院情報科学研究科 kuroda@ai.cs.ehime-u.ac.jp kajiwara@cs.ehime-u.ac.jp arase@ist.osaka-u.ac.jp ninomiya@cs.ehime-u.ac.jp ## 概要 本研究では,多言語文符号化器に基づく文表現から言語固有の情報を取り除き,言語非依存な意味表現を抽出する。機械翻訳の品質推定における教師なし設定での実験の結果,提案手法は既存の多言語文符号化器に基づく手法を上回る性能を達成した。他のアプローチと比較しても,提案手法は少資源言語対において人手評価に対する最も高い相関を得た. ## 1 はじめに 機械翻訳の研究開発の場では BLEU [1] などの参照訳に基づく自動評価が行われているものの,実世界における機械翻訳の使用者は参照訳を事前に用意できない場合が多い,本研究では,機械翻訳の実世界での利用を進める上で重要な,参照訳を用いない生成文の自動評価(品質推定)[2] に取り組む. 機械翻訳に関する国際会議 WMT における品質推定タスク [3] を中心に,多言語 BERT(mBERT) [4] や XLM-RoBERTa(XLM-R) [5] などの事前訓練された多言語文符号化器に基づく教師あり品質推定モデル [6-8] が提案されてきた. しかし,これらの教師あり品質推定モデルは,再訓練に「原言語文・目的言語文・人手評価値」の 3 つ組を必要とする.このようなデータセットの作成は, 原言語と目的言語の両方に精通したアノテータが必要となるため, 非常にコストが高い. そのため, 教師あり品質推定モデルは,わずかな言語対でしか構築できない. 人手評価値を用いず対訳コーパスのみで訓練する教師なし品質推定 [9] では, 多言語文符号化器の言語特異性が問題となる。つまり, 多言語文符号化器から得られる文のべクトル表現は,意味よりも言語の影響を強く受けており,再訓練なしでは言語を超えての文間の意味的類似度を正確に推定できない。 この課題に対して先行研究の DREAM [9] では,正例としての対訳コーパスおよび擬似的な負例を用い $\tau$, 多言語文符号化器から得られる文のベクトル表現を言語固有の言語表現と言語非依存の意味表現に分離した. DREAM の意味表現は教師なし品質推定タスクにおいて人手評価との高い相関を達成したが,意味表現に言語固有の情報が含まれないことは保証されていない。 本研究では,意味表現に言語固有の情報が含まれないことを保証するための敵対的学習を用いて,多言語文符号化器から得られる文のベクトル表現を意味表現と言語表現に分離する。提案手法は訓練時に負例を必要としないため,先行研究よりも単純な構造で訓練できるという利点を持つ. WMT20 の品質推定タスク [3] における実験の結果,提案手法は既存の多言語文符号化器に基づく教師なし品質推定手法よりも高い人手評価との相関を達成した. また,復号器を用いる他のアプローチと比較しても,提案手法は少資源言語対において最高性能を更新した。 ## 2 提案手法 図 1 に示すように,本研究では $\mathrm{MLP}_{L}$ および $\mathrm{MLP}_{M}$ の 2 つの多層パーセプトロンからなる自己符号化器を用いて,多言語文符号化器から得た文のべクトル表現を言語固有の言語表現と言語非依存の意味表現に分離する. $\mathrm{MLP}_{L}$ は言語表現を抽出し, $\mathrm{MLP}_{M}$ は意味表現を抽出するものである.言語表現と意味表現を足し合わせることで,文のベクトル表現が復元される. 提案手法では,これらの多層パー セプトロンを,以下の 4 つの損失関数に基づく多言語のマルチタスク学習によって訓練する。 $ L=L_{R}+L_{C}+L_{L}+L_{A} $ 図 1 提案手法の概要 ## 2.1 復元損失 $L_{R$} 復元損失は我々の自己符号化器を学習するための基本的な損失関数であり, 意味表現 $\hat{\boldsymbol{e}}_{M} \in \mathbb{R}^{d}$ と言語表現 $\hat{\boldsymbol{e}}_{L} \in \mathbb{R}^{d}$ から文表現 $\boldsymbol{e} \in \mathbb{R}^{d}$ を復元できることを表している。ただし, $d$ は文表現の次元数である。以下のように復元損失を定義 ${ }^{1)}$ する。 $ L_{R}=1-\cos \left(\boldsymbol{e},\left(\hat{\boldsymbol{e}}_{M}+\hat{\boldsymbol{e}}_{L}\right)\right), $ ここで, $\hat{\boldsymbol{e}}_{M}$ と $\hat{\boldsymbol{e}}_{L}$ は,それぞれ $\mathrm{MLP}_{M}(\cdot)$ と $\mathrm{MLP}_{L}(\cdot)$ によって抽出された意味表現と言語表現である. $ \begin{aligned} \hat{\boldsymbol{e}}_{M} & =\operatorname{MLP}_{M}(\boldsymbol{e}) \\ \hat{\boldsymbol{e}}_{L} & =\operatorname{MLP}_{L}(\boldsymbol{e}) \end{aligned} $ ## 2.2 交差復元損失 $L_{C$} 対訳文の原言語文 $s$ と目的言語文 $t$ は意味的に等価である。そこで,対訳文において意味表現同士を置換できることを保証するために,交差復元損失を用いる。これは,原言語の言語表現 $\hat{s}_{L}$ と目的言語の意味表現 $\hat{t}_{M}$ から原言語の文表現 $s$ を復元でき,同様に目的言語の言語表現 $\hat{t}_{L}$ と原言語の意味表現 $\hat{s}_{M}$ から目的言語の文表現 $\boldsymbol{t}$ を復元できることを表している. 以下のように交差復元損失を定義する. $ L_{C}=2-\cos \left(\boldsymbol{s},\left(\hat{\boldsymbol{s}}_{L}+\hat{\boldsymbol{t}}_{M}\right)\right)-\cos \left(\boldsymbol{t},\left(\hat{\boldsymbol{s}}_{M}+\hat{\boldsymbol{t}}_{L}\right)\right) . $ ## 2.3 言語表現損失 $L_{L$} 対訳文の原言語文 $s$ と目的言語文 $t$ は異なる言語の文である。そこで,対訳文において言語表現同士 1) 余弦類似度はベクトルの方向のみを考慮するため, 本手法は厳密にはベクトルの復元を評価していない。しかし,先行研究 [9] で用いられた平均二乗誤差よりも高い性能が得られるため,本手法を採用した.詳しい検証は今後の課題である. が類似しないことを保証するために,言語表現損失を用いる。以下のように言語表現損失を定義する。 $ L_{L}=\max \left(0, \cos \left(\hat{s}_{L}, \hat{t}_{L}\right)\right) $ ## 2.4 敵対的損失 $L_{A$} 本研究では,多言語文符号化器から得られる文表現を言語表現と意味表現に分離することによって,言語非依存の意味的類似度推定を実現したい. そこで,意味表現に言語固有の情報が含まれないことを保証するために,敵対的損失を用いる。これは,意味表現 $\hat{\boldsymbol{e}}_{M}$ から入力文の言語を識別できないことを表している. 敵対的訓練として言語を識別するため,新たに多層パーセプトロン $\mathrm{MLP}_{D}$ を用意する.以下のように意味表現から言語を識別する $N$ クラス分類を行う. $ \hat{\boldsymbol{y}}=\operatorname{softmax}\left(\operatorname{MLP}_{D}\left(\hat{\boldsymbol{e}}_{M}\right)\right), $ ここで, $\operatorname{softmax}(\cdot)$ は softmax 関数を表す. $\operatorname{MLP}_{D}$ は,以下のように多クラス交差エントロピー損失を用いて訓練する。 $ L_{D}=-\sum_{j} \boldsymbol{y}_{j} \log \hat{\boldsymbol{y}}_{j} $ ここで,式 (8) は $\mathrm{MLP}_{D}$ を訓練するための損失関数であり, $\mathrm{MLP}_{M}$ および $\mathrm{MLP}_{L}$ を訓練するための式 (1)には含まれないことに注意されたい. この敵対的モデルに対して,本研究では意味表現から言語を識別できないことを目指すため,言語識別における $\hat{\boldsymbol{y}}$ の分布を一様分布に近づける.以下のように敵対的損失を定義する. $ L_{A}=-\sum_{j} \frac{1}{N} \log \hat{\boldsymbol{y}}_{j} $ ここで, $N$ は訓練用データに含まれる言語の種類数である.言語の識別に関しては,意味表現から言語 を識別可能にする式 (8) の訓練と, 意味表現から言語を識別不可能にする式 (9) の訓練の両方によって,敵対的な訓練を行う。 ## 3 評価実験 WMT20 の品質推定タスク [3] において提案手法の性能を評価する。提案手法では,原言語文および機械翻訳による出力文(目的言語文)を多言語文符号化器によって文表現に変換し,それぞれの意味表現を抽出する.品質推定には,意味表現間の余弦類似度を用いる。公式の評価方法に従い,モデルが推定した翻訳品質と人手評価値の間のピアソン相関によって性能評価を行う. ## 3.1 実験設定 データセット WMT20の品質推定タスクには, 6 つの言語対 ${ }^{2}$ が含まれる. 英語からドイツ語 (en-de)および英語から中国語(en-zh)の多資源言語対,ルーマニア語から英語 (ro-en) およびエストニア語から英語(et-en)の中資源言語対,ネパー ル語から英語 (ne-en) およびシンハラ語から英語 (si-en)の少資源言語対である. 各言語対において, 1,000 文対の原文および機械翻訳の出力文と, 人手評価値の組が提供されている. 評価対象の機械翻訳は, fairseqツールキット ${ }^{3)}[10]$ を用いて訓練された Transformer モデル [11] である. 我々のモデルの訓練には,WMT20 の品質推定夕スクで利用可能な対訳コーパスの一部4)を使用した. 多資源言語対は 100 万文対ずつ,中資源言語対は 20 万文対ずつ,少資源言語対は 5 万文対ずつの対訳コーパスを用いて訓練した。 モデル本研究では, 全ての $\operatorname{MLP}\left(\mathrm{MLP}_{M}, \mathrm{MLP}_{L}\right.$, $\mathrm{MLP}_{D}$ ) に 1 層のフィードフォワードニューラルネットワークを用いた. 文表現を得るための多言語文符号化器には, 先行研究 [9] において品質推定の性能が最高であった $\mathrm{LaBSE}^{5}$ [12]を用いた. 文表現には,LaBSEの [CLS]トークンに対応する最終層の出力を用いた。なお,対訳コーパスを使用して訓練するのは MLP のみであり,LaBSE は再訓練しない. 我々のモデルは,バッチサイズを 512 ,最適化手法を Adam [13], 学習率を $1 e-5$ として HuggingFace  Transformers [14]を用いて訓練した.検証用データにおける式 (1)の損失が 10 エポック改善しない場合に訓練を終了した.検証用データは,訓練用データから $10 \%$ を無作為抽出して作成した. 比較手法本実験では,教師なし品質推定の既存手法と提案手法を比較する. LaBSE [12] のベースラインは,提案手法による意味表現の抽出を行う前の文表現を用いて品質推定を行う.LaBSE から意味表現を抽出する先行研究として, DREAM ${ }^{6)}$ [9] と比較する. その他の多言語文符号化器による品質推定として, $\operatorname{LASER}^{7)}[15,16] \cdot \mathrm{mSBERT}^{8)}$ [17] $\cdot$ BERTScore $^{9)}[18] の 3$ 手法と比較する. なお, 各モデルの事前訓練の設定に従い,LASER では双方向 LSTM の最終層の最大プーリング, mSBERT では最終層の平均プーリングを,それぞれ文表現として用いた. BERTScore には,最高性能が報告されている xlm-roberta-large モデルを使用した. また,参考のために,系列変換モデルに基づく教師なし品質推定手法である D-TP [19] および Prism$^{10)}$ [20], WMT20 の品質推定タスクでベースラインとして採用されている教師あり品質推定手法である Predictor-Estimator ${ }^{11)}[22]$ とも比較する. ## 3.2 実験結果 表 1 に実験結果を示す. 上段には,LaBSE ベースラインおよび LaBSE から抽出した意味表現による品質推定の結果を示している. まず,LaBSE と提案手法を比較すると,提案手法によって全ての言語対において性能が向上しており, 本研究での意味表現の抽出が有効であることがわかる.また,DREAM との比較においても,全ての言語対において改善が見られるため,提案手法によってより良い意味表現を抽出できていると考えられる。 表 1 の中段には,多言語文符号化器による教師なし品質推定の比較手法の性能を示している. これらと比較して,提案手法は少資源言語対を中心に優れた結果を示しており,6 言語対の平均值としては人手評価との最も高い相関を達成している. 表 1 の下段には,他のアプローチによる品質推定  表 1 WMT20 品質推定タスクにおける人手評価とのピアソン相関係数 の性能を示している. 全言語対において,提案手法は教師ありベースラインである Predictor-Estimator の性能を上回った. 多言語文符号化器に基づく教師なし品質推定手法(上段および中段)の中で,全ての言語対において教師ありベースラインを上回るのは提案手法のみであり,提案手法の有効性が明らかになった. また,教師なし品質推定手法である D-TP および Prism と比較して,少資源言語対においては提案手法が優れた性能を示しており,提案手法は少資源言語対における教師なし品質推定の最高性能を更新した.なお,D-TP は評価対象の機械翻訳の内部状態にアクセスする必要があり, Prism は大規模な対訳コーパスを用いて訓練する必要があるため,才ンライン機械翻訳サービスなどのブラックボックス機械翻訳の品質推定や少資源言語対における品質推定において,提案手法は特に有効であると言える。 ## 3.3 アブレーション分析 提案手法で用いている式 (1)の 4 種類の損失関数の影響を考察するために,同じく WMT20 の品質推定タスクにおいてアブレーション分析を行った.表 2 に分析結果を示す. なお,表 2 の上段では基本となる復元損失 $L_{R}$ とその他の 1 種類の損失を組み合わせた際の性能を,下段では 1 種類ずつの損失を取り除いた際の性能を,それぞれ示している. 全ての損失を用いた際の性能は 0.491 であるため, (g) および (h) から, 復元損失 $L_{R}$ および交差復元損失 $L_{C}$ の影響は小さいことがわかる.上段の結果から,交差復元損失 $L_{C}$ および言語表現損失 $L_{L}$ とは異なり,敵対的損失 $L_{A}$ は基本の復元損失 $L_{R}$ のみと表 2 アブレーション分析におけるピアソン相関係数 の組み合わせでも有効であることがわかる. 下段の結果から,言語表現損失 $L_{L}$ を除外した際に最も性能が低下するため,言語表現損失からは他の損失で補完できない重要な情報が学習されると言える. 本分析から,言語表現同士が類似しないことを保証する言語表現損失および意味表現に言語固有の情報が含まれないことを保証する敵対的損失の 2 つが,提案手法の性能改善に特に貢献することがわかった. ## 4 おわりに 本研究では,事前訓練された多言語文符号化器に基づく教師なし品質推定に取り組んだ。提案手法は,文表現から言語固有の情報を取り除くことで言語非依存の意味表現を抽出し,言語を超えた文間の意味的類似度の推定を可能にした. 6 つの言語対における実験の結果,提案手法は最先端の多言語文符号化器の性能を一貫して改善し, 特に少資源言語対において教師なし品質推定の最高性能を達成した。 ## 謝辞 本研究は JSPS 科研費 (若手研究, 課題番号: JP20K19861)の助成を受けたものです. ## 参考文献 [1] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. BLEU: A Method for Automatic Evaluation of Machine Translation. In Proc. of ACL, p. 311-318, 2002. [2] Lucia Specia, Carolina Scarton, and Gustavo Henrique Paetzold. Quality Estimation for Machine Translation. Synthesis Lectures on Human Language Technologies, Vol. 11, No. 1, pp. 1-162, 2018. [3] Lucia Specia, Frédéric Blain, Marina Fomicheva, Erick Fonseca, Vishrav Chaudhary, Francisco Guzmán, and André F. T. Martins. Findings of the WMT 2020 Shared Task on Quality Estimation. In Proc. of WMT, pp. 743-764, 2020. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proc. of NAACL, pp. 4171-4186, 2019. [5] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised Cross-lingual Representation Learning at Scale. In Proc. of ACL, pp. 8440-8451, 2020. [6] Tharindu Ranasinghe, Constantin Orasan, and Ruslan Mitkov. TransQuest: Translation Quality Estimation with Cross-lingual Transformers. In Proc. of COLING, pp. 5070-5081, 2020. [7] Marina Fomicheva, Shuo Sun, Lisa Yankovskaya, Frédéric Blain, Vishrav Chaudhary, Mark Fishel, Francisco Guzmán, and Lucia Specia. BERGAMOT-LATTE Submissions for the WMT20 Quality Estimation Shared Task. In Proc. of WMT, pp. 1010-1017, 2020. [8] Akifumi Nakamachi, Hiroki Shimanaka, Tomoyuki Kajiwara, and Mamoru Komachi. TMUOU Submission for WMT20 Quality Estimation Shared Task. In Proc. of WMT, pp. 1037-1041, 2020. [9] Nattapong Tiyajamorn, Tomoyuki Kajiwara, Yuki Arase, and Makoto Onizuka. Language-agnostic Representation from Multilingual Sentence Encoders for Cross-lingual Similarity Estimation. In Proc. of EMNLP, pp. 7764-7774, 2021. [10] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A Fast, Extensible Toolkit for Sequence Modeling. In Proc. of NAACL, pp. 48-53, 2019. [11] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, undefinedukasz Kaiser, and Illia Polosukhin. Attention is All You Need. In Proc. of NIPS, pp. 6000-6010, 2017. [12] Fangxiaoyu Feng, Yinfei Yang, Daniel Cer, Naveen Arivazhagan, and Wei Wang. Language-agnostic BERT Sentence Embedding. arXiv:2007.01852, 2020. [13] Diederik P. Kingma and Jimmy Ba. Adam: A Method for Stochastic Optimization. In Proc. of ICLR, 2015. [14] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-Art Natural Language Processing. In Proc. of EMNLP, pp. 38-45, 2020. [15] Mikel Artetxe and Holger Schwenk. Margin-based Parallel Corpus Mining with Multilingual Sentence Embeddings. In Proc. of ACL, pp. 3197-3203, 2019. [16] Mikel Artetxe and Holger Schwenk. Massively Multilingual Sentence Embeddings for Zero-Shot Cross-Lingual Transfer and Beyond. Transactions of the Association for Computational Linguistics, Vol. 7, pp. 597-610, 2019. [17] Nils Reimers and Iryna Gurevych. Making Monolingual Sentence Embeddings Multilingual using Knowledge Distillation. In Proc. of EMNLP, pp. 4512-4525, 2020. [18] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. BERTScore: Evaluating Text Generation with BERT. In Proc. of ICLR, pp. 1-43, 2020. [19] Marina Fomicheva, Shuo Sun, Lisa Yankovskaya, Frédéric Blain, Francisco Guzmán, Mark Fishel, Nikolaos Aletras, Vishrav Chaudhary, and Lucia Specia. Unsupervised Quality Estimation for Neural Machine Translation. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 539-555, 2020. [20] Brian Thompson and Matt Post. Automatic Machine Translation Evaluation in Many Languages via Zero-Shot Paraphrasing. In Proc. of EMNLP, pp. 90-121, 2020. [21] Fabio Kepler, Jonay Trénous, Marcos Treviso, Miguel Vera, and André F. T. Martins. OpenKiwi: An Open Source Framework for Quality Estimation. In Proc. of ACL, pp. 117-122, 2019. [22] Hyun Kim, Hun-Young Jung, Hongseok Kwon, JongHyeok Lee, and Seung-Hoon Na. Predictor-Estimator: Neural Quality Estimation Based on Target Word Prediction for Machine Translation. ACM Transactions on Asian and Low-Resource Language Information Processing, Vol. 17, No. 1, pp. 1-22, 2017.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G3-5.pdf
# 作文指導に活かすための修辞機能解析現状の問題点 佐尾ちとせ 同志社大学 sk199608 @ mail.doshisha.ac.jp 宮城 信 富山大学 miyagi@ edu.u-toyama.ac.jp 田中弥生 国立国語研究所yayoi@ ninjal.ac.jp ## 概要 発表者らは、修辞機能解析により、作文の脱文脈化の状態を可視化することで、これまで指導者の主観に委ねられてきた作文の評価や指導等に、一定の指標を構築することはできないか、研究を進めている。本発表における課題は以下の 2 点である。 1. 現状の修辞機能解析の問題点の洗い出し 2. 教育現場で使える修辞機能解析の方向性指導者や学習者自身が行うことを想定し、摇れの少ない合理的な解析方法を確立する必要がある。今回は環境作文という抽象度が高い文章を 3 名でアノテーションし、迷いの生じやすい箇所とその理由を分析した。そこから、作文指導に活かせる修辞機能解析のあり方について考察した。 ## 1 はじめに 文章の修辞法には比喻・倒置等、様々あるが、脱文脈化とは、書かれた事象が、どの程度、筆者の置かれた状況、すなわち、「今」(書かれた時間)、「ここ」(書かれた場所)「私」(筆者)から離れたものとして表現されているかである。 具体例を挙げると、プレゼントをもらった筆者がその気持ちを「うれしい!」と表現した文に比べ、 「プレゼントをもらって私はとてもうれしかったです」と過去を振り返って表現されている文のほうが、筆者自身が自分から距離を置いていると考えられる。 これを「プレゼントをもらうのはうれしいものだ」 のように自分の心理描写ではなく一般的な話として述べれば、さらに距離が離れる。筆者自身のこと、筆者のいる場について述べられたものの多くは主観的 - 個別的 - 具体的であり、筆者から離れ、「今」 というような時間軸からも離れると客観的・一般的・抽象的になっていく。 こうした原理を利用して、文章の具体性や客観性を可視化しようというのが修辞機能の分析である。 図 1 修辞機能と脱文脈化指数 修辞機能は、空間軸(空間要素)と時間軸(時間要素)を段階的に分類し、それらの要素の組み合わせで定め、「脱文脈化指数」として数值化する。空間要素・時間要素の組み合わせによる修辞機能と脱文脈化指数は図 1 のとおりである。 ## 2 修辞機能解析と作文指導 2018 齊藤他 ${ }^{[1]}$ では、作文評価のための内容的観点として、A「課題把握」B「内容記述」C「独自性」 $\mathrm{D}$ 「段落」 $\mathrm{E} 「 一$ 貫性」 $\mathrm{F} 「$ 構成」の 6 点を挙げている。このうち、 $\mathrm{B} 、 \mathrm{E}$ の詳述内容を引用する。(下線は本稿筆者による。) B 内容記述 : 紹介したい事柄について, 具体的な内容や特徵, 紹介したい理由などを詳しく述べているか。 $\mathrm{E}$ 一貫性 : テーマを軸に,事柄の順序や関係などが,一定の見方や考え方で貫かれていたり,論理的に組み立てられていたりしているか。 作文に対して「具体性がない」「主観的すぎる」「論理的ではない」といった評価のなされることがある。 こうした「具体性」「客観性」といった評価を数値化し、可視化することで、指導者にも学習者にも改善すべき点が明確になり、指導の一助になりうると考えている。 「中学生食の作文コンクール」2019 年度の審查員の講評[2]には「自分を中心に思考を巡らす」として、  作文のコツが以下のように述べられている。 自分を中心に半径 5 メートル、 10 メートル、 100 メートルと徐々に広げて、思考を巡らすことです。(中略)中学生ですから、世界を考えることは大切で必要ではあります。しかし、まず身近な経験から、その後に徐々に広げて、大きな問題に結びつけて書く方が、読み手も安心します。 ここでいう「自分を中心に半径を広げる」というのがまさに脱文脈化していくことである。 ## 3 現状の修辞機能解析の問題点 2021 年度富山大学教員免許講習の場で実際に修辞機能アノテーションを行い、指導法の一端を紹介したところ、すぐにも教室で使いたいとの声が寄せられた。教育現場で使用するには、学習者を含め、誰でも迷わず適切な判定のできるアノテーションの方法を確立する必要がある。そこで、 3 名のアノテ一ター $\mathrm{P}, \mathrm{Q}, \mathrm{R}$ のデータを比較し、摇れの大きかった個所、迷いの生じた個所について検討を行うこととした。尚、 3 名のうち Q、Rは言語を専門とするが、Pはそうではない。 ## 3. 1 分析対象と方法 今回は、作文コンクールで高評価を得た作品のうち、文構造が複雑で、内容的にもかなり抽象度の高い環境作文をとりあげる。環境作文はテーマにより分類されており、Aは「イタイイタイ病」、Bは「体験」、Cは「科学・ボランティア」である。 表 1 } \\ 発表者らは、比較的抽象度の高い「夢作文」と体験に基づく「がんばった作文」の分析から、修辞機能の出現頻度には、テーマによる特徴、学年層による違いが表れることを確認している ${ }^{[3]}$ 。これらの作文と環境作文の冒頭第一文の修辞機能を比較すると、 がんばった・夢作文がほぼ同じ修辞機能から始まっているのに対し、環境作文には多種類の修辞機能が用いられていることがわかる。このことからも、環境作文の修辞機能が単純ではなく、アノテーションに摇れが生じやすい可能性のあることがうかがえる。 表 2 第一文の修辞機能ii & & & & & & & & \\ 象 \\ 外 \\ 今回分析対象とする環境作文のアノテーションの前に、アノテーターにはあらかじめ修辞機能解析の意味や手順を説明し、がんばった・夢作文それぞれ 3 篇ずつ 100 行ほどのデータにアノテーションをしてもらい、作業過程で生じた疑問点等を相談する場を設けた。こうした試行作業により、各タグの意味やアノテーション方法に誤解のないことを確認した上で、環境作文のアノテーション作業に入った。 ## 3. 2 摇れの大きかった部分 ## 3. 2.1 メッセージの分割と種類の判定 今回、最も摇孔が大きかったのは、修辞機能に直接かかわる空間・時間要素の判定ではなく、その基盤となるメッセージの分割と種類の判定であった。 アノテーション作業は、作文データを修辞機能の分析単位である「メッセージ」に分割することから始まる。「メッセージ」は述語を含む節と概数一致するが、連体・連用修飾節や従属節の一部は分析対象とはならない。今回の作業では、それが対象外かどうかの判断で迷うよりも、文を節単位に分解し、主節、並列節、従属節といった節の種類を特定する中で、対象外のものはその認定を行うという方法で作業を行うこととした。しかしながら、表 3 のとおり、アノテーター 3 名のメッセージの分割数には相当のばらつきがある。そのため、一致率の計算が困難であった。  ## 3. 2.2 空間要素について 空間要素の判定において摇れが目立ったのは以下の 2 点である。 ・主語や主題が明示されていないメッセージにおいて推測された空間要素 ・「私」を伴う空間要素 ## —明示されていない空間要素の推測 空間要素は、「参加」「状況内」「状況外」「定義」に分類される。これらは、メッセージに表れた事象が、メッセージの発せられた空間からどの程度離れたものとして表現されているかを示す。空間要素は概ねメッセージに含まれる述部の主体、あるいは、メッセージの主題に相当するが、それらが明示されていない場合は推測する必要がある。 以下に具体例を挙げる。 1) a . 最近、「海洋プラスチック」の問題がクロ ーズアップされています。 b . 例えば、海辺に打ち上げられたクジラの体内から計 40 キロのプラスチックゴミが出てきたというニュースです。 2)a . 他にも、油をふいてからフライパンを洗う。 や、何か洗う時はできるだけ洗剂ではなく、重曹を使うなど、他にもいろいろありますが、 b. やっぱり一番大切なのは、このイタイイタイ病と言う公害病があったことを、生まれた時が、平和だったからラッキー。ではなく、 c.これから先、伝えていきたいと思いました。実際のアノテーション結果は表 4 のとおりである。 ## 表 4 例文の空間要素とその種類 修辞機能解析で必要なのは空間要素そのものではなく、その種類なので、1)bのように表現が異なっても意味しているところが同じであれば問題ない。極端な話、空間要素が何であるか指摘できなかったとしても、参加や状況内ではないということが確認できれば十分なのである。だが、2)bでは、文構造が入り組んでいることもあり、述部を「あった」 としてしまった結果、その主体である「公害病」を空間要素と認定するエラーが生じている。 空間要素は、述部を特定してから、その主体とな るものを探すよう説明したが、述部の特定を誤ったことで空間要素にエラーが生じた例が散見された。 ## -「私」を伴う空間要素「状況内」の判定 現行の仕様では、「状況内」とするものは、コミユニケーションが行われる場にあるものと規定している。そのため、学校において自分の所属している学校のことを書いたのであれば「私の学校」は状況内となるが、家で書いた場合は「状況外」となる。 ただし、作文の場合、それがどこで書かれたかを判断するのは困難なため、今回の作業では「私の○○」 がその場にあるかどうか判断のつかない場合には 「状況内」とすることにした。 このように規定した上で、アノテーションを行った結果、「状況内」の数は以下のようになった。()内は、「私の」等が含まれているメッセージ、分母はアノテーターが切り出したメッセージ数である。 $ P: 17(7) / 1037 \quad Q: 23(22) / 1093 \quad R: 26(21) / 1204 $ $\mathrm{Q}$ は「私の」を含むメッセージの空間要素をほぼ 「状況内」としているが、P、R は「私の家族」は状況外とした。P は「クラスのみんな」自分の属する 「*小」自分の住む「十市の人」といったものを「状況内」と判断している。 ## 3. 2.3 時間要素について 時間要素は、「過去」「未来意志的」「未来非意志的」「現在」「習慣・恒久」「仮定」に分類される。これらは、メッセージに表れた事象が、メッセ ージの発せられた時間を基準とし、相対的にいつ起こったものとして表現されているかを示す。時間要素はメッセージに含まれる述部の時制、あるいは副詞句から判断する。時間要素の判定において大きく摇れ生じたのは、働きかけのモダリティ表現を伴うメッセージである。 ## $\cdot$モダリティ表現と時間要素の判定 3 )a.ですが、今の社会では、「ポイ捨てをやめてください。」ということを伝えても b . なかなか直してはくれません。 4) a . 神通川の農民たちはいろいろな方法で原因を調べで、 b . 国や県、神岡鉱山を採くつしている会社に鉱毒を流さないでほしい c . とうったえました。 そもそも、3)aは対象外のメッセージで「」内を切り出したのはRのみであるが、これを命題ではなく提言とすべきかどうかで迷っている。なぜな らば、これは不特定多数の誰かに向けた働きかけであり、会話相手に直接依頼しているメッセージではないからだ。しかし「」付で「〜ください」という表現をとっており、独立した会話であれば提言に相当する。一方 4)bでは、後行する主節から、会社等に「流さないでほしい」と直接うったえていることを理由に提言としている。4)bに対しPは「習慣・恒久」Qは「未来非意志」を付与している。 環境作文には、こうした働きかけのモダリティを伴うメッセージが頻出する。典型的な例とそのアノテーション結果を表 5 に示す。 5) 私は、カドミウムなど、害がある物は、ぜったいに川や海には流してはいけないと思う。 6 )「川をよごすと、たくさんの被害がでる。」 ということを伝えなければなりません。 7 )だから私は、少しずつそう思える人を増やしていけばいいと思います。 8)みなさんも地球温だん化の取組をやってみてはどうですか。 表 5 例文の時間要素の種類 ## 4 現場で使える修辞機能解析に向けて ## 4. 1 空間要素について 作文内での「私の」を含む空間要素の判断は非常に難しく、免許講習の場でもそれについて質問が出た。講習の中では「私の学校」という 200 字程度の作文を書いてもらい、そのアノテーションを行った。 ## 表 6 「私の学校」第一文の空間要素 & 1 \\ 講習の会場は参加者の勤務先ではないため、原則からすると「私の学校」は状況外である。しかしながら自身の所属を「私の学校」と表現するのと、「○ ○校」のように学校名で表現するのとでは、筆者の心理的な距離に隔たりがあると思われる。さらにいえば、「私の学校」と「私の勤務している学校」の間にも、微妙な距離の差が存在する。筆者がこうした心理的距離を意識して表現を選択しているのであ れば、それこそまさに修辞技法である。微妙な距離感までをも可視化することは難しいが、せめて固有名と「私」を被せた呼称の間の隔たりは分けるほうが作文指導には適切に思われる。 また、授業内でのアノテーションということを考慮しても、作文内では「私の」等が含まれる場合は 「状況内」とすることに統一しておくほうが、修辞機能の判定に摇れが生じにくいだろう。ただし、離れて祖父母など、その場にいないことが明らかな人物を「私の祖母」などとして表現することも多いので、検討が必要である。 ## 4. 2 時間要素について 今回の作業では、「思う」「言われている」等の後続する、主に格助詞「と」によって受ける節を引用節として切り出すことにした。これは、9)10) のような文において、主節の述語である「思います」 「考えられています」は削除しても文意は変わらず、婉曲や一般化のモダリティ表現の一種と見なしうるからだ。 9)じっさいにしたことをいくつか、しょうかいしたいと思います。 10)こうした食物連鎖を通じて私たち人間の体内にも蓄積しているのではないかと考えられています。 モダリティ表現を伴う述語に対する時間要素については、広く文例を収集し、一定の原則を作っておく必要がある。これは今後の課題と考えている。 ## 5 おわりに 今回のデータは 1 文が 100 文字を超えるような長文が多く含まれ、それが不整合を起こしている場合もあり、言語が専門ではないアノテーターにとっては、メッセージの切り出しと種類の判定という作業が殊に困難であることが浮き彫りになった。 作文評価の観点が多岐にわたることを念頭におき、脱文脈化以外の側面もカバーできるよう、節に分割してメッセージの種類を特定しておき、必要なメッセージに絞って修辞機能を分析するのがよいと考えていた。だが、実際の指導現場で修辞機能解析を用いて作文の添削や改善点の指摘を行うのであれば、網羅的なアノテーションを行うよりも、むしろ、主節と明らかな並列節、場合によっては誰にでも明瞭な文単位で修辞機能を判定し、脱文脈化という観点に限定して作文を分析するほうが合理的である可能性もある。今後も研究を進めていきたい。 ## 謝辞 本研究は JSPS 科研費JP20H01674、JP19K00588 の助成を受けたものです。 ## 引用 - 参考文献 [1] 齋藤ひろみ・白勢彩子・中村和弘・大澤千恵子・成家雅史 - 細井宏一 - 土屋晴裕 - 菅原雅枝 - 笹島眞実・工藤聖子. 国語科教育における作文評価の項目設定と手法の設計平成 30 年度〜令和元年度東京学芸大学教育実践研究推進本部「特別開発研究プロジエクト」報告書 [2] 第 5 回公益財団法人イオンワンパーセントクラブ中学生食の作文コンクール「審査員の講評をチェック」(引用日: 2022 年 1 月 11 日.) https://aeon1psakubun.jp/review/index.html [3]田中弥生・佐尾ちとせ・宮城信(2021). 児童作文の評価に向けた脱文脈化観点からの検討. 言語処理学会第 27 回年次大会発表論文集,750-755, [4]小磯花絵・佐野大樹(2011). 現代日本語書き言葉における修辞ユニット分析の適用性の検証-「書き言葉らしさ・話し言葉らしさ」と脱文脈化言語・文脈化言語の関係一. 機能言語学研究,6:59-81 [5]佐野大 (2010).日本語における修辞ユニットの方法と手順 ver.0.1.1一選択体系機能言語理論(システミック理論)における談話分析一(修辞機能編) [6]佐野大樹(2021). 特集選択体系機能言語理論を基底とする特定目的のための作文指導方法について一修辞ユニットの概念から見たテクストの専門性. 専門日本語教育研究, (12):19-26 [7]宮城信・浅原正幸・今田水穂(2018). 現職教員による児童 - 生徒作文の評価基準の分析. 言語資源活用ワークショップ 2018 発表論文集,420-434 [8]吉川愛弓・岸学 (2006).作文の評価項目に関する検討一意見文の評価は何に影響を受けるのか一. 東京学芸大学紀要総合教育科学系 57,93-102 [9]梶井芳明 (2001). 児童の作文はどのように評価されるのか?一評価項目の妥当性・信頼性の検討と教員の評価観の解明-480 教育心理学研究, 480-490, [10] 田中弥生 (2018).児童 - 生徒作文の日本語修辞ユニット分析と教員評価の検討.言語資源活用ワー クショップ発表論文集 $3,91-104$ [11] 田中弥生・浅原正幸 (2018).児童による作文の修辞ユニット分析における中核要素認定.言語処理学会第 24 回年次大会発表論文集 [12] 田中弥生・浅原正幸(2019). 徒属節意味分類アノテーションに基づく修辞ユニット分析の分類単位認定の検討.言語処理学会第 25 回年次大会発表論文集,1209-1212. [13]田中弥生・浅原正幸(2017).Yahoo!知恵袋における修辞ユニット分析の発話機能認定に関する諸問題.言語処理学会第 23 回年次大会発表論文集,831834. [14] 小学校学習指導要領.第 2 章各教科.第 1 節国語 pp.14-29
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G4-1.pdf
# テキスト平易化における自動評価指標のメタ評価の検討 早川明男 1 大内啓樹 ${ }^{1,3} \quad$ 梶原 智之 ${ }^{2}$ 渡辺太郎 1 1 奈良先端科学技術大学院大学 2 愛媛大学 3 理化学研究所 hayakawa.akio.gv6@is.naist.jp hiroki.ouchi@is.naist.jp kajiwara@cs.ehime-u.ac.jp taro@is.naist.jp ## 概要 テキスト平易化は,語彙の置換や非重要部分の削除などの操作によって文を平易に書き換えることを目的とする.こうした平易化の操作の多様さは, 出力文の自動評価を難しくしてきた. 平易化されたテキストを評価する観点として,平易性・同義性・文法性が挙げられる。本研究では, 自動評価指標のメ夕評価の一環として,各観点について妥当な指標が満たす条件を検討する。また既存の指標の振る舞いを確認し,それらがどのように利用されるべきかを提言する. ## 1 はじめに テキスト平易化は文の意味を保ちつつ平易に書き換えるタスクであり,語彙の平易化,構文の平易化,文の分割, 非重要部分の削除などの操作によって実現される [1]. 平易なテキストは, 子ども [2] や非母語話者 [3],また自閉症 [4] や読字障害 [5] など,読解能力が低い人を補助すると考えられ,テキスト平易化への期待は高まっている。一方,こうした人の属性ごとに読解をより促進するテキストの種類は異なりうる.例えば,子どもに対しては平易な構造の文が,非母語話者に対しては平易な語彙による文がより読解を促進する,といった差が生じる可能性がある. かねてのテキスト平易化研究は多様な操作の一部を実現できるにすぎなかったが,近年の文生成の発展により,平易文の多様さについて出力を制御できるモデルが提案されるようになった $[6,7]$. 一方で,その多様さゆえに平易文の評価は難しい. 平易 (出力) 文の人手評価においては,複雑 (入力) 文と比較した際の平易さ (平易性), 重要部分の意味を保持できている程度 (同義性) に加えて, 出力文そのものの文法的正しさ (文法性) という 3 つの観点を利用することが確立している [8] が,自動評価に利用する指標については明確な合意がないのが現状である. テキスト平易化の自動評価指標としては, 文生成夕スクで一般に利用されるもののほか,テキスト平易化のために設計されたものもいくつか提案されている $[9,10]$. こうした提案の多くは,その妥当性の根拠として,人手評価と自動評価の相関の高さを挙げる. このとき,ある入力文に対する出力文を平易化モデルなどを利用して生成し,それらに人手でスコアをつけたデータセットが利用される。しかしながら,この人手スコアデータセットそのものが問題をはらむ場合がある. とりわけ平易文の多様化という主題に対して,出力文が特定の操作のみを含んでいる,という指摘 [11] はデータセットの根底を摇るがすものである. こうした現状は評価指標,そして提案モデルの妥当性に疑問を投げかけ,テキスト平易化研究の発展を妨げているといえる. ところで,自動評価指標の妥当性を示す手段は人手評価との相関に限らない. 本研究では, 出力文の人手評価に用いられる平易性・同義性・文法性という 3 つの観点それぞれについて,自動評価指標の妥当性を示す他の要素を検討する.また自動評価指標のメタ評価として, 既存の指標がそれらを満たす程度を確認する. その際,とくに多様な操作について意識的に要素を検討する。しかしながら,複雑文と平易文のペアから操作を自動的に分類するのは難しい [12]. そこで, それぞれの操作を直接的に分類するのではなく,入力文から出力文への書き換えにおける各単語の編集 (置換,挿入,削除)をもとに編集タグを設定し,検討の材料とする。 ## 2 関連研究 機械翻訳など他の文生成タスクと同様,テキスト平易化研究の多くで BLEU [13] が評価に利用されている.しかしながら,BLEU はテキスト平易化の評価には不適であるとしばしば指摘されている。例えば [14] は,とくに複数の参照文があるとき,入力文をそのまま出力する低質なシステムでも BLEUによる評価が高くなってしまうとしている. こうした BLEU の欠陥を補うため, [9] では SARI という新たな評価指標を提案している. SARI は入力 文との n-gram の重複が大きい出力文にペナルティを与えるように設計され,語彙の平易化の妥当性を評価できるという著者らの主張から,以降テキスト平易化タスクのほとんどで利用されている。一方 [15]は,とくに複数の操作を含む書き換えについて,同義性や文法性についての人手評価と SARI との相関の低さを指摘している。 FKGL [16] は英文のリーダビリティを示すために設計された指標で,テキスト平易化の評価にもしばしば利用されている。この FKGLについても,参照文を必要としないその特徵から, 高い評価を得られる出力文を容易に生成できるとして,テキスト平易化の評価指標としては不適であるとの指摘がある [17]. その他にも BERTScore [18, 11], SAMSA [10], QUESTEVAL [19] などさまざまな自動評価指標の導入が提案され,今後の増加も予想される. これらの指標も出力文の質に応じた評価を与えることが期待され,その程度や応用範囲についてメタ評価を受けるべきである. 本研究ではメタ評価の要素を検討し, また実施することを目標とする。 ## 3 手法 本研究では, 入力文に対して多様なタイプの出力文の集合を作成し,各指標で評価する。同時に,入力文から出力文への編集を計算し, 出力文に編集タグを付与した上で,タグごとの出力文の評価も行う. これらをもとに,平易性・同義性・文法性という 3 つの観点について,各指標が評価できるべき要素を仮定する。また,それらを満たす程度をもとにメタ評価を行う。 ## 3.1 編集タグ 出力文に付与される編集タグは,編集距離と同時に得られる編集列をもとに決定される.置換・挿入・削除の割合 $r_{\mathrm{ADD}}, r_{\mathrm{DEL}} , r_{\mathrm{SUB}}$ を以下のように定義する. $ \begin{aligned} & r_{\mathrm{ADD}}=\text { 編集列中の挿入数 } / \text { 入力文の単語数 } \\ & r_{\mathrm{DEL}}=\text { 編集列中の削除数 } / \text { 入力文の単語数 } \\ & r_{\mathrm{SUB}}=\text { 編集列中の置換数 } / \text { 入力文の単語数 } \\ & \text { このとき, 以下のような条件で編集タグを設定し, 出 } \\ & \text { 力文ごとに条件を満たすタグすべてを付与する. } \end{aligned} $ $ \begin{aligned} & \mathrm{ADD}: r_{\mathrm{ADD}}>0.1 \\ & \mathrm{DEL}: r_{\mathrm{DEL}}>0.2 \\ & \text { SUB : } r_{\text {SUB }}>0.2 \\ & \text { NONE }: r_{\mathrm{ADD}} \leq 0.1, r_{\mathrm{DEL}} \leq 0.2, r_{\mathrm{SUB}} \leq 0.2 \end{aligned} $ それぞれの文は,NONE を除いた複数のタグが付与されうる. 図 1 は編集タグのイメージを示したものである. ## 3.2 利用データ 以下に記述するように,入力文・参照文・出力文を準備する。 ## 3.2.1 入力文・参照文 文を人手で平易化したデータセットに ASSET [15] がある. ASSET は, Wikipedia の英語版に記述された 359 文に対し, 10 人のアノテーターそれぞれによる平易な参照文を含む.参照文は多様な操作を含みうるように設計されており,本研究ではこれらを十分妥当な平易文とみなす。 ## 3.2.2 出力文 出力文については,(1) 人手による平易文,(2) 低質なシステムによる出力文の 2 つのタイプを準備する. ## 1. 人手による平易文 ASSET のそれぞれの入力文に対する 10 の参照文について,1 文を出力文,残りの9 文を参照文とみなして評価した結果を平均する。 2. 低質なシステムによる出力文 以下のように,入力文を利用して簡易に出力文を生成する 5 つのシステムを設定する. Random は,前項で定義した特定の編集タグが付与されるように設計されている. ## 3.3 利用する自動評価指標 テキスト平易化に用いられる評価指標の代表として, BLEU, SARI, BERTScore, FKGLを選択する.なお,評価に参照文を必要とする BLEU, SARI, $\square:$ add $\square:$ del $\square$ sub 図 1 編集タグのイメージ BERTScore については, 複数の参照文を用いた評価 (Multi) と,単一の参照文を用いた評価の平均值 (Avg) をそれぞれ算出する. 各指標の評価値の算出には EASSE [20] の実装を利用する。 ## 3.4 メタ評価の観点 人手評価で用いられる平易性・同義性・文法性の 3 つの観点を中心に, 自動評価指標の妥当性を示す要素を以下のように仮定する。 ## 3.4.1 平易性 平易性について,各指標は入力文と比較してより平易な出力文に高い評価を,そうでない出力文に低い評価を与えることが期待される. 本研究では, 前者には ASSETが,後者には Identical が該当し,これらを正しく評価できる程度をもってメタ評価を行う。 ## 3.4.2 同義性 同義性について,各指標は入力文における重要な意味が保持されている出力文に高い評価を,そうでない出力文に低い評価を与えることが期待される. すなわち,入力文の重要な意味を同等に保持する出力文は同等に評価されるべきである. 本研究では, ASSET の平易文それぞれがもつ同義性が同等であるとみなすため,構文などによらず評価も同等であることが望ましい。すなわち, 編集タグ間の評価の差の小ささをもってメタ評価を行う. ## 3.4.3 文法性 文法性について,各指標は文法的に正しい出力文を高い評価を,文法的に誤った出力文に低い評価を与えることが期待される.表 1 各出力文の編集タグ付与割合 本研究では, ASSET と Identical が前者に, Splitと Random が後者に該当し,これらを正しく評価できる程度をもってメタ評価を行う。 ## 4 結果 ## 4.1 編集タグの分布 表 1 は,それぞれのシステムの出力文に対してどのような割合で編集タグが付与されるかを示したものである。この結果からはまず,人手による平易文 (ASSET) に多様さがあることがわかる。また,低質なシステムの大部分に特定のタグが付与されていることが確認できる. ## 4.2 自動評価指標のメタ評価 表 2 は各指標で出力文を評価した結果で,太字の数字は指標ごとにもっとも良い評価を意味する。なお,表 2 上部は各システムに対する評価を,下部は ASSET のうち各編集タグが付与された出力文のみに対する評価を表す. 以下, 3.4 項における要素をもとに,各指標がそれぞれの観点を満たすかを確認する。 表 2 各指標による出力文の評価 ## 4.2.1 BLEU まず平易性という観点では,Identical を高く評価してしまっている。前提として,ASSET の約 3 割は NONE,すなわち編集の少ない平易文である。こうした参照文は n-gram の重複が大きい Identical を高く評価してしまう. 同様の理由で, NONE への評価の突出を説明でき,同義性についての要素を満たさないといえる。また,ASSET より Random に対する評価のほうが高く, 文法性についての要素も満たさない. 編集夕グごとについても同様の関係が見られるが,これは Random における編集部分以外の n-gram の重複によるものといえる。 このように,結果は 3 つの観点すべてについて BLEU の不適さを示している。これは,テキスト平易化の性質である参照文の多様さに由来するといえる。 ## 4.2.2 SARI まず平易性については, Identical を正しく低く評価できている。これは,入力文に含まれず参照文に含まれる n-gram を含む出力文を高く評価し,入力文に含まれ参照文に含まれない n-gram を含む出力文を低く評価する設計に原因すると考えられる。この設計によって,結果的に編集タグ間の評価の差が小さくなっており,同義性についての要素も満たすといえる。一方で,入力文に含まれる n-gram にペナルティを与えるあまり,Random の評価が Identical より高くなっており,文法性については正しく評価できていないといえる。 ## 4.2.3 BERTScore 平易性については BLEU と同様,BERTScore は Identical を高く評価してしまっている.BERTScore は文全体をとらえた評価をするが,編集の少ない参照文と Identical について,各単語が文全体のなかでもつ意味の差が小さいことが推測される。これは,ASSET に対する Randomへの評価の低さも説明できる。すなわち,編集を受けていない単語の意味もある程度変化すると考えられる。 同義性については,BLEU と同様に BERTScoreMulti では NONE の評価が高いが,BERTScore-Avg では編集タグ間の評価の差が小さくなっている点には注目したい.これは,BERTScoreが構造の異なる文に対しても一定程度その類似性を評価できることを示唆している. ## 4.3 FKGL FKGL は Split のようにただ平均単語数が小さい出力文を高く評価してしまい,文法性の説明には不適である。また参照文を必要としないため,同義性を評価するのは難しい。 一方で平易性については, Identical に対して ASSET に良い評価を与えられている。しかし,編集タグ別では ADD や SUBへの評価が高くなっており,これはピリオドの挿入・置換によると考えられる。このことは,編集された単語の情報をふまえられないこの手法の弱点を示しているといえる。 ## 5 おわりに 本研究の結果は,メタ評価に利用したどの自動評価指標もいずれかの観点では短所があることを示した.現状では平易化の評価には複数の指標を用いるのが望ましいといえ,例えば文法性については BERTScore で,平易性については SARI で評価する,といった方法が考えられる。 また,これらの考察は本研究で利用したような編集タグでも十分に導くことが可能であり,今後のメタ評価における一つの要素となるといえる。 今後の課題として,やはり多様な操作によって書き換えられた文についての人手スコアデータセットが必要である.多様さの確認においては,本研究で定義したような編集タグを利用することもできるといえよう. ## 謝辞 本研究は JSPS 科研費 JP19K20351 の助成を受けたものである. ## 参考文献 [1] Sandra M. Aluísio, Lucia Specia, Thiago A. S. Pardo, Erick G. Maziero, Helena M. Caseli, and Renata P. M. Fortes. A corpus analysis of simple account texts and the proposal of simplification strategies: First steps towards text simplification systems. Association for Computing Machinery, 2008. [2] Jan De Belder and Marie-Francine Moens. Text simplification for children. Proceedings of the SIGIR workshop on accessible search systems, 2010. [3] Menglin Xia, Ekaterina Kochmar, and Ted Briscoe. Text readability assessment for second language learners. Proceedings of the 11th Workshop on Innovative Use of NLP for Building Educational Applications, 2016 [4] John Carroll, Guido Minnen, Yvonne Canning, Siobhan Devlin, and John Tait. Practical simplification of english newspaper text to assist aphasic readers. Proc. of AAAI-98 Workshop on Integrating Artificial Intelligence and Assistive Technology, 1998. [5] Luz Rello, Ricardo Baeza-Yates, Stefan Bott, and Horacio Saggion. Simplify or help? text simplification strategies for people with dyslexia. W4A 2013 - International Cross-Disciplinary Conference on Web Accessibility, 2013. [6] Louis Martin, Éric de la Clergerie, Benoît Sagot, and Antoine Bordes. Controllable sentence simplification. Proceedings of the 12th Language Resources and Evaluation Conference, 2020. [7] Louis Martin, Angela Fan, Éric de la Clergerie, Antoine Bordes, and Benoît Sagot. Muss: Multilingual unsupervised sentence simplification by mining paraphrases. arXiv preprint arXiv:2005.00352, 2021. [8] Fernando Alva-Manchego, Carolina Scarton, and Lucia Specia. Data-driven sentence simplification: Survey and benchmark. Computational Linguistics, 2020. [9] Wei Xu, Courtney Napoles, Ellie Pavlick, Quanze Chen, and Chris Callison-Burch. Optimizing Statistical Machine Translation for Text Simplification. Transactions of the Association for Computational Linguistics, 2016. [10] Elior Sulem, Omri Abend, and Ari Rappoport. Semantic structural evaluation for text simplification. Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2018. [11] Fernando Alva-Manchego, Carolina Scarton, and Lucia Specia. The (Un)Suitability of Automatic Evaluation Metrics for Text Simplification. Computational Linguistics, 2021. [12] Fernando Alva-Manchego, Joachim Bingel, Gustavo Paetzold, Carolina Scarton, and Lucia Specia. Learning how to simplify from explicit labeling of complex-simplified text pairs. Proceedings of the Eighth International Joint Conference on Natural Language Processing, 2017. [13] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, 2002. [14] Elior Sulem, Omri Abend, and Ari Rappoport. BLEU is not suitable for the evaluation of text simplification. Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, 2018. [15] Fernando Alva-Manchego, Louis Martin, Antoine Bordes, Carolina Scarton, Benoît Sagot, and Lucia Specia. ASSET: A dataset for tuning and evaluation of sentence simplification models with multiple rewriting transformations. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020. [16] Kincaid J. Peter, P. Fishburne Robert, L. Rogers Richard, and S. Chissom Brad. Derivation of new readability formulas (automated readability index, fog count and flesch reading ease formula) for navy enlisted personnel. Institute for Simulation and Training, 1975. [17] Teerapaun Tanprasert and David Kauchak. Flesch-kincaid is not a text simplification evaluation metric. Proceedings of the 1st Work- shop on Natural Language Generation, Evaluation, and Metrics (GEM 2021), 2021 [18] Tianyi Zhang*, Varsha Kishore*, Felix Wu*, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. International Conference on Learning Representations, 2020. [19] Thomas Scialom, Louis Martin, Jacopo Staiano, Éric Villemonte de la Clergerie, and Benoît Sagot. Rethinking automatic evaluation in sentence simplification. arXiv preprint arXiv:2104.07560, 2021. [20] Fernando Alva-Manchego, Louis Martin, Carolina Scarton, and Lucia Specia. EASSE: Easier automatic sentence simplification evaluation. Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP): System Demonstrations, 2019.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G4-2.pdf
# ニューラル文法誤り訂正システムにおける リランキングの改善に向けたオラクル分析 小林 正宗 ${ }^{1}$ 高橋悠進 ${ }^{2}$ 三田雅人 2,3 小町守 ${ }^{2}$ 1 芝浦工業大学 2 東京都立大学 3 理化学研究所 dz18636@shibaura-it.ac.jp, takahashi-yujin@ed.tmu.ac.jp, masato.mita@riken.jp, komachi@tmu.ac.jp ## 概要 ニューラル文法誤り訂正システムは通常,上位 $\mathrm{N}$文 (N-best) の中からビームサーチを行い,スコアの最も良い文 (1-best)を最終的な出力文として選択する.しかし, 1-best はシステム性能の観点から必ずしも最良な文とは限らず,システム性能を最大にする文(オラクル文)を選択することは難しい。この問題の解決策として,特定の情報を利用して N-best の各文のスコアを再計算し並び替えるリランキングがあるが,ニューラル文法誤り訂正においてどのようなリランキングが適切かは明らかになっていない.そこで本研究では,リランキングの改善に向けたオラクル分析を行う.具体的には,オラクル文を上位にリランキングするためにどのような情報が必要か,といった観点でアノテーションを行い,リラキングを改善させる可能性のある要素を分析する. ## 1 はじめに 文法誤り訂正は,文法的な誤りを含む文を入力とし,誤りを含まない文へと変換し出力するタスクである。近年は,その構造的類似性から,文法誤り訂正タスクを誤りを含む文から誤りを含まない文への翻訳とみなすニューラル機械翻訳に基づくアプロー チが主流である. ニューラル文法誤り訂正システムは通常,出力のうち上位 $\mathrm{N}$ 文 ( $\mathrm{N}$-best) のビームサー チを行い,スコアの最も良い文 (1-best)を最終的な出力文として選択する. しかし, 対数尤度の観点からの 1-best は必ずしも文法誤り訂正の観点からの最良な文とは限らず,N-best の中から文法誤り訂正の精度を最大にする文を選択することは難しい。 上記のような問題の解決策として,リランキングが注目されている. リランキングは, N-best の各文のスコアを再計算し並び替える手法であり,元々の 図 1 本研究の概要 オラクル文 : It is useful to the government and people in the law sector. 1-best : It is useful to the government and the people in the law sector 図 2 アノテーションの概要 システムに組み込むことが難しい情報や言語資源を利用することができる. リランキングは様々な手法がこれまでに提案されており,Mizumoto ら [1]の統語情報を利用した手法や Chollampatt ら [2] の編集操作と言語モデルの特徴量を利用した手法などがある.リランキングにより,N-best の中から文法誤り訂正精度の高い文を選択することで,文法誤り訂正システムの性能改善が期待できる。 しかし,ニューラル文法誤り訂正においてどのようなリランキングが適切かは明らかになっていない.ここで, N-best の中からオラクル文を上位にリランキングするにはどのような情報が必要か,といった問いが自然に提起される。ここでのオラクル文とは,N-best の中から任意の評価手法において精度が最も高くなるような文を指し,そのときの精度はそのシステムの理論上の上限値を意味する。また,この問いについて調査することは,単にリラン 表 1 アノテーションの分類ラベルと例.太字は誤り箇所,青色のハイライトはアノテーション時の判断根拠となる箇所をそれぞれ示している。 \\ キング手法を改善する可能性のある要素を明らかにするだけでなく,最先端システムを対象に調査することで,現状のシステムにおける訂正が困難な文法誤りを明らかにすることに繋がると考えられる。 そこで本研究では,上記の問いの答えを調査すべく, リランキングの改善に向けたオラクル分析を行う. 本研究のイメージを図 1 に示す. 具体的には, まずはじめに最先端文法誤り訂正システムを対象として,オラクルを算出し,システムの 1-best とオラクル文には大きな差があることを定量的に示す.次に,オラクル文を上位にリランキングするにはどのような情報が必要か,といった観点で人手でアノテーションを行い,リランキングを改善させる可能性のある要素を明らかにする。 本研究の主要な貢献は以下である。 ・分析対象データのうち,8 割がリランキングで改善する余地があることがわかった. 5 割は文内で解けるものであり,文内の文脈の重要性が示された. 残りの 3 割は文外の文脈が必要なものであり,特に前の数文を考慮することは有効であると示された. ・分析対象データのうち,2 割がリランキングで の改善が難しいことがわかった. リランキング手法のみならず,評価手法についても改善の余地がある可能性が示された. ## 2 分析手法 本研究では,オラクル文を上位にリランキングするために必要となりうる情報を得るために,オラク几文を正解文とみなしニューラル文法誤り訂正システムの 1-best 出力に対してアノテーションを行う.具体的なアノテーションの概要を図 2 に示す. まず,オラクル文を正解文,1-bestを原文とみなし,文法誤り訂正システムの評価・分析ツールキット ERRANT [3] を用いて 1-best 文の誤り箇所,エラータイプ,編集操作を解析する。 次に, ERRANT の解析結果をもとに,1-bestに対してアノテーションを行う.アノテーションは基本的に文を見て行う.また,アノテーションをする際は文内の文脈で決まらない時のみ文外の文脈を使用する。 アノテーションの分類ラベルは大分類と小分類の 2 つに分ける. 大分類と小分類の概要およびそれぞれのアノテーションの具体例を表 1 に示す. 大分類の種類は,文内で解ける,文外の文脈が必要,一 般的な知識が必要, 誤りではないの計 4 つである.大分類は,1-best をオラクル文にするための訂正内容を明示するラベルであり,オラクル文に近づけるために最尤なラベルを 1 つアノテーションする。 小分類は,大分類を細分化したラベルであり,文内で解けるものは ERRANT によるエラータイプ,文外の文脈が必要なものは文脈幅で細分化を行った. また,一般的な知識が必要なものと誤りではないものは細分化は行わなかった. 小分類は文内の誤り箇所ごとにアノテーションする. ## 3 実験設定 ベースシステム実験に使用する文法誤り訂正システムとして, Kiyono ら [4] のシステムを使用する. Kiyono らのシステムは文法誤り訂正の代表的なベンチマークである CoNLL2014 [5],および BEA-2019 [6] において世界最高水準の性能を達成しており,文法誤り訂正の現状を分析をするうえで適していると考えられる。具体的には,本研究では Kiyono らのシステムにおける PRETLARGE+SEE (finetuned) モデルを使用した ${ }^{1)}$. なお,ハイパーパラメータは,バッチサイズを $16, \mathrm{~N}$-best の $\mathrm{N}$ に相当するビーム幅を 10 とし,それ以外を全て Kiyono らと同じ値に設定した。 データ本実験では,CoNLL-2013 [7] を分析対象のデータとして使用する. CoNLL-2013テストセットは,CoNLL-2013共通タスクで提供されたデータセットであり,文法誤り訂正分野では,開発データとして一般的に使用されている. 本実験では,アノテーションの前に, CoNLL2013テストセットの全 1,381 文の中から 1-best とオラクルが異なるようにサンプリングした 70 文に対し,それぞれ ERRANT を用いて 1-best の誤り箇所, エラータイプ, 編集操作の解析を行った.ここでの N-best は, CoNLL2013 テストセットを Kiyono らのシステムに入力した出力のうち, 出力確率の高い上位 10 文である. オラクル文は, N-best の各文に対して M2Scorer [8] で $\mathrm{F}_{0.5}$ を計算した中で最も $\mathrm{F}_{0.5}$ スコアが高い文である. そして, サンプリングした 70 文に対し, 大分類, 小分類の順でアノテーションを行った. アノテーションは2名で行った。  表 2 ERRANTによるエラータイプ(上位 5 項目) 表 3 大分類のアノテーション結果 ## 4 実験結果 表 2 に ERRANT による 1-best の解析結果を示す. エラータイプのうち,限定詞の誤りが最も多く,次点で動詞の時制,前置詞の誤りが多かった. 表 3 に大分類のアノテーション結果を示す. アノテーションの妥当性を測るために,2 名のアノテー ターの agreement を測ったところ,62.9\%であった. Cohen's kappa の值は 0.39 で, Landis and Koch [9] の基準では fair agreement に該当した. 表 4 に小分類のアノテーション結果を示す。文内で解けるもののうち,動詞の時制の誤りが最も多く,次点で前置詞,限定詞の誤りが多かった. 文外の文脈が必要なもののうち,39\%(33 箇所中の 13 箇所)は実際に使用しても解けないものであった.また,文外の文脈を使用して解けるもののうち, $85 \%$ (20 箇所中の 17 箇所)は前の文外の文脈を使用することで解けることがわかった. ## 5 分析・考察 本節では,リランキングを改善させる可能性のある要素を明らかにするために,大分類の 4 つの分類ラベルごとに 1-best の分析を行う. 文内で解けるもの文内で解ける 37 文(表 3)とサンプリングした 70 文を,ERRANT によるエラー タイプ上位 5 項目で比較をした. その結果,文内における 37 文における限定詞の割合が $15 \%$ 減少して 表 4 小分類のアノテーション結果 いた。そのため,文内の情報では,限定詞の誤りの訂正が難しいことが考えられる。 文外の文脈が必要なもの文外の文脈が必要と考えられる誤り箇所の 61\%(33 箇所中の 20 箇所)が実際に前後の数文を参照することで解くことができた.また,後ろの数文よりも前 1 文または前 2 文以前を参照すると解けるものが多いことがわかった。従って,リランキングの際に前後の出力文を考慮することは有効であり,特に前の数文を考慮することはリランキング性能を大きく向上させる可能性が考えられる。 一般的な知識が必要なもの一般的な知識が必要なものはサンプリングした 70 文のうち 1 文であったことから,常識やイディオムなどの一般的な知識はリランキング性能を向上させる上で必要な要素ではあるが,比較的その重要性は低いことがわかった. 誤りではないもの誤りではないものは $20 \%$ 存在していた. これは,オラクル文に対して 1-best が正当に評価されていないことを示している.つまり, 1-best とオラクル文の文意の差が大きくないにも関わらず,1-bestを過小評価してしまっている可能性がある. 従って,リランキング手法のみならず,文法誤り訂正システムの評価手法についても改善の余地があると考えられる。 ## 6 関連研究 文法誤り訂正システムの性能向上のために,様々な N-best のリランキング手法の研究が行われている. Mizumoto らはフレーズベース統計的機械翻訳を使い,品詞や依存関係などの統語情報を活用することでリランキング性能を向上した. Chollampatt らは対数線形モデルを使い,システムの候補文のスコアに編集操作と言語モデルによる特徴量を追加し, スコアの再計算をする手法を提案した. Hoang ら [10] は統計的機械翻訳システムによる文の修正を有効または無効に分類する分類器を構築し, N-best に分類器を使うことで各候補文を分類し,スコアを再計算することでリランキングを行った. Liu ら [11] は複数の候補文を用いて文法誤り訂正の品質推定を行う VERNet を提案し,トークンレベルの品質推定スコアを用いて高性能のリランキングを実現した。 ## 7 おわりに 本研究では,リランキング性能を改善させる可能性のある要素を分析するために,オラクル文を上位にリランキングするためにはどのような情報が必要かという観点で 1-best に対してアノテーションを行った. アノテーションの結果より, リランキングにおいて文内の情報を利用することは,動詞の時制や限定詞,代名詞などの長距離の文脈を必要とする際に有効であると考えられる。また,文外の文脈を考慮することが性能を向上させる有効な要素となりうると判明した. さらに,リランキング手法のみならず,評価手法についても改善の余地がある可能性が示された。 今後は,本研究で得られた知見を利用することによる,文内および文外の文脈を利用したリランキング性能に関する研究を行いたい。 ## 参考文献 [1] Tomoya Mizumoto and Yuji Matsumoto. Discriminative reranking for grammatical error correction with statistical machine translation. In NAACL, 2016. [2] Shamil Chollampatt and Hwee Tou Ng. A multilayer convolutional encoder-decoder neural network for grammatical error correction. In AAAI, 2018. [3] Christopher Bryant, Mariano Felice, and Ted Briscoe. Automatic annotation and evaluation of error types for grammatical error correction. In ACL, 2017. [4] Shun Kiyono, Jun Suzuki, Masato Mita, Tomoya Mizumoto, and Kentaro Inui. An empirical study of incorporating pseudo data into grammatical error correction. In EMNLP, 2019. [5] Hwee Tou Ng, Siew Mei Wu, Ted Briscoe, Christian Hadiwinoto, Raymond Hendy Susanto, and Christopher Bryant. The CoNLL-2014 shared task on grammatical error correction. In CoNLL, 2014. [6] Christopher Bryant, Mariano Felice, Øistein E. Andersen, and Ted Briscoe. The BEA-2019 shared task on grammatical error correction. In BEA, 2019. [7] Hwee Tou Ng, Siew Mei Wu, Yuanbin Wu, Christian Hadiwinoto, and Joel Tetreault. The CoNLL-2013 shared task on grammatical error correction. In CoNLL, 2013. [8] Daniel Dahlmeier and Hwee Tou Ng. Better evaluation for grammatical error correction. In ACL, 2012. [9] J. Richard Landis and Gray G. Koch. The measurement of observer agreement for categorical data. In Biometrics, 1977. [10] Duc Tam Hoang, Shamil Chollampatt, and Hwee Tou Ng. Exploiting n-best hypotheses to improve an SMT approach to grammatical error correction. In IJCAI, 2016. [11] Zhenghao Liu, Xiaoyuan Yi, Maosong Sun, Liner Yang, and Tat-Seng Chua. Neural quality estimation with multiple hypotheses for grammatical error correction. In NAACL, 2021.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G4-3.pdf
# 文分割による読みやすさへの影響に関する考察 土井惟成大西恒彰命苫昭平嶋根正輝高頭 俊 株式会社 日本取引所グループ \{n-doi, n-onishi, s-meitoma, m-shimane, s-takato\}@jpx.co.jp ## 概要 文構造が複雑な長文を読みやすくする方法として、長文を複数の短文に分割する文分割 (Sentence Splitting) という手法が挙げられる。本研究では、上場会社開示資料中の文を対象として、人手による長文の文分割が、読みやすさに関する指標にどのような影響を及ぼすか考察する。実験では、評価指標として、サプライザルの総和や係り受け木の深さを利用した。この結果、文分割による長文の文分割によって、係り受け木の深さが平均 $36 \%$ 程度低減することを示した。 ## 1 はじめに 東京証券取引所 (以下、東証) は、 3,800 社を超える企業 (2022 年 1 月時点) が上場している世界最大の証券市場の一つである。公正で透明な株価形成の確保の目的から、東証上場会社には、投資家の投資判断に影響を与えうる情報を、東証が運営する Web システム (以下、TDnet) を通じて適時適切に公表する義務が課されている。本稿では、上場会社が TDnetを通じて開示する書類を、開示資料と呼ぶ。 開示資料の規模は膨大であり、2020 年における日本語の開示資料は約 10.6 万文書、総ぺージ数は約 86 万ページに及んでいる。そのため、開示資料の読者にとっては、膨大なデータから投資判断上有用な情報を取得するために、機械翻訳や自動要約といった技術を活用し、情報処理に係る負担を抑えたいというニーズがあると推察する。しかしながら、開示資料には長文をはじめとする文構造が複雑な文が多く、機械的な処理の精度が低くなりやすい [1]。文構造が複雑な長文を読みやすくする方法として、長文を複数の短文に分割する文分割 (Sentence Splitting) が挙げられる。開示資料中の文の機械翻訳による英訳精度の向上を目的とした、人手による前処理手法を検討した研究では、文分割による短文化 図 1 文分割コーパスの作成手順の概要 が特に有効だったことを示した $[2,3]$ 。一方で、文分割によって文にどのような変化が生じているかについては、定量的には明らかになっていない。本研究では、開示資料中の文を対象として、人手による長文の文分割が、読みやすさに関する指標にどのような変化を及ぼすかについて考察する。具体的には、開示資料の一種である $\mathrm{CG}$ 報告書から作成した日英対訳コーパス(以下、 $\mathrm{CG}$ 報告書対訳コー パス)[2]をもとに、英文における文分割を踏まえつつ、人手にて原文に文分割を施し、小規模なコーパスを作成した。本稿では、原文に文分割を施すことで得られた複数の文を総称して分割文、原文と分割文で構成されるコーパスを文分割コーパスと呼ぶ。文分割コーパスの作成の流れを図 1 に示す。そして、小規模な文分割コーパスを対象に読みやすさに関する指標を算出し、それぞれを比較することで、文分割に係る示唆を得ることを目指す。 ## 2 関連研究 ## 2.1 文分割 (Sentence Splitting) 先行研究 [4] では、開示資料の日英対訳コーパスにおける、1文に対して英文が複数の文に分割されている対訳に着目し、その傾向を分析した。具体的には、 $\mathrm{CG}$ 報告書対訳コーパスから、英文が複数文 表 1 文分割のパターン \\ に分割されている対訳を抽出し、和文と英文における文構造の変化を、特許ライティングマニュアル [5]における、言い換えルールカテゴリ 1「短文にする」の言い換えルールに当てはめた。この文分割のパターンの内容を表 1 に示す。本研究では、当該研究の手順を参考にして、文分割コーパスの作成手順を策定した。 日本語における機械的な文分割の手法として、係り受け解析の結果を元に文を適切な箇所で区切り、主語、文末表現、接続詞を補完するという手法が提案されている [6]。この手法は、表 1 における「1. 文節での分割」に相当すると考えられる。また、近年では、英文における機械的な文分割の手法として、 seq2seq モデルを用いた手法が提案されている [7]。文分割のパターンの網羅や大規模な文分割コーパスの作成によって、日本語の開示資料についても高精度な機械的な文分割が期待できると推察する。 ## 2.2 読みやすさの指標 文の読みやすさの指標は、自然言語処理システムの出力結果の品質評価をはじめとして、幅広い用途で利用されている $[8]$ 。その中でも、内容の理解に必要なリテラシー (学校教育年数) を表したものが、読みやすさの評価指標として広く利用されている。英語におけるこのような評価指標を推定する手法として、Gunning Fog Index[9] や Flesch-Kincaid [10] がある。これらの手法では、文の平均単語数と単語の複雑性をもとに、米国の学年レベルに対応するスコアを算出する。また、Schwarm らは、言語モデルの複雑さ (perplexity) や係り受け木の深さ等の素性の有用性を報告している [11]。日本語を対象とした同様の評価手法としては、日本語の教科書コーパスに基づいて導出された、 1 文字ごとの集計値 (unigram)を用いた Sato らの評価式 [12] や、形態素等を用いた Shibasaki らの評価式 [13] がある。 また、読みやすさの評価指標として、文の読み時間を用いた研究も行われている [14]。近年、日本語の書き言葉の読み時間に係る研究では、新聞記事データの文に読み時間を付与したコーパス (BCCWJ-EyeTrack) が利用されている [15]。文の読み時間と関連する指標として、サプライザル理論に基づくサプライザルが指摘されている $[16,17,18]$ 。 Kuribayashi は、BCCWJ-EyeTrackをもとにサプライザルのモデリングを行い、人間の文処理の計算モデルと言語モデルの関連について報告している [19]。 ## 3 データセット: 文分割コーパス 本研究では、先行研究 [2] を踏まえ、 $\mathrm{CG}$ 報告書対訳コーパスをもとにした、人手による文分割コーパスの作成手順を策定した。CG 報告書対訳コーパスは、2019 年 7 月までに日本語及び英語で開示された CG 報告書から抽出した、全 591 文対の日英対訳コーパスであり、和文が 100 文字以上の文で構成されている。文分割コーパスの作成手順は次のとおりである。 1. 改行を含む対訳や、原文と英文で文意が均衡していない対訳を削除する。 2. 原文 1 文に対して、英文が複数の文に分割されている対訳文を抽出する。 3. 原文と英文の文構造を比較し、表 1 を元に文分割のパターンを判断する。 4. 英文の文構造を踏まえつつ、文の流暢さと正確さを損なわないように、原文に文分割を施す。 本研究では、この手順に従って、全 146 文対の文分割コーパスを作成した。文分割コーパスの統計情報を表 3、原文における文字列長の出現頻度の分布を図 2 に示す。表 3 のとおり、文分割コーパスに含まれる分割文のパターンは「1. 文節での分割」と 「2. 文節間距離の圧縮」のみであった。これらの文分割の例を表 2 にそれぞれ示す。以下では、手順 4. の文分割で見られた傾向について、文分割のパター ンごとに述べる。 「1. 文節での分割」では、原文と英文で語順が同一であることが多かった。そのため、英文から分割すべき箇所が判明すれば、当該箇所で文を区切り、主語、文末表現、接続詞を補完することで文分割は完了した。したがって、人手による文分割の作業としては、比較的容易であった。なお、本手順においては、原文から文意が乘離しない限りにおいて、補足する語句は英文に合わせた。ただし、補足する主 表 2 文分割の例 (分割文における強調箇所は原文との差分を表す) 図 2 文分割コーパスにおける原文の文字列長の分布 語が長過ぎる場合(例:会社名)は、文の流暢さを優先して、後半の文の主語は省略するといった対応を行った。 「2. 文節間距離の圧縮」では、原文と英文で語順が異なるため、文全体の構造を踏まえつつ、節の係り受けや分割する箇所を検討する必要がある。その結果として、表 3 のとおり「1. 文節での分割」よりも編集距離が大きくなり、文分割の作業としては比較的労力が大きいと言える。 ## 4 実験 ## 4.1 実験設定 本実験では、文分割コーパスをもとに、原文と分割文に対して読みやすさに関する指標を算出し、それぞれの指標の変化を評価する。読みやすさに関する指標として、文字列長、トークン数、係り受け木の深さ、サプライザルを採択した。文字列長とトークン数は、文の複雑さを簡易的に測る指標と して広く使われており、特にトークン数は文の読みやすさと有意に相関することが報告されている [20,21]。係り受け木の深さは、文構造の複雑さを表す指標であり、読みやすさとの関連が報告されている $[20,11]$ 。サプライザルは、トークンごとの読み時間に関連すると考えられている指標である [16]。本実験では、文分割によってサプライザルの総和は低減するという仮説を立て、これを指標として採択した。なお、読みやすさの指標として、語彙に関連する指標 (例: 単語の難しさ等) が広く使われるが、文分割では語彙の平易化は行わないことから、これらの利用は見送った。 トークン数の算出に当たっては、後述するサプライザルと同様に、 $\mathrm{MeCab}$ [22] と UniDic を用いて入力文のトークン化を行った。サプライザルは、 Kuribayashi のコード ${ }^{11}[19]$ を用いてトークン単位のサプライザルを算出し、その総和を指標として用いた。なお、分割文の文字列長、トークン数、サプライザルを算出する時は、文境界で分割せず、分割後の複数の文を 1 つの入力文とした。トークン単位のサプライザルの算出結果の例を図 3 に示す。 係り受け木の深さの算出には、(GiNZA ${ }^{2}$ による係り受け解析を行った。分割文については、文境界で分割し、各短文に対して係り受け解析を行い、係り受け木の深さの最大値を指標として用いた。 ## 4.2 実験結果及び考察 原文と分割文における各指標の評価結果を表 4 に示す。まず、全体的な傾向として、文分割によって文字列長とトークン数が増加傾向にあった。この理由として、文分割では一文ごとの文字列長やトーク  ## 原文: 分割文: 図 3 トークン単位のサプライザルの算出結果の例 (点線での强調は、文分割によってトークンに変化が生じた箇所の付近を示す) 表 4 各指標の評価結果 (いずれも平均值) 係り受け木深さの増減率 図 4 係り受け木の深さの増減率の分布 図 5 サプライザルの総和の差分の分布 ン数は少なくなるが、全体としては、文分割と共に行う語句の補完による影響を受け、これらの指標が増加したものと推察する。 係り受け木の深さは、図 4 のとおり、全体的に浅くなっており、増減率の平均値は-36.0\%だった。この結果は、長文の文分割によって文構造の把握しやすさが向上することと䶡は無く、文分割による読みやすさへの影響を定量的に示すものと考える。 サプライザルの総和の差分 図 6 サプライザルの総和とトークン数の差分の散布図 一方で、サプライザルの総和を見ると、ほとんどの分割文において上昇していることが確認された。図 5 及び図 6 に、サプライザルの総和の差分とトー クン数の差分の分布を示す。図 6 より、サプライザルの総和とトークン数には強い正相関が認められており (相関係数: 0.934、 $\mathrm{p}$ 値: <0.001)、サプライザルの総和は文分割によるトークン増加の影響を強く受けているものと推察する。すなわち、サプライザルの総和は、文分割によるトークン数の増加によって増加しており、文分割による低減は認められなかった。この結果から、文分割による読みやすさの変化の評価には、各トークンのサプライザルの総和が適しているとは言えなかった。そのため、文全体の総和ではなく、文節やトークンといった、より細かい粒度でのサプライザルを通じた分析が、今後の課題として考えられる。また、今回サプライザルの算出に用いた言語モデルが、開示資料中の文の言語モデルと乘離している可能性もあり、この検証も課題の一つとして挙げられる。 ## 5 おわりに 本研究では、上場会社開示資料中の一種である $\mathrm{CG}$ 報告書を対象として、人手による長文の文分割による、読みやすさに関する指標への影響について分析した。実験の結果、長文の文分割によって、係り受け木の深さが平均 36\%程度低減することを示した。一方、サプライザルの総和による指標では、文分割による読みやすさへの影響は評価できなかった。本研究は、作成した文分割コーパスは 146 文対と小規模なものであり、試験的な研究であったことから、データセットの拡充等を通じて、文分割に係るより広範かつ詳細な分析を検討したい。 ## 謝辞 本研究において、東京大学先端科学技術研究センターの田中久美子教授に有益なご助言を戴いた。ここに記して謝意を表する。 ## 参考文献 [1] Nobushige Doi, Yusuke Oda, and Toshiaki Nakazawa. TDDC: Timely disclosure documents corpus. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 3719-3726, Marseille, France, May 2020. European Language Resources Association. [2] 土井惟成, 大西恒彰, 百石弘澄, 高頭俊, 山藤敦史. 上場企業開示資料の機械翻訳におけるプリエディットの検討. 言語処理学会第 26 回年次大会 (NLP2020), pp. 525-528, 32021. [3] 土井惟成. プリエディット手法としての産業日本語に関する一考察. In Japio YEAR BOOK 2020, pp. 324-331, 2020. [4] 土井惟成. 上場会社開示資料の英訳文における文分割に関する考察. In Japio YEAR BOOK 2021, pp. 326-331, 2021. [5] 一般財団法人日本特許情報機構特許情報研究所. 特許ライティングマニュアル (第 2 版), 第 2 版, 32019. [6] 美野秀弥, 田中英輝. やさしい日本語ニュースのための自動文分割. 言語処理学会第 9 回年次大会 (NLP2013), pp. 264-267, 32013. [7] Shashi Narayan, Claire Gardent, Shay B. Cohen, and Anastasia Shimorina. Split and rephrase. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 606-616, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [8] Saku Sugawara, Yusuke Kido, Hikaru Yokono, and Akiko Aizawa. Evaluation metrics for machine reading comprehension: Prerequisite skills and readability. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 806-817, 2017. [9] Gunning Robert. The technique of clear writing. New York, 1952. [10] J Peter Kincaid, Robert P Fishburne Jr, Richard L Rogers, and Brad S Chissom. Derivation of new readability formulas (automated readability index, fog count and flesch reading ease formula) for navy enlisted personnel. Technical report, Naval Technical Training Command Millington TN Research Branch, 1975. [11] Sarah Schwarm and Mari Ostendorf. Reading level assessment using support vector machines and statistical language models. In Proceedings of the 43rd Annual Meeting of the Association for Computational Linguistics (ACL'05), pp. 523-530, Ann Arbor, Michigan, June 2005. Association for Computational Linguistics. [12] Satoshi Sato, Suguru Matsuyoshi, and Yohsuke Kondoh. Automatic assessment of Japanese text readability based on a textbook corpus. In Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC'08), Marrakech, Morocco, May 2008. European Language Resources Association (ELRA). [13] Hideko SHIBASAKI and Katsuo TAMAOKA. Constructing a formula to predict school grades 1-9 based on japanese language school textbooks. Japan Journal of Educational Technology, Vol. 33, No. 4, pp. 449-458, 2010. [14] Alan Kennedy, Joël Pynte, Wayne S Murray, and ShirleyAnne Paul. Frequency and predictability effects in the dundee corpus: An eye movement analysis. Quarterly Journal of Experimental Psychology, Vol. 66, No. 3, pp. 601-618, 2013. [15] Masayuki Asahara. Between reading time and information structure. Proceedings of the 31st Pacific Asia Conference on Language, Information and Computation, pp. 15-24, 2017. [16] John Hale. A probabilistic Earley parser as a psycholinguistic model. In Second Meeting of the North American Chapter of the Association for Computational Linguistics, 2001. [17] Roger Levy. Expectation-based syntactic comprehension. Cognition, Vol. 106, No. 3, p. 1126-1177, 2008. [18] 栗林樹生, 大関洋平, 伊藤拓海, 吉田遼, 浅原正幸, 乾健太郎. 日本語の読みやすさに対する情報量に基づいた統一的な解釈. 言語処理学会第 27 回年次大会 (NLP2021), pp. 723-728, 32021. [19] Tatsuki Kuribayashi, Yohei Oseki, Takumi Ito, Ryo Yoshida, Masayuki Asahara, and Kentaro Inui. Lower perplexity is not always human-like. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 5203-5217, Online, August 2021. Association for Computational Linguistics. [20] 渡邊亮彦, 村上聡一朗, 宮澤彬, 五島圭一, 柳瀬利彦,高村大也, 宮尾祐介. TRF: テキストの読みやすさ解析ツール. 言語処理学会第 23 回年次大会発表論文集, pp. 477-480, 2017. [21] Emily Pitler and Ani Nenkova. Revisiting readability: A unified framework for predicting text quality. In Proceedings of the 2008 Conference on Empirical Methods in Natural Language Processing, pp. 186-195, Honolulu, Hawaii, October 2008. Association for Computational Linguistics. [22] Taku. Kudo. Mecab : Yet another part-of-speech and morphological analyzer. http://mecab.sourceforge.net/, 2005 .
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G5-1.pdf
# 言語モデルの統語構造把握能力を測定する より妥当な多言語評価セットの構築 神藤駿介 1,2 能地宏 ${ }^{3,2}$ 宮尾祐介 1,2 1 東京大学大学院 情報理工学系研究科 2 産業技術総合研究所人工知能研究センター ${ }^{3}$ LeapMind 株式会社 \{kando.s, yusuke\}@is.s.u-tokyo.ac.jp noji@leapmind.io ## 概要 近年言語モデルの統語構造把握能力を評価する研究が盛んだが,それらは英語テキストを用いたものに偏っている. 本研究ではそのような評価セットを生のコーパスから多言語で自動的に抽出する手法を提案する. 既存研究は依存構造木から評価セットを自動的に抽出するアルゴリズムを提案しているが,実際には抽出データのほとんどが統語構造の把握を要しない容易なタスクとなっており, 妥当な評価セットを構築できていたとは言えないことが分かった. 本研究では, 同じアルゴリズムを用いつつ評価セットの抽出量を増やすことで, より妥当な評価セット構築を目指す。 ## 1 はじめに 近年 [1]を発端に, 言語モデルの統語構造把握能力を評価セットを用いて直接的に測定する研究が盛んに行われている.そのような評価セットは多くの場合は以下のような文法的に正しい文と誤っている文の組(ミニマルペア)から成る: The farmer near the clerks knows / *know. 評価においては 2 つ文を評価対象の言語モデルに入力し, 文法的に正しい文により高い確率が付与されるかどうかを見る. know の正しい活用形はその主語(farmer)を正確に把握することによって判断されるが,この例では farmer が前置詞句で修飾されており,この文法的な構造を把握できていないとより距離的に近い clerks に引きづられて誤った判断をしてしまう恐れがある. 評価セット構築およびそれによる言語モデルの評価に関する研究は英語テキス卜を対象にしたものが数多くあるが $[2,3,4]$, その結論は大枠では一致している. すなわち, LSTM [5] をはじめとする単方向モデルの性能には限界がある一方で,BERT [6] をはじめとする双方向 Transformer 系モデルや RNNG [7] といった階層構造を取り入れたモデルの性能が高いことが知られている. これらの研究は多言語でも徐々になされており,評価セットの作成方法としてはテンプレートを元に構築する手法 [8] と, 依存構造ツリーバンクから自動抽出する手法 [9] がある.前者のアプローチはコストが高く, より多様な言語の評価セットを構築するにあたっては後者のアプローチがより適しているが, [9] においては LSTM が十分な性能を有するという他の研究と食い違う主張がなされている. 本研究では,まず [9] で公開されている評価セットの問題点を指摘し,実際にはLSTM の性能が高いとは言えないこと, RNNGのような階層的なモデルが依然として優位にあることを立証した。既存の評価セットの具体的な問題点は, 統語構造の正確な把握を要しないケースがほとんどを占めており,実際に構造把握を要するケースの個数は非常に限られていることである.そこで,構文解析を施したコーパスを利用してデータ抽出量を大幅に増やすことでその問題点を解決し, 言語モデルの統語構造把握能力をより正当に評価できる妥当な評価セットを構築する手法を提案する. 3 つの言語での抽出実験の結果, 構造把握を要するケースを最低でも 70 倍程度増やすことに成功した。 研究のモチベーション我々はRNNG を多言語で学習する手法を提案し [10], 事前の研究でそれが 5 つの言語の評価セットである CLAMS [8] において高い性能を記録することを確認した。この手法の適用範囲を模索していくにあたってはより多様な言語での評価セットが必要であり, 本研究はそれに向けての第一段階である. 図1: 評価データを抽出できる依存構造木の例 ## 2 既存評価セットの問題点の指摘 ## 2.1 既存研究 [9] の概要 Gulordava ら [9] は, 依存構造木から評価セットを自動的に抽出するアルゴリズムを提案している.抽出手順の概略は以下の通りである. 1. 依存構造ツリーバンクを読み込んで各語彙の情報を集計し,品詞表を得る。 2. ツリーバンクから依存関係の距離が比較的長いパターンを有するデータを取り出し,その依存関係に数の一致現象があるとみなされるものだけを抽出する。 3. 2. で得られたデータについて, 1. で得られた品詞表を参照して依存関係の右側の単語を書き換えてミニマルペアを作成する. 例えば図 1 の依存構造木において nsubj のラベルに注目すると,エッジで結ばれた二つの単語の数の素性(Number=Sing)が一致している.これと同じタイプの依存関係のデータを収集して常に数の素性の一致が観察される場合(つまり Number=Plur という一致も十分量存在する場合), このデータは一致現象があるとみなされる。ミニマルペアの作成については, 品詞表を参照して依存関係の右側の単語 “laughs”を Number=Plur の特徵をもつ “laugh”に入れ替えることでなされる,以下,依存関係の左側と右側の単語をそれぞれ cue / target と呼ぶ. Gulordava らはこのアルゴリズムを Universal Dependencies (UD) [11] のイタリア語・英語・ヘブライ語・ロシア語の訓練セットに適用して得られた評価セットを公開しており1),これを元に言語モデルの評価を行って LSTM の性能が十分に高いことを主張している.これは自動化に頼らないより妥当性の高いアプローチで多言語の評価セットを作成している [8] とは異なる結論であり,疑問の余地が残る.  colorless 文の作成ツリーバンクから抽出された評価セットに加え,各文の内容語を同一品詞 $\cdot$同一素性を持つ別の語にランダムに置き換えた文を生成する。以下,このランダムな文を colorless 文と呼ぶ. colorless 文は「文法性と意味とは切り離して考えられる」という説 [12] に基づいて生成されている。例えば,我々は “Colorless green ideas sleep furiously.”という文を読んだとき,意味は分からないが文法的には正しいと判断ができる. colorless 文はこのような文を得る目的で考案されており,モデルが語彙情報をもとにタスクを解けなくするようにしている。一方で colorless 文は述語項構造の制約を考慮できないという問題点もあり, 本来自動詞である “stay”が “It stays the shuttle”というように誤用されたケースが生成されることがある. 語彙をベースにしたデー夕選別最後に,言語モデルによる評価の妥当性を高めるため,抽出されたデータの cue と target の間の全ての単語が言語モデルで事前に定義された語彙に含まれるケースのみを抽出する。 ## 2.2 Attractor の有無に関する分析 ## 2.2.1 概要 我々は [9] の評価セットのデータを attractor の有無によって分類し再度評価を行うことで,評価デー タが統語構造の把握能力をものとして本当に妥当なものであるかを調査した。attractor とは, cue と target の間にある単語で, cue と品詞は同じで数の素性が異なるものを指す。図 1 においては “boys”が attractor である. attractor は cue よりも target の近くにあるため,LSTM のような単方向のモデルだと attractor に引きづられて target の正しい活用形を間違えてしまう可能性が高まる。したがって, attractor のあるデータは解くのが難しいと言える。一方で attractor の存在しないケースは次の二つに分けられる: (1) cue と target の間に cue と同じ品詞の単語がないケース. (2) cue と同じ品詞の単語はあるが,数の素性が cue と同じケース. (1)の場合は cue と target の品詞の情報のみを手がかりにして解けてしまい, (2) の場合は cue ではなく間の単語を手がかりにしても解けてしまうことから,いずれにせよ attractor が存在しないケースは統語構造の把握能力を測定するデータとしては不適格であり,解くのが容易なデータであると言える. 表 1: Gulordava らが公開しているデータセットの統計量および言語モデルによる精度. サブキャプションに attractor の無いデータの割合を括弧書きで示した. 各データを元に合計で 9 個の colorless 文を生成しているため, 元データのサイズは表記されている量の 1/10である. (a) 英語 $(80 \%)$ (b) ヘブライ語 $(73 \%)$ (c) ロシア語 $(95 \%)$ ## 2.2.2 実験設定 実験では, Gulordava らが公開している評価セットのうち英語・ヘブライ語・ロシア語について分析を行う. 評価セットを attractor の個数によって切り分け,それぞれ言語モデルで評価して精度を比べる。言語モデルとしてLSTM およびRNNG を用いて結果を比べる.LSTM の各パラメタは [13] のものを用いる. RNNG は [10] に倣って学習する。ただし, 構造は flat なものを用い, 非終端記号には dependency label を付与する. RNNG の訓練データは各言語の Wikipedia 記事を $80 \mathrm{M}$ token だけ取り出して UDify [14] で解析して作成し, LSTM の訓練データも同じ文を用いる。 ## 2.2.3 結果 データ数の統計および言語モデルの精度を表 1 に示す.いずれの言語においても attractor が存在しないケースが大多数を占めており,なおかついずれ のモデルもその精度が高いことが見て取れる. 一方で attractor が存在するケースでは, LSTM はどの言語でも明らかな精度減少が観察される. RNNG は英語とロシア語では attractor があっても高い精度を維持しており, ヘブライ語においてもLSTM より良い精度を記録している。 以上のことをまとめると, [9] における「LSTM の文法構造把握能力が高い」という結論は実際には統語構造の把握能力を要しないデータが大多数を占めているがために導かれたものであり,モデルの性能を正確に評価するには attractor のあるケースを用いる必要がある. ## 3 構文解析を用いたデー夕拡張 ## 3.1 概要 前節では attractor のあるデータを用いて評価を行うことの重要性について述べたが,表 1 からも見てとれるように実際には attractor のあるデータは非常に少ない. colorless 文を増やすことも考えられるが,述語項構造が誤った文も生成されてしまうことから望ましくない. Kasai と Frank [15] は colorless 文の構文解析の実験を行い,述語項構造が誤っていることが原因でその性能が悪くなることを指摘しており,これは言語モデルの評価にも影響を及ぼす懸念がある。したがって,より評価セットとしての妥当性を高めるに当たっては元の抽出データ量自体を増やすことが必要となる.そこで我々は UD のデータから抽出する代わりに,生のコーパスを構文解析することで多量のツリーバンクを得てから抽出を行い,どれくらいデータが抽出できるかを調査した.本実験の目標は評価セットを作成することであるため, 出来る限り信頼のおける構文解析結果を用いたい. そこで我々は二つの構文解析器の解析結果が一致するとみなせるようなケースだけを取り出すことで信頼のおけるデータの抽出を試みた。 ## 3.2 実験設定 本実験においてはイタリア語・英語・ロシア語の評価セット抽出を行う.まず各言語の Wikipedia 記事を $100 \mathrm{M}$ token 分用意した。この際,短すぎる文は長距離の依存関係が存在しないこと,長すぎる文は解析結果が一致しづらくなることを考慮し,一文あたりの token 数が 9 以上 40 以下のものだけを取り出すこととした。構文解析には UD をべース 表 2: 評価セットの抽出結果. 評価セット数およびそのうち attractor を含むものの数(4,5 列目)については, Gulordava らが公開している評価セットのデータ数を括弧書きで示した. attractor の数ごとの統計は付録の表 3 に示す. にした構文解析器である Trankit [16] と Stanza [17] を用いた。得られた 2 つの依存構造木において, CoNLL-U format ${ }^{2}$ の 10 のフィールドのうち主要な 4 つ(UPOS, FEATS, HEAD, DEPREL)が全て一致するものを取り出した。なお,本手法ではサブワードを用いた言語モデルによる評価を見越して,語彙による選別は行っていない. ## 3.3 結果 表 2 に抽出できた評価セットの統計量を示す.いずれの言語においても, attractor のあるケースを評価セットとして十分な数だけ抽出できたと言える. なお, 英語の評価セットが極端に少ないのは, 英語が形態的に貧弱であるために数の一致現象自体が少ないことに起因する。 ## 4 今後の課題 抽出データを増やすことは出来たが,まだいくつか課題が残されている. 第一に,抽出した評価セットの質を評価する必要がある. 解析結果の一致をとることで出来るだけ正確な木構造を得るよう工夫はしているものの,今回の評価セットはあくまで予測された木構造から得られたものであり, 信頼のおけるデータであるとは限らない,最も直接的に質を評価する方法としてはクラウドソーシングを用いた人手による評価があり得る. 間接的な手法としては, n-gram をはじめとするナイーブな言語モデルが解けないような評価セットとなっていることを確かめることも考えられる.加えて, 今回は二つの解析結果を元により正確な木構造を取り出したが,単一の構文解析器の出力を用いて抽出した評価セットの質が十分に高いこともあり得る.仮にそうであれば,構文解析の一致をとるステップは時間的コストが大きい上にデータの抽出量も減るため不要とみなされることになる.したがっ て,単一の構文解析器による実験も行ってここの是非を確認する必要があるだろう。 第二に,一つ目の課題と少し被るが,抽出データを用いて実際に言語モデルを評価する実験が必要である. LSTM や RNNG の評価結果が Gulordava らが公開している gold な木構造から作成されたデータセットのそれと大きく異なることがあれば,やはりデータセット自体の質を疑わなくてはならない。また,扱う言語の種類によって言語モデルの性能が変わってくるのかなどと言った多言語モデリングの観点からの研究にも大きな意義がある. 第三に,本手法を実際に他の言語に適用することが必要である.実は抽出アルゴリズムを動かすにあたっては,ツリーバンクによっては何らかの前処理を施す必要がある.例えば英語の UD のツリーバンクには動詞に Number=Plur という特徴を明示的にアノテーションしないという決まりがあり,この情報を前処理で付与しないと評価セットを抽出できなくなってしまう。また,本研究では [9] では取り扱われているへブライ語の抽出を行っていないが,これは既存コードの前処理用のスクリプトが何らかの理由で動作しなかったためである。このように,各言語ごとに自明でない前処理が発生し得るため, 各言語ないしツリーバンクのアノテーション規約はどうなっているのか,より一般にはどのような前処理を施せば滞りなく抽出できるのかなどを丁寧に調査する必要がある. ## 5 おわりに 本研究では, 言語モデルの統語構造把握能力を測定するより妥当な多言語評価セットの構築を行った。評価セットの質の評価をはじめ今後解決すべき課題はあるが,この研究を進めていくことで多言語モデリングにおける新たな評価指標を確立し,分野に貢献できることを期待する。  ## 謝辞 この成果は, 国立研究開発法人新エネルギー・産業 技術総合開発機構 (NEDO) の助成事業 (JPNP20006) の結果得られたものである. 産総研の $\mathrm{AI}$ 橋渡しク ラウド $(\mathrm{ABCI})$ を利用し実験を行った。 ## 参考文献 [1] Tal Linzen, Emmanuel Dupoux, and Yoav Goldberg. Assessing the ability of LSTMs to learn syntax-sensitive dependencies. Transactions of the Association for Computational Linguistics, Vol. 4, , 2016. [2] Adhiguna Kuncoro, Chris Dyer, John Hale, Dani Yogatama, Stephen Clark, and Phil Blunsom. LSTMs can learn syntax-sensitive dependencies well, but modeling structure makes them better. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), 2018. [3] Alex Warstadt, Alicia Parrish, Haokun Liu, Anhad Mohananey, Wei Peng, Sheng-Fu Wang, and Samuel R. Bowman. BLiMP: A benchmark of linguistic minimal pairs for English. In Proceedings of the Society for Computation in Linguistics 2020, 2020. [4] Jennifer Hu, Jon Gauthier, Peng Qian, Ethan Wilcox, and Roger Levy. A systematic assessment of syntactic generalization in neural language models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020. [5] Sepp Hochreiter and Jürgen Schmidhuber. Long shortterm memory. Neural Comput., Vol. 9, No. 8, 1997. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), 2019. [7] Chris Dyer, Adhiguna Kuncoro, Miguel Ballesteros, and Noah A. Smith. Recurrent neural network grammars. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2016. [8] Aaron Mueller, Garrett Nicolai, Panayiota Petrou-Zeniou, Natalia Talmina, and Tal Linzen. Cross-linguistic syntactic evaluation of word prediction models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020. [9] Kristina Gulordava, Piotr Bojanowski, Edouard Grave, Tal Linzen, and Marco Baroni. Colorless green recurrent networks dream hierarchically. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), 2018. [10] 神藤駿介, 能地宏, 宮尾祐介. 依存構造から句構造への変換による多言語モデリングに向けて. 言語処理学会第 27 回年次大会, 2021 . [11] Joakim Nivre, Marie-Catherine de Marneffe, Filip Ginter, Jan Hajič, Christopher D. Manning, Sampo Pyysalo, Sebastian Schuster, Francis Tyers, and Daniel Zeman. Universal Dependencies v2: An evergrowing multilingual treebank collection. In Proceedings of the 12th Language Resources and Evaluation Conference, Marseille, France, 2020. [12] Noam Chomsky. Syntactic Structures. Mouton and Co., 1957. [13] Hiroshi Noji and Hiroya Takamura. An analysis of the utility of explicit negative examples to improve the syntactic abilities of neural language models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020. [14] Dan Kondratyuk and Milan Straka. 75 languages, 1 model: Parsing Universal Dependencies universally. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), 2019. [15] Jungo Kasai and Robert Frank. Jabberwocky parsing: Dependency parsing with lexical noise. In Proceedings of the Society for Computation in Linguistics (SCiL) 2019, 2019. [16] Minh Van Nguyen, Viet Dac Lai, Amir Pouran Ben Veyseh, and Thien Huu Nguyen. Trankit: A light-weight transformer-based toolkit for multilingual natural language processing. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: System Demonstrations, 2021. [17] Peng Qi, Yuhao Zhang, Yuhui Zhang, Jason Bolton, and Christopher D. Manning. Stanza: A python natural language processing toolkit for many human languages. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, 2020 . ## A評価セットの attractor 数ごとのデータ数の統計 表 3: 本研究で作成した評価セットおよび Gulordava ら [9] が公開している評価セットの attractor 数ごとのデー 久数の統計. (a)イタリア語 (b) 英語 (c) ロシア語
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G5-2.pdf
# Holographic Embeddings による CCG 構文解析 山木良輔 1 谷口忠大 ${ }^{1}$ 持橋大地 ${ }^{2}$ 1 立命館大学 情報理工学部 2 統計数理研究所 \{yamaki.ryosuke,taniguchi\}@em.ci.ritsumei.ac.jp daichi@ism.ac.jp ## 概要 本研究では知識グラフをべクトル空間に埋め込むための手法である Holographic Embeddings を CCG 構文解析に適用することで,単語分散表現から句や文の分散表現を再帰的に構成し,文の構成要素間の依存関係を明示的にモデリングする手法を提案する。 そして,提案手法が CCG における Supertagging 精度の向上に有効であることを示し,さらに句の分散表現を用いることで句に対するカテゴリ割当を直接的に予測しながら句構造を探索する Span-based Parsing アルゴリズムを導入する.実験結果から,提案手法は Supertagging 精度において既存モデルを上回る性能を示し,構文解析の精度においても,同じ C\&C パーザを用いる中で世界最高性能を達成した. ## 1 はじめに 自然言語処理において,文の背後に潜む統語構造を解析する技術として構文解析が存在する. 構文解析は統語的な曖昧性の解消に役立つため,質問応答や機械翻訳など,様々な自然言語処理アプリケー ションの基盤技術として活用されている. 構文解析のうち,特に単語間に存在する階層関係・句構造を明らかにすることに焦点をおいたものとして句構造解析,そして解析に用いられる文法理論の 1 つとして組み合わせ範疇文法 (Combinatory Categorial Grammar, CCG) [1] がある. CCG は語彙化文法の一種であり,文中の各単語に対してその単語の文法的機能を示すカテゴリを与え,それらを組み合わせ規則に従って組み合わせることで統語構造を計算する.ここで,各カテゴリは $\mathrm{S}$ : 文, $\mathrm{N}$ : 名詞, $\mathrm{NP}$ : 名詞句などの基本カテゴリと"/","|" を再帰的に組み合わせることによって構成され,単語の文法的機能に関する情報を多く含む. CCG を用いることで単語間の長距離依存関係や並列構造など,自然言語に存在する複雑な統語構造を簡潔に表現可能であることが知られている。 図 1 埋め込み空間上でのベクトルの再帰的な合成. CCG では句構造の探索に先立って,各単語に尤もらしい CCG カテゴリ (Supertag)を割り当てる Supertagging という処理が行われることが一般的であり,これによって句構造の探索空間が大幅に削減され,探索効率が向上する [2]. ここで,既存の Supertagging 手法には LSTM,Transformer などのニューラルネットワークベースのエンコーダを用いることで各単語に割り当てられるカテゴリを分類問題として予測するモデル $[3,4]$ や,単語ごとに尤もらしいカテゴリを生成するモデル $[5,6,7]$ が存在する. 文の構成要素である単語や句の間に存在する依存関係や階層関係のモデリングの観点からみると,既存手法ではこれらの関係をニューラルネットワー クを用いて非明示的にモデリングしているものが多い. これに対し,本研究では Holographic Embeddings (HolE) [8] を用いて,図 1 に示すような埋め込み空間上でのベクトルの再帰的な合成を行うことで, Supertagging モデルに単語や句同士の依存関係を明示的に組み込む手法を提案する。また,ベクトルの再帰的合成によって得られる句の分散表現を活用した新たな構文解析アルゴリズムを導入し,依存関係の明示的なモデリングの CCG 構文解析における有用性について検証する。 ## 2 Holographic Embeddings Nickel らは知識グラフをべクトル空間に埋め込むための手法として Holographic Embeddings [8] を提案 した. 知識グラフは複数の実体と, それらの関係性を表したエッジから構成されるグラフ構造のデータであり,知識グラフをべクトル空間上でモデリングするためには, 各実体に付与された分散表現同士の相互作用を的確に捉えられるべクトルの合成演算子を設計することが重要となる.HolEではこの合成演算子として巡回相関を採用しており,巡回相関はベクトル間の相互関係を捉えることに適している. 巡回相関の演算は $\star$ で表され,式 (1)で定義される. また式 (2)のように高速フーリエ変換 Fおよびその逆変換 $\mathscr{F}^{-1}$ を用いても計算可能であることが知られている.ここで, $\mathbf{c}_{1}, \mathbf{c}_{2}$ は合成元の $d$ 次元べクトル, $\mathbf{p}$ は合成後の $d$ 次元ベクトル,๑はアダマー ル積, $\overline{F(\cdot)}$ は複素共役をそれぞれ表す。 $ \begin{array}{r} {[\mathbf{p}]_{k}=\left[\mathbf{c}_{1} \star \mathbf{c}_{2}\right]_{k}=\sum_{i=0}^{d-1} c_{1 i} c_{2(k+i)} \bmod d} \\ \mathbf{p}=\mathbf{c}_{1} \star \mathbf{c}_{2}=\mathscr{F}^{-1}\left(\overline{\mathscr{F}\left(\mathbf{c}_{1}\right)} \odot \mathscr{F}\left(\mathbf{c}_{2}\right)\right) \end{array} $ 単語と単語, 単語と句, 句と句など,自然言語の文を構成する要素間の階層関係・依存関係をモデリングするにあたり,巡回相関には以下のような数学的に好ましい性質が存在する。 - 非可換な演算である:巡回相関では一般に $\mathbf{a} \star \mathbf{b} \neq \mathbf{b} \star \mathbf{a}$ が成り立つ. この性質は非対称な依存関係をモデリングするのに向いている。例えば,"right human"と"human right"という $2 \supset の$名詞句に対して異なる分散表現を合成し,これらを区別することが可能である。 ・結合法則を満たさない:巡回相関では一般に $(\mathbf{a} \star \mathbf{b}) \star \mathbf{c} \neq \mathbf{a} \star(\mathbf{b} \star \mathbf{c})$ が成り立つ. この性質は句構造解析が明らかにしょうとする自然言語の階層関係をモデリングするのに重要である。例えば,"saw a girl with a telescope"という句には少なくとも 2 つ階層関係・内部構造が考えられる:"((saw (a girl)) (with (a telescope)))", "(saw ((a girl)(with (a telescope $)))) "$ "このような単語列に対して,分散表現の合成演算が結合法則を満たさない場合,複数存在しうる階層関係のそれぞれを,異なる分散表現として区別することが可能となる. 以上より,我々は HolE ならびに巡回相関を CCG 構文解析において文中の単語や句の間に存在する依存関係をモデリングするための手法として採用する。 ## 3 Holographic CCG 図 2 単語分散表現の再帰的合成. ## 3.1 単語分散表現の再帰的合成 ここでは,CCGの Supertagging モデルにおいて,文の構成要素間に存在する依存関係を明示的にモデリングするための手法として,巡回相関による単語分散表現の再帰的合成を提案する. 本手法では文中における特定の句を構成している複数の単語の分散表現を巡回相関によって再帰的に合成することで, 句全体としての分散表現を計算する. 単語分散表現の再帰的合成の概略図を図 2 に示し, 図中の具体例を用いて本手法の概要を説明する。まず,入力文 ("My sister loves to eat") を事前学習済みのエンコーダに入力することで各単語のベクトル $\left(\mathbf{v}_{0: 1}, \mathbf{v}_{1: 2}, \cdots, \mathbf{v}_{4: 5}\right)$ を得る. ベクトルの添字 $i: j$ は,入力文中の $i+1$ 番目の単語から $j$ 番目の単語が含まれる区間 $[i, j]$ を意味する。なお,全ての実験においてエンコーダには RoBERTa-large [9]を採用しており, 各単語は 1024 次元のベクトルに変換される.次に各単語のべクトルを CCG の組み合わせ規則に従って再帰的に合成することで,文を構成する各句の分散表現を計算する. 例えば,図中の"loves to eat"という動詞句に対応するべクトル $\mathbf{v}_{2: 5}$ は,以下の通りにベクトルを再帰的に合成することで計算される。 $ \mathbf{v}_{2: 5}=\mathbf{v}_{2: 3} \star \mathbf{v}_{3: 5}=\mathbf{v}_{2: 3} \star\left(\mathbf{v}_{3: 4} \star \mathbf{v}_{4: 5}\right) $ 同様の計算を, 文全体としてのベクトル $\mathbf{v}_{0: 5}$ が得られるまで繰り返し行う。 $ \begin{aligned} \mathbf{v}_{0: 5} & =\mathbf{v}_{0: 2} \star \mathbf{v}_{2: 5} \\ & =\left(\mathbf{v}_{0: 1} \star \mathbf{v}_{1: 2}\right) \star\left(\mathbf{v}_{2: 3} \star \mathbf{v}_{3: 5}\right) \\ & =\left(\mathbf{v}_{0: 1} \star \mathbf{v}_{1: 2}\right) \star\left(\mathbf{v}_{2: 3} \star\left(\mathbf{v}_{3: 4} \star \mathbf{v}_{4: 5}\right)\right) \end{aligned} $ なお,巡回相関を再帰的に適用すると合成後のべクトルのノルムが急激に増大し, 数値計算上好ましくないため, 巡回相関によって合成したべクトルに対して,式 (3)で表されるノルム制約を加えている. $ \mathbf{p}^{\prime}= \begin{cases}k \mathbf{p} /(\|\mathbf{p}\|+\epsilon) & \text { if }\|\mathbf{p}\| \geq k \\ \mathbf{p} & \text { otherwise }\end{cases} $ ただし, p, $\mathbf{p}^{\prime}$ はそれぞれノルム制約の適用前と適用後のベクトルを表しており,$k$ はノルムの最大值である. 本研究では, 全ての実験において $k=10^{3}, \epsilon=10^{-12}$ に設定した. ## 3.2 Supertagging 入力文を構成する全ての単語と句に関して,それらのベクトル $\mathbf{v}_{i: i+1}, \mathbf{v}_{i: j}$ を計算した後, これらを順伝播型ニューラルネットワークに入力することで,単語と句それぞれに関するカテゴリ割当の確率分布 $P_{w}(i, i+1), P_{p}(i, j)$ と, 区間 $[i, j]$ において句が成立する確率 $P_{s}(i, j)$ をそれぞれ計算する. $ \begin{aligned} P_{w}(i, i+1) & =\operatorname{SM}\left(\mathbf{Q}_{w} \sigma\left(L N\left(\mathbf{U}_{w} \mathbf{v}_{i: i+1}+\mathbf{b}_{w}\right)\right)+\mathbf{c}_{w}\right) \\ P_{p}(i, j) & =\operatorname{SM}\left(\mathbf{Q}_{p} \sigma\left(L N\left(\mathbf{U}_{p} \mathbf{v}_{i: j}+\mathbf{b}_{p}\right)\right)+\mathbf{c}_{p}\right) \\ P_{s}(i, j) & =\operatorname{Sigmoid}\left(\mathbf{q}_{s}^{\top} \sigma\left(L N\left(\mathbf{U}_{s} \mathbf{v}_{i: j}+\mathbf{b}_{s}\right)\right)+\mathbf{c}_{s}\right) \end{aligned} $ ここで, $\mathbf{Q}_{w}, \mathbf{Q}_{p}, \mathbf{q}_{s}^{\top}, \mathbf{U}_{w}, \mathbf{U}_{p}, \mathbf{U}_{s}, \mathbf{b}_{w}, \mathbf{b}_{p}, \mathbf{b}_{s}, \mathbf{c}_{w}, \mathbf{c}_{p}, \mathbf{c}_{s}$ はモデルの学習対象となる重み行列およびべクトルであり, $\sigma(\cdot)$ は ReLUによる非線形変換, $L N(\cdot)$ は Layer Normalization, $S M(\cdot)$ はソフトマックス関数, Sigmoid (.) はシグモイド関数をそれぞれ表す. また, 全ての順伝播型ニューラルネットワークにおいて, ReLUによる非線形変換の直後に Dropout 層を指てている.これらの単語・句に対するカテゴリ割当の確率分布および句の成立確率が正解に合致するようにモデルを学習させることで,単語や句の分散表現が相互に影響を及ぼし合い,結果として構成要素間の依存関係を明示的に与えた状況下での Supertagging モデルの学習が実現される. モデルの学習には誤差逆伝播法を用いる. まず,単語のカテゴリ割当 $P_{w}(i, i+1)$ の予測誤差 $\mathscr{L}_{w}$ と句のカテゴリ割当 $P_{p}(i, j)$ の予測誤差 $\mathscr{L}_{p}$ をそれぞれ交差エントロピー誤差を基準として計算する。また, これらに加えて句の成立確率 $P_{s}(i, j)$ の予測誤差 $\mathscr{L}_{S}$ を, 二値交差エントロピー誤差を基準として計算する. そして, これらの誤差の一部または全部を逆伝播することでモデルパラメータの最適化を行う. 例えば,3つの誤差全てを逆伝播する場合,合計誤差の計算およびモデルパラメータの更新は式 (4),(5)でそれぞれ表される. $ \begin{array}{r} \mathscr{L}=\mathscr{L}_{w}+\mathscr{L}_{p}+\mathscr{L}_{s} \\ \theta \leftarrow \theta-\mu \frac{\partial \mathscr{L}}{\partial \theta} \end{array} $ ここで, $\mathscr{L}$ は逆伝播される合計誤差, $\theta$ はモデルパラメータ, $\mu$ は学習率をそれぞれ表す。 モデルの学習終了後, 開発用データ及びテスト用データに対して Supertagging を行う際には,まず入力文中の各単語をエンコーダを通して分散表現に変換する. そして,これらのべクトルを順伝播型ニューラルネットワークに入力することで $P_{w}(i, i+1)$ を計算し, 各単語に対するカテゴリ割当の予測を行う。ここで,各単語に対する割当確率が 0.1 以上となるカテゴリ全てを各単語の Supertag として付与する。 ## 3.3 Span-based Parsing 提案手法によって計算される句の分散表現は,句に対するカテゴリ割当を直接予測しながら句構造の探索を行う Span-based の構文解析アルゴリズム (以下 Span-based Parsing) に適用可能である. Span-based Parsing は Stern らが PCFG による句構造解析に導入乙 [10], Clark が同様の手法を CCG に適用することで大幅な性能向上を達成した [11]. Span-based Parsing では,単語の分散表現から文中の特定の区間・句に対応する分散表現を計算し, その分散表現を用いて区間が句を形成する確率および,句に対して割り当てられるカテゴリの予測を行う. 我々は,CKYアルゴリズムに対して,提案手法における句のカテゴリ割当の確率分布 $P_{p}(i, j)$ と句の成立確率 $P_{s}(i, j)$ の情報を組み込むことによって,新たな Span-based Parsing アルゴリズムを導入した. 本アルゴリズムの詳細については付録 A に示す. ## 4 実験 ## 4.1 データセット モデルの学習・評価のためのデータセットには, CCG で一般的に用いられる英語 CCGbank [12] を使用した. CCGbank は Penn Treebank と同じ Wall Street Journal の記事に対して CCG のカテゴリがアノテー ションされたデータセットであり, 24 個 (00-23) のセクションで構成されている. 本実験では既存研究のデータセット分割方法に従い,セクション 02-21 表 1 CCGbank の統計情報. 表 2 モデルの学習に関するハイパーパラメータ. を学習用データ,セクション 00 を開発用データ,セクション 23 をテスト用データとして用いた. デー タセットに関する統計情報を表 1 に示す. ## 4.2 実験条件 モデルの学習に関する各種ハイパーパラメータを表 2 に示す. Optimizer には AdamW [13] を使用し,学習率は RoBERTa-large のファインチューニング部分 (fine-tune) とその他の部分 (base) で異なる值を設定した。 学習終了後, 提案モデルによって Supertagging がなされた文を事前学習済みの CCG 構文解析モデルである C\&C Parser [14] の入力とすることで構文解析を行った. また,同様に我々が導入した Span-based Parsing による構文解析も行った. 提案手法の有効性を定量的に評価するにあたり,異なる誤差の組み合わせを用いてモデルの学習を行った. まず単語レベルでのカテゴリ割当の誤差 $\mathscr{L}_{w}$ のみを学習に用いるモデルをベースラインモデルとし,これに対して句の分散表現から計算される誤差 $\mathscr{L}_{p}, \mathscr{L}_{S}$ の一方,もしくは両方を合計した誤差を用いるものを提案モデルとする.各モデルを異なる乱数シード値から 8 回ずつ学習させ,ベースラインモデルと提案モデルの各種評価指標の値を比較した. ## 4.3 評価指標 既存研究に従い,モデルの評価指標には Supertagging の精度 (Acc) と構文解析結果から得られる単語間依存関係の情報として Labeled F-score (LF) を用いた.表 3 開発用データにおける提案法の性能. 表 4 テストデータにおける既存手法との性能比較. ## 5 結果 ベースライン手法と提案モデルそれぞれの開発用データにおける性能を表 3 に示す. 有意水準 $1 \%$ で片側 $t$ 検定を行った結果, $\mathscr{L}_{w}+\mathscr{L}_{p}+\mathscr{L}_{s}$ を学習に用いた提案モデルはベースラインモデルを Supertagging 精度と C\&C Parser における Labeled F-score の両者において有意に上回っていることが確認された. さらに, Span-based Parsing は C\&C Parser をさらに上回る性能を発揮している。 次に,テスト用データにおける既存手法との比較を表 4 に示す. 提案モデルの Supertagging 精度と C\&C Parser における Labeled F-score は全ての既存手法を上回っており,Span-based Parsing における Labeled F-score も,現状の最高性能モデルである Clark [11]に迫る性能を発揮している. ## 6 おわりに 本研究では,CCG の Supertagging モデルにおいて文の構成要素間の依存関係を明示的にモデリングする手法を提案し,また,提案手法から計算される句の分散表現を活用した Span-based Parsing アルゴリズムを導入した。提案手法はベースライン手法を上回る最高性能を発揮し,依存関係の明示的なモデリングが CCG 構文解析にとって有効であることを示した. 本研究の今後の展開としては,現状の教師あり学習手法から教師なし学習手法への拡張や,ロボットのセンサー系から得られるマルチモーダル情報と言語情報の統合への応用などを予定している. ## 謝辞 本研究は, JST, ムーンショット型研究開発事業, JPMJMS2033 の支援を受けたものです. ## 参考文献 [1] Mark Steedman. The Syntactic Process, Vol. 24. MIT press Cambridge, MA, 2000. [2] Stephen Clark and James R Curran. The Importance of Supertagging for Wide-Coverage CCG Parsing. In COLING 2004: Proceedings of the 20th International Conference on Computational Linguistics, pp. 282-288, 2004. [3] Ashish Vaswani, Yonatan Bisk, Kenji Sagae, and Ryan Musa. Supertagging with LSTMs. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 232-237, 2016. [4] Yuanhe Tian, Yan Song, and Fei Xia. Supertagging Combinatory Categorial Grammar with Attentive Graph Convolutional Networks. arXiv preprint arXiv:2010.06115, 2020. [5] Aditya Bhargava and Gerald Penn. Supertagging with CCG primitives. In Proceedings of the 5th Workshop on Representation Learning for NLP, pp. 194-204, 2020. [6] Jakob Prange, Nathan Schneider, and Vivek Srikumar. Supertagging the Long Tail with Tree-Structured Decoding of Complex Categories. Transactions of the Association for Computational Linguistics, Vol. 9, pp. 243-260, 2021. [7] Yufang Liu, Tao Ji, Yuanbin Wu, and Man Lan. Generating CCG Categories. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 35, No. 15, pp. 1344313451, May 2021. [8] Maximilian Nickel, Lorenzo Rosasco, and Tomaso Poggio. Holographic Embeddings of Knowledge Graphs. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 30, 2016. [9] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv preprint arXiv:1907.11692, 2019. [10] Mitchell Stern, Jacob Andreas, and Dan Klein. A Minimal Span-Based Neural Constituency Parser. arXiv preprint arXiv:1705.03919, 2017. [11] Stephen Clark. Something Old, Something New: Grammar-based CCG Parsing with Transformer Models. arXiv preprint arXiv:2109.10044, 2021. [12] Julia Hockenmaier and Mark Steedman. CCGbank: a corpus of CCG derivations and dependency structures extracted from the Penn Treebank. Computational Linguistics, Vol. 33, No. 3, pp. 355-396, 2007. [13] Ilya Loshchilov and Frank Hutter. Decoupled Weight Decay Regularization. In International Conference on Learning Representations, 2019. [14] Stephen Clark, Darren Foong, Luana Bulat, and Wenduan Xu. The Java Version of the C\&C Parser: Version 0.95. Technical report, University of Cambridge Computer Laboratory, August, 2015. ## A Span-based Parsing アルゴリズム 本研究において我々が導入した Span-based Parsing のアルゴリズムを Algorithm 1 に示す. 簡略化のため,上記アルゴリズムでは,CCG の組み合わせ規則のうち,Binary の規則のみを前提とした場合の処理手順を示している. 実際,CCG には Type-raising などの Unary の規則が存在するため,上記アルゴリズムに加えて, Unary の規則によって生成されるカテゴリをチャートに追加する必要がある.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G5-3.pdf
# 構成主義による英語語彙学習支援システムの開発 ## Developing English Vocabulary Study Support System Based on Constructivism Learning Theory \author{ バーハカーマーン \\ 東京電機大学大学院先端科学技術研究科 \\ 情報通信メディア工学専攻 \\ \{20udc02\}@ms.dendai.ac.jp } ## 概要 語彙学習は英文読解力を向上される方法の一つである.英語の語彙力を増やせば増やすほど,英文を読むときの理解が深まる [1] [2].語彙学習は,多くの学生にとってかなり難しいものである [3] [4]. 本研究では,構成主義の教育理論とマルチメディア学習の認知理論に基づき,英文から単語を抽出して語彙学習の教材を自動で作成できる WCVM システムをウェブレスポンシブデザインで開発した. ## 1 はじめに 現代は,急速な情報通信技術(ICT)の進展とともに,パソコン,タブレットやスマートフオンなどが普及し,教室内で知識を得るだけでなく,教室外でも ICT デバイスを介して学ぶことが可能である。教育改革における総合学習の導入により,構成主義に基づく教育の重要性がさらに高くなっていくと考えられる [5]. 19 世紀初頭に,Piagetが構成主義を提案した [6],構成主義は教師側から一方的に学習者に知識を教え込むことでなく,学習者中心へ,「教えること」から「学ぶこと」への転換を方向づけるものである.学習者が中心で自分自身の経験によって,新しい知識を理解し,自分だけの知識を構築し,学習者に固有の活動であると主張する理論である [7] [8]. 学習教材は「マルチメディア」つまり絵 (Picture),文字(Text),音(Sound)などの単一メディアを 2 種類以上が混在していることが多く,文字だけの単体メディアや音声だけの授業よりも,勉強のやる気を促し,授業内容を理解することができるのである [9] [10]. マルチメディア学習の認知理論(Cognitive Theory of Multimedia Learning, CTML)について Mayer は学習者がマルチメディアを視聴する際 \author{ 宍戸真 } 東京電機大学大学院先端科学技術研究科 情報通信メディア工学専攻 \{shishido\}@mail.dendai.ac.jp に,脳内で起こるプロセス,学習者がマルチメディアを視聴する際に生じる認知的プロセスおよび学習者の学習能力を効果的に促進するマルチメディアを開発するためのガイドラインを論じたマルチメディア・デザインの原理について提案した理論である [10]. 外国語としての英語学習者の読解力を向上される方法は様々な方法がある,語彙の学習も読解力を向上される方法の一つである. 英語の語彙力を増やせば増やすほど,英文を読むときの理解が深まる [1] [2]. 従って, 本研究では, 英文を読む前に英単語を学習すると学習者の読解力を向上することを目的として, 構成主義の教育理論とマルチメディア学習の認知理論に基づき,英文から英語の単語を抽出して語彙学習の教材を自動で作成し, マルチデバイス対応できる Wordlevel Classification and Vocabulary Meaning (WCVM) システムを開発した。その上で,単語力, 読解力の事前・事後テストの比較と提案したシステムに対する学習者の意識 (students' attitude) のアンケートを調查する. ## 2 先行研究 Piaget が提案した構成主義は学習者を対象に,自分自身の理解を組み立てるようなかたちで教育すべきであると主張している [6]. Yingyu は構成主義に基づく英単語の意味の獲得に関して研究した。学習者は構成主義に基づく英単語を学習するとうまく利用できるようになり,構成主義の実現可能性と妥当性を示した [8]. または, Oxford らはリスト内の単語を学習するよりも文脈化された語彙学習の方が効果的であるという確信した [11]. さらに,S`t`epánka Bilova'は ICT を使用した協調的かつ個人の語彙構築に関して研究し, Google ドキュメントと Quizlet の両方が,語彙学習だけでなく, 言語教育にも効率的なツ一ルであることを示した [12]. ## 3 ユーザーインターフェイス デザインとシステム機能 \\ WCVM システムのユーザーインターフェイ スデザインは全て Adobe XD を利用した(図 1 ). 設計したシステム機能は主に 3 つに分けられる. 第 1 に,英単語の練習アクセスを可能とするための, 英文の形態素解析機能である. 第 2 は, 学習した単語または既知英単語の保存や削除の機能である.第 3 は,さまざまな種類の練習問題を利用し英単語を学習する機能である. 本研究では学習者が自由に学習教材を選べるために, 6 種類のスペリング,ディクテーション, 多肢選択問題, 真/偽, マッチング,フラッシュカードの練習問題を開発した。全ての練習は学習者が英単語を正しく使う能力とリスニング力を向上させる目的として開発した. 図 1 Adobe XD での My Memory ページのユーザーインターフェイス ## 4 データベースデザイン 本研究では, User Account Database, English Vocabulary and Meaning Database 及び User Portfolio Database の 3 テーブルデータベースシステム内に作成した (図4). はじめに, User Account Database(図 4)は users という名前でユーザーをシステムのログイン寸るためのデータを保存されたシステム開発においては, 形態素解析, 英単語学習教材技術を利用した. users テーブルのフィールドは id, email, password, firstName, lastName, language または level で構成された(図 2). 次に, English Vocabulary and Meaning Database(図 4)は alc_vocabという名前で ALC12000の英単語のリストに含まれた。 japaneseType フィールドと japaneseMeaning フイールドは日本語の品質, と日本語の意味に含まれて, thiaType フィールドと thaiMeaning フィールドは English-Thai Cambridge Dictionary [13] と LINE Dict English-Thai [14] に基づいた夕イ語の品質, とタイ語の意味に含有した. alc_vocab テーブルのフィールドは id, level, word, japaneseType, japaneseMeaning, thaiType または thaiMeaning を構成した。 最後に, User Portfolio Data は, user_vocab という名前でユーザは覚えた単語を保存したデ ータテーブルである. user_vocabテーブルのフイールドは userId : int(11)または vocabId : int(11) で構成された. id : int(11)を users テーブルの主キーとして定義しましたが,id:int(11) は, userId:int(11)という名前をuser_vocab テーブルでの外部キーとして定義した(図 2) (図3). 図 2 phpMyadmin 5 の ER 図 図 3 一部のデータベース作成 SQL コード ## 5 システム開発 システム開発においては, 形態素解析, 英単語学習教材技術を利用した。 ## 5.1 形態素解析技術 英文内にある英単語を抽出するために, 形態素解析の技術を利用する必要がある. 図 4 形態素解析と英語語彙学習システムのシステムアーキテクチャ 染谷が開発した Word Level Checker [15]という形態素解析サイト,または水本が開発した New Word Level Checker (NWLC) [16]は ALC12000 の単語データベースに基づいて単語難易度でレベル分けをして,グラフの統計を出して表示しただけである。システム自体は,他の言語の意味は表示することができず,英単語の練習問題を自動で作成することもできない. 本研究では, NLP-compromise と呼ばれる JavaScriptライブラリーで分析し, SLV12000デ一タベースで検索できる形式に変換した技術を利用した. NLP-compromiseはFront-End のライブラリーで, ユーザー側のデバイスで, 形態素解析を計算する(図 5). ## //take only letter from text -. \\ let text $=$ rawText. $\operatorname{replace(/[0-9] / g, \quad ' \prime)$; \\ //transform text to base form or root word let rootFormText $=n l p($ text $), \operatorname{text}(' \operatorname{root} ')$;} I/ Put all transformed words into Array object let rootFormWords $=n l p$, tokenize( rootFormText), terms(), out ('freq'); 図 5 JavaScript で形態素解析の一部コード NLP-compromise は英文内にある英単語を抽出しただけでなく,変形した英単語も原型で表示することができる.SLV12000の英単語のデータベースを検索できるために,変形した動詞の過去形や進行形は原型にし, 名詞の複数形も単数形で表示する(図 6). 図 6 本研究のシステムでの形態素解析した結果 ## 5.2 単語学習システム技術 本研究はウェブサービスやウェブアプリケ ーションで直接ユーザーの目に触れる部分のフロントエンドエンジニア(Front-End)では, パソコンだけでなく,スマートフォンやタブレットなどのどの端末サイズでも対応でき,正しく綺麗にユーザーインターフェイスを表示することができるレスポンシブウェブアプリケーション(Responsive web application)を利用し, システム開発した.WCVM システムは HTML CSS JavaScript と CSS フレームワーク (framework)といった Bootstrap 5 のウェブ技術を利用した。 サーバー側の処理を担当することのバックエンドエンジニア(Back-End)は Php 言語を利用してバックエンドのコードを開発した。ユー ザーが登録されたメール (e-mail) やパスワー ド(password)のデータは PhpMyadmin5 で管理した SQL 言語のデータベースを利用した. ## 6. システム利用 初めに,英文を選び,その文章をコピーする.そして,システムに用意したテキストボックス内に貼付する(図 7).または,テキストボックスの上にある paste ボタンで貼付こともできる. 図 7 システム内にあるテキストボックス 次に, 形態素解析した後に表示したい意味の言語(日本語かタイ語)を選び,また ALC12000 に基づいた 12 レベルをレベルドロップダウンメニューで選択する. Submit ボタンを押した後は,システムは選んだレベルと, それよりも上位レベルの単語 (Unknown Words) を表示し,選択したレベルより下位レベルの単語を Known Words としてテーブルで表示する. 表示するテーブルは単語のレベル, 単語,品詞, 意味である. さらに, 学習者は, 英単語の発音を音声で聞くことができる. 練習問題をアクセスする万法は 3 つの方法でアクセスできる。一つ目の方法は, Unknown Words テーブル内にある練習したい英単語一つずつを自分自身で選択してから, そのテーブルの下にある Play ボタンで直接に練習することができる. Play ボタンは 6 種類の練習を選ぶことができる。 二つ目の方法は, 学習者の Unknown Words ページにアクセスできる (図 8). Unknown Words ページというのはデータベースに保存されていない単語しかテーブルで表示されない. そのページから学びたい英単語のレベル及び練習問題の種類を選ぶことができる。さらに,学ぶ単語数も自分で決められ, もしくはランダム (Random) ボタンで英単語をランダムで学習することができる. 図 8 システム内にある Unknown ページ 三つ目は左側にある 6 種類の練習メニュー は直接にアクセスすることもできる.直接にアクセスするとシステムは 5 問の英単語の問題をランダムで英単語の練習問題を作成する. 覚えた単語を保存する方法としては, 形態素解析した後, Unknown Words 内に既知の単語が表示されば,すぐにその単語を選んで保存することができる。 または, 単語練習で学習した後に全て正しく解答すれば,システムが保存ボタンを表示されて保存することもできる. 保存された単語のデータは学習者の My memory のページにグラフとして結果を表す (図9). 図 9 My Memory のユーザーインターフェイス ## 7. まとめと将来の研究 本研究は, 構成主義 (Constructivism) と CTML 理論に基づく英語語彙学習支援システムの開発を行った. 開発においては, 形態素解析やレスポンシブウェブアプリケーション (Responsive web application) といった様々な技術を利用した. 開発したシステムでは, 英文の形態素解析や 6 種類の単語学習教材を提案した. 今後の研究に関しては, 学習者が実際に WCVM システムを利用し学習した後, 語彙力と読解力が向上するかを語彙と読解による事前・事後テストの比較により評価する。その上で,WCVM システムに対する学習者の意識のアンケートを調查し,データを分析してまとめる. ## 参考文献 1. The Correlation between EFL Students' Vocabulary Knowledge and Reading Comprehension: A Case Study at the English Education Department of Universitas Kristen Indonesia. ManihurukHotmagasiDavid. Jakarta :発行元不明, 2020 年 February 月, Journal of English Teaching, 第 6 (1) 巻, ページ: 86-95. 2. NunanDavid. Practical English Language Teaching. New York : McGraw-Hill/Contemporary, 2003. ページ: 70. 3. Exploring Second Language Vocabulary Learning in ESL Classes. AlghamdiH.Haifa. Seattle : Canadian Center of Science and Education, 2018 年, English Language Teaching, 第 12 巻, へ ージ: 78-84. 4. Vocabulary Acquisition Style in the ESL Classroom: A Survey on the Use of Vocabulary Learning Strategies by the Primary 3 Learners. Aliceson LindaMohd ShahParilah. Bangi, Malaysia : Scientific Research Publishing, 2020 年, Creative Education, 第 11 巻, ページ: 1973-1987. 5. 構成主義が投げかける新しい教育. 久保田賢一. 出版地不明 : J-STAGE, 2003 年, コンピュ ータ\&エデュケーション, ページ: 12-18. 6. Cognitive And Social Constructivism: Developing Tools For An Effective Classroom. KatherineC. 出版地不明: Education, 2009 年, 第 v130 巻 7. Constructivist Approach to Learning - An Effective Approach of Teaching Learning. BhattacharjeeJayeeta. 出版地不明: International Research Journal of Interdisciplinary \& Multidisciplinary Studies (IRJIMS), 2015 年, ペー ジ: $65-74$. 8. The Acquisition of Words' Meaning Based on Constructivism. LinYingyu. 出版地不明: Theory and Practice in Language Studies, 2015 年, ページ: 639-645 9. Richard E. Mayer's Multimedia Learning Theory in Second Language Multimedia Design: A Case Study of Redundancy Principle and Modality Principle in second language research. N. HanrattanasakulSawetaiyaramT. 出版地不明: ASJ PSU, 2019 年, 第 30(1) 巻, ページ: 219-229. 10. MayerE.R. Multimedia Learning (2nd ed.). United Kingdom : Canbridge University Press, 2009. 11. Second Language Vocabulary Learning Among Adults. ScarcellaandOxford. 出版地不明: ScienceDirect, 1994 年. 12. Collaborative And Individual Vocabulary Building Using Ict. BulovánkaS`epa. 出版地不明: Studies in Logic, Grammar and Rhetoric, 2018 年, ページ: 31-48. 13. DictionaryCambridge. Cambridge Dictionary English-Thai Dictionary. Cambridge Dictionary. (オンライン) (引用日: 2021 年 December 月 10 日.) https://dictionary.cambridge.org/dictionary/englishthai/. 14. English-ThaiDictLINE. LINE Dict EnglishThai. LINE Dict English-Thai. (オンライン) (引用日: 2021 年 December 月 10 日.) https://dict.naver.com/linedict/enthdict/dict-forcache?platform=pc\#/enth/home. 15. SomeyaYasumasa. Word Level Checker. Word Level Checker. (オンライン) 2006 年. (引用日: 2021 年 December 月 10 日.) http://someyanet.com/wlc/. 16. MizumotoAtsushi. NWLC. New Word Level Checker (NWLC). (オンライン) 2021 年 June 月 6 日. (引用日:2021 年 Demcember 月 10 日.) https://mizumot.com/nwlc/about.html.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G5-4.pdf
# 雑音のある通信路モデルを用いた句構造解析 原田慎太朗 1 渡辺太郎 $^{1}$ 大内啓樹 1,2 1 奈良先端科学技術大学院大学 2 理化学研究所 \{harada.shintaro.hk4, taro, hiroki.ouchi\}@is.naist.jp ## 概要 構文解析モデルである分類/識別モデルおよび結合モデルは多くの学習データを必要する. しかし、学習データとして利用される Treebank の構築には膨大な人日を必要とするため、低資源下で機能する構文解析モデルが求めらる。これに対して、雑音のある通信路モデルを用いた句構造解析モデルを提案する. 雑音のある通信路モデルは問題を分割しており、学習に必要なデータ数を抑えることができる. 本研究では、構造が比較的単純な sequence-tosequence モデルで句構造解析を定式化する. 実験結果として、英語および中国語データセットにおいて、本モデルが有効であることを確認した。また、低資源設定においても有効であることを確認した。 ## 1 はじめに 構文解析は、単語関係または階層的構造を計算する問題である. その結果、入力文の解釈性が高まるため、言語学や自然言語処理における基本的なタスクである.それゆえに研究は盛んであり、多数の高精度かつドメイン特有の句構造解析モデルが提案されている。構文解析モデルである分類識別モデルあるいは結合モデルには非常に多くの学習データが必要である. しかし、構文解析の学習データとして使用される Treebank の訓練データは、他のデータと比較すると非常に少ない. さらに、Treebank の構築および拡張には莫大な時間と言語学的な専門性が必要である. この課題に対処するために、雑音のある通信路モデルを用いた句構造解析モデルを提案する. 雑音のある通信路モデルは、通信路モデルと言語モデルに分割できる。通信路モデルは入力をうまく説明する出力を選択ように学習する. これにより、直接モデルで起こりうる、入力の一部から出力が予測されるという問題を回避でき [1]、その結果、データシフトに頑健なモデルになる. 言語モデルは、対ではな いデータから学習可能であり、出力言語における良さをモデル化できる. 雑音のある通信路モデルは誤り訂正や音声認識の分野で使用されてきたモデルであり、近年では深層学習に拡張され [2]、機械翻訳 $[3,4]$ や対話生成 $[5]$ などで優れた性能を発揮している. 特に、低資源設定では通常のモデルより大きな効果を発揮できる. 本研究では、雑音のある通信路モデル用いるにあたり構文解析を Seq2Seq (sequence-to-sequence) 問題として定式化する. 英語(PTB: Penn Treebank)および中国語(CTB: Chinese Treebank)における実験、 および、低資源設定における結果より、本モデルが有効であることを確認した。 ## 2 関連研究 構文解析アルゴリズム句構造解析において、 Chart 型、Transition 型、Seq2Seq 型が代表的なアルゴリズムとして挙げられる. Chart 型は、各スパンのスコアを計算し、動的計画法を用いて生成可能な木構造を求める. そのため、高性能であるが文長 $n$ に対して $\Theta\left(n^{3}\right)$ の計算量を持つ. Transition 型は、履歴を考慮した語彙的特徴を持つ Shift-Reduce 操作を繰り返し選択することにより、木構造を求める. 最先端の性能は持たないが文長 $n$ に対して $O(n)$ の計算量で解析可能である. Seq2Seq 型は Chart 型および Transition 型と比較して、モデル設計が比較的簡単である. また、ビームサーチデコーディングを採用することで、出力長 $m$ に対してビームサイズ $k$ で性能と計算量 $O(\mathrm{~km})$ を調整できる。 Seq2Seq 型は線形化した構文木(S 式)を構成する開/閉括弧およびラベルを単語と見なすことで定式化される [6]. ここにおける線形化とは、構文木の終端ノードを記号に置き換える操作である. 線形化手法には様々な方法 $[6,7,8]$ が提案されているが、本研究では代表的な $\mathrm{S}$ 式の線形化 $[6,7]$ を用いる. その例を表 1 に示す.ここで、表 1 における LBD (Linearized by Dummy)、LBP (Linearized by Pre-Terminal)、LBT(Linearized by Treminal)はそれぞれ線形化手法の名称であり、それぞれ終端ノードをダミ一記号 “XX“、前終端記号、終端記号で置き換える。さらに、開/閉括弧にもラベルを付ける。 構文解析モデル構文解析モデルは大きく分けて分類/識別モデルおよび結合モデルに分けられる.分類/識別のモデルは、Transition-based モデル [9]、 Chart-based モデル [10]、Seq2Seq モデル [6,7,11] が挙げられる. Transition-based モデルと Chart-based モデルはそれぞれ木構造を構成する操作とラベル付きスパンを識別する。それに対して、Seq2Seq モデルは木構造を構成する線形化された記号を識別する.結合モデルは、木構造を構成するルールの生成確率 成する単語および操作の生成確率をモデル化する手法 [14] などが挙げられる. 最尤推定、あるいは、 ニューラルネットワークによる学習のために ha 、多くのデータを必要とする。 ## 3 雑音のある通信路句構造解析器 本研究では、構文解析を Seq2Seq モデルを用いて以下のようにモデル化する. $ P(\boldsymbol{y} \mid \boldsymbol{x})=\sum_{i=1}^{|\boldsymbol{y}|} P\left(y_{i} \mid \boldsymbol{y}_{<i}, \boldsymbol{x}\right) $ ここで, $\boldsymbol{x}$ は単語列、 $\boldsymbol{y}$ を線形化された記号列、 $|\boldsymbol{y}|$ は出力する記号列の長さであり, $\boldsymbol{y}_{<i}$ は記号 $y_{i}$ より前の記号列 $x_{1}, \ldots, y_{i-1}$ を表す.ここで、ベイズの定理 $P(\boldsymbol{y} \mid \boldsymbol{x}) \propto P(\boldsymbol{x} \mid \boldsymbol{y}) P(\boldsymbol{y})$ より、雑音のある通信路モデルは、線形化された記号列 $\boldsymbol{y}$ から単語列 $\boldsymbol{x}$ を生成する通信路モデル $P(\boldsymbol{x} \mid \boldsymbol{y})$ と線形化された記号 $\boldsymbol{y}$ の言語モデル $P(\boldsymbol{y})$ から以下のようにモデル化される. $ P(\boldsymbol{x} \mid \boldsymbol{y})=\sum_{i=1}^{|\boldsymbol{x}|} P\left(x_{i} \mid \boldsymbol{x}_{<i}, \boldsymbol{y}\right) $ ここで, $|\boldsymbol{x}|$ は入力文の長さであり, $\boldsymbol{x}_{<i}$ は単語 $x_{i}$ より前の単語列 $x_{1}, \ldots, x_{i-1}$ を表す. 雑音のある通信路モデルは、出力から入力を予測するため低資源設定でも効果を発揮できることが報告されている [2]. そのため、比較的学習データ数の少ない Treebankでも有効であることが期待できる. さらには、言語モデルで木構造の良さをモデル化することが可能である. そのため、既存のモデルとは異なり、木構造を意識しながらデコーディングすることで学習時と推論時のズレを抑えることが期待できる. 事実、先行研究 [15] は直接モデルに木構造の保証するための制約付きデコーディングを導入しているが、制約無しと比べて精度が低下している。 雑音のある通信路モデルを用いて $\boldsymbol{x}$ から $\boldsymbol{y}$ を生成するためには、 $\operatorname{argmax}_{\boldsymbol{y}} \log P(\boldsymbol{x} \mid \boldsymbol{y})+\log P(\boldsymbol{y})$ を計算する必要がある。しかし、通信路モデル $P(\boldsymbol{x} \mid \boldsymbol{y})$ は各候補 $\boldsymbol{y}_{<i}$ に対して条件付きであり、各語彙に対して別々の順伝搬が必要なため計算量が大きくなる.この問題を軽減するに、先行研究 $[2,3,4]$ ではビームサイズ $k 1$ と $k 2$ を用いた 2 段階のビームサーチを採用しており、直接モデル、通信路モデル、言語モデルの線形結合でデコーディングする. $ \frac{\lambda_{\text {dir }}}{n} \log P(y \mid x)+\frac{\lambda_{c h}}{m} \log P(x \mid y)+\frac{\lambda_{l m}}{m} \log P(y) $ ここで、 $m$ は入力文の長さであり、 $n$ はこれまで出力した記号の長さである. また、 $\lambda_{d i r} 、 \lambda_{c h} 、 \lambda_{l m}$ はそれぞれ、直接モデル、通信路モデル、言語モデルに対する重みを示すハイパーパラメータである. 時間的複雑さは、各部分候補に対して入力全体のスコアリングを繰り返し行うため $O\left(k_{1} k_{2} m n\right)$ になるが、GPUでは並列処理できるため、ほぼ無視できる [3]. ただし、通信路モデルの出力確率の計算的複雑さは $k_{1} \times k_{2} \times S \times V$ であり、メモリを多く確保するためにデコーディング時のバッチサイズを大幅に小さくする必要がある.ここで、 $S$ は入力の最大文長、 $V$ は出力の語彙数である.そのため、GPUで並列化できる計算量が少なくなり推論速度が低下する。そこで、先行研究 [4] では語彙数 $V$ を語彙の中で最も頻度の高い部分集合の数を示すハイパーパラメータ $V^{\prime}$ に置き換えることで計算的複雑さを抑えている. ## 4 実験 実験データは PTB と CTB を用いる. データの分割および前処理は先行研究 [10] に従う.ただし、頻度が 5 未満の単語を未知語として処理した. データの内訳は表 2 に示す. 先行研究 $[7,11]$ では LSTM モデルを用いているが、本研究では Seq2Seq モデルと言語モデルに数多くのタスクで高い性能を発揮する Transformer モデル [16] を用いる. 学習および推論時の設定については付録 $\mathrm{A}$ に記載する。 木構造の評価は $\mathrm{EVALB}^{1}$ )を用いる。今回の構文解析モデルは木構造を構成するためのルールに従わないため、有効な木構造を保証しない。また、EVALB は無効な木構造を評価対象の母数に含めないため、 1) https://nlp.cs.nyu.edu/evalb/ 文 he had an idea 。 $\mathrm{S}$ 式 (S (NP (PRP he)) (VP (VBD had) (NP (DT an) (NN idea))) (. .)) LBD (S (NP XX NP) (VP XX (NP XX XX NP) VP) XX S) LBP (S (NP PRP NP) (VP VBD (NP DT NN NP) VP) . S) LBT (S (NP he NP) (VP had (NP an idea NP) VP) . S) $\mathrm{F}$ 值による比較が難しい。ここで、無効な木構造は次の通りである:(1) 開括弧と閉括弧の個数が一致しない.(2)終端記号の個数が入力文に含まれる単語数または字面が一致しない,そこで、無効な木構造を評価対象の母数に含め計算した比較可能な $\mathrm{F}$ 值 (CF: Comparable F-measure)も報告する. 木構造の表現による性能の違いを確認するために、左側に分解した二分木 (LLBD、LLBP、LLBT) と右側に分解した二分木 (RLBD、RLBP、RLBT)も用いた. さらに二分木変換後に単鎖を結合することで、系列長を $3 n$ で統一する. ここで、 $n$ は木構造に含まれる単語数である。 ## 5 結果 簡易化のために、直接モデル、通信路モデル、言語モデルをそれぞれ DIR、CH、LM で表す. 本研究では、DIR、DIR+LM、DIR+CH+LM という三つのモデルで実験を行う.また、 $\mathrm{CH}$ の必要性を示すために、DIR+LM の実験も示す. ## 5.1 定量評価 表 3 と表 4 にそれぞれ PTB と CTB における構文解析の結果を示す. ここで、表 3 と表 4 における CP と CR は比較可能な適合率と再現率を示す. PTB と CTB において、DIR+CH+LM が他のモデルより数多くの有効かつ質の良い木構造を出力することが確認できる. 線形化手法について、PTB ではダミ一記号による線形化手法(LBD)が、CTB では前終端記号による線形化手法(LBP)が最も良い. 二分木については、PTB と CTB において二分木の有効性にはばらつきがあり、言語または Treebank の特徴に依存すると考えられる。表 3 PTB における実験結果 ## 5.2 定性評価 図 1 にLBP形式のPTBテストセットにおける出力例を示す. DIR および DIR+LM のモデルでは、“all“ の品詞または階層的位置の予測に失敗している。また、DIR+LM モデルは、“care of in the music man“を名詞句として予測してしまい、木構造を正しく出力することに失敗している。しかし、DIR+CH+LM は木構造を正しく出力できている。これより、 $\mathrm{CH}$ が DIR およびLM の失敗を修正していることが分かる. ## 5.3 低資源設定における定量評価 雑音のある通信路モデルが低資源設定の句構造解析において有効であるかを調べるためにLBP 形式のPTB および CTB の訓練データを $10 \%$ 刻みで分割 表 4 CTB における実験結果 してモデル学習した. 結果を図 2 に示す. 低資源設定の PTB と CTB において、DIR+CH+LM の性能が全体的に高いことが確認できる. また、他のモデルでは性能が低下する箇所でも、DIR+CH+LM は頑健に動作しており、低資源設定においても有効であることが確認できる. ## 6 おわりに 本研究では、低資源かつ高性能な句構造解析器の構築を目的に雑音のある通信路を用いた句構造解析器を提案した. 結果、雑音のある通信路を用いた句構造解析器が PTB および CTB、さらには低資源設定においても有効であることを確認した。 また、Treebankによって有効な線形化手法が異なることを確認した. 今後の課題として、常に正しい木構造を保証するために制約付きデコーディング [11,15]の導入を試みる。また、NPCMJ(NINJAL Parsed Corpus of Modern Japanese) ${ }^{2)}$ や Arabic Treebank など実験データの種類を増やし提案手法の有効性を検証する。 2) https://npcmj.ninjal.ac.jp/interfaces/ 図 1 木構造の比較 (一番目: GOLD、二番目 : DIR、二番目:DIR+LM、四番目 : DIR+CH+LM) 図 2 低資源設定の PTB と CTBにおける実験結果 ## 謝辞 本研究は JSPS 科研費 JP19K20351 および JP20K23325 の助成を受けたものである. ## 参考文献 [1] Dan Klein and Christopher D. Manning. Conditional structure versus conditional estimation in nlp models. In Proceedings of the ACL-02 Conference on Empirical Methods in Natural Language Processing - Volume 10, EMNLP '02, p. 9-16, USA, 2002. Association for Computational Linguistics. [2] Lei Yu, Phil Blunsom, Chris Dyer, Edward Grefenstette, and Tomás Kociský. The neural noisy channel. CoRR, Vol. abs/1611.02554, , 2016. [3] Kyra Yee, Yann Dauphin, and Michael Auli. Simple and effective noisy channel modeling for neural machine translation. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 56965701, Hong Kong, China, November 2019. Association for Computational Linguistics. [4] Shruti Bhosale, Kyra Yee, Sergey Edunov, and Michael Auli. Language models not just for pre-training: Fast online neural noisy channel modeling. In Proceedings of the Fifth Conference on Machine Translation, pp. 584-593, Online, November 2020. Association for Computational Linguistics. [5] Qi Liu, Lei Yu, Laura Rimell, and Phil Blunsom. Pretraining the noisy channel model for task-oriented dialogue. Trans. Assoc. Comput. Linguistics, Vol. 9, pp. 657-674, 2021. [6] Oriol Vinyals, Ł ukasz Kaiser, Terry Koo, Slav Petrov, Ilya Sutskever, and Geoffrey Hinton. Grammar as a foreign language. In C. Cortes, N. Lawrence, D. Lee, M. Sugiyama, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 28. Curran Associates, Inc., 2015. [7] Mitchell Stern, Daniel Fried, and Dan Klein. Effective inference for generative neural parsing. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1695-1700, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [8] Daniel Fernández-González and Carlos GómezRodríguez. Enriched in-order linearization for faster sequence-to-sequence constituent parsing. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4092-4099, Online, July 2020. Association for Computational Linguistics. [9] Taro Watanabe and Eiichiro Sumita. Transition-based neural constituent parsing. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1169-1179, Beijing, China, July 2015. Associ- ation for Computational Linguistics. [10] Nikita Kitaev and Dan Klein. Constituency parsing with a self-attentive encoder. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2676-2686, Melbourne, Australia, July 2018. Association for Computational Linguistics. [11] Jun Suzuki, Sho Takase, Hidetaka Kamigaito, Makoto Morishita, and Masaaki Nagata. An empirical study of building a strong baseline for constituency parsing. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 612-618, Melbourne, Australia, July 2018. Association for Computational Linguistics. [12] Michael Collins. Three generative, lexicalised models for statistical parsing. In 35th Annual Meeting of the Association for Computational Linguistics and 8th Conference of the European Chapter of the Association for Computational Linguistics, pp. 16-23, Madrid, Spain, July 1997. Association for Computational Linguistics. [13] Slav Petrov and Dan Klein. Improved inference for unlexicalized parsing. In Human Language Technologies 2007: The Conference of the North American Chapter of the Association for Computational Linguistics; Proceedings of the Main Conference, pp. 404-411, Rochester, New York, April 2007. Association for Computational Linguistics. [14] Chris Dyer, Adhiguna Kuncoro, Miguel Ballesteros, and Noah A. Smith. Recurrent neural network grammars. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 199-209, San Diego, California, June 2016. Association for Computational Linguistics. [15] Daniel Deutsch, Shyam Upadhyay, and Dan Roth. A general-purpose algorithm for constrained sequential inference. In Proceedings of the 23rd Conference on Computational Natural Language Learning (CoNLL), pp. 482-492, Hong Kong, China, November 2019. Association for Computational Linguistics. [16] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. arXiv preprint arXiv:1706.03762, 2017. [17] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of NAACL-HLT 2019: Demonstrations, 2019. [18] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Yoshua Bengio and Yann LeCun, editors, 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. [19] Christian Szegedy, Vincent Vanhoucke, Sergey Ioffe, Jonathon Shlens, and Zbigniew Wojna. Rethinking the inception architecture for computer vision. CoRR, Vol. abs/1512.00567, , 2015. 表 5 雑音のある通信路モデルのハイパーパラメータ ## A 学習設定 ## A. 1 モデルのハイパーパラメータ Seq2Seq モデルと言語モデルには、それぞれ Fairseq[17]で提供されている transformer_iwslt_de_en と transformer_lmを用いた. ## A. 2 学習のハイパーパラメータ モデルの学習における最適化アルゴリズムには Adam[18]を用いた. 目的関数はラベル平滑化交差エントロピー [19]を用い,平滑化パラメータは 0.1 とした. 全ての実験において、バッチサイズは 4096 単語とし、4GPU でモデルを学習させた. モデルのパラメータ更新回数は 100,000 回とした. また、学習率は 4000 回更新時で $5 \mathrm{e}-4$ となるように線形的に増加させ、以降は更新回数の平方根の逆数に比例して減衰させた [16]. ## A. 3 推論のハイパーパラメータ デコーディングに用いたハイパーパラメータを表 5 に示す. ハイパーパラメータは開発用セットにおいて最も性能が良いものを選択した. なお、ビー ムサイズは 1 から 5 までを 1 刻みで、モデルに対する重みは 0.1 から 1.0 まで 0.1 刻みで検証した。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G5-5.pdf
# 問い合わせ文章の階層化のための 抽出型要約および係り受け解析を用いた重要箇所抽出 林 岳晴大段 秀顕竹中一秀湯浅 晃大木 環美株式会社 NTTデータ \{Takeharu.Hayashi, Hideaki.Odan, Kazuhide.Takenaka, Akira.Yuasa, Megumi.Ohki\}@nttdata.com ## 概要 本稿では,問い合わせ文章からの $\mathrm{FAQ}$ 自動抽出を目的とした段階的なクラスタリングの精度向上に寄与する,重要箇所の抽出手法を提案する。提案手法では, FAQの構造がカテゴリ>質問核心>質問条件と段階的な情報からなることに着想を受け,重要箇所を段階的に自動抽出する.実験により,抽出型要約による重要文抽出, および係り受け解析による重要文からの質問核心抽出の各ステップで, 8 割以上の性能を達成することを確認した。また,カテゴリ単位での FAQ 自動抽出において, 従来手法と比較し精度改善が見られることを確認した。 ## 1 はじめに 企業の問い合わせ対応業務の効率化には「よくある質問(FAQ)」を整備し運用する手段がよくとられるが,大量にある問い合わせから FAQ を作成するには膨大な人件費がかかる。そこで, $\mathrm{FAQ}$ 整備のために, 問い合わせ文章をクラスタリングし FAQを自動抽出する手法がよく用いられる。 一般的に, FAQ はコンテンツを階層的にまとめることで,検索しやすくなると言われている.たとえば,カテゴリやサブカテゴリの単位でまとめると, ユーザーは FAQ のカテゴリ検索が可能となる.また, シナリオ型チャットボットにおいては, 階層数を 3〜5 程度にすることが良いとされる. 階層が深くなりすぎるとユーザーが求める FAQ に辿り着くまでの所要時間が増えてしまうため, 階層数を少なく抑えることが良いとされる[1][2]. そのため,カテゴリ>質問核心>質問条件と問い合わせを段階的に詳細化できれば,ユーザーは求める答えに辿り着きやすくなり, 関連質問を体系的に整理できると考えられる。このように段階的に文章を集約する方法として,階層型クラスタリングが用 いられているが,入力として問い合わせ文章の全文を用いるのではなく,カテゴリ・質問核心・質問条件に該当する各部分を用いれば,各階層の集約に不要な情報を排除でき,集約精度の向上が期待できる. そこで本研究では, 問い合わせ文章からカテゴリ・質問核心・質問条件の各部分を自動抽出する手法を提案する。さらに抽出した各部分を入力として段階的なクラスタリング(多段階クラスタリング)を行い, FAQ 自動抽出における精度改善効果を検証する。 ## 2 関連研究 問い合わせの構成要素を抽出するには,文節也文同士の関係性に着目する必要がある。このような文章を構造化する手法には,大別して,文章意味理解を目的としたものと,重要箇所の抽出を目的としたものがある. 文章意味理解を目的とした研究として,横山ら(2003)[3]は,文間の関係タイプを因果関係や背景情報など 8 つの関係性で定義し,これらを機械学習手法で自動特定することで文章を構造化する手法を提案している。肥塚ら(2007)[4]は, 述語項構造の各項に的確な意味役割を付与することを目的として, SVM や述語との係り受け関係を用いる手法を提案している。一方,重要箇所を抽出する目的においては文書要約に関するタスクとして研究されており,深層学習を用いる手法[5][6]等が近年では数多く報告されている。これらの研究は, 文章の構造を汎用的に定義し解析しようとするものであり,FAQ 自動抽出に向けた文章構造化を目的とはしていない。 FAQ 抽出を行う目的においては,壹岐ら(2018)[7] は, 教師あり学習による抽出型要約を用いて, 不要文の多い問い合わせログから重要箇所を抽出する手法を提案しているが,これは多段階クラスタリングに特化した文章の構造化を目的とはしていない。 そこで本研究では,問い合わせ文章はカテゴリに関する部分(対象部),質問核心に関する部分(核 心部), 質問条件など詳細部分(周辺部)から構成されると定義し, 問い合わせ文章から各部分を自動抽出する手法を提案する. ## 3 問い合わせ文章の構造の定義 筆者らによる事前の分析の結果, 各問い合わせ文章は 3 つの必要情報で構成されることがわかった. この分析から, 問い合わせを以下の構造として定義する. - 対象部文章の主題(何について問い合わせているか) を示す部分 - 核心部文章の核心(問い合わせている内容は何か)を示す部分 - 周辺部 $\cdots$ 対象部・核心部以外の, 背景情報や参考情報に該当する部分 また,対象部および核心部を合わせた部分が問い合わせ文章の重要部分に該当すると考えられる。 これを核文とする。 - 核文…文章中の重要部分 (対象部十核心部)上記の定義をもとに, 問い合わせ文章の構造を解析し, 多段階クラスタリングの入力とすることで,効果的な FAQ が抽出できると考えた。具体的には, FAQ を抽出する際に, 1 階層目では対象部, 2 階層目では核心部, 3 階層目では周辺部と, 多段階クラスタリングを実行することで,カテゴリ>質問核心 >質問条件の 3 階層ツリー構造として集約できる. ## 4 部分抽出器の生成 3 章で定義した構造を問い合わせ文章から抽出する流れについて図 1 に示す. 図 1 部分抽出処理の流れ具体的には,次の 2 ステップの処理を行う. 1. 問い合わせ文章を文単位に分割し, 機械学習により,核文として意味的に重要な文を判定する。核文以外の文を周辺部とする 2. 各核文に対し, 係り受け解析を用いて核心部を抽出し,核心部以外の文節を対象部とする ## 4.1 核文 $\cdot$ 周辺部の抽出器 文章中からの重要文抽出においては, 抽出型要約が一般的に用いられ, Yang ら(2019) [8]の BERTSum 等教師あり学習による手法や Kamil ら(2018) [9]の EmbedRank,EmbedRank++等教師なし手法があるが,本手法ではより質問文に特化した石垣ら(2018)[10] の枠組みを参考とする独自手法を用いる。 石垣らは,㔯長な質問文を,より短く理解が容易な単一文質問に変換することを目的として,抽出型要約の枠組みを提案している. 大量の質問投稿を対象に, 1 文で構成される質問を正例, 10 文以上の文から構成される質問投稿の各文を負例として,擬似的な教師データを作り,各文を要約に含めるべきか否かを判定する二値分類モデルの学習に用いている。特徵ベクトルの構築には単語および品詞タグの unigram, bigram, trigram を用い, 分類器にはロジスティック回帰モデルを用いている。本手法では石垣らの提案した枠組みを用い,OKWave に投稿された IT カテゴリの質問 441,503 件から, 正例 61,286 件および負例 305,719 件を擬似的な教師データとして生成した。そして生成した擬似的な教師データを用いて,問い合わせ文章の各文が核文か周辺部かを判定する二値分類モデルを学習する.ただし本手法は,特徴ベクトル生成モデルおよび二値分類モデルに関して石垣らの手法とは異なる。具体的には,以下のモデルを検証し,ベースライン手法と比較する。 - BERT[11]二値分類モデル - TfidfVectorizer 及び線形回帰モデル - EmbedRank/EmbedRank++及び線形回帰モデルベースライン手法としては,先頭の質問文が最も重要であるとする手法(Lead-Q)[12]を用いる. ## 4.2 核心部 - 対象部の抽出器 抽出された核文を入力として,文節単位で核心部か対象部かの判定を行う.日本語は Li ら(1976)[13] の提唱した主題優勢言語にあたり, 主題が先で内容が後の構成を取る場合が多い.この特性を利用して,文の末尾から内容に相当する核心部を抽出し, 核心 部以外の部分を主題となる対象部として抽出する. さらに,問い合わせ文において核心部に当たる部分の文節間の係り受け構造を見ると, 同様のパターンが多く見られる。 そのため, 核心部として抽出すべき述語との係り受け関係を予め特定することで,核心部抽出のルールとして設定できると考えた. IT サービスに関する Enterprise の問い合わせ文章データセットから, 644 件の問い合わせに対して核心部を人手で分析した結果を表 1 に示す. 核心部の係り受け構造として頻出するパターンに傾向があることがわかった. たとえば, 主語名詞(nsubj)や副詞修飾語 (advmod) が文末の ROOT に直接係る場合に,核心部となることが多い。これらから一部重複や短すぎるパターンを除外して, 213 件の係り受け構造パターンを核心部抽出のルールとして設定した。 なお, 本手法では係り受け解析器として GiNZA[14]を用いている. 表 1 核心部とすべき係り受け構造例 \\ ## 5 評価および試行実験 4 章で提案した構文解析器を用いた部分抽出と,多段階クラスタリングによる $\mathrm{FAQ}$ 自動抽出の実験を行った。 ## 5.1 実験設定 $ \text { データセットには, } 4 \text { 章で用いた IT サービスに } $ 関する問い合わせ文章データセットを用いた。核心部抽出ルールの特定に用いていない 161 件の問い合わせを対象に部分抽出の評価を行った。また,定性分析のために,公開データである NII の Yahoo!知恵袋データ(第 2 版)の質問本文をサンプリングして用い,試行実験を行った。 ## 5.2 核文抽出の評価 表 2 に核文抽出の評価結果を示す. Acc(sent)は文単位での正解率を, Acc(all)は複数文から構成される問い合わせ文章のすべての文に対して正解した割合を示す。 表 2 核文抽出の正解率 BERT で特峌量を抽出したモデルがもっとも高い正解率となり, ベースライン手法(Lead-Q)の精度を上回った。 ## 5.3 核心部抽出の評価 次に,表 3 に核心部抽出の結果を示す.ここで,入力には 5.2 節で抽出した核文を用いた. 8 割以上の高い精度を達成し, 抽出したルールが妥当であることを示している. 表 3 核文からの核心部抽出の正解率 ## 5.4 部分抽出試行実験 部分抽出の出力例を図 2 に示す. 図 2 の(1)〜(3)の抽出結果では,対象部は質問カテゴリ,核心部は質問核心, 周辺部は質問条件にそれぞれ対応しており,問い合わせ文章を想定通りに構造化できている. 一方, 抽出した対象部や核心部から, 質問の話題・内容が読み取れないような誤りもあった.たとえば,図 2 の(4)の例では「教えて下さい!!!」の部分のみ核文と判定されており,主要な箇所を抽出できていない。この例では,問い合わせ文章中に,重要箇所が複数文にまたがっている。核文判定の学習では, 1 文からなる質問文のみを正解として学習しているため,直接的な質問内容のみが核文として判定されてしまったと考えられる。 また, 図 2 の(5)の例は, 核心部抽出の誤り事例で 図 2 部分抽出結果例 ある. 対象部に含まれている「なぜ〜どのように」 の部分は質問の内容核心に当たる部分であり, 本来核心部に含まれるべきである.この例では,核心部の述部である「作られたのか」に対して,「なぜ」 「誰が」「何のために」「いつ」「どのように」の複数の文節が本質的な係り受け関係にある. これらをすべて核心部と判定するためには,核心部の係り受け構造パターンが同一の問い合わせ文章を用いてルール抽出する必要がある. しかし, 文の途中で補足情報として「(国もそうなのですが,人物名も募集)」が含まれており,本質的な係り受け関係を解析することは困難である. そのため, 問い合わせ文の文整形を行うことや,「誰が」「何のために」等の用語を含む文節を核心部として抽出することで,核心部の抽出性能を向上することができると考えている。 ## 6 多段階クラスタリングへの適用 部分抽出で得られた対象部・核心部・周辺部の各部分を入力とすることで, 多段階クラスタリングによる FAQ 自動抽出の精度改善効果を検証した。 4 章および 5 章で用いた IT サービスに関する問い合わせ文章データセットに対して, 次の手順で多段階クラスタリングを行った. 1. 各問い合わせ文章の対象部についてクラスタリングを行う 2. 各カテゴリクラスタ内の問い合わせ文章の核心部でクラスタリングを行う 上記の手順により,1 階層目がカテゴリレベル, 2 階層目が質問核心レベルとなる FAQ の自動抽出を実現できる。 ベースライン手法として,カテゴリ・質問核心の両方の階層において, どちらも問い合わ せ文章の全文を入力とした場合の多段階クラスタリングを用いた比較検証結果を表 4 に示す. カテゴリレベルの集約では,対象部を入力とする場合が文章全体を入力とするべースラインを上回った。一方,質問核心レベルでの集約においては,文章全体を入力とした場合の方が精度が高い結果となった. 部分抽出の大きな課題は, 5.4 節に示したとおり,核心部抽出において係り受け関係の複雑な文の解析の難しさであるため,文整形やルールベース手法との組み合わせにより精度を改善できると考えている. 表 4 多段階クラスタリングへの適用結果(F1) & 0.56 & $\mathbf{0 . 5 5}$ \\ ## 7 おわりに 本稿では, 抽出型要約による重要文抽出, および係り受け解析による重要文からの質問核心抽出の各ステップで, 8 割以上の性能を達成することを確認した. また, 部分抽出で得られた対象部・核心部で,多段階クラスタリングによる FAQ 自動抽出を行うと, カテゴリレベルでの集約において若干の精度改善が見られることを確認した。 今後の課題としては, 本手法に加えて, 「誰」「何のために」等の用語を含む文節を核心部として抽出する等,ルールベース手法を組み合わせることが考えられる。また問い合わせ文章からの FAQ 自動抽出に限らず,文書検索や文書要約にも提案手法を適用することが可能であるか検証したい. ## 謝辞 本研究では,国立情報学研究所の IDR データセット提供サービスによりヤフー株式会社から提供を受けた「Yahoo!知恵袋データ(第 2 版)」を使用させて頂きました. ## 参考文献 [1] -, FAQ チャットボットはシナリオが大事|作り方・ポイントを解説 | トラムシステム (引用日: 2022 年 1 月 12 日.) www.tramsystem.jp/voice/voice-3322/ [2] -, 顧客満足度が上がるチャットボットシナリオの作り方【カスタマーサポート編】(引用日: 2022 年 1 月 12 日.) [3] 横山憲司, 難波英嗣, 奥村学. Support Vector Machine を用いた談話構造解析. 情報処理学会研究報告自然言語処理研究会報告, Vol. 2003 No.23, pp. 193-200, 2003. [4] 肥塚真輔, 岡本紘幸, 斎藤博昭, 小原京子. 日本語フレームネットに基づく意味役割推定. 一般社団法人言語処理学会自然言語処理, Vol. 2007-14 No.1, pp. 43-66, 2007. [5] Jingqing Zhang, Yao Zhao, Mohammad Saleh, Peter J. Liu. PEGASUS: Pre-training with Extracted Gapsentences for Abstractive Summarization. arXiv: 1912.08777v3 [cs.CL], 2020. [6] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, Luke Zettlemoyer. BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension. arXiv: 1910.13461v1 [cs.CL], 2019. [7] 壹岐太一, 田嶋隼平, 下沢将, 比屋根一雄. $\sim$ ルプデスクの対応記録からの QA リストの半自動抽出. 研究報告知能システム (ICS), 2018.12: 1-8, 2018. sinclo.medialink-ml.co.jp/blog/chatbot-customersupport-schenario/ [8] Yang Liu. Fine-tune BERT for Extractive Summarization. arXiv: 1903.10318v2 [cs.CL], 2019. [9] Kamil Bennani-Smires, Claudiu Musat, Andreea Hossmann, Michael Baeriswyl, Martin Jaggi. Simple Unsupervised Keyphrase Extraction using Sentence Embeddings. arXiv: 1801.04470v3 [cs.CL], 2018. [10] 横山憲司, 難波英嗣, 奥村学. Distant Supervision による質問集約. 情報処理学会研究報告, Vol.2018-NL-236 No.5, pp. 1-5, 2018. [11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. arXiv: 1810.04805v2 [cs.CL], 2018. [12] Tatsuya Ishigaki, Hiroya Takamura, Manabu Okumura. Summarizing Lengthy Questions. Proceedings of IJCNLP2017, Vol.1, pp.792-800, 2017. [13] Li Charles N., Thompson Sandra A. "Subject and Topic: A New Typology of Language". In Charles N. Li. Subject and Topic. New York: Academic Press. 1976. [14] 松田宽, 大村舞, 浅原正幸. 短単位品詞の用法曖昧性解決と依存関係ラベリングの同時学習.言語処理学会第 25 回年次大会発表論文集, 2019.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G6-1.pdf
# クイズビジネスにおける作問作業支援 折原良平 ${ }^{1}$ 鶴崎修功 ${ }^{2}$ 森岡靖太 ${ }^{1}$ 島田克行 ${ }^{1}$ 狭間智恵 ${ }^{1}$ 市川尚志 ${ }^{1}$ 1 キオクシア株式会社 2 東京大学大学院 \{ryohei.orihara, yasuhiro.morioka, katsuyuki1.shimada, chie.hazama, takashi2.ichikawa\}@kioxia.com htsurusaki1929@gmail.com ## 概要 クイズには、それが使われる場面に応じて、問題文に盛り込むべき情報の質や量が異なるという特徴があり、近年様々な応用で成功を収めている「大規模コーパスで事前学習した言語モデルのファインチューニング」というアプローチでは、訓練データの調達が困難であることが予想される。本稿では、 QuizKnock のサービスである「朝 Knock」風のクイズを作問することを題材に、クイズビジネスにおける作問作業に機械学習を適用する上での課題と、その解決法について考察する。 ## 1 はじめに テレビ番組表サイト「テレビ王国」[1]で「クイズ」と検索すると 134 件がヒットする1)ことからもわかるように、クイズは、様々な変遷を遂げつつ [2] も、現代日本のマスメディアにおける主要コンテンツとしての地位を確立している [3]。その活躍の場がテレビにとどまらず、オンライン・オフラインの各種イベントにも広がってきていることと呼応して、クイズ関連のイベント催行やコンテンツ提供を基幹ビジネスとする企業も複数出現している [4]。 クイズを活用できる場面は数多い。クイズは 1940 年代にはすでに日本でもラジオコンテンツとしてのジャンルを確立していたが、その普及の背景には、クイズの持つ教育的効果の影響が大きかった [2]。結婚式や組織の㩊親会など、肩ひじ張らない集会における余興として多用されるのはよく経験するところである。賞品付きのクイズがイベントへの集客促進を狙った企画として使われることも多い。社会課題としての認知症への興味が増す中で、高齢者の認知機能維持向上を目的とする心理療法も注目されるようになっている。その中には、高齢者に過去 1) 2021 年 12 月 8 日に検索実施 の思い出を想起するように働きかける回想法や、参加者の用意した素材について会話を促す共想法があり [5]、適切に選ばれたクイズが役に立つであろうことは想像に難くない。実際、精神科病棟でのクイズ大会が統合失調症患者の状態を改善したとの報告を行った医師が、クイズを、認知症まで至らない軽度の認知障害という段階での予防に活用することに言及している [6]。 一方、様々な場面にクイズが進出していくことは、それぞれの場面に合った様々な種類の作問能力が求められることを意味する。結婚式や、高齢者向け心理療法において、クイズの主題が適切でなければならないのは自明であるが、ある程度主題の選択に自由があるケースでも、出題されるクイズが満たすべき条件が明示的・暗示的に存在し、それに沿った作問がなされる必要がある。例えば、イベントに用いられるクイズにおいては、イベント内でクイズの果たすべき役割に応じて難易度を調節 2 する必要がある。また、クイズ出題側の意図として、問題への解答とそれによる解答者の選別というクイズ本来の機能を超えた効果を狙っている場合もある。 QuizKnock のサービスである「朝 Knock」[7] は、クイズに接することによりユーザが享受するエンタテインメントとして、単に正答する喜びにとどまらず、時事問題に対する興味を喚起し、題材となっているニュースに関連する学びを与えることを狙っている。図 1 は、朝 Knock に掲載されたクイズの例である。これを見たユーザは、正答を選ぼうとするほかに、平井氏の来歴を調べたり、「人にやさしいデジタル化」の詳細を知ろうとデジタル庁のホームページにアクセスするかもしれない。すなわち、インターネットビジネスのエコシステムにおいて波及力を持つ可能性がある。一方、これが図 2 であった 2) 例えば、余興においては多くの人が参加できるよう簡単にする、競争率の高い賞品を争う場合には難しくする、など。 らどうだろうか。ユーザが潜在的に得られる喜びの広がりは、図 1 の場合に比べて限定的と言わざるを得ない。 多彩な作問能力が求められる需要側の事情に対し、作問作業自体はクイズ作家頼みの高コスト構造となっているのが現状である。クイズにおいては、 ビジネス化以前にアマチュアクイズ大会の開催においても問題の収集に悩んできたという歴史 [2] があり、需要の増大が供給のひっ迫に拍車をかけていると考えられる。 本稿では、「多様な用途に対して安価に問題を提供する」というクイズビジネスニーズに対しての現実的なアプローチを提案する。 ## 1 日付で、新たな中央省庁が発足しました。平井卓也氏が大臣を務め、「誰一人取り残さない、人に優 しいOO化」を掲げる、この省庁は何でしょう。 1. スマート庁 2. デジタル庁 3. IT 庁 図 1 朝 Knock 風クイズの例 [8] ## 1 日付で発足した、新たな中央省庁は何でしょう。 1. . 図 2 朝 Knock 風でないクイズの例 ## 2 関連研究 クイズを解答するシステムの研究開発 [9] や、そのための技術向上を図る取り組み [3] はすでに多数行われており、ここでは取り上げない。 前述の通り、クイズの教育的効果が古くから認識されていたことから、教育の文脈で学生の理解度を可視化するツールとしてのクイズを生成する研究が行われてきた [10]。 奥原ら [11] は、近年の教育で求められている教科・科目間の関連を図った横断的な学習において有効と考えられる、幅広い関連情報を含み全体像をとらえさせるような問題を人手で生成することが高コストであることに着目し、Linked Data として与えられた知識源から問題文と等価な Question Graph を生成する方法を提案した。問題の視点の幅広さ (俯瞰度)を、Question Graph に含まれるべき語句の正答からの意味的非類似度を使って表現し、俯瞰度が高くなるような工夫がなされている。 Willis ら [12] は、パラグラフを入力すると正答 の候補を抽出しそれを問う問題文を生成する end-to-end システムを提案した。システムはパラグラフから正答候補を抽出するモデルと、正答とパラグラフから問題文を生成するモデルとからなる。 [12] では、SQuAD データセット [13]を使って前者を学習し、後者としては学習済みの QG-Net[14]を用いた。教育の専門家から収集したデータによる検証を通して、システムがベースラインより教育者の選択に近いことを示した。 一方、クイズには典型的な文としての形式が存在することから、これを分析することは自動作問に対し重要な示唆を与える。伊沢 [2] は、早押しクイズの文型を 25 通りに分類し、その分析を通して、問題が備えるべき条件と、クイズプレイヤの取りうる戦略について考察した。橋元 [15] は、早押しクイズの中でも「パラレル問題」と呼ばれる形式に着目し、 エキスパートプレイヤが問題文の途中でも正答できる理由を考察し、その実装方法を提案した。この中で、未知の問題を解く能力と、問題を作成する能力は、本質的に同じであると述べられている。 深層学習に基づく言語生成が広く行われるようになったことから、その一分野としての質問生成も勃興しつつある。上で述べた QG-Net もその一つである。「朝 Knock」が扱うことの多い時事問題については、Lelks らの研究 [16] がある。ニュース記事がどれほど人々に理解されているかを計測するためのツールとしてクイズを用いる、という文脈におけるクイズの自動生成を扱っており、記事を入力すると問題文と正答、および外れ選択肢を生成する。 データセットとしては 5,000 記事から人手で作成した20,000 問のクイズを用いている。アプローチとしては、要約タスク向けのモデルをクイズデータセットでファインチューニングするというもので、システムの出力に対する軽微な編集が求められるものの、ニュースに対する理解度の計測という目的を果たすことができることを示した。この中で、SQuAD データセットは読解力テストのためのデータセットであって、クイズのためのデータセットとしては必ずしも適切でないと述べられている。 ## 3 学習済み日本語言語モデルのファ インチューニング 上述の [16]のように、大規模コーパスから学習された言語モデルをクイズデータセットでファインチューニングしてクイズ生成に用いる、というアプローチは、日本語については園部による開発例 [17] がある。これは、Wikipedia の日本語ダンプデータなど約 100GB のデータから学習された日本語 $\mathrm{T} 5$ モデル [18]をベースにしている。ファインチューニングの詳細は明らかにされていない。 我々は、園部が $\mathrm{mC4}$ の日本語コーパスなど約 890GB のデータから学習させた日本語 $\mathrm{T} 5$ モデル [19]をべースに、「朝 Knock」を手本にニュース記事 組のデータセット約 220 件によりファインチュー ニングする3)ことを試みた。データの記事と正答を与えて問題文を出力するタスクにおいて、学習に用いなかったテストデータ 17 件に対する自動評価指標の値、および、ベースラインとして、ベースの言語モデルを [18] にした場合4) と、 [17]をファインチューニングなしにそのまま用いた場合の値を表 1 に示す。表中の「相対長」とは、生成された問題文の文字列長を ground truth のそれで割った値である。 表 1 自動評価結果 & & & & BLEU & \\ {$[18]+$ FT } & 0.615 & 0.396 & 0.548 & 0.235 & 25.9 & 0.999 \\ {$[17]$} & 0.354 & 0.129 & 0.288 & 0.120 & 3.6 & 0.387 \\ 生成された問題文に対し、問題文として文法的に成立しているか、さらに正答を問う意味になっているかを著者が主観的に評価し、テストデータ全体に対する割合を計算した結果を表 2 に示す。 表 2 主観評価結果 [17] に比べて独自データセットでファインチュー ニングしたモデルの自動評価スコアが良いのは、テストデータに近い訓練データで学習しているので当然の結果である。[17] は相対長が短い傾向があり、それが他の自動評価指標に影響している。一方、このタスクを、正答を問う問題文を生成する、 というタスクであると考えると、表 2 からわかるように、[17] の性能は極めて良好である。この結果から、[17] のファインチューニングには、正答に対応する短く簡明な質問文が使われており、それが相対長に表れていると考えられる。  4)本モデルを「[18]+FT」と呼ぶ。 また、[19]+FT と [18]+FT の性能の比較から、ベー スとなる言語モデルの訓練データの規模は、問題文生成の主観評価・自動評価性能に正の相関がある。 [19]+FT の出力結果のうち、正答を問う意味になっているものの例を表 3、4 に示す。 表 3 ファインチューニング結果の例: 成功 & & \\ これらのうち、表 3 に挙げたものは、クイズ作家の観点から「朝 Knock」風であると評価されたもの、 4 亿挙げたものはそうでないとされたものである。両者とも指定された正答を問う問題文にはなっているのだが、前者では、ニュース記事に含まれる情報が問題文にもバランスよく配され、問題文を読んだだけで読者にとっての学びがある内容となっているのに対し、後者は「正答を問う」という最低限の機能を果たしているに過ぎず、第 1 章で述べた「朝 Knock」に込められた陰の狙いを実現できていない。 こうした課題は、機械学習の観点からは、目的に合ったファインチューニング用のデータセットを拡充することで解決されることが期待される。しかし、クイズが多様な場面で用いられる可能性を考えると、すべての応用において十分な規模のデータセットが用意できることは考えにくい。また、新規な応用においては常にデータが不足する状況が予想される。一方、各応用の「陰の狙い」は仕様化できる場合があり、その実現は必ずしも機械学習に基づく必要はないと考えられる。 そこで、本稿では、特定の応用に関して機械学習モデルの出力が不十分となる場合のケーススタディとして、「朝 Knock」風でない [19]+FT モデルの出力 表 4 ファインチューニング結果の例: 失敗 & & \\ を後処理で改善する方法を提案する。 ## 4 後処理 表 3、4 の比較からわかるのは、後者ではニュー ス記事に含まれる情報が問題文に十分に活かせていないことである。これを緩和する方法として、2 通りの後処理を考案した。なお、開発にあたっては、日本語 NLP ライブラリ GiNZA[24] を用いた。 ## 4.1 正答の連体修飾節の追加 問題文の情報を増やす方法として、正答に関する情報を付加することが考えられる。これは、「朝 Knock」の狙いからすれば読者の学びを増やすことであるし、他の目的のクイズにおいてはヒントを与えることとも考えられる。具体的な方法の一つとして、ニュース記事から正答の連体修飾節を抽出し、問題文中で正答に対応する語句の前に置くことが考えられる。たとえば、表 4 左側の例では、正答「レトルトカレー」の連体修飾節として「水谷をパッケージに起用した」が抽出される。その結果、図 3 に示す問題文が生成される。 ## 4.2 導入文の追加 正答以外の語句に関する情報の付加も、読者の学びを増やしたりヒントを与える効果を持ちうる。具 7 月 26 日、食肉加エのフリーデンが品切れとなった、水谷をパッケージに起用した商品は何でしょう? 図 3 連体修飾節の追加例 体的な方法の一つは、正答に関連する固有表現に関する情報を表す文を、問題文への導入文として前置することである。導入文の生成は本質的には要約であり、既存の要約生成手法を用いることができる。 本研究では、関連固有表現が与えられるという前提で、石原らによるニュース記事要約 [25] で用いられた抽出型要約の手法を参考に、関連固有表現を含むニュース記事から導入文を生成する方法を実装した。[25] は、MMR による文選択と TF-IDFを用いた文圧縮からなる。本研究では、より多くの情報を付加するという観点から、文選択は関連固有表現を含む文のうち最も長いものを選択する。文圧縮については、選択された文の構文木から評価関数に従って部分木を選択するのは [25] と同様であるが、評価関数として TF-IDFではなく、関連固有表現との関連度を利用する。 たとえば、表 4 左側の例では、関連固有表現「水谷」に対して導入文「東京五輪・卓球混合ダブルスで、金メダルを獲得した水谷隼」が抽出される。体言止め文についてのヒューリスティックを適用した結果、図 4 に示す問題文が生成される。 ## 東京五輪・卓球混合ダブルスで、水谷隼が金メダル を獲得しました。さて、7月 26 日、食肉加エのフ リーデンが品切れとなった、水谷をパッケージに起用した商品は何でしょう? 図 4 導入文の追加例 ## 5 おわりに クイズビジネスにおける多様な自動作問へのニー ズと、学習済み言語モデルのファインチューニングに基づくアプローチの現状と課題、および後処理による現実的な改善方法について述べた。課題を解決する方法は本稿で挙げた方法以外にも多数あり、例えばクイズコミュニティの協力を得てデータセッ卜を拡充することや、後処理で改善されたクイズをデータセットに含めることもあり得るであろう。本稿のような研究が、クイズビジネスの発展に自然言語処理技術が貢献する上での一つのヒントとなることを期待する。 ## 謝辞 「朝 Knock」の狙いについて解説頂いた QuizKnock 様に感謝いたします。 ## 参考文献 [1] テレビ王国. https://www.tvkingdom.jp/. [2] 伊沢拓司. クイズ思考の解体. 朝日新聞出版, 2021. [3] 鈴木潤ほか. ライブコンペティション:「AI 王〜クイズ AI 日本一決定戦〜」. 自然言語処理, Vol. 28, No. 3, pp. 888-894, September 2021. [4] 伊沢拓司ほか. ユリイカ 2020 年 7 月号, 特集*クイズの世界. 青土社, 2020. [5] 大武美保子ほか. 回想法から見た共想法の考察と連携の可能性. 第 24 回人工知能学会大会論文集, 2010. [6] 精神科医・森隆徳が語る医療に活きるクイズ. http://www.qbik.co.jp/contents/mori_001/, 2019. [7] 朝 knock. https://web.quizknock.com/tag/\%E6\%9C\% 9DKnock. [8] 朝 knock. https://web.quizknock.com/ daily-sep2-21, September 2021. [9] 金山博, 武田浩一. Watson: クイズ番組に挑戦する質問応答システム. 情報処理, Vol. 52, No. 7, pp. 840-849, 2011. [10] Azevedo P., et al. Exploring NLP and Information Extraction to Jointly Address Question Generation and Answering. In AIAI2020: Artificial Intelligence Applications and Innovations, pp. 396-407, 2020. [11] 奥原史佳ほか. Linked Data を用いた俯瞰的な多肢選択式問題自動生成手法の提案. 情報処理学会論文誌, Vol. 60, No. 10, pp. 1738-1756, 2019. [12] Willis A., et al. Key Phrase Extraction for Generating Educational Question-Answer Pairs. In L@S '19: Proceedings of the Sixth (2019) ACM Conference on Learning, pp. 1-10, 2019. [13] Rajpurkar P., et al. SQuAD: 100,000+ questions for machine comprehension of text. In EMNLP 2016: Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2383-2392, 2016. [14] Wang Z., et al. QG-Net: A data-driven question generation model for educational content. In L@S '18: Proceedings of the fifth annual ACM conference on learning at scale, 2018. [15] 橋元佐知ほか. 競技クイズ・パラレル問題の基本構造と文型. 言語処理学会第 27 回年次大会, pp. 1420-1424, 2021 [16] Adam D. Lelkes, Vinh Q. Tran, and Cong Yu. Quiz-Style Question Generation for News Stories. In Proceedings of the Web Conference 2021 (WWW '21), 2021. [17] 園部勲. deep-question-generation. https://github. com/sonoisa/deep-question-generation. [18] 園部勲. t5-base-japanese. https://huggingface.co/ sonoisa/t5-base-japanese. [19] 園部勲. t5-base-japanese-mC4Wikipedia. https://huggingface.co/sonoisa/ t5-base-japanese-mC4-Wikipedia. [20]「あつまれどうぶつの森」に“ラジオ体操” が登場! joy-conを使って体を動かすことも可能. https://game.watch.impress.co.jp/docs/news/ 1359018.html, October 2021. [21] 志村けんさんの半生をドラマ化主演・山田裕貴、脚本・演出は福田雄一「志村けんとドリフの大爆笑物語」.https://thetv.jp/news/detail/1055394/, October 2021. [22] 卓球金メダルで「水谷隼カレー」人気通販サイトで品切れ...メーカー「リオ以上の反響になるのでは」. https://www.j-cast.com/2021/07/27416975. html?p=all, July 2021. [23] 木星トロヤ群へ探査機太陽系形成過程の解明目指す—NA S A. https://www.jiji.com/jc/article? $k=2021101600442 \& g=i n t$, October 2021. [24] 松田寛. GiNZA - Universal Dependencies による実用的日本語解析. 自然言語処理, Vol. 27, No. 9, September 2020. [25] 石原祥太郎, 澤紀彦. MMR による文選択と TF-IDF による文圧縮を用いたニュース記事要約. 第 35 回人工知能学会大会論文集, 2021.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G6-2.pdf
# 民事判決のオープンデータ化へ向けた 機械処理による判例仮名化の検証 久本空海城戸祐亮津金澤佳亨僖 株式会社 Legalscape info@legalscape. co. jp ## 概要 民事判決を公開するためには、個人情報や秘匿情報への配慮が課題となっており、それらの匿名加工 (仮名化)が必要とされる。しかし、大量の判決全てを人手のみで匿名加工することは現実的に難しい。 我々は判例仮名化を固有表現抽出問題の拡張と捉え、その自動処理の実現性を検証した。実際の判例データを用いた実験により、事前学習済み言語モデルを使った系列ラベリングで一定以上の性能(適合率 $93.4 \%$ 、再現率 $94.5 \%$ )が実現可能なことを確認した。加えて、人手修正の方向性についても検討した。 なお、当発表に関する情報はウェブ上の記事としても公開している。 ## 1 はじめに 法治国家において判例(裁判所による過去の法律的判断) は、法的安全性のために重要な情報である。 またそのようなデータは、様々な研究や新たなサー ビスの開発にも有益なものである。 日本国における判例は現状、裁判所によって社会的関心が高いと判断されたものがウェブサイト掲載されているほか、法律系出版社などが一部を独自に収集し公開している。町村の調查[1]によれば、2017 年に全国の地方裁判所の民事・行政事件の処理済み件数は約 16 万件だったが、裁判所がウェブ掲載した判決数はそのうち 44 件(0.03\%)のみであり、民間企業である Westlaw Japan の判例データベースでも 5,033 件(3.02\%)にすぎない。 日本国における民事司法制度改革の流れから 2020 年 3 月、「民事判決のオープンデータ化検討プロジェクトチーム (PT) ii」が日弁連法務研究財団により設置された。これは、政府による民事裁判手 ^{i}$ https://note.com/legalscape/n/nf6341940deaa iihttps://www.jlf.or.jp/work/hanketsuopendata-pt/ } 続き IT 化の取り組みに併せ、民事判決を電子化し公開することを検討するプロジェクトである。この取り組みには、日本弁護士連合会の関係者や法律系出版社、法学研究者などが構成員として関わり、加えてオブザーバーとして内閣官房や法務省、最高裁も参加している。 判例のオープンデータ化へ向けて大きな課題となるのが、個人情報や秘匿情報の取り扱いである。センシティブな情報が含まれうる判決文は、そのままの形で公開することは難しく、これらの匿名加工 (仮名化)が必要となる。 日本において年間数十万件とも言われる民事判決の全てを、人手のみで匿名加工することは現実的に難しい。そのときに、その作業を自然言語処理技術で(半)自動化するといらことが考えられる。 我々は判例の仮名化を固有表現抽出問題の拡張として機械処理による検証を行い、一定以上の性能が実現可能であることを確認した。当発表では各国の状況や、実際の日本語判例文を用いた実験、そしてそれを踏まえた民事判決オープンデータ公開を実現するに当たっての課題について述べる。 ## 2 判例の仮名処理 判例の匿名加工処理においては、単に個人情報や秘匿情報など文中のセンシティブな部分を“黒塗り” すれば十分というわけではない。例えば「原告山田」「被告佐藤」「佐藤が〜」といった文中箇所を、一律に「原告口」「被告田」「ロが〜」と黒塗りしてしまうと、各箇所がどの実体を指すかがわからず、閲覧者にとっての利用価値が損なわれてしまう。そのために、それらが同一実体であることを示すために“仮名記号”を割り振り「原告 $X\rfloor 「$ 被告 $Y\rfloor 「 Y$ が〜」などと置き換える処理が施されることが多い。 これらの処理を総称して仮名化と呼ぶ。 裁判所や法律系出版社などから現在公開されている判例は、人手作業による仮名化が行われている。 しかし、もしこれが年間数十万件というスケールになると、それら全てを人手のみで実施するのは現実的ではない。そこで検討したいのが、自然言語処理技術の活用による(半)自動化である。 ## 2.1 他国での取り組み 米国においては既に Public Access to Court Electronic Records (PACER) iii という公的データベースが整備されており、典型的には裁判後 24 時間以内に情報が閲覧可能となる。これは、多くにおいて仮名化がなされていないために可能だと考えられる(ただし刑事事件では一部の個人情報が除去・編集される ${ }^{\text {iv }) 。 ~}$ 多くの国では日本と同様に仮名化の問題が存在する。近年、その機械処理に取り組んでいる事例もいくつか公開され始めているが、未だどの国においてもその仕組みが大規模に実運用されるまでは至ってないようである。 フィンランドでは GDPR(EU 一般データ保護規則) に従うため、統計的手法とルールベース手法を組み合わせた半自動の個人情報匿名加工システムの開発が研究機関と法務省により進められている[2]。デンマークからは、法律系出版社による判例の自動匿名加工に関する報告がある[3]。ウルグアイでも、法文書の自動匿名加工に関する検証が報告されている [4]。フランス最高裁判所からは、判例に対する固有表現抽出の精度改善について報告がある[5]。また、匿名加工に直接利用されてはいないが、法領域での固有表現抽出についてドイツからの報告がある[6,7]。 ## 3 日本語判例仮名化の実証実験 当節では 2020 年度に前述の PT で実施した機械処理による判例仮名化の検証について述べる。 図 1 機械処理の流れ  ## 3.1 問題設定 今回の検証では機械処理による仮名化を「1.対象語句の特定」と「2. 語句属性の特定」という 2 つのステップに分けて処理を行った(図 1)。 1.は、いわゆる固有表現抽出の問題である。このとき、仮名が「漏れた」時にはプライバシーリスクに影響し、逆に仮名「し過ぎた」時には、閲覧者の利用性や権利一影響する。またこれは単純な分類問題と違い「部分的な誤り(部分的な正解)」もありえる。このようなケースは、例えばもし機械処理後に人手修正をするのであれば、その生産性へ影響することが想定される。これらの観点を踏まえて、単に「精度 95\%」などというのではなく、適合率・再現率それぞれの値や、完全一致と部分一致での性能の違いなどを確認していく必要がある。 2.は、関係抽出やエンティティ・リンキング、共参照解析といったタスクと類似したものであり、仮名対象語句ごとに、適切な仮名記号を選択する処理である。そのとき単に同じ文字列を同じ記号とするのではなく、指し示す実体や、語句の種類を考慮する必要がある。例えば、同じ「山田」という語句でも、それが同性の別人物であれば別記号を付与する必要がある。他にも、住所が本籍かそれ以外かによって仮名化の粒度を区別することもある。これは仮名基準次第であり、今回はある一定の基準をもとに検証したが、法的要件や利用ニーズによって基準は変化する。この基準については別途 PT で、法学者らなどにより議論が進められている。 ## 3. 2 データ 今回の検証では、実際の判例原文と、それを人手により仮名化した文書のペア、計 1,642 件を用意した。そのらち 100 件ずつを検証セット、評価セットとし、残り 1,442 件(約 15 万行、 1,200 万文字)をモデル学習およびルール作成に利用した。 ## 3. 3 手法 予備調查を踏まえ当検証では最終的に、処理ステップ 1.にはファインチューンした BERT [8]、2.にはルール処理を用いて仮名化を実施した。 処理ステップ1.について、法文書は一般的な自然言語文書に比べて規則的に書かれていることからまずはルール記述による処理を試みたが、今回試した 範囲では高い性能には至らなかった。次に $\mathrm{spaCy}^{v}[9]$ による固有表現抽出モデルの学習と検証を行ったが、結果として再現率 $85 \%$, 適合率 $92 \%$ 程度に留まった。加えて spaCy モデルでは言語資源として法律用語一覧(約 1.2 万語)の活用も試みたが、性能への影響は確認できなかった。これには、そもそも対象判例データにおいて約 $0.9 \%$ の語のみが該当する法令用語であること、また法律用語自体が仮名対象になることはないこと、などが理由として考えられる。 上記の予備検証を経て、最終的に利用したのは次のようなモデルである。ベースには東北大学による日本語の事前学習済み BERT (Whole Word Masking) viを用い、それを別途用意した判例文書(仮名後のみ) 約 2.5 万件により MaskedLM で 10 万ステップの継続学習を行った。その後、学習用の判例データにより固有表現抽出モデルをファインチューニングした。また BERT モデルに加えて、少しの簡単な後処理(当事者セクションのルール解析による原告・被告名の把握、日付や電話番号のパターンによる抽出、 など)も行った。 今回は時間やリソースの都合上、各設定で一つのモデルのみを学習した。異なる初期値から複数のモデルを学習することによる平均値の確認などをしたわけではなく、あくまでも大まかにこの問題設定と実データでどの程度の性能が達成可能か、どのような誤り傾向になるかを確認したのみであることに注意が必要である。 同様に今回は、最高性能の追求を十分に行ったわけではない。例えば、文字単位ではなく単語単位 BERT の利用や、CRF 層の追加、BERT 以外の言語モデルの導入などにより、性能向上が達成できる可能性がある。 処理ステップ 2.(語句属性の特定)は、統計的モデルではなく、基本的にルールベースで実施した。本来、関係抽出や共参照分析といった問題は容易なものではないが、法律文書においては曖昧な記述は基本的に無く「山田太郎(以下「山田」という。)」と明示的に述べられているなど、ルールによる処理と相性が良いと言える。今回は具体的な処理として、前述したような明示的記述の利用や、形態素解析器による人名フルネームの姓・名への分割、ひらがなやカタカナといった異表記での対応付けなどを行った。 ^{v i}$ https://huggingface.co/cl-tohoku/bert-base-japanese-char-whole-word -masking, 簡単の為に文字単位でのモデルを利用 } ## 3. 4 結果 ## 表 1 固有表現抽出の性能 処理ステップ 1.(対象語句の特定)の性能を表 1 に示す。のべ仮名箇所数べースで、適合率 $93.4 \%$ (部分正解含め 96.4\%)、再現率 94.5\%(部分正解含め 96.8\%)となった。一方、仮名単語の種類数ベースではより低い性能となっており(適合率は 5.8 ポイント、再現率は 2.7 ポイント低下)、これは出現回数が多い単語における誤りが比較的少ないことを示している。全体としては約 5 割の判例は修正を全く必要とせず、必要とする判例でも平均 7 箇所、 3 単語の修正に留まるという結果になった。 ## 図 2 学習データ量と固有表現抽出モデル性能 また、学習データ量を減らしたモデルでは、25\% (361 件)程度で最大量(1,442 件)と同程度の性能に至った(図 2)。単に学習データ量を増加させても、ここから性能が大幅に向上することは見込めない可能性が示唆される。この背景には、そもそも法律文書は規則的に記述されていることや、難しい事例は基本的に特殊な固有名詞であって判例データが増加してもそれらのカバレッジが上がるわけではないことなどが想定される。 そして1.を完全に正解できた前提では、処理ステップ 2.(語句属性の特定)は精度vii98.0\%となった。  ## 3. 5 エラー事例 ここでは、どのような誤りの類型があったかの偽事例を示す。これらはあくまで実際の誤り事例を参考にして人為的に作成した疑似的な例であり、実際の判例文は一切掲載していない。 表 2 固有表現抽出における誤りの疑似例 \\ 処理ステップ 1.(対象語句の特定)での誤り例を表 2 に示す。人名や企業名に関しては、それが一般名詞ともなり得る場合の誤りが多く見られた。また、 インターネット上でのハンドルネームやスレッド名は多様に表記され、難易度が高い。住所はスパンが長くなり、完全な誤りは稀だが部分的な誤りが見られた。数値表現は、電話番号などのようにパターンがある程度既知でない場合の誤りが多かった。生年月日は、それが単なる日付表現かどうかは文脈から汲み取る必要があり誤るケースがあった。 処理ステップ 2.(語句属性の特定)では、以下に述べる 4 つの誤り類型が確認された。 - 明示的ではない略称:「東京タナ力病院」~「夕ナ力病院」 -一意に特定できない人名:「田中太郎」「田中二郎」が登場する判例での曖昧性のある「田中」 - 同表記だが区別される名前:「田中が所有する田中ビル」 $\rightarrow 「$ A が所有する $\underline{B} ヒ ゙ ル 」$ -その他、明示的ではない別表記: ニックネーム (「田中直樹」 $\rightarrow$ 「ナオ」) や(ネットネーム (「田中」 $\rightarrow$ 「tanaka@net」)など このステップ 2.での誤りは、1.と異なりプライバシーリスクには影響しない。一方で閲覧者の利便性には影響しうるが、現在の簡単なルール処理でも 100\%に近い精度が達成できている。そのため、判例の仮名化においては、ステップ 1.がより難しく重要な問題だと言える。 ## 4 判決オープンデータ化へ向けて 前節で述べた初期検証により、機械処理で 90\%以上の自動仮名化は達成しうることが確認された。 しかし、個人情報への配慮や閲覧者の利便性を考えると、高性能だから実用可能であるとは必ずしも言えない。そして機械で処理する限り、ここから性能改善を重ねても 100\%を保証することはできない。 そのため、完全な仮名化には人間のチェックが不可久となるviii 完全な自動化ではなく、機械出力の活用による人間作業の高速化によって大量のデータを処理するという方向性が、オープンデータ化へ向けて PT で検討している一案である。そのためには、機械処理の適合率(仮名過多)を妥協してでも再現率(仮名漏れ)の誤りを減らすことが有用かもしれない。また、 モデルへの人手修正の適切なフィードバックが効果的かもしれない。加えて、人間が作業しやすいツー ルの開発も非常に重要だと考えられる。 前述した検証結果を踏まえ、我々は判決のオープンデータ化へ向けて、機械出力を活用した効果的な人手修正作業の検証などに引き続き取り組んでいる。 ## 5 おわりに 当論文では、民事判決の公開を実現するために必要な仮名化の概要や、各国の状況を解説した。また、 それを固有表現抽出問題の拡張としたとき、実際の判例文を用いた検証で一定以上の性能(適合率 93. 4\%、再現率 $94.5 \% )$ が実現可能なことを示した。実際に日本国で民事判決をオープンデータ化するには、人手による機械出力の修正や運用スキーマの検討など様々な課題があり、その実現へ向けて更なる検証や議論を進めている。  な修正を必要としない判例公開スキームも検討の余地がある ## 謝辞 当検証の実施にあたって、民事判決オープンデータ化 PT の構成員にサポートと助言を頂いた。また法律分野での自然言語処理について、名古屋大学の外山勝彦教授、小川泰弘准教授に助言を頂いた。 ## 参考文献 1. 民事判決ネット上で提供官民で検討、23 年度にも.日本経済新聞,2020 年 6 月 7 日. https://www.nikkei.com/article/DGXMZO60029090V00 C20A6000000. 2. Oksanen, A., Tamper, M., Tuominen, J., Hietanen, A., \& Hyvönen, E. (2019). ANOPPI: A Pseudonymization Service for Finnish Court Documents. JURIX. 3. Povlsen, C., Jongejan, B., Hansen, D.H., \& Simonsen, B.K. (2016). Anonymization of Court Orders. 2016 11th Iberian Conference on Information Systems and Technologies (CISTI), 1-4. 4. Garat, D., \& Wonsever, D. (2019). Towards De-identification of Legal Texts. ArXiv, abs/1910.03739. 5. Barrière, V., \& Fouret, A. (2019). May I Check Again? - A simple but efficient way to generate and use contextual dictionaries for Named Entity Recognition. Application to French Legal Texts. NODALIDA. 6. Leitner, E., Rehm, G., \& Schneider, J.M. (2019). Fine-Grained Named Entity Recognition in Legal Documents. SEMANTiCS. 7. Leitner, E., Rehm, G., \& Moreno-Schneider, J. (2020). A Dataset of German Legal Documents for Named Entity Recognition. LREC. 8. Devlin, J., Chang, M., Lee, K., \& Toutanova, K. (2019). BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. ArXiv, abs/1810.04805. 9. Honnibal, M., Montani, I., Van Landeghem, S., \&. Boyd, A. (2020). spaCy: Industrial-strength Natural Language Processing in Python. 10.5281/zenodo. 121230 .
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G6-3.pdf
# より出力されたコードである. 自由回答は品詞付き 形態素を素性番号に変換するが, 同じ形態素であっ ても, 「従業先事業の種類」と「仕事の内容」のどち らに出現したかにより素性番号が異なる. 自動コーディングでは, 第 1 位に予測された結果 に対し, 複数の分類スコア (分離平面からの距離)を 利用し,最も高いレベル A から最も低いレベル $\mathrm{E}$ ま で5段階の「確信度」を付与する. ここで, rank1, rank2 は, それぞれSVMにより第 1 位, 第 2 位に予測され たコードに付随して出力される分類スコアを示す. また, $\alpha, \beta$ は間値で, 2005 年 SSM 調查データセット (12,500 事例) を用いた実験により, $\alpha=3, \beta=0.4$ と した. A : rank1>=0 かつ rank2 $<0$, rank1-rank2 $>=\alpha$ B : rank1>=0 かつ rank2<0, rank1-rank2< $\alpha$ C : rank $1>=0$ かつ rank $2>=0$ D : rank1<0 かつ rank2 $<0$, rank1-rank $2>=\beta$ E : rank1<0 かつ rank2 $<0$, rank1-rank2 $<\beta$ 確信度ごとの正解率 (全事例中, 正解であった事例の占める割合) と出現率 (全事例の中で 該当する 事例が出現した割合)は, 自動コーディングシステ ムが処理した 4 種類の国内・国際標準の職業・産業 コーディングの実験の結果, コーディングの種類や コードの数(約 60 個〜400 個)が異なっていても,安定して「レベル A(約 95\%)>>レベル B(約 70~ $90 \%$ )>>レベル C>レベル D>>レベル E(約 20\%〜 35\%)」の順で,レベル E は際だって低かった[4]. # # 2. 3 情報不足の判定 「回答が情報不足」の場合は正解率が低いと考え,職業コーディングにおいては,「確信度が最も低い レベル」を「確信度レベル $\mathrm{E}$ に限定し, これが付与 された場合を情報不足であると判定する。 ## 2.4 追加情報の提示と収集 追加情報の提示は, 次の手順による. あらかじめ過去の事例から, 自動コーディングシステムが予測した結果が不正解であった場合の正解コードを調査し, 混同されやすいコード対の情報として「不正解コードー正解コード対応表」を作成しておく.またこの対応表をもとに,混同しやすい職業を記述した説明文の事例から, 両者を弁別する のに有効な語を抽出した「不正解コードー正解コー ド并別語表」も作成しておく. 自動コーディングシステムにより第 1 位に予測されたコードが不正解であると想定し,これをキーに 「不正解コードー正解コード対応表」を検索し, 対応する正解コードを見つける. 次に, 正解コードと不正解コードのペアにより「不正解コードー正解コ一ド弁別語表」を検索し, 該当するぺアの弁別語を選択肢として提示する. 図 1 は, 初期回答が自動コーディングにより,コ一ド「628」(鋳物工、鍛造工、金属材料生成作業者) と予測された場合, 「不正解コードー正解コード対応表」により,対応するコードとして,「633」(一般機械器具組立工・修理工),「677」(電気工事・電話工事作業者)「5503」(機械・電気・化学技術者)を見つけ,「不正解コードー正解コード并別語表」により,「628」とこれらのコードとの弁別語である「一般機械」,「電気工事」と「電話工事」,「電気技術者」を選択肢として提示した例である. 今回選択肢として提示する語は, [4]により提案された 4 種類のうち最も有効であった方法を用いたが,提示方法の変更は容易である。 図 1 選択肢提示の例(コード「628」の場合) この選択肢の中から回答者に 1 個以上を選んでもらい, 初期回答に追加する. その際, 適切な選択肢がない場合またはある場合でも,追加したい情報があれば,次画面で自由回答を入力できる。 STEP4 で収集された語を初期回答に追加して STEP2 に戻り, 再度自動コーディングを行う. 今回の実装では, STEP2への戻りを 1 回のみとしたが,繰り返しの条件について検討する必要がある. ## 3 実験 今回は対面でデータ収集を行っていないため,提案システムのうち情報不足と判断した際に追加のキ ーワード入力を求める部分の有効性を調查する.調 ^{\mathrm{i}}$ 自由回答ではなく選択肢とした理由は,回答空間を大きくしないためである. } 查は情報を追加した回答と初期回答に対するコーデイングの状況の比較により行なう。両者の比較は, コーダだけでなく自動コーディングについても行う。 コーダは C 大学「社会調查法」受講生 6 名 (3 年生)で,事前にコードの定義マニュアル[6]を与え, 1 時間のレクチャーを行ったが,大規模調查でコーダを務める大学院生や研究者ほどには熟練していない. 今回の実験ではすでに正解が分かっているため,回答者が追加すると思われる情報を選択または入力したため, 実際より正解率が高くなる可能性がある. ## 3. 1 実験設定 実験では, 訓練事例を 2000 年〜2006 年までの JGSS データセット(計 33,711 事例), 評価事例を JGSS-2008 データセットのうち, 確信度レベルが E と判定された 201 事例(全体の 7.6\%)とした. 以下では, 初期回答を $\mathrm{A}$, 情報を追加した回答を B とよぶ. 情報の追加は, 事例ごとに正解コードを参照し, 該当する選択肢が提示された場合はこれをチェックし,ない場合は自由回答を入力する方法で行った. 評価事例は, 寸べての事例についてデータセット A とデータセット B の 2 種類を用いた. データセット $\mathrm{A}$ ,データセット $\mathrm{B}$ をそれぞれ 6 つに分割し, サンプル番号順に A1~A6, B1~B6 と名付け, 各々のデータセットについて 1 名がコーディングを担当した. 作業の時間帯を前半と後半に分け,前半は 3 名が $\mathrm{A} 1 \sim \mathrm{A} 3$. 別の 3 名が $\mathrm{B} 1 \sim \mathrm{B} 3$, 後半は前半で $\mathrm{A}$ を担当した 3 名が B4B6, B を担当した 3 名が A4~A6 を担当した. この作業をデータセットを変えて 2 回行ったため, どのデータセットも異なる 2 名がコーディングを行ったことになる. コーダには,事例ごとに,「職業コード」と「ストレス度(「1:ほとんどなし(低)」「2:やや感じた(中)」「3: 非常に感じた(高)」)」,また「1 つのデータセットを処理した開始時刻と終了時刻」 の記入を依頼した。 評価尺度は,コーダについては,正解率,ストレス度,処理時間(分)を用い, 1 回目と 2 回目の平均值で評価する。ただし,今回のコーダは熟練していないために, 回を重ねる効果が生じる可能性もあり, 1 回目と 2 回目の比較も行う. 自動コーディングについては, 正解率, 提示機能 の有効性を評価する。提示機能の評価は, Bにおける正解が,システムが提示した選択肢によるものか,自由回答によるものかを調査する。 ## 3.2 実験結果 提案システムは,データセット $\mathrm{A}$ に対する自動コ一ディングの結果, 各事例に対して平均 2.7 個(最大 7 個,最小 2 個)の選択肢を提示できた ${ }^{\mathrm{ii}}$. ## 3.1.1 コーダの正解率 コーダの正解率は, 表 1 に示すように, データセット B では平均 $52.7 \%$ (1 回目 $53.7 \%, 2$ 回目 $51.7 \%$ ) で, データセット $\mathrm{A}$ より平均 16.7 ポイント (1 回目 18.4 ポイント, 2 回目 14.9 ポイント)向上した. 1 回目と比較すると, 2 回目は平均 3.9 ポイント向上しているが, データセット A は 1.5 ポイント向上, デー タセット B は 2.0 ポイント低下しているため, 2 回目の効果は考えられず,正解率向上におけるデータセット B の有効性が認められる。 表 1 コーダの正解状況(平均) 単位: 事例数 ## 3.2. 2 コーダのストレス度 コーダのストレス度は,コーダ自身による評価のために個人差があるが, 表 2 に示すように, データセット B で 1 つの事例につき平均 0.25 (1 回目 0.30 , 2 回目 0.19)低下した. 1 回目と比較すると, 2 回目は平均 0.11/事例低下したが(データセットAは $0.13 /$事例, データセット B は 0.02 /事例),データセット間の違いほど大きくないため, ストレス低下におけるデータセット B の有効性は認められる.  ## 3. 2.3 コーダの処理時間 コーダの処理時間は, データセット B で平均 0.3 分/事例(1回目 0.4 分, 2 回目 0.1 分)短縮された. 1 回目と比較すると, 2 回目は平均 0.2 分/事例ほど短縮され(データセットAは 1.1 分/事例,データセット B は 0.8 分/事例), 2 回目の効果とデータセットによる効果の違いは 0.1 分 (6 秒) 程度である. 職業コードは 1 つに絞る必要があるため, 情報が増えたことで判断に迷った可能性が考えられる. ## 3. 2.4 自動コーディングの正解率 システムの正解率は,表 3 に示すように,データセット A 49.3\%, データセット B は 58.7\%で,いずれもコーダより高いが,データセット B で向上した程度は 9.5 ポイントでコーダの方が高い. 表 3 システムの正解状況 単位: 事例数 ## 3. 2.5 提案システムの提示機能 コーダ,自動コーディングのいずれにおいてもデ一タセット B で正解率が向上したが,これには回答者が追加した自由回答による効果もあるため,提案システムが適切な選択肢を提示したかどうかを評価するには,データセット B で追加された情報が選択肢であるのか否かを調査する必要がある. データセット B では, 選択肢のみが 97 事例 (うち 8 事例は選択肢のみを 2 個追加),自由回答のみが 95 事例,選択肢と自由回答の両方が 7 事例,どちらも追加なし (初期回答と変わらず)が 2 事例で,選択肢と自由回答はほぼ同数であった. この状況と, 自動コーディングとコーダの場合における正解状況との関連を報告する。まず,自動コ ーディングにおいては,データセット B で正解であった 118 事例(表 3)に追加された情報は,表 4 に示すように,選択肢のみが 51 事例 (43.2\%),自由回答のみが 64 事例 (54.2\%),両方が 3 事例(2.5\%)で,選択肢より自由回答の方がやや多い. 表 4 に追加された情報が選択肢のみか自由回答のみか両方かを, 2 つのデータセットにおける正解/不正解の状況ごとに示す. 同様に, コーダにおける状況を表 5 に示す.表 4 自動コーディングが正解した場合の追加情報 表 5 コーダが正解した場合の追加情報(平均) データセット $\mathrm{B}$ に追加する情報を選択肢に限定した場合の正解率は,提案システムは 41.8\%であるが, コーダは平均 $29.1 \%$ (1 回目と 2 回目がほぼ同じ值) と大きく低下している. 該当する選択肢がない場合は自由回答で補うことができ,その有効性も示されたが,今後の課題として,選択肢の提示機能を向上させる改善を行う必要がある. ## 4 おわりに 本稿では。社会調査において収集される自由回答に分類に必要な情報が含まれているか否かについて,職業コーディングを対象に,機械学習を適用した自動コーディングにより調査現場で判断し,不足すると判定した場合は,侯補の情報をその場で回答者に提示して追加してもらうシステムを提案した。提案システムは,コーダにおいても自動コーディングにおいても有効性を示した。 今後の課題は次の 3 つである. 1 つ目は,提案システムの改善で,例えば,追加情報収集の終了条件の設定や選択肢提示機能の向上を行う必要がある. 2 つ目は,提案システムに対する調査員や回答者による評価である。しかし,昨今の状況から,調査員が回答者と対面する現地調査が困難となり,これに代わるものとして, オンライン調查の研究が進み[7],以前と違って学術調査においても多く利用されるよらになってきた. 提案システムは,オンライン調査への対応が容易であると考えられるため, 3 つ目としてこの拡張も検討したい. ## 謝辞 2005 年 SSM 調查データの利用に関して, 2005 年 SSM 調査研究会の許可を得た。 日本版 General Social Surveys (JGSS) は, 大阪商業大学 JGSS 研究センター(文部科学大臣認定日本版総合的社会調査共同研究拠点) が, 東京大学社会科学研究所の協力を受けて実施している研究プロジェクトである. ## 参考文献 1. 原純輔, 海野道郎. 社会調査演習. 東京大学出版会, 1984. 2. 轟亮, 杉野勇. 入門 - 社会調查法. 法律文化社, 2010. 3. 社会学における職業・産業コーディング自動化システムの活用. 高橋和子, 多喜弘文, 田辺俊介, 李偉. 自然言語処理, 2017 年, 第 24 巻第 1 号. 135-170. 4. 機械学習を適用した自由回答収集時における有効情報追加システムの構想一職業コーディングを例として一. 高橋和子. データ分析の理論と応用, 2018 年, 第 7 巻第 1 号. 21-42. 5. 機械学習の適用による社会調査現場での追加情報収集支援システム,高橋和子,奥村学,鈴木泰山,清家大嗣. 言語処理学会第 26 回年次大会論文集, 2020. 6. 1995 年 SSM 調査研究会. SSM 産業分類・職業分類(95 年版)修正版. 1995 年 SSM 調查研究会, 2006. 7. 大隈昇, 鳮真紀子, 井田潤治, 小野裕亮. ウェブ調查の科学 The Science of Web Surveys 調查計画から分析まで. 朝倉書店, 2019. ## A 付録 STEP1 初期回答入力用画面の例画面の質問文とプルダウンで表示される選択肢は, 2025 年 SSM 調査の調査票における「職業情報」と「学歴」を尋ねる部分を Web 用に作成し直した.入力を完了し「次に進む」ボタンを押すと,確認画面が表示され,サーバに送信される。記入漏れがある場合は入力を促すメッセ ージが表示される. 付録図 1 初期画面 付録図 2 ID と雇用形態(「地位」)入力 付録図 3 「従業先の事業」「仕事の内容」入力 付録図 4 従業員数(「従業先の規模」)入力 \\ 付録図 6 「学歴」入力
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G6-4.pdf
# 大規模事前学習言語モデルによる日本語所見文を用いた COVID-19 肺炎の自動検出 鈴木脩右 ${ }^{1}$ 明石敏昭 2 橋本正弘 ${ }^{3}$ 大竹義人 4 村尾晃平 5 狩野芳伸 1 1 静岡大学大学院総合科学技術研究科 2 順天堂大学 医学部 放射線診断学講座 3 慶應義塾大学 医学部 放射線科 (診断) 4 奈良先端科学技術大学院大学 先端科学技術研究科 5 国立情報学研究所医療ビッグデータ研究センター ssuzuki@kanolab.net t.akashi.sg@juntendo.ac.jp m.hashimoto@rad.med.keio.ac.jp otake@is.naist.jp k-murao@nii.ac.jp kano@inf.shizuoka.ac.jp ## 概要 CT 画像に付随する放射線読影レポートの所見文から,COVID-19肺炎であるか否かを自動検出する検出器を構築した. 読影レポートの件数は多くないため,検出器には複数の大規模事前学習言語モデルを用い比較した. 提案手法はベースラインより優れ,大規模事前学習言語モデルの有効性を示した。 なかでも,我々が構築した RoBRTa ベースの検出器は Accuracy スコア 0.918 と最高精度を達成した. また,SHAP を用いて検出に影響を与える上位 9 単語を算出し,提案モデルが肺の症状を重視することが示唆された。 ## 1 はじめに COVID-19 肺炎が世界中で流行している. 日本医学放射線学会は日本医用画像データベースを用いた COVID-19 肺炎の $\mathrm{CT}^{1}$ 画像収集と教師データ作成を行い, AI 画像診断を利用した COVID-19肺炎の国内での発生検出に取り組んでおり,一定の成果を得ている [1]. 現在,自然言語処理によるアプローチを取り入れた高精度な検出システムの実現が期待されている. 本研究では,CT 画像に付随する日本語放射線読影レポートを用いて,所見文から COVID-19肺炎を自動検出する検出器の構築を試みる. 我々は日本医学放射線学会が収集したデータからデータセットを構築する. データセットが小規模であることから,大規模事前学習言語モデルを検出器に用い高精度なモデルを実現する. ## 2 関連研究 日本語放射線読影レポートを用いたタスクに大規模事前学習モデルを適応した研究では, 多田ら [2], Kuwabara ら [3],Nakamura ら [4],本田ら [5] 等がある. Kuwabara らは小規模な疾患 2 值分類データセットを構築し,事前学習済みの BERT[6] を利用することで,小規模データの学習でありながら高精度な分類器を構築した. Honda らは約 32 万件の放射線科読影レポートを用いて BERT の事前学習を行い,12 クラス疾患分類タスクにおいて優れた分類器を構築した. 我々の知る限り,日本語放射線読影レポートを用いた COVID-19 肺炎の自動検出に関する研究は存在しない. ## 3 データセット 放射線読影レポートとは,放射線科の読影医が CT 等の検査画像から,検査画像に対する所見や診断を記載した報告書である。所見文の文例を図 3 に示す. 本研究では所見文を入力し,COVID-19 肺炎の自動検出を行う. ## 3.1 使用データ 日本医学放射線学会が収集したデータを使用する。 PCR 検査結果データは PCR 検査結果を元に,3 種類のラベル (陰性,陽性,不明)を付与したデータである。「不明」は検査結果が判定不能のものである. 本研究では「陰性」と「陽性」を使用する. COVID-19 流行前データ COVID-19 流行前に収集されたデータに対して,COVID-19 らしさを示す 4 種類のラベル (典型的所見,疑わしい所見,非典型的所見,肺炎ではない所見)を付与したデータである. 本研究では「典型的所見」を陽性データ,「非典型的所見」と「肺炎ではない所見」を陰性データとして扱う。 正常肺データは正常肺の症例を集めたデータである.本研究では陰性データとして扱う。 アノテーションデータは本研究で独自にアノテーションしたデータである. データベースの中には,PCR 検査結果データのようなラベルは付与されていないが COVID-19 の症状について記載されているデータが存在する.これらのデータを抽出し,記載内容を元に手作業で 3 種類のラベル (陰性,陽性,不明)のいずれかを付与した.この内「陰性」と「陽性」を使用する。 ## 3.2 データセットの構築 3.1 節で述べたデータを元に 2 種類のデータセットを構築した。 性能評価用データセットは正常肺データ以外のデータで構築した. データサイズは 3,317 件 (陰性:1,664 件,陽性:1,653 件) である。本データセットで交差検証を行い,各モデルでの性能を評価した。 実タスクを想定したデータセットは PCR 検査結果データ及び正常肺データから評価データを,評価データに使用していないデータから訓練データをそれぞれ構築したデータセットである. データサイズは,評価データ 300 件 (陰性: 150 件,陽性: 150 件),訓練データ 3,084 件 (陰性:1,581 件,陽性:1,503 件) である. ## 4 大規模事前学習言語モデル 本研究で使用した大規模事前学習言語モデルについて述べる. 各モデルは huggingface/transformers [7] で実装した. ## 4.1 事前学習済み BERT 本研究で用いた事前学習済み $\mathrm{BERT}^{2}$ にについて説明する. モデルサイズは全て base サイズ (層数 12 ,次元数 768 , ヘッド数 12 , 最大入力長 512) である. TOHOKU-BERT は東北大学が公開しているモデル3)である. 日本語 Wikipedia で事前学習されており, 単語分割は MeCab+WordPiece で行う. MeCabの辞書は Unidic を使用する。 複数のバージョンの内,'bert-base-japanese-v2'を使用した. TOHOKU-BERT-char は東北大学が公開しているモデルである. 日本語 Wikipedia で事前学習されており,単語分割は文字単位で行う. 複数のバージョンの内, 'bert-base-japanese-char-v2 ,を使用した。 UTH-BERT は東京大学が公開しているモデル [8] である. 日本語で記載された大規模医療テキストで事前学習されており, 単語分割は MeCab+WordPiece で行う. MeCab の辞書は ipadic-NEologd と万病辞書 [9] を併用する。 SP-BERT は Kikutaが公開しているモデル [10] である. 日本語 Wikipedia で事前学習されており,単語分割は SentencePiece で行う. Radiology-BERT は本田らが構築したモデル [5] である。放射線読影レポートで事前学習されており,単語分割は Byte Pair Encoding (BPE) で行う. なお本モデルは一般公開されていない. ## 4.2 RoBERTa の事前学習 我々は,約 85 万件からなる放射線読影レポートの所見文 ${ }^{4)}$ 使用し base サイズの RoBERTa [11]を構築した。 本モデルの特徴として,1 つ以上の文書から連続した最大入力長分の単語を入力とした学習を行わない. 代わりに,所見文が最大入力長に満たない場合は,診断文を加え事前学習データの単語数を増加させた. また,計算コストの都合から,Mixed Precision [12] によるメモリの節約, Gradient Accumulation [13] による batch サイズの増加をしている。 辞書に ipadic-NEologd と万病辞書を併用した MeCab+WordPieceで単語分割し, Whole Word Masking 2)モデルの呼称は本論文独自のものが含まれる点に留意されたい. 3) https://github.com/cl-tohoku/bert-japanese 4) 3 節で述べたデータは除いている. での Masked Language Modeling の事前学習を, 語彙数 32,000 , batch サイズ 128 で 30 epoch 行った. 本モデルを Radiology-RoBERTa とする. ## 5 実験 COVID-19 肺炎の自動検出を陰性/陽性の 2 値分類タスクとみなし,2 種類の実験を行った。 ## 5.1 ベースライン ベースラインには 2 種類のモデルを用意した. ルールベース特定単語 (GGO,GGN,すりガラス, 浸潤影, consolidation, grand glass, pneumonia, 網状影,肺炎,間質性)を含む所見文を陽性,それ以外を陰性と判断する。 BiLSTM Radiology-RoBERTa と同様の所見文デー タで事前学習した Word2Vecを初期重みとする BiLSTM モデルである. 辞書に ipadic-NEologd と万病辞書を併用した MeCab+WordPiece で単語分割した. パラメータは語彙数 32,000 , 埋め込み次元 128 ,隠れ状態 512 ,層数 2 ,最大入力長 512 とした. ## 5.2 評価指標 分類タスクで一般的に用いられる Accuracy, Precision, Recall, $\mathrm{F}_{1}$ に加え, Specificity を評価指標とした. Specificityは 1 式で求める. $ \text { Specificity }=\frac{\text { TrueNegative }}{\text { FalsePositiye }+ \text { TrueNegative }} $ ## 5.3 性能評価実験 3.2 節の性能評価用データセットで 10 分割交差検証を行った. 分割は訓練: 検証 : 評価 $=8: 1: 1$ である. 評価指標は各モデル毎の平均値を算出した. ## 5.4 実タスクを想定した実験 3.2 節の実タスクを想定したデータセットを使用し, ベースライン, Radiology-BERT, RadiologyRoBERTa での実験を行った。初期值の影響を考え,各モデル毎に 5 回実験した. 評価指標は各モデル毎の平均値を算出した。 また,大規模事前学習言語モデルベースの検出器の判断根拠を調査するため, SHapley Additive exPlanations (SHAP) [14] を用いて検出に影響を与える上位 9 単語を算出した. SHAP には各モデル毎のベストモデルを使用した. ## 6 結果・考察 ## 6.1 性能評価結果 実験結果を表 1 に示す.ベースラインと比較して大規模事前学習言語モデルベースの検出器が優れた結果を出しており,本タスクにおける大規模事前学習言語モデルの有効性を示している。事前学習済み BERT の中では Radiology-BERT が最も優れており,事前学習データのドメインによる影響が精度向上に大きく寄与している可能性が高い. Radiology-RoBERTa が Accuracy スコア 0.918 と最高精度を達成しており,提案モデルの有効性を示している. ## 6.2 実タスクを想定した実験結果 実験結果を表 2 に示す.全体の傾向は 6.1 節と同様であり,提案モデルである Radiology-RoBERTa の有効性を示している。 SHAP による可視化結果を図 2 と図 3 に示す. SHAP value に着目して述べる。陽性と比べて陰性の SHAP value が小さく,陰性を示す単語は少ないことを示唆している. Radiology-RoBERTa よりも Radiology-BERT $の$ SHAP value が高く、一単語辺りに含まれる情報量の違いが起因すると考えられる。 具体的な単語に着目して述べる. Radiology-BERT は「肺」が含まれている単語が複数上位に含まれており、陽性の判断に診断部位を重視している. 対して Radiology-RoBERTa の上位 9 単語には肺の症状が複数含まれており、陽性の判断に肺の症状を重視している.これより、Radiology-RoBERTa がより妥当な分類をしていることが示唆される. ## 7 おわりに 本論文では,所見文を用いる COVID-19肺炎の自動検出器を構築した. データセットは多くないため, 検出器には複数の大規模事前学習言語モデルを用い比較した。提案手法はベースラインより優れ,本タスクにおける大規模事前学習言語モデルの有効性を示した。なかでも,提案モデルである Radiology-RoBRTa は Accuracy スコア 0.918 と最高精度を達成した。また,SHAPを用いて検出に影響を与える上位 9 単語を算出した。この結果から,提案モデルが肺の症状を重視することが示唆された. 表 1 性能評価結果 表 2 実タスクを想定した実験結果 (a)陰性検出に影響する上位 9 単語 (b) 陽性検出に影響する上位 9 単語 図 2 Radiology-BERT の検出精度に影響する単語の可視化 (a) 陰性検出に影響する上位 9 単語 (b) 陽性検出に影響する上位 9 単語 図 3 Radiology-RoBERTa の検出精度に影響する単語の可視化 ## 謝辞 本研究は AMED の JP201k1010036 課題番号の支援を受けたものです. ## 参考文献 [1] 明石敏昭, 待鳥詔洋, 青木茂樹. COVID-19 肺炎に対する日本医学放射線学会の対応と画像診断 AIへの期待. Medical Imaging Technology, Vol. 39, No. 1, pp. 3-7, 2021. [2] 多田太郎, 森川みどり, 那須照広, 山本和英. 読影レポート間の類似度データセットの構築と予備実験. 言語処理学会第 26 回年次大会発表論文集, pp. 1193-1196, 2020. [3] Ryosuke Kuwabara, Changhee Han, Kohei Murao, and Shinichi Satoh. BERT-based few-shot learning for automatic anomaly classification from Japanese multiinstitutional CT scan reports. International Journal of Computer Assisted Radiology and Surgery, Vol. 15, No. 1, pp. 148-149, 2020. [4] Yuta Nakamura, Shouhei Hanaoka, Yukihiro Nomura, Takahiro Nakao, Soichiro Miki, Takeyuki Watadani, Takeharu Yoshikawa, Naoto Hayashi, and Osamu Abe. Automatic detection of actionable radiology reports using bidirectional encoder representations from transformers. BMC Medical Informatics and Decision Making, Vol. 21, No. 1, pp. 1-19, 2021. [5] 本田修平, 大竹義人, 高尾正樹, 荒牧英治, 矢田竣太郎, 合田憲人, 佐藤真一, 橋本正弘, 明石敏昭, 菅野伸彦, 佐藤嘉伸. 大規模放射線読影レポートデータベー スによる BERT モデルの事前学習とそれを用いた CT 画像の撮影目的の推定. 日本医用画像工学会大会予稿集, 39 回, pp. 56-56, 2020. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, 2019. [7] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-Art Natural Language Processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45. Association for Computational Linguistics, 2020. [8] Yoshimasa Kawazoe, Daisaku Shibata, Emiko Shinohara, Eiji Aramaki, and Kazuhiko Ohe. A clinical specific BERT developed using a huge Japanese clinical text corpus. PLOS ONE, Vol. 16, No. 11, pp. 1-11, 2021. [9] Kaoru Ito, Hiroyuki Nagai, Taro Okahisa, Shoko Wakamiya, Tomohide Iwao, and Eiji Aramaki. J-MeDic: A Japanese disease name dictionary based on real clinical usage. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018). European Language Resources Association (ELRA), 2018. [10] Yohei Kikuta. BERT Pretrained model Trained On Japanese Wikipedia Articles, 2019. https://github. com/yoheikikuta/bert-japanese. [11] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv preprint arXiv:1907.11692, 2019. [12] Paulius Micikevicius, Sharan Narang, Jonah Alben, Gregory Diamos, Erich Elsen, David Garcia, Boris Ginsburg, Michael Houston, Oleksii Kuchaiev, Ganesh Venkatesh, and Hao Wu. Mixed Precision Training. arXiv preprint arXiv:1710.03740, 2018. [13] Joeri R. Hermans, Gerasimos Spanakis, and Rico Möckel. Accumulated Gradient Normalization. In Proceedings of the Ninth Asian Conference on Machine Learning, pp. 439-454. Proceedings of Machine Learning Research, 2017. [14] Scott M Lundberg and Su-In Lee. A Unified Approach to Interpreting Model Predictions. In Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G6-5.pdf
# 特許情報の時系列解析結果と売上データを利用した 半導体に関する重要技術の抽出方法 上田 紗綾宮前 義範奥 良彰中原健 ローム株式会社 研究開発センター 融合技術研究開発部 \{saya. ueda, yoshinori.miyamae, yoshiaki.oku, ken. nakahara\}@dsn.rohm.co.jp ## 概要 技術開発において、どんな技術が売上に貢献できそうか、という判断は重要である。この目的達成のため、市場に供する事を目的とする技術が記載された特許の解析は非常に重要である。特許は、学術論文に比して発行量が多く、精読してその全容を把握することは常に困難である。そこで、本研究では、特許文献に対して自然言語処理を行い、何が重要技術であるかを抽出可能な手法を提案する。重要かどうかの判断は、対象技術を保有する企業の売上の推移という検証可能な数值と比較することで行った。 具体的には、既知の技術である白色 LED(Light Emitting Diode)の 1990 年代から 2000 年代にかけての大量の特許情報に対して適用し、白色 LED $の$ 売上が拡大し始める年の 3 年前に、その基礎となる技術が出願されていたことを明らかにした。 ## 1 背景 知的財産は産業上重要な権利であるが、権利の範井やその権利の所有者の情報などから各企業の将来にわたる技術のトレンドを表すものとして、分析の対象となってきた。近年ではそうした分析の手法として、各統計データを見える化する「知財ランドスケープ」の概念の活用が進んでいる[1]。しかしながら、一度に多数の特徵量を考慮することが難しく、出願特許の個々の詳細や傾向について適切な解析はできない。 そこで、本研究で既存の解析の改善を試みる事とした。そのために自然言語処理を活用し、多次元の特徴量を言語ベクトルとして出願特許から抽出し、 そのどれが重要か、を売上の推移との相関があるかどうかで決定する、という手法を取った。 ## 2 関連研究 大量の出願特許における解析手法の研究としては、新規性の評価[3][4][5][6]、概要の要約[7]、特許記載技術の価値判断などがある。この内本研究で対象とする、特許記載技術の時系列解析を用いた価值判断手法としては、特許の引用数を使用して対象とする技術の価値を判断する手法[8]や、SCDV(Sparse Composite Document Vectors)による文書ベクトルと財務諸表のデータを使用して評価する手法[9]、論文本数を用いて評価する手法[10]がある。しかしこれらの手法は、客観的な数値に基づく評価は行っているものの企業全体の評価にとどまっており、技術卜ピックスのどの部分がそれぞれの数值に貢献しているかまでの分析は行っていない。 これらに対して本研究では売上の推移に着目し、出願特許を年ごとに単語ベクトル化し売上の推移を比較することで、各技術における重要なトピックスを見つけ出すことを提案する。また手法の評価のために、既知の技術である白色 LEDについて、市場に出始めた 1990 年代から 2000 年代前半にかけての LED に関する特許を調査し、事前の知識を前提とせずに白色 LED の市場拡大となった技術を抽出することに成功した。企業の評価だけではなく、売上拡大につながる技術の特定まで行うことで、企業における技術開発の方向性を判断する材料を提供できると考えている。 ## 3 提案手法 本章では最初にデータセットの収集方法及び解析手法を示す。 ## 3.1 解析対象とするデータ データは 1986 年から 2021 年に出願された白色 LED 特許を収集した。特許総数は 7552 本ですべて米国特許である。 ## 3.2 アルゴリズム 本手法の提案アルゴリズムは Word 2vec における 「skip-gram」を基本とする[11]。「skip-gram」の特徴は、中央の単語(ホットワード)から周囲の複数ある 単語を推測するところである。中央の単語(ホットワ一ド)を $w_{t}$ とした時、その前後に存在する可能性が高い単語 $w_{t-1}$ と $w_{t+1}$ について推測する。これは $w_{t}$ が与えられた時に、 $w_{t-1}$ と $w_{t+1}$ が同時に起こる条件付き確率 $P\left(w_{t-1}, w_{t+1} \mid w_{t}\right)$ を計算することで行う。 図 1 本手法のアルゴリズム 図 1 にその概要を示す。中央の単語に対して、文章中のすべての単語について条件付き確率を計算する。最終的には最も大きい数值の単語が、中央の単語(ホットワード)に対して最も関連性があると判断する。 モデルは「入力層」と「出力層」、および $\mathrm{N} \mathrm{N}($ ニユーラルネットワーク)を構成するために複数の「隠れ層」がある。「入力層」に単語が入力されると、 「隠れ層」によって入力側 $W_{i n}$ と出力側 $W_{\text {out }}$ に対して重みの更新が行われる。例えば、ある自然言語デ一夕において「LED」という単語の周辺に「Light」 や「Emitting」という単語が出現したとする。この場合、入力層の「LED」に対応した要素に 1、それ以外の要素に 0 が入力される。「Light」、「Emitting」に対応した出力層の出力が 1 に近づくように $W_{\text {in }}$ と $W_{\text {out }}$ が更新される。更新式は(1)(2)式のようになる。 なお、ここでは $W_{\text {in }}$ を $W 」 、 W_{\text {out }}$ を $W^{\prime} 」$ で表記している。vは 1 つの単語ベクトルでallは文章中に登場する全ての単語に関する単語ベクトルの集合を意味する。 $W_{I}$ はI番目の入力単語の行ベクトルで、 $W^{\prime}{ }_{j}$ は $j$ 番目の出力単語の列ベクトル、 $i$ は各ベクトルの $i$番目の重从、 $\eta$ は学習率で、 0 から 1 の範囲をとる。 また $t_{j}$ は $j$ 番目の出力単語がI番目の入力単語に対して正解単語であるかどうかの可能性を表している。 $ \begin{aligned} & W_{I j}^{(\text {new })}=W_{I j}^{(\text {old })}-\eta \sum_{v \in \text { all }}\left(p_{v}-t_{v}\right) W_{i v}^{\prime} \\ & W_{i j}^{\prime(\text { new })}=W_{i j}^{\prime(\text { old })}-\eta\left(p_{j}-t_{j}\right) W_{I j} \end{aligned} $ ここで $P_{j}$ はI番目の入力単語と $j$ 番目の出力単語の共起確率を表しており、式(3)で表される。 $ P_{j}=\frac{\exp \left(W_{I} \cdot W^{\prime}{ }_{j}\right)}{\sum_{v \in \text { all }} \exp \left(W_{I} \cdot W^{\prime}{ }_{v}\right)} $ & 分かち青き & & & \\ ## 3.3 解析フロー 図 2 本手法のフローチャート 図 2 に本研究のフローチャートを示す。取得した特許に対して単語ごとに分解する「分かち書き処理」 を行う。次に 1 つの単語に対して 1 つのべクトルを割り当て、文章中に登場するすべての単語をべクトルで表現する。作成されたべクトルは多次元(本手法では 100 次元)となっているので t-SNE(Stochastic Neighbor Embedding)[12]により次元削減を行い人間が理解できる 2 次元マップを作成する。最後に、作成された 2 次元マップ上の各点について、近傍にある点同士を DBSCAN(Density-based Spatial Clustering of Application)[13]によってクラスタ化した。それぞれのクラスタがどんな意味を持つのか、については本研究グループで判断した。 ## 3.4 LED 特許解析 提案フローの評価のために、すでに既知の技術である白色 LED に関して、売上が急拡大した 1990 年代にどのような技術トレンドがあったのかを評価した。まず入力データについては、 1986 年から 2021 年の米国 LED 特許を選定し、分析をしたいホットワー ドとして、白色 LEDを最もよくあらわす単語である 「LED」と「white」を選択した。次に年代ごとに「skipgram」モデルによる機械学習を実行したのち, 年代ごとの 2 次元分布マップを出力する。最後に出力された分布マップを年代ごとに並べることにより時系列変化を明確にする。実際に出力したマップの例として、1990 年の「LED」をホットワードとした出力分布マップを示す。「赤色」グルーピング群は 「junction」「hetero」や「un turbulent」といった「異なる物質の安定的な接合について」のクラスタが、 「青色」グルーピング群は「Blue」「reacting」や 「semiconductor」といった「青色反応と半導体について」のクラスタが構成された。このようにしてグルーピングされた群に対して群名を決定しこれを全 ての年代に対して行い、時系列に並べる。なお出力分布マップの $\mathrm{X}$ 軸と $\mathrm{Y}$ 軸は $\mathrm{t}-\mathrm{SNE}$ により次元圧縮される過程で生成したものであり、無次元である。 図 3:本手法の処理フロー(LED 米国特許解析 1986-2021) 図 4 ホットワードLEDに関する出力分布マップ ## 4 結果 ここでは「3.4出力分布マップ」で出力された年代ごとのマップの解析結果について述べる。下記マップは白色 LED の市場を創生した日亜化学工業の業績推移[14]である。白色 LED の売上は 1998 年から生じており、その後の売上拡大の起点であることがわかる。よってこの年代の前後で何らかのホットワー ドが取り出せれば、それに関する技術が売上に貢献した可能性が高いと考えた。 図 5 日亜化学工業の業績推移 ## 4.1 ホットワード「LED」によるクラスタ 解析を行い出力されたマップを時系列に並べた結果、1990 年は「青色 LED」について、1995 年から 1998 年の間には「白色 LED」「光」「RGB マトリックス」について、2000 年には「照明の生産について」のクラスタの存在が確認できた。 マップによる解析結果と白色 LED の売上げを併記した結果を図 6 に示す。1998 年が白色 LED の売上拡大の起点であるが、本手法では 3 年前の 1995 年は「白色 LED」がコア技術であったことがわかる。 つまり、市場を形成する数年前に有効な「白色 LED 特許」が出願されており、この特許群は市場獲得に先行している。また白色 LED という技術が市場を獲得するまでに 3 年間のタイムラグが発生していることがわかった。 ## 4.2 ホットワード「white」によるクラスタ 次に「white」をホットワードとして解析を行った。「LED」同様にマップと売上げを併記したものを図 7 に示す。「white」の場合は 1994 年に「アプリケー ション」についてのクラスタ、1997 年から 2000 年の間では「光を効率的に役立たせることについて」 クラスタが出現していることが確認でき、「LED」同様売上が生じる数年前から特許化が始まっていることが判明した。「white」の変遷についてまとめると「アプリケーション」「光の効率」「生産」「LED、 バックライト、ヘッドライト」「開発保証」「一般化」といった状況が解析の結果得られ、こうした技術が量産に貢献していたものと推測される。 図 6 日亜化学工業の業績推移にホットワード「LED」を重ね合わせたもの 図 7 日亜化学工業の業績推移にホットワード「white」を重ね合わせたもの ## 5 おわりに 本研究では、特許情報の解析手法の 1 つとして、 ホットワードに関する重要な単語群を年代別に取り出し、それらを実際に実証可能な数値と比較することで、売上拡大につながった重要な技術を取り出すことに成功した。本手法は、解析を担当する者が解析分野に関する詳細な知識を事前に知っておく必要がないため、特許以外にも活用が可能であると考える。 一方で本手法は特計情報が多数公開されている技術分野には有用であるが、各企業や大学において特許化されていない分野、ノウハウといった技術分野 については、適用することが難しい。また一般的にも使われる単語がホットワードや重要な単語群となる技術については、ホットワードの意味づけが難しく、やはり解析が難しい。そうした技術分野では、単語ではなく文節や文章の単位でクラスタリングできる手法がより適切であり、今後はトピックモデルやBERTへの適用も検討していく。 ## 参考文献 [1]特許庁. 知的人財スキル標準 (Version2. 0) https://www.jpo.go.jp/sesaku/kigyo_chiza i/chizai_skill_ver_2_0.htm [2]Patent Result.企業の成長性がひと目で分かる「権利者スコアマップ時系列分析」を開発.(オンライ ン)(引用日:2021 年 12 月 13 日.) https://www.patentresult.co.jp/news/2011/02/jikeretsu.ht ml [3] 難波英嗣.手順オントロジー構築のための特許請求項の構造解析.(オンライン)(引用日:2021 年 12 月 13 日.) http://nlp.indsys.chuo- u.ac.jp/pdf/2020/nanba_ifat202003.pdf [4] 安藤俊幸.特許調查のためのプログラム事例紹 介.(オンライン)(引用日:2021 年 12 月 13 日.) https://www.jstage.jst.go.jp/article/jkg/70/4/70_203/_df /-char/ja [5] 安藤俊幸,桐山勉.分散表現学習を利用した効率 的な特許調查.(オンライン)(引用日:2021 年 12 月 13 日.) https://www.jstage.jst.go.jp/article/infopro/2019/0/2019_ 31/_pdf/-char/ja [6] 安藤俊幸.機械学習による予備検索を考慮した効率的な特許調査.(オンライン)(引用日:2021 年 12 月 13 日.) https://www.jstage.jst.go.jp/article/infopro/2020/0/2020 43/_pdf/-char/ja [7]特許庁. 特許出願技術動向調査.(オンライン)(引用日: 2021 年 12 月 13 日.) https://www.jpo.go.jp/resources/report/gidou- houkoku/tokkyo/index.html [8]山本雄太.技術コミュニティの成長性を加味した特許価値評価手法の開発.(オンライン)(引用日: 2021 年 12 月 13 日.) https://www.jstage.jst.go.jp/article/pjsai/JSAI2020/0/JSA I2020_4K2GS305/_df/-char/ja [9]米村崇.特許分析を通じた製薬企業の研究開発と企業価値との関連性の研究.(オンライン)(引用日: 2021 年 12 月 13 日.) https://koara.lib.keio.ac.jp/xoonips/modules/xoonips/deta il.php?koara_id=KO40003001-00002020-3761 [10]柴田洋輔. 特許と論文の複合解析による有望応用分野の予測一印刷技術を例にー(オンライン) ( 引用日: 2021 年 12 月 13 日.) [11] Tomas Mikolov, Kai Chen, Greg Corrado, Jeffrey Dean (2013) "Efficient Estimation of Word Representations in Vector Space”. (online) (引用日: 2022 年 1 月 12 日.) [12]Laurens van der Maaten, Geoffrey Hinton.Visualizing Data using t-SNE(online) (引用日: 2022 年 1 月 12 日.) [13] a b Simoudis, Evangelos; Han, Jiawei; Fayyad, Usama M., eds (1996). "A density-based algorithm for discovering clusters in large spatial databases with noise". Proceedings of the Second International Conference on Knowledge Discovery and Data Mining (KDD-96). AAAI Press. pp. 226-231. ISBN 1-57735004-9 (引用日: 2022 年 1 月 12 日.) [14]宮地電機株式会社照明 $\cdot$ LED 担当室.LED $の$ 市場 (オンライン)(引用日: 2021 年 12 月 12 日.) http://www.eco-glass.com/ibox/data/07-11-13_LED- Communication-06.pdf
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G7-1.pdf
# 雑談対話システムによる繰返し発話の複雑さが ユーザに知覚された共感と対話継続欲求に及ぼす影響 楊潔 ${ }^{1}$ 菊池浩史 ${ }^{1}$ 上垣貴嗣 1 菊池英明 ${ }^{1}$ 1 早稲田大学人間科学学術院 youketu@toki.waseda.jp hirofumi.kikuchi@toki.waseda.jp t-gappy@fuji.waseda.jp kikuchi@waseda.jp ## 概要 日常会話において対話参加者が相手の発話の全部或いは一部を繰り返す現象がよく見られる.また,このような繰返し発話はいつも相槌などの要素と共起する. 対話システムによる繰返し発話が単調であるとユーザをすぐ飽きさせる可能性がある. 本研究では繰返し発話に伴う要素の数とパターンの種類数を用いて複雑さと定義し, 繰返し発話の複雑さがユーザに知覚された共感と対話継続欲求に及ぼす影響を検証する. 大学生 5 人を対象として自動生成と Wizard of $\mathrm{Oz}$ 法を併用する対話実験を行った. 繰返乙発話の複雑さを低・中・高の 3 条件に分けてテンプレートを作った. その結果, 中程度の複雑さはユー ザに知覚された共感と対話継続欲求の向上に最も効果がある可能性が示唆された. ## 1 はじめに 情報処理技術の高度化につれて, 対話システムの開発と普及が目覚ましい. 特に, 雑談対話システムは高齢者の孤独感解消や教育支援場面における活用が期待されている. しかし, ユーザが対話システムに飽きてしまい,システムと継続的に対話する意欲を高めることが難しいという問題がある [1][2]. この問題に対し, ユーザの気持ちに共感するような感情表出モデルが提案されており [3], システムによる共感するような振る舞いがユーザの対話継続欲求の向上への有効性が示唆されている. 対話システムは相槌, 模倣や感情的マッチングなどの手法を使って共感的な傾聴を示す [4]. Urakami ら [5] はシステムによる共感表現 showing interests, situational understanding, helping, expressing own feelings, expressing to know what the other feels, taking the other' $\mathrm{s}$ perspective, displaying regard, agreement という9つのカテゴリーに分類し, そのう $ち$ showing interests, situational understanding は積極的に被験者に認知された. 繰返し発話は興味を示す機能を持っているため, 積極的にユーザに認知されることが期待できる. また, ユーザの共感を引き起こすために, 対話システムによる模倣が有効であると様々な先行研究から示唆されている [6][7][8][9]. 以上の先行研究を踏まえて, 本研究では対話システムによる模倣の一つである繰返し発話に着目する。 対話システムによる繰返し発話生成の先行研究について下岡ら [10] と Nishimura ら [11] が挙げられ, いずれも確認のための繰返し発話を扱っている.しかしながら, 先行研究は効率良いタスク達成のための確認を目的としており, 本研究が目的とする雑談対話における共感向上のための繰返し発話生成に有効とは限らない。 また, 繰返し発話のバリエーションなどの要素がユーザに知覚された共感 [12] の度合いに影響を及ぼす. 対話システムによる単純な振る舞いより,いくつかのパターンの組み合わせのほうがユーザにより効果的に共感を伝える [3][10]. 一方, 「対話相手の話し方をすべて真似すれば必ずよい印象を与えるというわけではない」[7] という指摘もある. 機械学習の手法による雑談対話システムは繰返し発話を生成することは可能である [13] が, 生成された繰返し発話のパターンは学習データに依存し, 必ずしもユーザに知覚された共感を深めるとはいえない. よって, ユー ザに知覚された共感を深めるために, 対話システムによる繰返し発話を生成する際に, 繰返し発話のパターンの組み合わせを適切に制御するという課題が残っている. 本研究では雑談対話システムによる繰返し発話の複雑さとユーザに知覚された共感の度合いとの関係を明確にしたうえで, ユーザの対話継続欲求の向上を目指す. 表 1 繰返し発話のパターン ## 2 繰返し発話の複雑さ 繰返し発話の複雑さを定義するために, 本研究では人間同士の雑談対話における繰返し発話を考察した. 対話コーパスとして著者らの研究室において作成された新入生対話コーパス (Freshmens Dialogue Corpus, FDC)[14] を使用した. FDC は大学生同士の 1 対 1 の雑談対話コーパスであり, 本稿では非対面対話を分析の対象とした. 一対話あたり約 5 分とし,本稿では 38 対話(時間にして約 230 分)のうち 205 例の繰返し発話を抽出した。 コーパス分析の結果, 繰返し発話が相槌や感動詞などと共起するケースはすべての繰返し発話の半分以上を占めることがわかった. そこで, 繰返し発話と共起する言葉を「要素」と呼び, 様々な要素と繰返し発話の組み合わせを「パターン」と呼ぶ. 要素の数とパターンの種類数が多いほど, 繰返し発話がより複雑であると考えられる。 FDC より繰返し発話のパターンの集計結果の一部を表 1 に示す。 ## 3 対話実験 本研究では 2 章で得たコーパス分析の結果をもとに,テキストによる対話実験を行った. ## 3.1 目的と仮説 本実験では,繰返し発話の複雑さがユーザに知覚された共感と対話継続欲求に及ぼす影響の検証を目的とする。 上記の目的を達成するために,以下の 2 つの仮説を立てた。 仮説 1: 繰返し発話の複雑さは中程度の時に, ユーザに知覚された共感の度合いが最も高い。 仮説 2: 繰返し発話の複雑さは中程度の時に, ユーザの対話継続欲求が最も高い. ## 3.2 実験概要 本実験では, 雑談対話システム ILYS aoba bot[13] を使用し, Zoomを用いて遠隔対面の環境で実施し 図 1 対話実験の様子 た. なお,対話破綻の回避や繰返し発話の複雑さを制御するために, ILYS aoba bot による応答の自動生成と WOZ 法のハイブリッドで実験を実施した. 被験者は大学生 5 人であった. 繰返し発話の複雑さの程度によって, 実験の条件を低程度 (0 要素 1 パター ン)・中程度 (1 要素 3 パターン)・高程度 (2 要素 3 パターン) に分けた. 被験者は 1 回練習した後で, すべての条件の対話実験に参加した. なお, 3 つの条件の順番は被験者ごとにランダムとなる. 実験の様子を図 1 に示す。 ## 3.3 実験用の雑談対話システム 雑談対話システム ILYS aoba bot は大規模ニューラル応答生成モデルとルールベース応答を統合した対話システムである. 本実験では公開されている ILYS aoba bot 9 pre-trained モデルを使用し, それにオリジナルのルールを適応した. なお, 初対面の人間同士の雑談対話によく見られる「趣味」[15] の話題にした. ## 3.4 繰返し発話の複雑さの制御 本実験では FDC によく見られた繰返し発話のパターンを選定した. 選定したパターンに基づいて作った繰返し発話のテンプレートを表 2 に示す. なお, 繰返し発話の制御は複雑さの程度によって 3 条件 (複雑さ低・中・高) に分けている. 中程度の複雑さと高程度の複雑さ条件において, 繰返し発話のパターンを等確率でランダムに生成する. ## 3.5 ハイブリッドによる実験方法 現状の雑談対話システムはまだ成熟していなく,対話破綻が多いと印象評価に影響を及ぼす懸念があるため, 本実験では雑談対話システムによる応答の自動生成と WOZ 法のハイブリッドで行った. また,対話システムとの対話を続けるために, 東中ら [16] 表 2 複雑さの程度に応じる繰返し発話のテンプレート条件制御テンプレート 低 $0 \mathrm{E} 1 \mathrm{PR}$ $ \text { R "ですね" } $ 中 "あ", R 高2E3P \{"あ", "お"\}, R\{"ね", "ですね", "か"\} \{"そうですか", "なるほど"\}, R\{"ね", "ですね", "か"\} (E=element, 要素. テンプレートのうち,「"そうですか"」を一つの要素と呼ぶ. $\mathrm{P}=$ pattern, パターン. 要素と繰返し発話の組み合わせの種類. テンプレートのうち,「R"ですね"」を一つのパターンと呼ぶ. $\mathrm{R}=$ 繰返し発話) 表 3 対話ログ 発話者発話 SYS こんにちは。あなたの趣味はなんですか。 USER 食べ物です SYS "あー"、食べ物。どのような食べ物が好きですか? USER たこ焼きが好きです SYS たこ焼き"ですね"。たこ焼きの具はなんですか? USER たこ焼きの具はたこです (赤字は繰返し発話である。""の中はテンプレートに応じて生成した内容である。) を参考にしてガイドラインを作成して被験者に教示した. 対話システムより「こんにちは. あなたの趣味はなんですか.」と発話してから, システムによる終了の発話をするまで, 被験者は対話システムとの対話が続く.なお, 開始と終了の発話を除いて, システムは計 16 発話程度を生成し, そのうち被験者の発話に応じて 8 回繰返し発話をする. システム制御の流れは下記のとおりである. 1. 被験者発話に対して, ILYS aoba bot による五つの発話候補を生成する.(自動生成) 2. 五つの候補のうち, 実験者が最も適切だと思う応答を選ぶ. (WOZ 法) 3. 実験者は繰返し発話をするかどうかを決める. (WOZ 法) 4. 繰返し発話をしない場合, 2) で選んだ応答を被験者に返事する。 繰返し発話をする場合, 実験者が被験者の発話のうち繰返す言葉を入力し (WOZ 法), 対話システムはテンプレートに従って繰返し発話を生成する (自動生成). 対話ログを表 3 に示す.表 4 評価結果 Subject A Subject B Subject C Subject D Subject E $1 \mathrm{~m} \mathrm{~h} \quad 1 \quad \mathrm{~m} \mathrm{~h} \quad 1 \quad \mathrm{~m} \mathrm{~h} \quad 1 \quad \mathrm{~m} \mathrm{~h} \quad 1 \mathrm{~m} \mathrm{~h}$項目 $1506344 \quad 354633 \quad 625048 \quad 375146 \quad 535750$ $\begin{array}{lllllllllllllll}\text { 項目 } 24 & 5 & 3 & 2 & 4 & 2 & 2 & 2 & 2 & 2 & 4 & 1 & 4 & 4 & 4\end{array}$ ( $\mathrm{l}=$ 低程度の複雑さ, $\mathrm{m}=$ 中程度の複雑さ, $\mathrm{h}=$ 高程度の複雑さ.赤字は中程度の複雑さ条件が他の条件よりも高く評価されたスコアである.) ## 3.6 印象評価 一回の対話ごとに下記 3 つの項目に対する評価を行った. 知覚された共感尺度とは相手は私を理解してくれたという実感の程度を測定する尺度であり, カウンセリング場面で使われている [17][18]. 知覚された共感尺度はさらに 16 項目によって構成されており, 本実験ではそのうちカウンセリング場面に特化する項目 3 つを削除し, 残り 13 項目を使用した.知覚された共感の程度は 6 段階 (1:全くあてはまらない, 6:大変よくあてはまる), 対話継続欲求 1 と対話継続欲求 2 は 5 段階で評価を行なった 1 : 全くそう思わない,5:全くそう思う). 1. 知覚された共感の程度 : 知覚された共感尺度によって評価する。 2. 対話継続欲求 1 : この対話システムとの対話をもっと継続したい. 3. 対話継続欲求 2 :またこの対話システムと対話したい. ## 4 結果と考察 被験者 5 人の評価結果を表 4 に示す.この結果から, 中程度の複雑さ条件を他の条件より高く評価した人数は, 項目 1 について 4 人, 項目 2 について 3 人,項目 3 について 3 人であり, 中程度の複雑さ条件が他の条件より効果的である可能性が示唆された. 項目 1 と項目 3 で中程度の複雑さ条件を最も高く評価しなかったのは同じ被験者 A である. 対話実験が始まるまえに被験者の属性として情動的共感性 [19] を調査した. その結果, 被験者 A の共感性は 5 人のうち最も高いことがわかった. 以上のことより, 共感性の高い人に対して, 繰返し発話の複雑さの変化は知覚された共感と対話継続欲求への影響が少ない可能性があると考えられる. また, 被験者 B と $\mathrm{C}$ は項目 2 に対してすべての条件で同じ評価をした. 今回の対話実験は 1 対話においてシステムと被験者ともに 16 発話程度をし, 40 分 ほどかかった. 被験者は対話システムとの対話内容を考えすぎ, 普段の雑談対話より負担が重くなったため,システムによる繰返し発話にあまり気づかなかった可能性も考えられる. ## 5 結論と今後の課題 本研究では人間同士の雑談対話における繰返し発話を考察し,その結果をもとに対話システムによる繰返し発話の複雑さを制御し対話実験を行った.実験の結果, 繰り返し発話の複雑さが中程度のとき, ユーザの知覚された共感と対話継続欲求を効果的に高める可能性が示唆された. しかし, 三つの条件で対話する順番が印象評価へ及ぼす影響も懸念し, 今後被験者を増やしてさらに追加実験を行う必要がある. また, 雑談対話システムと WOZ 法のハイブリッドで実施する方法を改善し, 音声による対話実験も今後の課題とする. 最後に, 繰返し発話の複雑さを連続値として扱い,ユーザに知覚された共感と対話継続欲求を高めるために最も適切な複雑さの度合いを探求する予定である. ## 謝辞 本研究は, JSPS 科研費 (課題番号 JP19H01577) の助成を受けたものである. また, 実験にご協力していただいた被験者の皆様に感謝申し上げる。 ## 参考文献 [1] 内田貴久, 港隆史, 石黒浩. 対話アンドロイドに対する主観的意見の帰属と対話意欲の関係. 人工知能学会論文誌, Vol. 34, No. 1, pp. B-I62_1, 2019. [2] 岩倉亮介, 吉川大弘, 古橋武. 対話システムにおける相槌のためのユーモア語句生成に関する考察. 日本知能情報ファジィ学会ファジィシステムシンポジウム講演論文集第 34 回ファジィシステムシンポジウム, 2018. [3] 谷岦悠平, 吉川大弘, 古橋武ほか. 教育支援ロボットにおける身体動作と表情変化による共感表出法の印象効果. 知能と情報, Vol. 30, No. 5, pp. 700-708, 2018. [4] Ozge Nilay Yalcin and Steve DiPaola. Modeling empathy: building a link between affective and cognitive processes. Artificial Intelligence Review, Vol. 53, No. 4, pp. 29833006, 2020. [5] Jacqueline Urakami, Billie Akwa Moore, Sujitra Sutthithatip, and Sung Park. Users' perception of empathic expressions by an advanced intelligent system. In Proceedings of the 7th International Conference on HumanAgent Interaction, 2019. [6] 大竹裕也, 萩原将文. 高齢者のための発話意図を考慮した対話システム. 日本感性工学会論文誌, Vol. 11, No. 2, pp. 207-214, 2012. [7] 長岡千賀. 対人コミュニケーションにおける非言語行動の 2 者相互影響に関する研究. 対人社会心理学研究, Vol. 6, pp. 101-112, 2006. [8] 熊崎周作, 竹内勇剛. 人の共感的反応を誘発する状況に依存した人工物の振る舞い. 電子情報通信学会論文誌 A, Vol. 100, No. 1, pp. 24-33, 2017. [9] 速水達也, 佐野睦夫, 向井謙太郎, 神田智子, 宮脇健三郎, 笹間亮平, 山口智治, 山田敬嗣ほか. 交替潜時と韻律情報に基づく会話同調制御方式と情報収集を目的とした会話エージェントへの実装. 情報処理学会論文誌, Vol. 54, No. 8, pp. 2109-2118, 2013. [10] 下岡和也, 徳久良子, 吉村貴克, 星野博之, 渡部生聖.音声対話ロボットのための傾聴システムの開発. 自然言語処理, Vol. 24, No. 1, pp. 3-47, 2017. [11] Ryota Nishimura and Seiichi Nakagawa. A spoken dialog system for spontaneous conversations considering response timing and response type. IEEJ transactions on electrical and electronic engineering, Vol. 6, No. S1, pp. S17-S26, 2011. [12] Nobuaki Tanaka. The relationship between counselors' responses and clients' perceived empathy: Considering the difference between turns and back channel responses. Japanese Journal of Counseling Science, Vol. 40, No. 3, pp. 208-217, 2007. [13] 藤原吏生, 岸波洋介, 今野颯人, 佐藤志貴, 佐藤汰亮,宮脇峻平, 加藤拓真, 鈴木潤, 乾健太郎. Ilys aoba bot:大規模ニューラル応答生成モデルとルールベースを統合した雑談対話システム. 人工知能学会研究会資料言語・音声理解と対話処理研究会 90 回, 2020. [14] 中里収, 神崎啓太郎, 菊池英明ほか. 音声対話における親密度と語彙の関係. 研究報告ヒューマンコンピュータインタラクション (HCI), Vol. 2014, No. 22, pp. 1-6, 2014 [15] 有本庸浩, 杉山弘晃, 水上雅博, 成松宏美, 東中竜一郎ほか. 初対面から繰り返されるテキストチャットの話題分析. SIG-SLUD, Vol. 5, No. 03, pp. 66-71, 2019. [16] 東中竜一郎, 船越孝太郎, 荒木雅弘, 塚原裕史, 小林優佳, 水上雅博. Project next nlp 対話タスク:雑談対話データの収集と対話破綻アノテーションおよびその類型化. 言語処理学会大 21 回年次大会ワークショップ論文集, 2015. [17] 細谷祐未果, 福島哲夫. カウンセリング場面におけるカウンセラーの反射・バリデーション・肯定とクライエントの被共感体験・心理的距離との関連. 日本女子大学大学院人間社会研究科紀要, No. $22, p p$. 217-244, 2016. [18] 田中伸明. 共感的理解の伝達を意図するカウンセラーの応答の特徴についてークライエントへの影響も含めた検討. カウンセリング研究, Vol. 39, No. 2, pp. 113-123, 2006. [19] 加藤隆勝, 高木秀明. 青年期における情動的共感性の特質. 筑波大学心理学研究, Vol. 2, pp. 33-42, 1980.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G7-2.pdf
# Zoom Chat に見る We-Mode 一中国語話者の Multi-Agent Interaction- 砂岡和子 早稲田大学 ksunaoka@waseda. jp ## 概要 中国語母語話者による Zoom 会議時の Text Chat の特色を定量的・定性的に示し, 参与者間に共同行為が生起する要因を探索した。分析の結果, participant $の$ multi-agent interaction が Wemodeへの遷移と Joint action を促すことが分かった. 言語情報のみの Communicating でも, Agent の役割意識を変えることで,Interactionを活性化できるヒントを提示する. ## 1 研究背景と目的 オンライン授業は五感を充分に発揮できず,学生との共同行為(joint action)が難しいと悩む教員は少なくない. Zoomなどmeeting toolを経由すると, 視覚・聴覚情報の劣化は免れず,[1]によれば,対面時に比べ知覚情報は 3 割程度に減衰する。学生がカメラオフや Chat に無反応だと, 教員の Communicating 手段は激減する. 五感情報に代表される Social signal の欠如は対話システムも同様で, 相槌, 繰り返し, 掘り下げ質問など対人協調のしかけを施すものの, 自発的にヒトと共同行為を行うレベルには至っていない. オンライン授業や対話システムの質向上には, Student/User 対 Instructor/SystemのAgent 間の協調が鍵となる $[2]$. 本文は活発な共同行為が見られる中国語話者集団による Zoom 会議を例に, Text Chat という限られた Social cues を通じ[表 1], Agent (participants, organizer, guest) 間で joint action が生起する要因を探る. 現行の遠隔授業や対話システムにおける Agent の積極参与を促すヒントを得られよう. ## 1. 1 Research questions 2つの仮説を立てて検証を行う. 1)Zoom 会議中の Text Chat で participant が gest に対し頻繁に発信する感謝や謝辞表現は,参与者同士が共同ゴールを知覚し, 相互補完的・相互依存的な役割の自覚を促す。 2) participant の情報交流 Chat は,共通課題解決のため,参与者が We-mode へ遷移する媒介役を担う. 表 1 対話形式と社会信号経路 ## 1.2 先行研究 使用述語と関連先行研究を挙げる. ・我々モード(We-mode): 個体と個体の Interaction によって生じる集合的な認知・神経メカニズム。共同ゴールの知覚と,相互補完的・相互依存的な役割が割り当てられる際, we-mode への遷移が起こり,共同行為 (Joint Action) が生起する[3][4]. - 社会的信号処理 (Social Signal Processing ; SSP) :言語・非言語など複数の channel より得られる情報を統合し,人間が行動・コミュニケーションを通じて形成する社会性の側面を理解・計算するための技術[5][6]. ## 1.3 データ資源と特性 2020 年 7 月以降, 中国の北京語言大学 (BLCU) ${ }^{i}$ ^{i}$ Beijing Language and Culture University } と同大出版社が共催する “全球中文教学オンライン連続公開講座” (以後, BLCU Seminar と略称) での Zoom Text Chat をソースデータとする. BLCU Seminar は "Global Chinese Teaching(GCT)” と “American Chinese Teaching(USCT)” の 2 シリーズに分かれ, 前者は中国国内の教員と学生が主体, 後者はアメリカ在住の教員と学生も多く参加する. 本研究では GCT から 4 回, USCT から 2 回の計 6 回分の Zoom Text Chat を分析対象とする[表 2]. GCT も USCT もミーテイング時間は毎回約 1 時間 30 分(延長もあり), それぞれ 3-5 名のゲスト講師が各人約 10 分, PPTを使いリレー式に講義を行う.司会者は一講義終了前に, 参加者へ向け Zoom Chat に講師への質問を投稿するようChat で呼びかけ, 全講師の発表終了後, 講師が参加者の Chat 質問に口頭で答える. 全講師が回答後,講師と司会者による全体討論で会議を締め括る. 講義動画は後日, 同大学出版社専用プラットホームにオンデマンド動画としてアップロードされ, 会員登録 (無料) すれば繰り返し閲覧可能となっている. BLCU Seminar は講師 (guest) と司会者 (organizer) を除き, 参加者 (participant)の交流権限は Text Chat のみ, カメラとマイクは使用不可という制限にも拘らず[表 3], 毎秒平均 38 thread の投稿があり,参与者間の活発な Chat 応酬がなされる[表 2]. 表 2 BLCU Seminar Chat 目録 } & \multicolumn{1}{c|}{ Thread } & \multicolumn{2}{|c|}{ Chanks } \\ \cline { 5 - 6 } & & & \multicolumn{1}{|c|}{ token } & \multicolumn{1}{c|}{ type } \\ 表 3 Agent 別 media 権限  参与者間の協調的対話は, 毎回 Participants による Guest や Organizer $への$ 感謝と情報交換投稿の頻度からも窥える[図 1, 2]. Chat の Agent は主に中国語母語話者であるが,対話参与者が共同で発話を構築するプロセスは,民族や言語種を超え共通点があると仮定し,考察を進める。 図 1 20210328Tag Cloud 図 2 20210508Tag Cloud ## 2 分析方法と手順 Chat Text の量的特徴を確認するため, 表 1 に挙げた 6 回分の Chat につき, 以下の定量分析を行った. 1 Chinese word segmentation \&Word frequency 2 Chinese Text Mining \& Tag Cloud 3 Classification of Chat threads per agent 4 Number of Chat threads per agent(Frequency of occurrence \& Total Number of Characters $の 2$ 種) 1-2 については北京大学信息科学技術学院に委託し, Python プログラミングによる自動処理を行った. 3-4 は手動によるアノテーションと分析で, Agent を Participants, Organizer, Guest $の$ 三者, Chat 内容を次の 5 種に分類し,各出現率を計算した. (1)thanks \& compliments(感謝) (2)information exchange(情報交換) (3)response(回答) (4)question(質問) (5)request (要求) 別途, $\mathrm{R}$ による重回帰分析を行い, 上掲 5 種 Chat 内容間の関連性を探索した。統計結果検証のため, Chat 内容と送信相手(recipients)の分布につき,定性的な観察を行った。 ## 3 結果 ## 3. 1 Joint Action 分析 1-2 により Chat 中の高頻度語彙の分布と特徴 が判明した。結果は[図 1,2$]$ に見るように,毎回 “謝謝” “**老師 (先生) ” が最多頻度語句となる. 分析 3-4 では Agent 別 Chat 発言内容の分布と出現特性を示した。 [図 3]は GCT20210327 の Agents 別 Thread 分布で, 最多は(1)謝辞の 110 件(thread),次に(2)情報交換 79 件が続き, Chat 定番の(4)質問は 22 件で 3 位に止まる ${ }^{i i i}$. 多数の Participants による大感謝や謝辞の連続投稿は, gest や organizer との役割分担を意識させ, 同時に共同体として会議を運営する Joint Action を促す働きがあると推測できる [3][4][付録参照]. 図 3 Thread distribution between agents (20210327) ## 3. 2 Multi-Agent Interaction Joint Action が生起する要因は, Chat 投稿意識にあるはずだ.Chat 内容の相関関係を明らかにするため, 以下 $\mathrm{A}, \mathrm{B}$ の仮説を立て, 独立変数間の交互作用なしの重回帰分析を行った。 A : participants $の$ information exchange(2)か thanks \& compliments(1)が増えると, question(4)が減る. B : participants $の$ information exchange もしくは question が増えると, thanks \& compliments が減る. 重回帰分析の結果, Total Number of Characters で,仮説 $\mathrm{A} , \mathrm{~B}$ が支持され,(2)もしくは(1)は(4)を代替し, 逆に(2)或いは(4)は代代替する可能性が示唆された. つまり participants が発信する謝辞(1)や情報交換(2)と質問(4)は,相互補完的な関係にある. なぜ質問の代わりに情報交換や謝辞を投稿するのか? 20210327Chatを例に, participants による(1)(2) (4)の宛先(recipients)を調べると, 計 79 件の participants(2)のうち, 65 件 $\doteqdot 82 \%$ は仲間の参加者に向けられ,本来(2)の recipients であるはずの organizer=主催者が 9 件 $\fallingdotseq 11 \%$, guest=講師は 5 件 6\%しかない[図 3]. Chat の宛先から見る限り, participants の投稿には,役割にとらわれないMultiAgent Interaction が見られる. 図 4 (2)+(1)対(4)の相関図 5 (2)+(4)対(1)の相関 図 6 Recipients of participants (20210327) ## 3. 3 We-mode 具体的に participantsによる(2)のスレッド内容を見ると, (2)は半数が participants の通信トラブル (65 件中 34 件 $552 \%$ ) で, 残りは講義内容へのコメント(同 31 件 $48 \%$ )である.トラブルの訴え先は本来 organizer や guest のはずだが,実際は参加者全体に支援を求め投稿している。救援や感想 thread を見た他の participants は即座に response を送り,会議は協調モードへと向かう[ 付録参照]. 対して thanks \& compliments 謝辞(1)の宛先は guest が圧倒多数を占め, 20210327Chat は guest 向けが (105 件 $995.5 \%$ )である[図 6]. [図 7]は GCT20210703 の計 261thread をトピック別に漢字数でその推移を示した Heatmap である. 対話中, thanks $の$ 後に question $と$ information exchange が繰り返し増加し反復することがわかる.  図 7 Topic heatmap 20210703 ## 4 まとめ ## 4. 1 小結 中国語母語話者による Zoom Chat の分析を通じ,参与者間の共同行為が生起する要因を探索した。仮説 1 )は, participant が発信する thanks 投稿の後は, question と information exchange が増加する傾向を確認した. Participant の大量の謝辞表現は,参与者が共同ゴールを知覚し, 相互補完的・相互依存的な役割の自覚を促す機能があると言えよう。仮説 2 )は,participant の情報交流 Chat が,通信卜ラブル解決や講義内容の相互コメントなどを含み, その受け手も主催者側ではなく, 参加者全体に向けられており, 初見同士の参与者が協調して会議を運営する We-mode への媒介役を果たしている。 participant は, 自身のパート (役割)を超え, MultiAgent Interactionを牽引する。 ## 4. 2 今後の課題 以上,結果の一部は観測レベルに留まり,更に多くのデータに基づいた検証が必要である. 例えば SSP の手法を適用する場合, BLCU Seminar の participantが使えるHuman Communicating channel は Text Chatのみとなる.これを入力值 (X) とし,目的変数 (Y) に調和的, 親密な関係, 態度 (Rapport, Attitude),コミュニケーションにおける調整 (Regulation)を推定する問題式を立て,機械学習で解く方法も選択肢としたい[5]6].今後は比較用の Chat データを増やすと同時に, Chat 内容を質的に深く掘り下げる方法を組み合わせ,どのような夕イプの Joint action が, 日本の社会的・文化的言語コミュニケーションに応用可能か,また日本の Agent が,役割分担の固定観を変え,気軽に発言に参加するには,どのような言葉かけが有効か分析を進め,言語情報のみの Communicating でも Interactionを活性化できるヒントを提示したい. ## 謝辞 本研究は JSPS 科研費 C(2021 2024 年)「ハイフレックス型授業の相互行為検証と PC シミュレーシヨンに基づく実践応用(研究代表 : 砂岡和子)」の助成を受けている. 中国語形態素解析と Text Mining および Word Cloud 用プログラミングを北京大学信息科学技術学院計算語学研究所の李素建準教授に依頼した. 向凌萱さん(早稲田大学人間科学学術院学部生) と譚翠玲さん(北海道大学国際広報メディア・観光学院院生)が統計処理を担当した. 併せて謝意を表する。 ## 参考文献 1. 増田健太郎(2021)大学教育におけるオンライン授業の可能性 -対面授業とオンライン授業の比較を通して-. 国立情報学研究所. 大学等におけるオンライン教育とデジタル変革に関するサイバーシンポジウム「教育機関 DX シンポ第 44 回」.オンライン https://edx.nii.ac.jp/lecture/20211210-03 (引用日: 2022 年 1 月 5 日) 2. 東中竜一郎, 岡田将吾, 藤江真也, 森大毅, 対話システムと感情(Dialogue Systems and Emotion),人工知能 2016 年,Vol. 31(5), 664-670. 3. Gallotti, M., \& Frith, C., Social cognition in the we-mode. Trends in Cognitive Science, 2013 年, 17, 160165. 4. 佐藤德,We-mode 研究の現状と可能性,Japanese Psychological Review,2016 年, Vol. 59, No. 3, pp.217231 . 5. Vinciarelli, A., Pantic, M. and Bourlard, H .Social signal processing: Survey of an emerging domain: Image and Vision Computing, 2009 年, Vol. 27, No. 12, pp. 1743-1759.. 6. 岡田将吾,石井亮.社会的信号処理と AI (Social Signal Processing and AI) 2017 年,人工知能 32 巻 6 号, pp. 915-920. 7. 全球中文教学オンライン連続公開講座, https:/app.readoor.cn/app/dt/pd/1564663415/1?s=1 (2021 年 12 月 5 日参照) ## 付録 Participants の information exchange(情報交換)に含まれる thanks \& compliments(謝辞)および通信トラブルの thread. 両者とも GCT20210327 の Chat から抜粋. Thread 投稿者はすべて participant で, 相談相手 (recipients) は[1] が gest と participants ,[2]はすべて Participants と判断できる. 投稿者は多くハンドル名を使用するが,個人情報保護の観点から半加工した。一部,途中の thread を省略した箇所がある。 [1] Participantsによる謝辞投稿の前後の質問および議論投稿[GCT20210327] . & \\ [2) Participant 同士がトラブルに関する情報交換を行う thread[GCT20210327].途中参加の Participant との間で,同様のやり取りが何度も繰り返される。 \\
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G7-3.pdf
# 大規模汎用言語モデルを用いた雑談対話システムの 対人関係性に基づく発話制御の検討 山崎 天 ${ }^{1}$ 川本稔己 ${ }^{1,2}$ 吉川 克正 ${ }^{1}$ 佐藤 敏紀 ${ }^{1}$ ${ }^{1}$ LINE 株式会社 ${ }^{2}$ 東京工業大学 \{takato.yamazaki, toshiki.kawamoto\}@linecorp.com \{katsumasa.yoshikawa, toshinori.sato\}@linecorp.com ## 概要 本研究では、大規模沉用言語モデルを用いた雑談対話システムにおける、対人関係性に基づいた発話制御の実現を目指す。大規模汎用言語モデルは膨大な学習データやニューラルネットワークのパラメ夕数によって、知識や文章表現の面で多様な出力できるが、その多様性切えに「敬語からタメ口になる」や「攻撃的になる」など、意図や場面汇関係なく様々なスタイルで発話を生成してしまい、制御が難しい。本稿では、ポライトネス理論を参考相手との対人関係性を示す情報をプロンプトに付与することで、ポライトネス・ストラテジーを考慮した応答を生成できるか検証する。また実験結果をもとに、「大規模汎用言語モデルの発話生成能力を活かしながらポライトネス・ストラテジーを考慮する対話システム」を実現する上で解決すべき課題について議論をする。 ## 1 序論 近年、ニューラルネットワーク (NN) による言語モデルは様々なタスクで好成績を収め、流暢な文章生成が可能であることが示されている。中でも GPT-3[1] などの大規模汎用言語モデルはウェブデー タなどを含む雑多なコーパスを事前学習で用いることで、In-context Learning と呼ばれる、Few-Shot で特定の言語タスクの処理能力を獲得できる手法が提案されている。また、大規模なコーパスと NN のパラメタ数のおかげで、大規模汎用言語モデルは多様な知識や文章表現がモデル纪学習されており、自然かつ創造性豊かな文章生成が必要な対話や小説生成等のタスクで高い性能を発揮する $[1,2]$ 。 しかし、対話においては我々の実装 [3] 亿課題が見つかっており、誤り分析によると評価の低下に大きく影響したのは「発話スタイルの変化」であった。具体的には図 1 の例のように、チャットボットという役割や初対面の距離感がシステムに期待されている場面だが、対話中に敬語から友達口調 (タメ 図 1 HyperCLOVA を利用した雑談対話システムにおける、友達口調 (タメ口) に変化していく対話の例。システムにはチャットボットとしての役割や初対面の距離感が期待されている。 口) になり、発話スタイルの制御ができていない。 その他にも「攻撃的になる」など、発話スタイル [4] が一度崩れると、それ以降の発話がより過激になっていき、話者間の心理的距離が急激に変化する現象がみられた。原因として、モデルへの入力情報に対人関係性を示すものが無いことや、対話相手との心理的距離を戦略的に調節する能力が無いことが考えられる。 一方、人間同士の会話では、対話相手に対する自身の社会的役割や心理的距離をもとに言語の使用域を変化させ、円滑な関係性の構築を行うことができる。対話システムも同様であることが望ましいが、大規模汎用言語モデルに対人関係性を考慮した発話が生成できるか、未だ定かではない。そこで本研究では、大規模汎用言語モデルの応答多様性を活かしつつ、対人関係性の制御を行える対話システム の構築を目指す。そして、その初期段階の取り組みとして、ポライトネス理論を参考に実験を行う。 HyperCLOVA を用いた雑談対話システムに対人関係性を指示する情報を付与することで、ポライトネス・ストラテジー(つまり、指示された関係性を維持するためのポジティブ・ポライトネスとネガティブ・ポライトネスの使い分け)を獲得できるのかを検証する。具体的には、ポライトネス理論における話者のフェイスを表す式を参考に、対人関係性を 「役割関係」と「心理的距離」の二つのパラメタに分別してシステムに入力し、適切な距離関係を維持できるかを検証する。 ## 2 関連研究 ポライトネス理論ポライトネス理論とは、会話相手との関係性を適切または良好に維持するための、言語的な配慮についての理論であり、語用論の分野で研究されている $[5,6]$ 。その理論では、会話における話し手 $S$ と聞き手 $H$ は共にフェイスと呼ばれる対人関係に関する欲求を持っており、そのフェイスを保持しようと努める。フェイスには、相手と近づきたいという欲求であるポジティブ・フェイスと相手に立ち入られたくない欲求であるネガティブ・フェイスの二種類が存在する。しかし、 $S$ の行為や発言が相手のフェイスを侵害してしまう場合があり、そういった行為のことを Face-Threatening Act(FTA) と呼ぶ。FTAを行う必要がある場合は、対話相手に対するフェイス侵害度 $W x$ を見積もる。行為 $x$ のフェイス侵害度は、以下の式で決定される。 $ W x=D(S, H)+P(H, S)+R x $ ただし、 $D$ は $S$ と $H$ の社会的・心理的距離、 $P$ は $S$ に対する $H$ の持つ権力の大きさ、 $R$ はその文化における行為・発話内容の重要度を指す。このとき、相手へのフェイス侵害度が相対的に高い場合に比較的選択される、ネガティブ・フェイスに配慮した発話戦略をネガティブ・ポライトネス・ストラテジー (NPS) と呼ぶ。反対に、相手へのフェイス侵害度が相対的に低い場合に比較的選択される、ポジティブ・フェイスに配慮した発話戦略をポジティブ・ポライトネス・ストラテジー (PPS) と呼ぶ。人はこれら2つのポライトネスを自然と使い分けることで、対人関係性の制御を行っている。対話システムの分野でもポライトネス・ストラテジーを取り入れた研究も行われている $[7,8,9,10,11,12]$ 。 HyperCLOVA に基づく対話システム LINE と NAVER が共同で日本語に特化した GPT- 3 と同様な性能・性質をもつ言語モデルを開発し、その処理に必要なインフラ構築を行っている。その構築された言語モデルを内包するシステム群のことを、我々は HyperCLOVA (ハイパークローバ) [2] と呼んでいる。対話システムライブコンペティション 4[13](ライブコンペ 4)では、HyperCLOVAをべースとした対話システムが構築され、オープントラック、シチュエーショントラックの両方で好成績を収めた [3]。 HyperCLOVA は、入力文字列であるプロンプトによってコンテクスト (対話履歴やペルソナ [14] など) を付与することができるが、人が発話する際に考慮される様々な形態のコンテクストとは違い、モダリティの制約 (言語のみ) やトークン数の制約 (2048 個まで) があるため、適切な発話生成に必要な情報を厳選しなければならないという課題がある。 ライブコンペ 4 でのエラー分析によると、スタイル変化の誤りや勝手に対話を終了する誤り (e.g.「そろそろ寝る時間なので終わりにしましょう。」) など、対話特有の課題が自然性評価の低下に強く影響を与えていた。これらの誤りが生じる一因としては、「自然な応答」を生成するために十分なコンテクストが何であるか解明されておらず、現状では不足している可能性が挙げられる。本研究ではその情報の一つとして対人関係性に着目する。 ## 3 プロンプトヘの対人関係性付与 人間は対話相手ごとに話し方を変化させることから、対人関係性は発話のスタイルを決定づける重要な要因だと考えられる。本節では、大規模汎用言語モデルを用いた対話システムにおいて、対人関係性をプロンプトに付与し、対話相手のフェイスを推定可能にすることで、ポライトネス・ストラテジーに基づいて応答できるか検証する。式 (1)を参考に、対人関係性を役割関係と心理的距離の 2 つのパラメタによって表す。今回は HyperCLOVA に入力するプロンプトに記述するため、これらの値を自然言語で表現することを試みる。 役割関係役割関係は、対話相手に対する自身の社会的な立場を示す情報を指す。例えば、「上司と部下」、同僚同士」「初対面同士」などである。この役割関係は、式 (1)において、話し手の聞き手に対する権力を指す $P(H, S)$ を説明するものとして設定したが、表現によっては話し手と聞き手の親疎の距離を指す $D(S, H)$ にも影響する可能性がある (e.g.「友人」という単語は親しさの意味も含む)。 心理的距離心理的距離は、話者間の親密さの度合いを指す。本稿では、「親密である」、「親密ではない」「苦手である」という 3 段階で表現することとした。この心理的距離は、式 (1) において、 $D(S, H)$ を説明するものとして設定した。 プロンプト HyperCLOVAへの入力として使用する、役割関係と心理的距離を考慮した応答生成プロ 図 2 対人関係性を付与したショット例。「アイ」がシステム側である。\#以降はコメントである。 ンプトを説明する。図 2 にショット例を示す。まず上部のタスク説明には上から順に状況、ペルソナ、役割関係、心理的距離を付与した。心理的距離は話者側の視点のみ記述し、対話相手と対称性があるとは限らない。タスク説明ののちには対話例を記す。発話は、"アイ (後輩): "などのように名前と役割関係を付与した話者タグの後から記述した。Few-Shot は三種類用意し、それぞれ別の役割関係と心理的距離の対話例にした。また、対話例では PPS とNPS の両方の発話を含むように作成した。最後に、現在進行中の対話について Shot と同様の形式で記述し、自身の話者タグから発話の生成を開始する。 ## 4 実験 対人関係性をプロンプトに記述することにより、 ポライトネス・ストラテジーを考慮した発話が生成できるかを検証する実験を行った。 ## 4.1 実験設定 実験では、評価者が役割になりきり、各対話モデルと 5 ターン (5 発話ずつ) の自由雑談を行い、直後のアンケートによる評価を行う。実験に使用するモデルは、役割関係である「上司」、「同僚」「部下」 の三種類のものと心理的距離「親密である」、「親密ではない」「苦手である」の三種類の全ての組み合わせである。評価者は上司モデルに対して部下、同僚モデルに対して同僚、部下モデルに対して上司に なり切って対話を行う。アンケート評価は以下の 3 種類の性能を測定する 5 つの項目で評価を行う。 ・過度なフェイス侵害がないかを示す基準として「システムと心地よく対話ができたか (心地よさ)」 ・PS の基準として「システムは会話に関心があるか(関心)」と「システムは親しみやすいか(親しみ)」 ・NPS の基準として「システムは敬意を示しているか (敬意)」と「システムの返答は丁寧か (丁寧)」 それぞれを 5 段階のリッカート尺度 (1: 全くそう思わない、2: そう思わない、3: どちらでもない、4: そう思う、5: とてもそう思う)で評価する。 ## 4.2 結果・考察 本節では、実験の結果を役割関係が発話に与える影響と心理的距離が発話に与える影響の観点から分析・考察を行う。 ## 4.2.1 役割関係が発話に与える影響の比較 式 1 を基に考えると、 $P(H, S)$ が低いのは上司であり PPS が多く使用されることが予想できるが、反対に部下は NPS が使用される割合が多くなると予想できる。図 3 に心理的距離が近い (親しい) モデルのうち、役割関係での比較を示す。上司においては、関心と親しみの PPS を示す指標 (PPS 指標) が高く、敬意と丁寧の NPS を示す指標 (NPS 指標) が低いことから、HyperCLOVA は上司の社会的な権力を認識した上で応答生成できているといえる。しかし、上司は PPS 指標は 3.0 付近となっており、高くなるという予測には反する結果となった。このことから、PPS に基づく発話が表現できず、心地よさの低減に影響したと考えられる。 部下については、NPS 指標より PPS 指標が高いことから、敬意を示すなどといった部下の立場に基づいた発話スタイルを獲得できているといえる。 同僚については、PPS 指標で高い数値を得ているが、これは心理的距離が役割関係の影響を受けているといえる。つまり、親しい上司と親しい同僚を比較すると、立場上必然と親しい同僚の方が心理的距離が近く、フェイス侵害度が低くなり、 HyperCLOVA の応答生成にも影響した可能性があるといえる。また、これらの結果に基づいて、役割関係が心理的距離 $D(S, H)$ の範囲を決定づける要素になると考えられる (e.g. 上司・部下の関係では親密さの上限があり、より親密になる場合は友人という役割関係に変化させる必要がある)。 また、心地よさに関しては同僚が高く、上司や部 図 3 役割関係間の比較。心理的距離が近い(親しい) もの同士を比較した。 図 4 上司の評価結果 下などの役割関係が非対称な場合に低いといえる。力関係の差が大きいほどフェイス侵害の可能性が高く、心地よい対話にはより高度なポライトネス・ストラテジーが必要である。そのため、HyperCLOVA のみによる戦略制御を改善する余地があるとわかった。また、関係の非対称性が強くなるほど応答の質が低下する要因として、プロンプトの対話履歴に発話スタイルが違う文章が混在することが挙げられるが、今後詳しい調査が必要である。 ## 4.2.2 心理的距離が発話に与える影響の比較 上司を演じる対話システムの人手評価の結果について、図 4 に示す。心理的距離が近いほど敬意・丁寧の NPS 指標に低い值が出ている。これは、上司という権力による $P(H, S)$ の低さと親密であるという $D(S, H)$ の低さが共にフェイス侵害度を下げ、PPS がより選択される要因になることから説明できる。 しかし、関心・親しみなどの PPS 指標に関しては心理的距離によって差がついておらず、心理的距離を制御できていないことを示している。 次に同僚の結果を示す図 5 を見ると、心理的に近いほど PPS が非常に高いことがわかる。心地よさも高いことから、HyperCLOVA はこのような対等な関係性における発話戦略が得意なことが伺える。反面、心理的距離が近くても NPS 指標が高いため、丁寧な言葉遣いをしていることや、心理的距離が遠くても対話相手に親しみやすさを感じさせてしまう発話を行なっていることがわかり、モデルが十分に心理的距離を認識していないことを示している。 最後に部下の結果を示す図 6 をみると、NPS の指標が非常に高く、心理的距離に関わらず、部下としての敬意や丁寧さを含んだ振る舞いが可能なことを 図 5 同僚の評価結果 図 6 部下の評価結果 示している。しかし、PPS 指標の評価が心理的距離が遠い時に最も高い。これは直感に反する結果であり、モデルが心理的距離を十分に表現できていないことを示しているといえる。 これらの結果から、プロンプトに説明を付与することで心理的距離を制御することは難しいと考えられる。特定の役割に準じた発話はある程度可能であるが、その役割の中での心理的距離のグラデーションを表現することができていないことを示す結果となり、課題が残っていることがわかった。 ## 5 結論・今後の研究 本研究では、HyperCLOVA に基づく対話システムの対人関係性の制御を目指し、初期段階の検証を行った。ポライトネス理論に基づき、対人関係性を 「役割関係」と「心理的距離」に分別してプロンプトへ記述することで、ポライトネス・ストラテジー の獲得ができるかを調査した。結果、発話スタイルは役割関係の影響を受けており、上司・部下のような権力的な非対称性を表現することはできることがわかったが、心地よい対話を行うためのポライトネス・ストラテジーの性能は不十分であることがわかった。また、心理的距離に関しては軽微な影響しか確認できず、細部まで表現しきれないという結果になった。今後は、心理的距離のグラデーションの表現や心地よい発話生成ができるように、ポライトネス・ストラテジーの管理を言語モデルに依存せず、外部モジュールに切り出し、適切にプロンプトを切り替える仕組みを検討する。また、式 (1) における心理的距離 $D(S, H)$ や発話内容の軽重 $R x$ の定量化を検討し、それに基づく出力のフィルタリングに取り組んでいく。 ## 参考文献 [1] Tom B Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, et al. Language models are few-shot learners. arXiv preprint arXiv:2005.14165, 2020. [2] Boseop Kim, HyoungSeok Kim, et al. What changes can large-scale language models bring? intensive study on hyperclova: Billions-scale korean generative pretrained transformers. Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, EMNLP 2021, 2021. [3] 山崎天, 坂田亘, 川本稔已, 小林滉河, 上村卓史, 中町礼文, 李聖哲, 佐藤敏紀. ペルソナ一貫性の考慮と知識ベースを統合した hyperclovaを用いた雑談対話システム. 人工知能学会研究会資料言語・音声理解と対話処理研究会 93 回 (2021/11), pp. 113-118. 一般社団法人人工知能学会, 2021 . [4] 宇佐美まゆみ.日本語の「スタイル」にかかわる研究の概観と展望: 日本語会話におけるスピーチレベルシフトに関する研究を中心に (<特集>スタイルの生成と選択). 社会言語科学, Vol. 18, No. 1, pp. 7-22, 2015. [5] Penelope Brown, Stephen C Levinson, and Stephen C Levinson. Politeness: Some universals in language usage, Vol. 4. Cambridge university press, 1987. [6] 福田一雄. 対人関係の言語学一ポライトネスからの眺め一. 開拓社, 2013 . [7] 宮本友樹, 片上大輔, 重光由加, 宇佐美まゆみ, 田中貴紘, 金森ほか. ポライトネス・ストラテジーに基づく会話エージェントの言語的な振る舞いの違いが人との関係性構築にもたらす効果初対面における冗談の心理効果 . 知能と情報, Vol. 30, No. 5, pp. 753-765, 2018. [8] 永井望, 宮本友樹, 片上大輔. Seq2seq モデルを用いた文末表現の異なる対話システムの評価. 知能と情報, Vol. 32, No. 1, pp. 523-527, 2020. [9] 宮本友樹, 磐下大樹, 遠藤水紀, 永井望, 片上大輔. 雑談対話システムにおける心理的近接発話の戦略が対話の評価に及ぼす影響. 人工知能学会論文誌, Vol. 36, No. 5, pp. AG21-I_1, 2021. [10] 永井望, 宮本友樹, 片上大輔. ポライトネス理論に基づいた文末表現の制御を行う対話システムの開発. 人工知能学会全国大会論文集第 34 回全国大会 (2020), pp. 3O1GS1301-3O1GS1301. 一般社団法人人工知能学会, 2020. [11] 宮本友樹, 片上大輔, 重光由加, 宇佐美まゆみ, 田中貴紘, 金森, 吉原佑器, 藤掛和広ほか. ポライトネス理論に基づく運転支援エージェントにおける発話の文末スタイルに着目した印象評価. 知能と情報, Vol. 31, No. 3, pp. 739-744, 2019. [12] Tomoki Miyamoto, Daisuke Katagami, and Mayumi Usami. A politeness control method for conversational agents considering social relationships with users. In Proceedings of the 2020 JSAI Conference on the Annual Conference of Japanese Society of Artificial Intelligence, 2020. [13] 東中竜一郎, 船越孝太郎, 高橋哲朗, 稲葉通将, 赤間怜奈, 佐藤志貴, 堀内竬太, 小室允人, 西川寛之, 宇佐美まゆみほか. 対話システムライブコンペティション 4. 人工知能学会研究会資料言語・音声理解と対話処理研究会 93 回 (2021/11), pp. 92-100. 一般社団法人人工知能学会, 2021 . [14] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2204-2213, 2018.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G8-1.pdf
# JTubeSpeech: 音声認識と話者照合のために YouTube から構築される日本語音声コーパス 高道慎之介 ${ }^{1}$, Kürzinger Ludwig ${ }^{2}$ ,佐伯高明 ${ }^{1}$ ,塩田さやか ${ }^{3}$ ,渡部 晋治 4 } 1 東京大学, 2 ミュンヘン工科大学, 3 東京都立大学, 4 カーネギーメロン大学 shinnosuke_takamichi@ipc.i.u-tokyo.ac.jp ## 概要 本論文は YouTube 動画からの音声コーパス構築法を提案する。オープンな音声コーパスは音声言語処理の要だが,英語と中国語に比べ多くの言語でその整備が遅れている。そこで本研究は,言語にほぼ依存しないコーパス構築法を提案するとともに,それを日本語に適用し音声認識・話者照合のためのコー パスを構築する。構築スクリプトと動画リストをプロジェクトページにて公開している。 ## 1 はじめに 深層学習の恩恵を受け, 音声言語処理(例えば,音声認識や話者照合) [1]-[5] の性能が顕著に向上している. 深層学習に基づく音声言語処理は多量の学習データを要するため, 主要言語に限らず多くの言語のオープン音声コーパスを整備すべきである. しかしながら,英語や中国語 [6]-[12] に比べ,それ以外の言語のコーパス整備は遅れている。これは日本語においても例外ではない。 関連研究として,動画から音声コーパスを収集する研究がある [9], [13]-[15]. 特に YouTube は多様なジャンル,環境,話者,アクセントの動画を有するため, YouTube 動画は有用な音声データと成り得る. Chen ら [16] と Fan ら [12] らはそれぞれ, 英語音声認識との中国語話者照合のための音声コーパス構築法を提案している. 言語依存の処理や手動の処理を含むこれらの研究と異なり, 本研究は, 言語非依存で音声コーパスを自動構築する方法論を目指す.この方法論の確立は,英語と中国語に限定されない音声コーパスの構築に有効である. 本稿では,音声認識 (ASR) と話者照合 (ASV) を対象として,(ほぼ)言語非依存でコーパスを自動構築する方法を提案するとともに,日本語音声コーパス JTubeSpeech を構築する。最初に,YouTube をクロー 図 1 コーパス構築手順. ルしてコーパスの候補となるテキストと音声の対を取得する。次に,音声認識用コーパスの構築では, end-to-end 音声認識モデルと CTC segmentation [17] に基づいて,テキストと音声の適合度合いを定量化しその適合対を抽出する.話者照合用コーパスの構築では,動画内の話者ベクトル分散に基づいて,単一話者動画を抽出する.これらの処理はほぼ言語非依存で実行される。本研究の貢献は以下のとおりである。 -日本語音声認識・話者照合用の大規模コーパスを構築する。構築に利用した YouTube 動画リストを, プロジェクトページ1)で公開している。 ・多くの言語に適用可能なコーパス構築法を提案する. 上記プロジェクトページでは,日本語以外にも対応したデータ収集スクリプトを公開している. ## 2 コーパス構築 図 1 にコーパス構築手順を示す. ## 2.1 データ収集 検索フレーズの作成:まず,動画検索に使用する検索フレーズを作成する。対象言語の Wikipedia 記事からハイパーリンク付きのフレーズを抽出する. Gigaspeech [16] と異なり,本稿では記事カテゴリを指定せずに全 Wikipedia 記事を使用する。また, Google Trends にて提供される急上昇検索フレーズも  使用する。 字幕付き動画の取得:次に,字幕付き動画の ID を取得する. フレーズ検索で動画 IDを取得し,その動画 ID のうち字幕を有するものをリスト化する. 本稿では手動字幕(動画作成者による字幕)動画のみを対象とするが,本処理では同時に自動字幕 (動画提供者による音声認識結果)動画も対象とする. 最後に,動画をダウンロードして音声と手動字幕の対を作成する.この際,音声のフォーマットを $16 \mathrm{kHz}$ サンプリングのモノラルに統一する. ## 2.2 音声認識のためのデータ洗練 作成した音声と字幕のうち, 音声認識に不適なデータ(音声と字幕が適合しない発話)を除去する. 具体的には, CTC segmentation [17] を用いて音声と字幕の適合スコアを計算し,そのスコアに基づいて発話を除外する。また,多くの字幕のタイミング(発話開始終了時刻)は不正確であるため, 再びアライメントをおこなう. テキストに対する前処理:事前に最低限の言語依存処理を施す。本稿では,num2words[18]を用いて,数字列を読みの単語列に変換する。 アライメント:各発話のタイミングの推定(アライメント)は,文献 [17]の CTC segmentation に従う。 ただし,原著では発話前区間のスキップ機構を最初の発話のみに適用していたが,本稿では字幕により分割された各発話全てに適用する. アライメントには学習済み音声認識モデルによる推論を利用する。 スコアリングとデータ洗練:字幕のタイミングと音声の間で,CTC スコアを計算する。このスコアは音声と字幕と適合に関する対数確率である. CTC スコアに対し閾値を設け,閾值以下のデータを除去する。 長い音声の処理 : 1 つの字幕の時間長が数時間を超える場合がある. Transformer に基づく音声認識モデルは, 時間長に対し 2 乗の計算量オーダーを要するため, 長い音声を一度に処理できない. そのため本稿は recurrent neural network (RNN) に基づく音声認識モデルを利用する. 64 GB のメモリ上で最大 500 秒分しか推論できない Transformer に対し, RNN は 2.7 時間分を推論できる. 長い音声を扱う際には,音声を小さなブロックに分割した後, 各ブロックについて推論し, CTC スコアを再計算する. ブロックの最大サイズは, 音声認識モデルの計算量と利用可能メモリに応じて決 図 2 話者空間における分布の比較. 定する.音声信号の急さな分割は推論時の歪を生むため,ブロック区間を僅かに重複(本稿では 600 ミリ秒)させて分割する.各時刻の CTC スコアを計算した後に重複区間のスコアを除外して,最終的な CTC スコアとする。 ## 2.3 話者照合のためのデータ洗練 音声認識と異なり,話者照合は話者ラベルを必要とする. そこで本研究では,独話動画(単一話者動画)を教師なしに抽出する方法を提案する。この方法では,テキスト音声合成(TTS)による合成音声も同時に除去する. これは, 合成音声の特徴が人間の音声と顕著に異なるためである. 非音声動画,短時間動画の除去:まず,音声を含まない動画を除外する。音声認識の場合と異なり,音声と字幕の適合を必要としないため, 音声区間検出 (VAD) を用いて音声を検出する. 字幕に基づいて切り出した発話に対しVADを適用し, 音声区間と判定されたもののみを使用する. また,後述の統計量計算のために,極端に短い動画を除外する。 話者空間における動画内変動の評価:単一話者動画を抽出するため,動画内の話者変動を計算する. 図 2 に概念を示す. 本研究では,学習済み深層学習モデルを用いて, 話者表現ベクトルである $d$-vector[4] を抽出する. $d$-vector は発話ごとに計算され,動画内の話者変動はその分散として計算される. 合成音声の発話間変動は極端に小さいため, 合成音声の動画の話者変動は,単一話者動画に比べて小さくなると期待される.逆に,複数話者動画の話者変動は大きくなると期待される.以上の仮説より,分散に対する閾値を設けて単一話者動画を抽出する。実装では, t-SNE[19] により次元削減された $d$-vector を使用し,共分散行列の行列式の値を使用する. YouTube チャンネルによるグループ化:話者照合用コーパスでは,同一話者が異なる話者として扱われることを避けなければならない,そのため本稿で 表 1 データ収集の結果. 表 2 既存の日本語コーパス(上半分)および他言語コー パス(下半分)との比較. は,同じ YouTube チャンネルに属する単一話者動画の話者を,単一の話者として扱う。 ## 3 実験的評価 ## 3.1 データ収集における評価 収集期間は 2021 年 2 月から 4 月である. 表 1 より,1) 各検索フレーズから平均 5.09 個の動画 ID を収集できること,2) 収集した動画 ID の $0.92 \%$ に手動字幕が,41.7\%に自動字幕がそれぞれ付与されていることが分かる.この収集により,110,000 個の手動字幕付き動画から約 10,000 時間の音声データを作成した。 表 2 は既存コーパスとの比較である. 我々のコーパスのサイズは,次節以降の実験で使用されるものである. 我々の音声認識コーパスは, LaboroTVspeech (日本語)[22] や Common Voice(英語)[8] と同程度である. また,我々の話者照合コー パスは, $\mathrm{CN}-\mathrm{Celeb}$ (中国語)[12] と同程度のサイズであり,初の日本語コーパスである。 ## 3.2 音声認識における評価 データ洗練:2.2 節に示す方法を用いてデータ洗練を実施した。学習済み音声認識モデルは ESPnet LaboroTVspeech[22] のレシピ [25] を用いて学習した. 表 3 に学習データ,テストデータの統計量を示す. 本稿では (1) 2.3 節の方法で構築した単一話者動画 (“single_speaker”もしくは “ss”) と (2) CTC スコ表 3 音声認識における学習データと評価データの統計量. $\theta$ は CTC スコアに対する閾值. アの高い 15,000 動画 (“top_15k”もしくは “15k”)の 2 種類のサブセットを利用する.ただし,top_15k には単一話者動画以外も含まれ,この 2 つのサブセットの一部は重複していることに注意する.以降の節で登場する “train_ss_15k”は,この2つのサブセットを結合したものである。 評価データのデザイン: “single_speaker” の動画から,(1) -0.3 以上の CTC スコアの発話を有する 1,621 動画を選択,(2) 約 20\%の動画をランダム抽出 ᄂ, 3, 396 発話を選択,(3) 各発話を聴取し文と正しく対応する 1,614 発話を選択,(4) その発話を開発データ dev_easy_jun21(785 発話)と評価データ eval_easy_jun21(829 発話)に分割の手順で “easy” セットを作成した。 また本稿では, “normal”セットを作成した22). このセットは,-1.0 以上の CTC スコアを持つ発話である。“easy”と同じ動画から該当発話を抽出し,上記の (3)(4)を同様に実行したのち,開発データdev_normal_jun21(1,036 発話)と評価デー 夕 eval_normal_jun21(834 発話)を作成した。 音声認識の性能:ESPnet に実装されている,八イブリッド CTC/アテンション構造 [26] に基づく Conformer [3], [27]を用いて, character error rate (CER) を評価した。設定の詳細は, ESPnet JTubeSpeech レシピ3)を参照されたい。 図 3 に結果を示す。“normal”セットの認識性能が “easy”セットのそれより悪いことから,CTC スコアによる認識難易度の付与が妥当と言える.また,閾値 $\theta$ を下げると学習データ量の増加とともにノイジーな書き起こしが混入されるが,音声認識性能は依然として改善することがわかる. 最終的な CER は $5.2 \%$ (eval_easy_jun21) と  3) https://github.com/espnet/espnet/pull/3311 図 3 音声認識性能. 閾値 $\theta$ を変えて学習データ量を 12,24,71,362,1,376 時間に変更している. 図 4 話者空間における動画内変動. 10.7\% (eval_normal_jun21) であり,これらは他の日本語音声認識ベンチマーク (CSJ[21] では 4-6\%, LaboroTVspeech[22] では 13\%) と同程度である. 全ての学習データを組み合わせた場合 (ss_15k_1376h) の結果を本図の右端に示している. dev_easy_jun21 以外の全ての性能が向上していることから,より難しいデータの性能を向上させるには学習データの増強が有効であると確認できる. ## 3.3 話者照合における評価 データ洗練:音声区間検出に py-webrtcvad4)を, $d$-vector 抽出に学習済みモデル5)を使用した。分散の計算は,10 発話以上から成る動画のみを使用した. pilot studyとして, 本研究では 35,000 動画 (全体の約 $30 \%$ )を使用した. 図 4 の結果より,横軸の値が 0 付近および 8 から 9 付近で急さな変化が見られる. 図 2 の概念に基づいて 2 つ間値を設け, TTS, single speaker, multi speakers のクラスラベルを各動画に付与する. このラベルの品質を定量的に評価するため,クラスあたり 100 動画をランダムに抽出し,真のクラスラベルを手動付与した. 表 4 に示す結果より, 閾値に基づくラベルはおよそ正確であることが分かる.特に, single speakerのクラスに多数話者動画が含ま 4) https://github.com/wiseman/py-webrtcvad 5) https://github.com/yistLin/dvector 表 4 動画の種類に関するクラスタリングとアノテー ション れていないことから,提案法は単一話者動画を抽出できることがわかる. 話者照合の性能: single speaker のクラスに含まれる 1,795 人の話者を学習と開発に, 92 人の話者を登録と照合に用いた,学習と開発のデータ量はそれぞれ 127, 997 と 25, 392 発話であり,照合のデータ量は,276 発話の正例と 25,116 発話の負例からなる 25, 392 発話である. 話者埋め込みモデルは 4 層の畳み込み層, 1 層の pooling 層, 2 層の全結合層である.音声特徴量は 40 次元のメル周波数ケプストラム係数であり, 話者べクトルの次元は 512 次元とした.話者照合の評価基準は equal error rate (EER) である.確率的線形判別分析(PLDA)とデータ拡張は使用しなかった。 話者照合の性能は $10.9 \%$ \%だった. 単純なモデルを使用しているにも関わらず,Voxceleb1 と複雑なモデルを使用した場合 [14] と同程度の性能を達成している.故に,提案法は話者照合のためのデータを効率的に選択できることがわかる. ## 4 まとめ 本稿では,言語非依存でコーパスを自動構築する方法を提案し, 1,300 時間の日本語音声認識用コー パス,900 時間の日本語話者照合用コーパスを構築した. 今後は,提案法を日本語以外の言語に適用する. 本稿の執筆時点(2022 年 1 月初頭)において,本稿の内容に加え以下の内容をプロジェクトページで公開している。音声認識と話者照合に限らず,多様な音声言語処理タスク,自然言語処理タスクで利用可能である. ・多言語の動画 ID リスト:YouTube 動画から取得可能な約 70 言語のうち,より多くの動画 IDを取得できた 30 言語の動画 IDリストを公開している. - 自動字幕の取得スクリプト:本稿で扱った手動字幕ではなく, 自動字幕を取得し整形するスクリプトを公開している。 謝辞:有意義な議論をくださった Hiromasa Fujihara 氏, GigaSpeech チーム(特に Guoguo Chen 氏,Shuzhou Chai 氏)に感謝する。本研究の実施にあたり,ジョンスホプキンス大学 HLTCOE クラスタと National Science Foundation grant number ACI1548562 から支援を受けている, Extreme Science and Engineering Discovery Environment (XSEDE) [28] を使用した. また, NSF award number ACI-1445606 の支援を受けている, Pittsburgh Supercomputing Center (PSC) の Bridges system [29]を使用した。また,本研究は, JSPS 科研費 19K20271, 21H04900, 21H05054(基盤技術開発の内容),JST ムーンショット型研究開発事業 JPMJMS2011(多言語技術の内容),ROIS-DSJOINT (030RP2021),セコム財団挑戦的研究助成の助成を受けた。 ## References [1]G. E. Dahl, D. Yu, L. Deng, et al., "Context-dependent pretrained deep neural networks for large-vocabulary speech recognition," IEEE Transactions on Audio, Speech, and Language Processing, vol. 20, no. 1, pp. 30-42, 2012. [2]A. Graves and N. Jaitly, "Towards end-to-end speech recognition with recurrent neural networks," in International conference on machine learning, 2014, pp. 1764-1772. [3]A. Gulati, J. Qin, C.-C. Chiu, et al., "Conformer: Convolution-augmented Transformer for Speech Recognition," in Proc. Interspeech, 2020, pp. 5036-5040. [4]E. Variani, X. Lei, E. McDermott, et al., "Deep neural networks for small footprint text-dependent speaker verification," in ICASSP, 2014, pp. 4080-4084. [5]D. Snyder, D. Garcia-Romero, G. Sell, et al., "X-vectors: Robust DNN embeddings for speaker recognition," in ICASSP, 2018, pp. 5329-5333. [6]C. Cieri, D. Miller, and K. Walker, "The fisher corpus: A resource for the next generations of speech-to-text.," in LREC, vol. 4, 2004, pp. 69-71. [7]V. Panayotov, G. Chen, D. Povey, et al., "Librispeech: An asr corpus based on public domain audio books," in ICASSP, 2015, pp. 5206-5210. [8]R. Ardila, M. Branson, K. Davis, et al., "Common Voice: A massively-multilingual speech corpus," in Proceedings of the 12th Language Resources and Evaluation Conference, 2020, pp. 4218-4222. [9]P. K. O' Neill, V. Lavrukhin, S. Majumdar, et al., SPGISpeech: 5,000 hours of transcribed financial audio for fully formatted end-to-end speech recognition, 2021. [10]Y. Liu, P. Fung, Y. Yang, et al., "HKUST/MTS: A very large scale Mandarin telephone speech corpus," in International Symposium on Chinese Spoken Language Processing, 2006, pp. 724-735. [11]J. Du, X. Na, X. Liu, et al., "Aishell-2: Transforming mandarin asr research into industrial scale," arXiv preprint arXiv:1808.10583, 2018. [12]Y. Fan, J. Kang, L. Li, et al., CN-CELEB: A challenging Chinese speaker recognition dataset, 2019. [13]S. Abu-El-Haija, N. Kothari, J. Lee, et al., YouTube-8M: A large-scale video classification benchmark, 2016. [14]A. Nagrani, J. S. Chung, W. Xie, et al., "Voxceleb: Largescale speaker verification in the wild," Computer Science and Language, 2019. [15]D. Galvez, G. Diamos, J. M. C. Torres, et al., 'The People' s Speech: A large-scale diverse English speech recognition dataset for commercial usage," 2021, https: //openreview. net/forum?id=R8CwidgJ0yT. [16]G. Chen, S. Chai, G. Wang, et al., "GigaSpeech: An evolving, multi-domain asr corpus with 10,000 hours of transcribed audio," arXiv preprint arXiv:2106.06909, 2021. [17]L. Kürzinger, D. Winkelbauer, L. Li, et al., "Ctcsegmentation of large corpora for german end-to-end speech recognition," in Speech and Computer, 2020, pp. 267-278. [18]V. Dupras, M. Grigaitis, and T. Ogawa, Num2words: Modules to convert numbers to words. https://github.com/ savoirfairelinux/num2words, 2021. [19]L. Maaten and G. Hinton, "Visualizing data using t-SNE," Journal of machine learning research, vol. 9, pp. 2579-2605, 2008. [20]K. Itou, M. Yamamoto, K.Takeda, et al., "JNAS: Japanese speech corpus for large vocabulary continuous speech recognition research," Journal of the Acoustical Society of Japan (E), vol. 20, no. 3, pp. 199-206, 1999. [21]K. Maekawa, H. Koiso, S. Furui, et al., "Spontaneous speech corpus of Japanese.," in Proc. LREC, 2000, pp. 947-952. [22]S. Ando and H. Fujihara, "Construction of a large-scale Japanese ASR corpus on TV recordings," in ICASSP, 2021, pp. 6948-6952. [23]S. Shiota, F. Villavicencio, J. Yamagishi, et al., "Voice liveness detection algorithms based on pop noise caused by human breath for automatic speaker verification," in Sixteenth annual conference of the international speech communication association, 2015. [24]J. Du, X. Na, X. Liu, et al., "AISHELL-2: Transforming Mandarin ASR Research Into Industrial Scale," ArXiv, 2018. [25]V. authors, Espnet/egs2/laborotv/asr1 - espnet/espnet, https://github.com/espnet / espnet / tree / master / egs2/laborotv/asr1, 2021. [26]S. Watanabe, F. Boyer, X. Chang, et al., "The 2020 ESPNet update: New features, broadened applications, performance improvements, and future plans," arXiv preprint arXiv:2012.13006, 2020. [27]P. Guo, F. Boyer, X. Chang, et al., "Recent developments on espnet toolkit boosted by conformer," in ICASSP, 2021, pp. 5874-5878. [28]J. Towns, T. Cockerill, M. Dahan, et al., "Xsede: Accelerating scientific discovery computing in science \& engineering, 16 (5): 62-74, sep 2014," URL https://doi. org/10.1109/mcse, vol. $128,2014$. [29]N. A. Nystrom, M. J. Levine, R. Z. Roskies, et al., "Bridges: A uniquely flexible hpc resource for new communities and data analytics," in Proceedings of the 2015 XSEDE Conference: Scientific Advancements Enabled by Enhanced Cyberinfrastructure, 2015, pp. 1-8.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G8-2.pdf
# 画像文字からの音声合成 中野嘉文 $\dagger$ ,佐伯高明†,高道慎之介†,須藤克仁 $\ddagger ,$ 猿渡洋 $\dagger$ †東京大学,中奈良先端科学技術大学院大学 nakano-yoshifumi230@g.ecc.u-tokyo.ac.jp, \{takaaki_saeki, shinnosuke_takamichi, hiroshi_saruwatari\}@ipc.i.u-tokyo.ac.jp, sudoh@is.naist.jp ## 概要 本論文は画像文字からの音声合成を提案する.従来のテキスト音声合成は,各文字を離散的に表現していたため,文字の持つ視覚的な情報が失われていた.そこで本論文では文字を離散的なクラスではなく画像として捉え、音声を合成する. そして提案法が従来の文字列入力と同等以上の音声品質であることを示す. また画像上のフォントの強調表現を適切に音声に反映したり, 未知文字や非正規文字から音声を合成できることを示す. ## 1 はじめに テキスト音声合成 (text to speech; TTS) とは任意のテキストから,音声を合成する技術である。近年はニューラルネットワークを用いた手法が主流で,人間の読み上げ音声と同等の品質をもつ音声の合成に成功している $[1,2,3,4]$. 一般的な TTS では通常,各文字 (もしくは言語知識に基づいた各音素)を離散的に表現し,そこから音声を合成する (図 1(a)). しかしながら人間は,各文字を単に離散的なクラスとして捉えているわけではなく,文字の視覚的な情報を用いて読み上げを行う,例えば,表音文字を読み上げる際には,文字や部分文字の組み合わせから音韻を決定する。また,通常のフォントと異なるフォント (例えば太字や下線) で文字が表現されていれば,当該箇所を強調して発音する.以上の理由から,文字を離散的にではなく画像として扱うことで,従来技術より柔軟な音声表現が可能になると予想される. 以上を踏まえ本研究では,画像文字からの音声合成(visual-text to speech; vTTS)を提案する (図 1(b)).音声合成モデルは, 非自己回帰型のテキスト音声合成手法である FastSpeech2 [5] に基づいており, 画像文字から文字情報をエンコードする convolutional neural network (CNN) と, その文字情報から音響特徴 (a) TTS: text input (b) VTTS: visual-text input図 1 手法の比較 量を予測する非自己回帰型モデルから構成される。実験的評価では表音文字からなる言語である日本語 (平仮名), 韓国語 (ハングル), 英語 (アルファベット) の音声合成において,従来の文字入力と我々の画像文字入力を比較し,以下の内容を明らかにする。 $\cdot$提案法が,文字からの音声合成と同等以上の合成音声品質を達成しうること - 提案法が,太字フォントや下線で表現される強調を適切に音声に反映できること ・提案法が,学習データに含まれない表音文字から音声を合成できること ## 2 関連研究 ## 2.1 テキスト音声合成 文字を入力とするテキスト音声合成は入力文字を離散的なトークンとして扱い, 文字列から音声波形への系列変換をおこなう.本研究では画像文字から合成した音声の品質を評価するため, ベースラインとして文字入力の FastSpeech2 [5] を使用する. FastSpeech2 はエンコーダ,バリアンスアダプタ, デコーダからなる. エンコーダは文字 ${ }^{11}$ 埋め込み層, 自己注意機構 [6], 1 次元畳み込み層からなり,文字の離散表現を連続表現に変換する.バリアンス 1)FastSpeech2 本来の入力は音素だが,提案法との公正な比較のため,本論文の FastSpeech2 の入力を文字とする. アダプタは各文字の継続長,ピッチ,エネルギーを予測し,エンコーダの出力に加える。デコーダはエンコーダと類似の構造であり,バリアンスアダプタの出力からメルスペクトログラムを予測する. メルスペクトログラムからの音声波形の生成には, ニューラルボコーダを用いる. ## 2.2 画像文字を用いた自然言語処理 自然言語処理の分野において,画像文字を扱う研究がいくつかある。機械翻訳では,テキストに代わり画像文字から文字情報をエンコードすることで様々な種類のノイズに強くなることが示されている [7]. また Wikipedia の記事タイトルからカテゴリを分類するタスクにおいて,画像文字に CNNを用いることで文字レベルの構成性を獲得し,低頻度語に対し性能が向上したことが示されている [8].他にも自己教師あり学習に画像文字を用いる研究 $[9,10]$ も存在する. これらの研究は画像文字を用いて文字に潜む意味を獲得するのに対し,本研究は文字に潜む音韻・韻律の獲得を狙う。 ## 3 提案手法 提案法のアーキテクチャは FastSpeech2 の文字埋め込み層を画像畳み込み層に置換したものである. この置換により,文字から文字特徴量を抽出するかわりに,CNNを用いて画像文字から視覚的特徴量を抽出する。それ以降のエンコーダ,バリアンスアダプタ,デコーダは元論文 [5] と同様である。なお本研究では,画像文字からの音声合成の理想的な性能を調査するために,画像中に現れる画像文字(例えば,標識や漫画のセリフ)ではなく,テキストから人工的に生成した画像文字を使用する。 ## 3.1 文字から画像文字への変換 文字を画像文字に変換する手法について説明する. 全体像は図 2(c) の通りである. FastSpeech2 の学習のためには, 文字列と音声特徴量系列の時間対応を利用する必要がある. したがって画像文字音声合成を実現するには,文字列の画像と音声特徵量系列の時間対応を取らなければならない。これに対し本研究では, 従来のテキスト音声合成で利用する,文字列と音声特徴量系列の時間対応に加え,等幅の画像文字を利用する。まず,各文字を幅 $w$ ,高さ $h$ , フォントサイズ $f s$ の白黒画像に変換することで,文字数 $n$ の文字列から幅 $n w$, 高さ $h$ の画像を生成 図 2 提案法の概略図 する.このようにして生成した画像に対して高さ $h$ ,幅 $w c$ の窓をストライド $s$ でずらしながら,高さ $h$ ,幅 $w c$ のスライス画像を $n$ 枚作る. ここで $c$ は 1 枚のスライス画像に含まれる文字数を表しており, $c$ を調節することで各画像文字から視覚的特徴を得る際に考慮する,前後の文字数を変更できる.前後の文字を考慮することで,文字の組み合わせに依存する音韻や韻律の獲得が期待される。この際,ブランクに相当する空白文字を左右端に追加することで,文字数分のスライス画像を作成する。 ## 3.2 視覚的特徵の獲得 CNNを用いて各文字のスライス画像から視覚的表現を獲得する手法を説明する。全体のアーキテクチャは図 2(a) の通りである。CNN は画像文字を用いた機械翻訳に関する先行研究 [7] と同様である (図 2(b)). 前節で生成したスライス画像に対して 2 次元の畳み込み層を通し,得られた出力に対し 2 次元のバッチ正規化 [11]を行う.2 次元の畳み込み層ではパディングを使用して,画像サイズ不変の畳み込みを行う.その後,活性化関数 ReLU [12]を適用したのちに全結合層を通すことで視覚的特徴量を得る. 視覚的特徴量は FastSpeech2 エンコーダの自己注意機構への入力となる. ## 4 実験的評価 ## 4.1 実験条件 ## 4.1.1 データセット 本研究では提案法の性能を,表音文字で構成される以下の 3 言語で評価する。 -日本語: 80 文字の平仮名を使用する.漢字と片仮名は,事前にひらがなに変換する。 ・韓国語:1226 文字のハングルを使用する。ハン グルは, 14 個の子音と 10 個の母音からなる字母を部分文字とする。 - 英語:26 文字のアルファベットから構成される. 日本語の評価には JSUT [13]を用いた. 8.3 時間を学習データに,BASIC5000 よりランダムに抽出した 0.13 時間からなる 100 文を評価データに使用した. また 4.2.2 節の実験では,JSUT で事前学習したモデルのファインチューニングに特定の名詞を強調した日本語音声のコーパスを使用した. 本コーパスの学習データは 0.42 時間, 評価データは 0.046 時間からなる 50 文である。韓国語の評価には KSS コーパス [14]を使用し,その学習データは 9.0 時間,評価データは 0.071 時間からなる 100 文である. 英語の評価には LJSpeech [15] を使用し,その学習データは 19 時間,評価データは 0.19 時間からなる 100 文である. すべての音声を $22.05 \mathrm{kHz}$ のサンプリング周波数にダウンサンプリングした. また文字列と音声特徵量のアライメントは,文字列と音素列,音素列と音声特徴量の各強制アライメントにより獲得した. ## 4.1.2 モデルの設定 FastSpeech2 のモデルサイズとハイパーパラメー 夕は論文 [16] と同じものを用いた. CNNではカー ネルサイズ 3 ,ストライド 1 ,パディング 1 のフィルタを用いた。画像文字の作成には pygame ${ }^{2}$ を使用した. すべての言語で各文字を $w=30, h=30$ の画像文字に変換し,フォントサイズは日本語と韓国語では $15 \mathrm{px}$ ,英語では $20 \mathrm{px}$ を用いた。これは文字が画像に対して適切な大きさになるように設定した結果である。また英語と日本語には IPA フォントを用い,韓国語には GowunBatang フォントを用いた。 スライス窓は $c=1,3,5$ に設定した. 視覚的特徴量の次元数を FastSpeech2 の言語特徴量と同じく 256 次元に設定した. メルスペクトログラムからの音声波形の生成には学習済み HiFi-GAN [17] ${ }^{3)}$ を用いた。 ## 4.2 結果と考察 ## 4.2.1 文字入力と画像文字入力の音質比較 画像文字から合成した音声が,文字列から合成した従来の音声と同等の品質であるかどうかを評価するため自然性に関する 5 段階 Mean Opinion Score (MOS) 評価 (1: 不自然,5: 自然)を行った. 日本語では 150 人が 20 サンプル,韓国語では 10 人が 160 サ 2) https://www.pygame.org/news 3) https://github.com/jik876/hifi-gan表 1 自然性に関する MOS 評価の結果. 文字入力の MOS と有意な差があった提案法は太字にしてある. 表 2 強調箇所の正答率 ンプル,英語では 120 人が 20 サンプルの音声を聞き,自然性を評価した。日本語と英語の評価はクラウドソーシングにて行った. 他方,同様の方法で十分な評価者数を確保できなかったため,韓国語の評価は機縁法にて行った。 結果を表 1 に示す.すべての言語において,画像文字入力の音声は,文字列入力の音声と同等以上の品質があることがわかる.各言語について最高スコアの画像文字入力 (日本語と英語は $c=5$, 韓国語は $c=1$ ) と従来の文字列入力を比較すると,日本語と英語で両者に有意な差は見られない一方,韓国語では有意な差 $(p<0.05)$ が見られる。これは,部分文字の組み合わせで音韻の決まるハングルに対して, CNN による視覚的特徵の抽出が有効であったためだと考えられる。また各言語ごとに適切なスライス窓の幅が異なることもわかる. 英語では $c=1,3,5$ で合成音声の品質に有意な差は見られなかったが,日本語では $c=1$ より $c=5$ の方がやや音質がよく $(p<0.10)$, 韓国語では $c=5$ より $c=1$ の方が有意に音質が良いという結果になった $(p<0.05)$. これは各言語で一文字が表す音素の数に由来するものであると考えられる。 ## 4.2.2 フォント強調表現の反映 この節では,フォントの強調表現を適切に音声に反映できるかを評価する. 日本語強調音声と, 強調箇所 (名詞) を太字もしくは下線で表現した画像文字を用意し,音声合成モデルを学習した. モデルは,太字と下線のそれぞれに対して学習した。スライス幅は $c=5$ とした. 評価では、評価者がどの名詞が強調されているかを回答し,その正答率を計算した. ランダムに選択された 20 個の音声を, 150 人 表 3 自然性に関する MOS 評価. $\Delta$ は Open vocabと Closed vocab の MOS の変化量である 表 4 CER の比較 の評価者が評価した. その選択候補は当該音声に含まれるすべての名詞であり,1 文あたりの平均候補数は 3.6 である.完全にランダムに選択したときのチャンスレートは 0.299 である。提示する音声は 5 種類あり,自然音声,太字 (下線) ありの画像を入力とした音声 (Highlighted),太字 (下線) なしの画像を入力とした音声 (Control) である. 表 2 に結果を示す. 太字 (下線) ありの画像の正答率は,太字 (下線) なしの画像の正答率より有意に高く $(p<0.01)$, 自然音声に近い $(p=0.8)$. 以上より,提案法が太字と下線による強調を適切に音声に反映できていることがわかる. ## 4.2.3 未知文字の音声合成 従来の文字入力では,学習データに含まれない未知文字を unknown トークンに置き換えるため,音声合成は困難である。一方,未知文字の部分文字が学習データに含まれていれば,提案法はその視覚的特徴に基づき当該文字から音声を合成できると期待される。この良例は韓国語であるため,本研究では出現頻度の極めて低い (3 回以下) 文字を学習データから除外して $c=5$ の韓国語音声合成モデルを学習した。学習データに現れない文字が文中に含まれるか否かに基づいて,評価データを分類し,未知文字なし (closed vocab) と未知文字あり (open vocab) の評価データを構成する.各評価データは 50 文からなる。この評価データを用いて自然性に関する 5 段階 MOS 評価と,明瞭性に関する書き取り評価を実施し文字ごとの誤り率 (character error rate; CER) を計算した. 自然性の評価では 10 人が 160 問. 明瞭性の評価では 10 人が 64 問に回答した. 自然性に関する MOS 評価の結果は表 3 の通りである. 文字入力と画像文字入力の間で未知文字なしの場合に有意な差はない一方,未知文字ありの場合に有意な差が見られた $(p<0.05)$. また文字入力と表 5 プリファレンス $\mathrm{AB}$ テストの結果 \\ 画像文字入力の両者で,未知文字ありのスコアは未知文字なしから有意に低下するが,そのスコア差異は画像文字入力の方が小さい. 明瞭性に関する評価結果は表 4 の通りであり,未知文字ありの評価データに対して文字入力と画像文字入力でわずかに差が見られた $(p<0.100)$. また未知文字の出現による CER の増加量は画像文字入力の方が小さかった。 以上より未知文字の出現により音質は悪化するものの,画像文字入力では文字入力よりも文字の視覚的特徴から発音を推測することで,より未知文字に対応できると言える。 ## 4.2.4 非正規文字の音声合成 日本語の漫画のセリフでは「あ”」のような非正規の文字が使用される。このような非正規文字に対しても自然な音声合成が可能かどうかを調べた. そこで通常は濁点をつけない平仮名に対して濁点をつけた画像を入力とした際の音声について評価した.音として破綻した “お”,“ま”,“む”を除外したのち 21 個の平仮名で濁点ありと濁点なしの画像から音声を合成し,濁点のついた音を選択させるプリファレンス $\mathrm{AB}$ テストを実施した.実験には 120 人が参加し一人当たり 21 問に回答した. 結果は表 5 の通りである. 9 個の平仮名で濁音を表現できていることがわかり $(p<0.05), 7$ 個の平仮名で有意差なし, 5 個の平仮名で濁点がない方が濁点がついているように聞こえるという結果になり,一部の非正規文字では自然な音声合成が可能という結果になった. ## 5 終わりに 本研究では画像文字から音声を合成する手法を提案し, 従来の文字列入力と比較して同等以上の音声品質であることを示した. また画像を用いることでフォントの強調表現を適切に音声に反映したり,学習データに含まれない未知文字や非正規文字から音声を合成できることを示した. 今後は,本手法の,漫画や広告といった画像中に現れる画像文字に対する有効性を示す予定である。 謝辞:本研究は,JST ムーンショット型研究開発事業 JPMJMS2011(多言語技術の内容),JSPS 科研費 21H05054,19H01116,21H04900(基盤技術開発の内容)の支援を受けたものです. ## 参考文献 [1] Aaron van den Oord, Sander Dieleman, Heiga Zen, Karen Simonyan, Oriol Vinyals, Alex Graves, Nal Kalchbrenner, Andrew Senior, and Koray Kavukcuoglu. Wavenet: A generative model for raw audio. arXiv preprint arXiv:1609.03499, 2016. [2] Yuxuan Wang, R. J. Skerry-Ryan, Daisy Stanton, Yonghui Wu, Ron J. Weiss, Navdeep Jaitly, Zongheng Yang, Ying Xiao, Z. Chen, Samy Bengio, Quoc V. Le, Yannis Agiomyrgiannakis, Robert A. J. Clark, and Rif A. Saurous. Tacotron: Towards end-to-end speech synthesis. In $I N$ TERSPEECH, 2017 [3] Isaac Elias, Heiga Zen, Jonathan Shen, Yu Zhang, Ye Jia, R.J. Skerry-Ryan, and Yonghui Wu. Parallel Tacotron 2: A Non-Autoregressive Neural TTS Model with Differentiable Duration Modeling. In Proc. Interspeech 2021, pp. 141-145, 2021. [4] Yi Ren, Yangjun Ruan, Xu Tan, Tao Qin, Sheng Zhao, Zhou Zhao, and Tie-Yan Liu. Fastspeech: Fast, robust and controllable text to speech. In H. Wallach, H. Larochelle, A. Beygelzimer, F. d' Alché-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc., 2019. [5] Yi Ren, Chenxu Hu, Xu Tan, Tao Qin, Sheng Zhao, Zhou Zhao, and Tie-Yan Liu. Fastspeech 2: Fast and high-quality end-to-end text to speech. In International Conference on Learning Representations, 2021. [6] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, ¥ L ukaszKaiser, Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, 第 30 巻. Curran Associates, Inc., 2017. [7] Elizabeth Salesky, David Etter, and Matt Post. Robust open-vocabulary translation from visual text representations. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 7235-7252, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [8] Frederick Liu, Han Lu, Chieh Lo, and Graham Neubig. Learning character-level compositionality with visual features. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2059-2068, Vancouver, Canada, July 2017. Association for Computational Linguistics. [9] Yota Toyama, Makoto Miwa, and Yutaka Sasaki. Utilizing visual forms of Japanese characters for neural review classification. In Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 378-382, Taipei, Taiwan, November 2017. Asian Federation of Natural Language Processing. [10] Yuxian Meng, Wei Wu, Fei Wang, Xiaoya Li, Ping Nie, Fan Yin, Muyu Li, Qinghong Han, Xiaofei Sun, and Jiwei Li. Glyce: Glyph-vectors for Chinese character representations. In H. Wallach, H. Larochelle, A. Beygelzimer, F.Alch $¥$ 'e-Buc, E. Fox, R. Garnett(編), Advances in Neural Information Processing Systems, 第 32 巻. Curran Associates, Inc., 2019. [11] Sergey Ioffe and Christian Szegedy. Batch normalization: Accelerating deep network training by reducing internal covariate shift. In Francis Bach and David Blei, editors, Proceedings of the 32nd International Conference on Machine Learning, Vol. 37 of Proceedings of Machine Learning Research, pp. 448-456, Lille, France, 07-09 Jul 2015. PMLR. [12] Vinod Nair and Geoffrey E. Hinton. Rectified linear units improve restricted boltzmann machines. In ICML, 2010. [13] Ryosuke Sonobe, Shinnosuke Takamichi, and Hiroshi Saruwatari. JSUT corpus: free large-scale Japanese speech corpus for end-to-end speech synthesis. CoRR, Vol. abs/1711.00354, , 2017. [14] Kyubyong Park. Kss dataset: Korean single speaker speech dataset. https://kaggle.com/bryanpark/ korean-single-speaker-speech-dataset, 2018. [15] Keith Ito and Linda Johnson. The lj speech dataset. ht tps: //keithito.com/LJ-Speech-Dataset/, 2017. [16] Chung-Ming Chien, Jheng-Hao Lin, Chien-yu Huang, Pochun Hsu, and Hung-yi Lee. Investigating on incorporating pretrained and learnable speaker representations for multispeaker multi-style text-to-speech. In ICASSP 2021 - 2021 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 8588-8592, 2021. [17] Jungil Kong, Jaehyeon Kim, and Jaekyoung Bae. HiFigan: Generative adversarial networks for efficient and high fidelity speech synthesis. In H. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 17022-17033. Curran Associates, Inc., 2020.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G8-3.pdf
# 残存文長を考慮した講演テキストへの逐次的な改行挿入 飯泉智朗 $1, a)$ 大野誠寛 $1, b)$ 松原 茂樹 2 1 東京電機大学大学院未来科学研究科 2 名古屋大学情報連携推進本部 ${ }^{a)}$ 20fmi03@ms . dendai .ac.jp b) ohno@mail .dendai.ac.jp ## 概要 講演を対象とした字幕生成では,講演独特の長い文が複数行にまたがって表示されることになるため,適切な位置に改行を挿入し,読みやすい字幕を生成する必要がある. これまでにも,改行挿入手法がいくつか提案されているが,特に逐次的な改行挿入手法には精度向上の余地が残されている. そこで本稿では,読みやすい字幕を生成するための要素技術として,残存文長を考慮した逐次的な改行挿入手法を提案する. 提案手法の特徴は,BERT を用いて残存文長推定と改行挿入判定を同時に実行する点にある. 評価実験の結果, 改行挿入の精度向上に対して,提案手法の有効性を確認した. ## 1 はじめに 聴覚障碍者や高齢者, 外国人が講演音声を理解することを支援するため,字幕生成システムが開発されている. 講演は,文が長くなる傾向にあり, 1 文が複数行にまたがって表示されることになるため,読みやすい字幕を生成するには適切な位置に改行を挿入することが重要となる [1]. これまでにも字幕テキストに改行を挿入する研究はいくつか行われている [2,3]. 村田ら [2] は,入力文全体を考慮して,最適な改行結果を求める手法を提案している. しかし, 1 文全体があらかじめ与えられることを前提としており, 講演の進行と同期したリアルタイムでの字幕生成には必ずしも適さない. それに対し大野ら [3] は, 入力に対する出力の同時性をより高めた手法として,文節が入力されるたびに,その直前の文節境界に改行を挿大するか否かを機械学習 (最大エントロピー法)を用いて逐次的に判定する手法(以下,従来手法 [3])を提案している.しかしながら,未大力部分の情報を使えないという制約があり, 1 文全体で最適化を図る手法と比べて,その精度は低く,改善の余地がある。 そこで本稿では,読みやすい字幕をリアルタイム に生成するための要素技術として,BERT(Bidirectional Encoder Representations from Transformers) [4] を用いて,残存文長を推定しつつ,改行を挿入するか否かを逐次的に判定する手法を提案する. 残存文長とは文の残りの長さを意味する。一般に,文がもう少しで終わる場所での改行の必要性は低下するなど,残存文長と改行位置には関連があると考えられる. 本研究では, BERTを用いて, 残存文長推定と改行挿入判定とを同時に行うことにより,逐次的な改行挿入における精度向上を試みる。 ## 2 残存文長 残存文長を推定する既存研究として河村ら [5] の研究がある. 河村ら [5] は残存文長を, 文 $s$ が $n_{s}$ 個の文節から成り,文頭から $i$ 番目の文節 $b_{i}$ まで既に入力されているとき(すなわち,既入力文節数が $i$ であるとき)の残存文長 $R L(s, i)$ を $R L(s, i)=n_{s}-i$ により定義している。 本研究においても上記の定義を用いることとする。 ## 2.1 河村ら [5] による残存文長推定 河村ら [5] は残存文長を RNN[6] を用いて推定している. 河村らの手法では, 1 文 $\left(s=b_{1} \ldots b_{n_{s}}\right)$ を構成する文節が入力されるごとに,文頭から現在入力された文節までの形態素系列 (ポーズ,フィラー,言い淀みを表す記号を含む)をRNNに入力し,そのときの残存文長を推定する。この推定を,文節 $b_{1}$ が入力されてから文節 $b_{n_{s}}$ が入力されるまで繰り返す.なお,話し言葉に現れるポーズ,フィラー,言い淀みは,順に記号 P,F,Dで汎化して表した後, これらの記号を 1 形態素として扱っている1). 河村らの手法では RNN に残存文長の確率分布を出力させ,その期待値(小数点第 1 位を四捨五入)が「0, 1,2 3,4 以上」の4クラスの中でどのクラスに属するかを求めている.なお,RNN の出力層の次元 1) ゚゚ーズ,フィラー,言い淀みは事前に検出できるとする。 図 1 提案手法の概要 数は,最も長いと想定する文の長さ(文節数)としている. RNN の隠れ層は 1 層の LSTM (Long Short Term Memory)[7] により構成し,RNNへの各入力 (ポーズ,フィラー,言い淀みの各記号,及び,形態素)は one-hot ベクトルで表現している. ## 2.2 関連研究 残存文長を推定する研究は,管見の限り河村らの研究のほかに存在しないものの, 関連する研究として,テキストの未入力部分を予測する研究がいくつか存在する。例えば,小松ら [8] はテキスト入力の際に,それまでに入力された文脈を考慮して次に入力される確率の高い候補を予測している。また,恒松ら [9] は,音声が入力される場面において,次に発話される単語を予測している。また,Wenyan ら [10] は,リアルタイム翻訳を実現するために,ドイツ語や日本語などにみられる主動詞が最後に来る言語に対して,その最終動詞を予測をしている. ## 3 残存文長を考慮した改行挿入 本研究では,従来手法 [3] と同じ問題設定とし,1 講演分の文節列が 1 文節ずつ入力されることを想定する. 提案手法は, 講演の最初から数えて $i+1$ 番目の文節 $b_{i+1}$ が入力されるごとに, $b_{i}$ が入力された時点の残存文長 $R L(S(i), i) ( S(i)$ は $b_{i}$ が属する文)を推定すると同時に, $b_{i}$ と $b_{i+1}$ の間で改行するか否かを判定する. 同一のモデルで改行挿入判定と残存文長推定を実行することにより,残存文長を考慮した改行判定の実現が期待できる. 提案手法の概要を図 1 に示す. 図 1 は講演の文節列の一部「... 今日は/彾房の効きすぎで/寒い/全く/寒暖の/差が激しいです...」の中の文節 $b_{i+1} 「$ 差が」 が入力されたとき,文節 $b_{i}$ 「寒暖の」の直後に改行を挿入する確率と残存文長 $R L(S(i), i)$ の確率分布を推定する様子である ${ }^{2}$. 提案手法では,残存文長推定と改行挿入判定を BERT を用いた同一のモデルで行う.BERTへの入力は, $b_{i}$ より前の残存文長推定結果において, $b_{i}$ が属する文 $S(i)$ の文頭文節であると推定された文節から, $b_{i}$ までのサブワード列とする. 図 1 では, $b_{i-2}$ の残存文長が 0 文節であると推定された結果 ${ }^{3}$ )に基づいて, $b_{i-1}$ を $S(i)$ の文頭文節とみなす。その結果,BERTへの入力は,「全く寒暖の」をサブワード分割した「<CLS> 全く寒暖の <SEP>」となる. 残存文長推定部では, $b_{i}$ の直後にポーズ,フィラー,言い淀みのそれぞれが出現しているか否かを表した 3 次元のベクトルを用意し,BERT の $<$ CLS> に対応した出力(図 1 では $V_{c l s}$ ) と連結したものを Linear + Softmax に入力し,その出力を残存文長の確率分布としている 4$)$. 改行插入判定部では, 従来手法 [3] で使用された 11 種類の素性を 11 次元のべクトルとして用意し,BERT の $<$ CLS>に対応した出力 $\left(V_{c l s}\right)$ と結合したものを Linear + Sigmoid に入力する. その出力(1 次元)を改行を挿入する確率としている。この確率が 0.5 以上であれば改行を行う。 ## 4 評価実験 提案手法の有効性を評価するために,日本語講演データを用いて改行挿入実験を行った。 ## 4.1 実験概要 実験データには,同時通訳データベース [11] の日本語講演音声書き起こしテキストを使用した。全データに形態素情報,節境界情報,改行位置が人手で付与されている。 実験は,全 16 講演を用いた交差検定によって行った. すなわち,1 講演をテストデータとし,残りの 15 講演を学習データとして改行位置を同定する実験を 16 回繰り返した。ただし,16 講演のうち 2 講演については,開発データとして使用するため評価データから取り除き,残りの 14 講演に対して 2)本稿では文節境界をスラッシュで表す。 3)河村ら [5] と同様に,残存文長の確率分布の期待值が「 0,1 , 2-3, 4 以上」のいずれに属するかを求めている. 4) 本研究では確率分布の次元数を開発データにおいて出現した最も長い文節数としている,また学習時は正解の残存文長の one-hot ベクトルを入力している. 表 1 改行挿入判定の実験結果 評価を行った. 評価には, 正解データの改行位置に対する再現率,適合率, $\mathrm{F}$ 値を用いた。 比較手法として従来手法 [3] のほかに,以下の手法を用意した。 個別手法 (残存文長無) : 残存文長推定と改行插入判定を個別に行う手法. 具体的には, 図 1 の残存文長推定部(赤枠部分)と改行插入判定部(青枠部分) のモデルをそれぞれ用意し, 残存文長推定と, 改行挿入判定を独立に行う. ただし,改行挿入モデルには残存文長情報を入力しない。 個別手法 (残存文長有): 残存文長推定と改行挿入判定を個別に行い,改行挿入判定に残存文長情報を使用した手法. 個別手法 (残存文長無) との違いは, 改行挿入判定モデルにおいて, 従来手法 [3] で使用された 11 種類の素性とくCLS>に対応した出力に加えて,残存文長推定モデルで出力された確率分布を連結したものを Linear+Sigmoid に入力している点である. なお,上記 2 つの個別手法における BERTへの入力は提案手法と同じである. モデルは Pytorchを用いて実装した. 学習アルゴリズムは SGDを採用した。パラメータの更新はミニバッチ学習(学習率 0.02 ,バッチサイズ 16)により行い,エポック数は 20 とした. BERT は東北大学が公開している事前学習済み BERT モデル5)を用いてファインチューニングを行っている。また,パラメータ更新には改行挿入判定部における BCELoss と残存文長推定部における CELoss の平均を使用した.なお,提案手法で用いる素性のうち,係り受け情報に関しては,従来手法 [3] が ME による推定結果を用いているのに対し,提案手法では,BERT による推定結果を推論時に用いている. ## 4.2 実験結果 各手法による改行挿入判定の適合率,再現率,F 值を表 1 にそれぞれ示す. 提案手法は,すべての評  \\ 図 2 提案手法が正解,個別手法 (残存文長無) が不正解の例 & \\ 図 3 個別手法 (残存文長無) が正解,提案手法が不正解の例 表 2 残存文長が正解した場合と不正解の場合の実験結果 価指標において最高値を達成しており,提案手法の有効性を確認した。 個別手法(残存文長無)と比較して,個別手法 (残存文長有)は $\mathrm{F}$ 値において上回っているものの, その差はわずかであった。それに対して,提案手法は大幅に上回った.残存文長を考慮する際に,個別に推定した残存文長情報を単に利用するのではなく,同時に推定することが有効であることを確認できる. ## 5 考察 ## 5.1 残存文長を考慮しない手法との比較 本節では,残存文長の推定結果を考慮することによる影響を考察する。提案手法が正解し,個別手法 (残存文長無) が不正解となった例を図 2 に示す. 提案手法の改行位置は正解データと完全に一致しているが,個別手法 (残存文長無) では「入るといった」 の後で余分に改行されている.「入るといった」の文節が入力された際に推定された残存文長の確率分布の期待值は約 1 であり,実際の残存文長と一致していた。その結果,当該情報を利用している提案手法では,文がもう少しで終わることを考慮でき,余分な改行を抑えることに成功したものと考えらえれる。 次に,個別手法 (残存文長無) が正解し,提案手法が不正解となった例を図 3 に示す。正解の改行位置と比べて,提案手法の出力では,「出ていると」の直後に余分な改行が行われている。「出ていると」の 表 3 残存文長推定の実験結果( $\mathrm{P}$ : 適合率, $\mathrm{R}$ : 再現率, $\mathrm{F}: \mathrm{F}$ 値) 文節が入力された際に推定された残存文長の確率分布の期待値は約 5 であったが,実際の残存文長は 1 であり,大きく外れていた. その結果,提案手法は,まだ文が長く続くという情報を考慮することになり,この位置で過剩に改行することになったと考えられる。 表 2 は, 残存文長の推定結果(確率分布の期待値を4クラス分類したもの)が正解していたか否かによって場合分けし,各場合における提案手法の再現率,適合率,F 值を再評価した結果である.残存文長を正しく推定できている場合は,そうでない場合と比べて,いずれの評価指標においても大幅に上回っていることがわかる. 以上は,残存文長推定の精度が高まれば改行挿入判定の精度が向上することを示唆しており, 改行挿入において残存文長を考慮することの有効性を確認できる. ## 5.2 残存文長推定の実験結果 本節では,4節の実験結果に基づいて,提案手法による残存文長推定の精度を評価する。評価では,河村らの研究 [5] と同様に, 残存文長の確率分布の期待值(小数点第 1 位を四捨五入)を「0,1,2 3, 4 以上」の 4 クラス分類し, 各クラスの再現率,適合率,F 値を測定する。 比較手法として,4節の個別手法に加えて,河村らの手法 [5] を用意した。ただし,河村らの手法 [5] では 1 文ごとに推定を行い,文末を既知として扱っているのに対し, 提案手法では, 1 講演ごとに推定を行い,残存文長が 0 文節と推定された文節を文末として扱っているため,問題設定は異なっている. 各手法による残存文長推定の適合率,再現率,F 值を表 3 にそれぞれ示す. 河村らの手法 [5] と,提案手法を比較するとすべてのクラスの $\mathrm{F}$ 値において上回っていることがわかる. 次に個別手法と提案手法を比較すると,0 文節以外のすべてのクラスにおいて上回っており,特に 4 文節以上のクラスに至っ表 4 人間による推定との比較 $(0: 0$ 文節, $1: 1$ 文節, ては約 4 ポイントの上昇を記録している. 提案手法では,残存文長推定との同時学習によって,改行挿入判定の精度向上を目指していたが,残存文長推定においても精度が上昇することがわかった。 ## 5.3 人間による残存文長推定との比較 本節では,提案手法と人間による残存文長推定 [5] とを比較する. 河村らの研究 [5] では,4 節の実験データの中から 100 文を抽出し,各文の各文節が入力されるごとに 8 人の人間が残存文長を推定する被験者実験を行っている.その 100 文に対して提案手法を適用した結果を用いて比較評価する。 表 4 に,提案手法と人間による推定の $\mathrm{F}$ 値を示す.すべてのクラスにおいて提案手法が人間(平均)を上回った。人間(最高)の $\mathrm{F}$ 値との比較では, 0 文節のクラスでわずかに下回ったのみで他のクラスでは上回った.以上は,提案手法が,人間と同程度,若しくは同程度以上に,残存文長を推定できる可能性を示唆している. ## 6 おわりに 本稿では,講演テキストを対象に,残存文長を考慮した逐次的な改行挿入手法を提案した。実験の結果,提案手法は,従来手法や個別手法よりも再現率,適合率, $\mathrm{F}$ 值において上回っており,その有効性を確認した。また,逐次的な改行挿入において残存文長を考慮することの有効性を確認した。 今後は,残存文長情報のより効果的な導入方法について検討し,さらなる精度向上を図りたい。 謝辞本研究は,一部,科学研究費補助金基盤研究 (C) No. 19K12127 により害施した. ## 参考文献 [1] 中野聡子, 金澤貴之, 牧原功, 黒木速人, 上田一貴, 井野秀一, 伊福部達. 聴覚障害者向け音声同時字幕システムの読みやすさに関する研究: (1)-改行効果に焦点をあてて. ヒューマンインタフェース学会論文誌, Vol. 10, No. 4, pp. 435-444, 2008. [2]村田匡輝, 大野誠寛, 松原茂樹。読みやすい字幕生成のための講演テキストへの改行挿入. 電子情報通信学会論文誌, Vol. J92-D, No. 9, pp. 1621-1631, 2009. [3] 大野誠寛, 村田匡輝, 松原茂樹. 講演のリアルタイム字幕生成のための逐次的な改行挿入. 電気学会論文誌, Vol. 133-C, No. 2, pp. 418-426, 2013. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2018 Annual Conference of the North American Chapter of the Association for Computational Linguistics, pp. 4171-4186, 2018. [5] 河村天暉, 大野誠寛, 松原茂樹. 漸進的な言語処理のための独話文に対する残存文長の推定. 情報処理学会第 82 回全国大会講演論文集, Vol. 2020, No. 1, pp. $447-448,2020$. [6] Tomas Mikolov, Martin Karafiát, Lukas Burget, Jan Cernockỳ, and Sanjeev Khudanpur. Recurrent neural network based language model. In Proceedings of the 11th Annual Conference of the International Speech Communication Association, Vol. 2, pp. 1045-1048, 2010. [7] Martin Sundermeyer, Ralf Schlüter, and Hermann Ney. LSTM neural networks for language modeling. In Proceedings of the 13th Annual Conference of the International Speech Communication Association, pp. 194197, 2012. [8] 小松弘幸, 高林哲, 増井俊之. 動的略語展開を利用した文脈をとらえた予測入力. 情報処理学会論文誌, Vol. 44, No. 11, pp. 2538-2546, 2003. [9] 恒松和輝, 中村哲. 入力音声纪続く文章の予測. 情報処理学会研究報告, Vol. 2019-NL-241, No. 27, pp. 1-4, 2019. [10] Wenyan Li, Alvin Grissom II, and Jordan Boyd-Graber. An attentive recurrent model for incremental prediction of sentence-final verbs. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing: Findings, pp. 126-136, 2020. [11] Shigeki Matsubara, Akira Takagi, Nobuo Kawaguchi, and Yasuyoshi Inagaki. Bilingual spoken monologue corpus for simultaneous machine interpretation research. In Proceedings of the 3rd International Conference on Language Resources and Evaluation, pp. 153-159, 2002.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
G8-4.pdf
# 音声機械翻訳のための音声翻訳コーパスに基づく発話分割 福田りょう 須藤克仁 中村哲 奈良先端科学技術大学院大学 \{fukuda.ryo.fo3, sudoh, s-nakamura\}@is.naist.jp ## 概要 音声機械翻訳(Speech Translation; ST)において,適切な翻訳単位(セグメント)への発話の分割は重要な課題である. 従来研究では, 音声区間検出 (Voice Activity Detection;VAD)等を用いた無音区間を基準とした分割が多く行われてきた.しかし, 自然発話において無音区間は必ずしも意味的な境界を意味しないため,しばしば翻訳に不適切な境界で分割される.本研究では, 音声翻訳コーパスの分割位置を教師とした, 無音区間に基づかない発話分割予測モデルの学習を提案する. TED talks の音声翻訳コーパスを用いた実験では, 提案手法が既存手法に対し最大 $3 \mathrm{pt}$ の BLEU スコア向上を示した. ## 1 はじめに 機械翻訳(Machine Translation; MT)の中でも音声を扱う ST に特有の課題として, 連続音声の分割が挙げられる.テキストを入力とする通常の MTでは, 句点や終止符を境界とした文単位への分割が一般的に行われる。一方で, ST の入力である連続音声には明示的な境界記号が存在せず, セグメントの境界は自明ではない. モデルの学習時には, 音声翻訳コーパスに含まれる予め分割されたセグメントを使用できるが, 実行時には自動的な発話分割処理が必要である. VAD 等を用いた, 無音区間に基づく分割 [1] は一般的な発話分割手法として知られる. オープンソースのツール (WebRTC VAD ${ }^{1)}$, pyannote.audio ${ }^{2}$ [2])を用いて容易に実行できるため音声認識 (Automatic Speech Recognition; ASR) やST で広く用いられているが, 無音は必ずしも文境界と一致しない,無音区間によって文を断片化する過剩分割 (over-segmentation) や, 短い無音区間を無視して 1 セグメントに複数文を含める過少分割(undersegmentation)により, ASR や ST の精度を低下させ  る問題が指摘されている [3]. 本研究では, 音声翻訳コーパスのセグメント境界に基づく発話分割手法を提案する. 音声翻訳コーパスは,テキストに含まれる句点や終止符を基準として発話分割が行われているため, 無音より翻訳に適した分割境界を持つ. 音声翻訳コーパスのセグメン卜境界を, 入力音声から直接予測するモデルを学習することで, 連続音声を高精度に翻訳できると考えた. 提案手法には Transformer Encoder [4] を用い, 音声入力に対するフレームレベルの系列ラベリング問題としてセグメント境界の予測を学習した. 実験は ASR モデルと MT モデルからなる Cascade 方式の ST システム(Cascade ST)と, 単一のモデルで音声を直接テキストに翻訳する End-to-end 方式の ST システム (End-to-end ST) で行い, 両条件下で提案手法の有効性を示した。 ## 2 関連研究 ST における自動発話分割の取り組みとして,マルコフ過程 [5, 6, 7] や条件付き確率場 $[8,9]$ を用いたモデル化が検討されてきた. またSVM を使用して, 言語モデルの確率と品詞タグ [10], 無音の長さ $[11,12]$等を手がかりに文境界を予測する手法が提案されている.これらの手法の多くは音声から得られる音響特徴量と,テキストから得られる言語特徴量の両方を利用する。そのため, 書き起こしを介さず直接音声を翻訳する End-to-end ST に適用することが難しい。 より近年の研究では, VADを基にした分割手法が多く提案されている. Gaido ら [13], Inaguma ら [14] は, VAD の過剩分割に対応するため,一定の長さまで VADによるセグメントを連結して翻訳するヒュー リスティックな手法を用いた. Gállego ら [15] は, 事前学習済みの ASR モデル wav2Vec 2.0 [16] による無音検出を行った. Yoshimura ら [17] は, RNN に基づく ASR モデルを用いて, CTC 系列のブランク("_")の連続を無音区間とみなし分割の基準に用いた. ASR に基づく音声分割は, 無音区間とみなす非文字記号 の連続数の間値をハイパーパラメータとして調節できるため, 従来の VAD より直感的に制御しやすい利点がある. しかし, これらの手法はいずれも無音区間のみを基準に分割するため,しばしば翻訳に不適切な境界で分割される。 また, 句読点復元モデル $[18,19,20]$ や言語モデル [21,22] を用いて ASR が出力した書き起こしテキストを文単位に再分割することで, MT の翻訳精度が向上することが知られており, Cascade ST の枠組みで広く利用されている. 書き起こしを介して再分割を行うこれらの手法は, End-to-end STへの適用が難しい他, 不適切な分割による ASR の認識誤りを防げない久点がある. VADを用いた発話分割による ASR の精度低下については4.2節でも言及する。 最後に本研究とより関連が強い,コーパスに基づく分割学習手法を紹介する. Wan ら [3] は, ASR 出力のセグメント境界を修正するモデルを, 映画やテレビの字幕コーパスを用いて学習した. Wang ら [23], Iranzo-Sánchez ら [24] は, 音声翻訳コーパスのセグメント境界を用いて RNN に基づく発話分割モデルを学習した. 言語特徴量を必要とするこれらの手法と異なり, 本研究の提案手法は音響特徴量のみを用いて発話分割を行う. そのため End-to-end ST への適用が容易である. また, 現在主流となっている Transformer に基づくSTへの, 将来的な発話分割機能の統合を期待し, 分割モデルとして Transformer Encoderを採用した. ## 3 提案手法 本章では, 音声翻訳コーパスに基づく発話分割夕スクの学習データ作成手順 (3.1), モデルの構造と動作(3.2)について説明を行う。 ## 3.1 学習データ作成 本研究では, TED talks の音声翻訳コーパス MuSTC [25]を実験に用いる. MuST-C の音声セグメントは文単位のテキストを基準に分割されているため, 文単位の発話分割の学習データとして用いることができる. 具体的な学習データ作成例を図 1 に示す. 音声入力に対する系列ラベリング問題としてセグメント境界の予測を学習するため, 連続する 2 つのセグメン卜を連結して音響特徴量の各フレームに対応するラベル $x \in\{0,1\}$ を付与した. ラベル 0 と 1 はそれぞれ発話内・外に対応し, 開始・終了の時刻情報から作 } & \multirow{5}{*}{} & \multirow{2}{*}{} & $16.90 \quad 22.04$ & 22.53 & 30.63 \\ 図 1 音声翻訳コーパスを用いたデータ作成の例 図 2 Transformer Encoderを用いた発話分割モデル成する. ## 3.2 発話分割モデル 発話分割モデルの構成を図 2 に示す.モデルは, Subsampling 層, $L$ 層の Transformer Encoder, 出力のための変換層(Linear+Softmax)で構成され, 入力音声の各フレームのラベル $\hat{x}$ を出力する. Subsampling 層では系列長を 4 分の 1 にサブサンプリングする. 教師ラベル $x$ にも同様にサブサンプリングを適用し長さを揃えた。 ## 3.2.1 学習 3.1で作成したデータを用いてモデルの学習を行う. モデルは, 予測 $\hat{x}$ とラベル $x$ 間のクロスエントロピー損失 $\mathcal{L}_{\text {seg }}(\hat{x}, x)$ の最小化を学習する(式 1). $ \begin{aligned} \mathcal{L}_{\text {seg }}(\hat{x}, x) & =-\sum_{n=1}^{N}\left.\{w_{s} \log \frac{\exp \left(\hat{x}_{n, 1}\right)}{\exp \left(\hat{x}_{n, 0}+\hat{x}_{n, 1}\right)} x_{n, 1}\right. \\ & \left.+\left(1-w_{s}\right) \log \frac{\exp \left(\hat{x}_{n, 0}\right)}{\exp \left(\hat{x}_{n, 0}+\hat{x}_{n, 1}\right)} x_{n, 0}\right.\} \end{aligned} $ ここで, $w_{s}$ は不均衡なラベルの重みを調節するハイパーパラメータである. ラベルの殆どは 0 (発話内) であるため,ラベル 1 (発話外)の損失にかかる重みを大きくして学習を行う. 予備実験により調整を行い $w_{s}=0.9$ に設定した. ## 3.2.2 推論 推論の際は, 連続音声を固定長 $T$ で区切ってモデルに入力し, 逐次的にラベルを予測する。 その後, 予測したラベルにより連続音声を再分割し ST に渡して翻訳する。 ## 4 実験 提案手法の有効性を検証するために音声翻訳の実験を行った (4.1.1).まず, ASR モデルと MT モデルからなる Cascade ST と, 単一の ST モデルからなる End-to-End ST の 2 方式の ST システムを構築した (4.1.2).その後, 3 種類の発話分割手法(4.1.3)を ST システムの精度によって比較した(4.2). ## 4.1 実験設定 ## 4.1.1 タスク 音声翻訳コーパス MuST-C に含まれる, 約 408 時間の英語の講演音声と, それに対応付いた書き起こしテキスト, 及びドイツ語の翻訳テキストを用いて英独音声翻訳の実験を行った. 学習データ, 開発データ及び評価データのセグメント数はそれぞれ 229,696 個, 1,423 個, 2,641 個である. 音響特徴量として, Kaldi $\left.{ }^{3}\right)$ により抽出した 80 次元の対数メルフィルタバンク(FBANK)に3 次元のピッチ情報を加えた 83 次元のベクトルを用いた. テキストデータは, SentencePiece [26] を用いて Byte Pair Encoding (BPE) によるサブワード分割を行った. サブワード辞書の最大語彙数は 8,000 とし, 英独の学習データを結合し乙辞書作成に用いた。 評価の際, 各手法 (4.1.3) により自動分割した音声に対するモデルの出力を, 編集距離に基づくテキスト整列アルゴリズム [27] で評価データのセグメントと対応付けを行った後, WER や BLEU を測定した. ## 4.1.2 ST システム 各モデルの作成には ESPnet ${ }^{4)}$ [28] の Transformer の実装を用いた. Cascade ST の ASR, MT モデル及び End-to-end ST の ST モデルの設定を付録A.1に示す. ASR は, Transformerに CTC モデルを組み込んだ Hybrid CTC/attention [29] で学習を行った. CTC 損失にかかる重みは 0.3 とした. ST は学習済みの ASR の Encoder と MTの Decoderを用いてパラメータを初期化した. モデルの学習には学習データを用い, 重みをエポック毎に保存した. 最大エポック数まで学習後, 開発データで測定したスコア (ASR モデルに対して Accuracy, MT と ST モデルに対して BLEU)の高い 5 つの epoch の重みを平均して評価データで最  図 3 ベースライン(VAD, Fixed-length)の比較. 縦軸は ASR, MT モデルの BLEU と WER のスコアを示す. 終的なスコア (ASR モデルに対して WER, MT と ST モデルに対して BLEU)を測定した。 ## 4.1.3 発話分割手法 ベースライン 1: VAD WebRTC VADを用いる. パラメータは Frame size $=\{10,20,30 \mathrm{~ms}\}$ と Agressiveness $=\{1,2,3\}$ の範囲で 9 つの組み合わせを試行した. ベースライン 2: Fixed-length Fixed-length は事前に設定した固定の長さで発話を区切る単純な方法である [7]. 音響や言語を考慮しないため不自然な分割が起こりやすいが, セグメント長が一定に保たれる利点がある. パラメータは, 4 から 40 秒まで 4 秒間隔でとった 10 通りの固定長を試行した。 提案手法提案手法は3.2節で述べた発話分割モデルである. 学習時は3.1節で述べたように連続する 2 つのセグメントを連結したものを用いる. モデルの設定は付録A.1に示した ASR の Encoder と同一である. ただし, セグメントの連結により入力の平均長さがおよそ 2 倍になることを考慮し, ミニバッチ数を半分の 32 , 勾配蓄積の数を 2 倍の 4 に設定した. 推論時の入力の固定長 $T$ は予備実験により調整を行い 20 秒に設定した. ## 4.2 実験結果 ## 4.2.1 ベースライン 図3に, Fixed-length の各長さにおける Cascade ST の ASR, MT モデルのスコアを示す. また比較のため, VADで最良の BLEUを得た設定におけるスコアを直線で描画した(Best VAD). VADの各設定におけるスコアは付録A.2に示す. Fixed-length では, WER, BLEU ともに入力長に比例してスコアが向上していき,ある長さまで達するとそれ以降は低下した.この 表 1 BLEU による各分割手法の翻訳精度の比較. 結果から, セグメントが長いほど自動分割による認識・翻訳精度の低下を防ぐことができると考えられる. 一方で, メモリ上の制約や学習データのセグメント長の分布などに依存した, 精度が頭打ちになる長さ上限が存在することも確認できる. そのため精度の低下を最低限に抑える適切な自動分割が重要である. また Best VAD は WER, BLEU ともに最良の Fixed-length $の$ 結果(Best Fixed-length)を下回った ${ }^{5}$ ).無音区間に基づく分割により生じる過剰分割や過少分割が, ASR と ST の大きな精度低下に繋がったと考えられる。 ## 4.2.2 提案手法 表 1に, 各手法によって分割した音声に対する翻訳テキストの BLEU スコアを示す. Oracle はコーパスのセグメント境界を用いた場合の BLEU スコアである. 提案手法は Cascade ST と End-to-end ST の両条件下で, 最良の VAD と Fixed-length の結果 (Best VAD, Best Fixed-length)を上回った. Best VAD に対しては Cascade ST で 3pt, End-to-end ST で 1.8pt の向上が見られたことから, 音声翻訳コーパスを用いることでより文単位に近い適切な発話分割が行えたと考えられる. VAD と提案手法で分割した発話に対する ST システムの出力例を付録A.3に示す. 一方で,提案手法は Oracle のスコアと比べて $3 \mathrm{pt}$ 以上の低下があり, 改善の余地が大きい. 表 2 は, 提案手法の発話分割モデルに対する Precision, Recall, F1 スコアを示している. Precision が低く, Recall が高いことから,提案手法では過剩にラベル 1 (発話外)を予測し, 過剩分割が行われたと考えられる. 実際に, 評価データに含まれる Oracle のセグメント数が 2,641 に対して提案手法は 3,821 と,頻繁にセグメントを分割していることが分かった. この結果を含む各手法のセグメントのデータ統計を付録A.4に示す.この問題は, セ 5)同様の傾向が先行研究 [13] でも示されている. グメント境界とみなすラベル 1 の連続数に閾値を設けるなど, 再分割のアルゴリズムの工夫により改善できる可能性があるため, 今後も調査を続けたい. ## 5 おわりに 本研究では, 音声翻訳コーパスを用いた発話分割手法を提案した. また Cascade ST と End-to-end ST の両条件下で実験を行い, 無音区間に基づく分割や固定長による分割と比較し, 提案手法の有効性を確認した. 今後は手法改善のための定性的な分析や, 既存手法との併用についての検討を進める. 自動分割を用いた翻訳に対するより信頼のおける評価手法の確立も重要な課題である. また, システムの単一化による高速化と誤りの伝播の低減を目指し, End-to-end STへの発話分割機能の統合を検討したい. ## 謝辞 本研究の一部は JSPS 科研費 JP21H05054 の助成を受けたものである. ## 参考文献 [1] Jongseo Sohn, Nam Soo Kim, and Wonyong Sung. A statistical model-based voice activity detection. IEEE signal processing letters, Vol. 6, No. 1, pp. 1-3, 1999. [2] Hervé Bredin, Ruiqing Yin, Juan Manuel Coria, Gregory Gelly, Pavel Korshunov, Marvin Lavechin, Diego Fustes, Hadrien Titeux, Wassim Bouaziz, and Marie-Philippe Gill. Pyannote. audio: neural building blocks for speaker diarization. In ICASSP 2020-2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 7124-7128. IEEE, 2020. [3] David Wan, Chris Kedzie, Faisal Ladhak, Elsbeth Turcan, Petra Galuščáková, Elena Zotkina, Zheng Ping Jiang, Peter Bell, and Kathleen McKeown. Segmenting subtitles for correcting asr segmentation errors. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 2842-2854, 2021 [4] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [5] Andreas Stolcke, Elizabeth Shriberg, Rebecca A Bates, Mari Ostendorf, Dilek Zeynep Hakkani, Madelaine Plauche, Gökhan Tür, and Yu Lu. Automatic detection of sentence boundaries and disfluencies based on recognized words. In 5th International Conference on Spoken Language Processing (ICSLP), Vol. 2, pp. 2247-2250. Citeseer, 1998. [6] Saab Mansour. Morphtagger: Hmm-based arabic segmentation for statistical machine translation. In Proceedings of the 7th International Workshop on Spoken Language Translation: Papers, 2010. [7] Mark Sinclair, Peter Bell, Alexandra Birch, and Fergus McInnes. A semi-markov model for speech segmentation with an utterance-break prior. In Fifteenth Annual Conference of the International Speech Communication Association, 2014. [8] John Lafferty, Andrew McCallum, and Fernando CN Pereira. Conditional random fields: Probabilistic models for segmenting and labeling sequence data. 2001. [9] Wei Lu and Hwee Tou Ng. Better punctuation prediction with dynamic conditional random fields. In Proceedings of the $\mathbf{2 0 1 0}$ conference on empirical methods in natural language processing, pp. 177-186, 2010. [10] Vivek Kumar Rangarajan Sridhar, John Chen, Srinivas Bangalore, Andrej Ljolje, and Rathinavelu Chengalvarayan. Segmentation strategies for streaming speech translation. In Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 230-238, Atlanta, Georgia, June 2013. Association for Computational Linguistics. [11] Evgeny Matusov, Dustin Hillard, Mathew Magimai-Doss, Dilek Hakkani-Tur, Mari Ostendorf, and Hermann Ney. Improving speech translation with automatic boundary prediction. In Proceedings of Interspeech 2007, pp. 2449-2452, 2007. [12] Sharath Rao, Ian Lane, and Tanja Schultz. Optimizing sentence segmentation for spoken language translation. In Eighth Annual Conference of the International Speech Communication Association. Citeseer, 2007. [13] Marco Gaido, Matteo Negri, Mauro Cettolo, and Marco Turchi. Beyond voice activity detection: Hybrid audio segmentation for direct speech translation. CoRR, Vol. abs/2104.11710, , 2021. [14] Hirofumi Inaguma, Brian Yan, Siddharth Dalmia, Pengcheng Guo, Jiatong Shi, Kevin Duh, and Shinji Watanabe. ESPnet-ST IWSLT 2021 offline speech translation system. In Proceedings of the 18th International Conference on Spoken Language Translation, pp. 100109, Bangkok, Thailand (online), August 2021. Association for Computational Linguistics. [15] Gerard I Gállego, Ioannis Tsiamas, Carlos Escolano, José AR Fonollosa, and Marta R Costa-jussà. End-to-end speech translation with pre-trained models and adapters: Upc at iwslt 2021. In Proceedings of the 18th International Conference on Spoken Language Translation (IWSLT 2021), pp. 110-119, 2021. [16] Alexei Baevski, Yuhao Zhou, Abdelrahman Mohamed, and Michael Auli. wav2vec 2.0: A framework for selfsupervised learning of speech representations. Advances in Neural Information Processing Systems, Vol. 33, , 2020. [17] Takenori Yoshimura, Tomoki Hayashi, Kazuya Takeda, and Shinji Watanabe. End-to-end automatic speech recognition integrated with ctc-based voice activity detection. In ICASSP 2020-2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 6999-7003. IEEE, 2020. [18] Eunah Cho, Jan Niehues, Kevin Kilgour, and Alex Waibel. Punctuation insertion for real-time spoken language translation. In Proceedings of the Eleventh International Workshop on Spoken Language Translation, 2015. [19] Thanh-Le Ha, Jan Niehues, Eunah Cho, Mohammed Mediani, and Alex Waibel. The KIT translation systems for IWSLT 2015. 2015 [20] Eunah Cho, Jan Niehues, and Alex Waibel. NMT-Based Segmentation and Punctuation Insertion for Real-Time Spoken Language Translation. In Proceedings of Interspeech 2017, pp. 2645-2649, 2017. [21] Andreas Stolcke and Elizabeth Shriberg. Automatic linguistic segmentation of conversational speech. In Proceeding of Fourth International Conference on Spoken Language Processing. ICSLP'96, Vol. 2, pp. 1005-1008. IEEE, 1996. [22] Xiaolin Wang, Andrew Finch, Masao Utiyama, and Eiichiro Sumita. An efficient and effective online sentence segmenter for simultaneous interpretation. In Proceedings of the 3rd Workshop on Asian Translation (WAT2016), pp. 139-148, 2016. [23] Xiaolin Wang, Masao Utiyama, and Eiichiro Sumita. Online sentence segmentation for simultaneous interpretation using multi-shifted recurrent neural network. In Proceedings of Machine Translation Summit XVII Volume 1: Research Track, pp. 1-11, 2019. [24] Javier Iranzo-Sánchez, Adrià Giménez Pastor, Joan Albert Silvestre-Cerdà, Pau Baquero-Arnal, Jorge Civera Saiz, and Alfons Juan. Direct segmentation models for streaming speech translation. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2599-2611, Online, November 2020. Association for Computational Linguistics. [25] Mattia A Di Gangi, Roldano Cattoni, Luisa Bentivogli, Matteo Negri, and Marco Turchi. Must-c: a multilingual speech translation corpus. In 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2012-2017. Association for Computational Linguistics, 2019. [26] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In EMNLP (Demonstration), 2018. [27] Evgeny Matusov, Gregor Leusch, Oliver Bender, and Hermann Ney. Evaluating machine translation output with automatic sentence segmentation. In Proceedings of the Second International Workshop on Spoken Language Translation, 2005. [28] Shinji Watanabe, Takaaki Hori, Shigeki Karita, Tomoki Hayashi, Jiro Nishitoba, Yuya Unno, Nelson Enrique Yalta Soplin, Jahn Heymann, Matthew Wiesner, Nanxin Chen, et al. Espnet: End-to-end speech processing toolkit. In Proceedings of Interspeech 2018, pp. 2207-2211, 2018. [29] Shinji Watanabe, Takaaki Hori, Suyoun Kim, John R Hershey, and Tomoki Hayashi. Hybrid ctc/attention architecture for end-to-end speech recognition. IEEE Journal of Selected Topics in Signal Processing, Vol. 11, No. 8, pp. 1240-1253, 2017. ## A 付録 ## A. 1 Transformer の設定 ASR, MT, ST モデルの設定を表3に示す. 表 3 Transformer の設定.†バージョン 0.10.3. & \multicolumn{3}{|c|}{25000} \\ ## A. 2 ベースライン 1 のスコア VAD の各設定における WER と BLEU スコアを表 4に示す. 本文中の Best VAD は $(2,20 \mathrm{~ms})$ の設定を用いた結果である。 表 4 VAD の各設定における WER と BLEUスコア.† (Aggressiveness, Frame size) ## A. 3 事例分析 Oracle のセグメント, 及び VAD と提案手法で自動分割した発話に対する ST システムの出力例を表5に示す. 表 5 Cascade ST における, 各分割手法ごとの ASR モデルと MT モデルの出力例. “听はセグメント境界を示す. Oracle (ASR): bonobos are together with chimpanzees you aposre living closest relative Oracle (MT): Bonobos sind zusammen mit Schimpansen, Sie leben am nächsten Verwandten. Best VAD (ASR): bonobos are together with chimpanzees you aposre living closest relative that ... Best VAD (MT): Bonobos sind es. Zusammen mit Schimpansen leben Sie im Verhältnis zum ... 提案手法 (ASR): bonobos are together with chimpanzees you aposre living closest relative 提案手法 (MT): Bonobos sind zusammen mit Schimpansen, Sie leben am nächsten Verwandten. 表5の例で, VAD による分割では, 過剩分割と過少分割が生じ, 翻訳結果に Oracle のセグメントとの差異が生じている. 一方で提案手法では Oracle と近い境界で発話が分割され, Oracle のセグメントと同一の翻訳結果が得られた。 ## A. 4 データ統計 評価データを各手法で分割したセグメントのデー タ統計を表6に示す. 表 6 各手法により分割したセグメントのデータ統計.“\% Filtered”は連続音声中の発話外の音声の割合を示す. Segmentation Oracle WebRTC 提案手法
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH1-10.pdf
# 同期的テキスト補完による並列構造の生成 寺西裕紀松本裕治 理化学研究所 } \{hiroki.teranishi, yuji.matsumoto\}@riken.jp ## 概要 本研究は並列構造とその範囲が明示された文を生成するアプローチを提案する.提案手法は等位接続詞と空所を表すトークンを 2 通りの方法で文に挿入し,言語モデルを用いてそれらの空所に同一のテキストを埋めて補完する。並列構造の範囲同定タスクにおいて,生成された並列構造を効果的に選択する枠組みを開発し,低リソース状況下の学習におけるタスクの性能向上に貢献するような並列構造の事例を提案手法が生成していることを検証する。 ## 1 はじめに 言語モデルの事前学習は大規模なラベルなしテキストから汎用的な表現を得る手段として近年発展しているパラダイムである。 BERT [1] や BART [2]をはじめとする言語モデルの fine-tuning は様々なタスクの性能を底上げしたが,人手によってラベル付けされた大量の学習データではなく言語モデルを活用して効率的な学習を行う few-shot 学習 $[3,4,5,6]$ やデータ拡張 (data-augmentation) $[7,8,9,10]$ などの試みも注目されている。しかし,これらの試みの多くは文分類などの簡易なタスクへの適用に限定されており,構文解析など構造に関するタスクへの応用については研究が進んでいない1). 本研究は,言語モデルを用いて統語的な構造を生み出す試みとして,等位接続詞によって結びつけられた要素(並列句)から成る構造(並列構造)を生成するアプローチを提案する.並列構造は自然言語に頻出して構文的・意味的曖昧性を引き起こすため,多くのタスクにおいて誤りの要因となる。本研究によって不自然でないような並列構造が生成できれば,並列構造の範囲同定手法のさらなる精度向上も期待できる。本研究で提案する手法は文の一部分に着目し,そ 1)言語モデルを用いない方法で文の構造を操作してデータ拡張を行う研究 $[11,12]$ は試みられている. の箇所と並列となるようなテキストを言語モデルによって生成することで並列構造を発生させる. より具体的には,等位接続詞とマスクトークンを 2 通りの方法で挿入した文のペアを用意し,それらの空所に入る同一のテキストをマスク言語モデルに予測させる.また,生成された並列構造とその範囲が不適当であるような事例を取り除く方法を,並列構造の範囲同定タスクの学習と統合したフレームワークとして提案する。提案手法が並列構造と範囲の組の有用な事例を生成して効果的に取捨選択することで,低リソース状況下における並列構造の範囲同定タスクの性能向上に貢献することを実験により示す. ## 2 提案手法 提案手法は text-infilling タスクによって事前学習された言語モデルを用いて並列構造の生成を行う. 形式的には, 文 $S_{1: N}=w_{1}, \ldots, w_{N}$ 内に並列構造を生じさせ,並列構造を持つ文 $S_{1: N^{\prime}}^{\prime}=w_{1}, \ldots, w_{N^{\prime}}$ とその並列構造の構成要素のアノテーション $\left.\langle k,\left.\{\left(i^{(1)}, j^{(1)}\right), \ldots\right.\}\right.\rangle$ を得る.ここで $k$ は等位接続詞の位置であり,スパン $\left(i^{(m)}, j^{(m)}\right)$ は各並列句の範囲を表す. 本研究は英語において等位接続詞 and によって結びつけられた二つの並列句から成る並列構造を生成の対象とする。この目的を達成するために,提案手法はまず入力文 $S$ から参照スパン $(i, j)$ を選択し,参照スパンと対応付けられるようなテキストを言語モデルによって生成して等位接続詞とともに挿入することで,二つの並列句 $w_{i: j}, w_{i^{\prime} j^{\prime}}$ と等位接続詞 $w_{k}$ から成る並列構造を持つ文 $S^{\prime}$ を出力する. 本手法の概要を図 1 に示す。以降の小節にて手法の詳細を説明する。 ## 2.1 参照スパンに対応するテキストの生成 提案手法は大力文 $S$ において等位接続詞とマスクトークンを 2 通りの方法で埋め込んだ文 $S^{\prime(1)} , S^{\prime(2)}$ を用いる。具体的には, $S^{\prime(1)}$ では等位接続詞とマスクトークンがこの順で参照スパンの後ろに挿入さ ## Input ) $S$ : Gold will retain its gains, he said. ## Output ) 6: $\{(3,5),(7,8)\}$ Gold will retain its gains and rise further, he said. $S^{(1)}$ : transform Gold will retain its gains and $<$ mas $k>$, he said. $S^{(2)}$ : Gold will <mask> and retain its gains, he said. synchronize 図 1 提案手法による並列構造生成の概要。入力文は指定されたスパン (“retain its gains”) に基づいて 2 通りの方法によってマスクされ,言語モデルがそれらのマスクに対する予測を同期的に行うことで同一のテキストを当てはめる. れ, $S^{(2)}$ では等位接続詞がマスクトークンに続く形で参照スパンの前に挿入される。この二つのマスクに同一のテキストを埋めることによって参照スパンと対応付けられたテキストを得る。この方法は並列句が類似・可換となるように $[13,14]$ ,言語モデルが参照スパンと文脈を活用できる点で利点がある. ${ }^{2)}$ 本研究ではマスクトークンに対するテキスト生成のために T5 [15]を用いる3).T5 モデルは Transformer [16] のエンコーダ・デコーダから成り,文のマスクされたスパンを埋めるテキストを生成するよう事前学習される。例えば,エンコーダへの入力 “Thank you $\langle\mathrm{X}>$ me to your party $\langle\mathrm{Y}>$ week." に対して,デコーダが “ $<\mathrm{X}>$ for inviting $<\mathrm{Y}>$ last $<\mathrm{Z}>”$ を出力するよう訓練される. この学習方法に則って,提案手法は文 $S^{\prime(1)} , S^{\prime(2)}$ をそれぞれ独立に $\mathrm{T} 5$ のエンコーダに与え,マスクトークンに当てはまるテキストをデコーダによって生成する。ただし, $S^{(1)}$, $S^{\prime(2)}$ のマスクトークンに入るテキストが同一となるような成約下でデコーディングを行う. $ \begin{array}{r} \mathbf{u}_{t}^{\prime(1)}=\mathbf{u}_{t}^{\prime(2)}=f\left(\mathbf{u}_{t}^{(1)}, \mathbf{u}_{t}^{(2)}\right) \\ T_{t}^{\prime(1)}=\arg \max \left(\mathbf{u}_{t}^{\prime(1)}\right) \\ T_{t}^{\prime(2)}=\arg \max \left(\mathbf{u}_{t}^{\prime(2)}\right) \end{array} $ ここで $\mathbf{u}_{t}^{(1)} \in \mathbb{R}^{V}, \mathbf{u}_{t}^{(2)} \in \mathbb{R}^{V}(V$ はトークンの語彙数)はそれぞれ,入力文 $S^{\prime(1)} , S^{\prime(2)}$ に対するデコー ディングステップ $t$ におけるトークンのスコアベクトル(logit)であり,二つのベクトルは関数 $f$ の働きによって同じ値を持つように同期される. $S^{(1)}, S^{\prime(2)}$ のどちらか一方の文脈のみに過剰に適合するトークンが出力されることを避けるため, 2) $S^{\prime(1)}$ だけを用いる方法では,並列構造の範囲が不適当となるテキストが生じやすい(例:“The boys and <mask> play baseball on Saturdays." $\rightarrow$ "[The boys] and [Mary usually] play baseball on Saturdays."). 3) BERT を用いた並列構造の生成方法を Appendix A に示す.本研究では関数 $f$ として要素ごとに最小値をとる (element-wise min)関数を採用する ${ }^{4}$. ## 2.2 教師あり並列構造解析への適用 前節で示した方法によって並列構造を持つ文が得られるが,並列構造の範囲が不適当な例が生じうる。そのような例は並列句間の一致を判定するような後処理によって取り除くことが望ましいが,一致を判定するルールなどを開発するコストがかかる.本研究では,範囲が明示された並列構造を含む文のアプリケーションとして,生成された事例を並列構造の範囲同定タスクの教師データとして用いる。本節は範囲同定タスクの学習の枠組みのなかで不適当な事例を取り除く方法を示す (Algorithm 1). はじめに並列構造の範囲同定モデル $M[14,17]$ を少量のラベル付きデータ $L$ で学習し, 以降は $L$ に加えて大量のラベルなしデータ $U$ から生成された事例を用いて学習を行う。各学習イテレーションにおいて,Uから並列構造を持たない文 $x$ をランダムに選択し,提案手法の生成モデル $G$ によって並列構造を含む文 $x^{\prime}$ とれに対応する並列構造範囲のアノテーション $y^{\prime}$ を得る5). 生成によって得た事例 $\left(x^{\prime}, y^{\prime}\right)$ は学習モデル $M$ によってスコアが割り当てられ,その値が閾値 $\delta$ 以上であれば適当な例だと見なしてミニバッチ $B$ に追加する。この生成・選定の手順を事例が $K$ 個得られるまで最大で $K_{\text {max }}$ 回繰り返し, $N_{\text {batch }}-K$ 個の事例を $L$ から $B$ に加えて, $M$ の学習・更新を行う。 4)要素ごとに平均をとる(element-wise mean)関数の場合,あるトークンに対する値が片方の logit で著しく高く,もう一方の logitではそれほど高い值でない場合,平均化しても依然として高い値となってしまい,過剩適合が生じやすい。 5)文の異なるスパンを参照することで異なる並列構造を生成できることから,復元抽出によって文 $x$ をサンプルする. ## 3 実験 本研究は提案手法による並列構造の生成を並列構造の範囲同定の学習に適用することで性能評価する). ## 3.1 実験設定 データ構築並列構造がアノテーションされた Penn Treebank (PTB) [18] を用いて実験を行う,学習データの追加による性能向上を確かめるために,低リソース状況下における評価を行う。学習セット 39,832 文のうち並列構造を持つ文 15,481 の中から, ランダムに 300 文(または 600 文)選び,5:1 の比で学習用データ $L$ とモデル選択のための検証用データに分割し,並列構造を持たない 24,351 文を生成元のデータ $U$ として用いる7). 実験の評価は PTB のテストセットで行い,PTB の開発セットは追加分析のために用いる.同様の手順によって,生物医学系論文のアブストラクトから成る GENIA Treebank [19] 6)定性的分析を Appendix C に示す. 7)言語モデルに十分な文脈を与えるために,10 語未満から成る文は $U$ から取り除く。 ## でも実験を行う. 評価方法とモデル各等位接続詞に対する並列構造全体の始点・終点の同定精度(accuracy)によってモデルを評価する. タスクに使用するモデルとして,Teranishi ら [14]の手法と同様に,並列構造の始点・終点の可能な全ての組み合わせについてスコア計算を行う機構を用いるが,下層には BERT (BERT-base-cased)を用いる.位置 $k$ に出現する等位接続詞に対する並列構造の始点・終点ペア $(i, j)$ のスコアは次のように計算される。 $ \begin{aligned} \operatorname{Score}_{\theta}(i, j, k) & =\operatorname{MLP}\left(F_{\theta}(i, j, k)\right) \\ F_{\theta}(i, j, k) & =\left[\mathbf{h}_{i}-\mathbf{h}_{k+1} ; \mathbf{h}_{j}-\mathbf{h}_{k-1}\right] \end{aligned} $ ここで MLP は 2 層の線形変換と ReLU の活性化関数から成るニューラルネットワークであり, $\mathbf{h}_{t}$ は BERT の Transformer から出力された $t$ 番目のトークンの表現ベクトルである.可能な組み合わせの全スコアは softmax 関数によって正規化され,各スコアは 0 から 1 の値となる. このニューラルネットワー クを学習データ $L$ のみで訓練したものをべースラインのモデルとして定める。また,提案手法における文の参照スパンは,句構造解析によって得られた構文木の任意の句をランダムに選択することによって得る. 学習の詳細設定は Appendix B に示す. ## 3.2 結果と分析 実験結果を表 1 に示す. 提案手法による並列構造の生成によって,範囲同定モデルは概してべースラインよりも高い性能を達成した。このことは提案手法が BERT と T5 のモデルを用いてタスクの性能向上に寄与するような有用な事例を生成していることを示唆している.また, T5 は BERT と比較するとより効果的な事例が生成できており,これは事前学習において BERT が独立したマスクに対して一つのトークンを予測しているのに対し, T5 は sequence-to-sequence 学習によってマスクに対してトークンの系列を予測しているという違いによるものだと推測される. 並列構造の統語範疇ごとの評価では,T5を用いた生成によって S や SBAR など節の並列構造の同定精度が改善しており,T5 が比較的短いトークン系列を予測するよう事前学習されていることを考えると予想に反する結果である。一方で,名詞の並列構造はそれほど改善が見られないどころか精度が下がっているケースも観測される。これは少量の学習データ $L$ に含まれる並列構造の多く 表 1 生成された事例を用いた fine-tuning によるテストセットにおける結果. 最初の列は学習に使用したラベル付きデー タのサイズを表す. 表中の数字はデータ構築・生成・fine-tuning 5 回通じて試行した結果の平均と標準偏差を表す. 図 2 学習データのサイズによる精度の推移. が名詞の並列であり,名詞並列に関する学習が十分にできているため,生成による学習データのかさ増しがかえって悪影響を及ぼしていると考えられる。学習データ $L$ のサイズによるパフォーマンスの推移をPTB の開発セットにて観測すると,学習データが増えるにつれて提案手法による改善幅は小さくなり,十分な学習データが利用できる状況になるとむしろ精度の低下につながっている(図 2)。 追加の分析として,生成結果の選定や同期的生成を適用しない場合の性能を PTB の開発セットにて調査した. 前者は選定の閾値 $\delta$ を 0 に設定したものであり,後者は文 $S^{\prime(1)}$ のみを生成に用いたものである. ただし,同期的生成を用いない後者の設定は範囲が不適当な並列構造が生成されやすく,モデル $M$ による選定の過程で取り除かれてしまうため,提案手法によって得られた文 $x^{\prime}$ のみを採用して並列構造の範囲 $y^{\prime}$ はモデル $M$ が自身で予測し,その確信 表 2 異なる設定による精度の違い $(|L|=250)$. 度(確率値)に基づいて選定を行う(self-training)。実験結果を表 2 に示す. 生成された並列構造を選定せずに使用した場合に性能を大きく損なうことから,提案手法が不適当な並列構造を一定の割合で生成しており,一方で選定の仕組みによって学習のノイズとなるような事例を効果的に取り除いていることがわかる. また同期的生成を適用せずに self-training によって範囲を割り当てた場合も性能の低下につながった. モデル $M$ が誤って予測した範囲によって学習が進むにつれてノイズが増幅しているのに対し,提案手法による同期的生成では学習進度に関わらず適当な並列構造を一定の割合で生成できていることが示唆される. 以上の分析を踏まえて,生成される並列構造とその範囲が適当である事例をより高い割合で生成できるよう手法を改善していくことが提案手法の今後の課題である ${ }^{8)}$. 8)そのような方法として, T5 や BERT に並列構造の生成を促すような fine-tuning を適用することが考えられる。 ## 謝辞 本研究の一部は, JST・AIP 日独仏 AI 研究(JPMJCR20G9)の支援を受けたものである. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, Online, July 2020. Association for Computational Linguistics. [3] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. 2019. [4] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In H. Larochelle, M. Ranzato, R. Hadsell, M. F. Balcan, and H. Lin, editors, Advances in Neural Information Processing Systems, Vol. 33, pp. 1877-1901. Curran Associates, Inc., 2020. [5] Taylor Shin, Yasaman Razeghi, Robert L. Logan IV, Eric Wallace, and Sameer Singh. AutoPrompt: Eliciting Knowledge from Language Models with Automatically Generated Prompts. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, pp. 4222-4235, Online, November 2020. Association for Computational Linguistics. [6] Tianyu Gao, Adam Fisch, and Danqi Chen. Making pre-trained language models better few-shot learners. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 38163830, Online, August 2021. Association for Computational Linguistics. [7] Xing Wu, Shangwen Lv, Liangjun Zang, Jizhong Han, and Songlin Hu. Conditional bert contextual augmentation. In João M. F. Rodrigues, Pedro J. S. Cardoso, Jânio Monteiro, Roberto Lam, Valeria V. Krzhizhanovskaya, Michael H. Lees, Jack J. Dongarra, and Peter M.A. Sloot, editors, Computational Science - ICCS 2019, pp. 84-95. Springer International Publishing, 2019. [8] Fei Gao, Jinhua Zhu, Lijun Wu, Yingce Xia, Tao Qin, Xueqi Cheng, Wengang Zhou, and Tie-Yan Liu. Soft contextual data augmentation for neural machine translation. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5539-5544, Florence, Italy, July 2019. Association for Computational Linguistics. [9] Ateret Anaby-Tavor, Boaz Carmeli, Esther Goldbraich, Amir Kantor, George Kour, Segev Shlomov, Naama Tepper, and Naama Zwerdling. Do not have enough data? deep learning to the rescue! In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, pp. 7383-7390, Apr. 2020. [10] Varun Kumar, Ashutosh Choudhary, and Eunah Cho. Data augmentation using pre-trained transformer models. In Proceedings of the 2nd Workshop on Life-long Learning for Spoken Language Systems, pp. 18-26, Suzhou, China, December 2020. Association for Computational Linguistics. [11] Gözde Gül Şahin and Mark Steedman. Data augmentation via dependency tree morphing for low-resource languages. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 5004-5009, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [12] Haoyue Shi, Karen Livescu, and Kevin Gimpel. Substructure substitution: Structured data augmentation for NLP. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 3494-3508, Online, August 2021. Association for Computational Linguistics. [13] Jessica Ficler and Yoav Goldberg. A neural network for coordination boundary prediction. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 23-32, Austin, Texas, November 2016. Association for Computational Linguistics. [14] Hiroki Teranishi, Hiroyuki Shindo, and Yuji Matsumoto. Coordination boundary identification with similarity and replaceability. In Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 264-272, Taipei, Taiwan, November 2017. Asian Federation of Natural Language Processing. [15] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [16] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [17] Hiroki Teranishi, Hiroyuki Shindo, and Yuji Matsumoto. Decomposed local models for coordinate structure parsing. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3394-3403, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [18] Jessica Ficler and Yoav Goldberg. Coordination annotation extension in the Penn Tree Bank. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 834-842, Berlin, Germany, August 2016. Association for Computational Linguistics. [19] Yuka Tateisi, Akane Yakushiji, Tomoko Ohta, and Jun'ichi Tsujii. Syntax annotation for the GENIA corpus. In Companion Volume to the Proceedings of Conference including Posters/Demos and tutorial abstracts, 2005. [20] Nikita Kitaev, Steven Cao, and Dan Klein. Multilingual constituency parsing with self-attention and pre-training. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3499-3505, Florence, Italy, July 2019. Association for Computational Linguistics. \\ 表 3 提案手法によって生成された並列構造を含む文とその範囲の例. 下線部は生成に使われた参照スパンを表す. ## A BERT を用いた同期的生成 BERTを用いた同期的テキスト生成では,文 $S^{\prime(1)}$, $S^{\prime(2)}$ の空所は BERT で用いられている [MASK] トー クンの系列によって作られる. T5 とは異なり, 生成されるトークン数は [MASK] の数に依存するが, ここでは参照スパンと同じトークン数を使用する.文 $S^{\prime(1)}, S^{\prime(2)}$ は [SEP] トークンによって連結されて BERT に与えられ,二つの [MASK] トークン系列に対する予測は次式に従って行われる。 $ \begin{gathered} \mathbf{u}_{l+t}^{\prime}=\mathbf{u}_{m+t}^{\prime}=f\left(\mathbf{u}_{l+t}, \mathbf{u}_{m+t}\right) \\ T_{t+1}^{\prime(1)}=\arg \max \left(\mathbf{u}_{l+t}^{\prime}\right) \\ T_{t+1}^{\prime(2)}=\arg \max \left(\mathbf{u}_{m+t}^{\prime}\right) \end{gathered} $ ここで $t(\geq 0)$ はマスク箇所の始点 $l, m$ からの相対位置である. ## B 学習方法の設定 各ニューラルネットワークモデルに対して 10,000 イテレーションの学習を行い,構築した検証用デー タにて最も良い精度 (accuracy)を達成したモデルをテストセットでの評価に用いる. ベースラインがラベル付きデータ $L$ のみで学習されるのに対し,提案手法のモデルは最初の 1,000 イテレーションを $L$ で学習し (Algorithm 1 の 1 行目), 残りの 9,000 イテレーションはラベルなしデータ $U$ から生成された事例と $L$ によって学習を行う(Algorithm 1 の 2-15 行目). 全ての実験において,提案手法のハイパーパラメータとして $N_{\text {batch }}=16, K=8$, $K_{\text {max }}=16, \delta=0.7$ を設定する. 並列構造の生成には BERT-large-cased と T5-large のモデルを用い る。参照スパンは Berkeley neural parser [20]によって得られた構文木に含まれる句をランダムに選択することで得るが,選択対象の句は NP, VP, ADJP, ADVP, PP, SBAR, S の句 (文全体を表す rootノードは除く) に限定される。学習において AdamW を学習率 2e-5 で適用し, 学習率はウォームアップなしで学習進度に合わせて線形に減少させる.また,勾配をノルムの閾値 1.0 でクリッピングし, weight decay を 0.01 の強度で適用する. モデルは 100 イテレー ションごとに評価され,1,000 イテレーション以降に 1,000 イテレーション連続で性能向上が見られない場合は学習を早期に打ち切る。式 2 の MLP は 256 ユニットから成る一層の隠れ層を持ち, dropout を確率 0.5 で適用する. 並列構造の範囲としては単語の境界のみを候補として,単語が複数のトークンから成る場合は最後のトークンの表現を用いてスコア計算を行う. ## C 生成された並列構造の事例分析 T5を用いた提案手法によって生成された並列構造の事例を表 3 に示す. 例 1 と例 2 はそれぞれ,生成モデルが前置詞句・動詞句を参照して生成した並列構造を表しており,これらの並列構造とその範囲は範囲同定モデル $M$ によって適当なものとして正しく判定されている. 対して例 3 は,参照スパンが複文であるために生成された並列構造に対してその範囲が不適当であるが,この事例はモデル $M$ によって学習から取り除かれている. 例 4 では生成モデルが副詞句の並列構造を生成しているが,モデル $M$ によって高い確度が割り当てられず不適当な事例として判定されている.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH1-11.pdf
# デジタルアニーラを用いたパーソナライズド抽出型要約 の高速求解 高津 弘明 1 柏川 貴弘 ${ }^{2}$ 木村 浩一 ${ }^{2}$ 安藤 涼太 ${ }^{3}$ 松山 洋一 ${ }^{1}$ 1 早稲田大学 2 富士通研究所 3 内外切抜通信社 takatsu@pcl.cs.waseda.ac.jp \{kashikawa, k.kimura\}@jp.fujitsu.com ando@naigaipc.co.jp matsuyama@pcl.cs.waseda.ac.jp ## 概要 ニュース記事に代表されるまとまった量の情報を効率的に伝える音声対話システムを開発している。伝達対象の文書の要点を説明するための対話のシナリオを主計画と呼ぶ.主計画生成問題を,文書の談話構造と合計発話時間を制約として興味度が最大となる文集合を文書集合の中から抽出する組合せ最適化問題として定式化した. この組合せ最適化問題の求解速度を高速化するため,イジングマシンの一種である富士通デジタルアニーラ1)を使用した。 ニュース記事と芸術作品の解説テキストに対して談話構造と興味度を付与したデータセットを用いた実験で,デジタルアニーラにより制約違反のない準最適解が実用的な時間で得られることを確認した。 ## 1 はじめに 人々のメディアへの接触時間は年々増加し,「世の中の情報量は多すぎる」「世の中の情報のスピー ドは速すぎる」といった意識が人々の間で高まっている [1]. このような社会背景を踏まえ,我々は,人々が興味のある情報を,限られた時間で,音声対話により効率的に消費することを支援する技術の開発を進めている。 我々の音声対話システムは,要点説明のための主計画と補足説明のための副計画から構成されるシナリオに基づいて対話を進行させる [2]. ユーザが受け身で聴いているとき,システムは主計画の内容を伝える。主計画を生成する問題を,一貫性と効率性の観点から,話題が異なる $N$ 個の文書から各文書の談話構造を制約としてユーザが興味のありそうな文を抽出し,その内容を音声で $T$ 秒以内に伝える問題として定式化する. この問題は整数線形計画問題として定式化できるが [3],NP 困難であり,問題の規 1) https://www. fujitsu.com/jp/digitalannealer/模が大きくなると,最適解を見つけるのに膨大な時間が必要になる.そこで,本研究では,組合せ最適化問題を解くことに特化した非ノイマン型のコンピュータであるイジングマシンを用いることで高速化を試みる。イジングマシンの中でも,量子現象に着想を得たデジタル回路により,組合せ最適化問題を高速に解くアーキテクチャである富士通デジタルアニーラを使用し,ユーザごとにパーソナライズした主計画を高速に生成できることを示す. ## 2 デジタルアニーラ 量子コンピューティング技術は大きく量子ゲート方式とイジングマシン方式に分類される.量子ゲー ト方式は,0 と 1 の重ね合わせ状態が取れる量子ビットを操作する量子ゲートを用いて汎用的な計算を行う方式である $[4,5]$. イジングマシン方式は,+1 と-1の 2 值を取るスピンとスピン間の相互作用でエネルギーが規定されるイジングモデルに問題をマッピングして解を探索する組合せ最適化問題に特化した方式である.イジングマシン方式には,超電導回路で量子ビットを操作する量子アニーリング方式 $[6,7,8]$ と,デジタル回路で古典ビットを操作するシミュレーテッドアニーリング方式 $[9,10,11,12,13]$ がある。デジタルアニーラは,シミュレーテッドアニーリング方式のイジングマシンであり,量子現象に着想を得たデジタル回路(Digital Annealing Unit: DAU)により組合せ最適化問題を高速に解くアーキテクチャである $[11,12,13]$. ## 2.1 第二世代デジタルアニーラ 第二世代デジタルアニーラ(DA2)は,シミュレーテッドアニーリングに基づく手法であるアニー リングモード(DA2-AM)[11] またはマルコフ連鎖モンテカルロ法 (Markov-Chain Monte Carlo: MCMC) に基づく手法であるパラレルテンパリングモー 図 1 第三世代デジタルアニーラの構成 [13] ド(DA2-PTM)[12] を使用して,QUBO(Quadratic Unconstraint Binary Optimization)形式で定式化された組合せ最適化問題の解を高速に探索する.QUBO モデルは,イジングモデルにおけるスピンの代わりに 0 と 1 のバイナリ変数を用いたモデルである. DA2 は問題のビット数に応じて,ビット数パラメー 夕を 1024,2048,4096,8192 の中から指定する必要がある. DA2 は 4096 ビット以下の問題を 64 ビット精度で,8192 ビット以下の問題を 16 ビット精度で扱うことができる. ## 2.2 第三世代デジタルアニーラ 第三世代デジタルアニーラ(DA3)は,最大 10 万ビットのバイナリ二次計画 (Binary Quadratic Programming: BQP)問題を入力して,ソフトウェア介入層 (Software Intervention Layer: SIL) と探索コアが協調して最適解または近似解を求めるソフトウェアとハードウェアのハイブリッド求解システムである(図 1)[13]. 制約項をエネルギー関数に含めた QUBO 形式による求解は, 制約条件の数や変数の規模が増大すると最適解や近似解への到達が難しくなる [14]. その問題を解決するため,DA3 は,エネルギー関数をコスト項と制約項に分離し, 制約項の重みを自動的に調整する仕組みを持つ. さらに, DA3 は,バイナリ変数列の総和が 1 となる等式制約(1hot 制約)および線形不等式制約を直接設定するインタフェースを持つ. 探索コアでは,制約活用サーチが,ソフトウェア介入層で生成された探索開始点を起点に,制約項と自動調整された制約係数による制約違反の影響度および,1hot 制約や不等式制約などの条件に従って大域的に解を探索し,良解を抽出する. そして,DAU ハードウェアが良解周辺の最適解を MCMC で高速に探索する。表 1 変数の定義 ## 3 手法 ## 3.1 ILP モデル $N$ 個の文書からユーザ $u$ が興味のありそうな文を抽出し,その内容を音声で $T$ 秒以内に伝える要約問題を考える。主計画の要件は,ユーザにとって興味がある内容であること,ストーリーが一貫していること,㔯長でないことである。そこで,要約問題を,談話構造と合計発話時間を制約とし,文に対する興味度の高さと文間の類似度の低さのバランスで目的関数を定義した整数線形計画(Integer Linear Programming: ILP)問題として定式化する。 $ \max . \quad \sum_{k \in D_{N}^{u}} \sum_{i<j \in S_{k}} b_{k i}^{u} b_{k j}^{u}\left(1-r_{k i j}\right) y_{k i j} $ s.t. $ \begin{aligned} \forall k, i, j: & x_{k i} \in\{0,1\}, \quad y_{k i j} \in\{0,1\} \\ & \sum_{k \in D_{N}^{u}} \sum_{i \in S_{k}} t_{k i} x_{k i} \leq T \\ \forall k \neq l: & \sum_{i \in S_{k}} x_{k i}-\sum_{i \in S_{l}} x_{l i} \leq L_{k l} \\ \forall k, i: \quad & j=f_{k}(i), \quad x_{k i} \leq x_{k j} \\ \forall k, m, i \in C_{k m}: & \sum_{j \in C_{k m}} x_{k j}=\left|C_{k m}\right| \times x_{k i} \\ \forall k, i, j: \quad & y_{k i j}-x_{k i} \leq 0 \\ \forall k, i, j: \quad & y_{k i j}-x_{k j} \leq 0 \\ \forall k, i, j: & x_{k i}+x_{k j}-y_{k i j} \leq 1 \end{aligned} $ 変数の定義を表 1 に示す. $k$ 番目の文書 $d_{k}$ の $i$ 番目の文を $s_{k i}$ と表記する. $r_{k i j}$ は,文 $s_{k i}$ と文 $s_{k j}$ の内容語の Bag-of-Words のコサイン類似度である。 式 2 は要約の合計発話時間を $T$ 秒以下にする制約である。式 3 は抽出する文数の文書間での偏りを $L_{k l}$ 文以下に抑える制約である. 式 4 は文 $s_{k i}$ を抽 出する場合,談話依存構造木における親ノードの文 $s_{k j}$ も抽出しなければならないとする制約である.式 5 はあるチャンクの文 $s_{k i}$ を抽出する場合,同チャンクに含まれる他の文も抽出しなければならないとする制約である. 式 6 から式 8 は文 $s_{k i}$ と文 $s_{k j}$ が選ばれた際に $y_{k i j}=1$ とするための制約である. $L_{k l}$ は, 合計発話時間の上限値 $T$ と文書数 $N$, 文の平均発話時間 $\bar{t}$ に基づいて以下の式で計算する。 $ \begin{aligned} L_{k l} & =L+\left.\lceil\max \left(\max \left(\bar{n}-\left|S_{k}\right|, 0\right), \max \left(\bar{n}-\left|S_{l}\right|, 0\right)\right)\right.\rceil(9) \\ L & =\left.\lfloor\frac{\bar{n}}{\sqrt{N}}+0.5\right.\rfloor \\ \bar{n} & =\frac{T}{\bar{t} \times N} \end{aligned} $ 五は一つの文書から抽出が期待される文の数を表し, $L$ はその值を文書数の平方根で割り,四捨五入した値である. ## 3.2 QUBO モデル DA2 で組合せ最適化問題を解くために,上記 ILP モデルに基づき,QUBO モデルのエネルギー関数 (ハミルトニアン) $H$ を以下のように定義する。 $ \begin{aligned} H & =H_{0}+\lambda_{1} H_{1}+\lambda_{2} H_{2}+\lambda_{3} H_{3}+\lambda_{4} H_{4} \\ H_{0}= & -\sum_{k \in D_{N}^{u}} \sum_{i<j \in S_{k}} b_{k i}^{u} b_{k j}^{u}\left(1-r_{k i j}\right) x_{k i} x_{k j} \\ H_{1} & =\left(T-\sum_{k \in D_{N}^{u}} \sum_{i \in S_{k}} t_{k i} x_{k i}-\sum_{n=0}^{\left.\lfloor\log _{2}(T-1)\right.\rfloor} 2^{n} y_{n}\right)^{2} \\ H_{2}= & \sum_{k \neq l \in D_{N}^{u}}\left(L_{k l}-\left(\sum_{i \in S_{k}} x_{k i}-\sum_{i \in S_{l}} x_{l i}\right)\right. \\ & \left.\quad-\sum_{n=0}^{\left.\lfloor\log _{2}\left(L_{k l}-1\right)\right.\rfloor} 2^{n} z_{n}\right)^{2} \\ H_{3}= & \left(x_{k i}-x_{k i} x_{k j=f_{k}(i)}\right)^{2} \\ H_{4}= & \sum_{k \in D_{N}^{u}} \sum_{m \in C_{k}} \sum_{i \in C_{k m}}\left(\sum_{j \in C_{k m}} x_{k j}-\left|C_{k m}\right| \times x_{k i}\right)^{2} \end{aligned} $ ここで, $y_{n}$ と $z_{n}$ は不等式制約を等式制約に変換するために導入したスラック変数である. $\lambda_{1}, \lambda_{2}, \lambda_{3}$, $\lambda_{4}$ は各制約に対する重みである. QUBO モデルはシミュレーテッドアニーリングに基づく手法 [11] やパラレルテンパリング [12]によって解くことができる.これらの手法では異なる初期値で並列にアニーリングすることで複数の解候補を得ることができる. しかしながら,これらの手法では制約違反が発生しないことを保証していない。そ のため,後処理で,得られた解候補の中から制約違反スコアが最小なもののうち,目的関数のスコアが最大な解を採用する. 制約違反スコア $E_{\text {total }}$ は以下の式で計算する。 $ \begin{aligned} E_{\text {total }} & =E_{\text {dep }}+E_{\text {chunk }}+E_{\text {bias }}+E_{\text {time }} \\ E_{\text {bias }} & =\sum_{k<l \in D_{N}^{u}} \max \left(\hat{L}_{k l}-L_{k l}, 0\right) \\ E_{\text {time }} & =\max (\hat{T}-T, 0) \end{aligned} $ ここで, $E_{d e p}$ は係り受け関係の違反件数, $E_{c h u n k}$ はチャンクの違反件数, $\hat{T}$ は抽出された文集合の合計発話時間, $\hat{L}_{k l}$ は文書 $d_{k}$ と文書 $d_{l}$ で抽出された文数の差の絶対値を表す。 ## 3.3 DA3 モデル DA3 は線形不等式制約を直接設定するインター フェースを備えているため, 不等式制約を QUBO 化する必要がない。そのため,エネルギー関数はコス卜項のみ(式 13)で定義する。制約に関しては式 5 を 0 以上 0 以下の不等式に変換し,他の不等式制約 (式 2, 式 3, 式4)とともに,DA3 のインターフェー スに設定する.ソフトウェア介入層が不等式間の重み付けを自動的に調整し,制約活用サーチがこれらの不等式制約を評価しながら解の探索を行う. ## 4 実験 ## 4.1 実験設定 データセットには談話構造と興味度が付与されたニュース記事データセット [15] とミュージアムデー タセット [16] を使用した。ニュース記事データセットは 1200 個のニュース記事の話題と文 (一記事あたり 15 文〜25 文)に 6 段階の興味度が付与された 2017 人分(一人あたり 6 記事)のデータセットであり,一人あたりの問題の規模は 4096 ビット以下である. ミュージアムデータセットは $\mathrm{e}$ 国宝で公開されている東京国立博物館の 400 個の国宝・重要文化財とその解説文(一作品あたり 4 文〜 14文)に 6 段階の興味度が付与された 2485 人分 (一人あたり 8 作品)のデータセットであり,一人あたりの問題の規模は 2048 ビット以下である。ニュース記事データセットを用いた実験では $N=6$ 個の記事を $T=450$秒以内に説明する設定で,ミュージアムデータセッ卜を用いた実験では $N=8$ 個の作品を $T=330$ 秒以内に説明する設定で,要約性能を評価した。 文の発話継続長を計算するために音声合成器 表 2 情報伝達効率 } & \multicolumn{5}{|c|}{ ミュージアムデータセット(2048ビット問題) } & \multicolumn{5}{|c|}{ ニュース記事データセット(4096ビット問題) } \\ として,ニュース記事データセットでは AITalk²) を,ミュージアムデータセットでは Google Cloud Text-to-Speech ${ }^{3}$ を使用した。文間の間(ま)を 1 秒に設定し,合成音声ファイルの再生時間にこの間 (ま)の時間を加算した値を $t_{k i}$ とした. ILP モデルは CPU 上で分枝切除法4) [17, 18] (CPU-CBC) により解いた. 具体的には PuLP ${ }^{5}$ の PULP_CBC_CMDソルバーを使用し,スレッド数は 30 に設定した. 処理時間は以下の構成の Google Compute Engine ${ }^{6)}$ 上で計測した. OS:Ubuntu 18.04, CPU:Xeon (2.20 GHz, 32 コア),メモリ:64 GB. DA2-PTM のレプリカ数および DA2-AM のアニー リングの繰り返し回数は 128 に設定した.DA2 の性能は主に $\lambda$ の値と一回のアニーリングにおける探索回数 (イテレーション回数) によって決まるため, 制約違反が発生しないようにこれらの值を調整した.最終的に, DA2-AM と DA2-PTM $の\left.\{\lambda_{1}, \lambda_{2}, \lambda_{3}, \lambda_{4}\right.\}$ は,ニュース記事データセットではそれぞれ $\left.\{10^{2}, 10^{6}, 10^{10}, 10\right.\}$ と $\left.\{10^{2}, 10^{5}, 10^{9}, 10\right.\}$ に, ミュージアムデータセットではそれぞれ $\left.\{10^{2}, 10^{7}, 10^{10}, 10\right.\}$ と $\left.\{10^{2}, 10^{6}, 10^{9}, 10\right.\}$ に設定した. CPU-CBC をベンチマークとして,DA2-AM と DA2-PTM および DA3 の性能を評価した. 評価指標には EoIT ${ }_{\beta}$ (Efficiency of Information Transmission) [19]を使用した. 興味度が 4 以上(興味あり)の文の被覆率を $C$, 興味度が 3 以下(興味なし)の文の除外率を $E$ としたとき, $\operatorname{EoIT}_{\beta}$ は, 重み付き $\mathrm{F}$ 值 [20] に基づき,以下の式で定義される. $ \operatorname{EoIT}_{\beta}=\frac{\left(1+\beta^{2}\right) \times C \times E}{\beta^{2} \times C+E} $ ## 4.2 実験結果 実験結果を表 2 に示す. 各評価指標と処理時間の值は平均值である。まず,CPU-CBC と DA2-AM  を比較すると,EoIT に関しては,DA2-AM は CPU$\mathrm{CBC}$ よりも低かったものの,処理時間に関しては, DA2-AM の方が圧倒的に早いことが確認された. 次に,DA2-AM と DA2-PTM を比較すると,イテレー ション回数が千回のときは, EOIT に差はほとんど見られなかったが,処理時間はDA2-AM の方が早いことが分かった. 一方で,DA2-AM はイテレーション回数を増やしても性能に変化が見られなかったが,DA2-PTM はイテレーション回数を増やすにしたがって EoIT が向上した. しかしながら,それに伴い処理時間も増加した. 次に, DA3 の結果に着目すると,EoIT は CPU-CBC に近い値を示した。DA2 では,問題の規模が 2048 ビットから 4096 ビットに上がると, 処理時間は増加し, EoIT は CPU-CBC との差が大きくなる傾向にあったが, DA3では, 問題の規模が大きくなっても同じ処理時間で,高い EoIT を示した。一方で,処理時間に関しては,DA2-AM が最も早い値を示した. 15 文から 25 文のニューズ記事 6 個を要約する問題では,4096ビット必要であり,DA2-AM で処理すると 1 人あたり約 0.2 秒かかるため,10万人の主計画を用意するのに,一つの DAU でおよそ 5 時間半かかる計算になる,以上のことから,この程度の規模の問題設定であれば,デジタルアニーラを用いることで,前の晚のニュースから各ユーザにパーソナライズした対話のシナリオを,翌日の通勤・通学時までに用意することが可能だと言える. ## 5 おわりに 音声対話システムにおける要点説明のための対話のシナリオである主計画を生成する問題を,文書の談話構造と合計発話時間を制約として興味度が最大となる文集合を文書集合の中から抽出する組合せ最適化問題として定式化した. シミュレーテッドアニーリングベースのイジングマシンである富士通デジタルアニーラを用いることで,実用的な時間で制約違反のない準最適解が得られることを確認した. ## 参考文献 [1] 博報堂 D Yメディアパートナーズ(編). 広告ビジネスに関わる人のメディアガイド 2020 : メディア環境のこれからと今. 宣伝会議, pp. 20-40, 2020 。 [2] 高津弘明, 福岡維新, 藤江真也, 林良彦, 小林哲則. 意図性の異なる多様な情報行動を可能とする音声対話システム. 人工知能学会論文誌, Vol. 33 , No. 1, pp. 1-24, 2018. [3] Hiroaki Takatsu, Ryota Ando, Hiroshi Honda, Yoichi Matsuyama, and Tetsunori Kobayashi. Personalized extractive summarization with discourse structure constraints towards efficient and coherent dialog-based news delivery. In Proceedings of the 12th International Workshop on Spoken Dialog System Technology, 2021. [4] Frank Arute, Kunal Arya, Ryan Babbush, Dave Bacon, Joseph C. Bardin, Rami Barends, Rupak Biswas, Sergio Boixo, Fernando G. S. L. Brandao, David A. Buell, Brian Burkett, Yu Chen, Zijun Chen, Ben Chiaro, Roberto Collins, William Courtney, Andrew Dunsworth, Edward Farhi, Brooks Foxen, Austin Fowler, Craig Gidney, Marissa Giustina, Rob Graff, Keith Guerin, Steve Habegger, Matthew P. Harrigan, Michael J. Hartmann, Alan Ho, Markus Hoffmann, Trent Huang, Travis S. Humble, Sergei V. Isakov, Evan Jeffrey, Zhang Jiang, Dvir Kafri, Kostyantyn Kechedzhi, Julian Kelly, Paul V. Klimov, Sergey Knysh, Alexander Korotkov, Fedor Kostritsa, David Landhuis, Mike Lindmark, Erik Lucero, Dmitry Lyakh, Salvatore Mandrà, Jarrod R. McClean, Matthew McEwen, Anthony Megrant, Xiao Mi, Kristel Michielsen, Masoud Mohseni, Josh Mutus, Ofer Naaman, Matthew Neeley, Charles Neill, Murphy Yuezhen Niu, Eric Ostby, Andre Petukhov, John C. Platt, Chris Quintana, Eleanor G. Rieffel, Pedram Roushan, Nicholas C. Rubin, Daniel Sank, Kevin J. Satzinger, Vadim Smelyanskiy, Kevin J. Sung, Matthew D. Trevithick, Amit Vainsencher, Benjamin Villalonga, Theodore White, Z. Jamie Yao, Ping Yeh, Adam Zalcman, Hartmut Neven, and John M. Martinis. Quantum supremacy using a programmable superconducting processor. Nature, Vol. 574, No. 7779, pp. 505-510, 2019. [5] Laszlo Gyongyosi. Unsupervised quantum gate control for gate-model quantum computers. Scientific Reports, Vol. 10, No. 1, pp. 1-16, 2020. [6] M. W. Johnson, M. H. S. Amin, S. Gildert, T. Lanting, F. Hamze, N. Dickson, R. Harris, A. J. Berkley, J. Johansson, P. Bunyk, E. M. Chapple, C. Enderud, J. P. Hilton, K. Karimi, E. Ladizinsky, N. Ladizinsky, T. Oh, I. Perminov, C. Rich, M. C. Thom, E. Tolkacheva, C. J. S. Truncik, S. Uchaikin, J. Wang, B. Wilson, and G. Rose. Quantum annealing with manufactured spins. Nature, Vol. 473, No. 7346, pp. 194-198, 2011. [7] Paul I. Bunyk, Emile M. Hoskinson, Mark W. Johnson, Elena Tolkacheva, Fabio Altomare, Andrew J. Berkley, Richard Harris, Jeremy P. Hilton, Trevor Lanting, Anthony J. Przybysz, and Jed Whittaker. Architectural considerations in the design of a superconducting quantum annealing processor. IEEE Transactions on Applied Superconductivity, Vol. 24, No. 4, pp. 1-10, 2014. [8] Masaaki Maezawa, Go Fujii, Mutsuo Hidaka, Kentaro Imafuku, Katsuya Kikuchi, Hanpei Koike, Kazumasa Makise, Shuichi Nagasawa, Hiroshi Nakagawa, Masahiro Ukibe, and Shiro Kawabata. Toward practical-scale quantum annealing machine for prime factoring. Journal of the Physical Society of Japan, Vol. 88, No. 6, 2019. [9] Masanao Yamaoka, Chihiro Yoshimura, Masato Hayashi, Takuya Okuyama, Hidetaka Aoki, and Hiroyuki Mizuno. A $20 \mathrm{k}$-spin Ising chip to solve combinatorial optimization problems with CMOS annealing. IEEE Journal of SolidState Circuits, Vol. 51, No. 1, pp. 303-309, 2016. [10] Takuya Okuyama, Masato Hayashi, and Masanao Yamaoka. An Ising computer based on simulated quantum annealing by path integral Monte Carlo method. In Proceedings of the 2017 IEEE International Conference on Rebooting Computing, pp. 1-6, 2017. [11] Maliheh Aramon, Gili Rosenberg, Elisabetta Valiante, Toshiyuki Miyazawa, Hirotaka Tamura, and Helmut G. Katzgraber. Physics-inspired optimization for quadratic unconstrained problems using a Digital Annealer. Frontiers in Physics, Vol. 7, No. 48, pp. 1-14, 2019. [12] Satoshi Matsubara, Motomu Takatsu, Toshiyuki Miyazawa, Takayuki Shibasaki, Yasuhiro Watanabe, Kazuya Takemoto, and Hirotaka Tamura. Digital Annealer for high-speed solving of combinatorial optimization problems and its applications. In Proceedings of the 25th Asia and South Pacific Design Automation Conference, pp. 667-672, 2020. [13] 中山寛, 小山純平, 米岡昇, 宮澤俊之. 解説 : 第三世代デジタルアニーラの技術, pp. 1-9, 2021. [14] Fred Glover, Gary Kochenberger, and Yu Du. Quantum bridge analytics I: A tutorial on formulating and using QUBO models. 4OR: A Quarterly Journal of Operations Research, Vol. 17, No. 4, pp. 335-371, 2019. [15] Hiroaki Takatsu, Takahiro Kashikawa, Koichi Kimura, Ryota Ando, and Yoichi Matsuyama. Personalized extractive summarization using an ising machine towards real-time generation of efficient and coherent dialogue scenarios. In Proceedings of the 3rd Workshop on Natural Language Processing for Conversational AI, pp. 16-29, 2021. [16] 高津弘明, 安藤涼太, 中野鐵兵, 柏川貴弘, 木村浩一,松山洋一. イジングマシンを用いたミュージアムガイドの発話計画最適化. 第 12 回対話システムシンポジウム, pp. 26-31, 2021. [17] John E. Mitchell. Branch-and-cut algorithms for combinatorial optimization problems. Handbook of Applied Optimization, pp. 65-77, 2002. [18] Manfred Padberg and Giovanni Rinaldi. A branch-and-cut algorithm for the resolution of large-scale symmetric traveling salesman problems. SIAM Review, Vol. 33, No. 1, pp. 60-100, 1991. [19] Hiroaki Takatsu, Mayu Okuda, Yoichi Matsuyama, Hiroshi Honda, Shinya Fujie, and Tetsunori Kobayashi. Personalized extractive summarization for a news dialogue system. In Proceedings of the 8th IEEE Spoken Language Technology Workshop, pp. 1044-1051, 2021. [20] Nancy Chinchor. MUC-4 evaluation metrics. In Proceedings of the 4th conference on Message understanding, pp. 22-29, 1992. 図 2 文数ごとの問題数(ミュージアムデータセット) 文数 CPU-CBC (スレッド数 $=30)$ 図 3 文数ごとの問題数(ニュース記事データセット) 図 4 文数ごとの処理時間(ミュージアムデータセット) 図 5 文数ごとの処理時間(ニュース記事データセット)
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH1-12.pdf
# 対訳句追加による NMT の翻訳 浅井奏人 村上 仁一 鳥取大学工学部 b18t2002m@edu.tottori-u.ac.jp murakami@tottori-u.ac.jp ## 概要 近年,機械翻訳の分野においてニューラル機械翻訳 (Neural Machine Translation;NMT) がある。しかし,NMT の翻訳精度は人手による翻訳の精度には及ばない. 翻訳精度の向上には大量の対訳学習文を用いる必要がある. しかし,学習に用いるデータが文のみの場合精度の向上に限界がある. 本論文では,日英 NMT において対訳句を利用する手法を示す. 次に,対訳句の正答率を変化した場合について述べる. 最後に,初期値を変更した場合について述べる. ## 1 はじめに 近年,機械翻訳の分野においてニューラル機械翻訳 (Neural Machine Translation;NMT) がある. NMT は,従来の手法と比較して,より流暢性の高い翻訳を出力することができる。 一方で,NMT の翻訳精度は人手による翻訳の精度には及ばない. 翻訳精度の向上には大量の対訳学習文を用いる必要がある. これを行うには,コストがかかる。 そこで本研究では,日英 NMT において対訳句を利用する手法を提案する。日英 NMT の学習において,対訳学習文に,対訳学習文から抽出した対訳句を追加する. 対訳句を追加することで,語句の対応情報を強化できるため,翻訳精度を向上すると仮定する。 ## 2 対訳句の利用 要素合成法の問題を以下に示す. この問題は,影響の大小はあるが,すべての翻訳システムに当てはまる。 1. 文を翻訳するとき,入力文を単語ごとに翻訳しても,文の意味は間違った翻訳になることが多い. 2. 翻訳精度を向上させるには,文全体の意味を考慮して翻訳する必要がある。これを考慮するために,できるだけ長い句ごとに翻訳を行う必要がある. 例を以下に示す. ・入力文: 彼は我を通した。 - 参照文:He had his own way. - 出力文:He passed me. 一般的に,「通す」は"pass",「我」は"me"と訳すことが多い. しかし,文全体の意味を考えると間違った翻訳になる。そこで,対訳学習文に対訳句を追加学習することで,文全体の意味を考慮した翻訳を行うことができる.具体的には,対訳学習文に,以下に示す対訳句を追加学習する。 ・日本語句: 我を通した - 英語句:had his own way 対訳学習文に対訳句を追加することで,翻訳精度が向上すると考えられる。 ## 3 提案手法 本研究では,対訳学習文から抽出した対訳句を,対訳学習文に追加する.対訳句追加の流れを図 1 に示し、手順を以下に示す. 図 1. 対訳句追加の流れ 手順 1 対訳学習文と, 対訳学習文から抽出した対訳句を組み合わせて,新たな学習データを作成する。 手順 2 手順 1 で作成した学習データを用いて NMT のモデルの学習を行う. 手順 3手順 2 で学習したモデルを用いて日英ニューラル機械翻訳を行う。 ## 4 実験 ## 4.1 対訳学習データ 本研究では,実験データとして日英重文複文コー パス [1] から抽出した単文を用いる. 対訳学習デー タの内訳を表 1 に,対訳学習文の例を表 2 に示す. 表 2. 対訳学習文の例 入力文 $1:$ 星印のノートを買った。 出力文 1:I bought a star brand notebook. 入力文 $2:$ この動物園には、コアラがいます。 出力文 2:There are koala bears in this zoo. 入力文 3 : 彼は、この会社の主要な人物である。出力文 $3: \mathrm{He}$ is a central figure in this company. ## 4.2 対訳句 本研究の対訳句は,対訳学習文から自動抽出したものを用いる. (森本 [2] 参照) 正答率は $95 \%$ である. 対訳句の例を表 4 に示す. 表 3. 対訳句データの内訳 $ \text { 対訳句 } 41926 \text { 句 } $ 表 4. 対訳句の例 ## 4.3 評価実験 本研究では、NMT の学習データに対訳学習文のみを用いる手法 (以下,ベースライン) と,対訳学習文に対訳句を追加した学習データを用いる手法 (以下,提案手法) を比較する。 評価方法として,自動評価と人手評価を行う,自動評価では実験で得られた 16328 文の出力文に対して,4つの自動評価指標 (BLEU,METEOR,RIBES, TER) で評価を行う. 人手対比較評価では, 出力文 16328 文より無作為に抽出した 100 文に対して,正確性に基づいて対比較評価を行う. ## 5 実験結果 ## 5.1 自動評価 出力文 16328 文において,提案手法とベースラインの自動評価の結果を表 5 に示す. 表 5. 自動評価結果 表 5 より,自動評価の結果では,提案手法の翻訳精度が高いことが確認できる. ## 5.2 人手評価 出力文 16328 文から無作為に抽出した 100 文に対して人手評価を行った. 人手評価は,提案手法とベースラインとの対比較評価である.評価者は 5 名である。結果を表 6 に示す. 表 6 の結果は, 5 名が同じ 100 文を評価し,その結果をまとめた. また,評価の説明を以下に示す. ## - 提案手法 $\bigcirc$ 提案手法とベースラインを比較した際,対訳句追加時の出力文の方が入力文の意味に近い. ## ・ベースライン $\bigcirc$ 提案手法とベースラインの比較した際,ベー スラインの出力文の方が入力文の意味に近い. ## ・差なし 提案手法とベースラインを比較した際,両手法の出力文の評価には差がない. $\cdot$同一 提案手法とベースラインを比較した際,両手法の出力文がほぼ同じである. 表 6. 人手対比較評価結果 表 5 より,提案手法とベースラインを比較して,提案手法の方が翻訳精度が高いことが確認できる。 ## 5.3 人手評価例 ベースラインと提案手法との対比較評価において,提案手法○とした例を表 7 に,ベースラインとした例を表 9 に,差なしの例を表 10 にそれぞれ示す. ## 5.3.1 提案手法 $\bigcirc$ の例 表 7. 提案手法○の例 \\ 表 6 の例において,入力文中の語句「静寂」に対して,ベースラインでは相当する翻訳が得られていない。一方,提案手法では比較的正しい出力「stillness」を得られている. 表 7 で使用した対訳句を表 8 に示す. 表 8 . 使用した対訳句 森の静寂の中 quietude of the woods かすかなa aint 音 noise 聞こえた heard 5.3.2 ## ベースライン $\bigcirc の$ 例 表 9. ベースライン○の例 \\ 表 9 の例において,提案手法では一部しか翻訳できていない。一方,ベースラインでは比較的正しい出力文を得られている。 ## 5.3.3 差なしの例 表 10. 差なしの例 表 10 の例において,ベースラインおよび提案手法に入力文中の語句「輸出入業」に対する出力が得られていない.このことから,どちらも翻訳ができていないと判断して差なし判定とした。 ## 6 考察 ## 6.1 対訳句の正答率に対する翻訳精度の 変化 本研究で用いた対訳句の正答率は,95\%である. この精度が低下したときの,翻訳精度の変化を調査した. 本実験の対訳句の正答率を $100 \%$ と仮定して,正答率を 50\%,75\%,90\%に設定した.表 11 に自動評価の結果を示す. 表 11. 正答率変更後の自動評価結果 表 11 より対訳句の正答率を下げた場合,翻訳精度が下がることを確認した。 $75 \%$ まで下げた場合,翻訳精度がベースラインより低下している。 ## 6.2 初期値の変更 NMT は,初期値によって翻訳精度が変化する。本節では,提案手法と別の初期値を用いて翻訳した. 結果を表 12 に示す. 表 12. 初期値変更後の自動評価結果 表 12 より,初期値を変更すると,翻訳精度が変化していることがわかる。しかし,表 11 と表 12 を比較すると,ほぼ同じ傾向があることがわかる。つまり,対訳句の正答率が低いと翻訳精度は向上しない. ## 6.3 対訳句追加による効果 本実験の結果として,対訳句を追加ことで翻訳精度が向上することが確認できた. しかし, 対訳句の正解率を $75 \%$ もくは $50 \%$ まで下げた場合,対訳句追加前の翻訳精度を下回ることを確認した. このことから翻訳精度の向上には, 高精度な対訳句を追加する必要があると推察される. ## 6.4 関連研究 ## 6.4.1 PBSMT に対訳句を追加 本論で述べた手法と似た手法を用いる機械翻訳に, 句に基づく統計機械翻訳 (Phrase-Based Statistical Machine Translation;PBSMT) がある。(日野 [3])日野は,日英翻訳において PBSMT を用いて翻訳精度の向上に成功している. なお, 日野の研究結果と本論の研究結果から, NMT の翻訳精度は PBSMT と比較して対訳句の精度による影響が大きいと推察される。 ## 6.4.2 複文での調査 本研究の関連研究として, 今仁 [4] の研究を挙げる. 今仁は本論で述べた実験を, 自動で作成した対訳句と人手で作成した対訳句で比較を行った. その結果として,高精度かつ多量の人手対訳句を用いた翻訳が精度が高いことが確認できた. また, 本論で述べた研究は単文で行ったが,今仁は複文で行っていた。複文で行った場合,人手評価が不安定になる問題点がある. ## 7 おわりに NMT の翻訳精度は人手の翻訳には及ばないことが問題となっていた.そこで,本研究では,対訳学習文から作成した対訳句を,対訳学習文に追加する手法を提案した. 実験の結果,自動評価および人手評価ともに,提案手法の有効性が確認できた。一方で,対訳句の精度が低下した場合,翻訳精度はべー スラインより低くなることが確認できた。翻訳精度が向上した理由は,対訳句を追加することで,語句の対応情報が強化されたと考えられる.今後はより人手の翻訳精度に近づける手法を検討し,さらなる翻訳精度の向上を試みたい. ## 謝辞 人手評価には,以下 5 名の学生の協力を得ました. 感謝いたします. (新田玲輔,矢野貴大,齋藤永, 森唯人, 柳原弘哉) ## 参考文献 [1] 村上仁一, 藤波進. 日本語と英語の対訳文対の収集と著作権の考察. 第一回コーパス日本語学ワークショップ,pp.119-130, 2012. [2] 森本世人, 村上仁一. 類似度を利用したb 変換テーブルの精度向上. 2021 年度鳥取大学卒業論文, 2021. [3] 日野聡子, 村上仁一, 徳久雅人, 村田真樹. 日英統計翻訳における対訳句コーパスの効果. 言語処理学会台 19 回年次大会,pp.556-559, 2013. [4] 今仁優希, 村上仁一.日英ニューラル機械翻訳における対訳句の追加. 言語処理学会台 26 回年次大会,pp.169-172, 2020.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH1-13.pdf
# パッセージ検索と含意関係認識による 議会議事録を対象としたファクトチェック 我藤勇樹秋葉友良 豊橋技術科学大学 情報・知能工学課程 gato.yuki.am@tut.jp akiba@cs. tut.ac.jp ## 概要 ソーシャルメディアなどで真偽不明の情報が拡散されることが増加しているため、真偽不明の情報を検証することの必要性が高まっている。本研究では、 NTCIR-16 QA Lab-Poliinfo-3のFact Verification タスクに則り、議会議事録を対象としたファクトチエックを行う。パッセージ検索と含意関係認識を用いることで、NTCIR-16のFormal Runで参加チーム中トップの成績を達成した。 ## 1 はじめに 近年、デマの拡散がオンライン上で加速していることが報告されている。真偽不明の情報が広がることにより、社会に深刻な影響を及ぼす可能性がある。 このような状況に対して、NTCIR-16 QA Lab-PoliInfo-3 ${ }^{1}$ では、Fact Verificationタスクが開催された。 このタスクでは、与えられた要約の事実性を議会議事録で実際に議論されているかで判定する。また、事実であると判定した場合、その根拠となる発言部分を議会議事録から特定する。要約を議会議事録の一部に関する主張と捉えると、議会議事録を対象としたファクトチェックと考えることができる。 本研究では、Fact Verificationタスクに則り、議会議事録を対象としたファクトチェックを行う。まず、検索手法により、議会議事録の中から主張に関連するパッセージを特定する。そして、主張と検索したパッセージを用いて、含意関係認識により主張の真偽を判定する。また、主張が真である場合、根拠文として主張に関連する箇所を議会議事録から抽出する。本手法を用いてFact Verificationタスクに結果を提出したところ、参加チーム中でトップの成績を達成した。 ## 2 関連研究 現在、ファクトチェックの多くは信頼できるファクトチェック機関により人手で行われている。しかし、誤った情報や偽の情報は、正しい情報よりも拡散されやすいという性質がある。そのため、情報の真偽の検証には早さが求められている。 Hansenらは、フェイクニュースや都市伝説を対象とした自動ファクトチェックについて調査している [1]。真偽不明の主張に対して、Webを外部知識としてGoogle検索で根拠を取得し、古典的な機械学習モデルや事前学習モデルを用いてファクトチェックを行なっている。 また、Wikipediaをドメインとしたファクトチェックのワークショップ[2]も開催されている。このワー クショップでは、Wikipediaの記事に関する主張について、Wikipedia記事を根拠にファクトチェックを行う。結果として、事前学習モデルを用いたファクトチェックモデルが優れた結果を達成している。 ## 3 提案手法 本研究では、パッセージ検索と含意関係認識を用いてファクトチェックを行う。まず、パッセージ検索により特定のパッセージを検索する。そして、主張と検索したパッセージを用いて含意関係認識を行う。主張が真である場合、議会議事録から根拠を抽出する。 ## 3. 1 パッセージ検索 主張が真である場合、その主張は議事録の特定のトピックについて述べたものである。そのため、主張の真偽を判定するためには、そのトピックの箇所を議会議事録から特定する必要がある。  本研究では、検索するパッセージの単位をセグメント単位と文単位とする。セグメント単位では、まず、表1に示す正規表現を用いて、議会議事録の中でトピックが切り替わる箇所を特定する。具体的には、開始表現に該当する文と終了表現に該当する次の文をセグメントの開始文とする。その後、各セグメン卜に対して主張との類似度を計算し、最も類似度の高いセグメントをパッセージとする。この際、議会議事録上で連続するセグメントは結合したものもセグメントと呼び、セグメントの連続も検索対象とした。文単位では、議会議事録の各文に対して主張との類似度を計算し、類似度の上位 $\mathrm{n}$ 文をパッセージとする。 主張とパッセージの類似度検索における計算には、 BM25+を用いる方法と sentence-BERTによるembeddingのコサイン類似度を使う方法の2手法を試した。 BM25+[3]は、クエリを含む長い文書より、クエリを含まない短い文書の方がスコアが高くなるという BM25の問題点を解決したランキング関数である。 BM25+の式は以下のようになる。 $ \begin{aligned} & \operatorname{score}(D, Q)=\sum_{i=1}^{n} I D F\left(q_{i}\right) \\ & \cdot\left[\frac{f\left(q_{i}, D\right) \cdot\left(k_{1}+1\right)}{f\left(q_{i}, D\right)+k_{1} \cdot\left(1-b+b \cdot \frac{|D|}{a v g d l}\right)}+\delta\right] \\ & \operatorname{IDF}\left(q_{i}\right)=\log \frac{N-n\left(q_{i}\right)+0.5}{n\left(q_{i}\right)+0.5} \end{aligned} $ sentence-BERT(以下、SBERT)は、事前学習済み BERTを文書ベクトル化用にファインチューニング し、pooling層を追加したモデルである。 表 1 セグメンテーションに用いる正規表現 ## 3. 2 含意関係認識 一般的な含意関係認識では、2文の間に含意関係が成立するかどうかを判定する。本研究では、主張が真であるならば、その主張で検索したパッセージは主張を含意すると仮定する。これにより、含意関係認識を用いて主張の真偽を判定することができる。 図1に本研究で提案するファクトチェックモデルを示す。まず、主張文を用いて、パッセージ検索により議会議事録から関連するパッセージを抽出する。 その後、主張とパッセージをセパレータで結合し、 ファインチューニングした日本語学習済みモデルで含意関係認識を行う。 日本語学習済みモデルには、BERT、RoBERTa、 BERT+biLSTMの3種類のモデルを用いる。BERT[5] は、Transformerをベースにしたエンコーダであり、事前学習としてMasked Language ModelとNext Sentence Predictionを学習している。RoBERTa[6]は、 BERTの派生モデルで、Next Sentence Predictionを学習しないなど改良を加え、性能向上を図ったモデルである。 図2に、BERT+biLSTMモデルを示す。BERTモデルとRoBERTaモデルでは、主張文とパッセージ全文のペアを入力する。それに対し、BERT+biLSTMモデルは、主張文とパッセージの1文ずつをぺアとし、全てのペアを1つずつ入力する。そして、全ての[CLS]の埋め込みをbiLSTM[7]に入力し真偽を判定する。 図 1 ファクトチェックモデル 図 2 BERT+biLSTMモデル ## 4 実験 提案手法の有効性を検証するため、以下の評価実験を行う。 ## 4. 1 データセット 本実験では、NTCIR-16 QA Lab-PoliInfo-3 Fact Verificationタスクで配布されたDry Runの学習デー タを用いる。表2にデータセットのフォーマットと例を示す。このタスクでは、平成 23 年から平成 27 年の間に開催された東京都議会を対象としている。要約には、東京都議会により人手で作成された「都議会だより」を用いている。 データ数は 1,024 件であり、学習用、検証用、テスト用に7:1:2の割合で分割する。また、データの属性のうち、Date、Speaker、UtteranceSummaryのみ用いる。 表 2 データセットのサンプル \\ ## 4. 2 共通設定 パッセージ検索における検索手法について、 BM25+では、 $k_{1}=1.2 、 b=0.75 、 \delta=1.0$ とする。 SBERTでは、Hugging Faceを用いて東北大学の乾研究室が公開しているBERT-base ${ }^{2}$ 利用する。 SBERTは、議会議事録から作成した115,750件の学習データでファインチューニングを行う。また、類似度の計算にはコサイン類似度を用いる。 パッセー ジ単位について、文単位では、予備実験より $\mathrm{n}=7$ とする。 含意関係認識モデルについて、BERT-baseモデルとBERT-largeモデルでは、東北大学の乾研究室が公開しているモデルを利用する。RoBERTa-base3モデルでは、rinnaが公開しているモデルを利用する。 これらのモデルは、820件の学習データで含意関係認識用にファインチューニングを行う。 主張が真である場合、根拠文の抽出を行う。具体的には、表1の正規表現で議会議事録をセグメントに分割し、主張文をクエリとしてBM25+で最も類似度の高いセグメントを抽出する。 ## 4. 3 評価指標 評価指標は、recall、precesion、F值とする。以下に、主張が真の場合の評価指標の式を示す。主張文が偽の場合は、真偽判定の結果が正解ならrecallと precisionを1、不正解なら0とする。 recall 正解の根拠文の数 precision 予測した根拠文のうち正解した根拠文の数 予測した根拠文の数 ## 4.4 パッセージ検索手法の比較実験 パッセージ検索手法において、各検索手法と各パッセージ単位の比較を行う。 ## 4.4. 1 比較手法 検索手法は、BM25+とSBERT、パッセージ単位は、主張文との類似度上位1セグメントと類似度上位7文とする。含意関係認識モデルには、BERTbaseを用いる。 ## 4.4. 2 結果 表3に実験結果を示す。結果より、検索手法は BM25+、パッセージは類似度上位7文を用いる手法が最も高いF值であることがわかった。 表 3 パッセージ検索の比較結果 } & recall & precision & $F$ \\ \cline { 2 - 6 } & 上位7文 & BERT-base & $\mathbf{0 . 9 0 4 8}$ & $\mathbf{0 . 9 3 3 6}$ & $\mathbf{0 . 9 0 8 0}$ \\ \cline { 2 - 6 } & 上位7文 & BERT-base & 0.8742 & 0.9021 & 0.8770 \\ $ ///huggingface.co/cl-tohoku }^{3} \mathrm{https}: / /$ huggingface.co/rinna ## 4. 5 含意関係認識モデルの比較実験 含意関係認識モデルについて比較を行う。 ## 4.5. 1 比較手法 検索手法はBM25+、パッセージは類似度上位7文とする。含意関係認識モデルは、パッセージ全文を入力するモデルであるBERT-base、BERT-large、R -oBERTa-baseとする。パッセージの1文ずつ入力するモデルでは、BERT-baseモデルを用いて、[CLS]埋め込みを全て連結するBERT+biLSTM(連結)モデル、[CLS]埋め込みの平均を用いるBERT+biLSTM (平均)モデル、biLSTMを取り除き全結合層で分類を行うBERT+LSTMなしモデルとする。 ベースラインモデルとして、主張文の全ての名詞が、話者の発言に存在するかどうかで判定するルー ルベース手法を用いる。 ## 4. 5.2 結果 表4に実験結果を示す。結果より、BERT-largeモデルが最もF值が高いことがわかった。ルールベース手法であるベースラインと比較して、 $\mathrm{F}$ 值で約 +0.18 を達成した。BERT-baseとRoBERTa-baseを比較すると、僅かにBERT-baseの方がF値が高い。これは、 RoBERTaではNext Sentence Predictionを学習していないのに対して、BERTでは学習しているためだと考えられる。 図3に、ルールベース手法では正解できなかった負例を示す。これらの例は、BERT-largeでは全て正解できている。主張文の名詞が話者の発言に全て存在する場合でも、BERTでは意味を捉えて分類できている。 表 4 含意関係認識モデルの比較結果 } & \multirow{2}{*}{ recall } & \multirow{2}{*}{ precision } & \multirow{2}{*}{ F } \\ $ \begin{aligned} & \text { 地域連携クリティカルパスの活用促進や医療機関相互の連携体制を確保。 } \\ & \hline \text { 研修会等で支援センター活用を働きかける。支援策充実を働きかける。 } \\ & \hline \text { 東京都では昭和五十六年以前の旧耐震基準で建てられたマンションが多い。 } \\ & \text { 今回の会議で知事が検討する議論は、今、後行われる東京緊急対策二○一の一つにあたり、 } \\ & \text { 東京都のマンション耐震化促進については否定するものと考えられる。 } \end{aligned} $ 図 3 ルールベース手法で不正解だった負例 ## 5 おわりに 本研究では、議会議事録を対象として、パッセー ジ検索と含意関係認識を用いたファクトチェックの研究を行なった。結果として、BM25+で類似度上位 7文を検索し、BERT-largeモデルで含意関係認識を行うことで、ルールベース手法と比較してF値で約 +0.18の結果を達成した。 今後の課題として、ソーシャルメディアやニュー スなどのファクトチェックに適用できるかどうか調査していきたい。 ## 謝辞 本研究は、JSPS科研費19K11980および18H01062の助成を受けた。 ## 参考文献 [1] Casper Hansen, Christian Hansen, and Lucas Chaves Lima. 2021. Automatic Fake News Detection: Are Models Learning to Reason? Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Short Papers), pages 80-86. [2] James Thorne, Andreas Vlachos, Christos Christodoulopoulos, and Arpit Mittal. 2018. FEVER: a large-scale dataset for fact extraction and verification. In Annual Conference of the North American Chapter of the Association for Computational Linguistics (NAACL-HLT), pages 809-819. [3] Yuanhua Lv and ChengXiang Zhai. Lower-bounding term frequency normalization. In Proceedings of CIKM'2011, pages 7-16. [4] Nils Reimers and Iryna Gurevych. 2019. sentenceBERT: Sentence Embeddings using Siamese BERT-Networks. Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pages 3982-3992. [5] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2019. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 4171-4186. [6] Yinhan Liu, Myle Ott, Naman Golyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. 2019. Roberta: A robustly optimized BERT pretraining approach. CoRR, abs/1907.11692. [7] Sepp Hochreiter and Jurgen Schmidhuber. 1997. Long short-term memory. Neural computation, 9(8):1735-1780.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH1-14.pdf
# ツイート感情分析タスクにおける BERT を用いたデータ蒸留によるラベル偏りの改善 山城颯太 ${ }^{1}$ 山下達雄 ${ }^{1,2}$ ${ }^{1}$ ヤフー株式会社 ${ }^{2}$ Yahoo! JAPAN 研究所 \{soyamash, tayamash $\}$ @yahoo-corp. jp ## 概要 Yahoo!リアルタイム検索iではユーザによって検索されたツイート群に対して感情の極性判定を行い, その統計結果を示す感情分析機能を提供している.本研究ではこの感情分析機能のシステム刷新に伴って発生したアノテーション済み学習データのラベル偏りの問題と, これに対して行った BERT を用いたデータ蒸留によるラベル偏り改善の取り組みについて報告する。 ## 1 はじめに ユーザによって生成されたコンテンツ(UGC)に対して感情の極性を判定することによって,すでに提供されているサービスの内容に新たな付加価値を提示し,よりユーザにサービスへの興味を持ってもらうことができると考えられる。 その具体的な事例の一つとして, Yahoo!リアルタイム検索がある. 本稿ではこの感情分析機能の刷新に伴って発生したアノテーション済み学習データのラベル偏りの問題と, それに対して行った BERT を用いたデータ蒸留の取り組みについて報告する. ## 1.1 リアルタイム検索と感情分析 Yahoo! リアルタイム検索はインターネットで広く使われている代表的な SNS である「Twitter」のツイートを対象として始まった検索サービスである。 2011 年 6 月にサービスが開始され, 現在も継続して運用されている. 検索以外に, その時々のバズトピックとそれに対する感情分析情報を提供する機能がある,バズトピックは,ツイートに含まれる,一定時間内に急激に頻度が増大したキーワード(トレンドワード)をべ一スに自動的にまとめられる。バズトピックに含まれるツイートの感情ラベルを集計した「感情の割合」 も提示される.感情ラベルは検索対象となるツイー トすべてに対し,感情分析機能により自動付与される(個別ツイートの感情ラベルは現在ユーザには提示されない)。 本稿では,置き換え対象(比較対象)である感情分析機能を「旧モデル」と呼ぶ。旧モデルは文献[1] のものが基本となっているが,正解ラベル付きツイ一トの使用量や細かなロジックなど若干の変更はある. ## 2 データセット 本研究で使用した正解ラベル付きツイートは,リアルタイム検索でトレンドワードとして選ばれた検索語を含むツイートから抽出し, それらに感情ラべル(ポジティブ・ネガティブ・ニュートラル)を 3 人のアノテータが付与したものである。作成時期とラベル決定方法の異なる 2 つのデータセットがある. - データセット 1: 約 5 万件. ツイートの時期は 2013 年ごろ. アノテータ 3 人の付与したラベルが一致したツイートのみを用いる。主に学習データとして用いた. - データセット 2: 約 800 件. ツイートの時期は 2020 年前半. 主に評価データとして用いた. データセット 2 には約 50 のトレンドワードが含まれる。それぞれのトレンドワード(トピック)に対してアノテータがそのトレンドワードを含むツイ一トを見て感情ラベルを付与している。 ^{i}$ https://search.yahoo.co.jp/realtime } 判定数の分布 正解旧モデル新モデル 図 1 モデルごとの出力ラベル比率 ## 3 ラベル偏りの問題 データセット 1 を学習データとし, ポジティブ・ ネガティブ・ニュートラルを出力する多クラス分類モデルを作成した。これを「新モデル」と呼ぶ. ここでは推論速度とメモリ使用量の観点からシンプルな形態素ベースの線形分類器を採用した。作成されたモデルでデータセット 2 の各ツイートにラベル付与し,精度評価を行ったところ,旧モデルと同等の精度を達成した. しかしその一方で, Recall 不足が確認された. この原因についての考察を以下に述べる. ## 3.1 モデルごとのラベル出カの偏り 図 1 にデータセット 2 のツイート群に対する旧モデルと新モデルの出力ラベルの比率を示す. 一番左の棒群は人手で付けられたアノテーションラベル (正解)であり,ここではポジティブ・ニュートラル・ネガティブの比率が大体等しくなるようツイー トが収集されたことがわかる. 中央の棒群は, 同じツイート集合に対する旧モデルの出力ラベルの比率を示している. 人手ラベルの分布と比べて少々ネガティブの出力数が多いが,比較的人手ラベルと似たラベル比率である.ただし, ここでは人手ラベルとの一致(正誤)は見ず,あくまで出力されたラベルの比率だけに着目していることに注意されたい。 一番右の棒群が新モデルの出力ラベル比率である.一目でわかるように, ニュートラルの出力数がずば抜けており,ツイート全体の約 $75 \%$ 占めている (Recall 不足)。これは明らかに均等な出力とは言えない. ## 3.2 学習データのラベルの偏り 3.1 節で述べた問題が起きた理由を我々は精査し, その原因が今回使用した学習データにあるという仮説を立てた。 データセット 1 の約 5 万件のツイートに付けられた人手ラベルを改めて観察したところ, ポジティブ・ ニュートラル・ネガティブの比率が大体 1:5:1 になることがわかった. つまりモデルの側からしてみれば,与えられたツイートに対して無条件にニュートラルさえ出力しておけば,ツイート内容を考慮せずとも 5/7(約 71\%)の確率で正解できてしまうということになる.そのためモデルは自身の Accuracy を上げるために,出力すべきラベルの確信が持てないツイートに対してはニュートラルを比較的多く出力するようになる,実際,改めて図 1 を見直すと,新モデルの出力比率は 1:5:1 に近そうに見える。この偏りは,学習データ中のラベル出現比率を過学習してしまった結果だと言える. ## 3.3 アノテーションの難しさ ではそもそもなぜ,今回の学習データはそのような偏りの大きいラベル比率(imbalanced data) になってしまっているのか. もちろん, Twitter 中の真のラベル比率自体が偏りを抱えていることも原因の一つであると考えられる。 しかし今回使用している学習データは真のラベル比率以上の偏りを抱えているように見受けられた。 そしてその大元をたどれば, ツイートの印象を推定するというタスクそのものの難しさに原因があると言える。 たとえば,「今日のお昼はカレーだった。大盛り無料で嬉しかった。だけど最後まで食べきれず残念 …‥というツイートのラベルは何かを考える。一文目だけなら出来事を報告しているだけなのでニュ ートラル.二文目も含めて読むなら「嬉しかった」 と言明しているのでポジティブ. しかし三文目まで着目すると「残念」と言明しているのでネガティブ. このように,一つのツイート中にさまざまな印象が入り乱れている.ここに挙げたツイートは作例だが, これと同様に Twitter には皮肉や自虐など判定の難しいツイートが多く含まれている。また絵文字や感嘆符など,その包含によってツイートの印象が大きく変わる文字も多く出現する. この難しさは人手で正解ラベルを付ける場面にも直接影響している。今回は学習データとしてデータセット 1 の約 5 万件のツイートを用いていたが,これはもともと約 25 万件のツイートそれぞれに 3 人の人間によって正解ラベルが付けられたのち, 3 人とも同じラベルを選んだツイートのみを集めたものである。 つまり残りの約 20 万ツイートについては, 3 人の付けたラベルが完全一致しなかったということである. その結果, 集められた約 5 万件のツイートについては,『複数人の人手ラベルが一致しやすいデータ』 というサンプル選択の偏り(sample selection bias)が掛かっていると考えられる。その偏りが,このデー 夕を用いて学習させたモデルの予測結果において,出力ラベルの極端な比率として現れたのだと考えられる。 ## 4 対処手法 3 節で述べた問題に対して,我々は BERT を用いたデータ蒸留によるオーバーサンプリングを行うことで対処した. BERT とは Transformer ベースの事前学習済み言語モデルであり, 目的タスクに応じて追加で fine-tuning を行う手法である [2]. これを用いた我々の対処手法の詳細を以下に報告する。 ## 4. 1 オーパーサンプリング 偏りの大きいラベル比率(imbalanced data)に対するシンプルな手法としてはオーバーサンプリングが考えられる.これは比較的量が少ないラベル (今回の例で言えばポジティブとネガティブ)のデータを改めて収集・追加することで,学習データ中のラベル比率を調整する手法である. しかし,ここでデータを追加するということはすなわち, 新たに集めたツイートに対して追加で人手ラベルを付与する必要があるということである. 数万件のラベル付けとなればその人手コストは無視できないほど甚大なものになる. ## 4. 2 BERT を用いたデータ蒸留 そこで我々は,BERT を使用することで,このラベル付け作業を自動化した. 我々が BERTを用いた手順は以下のようになる. (1)まず,手元にある約 5 万件のデータを用いて BERT を学習させる。(2)次に,新たに収集したツイート約 200 万件に対して BERTによる推論を行い, 図 2 データ追加後の出カラベル比率 ここで付与されたラベルを擬似的な正解ラベルと見なす.(3)それから,BERTによって付けられたラベルがポジティブ・ネガティブであるツイートをそれぞれ数千数万件ずつ集め, もともとの約 5 万件の学習データに追加する。(4)最後に,この新たな学習データを用いて我々のモデルを学習させる. この一連の手順(この手法はデータ蒸留[3] と呼ばれている)を踏むことで,我々の新モデルはもともとの学習データに含まれていたラベル偏りの影響を大幅に軽減することができた. ## 5 比較評価 ## 5.1 出カラベルの比率の改善 実際にどれほど出力ラベルの比率が改善されたかを図 2 に示す. 一番左の棒群は,ランダムにサンプリングした 1,000 ツイートに対する置き換え対象のモデル (旧モデル) の出力ラベルの比率を示している. 左から二番目の棒群は,同じツイート集合に対する何も手を加えていない今回新たに作成したモデル (新モデル) の出力ラベルの比率を示している. 右から二番目の棒群は新モデルの学習データにポジティブと判定されたツイートを 4,000 件,ネガティブと判定されたツイートを 4,000 件追加した時の出力ラベルの比率を示している。一番右の棒群は新モデルの学習デー タにポジティブと判定されたツイートを 60,000 件, ネガティブと判定されたツイートを 15,000 件追加した時の出力ラベルの比率を示している。学習デー タにおけるポジティブ・ネガティブツイートの量を増やせば増やすほど,よりニュートラルの出力が減り,代わりにポジティブ・ネガティブの出力が増えていることがわかる. この出力ラベル比率の改善は最終的な精度の改善に直結するものと考えられる。 ## 5.2 自動評価の限界 では実際のところ,どれほどの擬似ラベル付きデ一タを追加すればいいのか。一つの案として,学習データの一部をあらかじめテストデータとして確保しておき,このデータに対する自動評価スコアが最大になるような追加量を求めることが考えられる. しかし,おそらくこの部分データ自体もラベル偏りを含んでいるため,必ずしも正確な評価ができるとは限らない. 理想的には, Twitter 中の真のラベル比率をどうにか観測し,これと一致するように訓練デ一タの比率を調整したい。しかし,そもそもツイー 卜に対して付けられる人手ラベル自体がほとんど一致しないため, 真のラベル比率はどうしようとも正確に観測できるものではないと考えられる. ## 5.3 人手モデル選択・トピック単位評価 そこで我々は人手での評価に基づいてこのデータ追加量を決めた. 具体的には $1,000 \sim 5,000$ 件刻みでデータ量を変化させたモデルを約 60 種類用意した. このらち最も人間の感覚と近い出力ができていそうなモデルを 5 種類選出し, これらを用いて最終的な決定のためにトピック単位の比較評価を行った. 各モデル出力の評価にはデータセット 2 のトピック単位の正解ラベルを用いた。これはサービスの利用実態に近い形にするためである. ツイートごとに自動付与された感情ラベルをトピックごとに集計し,一番頻度が高いものをそのトピックの感情ラベルとし,これをトピックの正解ラベルと比較することで精度を出した. 表 1 に今回のいくつかのバリエーションと旧モデルによるトピック単位の Accuracy を挙げる. 最終的には,ポジティブ (P) 60,000 件, 二ユートラル (O)2,000 件, ネガティブ(N)45,000 件のデータ追加を行った新モデルを採用した。 ## 6 おわりに 本稿では Yahoo! リアルタイム検索の一機能である感情分析機能の刷新に伴って発生したアノテーシヨン済み学習データのラベル偏りの問題と, それに対して行ったオーバーサンプリングの取り組み,その評価に際して行った人手でのラベル比率の調整, トピック単位評価について報告した.表 1 トピック単位の評価結果 本稿で示された手法は,BERT を教師モデルとするデータ蒸留によって, 従来のオーバーサンプリングに必要とされる人手アノテーションのコストを大幅に下げ,かつ柔軟なラベル比率の調整を可能としたものである. 今回報告した範囲では,あくまで簡易な比較評価のみを行っており,より高性能なモデルとの比較や詳細な評価・分析はまだ十分に行えていない. しかし,実際にサービスに提供した範囲では,旧モデルと比べて遜色ない Precision・Recall・速度を示しており,もとの目的であったモデル刷新の観点では十分な性能を示している. ## 参考文献 1. ヤフージャパンのリアルタイム検索における感情分析. 野畑周, 内藤弘朗, 清水徹. 第 5 回テキストマイニング・シンポジウム, 2014. 2. Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of NAACL-HLT, 2019, pp. 4171-4186. 3. Ilija Radosavovic, Piotr Dollár, Ross Girshick, Georgia Gkioxari, and Kaiming He. Data Distillation: Towards Omni-Supervised Learning. In Proceedings of CVPR, 2018, pp. 4119-4128.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH1-15.pdf
# 階層化された論文情報とユーザ発話の埋め込みに基づく 論文推薦システム 奥田由佳 1 須藤 克仁 ${ }^{1,2}$ 品川政太朗 1,2 中村 哲 1,2 1 奈良先端科学技術大学院大学 2 理化学研究所革新知能統合研究センター \{okuda. yuka.ou0, sudoh, sei . shinagawa,s-nakamura\}@is.naist.jp ## 概要 初学者はユーザの検索意図が曖昧かつ専門知識を持たないため,既存の検索・推薦システムには適さない,そこで,階層化された論文情報とユーザ発話の2つをべクトル化することにより,効率的にユー ザの検索意図を明確化し論文を推薦するシステムを提案する.将来的には対話システムの構築を目標とし,本研究はその土台となる。 ## 1 はじめに 初学者を対象に論文を推薦する場合,広く流通している検索・推薦システムでの推薦は難しい。なぜなら,既存のシステムではユーザの検索履歴を必要とすることが多いが,初学者は検索履歴を持つことが困難だからである [1][2]. この問題へのアプロー チとして,ユーザの情報を都度取得するインタラクティブなシステムを用いる手法 [3][4][5] がある.映画の推薦タスク [6][7] では,対話データで機械学習モデルを訓練し自然な会話の中でアイテムの推薦を行う手法 (Conversational Recommender System ; CRS) が提案されている. これらの研究は対話データを必要とする研究だが,論文の推薦においては公開済の対話データが存在しない.また,論文の推薦にはスキルが必要とされるため,対話データの構築もコストが高くこの手法は現状適用が難しい. 対話データを必要としない研究は,推薦アイテム同士の関係性に基づきインタラクティブに検索意図を絞り込む手法 [8][9] がある。しかし,この手法は,複数の興味を取得することを考慮していないため「興味の取りこぼし問題」が発生する恐れがある.これは,ユーザが検索意図が曖昧な状態で複数の分野に興味を持っていた場合,ユーザの興味をシステムが無視してしまうことを指す. 例を図 1 に示 図 1 提案手法を用いたノード間の移動 す. 第 1 階層の各セルは論文に対応するノードを表し,第 2 階層の各セルは第 1 階層の論文に紐づく分野を表す。点線の矢印は,アイテム同士の関係性に基づきインタラクティブに検索意図を絞り込む従来の手法を示し,黒い矢印は提案手法を示す. 例えば,ユーザの興味が図 1 中の赤色が付いた「小説生成」と「ペルソナ対話システム」だった場合,最初に「言語生成」を選択すると「小説生成」か「俳句生成」しか推薦できず「ペルソナ対話システム」の興味を無視してしまう.全ノードを確認することでこの問題は解決できるが,ユーザに多大な時間を使うことを強いる.そこで,アイテムの階層的知識をベクトル化し階層を跨いだノード間の移動を可能にすることで,効率的なノードの移動を可能にし興味の取りこぼしを起こしにくい手法を提案する。 ## 2 関連研究 推薦システムの代表的な手法に協調フィルタリング [1][10] がある.しかし,協調フィルタリングはユーザの検索履歴を必要とし,検索履歷をもたない初学者には適さない. 対して検索履歴を必要とせずユーザの情報をインタラクティブに都度取得する研究は, CRS [6][7], Conversational Search [5], Interactive Information retrieval (IIR) [3][4] などがある. CRS に関する研究では, Chen らがアイテムの情報やアイテム同士の関係を考慮したシステムを提案している [6]. この研究では,アイテムの関係性と 対話の戦略を相互利用できるように教師あり学習によってモデルを構築する. しかし, 階層的関係性や検索意図の明確化に着目したものではなく,これらに関する知見は明らかになっていない。 また,学習に対話データを必要とし, 対話データの取得が困難である論文を対象にした推薦システムには現状適応できない. 検索意図の明確化に関する研究には鈴木らの研究 [8] がある. この研究ではアブストラクトに含まれる単語の共起性を用いたクラスタリングと選択型の質問を用いて,各論文に対するユーザの興味度であるスコアを計算している。しかし,複数分野に跨る興味の取得を目的にしたモデルにはなっておらず,興味の取りこぼしを起こす恐れがある。また,論文をユーザに複数提示しその選択結果を使用するが,初学者には論文は理解しにくく,選択の判断が難しいという懸念点がある. ## 3 提案手法 ## 3.1 提案システムの概要 「興味の取りこぼし問題」を解決するための提案手法の仮説を述べる. 提案手法では,構造的知識において階層を親から子へと下がっていくことを基本としながら,子から親ノードへの上方向への移動や違う根を持つノードへの移動など,あるノードから全ノードへの効率的な移動を可能にすることで 「興味の取りこぼし問題」が解決できると仮説を立てた. 例えば図 1 の場合,黒矢印のように,「小説生成」から「対話システム」や「ペルソナ対話システム」へ移動が可能ならば取りこぼしは解決できる. あるノードから全ノードへの移動を可能にするために,ユーザからのフィードバックと,階層的知識の各ノードの表現の仕方に工夫を加えた. ユーザのフィードバックについて,既存の研究では鈴木ら [8] のように提示した選択肢に対するユーザの選択結果を使用する研究が多い. 対して, 提案手法では,ユーザのフィードバックを発話の形で得ることで,より広いユーザの興味を取得可能にする. そして, ユーザ発話と階層的知識の各ノードをべクトル化することで,階層を跨いだノード間の移動を可能にし,興味の取りこぼしを起こしにくくする。提案手法を用いた具体的な対話例を図 2 に示し,また具体的な手順を以下に記す。 図 2 提案手法を用いた具体的な対話例 1. 前処理として,与えられた階層的知識の各ノー ドをベクトルで表現する. 2. ユーザに対して複数キーワードを提示し,ユー ザの選択したキーワードを得る. 3. キーワードを選択した理由を問い,ユーザ発話取得する。このとき,取得した発話もべクトル化する. 4. ベクトル化したユーザ発話と, ベクトル化した各ノードで構成された階層的知識を照らし合せて,各ノードのスコアの計算を行う. 5. スコアの計算結果をもとに,ユーザに最適な論文を推薦する. 6. 手順 2 から 5 で 1ターンとみなし, 繰り返すことでユーザの意図を明確化する。 以降では, 前処理の階層的知識の作成と提案手法の詳細を述べる。 ## 3.2 前処理:階層的知識の作成 階層的知識の作成について説明する。まず,事前に図 3 のような階層的な知識が与えられるとする.第 2 階層のノードを図 3 の「言語生成」のような研究分野に対応させ,第 1 階層を「深層学習を用いた俳句の自動生成」のような論文のタイトルに対応させる.この事前に与えられた階層的知識の各ノードをそれぞれべクトル化する.各ノードのベクトル化には,ニューラルネットワークで単語のベクトルを学習する word2vec[11]を用いる. まず,第 1 階層の各ノードをべクトル化する手法を述べる.各論文のアブストラクトから,動詞・名詞・形容詞を特徴語として抽出し,学習済みの word2 vect用いて論文ごとに特徴語のべクトルの平均を取る.これを,第 1 階層のベクトルとする. 第 2 階層のノードについては,対象のノードに紐づく第 1 階層のノードのべクトルに対する平均をとる.例えば,図 3 で表せられるように,第 2 階層の「言語生成」のノードのべクトルは,第 1 階層の「小説生成」と「俳句生成」 のベクトルの平均になる. 図 3 階層的知識のベクトル化 ## 3.3 論文の推薦機構 どの論文を推薦すべきか判断する基準であるスコアの計算方法と,スコアを元にしたキーワード生成と,スコアの更新について述べる. ## 3.3.1 スコアの計算および更新 ユーザ発話とベクトル化した階層構造を用いてスコアの計算を行う。まず,ユーザ発話のベクトルを得る. ユーザ発話の埋め込みは, 3.2 節に示したアブストラクトから論文の埋め込みを得る方法と同一の処理によって得る. 得られた発話べクトルと階層的知識の各ノードとの cosineをとり,その値をスコアとした。スコアを算出する式 1 に示す. $ \text { score }_{x}=\frac{x \cdot y}{\|x\|\|y\|} $ このとき,score $x$ はノード $x$ のスコアを示し, $x$ は各ノードを, $y$ はユーザ発話をべクトル化したものを示す,最終的に,ノードごとに 1 つのスコアが割り当てられる. また,スコアの更新は各ノードで加算し,前ターンの情報を引き継ぐ。 ## 3.3.2 キーワード生成 キーワード生成について説明する. 3.3 .1 節で算出したスコアを用いて,スコアが高い上位 3 つのノードを選択した後,各ノードに関連するキーワー ドをユーザに提示する. このとき,初学者が理解できるようなキーワードを提示するのが望ましいが,今回は階層を跨ぐノード間の移動が有益かどうかの確認が目的であるため主検討事項としなかった。第 2 階層のノードが選択された場合はセッション名を,第 1 階層から選ばれた場合は論文のタイトルをキーワードとしてユーザに提示した. また,1ター ン目のキーワードは階層的知識の最上階層のノードに対応する. 今回のモデルでは最上階層は第 3 階層であり,第 2 階層の研究分野をまとめたさらに抽象的な分野を表す. 例えば図 1 ならば,1 ターン目のキーワードは「自然言語処理」のみとなりキーワー ドの選択が一意に決定し,システムの発話は「あなたが自然言語処理に興味がある理由を教えて下さい」になる. システムはキーワードの提示からユー ザ発話の取得までを複数ターン繰り返すことで,曖昧な検索意図を明確化する。 ## 4 実験 ## 4.1 実験設定 提案システムの階層を跨いてノード移動を行う手法の有効性を検証するため,シミュレーション実験を行った。 データセット:ACL の 2020 年度の年次カンファレンスのプログラムである “Annual Meeting of the Association for Computational Linguistics (2020)(ACL2020)”を用いた. プログラムに記載されているセッション名を第 2 階層の各ノードに対応させ,論文のタイトルを第 1 階層の各ノードに対応させた. 第 2 階層のノード数は 23 , 第 1 階層のノード数は 68 となった。また,スコアの計算に利用する word2vec では,事前学習済みモデルである GoogleNews-vectors-negative301)を利用した。 仮想ユーザと比較モデル: 実験のシナリオとして潜在的に 3 つの論文に興味を持つユーザ(仮想ユーザ)を事前に 3 人分設定した。このとき 3 つの論文はランダムに決定した. 各仮想ユーザは初学者であると想定し専門的な用語を使用せず,各ユーザに設定された興味に従って著者が図 2 のようなユーザ発話を入れてシステムと 5 ターン対話した。 提案システムの階層を跨いてノード移動を行う手法の有効性を測るため,比較するシステム (ベースライン)として階層を跨ぐ機能を無効にしたシステムを用意した. ベースラインは図 2 の点線矢印のあるノードから属する子ノード  にしか移動できない挙動をする、スコアの計算は提案手法と同一であり,スコアの計算を行うノードの範囲はシステムが遷移可能なノードのみに対して行った。よって,次ノードの選択のみにスコアの計算を使用するため,スコアの更新は行なっていない. 属する子ノードが無くなった地点で,一番初めの分岐点に戻り最初に選択したノードの次にスコアの高いノードを選択する。キーワード生成としては,属するノー ドが 3 個以下の場合はそのままの個数でユーザに提示し, 3 個を超える場合はランダムに 3 つ選択して提示した。 評価指標: 事前に仮想ユーザに設定した 3 つの論文に対し,システムがどのような順位づけをしたか把握するために評価指標を導入する。評価指標として, Average Precision (AP) や RR (Reciprocal Rank) も検討したが,今回は正解アイテムを推薦できたかの精度評価が目的ではないため,独自の以下評価スコアを導入した. $ \text { 評価スコア }=\frac{\text { 論文の昇順順位 }}{\text { 論文の総数 }} $ 評価スコアは,論文ごとに算出されたスコアに基づく順位を総数で割った数であり,対象とする論文が上位何\%にあたるかを表す。スコアが低いほど,ユーザが他の論文に比べてその論文に興味を持っていることを表す. 論文の総数については全ターンの中で遷移可能だった第 1 階層のノードの総数を指す。提案手法はすべてのノードに遷移可能なため,一貫して第 1 階層のノードの総数の 68 となる. 論文の昇順順位もこの論文の総数の中で決定する。 ## 4.2 実験結果・考察 評価指標による実験結果を表 1 に示す. 表 1 中の論文 1 ,論文 2 ,論文 3 はランダムに設定した仮想ユーザが興味を持つ 3 つの論文を指し,横線が表示された箇所はシステムがスコアを取得できず,興味の取りこぼしを起こしていることを示す. ## 4.2.1 スコアの計算の妥当性 表 1 の結果から,提案手法の仮想ユーザ A の論文 1 や論文 3 など設定した 3 つの論文に対してユーザの興味が強いことを取得できている箇所が散見されることから,ユーザ発話によるスコアの計算の妥当性が示唆された。また,今回の実験では初学者を想表 1 評価指標による比較 定しユーザ発話に専門的用語などを含めていないため,ユーザが専門知識を持たなくともシステムは有効なスコアの計算を行えることが示唆された. ## 4.2.2 取りこぼし問題が解決できたか 表 1 の結果から,前提としていた「取りこぼし問題」がベースラインでは発生し,提案システムでは発生せずスコアを取得できていることから提案システムの有効性が示唆された. また,ユーザ A とユー ザ B の論文 3 に着目すると,べースラインはユー ザの興味を取得できていないが,提案システムではユーザの強い興味を取れている。このことから,提案システムではユーザの大きな興味の取りこぼしを防げることが示唆される. しかし, 仮想ユーザが興味があると仮定した論文すべてにおいて提案システムが強い興味を把握できるとは限らないことがわかった. また,ユーザ $\mathrm{A}$ の論文 1 やユーザ $\mathrm{C}$ の論文 3 のスコアに着目すると, ベースラインの方がユーザの興味が強いことを判断できていることがわかる.このことから,ベースラインの方が興味の取りこぼしは起こしやすいが,確実に一つの分野に関しての興味が把握できると考えられる.以上の考察から,複数の興味をより効率的に取得するため,階層を跨ぐ挙動に加えノード移動の仕方により工夫が必要であると考えられる。 ## 5 おわりに 本研究では,「興味の取りこぼし問題」に対して,階層的知識をべクトル化し階層を跨いだノード間の移動を可能にすることで解決する手法を提案し,その有用性を検討した.結果として,期待した通りに提案手法は曖昧な検索意図を明確化しつつ取りこぼし問題に対して有効であることが示唆された. 今後の展開としては,本研究で得られた知見をもとに論文推薦の対話システムの構築を行い,最終的には主観評価などを行う予定である. ## 参考文献 [1] Joeran Beel, Bela Gipp, Stefan Langer, and Corinna Breitinger. Research-paper recommender systems: a literature survey. International Journal on Digital Libraries, Vol. 17, No. 4, pp. 305-338, 2016. [2] Jyotirmoy Gope and Sanjay Kumar Jain. A survey on solving cold start problem in recommender systems. In 2017 International Conference on Computing, Communication and Automation, 2017. [3] Hung-Yi Lee, Pei-Hung Chung, Yen-Chen Wu, TzuHsiang Lin, and Tsung-Hsien Wen. Interactive spoken content retrieval by deep reinforcement learning. IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol. 26, No. 12, pp. 2447-2459, 2018. [4] David Robins. Interactive information retrieval: Context and basic notions. Informing Science The International Journal of an Emerging Transdiscipline, Vol. 3, No. 2, Jan 2000. [5] Corby Rosset, Chenyan Xiong, Xia Song, Daniel Campos, Nick Craswell, Saurabh Tiwary, and Paul Bennett. Leading conversational search by suggesting useful questions. In The Web Conference 2020, 2020 [6] Qibin Chen, Junyang Lin, Yichang Zhang, Ming Ding, Yukuo Cen, Hongxia Yang, and Jie Tang. Towards knowledge-based recommender dialog system. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, 2019. [7] Raymond Li, Samira Kahou, Hannes Schulz, Vincent Michalski, Laurent Charlin, and Chris Pal. Towards deep conversational recommendations. In Proceedings of the 32nd International Conference on Neural Information Processing Systems, 2018 [8] 鈴木亮詞, 工藤聖広, 辻野友孝, 清水堅, 白松俊, 大直忠親, 新谷虎松. 論文リポジトリに基づく研究支援のための対話的ユーザモデル構築手法の提案. 全国大会講演論文集, 第 72 回, 人工知能と認知科学, pp. 741-742, Mar 2010. [9] Yi-Cheng Pan, Hung-Yi Lee, and Lin-Shan Lee. Interactive spoken document retrieval with suggested key terms ranked by a markov decision process. IEEE Transactions on Audio, Speech, and Language Processing, Vol. 20, No. 2, pp. 632-645, Feb 2012. [10] Xiangnan He, Lizi Liao, Hanwang Zhang, Liqiang Nie, $\mathrm{Xia} \mathrm{Hu}$, and Tat-Seng Chua. Neural collaborative filtering. In Proceedings of the 26th International Conference on World Wide Web, 2017. [11] Tomás Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. In Yoshua Bengio and Yann LeCun, editors, 1st International Conference on Learning Representations, Workshop Track Proceedings, 2013. ## 付録 ## A仮想ユーザに事前に設定した 3 つの論文 4 節で行ったシミュレーション実験の,仮想ユー ザに事前にランダムに設定した 3 つの論文を表 A に示す. 表 A 仮想ユーザが興味を持っていると仮定した 3 つの論文 & 興味のある論文のタイトル \\ ## B 対話履歴の例 ## 4 節で行なったシミュレーション実験の対話履歴 を例として図 B に示す. pinakes がシステムを指し, user がユーザを示す. 例として取り上げたのは 4 節 の仮想ユーザ A に対する提案手法での対話例であ る. : Automating Frame Analyses to Identify Bias by Word Choice and Labeling, 2: Discourse and Pragmatics, 3: What determines the order of adjectives in $\{E\}$ nglish? Comparing efficiency-based theories using dependency treebanks (user) 1 (3) pinakes:) Please tell me the reason you chose. (user )I'm curious about how people's everyday writing changes with or without emotional bias. } (6) pinakes :) Please select the keyword you are interested 1: Media Bias the Social Sciences and \{NLP\}: Automating Frame Analyses to Identify Bias by Word Choice and Labeling 2: What Was Written vs. Who Read It: News Media Profiling Using Text Analysis and Social Media Context, 3: Cognitive Modeling and Psycholinguistics (user)2 (6) pinakes:) Please tell me the reason you chose (user )l am interested in sentiment analysis contained in SNS. Also, I would like to analyze emotions not only from SNS but also from texts of books such as literature. (3) pinakes:) Please select the keyword you are interested in from the bottom 1: Media Bias the Social Sciences and \{NLP\}: Automating Frame Analyses to Identify Bias by Word Choice and Labeling 2: What Was Written vs. Who Read It: News Media Profiling Using Text Analysis and Social Media Context 3: Cognitive Modeling and Psycholinguistics (user) 3 (3) pinakes:) Please tell me the reason you chose (user)By the way, I'm also interested in psychology. (6) pinakes :) Please select the keyword you are interested in from the bottom 1: What Was Written vs. Who Read It: News Media Profiling Using Text Analysis and Social Media Context, 2: Media Bias the Social Sciences and \{NLP\}: Automating Frame Analyses to Identify Bias by Word Choice and Labeling, 3: Cognitive Modeling and Psycholinguistics (user) 3 (c) pinakes:) Please tell me the reason you chose (user )Well, more specifically, I'm interested in emotions, psychology and language. I especially like books, and I'm interested in analyzing emotions from the text of books and how they affect the human mind. 図 B 仮想ユーザ A の提案手法での対話例
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH1-16.pdf
# 「フェイクニュース」の理解に向けて: アノテーションスキームの提案と日本語データセット構築 村山太一* 久田祥平 * 上原誠 若宮翔子荒牧英治 奈良先端科学技術大学院大学 } \{murayama.taichi.mk1, s-hisada, uehara.makoto.ug2, wakamiya, aramaki\}@is.naist.jp ## 概要 社会問題となっているフェイクニュースに対して,検出タスクやデータセット構築などの研究が取り組まれている。これらの既存研究はそのニュースが正しいかどうかの事実性ばかり着目する. しかし,複雑な現象であるフェイクニュースを理解するためには,事実性の側面だけでなく,発信者の意図や社会への有害度合い,ニュースの種類など,様々な観点から捉えることが重要である。本研究では, フェイクニュースの様々な側面を捉える,きめ細かなラベリングを行う新しいアノテーションスキームを提案する。そして,このアノテーションスキームに基づいた初めての日本語フェイクニュースデー タセットを構築し, https://hkefka385.github.io/ dataset/fakenews-japanese/で公開している. ## 1 はじめに ネット上の情報の信頼性を貶める「フェイクニュース」に対して,研究者はフェイクニュー ス検出タスクに取り組んだり,リソースとして FakeNewsNet [1] や CoAID [2] などのフェイクニュー スデータセットを構築している。これらの既存の研究やデータセット構築では,そのニュースが正しいかどうかといったニュースの事実性の側面に着目している。しかし,事実性のラベルだけで,フェイクニュースやそれによって引き起こされる現象を十分に理解することは困難である。フェイクニュースをより理解するためには,発信者の意図や社会への有害性などの様々な視点から,フェイクニュースを捉えることが重要である. 本研究では,「フェイクニュース」の定義や既存のフェイクニュース検出データセットを調査した結果得られた課題を踏まえ,フェイクニュースを様々  図 1: アノテーション例: 発信源は党首討論の動画をのせたもので,ファクトチェック記事ではこの動画は討論の一部を切り取ったもので野党党首の印象を悪くしていると指摘する。 な観点で捉えるためのアノテーションスキームを提案する. 具体的には,ニュースの 1. 事実性,2. 発信者の意図,3. 対象,4. 対象の扱い,5. 目的,6. 社会への有害度,7. 有害性の種類という 7 つの観点でこのスキームは構成される。この詳細なアノテー ションは,「発信者がそのニュースを嘘だと知っているかどうかで,返信がどのように変わるのか?」 など,フェイクニュースという複雑な現象の深い理解に繋がる. さらに,提案したアノテーションスキームに従って, 日本語のフェイクニュースデータセットを構築する(例:図 1)。これは日本語で構築された初めてのデータセットであり,日本のフェイクニュースの理解や研究に有用である. 今後, 日本語以外の言語においても,提案したアノテーションスキームに従ってデータセットを構築し,国家間におけるフェイクニュースの性質の比較などを通して,フェイクニュースをより多角的な視点で分析していく予定である. ## 2 予備的調査 ## 2.1 「フェイクニュース」の定義 情報科学の研究において,フェイクニュースには広義と狭義の定義が用いられる. 広義の定義は, "fake news is fabricated information that mimics news media content in form but not in organizational process or intent. [3, 4]” である. この定義は,情報の真偽を重視し発信者の意図を考慮しないもので,風刺やパロディなどの種類のニュースもカバーするものである. しかし,この定義を採用した研究は多くない $[5,6,7]$. 一方, 狭義の定義は, “a news article that is intentionally and verifiably false. $[8,9]$ ” というもので,発信者の意図を重視する。この定義を採用する研究は多い $[10,11,12]$ が,多くのデータセットは, ニュースの真偽に関するファクトチェック機関の判定のみをラベルとして構築されている. このようなフェイクニュースという言葉の曖昧性に対して批判の声が上がっている. 例えば,イギリス政府はフェイクニュースという言葉の曖昧性から公式文書には使用しないことを決定した [13]. また,ネット上における誤った情報の対抗に向けたプロジェクトである First Draft のリー ダーの Claire Wardle 氏は,フェイクニュースという言葉は情報の信頼性の問題を十分に説明できないとし, Misinformation, Disinformation, Malinformation の 3 つの観点で説明すべきと述べている [14]. このように,フェイクニュースの概念は曖昧であるため,そのニュースはフェイクかどうかではなく,様々な観点から説明していくことが重要である. ## 2.2 フェイクニュース検出データセットの 課題 ニュースの真偽を評価するフェイクニュース検出タスクのために,数多くのデータセットが構築されている. 本節では,51のフェイクニュース検出デー タセット1)を検証し,解決すべき 4 つの課題を示す. 意図 2.1 節で説明したように,ほとんどのデータセットは狭義の定義を採用しているにも関わらず,各ニュースの事実性に着目したラベルのみ持って広義の定義に基づいて構築されている. これは,技術開発における定義と言葉の定義の間に乘離があることを意味する。また,意図を持って作成されたニュースは社会的影響力が高く,誤ったニュースが広まる一要因となってい  fakenews-japanese/\#surveylist に示す. る [15].このような背景や,説明可能性の高い検出モデルを構築するためにも,発信者の意図をアノテーションすることが重要である. 社会への有害性フェイクニュースは社会に悪影響を与えるが,その規模や種類は様々である.例えば,パロディなどの明らかに嘘であるニュー スは社会への害は少ないが,選挙に関する誤ったニュースは人々の意思決定に影響を与え,有害性が大きい,既存のデータセットではこの観点をカバーできていないが,これはファクトチェックの優先度の判断にも有用である. 言語フェイクニュースの言語的特徴や拡散パター ンは国や言語によって異なる可能性があるにも関わらず,ほとんどのデータセットは米国社会のイベントを対象とし英語で構成されている。一方で,COVID-19の世界的な Infodemic の影響から,英語以外のフェイクニュース検出データセットが増加してる。具体的には, 51 件中,英語以外の言語を含むものは 11 件で,そのうち 8 件が COVID-19 に関するものであった. COVID-19 以外の様々なトピックを対象とした英語以外のデータセットを構築していくことは,言語横断的な分析や言語に依存しない特性の特定が期待できる. ラベル機械学習モデルの適用の容易さから, 51 件中 33 件のデータセットには,フェイクかどうかの二値ラベルが付与されている。 その他のものは,ファクトチェック組織の評価に基づいて構築されており,データセットごとに分類基準が異なり,利用しづらい。「意図」と「社会への有害性」も関連するが,より一般的で頑健な検出モデルを構築するためにも, fine-grained で一貫したアノテーションスキームが必要である. ## 3 アノテーションスキーム 上記の議論や得られた洞察に基づき,7つの質問からなるフェイクニュースのためのアノテーションスキームを構築した. Q1-Q5 は細かなラベルを付与することを目的とした質問で,「意図」と「ラべル」の課題をカバーするものである. Q6 と Q7 では,COVID-Alam [16] を参考に,社会への有害性の特定を試みている.我々のアノテーションスキームは,ファクトチェック組織の評価に依存しないラべリングが可能となり,解釈性の高い検出モデルの構築が期待できる。ファクトチェック記事や発信源と なったソーシャルメディアの投稿に基づき,これら 7つの質問にアノテーターが回答する. Q1: ファクトチェックサイトはニュースに何のラベルを付与しているか? この質問は,ファクトチェックサイトが付与したラベルである「正確」や「虚偽」などの情報を記載する.「正確」または「ほぼ正確」のラベルが付与された場合,以下全ての質問をスキップする。 Q2-1: 発信者はそのニュースが虽りであることを知っていたか? 選択肢: 1. はい, 発信者は確実に誤りと知っている, 2. はい,発信者はおそらく誤りと知っている,3.いいえ,発信者はおそらく誤りと知らない,4. いいえ, 発信者は確実に誤りと知らない この質問は, 課題の一つである「意図」に対応する質問で,4つの選択肢から 1 つ選択する. 1. または 2. が選択された場合,既存研究 [3] に基づきそのニュースを「Disinformation」とみなす.3.または 4. が選択された場合,発信者は誤ったニュースを流す意図が無いことを意味するため,「Misinformation」 とみなす.このような意図のラベリングは,「どのようなニュースを誤りと知らずに拡散しているのか?」など,ニュースの種類によってユーザ行動がどのように異なるかを明らかにする可能性がある. この回答に応じて, 誤りが生じた理由に関する質問 Q2-2A もしくは Q2-2B に回答する. Q2-2A:「はい」なら,そのニュースはどのように作られたか? 選択肢: 1. 創作されたコンテンツ, 2. 画像の操作, 3. テキストの操作, 4. 誤ったコンテキスト この質問は,意図的に発信されたニュースがどのように作成されたかを理解するためのもので,4つの選択肢を設定した。まず,完全に創作されたニュー スか,何かしらのリソースを改竄したニュースかに分類される.前者を「創作されたコンテンツ」とする.後者は,改窞の対象によって 3 パターンに分け,画像や動画を加工したものを「画像の操作」, ニュースのテキストやメッセージを加工したものを「テキストの操作」, コンテンツ自体は本物だが,誤った文脈情報とともに共有するものを「誤ったコンテキスト」とする. Q2-2B:「いいえ」なら,発信者はどのように誤解したか? 選択肢: 1. 他の情報源の信頼, 2. 不十分な理解, 3 . ミスリーディング この質問は,どのように意図しない誤ったニュースの拡散を防いでいくかを考える上で重要である.意図しない誤った情報が発信される背景として,3つの選択肢を設定した. 1 つ目は,他の情報源を信頼したことによって起こるもの. 英語を母国語としないユーザが,英語の記事などを誤訳したり,誤った情報を信用したりすることで起こる. 2 つ目は,発信者がニュースを十分に読み込まないことによって,不十分な理解や思い込みによって生じるもの. 3つ目は,発信者がニュースを十分に理解している可能性はあるが,それを十分に読者に伝えれなかったことで起こるもの. Q3: そのニュースの対象は何/誰か?(複数回答可)誤ったニュースの対象,つまり主に影響を受ける対象は,ニュースのクラスタリングや検索において有用な情報である。このような情報を特定するタスクはまだ行われていないが,今後フェイクニュースの理解を進める上で重要であると考える. Q4: そのニュースは対象をどのように扱うか? 選択肢: 1. 持ち上げ,2. 誹謗,3. どちらでもないこの質問は,そのニュースで扱っている対象について,持ち上げや称賛をしているのか,もしくは誹謗中傷や侮辱をしているのかを選択する.誤ったニュースでも,寄付のような善行か犯罪行為のような悪行かでは読者への印象は大きく異なる.そのため,フェイクニュースが分極化にどのような影響を与えるかを分析する点で重要である. Q5: そのニュースの目的は何か? 選択肢: 1. 風刺/パロディ, 2. 党派性, 3. プロパガンダ, 4. 目的なし/わからない 誤ったニュースの一部は, COVID-19ワクチンが健康被害を引き起こすなどの自説を広める意図を持って拡散されている. 目的を推定できないニュースもあるが,3つの選択肢を設定した.1つ目は読者を楽しませたり,政治を批判したりすることが目的である風刺やパロディである [17]. 2 つ目は,政治的な文脈で一方的に偏った,党派性をもったニュー ス. 偏っていること自体は誤りではないが,誤りの可能性が高いという報告がある $[18,19] .3$ 目はプロパガンダと呼ばれる,イデオロギーや主張を広げたりするために行われる説得の一形態である [20]. Q6: 社会に与える有害さはどの程度か? この質問は,社会に悪影響を与える可能性のあるニュースを特定するためのもので, $0-5$ の実数値で有害の度合いを回答する。0 は社会に害を与えない パロディなどのニュースを, 5 は社会に大きな害を与えるニュースであることを示す. Q7: そのニュースはどのような害を与えるか? 選択肢: 1. 害なし (例: 風刺やパロディ), 2. 社会に対する不安,3. 人,会社や商品に対する信頼,4. 政治や社会イベントの正しい理解, 5. 健康, 6. 人種や国に対する偏見,7. 陰謀論,8.わからない 誤ったニュースが引き起こす可能性のある被害を 7 つの選択肢で設定し,さらに「わからない」という選択肢を加えて選択する。この質問は,ニュースによりどのような被害が発生する可能性が高いのかを把握するのに有用である. ## 4 日本語データセット ## 4.1 データセット構築 日本語フェイクニュースデータセットの構築のため,ファクトチェック組織の 1 つであるファクトチェック・イニシアティブ (FIJ) [21] で 2019 年 7 月から 2021 年 10 月の間に掲載された検証記事を収集した. アノテーション作業は,ファクトチェック記事と発信源となった投稿・ニュース記事を確認しながら 3 名のアノテーターによって行われた. アノテーション例を図 1 に示す. 最終的に 307 件のニュースにアノテーションが行われた。そのうち, 186 件のニュースは拡散のきっかけとなった投稿とコンテキスト情報(Retweet や Reply 情報)を Twitter から収集した。その結果, 471,446 ツイート(1ニュースあたり平均 2,534 ツイート),277,106 ユーザ(1ニュースあたり平均 1,489 ユーザ),17,401 の会話データ(1ニュースあたり平均 93 会話)が含まれる. ラベルの分布を付録の表 1 に示す. ## 4.2 日本語データセットの分析 誤りのニュースと正確なニュースの比較を行うのが一般的だが,構築したデータには正確なニュー スのサンプルが 5 例しかない. そのため,本研究では「Q2-1: 発信者はそのニュースが誤りであることを知っていたか?」のはいんいえの回答を元に,つまり Disinformation/Misinformation の観点でツイートデータを分析した。ここでは,特に興味染い結果が得られたユーザアカウントの年齢と Bot 率についてのみ示す。その他の分析は付録 A で示す. アカウントの年齢: 図 2 にユーザのアカウント作成 図 2: Disinformation と Misinformationを投稿したユー ザのアカウント作成日からの経過時間の分布 日からの経過時間の分布を示す. Misinfromation と Disinformation の分布は類似しているが,米国においてフェイクニュースを流すユーザ分布の報告 [1] と比較すると,作成から 1 年未満のアカウントが少なく,10 年以上 Twitter を利用しているアカウントが多いという傾向がみられた。 Bot の割合: Botometer API [22] を用いてユーザの Bot 割合を調査したところ,Disinformation で約 8\%, Misinformation で約 6\%であった. 米国ではフェイクニュースを流すユーザの約 $22 \%$ ơ Bot であるという報告 [1] と比較すると,かなり少ない比率であるといえる。 ## 5 おわりに 本研究では様々な観点からフェイクニュースを捉え直す新しいアノテーションスキームを提案した。事実性だけでなく,意図やターゲット,統一的なラベリングを行うことで,フェイクニュースが引き起こす複雑な現象の深い理解が期待できる. そして, このスキームに基づいて,日本語で初めてのフェイクニュースデータセットを構築した。 一方で,この日本語データセットは根拠としたファクトチェック記事の数が少ないため,サンプル数が小さいという問題がある。この問題を解決するため,今後もデータセットを拡張していく. さらに,我々のアノテーションスキームに基づき日本語以外の言語のフェイクニュースデータセット構築にも現在取り組んでいる。これらの取り組みを通して,1. 既存のフェイクニュース検出モデルは付与したラベルをどの程度分類できるか,2. 言語や国によってフェイクニュースの拡散パターンがどのように異なるのか,といった点に注目できる。 ## 謝辞 本研究の一部は,JSPS 科研費 JP19K20279 および厚生労働省科学研究費補助金 (課題番号 : H30-新興行政-指定-004)の支援を受けたものである. ## 参考文献 [1] Kai Shu, Deepak Mahudeswaran, Suhang Wang, Dongwon Lee, and Huan Liu. Fakenewsnet: A data repository with news content, social context, and spatiotemporal information for studying fake news on social media. Big data, Vol. 8, No. 3, pp. 171-188, 2020. [2] Limeng Cui and Dongwon Lee. Coaid: Covid19 healthcare misinformation dataset. arXiv preprint arXiv:2006.00885, 2020. [3] Xinyi Zhou and Reza Zafarani. A survey of fake news: Fundamental theories, detection methods, and opportunities. ACM Computing Surveys (CSUR), Vol. 53, No. 5, pp. 1-40, 2020. [4] David MJ Lazer, Matthew A Baum, Yochai Benkler, Adam J Berinsky, Kelly M Greenhill, Filippo Menczer, Miriam J Metzger, Brendan Nyhan, Gordon Pennycook, David Rothschild, et al. The science of fake news. Science, Vol. 359, No. 6380, pp. 1094-1096, 2018. [5] Soroush Vosoughi, Deb Roy, and Sinan Aral. The spread of true and false news online. Science, Vol. 359, No. 6380, pp. 1146-1151, 2018. [6] Karishma Sharma, Feng Qian, He Jiang, Natali Ruchansky, Ming Zhang, and Yan Liu. Combating fake news: A survey on identification and mitigation techniques. ACM Transactions on Intelligent Systems and Technology (TIST), Vol. 10, No. 3, pp. 1-42, 2019. [7] Zhiwei Jin, Juan Cao, Yongdong Zhang, and Jiebo Luo. News verification by exploiting conflicting social viewpoints in microblogs. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 30, 2016. [8] Kai Shu, Amy Sliva, Suhang Wang, Jiliang Tang, and Huan Liu. Fake news detection on social media: A data mining perspective. ACM SIGKDD explorations newsletter, Vol. 19, No. 1, pp. 22-36, 2017. [9] Hunt Allcott and Matthew Gentzkow. Social media and fake news in the 2016 election. Journal of economic perspectives, Vol. 31, No. 2, pp. 211-36, 2017. [10] Eni Mustafaraj and Panagiotis Takis Metaxas. The fake news spreading plague: was it preventable? In Proceedings of the 2017 ACM on web science conference, pp. 235-239, 2017. [11] Nadia K Conroy, Victoria L Rubin, and Yimin Chen. Automatic deception detection: Methods for finding fake news. Proceedings of the association for information science and technology, Vol. 52, No. 1, pp. 1-4, 2015. [12] Martin Potthast, Johannes Kiesel, Kevin Reinartz, Janek Bevendorff, and Benno Stein. A stylometric inquiry into hyperpartisan and fake news. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 231240, 2018 . [13] Newsweek. British government bans the phrase 'fake news'. https://www.newsweek.com/british-governmentbans-phrase-fake-news-1182784, 2018. [accessed on November 9th, 2021]. [14] Francesca Giuliani-Hoffman. 'f*** news' should be replaced by these words, claire wardle says. https://money.cnn.com/2017/11/03/media/claire-wardlefake-news-reliable-sources-podcast/index.html, 2017. [accessed on November 9th, 2021]. [15] Harvey Leibenstein. Bandwagon, snob, and veblen effects in the theory of consumers' demand. The quarterly journal of economics, Vol. 64, No. 2, pp. 183-207, 1950. [16] Firoj Alam, Fahim Dalvi, Shaden Shaar, Nadir Durrani, Hamdy Mubarak, Alex Nikolov, Giovanni Da San Martino, Ahmed Abdelali, Hassan Sajjad, Kareem Darwish, et al. Fighting the covid-19 infodemic in social media: A holistic perspective and a call to arms. In Proceedings of the International AAAI Conference on Web and Social Media, Vol. 15, pp. 913-922, 2021. [17] John Brummette, Marcia DiStaso, Michail Vafeiadis, and Marcus Messner. Read all about it: The politicization of "fake news" on twitter. Journalism \& Mass Communication Quarterly, Vol. 95, No. 2, pp. 497-517, 2018. [18] Gabriel Hine, Jeremiah Onaolapo, Emiliano De Cristofaro, Nicolas Kourtellis, Ilias Leontiadis, Riginos Samaras, Gianluca Stringhini, and Jeremy Blackburn. Kek, cucks, and god emperor trump: A measurement study of 4chan' $s$ politically incorrect forum and its effects on the web. Proceedings of the International AAAI Conference on Web and Social Media, Vol. 11, No. 1, pp. 92-101, 2017. [19] Savvas Zannettou, Barry Bradlyn, Emiliano De Cristofaro, Haewoon Kwak, Michael Sirivianos, Gianluca Stringini, and Jeremy Blackburn. What is gab: A bastion of free speech or an alt-right echo chamber. In Companion Proceedings of the The Web Conference 2018, pp. 10071014, 2018. [20] Garth S Jowett and Victoria O'donnell. Propaganda \& persuasion. Sage publications, 2018. [21] Fact Check Initiative Japan. Fact check initiative japan. https://fij.info/. [accessed on November 9th, 2021]. [22] Clayton Allen Davis, Onur Varol, Emilio Ferrara, Alessandro Flammini, and Filippo Menczer. Botornot: A system to evaluate social bots. In Proceedings of the 25th international conference companion on world wide web, pp. 273-274, 2016. [23] Vahed Qazvinian, Emily Rosengren, Dragomir R. Radev, and Qiaozhu Mei. Rumor has it: Identifying misinformation in microblogs. In Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, pp. 1589-1599, 2011. [24] Amazon Comprehend. Amazon comprehend. https://docs.aws.amazon.com/comprehend. [accessed on November 23th, 2021]. ## A 日本語データセットの分析 ## 投稿コンテンツ 図 3 に 2 2-1 のラベルの Disinformation/Misinformation ラベルに関する投稿テキストに基づいて作成されたワードクラウドを示す. どちらのワードクラウドでも「日本」という単語が大きく表示されている. 特に,Disinformation のワードクラウドである図 3(a) には,COVID-19 に関連する語が多く見られる。一方で,Misinformation のワー ドクラウドである図 3(b) には,中国やバイデンといった国名や外国の有名人に関連する語が多く見られる。 (a) Disinformation (b) Misinformation図 3: Q2-1 におけるラベルごとのワードクラウド ## 返信の感情分析 人々はソーシャルメディアの投稿を通して, ニュースに対する感情や意見を表現する。このような特徴は,誤ったニュースの重要な信号となる $[23$, 7]. 感情分類 API である Amazon Comprehend [24] を用いて, Disinformation/Misinformation とラベルが付与されたニュースに対する投稿の返信を,Positive, Neural, Negative と 3 つのカテゴリに感情分類する. 図 4 に,各ニュース記事に対する返信投稿の感情の比率を示す. Disinformation/Misinformation ともに感情的な反応は少なく, Neutral な返信が多いことが分かる. 感情的な返信に着目すると, Misinformation とラベルが付与された一部のニュー スには Positive な返信が多いものも見られるが,基本的には Negative な返信が多い. どちらのラベルに関わらず,誤ったニュースは Negative な感情を引き起こしやすいことが示唆される.表 1: 日本語フェイクニュースデータセットのラベルの分布. 各列に質問とそのラベルが付与された総ニュース数を示す & 21 \\ (a) Disinformation (b) Misinformation 図 4: Disinformation/Misinformation とラベルが付与されたニュースに関する投稿の感情 (Positive,Neural, Negative)三角プロット
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH1-1.pdf
# 医療用語の is-a オントロジー構築の FCA を使った効率化 黒田航 ${ }^{1}$ 相良かおる ${ }^{2}$ 1 杏林大学 2 西南女学院大学 } \begin{abstract} 本論文は,専門用語の文字列基盤の FCA で,is-a オントロジー 構築を効率化する手法を提案する. 重複した要素や不連続な 要素を用語の構成要素として認めると, 網羅性の高いオントロ ジーの雛型が FCA を用いて半自動で得られる事を示す. 構成要素を, 人手認識する方法と文字 n-gram で自動認識する方法 とを比較し,後者が期待を持てる性能を示す事が示された。 \end{abstract ## 1 はじめに 医療用語のオントロジー $[1,2,3]$ を開発したい. ただし対象を is-a 関係に限定し1),それもなるべく人手をかけずに. その目的を実現するために Formal Concept Analysis (FCA) $[4,5,6,7,8,9,10,11,12,13,14,15]$ を利用する方法を検討する.FCA の詳細を説明している余裕はないため,その概要を付録 A に示す. ## 2 語構成解析の際の FCA の有効性 ## 2.1 要素の重複, 不連続性 自然言語の文やその部分を意味のある部分に分ける課題は,NLPにとって重要な課題である. これは対象が医療文書のような専門文書であっても同じである. 解析対象が通常の日本語文の解析の場合,それを実現する作業は形態素解析 (morphological analysis) = トークン化 (tokenization) である. これを実現する高性能で実用的な解析器が幾つも存在する (Mecab, KNP, KyTea). それに較べて専門用語の解析精度は未熟である $[16,17,18]^{2}$.理由は 2 つある.第一に,専門用語の解析では POS 夕グに相当する構成概念が未定義である (それ故,可能性空間が効率的に制限できない). 第二に,構成要素の重  複と不連続性が顕著である. この帰結の一つは (1) の構成関係の解析が (2a)のような木構造にならず,(2b) のような束構造 (lattice structure) [4] になる点である (n=1, 2, ...は文字 n-gram の $\mathrm{n}$ の値). (1) 肺動脈弁閉鎖不全症 4 ) (2) a. [[肺 $[$ 動脈 $]]$ 弁 $][[[$ 閉鎖 $][$ 不全 $]]$ 症 $]$ b. $\mathrm{n}=1$ 肺, 動, 脈, 弁, 閉, 鎖, 不, 全, 症 $\mathrm{n}=2$ 不全, 動脈, (肺脈), (脈弁), 閉鎖 $\mathrm{n}=3$ 不全症, 弁不全, 弁閉鎖, 脈不全, 肺動脈 $\mathrm{n}=4$ 閉鎖不全, 動脈不全, 弁不全症, 肺動脈症, 肺脈不全, 脈不全症, 脈弁閉鋭, 脈弁不全 $\mathrm{n}=5$ 閉鎖不全症, 動脈弁閉鎖, 弁閉鎖不全, 肺動脈弁症, 動脈不全症, 肺脈不全症, 動脈弁不全, 肺動脈不全, 肺脈弁不全, 脈弁不全症 $\mathrm{n}=6$ 肺動脈弁閉鎖, 弁閉鎖不全症, 脈弁閉鎖不全, 動脈弁不全症, 肺動脈不全症, 肺動脈弁不全, 肺脈弁不全症 $\mathrm{n}=7$ 動脈弁閉鎖不全, 脈弁閉鎖不全症, 肺動脈弁不全症 $\mathrm{n}=8$ 肺動脈弁閉鎖不全, 動脈弁閉鎖不全症, 肺動脈弁閉鎖不全症 $\mathrm{n}=9$ 肺動脈弁閉鎖不全症 (2a)に示した句構造解析は,第一筆者が適切だと考えたものであるが,これが真の構造解析だとは思っていない5). 用語の構成関係が存在するならば,それは木構造では記述できず,束構造が必要である6). Figure 1 の Hasse 図は (2b) に対応する束構造を表す.これは (1)を構成する有意味な部分文字列を前後で重複している場合と不連続な場合を含めて網羅している。  Hasse 図は,i) 対象の is-a 関係のネットワークを表わし,ii) 属性の集合の階層を表わすので,Figure 1 にある図は次のように解釈できる: (3) a. 属性 (灰色ラベル) は束の上にある程,共有される度合いが高い,下にあるある程,共有されない度合いが高い。 b. 対象 (白色ラベル) は束の下にある程,(満足している属性の数が多いので) 複合的である. 上にある程,単純である。 なお,ここに示した FCA の結果は属性と対象が同一文字列であるという意味で,典型的ではない。 ## 2.2 部分の有意味性の判定 Figure 1 の Hasse 図を医療の専門家が見た時には,有意味な部分文字列に余剩や欠落があるかも知れない。 そうだとしても,それはFCAを使った手法の難点ではない.部分文字列の有意味性の判定は経験的問題であり, これ自体がオントロジー構築の主要な部分である. ヒトは有意味性の判定は得意だが,侯補の洗い出しは苦手である. FCA は後者の作業を自動化し,構築全体を効率化する。 Figure 1: (1) の重複, 不連続性を認めた構成関係 lattice Figure 2: 属性 (D1, E1, .., BA1) と対象 (C 列にある用語) との真偽表 (=形式文脈) を生成する Excel シート Figure 1 の Hasse 図は Concept Explorer 1.37) に形式文 古いツールだが,後発でこれを凌駕するツールは見当たらない。 } 脈を与えて作成した。その形式文脈は,図 2 にある Excel 作業シートで自動作成した. 属性名 $X$ は $X$ を部分に持つかどうかの真偽判定である.なお,真偽判定は不連続性を認めるようにワイルドカードを用いて実装している. 補助情報: D 列以後,表の一番下の行にある数字は,属性が真になる対象 (=用語) の個数である. B 列の要素数は,C列の用語が何個の属性を真とするかを表す. 例えば,[肺動脈弁閉鎖不全症] は 45 個の属性を,[動脈弁不全症] は20 個の属性を真とする。 ## 2.3 不連続構成性の効果 Figure 1 の Hasse 図では,不連続性を認める事で得られる効果がはっきりしない,それを明らかにするため比較対象として, Figure 3 に不連続な構成要素を認めない条件で構築した Hasse 図を示す. Figure 3: (1) の不連続性を認めない構成関係 lattice Figure 3 では 37 個の空ノードがあり,属性が合致する総数は 456 個である.これに対し, Figure 1 では 15 個の空ノードがあり, 属性が合致する総数は 549 個である. 不連続性を認めない事で,空ノードが 22 個増えている.これは属性の合致数が減っている故に起きている事である. 空ノードの増加は (属性数と対象数は同じなのだから) 認識される is-a 関係数の減少 (= 一部が体系的に見逃されている事)を意味する。 ## 2.4 解析結果の合成と分解 束構造で構成関係を表す事には,i) 要素の間の重複を扱える,ii) 不連続な要素を認定できる,の二点に加えて,更に次の利点がある: a. 複数個の用語の構成関係を同時に表現でき (理論的には何個でも)で,オントロジーの全体象を一瞥するのに使える。 b. 構成概念に相当する構成要素を半自動的に見つけられる この点を (1)と (5) の構成関係を同時に表現した束構造を表した Figure 4 と Figure 5 で確かめる. (5) 肺動脈弁異常症 (1) と (5) は $[$ 肺動脈弁 $\{$ 閉鎖不全, 異常 $\}$ 症 $]$ の対であり,不連続な部分文字列 [ 肺動脈弁症]を共有している点に注目されたい。 Figure 4: (1)と (5) の構成関係を表現した束構造 Figure 5: (1) と (5) の構成関係を表現した束構造 Figure 4 は(1) に対応する部分束を選択した版, Figure 5 は (5) に対応する部分束を選択した版である.2つの FCA の結果 $R_{1}, R_{2}$ を統合するには,それぞれの元になった形式文脈 $C_{1}=O_{1} \times A_{1}$ と $C_{2}=O_{2} \times A_{2}$ から, まず $O_{1}$ と $O_{2}$ の和集合 $O_{3}$ と $A_{1}$ と $A_{2}$ の和集合 $A_{3}$ を得て,これから $C_{3}=O_{3} \times A_{3}$ を作り, それを形式文脈として解析を実行すれば良い. FCA の結果の分解はこの逆の操作であるが,当然のように,その産物は一意に決まらない。 ## 2.5 提案する解析法 以上の簡単な解析例から, FCA が (医療) 用語の語構成解析に有効である事は示せたはずである.ただ,上の方法では属性 (= 有意味な部分文字列) を人手で認定していた. この手順は省力化できると嬉しい。その方法として,文字 n-gram を使う事が考えられる。 また,FCAを使った解析の結果は,それ自体は意味分類ではなく,それと相関しているだけなので,用語の分類に人手で付与した意味カテゴリーを反映させる必要もあるだろう (期待されている効能は [[閉鎖不全] 症] is-a [[異常] 症] や [閉鎖不全] is-a [異常] のような部分の is-a 関係の自動的認識である). 語構成解析に FCA を利用する方法は次の 4 通りが考えられる: (6) a. 属性構築の省力化のために,文字 n-gram を用いる方法 (A1) vs 用いない方法 (B1) b. 意味分類と対応づけるために,人手付与した意味ラベルを追加利用する方法 (A1, B1) vs しない方法 (A2, B2) 今回の報告では $\mathrm{A} 1$ と B1 の比較に焦点を絞る. ## 3 分析: 文字列基盤の FCA ## 3.1 データ 『実践医療用語_語構成要素語彙試案表 Ver.1.0』 (GSK2020-G) [22, 23, 24] の 6,380 個のく語構成要素>から 67 事例 $(1.05 \%)$ を無作為抽出し, 解析の対象とした.形式文脈の作成法は $\$ 2.2$ で述べた方法と同じである. ## 3.2 結果 1: 属性を人手認識 Figure 6 の Hasse 図の構築では,対象となる 67 語のそれぞれについて,意味のある部分文字列を人手で認定抽出し, 属性に使った (実行したのは第一著者である).この結果からも,医療用語 (特に病名) を構成する支配的な文字とその背後にある概念が推測できる. [脈], [骨], [肺] が共通して身体部位 (i.e., 器官) 名である事や, [閉塞], [閉鎖] が共通して機能 (の不全) である事は示されていない。そのような知識を反映させるには,明示的な意味クラス付与が必要となる. そのような大分類が得られないとしても, 人手認識では見落とされがちな細分類の発見支援の目的には,有用である。 ## 3.3 結果 2: 属性を文字 n-gram で自動認識 Figure 7 の Hasse 図の構築では, 対象となる 67 語のそれぞれについて, 文字 $\mathrm{n}-\operatorname{gram}(\mathrm{n}=1,2, \ldots, \max )$ を再帰的に認定抽出し, 属性に使った. この結果からも, Figure 6 の Hasse 図と同じように医療用語 (特に病名)を構成する支配的な文字とその背後にある概念が推測できる.こ Figure 6: sample 1 の lattice [属性は人手構築した部分文字列; (1) の部分束を選択] Figure 7: sample 1 の lattice [属性は自動構築した文字 n-gram; (1) の部分束を選択] の解析でもっとも汎用的な語/概念は,[腿], [骨]であり, [大]がそれに続く.これはサンプルのバイアスを体現してはいるが,それでも傾向が見て取れる。 Figure 8: 文字 n-gram の異なり数の増加 Figure 6 の Hasse 図と Figure 7 の Hasse 図の最大の違いは,カタカナ語 (e.g., エンテロウィルス, ボツリ又ス, エストロジェン)の内部構造が解析されている点にある. これは不要な解析だが,用語のカタカナ部分を n-gram 抽出の対象から除外すれば解消できる問題である. その一方,用語の文字 n-gram を属性に使った方が,可能な構成要素の取りこぼしが少ない. ただ,属性の数が余りに多くなると, FCAが実時間では終わらない. 現害的な解析に必要な文字 n-gram の規模はどれ程なのか? 912 語句からなる別のサンプルで, 文字 n-gram の異なり数と $\mathrm{n}$ との関係を調べた. このサンプルは, 文字数の平均値: 3.82 , 中央値: 3 , 最大值: 18 [びまん性メサンギウ么増殖性系球体腎炎], 最小值: 1 [鸗], 標準偏差: 1.905 の特性を持つ. Figure 8 のグラフが示すように,異なり数の増加は $\mathrm{n}=7$ 辺りで頭打ちとなる。それ故, 文字 n-gram の利用は非効率に思えるが,悪い選択ではないと判る。 ## 4 結論 本論文は, 専門用語の文字列基盤の FCA でオントロジー 構築を効率化する手法の概要を示した. 文字列 n-gram を属性に用い,それらの不連続な生起を部分として認めると, 網羅性の高いオントロジーの雛型が半自動で得られる事が示された。一方,大規模な形式文脈を大力とする FCA の実行は,それなりに計算資源を要求する。これを軽減するための工夫, 特に明らかに不要な文字 n-gram の除外は必要だろうと思われる。文字列基盤の FCA では, 意味カテゴリー(e.g., 器官名, 病名, 病原体名)を表現できないという難点はあるが,それは意味ラベルを補助情報として用いて解決可能だと考える. 最後に断っておくと,FCA はオントロジーを自動構築しない.意味のあるノードとそうでないノードの区別を行うのは人間である。 ## 5 謝辞 本研究は JSPS 科研費 JP21H03777 の助成を受けたものである. FCA の実行は Concept Explorer 1.3 (http://conexp. sourceforge.net)を使用した. ## References [1] 大江和彦. 病名用語の標準化と臨床医学オントロジーの開発. 情報管理, Vol. 52, No. 12, pp. 701-709, 2010. [2] Alan L. Rector. Clinical terminology: Why is it so hard? Methods of Information in Medicine, Vol. 38, No. 4, pp. 249252, 1999. [3] 里村洋一. “用語” と “分類” からオントロジーへ. 医療情報学, Vol. 25, No. 6, pp. 377-384, 2005. [4] B. A. Davey and H. A. Priestley. Introduction to Lattices and Order. Cambridge University Press, 2nd edition, 2002. [5] Bernhard Ganter and Rudolf Wille. Formal Concept Analysis: Mathematical Foundations. Springer-Verlag, Berlin, 1999. Translated by C. Franzke. [6] Bernhard Ganter, G. Stumme, and R. Wille. Formal Concept Analysis: Foundations and Applications. Springer, Berlin/Heidelberg, 2005. [7] 鈴木治, 室伏俊明. 形式概念分析 -入門・支援ソフト・応用-. 知能と情報, Vol. 19, No. 2, pp. 103-142, April 2007. [8] 黒田航. 言語の表層語形から品詞はどの程度正確に予測できるか?:語彙獲得難度の絶対指標の提唱. 言語処理学会第 20 回年次大会発表論文集, pp. 1043-46, 2014. [9] Kow Kuroda. Formal Concept Analysis meets grammar typology. In Proc. of the 21st Annual Meeting of the NLP Association, pp. 329-332, 2015. [10] 黒田航. 表層語形から品詞はどれぐらい正確に予測できるか?:英語形態論とチェコ語形態論の比較から. 認知科学, Vol. 22, No. 4, pp. 621-637, 2015. [11] Kow Kuroda. How are inflectional paradigms represented (in the mind)? - Formal Concept Analysis meets Czech declensional paradigms. In Proc. of the 22nd Annual Meeting of the NLP Association, pp. 849-852, 2016. [12] 長田博泰. 形式概念にもとづく質的分析. 社会情報, Vol. 14, No. 1, pp. 19-37, 2004. [13] 長田博泰. 形式概念を用いたデータ解析 : 幼児発達行動の分析. 社会情報学研究, Vol. 11, No. 2, pp. 71-81, 2006. [14] 長田博泰. 社会情報解析への一寄与: 形式概念解析によるデータ解析. 社会情報, Vol. 15, No. 2, pp. 103-118, 2006. [15] 長田博泰. 形式概念解析ツールとデータ解析. 社会情報, Vol. 17, No. 1, pp. 47-64, 2007. [16] 西本尚樹, 谷川玩海, 蒋国謙, 小笠原克彦, 櫻井常太朗. 標準病名辞書による画像診断用語の形態素解析. 医療情報学, Vol. 24, No. Suppl., pp. 812-812, 2004. [17] 西本尚樹, 寺江聡, 蒋国謙, 上杉正人, 寺下貴美, 谷川玩海,遠藤晃, 小笠原克彦, 櫻井常太朗. 複合語を構成する医学用語間の意味関係の同定における課題: CT 画像診断レポー トに出現する複合語を対象として. 医療情報学, Vol. 25, No. 6, pp. 413-420, 2005. [18] 内山清子, 岡照晃, 東条佳奈, 小野正子, 山崎誠, 相良かおる. 実践医療用語の語構成要素抽出の試み. 言語資源活用ワークショップ発表論文集, 第 3 巻, pp. 463-467. 国立国語研究所, 2018. [19] 大島智夫. 日本語の医学用語についてのおぼえ書き. 専門用語研究, Vol. 1, pp. 18-21, 1990. [20] 篠原恵美子. 高精度な正規化技術の実現に向けた身体部位表現の内部構造モデル.医療情報学, Vol. 34, No. 5, pp. 211-220, 2014. [21] 山田恵美子, 松本裕治. 文字係り受けに基づく専門用語の内部構造表現と解析. 情報処理学会研究報告,第 2009-NL191/2009-SLP-76 巻. 情報処理学会, 2009. [22] 相良かおる, 山崎誠, 麻子軒, 東条佳奈, 小野正子, 内山清子. 実践医療用語の語構成要素: 意味を基準とした分割. じんもんこん 2019 論文集, 2019. [23] 相良かおる, 小野正子, 高崎智子, 東条佳奈, 麻子軒, 山崎誠. 実践医療用語の語構成と意味: 語構成要素語彙表試案表の作成にむけて.じんもんこん 2020 論文集, 2020 . [24] 相良かおる. 実践医療用語における語構成要素の意味ラベルについて. 言語処理学会第 27 回年次大会発表論文集, pp. 559-562, 2021. [25] Kow Kuroda. Pattern lattice as a model for linguistic knowledge and performance. In Proc. of the 23rd Pacific Asia Conference on Language, Information and Computation, Vol. 1, pp. 278-287, 2009. ## A FCA の基本知識 ## A. 1 FCA は何をする道具か? 簡単に言うと, FCA は属性によって定義された対象を自動分類するためのアルゴリズムの一つである.それは概念 (concept) を次のように形式化する事で実現される. (7) a. (形式的) 概念 $c$ とは, 外延 $o$ と内包 $a$ の対である (記号で書けば, $c:=(o, a)$ ). $\mathrm{a}^{\prime}$. ただし, 外延 $o$ と内包 $a$ はそれぞれ, 対象の全体集合 $O$ と属性の全体集合 $A$ の部分集合とする. b. $c_{i}$ と $c_{j}$ は, [一方が他方を含む] という関係について順序構造をなし, $c_{i}, c_{j}$ を要素にもつ概念の全体集合 $C$ に束構造 (lattice) がある. 要するに,FCA は,概念を (7a)のように (数学的に) 定義した上で,概念間の関係を $(7 b)$ が定義する束構造として明示化する手順である。 もっと一般的な理解では,対象の集合 $O=\left.\{o_{1}, \ldots, o_{n}\right.\}$ があり,それらを記述する属性の集合 $A=\left.\{a_{1}, \ldots, a_{m}\right.\}$ が (暫定的に) 定められた時, $O$ と $A$ の直積 $O \times A$ に真理值を割り当てる. これが表現する状態を離散的に自動分類するためのアルゴリズムの一つが FCA である. ## A. 2 FCA の数学的定義 Table 1: 文脈=対象集合 $O$ と属性集合 $A$ の直積に真理值を割当てた状態 ## A.2.1 形式文脈の定義 対象集合と属性集合の関係を統合して表現するため,(形式) 文脈 ((formal) context) を定義する. (8) a. $n$ 個の対象 $A=\left.\{o_{1}, o_{2}, \ldots, o_{n}\right.\}$ があり,これらを $m$ 個の属性 $A=\left.\{a_{1}, a_{2}, \ldots, a_{m}\right.\}$ で記述した状態がある。 $O$ と $A$ の直積 $O \times A$ を考える. b. $O \times A$ で,対象 $o_{i}$ が属性 $a_{j}$ をもつ時に, $(i, j)$ に ×を書き,そうでない時に何も書かないとする。 c. この処理の結果は, 対象 $o_{i}$ が属性 $a_{j}$ をもつがうかの真偽表だと見なせる. この真偽表を $O$ と $A$ の (形式) 文脈と呼ぶ. d. 二項関係 $\left(o_{i}, a_{j}\right)$ の全体集合 $R$ は,関係が真である場合の集合 $T$ と偽である場合の集合 $F$ に分割できる $(R=T \cup F)$. e. このうち, 真である二項関係の集合 $T$ を考え, 三組 $(O, A, T)$ を定義する. これが (形式) 文脈である ${ }^{8}$. (形式) 文脈の一例を表 1 に示す. この文脈は, 対象 $o_{1}$ が属性 $a_{2}$ と属性 $a_{m}$ を持ち, 対象 $o_{2}$ が属性 $a_{2}$ を持ち, 対象 $o_{n}$ が属性 $a_{1}$ と属性 $a_{m}$ を持っている状態を記述している. 従って, $(O, A, T)$ で, $ T=\left.\{\left(o_{1}, a_{2}\right),\left(o_{1}, a_{m}\right),\left(o_{2}, a_{2}\right), \ldots,\left(o_{n}, a_{1}\right),\left(o_{1}, a_{m}\right)\right.\} $ である. ## A.2.2 (形式) 概念の定義 次に対極と (形式) 概念 ((formal) context) の定義を示す. (9) a. $O$ の部分集合 $o$ について,oの対極 (polar) を $o$ に属する対象のすべてに共有されている属性の集合と定義し, $o^{\prime}$ と表記する. 同様に, $A$ の部分集合 $a$ について,aの対極を $a$ のすべてを属性を体現している対象の集合と定義し, $a^{\prime}$ と表記する.数学的には, b. $o^{\prime}=\{a \in A \mid(x, a) \in T$ for all $x \in o\}$ で $a^{\prime}=\{o \in$ $O \mid(o, y) \in T$ for all $y \in A\}$ である (10) a. (形式) 文脈 $(O, A, T)$ にある (形式) 概念 $c$ とは, $a^{\prime}=o$ かつ $o^{\prime}=a$ の条件を満足する対 $(o, a)$ と定義する。 b. 概念 $c:=(o, a)$ の $o$ を $c$ の外延 (extent), $a$ を $c$ の内包 (intent) と呼ぶ. ## A.2.3 (形式) 概念束の定義 次に (形式) 概念の束 (lattice of (formal) concepts) の定義9)を示す. a. (形式) 文脈が与えられ,それに $\left(o_{1}, a_{1}\right)$ と $\left(o_{2}, a_{2}\right)$ の二つの (形式) 概念があるとする. $o_{1} \subseteq o_{2}$ ならば (同じ事だが $a_{2} \supseteq a_{1}$ ならば $),\left(o_{1}, a_{1}\right)$ を $\left(o_{2}, a_{2}\right)$ の下位 (形式) 概念と呼ぶ. この場合, $\left(o_{2}, a_{2}\right)$ は $\left(o_{1}, a_{1}\right)$ の上位 (形式) 概念であり,これを $\left(o_{1}, a_{1}\right) \leq\left(o_{2}, a_{2}\right)$ と書き表わす。 b. பという関係を, (形式) 概念の階層的順序 (か単に順序) と呼ぶ. c. こうして順序づけられた, 文脈 $(O, A, T)$ の全概念の集合を $\mathfrak{B}(O, A, T)$ で書き表し,これを $(O, A, T)$ の (形式) 概念束 ((formal) concept lattice) と呼ぶ. ^{8)}(O, A, F)$ は $(O, A, T)$ の真偽の指定を逆転した状態を表わす文脈である. $(O, A, T)$ と $(O, A, F)$ は同一の Hasse 図を与えない. }^{9)}$ Ganter and Wille [5, p. 19] の Definition 21 を元に解説した.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH1-2.pdf
# 松下ミュ・田上雷悟・福井彩香・本田優月(九州大学文学部) 上山あゆみ (九州大学大学院人文科学研究院) # # 概要 ナンテという語は、さまざまな用法を持ってい る。このようなナンテのさまざまな用法について、 9 つに分類し、分類のためのフローチャートを作成した。実際にガイドラインに沿って『現代日本語書き言葉均衡コーパス』(BCCWJ)によってアノ テーションを試み、カッパ值を計算すると約 0.63 となり、ある程度信頼性のあるガイドラインが作成できたと結論づけた。 ## 1. はじめに 本発表はナンテを機能分類し、自然言語処理に活用できるようにする試みである。助詞ナンテは飛田,浅田(1994)や磯山(2000)、滝(2018)などの中でナドの口語的な用法とされ、軽視や例示をはじめとして、いくつかの分類設定の試みがなされている。しかし、基準が曖昧なものや複数の用法にまたがって該当するものもある。このように、実際の用法は複雑かつ多岐にわたるため、コーパスの有用性をより高めるべくも分類のガイドラインを作成する必要がある。本発表では、ナンテの様々な用法について分類ガイドラインを作成し、実際にアノテーションを試み、その結果を述べる。 ## 2. ナンテの分類ガイドライン まず、提案するガイドラインを示す。 \\ & \\ ## 3. 用法の詳細と例文 ナンテの用法をガイドラインの通り、9つに分類した。以下、それぞれの用法の基準について例文と共に記す。以下、特に記載がないものは全て作例である。 ## 3.1. 不定 このナンテは後部の要素に係る。また、ナンテを「なんと(いう)」に置き換え可能である。 a. おじょうちゃん、なんて(=なんという)名前? [飛田・浅田 1994:411(1)-(1)] b. 彼女になんて(=なんと)言い訳すればいいんだ。[飛田・浅田 1994:4:411(1)-(2)] (1)は、後部の「名前」「言い訳」が不定であることを表している。このような場合、ナンテは「不定」に分類される。 ## 3.2. 程度の甚だしさ 「不定」同様、ナンテが後部の要素に係る。また、ナンテを「なんと(いう)」に置き換え可能である。その他、以下のように「〜(の/ん)だろう!」 と共起可能である。 (2) a.この灯台からの風景はなんて (=なんと)美しいんだ! =この灯台からの風景はなんて美しいんだろら! b. プロ初打席でヒットを打つとは、 なんて(=なんという)選手だ! =プロ初打席でヒットを打つとは、なんて選手だろら! 後部の要素の程度が甚だしいことを表す場合、「程度の甚だしさ」に該当する。aでは「美しい」 こと、 $\mathrm{b}$ では「選手」の程度の甚だしさを示している。 ## 3.3. 状態・感情の暗示・強調 この用法は、ナンテが文末にある場合と、ナンテの後部が省略可能である場合の二つの場合がある。後者では、ナンテの後部には(4)、(5)のように前部の要素に対する感想、疑問が述べられる。これらは、ナンテを「とは」に置き換え可能である。 (3)まさか結婚の話が嘘だったなんて! (4) a. シチューがこんなにまろやかなんて、驚いた。 b. シチューがこんなにまろやかなん $\tau_{0}$ (5) a. 急に部屋が綺麗になるなんて、何が起きたのだろう? b. 急に部屋が綺麗になるなんて。 この 2 つの場合をともに満たすとき、このナン テは、主体が何らかの状態にあることや何かしらの感情を抱いていることを暗示、その主体の気持ちを強めたりする働きを持つ、「状態、感情の暗示、強調」に分類される。また、この用法ではナンテが前部の要素に係る。 ## 3.4. 至高 「ナンテ(いう)ものではないいりません/すまないの形をとる。また、この用法ではナンテが前部、後部の要素にともに係る。 (6) ディズニーランドを貸し切りにできたら、楽しいなんてものじゃないだろう。 (6)のように否定表現と共起し、直前、ここでの 「楽しい」を否定することで、その否定を超えて直前の要素を最大限まで高める。こうした場合、 「至高」に分類される。 ## 3.5. 軽重の評価 ナンテの前部の持っている価値に主体が評価を下していることを表す場合、「軽重の評価」に分類される。また、この用法ではナンテが前部の要素に係る。 a. 江戸っ子なら、安い寿司なんて食べるな。 b. 白鳥なんて、この世で最も美しい鳥といっていい。 一つの用法ではあるものの、ラベルにあるように、評価は一通りのものではない。例えば、a き、主体は「江戸っ子であれば安い寿司といらものを食べるべきはない」という風に「安い寿司」 に対して低評価を下している。また、b の場合では、主体は「白鳥」に高い評価を下していることが後部の内容からうかがえる。このように、低評価、高評価の 2 つ評価がこの用法には含まれている。 ## 3.6. 実現可能性の低さ この用法は、(8)のように「ない」「できない」等の存在や実現を否定する表現と共起可能である。 また、ナンテが前部の要素に係る。 (8) a. 当時の日本には、ラジオなんて無かっt。 b. あいつとの結婚なんて絶対認めることはできない。 このようにナンテが前部の要素を非現実的なもの、実現可能性が低いものとしてとりあげていると解釈可能である場合、「実現可能性の低さ」に分類される。 ## 3.7. 代表の提示 この用法はナンテの前部の内容をあるカテゴリ一の代表として明示する用法である。また、この用法ではナンテが前部の要素に係る。 (9) a. 週末なんて、渋谷まで足を運んだわ。 b. ボーダーの T シャツなんて、いかがですか? c. 大学入試用の問題集として、赤本や黒本なんてものが有名だ。 bのように、「どうですか」「いかがですか」等の推薦表現と共起する場合や、 $\mathrm{c}$ のように「赤本」 と「黒本」という、複数の同質の要素を列挙する場合のときも、この用法に分類される。 ## 3.8. ごまかし ナンテが、前部で述べられた内容に対しての話しての照れや取ずかしさをごまかす働きをしていると解釈可能である場合、「ごまかし」に分類される。この用法では、ナンテは前部、後部いずれにも係らない。 (10) a. 俺がどんなときでも駆けつけてやる、なんてな。 b. (プロポーズ)僕が一生全力でお守りしますから、なあんてね。[飛田・浅田 1994:412(4)-(17] (10)のように「なんて敞」「なんてな」などの終助詞を伴う形で多く用いられる。また、ナンテそのもの、ないし「ナンテ十終助詞」を省略したとしても、文全体に影響がないことが特徴である。 ## 3.9. 婉曲的引用 基本的に、ナンテの前部に伝達、あるいは思考を示す内容が述べられており、それらを表す名詞や動詞と共起しやすいことが特徴である。 伝達を表す名詞、動詞の例としては「言う」「聞く」「意見」「報告」などが挙げられる。思考を表す名詞、動詞の例としては「思う」「想像する」 「悩み」「考え方」などがある。 また、 $\mathrm{b}$ のように、前部が固有名詞であるパ夕 ーンもある。 (11) a. 先生から.「明日の遠足は中止だ」なんて言葉が発せられた途端、教室の雾囲気は一変した。 b. 川崎 A子さんなんて名前、聞いたことありません。 c. 携帯電話を忘れるなんて(=という)経験くらい、誰にでもある。 この他、cのように、ナンテが「と(いう)」「などと(いう)」に置き換え可能である場合、「婉曲的引用」に分類されることがある。そしてこの用法に分類されるナンテは、前部の内容を引用しつつ、 その印象を弱める働きをする。また、この用法では「至高」同様、ナンテが前部と後部の要素のいずれにも係る。 ## 4. 用法の補足 ナンテは複数の用法に共通する特徵がいくつかある。まず、「ナンテ(いう)こと/もの」という形の場合、「は」「を」「が」「こと/もは」「こと/ものを」「こと/ものが」に置き換え可能である。 これは9つの用法の内、「軽重の評価」「実現可能性の低さ」「代表の提示」の3つに該当する。 (12) a. 付け焼き刃の技術なんて(=は)ボロが出て当然だ。 b. たった一度の失敗なんてもの(=を) いつまでも引きずるなよ。 c. 空がこんなにきれいな色になるな 得るんだろうか。 d. 7 月中に夏休从の宿題を終わらせ るなんていうこと(=ことを/のを)、初めてやった。 次に、ナンテが係る部分についてである。特徴として、「前部」に係るもの、「後部」 に係るもの、「前部、後部両方」に係るもの、そして例外としてどの要素にも「係らない」ものの 4 つに分けられる。9つの用法を 4 つの区分に分けたとき、以下のようになる。 (1) 前部...「不定」「程度の甚だしさ」 (2)後部...「状態、感情の暗示、強調」「軽重の評価」「実現可能性の低さ」「代表の提示」 (3) 前部、後部両方...「至高」「婉曲的引用」 (4) いずれにも係らず...「ごまかし」 ## 5. アノテーション結果 『現代日本語書き言葉均衡コーパス』(BCCWJ) からナンテを含んだ例文 500 例を抽出し、上記の分類ガイドラインに従って実際にアノテーションを行った。九州大学文学部所属の、ナンテの分類に関与していない学生 2 人がそれぞれアノテーシヨンを行い、その結果からカッパ値を計算したところ、約 0.63 となった。アノテータ間でぶれの少ない、ある程度信頼性のあるガイドラインが作成できたことになる。今後、ずれの見られるところを中心に更に検討を重ねていきたい。 ## 参照文献 井島正博 (2008)「クライ・ホド・ナンカ・ナンカ・ ナンテの機能と構造」,『日本語学論集』, 4: 4297. 磯山麻衣(2000)「「なんて」の意義と用法」,『昭和女子大学大学院日本文学紀要』,11:1-11 滝理江(2018)「例示の機能をもつ助詞ナンテの意味分析-カテゴリーの観点から-」,『日本認知言語学会論文集』,18:393-405 飛田良文,浅田秀子(1994) 『現代副詞用法辞典』,東京:東京堂出版
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH1-3.pdf
# 市民科学でのアノテーション作業支援と 作業者の能力向上支援 星島洸明 1 西村太一 ${ }^{1}$ 亀甲博貴 2 森信介 ${ }^{2}$ 1 京都大学大学院情報学研究科 2 京都大学学術情報メディアセンター \{hoshijima.komei.72x,nishimura.taichi.43x\}@st.kyoto-u.ac.jp \{kameko,forest\}@i.kyoto-u.ac.jp ## 概要 近年,市民科学を活用した研究プロジェクトが注目されている。このようなプロジェクトは多数の非専門家が作業をすることで少数の専門家のみのときより効率的にプロジェクトを進行させられる特徴がある。報酬を作業の動機とするクラウドソーシングと異なり, 市民科学では作業者は科学や学問への貢献や知的好奇心を動機をしている。 そのため作業者は作業対象への知識の向上を需要として持っており,本論文では成果物の分析をして,作業を通じて作業対象への知識が増えたり作業能力が向上していたりといった情報をフィードバックとして与えることを最終的な目標とする.また,非専門家による成果物の品質にばらつきが生じる場合でも学習データとして有効に活用する。 ## 1 はじめに 近年,市民科学を活用した研究プロジェクトが注目されている. 市民科学は非専門家が科学的な調査や研究活動をすることを指し,市民科学の特徵は少数の専門家のみで作業すると時間と費用が膨大にかかるプロジェクトでも多数の非専門家がプロジェク卜に参加すると効率的に作業を進められることである. 多数の人が参加することで効率的に作業を進める方法であるクラウドソーシングでは,インター ネットを通じて不特定多数の人にタスクを依頼し,作業量に応じた報酬を受け取ることが作業に取り組む動機となっている. クラウドソーシングサービスの代表例として Amazon Mechanical Turk が知らており,画像データへのアノテーション作業や画像の内容を描写する文章作成など $[1,2]$ 高い専門的知識や技能を必要としない作業が主に依頼されている。市民科学では作業者の目的は報酬を得ることではな く, 科学や学問への貢献, 知的好奇心が動機である [3] ため,ボランティア型のクラウドソーシングといえる。クラウドソーシングを利用してデータを収集することは多くの研究でみられるが,対して市民科学が関わるデータ収集の研究はそれほど多くはない [4]. 市民科学のプロジェクトの参加者は動機が知的好奇心にあるため,作業者が作業対象への知識を向上させる需要があると考えられる。 よって作業者の作業によって作成された成果物の分析をして,作業を通じて知識が実際に増えているかのフィードバックを与えることが有用であると考えられる. 市民科学で作業対象が専門的知識を必要とし,作業者の専門的知識の有無を理由に作業への参加を拒まない場合,作業の結果の成果物の品質は一定ではなくなる。作業対象に対して専門的知識を多く有する人は高品質な成果物を作成しやすく,専門的知識をあまり有しない人は高品質な成果物を作成しにくい傾向があると考えられる。市民科学では作業対象に興味を持っているが専門的知識の少ない人が作業に関わっていくことで,作業対象の知識が増える可能性がある. 市民科学のブロジェクトの例として京都大学古地震研究会が 2017 年に公開した市民参加型史料翻刻プロジェクト「みんなで翻刻(地震史料)」[3,5] があげられる.翻刻とはくずし字で書かれている古文書などの歴史史料を一文字ずつ活字に書き起こしていく作業のことを指す。「みんなで翻刻」は web 上で歴史史料を翻刻するためのアプリケーションであり,翻刻作業には研究者だけでなく一般の人々も参加している. このように,市民科学のプロジェクトでデータに対して人手でラベルを付与することが求められており,タスクに応じた付加情報をつけるアノテーションツールの需要がある.本論文ではモデルの精度向 図 1 作成したアノテーションツールの概要図。 上につながる学習データを作成するために,市民科学のプロジェクトで使用されることを想定したアノテーションツールを作成する. 本論文では市民科学のプロジェクトで非専門家で作業する際に,第一に作業者の能力向上を作業者にフィードバックとして与え, 第二に非専門家の成果物からモデル性能を向上させる学習データを作成することを目的とする。 ## 2 関連研究 ## 2.1 複数アノテータによるアノテーション アノテータが複数いる状態で同一のテキストに対して作業をすると,アノテータの数だけのデータが作成される. 各データでラベル付けされる内容は異なり,学習データとして扱うためには各データを一つに集約する必要がある.各データを一つに集約する際にトークン単位で多数決をする手法 [6] が知られている。集約したデータを学習データに加えてモデルを学習し, 未作業のテキストにモデルによる自動ラベリングをすると,モデル精度を向上させるデータが作成できることが知られている [7]. ## 2.2 非専門家を含む場合のアノテーション 専門分野に関する知識を有しない非専門家と専門家が同じテキストに対してラベル付けをする場合, まず非専門家がテキストのラベル付けをしてその生成物を専門家が修正することで,アノテーションコーパスを作成するコストを削減しアノテータ間の一致率を向上させることができる [8]. 自動ラベリングモデルによる出力結果から人手で修正を加えるアノテーション方法は作業時間を短縮させることができる [9] が,誤った出力結果に影響されてデータが作成される可能性がある [10]. 市民科学のプロジェクトに限らず非専門家によって大規模データセットが作成される場合,非専門家への作業支援は必要であるが,この点を考慮に入れる必要がある. ## 3 課題設定 「みんなで翻刻」のような市民科学のプロジェクトは 2 つの課題を抱えている.1つ目は市民科学の参加者が作業対象の知識を向上させているかをフィードバックとして与えると有用であると考えられるいう点である. クラウドソーシングのワーカー が報酬を動機としているのに対し,市民科学の参加者は科学や学問への貢献や科学的好奇心を動機としている。そのため作業対象の知識を増やしたいという作業者の需要があると考えられる。作業を通じて実際に作業者の知識が増えているかをフィードバックすることで,市民科学に参加する動機をより強固にして,プロジェクト成功や発展につながる可能性がある. 2 つ目は専門的知識が必要とされる分野で作業する際に,作業者の専門的知識に幅がある状態では,作成された成果物の品質にばらつきが生じるという点である.作業者の能力にばらつきがあることを前提に,自動ラベリング結果を表示したり $[11,12]$, 作業者の習熟度とタスクの難易度を考慮にいれてタスクを各作業者に適切に分配したり [13] して,作業を支援することができる.以上のような課題がある中で,市民科学において非専門家が作業する場合,モデルの性能を向上させるような高品質なデータを作成し, 作業者の作業能力が向上しているかをフィードバックとして与えることを本論文の目的とする。 ## 4 アノテーションツール テキスト中の固有表現をアノテーションするツー ルを作成した.本ッールの概要図を図 1 に示し, ツールでラベル付けするときの作業画面を図 2 に示 図 2 アノテーションツールの作業画面. す. 作業するテキストには学習した自動ラベリングモデルを使用してラベル候補をアノテータに提示する. アノテータはツールによって提示されたラベルの範囲と種類が正確であると判断した場合はそのままにしておき,誤っていると判断した場合は修正する. ツールによって提示されたラベル以外にラベルを付ける必要があるとアノテータが判断すれば新たにテキストにラベルを追加する。ツールはアノテー タが作業開始から作業終了までの時間を測定しており,ラベル付けされたデータとともに測定時間をデータベースに格納する。 ## 5 実験 学習したモデルを使用して,ラベル付けする候補をアノテータに提示して,人手でそれを修正することでアノテーション作業の効率化が見られるか実験する。またアノテータによって作成されたデータを元の学習データに追加してモデルを学習し,データ追加前のモデルと性能を比較して評価する. ## 5.1 実験設定 本実験では,固有表現をアノテーション対象とし,対象データセットは料理分野のレシピテキストと歴史資料テキストの 2 つである. 歴史資料テキストは江戸時代に発生した安政江戸地震についてのテキストであり,固有表現タグを付与したデータセットである.料理分野のデータセットを作成するとき文を単語分割し,単語ごとに固有表現タグを付与する. 歴史資料は現代語のテキストと異なる文法,語彙が含まれ,一文ごとの区切りも曖昧であるため,歴史資料のデータセットを作成するときは文を文字単位で分割した後に文字ごとに固有表現タグを付与する.作業支援のための自動ラベリングモデルの学習に使用したデータセットを表 1 に示す. 表中の数字は文数を表す。なお自動ラベリングを学習するために使用した学習データを以降では元データと表 1 作業支援をする固有表現認識モデルの学習に使用したデータ. 表 2 作業支援をする固有表現認識モデルの性能. 呼ぶ. アノテータは 3 名で,日本語母語話者であり,料理分野,歴史資料分野に関して専門的知識は有していない。以後アノテータ 3 名をそれぞれ $\mathrm{A}, \mathrm{B}, \mathrm{C}$ とする. 各アノテータそれぞれが同じ 200 文にラベル付けをし,200 文のうち 100 文は作業支援あり,100 文は支援なしでラベル付けを行った。なお,レシピテキストでは支援ありの 100 文はアノテータ毎に異なり,歴史資料テキストでは全アノテータで同じ支援ありの 100 文に作業を行った. 固有表現認識モデルは Flair[14] を使用した. 固有表現認識モデルの学習で使用する分散表現は,Flair が提供する文字ベースの日本語の事前学習済み言語モデル [15] を使用して構成した. 以下にモデル学習時の各パラメータを説明する。隠れ層のサイズは 256,学習率は 0.1 ,バッチサイズは 32 ,最大エポック数は 150 とした. 作業支援をするレシピテキストでの固有表現認識モデルの性能と歴史史料テキストでの固有表現認識モデルの性能を表 2 に示す. ## 5.2 評価指標 データ品質の評価には各アノテータの成果物を元の学習データに追加して学習したモデルの性能の測定を行った. データ作成の効率性の評価には作業時間の比較を行った。 ## 5.3 実験結果 ## 5.3.1 データ作成の効率性 各作業設定で作業にかかった時間の平均を表 3 に示す.レシピテキスト,歴史資料テキストの両デー タセットにおいて,生テキストから人手アノテー ションをする場合より自動ラベリング結果から人手アノテーションをする場合の方が作業時間は短くなった. アノテータ A アノテータ B アノテータ $\mathrm{C}$ 図 3 レシピテキストでの成果物の $\mathrm{F}$ 値の移動平均. アノテータ A アノテータ B アノテータ C 図 4 歴史史料テキストでの成果物の $\mathrm{F}$ 値の移動平均. 表 3 作業時間の比較. ## 5.3.2 成果物の品質推移 アノテータが作成した成果物の品質が作業の経過とともに変化するか調べるため, 各アノテータの成果物の $\mathrm{F}$ 值の移動平均を計算した. 各アノテータの成果物を提出順に並べ, $\mathrm{F}$ 值の移動平均を 10 文毎にとった結果を図 $3 , 4$ に示す.レシピテキストではいずれのアノテータも作業を進めるにしたがって,成果物の $\mathrm{F}$ 値の移動平均は向上していった. 歴史資料テキストではアノテータ A,B では移動平均が向上したが,アノテータ C は減少していった. この結果から,歴史資料テキストではモデルの自動ラベリング性能がレシピテキストほど高くないため,モデルの出力結果を利用した作業者の能力向上が起こりにくかった可能性が考えられる。 ## 6 おわりに 本論文では市民科学でアノテーション作業が行われる場面を想定して,自動ラベリングモデルによる作業支援を行った. 成果物の品質推移を測定することで作業能力の変化をフィードバックとして与え, モデル性能を向上させるデータ作成を目的とし,実験を行った. 今後は自動ラベリング結果がラベル毎に異なる信頼度を持つことを考慮して,ラベル毎の信頼度を視覚的に表示するシステムを構築する。 ## 参考文献 [1] Jia Deng, Wei Dong, Richard Socher, Li-Jia Li, Kai Li, and Li Fei-Fei. Imagenet: A large-scale hierarchical image database. In 2009 IEEE conference on computer vision and pattern recognition, pp. 248-255. Ieee, 2009. [2] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, and C Lawrence Zitnick. Microsoft coco: Common objects in context. In European conference on computer vision, pp. 740-755. Springer, 2014. [3] 橋本雄太, 加納靖之, 一方井祐子, 小野英理ほか. 『みんなで翻刻』の運用成果と参加動向の報告. じんもんこん 2020 論文集, Vol. 2020, pp. 39-46, 2020. [4] Linda See, Peter Mooney, Giles Foody, Lucy Bastin, Alexis Comber, Jacinto Estima, Steffen Fritz, Norman Kerle, Bin Jiang, Mari Laakso, et al. Crowdsourcing, citizen science or volunteered geographic information? the current state of crowdsourced geographic information. ISPRS International Journal of Geo-Information, Vol. 5, No. 5, p. 55, 2016. [5] みんなで翻刻|歴史資料の参加型翻刻プラット フォーム. https: //honkoku.org. (参照 2021-12-28). [6] Filipe Rodrigues, Francisco Pereira, and Bernardete Ribeiro. Sequence labeling with multiple annotators. Machine learning, Vol. 95, No. 2, pp. 165-181, 2014. [7] An T Nguyen, Byron C Wallace, Junyi Jessy Li, Ani Nenkova, and Matthew Lease. Aggregating and predicting sequence labels from crowd annotations. In Proceedings of the conference. Association for Computational Linguistics. Meeting, Vol. 2017, p. 299. NIH Public Access, 2017. [8] Mary Martin, Cecilia Mauceri, Martha Palmer, and Christoffer Heckman. Leveraging non-specialists for accurate and time efficient AMR annotation. In Proceedings of the LREC 2020 Workshop on "Citizen Linguistics in Language Resource Development”, pp. 35-39, Marseille, France, May 2020. European Language Resources Association. [9] Claudia Schulz, Christian M Meyer, Jan Kiesewetter, Michael Sailer, Elisabeth Bauer, Martin R Fischer, Frank Fischer, and Iryna Gurevych. Analysis of automatic annotation suggestions for hard discourse-level tasks in expert domains. arXiv preprint arXiv:1906.02564, 2019. [10] Karën Fort and Benoît Sagot. Influence of pre-annotation on pos-tagged corpus development. In The fourth ACL linguistic annotation workshop, pp. 56-63, 2010. [11] Seid Muhie Yimam, Chris Biemann, Richard Eckart de Castilho, and Iryna Gurevych. Automatic annotation suggestions and custom annotation layers in webanno. In Proceedings of 52nd Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 91-96, 2014. [12] Todd Lingren, Louise Deleger, Katalin Molnar, Haijun Zhai, Jareen Meinzen-Derr, Megan Kaiser, Laura Stoutenborough, Qi Li, and Imre Solti. Evaluating the impact of pre-annotation on annotation speed and potential bias: natural language processing gold standard development for clinical named entity recognition in clinical trial announcements. Journal of the American Medical Informatics Association, Vol. 21, No. 3, pp. 406-413, 2014. [13] Yinfei Yang, Oshin Agarwal, Chris Tar, Byron C Wallace, and Ani Nenkova. Predicting annotation difficulty to improve task routing and model performance for biomedical information extraction. arXiv preprint arXiv:1905.07791, 2019. [14] Alan Akbik, Tanja Bergmann, Duncan Blythe, Kashif Rasul, Stefan Schweter, and Roland Vollgraf. FLAIR: An easy-to-use framework for state-of-the-art NLP. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 54-59, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [15] Alan Akbik, Duncan Blythe, and Roland Vollgraf. Contextual string embeddings for sequence labeling. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 1638-1649, Santa Fe, New Mexico, USA, August 2018. Association for Computational Linguistics. [16] Tetsuro Sasada, Shinsuke Mori, Tatsuya Kawahara, and Yoko Yamakata. Named entity recognizer trainable from partially annotated data. In Conference of the Pacific Association for Computational Linguistics, pp. 148-160. Springer, 2015. 表 4 レシピテキストで部分的アノテーションを使用した固有表現認識モデルの性能. 表 5 歴史資料テキストで部分的アノテーションを使用した固有表現認識モデルの性能. ## A 付録 ## A. 1 部分的アノテーションを使用した固有表現認識性能 学習に部分的アノテーションを使用するために, まず複数人で収集したアノテーションを統合する。各アノテーションを使用して,トークン単位で多数決を行い,過半数の場合ラベルを採用して統合したアノテーションデータを作成する。 次に以下の手順で部分的アノテーションを作成し,モデルを学習する. 第一に,アノテーションデータを学習データ,開発データ,テストデータに分割する. 第二に,各固有表現が部分的アノテー ションに含まれるかの全組み合わせを作成する. 第三に,学習データを使用して,固有表現の組み合わせにもとづいた部分的アノテーションを作成する。 レシピテキストの固有表現は 8 個, 歴史資料テキストの固有表現は 4 個あるので,上記の手順でそれぞれ 254 個, 14 個の部分的アノテーションを作成した. 第四に,作成した各部分的アノテーションを元データに追加し, それぞれモデルを学習する. 各モデルを開発データで評価し,最も性能が高いモデルを 1 つ選択する. 第五に,選択したモデルをテストデータで評価する. 実験では部分的アノテーションを学習可能な固有表現認識モデルである PWNER[16] を使用した. 元データに部分的アノテーションを追加して学習したときの固有表現認識モデルの性能を表 4,5 に示す. レシピテキストでは元データにフルアノテーションを加えたとき最も精度が高く, 歴史資料テキストでは元データに部分的アノテーションを加えたとき最も精度が高くなった. この結果から, 部分的アノテーションを使用することでフルアノテーションをそのまま使用するよりもモデルの精度が高くなる場合があることが示された.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH1-4.pdf
# 語順と話者の思考パターンとの関係 一依存方向の分析一 Relation between word order and speaker's thinking pattern -focused on dependency directions- 江原 俥将 (EHARA Terumsa) 江原自然言語処理研究室(Ehara NLP Research Laboratory) eharate@gmail.com ## 概要 これまで筆者は言語の語順とその言語話者の思考パターンとの関係を種々に研究してきた。語順素性としては動詞と目的語の語順を主として対象としてきたが、本文では動詞と目的語の語順以外に動詞と主語の語順または名詞と形容詞の語順を加えて分析した。2 個の語順素性を用いることで思考パターンの差が主辞前置か主辞後置かの差であるか、1 方向依存か 2 方向依存かの差であるかを明らかにすることができる可能性がある。思考パターンの定量的指標として 3 種類の指標を用いて $\mathrm{t}$ 検定を行った結果、主辞後置か主辞前置かの差の方が 1 方向依存か 2 方向依存かの差より有意性が高いことなどが分かった。 ## 1 はじめに これまで筆者は言語の語順とその言語話者の思考パターンとの関係を種々に研究してきた。語順素性としては動詞 $(\mathrm{V})$ と目的語 $(\mathrm{O})$ の語順を主として対象とし、一部、名詞 $(\mathrm{N})$ と形容詞 $(\mathrm{A})$ の語順を用いてきた。話者集団の思考パターンを測る定量的指標としては、自殺率/他殺率(Ehara, 2015)、Y 染色体 DNA ハプログループの分布(Ehara, 2018)、ミトコンドリア DNA ハプログループの分布(Ehara, 2019)、セロトニントランスポータの対立遺伝子 $\mathrm{S}$ の相対頻度(Ehara, 2021)を用いてきた。 依存文法における語順の捉え方として主辞が前置するか後置するかがある(付録 1 参照)。1 個の語順素性を用いた分析では、前置か後置かの区別しかできないが、2 個の語順素性を用いることで 2 者とも前置であるか 2 者とも後置であるか(1 方向依存)あるいは 2 者で前置と後置が混在するか(2 方向依存)を区別して分析することができる。そこで本文では 2個の語順素性を用いて分析する。そのことで思考パターンの差が主辞前置か主辞後置かの差であるか、 1 方向依存か 2 方向依存かの差であるかを明らかにすることができる可能性がある。 ## 2 語順素性 用いる語順素性としては、まず動詞と目的語の語順を選択する。それに加えて動詞と主語(S)の語順および名詞と形容詞の語順を利用する。動詞と目的語の語順は最も重要な語順素性であり、名詞と形容詞の語順は 2 番目に重要な語順素性である(江原, 1995)。動詞と主語の語順を加えたのは、哲学(林, 2003)や場の言語学(岡, 2017)で言う主客分離と主客合一(主客非分離)の概念と関係があるかもしれないからである。 実際の語順データは WALS(Dryer and Haspelmath, 2013)から得た。 ## 3 思考パターンの定量的指標 思考パターンの定量的指標としては以下の 3 種類を用いた。 ・ $\mathrm{Y}$ 染色体 DNA ハプログループの分布(Y DNA) ・ミトコンドリア DNA ハプログループの分布(Mt DNA) ・セロトニントランスポータの対立遺伝子 $\mathrm{S}$ の相対頻度(S-ratio) 自殺率と他殺率は OV 話者集団と VO 話者集団の間での $\mathrm{t}$ 検定において有意な差が認められなかったため、今回の実験では用いなかった。 具体的なデータの値は 1 節で引用した文献に示さ れているものを用いた。 ## 4 解析方法 表 1 に示す話者集団の組み合わせで思考パターンの各指標の値に対して $\mathrm{t}$ 検定を実施した。 1 方向依存と 2 方向依存の比較では、動詞と目的語の語順を固定し、2 番目の語順素性を変化させて比較した。動詞と目的語の語順を固定したのは、5 節に示すように、OV 集団と VO 集団による指標値の差は既に有意に定まっているからである。 表 1 に示した集団以外に OV VS の集団もあるが今回用いたデータでは 1 例(Tuvaluan)のみであったため分析から除外した。 表 $1 \mathrm{t}$ 検定での話者集団の組み合わせ (a) 主辞後置と主辞前置の比較 (b) 1 方向依存と 2 方向依存の比較 ## 5 解析結果 2 個の語順素性を用いた解析結果を示す前に、動詞と目的語の語順素性のみを用いた結果を表 2 に示す。これらの結果は 1 節で述べた文献に示されているものと同一である。表中の大小記号は $\mathrm{t}$ 検定の結果の方向と有意水準を示している。記号”>”は左側の集団が右側の集団より当該指標において有意に大きいことを示し、記号” <”は逆を示す。記号の数は有意水準の差を示している。”>"は両側 5\%、”>”は両側 $1 \% 、 ”>>” は$ 両側 $0.5 \%$ 示す。 いずれの指標においても OV 言語話者集団の方が $\mathrm{VO}$ 言語話者集団より指標値が有意に大きい。  表 21 個の語順素性を用いた $\mathrm{t}$ 検定の結果 2 個の語順素性を用いた $\mathrm{t}$ 検定の結果の概要を表 3 に示す。結果の詳細は付録 2 に示す。大小記号の意味は表 2 と同一である。 表 3 から以下のことが言える。 -Y DNA 指標は主辞後置か主辞前置かの差の方が 1 方向依存か 2 方向依存かの差より有意性が高い。 - Mt DNA 指標は主辞後置か主辞前置かおよび 1 方向依存か 2 方向依存かのいずれでも有意差がない。 - S-ratio の指標は主辞後置か主辞前置かの差の方が 1 方向依存か 2 方向依存かの差より有意性が高い傾向にある。 ・ VO VS(多くは VSO)か VO SV(SVO)かの差は全ての指標で有意差がない。 全般的に主辞後置か主辞前置かの差の方が 1 方向依存か 2 方向依存かの差より有意性が高いと言える。 Mt DNA 指標に有意差がないのは、データ数が少ないためであろう(付録 2 参照)。 表 32 個の語順素性を用いた $\mathrm{t}$ 検定の結果 (a) 主辞後置と主辞前置の比較 (b) 1 方向依存と 2 方向依存の比較 ## 6 まとめ 言語の語順と話者集団の思考パターンとの関係を調查した。2 個の語順素性を用いることで、主辞後置か主辞前置かの差、あるいは 1 方向依存か 2 方向依存かの差のどちらが思考パターンにより大きな影響を与えるかを調べた。 $\mathrm{t}$ 検定の結果、前者のほうがより大きな影響を与えることなどが分かった。 http://www.ne.jp/asahi/eharate/eharate/ronbun.files/\{NL P2018 P10-8.xlsx; NLP2019_P2-9.xlsx; NLP2021_P314.xlsx\} 今回の実験では、思考パターンの指標として自殺率/他殺率を対象としなかったが、語順素性以外の素性(経済素性や気候素性など)を加えた分析では語順が自殺率/他殺率に与える影響も見られるので、 それらも含めて 2 個の語順素性を用いた分析を行うことが今後の課題となる。 最後に主客分離と主客合一について考察する。主客分離が動詞を挟んで主語と目的語(客語)が分離する語順(VO SV)によるものであり、主客合一が動詞に対して主語と目的語が同じ側にくる語順(OV SV または VO VS)によるものであるかどうかは興味あることである。しかし今回の分析では、VOSV 集団と VO VS 集団で思考パターンの 3 種類の指標に有意な差が見出されなかった。そこで主客分離と主客合一の思考パターンがこれらの指標に反映していると仮定すると、上記の主張が有意に成り立つことはないことが分かった。 ## 参考文献 Matthew S. Dryer and Martin Haspelmath. 2013. The World Atlas of Language Structures Online. 江原暉将. 1995. 多次元尺度法を用いた語順パラメ一夕の間の関係付け.In 言語処理学会第1回年次大会論文集, pages 173-176. Terumasa Ehara. 2015. Relation between Word Order Parameters and Suicide / Homicide Rates. Jounal of Yamanashi Eiwa College, 13:9-29. Terumasa Ehara. 2018. Relation between Word Order of Languages and the Entropy of Y-chromosome Haplogroup Distribution of the Speakers' Population. In Proceedings of The 24th Annual Meeting of The Association for Natural Language Processing, pages 1019-1022. Terumasa Ehara. 2019. Relation between Word Order of Languages and the Entropy of Mitochondrial DNA Haplogroups Distribution of the Speakers' Population. Proceedings of The 25th Annual Meeting of The Association for Natural Language Processing:490493. Terumasa Ehara. 2021. Relation between Word Order of Languages and Serotonin Transporter Gene. Proceedings of The 27th Annual Meeting of The Association for Natural Language Processing:579584. 林信弘. 2003. 西田幾多郎の純粋経験. 立命館人間科学研究, 5:65-73. 児玉徳美. 1987. 依存文法の研究, p. 196. 岡智之. 2017. 場の観点から日本語の主観性を再考する. 日本認知言語学会論文集, 17:581-587. ## 付録 1 依存文法における主辞と従要素 依存文法における主辞と従要素を文献(児玉,1987)を参考にして作成した。 ## 付録 $2 \mathbf{t$ 検定の結果詳細} (a)動詞と目的語の語順のみを用いた分析 (b)主辞後置と主辞前置の比較 (c) 1 方向依存と 2 方向依存の比較
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH1-5.pdf
# UD Japanese に基づく国語研長単位解析系の構築 松田宽 $\dagger$ †株式会社リクルート Megagon Labs, Tokyo, Japan hiroshi_matsuda@megagon.ai 大村舞 ‡国立国語研究所 \{mai-om, masayu-a\}@ninjal.ac.jp ## 概要 国語研の規程では,長単位は文節内部を自立語部分と付属語部分に分割する形で定義されるが,固有表現や複合辞・連語については個別の規則が適用される。また,長単位品詞は,短単位品詞の「名詞-普通名詞-副詞可能」「動詞-非自立可能」等の用法の曖昧性を,実際の文脈における用法で解決する必要がある. 本研究では, Universal Dependencies に基づく依存構造解析モデルを抎張し, 形態素解析器の短単位出力を長単位化する手法を評価した。同時に,用法に基づく 17 種の UPOS 推定結果,固有表現抽出結果,長単位末尾の形態素情報を組み合わせた長単位品詞判定規則を構築し,従来手法を上回る 97.2 ポイントの長単位品詞推定精度を得た。 ## 1 はじめに 日本語の自然言語処理は前段の形態素解析器で入カテキストを単語分割することが多い1). 形態素解析器は単語分割と同時に, 品詞推定, 辞書形・正規形への正規化, 読み付与等を行い, 応用側は形態素解析器から単語と属性情報の列を容易に取得できる. ただし形態素解析器は一般に処理速度を優先する設計をとるため, 文中での実際の単語の使用における意味や統語的役割の曖昧性解消といった計算負荷の高い処理は行われない. また複合語は組み合わせが膨大なため辞書に登録する範囲は制限される。 一方,日本語の文節は文の統語構造や単語の意味を解釈するための重要な手がかりであり,形態素解析器では解決されない品詞曖昧性解消や複合辞認定といった高度な処理では,一般に文節の考慮が必要とされる。国語研長単位 [2] は, 文節から自立語部分と付属語部分を規則的に分割したものに,さらに用法に基づく品詞を付与し, 複合語を単位とする正規化等を施したものである. 本研究では, 形態素解 1)深層学習の素性化には Sentencepiece[1] など形態素解析とは異なる単語分割手法も用いられている.析器と同様の手軽さで利用可能な,国語研長単位に基づいた解析系の構築を目指す. ## 2 長単位境界と品詞認定 日本語 NLP の単語単位は形態素解析器に同梱されている辞書に基づき解析されており,JUMAN 辞書 [3] や UniDic 辞書 [4] に基づくものなどが広く用いられている. 後者の UniDic 辞書は, 国語研内で規定されている国語研短単位 [5] 基づく. 短単位は,字種ごとに定義されている国語研最小単位に基づき,同字種最小単位の 1 回結合までを形態論に基づく語の単位として定義する。国語研では,日本語の一般的な統語分析の単位として用いられる文節境界に基づく単位として,国語研長単位 [2]も定義している。長単位の認定は,文節の認定を行った上で,各文節の内部を規則に従って自立語部分と付属語部分に分割していくという手順で行う. 長単位では,複合的な機能表現を含めて,複合語を構成要素に分割することなく全体で一つとして扱う.短単位と長単位では,品詞認定手法についても異なり,短単位の品詞認定においては, 「可能性に基づく品詞体系」として, 形態に基づいて可能な品詞を枚挙 (例:「名詞-普通名詞-サ変形状詞可能」など)するために統語的な用法の本質的な解決は行わない. 長単位の品詞認定においては,「用法に基づく品詞体系」として,複合化した結果の単位が文脈内でどのように振る舞うかに基づき, 品詞を認定する. また本研究で用いる Universal Dependencies(UD) [6] はアノテーションする単位として「Syntactic Word を用いること」[6] と定義している. UD Japanese r2.6-2.8 [7] においては,短単位に基づく treebank を構成していたが, 短単位は Syntactic Word としてはふさわしくない点が指摘されている [8]. UD Japanese r2.9 においては,新たに長単位に基づく treebankを構成した [9]. 長単位は前述のとおり Syntactic Word に近いと推定されるが,工学的に有用であるかどうかの検証まではされていない. 長単位解析系として, Comainu [10] が公開されている. Comainu 内部では, MeCab [11] の解析結果の短単位形態素情報を素性化し,さらに CRFで系列ラベリングを行うことで長単位解析を実現している。 spaCy は Universal Dependencies に基づく自然言語処理フレームワークであり,Non-Monotonic Arc-Eager Transition System[12] 2) ベースの parser と transformers モデルの間で Gradientを共有して学習を行うことで高い解析精度を実現している。松田らは,サブトークン結合用の依存関係ラベルを用いて形態素解析器が過剩分割したトークンを依存構造解析と同時にまとめ上げる手法を提案し, 日本語 UD 解析モデルの精度を改善した [13]. 後に, $\operatorname{spaCy}$ にもサブトークン結合専用ラベル subtok を用いたトークンまとめ上げ機能が組み込まれている。 本研究では, spaCy の各種解析機能を使用して,形態素解析器出力の長単位へのまとめ上げを含めた長単位解析モデルを構築した。 ## 3 長単位認定モデルの構築 ## 3.1 spaCy 日本語モデルの拡張 2021 年 11 月に公開された spaCy 日本語 transformers モデルは, transformers 層に BERT 事前学習済みモデル [14]を使用することで,依存構造解析・固有表現抽出 - UD 品詞推定の各精度を大きく向上した.本研究では, spaCy で長単位解析系を構築するために, spaCy 日本語 transformers モデルに対して次の拡張を行った. 図 1 に spaCyの Pipeline 構成を示す. 形態素解析器複合辞出力モードを指定 学習データの加エ形態素解析器でテキストを再解析,長単位が分割される区間に subtok ラベルを適用 transformers モデル UniDic 短単位+wordpiece $の$ BERT 事前学習済みモデルを指定 長単位解析コンポーネントの追加 merge_subtokens による長単位認定 (subtok 連続区間のまとめ上げ), luw_xpos_taggerによる長単位の正規化+品詞判定 ## 3.2 長単位と固有表現の関係 松田らは,UD_Japanese-GSDr2.6 に対して,spaCy が採用する OntoNotes5 の体系に基づく正解固有表現 2)[12] の Table 1 最下部の Left-arc 更新後の状態の記述は誤り. 正しくは $(\sigma, b \mid \beta, \mathbf{A}(s)=b, \mathbf{S})$ となる. また $\mathbf{S}$ は Unshift で $\mathbf{S}(s)=1$ に, Left-arc で $\mathbf{S}(b)=0$ にリセットされる. spaCy の内部実装では Reduce と Unshift は統合 (head 有無で区別) され,さらに文区切りアクション Breakが追加されている。 図 1 spaCy 長単位解析モデルの Pipeline 構成 ラベルを付与した [15]. 本研究では,UD_JapaneseGSD の正解固有表現ラベルと GSDLUW のアライメント処理を行い,長単位ベースの固有表現抽出モデルの学習に使用した. 固有表現抽出結果は長単位品詞判定ルールで参照される。長単位 (LUW) と固有表現 (NE)のスパンの対応関係の統計を表 1 に示す.全固有表現のうち $2 / 3$ は単一長単位と厳密に対応づいているため,アライメント後の固有表現ラベルで学習した長単位固有表現抽出モデルはある程度機能すると期待する。 表 1 長単位区間と固有表現区間の対応 単一LUW が複数 NE に対応 401 固有表現が単一長単位に対応しない文脈の例を表 2 に示す. 長単位が文節構造から統語的規則で認定されるスパンであるのに対して,固有表現は所与のカテゴリ定義に該当する最短のスパンが認定されている. 今後の課題として, この両者の比較から, 固 有表現が文中で様々な接辞類をまとって長単位化する際に,どのような意味の具象化・抽象化が行われるかを分析し, 各固有表現カテゴリの典型的な修飾要素の類型化につなげていきたい. 表 2 固有表現が単一長単位に対応しない例長単位区間固有表現区間 区切り基準の齯齞 形状詞化・副詞化 具象化・抽象化 $\cdot$ 総称化 3 年 3 カ月ぶり 3 年 3 力月 約二百人 二百人 北西大西洋 大西洋 祐介たち 祐介 ## 4 長単位正規化規則の構築 形態素解析処理で使用する辞書の多くは,出現形に対応する正規形や辞書形が登録されており,短単位出力であればそれらを使用して正規化を行うことができる。一方,長単位の場合は,用言系の複合辞は最終形態素のみを正規化する等の特別な処理が必要となる. また国語研長単位の正規化の規程は場合分けが複雑なため, 使用する形態素解析辞書に応じた正規形変換処理が必要となる. 本研究では Sudachi 辞書 [16] 向けの変換規則を, 次の 3 レベルの優先度に分けて構築して使用した。 1. CharFallback (上位規則未適用時) 数字とアルファベットの全半角統制・助数詞の正規化 2. Any (上位規則未適用時) \{為る: する, こと: 事, つき:付き,いずれ: 何れ,ただし: 但し $\}$ ## 3. Lexical 3-1. Mono (LUW=SUW) \{有る: ある, 居る: いる, 得る:える, 成る: なる, 見る: みる, 出来る:できる, です: だ, 良い: よい, 無い: ない, ここ: 此処, そこ: 其処, どこ: 何処, あそこ: 彼処, あれ: 彼れ, これ: 此れ, それ:其れ,どれ: 何れ,ため: 為,とも: 共, また: 又 3-2. Init (最終 SUW 以外) 活用語以外を正規化 3-3. Last (最終 SUW) \{よる: 因る, おる: 居る $\}$ ## 5 長単位品詞判定規則の構築 日本語の活用型は出現頻度が低いものがあり,全ての活用型の品詞タグを備えた treebankを構築することは一般に難しい. UD_Japanese-GSDLUW および UD_Japanese-BCCWJLUW には小椋らの規程集 [2] で定義される活用型のうち「動詞-一般-上一段八行」「助動詞-助動詞-ドス」など 27 種の活用型が含まれていないため, 機械学習べースで長単位品詞推定を行うには, 学習データに出現しない未知の活用型について配慮が必要となる. 本研究では,機械学習モデルの利用を,短単位から長単位へのまとめ上げ,および,Universal Dependencies の用法に基づく 17 種類の UPOS 推定のみに使用し, 長単位品詞 (LUW_XPOS) については簡易な判定規則を構築した. (判定規則の具体例を Appendix A に示す) 判定規則は次の 5 種類の情報を参照可能とした. LUW_UPOS 長単位に対する UPOS 推定結果 SUW_XPOS 長単位末尾の形態素の短単位品詞 SUW_LEMMA 長単位末尾の形態素の lemma NE 固有表現抽出結果のカテゴリ Priority previous SUW_XPOS 長単位末尾形態素よりも優先して考慮する末尾直前の形態素の短単位品詞 長単位品詞判定規則は,GSDLUW・BCCWJLUW とそれらの短単位版との共起統計から人手で抽出し,優先度を次の 5 レベルに分けて実装した。 1. Fallback 最も優先度が低いフォールバックルー ル. LUW_UPOSを参照し,個々のLUW_UPOS に対応する典型的な長単位品詞が存在する場合はそれを適用する. また,可能性に基づく品詞を既定の用法の長単位品詞に変換する規則も適用する. いずれの規則にも該当しない場合は,短単位品詞をそのまま長単位品詞として用いる. 2. NE NE と LUW_UPOS に加えて, PERSON カテゴリでは Priority previous SUW_XPOS まで参照して,名詞-固有名詞の細分類を判定する。 3. Single 長単位が単一 SUW で構成される場合に適用される. SUW_XPOS とLUW_UPOS の組み合わせのみを参照する。 4. Multi 長単位が複数の SUW で構成される場合に適 用される. SUW_XPOS・LUW_UPOS に加え,特に接辞系の品詞の用法判定のためにSUW_LEMMAを参照する。なお,Single と Multiをまとめたものを Base と呼ぶ. 5. Recovery 最も優先度が高いリカバリルール. SUW_XPOS・LUW_UPOS に加え, 必要に応じて SUW_LEMMA まで参照することで,形態素解析器の典型的な誤解析から正しい長単位品詞を得る. ## 6 実験 Comainu と spaCy の長単位解析精度を比較する実験を行った。学習データには UD_JapaneseGSDLUW r2.9(修正版) に固有表現正解ラベルを追加したものを使用し, train セット 7,027 文をモデルの訓練に,dev セット 506 文をパラメータと判定規則のチューニングに, test セットを精度評価に用いた. Comainu のライブラリとモデルはv0.72を用いて評価した。なお, Comainu のモデルを GSDLUW で学習・評価する追加実験では, 公式モデルに比べ全般に若干精度が低下していたため記載を省略した。spaCy は設定ファイルで transformers モデルを指定し, cl-tohoku/bert-base-japanese-v2 および SudachiPy[17] モード Cを指定した. spaCy のモデル学習には GSDLUW を SudachiPy で再解析したものを使用した. この再解析では,1つの長単位が複数形態素に分割される場合,分割区間の主辞を区間末尾のサブトークンとし,各サブトークンは直後のサブトークンに依存する形として,長単位再構成用の subtok ラベルを付与した. これ以外の区切りの不整合は無視し,GSDLUW の区切りを優先して用いた. 長単位トークン認定,長単位正規化,長単位品詞推定の精度比較結果を表 3 に示す。 長単位トークン認定では, Comainu に対して spaCy では誤りが約半分まで低減された。これは, spaCy が transformers を介して文全体の構文構造を考慮したトークンまとめ上げを行っているのに対して, Comainu の CRF モデルは局所文脈しか考慮できないことが制約になっている可能性がある. 長単位正規化においては, spaCyの精度が Comainu を大きく上回った. これは正規系変換規則の効果に加えて, SudachiPy モード C が複合動詞の正規化に対応していることによる貢献が大きい. $\mathrm{spaCy} の$誤解析の大半は英単語・数値・住所だったが,英単語・数値は全半角統制ポリシーが辞書登録語彙に表 3 長単位解析精度の比較 P $\quad \mathrm{F}$ F1 依存していること,住所は SudachiPy モード C が住所全体を一形態素としていることが原因であった. SudachiPy のさらなる改良項目として,活用を維持したままでの正規化,住所と住所以外の解析モードを独立に指定可能にすること,が考えられる。 長単位品詞推定精度は, spaCy に基本判定規則を組み合わせることで Comainu を上回り,さらに誤解析回復規則と固有表現抽出結果を参照する規則を加えることで最良の結果が得られた。 長単位解析精度の差分については,正解トークンを用いた追加実験でも同様の傾向が確認された. 表 4 長単位モデルの依存構造解析精度 表 4 に長単位モデルの依存構造解析精度を示す。長単位品詞判定規則が機能する上で必要な水準の LUW_UPOS 推定精度が得られている. Unlabeled Attachment Score,および,Labeled Attachment Score は一般的な日本語モデルと同水準にあり,長単位へのまとめ上げに使用する subtok ラベルが他の依存関係ラベルと調和して機能していることが伺える。 ## 7 まとめ spaCyを用いた長単位解析系を実装し,長単位トークン認定・長単位品詞推定・長単位正規化において従来手法を大きく上回る精度を得た。依存構造解析はUAS・LAS ともに高水準であった. ## 謝辞 本研究は株式会社リクルート-国立国語研究所共同研究 (研究課題名「日本語版 Universal Dependencies に基づく日本語依存構造解析モデルの研究開発」 2019-2021 年度)によるものです. 長単位解析系の実装にあたって, 理化学研究所の松本裕治先生から多くの助言を頂きました. 本研究で使用した spaCy モデルのべースとなった $\mathrm{spaCy}$ 日本語 transformers モデルは, spaCy 日本語コミュニティー の Gitterを通じて, 参加者の皆様と基本設計を行いました. SudahiPyおよび Sudachi 辞書の利用においては,株式会社ワークスアプリケーションズ・ エンタープライズ徳島人工知能 NLP 研究所の皆様に多大なご協力を頂きました. 本研究の解析モデルは, explosion/spaCy$\cdot$ huggingface/transformers$\cdot$ cl-tohoku/bert-base-japanese-v2・MeCab など高性能なオープンプロダクトを利用することで効率的に実装することができました. 本研究をご支援いただいた皆様に,心より感謝申し上げます。 ## 参考文献 [1] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), Melbourne, Australia, July 2018. Association for Computational Linguistics. [2] 小椋秀樹, 小磯花絵, 冨士池優美, 宮内佐夜香, 小西光, 原裕. 『現代日本語書き言葉均衡コーパス』形態論情報規程集第 4 版(上). Technical report, 国立国語研究所内部報告書, 2011. [3] Hajime Morita, Daisuke Kawahara, and Sadao Kurohashi. Morphological analysis for unsegmented languages using recurrent neural network language model. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 2292-2297. Association for Computational Linguistics, September 2015. [4] Yasuharu Den, Junpei Nakamura, Toshinobu Ogiso, and Hideki Ogura. A proper approach to Japanese morphological analysis: Dictionary, model, and evaluation. In Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC'08). European Language Resources Association (ELRA), May 2008. [5] 小椋秀樹, 小磯花絵, 冨士池優美, 宮内佐夜香, 小西光, 原裕. 『現代日本語書き言葉均衡コーパス』形態論情報規程集第 4 版(下). Technical report, 国立国語研究所内部報告書, 2011 . [6] Joakim Nivre, Marie-Catherine de Marneffe, Filip Ginter, Yoav Goldberg, Jan Hajič, Christopher D. Manning, Ryan McDonald, Slav Petrov, Sampo Pyysalo, Natalia Silveira, Reut Tsarfaty, and Daniel Zeman. Universal Dependencies v1: A multilingual treebank collection. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16). European Language Resources Association (ELRA), May 2016. [7] Mai Omura and Masayuki Asahara. UD-Japanese BCCWJ: Universal Dependencies annotation for the Balanced Corpus of Contemporary Written Japanese. In Proceedings of the Second Workshop on Universal Dependencies (UDW 2018). Association for Computational Linguistics, November 2018. [8] Yugo Murawaki. On the Definition of Japanese word. June 2019. arXiv: 1906.09719 [cs.CL]. [9] Mai Omura, Aya Wakasa, and Masayuki Asahara. Word Delimitation Issues in UD Japanese. In Proceedings of the Fifth Workshop on Universal Dependencies (UDW, SyntaxFest 2021), 2021. [10] 小澤俊介, 内元清貴, 伝康晴. 長単位解析器の異なる品詞体系への適用. 自然言語処理, Vol. 21, No. 2, 2014. [11] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing. Association for Computational Linguistics, July 2004. [12] Matthew Honnibal and Mark Johnson. An improved non-monotonic transition system for dependency parsing. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [13] 松田寛, 大村舞, 浅原正幸. 短単位品詞の用法曖昧性解決と依存関係ラベリングの同時学習. 言語処理学会第 25 回年次大会発表論文集, 2019 . [14] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1. Association for Computational Linguistics, June 2019. [15] 松田寛, 若狭絢, 山下華代, 大村舞, 浅原正幸. Ud japanese gsd の再整備と固有表現情報付与. 言語処理学会第 26 回年次大会発表論文集, 2020. [16] 坂本美保, 川原典子, 久本空海, 高岡一馬, 内田佳孝.形態素解析器『sudachi』のための大規模辞書開発. 言語資源活用ワークショップ 2018 発表論文集, 2018. [17] Kazuma Takaoka, Sorami Hisamoto, Noriko Kawahara, Miho Sakamoto, Yoshitaka Uchida, and Yuji Matsumoto. Sudachi: a Japanese tokenizer for business. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018). European Language Resources Association (ELRA), May 2018. ## Appendix A 長単位品詞判定規則 長単位品詞判定規則は, Rules_Recovery, Rules_Base, Rules_NE, Rules_Fallback の順に適用し,可能性に基づく品詞が残存する場合は既定の長単位品詞にフォールバックさせる. Rules_Base は,長単位が単一SUWで構成される場合の Rules_Single(33 エントリ) と, 複数 SUW で構成される場合の Rules_Multi(34 エントリ) に分けて管理され,Rules_Recovery (33 エントリ) は形態素解析器の誤解析回復に使用される. 表 5 SUW 情報とLUW_UPOS を参照する長単位品詞判定規則の一部 表 6 Rules_ $N E$ : 固有表現カテゴリに基づく長単位品詞判定規則 表 7 Rules Fallback: LUW_UPOS に基づく長単位品詞判定規則 表 8 実験条件詳細 UD_Japanese-GSDLUW+NE r2.9 (train=7,027 dev=506 test=542 sentence) UD_Japanese-BCCWJLUW r2.9 (train=40,801 dev=8,427 test=7,881, only used for rule construction) Comainu 0.72 MeCab 0.996, unidic-mecab 2.1.2 spaCy 3.2.1 SudachiPy 0.6.2, SudachiDict-core 20211220 spacy-transformers 1.1.3 cl-tohoku/bert-base-japanese-v2, fugashi 1.1.1, unidic-lite 1.0.8 GPU RTX8000(48GB) x 2 CUDA 10.0, pytorch 1.9.1, transformers 4.12.5 CPU Xeon E5-2660 v3 x 2 DDR4-2666 32GB x 8, M. 2 NVMe PCIe3.0x4 2TB, Pop!_OS 18.04 LTS
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH1-6.pdf
# テキスト生成モデルを利用した 対話型広告におけるシナリオ設計に有用なキーフレーズの抽出 戸田隆道 友松祐太杉山雅和 邊土名朝飛東佑樹 下山翔 株式会社 AI Shift \{toda_takamichi,tomomatsu_yuta,sugiyama_masakazu\}@cyberagent.co.jp \{hentona_asahi, azuma_yuki, sho_shimoyama_xb\}@cyberagent.co.jp ## 概要 近年インターネット広告事業において対話型広告が注目を集めている。ユーザーの反応に合わせた柔軟な広告展開が期待されており,バナー広告や SNS などで導入が増えてきている。対話型広告は広告から商品ページに遷移するまでの対話ストーリーを設計する作業が必要になる.ここで設計者が広告する商品の知識を持っていない場合,企業のホームぺー ジやその商品を紹介しているブログなどを参照して,対話ストーリーを考えなければならない。この作業は非常にコストがかかる. 本稿ではテキスト生成モデルを利用して,対話型広告の対話ストーリー 設計の補助となるキーフレーズを抽出する手法を提案し,単純に関連文章からキーフレーズを抽出した場合と比較する。 ## 1 背景 現在のインターネット広告事業において主流となっている行動データに基づくターゲティング配信に変わる新たな配信方法として,近年対話型広告が注目を集めている。従来の広告形式には無かった双方向の対話によって,ユーザーの反応に合わせた柔軟な広告展開を期待されており,バナー広告や SNS,メッセンジャーアプリなど,さまざまな媒体で導入されている. ## 1.1 Instagram における広告展開 Instagram は Meta Platforms, Inc. が所有する SNS サービスである。近年,Instagram はユーザー同士の交流に加え, 商品の検索や購入の意思決定に利用されるケースが増えてきており,調査 ${ }^{1}$ によると利用者の 8 割以上がこういった購買行動に利用し 1) https://netshop.impress.co.jp/node/6716 図 1 投稿から対話型広告への誘導 ていることがわかっている.こういった背景から Instagram はショッピング機能を強化しており,現在は写真や動画の投稿から商品ページへの誘導が可能になっている. ## 1.2 対話型広告 Instagram のショッピング機能の 1 つとして対話型広告がある. 対話型広告はダイレクトレスポンス広告とも呼ばれ,配信された広告にスワイプ操作などで反応するとダイレクトメッセージ画面に遷移し,オペレータやボットとの対話を通して商品ぺー ジに誘導することができる機能になっている.従来のインターネット広告では反応すると直接商品ぺー ジに遷移していたが,対話型広告ではユーザーの反応に合わせた商品の絞り込みや商品を購入するモチベーションを上げるための診断対話,加えて対話履歴からリターゲティングを行うことができるという利点がある。 ## 1.3 対話型広告の課題 従来のインターネット広告に比べて柔軟な広告展開が可能な対話型広告だが,商品ぺージに遷移するまでの対話ストーリー設計,つまり商品に関する対話を想定し,ユーザーの選択肢やボット側の受け答えの文章を作るという従来のインターネット広告と は異なる運用作業が必要になる. 設計者が広告する商品やその関連商品を利用している場合はユーザー と同じ目線に立って対話ストーリーを設計することができるが,設計者が広告する商品の知識を持っていない場合,企業のホームページやその商品を紹介しているブログなどを参照して,対話ストーリーを考えなければならない. 例えばファンデーションの対話型広告を設計する場合,「乾燥肌」や「ニキビ肌」など肌質にあった商品をレコメンドするようなストーリーが考えられる。これはファンデーションを日常的に使っている人であれば容易に思いつくストーリーの切り口だが,そうでない人にとってはストーリーの切り口を検討するための事前調査が必要で,場合によっては調査のための検索ワードもわからないケースも想定される. 本研究では対話型広告における対話ストーリーの設計の自動化を目的とし, 本稿では対話ストーリー 設計の補助として,広告する商品に関するキーフレーズの抽出を行う手法を提案する. ## 2 関連研究 オープンドメインな対話を生成する研究として Xiaoyu[1] や Pierre[2], Kun[3] などの研究が挙げられる.これらは雑談のような終わりのない対話を人間らしく自然に行うことを目的としているため, 最終的に特定の商品に誘導したい対話型広告とは目的が異なる。また, 話題を抽出する手法として福永らの研究 [4] が挙げられるが,こちらは対話のクラスタリングによって対話から話題となる発話を抽出するので,特定のワードからそれに関わる話題を抽出したい我々のモチベーションとは異なる. ## 3 提案手法 広告する商品に関する知識がない設計者が対話型広告の対話ストーリーを設計する際の補助となるように,広告する商品に関するキーフレーズの抽出を行う手法を提案する. 運用者はこのキーフレーズを元に対話ストーリーの設計や調査を行う. 手法は関連文章生成と生成文書からのキーフレーズ抽出の 2 段階で構成されている. また手法では広告する商品のジャンルのことをターゲットワードと呼ぶ. ## 3.1 関連文章生成 テキスト生成モデルとして GPT-2[5]を用いて, ターゲットワードで始まる文章を複数生成する。 図 2 提案手法の流れ Wikipedia のようなテキスト生成モデルの学習リソース自体からキーフレーズを抽出するより多様なキーフレーズが抽出できると考えている. また, 生成時にモデルに与えるワードは「ターゲットワード+ (格/副/係) 助詞」とする。例えばターゲットワードが「ファンデーション」の場合,「ファンデーションが」「ファンデーションを」のようになる. ターゲットワードのみの場合, ターゲットワー ドを含む複合名詞が生成されることがある. ター ゲットワードに助詞を追加することで,ターゲットワードが主語や目的語になる,つまりターゲットワードがトピックとなる文章が生成されることを期待している. GPT-2 モデルは rinna 株式会社 ${ }^{2)}$ が公開している事前学習済みモデル3)を利用した。 ## 3.2 キーフレーズ抽出 GPT-2 で生成された文章から名詞句を抽出し, 出現頻度が多いものをキーフレーズとする. 文は複数生成される可能性があるが, ターゲットワードで始まる最初の文章に対してのみ抽出を行う。不明トー クンの<unk>やターゲットワード自身を含む名詞句は除外する。 抽出されたキーフレーズは,そのキーフレーズが含まれる生成文と一緒に設計者に提示され, 設計者はキーフレーズや生成文を参考に対話型広告の対話ストーリーを作成する.  ## 4 実験 複数のターゲットワードに対して提案手法を適用し,抽出されたキーフレーズを確認する. 生成モデルを利用する優位性を比較するために,抽出元としてターゲットワードの Wikipedia のページ,及びターゲットワードを含む Twitter 投稿を比較する. Twitter 投稿は我々が Twitter $\mathrm{API}^{4)}$ を使って 2021 年の 12 月 23 日に,ターゲットワードごとに 10,000 件ずつ收集したものである. 現在我々が対応している美容業界での広告で使われるファンデーション,アイシャドウ,マニキュアの 3 単語をターゲットワードとする. それぞれの抽出元から抽出された各ターゲットワードに対するキーフレーズを表 1 , 表 2 , 表 3 に示す.キーフレーズは頻度が多いものから上位 20 件に絞っている。また,購買に関わると思われるキー フレーズを太字で示す. 表 1 ファンデーションの抽出キーフレーズ ## 4.1 考察 Wikipedia では「酸化チタン」や「古代エジプト」 のように,その商品の組成や起源などの購買と関係の無い単語が多く生成されている. 提案手法の GPT-2 はバランス良く多様なキーフレーズが取得できている事がわかる.たとえばファンデーションであれば 1.3 節で例示した肌質,アイシャドウではアイラインの書き方,そしてマニキュアではストーン 4) https://developer.twitter.com/ja/docs表 2 アイシャドウの抽出キーフレーズ 表 3 マニキュアの抽出キーフレーズ \\ を使ったアレンジなどのストーリーの切り口が考えられる. Twitter は「Aluce luce」や「DIOR」のようなブランドに関する単語が混ざってしまっているものの比較的良いキーフレーズが抽出できているように見える.ファンデーションにおいては「毛穴」 や「コンシーラー」といった GPT-2 から抽出されたキーフレーズに含まれていないものも抽出できているので,組み合わせることでより多様なキーフレー ズ抽出ができることが期待できる. 手法に限らず,すべての抽出元で「もの」「こと」 のような形式名詞や「何」「時」のような,多くの文章で頻繁に使われるワードが抽出されてしまっている. 今回の抽出では後処理は加えていないが,ター ゲットワードに特別関わらないワードは除外するなどの処理を加えることで,よりよい抽出ができると ## 考えられる。 ## 5 まとめと今後の展望 本稿ではテキスト生成モデルを利用して,対話型広告の設計の補助となるキーフレーズを抽出する手法を提案し,テキスト生成モデルを利用せず,単純に関連文章から抽出した場合と抽出されるキーフレーズの違いを比較した。 今後は提案手法が実際の運用の現場で使用されることで,どの程度作業が効率化されるかを評価していきたいと考えている. また手法の改善として以下 3 点を挙げる. 1. 名詞句だけでなく,動詞を含む動詞句を抽出したケースについても確認する。 2. キーフレーズの重要度として,TF-IDF のような頻度のみでなく普遍性を考慮した手法を利用する。 3. 係り受け解析などを利用して,キーフレーズがどのように使われているかの抽出. 運用で使用した場合,実際に本手法で抽出されたキーフレーズをもとに作ったストーリーがどれほどの効果があったかを A/B テストなどで測ることも考えている.実際の広告とどちらが効果があるか,といった部分も評価したい. ## 参考文献 [1] Xiaoyu Shen, Hui Su, Yanran Li, Wenjie Li, Shuzi Niu, Yang Zhao, and Akiko Aizawaand Guoping Long. A conditional variational framework for dialog generation, 2017. https: //arxiv.org/abs/1705.00316. [2] Pierre Colombo, Wojciech Witon, Ashutosh Modi, James Kennedy, and Mubbasir Kapadia. Affect-driven dialog generation, 2019. https://arxiv.org/abs/1904.02793. [3] Zhou Yu Kun Qian. Domain adaptive dialog generation via meta learning, 2019. https://arxiv.org/abs/1906. 03520. [4] 福永隼也, 西川仁, 徳永健伸, 横野光, 高橋哲朗. 対話における話題の抽出を目的とした発話クラスタリング.言語処理学会第 23 回年次大会発表論文集, 2017. [5] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners, 2019. https://paperswithcode.com/paper/ language-models-are-unsupervised-multitask.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH1-7.pdf
# 時間的常識理解へ向けた効果的なマスク言語モデルの検証 Fei Cheng ${ }^{3}$ 越智 綾子 ${ }^{2}$ 小林一郎 ${ }^{1}$ 1 お茶の水女子大学 2 国立国語研究所 3 京都大学 \{g1720512,koba\}@is.ocha.ac.jp, kanashiro.pereira@ocha.ac.jp \{masayu-a,a.ochi\}@ninjal.ac.jp, feicheng@i.kyoto-u.ac.jp ## 概要 本研究では,時間的常識推論に対する言語モデルの開発に焦点を当て,効果的なマスク言語モデルの検証を行った.ファインチューニングの前に,時間的常識を問う対象のデータセットを用いた Masked Language Modeling (MLM) と Next Sentence Prediction を行い,また,MLMにおいてマスクする対象となるトークンを様々な設定に変更して実験を行なった.実験の結果,対象タスクのトピックに合わせて単語をマスクすることにより,時間的常識を問うタスクにおいて,4,5\%程度の精度の向上を確認できた. ## 1 はじめに 近年,BERT [1] などの事前学習済み言語モデルが幅広い自然言語処理(NLP)タスクで大きな成果を上げているが,これらのモデルは時間推論においてはまだ性能が低い場合と言われている [2]. 特に困難な課題として,時間的常識を扱う推論が挙げられる. 例えば,「旅行に行く」と「散歩に行く」という 2 の事象が与えられたとき,多くの人間は「休暇は散歩よりも長く, 発生頻度も少ない」ということを知っているが,コンピュータは「休㗇は散歩よりも長く,発生頻度も少ない」という時間的常識をもって推論することが困難である. そこで,本研究では,時間的常識推論に対するモデルの開発に焦点を当て, 先行研究 [3] の継続として時間的常識を理解するための汎用言語モデルの開発を行う. 対象のデータセットを用いた Masked Language Modeling (MLM) と Next Sentence Prediction (NSP) をタスク適応事前学習 (task-adaptive pre-training, TAPT)として実験を行う.また,MLM においてマスクする対象となるトークンを様々な設定に変更することにより,対象タスクを解くのに必要な常識的知識を付加したモデルを提案する. ## 2 提案手法 ## 2.1 時間常識推論課題 MC-TACO 本研究では,対象となる課題として MC-TACO [4] を使用する,MC-TACO では,時間特性に関する 5 つの特徴量 (duration, temporal ordering, typical time, frequency, stationarity)を定義しており,自然言語で表現された事象の時間的常識を理解する課題から構成されるデータセットである. 5 の特徴量のいずれかの特性について記述された文章とその文章に関する質問,それに対する答えの候補,各候補に対して正解には yes,不正解には no とラベル付けされたものから構成されており, yes か no かを予測する二値分類のタスクである. ## 2.2 タスク適応事前学習 (TAPT) BERT は,対象タスクに対してファインチューニングを行うだけで良い性能を発揮するが,事前学習されたモデルと対象課題との間にドメインの不整合がある場合,タスクの精度向上が見込めない場合がある。この問題を解決するために,対象データセッ卜を用いて事前学習を行うことは,事前学習されたモデルをターゲットタスクに適応させるために有用である [5]. これに基づき, MC-TACO データセットを用いて,BERT に対して Masked Language Modeling (MLM)タスクと Next Sentence Prediction(NSP)タスクを実施する。 MLM は,トークンの一部をランダムに特殊なトークン(例えば,[MASK])に置き換え,モデルにその予測をさせるタスクである.NSP は,与えられた 2 文のペアに対して,一方が他方に続く文かどうかを判断するタスクである。本研究では,MLMにおいて,一般的に使用されるマスクする対象のトークンをランダムに $15 \%$ 選択する方式を任意の基準を採用したものに変更し,課題の精度へ の影響を精査する.以下に,採用した基準について説明する。 ## 2.3 対象タスクのトピック 対象タスクのトピックに関連する語彙をマスクすることにより,対象タスクを解くのに必要な知識を重点的に獲得することを目指す. 今回の対象データセットである MC-TACO は時間的常識を問うタスクであり,モデルは時間に関する常識的知識を獲得する必要がある。この観点から,MLM において,時間関係の単語をマスクすることにより,特に時間に関する知識を獲得することを目指す。 時間関係の単語は,MC-TACO のデータを確認し手動で定義する. 主な内容としては,数字,形容詞/副詞/前置詞 (often, before, after, every など), 時間の単位(hours, years など)である(付録 $\mathrm{A}$ 参照)。 ## 2.4 対象タスクの特性 対象とするデータセットの形式に着目したマスク方法を考える.MC-TACO の1 サンプルの入力は,文章十質問十答えで構成されている。このうち,答えの部分がもっとも二値分類タスクの予測結果に関わる部分であり,モデルの学習に重要であるという仮定に基づき,答えの部分を優先してマスクする。 ## 2.5 注意機構 (Attention) 注意機構 (Attention) [6] の値が大きい単語に着目したマスク方法を考える。他の単語からの Attention の値が大きい単語は,他の単語からの注目度が高いということになり,入力された単語の中でも文脈の理解に大きく貢献していると考えられる. ## 2.6 損失に対する顕著性 (Saliency) 損失に対する顕著性(Saliency)の値が高い単語に着目したマスク方法を考える. Saliency は各単語の埋め込みべクトルが最終的な判断にどれだけ寄与しているかを表す指標である [7]. Saliency の値が高い単語は入力文の中で重要な単語と言えるため, その値に着目して実験を行う。 Saliency を求める際には損失と単語の埋め込みべクトルの勾配を求めることになるが,今回使用するモデルである BERT [1] の入力を構成する, Token Embeddings, Position Embeddings, Segment Embeddings の 3 種類の埋め込みべクトルのうち,全てを使用する場合と, Token Embeddingsのみを使用する場合の 2 通りで Saliencyを求める. 以下,前者を求め方 1 ,後者を求め方 2 とする. ## 3 実験 TAPT によって精度が改善することを確認した後に,マスクする対象の選び方を変更した実験を行う. また,作成したモデルを MC-TACO 以外のデー タに用いた性能評価を行い,その結果を分析する。 ## 3.1 実験設定 MC-TACO でのファインチューニングおよび TAPT を行う際のパラメータの設定を表 1 に示す. MCTACO に対しては, Hugging Face の Transformers ${ }^{1}$ で提供されている分類問題用のモデルである,BertForSequenceClassification モデルを使用する. MLM 及び NSP には,BertForPreTraining モデルを使用する. & & & \\ 本研究において,モデルには bert-base-uncased を使用し, 評価指標としては Exact Match (EM) と F1 スコアを採用した.EMは各質問に対する全ての答えを正しくラベル付けすることができる確率であり, F1 スコアは適合率と再現率の調和平均である. ## 3.2 実験結果 まず,通常通りファインチューニングを行なった場合と,対象のデータセットを用いた Masked Language Modeling と Next Sentence Prediction を TAPT として実験を行った場合の結果を比較する。なお, ここでのマスク方法はランダムである.結果を表 2 に示す. ここからの実験結果の記載方法については, MCTACO の評価データを使用した結果と,()内には 5 分割交差検証を行なった結果を記載している。 こちらに示した通り,TAPTを行うことでべースラインよりも精度が上がることがわかる。 1) https://github.com/huggingface/transformers 表 3 時間関係の単語を優先してマスク & & EM [\%] & F1 [\%] \\ 90 & 10 & $44.1(43.3)$ & $71.6(70.1)$ \\ 80 & 20 & $\mathbf{4 5 . 1}(\mathbf{4 4 . 3 )}$ & $\mathbf{7 2 . 7}(\mathbf{7 0 . 7 )}$ \\ 70 & 30 & $42.9(42.6)$ & $71.9(69.5)$ \\ 表 4 答えの部分の単語を優先してマスク 以下に,提案手法における MLM におけるマスクの方法,マスクする単語の選び方を変更し,各実験の結果を示す. なお, 今後の表内において, 表 2 に記載のランダムでマスクした場合の TAPT よりも精度が改善した場合は,太字で結果を記載している。 対象タスクのトピック対象タスクのトピックに関連する時間関係の単語を高い割合でマスクする設定で実験を行なった. 結果を表 3 に示す. 実験の結果,ランダムでマスクした場合よりも精度の向上が確認できた。 対象タスクの特性 MC-TACO の各サンプルの構造に着目して,答えの部分を高い割合でマスクする設定で実験を行なった.結果を表 4 に示す.実験の結果,ランダムでマスクした場合とほぼ同等の精度が確認された。 ここで,答えの中に含まれるかつ時間関係の単語を高い割合でマスクするという,上二つを組み合わせた設定でも実験を行なった。結果を表 5 に示す。実験の結果,ランダムでマスクした場合よりも精度の向上が確認できた. また,二つを組み合わせることにより,単一で基準として採用するよりも精度が向上した. 注意機構(Attention) Attention の値に着目し, 11 番目と 12 番目のレイヤーにおいて, 他の単語からの Attention の値が大きい単語,つまり他の単語からの注目度が高い単語を高い割合でマスクする設定で実験を行なった、レイヤーの選び方については,全 12 層のうち,上のレイヤーの Attention の方が最終的な予測に大きく関係しているのではないかという考えに基づいた.結果を表 6 に示す. 実験の結果,マスクの割合を $15 \%$ に設定した際の精度はランダムでマスクした場合と同等である事が確認できた。損失に対する顕著性(Saliency) 2.6 節で述べた 2 通りの方法で Saliency の值を求め, その值が高い単語上位 15 \%をマスクする設定で実験を行なった。結果を表 7 に示す. 実験の結果,3つの埋め込みベクトルのうち Token Embeddingsのみを使用して Saliencyを求めた場合の精度は,ランダムでマスクした場合より向上することが確認できた。 ここで,Saliency が高い単語に加えて,Saliency が高い単語からの Attention が大きい単語も優先してマスクするという,二つを組み合わせた設定でも実験を行う.これは,単語単体の指標である Saliency に加えて, Attentionを用いることによって単語同士の関係性も考慮するためである。ここでの Saliency は,Token Embedding のみを使用する方法を採用する. 結果を表 8 に示す. 実験の結果,単語単体の Saliency のみを使用した場合よりも精度が少し下がってしまうことが確認された。 汎化性能評価今までは MC-TACO においてモデルの性能評価を行なっていたが,他のデータセッ卜においても性能評価を行い,時間情報処理のための汎用言語モデルとしての汎化性能を評価する。今回は,他のデータセットとして,TimeML $[8,9]$ と MATRES [10] を採用する。時間的常識を問う MC-TACO とは異なり,TimeML はイベントの期間, MATRES はイベントの順番を問うタスクで構成されている。性能評価には,ランダムでマスクをする TAPT によって作成されたモデルと,時間関係の単語をマスクする TAPTによって作成されたモデルを使用する。結果を表 9 に示す. 実験の結果,BERT モデルをそのまま使用した場合と,著者らが作成したモデルで同程度の精度となった. 表 5 答えの中の時間関係の単語を優先してマスク & [\%] & [\%] & EM [\%] & F1 [\%] \\ 100 & 10 & 15.4 & $\mathbf{4 5 . 7}(\mathbf{4 4 . 8})$ & $\mathbf{7 1 . 9 ( 7 2 . 0 )}$ \\ 100 & 20 & 24.8 & $43.2(44.3)$ & $71.0(71.5)$ \\ 80 & 20 & 22.4 & $44.2(44.1)$ & $71.3(71.3)$ \\ 表 6 Attention の値が大きい単語を優先してマスク 表 7 Saliency の值が高い単語を優先してマスク ## 3.3 考察 マスク言語モデルにおけるマスク対象をランダムな選択から様々な設定に基づく選択で実験を行なってきたが,最も結果が良かったのは答えの中の時間関係の単語を高い割合でマスクした場合であり,次に良かったのは,データセット全体において時間関係の単語を高い割合でマスクした場合であった. これらはランダムでマスクした場合よりも高い精度を出している。このことは,マスクする単語を慎重に選択することが性能に影響すること,対象タスクのトピックに合わせて単語を選択しマスクをすることで,タスクを解くのに必要な知識を重点的に獲得できることを示している. また, Saliency の値に着目した実験設定では,Token Embeddingsのみを使用して Saliency の値を計算することによって選択した単語をマスクした場合に,ランダムでマスクする設定よりも精度が向上した. Saliency の値は算術的に求められるものであり,今後も詳しく検討する価値のある手法であると考えている。 一方で,Attention の値に着目した実験設定では, ランダムでマスクした場合と同等程度の性能となった.これは,予測に関する値が高い単語をマスクすることは,ランダムにマスクする場合以上のタスクを解くのに必要な知識の獲得には繋がらない可能性を示唆している。このことは, Transformer の Attention は最終的な識別には大きな貢献をしていないという研究報告 [11] にも合致している. MC-TACO 以外のデータセットを使用した汎化性表 8 Saliency が高い単語 + Attention が高い単語を優先してマスク & EM [\%] & F1 [\%] \\ 30 & $44.1(42.9)$ & $71.1(70.3)$ \\ 表 9 汎化性能評価 & \\ TAPT(random) & 81.9 & $\mathbf{7 2 . 6}$ \\ TAPT (時間関係) & 82.2 & 71.6 \\ 能の評価では,精度が改善しなかった。これは作成したモデルが MC-TACO のタスクを解くのに適したものになってしまっているからだと考えられ,現在の手法では汎用性に欠けることがわかった。これに対しては,今後,複数のデータセットのタスクを同時に解くマルチタスク学習などを通じて汎用性を高めることを検討したい. ## 4 おわりに 本研究では, 対象のデータセットを用いた Masked Language Modeling (MLM) と Next Sentence Prediction をタスク適応事前学習(TAPT)として実験を行った.また,MLMにおいてマスクする対象となる単語の選び方を従来のランダムの選択から様々な基準に変更して実験を行なった。提案モデルを難易度の高い multiple choice temporal common-sense (MC-TACO) [4] で評価したところ,標準的なアプローチよりも性能が大幅に向上していることを確認できた。中でも,対象タスクのトピックに合わせて単語をマスクすることにより精度が大きく改善し, タスクを解くのに必要な知識を獲得することができたと考える。今後は,他のデータセットやモデルにおいても同様に精度が向上するよう,汎化性能を高めていきたいと考えている. ## 謝辞 本研究は,科研費(18H05521)の支援を受けた。 ここに謝意を表す。 ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Marco Tulio Ribeiro, Tongshuang Wu, Carlos Guestrin, and Sameer Singh. Beyond accuracy: Behavioral testing of nlp models with checklist. arXiv preprint arXiv:2005.04118, 2020. [3] 木村麻友子 Lis Kanashiro Pereira, 小林一郎. 時間的常識を理解する言語モデルの構築へ向けて. 言語処理学会年次第 27 回大会, pp. 1193-1198, March 2021. [4] Ben Zhou, Daniel Khashabi, Qiang Ning, and Dan Roth. "going on a vacation" takes longer than "going for a walk": A study of temporal commonsense understanding. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3363-3369, Hong Kong, China, November 2019. Association for Computational Linguistics. [5] Suchin Gururangan, Ana Marasović, Swabha Swayamdipta, Kyle Lo, Iz Beltagy, Doug Downey, and Noah A. Smith. Don't stop pretraining: Adapt language models to domains and tasks. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8342-8360, Online, July 2020. Association for Computational Linguistics. [6] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. 2017. [7] Jiwei Li, Xinlei Chen, Eduard Hovy, and Dan Jurafsky. Visualizing and understanding neural models in NLP. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 681-691, San Diego, California, June 2016. Association for Computational Linguistics. [8] Roser Saurí, Jessica Littman, Bob Knippen, Robert Gaizauskas, Andrea Setzer, and James Pustejovsky. Timeml annotation guidelines. Version, Vol. 1, No. 1, p. 31, 2006. [9] Feng Pan, Rutu Mulkar-Mehta, and Jerry R Hobbs. Extending timeml with typical durations of events. In Proceedings of the Workshop on Annotating and Reasoning about Time and Events, pp. 38-45, 2006. [10] Qiang Ning, Hao Wu, and Dan Roth. A multi-axis annotation scheme for event temporal relations. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1318-1328, Melbourne, Australia, July 2018. Association for Computational Linguistics. [11] Goro Kobayashi, Tatsuki Kuribayashi, Sho Yokoi, and Kentaro Inui. Attention is not only a weight: Analyz- ing transformers with vector norms. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 7057-7075, Online, November 2020. Association for Computational Linguistics. ## A 付録 2.3 節に記載している時間関係の単語について,そのリストを記載する。このリストに数字 $(0,1,2, \ldots)$ を追加したものを使用した。 ['after', 'afternoon', 'afterwards', 'age', 'ago', 'already', 'always', 'am', 'annually', 'april', 'august', 'before', 'between', 'billion', 'centuries', 'century', 'current', 'currently', 'daily', 'day', 'days', 'decade', 'decades', 'during', 'earlier', 'early', 'eight', 'eternity', 'evening', 'eventually', 'ever', 'every', 'everyday', 'fifteen', 'fifty', 'first', 'five', 'for', 'forever', 'four', 'fourth', 'frequency', 'friday', 'from', 'future', 'hour', 'hourly', 'hours', 'hundred', 'hundreds', 'in', 'january', 'june', 'just', 'later', 'long', 'march', 'midnight', 'millions', 'minute', 'minutes', 'monday', 'mondays', 'month', 'monthly', 'months', 'morning', 'mornings', 'never', 'night', 'noon', 'now', 'often', 'once', 'one', 'overnight', 'past', 'per', 'pm', 'previously', 'prior', 'quickly', 'rarely', 'saturday', 'season', 'second', 'seconds', 'september', 'seven', 'several', 'since', 'six', 'sometime', 'spring', 'still', 'summer', 'sunday', 'ten', 'then', 'third', 'thirteen', 'thirty', 'thousand', 'three', 'time', 'times', 'today', 'tomorrow', 'tuesday', 'twenty', 'two', 'until', 'usual', 'usually', 'wednesday', 'week', 'weekday', 'weekdays', 'weekend', 'weekends', 'weekly', 'weeks', 'when', 'whenever', 'while', 'will', 'within', 'year', 'yearly', 'years', 'yesterday', 'yet', 'zero'] また,本文に記載の実験以外にもいくつかの設定で実験を行なったので,こちらに記載する. 注意機構 (Attention) MC-TACO で通常通りファインチューニングしたベースラインモデルと,今までに作成して精度が改善したモデルとの間で,レイヤー11,12における他の単語からの Attention の値の上がり幅が大きい単語を高い割合でマスクする。これは,精度が改善しているということは Attention の当たり方も改善されており,上がり幅が大きい単語は精度の改善に大きく影響している単語なのではないかという考えに基づいている.今まで作成したモデルとして, 先行研究 [3] で作成したモデル 2つを使用する. Multi-Step Fine-Tuning に SWAG を使用したものと,ランダムでマスクした TAPT である.結 表 102 つの手法間で Attention の値の上がり幅が大きい単語を優先してマスク & $40.9(42.1)$ & $69.9(68.2)$ \\ 30 & $43.5(42.7)$ & $71.2(70.6)$ \\ 45 & $43.0(41.2)$ & $71.0(68.9)$ \\ 60 & $42.2(39.9)$ & $71.1(68.4)$ \\ 30 & $42.4(42.5)$ & $70.5(69.2)$ \\ 45 & $42.3(42.3)$ & $70.8(69.6)$ \\ 60 & $41.4(43.6)$ & $69.4(70.1)$ \\ 果を表 10 に示す. 今回の実験設定では,ランダムでマスクした場合よりも精度が下がってしまうことが確認された。 損失に対する顕著性(Saliency) Saliency の值が高い単語ではなく,高くも低くもない真ん中の単語を高い割合でマスクする設定でも実験を行なった.結果を表 11 に示す. 実験の結果,精度は上がらず, Saliency に関しては値が高い単語に着目する方が良い結果が出ることがわかった. 表 11 Saliency の值が高くも低くもない単語を優先してマスク
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH1-8.pdf
# ドメインに特化した比較的少量のデータによる事前学習済み BERT の 利用可能性 : 鉄鋼業における事例 岩月憲一 日本製鉄株式会社 iwatsuki.pz4. kenichi@jp. nipponsteel.com ## 概要 BERT を特定の業種に特化した場面で用いる際には、汎用のモデル、汎用のモデルに追加学習を施したモデル、フルスクラッチで事前学習したモデルのいずれかの選択肢がある。事前学習を行えば分野に特化したモデルができるが、分野が狭くなるほど用意できるデータは少なくなる。本研究では、鉄鋼業に特化したデータを用いて追加学習・事前学習を行い、ファインチューニングを要する特許分類タスクと、要しない語義曖昧性解消タスクで評価した。実験の結果、学習データが比較的少ないとしても、事前学習したモデルが優位になる場合があることが分かった。 ## 1 はじめに デジタルトランスフォーメーションが叫ばれる中、製造業においても自然言語処理の需要は高まっている。BERT[1]をはじめとする Transformer ベースの言語モデルは、タスクに応じてアーキテクチャを大きく変更することなく高い性能が発揮できる点で魅力的である。 しかし、Wikipedia やウェブコーパス等で事前学習された汎用の言語モデルを特定の業種におけるタスクに適用した場合に十分な性能が発揮されるとは限らない。そのため、学術論文[2]や法律文書[3]を用いて事前学習されたモデルが提案されている。この観点から、業種に特有の文書によって事前学習を行うことが望まれる。 その一方で、データサイズの問題が生じ得る。 BERT 以降、事前学習に用いられるデータサイズは増加している。しかし業種を狭めれば狭めるほど利用可能なデータは少なくなる。したがって、より多くのデータで学習された汎用のモデルを用いるか、 より少ないデータで学習された業種特化型のモデルを用いるということになる。 さらに、汎用の事前学習済みモデルに対してドメインに特化したデータで追加学習を行うことにより性能の向上が見られたという報告がある[4]。よって 3 つ目の選択肢として、追加学習によるモデルを用いることが挙げられる。 本研究では、いずれの選択肢をとるべきか検討するため、鉄鋼業に特化した文書を用いて BERT の事前学習と、日本語の汎用 BERT モデルに対する追加学習を行った。事前学習にあたっては、専門用語の分割が不必要に行われることを防ぐため、 SentencePiece[5]を用いてトークン化を行った。 評価のために、鉄鋼分野の知識を必要とするタスクを 2 つ用意した。1つ目は、特許分類タスクである。これは、ラベル付きの特許抄録を用いてファインチューニングをし、分類の精度を比較するものである。 2 つ目は、教師なし語義曖昧性解消タスク[6]である。BERT はもともとファインチューニングをすることを前提として提案されたモデルであるが、事前学習済みモデルをそのまま用いて文ベクトルを得ることも行われている[7]。企業活動の中で産出される文書に何らかの正解ラベルが付与されていることは少ない上に、専門性が高いためアノテーションコストが大きい。こうした背景から、ファインチューニングを要しないタスクでの評価も行うことにした。 このタスクは、BERT が Masked Language Model (MLM)で学習されていることを踏まえ、曖昧性を持つ語を[MASK]に置き換えて同分野の語が推定されるかを確認するものである。鉄鋼分野において使われる略語のうち、語義が複数あるものを対象にした。 実験の結果、特許分類については事前学習モデル、追加学習モデルともに汎用モデルと同等以上の性能を発揮した。また、語義曖昧性解消については、事前学習モデルが最も良い性能を、追加学習モデルがそれに次ぐ性能を示した。 以上の結果から、比較的少ないデータであったとしても、業種に特化したデータを用いて事前学習モデルを作成することの有用性が示唆された。 ## 2 手法 ## 2.1 モデル 本研究では、汎用モデル、追加学習モデル、事前学習モデルの 3 つの BERT モデルを使用した。汎用モデルには、cl-tohoku/bert-base-japanese-whole-wordmasking を使用した。このモデルに鉄鋼分野のデー タ(後述)で追加学習を行ったモデルを追加学習モデルとした。 事前学習モデルには、SentencePiece によるトークン化を採用した。これは既存の辞書ベースのトークナイザでは専門用語への対応が難しいと判断したためである。語彙の大きさは 30,000である(汎用モデルの語彙は 32,000 語でありほぼ同等である)。 BERT の実装には huggingface/transformers[8]を使用した。また、事前学習と追加学習ともに MLM のみであり、Next Sentence Prediction は行っていない。 ## 2.2 事前学習用データ 事前学習用のデータとして、鉄鋼・非鉄各社の技報および鉄鋼各社の特許公報を使用した。テキストの総量は 767MB であった。汎用モデルは日本語版 Wikipedia によって事前学習されているが、そのデー タサイズは 2.6GB である。 のデータは汎用モデルのデータの 3 割程度の大きさしかない。 日本語版 Wikipedia にも鉄鋼分野の記事は少なからず存在しているが、その総量は全体の 3 割に満たないと考えられる。 ## 3 評価タスク ## 3.1 特許分類 本タスクは、特許抄録を入力とし、その特許が属する技術分野を出力する分類タスクである。1つの特許抄録は複数の分野に属しうるため、マルチラべル分類問題である。  今回使用するデータとして、鉄鋼分野に属する 36,415 件の特許抄録を抽出した。このうち約 1 割を評価用データとし、残りを訓練用データとした。それぞれの抄録にラベルが専門家の手によって付与されており、「製鋼-鋼精錬」「鋼管-油井管」などがある。 なお、事前学習モデルおよび追加学習モデルはその事前/追加学習データに特許公報が含まれているが、本タスクのデータと全く同じではなく、一部重複している。 また、入力は先頭の 256 トークンのみを使用しており、それ以降のテキストがある場合は無視されている。 訓練用データを用いて、5 分割交差検証によりパラメータチューニングを行った。その後、評価用デ ータを用いて評価を行った。 評価は、本タスクがマルチラベル分類問題であるため、次の指標により行った。1つ目は、正解率である。1つの文書に対し過不足なくすべてのラベルが正しく推定された場合に正解とみなした。2つ目は、各分類ラベルの $\mathrm{F}$ 值である。これについてはミクロ平均とマクロ平均の両方を算出した。 ファインチューニングは、 3 種類の BERT それぞれに線形層を加えて行った。BERT の出力のうち [CLS]トークンを線形層に入力した。 ## 3.2 語義㖟昧性解消 本タスクは、同じ表記であるが語義の異なる言葉の語義を推定するために、ファインチューニングを行わずに BERT の MLM を用いるというものである [6]。先行研究[6]では一般の日本語についての語義曖昧性解消を目的としていたが、本研究ではこれを鉄鋼分野に適用するため、改変を加えた。 タスクの詳細を実例で示す。例えば、ASRという単語には、「自動速度制御」 (Automatic Speed Regulation)という意味と、「自動車破砕後の残留物」 (Automobile Shredder Residue) という意味がある。 いずれの語義であるかは文脈によって判断される。 この 2 語は属する技術分野が異なるため、語義というよりもどの分野の語であるかが分かれば十分である。これを踏まえ、この語を含む文のうち当該語を [MASK]トークンに置き換え、BERT に[MASK]に入る語を予測させる。予測結果として得られた語の示寸技術分野が、元の語の属する技術分野であると推定する。上記の例では、ASRに対して、制御に関す る語「AGC」(Automatic Gauge Control)が予測されれば制御分野として推定される。 今回は、[MASK]を埋める語として推定された語のうち最も確率の高い 1 語の示す分野が同じである場合に正解とみなした。ただし、元の語と全く同じ語が推定された場合は、どの技術分野かわからないため、次点の語を用いた。 本タスクの対象となる曖昧な語には、略語を用いた。「鉄鋼実務用語辞典」[9]、「鉄の事典」[10]等に収録されている略語から、表記が同じであるが、属する技術分野の異なる略語を 10 件選択した。 1 件につき、2つの技術分野が該当するようにした。 略語を含む文は、各語各技術分野につき 5 文を論文や社内技術文書から抽出した。合計 100 文を用いて本タスクを行った。 本タスクはファインチューニングを必要としないため、事前学習/追加学習済みのモデルに対してそのまま文を入力した。 ## 4 結果と考察 ## 4.1 特許分類 特許分類の結果を表 1 に示す。いずれの指標でみても、汎用モデルよりも追加学習・事前学習モデルの方がやや上回る結果となった。 表 1 特許分類の結果 図 1 に例としてある特許抄録に各モデルのアテンションの重み(最終層のものの合計)を可視化したものを示す。上から順に汎用モデル、追加学習モデル、事前学習モデルである。背景色が濃い方が重みが大きいことを示している。また、同時にトークン化の違いも見える。事前学習モデルのみ SentencePiece を用いており、「電着塗装後の」や「耐食性に優れた」が 1 つのトークンになっている。これに対し、汎用モデルのトークナイザによるトークンは「電/着/塗装/後/の」や「耐/食/性/に/優れ/た」 とかなり細かくなっている。結果的にこうした重要語の重みが小さくなっている。事前学習に用いたデータが比較的小さいながらも、特許文献に頻出する語句をうまく扱えたことで汎用 BERT と同等以上の性能が出ていると考えられる。 ## 4.2 語義曖昧性解消 表 2 に語義曖昧性解消の結果を示す。汎用モデルより追加学習モデル、さらに事前学習モデルが良い性能を示した。 表 3 は、事前学習モデルのみが正解した例である。汎用モデルは、「事故」という語を予測している。 「事故が発生する」という日本語は自然な表現であるが、鉄鋼に関する文脈であることが十分に認識されていないためにこうした推定がなされたものと考えられる。 表 4 は、すべてのモデルが正解した例である。 Barrel per day という単位に対して、3つとも単位を推定できている。このように、鉄鋼分野に限らず広く多分野で使われる語句については、汎用モデルでも十分に正解できることが分かる。 表 5 も、すべてのモデルが正解した例であるが、表 4 の例に比べて鉄鋼分野に寄っている文である。 このように専門的な文脈であっても汎用モデルが正解できる例もある。逆に、表 6 は全てのモデルが不正解となった例であるが、事前学習モデルと追加学習モデルは元素記号を推定しているのに対し、汎用モデルは企業名の文脈と認識している。「インテル」 という語は事前学習モデルの中にはないため、間違えるにしても分野を大きく外すことはない。このように、入力文から分野を推定しにくい場合に汎用モデルは不利である。こうした点から、特定の分野のデータで学習させることの意義が確認できる。 では、追加学習モデルと事前学習モデルではどうか。表 3 や表 6 の誤りの例を見ると、汎用モデルと比較して追加学習モデルは全く関係ない別の分野の語を出してしまうことはある程度避けられていることが分かる。ただし、それでも事前学習モデルには及んでおらず、中間的な性能である。 以上の議論を踏まえると、とりわけファインチュ ーニングを行わずに BERT の文・単語ベクトルを使用する場面にあっては、必ずしも汎用モデルや追加学習モデルが優れるとは限らないと言える。特定の分野に特化した文脈では、全く異なる分野の文脈として捉えられてしまう可能性がある。特定業種に特化したデータで事前学習を行うことで回避できると考えられる。 [CLS] (57)【要約】【課題】電着塗装後の耐食性に優れた槷延鋼板およびその製造方法を提供する。【解決手段】質量 $\%$ で、C:0.015\% $0.08 \% 、 \mathrm{Si}: 1.5 \%$ 以下、Mn: $0.1 \sim 2.5 \% 、 \mathrm{P}: 0.015 \%$ 以下、S: $0.015 \%$ 以下、Al: $0.01 \sim 0.08 \% 、 \mathrm{~N}: 0.009 \%$ 以下、Ti: $0.05 \sim$ $0.2 \%$ を含有し、かつ、下記 A 値が $0 \sim 0.06$ の範囲の組成であり、その他が不可避的不純物からなる鋼板の断面を観察した際に、該鋼板の最表面部から深さ $1 \mu \mathrm{m}$ 、長さ $100 \mu \mathrm{m}$ の断面範囲内に、最長径 $0.05 \mu \mathrm{m}$ 以上の炭化物が 10 個以上 150 個以下存在することを特徵とする電 [CLS] (57) 【要約】【課題】電着塗装後の耐食性に優れた熱延鋼板およびその製造方法を提供する』【解決手段】質量 $\%$ で、C:0.015\%〜 $0.08 \% 、 \mathrm{Si}: 1.5 \%$ 以下、Mn: $0.1 \sim 2.5 \% 、 P: 0.015 \%$ 以下、S: $0.015 \%$ 以下、Al: $0.01 \sim 0.08 \% 、 N: 0.009 \%$ 以下、Til: 0 . $05 \sim$ $0.2 \%$ を含有し、かつ、下記 A 値が $0 \sim 0.06$ の範囲の組成であり、その他が不可避的不純物からなる鋼板の断面を観察した際に、該鋼板の最表面部から深さ $1 \mu \mathrm{m}$ 、長さ $100 \mu \mathrm{m}$ の断面範囲内に、最長径 $0.05 \mu \mathrm{m}$ 以上の炭化物が 10 個以上 150 個以下存在することを特徵とする電着塗装後の耐食性に優れた熱涎鋼板およびその製造方法曰ここに、A 值:C-( Ti/5.5)、CTi はそれぞれの元素の質量%【 [SEP] [CLS] _(57) 要約課題電着塗装後の耐食性に優れた熱延鋼板およびその製造方法を提供する。解決手段質量\%で、C:0.0 15\% 0.08 \%、Si: $1.5 \%$ 以下、Mn:0 1 2.5\%、P : $0.015 \%$ 以下、 $\mathrm{S}: 0.015 \%$ 以下、Al : 0.01 0.08\%、N:0.00 9 \%以下、Ti : 0.05 0.2\% を含有し、かつ、下記 A 值が $0 \sim 0.0$ の範囲の組成であ 炭化物が 10 個以上 150 個以下存在することを特徵とする電着軽装後の耐食性に優れた熱延鋼板およびその製造方法。ここに、A 値:C- (Ti/5 . 5 )、CTi はZ れぞれの元素の質量\% 選択図なし [SEP] 図 1 特許抄録[11]に対する各モデルのアテンションの重みとトークン化の結果 表 2 語義曖昧性解消の結果 表 3 事前学習モデルのみが正解した例 破砕選別業者はプレスまたはシュレッダー処理を行い,後者では[MASK]が発生する。[12] $[\mathrm{MASK}]=\mathrm{ASR}$ 汎用事故 追加学習 スクラップ 事前学習 (正解) シュレッダーダスト ## 表 4 すべてのモデルが正解した例 処理容量は 70,000[MASK]で出荷はシャトルタン カーにより行われる。 $[$ MASK] $=$ BPD (=barrel per day) 汎用 (正解) $\mathrm{t}$ 追加学習 (正解) $t$ 事前学習 (正解) m3 ## 表 5 より専門的な文脈であってもすべてのモ デルが正解している例 以上の 2 回の実験結果より、[MASK]から鋳鉄に加炭される炭素量は加炭材の約 $1 / 4$ であり、小型高周波誘導溶解炉での実験結果と差異はなかった。 [14] $[\mathrm{MASK}]=$ BIC (=bio coke) 汎用 (正解) 石炭 追加学習 (正解) 石炭 事前学習 (正解) コークス表 6 すべて不正解の例 結果は表 2 の通りだが, c-AIC の選択パフォーマンスは AIC や[MASK]のそれと比べて良くなっている. [15] $[$ MASK] = BIC (= Bayesian information criterion) 汎用インテル 追加学習 Si 事前学習 $\mathrm{Pb}$ ## 5 おわりに 本稿では、特定の業種に特化した場面において BERT を用いる際に、汎用のモデル、汎用のモデルに追加学習を施したモデル、特定業種のデータで事前学習をしたモデルのいずれを使用するのが良いかを鉄鋼業を例に検討した。鉄鋼業に特化したテキストデータを用いて事前学習ならびに追加学習を行い、 3 種類のモデルを用意した。 ファインチューニングを要する特許分類タスクと、要しない語義曖昧性解消タスクによって各モデルの評価を行った。実験の結果、特許分類タスクでは事前学習モデルが汎用モデルと同等以上の性能を発揮し、語義曖昧性解消タスクでは汎用モデルよりも追加学習モデルが、さらに事前学習モデルが良い性能を発揮した。 これらの結果から、学習に使えるデータが比較的少ないとしても、特定の業種に特化したモデルを事前学習させることには有用性があると言える。 今後は BERT 以外の言語モデルについても比較検討を加えたい。 ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova. 2018. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 4171-4186. [2] Iz Beltagy, Kyle Lo, Arman Cohan. 2019. SciBERT: A Pretrained Language Model for Scientific Text. Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, 3615-3620. [3] 星野玲那, 狩野芳伸. 2020. 司法試験自動解答を題材にした BERTによる法律分野の含意関係認識. 言語処理学会第 26 回年次大会発表論文集, 577-580. [4] Suchin Gururangan, Ana Marasović, Swabha Swayamdipta, Kyle Lo, Iz Beltagy, Doug Downey, Noah A. Smith. 2020. Don't Stop Pretraining: Adapt Language Models to Domains and Tasks. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 8342-8360. [5] Taku Kudo, John Richardson. 2018. SentencePiece: A simple and language independent subword tokenizer and detokenizer for Neural Text Processing. Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, 66-71. [6] 新納浩幸, 馬ブン. 2021. BERT の Masked Language Model を用いた教師なし語義曖昧性解消. 言語処理学会第 27 回年次大会発表論文集, 1039-1042. [7] Han Xiao. 2018. Bert-as-service. https://github.com /hanxiao/bert-as-service [8] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, ... Alexander Rush. 2020. Transformers: State-of-the-Art Natural Language Processing. Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, 38-45. [9] 鉄鋼新聞社. 2006. 新版鉄鋼実務用語辞典. [10] 朝倉書店. 2014. 鉄の事典. [11] 新日本製鐵株式会社. 2006. 電着塗装後の耐食性に優れた熱延鋼板およびその製造方法. 特開 2006-241539. [12] 山末英嗣,松八重一代,中島謙一,醍醐市朗,石原慶一. 2014. 使用済み自動車から得られる鉄スクラップの関与物質総量. 鉄と鋼, 100(6), 778-787. [13] 橋本康正. 1984. 海洋における浮遊式$\cdot$移動式生産システムの海外の現況。石油技術協会誌, 49(5), 332-335. [14] 冨田義弘, 尾鼻美規, 井田民男. 2014. 高周波誘導溶解におけるバイオコークスの加炭材代替効果の検証. スマートプロセス学会誌, 3(5), 289-294. [15] 庄野宏. 2006. モデル選択手法の水産資源解析への応用. 計量生物学, 27(1), 55-67.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH1-9.pdf
# BERT を用いたニつの辞書の対応付け 河野稜斗 東京農工大学工学部情報工学科 s209679x@st.go.tuat.ac.jp } 平林照雄 } 東京農工大学生物システム応用科学府 s213645z@st.go.tuat.ac.jp 古宮嘉那子 東京農工大学工学研究院 kkomiya@go. tuat.ac.jp ## 概要 辞書間における対応付けとは,複数の辞書にタグ付けされたコーパスを利用し,辞書同士の対応をとることである. 本研究では,事前学習モデルの BERT を用いて,『岩波国語辞典』の語義と『分類語彙表』の分類番号の対応付けを行う.BERTを用いた対応付け方法として,BERT を使用した教師なしの手法と,BERT の fine-tuning を使用した手法の 2 つを提案する. 実験では, 2 つの提案手法と比較手法として最多出現語義の $\mathrm{F}$ 値を算出し対応の性能を評価した. 実験結果として, 提案手法の両方で比較手法の性能を上回る結果となった. ## 1 はじめに 世の中には国語辞典だけでも多くの種類の辞書が存在するが,それぞれの辞書で語義やその粒度が一致しているとは限らない. 辞書同士で語義の対応をとることにより,語義を整理することができると考える. また, 辞書同士の対応を人の手作業で行った場合,辞書の数が多いほどかなりの時間と人手が必要になる. そのため, 自動的に対応をとることが可能であれば,人員や時間の削減につながる. そこで本研究では, 対応付けのアプローチ方法に事前学習モデルの BERT を採用し, 『岩波国語辞典』 と『分類語彙表』によりタグ付けされた『現代日本語書き言葉均衡コーパス』 $[1,2,3]$ を利用して, 語義タグと分類番号の対応をとる. BERTを用いた手法として,BERT を使用した教師なしの手法と BERT を fine-tuning した手法を提案する。また,実験では $\mathrm{F}$ 値を対応付けの性能の指標とし,『岩波国語辞典』 の語義と『分類語彙表』の分類番号の対応付けの評価を行う。 ## 2 関連研究 近年,事前学習モデルが自然言語処理タスクで最先端の性能を達成している。その中でも,2019 年に Devlin ら [4] によって考案された Bidirectional Encoder Representations from Transformers (BERT) という事前学習モデルが自然言語処理のタスク 11 種類で最高の性能を達成し, 広く使われている. BERT は Vaswani ら [5] によって提案された Transformer を双方向に接続することで構成されている. Transformer は従来の一般的なニューラルモデルで使われる Encoder-Decoder 形式の畳み込みニュー ラルネットワークや再帰ニューラルネットワークを用いず,注意機構のみで構成されたモデルである.現在では,この BERTをもとにした ELECTRA[6] や RoBERTa[7],ALBERT[8] などのモデルも多く提案されている. 対応付けに関する研究として,Bilingual Word Embeddings(BWE)の単一言語マッピングの手法を用いた研究がある。単一言語マッピングの手法は, あらかじめ 2 言語それぞれで単語の分散表現を作成しておき,言語間で意味が似ている分散表現が近づくように共通べクトル空間に変換することで対応をとる手法である.Mikolov[9] らは,幾何学的関係が言語間で類似していることを主張し,線形射影によってある言語のべクトル空間を別の言語のべクトル空間に変換することの可能性を示唆した. さらに,平林ら [10] は,BWE の単一言語マッピングの手法を用いて, 本研究と同じ岩波国語辞典の語義夕グと分類語彙表の分類番号の対応付けを行った. 語義タグのベクトル空間から分類番号のベクトル空間への線形変換を学習した後, 語義タグの分散表現に学習した線形変換を適用し, 分類番号のベクトル空 間に変換することで対応をとった. また,単語の分散表現の作成には言語ごとに学習した word2 vec を利用している. ## 3 提案手法 本研究では, 『岩波国語辞典』の語義 (以下語義夕グと略す) と『分類語彙表』の分類番号 (以下分類番号と略す)を対応付けするために BERTを用いて,「暫定の対応」をとる。そして,「暫定の対応」を利用することで「確定の対応」をとる. ## 3.1 岩波国語辞典の語義タグ 『岩波国語辞典』では, 単語の語義ごとに表 1 に示すような語義タグが付与されている.語義タグは, [見出し ID]-[複合語 ID]-[大分類 ID]-[中分類 ID]-[小分類 ID] で構成されている. 例として,「手」という単語は表 1 のような意味ごとに異なる語義タグが付与されている. また,本研究において複合語を無視しているため複合語 ID の値は必ず 0 である. 表 1 岩波国語辞典における「手」 \\ ## 3.2 分類語彙表の分類番号 『分類語彙表』とは, 国立国語研究所によって作成された,「語を意味によって分類や整理した類義語集」である。『分類語彙表』のレコード $(1$ つのデー タ) を構成する項目は,「レコード ID 番号/見出し番号ルレコード種別/類/部門/中項目/分類項目/分類番号/段落番号/小段落番号/語番号/見出し/見出し本体/読み/逆読み」となっている。分類番号は,レコードを構成する項目のうち「類/部門/中項目/分類項目」によって表される. 1 つの単語が複数の分類項目に分類されることがあり,その単語は複数の分類番号を持つため多義語であるとみなせる.例えば.「手」という単語は表 2 に示すように「人間」としての意味,「手足・指」としての意味,「方法」としての意味などといった複数の分類項目に分類されるため多義語の 1 つである。表 2 『分類語彙表』における「手」 ## 3.3 BERT を用いた暫定の対応付け 「暫定の対応」付けでは,BERTに語義タグもしくは分類番号が付与されている単語を含む文を入力し,タグが付いている単語の分散表現を取得し,対応付けに利用する. BERTを使用した教師なしの手法では,語義タグが付与された単語の分散表現と分類番号が付与された単語の分散表現として,BERT の出力ベクトルを使用し,コサイン類似度による語彙の対応をとる. BERT の fine-tuning の手法では, BERT にタグが付いた 2 文を入力し,(1) 語義タグが付与された単語と (2) 分類番号が付与された単語の BERT の出力ベクトルを連結して最終層の入力とし,(1)(2) が同じ意味かどうかの二值分類を行って fine-tuning を行った。 対応付けにおいて語義タグと分類番号の粒度の違いから,1 つの語義タグに対して複数の分類番号が対応する場合が存在する.対応付けを行っていくにあたり,BERT を使用した教師なしの手法と BERT の fine-tuning を用いた手法で得られる対応は「暫定の対応」となる. ## 3.4 確定の対応 「暫定の対応」を確定させるために「全部列挙」と 「多数決」という 2 つの対応方法を用いる. (I)全部列挙 語義タグに対応する可能性のある全ての分類番号を対応するものとして扱うことで,語義番号と分類番号の対応をとる方法である. (II) 多数決 語義タグに対応する可能性のある分類番号の中で,最も多く出現した分類番号を対応するものとして扱うことで,語義番号と分類番号の対応をとる方法である。また,「多数決」の手法においては,最も多く出現した分類番号が複数存在する (同率 1 位) 場合がある。その時は,最も多く出現した複数の分類番号全てを語義タグに対応するものとして扱う. ## 4 実験 本研究では,コーパスとして『現代日本語書き言葉均衡コーパス』 $(\mathrm{BCCWJ})$ を使用して実験を行う. BCCWJ には岩波国語辞典の語義と分類語彙表の分類番号が付与されているが,付与されている部分はごく一部を除き異なっている。また BERT は日本語の Wikipedia のデータを用いて学習された, 東北大学が公開している BERTを用いる. 実験では,東北大学の BERTを用い, 前述の教師なしの手法と fine-tuning を利用した手法を用いて語義タグと分類番号の対応付けを行う. そして, 比較手法として単語に最も付与された『分類語彙表』の分類番号を単語の各語義の分類番号とする最多出現語義 (MFS) を採用し,2つの提案手法と比較する. ## 4.1 BERT の教師なしの手法の対応付け BERTを使用した教師なしの手法を用いた対応付けでは,以下のステップに従って対応付けを行う。 ここで用いる BERT は fine-tuning していない既存のモデルである. 1. 語義タグが付いている BCCWJ と,分類番号が付いている BCCWJに分けて次の処理を行う。 (a) BCCWJ の中から,語義タグ/分類番号が付いている単語を含む文を取得する。 (b) 取得した文を分かち書きして BERT に入力し,語義タグ/分類番号が付いている単語の分散表現を取得する. 2. 語義タグが付いている単語と分類番号が付いている単語のうち,同じ単語を含む文の集合を作り,文ごとに語義タグが付いている単語を基準に分類番号が付いている単語に対して分散表現のコサイン類似度を求める。そして,コサイン類似度の値が最も大きい分類番号を,基準とした文の単語に付いている語義タグに対応する分類番号 (暫定) とする。 3. 2 で求めた対応は,1つの文に含まれる語義夕グの付いている単語に対しての対応であるため,語義タグが付いている単語を含む文の数だけその単語に対する対応が得られる。 そのため, 2 で求めた対応は暫定としている. 4. 最後に「暫定の対応」を確定させるために「全部列挙」と「多数決」の方法を用いる. ## 4.2 fine-tuning した BERT による対応付け BERT の fine-tuning の手法では, 語義タグが付いている BCCWJを用いて訓練データを作成し, BERT の fine-tuning を行い,テストデータで語義タグと分類番号が対応しているか否かの二値分類のタスクを解くことで対応付けを行う. この際,同じ単語に対して語義タグが付いた 2 つの文の組み合わせを訓練データとして fine-tuning を行った. 学習時のパラメータは事前実験によって決定し,学習率 0.0001 , epoch 数 30, 最適化関数は SGD,損失関数はクロスエントロピー誤差を用いた。また,開発データおよびテストデータには, 同じ単語に対して語義タグが付いた 1 文と分類番号が付いた 1 文の計 2 文の組み合わせを用いた. それに加えて, 語義タグと分類番号の対応の正解データとして, 『分類語彙表』と『岩波国語辞典第五版タグ付きコーパス 2004』の対応表 [11]を利用した。 訓練データ,テストデータ,開発データの BERT に入力する 2 文の組み合わせやデータの件数, 2 つの文のタグが対応するかどうかの二値の内訳を表 3 に示す.タグ構成は, 1 文目と 2 文目に含まれるタグが語義タグか分類番号なのかを表している. 訓練データには語義タグ同士が同じ語義かどうかの情報のみを利用し,語義タグと分類番号の対応は利用していないことに注意されたい。また,表 3 において,入力する 2 つの語の意味が同じ場合は対応あり,異なる場合は対応なしとした. 訓練データはある単語に付与された語義タグの種類ごとに最大 2 文の代表文をランダムに選択し,その組み合わせで作成する.付録の図 1 に「一緒」を例とした訓練デー タの作成例を示す. テストデータは単語ごとで単語に付与されている語義タグと分類番号の全ての組み合わせで作成する. 表 3 fine-tuning におけるデータの詳細 BERT がテストデータに対して出力する二值分類の值は,語義タグと分類番号の「暫定の対応」であるため,最終的な対応は BERT を使用した教師なしの手法と同様に「全部列挙」手法と「多数決」手法で求める. ## 4.3 対応付けの評価 本研究では,語義タグを基準にして対応する分類番号を定めているため, 語義タグが付与された形態素のみに対しての「確定の対応」に限定して評価を行う. したがって. 語義タグを付与された形態素が分類番号を付与された語彙素に存在しない場合, その語義タグに対する分類番号の対応は「存在しない」として扱うこととした. 評価には $\mathrm{F}$ 値を用いる。 $\mathrm{F}$ 值は予測した結果の評価尺度の 1 つであり, 適合率 (precision) と再現率 (recall) から算出される. ## 5 実験結果 BERTを使用した教師なしの手法と BERT の fine-tuning を用いた手法では,どちらも「暫定の対応」を取った後に「全部列挙」と「多数決」の方法で「確定の対応」を求め,それに対して $\mathrm{F}$ 值を算出した,BERTを使用した教師なしの手法の「全部列挙」と「多数決」に加えて, 比較手法の MFS の対応付けの評価結果を表 4 に示す. そして, BERT の fine-tuning を用いた手法の「全部列挙」と「多数決」, および比較手法の MFS の対応付けの評価結果を表 5 に示す. 表 4 と表 5 の太字の値の部分は, 適合率,再現率, $\mathrm{F}$ 値それぞれで,最も高い値のものを示している. BERTを使用した教師なしの手法で最も高い $\mathrm{F}$ 値は「全部列挙」方法での 0.60 , BERT fine-tuning を使用した手法で最も高い $\mathrm{F}$ 值は「多数決」方法での 0.63 という結果となった. それに対して比較手法の $\mathrm{F}$ 值は 0.50 であった. 表 4 BERT の教師なし手法での対応付けの結果 表 5 BERT の fine-tuning 手法での対応付けの結果 ## 6 考察 実験の結果から,BERT を使用した教師なしの手法と BERT の fine-tuning を用いた手法の両方で,比較手法の MFS の結果を上回った。なお,それぞれの提案手法の「全部列挙」と「多数決」の $\mathrm{F}$ 値の差に大きな違いはなかった。 提案手法のどちらの結果も,適合率は「確定の対応」を「多数決」でとる方が「全部列挙」でとるよりも高くなっており,それに対して再現率は「確定の対応」を「全部列挙」でとる方が「多数決」でとるよりも高くなっている. その要因として,「全部列挙」では語義タグに対して「暫定の対応」に出現した分類番号全てを対応するものとして扱っているため対応する分類番号の種類が多い.また「多数決」 では語義タグに対して「暫定の対応」に出現した分類番号の中で最も出現した分類番号を対応するものとして扱っており,対応する分類番号の種類は少ないことが挙げられる。そのため,「全部列挙」と「多数決」で求める対応は両極端になると考えられる. したがって,「全部列挙」と「多数決」の中間をとる方法,例えば分類番号の出現回数に閾値を設け,一定回数出現した分類番号を対応するものとして扱うなどの方法で「確定の対応」をとることにより, さらに対応付けの性能が高まると考える。 また,本研究で扱った BERT よりもパラメータや次元が大きい BERT-large モデルや,BERT よりも多くのデータで事前学習し, かつ事前学習の回数を増やした RoBERTa モデルを使用することで対応付けの性能向上が見込まれる。 ## 7 おわりに 本研究では,対応付けのアプローチ方法に事前学習モデルの BERTを採用し,『岩波国語辞典』と『分類語彙表』によりタグ付けされた『現代日本語書き言葉均衡コーパス』を利用して,語義タグと分類番号の対応をとった. BERTを用いた方法では,既存のモデルを使用する,BERT を使用した教師なしの手法と既存のモデルを fine-tuning した,BERT の fine-tuning の手法を提案し実験を行い評価を行った.実験結果から,BERT の fine-tuning が最も高い性能となり,提案手法は比較手法の MFS を上回る結果だった. 以上のことから『岩波国語辞典』の語義と『分類語彙表』の分類番号の対応付けにおける, BERT の有効性を示した。 ## 謝辞 本研究は JSPS 科研費 17KK0002,18K11421 の助成を受けたものです. ## 参考文献 [1] Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary written japanese. Language resorces and evaluation, Vol. 48, No. 2, pp. 345-371, 2014. [2] Okumura Manabu, Shirai Kiyoaki, Komiya Kanako, and Yokono Hikaru. On semeval-2010 japanese wsd task. 自然言語処理, Vol. 18, No. 3, pp. 293-307, 2011. [3] Sachi Kato, Masayuki Asahara, and Makoto Yamazaki. Annotation of 'word list by semantic principles' labels for the balanced corpus of contemporary written japanese. Proceedings of PACLIC 2018, pp. 247-253, 2018. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In North American Association for Computational Linguistics(NAACL). [5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, pp. 6000-6010, 2017. [6] Kevin Clark, Minh-Thang Luong, Quoc V. Le, and Christopher D. Manning. Electra: Pre-training text encoders as discriminators rather than generators. In International Conference on Learning Representations (ICLR). [7] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. ArXiv, abs/1907.11692. [8] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. In International Conference on Learning Representations (ICLR). [9] Tomas Mikolov, Quoc V Le, and Ilya Sutskever. Exploiting similarities among languages for machine translation. arXiv preprint arXiv:1309.4168, 2013. [10] Teruo Hirabayashi, Kanako Komiya, Masayuki Asahara, and Hiroyuki Shinnou. Automatic creation of correspondence table of meaning tags from two dictionaries in one language using bilingual word embedding. 13th BUCC Workshop at LREC 2020, pp. 22-28, 2020. [11] 呉佩, 近藤森音, 森山奈々美, 荻原亜彩美, 加藤祥, 浅原正幸.『分類語彙表』と『岩波国語辞典第五版夕グ付きコーパス 2004』の対応表. 言語資源活用ワー クショップ 2019, pp. 337-342, 92019. ## 付録 例 : 一緒(語義夕グの種類 : 2つ) 2485-0-0-1-0 (1)二緒に遊ぶ (2)二緒に向かう (3)学校が一緒 $\vdots$ (1)(2)が2485-0-0-1-0の代表文,(4)(5)が2485-0-0-2-0の代表文とすると組み合わせは以下の通りになる. (1)一緒に遊ぶ(2)一緒に向かラ (1)一緒に遊ぶ (4)友達と一緒 1 つの訓練データ (1)一緒に遊ぶ (5)あの服と一緒 (2)一緒に向かう (4)友達と一緒 (2)一緒に向かう (5)あの服と一緒 (4)友達と二緒 (5)あの服と二緒 同じ(1) 違う(0) 違う(0) 違う(0) 違う(0) 同じ(1) 4つの代表文から2つの 組み合わせを選ぶので, ${ }_{4} C_{2}=6 \supset \omega$ 訓練データを作成できる 図 1 訓練データの作成例
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH2-10.pdf
# 季語情報付与による俳句自動生成器の改良と評価 加藤智 ${ }^{1}{ }^{\text {竹田晃人 }}{ }^{1}$ 1 茨城大学 大学院理工学研究科 $\{21 \mathrm{~nm} 425 n$, koujin. takeda. kt $\} @_{\mathrm{vc} .}$ ibaraki. ac. jp ## 概要 知能情報システムの分野は日進月歩であるが,いまだ人間の「美意識」の表現は苦手としている。これらを言語表現の分野から克服および再現するため,世界で最も短い定型詩である「俳句」と自動文章生成システムを組み合わせた知能情報システム「AI一茶くん」[1][2]が北海道大学を中心に 2017 年から研究されている. 本研究では, 知能情報システムに俳句を学習させる際,歳時記および季語辞典をもとに俳句特有の「季語」に関する情報を同時に与えることで, 俳句固有の「季語」の観点から俳句の生成精度の向上を図ることを目的とし, 俳人の専門的見地から本研究で生成された俳句, 人間の俳句, 先行研究の俳句の比較検討および再評価を行う. ## 1 はじめに 知能情報システムは,人間の「感性」や「美意識」 の表現をいまだ不得意としている. これらを言語表現の分野から克服および再現するため, 世界で最も短い定型詩である「俳句」と自動文章生成システムを組み合わせた知能情報システム「AI一茶くん」 [1][2]が北海道大学を中心に 2017 年から研究されている. 俳句は「季語」という固有の概念によって発達した独自の言語表現を特徴とする文学でありながら,世界で最も短い $5 \cdot 7 \cdot 5$ の計 17 音の定型によって知能情報システムでの再現がしやすく, 俳人による数値的な評価も容易であることから,知能情報システムの機能実証に最適である. 「AI一茶くん」は,任意の一単語や,画像から抽出した一単語から, ニューラルネットワークの一種である LSTM (Long Short-Term Memory)を用いて,俳句を自動で生成することができる. この研究は自動文書作成システムの先進的技術開発及び知能情報システムの機能実証を目的とし, 人間の俳句と人工知能が生成した俳句の差異から「知能とは何か」「人 と機械のコミュニケーションはどのように行われるべきか」という問題について理解を深める研究である[2]. しかし先行研究では, 生成した俳句から季語を一つ以上含むものを抽出し,残りの俳句を大量に内部で捨てているという問題点がある。このような手法上の問題が先行研究での俳句の生成精度が向上しない要因となっていると考えられる. 本研究では, 知能情報システムに俳句を学習させる際,歳時記および季語辞典をもとに俳句特有の「季語」に関する情報を同時に与えることで,俳句固有の「季語」の観点から俳句の生成精度の向上を図ることを目的とし, 俳人の専門的見地から本研究で生成された俳句, 人間の俳句, 先行研究の俳句の比較検討および再評価を行う。 ## 2 俳句の自動生成器と学習方法 ## 2.1 「俳句」及び「季語」の定義と収集 本研究では, 「季語」を一つ以上含み, 韻律が $5 \cdot 7 \cdot 5$ となる有季定型の俳句を「俳句」と定義し, 自由律俳句および無季俳句については考慮しないこととする. 本研究では現代俳句協会の「現代俳句データベース」[3]の季語の解釈に則って, 季語として現代俳句データベースに立項されている単語を季語とし,傍題は含めないものとする。 季語及び学習の教師となるべき優れた俳句の収集は,現代俳句協会の許可のもと,現代俳句データベ一スから行った。 ## 2. 2 動作環境とシステム システムは python で構築するものとし, 形態素解析エンジン「janome」[4]を用いて俳句を形態素に分割し,マルコフ連鎖によって表現される離散的なべクトル場の状態を, 自然言語処理モデル「word2vec」 [5]で学習するものとする. 俳句自動生成システムは,「前処理」「学習」「出力」の 3 段階に分けられる. 「前処理」の段階では, 形態素解析エンジンを用いて俳句を形態素ごとに分割する. 新しく出現した形態素から順に形態素リストに格納する. そして形態素リストをもとに俳句を単語ごとの ID に変換する. 「学習」の段階では, ベクトルに変換された形態素を入力し, 俳句の文脈上その直後にはどのような形態素が出現するかを学習させる。 「出力」の段階では,学習を行ったシステムに任意の一単語を確率的に与える. そして, 文脈上つぎに出現する確率のある単語から, 5 音または 7 音を越えない単語を選択する. 5 音または 7 音を満たすまでこの操作を繰り返すことで,5・7・5 の俳句が生成される. 本研究では現代俳句データベースをもとに,その単語が季語であるか否かの情報を与える。 ## 2.3 手法 人間が恣意的に定義した記号である「言語」をそのまま数値的に扱うことは難しいが,文字や単語をベクトル空間上に埋め込み一つの点として捉える 「単語分散表現」を用いることでこの問題は解決できる。言語を数值的に扱えるということは,すなわち学習・解析することが可能となる. word2vec は, この単語分散表現を用いた 2 層のニューラルネットワークで構成される自然言語処理モデルである. 形態素を空間上の点に置き換え, 形態素間のつながりをベクトル表現で表し, 言語処理を行うことができる.シンプルな構造であるため, 大規模な言語デー 夕による分散表現学習が現実的な計算量で可能となるという特徴がある。 マルコフ連鎖は, 未来の挙動が現在の値だけで決定され, 過去の挙動と無関係であるマルコフ性をもち, とりうる状態が離散的である確率過程を指す.本研究では, 形態素を空間上の点に置き換えるため,空間上の各点及びそれらを結ぶベクトルの状態は,各ステップ時間において離散的である.したがってマルコフ連鎖を用いることができる. 本システムの手法は, 俳句を形態素ごとに分割し,形態素を空間上に点として配置し, 形態素間の共起関係を表現するため, 俳句の文脈において連続して出現する形態素(点)どうしを結ぶベクトルを生成する.空間上のベクトル場が離散的に変化することで学習させることができる. ## 3 出力結果 生成した俳句を一部示す. ・法華寺の花の世は旅かなしめる ・火の山に水の音ある大暑かな ・鶏頭のみんなだまって水握る のように,俳句として形になっているものも生成された. しかしこのような日本語の文法の観点から成立している句は少なかった。 ## ・て穴子の麦の穂触れや残り鴨 ・にありしんひては雪に来ん来ぬとる のように助詞で始まる句や, 不自然に助詞が続く句が多数生成された. これは形態素解析エンジンによって俳句を形態素ごとに分割する際に, 俳句が現代語でなく古語や文語で表現されるために誤りが生じる点や, 付属語で句が始まらないようにする予防をしていなかった点などが原因として考えられる。 ## 4 比較検討 本研究で出力された俳句と, 先行研究での俳句,人間の俳句を比較検討する. 人間の俳句については, 作風の偏りが無いよう全国の俳句誌から俳句を収集している「俳誌のサロン」 [6]からランダムに 10 句収集した. 先行研究の俳句については論文から収集する。ただし,「俳誌のサロン」や先行研究の論文に掲載される段階で人間の染意が介在しており, 本研究の俳句の収集についても同様に, 日本語として成立しているものの中から 10 句収集した. したがって,いずれにしても人間の染意が介在している中での比較検討となる. 本研究には, 全国規模で活躍している 5 人の俳人に協力してもらう. 各評価者が計 30 句に $0 \sim 10$ 点の点数をつけることとする. その句の「得点」は,各評価者がつけた $0 \sim 10$ 点の点数の平均值とする.点数の基準については, 全国高等学校俳句選手権大会の採点基準[7]に基づき作成した「本研究の採点基準」にしたがって行う。 本研究俳句 10 句を $\mathrm{A}$ 群,人間の俳句 10 句を $\mathrm{B}$群, 先行研究の俳句 10 句を $\mathrm{C}$ 群とし, それぞれの句に $\mathrm{A}_{1} \sim \mathrm{A}_{10}, \mathrm{~B}_{1} \sim \mathrm{B}_{10}, \mathrm{C}_{1} \sim \mathrm{C}_{10}$ の ID を振る. 次に, $\mathrm{A}$ 群, $\mathrm{B}$ 群, $\mathrm{C}$ 群の句の得点をそれぞれ, $\mathrm{X}_{1}$, $\cdots, \mathrm{X}_{10}, \mathrm{X}_{11}, \cdots, \mathrm{X}_{20}, \mathrm{X}_{21}, \cdots, \mathrm{X}_{30}$ とする. 各句群の平均值は次のようになった。 - A群の得点平均値 5.28 点 - B 群の得点平均値 5.84 点 - C群の得点平均値 5.46 点 各句群の得点平均値は全て 5 点台であり,比較すると, (人間の俳句の得点) > (先行研究の俳句の得点) > (本研究の俳句の得点) となる. ここで,ウィルコクソンの順位和検定を用いて,各句群の評価に有意差があるかどうか調べる. 本研究では,「本研究の俳句と先行研究の俳句」「本研究と人間の俳句」「先行研究と人間の俳句」3 通りについて,有意水準 5\%で検定を行う。 まず, 本研究の俳句と先行研究の俳句の比較を行う. 帰無仮説を, 「A 群と B 群の得点の母平均に差がある」と定める. A 群, $\mathrm{B}$ 群の得点, $\mathrm{X}_{1}, \cdots, \mathrm{X}_{10}, \mathrm{X}_{11}$, $\cdots, \mathrm{X}_{20}$ を並べ, 得点の高い順に 1 位から 20 位の順位を割り当てる. なお, 得点が同じ場合は平均順位を割り当てる. A 群の句に割り当てられた順位の和を統計量 $T_{\mathrm{a}}$ とする. $\mathrm{B}$ に割り当てられた順位の和を統計量 $\mathrm{T}_{\mathrm{b}}$ とする. データ数がともに 10 のとき,有意水準 $5 \%$ で検定すると, $\mathrm{T}_{\mathrm{a}}$ または $\mathrm{T}_{\mathrm{b}}$ のうち,值の小さいほうが 78 以上 132 以下にあるとき帰無仮説が棄却される. $\mathrm{A}$ 群の順位和 $\mathrm{T}_{\mathrm{a}}=122.5, \mathrm{~T}_{\mathrm{b}}=87.5$ より, どちらも 78 以上 132 以下のため帰無仮説は棄却され, A 群と B 群の句の得点の母平均に有意差はなかった. 同様に「人間の俳句と先行研究の俳句」「本研究と先行研究の俳句」の比較を, 有意水準 $5 \%$ で行った. 結果を次にまとめる. - A-B 群: $\mathrm{a}=122.5, \mathrm{~b}=87.5$ - B-C 群: $\mathrm{b}=91.0, \mathrm{c}=119.0$ - A-C 群: $\mathrm{a}=112.5, \mathrm{c}=97.5$ したがって,「人間の俳句」「本研究の俳句」「先行研究の俳句」に得点の有意差は無かった. ## 5 考察と展望 本研究の評価者には, 無記名の俳句に点数を付ける際に,任意で句評を記入してもらった。 本研究の俳句には,「単語から単語への飛躍が大きい.」「単語と単語の『取り合わせ』が成功していれば評価が高く, 失敗していれば意味や景を結べず評価が低くなる.」という評があった。これは単語ごとに生成するモデルに起因しており, 学習デー タを増やすことで『取り合わせ』の成功率を上げることが今後必要であると感じた. 人間の俳句については,「全体的に読める.」「人間臭い.」「単語同士の関係が意味で結ばれていて,機械らしい飛躍は減った.」と評があった. 先行研究の俳句には, 「連語や成句などによる単語自体の意味の希薄さが強い」という評があった.俳句において一般的に成句や連語が成功するのは難しい,例えば,「犬も歩けば棒に当たる」という成句は日本語として自然であるが,「春の空犬も歩けば棒に当たる」という俳句にしたとき,実際に眼前で犬が棒に当たる景が,成句「犬も歩けば棒に当たる」によって打ち消され,「犬」や「棒」という言葉の意味が希薄になるという問題点が生じるからである. $5 \cdot 7 \cdot 5$ の後半になるほど, 全体が日本語として意味が自然になるように, 語の飛躍を減らしたり,連語や成句を選択したりしてしまうLSTMモデルの問題点が顕著に出ている. 本研究の俳句と先行研究の俳句は「機械っぽい」 という同じ評価をもらったものの, 実際は真逆の「機械つぽさ」である. 本研究の俳句には, 1 単語ずつ逐次的に生成するモデルに起因した「日本語としての一句全体の違和感」という意味での「機械っぽさ」 が生じており, 先行研究の俳句には, LSTM を用いるモデルに起因した「全体を日本語として意味を自然にしようとしすぎるあまり,単語の意味が希薄になる」という意味での「機械っぽさ」が生じている. これは,それぞれのシステムモデルの問題点が顕著に現れている。 最後に先行研究においては日本語として破綻しているものに対し, 人為的にフィルタリングを行っているが,これはシステム上で解決できる問題である.今後の研究では, 日本語文法及び俳句の表現上の「型」 の観点からシステムの改良を試みたいと考える. ## 謝辞 採点に協力してくださった俳人の先生方をはじめ,研究を支えてくださったすべての方々に厚く御礼申し上げます。 ## 参考文献 1. 米田航紀, 横山想一郎, 山下倫央, 川村秀憲:「LSTM を用いた俳句自動生成器の開発」, Proceedings of the Annual Conference of JSAI JSAI2018(0), 1B2OS11b01-1B2OS11b01, 2018 2. Sapporo AI Lab:「人工知能による俳句の自動生成に関する実証実験「AI 一茶くん」プロジェクト」, https://www.s-ail.org/works/aihaiku/ 3. 現代俳句協会:「現代俳句データベース」, http://www.haiku-data.jp/kigo.php 4. 「Janome v0.4 documentation (ja)」, https://mocobeta.github.io/janome/ 5. 陳博, 㴊田孝康, 泊大貴, 久永忠範:「オープンデ一タの RDF 化のための項目名のクラスタを使用し た述語のサジェストに関する研究」,情報知識学会誌, Vol.30, No.2, pp.236-241, 2020 6.「俳誌のサロン」http://www.haisi.com/ 7. 俳句甲子園実行委員会「『俳句甲子園』における審査基準(2018 年度版)
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH2-11.pdf
# 音声認識出力の曖昧性に頑健な音声翻訳のための 音声認識の精度ごとの性能比較 胡 尤佳 ${ }^{1}$ 須藤 克仁 ${ }^{1,2}$ Sakriani Sakti ${ }^{1,2,3}$ 中村 哲 ${ }^{1,2}$ 1 奈良先端科学技術大学院大学 2 理化学研究所 革新知能統合研究センター AIP }^{3}$ 北陸先端科学技術大学院大学 \{ko.yuka.kp2, sudoh, s-nakamura\}@is.naist.jp; ssakti@jaist.ac.jp ## 概要 音声認識出力の曖昧性は,発音が似ている単語の関係を表していると考えられ,End-to-End 音声翻訳においても,この曖昧性を考慮したモデルが必要となる. 従来研究では, Multi-task 学習の End-to-End 音声翻訳において, 音声認識出力の分布による Sub-task の学習で精度の向上が見られた. 本研究では,音声認識出力の曖昧性に頑健な音声翻訳のためにどのような音声認識モデルが効果的か, また, Main-task と Sub-task の出力の関係について比較し,分析した. ## 1 背景と関連研究 音声翻訳 (Speech Translation; ST) は, 原言語音声を入力として目的言語テキストを出力する技術であり,音声認識 (Automatic Speech Recognition; ASR) と機械翻訳 (Machine Translation; MT) をつなぎ合わせた Cascade モデルと,原言語の音声を直接目的言語のテキストに翻訳する End-to-End モデルが考えられる. 近年ではニューラルネットワークを用いた系列変換技術により End-to-End モデルの研究が進んでいる.しかしながら, End-to-End モデルでは学習に原言語音声と目的言語テキストを用いるためデータが限られ,比較的容易にデータを入手できる Cascade モデルと比較して精度が低くなる傾向がある。 このような End-to-End モデルの精度を向上させるアプローチの 1 つとして, 原言語音声から目的言語テキストへの翻訳に原言語テキストへの音声認識を Sub-task として追加する Multi-task 学習 [1] が挙げられる. しかし, 一般的な Multi-task 学習で使われる cross entropy (CE) loss は, 正解トークンとの損失を計算し, 発音の似た予測結果と, 発音の似ていない予測結果の損失が同じになる可能性があるという問題がある. End-to-End 音声翻訳においてもこのような発音の類似度, 聞き間違えを考慮した翻訳が必要となる. 関連研究として, Osamura ら [2] は, Cascade モデルにおいて, One-hot ベクトルの代わりに,音声認識の事後確率分布を用いて機械翻訳をチューニングし,音声認識の曖昧性に対する頑健性を向上させた. また, Chuang ら [3] は, Multi-task End-to-End 音声翻訳における ASR-task で, 予測単語と正解単語の埋め込みベクトルのコサイン類似度を損失に利用し,意味の類似度の頑健な学習を実現した。 以上から着想を得た上で, 我々は, Multi-task 学習で音声翻訳を学習する際に, 音声認識の事後確率分布を用いた学習をする手法を提案し [4], 音声認識出力の曖昧性に対する頑健性の向上に寄与することを示した. 音声認識の事後確率分布は, 発音が似ている単語が同じようなスコアを持つことが期待され,単語間の発音の類似度の情報を保持する.これを reference として用いることで, 音声認識出力の曖昧性に対して頑健な音声翻訳が学習できたと期待できる. しかし,音声翻訳に利用可能な音声認識モデルの性能や, ST-task と ASR-task の出力の性能の関係が確認されていなかった. 本研究では, 音声認識出力の曖昧性を考慮した音声翻訳において, どのような音声認識モデルが効果的か, また Main-task と Sub-task の出力の関係を比較し,分析した。 ## 2 Multi-task End-to-End 音声翻訳 $\mathbf{X}=\left(x_{1}, \ldots, x_{T}\right)$ を原言語の入力音声に対する音響特徴量の系列, $\mathbf{T}=\left(t_{1}, \ldots, t_{N}\right)$ を目的言語テキストのトークン系列, $\mathbf{S}=\left(s_{1}, \ldots, s_{M}\right)$ を原言語テキストのトークン系列とする. $v$ を語彙集合 $V$ の元とすると, $i$ 番目の目的言語記号の事後確率は以下の式で 表される $ P_{\mathrm{ST}}\left(t_{i}=v\right)=p\left(v \mid \mathbf{X}, t_{<i}\right) . $ $\mathrm{ST}$ の学習時の損失関数 $\mathcal{L}_{\mathrm{ST}}$ は,CE loss を用いて以下の式で表される $ \mathcal{L}_{\mathrm{ST}}=-\sum_{i=1}^{N} \sum_{v \in V}^{V} \delta\left(v, t_{i}\right) \log P_{\mathrm{ST}}\left(t_{i}=v\right) . $ 式中の $\delta\left(v, t_{i}\right)$ は, $v=t_{i}$ のとき 1 ,そうでなければ 0 とする. Encoder により隠れベクトルに変換され,その後 ST-task (Main-task) の Decoder と ASR-task (Sub-task) の Decoder の両方を用いて学習される. $v$ を語彙集合 $V$ の元とすると, $i$ 番目の目的言語記号の事後確率は以下の式で表される $ P_{\mathrm{ASR}}\left(s_{i}=v\right)=p\left(v \mid \mathbf{X}, s_{<i}\right) . $ $\mathrm{ASR}$ 学習時の損失関数 $\mathcal{L}_{\mathrm{ASR}}$ は以下の式で表される $ \mathcal{L}_{\mathrm{ASR}}=-\sum_{i=1}^{M} \sum_{v \in V}^{V} \delta\left(v, s_{i}\right) \log P_{\mathrm{ASR}}\left(s_{i}=v\right) . $ ST-task の損失関数を $\mathcal{L}_{\mathrm{ST}}$ ,ASR-task の損失関数を $\mathcal{L}_{\mathrm{ASR}} , \mathcal{L}_{\mathrm{ASR}}$ に対する重みを $\lambda_{\mathrm{ASR}}$ とすると,学習時全体の損失関数 $\mathcal{L}$ は以下の式で表される $ \mathcal{L}=\left(1-\lambda_{\mathrm{ASR}}\right) \mathcal{L}_{\mathrm{ST}}+\lambda_{\mathrm{ASR}} \mathcal{L}_{\mathrm{ASR}} $ ## 3 実験に用いる手法 以下の二種類の損失関数を,音声認識出力を reference とした soft label から計算される $\mathcal{L}_{\text {soft }}$ として用い,比較,分析をした。また,本稿では, $\mathcal{L}_{\text {soft }}$ に対して,式 4 における $\mathcal{L}_{\mathrm{ASR}}$ を, hard label (正解系列)による CE loss として $\mathcal{L}_{\text {hard }}$ と表す. ## 3.1 ASR-PBL: ASR Posterior-based Loss [5] ASR-task において,事前学習された ASR の事後確率分布のベクトルを reference として用いる. ASR 事後確率分布は,事前学習された ASR を用いて得られた,各トークンに対するスコアを持ったべクトルの softmax を取り, soft label とする. soft label において $i$ 番目のトークン $v$ のスコアを $P_{\mathrm{soft}}(i, v)$ とすると,提案手法よる損失 $\mathcal{L}_{\text {soft }}$ は以下の式で表される $ \mathcal{L}_{\text {soft }}=-\sum_{i=1}^{M} \sum_{v \in V}^{V} P_{\text {soft }}(i, v) \log P_{\mathrm{ASR}}\left(s_{i}=v\right) . $ 本実験では, $\mathcal{L}_{\text {ASR }}$ を以下の式として定義し, $\mathcal{L}_{\text {hard }}$ と $\mathcal{L}_{\text {soft }}$ の割合を,重み $\lambda_{\text {soft }}$ で調整できるようにし, $ \mathcal{L}_{\text {ASR }}=\left(1-\lambda_{\text {soft }}\right) \mathcal{L}_{\text {hard }}+\lambda_{\text {soft }} \mathcal{L}_{\text {soft }} . $ 式 7 の損失を ASR Posterior-based Loss といい,本稿では ASR-PBLと表す. ## 3.2 ASR-SBL: ASR Sequence-based Loss ASR-PBL では,ASR 事後確率分布を reference として用いていたが,ASR 出力の One-best 系列を reference とした損失も考えることができる. この場合,どの単語とどの単語が間違いやすいかという情報を保持し, 音声認識出力の誤りに対して頑健な音声翻訳が期待できる. $\hat{\mathbf{S}}=\left(\hat{s}_{1}, \ldots, \hat{s}_{M}\right)$ を,ASR モデルによって予測された One-best の原言語テキストのトークン系列とすると, $\mathcal{L}_{\text {soft }}$ は以下の式で表される $ \mathcal{L}_{\mathrm{ASR}}=-\sum_{i=1}^{M} \sum_{v \in V}^{V} \delta\left(v, \hat{s}_{i}\right) \log P_{\mathrm{ASR}}\left(\hat{s}_{i}=v\right) $ 本実験では,hard loss と式 8 の soft loss を式 7 のように重み付き和で足し合わせた損失を,ASR Sequence-based Loss といい,本稿では ASR-SBL と表す. ## 4 実験 本実験ではデータセットとして, Fisher Spanish Corpus (Spanish-English) [6] と, MuST-C TED-talks (English-German) [7]を用いた。本稿では,それぞれを Fisher, MuST-Cとし,以下の実験をした。 - Fisher: ASR-PBL, ASR-SBL - MuST-C: ASR-SBL 音響特徴量は,Kaldi [8] により抽出した, 3 次元の pitch が付加された 83 次元の Fbank+pitch を用い, train データは, 音声のスピードを 0.9 倍と 1.1 倍に調整したものを加えた.テキストは MuST-C の目的言語テキスト以外は,句読点,記号を取り除き小文字化し,音響特徴量はフレーム長 3000 ,テキストは文字数が 400 より大きいものを取り除いた. Tokenizer は SentencePiece [9] を用い,最大語彙数を Fisher は 1000,MuST-C は 8000 とした. ASR,ST モデルは ESPnet [10]を用い, Transformer [11]により作成した. ST は, Fisher が batch size: 64, accum grad: 4, MuST-C が batch size: 32, accum grad: 8,それ以外の基本的なモデルの設定は ESPnet のデフォルトの值に従った. ST モデルは, epoch 30 で学習した後, dev データの BLEUスコア [12] が高いモデルを 5つ model averaging し, Fisher では Fisher test, MuST-C では tst-COMMON で評価した. 本穾験では, 式 5,7 における $\lambda_{\mathrm{ASR}}=$ 0.5 , Fisher ASR-PBL: $\lambda_{\text {soft }}=\{0.1,0.3,0.5,0.7,0.9,1.0\}$, 表 1 Fisherにおける soft-0.5, 1.0 での ASR モデルごとの ASR-PBL と ASR-SBL(LSM) の結果. 表 2 MuST-Cにおける soft-0.5,1.0での ASR モデルごとの ASR-SBL(LSM) の結果. Fisher ASR-SBL: $\lambda_{\text {soft }}=\{0.5,1.0\}$, MuST-C ASR-SBL: $\lambda_{\text {soft }}=\{0.25,0.5,0.75,1.0\}$ とした. $L_{\mathrm{ST}}$ は全て label smoothing weight 0.1 で label smoothing した CE loss(以下,CE-LSM)を用いた. soft label の作成に必要な事前学習された ASR モデルは,実験に用いる soft label の WER が高いものから低いものを用意し,それらから生成された soft labelを用いて ASR-PBL, ASR-SBL の学習に用いた (付録 7.1). ASR-SBL では,CE loss と同様,label smoothing を加えた設定 (ASR-SBL(LSM)) と加えていない設定 (ASR-SBL) で実験した. ## 5 実験結果と分析 Fisher test における ST の BLEU の結果を表 1 に示す. (soft-0.5は $\lambda_{\text {soft }}=0.5$ を意味する。 また, baseline を CE, CE-LSM とし,それらより BLEU が向上したものを太字で示す. ) また,それぞれの FisherのST モデルの $\lambda_{\text {soft }}$ ごとの ST-task BLEU と ASR-task WER の変化を図 1 に示す (全ての図は付録 7.2 を参照). MuST-C (tst-COMMON) における ST の BLEU の結果を表 2 に示す。また,それぞれの MuST-C モデルの $\lambda_{\text {soft }}$ ごとの ST-task BLEU と ASR-task WER の変化を図 2 に示す。 表 1 から,soft-0.5 の ASR-PBL と ASR-SBL において,ほとんどの場合で CE, CE-LSM と比較して精度の向上が見られ, 大体の場合 soft-1.0を上回る結果となった. よって,ASR-SBLが音声認識誤りに頑健なモデルの作成に効果的であることがわかった. 図 1 から,ASR-PBL, ASR-SBL の両方で,soft-0.5 のときに BLEU が一番高い値を取ることが多い結果になった. ASR-SBL に関しては図 1 から,label smoothing を入れた ASR-SBL(LSM) が多くの場合 ASR-SBLを上回ったため,表 1 に ASR-SBL(LSM) のみを記載しているが,label smoothing を入れていない ASR-PBL が ASR-SBL(LSM) と同程度の性能を出すことができていることが分かり,分布レベルの学習によって label smoothing に近い効果も得られていることが予想される. soft-1.0 の結果は,ASR-PBL と ASR-SBL の両方において,Epoch-6 から Attn-CTC-Specaug $へ$ と WER が低いモデルになるにつれて,BLEU が高くなっていることが分かり,誤りが大きすぎるモデルを用いると精度の低下がみられることが分かる。 (a) Epoch-6 BLEU (c) Epoch-10 BLEU (e) Attn BLEU (g) Attn-CTC-Specaug BLEU (b) Epoch-6 ASR-task WER (d) Epoch-10 ASR-task WER (f) Attn ASR-task WER (h) Attn-CTC-Specaug ASR-task WER図 1 Fisher (Fisher test) の BLEU と ASR-task WER. 図 1 からも,soft-1.0 に注目すると,WERが低いモデルの結果になるにつれて,ASR-task WERが高い状態から下がっていき,BLEU の向上が見られる. また,Epoch-6, 8, 10 のような WER が高いモデルでの実験に関しても hard loss と混ぜることにより,BLEU の向上が見られ,学習時の label に曖昧性や誤りが perturbation となって加えられることによる効果とみられる。しかし, Attn-CTC や Attn-CTC-Specaug といった, WER が低いモデルに関しては, ASR-PBL の soft-0.5 において BLEU の向上が見られなかった. 図 1 からも, Attn-CTC と Attn-CTC-Specaug の $\lambda_{\text {soft }}$ ごとの ASR-task WER の差は小さくなり収束しているが,それに伴った BLEU の向上は $\lambda_{\text {soft }}$ ごとに見ても確認できなかった. このことは,Fisher が電話の日常会話音声を収録したもので,聞き返しが必要となるような聞き間違えが起こりやすいデータと考えられ,信頼度が高く分 (a) Attn-Specaug BLEU (c) Attn BLEU (b) Attn-Specaug ASR-task WER (d) Attn ASR-task WER図 2 MuST-C (tst-COMMON) の BLEU と ASR-task WER. 布が鋭いものより滑らかな分布が Fisher における ASR-PBL では効果的であると考えられる。 表 2 から,MuST-C では,CEの baseline と比較して BLEU の向上は見られるものの,CE-LSM を上回る結果はなく,soft-0.5 が CE-LSM と同じぐらいの結果になったことがわかる. 図 2 から,ASR-task WER が滑らかで,BLEU の変動があまり見られず,今回実験に用いた soft label に含まれる誤りが少ないことから, hard loss と比較して大きな変化がなかったとみられる。今後はより誤りが多い soft label で学習した場合や,滑らかな分布で学習した場合の精度の変化を調査する必要がある. ## 6 まとめと今後の展望 本研究では,音声認識の事後確率分布,誤りを用いて,End-to-End 音声翻訳を学習する方法で,学習に有効な音声認識の性能は,soft loss のみを用いる場合は,誤りが少ないモデルがより効果的だが, ASR-PBL で hard loss と soft loss を混ぜて使う場合は,誤りがとても少ないモデルだと効果が下がることがわかり,鋭い分布よりも滑らかな分布が有効であることがわかった。また,ST-task の BLEUが高い場合,ASR-task の WER も下がる傾向があることが分かった. 今後の課題として,学習の際に適切な分布がどのような特徴を持っているのかの定量的な調査 (分布の鋭さなど) を考えている.また,本研究では train set の数だけラベルを Decode する必要がある点でコストが高いため,生成ラベルを削減して実現できる手法も考えている. ## 謝辞 本研究の一部は JSPS 科研費 JP21H05054 の助成を 受けたものである. ## 参考文献 [1] Ron J. Weiss, Jan Chorowski, Navdeep Jaitly, Yonghui $\mathrm{Wu}$, and Zhifeng Chen. Sequence-to-sequence models can directly translate foreign speech. In Francisco Lacerda, editor, Interspeech 2017, 18th Annual Conference of the International Speech Communication Association, Stockholm, Sweden, August 20-24, 2017, pp. 26252629. ISCA, 2017. [2] Kaho Osamura, Takatomo Kano, Sakriani Sakti, Katsuhito Sudoh, and Satoshi Nakamura. Using spoken word posterior features in neural machine translation. Proceedings of the 15th International Workshop on Spoken Language Translation, 181-188, Oct. 2018. [3] Shun-Po Chuang, Tzu-Wei Sung, Alexander H. Liu, and Hung-yi Lee. Worse wer, but better bleu? leveraging word embedding as intermediate in multitask end-to-end speech translation. In Dan Jurafsky, Joyce Chai, Natalie Schluter, and Joel R. Tetreault, editors, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, ACL 2020, Online, July 5-10, 2020 , pp. 5998-6003. Association for Computational Linguistics, 2020. [4] 胡尤佳, 須藤克仁, Sakriani Sakti, 中村哲. 音声認識仮説の曖昧性を考慮する Multi-task End-to-End 音声翻訳. 言語処理学会第 27 回年次大会 (NLP2021), 2021. [5] Yuka Ko, Katsuhito Sudoh, Sakriani Sakti, and Satoshi Nakamura. ASR Posterior-Based Loss for Multi-Task Endto-End Speech Translation. In Proc. Interspeech 2021, pp. 2272-2276, 2021. [6] Christopher Cieri, David Miller, and Kevin Walker. The fisher corpus: a resource for the next generations of speechto-text. In Proceedings of the Fourth International Conference on Language Resources and Evaluation, LREC 2004, May 26-28, 2004, Lisbon, Portugal. European Language Resources Association, 2004. [7] Mattia A Di Gangi, Roldano Cattoni, Luisa Bentivogli, Matteo Negri, and Marco Turchi. Must-c: a multilingual speech translation corpus. In 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2012-2017. Association for Computational Linguistics, 2019. [8] Daniel Povey, Arnab Ghoshal, Gilles Boulianne, Lukas Burget, Ondrej Glembek, Nagendra Goel, Mirko Hannemann, Petr Motlicek, Yanmin Qian, Petr Schwarz, et al. The kaldi speech recognition toolkit. In IEEE 2011 workshop on automatic speech recognition and understanding, No. CONF. IEEE Signal Processing Society, 2011. [9] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, 2018. [10] Shinji Watanabe, Takaaki Hori, Shigeki Karita, Tomoki Hayashi, Jiro Nishitoba, Yuya Unno, Nelson-Enrique Yalta Soplin, Jahn Heymann, Matthew Wiesner, Nanxin Chen, et al. Espnet: End-to-end speech processing toolkit. Proc. Interspeech 2018, pp. 2207-2211, 2018. [11] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [12] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting of the Association for Computational Linguistics, pp. 311-318, 2002. [13] Daniel S. Park, William Chan, Yu Zhang, Chung-Cheng Chiu, Barret Zoph, Ekin D. Cubuk, and Quoc V. Le. Specaugment: A simple data augmentation method for automatic speech recognition. In Gernot Kubin and Zdravko Kacic, editors, Interspeech 2019, 20th Annual Conference of the International Speech Communication Association, Graz, Austria, 15-19 September 2019, pp. 2613-2617. ISCA, 2019. [14] Alex Graves, Santiago Fernández, Faustino J. Gomez, and Jürgen Schmidhuber. Connectionist temporal classification: labelling unsegmented sequence data with recurrent neural networks. In William W. Cohen and Andrew W. Moore, editors, Machine Learning, Proceedings of the Twenty-Third International Conference (ICML 2006), Pittsburgh, Pennsylvania, USA, June 2529, 2006, Vol. 148 of ACM International Conference Proceeding Series, pp. 369-376. ACM, 2006. [15] Shinji Watanabe, Takaaki Hori, Suyoun Kim, John R Hershey, and Tomoki Hayashi. Hybrid ctc/attention architecture for end-to-end speech recognition. IEEE Journal of Selected Topics in Signal Processing, Vol. 11, No. 8, pp. 1240-1253, 2017. ## 7 付録 (Appendix) ## 7.1 事前学習 ASR モデルの設定 ## 7.1.1 Fisher 1. Epoch-6, 8, 10 - Attention で epoch 30 まで学習した際に保存された, epoch $6,8,10$ のモデル. 2. Attn-Specaug - Attention+SpecAugment [13] で epoch 50 まで学習した中で, dev データの accuracy が最も高かったモデル。 3. Attn - Attention で epoch 30 まで学習した中で, dev データの accuracy が最も高かったモデル. 4. Attn-CTC - Hybrid CTC/Attention [14, 15] で epoch 50 まで学習した中で,dev データの accuracy が最も高かったモデル. Attention に対する CTC の重みは 0.3 . ## 5. Attn-CTC-Specaug - Hybrid CTC/Attention + SpecAugment で epoch 50 まで学習した中で, devデータの accuracy が最も高かったモデル. Attentionに対する CTC の重みは 0.3 . 表 3 Fisherの soft label における WER. ## 7.1.2 MuST-C Total epoch: 45 / Batch size: 64 / Accum grad: 4 表 4 MuST-C の soft label における WER. ## 7.2 Fisher の BLEU と ASR-task WER (全て の図) (a) Epoch-6 BLEU (c) Epoch-8 BLEU (e) Epoch-10 BLEU (g) Attn-Specaug BLEU (i) Attn BLEU (k) Attn-CTC BLEU (m) Attn-CTC-Specaug BLEU (b) Epoch-6 ASR-task WER (d) Epoch-8 ASR-task WER (f) Epoch-10 ASR-task WER (h) Attn-Specaug ASR-task WER (j) Attn ASR-task WER (1) Attn-CTC ASR-task WER (n) Attn-CTC-Specaug ASR-task WER図 3 Fisher (Fisher test) の BLEU と ASR-task WER.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH2-12.pdf
# 目的言語文の固有表現タグ付与に基づく Transformer ニューラル機械翻訳 南端 尚樹, 田村 晃裕, 同志社大学 理工学部 \{cguc1041@mail4, aktamura@mail, tsukato@mail\}.doshisha.ac.jp ## 概要 本研究では,目的言語文の固有表現(NE)をタグの付与により考慮する Transformer に基づくニュー ラル機械翻訳(NMT)モデルを提案する.目的言語文の NEを考慮する従来の NMT は,原言語と目的言語間で対応付いた $\mathrm{NE}$ 部分を,NE の種類を表す記号に置き換えて翻訳を行う。そのため,原言語側と対応付かない目的言語文の NE は考慮できない。 また,NE の構成単語を原言語文の翻訳で考慮できない. そこで本研究では, 目的言語文内の $\mathrm{NE}$ の前後に NE の種類と開始/終了情報を含むタグを追加して翻訳を行う,Transformer NMT モデルを提案する. WMT2014 の英語とドイツ語間のニュース翻訳タスクにおいて提案モデルを評価した結果,目的言語文の NE を考慮しないべースラインの NMT に比べて,英独翻訳では最大 0.09 ポイント,独英翻訳では最大 0.35 ポイント BLUEが向上した. ## 1 はじめに NLP では古くから機械翻訳の研究が行われており,近年では,NMT の研究が盛んである。NMT の性能改善を目指す研究の流れの一つとして, 原言語文や目的言語文中の単語の品詞や文構造といった言語学的素性を活用する試みが行われている。 その中で,言語学的素性として,人名や地名,組織名といった特定の表現を表す NE に着目し,NEを活用するNMT の研究が行われている $[2,3,4,9]$. $\mathrm{NE}$ を活用する従来の NMT モデルのほとんどは,原言語文に対する NEの認識(NER)結果を用いる. $\mathrm{NE}$ には複合語が多く存在するため, 原言語文の $\mathrm{NE}$情報を NMT に与えることで原言語文中の単語のチャンク情報を翻訳時に活用できる。 また,多義語に対する NER は翻訳時の語義曖昧性を減らす効果があるという報告もある [9]. しかし,これらの従来モデルは目的言語文の NE を活用していない. 目的言語文の NE を考慮する NMT モデルは, $\mathrm{Li}$ ら [2]により提案されている. この従来モデルは,原言語文と目的言語文の双方で NER を行い,原言語と目的言語間で対応付いた $\mathrm{NE}$ 部分を,その $\mathrm{NE}$ の種類を表す記号 $(\mathrm{NE} \text { 種別記号 })^{1)}$ で置き換えた文をNMT で翻訳する。そのため,原言語文と目的言語文の両方の $\mathrm{NE}$ タガーが必要である. そして,原言語と目的言語間で対応付いた NEしか活用できないため,原言語側と種類や粒度が異なる目的言語文の $\mathrm{NE}$ の情報は失われる。また, $\mathrm{NE}$ 部分は記号に置き換わってしまうため, NE の構成単語を考慮して原言語文を翻訳できない。 そこで本研究では,目的言語文中の $\mathrm{NE}$ の前後に, NE の種類と開始/終了情報を含むタグを付与して翻訳を行う,Transformer NMT モデルを提案する。提案モデルでは,原言語と目的言語間で NER 結果の対応付けを行わずに,目的言語の NER の結果にのみ基づいて目的言語文の NE を活用する。そのため,原言語と目的言語で $\mathrm{NE}$ の種類や粒度が異なっていても,NER で認識された全ての NEを考慮できる. さらに,提案モデルでは目的言語文内の単語を削除しないため,NE の構成単語を考慮した翻訳が可能である. WMT2014 の英語とドイツ語間のニュース翻訳タスクにおいて提案モデルを評価した結果,目的言語文の NE を考慮しないべースライン NMT に比べて,英独翻訳では最大 0.09 ポイント,独英翻訳では最大 0.35 ポイント BLUE が向上した. ## 2 従来モデル 本節では,目的言語文の $\mathrm{NE}$ 考慮する従来の NMT モデル [2]を説明する。従来モデルは,原言語 1)数値・時間表現を表す「 $\mathrm{N} / \mathrm{T}\lrcorner$ ,地名を表す「 $\mathrm{LOC}\lrcorner , 人$ 名を表す「PER」の 3 種類の NE 種別記号を使用している. と目的言語間で対応付いた NEを NE 種別記号で置き換えた文を翻訳する文翻訳機と,NEを独立に翻訳する $\mathrm{NE}$ 翻訳機で構成される。文翻訳機と $\mathrm{NE}$ 翻訳機は,それぞれ,単語レベルと文字レベルの RNN に基づくNMT[1]を用いている. 学習時には,教師データである対訳文の原言語文及び目的言語文に対して NERを行い,認識された $\mathrm{NE}$ 原言語と目的言語間で自動で対応付ける. そして,対応付いた NEを $\mathrm{NE}$ 種別記号で置き換えた対訳文を文翻訳機の教師データ,対応付いた NE の対を $\mathrm{NE}$ 翻訳機の教師データとして使用する. 推論時には,原言語文に対して NERを行い,認識された NEを NE 種別記号に置き換えた文を文翻訳機で翻訳する。また,認識された $\mathrm{NE}$ を $\mathrm{NE}$ 翻訳で翻訳する. そして, 文翻訳機の結果と $\mathrm{NE}$ 翻訳機の結果を統合することで目的言語文を生成する. この従来モデルには大きく 2 つ問題点がある. 1 つ目は,考慮できる NEが限られることである。従来モデルは,原言語と目的言語間で対応付いた $\mathrm{NE}$ しか活用できないため,原言語側と種類や粒度が異なる目的言語文の NE の情報は失われてしまう.また,原言語の NE タガーが用意できない場合,目的言語の NE タガーが用意できたとしても目的言語の NE を活用することはできない。2つ目は,NE 部分を NE 種別記号に置き換えてしまうため,文翻訳機では NE の構成単語を考慮した翻訳を行えないことである. 翻訳する際の手がかりから $\mathrm{NE}$ の構成単語の情報が失われるので,特に NE を正しく認識できなかった場合, $\mathrm{NE}$ 種別記号に置き換えることで翻訳性能が悪化する可能性がある。 ## 3 提案モデル 本研究では,目的言語文中の $\mathrm{NE}$ の前後に,NE の種類と開始/終了情報を含む NE タグを付与して翻訳を行う,Transformer NMT モデルを提案する。図 1 亿提案モデルの概要を示す. 提案モデルでは,学習時に,教師データである対訳文の目的言語文に対して NER を行い,目的言語文内の $\mathrm{NE}$ を特定する. そして, 特定した $\mathrm{NE}$ の前に「<NE 種別>」,後に「</NE 種別>」という $\mathrm{NE}$ タグを付与する. 図 1 では, 「Patric Fresacher」という $\mathrm{NE}$ の前後に,種別が人名である $\mathrm{NE}$ の開始と終了を表す「<PER>」と「</PER>」がそれぞれ付与されている.この NE タグを付与した目的言語文を用いて Transformer NMT[10] を学習する。 推論時は, 学習し ## 学習時 However, Director Patrick Fresacher seems to have little trust in the text. Dabei scheint Regisseur Patrick Fresacher dem Text wenig zu vertrauen Dabei scheint Regisseur <PER> Patrick Fresacher $\langle/ P E R>$ dem Text wenig zu vertrauen Transformer ## 推論時 図 1 提案モデルの概要図 た Transformer NMT で原言語文を翻訳する。その結果,生成された文に NE タグが含まれている場合は, NE タグを削除した文を目的言語文として出力する。 提案モデルで原言語側の $\mathrm{NE}$ を活用する際は,学習時に,対訳文中の原言語文にも目的言語文と同様に NE タグを付与し,原言語文と目的言語文共に NE タグが付与された対訳文対から Transformer NMT を学習する。推論時には,原言語文に対して NERを行い NE タグを付与してから,学習した Transformer NMT で翻訳を行う。そして,生成した文に NE タグが含まれている場合には,NE タグを削除した文を目的言語文とする. このように,提案モデルでは原言語の NER に依らず,目的言語のNER で識別された全てのNEを考慮できる。また提案モデルでは,元々の目的言語文の情報に NE の情報が追加される(NE の構成単語の情報が失わない)ため,NER の認識誤りによる悪影響を抑えることができると考えられる。 ## 4 実験 ## 4.1 実験設定 本実験では,提案モデルの有効性を WMT2014 の英語とドイツ語間のニュース翻訳タスク2)において  表 1 教師データ中の NE の統計量 } & $27.06 \%$ & $34.80 \%$ \\ 検証する。提案モデルのベースとする Transformer NMT は,Fairseq[6] の Transformer Base を使用した. この $\mathrm{NE}$ を考慮しないベースモデルと,ベースモデルで原言語のNEのみを考慮するモデル,目的言語の $\mathrm{NE}$ みを考慮するモデル,原言語と目的言語の両言語の $\mathrm{NE}$ 考慮するモデルの 4 つのモデルの性能を評価し,比較する。翻訳性能の評価指標は BLEU(\%)を用いる。ハイパーパラメータは Vaswani ら [10] の設定に従った. 英語文とドイツ語文は BPE でサブワード分割した。語彙は両言語で共有し語彙サイズは 40,000 とした。また学習は,開発データに対する性能が 5 エポック連続で向上しなくなったら終了させた. NE タガーは Stanza[7] を使用した. 英語の NER モデルは CoNLL-2003 のデータから学習したモデル, ドイツ語の NER モデルは GermEval 2014 のデータから学習したモデルを使用した. 各モデルが認識する $\mathrm{NE}$ は,「LOC(地名全般)」,「ORG(企業,団体,組織など)」,「PER(架空の人物も含む人名)」,「MISC (その他の固有表現)」の 4 種類である. 表 1 に,本実験で使用する教師データにおいて NE タガーで認識された NE の統計量を示す。表 1 より,認識した NE の数は英語の方がドイツ語よりも多いことが分かる. ## 4.2 実験結果 実験結果を表 2 に示す。表 2 より,英独翻訳と独英翻訳の両方で,NE を考慮しないモデルと原言語文の $\mathrm{NE}$ のみを考慮するモデルのどちらに対しても,目的言語文の NE を考慮することで BLEU が改善できることが分かった. また,原言語と目的言語の両言語の NE を考慮したモデルの方が,目的言語の NE のみを考慮したモデルよりも BLEU が高くなった。この結果から,目的言語の NE の情報と原表 2 英独 / 独英翻訳性能 表 $3 \mathrm{NE}$ の有無別翻訳性能 言語の NE の情報を組み合わせることで翻訳性能をより改善できることが分かった。 ## 5 考察 ## 5.1 評価データでの NE の有無による違い 評価データの参照文に対して NER を行い,評価データを NE を含む文と含まない文に分け,それぞれに対する翻訳性能を調べた。結果を表 3 に示す。 評価の結果,NEを含まない文に対しては,目的言語の $\mathrm{NE}$ 考慮することにより,独英翻訳では BLEU は改善したが英独翻訳では BLEU は低下した. 一方,NEを含む文に対しては,英独翻訳と独英翻訳の両方で,提案モデルはベースラインモデルと同等もしくは高い BLEU となった.このことから,提案モデルは狙い通り NE を含む文に対して有効であることが確認できた.しかし一方で,NEを含まない文に対しては悪影響を及ぼす場合があることが分かった。 ## 5.2 NE の再現率 NE に対する翻訳性能を調べるために,各モデルが生成した目的言語文に対して,参照文で出現して 表 4 NE の再現率 表 5 英語 NE タガーとして OntoNotes モデル使用時の独英翻訳性能 いる NE の再現率を調査した.再現率を計算する際は,参照文の NE の文字列がモデルの出力文に含まれている場合に再現できたとみなした. 結果を表 4 に示す. 表 4 では, $\mathrm{NE}$ を構成するサブワード数毎の再現率も示す. 表 4 より,NE 全体の再現率について,英独翻訳においては目的言語文の NEを考慮することで再現率が改善したことが分かる。一方,独英翻訳においては,原言語文の $\mathrm{NE}$ のみを考慮したモデルと比較すると目的言語文の NEを考慮することで再現率が低下した. NE を構成するサブワード数毎の再現率をみると,1 つのサブワードで構成される NE に関しては,全ての設定で,目的言語の $\mathrm{NE}$ を活用することにより再現率が同等あるいは改善している. そして,構成するサブワード数が増えるほど再現率自体が低下し,また,目的言語の $\mathrm{NE}$ を考慮することで悪化しやすくなる傾向があった. これらのことから,提案モデルは,一つのサブワードで構成される $\mathrm{NE}$ の翻訳には有効であることが確認できた。 ## 5.3 使用する NER モデルの影響 本節では,提案モデルの有効性が,使用する $\mathrm{NE}$ タガーによりどのように変化するかを考察する。具体的には, 英語の NE タガーとして, OntoNotes コーパスから学習した Stanza の NER モデルを使用した際の提案モデルの独英翻訳性能を評価する. OntoNotes モデルは, CoNLL03 モデルが認識する「LOC $\lrcorner, 「 \mathrm{ORG}\lrcorner , 「 \mathrm{PER}\lrcorner$ に加えて,数を表す 「CARDINAL」や日付表現を表す「DATE」など,合計 18 種類の $\mathrm{NE}$ を認識する. 本実験の教師デー タに対して認識された $\mathrm{NE}$ 部分の総サブワード数は 14,310,222, NE を含む文数は 2,532,606であり, CoNLL03 モデルと比較して認識された NE の割合は大きくなった. 評価結果を表 5 に示す. 表 5 より,英語の $\mathrm{NE}$ タガーとして OntoNotes モデルを使用した場合でも,目的言語文の $\mathrm{NE}$ 考慮する有効性を確認できた。 このことから,提案モデルは NER で使用する NE の種類によらず,翻訳性能の改善に効果があることが分かった. ただし, OntoNotes モデルに変更することで認識された $\mathrm{NE}$ の割合は増えたにもかかわらず,原言語の $\mathrm{NE}$ 考慮した場合においては CoNLL03 モデルを使用した場合の方が有効であった. 使用する $\mathrm{NE}$ タガーと提案モデルの有効性の関係に関するより詳細な調査は今後行っていきたい. ## 6 おわりに 本研究では,目的言語文の NE の情報をタグの付与により考慮する Transformer に基づく NMT モデルを提案した.WMT2014 の英独/独英ニュース翻訳タスクにおいて,提案モデルにより翻訳性能が改善できることを確認した.また,実験結果を分析することで,提案モデルは,一つのサブワードで構成される $\mathrm{NE}$ の翻訳に有効であることを確認した. 今後は複数のサブワードで構成される NE に対しても有効なモデルに改良していきたい. ## 参考文献 [1] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. In Proceedings of the 3rd International Conference on Learning Representations, 2015. [2] Xiaoqing Li, Jinghui Yan, Jiajun Zhang, and Chengqing Zong. Neural name translation improves neural machine translation. In Proceedings of the 14th China Workshop on Machine Translation, pp. 93-100. Springer, 2018. [3] Zhongwei Li, Xuancong Wang, Ai Ti Aw, Eng Siong Chng, and Haizhou Li. Named-entity tagging and domain adaptation for better customized translation. In Proceedings of the Seventh Named Entities Workshop, pp. 41-46, 2018. [4] Maciej Modrzejewski, Miriam Exel, Bianka Buschbeck, Thanh-Le Ha, and Alexander Waibel. Incorporating external annotation to improve named entity translation in NMT. In Proceedings of the 22nd Annual Conference of the European Association for Machine Translation, pp. $45-51,2020$. [5] Graham Neubig, Zi-Yi Dou, Junjie Hu, Paul Michel, Danish Pruthi, and Xinyi Wang. compare-mt: A tool for holistic comparison of language generation systems. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 35-41, 2019. [6] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, 2019. [7] Peng Qi, Yuhao Zhang, Yuhui Zhang, Jason Bolton, and Christopher D. Manning. Stanza: A python natural language processing toolkit for many human languages. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 101-108, 2020. [8] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, 2016. [9] Arata Ugawa, Akihiro Tamura, Takashi Ninomiya, Hiroya Takamura, and Manabu Okumura. Neural machine translation incorporating named entity. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 3240-3250, 2018. [10] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH2-13.pdf
# 日本語 BERT を用いた単語の用例の分野別分析ツールの開発 凌志棟 相田太一 金輝燦 岡照晃 小林千真 小町守 東京都立大学 \{ling-zhidong, aida-taichi, kim-hwichan, kobayashi-kazuma1\}@ed.tmu.ac.jp \{teruaki-oka,komachi\}@tmu.ac.jp ## 概要 「保守 (maintenance vs conservative)」のように同じ字面でも媒体によって意味が変わる単語がある。こうした単語の使用実態を調査する場合、用例を集め、分野別に分け、最後に分析を実施する。しかし大規模な分析調査となると、必要な時間や人件費が膨大になる。そのため検索システムや分析手法の開発など、計算機による研究支援の発展が期待されている。本研究では、日本語を対象とし、文脈を考慮した単語ベクトルで用例をクラスタリング、プロットする可視化ツールを作成した。単語が大力されると、現代日本語書き言葉均衡コーパスでの用例を集めてクラスタリングし、そのクラスタとコーパスに付与されている分野情報を合わせて 2 次元にプロットする。コーパス中の単語はすべて NWJC-BERT でベクトル化してあり、クラスタリングとプロットに使用される。また各プロット点からその用例を見ることも可能である。最後にこの可視化ツールが用例分析にどのように役立つのか、ケーススタディを紹介する。 ## 1 はじめに コーパス使った大規模な用例分析が言語学の研究で盛んになっている。久屋 [1] は外来語「ケース」 を対象に、書き手の生年代、学歴や媒体が用法の違いに与える影響について統計分析を行なっている。 その結果、前述の要因が外来語の生起に影響をもたらすことがわかった。また呉 [2] は「足を洗う」という表現の用例を分析した。その結果、分野特有の文脈語と共起することで意味の異なりが起きる傾向を明らかにした。久屋 [1] や呉 [2] のように分野間で用例を比較・分析することで、共時的分布を明らかにし、その単語の意味や用法に違いが生まれる要因を特定することができる。こうした研究は従来人手で行われてきたため、計算機を用いたコーパス分析への期待は大きい。 国立国語研究所が公開しているコーパス検索システム「中納言 $\left.{ }^{11}\right.\rfloor を$ 用いることで、現代語に限らず、古文、方言、学習者の書いた文の大規模な用例検索と収集は可能である。しかし中納言は検索機能しか提供していないため、用例に対する分析や統計的処理は研究者自身が人手で行う必要がある。このため実際に用例を統計的に分析し終えるまで対象単語が分析の対象として適切かどうかは判断できない。 そこで本研究では、調査対象となる単語(以下、対象単語)の分野別用例調査を効率化する可視化ツールを開発した。このツールを使うことで、対象単語の分野間で起こる用法の差異をより視覚的に捉えることができる。具体的には、幅広い分野を力バーした現代日本語書き言葉均衡コーパス(以下、 BCCWJ)[3] の各文に対し、BERT [4] の単語べクトルを用いた語義変化検出の手法 [5] を適用することで、単語の用例の違いの可視化を実現した。このツールによって、用例分析前に対象単語が研究対象としてそもそも適切かどうか判断が可能になる。本ツールは Google Colaboratory の形式で公開している)。 ## 2 関連研究 ## 2.1 BERT を用いた語義変化検出 Giulianelli ら [5] は文脈を考慮した単語ベクトルを用い、単語の通時的な教師なし語義変化検出手法を提案した。年代の異なるコーパスから対象単語の用例を抽出し、BERTに 1 文ずつ入力し、対象単語のベクトルを獲得する。これらのベクトルに対しクラスタリングを行い、類似する用例ごとにまとめあげる。各文に付与された年代情報を用い、時間順に用 1) https://chunagon.ninjal.ac.jp/ 2) https://colab.research.google.com/drive/ 1M1L531l2oxvX3pGkCzYEQmuBw_mXX9Ee 図 1: 開発したツールの処理フロー。「是非」を例にした場合の可視化の流れ。 例をプロットする。年代ごとのクラスタの割合の推移から、語義の通時変化を検出する。Giulianelli ら [5] の手法は通時的な変化の検出に向けたものであるが、本研究ではそれを異なる分野間での単語の用例分析(共時的な差異の分析)に適用した。また BCCWJ 中の文 ${ }^{3}$ には、その文が記述されていた文献のレジスター(ジャンル、言語使用域)が付与されている。本稿ではこれを分野情報と呼ぶ。クラスタリングの結果と、BCCWJ 分野情報を合わせて可視化することで、単語の用法 (用例クラスタ) と分野との関係を発見することが可能となる。 ## 2.2 BCCWJ の分野情報 BCCWJ は現代日本語の書き言葉の全体像を把握するために構築された日本語均衡コーパスで、全体で 1 億 430 万語規模あり、うち人手アノテーションされたコアデータは 100 万語の規模を持つ。実社会のさまざまなテキストを収集しており、各テキストには収集元の分野情報が付与されている。BCCWJ に収録されている分野と語数(短単位数)の一覧を参考情報内の表 1 に示す。本稿で紹介する可視化ツールでは、対象単語の用例を 2 次元上にプロットするだけでなく、その用例が出現した分野の情報を確認することができる。 ## 3 対象単語の用例分析に向けた可視化ツールの構築 本研究では、BERT のベクトルを利用して、単語の用法の違いを分野別に可視化するツールを作成した。本ツールの処理の概要を図 1 に示す。対象単語を決め、語彙素(辞書の見出し語に相当するもの)  $[6]^{4)}$ の形式でツールに入力する。出現形抽出器は単語の電子化辞書 UniDic を用い、同一語彙素を持つ出現形を網羅的に抽出する。UniDic は階層的見出し構造を採用しており、語彙素の下に語形、語形の下に出現形が保持されている。そのため例えば、動詞「食べる」という語彙素で検索する場合、出現形抽出器は同一語彙素「食べる」を持つ「食べ」、「食べよ」「「たべ」...を抽出する。抽出した出現形すべてで BCCWJ 内の文を検索し、それらを含む文を分野情報とともに抽出する(重複排除)。抽出された文を 1 文ずつ BERT に入力し、対象単語のベクトルを獲得する。ベクトルを Kmeans 法でクラスタリングし、対応する用例、クラスタ番号、BCCWJ の分野を付与した上で、2 次元に描画する。 BERT には NWJC-BERT ${ }^{5}$ を使用する。NWJCBERT は「国語研日本語ウェブコーパス」(NWJC) により事前学習した BERT モデルである。広く利用されている東北大 BERT $\left.^{6}\right)$ と異なり、NWJC-BERT は単語をサブワード化しない。対象単語がサブワー ド化されると、単語がより小さいトークンに分割され、単語ベクトルを獲得するためには、各トー クンのベクトルを再度、ベクトル演算によって結合する必要がある。一方 NWJC-BERT では、語彙に UniDic の語彙素を収録しているため、対象単語が必要以上に分割される心配がない。したがって、 NWJC-BERT を利用することでツールの処理が容易になる。 クラスタリング手法は Giulianelli らの研究と同じく Kmeans ${ }^{7)}$ を使用する。単語べクトル集合に対し 4) BCCWJ, UniDic で lemma と呼ばれる要素。 5) https://www.gsk.or.jp/catalog/gsk2020-e/ 6) https://github.com/cl-tohoku/bert-japanese 7) https://scikit-learn.org/stable/modules/generated/ (a) 色でクラスタを区別した「保守」のグラフ (b) 色でクラスタを区別した「是非」のグラフ 図 2: 作成したツールで各対象単語に対して用例ごとにクラスタリングを行った結果 図 3: 可視化ツールの凡例の見方 て、クラスタ数を 2 から 10 まで Kmeans を行い、シルエットスコアが最大となるクラスタ数での結果を採用する。類似度計算にはユークリッド距離を使用する。 ## 4 可視化ツールを用いたケーススタ ## デイ この可視化ツールを用いて単語「保守」と「是非」 に対し分析を行なった。用例抽出の対象は BCCWJ コアデータを使用した。対象単語のベクトルを可視化する際に、scikit-learn の TSNE ${ }^{8)}$ を用いて 768 次元のベクトルを 2 次元に次元圧縮を行なった。図 $2 a 、 2 b$ に単語「保守」と「是非」に対して本ツールを用いた可視化結果を示す。出力された図の凡例の見方は図 3 に示す。 ケーススタディ 1 「保守」図 2aに「保守」という単語の用例に対するクラスタリングの結果を示す。コトバンク辞書と見比べた時、Kmeans によるクラスタリングの結果はクラスタ 0(青)が「正常の状態を保つ」[7] という意味での用例、クラスタ 1(赤)が「旧習・伝統を守る」[7] という意味の用例であった。また各用例には BCCWJ 由来の分野情 sklearn. cluster. KMeans. html 8) https://scikit-learn.org/stable/modules/generated/ sklearn.manifold.TSNE.html報が付与されている。クラスタ 1(赤)「旧習・伝統を守る」に含まれる用例の出典分野の割合を図 $4 \mathrm{a}$ に示す。これを見ると「旧習・伝統を守る」という意味での「保守」は新聞分野での用例が全体のおよそ 90 \%を占めることがわかる。これに対し図 $4 \mathrm{~b}$ にはクラスタ 0 (赤)「正常の状態を保つ」に含まれる用例の出典割合を示した。この意味での使用は新聞やブログなどの複数の分野で出現した上、それぞれの分野でほぼ同じ割合を占めている。そのため「保守」という単語は「正常の状態を保つ」という意味で幅広く使われていることが分かった。プロットからは直接用例を確認できるため、用例文を詳しく見ていくと「保守派」「保守党」という政治関連での出現が多いことが分かった。 ケーススタディ 2 「是非」 図 $2 b$ に是非」という単語の用例に対するクラスタリングの結果を示す。コトバンク辞書と見比べた時、Kmeansによるクラスタリングの結果はクラスタ 0(青)が「ぜひとも」という意味の用例、クラスタ 1 (赤)はほとんど「是非を問う」という意味の用例であった。 ケーススタディ 1 と同様に、BCCWJ 由来の分野情報と比較するため、図 5a にクラスタ 0(青)「ぜひとも」に含まれる用例の出典分野の割合を示す。これを見ると「ぜひとも」という表現は、口語的な場 (a)クラスタ 0 に属する用例の各分野の割合 (b) クラスタ 1 に属する用例の各分野の割合 図 4:「保守」のクラスタリング結果の内訳に対する調査 (a)クラスタ 0 に属する用例の各分野の割合 (b) クラスタ 1 に属する用例の各分野の割合 図 5: 「是非」のクラスタリング結果の内訳に対する調査 面(Yahoo!知恵袋、Yahoo!ブログ)でも書き言葉的な場面(書籍、新聞、雑誌)でもそれぞれ同程度に使用されていることがわかる。また、Yahoo!ブログと Yahoo!知恵袋に属する用例の各意味の使用割合を調べた結果、「是非を問う」という用例は見つけられず、「ぜひとも」が 100\%であった。図 5bでは、クラスタ 1 (赤)「是非を問う」内の用例の出典分野の割合を示す。「是非を問う」は新聞での用例が $50 \%$ を占める一方、 $25 \%$ \%が書籍の用例、 $18.8 \%$ \%が白書の用例であった。新聞・白書・雑誌での言葉使いは書き言葉の中でも文語体に近く、カジュアルな口語体で書かれる Yahoo!知恵袋や Yahoo!ブログとの明らかな差を観察することができる。またプロットされた各用例を観察したところ、クラスタ 1(赤)「是非を問う」内に「ぜひとも」の用例が 4 つ含まれていたことが分かった。そのため、Kmeans による自動クラスタリングの際に誤分類が起きていることが分かった。ただしここまで述べてきた考察はいずれも直観に反するものでない。そのため、クラスタリング自体に重大な欠陥があるわけではなく、今後の精度向上を期待するものである。 ## 5 おわりに 本研究は分野間で起こる単語の用法の異なりを可視化し、用例研究を支援可能なツールを開発した。このツールを用いることで、コストのかかる統計的な用例分析を行う前に、事前に対象単語が研究目的に適しているかどうか是非の検討が可能になる。今回は Google Colaboratory でデモを公開したが、Google Colaboratory は Python を記述して実行するためのオンライン環境なので、ツールとしては使いにくい。そこで今後の課題として、Webアプリの形式で公開し、クラスタリング以外に分野別の生起率などの情報を可視化しグラフ出力する機能の追加を検討している。用例に対するクラスタリングが適切な分類ができていないことも課題である。 NWJC-BERT から得られたベクトルがどの程度クラスタリングに適しているか調査するとともに、クラスタリング手法の改善に取り組んでいきたい。 ## 参考文献 [1] 久屋愛実. 現代書き言葉における外来語の共時的分布:「ケース」を事例として. 国立国語研究所論集, Vol. 6, pp. 45-65, 2013. [2] 呉琳. 〈足を洗う〉という表現が語る言語変化コー パスによるアプローチ. 言語文化教育研究学会誌『言語文化教育研究』, Vol. 13, pp. 134-168, 2015. [3] Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary written Japanese. Language Resources and Evaluation, Vol. 48, No. 2, pp. 345-371, 2014. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [5] Mario Giulianelli, Marco Del Tredici, and Raquel Fernández. Analysing lexical semantic change with contextualised word representations. Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3960-3973, 2020. [6] 前川喜久雄(監修)/伝康晴・荻野綱男(編).講座 日本語コーパス 7 コーパスと辞書. 朝倉書店, 2019. [7] 保守とは-コトバンク,(2022-1 閲覧). https: //kotobank.jp/word/\%E4\%BF\%9D\%E5\%AE\%88-629994. ## A 参考情報 ## A. 1 分野タグー覧 ## A. 2 「出版サブコーパス-新聞」に属する用例の各クラスタの割合 図 6:「出版サブコーパス-新聞」に属する用例の各クラスタの割合 図 6 では、分野情報が新聞に属する「保守」の用例をまず集め、それらが所属するクラスタの割合を示した。「旧習・伝統を守る」という意味の用例が約 93 \%であり、「正常の状態を保つ」の用例が 7 \%である。前述の結果と合わせると、「旧習・伝統を守る」という意味の「保守」は分野間で比較しても新聞でよく使用され、新聞内でも「正常の状態を保つ」という意味よりも多く利用されていることが示せた。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH2-14.pdf
# BERT を用いた比較法研究における類似条項の対応付け 長 裕樹 ${ }^{1}$ 中村 誠 ${ }^{1}$ 1 新潟工科大学 工学部 201811081@cc.niit.ac.jp mnakamur@niit.ac.jp ## 概要 日本法と外国法の類似条項を自動で対応付けするシステムは比較法研究において有用である。本研究の目的は類似条項の対応付けシステムの作成である。本研究では類似条項を発見するために BERT モデルを用いて生成した文書ベクトルの類似度を用いる。本稿では実験により、1.BERT モデルが類似条項の対応付けに有効であること、2.英訳した法令文でも BERT が有効であること、3.法律ドメインに特化した BERT モデルである LEGAL-BERT は英訳した日本法令には有効ではない可能性があると考察した。 ## 1 はじめに 比較法とは、種々の法体系における法制度又は法の機能を比較することを目的とする学問である。比較とは(1)比較されるものの間にある類似点と相違点を明らかにする、(2)類似点と相違点の生じる原因を明らかにする。(3)相違点の存する場合は、どちらがより優れているか評価することであるとされている[1,2]。また、今日最も確固とした法体系を持つのは国家であるから、比較法は通常国家法相互の比較を指す[3]。比較法の実務的な効用として、自国法の立法的整備、解釈・適用の改善が挙げられる。実際に法制審議会において、図 1 のように比較法として日本法と諸外国法の類似条項が提示された例がある。 比較法研究においては, 日本法と外国法の類似点を足掛かりとして研究を行う場合がある。このとき日本法と外国法との類似部分を対応付けたデータを作成することが考えられる. しかし, 正確な対応付けには専門的な知識が必要であり, 非常に労力がかかる. このとき自動で対応付けが出来れば, 比較法研究に寄与するとともに,一般にも海外とのビジネスをする際などに有用である. 類似条項の対応付けに関する研究はすでに行われている[4,5]. それらの研究では単語の一致数に着目 L、Jaccard 係数や Dice 係数で条項間の類似度を計 & Vater eines Kindes ist der Mann, \\ 図 1 法制審議会における実際の対応付け算している。しかし, それらの手法により日本法と外国法を対応付けたところ、ほとんどの条項間で高い類似度が得られず対応付けに失敗している。そこで、それらの代わりに BERT による文書ベクトルを用いることで類義語などを正確にとらえ、より精度の高い類似度の計算ができると考えられる. 本研究の目的は類似条項の対応付けシステムの作成であり、BERT が有効性を検証するために日本法とその英訳文を用いた対応付けの実験を行う。 ## 2 類似文書検索 本研究の目的である類似条項の対応付けはそれぞれの条文を 1 つの文書とした類似文書検索と捉えられる。類似文書検索の手法は文書を単語の集合として扱い類似度を計算する方法とニューラルネットワ ークを用いて得られる文書の分散表現から類似度を計算する方法がある. ## 2.1 集合の類似度 2 つの集合の類似度を表す方法として Jaccard 係数(式(1))がある. $ \operatorname{Jaccard}(A, B)=\frac{|A \cap B|}{|A \cup B|} $ 類似文書検索においてはそれぞれの文書を単語の集合とすることで Jaccard 係数を計算することができる。しかし, Jaccard 係数は計算が単純である反面, 単語の重要度を考慮していない, 類義語も全く別の単語としてしまうといった欠点がある. ## 2.2 ベクトルの類似度 ある単語の意味はその周辺単語によって形成されるという,分布仮説[6]に基づき,ニューラルネットワーク (NN)によって大量のテキストデータで学習を行うことで,単語の意味をベクトルとして表現することができる. 例として king-man+woman というべクトル演算を行うことで queen に近いべクトルを得られることが知られている. BERT とは、Jacob Devlin ら[7]により提案された言語モデルの一つで,多くのNLP タスクにおいて高い性能を示している. 現在では複数の事前学習済みモデルが公開されており,ファインチューニングを行うだけで高精度な分類を行うことができる。また, 最終層の出力を取り出すことで入力した文書の各トークンに対する単語ベクトルを得ることができる.しかし、基本的な BERT モデルは wikipedia などの一般の文書をコーパスとしているため、医療等の特定のドメインでは性能が低いことが報告されている[8]。法律ドメインにおいては、英語のモデルとして LEGAL-BERT モデル[9]が公開されている。 ## 3 提案手法 外国法との対応付けを行う流れを図 2 に示す。 1.それぞれの法令を英語に翻訳 2. 条文を 1 文書として BERT に入力 3. 出力の平均を文書ベクトルとする 4. 文書ベクトル間のコサイン類似度を計算 5. コサイン類似度に基づき、条文を対応付け 図 2 対応付けの流れ最初に対応付けにあたり言語を統一するため翻訳を行う。どちらも英語に翻訳するのは、英訳は翻訳データが多いことから翻訳精度が高いと考えられるためである。最後のコサイン類似度による対応付けでは、対応する文書がない場合があることを考慮し、ある 2 つの文書の類似度が双方向で最大となる場合に対応付けを行うこととする。 ## 4 実験 ## 4.1 実験の目的 外国法との対応付けを行う場合、正解データの作成が困難であるため、この実験では試験的に日本法令同士の対応付けを行う。ここでは法令の内容が似ている電気事業法(昭和 39 年法律第 170 号)とガス事業法(昭和 29 年法律第 51 号)を取り上げる。類似する条の対応付けに文書ベクトルの類似度を用いるが、一般の文書と同様に法令文書でも BERT によるベクトル化が有効であるとは限らない。そこで、実験によって類似条文の対応付けにおける BERT の性能を Jaccard 係数による対応付けとの比較により検証した。また、外国法を対応付ける場合は英訳した文書を使用する必要があるため、日本法を英訳したもので対応付けを行い、日本語の場合と同様に対応付けが行えるかを調べた。さらに、英語の BERT モデルには法律ドメインに特化した LEGAL-BERT モデルが公開されているため、一般に使用される BERT-BASE と性能を比較した。 ## 4.2 実験手順 実験データの文書を日本語の事前学習済み BERT モデルに入力し、最終層の[CLS]と[PAD]を除く出力を平均したものを文書ベクトルとした。事前学習済みモデルには cl-tohoku/bert-base-japanese-wholeword-masking を利用した。BERT の入力トークン数は最大の 512 とし、それを超えるトークンは無視した。異なる法令の文書ベクトル同士のコサイン類似度をすべての組み合わせで計算した。ある文書に対して最もコサイン類似度が高い文書を参照し、その文書から見て最も類似度が高くなる文書が元の文書である場合に、2つの文書を対応付けた。そして、電気事業法とガス事業法の対応付け結果は正解デー タを用いて評価した。 次に、Jaccard 係数を用いた場合と比較するた め、同じ文書を形態素解析ソフト MeCabによって 単語に分割し、それぞれの文書間の Jaccard 係数を類似度として対応付けを行った。MeCab の辞書に は Neologd を使用した。 最後に、BERT による対応付け実験を英訳版の法令で行った。BERT の英語事前学習済みモデルには bert-base-uncased と legal-bert-base-uncased を用い、性能の比較を行った。 ## 4.3 実験データ 本実験で使用した法令を表 1 に示す。日本語の法令データは e-Govi、日本法の英語訳デー夕は日本法令外国語訳データベースシステム $(\mathrm{JLT})^{\mathrm{ii}}$ よりそれぞれ $\mathrm{xml}$ 形式で入手した。JLT の英訳は最新の法令デ一タではないため、条数や内容の一部が異なる。それぞれのファイルから article タグ配下にあるテキストを抽出して、それぞれを 1 つの文書として扱った。 ## 表 1 使用法令 ## 4.4 評価方法 電気事業法のガス事業法に対する対応付けの結果を正解データと比較した。正解データは法律になじみのない工学部の学部 4 年生と非常勤職員による人手で、複数の条との対応を許可して作成した。正解データと同じ対応が取れた場合を $\mathrm{TP}$ 、対応しない条を対応付けた場合を FP、対応がない条を対応付けなかった場合を TN、対応する条があるが対応が取れなかった場合を FN として、Accuracy、 Recall、Precision、F 值を算出した。 ## 5 結果と考察 ## 5.1 実験結果 日本語の電気事業法とガス事業法の対応付けを評価した結果を表 2、英訳版の電気事業法とガス事業法の対応付けを評価した結果を表 3 に示す。表 2 日本語で対応付けした場合の評価結果 表 3 英語で対応付けした場合の評価結果 ## 5.2 考察 ## 5. 2. 1 Jaccard 係数と BERT の比較 どちらの手法を用いた場合でもすべての評価指標において 0.7 を超えるスコアが得られた。2つの手法を比較すると、Jaccard 係数を用いた場合のほうがよりスコアは高くなった。これは電気事業法とガス事業法の条文が単語単位で類似しているためだと考えられる。しかし、予備実験で Jaccard 係数を用いた手法によって条項単位で日本法とドイツ法を対応付けたが、良い結果が得られなかった。これは内容が類似していても使用される単語が異なっているためであると考えられ、NNを用いて得られた文書ベクトルの類似度を用いた場合には意味の近い条項を対応付けることができると考えられる。 ## 5. 2.2 英訳版での対応付け精度 英訳したデータを対応付けた場合、どちらの BERT モデルによる対応付けでも日本語の場合と同程度のスコアが得られた。このことから、実際に日本法と外国法を対応付ける場合にも、英語の BERT モデルを用いることで双方を英語に翻訳してから対応付けを行うことができると考えられる。 また、BERT-BASE と LEGAL-BERT を比較すると、Recall は LEGAL-BERT、それ以外は BERTBASE のほうが高くなった。LEGAL-BERT は法律ドメインに特化したモデルであるが、学習に用いたのは EU 法やイギリス法、US の契約文書等の英語の法的文書のみであり、日本の法令データは学習に使われていないためであると考えられる。 ^{i}$ https://www.e-gov.go.jp ii http://www.japaneselawtranslation.go.jp } ## 6 おわりに 実験から、BERTを用いた類似条項の対応付けが有効であることが分かった。また、英訳で対応付けを行う場合には BERT-BASE を用いたほうがより性能が高くなるという結果が得られた。 今後は実際に日本法とドイツ法など外国法との対応付けを行い結果の評価を行うとともに、対応付けの条件等の最適化を目指したい。 ## 謝辞 本研究は、科学研究費補助金 (19H04427、代表 :中村誠)の助成を受けたものである。 ## 参考文献 [1] 貝瀬幸雄, 比較法学入門, 日本評論社, 201902-25 [2] 五十嵐清, 比較法ハンドブック, 勁草書房, 2019-02-20 [3] 滝沢正, 比較法, 三省堂, 2020-10-10 [4] 比較法研究における外国法との類似条項の対応 付けと翻訳精度との関係について. 長裕樹. 中村誠,電子情報通信学会信越支部大会, 2021 年, p. 115 [5] The legislative study on Meiji civil code by machine learning. Kaito Koyama, Tomoya Sano, Yoichi Takenaka. Proceedings of the International Workshop on Juris-Informatics 2021, pp.41-53 [6] Zellig S. Harris. Distributional structure. WORD, 1954, pp.146-162 [7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Un derstanding. Proceedings of the Annual Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, abs/1810.04805, 2019 [8] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, and Jaewoo Kang. BioBERT: a pre-trained biomedical language representation model for biomedical text mining. CoRR. 2019 [9] LEGAL-BERT: The muppets straight out of law school. Chalkidis, I., Fergadiotis, M., Malakasiotis, P., Aletras, N., \& Androutsopoulos, I., Findings of the Association for Computational Linguistics: EMNLP 2020, pp.2898-2904
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH2-15.pdf
# 介護支援対話システム MICSUS のための意味解釈モジュール 淺尾 仁彦 ${ }^{1}{\text { 水野 } \text { 淳太 }^{1} \text { 呉 鍾勲 }}^{1}$ Julien Kloetzer $^{1}$ 大竹 清敬 ${ }^{1}$ 福原 裕一 1 鎌倉 まな ${ }^{1,2}$ 緒形桂 $1 \quad$ 鳥澤 健太郎 ${ }^{1,2}$ 1 国立研究開発法人情報通信研究機構 (NICT) 2 奈良先端科学技術大学院大学 \{asao, junta-m, rovellia, julien, kiyonori.ohtake, fukuhara, kamana, kei.ogata, torisawa $\}$ n nict.go.jp ## 概要 介護支援対話システム MICSUS でユーザ発話を解釈するためのモジュールの概要とその性能等についてまとめる。MICSUS は介護・支援の必要な高齢者の健康状態等の定期的なチェックを行うとともに、高齢者のコミュニケーション不足を補うことで、介護従事者の負担を軽減し、高齢者の健康維持を促進する目的で開発が進められている対話システムである。MICSUS は、健康状態等に関する質問に対するユーザの自由な応答を解釈し記録することができるほか、ユーザ発話によってはウェブ情報に基づいた雑談に遷移することも可能である。また、音声認識エラーによる意味解釈の失敗を防ぐため HBERT と音声認識エラー検出の 2 つの技術も開発した。 ## 1 はじめに 介護支援対話システム $\operatorname{MICSUS}^{1)}$ は、内閣府総合科学技術・イノベーション会議の戦略的イノベー ション創造プログラム (SIP) 第 2 期の支援のもと、 KDDI 株式会社・情報通信研究機構 (NICT) ・NEC ソリューションイノベータ株式会社・株式会社日本総合研究所の共同で開発が進められている高齢者向けの対話システムである $[1,2]$ 。現在、介護分野では日本だけでなく世界的に人手不足が懸念されており、 $\mathrm{AI}$ の活用に期待が高まっている2)。MICSUS は、ケアマネジメント業務の負担軽減のため、主にあらかじめ設計した対話シナリオを元に、システムからユーザに質問する形で高齢者の健康状態、生活習慣等をモニタリングする。同時に、雑談対話システム  図 1 介護用対話システム MICSUS。音声だけでなく表情やジェスチャーも認識可能 WEKDA [3] 等と接続して、ユーザ発話によってはウェブ情報を用いた雑談に遷移することで、飽きのこないシステムにするとともに、高齢者のコミュニケーション不足を補うことを狙っている。定期的な健康チェックの徹底やコミュニケーション不足の解消により要介護度の進行や認知症の発症、死亡率を抑えられることが知られており [4,5]、MICSUS は介護の質を向上させるうえで重要な役割を果たすことが期待されている。現在、高齢者施設と連携して長期にわたる実証実験を進めている。 MICSUS の外見を図 1 に示した。MICSUS はジェスチャーや表情も認識可能なマルチモーダルな対話システムとして開発が進められているが、本発表では、NICT が担当して研究開発を行っている、ユーザ発話を解釈するモジュールに議論を絞る。MICSUS の主要機能には、Yes/No 質問による健康状態等のモニタリング、好みや習慣などを聞いて話題を広げるための個人属性質問応答、ユーザの回答の訂正、重複した質問を避ける含意認識機能、雑談機能がある。本発表では、このうち一部の機能について、その概要と利用例、およびその実現のため構築した、 ユーザ発話を解釈するための深層学習モデルについて述べる。また、音声対話システムの課題である音 声認識エラーへの対処について、音声認識エラーを含むテキストに対して頑健な分類を実現する言語モデル HBERT と、音声認識エラー検出の 2 種類の技術も提案する。特に HBERT は、評価デー夕に音声認識エラーがない場合も含めて、 BERT $_{\text {LARGE }}$ [6] からの性能向上を実現した。本発表で言及するモデルはいずれも 350GB (22 億文)のウェブテキストで事前学習を行った BERT もしくは HBERTをもとに、 それぞれの機能に合わせた学習データを NICT のアノテータが作成し、自動生成した学習データと合わせてファインチューニングを行ったものである。 ## 2 関連研究 少子高齢化の進むなかで高齢者を対象にした対話システムは注目を集めており、既存研究に山本ら [7]、大竹ら [8]、下岡ら [9] の対話システムなどがある。例えば下岡らは、相づち・問い返し・共感応答などによってユーザの語りを促す傾聴対話システムを構築しており、音声認識エラーへの対策として、音声認識の信頼度によって応答生成の手法を使い分けることも実現している。傾聴ないし雑談を主としたこれらの対話システムと比較すると、MICSUS は健康状態等のモニタリングという明確な目的をもつため、あらかじめシナリオを用意してシステム主導で目的指向型の対話を行うという点が異なっているが、同時に、雑談機能によってユーザの主体的な話題提供に対応することも可能となっている点にオリジナリティがある。 ## 3 Yes/No 質問 「夜はよく眠れていますか?」のような Yes/No 質問による高齢者の健康状態等のモニタリングは、 MICSUS の最も基本となる機能である。この機能のため、Yes/No 質問に対するユーザ応答を Yes, No, Unknown, PresuppositionFailure, Other $の 5$ 値に分類するモデルを作成した (表 1)。Yes, No 以外のカテゴリとして、Unknown (ユーザがわからないと答えている場合)、PresuppositionFailure (ユーザが質問の前提が成り立たないと指摘している場合)、Other(その他の場合。ユーザが質問に答えず他のことを言つている場合など)が設けてある。モデルは、例えば 「毎日しっかり食べていますか?」という質問に対し、「食べています」や「いいえ」のような単純な応答だけでなく、「胃は丈夫なんだよ」「それが最近すっかり食が細くなって」のような間接的な回答で あっても適切に分類できるよう、意図的に後者のような発話事例の多い学習データを作成し学習した。 表 1 Yes/No 質問応答の 5 値分類と、「お薬を飲み忘孔な 学習・評価データには、株式会社日本総合研究所が策定を進めているケアマネジメント標準 [10] に基づいて作成された介護関連の質問のほか、介讙とは関係のない一般的な質問も含めることで、幅広い目的で使用できるようにした。最新モデルは評価デー 夕全体では平均精度 (AP) のマクロ平均 $94.3 \%$ 、また介護とは関係のない一般的な質問応答の評価デー夕では $98.1 \%$ を達成した3)。2021 年 12 月に高齢者施設で高齢者 1 名を対象に 15 日間にわたり実施した音声対話での実証実験4)では、ユーザ発話ごとに評価すると正解率 $89.9 \%$ (129 件中 116 件) であった。分類結果が Other の場合は回答を確定させずに再質問する仕様になっているため、再質問のやりとりまで含めて最終的に正解できたかどうかで評価すると、正解率は $94.3 \%$ (123 件中 116 件) であった。不正解となった事例 7 件中 4 件は、ユーザ発話に Yes と判断できる部分と No と判断できる部分の両方を含むなど、人手でも分類の難しい曖昧な発話をしているケースであった。 ## 4 個人属性質問 個人属性質問は「好きな食べ物は何ですか?」「日課は何ですか?」「昨日は何を食べましたか?」のように、システムがユーザの好みや習慣などを聞く質問である。ユーザの回答から雑談 (6 節) につなげるなどして、モニタリング質問の連続による単調さを避け、場を和らげることを目的としている。個人属性質問については、ユーザが (「特にない」といつた回答を含め) 質問に回答したかどうかを判定する回答有無判定と、ユーザ発話から回答となるキー ワードを抽出する回答部分抽出の 2 種類のモデルを用意した。回答有無判定によって、その質問を終了 3)アノテータが作文した評価データに基づくものであり、音声認識エラーなどは含まない。評価デー夕についても、意図的に単純な応答を避け、分類が難しいものが多くなるように作成されている。 4)コロナ禍で大規模な実証実験の実施が難しい状況のため、少人数で実証実験を進めている。 してよいかどうかを判断することができ、また、回答部分抽出によって、例えばユーザが「好きな食べ物は何ですか?」に対して「最近はお魚がおいしくてね」と答えた場合に、「お魚がお好きなのですね」 のように応答することが可能になっている。 回答部分抽出は、現状、上記の「お魚」の例のように回答が名詞で表せるファクトイド質問の場合にしか対応していない。例えば why, how 等を訊ねる非ファクトイド質問の扱いは今後の課題となるが、現在、NICT で公開している深層学習版 WISDOM $\mathrm{X}^{5)}$ で実現している技術を応用することで解決できると考えている。 ## 5 訂正機能 訂正機能は、システムの誤認識(あるいはユーザの言い間違い) のため一度誤って確定してしまった回答を訂正する機能である (表 2 に対話例)。この機能により、ユーザは「すみません、訂正があるのですが」「さっきの薬の話に戻れますか?」「一つ前の質問ですが、よく眠れていないって言ったんです」 のように、任意のタイミングで自由な表現で訂正要求を行うことができる。ただし、このような訂正要求はシステムによる質問等を遮って行わなければならないため、不慣れなユーザには難しい。そこで、システムでそれまでの質問応答の結果を要約し、「ちょつとこれまでの回答を確認させてください。毎日しっかり食べている、薬を飲み忘れなく飲めている、ということですが、訂正があれば教えてください」のように、訂正が必要ないかどうか確認を促す機能を合わせて実装した。 ## 表 2 訂正機能の利用例 訂正機能では、「訂正したいのはその質問じゃないです」のようなユーザ発話で訂正対象の変更を行うことや、システムが訂正の意図を誤認識した場合に「訂正ではありません」のようなユーザ発話で訂正をキャンセルすることも可能になっている。  ## 6 雑談 雑談機能は、ユーザ発話の内容が雑談的であるときに、NICT で開発している雑談対話システム WEKDA [3] を使用して雑談的な応答を返す機能である。表 3 に雑談の例を掲載した。 表 3 雑談の例 WEKDA は、ユーザ発話に含まれる名詞をもとにウェブ文書から雑談に適した情報を検索することで雑談応答を実現するシステムであり、深層学習版 WISDOM X の採用などにより性能が大きく向上しているが、詳細については本発表では省略する。 MICSUS には、雑談に移行するのにふさわしいユー ザ発話を検出する雑談開始判定と、雑談を終了するほうがよいユーザ発話を検出する雑談終了判定の 2 つのモデルを実装した (このほか 7.2 節で述べる音声認識エラー検出も利用される)。 ## 7 音声認識エラーへの対応 MICSUS は音声で対話を行うシステムであるため、入力には音声認識エラーが含まれている可能性があり、音声認識エラーがあっても対話を大きく破綻させることなく動作させることが重要な課題になる。この節では、音声認識エラーの影響を抑えるため導入した HBERT と音声認識エラー検出という 2 種類の技術について述べる。HBERT は、音声認識エラーがない場合も含めて性能向上を実現した。 ## 7.1 HBERT 単語列を入力とする通常の BERT では 2 つの単語等が音声的に似ているという情報を利用することは難しい。そのため、ユーザ入力に音声認識エラーがあるとその性能は大きく落ちる。この問題に対処するため、HBERT と呼ばれる技術を開発した。これは、通常の漢字力ナ混じり表記の入力以外に、形態素解析によって得られる力ナ表記も入力に加えて事前学習を行うものである。事前学習済みのモデルをファインチューニングする際に、疑似的な音声認 表 4 主なモデルでの BERT と HBERT の比較 MICSUS で使用しているモデルのうち一部のみを示している。AP は平均精度 (average precision)。開発データで最も性能の良かったモデルの評価データでの性能を掲載している (ハイパーパラメータの探索範囲はモデルによって異なる)。「ノイズあり」の性能は、ノイズ率 $0 \% 、 10 \% 、 20 \% 、 50 \%$ の 4 種類の評価データでの評価結果の平均。学習デー夕件数については括弧内で、直接アノテータがユーザ発話を人手作成したものの件数を示した。それ以外の学習データとして、既存の言語資源を利用したものや、システム発話との組み合わせの変更、複数のユーザ発話の連結などによって機械的に生成したものがある。HBERT のためにノイズを加えて生成したものは学習デー夕件数に含まない。 識エラーとして学習データにノイズ6)を入れることで、音声認識エラーに対して頑健なモデルを実現することができる7)。表 5 に音声認識エラーに対して頑健な動作の例を示す。 表 5 音声認識エラーに頑健な Yes/No 分類の例システム:お水をよく飲んでいますか? ユーザ:飲んでます(音声認識結果:飛んでます) システム:お水をよく飲んでいるのですね。 表 4 に主要なモデルの BERT 版と HBERT 版の性能比較について要約した。ノイズなしの評価データによる性能と、ノイズありの評価デー夕による性能の 2 種類を示している。表に示したいずれのモデルでも、BERT、HBERT ともにノイズありの評価デー 夕を用いた場合には性能が落ちるが、HBERT は比較的性能の低下が小さいことがわかる。また、ノイズなしの評価デー夕を用いた場合にも、表に示した全てのモデルで HBERT は BERT を上回る性能となっている。 ## 7.2 音声認識エラー検出 個人属性質問や雑談機能などでは、HBERTを使用するかどうかにかかわらず、ユーザが用いた名詞をシステム発話で利用するため、そのキーワードが音声認識エラーの結果生じた語である場合は致命的な対話の破綻を招いてしまう (表 6)。特に、雑談開始判定は、ユーザが新しい話題を出したときに雑談開始と判定することを意図しているため、音声認識エラーで予期しない語が認識されると、それが原因で誤って雑談開始してしまう可能性が高い。 6)ノイズは音素列で表現した単語間の編集距離に基づき、類似した単語にランダムに置き換えることで作成した。ノイズを入れる単語の割合は $0 \% 、 10 \% 、 20 \% 、 50 \%$ の 4 種類を試した。表 4 では開発データで最高性能になったものについて報告している。評価デー夕のノイズも同じ方法で生成している。 7)関連研究として、通常の英単語列の他に、音声認識結果を発音記号で入力させる Phoneme-BERT [11] がある。表 6 雑談における音声認識エラーによる対話破綻の例システム: 毎日しつかり食べていますか? ユーザ:はい、ちゃんと食べてます。 (音声認識結果: 愛車と食べてます。) システム: 適切なコーティングを愛車に施すと污れにくくなるといった情報がありましたよ。 このような対話の破綻を防ぐため、ユーザ発話に含まれる名詞について、音声認識エラーによるものかどうかを判別するモデルを作成した。このモデルを利用し、音声認識エラーがあった場合は雑談開始としない (もしくは、音声認識エラーの部分を捨て、残りの部分で雑談開始するかどうかを判定する)という動作を実現できる。音声認識エラー検出モデルの学習データにあたって、人手作成したユーザ発話に含まれる名詞を他の名詞にランダムに差し替えることで疑似的な音声認識エラーとした。同じ方法で作成した疑似的な評価データでの精度は $99.9 \%$ を達成した。また、このモデルが実装されていなかつた 2021 年 6 7 月の実証実験では、音声認識エラー のため誤って雑談開始してしまったケースが 13 件あったが、このモデルを実装すると、その全てのケースについて音声認識エラーが検出でき、誤った雑談開始を避けることができることがわかった。 ## 8 おわりに 本発表では、介護用対話システム MICSUS でユー ザ発話を解釈するために開発したモデル群について報告した。今後さらに高齢者を対象とする実証実験を重ねてその結果をシステムの改善につなげるほか、NICT で開発、公開している深層学習自動並列化ミドルウェア RaNNC [12] を用いたより大規模な言語モデルを採用することで、さらなる精度の向上を目指す。 ## 謝辞 本研究は総合科学技術・イノベーション会議の戦略的イノベーション創造プログラム (SIP) $\left.{ }^{8}\right) 「 \mathrm{Web}$等に存在するビッグデータと応用分野特化型対話シナリオを用いたハイブリッド型マルチモーダル音声対話システムの研究」(管理法人:NEDO)によって実施されたものである。 ## 参考文献 [1] Yoshihiko Asao, Julien Kloetzer, Junta Mizuno, Dai Saiki, Kazuma Kadowaki, and Kentaro Torisawa. Understanding user utterances in a dialog system for caregiving. In Proceedings of the 12th Language Resources and Evaluation Conference (LREC2020), pp. 653-661, 2020. [2] 淺尾仁彦, Julien Kloetzer, 水野淳太, 齊木大, 門脇一真, 鳥澤健太郎. 介護用対話システムのための高齢者の発話理解. 言語処理学会第 26 回年次大会発表論文集, pp. 125-128, 2020. [3] 水野淳太, クロエツェージュリアン, 田仲正弘,飯田龍, 呉鍾勲, 石田諒, 淺尾仁彦, 福原裕一, 藤原一毅, 大西可奈子, 阿部憲幸, 大竹清敬, 鳥澤健太郎. WEKDA: Web 40 億ページを知識源とする質問応答システムを用いた博学対話システム. 人工知能学会第 84 回言語・音声理解と対話処理研究会, pp. 135-142, 2018. [4] 株式会社日本総合研究所. 平成 25 年度老人保健事業推進費等補助金老人保健健康増進等事業居宅サービス等における適正化とサービスの質の向上および保険者機能強化のための調査研究事業報告書, 2014. [5] 斉藤雅茂, 近藤克則, 尾島俊之, 平井寛, JAGES グループ. 健康指標との関連からみた高齢者の社会的孤立基準の検討: 10 年間の AGES コホートより. 日本公衆衛生雑誌, Vol. 62, No. 3, pp. 95-105, 2015. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (NAACL): Human Language Technologies, Volume 1, pp. 4171-4186, 2019. 8) https://www8.cao.go.jp/cstp/gaiyo/sip/ [7] 山本大介, 小林優佳, 横山祥恵, 土井美和子. 高齢者対話インタフェース:『話し相手』となって、お年寄りの生活を豊かに. 電子情報通信学会技術研究報告. HCS, ヒューマンコミュニケーション基礎, Vol. 109, No. 224, pp. 47-51, 2009 . [8] 大竹裕也, 萩原将文. 高齢者のための発話意図を考慮した対話システム. 日本感性工学会論文誌, Vol. 11, No. 2, pp. 207-214, 2012. [9] 下岡和也, 徳久良子, 吉村貴克, 星野博之, 渡部生聖. 音声対話ロボットのための傾聴システムの開発. 自然言語処理, Vol. 24, No. 1, pp. 3-47, 2017. [10] 株式会社日本総合研究所. 平成 30 年度厚生労働省老人保健事業推進費補助金 (老人保健健康増進等事業)適切なケアマネジメント手法の策定に向けた調査研究報告書, 2019. [11] Mukuntha Narayanan Sundararaman, Ayush Kumar, and Jithendra Vepa. Phoneme-BERT: Joint language modelling of phoneme sequence and ASR transcript. In Interspeech 2021, 2021. [12] Masahiro Tanaka, Kenjiro Taura, Toshihiro Hanawa, and Kentaro Torisawa. Automatic graph partitioning for very large-scale deep learning. In Proceedings of 35th IEEE International Parallel and Distributed Processing Symposium (IPDPS 2021), pp. 10041013, 2021.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH2-16.pdf
# 交通に関する知識グラフを用いた運転免許試験問題の解法 相川渉 三輪誠 佐々木裕 豊田工業大学 \{sd18001, makoto-miwa,yutaka.sasaki\}@toyota-ti.ac.jp ## 概要 運転知識に基づいて運転免許試験問題を解くアプローチでは,運転に関する知識ベースを作成して, それに基づいて解答の判定を行う必要がある. 既存の手法では解答の判定が表記に依存したり,知識間の関係を考慮できていないという問題があった。そこで本研究では,交通教則文から抽出した運転知識を知識グラフに変換し,知識グラフの埋め込みモデルをベースとして,問題文から作成したトリプルについてのリンク予測問題を解くことで運転免許試験問題を解く方法を試みる。 ## 1 はじめに 完全自動運転であるレベル 6 自動運転においては,自動運転システムが交通法規や交通マナーといった知識を持ち,それに基づいて,判断・推論を行う必要がある. 人間の運転に関する知識や判断・推論能力を評価するひとつの指標として,運転免許筆記試験があり,レベル 6 自動運転システムについても,運転免許試験問題を解かせることができればこの能力を同様に評価することができる. 運転に必要な知識は交通教則 [1] に記載されている. Savong らは交通教則から知識を構造化して取り出すための手法としてオントロジー形式のアノテー ションを提案し,交通教則にアノテーション [2]を行った.この形式でタグ付けされた情報は簡単に Resource Definition Framework (RDF) トリプルに変換することができ,この変換したトリプルは交通教則の知識の集合を表した知識べースとして利用できると期待される。 また,構造化された知識を用いて質問応答を行う手法も提案されている。鈴木ら [3] は質問文を問い合わせ言語に変換して知識べースに問い合わせることで解答を予測する。この手法では,同じ内容の質問でも表記が異なるとマッチングしないという問題点がある.鈴木ら [4] は Bidirectional Encoder 図 1 提案手法の概要 Representations from Transformers (BERT) モデルを基にオントロジー形式のアノテーションデータセットの知識を用いて解答を取得する。この手法は入力された質問文と学習文について用語単位のべクトルの平均を取り,それらの類似度から解答を予測する。 この手法は用語単位のベクトルを使って予測を行うため用語間の関係性を直接考慮できていないと考えられる。これを解決するために,取り出した知識ベースから知識グラフを作成して,知識グラフの埋め込みモデルを用いて質問応答を行うことが有効だと考えた そこで本研究では,Savong ら [2] の交通関係アノテーションから取り出した交通教則の知識を表す RDFトリプルを対象に,知識グラフの埋め込みモデルを用いた質問応答システムへの利用可能性を調査する。 ## 2 関連研究 交通教則に関するオントロジー形式関係 (OSRRoR) データセット [2] とは,交通教則 [1] に行ったオントロジー形式のアノテーションデータである.アノテーションの例を図 2 に示す.このアノテーションの特徴として,用語の一種として RDF スキーマに定義されている rdf:Property に対応する関係に関する用語(関係用語)を用意し,それぞれ rdfs:domain, rdfs:range に対応する domain と range の関係を関係用語と用語のタイプの間に結ぶことで用 (2) (2) シートベルトは、正しく着用しましよう。 図 2 オントロジー形式のアノテーション 語間の関係を表現する. 図 2 では「は」に関係用語「Tool(T1)」を付与し, 「シートベルト」に付与されている用語のタイプ「SeatBelt」と「Tool」の間に range の関係を「Tool」と「着用」に付与されている用語のタイプ「Utilization」の間に domain の関係を繋げている. ## 3 提案手法 本研究では,交通教則へのオントロジー形式のアノテーションを知識ベースとして,知識グラフの埋め込みモデルを学習・利用することで,運転免許試験の解答を行う手法を提案する.手法の概要を図 1 に示す. まず,オントロジー形式のアノテーションを行った交通教則からトリプルを作成し,これを知識グラフの埋め込みモデルで学習する。次に学習したモデルに運転免許質問文に現れるトリプルを入力し, それぞれのトリプルの確率値を出す. 最後にそれらの確率值を統合して解答を出力する。 本研究で用いるオントロジー形式のアノテーションからトリプルを作成する方法を 3.1 節で, 作成したトリプルを用いたモデルの学習については 3.2 節で,学習したモデルを用いた解答の出力については 3.3 節で説明する. ## 3.1 トリプルの作成 オントロジー形式のアノテーションを行った交通教則からトリプルを作成する. トリプルは全てのアノテーションに対して以下のように作成して, 3 種類のトリプルのデータセットを作成する. 1. コーパス中の用語それぞれに対して,IDがそれぞれ一意になるように,個別の用語 IDを付与する. ここで言う用語は,関係用語も含んでおり,同じ用語でも言及箇所が異なれば異なる IDを付与する。 2. 用語 ID と用語の表層について「label」という関係を,用語 ID と用語のタイプに対して 「type」という関係を付けてトリプルを作成する. 図3では用語の ID「Vehicle11_1_T62」 と表層「自動車」に「label」という関係 図 3 「rel_id」での関係のつけ方 を付与して, (Vehicle11_1_T62,label, 自動車)というトリプルを作成する。また, 用語の ID「Vehicle11_1_T62」と用語のタイプ「Vehicle」に「type」という関係を付与して(Vehicle,type,Vehicle11_1_T62) というトリプルを作成する。「Keeping」や 「Keeping11_1_T102」,「管理」の方でも同様に行ってトリプルを作成する。 3. 関係とその関係に繋がる用語について 3 種類の方法でトリプルを作成する. ・図 3 で示すように用語 ID 間に関係を繋げてトリプル (Keeping11_1_T102,range,Vehicle11_1_T62) を作成する. 2 で作成したトリプルとこの方法によって作成したトリプルを合わせたデータセットを「rel_id」とする. ・用語のタイプと関係を繋げてトリプル (Keeping, range,Vehicle)を作成する。2で作成したトリプルとこの方法によって作成したトリプルを合わせたデータセットを 「rel_type」とする. ・用語 IDと関係タグ,用語のタイプと関係を繋げてそれぞれトリプルを作成する. 2 で作成したトリプルとこの方法によって作成したトリプルを合わせたデータセットを 「rel_both」とする. 運転免許質問文に関しても同様にトリプルを作成する。 ## 3.2 モデルの学習 作成したトリプルを入力して,モデルが学習するまでの流れを以下に示す. 図 4 「rel_type」での関係のつけ方 図 5 「rel_both」での関係のつけ方 1. コーパスから作成したトリプルのデータセットと関係用語と用語間のつながりを除いた運転免許質問文から作成したトリプルを学習用データセットとして用意する。関係用語と用語間のつながりを除いた運転免許質問文から作成したトリプルも学習用データセットに加えるのは, コーパス中に存在しない用語が質問文に含まれると解答の推論が行えなくなるからである。 2. 使用する知識グラフの表現学習モデル(本研究では AmpliGraph の TransE [5], DistMult [6], HolE [7] を使用・比較する)とモデルのハイパーパラメタを決め,学習用データセットを入力として損失関数を最小化する. 3. トリプルを入力として確率値を出力するようにモデルを較正する.較正は Tabacof ら [8] の手法を用いて行った. 4. 学習に用いた全てのトリプルの確率値を求め,教則の知識をモデルが表現できるかを確認する. 具体的には,確率値が 0.9 を超えるトリプルがデータセット全体の 9 割を占めていれば交通教則の知識を表現できているとみなして 3.3表 1 データセットの統計 節で説明する解答の推論を行う。そうでなければ解答の推論は行わずに別のパラメタで学習を行う. ## 3.3 学習済みモデルを用いた推論 学習したモデルを用いて,質問の解答を以下のように行う。 1. 3.1 節で作成したトリプルから,それぞれの運転免許質問文に対応するトリプルの集合 $Q$ を取り出す。 2. 学習したモデルに $Q$ のトリプルを入力として,次のように解答を選択する。解答が○である確率 $P_{\text {True }} , \mathrm{X}$ である確率 $P_{\text {False }}$ について,あるトリプル $(\mathrm{h}, \mathrm{r}, \mathrm{t})$ の確率を $p(h, r, t)(0 \leq p \leq 1)$ を用いて,式 (1) と式 (2) のように計算する. 求められた $P_{\text {True }}$ と $P_{\text {False }}$ を比較して, $P_{\text {True }}$ の方が大きければ○を, $P_{\text {False }}$ の方が大きければ× を解答する。 $ \begin{gathered} P_{\text {True }}=\prod_{(h, r, t) \in Q} p(h, r, t) \\ P_{\text {False }}=\prod_{(h, r, t) \in Q}(1-p(h, r, t)) \end{gathered} $ ## 4 実験と考察 ## 4.1 使用したデータセット ・オントロジー形式のアノテーションを行った交通教則 交通教則 [1] にオントロジー形式のアノテー ションを行ったデータから 3.1 節の方法で 3 種類のトリプルのデータセットを作成した。それぞれのデータセットの統計を表 1 に示す. ・運転免許試験の質問文 オントロジー形式のアノテーションを行った運転免許試験問題(正誤問題)100 問文のトリプルを作成した. ID 間の関係を結んでトリプルを作成した.質問毎のトリプル数の統計を表 2 に示す. 3.2 節で説明したように,質問文の表 表 2 質問毎のトリプル数の統計 層と ID 間・IDと type 間での関係(label, type) のトリプルのデータは訓練に用いた。このトリプルの数は 1,620 個であった. ## 4.2 結果と考察 自動車の運転に関する 100 問の問題(正解が正・誤となる問題それぞれ 50 問)をランダムに 5 分割し,グラフ埋め込みのパラメータチューニングを 5 分割交差検証で行って,それぞれの正解率を平均をスコアとした. 表 3 に結果を示す. 実験の結果から,エンティティタイプに関係を付ける知識グラフに対して,HolEを使用して「rel_type」のデータセットを使用したときの正解率が最も高くなった.関係のつけ方による正解率を比較してみると TransE と HolE は「rel_type」で,DistMult は「rel_id」で最も高い正解率を出しており,同じデータセットでも正解率はモデルに依存することがわかった. 1 番卜リプル数が多い「rel_both」の正解率がどのモデルにおいても正解率が最も高くならなかったことから正解率はトリプル数に依存しないことがわかった.「rel_id」のデータセットに用語のタイプ間の関係を繋いで作成したトリプルを加えたデータセットが「rel_both」になる. DistMultでは「rel_id」の方が「rel_both」よりも正解率が高くなったことから, DistMult においては用語のタイプ間の関係を繋いだことによって作成したトリプルが正解率を低下させることに影響していたと考えられる. TransE と HolE の場合では「rel_type」の方が「rel_both」よりも正解率が高かったため, 用語の ID 間で関係を繋いだことによって作成したトリプルが正解率を低下させることに影響しているのではないかと考えられる.表 3 モデルと関係の付け方による正解率 ## 5 おわりに 本研究では,オントロジー形式でアノテーションされた交通教則から抽出した運転知識を知識グラフに変換し,知識グラフの埋め込みモデル構築し,問題文から作成したトリプルについてのリンク予測問題を解くことで運転免許試験問題を解く方法を提案した. 運転免許試験問題 100 問に対する 5 分割交差検証の結果, $62 \%$ の正解率を得ることができることが明らかになった. 正誤問題であるため,ベースラインは $50 \%$ であり, ベースラインからの改善は不十分であるが,知識ベースに対して SPARQL で照合するアプローチではほとんど照合に成功しないことから考えると,ソフトな知識のマッチングができている。また,各質問文から作られた各トリプルの確率も計算できているため,どの部分がどの程度正しいと判断されたのかを根拠として確認できる.今後は,本課題に合った新しい知識グラフの埋め込みモデルを考案し,運転免許問題の正解率を向上させていきたい. ## 謝辞 本研究の一部は JSPS 科研費 $20 K 11942$ の助成を受けた。 ## 参考文献 [1] 国家公安委員会. 交通の方法に関する教則. 2019. [2] Savong Bou, Naoki Suzuki, Makoto Miwa, and Yutaka Sasaki. Ontology-style relation annotation: A case study. In Proceedings of the 12th Language Resources and Evaluation Conference, pp.4867-4876, Marseille, France, May 2020. European Language Resources Association. [3] 鈴木遼司, 三輪誠, 佐々木裕. 交通オントロジーを対象とした質問文の sparql クエリ変換. 言語処理学会第 21 回年次大会発表論文集, 2015. [4] 鈴木直樹, Bou Savong, 三輪誠, 佐々木裕. オントロジー形式アノテーションを対象とした交通用語・関係抽出と正誤問題の回答. 言語処理学会第 26 回年次大会発表論文集, 2020. [5] Antoine Bordes, Nicolas Usunier, Alberto Garcia-Duran, Jason Weston, and Oksana Yakhnenko. Translating embeddings for modeling multi-relational data. Advances in neural information processing systems, Vol. 26, , 2013. [6] Bishan Yang, Wen-tau Yih, Xiaodong He, Jianfeng Gao, and Li Deng. Embedding entities and relations for learning and inference in knowledge bases. arXiv preprint arXiv:1412.6575, 2014. [7] Maximilian Nickel, Lorenzo Rosasco, and Tomaso Poggio. Holographic embeddings of knowledge graphs. In Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 30, 2016. [8] Pedro Tabacof and Luca Costabello. Probability calibration for knowledge graph embedding models. In International Conference on Learning Representations, 2020.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH2-1.pdf
# 副詞マダのアノテーションとそのガイドライン 井上智也 (九州大学文学部) 上山あゆみ (九州大学大学院人文科学研究院) ## 概要 マダという語は、さまざまな用法を持っている。 このようなマダのさまざまな用法について、分類ガイドラインを作成した。実際にガイドラインに沿って『現代日本語書き言葉均衡コーパス』 (BCCWJ)によってアノテーションを試み、カッパ值を計算することで、ある程度信頼性のあるガイドラインが作成できたと結論づけた。 ## 1. はじめに マダという語は、否定形と呼応し動作の未完了を表したり、その意味を加えて状態の変化を表したりする用法があるとされている。しかしながら、実際の用法は多岐にわたっている。そのため、コ ーパスにおける有用性を高めるために、マダの用法を適切に区別する必要があることは明らかである。そして適切な用法を発案し、アノテーションを試みて、そのカッパ值のブレを抑えることがその有用性を示すために効果的である。そのためにはまず分類のガイドラインを作成することが必要である。本発表では、マダの様々な用法について分類ガイドラインを作成するにあたり、どのような問題が発生したのかについて述べ、今回作成した分類ガイドラインに基づいて行われたアノテーションの結果を示していく。 ## 2. マダの分類 まず、私たちの班で考案した分類ガイドラインを示し、それぞれの用法に関する説明から行っていく。 \\ \\ 3. 代表的な例文と問題となりうる点 3.1.「a : 未実現」について 「a : 未実現」の代表的な例文は、次に示す通りである。 (1) ドラマはまだ始まってないよ。[今井 2011:260] (1)のように、否定形と共起し、発話時に想定されている時点で起こると予想される単一事象が起こっていないことを表す場合は、「a:未実現」に分類される。 ## 3.2. 「b : 未完了」について $\lceil\mathrm{b}$ : 未完了」の代表的な例文は、次に示す通りである。 (2) 戦争はまだ終わってない。 [池田 1999:23 (24)] (2)のように、否定形と共起し、発話時に想定されている時点ですでに起こっている事象が完全な移行前にあることを表す場合は、「b : 未完了」に分類される。 また、a と b の用法に関してはどちらも否定形と呼応している点が同じであり、形式的な違いで分類することが不可能となっている。そのため、分類を個人の判断に委ねることを避けられず、カッパ值のぶれを生じさせるという問題が発生している。 3.3.「c : 未経験」について $「 \mathrm{c}:$ 未経験」の代表的な例文は、次に示す通りである。 (3)納豆はまだ食べたことがありません。 [今井 2011:261] (3)のように、否定形と共起し、発話時に想定されている時点である事象の経験がないことを表し、「〜シタコトガナイ」と共起する場合は、「c:未経験」に分類される。 ## 3.4.「d : 継続」について $\lceil\mathrm{d}:$ 継続」の代表的な例文は、次に示す通りである。 (4) まだ雪が降っている。 [今井 2011:261] (4)のように、既に始まっていた動作・状態が、発話時に想定されている時点でも継続していることを表す場合、「d : 継続」に分類される。 ## 3.5.「e : 比較」について $\lceil\mathrm{e}:$ 比較」の代表的な例文は、次に示す通りである。 (5) 私の部屋は散らかっているけど、弟の部屋よりはまだきれいだ。 [今井 2011:262] (5)のように複数の事象を比較し、十分ではないが他に比べればよいほうであることを表す場合、「e:比較」に分類される。「マダシモ」の形をとることもある。 ## 3.6. 「f : 強調」について 「f : 強調」の代表的な例文は、次に示す通りである。 (6)一流のシェフになるまで、まだまだ経験が必要だ。 [今井 2011:262] (6)のように省略しても文意が通る場合、「f:強調」 に分類する。「マダマダ」の形をとることもある。 ## 3.7. $\ulcorner\mathbf{g$ : 残存」について} $\lceil\mathrm{g}:$ 残存」の代表的な例文は、次に示す通りである。 (7) トンネル完成まで、まだ $3 \mathrm{~km}$ 残っている。 [今井 2011:262] (7)のように、「ある」や「残っている」などと共起し、存在や残量を表す場合、「 $\mathrm{g}$ : 残存」に分類する。 ## 3.8.「h : 時間の経過」について $\lceil\mathrm{h}:$ 時間の経過」の代表的な例文は、次に示すとおりである。 (8) 父が死んでまだ一年だ。 [ 松村 20:22 (59)] (8)のように、時間に関する語を伴って、時間や日数の変化量が予想よりも少ないことを表す場合には、「h : 時間の経過」に分類される。 ## 3.9. 「i : 未熟」について 「i :未熟」の代表的な例文は次の通りである。 (9)まだ中学三年の男の子と高校二年の女の子がいる。[BCCWJ より] (9)のように、ある状態が発話時において予想される点に至っていないことを表し、成長の程度を表す言葉や数量詞などが後続する場合には、「i :未熟」に分類される。 この分類ガイドラインに基づくと「まだあと何度かは会えると思っていた」という文も数量詞が後続しているため未熟と分類されてしまうが、実際にはこのマダは未熟を表しているとは考えられないため、この用法に関しては今後修正を加える必要があると言えるだろう。 ## 4. アノテーション結果 『現代日本語書き言葉均衡コーパス』(BCCWJ) から、マダを含んだ例文 500 件を抽出し、上記の分類ガイドラインにしたがって、実際にアノテー ションを行った。 九州大学文学部の分類に関与していない学生 2 人がそれぞれアノテーションを行い、その結果からカッパ值を計算したところ、約 0.67 となった。アノテータ間でぶれの少ない、ある程度信頼性のあるガイドラインが作成できたことになる。今後、ずれの見られるところを中心に、更に検討を重ねていきたい。 ## 参照文献 今井新悟(編)(2011)『日本語多義語学習辞典形容詞・副詞編』pp.260-262 東京: 株式会社アルク 池田英喜(1999)「「もう」と「まだ」:状態の移行を前提とする 2 つの副詞」『阪大日本語研究』11,pp.19-35. 松村明(監)(2012)『大辞泉第二版』 小学館皆島博 (2015) 「日英多義語の認知意味論的分析:「マダ」と“still”」『福井大学教育地域科学部紀要』5,pp.76-90. 北原保雄(2010)『明鏡国語辞典第二版』大修館書店 飛田良文・浅田秀子 (1994)『現代副詞用法辞典』 pp.497-499 東京 : 東京堂出版
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH2-2.pdf
# 副詞モウのアノテーションとそのガイドライン 勘場千夏・藤本悠花・久保山由梨・木下滉晴(九州大学文学部) } 上山あゆみ (九州大学大学院人文科学研究院) ## 概要 モウという語の用法について、(1)限界・超過、 (2)接近・到達、(3)付加、(4)感情的意味、(5)非難・叱責、(6)緩衝、(7)その他の7 つに分け、分類の手順を示すフローチャートを作成した。実際にこのガイドラインに沿って『現代日本語書き言葉均衡コーパス』(BCCWJ)によってアノテーションを試み、カッパ值を計算した結果、 0.824 となり、ある程度信頼性のあるガイドラインが作成できたと結論づけた。 ## 1. はじめに モウという語は、『現代日本語書き言葉均衡コ ーパス』 (BCCWJ) において、時間、数量、程度に関わる副詞として用いられる一方、話し手の感動表出として使用される例もあり、その意味、機能は多義にわたっている。コーパスによる検索の有用性を高めるためには、これらの用法の違いがアノテーションによって適切に区別されていることが望ましい。そのためには、必要に応じて分類のガイドラインを作成することが有用である。本発表では、モウの様々な用法について分類ガイドラインを作成するにあたって、どのような困難な点があったかを明らかにした上で、実際にアノテ ーションを試み、その結果を述べる。 ## 2. モウの分類 まずここで、提案するガイドラインを示し、それぞれの分類について、代表的な例文と分類上の問題点について述べる。 & \\ \\ 3. 代表的な例文と問題となりうる点 3.1.「(1)限界・超過」について 「(1)限界・超過」の代表的な例文は、次に示す 通りである。 (1)「話し手にとって」もう過ぎ去ったこと一それが「過去」です。 (2) a. その日の夕方、さいわい牧草小屋をみつけてころがりこんだが、友人はもう歩けなくなっていた。 b. 「乳母よ、あの犬にもうあきらめるよう、よく納得させなさい。」 (1)のように、程度や時間が一定の限度を超えている様子を表し、モハヤ・スデニ・イマトナッテハと置き換え可能なものは「(ア)超過」に分類される。 一方(2)のように、ある状態をこれ以上維持できない様子や、繰り返し事象の終了限界後である様子を表すものは、(イ)限界」の用法にあたる。モウの後に、否定語や、対象事象の終了を示唆するような動詞を伴うことが多い。 飛田・浅田(1994)における、程度や時間が限度を越えた様子を表すモウの用法を踏襲し、これを 「(ア)超過」とした。さらに「(ア)超過」までは至らないが、話者や対象の状態や事態、心情が変化していると提示するモウを「(イ)限界」 とした。これは池田(1999)で、述べられていた 「繰り返し事象の終了限界以後に発話時があることを示」すモウを取り入れている。 ## 3.2.「(2)接近・到達」について 「(2)接近・到達」の代表的な例文は、次に示す通りである。 (3) a. もうすぐリヤドを去る人と、リヤドに来たばかりの人が不思議と集まる。 b. あの七わのわかものたちはね、もうじき、ひょう湖へでかけるっていうんだよ。 この用法のモウは、場所や時間、状況など、ある目標に接近し到達しようとする話者の判断を表す。マモナク・ヤガテなどと置き換えることができる。 3.3.「(3)付加」について 「(3)付加」の代表的な例文は、次に示す通りである。 (4) a. いちばん影響を受けたもので、もう一度読み返そうかな、と思ってるのが坂口安吾さん。 b. 以下これらの点を、もう少し立入って考察してみることにしよう。 この用法のモウは、数詞や程度を表す言葉を修飾する形で用いられ、現在の様子にさらに付け加える様子を表している。 ## 3.4.「(4)感情的意味」について 「(4)感情的意味」の代表的な例文は、次に示す通りである。 (5) a. かつてのスターでは十代でデビュ一した当時の磯村みどり、結婚する前ごろの吉永小百合、村松英子など、実にもうキラキラと輝く天女さまみたいでしたな。 b. 今日なら、もうほんたうに立派な雲の峰が、東でむくむく盛りあがり一 この用法は、感情が溢れ処理できないとき、感動詞的に用いられ、マサニ・ナントモと置き換え ることができる。 ## 3.5.「(5)非難・叱責」について 「5)非難・叱責」の代表的な例文は、次に示す通りである。 (6) a. 「ああ、もう。早く籍入れればよかった。東京へ帰ったら、すぐ届出しましょう。ね、いいわね」 b. 「もう、アリスったら。いいから食べなさいよ。少しは贅沢だってしなくっちや」 この用法のモウは、独立して使用され、非難・叱責の感情を表す感動詞として使われる。 ## 3.6.「6緩衝」について 「6緩衝」の代表的な例文は、次に示す通りである。 (7) a. 顔といわず体といわずもうタテョコ十文字に、人生の年輪がグシャグシャに刻み込まれている。 b. 「いつだか、わかるか」「それはもう、記録につけてございますから。一たしか、三日ほど前かと思います」 この用法のモウは、語調を整える役割をもち、 はっきり言うことを躊躇されるときなどに発話される。 ## 3.7.「(7)その他」について 「7そその他」の代表的な例文は、次に示す通りである。 (8) a. 仕切りから覗けば、もうもうたる湯煙の中に、何やら白い物体が見えることは見えるのでありますが、見えても年輪ばかり。 b. おまけにストーキーまでもが海にとびこんでもうて ... 副詞や感動詞的な用法を除いた、モウ。これは私たちの対象としているモウではないが、コーパスの検索結果に表示されたため、私たちの分類するモウと区別するために「その他」として選り分けた。 ## 4. アノテーション結果 『現代日本語書き言葉均衡コーパス』(BCCWJ) から、モウを含んだ例文 500 件を抽出し、上記の分類ガイドラインにしたがって、実際にアノテー ションを行った。 九州大学文学部の学生 2 人がそれぞれアノテー ションを行った。その結果からカッパ值を計算したところ、 0.824 となった。アノテータ間でぶれの少ない、ある程度信頼性のあるガイドラインが作成できたことになる。今後、ずれの見られたとこ ろを中心に、さらに検討を重ねていきたい。 ## 5. 参照文献 池田英喜(1999)「「もう」と「まだ」:状態の移行を前提とする 2 つの副詞」,『阪大日本語研究』,11:19-35 飛田良文・浅田秀子(1994)『現代副詞用法辞典』,東京:東京堂出版.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH2-3.pdf
# ニューラル機械翻訳のための日中対訳コーパスの構築 張津一 1,2 田野 3 韓梅 4 毛剣楠 2 松本忠博 2 1 潘陽理工大学(中国) 2 岐阜大学 3 株洲中車時代電気株式会社(中国) 4 湖南工業大学(中国) zhangjinyi@sylu.edu.cn tianye@csrzic.com hanmei@hut.edu.cn z4525087@edu.gifu-u.ac.jp tad@gifu-u.ac.jp ## 概要 現在,ニューラル機械翻訳の学習データとして利用可能な,ある程度の規模を持つ日本語-中国語対訳コーパスは少ない. とくに日常会話などの話し言葉を主な対象としたものは限られている. 本研究では Web 上に存在する TV 番組などの字幕データをクローリングにより収集して,一定の規模の日中対訳コーパスの構築を試みた。このコーパス WCC-JC (Web Crawled Corpus - Japanese and Chinese) で学習した翻訳モデルを使って翻訳した結果を人手で評価し,品質・効果を確認した。 ## 1 はじめに 機械翻訳は人工知能の重要な分野であり,原言語を出力言語に翻訳する方法を研究することは,言語の壁の問題を解決することができる最も効果的な手段の一つである. 長年の開発を経て,ニューラル機械翻訳(Neural Machine Translation,NMT)は様々な言語ペアで従来のフレームワークよりも優れた翻訳結果を出しており,大きな可能性を秘めた新しい機械翻訳モデルとなっている.NMT では,学習デー タの量が翻訳結果の質を大きく左右するものの,大規模な翻訳モデルを学習することができる. 機械翻訳の分野では,日本語と中国語という $2 \supset$ の言語が複雑に絡み合っているため,日中の機械翻訳は難しい,高品質な翻訳を得るためには,日中翻訳コーパスのデータ量が大量に必要となる。しかし,英語を含む言語対や欧州の言語間の言語対などが数千万から数億文対である. そして,様々な分野の文が含まれる。これに対し,公開された日中対訳コーパスは多くない。例えば,JPO 日中対訳コーパスは 1.3 億件(約 26GB)および 0.1 億件(約 $1.4 \mathrm{~GB}$ ) があるが,データの全てを用いた研究成果の提出が必要である ${ }^{11}$.このコーパスの内容の種類は特許のみである.ASPEC-JC の収録件数は,約 67 万文である [1]. このコーパスの内容の種類は科学論文の概要のみである.上記の 2 つは,公開されているコー パスの中でも非常に規模の大きなコーパスである. だが,日常的な文の翻訳に適した日中対訳コーパスは,まだそれほど多くない。 現在の研究のほとんどは,書き言葉のカテゴリー に入る文の翻訳を対象にしている。一方,話し言葉の場合,省略などにより書き言葉よりも曖昧さが多くなり,文脈を把握する必要性も高まる。文の長さも書き言葉より短いのが普通である. 話し言葉でも,俗語や方言があるものは,従来の翻訳者では見落とされることがある.また,音声の入力から翻訳結果の出力までを行うマルチモーダル翻訳が近い将来のトレンドになると言われるが,その実現には話し言葉の翻訳に適した対訳コーパスが必要である. 本研究では,Webをクロールして作成した日中対訳コーパスとその評価について述べる。作成したコーパス WCC-JC は,インターネット上からクロー ルされた映画と TV 番組の字幕データの日中両言語の対応をとることで構築されている. 既存の日中対訳コーパスではあまり扱われてこなかった話し言葉の対訳も対象している。 ## 2 関連研究 現在,公開されている日中対訳翻訳コーパスは非常に少なく,JPO 日中対訳コーパス,ASPEC-JC[1] と TED Talks ${ }^{2)}$ 3) に含まれる日中対訳コーパスなどがあるのみである. Lavecchia らは,映画の字幕ファイルから対訳コー パスを自動的に構築する方法を提案し,それを用い 1) https://alaginrc.nict.go.jp/jpo-outline.html 2) https://ted.com 3) https://github.com/ajinkyakulkarni14/ TED-Multilingual-Parallel-Corpus て対訳辞書も作成している [2]. Chu らは, Wikipedia から 126k 以上の日中対訳コーパスを構築するための対訳文抽出システムを提案した [3]. Pryzant らは,インターネット上からクロールされた映画と TV 番組の字幕データを日英対応させることで構築された. JESC は,自由に利用できる日英対訳コーパスの中で最大規模(約 280 万文)のコー パスである [4]. OpenSubtitles2018 は映画字幕データの多言語対訳コーパスである [5]. 日英対訳コーパスはおよそ 2,000 件の映画からなる 200 万文の対訳コーパスであり,機械翻訳の分野や,映画字幕という特徴を活かしたタスクにおける利用が検討される。 森下らは,大規模 Web ベース 1000 万文対以上の日英対訳コーパス JParaCrawl を紹介した。無料で一般に公開した [6]. Guokun らはインターネットから言語資源をクロールしてコーパスを自動的に構築したが,データのフィルタリングがうまくいっていなかった [7]. 中澤らは,「ビジネス」における「対話」を対訳コーパスのドメインとして構築した BSDコーパスおよび WAT2020での BSD 翻訳タスクの結果の紹介を行い,翻訳結果の分析から対話翻訳の課題について議論した [8]. また,日中翻訳では, Zhang らが対訳コーパスの資源不足を考慮し, 日中翻訳の品質を向上させるコーパス拡張アプローチを提案した [9]. 以上の関連研究により,コーパスは翻訳精度の向上と言語処理の他の分野に重要な役割を果たす.このように,ニューラル機械翻訳のためのオープンな日中対訳コーパスの構築は資源不足問題に大きな意味を持っている. 本研究では, 日中機械翻訳を発展させ,ある程度の規模を持つ日中対訳コーパスの作成を目標とする。 ## 3 日中対訳コーパスの構築 ## 3.1 対訳文抽出 多くの日中対訳文を含む Web サイトを選び,映画・ドラマと TV 番組の字幕ファイルを含む Web サイトから Scrapy)を利用し, 字幕ファイルを取得する. 字幕ファイルの中に, 俗語, 話し言葉, 説明文,物語解説の対訳がある. これらは既存のコーパスで  はあまり扱われてこなかった分野である。 取得した字幕ファイルのほとんどは ASS 形式のファイルである. 図 1 に ASS ファイルの内容の一例を表す. 図のように ASS ファイルでは Dialogue 行に,字幕の表示内容と表示時間,表示スタイルなどの情報が記載されている。言語情報は字幕のレイヤー情報(図中では先頭の “0”) や表示スタイル (図中では“DefaultJp”)に現れる場合が多い. 本研究では,字幕表示スタイルの文字列から日本語か中国語かを推定し,字幕表示開始時間と字幕表示終了時間をもとに日中のセリフの対応関係を判断した. データ収集後,中国語文中の繁体字を簡体字に,日本語文中の半角カタカナを全角カタカナに統一し,重複する文対を除去した。 ## 3.2 コーパスの分割 収集した文対のうち,10 文字以上の文対をテストデータと検証データ (開発データ) 用にそれぞれ 2000 文対ランダムに抽出し,残りを訓練データとした. 表 1 は構築されたコーパスと ASPEC-JC, OpenSubtitles とWCC-JCコーパスの文対数を表す. データサイズ (バイト数) は ASPEC-JC > OpenSubtitles > WCC-JC の順だが,文数は ASPEC-JC よりも多いことが分かる. ## 4 実験と評価 本コーパスの有効性を確認するために翻訳実験を行った. 以下,実験に使用した NMT システムの設定 (4.1 節), ASPEC-JC, OpenSubtitles, 本研究のコーパスのデータセットで学習した NMT モデルでの翻訳精度(BLEU スコア)(4.2 節),JPO スコアを用いて,テストデータの翻訳結果の人手での評価 (4.3 節)について述べる。日中翻訳では,文字レべルと LSTM モデルが最も効果的であると言われている [10] が,本実験では文字レベルと subword レべル,LSTM モデルと Transformer モデルを使用した. ## 4.1 NMT システムの設定 本実験では,fairseq[11]を用いて NMT モデルを訓練する. fairseq の 2 つの事前設定されたアーキテクチャ, lstm-wiseman-iwslt-de-en(表の中, LSTM と略す) と transformer-iwslt-de-en (表の中,Transformer と略す)を使用する. Subword レベルの実現には subword-nmt ${ }^{5}$ を使用する。 5) https://github.com/rsennrich/subword-nmt 図 1 ASS ファイル中身の一例(内容はダミー) ## 4.2 翻訳結果 表 2〜表 5 において,Aは ASPEC-JC のテストデー タ, B は OpenSubtitles のテストデータ, C は WCC-JC のテストデータ,D は翻訳モデルの汎化能力を検証するために,NHK ラジオ『まいにち中国語』6)のテキストから抽出した 185 文,テストデータとして表す. 表 2〜表 5 を見ると,訓練データとテストデータの組合せではそれぞれ自身のテストデータで最も高い BLEU 值を取得したことがわかる. $\mathrm{J} \rightarrow \mathrm{C}$ 文字レベルの Transformer モデルでは,我々の WCC-JC は OpenSubtitles 自身による翻訳よりも効果的であり, WCC-JC の汎化性が示された。また,C,Dのいずれにおいても,WCC-JC は ASPEC-JC や OpenSubtitles よりも良い結果を得ることができた。 さらに,各表の結果を比較すると,基本的には $\mathrm{J} \rightarrow \mathrm{C} 、 \mathrm{C} \rightarrow \mathrm{J}$ のいずれの方向においても,文字レベルの Transformer モデルがより有効であることがわかる. ## 4.3 人手による評価 人手評価基準として, 特許庁が公開している「特許文献機械翻訳の品質評価手順 ${ }^{7)}$ の中の「内容の伝達レベルの評価」(JPO スコア)を採用した。これは機械翻訳結果が原文の実質的な内容をどの程度正確に伝達しているかを,参照訳の内容に照らして 5 段階(評価値 5 が最もよく, 1 が最も悪い)の評価基準で主観的に評価するものである. WCC-JC のテストデータ C については, $\mathrm{J} \rightarrow \mathrm{C}$ と  図 2 人手による評価の結果(日本語 $\rightarrow$ 中国語) 図 3 人手による評価の結果(中国語 $\rightarrow$ 日本語) $\mathrm{C} \rightarrow \mathrm{J}$ の文字レベル Transformer の 2 つの実験で最も高い BLEU 値が観測された。より良い評価を行うために,JPO スコアを用いてこの 2 つの翻訳結果を人手評価することにした.評価は A,B,Cの 3 つの評価者グループで分担した(評価者たちは日本留学の経験があり,日本語能力試験 $\mathrm{N} 2$ 以上の資格を持つ). 各グループは 2 人ずつ独立に評価し,平均を取った. 図 2 と図 3 は $\mathrm{J} \rightarrow \mathrm{C} 、 \mathrm{C} \rightarrow \mathrm{J}$ の人手評価結果(グラフ内の数字は各評価値の割合を,グルー プ名の後の括弧内の数字は評価値の平均を表す). $\mathrm{JPO}$ スコアの平均値について, $\mathrm{J} \rightarrow \mathrm{C}$ では 3.87, 3.90, 4.00, $\mathrm{C} \rightarrow \mathrm{J}$ で 3.97,4.04,4.07,高い結果になった. WCC-JCコーパスの性質上,非常に短い文が多いの 表 2 文字レベル日本語 $\rightarrow$ 中国語翻訳実験結果(BLEU 値) 表 3 Subword レベル日本語 $\rightarrow$ 中国語翻訳実験結果(BLEU 值) で,この結果がどの程度満足のいくものなのかはより深く分析する必要がある.また,別の実験についても評価を行い,結果の違いとその理由を明らかにする必要がある. ## 5 おわりに 本研究では,日中対訳コーパス WCC-JC を紹介した. 本コーパスはWebをクロールし,日中対訳文を自動的に収集し, 作成した. 最終的に約 75 万文対の日中対訳データが得られた. 本コーパスは現時点で一般に利用できる日中コーパスの中では規模が大 きく,既存のコーパスではあまり扱われてこなかった話し言葉の対訳も対象している. 語学講座のテキストから抽出した会話文を用いた実験では,BLEU 值は低いものの,比較した日中コーパスの中では最も高い精度で翻訳できることを確認した. 人手による評価も高いものであった. 今後の課題として,より大規模な Web クロール, コーパス作成を行うことが挙げられる。 さらに,対訳文のアライメントを高精度化することも重要な課題である. また,今後より多くの言語対に対応していくことも検討している. ## 謝辞 本研究にあたり,遼寧省教育庁科学研究一般若手 人材プロジェクト(No.LJKZ0267),潘陽理工大学八イレベル人材招致研究支援計画 (No.1010147001004) の助成を受けています。また,対訳コーパスの構築と評価にあたっては,多くの方々のご協力いただきました.ここに御礼申し上げます。 ## 参考文献 [1] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian scientific paper excerpt corpus. In Proc. 9th Int. Conf. on Language Resources and Evaluation (LREC 2016), pp. 2204-2208, Portorož, Slovenia, 2016. European Language Resources Association (ELRA). [2] Caroline Lavecchia, Kamel Smaili, and David Langlois. Building a bilingual dictionary from movie subtitles based on inter-lingual triggers. In Proceedings of Translating and the Computer 29, London, UK, November 29-30 2007. Aslib. [3] Chenhui Chu, Toshiaki Nakazawa, and Sadao Kurohashi. Constructing a Chinese-Japanese parallel corpus from Wikipedia. In Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC'14), pp. 642-647, Reykjavik, Iceland, May 2014. European Language Resources Association (ELRA). [4] R. Pryzant, Y. Chung, D. Jurafsky, and D. Britz. JESC: JapaneseEnglish Subtitle Corpus. Language Resources and Evaluation Conference (LREC), 2018. [5] Pierre Lison, Jörg Tiedemann, and Milen Kouylekov. OpenSubtitles2018: Statistical rescoring of sentence alignments in large, noisy parallel corpora. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, May 2018. European Language Resources Association (ELRA). [6] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A large scale web-based English-Japanese parallel corpus. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 3603-3609, Marseille, France, May 2020. European Language Resources Association. [7] Guokun Lai, Zihang Dai, and Yiming Yang. Unsupervised parallel corpus mining on web data. ArXiv, Vol. abs/2009.08595, , 2020. [8] 中澤敏明, 李凌寒, MatissRikters. ビジネスシーン対話対訳コーパスの構築と対話翻訳の課題. 第 27 回年次大会発表論文集, pp. 1375-1380. 言語処理学会, 2021. [9] Jinyi Zhang and Tadahiro Matsumoto. Corpus augmentation for neural machine translation with chinese-japanese parallel corpora. Applied Sciences, Vol. 9, No. 10, 2019. [10] Xiaoya Li, Yuxian Meng, Xiaofei Sun, Qinghong Han, Arianna Yuan, and Jiwei Li. Is word segmentation necessary for deep learning of Chinese representations? In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3242-3252, Florence, Italy, July 2019. Association for Computational Linguistics. [11] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of NAACLHLT 2019: Demonstrations, 2019.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH2-4.pdf
# 言い誤りを含む日本語二重目的語文の理解過程 山元海渡 ${ }^{1}$ 木山幸子 ${ }^{2}$ 汪敏 ${ }^{2}$ 井出彩音 ${ }^{1}$ 寺尾康 ${ }^{3}$ 小泉政利 ${ }^{2}$ ${ }^{1}$ 東北大学文学部言語学研究室 ${ }^{2}$ 東北大学大学院文学研究科言語学研究室 3 静岡県立大学国際関係学部国際言語文化学科 kaito.yamamoto.p8@dc.tohoku.ac.jp ## 概要 本研究では, 助詞交換型の言い誤りを含む日本語二重目的語文の理解過程を検討する。旧情報位置と語順, さらに統語構造と出来事の順序の一致性が助詞レベルにおける交換型の言い誤り理解にどのような影響を与えるかについて, 文理解プロセスを意味正誤判断課題の正答率と反応時間を通じて検討した. その結果, 3 つの要因がそれぞれ正誤の文理解やその再現の仕方に影響することを例証した。 ## 1 はじめに 言い誤りは, 話者が意図した発話と, 文産出の過程で何らかの誤作動のあった結果の発話の 2 つを同時に手に入れられるので,文産出の仕組みを知る上で重要な手がかりを持つ [1]. 言い誤りは「故意にではない, 発話の意図からの逸脱」と定義され, 日本語の言い誤りの研究では, 英語とは逆に内容語はそのままで機能語のみが動いてしまう言い誤りが多い,限られた助詞同士を誤りやすく,特に「が,を, に,の」のグループ内での言い誤りが多いなどの,日本語に特徵的な傾向が見られている [1][2]. こうした言い誤りについて, 文産出研究に比べ文理解の観点から検討した研究は, [3] を除いてほぼ皆無であるが,なぜこうした誤りを起こしてしまうかという心理的過程を解明するために, 文理解の実験的検討が求められる. そこで本研究では, 先行発話提示後に言い誤りを含んだ意思表明文を提示する意味的整合性判断課題によって, 助詞交換型の言い誤り (1)を含む日本語二重目的語文の処理を検討した. (1) 先行発話: 応接間にテーブルがあるよ。返答: a. テーブルにコーヒーを置こう。(正文) b. コーヒーにテーブルを置こう。(誤文) 二重目的語構文の基本語順については多くの研究がなされているが, 未だに議論の余地がある. 『現代日本語書き言葉均衡コーパス』から二重目的語構文の基本語順を予測する統計モデルを議論した研究 [4] では,旧情報が新情報に先行する文が好まれる現象 (“given-new ordering”) が, 直接目的語と間接目的語間の語順に関して確認された. また, 熟語や複合語を広辞苑から抽出し, 二格を目的語にとる動詞とヨ格を目的語に取る動詞の数を比較し基本語順を捉えようとした研究 [5] では, 日本語の二重目的語構文の基本語順は,「間接目的語-直接目的語(「にを文」)」であることが示唆された.しかし, 抽出した熟語や複合語は二格とヨ格のどちらを目的語にとるかは動詞の特性によって異なることから, 二重目的語構文の基本語順は動詞の特性を越えた一貫した傾向を見出しにくい可能性が考えられる. これらを踏まえた先行研究 [3] では, 日本語の二重目的語構文において,旧情報を先に提示するか否かと, 文の語順が基本語順かかき混せ語順かという 2 つ要因が言い誤りの検出のしやすさに影響するという仮説から,言い誤りを引き出す問いかけに応答する対話の自己ぺース読みによる意味的整合性判断課題を行った. その結果, 読み時間では正文誤文共にかき混ぜ語順が基本語順に比べて有意に長く,正答率では正文でかき混ぜ語順が基本語順に比べて有意に正答率が低く,旧情報が後でかき混ぜ語順の時に有意に正答率が低い結果が得られた。「間接目的語-直接目的語」の語順, すなわち直接目的語が述語に近接するという選好性が再認された。 こうした二重目的語構文の語順と処理負荷の研究は, 日本語以外の言語でも頻繁に研究されている.失語症者と健常者を対象に, 統語的構造と現実の出来事の順序が一致している文の方が理解しやすいという仮説 (“Isomorphic Mapping Theory") (2) を提唱した研究 [6] では, 英語の二重目的語構文を用いたオフラインの意味的整合性判断課題を通して仮説を検証した. その結果, 失語症者は一致文に比べて不一致文の正答率が有意に低く, 失語症者と健常者 の間で一致文の正答率では有意差が見られなかったものの, 不一致文の正答率で有意差が見られたという結果が得られ,仮説を支持した.日本語でも統語的構造と出来事の順序が一致している文のほうが処理負荷が低く,理解しやすいことが示唆される. (2) Isomorphic Mapping Theory $の$ 例 She put the crayon on the pencil. (Isomorphic) $\mathrm{X}$ acts on $\mathrm{Y}$ placing it on $\mathrm{Z} \quad$ event She tapped the crayon with the pencil. (Nonisomorphic) $X$ uses $Y$ to tap $Z$ event 以上に基づき, (3), (4) のような二重目的語構文に関して3つの仮説を立てた. (3)「にを文」 先行発話: 応接間にテーブル/コーヒーがあるよ。返答: a. テーブルにコーヒーを置こう。(正文) b. コーヒーをテーブルに置こう。(正文) c. テーブルをコーヒーに置こう。(誤文) d. コーヒーにテーブルを置こう。(誤文) (4) 「でを文」 先行発話: 居間にフォークハパンケーキがあるよ。返答: a. フォークでパンケーキを食べよう。(正文) b. パンケーキをフォークで食べよう。(正文) c. フォークをパンケーキで食べよう。(誤文) d. パンケーキでフォークを食べよう。(誤文) 仮説 1 二重目的語構文において, 先行研究で旧情報が先にある文のほうが,後にある文に比べて意味的整合性を判断しやすい.したがって,「テーブル」 が旧情報であれば (3a, c/4a, c) が,「コーヒ一」 が旧情報であれば (3b, d/4b, d) が,もう一方に比べ整合性判断の正答率が高く反応時間が短い.仮説 2 二重目的語構文の基本語順である「間接目的語-直接目的語」の語順, 寸なわち直接目的語が述語に近接する語順のほうが,そうでないかき混ぜ語順に比べて意味的整合性を判断しやすい. したがって,「にを文」(3a, d) や「でを文」(4a, d) のほうが,かきまぜ語順である「をに文」(3b, c) や「をで文」(4b, c) に比べ意味的整合性判断の正答率が高く反応時間が短い. 仮説 3 二重目的語構文において, 統語構造と現実の出来事の順番が一致する文は, 不一致文より処理負荷が低い。「にを文」では直接目的語が先に来る かきまぜ語順文が一致文であり,「でを文」では直接目的語が後に来る基本語順文が一致文であることに照らせば, (3b, d/4a, c) のほうが, (3a, c/4b, d) に比べ意味整合性判断の正答率が高く反応時間が短い. ## 2 方法 ## 2.1 実験参加者 日本語を母語とする日常生活に支障のない東北大学学部生および大学院生 40 人(女性 19 人, $20.42 \pm 2.26$ 歳) が実験に参加した。 ## 2.2 刺激文 二重目的語文 (ターゲット文) と目的語を含んだ先行発話文 96 セット用意した. そのうち 48 セットは二格名詞, ヨ格名詞,動詞を含む文 (にを文) で,全てニ格名詞の意味役割が [着点], Э格名詞の意味役割が [対象] の文とした. 残り 48 セットは, デ格名詞とヨ格名詞を含む文 (でを文) であり, 全てデ格名詞の意味役割が [道具], Э格名詞の意味役割が [対象] の文とした. 二格名詞,デ格名詞, 格名詞は全て無生物で,身体部分や抽象概念ではないものを使用した。ターゲット文は,旧情報の位置 (前/後) と語順 (基本語順/かき混ぜ語順) を操作して 4 パターン用意し,さらにその 2 つの名詞句を入れ替えることで誤文を用意した. 先行発話文は,夕一ゲット文に含まれる名詞を利用して作成した (付録).いずれも。すべての文の間で, 同じ名詞と動詞を 2 回以上使わないようにした。二重目的語構文の 2 つの名詞句の間で文字数, モーラ数, 親密度 [7] の平均に有意な差がないことを確認した。これらのセット内のパターンは参加者間でカウンターバランスをとり,刺激文の提示順は参加者ごとにランダムに呈示した. ## 2.3 手続き 参加者は,コンピュータのモニタに $1500 \mathrm{~ms}$ 間提示される先行発話と,ターゲット文を 1 文ごとに読み,ターゲット文の画面で意味的に整合しているかどうかの判断を,ボタン押しによって行った (図1).本試行の前に練習を行った。 課題終了後に, Google form によるフォローアップ調查を実施した. 各参加者が提示されたパターンによる誤りを含む 48 文において,この文の話し手が本来意図していた発話はどのようなものだと考えら れるかを作文するよう求めた。 $2000 \mathrm{~ms}$ $1500 \mathrm{~ms}$ 時間 図 1 意味的整合性判断課題試行例 ## 2.4 分析 ターゲット文整合性判断タスクの反応時間, 回答の正答率を従属変数, 旧情報の位置, 語順を独立変数として, 線形混合効果 (linear-mixed-effect: LME) モデルによる分析を行った. ランダム要因として,参加者と刺激文を含めた。 ## 3 結果 仮説 1 の旧情報の位置に応じた意味正誤判断の正答率(図 2)と反応時間(図 3)について,「にを文」の正文では,旧情報の位置が前にある文のほうが後ろにある文より正答率が有意に高く $[\beta=0.048$, $t(850.917)=1.881, p=0.060]$, 反応時間が短かった $[\beta=0.148, t(753.641)=1.891, p=0.059]$. 誤文に関しては,旧情報の位置の影響は正答率においても $[\beta=$ $0.000, t(850.917)=0.011, p=0.991]$ 反応時間 $[\beta=$ $0.061, t(185.443)=0.765, p=0.444]$ においても有意ではなかった。「でを文」では, 正文の正答率(図 4)は旧情報の位置が前にあるほうが有意に高かったが $[\beta=0.052, t(851.722)=2.338, p=0.020]$, 正文の反応時間(図 5) $[\beta=0.030, t(850.002)=0.339, p=$ $0.735]$, 誤文の正答率 $[\beta=0.017, t(852.318)=0.577$, $p=0.564]$ と反応時間 $[\beta=0.045, t(897.000)=0.526$, $p=0.599]$ においては旧情報の位置の有意な影響は認められなかった。 仮説 2 の語順の要因の影響は,「にを文」の正文では正答率 $[\beta=0.040, t(851.138)=1.565, p=0.118]$ においても反応時間 $[\beta=0.027, t(761.725)=0.342, p$ $=0.733]$ においても有意ではなかった. 誤文でも同様に, 正答率 $[\beta=0.042, t(851.138)=1.320, p=$ $0.187]$ でも反応時間 $[\beta=0.100, t(185.443)=1.269$, $p=0.205]$ でも有意ではなかった. 一方「でを文」 では, 正文の正答率は基本語順文 (「でを」) がかき混ぜ語順文 (「をで」) より有意に高かった $[\beta=$ $0.056, t(851.931)=2.504, p=0.013]$. その他, 正文の反応時間 $[\beta=0.103, t(850.017)=1.151, p=0.250]$,誤文の正答率 $[\beta=0.022, t(852.495)=0.743, p=$ $0.457]$ と反応時間 $[\beta=0.133, t(897.000)=1.557, p=$ 0.120] では有意ではなかった. また「でを文」の正文の意味判断の正答率 (図 4) と反応時間 (図 5) において, 旧情報位置と語順の交互作用が有意だった. 旧情報が後にあるかき混ぜ文は, 他の条件に比べて有意に正答率が低く $[\beta=$ $0.073, t(850.722)=2.318, p=0.021]$, 反応時間が長かった $[\beta=0.224, t(850.002)=1.778, p=0.076]$. 仮説 3 の統語構造と現実の出来事の一致は, 仮説 2 と同様の比較で検証される. 上述した「でを」文の正文の正答率の語順の主効果が有意だったという結果は, 構造と出来事の一致文 (正順に相当) のほうが不一致文 (かきまぜ語順に相当) より有意に正答率が高いことを示す. フォローアップ調查の結果では, 誤文の訂正方略の選好性に関して,「にを」文と「でを」文の両夕イプにおいて助詞の順序と訂正方法の連関が有意であった (「にを」文: $\chi^{2}(1)=49.40, p<0.001$ ,「でを」文: $\left.\chi^{2}(1)=21.85, p<0.001\right)$. 誤文の語順が基本語順 (にを,でを) である場合は名詞を入れ替えることで基本語順を維持するように訂正される傾向,誤文の語順がかき混ぜ語順 (「をに/をで」) である場合は助詞を入れ替えることで基本語順(「にを/ でを」) になるように訂正される傾向が示された. ## 4 考察 本研究では,言い誤りを含む文の理解過程に着目し, 旧情報位置と語順, さらに統語構造と現実の出来事の一致性が助詞レベルにおける交換型の言い誤り理解にどのような影響を与えるかについて, 先行研究 [3] に比べ時間的な制約を加えたパラダイムによって文理解プロセスにより注目して検討した. 二重目的語構文を用いて意味的整合性判断課題を実施した結果, 正文の正答率と反応時間における旧情報位置の有意傾向が見られ, 新情報が旧情報に先行する文の方が,旧情報が新情報に先行する 「given-new ordering 文」に比べて反応時間が長く正答率が低かった. 新情報が旧情報に先行する文の処理負荷の高さが明らかになり,仮説 1 を支持した. これは『現代日本語書き言葉均衡コーパス』を用いた研究 [4] とも整合する. 仮説 2 の語順の影響について, 先行研究 [3] で見られた「にを文」の反応時間のオンライン処理上での有意な語順の影響は, 本研究では見られなかった. ただし,フォローアップ調査で参加者が誤文の訂正方略の結果としては, 誤文のパターンによらず基本語順で産出されており,直接目的語を動詞の直前に置くことを好む傾向が再現された。 オンライン実験において先行研究 [3] の結果が再現されなかったことは, 本研究とのパラダイムの違いを反映していると考えられる. 本研究では先行発話文を提示した後, ターゲット文が提示された時点でできるだけ早く正確に意味的整合性判断をするように求めた. それに対して先行研究では, 対話性を含んだ問いかけの先行発話文と応答のターゲット文の双方が自己ペース読みであり,ターゲット文を読んでキーを押した後に,新たな判断画面が出てから整合性判断をするように求められた。 こうしたパラダイムの違いがもたらした影響として, 2 つの可能性がある. 第一に, 時間的な制約の有無による文処理プロセスの違いである. 先行研究では, 文のターゲット文の内容を思い出しながら意味的整合性を判断するという,記憶再認の過程が含まれていた. 語順は, 記憶再認により強く影響することが示唆される. それに対して本研究では, そうした再認のプロセスは介在しない, より純粋な瞬時の文処理過程を反映していると考えられる. そうした瞬時の文処理過程では, 語順より情報構造の影響がより強くなるという可能性が考えられる. オフラインで行ったフォローアップ調査の誤文の訂正方略においてもかき混ぜ語順より基本語順が強く好まれていた結果も,この可能性を支持する. 第二の可能性は, 対話性の有無である. 先行研究では問いかけの形で先行発話文と応答文が提示された際,それぞれの文の呈示位置がスライドの上下に配置されたことで, 両者の話し手が異なることがより視覚的に強調された. それに対して本研究では, どちらの文もスライドの中央に配置した. この対話性の違いが, 語順と情報構造の文処理負荷に与える影響に関係しているかもしれない。 また, 仮説 2 の語順と仮説 3 の構造-出来事一致の要因は,ターゲット文の正文に対して異なる予測を与えた. すなわち「でを」文においては,語順と構造-出来事一致の両要因は同様に「をで」文が処理負荷を高くする条件(かきまぜ、不一致)であつた. 一方「にを」文では, 語順の観点からはかき混ぜの「をに」文が処理負荷が高くなるが, 構造-出来事一致の観点からは,「をに」文は逆に構造-出来事の順序が一致するため文処理を促進すると予測 された. その結果, 語順と構造-出来事一致の両要因の予測が一致する「でを」文の正文では, 基本語順で一致文である「でを」文が,かき混ぜ語順で不一致文である「をで」文より正答率が高かった(反応時間の差は有意ではなかった). しかし両要因の予測が異なる「にを」文では, 正文誤文の正答率と反応時間のすべてで有意な効果が見られなかった. かき混ぜ語順の効果と構造-出来事の順序の一致の効果が互いに打ち消し合った可能性も考えられる. さらに,「でを文」の正文の正答率と反応時間に見られた交互作用は, 旧情報が後にくる場合, かき混ぜ語順で不一致文となる「をで」文 (4b) の処理負荷がとりわけ高くなることを示唆している.これは, 先行発話の (4)「フォーク」のように, 道具を含むデ格名詞が旧情報となる場合である. 同じ (4b) のかき混ぜ語順の不一致文でも,「パンケーキ」のような対象を示すヲ格名詞が旧情報となっている場合には, 処理負荷は高くならなかった.「にを」文にはこの交互作用は見られなかった. このような結果は,「にを」文に比べ「でを」文では,2つの目的語間で項の必須性に差があることと関係するかもしれない.「でを」文の道具のデ格は, 対象のヲ格より項の必須性が相対的に低いが,「にを」文の着点の二格は, 対象のヲ格とともに文を成す重要な項である [8]. 必須性の低い項は, 基本語順文で構造-出来事の順序が一致する形で表現されることが読み手にとくに強く期待され, それを逸脱した非典型的な文に接すると混乱が生じるのだと解釈される. 以上のように,本研究は,言い誤りを含む二重目的語文の理解過程において, 旧情報の位置, 語順,統語構造と現実の出来事の順序の一致の 3 つの要因がそれぞれ影響することを示した。 ## 参考文献 1. 寺尾康 (1992)「第 6 章文産出」 石崎俊・波多野誼余夫(編)『認知科学ハンドブック』 371, 379-380. 東京 : 共同出版. 2. 寺尾康 (2002) 『言い間違いはどうして起こ る?』東京 : 岩波書店. 3. 井出彩音・寺尾康・木山幸子 (2021) 「言い誤りの理解過程: 日本語二重目的語構文の意味的整合性判断課題による検討」『日本言語処理学会第 27 回年次大会発表論文集』 729-733. 4. 浅原正幸・南部智史 - 佐野真一郎 (2018) 「日本語の二重目的語構文の基本語順について」『言語資源活用ワークショップ発表論文集』 3: 280-287. 5. 遠藤喜雄 (2014) 『日本語カートグラフィー序説』 東京 : ひつじ書房, 90-110. 6. O'grady, W., Lee, M. (2005) A mapping theory of agrammatic comprehension deficits. Brain and Language 92: 91-100. 7. 天野成昭・小林哲生 (2008) 『基本語データベー ス語義別単語親密度』東京: 学習研究社. 8. 丸山直子(2016)「格助詞『に』と『で』の深層格 : 出現状況把握に向けての問題点の整理」 『日本文學』112: 175-194. 東京女子大学 刺激文の作成例 (「にを」文) 刺激文の作成例 (「でを」文) 図 2 「にを」文意味正誤判断平均正答率 (エラーバー: 標準誤差) 図 3「にを」文意味正誤判断平均反応時間 (エラーバー: 標準誤差) 図4「でを」文意味正誤判断平均正答率 (エラーバー: 標準誤差) 図 5 「でを」文意味正誤判断平均反応時間 (エラーバー: 標準誤差)
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH2-5.pdf
# PresenSum: トーク音声とスライド画像情報を入カとする プレゼンテーション要約 斉藤いつみ 西田京介吉田仙 日本電信電話株式会社 NTT 人間情報研究所 \{itsumi.saito.df, kyosuke.nishida.rx, sen.yoshida.tu\}@hco.ntt.co.jp ## 概要 プレゼンテーションのトーク音声とスライド画像集合を大力として,テキストの要約を出力する新たなプレゼンテーション要約タスク PresenSum を提案する。学会発表の共有サイトからデータセットを収集,分析し,本タスクが既存のテキスト要約タスクと異なる特徴があることを確認した. さらに,テキストで事前学習された Encoder-Decoder モデルをベースとしたプレゼンテーション要約モデルを構築し,トーク音声の音声認識テキストとスライド画像の文字認識テキストの両方を入力することの効果やスライド中の単語の大きさ,配置などのレイアウト情報や画像特徴などを追加する効果を検証した。 ## 1 はじめに テキスト要約技術は言語処理における重要な技術分野の一つであり [1],言語モデルの進展とともに大きく発展している $[2,3,4]$. 一方,現実社会における様々なニーズに対応するためには,テキスト以外の音声や画像などの情報も入力とするマルチメディアデータの要約も重要である $[5,6,7]$. 本研究では, プレゼンテーションのトーク音声とスライド PDF ファイルから得られた画像情報を入力とし,テキス卜要約を生成する新たなプレゼンテーション要約タスク PresenSum を提案する. プレゼンテーションを対象とする要約研究は一部存在するが,トーク音声のみを入力とするタスク $[8,9]$ や,動画中の粗い画像情報を利用するタスク [10] であり,高精細なスライド画像情報とトーク音声を同時に考慮したプレゼンテーション要約については取り組まれていない。 図 1 に PresenSum の概要を示す. 本研究では, トーク音声とスライド画像から抽出したテキスト情報に加え,スライドテキストのレイアウト(テキストのサイズや配置情報)や画像情報を利用した要約 図 1 PresenSum タスクの概要.トーク音声,スライド画像集合を入力してテキスト要約を生成する。 生成を検証する.音声認識によって得られたトークスクリプトは誤りも含むが,スライドテキストにはキーワード的に重要な内容が記載されているため,双方を大力することで要約の質が向上することが期待できる.また,スライド中の文字には色や大きさ,配置などで重要箇所が視覚的に理解しやすい装飾が施されているため,これらの情報も要約において重要な情報と考えられる.PDFなどの文書画像の質問応答に関する研究は最近盛んに行われており $[11,12,13]$ ,文書画像中の単語の配置や画像情報の有効性が示されているが,スライド画像を含む要約タスクにおいて有効性は検証されていない。 本研究の貢献は,1) PresenSum のデータセット収集と分析,要約モデルを構築し,2) トークスクリプトとスライドテキストの双方を入力することの効果検証,3) スライドテキストのレイアウト・画像情報を入力することの効果検証を行った点である. ## 2 PresenSum データセット ## 2.1 データセットの収集 学会等のプレゼンテーション動画・資料がアーカイブされている videolectures.NET ${ }^{1)}$ から動画, スライ 1) http://videolectures.net/ 表 1 既存の要約データセットとの比較. ド PDF データ, 要約テキストが存在しているデータを収集した.要約テキストは,上記サイトの各プレゼンテーションページに記載された Description テキストを収集した. 動画から音声データを抽出し,スライド PDF はページごとに画像に変換した. デー タ数合計は 2305 件であり,動画の平均時間は 1,100 秒,スライドの平均枚数は 30.8 であった. トークスクリプト,スライドテキストはそれぞれ Google Speech/Vision API $^{2 )}$ を用いて抽出した. 以降,それぞれ ASR テキスト,OCR テキストと表記する。 ## 2.2 既存の要約データセットとの比較 本タスクは入力にテキスト以外の情報も含むが, ASR や OCR によって変換したテキスト情報が代表的な入力となるため,本節ではテキスト情報のみに着目した比較を行う. 表 1 に代表的なテキスト要約データセットである CNN/DM [14],XSum [15] (ニュースドメイン), ArXiv [16],PubMed [16](論文ドメイン)と PresenSum の比較を示す. 既存デー タセットについてはそれぞれ train データから 10000 件をランダムサンプリングして指標を計算した. 比較指標各データの特徴を表す指標として,入力・要約の単語数と, [17]にて提案された Coverage, Density, Compression の 3 指標の合計 5 つの指標を用いる. Coverage は要約の単語が入力テキストによってどの程度カバーされているか, Density は要約と入力テキストが連続して一致した部分単語列の平均長がどの程度か, Compression は入力テキストが要約テキストの何倍の長さかを表す. 入カ・要約単語数の特徵 PresenSum は, ASR と OCR を合計した入力単語数が平均 5,611 語, 要約単語数が平均 187 語と, ニュース要約 (CNN/DM, XSum)に比べて入出力が長い. 入出力単語数の観点では Compression 指標も含め論文要約タスクの ArXivに近いと言える. / } 図 2 プレゼンテーション要約モデルの構成. Encoderに OCR および ASR テキストと,OCR テキストのレイアウ卜情報や画像情報を追加する。 入カ・要約単語の一致度の特徵 PresenSum の Coverage は CNN/DM や ArXiv, PubMed と同程度の高い値であり,入力テキストの単語を適切に利用しながら要約を生成することが求められるタスクと言える。また, ASR/OCR 単体のデータに比べて PresenSum データでは Coverage が大きく向上しており,ASR/OCR テキスト双方を入力することで要約に必要な単語が補完されることが示唆される。一方,Density について PresenSum は Arxiv 等に比べて低い值である.これは,要約テキストに出現する単語が ArXiv 等と比べて入力テキスト中に散らばって存在しており,連続した単語列の表現をそのまま利用する割合が少ないことを示す. ASR テキストは話し言葉であり㔯長表現や認識誤りも含まれること, OCR テキストもキーワード的な表現が多く要約テキストとスタイルが異なることが原因と考える。 以上の指標から,PresenSum は正解要約の単語が入力テキスト中にどのように分布しているかについて従来の要約データとは異なる特徴を持ち, Compression が高くDensity が低い点で既存データに比べて要約生成が難しいデータセットといえる. ## 3 プレゼンテーション要約モデル 図 2 にモデル構成を示す. 生成型要約を行うため, Encoder-Decoder モデルをベースモデルとした. ASR,OCR テキスト系列をべース入力とし,レイアウト,画像特徴量系列を追加する。 テキスト系列 ASR テキスト単語系列 $X_{a s r}$, OCR テキスト単語系列 $X_{o c r}$ を利用する。これらのテキストをモデルに対応したトークナイザでサブワードに分割し,OCR, ASR を表す特殊トークンを用いて $[\mathrm{OCR}]+X_{o c r}+[\mathrm{ASR}]+X_{a s r}$ のように結合する. レイアウト系列 OCRによって検出された単語の配置情報 $X_{l o c}$ ,単語のサイズ情報 $X_{\text {size }}$ ,各単語が属する段落中の単語数情報 $X_{\text {num }}$ を利用する。配置情報は $x_{k}^{\mathrm{loc}}=\left[x_{k}^{\mathrm{min}} / W_{\mathrm{im}}, y_{k}^{\mathrm{min}} / H_{\mathrm{im}}, x_{k}^{\mathrm{max}} / W_{\mathrm{im}}, y_{k}^{\max } / H_{\mathrm{im}}\right]$ をそれぞれ 1000 倍した整数 [18] とする. サイズ情報 $x_{k}^{\text {size }}$ は各単語の高さ情報 $y_{k}^{h}=y_{k}^{\text {max }}-y_{k}^{\text {min }}$ を計算し, 各プレゼン内の平均サイズ $y_{\text {ave }}^{h}$ を用いて $y_{k}^{h^{\prime}}=y_{k}^{h} / y_{\text {ave }}^{h}$ としたあと, 10 倍して整数化した値を用いる。なお, $\left(x_{k}^{\min }, y_{k}^{\min }\right),\left(x_{k}^{\max }, y_{k}^{\max }\right)$ はトークンを囲む矩形領域の左上および右下の座標, $W_{\mathrm{im}}, H_{\mathrm{im}}$ は画像の幅及び高さを表す. 画像特徵量系列 OCR 単語の矩形領域ごとに COCO [19] で学習された Faster-RCNN [20]を用いて box head の最終層のベクトルを抽出し画像特徴量系列 $E^{\mathrm{vis}}$ として利用する。 Encoder 入カ Embedding テキスト・レイアウト・画像特徵量系列を embedding し, 次のように結合する. $ e_{t}=\mathrm{LN}\left(e_{t}^{\mathrm{text}}+e_{t}^{\mathrm{add}}\right) $ LN は Layer Normalization [21] を示す. $e_{t}^{\text {text }}$ は, OCR トークン $x_{t}^{\text {ocr }}$ あるいは ASR トークン $x_{t}^{\text {asr }}$ を基に埋め込む. $e_{t}^{\text {add }}$ は $e_{t}^{\text {loc }}, e_{t}^{\text {size }}, e_{t}^{\text {num }}, e_{t}^{\text {vis }}$ のいずれかを表す. $e_{k}^{\text {loc }}, e_{k}^{\text {size }}, e_{k}^{\text {num }}, e_{k}^{\text {vis }}$ は対応するレイアウトトー クン,画像特徴量を線形変換にて埋め込む. ASR トークン部分の $e_{t}^{\text {add }}$ につては零べクトルとする. Encoder Encoder は $L$ 層の Transformer とする. Encoder 入力 Embedding 系列 $H^{0}=\left[e_{1}^{0}, \ldots, e_{T}^{0}\right]$ を受け取り, $H^{L}=\left[e_{1}^{L}, \ldots, e_{T}^{L}\right]$ を出力して Decoder に渡す. Decoder Decoderは $L$ 層の Transformerを用いて,通常の Text-to-Text と同様に生成したトークンを 1 単語ずつ入力し次のトークンを予測する. Decoder では入力にテキスト以外の情報は入力しない. ## 4 評価実験 評価データ PresenSum データセットを 8:1:1 の割合でランダムに分割し, 訓練, 開発,テストデー 夕とした. 各データ数は $1844 , 230 , 231$ である. 評価指標 ROUGE [22] を使用した. また,正解要約中の単語が生成テキストに含まれるか否かを $1 / 0$ として品詞ごとに集計した品詞カバー率を評価する. 品詞付与には spacy 3 )を使用した。 実験設定最長で 16384 トークンを扱うことができる事前学習済の Longformer Encoder-Decoder モデル [23]を使用し, 入力系列が上限を上回る場合は先頭から用いた。学習済モデルの取得や学習は Transformers ${ }^{4}$ を使用した. バッチサイズ 8 , 勾配の累積ステップ数を 2, 10 エポック学習し, 開発セッ 3) https://spacy.io/ 4) https://github.com/huggingface/transformers表 2 ASRテキストと OCRテキストの双方を入力する効果. カッコ内の数字は入力トークンの最大長を表す. 本評価ではレイアウト・画像特徴量系列は使用しない。 図3 生成された要約が正解要約の単語を含む割合. トでの損失が最小のモデルを選択した。最適化手法は AdamW [24], 学習率は 5e-5 とした. ## 4.1 評価結果 ASR テキストと OCR テキストの双方を入力することは効果があるか? 表 2 に示す通り,ASR テキストと OCR テキストの双方を入力した場合が ASR,OCR 単体を入力する場合よりも精度が良かった. また, OCR 単体の方が ASR 単体よりも精度が高かった. 2.2 節の単語の Coverage 指標では ASR 単体の方が OCR 単体よりも高い値だったが,要約生成の結果では逆になった. ASR の認識誤りや話し言葉のスタイルが精度に影響していると考える。 ## 入力長を伸ばすことにより精度は向上するか? 表 2 に示す通り,ASR+OCR の場合の入力の最大長を 4096 から 8192 に長くすると精度が向上した。 PresenSum は入力系列全体に分散した情報を要約することが必要なデータセットと言える. ## ASR テキストと OCR テキストはどのような補完関係があるか?図 3 に出現頻度が高い 10 種の品詞ごとの品詞カバー率を ASR, OCR, ASR+OCR の 入力ごとに示した. まず,OCRを入力することで 固有名詞(PROPN)のカバー率が大きく向上した. ASR においては固有名詞の認識が難しいが,OCR では固有名詞が取得しやすいため特に補完効果 があったと考える. 最も出現頻度が高い普通名詞 (NOUN)においても ASR と OCR の双方を入力する ことでカバー率が向上した. ## OCR テキストのレイアウト・画像情報の効果はあ るか? 表 3 に OCR のレイアウト情報や画像情報を追加した場合の効果について検証した結果を示す. OCR のサイズ $\left(e^{\text {size }}\right)$, 段落中の単語数 $\left(e^{\text {num }}\right)$ を追加するとべースラインよりも精度がわずかに向上した. 段落中の単語数は単語のまとまりを表し,本文中のテキストであれば多くなり,図表中の語であれば 1 語で独立しているケースが多いなど, OCR テキストがどのような領域に属しているかを間接的に表す.このような OCR テキストの意味的な領域の理解をさらに深めることが重要と考える。一方,配置情報 $\left(e^{\text {loc }}\right)$ ,画像情報( $e^{\text {vis }}$ ) については精度が向上しなかった. ベースとした Longformer Encoder-Decoder が大量の言語データで学習されている一方,今回の学習データが少量のため追加特徴量への適応が不十分であったと考える. 出力例・エラー分析図 4 に ASR と OCR 双方をモデルに入力した場合の出力例を示す. 正解要約, スライド画像は下記 $\left.{ }^{5}\right) より$ 抜粋した. 特筆すべき例として, ASR/OCR 単体のみを入力した場合では生成されなかった語が要約に含まれた。 スライドとトークの両方で言及されることで,より重要な語として認識された結果と考える。一方で,いずれかの入力には記載があるものの ASR と OCR の双方を入力しても生成されない内容も存在した. PresenSum の課題と展望本研究で得られた知見により,音声・画像から得られるテキスト情報を用いた要約について有望な結果が得られたものの,レイアウト・画像情報の利用については,fine-tune 時に特徴量を追加するだけでは十分な効果が得られないことがわかった. スライドの意味領域(タイトル・図表など)の構造的な理解や,事前学習などによる追加特徴量の理解の強化などの検討が必要である.また,音声認識誤りの影響の軽減や音声の重要箇所特定などのため,トーク音声のテキスト以外の特徴量の効果についても検証の余地がある [25]. ## 5 関連研究 プレゼンテーションに関連する要約研究として TalkSum [8], VT-SSum [9], AVIATE [10] などがある. $[8,9]$ はトーク音声の ASR テキストのみを入力し,抽出型の要約タスクを行っている. [9] は抽出型要約の正解データ作成にスライド画像の OCR を利用した. AVIATE [10] はプレゼンテーションの動画から ASR や OCR などを行い,生成型のテキスト要約を行っている。しかし,OCR については動画中の粗い画像情報から抽出した上限 500 単語という部分的な利用にとどまっており,高精細なスライド画像の OCR テキスト全体やテキストのレイアウト等の詳細情報を利用を想定する我々の設定とは異なる。 ## 6 おわりに プレゼンテーションのトーク音声とスライド画像情報を用いて要約を行う PresenSum タスク提案し, データセットの収集,分析及びモデル評価を行った. PresenSum が従来の要約タスクと異なる特徴をもつこと,トーク音声とスライド画像のテキストが補完関係にあることを示し,要約モデルの入力として双方を用いることの有効性を確認した。また, OCR テキストのレイアウト・画像情報の効果についても初めて検証を行った. PresenSum は言語・音声・画像の融合的な理解が必要となるタスクであり,ビデオ会議の要約など幅広い分野に応用できる。 5) https://videolectures.net/icml09_frank_mac/ ## 参考文献 [1] Hui Lin and Vincent Ng. Abstractive summarization: A survey of the state of the art. In AAAI, pp. 9815-9822, 2019. [2] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. J. Mach. Learn. Res., Vol. 21, pp. 140:1-140:67, 2020. [3] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In ACL, pp. 7871-7880, 2020 [4] Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter J. Liu. PEGASUS: pre-training with extracted gap-sentences for abstractive summarization. In ICML, 2020. [5] Anubhav Jangra, Adam Jatowt, Sriparna Saha, and Mohammad Hasanuzzaman. A survey on multi-modal summarization. arXiv preprint arXiv:2109.05199, 2021. [6] Ramon Sanabria, Ozan Caglayan, Shruti Palaskar, Desmond Elliott, Loïc Barrault, Lucia Specia, and Florian Metze. How2: A large-scale dataset for multimodal language understanding. In NeurIPS@ViGIL, 2018. [7] Zhou Y. Zhang J. Li H. Zong C. Li C. Zhu, J. Multimodal summarization with guidance of multimodal reference. In AAAI, pp. 9749-9756, 2020. [8] Guy Lev, Michal Shmueli-Scheuer, Jonathan Herzig, Achiya Jerbi, and David Konopnicki. Talksumm: A dataset and scalable annotation method for scientific paper summarization based on conference talks. In ACL, pp. 21252131, 2019. [9] Tengchao Lv, Lei Cui, Momcilo Vasilijevic, and Furu Wei. Vt-ssum: A benchmark dataset for video transcript segmentation and summarization. arXiv preprint arXiv:2106.05606, 2021. [10] Yash Kumar Atri, Shraman Pramanick, Vikram Goyal, and Tanmoy Chakraborty. See, hear, read: Leveraging multimodality with guided attention for abstractive text summarization. Knowl. Based Syst., Vol. 227, , 2021. [11] Minesh Mathew, Dimosthenis Karatzas, and CV Jawahar. Docvqa: A dataset for vqa on document images. In WACV, pp. 2200-2209, 2021. [12] Ryota Tanaka, Kyosuke Nishida, and Sen Yoshida. Visualmrc: Machine reading comprehension on document images. In AAAI, pp. 13878-13888, 2021. [13] Minesh Mathew, Viraj Bagal, Rubèn Tito, Dimosthenis Karatzas, Ernest Valveny, and CV Jawahar. Infographicvqa. In WACV, pp. 1697-1706, 2022. [14] Karl Moritz Hermann, Tomas Kocisky, Edward Grefenstette, Lasse Espeholt, Will Kay, Mustafa Suleyman, and Phil Blunsom. Teaching machines to read and comprehend. In NIPS, pp. 1693-1701, 2015. [15] Shashi Narayan, Shay B. Cohen, and Mirella Lapata. Don't give me the details, just the summary! topic-aware convolutional neural networks for extreme summarization. In EMNLP, pp. 1797-1807, 2018 [16] Arman Cohan, Franck Dernoncourt, Doo Soon Kim, Trung Bui, Seokhwan Kim, Walter Chang, and Nazli Goharian. A discourse-aware attention model for abstractive summarization of long documents. In NAACL, 2018. [17] Max Grusky, Mor Naaman, and Yoav Artzi. Newsroom: A dataset of 1.3 million summaries with diverse extractive strategies. In ACL, pp. 708-719, 2018. [18] Yang Xu, Yiheng Xu, Tengchao Lv, Lei Cui, Furu Wei, Guoxin Wang, Yijuan Lu, Dinei A. F. Florêncio, Cha Zhang, Wanxiang Che, Min Zhang, and Lidong Zhou. Layoutlmv2: Multi-modal pre-training for visually-rich document understanding. In ACL/IJCNLP, pp. 2579-2591, 2021. [19] TY Lin, M Maire, S Belongie, J Hays, P Perona, D Ramanan, P Dollar, and CL Zitnick. Microsoft coco: Common objects in context. In ECCV, pp. 740-755, 2014. [20] Ren, Shaoqing, He, Kaiming, Girshicka, Ross, Sun, and Jian. Faster r-cnn: Towards real-time object detection with region proposal networks. In NIPS, pp. 91-99, 2015. [21] Lei Jimmy Ba, Ryan Kiros, and Geoffrey E. Hinton. Layer normalization. arXiv preprint arXiv:1607.06450, 2016. [22] Chin-Yew Lin. Rouge: A package for automatic evaluation of summaries. In Text summarization branches out@ACL, pp. 74-81, 2004. [23] Iz Beltagy, Matthew E. Peters, and Arman Cohan. Longformer: The long-document transformer. arXiv preprint arXiv:2004.05150, 2020. [24] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In ICLR, 2019. [25] Alexei Baevski, Yuhao Zhou, Abdelrahman Mohamed, and Michael Auli. wav2vec 2.0: A framework for selfsupervised learning of speech representations. In NeurIPS, 2020 . ## A 補足資料 ASR 単体,OCR 単体,ASR と OCR の双方を入力した場合の要約出力例を図 5 に示す(図 4 は ASR+OCR と参照要約の抜粋である),正解要約テキストとスライド画像は下記6) より抜粋した. ASR 単体は意味が不明瞭な箇所があるが,ASR と OCR を合わせて入力することで改善がみられる. ## OCR only We present a multi- Assignment Clustering approach for Boolean data. Our approach is based on a probabilistic representation of cluster centroids, which are characterized by disjunctions of Booleanemissions. We compare the accuracy of different methods at different noise levels, and compare them with other multi-assignment methods. We show that our approach outperforms the state-ofthe-art methods in terms of accuracy. We also compare the performance of different multi- assignment methods with other methods. Our results show that the multi-Assignments approach is more accurate than the state of the art methods, and that it is more robust to noise than the other approaches. Furthermore, our approach is able to estimate cluster centroid mismatch at different levels of noise. ## ASR only In this paper, we present a probabilistic model for clustering Boolean data where similar objects are allowed to belong to more than one cluster at the same time. The model is based on the notion that the objects and the permissions are independent from each other. We show that the model can be used to infer the permissions of a given object by inferring the permissions from its input data. We demonstrate that the proposed model outperforms the state-of-the-art clustering methods in terms of accuracy and noise. We also demonstrate the effectiveness of our model on a real-world dataset from a Swiss bank. Our experiments on synthetic data demonstrate that our proposed model can outperform the state of the art clustering techniques. We further demonstrate the applicability of our method on real world datasets. ## OCR + ASR In this paper, we present multi- Assignment Clustering for Boolean Data, a method of pooling data where similar objects are allowed to belong to more than one cluster at the same time. We show that multi assignment clustering can be applied to a variety of applications, such as role mining and role-based access control. We demonstrate the effectiveness of our method on real-world datasets and compare it to several combinatorial methods on synthetic data. We also show that our method outperforms the state-of-the-art methods in terms of accuracy and noise reduction, and that it can also be used to detect wrong or erroneous assignments of objects in real world datasets. The results of our experiments on synthetic datasets show that the method is able to outperform the state of the art. ## Reference Conventional clustering methods typically assume that each data item belongs to a single cluster. This assumption does not hold in general. In order to overcome this limitation, we propose a generative method for clustering vectorial data, where each object can be assigned to multiple clusters. Using a deterministic annealing scheme, our method decomposes the observed data into the contributions of individual clusters and infers their parameters. Experiments on synthetic Boolean data show that our method achieves higher accuracy in the source parameter estimation and superior cluster stability compared to state-of-the-art approaches. We also apply our method to an important problem in computer security known as role mining. Experiments on real-world access control data show performance gains in generalization to new employees against other multi-assignment methods. In challenging situations with high noise levels, our approach maintains its good performance, while alternative state-of-the-art techniques lack robustness. 図 5 ASR 単体, OCR 単体, ASR と OCR の双方を入力した場合の要約出力例. 赤文字が ASR や OCR 単体入力においても生成された内容. 緑文字が ASR と OCR を両方入れた時のみ生成された内容. 青文字はすべての要約で生成されなかった内容. 6) https://videolectures.net/icmlo9_frank_mac/
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH2-6.pdf
# 機械学習と統計的検定を利用した知見獲得とその評価 董卜睿*1 村田 真樹 *22 馬 青*3 *1 鳥取大学大学院 持続性社会創生科学研究科工学専攻 *2 鳥取大学大学院 工学研究科情報エレクトロニクス専攻 *3 龍谷大学 先端理工学部数理・情報科学課程 ${ }^{* 1, * 2}\{$ m20j4163a@edu. , murata@ $\}$ tottori-u.ac.jp ${ }^{* 3}$ qma@math. ryukoku.ac.jp ## 概要 本研究では,最大エントロピー法,BERT,SVM の 3 つの教師あり機械学習法と, 符号検定, 区間推定の 2 つの統計手法を用い, 新聞データから単語対の情報を収集し,知見を獲得する。獲得した情報 (知見)を関連性と有益性に基づき評価する。 関連性評価では, 12 年分の新聞データで訓練した Word2vec から得た, 事前に人手で設定した単語対 (テーマキーワード対) に最も類似する 500 個の単語と, 人手で単語対について連想した 30 個の単語を正解として,提案手法によって得られた最も評価の高い 500 個の単語との一致率を計算した。計算の結果, 統計的手法が機械学習法を上回った。最も一致率が高かったのは符号検定であり, Word2vec との一致率は 0.126 , 人手で連想した単語との一致率は 0.344 であった. 有益性評価は, 提案手法で最も評価の高い 100 個の単語を取り出し, 被験者がどの手法から取得したのかを分からないようにして,単語の有益性を評価する。全新聞 (2007 年から 2018 年までの全て) を訓練した Word2vec が最も評価が高く, 平均の比率は 0.594 である. 提案手法の中で最も評価の高い手法は BERT であり, 平均の比率は 0.444 となった。 ## 1 はじめに メディアの電子化により,多くの電子テキストが出現し, そこから重要な情報を素早く入手することが求められている. そこで,教師あり機械学習と統計的検定を利用して,新聞データから様々な分野に関するテーマキー ワード対の知見を獲得することを本研究の目的とする. 本研究では, 教師あり機械学習と統計的検定 で取り出した単語を知見とする。得られた知見の評価に関連性評価と有益性評価を用いる。なお本研究で用いる単語対は「健康」と「病気」,「政治」と 「経済」,「輸入」と「輸出」,「社会主義」と「資本主義」,「オリンピック」と「パラリンピック」である.この単語対をテーマキーワード対と呼ぶ,単語対の一方の単語はテーマキーワードと呼ぶ. ## 2 先行研究 村田らの研究 [1] はウェブと新聞から株式相場における情報を収集している,パターンと教師あり機械学習を利用して株式相場や経済に関わる様々な知見獲得を行い,獲得した知見は日本の株式相場の日々の変動を予測するために使用される. Bollen ら [2] は, Twitter のメッセージを用いて,大統領選挙と 2008 年の感謝祭に対する人々の感情的な反応を分析し,ダウ平均の日々の上昇と下降を予測した。 鎌倉 [3] は,多くのテーマキーワード対において,機械学習の最大エントロピー法と統計的検定の符号検定により知見を獲得した。獲得した知見の有効性を人手で評価した.本研究に使用した手法は,鎌倉が使用した 2 つの手法以外に,提案手法として SVM,BERT と区間推定を追加した。また,比較手法として Word2vec を追加している. ## 3 提案手法 テーマキーワード対を含む文章から得られる単語を素性とする。本研究では, 教師あり機械学習と統計的手法を利用する. 2007 年から 2018 年の毎日新聞テキストデータからテーマキーワード対に関わる素性を分析し,複数のテーマキーワード対の知見を収集する. 手法ごとに得られた素性が人にとって役 に立つのかを明らかにするために人手による評価を行う. ## 3.1 素性分析 テーマキーワード対を $\mathrm{A}, \mathrm{B}$ として以下に提案手法を示す. 本研究では文章として, 新聞の一段落を利用する。 (段落)をそれぞれ収集する。 ・手順 2 : A,Bを消して,Xに置き換える。 -手順 3 : 手順 1 で収集した $\mathrm{A}$ とに関する文章 (段落)をランダムに整列して, 単語 $\mathrm{A} と \mathrm{~B}$ を公平に分析するために,AとBを含む文章 (段落) を同数にする. ・手順 4 : 手法を利用して素性を抽出する. -手順 5 : 手法ごとに得られた素性の上位 500 個を取り出す。 $\cdot$手順 6 : 手順 5 で得られた素性を評価する。 ## 3.2 最大エントロピー法 最大エントロピー法 $[1,3,4]$ は, どのテーマキー ワードが記事中に出現する可能性が高いかを学習できる. テーマキーワード $\mathrm{A}, \mathrm{B}$ があるとする. A または Bを含む段落を収集する,収集した段落から A と $\mathrm{B}$ を取り除き, $\mathrm{X}$ とする。学習結果に基づいて, $\mathrm{X}$ にテーマキーワード $\mathrm{A}$ または $\mathrm{B}$ のどちらがあつたかを推定する.学習段階で,素性に対するテーマキーワードの重要度を示す正規化 $\alpha$ 值を計算し, 上位 500 個の素性を分析する。 ## 3.3 SVM SVM[5] とは, support-vector machine の略で,空間を超平面で分割することにより 2 つの分類からなるデータを分類する手法である. 2 つの分類が正例と負例からなるものとすると, 学習データにおける正例と負例の間隔 (マージン) が大きいものほどオー プンデータで誤った分類をする可能性が低いと考えられ,このマージンを最大にする超平面を求めそれを用いて分類を行う。テーマキーワード対 $\mathrm{A}, \mathrm{B}$ があるとする,Aまたは $\mathrm{B}$ を含む段落を収集し,その段落から $\mathrm{A}$ とを取り除き, Xとする. その段落と $\mathrm{X}$ に入るものの対を学習データとして超平面を学習する. 学習で得られたモデルに基づいて, 単語 $\mathrm{X}$ が平面に対してどのあたりにあるかを計算し,Xが $\mathrm{X}$ ま たは B であるかを推定する.素性分析する方法は以下である。段落を個々の単語に切り分け,学習済み $\mathrm{svm}$ モデルを用いて各単語について分離平面までの距離を計算する。算出された距離は, それが該当するエリアとしてプラスマイナスで表現される。分離平面との距離が大きいほど有用な素性である。上位から 500 個の素性を抽出し,分析する. ## 3.4 BERT BERT とは, Bidirectional Encoder Representations from Transformers の略で, Jacob Devlin ら [6] の論文で発表された自然言語処理モデルである. ラベル付けされていないテキストから, 全層で左右両方の文脈を共同で条件付けすることにより学習する. BERT は双方向の Tranceformerによって学習を行う. テーマキーワード対 $\mathrm{A}, \mathrm{B}$ があるとする. A または $\mathrm{B}$ を含む段落を収集し,その段落から $\mathrm{A}$ と $\mathrm{B}$ を取り除き,X とする。学習したモデルに基づいて,X を推定する.素性分析の方法は以下である.段落を個々の単語に切り分け, 学習済み BERT モデルを用いて各単語についてテーマキーワード対の確率值を計算し,上位 500 個の単語を有用な素性として抽出し分析する. ## 3.5 符号検定 符号検定 [3] は, 勝ちと負けや表と裏といった相反する 2 つのペアの差に符号 + と - を割り当てる統計的検定として用いられる. 二項定理に基づく片側検定により, A または B を含む段落の中で $\mathrm{A}$ と B と伴って出現する単語が,いずれのカテゴリーにおいても, 全データでの出現率よりも高い頻度で出現するかどうかを判定し, 有意確率 $\mathrm{p}$ 值を求める. $\mathrm{p}$值が低いほど有用な素性であるので, 本研究は $\mathrm{p}$ 值の下位 500 個の素性を取り出し,分析する. ## 3.6 区間推定 テーマキーワード対を $\mathrm{A}, \mathrm{B}$ とする,新聞データ の出現回数を数える. $\mathrm{A}$ の出現回数は $N_{a}$ 回で, $\mathrm{B}$ の出現回数は $N_{b}$ 回, $\mathrm{A}$ の真の出現率は $\theta$ とする. $N=N_{a}+N_{b}$ とする. 実際の $\mathrm{A}$ の出現率は $\frac{N_{a}}{N}$ により求められる. 「真の A の出現率 $\theta$ は概率 $95 \%$ \%で $a \leq \theta \leq b$ の区間にある」と考える.このような考えを区間推定という。 下限値 a 値が高いほど有用な素性である。上位の 500 個の素性を抽出する。 表 1 全評価データ ## 4 評価 ## 4.1 評価データ 評価には,2007 年から 2018 年の毎日新聞を用いて, 評価データの内訳を表 1 に示す. テーマキー ワード対「政治」「経済」の段落数は 155,776 であるが,機械学習手法は 15 万データを訓練すると,時間がかかるので, 最大エントロピー法, SVM, BERT,符号検定と区間推定の評価データはランダムに抽出した 40,000 個の段落を用いる. 最大エントロピー法と SVM は学習データとテストデータの比率は 1 対 1, BERT の訓練データ, 検証データとテストデー 夕の比率は 3 対 1 対 4 となるように全評価データを分割して用いる. 最大エントロピー法とSVM と BERT は, 訓練データのみから素性を取り出す. (最大エントロピー法では訓練データで学習する正規化 $\alpha$ 値を用いる. SVM と BERT は, 訓練データの段落にあった個々の単語を入力として用いることで素性分析する。)符号検定と区間推定は表 1 の全評価データを使用した. Word2vec は 2007 年から 2018 年まで全ての新聞を訓練する。 ## 4.2 関連性評価: Word2vec 自動評価 Word2vec とは,大量の電子テキストを解析し,各単語の意味をベクトル表現することができる手法である. 単語をベクトル化することで, 単語の意味の近さを計算し,それを使って似たような意味の単語を探すことができる.Word2vec で全新聞 (2007 年から 2018 年までの全て)を訓練し, テーマキーワードと類似する単語を探し, 類似度の高い 500 語を正解として提案手法を評価する評価を行う. ・手順 1 : Word2vecに評価データを学習させる. -手順 2 : 手順 1 で作成したモデルにテーマキー ワードを入力し,テーマキーワードと類似する単語を求める. -手順 3 : テーマキーワードとの類似度が最も高い 500 個の単語を抽出し, 3.1 節で収集した素表 2 単語「健康」の人手連想評価の例 性との一致数を数える。 ## 4.3 関連性評価:人手連想評価 3.1 節で収集したテーマキーワード対の手法ごとの素性を評価対象とする. 人手でテーマキーワード対から連想する単語を 30 個書き出し, 3.1 節で収集した素性 500 個との一致数を数える. Word2vec は,全部の新聞データを学習する。提案手法と比較するために使用される. 表 2 と表 3 は連想評価の例である. 人手で連想した単語と手法で取り出した上位の素性が一致したときの数を数える。人手連想評価の手順は以下のとおりである. ・手順 1 : 人手でテーマキーワード対から連想する単語を 30 個書き出す. -手順 2 : 手順 1 で収集した連想語 30 個と 3.1 節で収集した素性 500 個との一致数を数える。 ## 4.4 有益性評価 収集した素性がどの方法で得られたものかを被験者がわからないようにするために,各手法から収集した素性を合わせて,意味ソート [7] を行う. そして人手で評価する.意味ソートでは,単語を意味順に並べることができる。似たような意味を持つ単語を近くに配置することで,手作業によるチェックを効率的に行うことができる. 表 4 と表 5 に有益性評価の例を示す. Word2vec は全部の新聞データを学習する。提案手法と比較するために使用される. - 手順 1 : 各手法 (最大エントロピー法, BERT, SVM, 符号検定, 区間推定, Word2vec) の素性分析の上位 100 個を取り出す. -手順 2 : 手順 1 で得られた素性をすべて合わせて,意味ソートを行う。 -手順 3 : 被験者がどの手法によりその素性が得られたかを知らない状況で評価する。 評価基準は以下で示す. 表 4 「健康」の有益性評価の例 表 5 「病気」の有益性評価の例 表 6 機械学習手法の正解率 & 0.9118 & 0.9463 & 0.9599 \\ ・○: テーマキーワードの関連語であり, 被験者はこの素性に興味を持ち,被験者が役に立つと思う単語. ・ $\triangle$ : テーマキーワードの関連語であり, 被験者はこの素性に興味を持たず,被験者が役に立たないと思う単語. ・×: テーマキーワードの関連語でない,または単語の意味がわからない. ## 5 評価結果 表 6 は,新聞記事のテストデータでの機械学習手法の正解率を示している.表のように,BERT は,他の機械学習手法よりも正解率が高く, 平均正解率は 0.9297 であった。 表 7 は, 4.2 節の評価の全てのテーマキーワード対の平均である. Word $2 \mathrm{vec}$ 自動評価は,各手法で取り出した単語数は 500 個なので,一致の数を 500 で割った比率で表示する。統計的手法が機械学習手法よりも優れていることがわかる. 平均一致率は 0.126 であった。機械学習の結果は, BERT, ME, SVM の順で一致率が高くなった。 表 8 は, 4.3 節の評価結果である. 4 人の被験者がテーマキーワード対に関して連想した語句 30 個と五種類の手法で得た素性各 500 個との一致率を求めた. 人手で連想した単語数は 30 なので, 4 人の一致数の平均を 30 で割った比率で表示した. Word2vec 自動評価の結果と同様に, 統計的手法は機械学習手法を上回った。最も性能が良いのは符号検定であ表 7 関連性評価:Word2vec 自動評価結果 表 8 関連性評価:連想評価結果 & BERT & 符兵 & 区間| \\ 表 9 有益性評価結果 \\ り, 平均一致率は 0.344 である. 表 9 は 4.4 節の有益性評価の評価結果である. 提案手法と Word2vec から各手法の評価の高い 100 個の単語を取り出し,1 つのテーマキーワード対で 1,200 個の単語 $(100 \times 2$ 単語 $\times 6$ 手法) が評価される. 被験者がどの手法によりその素性が得られたかを知らない状況で評価する。この評価の被験者は一人である.表 9 では,○は,被験者が有用と考える単語の比率である。また, $+\triangle$ は,被験者がテー マキーワード対に関連すると考えた単語の比率である. 5 つのテーマキーワード対で 1 つの手法で取り出す単語の総数は 1,000 個なので, 表 9 では 1,000 で割った比率で表示される. 有益性評価の結果は,全ての新聞を訓練した Word2 vec が最も評価が高く,平均の比率は 0.594 である. 提案手法の中で一番良い手法は BERT で平均の比率は 0.444 となった.今後の課題として被験者を増やしたい。 ## 6 おわりに 本研究では, 3 つの教師あり機械学習法と, 2 つの統計手法を用い,新聞データからテーマキーワー ド対の情報を収集し,関連性評価と有益性評価をする. 関連性の評価では,符号検定が最も良い性能であり,性能は 0.344 であった。 3 つの単語を連想したときに一つを推測できる割合である。また,より精度を高めるために,手法を組み合わせることは今後の課題としたい,有益性評価では,Word2vec が最も評価が高く, 平均の比率は 0.594 である. 有益性については,提案手法の中で最も評価が高かったのは BERT で, 有用単語の比率は 0.444 である. 有用単語の比率を増やす改良は,今後の課題としたい。 ## 参考文献 [1] 村田真樹, 中原裕人, 馬青. パターンと教師あり機械学習と素性分析を利用したウェブと新聞か らの株式相場に関わる知見獲得. 第 82 回全国大会講演論文集, Vol. 2020, No. 1, pp. 55-56, feb 2020. [2] Johan Bollen, Huina Mao, and Xiaojun Zeng. Twitter mood predicts the stock market. Journal of Сотриtational Science, Vol. 2, No. 1, pp. 1-8, 2011. [3] 鎌倉周平. 機械学習と統計的検定を利用した知見獲得の評価実験. 鳥取大学卒業研究発表会論文, 2020 . [4] Masaki Murata, Kiyotaka Uchimoto, Masao Utiyama, Qing Ma, Ryo Nishimura, Yasuhiko Watanabe, Kouichi Doi, and Kentaro Torisawa. Using the maximum entropy method for natural language processing: Category estimation, feature extraction, and error correction. Cognitive Computation, Vol. 2, pp. 272-279, 2010 . [5] 村田真樹. 機械学習手法を用いた日本語格解析 : 教師信号借用型と非借用型, さらには併用型.電子情報通信学会技術研究報告. NLC, 言語理解とコミュニケーション, Vol. 101, No. 190, pp. 15-22, jul 2001. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. CoRR, Vol. abs/1810.04805, , 2018. [7] 村田真樹, 神崎享子, 内元清貴, 馬青, 井佐原均.意味ソート $\mathrm{m}$ s O r t 意味的並べかえ手法による辞書の構築例とタグつきコーパスの作成例と情報提示システム例:意味的並べかえ手法による辞書の構築例とタグつきコーパスの作成例と情報提示システム例. 自然言語処理, Vol. 7, No. 1, pp. 51-66, 2000. ## A 付録 ## A. 1 意味ソート 単語を意味に応じて並べかえるという考え方は, Msort(meaning sort)[7] と呼ばれている.この意味の並べ替えの順番は,単語の羅列を表示する際には 5 0 音順 (もしくは E U C 漢字コード順) ではなく, 単語の意味の順番に表示する。 単語を意味ソートすると,単語に対して意味的な順番で分類する.意味ソートで採用した分類は分類語彙表 (国立国語研究所 1964) に基づいている。動物,人間,組織,植物,生物の部分,自然物,生産 表 10 意味ソートの例 表 11 Word2vec を用いた自動評価 物, 空間, 現象名詞, 動作, 精神, 性質, 関係,言語作品, その他, 時間と数量の分類があり, 全部で 17 種類の分類である.表 10 に意味ソートの例を示す. ## A. 2 評価結果 表 11 は,4.2 節の Word2vec 自動評価の結果である. 表 7 に同様の表があるが,表 7 と違ってテー マキーワードごとの数值結果も表示している. Word2vec 自動評価は, 各手法で取り出し単語数は 500 個なので,一致の数を 500 で割った比率で表示される. 表 12 は, 4.3 節の連想評価の結果である. 表 8 に同様の表があるが,表 8 と違ってテーマキーワードごとの数值結果も表示している. 人手で連想した単語数は 30 なので, 4 人の一致数平均を 30 で割った比率で表示. 表 13 は,4.4 節の有益性評価の結果である.表 9 に同様の表があるが,表 9 と違ってテーマキー ワードごとの数值結果も表示している。提案手法と Word2vec から各手法の類似度の高い 100 個の単語を取り出すので,テーマキーワード対の数を 100 で割った比率で表示する。手法の平均数は 1,000 (100 $\times 10$ 単語) で割った比率で表示する. 表 12 連想評価結果 \\ 表 13 有益性評価結果 \\
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH2-7.pdf
# シフト付き絶対位置埋め込み $\diamond$ 理化学研究所 ・東北大学 ${ }^{\triangleright}$ 株式会社 Preferred Networks } shun.kiyono@riken.jp, sosk@preferred.jp, \{jun.suzuki, inui\}@tohoku.ac.jp ## 概要 本研究は Transformer における位置表現の改良に取り組む。既存の位置表現のうち, シフト不変性を持つ手法が高い性能を発揮することに着目し,シフ卜付き絶対位置埋め込み(SHAPE)の効果を検証する. SHAPE の根幹となるアイデアは, 学習中に絶対位置を乱数値でシフトさせることで,シフト不変性をモデルに取り入れることである。 既存のシフト不変である位置表現と比較して, SHAPE は同等の性能を達成しつつ,より高速に動作することを示す. ${ }^{1)}$ ## 1 はじめに Transformer[1] に基づく符号化復号化モデル (Encoder-Decoder)において,位置表現はモデルが系列中のトークンの順序を認識するために導入されている。位置表現は, 絶対位置埋め込み(Absolute Position Embedding; APE)[2,1] と相対位置埋め込み (Relative Position Embedding; RPE)[3] の 2 種類に大別される [4]. APE では, 各位置ごとの専用の埋め込みと単語埋め込みとの和によって位置を表現する。一方で RPE は,2つのトークン間の相対的な距離を用いて,注意機構内部で位置を表現する。 系列変換タスクにおいて,RPE は APE を上回る外挿性能 2$)$ を発揮することが知られている $[5,6]$. その要因は,RPE の持つ性質であるシフト不変性であることが報告されている [7]. ここでシフト不変性とは,ある関数において入力の位置シフトが関数の出力に影響しない性質を指す。しかし, RPE は注意機構に依存する形で定式化されているため, 注意機構自体の改善を試みる方法論との組み合わせが困難である。そのため本研究では,APE にシフト不変性を取り入れることを試みる。 絶対位置にシフト不変性を取り入れるために,画像認識 [8] や NLP における質問応答 [9] 等では, 訓  図 1 本研究で取り扱う位置表現の概要図練中に入力系列の位置を乱数値でシフトさせるという方法が用いられてきた。同様に APE においても,乱数値によるシフトをおこなうことで,絶対位置の代わりに相対位置を活用した学習を Transformer に強制できると期待できるが,その有効性はまだ検証されていない。そこで我々はこのシフト操作をシフト付き絶対位置埋め込み(Shifted Absolute Position Embedding; SHAPE)として定式化し,その効果を検証する.実験では,SHAPE を用いた Transformer がシフト不変性を獲得できること,また,機械翻訳久スクで SHAPE が RPE と同等の性能を達成できることを示す. ## 2 Transformer における位置表現 図 1 に本研究で取り扱う位置表現を示す。以降,入力系列 $\boldsymbol{X}$ と出力系列 $\boldsymbol{Y}$ を,それぞれ $I$ トークンと $J$ トークンからなる系列 $\boldsymbol{X}=\left(x_{1}, \ldots, x_{I}\right)$ と $\boldsymbol{Y}=\left(y_{1}, \ldots, y_{J}\right)$ として表す. ## 2.1 絶対位置埋め込み(APE) APE では各位置に対して専用の位置埋め込みを用いる. 具体的には,各トークン $x_{i} \in \boldsymbol{X}$ と $y_{j} \in \boldsymbol{Y}$ について,対応する位置埋め込みと単語埋め込みとの和によって位置を表現する(図 1a)。 Transformer において APE には Sinusoidal 位置符号化 [1] が典型的に用いられる。ここで $i$ 番目のトー クンの第 $m$ 次元の值 $\mathrm{PE}(i, m)$ は $ \operatorname{PE}(i, m)= \begin{cases}\sin \left(\frac{i}{10000 \frac{2 m}{D}}\right) & m \text { が偶数 } \\ \cos \left(\frac{i}{10000 \frac{2 m}{D}}\right) & m \text { が奇数 }\end{cases} $ として定義され, $D$ はモデルの次元数を表す. ## 2.2 相対位置埋め込み(RPE) RPE[3] では,各トークン間の相対距離を Transformer の注意機構の特徴量として用いることで位置を表現する(図 $1 \mathrm{~b}$ ). 例えば, Shaw ら [3] は $i$ 番目と $j$ 番目のトークン間の相対距離を, 埋め込み $\boldsymbol{a}_{i-j}^{\text {Key }}, \boldsymbol{a}_{i-j}^{\text {Value }} \in \mathbb{R}^{D}$ によって表現している.これらの埋め込みは, 注意機構における Key と Value 表現にそれぞれ足し合わされる. RPE の演算はシフト不変性を持つことから,訓練データの分布外の長さの系列に対して, APE の性能を上回ることが報告されている $[6,5,7]$. しかし,注意機構を用いて位置を表現する都合上,RPE は APE よりも計算コストが大きい3)。また, RPE は注意機構の改変を伴うため, 注意機構自体の軽量化を試みる方法論 $[10,11]$ との組み合わせが困難である. ## 2.3 シフト付き絶対位置埋め込み (SHAPE) 本研究では, Transformerにおいてシフト不変性を実現するための方法の一つとして, SHAPE(図 1c) の効果を検証する.RPE の課題を踏まえ, SHAPE では Transformer の注意機構の改変を回避しつつ, APE と同等の計算コストの実現を目指す. 訓練中, SHAPE は入出力系列の各位置インデックスを, 乱数から生成したオフセットでシフトさせる.このシフト操作は, 絶対位置の代わりに相対位置を利用した学習をモデルに強制することに相当する. その結果, モデルがシフト不変性を持つ関数を学習すると期待できる. いま,離散一様分布 $U\{0, K\}$ からサンプルしたオフセットを $k$ で表す.ここで, $K$ は最大オフセット幅であり, $k$ はエポックごとに各系列について独立にサンプルされる. SHAPE は PE $(i, m)$ (式 1 )を次式で置き換えることで実現できる. $ \mathrm{PE}(i+k, m) $ SHAPE は APE を用いる任意のモデルに適用可能である. また, シフト操作は非常に軽量であるた ^{3}$ Narang ら [5] は, RPE は APE よりも最大で $25 \%$ 遅いことを報告している. } め, SHAPE は APE と同等の速度で動作すると期待できる. 今回, $k$ は入力系列と出力系列について独立にサンプルした.ここで, 仮に $K=0$ とすると SHAPE は APE に帰着することに注意されたい4). ## 3 実験 実験では,機械翻訳タスクを題材として,SHAPE を組み合わせた Transformer がシフト不変性を獲得することを確認する(第 3.2 節)。その後, SHAPE の性能を既存の位置表現と比較する (第 3.3 節). ## 3.1 実験設定 データセットWMT2016 英独データセットを訓練データとして用いた.トークン化やサブワード化 [12] 処理は先行研究の設定に従った [13]. 開発セットと評価セットとして,それぞれ newstest2010-2013 と newstest2014-2016を用いた。 実験には,以下の 3 つの設定を用いた: (i) VANILLA 先行研究 $[1,13]$ と同等の設定である. (ii) ExtrapOLATE シフト不変性を持つモデルは,外挿性能の観点で評価することが一般的である $[7,14]$. 我々は, 先行研究 [6] に従い, VANILLA の訓練データから入力系列か出力系列のサブワード長が 50 を超えるような系列対を取り除き,新たに訓練データを作成した。また, 開発セットと評価セットにはVANILLA と同じものを用いた。 (iii) INTERPOLATE 今回, 我々は各モデルを内挿性能の観点でも評価することを試みる。ここで,内挿性能を, 訓練中に観測した長さの系列に関して汎化する能力として定義する. 本研究では, この内挿性能を長い系列を用いて評価するが,その理由は以下の通りである. 長い系列を含むようなデータセットでは,各トー クンが各位置に関して䟱な形で分布する(位置のスパースネス問題).つまり, 開発セットや評価セットにおいて,系列中のある位置に登場するトークンは,訓練データ中で同じ位置にほとんど登場しないと考えられる。このとき, 絶対位置を用いる場合はトークンと位置の組み合わせに対する過学習が生じると考えられるが,シフト不変性を持つ位置表現はこの過学習を抑制できる可能性がある. 本研究では, 対訳データに含まれる独立した系列を結合することで, 長い系列を人工的に作成した。具体的には,VANILLAに含まれる隣り合う系列  表 1 INTERPOLATE の訓練データよりサンプリングした 1 万系列対で計測した BLEUスコア 図 2 各オフセット $k \in\{0,100,250,500\}$ を用いて計算した符号化器の隠れ層間の類似度 $X_{1}, \ldots, X_{10}$ と $Y_{1}, \ldots, Y_{10}$ を, 専用のトークン $\langle$ sep $\rangle$ を用いて結合した. 開発セットと評価セットにも同じ処理を加えてデータを作成した。 モデル Transformer-base[1]に, APE, SHAPE とRPE を組み合わせて実験をおこなった. APE と RPE にはそれぞれ Sinusoidal 符号化と Shaw ら [3] の手法を用いた。実装には OpenNMT-py[15] を用いた。 SHAPE の最大オフセット $K$ は 500 , RPE の最大相対距離は先行研究 $[3,6]$ に従い 16 とした. 各モデルの性能は sacreBLEU[16] による detokenized BLEU で評価した5). ## 3.2 実験 $1 :$ シフト不変性の確認 本実験では, SHAPEがシフト不変性を獲得していることを INTERPOLATE 上で訓練した APE と SHAPE を用いて,定量的・定性的な観点で検証する。 定量評価:訓練データ上の BLEUスコア本実験では系列間の順序に対するモデルの頑健性を評価する. 具体的には, INTERPOLATE の訓練データからサンプルした 1 万系列対を用いて,系列間で順序を入れ替えた場合と, 入れ替えなかった場合の性能を比較する.訓練データを用いるのは,未知の系列による影響を除外し, 系列間の順番の影響のみを対象とした評価をおこなうためである。 評価手順は次のとおりである. まず,元の系列 Original $\left(X_{1}, \ldots, X_{10}\right)$ から, 先頭の系列を末尾に移動させて, 系列 Swapped $\left(\boldsymbol{X}_{2}, \ldots, \boldsymbol{X}_{10}, \boldsymbol{X}_{1}\right)$ を作成する. 次に Original と Swapped を訓練済みのモデルでデコードし,それぞれ $\boldsymbol{Y}_{1}^{\prime}, \ldots, \boldsymbol{Y}_{10}^{\prime}$ と $\boldsymbol{Y}_{2}^{\prime}, \ldots, \boldsymbol{Y}_{10}^{\prime}, \boldsymbol{Y}_{1}^{\prime}$ を得る。最後に, $Y_{1}^{\prime}$ の BLEU スコアを評価する。 実験結果を表 1 に示した。ここで, Original から Swapped への性能の減少幅は, SHAPE の方が APE $ に示した. } 表 2 各位置表現の BLEUスコア :†: 5 つの乱数シードの平均値. *: 訓練不能であったため, 值を掲載していない.相対速度は APE からの相対速度を表す。 よりも小さいことから,SHAPE がシフト不変性を獲得していることが示唆される. 定性評価:隠れ層の類似度本実験では, SHAPE がシフト不変性を獲得していることを定性的に確認する. 図 2 はオフセット $k$ がAPE と SHAPE を用いた訓練済みモデルの隠れ層に与える影響を表す。具体的には, 入力系列 $X$ について, 各オフセット $k \in\{0,100,250,500\}$ を用いて訓練済みモデルの符号化器から隠れ層を計算した. その後, 異なるオフセットから計算した隠れ層 $\boldsymbol{h}_{i}^{k_{1}}, \boldsymbol{h}_{i}^{k_{2}} \in \mathbb{R}^{D}$ について, コサイン類似度(sim)を計算し,位置方向に平均を求めた. つまり, $\frac{1}{I} \sum_{i=1}^{I} \operatorname{sim}\left(\boldsymbol{h}_{i}^{k_{1}}, \boldsymbol{h}_{i}^{k_{2}}\right)$ である. 図 2 より, SHAPE の符号化器はシフト不変性を獲得できているとわかる.これは SHAPE において, オフセット $k$ によらず,類似度がほぼ 1.0 に張り付いているためである. ここで,APE の類似度が同様の傾向を示さないことから,シフト不変性は自明に獲得可能な性質ではないと確認できる. ## 3.3 実験 2 : 位置表現間の性能比較 各位置表現の性能を評価した結果を表 2 に示した.また, APEからの性能向上幅を入力系列の長さ別に図示した結果を図 3 に示した. VANILLAの結果 3 つのモデル全てがほとんど同等の性能を示した. APE がRPE と同等の性能を示すという結果は既存研究の知見 [3] とは一致しないものの, これは実験に使った実装の違いによるものだと考えられる.実際,Transformer の改良に関する知見は,特定の実装に依存することが多い旨が Narang らによって報告されている [5]. ExtRAPOLATE の結果評価セットにおいて, RPE の性能(29.86)が APE(29.22)を上回った。また, SHAPE がRPE と同等の性能を達成した (29.80). 図 (a) データセット: Extrapolate (b) データセット: Interpolate 図 3 APE からの BLEU スコアの向上幅 : 開発セットと評価セットを用いた. 灰色の背景色は対応する長さの系列が訓練データ中に存在しないことを示す. $3 \mathrm{a}$ より,この性能向上は, 訓練データよりも長い系列(外挿)によるものだとわかる。つまり,RPE と SHAPE は APE の外挿性能を改善できている. また, 図 $3 \mathrm{a}$ には, SHAPE の最大オフセット $K$ を開発セット上で調整した結果を示した. $K=40$ としたときに,開発セットと評価セットの性能はそれぞれ 23.12 と 29.86 となり, RPE を上回ったことから, SHAPE はRPE よりも良い位置表現となりえる. INTERPOLATE の結果 RPEの学習には著しく時間がかかってしまい, 現実的な時間で訓練を終えることができなかったため, 值を載せていない6). 本デー タにおいても,評価セット上で SHAPE(39.09)は APE(38.23)を上回る性能を示した. 図 $3 b$ より, SHAPE は入力系列の長さに依存せず,一貫して性能向上を果たしている.この結果から, SHAPE は Transformer の内挿性能も改善できるとわかる. ## 4 分析 図 3 において, SHAPE はAPE を BLEU スコアで上回った. しかし, BLEU スコアでは (1) N-gramに基づく参照訳との一致率と (2) Brevity Penalty による出力系列の長さを同時に評価しているため, 出力がどの側面で改善したのかは明らかではない. そこで本節では, 前者の一致率に着目するため, 参照訳を用いてトークン単位のスコアを計算し,モデル間の比較をおこなった. 具体的には, 系列のペア $(\boldsymbol{X}, \boldsymbol{Y})$ に対して,訓練済みモデルを用いてスコア(負の対数尤度) $s_{j}$ を各正解トークン $y_{j}$ について計算し ^{6)}$ RPE を INTERPOLATE 上で動かした場合, パラメータの更新が APE やSHAPE と比較して 20 倍程度低速だった。 } (a) データセット: Extrapolate (b) データセット: Interpolate & & $401-500$ & 501- \\ 図 4 参照訳を用いたトークン単位の分析 : 各セルの値は, 正解トークンに対して SHAPE が APE よりも高いスコア(負の対数尤度)を付与できた割合を表す. た7). ここで,モデルは正解トークンにより高いスコアを付与することが望ましい. 図 4 は,正解トー クンに対して SHAPE が APE よりも高いスコアを付与した割合を, 復号化器の位置別に図示した結果を表す.この分析には開発セットを用いた. EXTRAPOLATE : SHAPE はトークンの一致率の向上に寄与図 $4 \mathrm{a}$ の右側(訓練データよりも長い系列)において, SHAPEがAPE を大きく上回っている.この結果から, SHAPE が外挿における N-gram の一致率の向上に貢献していることが示唆される. INTERPOLATE : SHAPE は低頻度語の予測に有効図 4bに示した通り, SHAPE の性能が APE を一貫して上回った。モデル間の性能差は図の下部,つまり低頻度語に対応する箇所において特に顕著である.訓練中, SHAPE は同じ系列対に対して,エポックごとに異なる位置表現を用いて学習をおこなうが,これは一種のデータ拡張として解釈できる. 先述の位置のスパースネス問題(第3.1 節)は低頻度語において特に生じやすいため, SHAPE によるデータ拡張が効果的であったと考えられる。 ## 5 おわりに 本研究では APE の簡単な亜種である SHAPE の調査をおこなった. 実験では, SHAPE がRPE と同等の性能を発揮しつつ, APE と同等の速度で動作することを示した. SHAPE は数行で実装可能であるため,既存の実装に簡単に導入できる。故に,SHAPE は APE とRPEの代替手法となりえると期待できる.  ## 謝辞 本研究の一部 (基礎研究) は JST ムーンショット JPMJMS2011 の助成を受けたものです. ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention Is All You Need. In Advances in Neural Information Processing Systems 30 (NIPS 2017), pp. 5998-6008, 2017. [2] Jonas Gehring, Michael Auli, David Grangier, Denis Yarats, and Yann N. Dauphin. Convolutional Sequence to Sequence Learning. In Proceedings of the 34th International Conference on Machine Learning (ICML 2017), pp. 1243-1252, 2017. [3] Peter Shaw, Jakob Uszkoreit, and Ashish Vaswani. SelfAttention with Relative Position Representations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers) (NAACL 2018), pp. 464-468, 2018. [4] Philipp Dufter, Martin Schmitt, and Hinrich Schütze. Position Information in Transformers: An Overview. arXiv preprint arXiv:2102.11090, 2021. [5] Sharan Narang, Hyung Won Chung, Yi Tay, William Fedus, Thibault Fevry, Michael Matena, Karishma Malkan, Noah Fiedel, Noam Shazeer, Zhenzhong Lan, et al. Do Transformer Modifications Transfer Across Implementations and Applications? arXiv preprint arXiv:2102.11972, 2021 . [6] Masato Neishi and Naoki Yoshinaga. On the Relation between Position Information and Sentence Length in Neural Machine Translation. In Proceedings of the 23rd Conference on Computational Natural Language Learning (CoNLL 2019), pp. 328-338, 2019. [7] Benyou Wang, Lifeng Shang, Christina Lioma, Xin Jiang, Hao Yang, Qun Liu, and Jakob Grue Simonsen. On Position Embeddings in BERT. In Proceedings of the 9th International Conference on Learning Representations (ICLR 2021), 2021. [8] Ian Goodfellow, Yoshua Bengio, and Aaron Courville. Deep Learning, chapter 7.4, pp. 233-234. MIT Press, 2016. http://www. deeplearningbook.org. [9] Mor Geva, Ankit Gupta, and Jonathan Berant. Injecting Numerical Reasoning Skills into Language Models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL 2020), pp. 946-958, 2020. [10] Nikita Kitaev, Łukasz Kaiser, and Anselm Levskaya. Reformer: The Efficient Transformer. In Proceedings of the 8th International Conference on Learning Representations (ICLR 2020), 2020. [11] Yi Tay, Mostafa Dehghani, Dara Bahri, and Donald Metzler. Efficient Transformers: A Survey. arXiv preprint arXiv:2009.06732, 2020. [12] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neu- ral Machine Translation of Rare Words with Subword Units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (ACL 2016), pp. 1715-1725, 2016. [13] Myle Ott, Sergey Edunov, David Grangier, and Michael Auli. Scaling Neural Machine Translation. In Proceedings of the Third Conference on Machine Translation (WMT 2018), pp. 1-9, 2018. [14] Benjamin Newman, John Hewitt, Percy Liang, and Christopher D. Manning. The EOS Decision and Length Extrapolation. In Proceedings of the Third BlackboxNLP Workshop on Analyzing and Interpreting Neural Networks for NLP (BlackboxNLP 2020), pp. 276-291, 2020. [15] Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, and Alexander Rush. OpenNMT: Open-Source Toolkit for Neural Machine Translation. In Proceedings of ACL 2017, System Demonstrations (ACL 2017), pp. 67-72, 2017. [16] Matt Post. A Call for Clarity in Reporting BLEU Scores. In Proceedings of the Third Conference on Machine Translation: Research Papers (WMT 2018), pp. 186191, 2018. [17] Christian Szegedy, Vincent Vanhoucke, Sergey Ioffe, Jon Shlens, and Zbigniew Wojna. Rethinking the Inception Architecture for Computer Vision. In 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2016), pp. 2818-2826, 2016. ## A ハイパーパラメータ 表 3 ハイパーパラメータの一覧. & \\ ## B 各 newstest の BLEU スコア 表 4 に各モデルを newstest2010-2016を用いて評価した結果を示す8)9). 表 4 newstest2010-2016 上の BLEU スコア : 平均は全 newstest のマクロ平均值を示す. † : 5 つの乱数シードの平均値. * : 訓練不能であったため,值を掲載していない。相対速度は APE からの相対速度を表す. ^{8)}$ VANILLA と ExTRAPOLATE の評価における sacreBLEU のハッシュ : BLEU+case.mixed+lang.en-de+numrefs. $1+$ smooth. exp +test.wmt $\{10,11,12,13,14 /$ full,15,16\}+tok.13a+version.1.5.0. }^{9)}$ INTERPOLATE の評価における sacreBLEU のハッシュ:BLEU+case.mixed+numrefs.1+smooth.exp+tok.13a+version.1.5.0(開発セットと評価セットも訓練データと同様の結合処理を加えているため, sacreBLEU 内部の参照訳の代わりに手動で参照訳を与えている.詳細については第 3.1 節の説明を参照されたい. )
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH2-8.pdf
# 線型部分空間に基づく学習済み単語埋込空間上の集合演算 石橋 陽一 1 横井祥 2,3 須藤克仁 $1,3,4$ 中村哲 1,3 1 奈良先端科学技術大学院大学 2 東北大学 ${ }^{3}$ 理研 AIP 4 科学技術振興機構さきがけ \{ishibashi.yoichi.ir3, sudoh, s-nakamura\}@is.naist.jp yokoi@tohoku.ac.jp ## 概要 単語埋込は自然言語処理の基盤的な道具であり単語単位の表現学習は進んでいる。一方で加法構成に代表される意味計算は、単語を集合として扱っていながら集合の演算までは定義できていない。これを現代の単語埋込空間の枠組みで表現できれば集合と埋込表現の両方の特性を反映した優れた表現を作ることができる。そこで本研究では事前学習済み単語埋込空間で集合・集合演算を教師なしで表現することを目指した。我々は線型部分空間に基づく集合演算である量子論理に着目し、埋込空間で線型部分空間が言語的な集合演算として機能することを実証し、文の意味的類似性タスクへ応用した。 ## 1 はじめに 単語埋込は現代の自然言語処理の基盤技術であり GloVe [1] や word2vec [2] 等の静的表現や、BERT [3]等の動的表現が、あらゆる種類の言語処理タスクの性能を大きく押し上げた [4]。 単語埋込は単語に対して与えられる表現だが、実際の処理対象は単語の集合であることが多い。例えば、単語間の意味の階層構造を見出すことができる [5]。例えば red, blue, green, ... からなる集合は Color というクラスを表していると捉えられる。こうした概念集合に対する計算は自然言語処理のために重要である [6]。また、句、文、文書など単語より大きな単位の計算において最も基本的で強力なアプローチは、これらを単語集合とみなすことである。例えば文の類似性を計算するタスク(STS)[7] における基本的な指針では、文の類似性を単語集合の重複度 (意味の重複度) に帰着させる [8]。 このように単語集合の計算には強いニーズがある。単語をシンボルで表現していた時代には単語集合を形式的な集合として扱っていたが [9]、単語をベクトルで表現する場合の単語 “集合” の扱いは近似的なものに留まっている。例えば句や文の表現と して単語ベクトルの和を用いる加法構成 [10] は強力であるが、単語 “集合”としての性質がどのように入っているかは不明である。また、単語集合の重複率を計算するためにこれを適合率・再現率 [11] や最適輸送コスト $[12,13]$ 帰着させる向きもあるが、“集合” の計算としては近似的なアプローチに過ぎない。 そこで本研究では、現代の単語埋込の枠組みで集合演算を再度定式化することを試み、事前学習済み単語埋込空間上で集合および集合演算が線型部分空間で表現できることを実証した。 ## 2 集合を扱うために必要な演算 本研究では和集合や共通部分など集合を扱う各種演算を、単語埋込空間で近似的にかつ単語埋込のリッチな情報を活用しつつ教師なしで計算することを目指す。具体的には、単語埋込空間上で帰属関係 $ \begin{gathered} \text { Color }=\{\text { red, blue }, \ldots\}, \text { Fruit }=\{\text { apple, peach }, \ldots\} \\ \text { orange } \in \text { Color } \cap \text { Fruit } \end{gathered} $ や集合間類似度(Jaccard 係数) $ \begin{aligned} \mathrm{A}=\{\mathrm{A}, \text { boy }, \text { walk, } \ldots\}, \mathrm{B} & =\{\text { The, child, run, } \ldots\} \\ \operatorname{Jaccard}(\mathrm{A}, \mathrm{B}) & =\frac{|\mathrm{A} \cap \mathrm{B}|}{|\mathrm{A} \cup \mathrm{B}|} \end{aligned} $ を計算可能にすることを目指す。これらの計算を実現するために必要な演算は以下の通り(表 1 左)。 ・元と集合の表現:元となる単語とそれをまとめた対象である集合を埋込空間で表現する。 - 集合に対する演算:ひとつまたは複数の集合に対して、補集合・和集合・共通部分を計算する。 ・帰属関係の計算 : 元が集合に属しているかどうかを判定する。 - 集合の濃度の計算 : 集合に含まれる元の数(濃度)を計算する(式 (4))。 次のセクションでこれらの表現や計算を単語埋込空間で近似的に実現する方法を提案する。 表 1 集合と埋込空間での表現の対応 & & \\ ## 3 線型部分空間による集合表現 2 節で示した集合演算を埋込空間で実現する方法を述べる。集合演算として必要な性質を保証しつつ単語埋込空間の幾何的な特性を活用するため、本研究では量子論理を単語埋込空間へ適用する。 ## 3.1 量子論理 量子論理とは量子力学的現象を表現する理論の 1 つである [14]。粒子などの状態を元とした集合の処理という要請に対して、量子論理は集合を線型部分空間の言葉で記述し、さらにド・モルガンの法則、二重否定などの成立を理論的に保証している。 ## 3.2 単語埋込空間での集合演算 量子論理はヒルベルト空間の上で記述されるが、単語埋込空間(ユークリッド空間)もヒルベルト空間でありほとんどの演算はそのままユークリッド空間での表現に翻訳することができる。不足している演算(帰属の度合い、濃度)に関しては量子論理と一貫した方法を提案する。提案法のまとめは表 1 の通り。このあと詳細について述べる。 元と集合の表現単語集合 $A$ を $\left.\{\mathrm{w}_{1}, \mathrm{w}_{2}, \ldots\right.\}$ 、単語 $\mathrm{w}$ に対応する単語ベクトルを $\boldsymbol{v}_{w}$ で表す。ここで、我々がまず表現したい対象は元と集合であった。本研究では、元である単語 $\mathrm{w}$ を単語ベクトル $\boldsymbol{v}_{w}$ で、単語集合 $\mathrm{A}=\left.\{\mathrm{w}_{1}, \mathrm{w}_{2}, \ldots\right.\}$ を単語ベクトルが張る線型部分空間で表現する。 $ \mathbb{S}_{\mathrm{A}}=\mathbb{S}_{\left.\{\mathrm{W}_{1}, \mathrm{w}_{2}, \ldots\right.\}}:=\operatorname{span}\left.\{\boldsymbol{v}_{w_{l}}, \boldsymbol{v}_{w_{2}}, \ldots\right.\} $ 以降、線型部分空間を単に「部分空間」と呼ぶ。 集合に対する演算ある集合 A の補集合 $\bar{A}$ は、部分空間 $\mathbb{S}_{\mathrm{A}}$ の直交補空間 $\left(\mathbb{S}_{\mathrm{A}}\right)^{\perp}$ で表現する。 $ \mathbb{S}_{\overline{\mathrm{A}}}=\left(\mathbb{S}_{\mathrm{A}}\right)^{\perp}:=\left.\{\boldsymbol{u} \mid \exists \boldsymbol{v} \in \mathbb{S}_{\mathrm{A}}, \boldsymbol{u} \cdot \boldsymbol{v}=0\right.\} $ ある集合 $A$ との和集合 $A \cup B$ は、部分空間 $\mathbb{S}_{A}$ $と \mathbb{S}_{\mathrm{B}}$ の和空間 $\mathbb{S}_{\mathrm{A}}+\mathbb{S}_{\mathrm{B}}$ で表現する。 $ \mathbb{S}_{\mathrm{A} \cup \mathrm{B}}=\mathbb{S}_{\mathrm{A}}+\mathbb{S}_{\mathrm{B}}:=\left.\{\boldsymbol{u}+\boldsymbol{v} \mid \boldsymbol{u} \in \mathbb{S}_{\mathrm{A}}, \boldsymbol{v} \in \mathbb{S}_{\mathrm{B}}\right.\} $ ある集合 $A$ と $B$ 共通部分 $A \cap B$ は、部分空間 $\mathbb{S}_{\mathrm{A}}$ と $\mathbb{S}_{\mathrm{B}}$ の共通部分 (交空間) $\mathbb{S}_{\mathrm{A}} \cap \mathbb{S}_{\mathrm{B}}$ で表現する。 $ \mathbb{S}_{\mathrm{A} \cap \mathrm{B}}=\mathbb{S}_{\mathrm{A}} \cap \mathbb{S}_{\mathrm{B}}=\left.\{\boldsymbol{v} \mid \boldsymbol{v} \in \mathbb{S}_{\mathrm{A}}, \boldsymbol{v} \in \mathbb{S}_{\mathrm{B}}\right.\} $ 帰属関係の計算最も簡単な方法として、単語の集合に対する帰属関係(例: boy $\in$ Male)は、ベクトルの部分空間に対する帰属関係 (例: $\boldsymbol{v}_{\text {boy }} \in \mathbb{S}_{\text {Male }}$ ) で表現できる。ただし一見自然なこの方法はべクトル空間の持つ「近さ」の概念を活用しきれない。例えば Male 集合に含まれていない単語 nephew に関して、v $\boldsymbol{v}_{\text {nephew }}$ が $\mathbb{S}_{\text {Male }}$ と非常に近い位置に存在していたとしても「帰属関係はない」と 2 值で判断されてしまう。そこで本研究では、ベクトル $v_{w}$ と部分空間 $\mathbb{S}_{\mathrm{A}}$ の近さに応じて連続値を返す帰属度の関数 $\operatorname{Member}\left(\mathbb{S}_{\mathrm{A}}, \boldsymbol{v}_{w}\right)$ を定義する。 $ \begin{gathered} \theta_{\mathbb{S}_{\mathrm{A}}, \boldsymbol{v}_{w}}=\min \left.\{\left.\arccos \left(\frac{\left|\boldsymbol{u} \cdot \boldsymbol{v}_{w}\right|}{\|\boldsymbol{u}\|\left.\|\boldsymbol{v}_{w}\right.\|}\right) \right.\rvert\, \boldsymbol{u} \in \mathbb{S}\right.\} \\ \operatorname{Member}\left(\mathbb{S}_{\mathrm{A}}, \boldsymbol{v}_{w}\right)=\cos \theta_{\mathbb{S}_{\mathrm{A}}, \boldsymbol{v}_{w}} \in[0,1] \end{gathered} $ $\theta_{\mathbb{S}_{\mathrm{A}}, \boldsymbol{v}_{w}}$ は $\boldsymbol{v}_{w}$ と $\mathbb{S}_{\mathrm{A}}$ の「なす角」(第一正準角)で、単語埋込空間で単語ベクトル同士のなす角が意味的類似度を表現することを間接的に利用することができる。 $\boldsymbol{v}_{w} \in \mathbb{S}_{\mathrm{A}}$ の場合帰属度は 1 で、 $\boldsymbol{v}_{w}$ が $\mathbb{S}_{\mathrm{A}}$ と直交する場合は 0 である。 集合の濃度の計算ある単語集合 A の濃度(単語数)を部分空間 $\mathbb{S}_{\mathrm{A}}$ の次元 $\operatorname{dim} \mathbb{S}_{\mathrm{A}}$ で表現する。 ## 3.3 Subspace Jacccard 和集合・共通部分・濃度に関する部分空間での計算方法を用いれば、Jaccard 係数(式 (4))を部分空間で計算できる。すなわち、単語ベクトル集合に対する重複度を自然に計算することができる。この新しい尺度を SubspaceJacccard と呼ぶ。 $\operatorname{SubspaceJacccard}\left(\mathbb{S}_{\mathrm{A}}, \mathbb{S}_{\mathrm{B}}\right)=\frac{\operatorname{dim} \mathbb{S}_{\mathrm{A}} \cap \mathbb{S}_{\mathrm{B}}}{\operatorname{dim} \mathbb{S}_{\mathrm{A}}+\mathbb{S}_{\mathrm{B}}} \in[0,1]$ 表 2 単語集合データセットの統計情報。「集合」は Male $=\{$ king, man, $\ldots\}$ のような集合演算を適用していない集合を表す。\#正例、\#負例は集合あたりの平均要素数。 ## 4 埋込空間上の集合演算の実証 提案法で作った部分空間 $\mathbb{S}_{\text {Male }}$ は、単語集合 Male $=\{$ king, man,$\ldots\}$ 全体が表す「男性的」という意味を良く表現できているだろうか?これを検証するため定量的・定性的両面から実験を行った。 ## 4.1 実験設定 この実験で共通する設定について述べる。 単語埋込 Common Crawl (840B tokens) で事前学習済みの 300 次元 GloVe ${ }^{1)}$ と Google News で事前学習済みの 300 次元 word2vec ${ }^{2}$ を用いた。 データセット検証のため、本研究ではある単語集合に対して帰属関係が成立する単語(正例) $\mathscr{P}$ と、成立しない単語(負例)N のデータを作成した (表 2)。正例 $\mathscr{P}$ のデータ $(S, w)$ は集合 $S$ 、集合の元である単語 $\mathrm{w} \in \mathrm{S}$ からなり (例 (Male, boy) $\in \mathscr{P}$ )、負例 $\mathcal{N}$ のデータ ( $\left.\mathrm{S}, \mathrm{w}^{\prime}\right)$ は集合と集合の元でない単語 $\mathrm{w}^{\prime} \notin \mathrm{S}$ からなる(例 (Male, apple) $\in \mathcal{N}$ )。作成方法の詳細は付録 A に記載する。 ## 4.2 部分空間外のベクトルの評価 提案法が単語集合を良く表現するなら、帰属関係 boy $\in$ Male や apple $\notin$ Male が提案法でも成立するはずである。これ検証するため次の実験を行った。 検証方法 Male 集合を例に説明する。まず Male 集合から単語 boyを取り除いた空間 $\mathbb{S}_{\text {Male } \backslash\{\text { boy }\}}$ を作る。次にこの空間が、取り除いた boyを意味的に含んでいるかを帰属度 Member $\left(\mathbb{S}_{\text {Male } \backslash\{\text { boy }\}}, \boldsymbol{v}_{\text {boy }}\right)$ で確認する。この値が Male に含まれていない単語、例えば apple に対する帰属度 Member $\left(\mathbb{S}_{\text {Male } \backslash \text { bboy }\}}, \boldsymbol{v}_{\text {apple }}\right.$ ) よりも高ければ、提案法の Male 集合の表現 $\mathbb{S}_{\text {Male }}$ は Male の意味を良く捉えていると言える。同様の実験を補集合・和集合・共通部分でも行う。  表 3 帰属度の平均。括弧内は標本標準偏差。 例えば $\operatorname{Member}\left(\mathbb{S}_{\text {Color } \backslash \text { forange }\}} \cap \mathbb{S}_{\text {Fruit } \mid\{\text { orange }\}}, \boldsymbol{v}_{\text {orange }}\right)$ が $\operatorname{Member}\left(\mathbb{S}_{\text {Color } \backslash\{\text { orange }\}} \cap \mathbb{S}_{\text {Fruit } \mid\{\text { orange }\}}, \boldsymbol{v}_{\text {rice }}\right)$ より高いことを確かめる。 評価尺度正例 $(S, w) \in \mathscr{P}$ の集合 $S$ の部分空間 $\mathbb{S}$ に $\boldsymbol{v}_{w}$ が帰属し、負例 $\left(\mathrm{S}, \mathrm{w}^{\prime}\right) \in \mathcal{N}$ では $\mathbb{S}$ に $\boldsymbol{v}_{w^{\prime}}$ が帰属しないことを、平均帰属度の差 $\Delta$ で評価する。 $\frac{1}{|\mathscr{P}|} \sum_{(\mathrm{S}, \mathrm{W}) \in \mathscr{P}} \operatorname{Member}\left(\mathbb{S}, \boldsymbol{v}_{w}\right)-\frac{1}{|\mathcal{N}|} \sum_{\left(\mathbb{S}, \mathrm{w}^{\prime}\right) \in \mathcal{N}} \operatorname{Member}\left(\mathbb{S}, \boldsymbol{v}_{w^{\prime}}\right)$ これが正の值であれば部分空間で boy $\in$ Male や apple $\notin$ Male が表現できていることが示唆される。 実験結果結果(表 3)から、「正例との帰属度」「負例との帰属度」に差があり、量子論理が単語集合・集合演算を表現できていることがわかった。 ## 4.3 部分空間内のベクトルの評価 提案法が単語集合を良く表現できているなら「男性的」集合表現 $\mathbb{S}_{\text {Male }}$ の中には「男性的」なべクトル $v_{b o y}$ が含まれているはずである。そこで、提案法で作った部分空間内に含まれているべクトル(単語ベクトルとは限らない)の最近傍単語を確認する。 検証方法この実験では正例の単語集合のみ使用する(表 2)。ある単語集合の単語の $50 \%$ を使用して部分空間を張り、それ以外の単語を検証用とした。ここでは、Color $\cap$ Fruit 集合を例にとり説明する。まず部分空間 $\mathbb{S}_{\text {Color }} \cap \mathbb{S}_{\text {Fruit }}$ に含まれるべクトル $v$ を無作為にサンプリングする。単語埋込の語彙全体の単語ベクトル集合に対して $\boldsymbol{v}$ の最近傍単語べクトル $\boldsymbol{v}_{w}$ を取得し、最近傍単語 $\mathrm{w}$ が Color $\cap$ Fruit $の$元らしいかを確認する。例えば最近傍単語が orange で部分空間を張る単語でないならば、色と果物の集合の共通部分が良く表現できていると言える。この検証をいくつかの集合におこなった。 実験結果結果は表 4 の通り。word2vec の結果については付録 Bを参照されたい。表中の「部分空間表現の近傍単語」は部分空間を張る際に使用していない単語のみ列挙している。この結果は単語集合の言語的特徴が部分空間に良く反映できていることを 表 4 単語集合の部分空間内のベクトルと $\cos$ 類似度上位 3 件の単語。使用した単語集合は Male $=\{$ his, male, ... $\}$ 、 Female $=\{$ queen, heroine,$\ldots\} 、$ Color $=\{$ purple, white,$\ldots\} 、$ Fruit $=\{$ lime, grape,$\ldots\} \circ$ 表 5 各 STS タスクの相関係数 示している。例えば、 $\mathbb{S}_{\text {Male }}{ }^{\perp}$ 内のベクトルは Male 以外の単語、 $\mathbb{S}_{\text {Color }} \cap \mathbb{S}_{\text {Fruit }}$ 内のベクトルは色と果物に共通する orange と類似しており、 $\mathbb{S}_{\text {Male }}+\mathbb{S}_{\text {Female }}$ 内のベクトルは男女両方の特徴を持っている。 ## 5 実験: 教師なし文類似度タスク 単語埋込空間上の集合演算を用いた集合間類似度を教師なし文類似度タスク (STS) に応用し、埋込空間の集合間類似度として機能するかを確かめる。 検証方法 STS では 2 の文(単語集合)の類似度を算出し人手評価との相関係数で評価する。 実験設定データセットは SemEval shared task の 2012-2016 [7, 15, 16, 17, 18] のものを使用した。ベー スラインは平均ベクトルの cosine 類似度 (Avg-cos) と [8] の DynaMaxJaccard 3) 、Skip-Thought Vector [19] を使用した。評価尺度にはピアソンの相関係数を使用した。単語埋込は 4 節と同じ GloVe、word2vec、 そして BERT-base [3] の最終層のトークンに対応する動的埋込を使用した。なお教師なしSTS のためファインチューニングはおこなっていない。 実験結果結果は表 5 の通り。埋込空間での傾向は BERT よりも GloVe で提案法の効果が高かった word2vec での結果も GloVe と同様な傾向ため付録 B に記載する。GloVeでは提案法が全てのタスクで加法構成に基づく手法(Avg-cos)を上回った。量子論理によって集合と集合演算を部分空間で表現したこ  とで、静的埋込において集合間類似度を単語埋込空間上の演算へ拡張できたことを示している。 ## 6 関連研究 ここでは埋込空間で集合の表現・演算を試みている先行研究を概観し、提案法との違いを述べる。 教師なし集合表現 [8] は Fuzzy 集合の考えに基づき単語埋込空間上で集合および集合演算を Fuzzy Bag of Words という方法で表現している。 BERTScore [11] は集合間の適合率と再現率を内積行列を使って近似的にモデル化している。Word Rotator's Distance [12] は単語ベクトル集合間の最適輸送に基づき類似度をモデル化した。これらの研究は擬似的な集合表現、もしくは一部の集合演算の実現のみに留まっている。それに対し提案法は線型部分空間に基づく各集合演算の表現と集合に関する法則の成立が理論的に保証されている強みがある。 教師あり集合表現 DeepSet [6] は集合データに対する教師あり表現学習の代表的な手法である。本研究では事前学習済み埋込空間上で教師なしで単語集合・集合演算を表現した。 ## 7 結論 本研究では、単語埋込の枠組みによる集合演算を線型部分空間を用いて定式化した手法を提案し、単語埋込空間において集合・集合演算を実現した。 ## 謝辞 本研究は JST さきがけ (JPMJPR1856)、JST ACT-X (JPMJAX200S)、奈良先端科学技術大学院大学支援財団支援事業の支援を受けたものです。 ## 参考文献 [1] Jeffrey Pennington, Richard Socher, and Christopher D. Manning. Glove: Global Vectors for Word Representation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, EMNLP 2014, October 25-29, 2014, Doha, Qatar, A meeting of SIGDAT, a Special Interest Group of the ACL, pp. 1532-1543, 2014. [2] Tomas Mikolov, Ilya Sutskever, Kai Chen, Gregory S. Corrado, and Jeffrey Dean. Distributed Representations of Words and Phrases and their Compositionality. In Advances in Neural Information Processing Systems 26: 27th Annual Conference on Neural Information Processing Systems 2013. Proceedings of a meeting held December 5-8, 2013, Lake Tahoe, Nevada, United States. pp. 3111-3119, 2013 . [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Jill Burstein, Christy Doran, and Thamar Solorio, editors, Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, NAACL-HLT 2019, Minneapolis, MN, USA, June 2-7, 2019, Volume 1 (Long and Short Papers), pp. 4171-4186. Association for Computational Linguistics, 2019. [4] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel R. Bowman. GLUE: A Multi-Task Benchmark and Analysis Platform for Natural Language Understanding. In 7th International Conference on Learning Representations, ICLR 2019, New Orleans, LA, USA, May 6-9, 2019. OpenReview.net, 2019. [5] George A. Miller. WordNet: A Lexical Database for English. Commun. ACM, Vol. 38, No. 11, pp. 39-41, 1995. [6] Manzil Zaheer, Satwik Kottur, Siamak Ravanbakhsh, Barnabás Póczos, Ruslan Salakhutdinov, and Alexander J. Smola. Deep Sets. In Isabelle Guyon, Ulrike von Luxburg, Samy Bengio, Hanna M. Wallach, Rob Fergus, S. V. N. Vishwanathan, and Roman Garnett, editors, Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017, December 4-9, 2017, Long Beach, CA, USA, pp. 3391-3401, 2017. [7] Eneko Agirre, Daniel M. Cer, Mona T. Diab, and Aitor GonzalezAgirre. SemEval-2012 Task 6: A Pilot on Semantic Textual Similarity. In Eneko Agirre, Johan Bos, and Mona T. Diab, editors, Proceedings of the 6th International Workshop on Semantic Evaluation, SemEval@NAACL-HLT 2012, Montréal, Canada, June 7-8, 2012, pp. 385-393. The Association for Computer Linguistics, 2012. [8] Vitalii Zhelezniak, Aleksandar Savkov, April Shen, Francesco Moramarco, Jack Flann, and Nils Y. Hammerla. Don't Settle for Average, Go for the Max: Fuzzy Sets and Max-Pooled Word Vectors. In 7th International Conference on Learning Representations, ICLR 2019, New Orleans, LA, USA, May 6-9, 2019. OpenReview.net, 2019. [9] Christopher D. Manning and Hinrich Schütze. Foundations of statistical natural language processing. MIT Press, 2001. [10] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks. In Kentaro Inui, Jing Jiang, Vincent Ng, and Xiaojun Wan, editors, Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, EMNLP-IJCNLP 2019, Hong Kong, China, November 3-7, 2019, pp. 3980-3990. Association for Computational Linguistics, 2019. [11] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. BERTScore: Evaluating Text Generation with BERT. In 8th International Conference on Learning Representations, ICLR 2020, Addis Ababa, Ethiopia, April 26-30, 2020. OpenReview.net, 2020. [12] Sho Yokoi, Ryo Takahashi, Reina Akama, Jun Suzuki, and Kentaro Inui. Word Rotator's Distance. In Bonnie Webber, Trevor Cohn, Yulan He, and Yang Liu, editors, Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, EMNLP 2020, Online, November 16-20, 2020, pp. 2944-2960. Association for Computational Linguistics, 2020. [13] Matt J. Kusner, Yu Sun, Nicholas I. Kolkin, and Kilian Q. Weinberger. From Word Embeddings To Document Distances. In Francis R. Bach and David M. Blei, editors, Proceedings of the 32nd International Conference on Machine Learning, ICML 2015, Lille, France, 6-11 July 2015, Vol. 37 of JMLR Workshop and Conference Proceedings, pp. 957-966. JMLR.org, 2015. [14] Garrett Birkhoff and John Von Neumann. The logic of quantum mechanics. Annals of mathematics, pp. 823-843, 1936. [15] Eneko Agirre, Daniel M. Cer, Mona T. Diab, Aitor GonzalezAgirre, and Weiwei Guo. *SEM 2013 shared task: Semantic Textual Similarity. In Mona T. Diab, Timothy Baldwin, and Marco Baroni, editors, Proceedings of the Second Joint Conference on Lexical and Computational Semantics, ${ }^{*}$ SEM 2013, June 13-14, 2013, Atlanta, Georgia, USA, pp. 32-43. Association for Computational Linguistics, 2013. [16] Eneko Agirre, Carmen Banea, Claire Cardie, Daniel M. Cer, Mona T. Diab, Aitor Gonzalez-Agirre, Weiwei Guo, Rada Mihalcea, German Rigau, and Janyce Wiebe. SemEval-2014 Task 10: Multilingual Semantic Textual Similarity. In Preslav Nakov and Torsten Zesch, editors, Proceedings of the 8th International Workshop on Semantic Evaluation, SemEval@COLING 2014, Dublin, Ireland, August 23-24, 2014, pp. 81-91. The Association for Computer Linguistics, 2014. [17] Eneko Agirre, Carmen Banea, Claire Cardie, Daniel M. Cer, Mona T. Diab, Aitor Gonzalez-Agirre, Weiwei Guo, Iñigo LopezGazpio, Montse Maritxalar, Rada Mihalcea, German Rigau, Larraitz Uria, and Janyce Wiebe. SemEval-2015 Task 2: Semantic Textual Similarity, English, Spanish and Pilot on Interpretability. In Daniel M. Cer, David Jurgens, Preslav Nakov, and Torsten Zesch, editors, Proceedings of the 9th International Workshop on Semantic Evaluation, SemEval@NAACL-HLT 2015, Denver, Colorado, USA, June 4-5, 2015, pp. 252-263. The Association for Computer Linguistics, 2015 [18] Eneko Agirre, Carmen Banea, Daniel M. Cer, Mona T. Diab, Aitor Gonzalez-Agirre, Rada Mihalcea, German Rigau, and Janyce Wiebe. Semeval-2016 task 1: Semantic textual similarity, monolingual and cross-lingual evaluation. In Steven Bethard, Daniel M. Cer, Marine Carpuat, David Jurgens, Preslav Nakov, and Torsten Zesch, editors, Proceedings of the 10th International Workshop on Semantic Evaluation, SemEval@NAACL-HLT 2016, San Diego, CA, USA, June 16-17, 2016, pp. 497-511. The Association for Computer Linguistics, 2016. [19] Ryan Kiros, Yukun Zhu, Ruslan Salakhutdinov, Richard S. Zemel, Raquel Urtasun, Antonio Torralba, and Sanja Fidler. Skip-Thought Vectors. In Corinna Cortes, Neil D. Lawrence, Daniel D. Lee, Masashi Sugiyama, and Roman Garnett, editors, Advances in Neural Information Processing Systems 28: Annual Conference on Neural Information Processing Systems 2015, December 7-12, 2015, Montreal, Quebec, Canada, pp. 3294-3302, 2015. ## A 単語集合データの構築方法 単語集合データ 2 の構築方法について説明する。正例セットは WordNet [5] の名詞の上位語(例: “Animal")を単語集合のクラス、下位語 (例: “dog") を集合の元として収集し、下位語の数が 20 以上のものを使用した。これらの単語集合をランダムに組み合わせ補集合・和集合・共通部分を作成した。次に、負例を作成した。英単語の頻度データ4)を使用し頻度上位 3000 件からランダムに 1000 件をサンプリングし、正例の単語を除去して負例セットを構築した。 ## B word2vec での実験結果 表 6 帰属度の平均。括弧内は標本標準偏差。 表 7 各 STS タスクの相関係数 ## STS12 STS13 STS14 STS15 STS16 
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH2-9.pdf
# スタイルの違いに注目した脚本から小説への変換に関する一考察 内田 美友 ${ }^{1}$ 望月 源 $^{2}$ ${ }^{1}$ 東京外国語大学 言語文化学部 ${ }^{2}$ 東京外国語大学 大学院総合国際学研究院 \{uchida. miyu. s0, motizuki\}@tufs. ac. jp ## 概要 本論文では,脚本を小説化するシステムの構築を検討するため,実際に人手により演劇脚本 38 本を元にした小説化の作業を行い「両者の構造的・形式的な相違点, および含まれる情報の違いはなにか」 「機械的に変換できるところはどこか」「機械的に変換できないところはどこか」について考察する.脚本から小説への書き換えは,情報が少ない側から多い側への変換となり, 脚本特有の表現形式からどのように情報を補完しつつ変換するかが問題となる。 ## 1 はじめに 小説の作成方法の一つに,演劇やドラマ,映画などの原作脚本からのノベライズがある. 同じ作品を異なるメディアで楽しめることから人気があるが,脚本から小説への書き換えには特有の難しさがある。小説の書き方に触れた文献 $[4,5,6,7]$ 比べても書き方に明確な決まりがあるわけではなく, 比較的自由であるが,脚本との間には,その形式や構造に大きな違いが見られる. 図 1 に同じ内容を表した脚本と小説の例を示す. 図 1 同じ内容を表す脚本と小説の例 図 1 で,脚本と小説には次の違いがみられる. - 台詞の発話者の明示方法 : 脚本では発話者を台詞の前に書いているの に対し,小説では発話者を台詞の前に書く形式は用いられていない. - 鉤括弧使用の有無 : 脚本では,台詞に対し「」を用いないが,小説では,「」が使用されている. - 助詞「が」「は」の使用の有無 : 脚本では主語を提示するための助詞「が」 「は」が使用されておらず,主語のあとに 「,」を入れている. それに対し,小説では使用されている。 このように,同じ内容であっても,脚本と小説には異なる構造や使用する単語などの相違があり,表現方法が異なっている. また, 脚本では,感情やアクション,気持ちは通常書かれず,舞台で演じる役者や演出家によって考えられることを前提にしている。一方,小説は文字情報だけですべてを完結させるという前提で書かれている。一般に,記述される表現の量に「脚本<小説」という関係が成り立つ. そのため,脚本を小説化するには,内容を保持するだけでなく,両者の違いを踏まえた上で,脚本には記述されない情報を小説では補完する必要も生じる.しかしながら, 脚本の小説化という観点から,両者の形式的,構造的な類似点や相違点を調査し,変換に必要な知識について研究を行うことは,これまであまり試みられてこなかった。 そこで,本研究では,実際に演劇で用いられている脚本を用いて,小説への変換を人手によって行う. この小説化の作業を記録し,調査することで,「両者の構造的・形式的な相違点,および含まれる情報の違いはなにか」「機械的に変換できるところはどこか」「機械的に変換できないところはどこか」について,考察する[1]. ## 2 関連研究 本研究の逆, 物語小説から演劇台本への自動書き換えのシステム構築を念頭に置いた研究として,金子らの研究がある[2]. 金子らは,台詞とその話者 を特定するタスク,台本のト書きに採用すべき動詞句を抽出しその動作主を特定するタスク,小説内の場面の区切りを認識するタスク,実際に台本に採用する場面を選択するタスク,と段階的に分けて自動書き換えシステムのためのアノテーション方法を提案している.金子らが取り組んでいる小説から台本への変換では,小説に情報として多く含まれる場面の中から台本にとってより重要な場面を選択する,情報の絞り込みにひとつの重点がある。一方, 我々の研究では, 情報の少ない脚本から小説一の変換において, 適切な表現を補うための情報の補完に重点がある. また, 金らの研究では, 日本の昔話を原本として,台詞とト書きを抽出し,台詞の話者を特定する方法を提案している[3]. ## 3 書き換えの実施と分析 ## 3.1 書き換えの条件 本研究では, 調查対象として筆者のうち 1 名が所属している演劇サークル「劇団ダダン」のメンバ一が書いた脚本を使用する。本研究のために執筆者 9名による 38 本の脚本の提供を受けた。一覧を付録 A に示す. 9 名のうち 1 名は脚本家として仕事を行つており, 残りの 8 名は大学のサークル活動の一環として脚本を執筆している. 8 名はいわゆる「アマチュア」であるが, 本研究の調查では脚本内の「台詞」「卜書き」「場面転換」の違いがはっきりと分かれば十分であると考えられる。この点において, プロとアマチュアの間に大きな書き方の違いはない. 書き換えは普段から演劇に関わり脚本に関する知識を有する大学生 1 名が次の方針で行なった. (1)変換対象は脚本に書かれていることのみに限定し, 想像し補わなければならない感情やアクション, 人物の気持ちなどは対象外とする。(2)小説化で用いる表現を多彩にすることはせず,もっとも一般的な言葉を用いる. 結果として小説としては表現が「薄味」なものになる可能性があるが,この点について,今回の調查では考慮の対象外とする。 ## 3.2 自動的・機械的な変換が可能なもの 今回の小説化作業において, 比較的容易に, 自動的・機械的な変換が可能と考えられる変換パターンとして次の 11 点が確認された。 1. 台詞の表現 「人物が「」と言った」 脚本では「登場人物名十スペース」の次を台詞と認識し,「登場人物名が「(台詞)」と言った。」 という形を基本として変換できる. 2. 卜書きの「現在形を過去形に変更」と「動作主の後ろに助詞の追加」 卜書き内で「登場人物名十読点 ~動詞現在形」 であれば,動詞の動作主は登場人物であると判断し,小説では, 動詞を過去形にし, 「登場人物名(が| は)した」という形を基本に変換できる.また,登場人物が複数の場合は人物名を「と」でつなぐ. 3. 動作主の提示がないト書き ト書き内の動作について, 動作主となる登場人物名が明記されていない場合, 必ず直前の台詞の発言者が動作主となる.そのため,書き換えでは,前の台詞の発言者を動作主として補えば良い. 4. 卜書きの体言止めの変換 脚本ではなるべく簡潔に表現するため, 体言止めが多用される。小説では体言止めは作者が何らかの効果を狙うための表現技法として使用される場合を除き,基本的には使用されない,体言止めの違いに応じて次のような変換パターンがある. 4-1「電話中」など「〜中」で終わる場合,「をしている」に変換する. 4-2「動詞(連体形) +人物名」は, 「人物名+が +動詞(現在進行形)」に変換する. 4-3「形容詞 (連体形) +人物名」は, 「人物名 +は十形容詞(終止形)」に変換する. 4-4 「サ変名詞」の場合,「サ変名詞十した」に変換する.例:登場 $\rightarrow$ 登場した 4-5「動作の対象格となる名詞」は, 呼応する述語(過去形)を補完する.例:ため息一ため息をついた 4-6「形容詞 (連体形) +名詞」は, 「形容詞 +名詞十で」に変換する.例:悲しい顔一悲しい顔で 5. 登場人物名と台詞の間の指示書き 脚本中の台詞には,()で指示書きがなされる場合がある。この指示は,「該当する台詞を次の動作を交えながら発言せよ」という意味合いを持つ。この場合,指示の動作主は台詞の発言者であるが,() の中の文言は台詞ではないため,地の文として扱えるように変換し, 人物名十助詞と台詞の間に挿入する。細かく次のパターンに分かれる。 5-1「人物名(〜ながら)」、「人物名は〜ながら」 5-3 「人物名(~連用形)」 $\rightarrow$ 「人物名は~」 5-4「人物名(~動詞(連用形以外))」「人物名は〜動詞(連用形)」例:人物名(笑う) $\rightarrow$ 人物名は笑って 5-5「人物名(サ変名詞)」「「人物名はサ変名詞 + して」 5-6「人物名(動作の対象格となる名詞)」 $\rightarrow$「人物名は十名詞を十呼応する述語(連用形)」例 : 人物名(ため息)~人物名はため息をついて + 名詞で」例 : 人物名 (小声) $\rightarrow$ 人物名は小声で 6. 台詞の後に()で指示書きがある場合 この場合は,「台詞を言った後に()内の動作をせよ」との指示であると考えられる. 6-1 動詞の終止形で()内の指示が終了している場合, 前の台詞に続けて「と言う+と, + 動詞(過去形)で終わる指示書き」 6-2()内が漢字 1 文字であれば漢字を使用して作られる動詞を連用形に書き換え,「ながら」という2つの動作・状態が並行して行われる意を示す接続助詞を挿入する.例そんなあ(涙) $\rightarrow$ 「そんなあ」と泣きながら言った。 7. 台詞の途中に()で指示書きがある場合 この場合指示を実行するタイミングは()前の台詞を言い終わつた直後という明確な決まりがみられる. 7-1()内の指示に動作主が提示されていない場合 動作主は台詞の発言者であるとして()内の指示の前にある台詞で一度台詞のかぎかっこを閉じ,指示内の動詞及び形容詞, 形容動詞を連用形に直して接続する. その後, 再びかぎかっこを提示して台詞を再開させる,という形で変換する。 7-2()内の指示で動作主が提示されている場合. 「と言うと」を挿入したのち, 各パターンの変換方式に合わせて変換を行う. 発言者とは違う動作主に対する指示が終了した時点で句点を打ち, 発言者を改めて提示したのち残りの台詞を続けるという形をとる。 8. 下書き内で動作が連続する場合 脚本では, 1 行のト書きに書かれる動作が 2 つ以上になる場合もある。 8-1 同一人物が 2 回連続で指示を受ける場合, 1 つ目の指示にある動詞を連用形にして文を繋げる。例 : 人物 $\mathrm{A}$ ,テレビをつける,嬉しそうな顔一人物 A はテレビをつけ,嬉しそうな顔をした 8-2 異なる登場人物への指示が 1 行内で繰り返されている場合,主語を示す動詞は双方に対比の「は」 を使用し,指示 1 つ目の動詞を連用形にして繋げる。例 : 人物 $\mathrm{A}$ ,立ち去る,人物 $\mathrm{X}$ ,安堵する $\rightarrow$ 人物 $\mathrm{A}$ は立ち去り,人物 Xは安堵した。 9. 卜書き内で場所の指示がある場合場面がどこで展開されているか,という場所情報を提示する際は,単語のみで表される場合と,「にて」「で」など場所を表す助動詞を伴う場合の 2 パター ンに別れることが多い. 9-1 単語のみの場合, 場所を表す助動詞を加えたうえで,その後に続くト書きに接続する形で変換する. 例 : 研究講義棟 $\rightarrow$ 研究講義棟で 9-2 場所を表す助動詞を使用している場合は,そのままその後に続くト書きに接続して変換する. 10. 沈黙に関する表現 沈黙に関する表現は,台詞で表現するパターンとト書きで表現するパターンの 2 パターンがみられた. 10-1 台詞での表現の場合, 三点リーダーのみで表現される。この場合, 多くは特定の人物が他の登場人物からの呼びかけに意図的に答えない状況である.そのため, 対比の助詞「は」を使用し,「沈黙している」を付加する。例:「人物名………」 $\rightarrow$ 「人物名は沈黙している」 10-2 ト書きでの表現では「沈黙」とだけ書かれていることが多い.この場合, 特定の人物が他の登場人物からの呼びかけに意図的に答えない状況であるのに加え,場にいる他の全員も発言しないことを提示したい状況であることが多い.そのため,「沈黙ののち」と動作主(=誰が沈黙しているか)を提示しない形に変換する. 11. 場面転換の合図 脚本も小説も場面を立てながら物語を展開していくため, 場面転換を示す文言が存在する. 脚本は $「 1$ 場, 2 場…」もしくは「1 幕, 2 幕…․と,小説は「 1 章, 2 章…․と区切られることが多い.幕,また場という文言が出てきたら「章」に変更する. ## 3.3 自動的・機械的な変換が難しいもの 今回の小説化作業において自動的・機械的な変換が難しいパターンとして次の 3 点が確認できた. 1. 音の表現 脚本には,音の表現として,言語表現ではなく,舞台効果として音響指示, つまりどんな種類の音を出すかの指示が書いてあることが多い. 小説への書き換えにあたっては, 書きの指示する音を具体的にどのように言語で表現すればよいかを別途考える必要がある. 2. 登場人物名でないが,人物を表す表現 「2 人」「全員」「〜たち」のように, 登場人物名と完全一致しないが登場人物の誰かを指す言葉が用いられることもある。書き換えシステムを実装する場合には,この点について照応解析が必要になる。 3. 舞台用語の排除 脚本では舞台上の演出を示すために特殊な用語 (舞台用語)を使うことがある.舞台用語の中にはそのまま小説向けに変換しても, 小説としては自然ではないものがある.脚本を小説に変換するらえで舞台用語を適切な語に置き換えるなど処理が必要になる。例えば,照明に関する「明転」「暗転」,動作に関する「ハケる」「入り(いり)」,位置に関寸る「上手」「下手」などの舞台用語は脚本においては意味があるが,そのまま小説に含めるのは適切でない. ## 3.4 その他, 表記のゆれ 脚本は構造的に「台詞」「ト書き」「場面転換」 がきちんと区別できれば成立し, どう区別するかには比較的自由度がある. そのため, 同じことを表現していたとしても著者によって書き方が違う, いわゆる表記ゆれが見られる. さらに, 個人の間でも書き方が確立しておらず表記ゆれが存在していることも確認された. 今回調查した9名の著者に見られた主な表記ゆれは以下のものだった. 1.「台詞」の表記ゆれ 本論文では「登場人物名十スペース」で台詞と認識することを標準としているが,台詞の書き方にはゆれがある. 今回の 9名の執筆パターンに見られたのは以下の 3 パターンだった. 登場人物名 + スペース + 台詞 $\cdots \cdots . . .4$ 名 登場人物名 $+\lceil$ 台詞」…..4 名 登場人物名 + : + 台詞 $\cdots \cdots \cdots 1$ 名 2.「卜書き」の表記ゆれ 本論文では「登場人物名十読点」でその行を卜書きだと認識することを標準としているが,今回の 9 名の執筆パターンにみられたのは以下の 4 パターン だった. 登場人物名 + 読点 + 指示……7 名 登場人物名十助詞「が」「は」+指示……1名 登場人物名 $+:+$ 指示 $\cdots \cdots \cdots 1$ 名 また, ト書きのみ 1 段字下げするか否かも異なっていた,字下げするのが 3 名, しないのが 6 名であった. 字下げをしない 6 名のうち, ト書き全体を() で井い台詞との区別を行っていたのが 2 名であった. 3. 指示書きの曖昧性 3.2 節で「台詞の後に()で指示書きがある場合」 は「台詞を言い終わったあとにこの動作を実行せよ」 となるとしたが,指示の解釈が「該当する台詞を次の動作を交えながら発言せよ」を意図している事例も存在した。 これまで脚本の人による解釈ではこうした表記ゆれは問題視されておらず,上演する人間・団体が実際に脚本を読み前後の文脈を類推してきた。しかしながら,書き換えシステムを実装する場合には表記ゆれを解消する仕組みが必要になる。 ## 4 おわりに 本論文では,これまであまり試みられてこなかった, 脚本の小説化という観点から, 脚本と小説の形式的, 構造的な類似点や相違点を調査し, 変換に必要な知識についての報告を行った. 特に, 脚本において頻出する台詞やト書きの表現を区分し,小説への自動的・機械的な変換がやりやすい表現とその変換パターンの分析を行なった. また, 逆に, 変換の難しい表現とその理由の分析を行なった. さらに, 脚本の著者たちに見られる表記のゆれにも言及した。 本来, 情報量の少ない脚本から情報量の多い小説への変換では, 台詞から感情やアクション, 気持ちを推測しなければならない. より魅力的で良質な小説への書き換えでは,脚本に書かれていない事柄を推測したり,「解釈」を加えることも必要になる. この点について文学的, 芸術的な要素が分析者の主観のみによって加わわることを避けるため,今回は一般的な表現に限定したが,豊かな表現として,言い換える際の最適な言葉の選択や,より深いレベルでの脚本における表現技法を小説化に取り入れるための分析にも踏み込む必要がある. ## 参考文献 [1] 内田美友, スタイルの違いに注目した脚本から小説への変換に関する一考察, 卒業論文, 東京外国語大学, 3.2022 . [2] 金子遥渚, 松吉俊, 内海彰, 小説から演劇台本への書き換え過程のアノテーション, 言語処理学会第 26 回年次大会発表論文集, F5-1, pp.1141-1144, 3.2020. [3] 今誠一, 吉田文彦, 菊池浩明, 中西祥八郎, 昔話の自動シナリオ化システムの構築, 言語処理学会第 11 回年次大会発表論文集, P3-9, pp.317-320, 3.2005 [4] 小森陽一, 富山太佳夫, 沼野充義, 兵藤裕己,松浦寿輝, 『物語から小説へ』「岩波講座文学 3 」,岩波書店,2002。 [5] 中村真一郎, 小説入門人生を楽しくする本,光文社, 1962. [6] 大岡昇平, 現代小説作法, 第三文明社, 1972. [7] 永江朗,「なるには Books 33」『作家になるには』,ぺりかん社, 2004. ## A 付録 ## 使用脚本一覧 公演時間は文字数をもとにして計算されたものである.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH3-10.pdf
# 多段階難易度制御ニューラル機械翻訳のための ベンチマーク評価データセットの開発 谷和樹 1 湯浅亮也 ${ }^{1}$ 滝川一毅 ${ }^{2}$ 田村晃裕 ${ }^{1}$ 梶原智之 ${ }^{2}$ 二宮崇 ${ }^{2}$ 加藤恒夫 ${ }^{1}$ 1 同志社大学 2 愛媛大学 } \{cguc1070@mail4, cguc0095@mail4, aktamura@mail,tsukato@mail\}.doshisha.ac.jp \{takikawa@ai. , kajiwara@, ninomiya@\}cs.ehime-u.ac.jp ## 概要 本研究では,目的言語文の難易度を多段階で制御するニューラル機械翻訳(多段階難易度制御 NMT) のためのベンチマーク評価データセットを構築する. 従来の多段階難易度制御 NMT の評価データは文単位での対応付けや難易度付与がされていないコーパスから自動構築されており,ノイズを含むため評価データとして不適切である。本研究では,人手による翻訳,不適切なデータの自動フィルタリングと最終的な人手確認を行うことで,Newsela コーパスから日英多段階難易度制御 NMT のためのベンチマーク評価データセットを構築する. さらに,従来研究で提案された多段階難易度制御 NMT (パイプラインモデルとマルチタスクモデル)を Transformer モデルで実装し,構築した評価データにおける性能を報告する。 ## 1 はじめに 近年,ニューラル機械翻訳(NMT)はますます発展・普及してきており,利用者層が幅広くなっている. 従来の一般的な NMT は利用者や状況に依らない一律な翻訳を行うが,近年では,目的言語文の表現を制御するための研究が盛んになっている $[1,2]$. そのひとつに,ユーザの読解レベルにあわせた翻訳を行うため,難易度を入力として受け付け,指定された難易度の目的言語文を生成する難易度制御 NMT がある。これまでは,「平易」と「難解」のような 2 段階で難易度を制御するモデル [3] が中心だったが,近年では,3 段階以上の難易度を制御可能な多段階難易度制御 NMT モデルが提案され [4], より柔軟に(例えば小学生,高校生,一般,専門家向けなどのように)難易度を制御することを目指す研究がされている.従来の多段階難易度制御 NMT の研究で用いられている評価データ [4] は, Newsela コーパス1) から自動構築されている. そのため, 従来の評価データには次の問題がある。 (1) 不適切な対訳文対を含む. (2)難易度が変わると情報が保たれない場合がある。 (3) 目的言語文の難易度が適切でない場合がある。 そこで本研究では,人手による翻訳,不適切なデータの自動フィルタリングと最終的な人手確認を行うことで,Newsela コーパスから,日英多段階難易度制御 NMT を適切に評価するための評価データセットを構築する。提案手法により,日本語文と複数の難易度による英語文の組,1,014 組からなる評価データセットを構築した ${ }^{2}$ ). さらに,先行研究 [4] で提案されている,パイプラインモデルとマルチタスクモデルを Transformer モデル [5] で実装し,構築した我々の評価データでの性能を報告する。 ## 2 従来の評価データ 多段階難易度制御 NMT の唯一の先行研究は Agrawal and Carpuat の研究 [4] である. 先行研究では, Newsela コーパスから自動作成したデータを用いて,英語(英)とスペイン語(西)の間の多段階難易度制御 NMT モデルの学習と評価を行っている。 Newsela コーパスは,複数の難易度の英語記事と, その一部に対応するスペイン語記事で構成されている. 西英間は記事単位で対応付けられているが,文単位の対応付けは行われていない。各記事には記事単位で grade level という難易度が付与されている. grade level の值は 2 から 12 であり,值が高いほど記事が難しいことを示す.評価データは,この Newselaコーパスから次の通り作成されている.  表 1 日英多段階難易度制御 NMT 用評価データの実例 Step 1 西英の Google 翻訳3)を用いて,スペイン語記事の各文を英語に翻訳する。 Step 2 同一言語で書かれた同一内容の文を対応付ける MASSAlign [6] により,英語記事内の文と,英語に翻訳されたスペイン語文を対応付ける。 Step 3 対応付いた文の組を 1 事例とする. その際,翻訳された文は元のスペイン語文に戻す。また文の難易度は,属する記事の grade level にする. この自動作成の評価データには次の問題がある. 問題点 1 西英文対は自動で対応付けているため,正しい翻訳文対になっているとは限らない。 問題点 2 同一言語の文間の対応付けを自動で行っているため,対応付いている文の情報の抽象度が同一になるとは限らない.特に,固有名詞など,より具体的な情報が新たに湧き出す場合,難易度制御で情報を増やすことは難しいため問題となる. 問題点 3 記事の難易度を文の難易度に転用しているため,付与されている文の難易度が正しいとは限らない。例えば,記事単位の grade level が異なっていたとしても,完全に同じ文となる場合や記号のみが異なる場合がある。 このような問題がある従来の評価データでは,モデルの正確な性能評価ができなくなりうるため, 評価データとして不適切である. ## 3 評価データセットの作成 本節では,本研究で提案する多段階難易度制御 NMT 用の評価データセットの作成手順と, 作成した評価データセットの詳細を示す. 本研究では, Newsela コーパス中の英語文に日本語訳を付与することで,日本語文(原言語文) 1 文と複数(3 段階以上)の難易度による英語文(目的言語文)の組で構成される日英多段階難易度制御 NMT 用の評価デー タセットを作成する. Newselaコーパスは,他の単言語平易化コーパス([7] や [8] など)とは異なり,  ニュース記事を作成するプロにより平易化されていること,規模が大きいこと,また,多段階の難易度が付与されていることから,本研究の評価データセットの作成元にした. ## 3.1 提案の作成手順 評価データセットは次の 2 ステップで構築する。 Step 1 複数段階の難易度で記述される英語文集合の作成 1-1: Newsela-auto から自動抽出 1-2: 自動フィルタリングでの不適切データ除去 1-3: 人手による最終確認 Step 2 人手翻訳による日本語訳の付与 Step1 では,Newselaコーパスの英語記事集合から複数段階の難易度で記述される同一内容の英語文集合を抽出する。具体的には, Newsela-auto [9] ${ }^{4}$ 内で自動で対応付いている文対に基づき,3つ以上の文が同一内容となる英語文集合を抽出する (Step 1-1). その結果,98,500 組の英語文集合が得られた. ただし, 本研究でも先行研究と同様, 文の難易度として属する記事の難易度を設定する。したがって,2 節の問題点 3「文の難易度が正しいとは限らない」が生じる. そこで本研究では, 自動フィルタリング(Step 1-2)と人手チェック(Step 1-3)により,確実に難易度が異なる 3 文以上から成る同一内容の英語文集合を作成する。自動フィルタリングでは,記号を除いた状態で全く同じになる文対と grade level の差が 1 以下になる文対を除いた. また,Newsela-auto は同一内容の文を自動で対応付けているため,2 節の問題点 2 「難易度が異なると情報が保たれない場合がある」が生じる。そこで本研究では, Step 1 の最終確認として,固有名詞などの情報が湧き出している事例を人手で除いた。 Step2 では,Step1 で作成した各英語文集合に対して,最も grade level が大きい文(最も難しい文)を人手で日本語に翻訳し,日本語訳を付与する.翻訳 4) Newsela コーパス中の難易度が異なる英語記事を対象に,同一内容の文を自動で対応付けした結果のコーパスである. 表 2 評価データセット中の英語文の段階数 図 1 評価データセット中の英語文の grade level の内訳 は翻訳会社に依頼した。この人手翻訳により,2 節の問題点 1 「不適切な対訳文対を含む」を解決する. 以上の作成手順により,1,014 組の評価データからなる, 日英多段階難易度制御 NMT 用の評価デー タセットを作成した。表 1 に作成した評価データの実例を示す.また,表 2 と図 1 に,作成した評価データセット中の英語文の難易度の段階数の内訳と英語文の grade level の内訳をそれぞれ示す. ## 自動フィルタリングの必要性の考察 本研究では,Step 1 において,記事単位の難易度から転用された文の難易度が不適切なデータを除く目的で自動フィルタリングを導入した.ここでは, その必要性を考察する。 Step 1-1 の結果からランダムに抽出した 100 組の文集合に対して,文に付与された難易度が異なるにもかかわらず,実際には難易度が変わらないデータがどの程度含まれるかを人手で調査した. その結果,実際に難易度が変わっている文で構成されている組は 37 組しか存在せず,残りの 63 組は, grade level が異なるにもかかわらず,全く同じ文対や,記号のみが変化するなどの難易度が変わらない文対を含んでいた.このような事例は評価データとして不適切であるため, 評価データから除く必要がある. しかし全体の $60 \%$ 以上あり人手で除くのは現実的ではない. したがって, 本研究で導入した自動フィルタリングが有用であると考えられる. 図 2 パイプラインモデルの概要図 ## 4 ベンチマーク実験 本節では,今後の多段階難易度制御 NMT に関する研究のベンチマークとして, 先行研究 [4] で提案されている 2 つの多段階難易度制御 NMT の手法(パイプラインモデルとマルチタスクモデル)を Transofrmer モデルで実装し5),構築したテストデー タに対する性能を報告する. 先行研究では系列変換モデルとしてRNN(LSTM)ベースのモデル [11]を用いているが,本研究では,近年様々な NLP タスクでデファクトスタンダードになっている Transformer モデルを用いた。また,先行研究では西英間の翻訳を対象としており,教師データとして Newsela コー パスのスペイン語記事を用いることができるが,本研究では Newsela コーパスに含まれない日本語と英語間の翻訳が対象であることにも注意されたい。 ## 4.1 パイプラインモデル パイプラインモデルは,機械翻訳と多段階平易化 [12]の2つの独立したモデルをつなげたモデルである.「機械翻訳 $\rightarrow$ 多段階平易化」と「多段階平易化 $\rightarrow$ 機械翻訳」の 2 通りが考えられるが, 先行研究 [4] では「機械翻訳 $\rightarrow$ 多段階平易化」の方が性能が良かったこと,また, Newselaコーパスからは日本語の多段階平易化のための教師データを作成できないことから,本研究では,「機械翻訳 $\rightarrow$ 多段階平易化」 の性能のみを評価,報告する。図 2 に評価するパイプラインモデルの概要図を示す. 日英 NMT モデルおよび英語の多段階平易化モデルは共に Transformer モデルを用いる. 日英 NMT モデルは, Kiyono ら [13]の日英翻訳モデルに倣って作成した. 教師データは JParaCrawl [14] と News Commentary を用いた。ただし, langid ${ }^{6}$ により原言語文が日本語かつ目的言語文が英語となった, $9.7 \mathrm{M}$文対を教師データとして用いた. 英語文にのみ trucasing を行い, Sentencepiece [15]によりサブワー ドサイズ 32,000 でサブワード化を行った. 英語の多段階平易化モデルは,先行研究 [12] に倣い,入力の英語文の先頭に目的の難易度を表す  特殊トークンを追加した系列を,目的の難易度の英語文に変換する系列変換モデルで実現した. Newsela-auto からランダムに抽出した $150 \mathrm{~K}$ を教師データとした. ただし,構築した評価データセットに含まれるデータは除いている.教師データからは 100 単語以上の文と入出力文長比が 2 以上の文対は除いた. その後, fastBPE ${ }^{7)}$ によりサブワードサイズ 8,000 でサブワード化を行った. その他の実験設定は付録に示す. ## 4.2 マルチタスクモデル マルチタスクモデルは,翻訳のみの損失,平易化のみの損失,難易度を指定した翻訳の損失の 3 つの損失に基づいた,次の損失関数 loss により,1つの Transformer モデルを学習する. $ \begin{gathered} \text { loss }=L_{M T}+L_{\text {Simplify }}+L_{C M T} \\ L_{M T}=\sum_{\left(s_{i}, s_{o}\right) \in D_{M T}} \log P\left(s_{o} \mid s_{i} ; \theta\right) \\ L_{\text {Simplify }}=\sum_{\left(s_{o}, c_{o^{\prime}}, s_{o^{\prime}}\right) \in D_{S}} \log P\left(s_{o^{\prime}} \mid s_{o}, c_{o^{\prime}} ; \theta\right) \\ L_{C M T}=\sum_{\left(s_{i}, c_{o}, s_{o}\right) \in D_{C M T}} \log P\left(s_{o} \mid s_{i}, c_{o} ; \theta\right) \end{gathered} $ ただし $D_{M T}$ は,JparaCrawl からランダムに抽出した 3,000K の日英対訳文対, $D_{C M T}$ は,Newsela-auto に含まれる各英語文集合に対して,最高難易度の英語文を Google 英日翻訳で日本語に翻訳し,翻訳した日本語(原言語)と最高難易度以外の英語文(目的言語)とその難易度の三つ組 (評価データセットに含まれるデータは除く)をランダムに抽出した $200 \mathrm{~K}$, $D_{S}$ は, $D_{C M T}$ の 200K の三つ組に対して,日本語文を元の英語文に置き換えたデータである。また, $\theta$ はモデルパラメータ, $s_{i}$ は原言語文, $s_{o}$ は目的言語文, $s_{o^{\prime}}$ は $s_{o}$ を平易化した文, $c_{o / o^{\prime}}$ は $s_{o / o^{\prime}}$ の難易度である。その他の実験設定は付録に示す。 ## 4.3 評価指標 評価指標は, 先行研究 [4] に倣って BLEU [16] と の文長の絶対平均誤差 MAELEN [17] も算出する. ここで,SARI [7]を算出するためには,同一言語の,平易化前の文,平易化後の文,参照文の三つ組が必  表 3 実験結果 要になるが,従来の評価データでは原言語文と同じ難易度の目的言語文が必ずしも与えられていない. そこで先行研究 [4] では,原言語文を機械翻訳で翻訳した文を,平易化前の文として用いている。しかし,機械翻訳の翻訳文には誤りが多く含まれるため,先行研究の SARI は,本来評価すべき多段階難易度制御 NMT の純粋な平易化性能を評価できていない。一方で,本研究で作成した評価データセットには,原言語文に対応する最高難易度の英語文が付与されているため,SARIを計算する際に最高難易度の英語文を平易化前の文として与えることで適切な SARI を算出できる。 ## 4.4 実験結果 4.1 節のパイプラインモデルおよび 4.2 節のマルチタスクモデルの性能を表 3 に示す. 表 3 より,先行研究同様,マルチタスクモデルの方がパイプラインモデルよりも BLEU が高くなった。一方で,SARI はパイプラインモデルの方が高くなった. パイプラインモデルについては,機械翻訳部分と多段階平易化部分それぞれ単独の評価データセッ卜における性能を評価した.多段階平易化部分の性能評価では,各英語文集合の中の最高難易度の英語文を入力として,その他の難易度の英語文に対する平易化性能を測った. その結果,機械翻訳部分の BLEU は $14.31 \%$ となった ${ }^{9)}$. また,多段階平易化部分の BLEU,SARI,MAELENは,それぞれ,68.40\%, $18.99 \% , 3.98$ となった. ## 5 まとめ 本研究では,従来の評価データより適切にモデル性能を評価可能な,多段階難易度制御 NMT のためのベンチマーク評価データセットを構築した。人手による翻訳,不適切なデータの自動フィルタリングと最終的な人手確認を行うことで,評価データの品質を確保した.また,今後の研究のためのベンチマーク結果として,2つの多段階難易度制御 NMT モデルを実装し,その性能を構築した我々のテストデータで評価した. 9)参考のため,Google 日英翻訳の我々の評価データセットにおける翻訳性能を測った結果,BLEU は $10.12 \%$ となった。 ## 参考文献 [1] Rico Sennrich, Barry Haddow, and Alexandra Birch. Controlling politeness in neural machine translation via side constraints. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 35-40, 2016. [2] James Kuczmarski and Melvin Johnson. Gender-aware natural language translation. In Technical Disclosure Commons, (October 08, 2018), 2018. [3] Kelly Marchisio, Jialiang Guo, Cheng-I Lai, and Philipp Koehn. Controlling the reading level of machine translation output. In Proceedings of Machine Translation Summit XVII: Research Track, pp. 193-203, 2019. [4] Sweta Agrawal and Marine Carpuat. Controlling text complexity in neural machine translation. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pp. 1549-1564, 2019. [5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, Vol. 30, 2017. [6] Gustavo Paetzold, Fernando Alva-Manchego, and Lucia Specia. MASSAlign: Alignment and annotation of comparable documents. In Proceedings of the IJCNLP 2017, System Demonstrations, pp. 1-4, 2017. [7] Wei Xu, Courtney Napoles, Ellie Pavlick, Quanze Chen, and Chris Callison-Burch. Optimizing statistical machine translation for text simplification. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 401-415, 2016. [8] Fernando Alva-Manchego, Louis Martin, Antoine Bordes, Carolina Scarton, Benoît Sagot, and Lucia Specia. ASSET: A dataset for tuning and evaluation of sentence simplification models with multiple rewriting transformations. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4668-4679, 2020. [9] Chao Jiang, Mounica Maddela, Wuwei Lan, Yang Zhong, and Wei Xu. Neural CRF model for sentence alignment in text simplification. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7943-7960, 2020. [10] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, 2019. [11] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. In Proceedings International Conference on Learning Representations (ICLR 2015), San Diego, CA, USA, May 7-9, 2015, Conference Track Pro- ceedings, 2015. [12] Carolina Scarton and Lucia Specia. Learning simplifications for specific target audiences. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 712-718, 2018. [13] Shun Kiyono, Takumi Ito, Ryuto Konno, Makoto Morishita, and Jun Suzuki. Tohoku-AIP-NTT at WMT 2020 news translation task. In Proceedings of the Fifth Conference on Machine Translation, pp. 145-155, 2020. [14] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A large scale web-based English-Japanese parallel corpus. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 3603-3609, Marseille, France, May 2020. European Language Resources Association. [15] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, 2018. [16] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002. [17] Daiki Nishihara, Tomoyuki Kajiwara, and Yuki Arase. Controllable text simplification with lexical constraint loss. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: Student Research Workshop, pp. 260-266, 2019. ## A 付録 表 4 に 2 節で記述した問題点 2 「難易度が異なると情報が保たれない場合がある」の具体例を示す。また,表 5 に 2 節で記述した問題点 3 「文の難易度が正しいとは限らない」の具体例を示す。そして,表 6 に本研究で評価したパイプラインモデルとマルチタスクモデルの実験設定を示す. 表 4 固有名詞の湧き出しを含むデータ例 \\ 表 5 grade level は異なるが難易度が変わらない文対を含むデータ例 & True & True & True \\ 表 6 fairseqを用いた実験設定
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH3-11.pdf
# 人エデータでの事前学習によるニューラル機械翻訳の性能向上 田村弘人平澤寅庄 金輝槡 岡照晃 小町守 東京都立大学 \{tamura-hiroto, hirasawa-tosho, kim-hwichan\}@ed.tmu.ac.jp \{teruaki-oka, komachi\}@tmu.ac.jp ## 概要 転移学習において非言語データで事前学習することで,言語情報以外のどのような特性が転移されるかの研究が行われている $[1,2,3,4]$. ニューラル機械翻訳 (NMT) においては Aji ら [5] が人エデータで事前学習した場合,事前学習なしのモデルよりも高い性能を示したと報告している。しかし彼らはそれぞれ 1 種類の人工データ,事前学習法でしか実験していない. 本研究では様々な特性を持つ人工データを用意し,2つの目的関数を用いて事前学習した場合の NMT での性能を比較調査する。また転移学習に対する ablation studyを行い,各事前学習データ,事前学習法でモデルの各コンポーネントへの影響を調査した. 結果として, トークンの頻度情報を持たせた人工データで事前学習したモデルは,実データで事前学習したものよりも高い性能を示した. ## 1 はじめに 転移学習は NMT の性能向上に効果的な手法であり,特に少資源状況において顕著な性能改善が見られる $[6,7,8,9,10]$. 言語情報の知識転移が性能向上の主な貢献とされる一方,様々なタスクにおいて人エデータで事前学習することで,言語情報以外のどのような特性が転移されるかが調査されている。 Chiang と Lee [3] は Transformer [11] ベースの言語モデルで,事前学習データ内の意味以外のどのような特性が下流タスクの性能に影響するかを調査した. 人工データで事前学習し GLUE [12] タスクでの性能を評価した結果,事前学習なしの場合よりも高い性能を示した. Transformer ベースの系列変換モデルでは Krishna ら [4] が要約タスクにおいて,人工データで事前学習したモデルが実データで事前学習した場合に匹敵する性能を示したと報告している。 Aji ら [5] は NMT において,人工データを用いた自己符号化で事前学習することで事前学習なしの モデルよりも高い翻訳性能を示し,特に少資源言語対において顕著な性能向上が見られた. しかし彼らの実験はランダムな数字列で構成された人工データでのみ実験しており,他の特性を備えた人工データでの実験は未調査である。また事前学習法として自己符号化を採用しているが,他の学習法での翻訳性能に対する影響も未知である. そこで本研究では,下流タスクをNMT として様々な種類の人工データを用いて事前学習することで,NMT でどのような特性を持った人工データが翻訳性能に効果的かを調査する。 また事前学習法として,自己符号化と MAsked Sequence to Sequence pre-training (MASS) ${ }^{1)}$ [9] を選択し,事前学習法ごとの人工データの特性の影響も調査する。さらに転移学習に対して ablation studyを行い,事前学習時のデータセットや学習法ごとにモデルのどのコンポー ネントの転移が性能に貢献しているか,反対にどれをファインチューニングした方が良いかを調査する. 本研究での主な貢献は以下の通りである: 1. 対訳データが少資源の場合,人工データでの事前学習により,事前学習なしのモデルよりも高い性能を示した2). 2. 事前学習法が自己符号化の場合,トークンの頻度情報を含めた人工データで事前学習すると,実データの場合よりも高い性能を示した。 3. 事前学習法が MASS の場合,人工データでの学習は不十分であり実データで訓練する必要があることを示した。 4. Ablation study により事前学習法が自己符号化の場合,頻度情報を学習した encoders が下流夕スクの主な性能の要因であることを明らかにした. 1) MASS は Song ら [9] によって提案された系列変換の masked language model であり,多量の単言語データで事前学習することで特に少資源 NMT で顕著な性能向上が確認されている。 2)多資源状況では性能向上が見られなかったため,対訳デー タを 3 万文対, 10 万文対として実験を行った. ## 2 事前学習データ ## 2.1 実データ 本研究では英語からドイツ語への翻訳タスクにおける人工データを用いた事前学習の影響を分析する. ファインチューニング時に使用する対訳デー タは WMT14 [13] の英独翻訳タスクから獲得している.そのため事前学習に用いる英語, ドイツ語データもドメインの観点から同じくWMT14 の対訳データから抽出し, 各言語の単言語データとして扱った。 English (En) 全対訳データの英語側から,ファインチューニング時に使用する訓練データと重複しない文をランダムに抽出する。 German (De) “English” と同様にドイツ語データを抽出する。 English + German (En + De) "English", "German"でのデータサイズが約 5,000 万トークンになるように, それぞれの言語データから文を抽出し,混合する。 ## 2.2 人エデータ 本研究で使用する人工データは全て数字列で構成される. 具体的には,0から(ファインチューニングに使用する対訳データの語彙サイズ - 1)の範囲の整数が人工データの語彙に含まれる ${ }^{3}$. 系列長は全て 128 である. Random 各数字は語彙の一様分布から独立に抽出され,系列が作成される. Unigramファインチューニングで使用する対訳データから unigram 分布を作成し, その分布に沿って数字を独立に抽出し系列を作成する。 Zipf Zipf 分布(式 1)から独立に各数字が抽出され,系列が作成される。 $ f(k ; s, N)=\frac{1 / k^{s}}{\sum_{n=1}^{N}\left(1 / n^{s}\right)} $ ここで $N$ はトークンの要素数, $k$ はトークンの頻度順位, $s$ は分布を特徴付ける指数であり, $s$ が小さいほど滑らかな分布になる. 本実験では $s=1.0$ とした. “Unigram”では対訳データから分布を求めているが,この手法では一切実データを用いていない.  表 1 異なる対訳データサイズにおける, 事前学習法,事前学習データごとのテストセットでの BLEU スコア. “N/A” は事前学習なしのモデルを表す。“AE” は自己符号化を表す。 ## 3 実験設定 事前学習データのデータサイズは約 1 億トークンである.ファインチューニングに使用する対訳データは全対訳データ約 450 万文対からランダムに 3 万文対と 10 万文対を抽出し,それぞれのデータサイズでNMT モデルの訓練を行った。開発セットは newstest2013,テストセットは newstest2014を使用した. 全ての実データは $\mathrm{Moses}^{4}$ [14] で正規化,トー クン化し,その後 BPE [15] でサブワード化を行った. BPE の語彙サイズは対訳データが 3 万文対, 10 万文対の場合それぞれ 8,000,16,000である。また事前学習時に使用する実データは上で学習した語彙を用いてサブワード化する。 全ての実験は Song ら [9] のコード5)を用いて行った. モデルは Transformer (base)を使用し,事前学習済モデルの重みで初期化後, ファインチューニングを行った。初期化の際,語彙の割り当ては frequency assignment [5]を採用している。主なハイパーパラメータは付録 A に示す. 事前学習の更新回数は 10 万ステップである. ファインチューニング時は early stopping を採用しており,開発セットでのロスが 10 エポック間減少しなかった場合,訓練を終了する。事前学習は各データセットで 1 回だけ行い,ファインチューニングと事前学習なしのモデルの訓練は異なるシードで 3 回行った. 評価は SacreBLEU6) 7) [16] を用いて, case-sensitive BLEUを計算した. 報告する全てのスコアは 3 つのシードでの平均値である. +tok.13a+version.1.5.1 } ## 4 結果 表 1 にファインチューニング時の各対訳データサイズにおける,事前学習法,事前学習データごとのテストセットでの BLEU スコアを示す. 対訳データサイズ:3万事前学習法が自己符号化の場合は, 全ての事前学習データで,事前学習なしの場合よりも性能向上が見られる(貢献 1). 実データで事前学習したモデルは “Random”よりは良い性能であるが,下から 2 つの人工データでのモデルより低い性能を示している。 “Unigram” と “Zipf" は頻度情報のみを考慮したデータセットであることから,頻度情報のみを学習することで十分な性能が発揮できることを示している (貢献 2). 事前学習法が MASS の場合は,人工データで事前学習したモデルは事前学習なしのものよりも高い性能ではあるが,実データで事前学習したモデルが人工データでの事前学習よりも明らかに高い性能を示している。実データは共起性や構造性など頻度以外の情報も含んでいる。よって MASS では頻度情報は性能に貢献するが,頻度以外の情報も学習することで更なる性能向上が達成されることを示している(貢献 3). 対訳データサイズ:10万自己符号化の場合,全ての事前学習データで,事前学習なしの場合よりも性能が悪化しており, どのデータでも同程度のスコアが得られる. MASS の場合も全事前学習データで,事前学習なしの場合よりも低いスコアしか達成できないが,人工データよりも実データで事前学習した方が良いという傾向はデータサイズが 3 万の時と同じである.これらから対訳データサイズが 10 万の場合は, 各事前学習法, 事前学習データで性能向上が見られなかった. 以上の結果から 5 節では対訳データサイズを 3 万とし, 各事前学習法, 事前学習データによるモデルの各コンポーネントへの影響を分析する。 ## 5 分析 4 節では各事前学習法により,実データで訓練した場合と, 人工データでの場合とで異なる結果を確認した.これを受け,事前学習データが “En” と “Zipf” の場合の各事前学習法での挙動を確認する. 具体的にはモデルを embeddings (emb), encoders (enc), cross-attentions (x-attn), decoders ( $\mathrm{dec})^{8}$ のの大きく 8) emb は encoder 側と decoder 側, 両方の embeddings を対象としている. enc, dec は self-attentions と layer-norms, feed-forwardnetworksを含む.x-attn は layer-norms を含む.表 2 各コンポーネントを転移した時の,事前学習法,事前学習データごとのテストセットにおける BLEU スコア. “ $\checkmark$ は該当するコンポーネントを転移していることを意味する。 4 つのコンポーネントに分けて転移学習に対する ablation studyを行う. 表 2 に選択的に各コンポーネントを転移し,ファインチューニングした時の BLEU スコアを示す。また,表 3 に全てのコンポーネントを転移した後,ある部分のみをフリーズしてファインチューニングした場合の BLEU スコアを示す. emb の転移の影響表 2 から事前学習法が自己符号化の場合,embのみを転移した場合を除いて emb の影響はわずかである。emb 以外を全て転移した場合では,全てのコンポーネントを転移した場合よりも高い性能を出している (8 行目)。一方で事前学習データが “En”の時,“Zipf”の場合に比べて emb は性能に貢献している (1,9行目). 表 3 から,embをフリーズすると両事前学習データとも性能が悪化しているが,“Zipf”よりも “En”の方が悪影響を受けている。これは embの重みを enc 側と dec 側とで共有しており,“En”の場合 emb は英語に最適化されているが,ドイツ語の emb としても使用されているためである。これに対し “Zipf”では言語横断的な頻度情報のみを $\mathrm{emb}$ は学習しているため性能悪化が小さいと考えられる.以上から,自己符号化では $\mathrm{emb}$ の情報を少しは転移しているが,ファインチューニングで重みが再学習されると考えられる。 そして,主な性能貢献は emb 以外のコンポーネントの影響によるものであり, それはトークンの頻度の学習で達 成されると推測できる. MASS の場合,表 2 より明らかに embを転移すると性能向上している。特に事前学習データが “En” だと “Zipf”よりも emb の性能に対する貢献が強いと確認できる。表 3 から embをフリーズした時,両事前学習データとも性能が悪化しているが, “En” よりも “Zipf” の方が悪影響を受けている。これは “En”では文脈的な emb が得られたが, “Zipf” では無理に文脈的な embを獲得しようとして低品質なものが生成されてしまったからだと考えられる。 enc の転移の影響自己符号化の場合,表 2 から事前学習データに依らず enc の転移が性能に貢献していることが確認できる(5 8 行目). 表 3 から両事前学習データともに encをフリーズしても何もフリーズしない場合と同程度の性能を出している. よって enc の学習は頻度情報のみで十分であり, 主な翻訳性能の貢献に繋がると考えられる(貢献 4). MASS の場合,表 2 より事前学習データが “En” では enc が性能に貢献しているが,“Zipf”では他のコンポーネントの場合と同程度のスコアである (10 12 行目). 表 3 からは encをフリーズした場合,他のコンポーネントをフリーズした場合よりも低いスコアが見られる. これは MASS で enc が学習した表現は NMT で必要とされる表現とは異なり,NMT での再学習が必要であることを示している. また事前学習データが “Zipf” の時は大幅な性能低下が見られるため, 頻度情報のみでは enc の学習は上手く行われない。よって MASS では, enc は共起性や構造性を持つ実データでの事前学習が必要であり, 下流タスクで enc を再学習する必要がある。 x-attn の転移の影響自己符号化の場合,表 2 から事前学習データによらず x-attn のみを転移すると大幅に性能が下がるため,他のコンポーネント(特に enc)と組み合わせる必要がある,これはトークンの対応がそのトークン自身とで取られており,NMT で求められるトークンの対応とかけ離れた表現が学習されているためと考えられる. また, 表 3 でフリーズしても比較的性能が下がらないのは, 事前学習済み enc と組み合わせているためと考えられる。 MASS の場合,表 2 から “En”ではかなり低いスコアが見られる (3行目).これは英語からドイツ語へのトークンの対応が学習されていないためと考えられる。一方で “Zipf”だと大きなスコアの変動は見れられない。“Zipf”データはトークンが独立に抽出されるため, MASS での学習であまり偏りのない表 3 全てのコンポーネントを転移した後,各部分をフリーズした時の, 事前学習法, 事前学習データごとのテストセットにおける BLEU スコア. “ $x ”$ は該当するコンポーネントをフリーズしていることを意味する。 トークン同士の対応分布が獲得できたためと考えられる. 表3でのフリーズの結果は自己符号化と同様に,事前学習済み enc と組み合わせているため比較的性能が下がらないと考えられる. $\operatorname{dec}$ の転移の影響自己符号化の場合,表 2 より両事前学習データともに同程度のスコアを出している(4,12 行目)。表 3 より decをフリーズした場合, enc, x-attn に比べ性能が下がるが,両事前学習デー タで同程度のスコアである. よって decでも頻度の学習が行われているが,下流タスクで再学習する必要がある. MASS の場合は表 2 からは両事前学習データともに同程度のスコアである (4, 12 行目). 表 3 より enc の場合と同様に, “Zipf" で訓練したものは “En”よりも性能が低いため実データで学習する必要がある. ## 6 おわりに 本研究では実データ,人工データを自己符号化と MASS の 2 つの事前学習法で訓練し NMT での性能を調査した。自己符号化の場合は,トークンの頻度を考慮したデータセットで学習したモデルが実デー タでのものよりも高い性能であったが,MASS では実データで学習する必要があることを示した. また転移学習に対する ablation study を行い,モデルの各コンポーネントが各事前学習データ, 事前学習法により受ける翻訳性能への影響を調査した。自己符号化の場合, 事前学習データの種類に関わらず embeddings 以外のコンポーネントが主な性能に貢献しており, encoders がトークンの頻度情報を学習するだけで高い性能が発揮されることを示した. 一方 MASS では実データで学習することで embeddings が性能に大きく貢献することを示した。 今後の展望として, MASSでも人工データでの事前学習で高い性能を出せるような, 共起性, 構造性を考慮した人工データの作成を目指している。 ## 参考文献 [1] Isabel Papadimitriou and Dan Jurafsky. Learning Music Helps You Read: Using transfer to study linguistic structure in language models. In EMNLP, 2020. [2] Cheng-Han Chiang and Hung yi Lee. Pre-training a language model without human language. arXiv preprint arXiv:2012.11995, 2020. [3] Cheng-Han Chiang and Hung yi Lee. On the transferability of pre-trained language models: A study from artificial datasets. arXiv preprint arXiv:2109.03537, 2021. [4] Kundan Krishna, Jeffrey Bigham, and Zachary C. Lipton. Does pretraining for summarization require knowledge transfer? In Findings of EMNLP, 2021. [5] Alham Fikri Aji, Nikolay Bogoychev, Kenneth Heafield, and Rico Sennrich. In neural machine translation, what does transfer learning transfer? In ACL, 2020. [6] Barret Zoph, Deniz Yuret, Jonathan May, and Kevin Knight. Transfer learning for low-resource neural machine translation. In EMNLP, 2016. [7] Raj Dabre, Tetsuji Nakagawa, and Hideto Kazawa. An empirical study of language relatedness for transfer learning in neural machine translation. In PACLIC, 2017. [8] Ye Qi, Devendra Sachan, Matthieu Felix, Sarguna Padmanabhan, and Graham Neubig. When and why are pre-trained word embeddings useful for neural machine translation? In NAACL, 2018. [9] Kaitao Song, Xu Tan, Tao Qin, Jianfeng Lu, and Tie-Yan Liu. MASS: Masked sequence to sequence pre-training for language generation. In ICML, 2019. [10] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In ACL, 2020. [11] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NeurIPS, 2017. [12] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel R. Bowman. GLUE: A multi-task benchmark and analysis platform for natural language understanding. In ICLR, 2019. [13] Ondrej Bojar, Christian Buck, Christian Federmann, Barry Haddow, Philipp Koehn, Johannes Leveling, Christof Monz, Pavel Pecina, Matt Post, Herve Saint-Amand, Radu Soricut, Lucia Specia, and Aleš Tamchyna. Findings of the 2014 workshop on statistical machine translation. In WMT, 2014. [14] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open Source Toolkit for Statistical Machine Translation. In ACL, 2007. [15] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In ACL, 2016. [16] Matt Post. A call for clarity in reporting BLEU scores. In WMT, 2018. ## A ハイパーパラメータ 表 4 に本実験で設定した主なハイパーパラメータを示す. word-mask 率は MASS で事前学習を行う際,入力系列をどれだけマスクするかの割合である. 表 4 各事前学習法ごとの事前学習時 (PT) とファインチューニング時 (FT) のハイパーパラメータ. & & 4,096 & & クン & \\
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH3-12.pdf
# 複数意図のエンティティクエリに対する 絞り込み検索のためのクエリ生成法の提案 豊田 樹生 齋藤 純 小松 広弥 熊谷 賢 菅原 晃平 ヤフー株式会社 \{itoyota, junsait, hkomatsu, kenkumag, ksugawar\}@yahoo-corp.jp ## 概要 本論文では複数意図を持つエンティティクエリに対する絞り込み検索のためのクエリ生成に取り組む. 複数の正例生成器とラベル未付与事例生成器を組み合わせることで訓練事例を自動生成することを提案する.クエリの組の CRR(Cumulative Reciprocal Rank) の差を含めた複数の素性を用いて Random Forest[4] による PU(Positive Unlabeled) 学習を行う.提案手法により CRR の差を単独で用いる場合よりも $\mathrm{F}$ 值が 4.4 ポイント向上することを示す. ## 1 はじめに ウェブ検索においては,しばしば複数意図を持つエンティティクエリ [11]が発行される. 例えば,メディア作品名のクエリ “ゆるキャン $\triangle$ ”では, 漫画・ ドラマ・アニメなどの複数の意図がある. 人物名のクエリ “森麻季” では, アナウンサーや歌手などの複数の意図がある.このようなクエリに対して,それぞれの意図に対応した絞り込み検索をできるようすることは検索体験を向上させるうえで重要である. 先行研究の複数意図クエリのブレンド検索 [12] や関連クエリの自動補完 [10] はエンティティクエリを考慮したモデリング・評価が十分であるとは言い難い。そこで,本論文では次のような貢献を行う: (i)複数意図のエンティティクエリに対して絞り込み検索を行えるようにするための再検索クエリの生成方法として, 検索ログに蓄積された元クエリ・再検索クエリの組を順位付けして利用することを提案する。 (ii)複数のラベル生成器を用いた訓練事例の自動生成法を提案し, PU(Positive Unlabeled) 学習を行えることを示す. (iii)Random Forest[4] により学習を行い,単独のラベル生成器を用いた場合と比較して $\mathrm{F}$ 值が 4.4 ポイント向上したことを報告する. ## 2 問題設定 元クエリ $q_{a}$ に対して, 再検索クエリ $q_{b}$ の順位付けされたリストを生成する。 このとき, 次のクエリの要件を全て満たす候補のみを選択する:1) $q_{a} , q_{b}$ はいずれもエンティティクエリである 2) $q_{a}$ は複数のエンティティを指している 3) $q_{b}$ は特定のエンティティを指す意図の絞り込みのクエリである ## 3 挑戦的課題 本タスクの挑戦的課題を次に示す: 意図の絞り込みではない再検索の除外 1) 力点の変化を判定できなければならない。例えば“アガサクリスティ” $\rightarrow$ “アガサクリスティねじれた家”の場合は付加された“ねじれた家” に力点が変化している. こういった組は除外するべきである.2) 周辺語を含まない部分一致はクエリの表層だけでは判定が難しい,例えば“東京” “東京タワー”の場合は意図を絞り込んでいるわけではないため除外するべきである。一方, 同じ部分一致でも取り違える可能性の高い組は絞り込みのための再検索として残す必要が などが挙げられる. 知識外の再検索候補の順位付け所与の知識ベースに格納されているエンティティが再検索先の候補として最もふさわしくなるとは限らない。例えば“RHP” というクエリでは “バイトル RHP”(ホームページ作成サービス) などが再検索クエリの候補として挙げられる。しかし, これと対応するエンティティは Wikipedia などの知識べースには格納されていない. ## 4 フレームワーク 図 1 に提案手法のフローチャートを示す.手順は次のとおりである。まず,検索ログを二種類取得する。一つ目は素性抽出用のログである。あらかじめ 学習時に参照するための素性を保存しておく. 二つ目は順位付け対象となる元クエリおよび再検索クエリの組を取得するためのログである (4.1 節)。このログから取得された順位付け対象のクエリの組に対し, 複数のラベル生成器を用いて正例とラベル未付与の事例とに分割する (4.2 節, 4.3 節). さいごに, $\mathrm{PU}$ 学習 [4] を行い, 順位付けのための回帰器の学習およびそれを用いた予測確率の付与を行う (4.4 節). 図 1: フローチャート ## 4.1 検索ログの取得 ウェブ検索のセッションログ1)を取得する。このログから再検索クエリ $q_{b}$ の発行された時刻 $t\left(q_{b}\right)$ と元クエリ $q_{a}$ の発行された時刻 $t\left(q_{a}\right)$ の差が 30 秒以内のもののみを抽出する. ## 4.2 正例生成器 次の 3 つの正例生成器を提案する: 4.2.1 元クエリに対するエンティティリンカー 元クエリを内製のエンティティリンカー $[14,15,16]$ の入力とし, エンティティ ID を出力する. 知識ベースからエンティティ ID と紐づく正式名称を取得する. 元クエリが正式名称に対する部分一致文字列になっている場合は元クエリ, 正式名称の組を正例とする. ## 4.2.2クエリの組に対するエンティティリンカー元クエリと再検索クエリの組を内製のエンティ ティリンカー $[14,15,16]$ の入力とし, それぞれのエ ンティティ ID を取得する. 元クエリと再検索クエ リでそれぞれ異なるエンティティ IDを出力してい る組を残す2).さいごに,次の条件をすべて満たす 組を正例とする:1) 人物エンティティ間,または, メディア作品間の遷移である 2) 元クエリに周辺語 1) セッションとは, ある特定のユーザーが一定時間内に発行した一連のクエリとそれに伴うユーザ行動のことを指す。 2)同一 ID を指す再検索クエリが複数ある場合は生起確率の最も高い候補を選択する は含まれない3)3) 遷移前後で主要語と周辺語の入れ替わりが起きていない ## 4.2.3クェリの組に対する CRR の差 クエリの組に対する CRR(Cumulative Reciprocal Rank)[5] の差 $\triangle C R R$ はクエリ自動補完の分野においてしばしば用いられる指標である $[10,12]^{4)}$. 本論文では $\triangle C R R$ を次のように表現する: $ \Delta C R R=\sum_{d \in D_{b}}\left(\frac{1}{r\left(q_{b}, d\right)}-\frac{1}{r\left(q_{a}, d\right)}\right) $ ここで $D_{b}$ は再検索クエリ $q_{b}$ によってクリックされうる文書の集合, $r\left(q_{b}, d\right)$ は再検索クエリ $q_{b}$ に対する文書 $d$ の順位, $r\left(q_{a}, d\right)$ は元クエリ $q_{a}$ に対する文書 $d$ の順位である. 元クエリ $q_{a}$ では上位に順位付けできなかった文書を再検索クエリ $q_{b}$ が上位にできれば $\triangle C R R$ は正の值をとる.このとき再検索クエリ $q_{b}$ はユーザー にとって役に立ったとみなすことができる [12]. 本論文では, $r\left(q_{b}, d\right)$ および $r\left(q_{a}, d\right)$ の順位は所与のクエリに対するクリック先文書の CTR(Click Through Rate) の順位によって算出する5). CTR の算出に用いられた文書の延べ数が各 10 以上,かつ,再検索クエリ側の文書の延べ数が元クエリ側の延べ数の $10 \%$ 以上, かつ, $\triangle C R R$ が 0 より大きく 1.5 以下の場合に元クエリ・再検索クエリの組を正例とする。 $\triangle C R R$ に対するしきい值の決定方法の詳細は 5.5 節で述べる. ## 4.3 ラベル未付与事例生成器 次のラベル未付与事例生成器を提案する: 生成器 1 元クエリがあいまいさ回避ぺージ6) と対応するエンティティの名称と一致する事例をラベル未付与とする 生成器 2 クエリの組に対する正例の生成時 (4.2.2 節) に正例と判定されなかった事例のうち周辺語を含まず ID が異なるクエリの組をラベル未付与とする 生成器 $3 \quad \Delta C R R$ による正例の生成時 (4.2.3 節) に正例と判定されなかった事例をラベル未付与とする 3)元クエリの主要語が空白で区切られている場合, 空白の後の文字列は周辺語とはしない 4)順位に対数を適用した重みづけ [10],セッション後半のクリック先を利用したスコア補正 [12] などいずれも派生的な $\triangle C R R$ の定義をしている 5)本論文では滞在時間による足切りは行わない 6) https://w.wiki/4dcg ここで,すでに正例と判定されていた事例についてはラベル未付与とはせず正例とした. ## 4.4 PU 学習 本論文では次のように PU 学習 [7] を行う. まずラベル未付与の事例に対してラベルを付与する: 1) 正例およびラベル未付与の事例を訓練用とテスト用の 2 つに分割する.2)訓練用の正例およびラべル未付与の事例を入力とし, ラベル付与確率の回帰器を生成する.3) テスト用の正例に対してこの回帰器を適用し, ラベル付与確率 $g(x)$ の平均 $c$ を求める. 4) テスト用のラベル未付与の事例に対して回帰器を適用し $w(x)=p(y=1 \mid x, s=0)$ の重みによりラベリングを行う. ここで $w(x)$ は定数 $c$ への依存を持つ.5) テスト用の事例と訓練用の事例を入れ替え,2 4 のステップを行う. 全ての事例にラベルが付与されたら二分割交差検定を行い,各テスト用事例に対して付与された予測確率を順位付けに用いる。 ## 4.4.1 素性 PU 学習の際に用いる素性を表 1 に示す. 表 1: 素性 \\ $\mathrm{i}$ 取得期間のログでの生起回数が合計 10 未満である場合は除外 以下,詳細が必要な素性について説明する: クェリの分散表現クエリログからトークン数が 2 以上のレコードを抽出し, トークンの生起回数に基づくShifted Positive PMI の行列 $X$ を生成する.この行列に Randomized SVD[6,8] を適用し $X=U \Sigma V^{*}$ を得る. ここで, $U, V$ は直交行列, $\Sigma$ は特異値の対角行列である。トークンの分散表現に行列 $W^{S V D_{\alpha}}=U(\Sigma)^{\alpha}$ を用いる [9] ${ }^{7) 8)}$ 。クエリの分散表現はトークンの分散表現の加算により生成する9). ## 5 評価 ## 5.1 データセット 各データセットの詳細を次に示す: 参照用素性 2021 年 11 月 01 日 11 月 30 日までの期間のセッションログを用いて素性を抽出した。 内製のエンティティリンカー 2021 年 12 月 01 日付けのモデル (モデルの訓練には 12 月 01 日付けの内製知識ベース [13] および 12 月 01 日以前の直近 1 年間のヤフー検索のクリックログを利用) 順位付け対象事例 2021 年 12 月 17 日 12月 23 日までの期間に発行された元クエリと再検索クエリの組. 4 章で示した操作により順位付け対象事例に対して確率を付与した ${ }^{10)}$.このときの素性は前述の参照用素性を利用した. ${ }^{11)}$ 開発・評価事例順位付け対象事例のうち元クエリに対するエンティティリンカーの推定結果の一位があいまいさ回避エンティティと対応し, かつ, 元クエリあたりの再検索クエリの異なり数が 50 以上の事例のみを残した。まず元クエリ 100 事例を非復元抽出し,この元クエリを含む組を評価用とした。評価用として使用されなかった組から $\triangle C R R$ が $[0.5,2.0]$ の範囲の 0.25 刻みで各 10 事例ずつ非復元抽出した.この計 70 事例を開発用事例とした. ## 5.2 比較手法 比較手法を次に示す ${ }^{12)}:$ RF Random Forest[4]によりPU 学習を行った. Spark MLlib 2.4.6を使用. Randomized SVD には Criteo Spark-RSVD ${ }^{13)}$ を使用. DCRR 素性抽出用ログの期間に計算した $\triangle C R R$ の値を適用した。このときしきい値を 1.5 に設定した。 7) パラメータは $\alpha=1.0$, negative-sampling の值 $k=5.0$ に設定 8)クエリ発行時間間隔の制約を一旦解除してトークンの生起回数を計算した。制約下で生起しないトークンの分散表現は除外した。 9)クエリが 1 トークンで構成される場合は,クエリの分散表現はトークンの分散表現と等しくなる. 10) 正例は $1,225,010$ 事例, ラベル未付与事例は 9,036,884 事例であった。PU 学習前にランダムオーバーサンプリング [1] により両方の数を均等にした。 11)紙面の都合により本論文では交差検定の結果について取り扱わないが,時系列データなどに対する交差検定の手法はいくつか提案されている。予測対象の直近の区間の素性は利用しないという点で noDepCV[3] に近い手法といえる. 12)評価事例に対する DCRR 以外の正例生成器 (4.2.1 節, 4.2.2 節) の正例生成数はゼロであったため比較手法から除外した 13) https://github.com/criteo/Spark-RSVD ## 5.3 評価方法 2022 年 1 月 5 日にヤフー検索 ${ }^{14)}$ に対してクエリを発行した。これらの事例に対して次の 3 段階のスコアを付与した : 1.0:クエリの要件 (2 章)を満たし, かつ, 検索結果 1 2 ページ目のいずれかの文書に対応している. 0.5 :クエリの要件を満たさないが,検索結果 1 ページ目の上位 5 件以内の文書と対応している. 0.0 :上記以外 表 2 にクエリの要件の具体例を示す. 表 2: クエリ要件の具体例。下線部は元クエリ。 ## 5.4 正例生成器 $(\Delta C R R)$ のしきい值の設定 開発事例に対して 3 段階のスコアを付与した $(5.3$節). このとき $\mathrm{F}$ 值が最大となったしきい值 1.5 を設定した15). ## 5.5 評価結果 評価事例に対して 3 段階のスコアを付与した $(5.3$節). 付与結果をもとにして適合率, 再現率, $\mathrm{F}$ 値を計測した. 表 3 に結果を示す. 適合率@3 について DCRR がRF 12.4 ポイント上回った. 再現率@3 および F 值について,RF が DCRR をそれぞれ 12.3 ポイント, 4.4 ポイント上回った. 表 3: 適合率, 再現率, $\mathrm{F}$ 值. Bootstrap 検定 [2] ではいずれの差分も統計的に有意 $(p<0.05)$ であった. 表 4 に順位付け結果の例を示す.RF はクエリ“花鳥風月”に対して知識外の花鳥風月 (ビール) も含めて順位付けできた。また,クエリ“山頭火”に対して周辺語を含まない部分一致の再検索クエリである “種田山頭火”も含めて順位付けできた。 表 4: 順位付け結果. 下線かつ太字はスコア 1.0 , 下線のみはスコア 0.5 , 下線無しはスコア 0 . 左から順に $1,2,3$ 位 \\ 14) https://search.yahoo.co.jp 15)このときの $\mathrm{F}$ 值は 0.735 ## 5.6 素性の重要度の分析 Random Forest[4] の出力した分散に基づく素性の重要度の上位 25 件を図 2 に示す。上位を独占したのは $\triangle C R R$ 関連の素性であった。 $\triangle C R R$ 自身の值 DeltaCRR $\left(q_{a}, q_{b}\right)$ よりもその算出に関わったクリック先の文書数の比率 DeltaCRRRatio $\left(q_{a}, q_{b}\right)$ の方が重要という結果となった。この素性は暗黙的に候補間での相対的な再検索クエリの人気度を包含しているため, これが重要だったのではないかということが考えられる。次点は検索補助関連の素性という結果となった。上位の $\operatorname{Assist}\left(q_{a}\right)_{16}, A \operatorname{sist}\left(q_{b}\right)_{14}$ は同一素性でもベクトルの位置が異なっている.元クエリと再検索クエリでは注目するべき検索行動が異なるということが示唆される。クエリの分散表現関連の素性は上位 25 件内に確認できなかった。この理由としては, 正例生成器において $\Delta C R R$ とエンティティリンカーの判定の論理和を利用したため, 本来クエリの意味の観点からは正例に算入するべきではない事例 (e.g., “XXX 店舗” の構成の再検索クエリを含む組) が一律に正例として混じってしまい,回帰器の学習時にこの素性が利用される場面が限定的になってしまったのではないかと考えられる。 図 2: 素性の重要度. 添え字はベクトルでの位置 (0-base). ## 6 おわりに 本論文では複数の正例生成器とラベル未付与事例生成器を組み合わせることで訓練事例を生成することを提案した。 $\triangle C R R$ を単独で用いる場合よりも,複数の素性を用いた Random Forest[4] による順位付けのほうが $\mathrm{F}$ 值が 4.4 ポイント向上することを示した。 ## 参考文献 [1]Gustavo EAPA Batista, Ronaldo $\mathrm{C}$ Prati, and Maria Carolina Monard. A study of the behavior of several methods for balancing machine learning training data. ACM SIGKDD explorations newsletter, Vol. 6, No. 1, pp. 20-29, 2004 [2]Taylor Berg-Kirkpatrick, David Burkett, and Dan Klein. An empirical investigation of statistical significance in NLP. In Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, pp. 995-1005. Association for Computational Linguistics, 2012. [3]Christoph Bergmeir and José M Benítez. On the use of cross-validation for time series predictor evaluation. Information Sciences, Vol. 191, pp. 192-213, 2012. [4]Leo Breiman. Random forests. Machine learning, Vol. 45, No. 1, pp. 5-32, 2001. [5]Allison JB Chaney, David M Blei, and Tina EliassiRad. A probabilistic model for using social networks in personalized item recommendation. In Proceedings of the 9th ACM Conference on Recommender Systems, pp. 43-50, 2015. [6]Paul G Constantine and David F Gleich. Tall and skinny qr factorizations in mapreduce architectures. In Proceedings of the second international workshop on MapReduce and its applications, pp. 43-50, 2011. [7]Charles Elkan and Keith Noto. Learning classifiers from only positive and unlabeled data. In Proceedings of the 14th ACM SIGKDD international conference on Knowledge discovery and data mining, pp. 213-220, 2008. [8]Nathan Halko, Per-Gunnar Martinsson, and Joel A Tropp. Finding structure with randomness: Probabilistic algorithms for constructing approximate matrix decompositions. SIAM review, Vol. 53, No. 2, pp. 217-288, 2011. [9]Omer Levy and Yoav Goldberg. Neural word embedding as implicit matrix factorization. Advances in neural information processing systems, Vol. 27, pp. 2177-2185, 2014. [10]Umut Ozertem, Olivier Chapelle, Pinar Donmez, and Emre Velipasaoglu. Learning to suggest: a machine learning framework for ranking query suggestions. In Proceedings of the 35th international ACM SIGIR conference on Research and development in information retrieval, pp. 25-34, 2012. [11]Jeffrey Pound, Peter Mika, and Hugo Zaragoza. Adhoc object retrieval in the web of data. In Proceedings of the 19th international conference on World wide web, pp. 771-780. ACM, 2010. [12]Milad Shokouhi, Marc Sloan, Paul N Bennett, Kevyn Collins-Thompson, and Siranush Sarkizova. Query suggestion and data fusion in contextual disambiguation. In proceedings of the 24th international conference on world wide web, pp. 971-980, 2015. [13]Tomoya Yamazaki, Kentaro Nishi, Takuya Makabe, Mei Sasaki, Chihiro Nishimoto, Hiroki Iwasawa, Masaki Noguchi, and Yukihiro Tagami. A scalable and plug-in based system to construct a production-level knowledge base. In Proceedings of the 1st International Workshop on Challenges and Experiences from Data Integration to Knowledge Graphs co-located with the 25th ACM SIGKDD International Conference on Knowledge Discovery \&Data Mining, 2019. [14]豊田樹生, 小松広弥, 熊谷賢, 菅原晃平. ウェブ検索クエリのための部分一致文字列に対するエンティティ名称予測モデルの提案. 言語処理学会第 27 回年次大会発表論文集, pp. 590-594, 2021. [15]豊田樹生, 土沢誉太, 築地毅, 菅原晃平, 野口正樹. dishpam: A distributable seeded hierarchical pachinko allocation model. 言語処理学会第 26 回年次大会発表論文集, pp. 217-220, 2020. [16]豊田樹生, 夜久真也, 石川葉子, 土沢誉太, Kulkarni Kaustubh, Bhattacharjee Anupam, 宰川潤二. ウェブ検索クエリに対する周辺語を考慮した教師なしエンティティリンキング. 言語処理学会第 25 回年次大会発表論文集, pp. 81-84, 2019.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH3-13.pdf
# 主観と客観の感情極性分類のための日本語データセット 宮内 裕人 1 鈴木 陽也 ${ }^{1}$ 秋山 和輝 ${ }^{1}$ 梶原 智之 ${ }^{1}$ 二宮 崇 ${ }^{1}$ 武村 紀子 ${ }^{2}$ 中島悠太 ${ }^{2}$ 長原一 2 1 愛媛大学 2 大阪大学 \{miyauchi,suzuki,k_akiyama\}@ai.cs.ehime-u.ac.jp \{kajiwara,ninomiya\}@cs.ehime-u.acjp \{takemura,n-yuta, nagahara\}@ids.osaka-u.ac.jp ## 概要 本研究では、Plutchik の基本 8 感情の強度および感情極性を注釈付けした日本語の感情分析のためのデータセットを構築し、公開した。60 人のアノテー タから収集した合計 35,000 件の SNS 上の投稿について、書き手自身の主観的な感情と読み手による客観的な感情の両方をラベル付けした。本稿では、喜びや悲しみなどの基本感情とポジティブまたはネガティブの感情極性の間の関係を明らかにし、感情極性分類のベンチマークの結果を報告する。 ## 1 はじめに 感情分析は、対話システム [1] やソーシャルメディアマイニング [2] など多くの応用を持つ主要な自然言語処理タスクのひとつである。感情分析の先行研究では、テキストからの感情極性の推定 (Sentiment Analysis)および基本感情の分類(Emotion Detection)の2つのサブタスクが扱われてきた。前者はポジティブまたはネガティブの感情極性を対象とするものであり、後者は喜びや悲しみなどの 4 種類から 8 種類ほどの基本感情 $[3,4]$ を対象とする。 表 2 に示すように、感情分析の先行研究は、感情極性(Sentiment)を扱うか基本感情(Emotion)を扱うか、また、テキストの書き手の感情(主観感情) を扱うかテキストの読み手の感情(客観感情)を扱うかという点で、多様な研究が行われてきた。しかし、これらを包括的に扱った先行研究は存在しないため、感情極性と基本感情の間の関係や、書き手の感情と読み手の感情の間の関係は明らかではない。 本研究では、日本語のSNS テキストに対して主観と客観の両方の立場から基本感情の強度を付与した WRIME [5] を拡張し、表 1 のように同じテキストに対して主観と客観の両方の立場から感情極性のラべ表 1 本研究で構築したデータセットの例 傘盗まれたんだけど!! 悲 & & & & & & & & \\ ルを追加した。本研究で構築した日本語の感情分析 ## 2 感情分析データセットの構築 ## 2.1 主観的アノテーション クラウドソーシングのランサーズ2)を用いて、60 人の主観注釈者を雇用した。注釈者の性別の内訳は、男性が 21 人、女性が 39 人である。また、年齢の内訳は、 20 代が 28 人、 30 代が 22 人、 40 歳以上が 10 人である。主観注釈者は、SNS 上での自身の過去の投稿に対して、Plutchik の 8 感情 [3] の強度をそれぞれ 4 段階(無・弱・中・強)で付与するとともに、感情極性を 5 段階(強いポジティブ・ポジティブ・ ニュートラル・ネガティブ・強いネガティブ)で付与した。ただし、テキストからの感情分析という目的のために、画像付きの投稿や URL 付きの投稿は対象外とした。各注釈者は 100 件から 1,000 件までの投稿にラベルを付与しており、合計で 35,000 件の投稿を収集した。全ての主観注釈者は、自身が提供する全ての投稿に対して、感情強度と感情極性の両方のラベルを付与した。投稿時期については特に制  表 2 感情分析データセットの一覧 表 3 Quadratic Weighted Kappaによる注釈者間のアノテーションの一致率 限を設けなかったが、結果として 2010 年 8 月から 2020 年 11 月までの 10 年間の範囲の投稿が集まった。なお、投稿 1 件あたり 10 円の報酬を支払った。 収集した感情極性ラベルの品質を評価するために、注釈者ごとに 30 件の投稿を無作為抽出した。評価者(大学生 1 人)は、投稿内容と感情極性ラべルを見て、以下の基準で各投稿を 4 段階評価した。 ・3: 付与されたラベルに完全に同意できる ・2 : 付与されたラベルに概ね同意できる ・1: 付与されたラベルに同意しにくい ・0:付与されたラベルに全く同意できない 評価結果を注釈者ごとに平均すると、最低 1.9 点、最高 2.8 点で平均 2.4 点であった。なお、 0 点の投稿は存在しなかった。平均 2 点を下回る注釈者は 4 人いたが、著しく低品質な注釈者は見られなかった。 ## 2.2 客観的アノテーション 同じくランサーズを用いて、3人の客観注釈者を雇用した。注釈者の内訳は、 30 代の女性が 2 人と 40 代の女性が 1 人である。客観注釈者は、2.1 節で収集した 35,000 件の全投稿に対して、主観注釈者と同様に感情強度と感情極性の両方をラベル付けした。 ただし、主観注釈者がテキストの書き手である自身の感情を付与した一方で、客観注釈者は読み手である自身がテキストから想像する書き手の感情を付与した。なお、投稿 1 件あたり 3 円の報酬を支払った。収集したラベルの品質を評価するために、 Quadratic Weighted Kappa ${ }^{3)}$ [12]を用いて注釈者間の一致率を計算した。表 3 の上段に、客観注釈者のアノテーションの一致率を示す。怒りの感情は $\kappa>0.6$ の substantial agreement、信頼の感情は $\kappa<0.4$ の fair agreement であるが、 8 感情の全体としては $0.5<\kappa<0.6$ の moderate agreement を確認できた。感情極性についても、 moderate から substantial な一致を確認できた。 ## 3 データセットの分析 表 3 の下段に、主観注釈者と客観注釈者の間のアノテーションの一致率を示す。先行研究 [5] と同様に、 8 感情において、主観注釈者と客観注釈者の間の感情強度の一致率は客観注釈者間の一致率よりも全体的に低い。本研究で新たに付与した感情極性に  表 4 注釈者ごとの感情極性ラベルの分布 表 5 主観と客観の感情極性ラベルの混同行列(\%) 表 6 感情強度と感情極性のピアソン相関係数 おいても、同様の傾向が見られた。以降では、本研究で新たに付与した感情極性について調査する。 ## 3.1 主観と客観の感情極性ラベルの分布 表 4 に、注釈者ごとの感情極性ラベルの分布を示す。主観注釈者の感情極性ラベルは、ニュートラルが最も多く、強いポジティブおよび強いネガティブの極端なラベルは比較的少ない。 3 人の客観注釈者にはそれぞれ異なる特徵が見られたが、平均すると主観注釈者と似た傾向が見られた。ただし、強いポジティブおよび強いネガティブの極端なラベルは少なく、ネガティブのラベルが多い。 表 5 に、主観注釈者の感情極性ラベルと客観注釈者の感情極性ラベルの平均値の混同行列を示す。主観注釈者が強いポジティブと回答した投稿において、客観注釈者はその $70.5 \%$ をポジティブと回答した。また、主観注釈者が強いネガティブと回答した投稿において、客観注釈者はその $80.2 \%$ をネガティブと回答した。なお、主観注釈者と客観注釈者の感情極性の正負が異なる割合は $3.9 \%$ から $8.8 \%$ と充分に少ない。以上から、客観注釈者は主観注釈者の感情極性の正負を適切に推定できるが、感情極性の強度は弱めに見積もる傾向があることがわかった。 ## 3.2 感情強度と感情極性の関係 表 6 に、感情強度と感情極性のピアソン相関を示す。この表から、各感情がポジティブな感情なのかネガティブな感情なのかがわかる。この分析から、 Plutchik の 8 感情のうち、喜び・期待・信頼の 3 つはポジティブな感情、悲しみ・怒り・恐れ・嫌悪の 4 つはネガティブな感情であると言える。表 7 主観と客観の感情極性の一致率 また、複数の感情が共起する投稿においては、主観注釈者による感情極性のラベルと客観注釈者による感情極性のラベルの一致率が高まることがわかった。本分析では、主観の感情強度に従ってデー タセットを以下のように 3 分割した。 ・無感情 : 全ての感情強度が無または弱 ・単一感情: 1 つの感情強度のみが中または強 ・複数感情 : 2 つ以上の感情強度が中または強 表 7 に、感情の共起と主観客観の感情極性の一致率の関係を示す。無感情の投稿よりも単一感情の投稿の方が主観の感情極性と客観の感情極性の一致率が高く、単一感情の投稿よりも複数感情が共起する投稿の方がさらに高い一致率を持つことがわかる。 ## 4 感情極性分類の実験 2 節のデータセットを用いて、感情極性 $(-2 \cdot-1 \cdot$ $0 ・ 1 ・ 2 ) を$ 推定する 5 値分類の評価実験を行う。 ## 4.1 実験設定 データセットは、 40 人 30,000 件の訓練用データ、 10 人 2,500 件の検証用データ、 10 人 2,500 件の評価用データに重複なく分割して実験する。感情極性分析モデルの性能は、正解率 (Accuracy)、平均絶対誤差 (MAE)、Quadratic Weighted Kappa (QWK) の 3 つの指標によって自動評価する。主観注釈者が付与し 表 8 感情極性分類の実験結果 た感情極性ラベル(主観データ)を用いる評価と、 3 人の客観注釈者が付与した感情極性ラベルの平均值(客観データ)を用いる評価の両方を実施する。本実験では、以下の 3 種類の分類器を用いる。 $\cdot$BoW+LogReg:Bag-of-Words による素性抽出とロジスティック回帰による分類を行う。単語分割には MeCab(IPADIC-2.7.0)4) [13]を用いる。 - BERT (Wikipedia) ${ }^{5}$ :Wikipedia を用いて事前訓練された日本語 BERTを感情極性分類タスクのために再訓練し、 $\boldsymbol{y}=\operatorname{softmax}(\boldsymbol{h} \boldsymbol{W})$ として感情極性を推定する。ただし、 $\boldsymbol{h}$ は BERT の [CLS] トークンから得られる素性べクトルである。 - BERT (SNS) ${ }^{6}$ :SNS テキスト上で事前訓練された日本語 BERTを本タスク用に再訓練する。 BoW+LogReg の実装には、scikit-learn ${ }^{7)}$ [14]を使用する。ハイパーパラメータCは、 $\{0.01,0.1,1,10,100\}$ の中から検証用データにおける最適値を選択する。 BERT の実装には、Transformers ${ }^{8}$ [15] を使用する。 バッチサイズは $32 、$ ドロップアウト率は 0.1 、学習率は 2e-5、最適化は Adam [16] として、3 エポックの early-stopping を適用する。 ## 4.2 実験結果 実験結果を表 8 に示す。BoW+LogReg よりも BERT の性能が高く、訓練データと評価データのドメインが一致する BERT (SNS) が最高性能を達成した。また、客観データにおける評価よりも主観デー タにおける評価の方が全体的に性能が低く、主観的な感情極性の推定がより難しいことがわかる。 表 8 の上段では、主観データを用いて訓練したモ  デルで主観データにおける評価を実施し、客観デー タを用いて訓練したモデルで客観データにおける評価を実施した。下段には、主観データを用いて訓練した主観 BERT (SNS) による客観データにおける評価および客観データを用いて訓練した客観 BERT (SNS) による主観データにおける評価の結果を示す。この結果から、評価対象に関わらず、客観デー タを用いて訓練したモデルの性能が一貫して高いことがわかる。先述のように、書き手の感情極性(主観データ)の推定は難しいため、単純な訓練では十分な性能が得られなかったものと考えられる。 ## 5 おわりに 本研究では、日本語の感情分析のためのデータセット ${ }^{1}$ ) [5] を拡張し、約 2 倍の規模(35,000 件)への拡大と感情極性ラベルのアノテーションを行った。基本 8 感情と感情極性の両方を付与した感情分析コーパスは日本語としては初であり、これらの感情ラベルをテキストの書き手による主観的な立場と読み手による客観的な立場の両方からアノテーションしたのは英語など他の言語を含めても初の取り組みである。本コーパスを用いることで、テキストと感情に関する包括的な分析が可能になった。 調査の結果、喜び・期待・信頼の 3 感情はポジティブな感情、悲しみ・怒り・恐れ・嫌悪の 4 感情はネガティブな感情であることが明らかになった。 また、複数の感情が共起するテキストは、単一の感情のみが含まれるテキストよりも、読み手にとって書き手の感情を読み取りやすいこともわかった。感情極性分類の実験結果からは、書き手による主観的な感情極性の推定が、読み手による客観的な感情極性の推定よりも難しいことがわかった。今後の課題として、基本感情の強度推定とのマルチタスク学習や、投稿履歴などを考慮した個人特化によって、主観的な感情極性分類の性能を改善したい。 ## 謝辞 本研究は、文部科学省による Society 5.0 実現化研 究拠点支援事業(JPMXP0518071489)の助成を受けたものです。 ## 参考文献 [1] Ryoko Tokuhisa, Kentaro Inui, and Yuji Matsumoto. Emotion Classification Using Massive Examples Extracted from the Web. In Proceedings of the 22nd International Conference on Computational Linguistics, pp. 881-888, 2008. [2] Stefan Stieglitz and Linh Dang-Xuan. Emotions and Information Diffusion in Social Media - Sentiment of Microblogs and Sharing Behavior. Journal of Management Information Systems, Vol. 29, No. 4, pp. 217-248, 2013. [3] Robert Plutchik. A General Psychoevolutionary Theory of Emotion. Theories of Emotion, Vol. 1, pp. 3-31, 1980. [4] Paul Ekman. An Argument for Basic Emotions. Cognition and Emotion, Vol. 6, No. 3-4, pp. 169-200, 1992. [5] Tomoyuki Kajiwara, Chenhui Chu, Noriko Takemura, Yuta Nakashima, and Hajime Nagahara. WRIME: A New Dataset for Emotional Intensity Estimation with Subjective and Objective Annotations. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2095-2104, 2021. [6] Andrew L. Maas, Raymond E. Daly, Peter T. Pham, Dan Huang, Andrew Y. Ng, and Christopher Potts. Learning Word Vectors for Sentiment Analysis. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 142-150, 2011. [7] Richard Socher, Alex Perelygin, Jean Y. Wu, Jason Chuang, Christopher D. Manning, Andrew Y. Ng, and Christopher Potts. Recursive Deep Models for Semantic Compositionality Over a Sentiment Treebank. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1631-1642, 2013. [8] Klaus R. Scherer and Harald G. Wallbott. Evidence for Universality and Cultural Variation of Differential Emotion Response Patterning. Journal of Personality and Social Psychology, Vol. 66, No. 2, pp. 310-328, 1994. [9] Saif Mohammad, Felipe Bravo-Marquez, Mohammad Salameh, and Svetlana Kiritchenko. SemEval-2018 Task 1: Affect in Tweets. In Proceedings of The 12th International Workshop on Semantic Evaluation, pp. 1-17, 2018. [10] Carlo Strapparava and Rada Mihalcea. SemEval-2007 Task 14: Affective Text. In Proceedings of the Fourth International Workshop on Semantic Evaluations, pp. 70-74, 2007. [11] Yu Suzuki. Filtering Method for Twitter Streaming Data Using Human-in-the-Loop Machine Learning. Journal of Information Processing, Vol. 27, pp. 404-410, 2019. [12] Jacob Cohen. Weighted Kappa: Nominal Scale Agreement Provision for Scaled Disagreement or Partial Credit. Psy- chological Bulletin, Vol. 70, No. 4, pp. 213-220, 1968. [13] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying Conditional Random Fields to Japanese Morphological Analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237, 2004. [14] Fabian Pedregosa, Gaël Varoquaux, Alexandre Gramfort, Vincent Michel, Bertrand Thirion, Olivier Grisel, Mathieu Blondel, Peter Prettenhofer, Ron Weiss, Vincent Dubourg, Jake Vanderplas, Alexandre Passos, David Cournapeau, Matthieu Brucher, Matthieu Perrot, and Édouard Duchesnay. Scikit-learn: Machine Learning in Python. Journal of Machine Learning Research, Vol. 12, No. 85, pp. 28252830, 2011. [15] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-Art Natural Language Processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, 2020. [16] Diederik P. Kingma and Jimmy Lei Ba. Adam: A Method for Stochastic Optimization. In Proceedings of the 3rd International Conference on Learning Representations, 2015.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH3-14.pdf
# 固有名詞に注目した Transformer による雑談対話モデルの構築 郭 恩孚 ${ }^{1}$ 南泰浩 ${ }^{1}$ 1 電気通信大学大学院 enfu.guo@uec.ac.jp minami.yasuhiro@is.uec.ac.jp ## 概要 ユーザーの提示する固有名詞にうまく注目するため、本研究では、対話モデルの事前学習において、固有名詞をマスクし、マスクされた部分を予測する固有名詞マスク学習を用いる対話モデルを提案する。モデルを用いて、発話の自然性と応答性を評価する実験を行った結果、固有名詞マスク学習を用いる提案手法のモデルがベースラインモデルと比べ、自然性スコアで 0.45 ポイント、固有名詞応答スコアで 0.54 ポイントの向上を示し、提案手法の有用性を確認した。 ## 1 はじめに 日常会話において、人は相手が提示した固有名詞について応答することで、対話がより円滑に行える。近年、雑談対話モデルの研究が進み、生成される発話を一文としてみると、自然な発話を生成できつつある。しかし、対話の接続性に関して「固有名詞について応答する」という観点からみると、無関係の固有名詞での応答や、固有名詞を無視する応答など、ユーザーの発話に含まれる固有名詞にうまく注目できていないことが問題点として挙げられている。 本研究の関連研究としては、ランダムマスク学習 [1] とシングル応答生成学習 [2] を事前学習として用いる雑談対話モデルを構築することが挙げられる。 ランダムマスク学習とは、トークンレベルでの学習を行うため、トークンをランダムに置き換え、元の文を復元する学習である。シングル応答生成学習とは、句レベルでの学習を行うため、入力された発話文に対する応答文を生成する学習である。 ランダムマスクでの学習では、トークン分割方法によって、一つの固有名詞が複数のトークンに分割され、固有名詞の復元の学習がうまくいかない場合がある。そこで、本研究では、固有名詞により注目するため、事前学習において、固有名詞をマスクし、元の文を復元する学習を提案する。実験により、その有用性を検証した。ここでの事前学習時の概念図を図 1 に示す。図に示すように、事前学習では、固有名詞マスクだけではなく、ランダムマスク、シングル応答生成も実施する。 図 1 事前学習時の概念図 ## 2 対話学習データ 本研究では Wikipedia[3]、CC-100[4]、ツイートの 3つのソースを用いて、学習コーパスを構築した。 各データソースに対して、以下の条件に該当するデータを除外するクリーニング処理を行った。また、単語の分割には MeCab[5] を用いた。 ・URL・絵文字などを含む文 ・日本語・英語以外の言語のシンボルを含む文 ・日本語が含まれない文 ・同じ表現が連続で出現する文 ・不適切表現が出現する文 クリーニング処理後の各データに基づいて、下記の学習コーパスを構築した。 ・Wiki コーパス:Wikipedia データ ・CC-100コーパス:CC-100データ ・ツイートリプライコーパス:ツイートとそのリプライのペアデータ ・ツイート疑似対話コーパス:ツイートとそのリプライからなるリプライチェーン 構築したコーパスのうち、Wikiコーパス、CC-100 コーパス、ツイートリプライコーパスを用いて事前学習を行う。また、ツイート疑似対話コーパスを用 いて Fine-tune を行う。各コーパスのデータ数を表 1 に示す。 ## 3 学習および評価設定の詳細 本研究は 3 つ事前学習: ランダムマスク学習、 シングル応答生成学習、固有名詞マスク学習、で事前学習を行った。事前学習後、ツイート疑似対話コーパスを用いて Fine-tune を行った。事前学習と Fine-tune の学習時、入力文脈からトークンへの分割はSentencePiece[6] を用いた。この時、クリー ニング処理後の 2,000 万のツイートから、語彙数が 32,000、文字カバー率が $99.995 \%$ となるように学習を行った。 ## 3.1 ランダムマスク トークンレベルで学習するため、ランダムマスク学習を設定した。ランダムマスク学習では、入力トークンの 15\%を [MASK] トークンに置き換え、元の文を復元する。 ## 3.2 シングル応答生成 Suchin ら [7] の研究により、Fine-tune 時のデータと同じドメインのデータを用いて事前学習することで、モデルの性能が向上することが報告されている。本研究では、その結果を踏まえて、ツイートとリプライツイートのペアで、ツイートを入力とし、 リプライツイートをターゲット発話とするシングル応答生成学習を設定した。シングル応答生成学習では、入力からターゲット発話を生成する。 ## 3.3 提案手法:固有名詞マスク SentencePiece は Byte Pair Encoding (BPE)を用いて、トークン分割を行っている。この分割では、辞書サイズが圧縮される一方、一つの固有名詞が複数のトークンに分割され、ランダムマスク学習だけでは、固有名詞を生成する学習がうまくいかない場合がある。この問題に対処するため、本研究では、対話モデルが文脈の中にある固有名詞を陽に捉えられるよう、固有名詞マスク学習を提案する。固有名詞のマスク学習は、入力文を事前に Mecab で形態素解析を行い、入力文にあるすべての固有名詞を事前に [MASK] トークンに置き換えた上で、トークン分割し、元の文を復元する。 ## 3.4 Fine-tune 一般に、生成型雑談対話モデルでは、過去の発話履歴を考慮する、応答を生成する必要がある。連続する対話を含む対話コーパスで事前学習済みモデルを Fine-tune することで、発話履歴を考慮して応答生成できると考えられる。そこで、本研究では、収集したツイートデータから、一連のリプライ関係にあるツイートを抽出した。ツイートとその一連のリプライに該当するツイートをリプライがなくなるまで抽出し、リプライチェーンを作成し、ツイート疑似対話コーパスを作成した。例えば、一つのリプライチェーンに $n$ 個のツイー トである場合、入力とターゲット発話のペアは $\left[\left(t_{1}, t_{2}\right),\left(t_{1}-t_{2}, t_{3}\right),\left(t_{1}-t_{2}-t_{3}, t_{4}\right), \ldots,\left(t_{1}-\ldots-t_{n-1}, t_{n}\right)\right]$ となる。 ## 3.5 評価時の応答生成設定 モデルが生成する発話は自然性と多様性の両方を満たすことが望ましい。本研究では Beam Search により提案モデルから発話を生成した、そのパラメー タを表 2 に示す。繰り返し同じ表現が出現する発話の生成を防ぐため、生成された系列中にすでに出現した N-gram を出現させないようにした。さらに、「そうですね」といった無難な発話を繰り返し応答しないように、difflib の SequenceMatcher を用いて、現在の生成候補と過去のモデル発話と比べ、類似度が 0.7 以上の発話は候補から除外した。 以上の設定により、多様性を満たすことができる。加えて、候補中、perplexity が比較的小さな発話を選択することで、自然性を満たすこともできる。 ## 4 実験 ## 4.1 実験設定 モデルアーキテクチャについて、先行研究 [8] では、シンプルな Transformer Encoder-Decoder モデル が Transformer Encoder のみのモデルよりよい性能を示すことが報告されている。その結果を踏まえて、本研究でもシンプルな Transformer Encoder-Decoder モデルを使用した。モデル設定の詳細を表 3 に示す。 表 3 モデル設定 ## 4.1.1 事前学習 事前学習では、2. で構築した Wiki コーパス、 CC100 コーパス、ツイートリプライコーパスを利用した。学習毎の Encoderへの入力形式、Decoder からの出力の形式の例を表 4 に示す。学習の Optimizer には Adafactor[9] を用い、学習率を 1e-4、warmup stepを 1000 にそれぞれ設定し、目的関数には label smoothed cross entropy を使用した。 ## 4.1.2 Fine-tune Fine-tune では、2. で構築したツイート疑似対話コーパスを利用した。Encoderへの入力は、話者情報を表す $[\mathrm{SPK}]$ トークンを導入し、過去の全発話を入力する。ユーザーの発話に該当する部分の先頭に [SPK1] トークン、モデルの発話に該当する部分の先頭に [SPK2] トークンを用いた。入力のテンプレートを表 5 に、入力の例を表 6 に示す。また、 Feed-Forward Network および Attention の dropout 率を 0.1 に設定し、学習の Optimizer には事前学習時と同様に Adafactor を使用した。学習率を 1e-4、warmup step を 2000 にそれぞれ設定し、目的関数には label smoothed cross entropy を用いた。 ## 4.2 実験結果および分析 固有名詞マスク学習を実施していないモデルをベースラインモデルとし、固有名詞マスク学習を実施した提案モデルと比較するため、実験参加者 7 名でそれぞれ 5 会話について評価した。評価者と異なる実験参加者とモデルを使った対話システムの会話では、実験参加者に 2 つの固有名詞を提示し、 10 ターン以上継続した対話となるよう指示した。ま た、評価では、下記の軸について 5 段階(1:とてもそう思わない〜 5: とてもそう思う)評価とした。 -自然性:対話全体が自然か - 固有名詞応答 (1):実験参加者が提示した 1 つ目の固有名詞について応答できているか - 固有名詞応答 (2):実験参加者が提示した $2 \supset$目の固有名詞について応答できているか 自然性の評価結果を図 2 に、応答の評価結果を図 3 と図 4 に示す。また、各軸のスコアの平均を表 7 に示す。さらに、各軸の平均スコアに有意な差があるかどうかを検定した。有意水準を 0.05 、帰無仮説を「各軸の平均スコアに差がない」とした。その検定結果を表 8 に示す。 図 2 自然性の評価結果 図 3 固有名詞応答 (1) の評価結果 図 4 固有名詞応答 (2) の評価結果 表 8 により、各軸の $\mathrm{P}$ 値は有意水準の 0.05 より小さいため、結果は有意であり、「各軸の平均スコア 表 4 各事前学習学習の入出力形式の例 (トークナイズ後) 表 5 Fine-tune 時の入力形式のテンプレート雑談:[SPK1] ユーザーの発話: $U_{1}[\mathrm{SEP}]$ [SPK2] モデルの発話 $S_{1}$ [SEP][SPK1]...[SEP][SPK2] 表 6 Fine-tune 時の入力例 (トークナイズ後)雑談: [SPK1] みんなで浅草に行くのだよ [SEP] [SPK2] めちゃくちゃ楽しそうやん [SEP] [SPK1]食べ歩きする [SEP] [SPK2] に差がない」という帰無仮説は棄却された。 表 7 により、事前学習時に固有名詞マスク学習を設定した提案モデルがベースラインモデルより自然性、固有名詞応答 (1) と (2) のスコアがともに向上することが確認できた。ユーザーが提示した固有名詞により注目し、応答することで、対話全体の自然性も上がったと考えられる。 提案モデルとベースラインモデルによる生成例を図 5 に示す。ユーザーが提示した「鬼怒川温泉」という固有名詞について、ベースラインモデルでは、「そうですね。」といった無難な応答を生成していることに対して、提案モデルでは「鬼怒川温泉」という固有名詞を含んだ、「鬼怒川温泉、有名ですね」という応答を生成している。 今回の評価では実験参加者に 1 対話で提示した 2 つの固有名詞に対する発話の分析を行った。 図 3 と表 7 みると、ユーザーが提示した 1 つ目の固有名詞について、応答スコアが 0.45 ポイント向上している。図 4 と表 7 みると、ユーザーが提示した 2 つ目の固有名詞について、応答スコアが 0.63 ポイント向上している。 過去の対話履歴をモデルの入力としているため、過去の発話が直前の発話のノイズになる場合もあることを考えると、上記の結果により、固有名詞マスク学習を事前学習時に設定することで、実験参加者が 2 つ目の固有名詞を提示する時、提案モデルは 1 表 7 モデルの評価結果 & \\ 提案モデル & $\mathbf{3 . 6 5}$ & $\mathbf{3 . 8 2}$ & $\mathbf{3 . 4 0}$ \\ 表 8 モデルの評価の検定結果 図 5 モデルによる生成例 つ目の固有名詞から 2 つ目の固有名詞に注目を切り替えることができ、固有名詞マスク学習の有用性を確認できた。 ## 5 おわりに ユーザーが提示した固有名詞に注目する対話モデルを構築した。固有名詞に注目するため、事前学習時に、入力文脈に含む固有名詞を [MASK] トークンに置き換え、元のトークンを予測する固有名詞マスク学習を提案した。実験により、提案手法の人手評価を行い、固有名詞マスク学習を設定したモデルの自然性、固有名詞応答スコアを評価した結果、提案手法の有用性を確認できた。 事前学習時固有名詞マスク学習を実施することにより、対話モデルがより会話文脈中に含まれた固有名詞に注目できることがわかった。一方で固有名詞マスク学習において、学習データに含まれなかった固有名詞については、会話中に注目しておらず、それらに注目するようモデルの構築は今後の課題である。 ## 参考文献 [1] Yu Sun, Shuohuan Wang, Shikun Feng, Siyu Ding, Chao Pang, Junyuan Shang, Jiaxiang Liu, Xuyi Chen, Yanbin Zhao, Yuxiang Lu, Weixin Liu, Zhihua Wu, Weibao Gong, Jianzhong Liang, Zhizhou Shang, Peng Sun, Wei Liu, Xuan Ouyang, Dianhai Yu, Hao Tian, Hua Wu, and Haifeng Wang. Ernie 3.0: Large-scale knowledge enhanced pretraining for language understanding and generation, 2021. [2] 杉山弘晃, 成松宏美, 水上雅博, 有本庸浩, 千葉祐弥, 目黒豊美, 中嶋秀治. Transformer encoder-decoder モデルによる趣味雑談システムの構築. 人工知能学会研究会資料言語・音声理解と対話処理研究会, Vol. 90 , p. 24, 2020. [3] Wikimedia Foundation. Wikimedia downloads. 2021. [4] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, Online, July 2020. [5] Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pp. 230-237, Barcelona, Spain, July 2004. Association for Computational Linguistics. [6] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. Vol. abs/1808.06226, 2018. [7] Suchin Gururangan, Ana Marasović, Swabha Swayamdipta, Kyle Lo, Iz Beltagy, Doug Downey, and Noah A. Smith. Don't stop pretraining: Adapt language models to domains and tasks. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, Online, July 2020. [8] Stephen Roller, Emily Dinan, Naman Goyal, Da Ju, Mary Williamson, Yinhan Liu, Jing Xu, Myle Ott, Kurt Shuster, Eric Michael Smith, Y-Lan Boureau, and Jason Weston. Recipes for building an open-domain chatbot. Vol. abs/2004.13637, 2020 [9] Noam Shazeer and Mitchell Stern. Adafactor: Adaptive learning rates with sublinear memory cost. Vol. abs/1804.04235, 2018 .
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH3-15.pdf
# 明示的及び暗默的データを活用した Twitter における 体験的ストレスの特定 飯田静空 原一夫 山形大学 理学部 s180572@st.yamagata-u. ac.jp kazuo. hara@gmail.com ## 概要 ストレスは社会問題となっており, Twitter 上では多くの人の愚痴や悩みが日々呟かれる。しかし, ストレスの表現方法は人によって異なるため,どれほどの人がストレスを抱えているのかを把握することは困難である。そこで本研究では,ツイートをした人自身が経験したストレス(体験的ストレス)を示すツイートを検出する分類器を構築した。具体的には,「ストレス」という言葉を明示的に含むデータと,ストレスの内容を暗黙的に含むデータの 2 種類を利用することでBERT を訓練した.実験の結果,我々の手法は単体データのみの学習よりも高い精度で体験的ストレスを検知でき,モデルが両データの特徴を学習できていることを分析により示した。 ## 1 はじめに ストレス社会という言葉があるように,現代でストレスは深刻な社会問題となっている. Twitter をはじめとするマイクロブログ上でも多くの人々の不平不満や心配事が日々散見され,最近では COVID-19 の影響によるストレスの増加が確認されている[1]. その一方で, Twitter 上において何人のユーザーがストレスに苦しんでいるのかを我々が把握することは困難である。なぜなら,ツイート(以下「発言」と呼ぶ)におけるストレスの表現方法は人によって異なるからである.多くのユーザーは,「ストレス」 という言葉を使わずに自身のストレス状態を報告する(図 1 発言例 1 ). そのため「ストレス」という言葉が明示的に書かれた発言のみを数えたとしても,ユ ーザーが経験している全ストレスを考慮することはできない. さらに「ストレス」という言葉が明示的に書かれていたとしても,発言をしたユーザー自身が経験したストレス(以下「体験的ストレス」と呼ぶ) を必ずしも表すとは限らない(図 1 発言例 2).発言例1. ) 上司に怒られてイライラする怒 「ストレス」という言葉を含んでいないが,上司に対しての怒りを表しているため, ストレスを感じている可能性がある. 発言例2. ) 猫ちゃんが心配. . . 昨日からストレスのせいか体調が悪いみたいで早く帰る 図 1 発言のストレス表現が異なる例 本研究では, Twitterに現れる体験的ストレスの量を総合的に把握するために,発言中に体験的ストレスが含まれるかどうかを判断する分類器を構築する。 そのために我々は,「ストレス」と「\#ストレス」の言葉を含む発言から作成した 2 種類のデータを利用した。一つは「ストレス」という言葉を明示的に含むデータで,「今日も仕事か. ..とてもストレスなんだが…」のような発言である。これを明示的データと呼ぶ。もう一つはストレスの内容を暗黙的に含むデータで,「隣マジでうるさいからキレそう」のような発言である。これを暗黙的データと呼ぶ。我々は全ての発言から体験的ストレスを検出するために, 「ストレス」の言葉を含まない暗黙的データから体験的ストレスを分類する実験を行った。しかし,暗黙的データはその性質上,データ数を増やすことが難しい,そこで我々は,収集が容易な明示的データも使い, 2 つのデータの特徴を BERT[2]に fine-tuning で学習させる方法を提案した. 実験と分析の結果,我々の提案手法は暗黙的データのみを使用した場合よりも高い精度で体験的ストレスを分類でき,両デ一タの特徴をモデルが学習できていることを示した。 ## 2 関連研究 ストレスは,人や環境との相互作用によって引き起こされる苦痛の認識と定義される[3]。ストレス には主観的な側面があるため, 物理的信号である脳波[4]や音声データ[5]などの特徵でストレスを調査寸る研究がある. しかし, 物理的な測定には莫大なコストや時間がかかる。加えて,ストレスを感じる期間は人によって異なるため[6], この方法では生活で時々刻々と変化する精神状態の把握は難しい. このような理由から, 最近ではマイクロブログ上に現れるストレスを分析する研究が行われている。 Doan ら[7]は Twitter 上の明示的データで訓練した SVM を使うことで, 米国の地理ごとにストレス分析を行った. 他方で, Turcan ら [8, 9]は Reddit という米国で人気のあるマイクロブログから暗黙的データを作成した. そして BERT[2]を使い, 感情分類とのマルチタスク学習を行うことで体験的ストレスの分類精度を向上させた. しかし, これらの研究では明示的データか, 暗黙的データかのどちらか一方のデー タしか使用してはいない, それらとは対照的に, 我々は両方のデータを活用することでその有効性を示す. ## 3 データ ## 3.1 体験的ストレスの定義 分類器を構築するために,我々はデータを作成する必要がある. そのために, 本研究の分類基準である体験的ストレスの定義を行う. 本研究では, 以下の 2 点を満たす発言を体験的ストレスと判断した. 1. ストレスを受けた対象が発言の作者であること 「ストレス」という言葉で,発言者自身のストレスが明記されてあることとした。 ストレスを受けた対象が「発言者以外の人」,「人以外の生物」,またはその発言内に「引用」された形で他者がストレスを示す発言は除かれる. 2. 発言をした時点でストレスに感じていること/ストレスの体験性を損なわないこと 発言者が発言した時点でストレスに感じていることとした. 発言者が発言した時点の時制から考え,「過去」,「未来」,「習慣」を表す発言を除く.また,ストレスの体駼性を損なう 「仮定」「疑問」, 「推論」, 「共感」,「願望」,「呼びかけ」,「応答」,「助言」,「否例)定」,「噂」,「主張」を表す発言も除く。 今はストレスで体調死んどる (体験的ストレス) みんなはストレスなのかな? (非体験的ストレス) ## 3. 2 明示的及び暗默的データの作成 始めに,明示的データを作成した手順を述べる。我々は Twitter API を使い,2021 年 7 月 29 日 02:21:00 から 09:42:56 の間で「ストレス」という言葉を含む発言を収集した. その結果, 6535 の発言を取得することが出来た. その後, 集めた発言に前処理を行った. 方法としてはリツイートと重複した発言の削除, URL 部分の削除と, 半角, 全角スペー スの切り詰め, リプライを表す発言では「@リプライ先のユーザー名」までの部分を削除するといった処理である. そして, 3.1 で述べた基準のもと体験的ストレスを含む発言には 1 ,含まない発言には 0 のラベル付けを一人のアノテータが行った. ラベル付けには質問紙 $[10]$ を使って判断する方法などがあるが,本研究では「ストレス」という言葉の明記を, ストレス反応の根拠として信頼した. 続いて,暗黙的データを作成した手順を述べる。我々は明示的データと同じ方法で, 2021 年 10 月 1 日 00:00:00 から 27 日の 23:59:59 の期間で「\#ストレス」を含む発言を収集した.その結果,5861の発言を取得することが出来た. その後集めた発言に前処理を行った. 前処理の方法は明示的データの場合と共通しているが,今回は「ストレス」という言葉を含んでいないデータを作成したいため,新たに次の処理を追加した。まず,「\#」部分はストレスを直接示す情報となるため,「\#」以下の部分を削除した。次に, 収集したデータに「ストレス」の単語を含んだ発言も存在したため,この単語の部分も削除した. これにより文脈が不自然になった発言は,不自然な表現部分を削除することで文脈を自然な形に直した。 前処理前の例) 最近、コロナで旅行いけないの本当に ## ストレス!! \#ストレス\#旅行 前処理後の例) 最近、コロナで旅行いけない!! 前処理をした後, 明示的データの場合と同じ人物がラベル付けを行った.アノテータは 3.1 の定義をもとにラベルを付けるが,今回はデータに「ストレス」 という言葉が含まれていない.そのため定義の 1 は,発言内容が作者の体験であるという基準に変更した。 作成したデータの内訳を表 1 に示す. 明示的デー 夕は, 短期間で比較的数の多いデータを作成できた. しかし, 暗黙的データでは発言内容の重複が原因で,収集した発言の $81 \%$ が削除される結果となった. 表 1 作成したデータの内訳 表 2 明示的データでの分類実験の結果 ## 4 実験 ## 4.1 明示的データによる分類実験 4.2 の提案手法で使用するモデルを選定するために,我々はまず明示的データのみを使い,体験的ストレスである発言を検知する実験を行った. モデルには, Transformer[11]に基づくニューラルネットワ ークモデルの BERT[2]を使用した。発言をサブワー ドと文字単位に分割し,BERT へ入力する場合をそれぞれ比較した. 前者を $\mathrm{BERT}_{\text {subword }}$, 後者を $\mathrm{BERT}_{\text {char }}$ と名付ける. ベースラインには Naïve Bayes を選んだ. データは 8:2 の割合で訓練用とテスト用に分け, 10 分割交差検証によってハイパーパラメータを調整した。ハイパーパラメータの調整は, BERT の最終層と全結合層の間の Dropout を\{0.3, 0.5\}, 学習率を\{1e-5, 2e-5, 3e-5, 4e-5, 5e-5\}の中からグリッドサー チにより行った.Optimizerには AdamW[12]を使い, バッチサイズは GPU の制限上 64 とした. 10 エポックが終了した時点でのモデルをテスト用のデータを使い, precision, recall, F1, accuracy の指標から評価した. BERT のモデルには, 東北大学が公開している事前学習済みモデルを使用した。 テストデータにおける各モデルの最良な結果を表 2 に示す。まず,BERT のモデルは Naïve Bayes よりも全ての評価指標でより良い結果であることが分かる. BERT は文脈を考慮できるモデルとされており,独立な仮定に基づくモデルよりも複雑な分類が可能であると考えられる. また $\mathrm{BERT}_{\text {subword }}$ は $\mathrm{BERT}_{\text {char }}$ と比べ, recall 以外の全ての指標でより良い結果であった.この実験では, BERT へサブワードに分割したテキストを入力とする方が適していたと考えられる. ## 4.2 暗黙的データによる分類実験 図 2 提案手法 4.1 では, 明示的に「ストレス」と書かれてある発言を分類できるモデルを構築した。しかし,我々の目標は Twitter 上の全発言に出現する体験的ストレスを検知することである。そのため,次に暗黙的デ一タを使った分類実験を行う。 暗黙的データは 3.2 で述べた発言内容の重複という理由から,データ数を増やすことが難しい,そこで我々は, 明示的及び暗黙的データの両方を使う手法を提案する. 図 2 に我々の提案手法を示す. まず BERT を明示的データにより訓練することで, 訓練済みモデルを出力する.次にこのモデルを暗黙的デ一タで fine-tuning を行い,BERT を再訓練する。ここで出力されたモデルを $\mathrm{BERT}_{\text {proposed }}$ と名付ける. ベースラインに暗黙的データのみを使って学習し は, 4.1 で最良の結果であった $\mathrm{BERT}_{\text {subword }}$ を暗黙的データにより fine-tuning することで構築した. デー タは 5:5 の比率で訓練用とテスト用に分け, 5 分割交差検証でハイパーパラメータを調整した。ハイパ ーパラメータ,Optimizer,及びバッチサイズは明示的データの場合と同じ設定である. 最大を 10 エポックとして, 最も高いaccuracy のエポック時点の各モデルを評価した。 表 3 は各モデルの最良の結果を示している. い結果であることが分かる. 次に $\mathrm{BERT}_{\text {proposed }}$ が学習によりどのような特徴をとらえたのかを分析する。 ## 4.3 分析 が学習後に着目した部分の変化に関する分析を行った. LIME とは,あるモデルへの入力ベクトルの空間に摂動を与え, 出力に対しての局所的な線形近似を行うことで,入力語の影響度を測定できるモデルである. J-LIWC は心理学者による信頼性や妥当性検 表 4 学習前後で BERT が判断根拠とする項目 (上から LIME の出力語を多く含む順に並んでいる) 表 3 暗黙的データでの分類実験の結果 証がされている言語, 心理的項目を含んだ日本語の辞書である. 4 で学習後の $\mathrm{BERT}_{\text {subword }}$ と $\mathrm{BERT}_{\text {proposed }}$ で,ラベル 1 と 0 の判断根拠となる LIME の出力スコアの高い 5 語を各データから抽出し, J-LIWC の各項目ごとに含まれる語を数え, 多い順に項目を算出した. データには, 4.1 と 4.2 で分割したテスト用をそれぞれ使用した. 表 4 はその結果を示している. まず,ラベル 1 を判断する際のトップ 10 に入っ 間」,「助動詞」,「動因」の項目に違いが生じた. BERT $_{\text {subword }}$ でのこれらの項目順位が高い理由は,いずれも「ストレス」という単語を項目内の語として含んでいることが挙げられる. 明示的データではどの発言にも「ストレス」という言葉が出現するため,我々はこの単語が判断根拠にはなりづらいと予想していた。しかし, 実際にこれらの項目の詳細な内訳を見ると「ストレス」の出現数が項目中の半分以上を占めていた. これは, 同じ単語でも BERT が文脈に応じて判断根拠とするか否かを使い分けているためであると我々は考えている. $\mathrm{BERT}_{\text {proposed }}$ で「時間」 の項目の詳細な内訳を見ると,「今日」「た」「最 においても同様であった。しかし, $\mathrm{BERT}_{\text {proposed }}$ では ほど上昇しており, 学習前後での細かな違いが確認された.このように変化した理由の詳細な分析は今後の課題であるが,「時間」の項目語にラベル 1 の判断根拠としてより重みがついたことが分かる. $\mathrm{BERT}_{\text {proposed }}$ では「助動詞」の項目がラベル 1 で 8 番目,ラベル 0 で 7 番目に高かった。一方で BERT $_{\text {subword }}$ ではラベル 0 の判断根拠にしかなっておらず,暗黙的データでは助動詞をラベル 1 の判断根拠にする割合が強まった. ラベル 1 の「動因」では,共通して「仕事」という言葉が一番多かった. これは,仕事に関連した語がストレスを示す傾向があるという先行研究と一致する[15]. また,「悪い」「怖い」といったネガティブな動因が占めることも共通していた。しかし, BERT $_{\text {proposed }}$ で二番目に多い単語が「旦那」であり,妻が夫の愚痴を言う発言の特徴を新たに学習したことが分かった. ラべル 0 でトップ 10 の項目は全て一致しており,順位が若干変動する結果となった. ラベル 0 の基準は両データで同じであったため,これは妥当な結果である。以上のように,モデルが両データの共通,非共通な特徴を学習したことが確認された。 ## 5 おわりに 本研究では, 明示的に「ストレス」と書かれてある発言と暗黙的にストレスの内容を含む発言の両デ一タを使い,発言者がストレスに感じている発言を検出する分類器を構築した.実験と分析の結果, 我々の手法は単体データのみの場合よりも高い精度で発言者のストレスを分類可能であり,両データの特徴を学習することが有効であることを示した。 今後の研究として,「ストレス」,「\#ストレス」の言葉を含まず,ストレスの自覚なしに発せられた発言に対しても, この手法で構築した分類器が適用可能かどうかを調査していきたい. ## 参考文献 1. Sachin Thukral, Suyash Sangwan, Arnab Chatterjee, and Lipika Dey. Identifying pandemic-related stress factors from social-media posts--effects on students and young-adults. arXiv preprint arXiv:2012.00333. 2020 2. Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. of NAACL, pp.4171-4186. 2019. 3. Sheldon Cohen, Gregory E. Miller, and Bruce Rabin. Psychological Stress and Antibody Response to Immunization: A Critical Review of the Human Literature. Psychosomatic Medicine, Vol. 63 - Issue 1 - pp.7-18. 2001. 4. Fares Al-Shargie, Masashi Kiguchi, Nasreen Badruddin, Sarat C. Dass, and Ahmad Fadzil Mohammad Hani. Mental stress assessment using simultaneous measurement of eeg and fnirs. Biomedical Optics Express, Vol. 7 - Issue 10 pp.3882-3898. 2016. 5. Xin Zuo, Tian Li, and Pascale Fung. A multilingual natural stress emotion database. In Proc. of LREC, pp.1174-1178. 2012. 6. American Psychological Association. What's the difference between stress and anxiety? (引用日: 2022 年 1 月 8 日.) https://www.apa.org/topics/stress/anxiety-difference. 7. Son Doan, Amanda Ritchart, Nicholas S Perry, Juan D Chaparro, and Mike Conway. How Do You \#relax When You're \#stressed? A Content Analysis and Infodemiology Study of Stress-Related Tweets. JMIR Public Health Surveill, Vol. 3 - Issue 2 - e35. 2017. 8. Elsbeth Turcan, and Kathleen McKeown. Dreaddit: A Reddit Dataset for Stress Analysis in Social Media. In Proc. of EMNLP, pp.97-107. 2019. 9. Elsbeth Turcan, Smaranda Muresan, and Kathleen McKeown. Emotion-Infused Models for Explainable Psychological Stress Detection. In Proc. of NAACL, pp.2895-2909, 2021. 10. Sharath Chandra Guntuku, Anneke Buffone, Kokil Jaidka, Johannes C. Eichstaedt, and Lyle H. Ungar. Understanding and measuring psychological stress using social media. CoRR, abs/1811.07430, 2018. 11. Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems, pp.6000-6010. 2017. 12. llya Loshchilov, and Frank Hutter. Decoupled Weight Decay Regularization. arXiv preprint arXiv:1711.05101. 2017 13. Marco Túlio Ribeiro, Sameer Singh, and Carlos Guestrin. "Why should I trust you?": Explaining the predictions of any classifier. In Proc. of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, pp.11351144. 2016. 14. Tasuku Igarashi, Shimpei Okuda, and Kazutoshi Sasahara. Development of the Japanese Version of the Linguistic Inquiry and Word Count Dictionary 2015 (J-LIWC2015). PsyArXiv Preprints: 10.31234/osf.io/5hq7d. 2021 15. Huijie Lin, Jia Heinie, Quan Guo, Yuanyuan Xue, Qi Li, Jie Huang, Lianhong Cai, and Ling Feng. UserLevel Psychological Stress Detection from Social Media Using Deep Neural Network. In Proc. of ACM MM, pp.507-516. 2014. ## A 付録 ## A. 1 予備調查 我々は,「ストレス」と「\#ストレス」という言葉を含んだ各発言の一日あたり収集可能な発言量を調査をした。まず, Twitter API を使用して 2021 年 10月 1日 00:00:00 から 27 日 23:59:59までの期間で「ストレス」と「\#ストレス」という言葉を含んだ各発言を収集した。その後,日ごとに発言量の集計を行った. 図 3 と図 4 はその結果の棒グラフを表している. 縦軸の目盛りが 100 倍異なることから分かる通り,「ストレス」と「\#ストレス」の発言では,一日あたりの発言量が大きく異なる.「ストレス」という言葉を含んだ発言は一日に平均して 37,738の発言を収集できたが,「\#ストレス」の場合は一日に平均して 217 の発言しか収集することができなかった. このことから,「ストレス」の言葉を含んだ発言の方が,短期間で大規模な量のデータを収集出来ることが分かる. ## A. 2 ハイパーパラメータ 4,1と 4.2 の実験におけるハイパーパラメータのチューニング結果を表 5 と表 6 に示す. 表 $5 \quad 4.1$ におけるハイパーパラメータ $ \text { チューニングの結果 } $ 表 64.2 におけるハイパーパラメータ 図 3 「ストレス」の言葉を含む発言における一日あたりの発言量 図 4 「\#ストレス」の言葉を含む発言における一日あたりの発言量
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH3-16.pdf
# 旭川市における方言の消失 野村綾応 ${ }^{1}$ 西口純代 ${ }^{2}$ 1 小樽商科大学 商学部経済学科 ${ }^{2}$ 小樽商科大学 言語センター ao1008mukku1231@icloud.com nishiguchi@res. otaru-uc. ac. jp ## 概要 近年、インターネットやソーシャルネットワークサービスの普及により日本語の標準化が進んでいる。 そして、この時代の変化は新語の導入などによる日本語の変化と共に、方言の多くを死語に変化させている。そこで、本稿は実際のアンケートをもとに、旭川市における死語へ変化する規則性と今後死語になりうる可能性の高い語句を検討した。アンケートの結果、(1) 死語になるには祖父母が使わなくなった方言は使うことがない (2) 今後死語になりうる可能性のある方言は、「おばんです」「じょっぴんかる」 「なまら」「こわい」であることを提唱する。 ## 1 方言と北海道 ## 1.1 方言の定義 オンライン『意味解説辞典』によれば、教科書などに記載してある文字や新聞、ニュースなどで話されている言語は「標準語」であり、その国の標準として認められた公的な場面で使われている言語のことを指し、日本は現在東京の言葉が「標準語」の基となっている。それに対し、「方言」とはある地方だけに使われている言語のことを指す。例えば、「さびお」、「うるかす」などがある。また、標準語と違う訛りのある言葉も方言と呼び、方言はその地域だけの言葉で、いくつかの地域によって区分され、 それぞれの方言の特徵が異なっている。 ## 1.2 北海道の歴史 北海道はかつて蝦夷地とよばれており、13 世紀頃から本州の江戸時代にかけてはアイヌ民族独自の  文明があった。しかし、箱館戦争が終わると新政府は蝦夷地を北海道と任命し、開拓史を設置した。明治 7 年に屯田兵制度を設け、本州より多くの人が押し寄せたため、北海道には本州の文化や言語が持ち込まれた。その中でも東北地方の方が多く、他にも北陸、関西地方がありかなりの影響を受けた。その証として、広島県の人々が北海道に移り渡り北広島を作り、奈良県の十津川村の人々が新十津川村を作るなど北海道には多くの人が移り住んだことから、多くの言語や方言が持ち込まれたことが分かる。 ii ## 1.3 北海道における標準語化 九州の 2 倍の敷地面積を誇る北海道は地域ごとに方言が違う。例えば、内陸の部の旭川や札幌では標準語に近い言葉が話されており、函館などの沿岸部などでは津軽弁や東北の方言が話されている。これは、札幌や旭川などの内陸部では沿岸部から多くの人が集まってきたため、独自の方言ではコミュニケ ーションが取れず、必然的に共通語になったと考えられる。 ## 1.3 旭川市を研究対象地域にした理由 前記の通り旭川市は北海道の中でも標準語化が進んだ都市であるため、方言がどのように世代間で推移したか考察できると判断したためある。筆者の野村が旭川市生まれであるため、研究しやすくアンケ ートも取りやすいと考えたためでもある。 北広島市 - Wikipedia(最終閲覧日 2022 年 1 月 12 日)新十津川町 | 札幌開発建設部(mlit. go.jp)(最終閲覧日 1 月 12 日) ## 2 検証と考察 ## 2. 1 家族間(旭川市在住)における方言の ## 消失 言語の習得は両親や祖父母に影響されることが 表 1 アンケート結果方言の推移 これは渡瀬昌彦『方言の地図帳』をもとに作成したものであり、選んだ方言は無作為である。一番左の列が標準語であり、左から 2 列目が旭川に住む明治生まれ話者が使っていた言葉、3列目は野村の祖父、 4 列目は野村の父、 5 列目は野村自身が用いる言葉である。まずは上から 3 行目の「しあさって」と 10 行目の「じゃがいも」に注目してもらいたい。明治生まれ話者は「しあさって」を「やなあさって」と話すが、野村の祖父は「しあさって」と話しており、明治から昭和初期にかけて変化している。また、「じやがいも」も同様に変化している。そして、一度標準語に変化したものは平成生まれの野村まで続いている。そもそも野村はこの研究をするまで「じゃがいも」と「しあさって」に方言があったことすら知らなかった。このことから方言が祖父母などの 2 世多い。そこで世代間でどういった言葉の変遷があるのか確かめることにした。表 1 がアンケートの結果である。 表 2 旭川出身者 8 名のアンケート結果表 2.1 インフォーマント 1 表 2.2 インフォーマント 2 表 3.3 インフォーマント 3 表 4.4 インフォーマント 4 表 5.5 インフォーマント 5 表 6.6 インフォーマント 6 表 2.7 インフォーマント 7 表 2.8 インフォーマント 8 アンケートを行っていくうえで、死語になる可能性があるものをあるルールをもとにまとめた。上記より 2 世代前が方言を話さないと今後死語になる可能性が高いとして、対象者とその両親、2世代にわたって使われない方言は次世代において死語になる可能性が高いとして青く記し、対象者のみが使わなく なった方言は 2 世代後に死語になる可能性があるとして橙色に記し、どの世代も使っていないものは死語と記した。このアンケートより「疲れた」を意味する「こわい」、「とても」を意味する「なまら」、「こんばんは」を意味する「おばんです」、鍵をかけることを意味する「じょっぴんかる」はみな青色、橙色もしくはすでに使っておらず死語になっていることが分かった。 ## 3 今後の展望 今回、旭川市において「なまら」、「こわい」、「おばんです」、「じょっぴんかる」の4つの言葉が死語になる可能性が高いと考えたが、「なまら」 は全国的に周知されているし、近年方言を守ろうとするすばらしい活動が多く進められており、また SNS の普及により珍しい言葉を使えばすぐに世に出回るので簡単に死語になると断定はできない。そのため今後はより長期的なスパンでの調查が必要である。 ## 参考文献 1. 渡瀬昌彦(2019)『方言の地図帳』、講談社、東京. 2. 高知大学教育学部方言学研究室「日本語方言について解説一方言楽の館」(最終閲覧日 2021 年 11 月 22 日) http://ww4. tiki.ne. jp/ rrockcat/kougi01.htm1
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH3-1.pdf
# 『現代日本語書き言葉均衡コーパス』に対する MIP に基づく比喻表現情報の付与 加藤祥 ${ }^{1}$ 菊地礼 ${ }^{2}$ 浅原正幸 ${ }^{3}$ ${ }^{1}$ 目白大学 ${ }^{2}$ 中央大学 ${ }^{3}$ 国立国語研究所 s.kato@mejiro.ac.jp ## 概要 日本語比喻表現の実態調査を目指し,『現代日本語書き言葉均衡コーパス』に対し, 手作業で比喻表現情報付与を行った.作業対象は均衡性のある新聞・書籍・䧱誌の 34 万語とし, 言語対照のために MIP 及び MIP VU に基づく比喻表現情報付与を進めた。中村(1977)の基準を用いて,結合や種別を付与したほか,一般的な読み手による印象評定情報も付与した.本稿は, 作業と作業結果の基礎統計を報告する。 また,BNC に MIP に基づく情報付与を行った VU Amsterdam Metaphor Corpus との対照についても報告する. ## 1 はじめに 現在までのところ, 日本語の比喻表現に関しては,均衡性のあるデータに基づく実態的な調査が大規模に行われているとは言い難い。主に文学作品を用いた日本語比喻表現の収集は, 中村(1995)[1]の『比喻表現辞典』の 8,201 例をはじめ, レトリックに関する事典やデータベースなどに見られるが,均衡性を有した大規模な収集は行われていないためである.比喻表現の同定手法は, 選択選好(Willks ら, 2013[2]), 具象度(Turney ら, 2011[3]), 意味空間モデルの使用(Mao ら, 2018[4], Liu, 2020[5])などが考案されているものの, 大規模な日本語比喻表現を収集,調查した例としては, 現在まで, 人手による中村 (1977) [6]が最も網羅的であると考えられる。同書は,現代日本語との対照や検証の求められるデータであるが,文学作品から収集した用例に基づく日本語比喻表現の収集手順が整備された実態調査資料である.主に近現代の文学作品 50 編から比喻的な表現を含むと判定した 2 万の用例を収集し, 比喻表現を構成する要素の結合 (慣用から意味的なずれのある場合) について 5,537 類型(B 型把握)を整理したほか,何らかの言語形式として比喻の把握に影響していた 359 の比喻指標要素(A 型把握),場面や文脈との関わりにおいて比喻となる 2,434 の文脈比喻類型 (C 型把握)を示している。本書で設定された手順と類型データは, 日本語比喻表現用例の収集に有効と考えられる。 しかし,言語対照の可能性のためには,比喻情報付与の基準として提唱された MIP(The Pragglejaz Group(2007) [7])に基づく VU Amsterdam Metaphor Corpus の MIP VU を援用し, 日本語における比喻情報の付与手順を整備することが有用であろう.MIP による日本語比喻表現の自動検出を目標とした宮澤ら(2016) [8]の試みでは,新聞記事に含まれる 1,100 文の動詞と目的語について 2 名の作業者により試行した際,VU Amsterdam Metaphor Corpus の結果よりも判定摇れが生じたと報告される。よって, 日本語比喻表現の実態調査を目指すためには,判定基準を整備することはもちろん, 複数の作業者の判定摇れの確認のみならず,一般的な読者に比喻と認識されるのかという判定なども必要と考えられる. そこで, 日本語比喻表現の実態調査を目指し, 情報付与の手順を整備するとともに,均衡性のある日本語コーパスに対し網羅的な比喻表現情報の付与を行うことを目指した。具体的には,『現代日本語書き言葉均衡コーパス (以降 BCCWJ)』の分類語彙表番号が付与された新聞(以降 PN)・雑誌(PM)・書籍 (PB) サンプル (347,094 語, 以降 BCCWJ-WLSP,加藤ら 2019a[9]b[10])を作業対象とし, MIP VU の手順に基づいて,中村(1977) [6]の基準や類型を用いた情報付与を行う.BCCWJ-WLSP は,文脈上の語義が人手で付与されているため, 本比喻性の判断作業に利用することができる。 さらに,一般的な読み手による判定情報をクラウドソーシングにより大規模に収集する。 日本語比喻表現の実態調查が可能となれば,VU Amsterdam Metaphor Corpus などにおける英語メタフ アーなどとの対照や, 比喻に関する理論検証が可能となることが期待される. ## 2 比喻情報付与作業 ## 2.1 比喻情報付与手順 VU Amsterdam Metaphor Corpus は, BNC-Baby コ一パスから抽出した 4 レジスタ約 19 万語について, Steen ら(2010) [11]が The Pragglejaz Group(2007)の比喻情報付与手順である MIP(Metaphor Identification Procedure)を拡張した MIP VU によってメタファー の判定(MRW; Metaphor Related Word)を付与したものである.また, Semino ら(2005) [12]が特定コー パスで示したメタファー類型 (combining と mixing) や, MIP からの拡張として付与された MFlag (指標),概念マッピング情報(擬人化)を用いた比喻の種別分類も試みられている. よって, 本稿の作業は, MIP を用いて比喻性に関わると判定された短単位を抽出し, VU Amsterdam Metaphor Corpus を参照した MRW としてマークすることにより進めることとした. BCCWJ-WLSP は, 作業対象範囲の全ての自立語には分類語彙表番号, 助動詞には用法が,人手で文脈上該当する意味において付与されており, 選択制限違反の判断時に参照可能である. このほかの参照資料及び付与する日本語の比喻情報としては, 中村(1977) [6]の指標, 比喻種別,結合等を援用することとしたほか,動詞の選択制限確認には宮島(1972) [13]の格情報, 語義及び歴 用いた。 なお, 本手順は, 加藤ら(2020) [14]の指標比喻デー タベースを構築した際にも同様に比喻表現の認定を手作業で行うことにより, 実作業による微調整を加えながら整備を進めたものであり, 概要は以下の通りであるii. (1) 当該形態素が文脈上,比喻表現に関わるかどうか判定する. 比喻表現に関わると判断された場合は,当該形態素をマークする.  (2) 比喻表現の喻辞と被喻辞を抽出するとともに,把握の根拠として, - $\mathrm{A}$ 型 : 比喻表現の認識に関わった「何らかの言語形式」に該当する短単位の範囲に 「MFlag(指標)」を付与する. - B 型:異質性を読んだ「結合」(選択制限違反 $\left.{ }^{i i i}\right)$ が確認できれば「結合」を記述する.結合または異質な表現の該当部には,比喻表現の種別として,結合(何らかの類似性に基づく転換,隠喻)・換喻(事物・事象の隣接性という類縁関係に基づく質的転換)・提喻(類と種という類的転換)および結合比喻の下位分類(擬人化・具象化などiv) を付与する. (3)「結合」の構成要素に分類語彙表番号を付与する.(意味上は別の分類番号が付与されているため, 選択制限違反となる番号を再付与する) (4) 用例 (文脈の把握が可能な 2 3 文程度まで) および個別の「結合」に一般の日本語母語話者の判定を付与する. ## 2.2 付与した比喻情報例 BCCWJ の対象範囲に付与した情報は以下の通りである。一部に付与漏れや作業中の部分が残るが,概ね情報付与が終了している(2021 年 12 月現在). - 比喻を構成する要素の結合類型と分類語彙表番号 : 手順(2)の B 型および(3) - 種別情報(擬人化・具象化などの隠喻(類似性の転換)における概念マッピング,換喻,提喻など) : 手順(2)の B 型 - 指標となった言語形式, その他比喻に関わると考えられる語句 : 手順(1)および(2)の A 型 - 比喻度(クラウドソーシングによる数十名規模の被験者実験による判定結果 (加藤・浅原別発表[15])として,0~5の 6 段階の平均值を示す):手順(4), 以下に付与した評定値を示す. (自)自然さ iii 選択制限違反の判断に際しては,参照可能な語義情報を活用する(詳細は加藤ら(2020)の 3.1 節(pp.861- 862)). iv 付与した種別の詳細は, 加藤ら(2020)の 3.5 節内「種 別」(p.868). (わ)わかりやすさ (古)古さ (新)新しさ (比)比喻性 情報付与結果例を以下に示す。例文中の【】内はMRWとしてマークされている部分を示す. [ ] 内は分類語彙表番号であり, 比喻性の判定された要素の結合には, 文脈上の BCCWJ-WLSP と異なる場合, 再付与した番号 (類型化のために固有名詞等は概念化も行った)を記述してある. (1) 今年から家の場所や危険個所の【確認に重点を置く】。(PN1a_00002) [1.3062に 1.3070 を 2.1513](具象化) (自) 4.25 (わ) 4.05 (古) 2.30 (新) 1.65 (比) 1.75 (2)こんな英語のことわざが書かれた【額に出会っ】 たのです。(PB11_00013) [1.4570 に 2.1550](擬人化) (自) 2.35 (わ) 2.20 (古) 1.75 (新) 1.00 (比) 1.30 (3) 急速な変化に【戸惑う声もある】。(PN1a_00005) [2.3067 1.3061/1.3061 が 2.1200](換喻) (自) 4.00 (わ) 3.55 (古) 2.70 (新) 1.50 (比) 2.35 (4)【メーカー】は (中略) 容器を【作る】ことになるだろう。(PM23_00007) [1.2450 が 2.3860](換喻) (自) 3.75 (わ) 3.50 (古) 1.80 (新) 2.05 (比) 0.65 (5) 浦和レッズ一柏レイソルのサテライト(二軍) 【戦】(PN2c_00002)(提喻) (自) 3.60 (わ) 3.15 (古) 1.65 (新) 2.35 (比) 1.25 (6) 大きな【ギャップが生まれ】ている(PN2c_00006) [1.1830 が 2.5710](擬生) (自) 3.85 (わ) 3.80 (古) 1.9 (新) 2.20 (比) 1.95 (7)【脚が棒になる】まで歩き回ります(PM51_00077) [1.5603 が 1.4150 に 2.1500](転換・慣用) (自) 4.35 (わ) 4.50 (古) 3.30 (新) 0.65 (比) 4.45 ## 3 結果 ## 3.1 比喻情報付与結果 比喻情報付与結果(データ画面例は付録の図1を参照)を示す. 表1では,レジスタ別に語数および,結合(選択制限違反)数と比喻性に関わるとマークされた語 (MRW) 数, 指標 (MFlag) 数を示している. なお, 表 1 は結合(選択制限違反)数を示したが,作業者が選択制限違反を認めなかった場合(換喻や提喻などは比喻性の判断が作業者によって摇れる場合もある)や結合の取得しにくい指標比喻などの場合,結合が取得されていないことがある。また,複数の種別が記載されている場合もあるため, 比喻表現数は結合数と一致するものではない. ## 表1 比喻情報付与結果の統計 新聞 (PN) において結合数が最も多いが, MRW としてマークされた語数は雑誌 (PM) が最も多い. 書籍(PB)では結合と MRW のどちらも少なく, 比喻表現が少ない傾向が確認される。また,比喻指標として抽出された要素は結合の確認された比喻表現における 3\%程度と僅かであり, いわゆる直喻の出現頻度は比喻表現中においても低い割合であることがわかる。 表 2 には,レジスタ別の比喻表現種別を示す。 表 2 レジスタ別の比喻表現種別の統計 表 2 では, 1 つの結合に対し「文脈・慣用」などのように複数種別が記載されていた場合, 2 つ目までを取得して集計した。新聞は換喻や提喻が他レジスタよりも多い傾向があり,いわゆる隠喻(類似性に基づく転換)も最も多く取得されており,比喻表現の取得される頻度が高い. 但し, 文脈比喻は少ない傾向にある.雑誌はいわゆる隠喻の頻度が高いが,慣用表現はやや低く, 文脈比喻が多く見られる傾向が確認されている。書籍は, 種別の分布としては雑誌に似るものの, 雑誌との違いとして, 慣用表現の割合がやや高い傾向がある. また,類似性に基づく転換(いわゆるメタファー) の下位種別を表 3 に示す。新聞から取得されるメ夕ファー表現の 7 割が具象化であるため, 一般的に比喻表現とは意識されにくいと考えられる.新聞は,慣用表現の出現頻度も高い(表 2 参照)ことから, いわゆる文章技巧的な比喻表現が出現しにくいことが, 新聞の特徵と考えられる. 反対に, 書籍では擬人化のようにわかりやすい比喻表現の頻度が高いともいえる。しかし,一般的な読み手による評定値では, (3)や(7)のような慣用的な用例において自然さやわかりやすさとともに比喻性が高く, (4)のような換喻用例において比喻性が低く評定される傾向が見られる. (2)や(6)のような擬人 (生) 化の用例は比喻性の高さが期待されるが, (2)のようにわかりやすさの低い例では,比喻性も低く評定される傾向がある。 (1)のような具象化や(5)のような提喻の例からも, わかりやすさが比喻性に影響する可能性が考えられる。 ## 表 3 種別「類似性(隠喻)」の下位種別の統計 ## 3.2 英語コーパスとの対照 Steen ら(2010)の BNC-baby に情報付与した VU Amsterdam Metaphor Corpus と対照することが可能である。表 4 に,BNC-babyvi と BCCWJviiの付与結果をあわせて示す. なお, Steen ら(2010)は, borderline case を“WIDLII’と分けて示している.ここでは,BCCWJ の付与結果についても,作業者間で合意のなかった比喻表現に関わる短単位(1 名または 2 名のみが MRW としてマークした短単位) について, WIDLII に分類してある。 表 4 英語コーパスと本稿コーパス M-Flag(指標)は,英語コーパスと同程度の割合となっていたが,MRW としてマークされた語数には差が見られる。本作業は短単位へのマークであることや,日英語の品詞差により,単純に対照することはできないが,作業者間の摇れや作業漏れの可能性も考えられるため, 付与作業漏れの整備とともに,今後確認を進める予定である. ## 4 おわりに BCCWJ の約 34 万語に比喻表現情報の付与を行った.MIPに基づいた比喻表現抽出を行うことで,他言語の比喻表現情報付与コーパスとの対照が可能である. 作業対象には, 文脈情報として NDC の補助分類や新聞記事内容や種別の情報が付与されているため,種類の異なるコーパスとも,該当部分の対照が可能となっている. また,比喻表現に関する情報として,種別や印象評定等を付与しており, 日本語比喻表現の実態調査に有用なデータと期待される.  $ 但し, BCCWJ の PNについては, 記事情報が付与されており(加藤ら 2021),新聞においても記事の内容や種類によって比喻表現の分布には差異が見られる. } ## 謝辞 本研究は JSPS 科研費 JP18K18519 の助成を受けたものです. ## 参考文献 1. 中村明.『比喻表現辞典』, 1995 年, 角川学芸出版. 2. Willks, Yorick, Galescu, Lucian, Allen, James, and Adam Dalton. "Automatic Metaphor Detection using Large-Scale Lexical Resources and Conventional Metaphor Extraction," Proceedings of the Workshop on Metaphor in NLP, 2013, 36-44. 3. Turney, Peter D., Neuman, Yair, Assaf, Dan, and Yohai Cohen. "Literal and Metaphorical Sense Identification through Concrete and Abstract Context," Proceedings of the 2011 Conference on Empirical Methods in Natural Language Processing, 2011, 680690. 4. Mao, Rui, Lin, Chenghua, and Guerin, Frank, "Word Embedding and WordNet Based Metaphor Identification and Interpretation", Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), 2018, 1222-1231. 5. Liu, Jerry, O'Hara, Nathan, Rubin, Alexander, Draelos, Rachel, and Rudin, Cynthia. "Metaphor Detection Using Contextual Word Embeddings From Transformers", Proceedings of the Second Workshop on Figurative Language Processing, 2020, 250-255. 6. 中村明.『比喻表現の理論と分類』国立国語研究所報告 57, 1977 年, 秀英出版. 7. Pragglejaz Group. "MIP: A Method for Identifying Metaphorically Used Words in Discourse," Metaphor and Symbol 22, 1, 2007, 1-39. 8. 宮澤彬, 吉田奈央, 宮尾祐介.「日本語メタファ ーコーパス作成のためのガイドライン」『言語処理学会第 22 回年次大会発表論文集』, 2016 年, 150153. 9. 加藤祥, 浅原正幸, 山崎誠. 「『現代日本語書き言葉均衡コーパス』新聞・書籍・雑誌データの助動詞に対する用法情報付与」『日本語学会 2019 年度春季大会予稿集』, 2019 年 a, 161-166. 10. 加藤祥, 浅原正幸, 山崎誠.「分類語彙表番号を付与した『現代日本語書き言葉均衡コーパス』の新聞・書籍・雑誌デー夕」『日本語の研究』2019 年 b, 15( 2): 134-141. 11. Steen, Gerard J., Dorst, Aletta G., Herrmann, Berenike, Kaal, Anna, Krennmayr, Tina, and Trijntje Pasma. A Method for Linguistic Metaphor Identification; From MIP to MIPVU, John Benjamins Publishing Company, 2010. 12. Semino, Elena. The Metaphorical Construction of Complex Domains: The Case of Speech Activity in English, Metaphor and Symbol 20, 1, 2005, 35-69. 13. 宮島達夫. 『動詞の意味 - 用法の記述的研究』国立国語研究所報告 43, 1972 年, 秀英出版. 14. 加藤祥,菊地礼,浅原正幸.「『現代日本語書き言葉均衡コーパス』に基づく指標比喻データベー ス」『自然言語処理』2020 年, 27(4):853-887. 15. 加藤祥, 浅原正幸. 「『現代日本語書き言葉均衡コーパス』に対する印象評定情報付与」『言語処理学会第 28 回年次大会発表論文集』, 2022 年, 発表予定. 付録 図 1 情報付与結果の例(作業画面)
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH3-2.pdf
# 文脈による危険度変化の予測のためのデータセット構築 勝又友輝 ${ }^{1}$ 竹下昌志 ${ }^{1}$ ジェプカ・ラファウ ${ }^{2}$ 荒木健治 ${ }^{2}$ 1 北海道大学大学院情報科学院 2 北海道大学大学院情報科学研究院 katsumata.yuki.v3@elms.hokudai.ac.jp \{takeshita.masashi,rzepka,araki\}@ist.hokudai.ac.jp ## 概要 人工知能にも我々人間と同じょうな道徳的判断ができるシステムが必要である.しかし,現状の人工知能は,状況や文脈に応じた道徳的判断は困難である. 例えば,「リング場でボクサーが人の顔を殴る」 より「居酒屋でボクサーが人の顔を殴る」方が危険な行動であることを,人間は常識を持っているため簡単に判断できるが,人工知能には難しい. 本研究ではこの問題を解決するため,文脈によって変化する人間の行動の危険度予測のためのデータセットを構築する. 人手で動詞を元に人間の行動の文を作成し,7 段階の危険度のアノテーションを行う.また,構築したデータセットを用いて,危険度予測の実験も行う。 ## 1 はじめに 近年,人工知能の発展により,Siri や Pepper などのコミュニケーションエイジェントが登場し,我々の生活には人工知能が欠かせない存在となってきている. さらに,人工知能は履歴書の審査や融資の承認まで,様々な領域でますます権限を委ねられつつある。このような時代の変化に伴い,人工知能を有効に扱うためには,人間と同じょうに道徳的判断のできるシステムが必要である. しかし,人工知能が道徳的判断をするにはまだ課題が多い. 物事に対する道徳的判断は状況や文脈によって変動してしまう,人間は常識的な知識を持っているためこのような変化を捉えることができるが,人工知能はそのような常識を持っていない。そのため,状況や文脈などが変わった時に,人間と同じような判断をすることが難しい. 人工知能への道徳的判断システムの導入には,文脈に依存した判断ができるようにすることが必要とされる.また,道徳的に正しいか否かという評価軸は不一致が起こり表 1 データセットの例, 危険度スコアは安全(1)から危険(7)までの 7 段階とする やすいという問題もある。人間でさえ意見が割れてしまうケースもあるため,人工知能が正しい判断をするのは困難である. 本研究では,これらの背景から,常識的な知識による部分が大きく評価が一意に決まりやすい,人間の行動の危険度予測というタスクを提案する。このタスクでは,文脈が変化しても人工知能が人間と同等の危険度予測を行えることを目標とする。しかし,現状では,人間の行動の危険度を予測するための日本語のデータセットは存在しない。そこで本研究では,本タスクのためのデータセットを構築した.このデータセットは,表 1 のように人間の行動の文とその行動の評価が 7 段階の危険度で構成されている. 文脈が変化しても正しい判断を行えることを目指すため,動詞と主語は固定させ,動詞の目的語や文脈を追加する形で文を作成し,対象や状況が変化しても人間と同等の危険度予測ができるかを確認できるようにする。また,構築したデータセットを用いて,人間の行動の危険度予測の実験も行う。 なお,本研究での危険の定義は,「文が表す状況に登場する人物に,肉体的もしくは精神的に苦痛や傷害を与える可能性があること」とする. ## 2 関連研究 近年,人工知能に常識的な知識を持たせる研究や道徳的判断をさせる研究がさかんに行われている。 Maarten らは,常識的な推論に不可欠な推論知識をまとめた ATOMIC というデータセットを構築した [1]. ATOMIC は,「もしあるイベントが起こったら何が起こるか」という推論関係の知識で構成さ れている。例えば,“if $\mathrm{X}$ pays $\mathrm{Y}$ a compliment, then $\mathrm{Y}$ will likely return the compliment" といった知識であり, このような推論関係を 87 万件まとめており,この種の知識グラフとしては最大のものである. Rzepka らは,文脈を考慮した道徳的判断の研究を行った [2]. この研究では, 日本語のコーパスで学習させた BERT モデル [3] を用いて「殴る」が文末に来るような文を生成した. そして,その文の表す行為が道徳的に許せるかどうかを人手で評価し,それを BERT が予測するという実験を行った。 しかし, Rzepka らの研究で生成されたデータセットには 3 つ問題がある. 第一に,日本語 BERT モデルを用いて「殴る」という一つの動詞から生成された文は 50 文であり,データの量が不十分である.第二に, 日本語 BERT モデルを用いて生成する方法では不自然な文が生成されることがある. 第三に,道徳的に正しいという評価軸は評価者の中で不一致が起こりやすいという問題である. 本研究では,これらの問題の改善を目指し,道徳的判断という評価軸を改め,人間の行動の危険度予測というドメイン特化のタスクを提案する。また,現実的にあり得る人間の行動の文を得るため,クラウドソーシングを主に用いて,人間の行動の文を約 2 万文作成,危険度のアノテーションを行う. ## 3 データセット構築 本研究では,次の手順で,動詞を元に人間の行動の文を作成,および 7 段階の危険度のアノテーションを行う。 1. 関連研究から,危険な行動になり得る動詞のリストを作成する。(3.1節) 2. 高頻度な述語項構造から,それぞれの動詞の主語を決定する。(3.2 節) 3. 主語と述語の組み合わせを基に対象語を人手にて穴埋めしてもらい,危険である例,危険でない例の文を作成する。(3.3 節) 4. 作成した文に,さらに文脈を付け加え,文の数を増加させる.(3.4 節) 5. 作成した文が表す人間の行動を,人手にて 7 段階で危険である可能性が高いか評価する。 (3.5 節) 以降では,各手順の設定や方法について説明する。 ## 3.1 動詞の決定 まず,危険な行動,危険でない行動,どちらにもなり得ると考えられる動詞のリストを作成する. 動詞のリストの作成に当たって,2つのデータを基にする. 1 つ目は,Alshehri らによる研究 [4] で定めた,物理的な危害を示すために使われるアラビア語の動詞のリストである. Alshehri らは,ソーシャルメディアにおける危険な発言の理解と検出のために,発言が危険か否かのラベルがついたデータセットの構築に取り組んだ。本研究では, Alshehri らがデー タセット構築のために作成した 56 個の動詞(例: “kill”,“hit”) のリストを翻訳して活用する. また,2つ目は,日本語 Wikipediaエンティティベクトル $[5]^{1)}$ の頻出動詞である. 日本語 Wikipedia エンティティベクトルとは,日本語版 Wikipedia の本文全文から学習した,単語,および Wikipedia で記事となっているエンティティの分散表現ベクトルである.また,頻出動詞の抽出には,日本語形態素解析システムである JUMAN[6] を使用する。 以上の 2 つのデータより,危険な行動,危険でない行動,どちらにもなり得ると著者が判断した動詞のみを抜粋し, 25 個の動詞のリストを作成する. 25 個のうち, Alshehri らの動詞のリストから 12 個,日本語 Wikipedia エンティティベクトルの頻出動詞から 13 個である. 作成した動詞のリストを表 2,3 に表す. 表 3 日本語 Wikipedia エンティティベクトルの頻出動詞のリストから抽出した動詞 ## 3.2 主語の決定 次に,動詞のリストを基に,それぞれの動詞の主語を決定する.主語の決定には,京都大学格フレー ムを用いた [7]. 格フレームとは,用言とそれに関係する名詞を用言の各用法ごとに整理したものであり,京都大学格フレームは,Webテキストから自動構築した大規模格フレームである。これには,先ほ  ど定めた 25 個の動詞のそれぞれの頻出主語が記されている。これを基に, 日本語 Wikipedia エンティティベクトルの人物を表す頻出名詞上位 50 件の中から,それぞれの動詞の頻出主語上位 5 件を選択する.ここで抽出対象を上位 50 件に絞った理由は主語の一般性を高めるためである。例えば,「カメラマンが—をを切る」の対象語には「シャッター」や 「電源」などの危険でない単語が入りやすく, 危険な自然文と危険でない自然文の両方を獲得することは難しい,そこで,抽出対象を上位 50 件(例:「父」,「子供」)にすることで,このような問題の解決を試みる。 また、日本語 Wikipedia エンティティベクトルの名詞から抽出する名詞が人物か否かを判別するために,JUMANを用いる。 以上より,それぞれの動詞に対して 5 件の主語を抽出した。例を挙げると,「殴る」という動詞は,「男」,「父」,「人」,「先生」,「女」という主語,「食べる」という動詞は,「人」,「子供」「客」,「娘」,「自分」という主語となった。 ## 3.3 対象語の穴埋め 主語と述語を基に,クラウドソーシングサービス2)を通じて, 18 人のアノテーター(詳細は付録 $\mathbf{A}$ に示す)に現実的にありうる人間の行動の文の作成を依頼する.1 人あたり危険そうな例,危険ではなさそうな例をそれぞれ 125 文(動詞 25 個にそれぞれの頻出主語 5 個),合計 250 文の作成を依頼する。例えば,「子供が—を吒く」という文を与え,危険そうな例として「子供が友達の頬を吅く, 危険ではなさそうな例として「子供がタンバリンを印く」 といったような文を作成してもらう。 文作成依頼の際のルールは付録 B に載せる。結果,重複した例,ルールに合致しない例を除き, 3,165 文の人間の行動の文が作成された. ## 3.4 文の拡張 作成した 3,165 文を元に,対象語の穴埋めと同様にクラウドソーシングサイトを通じて,文脈を増やし,現実的にありうる人間の行動の文の作成を依頼する. 66 人のアノテーター(詳細は付録 $\mathbf{C}$ に示す) に 1 人あたり危険そうな例,危険ではなさそうな例をそれぞれ 150 文ずつ,合計 300 文の作成を依頼する. 文作成依頼の際のルールは付録 D に載せる。ア 2) https://crowdworks.jp/ ノテーションの結果,元の 3,165 文から 18,427 文が作成され、元の文と合わせて合計 21,592 文となった. ## 3.5 危険度のアノテーション 最後に,作成した文が表す人間の行動に対して,危険度のアノテーションを行う,文作成の際とは異なるアノテーターにより,7 段階で危険である可能性が高いか,安全である可能性が高いかのタグ付けを行う。作成した 21,592 文を 1 文につき 3 人ずつ,計 81 人のアノテーター(詳細は付録 $\mathbf{E}$ に示す)に,危険度のタグ付けを依頼する。また,アノテーションのスコアは,図 1 ように安全(1)から危険(7) までの 7 段階とする. 図 1 危険度アノテーションの評価スコア アノテーションを行った結果,付けられた危険度スコアの分布は表 4 のようになった. 表 4 評価の分布. 評価の総数と文の総数(21,592 文)は一致しないが,これは 1 文につき 3 人ずつ評価を行ったためである. 表 4 より,スコアが 3 または 4 である文が少ないという結果になった。これは,文作成の際に,危険そうな例,危険ではなさそうな例という形で,文を作成したため,どちらとも言えないような中間の値が少なくなったと考えられる. また,文ごとに評価の標準偏差を求め,評価者によるばらつきがどれくらいかを確認する.文ごとに標準偏差を左から降順に整列させたグラフを図 2 に示す. 標準偏差の平均は 0.777 となった. 1 未満という結果となり,全体的に評価のばらつきは大きくなく評価者の中で不一致があまり起きていないことが確認できた. しかし,図 2 より,評価のばらつきが大きいものも存在したため,標準偏差が 2 以上のデータは信用できないデータとして除外した. 結果,標準偏差の平均は 0.692 となり,より信頼できるデータとして予測実験に使用する人間の行動の文とその行動の危険度の組み合わせは 20,453 件となった. 図 2 文ごとに標準偏差を計算し,左から降順に整列させたグラフ. ## 4 危険度予測の実験 機械学習による危険度予測実験の精度を検証するため, LSTM, Bidirectional LSTM(以下,BiLSTM とする), BERT の3つのモデルによる回帰分析を行う. LSTM と BiLSTM のエンベディングには, One-hot 表現と日本語 Wikipedia エンティティベクトルを使用する.BERT のモデルとしては,約 1,800 万文を含む日本語 Wikipedia コーパスで事前学習された BERT-base モデル3)を用いる. 危険度スコアの正解値は 3 人の評価者の中央値,平均値,2つの場合で実験する. それぞれ構築したデータセットを評価値ごとに層化抽出法を用いて8:1:1 に分割し, 学習データ, 開発データ, テストデータとした.データセットの詳細は付録 F に示す. また,回帰分析の評価には,一般に広く用いられている 2 つの精度評価指標 4 ), 平均絶対誤差(Mean Absolute Error, 以下,MAE とする)と二乗平均平方根誤差 (Root Mean Squared Error, 以下,RMSE とする)を用いる。 MAE とは,正解値と予測値との誤差の絶対値を平均したものである. これは,データの数を $n$ ,正解値を $y$, 予測値を $f$ としたとき,式(1)のように表せる. $ M A E=\frac{1}{n} \sum_{i=1}^{n}\left|f_{i}-y_{i}\right| $ 次に,RMSE とは,正解値と予測値との誤差の二乗を平均して平方根をとったものである.これは, MAE より正解値と予測値との誤差が大きい例の影  響を受けやすいという特徴がある.式 (2) のように表せる. $ R M S E=\sqrt{\frac{1}{n} \sum_{i=1}^{n}\left(f_{i}-y_{i}\right)^{2}} $ ## 5 実験結果 表 5, 6, 7 に実験結果,例を示す. 表 5 危険度の正解値を評価の中央値にした場合の実験結果,最も高い精度を太字で示す. 表 6 危険度の正解値を評価の平均値にした場合の実験結果,最も高い精度を太字で示す. 表 7 危険度の正解値を評価の中央値にした場合の BERT の実験結果の例 表 5,6 より,全体では BERT が最も良い精度となった. 表 7 の例では,文脈の違いによる危険度変化の正確な予測がされた。 ## 6 おわりに 本研究では,文脈によって変化する人間の行動の危険度予測のためのデータセットを構築した. 人間の行動の文とその行動の危険度の組み合わせが 20,453 件となった.また,機械学習を用いた回帰分析による予測を行った. 実験の結果,BERTを用いた予測が最も精度が高いことが明らかとなった。 今後は,予測の精度を上げるため,他のモデルとの比較検討を行う必要がある. また,データセットについても,さらなる検討をすべきである.文が表す人間の行動から,連想される状況や行動を踏まえた予測の検討も重要であると考える。 ある行動を基に次に起きる事象を予測することは,文脈の考慮にも繋がり,予測の精度を上げることに貢献できると考えられる。 そのため,因果関係の知識やシナリオを追加して,データセットを拡張することを今後検討していきたい。 ## 謝辞 本研究は JSPS 科研費 17K00295 の助成を受けたも のです. ## 参考文献 [1] Maarten Sap, Ronan Le Bras, Emily Allaway, Chandra Bhagavatula, Nicholas Lourie, Hannah Rashkin, Brendan Roof, Noah A. Smith, and Yejin Choi. Atomic: An atlas of machine commonsense for if-then reasoning. AAAI, 2019. [2] Rafal Rzepka, Sho Takishita, and Kenji Araki. Bacteria lingualis on bertoids - concept expansion for cognitive architectures. Technical Report of JSAI Special Interest Group for Artificial General Intelligence, 2020. [3] Devlin, Jacob, Chang, Ming-Wei, Lee, Kenton, Toutanova, and Kristina. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2019. [4] Ali Alshehri, El Moatez Billah Nagoudi, and Muhammad Abdul-Mageed. Understanding and detecting dangerous speech in social media. Proceedings of the 4th Workshop on Open-Source Arabic Corpora and Processing Tools, 2020. [5] 鈴木正敏, 松田耕史, 関根聡, 岡崎直観, 乾健太郎. Wikipedia 記事に対する拡張固有表現ラベルの多重付与. 言語処理学会第 22 回年次大会 (NLP2016), 2016. [6] Hajime Morita, Daisuke Kawahara, and Sadao Kurohashi. Morphological analysis for unsegmented languages using recurrent neural network language model. Proceedings of EMNLP 2015: Conference on Empirical Methods in Natural Language Processing, 2015. [7] 河原大輔, 黒橋禎夫. 黒橋禎夫:高性能計算環境を用いた web からの大規模格フレーム構築. 情報処理学会自然言語処理研究会, 2006 . ## A 3.3 節の対象語の穴埋めのアノ テーター情報 \\ 20 代から 60 代の男性 7 名,女性 11 名 ## B 3.3 節の対象語の穴埋めのルール ・埋める部分は,物や人を問わず,実体のあるもの(非抽象的対象)とし,また代名詞(例:「私」,「彼」,「彼女」)は使ってはいけない. ・修飾語十名詞の形」でも良い(例:「母親の肩」,「腐ったみかん」,「污い水」) - 「名詞句十に十名詞句」,「名詞句十から十名詞句」の形はできるだけ避け, 目的語が一つになるようにする。 ・主語と同じ意味のものを使ってはいけない. (例:「女性が【女】を殴る」) ## C 3.4 節の文拡張のアノテーター ## 情報 20 代から 60 代の男性 21 名,女性 45 名 ## D 3.4 節の対象語の穴埋めのルール ・元の文と全く同じ文は書いてはいけない. - 元の文の単語は変えずに,文脈を増やして文を作成する. ・文の終わりに文脈を増やしてはいけない ・危険そうな例,危険ではなさそうな例のどちらかが,どうしても思いつかない場合は空欄にする. ## E 3.5 節の危険度評価のアノテー ター情報 \\ 20 代から 60 代の男性 38 名,女性 43 名 ## F 実験に用いたデータセットの詳細 表 8 評価の中央值の分布 表 9 評価の平均値の分布
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH3-3.pdf
# 共想法談話のテーマと修辞機能の関連についての分析 田中弥生 国立国語研究所 yayoi@ninjal.ac.jp } 小磯花絵 国立国語研究所 koiso@ninjal.ac.jp } 大武美保子 理化学研究所 } mihoko.otake@riken.jp ## 概要 本発表は、高齢者の会話支援手法「共想法」のテーマに基づく談話を、修辞機能分析の分類法によって分析し、テーマと修辞機能の関連を検討したものである。先行研究の分析結果を、より整備されたデータによって確認した。「共想法」を構成する 「話題提供」パート (独話)と「質疑応答」パート(会話) の分析から、テーマに共通する修辞機能がある一方でテーマに依存する修辞機能もあること、テー マの特徴は「質疑応答」より「話題提供」において強く見られることが明らかになった。 ## 1 はじめに 本発表は、高龄者の会話支援手法「共想法」のテーマに基づいて語られる談話を、修辞機能分析の分類法によって分析し、テーマと修辞機能の関連を検討したものである。共想法は、(1) あらかじめ設定されたテーマに沿って、自身で準備した写真やイラストとともに話題を数人の高齢者が持ち寄り、(2)参加者全員のもち時間を均等に決めて、話題提供する時間(独話)と、質疑応答する時間(会話)に分けるという 2 つのルール沿って「話す」「聞く」「質問する」「答える」のバランスをとりながら行われる [1]。 先行研究では、共想法のテーマによって多用される修辞機能が異なることを明らかにした $[2,3]$ 。また、同一テーマであっても「話題提供」パートと 「質疑応答」パートでは異なる特徴があることや、 さらにテーマやパートによらない個人差があることも明らかになっている。しかし、先行研究では分析データの参加者のバランスが十分に図られておらず参加者の影響が排除されていないという問題があった。そこで本研究では、参加者のバランスを考慮したデータを対象に、テーマと修辞機能の関係を明らかにすることを目的とする。 これまで「修辞ユニット分析」 $[4,5]$ の分類法に よって様々な談話の分析を行い、目的や話題内容、状況による、脱文脈化程度の様相の検討を行なってきた $[6,7,8]$ が、本研究では、「修辞機能分析 $]^{1)} の$分類法を用いる。修辞という語は隠咏などの技巧や技術などの意味合いで用いられるが、本研究では、我々が話したり書いたりする際に、意識的にせょ無意識的にせよ、表現を選び、その結果として生じる機能を修辞機能と考える。修辞機能分析によって、修辞機能とともに脱文脈化指数か明らかになる。文脈や脱文脈という用語は研究分野によって使われる意味が異なるが、本研究では脱文脈化度を、コミュニケーションが行われている「今ここ」の時空とその発話内容との時間的・空間的距離の程度、とする。 ## 2 分析対象と分析方法 ## 2.1 分析対象 本発表では、固定された1グループ4名のメンバーによる 3 テーマの合計 72 分のデータを用いて、先行研究の結果を確認することとした。参加者は 1 つのテーマにつき 2 枚の写真 ( 2 つの話題)を準備して話す。1テーマに $2 \times 4$ 名、合計 8 つの話題があり、3テーマで合計 24 の話題が本発表の分析対象となっている。「話題提供」パートは 1 つの話題 1 分で、参加者は 2 分の間に続けて2つの話題を話す2)。参加者 4 名の「話題提供」が終わると「質疑応答」 (1つの話題が 2 分、 2 つで合計 4 分) が行われる。 本研究の実験全体では、1グループ4名で 6 グループ合計 24 名の参加があり3)、会話は 12 テーマで 1 回ずつ全 12 回行われた。このデータは、共想法が参加者の認知機能に与える影響を検証するために実施されたランダム化対照群付き比較試験を通じ 1)修辞ユニット分析を日本語文法の枠組みで検討し修正を加えたもので、現在手順書を作成中である。 2) 基本的に 1 つの話題が 1 分であるが、今回のデータの中に 2 つの話題の時間配分がうまくいかなかったと思われるケー スが見られた。 3) 久席の場合は代替メンバーが参加した。 て得られたものである。参加者は、共想法に参加する介入群と、共想法が開催されるのと同じ頻度で実験会場に通所するのみの対照群とにランダムに分けられた。介入群参加者の共想法における会話を文字起こししたデータを分析した。介入群の実験条件は同一で、対照群の実験条件を雑談に参加することとした場合の検証結果については、文献 [9] に報告されている。 ## 2.2 分析方法 修辞機能分析 ${ }^{4}$ の分類法によって、1. 分析単位となるメッセージ (概ね節)に分割してその種類から分析対象を特定し、2. 発話機能、時間要素、空間要素を認定し、その組み合わせから、3. 修辞機能の特定と脱文脈化指数の確認を行う。 ## 2.3 分析対象の特定 分析単位の「メッセージ」は、概放節に相当し、「主節」(単文と主節)、「並列」(主節以外で節の順番を変更することが可能な並列節、従属度の低い従属節)、「従属」(従属度の高い従属節)、「定型句類」(相槌や定型句、述部がなく復元ができないものや挨拶など)の 4 種類に分類する。基本的に「主節」と「並列」をこの後の分析対象とする。 ## 2.4 発話機能・時間要素・空間要素の認定 「主節」及び「並列」と認定されたメッセージについて、発話機能 (提言・命題) ・時間要素 (述部の時制 : 現在 - 過去 -未来意志的 -未来非意志的 - 仮定 $\cdot$習慣恒久) ・空間要素 (述部に対する主体や主題 : 参加・状況内 - 状況外・定義)を認定する。表 1 に示したように、これらの組み合わせから、修辞機能と脱文脈化指数が特定される。時間要素は「今」からの時間的距離を、空間要素は「ここ・わたし」からの空間的距離を示す。今ここわたしに近い修辞機能【行動】の脱文脈化指数が [1] で最も低く、空間的にも時間的にも遠い【一般化】[14]が最も高い。 以下に分類例を示す。 1)まあ、あの、普段、私、大体出かけるときは腕時計してますんで、 〔発話機能: 命題 \& 時間要素: 習慣・恒久 (大体出かける時は腕時計してますんで) \&空間要素 : 参加 (私)】 $\rightarrow$ 【自己記述】 $[07]$ 4)修辞ユニット分析 $[4,5]$ を日本語文法の枠組みで修正したもので、現在手順書を作成中である。表 1 発話機能・時間要素・空間要素からの修辞機能と脱文脈化指数の特定 } & & & & & & & \\ 2) まあ、あの、きょうは腕時計を初めて外したような形になりますけど、 〔発話機能:命題\&時間要素:現在 (きょうは・一・外したような形になります) \&空間要素 : 参加 ( $\phi=$私) 〕5) $\rightarrow$ 【実況】[02] 3) ま、これから、だ、だんだん慣れていきたいと思います。 〔発話機能: 命題 \& 時間要素: 未来意志的 (慣れていきたい) \&空間要素 : 参加 $(\phi=$ 私 $)$ 】 【計画】 [04] 2 名の作業者によってアノテーションを行い、判断が分かれたものは筆者の 1 人が決定した。 ## 2.5 予想される特徴 それぞれのテーマから予想される特徴は次のとおりである。テーマ「好きなもの」は個人の嗜好に関わる話題のため空間的距離のレベルが低い修辞機能が用いられるのに対し、テーマ「近所の名所」は一般的な話題のため脱文脈化度の高い修辞機能が用いられることが予想される。またテーマ「新しく始めること」は、個人的な計画であれば【計画】[04] が用いられるが、現在から先への話題のため「今」から離れて時間的距離のレベルが高い修辞機能が用いられることも予想できる。 ## 3 分析結果 表 2 は、 3 つのテーマの「話題提供」と「質疑応答」のパート別の修辞機能の出現度数である。 テーマと修辞機能との関係を調べるために、パー トごとに多重対応分析を行った6)。分析には R の 5) $\phi=$ 省略されている語を復元している。 6)出現頻度が 10 以下でほとんど出現しない修辞機能は除外した。 表 2 各テーマの修辞機能と脱文脈化指数の出現 図 1 「話題提供」の修辞機能の多重化対応分析結果 (図ではテーマを略して<名所>のように表示) $\mathrm{mca}$ 関数を用いた。「話題提供」パートの結果を図 1 に、「質疑応答」パートの結果を図 2 に示す。 図 1 から「話題提供」における特徴として次のことがわかる。 ・3つのテーマのほぼ中心に【説明】[13]が位置しており、【説明】[13]がいずれのテーマとも共起しやすい。 ・テーマ「好きなもの」は【自己記述】[07]と【観測】[08] が共起しやすい。 ・テーマ「近所の名所」では【状況外回想】[10] が共起しやすい。 ・テーマ「新しく始めること」では【計画】[04] と【状況内回想】[03]が共起しやすい。【自己記述】[07]も関わりがある。 第1軸 図 2 「質疑応答」の修辞機能の多重化対応分析結果 (図ではテーマを略して<名所>のように表示) 図 2 の「質疑応答」パートでは、「話題提供」パー トと比べて 3 つのテーマが近接しており、修辞機能との関係において各テーマが類似した傾向にあること、個々の話題にのみ関連の深い修辞機能は見られないこと、「話題提供」パートと同様に【説明】[13] がいずれのテーマにも近接していることが確認された。 このように、「質疑応答」パートより「話題提供」 パートの方がテーマに依存した修辞機能の特徴がより現れやすいと言える。 ## 4 考察 3 節では、共想法による談話では【説明】[13]がベースとなっていることが確認できた。本節では、 それ以外の修辞機能がテーマとどのように関わるかについて、「話題提供」パートを中心に確認する。 ## 4.1 テーマ「好きなもの」 参加者が好きなものを紹介する際には、【自己記述】[07] と【観測】[08] が多く用いられている。以下に例を示す。 4) あの、このカメラはまだ買って半年ぐらいしかたってないんです。 〔発話機能: 命題 \& 時間要素: 習慣 - 恒久 \& 空間要素: 状況内】 $\rightarrow$ 【観測】[08] 5) もうそれも、年間 2000 枚ぐらい撮るんで、 〔発話機能: 命題 \& 時間要素: 習慣・恒久 \& 空間要 素 : 参加】 $\rightarrow$ 【自己記述】[07] 6) 保存、整理が大変ですね。 〔発話機能: 命題 \& 時間要素: 習慣・恒久 \& 空間要素: 状況外】 $\rightarrow$ 【説明】[13] 個人的な話題のため空間的距離が発話者に近く (空間要素「参加」)、なおかつ趣味・嗜好に関わる内容のため時間的距離に関わらない(時間要素「習慣・恒久」)性質が特定されたといえる。図 1 において【説明】 [13] に比べて距離が近いため、好きなものを語る際には、そのものについて説明するより、自分とそのものの関わりを述べていることがうかがえる。 ## 4.2 テーマ「近所の名所」 「近所の名所」というテーマでは、予測したように【説明】[13] が他のテーマより多く用いられている他、【状況外回想】 [10] が多く、4名のうち 3 名の 「話題提供」で出現している。1名は7)のように、撮影時の状況を述べているが、他の 2 名は 8)9)10)のように歴史的な状況を含めて解説していた。名所という歴史的価値のあるものがテーマであるために、【状況外回想】 [10]が使用されたことがうかがえる。 7) 巫女さんがちょっと手伝って一緒に写させてくれました。 〔発話機能: 命題 \& 時間要素: 過去 \& 空間要素: 状況外了 $\rightarrow$ 【状況外回想】[10] 8) この一、お坊さんの教育のための学校が、昔あったらしいんですね。 〔発話機能: 命題 \& 時間要素: 過去 \& 空間要素: 状況外】 $\rightarrow$ 【状況外回想】[10] 9) お坊さんが、もう何十人っていうか、何百人もいたらしくて。 〔発話機能: 命題 \& 時間要素 : 過去 \& 空間要素: 状況外 $\rightarrow$ 【状況外回想】[10] 10) それで、だから旃檀林という名前が付いているらしいです。 〔発話機能: 命題 \& 時間要素 : 習慣・恒久 \& 空間要素: 状況外】 $\rightarrow$ 【説明】[13] ## 4.3 テーマ「新しく始めること」 「新しく始めること」では、図 1 より【計画】[04] が最も特徴的であるとされ、他の 2 つのテーマとは異なる様子が明らかになった。また、テーマが先の話題であるために出現を予測していなかった【状況内回想】[03] については、4名の参加者全員が用いていた。例えば「富士塚巡り」をしょうとしている参加者の場合、次のように 2 年ほど前に神社で本を入手したことから述べている。 11)なかなかその、富士山が載ってる本はないんで。 〔発話機能: 命題 \& 時間要素: 習慣・恒久 \& 空間要素: 状況外】 $\rightarrow$ 【説明】[13] 12)たまたまこれが見つかったんで、 〔発話機能: 命題 \& 時間要素: 過去 \& 空間要素: 状況内】 $\rightarrow$ 【状況内回想】[03] 13) 全部行けるとこは行ってみたいなと思って、思ってます。 〔発話機能: 命題 \& 時間要素: 過去 \& 空間要素: 状況外】 $\rightarrow$ 【状況外回想】[10] 14)それで、だから旗檀林という名前が付いているらしいです。 〔発話機能: 命題 \& 時間要素: 未来意志的 \&空間要素: 参加】 $\rightarrow$ 【計画】[04] このように、新しく始めるにあたり、これまでの経緯を述べたりすでに開始していることを述べたりするために【状況内回想】[03]が用いられることがわかった。ここから、「新しく始めること」というテーマは、必ずしも先のことのみでなく、さまざまな脱文脈化度の発話を生じさせることが可能なことがうかがえた。 ## 5 おわりに 本発表では共想法のテーマに基づいて語られる談話について、テーマと修辞機能の関連を検討した。先行研究 $[2,3]$ では、設定されるテーマによって用いられる修辞機能に特徴が見られたが、参加メンバーのバランスが十分でなかったため、本発表では固定された参加メンバーによる整備されたデー タを用いて、先行研究で示唆された傾向を再検証した。「話題提供」(独話) と「質疑応答」(会話)の分析から、両パートともテーマに共通する修辞機能【説明】[13]があること、「話題提供」パートではテーマに特徴的な修辞機能が見られるが、こうした特徴は 「質疑応答」パートではあまり見られないことが明らかになった。 今後は、今回分析したグループの 12 回分すべての談話を分析し、個人差なども考慮に入れてテーマと修辞機能との関係を詳細に検討する予定である。 ## 謝辞 本研究は JSPS 科研費 JP19K00588, JP18KT0035, JP20H05022, JP20H05574, JST 研究費 JPMJCR20G1, JPMJST2168, JPMJPF2101 の助成を受けたものです。共想法に参加頂いた方に感謝申し上げます。 ## 参考文献 [1] 大武美保子. 介護に役立つ共想法: 認知症の予防と回復のための新しいコミュニケーション. 中央法規出版, 2012. [2] 田中弥生 - 小磯花絵 - 大武美保子. 共想法談話の脱文脈化観点からの検討. 言語処理学会第 27 回年次大会発表論文集, pp. 569-573, 2021. [3] 田中弥生・小磯花絵・大武美保子. 脱文脈化の観点から見た共想法に基づく高齢者談話の分析. 国立国語研究所論集, Vol. 22, pp. 137-155, 2022. [4] 佐野大樹. 日本語における修辞ユニットの方法と手順 ver.0.1.1一選択体系機能言語理論 (システミック理論)における談話分析一(修辞機能編), 2010. [5] 佐野大樹・小磯花絵. 現代日本語書き言葉における修辞ユニット分析の適用性の検証-「書き言葉らしさ・話し言葉らしさ」と脱文脈化言語・文脈化言語の関係 - . 機能言語学研究, Vol. 6, pp. 59-81, 2011. [6] 田中弥生・佐尾ちとせ・宮城信. 児童作文の評価に向けた脱文脈化観点からの検討. 言語処理学会第 27 回年次大会発表論文集, pp. 750-755, 2021. [7] 田中弥生・浅原正幸・小磯花絵. 手順説明談話における脱文脈化の諸相. 言語処理学会第 26 回年次大会発表論文集, pp. 720-723, 2020. [8] 田中弥生・小磯花絵. 脱文脈化の観点からみる職場における取引先との談話の特徴. 言語資源活用ワークショップ発表論文集. 国立国語研究所, 2020. [9] Mihoko Otake-Matsuura, Seiki Tokunaga, Kumi Watanabe, Masato S. Abe, Takuya Sekiguchi, Hikaru Sugimoto, Taishiro Kishimoto, and Takashi Kudo. Cognitive intervention through photo-integrated conversation moderated by robots (picmor) program: A randomized controlled trial. Frontiers in Robotics and AI, Vol. 8, p. 54, 2021.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH3-4.pdf
# 生化学分野のフルペーパーを対象としたリンキングと索引付け 辻村有輝 井田龍希 三輪誠 佐々木裕 豊田工業大学 \{sd18602,sd18006, makoto-miwa, yutaka.sasaki\}@toyota-ti.ac.jp ## 概要 2021 年 8 月に開催された BioCreative VII Track 2 に参加した. Track 2 は論文全体からの固有表現抽出, リンキング,Indexing の3つのタスクから構成され,各タスクごとにニューラルモデルと,TF-IDF ベー スの Indexing モデルを構築して臨んだ. リンキングでは省略形の解決により性能向上が確認された.また,構築したニューラル Indexing モデルは TF-IDF ベースのモデルに比べエラー伝播に弱く,パイプライン設定では TF-IDF ベースのモデルより低い識別性能となることが分かった. ## 1 はじめに 医学・生化学分野の大規模文献検索システムである PubMed [1] において,最もよく検索に使用されるのが化学用語である. 文献中の化学用語を自動抽出し,主要トピックを見つけて索引付けできるようになれば,検索システムの利用者にとって大きな助けとなり,また後続の言語処理システムにおける有用な情報となる。BioCreative VII Track 2 [2] はより高性能な化学用語の抽出・索引付けアルゴリズムの研究を目的としたコンペティション形式のワークショップトラックであり,参加者はアノテーション付与された 150 件の論文全体からのエンティティ抽出,リンキング,および Indexing タスクに取り組む. 本稿では,BioCreative VII Track 2 における参加結果と,そこで使用したモデルについて述べる。なお,本稿の内容は BioCreative VII workshop にて報告した結果 [3] を日本語で再構成したものである. ## 2 関連研究 ## 2.1 BioCreative VII Track 2 BioCreative VII workshop [4] は生化学分野を対象とした種々の情報抽出タスクを扱うコンペティション形式のワークショップである. 対象テーマ別に 5 つ のトラックに分かれており,特に Track 2 [2] では生化学分野の論文全体からの固有表現抽出,リンキングおよび Indexing を扱う. ## 2.1.1 固有表現抽出 固有表現抽出は,文献中に出現するエンティティを抽出する問題である。本トラックで扱うエンティティは生化学用語である. 本トラックのユニークな点として,抽出対象が論文全体であることが挙げられ,図表のキャプションなどに登場するエンティティも抽出対象となる。論文はセクションやキャプションといった区切りに分割され,出現するエンティティのスパンがタグ付けされている. 本トラックでは各エンティティは必ず連続した 1 つのスパンのみで構成される. 公式の評価指標はエンティティスパンに対する $\mathrm{F}$ 値である。 ## 2.1.2 リンキング リンキングは文書中に出現するエンティティとデータベースに登録されたエントリーの対応をとるタスクである.本トラックでは抽出された生化学用語それぞれに対し MeSH シソーラス [5] 全体から対応する概念を割り当てる. MeSH シソーラスには 2021 年 8 月当時で 348,240 件の概念が登録されている. また,本トラックでは一つのエンティティ表層が複数の概念の組み合わせとなりうるマルチラベル分類の設定になっている.該当する概念が存在しない場合があり,その場合は一致なしを表すラベルを付与する.公式の評価指標は $\mathrm{F}$ 値であるが,正解数等はエンティティ表層単位ではなく,論文単位でまとめたユニーク概念集合に対して計測される. ## 2.1.3 Indexing Indexing は文献に対する索引となる特に重要な話題を抽出するタスクである.本トラックでは各論文ごとに索引となる MeSH シソーラスの概念クラス集合を予測する形で行う,正解概念は,論文中で直 表 1 BioCreative VII Track 2 Indexing タスクの訓練コーパスにおける各条件での正解クラスの網羅数 接出現したエンティティのほか,そのエンティティをより一般化した上位概念となることもある。訓練コーパスにおける,各区分に分けた時の正解クラスの網羅数を表 1 に示す.ここで親子関係は MeSH Tree 構造における上位下位関係である。表のとおり,多くの正解クラスは論文中に直接出現し,また直接出現した概念クラスの親クラスを含めることで,全正解クラスの約 $94 \%$ 網羅できる. 公式の評価指標は $\mathrm{F}$ 値である。 ## 2.2 二段階学習を用いたニューラルリンキ ングモデル 我々は医療文書におけるリンキングを扱った N2C2 2019 workshop において,リンキングを分類問題として解くニューラルネットワークベースのリンキングモデルを構築した [6]. 入力はリンキング対象のエンティティ表層であり,大規模事前学習済み言語モデルである SciBERT [7]を用いて入力エンティティをベクトル表現へエンコードする. このエンティティ表現と各概念の埋め込みベクトルのコサイン類似度をとることで類似度スコアを計算し,温度付きソフトマックス関数を適用することで,各概念の予測確率を得る. 確率が最大となった概念クラスをモデルの最終的な予測として採用する.学習は, 訓練コーパスに加えて, データベースの登録名を用いて作成した追加の訓練事例により行う。これにより訓練コーパスに出現しない概念クラスについても学習できるようにする. モデルの学習では, データベースからの訓練事例にのみ出現する概念クラスの訓練正解率が向上しないアンダーフィットの問題が発生する.このため,正解率が向上しなくなった段階で,出力層の重みをエンティティ表現から得た疑似的な収束值に上書きし, その後さらに追加の学習を行うことでこの問題に対処する. ## 3 提案手法 我々は BioCreative VII Track 2 の各タスクに対し, それぞれニューラルネットワークベースのモデルを構築し取り組んだ。また,Indexing に関しては TF-IDFベースの手法も構築した. ## 3.1 固有表現抽出 固有表現抽出は, BILOU (Beginning, Inside, Last, Outside, Unit) スキーマによるエンティティ位置の系列ラベリング問題として解いた. 使用したモデルは SciBERT ベースのモデルで, 入力はサブワード分割されたセクション一つであり, 出力は各サブワードの BILOU タグである. 入力を SciBERT でエンコー ドし, SciBERT の最終層の表現ベクトルを全結合層による出力層への入力として, この出力にソフトマックス関数を適用することで,BILOU タグの確率分布を得る. 出力層の入力ベクトルにはドロップ率 $20 \%$ のドロップアウトを適用する.学習アルゴリズムには Adam を使用する。1 セクションに含まれるサブワード数が SciBERT の最大入力系列長を超える場合,ストライド幅 128 で最大系列長に収まるように分割する. デコード時には Viterbi アルゴリズムを使用し確率が最大となるタグ系列を選ぶ. ## 3.2 リンキング リンキングでは先行研究 [6] のモデルをベースラインとして使用した. 元々の訓練コーパスに加え, MeSH シソーラス上の全概念の各登録名について,対応する概念クラスを正解とする訓練事例を作成し訓練に用いた。また,BC5CDR データセット [8] の訓練,開発,テストセット全ても訓練事例として追加して利用した。省略形は Ab3P [9] によりあらかじめ正規化し,入力に用いた. ## 3.3 Indexing Indexing タスクにおいては,TF-IDFベースのモデルと, ニューラルネットワークベースのモデルを構築した. どちらのモデルも候補とする概念クラスに対して,それが索引対象かどうかを二値分類する形で予測を行う. 候補クラスは論文中に出現した概念クラスと, その概念の MeSH Tree 構造における親概念の集合である. ## 3.3.1 TF-IDF モデル このモデルは, 各概念クラスの TF-IDF の值に対して,設定した間値を超えるかどうかで索引対象となるかどうかを判断する. TF-IDF の值は各論文中の出現したエンティティ表層の数から計算する.親概念の出現回数は, 子概念の出現回数の合計で 図1 ニューラル Indexing モデルの概観. あり,親概念自身も直接出現する場合はそれも合算する. 親概念としての出現回数から計算された TF-IDF と, 直接の出現数のみから計算した (子概念としての)TF-IDFでは,それぞれ別の閾値を使って索引対象の識別を行う. 親概念が直接出現する場合は,両種の閾値判定を行い,いずれかでも閾値を超えた場合は索引対象とする. 閾値は $\mathrm{F}$ 值が最大となるようにチューニングする. ## 3.3.2 ニューラル Indexing モデル 図 1 に提案するIndexing モデルの概観を示す. 初めに,論文中に直接出現する各概念とその親概念クラスごとに言及集合をまとめ,各概念のバッグを作成する。親概念クラスのバッグは,その概念の子概念の言及と,直接の出現がある場合はそれらを加えた集合となる. 各言及はサブワードに分割し, 前後 4 サブワードまでの文脈を付け加える. エンティティの表層と文脈の間には,特殊トークン $[\mathrm{BOM}]$, [EOM] を挿入しスパンの境界を表す. エンティティの表層が 9 サブワードを超える場合,これに収まるように中央のトークンを特殊トークン [SHORT] で置き換える (例: 図 1 中段の言及).また,言及がバッグにおける子概念のものである場合,それを表す特殊トークン [CSEP] と,バッグの概念に対応する辞書登録名を付け加える (例:図 1 最下段の言及)。以上の工程で作成した言及バッグをモデルの入力とし, そのバッグに対応する概念クラスが索引対象かどうかの二値分類によって Indexingを行う. モデルは各言及を SciBERTによりエンコードし, その最終層の表現ベクトルに対してトークンレベルのアテンション機構を適用することで言及表現を得る.これらにさらに言及レベルのアテンション機構を適用してバッグ表現を計算し, 全結合層とシグモイド活性化関数によって索引対象である確率值を得表 2 固有表現抽出の結果. る. アテンション機構にはマルチヘッドアテンション [10]を用いた. 損失関数には負の対数尤度を使い,最適化アルゴリズムには Adamを採用した. ## 4 実験 ## 4.1 実験設定 BioCreative VII Track 2 で提供される訓練コーパス 150 論文のうち,120 論文を訓練セット,30 論文を開発セットとして分割し, 開発セットにおける各評価指標が最大になるようにチューニングを行った. チューニングには Optuna [11]を使用した. テスト用のモデルの学習には 150 論文全てを訓練データとして使用し,固有表現抽出,リンキング,Indexing の順にパイプラインで予測を行った. テスト用のリンキングモデル, Indexing モデルの学習時の入力には,それぞれアノテーションに基づいた正しいスパン・概念ラベルを使用した. 各ニューラルモデルは, 同一の設定で 5 回モデルの学習を行い, 各出力確率の平均をとる形でアンサンブルを行った. 実装には PyTorch 1.8.1を利用し,GPU での計算には GeForce RTX 3090 を用いた. ## 4.2 実験結果 ## 4.2.1 固有表現抽出 表 2 に固有表現抽出の実験結果を示す. 投稿したモデルはトラック参加者全体の中央値から $0.89 \%$ ポイント低い $\mathrm{F}$ 値であった. 使用されたモデルの多く 表 3 開発セットにおけるリンキングの結果. “-OW”は重み上書きとその後の追加学習の不利用を表す. “+Ab3P” および “+BC5CDR” は Ab3P と BC5CDR の利用を表す. 表 4 テストセットにおけるリンキングの結果. が BERT [13] ベースのモデルであった. 参加チームは合計 15 チームであり, 11 位のスコアだった. ## 4.2.2 リンキング 表 3 にリンキングタスクにおける各モデルの開発スコアを示す. 本データにおいては重み上書きの利用による性能向上は, 先行研究 [6] で報告されたもの比べあまり大きくない. 特に,BC5CDR データセットを使用した場合は,重み上書きを使わずともほとんど同じ $\mathrm{F}$ 值を得られた。これは, 追加の学習データによって学習が容易になり,重み上書きの導入の目的であるアンダーフィットが起こりづらかったためだと考えられる. Ab3Pによる省略形の解決では常に性能が向上した. BC5CDR データセットの利用による性能向上は比較的小さく,Ab3P を利用する場合はほとんど差が生まれない結果となった. 表 4 にテストセットにおけるリンキングのスコアを示す. 各参加者が採用したシステムには,ニュー ラルベースのものと,ルールベースおよびルールとニューラルのハイブリットのモデル各種が見受けられた. 最高位のスコアを獲得したチームは,ルールベースでリンキングを行ったのち,リンク先を見つけられなかったエンティティをニューラルベースのモデルで補うシステムであった [14]. 参加チームは合計 15 チームであり,うち 2 チームは固有表現抽出タスクには参加していない. 提案システムは全体で 4 位であった.表 5 開発セットにおける Indexing の結果. “スパン・概念”は,モデルの入力がアノテーションに基づくか (“Gold”),パイプラインにより得られた予測結果であるか (“Pipeline”)を表す. ## 4.2.3 Indexing 表 5 に開発セットにおける Indexing のスコアを示す. 表のとおり,ニューラルモデルは与えられるエンティティのスパンと概念ラベルが正しいのであれば TF-IDF よりも高い F 值を得ることができるが, パイプラインの設定の時は大きくスコアを落とし, エラー伝播の影響を受けやすい。これは,ニュー ラルモデルの入力にはスパンの境界情報を利用しているためにスパンのずれが直接入力に影響を与える一方,TF-IDF モデルの入力は出現数のみであり,エラー伝播の影響が小さいためだと考えられる. 表 6 にテストセットにおける Indexing のスコアを示す。提案モデルのテストセットのスコアは,開発セットにおけるパイプラインの設定と同等のスコアになった. 最高位を記録したチームのモデルは PubMedBERT と特徴量を組み合わせた二値分類モデルであった [15]. Indexing タスクは前 2つのタスクを解いたうえで取り組む必要があり,時間的な制約もあって最終的な参加チームは 4 チームと前 2 のタスクより少ない.また,我々を含めた 3 チームは公式の提出期限後の追加実験としての提出である.我々は 3 位のスコアであった。 ## 5 おわりに 本論文では,BioCreative VII Track 2 を対象に構築したモデルを評価した. 今後の課題として,ニュー ラル Indexing モデルのエラー伝播の問題を改善することが挙げられる. ## 謝辞 本研究は JSPS 科研費 JP20K11962 の助成を受けたものです. ## 参考文献 [1] National Library of Medicine. PubMed, 1996. https: //pubmed.ncbi.nlm.nih.gov/. [2] Robert Leaman, Rezarta Islamaj, and Zhiyong Lu. The overview of the NLM-Chem BioCreative VII track. In BioCreative VII Challenge Evaluation Workshop, pp. 108-113, 2021. [3] Tomoki Tsujimura, Ryuki Ida, Isanori Oiwa, Makoto Miwa, and Yutaka Sasaki. TTI-COIN at BioCreative VII Track 2. In BioCreative VII Challenge Evaluation Workshop, pp. 156-161, 2021. [4] BioCreative VII, 2021. https:// biocreative.bioinformatics.udel.edu/events/ biocreative-vii/biocreative-vii/. [5] National Library of Medicine. MeSH. https://www. ncbi.nlm.nih.gov/mesh/. [6] 茂里憲之, 辻村有輝, 三輪誠, 佐々木裕. 二段階学習と概念クラスを用いた医療固有表現の正規化. 言語処理学会第 26 回年次大会発表論文集, pp. 1487-1490, 2020. [7] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A Pretrained Language Model for Scientific Text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3615-3620, 2019. [8] BioCreative V, 2015. https://biocreative. bioinformatics.udel.edu/tasks/biocreative-v/ track-3-cdr/. [9] Sunghwan Sohn, Donald C Comeau, Won Kim, and W John Wilbur. Abbreviation definition identification based on automatic precision estimates. BMC Bioinformatics, Vol. 9, No. 402, 2008. [10] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is All You Need. In Proceedings of the 31st International Conference on Neural Information Processing Systems, p. 6000-6010, 2017. [11] Takuya Akiba, Shotaro Sano, Toshihiko Yanase, Takeru Ohta, and Masanori Koyama. Optuna: A Next-generation Hyperparameter Optimization Framework. The 25th ACM SIGKDD Conference on Knowledge Discovery and Data Mining (KDD’ 19), pp. 2623-2631, 2019. [12] Hyunjae Kim, Mujeen Sung, Wonjin Yoon, Sungjoon Park, and Jaewoo Kang. Improving Tagging Consistency and Entity Coverage for Chemical Identification in Full-text Articles. In BioCreative VII Challenge Evaluation Workshop, pp. 140-143, 2021. [13] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceed- ings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. [14] Tiago Almeida, Rui Antunes, João Figueira Silva, João Rafael Almeida, and Sérgio Matos. Chemical detection and indexing in PubMed full text articles using deep learning and rule-based method. In BioCreative VII Challenge Evaluation Workshop, pp. 119-123, 2021. [15] Arslan Erdengasileng, Keqiao Li, Qing Han, Shubo Tian, Jian Wang, Ting Hu, and Jinfeng Zhang. A BERT-Based Hybrid System for Chemical Identification and Indexing in Full-Text Articles. In BioCreative VII Challenge Evaluation Workshop, pp. 130-134, 2021.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH3-5.pdf
# 決算短信からの業績要因文の抽出に向けた 業績発表記事からの訓練データの生成 大村和正 ${ }^{1}$ 白井 穂乃 ${ }^{2}$ 石原 祥太郎 ${ }^{2}$ 澤 紀彦 2 1 京都大学大学院情報学研究科 2 株式会社日本経済新聞社 omura@nlp.ist.i.kyoto-u.ac.jp \{hono.shirai, shotaro.ishihara, norihiko.sawa\}@nex.nikkei.com ## 概要 決算短信からの業績要因文の抽出には一定の需要があり,業績に関わる要因が記述された文を高精度に抽出することができれば投資支援として非常に有用である。本稿では,業績発表記事から単純なルー ルで訓練データを生成し, 決算短信からの業績要因文の抽出に向けた深層学習モデルを構築する。提案手法はデータ構築が容易であるという特徴を持ち,再現率の高い抽出モデルが構築されることを示す. ## 1 はじめに ウェブの普及に伴って日々膨大な情報が電子デー タとして蓄積されるようになり, 各々の需要に合わせて必要な情報を抽出する技術はますます重要になっている $[1,2]$. このような場面の一例として,決算短信からの業績要因文の抽出 $[3,4]$ がある. 決算短信とは,上場企業が決算発表を行う際に開示する,当期の業績等をまとめた書類である. 投資家は決算短信に記載された情報から企業の動向を推測し投資行動の参考にするため,決算短信は極めて重要な情報源である。一方で,決算発表が義務付けられている上場企業の数は約 4,000 企業にのぼり, その多くは年に 4 回決算発表を行うため,これらの決算短信を把握するには多大な労力を要する.企業の動向の判断材料となる,業績に関わる要因が記述された文を自動抽出することができれば,負荷軽減および即時性の観点から投資家への支援として非常に有用であると考えられる。 本研究では,中山らの定義 [5] を参考に,決算短信に含まれる文を以下のように分類定義する. 業績文当期の業績変化のみを述べた文 要因文文内で当期の業績変化と明示的に関連付けられていないが,要因であると判断される文表 1 ある企業の決算短信と業績発表記事の例 (決算短信は定性的情報から,業績発表記事は冒頭 1 段落を拔粋). <企業名>が 28 日発表した 2020 年 9 11 月期の連結決算は,純利益が前年同期比 3.6 倍の 110 億円だった. 9〜 11 月期として過去最高となる。気温低下で秋冬物の販売が好調だったほか,值下げの抑制で粗利が改善した. 新型コロナウイルス禍を受けた巣ごもり消費で, 部屋着やインテリア商品などの需要も堅調だった。 業績要因文文内で当期の業績変化とその要因が述べられた文 その他注記など,上記のいずれにも該当しない文. この中で,業績要因文および要因文の抽出を目的とする.例えば,表 1 上段の一文目は「売上が大幅に増加」という業績変化とその要因が文内で関連付けて述べられているため,業績要因文である。 本稿では,決算短信からの業績要因文の抽出に向けて,業績発表記事から深層学習モデルの訓練デー タを生成する手法を提案する。業績発表記事とは,決算発表後に第三者 (記者) によって作成される決算短信の要約記事である.表 1 下段のように,業績発表記事には当期の業績と記者が重要だと判断した業績要因が簡潔に記述されており,要因の分類基準の学習に適している。また,重要文を学習できるため,業績発表記事を模した決算サマリー1)の自動生成への応用を視野に入れることができる。 提案手法では,業績発表記事から定性的な文を単純なルールで判別し,これを要因文として学習する. データ生成を工夫することで,再現率の高い抽出モデルが構築されることを実験的に示す.  ## 2 関連研究 酒井らは,手がかり表現と企業キーワードによる業績要因文の抽出手法を提案した $[6,4]$. 手がかり表現は「好調でした」のような,業績要因となる状態や変化を表す用言的な表現と定義され,業績発表記事または決算短信から以下の手順で獲得する。 1. 少数の手がかり表現を人手で与え,その手がかり表現に係る文節を取得する。 2. 取得した文節のうち,様々な手がかり表現に一様に係るものを抽出する (共通頻出表現と呼ぶ)。 3. 共通頻出表現が係る文節を取得し,その中で様々な共通頻出表現が一様に係るものを新たな手がかり表現として獲得する. 4. 上記の操作を一定回数繰り返す. 例えば,2 で係り先の一様性を測る時は,共通頻出表現の候補 $f$ が手がかり表現 $c$ に係る確率 $P(f, c)$ にもとづくエントロピー $H(f)$ を用いる。これらは次のように計算される. $ \begin{aligned} P(f, c) & =\frac{\#(f, c)}{\sum_{c^{\prime} \in C} \#\left(f, c^{\prime}\right)} \\ H(f) & =\sum_{c^{\prime} \in C}-P\left(f, c^{\prime}\right) \log _{2} P\left(f, c^{\prime}\right) \end{aligned} $ ただし, $\#(f, c)$ は $f$ が $c$ に係る回数, $C$ は手がかり表現の集合であり,係り先が一様であるほど $H(f)$ が高くなる.3でも同様に係り元の一様性を測る. 企業キーワードは商品名や部門名など,各企業にとって重要な名詞句を指す. ある企業 $t$ の決算短信集合 $S(t)$ における名詞句 $n$ の重要度 $W(n, S(t))$ を次のように定義し,これをもとに自動獲得する。 $ W(n, S(t))=t f(n, S(t)) \times \log _{2} \frac{N}{d f(n)} \times H(n, S(t)) $ ただし, $t f(n, S(t))$ は $S(t)$ における $n$ の頻度,df(n) は $n$ を含む決算短信がある企業数, $N$ は収集した決算短信の企業数, $H(n, S(t))$ は $S(t)$ における $n$ の出現確率にもとづくエントロピーである. $S(t)$ を 1 つの文書とみなした時の tf-idf が大きく, $S(t)$ の中で満遍なく現れる単語ほど重要度が高くなる。 業績要因文の抽出時は,手がかり表現を含み,その係り元に企業キーワードを含む文を抽出する. マッチングベースの手法であり,再現率が低いという問題が指摘されている [7]. 中山らは,業績要因文を定義し,酒井らの手法を発展させて文間の結束性を考慮する業績要因文の抽表 2 評価データの統計. 出手法を提案した [5]. 文間の談話関係や語の重複を手がかりに抽出結果を更新することで,精度を改善している。 酒井らは,前述の手法を深層学習モデルの訓練データの自動生成に応用することで,より再現率の高い業績要因文の抽出手法を提案した [7]. 決算短信から確信度の高い業績要因文の候補を抽出し, これを訓練データとして利用するため,適合率を落とさず再現率を向上させている.本稿では,業績発表記事から分類基準を学習することを目的としており,この点で若干異なる。 ## 3 提案手法 提案手法では,業績発表記事から定性的な文を 「要因文」,定量的な文を「業績文」として抽出することで訓練データを自動生成する,定性的であるか否かは文中に数字を含むか否かという単純なルー ルで判別する.具体的には以下のような手順で訓練データを自動生成する. 1. 業績発表記事を文単位に分割し,各文に対して,数字を含む文を「業績文」,含まない文を 「要因文」と自動でラベル付けする。 2. 冒頭 1 段落に含まれる業績文と要因文を適当な接続語2)でつなぐことで疑似的な業績要因文を生成する. 2 について,表 1 下段の例から「気温低下で秋冬物の販売が好調だったほか,值下げの抑制で粗利が改善したことにより<企業名>が 28 日発表した 2020 年 9〜11 月期の連結決算は,純利益が前年同期比 3.6 倍の 110 億円だった.」といった文が生成される. ## 4 実験 ## 4.1 データ構築 業績発表記事の取得手がかり表現の獲得および深層学習モデルの訓練に利用する業績発表記事は,  表 3 訓練データの統計. 株式会社日本経済新聞社が提供するニュース配信サービス「日経電子版 $」^{3}$ から取得した. 具体的には,2016年 1 月 1 日から 2020 年 12 月 31 日までの 5 年間を対象とし,メタデータのトピック情報に「企業決算」ラベルが付与されているものを取得した.取得された記事の総数は 3,322 件, 総文数は 43,893 文, 1 文あたりの平均文字数は 39.8 文字であった. 決算短信の取得企業キーワードの抽出および各手法の評価に利用する決算短信は,公開されている決算短信から抽出したテキストを保存している内製のデータベースから取得した. 業績発表記事の取得時と同様に 2016 年 1 月 1 日から 2020 年 12 月 31 日までの 5 年間を対象とした. 取得されたデータのうち,タイトルに「決算短信」の文字列を含まないものや本文が 6,000 文字未満4) のものなどを除き,最終的に 6,067 件の決算短信を獲得した. 獲得された決算短信のテキストデータには表を無理矢理テキスト化した乱雑な文字列を含むため,酒井らの手法 [4] を参考に次のようなクレンジングを行った. 1. テキストを句点「。」で分割する. 2. 分割された文字列のうち,350 字以下のものを文として抽出する。 3. 350 字より多いものは全角スペースまたは下駄 (E) で分割し,分割された末尾の文字列が 350 字以下であれば,それを文として抽出する。 評価データの作成獲得した決算短信から開発用に 5 件,テスト用に 20 件を無作為に抽出し, ${ }^{5}$ ) 各文に対して「業績要因文または要因文である」か否かのアノテーションを行った. この評価は著者らが人手で行い,3 人以上の合意があったものを正例とした. 評価結果を表 2 に示す. ## 4.2 実装の詳細 決算短信には次期の業績予想や注記など,当期の業績に関する定性的情報と無関係な文が数多く含ま  れる.このような文を事前に除外するために,各文に次のようなルールを適用した。 1. 文末の節が過去形でない文は「業績要因文または要因文でない」 2.「努めました」「はかりました」「まいりました」 のいずれかで終わる文は「業績要因文または要因文でない」 3.「店舗数」の文字列を含む文は「業績要因文または要因文である」 これらのルールでラベル付けできなかった文に対 し,ルールのみ・ベースライン・提案手法の 3 つの設定でラベルを予測した. 精度は自動でラベル付けされた文を含めて算出した。 ルールのみ上記のルールを満たさない文は全て 「業績要因文または要因文である」とする。ルールそのものの影響を定量的に測るために行う。 ベースライン本実験では,手がかり表現と企業キーワードによる業績要因文の抽出手法 $[6,4]$ をベースラインとした. 2 節の手順に従って,業績発表記事 3,322 件から手がかり表現を,決算短信 6,067 件から企業キーワードを獲得した. 文節および係り受けの解析には $\mathrm{KNP}[8]^{6)}$ を利用した. 使用した手がかり表現の数は 202 個であった. 手がかり表現は「好調だった」のように付属語を含みうるため,常体の文章 (業績発表記事) から獲得した手がかり表現を敬体の文章 (決算短信) とのパターンマッチにそのまま用いるのは適切でないと考えられる。そのため,JUMAN 辞書の代表表記 [9] を用いて手がかり表現を正規化した際の精度も検証した. 提案手法 3 節の手法を適用し, 深層学習モデルの訓練データを構築した. 文分割は pythontextformatting ライブラリ7)を利用した. 訓練データの統計を表 3 に示す. 素朴にこの訓練データを用いると,数字を手がかりとするモデルが構築されてしまうと考えられる. これに対処するため,業績文に含まれる数字を空文字列に置換して [10] 訓練した時の精度も検証した。 業績要因文の分類モデルとして BERT[11]を用いた. BERT の事前学習モデルは, 日本語 Wikipedia で事前学習した NICT BERT 日本語 Pre-trained モデル8)を利用した. fine-tuning は Devlin らが提案した  表 4 テストデータに対する実験結果. 提案手法については, 異なる 3 つのシード値で fine-tuning した結果の平均と標準偏差を記載している。 表 5 開発データに対する BERT モデルの誤分類例。「業績要因文または要因文である」ことを「正」,そうでないことを 「負」と表現した.また,著者らが要因と判断した部分を太字で表示している。 \\ 単文分類の設定 [11] で行い,要因文および擬似的な業績要因文を正例,業績文を負例とする2値分類を学習した。ハイパーパラメータの詳細は付録 A. 2 に記載した. 開発データに対する精度をエポックごとに調べ, $\mathrm{F}$ 值が最も高かった時のパラメータでテストデータに対する精度を検証した。 ## 4.3 実験結果 テストデータに対する実験結果を表 4 に示す. ベースライン手法は,正規化した手がかり表現を用いることで適合率・再現率ともに向上している.これは,文体のミスマッチにより抽出できない業績要因文が数多く存在する一方で,業績発表記事の情報が決算短信からの業績要因文の抽出にある程度有用であることを示している. 提案手法は,擬似的な業績要因文を訓練データに加えることで再現率が大きく向上している. 業績発表記事では業績とその要因が別々の文に分けて記述されることが多いため, 決算短信に特徴的な「文内で要因を述べてから業績を述べる」パターンが擬似的な業績要因文によって学習されたと考えられる. また,数字を空文字に置換するデバイアシングの有無に着目すると,これによって適合率が多少向上 していることが分かる.数字以外に着目させることで,定量的な文と定性的な文がより判別できるようになったと考えられる。 ## 4.4 定性的分析 開発データの分類結果をもとに提案手法のモデルが誤分類する文の傾向を分析した.誤分類の例を表 5 に示す. ・国家的もしくは世界的な経済状況を述べた文 ・定性的ではあるが,取り組みとして弱いために要因文と評価されなかった文 ・定量的な表現を多く含む文が誤分類される傾向にあった。 ## 5 おわりに 本稿では,業績発表記事から訓練データを生成し,決算短信から業績に関わる要因が記述された文を抽出する深層学習モデルの構築に取り組んだ,今後の課題としては, データ構築手法の改善や評価データの拡張,決算短信を訓練データに利用した場合との比較などが挙げられる。また,抽出精度の改善と並行して,極性の予測や決算短信を要約した決算記事の生成手法も検討したい。 ## 参考文献 [1] Susumu Akamine, Daisuke Kawahara, Yoshikiyo Kato, Tetsuji Nakagawa, Kentaro Inui, Sadao Kurohashi, and Yutaka Kidawara. WISDOM: A Web Information Credibility Analysis Systematic. In Proceedings of the ACL-IJCNLP 2009 Software Demonstrations, pp. 1-4, Suntec, Singapore, August 2009. Association for Computational Linguistics. [2] Junta Mizuno, Masahiro Tanaka, Kiyonori Ohtake, JongHoon Oh, Julien Kloetzer, Chikara Hashimoto, and Kentaro Torisawa. WISDOM X, DISAANA and D-SUMM: Large-scale NLP Systems for Analyzing Textual Big Data. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: System Demonstrations, pp. 263-267, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [3] 西沢裕子, 酒井浩之. 企業の決算短信 pdf からの業績要因の自動抽出. 電子情報通信学会技術研究報告 $=$ IEICE technical report : 信学技報, 2013. [4] 酒井浩之, 西沢裕子, 松並祥吾, 坂地泰紀. 企業の決算短信 pdf からの業績要因の抽出. 人工知能学会論文誌, Vol. 30, No. 1, pp. 172-182, 2015. [5] 中山祐輝, 津々見誠, 村上浩司. 文間の結束性に基づく決算短信における業績要因文の抽出. 言語処理学会第 25 回年次大会, 2019. [6] Hiroyuki Sakai and Shigeru Masuyama. Cause Information Extraction from Financial Articles Concerning Business Performance. IEICE Transactions on Information and Systems, No. 4, pp. 959-968, 2008. [7] 酒井浩之, 松下和暉, 北島良三. 学習データの自動生成による決算短信からの業績要因文の抽出. 知能と情報, Vol. 31, No. 2, pp. 653-661, 2019. [8] Sadao Kurohashi and Makoto Nagao. A Syntactic Analysis Method of Long Japanese Sentences Based on the Detection of Conjunctive Structures. Computational Linguistics, Vol. 20, No. 4, pp. 507-534, 1994. [9] 黒橋禎夫. 言語のセマンティックス. 人工知能, No. 6, pp. 718-723, 2006. [10] Brendan Kennedy, Xisen Jin, Aida Mostafazadeh Davani, Morteza Dehghani, and Xiang Ren. Contextualizing Hate Speech Classifiers with Post-hoc Explanation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, July 2020. [11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), 2019. ## A 実装の詳細の補足 ## A. 1 ベースライン 手がかり表現のシードは酒井らの手法 $[6,4]$ にならい,「が好調」と「が不振」の2つを利用した.また,手がかり表現は用言の節,共通頻出表現は体言の節に限定し,数字を含むものは除外した. 共通頻出表現および手がかり表現の獲得に関するエントロピーの閾值のパラメータ $\alpha, \beta$ は $\{0.5,0.625,0.75\}$ の 3 通りを試し,最終的に 0.625 に設定した.また,2節で述べたステップ 1~3 は 3 回繰り返した. 獲得された手がかり表現の例を表 6 に示す。 表 6 手がかり表現の獲得例. 括弧内は Juman 辞書の代表表記 [9]を表す. 改善した (改善/かいぜん) 伸ばした (伸ばす/のばす) 堅調だった (堅調だルけんちょうだ) 拡大し (拡大/かくだい) 増えている (増える/ふえる) 苦戦した (苦戦くくせん) 伸び悩んだ (伸び悩む/のびなやむ) 悪化した (悪化/あっか) 減少し (減少/げんしょう) 低迷している (低迷/ていめい) ## A. 2 提案手法 ハイパーパラメータの詳細は表 7 のとおりである. 業績発表記事に対して過学習すると, 決算短信に対する抽出精度が悪化すると考えられるため,学習率を一般的な値より低く設定している。 表 7 パイパーパラメータの詳細. \\
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH3-6.pdf
# 単語の長さと構成要素を考慮した単語レベルの摄動 平岡 達也 ${ }^{1}$ 高瀬 翔 $^{1}$ 内海 慶 ${ }^{2}$ 欅 惇志 ${ }^{2}$ 岡崎 直観 1 1 東京工業大学 2 デンソーアイティーラボラトリ \{tatsuya.hiraoka@nlp., sho.takase@nlp., okazaki@\}c.titech.ac.jp \{kuchiumi, akeyaki\}@d-itlab.co.jp ## 概要 本稿では,単語置換による摂動のシンプルな改善手法として, 単語の長さを考慮した単語置換 (WR-L)と, 単語の構成要素を考慮した単語置換 (CWR)を提案する. WR-L では,置換対象の単語の長さをもとにしたポアソン分布から置換後の単語を選択する. CWRでは, 置換対象の単語の構成要素(部分文字列・重複文字列)加置換後の単語を選択する. 評価実験により, WR-L と CWRが文書分類と機械翻訳の性能向上に寄与することを示す. ## 1 はじめに 単語置換による単語レベルの摂動は,自然言語処理で広く用いられる $[1,2]$. 一般的な単語置換 $[3,4]$ では,入力文中の単語を語彙に含まれるランダムな単語に置換する。これは単語を一様分布からサンプリングする単純な手法であるが,敵対的摂動のような複雑な摂動と同程度に効果的であることが知られている[2]. しかし, 従来の単語置換では置換対象の単語とは無関係な単語を頻繁に選択することになる.そのため,掑動を加える単語の割合を高く設定すると, 文中の殆どの単語が無関係な単語に置換されてしまい,モデルの性能に悪影響を及ぼす。摂動を活用するためには,何度も試行を繰り返して八イパーパラメータを慎重に設定する必要がある. 単語レベルの摂動の異なるアプローチとして,サブワード正則化 $[5,6,7]$ が挙げられる. サブワード正則化では,事前に作成した言語モデルに基づいて,学習エポックごとに異なる単語分割をサンプリングしてモデルの学習を行う. サブワード正則化は単語分割をサンプリングするため, 元の文と無関係な単語は採用されない. しかし, 単語分割のサンプリングには複雑な処理を要するため, 単語置換に比べると摂動の処理に時間がかかるという問題点が 図 1: “up/da/tion”に含まれる単語“da”を CWR - L によって置換する場合の概要. ある.また,サブワード正則化は単語置換と比較して,性能向上が限定的となることがある. 本稿では,単語置換とサブワード正則化の折衷案として,高速かつ効果的な単語レベルの摂動手法を提案する。提案手法では,単語置換によるサンプリングの対象となる語彙を,置換対象の単語の (1) 長さと (2) 構成要素によって制限する。単語の長さを用いたアプローチ (1) では,置換対象の単語の長さに応じて単語のサンプリングに用いる分布を重み付けする。単語の構成要素を用いたアプローチ (2) では,サンプリングの対象となる語彙を,置換対象の単語を構成する要素に制限する。これらの工夫により,置換対象の単語が無関係な単語に置き換えられることを防ぎ,ハイパーパラメータの変更に対しても頑健にタスクの性能が向上するような単語レベルの摄動を実現する。さらに,提案手法では単語分割のサンプリングを行わないため,サブワード正則化よりも高速に摂動処理を実行できる.評価実験により,提案手法が文書分類と機械翻訳において性能の向上に寄与することを確認する。 ## 2 提案手法 提案手法の説明の前に, 一般的な単語置換の概要を説明する. $I$ 個の単語からなる文 $x=$ $x_{1}, \ldots, x_{i}, \ldots, x_{I}$ に対して, 単語置換では確率 $a$ で選択した単語 $x_{i}$ を $\tilde{x_{i}}$ に置き換える。 $ \begin{aligned} \tilde{x}_{i} & \sim Q_{V} \\ x_{i} & =\left.\{\begin{array}{lll} \tilde{x_{i}} & \text { with probability } & a \\ x_{i} & \text { with probability } & 1-a \end{array} .\right. \end{aligned} $ ここで $Q_{V}$ は,語彙 $V$ の全体に対する一様分布であり,a は置換の頻度を設定するためのハイパーパラメータである.本稿では,確率 $a$ で選択された $x_{i}$ を置換対象の単語, $\tilde{x_{i}}$ を置換後の単語と呼ぶ. ## 2.1 長さを考慮した単語置換(WR-L) 従来の単語置換では, 置換対象の単語の長さによらず,単語のサンプリングを行う. この問題を解決するために,置換対象の単語の長さに近い長さの単語を優先的に選択するような単語置換 (Word Replacement using Length: WR-L) を提案す $る^{1)}$. WR-L では,置換対象の単語の長さが平均となるようなポアソン分布2)を用いて $Q_{V}$ を重み付けし,以下の確率を用いて単語をサンプリングする。 $ p\left(\tilde{x}_{i} \mid x_{i}\right)=\frac{\operatorname{Poisson}\left(L_{\tilde{x}_{i}} ; \lambda=L_{x_{i}}\right)}{Z} . $ ここで $L_{x_{i}}$ は単語 $x_{i}$ の文字数, $Z$ は確率の合計を 1 とするための正規化項である. ## 2.2 構成要素を考慮した単語置換 (CWR) 従来の単語置換では一様分布を用いているため,置換対象の単語とは無関係な単語が頻繁にサンプリングされる.これを解決するために,置換対象の単語の構成要素を考慮した単語置換 (Compositional Word Replacement: CWR)を提案する. CWR では,単語のサンプリングを行う語彙 $V$ を,置換対象の単語の構成要素 (部分文字列と重複文字列)からなる $S_{x_{i}}$ に制限する。具体的には,置換対象の単語を構成する部分文字列と, 置換対象の単語の一部を含む重複文字列に語彙を制限する.例えば図1のように, “up/da/tion”に含まれる“da”という単語を置換対象とすると,部分文字列は“” “” “a” 1)置換後の単語の長さの分布を付録図 4 に示した. 2)ポアソン分布を用いたノイズは,自然言語処理の離散的な入力を用いた学習に適していると考えられる [8].表 1: 単語置換の例. 太字は置換された単語を示す. の 2 種類,重複文字列は “updat”, “at,”, 'ation,” の 3 種類である. 制限された語彙 $S_{x_{i}}$ に対して,一様分布 $Q_{S_{x_{i}}}$ から置換後の単語をサンプリングする. 各単語ごとに,学習データ全体の単語分割候補を用いて重複文字列を事前に計算しておく.このとき,異なる文脈で用いられる単語であっても,単語ごとに重複文字列を共有する。例えば,単語 “ $\mathrm{da}$ ”が “up/da/tion”と “pan/da”の 2 つの文脈で用いられている場合,この単語の重複文字列は “pan/da” に含まれる “and” と, “up/da/tion” に含まれる “updat”, “at”, “ation” の合計 4 種類から構成される ${ }^{3}$ ). また, WR-L と CWR は同時に利用してもよい. この場合,CWRによって制限されたサンプリングのための語彙 $S_{x_{i}}$ の一様分布に対して, ポアソン分布を用いた重み付けを行う。 ## 3 実験 提案手法の有効性を確かめるために,文書分類と機械翻訳で実験を行う,比較対象の手法として,単語レベルの摂動を用いない場合(Vanilla)と,通常の単語置換による摄動(WR)を用いる. さらに,他の単語レベルの摂動として以下の手法を用いる. サブワード正則化(SR)では,各学習エポックごとに言語モデルから単語分割をサンプリングして用いる. 本稿では, SentencePiece [5]を利用した. Word Dropout (WD) では, (2) 式の $\tilde{x_{i}}$ として分散表現がゼロベクトルであるトークンを使用する [11]. Unknown Token Replacement (UTR) では,(2) 式の苃として未知語トークンを使用する [12]. Language Model (LM) では,ランダムに選択した単語を言語モデルに基づいてサンプリングした単語に置換する。言語モデルには SentencePieceを用い,これを利用できない設定では単語の頻度数え上げによって作成したユニグラム言語モデルを用いる. }$ を求める処理の概要を付録のアルゴリズム 1 に示した. } 表 2: 文書分類での実験結果(5 回試行の平均 F1 値).太字は手法間で最大値を示し,下線は WR を有意(マクネマー検定で $p<0.05 )$ に上回ることを示す. 表 3: 機械分類での実験結果(3 回試行の平均 SacreBLEU 値 [9])。太字は手法間で最大値を示し,下線は WR を有意(Bootstrap Resampling [10] で $p<0.05 )$ に上回ることを示す. 提案手法である WR-L と CWRに加えて,これらを組み合わせた手法を CWR-L と表記する. 各手法による単語置換の例を表 1 に示した. これらの摄動手法のうち,SR 以外は式 (2) で説明したハイパー パラメータ $a$ によって単語置換の割合を制御する. SR では,言語モデルの分布を制御するハイパーパラメータ $b$ を用いる ${ }^{4)}$.すべてのデータセットにおいて, ハイパーパラメータの候補は 0.1 から 0.9 (0.1 間隔)とし,検証データを用いて最適値を決定した。 ## 3.1 文書分類 実験設定: 文書分類の実験では, 3 言語を用いた 9 件のデータセットを利用する.Twitter(En), Twitter(Ja), Weibo(Zh), はそれぞれ英語, 日本語, 中国語によるショートテキスト SNS での感情分析データセットである. Rating と Genre は, Amazon [13], 楽天市場 [14], JD.com [15] のレビューデータセットから作成した英語, 日本語,中国語のレート予測とジャンル予測タスクである. 日本語と中国語のデータセッ卜は,それぞれ MeCab [16] と jieba [17] で事前分割  を行った。その後,すべてのデータセットについて SentencePiece で単語分割を行った. 語彙の規模は,感情分析データセットで $16 \mathrm{~K}$ ,その他のデータセットで $32 \mathrm{~K}$ である. 文書分類器には BiLSTM をべー スとした手法 [18] を用いた. 英語のデータセットについては, HuggingFace [19] による BERT-base [20] を用いた実験も行う $(+B E R T))^{5}$ ). 実験結果: 表 2 に手法ごとの文書分類の性能を示した. 結果より,提案手法である WR-L はベースとなっている WR を 12 件のデータセットで上回ることが示された。また,提案手法の組み合わせである CWR-L により,複数のデータセットで性能の向上が得られることも分かった. CWR-L の平均スコアは他の手法よりも高く, WR-L は CWR-L と同程度である。一方で,置換対象の単語の構成要素だけを考慮する CWR は,複数のデータセットで他の手法の性能を下回った。ここから,単語の長さを考慮する WR-L によって文書分類の性能向上が得られ,さらに単語の構成要素の考慮を組み合わせることで (CWR-L),より高い性能が得られることが示唆され  る. ベースライン手法間の比較では,WR と LMが高い性能を示す一方で,SR は多くのデータセットで性能を向上させることができなかった. ## 3.2 機械翻訳 実験設定: 機械翻訳では Transformer [21]を用い, Fairseq [22] による IWSLT 設定を利用した。単語レベルの摂動は低資源での実験設定で効果的であると報告されているため [5],IWSLTコーパスのうち, De-En, Vi-En, Zh-En ペアの双方向について実験を行う。単語分割には SentencePieceを用い,語彙の規模は各言語ごとに $32 \mathrm{~K}$ とした. ただし,中国語については jieba による事前分割を行った。 実験結果: 表 3 に, 手法ごとの機械翻訳の性能を示した. 表において,SR の性能は他のベースラインに比べて高いことがわかる. CWR はSRよりも単語置換の制約が緩いが,実験結果よりSR と同程度の性能に達することがわかった. さらに, WR-Lも SR よりも高い性能に達しており, CWR-Lは3ペアで最も高い性能に達している. これらの実験結果から,機械翻訳において単語分割を考慮した摂動(SR, CWR)が効果的であり,さらに単語の長さを考慮することも性能の向上に寄与することが示された. ## 4 分析 ## 4.1 ハイパーパラメータの影響 ハイパーパラメータが各手法に与える影響を調べるために, 3.1 節で用いたデータセットでの平均性能をハイパーパラメータの値 $(a, b)$ ごとに測定した. 図 2 より, CWR-Lは多くの $a$ の値で他の手法よりも性能が高いことが示された. WR と LM はべー スライン間で高い性能を示しているが,大きい $a$ の値を用いると性能が低下する。一般的に使用される小さい $a$ の值において, WR-L の最高性能は WR よりも高く, LM と同程度である. ここから, LM, WR, WR-Lはハイパーパラメータに敏感であり, 慎重なハイパーパラメータの設定が必要であると言える.CWR は摂動を用いない場合(Vanilla)と同程度であるが,CWR と CWR-L はともに,a の値によらず比較的安定した性能を示している。これは語彙の制限によって, 置換の割合が大きくても元の文の情報を失わないためである.ここから,語彙を制限する CWRによってハイパーパラメータに対する頑健性が得られ,単語の長さを考慮する(-L)ことでさ 図 2: 文書分類の9データセット(BERT を除く)でのハイパーパラメータごとの $\mathrm{F} 1$ 値の平均. 図 3: Amazon データセットの学習データにおける $10 \mathrm{~K}$ 文あたりの処理速度(10 回試行の平均). らなる性能向上が得られると結論付けられる. ## 4.2 処理速度 本研究では,高速で効果的な摂動の手法の開発も目的としている. 本節では, Amazon データセットの学習データ ( 96,000 文, 文平均 84.91 文字) での摂動の処理速度を比較する。 図 3 に,各手法の 10 回試行での処理速度の平均時間を示した. 提案手法は語彙の制約や長さによる分布への重み付けを行うため,WR や LM よりもわずかに処理速度が低下している。一方で,明示的に単語分割のサンプリングを行う必要がないため, SR よりも高速に摂動処理を実行できる。ここから,提案手法(特に CWR-L)は性能向上と処理速度の観点から優れた摄動の手法であると結論付けられる. ## 5 おわりに 本稿では, 高速で効果的な単語レベルの摂動手法を提案した. 実験結果より,提案手法が文書分類と機械翻訳の性能向上に寄与することが分かった. CWR-L はハイパーパラメータを慎重に選ばずとも高い性能を達成しつつ,サブワード正則化よりも高速に摂動処理を実行できる優れた手法である. ## 謝辞 この成果は, 国立研究開発法人新エネルギー・産業 技術総合開発機構 (NEDO) の委託業務 (JPNP18002) の結果得られたものです. ## 参考文献 [1] Sosuke Kobayashi. Contextual augmentation: Data augmentation by words with paradigmatic relations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 452-457, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [2] Sho Takase and Shun Kiyono. Rethinking perturbations in encoder-decoders for fast training. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 5767-5780, Online, June 2021. Association for Computational Linguistics. [3] Samy Bengio, Oriol Vinyals, Navdeep Jaitly, and Noam Shazeer. Scheduled sampling for sequence prediction with recurrent neural networks. In Proceedings of the 28th International Conference on Neural Information Processing Systems-Volume 1, pp. 1171-1179, 2015. [4] Xiang Zhang and Yann LeCun. Text understanding from scratch. arXiv preprint arXiv:1502.01710, 2015. [5] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 66-75, 2018. [6] Tatsuya Hiraoka, Hiroyuki Shindo, and Yuji Matsumoto. Stochastic tokenization with a language model for neural text classification. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1620-1629, 2019. [7] Ivan Provilkov, Dmitrii Emelianenko, and Elena Voita. BPE-dropout: Simple and effective subword regularization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 18821892, Online, July 2020. Association for Computational Linguistics. [8] Masaaki Nagata. Automatic extraction of new words from Japanese texts using generalized forward-backward search. In Conference on Empirical Methods in Natural Language Processing, 1996. [9] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics. [10] Philipp Koehn. Statistical significance tests for machine translation evaluation. In Proceedings of the 2004 conference on empirical methods in natural language processing, pp. 388-395, 2004. [11] Yarin Gal and Zoubin Ghahramani. A theoretically grounded application of dropout in recurrent neural networks. Advances in neural information processing systems, Vol. 29, pp. 1019-1027, 2016. [12] Huaao Zhang, Shigui Qiu, Xiangyu Duan, and Min Zhang. Token drop mechanism for neural machine translation. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 4298-4303, Barcelona, Spain (Online), December 2020. International Committee on Computational Linguistics. [13] Ruining He and Julian McAuley. Ups and downs: Modeling the visual evolution of fashion trends with one-class collaborative filtering. In proceedings of the 25 th international conference on world wide web, pp. 507-517, 2016. [14] Rakuten, Inc. Rakuten dataset. Informatics Research Data Repository, National Institute of informatics. (dataset)., 2014. [15] Yongfeng Zhang, Min Zhang, Yi Zhang, Guokun Lai, Yiqun Liu, Honghui Zhang, and Shaoping Ma. Dailyaware personalized recommendation based on feature-level time series analysis. In Proceedings of the 24th international conference on world wide web, pp. 1373-1383, 2015. [16] Taku Kudo. Mecab: Yet another part-of-speech and morphological analyzer. http://taku910.github.io/mecab/, 2006. [17] Sun Junyi. jieba. https://github.com/fxsjy/jieba, 2013. [18] Peng Zhou, Zhenyu Qi, Suncong Zheng, Jiaming Xu, Hongyun Bao, and Bo Xu. Text classification improved by integrating bidirectional $1 \mathrm{stm}$ with two-dimensional max pooling. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 3485-3495, 2016. [19] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, Online, October 2020. Association for Computational Linguistics. [20] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [21] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. Advances in neural information processing systems, Vol. 30, pp. 5998-6008, 2017. [22] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of NAACL-HLT 2019: Demonstrations, 2019. 表 4: 各手法・各データセットごとの実験(表 2,表 3)で用いたハイパーパラメータの值. それぞれの值は検証データで選択した。 ## A データセット 3.1 節では,文書分類の実験のために 9 つのデー タセットを用いた. Twitter $\left.(E n)^{6}\right)$ と Weibo $(Z h)^{7)}$ については,配布されているデータセットをそのまま用いた. Twitter(En) のサンプル数は 100,000 件, Weibo(Zh) は 671,052 件である. その他のデータセットについては,以下の通り作成した。 Twitter(Ja) $)^{8}$ : Twitter API を用いて 352,554 件のツイートを収集し,そのうち感情ラベルが一つのみ付与された 162,184 件 (ポジティブ 10,319 件,ネガティブ 16,035 件,ニュートラル 135,830 件) を実験に利用した。  (a) WR (a) WR-L図 4: Amazon データセットでの (a)WR と (b)WR-L による単語置換における,置換対象の単語と置換後の単語の長さの分布. WR-L は WR-L は置換対象の単語の長さに似た長さの単語を頻繁に用いる. Rating\&Genre(En): 配布されている Amazon データセットのうち,サンプル数の量が十分にある 24 の商品ジャンルのレビューから 5,000 件ずつサンプリングした. このとき,レビューの長さは 200 単語以下になるように制約を設けた。単語数はスペース区切りでカウントし,最終的なサンプル数は 120,000 件である. Rating\&Genre(Ja): 配布されている楽天市場のデー タセットのうち,サンプル数の量が十分にある 21 の商品ジャンルのレビューから 5,000 件ずつサンプリングした. 最大文字数は 100 文字とし,最終的に 525,000 件のサンプルを使用した. Rating\&Genre(Zh): 配布されている JD.com のデータセットのうち,サンプルの量が十分にある 13 の商品ジャンルのレビューから 6,000 件ずつサンプリングした. 最大文字数は 100 文字とし,最終的に 390,000 件のサンプルを使用した. すべてのデータセットは学習,検証,評価データとして 8:1:1 に分割して実験に用いた。また,Rating と Genre タスクはそれぞれ同じデータから作成した.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH3-7.pdf
# 言語モデルに対するトークンのキャンセルアウト手法の比較 鈴木淳平 1 菅原朔 2 相澤彰子 1,2 1 東京大学 2 国立情報学研究所 junpei0827kouyou@g.ecc.u-tokyo.ac.jp \{saku,aizawa\}@nii.ac.jp ## 概要 言語モデルへの入力文内の特定のトークンの影響を入力から取り除く手法である「キャンセルアウト (cancel out)」は,モデルの推論解釈や得られた解釈の良さの評価のために有効な技術である. しかし既存研究では,キャンセルアウト手法の評価方法が確立されておらず,利点や欠点を相互に比較することが困難であった。本研究ではそれらの性能を直接的に評価するために,1) キャンセルアウトしたトークンの復元可能性, 2) 性別情報のキャンセルアウトによるジェンダーバイアスの緩和効果について実験を行う. また,複数のトークンによる置き換えに基づく既存のキャンセルアウト手法を,置き換えをより多様にすることで改善できることを示す. ## 1 はじめに 言語モデルへの入力文内の特定のトークンの影響を取り除く手法である「キャンセルアウト」は,それらのトークンがある時とない時のモデルの出力を比較することで,その部分の重要性を測って解釈に用いたり [1], モデルの出力に関する解釈が与えられた時に,その解釈に基づいて文の一部をキャンセルアウトしてモデルの出力の変化を見ることで解釈を評価したりする $[2]$ ことなどに役立つ. 図 1 は,理想的なキャンセルアウトの具体例である.映画のレビューの感情分析を学習したモデルに対し, 元の “This is a good movie.”を入力すると positive に判定され,“good”をキャンセルアウトした後の入力に対しては, neutral と判定されている. したがって, これらの予測を比較することで “good” が positive のラベルに寄与していると解釈できる. 最も単純なキャンセルアウトは,対象のトークンを文から取り除くことであるが,自然言語においては文法的に不適格な入力を作り得る. そこで既存研究では, 特殊なトークンで置き換えたり (Zero Vector, Mask token),注意機構 [3] を持つモデ This is a good movie. $\xrightarrow{\text { model }} \bullet$ positive This is a $\xi^{\cdots-\gamma}$ movie. $\xrightarrow{\text { model }}$ neutral 図 1 “good”のキャンセルアウト,映画のレビューの感情分析モデルに元の入力を入れると positive と判定され, “good”をキャンセルアウトすると neural と判定されることから,“good”が positive の根拠であると解釈される. ルに対しては,対象のトークンへの注意を抑制する(Attention Mask)手法が考えられてきた.また, キャンセルアウト後の入力が,モデルが学習した訓練データに対して分布外にならないように実際にその箇所に出現しやすいトークンで置き換える手法も提案されている(Weighted Marginalize) [1]. キャンセルアウト手法の評価は, キャンセルアウトを用いた解釈手法の性能が向上することを示して間接的に行われることがある [1]. しかし,解釈手法の評価自体が,現状確立されたものがなく,何を評価しているかが明示されないことが多いことも指摘されている [4]. また, 解釈手法を統一的に評価するためのベンチマークが提案されているが [2], このベンチマークは評価指標の計算にキャセルアウトを伴うので,キャンセルアウトを含む解釈手法の評価には使えない可能性がある。他にも,キャンセルアウト後の入力がどれくらいタスクの学習データに対して分布外になってしまうかを測るものもあるが [5],そもそもキャンセルアウトがうまくいっておらず,モデルが周辺文脈から十分に元の情報を復元できている可能性が考慮されていない. 例えば,図 1 において,キャンセルアウト後の文をモデルに入力した時に,モデルがそこには元々 “good"があったと予測できてしまう場合にはキャンセルアウトが機能していないと考えられる. そこで本研究では,モデルに対して対象のトークンをどれだけキャンセルアウトできているかという観点から各手法を比較する。まず 3 節で,文脈から各位置のトークンを予測するように学習されてい る masked language model (MLM)に対してキャンセルアウト後の入力を与え, キャンセルアウトしたはずのトークンをどれくらい予測できるかを比較する. さらに,対象のトークンの箇所にどれくらい高い確信度を持っているかも比較する. 次に 4 節で, キャンセルアウトの応用として, BIOS [6] という個人の経歴から職業を予測するデータセットに対し, どれくらいモデルにジェンダーバイアスをかけずに学習できるかを比較することで,キャンセルアウト手法の性能を確かめる. 結果として,2 節で提案する, Weighted Marginalize の周辺化トークンをより多様化した Uniform Marginalize が,3 節と 4 節の実験で最もキャンセルアウトの効果が高いことを示す. ## 2 キャンセルアウト手法 本研究では, 2.1 節に示す既存の 4 つのキャンセルアウト手法 [5],および新たに提案する Uniform Marginaize と呼ぶ手法(2.2 節)を比較する. ${ }^{1}$ ) ## 2.1 既存のキャンセルアウト手法 - Zero Vector: 対象のトークンの embedding を全要素が 0 のベクトルで置き換える. - Mask Token: 対象のトークンを MASK トークンで置き換える。 - Attention Mask: 対象のトークンに対する attention maskを 0 にして,他のトークンの中間ベクトルの計算時に参照されないようにする. - Weighted Marginalize: 以下の式 1 のように,対象のトークンを一旦 MASK トークンで置き換えて MLM に入力し, 語彙内の各トークンに対する尤度を得て,上位 $k$ 個のトークンで置き換えた後の入力に対するモデルの出力をそれぞれの置き換えトークンの尤度で周辺化する. [1] $ \begin{aligned} p\left(y \mid \boldsymbol{x}_{-i}\right) & =\sum_{x^{\prime} \in V} p_{M}\left(y, x^{\prime} \mid \boldsymbol{x}_{-i}\right) \\ & =\sum_{x^{\prime} \in V} p_{M}\left(y \mid x^{\prime}, \boldsymbol{x}_{-i}\right) p_{L}\left(x^{\prime} \mid \boldsymbol{x}_{-i}\right) . \end{aligned} $ $y$ は予測候補のラベル, $\boldsymbol{x}_{-i}$ は $i$ 番目のトークンをキャンセルアウトしたい入力文, $V$ は尤度の上位 $k$ トークン, $p_{M}$ はモデルの予測確率, $p_{L}\left(x^{\prime} \mid \boldsymbol{x}_{-i}\right)$ は, $\boldsymbol{x}$ の $i$ 番目を MASKトークンで置き換えて BERT[7]等の言語モデルに入力した時の $x^{\prime}$ の尤度である. 1)以降では,入力文はトークン列に分割され,それぞれ対応する token embedding に変換されることを仮定する。また, MASKトークンを用いた MLM によって事前学習され,注意機構を持つようなモデルを対象にする。 [7]. Mask Token This is a [MASK] movie. Marginalize This is a new movie. This is a TV movie. This is a lost movie. This is a good movie. This is a bad movie. Likelihood P(positive /_) Uniform Likelihood 図 2 Weighted Marginalize と Uniform Marginalize の違い. “This is a good movie”の “good”をキャンセルアウトする場合. まず [MASK] で置き換えて,MLM に入力し候補を得る. Weighted では,各候補の尤度とモデルの出力で周辺化し,Uniformでは一様分布として周辺化する。 表 1 BIOS の例. 下線部は性別を表す代名詞と人物名.経歴/性別/職業 Peter also has substantial experience representing clients in government investigations, including criminal and regulatory investigations, and internal investigations conducted on behalf of clients. / male / attorney Dianne is registered with the Psychology Board of Australia, the Clinical College of the Australian Psychological Society, and she is a Medicare Provider . / female / psychologist ## 2.2 提案手法: Uniform Marginalize Weighted Marginalize では,キャンセルアウト対象のトークンの MLM による予測確率が 1 に近い時,新しい入力が元の入力と意味的に変わらない可能性がある。そこで, 式 1 の $p_{L}\left(x^{\prime} \mid \boldsymbol{x}_{-i}\right)$ を, $\frac{1}{N}(N$ は周辺化に使うトークン数) で置き換えることで,候補トークンを一様に扱う周辺化を提案する(Uniform Marginalize). 図 2 に両者の違いを示す. Weighted Marginalize では尤度の高いものほど重視されて, Uniform Marginalize では一様に扱われる。 ## 3 情報の復元可能性 本節では,キャンセルアウトした情報をモデルがどれくらい復元できてしまうかを尤度を用いて評価し各手法を比較する.実験では,Stanford Sentiment Treebank v2(SST2) [8] と BIOS [6]を用いる. SST2 は,映画のレビューに対して,positive か negative かのラベルを予測するタスクである.BIOS は,個人の経歴に関する文が大力として与えられ,27 個の職業から 1 つ予測するタスクである。また,表 1 の例のように,経歴内で直接的に性別を表す代名詞と人物名の部分もアノテートされている。 ## 3.1 元のトークンの予測確率 SST2 と BIOS のテストデータそれぞれから,ランダムに 9,000, 5,000 トークンずつ選んで,それぞれの 図 3 SST2 におけるキャンセルアウトしたトークンの尤度の分布. 横軸が尤度, 縦軸が相対度数. 手法でキャンセルアウトし,MLM に入力して元のトークンの尤度を測定する. Weighted Marginalize と Uniform Marginalize に関しては,式 1 の $p_{M}$ を MLM の元のトークンの予測確率として周辺化(計算コストの都合上,周辺化候補のトークン数は 10)を行った. Original Token は,元の入力をそのまま入れたときのベースラインである. SST2 に関しての結果が図 3 である. BIOS に対しての結果は付録 A の図 5 である. 同様の傾向が観察されたため, 以下の考察は SST2, BIOS に共通である。まず Original Token は,入れたトークン自身の尤度の値の分布は高い値に偏っている. Attention Mask も同様の傾向である. Mask Token, Weighted Marginalize は元のトークンを完全に復元できる場合と全くできない場合で左右に割れた. 二つの分布の形が似ているのは以下の理由だと考えられる。 Mask Token において高い尤度で元のトークンが予測できた例に対しては, Weighted Marginalize においても,周辺化時に元のトークンが高い尤度を持つ. さらに,その時の式 1 の $p_{M}$ は, MLMに元のトークンをそのまま入れたときの自身の確率であるため,結局元のトークンの確率が高くなるためである. つまり,Mask Token で元のトークンが予測しやすい状況においては(ヒストグラムの右端), Mask Token と Weighted Marginalize はほとんど同じ処理をすることになる. 対して, Uniform Marginalize, Zero Vector の順で,元のトークンは予測しづらくなっている. このことから,2 節で述べた狙い通り, Weighted Marginalize より周辺化候補を多様化させた Uniform Marginalize の方が,元のトークンをモデルが復元できてしまう(キャンセルアウトが機能しない)ことを防ぐことができることがわかった. 図4SST2におけるキャンセルアウト箇所の最大尤度の分布. 横軸が尤度,縦軸が相対度数. ## 3.2 キャンセルアウト箇所の最大尤度の 分布 キャンセルアウトされた箇所に,モデルがどれくらい確信を持って推論しているのかを比較するために, 3.1 節と同様にトークンをそれぞれの手法でキャンセルアウトして,MLM に入力した時の一番尤度の高いトークンの尤度を測定する.SST2 の結果が図 4 で BIOS の結果が付録 A の図 6 である. Weighted Marginalize と Uniform Marginalize に関しては,式 1 の $p_{M}\left(y \mid x^{\prime}, \boldsymbol{x}_{-i}\right)$ を, $x^{\prime}$ で置き換えた時のその箇所の一番高い尤度とした ${ }^{2}$. 結果としては, Zero Vector 以外は,かなり高い尤度に偏っており, Mask Token, Attention Mask はキャンセルアウトしても,そこには何らかのトークンであるとモデルが確信を持って計算していることになる。その高い尤度を持つトークンが元のトークン自身や,類義語である場合にはキャンセルアウトが機能しない. Marginalize の二手法に関しては,候補トークンで周辺化した結果高い尤度に偏っている. つまり一回のキャンセルアウトを考えると,どの候補に対しても最も高い尤度が 1 に近く,さらに 3.1 節の Original Token の結果を踏まえると,置き換えた候補のトー クン自身の尤度がそれぞれ一番高くなっていることが多いと考えられる。 3.1 節と 3.2 節の結果をまとめると, Uniform Marginalize は,各置き換え後の文に対しては置き換えたトークンの情報を強く持たせることができ(モデルが置き換えられたトークンに高い確信を持つ) ,置き換えの多様性によって元のトークンが容易に予測できてしまうことを防ぐといえる. 2)図 2 の例であれば,“This is a new movie.”を MLM に大力した時の new の部分で最も高い尤度,他の候補トークンでも同様に最も高い尤度を計算して,平均を計算する(周辺化する). ## 4 バイアスのキャンセルアウト BIOS は web 上で経歴データを集めており,職業ごとの男女のデータ数の偏りが大きいためモデルがバイアスを学習してしまうことが指摘されている [6]. 3) そこで,BERTを BIOS に fine-tuning する時に,各データで,直接性別を表す代名詞や人物名をキャンセルアウトした状態で学習させた時に,どれくらい学習後のモデルがジェンダーバイアスを持っているかを比較する.比較方法は,BIOS を提案している論文 [6] に従って,テストデータにおいて各職業ごとに,女性のデータと男性のデータでの真陽性率の差分(式 2 の $G a p_{f, y}$ )と, 訓練データにおける女性率(female rate)との相関をみる。この相関が高いほど訓練データにおける偏りを学習していることになる。 $ \begin{aligned} T P R_{g, y} & =P\left(Y^{\prime}=y \mid G=g, Y=y\right) \\ G a p_{f, y} & =T P R_{f, y}-T P R_{m, y} \end{aligned} $ $Y^{\prime} , Y$ は職業で $Y^{\prime}$ が予測ラベル, $Y$ が正解ラベル, $G$ はジェンダーで男 $(m)$ か女 $(f)$ かである. ## 4.1 学習時の Uniform Marginalize 代名詞と人物名の Uniform Mariginalize は次のように行う。まず全ての代名詞と名前を MASK トー クンに置き換える. この状態で MLM に入力して 1 個目の MASK に対応する部分の尤度の高い二つのトークン(A, B)を得る. 次に,最初の MASKトー クンを A で置き換えた状態で MLM に入力して 2 個目の MASK に対応する一番尤度の高いトークンを得てそれで置き換える。以降全ての MASK トークンが埋まるまで繰り返す.さらに,1個目の MASK トークンを B で置き換えたものに対しても同様に最後まで埋める。学習時は,こうして得た二つの置き換え後の文(s1, s2)をモデルに入れ,それぞれに対し各ラベルの予測確率を出し,平均したものを最終的な予測確率として勾配の計算に使う. 置き換えの例は付録 Cに示す。 ## 4.2 結果 本実験では, Original Token(元の学習データのまま訓練), Zero Vector, Mask Token, Attention Mask, Uniform Marginalize を比較対象とした. ここでは, 3 節の実験で Mask Token と作用が似ていること,  表 2 手法ごとの相関係数, $\mathrm{p}$ 値, テストデータの正解率. Uniform Marginalize の方が置き換えに多様性があることから, Weighted Marginalize は含めていない. 各手法について,テストデータにおける各職業の女性率と男女の真陽性率の差(式 2)の相関係数の値を比較した結果を表 2 に示す。まず元の学習データのまま訓練した Original Token は, 相関係数が 0.838 となり強くバイアスを学習してしまっている. ${ }^{4)}$ Zero Vector, Attention Mask に関しては相関係数の値が Original Token の場合と比べてほとんど変化せず,キャンセルアウトが機能していない. Uniform Marginalize, Mask Token $の$ 順に相関係数が改善できており, Uniform Marginalize が最もキャンセルアウトの効果が高いことがわかる. 両者において,テストデータでの正解率が顕著に下がっているのは, BIOS を解くのに性別情報が有用であり,これが使えなくなると予測難易度が上がるからだと考えられる. 今後の課題として, 性別情報がないと予測が難しいタスクを新たに構築することで,詳細な分析が可能になることが期待される. Uniform Marginalize においては, 4.1 節における置き換えを具体的に見てみると(付録 $\mathrm{C}$ 節),s1,s2 で片方が男性を表す名詞,もう片方が女性を表す名詞になっていることが多く,それによって予測時に性別を使わないように学習できたと考えられる。 しかしそれでも相関が出てしまう理由としては,BIOS を提案している研究 [6] で指摘されているように,代名詞や名前以外にも “mother” や “husband” 等ジェンダーを表す単語が存在することが挙げられる。 ## 5 おわりに 本研究では,直接キャンセルアウト手法を比較する方法を提案するとともに,置き換え候補の多様化を狙った Uniform Marginalize がキャンセルアウトに有効であることを示した,今後は,品詞ごとに置き換え方を適切に変えたり,複数箇所同時にキャンセルアウトすることの影響を調べたりして,より正確なキャンセルアウト手法を追求したい.  ## 謝辞 本研究は JSPS 科研費 JP21H03502 および JST さき がけ JPMJPR20C4 の支援を受けたものです. ## 参考文献 [1] Siwon Kim, Jihun Yi, Eunji Kim, and Sungroh Yoon. Interpretation of NLP models through input marginalization. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 31543167, Online, November 2020. Association for Computational Linguistics. [2] Jay DeYoung, Sarthak Jain, Nazneen Fatema Rajani, Eric Lehman, Caiming Xiong, Richard Socher, and Byron C. Wallace. ERASER: A benchmark to evaluate rationalized NLP models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4443-4458, Online, July 2020. Association for Computational Linguistics. [3] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of Advances in Neural Information Processing Systems, Vol. 30, 2017. [4] Alon Jacovi and Yoav Goldberg. Towards faithfully interpretable NLP systems: How should we define and evaluate faithfulness? In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, $\mathrm{pp}$. 4198-4205, Online, July 2020. Association for Computational Linguistics. [5] Peter Hase, Harry Xie, and Mohit Bansal. The out-ofdistribution problem in explainability and search methods for feature importance explanations. In Proceedings of the Advances in Neural Information Processing Systems, Vol. 35, 2021. [6] Maria De-Arteaga, Alexey Romanov, Hanna Wallach, Jennifer Chayes, Christian Borgs, Alexandra Chouldechova, Sahin Geyik, Krishnaram Kenthapadi, and Adam Tauman Kalai. Bias in bios: A case study of semantic representation bias in a high-stakes setting. In Proceedings of the Conference on Fairness, Accountability, and Transparency, pp. 120-128, 2019. [7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [8] Richard Socher, Alex Perelygin, Jean Wu, Jason Chuang, Christopher D. Manning, Andrew Ng, and Christopher Potts. Recursive deep models for semantic compositionality over a sentiment treebank. In Proceedings of the 2013 Conference on Empirical Methods in Natural Language Processing, pp. 1631-1642, Seattle, Washington, USA, October 2013. Association for Computational Linguistics. ## A BIOS における復元可能性 以下の図 5 が 3.1 節の実験の BIOS に対する結果である。考察は,3.1 節を参照. 図 5 BIOS におけるキャンセルアウトしたトークンの尤度の分布. 横軸が尤度, 縦軸が相対度数. 以下の図 6 が 3.2 節の実験の BIOS に対する結果である.考察は,3.2 節を参照. 図 6 BIOS におけるキャンセルアウト箇所の最大尤度の分布. 横軸が尤度, 縦軸が相対度数. ## B BIOS のジェンダーバイアス 図 7 が 4.1 節で,元の学習データで BERT を訓練したときの,テストデータにおける各職業の女性率と男女間の真陽性率の差の関係である。相関係数は 0.838 であり,強くバイアスがかかっている. ## C Uniform Marginalize の置き換え 4.1 節の Uniform Marginalize における置き換えの具体例を表 3 に示す. 元の “Dianne”が “She”と “He”,元の “she”が “she”と “he” に置き換えられた. 大部分の例に対し,このように男性を表す名詞で置き換えたものと,女性を表す名詞で置き換えたものが一つずつ作られた。 図 7 Original Token における女性率と性別間の真陽性率の差の関係 表 3 Uniform Marginalize における置き換えの例. 元の "Dianne" が "She" と "He",元の "she" が "she”と "he"に置き換えられた。 経歴 Dianne is registered with the Psychology Board of Australia, the Clinical College of the Australian Psychological Society, and she is a Medicare Provider . She is registered with the Psychology Board of Australia, the Clinical College of the Australian Psychological Society, and she is a Medicare Provider He is registered with the Psychology Board of Australia, the Clinical College of the Australian Psychological Society, and he is a Medicare Provider.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH3-8.pdf
# スタイル変換のためのスタイルを考慮した Seq2Seq 事前訓練 松浦 駿平梶原 智之二宮崇 愛媛大学大学院理工学研究科 matsu@ai.cs.ehime-u.ac.jp \{kajiwara, ninomiya\}@cs.ehime-u.ac.jp ## 概要 特定のタスクやドメインに特化した事前訓練が,近年盛んに研究されている。本研究では,インフォーマルな文をフォーマルに言い換えるスタイル変換に焦点を当て,本タスクに特化した事前訓練の手法を提案する.提案手法では,事前訓練の際にスタイルを学習するために,出力文のスタイルを表現する特殊トークンを入力文の文頭に加える.英語のスタイル変換タスクにおける実験の結果,自動評価と人手評価の両方で提案手法の有効性を確認した. ## 1 はじめに 近年,様々な自然言語処理タスクにおいて,深層学習に基づくアプローチが主流となっている. 高品質な深層学習モデルを得るためには,大規模なラべル付きコーパスやパラレルコーパスを用いた訓練が有効である。しかし,アノテーションのコストのために,多くの自然言語処理タスクは少資源問題に悩まされている. 本研究で扱うスタイル変換タスク [1] も,数万文対という小規模なパラレルコーパスしか使用できず,少資源問題が深刻なタスクのひとつである。他のタスクと同様に,スタイル変換タスクにおいても,マルチタスク学習 [2] やデータ拡張 [3] などの少資源対策の手法が研究され,現在では BART [4] などの事前訓練された汎用モデルの再訓練 [5-8] がデファクトスタンダードとなっている. 特定のタスクやドメインに特化した事前訓練の有効性も,広く知られている。例えば,診療記録 [9] や科学技術論文 [10] などのドメインに特化した事前訓練モデルや,生成型要約 [11] や言い換え生成 [12] などのタスクに特化した事前訓練モデルは,対象のタスクやドメインにおいて高い性能が報告されている.しかし, 事前訓練の際にテキストのスタイルについて明示的に学習するスタイル変換タスクに特化した事前訓練は,これまで研究されていない。本研究では,事前訓練の際にスタイルに関する知識を獲得するために,出力文のスタイルを表現する特殊トークンを入力文の文頭に追加した上で, BART と同様のノイズ除去自己符号化の事前訓練を行う。 GYAFC コーパス [1] を用いたインフォーマルな英文からフォーマルな英文へのスタイル変換の実験の結果,スタイル・同義性・流暢性の全ての人手評価の項目において,提案手法は通常の BART の事前訓練よりも有効であった。 ## 2 関連研究 ## 2.1 事前訓練の先行研究 大規模な生コーパスを用いて事前訓練された Transformer [13] が,多くの自然言語処理タスクで優れた性能を達成している。言語理解や言語生成の応用タスクにおいて,Transformer エンコーダをマスク言語モデリングのタスクで事前訓練した BERT [14] や Transformer デコーダを言語モデリングのタスクで事前訓練した GPT-2 [15] が,広く使用されている。本研究で扱う系列変換タスクにおいても,様々な事前訓練モデル $[16,17]$ が提案されている. スタイル変換タスク $[7,8]$ では, 語句の穴埋めなどのノイズ除去自己符号化のタスクで事前訓練された BART [4] が優れた性能を達成している。本研究では,BART の汎用的な事前訓練をスタイル変換タスクに特化させ,事前訓練の際にスタイルに関する知識を獲得することでスタイル変換の性能改善を目指す. ## 2.2 スタイル変換の先行研究 シェイクスピアの英文をモダンに変換するスタイル変換 [18] や難解な英文を平易に変換するスタイル変換 [19] など,様々なスタイルを対象とするスタイル変換が研究されている。本研究では,インフォー マルな英文をフォーマルに変換するフォーマルさに関するスタイル変換 [1] に取り組む。 図 1 提案手法 フォーマルさに関するスタイル変換のために使用できる GYAFC [1] は 5 万文対の小規模なパラレルコーパスであるため,多くの少資源対策の手法が提案されてきた. 大規模なパラレルコーパスを利用できる機械翻訳とのマルチタスク学習 [2] や,自動生成された擬似的な単言語パラレルコーパスを用いる事前訓練 [3,12], GPT-2 [15] の再訓練 [5,6] などが成功を収め, BART [4] の再訓練 $[7,8]$ が現在の最高性能を達成している.本研究では,スタイルを明示的に訓練するように BART の事前訓練を改良する. ## 3 提案手法 本研究では,BART [4] の事前訓練をスタイル変換タスクのために改良する。語句の穴埋めを行う事前訓練の際に, 入力文の文頭にスタイルラベルの特殊トークンを付与することにより, 出力文のスタイルを制御する。これにより, 従来の BART の事前訓練では考慮していないテキストのスタイルに関する知識の獲得を目指す。 提案手法の概要を図 1 に示す. 本手法では,まず,各文のスタイルを表現するために,スタイルラベル付きの事前訓練用コーパスを作成する(3.1 節).次に,作成したコーパスを用いて BART と同様の事前訓練を行う (3.2 節). 最後に, 事前訓練で学習したスタイルラベルを利用し,目的のスタイル変換用パラレルコーパス上で再訓練を行う(3.3 節). ## 3.1 スタイルラベル付きコーパスの作成 まず,スタイル分類器を用いて,事前訓練に用いる生コーパスの各文をソーススタイルの文とター ゲットスタイルの文に分類する。 その後,ソーススタイルの確率が高い文とターゲットスタイルの確率が高い文をそれぞれ同じ文数だけ抽出する. 最後に,モデルがソーススタイルの文とターゲットスタイルの文を識別できるようにするために,各文の文頭にスタイルを示すラベルを特殊トークン(図19 <F>や<I>)として追加する. スタイル分類器には,フォーマルさのラベル付きコーパスを用いて訓練した分類器 [20] や言語モデルに基づく分類器 [2] など,任意の分類器を適用できる. 本研究では, 事前訓練された RoBERTa [21]を GYAFC [1]のラベル付きコーパス上で再訓練する. ## 3.2 事前訓練 3.1 節のコーパスを用いて, Transformer モデル [13] を事前訓練する.事前訓練のタスクには,BART [4] と同様の語句の穴埋めを採用する. つまり, 入力文の一部の語句をマスクして入力し,元の文を復元するノイズ除去自己符号化の事前訓練を行う。また,入力文の文頭のスタイルラベルはマスク処理の対象外とし,出力文にはスタイルラベルを含めない。 BART と同様に,ミニバッチは約 512 トークンとなるように複数文を連結して構成する。ただし,同じスタイルの文のみでミニバッチを構成し,スタイルラベルはミニバッチの先頭に 1 つだけ付加する. 提案手法の事前訓練では,モデルはソースまたはターゲットの各スタイルラベルが付与された入力文から当該スタイルの文の生成を学習する. この事前訓練により,スタイルラベルによって出力文のスタイルを制御可能なモデルを得られると期待できる. ## 3.3 再訓練 再訓練には,スタイル変換用のパラレルコーパスを用いる。ただし,事前訓練時に学習したスタイルラベルを引き続き利用するために,パラレルコーパスの入力文の文頭にもスタイルラベルを付加する。 ## 4 評価実験 ## 4.1 実験設定 モデルスタイル変換器は fairseq $^{1)}$ [22]を用いて実装し, bart-base ${ }^{2}$ [4] と同じ構造の Transformer [13] 1) https://github.com/pytorch/fairseq 2) https://github.com/pytorch/fairseq/tree/main/ examples/bart 表 1 GYAFC コーパスの文対数 を採用した。 スタイル分類器は huggingface ${ }^{3)}[23]$ を用いて実装し,事前訓練済みの RoBERTa4) [21]を採用した. スタイル分類器の訓練には, バッチサイズを 32 文,学習率を 1e-5 とし,GYAFC コーパス [1] のフォーマル文とインフォーマル文を 2 值分類するようにクロスエントロピー損失最小化の訓練を 5 エポック行った. GYAFC の検証用データで分類器の性能を評価したところ,88\% の正解率を持つ高品質なスタイル分類器を構築できた。 事前訓練事前訓練のための生コーパスには, CC100 [24] の英語コーパスを使用した。コーパス全体にスタイル分類器を適用し,フォーマルな確率およびインフォーマルな確率の高い順に 5 千万文ずつを抽出した合計 1 億文を用いて事前訓練を行った. なお,これらの文はフォーマル確率またはインフォーマル確率が 0.9 を超えており,充分にフォー マルまたは充分にインフォーマルな文である,スタイルラベルとして,フォーマルな文の文頭には<F $\mathrm{F}$ , インフォーマルな文の文頭にはくI>の特殊トークンをそれぞれ追加した.前処理として,Moses ${ }^{5}$ [25] によって normalize および tokenizeを行い,語彙サイズ 3 万でサブワード分割 ${ }^{6}$ [26] を行った. 事前訓練には BART [4] と同様の語句の穴埋め夕スクを採用し,マスク確率およびポアソン分布の $\lambda$ は 0.35 とした. バッチサイズは 512 文, Dropout 率は 0.1 とし, エンコーダとデコーダで埋込層を共有した. 最適化には Adam を用い,ラベル平滑化クロスエントロピー損失最小化の訓練を 50 万ステップ行った. なお,ラベル平滑化のハイパーパラメータは $\epsilon=0.2$ とした. 学習率スケジュールには Inverse Square Root Decay を用い,最大の学習率は 5e-4,Warmup ステップは 1 万とした. 再訓練再訓練のためのパラレルコーパスには GYAFC [1]を使用し,インフォーマルな英文をフォーマルに言い換えるスタイル変換を行った。 GYAFC には, 表 1 に示すように Entertainment \& Music  表 2 BLEUによる自動評価 (E\&M)および Family \& Relationships(F\&R)の2つのドメインのパラレルコーパスが含まれる. 先行研究 $[2,7,27]$ と同様に,2つのドメインの訓練用デー タを合わせて両ドメインの訓練に用いた. 前処理として, Mosesによって normalize および tokenizeを行い,事前訓練と同じサブワード分割を行った. 再訓練では,バッチサイズは 1,024 トークン, Dropout 率は 0.1 とし, エンコーダとデコーダで埋込層を共有した。最適化には Adamを用い,検証用データにおける perplexity が 5 エポック改善されなくなるまでラベル平滑化クロスエントロピー損失最小化の訓練を行った. なお,ラベル平滑化のハイパーパラメータは $\epsilon=0.1$ とした. 学習率スケジュールには Inverse Square Root Decay を用い,最大の学習率は 3e-5, Warmup ステップは 500 とした. 推論モデルの評価時には,ビーム幅 5 のビーム探索を行った. また,シード值による影響を緩和するために,シード值の異なる4つのモデルをアンサンブルして出力文を生成した. 比較手法スタイルラベルを用いる事前訓練の有効性を検証するために,事前訓練を行わない Transformer およびスタイルラベルを用いない BART と比較した. Transformer ベースラインは, 提案手法と同じモデル構造であるが,GYAFC のパラレルコーパスのみを用いて訓練する.BART ベースラインは,提案手法と同じモデル構造であり,同じコー パスを用いて事前訓練および再訓練を行うが,事前訓練の際にスタイルラベルを使用しない。 評価自動評価と人手評価の両方で各モデルの性能を評価した。自動評価には SacreBLEU7) [28] を用いた。人手評価には Amazon Mechanical Turk ${ }^{8}$ を使用し, 米国在住, $98 \%$ の承認率,5,000 件以上のタスク承認歴を持つアノテータを 5 人雇用9) した. 評価用データの中からドメインごとに 100 文の合計 200 文を無作為抽出し, 入出力間の同義性・出力文の流暢性・出力文のスタイルのフォーマルさの 3 つの観  表 4 人手評価の平均値 点から人手評価を行った. 先行研究 [7] に従い,同義性を $[1,6]$ の 6 段階,流暢性を $[1,5]$ の 5 段階,スタイルを $[-3,3]$ の 7 段階で人手評価した. ## 4.2 実験結果 表 2 に自動評価の結果を示す。事前訓練を行わない Transformer ベースラインと比較して,BART ベー スラインおよび提案手法が顕著に高い性能を示した.また,提案手法は BART と比べて統計的に有意 $( p<0.05 )$ に BLEU が向上したことから,スタイルを考慮する事前訓練の有効性を確認できた。 表 4 に人手評価の結果を示す. 同義性・流暢性・ スタイルの全ての指標において,提案手法が比較手法たちを上回る評価を得た。これらの実験結果から,事前訓練の際に明示的にテキストのスタイルを考慮する提案手法の有効性が,自動評価と人手評価の両方で明らかになった。 ## 5 分析 ## 5.1 小規模なパラレルコーパスでの再訓練 より小規模なパラレルコーパスしか使用できない設定における提案手法の有効性を検証する. 4 節の実験では,GYAFC に含まれる 2 のトトメインの訓練用データを合わせた約 10 万文対を用いて再訓練を行ったが,本節ではこれを 5 万文対および 1 万文対に無作為抽出して削減する. 4 節の実験と同様に,シード值の異なる 4 つのモデルをアンサンブルして出力文を生成し,BLEUによる自動評価を行う. 図 2 に,再訓練に用いる文対数を削減した際の性能の変化を示す。再訓練用のパラレルコーパスを 5 万文対や 1 万文対に削減した場合も,提案手法は一 図 2 小規模なパラレルコーパスによる再訓練 貫して Transformer および BART のベースライン性能を上回る. また,10万文対のデータで再訓練した BART ベースラインと比較して,5万文対のデータで再訓練した提案手法は両ドメインにおいて 0.1 ポイント高いBLEUを達成しており,提案手法が少資源の設定においても有効であることを確認できた。 ## 5.2 生成文の定性評価 表 3 に各モデルの出力例を示す. Transformer は入力文と意味の異なる文を生成しているが,BART と提案手法は入力文の言い換えの生成に成功している。また,提案手法は BART とは異なり,guys を men, hot を attractiveへと言い換えており,表 4 で示したとおり,よりフォーマルな文を生成している。 ## 6 おわりに 本研究では,事前訓練の際にテキストのスタイルを明示的に学習するために,出力文のスタイルを表現する特殊トークンを文頭に追加する事前訓練の手法を提案した. そして,英語のフォーマルさに関するスタイル変換での害験を通して,提案手法の有効性を自動評価と人手評価の両方で示した. 今後の課題として,他のスタイルや言語にも適用したい. ## 謝辞 本研究は JST(ACT-X,課題番号:JPMJAX1907) の支援を受けたものです. ## 参考文献 [1] Sudha Rao and Joel Tetreault. Dear Sir or Madam, May I Introduce the GYAFC Dataset: Corpus, Benchmarks and Metrics for Formality Style Transfer. In Proc. of NACCL, pp. 129-140, 2018. [2] Xing Niu, Sudha Rao, and Marine Carpuat. Multi-Task Neural Models for Translating Between Styles Within and Across Languages. In Proc. of COLING, pp. 1008-1021, 2018. [3] Yi Zhang, Tao Ge, and Xu Sun. Parallel Data Augmentation for Formality Style Transfer. In Proc. of ACL, pp. 3221-3228, 2020. [4] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension. In Proc. of ACL, pp. 7871-7880, 2020. [5] Yunli Wang, Yu Wu, Lili Mou, Zhoujun Li, and Wenhan Chao. Harnessing Pre-Trained Neural Networks with Rules for Formality Style Transfer. In Proc. of EMNLP, pp. 3573-3578, 2019. [6] Yunli Wang, Yu Wu, Lili Mou, Zhoujun Li, and WenHan Chao. Formality Style Transfer with Shared Latent Space. In Proc. of COLING, pp. 2236-2249, 2020. [7] Kunal Chawla and Diyi Yang. Semi-supervised Formality Style Transfer using Language Model Discriminator and Mutual Information Maximization. Findings of EMNLP, pp. 2340-2354, 2020. [8] Huiyuan Lai, Antonio Toral, and Malvina Nissim. Thank you BART! Rewarding Pre-Trained Models Improves Formality Style Transfer. In Proc. of ACL, pp. 484-494, 2021. [9] Emily Alsentzer, John Murphy, William Boag, Wei-Hung Weng, Di Jindi, Tristan Naumann, and Matthew McDermott. Publicly Available Clinical BERT Embeddings. In Proc. of Clinical NLP Workshop, pp. 72-78, 2019. [10] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: A Pretrained Language Model for Scientific Text. In Proc. of EMNLP-IJCNLP, pp. 3615-3620, 2019. [11] Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter Liu. PEGASUS: Pre-training with Extracted Gapsentences for Abstractive Summarization. In Proc. of ICML, pp. 11328-11339, 2020. [12] Tomoyuki Kajiwara, Biwa Miura, and Yuki Arase. Monolingual Transfer Learning via Bilingual Translators for Style-Sensitive Paraphrase Generation. In Proc. of AAAI, pp. 8042-8049, 2020. [13] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In Proc. of NIPS, 2017. [14] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proc. of NACCL, pp. 4171-4186, 2019. [15] Alec Radford, Jeff Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language Models are Unsu- pervised Multitask Learners. 2019. [16] Kaitao Song, Xu Tan, Tao Qin, Jianfeng Lu, and Tie-Yan Liu. MASS: Masked Sequence to Sequence Pre-training for Language Generation. In Proc. of ICML, pp. 59265936, 2019. [17] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 167, 2020. [18] Wei Xu, Alan Ritter, Bill Dolan, Ralph Grishman, and Colin Cherry. Paraphrasing for Style. In Proc. of COLING, pp. 2899-2914, 2012. [19] Fernando Alva-Manchego, Carolina Scarton, and Lucia Specia. Data-Driven Sentence Simplification: Survey and Benchmark. Computational Linguistics, Vol. 46, No. 1, pp. 135-187, 2020. [20] Ellie Pavlick and Joel Tetreault. An Empirical Analysis of Formality in Online Communication. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 61-74, 2016. [21] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv:1907.11692, 2019. [22] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A Fast, Extensible Toolkit for Sequence Modeling. In Proc. of NAACL, pp. 48-53, 2019. [23] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Remi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander Rush. Transformers: State-of-the-Art Natural Language Processing. In Proc. of EMNLP, pp. 38-45, 2020. [24] Guillaume Wenzek, Marie-Anne Lachaux, Alexis Conneau, Vishrav Chaudhary, Francisco Guzmán, Armand Joulin, and Edouard Grave. CCNet: Extracting High Quality Monolingual Datasets from Web Crawl Data. In Proc. of LREC, pp. 4003-4012, 2020. [25] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open Source Toolkit for Statistical Machine Translation. In Proc. of ACL, pp. 177-180, 2007. [26] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural Machine Translation of Rare Words with Subword Units. In Proc. of ACL, pp. 1715-1725, 2016. [27] Tomoyuki Kajiwara. Negative Lexically Constrained Decoding for Paraphrase Generation. In Proc. of ACL, pp. 6047-6052, 2019. [28] Matt Post. A Call for Clarity in Reporting BLEU Scores. In Proc. of WMT, pp. 186-191, 2018.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH3-9.pdf
# 面白いアナグラムとはどんなアナグラムか 土井 遥 ${ }^{\dagger}$ 山本 優衣奈 $2 \dagger$ 佐藤 理史 ${ }^{3}$ 1 名古屋市立向陽高等学校 2 三重県立桑名高等学校 3 名古屋大学大学院工学研究科 ssato@nuee.nagoya-u.ac.jp ## 概要 アナグラムとは、「言葉の綴りの順番を変えて別の語や文を作る遊び」である。本稿では、表記と読みの組からなる入力に対して、アナグラム候補を順位付きで出力するシステムを示す。さらに、システムで生成した大量のアナグラム候補の中から「面白い」と思えるアナグラムを収集・分類し、「面白いアナグラムとはどんなアナグラムか」という問いに対して、ひとつの仮説を提示する。 ## 1 はじめに アナグラムとは、「言葉の綴りの順番を変えて別の語や文を作る遊び [1]」である。日本語のアナグラムは、読み (ひらがな文字列) の順番を変えて作るのが一般的であり、たとえば、「時計 / とけい」から 「毛糸/けいと」を作ることが、これに相当する。 ひらがな文字列の並べ替えは、機械的に可能であり、容易である。たとえば、 7 文字のひらがな文字列の並べ替えは、 $7 !=5040$ 個存在する。しかしながら、その中で日本語として意味をなすものは限られており、「面白い」ものとなると、さらに限られている。それゆえ、面白いアナグラムを作ることは知的なパズルであり、ある種の創作とみなすことができる。 鈴木ら [2] は、あらかじめ用意した文節集合に含まれる文節をつなげて、アナグラムを生成する方法を提案・実装した。しかし、この生成法には意味的適格性の判定が陽に含まれておらず、意味の通るアナグラムは出力のほんの一部に限られた。後続研究 [3] では、係り受けペアの一般化による意味的適格性判定が試みられ、一定の効果が見られたが、根本的な解決には至らなかった。本研究では、「面白いアナグラムを作る」ことを $\dagger$ Equal contribution 図 1 アナグラム生成システム 研究目標として掲げ、有望な候補を順位付きで出力するシステムの実現を試みる。さらに、システムで生成した大量のアナグラム候補の中から「面白い」 と思えるアナグラムを収集・分類し、「面白いアナグラムとはどんなアナグラムか」という問いに対して、ひとつの仮説を提示する。 ## 2 アナグラム生成システム 図 1 に、今回実装したアナグラム生成システムの概要を示す。生成手順は、おおきく、(1) 候補リスト作成と、(2) ランキングの 2 つのステップから構成される。 ## 2.1 候補リスト生成 候補リスト生成では、与えられた入力から、アナグラムの候補リストを作成する。入力は、表記 (日本語文字列) とその読み (ひらがな文字列1) ${ }^{11}$ ) の組である。なお、入力それ自身は、生成する候補リストにかならず含める。 1) 本研究における「ひらがな」は、JISコード (ISO-2022-JP) の 0x2421 から 0x2473 までの 83 文字のうち、小書の「わ」と 「み・总」の 3 文字を除いた 80 文字である。 ## 2.1.1読みの並び替え 候補リスト作成の最初のステップは、読み(ひらがな列) の並べ替えを求めるステップである。たとえば、入力「名古屋大学/なごやだいがく」は、読みの長さが 7 で、すべての文字が異なるので、 $7 !=5,040$ 個の並べ替えが得られる。 このステップでは、ひらがな列として適切なもののみ生成する。具体的には、以下の制約を課す。 1. 拗音「ゃ・ゅ・よ」は、ア行を除くイ段の文字「き・し・ち・に・ひ・み・り・ぎ・じ・ぢ・び・ ぴ」の直後の文字としてのみ採用する。 2. 撥音「ん」、促音「っ」、小書き文字「あ・い・う・ え・お」は、並べ替え文字列の先頭の文字として採用しない。 このため、「東京大学/とうきょうだいがく」の読みは 9 文字であるが、「う」が 2 回現れ、「ゃ」は「き」 の直後にしか配置できないため、生成される並べ替えは 9 ! ではなく、 $8 ! / 2=20,160$ 個となる。 ## 2.1.2 かな漢字変換 次のステップでは、かな漢字変換システムを利用して、得られたそれぞれのひらがな列を日本語文字列 (かな漢字文字列) に変換する。かな漢字変換システムには、MeCab[4] と MeCab-skkserv[5] のかな漢字変換辞書を利用した。 一般に、かな漢字変換では、複数の変換候補が考えられるが、ここでは、それぞれのひらがな列に対して、変換結果をひとつだけ生成する。 ## 2.1.3 フィルタリング 候補生成の最後のステップでは、以下に示す $2 \supset$ のフィルタを順に適用し、候補を絞り込む。 読みの不一致フィルタかな漢字変換によって得られた日本語文字列の標準的な読みが、変換前のひらがな文字列と一致しない場合、読みアナグラムとしての完全性に欠ける。そこで、日本語文字列の読みを形態素解析システム $\mathrm{MeCab}$ (IPA 辞書) を用いて取得し、かな漢字変換前のひらがな列と一致しない場合は、その候補を削除する。このフィルタにより、大力「名古屋大学/なごやだいがく」に対する候補は 5,040 個から 4,184 個に絞られる。 文字 n-gram フィルタ文字 n-gram に基づいて、日本語文字列としての可能性が著しく低いものを候補から削除する。具体的には、国立国語研究所が公開している日本語の文字 n-gram データ [6] から、文字 2-gram は頻度が 101 回以上の 1,384,419 種類、文字 3-gram は頻度が 11 回以上の 39,670,672 種類を採用し、このリストに存在しない文字 2-gram および文字 3-gram を含む候補をリストから削除する。このフィルタによって、「名古屋大学 / なごやだいがく」では、4,184 個の候補が 387 個に絞られる。 ## 2.2 ランキング ランキングでは、候補リスト生成で得られたそれぞれの候補にスコアを付与し、スコア順にソートした候補リストを出力する。 ## 2.2.1 スコアの定義 入力 $I$ に対する候補 $C$ のスコアを、以下の式で定義する。 $ \operatorname{score}(C, I)=\operatorname{GPT}-2(C . h)-\operatorname{penalty}(C, I) $ ここで、 $I$ と $C$ は、いずれも表記 (日本語文字列) と読み (ひらがな文字列) の組であり、GPT-2(C.h) は、候補の表記 C.hに対する GPT-2 [7] の龙度を表す。 penalty $(C, I)$ は、候補と入力の類似性に基づくぺナルティを表す。 ## 2.2.2 尤度計算 候補表記の、日本語として妥当性 (文法的適格性と意味的整合性) を GPT-2 の尤度によって見積もる。 GPT-2 の実装としては、公開されている日本語用の実装 [8] の medium モデルを利用した。 ## 2.2.3候補と入力の類似性ペナルティ 尤度のみでランキングすると、ほとんどの場合、入力自身が最上位の候補となる。さらに、「名古屋大学」に対して「大学名古屋」や「名古屋大工が」 のように入力の一部を色濃く残した候補が上位に来ることが多い。これらの候補の順位を下げるため、入力との類似性に基づくペナルティを導入した。 ペナルティの計算は、次のように行う。ペナルティの値は、候補 $C$ と入力 $I$ の表記の類似度 $\operatorname{sim}_{h}$ と読みの類似度 $\operatorname{sim}_{y}$ の和に 10 を掛けた値と定義する。 $ \operatorname{penalty}(C, I)=10 *\left(\operatorname{sim}_{h}(C, I)+\operatorname{sim}_{y}(C, I)\right) $ 表記の類似度は見た目の類似度、読みの類似度は音の類似度に相当し、見た目と音の両方を考慮することを意図している。 表 1 「名古屋大学/なごやだいがく」に対する上位 10 件 2 つの文字列 $X$ と $Y$ の類似度は、両者に共通する文字 n-gram の割合として計算する。 $ \operatorname{sim}(n, X, Y)=\frac{\operatorname{dup}(\mathrm{n}-\operatorname{gram}(X), \mathrm{n}-\operatorname{gram}(Y))}{\min (|\mathrm{n}-\operatorname{gram}(X)|,|\mathrm{n}-\operatorname{gram}(Y)|)} $ ここで、 $\mathrm{n}-\operatorname{gram}(X)$ は文字列 $X$ に含まれる文字 n-gram のリストを、|・はリストの要素数を表す。関数 $\operatorname{dup}(A, B)$ は、 2 つのリスト $A, B$ に共通して現れる要素の個数を表す。ただし、 $A$ または $B$ に同一要素が複数存在し、かつ、それらが $A$ と $B$ に共通して現れる場合、共通して現れる個数としては、少ない方の個数を採用する。たとえば、 $A$ に「なご」が 2 回現れ、 $B$ に 1 回現れる場合は、「なご」が共通して現れる個数としては 1 を採用する。このような計算により、上記の $\operatorname{sim}$ の値域は $[0,1]$ となる。 表記の類似度は、文字 3-gram と文字 2-gram の類似度の平均値とする。 $ \operatorname{sim}_{h}(C, I)=\frac{1}{2}(\operatorname{sim}(3, C . h, I . h)+\operatorname{sim}(2, C . h, I . h)) $ 一方、読みの類似度は、文字 4-gram と文字 3-gram の類似度の平均値とする。 $ \left.\operatorname{sim}_{y}(C, I)\right)=\frac{1}{2}(\operatorname{sim}(4, C . y, I . y)+\operatorname{sim}(3, C . y, I . y)) $ ここで、 $h$ は表記文字列を、 $y$ は読み文字列を表す。 このように、表記と読みで $n$ の值を変更するのは、一般に、読み文字列の方が長くなるからである。 なお、式 (2) の定数 10、式 (4) の定数 3 と 2、式 (5) の定数 4 と 3 は、実際のデータを観察して定めた。 ## 3 出力例 入力「名古屋大学/なごやだいがく」に対する出力の上位 10 件を、表 1 に示す。なお、表記と読みに含まれる区切りは、かな漢字変換の際に得られる単語区切りである。出力された候補の中では、「嫌だな語学/いやだなごがく」(4 位)、「嫌な語学だ/ いやなごがくだ」(6位)、「語学嫌だな/ごがくいやだな」 (8 位)が面白い。 ## 4 面白いアナグラムとは 機械的に生成したアナグラム候補は、おおきく次のように分類できる。 1. アナグラムとは認められないもの (日本語として不自然なもの) 2. アナグラムと認められるもの (日本語として自然なもの) (a) 特に面白くないアナグラム (b) 面白いアナグラム 今回採用したアナグラム生成アルゴリズムでは、日本語文字列としての可能性が著しく低いものを文字 n-gram フィルターで排除するが、日本語文字列らしさは、GPT-2 の尤度としてスコア化しているだけである。そのため、ランキングの下位には、日本語として不自然なものが多数含まれる。 日本語として自然な語・句・文は、アナグラムとして認定できる。しかしながら、その中で「面白い」 と思えるアナグラムは限られている。 面白いアナグラムとはどのようなアナグラムか。 これを調査するために、普通名詞 6,750 語に対して、網羅的にアナグラム候補を生成した。入力として採用した語は、 $\mathrm{MeCab}$ 用の IPA 辞書に収録されている、読みの長さが 6 文字から 9 文字の普通名詞全てである。こうして得られた出力を調査 (目視)して、著者らが面白いと思うアナグラムを収集し、それらの分類を試みた。以下では、その分類を示し、付録にその実例を示す。なお、これらの分類は排他的分類ではない。複数の分類に属するアナグラムも存在し、それらは面白さの度合いが高い。 ## 4.1 単独で面白いアナグラム 単独で面白いアナグラムとは、アナグラム自身に面白さを感じるものである。言い換えるならば、元となった語 (入力) が何だったかに依存しない面白さである。 文形式となるアナグラム完結した文 [付録 (1)] あるいは、それに準ずる形式のアナグラムは、面白いと感じることが多い。文は、ある事態を表す形式であり、読み手は、その事態を想起することが容易である。端的に言えば、具体的なイメージが湧きやすい。そのイメージに我々は反応し、面白いと感じるのではないだろうか。 意外性がある複合語となるアナグラム意外性がある複合語となる場合 [ 付録 (2)] も面白い。これらの複合語は実際には存在しないが、あってもおかしくないという意味で、我々の好奇心を刺激するのであろう。 ナンセンス系アナグラム単体で面白いアナグラムの分類のひとつとして、「ナンセンス系」と名付けたアナグラムがある [付録 (3)]。このタイプのアナグラムでは、思いもよらなかった意外な組み合わせに、想像力が刺激されるのだろう。 オノマトペを含むアナグラムオノマトペを含むアナグラム [付録 (4)] が生成されることは比較的少ない。つまり、希少性がある。オノマトペには臨場感があり、イメージを想起させる効果がある。そのような効果も、面白さに寄与しているのだろう。 評価や感情を表す形容詞を含むアナグラム評価や感情を表す形容詞を含むアナグラム [付録 (5)] は、面白いと感じることが多い。これは、面白さの評価が、感覚・感情に基づく評価であることが関係しているのかもしれない。 ## 4.2 入力との関連で面白いアナグラム 入力との関連で面白いアナグラムとは、「この入力からこんなアナグラムが作れるのか」という驚き、あるいは、巧みさに面白さを感じるアナグラムである。 入力と関連するアナグラムアナグラムが入力と何らかの意味で関連する場合 [付録 (6)]、面白いと感じることが多い。人間がアナグラムを作る場合、入力と関連するアナグラムを作ることは、かなり難しい。そのため、制作者のスキルの高さ (巧みさ)を評価するのだろう。 入カとアナグラムがひと続きの文となるその特殊な場合として、入力とアナグラムで、ひと続きの文を構成できる場合 [付録 (7)] がある。 ダジャレ系アナグラムダジャレ系アナグラム [付録 (8)] とは、元の語と音は似ているのに、意味的にはまったく関係ないアナグラムである。そのギャップに面白さを感じる。 入力とギャップがあるアナグラム入力との意味的ギャップが面白いアナグラムもある [付録 (9)]。何だかよくわからないところが、逆に面白いのだろう。 ## 4.3 面白さを感じる要因 以上、我々が面白いと感じるアナグラムを見てきた。これらを整理すると、我々が面白いと感じるアナグラムは、おおよそ次のように総括できよう。 1. 具体的なイメージを想起しやすいアナグラム 2. 驚きや意外性があるアナグラム、想像力や好奇心を喚起するアナグラム 3. 入力と強く関連するアナグラム、入力との落差がはげしいアナグラム この総括からわかるように、面白さの要因はひとつではない。いくつかの要因が組み合わさると、面白さが際立ってくる。つまり、面白さを捉えるためには、複数の軸を考える必要がある。 今回得られたアナグラムの中で、最も面白いと判断したもののひとつは、次のアナグラムである。 他力本願 /たりきほんがん $\rightarrow$ 本気が足りん/ほんきがたりん 【他力本願、本気が足りん】 このアナグラムは、アナグラムが文形式となり、入力とアナグラムがひと続きの意味の通る文となる。さらに、「足りん」と話し言葉的になって臨場感を醸し出し、面白さを際立たせている。 ## 5 おわりに 本稿では、入力に対するアナグラムの候補を順位付きで出力するシステムを示すとともに、システムが生成した候補から「面白いアナグラム」を収集・分類し、面白さを醸し出す要因を分析した。 本研究により「面白いアナグラムを作る」という目標は、かなり達成できたと考える。生成した面白いアナグラムの一部を付録に示したが、これ以外にも数百個の面白いアナグラムが得られている。次の目標は、「面白いアナグラムを選ぶ」能力の実現であるが、本稿で示した「面白いアナグラム」の整理と分類は、その足掛かりになろう。 ## 謝辞 本稿の内容は、名大 MIRAI GSC(http://www. iar.nagoya-u.ac.jp/miraigsc/) の第 2 ステージで行った研究が元となっている。 ## 参考文献 [1] 新村出(編). 広辞苑第七版. 岩波書店, 2018. [2] 鈴木啓輔, 佐藤理史, 駒谷和範. 文節データベー スを用いた日本語アナグラムの自動生成. 第 10 回情報科学技術フォーラム (FIT-2011), RF-009,第 2 分冊, pp. 97-102, 2011. [3] 鈴木啓輔, 佐藤理史, 駒谷和範. アナグラム生成における文節列の意味的適格性の判定法の検討. 言語処理学会第 18 回年次大会発表論文集, pp. 1308-1311, 2012. [4] MeCab: Yet Another Part-of-Speech and Morphological Analyzer,(2021-12 閲覧). https:// taku910.github.io/mecab/. [5] mecab-skkserv,(2021-12 閲覧). http://chasen. org/\%7Etaku/software/mecab-skkserv/. [6] GSK2020-C「国語研日本語ウェブコーパス」n-gram データ・頻度表,(2021-12 閲覧)。 https://www.gsk.or.jp/catalog/gsk2020-c/. [7] openai/gpt-2,(2021-12 閲覧).https://github. com/openai/gpt-2. [8] gpt2-japanese, (2021-12閲覧).https://github. com/tanreinama/gpt2-japanese. ## 付録 面白いアナグラムの具体例 ## 文形式となるアナグラム (1) a. 頭でっかち/あたまでっかち $\rightarrow$ ちまたで悪化/ちまたであっか b. 功労賞 /こうろうしょう $\rightarrow$ 売ろうコショウ/うろうこしょう c. 生殺与奪 / せいさつよだつ $\rightarrow$ いつ左折だよ/いつさせつだよ d. 連尺商い/れんじゃくあきない $\rightarrow$ あれ禁句じゃない/あれきんくじゃない e. セラミックエンジン/せらみっくえんじん $\rightarrow$ えっ自民落選/えっじみんらくせん 意外性がある複合語となるアナグラム (2) a. サウンドトラック/さうんどとらっく $\rightarrow$ 皿うどん特区/さらうどんとっく b. 緞帳役者/どんちょうやくしゃ $\rightarrow$ やんちゃ食堂/やんちゃしょくどう c. 相対性理論 / そうたいせいりろん $\rightarrow$ 総理生態論/そうりせいたいろん ナンセンス系アナグラム (3) a. 一日千秋/いちじつせんしゅう $\rightarrow$ セイウチ出陣/せいうちしゅつじん b. 般若心経 / はんにゃしんぎょう $\rightarrow$ 社運は人魚/しゃうんはにんぎょ c. 蜀江の錦 / しょっこうのにしき $\rightarrow$ キノコに失笑/きのこにしっしょう d. 蝸牛角上 / かぎゅうかくじょう $\rightarrow$ 食うか授業か/くうかじゅぎょうか e. 反対称律 / はんたいしょうりつ $\rightarrow$ 両親はタイツ/りょうしんはたいつ ## オノマトペを含むアナグラム (4) a. 一宿一飯/いっしゅくいっぱん $\rightarrow$ 行く一瞬パッ/いくいっしゅんぱっ b. 一昨昨週 / いっさくさくしゅう $\rightarrow$ サクサク一周 /さくさくいっしゅう c. 胸突き八丁/むなつきはっちょう $\rightarrow$ 千夏は今日ムッ/ちなつはきょうむつ d. ニッポンチャレンジ/にっぽんちゃれんじ $\rightarrow$ レンジにちゃっぽん/れんじにちゃっぽん e. 似た者夫婦 / にたものふうふ $\rightarrow$ うふふのモニタ/うふふのもにた 評価や感情を表す形容詞を含むアナグラム (5) a. 第一人称/だいいちにんしょう $\rightarrow$ 超いい男子に/ちょういいだんしに b. 骨粗鬆症 /こつそしょうしょう $\rightarrow$ 少々そこつ/しょうしょうそこつ c. ジャイアントパンダ/じゃいあんとぱんだ $\rightarrow$ ジャパンだと安易/じゃぱんだとあんい d. 風林火山/ふうりんかざん $\rightarrow$ うんざり花粉/うんざりかふん e. 乾坤一擲 / けんこんいってき $\rightarrow$ インコって危険 /いんこってきけん ## 入力と関連するアナグラム (6) a. 総合大学/そうごうだいがく $\rightarrow$ そういう語学だ/そういうごがくだ (「大学」と「語学」) b. 知識工学 / ちしきこうがく $\rightarrow$ 講師が鬼畜/こうしがきちく (「知識工学」と「講師」) c. 最年少 /さいねんしょう $\rightarrow$ うん最初ね/うんさいしょね (「最年少」と「最初」) d. 名題役者 / なだいやくしゃ $\rightarrow$ 医者役だな/いしゃやくだな (「役者」と「医者役」) e. 方角違い/ほうがくちがい $\rightarrow$ 北緯が違う/ほくいがちがう (「方角」と「北緯」) 入力とアナグラムがひと続きの文となる (7) a.一日中/いちにちじゅう $\rightarrow$ 知事に注意/ちじにちゅうい 【一日中、知事に注意】 b. 百科事典 / ひゃっかじてん $\rightarrow$ 光ってんじゃ/ひかってんじゃ 【百科事典、光ってんじゃ】 c. 相思相愛/そうしそうあい $\rightarrow$ 試合早々/しあいそうそう 【試合早及、相思相愛】 d. 健康上 / けんこうじょう $\rightarrow$ 好条件 /こうじょうけん 【健康上、好条件】 e. 器械体操 / きかいたいそう $\rightarrow$ 競う大会 /きそうたいかい 【器械体操、競う大会】 ダジャレ系アナグラム (8) a. 香典返し/こうでんがえし $\rightarrow$ 公園で餓死/こうえんでがし b. 亜成層圏 / あせいそうけん $\rightarrow$ 麻生政権 / あそうせいけん c. 山河襟帯/さんかきんたい $\rightarrow$ サンタ解禁/さんたかいきん d. 猿の腰掛/さるのこしかけ $\rightarrow$ 酒のコルシカ/さけのこるしか e. 交感神経/こうかんしんけい $\rightarrow$ 更新関係/こうしんかんけい 入力とギャップがあるアナグラム (9) a. 天地神明 / てんちしんめい $\rightarrow$ メンチ進呈 /めんちしんてい b. 全知全能 / ぜんちぜんのう $\rightarrow$ 膳所の運賃 /ぜぜのうんちん c. 栄枯盛衰 / えいこせいすい $\rightarrow$ せこい水泳/せこいすいえい d. 猿の腰掛/さるのこしかけ $\rightarrow$ 今朝のコルシカ / けさのこるしか e. 酒池肉林/しゅちにくりん $\rightarrow$ チリに君主/ちりにくんしゅ
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH4-10.pdf
# 言語モデルと解析戦略の観点からの修辞構造解析器の比較 小林尚輝 $\dagger$ 平尾努 $\S$ 上垣外英剛 $\dagger$ 奥村学 $\dagger$ 永田昌明 $\S$ †東京工業大学 §NTTコミュニケーション科学基礎研究所 \{kobayasi, kamigaito, oku\}@lr.pi.titech.ac.jp \{tsutomu.hirao.kp, masaaki.nagata.et\}@hco.ntt.co.jp ## 概要 修辞構造解析の研究分野では,ニューラルモデルの発展により多くの手法が提案され,ベンチマークデータでの最高スコアが日々更新されている. しかし,提案された手法は解析戦略,EDU 系列のベクトル表現のための事前学習済み言語モデル,探索アルゴリズムなどが異なっており, どの要素が良い結果をもたらしたのかが分かりにくい。そこで,本稿では技術の進歩を明確にできるよう,既存の上向き,下向きの解析戦略と最新の事前学習済み言語モデルを組み合わせることで強いべースライン解析器を構築する。この解析器を RST-DT で評価した結果, 解析戦略には大きな差がなく,トークンではなくスパンのマスキングを採用した事前学習済み言語モデルが有効であることが分かった. 特に,DeBERTaを用いると世界最高性能を達成した. 今後, このべースラインを基準とすることで新しい技術の有効性をより明確にできると考える。 ## 1 はじめに 修辞構造理論 [1] は,文書の背後にある構造を, EDU と呼ばれる節相当のユニットを終端ノード,単一もしくは連続した EDU からなるスパンを非終端ノードとする構成素木として表現する. 非終端ノー ドには核 (Nucleus) または衛星 (Satellite) の核性ラベルが与えられ,同じ親を持つ兄弟の非終端ノード間のエッジにはその関係を表す修辞ラベルが与えられる. 修辞構造解析では,上向き,下向きの解析戦略の 還元法を用いた手法 [2,3], 下向き解析にはスパン分割法を用いた手法 $[4,5]$ やエンコーダデコーダモデルを用いた手法 [6] がある. これら 2 つの解析戦略において,近年ニューラルネットワークが活用され,さらなる性能向上のため,ビーム探索 [7],動的 オラクルを用いた探索 [5],モデルアンサンブル [4],敵対学習 [6] など様々な技術が導入されている. さらに,スパンのベクトル表現を得るために事前学習済み言語モデルが利用されることからその性能向上が修辞構造解析の性能改善にもつながる. たとえば,XLNet[8] を用いた下向き解析法 [6] と SpanBERT[9] を用いた上向き解析法 [3] は従来法よりも大幅に性能が向上している。 このようにニューラルモデルを用いた修辞構造解析手法の性能は大きく向上しているものの,各手法が採用した解析戦略,事前学習済み言語モデル,探索アルゴリズムなどが異なるため,どの要素が解析器の性能向上にどの程度寄与したかが分かりにくく,技術の進歩を正しく評価することが難しい。 本稿は,既存の上向き,下向き解析戦略に対し, 5 種の事前学習済み言語モデル1)を組み合わせるだけでどの程度の性能が得られるかを検証し,技術の進歩を明らかにするためのベースラインを構築することを目的とする.RST-DT を用いた実験結果から,(1) 2 つの解析戦略の間に大きな差はないこと, (2) トークンではなくスパンのマスキングを利用した目的関数で学習された事前学習済み言語モデルが有効であること,(3) DeBERTa を利用すると現在の世界最高性能を達成すること,が分かった. さらに,チェックポイント重み平均の導入や事前学習済み言語モデルのパラメタを増やすことでも性能の改善が得られることが分かった. ## 2 解析手法 本稿では,上向き解析戦略を用いた解析器としてシフト還元法を用いた手法 [3],下向き解析戦略を用いた解析器として再帰的なスパン分割による手法 [4]を採用した. その理由はどちらもシンプルな方法であり,かつ実装が公開されているからである.  双方とも単一もしくは連続した EDU からなるスパンをべクトルにより表現する必要がある.以下, 2.1 節でスパンのベクトル表現の獲得方法について説明する。次に 2.2 および 2.3 節においてそれぞれの解析手法を説明する。 ## 2.1 スパンのベクトル表現の獲得方法 $N$ 個の EDU からなる文書が与えられた時,文書をトークン系列とみなし,事前学習済み言語モデルを通すことでトークンのベクトル表現 $\left.\{\boldsymbol{w}_{1}, \ldots, \boldsymbol{w}_{M}\right.\}$ を得る。ここで $M$ は文書に含まれる全トークン数とする.M が 512 を超える場合には,スライド窓を利用してすべてのトークンのベクトル表現を得る. あるスパンが $i$ 番目から $j$ 番目の EDUを内包する時(ただし, $1 \leqq i<j \leqq N ) \mathrm{~ このスハ ゚ ンを表現する ~}$ ベクトル表現 $\boldsymbol{u}_{i: j}$ はスパンの両端のトークンのベクトル表現から $u_{i: j}=\left(w_{\mathrm{b}(i)}+w_{\mathrm{e}(j)}\right) / 2$ として求める. ここで $\mathrm{b}(i)$ および $\mathrm{e}(j)$ はそれぞれ引数で指定された EDU の先頭および末尾のトークンのインデックスを返す関数である。 ## 2.2 上向き解析法 上向き解析器として Guz ら [3] のシフト還元法を用いた解析器を採用する.スタック $\mathrm{S}$ に解析済みの部分木を格納,キューQにこれから解析対象となる EDU を格納し,以下のシフト,還元操作を適用することで,左から右に向かって EDU 系列を読み込みながら上向きに修辞構造木を構築する. シフトキュー $\mathrm{Q}$ の先頭の EDU を取り出し, スタックに積む, 還元スタック $\mathrm{S}$ の上 2 つの部分木を取り出しそれらを併合することで 1 つの木を構築し,再度スタック $\mathrm{S}$ に積む。 なお,還元操作を行った後,2つの部分木に対し核性ラベル,修辞関係ラベルを,異なる分類器を用いて推定する。つまり,木の構築,核性ラベル推定,修辞関係ラベル推定は独立に行う2) 。核性ラベルは N-S,S-N,N-N の 3 種のいずれか,修辞関係ラベルは Elaboration,Listなど 18 種のいずれかである. それぞれの推定は以下の順伝播型ニューラルネットワーク $\mathrm{FFN}_{\mathrm{act}}, \mathrm{FFN}_{\mathrm{nuc}}, \mathrm{FFN}_{\mathrm{rel}}$ を用いて行う. $ s *=\mathrm{FFN}^{2}\left(\operatorname{Concat}\left(\mathbf{u}_{\mathrm{s}_{0}}, \mathbf{u}_{\mathrm{s}_{1}}, \mathbf{u}_{\mathrm{q}_{0}}, \mathbf{u}_{\mathrm{org}}\right)\right) $ 2) Guz ら [3], Wang ら [2] は,木の構築と核性ラベル推定は同時に行ったほうが良いと報告しているが,我々の実験では独立に行ったほうが性能が良かった。 ここで, $\mathbf{u}_{\mathrm{s}_{0}}, \mathbf{u}_{\mathrm{s}_{1}}$ はそれぞれ $\mathrm{S}$ の上 2 つの部分木が支配するスパンのベクトル表現, $\mathbf{u}_{\mathrm{q}_{0}}$ は $\mathrm{Q}$ の先頭の EDU のベクトル表現, $\mathbf{u}_{\text {org }}$ は, $\mathrm{S}$ の上 2 つのスパンが同じ段落/文に存在するか,隣接する段落/文に存在するか, $\mathrm{S}$ の一番上のスパンと $\mathrm{Q}$ の先頭の $\mathrm{EDU}$ が同じ段落/文に存在するか,それぞれのスパンが文書/段落/文の先頭/木尾であるかを 2 值ベクトルとして表現したものである. ## 2.3 下向き解析法 下向き解析器として Kobayashi ら [4] の再帰的スパン分割法を用いた解析器を採用する.この解析器は,文書全体をあらわすスパンから始め貪欲に 2 分割していき,分割したスパン間のラベルを推定することで下向きに修辞構造木を構築する。なお, Kobayashi らの手法は文書-段落,段落-文,文-EDU という 3 つの階層で独立に解析を行った後それらを統合することで木を構築するが,上向き解析器と近い状態で比較するため, 本稿では,階層化は行わず上向き解析器と同様にスパンがどの階層に存在するかを 2 值べクトルとして表現して利用する. $i$ 番目から $j$ 番目の EDU からなるスパンを $k$ 番目の EDU で分割するスコアは以下の式で定義される. $ \begin{aligned} s_{\text {split }}(i, j, k)= & \mathbf{h}_{i: k} \mathbf{W} \mathbf{h}_{k+1: j}+\mathbf{v}_{\text {left }} \mathbf{h}_{i: k}+\mathbf{v}_{\text {right }} \mathbf{h}_{k+1: j} \\ & +\mathbf{v}_{\text {org }} \mathbf{h}_{\text {org }} \end{aligned} $ ここで, $\mathbf{W}$ は重み行列, $\mathbf{v}_{\text {left }}, \mathbf{v}_{\text {right }} \mathbf{v}_{\text {org }}$ は重みベクトル, $\mathbf{h}_{i: k}, \mathbf{h}_{k+1: j}, \mathbf{h}_{\text {org }}$ は以下の式で定義される. $ \begin{aligned} \mathbf{h}_{i: k} & =\mathrm{FFN}_{\text {left }}\left(\mathbf{u}_{i: k}\right), \\ \mathbf{h}_{k+1: j} & =\mathrm{FFN}_{\text {right }}\left(\mathbf{u}_{k+1: j}\right), \\ \mathbf{h}_{\text {org }} & =\mathrm{FFN}_{\text {org }}\left(\mathbf{u}_{\text {org }}\right), \end{aligned} $ ここで, $\mathbf{h}_{\mathrm{org}}$ は上向き解析と同様, 左右のスパンが同じ段落/文に存在するか, 文/段落の開始か終了などを表す 2 値ベクトルである. そして,以下の式でスパンの分割を決定する。 $ \hat{k}=\underset{i \leq k<j}{\operatorname{argmax}} s_{\text {split }}(i, j, k) $ 分割と同様に,スパンのラベルを推定するスコアは以下の式で定義される。 $ \begin{aligned} s_{\text {label }}(i, j, \hat{k}, \ell)= & \mathbf{h}_{i: \hat{k}} \mathbf{W}^{\ell} \mathbf{h}_{\hat{k}+1: j}+\mathbf{v}_{\text {left }}^{\ell} \mathbf{h}_{i: \hat{k}}+\mathbf{v}_{\text {right }}^{\ell} \mathbf{h}_{\hat{k}+1: j} \\ & +\mathbf{v}_{\text {org }}^{\ell} \mathbf{h}_{\text {org }}, \end{aligned} $ ここで, $\mathbf{W}^{\ell}$ は特定のラベル $\ell$ に対応する重み行列, $\mathbf{v}_{\text {left }}^{\ell}, \mathbf{v}_{\text {right }}^{\ell}, \mathbf{v}_{\text {org }}^{\ell}$ はそれぞれ $\ell$ 対応する重みべクト ルである. そして,以下の式を最大にするラベル $\hat{\ell}$ を, $\hat{k}$ で分割した 2 つのスパンに対するラベルとする.上向き解析器と同様,核性推定時は, N-S, S-N,N-N のいずれか,修辞関係推定時には 18 種のラベルのいずれかを与える. $ \hat{\ell}=\underset{\ell \in \mathscr{L}}{\operatorname{argmax}} s_{\text {label }}(i, j, \hat{k}, \ell) . $ ## 3 事前学習済み言語モデル 本稿ではスパンのベクトル表現を得るために,以下に説明するトランスフォーマに基づく 5 種の事前学習済み言語モデルを試し,性能を比較する。 BERT[10] はランダムにマスクされたトークンを前後の文脈から推定する Masked Language Model (MLM) と 2 つの文が連続しているかどうかを推定する Next Sentence Prediction (NSP) の 2 つの目的関数により学習される双方向型の言語モデルであり,学習には13GB のテキストが用いられる。 RoBERTa[11] は BERT を MLM のみで,より大きなテキスト (160GB)を用いて長時間学習することでさらに性能を向上させた言語モデルである. XLNet[8] は単方向言語モデルであるが,attention のマスクを改善し擬似的に語順を入れ替え,双方向言語モデルと同様に前後の文脈を考慮できる Permuted Language Model (PLM) を目的関数としている. SpanBERT[9] は BERT と同じデータセットで学習されるが,MLM のみを学習の目的関数とし,マスクする単位を個々のトークンではなく連続するトー クン (スパン)へと変更している. DeBERTa[12] は各トークンの埋め込みとその位置情報の埋め込みの関係をより強く学習するために Distangled attention を導入した。さらに,SpanBERT と同様,マスクの単位は個々のトークンではなく連続したトークンである. DeBERTa の学習に用いるコーパスは RoBERTa よりも小さく 78GB であるが様々なベンチマークで RoBERTa を上回る性能を達成している. ## 4 実験設定 本稿では RST-DT[13] をべンチマークとして実験を行った. RST-DT は Wall Street Journal から収集されており,学習データ 347 文書,テストデータ 38 文書から構成される。開発データは Heilman ら [14] に従い学習データのうちの 40 文書とした。過去の研究にならい修辞構造ラベルには 18 種類からなる大分類を用い,修辞構造木は二分木へと事前に変換して解析器の学習,評価を行う. 本稿では正解の EDU 分割を用いるため,先行研究 [15] に従い Standard Parseval を用いて評価する.木の構造のみを評価する Span,核性または修辞関係ラベルも含めて評価する Nuc. および Rel., 双方のラベルも含めて評価する Full の計 4 通りの評価尺度により評価する。 上向き,下向きの両解析法に使用した FFN は,活性化関数に GeLU を用い,隠れ状態の次元数が 512 次元の 2 層の MLP とした. 過学習を抑制するために,FFN の dropout 率を 0.2,勾配クリッピングの値を 1.0,L2 正則化の係数を 0.01 とした. ミニバッチは文書ではなくスパン(上向き解析であればシフトまたは還元の操作,下向き解析であればあるスパンの分割)を単位に構成し,サイズは 5 とした。パラメータは AdamW[16] で最適化し,言語モデルの学習率は 1e-5,それ以外に関しては 1e-5/2e-5 から開発データを用いて選択した。また,学習率スケジュー ラを用いて,1 エポック目は学習率を 0 から増加させ,それ以降は学習率を 0 へと線形に減少させた。最大のエポック数は 20 としたが,エポック毎の開発データによる Full の評価値が最高値を 5 回連続で下回った場合は早期に学習を打ち切った。 比較対象としては,RST-DT における最高性能を達成した Zhang らの方法 [6] を採用する。この手法は,エンコーダ・デコーダモデルに基づく下向き解析戦略,XLNetを利用したスパンのベクトル表現,敵対学習を用いたパラメタ最適化法を利用しており,本稿で提案する手法よりもパラメタが多く複雑な手法である。 ## 5 実験結果と考察 実験結果を表 1 に示す。提案法を解析戦略で比較すると Span の場合,下向きが上向きよりも良い傾向にあるが,その差はわずかである. Rel の場合,上向きが下向きよりも良い傾向にあり, Full で比較するとやや上向きが良いがほぼ同等といって良い性能である. 事前学習済み言語モデルによる性能差を比較すると双方の解析戦略とも BERT が最も悪く,DeBERTa が最も良い。特に BERTを用いた場合,他の事前学習済み言語モデルを利用したときより 5 ポイント以上の性能劣化がみられる. Koto ら [5] も BERT 表 1 解析戦略および言語モデルの比較. 各指標で最も高い数値を太字は示す. スコアは 3 回の試行の平均値である。 を利用すると GloVe[17] よりも性能が劣化することを報告しており,この結果と合致する。 BERT は 13G のデータで学習されており, 今回用いた事前学習済み言語モデルのなかでは SpanBERT とともに最も訓練データのサイズが小さい。事前学習済み言語モデルの訓練に使ったデータのサイズと解析性能が相関するのであれば RoBERTa が最も良いはずである.しかし,それよりも訓練データサイズの小さいXLNet,DeBERTaの方が成績が良いこと, BERT と同じ学習データを用いているにもかかわらず SpanBERT が RoBERTa よりもやや劣る程度の性能を達成していることからデータサイズだけでなく, 事前学習済み言語モデルの学習時の目的関数も重要であることが分かる.XLNet は PLM という語順を意識した特殊な目的関数を採用しておりこれが有効であったと考える。一方,SpanBEERT がデー タサイズが小さいにもかかわらず RoBERTa に匹敵する性能を達成したこと,DeBERTaが最も良い性能を達成したことを勘案すると MLM において,トー クンではなく連続したトークン,スパンをマスキングすることが有効であると考える. Zhang らの手法と比較すると,BERTを除くほぼすべての手法が上回っており,DeBERTaを用いると Zhang らの手法よりも 2 ポイント近いゲインが得られている。つまり, 事前学習済み言語モデルを適切に選択すれば現存する単純な手法であっても世界最高性能を達成できることを示している. Zhang らの手法は我々の手法よりも高度な技術を採用しているが,なぜこの程度の性能しかでていないのかは不明である. 我々の手法をベースラインとして,我々の手法の 表 2 チェックポイント重み平均 (CWA) とパラメタを増やした事前学習済み言語モデル (large) を導入した場合の評価結果. スコアは 3 回の試行の平均值である. 上にパラメタ最適化の新しい技術,新しい探索アルゴリズムなどを導入すると,高い解析性能を保ちながら新しい技術の貢献を評価できるようになると考える。 さらに,簡単な技術を用いてさらなる性能向上が可能かを,チェックポイント重み平均 $[18,19]$ の導入,事前学習済み言語モデルのパラメタを増加させることで検証した.DeBERTaを利用した上向き,下向き解析器に双方の技術を組み込んだ結果を表 2 に示す。それぞれの技術を導入すると Full で約 1 ポイント程度の性能向上が得られるが,双方を同時に導入すると 2.5 ポイント以上もの性能向上が得られる. 最終的には上向きで Zhang らの手法より 4 ポイント,下向きで 4.5 ポイントの大きなゲインが得られている。つまり,我々の方法にはまだまだ改善の余地が残っており,新しい技術でさらなる性能向上が見达めることを示している. ## 6 まとめ 本稿では,技術の進歩を明らかにするためのべー スライン修辞構造解析器を構築するため, 既存の上向き,下向き解析戦略に対し,5 種の事前学習済み言語モデルを組み合わせることでどの程度の性能が得られるかを検証した。その結果,解析戦略とは関係なく,RoBERTa,XLNet,DeBERTaを用いると既存の解析器を上回る性能が得られた. 特に, SpanBERT が訓練データ量が少ないにも関わらず良い性能を達成したこと,DeBERTaが最も良い成績であったことから,MLM においてトークンではなくスパンのマスキングが有効であることが分かった. チェックポイント重み平均の導入や事前学習済み言語モデルのパラメタを増やすことでさらに性能が向上することも分かった. ## 謝辞 本研究の一部は JSPS 科研費 JP21H03505 の助成を 受けたものです. ## 参考文献 [1] W.C. Mann and S.A Thompson. Rhetorical structure theory: A theory of text organization. Technical Report ISI/RS-87-190, USC/ISI, 1987. [2] Yizhong Wang, Sujian Li, and Houfeng Wang. A twostage parsing method for text-level discourse analysis. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 184-188, Vancouver, Canada, July 2017. Association for Computational Linguistics. [3] Grigorii Guz and Giuseppe Carenini. Coreference for discourse parsing: A neural approach. In Proceedings of the First Workshop on Computational Approaches to Discourse, pp. 160-167, Online, November 2020. Association for Computational Linguistics. [4] Naoki Kobayashi, Tsutomu Hirao, Hidetaka Kamigaito, Manabu Okumura, and Masaaki Nagata. Top-down rst parsing utilizing granularity levels in documents. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, No. 05, pp. 8099-8106, Apr. 2020. [5] Fajri Koto, Jey Han Lau, and Timothy Baldwin. Top-down discourse parsing via sequence labelling. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 715-726, Online, April 2021. Association for Computational Linguistics. [6] Longyin Zhang, Fang Kong, and Guodong Zhou. Adversarial learning for discourse rhetorical structure parsing. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 3946-3957, Online, August 2021. Association for Computational Linguistics. [7] Ke Shi, Zhengyuan Liu, and Nancy F. Chen. An endto-end document-level neural discourse parser exploiting multi-granularity representations. 2020. [8] Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Russ R Salakhutdinov, and Quoc V Le. Xlnet: Generalized autoregressive pretraining for language understanding. In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'AlchéBuc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc., 2019. [9] Mandar Joshi, Danqi Chen, Yinhan Liu, Daniel S. Weld, Luke Zettlemoyer, and Omer Levy. SpanBERT: Improving pre-training by representing and predicting spans. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 64-77, 2020. [10] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [11] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. ArXiv, Vol. abs/1907.11692, , 2019. [12] Pengcheng He, Xiaodong Liu, Jianfeng Gao, and Weizhu Chen. Deberta: Decoding-enhanced bert with disentangled attention. In International Conference on Learning Representations, 2021. [13] Mary Ellen Okurowski Lynn Carlson, Daniel Marcu. RST Discourse Treebank. Philadelphia: Linguistic Data Consortium, 2002. [14] Michael Heilman and Kenji Sagae. Fast rhetorical structure theory discourse parsing. CoRR, Vol. abs/1505.02425, , 2015. [15] Mathieu Morey, Philippe Muller, and Nicholas Asher. How much progress have we made on RST discourse parsing? a replication study of recent results on the RST-DT. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1319-1324, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [16] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. In International Conference on Learning Representations, 2019. [17] Jeffrey Pennington, Richard Socher, and Christopher D. Manning. Glove: Global vectors for word representation. In Empirical Methods in Natural Language Processing (EMNLP), pp. 1532-1543, 2014. [18] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [19] Hugh Chen, Scott Lundberg, and Su-In Lee. Checkpoint ensembles: Ensemble methods from a single training process. 2017.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH4-11.pdf
# 要約の生成過程を考慮した弱教師あり学習による 生成型要約のエラー検出 高塚雅人 1 小林 哲則 1 林 良彦 1 1 早稲田大学 理工学術院 takatsuka@pcl.cs.waseda.ac.jp ## 概要 近年,自動要約において,生成された要約に含まれている事実関係のエラーの検出が大きな課題となっている.既存研究では,人工的に要約のエラー を再現したデータセットを作成し,エラー検出モデルを学習する手法が提案されている。本研究では,文融合と文圧縮モデルを用いて,生成型要約モデルの文生成過程を模倣したデータセットの作成手法と,フレーズレベルのエラー検出と文レベルの原文書の根拠箇所の同定をマルチタスクで学習する SumPhrase モデルを提案する. 複数のデータセットを用いた実験結果から,提案手法によるエラー検出と根拠文同定の精度向上を確認した。 ## 1 はじめに 近年, 生成型要約モデル $[1,2]$ の精度が向上し, より流暢で読みやすい文を生成することが可能になったが,生成された要約に事実関係のエラーが含まれており,原文書との整合性が取れていないという問題が指摘されている [3]. また,ROUGE[4] などの要約の評価指標として一般的に用いられている手法では,要約の事実関係の整合性を評価するのは困難であるため $[5,6]$, 要約の事実関係の整合性の自動評価手法が近年研究されている. 要約の事実関係の整合性の評価の既存手法として, 人工的に要約のエラーを再現したデータセットを作成する手法 $[7,8]$ が提案されている. このアプローチでは,人工的に生成したエラーと生成型要約モデルが実際に生成するエラーの分布が似ていることが重要になるが,既存のエラーの生成手法では,生成型要約モデルが生成するエラーを再現できていないことが指摘されている [9]. そこで本研究では,人工的に生成するエラーを生成型要約モデルが生成するエラーに近づけるために,生成型要約モデルの 図 1 提案手法の概要図 文生成過程を模倣した人工的なデータセット作成手法を提案する.また,整合性の評価のモデルを実際に用いる上で,要約内のエラー箇所の提示と,原文書内の根拠箇所の提示は有益であると考えられるので [7],要約のフレーズレベルのエラー検出と原文書の文レベルの根拠箇所の同定をマルチタスク学習として行うことを提案する。 提案手法の概要を図 1 亿示す. 要約のデータセットとして一般的に用いられている CNN-DailyMail データセット [10] では,参照要約のうち大部分が単一の文の文圧縮と二文の文融合で生成されている [11].そこで本研究では,原文書から一文または二文を選択し,一文の場合は文圧縮,二文の場合は文融合モデルに入力して,要約の一部となりうる文 (以下,生成文と呼ぶ)を作成する。その後,生成文に対する弱教師ラベリングを行うことで,人工的なデータセットを構築することを提案する。また,弱教師ラベリングの際は,既存手法 [8] で提案された生成文に対する依存関係アークレベルの事実関係の整合性のラベリングを拡張し,フレーズレベルのラベリングを行う。 さらに,原文書から選択した文 (文圧縮,文融合モデルへの入力文)を正解ラベルとして,原文書側の根拠箇所の学習を行う。 ## 2 関連研究 要約の事実関係の整合性の評価の既存手法として,要約生成時のエラーを再現するように人工的に エラーを生成し, 作成した弱教師ラベルを用いてモデルを学習する手法が提案されている. エラー の生成手法には, ルールベースのテキストの変換 $[7,12,13]$ や, 生成型モデルを用いた手法 $[8,9]$ などが提案されている. Kryscinski ら [7] は,エンティティの置換や文否定によってエラーを生成した。 Goyal ら [8] は, 生成型モデルの出力のうち, 事後確率が低い文 (beam search の下位の文) は, 事後確率が高い文よりも品質が低く, エラーが出やすいと仮定した. そのうえで,事後確率が低い文に新しく出現した依存関係アークに対して,エラーであるとラべリングを行った。 本研究では,生成型モデルを用いた手法 $[8,9]$ を踏襲して人工的なデータを作成するが,パラフレー ズモデルのみを用いていた既存手法 [9] に加えて,文融合,文圧縮モデルを用いて,文を生成し,弱教師ラベリングを行う.また,文または依存関係アー ク単位で整合性の評価を行っていた既存研究とは異なり,フレーズレベルの整合性の評価を提案する。要約の整合性の評価と原文書の根拠箇所のマルチタスク学習は既存研究 [7] でも同様に行われていたが,単一のスパンしか学習できない既存手法とは異なり, 提案手法では, 文レベルのマルチラベル問題として解くことで,原文書中の複数箇所を根拠として学習することができる. ## 3 提案手法 本章では, 3.1 節で人工的に学習データを生成する手法を説明し, 3.2 節でフレーズレベルの整合性の学習と根拠文同定のマルチタスク学習を行うモデルを説明する。 ## 3.1 人工的なデータセットの構築 提案手法では,フレーズレベルの要約の整合性の弱教師ラベルと文レベルの原文書の根拠文ラベルを作成する。提案手法では,まず,文選択において,生成型モデル (文融合, 文圧縮モデル)への入力となる文を選択する. その後, 選択した文を生成型モデルに入力し, 生成文を作成する. この時, 生成型モデルへの入力文を生成文の根拠箇所とみなし, 根拠文ラベルを作成する. また Goyal らの手法 [8] を用いて,生成文に対し,依存関係アークレベルで事実関係の整合性の弱教師のラベルを付与する. 既存研究では,このラベルを用いて,アークレベルで整合性の評価を行っていたが,本研究では,より広い文脈を明示的に利用できるフレーズレベルの整合性の評価を行うために,アークレベルのラベルからフレーズレベルのラベルを構成し,学習することを提案する. 文選択 文選択では, $\mathrm{n}$ 文からなる原文書 $D=\left[s_{1}, s_{2}, \ldots, s_{n}\right]$ から生成型モデルへの入力文を選択する. 具体的には,CNN/DM データセットを基にした文融合のデー タセット [14] と文圧縮のデータセット [15]を使用した. 各データセットは参照要約文に対して最も ROUGE スコアが高い原文書の文を選択する (文圧縮の場合は一文,文融合の場合は二文)ことで作成されている. また,原文書から選択した文を根拠文として,原文書の各文に根拠文ラベルを振る。 ## 依存関係アークレベルのラベリング 文選択において選択した文を各モデルに入力し,生成文を作成する (文融合モデルと文圧縮モデルの詳しい設定は後述する). その後, 生成文に対して,依存関係アークレベルの整合性のラベリングを行う。まず,CoreNLP[16] を用いて,生成文に対する依存構造木を得る. 文融合モデルの生成文の依存関係アークに対しては, Goyal らの手法 [8] を用いて,ラベリングを行う. Goyal らの手法では, 生成型モデルの出力のうち, 事後確率が低い文 (beam search の下位の文) は,事後確率が高い文 (beam search の上位の文)よりも事実関係のエラーが出やすく,そのような文に新しく出現した情報は,エラーである可能性が高いと仮定し,inconsistent ラベルを振る. 同様に,事後確率が低い文のアークに対して,入力文や参照要約に同一のアークが存在する場合,そのアークは大力文によって含意されるとして consistent ラベルを振る. 文圧縮では,要約の文法性と整合性を維持したまま,文中の重要でない節を取り除くことが可能であり,事実関係のエラーが発生しづらいと考えられる. そこで本研究では, 文圧縮モデルの生成文の依存関係アークに対して,入力文や参照要約に同一のアークが存在する場合,そのアークは入力文によって含意されるとして consistent ラベルのみを作成した. ## フレーズレベルのラベリング 次に,作成したアークレベルの事実の整合性のラベルからフレーズレベルのラベルを作成する。まず,生成文の依存構造木に基づいて,ルールベースでフレーズを作成する.具体的には,各アークの依 図 2 提案モデルの概要図: 緑枠が根拠文同定,青枠がフレーズ内の事実の整合性,赤枠がフレーズ間の事実の整合性を学習する部分である 存関係ラベルに基づいて,その係り元と係り先の単語をマージするかを決定し,フレーズを作成する。 その後,各アークの整合性のラベルに対して,アー クの係り元と係り先の単語が同じフレーズに存在する場合はフレーズ内ラベルとして,別のフレーズに存在する場合はフレーズ間ラベルとしてフレーズレベルの整合性のラベルを作成する.フレーズ内/間に複数のアークレベルのラベルが存在する場合,一つでも inconsistent ラベルがある場合はフレーズレベルを inconsistent ラベルとし, 全てのアークラベルが consistent ラベルの場合のみ,フレーズレベルを consistent ラベルとした. 追加データ 追加のデータとして,既存研究 [9] で作成されたパラフレーズモデルを利用したデータを用いた. 本研究では,他のデータと同様に,アークレベルのラベルをフレーズレベルのラベルに変換して利用した. また, consistent ラベルのフレーズの表現を増強するため, 参照要約文の各フレーズに対して, consistent ラベルを振ったデータを追加した. ## 3.2 提案モデル (SumPhrase) 図 2 に提案する事実関係の整合性の評価モデル (SumPhrase) を示す. モデルは, 原文書 $D$ と生成文 $h$ を入力とし,フレーズレベルの事実関係の整合性のラベル $y^{e}$ と文レベルの根拠文ラベル $y^{s}$ を学習する. まず,原文書と生成文の間に特殊トークン [CLS] で挟んで結合する.結合した文章を事前学習済みの encoder に入力し,文脈を考慮した各トークンのベクトルと生成文の表現を表す [CLS]トークン の出力を得る. その後, 各フレーズの表現と原文書の各文の表現を span attention[17]を用いて計算する.計算したフレーズの表現 $h^{p}$ を用いて,フレーズ内とフレーズ間の事実の整合性の確率を計算する.フレーズ内の場合は,各フレーズの表現 $h_{i}^{p}$ をそのまま全結合層に通して,フレーズ内にエラーがある確率 $p\left(y_{i}^{e} \mid p_{i}\right)$ を計算する. $ p\left(y_{i}^{e} \mid p_{i}\right)=\operatorname{softmax}\left(\mathrm{FFN}_{\text {intra }}\left(h_{i}^{p}\right)\right) $ フレーズ間の場合は,二つのフレーズの表現 $h_{i}^{p}, h_{j}^{p}$ を結合して,全結合層に入力し,フレーズ間にエラーがある確率 $p\left(y_{i j}^{e} \mid p_{i}, p_{j}\right)$ を計算する. $ p\left(y_{i j}^{e} \mid p_{i}, p_{j}\right)=\operatorname{softmax}\left(\mathrm{FFN}_{\text {inter }}\left(\left[h_{i}^{p} ; h_{j}^{p}\right]\right)\right) $ 根拠文の同定は, 原文書の各文の表現 $h_{i}^{s}$ と [CLS] トークンの表現 $h^{c l s}$ と結合して, 各文が根拠文である確率 $p\left(y_{i}^{s} \mid s_{i}\right)$ を計算する. $ p\left(y_{i}^{s} \mid s_{i}\right)=\operatorname{softmax}\left(\operatorname{FFN}_{s}\left(\left[h_{i}^{s} ; h^{c l s}\right]\right)\right) $ 最終的に各出力から binary cross-entropy loss を計算し,モデルの目的関数とする. $ \text { Loss }=\operatorname{Loss}_{i n t r a}+\operatorname{Loss}_{i n t e r}+\alpha * \operatorname{Loss}_{s} $ Loss $_{\text {intra }}$ がフレーズ内の事実の整合性の目的関数, Loss $_{i n t e r}$ がフレーズ間の事実の整合性の目的関数, $\operatorname{Loss}_{s}$ が根拠文同定の目的関数である。 $\alpha$ は,根拠文同定タスクの目的関数の重みを決定するハイパー パラメータである. ## 4 実験 ## 4.1 実験設定 要約のベンチマークのデータセットとして用いられている CNN/DailyMail データセット [10]を用いて実験を行った。 3.1 節の手法を用いて人工的なデータセットを作成し,モデルを学習した. 文融合モデルは,Trans-LINKING[18] を,文圧縮モデルは, CUPS[15] を用いた.それぞれ筆者らが公開している事前学習済みモデルを用いた。作成したデータセットの統計情報を AppendixA に示す. テストデータには,人手でアノテーションされている K2020[7] と Reranking Summary task[5] を用いた. K2020 のテストデータには,ポジティブサンプルが 441 個,ネガティブサンプルが 62 個含まれている. Reranking Summary task のデータセットには,原文書と 2 つの要約文のペアが 373 ペア含まれてい 表 1 要約の整合性評価の実験結果 る. 2 つ要約文は似たような表現でありながら、一方はポジティブサンプルで,もう一方はネガティブサンプルとなっている.評価指標として,K2020 には balanced accuracy (BA) と macro F1 を,Reranking Summary task にはモデルがポジティブサンプルを正しく選択できた割合を用いた。 提案モデルである SumPhrase の encoder には,事前学習済みの Electra-base[19]を用いた. ## ベースライン 人工的に弱教師ラベルを作成し, 要約の事実関係の整合性の評価モデルを学習する手法を比較対象として用いた. FactCC[7], SumFC[12], FactAdv[20] では,ルールベースのテキスト変換でネガティブサンプルを作成し, 文レベルのラベルで学習を行う。 Electra-DAE[9] では, 本研究でも追加データとして用いた,パラフレーズモデルを利用したデータセットで学習を行う. Electra-DAE は, 文レベルではなく,依存関係アークレベルのラベルで学習を行う。 ## 4.2 実験結果 実験結果を表 1 に示す. 表中の Electra-DAE (ours) は,提案したデータセットにおいて,アークレベルのラベルで学習した場合の結果を示す. 表 1 から,既存の人工的なデータセットで学習した手法と比較して,提案したデータセットで学習したモデルは, アークレベルとフレーズレベルの両方で精度が向上しており,提案手法の有効性が確認された. 文融合や文圧縮時のデータを追加することでより多様な要約のエラーを学習することが可能になったと考えられる。また,アークレベルからフレーズレベルにラベルを拡張することで, Reranking summary task 以外の精度が向上した.このことから,明示的に広い文脈を用いることができるフレーズレベルの整合性の判定の有効性が確認された. さらに,根拠文同定の タスクを追加することで,どちらのデータセットでも精度向上が見られた。 ## 4.3 根拠文同定の精度 補助タスクとして追加した根拠文同定タスクの精度を確認するために, Reranking Summary task のデータを用いた。ベースラインとして,tf-idxを用いて根拠文を判定するSumFC[12] と根拠スパンを予測する FactCCX[7]を用いた. 評価指標には balanced accuracy (BA) と macro F1を用いた。実験結果を表 2 に示す. 表 2 根拠同定の実験結果 表 2 から,提案モデルがベースラインよりも高い精度で根拠文を同定できていることがわかる。また,根拠文の同定では提案モデルとベースラインの差は小さいが (BA で SumFC と 2.1\%の差), reranking の精度の差が非常に大きくなっている (SumFC と 7.3\%の差).このことから, ベースラインでは, 要約文に対応する原文書の文を正しく推定できているのにもかかわらず,要約の事実関係の整合性の評価が正しくできていないことがわかる. ## 5 まとめ 要約の事実関係の整合性の評価のための人工的なデータセットの構築手法と,フレーズレベルの整合性の学習と原文書の根拠文同定のマルチタスク学習を提案した. 文融合,文圧縮モデルを用いて人工的に生成したフレーズレベルのラベルを用いることで,弱教師ラベルを用いた既存手法を上回る精度を達成した. また,提案手法である文レベルの根拠箇所の同定によって,他の既存手法よりも高い精度で根拠箇所を予測することが可能となった. 今後の課題として,今回提案した人工的なエラーの作成手法を,対照学習を用いた要約生成手法 [21] に適応し, より原文書に忠実な要約生成を行うことなどが考えられる。 ## 参考文献 [1] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In Proceedings of the 58th ACL, 2020. [2] Jingqing Zhang, Yao Zhao, Mohammad Saleh, and Peter Liu. Pegasus: Pre-training with extracted gap-sentences for abstractive summarization. In International Conference on Machine Learning. PMLR, 2020. [3] Ziqiang Cao, Furu Wei, Wenjie Li, and Sujian Li. Faithful to the original: Fact aware neural abstractive summarization. In Proceedings of the AAAI, 2018. [4] Chin-Yew Lin. Rouge: A package for auto- matic evaluation of summaries. In Text summarization branches out: ACL workshop, 2004. [5] Tobias Falke, Leonardo F. R. Ribeiro, Prasetya Ajie Utama, Ido Dagan, and Iryna Gurevych. Ranking generated summaries by correctness: An interesting but challenging application for natural language inference. In Proceedings of the 57th ACL, July 2019. [6] Wojciech Kryscinski, Nitish Shirish Keskar, Bryan McCann, Caiming Xiong, and Richard Socher. Neural text summarization: A critical evaluation. In Proceedings of the EMNLP-IJCNLP, 2019. [7] Wojciech Kryscinski, Bryan McCann, Caiming Xiong, and Richard Socher. Evaluating the factual consistency of abstractive text summarization. In Proceedings of the EMNLP, 2020. [8] Tanya Goyal and Greg Durrett. Evaluating factuality in generation with dependency-level entailment. In Findings of the EMNLP, 2020. [9] Tanya Goyal and Greg Durrett. Annotating and modeling fine-grained factuality in summarization. In Proceedings of the NAACL, 2021. [10] Ramesh Nallapati, Bowen Zhou, Cicero dos Santos, Çağlar Gulçehre, and Bing Xiang. Abstractive text summarization using sequence-to-sequence RNNs and beyond. In Proceedings of The 20th SIGNLL, 2016. [11] Logan Lebanoff, Kaiqiang Song, Franck Dernoncourt, Doo Soon Kim, Seokhwan Kim, Walter Chang, and Fei Liu. Scoring sentence singletons and pairs for abstractive summarization. In Proceedings of the 57th ACL, 2019. [12] Sen Zhang, Jianwei Niu, and Chuyuan Wei. Fine-grained factual consistency assessment for abstractive summarization models. In Proceedings of the EMNLP, 2021. [13] Meng Cao, Yue Dong, Jiapeng Wu, and Jackie Chi Kit Cheung. Factual error correction for abstractive summarization models. In Proceedings of the EMNLP, 2020. [14] Logan Lebanoff, John Muchovej, Franck Dernoncourt, Doo Soon Kim, Lidan Wang, Walter Chang, and Fei Liu. Understanding points of correspondence between sentences for abstractive summarization. In Proceedings of the ACL: Student Research Workshop, 2020. [15] Shrey Desai, Jiacheng Xu, and Greg Durrett. Compressive summarization with plausibility and salience modeling. In Proceedings of the EMNLP, 2020. [16] Christopher Manning, Mihai Surdeanu, John Bauer, Jenny Finkel, Steven Bethard, and David McClosky. The Stanford CoreNLP natural language processing toolkit. In Proceedings of 52nd ACL: System Demonstrations, 2014. [17] Kenton Lee, Luheng He, Mike Lewis, and Luke Zettlemoyer. End-to-end neural coreference resolution. In Proceedings of the EMNLP, 2017. [18] Logan Lebanoff, Franck Dernoncourt, Doo Soon Kim, Lidan Wang, Walter Chang, and Fei Liu. Learning to fuse sentences with transformers for summarization. In Proceedings of the EMNLP, 2020. [19] Kevin Clark, Minh-Thang Luong, Quoc V. Le, and Christopher D. Manning. ELECTRA: Pre-training text encoders as discriminators rather than generators. In ICLR, 2020. [20] Zhiyuan Zeng, Jiaze Chen, Weiran Xu, and Lei Li. Gradient-based adversarial factual consistency evaluation for abstractive summarization. In Proceedings of the EMNLP, 2021. [21] Shuyang Cao and Lu Wang. CLIFF: Contrastive learning for improving faithfulness and factuality in abstractive summarization. In Proceedings of the EMNLP, 2021. ## A データセットの統計情報 作成したデータセットの統計情報を表 3 に示す.表中の fusion は文融合, comp は文圧縮, para はパラフレーズ, ref は参照要約のデータセットを示す. このデータセットにはフレーズレベルの consistent ラベルが 2,021,592 個,inconsistent ラベルが 191,553 個含まれている. また根拠文同定のラベルは根拠文ラベルが 186,028 個,それ以外が $3,389,275$ 個含まれている. 表 3 作成したデータセット ## B 詳細分析 ## 各データセットの貢献度の検証 作成した各データセットがどの程度精度に貢献しているかを確認するために,文融合のデータセットをベースラインとして, 表 3 の各データセットを追加していき,精度の変化を調べた. モデルには,提案モデルである SumPhrase を用いて,マルチタスク学習は行わなかった。実駼結果を表 4 に示す. 表 4 から,文融合のみのデータを用いた場合でも,K2020 の baranced accuracy $と$ reranking summary task において, 既存の人工的なデータセットで学習した手法を上回る精度を達成している。また,文圧縮,パラフレーズ,参照要約のデータを追加することで,参照要約を追加したときの reranking summary task 以外の全ての評価指標が向上しており,提案手法の有効性が確認された. さらに,参照要約のデー タを追加した際に,K2020における balanced accuracy と $\mathrm{F}$ 値が大きく向上した. このことから, consistent ラベルのフレーズの表現を拡充することも重要であることが分かる. 表 4 各データセットの精度への影響 ## span attention の影響 span attention の影響を調査するために,span attentionの代わりに各トークンのベクトルの平均值をフレーズレベルの表現として用いた場合の結果を示す. 実験結果を表 5 に示す. 表 5 から,span attentionを用いることによって,フレーズ内の意味的に重要な語を重視することができるようになり,各トークンの平均を用いるよりも, balanced accuracy, $\mathrm{F}$ 值共に向上した. 表 5 span attention の影響
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH4-12.pdf
# 曖昧性を含む翻訳に着目した マルチモーダル機械翻訳データセットの構築方法の検討 Yihang Li 清水周一郎 Chenhui Chu 黒橋禎夫 京都大学大学院情報学研究科 \{liyh, sshimizu, chu, kuro\}@nlp.ist.i.kyoto-u.ac.jp ## 概要 翻訳には曖昧性,すなわち原言語の文に対して複数の翻訳が考えられる場合がある.既存のマルチモーダル機械翻訳データセットでは,翻訳の曖昧性を解消するために映像が役立つかどうかは明らかになっていない,そこで本研究では,曖昧性を含む翻訳に着目したマルチモーダル機械翻訳データセットの構築に取り組む.このデータセットは,(1) 原言語の文が曖昧であること (2) 映像が翻訳の曖昧性解消に役立つことの二つの条件を満たす。一つ目の条件を満たすために異なる翻訳をもつ原言語の文を集め,さらに目的言語の文の意味に基づいて選定を行った.二二目の条件を満たすために人手による確認を行った。 ## 1 はじめに マルチモーダル機械翻訳 [1] は,テキスト以外のモダリティを補助的に用いる機械翻訳である.翻訳には曖昧性,すなわち原言語の文に対して複数の意味の翻訳が考えられる場合があるが,テキスト以外のモダリティを活用することによってそうした曖昧性の解消が期待できる. これまでのマルチモーダル機械翻訳の研究では,主に画像が翻訳の曖昧性を保証するための補助的な情報として用いられてきた $[2,3]$. その発展として,近年,映像を用いた機械翻訳 (video-guided machine translation; VMT) の研究が盛んになりつつある $[4,5]$. 映像は画像では捉えられない人・物の動きや時間経過といった情報を含むため,翻訳の曖昧性の解消により効果的であると期待される. 既存の VMT データセットは,原言語の文の曖昧性に着目しているとは言えない.VMT のデータセットの構築方法として,キャプション (映像内容の描写) にもとづく方法 [4] と,字幕 (映像内の話者 の発話の書き起こし)にもとづく方法 [6]がある.現実に VMT を利用する状況,例えば映画の字幕翻訳などの場合,テキストは必ずしも映像の内容を説明している訳ではなく,映像はテキストで伝えられる内容とは別の補助的な情報として用いられる。 そのため,キャプションにもとづくデータセットは実用的な観点から問題がある。また,キャプションには曖昧性が存在しないため,キャプションの翻訳は必ずしも視覚情報を必要としないという報告もある [7]. 字幕にもとづくデータセットでも,曖昧性には特に注目せず,一般的な字幕を扱ったものしか存在しない. 本研究では, 原言語の文が曖昧性を含む日英 VMT データセットの構築に取り組んでいる。このデータセットは,(1) 原言語の文が曖昧であること (2) 映像が翻訳の曖昧性解消に役立つことの二つの条件を満たす. 一つめの条件を満たすため,まず原言語 1 文に対して翻訳が複数存在するものを集める。ここで,原言語 1 文と複数の翻訳文の集まりを対訳セットと定義する。次に,収集した対訳セットから目的言語の文間の意味が違うもののみを選定する。二つめの条件を満たすためには人手による確認を行う。 選定された対訳セットの例を図 1 に示す。「放せ!」という日本語に対し,“Let me go!”と “Drop it!”の 2 通りの翻訳があり,テキストだけからはどちらが正しい翻訳か判断できない。映像を見ると,上の例では人が人を引っ張っており,下の例ではナイフを持った男が争っていることから,正しい翻訳を決定できる。 本稿では,曖昧性に着目した VMT データセットの構築手順を説明する。さらに,データセットの一部について,データの分析及び予備実験の結果を報告する. 図 1 選定された対訳セットの例.「放せ!」という日本語に対し,“Let me go!”と “Drop it!”の 2 通りの翻訳の可能性がある.映像を見ると,上の例では人が人を引っ張っており,下の例ではナイフを持った男が争っていることから,対応する翻訳を決定できる。 ## 2 関連研究 ## 2.1 マルチモーダル機械翻訳 マルチモーダル機械翻訳では,異なるモダリティの情報が入力データの異なる見方を与えると仮定して,複数のモダリティの情報を用いて翻訳を行う [8]. 先行研究の多くは画像を用いた機械翻訳 $[1,9,10]$ である. 映像の有用性は特定のデータセットやタスクで議論されており [11,7], 類似していない言語対では文法的な特徴を捉えたり翻訳の曖昧性を解消したりするのに映像が役立つ可能性がある [8]. ## 2.2 VMT データセット VMT のデータセットとして VaTeX [4] と How2 [6] がある. VaTeX は既存の映像データセットに対し英語と中国語でキャプションを付けたデータセットである. VaTeX はキャプションのデータセットであり,VMT を用いる現実的なシナリオを考えにくい. How2 は YouTube から集められた教育ビデオに,その英語字幕と対応するポルトガルとの翻訳,及び映像の英語の要約が付けられたデータセットである. いずれのコーパスもテキストに曖昧性がないため,翻訳に必ずしも視覚情報を必要としない点が本研究と異なる。 ## 3 データセット構築手順 原言語に曖昧性を含む日英の VMT データセットを構築する手順は以下の通りである。まず,既存の字幕データセットである OpenSubtitles [12] の日英の字幕から対訳セットを集める。さらに, Sentence-BERT によって対訳セット内の複数の英語訳の意味が異なるかどうかを判定し, 対訳セット の選定を行う.次に,字幕に対応する映画やテレビの映像を切り取る. 最後に,人手で字幕と映像をチェックし,字幕に曖昧性があり映像によりそれが解消できることを確認する. ## 3.1 対訳セットの収集 OpenSubtitles は映画やテレビのデータから収集された大規模な字幕のデータセットで,計 60 言語にわたる 26 億文の字幕がある. 本研究ではこのうち $1,213,468$ 文からなる日英の対訳データを用いる.日本語を原言語として選んだのは,日本語がプロドロップ言語であり,曖昧性を原言語に含むデータセットを作成する上で適当であると考えたためである.また, OpenSubtitles では各映像に対し $\mathrm{IMDb}^{1)}$ の ID が付けられており,映像の情報を得ることができる. 字幕もこの ID に基づいて分類されている.翻訳の曖昧性を確保するために,原言語 1 文と複数の翻訳文の集まりである対訳セットごとに字幕をまとめる. ## 3.2 目的言語の文間の類似度を利用した対訳セットの選定 複数の目的言語の翻訳が存在するだけでは,原言語の文が曖昧性を含むことにはならない。それらが単に表現として違っているだけで,意味的には同じである可能性があるからである. そこで,各対訳セット内の目的言語の文同士の類似度を Sentence-BERT [13] を用いて計算し, 類似度の閾値を設定して,閾值よりも類似度が小さい (すなわち意味の異なりが大きい) 対訳セットのみを残すことで曖昧な文を含む対訳セットの選定を行う。ここで, 1 対訳セット内に 3 文以上の目的言語の文が含まれる場合には,全ての文の組み合わせについて類似度を計算し,最も類似度の小さいものをその対訳  図 2 字幕のアライメントの手順. 映像に字幕がついている場合 (上側) とついていない場合 (下側) で手順を分ける. セットの目的言語文間の類似度として用いる. ## 3.3 字幕と映像のアライメント OpenSubtitles の字幕にはその表示時刻の始まりと終わりを示すタイムスタンプがついているが,それらは必ずしも映像のタイムスタンプと一致しているわけではない. OpenSubtitles で用いられた映像と本研究で用いた映像でフレームレートに差があったり,定数時間のずれが生じていたりする場合があるからである.そこで,OpenSubtitles の字幕と使用する映像の間でタイムスタンプのアライメントをとる必要がある. なお, OpenSubtitles の字幕では原言語と目的言語それぞれにタイムスタンプがついているが,それらは概ね一致しているため,例外は手作業で取り除いて英語のタイムスタンプを OpenSubtitles のタイムスタンプとする。 アライメントの手順を図 2 に示す. アライメントには Alass ${ }^{2}$ (Automatic Language-Agnostic Subtitle Synchronization) というツールを用いる. 映像に付けられた字幕には,容易に字幕を抽出できる場合と,字幕がついていない (但し OpenSubtitles には対応する字幕がある) 場合がある。なお,映像に字幕が埋め込まれているような映像は使用しない. 字幕が抽出できる場合には, FFmpeg3) を用いて映像から字幕を抽出し, Alass を用いて OpenSubtitles の字幕とのアライメントを取る. このアライメントはかなり正確に行うことができる (Alass の論文内の実験では 100\% 正確であったと主張されている). 字幕がついていない場合には, Alass の音声区間検出をべースにした手法で映像と OpenSubtitles の字幕のアライメントを取ることで字幕を得る. この場合,抽出された字幕のタイムスタンプは必ずしも正確でないた  3) https://ffmpeg.org/ 図 3 対訳セットを含まれる目的言語の文数にもとづき分類した結果. め,アライメントが正しくできているかどうかを人手で確認する. ## 3.4 映像の分割 字幕と映像のアライメントに基づき,映像を分割する.各映像は字幕のタイムスタンプの区間の中央値の前後 5 秒間をとって 10 秒間とし, $25 \mathrm{fps}$ の mp4 ファイルとする.なお,集められた映像についた音声の多くは目的言語の英語であり,音声がついていると翻訳文が音声認識で得られることになってしまうため,映像から音声は取り除く。 ## 4 データの分析及び予備実験 データセット構築手順において, 対訳セットの選定はデータセットの質に大きく関わる。本章では,収集・選定した対訳セットのデータの統計と予備実験結果を示す. ## 4.1 対訳セットの収集 対訳セットを,含まれる目的言語の数にもとづき分類した結果を図 3 に示す. 全部で 35,023 の対訳セットが得られた. 2 文のみ目的言語の文を含む対訳セットが最も多く, 対訳セット数で見ると全体の $59 \%$ ,文数では全体の $30 \%$ を占めていた. 3 文以上の目的言語の文を含む対訳セットについては,2 文のみのものに比べて曖昧性を含む対訳が含まれる割合は高かったが,文の長さが短いものが多く含まれていた. ## 4.2 対訳セットの選定のための人手評価 データセットの作成 対訳セットの選定のための目的言語の文間の類似度の閾値を設定するため,まず人手で 100 個の対訳セットを選んで曖昧さの正解を与えた. 対訳セットの正解を与えるための手順は以下の通りである。(1) 図 4 Sentence-BERT のスコアによる対訳セットの選定の成功例と失敗例. 図 5 類似度の閾値を変化させたときの適合率,再現率,及びF1 スコア. 表 1 対訳セット選定の各段階における対訳セット数.確認した対訳セット 100 原言語の文が曖昧なもの 28 テキストのみから曖昧性を解消可能と 22 推測されたもの映像を見て曖昧性が解消できると確認 12 されたもの 対訳セット内の全ての対訳を見て,原言語の文の意味に曖昧性があるかどうかを判断する。(2) 原言語の文に曖昧性があると判断した場合,対訳セット内の全ての対訳を見て,目的言語の複数の文が複数の意味を持ち,映像があればその曖昧性が解消できるかどうかを映像なしで予測する。(3) 曖昧性が解消できると予測した対訳セットについて,実際に映像を見て,翻訳を一意に決定できるかどうかを判断する。 各段階の対訳セット数を表 1 に示す. 最終的に 100 個のうち 12 個の対訳セットが,映像に基づいて曖昧性を解消できる対訳を含んでいた。 ## 4.3 目的言語の文間の類似度を利用した対訳セットの選定 Sentence-BERT で計算した文間の類似度のスコアの閾值を 0 から 1 まで 0.01 刻みで変化させ,曖昧性を人手で判断した 28 個を正解としてどの程度正しく対訳セットを分類できるかどうか計算した. 閾値を変化させたときの適合率,再現率,及び F1 スコアを図 5 に示す. 図 5 を見ると,類似度が 0.2 の付近で F1 スコアが最も高くなっていることが分かる. 閾値を 0.2 に設定したときの,対訳セットの選定の成功例と失敗例を図 4 に示す. 類似度が閾値より小さく目的言語の文の意味が異なる場合,または閾値より大きく意味が同じ場合が成功であり,それ以外が失敗である。 今後,大規模な対訳セットの集まりに対し,この閾値を利用して対訳セットの選定を行った上で,映像の曖昧性解消可能性の確認のためにクラウドソー シングを行って,曖昧性を含む翻訳に着目した大規模な VMT データセットを構築する予定である. ## 5 おわりに 本研究では,VMT における翻訳の曖昧性の問題を指摘し,対訳セットの収集・選定によるデータセットの構築方法を示した. 既存の字幕データセットをもとに,原言語の文に対して複数の翻訳が存在する対訳セットを集め,文の類似度を利用して対訳セットを選定することで,原言語の文の曖昧性を確保した. さらに,人手の確認により映像が翻訳の曖昧性解消に役立つことを確認した。本稿では,映像が翻訳の曖昧性解消に役立つかどうかについての評価は小規模に人手で行ったが,今後これをクラウドソーシングで行い,曖昧性を含む翻訳に着目した大規模な VMT データセットを構築する予定である. 謝辞本研究は科研費\#19K20343 の助成を受けたものである. ## 参考文献 [1] Lucia Specia, Stella Frank, Khalil Sima'an, and Desmond Elliott. A shared task on multimodal machine translation and crosslingual image description. In Proceedings of the First Conference on Machine Translation: Volume 2, Shared Task Papers, pp. 543-553, Berlin, Germany, August 2016. Association for Computational Linguistics. [2] Desmond Elliott, Stella Frank, Khalil Sima' an, and Lucia Specia. Multi30K: Multilingual English-German image descriptions. In Proceedings of the 5th Workshop on Vision and Language, pp. 70-74, Berlin, Germany, August 2016. Association for Computational Linguistics. [3] Yuting Zhao, Mamoru Komachi, Tomoyuki Kajiwara, and Chenhui Chu. Double attention-based multimodal neural machine translation with semantic image regions. In Proceedings of the 22nd Annual Conference of the European Association for Machine Translation, pp. 105-114, Lisboa, Portugal, November 2020. European Association for Machine Translation. [4] Xin Wang, Jiawei Wu, Junkun Chen, Lei Li, Yuan-Fang Wang, and William Yang Wang. Vatex: A large-scale, high-quality multilingual dataset for video-and-language research. In Proceedings of the IEEE/CVF International Conference on Computer Vision, pp. 4581-4591, 2019. [5] Tosho Hirasawa, Zhishen Yang, Mamoru Komachi, and Naoaki Okazaki. Keyframe segmentation and positional encoding for video-guided machine translation challenge 2020. In The First Workshop on Advances in Language and Vision Research: Video-guided Machine Translation (VMT) Challenge, July 2020. [6] Ramon Sanabria, Ozan Caglayan, Shruti Palaskar, Desmond Elliott, Loïc Barrault, Lucia Specia, and Florian Metze. How2: A large-scale dataset for multimodal language understanding. In NeurIPS, 2018. [7] Ozan Caglayan, Pranava Madhyastha, Lucia Specia, and Loïc Barrault. Probing the need for visual context in multimodal machine translation. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4159-4170, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [8] Umut Sulubacak, Ozan Caglayan, Stig-Arne Grönroos, Aku Rouhe, Desmond Elliott, Lucia Specia, and Jörg Tiedemann. Multimodal machine translation through visuals and speech. Machine Translation, Vol. 34, No. 2, pp. 97-147, 2020. [9] Desmond Elliott, Stella Frank, Loïc Barrault, Fethi Bougares, and Lucia Specia. Findings of the second shared task on multimodal machine translation and multilingual image description. In Proceedings of the Second Conference on Machine Translation, pp. 215-233, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [10] Loïc Barrault, Fethi Bougares, Lucia Specia, Chiraag Lala, Desmond Elliott, and Stella Frank. Findings of the third shared task on multimodal machine translation. In Pro- ceedings of the Third Conference on Machine Translation: Shared Task Papers, pp. 304-323, Belgium, Brussels, October 2018. Association for Computational Linguistics. [11] Desmond Elliott. Adversarial evaluation of multimodal machine translation. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2974-2978, Brussels, Belgium, OctoberNovember 2018. Association for Computational Linguistics. [12] Pierre Lison and Jörg Tiedemann. OpenSubtitles2016: Extracting large parallel corpora from movie and TV subtitles. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 923-929, Portorož, Slovenia, May 2016. European Language Resources Association (ELRA). [13] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3982-3992, Hong Kong, China, November 2019. Association for Computational Linguistics.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH4-13.pdf
# ViT-CLT: パッチ分割した文字画像から 偏旁冠脚を考慮した文書分類 津嶋 祐介 ${ }^{1}$ 青木 匠 ${ }^{2}$ 北田 俊輔 2 彌冨 仁 ${ }^{1,2}$ 1 法政大学 理工学部 応用情報工学科 2 法政大学 理工学研究科 応用情報工学専攻 \{yusuke.tsushima.4z, takumi.aoki.4g, shunsuke.kitada.8y\}@stu.hosei.ac.jp iyatomi@hosei.ac.jp ## 概要 日本語や中国語における自然言語処理では,漢字の部首を考慮した文字単位による自然言語処理が文書解析能力の向上に寄与している. 文字形状を考慮するために,従来は convolutional neural network (CNN) を元にした文字符号化器および文書分類器の end-to-end モデルが多く提案されている. 本研究では,漢字の偏や旁といった構成要素の関係性を考慮した高性能な文書分類を実現するために,文字符号化器に Vision Transformer (ViT), 文書分類器に character-level Transformer (CLT) で構成された ViT-CLT を提案する. 我々の ViT-CLT は漢字の構成要素とその関係性を捉えるためにViTを用いて文字画像から文字の埋め込みを獲得し, 文書分類器ではその文字埋め込みを使用して文書分類タスクを解けるよう学習を行う.評価実験では日本語のニュース記事を用いたカテゴリ分類タスクにおいて,CNN を用いた従来の文字符号化器・文書分類器モデルと比較し, ViT-CLT が $18 \%$ の予測性能の向上を確認した. 更に ViT-CLT の文字符号化器における attention の可視化結果から, 従来モデルよりも漢字の構成要素を十分に考慮できていることを確認した. ## 1 はじめに 日本語や中国語といったアジア圏の言語に対する自然言語処理において,その特徵的な文字形状を考慮することが文書解析能力の向上に繋がることが知られている $[1,2]$. 日本語や中国語で主に使用されている漢字の字体において,その部分をなす点画の一定のまとまりは “構成要素”と呼ばれている [3]. この構成要素は偏や旁などの部首やその漢字自体の場合もあるが,それらに限定されない点画のまとま 図 1: 提案モデル ViT-CLT の全体図: 入力文書を文字単位で画像化し,ViT を元にした文字符号化器に入力できるようパッチ分割する. 文字符号化器によって得られた文字埋め込みを更に character-level Transformer (CLT) を元にした文書分類器に入力し, [CLS]トークンを元に MLP で文書分類タスクを解く end-to-end モデルである. りも含まれている。このような文字の構成要素における形状的特徴やその位置関係を捉えることで,自然言語処理モデルの表現力向上が期待できる [4]. 文字形状を効果的に考慮するために,文字を画像として深層学習モデルに入力して文字表現を学習する手法が複数提案されている $[5,6,7,8,9]$. 先行研究の多くは,畳み込みニューラルネットワーク (convolutional neural network; CNN) からなる文字符号化器から文字形状を考慮した埋め込みを学習している.これらの手法は局所的な情報である漢字の偏旁冠脚といった構成要素の単体を考慮することができる. 更にこうした埋め込みを利用した文書解析モデルは,高い性能を実現している $[4,8]$. しかしながら文字符号化器に CNN を利用したモデルは漢字の 各構成要素の形状的特徴を捉えることに成功する一方で, 文字構成要素間の位置関係の考慮に改良の余地が見受けられた [9]. 入力情報の局所的な特徴に加えて大局的な特徴の関係性を考慮できる Transformer [10]を画像認識夕スクに応用した Vision Transformer (ViT) [11] は,一般的な画像認識タスクで CNNを超える予測性能が報告され始めている. ViT は入力画像を複数のパッチに分割し Transformerに入力することで,CNNよりも大局的な情報を学習可能であり,位置埋め込みを各パッチに付加することで,パッチの位置関係を考慮することができる. さらに self-attention の効果により,パッチ間の関係性を考慮することが可能である. 文字画像の各パッチが構成要素の一部または全体の情報を持っている場合,パッチ間の関係性を考慮できれば構成要素間の関係性を考慮できると考えている。こうした性質から, 文字画像から構成要素といった局所的形状を捉えるとともに,構成要素間の位置関係を捉えられると考えられるため, ViT を文字符号化器として用いることで文字構造を捉えたより良い文字の埋め込みの獲得が期待できる. 本研究では,偏旁冠脚といった文字の構成要素の位置関係を考慮することで高性能な文書分類を目指す ViT-CLT を提案する. 提案手法は文字符号化器に ViT, 文書分類器に Transformer で構成され, これら end-to-end で学習を行う. 文字符号化器を担う ViT は, 文字内の構成要素に対してその形状的特徴とその関係性を捉えることができる. ViT-CLTでは多様な文字の構成に対応するため, ViT の画像パッチ切り出しにおいて sliding window algorithm を用いた sliding window patch (SWP) を導入した。また文書分類器を担う character-level Transformer (CLT) は, 近傍の文字以外との関係性も考慮できるため,大局的な文脈を考慮できる。 評価実験では日本語のニュース記事カテゴリ分類タスクを用いて従来手法比較し, 従来手法 [7] である文字符号化器と文書分類器に CNN を利用した時よりも,提案手法は $18 \%$ 精度向上が確認できた. ViT-CLT の文書単位および文字単位の attention $の$ 可視化により, 文書単位では, 従来の文字単位を入力とするモデルよりも文書解析に影響を与える重要な単語に注意が当たっていることを確認し, さら文字単位では ViT による文字符号化器が文字の構成要素それぞれに注意が当たっていることを確認した。 ## 2 ViT-CLT 我々は,漢字の偏旁冠脚といった構成要素とその関係性を考慮した文書分類モデルであるViT-CLT を提案する。提案する ViT-CLT の全体像を図 1 に示す. 文字を文字画像に変換し,ViT からなる文字符号化器で文字埋め込みを得た後,それらを元に Transformer からなる文書分類器で文書分類を end-to-end で学習する。 ## 2.1 ViT を元にした文字符号化器 ViT-CLT の文字符号化器は ViT を用いることで,各文字画像の局所構造の関係性を考慮した符号化を実現する。漢字は種類が多く多様な構造を持つため,通常 ViT で用いられるパッチ分割手法は多様な文字の構造情報の抽出には不十分であると考えられる. 我々は, 様々な漢字の構成部分の形状情報を効果的に扱うために,画像パッチの獲得に sliding window patch (SWP) を提案する。SWP は, sliding window algorithm により,各文字から重複を許しながら画像パッチを入力することで,重要な構成要素間の関係の見逃しを防ぐことが期待できる. ## 2.1.1 Vision Transformer ViT [11] は Transformer [10] を基にした画像処理モデルである. 入力画像をいくつかの部分的な画像 (パッチ画像) に分割し,画像の局所的な情報を取得する. ViT が従来の CNNより優れている点は,各パッチ画像に位置エンコーディングを付加し, Transformerに入力することで各パッチ画像間の関係性を捉えることができる点である.入力を文字画像にすることで,文字の構成要素の形状的特徵内の局所的な情報と,構成要素間の大局的な関係性を捉えることが期待できる. 入力画像の埋め込みとして, [CLS] トークンに相当するViT の出力を用いた. ## 2.1.2 Sliding Window Patch (SWP) SWP はパッチ 1つあたりの特徴を増やすために, sliding window algorithms によりパッチ分割を行う.文字画像に対する従来のパッチ分割では文字画像自体の情報量が少ないため,1 パッチ当たりの情報量がさらに少なくなってしまうという問題の解決を期待する. SWPにより局所的な情報をより詳細に得ることができるため,構成要素における部首等の部分構造を学習しやすくなると考えられる。 ## 2.2 Transformer を元にした文書分類器 ViT を元にした文字符号化器から得られた文字埋め込みを元に, character-level Transformer (CLT) を元にした文書分類器を学習する. 従来の character-level CNN (CLCNN) は畳み込み処理によって入力テキストの文字同士の局所的な関係性を考慮しつつ文書分類できるよう訓練されていた. 本研究で用いる CLT は各文字に対して self-attention を計算することで CLCNN に比べてさらに離れた文字同士の関係性も考慮可能である.これにより,提案するViT-CLT は各文字内の構成要素という,これまでより細かい局所的な特徴から,文脈中の文字の関係性という大局的な特徴まで捉えることができる。 ## 3 実験設定 ## 3.1 比較手法 提案モデル ViT-CLT は ViT を元にした文字符号化器と Transformer を元にした分類器の end-to-end モデルである.このモデルに対して従来モデルである, 文字符号化器が CNN, 文書分類器が CLCNN の CE-CLCNN [7] と比較した. 更に我々は文字符号化器をCNN と ViT, 文書分類器を CLCNN と CLT に変えたモデルの性能を比較した。 文字符号化器の入力には 128 文字の文書をそれぞれ $60 \times 60$ のグレースケール画像に変換して入力した. 埋め込み次元は CNN と ViT でそれぞれ 128 次元に設定した. モデルの最適化には Adam [12]を用いて,バッチサイズ 64 , エポック数 100 で訓練した. ## 3.2 データセット 実験用データセットとして日本語ニュース記事コーパスを使用し,記事のカテゴリを分類するタスクで提案法を評価した。 日本語ニュース記事データセットとして livedoorニュースコーパス1)を使用した. このデータセットには計 9 カテゴリの記事が含まれている。記事の文字列の長さは,最大 142 ,最小 6 , 平均 38 である. カテゴリ分類時には記事の夕イトルからそのカテゴリを分類できるようにモデルを訓練した。データセットの 8 割を学習用,2 割を評価用に各クラスが均等になるように分割を行った. 前処理として文字列長さは 128 になるように先頭から 128 文字を切り出した.  表 1: ニュース記事のカテゴリ分類の結果 & 文書分類器 & Acc. \\ ## 4 実験結果と議論 提案する ViT-CLT と従来モデルを中心に実験した結果について議論する. 更に提案手法の文字単位および文書単位の attention 可視化を通じて,提案モデルが従来モデルよりも偏旁冠脚といった構成要素間の関係性を適切に捉えていることを確認した。 ## 4.1 カテゴリ分類の性能比較 表 1 にニュース記事のカテゴリ分類性能の比較結果を示す。提案モデル ViT-CLT が従来モデルである CE-CLCNN [7] の精度を $18 \%$ 超える大幅な予測性能向上を確認した.従来モデルの文字符号化器を ViT にした場合(ViT + CLCNN)は $5 \%$ の向上が確認された. 更に従来モデルの文書分類器を Transformer にした場合 (CNN + CLT) は $15 \%$ の向上が確認された. この結果から文書分類器に Transformer からなるモデルを採用することで予測性能の向上に大きく寄与することが確認された。 提案モデルにおいて,従来のパッチ分割を採用した際にパッチ分割数を 16 に設定した場合が最も良い性能となった. 我々のSWPを適用した場合は一定の予測性能の向上に寄与した一方で,SWPを適用しない場合に少し劣る結果となった.SWP は類似した特徴を持つパッチ画像同士の関係を学習するため,文字の構成要素の構造を大きく捉えてしまったことにより,構成要素間の関係を捉えることが難しくなったことが影響したと考えられる.同様の傾向が ViT + CLCNN の場合にも確認された。 ## 4.2 Attention の可視化 文書単位における文字間の attention 図 2 は文字符号化器に CNN とViTを使用した場合の CLT の文書単位の attention の可視化結果である. CLT の (b) Character encoder: ViT (提案手法) CISフジテレビのサツカー中継で放送事故ハイスペックのグラフィックスを搭載! マウスコンピューター、コスパに優れた高性能ゲームPCを発売 (c) Character encoder: ViT + SWP (提案手法) 図 2: 文字符号化器を CNN と ViT で比較した際の CLT の文書単位の attention の可視化: 上部の数字は実際の attention のスコアを示す. CLT は各文字に位置エンコーディングの付与と attention により,文書の近傍以外の文字間の関係と予測に重要な情報を捉えているため,CLCNN よりも高い精度が得られたと考えられる。 (a) 従来のパッチ分割 (パッチ数 $=16$ ) \\ 不江:BPV (b) SWP (パッチ数 $=25$ ) 図 3: 提案モデルの文字単位におけるパッチ間の attention の可視化: 従来のパッチ分割 (3a)では“きへん”,“ぎょうにんべん”といった部首のみを捉えられている一方で,提案法の SWP (3b) では部首部分と非部首部分双方に attention が当たっている. attention 可視化方法は, rollout [13] というattention スコア同士の行列積の結果を利用する手法を使用した。CLT は予測に重要な情報 (e.g., 単語粒度の情報) をより適切に捉えらえていたため,CLCNN よりも高い精度が得られたと考えられる。 文字単位におけるパッチ間の attention 図 3 は従来のパッチ分割と SWP を使用した場合の,ViT からなる文字符号化器における文字単位の attention の可視化である. 結果は精度が最も良かった分割数のものを使用した。従来のパッチ分割の attention の可視化から,文字の形状を捉えた attention が当たっており,漢字の場合は部首を捉えている.SWP の attention の可視化から,従来のパッチ分割と同様に文字の形状を捉えた attention が当たっている. さらに SWP では漢字の部首だけでなく,部首以外の部分にも attention が当たっていることから,構成要素間の構造を捉えられていると考えられる。これはSWP を用いることで局所的な情報を捉えやすくなったためだと考えられる。しかし,英数字では文字領域以外に attention が当たってしまっている場合がある。これは同じようなパッチが存在するため, attention が分散しやすいからだと考えられる。 ## 5 おわりに 日本語や中国語において,漢字を中心に文字の形状を考慮する自然言語処理モデルが提案されてきたが,従来手法では偏旁冠脚といった文字の構成要素間の関係を考慮することは難しかった,本研究では,文字の構成要素間の関係を捉えることができる ViT-CLT を提案した. ViT からなる文字符号化器で偏旁冠脚個別の形状を捉えるとともに,構成要素間の関係性も捉えることを可能とした.日本語のニュース記事のカテゴリ分類による評価実験の結果,我々の提案手法が従来の CNN + CLCNN モデルを遥かに超える性能を実現した。更に提案手法の文単位および文字単位の attention 可視化を通じて,我々の手法が従来手法よりも構成要素間の関係性を適切に捉えていること確認した. 我々は実験的に 1 つあたりのパッチの特徴量を増やすSWPを提案したが,従来のパッチ分割のほうが文字の構成要素間の関係性を捉えていることが分かった。 今後は近年発展を遂げている事前学習済みモデルとの比較や,文字画像を元に文字の形状的特徵を考慮したマスク言語モデルの開発を検討している。 ## 参考文献 [1] Yaming Sun, Lei Lin, Nan Yang, Zhenzhou Ji, and Xiaolong Wang. Radical-enhanced chinese character embedding. In Chu Kiong Loo, Keem Siah Yap, Kok Wai Wong, Andrew Teoh, and Kaizhu Huang, editors, Neural Information Processing, pp. 279-286, Cham, 2014. Springer International Publishing. [2] Xinlei Shi, Junjie Zhai, Xudong Yang, Zehua Xie, and Chao Liu. Radical embedding: Delving deeper to Chinese radicals. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 594-598, Beijing, China, July 2015. Association for Computational Linguistics. [3] Galina Vorobeva and Victor Vorobev. A method of the analysis of kanji structure: A new approach based on structural decomposition and coding. NINJAL Research Papers, No. 9, pp. 215-236, Jul 2015. [4] Minh Nguyen, Gia H Ngo, and Nancy F Chen. Hierarchical character embeddings: Learning phonological and semantic representations in languages of logographic origin using recursive neural networks. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2019. [5] Daiki Shimada, Ryunosuke Kotani, and Hitoshi Iyatomi. Document classification through image-based character embedding and wildcard training. In 2016 IEEE International Conference on Big Data (Big Data), pp. 3922-3927, 2016. [6] Frederick Liu, Han Lu, Chieh Lo, and Graham Neubig. Learning character-level compositionality with visual features. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2059-2068, Vancouver, Canada, July 2017. Association for Computational Linguistics. [7] Shunsuke KITADA, Ryunosuke KOTANI, and Hitoshi IYATOMI. End-to-end text classification via image-based embedding using character-level networks. In 2018 IEEE Applied Imagery Pattern Recognition Workshop (AIPR), pp. 1-4, 2018. [8] Yuxian Meng, Wei Wu, Fei Wang, Xiaoya Li, Ping Nie, Fan Yin, Muyu Li, Qinghong Han, Xiaofei Sun, and Jiwei Li. Glyce: Glyph-vectors for chinese character representations. In H. Wallach, H. Larochelle, A. Beygelzimer, F. d'Alché-Buc, E. Fox, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 32. Curran Associates, Inc., 2019. [9] Takumi Aoki, Shunsuke Kitada, and Hitoshi Iyatomi. Text classification through glyph-aware disentangled character embedding and semantic sub-character augmentation. In Proceedings of the 1st Conference of the Asia-Pacific Chapter of the Association for Computational Linguistics and the 10th International Joint Conference on Natural Language Processing: Student Research Workshop, pp. 1-7, Suzhou, China, December 2020. Association for Computational Linguistics. [10] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [11] Alexey Dosovitskiy, Lucas Beyer, Alexander Kolesnikov, Dirk Weissenborn, Xiaohua Zhai, Thomas Unterthiner, Mostafa Dehghani, Matthias Minderer, Georg Heigold, Sylvain Gelly, Jakob Uszkoreit, and Neil Houlsby. An image is worth 16x16 words: Transformers for image recognition at scale. In International Conference on Learning Representations, 2021. [12] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014. [13] Samira Abnar and Willem Zuidema. Quantifying attention flow in transformers. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4190-4197, Online, July 2020. Association for Computational Linguistics. [14] Laurens van der Maaten and Geoffrey Hinton. Visualizing data using t-sne. Journal of Machine Learning Research, Vol. 9, No. 86, pp. 2579-2605, 2008. (a) 従来のパッチ分割 (b) SWP図 4: ViT + CLT のパッチ分割数を変化させたときの精度の変化: パッチ分割数と文書分類の精度に大きな変化が確認できないことから,文書分類器はパッチ分割数にロバストだと考えられる. 表 2: 漢字 “語” の近傍の漢字上位 $\mathbf{5}$ つ: 括弧内の数字は分割数を示す. 通常のパッチ分割はほかの文字符号化器よりも部首を捉えられている. ## A パッチの分割数を変化させた時 の予測性能の変化 図 4 は従来のパッチ分割と提案手法 SWP によるパッチ分割において,パッチ数を変化させたときの予測性能の変化を示す. 文字画像に対して分割するパッチ数の大小に関わらず,一定の予測性能を示した.この結果は従来のパッチ分割および提案手法両者ともにパッチの分割数にロバストであることが示唆されている。 ## B 文字埋め込みの分析 文字埋め込みの可視化図 5 はパッチ分割手法に従来のパッチ分割とSWPを使用した場合の ViT の文字符号化器を使用して文字画像から得られた文字埋め込みに対して t-SNE [14] で 2 次元空間へ写像して可視化した結果である. 可視化の際に,その偏を持つ漢字の数が上位 10 位に入る漢字と記号や英数字等に絞って可視化した. 従来のパッチ分割手法を用いた文字埋め込みの可視化から,漢字の偏を考慮した埋め込みができている.SWPを用いた文字埋め込みの可視化から, 同じ構造の漢字は近傍に埋め込まれているが,部首を考慮した埋め込みはできていないことが確認された。 対象文字埋め込みの近傍の文字表 2 に各比較モデルにおける“語”の埋め込みの近傍 5 字を示す。 (a) 従来のパッチ分割 (パッチ数 $=16$ ) (b) SWP (パッチ数 $=25$ ) 図 5: 主要な偏を持つ漢字と記号の埋め込みを $\mathrm{t}-\mathrm{SNE}$ を用いて可視化した結果: 従来のパッチ分割は文字の構造と漢字の偏を考慮した埋め込みが学習されており,SWP は文字の構造のみを考慮した埋め込みが学習されている。 文字符号化器に CNN を使用した場合と従来のパッチ分割を使用した ViTを使用した場合で比較すると,ViT の方が偏旁冠脚といった構成要素をより捉えられていた。従来のパッチ分割を使用した場合と SWP を使用した場合で比較すると,SWP は偏旁冠脚といった構成要素を捉えられなかった。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH4-14.pdf
# ECS-BERT モデルによるステークホルダー評価の定量化 指田 晋吾 1 中川慧 1 黒木 裕鷹 2 真鍋 友則 ${ }^{2}$ 1 野村アセットマネジメント株式会社 ${ }^{2}$ Sansan 株式会社 \{s-sashida,k-nakagawa\}@nomura-am.co.jp \{kuroki, manabe\}@sansan.com ## 概要 ステークホルダー資本主義や ESG,SDGsへの関心の高まりから企業の社会的な評価を定量化することの重要性は増している。特に,企業からステークホルダーに対してのメッセージである統合報告書の内容を評価することは投資家のみならず様々なステークホルダーにとって有用である. 本研究では, ステークホルダーからの評価を定量化したスコアである ECS を用いてファインチューニングした BERT モデルによって,統合報告書の「良さ」を定量化したIR スコアを提案する. 実証分析の結果,IR スコアは ECS ブランドスコアおよび,GPIF の定性評価との関連性を持つことがわかった。 ## 1 はじめに 企業は株主だけでなく,従業員をはじめサプライヤー,カスタマーといったビジネス関係者などあらゆるステークホルダーの利益に配慮すべきであるという,ステークホルダー資本主義が関心を高めている. 実際,2019 年に米経済団体ビジネス・ラウンドテーブル(BRT)は,企業の目的に関する声明の中で「顧客,従業員,サプライヤー,地域社会,株主といった全てのステークホルダーの利益のために会社を導くことにコミットする」と公表した1). また, 2020 年 1 月の世界経済フォーラム年次総会 (ダボス会議)ではステークホルダー資本主義が重点テーマとして取り上げられ,クラウス・シュワブ会長は「企業はステークホルダー資本主義を完全に受け入れなければならない。利益を最大化するだけでなく,政府や市民社会と協力して能力や資源を活用し, この 10 年間の重要な課題に対処しなければならない,企業は,よりまとまりのある持続可能な世界に積極的に貢献しなければならない」と述べて  いる2)。これらは,株主第一主義から,ステークホルダー主義への転換への宣言として受け止められている. 以上のようにステークホルダーに対する配慮がますます重要視されているなかで,ステークホルダー に対する社会的な評価の高い企業は,互酬性による長期取引の安定化や,リスクの低下などを通して,社会関係資本から様々な利益を得ていることが知られている [1]. 例えば,企業の社会的な評判が良い企業ほど,高い時価総額 [2] や高 ROA[3] を示す傾向が示されている。また,企業の社会関係資本,あるいはそれと関連した活動や評価と,株価のクラッシュ・リスクの関係を実証した研究が複数あり,いずれも,クラッシュ・リスクを緩和することが実証されている $[4,5]$. しかしながら,ステークホルダーからの評価を測定あるいは定量化することは非常に困難である.これまでの研究はいずれも企業の社会関係資本を直接的に測定したものではなく, CSR 活動のスコアリングをその代理変数として用いている $[1,4]$. しかし,企業の CSR 活動はステークホルダーとの信頼的関係必ずしもイコールではない.そこで,ビジネス上のなんらかのステークホルダーであることが想定される名刺所有者から直接,当該企業の評価を得たデータ (Eight Company Score;ECS) を用いた研究 $[2,3,5]$ が存在する. さらに, ECS は評価スコアとそれに関連する自由記述闌のコメントがあり,それらのデータを supervised LDA[6] を用いて分析することで,企業の社会的な評価がどのような要因から構成されているかを特定 [7] した研究もある。しかし, ECS のようなアンケート調査は,一般に少なくないコストを必要とする。このため, 調査対象社数や調査頻度に限界がある。 一方で,企業の長期的な価値創造は企業単体で創 2) https://www.weforum.org/press/2020/01/ stakeholder-capitalism-a-manifesto-for-acohesivel - and-sustainable-world/ 造するものでなく,ほかのステークホルダーとの関係から生み出されるとし,企業の主要なステークホルダーからの理にかなった要求や期待を企業がいかに理解し, 対応しているか3)を記述する統合報告書に注目が集まっている。実際に財務報告とは別に統合報告書を発行する企業数は年々増加している [8]. 企業の業績などの財務面だけでなく, ESG(環境, 社会,ガバナンス) の側面や SDGs(Sustainable Development Goals) を踏まえ,社会的責任を果たし,持続可能な社会に貢献するためにも統合報告書の果たす役割は非常に大きい [9]. ステークホルダーに対する配慮が重要視される中で,企業からステークホルダーに対してのメッセージである統合報告書の内容を評価することは投資家のみならず様々なステークホルダーにとって有用である. 公的に入手できるテキストデータから景気動向や企業業績,ブランド力などを評価・予測する研究は数多く存在する $[10,11,12]$. 本研究では,ステークホルダーからの評価を定量化したスコアである ECS を用いてファインチューニングした BERT モデルによって,企業がステークホルダーへ向けての様々な取組みを記載した統合報告書の「良さ」を定量化した IR (Integrated Report) スコアを提案する。具体的には,BERT を事前学習モデルとして,ECS の自由記述欄のコメントと評価スコアを用いてファインチューニングを行うことで,統合報告書への評価を付与できるモデルを作成する. そして当該 BERT モデルを,ECS スコアが再現できるかどうかバリデー ションで確認し,統合報告書のスコアリングを行う. そしてステークホルダーから企業の評価である ECS と,企業からステークホルダーへの向けて記述された統合報告書の IR スコアの関係を検証・評価する. ## 2 分析データ ## 2.1 Eight Company Score データ Sansan 株式会社の Eight Company Score4)(以下, ECS)は,半年に一回,調査対象企業の名刺を有する名刺アプリ Eight のユーザーにランダムに調査票をメール送付し,任意のアンケート結果を回収することで作成されている. 企業の名刺所有者を調査母  集団とすることにより,それぞれの企業とのビジネス上の関与が期待される母集団からの企業評判収集を可能にしている. ECS の調査は 2018 年の 5 月に開始され,以降半年に一度のペースで調査が行われている. 本論文では 2018 年 5 月から 2021 年 11 月までの計 8 回の調査データを分析対象データとして使用する。調査対象企業数は 1711 社,企業あたりの平均回答者数は 154 人である. 調査は「ブランド」,「サービス」,「ヒト」の 3 項目に関する意識調査と企業についての自由記述闌から成り,回答者は, ブランド: $\ulcorner x$ 社のブランドイメージは魅力的だと思いますか?」 サービス: 「 $x$ 社の製品・サービスは自社/社会に有用だと思いますか?」 ヒト: 「 $x$ 社の人は好印象だと思いますか?」 の 3 項目の質問に対し,0-10の 11 段階の評点をつける。また,自由記述欄に,企業の印象ついてのコメントを記入する.回答者は,調査会社が選択した 3 企業について回答する。 ECS の自由記述コメント数は調査全期間の累計で 545,599 であった. ただし,記述文には「知らない」「特にない」など,企業についての非認知の表明など,企業印象についての有意味な情報を有さない文も含まれていた。本研究の分析においては, そのような文を除外した。除外した結果,文の数は 436,308, 企業あたりの平均記述文数は 261 文, 記述文あたりの文字数は平均 21.3 文字,中央値は 15 文字であった。 ## 2.2 統合報告書データ 統合報告書とは,企業が財務情報や経営情報に加えてガバナンス,CSR 情報,中期計画などを統合的にまとめて公開する報告書である。日本では会社法で要求される決算書類や金融商品取引法で要求される有価証券報告書と異なり,統合報告書は作成が任意であるが,発行する企業は大規模なグローバル企業を中心に,日本国内でも年々増加している。 本研究では, 日本の証券取引所に上場している企業の企業 HP から,「統合報告書である」と明記された 2018,2019年のテキストデータを収集し,スコアリングを行なった.収集,スコアリングしたデータ数は 2018 年で 284 社, 2019 年で 370 社についての ものである. ## 3 分析方法 ## 3.1 ECS データを用いた BERT モデルの 学習 BERT (Bidirectional Encoder Representations from Transformers)[13] は, Transformer[14]をべースに構成されたは高性能な事前学習モデルである. BERT モデルの構築には事前学習済みのモデル5) と ECS の自由記述コメントを利用し,文章のセンチメント評価のためのファインチューニングを行った. その際,ECS のデータにてブランド評価が 9 以上のものをポジティブ,4 以下のものをネガティブとした.また,コメント投稿者の対象企業に対する認知度について閾値を設け, 信頼性の高いコメント内容に絞った. その結果として学習に用いたコメント数は全体で 303,286 件で,ポジティブに分類される文章は 201,505 件, ネガティブは 101,781 件である. また, 対象企業をランダムに分割し, 学習,検証, 評価に用いた. 学習には 1,207 社に対する 180,658 コメントを,検証には 402 社に対する 61,722 回答を,テストには 403 社に対する 60,907 回答をそれぞれ用いた。 ## 3.2 統合報告書のスコアリング 本研究では,企業がステークホルダーへ向けての様々な取組みを記載した統合報告書の「良さ」を定量化するため,構築した BERT モデルでのスコアリングを行なった.統合報告書のテキストデータは, ページ数や目次など,スコアに寄与しないと想定される情報を含んでいるが,これらは前処理で取り除いた.ここで,統合報告書の平均トークン長は 4,772であり, BERT モデルが受け付ける最大トークン長をはるかに超えるものである. そこで本分析では,ひとつの統合報告書を,最大トークン長が 256 の部分文書に分割し,それぞれのスコアを平均することでスコアリングを行なった. 本研究で提案する IR (Integrated Report) スコアの性質を測るため,一定の実績がある ECS ブランドスコアとの関係,年金積立金管理運用独立行政法人 (GPIF) が公開する統合報告書の定性評価との関係を分析した. ## 4 分析結果 5) https://nlp.ist.i.kyoto-u.ac.jp/?ku_bert_japanese ## 4.1ECS ブランドスコアの予測 テストデータの ECS ブランドスコアを予測し,企業ごとに平均した結果を図 1 に示す. 元のブランドスコアの平均との相関係数は 0.88 であり,アンケー トで得られたステークホルダーからの自由記述コメントとであれば,学習データにない企業に対しても高い精度でブランドカのスコアリングが可能であることがわかる. 図 1 ECS ブランドスコアの予測結果 ## 4.2 ECS ブランドスコアと IR スコアの 相関 BERT モデルによってスコアリングした統合報告書スコアと ECS ブランドスコアの単相関を Appendix の表 3 に示す. ECS 調査は半年に 1 回行われているため年に 2 時点のデータが存在する. 2018 年の IR スコアは 2018 年 11 月の ECS および 2019 年 5 月と有意に正の相関がある。一方 2019 年の IR スコアは 2019 年の ECS と有意に正の相関を示しており,それぞれ近いデータ取得期間で相関を有していることがわかる。この結果は IR 内に記されている企業のブランド力に関する情報の時間変化を本 IR スコアによってトレースできる可能性を示唆している. 上記単相関分析では企業の財務状況や業種が共変量になっている可能性がある。この可能性を考慮し, 財務指標と業種 (東証 17 業種)を統制項として変数に含めた以下の重回帰分析を行った. なお ECS ブランドスコアは年での平均値として年次データに変換した。 ECSbrand $_{i t}=\beta_{1}$ IRscore $_{i t}+\beta_{2} \ln \left(\right.$ Sales $_{i t}$ $ \begin{aligned} & +\beta_{3} \text { Profitability }_{i t}+\gamma_{1} \text { IndustryDummy }_{i} \\ & +\gamma_{2} \text { YearDummy }_{t}+\epsilon_{i t} \end{aligned} $ ここで ECSbrand $_{i t}$ は企業 $i$ の年 $t$ におけるブラ スコア, $\ln (\text { Sales })_{i t}$ は企業 $i$ の時点 $t$ における売上高の自然対数,Profitability ${ }_{i t}$ は企業 $i$ の時点 $t$ における利益率,IndustryDummy は企業 $i$ の業種ダミ一, YearDummy は年 $t$ のダミー (2019 か否か)を表している. $\beta$ と $\gamma$ は各変数に対する係数を表す. 結果を表 1 に示している. 表 1 のカラム (1) は年ダミーのみ,カラム (2) は業種ダミーと年ダミーを加えたモデル,カラム (3) は統制項を全て加えたモデルの推定結果だが,全てのモデルにおいて IR スコアは有意に正の係数を表しており,ECS ブランドスコアの予測に対して情報量を持っていることを示した. 表 1 重回帰分析の推定結果 & & \\ ## 4.3 IR スコアと GPIF 評価の相関 GPIF は,国内株式の運用を委託している運用機関(以下,運用機関)に対して,「優れた統合報告書」と「改善度の高い統合報告書」の選定を依頼し選定結果を毎年公表している6). 本論文で算出した IR スコアの意義をさらに探索するために, IR スコアとこの GPIF の選定結果の関 6) https://www.gpif.go.jp/investment/20210224_ integration_report.pdf連をロジスティック回帰分析を用いて行った.統制項等の変数は前節での重回帰分析と同じ変数を用いた. 本分析の対象となる企業は 2018 年に 122 社, 2019 年に 261 社だが,そのうち「優れた統合報告書」または「改善度の高い統合報告書」に選定された企業はそれぞれ 47 社 $(39 \%), 101$ 社 (39\%) 存在した。この確率に対する IR スコアの効果の推定結果を表 2 に表す。 表 2 ロジスティック回帰分析結果 IR スコアに対する係数の値は有意に正となっており,このスコアの高い企業は選対される確率が有意に上昇していることがわかる. ## 5 まとめと今後の課題 企業の社会的な評価を定量化することの重要性は増しており,企業からステークホルダーに対してのメッセージである統合報告書の内容を評価することは投資家のみならず様々なステークホルダーにとって有用である。本研究では,ステークホルダーからの評価を定量化したスコアである ECS を用いてファインチューニングした BERT モデルによって,統合報告書の「良さ」を定量化した IR スコアを計測した. 実証分析の結果,IR スコアは ECS ブランドスコアおよび,GPIF の定性評価との関連性を持つことがわかった. 今後の課題としては,本研究で定量化した統合報告書の評価スコアと財務指標や株価との関連性を検証することが挙げられる。 ## 参考文献 [1] Peter W Roberts and Grahame R Dowling. Corporate reputation and sustained superior financial performance. Strategic management journal, Vol. 23, No. 12, pp. 1077-1093, 2002. [2] 真鍋友則, 中川慧. B2b 企業ブランド評価と株価の価値関連性の実証研究. 経営情報学会誌, Vol. 29, No. 2 , pp. 87-104, 2020. [3] 真鍋友則, 中川慧. B2b市場における企業ブランドと roa の関連性. 証券アナリストジャーナル= Securities analysts journal, Vol. 58, No. 6, pp. 73-83, 2020. [4] Karl V Lins, Henri Servaes, and Ane Tamayo. Social capital, trust, and firm performance: The value of corporate social responsibility during the financial crisis. the Journal of Finance, Vol. 72, No. 4, pp. 1785-1824, 2017. [5] Tomonori Manabe and Kei Nakagawa. The value of reputation capital during the covid-19 crisis: Evidence from japan. Finance Research Letters, p. 102370, 2021. [6] David M Blei and Jon D McAuliffe. Supervised topic models. In Proceedings of the 20th International Conference on Neural Information Processing Systems, pp. 121-128, 2007. [7] Tomonori Manabe, Kei Nakagawa, and Keigo Hidawa. Identification of $\mathrm{b} 2 \mathrm{~b}$ brand components and their performance' $\mathrm{s}$ relevance using a business card exchange network. In Pacific Rim Knowledge Acquisition Workshop, pp. 152-167. Springer, 2021. [8] Kei Nakagawa, Shingo Sashida, Ryozo Kitajima, and Hiroyuki Sakai. What do good integrated reports tell us?: An empirical study of japanese companies using text-mining. In 2020 9th International Congress on Advanced Applied Informatics (IIAI-AAI), pp. 516-521. IEEE, 2020. [9] 小野塚惠美, 貝沼直之. Esg 開示からみる統合報告書のあり方 (特集 esg 情報開示とその利活用). 証券アナリストジャーナル= Securities analysts journal, Vol. 59, No. 11, pp. 28-39, 2021. [10] Keiichi Goshima, Hiroshi Ishijima, Mototsugu Shintani, and Hiroki Yamamoto. Forecasting japanese inflation with a news-based leading indicator of economic activities. Studies in Nonlinear Dynamics \& Econometrics, Vol. 25, No. 4, pp. 111-133, 2021. [11] Roland T Rust, William Rand, Ming-Hui Huang, Andrew T Stephen, Gillian Brooks, and Timur Chabuk. Realtime brand reputation tracking using social media. Journal of Marketing, Vol. 85, No. 4, pp. 21-43, 2021. [12] 西家宏典, 津田博史. 従業員口コミを用いた企業の組織文化と業績パフォーマンスとの関係. 証券アナリストジャーナル= Securities analysts journal, Vol. 56, No. 7, pp. 69-78, 2018. [13] Jacob Devlin Ming-Wei Chang Kenton and Lee Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of NAACL-HLT, pp. 4171-4186, 2019. [14] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. ## A 参考情報 表 3 は BERT モデルによってスコアリングした統合報告書スコアと ECS ブランドスコアの単相関表を示す. 表中の数値は相関係数,カッコ内の数値はサンプルサイズを表している. ECS 調査は半年に 1 回行われているため年に 2 時点のデータが存在する. 2018 年の IR スコアは 2018 年 11 月の ECS および 2019 年 5 月と有意に正の相関がある。一方 2019 年の IR スコアは 2019 年の ECS と有意に正の相関を示しており,それぞれ近いデータ取得期間で相関を有している. 表 3 ECS ブランドスコアと IR スコアの相関表 Note: ${ }^{*} \mathrm{p}<0.1 ;{ }^{* *} \mathrm{p}<0.05 ;{ }^{* * *} \mathrm{p}<0.01$
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH4-15.pdf
# 発話者ごとの潜在変数学習による対話応答生成の一貫性向上 大西孝宗 ${ }^{1}$ 椎名広光 ${ }^{2}$ 1 岡山理科大学大学院 総合情報研究科 2 岡山理科大学 総合情報学部 i20im02ot@ous.jp shiina@mis.ous.ac.jp ## 概要 対話応答生成において CVAE を応用したモデルは潜在変数の違いによって多様性のある応答生成を可能にしている。一方で,コンテキスト全体からサンプリングされた潜在変数は,発話者の特徴が希薄となり,生成した応答の一貫性低下に影響すると考える. この課題を解決するため,発話者ごとの潜在変数を用いることで,一貫性のある応答を生成することを試みている。また,手法の有効性を検証するため,英語と日本語のコーパスを用いて応答の生成実験を行い,自動評価指標を用いて応答の多様性や参照応答との類似性,コンテキストとの類似性について評価を行った。 ## 1 はじめに 近年,ニューラルネットワークを用いた対話応答生成の研究が盛んに行われおり, EncoderDecoder(Seq2Seq) モデル $[1,2,3]$ の応用が Vinyals ら [4] により提案されている. 対話データを用いて, Encoder-Decoder モデルに発話から応答へ変換することを学習させる手法であるが,無難な応答を生成する傾向にあることが課題として報告されている。 この課題に対して, Conditioned Variational Autoencoder(CVAE) をべースとした手法が提案されている [5][6]. また,計算の高速化を目的とし,RNNを Transformer[7] に置き換えたモデルである, Global Variational Transformer (GVT) モデル [8] が登場している。これらの手法では,コンテキスト・応答から生成した事前・事後分布より, サンプリングした潜在変数をデコーダの入力に付加することを行っている。これにより,応答の生成において,潜在変数の違いから多様性をもたらすことに成功している。 一方で,潜在変数は発話者を区別することなく, コンテキスト全体を条件としてサンプリングされる.このため,発話者それぞれの主張が混在してしまうことや,発話者の特徴が希薄となり生成した応答の一貫性低下に影響すると考える。 本研究では,応答の一貫性を改善するため発話者ごとの潜在変数を GVT モデルに対して追加する. これにより,発話者ごとの特徴を捉える効果を狙い,一貫性のある応答を生成することを試みている. ## 2 関連研究 ## 2.1 対話応答生成のための CVAE 対話生成タスクの向けの CVAE は, EncoderDecoder モデルを拡張したモデルである.RNN ベー スの Encoderを 2 つ持つ構造であり,コンテキストと応答を別々にエンコードする。さらに,コンテキストと応答それぞれの Encoder の隠れ層のベクトルに従う事前・事後分布を多層パーセプトロン (MLP) によって近似した, Prior Net・Recognition Net から潜在変数をサンプリングする。最後に,Decoder はコンテキストを処理した Encoder の隠れ層べクトルと潜在変数 zを用いて,応答の生成を行う。 また,学習が進むにつれて Decoder が潜在変数 z の情報を考慮しなくなる KL vanishing 問題のため, KL アニーリング [9],Bag-of-Words(BoW) loss を適用している. ## 2.2 GVT モデル Global Variational Transformer (GVT) モデルは対話向け CVAE モデルをべースに,Transformer 化したモデルである. Encoder および Decoderにおいて,RNN の代わりに Transformerを用いている. CVAE モデルでは事前・事後分布の MLP よよる近似である Prior Net・Recognition Net の計算に Encoder の隠れ層の状態を用いていたが,GVT モデルでは CLS トークンの位置の出力ベクトルを用いる.CLS トークンは入力シーケンスの先頭に追加され,Self-attention を介して出力べクトルが計算される. したがって, CLS トークンの出力ベクトルは,入力全体の表現 図 1 Global Variational Transfo (GVT) モデル したべクトルとみなすことができる. Prior Net・ Recognition Net からサンプリングされた潜在変数は, Decoder の入力の先頭に追加し, 応答の生成に利用される。また, CVAE と同様に潜在変数 $\mathrm{z}$ を Decoder に考慮させるため,KL アニーリング及び BoW loss を用いて学習を安定させている. GVT モデルの概略図を図 1 に図示する。 ## 3 各発話者ごとの潜在変数の生成を 行う提案手法 コンテキスト全体から生成した潜在変数では,発話者ごとの特徴が希薄になり一貫性にかける応答を生成する一因であると考えられる。そこで本研究では,発話者ごとの潜在変数を GVT モデルに対して追加し, モデルが生成する発話の一貫性を向上させる効果を狙う。 提案モデルでは,GVT モデルと同様にコンテキス卜と応答の入力を処理し, Prior Net $\cdot$ Recognition Net から潜在変数 z をサンプリングする.加えて,各発話者ごとの入力からも Prior Net を生成し潜在変数 z をサンプリングする. コンテキストは対話を行う2者の発話を一つにまとめたものであり,それぞれの発話者ごとに分割することができる.各発話者ごとにコンテキストを分割し,入力シーケンスの先頭にCLSトークンを付加した上で,それぞれ Encoderへ入力する。さらに, CLS トークンの位置の出力ベクトルから事前分布を生成し, 各発話者ごとの潜在変数をサンプリングする. 通常の潜在変数に加えて,応答の発話者の潜在変数を Decoder の入力の先頭に追加し, 応答の生成において利用する。また,GVT モデルと同様に KL 図 2 各発話者ごとの入力を処理する Encoderを GVT モデルに追加した提案モデル アニーリングおよび BoW loss を学習安定のために用いる。提案モデルの概略図を図 2 に図示する。 ## 4 応答の生成実験と評価 ## 4.1 実験設定 ベースラインである GVT モデルと提案モデルについてマルチターンの対話応答生成を行う。データセットには Ubuntu Dialogue Corpus [10] およびおー ぷん 2 ちゃんねる対話コーパス [11]を用いた。前処理として SentencePiece ${ }^{1)}$ を用いてサブワードへの分割を行っている。 ## 4.2 評価手法 応答の多様性の自動評価モデルによって生成された応答の多様性を測定するため, dist-n[12]を用いる. n-gram の総数に対して n-gram の種類数が占める割合を算出し,この比率が高いほど,多様性が高いことを示す. 応答の類似性の自動評価モデルによって生成された応答と参照応答の類似性について,両者の埋め込みべクトル間のコサイン類似度を計算することで評価する。2 種類の計算手法を用いる。 Embedding-based-Metrics[13] は,事前学習済みの単語ベクトルを用いて文の類似性を評価する手法であり, Embedding Average, Greedy Matching, Vector Extrema の 3 種類の算出法が提案されている. 本研究では Embedding Average を評価指標として用いた. 事前学習済みの単語ベクトルとして,Ubuntu 1) https://github.com/google/sentencepiece 表 1 各モデルの自動評価結果 Ubuntu Dialogue コーパス 表 2 参照応答の発話者の発話履歴と 生成した応答についての BERT Score Ubuntu Dialogue コーパス コーパスの評価には Google News Corpus で学習させた Word2Vec の単語ベクトルを用いた。おーぷん 2 ちゃんねるコーパスでは,日本語 Wikipedia で学習させた Word2Vec の単語ベクトルを用いた。 BERT Score[14] は,事前学習した BERT[15] の埋め込みを使用して,モデルによって生成された応答と参照応答の類似性を評価する手法である。 発話の一貫性発話の一貫性を調査するため,モデルによって生成された応答と参照応答の発話者の発話履歴について,BERT Scoreを用いて類似性を算出する. ## 5 実験結果 ## 5.1 自動評価結果 各モデルが生成した応答の自動評価結果を表 1 に示す。生成した応答の多様性においては,Ubuntu コーパス及びおーぷん 2 ちんれるコーパスのどちらにおいても提案モデルのスコアが向上している.一方で参照応答との類似性については,Ubuntuコー パスとおーぷん 2 ちゃんねるコーパスで反対の結果となった。これは,データセットの性質が影響した表 3 Ubuntu Dialogue Corpus およびおーぷん 2 ちゃんねる対話コーパスを用いた各モデルの対話生成例 Ubuntu Dialogue コーパス発話 1:hi any expert for grub and boot here?発話 2:sorry whats the problem?発話 3:my system isn't boot from the second hdd GVT モデル:I have to edit the grub partition Response $\begin{aligned} & \text { in ubuntu i will try? } \\ & \text { 提案モデル:the drive is not supported with grub }\end{aligned}$参照応答:it only boots from the first drive. おーぷん 2 ちゃんねる対話コーパス Context 発話 1:ついに茶が出るようになったか発話 2:ゆーめーじん?発話 3:**コテで有名 GVT モデル:(^ $q \wedge)$ クッソ難しいから Response 提案モデル:じゃあ全然有名じゃないです $\mathrm{w}$参照応答:なーる。まあ。いーや一! と考えられる。おーぷん 2 ちんねるコーパスは多様性に富んだ応答を数多く含むデータセットであるため,多様性の高い応答を生成する提案モデルがスコアを伸ばしている。逆に,Ubuntuコーパスはドメイン固有のデータセットであるため,応答の多様性は高くなく,提案モデルはスコアを落としている. 各モデルが生成した応答と参照応答の発話者の発話履歴の類似性について自動評価結果を表 2 に示す.こちらも提案モデルは,おーぷん 2 ちゃんねるコーパスではスコアが伸び,Ubuntuコーパスではスコアを下げており,生成した応答と参照応答の類似性スコアと同じ傾向となっている. ## 5.2 応答生成例 Ubuntuコーパス及びおーぷん 2 ちゃんねるコー パスから各モデルが生成した応答例を表 3 に示す. Ubuntu コーパスの生成例では,両モデルともやや見当違いの生成をしている。おーぷん 2 ちゃんねるコーパスの例では,両モデルの生成例とも文法的な 違和感はない。また,提案モデルが生成した応答は参照応答とは異なるが,対話の流れとして比較的自然である。 ## 6 おわりに 本研究では,対話応答生成タスクにおける応答の 一貫性を向上させるため,GVT モデルに対して発話者ごとの潜在変数をサンプリングする手法を追加したモデルを提案した. 提案モデルでは,発話者ごとの潜在変数の効果によって多様性が向上し,おーぷん 2ちゃんねるコーパスでは参照応答との類似度向上につながった.しかしながら,自動評価指標のみでは応答の一貫性について評価しきれていない. 今後の課題として, 発話者ごとの潜在変数追加が応答の一貫性にあたえた影響についてより深い検証を行うことと,Decoder において潜在変数をうまく活用するための改善に取り組みたいと考えている. ## 参考文献 [1] Ilya Sutskever, Oriol Vinyals, and Quoc V Le. Sequence to sequence learning with neural networks. In Advances in Neural Information Processing Systems 27 (NIPS 2014), pp. 3104-3112, 2014. [2] Thang Luong, Hieu Pham, and Christopher D. Manning. Effective approaches to attention-based neural machine translation. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1412-1421, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [3] Alexander M. Rush, Sumit Chopra, and Jason Weston. A neural attention model for abstractive sentence summarization. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 379389, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [4] Oriol Vinyals and Quoc V. Le. A neural conversational model. In ICML Deep Learning Workshop, 2015. [5] Tiancheng Zhao, Ran Zhao, and Maxine Eskenazi. Learning discourse-level diversity for neural dialog models using conditional variational autoencoders. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 654664, Vancouver, Canada, July 2017. Association for Computational Linguistics. [6] Iulian Vlad Serban, Alessandro Sordoni, Ryan Lowe, Laurent Charlin, Joelle Pineau, Aaron C. Courville, and Yoshua Bengio. A hierarchical latent variable encoderdecoder model for generating dialogues. In Satinder P. Singh and Shaul Markovitch, editors, Proceedings of the Thirty-First AAAI Conference on Artificial Intelligence, February 4-9, 2017, San Francisco, California, USA, pp. 3295-3301. AAAI Press, 2017. [7] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [8] Zhaojiang Lin, Genta Indra Winata, Peng Xu, Zihan Liu, and Pascale Fung. Variational transformers for diverse response generation. arXiv preprint arXiv:2003.12738, 2020. [9] Samuel R. Bowman, Luke Vilnis, Oriol Vinyals, Andrew Dai, Rafal Jozefowicz, and Samy Bengio. Generating sentences from a continuous space. In Proceedings of The 20th SIGNLL Conference on Computational Natural Language Learning, pp. 10-21, Berlin, Germany, August 2016. Association for Computational Linguistics. [10] Ryan Lowe, Nissan Pow, Iulian Serban, and Joelle Pineau. The Ubuntu dialogue corpus: A large dataset for research in unstructured multi-turn dialogue systems. In Proceedings of the 16th Annual Meeting of the Special Interest Group on Discourse and Dialogue, pp. 285-294, Prague, Czech Republic, September 2015. Association for Computational Linguistics. [11] 稲葉通将. おーぷん 2 ちゃんねる対話コーパスを用いた用例ベース対話システム. 第 87 回言語・音声理解と対話処理研究会 (第 10 回対話システムシンポジウム), 人工知能学会研究会資料 SIG-SLUD-B902-33, pp. 129-132, 2019. [12] Jiwei Li, Michel Galley, Chris Brockett, Jianfeng Gao, and Bill Dolan. A diversity-promoting objective function for neural conversation models. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110-119, San Diego, California, June 2016. Association for Computational Linguistics. [13] Chia-Wei Liu, Ryan Lowe, Iulian Serban, Mike Noseworthy, Laurent Charlin, and Joelle Pineau. How NOT to evaluate your dialogue system: An empirical study of unsupervised evaluation metrics for dialogue response generation. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2122-2132, Austin, Texas, November 2016. Association for Computational Linguistics. [14] Tianyi Zhang*, Varsha Kishore*, Felix Wu*, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020. [15] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH4-16.pdf
# Can-do 型日本語学習用資源としてのアニメーション字幕の分析 大河原 龍太朗 ${ }^{1}$ 望月 源 $^{2}$ ${ }^{1}$ 東京外国語大学 言語文化学部 ${ }^{2}$ 東京外国語大学大学院総合国際学研究院 \{okawara. ryutaro. s0, motizuki\}@tufs. ac. jp ## 概要 近年, Can-do を活用した言語学習が言語教育では主流であるが,同時に実用的な例文を増やすことが 1 つの課題となっている. 本研究では, 学習教材の資源としてのアニメーション字幕に焦点を当てる.分析のため, 会話部分を人手により抽出し, AJ Cando リストを参照し,例文に利用可能な会話を選定する.また,選定時に Can-do 目標からのレベル推定も行う. 抽出した Can-do 会話とレベルから, Can-do 学習に対応した会話例教材の資源としての,アニメー ション字幕コーパスの利用可能性について考察する. ## 1 はじめに 近年,学習者の言語能力・技能を「〜できる」という形式で記述した Can-do を活用した言語学習が,言語教育で主流となっている. Can-do 型学習では,学習する項目に対応した会話例・例文などの教材が久かせないが,教科書の例だけでは十分でない,教師が例文を作成して追加することも多いが,手作業には量や話題の幅など限界もあり, 効率的な拡充方法が望まれる. 本研究では, 日本語アニメーションの字幕を Can-do 型学習用教材の資源として活用することを検討する $[1]$. 日本のアニメーション作品はストーリー性が強く, キャラクター同士の会話を軸に構成されている。そのため,アニメーション字幕コーパスはさまざまな機能・目的を持った豊富な会話を含んでおり, Cando 形式の学習に対応した質の高い日本語会話教材資源として,活用が期待できる。 本研究では,アニメーション字幕コーパス内から会話部分を人手により抽出する. 次に, 東京外国語大学留学生日本語教育センターの AJ Can-do リスト [2]を参照し,例文に利用可能な会話(以下,Can-do 会話)を選定する.選定時に参照するレベル別の Can-do 目標に照らして Can-do 会話のレベル推定も行う. 抽出した Can-do 会話とレベルから, Can-do 学習に対応した会話例教材の資源としての,アニメー ション字幕コーパスの利用可能性について考察する。 ## 2 関連研究 アニメーションを学習資源として活用する取り組みは, 1990 年代の「マルチメディア教材」への注目に端緒をもち[3], 特に 2006 年の日本語教育学会での「映画・アニメ・マンガ一日本語教育の映像素材」 というシンポジウムをきっかけに活発化した[4]. アニメーションの教材利用を検討した研究の一例には,田中と本間による研究がある。この研究は,スタジオジブリのアニメーション映画作品「耳をすませば」 について, 「現実の日常会話」の出現頻度および「初級語彙・文法との対応関係」を分析した. その結果,当作品が「未習者が『耳をすませば」で学習した場合, 初級語彙の 4 割程度, また, 初級教科書全体にほぼ匹敵する初級文法の 8 割弱がカバーできる」こと, そしてアニメーションが初級日本語学習に活用されうることを示した[5]. アニメーションは,文法事項を広くカバーしていることに加え,学習動機としても重要な役割を果たしている. Alsubaie and Alabbad は," The Effect of Japanese Animation Series on Informal Third Language Acquisition among Arabic Native Speakers “において, アニメーション鑑賞に一定の学習効果があることを報告したうえで,学習者が無意識的に学習に取り組めるという点をメリットとして挙げている[6]. また,熊野・廣利の研究[3]をはじめとした多くの研究が, アニメ・マンガの外国人学習者の学習動機としての役割を指摘している。 ## 3 Can-do 会話の抽出 ## 3.1 テレビ字幕コーパス 本研究では, 東京外国語大学計算言語学研究室で收集整備している「日本語テレビ字幕コーパス」を用いる[7]. このコーパスは, 東京都の地上波デジタルテレビ放送に付与されたクローズドキャプション (字幕)データを収集し, 不要な情報を除去した後に,字幕表示のために断片化した文を 1 文にまとめたうえで字幕表示のタイミング情報を付与したものであ り,以下の特徵がある。 - 2012 年 12 月から 2021 年 9 月の時点で 518,960 番組, 179,268,965 文, 1,945,899,573 形態素. - 各テキスト(番組)はテレビ局の番組情報に基づいて,アニメ/特撮,スポーツ,ドキュメンタリー/教養, ドラマ, ニュース/報道, バラエティ, 映画, 音楽, 劇場/公演, 趣味〈教育, 情報ノワイドショー, 福祉, および, その他の 13 種類に分類されている. 本研究ではこのコーパスの中から,「アニメ/特撮」 のテキストをアニメーション字幕コーパス (アニメ ーション作品延べ 41,981 番組, 約 7,944 万語)として使用する。字幕データの例を図 1 に示す. 図 1 字幕コーパスの例(「ゲゲゲの鬼太郎」2020年 1 月 5 日放送より) ## 3.2 アニメーション作品の選定と分類 分析の対象とするアニメーション作品を以下の手順で選択しジャンルの分類をする. - 日本国内外で人気の高い日本語アニメーシヨン作品群を選定する,選定基準として,世界最大級のアニメレビューサイトである” MyAnimeList” 1(総ユーザー数は 2021 年 9 月時点で $11,566,100$ 人以上)の”Top Anime”および”Most Popular”のランキングのいずれかで 1000 位圈内とする. - アニメーション字幕コーパスから上記リス卜内にある作品を無作為に 12 作品選出する. - 選出したアニメーション作品のジャンルを定める. ジャンルは, 日本国内におけるアニメーション配信サービス大手である D アニメストア゙の分類に準じて決定する. -上記で定めたジャンルを Aファンタジーと B リアリティの 2 グループに大別する.今回の無作為抽出では, 12 作品を選出し, それぞれが 7 つのジャンルに割り当てられた。選出された 属するかを表 1 に示す. 表 1 選定されたアニメーション作品 ## 3.3 コーパス内の Can-do 会話抽出 アニメーション字幕コーパス内の会話部分を次の基準で抽出する. - 共通の話題についての, 一回以上話者が交代する発話を会話 - 内容の明らかでない指示語を多く含む会話や,文脈の理解が難しい会話の選択は避ける - 話題の転換により会話の区切りを判断する - ただし, 会話文の長さの目安を, 最大 20 文程度, 話者交代の回数を 6 回前後と定める - 前の文の字幕表示終了時間と次の文の開始時間が一致している場合は会話は連続し, 途切れた時点で会話が途切れたと考える 抽出した会話が Can-do 会話かどうかを次の考え方で判定する. 本研究では, Can-do リストとして, 東京外国語大学留学生日本語教育センターが開発した 「JLPTUFS アカデミック日本語 Can-do リスト (AJ Can-do リスト) [2]の 4 技能「読解」「聴解」「文章表現」「口頭表現(独話・対話)」のうち,「口頭表現 (対話)(2017 年 3 月 21 日版)」を用いる. AJ Cando リストは, それぞれについて, 初級 1 , 初級 2 ,中級 1 , 中級 2 , 中上級, 上級 1 , 上級 2 , 超級の 8 段  階に分かれている。また,各レベルには「何ができるか」の Can-do 目標と,扱う会話のテーマ例が掲載されている. 例えば,初級 1 では「基本的な挨拶ができる/易しい語彙や表現を使って,簡単な質問をしたり,答えたりできる」で,テーマ・トピック例は「挨拶,買い物,注文」のように記述されている。 抽出した会話のそれぞれと AJ Can-do リストの記述を比較し, Can-do 会話とそのレベルを推定する. 今回の抽出では, 対象とした全 12 作品 100 話分の字幕データから, 1,600の Can-do 会話を得た. 655 会話はグループ A(ファンタジー), 945 会話はグループ B(リアリティ)に大別された。総文数 35,261 文の内, Can-do 会話の文数は 19,808 文で, 全体の約 $56.2 \%$ が Can-do 会話として推定された。詳細を表 2 に示す. 表中で, C 文数は内 Can-do 会話の文数, C 率は Can-do 会話率, $\mathrm{C}$ 話数は Can-do 会話の数をそれぞれ表す. ## 表 2 Can-do 会話 ## 4 Can-do 会話の分析 3 で抽出した Can-do 会話について, 会話率, レべル分布の観点から利用可能性について分析をする. ## 4.1 Can-do 会話率 表 2 の「C 率」欄に, 各作品の Can-do 会話率が示 されている. Can-do 会話率は, 作品中の Can-do 会話文数を作品中の総文数で割ったもので,1 つのテレビ番組内にどのくらい Can-do 会話が含まれているかの割合を示している。最も高い B6(銀の匙 Silver Spoon)では $82.9 \%$, 最も低い A5 (僕のヒーロ一アカデミア)においても $30.9 \%$ の Can-do 会話率が得られた。また全作品を総合した Can-do 会話率は $56.2 \%$ \%゙った. これらの結果より, 人気作品群には学習教材資源として十分な量の Can-do 会話が含まれていると考えられる。 グループ A とグループ B での Can-do 会話率を比較すると,A が $46.3 \%$ であるのに対し,B では $64.7 \%$ であり,全字幕に対する Can-do 会話の割合は B の方が高かった.グループ A(ファンタジー)はサブジャンルが「SF/ファンタジー」「ホラー/サスペンス/推理」「アクション/バトル」であり,戦闘アクションなどの描写が多い. 一方, グループ B(リアリティ)のサブジャンルは「スポーツ/競技」「ドラマ /青春」「恋愛/ラブコメ」「日常/ほのぼの」であり,一般的な会話がより多かったものと推測される. ## 4. 2 Can-do レベル分布 Can-do 会話として利用可能かどうかを判定する際に,Can-do 目標の記述を参照し,レベルの推測もおこなった.各レベルごとの Can-do 会話の分布を表 3 に示す. ## 表 3 Can-do レベルの推定結果 表 3 に示す今回の調査で,アニメーション字幕コ一パス内の Can-do 会話は, 初級 1 から上級 2 までの幅広いレベルをカバーしていた。なかでも,中級 2 と中上級の Can-do レベルについて, 豊富な会話例を含んでいた。一方,上級以上と推測される Can-do 会話は少なく,最上位の「超級」に該当するCan-do 会話は抽出されなかった. この結果より, 人気作品群のアニメーション字幕コーパスは, 比較的広い範囲の Can-do レベルの会話を含んでおり,特に中級 2 と中上級の Can-do レベルについて, 豊富な会話例を含んでいると推測される。 次に,グループ A とグループ B 間の Can-do レベル分布を比較する。事例が 0 だった超級を除いた 7 レベルでの結果に対して,帰無仮説「A・B グループ間に Can-do レベル分布の差はない」とした $\chi^{2}$ 検定を行ったところ,帰無仮説は亭却され,2 グループの Can-do レベル分布に有意な差がみられた( $\chi 2=$ $136.21, \mathrm{p}<2.2 \mathrm{e}-16$ ). 続いて残差分析を行った. 調整済み残差の結果を表 4 に示す。 表 4 残差分析における調整済み残差 表 4 で*は $5 \%$ 水準,**は $1 \%$ 水準, $* * *$ は $0.1 \%$ 水準で差が有意であったことを表す.統計的に見て,Cando 会話は中級 2 ではグループ B,中上級ではグルー プ A に非常に高く, 初級 1 ではグループ B,上級 2 ではグループ A に高く, 中級 1 ではグループ A にやや高い割合で出現しているといえる. 次に,グループ A とグループ B の Can-do 会話の総数に占める,各レベルの Can-do 会話数の割合を表 5 に示す. 表 5 Can-do 会話の各レベルでの割合 表 5 に示すとおり, グループA においては, 中上級, 中級 2 が多く, それぞれ $40.71 \%$ と $28.98 \%$ だった. 以下, 初級 2 , 中級 1 , 上級 1 と続き, 初級 1 と上級 2 は非常に少なかった。一方グループ B においては, 中級 2 が最も多く $49.89 \%$ であり, 次に中上級が $24.55 \%$ だった. 以下, 初級 2 , 上級 1 , 中級 1, 初級 1 と続き, 上級 2 は非常に少なかった. ## 4.3 分析のまとめ 以上の分析から次のことがいえる。 - 今回調查した人気作品群のアニメーション字幕コーパスには, Can-do ベースの会話例教材資源として十分な量の会話が含まれる。 - 字幕内の Can-do 会話率は作品のジャンルによって異なり,ファンタジーに分類されるグループ A よりもリアリティに分類されるグループ B が高い傾向が見られた. - 字幕コーパス内の会話は初級から上級までの広い Can-do レベルをカバーしており,特に, 中級 2 と中上級の割合が多かった. また,今回の調查では最上位の超級の Can-do 会話は抽出されなかった。 - 字幕コーパス内の Can-do レベル分布では,平均 Can-do 会話率が低いグループ A の方が,比較的難度の高い中上級の会話をグループ B 一」作品は,よりシリアスな話題についての会話が多いこと,一方で B の「リアリティ」作品は日常シーンなどを多く含み, 日常会話レベルの Can-do 会話がより多く含まれることなどが理由として推測される。 ## 5 おわりに 本研究では, 日本語アニメーションの字幕をCando 型学習用教材の資源として活用することを検討した. アニメーション字幕コーパス内から会話部分を人手により抽出し, AJ Can-do リストの各レベルの Can-do 目標を参照し, 例文に利用可能な Can-do 会話の選定とレベル推定を行った. 調査・分析の結果から,アニメーション字幕コーパスは,さまざまな機能・目的を持った豊富な会話を含んでおり, Cando ベースの会話例教材の資源として適していると考えられる. 本調査はアニメーションを学習教材に利用するという観点からは, 比較的規模が大きいと言えるが,今後さらに対象数を増やした詳細な分析を行う必要がある.また,今回の著者による Can-do レベル推定に加えて, 今後日本語教育者も含めた複数での推定を行いレベル推定の精度を高める必要もある. さらに, 今後の展望として, 本研究で抽出した Can-do 会話を Can-do レベル付きの教師データとして用いることで, 字幕コーパスからの Can-do 会話自動抽出への応用が考えられる。 ## 謝辞 本研究は JSPS 科研費 JP19H04224, JP20H00096 の 助成を受けたものです. ## 参考文献 [1] 大河原龍太朗, Can-do 型日本語学習用資源としてのアニメーション字幕の分析, 卒業論文, 東京外国語大学, 3. 2022. [2] 東京外国語大学留学生日本語教育センター, JLPTUFS アカデミック日本語 Can-do リスト (AJ Can-do リスト), https://tufs-jlc- kyoten.jp/kyoten/development/ajcan-do/cando_list, 2022-01 閲覧. [3] 熊野七絵, 廣利正代,「アニメ・マンガ」調査研究--地域事情と日本語教材 An examination of "ANIME \& MANGA": regional information overseas and Japanese-Language materials,国際交流基金日本語教育紀 4, pp. 55-69, 国際交流基金, 2008. [4] 臼井直也, 日本語教育におけるアニメーション研究のこれまでとこれから, 日本研究教育年報 21 , pp. 103-117, 東京外国語大学, 2017. [5] 田中里実, 本間淳子, 初級語彙・文型による 「耳をすませば」スクリプトの分析:日本語学習資源としてのアニメーション映画の可能性, 北海道大学留学生センター紀要 13, pp. 98-117, 北海道大学留学生センター, 2009. [6] Alsubaie, Sara S.; Alabbad, Abbad M., The Effect of Japanese Animation Series on Informal Third Language Acquisition among Arabic Native Speakers. English Language Teaching, v13 n8, pp. 91-119, 2020. [7] Hajime Mochizuki and Kohji Shibano, Building Very Large Corpus Containing Useful Rich Materials for Language Learning from Closed Caption TV, World Conference on E-Learning in Corporate, Government, Healthcare, and Higher Education, Volume 2014, No. 1, pp. 1381-1389, Association for the Advancement of Computing in Education (AACE), 10. 2014.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH4-1.pdf
# スペイン語古文書の年代・地点推定のための最適な手法の探求 川崎 義史 ${ }^{1}$ 永田 亮 $^{2}$ ${ }^{1}$ 東京大学 ${ }^{2}$ 甲南大学 ykawasaki@g.ecc.u-tokyo.ac.jp nagata-nlp2022@ml.hyogo-u.ac.jp. ## 概要 現存する文献史料に立脚する歴史学や通時言語学において,文書の正確な年代推定と地点推定は最重要課題の一つである。本稿では, スペイン語古文書の作成年代と作成地点を,文書内容に基づき回帰により推定する方法を検討した。具体的には,複数の回帰モデルと文書ベクトルとの組み合わせによる比較実験を行い,それぞれの特性を分析した。実験の結果,次の 2 つの知見を得た。まず,文書ベクトルとしては,分散表現ベースのものよりも,単語・文字 $n$-gram の方が優れていた。第二に,回帰モデルとしては, 加重平均 $k$-NN の性能が最良だった。また,性能はやや劣るものの,予測の信頼度として推定分散が求まるガウス過程の有効性も確認された。 ## 1. はじめに 現存する文献史料に立脚する歴史学や通時言語学において, 文書の作成年代と作成地点の正確な推定は,真贋判定とともに最重要課題の一つである。文書の作成年代と作成地点の推定は,それぞれ年代推定, 地点推定と呼ばれる。作成地点を緯度・経度で表寸場合,各々の推定を緯度推定 - 経度推定と呼ぶ。 文書内容に基づく年代推定と地点推定は,分類問題として解かれることが一般的である (2 節参照)。 これに対し, 本稿では, 年代と地点を連続変数とみなし, 両者の推定を回帰問題として扱う方法を検討した。具体的には, 複数の回帰モデルと文書ベクトルとの組み合わせによる比較実験を行い,各々の特性を分析した。データとして,中近世スペイン語古文書を用いた。古文書とは,法令,権利,財産譲渡等に関する近代以前の手書きの行政・法律関係文書の総称である。 実験の結果,次の 2 つの知見を得た。まず,文書ベクトルとしては,分散表現ベースのものよりも,単語・文字 $n$-gram の方が優れていた。このことは,文書の全体的な情報よりも,特定の単語や文字連続が推定に効果的であることを示唆している。第二に,回帰モデルとしては, 加重平均 $k$-NN の性能が最良だった。これは,内容が類似した文書が多く含まれるコーパスの性質によると考えられる。また,性能はやや劣るものの,予測の信頼度として推定分散が求まるガウス過程(Gaussian Process: GP) [1]の有效性も確認された。 本稿の構成は, 以下の通りである。2 節で関連研究を概観する。 3 節では, データセットの説明を行う。 4 節で実験設定を説明し, 5 節で実験結果の報告と考察を行う。 6 節でまとめと今後の課題を述べる。 ## 2. 関連研究 文書内容に基づく年代推定と地点推定は,分類の枠組みで扱われるのが一般的である。年代推定では,一定の期間ごとに分割されたビンがクラスとなる [2]-[6]。地点推定では,州や県などの行政単位や機械的に分割された格子状の範囲がクラスとなる[6][9]。分類器には,ナイーブベイズ,ロジスティック回帰,サポートベクターマシン,ニューラルネットなどが用いられる。 年代推定や地点推定を回帰問題として扱う研究も僅かだが存在する。[10]は, 品詞頻度を特徴量とし, 芥川龍之介の作品の執筆年代を線形回帰, Support Vector Regression(SVR),ランダムフォレスト回帰を用いて推定した。[2]は,GPを用いて北欧語古文書の年代推定を行った。文書は文字・単語 $n$-gram の二值ベクトルで表現されている。[11]は, ツイートの緯度・経度をニューラル回帰で推定した。 ## 3. データセット データセットには,中近世スペイン語古文書コー パス CODEA+2015 (Corpus de Documentos Españoles Anteriores a 1800)を使用した[12]。このコーパスは, 1100 年から 1800 年の間にスペイン各地で発行された約 2500 文書から成る。このうち, 文書長が 10 語以上で, 作成年代と地点が明記されている 2076 文書の校訂版を利用した。校訂版では,省略記号が展開され,綴りや単語分割等が統一的に処理されている。 現段階では,文書の年代分布・地点分布に大きな偏りが存在する。文書数が少なく粒度の細かい推定は困難なため, 作成地点の緯度・経度には, 今日その地点が属する県の県都のそれを採用した。文書長の平均は 582 語, 最小値は 10 語, 最大値は 6271 語,標準偏差は 571 語と変動が大きい。 ## 4. 実験設定 ## 4.1. 回帰モデル 回帰モデルとしては, GP, 加重平均 $k-\mathrm{NN}$, Ridge 回帰,SVR[13]用いた。GP は,通常の線形回帰が適用しにくい問題に対し,より柔軟なモデリングを可能にする回帰モデルである[1]。また, 予測の信頼度を分散で表現できるベイズ的なモデルでもある。 カーネルには, 年代推定・地点推定ともに RBF カー ネルを使用した。カーネルのハイパーパラメータの最適化は, GPy で行なった。最適化の容易さも GP の利点である。加重平均 $k$ - $\mathrm{NN}$ の重みは, 文書間のコサイン類似度とした。最適な $k \in[1,10]$ は, 訓練デ一タでの leave-one-out で決定した。Ridge 回帰を使用したのは, 後述のように入力次元数が大きいため,過剰適合を緩和するためである。ハイパーパラメー タはデフォルトのものを使用した[14]。SVR のカー ネルには,年代推定・地点推定ともに RBF カーネルを用いた。その他のハイパーパラメータはデフォルトのものを使用した[14]。 ## 4. 2. 文書ベクトル 回帰モデルの入力となる文書ベクトルには, 単語・文字 $n$-gram の他に, Doc2Vec[15] と BERT[16]で求めた文書の分散表現を用いた。前処理として,作成年代・地点を表している箇所は人手で削除した。 単語・文字 $n$-gram は, グラムの有無の二值ベクトルと頻度ベクトルの 2 種類を使用した。 $n \in\{1,2,3\}$ とした。特徴空間は, 訓練データの文書に含まれる最頻の 768, 2000 パターンとした。ただし, 文字 1gram など,種類数がこれら以下になる場合がある。次元数 768 は, 後述の BERT に合わせたものである。 Doc2Vec による文書の分散表現は, gensim [17]で求めた。テストデータの文書の分散表現は, 訓練デ一夕による学習モデルから推測した。次元数は, 100, ^{i} \mathrm{https}$ ///sheffieldml.github.io/GPy/ ii https://huggingface.co/dccuchile/bert-base-spanish-wwmcased } 200,768,1000とした。その他のハイパーパラメー タはデフォルトのものを使用した。 BERT による文書の分散表現には, [CLS]トークンのそれを使用した。現代スペイン語のモデル(bertbase-spanish-wwm-cased)を使用し,次元数は 768 とした ii 。大文字・小文字の区別は無視した。入力文書長の上限(512 語)があるため,上限以上の文書は 512 語ごとに分割し, 複数のサブ文書の分散表現の平均を文書の分散表現とした。 文書長が影響しないように,いずれの文書ベクトルも,ノルムが 1 になるように正規化した。正規化をしない場合は,推定性能が大幅に悪化した。 ## 4.3. 評価指標 実験は, 2076 文書を 9 対 1 で訓練データとテストデータに分割して行なった。文書数が少なく, 年代・地点分布に偏りがあるため,均質なデータ分割は難しいと判断し,開発データは準備しなかった。開発データによるハイパーパラメータの調整は,今後の課題としたい。 推定性能の評価指標には, Root Mean Squared Error (RMSE)を用いた。参考のため, Mean Absolute Error (MAE),MedAE(Median Absolute Error)も報告する。地点推定については,緯度・経度の予測値から正解地点との直線距離を GeoPy で求め, これを誤差とした iii。年代推定の単位は年とした。ベースラインは,訓練データの年代,緯度,経度の平均による推定とした。 ## 5. 実験結果と考察 表 1 に各モデルと入力の組み合わせによる年代推定の実験結果を,表 2 に地点推定の実験結果を報告する。緯度推定・経度推定の結果は,付録の表 3 を参照。簡単のため, 緯度・経度は同一のモデルで推定した。各モデルで最良の結果は太字にし,全体で最良のものには下線を付した。 入力が $n$-gram の場合は, 最良の結果となった $n$ の場合を報告している。W- $n$ と Ch- $n$ は,それぞれ,単語と文字の $n$-gram を表す。末尾の-bin と-freq は,それぞれ,二值ベクトルと頻度ベクトルを表す。 図 1 は, 文字 3-gram の頻度ベクトルを入力とした GPによる年代(左), 緯度(中央), 経度(右) iii https://geopy.readthedocs.io/ の予測値と正解値のプロットである。グレーの縦棒は推定標準偏差を表す。実線の対角線は,予測値が正解値と一致する場合に相当する。上下の破線は,年代推定では $\pm 50$ 年の区間を, 地点推定では $\pm 1$ 度の区間を示す。地点推定では, 年代が古い (新しい)文書ほど寒色(暖色)で示した。 ## 5.1. 年代推定 表 1 年代推定の結果 推定性能は $k$-NN が最良となり, 続いて GP, Ridge 回帰, SVR の順となった。いずれのモデルもベースラインを上回った。 $k$-NN の性能が良いのは, 内容が類似した文書が多く含まれるコーパスの性質によると考えられる。非線形の関係も捉えられる GP は, より単純なモデルの $k$-NNを上回らなかった。今後,複数のカーネルの組み合わせ等を検討する必要がある。Ridge 回帰の性能も悪くはなく, 線形に変化する変数の存在が示唆される。SVR は,他のモデルよりも大幅に低い結果となった。入力は,Doc2Vec や BERT による分散表現ベースのものよりも, $n$-gram の方が優れていた。これは,文書の全体的な情報よりも, $n$-gram が捉える具体的な単語や文字連続が推定に効果的であることを示唆している。全般的に, 単語よりも文字 $n$-gram の方が優れていた。どのモデルでも単語では $n=1$, 文字では $n=3$ での性能が最良だった。SVR 以外は, 次元数が大きい方が高性能だった。二値ベクトルと頻度ベクトルの優劣は,モデルに依存するようである。 Doc2 $\mathrm{Vec}$ と BERT の分散表現の優劣は判然としなかった。使用した BERT モデルは現代スペイン語のものだが,中近世語に対しても,ある程度,有効なようである。これは,BERTが subword を考慮するため未知語にも対応可能であり,また,現代語と中近世語の乘離が小さいためだと考えられる。 GP の性能はやや劣るが, 予測の信頼度として推定標準偏差が求まることは大きな利点である。モデルと入力の種類によらず, 推定標準偏差と絶対值誤差には 0.2 程度の正の相関が見られた (付録の図 2)。 モデルと入力の種類によらず,文書長が大きいほど, 誤差が小さくなる傾向が見られた(図は非掲載)。長い文書ほど,推定に寄与する語が多く含まれるためだと考えられる。地点推定でも同様の傾向が見られた。 ## 5. 2. 地点推定 年代推定と同様に, $k$-NN が最良のモデルとなり,続いて GP, Ridge 回帰, SVR の順となった。いずれのモデルもベースラインを上回った。年代推定と異なり,SVR も他のモデルと匹敵する性能だった。入力は, 年代推定同様, $n$-gram の性能が良かった。GP では,推定標準偏差と絶対值誤差には相関は見られなかった(付録の図 2)。 緯度・経度の RMSE を各々のレンジ (最大值一最小値)で割り標準化すると, 経度の方が緯度よりも誤差が $20 \%$ 程度小さくなった。つまり, 経度の方が緯度よりも推定しやすいことを意味する。これは,中世スペインの再征服運動の結果, 東西方向よりも南北方向の言語的特徵が類似していることの反映だと考えられる[18]。 年代が新しい文書は, 経度推定の誤差が大きくなった(図 1)。これは, 年代の新しい文書の少なさに加え, 16 世紀以降, 半島西部 - 中部 - 東部の方言的特徴が消失し言語が均質化したため, 経度の推定が困難になったためだと考えられる[19]。 図 1 文字 3-gram の頻度ベクトルを入力とした GP による年代(左), 緯度(中央), 経度(右)の予測値と正解值のプロット。グレーの縦棒は推定標準偏差を表す。実線の対角線は, 予測値が正解値と一致する場合に相当する。上下の破線は,年代推定では $\pm 50$ 年の区間を,地点推定では $\pm 1$ 度の区間を示す。地点推定では,年代が古い(新しい)文書ほど寒色(暖色)で示した。 表 2 地点推定の結果 ## 6. おわりに 本稿では,スペイン語古文書の作成年代と作成地点を,文書内容に基づき回帰により推定する方法を検討した。具体的には,複数の回帰モデルと文書ベクトルとの組み合わせによる比較実験を行い,それぞれの特性を分析した。実験の結果,次の 2 つの知見を得た。まず,文書ベクトルとしては,分散表現ベースのものよりも,単語・文字 $n$-gram の方が優れていた。第二に, 回帰モデルとしては, 加重平均 $k$ $\mathrm{NN}$ の性能が最良だった。また, 性能はやや劣るものの, 予測の信頼度として推定分散が求まるガウス過程の有効性も確認された。 今後の課題は,以下の 4 点である。まず,カーネルや入力ベクトルの次元数などのハイパーパラメー 夕の調整が必要である。この点で, GP はハイパーパラメータが自動的に求まるという利点がある。 $n$ gram を入力とする場合, 中頻度層のものも考慮することで,性能向上が期待される。第二に,年代推定と地点推定をマルチタスクとして扱い,ニューラルに回帰することが考えられる。緯度と経度には相関がないが, 年代と緯度, 年代と経度には相関がある。 これらの相関を考慮し, 年代と地点を同時に予測することで性能向上が期待される[6]。第三に,同一の入力を使用した分類モデルとの比較が必要である。第四に,[6], [20]のように,推定の根拠となる単語・文字列の特定が望まれる。 $n$-gramを入力とする場合,重みの絶対值の大きなものの特定は容易である。GP では, 関連度自動決定により, 推定に影響のある次元の特定ができる[1]。一方, Doc2Vec や BERT による分散表現を入力とする場合, ある次元が具体的な語に対応しているわけではないので,特定は難しいように思われる。 ## 謝辞 本研究は JSPS 科研費 $18 \mathrm{~K} 12361$ の助成を受けたものです。 ## 参考文献 [1]持橋大地, 大羽成征, 『ガウス過程と機械学習』.東京: 講談社, 2019. [2] S. Boldsen and F. Wahlberg, "Survey and Reproduction of Computational Approaches to Dating of Historical Texts," in Proceedings of the 23rd Nordic Conference on Computational Linguistics (NoDaLiDa), 2021, pp. 145-156. [3] F. De Jong, H. Rode, and D. Hiemstra, "Temporal Language Models for the Disclosure of Historical Text," in Humanities, Computers and Cultural Heritage: Proceedings of the 16th International Conference of the Association for History and Computing (AHC 2005), 2005, pp. 161-168. [4] G. Tilahun, A. Feuerverger, and M. Gervers, "Dating Medieval English Charters," Ann. Appl. Stat., vol. 6, no. 4, pp. 1615-1640, 2012. [5] N. Kanhabua and K. Nørvåg, "Using Temporal Language Models for Document Dating," Lect. Notes Comput. Sci. (including Subser. Lect. Notes Artif. Intell. Lect. Notes Bioinformatics), vol. 5782 LNAI, no. PART 2, pp. 738-741, 2009. [6] Y. Kawasaki, "Dating and Geolocation of Medieval and Modern Spanish Notarial Documents Using Distributed Representation," in QUALICO2021 Book of Abstracts, 2021, pp. 34-36. [7] S. Roller, M. Speriosu, S. Rallapalli, B. Wing, and J. Baldridge, "Supervised Text-Based Geolocation Using Language Models on an Adaptive Grid," in Proceedings of the 2012 Joint Conference on Empirical Methods in Natural Language Processing and Computational Natural Language Learning, 2012, pp. 1500-1510. [8] B. Han, P. Cook, and T. Baldwin, "Text-Based Twitter User Geolocation Prediction," J. Artif. Intell. Res., vol. 49, pp. 451-500, 2014. [9] B. Wing and J. Baldridge, "Hierarchical Discriminative Classification for Text-Based Geolocation," in Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, 2014, pp. 336-348. [10] 金明哲, “文章の執筆時期の推定 : 芥川龍之介の作品を例として,” 行動計量学, vol. 36, no. 2, pp. 89103, 2009. [11] P. Mishra, "Geolocation of Tweets with a BiLSTM Regression Model," in Proceedings of the 7th Workshop on NLP for Similar Languages, Varieties and Dialects, 2020, pp. 283-289. [12] GITHE (Grupo de Investigación Textos para la Historia del Español), "CODEA+ 2015 (Corpus de Documentos Españoles Anteriores a 1800).” [Online]. Available: http://www.corpuscodea.es/. [13] C. C. Chang and C. J. Lin, "LIBSVM: A Library for Support Vector Machines," ACM Trans. Intell. Syst. Technol., vol. 2, no. 3, pp. 1-27, 2011. [14] F. Pedregosa et al., "Scikit-learn: Machine learning in Python," J. Mach. Learn. Res., vol. 12, pp. 2825-2830, 2011. [15] Q. Le and T. Mikolov, "Distributed Representations of Sentences and Documents," in Proceedings of the 31st International Conference on Machine Learning, 2014, vol. 32, no. 2, pp. 1188-1196. [16] J. Devlin, M. W. Chang, K. Lee, and K. Toutanova, "BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding," in Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2019, pp. 4171-4186. [17] R. Řehůřek and P. Sojka, "Software Framework for Topic Modelling with Large Corpora," in Proceedings of the LREC 2010 Workshop on New Challenges for NLP Frameworks, 2010, pp. 45-50. [18] R. Penny, A History of the Spanish Language. Cambridge: Cambridge University Press, 2002. [19] R. Penny, Variation and Change in Spanish. Cambridge: Cambridge University Press, 2000. [20] A. Rahimi, T. Baldwin, and T. Cohn, "Continuous Representation of Location for Geolocation and Lexical Dialectology using Mixture Density Networks," in Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, 2017, pp. 167-176. ## 付録 表 3 緯度推定・経度推定の結果 図 2 文字 3-gram の頻度ベクトルを入力とした GPによる推定標準偏差と年代推定(左), 緯度推定(中央), 経度推定(右)の誤差のプロット。年代推定では, 推定標準偏差と絶対値誤差には 0.2 程度の正の相関が見られた。地点推定では,相関は見られなかった。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH4-2.pdf
# 話し言葉生成のための発話文表現文型辞書 夏目和子 佐藤理史 名古屋大学大学院工学研究科 natsume @ nuee. nagoya-u. ac. jp ## 概要 多様な言語形式の発話文の自動生成を可能とするために,発話意図毎にその意図を表す表現文型を整理した『発話文表現文型辞書』の編纂を進めている. この辞書の特徴は,それぞれの表現文型に,その文型の「話し方の特徴」をベクトルとして記述する点にある。本稿では,旧版からの改訂のポイントを中心に,その現状を報告する. 主な変更点は,(1) 発話意図のグルーピング見直し, (2) 文型を接続することができる述語の記述方法の変更, (3) 例文の整理, (4)表現文型を主要部と末尾部に分割,の 4 点である.現在の辞書は,60 種類の発話意図に対して,8,055 文型を収録している。 ## 1 はじめに 日本語の特徴のひとつに, 文末の述語形式の多様性がある。たとえば,話し手が聞き手に行為の許可を求める「許可要求」を表す表現には,付録 A に示すような多様な形式が存在する。これらの形式のうち, どの形式を使用するかは話し手次第であり, その選択はある種の情報を伝達する。 たとえば,「帰らせてくれ」という表現は男性的で強い要求という特徴を持つため, その表現の話し手は男性であろうと推測される. それに対して,「帰らせてくださいませんか」という表現は女性的で丁寧という特徴を持つため, 話し手は大人の女性であ万うと推測される. 小説の会話では, このような情報伝達を巧みに用い,地の文で明示することなしに会話の話し手が誰であるかを読者に提示する.これは,会話の書き分けと呼ばれ,小説執筆のひとつの技法ともなっている[1]. 我々は, 小説の自動生成 $[2] を$ 進める過程で会話の生成が必要となり,これを実現するための『発話文表現文型辞書』の編纂を進めている [3,4].この辞書では,発話の目的を「発話意図」として分類し,それぞれの発話意図に対して,その意図を表現する表現文型を収録している。それぞれの表現文型には, その表現が話し方としてどのような特徴を持つかという情報(「話し方の特徴」)を付与している点に本辞書の独自性がある. 本稿では,旧版[4]からの変更点を中心に,この辞書の現状を報告する。 ## 2 辞書の概要 『発話文表現文型辞書』のエントリは,特定の発話意図を表す表現文型であり,主に下記の 4 種類の情報で構成されている。 1. 発話意図=発話の目的 2. 表現文型=発話意図を表現する言語形式 3. 例文 4. 話し方の特徴ベクトル $=6$ 軸 20 次元 2021 年 12 月現在の本辞書のサイズは, 発話意図 60 種類, エントリ数 8,055 , 例文数 23,489 である. ## 3 発話意図と文型 本辞書における発話意図とは,話し手の発話時における発話の目的である。その発話がどのように聞き手に理解されるかまでは含意しない. 本辞書の発話意図および表現文型の決定には,荒木 $[5] ,$ グループ・ジャマシィ $[6]$ ,市川 [7]などを参考にした。なお, 辞書の全体像を把握するために,発話意図を 11 のグループに分類し, 追加・再編成を続けている,表 1 に,発話意図のグループリストを示す. 発話意図のグルーピングに厳密なルールは決め難いが,宮島 [8]の発話・伝達上の文の類型を拝借すると,グループ R と 0 は働きかけの文, J と I と E は意志・願望の表出の文, $\mathrm{T}$ と $\mathrm{C}$ は現象文・判断文, $\mathrm{Q}$ は質問文ということになろう。なお,グループ A と Kの大部分は定型表現である. $ \text { グループ C には, 「だろう」「らしい」「みたい } $ だ」「ようだ」「かもしれない」「ちがいない」「はずだ」などのモダリティを表す文型を収録した。エントリ数は 5,700 以上であり, 今後, 適切な発話意図を設定して整理する予定である. & \\ ## 4 表現文型と例文 表現文型とは,発話意図を表現する際に使用される言語形式のことである. 本辞書の表現文型の大半は文末の述語形式であるため,以下の 2 つの要素を記述する。 1. 核となる述語(述語核)の活用型とテンス・否定の有無の情報(接続形式) 2. 述語核に後続する助動詞や助詞などの文字列. 主要部と末尾部に分けて記述する 発話意図 R05「忠告」の接続形式, 主要部, 末尾部,例文を表 2 に示す. ## 4.1 接続形式 旧版では述語核の情報を,日本語教育で用いられている文法関連の記号で記述していた。これを変更し,今回の版からは HaoriBrics3(HB3) [9]による表層文の生成が容易になるような記述法を採用した。接続形式は, 活用型とテンス・否定の有無を下記の記号を組み合わせて記述する。 & & & \\ たとえば,表 2 の発話意図「忠告」では,主要部「方がいい」に接続する述語核は, Vbnt(動詞型:無標,ない,夕)である。これは,この主要部に例文に示すような 3 種類の形式が接続すること意味する。一方,主要部「ことだ」に接続する述語核は, Vbn(動詞型:無標,ない)である. なお, Vt(動詞型:夕)に接続する「食べたことだ」は非文ではないが,忠告の意図を表さないので接続形式に含まれない。 ## 4.2 主要部と末尾部 主要部には,述語核に後続する助動詞(相当句) と接辞などを記述する。これらを含まない文型の場合は,述語核の活用形などを,HB3 のルールに従って記述する。具体的には,命令形やチャ形などである. 末尾部には,終助詞と文末記号(?/!/小など) を記述する.末尾部を独立して記述するメリットは,第一に過不足なく記述できているか確認しやすいこ と,第二に,後述する「話し方の特徴」を記述する際に,一貫性を保ちやすくなることである.終助詞は多くの場合, 女性的・男性的, 大人っぽい・子供っぽい,強弱などの特徴が表されるので,他の発話意図の「話し方の特徵」と比較しながら作業を行うことが容易となる。 ## 4.3 例文 例文では原則として,活用型毎に共通の述語を使用した。 具体的には, 動詞型「食べる」, イ形容詞型「美しい」,判定詞型「綺麗だ」である. 表 2 で示すように,一つのエントリに複数の接続形式を記述した場合は,記号(/)を用いて,全ての例文をまとめて記述している。 ## 5 話し方の特徴ベクトル 話し方の特徴は, 表 3 に示す 6 軸 20 要素のベクトルとして記述する。この記述法を定めるにあたっては, 日本語記述文法研究会 $[10,11]$ から, 終助詞の機能,談話の文末表現に見られる文体差,日本語の複雑な待遇的意味などを参考にした。 表 3 話し方の特徵ベクトルの軸と要素 各要素の値域は,0から 3 (印象軸は 0 か 1)の整数値である。対立する要素の値は,かならず一方は 0 であり, 両方に 1 以上の値を付与することはない. 以下では, ベクトルの値をどのように付与しているか,その概略を示す。 ## 5.1 ジェンダーと年齢の軸 ジェンダーと年齢の軸は, 話者の属性に関係がありそうだが,あくまで話し方の特徴, 口調についての要素とする。值は,おおよそ文型を構成する要素に基づいている。具体例を以下に示す. 1. 終助詞さ, ぞ男性的-1 2. 終助詞ぜ男性的-2 3. 終助詞わ $U$ 女性的 -1 4. 終助詞わよ, わ数女性的 -2 5. からだ,からだよ男性的-1 6. からよ,から数女性-1 7. からじゃ大人っぽい-3 8. のだ,のだよ男性的-1 9. の,のよ女性的-1 10. のね数女性的-2 11.です/ます十ぞ/な男性的-2, 大人っぽい-2 12. です/ます十の/のよ女性的 -2 , 大人っぽい-2 13.だろう,だろうな男性的-1 14. でしょうね女性的-1 15.たまえ男性的 -2 , 大人っぽい-1 16.やがれ男性的-2 17. じゃんとどもっぽい-1 なお, 終助詞「わ」は,必要に応じてイントネー ションをU(上昇調)と D(下降調)の 2 種類に区別している. No. 3 のように上昇調の「わ」には女性的 -1を付与するが,下降調の「わ」には付与しない. 3 段階のうちどの値を付与するかの原則の一部を以下に示す。 - 男性的-2, 女性的-2 は,反対のジェンダーの話者がめったに使わない表現文型に付与する -大人っぽい-2 は中年, -3 は老人が使う表現文型に付与する -子どもっぽい-1 は若者言葉, -3 は幼肾語に付与する ## 5.2 長さと強さの軸 長さ軸は,表現文型の見た目の長短に基づいて付与する.たとえば,「助動詞十終助詞」を基準とす ると, 助動詞のみの文型は, 短い-1, 「助動詞十接辞十終助詞」は,長い-1を付与する。 強さ軸は,表現文型に,口調や意味を強める文字列(だぞ,とも,よね)や記号(!)が含まれていれば,強い-1を,省略やぼかし表現(とか,けど) や記号 (‥)が含まれていれば, 弱い-1を付与する.強調要素, ぼかし要素が複数含まれていれば, 強い -2 や弱い-2 などを付与する. ## 5.3 待遇表現の軸 待遇表現には,上向きvs. 下向きの対立がある.日本語の待遇的意味は複雑であるため, 表 3 に示すとおり, 待遇表現の軸の下にaからdの4 軸を設け, それぞれに(上向き $v s$ 下向き)を表す要素を設定した。a 敬意の有無(上扱いvs 下扱い), b 距離(遠ざけ $\mathrm{vs}$ 親しみ) , $\mathrm{c}$ 場面差(あらたまり $\mathrm{vs} くた ゙ け) ,$ $\mathrm{d}$ 品格 (丁寧 $v s$ ぞんざい) である. これによって, ある軸では上向きであると同時に, 別の軸では下向きである表現の特徴を数値化できるようになった. たとえば,大人が子どもに対して,命令する表現で,「お〜なさい」や「ごらんなさい」を含む文型は, $\mathrm{a}$ 敬意の有無軸が下向きで, $\mathrm{d}$ 品格軸が上向きである. 本辞書では以下の値を付与している. - R01「お食べなさい」 下扱い-1,あらたまり-1, 丁寧-1 - R01「食べてごらんなさい」 下扱い-1, 親しみ-1, あらたまり-1, 丁寧-1 また,近年よく耳にする「です」を「ッス」に置き換える表現について, 中村 [12]は, 体育会男子学生が先輩に「そっす数」「おもしろいっす」などと言うのは,親しさと丁寧さを同時に表すためであると分析している。本辞書では「ッス」を含む表現文型は,敬意と親しみを同時に表すものとして,以下の値を付与している. - 男性的-1, 子どもっぽい-1, 上扱い-1, 親しみ一 1 付録に示した Q06「許可要求」の No. 7 と No. 19 がそれに該当する。 ## 5.4 印象の軸 印象軸は, 他の 5 軸の補助的な位置付けで, 現状では対立する要素を設けず,フラグとして運用している. たとえば,I05 後悔「食べちゃった」には,可愛い -1を付与している. また,R02 依頼「食べておくれよ」は時代劇の子どもの発話の印象があるので, 古風-1を付与している. ## 6 本辞書の利用 本辞書は, 発話文生成システムの開発とともに改訂を重ねてきた。刀山[13]では初版を,木村[14]では 2 版を, 米田 $[15]$ では本稿の版を利用して発話文生成を実現している。 発話文生成における本辞書の役割は,与えられた発話意図に対して,その発話意図を表す表現文型を提供することである.可能な表現文型の中から実際に提供する文型を決定する際に,表現文型に付与されたベクトルを利用する。 初版から 2 版への主な変更は, 「性別・年齢を中心とした 8 次元の話者属性ベクトル」から「20 次元の話し方の特徴ベクトル」への変更である. 刀山[13] のシステムは, 入力された話者属性ベクトルからその話者らしい発話を生成するのに対し,木村[14]のシステムは, 入力された話し方の特徴べクトルに基づいてその特嘚を有する発話を生成する。この変更は, 同じ人物でも, 状況や感情や話し相手に応じて様々な表現文型を用いることに対応するためである. 米田[15]のシステムは, どのような性格の人 (キャラクタ)がどのような話し方の特幑(口調)を用いるかを収集したデータベースを使って,性格から口調を推定する.それにより,入力された性格に対して,その性格を反映した口調の発話を生成する. ## 謝辞 本研究は JSPS 科研費 JP18H03285,JP21H03497 の助成を受けたものです. ## 参考文献 1. 大沢在昌. 小説講座売れる作家の全技術. 角川書店, 2012 . 2. 佐藤理史. コンピュータが小説を書く日.日本経済新聞出版社, 2016 . 3. 夏目和子, 刀山将大, 佐藤理史. 発話文自動生成のための日本語表現文型辞書の作成. 言語資源活用ワークショップ 2016 発表論文集, pp. 126-136, 2017. 4. 夏目和子, 佐藤理史. 発話文表現文型辞書の設計と編纂. 言語資源活用ワークショップ 2019 発表論文集, pp. 295-312, 2019. 5. 荒木雅弘, 伊藤敏彦, 熊谷智子, 石崎雅人. 発話単位タグ標準化案の作成. 人工知能学会誌, Vol. 14, No. 2, pp. 251-260, 1999. 6. グループプジャマシィ. 教師と学習者のための日本語文型辞典. くろしお出版, 2009 . 7. 市川保子. 日本語類義表現と使い方のポイント:表現意図から考える。スリーエーネットワーク, 2019. 8. 宮島達夫, 仁田義雄編. 日本語類義表現の文法,上:単文編. くろしお出版, 1995. 9. 佐藤理史. HaoriBricks3:日本語文を合成するためのドメイン特化言語.自然言語処理, Vol. 27, No. 2, pp. 411-444, 2020. 10. 日本語記述文法研究会. 現代日本語文法 4 . ろしお出版, 2003. 11. 日本語記述文法研究会. 現代日本語文法 7. く万しお出版, 2009. 12. 中村桃子. 新敬語「マジヤバイっす」: 社会言語学の視点から. 白澤社, 2020. 13. 刀山将大, 夏目和子, 佐藤理史, 松崎拓也. 話者の特徴を反映した発話文生成器の作成. 言語処理学会第 23 回年次大会発表論文集, B1-3, 2017. 14. 木村遼, 夏目和子, 佐藤理史, 松崎拓也. 発話表現文型辞書を利用した多様な発話文生成機構. 2018 年度人工知能学会全国大会 (第 32 回), 2E2-02, 2018. 15. 米田智美, 佐藤理史. 話者の性格を反映した発話文の生成. 言語処理学会第 28 回年次大会発表論文集, 2022 (発表予定). ## A 付録 ## Q06「許可要求」 & & & 主要部 & 末尾部 & 例文 & & & & $\left.\lvert\,$\right. & & & & & & & & & & & & & & & & \\
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH4-3.pdf
# 国語研長単位に基づくUD Japanese 大村舞 国立国語研究所 mai-om@ninjal.ac.jp } 若狭絢 国立国語研究所 awakasa@ninjal.ac.jp } 浅原 正幸 国立国語研究所 masayu-a@ninjal.ac.jp ## 概要 Universal Dependencies (UD) は言語横断的に、かつ依存構造にツリーバンクを構築するプロジェクトである。全言語で統一した基準により、品詞タグ付け・依存構造アノテーションデータの構築が進められている。分かち書きをしない言語においては、基本単位として構文的な語 (syntactic word) を採用するように規定している。従前の日本語の UD デー タは、形態論に基づく単位である国語研短単位を採用していた。今回、我々は新たに構文的な語に近い単語単位である国語研長単位に基づく日本語 UD である UD_Japanese-GSDLUW、UD_JapanesePUDLUW、UD_Japanese-BCCWJLUW を構築したので報告する。 ## 1 はじめに Universal Dependencies [1] (UD) は、依存構造関係を付与する基本単位として構文的な語 (syntactic word)を用いることを規定している。英語やフランス語といった空白を用いて分かち書きをする言語においては、縮約形態を除いて、空白を語境界と認定することが多い。一方、分かち書きを語境界で明示しない東アジアの言語においては、どのような単位が構文的な語に規定すべきかという問題がある。 既に公開されている UD Japanese(日本語版 UD) は、その基本単位として国語研短単位 (Short Unit Word: 以下短単位) を採用している。現在までに短単位に基づく形態素解析用辞書として、約 88 万語からなる UniDic [2] が公開されている。この語彙数の多さは、日本語の形態変化の豊かさ (morphologically rich)を示しているだろう。さらに、短単位は『現代日本語書き言葉均衡コーパス』(BCCWJ) [3]・『日本語日常会話コーパス』(CEJC) [4] をはじめとした形態論情報つきコーパスでも採用されており、150 万語規模の単語埋め込み NWJC2vec [5] でも短単位が使われているため、短単位を基準として言語処理 に必要な基本的言語資源が整備されている。この短単位に基づく言語資源の豊富さから、実用上は短単位に基づく処理が好まれる傾向にあった。 Murawaki [6] は、単位として短単位を採用している既存の UD Japanese コーパスは「形態素」単位であり、UD の原則にあげられる「基本単位を構文的な語とする」という点で不適切であることを指摘している。国語研においては、形態論情報に基ついいて単位認定し、可能性に基づく品詞体系が付与されている短単位とは別に、文節に基づいて単位認定し、用法に基づく品詞体系が付与されている国語研長単位 (Long Unit Word: 以下長単位) を規定している。 さらに、同単位に基づいた形態論情報が BCCWJ や CEJC などのコーパスに付与されている。 本稿では、長単位に基づくUD Japanese の言語資源を整備したので報告する。長単位は、文節に基づいて認定される構文的な語とみなしうる単位である。長単位は UD の原則に基づくと UD Japanese で採用すべき基本単位ではあるが、長単位に基づくコーパスの構築は、短単位に基づくコーパスの構築より困難である。さらに、長単位に基づく依存構造木が解析器によって生成しやすいかという問題もある。本稿では、国語研長単位に基づくUD Japanese について説明すると共に、既存の言語資源・解析器によって長単位に基づくUD が生成しやすいかについて議論する。 ## 2 日本語の単語分割 ## 2.1 国語研による語の単位認定 日本語の単語の境界認定として、国語研では、最小単位、短単位、長単位、文節などの単位を規定している [7]。それぞれの例を図 1 に示す。 最小単位はその語種に基づき定義される。日本語は、漢語・和語 - 外来語 - 固有名詞 - 数値表現 $\cdot$ 記号などの語種からなり、漢語は 1 文字 1 語、和語・外来語・固有名詞はその最も短い単位を 1 語とする。 \\ 図 1 最小単位、短単位、長単位、文節の例(BCCWJ の PB33_00032より) 数値表現は十進の位取りで発音できる単位に分割する。記号は 1 文字 1 語とする。 短単位は、最小単位に基づき、同じ語種同士の 1 回結合までを 1 単位としている。この短単位に対して UniDic 体系に基づく形態論情報(品詞・活用型・活用形・語形・語彙素)が定義され、その品詞に基づいて付属語か自立語かが認定される。短単位に付与される品詞はその形態素に基づく「可能性に基づく品詞」が付与されるが、これはその形態素でとり得る用法をすべて考慮したものであり、実際の用法などは考慮されていない。用例収集のため、斉一な単語になることを目的としており、1 単語辺りが短い。 長単位は、文節境界を認定したのちに、文節内の短単位要素の結合により認定される。この文節は日本語において係り受けを付与するのに適した単位である。文節単位の係り受け構造は係り受けが交差せず、左から右にかかり (右主辞)、短単位品詞をもとに容易に系列ラベリングでくみ上げられるという性質を持つ。文節は、 1 自立語に接頭辞・接尾辞・助詞・助動詞などから構成されるとし、その各要素を長単位として認定する。長単位の規程集には、長単位としてみなす複合辞 (Multi-word Expressions) が認定され、複合辞をなす機能表現は 1 単位とする。長単位は文法を基準とした単位のため構文的な語に近いと考えられる。また長単位はその用法(係り受けなどの文脈)に基づく「用法に基づく品詞」が付与される。品詞の観点からも、短単位よりも長単位のほうが UD が示す「構文的な語」に近いと考えられる。 ## 2.2 利用できる言語資源・解析器 表 1 各単語単位で利用できる言語資源・解析器表 1 に各単位認定に利用できる言語資源・解析器について示す。表中 TTR は BCCWJ 中の Type Token Ratioであり、この値が高いほど、その単位の出現確率が小さくなることを意味する。最小単位は、短単位を認定する際の基本単位であり、現在のところ公開されている言語資源・解析器は存在しない。短単位は、形態素解析器 MeCab [8] において形態素解析用辞書 UniDic を用いることにより生成されるほか、 NWJC2vec などの単語埋め込みが利用できる。長単位・文節については、辞書の構築は TTR の大きさからも分かる通り、語彙の膨大であるため存在しないが、短単位から構成規則により生成されるため、 チャンカーとして Comainu [9] により生成することができる。 ## 2.3 日本語 UD における単語分割の歴史 我々はいままで現代日本語 UD として 4 種類のコーパスを公開しており、今回さらに長単位版の UD コーパスを 3 種類公開した。既存の短単位版 UDについて説明をする。 UD_Japanese-KTC [10] は京都大学テキストコー パスを元に作られた UDである。UD_Japanese-KTC は長単位に近い単語境界で単語を構成しており、人手によって句構造木もアノテーションされ、その句構造木に基づいて UD を構築している。現在 UD プロジェクトでは Version 2 が公開されているが、 UD_Japanese -KTC については Version 1 でメンテナンスが止まっている。 UD_Japanese-BCCWJ は BCCWJ に基づいた UD コーパスである。BCCWJでは短単位・長単位・文節および文節単位の係り受けの情報が提供されている。UD_Japanese-BCCWJ はこの BCCWJ からの形態素情報を元に Omura and Asahara [11] らが提案しているルールよって、単語係り受け構文へと自動変換されたものである。 UD_Japanese-GSD と UD_Japanese-PUD は Version 1.4 まで Google [12]が管理していたが、Version 2.0 より我々がメンテナンス及び公開しているコーパスで ある [10]。UD_Japanese-GSD と UD_Japanese-PUD は ver. 2.0 から 2.5 までは IBM の単語分割器 [13] により単語分割され修正されていたものであったが、 ver. 2.6 からは短単位を基準として人手によりアノテーションをされている。単語係り受け構文については Omura and Asahara [11] らのルールによって自動変換されている。 ## 3 長単位ベースの日本語 UD 表 2 日本語長単位ベース UD の統計情報 我々は短単位と長単位によって違いを検証すべく、長単位べースの日本語 UDを開発した。UD の v2.9(2021 年 11 月)から、BCCWJ, GSD, PUD の長単位ベース UDを、UD_Japanese-BCCWJLUW, UD_Japanese-GSDLUW, UD_Japanese-PUDLUW として公開している。1) UD_Japanese-GSD と UD_Japanese-PUD は短単位ベースの単語境界、品詞そして文節ベースの係り受け関係を人手により一度アノテーションされている。我々はさらに、長単位ベースのUDを構築するため、GSDと PUDについて長単位の境界、品詞、原型をアノテーションした。長単位をアノテーションしている際に、長単位と短単位でデータに一貫性の不備があった場合は、オリジナルのデータをさらに修正している。そしてこのアノテーションデー タ GSD, PUD を Omura and Asahara [11] らの提案したルールベースによって、文節係り受けから UD の枠組みである単語係り受け関係のコーパスに変換し、 UD_Japanese-GSDLUW と UD_Japanese-PUDLUW を構築した。この変換ルールは短単位と長単位の原型や品詞、形態的な特徴を元にルールベースで変換  している。 ${ }^{2)}$ UD_Japanese-GSD と UD_Japanese-PUD の元となっているこの文節係り受けコーパスは拡張 Cabocha 形式 [14] でオープンデータとして公開3)されている。 BCCWJ はオリジナルのデータにすでに短単位の境界と品詞、長単位の境界と品詞が公開されており、浅原らのデータ [15]を組み合わせることで文節係り受けデータも獲得できる。そこから GSD と PUD と同様に変換を行い UD_Japanese-BCCWJLUW を構築した。 表 2 にそれぞれの長単位 UD の統計情報を示している。表 2 から分かる通り、長単位の語数は短単位の語数より少ない。これは長単位自体が短単位の結合することで構築されているからである。また、長単位は文節を基準に分割したものではあるが、前節の通り、複合語などが含まれていた場合、2つの文節に分割されることもある。そのため、必ずしも短単位と長単位で文節の数は一致していない。 ## 4 統語解析による比較実験 この節では単語単位の違うUDについて、公開されているツール・言語資源によって統語解析を行うことで、どのくらい再現可能かを検討する。この実験ではGSDコーパスを用いた。GSD は訓練・開発・評価データに分割されており、実験設定はこの分割に基づいて実施し、評価は 3 つのレベルで行った。 1つ目は未解析文を大力にした全ての解析器 (単語分割, 品詞タグ付け, 係り受け解析)を行うものである。2つ目は正解の単語分割を入力にして品詞タグ付け・係り受け解析を行うものである。3つ目は正解の単語分割と正解の品詞タグを入力に係り受け解析のみを行うものである。 全ての結果を付録の表 4 に示す。正解デー タの場合 Gold という表記で示している。v2.5 (IBM) は IBM の単語分割基準、v2.8 (SUW) が短単位、v2.9 (LUW) が長単位のデータとなっている。 UDPipe [16](v1.2.0) によりこの 3 種の単語分割について再訓練を行ったものの結果を UDPipe (T) にて示している。UDPipe はパイプラインモデルで単語分割・品詞タグ付け・レンマ推定・係り受け解析を行うことができる。また LINDAT/CLARIN が提供す 2)実際 Omura and Asahara [11] らのルールは短単位に基づいたルールであるが、長単位の場合でも品詞に関する変換ルールを 10 個ほど追加しただけで変換できた。 3) https://github.com/masayu-a/UD_Japanese-GSDPUDCabocha 表 3 未解析文を入力した場合の係り受け解析精度 (Subset of 表 4). Diff は w/o vec と w/vec の差である る UDPipe モデル4)はv2.5 (IBM) の訓練データで訓練しており、その結果も UDPipe (O) として示している。さらに UDPipe は係り受け解析器に外部の単語埋め込みを利用することができる。短単位に基づく単語埋め込み NWJC2vec を利用していないものと利用したものの結果について Train w/o vec と Train w/ vec にて示している。v2.5 (IBM) でもUDpipe 特有の単語埋め込みが生成されているため、Original で示している。 全体的に $\mathrm{v} 2.5$ 以前の UDよりも v2.8 以降の短単位と長単位を採用した UD のほうが、高精度に解析が可能であることが分かった。また、通常の UDPipe におけるv2.9(LUW) の係り受け解析精度は v2.8 (SUW) に1.2-1.4\%ほど劣っていた。 表 3 に単語埋め込みの影響を見るため、未解析分を入力とした結果のみ抜粋している。短単位に基づく単語埋め込み NWJC2vec の利用の有無の差分を見ると v2.8 (SUW) のほうが、v2.9(LUW) よりも性能の向上が見られた。一方で、MeCab や Comainu を使った場合、単語埋め込みを使わない設定においては、 v2.8(SUW) よりも v2.9(LUW) のほうが良い性能であり、また単語埋め込みを利用した場合の最終的な係り受けの精度は $\mathrm{v} 2.8(\mathrm{SUW})$ と $2.9(\mathrm{LUW})$ とでほとんど差がないことが確認された。構文的な語の認定精度が構文解析精度に影響があることがわかる。単語単位の問題は単語埋め込みの構成単位にもかかわってくる。長単位に基づく単語埋め込みの構築は前述の通り Type Token Ratio の観点からは実用的ではなく、現状の計算資源では文字もしくは短単位に基づく単語埋め込みが好まれるだろう。 最後に、表 4 の Lemma の項目をみると、短単位よりも長単位のほうがレンマ生成の精度が低いことが確認された。これは複合された形態素の語彙素の推定は難しいためと考えられる。長単位のレンマ生成  器の精度向上が望めば、より良い解析精度を得られるだろう。 ## 5 おわりに 本稿では日本語 UD における単語分かち書きの問題について示した。様々な日本語分かち書き基準について紹介するとともに、UD が掲げる理念に即した単位認定「構文的な語」にふさわしい単位として国語研長単位があることを紹介した。実際に長単位に基づくUDを構築し、公開・共有を行った。さらに長単位に基づくUD_Japanese-GSDLUW (v2.9)について、公開されているツール・言語資源を用いて、 その再構成可能性について検討を行った。結果、既存の形態素解析器 $\mathrm{MeCab} \cdot$ Comainu とともに短単位に基づく単語埋め込み NWJC2vec を用いた設定において、短単位と長単位とで最終的な係り受けの性能において差がないことを確認した。 構文的な語に基づく依存構造ツリーバンク構築は、日本語のような分かち書きされない言語においてはかなり困難なタスクである。その形態素(短単位・長単位) ・品詞・複合辞認定・依存構造木の構築には多大な作業が必要であった。最初に UD Japanese に携わってから、対外的な調整(権利関係・ アノテーション基準)も含めて、8 年の期間を要した。本基準に則ると、文節係り受けが付与された短単位・長単位に基づく BCCWJ や CEJC なども UD 対応することが可能である。 ただし、構文的な語としての長単位の出力が、工学的に有用であるかはまだ不明である。長単位は複合辞の問題を緩和している一方、先に述べた通り単語埋め込みの恩恵を受けにくくなるという問題がある。さらには、類型論の研究を考えた場合に、他言語においても同様の構文的な語を規定できるかという問題がある。今後他言語を含めた有用性を検証する必要があると考えられる。 ## 謝辞 本研究は国立国語研究所コーパス開発センター 共同研究プロジェクトの成果です。また、科研費 17H00917 の支援を受けました。 ## 参考文献 [1]Joakim Nivre, Marie-Catherine de Marneffe, Filip Ginter, Yoav Goldberg, Jan Hajič, Christopher D. Manning, Ryan McDonald, Slav Petrov, Sampo Pyysalo, Natalia Silveira, Reut Tsarfaty, and Daniel Zeman. Universal Dependencies v1: A multilingual treebank collection. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16). European Language Resources Association (ELRA), May 2016. [2]伝康晴, 小木曽智信, 小椋秀樹, 山田篤, 峯松信明, 内元清貴, and 小磯花絵. コーパス日本語学のための言語資源-形態素解析用電子化辞書の開発とその応用 (特集コーパス日本語学の射程). 22:101-123, oct 2007. [3]Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguti, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary written Japanese. Language resources and evaluation, 48(2):345-371, December 2014. [4]Hanae Koiso, Yasuharu Den, Yuriko Iseki, Wakako Kashino, Yoshiko Kawabata, Ken'ya Nishikawa, Yayoi Tanaka, and Yasuyuki Usuda. Construction of the Corpus of Everyday Japanese Conversation: An interim report. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018). European Language Resources Association (ELRA), May 2018. [5]Masayuki Asahara. NWJC2Vec: Word embedding dataset from 'NINJAL Web Japanese Corpus'. Terminology: International Journal of Theoretical and Applied Issues in Specialized Communication, 24:7-22, January 2018. [6]Yugo Murawaki. On the definition of Japanese word, June 2019. arXiv: 1906.09719 [cs.CL]. [7]Yasuharu Den, Junpei Nakamura, Toshinobu Ogiso, and Hideki Ogura. A proper approach to Japanese morphological analysis: Dictionary, model, and evaluation. In Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC'08), pages 1019-1024. European Language Resources Association (ELRA), May 2008. [8]Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing. Association for Computational Linguistics, July 2004. [9] 小澤俊介, 内元清貴, and 伝康晴. 長単位解析器の異なる品詞体系への適用. 自然言語処理, 21(2):379-401, 2014. [10]Takaaki Tanaka, Yusuke Miyao, Masayuki Asahara, Sumire Uematsu, Hiroshi Kanayama, Shinsuke Mori, and Yuji Matsumoto. Universal dependencies for Japanese. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pages 1651-1658. Euro- pean Language Resources Association (ELRA), May 2016. [11]Mai Omura and Masayuki Asahara. UD-Japanese BCCWJ: Universal Dependencies annotation for the Balanced Corpus of Contemporary Written Japanese. In Proceedings of the Second Workshop on Universal Dependencies (UDW 2018). Association for Computational Linguistics, November 2018. [12]Ryan McDonald, Joakim Nivre, Yvonne QuirmbachBrundage, Yoav Goldberg, Dipanjan Das, Kuzman Ganchev, Keith Hall, Slav Petrov, Hao Zhang, Oscar Täckström, Claudia Bedini, Núria Bertomeu Castelló, and Jungmee Lee. Universal Dependency annotation for multilingual parsing. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers). Association for Computational Linguistics, August 2013. [13]Hiroshi Kanayama, Kentaro Torisawa, Yutaka Mitsuishi, and Jun'ichi Tsujii. A hybrid Japanese parser with hand-crafted grammar and statistics. In COLING 2000 Volume 1: The 18th International Conference on Computational Linguistics, pages 411-417, July 2000. [14]松吉俊, 浅原正幸, 飯田龍, and 森田敏生. 拡張 cabocha フォーマットの仕様拡張. 第 5 回コーパス日本語学ワークショップ, pages 223-232, 2014. [15]浅原正幸 and 松本裕治. 『現代日本語書き言葉均衡コーパス』に対する文節係り受け・並列構造アノテー ション. 自然言語処理, 25(4):331-356, 2018. [16]Milan Straka and Jana Straková. Tokenizing, POS tagging, lemmatizing and parsing ud 2.0 with UDpipe. In Proceedings of the CoNLL 2017 Shared Task: Multilingual Parsing from Raw Text to Universal Dependencies, pages 88-99. Association for Computational Linguistics, August 2017.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH4-4.pdf
# 日本語のシ接続とシテ接続との対応から見た 韓国語の接続語尾「-고」と「-ㅅ」」の使い分けの提案 滝澤宇大 ${ }^{1}$ 西口純代 $^{2}$ 1 小樽商科大学商学部商学科 2 小樽商科大学言語センター ## 概要 日本語の「〜 (し)て」に対応する韓国語の一当とー서 の使い分けの紛らわしさを解消するための方法、考え方の提案を日本語の中止形接続と絡め、検討した。一胥とー众の様々な用法の例文をシ接続とシテ接続 $\mathrm{i}$ で訳し、接続の自然さや文が表す意味を考察した結果、一甹がシ接続、ー서がシテ接続と似た機能を持つことがわかった。これにより、前後節に関連性がある接続における、関連性の強さの差を主張することができた。似た紛らわしい用法において関連性がより強い方には-서、関連性が弱いと言える方には-고 を用いるという考え方を提案した。 ## 1 はじめに 本稿では日本語の「〜(し)て」に対応する韓国語の接続語尾-고と-서使い分けの誤用について取り上げる。「〜(し)て」には多くの用法があり、日本語ではその用法および意味を一つ一つ理解し意識的に使い分ける必要がないが、韓国語では-ㄱと一서 使い分けなければならない。韓国語学習者の使い分けの誤用の傾向と要因を分析した結果を踏まえ、日本語の中止形接続を絡めた使い分けの方法を提案する。 ## 1.1 「-고」と「-서」の用法の分類永原 (2017)は日本語の「〜 (し)て」と韓国語の一贡、一釡の対応について以下のようにまとめている。 「(1)並列 : -고と対応 (2)時間的継起 (先行、順序): -고、 - 어서と対応 (3)起因的継起(原因・理由): -어서と対応 (4)きつかけ(契機): -고と対応 (5)付帯状態(同時進行、手段・方法、条件) : -어서と対応する場合が多いが、 一部〈様態〉を表す一ㄱ. を含む」 (永原, 2017, p. 170)  この分野に関する先行研究においてはそれぞれの用法の分類が研究者ごとに異なる部分があるが、本稿では基本的にこの永原の分類に従った。 ## 1.2 日本人学習者の誤用の傾向 日本人の韓国語学習者を対象にこの使い分けの理解度を測るテストを実施したところ、以下の 4 つのことがわかった。 〈1〉[並列]、[原因・理由]といった-ㄱー一ㅅそれぞれの中心的な意味の理解度は高い。 〈2〉時間的継起の [順序]の-고と [先行]の一利における「前後節の関連性の有無」による使い分けの考え方"が学習者によく浸透している。 〈3>中心的な意味から外れ、テキスト等に掲載されない用法 ([きっかけ] [付帯状態])の理解度が低く、これらの用法にも時間的継起における使い分けの考え方を適用してしまうと誤用が生じる。 〈4〉[原因・理由]の一利と[きっかけ]のの-고 [手段・方法 $]$ の一利と [様態 $]$ の一고いった似たような用法における使い分けが学習者にとって紛らわしく誤用が多い。 以上を踏まえて、〈4〉の似た用法がそれぞれどう違うのか示し、その違いが学習者に浸透している $<2>$ の考え方と共通することを示すことができれば、学習者にとって理解しやすい、紛らわしさを解消する方法といえる。また実施したテストの内容と結果については付録の表 1 を参照されたい。 ## 2 日本語の中止形接続との対応 ## そもそも日本語の「して」は動詞「する」の連用形「し」に接続助詞の「て」がついた形である。「学校に行って、勉強する」のような前節と後節の接続 がテ形接続と呼ばれるのに対し、「学校に行き、勉  強する」のように「て」をつけずに連用形のままマス形でつなぐ形は連用中止接続、中立形接続などと呼ばれる。どちらも文を中止する機能を持った中止形である。本稿ではテ形接続を「シテ接続」、連用中止接続を「シ接続」と呼ぶ。益岡(2012)はシ接続は「単純列挙(並列)の表示を基本とし、場合によって連用関係の一部 (継起/因果)の意味を含意」し、シテ接続は「広義連用関係の主要な意味領域である「並列・時間・論理 (広義因果) ・様態」の意味を包括的に表す」としている(p.4)。一巫がシ接続、一ㅅがシテ接続にそれぞれ対応し、似たような機能を持つのではないかと考え、次の検証を行った。 ## 2. 1 検証 一ㄱとー서で接続されるそれぞれの用法の韓国語の例文を、シ接続とシテ接続で訳し、どちらが適当でより自然な文章になるか、その接続がどう言った意味を表すかを考察したただしここでの不自然さとは、 シ接続が書き言葉的で、シテ接続が話し言葉的な文体であることからくる不自然さではなく、文があらわす意味の不自然さや接続の不自然さとする。自然な接続に○、どちらの接続でも自然な場合、よりふさわしい接続と考えられればその接続に)、やや不自然な文には $\triangle$ 、明らかに不自然なものにはメをつけた。 ## [並列] a. 여름”은 "덥고"겨울은 추워요. 夏は<暑く()/暑くて $(\bigcirc)>$ 、冬は寒いです。 b. 남편은 영화를 봤고 처는 쇼핑했어요. 夫は映画を $<$ 見 $(X) /$ 見て $(\bigcirc)>$ 、私は買い物をしました。 $\mathrm{b}^{\prime}$. 저는 쇼핑했고 남편은 영화를 "봈어요. 私は買い物をくし(○)/して(○)>、夫は映画を見ました。 c. 배가 아프고 머리도 아파요." お腹が<痛く()/痛くて $(\bigcirc)>$ 、頭も痛いです。 [並列 $]$ の用法は韓国語では-走のみが対応する用法であるが、シ接続もシテ接続も用いることができた。 ただ益岡 (2012)は[並列]の領域で両者(シ接続とシテ接続) は競合関係にあるとしながらも「同類の事態」や「関係する複数の事態を分立・対立する」単純列挙では、「同次元的な共存関係を示すことから、中立系接続が優先される (p. 4 5)」(中立形接続=シ接続)としている。確かに、話し言葉において並列の用法でもシテ接続が多用されるため不自然な感じがしないが、ここでの「て」は単なる接続の機能だけを担ったもので、前件と後件の並列感、羅列感は連用形の部分が担っているといえる。そのため [並列] の接続においてはシテ接続よりもシ接続がより適していると考える。また「見る/寝る/着る/来る」などのように連用形が一拍のものにはシ接続は一般的に用いられにくくシテ接続が用いられるため、例文(1) のb’はシ接続が不自然な文になった。 ## [継起 (順序/先行)] a. 오늘은 “친구를 만나고 영화관에 "갔”어요." 今日は友達に<会い $(\bigcirc) /$ 会って $(\bigcirc)>$ 、映画館に行きました。 b. 오늘은 "친구를 만나서 영화관에 "갔어요. 今日は友達に<会い $(\bigcirc) /$ 会って $(\bigcirc)$ >、映画館に行きました。 c. 저녁을” 먹고륵을" 먹었”어요. 夕飯をく食べ $(\bigcirc) /$ 食べて $(\bigcirc)>$ 、薬を飲みました。 d.아침밥을 "먹고 회사에 가요. 朝ごはんを $<$ 食べ $(O) /$ 食べて $(O)>$ 、会社に行きます。 e.도서관에 가서 공부헤요. 図書館にく行き $(O) /$ /行って $(\bigcirc)>$ 、勉強します。 f.은행에서 "돈"을 찾아서 책을" 샀"어요." いました。 [継起]の用法において韓国語では関連性のない前後の動作を時間的に羅列した[順序]では-ㄱ、前件が後件の動作の前提になるなど前後に関連性のある動作を接続した[先行]ではーㅅを用いる。(2)の例文において、a, c, d がーㄱ用いる[順序]、b, e, f が-서用いる [先行]の例文である。どの文においてもシ接続とシテ接続を用いることができ不自然な文にはならなかったが、どちらを用いるかによって表す意味に違いもみられた。aが「その友達とは別れて映画館に行ったこと」を表すのに対し、bは「その友達と映画館に行ったこと」を表し、この意味の違いを韓国語では-ㄱー서で使い分ける。しかしシ接続、シテ接続のどちらで訳しても両方の意味を受け取ることはできた。c とdにおいても、どちらの接続でも前後の動作をただ順序付ける文になったが、シテ接続を用いると「て」の完了の意味がより強く出た。 そのため前後の順序を強調する「〜してから」の意味を表したい場合はシテ接続が適していると言える。 ただ韓国語においてはそのどちらの表現でも一甹を用いる。e と fにおいても、シテ接続を用いると「(行って)そこで」、「(おろして)そのお金で」というように前件が後件のための動作である意味、前後の結びつきの強さを受け取ることができたが、シ接続ではそれが薄まった。益岡(2015)は「よく考えてお返事いたします。」を例に挙げ、継起の用法について 「先後関係が明瞭な場合はテ形が優先される (p.4)」 としている。たしかにシ接続に比べてシテ接続を用いた方が前後節の順序が明確化する。このように継起の用法においては、シ接続がー고、シテ接続がー스 それぞれ対応するとは言い切れなかった。 ## [原因・理由/きっかけ] a. 많이 먹어서 배가 불러요. たくさん $<$ 食べ $(\triangle) /$ 食べて $(\bigcirc)>$ 、お腹がいっぱいです。 b. 너무"바빠서 공부 못했어요. あまりにく忙しく $(\triangle) /$ 忙しくて $(O)>$ 、勉強できませんでした。 c. 친구가 합격했다는 소식"을 들고 놀랐어요. 友達が合格したという知らせをく聞き $(\bigcirc) /$ 聞いて (○)>、驚きました。 [原因・理由]における用法では $\mathrm{a}, \mathrm{b}$ が-서、c は永原(2017)において[原因・理由] と区別される[きっかけ]としてー고゙用いられる例文である。[きっかけ] に分類される文においても前件が後件の原因・理由になっている、という考え方により [原因・理由]の -서 [きっかけ]の-고区別が日本人学習者にとって難しい。a, b はシ接続を用いると前後が切れて繋がりがやや不自然な文になった。 c においてもシテ接続の方が前後に因果関係を強く感じることができたが、シ接続が不自然な文にはならず[継起]の意味が強く出た文として成立した。[原因・理由]の文 (a, b)がシ接続にすると前後の結びつきが切れて不自然になったのに対し、[きっかけ]の文 (c)ではシ接続で前後の結びつきが切れても影響なく文として成立した。このことから [原因・理由]に比べると[きっかけ]は前後の結びつきが弱いという考え方ができる。シ接続が成立するかしないかという点から [原因・理由] と [きっかけ] の用法における前後節の結びつきの強さに違いがあると言う考え方ができた。こ れは二つの用法における-고と-서使い分けの紛らわしさを解消する手段の一つになりうると考える。 ## [付帯状況 (手段 - 方法/様態)] a. 걸어서 "학교에" 가요. <歩き $(X) /$ 歩いて $(\bigcirc)>$ 、学校に行きます。 b. 버스를 타고 학교에 가요. バスに<乘り $(\bigcirc) /$ 乗って (○)>、学校に行きます。 c. 알바이트를 해서 돈을 "모았어요. アルバイトをくし $(\triangle) /$ して $(\bigcirc)>$ 、お金を貯めました。 d. 고무창갑을 끼고 설거지를 "해요. ゴム手袋をくはめ $(\bigcirc) /$ はめて(○)>、皿洗いをします。 e. 의자에 앉아처 책을 "읽어요. 椅子にく座り $(\bigcirc) /$ 座って () >、本を読みます。 $\mathrm{e}$ ‘의자에 앉고 그 다음 책을" 읽어요. 椅子に<座り ()/座って $(\bigcirc)>$ 、その次に本を読みました。 f. 하루총일"서서"일했어요." 一日中 $<$ 立ち $(\times) /$ 立って $(\bigcirc)>$ 、働きました。 最後に [手段・方法]、[様態]を付帯状況としてまとめて考察する。この二つの用法において日本人学習者にとって紛らわしかったのが、「乗って行く」は[様態]の-고、「歩いて行く」は[手段・方法]の一利というように、どちらも「行く」方法であると考えられるところで接続を使い分けなければならない点だった。「乗って行く」は乗り込んだ時点で「乗る」動作が終了しつつ「乗っている」状態が「行く」動作と共に持続しているとして、「歩く」と「行く」が同時の動作と考えられる「歩いて行く」とは区別される。しかし、一代が用いられる「座って本を読む」 も座った時点で「座る」動作が終了しつつ「座っている」状態が「読む」動作と共に持続していると考えられるため、ーㅅもも[様態]の用法があると言える。以降、 [様態]の一贡と区別するため「[様態(姿勢) $]$ の一ㅅ」と表記する。ただ、[様態(姿勢) ]の一代を継起の [先行]の用法に含めている先行研究が多い。-ㅅ が用いられる [手段・方法]の例文 a, c、[様態(姿勢) ] の例文 $\mathrm{f}$ おいてシ接続を用いると、a, f は文が成立せず、 $\mathrm{c}$ も前後のつながりが不自然になった。宮崎(2015)は「歩いて行く」などの手段、「立って仕事をする」などの姿勢を表す接続について、「従属度が高く副詞に近づいているものは、第 1 中止形に 置き換えられない(p. 183)」としている。b, d の[様態]の一丛をシ接続で訳すとただ動作の前後を結ぶ継起の意味を受け取れるのに対し、シテ接続では「バスに乗るというく手段で〉学校に行く」、「ゴム手袋をはめた〈状態で〉皿洗いをする」というように前後の意味関係が強調されるように受け取れる。[様態 (姿勢) ]の-서の例文 e も、単に「椅子に座る」動作と「本を読む」動作の時間的な前後関係を表す文としても「椅子に座ったく状態で〉本を読む」という意味を表す文としても捉えられる。後者の意味を表すにはやはりシテ接続がふさわしい。前者の動作の順序を強調する場合は、f” のように「”之 다음(その次に)」などの表現を追加し一贡で接続したほうが適切である (継起の [順序])。以上のことから [手段・方法]、[様態(姿勢) $]$ の一付にはシテ接続が対応すると言える。また[様態] の-고、シ接続でもシテ接続でも自然な文が成立するが、「前件の動作の結果を持続した状態で」という[様態]の意味をより明確に表すにはシテ接続が適当である。宮崎(2015)で「従属度が高い」と述べられている[手段・方法] と [様態] (姿勢)は、単なる時間的な前後関係を表す文としても成立する[様態]に比べて前後の結びつきがより強いと言える。 ## 2.2 考察・主張 全体を通して、シ接続では前件と後件の繋がりの強さが現れにくく、シテ接続を用いると前後節の意味関係がより表面化して現れた。これに加え一杢の用法においてシ接続で訳して不自然な文になるものがなく、一付の用法においてシテ接続で訳して不自然な文になるものもなかったという結果も踏まえると、[順序]の-고と[先行]の-서の使い分けだけでなく他の紛らわしい用法においても、一고-서 で前後節の結びつきの強さに差があるという主張ができる。日本人学習者にとって特に紛らわしかったのが[きっかけ]の-고[原因$\cdot$理由] の-서の使い分け、 $[$ 様態 $]$ の一正と $[$ 手段・方法 $]$ の一众の使い分けである。上述したように、[きっかけ]、[様態]の一ㄱはどちらもシ接続で訳しても継起、単なる時間的な前後関係を叙述する文として成立するが、[原因・理由] 、 [手段・方法]の一众はシ接続で訳すと不自然な文となった。このことから[きっかけ]と[原因・理由]、[様態] と[手段・方法]ではそれぞれ前後節の結びつきの強さに差があることが言える。結びつきがより強いと言える[原因・理由]、[手段・方法]はどちらも- 서を用いる用法であり、時間的継起の [順序]の一走と [先行]の-서の使い分けにおける、[先行]は前後の関連性が高いという考え方と共通する。 この [順序 $]$ と [先行]の使い分けの方法を他の用法にも適用してしまうことで誤用が起きると先に述べた。しかしその誤用は、[きっかけ]や[手段・方法]、 [様態]といった中心的な意味から外れる用法の分類がテキストにまとめられないことによって生じるものである。そのため、ーㄱと-서の用法の分類を絞ることなく提示し、その上で[原因・理由] と[きっかけ]、[手段・方法] と [様態]それぞれの使い分けを今回示した前後節の結びつきの強さの差で説明することで、学習者の紛らわしさを解消しうると考える。 これは学習者に浸透している、「前後の関連性の有無」という[順序 $]$ の-고と[先行]の-서の使い分けにおける考え方と共通するため、学習者にとってより理解しやすいものであると言える。 ## 3 まとめ・おわりに 本稿で述べてきたことをまとめると以下のようになる。 ・「一妇での接続は前後の関連性をなくすため、関連性のある前後は一ㅅで接続する」という認識が浸透しているということ。 ・一贡がシ接続と、ー서がシテ接続と似た機能を持つということ。 ・前後節に関連性があるのに一夛を用いる[きっかけ]、[様態]の用法について、それぞれ似た用法である一财の [原因・理由] と [手段・方法]に比べると前後の結びつきの強さが弱いと言えること。(前後の結びっきの強さに差があるということ。) ・一ㄱとー서の用法の分類を絞ることなく提示し、その上で[原因・理由] と [きっかけ]、[手段・方法]と [様態]それぞれの使い分けを前後節の結びつきの強さに差があるという点で使い分けを説明するべきということ。 この分野におけるほとんどの先行研究において一 고くㅅは日本語の「て」に対応するとしているため、一甹と-서に連用中止接続 (シ接続) とテ系接続(シテ接続)を対応させることによる、使い分けの説明の主張はされてこなかった。それに加え、これまでの先行研究のように動詞の種類や目的語の移動などに触れた難しい説明に比べて、学習者にとって理解しやすい使い分けの説明の提案ができたと考える。 ## 参考文献 1. 永原歩 (2017) 「韓国語の接続語尾「-고 ko」と 「-아서 aseo/어서 eoseo」の誤用と 習得」『東京女子大学紀要論集』67:159-183. 2. 金秀美 (2013)「韓国語の「고 오다」と「아 오다」 について」『慶応義塾外国語教育研究』10:23-42 3. 崔チョンア (2018)「韓国語テキストにおける 「-eoseo」形と「-go」形について一日韓対照研究の 観点からの提案一」『言語文化論叢』22:1-29. 4. 孫禎慧 (2005) 「日本語を母語とする韓国語学習者の誤用分析-해서形と하고形を中心に一」『朝鮮学報』 195. 5. 八野友香 (2011) 「付帯状況を表すシテに関する一考察」『日語日文學研究』77:357-375. 6. 宮崎聡子 (2015)「日本語母語話者及び日本語学習者による動詞中止形の使用状況-「YNU 書き言葉コー バス」の調查を通じてー」『岡山大学社会文化科学研究科紀要』39:179-194. 7. 益岡隆志 (2012) 「日本語の中立形接続とテ形接続の競合と共存」第 31 回中日理論言語学研究会. 同志社大学大阪サテライト・オフィス, 2012 年 10 月 21 日。 8. 生越直樹・専喜澈 (2018)『ことばの架け橋[改訂版]』白帝社. 9. 魏聖銓 (2018)『韓国と日本-くらべて学ぶ中級韓国語-』朝日出版社. 10. 金順玉・阪堂千津子 (2017)『もつとチャレンジ!韓国語』白水社. 11. Kpedia. (オンライン) https://www. kpedia. jp ## A 付録 表 1 & & $80 \%$ \\ <テスト受験者について> 対象者 : 日本の大学において第二外国語として韓国語の履修経験がある学生。 学年 : 大学 2 年生 10 名、 3 年生 5 名、 4 年生 5 名、計 20 名。 韓国語学習歴: 1 年目 1 名、 2 年目 11 名、 3 年目 5 名、 4 年目 2 名、それ以上 1 名。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH4-5.pdf
# 類型論データベースを用いた人類史解明のための言語類似法の構築 ${ }^{1}$ 東海大学医学部 ${ }^{2}$ 慶應義塾大学大学院政策・メディア研究科 ${ }^{3}$ 東京医科歯科大学 ${ }^{4}$ 慶応義塾大学薬学部 matsumae. hiromi. g@tokai. ac. jp ## 概要 本研究では、人類社会における言語の多様性とその歴史を解明する目的で、言語類型論のデータベー ス用いて、文法の類似性に基づいた解析法を新規に考案した。既知の先行研究の課題であった、(1) 久損値を含み、かつ多次元であるような複雑な文法要素のデータ構造の前処理を自動化し、(2)ペアワイズの相関解析に基づき言語間の類似性の推定を行い、(3)文法要素のクラスタリングを行うことで、非独立性要素が要因となり生じる類似度の誤差を推定し、(4)最終的に、木構造に依存しない可視化法としてスパイダーチャートで類似性を採用した。そして北東アジアとヨーロッパという言語多様性の観点から対称的な 2 つの地域の言語に絞った予備解析を行った。 ## 1 背景 ヒトの言語はヒトだけが持ちうるユニークな文化である。しかし世界には 8000 以上の言語が知られており、それらは 420 以上の言語族に分けられている(1)。つまり人類集団の中で言語は、ヒト言語としての普遍性を保ちつつも、多様性を生み出している。 これら多様な言語の歴史的関係性を定量的に推定することは容易ではない。例えば、基礎語彙に基づく歴史言語学的アプローチは、語族内の関係性の再構成には有力な手法である。またある語族に属する言語とその話者集団の遺伝的関係についても学際的なテーマとしてよく研究されている。例えば、西ユ ーラシアにおけるインド・ヨーロッパ語族の言語と話者それぞれの起源と拡散史の解明は、ハイスルー プットな個人ゲノム解析技術の飛躍により、欧米では競争が激しい研究テーマの 1 つである。しかしこの方法は、借用語の関係などを除けば語族間の関係性の推定には適さない。語彙の他では、音素は語族を超えた比較が容易であるものの、音素の類似性は、近年の言語接触により生じた変化を反映しやすいと考えられており、古い歴史的関係性を保持していない可能性がある (2-3)。したがって、世界中の民族集団の高品質のゲノムデータが得られるようになっている中で、言語族数が少ない西ユーラシアに比べ、多言語族に跨がる東ユーラシアの言語-遺伝子の関係は、大きな後れを取っている。 一方、言語類型論では、文法には言語族間の関係性が反映されているという仮説もあり、文法をデー タベース化し、言語の類似性の評価に利用しようという動きにつながった (4)。それら言語の類型論的な特徴は、World Atlas of Language Structures (WALS) といったデータベースに集約されてきた。近年、WALS の文法要素やその他音素などのデータベースを統合し、2,500 以上の言語データを含む新しい言語類型論データベース AUTOTYPが 2017 年に考案された (5)。 AUTOTYP を用いて言語間の歴史的関係性の推定を行った先行研究として、日本、朝鮮半島、シベリア、北極圏を含む北東アジア 11 言語族に対して、言語の 3 つの要素(語彙・文法・音素)とゲノムと音楽 (歌)を比較した研究が挙げられる (6)。これら地域の民族集団のゲノムはよく研究されており、語族が異なっていても民族集団間にどの程度の遺伝的な連続性があるか知見が集積されているため、もし言語の中にそうした類似性を示す要素があれば、ゲノム史と相関するだろうというアイデアである。この研究では、言語やゲノムに対して、それぞれ言語/民族間の距離を距離行列に変換し、統計的に分析することで文法の類似性とゲノム史の間に有意な相関を見出した(逆に語彙や音素とゲノム史の間には統計的な関連がなかった)。このことは語族間関係の推定に文法が利用可能であることを示唆している。 この先行研究は、文法のデータ解析にいくつかの課題を残している。第一に AUTOTYP 上の文法要素のデータ構造は多次元データであると考えられ、加えて研究者人口の少ない言語では欠損値を多数含むといった複雑な構造になっており、利用にあたり言 語類型論の高い知識が要求されることが挙げられる。例えば、どの文法要素同士が独立なのか、それとも関連があるのかは、現在の AUTOTYP は対応づけできていない。従って、AUTOTYP を用いて、北東アジア以外の地域の語族間の関係性を分析するには容易ではない。第二に、言語間の類似性の可視化の課題である。先行研究(6)では、主成分分析や遺伝子系統解析で用いられるネットワーク系統樹 Neighbornet を用いることで言語間の関係性を可視化した。しかし系統解析の基本である木構造は、人間には直観的に理解しやすいものの、言語間の関係を単純化しすぎる懸念がある(7-8)。語族間の定量解析は始まったばかりであり、語族同士の系統関係についてはそもそもよく分かっていないため、こうした関係性は様々な方法で検証されるべきである。さらに木構造以外で言語のような複雑な変化を示す文化の類似度を可視化できれば、言語に限らず、幅広い文化的指標に適用できる可能性が生まれる。 そこで本研究では、最終的に言語史研究に応用する目的で、AUTOTYP のデータを、事前の知識をなるべく必要としない形で自動的に抽出・解析し、木構造以外の形式で可視化した。本研究では、汎用性を高めるため、perl およびR を用いたパイプラインを構築した。 ## 2 AUTOTYP データの抽出と前処理 ## 2.1 地域集団データセットの作成 本研究は、言語間の関係を最終的に人類史に照らし合わせることを目的としている。そこで、テストデータセットとして 2 の言語セットを作成した。一つ目は北東アジアに焦点を当て、先行研究(6)の 14 言語に対して、より広域の 52 言語/23 言語族を含むデータセットを作成した。この 52 言語には、地域的に遠く、言語学的な知見からも外群的な (コントロ一ル的な)役割を期待できそうな言語族も含めた。二つ目は言語多様性の低いヨーロッパのデータセッ卜を作成した。AUTOTYP に記載されている地域情報(“Region”)から Europe を抜き出したところ、先印欧語も含む 107 言語/6 言語族が含まれていた。これらのデータセットを用いて以下の解析を行った。 ## 2.2 文法要素の coverage の産出 各言語は、AUTOTYP 上に存在する全ての文法要素に対してデータを持っているわけではない。これ は、例えば、特定の言語族にしかないような稀な文法要素の変数が存在するためである。例えば、アジアの特定地域にしかない稀な文法要素を使って、ヨ ーロッパの言語を分析するのは、多くの場合、ナンセンスであることが想定される。さらに研究者がほとんどおらず、言語記録が限られている消滅危機言語では、類型論的研究が十分になされていないケー スは多い。実際、北東アジアにはアイヌ語を始めとした消滅危機言語が多い。しかし人類史的な観点からは、そうした稀少な言語こそが重要であるため、一律に排除することは避けたい。 そこで、本研究では与えられたデータセットごとに久損値の取り扱いを考慮し、任意の欠損率をもつデータのみを選択できるようにするため、 2 つの閥值を設定した。1つ目は、RoL=データセット内において各文法要素が共有する言語の割合(a Ratio of Languages sharing each grammatical factor in a dataset) である。RoL では、文法要素の頻度に間値を設けた。 例えば、RoLを低く設定すれば、その地域では稀である文法要素を、全体的な言語間の類似性の判定に用いることができる。逆に共通要素だけを使いたい場合には RoL を高くする。2つ目は、RoG=データセツト内において各言語が共有する文法的要素の割合 (a Ratio of Grammatical factors sharing each language in a dataset)である。例えば、RoGを低くすれば、久損値ばかりの言語を除去したい場合に用いることが出来る。RoG の低い言語を含めると、その後の言語間の関係性の推定精度が大きく下がるからである。 2 つの欠損値率を組み合わせた場合のデータ量について、テストデータセットで調べた。RoLを $80 \%$以上とした場合、北東アジアもヨーロッパも言語が残らなかった。そこで、RoLを $50 \%$ 以上の場合に絞り込むと、言語族の数が大きく異なる北東アジアでもヨーロッパでも $80 \%$ 程度の言語が残ることが分かったが、文法要素数の割合は異なっていた(表 1)。さらに、RoL $\geqq 50 \%$ の場合から、RoG に間値を与えたときの言語数の影響を検討した (図 1)。その結果、 $\mathrm{RoG} \geq 50 \%$ では、どちらの地域でも言語が残る確率は変わらなかったが、RoGを上げると、ヨーロッパの言語は北東アジアに対して言語が絞られる傾向があった。このことは、ヨーロッパのデータセットの特性に由来すると考えられる。ヨーロッパの言語はインド・ヨーロッパ語族が 88 言語 $(82 \%)$ を占めており、しかもその内訳は方言に近いような関係の言語も多い。そのため、高いRoG ではインド・ヨーロッ パ語族に偏った要素が抽出されると考えられる。なお、RoG の値の選択では、文法要素の数は変わらなかった。このように、データセットに適した久損値の扱いが必要である。 表 $1 . \mathrm{RoL} \geqq 50 \%$ の言語数と文法要素数 & 言語数 $(\%)$ & \\ 図1. 各データセットに含まれる言語数 ## 3 言語間の類似性解析 言語間の類似度解析を行うために、One hot vector encoding を行い言語の文法要素データベースの数值化を行った。この数値化により、各言語の文法要素の情報は、文法要素の存在の有無を 0 と 1 で表したバイナリベクトルで表される。ただし、言語要素の有無に関する情報がない場合、null とした。今回、 このバイナリベクトルを用いて、以下の様に、言語間のぺアワイズな類似性解析を行った。 2 つの言語ペアに対して、存在の有無の情報を有している要素(null でない要素)のみに着目し、バイナリベクトルの一致率を計算した。この一致率の計算を全ての言語ぺアに対して行い、一致率の行列を作成した。その後、各言語ぺアの全言語ぺアに対する相対的な類似度を調べるために、この一致率の行列からぺアワイズに相関係数を算出した。この相関係数を、各言語ペアの類似度として用いた。 ## 4 文法要素間のクラスタリング 言語の文法要素において、複数の文法要素が強い関連性を持つことがある(非独立性文法要素クラスター)。このような文法要素クラスターは、言語間の類似度の計算に強いバイアスを生じさせる原因と なる。例えば、ある 2 言語が非独立性文法要素クラスターを共有する場合、この 2 言語の類似度は、相対的に高く見積もられてしまう。 そこで、文法要素のクラスタリングを行い(図 2)、 このようなバイアスが原因となって生じる類似度の誤差を推定した。具体的には、言語間の類似度解析と同様に One hot vector encoding によるデータの数值化を行い、そのデータに対して kmeans 法で文法要素間のクラスタリングを行った。最適なクラスタ一の数は、Gap 統計量をもとにして算出した。その後、各クラスターからランダムに 1 つの文法要素の抽出を行い、ペアワイズな言語間の類似度を算出した。この類似度の算出を 100 回行い、標準偏差を計算した。この標準偏差の値を用いて、非独立性文法要素によるバイアスから生じる言語間類似度の誤差を推定した。 図 2. 文法クラスターの例。 $\mathrm{RoL} \geqq 50 \%$ 以上、 $\mathrm{RoG} \geqq 50 \%$以上のとき、北東アジアセットでは、文法要素は 7 つのクラスターに分けられた。各言語(縌)に対して、横のラベルが各文法要素で、変数の値で色づけした。 ## 5 言語間の類似性の可視化 求めた類似度と誤差率に対し木構造に依存しない可視化法として、本研究ではスパイダーチャート(レ ーダーチャート) を採用した(図 3,4 )。ある言語に対して、データセットに含まれる言語が円周上に配置されており、円の中心からの距離で類似度(直線)、 その誤差率(点線)を示した。円の中心に近いほどその類似性が低く、円周に近いほど類似度が高くなる。北東アジアのデータセットにおける日本語の例 を図 3 に示した。日本語と日本語の類似度は $100 \%$一致するので、円周上に位置する。日本語に対して、北東アジア外の言語は、 $50 \%$ 程度の類似度があっても誤差率が高い言語や、誤差率は低いが類似度も $25 \%$ と低い言語などがあった。こうした事例は、例えば、類似度が $60 \%$ 以下だったり、誤差率の高い類似度を除外して、より信頼性の高い語族間の距離の分析に利用できる可能性がある。 図 3. $\mathrm{RoL} \geqq 50 \%$ における、日本語とその他北東アジアの言語との類似度 ( $\mathrm{a}: \mathrm{RoG} \geqq 80 \% 、 \mathrm{~b}: \mathrm{RoG} \geqq 50 \%)$ 。矢印は日本語自身。アス㚈スクは北東アジア外の言語、無印は日本語以外の北東アジアの言語を示す。 一方、英語とヨーロッパの言語を比較したところ (図 4)、インドヨーロッパ語族以外の言語との類似性は、 1 言語を除き $25 \%$ 以下の類似度となった。同じインド・ヨーロッパ語族同士の比較では、類似度や誤差率には大きな幅があった。これには、前述の通り、ヨーロッパの言語の偏りが関係している可能性がある。また、研究の進んでいる語彙など他の指標に基づく距離との比較を行い、結果の妥当性を検証したい。 図 4. $\mathrm{RoL} \geqq 50 \%$ おける、英語とその他ヨーロッパの言語の類似性 $(\mathrm{a}: \mathrm{RoG} \geqq 80 \% 、 \mathrm{~b}: \mathrm{RoG} \geqq 50 \%)$ 。矢印は英語自身 $(100 \%)$ 。アスタリスクはインド・ヨーロッパ語族以外の言語を示し、記号のない言語はインド・ヨ ーロッパ語族に該当する言語。 ## 6 まとめ 本研究では、言語の歴史的側面を解明する目的で、文法データベース AUTOTYP を用いた言語の類似性解析法の構築を行った。任意の言語群に対して欠損率を制御した上で、言語の類似性を推定する方法を新たに構築し、北東アジアとヨーロッパの言語データで検証した。今後は、AUTOTYP 上でラべリングされている 24 の地域ごとに言語を分け分析を進めると同時に、言語学者と共に結果の検証を行う。これらの一連のパイプラインは、perlおよびR で公開予定であるが、より幅広い利用を想定し、 web アプリケーションの構築を検討中である。 ## 謝辞 本研究は JSPS 科研費 JP18H05080,JP20H05013,お よび JST 創発的研究支援事業 JPMJFR2060 の助成を 受けたものです。 ## 参考文献 1. Glottolog 4.5 (オンライン)(引用日:2022 年 1 月 12 日.) https://doi.org/10.5281/zenodo. 5772642 2. N. Creanza, O. Kolodny, M. W. Feldman, How culture evolves and why it matters. Proceedings of the National Academy of Sciences, 114 (30) 7782-7789 (2017). 3. J. Nichols, Linguistic Diversity in Space and Time (University of Chicago Press, 1999). 4. B. Bickel, J. Nichols, Oceania, the Pacific Rim, and the theory of linguistic areas. Annu.Meet. Berkeley Linguist. Soc. 32, 3-15 (2006). 5. B. Bickel, J. Nichols, T. Zakharko, A. Witzlack- Makarevich, K. Hildebrandt, M. Rießler, L. Bierkandt, F. Zúñiga, J. B. Lowe, The AUTOTYP typological databases. Version 0.1.0(2017); https://github.com/autotyp/autotyp-data/tree/0.1.0 6. H. Matsumae, P. Ranacher, P. E. Savage, D. E. Blasi, T. E. Currie, K. Koganebuchi, N. Nishida, T. Sato, H. Tanabe, A. Tajima, S. Brown, M. Stoneking, K. K. Shimizu, H. Oota, B. Bickel, Exploring correlations in genetic and cultural variation across language families in northeast Asia. Sci. Adv. 7, eabd9223 (2021). 7. R. Boyd, M. Bogerhoff-mulder, W. H. Durham, P. J. Richerson, Are cultural phylogenies possible? Hum. Nat. Biol. Soc. Sci. , 355-386 (1997). 8. A. Mesoudi, Cultural Evolution: How Darwinian Theory Can Explain Human Culture and Synthesize the Social Sciences (University of Chicago Press, 2011).
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH4-6.pdf
# 日本語 Wikipedia からの属性値抽出タスクにおける クエリの有効性検証 坂田将樹 1 中山功太 ${ }^{2,3}$ 竹下昌志 4 ジェプカラファウ ${ }^{5}$ 関根聡 ${ }^{2}$ 荒木健治 ${ }^{5}$ 1 北海道大学工学部 2 理化学研究所 AIP 3 筑波大学情報生命学術院 4 北海道大学大学院情報科学院 5 北海道大学大学院情報科学研究院 sakata.masaki.e9@elms.hokudai.ac.jp \{kouta.nakayama, satoshi.sekine\}@riken.jp \{takeshita.masashi, rzepka, araki\}@ist.hokudai.ac.jp ## 概要 近年,固有表現抽出や属性値抽出において機械読解に基づく手法が高い精度を達成している.しかし,日本語の属性値抽出タスクにおいては機械読解手法におけるクエリの有効性の調査は未だ無い. そこで本稿では,抽出精度が良いもしくは悪いクエリを探索し,その特徴を調査する. 実験では 6 種類のクエリと正答例を含む提案クエリを使用する。結果,属性値のみ,もしくは正答例を含むクエリが最良の抽出精度であった. 反対に,抽出対象の記事タイトルを付加すると抽出精度が低下することが明らかになった。また,追加情報によって予測数と誤予測が減少する作用が確認された.ソースコードはhttps://github.com/ Language-Media-Lab/shinra_jp_bert/にて公開している. ## 1 はじめに 近年,固有表現抽出タスクと属性値抽出タスクにおいて,機械読解に基づく手法が高い精度を達成している $[1,2,3,4]$. 機械読解とは,システムが文章 (パッセージ)を読解し,与えられた質問 (クエリ)の回答を文章中から抽出する技術である。よって,機械読解モデルへの入力として「クエリ」はタスクを解く上で必要不可欠である. このクエリについて, Li らは [1] 英語を対象とした固有表現抽出タスクにおいて,7 種類のクエリのうち,効果的に固有表現を抽出できるクエリが存在することを明らかにした. しかしながら,日本語 Wikipedia からの属性値抽出タスクにおいて,効果的に属性值を抽出できるクエリはどのようなものであるのかは不明である.日本語 Wikipedia からの属性値抽出タスクを機械読解として解いた 3 つの既存研究 $[2,3,4]$ では,3つの異なるモデルが提案されているが,それぞれ異なる 1 種類のクエリのみを使用した結果が報告されている. すなわち,既存研究の結果の有効性が提案モデルのアルゴリズムと使用したクエリのいずれに起因するかが不明である。また,英語を対象としたタスクで得られた知見が,日本語を対象としたタスクで同様に有効性を示せるかについては自明ではない。 そのため,本研究では各クエリを用いた際の抽出精度の違いを算出することでクエリの有効性を検証し, 抽出精度が良いもしくは悪いクエリの特徵を調査した. 実験では, 日本語 Wikipedia からの属性値抽出タスクで使用されたクエリと, Li ら [1] が有効性を示したクエリを参考にし,正答例を付加したクエリを使用した (表 1). ## 2 関連研究 機械読解モデルとは,与えられた文章とクエリから回答スパンを抽出するモデルである。このモデルは近年,抽出精度の高さが注目され,固有表現抽出と属性値抽出に使用されている。本節では,日本語 Wikipedia からの属性値抽出タスクと英語を対象とした固有表現抽出タスクの概要と,これらのタスクを機械読解に基づく手法で解いた既存研究について概観する。 日本語 Wikipedia からの属性値抽出タスクこのタスクでは,Wikipedia 記事のカテゴリごとに「拡張固有表現」[5] で定義されている属性に対応する值を Wikipedia 記事中から抽出する [6]. 例えば,企業名カテゴリに属する記事「シャネル」の記事本文から,属性「本拠地国」に対応する文字列「フランス」を抽出する。このタスクを機械読解の手法 表 1 本研究で使用するクエリ:1) 属性名: 抽出対象の属性名を付加. 2) 疑問詞:「は?」もしくは「ですか?」を付加. 3) $5 \mathrm{~W} 1 \mathrm{H}$ : 属性に対応した「誰・何・どこ・いつ・いくつ」を付加. 中山 [3] が作成した $5 \mathrm{~W} 1 \mathrm{H}$ のリストを使用. 5) タイトル: 抽出対象の記事タイトルを付加. 6) 正答例: 学習データ内の正答例を付加. で解いた既存研究 $[2,3,4]$ では,深層学習モデルとして,DrQA[7],BERT[8],RoBERTa[9] が使用された. 機械読解手法を用いた既存研究のうち,BERT と中間タスクを用いた機械読解システム [4] は日本語 Wikipedia からの属性値抽出タスクにおいて最も高い抽出精度であった。 英語を対象とした固有表現抽出 $\mathrm{Li}$ ら [1] は英語を対象とした固有表現抽出タスク $[10,11,12,13,14]$ において,BERT を用いた機械読解手法で他の手法よりも良い精度を達成した. この研究で使用されたデータセットのうち, English OntoNotes5.0[14]のみを対象に 7 種類のクエリを使用して,抽出精度の比較を行っている。その結果,使用するクエリによって F 值が変化した. $\mathrm{F}$ 值が最も高かったクエリは「Find organizations including companies, agencies and institutions」のようなアノテーションガイドラインで使用されるような文章であった. ## 3 既存研究の未調査領域 前章の既存研究では以下 2 点が未調査である. ## 3.1 日本語クエリが抽出精度に与える影響 が不明 先行研究 $[2,3,4]$ では機械読解としてタスクを解く際にそれぞれ異なる 1 種類のクエリのみを付与しているが,この際与えるクエリの影響については分析していない. $\mathrm{Li}$ ら [1] は英語固有表現抽出タスクにおいてクエリの影響を述べている. クエリの種別においては本来のモデル性能を阻害している可能性があるため, 本研究では日本語 Wikipedia からの属性值抽出タスクにおいてクエリが与える影響について調査を行った。 使用するクエリの有効性を調査した研究は英語を対象とした研究 [1] のみであり,筆者らの知る限り日本語を対象とした研究は未だない. ## 3.2 使用クエリの有効性は言語横断的にい えるのかが不明 Li ら [1] は「Find organizations including companies, agencies and institutions」における “companies", "agencies”, “institutions” の部分が $\mathrm{F}$ 值向上の理由だと考察している。その原因として,クエリ内に抽出対象のカテゴリについて記述されていることを挙げている. 以上が日本語 Wikipedia からの属性值抽出タスクにも一般化できるかは不明である. ## 4 実験に用いるクエリの種類 3 章の未調査領域を踏まえ,本稿では,既存研究で使用されたクエリと抽出精度の関係性を統一的に調査する.また「抽出精度が良いクエリは正答例を含む」という仮説立て検証する。 ## 4.1 既存研究のクエリの性能調査 調査する 6 種類のクエリを表 1 に示す (クエリ 1 からクエリ 6 が該当). 表 1 の各列は, クエリの構成要素を表している.例えばクエリ 6 の場合,記事タイトル「シャネル」の属性「本拠地国」を抽出する際「シャネルの本拠地国はどこですか?」となる。 クエリ 1 からクエリ 6 の性能を調べるために,それぞれのクエリで学習と評価を行った 6 種類のモデルの出力を調査する. このうち既存研究 $[2,3,4]$ で使用されたものはクエリ 1[4],クエリ 5[2],クエリ 6[3] である. クエリ 2, 3, 4 は既存研究で使用されていないが,「記事タイトルの有無」「疑問詞の有無」「5W1H の有無」が抽出精度に与える影響をそれぞれ分離して分析するために追加した. ## 4.2 提案クエリ:正答例を追加 Li ら [1] は「Find organizations including companies, agencies and institutions」のうち, “companies", "agencies”, “institutions” の部分が抽出精度が良いクエリの特徴だと主張している.この“companies”, “agen- 表 2 実験結果 : 各クエリの $\mathrm{F}$ 値. 太字は各カテゴリの中で $\mathrm{F}$ 値の最大値であり,下線は $\mathrm{F}$ 値の最小値を表している. cies", “institutions”はいわば抽出クラスと抽出対象の中間概念を示しているため,本タスクでも同様に, この中間概念をクエリに含ませることが考えられる.しかし,拡張固有表現 [15] には全ての属性値と属性名に対する中間概念は定義されていないため,適用できない。そこで本稿では,中間概念の代わりに正答例をクエリに付加する.具体的には「創業国は? 例えば、アメリカ合衆国、日本、シンガポール、 イングランド、イギリス、などです。のように正答例を結合する. 付加する正答例は, 学習データからランダムサンプル1)により取得する. 取得数は 1,5 , 10 とした. ${ }^{2)}$ ## 5 実験 本稿の実験設定は石井 [4] が行った実験に準ずる. ## 5.1 学習用データセット 森羅 2019-JP[6] において配布されたアノテーションデータセット3)を使用する。本データセットは HTML 形式の Wikipedia 記事と属性值のアノテー ションからなる. HTML タグを除去した記事も用意されているが,本実験では使用しない. 機械読解データセット構築 HTML 形式の Wikipedia 記事をくp>タグを元にパラグラフ単位へ分割し, $P=\left.\{p_{1}, p_{2}, \ldots, p_{l}\right.\}$ を得る.この際,パラグラフ $i$ に含まれる属性値を $A_{i}=\left.\{a_{i, 1}, a_{i, 2}, \ldots, a_{i, t}\right.\}$ とする。また,機械読解として扱うため,クエリ $q$ を生成する。 使用クエリ 4 章で定義した合計 9 種類のクエリを使用する。 データ分割データセットは学習データ,検証データ,テストデータをそれぞれ $85 \% , 5 \% , 10 \%$ の割合で分割する. ## 5.2BERT を用いた機械読解モデル 機械読解モデルへの入力は $(p, q)$ であり, 出力は各単語の BIO タグである. クエリ $q$ の単語トークン  列を $q=\left.\{q_{1}, q_{2}, \ldots, q_{m}\right.\}$, パラグラフ $p_{i}$ の単語トー クン列を $x_{i}=\left.\{x_{i, 1}, x_{i, 2}, \ldots, x_{i, n}\right.\}$ とすると BERTへの入力系列は以下の通りである。 $ \left.\{[\mathrm{CLS}], q_{1}, q_{2}, \ldots, q_{m},[\mathrm{SEP}], x_{i, 1}, x_{i, 2}, \ldots, x_{i, n}\right.\} $ [CLS], [SEP] は BERT の特殊トークンである. BERT の最終出力のうち, $x_{i}$ に対応する出力を $\boldsymbol{H}_{i}=$ $\left.\{\boldsymbol{h}_{i, 1}, \boldsymbol{h}_{i, 2}, \ldots, \boldsymbol{h}_{i, n}\right.\}$ とする. $\boldsymbol{H}_{i}$ を出力層に入力し各 BIO タグの予測スコア $S_{i}=\left.\{s_{i, 1}, s_{i, 2}, \ldots, s_{i, n}\right.\}$ を得る. $i$ 番目のトークンに対する最終的な予測 $\hat{y}_{i, j} \in\{\mathrm{B}, \mathrm{I}, \mathrm{O}\}$ は $\hat{y}_{i, j}=\operatorname{argmax}_{k} \boldsymbol{s}_{i, j, k}$ により求まる.学習は正答ラベル $Y_{i}=\left.\{y_{i, 1}, y_{i, 2}, \ldots, y_{i, n}\right.\}$ と予測結果 $\hat{Y}_{i}=\left.\{\hat{y}_{i, 1}, \hat{y}_{i, 2}, \ldots, \hat{y}_{i, n}\right.\}$ との交差エントロピー誤差を最小化することで行う. ## 5.3 実験設定 モデルは「NICT BERT 日本語 Pretrained モデル BPE あり」4)を使用する. ハイパーパラメータは石井 [4] の研究と同様にバッチサイズは 32, 学習率は 2e-05,トークンの最大長は 384 ,ストライドは 128,エポック数は 10 回とする. テスト時には,検証データで $\mathrm{F}$ 值が最も高いモデルを用いた. 入力文字の前処理では, MeCab-Juman 辞書 [16] を用いて形態素に分割した後, subword-nmt[17] で生成された語彙を用いてサブワード化した。 ## 5.4 評価指標 森羅 2019-JP により提供される評価用スクリプト5)によって算出される属性ごとの $\mathrm{F}$ 値のマイクロ平均を,各カテゴリの評価指標とする。 ## 6 結果と考察 各クエリの実験結果は表 2 の通りである.まず,各クエリによる $\mathrm{F}$ 值の違いを概観する。 クエリ 4,5,6 の結果より,クエリに記事タイトルを追加すると一貫して抽出精度が悪化した. よって,クエリに記事タイトルを使用している 2 の既存研究 $[2,3]$ は, 使用クエリが原因で抽出精度が減少していた可能性がある.記事タイトルを追加する  表 3 正答例の有無による予測数・ $\mathrm{TP}$ 数・FP数の違い. TP 差は増加すれば好ましい, FP 差は減少すれば好ましい。值の太字は改善した結果を表しており,下線は悪化を表している. 表 4 記事タイトルの有無による予測数・TP 数・FP 数の違い. TP 差は増加すれば好ましい. FP 差は減少すれば好ましい. 值の太字は改善した結果を表しており,下線は悪化を表している。 表 5 正答例 $\times 5$ を付加した際に $\mathrm{F}$ 值が $5 \%$ 以上変化する属性. と抽出精度が悪化する原因として,各タイトルと属性値のペアに対してモデルが過学習していると考えられる。また,Wikipedia 本文中には記事タイトルは出てこない場合が多いため,タイトルがタスクを解く上でヒントになっていないと考えられる. そして,クエリ 1 と 2 ,クエリ 2 と 3 の結果より, $5 \mathrm{~W} 1 \mathrm{H}$ と疑問詞の有無によって精度はほとんど変化しないことが明らかになった。 クエリに正答例を追加した場合,わずかながら最良の抽出精度となっているカテゴリもあるが, $3 \%$以上の増加は認められなかった。 予測数 - TP 数 $\cdot \mathrm{FP}$ 数次に,予測数 $\cdot \mathrm{TP}$ 数 6$) \cdot \mathrm{FP}$数 ${ }^{7)}$ にいて正答例の有無,記事タイトルの有無によって生じる差をカウントした (表 3,表 4).結果,記事タイトルや正答例をクエリに含ませた場合において,予測数と FP 数が一貫して減少した. クエリの変化によってこのような作用が一貫して生じることは筆者らの知る限り報告されていない。記事タイトルの有無と正答例の有無を比較すると, TP 数の減少が大きく異なり,正答例有りの方が TP の減少を抑えることができている.正答例を入れることで起 6) True Positive : ラベルとスパンが完全一致している予測 7) False Positive : 誤予測 こる TP 数の減少を抑えた FP 数の減少は,今後適合率の高いモデルを開発する上で活用可能であると考える。付加する正答例の数に着目すると,予測数・ $\mathrm{TP}$ 数・FP 数の増減とは比例していない. 逆に正答例を 1 つだけ追加した場合でも,予測数と FP 数の減少が確認される. よって, 予測数と FP 数の減少には,正答例の数より,追加情報の有無もしくは質によって決定づけられていることが考察される. したがって,予測数と FP 数が減少する理由は,クエリへの「追加情報」が関係していると考えられる。 ## 正答例を入れることで抽出精度が変化する属性 表 5 に正答例の有無によって,F 值が $5 \%$ 以上変化した属性を示した。適合率と再現率の変化については表は付録 A を参照されたい。一見カテゴリを横断して強く共通している属性は無いように見えるが, $「 \bigcirc$ 年」「○○人」「○○温泉」等の日付表現,人数,温泉などのスパンの最後の文字列がおよそ共通なものが向上している。より詳細な共通点や,精度が増加した理由の分析は今後の課題とする. ## 7 おわりに 本研究では日本語 Wikipedia からの属性値抽出タスクで使用されたクエリの調査と正答例を含むクエリの有効性検証を行った。その結果,記事タイトルを含むクエリは抽出精度が悪化し,正答例を含むクエリはわずかながら最良の抽出精度となった. そして,記事タイトルや正答例を含むことで,予測数と誤予測が減少する作用が確認された。この作用はクエリに情報を追加したことが原因と考えられるが, より詳しい分析が必要である. また,正答例を付加することで抽出精度が大きく増加・減少した属性があることを明らかにしたが,それらの共通点や変化した理由についても詳しい分析が必要である。 ## 謝辞 本研究は JSPS 科研費 JP20269633 の助成を受けたものです. ## 参考文献 [1] Xiaoya Li, Jingrong Feng, Yuxian Meng, Qinghong Han, Fei Wu, and Jiwei Li. A unified MRC framework for named entity recognition. CoRR, Vol. abs/1910.11476, , 2019. [2] 石井愛. 機械読解による wikipedia からの情報抽出.言語処理学会第 25 回年次大会 (NLP2019), 2019. [3] 中山功太. RoBERTa を用いた QA 式属性値抽出システム. 森羅 2019-JP 最終報告会資料, 2019. [4] 石井愛. Stilts を適用した機械読解による wikipedia 記事の構造化. 言語処理学会第 27 回年次大会 (NLP2021), 2021. [5] Satoshi Sekine. Extended named entity ontology with attribute information. In Proceedings of the Sixth International Conference on Language Resources and Evaluation (LREC'08), Marrakech, Morocco, May 2008. European Language Resources Association (ELRA). [6] 小林暁雄, 中山功太, 安藤まや, 関根聡. Wikipedia 構造化プロジェクト「森羅 2019-JP」. 言語処理学会第 26 回年次大会 (NLP2020), 2020. [7] Danqi Chen, Adam Fisch, Jason Weston, and Antoine Bordes. Reading wikipedia to answer open-domain questions. CoRR, Vol. abs/1704.00051, , 2017. [8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. CoRR, Vol. abs/1810.04805, , 2018. [9] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized BERT pretraining approach. CoRR, Vol. abs/1907.11692, , 2019. [10] George Doddington, Alexis Mitchell, Mark Przybocki, Lance Ramshaw, Stephanie Strassel, and Ralph Weischedel. The automatic content extraction (ACE) program - tasks, data, and evaluation. In Proceedings of the Fourth International Conference on Language Resources and Evaluation (LREC'04), Lisbon, Portugal, May 2004. European Language Resources Association (ELRA). [11] Stephanie Strassel Julie Medero Christopher Walker and Kazuaki Maeda. The automatic content extraction (ACE) program - tasks, data, and evaluation. Philadelphia 57, 2006. Linguistic Data Consortium. [12] Tomoko Ohta, Yuka Tateisi, and Jin-Dong Kim. The genia corpus: An annotated research abstract corpus in molecular biology domain. In Proceedings of the Second International Conference on Human Language Technology Research, HLT '02, p. 82-86, San Francisco, CA, USA, 2002. Morgan Kaufmann Publishers Inc. [13] Erik F. Tjong Kim Sang and Fien De Meulder. Introduction to the CoNLL-2003 shared task: Language-independent named entity recognition. In Proceedings of the Sev- enth Conference on Natural Language Learning at HLTNAACL 2003, pp. 142-147, 2003. [14] Sameer Pradhan, Alessandro Moschitti, Nianwen Xue, Hwee Tou Ng, Anders Björkelund, Olga Uryupina, Yuchen Zhang, and Zhi Zhong. Towards robust linguistic analysis using OntoNotes. In Proceedings of the Seventeenth Conference on Computational Natural Language Learning, pp. 143-152, Sofia, Bulgaria, August 2013. Association for Computational Linguistics. [15]拡張固有表現階層定義 version 8.0.0. http:// liat-aip.sakura.ne.jp/ene/ene8/definition_jp/. [16] T KUDO. Yet another part-of-speech and morphological analyzer. https://taku910.github.io/mecab/. [17] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. ## A 正答例を入れることで適合率・再現率が変化する属性 正答例を 5 つ付加することで適合率・再現率が変化する属性をカテゴリごとに示した (表 6 , 表 7, 表 8).適合率と再現率の両方の変化が $1 \%$ 未満だった属性は省いている.F 値が $5 \%$ 以上増加した属性は青字, $5 \%$ 以上減少した属性は赤字で示した. 表 6 【企業名】正答例 $\times 5$ を入れることで適合率・再現率が変化する属性. & 別名 \\ 表 7 【市区町村名】正答例 $\times 5$ を入れることで適合率・再 現率が変化する属性. & \\ 表 8 【人名】正答例 $\times 5$ を入れることで適合率・再現率が変化する属性。 & \\
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH4-7.pdf
# LSTM の無変化性バイアスの実験的分析 石井太河 ${ }^{1}$ 上田亮 ${ }^{1}$ 宮尾祐介 ${ }^{1}$ 1 東京大学 \{taigarana, ryoryoueda, yusuke\}@is.s.u-tokyo.ac.jp ## 概要 本研究では Long Short-Term Memory (LSTM) の学習傾向を実験的に分析する.LSTM が出力が単調な関数を学習しやすいという報告は先行研究でなされていたが,詳細な実験は行われていなかった. 本研究では決定性有限オートマトン(DFA)のタイムステップに対する受理状態の変化の有無で入力記号列を 2 種に分類し,それぞれに対する LSTM の学習時間の傾向を調査する.直鎖状のDFAを学習させた結果,DFA の受理・非受理が切り替わる状態遷移の両端の状態に対応する記号列はそうでない記号列に比べ学習が遅いことが明らかになり, LSTM は出力が変化しにくい関数を学習しやすいという無変化性バイアスを持つことが支持される. ## 1 はじめに 本研究では,深層学習モデルの一つである Long Short-Term Memory(LSTM)[1] に対して以下の仮説 1 を立て,検証することを目的とする。 仮説 1 LSTM のモデル $M$ は入力記号列 $s \cdot a$ と任意の記号 $c$ に対して, 末尾の記号の削除・追加で出力が変化しない, すなわち, $M(s)=M(s \cdot a)=M(s \cdot a \cdot c)$ となるような入力記号列 $s \cdot a$ を学習しやすい傾向 (無変化性バイアス)がある( $s$ は記号列, $a, c$ は記号である). 本研究では, 末尾の記号の追加・削除による出力の変化の有無に従って大力記号列を 2 種に分類し,それぞれに対して LSTM が学習に要した時間を評価することで,上記の仮説 1 を検証する。分析を容易にするため, 出力の変化は決定性有限オートマトン (deterministic finite automaton;DFA) でモデル化し,LSTM には入力を記号列,出力を受理・非受理として DFAを学習させる。なお,学習対象のDFA には図 1にあるような直鎖状のものを設定する。一 図 1 直鎖 DFA のパラメータが $(\mathrm{m}, \mathrm{w})=(3,2)$ の例. 長 $さ \mathrm{~m}=3$ の non-change 状態の区間と change 状態の区間が $\mathrm{w}=2$ 回繰り返され,末尾に明示的に non-change 状態が付け加えられている. 点線,実践はそれぞれ 0,1 の状態遷移を表す. 状態 0 には記号列 $0,00,000, \ldots$ が対応し,状態 4 には記号列 $1111,01011010, \ldots$ が対応する. 般に様々なグラフ構造の DFA が無限に存在するが,受理・非受理の逐次的な変化のパターンをモデル化するには直鎖状の DFA が最もシンプル1)なためである. 図 1では入力記号列の受理・非受理の切り替わりによる分類の例が示されている. 状態遷移による受理・非受理の変化がない状態 0 には記号列 $0,00,000, \ldots$ が対応し,変化がある状態 4 には記号列 $1111,01011010, \ldots$ が対応する. また, 2 種の入力記号列の集合それぞれに対してモデルの学習時間を計測するにあたり,本研究では [2]に習い,勾配降下法によるモデルの学習に要したエポック数を計測した. ## 2 背景 ## 2.1 本研究の位置づけ 本研究における仮説 1 は,[2] による LSTM は単調な分類関数を学習しやすいという報告を変化・無変化性に対して一般化したものである. [2] は自然言語の量化子の意味計算をオートマトンによる逐次的な処理によってモデル化し,LSTM により量化子 1)自己ループ以外のループを持たない DFA は,複数の直鎖 DFA から構成されるとみなすことができる。 の学習をシミュレートした. [2] は,モデルの学習過程においてテスト精度が安定して一定値を超えた最小エポック数を計測した結果,単調な量化子の学習はエポック数が小さくなる,すなわち学習しやすいことを報告している.ここで,分類関数 $f$ が単調 ベット $\Sigma$ 上の任意の記号列 $s \in \Sigma^{*}$ と文字 $c \in \Sigma$ に対して, $f(s \cdot c) \leq f(s)$ または $f(s) \leq f(s \cdot c)$ のどちらか一方のみが成り立つことを言う。 本研究のアプローチは, $f(s), f(s \cdot c)$ 間の関係を変化 $f(s \cdot c) \neq f(s)$ と無変化 $f(s \cdot c)=f(s)$ に分解し, 関数全体の単調性よりも細かく, 出力ブール值の局所的な変化の有無に着目するものである. ## 2.2 LSTM の性質を調べることの意義 深層学習モデルは今日多くの場面で利用されており,学習の効率化や未知の挙動の抑制は重要である. LSTM は, 入力記号列を逐次処理する深層学習モデルである Recurrent Neural Network(RNN)の一種であり,多くの自然言語処理タスクで使用され,分析されてきた. [3] はLSTM を含めた複数の RNN アーキテクチャについて表現能力の理論的な解析・分類を行い,LSTM がカウンタを実装可能な表現力を持つことを示した。しかし,深層学習モデルの複雑さから LSTM の全ての性質を明らかにするほど理論的解析は進んでおらず,多くの先行研究が実験的に LSTM の性質を分析している [4, 5, 6, 7, 8]. [4] は文脈自由言語を学習させることで,LSTM が再帰構造を学習し, ある程度の深さまでの汎化性能も持つことを報告している。また,[7] は文脈自由言語の学習によって LSTM の語順に対するバイアスが少ないことを示した. 本研究はこれらの先行研究と同様に実験的にLSTM を分析する。 ## 2.3 オートマトンと RNN の関係性 LSTM を含む RNN は実数ベクトルを内部状態とし,理論的には無限状態を持つが,入力記号列に対する逐次的な状態遷移はオートマトンと同様である. 本研究では以下で定まる決定性有限オートマトンとの類似性を利用して LSTM の分析を試みる。 決定性有限オートマトン (deterministic finite automaton; DFA) $A$ は $A=\left(\Sigma, Q, q_{0}, F, \delta\right)$ によって定められる組である。ここで, $\Sigma$ は有限アルファベッ卜, $Q$ は有限状態集合, $q_{0} \in Q$ は初期状態, $F \subseteq Q$ は受理状態集合, $\delta: Q \times \Sigma \rightarrow Q$ は状態遷移関数 である. 再帰適用 $\delta^{*}$ は $\delta^{*}\left(q_{0}, \epsilon\right)=q_{0}, \delta^{*}\left(q_{0}, s \cdot c\right)=$ $\delta\left(\delta^{*}\left(q_{0}, s\right), c\right)$ で定義される. さらに,記号列に対する $A$ の分類関数 $f_{A}: \Sigma^{*} \rightarrow\{$ True, False $\}$ は $s \in \Sigma^{*}$ に対して以下のように定められる。 $ f_{A}(s) \equiv \delta^{*}\left(q_{0}, s\right) \in F $ オートマトンを利用したRNN の分析法として,学習済み RNN から有限オートマトンを抽出する手法が提案されている $[9,10,11]$. このような手法によって,RNNを形式的に解析することは可能となるが, これまで抽出に対する精度保証は与えられていないため,本研究では用いない。 ## 3 手法 ここでは,本研究の分析対象である無変化性を定義し,LSTM の学習・評価に用いる手法について説明する。 ## 3.1 無変化性 DFA $A=\left(\Sigma, Q, q_{0}, F, \delta\right)$ の状態 $q \in Q$ が無変化であるとは状態遷移の前後で受理・非受理が変化しないことと定義する.これは以下によって定式化される。 $ \begin{aligned} & \forall p \in Q \cdot \forall c \in \Sigma . \\ & \quad \delta(p, c)=q \vee \delta(q, c)=p \Longrightarrow p \in F \Leftrightarrow q \in F \end{aligned} $ 無変化である状態を non-change 状態と呼び,無変化でない状態を change 状態と呼ぶ. non-change 状態, change 状態の集合をそれぞれ $Q_{n}, Q_{c}$ とすると,これらに対応する記号列 $S_{\mathrm{n}}, S_{\mathrm{c}}$ は $x \in\{n, c\}$ を用いて以下のように定まる。 $ S_{x} \equiv\left.\{s \mid s \in \Sigma^{*} \wedge q \in Q_{x} \wedge \delta^{*}\left(q_{0}, s\right)=q\right.\} $ ## 3.2 直鎖 DFA 記号列の受理・非受理の変化だけに注目するため,本研究ではアルファベット $\{0,1\}$ 上の直鎖状の DFA のサブクラスのみを考慮する.本研究で扱う直鎖 DFA は,状態遷移で受理・非受理が変化しない non-change 状態の区間,受理・非受理の変化前後の change 状態の区間が交互に繰り返さた後に non-change 状態が付属するものとして定められる. このような直鎖 DFA は 2 つのパラメータ $\mathrm{m}, \mathrm{w}$ によって図 1のように特徴づけられる。ここで, $\mathrm{m}$ は non-change 状態区間の長さ,w は non-change 状態区間と change 状態区間の繰り返しの総数である。ま た,図 1 の状態 9,10 に見られるように,本研究で扱う直鎖 DFA の末尾の 2 状態は最小オートマトンにおいては同じ状態となるが,記号列の変化・無変化性の区別を明確化するため, 本研究では明示的に最小でないオートマトンを使用する。なお,初期状態を非受理状態として固定したが,一般性は失われな $い^{2)}$. ## 3.3 データセット 学習データセットは記号列とその受理・非受理ラベルから構成されるが,DFA の各状態に対応する記号列の頻度差の与える影響を抑えるため, 各状態に対応するデータ数が等しくなるように調整される.上記は以下のように定式化される. 学習対象の DFA を $A=\left(\{0,1\}, Q, q_{0}, F, \delta\right)$ とする. $A$ に対し,サイズ $N$ の学習データセット $D$ は記号列の最大長 $\mathrm{L}$ を用いて以下のように定義される. $ \begin{aligned} S & \equiv\left.\{\left(s, f_{A}(s)\right)\left|s \in\{0,1\}^{*} \wedge\right| s \mid \leq \mathrm{L}\right.\} \\ T & \equiv \operatorname{choose}(S, N) \\ D & \equiv \operatorname{balance}_{A}(T) \end{aligned} $ ここで, choose はランダムに重複なく $N$ 個サンプリングする関数である. サンプルされたデータセットの分布を調整する balance $_{A}$ 関数は以下の工程で定められる。 1. 各 $q \in Q$ に対して, $T_{q} \equiv\left.\{s \mid s \in T \wedge \delta^{*}\left(q_{0}, s\right)=q\right.\}$ を計算 2. 各 $q \in Q$ に対して,$\left|T_{q}\right|=\frac{N}{|Q|}$ となるように $T_{q}$ を必要に応じて upsampling, downsampling したものを $T_{q}^{\prime}$ とする 3. 全ての $T_{q}^{\prime}$ 合併したものを $D$ とする ## 3.4 評価指標 モデルの学習難易度を評価する指標として, [2] を参考にし,よりシンプルに,モデル出力の平均 2 值交差エントロピー誤差が間値 $\mathrm{t}$ 以下になる最小のエポック MinEpochを使用する. 評価值 MinEpoch は non-change 状態と change 状態のそれぞれに対応する記号列の集合 $S_{\mathrm{n}}, S_{\mathrm{c}}$ に対して計算さる. それらは MinEpoch ${ }_{n}$, MinEpoch $_{\mathrm{c}}$ として $x \in\{n, c\}$ を用いて 2)受理・非受理のラベルは one-hot vector で表現され,どの次元も等価であるため.以下のように定められる。 $ \begin{aligned} & \operatorname{MinEpoch}_{x} \equiv \\ & \quad \min \left.\{e \mid \text { mean_loss }\left(M_{e}, S_{x}\right)<\mathrm{t}\right.\} \cup\left.\{\mathrm{e} \_ \text {max }\right.\} \end{aligned} $ ここで, $M_{e}$ はエポック $e$ におけるモデル, mean_loss は平均 2 值交差エントロピー誤差, e_max は最大エポック数である. ## 4 実験設定 モデルのアーキテクチャとしては,[2] と同じく2 層 LSTM に線形層を追加したものを使用し,最適化の際にも Adam [12] を学習率を $1.0 * 10^{-4}$ として利用する. 隠れ層の次元数 hidden_size の大小比較のため, hidden_size $\in\{20,200\}$ を使用する.一般的な設定のもとで実験を行うため,モデルのパラメータの初期化は PyTorch ${ }^{3}$ のデフォルト設定に準じる. 実験にあたり,異なるシード値で 30 のモデルをバッチサイズ 8 で 30 エポック学習させる. 変化・無変化性を分析するにあたり, non-change 状態と change 状態の両方を持つような直鎖 DFAを学習対象とした. また, 計算量の観点から, 直鎖 DFA の最大状態数が 16 までのものを扱うことにした. すなわち, $\mathrm{m} \in\{1,2,3\}, \mathrm{w} \in\{1,2,3\}$ により特徵づけられる 9 通りの直鎖 DFAを使用する. データセットにおける記号列の最大長は,計算量の観点から今回扱う直鎖 DFA の最大状態数よりも 1 大きい $\mathrm{L}=17$ とした. このときデータの総数は 262142 である。学習データサイズとしては全体数のおよそ 15\% にあたる $4 * 10^{4}$ を用いる ${ }^{4)}$. また,MinEpoch を計算する際に用いる閾値としては [2]によりモデルの学習度を決定するのに用いられていた $t=0.02$ を使用する。 ## 5 結果と議論 ## 5.1 LSTM は無変化性バイアスを持つ 実験の結果,以下に見るようにほとんどの設定で MinEpoch $_{\mathrm{c}}>$ MinEpoch $_{\mathrm{n}}$, すなわち change 状態より non-change 状態の方が MinEpoch が高くなった ${ }^{5)}$. これは仮説 1 が成立し無変化性バイアスがあることを示す.また,この結果はLSTM の hidden_sizeによらず同様の傾向となったが,hidden_size が大きいと  図 2 直鎖 DFA $(\mathrm{m}, \mathrm{w})=(3,1),(3,2),(3,3)$ の $\operatorname{MinEpoch}_{\mathrm{c}}$ と MinEpoch $_{\mathrm{n}}$. そもそも学習が速く無変化性バイアスは小さくなった. 以下では,分かりやすさのため hidden_size $=20$ の場合の結果を軸として議論する。 ## 5.2 出力の変化が多いと学習しにくい 図 2には change 状態区間の総数 $w$ の異なる 3 つの直鎖 DFA について MinEpoch $_{c}$, MinEpoch $_{n}$ が示されている.wによらず MinEpoch $_{\mathrm{c}}>$ MinEpoch $_{\mathrm{n}}$ となっており,無変化性バイアスが見られる。また,wが大きくなるほど,全体として学習が遅くなっていることも分かる ${ }^{6)}$. [2] では, DFA で表現される量化子の単調性が LSTM による学習しやすさの要因であると結論付けられていたが,本研究の実験結果を踏まえると,学習のしやすさの要因は LSTM の無変化性バイアスだと推測できる. 実際に, 非単調な DFA は単調な DFA よりも change 状態区間の数が多く, これは change 状態区間の数が多いほど全体として学習の難易度が増しているという上記の結果に符合する。 ## 5.3 出力変化の学習には記憶が必要 図 3では non-change 状態区間の長さ $m$ の異なる 3 つの直鎖 DFA について MinEpoch , MinEpoch $_{\mathrm{n}}$ が示されている. $m$ によらず, MinEpoch ${ }_{\mathrm{c}}>$ MinEpoch $_{\mathrm{n}}$ となっており,無変化性バイアスが見られる。また, $m$ が大きくなるほど change 状態に対する学習は遅くなる傾向があるが, non-change 状態に対する学習にはあまり影響していない7).今回学習対 6) ただし, $w=1$ に関しては, $m=1,2$ の時は $\operatorname{MinEpoch}_{\mathrm{c}}$ の分散が大きいため,この傾向が成立するかは明確ではなかった. 7) ただし, $w=1$ で $m=1,2$ のときは MinEpoch $_{\mathrm{c}}$ の分散が大きく change 状態の学習が遅くなる傾向は見られない. 図 3 直鎖 DFA $(\mathrm{m}, \mathrm{w})=(1,3),(2,3),(3,3)$ の $\operatorname{MinEpoch}_{\mathrm{c}}$ と MinEpoch $_{\mathrm{n}}$. 象とした直鎖 DFA は実質的に記号列中の 1 を数えるものであるため,カウントだけを考慮するならば non-change 状態と change 状態は同等なはずである. さらに,[4,3] で議論されているようにLSTM がカウンタを学習可能であることを踏まえると, change 状態間の距離としても考えられる $m$ に対する MinEpoch の変化が change 状態の方が大きいというのは,LSTM がある程度の大きさのカウンタならばほとんど差異なく学習できる一方で,出力変化の学習については距離依存性を持ちカウンタより学習が難しいことを示唆する。 ## 5.4 無変化性バイアスの要因 無変化性バイアスの要因については以下のような簡単な仮説が考えられる. $h_{t}, h_{t+1}$ をタイムステップ $t, t+1$ の隠れ状態ベクトル, 出力層のパラメタ行列を $W$ とすると,出力が無変化の時は $W h_{t}=W h_{t+1}$ が,変化する際には $W h_{t} \perp W h_{t+1}$ がそれぞれ理想的な場合に成立する。すなわち,無変化の際には $h_{t} \approx h_{t+1}$ であれば十分で,変化の際には $h_{t} \neq h_{t+1}$ が必要である. 仮に LSTM の隠れ状態の遷移が不動点を持つように学習しやすいならば,出力が無変化である方が学習しやすくなると推測される。 ## 6 今後の展望 本研究では,LSTM が出力変化を学習しにくいという無変化性バイアスを持つことを示した。一方, その要因については 5.4 節で議論したが,仮説に留まった.今後は,未知データに対する導出バイアスの検証実験や最適化における局所解に対する理論的な解析が必要であるだろう。 ## 謝辞 本研究が形になる以前よりアドバイスをいただいていた鷲尾光樹氏に感謝いたします. また,実験結果の議論に参加していただいた研究室のメンバーにも感謝いたします. ## 参考文献 [1] Sepp Hochreiter and Jürgen Schmidhuber. Long ShortTerm Memory. Neural Computation, Vol. 9, No. 8, pp. 1735-1780, 111997. [2] Shane Steinert-Threlkeld and Jakub Szymanik. Learnability and semantic universals. Semantics and Pragmatics, Vol. 12, No. 4, p. 1, November 2019. [3] William Merrill, Gail Weiss, Yoav Goldberg, Roy Schwartz, Noah A. Smith, and Eran Yahav. A Formal Hierarchy of RNN Architectures. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 443-459, Online, July 2020. Association for Computational Linguistics. [4] Jean-Phillipe Bernardy. Can Recurrent Neural Networks Learn Nested Recursion? In Linguistic Issues in Language Technology, Volume 16, 2018. CSLI Publications, July 2018. [5] Abhijit Mahalunkar and John D. Kelleher. Using Regular Languages to Explore the Representational Capacity of Recurrent Neural Architectures. In Věra Kůrková, Yannis Manolopoulos, Barbara Hammer, Lazaros Iliadis, and Ilias Maglogiannis, editors, Artificial Neural Networks and Machine Learning - ICANN 2018, Lecture Notes in Computer Science, pp. 189-198, Cham, 2018. Springer International Publishing. [6] Matej Makula and Lubica Beňušková. Analysis and Visualization of the Dynamics of Recurrent Neural Networks for Symbolic Sequences Processing. In Véra Kůrková, Roman Neruda, and Jan Koutník, editors, Artificial Neural Networks - ICANN 2008, Lecture Notes in Computer Science, pp. 577-586, Berlin, Heidelberg, 2008. Springer. [7] Jennifer C. White and Ryan Cotterell. Examining the Inductive Bias of Neural Language Models with Artificial Languages. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 454-463, Online, August 2021. Association for Computational Linguistics. [8] Hitomi Yanaka, Koji Mineshima, Daisuke Bekki, and Kentaro Inui. Do Neural Models Learn Systematicity of Monotonicity Inference in Natural Language? In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6105-6117, Online, July 2020. Association for Computational Linguistics. [9] P. Tino and M. Koteles. Extracting finite-state representations from recurrent neural networks trained on chaotic symbolic sequences. IEEE Transactions on Neural Networks, Vol. 10, No. 2, pp. 284-302, March 1999. [10] Gail Weiss, Yoav Goldberg, and Eran Yahav. Extracting Automata from Recurrent Neural Networks Using Queries and Counterexamples. In International Conference on Machine Learning, pp. 5247-5256. PMLR, July 2018. [11] Takamasa Okudono, Masaki Waga, Taro Sekiyama, and Ichiro Hasuo. Weighted Automata Extraction from Recurrent Neural Networks via Regression on State Spaces. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, No. 04, pp. 5306-5314, April 2020. [12] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Yoshua Bengio and Yann LeCun, editors, 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. ## A 全ての設定の実験結果 以下は本研究で行った全ての設定のもとでの実験結果のプロットである. 図 4 LSTM の隠れ層の次元数は hidden_size $=20$ の時の直鎖 DFA のパラメータが $\mathrm{m} \in\{1,2,3\}, \mathrm{w} \in\{1,2,3\}$ の 9 通りの全ての場合の MinEpoch $_{\mathrm{c}}$ と MinEpoch $_{\mathrm{n}}$. 図 5 LSTM の隠れ層の次元数は hidden_size $=200$ の時の直鎖 DFA のパラメータが $\mathrm{m} \in\{1,2,3\}, \mathrm{w} \in\{1,2,3\}$ の 9 通りの全ての場合の MinEpoch $_{\mathrm{c}}$ と MinEpoch $_{\mathrm{n}}$.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH4-8.pdf
# 制約抽出のための対訳コーパスを用いた 半教師ありクロスリンガル用語推定 澤田悠治 1 小田悠介 ${ }^{2,3}$ 1 奈良先端科学技術大学院大学 情報科学領域 ${ }^{2}$ LegalForce Research 3 東北大学データ駆動科学・AI 教育研究センター sawada.yuya.sr7@is.naist.jp yusuke.oda@legalforce.co.jp ## 概要 機械翻訳では,専門用語や固有名詞に対しては曖昧性の少ない適切な翻訳が求められる. 推論時に単語選択を強制する手法が研究されているが,このとき与える語彙は人手によるため,強制する必要のある語彙を自動獲得する手法の開発が望まれる. 本研究では,機械翻訳モデルに与える制約を抽出するための用語推定モデルを考え,対訳コーパスの大量のラベルなしデータと少量のシードデータを用いた半教師あり固有表現認識モデルを提案する. ASPEC の日英翻訳データを日英の固有表現認識コーパスとして使った評価害験により, 半教師ありモデルによって英語の用語抽出精度が向上すること, 単語アライメントを素性に加えることでさらに精度が向上することを確認した。 ## 1 はじめに 機械翻訳の性能は,BLEU などの訳出全体の傾向を測定する指標において向上し続けていることが知られている [1]. 一方で,訳抜けや翻訳内容の曖昧さといった,局所的な翻訳の制御に関する問題が依然として残っている. 特に,専門用語や固有名詞に対しては曖昧性の少ない適切な翻訳が求められ, 特定語彙の翻訳内容を考慮した手法が提案されている $[2,3,4]$. これらの手法では, 特定の語彙を目的言語側の訳出時の制約として使用し, 制約に含まれる単語を必ず出力するようモデルが制御されている。しかし,制約として使用する語彙は予め人手で作成する必要があり,翻訳言語対ごとの制約の作成は膨大な人手コストを要するため現実的ではない。また,専門用語は日々追加されるため,人手による辞書の使用にはメンテナンスのコストが必要となる. そこで本研究では,機械翻訳モデルに与える制約 を自動的に抽出するための固有表現認識を応用した用語推定モデルを提案する。従来法の固有表現認識モデルは教師あり学習の設定に基づいており,1 万から 10 万文程度の教師データを使用する。しかし,対訳コーパスは各言語で 100 万文程度の規模からなり,既存の固有表現認識コーパスのように人手で用語をアノテーションすることは困難である。本研究では,そのようなアノテーションを持たない対訳コーパスからの用語の抽出を想定し,少量の教師データと固有表現誌識を組み合わせた半教師あり学習の枠組みを提案する。具体的には,単言語の固有表現認識モデルとして隠れマルコフモデル纪基づく手法を使用し,単語アライメントの結果に基づいてモデルのラベル遷移を制限する機構を導入する. 科学技術論文の対訳コーパスである ASPEC[5] の日英翻訳データを用いた実験では,提案手法が両言語で教師あり学習モデルと比較可能な精度で抽出可能であることが分かった。 ## 2 用語推定モデル 本研究で用いる手法の概要を図 1 亿示す. 本手法は,原言語と目的言語それぞれの固有表現認識モデルと単語アライメントモデルの二つのモジュールで構成されており,以下のステップに従って用語を推定する。 1. 初期パラメータの設定 2. 単言語の半教師あり固有表現認識モデルの学習 3. 固有表現認識モデル同士の単語アライメント 4. 単語アライメントを導入したモデルの再学習 固有表現認識モデル $[6,7]$ と単語アライメントモデル [8] はどちらも bigram の隠れマルコフモデル(以下HMM)による推定を行う.半教師あり固有表現認識モデル (ステップ 1,2 ) と単語アライメント機構の導大(ステップ 3,4 )についてそれぞれ説明する。 図 1 提案手法の概要図 ## 2.1 半教師あり固有表現認識 半教師あり固有表現認識モデルとして用いる bigram HMM では,語数 $N$ からなる単語系列 $w_{1: N}$ とラベル系列 $z_{1: N}$ に対して,HMM の遷移確率 $\tau$ と出現確率 $\omega$, 開始確率 $\psi$ をそれぞれ以下のように定義する. $ \begin{aligned} z_{i} \mid z_{i-1}=t, \tau^{(z)} & \sim \operatorname{Mult}\left(\tau^{(z)}\right) \\ w_{i} \mid z_{i}=t, \omega^{(z)} & \sim \operatorname{Mult}\left(\omega^{(z)}\right) \\ z_{1}=t, \psi^{(z)} & \sim \operatorname{Mult}\left(\psi^{(z)}\right) \end{aligned} $ ここで, $z_{i}$ と $w_{i}$ は各時点 $i(1 \leq i \leq N)$ のラベルと単語を表し, Mult( $\cdot$ は多項分布を表す. 本研究では,HMM の潜在変数 $z_{i}$ を品詞と用語ラベル(BIO 方式)のタプルとし,用語と品詞がラベルづけされたシードデータと品詞のみがラベルづけされた対訳コーパスから品詞と用語ラベルを同時に推定する. 用語ラベルは数千文程度の規模であれば比較的容易に作成可能であり,品詞ラベルは Spacy ${ }^{1}$ や Sudachi[9] といった既存ツールから高精度に予測可能である. 各パラメータにはデータの特徴を反映させるために,事前分布をそれぞれ個別のアルゴリズムで設定した。まず,各単語がどの品詞となりうるかは用語かどうかを推定する手がかりになるため,品詞と用語ラベルのタプルの遷移確率と開始確率をシードデータ上の数え上げを元に設定する2). 出現確率については,対訳コーパス中の全ての語彙に対して事前確率を求めるため,各単語でなりうる品詞と用語ラベルのタプルに対して一様に確率を付与する.モデルのパラメータはEMアルゴリズムで推定 1) https://spacy.io/ 2) $\mathrm{O}$ ラベルから I ラベルへの遷移や $z_{0}$ で I ラベルとなるような無効なパターンはシードデータで出現しないため, これらのパターンが起きる確率は 0 になる。 し,事後分布による推論は Viterbi アルゴリズムを使用する. ## 2.2 単語アライメントを考慮した HMM 対訳文では,一方の言語で固有表現の意味に曖昧性があっても,片方の言語では意味ごとに異なる固有表現として明記される場合がある $[10,11]$. 例えば“本(Ben)”は中国語で稀に外国人の名前を翻訳する際に使用されるが,英語では人名である場合は “Ben”,それ以外の意味では別の単語が用いられる。本研究はこのような対訳文の用語の記述の違いを利用し,単語アライメントを素性として使用する。 また,対訳文のアライメントでは,同じ品詞や同じ用語ラベルであるかはアライメントの手がかりになるため,単語系列と予測したラベル系列を組み合わせた(単語,品詞,用語ラベル)の三つ組のタプルからなる系列を入力としてモデルを学習する.具体的には,語数 $N$ からなる原言語側のタプルの系列 $z_{1 \cdot N}^{s r c}$ と語数 $M$ からなる目的言語側のタプルの系列 $z_{1: M}^{t g t}$ から対応関係にあるぺア $\left(z_{i}^{s r c}(1 \leq i \leq N)\right.$, $z_{j}^{t g t}(1 \leq j \leq M)$ ) を予測し,以下の式よりアライメント行列 $\gamma_{i}(t)$ を作成する. $ \forall i, t \gamma_{i}(t)= \begin{cases}1 & \text { if } \gamma_{i}(t)=z_{i}^{s r c} \\ 1 & \text { if } \gamma_{i}(t)=z_{j}^{t g t} \\ 0 & \text { otherwise }\end{cases} $ ここで, $\gamma_{i}(t)=1$ は $\gamma_{i}(t)$ が単語ぺアの各単語で予測された用語ラベルであることを表す。単語アライメントモデルは教師なしの単語アライメントツールである GIZA++ ${ }^{3)}$ を使用し,HMM の各パラメータは IBM Model 1 の lexical translation probability を初期化  表 1 WAT2021 Restricted Translation Task から作成した固有表現認識データセット に使用した"). 単語アライメントモデルから作成したアライメント行列を用いて,EM アルゴリズムにアライメントの素性を導入する。アライメントの素性を考慮に入れた EM アルゴリズムを Algorithm1 に示す. ここで,品詞の集合を $T$ とすると, $t$ は品詞の集合 $T$ と用語ラベルの集合の直積の要素 $(t \in T \times\{B, I, O\})$ である。 2.1 節と同様に,シードデータから取得した HMM の初期パラメータ $\tau, \omega, \psi$ に対して, 語数 $N$ で構成された文 $w_{1: N}$ の前向き確率 $\alpha_{i}(t)$ と後向き確率 $\beta_{i}(t)$ を計算する(2-3 行目)。そして,それぞれの確率に対してアライメント行列 $\gamma_{i}(t)$ とのアダマー ル積をとり,アライメントからなり得ない用語ラべルに対しての出現確率をゼロとした確率の近似值  $\hat{\alpha}_{i}(t) , \hat{\beta}_{i}(t)$ を計算する(6-7 行目).これらの近似值を元に事後確率を計算し,全ての文に対して実行した事後確率の平均を次回のパラメータとして更新する。 ## 3 評価実験 ## 3.1 データセット 本研究では,実際に対訳コーパスを使用した制約抽出の評価を行うため,WAT2021 Restricted Translation Task[1] の評価データを使用した。本タスクでは,ASPECの用語や固有名詞に対する翻訳性能の評価に焦点を当て,翻訳時の制約として用いる用語が各文でまとめられている。そこで,ASPEC の用語リストが作成されている dev, devtest, testファイルから固有表現認識データセットを作成し,それぞれシード,開発用,テスト用として使用する。作成したデータセットの基本情報を表 1 にまとめる.学習用データとして用いるラベルなしデータセットは ASPEC の train-1 ファイルのみを使用し, train-1, dev, devtest, test ファイルそれぞれに対して品詞情報を付与した. 日本語の単語分割と品詞タグ付けは Sudachi ${ }^{5)}$ ,英語の単語分割と品詞タグ付けは Moses tokenizer')と Spacy をそれぞれ使用した. ## 3.2 評価方法 日英の全ての用語に対する始点と終点の一致について,適合率・再現率及びそれらの調和平均(F 值) で評価する。シードのみを使用して学習した教師あり HMM をベースラインとし,用語ラベルなしデー タ(train-1)を用いて学習した単言語モデル(アライメントなし)および両言語のアライメントを素性 5) 単語分割にはモード Aを使用した. 6) https://github.com/moses-smt/mosesdecoder/blob/ master/scripts/tokenizer/tokenizer.perl 表 2 WAT2021 Restricted Translation Taskによる実験結果 \\ & \\ 正解 & 高運動領域, テンソル, ベクトル, 偏極分解能 \\ ベースライン & $3 \mathrm{He}, 3 \mathrm{H}$, 高運動領域, $270 \mathrm{MeV}$, ベクトル偏極分解能, 全角度領域 \\ + アライメント (再学習 2 回目) & $3 \mathrm{He}, 3 \mathrm{H}$, 高運動領域, $270 \mathrm{MeV}, 200 \mathrm{MeV}$, \\ & 標記反応のテンソル及びベクトル偏極分解能, 全角度領域 \\ 表 3 提案手法による出力例 に加えたモデルと比較する。また, 初期の学習段階では固有表現認識モデルの誤りからアライメントにも誤りが生じると考えられるため, 固有表現認識モデルとアライメントの学習を交互に 2 回繰り返し,再学習した結果についても示す. ベースライン, 提案手法のどちらも開発データで最も高い $\mathrm{F}$ 値を示した 4 エポック目のモデルを採用した. ## 3.3 実験結果 実験結果を表 2 に示す. 英語では,用語ラベルなしデータを加えて学習すると $\mathrm{F}$ 值が 3.7 ポイント, アライメントの素性を加えるとさらに 2.8 ポイント増加した. ASPEC の日英翻訳データは日本語をピボットとして作成されており, 英語では表現を簡略化して訳される事例が存在する。例えば,“低侵襲で機能障害が非常に少ない”という文が英語では "simple and postoperative function can be maintained" $と$訳されており, 日本語と英語で文章のニュアンスが異なる。また,“口腔癌患者”が “patients”と訳されるなど,一部の単語が省略されることで用語か一般的な記述かが曖昧になる事例も存在する. このような事例に対して,用語ラベルなしの学習データとアライメントの素性を加えることで,各単語が用語かどうかの曖昧さが改善されたと考えられる. 日本語を対象にした設定では,提案手法はベースラインを上回らなかったものの, 英語と同様にアライメントの素性を加えることで $\mathrm{F}$ 値が 2.5 ポイント増加し,再現率についてはべースラインと比べて 1.6 ポイン ト上回った. 実際に各モデルから出力された用語の例を表 3 に示す. アライメントの素性を加えて再学習したモデルでは,“200MeV” や“全角度領域”のような制約以外の用語らしい単語列が抽出されている. ASPEC には WAT2021 Restricted Translation Task の制約リストに入っていない用語があり,ベースラインでは制約リストに入った用語のみが抽出されるよう最適化されている傾向が見られる. 提案手法は“標記反応のテンソル及びベクトル偏極分解能” のように用語の範囲同定には改善の余地があるものの, 用語らしい単語列を抽出する上ではベースラインより好ましい結果が得られたと考えられる。 ## 4 まとめ 機械翻訳に与える語彙制約を自動抽出するための用語推定モデルを提案した。具体的には,対訳コー パスを用いた半教師あり学習による固有表現認識の枠組みと,HMMを用いた固有表現認識モデル上で単語アライメントによりラベル遷移を制限する機構を提案した. ASPEC 日英翻訳データを用いた実験の結果,英語で教師あり学習による HMM を上回る精度を示し, 日本語でも正解以外の用語と思われる単語が制約として抽出される傾向が見られた. 今後の課題としては, 用語の範囲同定の精度改善や既存の制約リストの高品質化が挙げられる. 本論文で採用したモデルよりも高性能な手法の適用も考えられ [12][13], これらによる性能の改善にも取り組む. ## 参考文献 [1] Toshiaki Nakazawa, Hideki Nakayama, Chenchen Ding, Raj Dabre, Shohei Higashiyama, Hideya Mino, Isao Goto, Win $\mathrm{Pa} \mathrm{Pa}$, Anoop Kunchukuttan, Shantipriya Parida, Ondřej Bojar, Chenhui Chu, Akiko Eriguchi, Kaori Abe, Yusuke Oda, and Sadao Kurohashi. Overview of the 8th workshop on Asian translation. In Proceedings of the 8th Workshop on Asian Translation (WAT2021), pp. 1-45, 8 2021. [2] Guanhua Chen, Yun Chen, Yong Wang, and Victor O.K. Li. Lexical-constraint-aware neural machine translation via data augmentation. In Proceedings of IJCAI 2020: Main track, pp. 3587-3593, 72020. [3] Matt Post and David Vilar. Fast lexically constrained decoding with dynamic beam allocation for neural machine translation. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long Papers), pp. 1314-1324, New Orleans, Louisiana, 62018. [4] Katsuki Chousa and Makoto Morishita. Input augmentation improves constrained beam search for neural machine translation: NTT at WAT 2021. In Proceedings of the 8th Workshop on Asian Translation (WAT2021), pp. 53-61, 8 2021. [5] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian scientific paper excerpt corpus. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 2204-2208, 52016. [6] Guillaume Lample, Miguel Ballesteros, Sandeep Subramanian, Kazuya Kawakami, and Chris Dyer. Neural architectures for named entity recognition. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 260-270, 62016. [7] Jason P.C. Chiu and Eric Nichols. Named entity recognition with bidirectional LSTM-CNNs. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 357-370, 2016. [8] Stephan Vogel, Hermann Ney, and Christoph Tillmann. $\mathrm{Hmm}$-based word alignment in statistical translation. In Proceedings of the 16th conference on Computational linguistics, 81996 [9] Kazuma Takaoka, Sorami Hisamoto, Noriko Kawahara, Miho Sakamoto, Yoshitaka Uchida, and Yuji Matsumoto. Sudachi: a Japanese tokenizer for business. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), 52018. [10] Mengqiu Wang, Wanxiang Che, and Christopher D. Manning. Joint word alignment and bilingual named entity recognition using dual decomposition. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 10731082, 82013. [11] Wanxiang Che, Mengqiu Wang, Christopher D. Manning, and Ting Liu. Named entity recognition with bilingual constraints. In Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 52-62, 62013. [12] Ke M. Tran, Yonatan Bisk, Ashish Vaswani, Daniel Marcu, and Kevin Knight. Unsupervised neural hidden Markov models. In Proceedings of the Workshop on Structured Prediction for NLP, pp. 63-71, 112016. [13] Ying Luo, Hai Zhao, and Junlang Zhan. Named entity recognition only from word embeddings. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 8995-9005, 112020.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PH4-9.pdf
# Masked Language Model を用いた語群から語の連想の検討 相馬佑哉,堀内靖雄,黒岩眞吾 千葉大学 yuya10101@chiba-u.jp, \{hory, kuroiwa\}@faculty.chiba-u.jp ## 概要 本稿では, Masked Language Model を用いて 5 つの刺激語から 1 つの正解連想語を予測させるタスクの検討を行った.使用したモデルはBERTおよびgMLP である。対象とした語連想タスクでは, 刺激語・連想語ともに名詞のみを用いていることから,本稿で新たに学習したモデルでは MASK するトークンを名詞に限定した.実験では「富士山、浜名湖、... うなぎから連想する都道府県は MASK です。」等の文を与え,MASKに連想語が出力されるようにした。 この際,MASK の前後に鍵括弧「」を付与することも検討した. 実験の結果, MASK の前後に「」を付与寸ることで最も高い正答率 49\%(上位 5 語以内に正解が含まれる率 $72 \%$ )が得られた。 ## 1 はじめに 本稿では日本語 Wikipedia で学習した BERT[1]と gMLP[2]を用いて語群から語の連想を行った. 本稿における語連想とは,単語を 5 つ与えて(刺激語),連想する単語(連想語)を 1 つ回答させるタスクである. 複数の刺激語から 1 つの連想語を出力する研究として, 米谷ら[3], 白川ら[4], 芋野ら[5]の研究がある.米谷らは感覚判断システム, 白川らはコンテキストを考慮した関連エンティティ, 芋野らは語概念連想を用いて,各々人間の連想を模擬できるかの検証を行った.これらに対し, 我々は BERTを用いて 1 つの刺激語から複数の連想語を出力する研究[6][7]を行ってきた。一方で, 近年, BERT の学習タスクである Masked Language Model(以下,MLM と表記) において,タスクに対応する単語を MASKすることでそのタスクの精度を向上させる手法が提案されている[8][9]. そこで, 本稿では複数の刺激語から 1 つの連想語を出力する課題に BERT を代表とする MLM の適用を試みる. 具体的には, 「<刺激語 $1>$ 、 <刺激語 5>から連想する都道府県は MASK です。」等の文を与え,MASK に連想語が出力されるようにした。また,本稿の語連想では名詞のみを扱う ため, 通常の BERT に加え,名詞のみを MASK して学習させた BERT と gMLP を用いて, 複数の刺激語から 1 つの連想語を出力する実験を行った。 ## 2 語群から語の連想課題 本稿では, 実験に用いる語連想課題として『CD 版そのまま使える失語症教材 2』[10] 中の教材の『名詞の想起』より,5つの語から特定の語を想起させる『まとめる語想起』を利用した. 例を以下に示す.次の言葉から連想する都道府県はどこですか。富士山浜名湖茶畑みかんうなぎ $\rightarrow$ 静罔県実験では, 『まとめる語想起』 132 題のうち, 20 代男子大学生 3 人の解答が正解の連想語 (以下, 正解語)と一致し,なおかつ 3.3 のモデルで正解語が 1 つのMASKトークンで出力可能な 87 題を採用した. また, 課題の種類ごとに『上位下位』『部分全体』『都道府県』等の 13 カテゴリに分類した(筆者らによる独自の分類),課題の詳細を表 1 に示す. ## 3 Masked Language Model 本稿では MLMとしてBERTと gMLPを使用した。 ## 3.1 BERT BERT[1] Bidirectional Encoder Representations from Transformers であり, Transformer をベースに構成されたモデルである.BERT は 2 つのタスクで学習を行い,その 1 つである Masked Language Modeling は「トマトの色は赤色である」を「トマトの色は MASK である」のように単語を MASK し, その単語を予測するタスクである. 12 層の Transformer 層の後で, 1 層の全結合線形層により正解ラベル (単語) のスコアが大きくなるように学習する. ## $3.2 \mathrm{gMLP$} gMLP[2]は Transformer $の$ Attention 機構の特徴であるトークン間の情報を学習できる点を MLP (Multi-Layer Perceptron) で表現したモデルであり, Attention の代替として SGU(Spatial Gating Unit)を採用したモデルである. 入出力層を BERT と同一にすることで,MLM タスクを解くことができる. ## 3.3 実験で使用する MLM 実験では, (1)東北大学乾・鈴木研究室の Wikipedia で訓練済み日本語 BERT モデル(BERT-base_mecabipadic-bpe-32k_whole-word-mask)[11](東北大 BERT と表記),(2)Wikipedia データセットを用いて MASK する単語を名詞に限定して学習した日本語 BERT モデル (名詞のみ BERT と表記), (3)日本語 gMLP モデル(名詞のみ gMLP と表記)を使用した. モデルの詳細を付録・表 3 に示す. なお, (1)は Next Sentence Prediction(NSP)も学習を行っているが,(2)と(3)は MLMのみで学習を行った。 ## 4 MLM を用いた語連想手法 本稿では,MLM を用いて MASK が連想語となる文 (以下, 連想文と表記)を作成して実験を行った。以下に作成した文の例を示す. <刺激語 1 >、<刺激語 2 >、<刺激語 3 >、<刺激語 4 > く刺激語 5 >から連想する都道府県はMASKです。正解語が『静岡県』の場合, 刺激語 1 5 には富士山や浜名湖等の単語が入り, MASK は連想語が入るト ークンとなる。また, 本項では刺激語と連想語として名詞のみを用いるため, MASK として予測された単語のらち名詞(代名詞を除く)のみを出力する. 表 1 に実験で使用した連想文を示す.表中の『 $\bigcirc 』$ は刺激語を表す。この連想文は文献[10]を基に作成した. また, 文献[6]において連想結果が改善されたことに鑑み, 本稿では, 表 1 に加え MASK に鍵括弧「」を付与した連想文も使用した.以下に例を示す。 <刺激語 1 >、<刺激語 2 >, <刺激語 3 >、《刺激語 4 > く刺激語 5>から連想する都道府県は 「MASK」です。 ## 5 語群から語の連想実験 表 1 で示した連想文を用いて,「」の有無の両パ夕 ーンで語群から語の連想実験を行った。 ## 5.1 実験結果 表 2 に実験結果を示す. 表はモデルの連想語上位 1 語, および 5 語以内に正解語が出力された課題の数の割合を正答率として示したものであり, 正答率の最大值は 1 である. カテゴリ欄のカッコ内は各カテゴリの課題の総数である. 上位 1 語で最も高い正答率は「」有の BERT と名詞のみ gMLP の 0.49 であり, 約半数を正解した. また, 上位 5 語以内で最も高い正答率は「」有の名詞のみ gMLP の 0.72 である.同様の設定で 1 つの刺激語から複数の連想語を出力させた実験[6]では, 人間の連想語上位 4 語と一致した数は最大でも平均 $0.6 / 4.0$ 語であり,複数の刺激語から 1 つの連想語を出力するタスクの方が精度が高いと言える。 また,「」を付与することで, 全てのモデルで正解語が 1 位に出力されやすくなった. 東北大 BERT では「」の付与によって正解語が 1 位に出力された課題が 28 題, 1 位に出力されなくなった課題が 3 題であり, 符号検定(有意水準 5\%)により, 連想結果が改善されたと言える。また, 名詞のみ gMLP では改善 21 題, 改悪 3 題であり, 符号検定(有意水準 $5 \%)$ により, 同様に連想結果が改善されたと言える.一方で,モデル間の正答率に有意差はなかった。 ## 表 1 実験で使用する連想文 \\ 表 2 連想語上位 1 語に正解語が出カされた課題数の割合(カッコ内は上位 5 語以内) & & & & & \\ ## 5.2 結果の分析 全てのモデルで「」の付与により正答率が改善したことから,まずは「」の効果について分析する。 「」の付与で連想結果が特に改善されたモデルの 1 つが東北大 BERT であり, 特に色カテゴリで正答率が $0.13 \rightarrow 0.75$ (8 題中 1 題 $\rightarrow 6$ 題)に上昇した.正解語が赤の課題では「」の付与により, 上位 5 語が『黄色赤青緑ピンク』 $\rightarrow$ 『赤青緑黄色ピンク』となった.「」無でも色の単語は出力されているが, 8 題中 7 題で 1 位に黄色が出力された.黄色が出力されやすい要因を分析するために, 刺激語を含めない文『連想する色は MASK です。』を入力した. その結果, 『黄色水色青赤カラー』の順で出力された.この結果から,『〜連想する色は MASK です。』のMASK として黄色が出力されやすいと考えられる. 黄色が出力されやすい要因をさらに調査するために, 日本語 Wikipedia での出現頻度を調べたところ, 最も高い色は赤であり(黄色は 6 位), 黄色が出力されやすい要因は頻度ではなかった. そこで, Attentionについて調査した. 図 1 に Attention を可視化した図を示す.「」無では MASK 周辺の単語である『色』『は』『です』への Attention が大きく,「」を付与することで,『は』『です』への Attention が小さくなった(図 $1 \mathrm{a} \rightarrow$ b)。これにより,黄色の出力が抑制され正解語の赤 が 1 位に出力されるようになったと考えられる。他の色においても,「」の付与により,『は』『です』 への Attention は小さくなった. 一方で, 図 1 のような刺激語への Attention の変化は殆ど無かった。 東北大 BERT では国カテゴリも同様に「」の付与によって正答率が $0.25 \rightarrow 1.00$ (4 題中 1 題 $\rightarrow 4$ 題) に上昇した. 正解語がアメリカの課題では『世界中以下アメリカ世界日本』 $\rightarrow$ 『アメリカ合衆国ニューヨークホワイトハウス世界』となっていた.「」無の不正解では, 国名以外の単語が正解語よりも上位に出力された. 色の分析と同様に刺激語を含めない文『連想する国は MASK です。』を入力すると『日本語実名以下日本不明』が出力された.このことから,『連想する国は』に対して色とは異なり, 国名以外の単語も出力されやすいと言える. 上記の文に「」を付与した連想文では『日本アメリカ中国ロシアイタリア』となり, 国名が出力されやすくなっていた. Attention を調査したところ,「」の付与によって刺激語への Attention が大きくなっていた。また, 色カテゴリと同様に「」 の付与によって MASK の前後の単語『は』『です』 への Attention が小さくなっていた. しかし, 『国』 への Attention に大きな変化は無く, 国名が出力されやすくなった. 国名が出力されやすくなった理由については,今後より詳細に分析していく. a.「」無 b.「」有 図 1 東北大 BERT での正解語が赤の課題における最終 Transformer 層の Attention. 12 色は各々の Attention Head を表し,色の濃さは Attention の大きさを表している. [MASK]から各トークンに向かう線の色は Attention Head の色を混合したものである. [12] 次に,「」の付与で連想結果が改善された名詞のみ gMLP では,特に使ってすることカテゴリで正答率が $0.00 \rightarrow 1.00 ( 2$ 題中 0 題 $\rightarrow 2$ 題)に上昇した. 正解語が洗濯の課題では「」の付与により『無理危険不可苦手禁止』 $\rightarrow$ 『洗濯安心仕事便利安全』となった. 次に,名詞のみ BERT の結果について分析する.名詞のみ BERT では,「」の有無による正答率の差が東北大 BERT より小さく $(0.34 \rightarrow 0.44)$, 特に国力テゴリでは正答率が変化しなかった $(1.00 \rightarrow 1.00)$. アメリカの課題では「」の付与で『アメリカメキシコ日本カナダフランス』 $\rightarrow$ 『アメリカ日本カナダメキシコフランス』となり,「」の有無に関わらず,国名のみが出力されている。これに対し,東北大 BERT では「」の付与で『世界中以下アメリカ世界日本』 $\rightarrow$ 『アメリカ合衆国二ュ ーヨークホワイトハウス世界』となっており,この変化が名詞のみで学習することによる特徴であると考えられる。 なお,モデルや「」の有無に関わらずスポーツカテゴリ(野球, 水泳, バレーボール, サッカー)では正答率が高かった。これは,スポーツに関連した名詞が日本語 Wikipedia 内で出現頻度が高いことに要因があると考えられる。 ## 6 おわりに 本稿では,MLM として BERT と gMLP を用いて語群から語の連想実験を行った。連想課題として 5 つの刺激語から 1 つの連想語を回答するタスク (例:富士山浜名湖茶畑みかんうなぎ $\rightarrow$ 静岡県)を使用し,MASKに連想語が入る連想文を作成した。実験では東北大 BERT に加え,MASK するトークンを名詞に限定して学習した BERT と gMLP を使用し, MASK に鍵括弧「」を付与した場合の検討も行った。実験の結果,「」を付与した東北大 BERT と名詞のみ gMLP で最も高い正答率 $49 \%$ が得られた。また,上位 5 語以内に正解が含まれる割合は約 7 割であった。本稿の結果から,MASK の前後に「」を付与する手法は,複数の刺激語から 1 つの連想語を出力する場合でも有効であることがわかった。さらに,BERT を名詞のみで学習させることで,正答率が向上することも確認できた(ただし,「」の付与によりその効果は失われる)。これらのことから, 学習の段階で名詞・固有名詞に「」を付与することで,語連想タスクの精度向上が期待できる。また, Transformer の代替モデルである gMLP の精度も高かったことから, gMLP の精度向上の要因を分析するとともに,今後はgMLPを用いた自由連想タスクも検討する。 ## 謝辞 本研究を進めるに当たり, 乾・鈴木研究室の訓練済み日本語 BERT モデルをお借りしました. モデルを公開してくださったことに厚く御礼を申し上げ,感謝の意を表します. 本研究は JSPS 科研費 JP20K11860, JP21K02052 の助成を受けたものです. ## 参考文献 1. Jacob Devlin, et al. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. s.1. : arXiv preprint arXiv:1810.04805, 2018. 2. Hanxiao Liu, et al. Pay Attention to MLPs. s.l. : arXiv preprint arXiv: 2105.08050, 2021. 3. 米谷彩, 渡部広一, 河岡司. 語の共起情報を考慮した感覚連想メカニズムに関する研究. 情報処理学会研究報告 2005-NL-166, 2005. 4. 白川真澄, 中山浩太郎, 原隆浩, 西尾章治郎.複数語句から構成されるコンテキストを考慮した連想関係の抽出. DEIM Forum 2011 F3-1, 2011. 5. 芋野美紗子, 吉村枝里子, 土屋誠司, 渡部広一. 語概念連想を用いた複数単語からの連想語生成手法の提案. 言語処理学会第 18 回年次大会 (NLP2012), 2012. 6. 相馬佑哉, 堀内靖雄, 黒岩眞吾. 人間と BERT の語から語の連想の比較. 言語処理学会第 27 回年次大会(NLP2021), 2021. 7. 相馬佑哉, 堀内靖雄, 黒岩眞吾. 検索画像を介在させた語から語の連想模擬法の検討. 第 20 回情報科学技術フォーラム(FIT2021), 2021. 8. Yu Sun, et al. ERNIE: Enhanced Representation through Knowledge Integration. s.l. : arXiv preprint arXiv: 1904.09223, 2019. 9. Hao Tian, et al. SKEP: Sentiment Knowledge Enhanced Pre-training for Sentiment Analysis. ACL2020, 2020. 10. 鈴木勉宇野園子監修. CD 版そのまま使える失語症教材 2. エスコアール, 2022 出版予定. 11. 東北大学乾・鈴木研究室. Pretrained Japanese BERT models. (引用日: 2022 年 01 月 14 日.) https://github.com/cl-tohoku/bert-japanese. 12. Jesse Vig. A Multiscale Visualization of Attention in the Transformer Model. Florence, Italy : Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: System Demonstrations", 2019. ## A 付録 表 3 実験で使用するモデルの詳細 & \multicolumn{2}{|c|}{} \\ ## 表 4 連想課題の例 \\ 表 5 東北大 BERT での色カテゴリにおける連想語上位 5 語
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT1-10.pdf
# 日本語法律 BERT を用いた判決書からの重要箇所抽出 菅原祐太宮崎 桂輔 山田寛章 徳永健伸 東京工業大学 情報理工学院 \{sugawara.y.ag@m, miyazaki.k.am@m, yamada.h.ax@m, take@c\}@.titech.ac.jp ## 概要 本研究では判決書からの重要箇所抽出タスクにおいて,法律分野の文書のみで事前学習を行った BERT,日本語 Wikipedia で事前学習された BERT から追加の事前学習を行なった BERTを用い,その性能を汎用日本語 BERT と比較検証した. 実験より,法律分野に特化した BERT モデルを用いることで,汎用日本語 BERT を超える性能があることを確認した. ## 1 はじめに 裁判の記録である判決書は情報技術の発達により電子化され,人々が参照できるようになっている.判決書にはその判決に至るまでの詳細な議論が記録されており, 他の新聞記事や科学技術文書に比べて内包される文が長く複雑な文となっている. 法律に関する仕事している人々は関連事件の調査に膨大な時間を費やしており,判決書に対する情報アクセスの容易化・効率化は重要な問題となっている. 判決書から重要箇所を自動的に抽出することができれば,判決書の効率的な調査や判決書要旨の作成の大幅な効率化が見込める. また,判決書はその長い文書長から,全文を自動要約モデルに入力することは現実的ではないため, 本研究で行うような重要箇所抽出は自動要約の前処理としても有用である. 近年,大規模な事前学習によって汎用的な言語モデルを構築するアプローチが普及している。なかでも BERT は様々なタスクで利用され,各タスクに応じて fine-tuningを行うことで高い性能を実現している [1]. 更に,BERT は事前学習において,特定ドメインのデータを用いて学習することで, 同ドメインでの性能が高まることが報告されている $[2,3]$. Chalkidis らは、EU、英国、米国における英語で書かれた法律ドメインの文書のみで事前学習を行なった BERT,汎用ドメインのデータで事前学習された BERT に対してさらに法律ドメインの文書で追加事前学習を行なった BERT の 2 つの LEGAL-BERT を構築した [4]. これらの LEGAL-BERT は, 法律ドメインのテキスト分類と系列ラベリングのタスクにおいて,汎用ドメインで事前学習を行った BERT よりも高い性能を達成している. 日本の判決書からの重要箇所抽出においても,法律分野の文書データによって BERT の事前学習を行った上で fine-tuning を行うことで, Wikipedia等で事前学習された BERT よりも高い性能を発揮することが期待できる。 そこで本研究では, (1) 法律分野の文書のみで事前学習を行った BERT,(2) 日本語 Wikipedia で事前学習された BERTをさらに法律分野の文書を用いて追加事前学習を行った BERTを用い, 日本の判決書からの重要箇所抽出タスクにおける性能を,汎用日本語 BERT と比較検証する。 ## 2 関連研究 日本における判決書からの重要箇所抽出の研究として,阪野らはSVMを用いて要旨の内容に該当する箇所を判決文から自動的に抽出する手法を提案している [5]. 山田らは抽出型要約の一環として判決書の修辞役割(例:結論,法律の引用等)分類を行い,文脈を考慮した階層型 RNNをべースとするモデルを用いる手法を提案している [6]. 英国における判決書を対象として,Hachey らは抽出型要約において, 機械学習を用いて修辞役割分類を分別したうえで要約生成を行っている [7]. Tran らは修辞役割分類に対し,CNN または BiLSTM を用いたモデルを提案している [8]. また,ドメイン固有のテキストデータに関するこれまでの研究により, ドメイン固有の言語モデルを作成することの重要性が指摘されている. 汎用ドメインのデータで事前学習された BERT のモデルに対して,さらに特定ドメインに特化したデータで追加事前学習を行うことで,様々な専門ドメインに対応したモデルが作られている. Lee らは大規模なバイオ分野の文献を用いて事前学習させること で,バイオ分野に特化した BioBERT を作成した [2]. BioBERT は Wikipedia 等で事前学習された BERT や他のモデルに比べて,バイオ分野のテキストマイニングのタスクでより高い性能を達成している。また, Beltangy らは科学関連のコーパスに対して事前学習を行ったSciBERT 導入し, テキスト分類と系列レベリングのタスクで性能改善が報告されている [3]. 法律分野において, Chalkidis らは法律ドメインの文書のみで事前学習を行なった BERT,汎用ドメインのデータで事前学習された BERT に対してさらに法律分野の文書で追加事前学習を行なった BERT の 2 つの LEGAL-BERT を構築した. 2 つの LEGAL-BERTを用いて,3つの法律分野のデータセットに対しテキスト分類と系列ラベリングのタスクを解いた結果, ほとんどのタスクで LEGAL-BERT が汎用ドメインで事前学習した BERT より高い性能を達成している。これらは全て英語に限定したものであるが,近年は他言語に対して事前学習を行なったモデルが構築されている. 特に法律文書に関しては,Stella らがフランス語の法律文書に特化した juriBERT,Mihai らはルーマニア語の法律文書に特化した jurBERT をそれぞれ構築している $[9,10]$. 本研究では日本語 Wikipedia による BERT [11], 宮崎らが構築した法律文書に特化した BERT[12]をそれぞれ用いて,性能を比較する。 ## 3 実験 ## 3.1 用いたコーパス 本研究では,株式会社 LIC より提供された日本の民事事件判決書を日本語法律分野コーパスとして用いる. 各判決書には法律知識を有する作業者が判例として重要な記述と思われる箇所を特定した注釈(重要箇所)が付与されている。コーパスは全 84,900 件の判決書から成る. 実験のためにコーパスを訓練データ,開発データ,テストデータに 8:1:1 の割合で分割した. 重要箇所が元から付与されていない,または適切に付与されていなかった文書を除外し, 最終的に訓練データ 67,870 件, 開発データ 8,490 件,テストデータ 8,490 件を得た。 ## 3.2 前処理 民事事件判決書のコーパスに対し,データの前処理および文分割, 形態素分割を行った. まず,行頭に出てくる見出し番号(例:(一)や(ア)など)を表 1 コーパス中の重要箇所を含む文の割合 [\%] 表 2 データセットの詳細 (重要文抽出) 削除し,インデントに使われている全角スペースもすべて削除した,次に文分割を行った.句点の直後に括弧閉じが存在する場合のみを例外として扱い, それ以外のすべての改行及び句点を文末とした. 次に JUMAN++ [13] を用いて文を形態素に分割した。 ## 3.3 重要文抽出タスクの設定 一文中の重要箇所の割合と,それらの文がコーパス全体に占める割合の関係を表 1 に示す。この表から,重要箇所が付与された文のうち9割は文全体が重要箇所となっており, 文の一部だけが重要箇所となっていても,重要箇所が文に占める割合が十分に大きいことが分かる. そのため, 本実験では重要箇所を含む文全体を重要文とみなして,重要文抽出のデータセットを構築する. 作成したデータセットの特徴を表 2 に示す. 1 文書あたりの平均文数が大きく, 平均文書長が長いことが分かる. ## 3.4 実験設定 本研究では,ある文が重要箇所か否かを当てる二値分類タスクを解く.評価指標として精度,再現率, $\mathrm{F}$ 值を用いる。 実験には 3 つの異なる BERT の事前学習済みモデルを用い,それぞれを本重要箇所抽出タスクに対して fine-tuning した上で実施する. 用いる事前学習済みモデルは,京都大学が公開した日本語 Wikipedia によって学習した日本語 BERT[11], 宮崎ら [12] によって BERTを日本語法律分野コーパスを用いて一から事前学習した JLBERT-SC, 既存の日本語 BERT に日本語法律分野コーパスによる追加事前学習をおこなった JLBERT-FP である。なお,JLBERT-SC 及 表 3 サブワード化時のデータセット(日本語 BERT) *長文:512トークンを越える文 表 4 サブワード化時のデータセット(JLBERT-SC) び JLBERT-FP の事前学習に用いられた文書と本実験で用いるテストデータ中の文書との間に重複はない. 訓練,開発,テストデータにおいて,重要箇所となる文の総数が文全体の総数の約 $6 \%$ ほどとなっておりデータセットに含まれるインスタンスのクラスが占める割合に偏りがある。これに対処するために損失関数の重みの値を工夫する.損失関数として使う BCEWithLogitsLoss は $ l_{c}=-w_{c}\left[y_{c} \cdot \log \sigma\left(x_{c}\right)+\left(1-y_{c}\right) \cdot \log \left(1-\sigma\left(x_{c}\right)\right)\right] $ と表される。 $w_{c}$ はクラス $\mathrm{c}$ にける重み(ハイパー パラメータ),$y_{c}$ はラベル (今回の場合 0 か 1),$x_{c}$ は推定値を表す.この時,クラスにおける重み $w_{c}$ を $ w_{c}=\frac{\text { クラスの学習データ数 }}{\text { 全クラスの学習データ数の和 }} $ とすることで損失への寄与率に差が出ないようにすることができると考えられる。 またサブワードによるトークン化を行う際,日本語 BERT と JLBERT-FP では元の日本語 Wikipedia を用いた事前学習時に構築された既存の語彙を用いた. JLBERT-SC では日本語法律分野コーパス [12] を用いて事前学習した際に構築した語彙を用いた。 この時のデータセットの詳細を表 3,4 に示す. 法律文書に特化した語彙リストを参照した方が日本語 BERT の語彙リストを参照した場合よりも,平均文書長が小さくなっていることが分かる. 学習と推論の際,512トークンを超える文に関しては文の初めから 512 トークンまでを入力として用い, 以降は削除した. 全ての BERT において optimizer は AdamW, 学習率 $1 e-5$, バッチサイズ $\in\{16,32\}$, エポック数表 5 各モデルの性能(マクロ平均値) 表 6 各モデルの性能(ミクロ平均値) $\in\{3,4\}$, ドロップアウト 0.5 に設定し学習した. ベースラインモデルとして, 2 層からなる BiLSTM を用いた重要箇所抽出器を構築した。 optimizer は SGD, 学習率 0.01 , バッチサイズ $\in\{32,64\}$, エポック数 15 で学習した. トークン化は日本語 BERT と JLBERT-FP に習い既存の日本語 BERT の語彙を用いて BPE 適用した. 単語埋め込みの次元数 200 , 中間層の次元数を 100 とした. また,損失関数である CrossEntropyLoss に対し BERT と同様の重みづけを行った. ## 4 実験結果 重要箇所抽出の結果を表 5,6 に記す. ベースラインである BiLSTM に比べて, 全ての事前学習済みモデルが高い性能を出していることが分かる. また,マクロ平均に関して,F 値が JLBERT-SC と JLBERT-FP は日本語 BERT と比べて高い性能を出している (JLBERT-SCでは 0.15, JLBERT-FPでは 0.148 の上昇). 同様にミクロ平均に関しても高い性能を出している. これは英語法律文書に特化した BERT においても同様の性能向上が見られている [4]. 今回はクラス間の比率の差が大きい不均衡データであったが,損失関数の重み付けの工夫を行いドメインに特化した BERT を構築することでドメイン固有のタスクにおいて性能が向上することがわかる. また,入力制限である 512 トークンを超える文に対して BERT が上手く推論できているかどうかを評価した。文書全体から 512 トークン以下の文と 512 トークンを越える文をそれぞれ 500 個ずつランダムにサンプリングして,各 BERT におけるミクロ平均の $\mathrm{F}$ 値を算出する方法を計 10 回繰り返しその平均 表 7 文長におけるモデルの性能差( $\mathrm{F}$ 值) を取った. その結果を表 7 に示す. 表 5,6 に示したものと同様に,JLBERT-SC と JLBERT-FP が汎用日本語 BERT よりも高い性能が出ていることが分かる.また,512 トークンを超える文における $\mathrm{F}$ 值が 512 トークン以下の文と表 6 の $\mathrm{F}$ 值よりも大きな值となっており,512トークンを超える文に対して十分な認識性能を持っていることが分かる. ## 5 おわりに 本研究では判決書からの重要箇所抽出タスクにおいて, 汎用日本語 BERT と法律分野に特化した BERT モデルを適用しその性能を検証した. その結果,法律分野の文書のみで事前学習を行った BERT,日本語 Wikipedia で事前学習された BERT をさらに追加事前学習を行なった BERT の両方で汎用日本語 BERT を越える性能があることを確認した. 今後の課題としては,今回のモデルは文脈を考慮していないため,文脈を考慮した階層型モデルの提案とその実装,最終的に抽出した文を抽象型要約タスクに応用することが考えられる。 ## 謝辞 本研究で使用した判決書データは株式会社 LIC から提供を受けたものである。本研究は,JST, ACT-X,JPMJAX20AM の支援を受けたものである. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [2] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, and Jaewoo Kang. BioBERT: a pre-trained biomedical language representation model for biomedical text mining. 092019. [3] Iz Beltagy, Kyle Lo, and Arman Cohan. Scibert: Pretrained language model for scientific text. In EMNLP, 2019. [4] Ilias Chalkidis, Manos Fergadiotis, Prodromos Malakasiotis, Nikolaos Aletras, and Ion Androutsopoulos. LEGALBERT: The muppets straight out of law school. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 2898-2904, Online, November 2020. Association for Computational Linguistics. [5] 阪野慎司, 松原茂樹, 吉川正俊. 機械学習に基づく判決文の重要箇所特定. 言語処理学会年次大会発表論文集, pp. 1075-1078, 名古屋, 2006. [6] 山田寛章, Simone Teufel, 徳永健伸. 見出し情報を考慮した階層型 $\mathrm{rnn}$ による日本語判決書のための修辞役割分類. 言語処理学会年次大会発表論文集, pp. 37-40, 2018. [7] Ben Hachey and Claire Grover. Extractive summarisation of legal texts. Artificial Intelligence and Law, Vol. 14, No. 4, pp. 305-345, 2006. [8] Vu D. Tran, Minh L. Nguyen, Kiyoaki Shirai, and Ken Satoh. An approach of rhetorical status recognition for judgments in court documents using deep learning models. In 2019 11th International Conference on Knowledge and Systems Engineering (KSE), pp. 1-6, 2019. [9] Stella Douka, Hadi Abdine, Michalis Vazirgiannis, Rajaa El Hamdani, and David Restrepo Amariles. JuriBERT: A masked-language model adaptation for French legal text. In Proceedings of the Natural Legal Language Processing Workshop 2021, pp. 95-101, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [10] Mihai Masala, Radu Cristian Alexandru Iacob, Ana Sabina Uban, Marina Cidota, Horia Velicu, Traian Rebedea, and Marius Popescu. jurBERT: A Romanian BERT model for legal judgement prediction. In Proceedings of the Natural Legal Language Processing Workshop 2021, pp. 86-94, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [11] 柴田知秀, 河原大輔, 黒橋禎夫. Bert による日本語構文解析の精度向上. 言語処理学会第 25 回年次大会,名古屋, 2019 . [12] 宮崎桂輔, 菅原祐太, 山田寛章, 徳永健伸. 日本語法律分野文書に特化した bert の構築. 言語処理学会第 28 回年次大会, 2022. [13] Arseny Tolmachev and Sadao Kurohashi. Juman++ v2: A practical and modern morphological analyzer. 言語処理学会第 24 回年次大会, 岡山, 2018.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT1-11.pdf
# 英日翻訳のための Positional Encoding を用いた正則化手法 岡佑依 田中貴秋永田昌明 日本電信電話株式会社 コミュニケーション科学基礎研究所 \{yui.oka.vf, takaaki.tanaka.tb, masaaki.nagata.et\}@hco.ntt.co.jp ## 概要 日常会話などで使用される話し言葉,すなわち自由発話における翻訳では,データセット量が少ない,語順の自由度が高いといった問題があり高品質な翻訳のためにはまだ多くの課題が残っている. 本研究では,句単位の摄動を用いた正則化手法によってモデル内で様々な書き言葉文を表現し学習することで翻訳精度の改善を試みる.この句単位の摂動はトークンではなく Positional Encoding に付与することで欠陥文をサンプリングする. ## 1 はじめに 近年,機械翻訳はニューラルネットワークによって大きく発展した. 特に, Transformer[1]は SelfAttention, Multi-Head Attention, Positional Encoding という独自の機構を利用して,高い精度の翻訳結果を残した。これは英日翻訳でも同様で,高い精度の翻訳が可能である.しかしながら,日常会話などで使用される話し言葉話における翻訳では,データセットが少ない,間投詞や言い淀みなどを含む,などといった問題があり書き言葉の翻訳と比べると翻訳精度はかなり低い。さらに, 日本語など語順の自由度が高い言語では,話し言葉は書き言葉と比べ語順の自由度が大きく異なる傾向にある。 一方,摄動を用いた正則化手法 $[2,3,4]$ は,モデルの頑健性の向上に有効であることが示されており,複数の正則化手法を組み合わせることで,推論時の精度をさらに向上させることが知られている. 例えば, Word Dropout や Word Replacement などの手法では,トークン単位の摂動を入力文または出力文に加えることで欠陥文をサンプリングして学習する.これらのトークン単位の摂動は学習中に欠陥文をモデル内で表現しており,欠陥文から目的言語文を予測するよう学習することと同じであると考えられる. 本研究では,英日翻訳における書き言葉の翻訳精度を向上させることを目的とし,Positional Encoding 図 1 提案手法における位置表現の直感的な例. 通常の位置表現とは異なり,,パソコンで,の出現位置がずれた欠陥文同等の位置表現をする。 部分に句単位の摂動を付与することで学習中に欠陥のある文を表現し,頑健性を向上させることを試みた. 図 1 亿提案手法の直感的な例を示す. 整数範囲の離散的な摂動を付与することで句単位での摂動を表現し,IBM Models 3 や 4[5] で作成される欠陥文同等の位置情報を表現する。この時,トークン単位ではなく,句単位の摂動を付与することで,意味的に不完全な欠陥文を生成するのではなく,語順が入れ替えられた文を生成する.実験結果から,話し言葉・書き言葉の英日翻訳において若干の BLEU の改善が見られた。 ## 2 関連研究 ## 2.1 摄動を用いた正則化手法 正則化手法は,機械学習で過学習を防ぐために使われる. NMT においても同様であり,モデルのパラメータの過学習を防ぐために,損失関数に特定の項を足し合わせる手法や,入力にノイズ,すなわち摂動を付与し正確な文を予測するよう学習する手法などが用いられている。本稿では摄動を用いた正則化手法について述べる。 Gal ら [3] は,確率的にトークンの埋め込みをゼロベクトルに確率的に置き換える Word Dropout 法を提案した. Bengio ら [2] は,入力トークンをエンコー ダ側またはデコーダ側のスケジュールドサンプリングしたトークンに置き換える Word Replacement 法を提案した。しかし,このようなサンプリングした別 図 2 提案手法による位置表現の例. 通常はトークンごとに絶対的位置表現 $p o s$ を決定するが (1 行目),提案手法では摄動範囲 $[-1,+1]$ 内で確率的に句単位の摂動 per を決定し(2 行目)通常の絶対位置表現 pos に足し合わせる. (最終行目). トークンを摂動として使用する手法では,摂動を計算する計算量がかかり学習時間が長くなる傾向がある. 高瀬ら [4] は,単純な正則化手法を様々に組み合わせて,学習時間を比較した.その結果,比較的単純な手法である Word Dropout や Word Replacement およびそれらを組み合わせた手法が,計算速度だけでなく翻訳精度においても従来の Transformerを上回ることがわかった。 ## 2.2 Positional Encoding Sinusoidal Positional Encoding (以下, SPE) は, Transformer のエンコーダ・デコーダ両者において各埋め込み表現に対し,文中における絶対位置を足し合わせることで位置情報を与える役割を持つ. その時足し合わせる值は正弦関数と余弦関数の式で表される. トークンの位置を pos, 埋め込み表現の次元数を $d$ とすると $i$ 番目の次元の埋め込み表現に足し合わせる SPE は以下の式 $(1,2)$ で表される. このとき,偶数次元は正弦関数,奇数次元は余弦関数で定義される. $ \begin{gathered} S P E_{(p o s, 2 i)}=\sin \left(\frac{p o s}{10000^{\frac{2 i}{d}}}\right) \\ S P E_{(p o s, 2 i+1)}=\cos \left(\frac{p o s}{10000^{\frac{2 i}{d}}}\right) \end{gathered} $ また,上記のような式ではなく,完全に学習可能な Embedding で絶対位置を表現し,同じように各単語埋め込み表現に足し合わせる Position Embedding という位置表現手法も存在する。 Relative Position Representation(以下,RPE)は,文中における各単語の相対的な位置を表現する [6]. SPE が各単語埋め込みに足し合わせるのに対し, Self-Attention 内部で表現する. ## 3 提案手法 従来の手法ではトークン単位で摄動を付与していた.しかし,自然な文をサンプリングするにはトー クン単位ではなく句単位で摂動を付与する方が適切であると考えられる。一方で従来の手法はトークン単位の摂動でありながら翻訳精度の改善が期待できるため従来の手法と組合せな可能な手法を提案する. 本研究では,SPE内のトークン位置 $p o s$ にトー クン単位ではなく句単位の整数摂動を付与することで日本語の書き言葉文に近い欠陥文をモデル内で表現する手法を提案する。図 2 に提案手法の位置表現例を示す. SPEに摂動を組み込むことで,他の正則化手法と同様にNMT の頑健性を向上させることができ,また,モデル構造中の位置表現を操作するため他の正則化手法と補完することが期待される. さらに,トークン単位ではなく句単位で摂動を付与することで書き言葉文に近い文を表現し学習することで書き言葉における翻訳での精度向上が期待される. 提案手法はSPEを拡張した式 $(3,4)$ で表される. $ \begin{aligned} & \operatorname{perSP} E_{(p o s, 2 i)}=\sin \left(\frac{p o s+p e r}{10000^{\frac{2 i}{d}}}\right) \\ & \operatorname{perSPE_{(pos,2i+1)}}=\cos \left(\frac{p o s+p e r}{10000^{\frac{2 i}{d}}}\right) \text {, } \end{aligned} $ ここで, per は一様分布からの整数摂動である. また,開始トークンの per は常に 0 とする. 例えば,摄動範囲が $[-1,+1]$ の場合,開始トークンを除いて $-1,0,+1$ の整数がランダムに決定する. [7] で提案されている on-the-fly subword sampling のように,摂動は文・エポック毎にサンプリングされ,文・エポック毎に異なる SPE が各トークンに付加される.摂動は学習中にのみ付与され, 生成時は通常の SPE を使用する。 ## 4 実験 実験は大きく次の 3 ステップに分けて行った. (1) まず事前実験として PE の Ablation study を行った. これはエンコーダ・デコーダどちらに摂動を付与するべきか,それとも従来のまま絶対位置を付与するべきか検討するために行った. (2) 次に話し言葉における実験を行った. (3) 最後に書き言葉においても同様に効果があるのかを検証するために書き言葉における実験を行った。 データセット英日翻訳の実験のためのデータセットには,書き言葉の実験には対訳コーパス ASPEC[8], 話し言葉の実験には IWSLT2017[9], 加えて JParaCrawl[10] からランダムに選択した 400 万文を用いた. ASPEC は $1,783,817$ 文対の学習データ, 1,790 文対の開発データ, 1,812 文対のテストデータからなり, 今回学習には 100 万文対の学習データである train-1.txt のみを使用した. IWSLT2017 はオリジナルの 232,423 文対の学習データから Moses[11] の clean-corpus-n.perl 1)を使いクリーニングを行った 9,250 文対を学習データとして用い, 開発には dev2010 の 871 文対,テストには tst2015 の 1,194 文対を使用した. JParaCrawl はオリジナルの 1,000 万分からランダムに 400 万文抽出し学習データとして使用した. 英語及び日本語の入出力はサブワードとし, Sentencepiece[12]を使いトークナイズを行った. このとき, 語彙サイズは 16,000 とし, 言語間で共有した。 実験設定実装には fairseq[13] を用いた。バッチサイズは実験 4.1 において 2048, 実験 4.2 において 8192 にした. それ以外のハイパーパラメータは全てにおいて [1] と同じにした. 摂動英日翻訳の目的言語側,すなわち日本語側で句構造の解析を行い, 解析結果から句単位の摂動を付与する. MeCab[14]を使って形態素解析を行い,MeCab が出力した品詞列に対して正規表現で句単位に区切るルールを定義し, nltk[15] の RegexpParser でチャンキングを行った. このチャンキングは学習時に行うと学習時間が膨大となるため, 学習データ作成時に行いチャンキング結果を目的言語文と共にモデルに渡すことでベースラインと変わらない速度での学習を行った. 摄動範囲は全てにおいて $[-1,+1]$ に統一し,一様分布に基づいて選択  表 1 ASPEC 英日翻訳における BLEU される. 評価翻訳文の評価手法には機械翻訳の自動評価として一般的な BLEU[16] を用い,sacreBLEU[17]で計算した. ## 4.1 事前実験 摂動をエンコーダ・デコーダどちら側に付与するべきなのか検証するため,エンコーダ側,デコーダ側それぞれにおいて通常の SPE(絶対位置),RPE(相対位置) を付加しない場合の実験を行った. 本研究では [18] と同様, Query と Key のみに適用する簡略化された RPE を用いた. 実験結果を表 1 に示す. エンコーダに SPE を付加しない場合,デコーダにおける SPE の有無関係なしに大きく BLEU が下がった. 一方で,デコーダ側の SPE の有無は翻訳精度に大きく影響を与えることはなかった.RPE の場合でも同様の傾向が見られた. したがってエンコー ダ側の絶対的な位置表現が翻訳精度に大きく影響を与えていることがわかる. ## 4.2 話し言葉・書き言葉における実験 表 3 ASPEC 英口翻訳における BLEU 話し言葉における実験事前実験から,エンコー ダ側にはSPEによる絶対的な位置情報を与えた方が良く, デコーダ側の SPE の位置情報の与え方には改善の余地があると考えられた. そこでデコーダ側に提案手法を適用し実験を行った. IWSLT2017 データセットと JParaCrawl データセットを使った英日翻訳 の結果を表 2 に示す. 通常, 話し言葉の翻訳では,話し言葉のデータセットのみでの fine-tuning を行うが,この実験結果では fine-tuning は行っていない.結果から,提案手法がベースラインと比べて 0.8 ポイント BLEU が向上したことがわかる. また,デコーダ側にSPE を与えなかった場合,ベースラインと比べて 0.1 ポイント BLEUが下がった. 書き言葉における実験話し言葉と同様に,デコーダ側に提案手法を適用し実験を行った. 表 3 に ASPEC データセットを使った書き言葉における実験結果を示す. 結果より, ベースラインと比べると 0.4 ポイントの BLEU の向上が見られた. また,デコーダ側にSPE を与えなかった場合, ベースラインと比べて 0.1 ポイント BLEUが下がった. ## 5 考察 事前実験事前実験の結果から,デコーダの位置表現が翻訳精度に大きく影響を与えるとは考えにくい. 生成時, Transformer は自己回帰的に生成を行 $い$, 生成した前の単語 (時刻 $\mathrm{t}$ 単語) から次の単語 (時刻 $\mathrm{t}+1$ の単語) の予測を行うようデコーダの Self-Attention ではマスクを行う.このように時系列に沿った生成を行うため, 位置情報は必要ではないと考えられる。また,絶対位置表現,相対位置表現両方において同じ傾向であったことから,位置表現の違いやどこで位置情報を足し合わせるかは精度に大きく関係しないと考えられる。 提案手法話し言葉,書き言葉における実験では翻訳精度の改善が見られた. さらに, デコーダ側で SPE を付与しない時と比べても翻訳精度の改善が見られた. デコーダ側の位置表現が必須でないならば,位置表現において正則化を行うことで若干の改善が可能であることを示唆している. 若干の改善しか見られなかったのは,デコーダ側の位置情報が翻訳精度にそれほど大きな影響を与えないことが原因であると考えられる。このように単語埋め込みに直接作用する摂動を用いた正則化手法 $[2,3,4]$ と比べると大きく改善するとは言い難いが,提案手法はこれらの手法と組み合わせが容易に可能であるため, 組み合わせることで更なる精度の改善が期待できる. トークン単位の摂動また,先行研究のように句単位ではなくトークン単位で摂動を付与した場合,翻訳精度が改善するのか実験を行った. 表 1 と同じパラメータで実験を行った結果を表 4 に示す.トー表 4 ASPEC 英日翻訳においてトークン単位の摄動を付与した場合の実験結果. perSPE の摂動範囲はすべて [-2, +2] である. クン単位の摂動を付与した場合でも若干の翻訳精度の改善 (+0.4 の BLEU の改善) が見られた. また, SPEをデコーダに付与しない場合と比較しても若干の改善が見られた, これはデコーダ側では絶対位置を付与するのではなく, 正則化を行う提案手法を適用することで翻訳の改善が見込めることを示すと考えられる。一方で,エンコーダに摂動を付与したとき翻訳精度がベースラインより下がったことから, エンコーダ側ではやはり絶対的な位置表現をしたほうがよいと考えられる. ## 6 まとめ 本稿では,書き言葉における英日翻訳のため,句単位の摂動を Positional Encoding に付与する正則化手法を提案した. 実験結果から,書き言葉・話し言葉における英日翻訳それぞれにおいて若干の翻訳精度の改善が見られた。一方で,他の正則化手法と比べると精度の改善が小さいという問題点もある.今後の課題としては,他正則化手法との組み合わせの検証,他ランダムシードでの検証などが挙げられる. ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. CoRR, Vol. abs/1706.03762, , 2017. [2] S. Bengio, Oriol Vinyals, Navdeep Jaitly, and Noam M. Shazeer. Scheduled sampling for sequence prediction with recurrent neural networks. In NIPS, 2015. [3] Yarin Gal and Zoubin Ghahramani. A theoretically grounded application of dropout in recurrent neural networks. In Daniel D. Lee, Masashi Sugiyama, Ulrike von Luxburg, Isabelle Guyon, and Roman Garnett, editors, Advances in Neural Information Processing Systems 29: Annual Conference on Neural Information Processing Systems 2016, December 5-10, 2016, Barcelona, Spain, pp. 1019-1027, 2016. [4] Sho Takase and Shun Kiyono. Rethinking perturbations in encoder-decoders for fast training. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 5767-5780, Online, June 2021. Association for Computational Linguistics. [5] Peter F. Brown, Stephen A. Della Pietra, Vincent J. Della Pietra, and Robert L. Mercer. The mathematics of statistical machine translation: Parameter estimation. Computational Linguistics, Vol. 19, No. 2, pp. 263-311, 1993 . [6] Peter Shaw, Jakob Uszkoreit, and Ashish Vaswani. Selfattention with relative position representations. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 464-468, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [7] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 66-75, Melbourne, Australia, July 2018. Association for Computational Linguistics. [8] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. Aspec: Asian scientific paper excerpt corpus. In Nicoletta Calzolari (Conference Chair), Khalid Choukri, Thierry Declerck, Marko Grobelnik, Bente Maegaard, Joseph Mariani, Asuncion Moreno, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC 2016), pp. 2204-2208, Portorož, Slovenia, may 2016. European Language Resources Association (ELRA). [9] Mauro Cettolo, Marcello Federico, Luisa Bentivogli, Niehues Jan, Stüker Sebastian, Sudoh Katsuitho, Yoshino Koichiro, and Federmann Christian. Overview of the iwslt 2017 evaluation campaign. 2017. [10] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A large scale web-based English-Japanese parallel corpus. In Proceedings of The 12th Language Resources and Evaluation Conference, pp. 3603-3609, Marseille, France, May 2020. European Language Resources Association. [11] Philipp Koehn, Hieu T. Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondrej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open source toolkit for statistical machine translation. In ACL, 2007. [12] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for Neural Text Processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [13] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of NAACL-HLT 2019: Demonstrations, 2019. [14] Taku Kudo. Mecab : Yet another part-of-speech and morphological analyzer. http://mecab.sourceforge.net/, 2005. [15] Steven Bird and Edward Loper. NLTK: The natural language toolkit. In Proceedings of the ACL Interactive Poster and Demonstration Sessions, pp. 214-217, Barcelona, Spain, July 2004. Association for Computational Linguistics. [16] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [17] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Belgium, Brussels, October 2018. Association for Computational Linguistics. [18] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT1-12.pdf
# 手・指の動きを伴う子どもの反応を対象とした 絵本レビュー分析・絵本の類型化と発達心理学文献との比較* 笠松 美歩 1 宇津呂 武仁 ${ }^{1}$ 齋藤 有 ${ }^{2}$ 石川由美子 ${ }^{3}$ } 1 筑波大学大学院 システム情報工学研究科 2 聖徳大学 児童学部 3 宇都宮大学 共同教育学部 ## 概要 本論文では, 日本最大級の絵本・北童書専門サイト「絵本ナビ」に投稿された,絵本に対するレビューを情報源とすることで,絵本に対する子どもの認知発達的反応および絵本の分類を行う. 特に,本論文では,絵本読み聞かせ場面を描写したレビューから手・指の動きを伴う子どもの反応を大規模に収集し, それらの反応における特徴に応じて絵本の特徴が類型化できること, およびその類型化結果を示す. ## 1 はじめに 発達心理学は, 子どもの発達メカニズムを解明することを目的とする学問分野である.この分野において, 絵本の読み聞かせは子供の発達に大きな影響を与えるとされており, 有力な研究対象の一つとなっている. 絵本読み聞かせ場面における認知発達的反応と, そこで用いられる絵本の種類との関係を解明することは, こうした研究の発展に大きく貢献できると考えられるが, 発達心理学において, この関係の追求は十分にはなされていない. その理由として, この追求に必要不可欠である大規模なデータの収集・分析が, 現在の発達心理学における研究手法では困難であるという点が挙げられる.従来の発達心理学の研究手法は, 実際の絵本読み聞かせ場面の映像を収録し,その内容を人手で一つ一つ分析するというものであり,データの規模を拡大するためには, 膨大な時間と労力が必要となる. そこで, 本論文では, 日本最大級の絵本 - 児童書専門サイト 「絵本ナビ」1)に投稿された, 絵本に対するレビュー を情報源とすることで, 絵本に対する子どもの認知発達的反応および絵本の分類を行う.  本論文では,0 4 歳の手・指の動きを伴う子どもの反応について, 子どもの反応の分析を行う. 手指の動きを伴う子どもの反応は認知発達と関連があるとされ, 発達心理学では多数の研究事例のある重要な反応にも関わらず,絵本を用いた研究事例はきわめて少ない。それに対し,本論文では,絵本読み聞かせ場面を描写したレビューから手・指の動きを伴う子どもの反応を大規模に収集し,それらの反応における特徴に応じて絵本の特徴が類型化できること, およびその類型化結果を示す. ## 2 絵本レビューサイト「絵本ナビ」 本論文では, 絵本情報サイト「絵本ナビ」に読者が書き込んだレビュー(以降,レビュー)を分析の対象とする。絵本ナビは,絵本および児童書約 89,700 タイトルに関する出版社, 著者, あらすじなどの基本情報の他, 大量のレビュー (2021 年 12 月現在で約 42 万 2 千レビュー) が書き込まれる国内最大級の絵本および児童書に特化した情報サイトである.多くのレビューにおいて, 絵本の読み手 (以降, レビュアー)の感想や行動を描写した記述と,聞き手である子どもの反応を描写した記述が混在している. 文献 $[13,14]$ では, 絵本ナビ中のレビューを人手分析し, 絵本に対する子どもの反応の描写が含まれる割合について報告している。特に,文献 [14]では,手・指を用いたジェスチャーに焦点を当て,子どもの認知発達的事例の類型化を人手で行なっている. そして, それらの類型と, 発達心理学分野におけるこれまでの知見との間で比較分析を行なった。一方,本論文では,手・指を用いたジェスチャーに焦点を当て, 絵本レビューより抽出される子どもの認知発達的反応およびその際に用いられた絵本タイトルを分析するとともに,事例数の規模について推定を行い, 発達心理学分野における従来からの知見と, 絵本レビューから収集可能な定量的情報との間の比較分析を行うことを目的としている. 表 1 認知発達的反応 (手・指の動きを伴う反応) の類型 (a) 身振りを伴う子どもの反応 & & 代表的な呼称 & 反応類型の概要 & レビュー中の例 & 文献中の例 \\ (b) その他の手・指の動きを伴う子どもの反応 & 反応類型番号 & 反応類型の概要 & レビュー中の例 \\ ## 3 発達心理学における身振りを伴う 子どもの反応特徵の類型 発達心理学においては, 手・指を含んだ身体の動きを伴う反応のうち, 身振りと呼ばれる反応が主に扱われ,それらを類型化して分析を行っている.発達心理学文献における主な身振りの類型に関して, 本論文中での類型の通し番号 (反応類型番号) $\cdot$概要・発達心理学文献における代表的な呼称・レビューおよび文献中の例を表 1(a)に示す.これらの類型のうち, 反応類型番号がRL から始まる類型は,発達心理学文献・レビュー中両方に出現する類型であり, 反応類型番号が $\mathrm{L}$ から始まる類型は, 発達心理学文献にのみ出現する類型である. また, 本論文において調査した, 各類型を扱った発達心理学文献数を,表 2(a) に示す。 ## 4 レビュー中の子どもの認知発達的反応の分析 本論文では, 絵本レビュー中に描写されている手・指の動きを伴う子どもの反応を,まず表 1 (a) における身振りの類型に分類した。この過程において, これらの類型には分類不可能な反応が多数見つかった. 発達心理学における身振りとは, 空間的情報や身体の動きに関する情報を表現する動き [2] であり,ここには,絵本そのものを操作するなど,何かを表現することを意図しない動きは含まれない. しかし, 絵本レビューには, こうした何かを表現することを意図しない手・指の動きを伴う反応が多数含まれている。そこで,これらをその特徴に基づいてグルーピングし, 独自に類型 $\mathrm{R} 1 \sim \mathrm{R} 8$ を作成した.表 1(b) に, これらの類型の本論文中での類型の通し番号 (反応類型番号) ・概要・レビュー中の例を示す.絵本レビュー中の手・指の動きを伴う子どもの反応を, 表 1 に示す類型に分類した場合の, 各類型における年齢別の反応頻度 (「指さす」以外については観察サンプル数 10 での推定値, 「指さす」については観測サンプル数 20 での推定値) および反応表現種類数を表 2(b), および,表 2(c) に示す. ## 5 絵本の分類および発達心理学文献 の調査 4 節において類型化された反応に基づいて, 絵本の類型化を行った結果, 表 3 に示す類型が得られた.この類型化によって作成された類型は 40 であり,そこに含まれる手・指の動きを伴う子どもの反応の頻度は 826 , 反応表現種類数は 91 であった。ま た, 同種の反応が含まれる発達心理学文献についても調査し, その結果を, 表 3 の「同種の反応に言及している発達心理学論文・書籍」欄に示す. 同種の反応に言及している発達心理学文献が見つかった類型は 40 の絵本類型のうち 6 類型であり, 文献数は 11 であった. ## 6 おわりに 本論文では, 従来の発達心理学研究における方式とは異なり, 絵本のレビューが書き込まれるサイトを情報源として, 絵本に対する子どもの認知発達的反応が描写された絵本レビューを分析対象とする方式を提案した。具体的に,本論文では,絵本レビュー中の手・指の動きを伴う子どもの反応に関して, それらの反応および絵本の類型化を行い, 発達心理学文献との比較を行った. その結果, 子どもの反応における特徴に応じて絵本の特徴を類型化することができた。表 2 発達心理学文献およびレビューにおける各反応類型の分布 (a) 各反応類型を含む発達心理学文献数 } & \multicolumn{2}{|c|}{ |反応事例の描写なし } & 4 & 3 & 6 & 0 & 3 & 1 & 2 & 6 \\ (b) 各反応類型のレビュー中の頻度分布 (推定値) (c) 各反応類型のレビュー中の反応表現種類数分布 表 3 絵本レビュー中の子どもの認知発達的反応 (手・指の動きを伴う反応) に基づく絵本の分類および & 絵本の特徵 & & 説明 & & 頻度 & 絵本タイトル & \\ {[1]}\end{array}\right.$} \\ ## 参考文献 [1] Ş. Özçalişkan and S. Goldin-Meadow. Do parents lead their children by the hand? Journal of Child Language, Vol. 32, No. 3, pp. 481-505, 2005. [2] 小林春美, 佐々木正人. 新・子どもたちの言語獲得.大修館書店, 2008. [3] J. M. Iverson, O. Capirci, and M. C. Caselli. From communication to language in two modalities. Cognitive Development, Vol. 9, No. 1, pp. 23-43, 1994. [4] E. Nicoladis. Some gestures develop in conjunction with spoken language development and others don't: Evidence from bilingual preschoolers. Journal of Nonverbal Behavior, Vol. 26, No. 4, pp. 241-266, 2002. [5] L. Acredolo and S. Goodwyn. Symbolic gesturing in normal infants. Child Development, pp. 450-466, 1988. [6] 藤井美保子. コミュニケーションにおける身振りの役割. 教育心理学研究, Vol. 47, No. 1, pp. 87-96, 1999. [7] Ş. Özçalişkan, D. Gentner, and S. Goldin-Meadow. Do iconic gestures pave the way for children's early verbs? Applied Psycholinguistics, Vol. 35, No. 6, pp. 1143-1162, 2014. [8] 山本正志, 山本博香. 1 健常幼坚における身ぶりの発達. 聴能言語学研究, Vol. 10, No. 1, pp. 8-15, 1993. [9] E. Bates, D. Thal, K. Whitesell, L. Fenson, and L. Oakes. Integrating language and gesture in infancy. Developmental Psychology, Vol. 25, No. 6, p. 1004, 1989. [10] 高井直美, 高井弘弥. 初期シンボル化における身ぶり動作と音声言語との関係. 発達心理学研究, Vol. 7, No. 1, pp. 20-30, 1996. [11] 山本正志, 山本博香. 健常幼览における身ぶりの発達 (2). 聴能言語学研究, Vol. 13, No. 3, pp. 205-212, 1996. [12] 平澤順子. 保育所 1 歳児クラスの絵本の読み聞かせ場面における自発的身ぶりの検討. 日本女子大学大学院紀要, Vol. 24, pp. 113-122, 2018. [13] 上原宏, 馬場瑞穂, 宇津呂武仁. 発達心理学の観点から見た絵本レビュー中の子供の反応の分析. 言語処理学会第 21 回年次大会論文集, pp. 832-835, 2015. [14] H. Uehara, M. Baba, and T. Utsuro. Analyzing developmental characteristics of infants' finger/hand gestures text analysis of picture book reviews 一. 言語処理学会第 23 回年次大会論文集, pp. 430-433, 2017.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT1-13.pdf
# 単語と文書の関係によるグラフを用いた文書分類 中嶋宽武 ${ }^{1}$ 佐々木稔 ${ }^{1}$ 1 茨城大学工学部情報工学科 \{18t40641, minoru. sasaki. 01\}@vc. ibaraki. ac. jp ## 概要 グラフ構造を利用した文書分類の手法の一つに RoBERTaGCNがある。RoBERTaGCNは、20NG、R8、 Ohsumed、MR の 4 つのデータセットによる文書分類において、既存手法の中で最高の性能を誇っている。しかし、RoBERTaGCN は、文書-単語ノード間の関係と単語ノード間の関係は各ノード間の重みとして表現し考慮しているが、文書ノード間の関係は考慮できていない。そこで、文書の分散表現のコサイン類似度を文書ノード間の重みとしてグラフに追加することで、RoBERTaGCN の精度向上を試みた。実験の結果、RoBERTaGCN に対して、20NG で $0.67 \%$ 、 Ohsumed で $1.19 \%$ の分類性能の向上を確認できた。 ## 1 はじめに 自然言語処理のタスクに文書分類がある。文書分類とは、与えられた文書に対して、事前に定義されたラベル群から適切なラベルを推定するタスクのことであり、その技術は、人間が文書を分類する作業を自動化するための技術として実社会でも応用されている。 文書分類の手法に RoBERTaGCN がある。 RoBERTaGCN は BERT の大量ラベルなしデータを活用した大規模事前学習によって得られた知識と、 GCN のトランスダクティブ学習の利点を組み合わせた手法である。この手法は、20NG、R8、Ohsumed、 MR の 4 つのデータセットによる文書分類において、既存手法の中で最高の性能を誇っている。 しかし、RoBERTaGCN は、文書ノードと単語ノー ド間の関係と単語ノード間の関係は各ノード間の重みとして表現し考慮しているが、文書ノード間の関係は考慮できていない。そこで、文書ノード間の関係をノード間の重みとしてグラフに追加することで RoBERTaGCN の精度向上を試みた。具体的には、各文書を BERT モデルに入力し、その最終の隠れ層における CLS ベクトルを得る。そして各文書の CLS ベクトルのコサイン類似度を計算し、それらを文書ノード間の重みとして追加した。これにより、文書ノード間の関係を考慮したグラフが作成でき、 RoBERTaGCN の各データセットにおける正答率を上回ることを期待した。 コサイン類似度の閾値を 0.5 と $0.95 \sim 0.995$ までの間 0.005 刻夕で設定して実験を行うことで、提案手法の性能を評価するとともに、各データセットにおける最適なコサイン類似度の閾値についても検討を行った。 ## 2 関連研究 Kipf ら[1]は、置み込み操作によって局所的に特徴量を抽出する畳み込みニューラルネットワーク (CNN)を、グラフデータに応用できるようにした GCN を提案した。Kipf らの GCN による文書分類は 2017 年当時、最高の精度で分類することができていた。 Yao ら[2]は、文書分類のタスクに、GCNを適用した手法である TextGCN を提案した。TextGCN は文書ノードと単語ノードを同一のグラフ(異種グラフ)上に表現し、それを $\mathrm{GCN}$ へ入力としている。 TextGCN は 2018 年当時、文書分類タスクにおいて state-of-the-art を達成した。 Yuxiao ら[3]は、BERT の大量ラベルなしデータを活用した大規模事前学習によって得られた知識と、 GCN のトランスダクティブ学習の利点を組み合わせた手法である BertGCN ${ }^{i}$ を提案した。BertGCN では、各文書を BERT に入力して、その出力から文書べクトルを抽出し、それを文書ノードの初期表現として文書と単語の異種グラフとともに GCNへ入力する。  BertGCN は現在、文書分類タスクにおいて state-ofthe-art を達成している。 ## 3 提案手法 提案手法の動作概要図を図 1 に示す。まず、文書を入力として単語と文書の異種グラフを構築する。次に、そのグラフ情報(重み行列と初期ノード特徴行列)をBERT と RoBERTaGCN に入力し、それぞれにおける予測結果を得る。最後に、それぞれの予測結果の線形補間を計算し、その結果を最終的な予測として採用する。尚、 3.1 節の内容が本研究における RoBERTaGCN の改良点であり、3.2 節と 3.3 節の処理は RoBERTaGCN に準拠している。 図 1 : 提案手法の動作概要図 ## 3.1 異種グラフ構築 単語ノードと文書ノードを含む異種グラフを構築する。まず、ノード $i, j$ 間のエッジの重みを以下式 (1)のように定義する。単語ノード間のエッジの重みには自己相互情報量(PPMI)を使用する。単語ノー ドと文書ノード間のエッジの重みにはtfidf値を使用する。RoBERTaGCN では、文書ノード間のエッジの重みは定義していなかったが、本研究では、各文書ベクトルの類似度を文書ノード間の重みとして定義する。具体的には、各文書を BERT に入力し、その最終の隠れ層から各文書の先頭に追加した特殊トー クンである[CLS]における重みである CLS ベクトルを得る。そして各文書の CLS ゙゙クトルのコサイン類似度を計算し、予め設定した閾値を超える類似度を文書ノード間の重みとして付加する。 $A_{i, j}=\left.\{\begin{array}{cc}\text { COS_SIM }(i, j), & i, j \text { are documents }(i \neq j) \\ P P M I(i, j), & i, j \text { are words }(i \neq j) \\ T F-I D F(i, j), & \text { is document } j \text { is word } \\ 1, & i=j \\ 0, & \text { otherwise }\end{array}\right.$ 次に、GCN に入力する初期ノード特徴行列を作成する。BERT を用いて文書埋め込み表現を取得し、 それらを文書ノードの入力表現として扱う。文書ノ一ドの埋め込み表現 $X_{d o c}$ は、文書数 $n_{d o c}$ と埋め込み次元数dを用いて $X_{d o c} \in \mathbb{R}^{n_{d o c} \times d}$ で表される。総じて、初期ノード特徴行列は以下式(2)で与えられる。 $ X=\left(\begin{array}{c} X_{\text {doc }} \\ 0 \end{array}\right)_{\left(n_{d o c}+n_{\text {word }}\right) \times d} $ ## 3.2 GCN への入カと学習 式(1)と(2)で示したノード間のエッジの重みと初期ノード特徵行列を GCN に入力し、学習を行う。第 $i$ 層の出力特徴行列 $L^{(i)}$ は式(3)で計算される。 $ L^{(i)}=\rho\left(\tilde{A} L^{(i-1)} W^{(i)}\right) $ $\rho$ は活性化関数であり、 $\tilde{A}$ は正規化された隣接行列である。 $W^{i} \in \mathbb{R}^{d_{i-1} \times d_{i}}$ は第 $i$ 層における重み行列である。 $L^{(0)}$ は $X$ であり、モデルの入力特嘚行列になっている。GCN の出力は文書ノードの最終表現として扱われ、分類のためにその出力は Softmax 関数に入力される。 $\mathrm{GCN}$ の出力による予測は以下式(4) で与えられる。 $ Z_{G C N}=\operatorname{softmax}(g(X, A)) $ ## 3. 3 BERT と RoBERTaGCN による予測の補間 BERT 埋め込み表現を直接扱う補助分類器で RoBERTaGCN を最適化することにより、より高速な収束と性能向上につなげている。具体的には、文書埋め込み表現 $X$ と重み行列 $W$ を softmax に直接送り込むことで BERT による補助分類器を作成する。補助分類器による予測は以下式(5)で与えられる。 $ Z_{B E R T}=\operatorname{softmax}(W X) $ そして、RoBERTaGCN からの予測である $Z_{G C N}$ と BERT (補助分類器) からの予測である $Z_{B E R T}$ で線形補間を行い、その線形補間の結果を最終的な予測として採用する。線形補間の結果は以下式(6)で与えられる。 $ Z=\lambda Z_{G C N}+(1-\lambda) Z_{B E R T} $ $\lambda$ はつの予測の間のトレードオフを制御し、 $\lambda=1$ の場合は完全な RoBERTaGCN モデルを使い、 $\lambda=0$ の場合は BERT モジュールのみを使用することを意味する。 $\lambda \in(0,1)$ の場合、両方のモデルから予測のバランスを取ることができ、RoBERTaGCN のモデルをより最適化することができる。 $\lambda=0.7$ が $\lambda$ 最適值であることが Yuxiao らの実験によって明らかにされている。 ## 4 実験 コサイン類似度の閾値を 0.5 と $0.95 \sim 0.995$ までの間 0.005 刻みで設定して実験を行うことで、提案手法の分類性能を評価するとともに、各データセットにおける最適なコサイン類似度の閾値についても検討を行った。 ## 4. 1 データセットについて 文書分類の実験において、よく用いられる英文コ ーパスである 20NG、R52、R8、Ohsumed、MR の 5 つをデータセットとして採用した。以下表 1 に各デ ータセットの文書数や平均単語数、訓練データ数とテストデータ数を示す。 表 1 : 各データセットの情報 & & \\ 各データセットについて以下 2 の項目の前処理を施し実験を行った。 ・ストップワードの除去 ・記号の除去 各文書を特徴づける単語のみを残すこと、また、単語数を減らしメモリを節約することの両方を目的として、ストップワードと記号を除去した。 ## 4.2 実験結果 コサイン類似度の閾値ごとの実験結果を、もとの RoBERTaGCN での正答率と合わせて表 2 に示す。 ×とした項目は、メモリ不足によって実験が完了できなかった項目である。また、Ohsumedについては、閾值 0.99 以上と 0.995 以上、閾値 0.975 以上と 0.98 以上の実験で、追加される CLS ベクトルのコサイン類似度のエッジの数が同じであったため、まとめて表記した。各データセットにおける CLS ベクトルのコサイン類似度の值の分布については付録に表形式で示した。どのデータセットにおいても特定の閾値において、元の RoBERTaGCN の分類性能を上回ることが確認できたが、R8、R52、MR については元の RoBERTaGCN の性能を上回っている閾值が 1 つか ら2つ程度となっており、安定的な分類性能の向上が見られなかった。一方、20NG では、 0.95 から 0.995 までのどの閾値においても元の RoBERTaGCN の分類性能を上回っており、Ohsumed でも、大方の閾値において元の RoBERTaGCN の分類性能を上回った。際立った結果としては、閾值 0.975 において $20 \mathrm{NG}$ で $0.67 \%$ 、閾值 0.965 において Ohsumed で $1.19 \%$ 、元の RoBERTaGCN の分類性能を上回ることが確認できた。 表 2 : コサイン類似度の閾値ごとの実験結果 & MR \\ \cline { 1 - 4 } 0.98 & 89.60 & 98.54 & 93.96 & 88.29 \\ \cline { 1 - 4 } 0.995 & 89.51 & $\mathbf{9 8 . 8 1}$ & 93.26 & 88.31 \\ ## 5 考察 以下表 3 に、各データセットにおいて追加された各種エッジの数とコサイン類似度の平均値を示す。 表 3 : エッジの数とコサイン類似度の平均值 & & \\ ×とした 20NG のコサイン類似度のエッジはコサイン類似度を計算している途中でメモリ不足となり、 重みを付加し終えることができなかった。閾値を 0.5 に設定した実験では、20NG と R52、MR のデータセットにおいてメモリ不足により、実験が完了できなかった。また、実験が完了できた R8、Ohsumed においても、元の RoBERTaGCN の分類性能を大きく下回る結果となった。いずれの理由も追加する文書ノ ード間のエッジの重みの数が膨大になってしまったことが原因と考えられる。どのデータセットにおいても CLS ベクトルのコサイン類似度のエッジの数が、pmi エッジや tf-idf エッジの 2 倍以上となっている。また、CLS ベクトルのコサイン類似度の平均値がいずれのデータセットにおいても 0.8 0.85 の間にあることから、同じジャンルではない文書ノード間のエッジの重みも相当数追加され、それがノイズになってしまっていると考えられる。 表 1 の各データセットの平均単語数と表 2 の実験結果を分析すると、提案手法は元の RoBERTaGCN と比較して、平均単語数が多いデータセットほどより高い分類性能を得やすいことが分かる。これは、平均単語数が多いほど、文書の CLS ベクトルにそれらの文書の特徴がよく反映され、同じジャンルの文書ノード間により多くコサイン類似度の重みが追加されたためと考える。反対に、平均単語数が少ないほど、文書の CLS ベクトルに差が表れにくくなり、違うジャンルの文書の CLS ベクトルのコサイン類似度が高く出てしまい、違うジャンルの文書のノー ド間の重みにコサイン類似度の重みが追加されてしまったことが、分類性能が思うように上がらなかった要因であると考えられる。 表 2 において、分類性能の最高値を示している CLS ベクトルのコサイン類似度の間值における、追加されたエッジの数の割合を計算した。以下表 4 に計算結果を示す。 表 $4:$ 追加されたエッジの数の割合 & & \\ 追加されたエッジの数の割合と分類性能に関係性は見えてこないため、今後は、文書ノード間に追加する重みを CLS ベクトルのコサイン類似度の閾値で決定するのではなく、コサイン類似度の値の上位 ○といった基準での実験を行い、文書ノード間のエッジの数と分類性能の関係を明らかにする必要がある。 ## 6 おわりに 本論文では、文書ノード間のエッジの重みとして文書の CLS ベクトルのコサイン類似度を付加することで RoBERTaGCN を改良でき、元の RoBERTaGCN の分類性能を上回ることを確認した。特に、提案手法は長い(平均単語数の多い)文書に対して特に有効であることが実験によって示された。 今後は、提案手法と BertGCN の相性や、GCN ではなく代わりに GAT を用いた場合の分類性能についても、実験を行って確認していきたい。 ## 参考文献 1. Kipf, T. N., and Welling, M. 2017. Semi-supervised classification with graph convolutional networks. In ICLR. 2. Liang Yao, Chengsheng Mao, and Yuan Luo. 2019. Graph Convolutional Networks for Text Classification. In AAAI-19. 3. Yuxiao Lin, Yuxian Meng, Xiaofei Sun, Qinghong Han, Kun Kuang, Jiwei Li and Fei Wu. 2021. BertGCN: Transductive Text Classification by Combining GCN and BERT. ## A 付録
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/