filename
stringlengths
1
10
text
stringlengths
33
111k
category
stringclasses
9 values
license
stringclasses
1 value
credit
stringclasses
5 values
PT1-14.pdf
# テレビ字幕データを用いた感情分析による 「ある日の日本の気分」推定に関する研究 イーフエイチー1 ${ }^{1}$ 望月 源 $^{2}$ ${ }^{1}$ 東京外国語大学 言語文化学部 ${ }^{2}$ 東京外国語大学 大学院総合国際学研究院 \{yee. hueichi.s0, motizuki\}@tufs. ac. jp ## 概要 本研究は感情分析を用いて,とある日の日本社会全体がその日の出来事からどのような情緒的な雾囲気になっていたのか,いわば「日本の気分」を推定することを目的とする. テレビ字幕データの中から日々のニュース字幕を取り出し, 日本語感情分析ライブラリ oseti により計測した各文の感情スコアを集計することで, ある日の感情を推測する. 2019 年 10 月から 2020 年 12 月 31 日までの期間を対象に実際に日付ごとの感情分析によるスコアがどのように変化したのかを考察する。 ## 1 はじめに 本研究は感情分析を用いて,とある日の日本社会全体がその日の出来事からどのような情緒的な雾囲気になっていたのか, いわば「日本の気分」を推定することを目的とする。過去の一連のニュースに関するテキストを分析することによって,過去の,とある期間の日本社会がどんな雰囲気なのか, あるいは現在の社会の雰囲気がどんななのか, 具体的に世間の「雰囲気」を数值化する. 数值化した結果から, とある期間の「日本の気分」を可視化する [1]. この目的を達成するため, 本研究では, テレビのニュース番組の字幕データを利用し, 1 日単位での感情分析によるスコアを抽出する. 1 年 2 ケ月という比較的長い期間のデータを分析することによって,時間と共に日付ごとの感情分析によるスコアがどのように変化したのかを考察する. ## 2 調査方法 ## 2.1 使用データについて 本研究では, 東京外国語大学計算言語学研究室で収集整備している「日本語テレビ字幕コーパス」を用いる[2]. このコーパスは, 東京都の地上波デジタルテレビ放送に付与されたクローズドキャプション (字幕)データを収集し, 不要な情報を除去した後に,字幕表示のために断片化した文を 1 文にまとめたうえで字幕表示のタイミング情報を付与したものであり, 以下の特徴がある. - 2012年 12 月から 2021 年 9 月の時点で 518,960 番組, 179,268,965 文, $1,945,899,573$ 形態素. - 各テキスト(番組)はテレビ局の番組情報に基づいて, アニメ/特撮, スポーツ, ドキュメンタリー/教養, ドラマ, ニュース/報道, バラエティ, 映画, 音楽, 劇場 $/$ 公演, 趣味 /教育, 情報/ワイドショー, 福祉, および, その他の 13 種類に分類されている. 本研究ではこのコーパスの中から,2019 年 10 月 1 日から 2020 年 12 月 31 日までの「ニュース/報道」 の 16,362 テキストを字幕データとして使用する. ## 2.2 データ分析の方法 ## 2. 2.1 感情分析ツール 感情分析では,単語や用語ごとに「ポジティブ」「ネガティブ」の極性を定めた「感情極性辞書」を用いることが多い. 代表的な日本語の感情極性辞書として「日本語評価極性辞書」がある.この日本語評洒極性辞書は,「日本語評価極性辞書(用語編)」[3] と「日本語評価極性辞書(名詞編)」[4]に分類されている. 用言編と名詞編の全表現には「ポジティブ」「ネガティブ」の評価極性が振り分けられており,用言編にはさらに「客観的」「主観的」の振り分けもある. 本研究では, この日本語評価極性辞書をデ ータとして用いた日本語感情分析ライブラリ「oseti v.0.2」[5]を用いる. oseti は 1 文ごとの感情スコアを計算するツールとして GitHubにて公開されている. 1 文を入力すると, 文内の表現のスコアの平均值を 計算し, 文全体としての感情スコアを-1から 1 の範囲で出力する.ポジティブなスコアは肯定的な感情, ネガティブなスコアは否定的な感情, 丁度ゼロとなるスコアはどちらでもないということを指す. また, oseti は否定的な文脈が現れるとネガティブな極性を付ける。例えば,「お金」と「希望」は単独ではポジティブな極性である表現だが「お金も希望もない」という文ではポジティブな極性が取り消され, ネガティブな極性になるため, 文全体のスコアはネガティブな値となる. 本研究ではコーパス内の各文の感情スコア計算に oseti を用いる。 ## 2. 2.2 感情分析方法 とある日の「日本の気分」を表す数値の計算に当たって,まずは式 1 の「合計スコア」を導入する. 合計スコア $s c r_{\text {total }}$ はその日のポジティブな文のスコア $s c r_{p}$ の総計とネガティブな文のスコア $s c r_{n}$ の総計を足し合わせたものであり,その日に放送された全部の文のスコアを足し合わせたものである. $ s c r_{\text {total }}=\sum_{p \in \text { positive }} s c r_{p}+\sum_{n \in \text { negative }} s c r_{n} $ ここで positive はポジティブな文の集合, negative はネガティブな文の集合をそれぞれ表す. 式 1 では,肯定的な感情を持つ文と否定的な感情を持つ文はスコアが打ち消し合う関係にある。 一方, 肯定的な感情と否定的な感情がお互いに打ち消し合う関係にあるのかについては,疑問も生じる. 例えば,ある日に, 1 件の非常に悲しいニュー ス(スコアを 5.0 とする)と, 5 つの少しだけ嬉しいニユース(各スコアを-1.0 とする)があったとする. 合計スコアの考え方では, 5.0-(1.0x5)=0.0 となり, その日の感情は全体として「どちらでもない」ということになる。しかし, 実際にその日に重大な出来事が発生しており, 人々は起きた物事に強い感情を持っていたはずなので尺度としてしっくりこない部分もある. そこで,極性によらず社会の感情の強さを図る 「感情の強度(1)」scr $r_{e s 1}$ を導入する(式 2). $ s c r_{e s 1}=\sum_{p \in \text { positive }} s c r_{p}+\sum_{n \in \text { negative }}\left|s c r_{n}\right| $ 感情の強度(1)とは,その日のネガティブスコアを絶対値にし,ポジティブスコアに足し合わせたもの である. 両方のスコアが同等に高い日があった場合,合計スコアではゼロに近くなるが,感情の強度(1)では反対に高くなる。評価極性に関係なく,その日の感情の動きの強さが分かる尺度となっている。 ただし, 感情の強度(1はデータの量に強く左右される。一般に,ニュースが多い日にはスコアを計算する文数も多くなるため,値が大きくなり,少ない日には值が小さくなる。そこで,データの量の影響を軽減する「感情の強度(2)」scr $e_{e s 2}$ を導入する(式 3). $s c r_{e s 2}=\frac{\sum_{p \in \text { positive }} s c r_{p}+\sum_{n \in \text { negative }}\left|s c r_{n}\right|}{N}$ 感情の強度(2)とは, 感情の強度(1を総文数 $\mathrm{N}$ で割ったものである. 1 日のニュースの量に応じて感情の強度が調整されるため, 感情の強度(1)に比べてデ一夕量の影響が少ない尺度となっている。 本研究では, 1 日ごとのテレビ字幕データを以上の 3 つの計算方法で計算し,比較する。 ## 3 感情データの可視化と分析 ## 3.1 合計スコアのグラフ化 2019 年 10 月から 2020 年 12 月のデータについて, 1 日ごとの感情を合計スコアで計算した結果を図 1 に示す. 図 1 で,横軸は日付を示し,縦軸は合計スコアを示す. ## 図 1 合計スコアの推移 期間全体の合計スコアの平均は 89.3 だった. 合計スコアが最も高かった日は 2020 年 11 月 4 日で 2,161.8 だったが特に大きなニュースはなかった. 一方, 最も低かった日は 2019 年 10 月 12 日で $-2,471.0$ だった.この日は, 過去最高クラスの台風 19 号が伊豆半島に上陸した. より詳細に,期間中に多くの人に影響を与える出来事が起きた日と合計スコアの対 応を比較する。 2019 年 10 月 1 日には消費税率が引き上げられたが合計スコアは 578.3 であり, その後の日付のスコアと大きく変わらなかった. 同月 12 日,25 日には台風が日本に上陸し, スコアが急減した. 12 日は期間中最低の-2,471.0で, 25 日も前日までのポジティブスコアとは異なり急減して-1,083.3 だった. 合計スコアからは,消費税率の話題は社会の感情を大きく左右することはなかったが, 台風の話題は非常に強いネガティブな影響を及ぼしたと考えられる。 2020 年 2 月 3 日にクルーズ船ダイヤモンドプリンセスが日本に停泊し, 13 日に新型コロナウィルスによる初めての死亡者が確認され, 19 日にはクルーズ船からの下船が開始した. 2 月 3 日と 19 日の合計スコアはそれぞれ 188.8 と 124.7 だった. 新型ウイルス感染拡大のニュースに対し, 社会は否定的な感情を抱くと予想されたものの,この両日の合計スコアはポジティブだった. しかし, 合計スコアの全体的な傾向から見ると, その後の 2 月下旬ごろから数ヶ月ネガティブな期間が続く. 2 月初頭の時点では,新型ウイルスに関する報道は他の話題と比べてまだ少なかったか, 言葉の使い方が楽観的だったか, 社会の新型ウイルスに対する印象が悪い方向に根付いてはいなかったのではないかと推測される。 2020 年 4 月 7 日に新型コロナウイルスの感染拡大により, 第一回目の緊急事態宣言が発表された. 5 月 4 日に緊急事態宣言の約 1 か月間の延長が発表され, 5 月 25 日に全国で解除された. 4 月 7 日の合計スコアは-549.057, 5 月 4 日は $18.734,5$ 月 25 日は 116.262 だった. 緊急事態宣言が発表された当初, 合計スコアは全体的に低く, 図 1 ではネガティブなスコアが連続した期間が多く, 緊急事態宣言が発表された当日の合計スコアもネガティブだった. しかし, 時間が経つにつれて合計スコアが上がり,5月 4 日には合計スコアはややポジティブで緊急事態宣言が全面解除した 5 月 25 日になると合計スコアがさらにポジティブになった. 合計スコアでは, 同じ評価極性の日が長い期間連続する傾向にある. 2019 年 11 月 13 日から 2019 年 12 月 27 日までの 45 日間連続でポジティブスコアが続いた. その他, 39 日間ポジティブスコアが続いた 2020 年 10 月 11 日から 2020 年 11 月 18 日までの期間と, 33 日間連続でネガティブスコアが続いた 2020 年 3 月 26 日から 2020 年 4 月 27 日までの期間などが見られた. より大きな傾向としては, 2019 年 10 月終わりから 2020 年 2 月までと, 2020 年 9 月から 12 月はポジティブな傾向, 2020 年 3 月から 6 月と 2020 年 7 月から 8 月にネガティブな傾向が見られた. ## 3.2 感情の強度(1)のグラフ化 同一期間の感情の強度(1)で計算した結果を図 2 に示す. 図 3 に期間中の文の数を示す. 図 2 感情の強度(1)の推移 図 3 文の数 期間内で, 感情の強度(1)は平均で 3,864.1 だった.値が最も高かった日は 2020 年 4 月 7 日で $7,220.5$ だった. 最も低かった日は 2020 年 1 月 3 日で 701.6 だった. 同じ期間で文の数は平均で 8,407 文だった.文の数が最も高かった日は 2020 年 4 月 7 日で 15,167 文だった. 文の数が最も低かった日は 2020 年 1 月 3 日で 1,561 文だった. どちらの場合も, 值の最大,最小の日とニュース量の多少が完全に一致する.感情の強度(1)ははュースの量が強く影響していることがわかる. 図 2 と図 3 では, 形が一致するところが大きい. 図 3 では文の数が非常に多かった日が 5 日のうち, 4 日は感情の強度(1)も多かった. その 4 日は, 緊急事態宣言が初めて宣言された 2020 年 4 月 7 日, 豪雨により避難指示が出た 2020 年 7 月 7 日, 台風 10 号が沖縄県に上陸した 2020 年 9 月 7 日と, アメリカ大統領選挙の結果が日本で発表された 2020 年 11 月 4 日である. どの日も報道されたニュースの量も多く,感情の強度(1)も文の数も多かった。大きな傾向としては, 感情の強度(1)はニュースの量に影響され易い。しかし,とある日に「ニュースの量が多かった」ということは, 評価極性に関係なく,報道する価値があるニュースが多かったとも言える。 そうなると, 感情の強度(1)はどの日に重大出来事が起きたかの特定に役立つと考えられる. ## 3.3 感情の強度(2)のグラフ化 同一期間の感情の強度(2)で計算した結果を図 4 に示す. 図 4 感情の強度(2)の推移 感情の強度(2は平均で 0.459 だった. 値が最も高かった日は 2020 年 4 月 7 日で, 0.508 だった. 最も低かった日は 2020 年 1 月 3 日で, 0.291 だった. 全数値の中で, 感情の動きが弱かった下位 $5 \%$ は 0.417 より低く, 強かった上位 $5 \%$ は 0.488 より高かった.感情が強かった日で, 合計スコアがポジティブな日が 3 日, ネガティブな日は 23 日あった. 一方, 感情が弱かった日で, 合計スコアがポジティブな日は 17 日, ネガティブな日は 7 日だった. 感情の強度(2)が高く感情が強かった日は合計スコアがネガティブな傾向にあった. 反対に, 感情の強度(2)が低く感情が弱かった日は合計スコアがポジティブな傾向にあった. 分析期間のデータを参考にする限り, 否定的な感情は肯定的な感情よりも強い感情を呼び起こすと考えられる。 重大な出来事の発生と感情の強度(2)照らし合わせると, 感情が強かった日もあれば, 弱かった日もある. 新型ウイルスの初めての死亡者が発表された日の 2020 年 2 月 13 日の直後に感情が強く, 14 日, 16 日, 17 日の感情の強度(2)が強かった. また, 台風 19 号が上陸した 2019 年 10 月 12 日の辺りに 10 月 9 日,12 日,13 日と 14 日にも感情の強度(2)が強かつた.しかし, 台風 21 号が上陸した 2019 年 10 月 25日は当日の感情の強度(2)が 0.478 でごく平均的な数值だった.同じ台風に関するニュースであっても、感情の強度(2に必ず反映するとは限らない。 ## 4 おわりに 本研究では, テレビのニュース番組の字幕データを利用し, 1 日単位での感情分析によるスコアを抽出し, とある日の「日本の気分」の数値化を試みた. 3 つの数值化のうち, 合計スコアでは, とある日に重大出来事が起きたかを特定するより,数日,数ケ月などある程度長い期間での社会の雾囲気を調べることに向いていた. 2020 年の新型コロナウイルス感染状況における報道の変容について, 岸本らの分析がある[6]. 岸本らの考察と図 1 の値が次のように非常に良く符号する. 「未知のウイルスが海外から日本へと徐々に身近に迫る様子が報道され, 視聴者の関心は上昇傾向していた(図 1 で感染が始まった初期 : 2020 年 1 月 4 $\sim 3$ 月 18 日が該当). 第一波に入ると, 緊急事態宣言により生活環境は一変し, コロナ報道は活発化した. 初の感染拡大や活発なコロナ報道により、視聴者の関心はピークに達していた(図 1 で第一波 : 3 月 19 日〜6 月 21 日が該当)」(第一波が収束すると)「コロナ報道はやや落ち着き始めていた」「第二波に入ると, 東京の感染者数報道が中心となるが、視聴者の関心は変化しなかった (図 1 で第二波: 8 月 8 日 11月 3 日が該当)」 感情の強度(1はデータの量に左右されることが多いが,何らかの重大なできごとが発生した日を示す指標としての可能性がみられた. 感情の強度(2)はデ一夕量の影響は受けにくいが, 感情が強くかつ肯定的な日と,感情が弱くかつ否定的な日を検知する性能が限られており, 重大な出来事の発生した日は特定しにくい. とある日に重大出来事が起きたとして, その出来事についての報道が当日だけに限られることは少なく, その後も報道が続く. そのため, 出来事が起きた当日以降でも感情の強さがピークアウトすることもある.今後より正確に,とある日の感情を掴むために, 強い感情が連続する期間内で共通する単語を重大な出来事を表す話題として, 話題ごとにニュー スをまとめ, 最初に報道された日を探し出すようなシステムの実現が考えられる。これにより, 特定の日の重大な出来事とその時の「日本の気分」をより正確に検知できる可能性がある. ## 謝辞 本研究は JSPS 科研費 JP19H04224, JP20H00096 の 助成を受けたものです. ## 参考文献 [1] イーフエイチー, テレビ字幕データを用いた感情分析による「ある日の日本の気分」推定に関する研究, 卒業論文, 東京外国語大学,3. 2022. [2] Hajime Mochizuki and Kohji Shibano, Building Very Large Corpus Containing Useful Rich Materials for Language Learning from Closed Caption TV, World Conference on E-Learning in Corporate, Government, Healthcare, and Higher Education, Volume 2014, No. 1, pp. 1381-1389, Association for the Advancement of Computing in Education (AACE), 10. 2014. [3] 小林のぞみ、乾健太郎、松本裕治、立石健二、福島俊一、意見抽出のための評価表現の収集、自然言語処理、Vol.12、No.3、pp.203-222、2005. [4] 東山昌彦、乾健太郎、松本裕治、述語の選択選好性に着目した名詞評価極性の獲得、言語処理学会第 14 回年次大会論文集、pp.584-587、2008. [5] 池上有希乃、oseti v.0.2、2019、 https://github.com/ikegami-yukino/oseti(最終アクセス 2022.1.5) [6] 岸本大輝、井原史渡、栗原聡、新型コロナウイルスの感染状況に対するテレビ報道の特徴と報道変容の分析、人工知能学会全国大会(第 35 回), pp.1-4, 2021. ## A 付録 図 1 合計スコアの推移 図 4 感情の強度(2)の推移
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT1-15.pdf
# タスク指向対話システムの外部表知識の参照能力向上 深谷 竜暉 三輪誠 佐々木裕 豊田工業大学 \{sd18071, makoto-miwa,yutaka.sasaki\}@toyota-ti.ac.jp ## 概要 既存の深層学習を用いた End-to-End のタスク指向対話システムは,応答の生成と外部知識の参照を同時に行うため,応答全体を通じて外部知識を適切に参照できない場合がある。本稿では,外部知識として表を用いるタスク指向対話システムを対象に,応答全体に適した表知識の参照が可能な End-to-End の対話システムを目指して,応答の概形を生成した上で,必要な表知識を参照する手法を提案する。 タスク指向対話データセットにおける評価の結果,提案手法は応答全体を利用しないべースラインよりも BLEU スコア・Entity $F_{1}$ を向上でき,より正確に表知識を参照できることを明らかにした。 ## 1 はじめに タスク指向対話システムは,レストランの予約・天気予報の照会・飛行機のフライトの予約など様々な場面での活用が期待されており,産業的に注目を集めている. 対話システムの伝統的なパイプラインモデルは言語理解・対話状態追跡・言語生成のモジュールによって構築される [1]が,各モジュールの構築には追加のアノテーションが必要となる場合が多い。この問題に対して,深層学習を用いて,外部知識を学習フレームワークに組み込み,明示的な対話状態や行動などのアノテーションを必要とせずに応答を生成できる End-to-End の対話システム [2] が提案されている。外部知識は表形式で表現できることが多いため,外部知識が表形式で表現された表知識を参照する対話システムは多く提案されており,本研究でも表知識を参照した対話システムを対象とする。 これまでに提案された End-to-End の対話システムの出力では表知識の参照を誤る場合が多くみられる. 図 1 に示す例は,本研究でベースラインとする最先端の手法の 1 つである DF-Net が表知識を誤って参照した例である。この例では,応答の文脈から ユーザ : Find me the nearest gas station . システム: The nearest gas station is Valero, 200 Alester Ave away 図1 表知識を誤って参照した例:正しい応答は“The nearest gas station is Valero, 5miles away." すると,距離を表す 5 miles を参照するのが適切だが,実際には誤って住所の情報を参照して応答してしまっている。 本稿では,このような応答の文脈と参照する表知識の内容の不整合を減らすことで,表知識の参照をより正確に行う End-to-End の対話システムの構築に取り組む。 ## 2 関連研究 これまで,表知識を End-to-End の対話システムに取り込むための様々な手法が提案されている.Yang ら [3] は表知識をグラフ形式で取り込むモデルを提案したが,解析の結果,表知識を適切に参照できていないことを報告している.Qin ら [4] は表知識をトリプル形式で取り込んだが,生成した応答の文脈に対して参照している表知識が間違っている問題があったことを報告している。 ## 3 DF-Net ここでは,ベースラインとして用いるモデルである DF-Net [4] の応答生成と表知識の参照について説明を行う。 ## 3.1 応答生成 注意機構を用いた Seq2Seq モデル [5] を基にして入力の対話 $X$ と表知識 $B$ から応答 $Y$ を生成する. BiLSTM [6] によりエンコードを行い,長さ $I$ の入力に対して中間表現 $\boldsymbol{H}=\left(\boldsymbol{h}_{\mathrm{enc}, 1}, \boldsymbol{h}_{\mathrm{enc}, 2}, \ldots, \boldsymbol{h}_{\mathrm{enc}, I}\right)$ を求 \\ : I Valero is 4miles away . \\ : Valero is at 200 Alester Ave . 図 2 表知識を参照する対話例 める. $ \boldsymbol{h}_{\mathrm{enc}, i}=\operatorname{BiLSTM}_{\mathrm{enc}}\left(x_{i}, \boldsymbol{h}_{i-1}\right) $ デコードは GRU にて行い,デコーダの中間表現 $\left(\boldsymbol{h}_{\mathrm{dec}, 1}, \boldsymbol{h}_{\mathrm{dec}, 2}, \ldots, \boldsymbol{h}_{\mathrm{dec}, T}\right)$ により出力 $\left(y_{1}, y_{2}, \ldots, y_{T-1}\right)$ を生成する. エンコーダの最終時点の中間表現をデコーダのはじめの時点の中間表現 $\boldsymbol{h}_{\mathrm{dec}, 0}$ に利用する。 $ \boldsymbol{h}_{\mathrm{dec}, t}=\operatorname{GRU}_{\mathrm{dec}}\left(y_{t-1}, \boldsymbol{h}_{\mathrm{dec}, t-1}\right) $ モデルは時点 $t$ の応答 $y_{t}$ を生成するために,注意表現 $\boldsymbol{h}_{\mathrm{dec}, t}^{\prime}$ を計算する. $\boldsymbol{h}_{\mathrm{dec}, t}^{\prime}$ にはエンコード時の中間表現 $\boldsymbol{H}$ の注意を用いる. $\boldsymbol{h}_{\mathrm{dec}, t}$ と $\boldsymbol{h}_{\mathrm{dec}, t}^{\prime}$ から学習される重み $U$ を用いて次の語の生成確率の分布 $\boldsymbol{y}_{t}$ を計算する。ここで生成する語は,語の属性名を表現するスケッチタグ(@を用いた語)を含む. 図 2 に示す対話の場合,システムはスケッチタグを用いて,「@Poi is at @ Address.」といった応答の概形を生成するように学習する. スケッチタグは同じ時点 $t$ でデコーダにて表知識の要素に置き換えられる。 $ \begin{gathered} \boldsymbol{o}_{t}=\boldsymbol{U}\left[\boldsymbol{h}_{\mathrm{dec}, t}, \boldsymbol{h}_{\mathrm{dec}, t}^{\prime}\right] \\ p\left(y_{t} \mid y_{1}, \ldots, y_{t-1}, X, B\right)=\operatorname{Softmax}\left(\boldsymbol{o}_{t}\right) \end{gathered} $ ## 3.2 エンコーダでの表知識の参照 表知識を参照する際の精度は,表知識を参照するためのクエリに大きく依存する.Memory Networks [7] を適用して表知識 $B$ と入力の対話 $X$ に関する専用メモリ $M$ を用意する. ここでは $k$ ホップの Memory Networks を適用する. Memory Networks では,表知識と入力の対話を表現する訓練される埋め込みべクトル $\boldsymbol{C}=\left(\boldsymbol{C}^{1}, \ldots, \boldsymbol{C}^{k+1}\right)$ を各ホップで使用する。これにより情報を持つためのメモリが拡張され,適切な情報を保持したクエリを作成することができる. $M$ は $M=[B ; X]=m_{1}, \ldots, m_{b+T}$ で表され, $m_{i}$ が語に関するメモリを表し,bと $T$ はそ れぞれ表知識に含まれる語の数と入力の対話に含まれる語の数である。エンコーダでは最後の中間表現をクエリとする。 $ \boldsymbol{q}_{\text {enc }}^{1}=\boldsymbol{h}_{T} $ ホップ $\mathrm{k}$けるる注意の重みは以下のように計算される。 $ \boldsymbol{p}_{i}^{k}=\operatorname{Softmax}\left(\left(\boldsymbol{q}_{\mathrm{enc}}^{k}\right)^{\top} \boldsymbol{c}_{i}^{k}\right) $ $\boldsymbol{c}_{i}^{k}$ はベクトル $\boldsymbol{C}^{k}$ を用いた $i$ 番目のメモリ位置の埋め込み表現である。ここでデコード時に用いるグローバルメモリポインタ $G=\left(g_{1}, \ldots, g_{b+T}\right)$ を式 (7) によって作成する。 $ \boldsymbol{g}_{i}^{k}=\operatorname{Sigmoid}\left(\left(\boldsymbol{q}_{\mathrm{enc}}^{k}\right)^{\top} \boldsymbol{c}_{i}^{k}\right) $ グローバルメモリポインタの正解ラベル $G^{\text {label }}=$ $\left(\hat{g}_{1}, \ldots, \hat{g}_{b+T}\right)$ は以下のように定義する. $ \hat{g}_{i}= \begin{cases}1 & \text { if Object }\left(m_{i}\right) \in Y \\ 0 & \text { otherwise }\end{cases} $ これによりグローバルメモリポインタ $G$ は,正解の応答に出現した語の生成確率が高くなるように訓練される. 最後に $\boldsymbol{c}^{k+1}$ に対する注意の重みの和によってメモリ $o^{k}$ を読み出し,クエリベクトル $\boldsymbol{q}_{\text {enc }}^{k+1}$ を更新する。 $ \boldsymbol{o}_{\mathrm{enc}}^{k}=\sum_{i} \boldsymbol{p}_{i}^{k} \boldsymbol{c}_{i}^{k+1}, \quad \boldsymbol{q}_{\mathrm{enc}}^{k+1}=\boldsymbol{q}_{\mathrm{enc}}^{k}+\boldsymbol{o}_{\mathrm{enc}}^{k} $ $\boldsymbol{q}_{\text {enc }}^{k+1}$ はエンコードされた表知識であり,デコーダで用いられる。 ## 3.3 デコーダでの表知識の参照 各時点では Copy Net にならいデータセット内の語彙と表知識の語彙のどちらから語を生成するかを決めるためのモードを選択する。スケッチタグが生成された時点は複製モードで,そうでなければ生成モードとなる。各時点で中間表現 $\boldsymbol{h}_{d e c, t}$ と注意表現 $\boldsymbol{h}_{d e c, t}^{\prime}$ を連結してクエリ $\boldsymbol{q}_{\mathrm{dec}}^{1}$ を作り表知識を参照する。 $ \begin{gathered} \boldsymbol{q}_{\mathrm{dec}}^{1}=\left[\boldsymbol{h}_{\mathrm{dec}, t}, \boldsymbol{h}_{\mathrm{dec}, t}^{\prime}\right] \\ p_{i}^{k}=\operatorname{Softmax}\left(\left(\boldsymbol{q}_{\mathrm{dec}}^{k}\right)^{\top} \boldsymbol{c}_{i}^{k} g_{i}^{k}\right) \end{gathered} $ $P_{t}=\left(p_{1}^{k}, \ldots, p_{b+T}^{k}\right)$ は表知識の各語の生成確率であり, 式 (4) によってスケッチタグが生成された時点 $t$ では,最も高い確率を持つ語を選択してスケッチタグと置き換える。 図 3 提案手法の概要 ## 4 提案手法 応答の文脈と参照する知識の内容の不整合を減らすために,生成する応答の概形の文脈表現を利用して知識の参照を行う手法を提案する。提案手法の概要を図 3 に示す. 既存手法の中でも比較的高い応答性能を持つ DF-Net [4] をべースラインとして用い,応答生成とエンコーダでの表知識の参照についてはそれぞれ 3.1 節, 3.2 節と同様に行う.提案手法では式 (4) でスケッチタグが生成された場合,同じ時点で表知識の要素に置き換えることはせず,応答の概形を最後まで生成し終えた後に,デコーダにて表知識の参照を行う.提案手法のデコーダでの表知識の参照について以下で述べる. デコーダでの各時点で中間表現 $\boldsymbol{h}_{\mathrm{dec}, t}$ と注意表現 $\boldsymbol{h}_{\mathrm{dec}, t}^{\prime}$ を連結して $q 0$ を作る. $ \boldsymbol{q} \mathbf{0}_{\mathrm{dec}}=\left[\boldsymbol{h}_{\mathrm{dec}, t}, \boldsymbol{h}_{\mathrm{dec}, t}^{\prime}\right] $ 表知識参照用のクエリ $\boldsymbol{q}_{\mathrm{dec}}^{1}$ は $q 0$ とスケッチ応答を生成し終えた時点 $T$ での中間表現 $h_{\mathrm{dec}, T}$ を用いて作成する. $ \boldsymbol{q}_{\mathrm{dec}}^{1}=\boldsymbol{W}\left[\boldsymbol{q} \mathbf{0}_{\mathrm{dec}}, \boldsymbol{h}_{\mathrm{dec}, T}\right] $ $W$ は重みである.表知識の参照は式 (14)にて行う. $ p_{i}^{k}=\operatorname{Softmax}\left(\left(\boldsymbol{q}_{\mathrm{dec}}^{k}\right)^{\top} \boldsymbol{c}_{i}^{k} g_{i}^{k}\right) $ $P_{t}=\left(p_{1}^{k}, \ldots, p_{b+T}^{k}\right)$ は表知識の各語の生成確率であり,式 (4) によってスケッチタグが生成された時点では,スケッチタグを最も生成確率が高い語と置き換える。 ## 5 実験と考察 ## 5.1 実験に用いたデータセット データセットは表知識を参照するタスク指向対話を集録した KVRET [2]を使用した.KVRET はカー表 1 データセット(KVRET)の統計 表 2 BLEU スコアおよび Entity $\mathrm{F}_{1}$ 提案手法 $\quad 14.4( \pm 0.6) \quad 61.1( \pm 1.4)$ アシスタントシステムとユーザとの複数回に渡る対話を扱い,対話の内容は道案内と予定管理,天気予報の三つのドメインに渡る。図 2 に示した対話は KVRET に収録されている対話の例である. データセットの詳細を表 1 に記す. 本実験では,全 3,031 対話のうち 2,425 対話を訓練用データに, 302 対話を検証用データ,残りの 304 対話をテスト用データとした。 ## 5.2 評価手法 提案モデルの出力として得られる応答がどれだけ正解の応答と関連しているかを BLEU [8] によって評価する。そして出力される応答がどれだけ対話の内容に沿って適切に表知識を参照できているかを Entity $F_{1}$ で評価する. Entity $F_{1}$ は,規定の語を応答で使用した割合を全対話で平均することで算出する. 本実験では正解の応答で使用している表知識の要素を規定の語とする。 ## 5.3 結果 提案モデルの応答性能を KVRET を用いて BLEU スコアと Entity $\mathrm{F}_{1}$ で評価する. テストデータにおける各スコアを表 2 に示す。比較のため,基準となる DF-Net の各スコアも示す. Entity $\mathrm{F}_{1}$ は $0.4 \%$ ポイント向上し,上がり幅は $0.7 \%$ となった。このこ 表 3 提案手法と DF-Net の応答例:[] 内は表知識から抜き出した要素であり,。 と ${ }_{\mathrm{x}}$ はそれぞれ表知識を適切に参照できたかどうかを表す. 対話 目標: [hotel_keen, 578_arbol_dr, rest_stop, car_collision_nearby, 3_miles] 直前の発話: what is the rest_stop with the quickest route nearby? 正解の応答: hotel_keen is a rest_stop located 3_miles away there is a car_collision_nearby but should delay you to long. DF-Net: [hotel_keen $]_{0}$ is $\left[5 \_m i l e s\right]_{\mathrm{x}}$ way. 提案手法: the closest rest_stop is [hotel_keen $]_{0}$, [3_miles $]_{o}$ away. 目標: [Valero, gas_station, road_bloack_nearby, 5_miles] 直前の発話: find me the nearest gas_station. 正解の応答: the nearest gas_station is located 5_miles away need more info? DF-Net: the nearest gas_station is [valero $]_{0},\left[200 \_ \text {alester_ave }\right]_{x}$ away. 提案手法: the nearest gas_station is [valero] $]_{0}\left[5 \_m i l e s\right]_{o}$ away. 目標: [panda_express, 3_miles, pizza_hut, 5_miles] 直前の発話: i need directions to a local fast food restaurant please. 正解の応答: there is a panda _express 3 _miles from you as well as a pizza _hut 5 _miles from you. DF-Net: [round_table $]_{\mathrm{x}}$ is [5_miles $]_{\mathrm{o}}$ away. 提案手法: the nearest pizza_restaurant is [pizza_hut $]_{\mathrm{o}}$, it is $\left[5 \_m i l e s\right]_{\mathrm{o}}$ away. とから,今回作成したモデルは DF-Net よりも表知識を適切に参照できていることが分かった.また, BLEU も 0.4 ポイント向上し,上がり幅は $2.9 \%$ となった。これにより,生成する応答全体に適した表知識を参照することで,より正解に近い応答を生成できることが分かった. ## 5.4 解析 提案手法と DF-Net が生成した応答の例を表 3 に示す. 1 つ目の例では, DF-Net が距離を表す表知識の要素の参照を誤ったが,提案手法では正しい要素を参照できていることが分かる.2つ目の例では, DF-Net が応答の文脈に適さない表知識の要素を参照しているが,提案手法は文脈に適した要素を参照できていることが分かる. これにより,提案手法は応答全体に適した表知識を参照できており,ベースラインより適切に表知識を参照できていることが分かる. しかし,3つ目の例では,提案手法は誤った知識の参照はしていないが,応答に使用すべき情報が欠けており,応答そのものの生成能力に不十分な点があることが分かる. この問題を解決するには,応答生成時にも表知識を参照し,モデルが出力する応答に含まれるべき表知識を適切に応答に使用するようモデルに学習させる,といったような改善が必要だと考えられる。 ## 6 おわりに 本稿では,応答全体に適した表知識の参照が可能な End-to-End の対話システムの実現を目指して,応答の概形を生成した上で,必要な表知識を参照する手法を提案した。タスク指向対話データセットにおける評価の結果,提案手法は応答全体を利用しないベースラインよりも BLEU スコア・Entity $\mathrm{F}_{1}$ を向上でき,より正確に表知識を参照できることが明らかになった. 今後はモデルのさらなる改善を目指す, また,生成した応答を解析した結果,提案手法が応答を生成する際に応答に十分な情報が含まれない場合があるという課題が見つかったため,この改善も行う予定である. ## 参考文献 [1] Steve Young, Milica Gašić, Blaise Thomson, and Jason D Williams. Pomdp-based statistical spoken dialog systems: A review. Proceedings of the IEEE, Vol. 101, No. 5, pp. 1160-1179, 2013. [2] Mihail Eric, Lakshmi Krishnan, Francois Charette, and Christopher D. Manning. Key-value retrieval networks for task-oriented dialogue. In Proceedings of the 18th Annual SIGdial Meeting on Discourse and Dialogue, pp. 37-49, Saarbrücken, Germany, August 2017. Association for Computational Linguistics. [3] Shiquan Yang, Rui Zhang, and Sarah Erfani. GraphDialog: Integrating graph knowledge into end-to-end task-oriented dialogue systems. In Proceedings of the $\mathbf{2 0 2 0}$ Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1878-1888, Online, November 2020. Association for Computational Linguistics. [4] Libo Qin, Xiao Xu, Wanxiang Che, Yue Zhang, and Ting Liu. Dynamic fusion network for multi-domain end-to-end task-oriented dialog. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6344-6354, Online, July 2020. Association for Computational Linguistics. [5] Mihail Eric and Christopher Manning. A copy-augmented sequence-to-sequence architecture gives good performance on task-oriented dialogue. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 2, Short Papers, pp. 468-473, Valencia, Spain, April 2017. Association for Computational Linguistics. [6] Mike Schuster and Kuldip K Paliwal. Bidirectional recurrent neural networks. IEEE transactions on Signal Processing, Vol. 45, No. 11, pp. 2673-2681, 1997. [7] Sainbayar Sukhbaatar, Arthur Szlam, Jason Weston, and Rob Fergus. End-to-end memory networks. arXiv preprint arXiv:1503.08895, 2015. [8] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting of the Association for Computational Linguistics, pp. 311318, 2002.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT1-16.pdf
# 大規模マスク言語モデルの文法誤り認識能力 木村 学 1 永田 亮 $^{2}$ 塙 一晃 ${ }^{3,4}$ ${ }^{1}$ GRAS グループ株式会社 2 甲南大学 ${ }^{3}$ 理研 AIP 4 東北大学 manabu.kimura @ gras-group.co.jp nagata-nlp2022 @ ml.hyogo-u.ac.jp. kazuaki. hanawa @ riken.jp ## 概要 本稿では,マスク言語モデルベースの文法誤り検出手法についてその誤り検出能力を調査する. 実データ及び設計された人工データの実験から,仮説 (i)「言語モデルは,母語話者コーパスからの事前学習の際に,ある種類の文法誤りを認識するために必要な文法の知識を得ている.」,仮説 (ii)「言語モデルは,ごく少数の訓練データで finetune するだけで,事前学習時に獲得する文法知識を誤り検出ルールに変換し,文法誤り検出に対する高い汎化能力を獲得している.」が示唆されることを示す. ## 1 はじめに 近年,BERT [1]のような,大規模なコーパスで事前学習されたマスク言語モデルが,自然言語処理の幅広いタスクにおいて,性能を飛躍的に向上させることが示されてきた.これらの結果は「文法誤り検出」でも効果的であることを示唆している. しかしながら,文法誤り検出の見地での研究は他のタスクよりも圧倒的に少ない. 実際,言語モデルは母語話者によって生成された言語データ(本稿は英語に特化する)から学習されているので,言語学習者によって生成された言語データには能力を発揮しないのではないか,文法誤りについての知識が存在しないのではないかという疑問が生じる。 実際のところは,文法誤りの検出と訂正のタスクで言語モデルの性能は,少数ではあるが報告されている $[2,3,4,5]$. これらの研究は文法誤りの検出と訂正のタスクで言語モデルの効果を検証しているが,言語モデルが誤り検出/訂正に何故有効であるのかという疑問は解決されないままである. 本稿では,リサーチクエスチョン「母語話者コー パスから事前学習された言語モデルは fintune によって誤り検出タスクに何故効果を発揮するのか?」への答えを計算機実験や結果の詳細な分析から経験 図1訓練データ量と性能の関係(訓練/評価データ: FCE) 的に探る。具体的には,図 1 で示すように,finetune の訓練データ量の変化と検出性能 $F_{1.0}$ の関係を非言語モデルベースの手法と比較することで調査する.同図では,非言語モデルベースの手法が全ての訓練データで達成する $F_{1.0}$ を,5-10\%の訓練データ量で BERT ベースの手法は達成する結果を得ている(詳細は 5 節に記述する)。さらに,BERT ベースの手法は 500 文程度で $F_{1.0}$ の上昇が飽和し始めている.これは,BERT ベースの手法に,概要で述べた仮説 (i) (ii) が成り立つことを示唆する.実際の学習者の誤りを含む実データ,設計された誤りを含む人工デー タの両者で実験を行い,この仮説を支持する結果や分析を報告する。 ## 2 関連研究 マスク言語モデルは文法誤り検出/訂正に適用されてきた. 文献 $[2,3]$ は誤り検出の手法が言語モデルの利用で再現率と適合率が高まることを示している. 文献 [6] は文法誤り検出に BERT ベースの文脈埋め込みを使用し,他の埋め込み手法と比較している. 彼らは,BERT ベースの文脈埋め込みが効果的であることを示しているが,本研究のように BERT の finetune は行っていない. 文献 $[4,5]$ は文法誤り 訂正で性能を同様に改善している. 本稿はこれまでの研究で報告されてきた誤り検出の能力が,何故そしてどういう場合に獲得するのかを,実験や結果の詳細な分析から経験的に探る。 言語モデルの言語知識を調査する研究は様々なものが存在する $[7,8,9]$. 一般的なアプローチは,文脈が与えられたときに,言語モデルが不適切な単語よりも適切な単語に高い確率を与えるかを評価するものである. 調査対象の言語知識は,構文的/意味的知識から一般常識に及ぶ. 本稿はこれら従来研究とは異なり,学習者コーパスに実際に出現する誤りを対象にし,マスク言語モデルの汎化性能を調査する (例えば,主語に前置詞が付随する文法誤りや自動詞/他動詞の使用に関する文法誤りなどを扱う). ## 3 文法誤りデータ 本稿では,検証に実データと人エデータを使用する. 実データは,英語学習コーパス,FCE [11] と解説文付き ICNALE [10] 使用する.FCE は,学習者の文とその誤りを訂正した文が含まれている。誤りタグについては,ERRANT [13]を用いて取得した. 解説文付き ICNALE は,トピック「アルバイト」及び 「喫煙」についての英語学習者のエッセイ文が集められた ICNALE [12] に,誤りの解説文が付与されたものである ${ }^{1)}$. ICNALE では,解説文付き ICNALE に収録されている前置詞誤りを検出対象とした。なお,これらのコーパスは誤りがない文も含んでいることに注意されたい. 人工データは AQUAINT Corpus に含まれる 19982000 年の New York Times [14]を使用し,次の誤りを加えることで生成する。 前置詞置換不定詞 to 不定詞の to が for に置き換わっている誤り (例:to read $\rightarrow$ * for read) 動詞句主語主語として使用された動詞句 (例:To learn English is easy. $\rightarrow *$ Lean English is easy.) 前置詞十主語前置詞を伴う主語 (例: The cafe serves good coffee. $\rightarrow *$ In the cafe serves good coffe.) 他動詞十前置詞前置詞を伴う他動詞 (例:We discussed it. $\rightarrow *$ We discussed about it.) 自動詞十目的語目的語を伴う自動詞 (例:We agree with it. $\rightarrow$ *We agree it.) 以上は構文解析の結果から自動生成できる。一文あ 1)説明の簡略化のため,解説文付き ICNALE も以後 ICNALE と呼ぶ. たりは一つの誤りとし,前処理として $\mathrm{spaCy}^{2}$ をかけることで,構文解析の結果を得る ${ }^{3}$ .ただし,誤り文を生成する際には次のように制限を設けている.ランダムに加える前置詞は, at, about, to, in, with の 5 種類とした.ただし,前置詞置換不定詞のみ,常に to を forに置き換えた. 他動詞十前置詞で誤りを加える他動詞は,訓練/開発データでは answer, attend, discuss, inhabit, mention, oppose, resemble のみを,評価データは approach, consider, enter, marry, obey, reach, visit のみとした. 同様に,自動詞十目的語で誤りを加える自動詞は,訓練データと開発データでは agree, belong, disagree, relateのみを,評価データでは apply, graduate, listen, specialize, worry のみとした. したがって,対象とする自動詞と他動詞は,訓練/開発データと評価データとの間で重複しない. 実験では,訓練データの文数と検出性能との関係を調べるためにランダムに文をサンプリングする.実データの FCE と ICNALE については,その数を 100,300,500,1,000,3,000,5,000,10,000,全文と変化させている。開発データと評価データは,訓練データの変化に関わらず別の固定した文を用いる(開発データと評価データの具体的な統計量は付録 B に示す)。なお,訓練,開発,評価データには,学習者の誤りがない文も含まれている. 人工データの訓練データは,誤りの種類毎に $2^{k}(1 \leq k \leq 10)$ 文をランダムにサンプリングすることで,10 個の訓練データのセットを用意する.開発データについては誤りの種類毎に 200 文をランダムに選択する。評価データについては同様に誤りの種類毎に 200 文をランダムに選択し,さらに,誤りを加えていない他の 200 文を追加した。実データと同様に,開発データと評価データは訓練データの変化に関わらず固定されている。 ## 4 文法誤り検出手法 本稿で扱う文法誤り検出の問題を次のように定 それぞれ表記する。 さらに対応するラベルの系列を $\left.\{l_{i}\right.\}_{i=1}^{N}$ と定義する. ここで, $l_{i}$ は $w_{i}$ に対応するラべルである. ラベルは,データによって次の (i),(ii) のいずれかを仮定する。(i) 実データの場合:文法誤りが有るか無いかのみを扱い,ラベルをそれぞれ $\mathrm{E}$及び C と定義する. (ii) 人工データの場合 : 文法誤 2) https://spacy.io/ 3)信頼できる構文解析結果を得るため,文は長さが 3 トークン以上かつ 26 トークン以下のものだけ選ぶ. 図 2 訓練データ量と $F_{1.0}$ の関係(訓練データ:ICNALE 喫煙,評価データ:ICNALE アルバイト) りについての 5 種類と誤りの無いことを扱い,6種類のラベルを定義する. このとき,文法誤り検出を $\left.\{w_{i}\right.\}_{i=1}^{N}$ が与えられた時に最適なラベルの系列 $\left.\{l_{i}\right.\}_{i=1}^{N}$ を予測する問題とする. 本稿で調査する BERT ベースの手法は,以下の流れで処理する。 (1) サブワード化: 全ての $w_{i}$ をサブワード $\left.\{s_{j}\right.\}_{j=1}^{M}$ に変換する. 一般にサブワードの総数 $M$ は,入力の単語の系列の総数 $N$ と異なる. (2) エンコード: $\left.\{s_{j}\right.\}_{j=1}^{M}$ を BERT により,埋め込みベクトル $\left.\{\boldsymbol{b}_{j}\right.\}_{j=1}^{M}$ にエンコードする. (3)トークン分類: 最適なラベルを以下で計算する. $ l_{i}=\arg \max \operatorname{softmax}\left(\boldsymbol{W} \boldsymbol{b}_{j}\right) $ ここで, $\boldsymbol{W}$ は $k \times h$ の行列で, $k$ は 2 か 6 (5 種類の誤りと正しいラベルの数)のどちらかである. 入力の単語の系列と対応するサブワードの系列の長さは異なる. 各予測 $l_{i}$ に対し, 対応する単語 $w_{i}$ の先頭のサブワードをエンコードした $\boldsymbol{b}_{j}$ のみ考慮する4). 比較手法の一つとして,BiLSTM ベースの誤り検出手法を選ぶ. 処理は BERT ベース手法と基本的に同じであるが,次の点が異なる。ステップ (2) で BERT の代わりのエンコーダとして BiLSTM を使用する. ステップ (1) で $\left.\{w_{i}\right.\}_{i=1}^{N}$ を, 各単語 $w_{i}$ に対応する埋め込みべクトルの系列 $\left.\{\boldsymbol{e}_{i}\right.\}_{i=1}^{N}$ に変換する. ここで,各埋め込みベクトル $e_{i}$ は通常の単語埋め込みと文字べースの埋め込みを結合したべクトルである.文字べースの埋め込みは [15] に従い,別の BiLSTM を用意し各単語の文字を変換することで行 4)他に末尾を考慮するなどできるが,素朴に先頭を選ぶ. う. 以後,この手法を BiLSTM ベース手法と呼ぶ. また,BERTの finetuneの効果がどの程度あるかも調査する。すなわち,BERT ベースの手法の BERT 部分を finetune 時に固定し, 出力層のみを訓練デー タで調整するといったことも比較のため行う. 以上の手続きの手法を BERT 固定手法と呼ぶ. 各モデルの訓練は異なるランダムのシードによって 5 回行う. 次節で報告する性能の値 $\left(F_{1.0}\right.$, 再現率) は 5 回の結果の平均値である. 評価に使用するモデルは,開発データで $F_{1.0}$ が一番高いエポックのモデルを採用する.最大エポック数などの主要なハイパーパラメタは付録 A. 2 に掲載する. ## 5 性能評価 ## 5.1 実データの場合 まず,実データ FCE についての訓練データ量と $F_{1.0}$ との間の関係を本稿 1 ページ目の図 1 に示す5). BERT ベース手法は 500 文程度の訓練データ量で $F_{1.0}$ の上昇が飽和し始めている。一方,BiLSTM ベース手法は,全訓練データでも BERT ゙ース手法が 300-500 文で達成できる $F_{1.0}$ の値に留まっている. 以上の結果は, BERT ベース手法の高い汎化能力を示している. また, BERT 固定手法の性能は高くない.これは深層学習モデルで自由に学習できるパラメータ数が制限され,データから誤り検出するルールを上手く獲得できていないためと考えられる. 言い換えると,BERT は全体のパラメータを少量の訓練データで fintune することで,誤りの検出ルールの多くを獲得できている可能性がある. 同様のことが ICNALE でも確認できる. なお,図 2 では訓練データが「喫煙」,評価データ「アルバイト」とアウトドメイン設定にも関わらず BERT ベース手法は高い汎化能力を示していることは注目に值する(他の ICNALE の結果は付録 B に示す. ). さらに, 図 1 の検出結果を誤りの種類毎に分けて,再現率についてプロットし直した ${ }^{6)}$. その結果を図 3 に示し考察する. SPELL 以外の全ての誤りにおいて,BiLSTM ベース手法はほぼ線形に改善している一方で BERT ベース手法は早い段階で性能が 5)ここで,図を描くための詳細な設定は付録 A に示す. 各プロット点の訓練データ数は 3 節で述べたとおりである. 6)誤りの種類毎の再現率は,モデルの検出結果を ERRANT を使って分類し計算している。誤りの種類のうち PUNCT 及び OTHER,そして発生頻度が 150 以下の誤りの種類は,紙面の関係で取り除いている. 図 3 誤り種別の訓練データ量と再現率の関係 (左:BERT ベース手法, 右:BiLSTM ベース手法, 訓練/評価データ: FCE) 図 4 誤りの種類毎の訓練データ量と $F_{1.0}$ の関係 (BERT ベース手法,訓練\&評価データ:人工データ) 限界に近づいている。さらに,BERT ベース手法の 500 文のときの再現值は,BiLSTM ベース手法が全訓練データで達成する値をほとんどの誤りの種類で上回っている. この結果は,BERT に様々な文法知識が内在することを示唆する. ## 5.2 人エデータの場合 実データで示した BERT ベースの誤り検出手法の汎化能力を人工データで精査する. 図 4 に,人工データでの訓練データ量と $F_{1.0}$ との関係を誤りの種類毎に示す. 自動詞 $十$ 目的語を除いて,16 文程度の少数のデータで性能が十分に高くなっている。例えば,前置詞十主語は 16 文の訓練データだけで $F_{1.0}$ が 0.8 を超えている. 一般的に,任意の名詞が主語になりえ,その出現位置も多岐にわたるため,動詞のような品詞,主語のような文の構造の概念が無いと検出が難しいタスクである. 従って, BERT が品詞や文の構造といった言語知識を保持していること,それを少数の訓練データの fintune によって文法誤りの検出ルールに変換していることを示唆している。他動詞十前置詞でも 16 文の訓練データだけで $F_{1.0}$ が 0.8 を超えており,同様の議論が繰り返される.今回の問題設定では,訓練データに現れない動詞の誤りを検出しなければならない(対象の自動詞/他動詞について訓練データと評価データの間で重複がない)ため,前述の言語知識に加え,各動詞の属性(自動詞,他動詞)を保持していないとこの種類の誤りを検出することは難しい. それにも関わらず BERT ベース手法は,他動詞十前置詞の誤り (例:*mention in)を訓練データで見ただけで,同じ種類の誤り(例:*visited in Atlanta)を認識できている. 以上の観測から,BERT が言語的知識を持つこと, finteune によって誤り検出のルールに変換できるという概要で述べた仮説が示唆される。 ## 6 おわりに 本稿では,文法誤りを認識する大規模マスク言語モデルの能力を調査した. 本稿の知見は次の 2 点に要約される。 (1) BERT ベースの誤り検出手法は汎化性能が非言語モデルよりも高いことを実データでの実験で示し,500 文程度の訓練データで性能が飽和し始めることを示した。(2) 人工データと実デー タの実験を通じて,仮説 (i)「言語モデルは,母語話者コーパスからの事前学習の際に,ある種類の文法誤りを認識するために必要な文法の知識を得ている.」,仮説 (ii)「言語モデルは,ごく少数の訓練データで finetune するだけで,事前学習時に獲得する文法知識を大量の誤り検出ルールに変換し,文法誤り検出に対する高い汎化能力を獲得している.」 を支持する結果を示した。 ## 謝辞 本研究の一部は,JST,さきがけ,JPMJPR1758 の支援を受けたものである. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. of 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. [2] Yong Cheng and Mofan Duan. Chinese grammatical error detection based on BERT model. In Proceedings of the 6th Workshop on Natural Language Processing Techniques for Educational Applications, pp. 108-113, Suzhou, China, December 2020. Association for Computational Linguistics. [3] Masahiro Kaneko and Mamoru Komachi. Multi-head multi-layer attention to deep language representations for grammatical error detection, 2019. [4] Masahiro Kaneko, Masato Mita, Shun Kiyono, Jun Suzuki, and Kentaro Inui. Encoder-decoder models can benefit from pre-trained masked language models in grammatical error correction. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4248-4254, Online, July 2020. Association for Computational Linguistics. [5] Bohdan Didenko and Julia Shaptala. Multi-headed architecture based on BERT for grammatical errors correction. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 246-251, Florence, Italy, August 2019. Association for Computational Linguistics. [6] Samuel Bell, Helen Yannakoudakis, and Marek Rei. Context is key: Grammatical error detection with contextual word representations. In Proceedings of the Fourteenth Workshop on Innovative Use of NLP for Building Educational Applications, pp. 103-115, Florence, Italy, August 2019. Association for Computational Linguistics. [7] Bai Li, Zining Zhu, Guillaume Thomas, Yang Xu, and Frank Rudzicz. How is BERT surprised? layerwise detection of linguistic anomalies. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 4215-4228, Online, August 2021. Association for Computational Linguistics. [8] Allyson Ettinger. What BERT is not: Lessons from a new suite of psycholinguistic diagnostics for language models. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 34-48, 2020. [9] Alex Warstadt, Alicia Parrish, Haokun Liu, Anhad Mohananey, Wei Peng, Sheng-Fu Wang, and Samuel R. Bowman. BLiMP: The benchmark of linguistic minimal pairs for English. Transactions of the Association for Com- putational Linguistics, Vol. 8, pp. 377-392, 2020 [10] Ryo Nagata, Kentaro Inui, and Shin'ichiro Ishikawa. Creating Corpora for Research in Feedback Comment Generation. In Proc. of the 12th Language Resources and Evaluation Conference, pp. 340-345, 2020. [11] Helen Yannakoudakis, Ted Briscoe, and Ben Medlock. A new dataset and method for automatically grading ESOL texts. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 180-189, Portland, Oregon, USA, June 2011. Association for Computational Linguistics. [12] Shinichiro Ishikawa. A new horizon in learner corpus studies: The aim of the ICNALE project, pp. 3-11. University of Strathclyde Publishing, Glasgow, 2011. [13] Christopher Bryant, Mariano Felice, and Ted Briscoe. Automatic annotation and evaluation of error types for grammatical error correction. In Proceedings of 55th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 793-805, 2017. [14] David Graff. The aquaint corpus of english news text, 2002. [15] Alan Akbik, Duncan Blythe, and Roland Vollgraf. Contextual string embeddings for sequence labeling. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 1638-1649, Santa Fe, New Mexico, USA, August 2018. Association for Computational Linguistics. [16] Alan Akbik, Tanja Bergmann, Duncan Blythe, Kashif Rasul, Stefan Schweter, and Roland Vollgraf. FLAIR: An easy-to-use framework for state-of-the-art NLP. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 54-59, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. 表 2 実データセットの統計 ## A 他の実験設定 ## A. 1 実験で使用するモデル/ツール BERT ベース手法で使用する BERT モデルは huggingface が提供する bert-base-uncased を用いる. BiLSTM ベース手法で使用する BiLSTM の実装及び埋め込みべクトルは, FLAIR [16] が提供するものを使用する. 埋め込みべクトルのうち,単語の埋め込みはコード上で“WordEmbeddings('en')”と実装する学習済みべクトル,文字列埋め込みは “FlairEmbeddings('news-forward')” 及び “FlairEmbeddings('news-backward')”を使用する. ## A. 2 ハイパーパラメタ設定 \\ 表 1 に実験の主要なハイパーパラメタを示す. 留意すべき点は,訓練に人工データを使用するとき,文の数は最小で 10 文程度なのでバッチサイズはさらに小さい 5 を使用することである. ## B 実データや実験結果の補足 表 2 に,実験で使用した実データのコーパスの統計量を示す. 本文で報告できなかった,ICNALE についての実験結果を示す.トピック「アルバイト」,「喫煙」 についての訓練データ量と $F_{1.0}$ の関係をそれぞれ図 5,6 に示す.トピック「アルバイト」で訓練し 「喫煙」で評価したアウトドメイン設定の結果を図 7 に示す. 全ての図が 5.1 節で実験/考察した FCE と同様の傾向を示している. 図 5 訓練データ量と性能の関係(訓練/評価データ: ICNALE アルバイト) 図 6 訓練データ量と $F_{1.0}$ の関係(訓練/評価データ: ICNALE 喫煙) 図 7 訓練データ量と性能の関係(訓練データ:ICNALE アルバイト,評価データ:ICNALE 喫煙)
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT1-17.pdf
# 議会における明示的な賛否表現を含まない議員発言を 対象としたスタンス分類データセットの構築と評価 猫本隆哲 1 秋葉友良 ${ }^{1}$ 増山 繁 ${ }^{2}$ 1 豊橋技術科学大学 2 東京理科大学 nekomoto.takanori.pf@tut.jp akiba@cs.tut.jp masuyama@rs.tus.ac.jp ## 概要 スタンス分類の目的は, 発信者が特定のトピックに対して賛成なのか反対なのかを識別することである. 近年では, SNS において様々なトピックに関する議論や討論を獲得し, スタンス分類のための教師データとして用いられている. 本研究では, 議会議事録に収録されている議員発言を対象としたスタンス分類を提案する. 提案するスタンス分類問題に対し,議会での討論のパターンを考慮することにより,議会議事録から自動的にデータセットを構築した. また, 構築したデータセットを用いて分類機を構築し,評価実験を行った. ## 1 はじめに 本研究では, NTCIR15 QA Lab-PoliInfo-2 Stance Classification タスク [1] から派生した文書分類タスクを提案する. QA Lab-Poliinfo-2 タスクでは, 議会議事録から議員の意見, その理由・条件の要約, 分類等を行い, 表示するといった複雑な実世界の質問応答技術を目指している. Stance Classification では, 都議会における政治家の発言から, 政治家の立場 (スタンス)を推定することを目的としている.より具体的には, 議会議事録から, 議会中に議論される各議題について, 各会派の賛否を分類する問題に取り組んだ。日本の議会議事録の記述は, 議員ごとの発言の書き起こしであり, ほとんどの議員は討論の冒頭で複数の議案に対して簡単な賛否を述べることから,ここから一定数の議案に対してのスタンスが判明する. Stance Classification の評価結果では, この冒頭部分のみを用いることで $90 \%$ 以上の正解率で賛否分類できることが示されている [2]. しかし, 一部には冒頭部分で賛否表明を行わない, または冒頭のみでは賛否表明されない議案が存在するといった場合があり, そのような場合に対応するには, 冒頭以外の討論部分から賛否分類を行う必要がある. 本研究では, 我々の先行研究 [3] に引き続き, ある議案に対して明示的な賛否の表現のない討論の発言から賛否分類を行う問題に焦点を当てた. 議会における議員討論の特性を調査し,トピックとなる議題に対応した討論の抽出から賛否のラベリングまでを自動化し, データセットを構築した. また, 構築したデータセットを用いて分類器を学習し, 評価実験を行った. ## 2 スタンス分類 本節では, Stance Classification タスクの対象となった東京都議会を例として, 議事録の構造, および本研究の問題設定について詳細を述べる。 ## 2.1 会議録データ 都議会の討論の特徴として, 議員は図 1 のように発言の冒頭で特定議題への一定の賛否を述べてから詳細な討論に入る。 ## 議員の発言 私は、日本共産党都議団を代表して、第百六十八号議 案、再生手続開始申立事件において東京都が有する債権 の取扱い及び株式の消却に反対する立場から討論を行い ます。 百六十八号議案は、経営破綻に陥った株式会社多摩 ニュータウン開発センターを民事再生手続により救済 し、…以下略】… 第百五十五号議案は、特定都営住宅に期限つき住宅を導 入するための都営住宅条例の一部を改正する条例です。 若年ファミリー世帯に都営住宅の入居枠を拡充すること は、子育て支援にとっても、また高齢化が進む都営住宅 を活性化させる上でも重要であり、我が党もこれるで主 張してきたものです。…【下略】… 図 1 議員発言例 議員は必ず議長から発言権が与えられた上で, 始めにいくつか議案への簡単な賛否表明を行った上で,それぞれの議案についての詳細な討論を行う.こ こでは, 前者を賛否表明発言, 後者を討論発言と定義する. 図 1 から切り離した賛否表明発言および討論発言をそれぞれ図 2 , 図 3 に示す。 賛否表明発言 私は、日本共産党都議団を代表して、第百六十八号議案、再生手続開始申立事件において東京都が有する債権の取扱い及び株式の消却に反対する立場から討論を行います。 図 2 賛否表明発言例 賛否表明発言は, 議長から発言権が与えられた議員が始めに述べる形式的な賛否表明である. 多くの場合, ここから特定議案 (議案番号) の賛否表明が得られ, Stance Classification タスクの評価結果では, 賛否表明発言のみを参照することで $90 \%$ 以上の正解率が実現されることが分かっている [2]. ## 討論発言 百六十八号議案は、経営破綻に陥った株式会社多摩ニュータウン開発センターを民事再生手続により救済し、...【以下略】… 第百五十五号議案は、特定都営住宅に期限つき住宅を導入するための都営住宅条例の一部を改正する条例です。若年ファミリー世帯に都営住宅の入居枠を拡充することは、子育て支援にとっても、また高齢化が進む都営住宅を活性化させる上でも重要であり、我が党もこれまで主張してきたものです。…【以下略】… 図 3 討論発言例 討論発言では, 賛否表明を行った議案への詳細な言及がなされる. 賛否表明発言と比較すると, 同一議案への言及でありながらも, それについての根拠が明確に述べられている. しかし, 討論発言では賛成や反対といった単語は必ずしも出現しない. また, 賛否表明発言では言及されず, その後の討論発言のみで言及される議案も存在する. また, 討論発言では複数の議案について議案ごとに順番に発言が行われる。 よって, 発言者のある議案に対するスタンスを捉えるためには, 討論発言を議案ごとに分割したテキスト (セグメント)を獲得する必要がある. ## 2.2 問題設定 前述したように賛否表明発言を用いることで高い精度で賛否分類を行うことが可能であるが, 陽に言及されない議題には対応できない. そこで本研究では, 図 3 に示した討論発言から, 議案に対する賛否を分類する問題に焦点を当てる. そのために, 議事録 の各議員の各議案に対する討論発言のセグメント分割を行い,その議題への賛否を対応付けたペアデー タを構築した.このぺアデータを学習データとして,二値分類器の構築, 評価を行った。 ## 3 データ構築手法 本節では, 議会議事録からの教師データの構築方法, それに伴う討論発言のセグメント分割手法について述べる. ## 3.1 セグメント分割 議案に対応する討論発言を獲得するために討論のセグメント分割を行う. セグメント分割には, 議員討論で多用される表現方法, 特に特定の接続詞に注目して分割を行う. 議事録の場合, 接続詞が出現する箇所は言及する議題に変化を予測しやすいため, 図 4 のような議員の討論発言例では,「次に」という接続詞に注目して分割を行う.また接続詞以外に, 議事録に記載されている議案番号や議案名にも注目し,分割を行う. 注意する点としては, データセットには議題と関連の無いノイズとなるような発言の混入を防ぐために, 議案番号と議案名については討論発言との完全一致を主として分割を行っていく. しかしながら, 議員が議事録記載の議題名をそのまま発言するとは限らない. そこで, 可能な限り議題対応が取れる多くの発言を獲得するために, 別途編集距離を用いる. 手法としては, 図 4 のように討論内に「〜について」という発言が含まれる場合, それ以前の発言と議題名との編集距離を測る. その類似度があらかじめ定めたしきい値を超える場合, 議題対応が取れる発言であるとみなし, セグメント分割を行うものとする. 本研究では, しきい值を 0.9 に設定した. これらのルールベース手法で獲得したセグメントを総じてセグメント候補として利用する。 ## 3.2 ラベリング 次に, 獲得したセグメント候補にラベリングを施す.セグメント候補に対するラベリングは次の 3 つの手法を検討した。 議決参照議事録の議決部から賛否を与える. 賛否表明参照 A 議決参照せず, 賛否表明発言から賛否を与え, 不明部分には賛成ラベルを与える 賛否表明参照 B 議決参照せず, 賛否表明発言から賛否を与え, 不明部分は教師データに含めない. ## 議事銢記載の議案番号, 議案名 第百十一号議案: 株式会社新銀行東京に関する特別委員会の継続調査 第百二十七号議案: 東京都築地市場の移転・再整備に関する特別委員会の継続調査 Levenshtein . ratio(seg $1, \operatorname{seg} 2)>0.90$ ? 図 4 討論発言のセグメント分割および編集距離を用いた議題特定 東京都議会の場合, 議事録に収録されている議決を参照することで各政党ごとに各議案に対する賛否が分かる.しかし, 地方議会や国会などでは賛否数のみの記載に留まることがあるため, 賛否表明発言からラベルを与える手法を検討した. 賛否表明参照 A と B の違いは, 賛否表明発言で言及されていないセグメント候補に賛成ラベルを与えてデータセットに採用するか, もしくはラベルが与えられないセグメント候補はデータセットに含めないかである. よっ $\tau$, 賛否表明参照 B は, 賛否表明参照 A よりも誤ラベル率が低い代わりに, サンプル数が少なくなる傾向がある.これが分類実験ではどのような影響を及ぼすかを検証する。 ## 3.3 データセット総括 本手法を 2000~2020 年までの東京都議会に適用し,データセットの自動構築を行った. 表 1 にラべリング手法ごとに構築されたデータセット総数を示す. 表 1 データセット概要 構築できたデータセットは 539 件となり, 推定賛成ラベルを与えたセグメント候補をデータセットに含めない場合は 500 件となった. また error は議決を参照せずにラベルを予測したうち, 教師データのセ グメント候補に対して与えられた誤ラベル数を示している.これを学習に用いて人手で構築した 137 件のテストセットを用いて評価実験を行う。 ## 4 評価実験 本節では, 構築したデータの分類に用いる分類器の概要, 分類器の評価実験, 考察について述べる. ## 4.1 BERT を用いた分類 2.1 節で定義した討論発言を対象に議員のスタンスを 2 值 (賛成 or 反対) に判定する BERT ベースの分類器を構築した [4]. モデルには, 公開されている日本語事前学習済みモデルの BASE 通常版を用いた [5]. 本モデルは, JUMAN [6] による単語分割に基づいて学習されているため, 同じ形態素解析器を使用している. また, 今回は入力が討論発言, 出力を賛成または反対とすることが目的であるため, [CLS] トークンの最後の隠れ状態を入力 768 次元, 出力を賛成または反対の 2 クラスとする全結合層に通して予測値を出力する. ## 4.2 入力構成 入力は単一討論発言, または討論発言に議題名を加えたものの 2 つを検証する. 議題名を追加で与える試みについては, 獲得したセグメント候補は特定の接続詞や発言に出現する議題名に注目して分割を行っている. そのため, セグメント候補には議題とは関連のないノイズが含まれることがあるため, 議題 名を追加で与えることで分類精度に影響を及ぼすか検証するために行う。 ## 4.3 実験設定 作成した 3 つのラベリング手法との比較対象として以下の 3 つのベースラインを設定した. Majority 討論内容に関わらず全て賛成と分類する. Baseline1 討論発言に出現する「賛成」「反対」の単語数をカウントし, 多い方にラベルを与える. ただし同数, または出現しない場合は「賛成」とする。 Baseline2 知事提出議案を一括で賛成, 議員提出議案を一括で反対とする. ハイパーパラメータの設定は, 入力の最大系列長を 512, ミニバッチサイズを 24 , 学習係数を $2 \mathrm{e}-5$, エポック数を 3 とした. ## 4.4 結果と考察 表 2 に 3 つのラベリング手法それぞれに議題を与えたものの合計 6 種の精度を示している. まず, majority の時点で分類精度が 7 割を超えており, 構築されたデータセットでの議員発言はそのほとんどが賛成のスタンスであることが分かる. その他のべー スラインでは baseline 2 が最も精度が高く, 知事提出議案に対しては賛成, 議員提出議案については反対のスタンスを表明する議員が多数いることが予想できる. 提案手法については全手法で baseline を上回っており,また議題を追加で与えることで精度向上に寄与していることが分かった. また, 正解ラベルを議決から与えた議決参照ラベリングが最も精度が高くなり, 誤ラベルが少ない train セットを用いた方が次いで正解率が高い. よって, 今回の実験ではデー タセット総数よりも,ラベリング精度を重視する方 が精度向上に好影響を与えることが分かった。 賛成 1 まず最初に、宿泊税についてです。今回、宿泊税は、法定外目的税として提案されました。私たち生活者ネットワークは、地方分権一括法が昨年四月に施行され、課税自主権が地方に付与された条件を生かそうとする試み自体は高く評価するものです。しかし、具体的提案については、率直にいって使い道の内容やプロセスの点で、大きな疑問を提起せざるを得ません。日本はこれまで、黒字を解消するため海外へ出ることを奨励し、観光を政策として進めてきませんでした。これは東京都も同じで、東京の過密化をさらに進める観光客の誘致をよしとはしてきませんでした。(以下略) 図 5 誤分類例 (誤って賛成ラベルに分類された例) 図 5 に実際に分類器へ討論発言を入力し, 誤分類された例を示す.この発言は教師あり分類器に共通して, 正解ラベルは反対でありながらも誤ラベルである賛成に分類されてしまった討論発言である. 誤分類された討論には, 肯定意見と否定意見が混在しており,また肯定側の討論はよく使われる「評価する」といった表現が含まれていることから, 賛成と分類されたと考えられる. また,このような機械が誤分類する討論発言は, 人間が確認を行っても誤分類してしまう傾向が高いため, 同様の誤分類が他の議会議事録においても発生するか, 今後も検証を続ける必要がある. ## 5 おわりに 本研究では, 議会の議員発言を対象として, その特性を活用したアノテーションを不要とするデータセットの構築方法を提案した. また, BERT ベースのスタンス 2 值分類器を構築し, 構築したデータセットのベースラインを確立した. 今後はより多くの議員討論を獲得するために, 地方議会等を対象として更なるデータセットを構築し, 提案手法の有効性を検証する。 ## 謝辞 本研究は JSPS 科研費 19K11980 の助成を受けた. ## 参考文献 [1] Yasutomo Kimura, Hideyuki Shibuki, Hokuto Ototake, Yuzu Uchida, Keiichi Takamaru, Madoka Ishioroshi, Teruko Mitamura, Masaharu Yoshioka, Tomoyoshi Akiba, Yasuhiro Ogawa, Minoru Sasaki, Kenichi Yokote, Tatsunori Mori, Kenji Araki, Satoshi Sekine, and Noriko Kando. Overview of the ntcir-15 qa lab-poliinfo-2 task. Proceedings of The 15th NTCIR Conference, 122020. [2] Takanori Nekomoto, Ryoto Ohsugi, Tomoyosi Akiba, Shigeru Masuyama, and Daiki Shirato. akbl at the ntcir15 qa lab-poliinfo-2 tasks. The 15th NTCIR Conference, p. 155, 2020. [3] 猫本隆哲, 秋葉友良, 増山繁. 議題への明示的な賛否表現を含まない議員発言を対象とした議会議事録のスタンス分類. 言語処理学会第 27 回年次大会発表論文集, pp. 669-673, 2021. [4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018 [5] Tomohide Shibata, Daisuke Kawahara, and Sadao Kurohashi. Improving the accuracy of japanese parsing with bert. The Association for Natural Language Processing 25th Annual General Meeting, pp. 205-208, 2019. [6] Daisuke Kawahara. Japanese morphological analysis system juman version 3.61. http://pine.kuee.kyoto-u.ac.jp/nlresource/juman.html, 1999. ## A 付録 本節に構築したデータセットに収録されている実際の賛成討論, 反対討論をそれぞれ示す. ## 賛成 1 第二百七号議案、東京都情報公開条例の一部を改正する条例によって、情報公開の実施機関に公安委員会と警視総監が加えられました。今期、全国初の都議会独自の情報公開条例が実現し、さらに今、警察情報が公開実施機関に加えられるということは、開かれた政治への前進として、心から歓迎するものです。しかしながら、この警察情報の公開が真に実効あるものとなるためには、開示義務除外とされる情報を、犯罪捜査などに支障を及ぼすおそれのある刑事法の執行を中心としたものに限定し、いわゆる行政警察活動や犯罪捜査などの個別の警察活動に支障を及ぼさない財政支出などは原則開示とするなど、明確な基準による運用が必要です。都民の期待にこたえる地方自治体としての積極的な条例運用を求めるものであります。,小松恭子,2000/7/12, 第二百七号議案, 東京都情報公開条例の一部を改正する条例 ## 反対 0 犯罪被害者等基本条例について申し上げます。総務委員会における都議会公明党の質疑で、本条例案の数々の問題点が露見しました。条例の根幹は目的と定義にあります。しかし、本条例の目的と定義は、国の犯罪被害者等基本法の条文の中の国を都に、また、国民を都民にほぼ置きかえただけであり、犯罪等の範囲や犯罪被害者等の対象の解釈についても国の解釈を踏襲しており、都としての独自性や必要性がないことが明らかにされました。また、条例案第十一条の経済的負担を軽減する生活資金の給付については、現在、国が具体的に見直しを検討しており、今回の質疑においても具体的な給付案及び根拠となる財源は明示されませんでした。さらに、具体的な給付案については、都知事が設置する犯罪被害者等施策推進会議でもまれるとの答弁があり、都に丸投げする形になっています。また、既に都が設置している東京都犯罪被害者等支援推進会議との関係からすれば、屋上屋を重ねるだけであることが明らかであります。公明党は四十六年前、凶悪犯罪によってかけがえのないご子息を失った一人の父親の声を聞き、以来、犯罪被害者等の支援に取り組んでまいりました。今日までの半世紀にわたる取り組みは、犯罪被害者等が抱える悲しみ、苦しみに少しでも寄り添い、心を配りながら進めてきました。このたびの条例案は余りにも拙速かつ不十分な内容であり、形だけの条例案といわざるを得ず、到底賛成することはできません。, 小林健二, $2012 / 10 / 4$, 議員提出議案第十一号, 東京都犯罪被害者等基本条例
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT1-1.pdf
# 辞書の階層構造埋め込み学習における 日本語辞書定義文の効果的な利用 石井佑樹 佐々木稔 茨城大学工学部情報工学科 \{18t4005h, minoru. sasaki. 01$\} @ v$ c. ibaraki. ac.jp ## 概要 語義曖昧性解消における, 既存の知識グラフベー スの学習手法は, 単語間関係を用いてモデル学習が行われるが, 1 単語における語義の階層関係を用いた学習は行われていない. また, 日本語辞書の定義文を適用しても語義の階層関係の判定精度が悪く,知識グラフ埋め込み学習による効果を十分に得られないことが課題となっている. 本研究では, 日本語辞書における語義の階層関係を判定するモデルの判定精度を向上させるための辞書記述の編集方法を分析する. 分析の結果, 無編集の辞書を学習させた場合の精度は $60.9 \%$ であるが, 編集を施した場合は精度が $83.3 \%$ となりモデルの性能向上が確認できた. このモデルから知識グラフ埋め込みシステムの性能向上が期待できる. ## 1 はじめに 語義曖昧性解消は, 文中の多義語に対して, 文中でどの語義が使われているのかを識別するタスクである. 現在までに語義ラベル付けのコストを必要としない知識グラフベースによるアプローチが数多く研究されている.これに関連する研究として, GlossBERT[1], BEM[2]といった語義定義文と教師あり学習を組み合わせた手法, EWISE[3], EWISER [4]といった知識データの単語間関係を用いた手法が存在する。しかし,これらの手法において, 単語における語義の階層関係を用いたモデル学習は行われていない。また, EWISE システムにおいて日本語辞書定義文を原文のまま用いて語義の階層関係を学習させると、生成されたモデルの関係判定精度が低く知識情報を十分に学習できていないことが判明した. 岩波国語辞典では「《名詞に付けて》」 「((形))」といった用法表現, 品詞表現のみ記述され た定義文が存在する。このような定義文は辞書内で複数存在し尚且つ内容が重複してしまうため, 語義の階層関係の学習を阻害してしまうと考えられる。 この課題に対して, 既存の単語間関係に加えて語義の階層関係を学習することと, 語義の階層関係判定モデルの精度を向上させる日本語辞書内容の編集・変更方法を分析することで,知識グラフ埋め込みシステムの性能向上に繋がることを目的とする. 本研究では, 知識グラフの情報をどれ程埋め込むことができるのか調査するため,知識データにおける 3つ組データの関係判定の精度を求めることのできる EWISE システムの知識グラフ埋め込み学習を利用する. 段階的に編集・変更した日本語定義における関係判定精度の比較を行う。 ## 2 語義の階層関係判定システム 日本語辞書における語義の階層関係を判定するのに EWISE システムの知識グラフ埋め込みシステムを用いる.語義の階層関係判定システムを図 1 に示す. 図 1 語義の階層関係判定システム ## 2.1 定義文エンコーダ 定義文エンコーダでは,BiLSTM Max エンコー ダ[5]が採用されている,定義文を BiLSTM に入力し, 出力を Max Pooling して得られた固定長の表現が定義文エンコーダの出力となる. ## 2.2 語義間関係判定モデル 語義間関係判定モデルは,2つの日本語定義文の分散表現を入力として受け取り定義文間の階層関係を判定するモデルである.この語義間関係判定モデル ConvE[6]が用いられる. ConvE のスコアリング関数 $\psi_{l}\left(e_{h}, e_{t}\right)$ は式(1)で表される. 通常知識グラフは, 2 つの実体 $(h, t)$ と 1 つの関係 $(l)$ からなる $N$ 個の 3 つ組 $(h, l, t)$ の集合 $K$ から構成される. $h$ はへッドエンティティ $t$ はテールエンティティである. 式(1) は 3 つ組 $(h, l, t)$ に対するスコアリング関数である. $ \psi_{l}\left(e_{h}, e_{t}\right)=f\left(\operatorname{vec}\left(f\left(\left[\overline{e_{h}} ; \overline{e_{l}}\right] * w\right)\right) W\right) e_{t} $ 式(1)において, $e_{h}$ 及び $e_{t}$ は実体のパラメータ, $e_{l}$ は関係のパラメータ, $\bar{x}$ は $x$ の 2 次元変形, $w$ は 2 次元畳み込みフィルタ, $\operatorname{vec}(x)$ は $x$ のベクトル化, $W$ は線形変換, $f$ は正規化線形ユニットである. 対象のヘッドエンティティhに対して,グラフ内の各実体をテールエンティティとしてスコア $\psi_{l}\left(e_{h}, e_{t}\right)$ を計算する。式(2)に示すように,スコアにシグモイド関数を適用することで 3 つ組 $(h, l, t)$ の適正性を示す推定値 $p$ を得る. $ p=\sigma\left(\psi_{l}\left(e_{h}, e_{t}\right)\right) $ ## 2. 3 モデルの学習 定義文エンコーダ及び語義間関係判定モデルの学習の流れを図 2 に示す。学習データは語義の階層関係を記述した知識データと語義定義文 ID に紐づけられた語義定義文を用いる。語義定義文は形態素に分解され, 各形態素の分散表現が定義文エンコーダに入力される。形態素の分散表現は fastText[7]や GloVe[8]を用いて事前学習された表現を利用する。語義間関係は語義間関係判定モデル内の埋め込み層によって埋め込みベクトルに変換される. 語義間関係判定モデルのパラメータは語義の階層関係の 3 つ組 $(h, l, t)$ のを学習させた初期モデルのパラメータを初期値とする。また,定義文エンコーダを学習するため式(1)を式(3)に修正する。 $ \psi_{l}\left(e_{h}, e_{t}\right)=f\left(\operatorname{vec}\left(f\left(\left[\overline{q(h)} ; \bar{e}_{l}\right] * w\right)\right) W\right) e_{t} $ $q($.$) は定義文エンコーダであり,ヘッドエンティテ$ イはその実体の定義をエンコードしたものである. 式(3)から出力された推定值 $p$ とラベルを元にモデルのパラメータを更新する.損失関数には式(4)に示すバイナリ交差エントロピーを用いる. $L_{C}=-\frac{1}{N} \sum_{i}\left(t_{i} \cdot \log \left(p_{i}\right)+\left(1-t_{i}\right) \cdot \log \left(1-p_{i}\right)\right)$ $t_{i}$ は 3 つ組 $(h, l, t)$ が適正の場合 1 , それ以外の場合は 0 となる. $p_{i}$ は式(3)で示したスコアの推定値である. 4.1 節に学習データ, 形態素の分散表現, 4.3 節にモデルの評価方法の詳細を示す. 図 2 モデル学習の流れ ## 3 定義文の編集及び変更 ## 3.1 定義文の編集 EWISE で利用される WordNet[9]の 3 つ組データに対応させるため岩波国語辞典の編集を行う。 ## 3.1. 1 定義文の ID 付け及び語義の階層関係 岩波国語辞典の定義文 IDを,複合語番号を除いて見出し語番号 $(1 \sim 5$ 桁 $) \cdot$ 大分類番号 $(1$ 桁 $) \cdot$ 中分類番号 $(1$ 桁 $) \cdot$ 小分類番号 $(1 \sim 2$ 桁 $)$ をこの順で結合した番号として ID 付けをする。 語義の階層関係は,岩波国語辞典の分類方法から上位概念,下位概念の 2 つの関係を学習させることにする。語義同士の関係は図 3 に示すような木構造の関係にある。木構造の親は子の上位概念となり,子は親の下位概念となる.3つ組データを記録する際は,辺でつながれているノード同士の関係のみを記録する。 図 3 語義の階層関係の具体例 (ノード内数字は辞書 ID の右三桁と対応する) ## 3.2 定義文の変更 3 つ組の知識データの関係判定精度を高めるために,以下の設定 A・B・(1)(5)を提案する. ## 3. 2.1 語義説明の無い定義文の削除 $A \cdot B$ 定義文が 2 重括弧「(( ))」,2 重山括弧「《》」,亀甲括弧「〔]」の表現のみで記述される単語定義があり,これらは単語語義を説明しないため定義文そのものを削除する.削除した場合,以降の節の変更と異なって 3 つ組の知識データの総数に影響を与える. 岩波国語辞典を編集しないA, 単語語義を説明しない定義文を削除した設定 Bについて実験を行い, 精度の高い設定を以降の節の変更に引き継ぐ。具体例として, 設定 B においては図 5 に示した赤字の部分を削除することになる. ## 3. 2.2 辞書内表現 - 記号の削除・置換, 全角英字を半角英字に置換,用例文内のハイフン 「一」の置換 (ひらがな置換) (1)・(1)* 2 重括弧「(( ))」表現, 2 重山括弧「《》」表現, 山括弧「<>」, これら3 種類の表現は見出し語の属性, 用法, 分類を示すものであり定義文から削除した。亀甲括弧「〔〕」」表現については, WordNet の定義文に同様の表現が存在するが,カテゴリ名が必要かどうかを確認するため削除した設定 (1)*設ける.定義文の分散表現を得る際に記号は余分な単語表現となってしまうため削除, 置換し で,置換した記号は「マ」を「。」,「【】」を 「『』」の 2 種類である. また, 辞書内の全角英字を半角にした。辞書内では用例文を記述しているが,用例文に含まれている見出し語の部分がハイフン「一」で置き換えられている.このハイフン 「一」を見出し語(ひらがな)で置換した。 ## 3. 2.3 用例文内のハイフン「一」の置換 (一対一置換) (2) ひらがなの場合は同音意義の単語が存在するため,正確な分散表現を得るには漢字に変換して記述するのが好ましい. 見出し語は同訓異字が多く, 対応する漢字が複数存在するため, 一対一で置換できる単語のみを漢字に置換した。 ## 3. 2.4 追記情報の削除(3) 定義文内では,定義文の追記情報は単語の直接の語義になりえない表現が多く存在する.以下に削除した内容を示す. - 「マ」から続く文は, 対象単語の語義を超えた範井での説明がなされる. ・派生|から続く文は送り仮名の派生を示す. ・読み仮名を削除するため, 全角括弧「()」で囲まれた内容がひらがなのみの場合削除する. - 半角括弧「( )」で囲まれた内容は, 辞書内の図番号及び注釈番号を示す. ## 3.2.5 全角括弧「()」表現を削除(4) (4)では,内容に構わず全角括弧「()」で囲まれた内容を削除する。 ## 3.2.6 部分的な用例文の削除(5) 岩波国語辞典における鍵括弧「「」」で囲まれた用例文は,見出し語が取り除かれた文章となっている場合が存在する。取り除かれている場合は,文を補完することが難しく不完全な用例文が残ってしまう.不完全な用例文を削除するため,定義文を句点で区切った一文が鍵括弧「「」」で囲まれている場合,その用例文を全て削除する. ## 4 実験 ## 4. 1 実験データ ・語義の階層関係を記述した知識データ岩波国語辞典より,定義文の $\operatorname{ID}(h, t)$ 及び語義の階層関係 $(l)$ を $h, l, t$ の順で記録した 3 つ組の学習デ一夕を利用する。岩波国語辞典から階層関係を記録した 3 つ組は無編集の設定 A の場合 24040 組, 単語語義説明の無い定義文を削除した設定 B の場合 10842 組得られた. それぞれ得られた 3 つ組学習デ ータを $8: 1: 1$ の割合で, 訓練, 開発, テストデー タに分けている. ・語義定義文 知識データの定義文 ID に紐づけた語義の定義文を実験データとして利用している. 定義文の分かち書きは MeCab と mecab-ipadic-NEologd を用いた. また,定義文における形態素の分散表現は 2021 年 10 月 10 日に更新された日本語 Wikipedia の全ページ記事のダンプデータをコーパスに fastText, GloVe を用いて事前学習された表現を利用する. 表 1 実験結果 } & \multicolumn{4}{|c|}{ fastText } & \multicolumn{4}{|c|}{ GloVe } \\ 全語彙(定義文に含まれる語彙の総数), 単語ベクトル数(分散表現が得られた単語数), 割合(語彙ベクトル数/全語彙) ## 4.2 各学習のハイパーパラメータ 以下各学習のハイパーパラメータよりデフォルト値から変更したものを示す. 定義文エンコーダ及び語義間関係判定モデル学習時は,バッチサイズを 64 に変更,学習回数は 160 回に設定. 初期モデルの学習回数は 300 回に設定, GloVe の事前学習は学習を考慮する周辺単語数を 10 , 分散表現の次元数を 300 に設定した. ## 4. 3 評価方法 語義間関係判定モデルの評価方法には MRR (Mean Reciprocal Rank)を用いている。MRR はランキング評価指標の一つであり,語義間関係判定モデルから出力された関係推定値を対象としてモデルを評価する。今回の場合 MRR は式(5)で求められる. $ M R R=\frac{1}{|U|} \sum_{u \in U} \frac{1}{k_{u}} $ $u$ 対象となる 3 つ組, Uは全 3 つ組, $k_{u}$ は対象となる 3 つ組に対して関係が正しく判定された実体が出現した順位を表す. ## 5 実験結果 実験結果を表 1 に示す. 単語語義を説明しない定義文の削除が効果的であり, 辞書内表現の削除, 追記情報の削除, 等の変更を加えた場合にも僅かに判定精度が向上した.単語語義を説明しない定義文を削除した場合に精度向上が大きく向上した. このような定義文は活用形を示す内容が大半で,一字一句内容が同じ定義文が複数存在することになる。定義文の重複を避けることで精度が向上したと考えられる。 定義文を変更することで,定義文全体に含まれる語彙数及び単語分散表現の初期值を得られる単語数に影響があるが,単語ベクトル数や語彙数の多さにかかわらず対象の語義の説明に不必要だと判断できる表現は取り除いても構わないと考えられる. 特に精度が下がった設定(5)では, 補完不可な用例文の削除が難しく精度が下がってしまったと考えられ,完全な辞書の定義文を利用するには人為的な修正が必要になる. また, fastText の単語分散表現で学習させることで, GloVe と比べ僅かに精度が向上したことから,サブワード情報を用いて学習された単語表現が大域的な共起情報を用いて学習した単語表現より判定精度を上げることが分かった。 ## 6 おわりに 実験の結果,定義文の語義に対して説明の役割を持たない表現を削除・変更し学習することで,階層関係判定モデルの性能向上に有益であることが明らかになった. 今後は, 本研究で得られた階層関係判定モデルから知識グラフ埋め込みシステムの性能向上が期待できるため,知識グラフ埋め込みシステムを利用した語義曖昧性解消の実験を行うことで,この手法がどれほど有効か研究を行う予定である. ## 参考文献 1. Huang, L., Sun, C., Qiu, X. and Huang, X. "GlossBERT: BERT for Word Sense Disambiguation with Gloss Knowledge.” In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3509-3514, 2019. 2. Blevins, T. and Zettlemoyer, L. "Moving Down the Long Tail of Word Sense Disambiguation with Gloss Informed Bi-encoders", In Proceedings of the 58th Association for Computational Linguistics (ACL2020), pp. 1006-1017, 2020. 3. Sawan, K. Sharmistha. J. Karan, S. and Partha T."Zeroshot word sense disambiguation using sense definition embeddings." In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5670-5681, 2019. 4. Bevilacqua M. and Navigli R. "Breaking Through the (80\%) Glass Ceiling: Raising the State of the Art in Word Sense Disambiguation by Incorporating Knowledge Graph Information." In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL2020), pp. 2854-2864, 2020. 5. Alexis, C. Douwe, K. Holger S. Loïc, B. and Antoine, B. "Supervised learning of universal sentence representations from natural language inference data." In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pages 670 680, Copenhagen, Denmark. Association for Computational Linguistics, 2017. 6. Tim, D. Pasquale, M. Pontus, S. and Sebastian, R. "Convolutional 2d knowledge graph embeddings." In Thirty-Second AAAI Conference on Artificial Intelligence, 2018. 7. Piotr, B. Edouard, G. Armand, J. and Tomas, M. "Enriching Word Vectors with Subword Information." In Transactions of the Association for Computational Linguistics, Volume 5, pp. 135-146, 2016. 8. Jeffrey, P. Richard, S. and Christopher, M. "GloVe: Global Vectors for Word Representation.” In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1532-1543, 2014. 9. George, M. "Wordnet: a lexical database for english." Communications of the ACM, 38(11):39-41, 1995. ## 付録 本文 3.2 節で示した設定の具体例を以下に示す. これらの語義定義文は岩波国語辞典第五版から引用した. 図 A 設定 $B$ の具体的な変更例(赤字を削除する) 図 B 設定(1)の具体的な変更例 図 C 設定(2)の具体的な変更例 図 D 設定(3)の具体的な変更例(赤字を削除する) 図 E (4)の具体的な変更例(赤字を削除する) 図F(5)の具体的な変更例 (赤字を削除する) 単語分散表現の事前学習に利用したWikipedia コ一パスは以下から入手した。 https://ja.wikipedia. org/wiki/Wikipedia:\%E3\%83 $\% 87 \% \mathrm{E} 3 \% 83 \%$ ВС\%Е3\%82\%BF\%Е3\%83\%99\%Е3\%83\%BC\%Е3\%82\% В9\%ЕЗ\%83\%80\%Е3\%82\%A6\%ЕЗ3\%3\%В3\%Е3\%83\%AD\%Е3\%83\%В C\%E3\%83\%89
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT1-2.pdf
# 宿トピックの整理と自動分類の試み 林部祐太IIstván Varga 株式会社リクルート Megagon Labs, Tokyo, Japan \{hayashibe, istvan\}@megagon.ai ## 概要 宿探し対話の自動応答に用いる知識整備として, ツリー構造での宿に関するトピックの整理に取り組んだ.トピック数(ノード数)は 791 個で,平均約 8 個のトピック例文をアノテーションした.また,発話の解釈結果をツリーにマッピングして自動応答に活用することを想定し,ツリーへの自動分類にも取り組んだ. 自動分類には,トピック数が非常に多いが学習事例が非常に少ないという制約においても頑健に動くよう,類似度に基づく手法を用いた。 ## 1 はじめに 宿を探しているカスタマーへの接客にて,オぺレータは宿トピックに関する知識を用いて応対する。例えば次のような応対である。 ・要望が抽象的であれば,具体的な要件を例示して提案する(詳細化): カスタマー「自然豊かな所に止まりたい」 すか?」 ・要望に該当する候補が多すぎれば,絞り込むために関連した追加の要望を聞く(要望追加): カスタマー「マグロを夕食に食べたい」 オオペレータ「お食事はバイキングがお好みですか?それとも部屋食がよろしいでしょうか?」 ・要望に該当する候補がなければ,関連した代替となる要件を例示して提案する(代替提案): カスタマー「マグロとか食べられる宿はありますかね」 オペレータ「そのエリアでは,マグロをお出している宿はありませんが,サーモンの有名な宿があります.いかがでしょうか?」 これらは ・「自然」に関するトピックには「海」や「山」な ## どがある ・食事に関係するトピックには「バイキング」や 「部屋食」といった食事の形式に関するトピックがある ・「マグロ」の兄弟トピックに「サーモン」があるなどといったような,宿トピックに関する知識に基づいて行われる. 我々はこのような応対ができる対話システムの構築を目指しており,本研究では宿トピックに関する知識の整理と,発話のトピック自動分類に取り組む. ## 2 関連研究 特定ドメインのトピックの整理を半自動で行った研究として,レストランレビューサイト Yelp に投稿されている和食,イタリアンなどといったレストランのカテゴリのレビューごとに, Latent Dirichlet Allocation (LDA)[1] を適用し, 単語クラスタリングを行った研究 [2] がある. Reschke らは得られたクラスタをサブカテゴリとみなし,人手でクラスタトピックをアノテーションした. 我々は経験による分類を反映させるため,自動クラスタリングは用いず完全に人手で整理する。 宿ドメインでは,次のようなトピックの分類で研究が行われている. Pontik らは SemEval-2016 Task 5 の宿のレビューの感情分析で 7 つのアスペクト (hotel, rooms, room amenities, facilities, service, location, food\&drinks)を用いた [3]. Fukumoto らは7つのアスペクト(サービス,風呂,部屋,食事,立地,設備・アメニティ, 総合) で宿のレビューを分類した [4]. 安藤らは「商品の絶対的事実」「売り手の要望」「買い手の購入理由」など 23 項目で宿のレビューを分類した [5]. 我々はこれらの分類を参考にしつつ,詳細化などの応対に使えるように,複数階層をもつ体系でトピックを整理する。 表 1 宿トピックとトピック例文の例 ## 3 宿トピックツリーとトピック自動分類モデルの試作 ## 3.1 宿トピックツリーの設計 先行研究の分類を参考にしつつ,旅行情報サイトじゃらん net ${ }^{1)}$ に掲載されている宿レビューを観察しながら,宿に関するトピックを手作業にてッリー 構造で整理することにした,以下そのツリーを「宿トピックツリー」または単に「ツリー」とよぶ. そして,根の子を Level 1,その子を Level 2,...といったようによび,“Level 1> Level 2” といった表記でトピックを表す. また, Level 1 と Level 2 はトピックの大分類・中分類を表すこととし, 具体的なトピックは Level 3 以下で表すこととする.例えば「そばアレルギー」 に関するトピックは,「食事>アレルギー>そば」という表記で表す。 Level 1 のトピックは,「立地,景色,宿タイプ,スタッフ,設備・サービス,インターネット,駐車場,風呂, 食事, セキュリティ, 備品, ベッド,部屋, ユニバーサルデザイン,值段,子ども,雾囲気,リゾート」の計 18 個とする.ツリー全体でトピックは計 791 個あり,節トピックは 166 個,葉トピックは 625 個である. トピックの例を表 1 に,分布を表 2 に示す。 ## 3.2 学習用トピック例文の作成 自動分類器の学習のため,トピックに該当する発話文やレビュー文の例(以下,トピック例文とよぶ)を作成した。例を表 1 に示す. トピック例文は計 6,198 文で,平均約 8 文作成した.  ## 3.3 トピック自動分類モデルの設計 宿トピック数は 791 と非常に多いが,学習事例数はトピックあたり平均約 8 個と非常に少ない. そのため,事前学習モデルに Softmax 層を追加して fine-tune する一般的な方法ではうまく動かない. そこで,類似度に基づく分類手法を用いる。 まず,トピック例文と入力を SentenceTransform$\mathrm{ers}^{2)}$ [6] でベクトル化し,各トピック例文と入力のコサイン類似度を求める. 次に,トピックごとにコサイン類似度の平均値を求め,それを入力に対するトピックのスコアとする。そして,閾値 $t$ を超えるトピックのうち最も高いスコアをもつトピックを入力に対する予測トピックとする.ただし,間値を超えるトピックが無ければどのトピックにも該当しないとする。 ## 4 トピック自動分類実験 ## 4.1 実験準備 ## 事前学習モデルの準備 事前学習モデルにはじゃらん net に掲載されている宿レビューを使って学習した $\mathrm{BERT}^{3}$ を用いる. BERT のトークナイザーは語彙サイズを 8,000 となるようして学習した SentencePiece ${ }^{4)}$ [7]を用いる. BERT のパラメータは公式サイトで公開されているモデル BERT-Base と同じように,バッチサイズは 512, Attention heads の数は 12, レイヤ数は 12,隠れレイヤ数は 12 とした。TPUを用いて 150 万ステップ学習し, Masked token prediction の精度は 66.5, Next sentence prediction の精度は 94.8 となった. ## Sentence Transformers の学習とスコア計算の高速化 Sentence Transformers の学習は事前学習モデルとトピック例文を fine-tune することで行う.損失関数は同じトピックをもつ事例は近く,異なるトピックをもつ事例は遠くなるようなべクトルを得られる BatchAllTripletLoss[8]を用いる。学習は,バッチサイズ 128 , エポック数 5 で行った. 処理の高速化のために,事前にトピック例文はべクトル化しておく.また,スコア計算は簡略化し, 2) https://www.sbert.net/ 3) https://github.com/google-research/bert 4) https://github.com/google/sentencepiece 表 3 テスト事例の予測結果. 予測トピックで括弧書きのものはスコアが閾値未満のため,該当トピックなしとする. & & 食事>食材>海鮮 & 0.706 \\ 表 4 自動分類実験の精度 表 5 自動分類実験の予測トピックごとの精度 高速近傍探索ソフトウェア $\mathrm{NGT}^{5}$ を使って 50 個の近傍トピック例文とのコサイン類似度のみを利用して求める. 5) https://github.com/yahoojapan/NGT ## 4.2 開発データと評価データ 現在開発している対話システムでは,カスタマー の発話から省略されている言葉を補い,発話文を要望ごとに簡潔に解釈した解釈文を生成し,それを使って検索や返答を生成する。例えば,「それがいいですが,海鮮は出ますか?」といった発話文に対して「朝食はバイキングを希望する。朝食バイキングに海鮮が出るか知りたい。」といったような解釈文を作成する。そこで,解釈文に作成したトピックを自動分類して活用することを想定して実験する.宿探しの対話にそのような解釈文がアノテーションされたコーパス [9] のうち 1,443 文の解釈文 ${ }^{6)}$ に対してトピックをアノテーションした. このうち 688 文を自動分類器のパラメータ開発に, 755 文を評価に用いる. 開発用データにおいて,予測が正解であるとき7) と不正解であるときのスコアの平均はそれぞれ 0.746 と 0.580 であった. そこで,閾値 $t$ は平均の 0.663 とする. ## 4.3 自動分類実験結果 途中の Level まで一致していれば正解としたときの精度を表 4 に示した ${ }^{8)}$. Level 1 のみの一致で評価した場合の F1 は 49.1 である. 閾値未満はすべてト 6)論文中では「要約文」とよんでいる 7)1つの文に複数のトピックがアノテーションされている場合は,1つでも該当する場合「正解」とする 8)本論文では TP, TN, FP, FN はそれぞれ True Positive,True Negative,False Positive,False Negative の略とする ピック無しとしているため FN が多くなり,Recall が 36.9 と低くなったと考えられる. Level 2 のみの一致で評価した場合の F1 は44.9である. Level 1 のそれと比較すると 4.2 ポイント低く,より詳細なトピックを予測するのは難しいことが分かる.予測トピックが完全に一致している場合のみ正解としたときの F1 は44.0であった。 表 5 には予測のトピックごとの精度を示した.「総数」はそのトピックが正解にある事例の総数を示す9). FN は「立地」,「値段」,「部屋」で比較的多いことが分かる. 予測の例を表 3 に示す。まず,\#1 から\#3 は TP の事例である.「海鮮」や「海の景色」の表現は学習事例に存在するが,「海産物」や「オーシャン」といった表現は学習事例には存在しない.しかしながら, ベクトルの類似度に基づくスコアにより適切に類似度を計算し,正しくトピックを予測できている。\#4 は TN の事例で,どの学習事例とも類似しないことから,正しく該当トピックなしと予測できている。 \#5 と\#6 は FP の事例である. \#5 は食事の値段という点では正しいが,高めの值段で良いという入力に対して逆のトピックを予測していため間違っている. \#6 も食事の酒という点では正しいが,ビールに関する入力ではないので間違っている. \#7 から\#9 は FN の事例である。7と#8 は最もスコアが高い予測トピックであっても間違っている事例である。99は閾値の設定によっては TP となった事例である。 ## 5 考察・今後の課題 本論文での実験をもとに考察し,トピックッリー の改善すべき点と自動分類手法の改善すべき点について述べる. ## 5.1 トピックッリーの改善 今回の試作では,1つのトピックの親は必ず 1 つとなるようなツリー構造でトピックを整理したが,複数の親が考えられるトピックは存在する. 例えば,「沖縄そば」は「麺類」の子としたが,「郷土料理」の子とも考えられる. このようなトピックが存在するので,複数の親をもつことを許すなど,異なる構造を検討する必要がある。 また,トピックの網羅性を上げるため,実際の対 9)1つの文に複数のトピックが付与されうるので「総数」の和は文の総数とは一致しない。話に適用し,実用上問題となるトピックが不足していないかを確認する必要もある. ## 5.2 自動分類の改善 自動分類の精度向上には,まず学習用データを改善することが必要である.学習に用いた例文は実際の発話をもとに作ってはいないため, 学習と評価に用いたデータの種類が異なる.これを揃えることで精度の改善が見込める.ただし,すべてのトピックに対してアノテーションするのはコストが高いため,間違いやすいトピックに対してに集中して事例を追加するのが効果的だと考える. 次に,抜本的な精度改善のためにはモデルのアー キテクチャを改良することも必要である.現在のモデルでは「食事」トピックと「食事>値段」トピックのように親子関係があっても, BatchAllTripletLoss を用いているのでそれぞれに属すトピックは距離をとるように学習されている。これが\# 5 や\#6 のような途中の Level までは正解しているが FP となっている事例の誤りの原因と考える。そこで,これを考慮に入れた損失関数へ置き換えることで改良できると考える。 また,ベクトルの分布の偏りが小さくなるような粒度の粗いトピックの分類には類似度に基づくスコアではうまく働かないのも問題であると考える.「立地」や「部屋」でFNが多かったのはそれらの粒度が他のトピックと比べて粗いためだと考えられる.そのため,類似度に基づくスコアとは別のスコアも用いることで FNを減らし,精度の改善ができると考える。 ## 6 おわりに 本研究では宿探しの対話システム構築のために,宿トピックに関する知識の整理と,発話のトピック自動分類に取り組んだ。トピック数は非常に多い一方で学習事例は非常に少ない中,類似度に基づいた分類手法を用いた。 今後は作成したトピックツリーや自動分類器自体の改善はもちろん,対話システムに組み込んだ応用にも取り組んでいきたい。 謝辞アノテーションを行っていただき,多くの示唆に富んだご意見をくださった山下華代氏に感謝します。また,有益な助言していただいた大阪大学の荒瀬由紀准教授に感謝します。 ## 参考文献 [1] David M Blei, Andrew Y Ng, et al. Latent Dirichlet Allocation. The Journal of Machine Learning Research, Vol. 3, pp. 993-1022, 2003. [2] Kevin Reschke, Adam Vogel, et al. Generating Recommendation Dialogs by Extracting Information from User Reviews. In $A C L$, pp. 499-504, 2013. [3] Maria Pontiki, Dimitris Galanis, et al. SemEval-2016 Task 5: Aspect Based Sentiment Analysis. In Proceedings of the 10th International Workshop on Semantic Evaluation, pp. 19-30, 2016. [4] Fumiyo Fukumoto, Hiroki Sugiyama, et al. Incorporating Guest Preferences into Collaborative Filtering for Hotel Recommendation. In Proceedings of 6th International Joint Conference on Knowledge Discovery, Knowledge Enginnering and Knowledge Management, pp. 22-30, 2014. [5] 安藤まや, 関根聡. レビューには何が書かれていて、読み手は何を読んでいるのか? 言語処理学会年次大会, pp. 884-887, 2014 [6] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-Networks. In EMNLP, pp. 3982-3992, 2019. [7] Taku Kudo. Subword Regularization: Improving Neural Network Translation Models with Multiple Subword Candidates. In $A C L$, pp. 66-75, 2018. [8] Alexander Hermans, Lucas Beyer, et al. In defense of the triplet loss for person re-identification. CoRR, Vol. abs/1703.07737, , 2017. [9] 林部祐太. 要約付き宿検索対話コーパス. 言語処理学会年次大会, pp. 340-344, 2021.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT1-3.pdf
# クラウドソーシングによる単語親密度データの構築 (2021 年版) 浅原 正幸 国立国語研究所 masayu-a@ninjal.ac.jp ## 概要 2018 年〜2021 年にかけて、継続して単語親密度調査を進めている。調査においては『分類語彙表』 に出現する見出し語に対して「知っている」「書く」「読む」「話す」「聞く」の利用の程度をクラウドソー シングにより質問紙調査を行った。今回、4年間の累積データに対して、ベイジアン線形混合モデルを見出し語に基づき実施したので報告する。また同データベースの検索ツールについても紹介する。 ## 1 はじめに 我々は 2018 年にクラウドソーシングによる単語親密度調査を開始した。最初の公開データ [1]にはデータ量が少なく、その後毎年継続調査を行いデー タを増補してきた。また従前のモデル構築方法にも問題があった。本研究では増補したデータとともに新たに単語親密度データベースを再構築したので報告する。改変点では以下のとおりである: -欠損していたデータについても補完し、全見出しに単語親密度を付与した。 - 同一見出しについて、単一の単語親密度を付与するように変更した。 ・回答数が少ない実験協力者データを排除した。 ・ベイズ主義的分析においては、単語親密度・実験協力者の語彙力をともに標準正規分布によりモデリングを行った。 また、分類語彙表を検索するツール CradleExpress 上に、単語親密度情報を格納した。分類語彙表番号に基づく語義階層ごとの単語親密度順ソートが可能になった。 以下ではデータの構築方法とともに検索ツールについて紹介する。 ## 2 評定値の収集・モデリング ## 2.1 評定値の収集 図 1 評定値収集画面 表 1 収集評定値の統計 分類語彙表に登録されている「見出し」を刺激として、「知っている」 (KNOW) ・書く」(WRITE) ・「読む」(READ)・「話す」(SPEAK)・「聞く」(LISTEN) の 5 観点について Yahoo! クラウドソーシングを用いてアンケート調査を実施した。図 1 に調査に用いた評定值収集画面の例を示す。2018 年に初回の調 査を行ったのち、欠損値を補完するために 2019 年に未収集もしくは評定值の分散が高い見出しを中心に評定值の収集を行った。2020 年はクラウドソー シングによる読み時間データ収集 [2] において、実験協力者の語彙力を評定する事前調査として実施した。2021 年は区切り文字を除いた全見出しに対して調査を行った。表 1 に調查時期と実験協力者数・回答数を示す。 ## 2.2 モデリング 表 2 分析対象データ モデリングに際して、データの整理を行った。 まず、実験協力者に呈示した見出しごと (84114 見出し) に KNOW, WRITE, READ, SPEAK, LISTEN $の 5$観点に対して一意の ID (WID: 1 420570)を付与し、 そのランダム効果を単語親密度とする。従前のモデル [1]では、見出しが同じである異なる分類語彙表番号を持つ語(多義語)は、分類語彙表番号ごとに推定を行っていたが、今回は見出しごとに推定を行う。 収束性を担保するために 150 回答以上の実験協力者である異なり 6732 人分のデータのみを利用する。実験協力者に対して一意の ID (SID: 1~6732)を付与し、このランダム効果も「実験協力者の語彙力」として用いる。また 1 実験協力者が 2 回以上回答した見出しについては排除した。結果 15691265 件のデータポイントを得た(表 2 )。 図 2 統計モデルの概要 得られたデータをベイジアン線形混合モデルのランダム効果によりモデル化する。グラフィカルモデルを図 2 に示す。 $N_{\text {word }}$ は見出し $\times 5$ 観点 WID の定義域、 $N_{\text {subj }}$ は実験協力者 SID の定義域である。 それぞれ単語・観点のインデックス $i: 1 \ldots N_{\text {word }}$実験協力者のインデックス $j: 1 \ldots N_{s u b j}$ とする。 $y^{(i)(j)}$ は見出し $\times 5$ 観点の評定值 (RATE) で、アンケート結果を 1(全く知らない/出現しない) 5 (よく知っている/出現する)に数值化したものを利用する。 $y$ は平均 $\mu^{(i)(j)}$ 標準偏差 $\sigma$ によって定義される正規分布とする: $ y^{(i)(j)} \sim \operatorname{Normal}\left(\mu^{(i)(j)}, \sigma\right) . $ $\sigma$ は標準偏差としてのハイパーパラメータで、 $\mu^{(i)(j)}$ は、切片 $\alpha$ と見出し $\times 5$ 観点のランダム効果 $\gamma_{\text {word }}^{(i)}$ と実験協力者のランダム効果 $\gamma_{s u b j}^{(j)}$ の線形式で定義する: $ \mu^{(i)(j)}=\alpha+\gamma_{\text {word }}^{(i)}+\gamma_{\text {subj }}^{(j)} $ 見出し $\times 5$ 観点のランダム効果 $\gamma_{w o r d}^{(i)}$ と実験協力者のランダム効果 $\gamma_{\text {subj }}^{(j)}$ は、それぞれハイパーパラメータ平均 $\mu_{\text {word }}:=0.0, \mu_{\text {subj }}:=0.0$ 、標準偏差 $\sigma_{\text {word }}:=1.0, \sigma_{\text {subj }}:=1.0$ によって定義される正規分布によりモデル化した。 $ \gamma_{\text {word }}^{(i)} \sim \operatorname{Normal}\left(\mu_{\text {word }}:=0.0, \sigma_{\text {word }}:=1.0\right), $ $ \gamma_{\text {subj }}^{(j)} \sim \operatorname{Normal}\left(\mu_{\text {subj }}:=0.0, \sigma_{\text {subj }}:=0.5\right) . $ このうち単語親密度は見出し語 $\times 5$ 観点のランダ么効果 $\gamma_{w o r d}^{(i)}$ の推定値である。一方、実験協力者の個体差はランダム効果 $\gamma_{s u b j}^{(j)}$ の推定値であるが、結果的に実験協力者の語彙力の評価値となる。 推定には R と Stan を用いた。warm-up 30 iteration のあと、 300 iteration $\times 3$ chains 並列でシミュレー ションし、すべてのモデルは収束した $(\hat{R}<1)$ 。 ## 3 データの分布 図 3 に得られた語彙力および単語親密度の分布を示す。語彙力は標準正規分布としてモデル化したためにこのような分布になっている。この語彙力のデータは匿名化したうえで読み時間評価実験 [2]参加した方の属性値として利用する。 単語親密度の分布は、「知っている」>「読む」「聞く」>「書く」「話す」の順に大きい。「生産」は「書く」+「話す」「受容」は「読む」+「聞く」、「書記」 は「書く」+「読む」、「音声」は「話す」「聞く」の値である。「受容」が「生産」より大きい傾向があるほか、「書記」が「音声」より大きい傾向がみられる。 図 3 語彙力および単語親密度の分布 また、「生産-受容」は「書く」+「話す」-「読む」-「聞く」の値である。一般的に多くの語が「受容」>「生産」であるために負の値になるが、マスコミなどで利用される語で個人ではあまり利用しない語が 「生産」>「受容」となり正の値を持つ場合がある。 最後に、「書記-音声」は「書く」-「話す」+「読む」-「聞く」の値である。正の值であれば書き言葉特有の語、負の値であれば話し言葉特有の語であることがわかる。 ## 4 検索ツール: CradleExpress 次に分類語彙表の検索ツール CradleExpress ${ }^{1)}$ について紹介する。図 4 に検索画面を示す。 「詳細条件」で分類語彙表に基づく情報で絞り込み検索ができるほか、「親密度」でも絞り込み・並べ替えができる。以下では、分類番号 1.5501 「体-自然-動物-哺乳類」の親密度について確認する。図 5 に「知っている」上位 5 件の見出し語を示す。「知っている」列で並び替えを行うと、動物園などで観られる「ゴリラ」・「コアラ」・「やぎ」・「ライオン」が上位を占めた。また、分類学上の「哺乳類」が 3 位であった。  次に「生産」(「書く」「話す」を足したもの)・「受容」(「読む」・「聞く」)列で並び替えを行うと、図 6,7 のようになった。身近な動物である「猫」「犬」「野良猫」や、食肉としての「牛」「豚」が上位を占めた。また、分類学上の「動物」が 2 位(受容) 3 位(生産)であった。 基本語彙の観点からは、「理解語彙」(知っている) と「利用語彙」(書く・読む・話す・聞く)の 2 つの観点で大きな差があることがわかる。「生産」と「受容」に大きな差がある語としては、「盲導犬」「猛虎」 など特定の媒体の頻出する表現が確認された。 また、書き言葉で用いられるか、話し言葉で用いられるかを判別するために、「書記-音声」(「書く」+「読む」-「話す」-「聞く」)の評定値により、降順 (書記優位)・昇順(音声優位)したものを、図 8,9 に示す。前者が特定の小説・書籍・新聞などの書き言葉で頻出する語である一方、後者が対話などの話し言葉で頻出する語である。 このような評定値は認知言語学における基本レべルカテゴリとなりうる典型例を示すことができる。 しかしながら、認知的に基本的なものとして、「理解語彙」(知っている)を指し示すか、「利用語彙」 (書く・読む・話す・聞く)を指し示すかにより、語 図 4 CradleExpress 検索要求指定画面 彙の分布が著しく異なる。さらに、「書記」(書く・読む)か「音声」(話す・聞く)かにより評定値差の大きなものがあることから、プロトタイプ性の認定にあたっては、そのレジスタ(書き言葉か話し言葉か)も含めて検討すべきことが示唆された。 ## 5 おわりに 本稿では、継続的に調査を行っている単語親密度データの 2021 年時点の累積データに基づいて、見出し語単位で統計処理を行ったデータについて示した。また、同データを検索するツールについても紹介した。 本調査では、単語単位での評定を行ったために、多義語においては、その語義ごとの利用実態を明らかにすることができない。例えば、上の例の「なまけもの」は字義通りの「哺乳類」の評定値か「㤐惰」 の評定値かがわからない。そこで、コーパスの出現ごとの印象評定調査を行った [3]。今後、コーパス上の用例と本データとを対照し、ヒトの語彙のとらえ方を明らかにしていきたい。 ## 謝辞 本研究は国立国語研究所コーパス開発センター共同研究プロジェクトの成果物です。また、科研費 17H00917,18K18519,19K00591,19K00655 の支援を受けました。 & & \\ コアラ & 2.16988931425696 & 0.27520523348496 & 1.115538591867071 \\ 哺乳類 & 2.16628019642134 & 0.649779029443949 & 0.975175398158484 \\ やぎ & 2.13665095336729 & 0.06419158274259999 & 0.2032152535215712 \\ ライオン & 2.1223051693044 & 0.3590675971468735 & 0.680990317360433 図 5 分類番号 1.5501 「知っている」上位 & & \\ 図 6 分類番号 1.5501 「生産」上位 & & & \\ 図 7 分類番号 1.5501 「受容」上位 & \\ やまあらし & 1.17036381793061 & 0.7979713163135049 \\ 赤馬 & 0.308798738053768 & 0.7354525701993202 \\ 霊長類 & 1.2689718203082 & 0.666646635471029 \\ 土佐犬 & 1.58893703003315 & 0.6509951531038392 \\ 図 8 分類番号 1.5501 「書記-音声」上位(書記優位) & \\ 図 9 分類番号 1.5501 「書記-音声」下位(音声優位) ## 参考文献 [1]浅原正幸. Bayesian linear mixed model による単語親密度推定と位相情報付与. 自然言語処理, 27(1):133-150, 2020. [2]浅原正幸. クラウドソーシングによる大規模読み時間データ収集. In 言語処理学会第 27 回年次大会発表論文集, pages 1156-1161, 2021. [3]加藤祥 and 浅原正幸. 『現代日本語書き言葉均衡コー パス』に対する印象評定情報付与. In 言語処理学会第 28 回年次大会発表論文集, 2022. ## A 単語親密度の検索手法 以下では、CradleExpressによる単語親密度の検索手法について示す。CradleExpress は UniDic と分類語彙表が格納されており、このうち分類語彙表が格納されているhttps://cradle.ninjal.ac.jp/wlsp/を用いる。 ## CradleExpress & & ms per Page: 10 & & 200 & 500 & Downlo & Short & $\checkmark$ & 設定 & & & & \\ 図 10 CradleExpress 検索結果:分類番号 1.5501 デフォルト画面 図 4 に示す検索要求指定画面に対して、検索したい「分類」を指定する。例えば、1.5501を指定すると、図 10 のような画面を得る。 る。または、検索要求画面下部にある「並べ替え」の「キー:」(図 11)により、調べたい単語親密度情報を指定する。 図 10 の表示結果は、右側にも「生産」「受容」などの評定値があり、横スクロールで右に移動して表示できる。または、図 12 のように「設定」をクリックし、カラム幅を調整することで、必要な列のみを表示できる。表示しない列は「0」に設定し、表示したい列は「auto」もしくは適切な値を設定する。 図 11 単語親密度による並び換えの指定 図 12 表示列幅の指定
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT1-4.pdf
# セミマルコフ CRF 自己符号化器による教師なし単語分割 和田有輝也 村脇有吾 黑橋禎夫 京都大学大学院情報学研究科 \{wada, murawaki, kuro\}@nlp.ist.i.kyoto-u.ac.jp ## 概要 従来のニューラル教師なし単語分割手法には, (1) 少量のテキストしか参照しない,(2) 言語モデルに基づくため,単語分割モデルとしては不必要な制限を課しているという 2 つの課題がある. そこで,我々は事前学習済み文字レベル BERT を用いることで大規模テキストを活用する。さらに,入力文全体を見て分割を予測するセミマルコフ CRF 自己符号化器モデルを提案する。日本語を対象とした実験の結果,提案手法によって概ね妥当な単語分割が得られることが確認された。 ## 1 はじめに 日本語や中国語等の明示的な単語の境界をもたない言語における自然言語処理では,前処理として単語分割が重要な技術となっている.単語分割の訓練手法としては教師あり学習が広く用いられている。 しかし, その学習には大量のアノテーションデータが必要であり,言語リソースの少ない言語やドメインに適用することが難しい。そこで,アノテーションデータセットのない言語やドメインにも適用可能な教師なし学習による単語分割手法が求められている. 教師なし単語分割は,かつてはベイズ推定に基づく手法 $[1,2]$ が盛んに研究されていた。近年ではニューラルネットワークに基づく手法 $[3,4,5,6]$ が研究されているが,その課題として次の 2 点が挙げられる。第 1 に,モデルが参照するテキストが少量である。従来手法では,訓練データセットが 1-2万文程度と小さく,かつ,事前学習済みモデルも採用しておらず,ニューラルネットワークを用いた複雑なモデルの学習には不十分であると考えられる。第 2 に,いずれのモデルも単語分割モデルであると同時に言語モデルでもあるため,分割の予測をする際に入力文の一部を適宜隠す必要がある。この制約は言語モデルでは必要だが,単語分割モデルでは不要 である。本研究では 1 つ目の課題を解決するために,事前学習済み文字レベル BERT による入力文の埋め込みを行う.また,2つ目の課題を解決する教師なしニューラル単語分割モデルとして,セミマルコフ CRF 自己符号化器を提案する。 ## 2 関連研究 ニューラルネットワークに基づく教師なし単語分割手法としては,Segmental Language Model (SLM) [3] がある.SLM は入力文をエンコードする文脈エンコーダと単語の生成確率を計算するセグメントデコーダの 2 つの LSTM からなるモデルである. 入力文における全ての部分文字列の生成確率を計算し,それらから最適な分割を求める。他の教師なしニューラル単語分割の手法としては,SLMに語彙メモリモジュールや単語長さについての正則化項を追加した手法 [4] や LSTM を双方向に拡張した手法 [5],エンコーダとして LSTM の代わりに Transformer を用いた Masked Segmental Language Model (MSLM) [6] が提案されている. しかし,従来手法はいずれも 1 章で述べた 2 つの課題を有している. 本研究ではそれらの課題を解決する教師なし単語分割手法を提案する。 ## 3 提案手法 本研究では事前学習済み文字レベル BERT による入力文の埋め込みを行い,入力文全体を見て分割を予測するセミマルコフ CRF 自己符号化器モデルを用いる教師なし単語分割手法を提案する.提案手法の概要を図 1 に示す. ## 3.1 文字レベル BERT による埋め込み 大規模なデータセットで事前学習した文字レベル言語モデルは潜在的に単語についての情報を有していると考えられる.実際に Wang らは中国語を対象とした文字レベル BERT が潜在的に単語についての情報を有していることを示している [7]. そこ 図 1 提案手法の概要 で, 大力文 $\mathbf{x}=c_{1}, \cdots, c_{n}$ を事前学習済み文字レベル BERT を用いて埋め込み表現 $\mathbf{h}=h_{1}, \cdots, h_{n}$ に変換する.ここで, $c_{i}$ は単一の文字, $h_{i}$ は文字 $c_{i}$ に対応する埋め込み表現であり,$n$ は文 $\mathbf{x}$ の文字数である.この埋め込み表現を用いてモデルを学習することで,文字レベル BERT が潜在的に有している単語についての情報が単語分割の学習に活用されることが期待される。 ## 3.2 セミマルコフ CRF 自己符号化器 セミマルコフ CRF 自己符号化器は CRF 自己符号化器モデル [8] における CRF をセミマルコフ CRF に拡張することで,単語分割タスクに適用したものである. 訓練時には, 入力文 $\mathbf{x}$ から可能な全ての分割 $\mathbf{y}=\mathbf{w}_{1}, \cdots, \mathbf{w}_{m}$ について分割の生成確率 $p(\mathbf{y} \mid \mathbf{x})$ を計算し,各 $\mathbf{y}$ から元の文 $\hat{\mathbf{x}}$ が生成される確率 $p(\hat{\mathbf{x}} \mid \mathbf{y})$ を計算する. 予測時には, 復元確率 $p(\hat{\mathbf{x}}, \mathbf{y} \mid \mathbf{x})=p(\mathbf{y} \mid \mathbf{x}) p(\hat{\mathbf{x}} \mid \mathbf{y})$ が最も高くなる $\mathbf{y}$ を選択する. ただし, $m$ は分割 $\mathbf{y}$ における単語数である. セミマルコフ CRF 自己符号化器は連続する 2 単語間の遷移スコアを計算する遷移ネットワークと単語の生成確率を計算する単語ネットワークの 2 つのモジュールによって構成される. ある分割 $\mathbf{y}$ の遷移スコア $\phi(\mathbf{x}, \mathbf{y})$ を $\mathbf{y}$ における全ての連続する 2 単語間の遷移スコアの総和 $ \phi(\mathbf{x}, \mathbf{y})=\sum_{i=0}^{m} \tilde{\phi}\left(\mathbf{w}_{i}, \mathbf{w}_{i+1}\right) $ で定義し,分割生成確率 $p(\mathbf{y} \mid \mathbf{x})$ は $ p(\mathbf{y} \mid \mathbf{x})=\frac{\exp (\phi(\mathbf{x}, \mathbf{y}))}{Z} $ とする.ただし, $\mathbf{w}_{0}, \mathbf{w}_{m+1}$ はそれぞれ文の始端,終端を表すシンボル [BOS], [EOS], $Z$ は正規化定数である. また,y から元の文 $\hat{\mathbf{x}}$ が生成される確率 $p(\hat{\mathbf{x}} \mid \mathbf{y})$ を分割 $\mathbf{y}$ に含まれる単語の生成確率 $p_{\mathrm{w}}\left(\mathbf{w}_{i} \mid \mathbf{y}\right)$ を用いて, $ p(\hat{\mathbf{x}} \mid \mathbf{y})=\prod_{i=1}^{m} p_{\mathrm{w}}\left(\mathbf{w}_{i} \mid \mathbf{y}\right) $ で定義する. 遷移ネットワークは 3 層の MLP,単語ネットワー クは前向きLSTM と後ろ向きLSTM の 2 つからなるネットワークでそれぞれ構成する. ## 3.2.1 遷移スコア 連続する 2 単語間の遷移スコア $\tilde{\phi}\left(\mathbf{w}_{i}, \mathbf{w}_{i+1}\right)$ は $\mathbf{w}_{i}, \mathbf{w}_{i+1}$ のそれぞれの先頭の文字に対応する埋め込みべクトル $h_{i, 1}, h_{i+1,1}$ を結合したべクトルを遷移ネットワークに入力して得られる値であるとする。 なお,シンボル [BOS], [EOS] に対応する埋め込みはそれぞれモデルパラメータとして学習する.この遷移スコアの定義は, 学習の結果として, 真の単語について BERT のもつ潜在的情報がその先頭の文字に対応する埋め込みべクトルに現れるようになることを期待するものである. ## 3.2.2 単語生成確率 分割 $\mathbf{y}$ における単語 $\mathbf{w}_{i}=c_{i, 1}, \cdots, c_{i, k}$ の生成確率 $p_{\mathrm{w}}\left(\mathbf{w}_{i} \mid \mathbf{y}\right)$ を $ p_{\mathrm{w}}\left(\mathbf{w}_{i} \mid \mathbf{y}\right)=\frac{p_{\mathrm{f}}\left(\mathbf{w}_{i} \mid \mathbf{y}\right)+p_{\mathrm{b}}\left(\mathbf{w}_{i} \mid \mathbf{y}\right)}{2} $ とする.ここで $p_{\mathrm{f}}\left(\mathbf{w}_{i} \mid \mathbf{y}\right)$ は $[\mathrm{BOW}], c_{i, 1}, \cdots, c_{i, k-1}$ を入力, 先頭の文字 $c_{i, 1}$ に対応する埋め込みである $h_{i, 1}$ を初期隠れ状態としたときの前向き LSTM の $\mathbf{w}_{i}$ の生成確率であり, $p_{\mathrm{b}}\left(\mathbf{w}_{i} \mid \mathbf{y}\right)$ は $[\mathrm{BOW}], c_{i, k-1}, \cdots, c_{i, 1}$ を入力,末尾の文字 $c_{i, k-1}$ に対応する埋め込みである $h_{i, k-1}$ を初期隠れ状態としたときの後ろ向き LSTM の $\overleftarrow{\mathrm{w}_{\mathrm{i}}}$ の生成確率である. なお,[BOW] は単語の始端を表すシンボルであり, $\overleftarrow{\mathbf{w}_{\mathrm{i}}}$ は単語 $\mathbf{w}_{i}$ を反転させた文字列である. ## 3.2.3 目的関数 学習では入力文 $\mathbf{x}$ について可能な全ての分割に対する復元確率の和 $ \begin{aligned} p(\hat{\mathbf{x}} \mid \mathbf{x}) & =\sum_{\mathbf{y}} p(\mathbf{y} \mid \mathbf{x}) p(\hat{\mathbf{x}} \mid \mathbf{y}) \\ & =\frac{\sum_{\mathbf{y}} \exp \left.\{\phi(\mathbf{x}, \mathbf{y})+\sum_{i=1}^{m} \log p_{\mathrm{w}}\left(\mathbf{w}_{i} \mid \mathbf{y}\right)\right.\}}{\sum_{\mathbf{y}} \exp \{\phi(\mathbf{x}, \mathbf{y})\}} \end{aligned} $ の負の対数尤度 $-\log p(\hat{\mathbf{x}} \mid \mathbf{x})$ を目的関数とし,これを最小化する.この目的関数の最小化は $\mathbf{x}$ の可能な全ての分割について,尤度を向上させるようにモデルパラメータを変化させることに相当する. この過程で単語ではない部分文字列に対する単語生成確率や遷移確率も向上する. しかし,単語である部分文字列はそうでない部分文字列に比べて頻出すると考えられるため, 最終的には単語である部分文字列に対する単語生成確率や遷移確率が大きい状態で収束することが期待される. その結果として,正しい分割が予測できるようになると考えられる。 ## 3.2.4 動的計画法による学習・推論の高速化 長さ $n$ の文字列 $\mathbf{x}$ において可能な分割 $\mathbf{y}$ は $2^{n-1}$通りだけ存在する。そのため,全ての $\mathbf{y}$ について $p(\mathbf{y} \mid \mathbf{x})$ を求めてから $p(\hat{\mathbf{x}} \mid \mathbf{x})$ を計算する方法では,学習に指数時間を要する.そこで,動的計画法を用いることで多項式時間での学習を実現する.具体的には次のように $p(\hat{\mathbf{x}} \mid \mathbf{x})$ を求める. まず,文 $\mathbf{x}$ の $i$ 文字目から $j$ 文字目までの部分文字列を $\mathbf{x}_{i: j}$, 文 $\mathbf{x}_{i: j}$ について可能な分割のうち,末尾の単語の長さが $k$ のものを $\mathbf{y}_{i: j}^{k}$ とする. ここで, $n$ 以下の自然数 $t$ と末尾の単語の長さ $k$ について次の関数を定義する. $ \begin{aligned} & f_{D}(t, k)=\sum_{\mathbf{y}_{1: t}^{k}} \exp \left.\{\phi\left(\mathbf{x}_{1: t}, \mathbf{y}_{1: t}^{k}\right)+\sum_{\mathbf{w} \in \mathbf{y}_{1: t}^{k}} \log p_{\mathrm{w}}\left(\mathbf{w} \mid \mathbf{y}_{1: t}^{k}\right)\right.\}(7) \\ & f_{N}(t, k)=\sum_{\mathbf{y}_{1: t}^{k}} \exp \left.\{\phi\left(\mathbf{x}_{1: t}, \mathbf{y}_{1: t}^{k}\right)\right.\} \end{aligned} $ 関数 $f_{D}, f_{N}$ は文 $\mathbf{x}$ の始めの $t$ 文字である $\mathbf{x}_{1: t}$ についての可能な分割のうち, 末尾の単語の長さが $k$ である分割のみを対象とした場合の式 (6) の分子・分母に相当する。すなわち, $ p(\hat{\mathbf{x}} \mid \mathbf{x})=\frac{\sum_{k} f_{D}(n, k)}{\sum_{k} f_{N}(n, k)} $ である。関数 $f_{D}, f_{N}$ についての更新式をそれぞれ $ \begin{aligned} f_{D}(t, k)=\sum_{l} \exp \left.\{\log f_{D}(t-k, l)+\right. & \tilde{\phi}\left(\mathbf{w}_{t-k, l}^{\text {last }}, \mathbf{w}_{t, k}^{\text {last }}\right) \\ & \left.+\log p_{\mathrm{w}}\left(\mathbf{w}_{t, k} \mid \mathbf{y}_{1: t}^{k}\right)\right.\}(10) \\ f_{N}(t, k)=\sum_{l} \exp \left.\{\log f_{N}(t-k, l)+\right. & \left.\tilde{\phi}\left(\mathbf{w}_{t-k, l}^{\text {last }}, \mathbf{w}_{t, k}^{\text {last }}\right)\right.\} \end{aligned} $ とする. ただし, $\mathbf{w}_{t, k}^{\text {last }}$ は文 $\mathbf{x}_{1: t}$ における長さ $k$ の末尾の単語であり, $f_{D}(0,0)=1, f_{N}(0,0)=1$ とする. これらの更新式に従って $f_{D}(n, k), f_{N}(n, k)$ を求め, $p(\hat{\mathbf{x}} \mid \mathbf{x})$ を計算することで多項式時間での学習を実現する. 推論において $p(\hat{\mathbf{x}} \mid \mathbf{x})$ を最大化する $\mathbf{y}$ を求める際も以上の更新式で総和を取るところを最大値を取 るように変更することで,同様に多項式時間で計算する。 ## 3.2.5 モデルの学習 モデル全体を学習する前に,事前学習として BERT 部分を固定して 1 エポックだけ学習する.これは事前学習済み BERT のもつ情報が,事前学習されていない遷移ネットワーク及び単語ネットワークを含むモデル全体の最適化によって忘却されるのを抑止するための工夫である. また,予測する単語の長さを最大 $K$ 文字とする制限を設ける。これは任意の長さの単語を認めた場合に考えられる,訓練データセットに現れる文の一つ一つが単語であると学習するような局所解に陥ることを避けるためのものである。 ## 4 評価実験 提案手法による単語分割の精度を評価するために日本語を対象として実験を行った.ここでは,実験設定について述べた後,実験結果及びそれに対する考察を述べる. ## 4.1 実験設定 データセットは京都大学ウェブ文書リードコー パス $(\mathrm{KWDLC}){ }^{1}$ を用いた.KWDLC は日本語ウェブ文書を対象としたコーパスであり,その訓練デー タ,検証データ,テストデータはそれぞれ 12,271 件,1,585 件,2,195 件である。事前学習済み文字レベル BERT は日本語 Wilipedia 全体で学習した BERT-base-Japanese-char ${ }^{2}$ を用いた. 予測する単語の長さの最大値 $K$ は 5 とした. KWDLC のテストデータにおける単語の約 $99 \%$ が 5 文字以下であることを踏まえると,この制約のために分割精度が大きく損なわれる可能性は小さいと考えられる。 表 1 提案手法による単語分割の定量的評価. モデル全体の学習についてのエポック数を $5,10,15,20$ としたそれぞれの場合における結果を示す。 1) https://github.com/ku-nlp/KWDLC 2) https://huggingface.co/cl-tohoku/ bert-base-japanese-char 表 2 提案手法(エポック数を 10 とした場合)で得られた予測の例 学習のための最適化アルゴリズムは AdamWを用いた.また, AdamW のハイパーパラメータとして $\beta_{1}=0.9, \beta_{2}=0.999, \epsilon=10^{-8}, \lambda=0.01$ を用い,学習率は $2 \times 10^{-5}$ とした. モデル全体の学習についてのエポック数を $5,10,15,20$ としたそれぞれの場合について実験を行った。なお,いずれの場合においても, BERT 部分を固定した事前学習を 1 エポックだけ実施した。また,学習全体を通して BERT の入力側 8 層は固定した。 ## 4.2 実験結果 表 1 にモデル全体の学習についてのエポック数を 5,10,15,20としたそれぞれの場合におけるテストデータに対する分割結果の $\mathrm{F}$ 値, $\mathrm{P}$ 值, $\mathrm{R}$ 值を示す. エポック数が 10 の場合において $\mathrm{F}$ 值が最大 (63.5) となった。表 2 にエポック数 10 の場合のモデルで得られた予測の例を示す。いずれの例も,いくつかエラーが見られるものの概ね妥当な分割であるといえる. エラーの例としては読点(“、”)を直前の単語と結合しており,一つの単語として判別できていないことが挙げられる. 後処理でモデルの予測に関わらず読点を一つの単語として見なすようにすると,テストデータに対する $\mathrm{F}$ 値は 68.6 に増加した。 このことから,このモデルによる予測の多くで読点についてのエラーが生じていることがわかる. エポック数を 15,20 とした場合では,エポック数を 10 とした場合に比べて $\mathrm{F}$ 値が減少している. それぞれの場合において予測された単語の長さの分布 (図 2)から,学習が進むにつれて分割が細かくなっていくことが確認された.これがエポック数 15,20 の場合に分割精度が低下した大きな原因であると考えられる.ここで,妥当な分割が得られる状態で学習が収束せずに分割が過剩に細かくなっていく要因について考察する. 提案手法では分割 $\mathbf{y}$ をボトルネックとすることで,BERT の埋め込みべクトル $h_{i}$ が単語についての抽象的な表現を獲得することを期待している. しかし, 実際にはモデルが十分に柔軟であるために $h_{i}$ が入力文字についての具体的な表現を獲得,すなわち対応する文字 $c_{i}$ の情報をそのま 図 2 エポック数と予測単語長さの分布の関係. 左から順にエポック数 $5,10,15,20$ の場合のモデルが予測した単語の長さの分布であり,右端はテストデータの真の単語の長さの分布である.なお,6文字以上の単語については省略した. 学習が進むほど長さ 1 の単語が占める割合が増加し,分割が過剰に細かくなっていることが確認できる. ま有するように学習が進んでいる可能性がある. べクトル $h_{i}$ が $c_{i}$ の情報をそのまま有していると, $h_{i}$ を初期隠れ状態として与えられる前向き・後ろ向き単語ネットワークにとって,予測対象の文字列の先頭・末尾の文字である $c_{i}$ の予測は他の文字の予測に比べて非常に容易であるというバイアスが生じる. この結果として,学習が進むにつれて長さ 1 の単語の生成確率が過大に評価されるようになり,分割が過剩に細かくなっていくのだと考えられる。 ## 5 おわりに 本研究ではモデルが参照するテキストの量を増加させるために事前学習モデルとして文字レベル BERTを導入し,また,入力文全体を見て分割を予測するためにセミマルコフ CRF 自己符号化器を設計した. 提案手法により $\mathrm{F}$ 値 63.5 の概ね妥当な単語分割が得られた。 今後の課題としては, 中国語等の他言語への適用,さらなる分割精度向上のための訓練データセットの大規模化がある.また,実験で明らかになった読点についてのエラーや分割が過剩になっていく問題について調査し, 改善を図りたい. さらに,単語分割だけでなく品詞クラスタリングも同時に行うモデルの設計も検討したい. ## 参考文献 [1] Sharon Goldwater, Thomas L. Griffiths, and Mark Johnson. A bayesian framework for word segmentation: Exploring the effects of context. Cognition, Vol. 112, No. 1, pp. 2154, 2009. [2] Daichi Mochihashi, Takeshi Yamada, and Naonori Ueda. Bayesian unsupervised word segmentation with nested Pitman-Yor language modeling. In Proceedings of the Joint Conference of the 47th Annual Meeting of the ACL and the 4th International Joint Conference on Natural Language Processing of the AFNLP, pp. 100-108, Suntec, Singapore, August 2009. Association for Computational Linguistics. [3] Zhiqing Sun and Zhi-Hong Deng. Unsupervised neural word segmentation for Chinese via segmental language modeling. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, October-November 2018 [4] Kazuya Kawakami, Chris Dyer, and Phil Blunsom. Learning to discover, ground and use words with segmental neural language models. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 6429-6441, July 2019. [5] Lihao Wang, Zongyi Li, and Xiaoqing Zheng. Unsupervised word segmentation with bi-directional neural language model. arXiv preprint arXiv:2103.01421, 2021. [6] CM Downey, Fei Xia, Gina-Anne Levow, and Shane Steinert-Threlkeld. A masked segmental language model for unsupervised natural language segmentation. arXiv preprint arXiv:2104.07829, 2021. [7] Yile Wang, Leyang Cui, and Yue Zhang. Does Chinese BERT encode word structure? In Proceedings of the 28th International Conference on Computational Linguistics, December 2020. [8] Waleed Ammar, Chris Dyer, and Noah A Smith. Conditional random field autoencoders for unsupervised structured prediction. In Advances in Neural Information Processing Systems, Vol. 27. Curran Associates, Inc., 2014.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT1-5.pdf
# 小説本文から抽出した人物情報の関係抽出 岡 裕二 ${ }^{1}$ 安藤 一秋 ${ }^{2}$ 1 香川大学大学院工学研究科 2 香川大学創造工学部 s20g460@stu.kagawa-u.ac.jp ando.kazuaki@kagawa-u.ac.jp ## 概要 本稿では,小説の本文テキストから抽出される人物情報を体系化することを目的に,同一文に出現する人名と人物情報のみを関係抽出の対象に設定し,ルールベースモデルと深層学習モデルの 2 つの関係抽出モデルの性能を検証する.性能評価の結果,ルールベースモデルと深層学習モデルは共に precision が recall より高い結果となった. micro-F1 については,ルールベースモデルが深層学習モデルを約 9.7 ポイント上回った. ルールベースモデルでは,近距離で頻出する関係しか抽出できないが,深層学習モデルでは遠距離の関係も抽出できることを確認した。 ## 1 はじめに 電子書籍の普及や小説投稿サイトの増加などに伴い,膨大な数の小説が出版・投稿されるようになった.これは読みたい小説が増えることを意味する反面,膨大な小説の中から個人の埕好に適した小説を見つけることが難しくなったともいえる.書籍を取り扱う $\mathrm{EC}$ サイトや小説投稿サイトでは,作者や各種タグなど,特定の情報に基づく検索機能を利用できるが,小説それぞれの内容に基づいた検索機能は実装されていない.また,携帯端末を利用して隙間時間に小説を楽しむ,複数の小説を同時に読むなど,個人毎の読書スタイルが多様化してきた. 読書スタイルの多様化により,まとまった時間に 1 つの小説を読む場合と比べて,登場人物の特徴や関係などを失念したり,読書再開時に内容を思い出すために,一部を読み直す機会なども増えている。 個人の嗜好は,「メリーバッドエンド」や「仲間が敵になる」など,展開に関する嗜好と,「角が生えたちびっ子」や「金髪の用心棒」などの登場人物に関する嗜好に分けられる. 小説テキストから登場人物に関する情報を抽出して利用できるようになれば,人物に関する嗜好に基づいて小説を検索できるよう になる。また,読書スタイルの多様化に対しては,登場人物情報を利用して,読んだところまでのあらすじや人物相関図を生成・提示することで読書支援が可能になる.そこで本研究では,小説内の人物情報を抽出して体系化することで,人物情報を用いた小説検索,あらすじ生成,人物関係図生成などの実現を目指している。 著者らの先行研究 [1] では,商業小説のあらすじテキストで学習した系列ラベリングモデルを Web 小説の本文テキストに適用し,訓練データおよび提案モデルの小説本文に対する人物情報の抽出性能を検証した。本稿では,小説の本文テキストから抽出される人物情報を体系化することを目的に,同一文に出現する人名と人物情報のみを関係抽出の対象に設定し,ルールベースモデルと深層学習モデルの 2 つの関係抽出モデルの性能を検証する。 ## 2 実験用データセットの構築 関係抽出手法の性能評価に利用する実験用データセットの構築法について述べる。 ## 2.1 対象データ 本稿では,著者らの先行研究 [1] で収集した「小説家になろう」サイトに掲載されているファンタジー小説の人気上位 250 件から無作為に選んだ 2 作品と,馬場らの研究 [2] で使用された「青空文庫」に収録されている 4 作品,計 6 作品の本文を用いる. 「青空文庫」にて公開されている作品にはそれぞれ図書カードという Web ページが紐づいているため, 図書カードページからルビつきのテキストファイルをダウンロードし,ルビや注釈など本文以外の要素を排除した. その後,我々の先行研究 [1] と同様の手順で固有表現タグを付与する.その後,人名と人物情報の正解関係を示す情報として,各タグに対して本文テキスト内の人名の中で最長のものを付与する。以下に手順と例を示す。 1.「青空文庫」から収集した小説の本文を 1 文ずつ形態素解析する. 2. 各形態素に対して,以下のルールでタグ付けする. タグの形式には IOB 2タグ形式を用いる. - NAME: 名前 例:西尾,信長,シャルル・マーニュ - MF: 性別 例:男,美男子,美女,乙女,女の子 - AGE: 年齢 例:16 歳,少年,お婆さん,幼い,高校生 - STATE: 容姿や特性 例: 白い髮, 元気, 高飛車, 天才, 職人気質 - PRO: 職業や立場 例:竜飼い,仙女,最高権限者,メンバー - AFF: 組織や種族名 例:鳳凰学園杖術部,討伐軍,エルフ -OTHER: 以上に当てはまらない人物情報例:異星人,神,元凶,気鋭,ペンギン - PLACE: 地名や建物名 例:ム一大陸, 日本,礼拝堂,魔法学校 - REL: 人物関係表現 例: 兄, 親, 敵, 相棒, 結婚 - O: それ以外 3. IOB2 タグ形式で B タグが付与されているものについて,当該人物情報に紐づく本文テキスト内の人名の中で,最長のものを付与する.紐づく人名が本文テキスト内に存在しない人物情報には「不明」を付与する。 「小説家になろう」から選択した 2 作品については,我々の先行研究 [1] で上記の固有表現タグを付与したデータに上記の処理 3 で紐づく人名を付与したものを利用する. 各作品の総文数と各タグの出現数, 関係文数 (人名とほか人物情報が同一文内に出現する文の数)を表 1 に示す. ## 2.2 データセットの構築 関係抽出モデルの性能評価に用いるデータセットの構築法を以下に示す. 1. 小説本文を 1 文ずつ形態素解析および係り受け解析する.係り受け解析には,後で述べる深層学習モデルの関係から安岡らの論文 [3] の Universal Dependencies(UD) に基づく係り受け解析器 [4]を利用する。なお,固有表現タグに関 する情報は,上記の結果に準拠させる。 2. 深層学習モデルの訓練及び性能評価のため,1 文内に人物情報が 2 つ以上存在する文に対しては,人名と人物情報が同一人物に紐づく場合「exist」,紐づかない場合「no_relation」タグを追加し,人名と対象人物情報タグの最初と最後の形態素の位置を記録する.上記は, 1 文内の人名と人物情報の組み合わせの数だけ作成する. 上記手順により作成されたデータ例を表 2 に示す. ## 3 関係抽出モデル 本稿では, $n$-gram によるルールベースモデルと, GCNs (Graph Convolutional Networks) の一種である AGGCNs (Attention Guided Graph Convolutional Networks)モデルを用いて,人名・人物情報間の関係を抽出する手法を検討する。なお,対象となる人物情報は, MF (性別), AGE (年齢),STATE(容姿や特性), PRO (職業や立場), AFF (種族や所属), OTHER(その他の人物情報)とする。 ## 3.1 ルールベースモデル 人名と人名に紐づく人物情報が近距離に出現する事例から関係抽出するルールを検討するため,人名とそれに紐づく人物情報およびそれらの間に出現する形態素のパターンを $n$-gram で調査する. 調査対象は,表 1 に示す関係文数の総計 290 文とする. まず,データセット中に,人名とその人名に紐づく人物情報の間に形態素が存在しない事例 (2-gram) を調査した結果, 83 件存在することを確認した. 次に,人名とその人名に紐づく人物情報の間に 1 形態素以上含む, $n=3 \sim 5$ までの $n$-gram の頻度を調査した. その結果を表 3 に示す. 表 3 より,3-gram の 「の」,「、」,「な」以外は頻度が 1 件となり,極端に少ないことがわかる.以上の結果より,本稿では,人名に形態素を挟まず隣接する,または「の」,「、」,「な」が間に存在する人物情報を人名に関係のある情報として紐づけることにする。 ## 3.2 深層学習モデル ルールベースモデルでは,人名の近距離に出現する人物情報を抽出できるが,人名と人物情報が離れて出現する場合は,その関係を抽出できない.そこで,深層学習モデルでは,AGGCNs[5]を用いて,距離にかかわらず 1 文内に出現する 2 つ人物情報間に関係があるか否かを推定することを目指す。 表 1 各作品の文数と各タグの出現数 & 382 & 15 & 101 & 18 & 16 & 37 & 12 & 5 & 2 \\ 表 2 作成したデータセットの例 表 3 人名・人物情報間の単語群の出現数 & を着た (1) & の名は (1) & であった (1) & & \\ AGGCNs は,文中の単語同士で構築される完全な依存木構造から, 関係抽出に有用な関連部分構造に注目する方法を学習するソフトプルーニング手法である. AGGCNs のモデル図 [5] を図 1 に示す. AGGCNs はグラフを表現するノード埋め込みと隣接行列を入力とする $\mathrm{M}$ 個の三層ブロックから構成されている. Attention Guided 層では単語同士の依存関係から Multi-Head Attentionを用いて Attention Guided 隣接行列を $\mathrm{N}$ 個生成する. Densely Connected 層では前層で得られた $\mathrm{N}$ 個の行列を別々の密結合層に入力し,最終層で線形結合する。 図 1 AGGCNs のモデル図([5] より引用) AGGCNs は,その手法を提案した著者が GitHub でコードを公開 [6] しているので,そのコードおよびパラメータを変更し,関係抽出モデルを実装した. ハイパーパラメータのうち,RNN 2 層,バッ チサイズは 4,各種隠れ層は 200 次元に変更し,他の設定はデフォルト設定を採用する。また,最適モデルを選ぶ指標は,「開発データに対する F 值が一番大きくなった場合」から「開発データに対する偽陽性と偽陰性の和が一番小さくなった場合」に変更し,品詞や依存関係表現の ID は日本語 Universal Dependencies に合わせたものに変更する。単語べクトルとして用いる分散表現には,日本語 Wikipedia の本文全文で事前学習されたもの [7] を利用する。事前学習に用いたパラメータを表 4 に示す. 表 4 事前学習した単語分散表現のハイパーパラメータ ## 4 評価実験 ## 4.1 評価方法 ルールベースモデルの抽出性能は,2.1 節で付与した,各種人物情報に紐づく人名から正解辞書を作成し,ルールベースモデルでの抽出結果と正解辞書との一致率で評価する。深層学習モデルの抽出性能は,2.2 節で構築したデータセットの「exist」タグを正例,「no_relation」タグを負例として評価する。 precision, recall, F 值(micro-F1)を評価尺度とし,深層学習モデルについては 10 分割交差検証で評価 する. データセットには,表 1 の関係文数の総計 290 文を対象に,2.2 節に基づいて構築した 542 文を,訓練データ:開発データ:テストデータ $=7: 2: 1$ の割合で用いる。 ## 4.2 実験結果と考察 実験結果を表 5 に示す。表 5 より,ルールベースモデルと深層学習モデルは共に precision が高いことが確認できる.また,micro-F1 は,ルールベースモデルが深層学習モデルを約 9.7 ポイント上回った. 表 56 作品に対する各手法の性能 本稿では,近距離の関係のみを抽出対象に設定し,データセット中に頻出するパターンをもとに関係抽出ルールを作成した. 実験の結果, $83.1 \%$ の precison が得られたことから, 近距離で頻出する関係を正しく抽出できたといえる。しかし,ルールの網羅性の問題から recall は, $54.1 \%$ に留まった。ルー ルベースモデルの抽出エラーを分析した結果,人名の近距離に人物情報が出現する場合でも,「ニコルズ博士、エピキュロス」のように一文内に二つ以上の人名が隣接する場合,「ニコルズ」,「エピキュロス」両名に「博士」が紐づくといったミスが確認された. これに関しては,人物情報と人名の物理的な距離を指標にすることで改善できる可能性がある。 また,「ミニョー父子銀行 (AFF) の行員 (PRO)、アドルフ (NAME)」のように,人物情報が連続して出現する場合,ルールベースモデルでは,人名に近い人物情報しか紐付けられない。人物名と人物情報の記述スタイルには多様性があり,単純なルールベー スでの限界も見えた。 深層学習モデルに関しては,ルールベースモデルでは抽出できない 4-gram 以上の距離がある人物情報に対して関係を抽出できることを確認できた。しかし,ルールベースモデルよりも recall が約 2.7 ポイント低いことから,近距離に対する抽出性能については,ルールベースモデルが深層学習モデルの性能を上回っていると考えられる。 よって,3-gram 以内の近距離はルールベース主体,4-gram 以上の遠距離は深層学習モデルというハイブリッドモデルを構築することで,抽出性能を向上できる可能性がある.また,本稿での実験では,深層学習モデルに対表 6 人名と紐づく人物情報が出現する場所と割合 & 22.52 & 77.48 \\ して 542 文という少量のデータセットによる実験となったため,今後はデータセットを拡充した実験が必要である. 本実験では,同一文に出現する人名と人物情報のみを関係抽出の対象に絞ったが,人名と人物情報が異なる文に存在する場合もある。 そこで,人名と紐づく人物情報が同一文内に存在するのか,または別文に存在するのかの割合を調査した。その結果を表 6 に示す. 表 6 より,人名と人物情報がそれぞれ別文に存在する場合が少なくとも約 4 割から約 8 割存在することがわかる.今後は,「彼」や「彼女」といった代名詞を手掛かりに,人名が出現しない文に出現する人物情報に対して,関係を抽出する手法やゼロ代名詞への対応について検討する必要がある. ## 5 おわりに 本稿では,小説の本文テキストから抽出される人物情報を体系化するため,同一文に出現する人名と人物情報のみを関係抽出の対象に設定し,ルールベースモデルと機械学習モデルの 2 つの関係抽出モデルの性能を検証した. 性能評価の結果,ルールベースモデルと深層学習モデルは共に precision が recall より高い結果となった. micro-F1 については, ルールベースモデルが深層学習モデルを約 9.7 ポイント上回った.ルールベースモデルでは,近距離で頻出する関係しか抽出できないが,深層学習モデルでは遠距離の関係も抽出できることを確認した。 今後の課題として,まずデータセットを拡充する必要がある。また,人名ではなく代名詞が利用される文やゼロ代名詞の文などから関係を抽出する手法や,複数文にまたがる人名・人物情報の関係を抽出する手法について検討する。 ## 参考文献 [1] 岡裕二, 安藤一秋. 小説あらすじを用いて学習した系列ラベリングモデルによる小説本文からの人物情報抽出の性能検証. 言語処理学会第 27 回年次大会発表論文集, 2021. [2] 馬場こづえ, 藤井敦. 小説テキストを対象とした人物情報の抽出と体系化. 言語処理学会第 13 回年次大会発表論文集, 2007 . [3] 安岡孝一. 世界の universal dependencies と係り受け解析ツール群. 第 3 回 Universal Dependencies 公開研究会, 2021 . [4] UD 係り受け解析器, 2021. https://colab. research. google.com/github/KoichiYasuoka/deplacy/blob/ master/demo/2021-06-22/supar-ja.ipynb. [5] Zhijiang Guo, Yan Zhang, and Wei Lu. Attention guided graph convolutional networks for relation extraction. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, 2019. [6] AGGCN の github リポジトリ, 2019. https://github. com/Cartus/AGGCN. [7] 日本語 Wikipedia エンティティベクトル, 2007. http://www.cl.ecei.tohoku.ac.jp/ m-suzuki/ jawiki_vector/.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT1-6.pdf
# 単語正規化による表記ゆれに頑健な BERT モデルの構築 勝田 哲弘 ${ }^{1}$ 林 政義 ${ }^{1}$ 山村 崇 ${ }^{1}$ Tolmachev Arseny ${ }^{1}$ 高岡一馬 1 内田佳孝 1 浅原 正幸 ${ }^{2}$ 1 株式会社ワークスアプリケーションズ・エンタープライズ 2 人間文化研究機構 国立国語研究所 katsuta_a@worksap.co.jp ## 概要 近年、様々な自然言語処理タスクで大規模な事前学習済みの言語モデルである BERT による飛躍的な精度向上が示されている。しかし、日本語テキストには同一の語が複数の表記で出現することが多く、英語テキストでの学習と比べその影響は自明ではない。そこで我々は形態素解析器による単語正規化を行い、表記ゆれを考慮した BERT モデルの構築を行った。また下流タスクにおいて、提案手法が表記ゆれに対して出力の一貫性を保ちつつ、正規化をしない従来の BERT モデルと同程度の精度であることを示した。 ## 1 はじめに 大規模な事前学習済みの言語モデル BERT [1] を利用することで自然言語処理の様々なタスクで飛躍的な精度向上が示されている。その一方、Ribeiro ら [2] は BERT モデルが同義語による摂動などで精度を低下させることを実験の中で示している。 日本語テキストには同一の語が複数の表記で出現することが多い。「引っ越し」「引越し」のように部分文字列を共有するものだけでなく、「酢橘」「すだち」のように全く異なる文字列に変化するものもあり、同義語と同様にモデルへの影響が予想される。 BCCWJ を対象とした調査では WEB・書籍上で約 1 割の語に表記ゆれが存在する [3]。 そこで我々はコーパスの前処理として形態素解析器 Sudachi [4] の単語正規化を利用し、表記ゆれに頑健な BERT モデルの構築を行った。また、下流タスクで表記ゆれによる出力の一貫性を担保しつつ正規化をしない BERT モデルと同程度の精度であることを示した。 現在、chiTra ${ }^{1)}$ として Sudachiを利用した単語正規化の機能をもつ Hugging Face ${ }^{2}$ 互換のトークナイザーを公開している。今後は本研究で提案する表記ゆれに頑健な事前学習済み BERT モデルを公開する予定である。 ## 2 関連研究 BERT [1] は平文から 2 つの事前学習タスク (Masked Language Model, Next Sentence Prediction)を学習し、様々な応用タスクに適応して精度向上に貢献している。事前学習モデルの評価では GLUE [5] やSQuAD2.0 [6] が用いられることが多く、複数の自然言語処理のタスクで評価される。Ribeiro ら [2] はソフトウェアエンジニアリングの動作テストから着想を得て、モデルを評価するためのチェックリストを提案している。その中でも Invarianceでは入力の変化に対して出力がどれだけ不変であるかを評価している。入力に対して同義語による置換を行うと彼らが実験で使用した BERT モデルでは $13.1 \%$ 予測結果のゆれが生じることが示されている。この結果から日本語における表記ゆれも予測結果に影響を与えると推測される。 ## 3 Sudachi による単語正規化 Sudachi 形態素辞書では表記ゆれに対応するため登録語ごとに正規化表記が付与されている。この正規化表記を用いて単語正規化を行う。例として以下のようなものが正規化の対象となる。 - 送り違い:打込む $\rightarrow$ 打ち込む ・字種:かつ井 $\rightarrow$ カツ井 - 異体字:附属 $\rightarrow$ 付属 ・誤用:シュミレーション $\rightarrow$ シミュレーション ・縮約:ちゃあ $\rightarrow$ ては ・翻字 : test $\rightarrow$ テスト  表 1 各正規化による出力例 表 2 実験で使用した日本語 Wiki-40B の学習データの統計値 ・活用形:泳い(だ) $\rightarrow$ 泳ぐ(た) - 可能動詞:泳げる $\rightarrow$ 泳ぐ ただし、「あく」から「空く、開く、明く」など曖昧性解消を必要とする正規化は行われない。 この正規化には活用形や可能動詞の正規化も含まれており、単純に利用するとこれらの情報が失われてしまう。このような強い正規化は事前学習や下流タスクに悪影響を与える可能性がある。そこで正規化の強さの影響をみるために、下記 4 つのルール毎に学習を行い、正規化の適用範囲を調整する。 ## surface 正規化をせず入力をそのまま出力する ## normalized_and_surface 入力単語の内、活用語は見出し語を、それ以外は正規化表記を出力する ## normalized_conjugation 入力単語を全て正規化表記で出力し、活用形のある「動詞、助動詞、形容詞」は活用語尾を入力の活用形に合わせる ## normalized 入力単語を全て辞書の正規化表記で出力するそれぞれのルールを適用した出力例を表 1 に示す。normalized_conjugationでは「とどけ」を「届け」 に正規化を行いつつも活用情報を残しているが、 normalized の出力では動詞の活用情報は表層から消えていることが見て取れる。 ## 4 BERT モデルの事前学習 ## 4.1 コーパスのクリーニング 事前学習用コーパスとして、比較のため既に公開されている日本語 BERT の事前学習モデルでも用いられているWikipediaを使用した。ただし、 Wikipedia 中のページには十分なテキストが含まれ ていない不要な非コンテンツ(曖昧さ回避・リダイレクト・削除済み・非エンティティ)も存在している。そこで、これらの非コンテンツのページが除去された日本語 Wiki-40B [7] を用いた。実験では、 Wiki-40B を段落ごとに分割して 1 文書として扱い、文書内のテキストに対して文分割を適用した。文分割器には、Bunkai ${ }^{3)}[8]$ を用いた。 Raffel ら [9] は、下流タスクに有用ではないと考えられる定型文や不快な言葉(NG ワード)、ソースコードなどをテキストから除外することで、下流夕スクにおける事前学習モデルの精度が向上することを報告している。本実験ではこれに倣ってクリー ニング処理を適用した。詳細は付録の表 6 に示す。 NG ワードとして、C4 [9] で用いられているリスト4) と稲葉 [10] が用いたリストから、著者 2 名によって NG ワードとして妥当だと考えられる 210 語を選定し利用した。 表 2 に、本実験で使用した事前学習用データセットの統計值を示す。Train データに対してクリーニング処理を適用すると、総文書数が元の半分になっている一方で、総文数は約 $21 \%$ しか減少していない。これは、1、2 文からなる文書が元のデータセット中に多く出現していたためと考えられる。 ## 4.2 事前学習 WordPiece による語彙の学習及び BERT の事前学習の際に 3 節で述べた 4 つの正規化手法を適用し、 それぞれのモデルごとに WordPiece による 32,000 語の選定とその語彙でサブワード化されたコーパスでの事前学習を行った。形態素解析には SudachiPy ${ }^{5}$ 3) https://github.com/megagonlabs/bunkai 4) https://github.com/LDNOOBW/ List-of-Dirty-Naughty-Obscene-and-Otherwise-Bad-Words/ blob/master/ja 5) https://github.com/WorksApplications/sudachi.rs/tree/ develop/python を使用して C 単位で解析している。 BERT の事前学習は NVIDIA の実装6)を利用し、 NVIDIA RTX A6000 4 枚使用して学習した。学習は 2 段階で行われ phase 1 では max_lengthを 128 として学習し、phase2では max_lengthを 512 に拡張して再学習した。使用したハイパーパラメータを表 3 に示す。 ## 5 実験設定 ## 5.1 評価対象 本実験では正規化による下流タスクへの影響及び入力の表記化に対する頑健性の評価を行うために以下の 2 つについて調査する。 ## 下流タスクへの影響 正規化を行った影響を調査するため、 4.2 節で構築した BERT モデルごとに下流タスクで fine-tuning した際の精度を評価する。下流タスクについては 5.3 節で後述する。 fine-tuning およびハイパーパラメータの探索範囲については BERT 元論文 [1] に従った。 ## 表記ゆれに対する頑健性の評価 提案手法において入力に表記ゆれが発生しても出力が変化しないケースの量を評価する。下流タスクのテストデータの文章を正規化することで表記ゆれを疑似的に生成し、表記ゆれの有無でモデルの出力がどの程度変化するかを計測する。 自然な表記ゆれを生成するため、正規化手法には提案手法中で正規化の度合いが最も弱い normalized_and_surfaceを用いる。 6) https://github.com/NVIDIA/DeepLearningExamples/tree/ master/TensorFlow2/LanguageModeling/BERT ## 5.2 ベースライン ベースラインとして、公開されている日本語BERT モデルから、東北大 BERT $^{7}$ ) (cl-tohoku/bert-basejapanese-whole-word-masking)、京大 BERT[11] (BASE WWM 版)、NICT BERT(BASE BPE あり)の 3 つを比較に用いた。それぞれの詳細を付録の表 7 に示す。 ## 5.3 評価タスク 日本語の言語モデルの評価においては英語での GLUE や SQuAD のような基準となるタスク群がないため、類似する日本語のデータセットとして以下の3つを用いる。 ## Multilingual Amazon Reviews Corpus (Amazon) [12] 文章分類タスクとしてアマゾンが公開しているデータセットを用いる。ここでは日本語のサブセットのみを対象とし、レビュー本文から評価の星数 (1-5)を推定する。評価指標には精度 (Acc) および平均二乗誤差 (MSE) を用いる。 ## 京都大学常識推論データセット (KUCI) [13] 常識推論タスクとして京都大学が公開しているデータセットを用いる。これは文脈文に続く内容として最も適切な文を 4 つの選択肢から選ぶタスクである。本データは Juman++による形態素解析が行われているため、前処理として生文に戻す。評価指標には精度 (Acc) を用いる。 ## 解答可能性付き読解 (RCQA) [14] 読解タスクとして東北大が公開しているデータセットを用いる。これは質問・解答・文章の組に対し、文章から解答を推定できるかのスコアが付与されたデータである。ここでは NICT BERT ${ }^{8}$ の評価実験設定にならい、解答可能性スコアが 2 未満のものを解答なしとして SQuAD2.0 形式のデータへと変換し、データの年代によって 2009 年までを訓練、2009 年代を開発、2010 年以降を評価データと分割して用いる。評価指標には出力と正解単語列の完全一致率 (EM) および F1 スコア (F1)を用いる。 ## 6 結果と考察 表 4 に下流タスクでの精度を示す。提案モデルは正規化の有無に関わらず既存モデルと同程度の精度を達成している。全体的に NICT-BERT が良い性能  表 4 各タスクでの性能 ベースラインモデルと今回学習したモデルのそれぞれで最も性能が良いものを太字で示している。 表 5 入力の normalized_and_surface 正規化による出力変化 $(\%)$ 数値は、出力が変化したサンプル(うち元々正答であったもの、正規化後に正答となったもの)。 いずれも総サンプル数に対する割合。なお出力変化の総計には誤答から誤答への変化も含まれる。 となっているが、これは NICT-BERT の事前学習時の訓練量が多く、より学習が進んでいることによるものと思われる。 提案モデルに注目すると、各タスクについて正規化ありのモデルのいずれかが surface モデルと同等以上の性能を達成しており、正規化を行うことによる精度への悪影響は起こっていないことが確認された。しかしどの正規化手法の性能が高くなるかは夕スクによって異なっており、汎用的に精度を向上させる手法の特定にまでは至らなかった。 表 5 に正規化による疑似表記ゆれを施した入力を与えた時の各モデルの出力変化を示す。surface モデルではサンプルのおよそ 5-10\%で出力が変化しており、4-8\%ではタスクにおける正誤も変化している。各タスクで良い性能であった既存モデルでも同様の傾向が確認でき、通常の学習では表記ゆれには対応しきれないことが推測できる。 提案手法ではモデルに含まれる正規化機能により、これらの出力変化に対する頑健性を得ることができている。 ## 7 まとめ・今後の予定 今回の実験では正規化手法ごとの性能はタスクによって上下した。文書分類、常識推論、読解のタスクについて評価したが、品詞推定などより文法を考慮する必要のあるタスクなどでも正規化の影響を調査したい。また、タスクに依らず良い性能となる正規化手法は存在するのか、特定のタスクに合わせた手法の選択は可能かといったことや同義語、フィラーの処理など正規化の適用範囲を広げることによる影響についても調査したい。 今回利用した表記渒れ生成方法は、提案手法にやや有利なものになっている。手法やデータセットを工夫することでより適切な表記ゆれへの頑健性の評価を行いたい。 本研究では単語正規化を考慮した表記ゆれに頑健な BERT モデルの構築を行った。そして、下流タスクで表記ゆれによる出力の一貫性を担保しつつ正規化をしない BERT モデルと同程度の精度であることを示した。 学習に使用したスクリプトは GitHub で公開している9)。今後、学習したモデルも公開する予定である。本実験では、Wiki-40B を使用して BERT の事前学習をおこなった。言語モデルの学習はより大規模なコーパスであるほど良いとされており [15]、今後本提案手法の正規化を適用した国語研日本語ウェブコーパス (NWJC) [16] で学習した BERT モデルを公開する予定である。  ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Marco Tulio Ribeiro, Tongshuang Wu, Carlos Guestrin, and Sameer Singh. Beyond accuracy: Behavioral testing of NLP models with CheckList. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4902-4912, Online, July 2020. Association for Computational Linguistics. [3] 小椋秀樹. コーパスに基づく現代語表記のゆれの調査一 bccwj コアデータを資料として一. 第 1 回コー パス日本語学ワークショップ, pp. 321-328, 2012. [4] Kazuma Takaoka, Sorami Hisamoto, Noriko Kawahara, Miho Sakamoto, Yoshitaka Uchida, and Yuji Matsumoto. Sudachi: a japanese tokenizer for business. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Paris, France, may 2018. European Language Resources Association (ELRA). [5] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel R. Bowman. GLUE: A multitask benchmark and analysis platform for natural language understanding. In International Conference on Learning Representations, 2019. [6] Pranav Rajpurkar, Robin Jia, and Percy Liang. Know what you don't know: Unanswerable questions for SQuAD. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 784-789, Melbourne, Australia, July 2018. Association for Computational Linguistics. [7] Mandy Guo, Zihang Dai, Denny Vrandečić, and Rami AlRfou. Wiki-40B: Multilingual language model dataset. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 2440-2452, Marseille, France, May 2020. European Language Resources Association. [8] Yuta Hayashibe and Kensuke Mitsuzawa. Sentence boundary detection on line breaks in Japanese. In Proceedings of the Sixth Workshop on Noisy User-generated Text (W-NUT 2020), pp. 71-75, Online, November 2020. Association for Computational Linguistics. [9] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [10] 稲葉通将. おーぷん 2 ちゃんねる対話コーパスを用いた用例ベース対話システム. 第 87 回言語・音声理解と対話処理研究会 (第 10 回対話システムシンポジウム), 人工知能学会研究会資料 SIG-SLUD-B902-33, pp. 129-132, 2019. [11] 柴田知秀, 河原大輔, 黒橋禎夫. Bert による日本語構文解析の精度向上. 言語処理学会第 25 回年次大会発表論文集, 2019. [12] Phillip Keung, Yichao Lu, György Szarvas, and Noah A. Smith. The multilingual Amazon reviews corpus. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 4563-4568, Online, November 2020. Association for Computational Linguistics. [13] Kazumasa Omura, Daisuke Kawahara, and Sadao Kurohashi. A method for building a commonsense inference dataset based on basic events. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2450-2460, Online, November 2020. Association for Computational Linguistics. [14] 鈴木正敏, 松田耕史, 岡崎直観, 乾健太郎. 読解による解答可能性を付与した質問応答データセットの構築. 言語処理学会第 24 回年次大会発表論文集, 2018. [15] Tom Henighan, Jared Kaplan, Mor Katz, Mark Chen, Christopher Hesse, Jacob Jackson, Heewoo Jun, Tom B Brown, Prafulla Dhariwal, Scott Gray, et al. Scaling laws for autoregressive generative modeling. arXiv:2010.14701, 2020. [16] Masayuki Asahara, Kikuo Maekawa, Mizuho Imada, Sachi Kato, and Hikari Konishi. Archiving and analysing techniques of the ultra-large-scale web-based corpus project of ninjal, japan. Alexandria, Vol. 26, No. 1-2, pp. 129-148, 2014. ## A 付録 ## A. 1 コーパスのクリーニング 4.1 節で行っているクリーニング処理を以下に示す。 表 6 学習コーパスのクリーニング処理一覧 ## A. 2 比較対象のモデル詳細 5.2 節でべースラインとして採用したモデルの詳細を以下に示す。 表 7 モデル詳細 ## A. 3 正規化の例 5.1 節で表記ゆれの生成に用いた normalized_and_surface による正規化の例を以下に示す。 表 8 normalized_and_surfaceによる正規化 3 つ目の例でコバルトの元素記号"Co"が"CO"に変換されるなど、不適切な変換も含まれる。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT1-7.pdf
# 日本語固有表現抽出における BERT-MRC の検討 橋本航 ${ }^{1}$ 笛木正雄 1,2 黒木裕鷹 1 高橋寛治 1 ${ }^{1}$ Sansan 株式会社 2 東工大工学院経営工学系 \{wataru.hashimoto, fueki, kuroki, ka.takahashi\}@sansan.com ## 概要 固有表現抽出は,テキスト中から人名や組織名などの固有表現を抽出する技術である。近年は, BERT を始めとした事前学習モデルをべースとしたアプローチの発展が著しい. 中でも BERTを用いた機械読解 (Machine Reading Comprehension; MRC) として固有表現抽出を解くモデルである BERT-MRC は,複数の英語データセットにおいて最高性能を示している。本稿では,日本語データセットを対象にして BERT-MRC の精度検証やエラー分析を行い,有効性を検討した. その結果,BERT-MRC は精度としての有効性は確認されなかったものの, 固有表現抽出と機械読解形式とれぞれの場合で有効性を示すケースを確認することができた. ## 1 はじめに 固有表現抽出 (Named Entity Recognition; NER) は, テキスト中から人名や組織名など固有表現を抽出する,自然言語処理において基礎的かつ重要な技術である. 固有表現抽出は個人情報のマスキングや文書からの情報抽出などに用いられ,Sansan 株式会社が提供する営業 DX サービス「Sansan」1) や名刺アプリ $\lceil\text { Eight }\lrcorner^{2}$ においてもニュース記事中から抽出した企業名をキーとしてニュース配信に用いている. 近年は,事前学習済みの言語モデルである BERT[1]を始めとした様々な言語モデルを固有表現抽出タスク向けにファインチューニングし,優れた性能を示す例が数多く報告されている。その中でも,2019 年に提案された,固有表現抽出を機械読解形式で解くモデルである BERT-MRC[2] は, 複数の英語データセットにて当時の最高性能を示したモデルである. BERT-MRC は 1 つのトークンに複数のラベルが割り当てられる場合も考慮する nested-NER にも利用可能など,拡張性の高いモデルである.機  械読解形式で固有表現抽出を解く場合,固有表現の各ラベルは質問文と紐付けられ,対象文から質問文に対応する固有表現が抽出される。. 例えば,抽出対象の文が「Sansan 株式会社は、Eight を提供する。」 であり,質問文が「会社名や企業名を含む法人を探せ」の場合,「Sansan 株式会社」が抽出される。機械読解形式で解く利点として,ラベルを構成するトー クン列が持つ意味的な情報を活用できる点がある. しかし,BERT-MRC は英語では優れた性能を示すことがわかっているものの,日本語での有効性は明らかになっていない. 本稿では, 日本語に対する固有表現抽出タスクにおいて精度検証やエラー分析を行い,日本語での BERT-MRC の有効性を検討する. ## 2 関連研究 本章では固有表現抽出に関連する研究について述べる. 固有表現抽出では,同じトークンでも文脈によってラベルが異なる場合があるため,系列における過去と未来の双方向の依存性を考慮したモデルが主流である. Huang ら [3] は BiLSTM-CRFによる固有表現抽出を行っている.BiLSTM は,過去と未来の双方向について,それぞれ隠れ表現を得るモデルである. Akbik ら [4] は,BiLSTM-CRF に入力する表現として,語自身の意味表現だけでなく文脈上の使われ方を考慮した新しい単語埋め込みを入力する手法を提案し,高い性能を示している. 近年は事前学習済み言語モデルの導入が進んでおり,その顕著な例が BERT である. BERT は Transformer[5]をべースとし, Masked Language Model および Next Sentence Prediction による双方向の事前学習を導入した事前学習モデルであり, 固有表現抽出をはじめとした様々な自然言語処理タスクに応用可能である. また,BERT C CRF 層を組み合わせた BERT-CRFにより,BERTを用いた固有表現抽出モデルと比較して精度向上することが報告されており [6],日本語における BERT-CRF の有効性も確認されている [7]. さらに,自然言語処理タスクを機械読解形式で解く方法も提案されており,Li ら [8] は機械読解形式で関係抽出を行い,大幅に精度が向上したことを報告している. 本稿では,機械読解形式で日本語固有表現抽出タスクを行った場合の有効性を検討する。 ## 3 実験及び評価 ## 3.1 モデル 本稿では,比較対象となる通常の固有表現抽出モデルとして BERT-CRF,機械読解形式で解くモデルとして BERT-MRC を用い実験を行った。 ## 3.1.1 BERT-CRF BERT-CRF は,BERTを用いた固有表現抽出の出カラベルの遷移が正しくなるように制約をかけたモデルである. 入力系列のトークン数を $n$ ,ラベルの数を $K$ , 入力系列を $\mathbf{X}=\left.\{\mathbf{x}_{1}, \mathbf{x}_{2}, \ldots, \mathbf{x}_{n}\right.\}$, 出力ラベル $を \mathbf{y}=\left.\{y_{1}, y_{2}, \ldots, y_{n}\right.\}$ とすると,遷移を考慮した系列のスコア $s(\mathbf{X}, \mathbf{y})$ は以下のように書ける. $ s(\mathbf{X}, \mathbf{y})=\sum_{i=0}^{n} A_{y_{i}, y_{i+1}}+\sum_{i=1}^{n} P_{i, y_{i}} $ ここで $A \in \mathbb{R}^{(K+2) \times(K+2)}$ はラベル間の遷移行列, $P_{i, y_{i}}$ はトークン $i$ における出力 $y_{i}$ の確率である. 目的関数は式 (1) のスコア関数を用いた対数尤度関数で表わせ,最大化するように学習を行う。 $ \log p(\mathbf{y} \mid \mathbf{X})=s(\mathbf{X}, \mathbf{y})-\log \left(\sum_{\hat{\mathbf{y}} \in \mathbf{Y}_{\mathbf{X}}} e^{s(\mathbf{X}, \hat{\mathbf{y}})}\right) $ ここで $\mathbf{Y}_{\mathbf{X}}$ は $\mathbf{y}$ がとりうる全系列の集合である。 $\mathbf{Y}_{\mathbf{X}}$ の要素数は膨大であるため, 式 (2) の最大化にはビタビアルゴリズムを用いる. ## 3.1.2 BERT-MRC BERT-MRC は,固有表現抽出を質問に対する回答に該当するスパンを抽出する機械読解形式で解くモデルである. BERT-MRC では,入力を質問文と抽出対象文を結合したトークン列 $\left.\{[\mathrm{CLS}], q_{1}, q_{2}, \ldots, q_{m},[\mathrm{SEP}], x_{1}, x_{2}, \ldots, x_{n}\right.\}$ を BERT に入力し, 対象文のトークンのベクトル表現行列 $E \in \mathbb{R}^{n \times d}$ を得る. ここで $m$ は質問文のトークン数, $d$ は BERT の最終層の出力ベクトルの次元である.得られた $E$ を用いて,そのトークン位置がスパンの表 1 固有表現抽出のデータ例 (IOB2 フォーマット) 表 2 機械読解形式のデータ例 \\ 始点か否かを予測する。 $ P_{\text {start }}=\operatorname{softmax}\left(E \cdot T_{\text {start }}\right) \in \mathbb{R}^{n \times 2} $ ここで $T_{\text {start }} \in \mathbb{R}^{d \times 2}$ は重みパラメータである. スパンの終点に対しても同様の予測を行う. また,上記の予測結果を用いるだけでは質問文に対応する回答のスパンが一意に定まらない可能性がある.そのため,スパンの始点と終点のマッチングについても予測を行い,これらを統合することで質問文に対するスパンを出力する。 $ P_{i_{\text {start }}, i_{\text {end }}}=\operatorname{sigmoid}\left(W \cdot \operatorname{concat}\left(E_{i_{\text {start }}}, E_{i_{\text {end }}}\right)\right) $ ここで $W \in \mathbb{R}^{1 \times 2 d}$ は重みパラメータである. ## 3.2 実験設定 データセットとして,ストックマーク株式会社が提供する Wikipedia の日本語固有表現抽出データセット [9] を用いた。学習データ,開発データ,テストデータの比率が 8:1:1 になるようにデータを分割した。また,当該データセットを固有表現抽出および機械読解のタスクへ適用するため,それぞれ表 1,表 2 のように整形を行った. 固有表現抽出のラベルのフォーマットとして IOB2 フォーマットを用 表 3 固有表現ラベルに対応する質問文 表 4 BERT-CRF と BERT-MRC の固有表現抽出における固有表現ラベルごとの結果 ## BERT-CRF BERT-MRC いた.また,BERT の事前学習済みモデルとして東北大の日本語 BERT モデルを使用した. ${ }^{3)}$ BERT-CRF については,不正な遷移4)に対応するパラメータを-100で初期化した状態で学習を行った. BERT-MRC については, negative sampling を導入して学習を行った.ここでいう negative sample とは,質問文に対応する固有表現が対象文中に存在しないデータのことであり, negative sampleを間引いて学習するのが negative sampling である. 固有表現抽出を機械読解形式で解く場合,1文に対してラべルの個数分の質問文を生成する。そのため,文によっては該当するラベルがない事例が生成されることになるケースが多い. negative sampleが多い場合,学習が効率的に進まないため, negative sampling が必要である. 本稿では, positive sample (質問文に対応する固有表現が対象文に存在するデータ) に対して negative sample の比率が 1.5 倍になるよう学習 3) https://github.com/cl-tohoku/bert-japanese 4)不正な遷移とは,例えば「B-組織名 $\rightarrow$ I-人名」のような, IOB とラベルが一致せず起こりえない遷移を指す. データからサンプリングし学習を行った. また,各固有表現ラベルに対応する質問文の一覧を表 3 に示す. 質問文は [9] の各ラベルを参考にして作成した。 ## 3.3 評価方法 評価指標として Precision(適合率), Recall(再現率), F1(F-measure)を用いた. トークン列に対して正しいラベルが付与できたか否かを基にして算出を行った.また,固有表現抽出タスクにおいて BERT-MRC と BERT-CRF の性能を同一条件で比較するため, BERT-MRC を固有表現抽出向けの精度評価ができるように出力結果の後処理を行った. 具体的には, BERT-MRC では各固有表現ラベルごとに独立に推定が行われるため、flat-NER(1つのトークンに 1 つのラベルのみを割り当てる固有表現抽出)向けに変換する後処理が必要となる. 本稿では,人名 >法人名 >政治的組織名 > その他の組織名 > 地名 > 施設名 >製品名 >イベント名の優先順位をつけて各トークンにラベル付けを行った. ## 3.4 結果 BERT-CRF および BERT-MRC の結果を表 4 に示す. それぞれのラベルにおけるすべての評価指標において,BERT-CRF の方が良い性能を示した. 各評価指標のスコアを比較しても差が大きいものも見られることから,日本語の固有表現抽出(flat-NER) においては,機械読解形式のモデルよりも通常の固有表現抽出モデルを用いた方が良いことがわかる. ## 3.5 エラー分析 本セクションでは,BERT-MRC および BERT-CRF のエラー事例を示し考察を行う。まず,BERT-MRC において正しく抽出されなかったが BERT-CRF では正しく抽出された例の抜粋を表 5 に示す. 表 5 では,BERT-CRF においては鉤括弧内の固有表現を抽出できているが,BERT-MRC では抽出できていないことを示している. 鉤括弧内に何らかの固有表現が含まれているのは今回しようしたデータセットにおいて数多く見られ,実際にテストデータの全 534 件において鉤括弧が含まれるものは 137 件存在する. その中でも鉤括弧内がすべて固有表現である 83 件において BERT-MRC は 69 件正解していたのに対し,BERT-CRF は 77 件正解していた. 本事例において BERT-MRC が BERT-CRF と比較し正しく抽出できていないことが,日本語固有表現抽出においては固有表現抽出モデルに劣後している理由の 1 つであると考えられる。 次に,BERT-CRF において正しく抽出されなかったが BERT-MRC では正しく抽出された例の抜粋を表 6 に示す. こちらは,ラベル名に対応する質問文「政治的組織名、政党名、政府組織名、行政組織名、軍隊名、国際組織名を探せ」と抽出した固有表現「最高裁」が意味的に近い事例であり, 日本語においても BERT-MRC が有効である領域であるといえる. 本結果から,対象としたい固有表現とより対応するように質問文を改善すれば,精度が向上する可能性があると考えられる。 ## 4 おわりに 本稿では固有表現抽出を機械読解形式で解くモデルである BERT-MRC を日本語に対する固有表現抽出に適用した. 精度としては通常の固有表現抽出として解くモデルには劣後し, その原因の一つとして今回使用した日本語固有表現抽出データセットの文表 5 BERT-MRC のエラー例 表 6 BERT-CRF のエラー例 中に鉤括弧が多いためであることが確認された. 一方で,日本語においても対象文における固有表現と質問文の意味が近い場合は機械読解形式が機能することも確認された. 今後は, nested-NER や zero-shot の問題設定における日本語固有表現抽出の検討が課題である. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers). Association for Computational Linguistics, 2019. [2] Xiaoya Li, Jingrong Feng, Yuxian Meng, Qinghong Han, Fei Wu, and Jiwei Li. A unified MRC framework for named entity recognition. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics. Association for Computational Linguistics, 2020. [3] Zhiheng Huang, Wei Xu, and Kai Yu. Bidirectional lstm-crf models for sequence tagging. CoRR, Vol. abs/1508.01991, , 2015. [4] Alan Akbik, Duncan Blythe, and Roland Vollgraf. Contextual string embeddings for sequence labeling. In Proceedings of the 27th International Conference on Computational Linguistics. Association for Computational Linguistics, 2018 [5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems. Curran Associates, Inc., 2017. [6] Fábio Souza, Rodrigo Nogueira, and Roberto Lotufo. Portuguese named entity recognition using bert-crf. arXiv preprint arXiv:1909.10649, 2020 [7] 田川裕輝, 西埜徹, 谷口元樹, 谷口友紀, 大熊智子. 生成された読影所見の自動評価に向けた固有表現認識とモダリティ推定. 言語処理学会第 26 回年次大会, 2020. [8] Xiaoya Li, Fan Yin, Zijun Sun, Xiayu Li, Arianna Yuan, Duo Chai, Mingxin Zhou, and Jiwei Li. Entity-relation extraction as multi-turn question answering. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Association for Computational Linguistics, 2019. [9] 近江崇宏. Wikipediaを用いた日本語の固有表現抽出のデータセットの構築. 言語処理学会第 27 回年次大会, 2021.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT1-8.pdf
# 語義の例文を使用した語義曖昧性解消の有効性分析 関谷洸佐々木稔 茨城大学工学部情報工学科 \{18t4052h, minoru.sasaki.01\}@vc.ibaraki.ac.jp ## 概要 本研究は、語義曖昧性解消システムである BEM [1]において、WordNet3.0 [2]に表記されている語義の例文を使用することの有効性について分析する。具体的には、BEM に語義の例文を入力し、出力される単語埋め込み表現列の中から、[CLS]ベクトルまたは対象単語ベクトルを取り出し、語義の埋め込み表現として使用する。実験では、開発セットを含む六つの評価セットのうち、五つの評価セットで $\mathrm{F}$ 値が低下し、一つの評価セットで $\mathrm{F}$ 値が向上した。 ## 1 はじめに 語義曖昧性解消とは、文中にある多義語が、どの語義を表しているのかを識別するタスクである。多くの語義曖昧性解消システムは、学習データの不均衡により、出現頻度の高い語義(MFS)に対しては精度が高いが、出現頻度の低い語義(LFS)に対しては精度が低いという問題がある。これまでの研究で、語義曖昧性解消システムに辞書の語義定義文などの語彙情報を組み込むことで精度が向上することが示されている [3][4]。語義定義文は LFS にも効果的であることが分かっているが、依然として MFS と LFS の間には大きな差がある。Blevinsらが提案したBEM では、複数の事前学習されたエンコーダを共同でフアインチューニングすることで、MFS と LFS の間にある大きな精度差を大幅に縮小した。しかし、 BEM では、システムに組み込む語彙情報が語義定義文しか使用されていないため、辞書の情報をさらに加えることで語義の特徴を効果的に表現できる可能性がある。 そこで本研究では、BEM に新しい語彙情報として語義の例文を組み込む手法を提案し、語義曖昧性解消における語義の例文の有効性を検証する。 ## 2 関連研究 Blevins らによる BEM は、対象単語と周囲の文脈 を表現する context encoder と、語義定義文を表現する gloss encoder で構成され、対象単語とその語義を同じ埋め込み空間で表現している。この二種類のエンコーダは、事前学習済みモデルである BERT [5]で初期化され、共同でファインチューニングされる。 この手法は、先行研究である Raganato ら [6]が示した英語の All-words Word Sense Disambiguation の結果を上回る。本研究では、BEM において、新しい語義の埋め込み表現として語義の例文の埋め込みを作成し、モデルの学習を行った。 BERTとは、Google の Jacob Devlin らが提案した自然言語処理モデルである。BERT は、文章を双方向から学習することが可能であるため、従来のモデルとは違い、文脈に依存した出力を行うことができる。 ## 3 BEM BEM のモデル構造を図 1 に示す。 BEM は、対象単語と周囲の文脈を表現する context encoder と、語義定義文を埋め込む gloss encoder の二つの独立したエンコーダによって構成されている。 これらのエンコーダは、各トークンが正しい語義の表現の近くに埋め込まれるように学習される。また、各エンコーダは、事前学習から取得した語義情報を活用するために、BERT で初期化された deep transformer network である [7][8]。 BEM は、文脈を含む対象単語と語義定義文を独立してエンコードする [9][10]ように設計されており、 これらの各モデルは、BERT-base で初期化される。 context encoder $T_{c}$ は、語義曖昧性解消の対象単語 $w$ を含む用例文 $c$ を入力として受け取る。ここでの $c$ は、 $c=c_{0}, c_{1}, \cdots, w_{i}, \cdots, c_{n}$ である。context encoder からは文脈を考慮した単語埋め込み表現列 $r$ が出力される。単語埋め込み表現列 $r$ にある対象単語ベクトル $r_{w_{i}}$ を対象単語の表現とする。次式で表す $r_{w_{i}}$ は、 $T_{c}$ によって出力された $i$ 番目の表現を意味する。 $ r_{w_{i}}=T_{c}(c)[i] $ BERT トークナイザによって複数のサブワードにト ークン化された単語については、サブワード部分の平均的な表現によって、単語を表現する。例えば、 $j$ 番目から $k$ 番目までのトークンが $i$ 番目の単語のサブワードに対応する場合、次式のように単語を表現する。 $ r_{w_{i}}=\frac{1}{k-j} \sum_{l=j}^{k}\left(T_{c}(c)[l]\right) $ gloss encoder $T_{g}$ は、語義 $s$ を定義する語義定義文 $g_{s}=g_{0}, g_{1}, \cdots, g_{m}$ を入力として受け取る。gloss encoder が出力する単語埋め込み表現列の中から、先頭の表現である[CLS]ベクトルを取り出し、語義の表現 $r_{s}$ とする。語義の表現 $r_{s}$ は、次式のように表される。 $ r_{s}=T_{g}\left(g_{s}\right)[0] $ 次式で示すように、context encoder によって出力された用例文の対象単語ベクトル $r_{w}$ と gloss encoder によって出力された対象単語の語義ベクトル $r_{s}$ のドット積をとることで、対象単語 $w$ の各候補語義 $s \in S_{w}$ をスコア付けする。 $S_{w}$ は、対象単語 $w$ のすべての候補語義を意味する。 $ \phi\left(w, s_{i}\right)=r_{w} \cdot r_{s_{i}} $ ここでの $i$ は、 $i=0, \cdots,\left|S_{w}\right|$ である。評価の際、対象単語の語義は各候補語義の中でスコアが最も高い語義に推定される。 対象単語 $w$ の各候補語義のスコアで、損失関数である cross-entropy loss を使用し、BEM を学習する。対象単語と語義のペア $\left(w, s_{i}\right)$ が与えられた場合、システムの損失関数は次式で表わされる。 $ \mathcal{L}\left(w, s_{i}\right)=-\phi\left(w, s_{i}\right)+\log \sum_{j=0}^{\left|s_{w}\right|} \exp \left(\phi\left(w, s_{i}\right)\right) $ [CLS]ベクトル 対象単語ベクトル ドット積を求め評価値とする 図 1 BEM のモデル構造 ## 4 提案手法 本研究では、BEM に新しく語義の例文を入力し、対象単語の語義推定を行う。主に三種類の語義の例文の表現方法を使用して BEM の学習を行い、作成した三種類のモデルと元の BEM で精度の比較を行う。 ## 4.1 語義の例文の[CLS]ベクトルを使用し た語義曖昧性解消 語義の例文の[CLS]ベクトルを使用したモデルの構造を図 2 に示す。 ある語義に対し、複数の例文が存在する場合はその中の一つを取得する。取得した語義の例文を gloss encoder に入力し、出力された単語埋め込み表現列の中から[CLS]ベクトルを取り出す。取り出した[CLS] ベクトルを新しい語義の埋め込タ表現として使用する。context encoder によって出力された用例文の対象単語ベクトルと gloss encoderによって出力された語義定義文、語義の例文の二種類の語義ベクトルのドット積をとり、各候補語義のスコア付けをする。各候補語義の中でスコアが最も高い語義を対象単語の語義に推定する。 図 2 語義の例文の[CLS]ベクトルを使用したモデル ## 4.2 語義の例文の対象単語ベクトルを使用した語義曖昧性解消 語義の例文の対象単語ベクトルを使用したモデルの構造を図 3 に示す。 ある語義に対し、文中に対象単語を含む例文が存在する場合はその中の一つを取得する。例えば、対 象単語が「review」の場合、例文中に「review」と同型の単語がある例文を取得する。取得した語義の例文を context encoder に入力し、出力された単語埋め込み表現列の中から対象単語ベクトルを取り出す。取り出した対象単語ベクトルを新しい語義の埋め込み表現として使用する。context encoder によって出力された用例文の対象単語ベクトルと gloss encoder によって出力された語義定義文、context encoder によって出力された語義の例文の二種類の語義ベクトルのドット積をとり、各候補語義のスコア付けをする。各候補語義の中でスコアが最も高い語義を対象単語の語義に推定する。 図 3 語義の例文の対象単語ベクトルを使用したモデル ## 4.3 語義の例文で語義定義文のベクトル ## を更新した語義曖昧性解消 語義の例文で語義定義文のベクトルを更新したモデルの構造を図 4 に示す。 ある語義に対し、複数の例文が存在する場合はその中の一つを取得する。また、語義に対し例文が存在しない場合、代用として語義定義文を語義の例文として使用する。取得した語義の例文をgloss encoder に入力し、出力された単語埋め込み表現列の中から [CLS]ベクトルを取り出す。取り出した[CLS] ベクトルを新しい語義の埋め込み表現として使用する。語義定義文で各エンコーダをファインチューニングした後、語義の例文でファインチューニングを行い、語義べクトルを更新する。 対象単語ベクトル [CLS]ベクトル したcontext encoderで文脈ベクトルに変換 図 4 語義ベクトルを更新したモデル ## 5 実験 ## 5.1 実験データ 本研究で使用したデータは、Raganato らが作成した WSD フレームワークである [6]。学習データとして、WordNetから手動で語義をアノテーションされた大規模なデータセットである SemCor [11]コーパスを使用する。SemCor は、33,362 個の語義をカバー する 226,036 個のアノテーションされた例を含む。開発セットとして SemEval-2007(SE07) [12]データセットを使用する。評価セットとして、Senseval-2(SE2) [13]、 Senseval-3(SE3) [14]、 SemEval-2013(SE13) [15]、 SemEval-2015(SE15) [16]を使用する。本システムで使用する語義定義文、語義の例文はすべて WordNet3.0 から取得している。 ## 5.2 実験設定 BEM、4.1 節、4.2 節、4.3 節で示したモデルを表 1 にまとめる。これらのモデルの $\mathrm{F}$ 值を比較し、語義の例文の有効性を分析する。 表 1 BEM と本研究で提案するモデル \\ 本研究で提案するモデルは、実行時間に制限があ る Google Colaboratory で実行している。また、最も $\mathrm{F}$ 値が高いモデルのみを保存し学習を再開するため、 モデルによって学習回数が異なる。BEM1 は 14、 BEM2 は6、BEM3 は 17 回学習を行う。 ## 5.3 評価方法 5.1 節で示した実験データを使用し、各モデルの $\mathrm{F}$值を求める。5.1 節で示した評価セットに加え、開発セットを含むすべての評価セットを連結させた ALL データセットを評価セットとして使用する。 ## 5.4 実験結果 開発セットを含む六つの評価セットでの BEM、 BEM1、BEM2、BEM3 の F 値を表 2 に示す。BEM と語義の例文を使用した BEM1、BEM2、BEM3 を比べると、Senseval-3 評価セットを除くすべての開発セット・評価セットで BEM の方が、F 值が高い。 Senseval-3 評価セットでは、BEM2 の 78.1\%が最高値であり、BEM に比べ $0.7 \%$ 向上している。 表 2 各モデルの $\mathbf{F}$ 值 ## 6 考察 ## 6.1 語義の例文の[CLS]ベクトル BEM において、語義の例文の[CLS]ベクトルを使用した語義曖昧性解消は、元の BEM による語義曖昧性解消に比べて、すべての開発セット・評価セットで $\mathrm{F}$ 值が低下した。このことから、語義の例文の [CLS]ベクトルを語義の埋め込み表現として使用するとシステムに悪影響を与えると考えられる。 ## 6.2 語義の例文の対象単語ベクトル BEM において、語義の例文の対象単語ベクトルを使用した語義曖昧性解消は、開発セットと一つの評価セットを除き、語義の例文を使用したモデルの中で最も $\mathrm{F}$ 值が高い。このことから、BEM で語義の例文を使用寸る場合、語義の例文を対象単語ベクトルで表現することが最も有効であると言える。対象単語ベクトルが最も良かった要因としては、語義の例文は語義定義文とは違い、語義の意味ではなく、語義の使用方法を表しているためだと考えられる。こ れにより、文中に語義との類似度が低い単語などがあり、[CLS]ベクトルでは $\mathrm{F}$ 值が低くなったと考えられる。また、元の BEM による語義曖昧性解消に比べて、Senseval-3 評価セットでは $\mathrm{F}$ 值が僅かに高くなり、それ以外の開発セット・評価セットでは低くなっている。このことから、語義の例文の対象単語ベクトルはシステムに悪影響を与えるが、使用方法を工夫寸れば有効であると予想している。例えば、対象単語が「review」の場合、review の過去形である 「reviewed」や複数形である「reviews」なども対象単語として使用するといった方法が考えられる。 ## 6.3 語義ベクトルの更新 BEM で使用していた語義定義文による語義べクトルを語義の例文で更新した語義曖昧性解消は、元の BEM による語義曖昧性解消に比べて、すべての開発セット・評価セットで $\mathrm{F}$ 值が低下した。このことから、語義定義文による語義べクトルを語義の例文で更新すると、システムに悪影響を与えると考えられる。本研究では、語義の例文の[CLS]ベクトルを使用して語義ベクトルを更新しているが、対象単語ベクトルを使用して語義ベクトルを更新するといった手法も考えられる。 ## 7 おわりに 本研究では、語義曖昧性解消システムである BEM において、WordNet3.0から取得した語義の例文を新しい語義の埋め込み表現として使用した。また、 BEM と語義の例文を使用した BEM を比較し、語義の例文の有効性の分析を行った。語義の例文を使用すると全体的に性能が低下したが、語義の例文の対象単語ベクトルを使用したモデルでは、Senseval-3 評価セットにおいて、 $\mathrm{F}$ 値が僅かに上昇することが確認できた。よって、語義の例文は BEM に悪影響を与えるが、語義の例文の使用方法を工夫すれば有効であると予想している。 今後の課題としては、語義の例文の対象単語ベクトルを使用する際、対象単語と同型のものだけでなく、複数形や過去形に変形しているものも対象にするなど、抽出方法の検討が挙げられる。その他にも、多義語の語義の数が多い場合のみ語義の例文を使用するなど、語義の例文の使用方法の工夫も考えている。 ## 参考文献 1. BlevinsTerra, ZettlemoyerLuke. Moving Down the Long Tail of Word Sense Disambiguation with Gloss Informed Bi-encoders. : the 58th Association for Computational Linguistics (ACL2020), 2020. ページ: pp. 1006-1017. . 2. George A Miller. 1995. Wordnet: a lexical database for english. Communications of the ACM, 38(11):39-41. 3. Fuli Luo, Tianyu Liu, Zexue He, Qiaolin Xia, Zhifang Sui, and Baobao Chang. 2018a. Leveraging gloss knowledge in neural word sense disambiguation by hierarchical co-attention. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pages 1402-1411, Brussels, Belgium. Association for Computational Linguistics. 4. Fuli Luo, Tianyu Liu, Qiaolin Xia, Baobao Chang, and Zhifang Sui. 2018b. Incorporating glosses into neural word sense disambiguation. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 2473-2482, Melbourne, Australia. Association for Computational Linguistics. 5. Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2019. Bert: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pages 4171-4186. 6. Alessandro Raganato, Jose Camacho-Collados, and Roberto Navigli. 2017b. Word sense disambiguation: A unified evaluation framework and empirical comparison. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pages 99-110. 7. Andy Coenen, Emily Reif, Ann Yuan, Been Kim, Adam Pearce, Fernanda Viegas, and Martin Wattenberg. 2019. Visualizing and measuring the geometry of bert. arXiv preprint arXiv:1906.02715. 8. Christian Hadiwinoto, Hwee Tou Ng, and Wee Chung Gan. 2019. Improved word sense disambiguation using pre-trained contextualized word representations. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 5300-5309. 9. Jane Bromley, Isabelle Guyon, Yann LeCun, Eduard Sackinger, and Roopak Shah. 1994. Signature verification using a" siamese" time delay neural network. In Advances in neural information processing systems, pages 737-744. 10. Samuel Humeau, Kurt Shuster, Marie-Anne Lachaux, and Jason Weston. 2019. Poly-encoders: Transformer architectures and pre-training strategies for fast and accurate multi-sentence scoring. arXiv preprint arXiv:1905.01969. 11. George A Miller, Claudia Leacock, Randee Tengi, and Ross T Bunker. 1993. A semantic concordance. In Proceedings of the workshop on Human Language Technology, pages 303-308. Association for Computational Linguistics. 12. Sameer Pradhan, Edward Loper, Dmitriy Dligach, and Martha Palmer. 2007. Semeval-2007 task-17: English lexical sample, srl and all words. In Proceedings of the fourth international workshop on semantic evaluations (SemEval-2007), pages 87-92. 13. Martha Palmer, Christiane Fellbaum, Scott Cotton, Lauren Delfs, and Hoa Trang Dang. 2001. English tasks: All-words and verb lexical sample. In Proceedings of SENSEVAL-2 Second International Workshop on Evaluating Word Sense Disambiguation Systems, pages 21-24. 14. Benjamin Snyder and Martha Palmer. 2004. The english all-words task. In Proceedings of SENSEVAL-3, the Third International Workshop on the Evaluation of Systems for the Semantic Analysis of Text. 15. Roberto Navigli, David Jurgens, and Daniele Vannella. 2013. Semeval-2013 task 12: Multilingual word sense disambiguation. In Second Joint Conference on Lexical and Computational Semantics (* SEM), Volume 2: Proceedings of the Seventh International Workshop on Semantic Evaluation (SemEval 2013), pages 222-231. 16. Andrea Moro and Roberto Navigli. 2015. Semeval2015 task 13: Multilingual all-words sense disambiguation and entity linking. In Proceedings of the 9th international workshop on semantic evaluation (SemEval 2015), pages 288-297.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT1-9.pdf
# 早押しクイズのパラレル問題の自動生成 橋元佐知 佐藤理史 宮田玲 小川浩平 名古屋大学大学院工学研究科 hashimoto.sachi@d.mbox.nagoya-u.ac.jp ## 概要 本稿では、日本語の早押しクイズの「パラレル問題」を自動生成する方法を提案する。この方法では、アノテーション済みの既存のパラレル問題を利用し、その一部の要素を置換することによって、新たな問題を作成する。置換する要素には、対比ぺア、答の上位概念、問題の対象ドメイン、の 3 種類がある。これらの置換先の候補として、特定のカテゴリに対するワードリストや対比ペアリストを準備しておく。本システムを用いて、これまでに、500 問以上の新たなパラレル問題を作成した。 ## 1 はじめに 答が一意に定まるクイズ問題は、これまで質問応答 $(\mathrm{QA})$ システムの開発において、しばしば用いられてきた [1][2]。日本でも、クイズを題材にした日本語 QA データセット JAQKET[3] が開発され、これを用いた質問応答システムのコンペティションも行われた [4]。 このようなデータセットの構築のためには、大量のクイズ問題が必要となるが、良質のクイズ問題を作成することは、それほど容易ではない。問題文とその答を作ることが最初の関門であるが、それ以外にも「裏取り」と呼ばれる答の正当性・一意性を確認する作業や、問題の難易度の適切さを確認する作業が必要であり、かなりの知力と労力、経験を必要する [5]。QA システムが目指しているのは、クイズ問題を解く能力の実現であるが、クイズ問題を作るためには、それとは異なる知的能力が必要である。実際、クイズ問題作成は、ある種の創作という側面を持ち、日本ではクイズ作家とよばれる人達やクイズ制作専門会社が存在する。 コンピュータによるクイズ問題自動生成の目的は、単に QA システム開発用のデータセット構築のために留まらない。良質のクイズ問題の自動生成が可能となれば、クイズ大会やクイズ番組への問題提供など商用利用の道が開ける。さらに、教育現場での活用を想定したクイズ問題の自動生成の研究もいくつか存在する [6][7]。 本稿では、日本語の早押しクイズの「パラレル問題」を対象に、クイズ問題を自動生成する方法を提案する。 ## 2 パラレル問題の構造と特徵 本研究が対象とする「パラレル問題」とは、 アイルランドの首都はダブリンですが、アイスランドの首都はどこでしょう? のような、「〜は〜ですが、〜は何でしょう?」という形式の問題である。その基本構造を図 1 に示す $[8]$ 。パラレル問題は 4 つのパート $(\mathrm{A}, \mathrm{B}, \mathrm{C}, \mathrm{D})$ と答 $(W)$ から構成され、各パートはそれぞれ中核要素 $(X$, $Y, Z, Q)$ を持つ。これら以外にも、中核要素の上位概念や問題の対象ドメインが含まれる場合もある。本研究で扱う問題の構成要素の一覧を表 1 に示す。 パラレル問題の最大の特徴は、 $X$ と $Z$ (あるいは、 まれに $Y$ と $Q(=W))$ が、何らかの対比軸になっていることである [5]。本稿では、この対比軸の分類を対比関係と呼ぶ。この対比関係の種類は限られている (表 2)。例えば、「アイルランド $(X)$ の首都はダブリンですが、アイスランド $(Z)$ の首都はどこでしょう?」という問題では、「アイルランド」と「アイスランド」が音・表記の類似という観点で対比関係をなす。「日本で一番 $(X)$ 高い山は富士山ですが、二番目 $(Z)$ に高い山は何でしょう?」という問題では、「一番」と「二番目」が連続という観点で対比関係をなす。「アイルランド $(X)$ の首都はダブリンですが、中国 $(Z)$ の首都はどこでしょう?」や「日本で一番 $(X)$ 高い山は富士山ですが、三番目 $(Z)$ に高い山は何でしょう?」という問題は、対比関係が不自然であり、パラレル問題として不適切である。 パラレル問題のもうひとつの特徵は、前半部 $(\mathrm{AB}$ パート) と後半部 (CD パート) が並行的となる点である。つまり、 $X-Y$ の関係と $Z-Q(=W)$ の関係は、 図 1 パラレル問題の基本構造 表 1 パラレル問題の構成要素 同一である。例えば、「アイルランド $(X)$ の首都はダブリン $(Y)$ ですが、アイスランド $(Z)$ の公用語は何 $(Q)$ でしょう?」という問題は、「アイルランド首都-ダブリン」と「アイスランドー公用語-アイスランド語」という関係が一致しないため、パラレル問題として不適切である。 ## 3 問題文生成の基本戦略 前節で述べた 2 つの特徴は、パラレル問題を作る際に満たすべき制約となる。この 2 つの制約を満たす問題を作る方法として、既存のパラレル問題を利用し、その一部の要素を置換する方法を採用する。置換する要素には、いくつかの選択肢がある。 ## 3.1 対比ペアを置換する 問題文に含まれる対比ぺア $(X$ と $Z$ )を別の対比ぺアに置換することにより、新たな問題を作ることができる。以下にその概略を示す。 1. 元となる問題を選択する。 例:「アイルランドの首都はダブリンですが、アイスランドの首都はどこでしょう? (答: レイキャビク)」 2. 置換元の対比ぺアを抽出し、問題をフレームに一般化する。 フレーム $=X$ の首都は $Y$ ですが、 $Z$ の首都はどこでしょう? (答: $W$ ) $X, Z=$ アイルランド, アイスランド 3. 置換先の対比ペアを決定する。 $X, Z=$ オーストリア, オーストラリア 4. 問題作成に必要な答要素 $(Y$ と $W)$ を決定する。 \\ $Y=$ ウィーン,$W=$ キャンベラ 5. フレームに要素を代入し、問題を完成させる。「オーストリアの首都はウィーンですが、オー ストラリアの首都はどこでしょう? (答: キャンベラ)」 ここで、ステップ 3 と 4 の実現がポイントとなる。 ステップ 3 では、フレームに代入できる置換先対比ぺアを選択する必要がある。置換元の対比ペアと同種の対比ペア、つまり、語のカテゴリ (上記の例では「国名」) が同一であり、対比関係の種類 (「音・表記の類似」) が同一であるような対比ぺアを選択すれば、フレームに代入できる可能性が高い。加えて、対比関係の種類が「対義 (『最初に』と『最後に』)」の場合は、これを「連続(『最初に』と『次に』)」に置換することにより、問題を作れる場合もある。 ステップ 4 で答要素 $(Y$ と $W)$ を決定することは、「オーストリア (オーストラリア)の首都はどこでしょう」という問題を解くことに等しい。つまり、 ステップ 4 を実現するには、クイズ問題を解く方法を適用すればよい。 ## 3.2 対比ペア以外の要素を置換する 対比ペア以外の要素 $(y, D)$ の置換によっても、新たな問題を作ることができる。以下にその概略を示す。 1. 元となる問題を選択する。 例:「日本で最も大きいトンボはオニヤンマですが、最も小さいトンボは何でしょう?(答: ハッチョウトンボ)」 2. 置換元要素を選択し、問題をフレームに一般化する。 フレーム $=$ 日本で最も大きい $y$ は $Y$ ですが、最も小さい $w(=y)$ は何でしょう? (答: $W$ ) $y=$ トンボ 3. 置換先要素を決定する。 $y$ ニカマキリ 4. 問題作成に必要な答要素 $(Y$ と $W)$ を決定する。 図 2 パラレル問題自動生成システムの構成 $Y=$ オオカマキリ,$W=$ ヒナカマキリ 5. フレームに要素を代入し、問題を完成させる。 「日本で最も大きいカマキリはオオカマキリですが、最も小さいカマキリは何でしょう (答: ヒナカマキリ) 基本的な流れは、対比ペアの置換の場合と同じであり、置換元要素の選択 (ステップ 2) と置換先要素の決定 (ステップ 3) のみが異なる。ステップ 3 では、置換元の語と同じカテゴリの語を選択すると、 フレームに代入できる可能性が高い。 なお、上記の例では、答要素 $Y$ の上位概念である $y(=w)$ を置換したが、ドメイン $D$ の置換 (「日本 $\rightarrow$ 世界」)によっても、新しい問題を作ることができる。 ## 3.3 自動化への準備 上記の方法を自動化するために、次の準備を行う。 1. 追加アノテーション 既存のパラレル問題には、すでに構成要素 (表 1) がアノテーションされているが [8]、それに加えて、各要素に国名などのカテゴリ情報を付与する。さらに、対比ペアには、対比関係の種類の情報を付与する。 2. ワードリスト・対比ペアリストの作成 付与したカテゴリに対して、そのカテゴリに属する語を集めたリストや対比ペアリストを作成する。 ## 4 パラレル問題自動生成システム 作成したパラレル問題自動生成システムの全体像を図 2 に示す。本システムの入力はアノテーション済みのパラレル問題であり、前節に示した流れに沿って、新たなパラレル問題を作成・出力する。以下では、置換先の候補となる、ワードリストと対比ペアリストの作成法、および、答要素 $(Y, W)$ の決定法を説明する。 ## 4.1 ワードリストの作成 問題の構成要素 $(X, Z, D, y)$ のカテゴリに対するワードリストの作成には、次の 2 種類の方法を使用した。ワードリストに収録する語は、原則として、日本語版 Wikipedia の記事タイトルに限定した。 ## 1. 記事冒頭文を利用した同一カテゴリ語の収集 Wikipedia 記事の最初の 1 文 (記事冒頭文) が類似していたり、その文の最後の名詞句が同一であれば、それらの記事のタイトルは同一カテゴリに属する可能性が高い。この性質を利用して特定のカテゴリに属する語を収集する。具体的には、既存のパラレル問題から特定のカテゴリに属する語の具体例を収集し、それを出発点として、そのカテゴリに属する語を収集する。記事冒頭文の類似性判定には、TF-IDF の重み付き Bag-of-Words のコサイン類似度を用い、値が 0.65 以上である場合に、同一カテゴリに属すると判定する。 2.「○○の一覧」ページからの抽出 Wikipediaの「○○の一覧」ページでまとめられている項目を収集する。 作成したワードリストの語に対して、ローマ字読み(訓令式)を追加した。また、「略称」「人物の愛称」などのカテゴリでは、「機関・機構の略語」「歴史上の人物の幼名」のような下位のカテゴリを設け、各語に正式名称等の情報を追加した。 対比ぺアを構成する要素 $(X, Z)$ では 78 種類のカテゴリが存在するが、これまでに 11 種類のカテゴリのワードリストを作成した。それ以外の要素 $(D$, $y)$ では、13 種類のカテゴリ中、 2 種類のカテゴリのワードリストを作成した。 ## 4.2 対比ペアリストの作成 対比ペアリストは、次の 2 種類の方法で作成した。 1. ワードリストから作成する (音・表記の類似)特定のカテゴリに対するワードリストから、音や表記が類似するぺアを次の方法で収集し、そのカテゴリの対比ぺアリストを作る。 (a) 表記および音 (ローマ字読み) の編集距離が、それぞれの文字列の平均長の $1 / 2$ を超えないペアを抽出する。 (b) 得られたぺアのリストを、音の編集距離が小さい順 (同一の場合は、表記の文字列長の差が小さい順) にソートする。 (c) ソートされたリストの先頭から、ペアを順に取得する。ただし、既に取得したぺアに含まれる語を含むぺアは取得しない。 ## 2. 既存のパラレル問題から収集する (対義・連続)既存のパラレル問題から、カテゴリが「属性・程度」か「属性・順序」で、かつ、対比関係が 「対義」である対比ぺアを「対義ペアリスト」 に、対比関係が「連続」である対比ぺアを「連続ペアリスト」に収録する。この 2 つの対比ぺ アリストは、対比関係の種類が「対義」の問題 から、「連続」の問題を生成する際に使用する。 ## 4.3 答要素の決定 作成する問題の答要素 $(Y, W)$ の決定には、次の 2 つの方法を使用する。以下では、答要素 $Y$ を決定する方法を示すが、 $W$ の決定法も同様である。 ## 1. ワードリストに情報が存在する場合 ワードリストの情報をそのまま利用する。例えば、「GDP は $Y$ の略ですが」という問題文が得られ、ワードリストに「GDP」の正式名称の情報がある場合は、その正式名称を $Y$ として採用する。 ## 2. 検索エンジンを利用する Yahoo! 検索エンジンで、得られた問題文の A パートを完全一致で検索する。検索結果の上位 10 件のスニペットを取得し、(1) 入力した問題文の直後から句読点まで、(2) 句読点から入力した問題文の直前まで、(3) 入力問題文以外の太字部分、を抽出して、答候補とする。次に、得られた答候補を、問題文の $\mathrm{A}$ パートの末尾に追加して、完全一致で再び検索を行い、最もヒット数の多かった答候補を $Y$ とする。表 3 生成したパラレル問題数 カテゴリの括弧内の数字は、そのカテゴリの対比ペアリストまたはワードリストに要素数を表す。生成数の括弧内の数字は、生成で利用した既存の問題の数を表す。 ## 5 生成例と考察 本システムで実際に作成できたパラレル問題の数を表 3 に、生成例を付録 $\mathrm{A}$ に示す。 表 3 からわかるように、今回取り組んだカテゴリの多くでは、少数の既存の問題から、数十問の新しい問題を生成することができた。より多くのカテゴリに対して、ワードリストや対比ペアリストを準備すれば、さらに多くの問題を生成することができる。 ただし、表 3 は正しく $Y$ や $W$ を求められた問題の生成数であり、システムが出力した問題の 4 割程度が不適切な問題であった。不適切な問題には、問題の答が存在しないか、複数存在するために、誤った $Y$ や $W$ が出力されたものが多かった。例えば、 フレーム「X(国名) の国の鳥は $Y$ だ」を利用して生成された問題文 スロバキアの国の鳥は $Y$ ですが、スロベニアの 国の鳥は何でしょう?(答: $W$ ) では、スロバキアとスロベニアがどちらも国鳥を定めていないため、答を求めることができず、誤った $Y$ や $W$ が出力された。 今後は、より多くのカテゴリやフレームを利用した問題の生成や、適切な問題の生成精度の向上、生成された問題の評価に取り組みたい。 ## 参考文献 [1] David Ferrucci, Eric Brown, Jennifer Chu-Carroll, James Fan, David Gondek, Aditya A. Kalyanpur, Adam Lally, J. William Murdock, Eric Nyberg, John Prager, Nico Schlaefer, and Chris Welty. Building Watson: An overview of the DeepQA project. AI Magazine, Vol. 31, No. 3, pp. 59-79, Jul. 2010. [2] Pedro Rodriguez, Shi Feng, Mohit Iyyer, He He, and Jordan L. Boyd-Graber. Quizbowl: The case for incremental question answering. CoRR, 2019. [3] 鈴木正敏, 鈴木潤, 松田耕史, 西田京介, 井之上直也. JAQKET: クイズを題材にした日本語 QA データセットの構築. 言語処理学会第 26 回年次大会発表論文集, pp. 237-240, 2020. [4] AI 王〜クイズ AI 日本一決定戦〜,(202201 閲覧). https://sites.google.com/view/ nlp2021-aio/. [5] 伊沢拓司. クイズ思考の解体. 朝日新聞出版, 2021. [6] Naoshi Sakamoto. Automated generation of fill-inthe-blanks-type quizzes using wikipedia. International Journal of Computer Theory and Engineering, Vol. 9, No. 5, pp. 367-373, 2017. [7] 史佳奥原, 雄一清, 康之田原, 昭彦大須賀. Linked data を用いた俯瞰的な多肢選択式問題自動生成手法の提案. 情報処理学会論文誌, Vol. 60, No. 10, pp. 1738-1756, oct 2019. [8] 橋元佐知, 佐藤理史, 宮田玲, 小川浩平. 競技クイズ・パラレル問題の基本構造と文型. 言語処理学会第 27 回年次大会発表論文集, pp. 1420-1424, 2021. ## A パラレル問題の生成例 ## A. 1 対比ぺアの置換による生成例 ## A.1.1 対比関係「対義」を「連続」に置換する生成例 元の問題 1 年で最初に来る二十四節気は「小寒」ですが、最後に来る二十四節気は何でしょう?(答: 冬至) 生成問題 1 年で最初に来る二十四節気は「小寒」ですが、次に来る二十四節気は何でしょう?(答: 大寒) ## A.1.2 音・表記の類似ぺアの置換による生成例 \\ ## A. 2 対比ぺア以外の要素の置換による生成例 \\
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT2-10.pdf
# 物体構成要素間の階層的な注意を用いた画像キャプション生成 平川 幸佑,田村 晃裕,加藤恒夫 同志社大学 大学院理工学研究科 \{ctwf0106@mail4, aktamura@mail, tsukato@mail\}.doshisha.ac.jp ## 概要 画像キャプション生成タスクでは,Faster R-CNN のような物体検出器により抽出した物体の特徴べクトルを用いるモデルが高い精度を達成している。従来モデルでは Transformer Encoder の自己注意機構において物体間の関連を捉えられる。しかし,物体間の関連は学習の中で自動的に学習されるため,位置が近い物体同士が纏まりやすいという傾向は陽にモデルに取り入れられていない. そこで本研究では, Transformer Encoder において隣接する物体間の関連を階層的に捉える自己注意機構「構成要素注意機構」を提案する。 ## 1 はじめに 近年, ニューラルネットワーク $(\mathrm{NN})$ に基づいた画像キャプション生成の研究が盛んに行われている. NN に基づくキャプション生成は Encoder-Decoder モデル [1]が主流であり,CNNを用いて畳み込んだ画像の各領域への注意を学習する視覚的な注意機構に基づくモデルが高い精度を実現している [2]. また, Faster R-CNN[3] などの物体検出器により抽出された画像上の物体や顕著な領域を用いることで,物体の位置やサイズを考慮したキャプション生成モデルが提案されている [4]. この従来モデルでは Encoder の自己注意機構において物体間の関連を捉えられる。 しかし,物体間の関連は学習の中で自動的に学習されるため,位置が近い物体同士が䌂まりやすいという傾向は陽にモデルに取り入れられていない. そこで本研究では,Transformer に基づく画像キャプション生成モデルの Encoder において,隣接する 2 つの物体構成要素間の緹まりを捉えながら物体間の関連を階層的に捉える自己注意機構「構成要素注意機構」を提案する. 構成要素注意機構により隣接する物体構成要素同士を階層的に維めていくことで,位置が近い物体同士を関連づけられるため, キャプション生成の精度向上が期待できる. MSCOCO 2014 captions データセット [5] を用いた画像キャプション生成タスクによる評価実験の結果,Transformer をべースとした古典的な画像キャプション生成モデルに提案の構成要素注意機構を導入することで,有意な性能改善を確認できた。一方で, Object-Relation-Transformer[4] に構成要素注意機構を導入した場合,評価指標のスコアはわずかに向上したが,有意差は確認できなかった。 ## 2 関連研究 2.1 節で Transformer について説明する. 2.2 節では,本研究でベースモデルとして利用する,物体検出により抽出した物体間の関連を Encoder で捉える Object-Relation-Transformer について説明する. ## 2.1 Transformer Transformer[6] は, 入力系列を潜在表現へと変換し,変換した潜在表現から出力系列を生成する Encoder-Decoder モデルである. Encoder と Decoder はそれぞれ Encoder レイヤと Decoder レイヤを複数個スタックすることで構成される. Encoder レイヤは自己注意層と全結合層の 2 つのサブレイヤで構成され, Decoderレイヤは自己注意機構と全結合層, ソース・ターゲット注意機構の 3 つのサブレイヤで構成されている.各サブレイヤ間には,残差接続と層正規化が適用される. 自己注意機構は $H$ 個の同一のヘッド (マルチヘッド)で構成され,各へッドの計算には式 (1) の縮小付き内積注意が用いられる. $ \operatorname{head}_{i}(Q, K, V)=\operatorname{softmax}\left(\frac{Q K^{T}}{\sqrt{d_{k}}}\right) V $ ここで, $Q, K, V$ はそれぞれquery, key,value に対応しており,$d_{k}=d_{\text {model }} / h て ゙ ある . ~ d_{\text {model }}$ は元々の入力の埋め込み次元である. query と key の内積により算出した各要素の類似度を softmax により確率化することで,要素間の関係の強さを表すスコア を算出する. このスコアと value との内積を算出することで,query の各要素と関係の強い valueの各要素の重み付き加重和による特徵が抽出できる. 式 (1) は各へッドで独立に計算され,式 (2)のように $H$個のヘッドの出力を 1 つのベクトルに連結し, 重み行列 $W^{O}$ と乗算される. $ \operatorname{MultiHead}(Q, K, V)=\operatorname{Concat}\left(\operatorname{head}_{1}, \ldots, \text { head }_{H}\right) W^{O} $ また,全結合層は式 (3)により行われる。 $ \operatorname{FFN}(x)=\max \left(0, x W_{1}+b_{1}\right) W_{2}+b_{2} $ ここで $, W_{1}, b_{1}$ と $W_{2}, b_{2}$ は全結合層の重みとバイアスである. Transformer は再帰や畳み込みを用いていないため, 入力系列や出力系列の各要素の位置情報を捉えることができない. そこで Encoder と Decoderでは,埋め込み層の後で $\sin$ 関数と $\cos$ 関数を用いた位置エンコーディングを行い, 各要素の位置情報を付加する. ただし,物体検出ベースの画像キャプション生成 Transformer の場合,入力となる特徵ベクトルの並びは画像における位置に基づくものではない. そのため,エンコーダでは位置エンコーディングを用いた埋め込み処理を行っていない. ## 2.2 Object-Relation-Transformer Object-Relation-Transformer[4] は 2.1 節で紹介した Transformer Encoder の注意機構で, 物体間の相対的な位置やサイズの比率を組み込んだ幾何学的注意を計算する. まず,画像中の 2 つの物体 $m$ と $n$ の中心座標 $\left(x_{m / n}, y_{m / n}\right)$, 幅 $\left(w_{m / n}\right)$, 高さ $\left(h_{m / n}\right)$ から変位へクトル $\lambda(m, n)$ を式 (4) により算出する. $\lambda(m, n)=\left(\log \left(\frac{d_{x}}{w_{m}}\right), \log \left(\frac{d_{y}}{h_{m}}\right), \log \left(\frac{w_{n}}{w_{m}}\right), \log \left(\frac{h_{n}}{h_{m}}\right)\right)$ ここで $, d_{x}=\left|x_{m}-x_{n}\right|, \quad d_{y}=\left|y_{m}-y_{n}\right|$ である. そし $\tau$ ,幾何学的注意重みを式 (5) により算出する。 $ \omega_{G}^{m n}=\operatorname{ReLU}\left(\operatorname{Emb}(\lambda) W_{G}\right) $ ここで, Emb は,Transformer の sin 関数と $\cos$ 関数による位置エンコーディングを行う関数である。位置エンコーディングの結果は重みべクトル $W_{G}$ と乗算することでスカラー值に変換し, 非線形関数 ReLUを適用する. その後, 幾何学的注意重み $\omega_{G}^{m n}$ は,式(6)によりオリジナルの注意機構に組み込む。 $ \omega^{m n}=\frac{\omega_{G}^{m n} \exp \left(\omega_{A}^{m n}\right)}{\sum_{l=1}^{N_{I}} \omega_{G}^{m l} \exp \left(\omega_{A}^{m l}\right)} $ 図 1 構成要素注意機構を導入した自己注意機構ここで, $\omega_{A}^{m n}$ は query と keyの縮小付き内積により算出された行列の要素である. また, $N_{I}$ は画像中の物体の個数である. 最終的なへッドの出力は式 (7) になる。 $ \text { head }_{i}(Q, K, V)=\Omega V $ ここで, $\Omega$ は $\omega^{m n}$ を要素に持つ $N_{I} \times N_{I}$ 行列である. ## 3 提案手法 従来の物体検出ベースの Transformer モデルは, Encoder の自己注意機構で物体間の関連を捉える。 しかし,その関連は学習の中で自動的に学習されるため, 近い位置の物体同士が緥まりやすい傾向は陽にモデルに取り入れられていない. そこで本研究では,Transformer Encoder で隣接する物体間の関連を階層的に捉える構成要素注意機構を提案する. 構成要素注意機構を組み込んだ Transformer Encoder の自己注意機構の概略図を図 1 に示す. 図 1 において, 赤い部分が提案の構成要素注意機構に関する部分である. 以降, 3.1 節で構成要素注意機構について説明し, 3.2 節で構成要素注意機構を画像キャプション生成 Transformer モデルへ組み込む方法を説明する。 ## 3.1 構成要素注意機構 構成要素注意機構は,Transformer の自己注意機構において文の句構造を捉えるために提案された Constituent Attention[7] を画像キャプション生成モデルに応用したものである. 構成要素注意機構では,隣接する物体間の関連を表す隣接注意スコアに基づき,特定範囲の物体が同じ構成要素に属する確率を表す構成要素事前確率を階層的に求める. そして, その構成要素事前確率で自己注意機構を条件付けることで,自己注意機構において隣接する要素間をより関連付けることが可能になる。 図 2 物体集合の系列化の例 提案手法では,まず,物体検出器により検出された物体の集合を物体系列に変換する。この際,画像中で隣接する物体は物体系列においても隣接するように系列化する,具体的には,図 2 のように,各物体の中心座標に基づき,原点から距離が近い順に物体を並べる。この物体系列を基に構成要素事前確率を計算することで,隣接する物体同士を同じ構成要素として関連づけることが可能になる。 構成要素注意機構は物体系列に対して,まず,物体 $o_{i}$ が右隣りの物体 $o_{i+1}$ と左隣りの物体 $o_{i-1}$ に結びつく確率を式 (8) のように算出する. ただし, $s_{i, i+1}$ と $s_{i, i-1}$ は, それぞれ, $o_{i}$ が $o_{i+1}$ と $o_{i, i-1}$ に結びつく度合いを表すスコアであり,式 (9) の通り,縮小付き内積注意により算出される。 $ \begin{gathered} p_{i, i+1}, p_{i, i-1}=\operatorname{softmax}\left(s_{i, i+1}, s_{i, i-1}\right) \\ s_{i, i+1}=\frac{q_{i} \cdot k_{i+1}}{d}, s_{i, i-1}=\frac{q_{i} \cdot k_{i-1}}{d} \end{gathered} $ ここで, $q_{i}$ は $o_{i}$ の queryであり, $k_{i-1}$ と $k_{i+1}$ は,それぞれ, $o_{i-1}$ と $o_{i+1}$ の keyである. また, $d=d_{\text {model }} / 2$ である. その後, $o_{i}$ と $o_{i+1}$ が結びつく度合いを表す隣接注意スコアを,式 (10) の通り, $p_{i, i+1}$ と $p_{i+1, i}$ の 2 つの確率の幾何平均により求める. $ \hat{a}_{i, i+1}=\sqrt{p_{i, i+1} \times p_{i+1, i}} $ そして,この隣接注意スコアを,式 (11)のように階層的に取り込んだ構成要素注意スコアを求める. 構成要素注意スコア $a_{i, i+1}$ は物体 $o_{i}$ と隣接物体 $o_{i+1}$ が同じ構成要素に属する度合いを表している。 $ a_{i, i+1}^{l}=a_{i, i+1}^{l-1}+\left(1-a_{i, i+1}^{l-1}\right) \hat{a}_{i, i+1}^{l} $ ここで, $a^{l}$ は $l$ 層目の構成要素注意スコア, $\hat{a}^{l}$ は $l$層目の隣接注意スコアである. 初期状態では各物体は異なる構成要素とみなし, $a^{0}=0$ とする。 構成要素注意スコア $a_{i, i+1}$ を算出後, 算出した $a_{i, i+1}$ をもとに,式 (12) のように構成要素事前確率 $C_{i, j}$ を算出する. $C_{i, j}$ は物体 $o_{i}$ から $o_{j}$ までが同じ構成要素である確率を表す. $ C_{i, j}=e^{\sum_{k=i}^{j-1} \log \left(a_{k, k+1}\right)} $ この構成要素事前確率を用いて,式 (13) のように自己注意を条件づけることで,隣接する関連の高い物体をより注目させる。 $ E=C \odot \operatorname{softmax}\left(\frac{Q K^{T}}{\sqrt{d_{k}}}\right) $ ここで, $C$ は $C_{i, j}$ を要素とする行列である. ## 3.2 構成要素注意機構の導入 構成要素注意機構(式 (13))のみを用いると,隣接しないが関連度の高い物体が注目されない問題が生じ得る。例えば,図 2 において,物体 “ 0 ” と物体 “1”が関連ある物体であっても,構成要素注意機構では関連強いと判定できずに正しいキャプションを生成できない可能性がある。 そこで提案モデルでは,図 1 のように,Transformer Encoder の各ヘッドで通常の自己注意機構と構成要素注意機構を結合し,2つの自己注意を考慮する.各ヘッドでの演算と最終的なマルチヘッドの出力はそれぞれ式 (14),式 (15) の通りである. 式 (14) の head ${ }_{i}$ は式 (1) や式 (7) で計算されるものである. $ \hat{\text { head }}_{i}(Q, K, V)=\operatorname{Concat}\left(\operatorname{head}_{i}(Q, K, V), E V\right) $ $\operatorname{MultiHead}(Q, K, V)=\operatorname{Concat}\left(\hat{\text { head }}_{1}, \ldots, \hat{\operatorname{head}}_{H}\right) W^{O}$ ## 4 実験 ## 4.1 実験設定 本研究では, MSCOCO 2014 captions データセット [5] を用いて,提案手法の有効性を検証した。 MSCOCO データセットは,82,783 件の訓練用画像と 40,504 件の開発用画像, 40,775 件のテスト画像からなる。各画像には最低 5 つのキャプションが付けられている。本実験では,Karpathy ら [8] に倣い,開発用画像のうち 5,000 件をモデル開発用,5,000 件をテスト用,残りを訓練用画像に足し,113,287 件を学習に用いた。また,入力に用いる特徴マップは, Herdade ら [4] に倣い, Anderson ら [9] が公開している事前学習済みの bottom-up attention model により抽出した MS COCO 画像の領域特徵群1)を採用した. Transformer のパラメータ設定は,Vaswani ら [6] に倣い, Encoder, Decoder レイヤは 6 個スタックし, ヘッド数は $8 , d_{\text {model }}$ は 512 とした. また,モデルの最適化手法は Adam, ウォームアップステップを  20,000,バッチサイズを 15 とし,クロスエントロピー誤差を損失関数として 30 エポック学習を行った. キャプション文はビームサイズ 2 のビームサー チで生成した。 提案の構成要素注意機構(CSA)の効果を確認するため, 通常の画像キャプション生成 Transformer モデル(T), Object-Relation-Transformer(ORT),それぞれのモデルに構成要素注意機構を導入したモデル(T+CSA,ORT+CSA)の性能を比較した. 各モデルで 3 回ずつ学習した後, テストデータに対する性能の平均值と最大值で比較した. 評価指標は, BLEU-n[10] と METEOR[11], CIDEr-D[12] を用いた. ## 4.2 実験結果 それぞれのモデルの性能を表 1 に示す. なお,「*」はベースラインモデル(T/ORT)との差が,対応ありの両側 $\mathrm{t}$ 検定で有意(有意水準 $5 \%$ )であったことを表す. Transformer と構成要素注意機構を導入した Transformer を比較すると,Bleu4 スコアにおいては,平均值で 0.7 ポイント,最大値で 0.4 ポイントの向上が確認できた. CIDEr-D スコアにおいても, 平均值で 1.6 ポイント, 最大値で 1.7 ポイントの向上し,有意な改善を確認できた. Object-Relation-Transformer と構成要素注意機構を導入した Object-Relation-Transformerを比較すると, Bleu4 スコアにおいては, 平均値, 最大值共に 0.3 ポイントの向上が確認できた. CIDEr-D スコアにおいても, 平均で 0.4 ポイント, 最大値で 0.6 ポイントの向上が確認できた. しかし,これらの結果に対して対応ありの両側 $\mathrm{t}$ 検定を行った結果,有意水準 $5 \%$ でいずれの指標においても有意差を確認できなかった. ## 4.3 考察 提案の構成要素注意機構で算出した自己注意の例を図 3, 4 に示す. 各画像において, 枠内の画像が 図 3 構成要素注意機構で算出した注意の例 (1 層目) 図 4 構成要素注意機構で算出した注意の例 (6 層目) 鮮明なほど,その画像に対する注意が高くなることを示す.ここで,一番右上の緑枠は注目する物体,赤枠は緑枠より原点から遠い物体,青枠は緑枠より原点に近い物体であり,緑枠に隣接する両隣 3 個の物体を表している。 これらの図より, 右上の緑枠の腕に関して, 1 層目では,周辺のスプーンや持ち手に注意が向き,最上層では,左の女性も 1 つの要素として纏めていることが確認できる。このことから,構成要素注意機構は,周辺の物体を緹めながら階層的に注意を計算できたことが分かる. ## 5 おわりに 本研究では, Faster-R-CNNのような物体検出器により獲得した物体や顕著な領域の特徴ベクトルを用いた画像キャプション生成 Transformer モデルに対して,画像上で隣接する物体を物体構成要素の緾まりとして階層的にとらえる自己注意機構「構成要素注意機構」を提案した. MSCOCO データを用いた実験結果より,Transformer に構成要素注意機構を導入することで,統計的に有意にキャプション生成性能を改善できることが確認できた。一方, Object-Relation-Transformer に構成要素注意機構を導入した場合も,いくつかの評価スコアが向上したが,検定の結果,有意ではなかった. 今後は,構成要素注意機構で行う物体群の系列化の方法を変更するなどして,提案モデルの性能を改善させたい. ## 参考文献 [1] Oriol Vinyals, Alexander Toshev, Samy Bengio, and Dumitru Erhan. Show and tell: A neural image caption generator. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 3156-3164, 2015. [2] Kelvin Xu, Jimmy Ba, Ryan Kiros, Kyunghyun Cho, Aaron Courville, Ruslan Salakhudinov, Rich Zemel, and Yoshua Bengio. Show, attend and tell: Neural image caption generation with visual attention. In International conference on machine learning, pp. 2048-2057. PMLR, 2015. [3] Shaoqing Ren, Kaiming He, Ross Girshick, and Jian Sun. Faster r-cnn: Towards real-time object detection with region proposal networks. In Advances in neural information processing systems, Vol. 28, pp. 91-99, 2015. [4] Simao Herdade, Armin Kappeler, Kofi Boakye, and Joao Soares. Image captioning: Transforming objects into words. In Advances in neural information processing systems, 2019. [5] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, and C Lawrence Zitnick. Microsoft coco: Common objects in context. In European conference on computer vision, pp. 740-755. Springer, 2014. [6] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [7] Yaushian Wang, Hung-Yi Lee, and Yun-Nung Chen. Tree transformer: Integrating tree structures into self-attention. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP), pp. 1061-1070, November 2019. [8] Andrej Karpathy and Li Fei-Fei. Deep visualsemantic alignments for generating image descriptions. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 31283137, 2015. [9] Peter Anderson, Xiaodong He, Chris Buehler, Damien Teney, Mark Johnson, Stephen Gould, and Lei Zhang. Bottom-up and top-down attention for image captioning and visual question answering. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 6077-6086, 2018. [10] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting of the Association for Coтpиtational Linguistics, pp. 311-318, 2002. [11] Michael Denkowski and Alon Lavie. Meteor universal: Language specific translation evaluation for any target language. In Proceedings of the ninth workshop on statistical machine translation, pp. 376380, 2014. [12] Ramakrishna Vedantam, C Lawrence Zitnick, and Devi Parikh. Cider: Consensus-based image description evaluation. In Proceedings of the IEEE conference on computer vision and pattern recognition, pp. 4566-4575, 2015.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT2-11.pdf
# アクセント単位形の推測を用いた日本語複合語のアクセント句の合成 青柳詠美 ${ }^{1}$ 小島正樹 ${ }^{2}$ ${ }^{1}$ 東京薬科大学院 生命科学研究科 ${ }^{2}$ 東京薬科大学 生命科学部 \{s168002, mkojima\}@toyaku. ac. jp ## 概要 現在のテキスト合成音声システム [1] [2]では複合語句内において、話者による強調表現は再現できないという問題がある。そこで本研究ではNHKアクセント辞典 [3] に掲載されているアクセント単位形に着目し、コンピュータで推測したアクセント単位形と話者の指定する強調から実際に発生しうるアクセント句を推定するアルゴリズムを作成した。まず話し言葉コーパス (CSJ)[4]に掲載されている長単位の複合語を対象に、アクセント核の位置からアクセント単位形を推定するモデルを作成する。そのモデルとCSJのBI ラベルから予測される強調に基づいてアクセント句を合成し、コーパス内のアクセント句を再現できるか評価する。 ## 1 はじめに 近年は様々なテキスト合成音声システム(text to speech)が開発され、AIアナウンサーや自動音声案内システムなど、人に情報を伝える重要な技術になりつつある。本研究では複合語に着目することで、伝え手が意図した韻律の音声を提供できる TTS の研究・開発に貢献することを目標とする。 ## 1.1 強調を含めたアクセント合成とは 龃踣なく情報を伝達するためには、意味に対して正確なアクセント句を提供することが重要である。 しかし上記に挙げた先行研究は共に実際に強調したか否かは入力值や特徴量にはなっていない。これは話者による強調を含んだ表現は再現できないため、 システムでは正確なアクセントが付与された音声が提供できているとは言い難い状況である。 具体的には以下の例がある。 「長野新幹線車両センター」という場所が現実に存在するが、この建物は北陸新幹線の建設の際に建設された歴史を考慮すると構文解析は[長野][新幹線車両センター]である。しかし「長野新幹線」という固有名詞は存在する(かつて呼称として東京-長野間を「長野新幹線」と呼んでいた)ため、この知識がなければ[長野新幹線][車両センター]年捉えられても文法上の誤りではない。この単語であれ、他の似たような構文構造の単語であれ、システム利用者が後者のアクセント句を出力することを想定していないとは否定できない。 どちらの構文構造も文法上取ることが可能である。 またアクセント辞典の記載では単語によっては、時代変化によって複合語の意味要素が薄れ、一つの単語として振る舞うようになる例も存在し、その変化は境目がなく、意味構造を持った発音と一つの単語として振る舞う発音の両方が見受けられる場合があるという指摘もある。 このことから一時的にかかり受け解析の予測等で確率として高い一つの回答に絞る事は可能であるが、 どちらの選択肢も用意し、係り受けといった専門知識がなくてもユーザーが容易に選択できるように選択できる TTS の必要性を考えた。 そこで NHK アクセント辞典に掲載されているアクセント単位形に着目した。アクセント単位形は複合語のアクセント位置の考え方の一つである。強調時と強調以外のアクセント変化を説明する事が可能になるため、上記に挙げた構文変化に伴うアクセン卜変化を説明できると考えた。 本研究ではこのアクセント単位形をコンピュータで推測し、アクセント単位形と話者の指定する強調から実際に発生しうるアクセント句を推定するアルゴリズムを作成した。その上でコーパス内のアクセント句を再現できるか評価する。 ## 2 実験方法 ## 2. 1 構築システムの概要 アクセント核の位置からアクセント単位形予測器を作成した。具体的にはアクセント核とアクセント単位形の関係からルールを作成して、自作でラベル化、 $\mathrm{CRF}$ (条件付き確率場:機械学習)で学習した。次 に強調を含めたアクセント予測実験を行なった。具体的には、上記アクセント単位形推定モデルと強調位置を入力値としてコーパス内の音韻を再現できるか実験した。 ## 2. 2 アクセント単位形の推測実験 まず、アクセント単位形を推測するために複合後のアクセント核の位置を入力值としたアクセント単位形を決定するアルゴリズムを以下の図のように作成した。 1. 該当アクセント核が平板型以外なら、次の単位とアクセント単位は独立 (1) 2. 該当アクセント核が平板型で、次の単位も平板型ならアクセント単位は独立 (1) 3. 該当アクセント核が平板型で、次の単位は平板型以外ならアクセント単位は継続 (0) 4. 該当単位が最終単位ならアクセント単位は独立 (1) 図 1 アクセント単位形決定アルゴリズム 次に、日本語話し言葉コーパス (CSJ)のコア文章 201 講演を対象に短単位が 2 つ以上で構成され、各品詞(自立語のみ) にエントリーされている長単位を抽出し、テストデータ: 訓練+検証データを $2: 8$ に分 と結合する (0)・しない(1)を推定した。CRF (条件確率場:Conditional Random Fields) [5] [6] とはある入力値に予め付与したラベルの確率分布を計算することで予測する機械学習のアルゴリズムの一種である。今回は特徴量に書く品詞情報や読夕情報、表層形情報を入力し、アクセント単位形が次の単位と結合する(0)かしない(1)か単語末表現 (EOS)かをラベルとして出力した。EOS は単語末に確実に出現するように設定したため、事実上アクセント単位形の結合可否 $(0,1)$ の二値問題である。条件によって学習形態素数が異なるため別途表で示す。 評価には代名詞、副詞以外では 4-fold grid search を行い、正則化関数は Macro $\mathrm{f}$ 値の高かった L1を、ハイパーパラメータ ( $-\mathrm{c}$ オプション)は $[0,0.01,0.05,0.1,0.5,1,5]$ から最も Macrof $\mathrm{f}$ 値の高かった 1 を評価に用いた。代名詞、副詞ではデー夕数が少なかったため、交差検定は行わず、訓練デー タと検証データで上記と同様にハイパーパラメータの調整を行った。特徴量は該当単位 2 つ前から 2 つ先までの trigram、unigram、該当単位 1 前から 1 つ先までの bigramを特徴量とした。 & & \\ ## 表 1 各条件における学習形態素数一覧 品詞情報を用いる場合は Unidic[7]のものを用いて、CSJ に記載されている[表層形, 品詞 (LUWPOS), 活用の種類 (LUWCon jugateType), 活用形 (例: 未然形 LUWCon jugateForm), その他の情報 1 (助詞の種類を示すLUWMiscPOSInfo1)のUnidic で相当する部分を抜き出して一単位として入力值とした。 Unidicへの変換には Mecab (0.996) [8]で変換を行い、辞書にはアクセントの位置が記載されている Unidic (unidic-cwj-2.3-2.0)を用いた。 ## 2.3 アクセント句予測実験 アクセント単位形の推測結果とCSJのBI ラベルを用いて、コーパスに記載された実際に発生したアクセント句を再現できるかを実験した。以下は本実験での BI ラベルの解釈である。 BI ラベルとは実際の音のピッチから判断された”次の単位との結合度”を示す[9]。 ## 図 2 本実験での BI ラベルの解釈 ベースラインの規則由来のアクセント合成には以下のものを使用した。作成には複合語のアクセント規則 (匂坂, 佐藤, 1983) や数詞のアクセント規則 (宮崎, 1984)、OPEN J TALK[1]、TASET[2][10]を参考にした。 全ての条件で形態素解析に Mecab(ver0.96) と Unidic (ver2.3.0)辞書を用いた。 ## 3 結果と考察 本結果は昨年情報処理学会で発表した名詞句のアクセント単位形推定実験の結果[11]も同時に載せている。 $\cdot$sur_la:表層形のみが学習データ $\cdot$sur_pho_la:表層形と読みが学習データ $\cdot$sur_pos_la:表層形と読みと品詞情報が学習デー タである条件を示している。 ## 3.1 品詞ごとにアクセント単位形推定モデ ルを作成した結果 品詞ごとにアクセント単位形を学習させた結果を付録 A-1 の図に載せる。どの品詞もアクセント単位形 1 ラベルの $\mathrm{f}$ 值より 0 ラベルの $\mathrm{f}$ 值が低いという結果になった。またデータが少ない副詞は 0 ラベルが学習できなかった。 動詞等活用形がある品詞も今回は実験の対象のため、品詞情報を付与した場合のアクセント単位形推定結果をまとめたが、どの品詞も結果が悪化したか大幅な改善は見られなかった。 ## 3.2 品詞ごとの実験の考察 副詞の 0 ラベルの $\mathrm{f}$ 值や他の品詞の $\mathrm{f}$ 値の改善のため、データを他の組成が似た品詞と合わせる学習を試みた。理由として以下の表がある。これは本実験で用いたコーパス内(長単位)で各品詞のどの品詞 SUW(短単位)が多いか、種類ごとに分類したグラフとなっている。 図 3 本実験範囲での各品詞組成 副詞は単独で似たような組成の品詞が見つからないが、副詞自身を除けば他の品詞が満遍なく存在すると考えると、品詞隔てなく学習することで副詞内 の他品詞の学習が進むのではと考えた。 ## 3.3 全ての品詞を含めて推定モデルを作成 ## した結果 全ての品詞を含めてアクセント単位形を学習させた結果を付録 A-2 の図に載せる。表層形のみ、読み追加の条件で副詞は 0 ラベルも含めて学習できたが品詞情報を入れると 0 ラベルの正解例がなく $\mathrm{F}$ 值が計算できなかった。また表層形のみの学習で接続詞の 0 ラベルが学習できなかった。これは組成表から考えると接続詞は助詞が多いために他品詞から助詞を含むような例が少なかったためが考えられる。なお、読みを入れた条件や品詞情報を入れた条件では 0 ラベルは学習可能であることがわかった。全体的に他品詞を含めて学習していると品詞情報を入れてもアクセント単位形の推測 $\mathrm{F}$ 値は 0 ラベル、 1 ラベルともに大幅に上がらないという結果になった。 ## 3. 4 アクセント句合成実験結果・考察 次に上記で作成したアクセント単位形推定モデルを用いてアクセント句の推定実験を行った。実験結果について、品詞ごとにアクセント単位形を推定したモデルを用いた条件のものを付録 A-3 の図に、品詞を全て含めてアクセント単位形を推定したモデルを用いた条件のものを付録 A-4 の図に載せる。 品詞全体を俯瞰して、コーパス内に $1+\mathrm{p}$ (強調するけれどアクセント句は切れないに該当する単語が見られない品詞も多く、たまたまコーパスに無かつたのか、本当に日本語としてそう言う事例がないのか疑問が生じた。事例がない場合はアクセント句の合成においてアクセント単位形を考えるまでもないということになる。これは今後検討が必要である。 また両方の実験でベースラインにした規則による強調指定よりもアクセント句の正解率が低い結果はなかった。このことはアクセント単位形の考え方が他品詞にも使える可能性が考えられる。 アクセント単位形の推測実験同様、品詞情報の付与によるアクセント句の正解率が大幅に改善したという例はなかった。 ## 3.5 品詞ごとの考察 以下は各品詞の考察である。主だったものを載せる。 [名詞/代名詞] 品詞情報を付与してもアクセント単位形の推測、 アクセント句の正解率ともに改善が見られなかった。 これは名詞句というものは品詞情報が変化しないため恩恵を受けにくいためと考えられる。また、数詞なしの条件において、規則でアクセント句を推定したものは $1+\mathrm{p}$ (強調あるもののアクセント句は結合:0 ラベルによるもの)の推測で結果が良いことが分かった。これは提案手法のアクセント単位形の 0 ラベルの推測成績が悪いことが起因していると考えられる。提案手法の各条件でアクセント単位形推定タスクの $\mathrm{f}$ 值が異なっていたが、この差はアクセント句合成実験では影響せず、ほぼ同じ正解率を示した。 ## [動詞/形容詞] 名詞、代名詞のときとは異なり、全体を通してアクセント単位形推測で全品詞同時学習時の結果が良い傾向が得られ、アクセント句推測実験の BI ラベル 2〜のタスクで正解率の上昇に寄与していると考えられる。 ## [形状詞] 単独学習での品詞情報込みの学習結果のアクセント単位形の 0 ラベルの推測能力の低いとき、BI ラベル 2 の正解率の低下しており、品詞一括学習だと改善しているため、 0 ラベルの推測の正確性がアクセント句の正確な合成に重要であることが言える。 ## [副詞] データ数の不足から副詞単体でのアクセント単位形 0 ラベルの学習は困難であった。副詞の品詞特性としては、副詞の連続(例:ぶるぶるぶるぶる)とそれ以外(例:一生懸命、必ずしも、比較的)に分かれ、副詞の連続以外には名詞や形状詞が含まれていた。このため、品詞を分けずにアクセント単位形を学習した場合には、副詞単独ではアクセント単位形の 0 ラベルが十分に学習できなかったものが、全品詞を学習させると 0 ラベルも判別できるようになったと考えられる。 ## 4 まとめ アクセント単位形の推測モデルを用いてアクセン卜句の推定を行った。全品詞を俯瞰して、アクセン卜単位形の推測タスクの $\mathrm{F}$ 值、特にアクセント単位形の結合を示す 0 ラベルの推定結果が悪いと、アクセント句の正解率が悪くなる結果となった。 またアクセント単位形の考え方は既存手法よりアクセント句の正解率が上がったため、アクセント句の推定において提案手法は有用である。 ## 5 今後の課題 今回の研究の条件下では以下の 3 つの課題が存在する。 ## 5.1 実験条件について 今回は複合語を入力したときの結果であり、文の中でどのような品詞条件で、あるいは構文条件で出現したかについて全く考慮していない。例えば、ある文章中では 1 単位形として出現する単語が特定の構文条件で 2 単位形に分割する現象があったとしても、今回の実験で表現することは不可能である。このため、文単位で入力した際のアクセント単位形がどう変化するかを学習させる、あるいは単語の特徴量に品詞情報以外の文中での振る舞いを示す値を含めることが必要であると考えられる。 ## 5.2 実験データについて 正確なアクセント核は人手でないと付与ができない。特に平板型のアクセント定義はキャリア文との接合した際のアクセント変化で判断するため、とある文章を入力、発話したときに必ずしも判定できるとは限らない。こう言った事情から多量のアクセン卜単位形に関するラベルを用意する事は現実的ではない。既に短単位でアクセント核が付与されているコーパス等のデータは限られるため、今後ラベルの正解率やアクセント句の正確な推定を行うにあたり、機械学習の中でデータ不足を補える方法を検討する必要がある。 ## 5.3 学習単語単位について 今回、学習する単語単位をUnidic (CSJ の SUW) に固定した。本研究では人手で付与された正確なアクセント核の位置を利用したいという意図で採用したが、先行研究ではサブワード [12] [13] という概念があり、文法に準拠した単語分割が計算機にとってアクセント単位形を推測しやすいかは検討材料である。分割した際のアクセントの位置について解決した上で、Unidic 以外の単語分割での検討をしていきたい。 ## 参考文献 1. Open JTalk http://open-jtalk. sourceforge. net/ 2. TASET Tokyo Accent Sandhi Estimation Toolkit, https://sites. google.com/site/suzukimasayu ki/accent 3. NHK 放送文化研究所・編『NHK 日本語発音アクセント新辞典』2016 年 4. 国立国語研究所『日本語話し言葉コーパス (CSJ)』 https://pj.ninjal.ac.jp/corpus_center/csj/ 5. J. Lafferty, A. McCallum, and F. Pereira, "Condi- tional random felds: Probabilistic models for seg- menting and labeling sequence data," Proc. 18th In- ternational Conference on Machine Learning (ICML), pp. 282-289, 2001. 6. CRF++, Yet Another CRF toolkit https://taku910. github. io/crfpp/ 7. Unidic, https://unidic.ninjal.ac.jp 8. MeCab, Yet Another Part-of-Speech and Morphological Analyzer https://taku910. github. io/mecab/ 9. 五十嵐他 ” 報告書『日本語話し言葉コーパスの構築法』第 7 章韻律情報”,国立国語研究所報告 No. 124 (2006) 10. 鈴木他, ” 条件付き確率場を用いた日本語東京方言のアクセント結合自動推定”,電子情報通信学会論文誌 D Vol. J96-D No. 3 pp. 644-654, 2013 11. 青柳他 “アクセント単位形の推測を用いた日本語複合名詞のアクセント句の合成” 情報処理学会第 83 回全国大会学生セッション _7N-02. 2021 12. 工藤拓『実践・自然言語処理シリーズ第 2 巻形態素解析の理論と実装』(株式会社近代科学社者) 2018 年 13. SentencePiece https://github. com/google/sentencepiece ## A 付録 A-1 アクセント単位形学習結果(品詞ごと) A-2 アクセント単位形学習結果(品詞一括) *印のタスクはBIラベル1+pおよび2に該当する単語が存在しなかった。**印のタスクはBIラベル1+pに該当する単語が存在しなかった。***印のタスクはBIラベル1+pの正解率が0だった。 A-3 アクセント句推定実験(品詞ごと学習モデル) 全品詞学習モデルによるアクセント句推定実験 A-4 アクセント句推定実験 (全品詞学習モデル)
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT2-12.pdf
# 英日機械翻訳における既存の評価指標の線形結合による性能評価 中屋和樹 ${ }^{1}$ 川又泰介 ${ }^{1}$ 松田源立 ${ }^{1}$ ${ }^{1}$ 成蹊大学 理工学部 us182092@cc. seikei.ac.jp \{kawamata,matsuda\}@st. seikei.ac.jp ## 概要 機械翻訳の自動性能評価指標として様々な手法が提案されているが、特に構文が大きく異なる英日間の翻訳では、どの手法が優れているかについて明確に評価することは困難であった。本研究では同一の英文に対する Google 翻訳と DeepL の出力和文を実験用データとし、DeepL の結果の方が翻訳性能が高いと仮定した。そして、その 2 出力文を正確に判別できる指標を優れた指標であるとみなした。実験では、BLEU 等の n-gram ベースの指標、MER 等の編集距離ベースの指標、BERTScore 等の分散表現ベー スの指標等を用いて、その判別の正解率を比較した。 さらに、SVMによりそれらの評価指標を線形結合した場合の正解率も比較した。その結果、異なる系統の評価指標を線形に組み合わせることで、判別の正解率を向上させることができることを示した。 ## 1 はじめに 近年、深層学習の発展に伴いニューラルネットワ ークを用いた機械翻訳モデルの研究が盛んに行われている[1]。これら翻訳モデルの精度を測るには、人手評価との相関が高い自動評価指標が必要となる。現在、自動評価指標のディファクトスタンダードは BLEU スコア[1]であり、機械翻訳の論文において提案システムと既存システムの比較に用いられることが多い。しかし、BLEU は弱点が多く指摘されている。例えば、参照文の局所的な n-gram をモデル出力文が保持していた場合、意味が通っていなくても高い評価を与えてしまう [2]。構文が似ている言語間では翻訳モデルがこのような出力をすることは少ないが、日英翻訳のような構文が大きく異なる言語間では頻繁に見られる。また、意味的に近い語彙の言い換えが発生した際に対応することができないので、低い評価になってしまうこともある[3]。語彙の言い換えはどの言語でも起こりうることであり、これに対応できなければ翻訳モデルに対する正しい評価が できない。評価指標の優劣を決めることは非常に難しく、BLEU が発表されて以降、様々な自動評価指標が提案されており、上記の BLEU の弱点に対応できるものもある。しかし、それらの指標はそれぞれが長所と短所を持っており、最適な指標というのは定まっていない。 現在翻訳ツールで有名なものは「Google 翻訳[4]」 と「DeepL[5]」であるが、DeepL の方が Google 翻訳に比べて、読みやすく、理解しやすい文章を出力するとされている[6]。そこで、本研究では、ある評価指標をもとに Google 翻訳と DeepLを判別できれば、 その評価指標は良いものであると仮定した。そして、同一英文群に対する Google 翻訳と DeepL の出力和文群について様々な翻訳評価指標の値を算出し、判別の正解率を比較した。次に、それらを特徴量として線形 SVM で最適な組み合わせを学習し、どのような組み合わせが良い指標となるかを調査した。さらに、それらの分析結果と具体的な出力文と照らし合わせることで、それぞれの評価指標の長所・短所の考察を行う。 ## 2 先行研究 本研究では、様々な観点から見た評価尺度を利用する。本節ではそれらについての簡単な説明を行う。今回用いる評価指標の全体的な分類を表 1 に示す。 表 1 本研究で用いる評価指標 ## 2. 1 n-gram ベース - BLEU BLEU は現在、機械翻訳の自動評価指標として最も用いられている。2002 年にオリジナルの論文が発表されて以来、改良された BLEUがいくつか出ているが、今回は BLEU+1[7]を用いる。基本的な 考えとしては、モデル出力文と参照文の n-gram の一致度によって翻訳の精度を評価する指標である。 $\cdot$ROUGE ROUGE-n 2003 年に Chin ら[8]によって発表された指標であり、元々は要約タスク専用の評価指標である。具体的には、参照文とモデル出力文について Recall と Precision を計算し、最後に F1 値を計算することによって、ROUGE スコアとしている。ROUGEn の $\mathrm{n}$ は使用する n-gram を表しており、本研究では ROUGE1 とROUGE2 を用いた。 - RIBES RIBES は 2011 年に平尾ら[2]によって発表された翻訳評価指標であり、順位相関係数を利用した評価指標である。 ## 2.2 編集距離ベース - WER WER(Word Error Rate)は通常は音声認識の評価指標として用いられているものであり、入力文に対する誤ったトークン数の割合で表される - MER MER(Match Error Rate)は WER の問題点を解決するために、2004 年に Andrew ら[9]によって提案された。具体的には、WER の式の分母に挿入数を追加する。 - CER CER(Character Error Rate)は基本的な考え方は WER と同じで、編集距離に基づいたエラー率を計算する。WER はトークン単位での変換を行うが、 CER では文字単位(Character)での変換を行う。 ## 2.3 分散表現ベース - WMD WMD(Word Mover's Distance)[10]は、分散表現を用いて最適輸送問題を解くことにより、2つの文書の類似度を測る評価指標である。 - WRD WRD (Word Rotator's Distance)は 2020 年に横井ら[11]によって発表された WMD の改良版であり、コサイン類似度を利用している。 $\cdot$BERTscore BERTscore は 2020 年に Tianyi ら[12] によって提案された、 2 つの文書間の類似度をはかる指標である。具体的には、 2 文の分散表現ベクトル集合により、Precision、Recall、F 值を計算する。本研究では $\mathrm{F}$ 值を採用した。 ## 3 実験設定 ・翻訳データ評価指標を計算するためには、翻訳した文に対する正解データ(リファレンス)が必要となる。よって、対訳コーパスである ASPEC コーパス [13]の文章データを用いた。学習データ・開発デー 夕・開発試験データ・試験データの 4 種類があるが、今回は試験データ(1812 文)全てを選択した。 ・翻訳ツール先述の通り「Google 翻訳」「DeepL」 を利用した。前者は googletrans[14]、後者は手動で文章を入力して翻訳した。 ・分散表現一部の評価指標を計算する際には分散表現が必要となる。今回は、ボキャブラリ数を 32000 に設定し、JParaCrawl コーパス[15]を用いて事前学習を行った Transformer[16]のデコーダ層の分散表現を用いた。モデル自体は fairseq[17]で公開されているものである。 ・トークナイザトークナイザは文章をトークンに分割する処理を行うものである。本研究では Sentencepiece[18] と MeCab[19]を用い、各々について評価指標を計算した。ただし、CERについては文字単位のためトークナイザは不要であり、分散表現ベ一スの指標についてはSentencepieceのみを利用した。 $\cdot$評価指標評価指標としては、表 1 に示した 10 種類についてSentencepieceを適用したものを採用した。 さらに、n-gram ベースの全てと編集距離ベースの WER と MER については MeCabを適用したものも採用し、計 16 種類となった。 ・線形学習モデル線形 SVM を利用した。具体的には、文レベルでそれぞれの評価指標の值を算出し、 それらを特徴量として学習を実行し、Google 翻訳と DeepL の線形 SVM による 2 值判別を行った。デー 夕は、学習データ $90 \%$ (1631 文)とテストデータ 10\%(181 文)に分割した。また、学習の際に Optuna[20] を用いることにより、学習データのみでハイパーパラメータをチューニングした。 ## 4 結果と考察 ## 4. 1 評価指標間の相関 図 1 は、Google 翻訳と DeepL の 3624 件の全出力文上で各評価指標間の相関係数行列を計算し、ヒー トマップで表したものである。相関係数は最低でも 0.5 以上であり、互いにある程度の相関を持つことは確かめられた。それ以外にも以下のような関係性が観察できた。第一に、RIBES_Sent とRIBES_MeCab は n-gram ベースでありながら、BLEU やROUGE との相関が低く、代わりに編集距離系の WER や MER と相関が高い。これは RIBES がユニグラムの一致を図りつつも、その順番を重視した評価指標であるからだと考えられる。編集距離系の評価指標は先頭から順番に置換・削除・挿入を行なっていくため、語 図 1 各評価指標の相関係数行列 順に対して厳しい評価をする。Google 翻訳は英語を直訳したような文章になることが多く、人手で翻訳したものと比べると、内容が反対になっていることがある。よってこのような文章に対して、編集距離系は高いエラー率(低い評価)を出力し、RIBES では順位相関係数が負になった(低い評価)ため、比較的相関が高くなったのだと考えられる。第二に BLEU_Sent と BLEU_MeCab は相関が高い評価指標に違いがあり、前者は n-gram+Sent、分散表現、編集距離 + Sent、後者は $\mathrm{n}$-gram $+\mathrm{MeCab}$ 、編集距離+MeCab表 32 つ組み合わせた場合の判別正解率 と相関が高くなっている。分散表現ベースの評価指標は全てSentencepieceでトークナイズしていることから、同じトークナイザでトークナイズして算出した評価指標は相関が比較的高くなると考えられる。 ## 4. 2 判別正解率 表 2 は、特徴量を 1 個のみ(各指標単体)とし、線形 SVM で閾値のみを学習した時の判別正解率である。WER_Sent が最も高い正解率であった。表 3 に 2 つの評価指標を特徴量として組み合わせの重みを学習した場合の正解率を上位 5 位まで示す。表 4 に 3 個もしくは 4 個の評価指標を特徴量とした場合の正解率を上位 10 位まで示す。この結果から、評価指標単体より複数の評価指標を組み合わせた方が正解率が向上することが分かる。表 4 における各評価指標の登場回数を見ると、BERTscore が 7 回、 ROUGE1_Sent が 6 回、RIBES_MeCab が 6 回で上位となる。これらの評価指標は表 3 にも頻繁に登場している。図 1 の結果とも併せて考えると、分散表現ベースである BERTscore、単純な n-gram ベースである ROUGE1、n-gram ベースではあるが編集距離べー スと性質が近い RIBES の組み合わせがより有効な評価指標となることが示された。以上が統計的な結果であるが、具体的な文例での組み合わせの有効性については、付録 Aにて紹介している。 ## 4.3 まとめ 本研究によって得られた結果も踏まえた各評価指標の特徴(長所と短所)を表 5 に示す。現在最も使用されている BLEU は、直感的に理解できプログラミングもしやすいが、クリティカルな短所が多いため、率先して使用すべきではないと考えられる。もしngram 系を使用するのであれば、ユニグラムのみでもある程度評価はできるため、ROUGE1 や RIBES が良いと考えられる。編集距離系の評価指標は、表 2 より WER_Sent の正解率が一番高いこと、表 4 より 表 $43 、 4$ つ組み合わせた場合の精度 \\ WER_Sent と MER_Sent が上位に現れていることから、WER と MER は翻訳評価指標として用いることが可能であると考えられる。ただし、表 5 より、語順の維持に強く依存することに注意する必要がある。 また結果から RIBES で代用可能である可能性があるが、さらなる分析が必要である。 分散表現系の評価指標は、分散表現に大きく依存するという短所があるが、語彙の言い換えに対応可能であり、また、単語アラインメントを得られるという大きなメリットがある。特に BERTscore はアラインメントが WMD や WRD に比べて容易に計算可能であり、 4.2 節において良い評価指標であるということが判明している。よって、分散表現系は BERTscore を用いるのが良いと考えられる。 ## 5 終わりに 本研究では、英日翻訳のコーパスに置いて様々な翻訳性能の評価指標を調查し、それらを特徴量として Google 翻訳と DeepL の線形 SVM による 2 值判別を行った。その結果、異なる種類の評価指標を線形に組み合わせることで判別正解率が向上することが判明した。さらに各評価指標の特徴について考察した結果、n-gram ベースでは ROUGE1、RIBES、編集距離ベースでは WER、MER、分散表現ベースでは BERTscore を用いるのが良い、という結論が得られた。今後はデータセットの拡張、指標の追加と実験を通して、より適切な評価指標の構築を目指す予定である。 ## 謝辞 本研究は JSPS 科研費 JP21K12036 の助成を受けたものである。 ## 参考文献 1. Kishore Papineni et al. "BLEU: a Method for Automatic Evaluation of Machine Translation". In: ACL, Philadelphia, July, 2002, pp. 311-318 2. 平尾努他 “RIBES:順位相関に基づく翻訳の自動評価法”言語処理学会第 17 回年次大会発表論文集 (2011 年 3 月) 3.http://cr.fvcrc.i.nagoyau.ac.jp/ sasano/pdf/snlp2019sasano.pdf (2022 年 1 月 11 日アクセス) 4. https://translate.google.co.jp/?hl=ja (2022 年 1 月 11 日アクセス) 5. https://www.deepl.com/ja/translator (2022 年 1 月 11 日アクセス) 6. Ahmad Yulianto "Google Translate vs. DeepL: A quantitative evaluation of close-language pair translation" In: AJELP, ISSN 2289-8689 / e-ISSN 22898697, Vol 9 No. 2 (2021), 109-127 7. Graham Neubig “文レベルの機械翻訳評価尺度に関する調査” Information Processing Society of Japan 2013 8. Chin-Yew Lin and Eduard Hovy "Automatic Evaluation of Summaries Using N-gram Co-Occurrence Statistics " In: Processing of HLT-NAACL, 2003, pp. 7178 9. Andrew C. Morris el at. "From WER and RIL to MER and WIL: improved evaluation measures for connected speech recognition " In: INTERSPEECH 2004-ICSLP 10. Matt J.Kusner et al. "From Word Embeddings To Document Distances "In: Processing of the 32th International Conference on Machine Learning, Lile, France, pp. 957-966 2015 11. 横井祥他“単語埋め込みのノルムと方向ベクトルを区別した文書最適輸送コスト” The 34th Annual Conference of the Japanese Society for Artificial Intelligence, 2020 12. Tianyi Zhang et al. "BERTSCORE: EVALUATING TEXT GENERATION WITH BERT " In: ICLR 2020 13. https://form.jst.go.jp/enquetes/aspec_order_sampleJT (2021年 6 月 24 日受付) 14. https://pypi.org/project/googletrans/ (2020 年 1 月 11 日アクセス) 15. 森下睦他 “JParaCrawl: 大規模 Web ベース日英対訳コーパス”言語処理学会第 26 回年次大会発表論文集 (2020 年 3 月) 16. Ashish Vaswani et al. "Attention is all you need." In: CoRR, Vol. abs/1706.03762, 2017. 17. https://github.com/pytorch/fairseq (2022 年 1 月 11 日アクセス) 18. https://github.com/google/sentencepiece (2022 年 1 月 11 日アクセス) 19.https://github.com/neologd/mecab-ipadic-neologd (2022 年 1 月 11 日アクセス) 20. https://github.com/optuna/optuna (2022 年 1 月 11 日アクセス) ## 付録 A. 具体的な文例における評価指標の組み合わせの効果 表 A. 1 RIBES、BERTscore、MER を加えることで判別可能となった文の例(指標の単位は全て\%) & & & & & \\ 図 A. 1 BERTscore の Recall(上)と Precision(下)によるアラインメント(赤が正解、黒が不正解を示す) ここでは表4の3行目の BLEU_Sent + RIBES_MeCab + BERTscore + MER_Sent の組み合わせに着目する。表 A. 1 に BLEU_Sent のみで見分けることができず、他の評価指標を追加して見分けることができるようになった文の例を示す。 表 A. 1 のリファレンスは大まかなパーツに分けると、「解説し」「検討した」となる。DeepL では、少々他の語彙の言い換えがあるものの、色をつけた順番通りに翻訳されており、意味の通じるものになっている。一方、Google 翻訳は「解説し」の部分は訳されているものの、「説明します」と完結しており、「検討した」 の部分を翻訳できていない。よって、今回の文は Google 翻訳が一部無視しているので、評価には少し差が出るはずである。RIBES_MeCab、BERTscore、MER_Sentを見てみると、どれもDeepL の方に高評価をしているが、BLEU_Sent はほとんど同じ評価になっており、区別をすることができていない。 それぞれの評価指標の値について表を見ながら考察する。RIBES_MeCab、BERTscore、MER_Sentについて、 これらが Google 翻訳と DeepL に差をつけることができているのは上記の久損部分に起因しており、 RIBES_MeCab では前半部分の評価値に欠損部分の評価值を加えるか否かで、MER_Sent では欠損部分の挿入操作の増加により、差をつけて評価することができていると考えられる。BERTscore は両者の区別ができているものの、その差が $5 \%$ と若干小さい。これは最終的な評価に $\mathrm{F}$ 值を用いているためであると考えられる。図 A. 1 に BERTscore の Precision と Recall による単語アラインメントを示す。Precision はある程度適切なアラインメントができているが、Recall は久損している後半部分が無理やり前半部分へとアラインメントされているため、最終的に Recall 値が上がってしまい、Google 翻訳と DeepL での差があまり大きくならなかったと考えられる。それでも、両者をある程度区別することはできている。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT2-13.pdf
# 自然言語とソースコード間の対訳コーパス向け Data Augmentation 手法の提案 秋信 有花 ${ }^{1}$ 小原 百々雅 ${ }^{2}$ 梶浦照乃 ${ }^{2}$ 倉光 君郎 ${ }^{2}$ ${ }^{1}$ 日本女子大学大学院 理学研究科 2 日本女子大学 理学部 m1616003ay@ug.jwu.ac.jp kuramitsuk@fc.jwu.ac.jp ## 概要 本論文では,自然言語とソースコード間の対訳コーパス向けの Data Augmentation (DA) 手法と,それを実現するDA Dール Multieseを提案する。近年,深層学習ベースのコーディング支援は関心を集めるテーマとなっているが,学習データとなる NL-code 対訳コーパスの不足は重要な課題である。本研究では,構文木への変換が可能であるというソースコードの形式的な性質を活用した DA 手法を新たに提案する。実験では, Multiese によって増強された NL-code 対訳コーパスを用いることで,自然言語からソースコードを生成するコード生成 AI モデルを,高い精度で構築可能であることを示した。 ## 1 はじめに 社会のデジタル化が進む昨今,プログラミングはより身近な技能へとなってきている。しかし,プログラミングは誰もが自由自在にできるものではなく,プログラムの書き方がわからず,挫折してしまう人も少なくない.そこで,我々は,自然言語を用いたプログラミング支援の実現に向け,日本語記述から Python コードを生成するニューラル機械翻訳モデルであるコード生成 AI モデルの構築に取り組んでいる $[1,2]$. ユーザは,プログラムの書き方が思い出せない箇所をコード生成 AI モデルに対して自然言語で与えることで,それに相当する正しいコードを得ることができる. しかし,コード生成 $\mathrm{AI}$ モデルの学習データとなるソースコードとその対訳をぺアとした NL-code 対訳コーパスのデータ資源は限られている [3]. 先行研究では,ソースコードのデータ資源として, GitHub などのオープンソース上のソースコードが使われてきたが $[4,5]$ ,これらには対訳などは含まれていない.ソースコードの対訳は,ソースコード内のコメントとして付与されることもあるが,その対訳の粒度はコーダーによって様々である。そのため,これらのコメントを抽出し,対訳としてソースコードとマッピングするだけでは,NL-code 対訳コーパスとして不十分である。また,整備済みの NL-code 対訳コーパスもいくつか公開されているが,これらのほとんどは人手で対訳が付与されたものである.そのため,データセット数は数百から数千程度と限られており,深層学習のネットワークモデルに直接適用することは難しい. そこで,本研究では,NL-code 対訳コーパスの不足を解消すべく,自然言語とソースコード間の対訳コーパス向けの Data Augmentation (DA) 手法を提案する. 我々の DA 手法の特徴は,プログラミング言語の構文に基づくソースコードの合成と DA 記法の導入による自然言語表現の増強である。我々は,この二つの特徴を実現する DA ツール Multiese を実装し,人手で作成した NL-code 対訳コーパスのデータセット数を 177 ペアから 14,721 ペアまで増強させることができた.また,実験では,Multiese によって増強された NL-code 対訳コーパスを用いてコード生成 AI モデルを学習し,NL-code 対訳コーパスの合成によるコード生成 $\mathrm{AI}$ モデルの精度の変化を確かめた. 本論文では,NL-code 対訳コーパス向け DA 手法とDA ツール Multieseを提案し,実験結果とともに報告する。本論文の残りの構成は以下の通りである. 2 節では提案する NL-code 対訳コーパス向け DA 手法について述べる。 3 節では実装した DA ツー ル Multiese について述べる. 4 節では実験について述べる. 5 節では関連研究を概観し,6節で本論文をまとめる. 図 1 コード生成 AI モデルと back-translation ## 2 NL-code 対訳コーパス向け DA Data Augmentation (DA) は,学習データに加工などの処理を部分的に施すことで,データ量を水増しする手法である. 本節では,本研究で着目したDA 手法の一つである back-translation について概説したのち, 本研究の提案である NL-code 対訳コーパス向け DA 手法について述べる. ## 2.1 Back-translation Back-translation は,機械翻訳向けの DA 手法である. Back-translation では,目的とする翻訳モデルのソース言語とターゲット言語を逆にした逆翻訳モデルを別途学習する. 学習された逆翻訳モデルに対して,ターゲット言語の単言語コーパスを入力し, ソース言語の対訳を生成することで,擬似的な対訳コーパスを構築する. コード生成 AI モデルに対して back-translation をナイーブに適用すると,図 1 に示すように, Python コードから日本語記述を生成する back-translation モデルを別途学習することになる. 一般的な back-translation と異なる点は, 逆翻訳モデルのソース言語が,木構造への変換が可能なプログラミング言語になることである. ## 2.2 NL-code 対訳コーパス向け DA 手法 本研究では,逆翻訳モデルのソース言語がプログラミング言語である点に着目し, プログラミング言語の性質を活用した DA 手法を新たに提案する. 図 2 は,NL-code 対訳コーパス向け DA 手法のコンセプトを示したものである. 提案手法の特徴は, ソー スコードの任意長の expression片に対して与えられた対訳から,ボトムアップで NL-code 対訳コーパスを合成する点である. NL-code 対訳コーパス向け DA 手法では,まず人手で複数の日本語訳を付与した NL-code 対訳コーパスを用意する。このとき,既存の対訳コーパスを再利用することも可能である. 図 2 NL-code 対訳コーパス向け DA 手法 ## $\mathrm{x \% \mathrm{n}$} $x \% 2==0$ $\mathrm{x}$ が偶数かどうか $\mathrm{x}$ は 2 で割り切れるかどうか 次に,用意した NL-code 対訳コーパスに対して, プログラミング言語の文法に基づくアノテーション記法を導入する. Expression 片の前後に来る可能性のある構文を @enot アノテーションのように与える。 すると,アノテーションに基づき,表1のように前後の文言が生成される。提案手法では,最初に与えられた expression 片からボトムアップで対訳を合成することになるが,木構造のトップに相当するコードまでは生成しない。これは,Transformerなどのネットワークモデルでは, 複雑な木構造を扱うことが困難であるという考察に基づいている [6]. 提案手法のもう一つの特徴は, DA 記法の導入による,自然言語表現の増強である。はじめに用意した NL-code 対訳コーパスに対して,以下のような記法を追加することで,自然言語の表現を拡張できるようにしている. $x \% 2==0$ @@not @@if @type(x, 変数) が偶数 [かどうか|であるかどうか] $\mathrm{x}$ は 2 で [割り切れる割ることができる]かどうか 上記の例には,二種類の DA 記法を含んでいる. 図 3 Multiese による日本語 Data Augmentation 一つ目は,類義語置換である. [かどうか|であるかどうか]のように定義された複数の類義語を組み合わせることで,複数の自然言語記述を生成する。二つ目は,変数名やリテラルに対する型情報の付与である. @type(x,変数) のように変数名とその型情報をぺアとして明示することで,変数名の前後に型情報を付与,もしくは付与しないパターンを生成する. DA 記法を付与する手間はかかるものの,複数のDA 記法を組み合わせることで,様々な表現パターンへの拡張が実現できる. ## 3 DA ツール: Multiese Multiese は,NL-code 対訳コーパス向け DA 手法を実現するための DA ツールである. 図 3 は, Multiese が NL-code 対訳コーパスを合成するまでの流れを示したものである。まず,DA 記法を含んだ自然言語記述は,抽象構文木 (AST) へと変換される. その後,構文木のタグ情報に基づき,複数の自然言語表現をルールベースで生成する. 最後に,それらを元のソースコードとペアにし, NL-code 対訳コーパスとして出力する. 抽象構文木への変換は,PEG (Parsing Expression Grammar)[7] パーザジェネレータ PEGTree[8] と, 形態素解析器 Janome を組み合わせることで実装している. PEGTree で DA 記法に基づいた構文木に変換した後, Janome で品詞タグを付与する. 品詞タグを付与することで,語順の入れ替えや助詞の一部変更などの DA 処理を,DA 記法なしに実現している. ## 4 実験 我々は, Multiese によって増強された NL-code 対訳コーパスを用いてコード生成 AI モデルを構築し, コードの生成例やその精度を確かめた。本節では, コード生成 $\mathrm{AI}$ モデル構築の流れとその結果につい表 2 実験に使用したデータセット てまとめる. ## 4.1 データセットと前処理 我々は 3 種類の人手で作成した NL-code 対訳コー パスを用意し,そのうちの 2 種類に対して NL-code 対訳コーパス向け $\mathrm{DA}$ 手法を適用した. 表 2 は,実験で使用した NL-code 対訳コーパスをまとめたものである. Euler ${ }^{11}$ は, "Project Euler4" の問題を解くための Python コードに対し, 人手で日本語対訳が付与された, Web 上で公開されているデータセットである [9]. AOJ と DS は,コード生成 AI モデルの学習にあたり, 我々が人手で作成した NL-code 対訳コーパスである. AOJ は, Aizu Online Judge ${ }^{2}$ に提出された Python コードのうち,成績上位 100 人の公開コードを全て収集し,expression 単位のコード片に対して日本語訳を付与したデータセットである。 DS は,データサイエンスに関するテキスト教材から,pandas や matplotlib などデータ分析でよく使用されるライブラリの APIを採取し,人手で対訳を付与したデータセットである. AOJ-DA と DS-DA は, AOJ,DS に対してアノテーションやDA 記法を加え,Multiese によってデータセット数を増強したものである. コード生成 $\mathrm{AI}$ モデル学習前には, トークナイズと,変数名・リテラルの特殊トークン化への置き換えを前処理として行った,トークナイザは,日本語には Janome を使用し, Python コードはカッコやピリオドなどの記号の前後に空白を挿入した. ## 4.2 コード生成 AI モデルの学習 コード生成 $\mathrm{AI}$ モデルの学習には, Transformer を使用した. Transformer の各種パラメータは,エンコーダとデコーダの層数をそれぞれ 6 , ヘッド数を 8,バッチサイズを 128 ,単語エンベッディング次元数と隠れ層次元数をそれぞれ 512 とした. また,損失関数にはクロスエントロピー,オプティマイザに  表 3 コードの生成例 & $\langle A\rangle=\operatorname{int}($ input ()$)$ & sorted ( $\langle A\rangle$, input ( )) & $x$ \\ は Adam を使用した. 学習回数は, 検証用データの損失值が最小となった時点で打ち切りとした. ## 4.3 実験結果 (1):コードの生成例 表 3 は,ホールドアウト法で作成したテストデー タの入力文とその正解コード,コード生成 AI モデルによって生成されたコード,それに対する正誤をまとめたものである. はじめに,入力文の自然言語表現を確認すると,AOJ-DA,DS-DA 共に,Multiese によって自然な文章を合成できたことが確認できる. 次に, 正解コードと生成コードを比べると, DA 適用前の NL-code 対訳コーパスを使用した場合の生成コードは,API名や構文が間違っているものが多く含まれる。一方, AOJ-DA や DS-DAを使用した場合の生成コードは,AOJ やDS と比べると間違いも少なく, 様々な種類の Python 構文の生成を害現した. ## 4.4 実験結果 (2) : コードの正解率 表 4 はコード生成 AI モデルから生成されたコー ドの BLEU スコアと正解率をまとめたものである.正解率は,コード生成 $\mathrm{AI}$ モデルから生成されたコードと正解コードを比較し,構文的にも解釈的にも正しいコードを人手によって検証し, その比率を示している. テストデータが多い場合は, サンプリングによる統計的解析を行っている. AOJ と AOJ-DA, DS と DS-DAを比較すると, Multiese によって増強した NL-code 対訳コーパスを使用することで,高い精度のコード生成 AI モデルの構築を実現できたことが確認できる. ## 5 関連研究 Data Augmentation は,深層学習モデルの精度向上に向けて,学習データを水増しする手法である.DA は, 元々画像処理の分野で研究されてきた手法であったが $[10,11]$, 近年では, 自然言語処理や音声処理などの様々な分野でも取り入れられている [12].表 4 生成されたコードの正解率 自然言語処理における DA 手法の先行研究として,低頻度語や,対訳コーパスのソース文とター ゲット文の両方に含まれる語彙を,別の単語で置き換える手法が提案されている. 我々の提案手法の特色は,DA 手法をソースコードに対して適用した点と,自然言語表現を多様化するためのルールベースの DA 記法を取り入れた点である. 我々の手法は, ソースコードの木構造に変換可能な点を活かした新たなアプローチであるといえる. ## 6 むすびに 本研究では,NL-code 対訳コーパスの不足を解消すべく,自然言語とソースコード間の対訳コーパス向けの Data Augmentation (DA) 手法を提案した. 提案手法を用いることで,人手で作成した NL-code 対訳コーパスのデータ数を 177 ペアから 14,721 ペアまでに増強させた。また,増強された NL-code 対訳コーパスを用いることで,高い精度のコード生成 AI モデルの構築を実現した. 今後は,大きく分けて二つの課題に取り組んでいきたいと考えている。一つ目は,DA 記法を必要としない DA 処理の実現である.類義語などの定義が必要となる部分を,自動で置換可能なアーキテクチャを目指す. 二つ目は,ソースコードの構文の多様化である. 現状では, 最初に与えた expression 単位のコーパスとアノテーション記法に依存しているため,考えられるソースコードの記述パターンに対応しきれない。自然言語記述とソースコード両方を拡張可能な新たな手法を探究していきたい. ## 参考文献 [1] 秋信有花, 梶浦照乃, 小原百々雅, 倉光君郎. 自然言語を用いたコーディング支援の実現に向けたニュー ラル機械翻訳ベースのコード生成. 情報処理学会第 136 回プログラミング研究発表会 (PRO136), 2021. [2] Yuka Akinobu, Momoka Obara, Teruno Kajiura, Shiho Takano, Miyu Tamura, Mayu Tomioka, and Kimio Kuramitsu. Is neural machine translation approach accurate enough for coding assistance? In Proceedings of the 1st ACM SIGPLAN International Workshop on Beyond Code: No Code, BCNC 2021, p. 23-28, New York, NY, USA, 2021. Association for Computing Machinery. [3] Antonio Valerio Miceli Barone and Rico Sennrich. A parallel corpus of python functions and documentation strings for automated code documentation and code generation. In Proceedings of the Eighth International Joint Conference on Natural Language Processing (Volume 2: Short Papers), pp. 314-319, Taipei, Taiwan, November 2017. Asian Federation of Natural Language Processing. [4] Mark Chen, Jerry Tworek, Heewoo Jun, Qiming Yuan, Henrique Ponde de Oliveira Pinto, Jared Kaplan, Harri Edwards, Yuri Burda, Nicholas Joseph, Greg Brockman, Alex Ray, Raul Puri, Gretchen Krueger, Michael Petrov, Heidy Khlaaf, Girish Sastry, Pamela Mishkin, Brooke Chan, Scott Gray, Nick Ryder, Mikhail Pavlov, Alethea Power, Lukasz Kaiser, Mohammad Bavarian, Clemens Winter, Philippe Tillet, Felipe Petroski Such, Dave Cummings, Matthias Plappert, Fotios Chantzis, Elizabeth Barnes, Ariel Herbert-Voss, William Hebgen Guss, Alex Nichol, Alex Paino, Nikolas Tezak, Jie Tang, Igor Babuschkin, Suchir Balaji, Shantanu Jain, William Saunders, Christopher Hesse, Andrew N. Carr, Jan Leike, Josh Achiam, Vedant Misra, Evan Morikawa, Alec Radford, Matthew Knight, Miles Brundage, Mira Murati, Katie Mayer, Peter Welinder, Bob McGrew, Dario Amodei, Sam McCandlish, Ilya Sutskever, and Wojciech Zaremba. Evaluating large language models trained on code. 2021. [5] Luis Perez, Lizi Ottens, and Sudharshan Viswanathan. Automatic code generation using pre-trained language models. arXiv preprint arXiv:2102.10535, 2021. [6] Zeyu Sun, Qihao Zhu, Yingfei Xiong, Yican Sun, Lili Mou, and Lu Zhang. TreeGen: A tree-based transformer architecture for code generation. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 34, pp. 89848991, 042020. [7] Bryan Ford. Parsing expression grammars: A recognitionbased syntactic foundation. In Proceedings of the 31st ACM SIGPLAN-SIGACT Symposium on Principles of Programming Languages, POPL '04, pp. 111-122, New York, NY, USA, 2004. ACM. [8] Kuramitsulab/pegtree: A peg parser generator with tree annotation. https://github.com/KuramitsuLab/ pegtree. (Accessed on 01/09/2021). [9] Hiroyuki Fudaba, Yusuke Oda, Koichi Akabe, Graham Neubig, Hideaki Hata, Sakriani Sakti, Tomoki Toda, and Satoshi Nakamura. Pseudogen: A tool to automatically generate pseudo-code from source code. In 2015 30th IEEE/ACM International Conference on Automated Software Engineering (ASE), pp. 824-829. IEEE, 2015. [10] Connor Shorten and Taghi M Khoshgoftaar. A survey on image data augmentation for deep learning. Journal of Big Data, Vol. 6, No. 1, pp. 1-48, 2019. [11] Agelos Kratimenos, Kleanthis Avramidis, Christos Garoufis, Athanasia Zlatintsi, and Petros Maragos. Augmentation methods on monophonic audio for instrument classification in polyphonic music. In 2020 28th European Signal Processing Conference (EUSIPCO), pp. 156-160. IEEE, 2021. [12] Steven Y Feng, Varun Gangal, Jason Wei, Sarath Chandar, Soroush Vosoughi, Teruko Mitamura, and Eduard Hovy. A survey of data augmentation approaches for nlp. arXiv preprint arXiv:2105.03075, 2021.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT2-14.pdf
# 論文要旨を捉えたスライド生成における 割り当て問題の適用 久保谷 善記 ${ }^{1}$ 品川政太朗 ${ }^{2}$ 山本晋太郎 $^{1}$ 鈴木亮太 $^{3}$ 森島繁生 ${ }^{4}$ 1 早稲田大学 2 奈良先端科学技術大学院大学 3 産業技術総合研究所 4 早稲田大学理工学術院総合研究所 yoshikikubotani@akane.waseda.jp sei.shinagawa@is.naist.jp s.yamamoto@fuji.waseda.jp ryota.suzuki@aist.go.jp shigeo@waseda.jp ## 概要 論文の要点を自身の目的に合わせてプレゼンテー ションスライドにまとめることは,情報の発信や共有といった観点から重要性を増してきているが,試行錯誤を求められ労力がかかる問題がある. そこで本研究では, スライド作成者が,タイトルを指定することで,インタラクティブに論文からスライドテキストを作成できるシステムの実現を目指す。本システムは,与えられたスライドタイトルから論文の本文を検索して抽出するモジュールと,検索した文章を端的に要約するモジュールで構成される.このような要件を満たす既存手法である Document to Slide (D2S) と比べて, 提案手法では検索文のスライドへの割り当てを考慮することで,スライド間でのテキストの内容の重複を抑えることに成功した。 ## 1 はじめに 要点をまとめて情報発信を行う道具として,プレゼンテーションスライド(スライド)と呼ばれる紙芝居形式の資料を作成することが日常的に行われてきている. 例えば,学会などの研究集会の場では,研究者は自身の研究成果を発表するために,論文を提出するだけでなく,スライドを用いた口頭発表により研究の要点を伝えることが求められる. また,学問分野全体において論文の数が増え続けており [1],論文の著者ではない人々が,論文の要点をスライドにまとめ, 勉強会の場や Web 上で発信することで,効率的に知見を共有し合うといったことが行われてきている。近年では, Qiita ${ }^{1)}$ のスライド機能や, SlideShare ${ }^{2)}$ といった Web 上での共有プラットフォームが充実しており,誰でも手軽にスライドに 1) https://qiita.com/ 2) https://www.slideshare.net/ よる知識共有ができるようになってきている. しかし,論文などの技術的文書のスライド作成は,経験と技能が求められる,具体的には,発信者 (スライド作成者)がどのような選考・目的を持って論文の情報を発信するのか,口頭発表による説明を前提とするか否か,発表時間やスライドのページ数に制限があるかどうか,想定する読者・聴衆はどの程度その論文についての前提知識を持つか,などの条件を考慮する必要がある. これらはスライド作成に慣れていない初心者には難しい作業であり,経験を積んだ熟達者でも,一度大枠を作成した上で前述の条件を参照して微調整を繰り返したり,時には条件自体を修正して作り直すといったことを行う. つまり,スライド化の作業は少なくない労力をかけて試行錯誤を繰り返す必要のある作業だと言える。 本研究では,このようなスライド作成の難点を低減する方法として,論文をスライド化したいスライド作成者が,目的に合わせてスライドのタイトルやキーワードのみを設定するだけで,それらの条件に沿って半自動で論文をスライド化するインタラクティブなシステムを提案する.本システムの最終的な目標は,スライド作成者がこのシステムを使うことによって,論文をどのようにスライド化するか手軽に試行錯誤しながらたたき台を作成できるようになることである. このようなインタラクティブなスライド生成システムに求められる要件には,(1)スライドに記載されるテキストが,スライド作成者によって指定されたタイトルに沿っていること,(2)そのテキストが端的にまとまっていること, (3)内容の重複が必要以上に起こっていないこと,の三つが挙げられる.論文の図や文章のスライドへの配置の仕方も最終的には考慮すべき重要な課題であるが,たたき台として大ま かな構成を決めるための試行錯誤の段階では考慮しなくとも大きな影響が無いと考え, 本研究ではテキストのみに着目する。 スライドのタイトルに沿ったテキストを生成するためには,タイトルと論文本文の内容の相関を適切に測りとり, 関連する文章のみを論文から抽出する検索器が必要である. また, 端的にまとまったテキストを生成するには原文の重要な情報をとらえつつ冗長な部分を排除する要約モデルが求められる. スライドタイトルに相関のある文章を論文から抽出し, 要約したテキストを生成する手法として Document to Slide (D2S) [2] が提案されているが, ページ間で過分に検索文が重複されてしまうという問題があり, 本研究の要求である, 必要以上に内容の重複がないことを満たせない. そこで,本研究ではページ間の内容の重複を解消しつつ要約スライドを生成する手法を提案する。本研究では検索部分で新たに組合せ最適化の割り当て問題を解くことで,異なるスライド間で内容が被らないようにスライドを生成できることを示す. ## 2 関連研究 プレゼンテーションを自動で生成しようとする研究は 2000 年ごろから存在する. 初期のスライド生成の研究では, 文章の形態素に着目してテキストからスライド用の箇条書きテキストを生成する研究 [3] や,指定したトピックで Web サイトを検索してルールベースでスライドテキストを作成する研究 [4] など,ヒューリスティックな設計に依存するモデルが主流であった. また,後年には論文からのスライド生成に対象を絞った研究 [5-7] も登場した. これらの研究では,主に回帰モデルを用いて論文内の文章間の重要度をスコアリングし, 整数線形計画法(ILP)によってスコアが最大となるような文章を抽出してスライドのテキストとしていた. 深層学習が主流となった近年では,文章の重要度を得るモデルとして畳み込みニューラルネットワークやリカレントニューラルネットワークを使用する研究 [8] が現れたほか, 系列データの相関を捉えることに長けた self-attentionを用いた言語モデルを利用した研究 $[2,9]$ も存在する. ## 3 提案手法 はじめに,スライドタイトルに沿った内容を論文から抽出し,それらを端的にまとめたテキストを 図 1: D2S の文埋め込みモデルの概要図 生成する,という目的のため本研究が参考にした Document to Slide (D2S) [2] を説明する. D2S におけるスライド生成は,スライドページのタイトルをクエリとして論文内の関連する文章を検索する段階と,検索した文章をスライドに載せる上で適切な長さに要約する段階の 2 段階に分かれている. 前半の文章検索の部分では,まずスライドのタイトルとテキストを用いて文の埋め込み表現を獲得する文埋め込みモデルを対照学習し, 推論時にはスライドのタイトルと論文内の文章を入力して類似度を計測する。この文埋め込みモデルには,学術的な文書に特化して事前訓練を行なった SciBERT [10] を採用し, 出力の CLS トークンを $\mathrm{FC}$ 層により 128 次元に圧縮することで埋め込み表現とした. 図 1 に文埋め込みモデルの概要を示す. その後, 各スライドタイトルごとに $\cos$ 類似度の値が高い文章上位 10 個を抽出し,検索結果とする.後半の要約では,検索された文章からスライドに載るテキストを生成できるように BART [11]をファインチューニングして使用する。 しかし,D2S の検索のように類似度の高いものを常に 10 個取得する方法だと, 同じ文章が複数のスライドタイトルと結び付けられてしまう可能性がある.これは異なるスライドページで同じ内容が何度も述べられることを意味しているため検索の仕方として不適切である. 本研究ではこの検索部分に制約条件付きの割り当て問題を追加することで,スライドタイトルに関連する論文内の文章の重複を抑える 方法を提案する.この割り当て問題は,次のように定式化する. 各スライドのタイトル $q_{i} \in \mathbb{Q}$ に対して,論文内の文章 $s_{j} \in \delta$ を割り当てることを考える.このとき,前述の SciBERT を用いて,論文の各文・その文章の属するセクションタイトル・スライドのタイトルの分散表現 $E_{s}, E_{t}, E_{q}$ を作成する. $ \begin{aligned} E_{s} & =\operatorname{linear}_{s}\left(\operatorname{SciBERT}\left(s_{j}\right)\right) \\ E_{t} & =\operatorname{linear}_{s}\left(\operatorname{SciBERT}\left(t_{j}\right)\right) \\ E_{q} & =\operatorname{linear}_{q}\left(\operatorname{SciBERT}\left(q_{i}\right)\right) \end{aligned} $ ここで $t_{j}$ は, 論文内の文章 $s_{j}$ が属するセクションのタイトルを表す. 式 (1)-(3)で計算した分散表現をもとに,スライドタイトルと論文の文章間の $\cos$ 類似度は $c_{i, j}$ は次式 (4)のように計算される。 $ c_{i, j}=\left(0.75 E_{s}+0.25 E_{t}\right) \cdot E_{q} $ また,割り当てるか否かのバイナリ変数を $x_{i, j} \in\{0,1\}$ とすると, 最適化時の目的関数は以下のように定義できる. $ \sum_{j} \sum_{i} c_{i, j} x_{i, j} $ この最適化問題の目的は,重複を抑えつつスライドタイトルに関連する論文内の文章を割り当てることであるため,以下の二つの制約を加える。 $ \begin{array}{ll} \sum_{i} x_{i, j} \leq N & \text { for } \forall j \\ \sum_{j} x_{i, j} \leq M & \text { for } \forall i \end{array} $ 式 (6) の制約は一つの文章が 3 個以上のスライドに割り当てられないようにする制約,式 (7) の制約は一つのスライドに割り当てられる文章の最大数を 10 個にする制約である. 本研究では $N=3, M=10$ として実験を行った。 ## 4 実験設定 提案手法の有効性を確かめるため,2つの実験を行った. 1つ目の実験は,指定されたスライドタイトルから,論文中の関連する文章を検索して抽出するモジュールの性能を評価するための実験である.各スライドタイトルにつき,上位 10 件の文章を検索する場合と, 割り当て問題を最適化した場合で抽出される文章とで比較した. 評価指標には, 既存手法と同様に逆ドキュメント頻度(IDF)によって重み付けした ROUGE スコア [2] (付録 A)を用い, 論文表 1: 抽出結果の IDF 重み付け ROUGE スコア 表 2: 生成テキストの ROUGE スコア 内でキーワードとなる単語を抽出できているかどうかを確かめた。 2つ目の実験は, 両手法によって最終的に生成されるスライドの文章を評価することで,システム全体としての性能を評価するための実験である.実際に両手法によって抽出された文章を用いて要約モデルを訓練し, 生成されたテキストと人手で作られたスライドテキストとの類似度を ROUGE スコアで比較した. また, 生成されたテキストの内容の重複具合を調べるため, 事前訓練済みの Sentence BERT [12] を用いて, 生成されたスライドのテキス卜同士の内容重複度を式 (8) で計算した。 $ \text { 内容重複度 }=\frac{1}{n} \sum_{i}^{n} \max _{\left(e_{j}^{(i)}, e_{k}^{(i)}\right) \in S_{i}, j \neq k} \cos \left(e_{j}^{(i)}, e_{k}^{(i)}\right) $ 内容重複度は,生成したスライド集合から算出する. $i$ 番目の論文から生成したスライド集合 $S_{i}$ の全てのテキストを Sentence BERT でベクトル化し,この中の 2 組のベクトル $\left(e_{j}^{(i)}, e_{k}^{(i)}\right)$ の中で, 最も $\cos$ 類似度が高い組合せを, $n$ 報の論文で平均する. 内容重複度は,0 に近いほどスライド間での内容の重複が少なく, 1 に近いほど重複が多いことに対応する. ## 5 結果 論文中の文章検索モジュールの性能を評価した結果を表 1 に示す. 各スライドタイトルごとに $\cos$ 類似度が上位 10 件の文章を抽出する手法(D2S)では, Recall が優位であった一方で, Precision では提案手法の割り当て問題最適化による抽出が優位であった。 上位 10 件を抽出する場合に対して,割り当て問題最適化による Recall が下がったのは, 割り当て問題の適用によって, 論文のスニペット数の数が限ら 表 3: 提案手法により重複が抑えられた例(Ziqiang ら [13] の論文を使用) ## [ページ 2] “Seq2seq Summarization”というタイトルのスライドに対する結果 & \\ れている場合に,スライド数あたりに割り当たるスニペット数が減少したためであると考えられる.実際に平均抽出数は D $2 \mathrm{~S}$ が 10 件であるのに対し,割り当て問題最適化の場合は 8.5 件であった. 2 つ目の実験結果を表 2 に示す. ROUGE スコアによる評価では,既存手法の方が人手のスライドテキストの内容を再現できていたことがわかる. しかし,個々の生成文の結果を見ると,提案手法によりスライド間での生成テキストの重複が削減できたケースが確認できた。表 3 にその一例を示す. この表では,ある論文のスライド 2 ページ(ページ 2 とページ 4)に対して,既存手法と提案手法が生成したテキスト,および実際に人手によって作成されたテキストを比較している。ここで,システムが提案するテキストが人手のスライドテキストの内容と一致する部分には,内容ごとに別色で色付けをしている。また,太字の部分はスライド間での内容の重複を表している。 実際に,ページ 2 とページ 4 で上位 10 件の文章を抽出した場合の生成結果を比べると,太字部分に明らかな重複が見られる.結果として,既存手法ではページ 2,ページ 4 の両方で実際のスライドテキス卜の内容を再生できていないことがわかる. 一方で提案手法では,ページ2の結果には実際のスライドテキストと一致する内容は見られないものの,ペー表 4: 生成テキストの内容重複度 ジ 4 では高い精度で人手のスライドテキストの内容を再生できていた。 また,両手法の内容重複度の平均値を表 4 に示す. 提案手法は単語・フレーズ単位では人手のスライドテキストを既存手法に比べて再現できていないが,内容の重複を抑えることに成功していることが分かる. ## 6 おわりに 本研究では,初心者経験者を問わず労力のかかるスライドテキストの生成を,論文から半自動的に行うシステムを目指し,生成されたスライドの内容重複を抑える手法を提案した.実験では, $\cos$ 類似度を用いたスコアリングをもとに割り当て問題の最適化を行うことで,重複の少ないスライドテキストの生成することに成功した。一方で, ROUGE スコアによる生成テキストの評価では既存手法にやや劣っており課題が残る. 今後の発展としては,抽出する論文の文章の長さを情報量や文脈を考慮して調整することや,文章の重複ではなく内容の重複を排除する検索手法を提案することが考えられる。 ## 参考文献 [1] Lutz Bornmann and Rüdiger Mutz. Growth rates of modern science: A bibliometric analysis based on the number of publications and cited references. Journal of the Association for Information Science and Technology, Vol. 66, No. 11, pp. 2215-2222, 2015. [2] Edward Sun, Yufang Hou, Dakuo Wang, Yunfeng Zhang, and Nancy X.R. Wang. D2S: Document-to-Slide Generation Via Query-Based Text Summarization. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, 2021. [3] Tomohide Shibata and Sadao Kurohashi. Automatic Slide Generation Based on Discourse Structure Analysis. In International Conference on Natural Language Processing, Vol. 3651, pp. 754-766, 2005. [4] Mostafa Shaikh, Mitsuru Ishizuka, and Md Tawhidul Islam. 'Auto-Presentation': a multi-agent system for building automatic multi-modal presentation of a topic from World Wide Web information. In IEEE/WIC/ACM International Conference on Intelligent Agent Technology, pp. 246-249, 2005. [5] Yue Hu and Xiaojun Wan. PPSGen: Learning-Based Presentation Slides Generation for Academic Papers. Knowledge and Data Engineering, IEEE Transactions on, Vol. 27, pp. 1085-1097, 2015. [6] A. Ashray Bhandare, Chetan J. Awati, and Sonam Kharade. Automatic era: Presentation slides from Academic paper. International Conference on Automatic Control and Dynamic Optimization Techniques, pp. 809-814, 2016. [7] Sida Wang, Xiaojun Wan, and Shikang Du. Phrase-based presentation slides generation for academic papers. In Thirty-First AAAI Conference on Artificial Intelligence, pp. 196-202, 2017. [8] Athar Sefid, Jian Wu, Prasenjit Mitra, and C. Lee Giles. Automatic Slide Generation for Scientific Papers. In SciKnow@K-CAP, 2019. [9] Tsu-Jui Fu, William Yang Wang, Daniel McDuff, and Yale Song. DOC2PPT: Automatic Presentation Slides Generation from Scientific Documents. arXiv preprint arXiv:2101.11796, 2021. [10] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: Pretrained Language Model for Scientific Text. In Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 3615-3620, 2019. [11] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 7871-7880, 2020. [12] Nils Reimers and Iryna Gurevych. Making Monolingual Sentence Embeddings Multilingual using Knowledge Distillation. In Empirical Methods in Natural Language Processing. Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing, 2020. [13] Ziqiang Cao, Wenjie Li, Sujian Li, and Furu Wei. Retrieve, Rerank and Rewrite: Soft Template Based Neural Summarization. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, 2018. ## A IDF 重み付け ROUGE スコア 4 で言及した,逆ドキュメント頻度(IDF)によって重み付けされた ROUGE スコアの計算式を追記しておく. $\operatorname{idf}(w, D)$ をある単語 $w$ のドキュメント $D$ に対する IDF, $|D|$ を $D$ に含まれる文章の総数, $n_{w}$ を単語 $w$ が $D$ のうち何個の文章に含まれるかの回数とするとき,IDFにより重み付けされた ROUGE スコアは次式 (9)-(12) のように計算される. $ \begin{aligned} & \operatorname{idf}(w, D)=\log \left(\frac{|D|}{1+n_{w}}\right)+1 \\ & \operatorname{IDF}_{\text {Recall }}=\frac{\sum_{w \in T_{k}^{\text {slide }} \cap T_{l}^{\text {picked }}} \operatorname{idf}(w, D)}{\sum_{w \in T_{k}^{\text {slide }}} \operatorname{idf}(w, D)} \end{aligned} $ $ \begin{aligned} & \mathrm{IDF}_{\text {F-measure }}=\frac{2 \cdot \mathrm{IDF}_{\text {Recall }} \cdot \mathrm{IDF}_{\text {Precision }}}{\mathrm{IDF}_{\text {Recall }}+\mathrm{IDF}_{\text {Precision }}} \end{aligned} $ ここで今回の設定では,ドキュメント $D$ は論文である.また, $T_{k}^{\text {slide }}$ は人手によって作成されたスライドのテキストに含まれる単語集合を, $T_{l}^{\text {picked }}$ は検索モジュールによって抽出された論文の文章に含まれる単語集合を表している。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT2-15.pdf
# 自殺念慮防止のための心理カウンセリング補助システム開発に 向けた対話データの作成と前処理 二瀬颯斗 $\dagger$ 牧野晃平 $\dagger$ 石崎優人 櫻井昌佳 一般社団法人 ZIAI \{hayato_futase, kohei_makino, yuto_ishizaki, masayoshi_sakurai\}aziai.jp ## 概要 先進国の中で日本における死因が自殺である割合が高く,自殺を防止する取り組みが重要である。本研究では,人が自殺しょうとする思慮である自殺念慮を持たないように相談を受ける心理カウンセリングに注目する.現状では一部の相談者しかカウンセリングを受けられていないという問題を解決するために, AIチャットボットなどの補助システムの開発を目指す.ここではその基盤として,心理カウンセリングの対話データを匿名化し, 基礎的な解析を行う。解析では相談者とカウンセラーの発話の特性を確認するために発話中の単語の解析を行い,ハイリスクな相談者の傾向を確認するために相談者の性別などの属性との関係性を調査した。 ## 1 序論 現代において自殺は社会問題の一つとなっており,日本は先進国の中でも特に死因全体のうち自殺が占める割合が高く,自殺を低減するための取り組みは急務である [1]. 近年では,平成十八年に制定された自殺対策基本法に基づいて対策が進み,学校における自殺対策として自殺予防教育 [2] や金銭的な困窮による対策 [3] など,多岐にわたる試みが行われている $[4,5]$. このような試みの成果として自殺による死亡者数は減少しているが,令和二年度では約 21,000 人が自殺で亡くなっており,依然として先進国の中では自殺者数が多い. このような中で,自然言語処理の観点ではSNSを利用して自殺しそうなユーザを検出する試みが行われている $[6,7]$. これらの取り組みは明確な自殺念慮を持つ人を検出する問題設定であり,心理状態の回復が難しくなるため, 自殺念慮が明確化する前の処置として,心理カウンセリングが重要となる.  図 1 心理カウンセリング対話データの例 インターネットの利用が一般的になった現代では,医療機関での受診が必要で,金銭的負担や心理的ハードルが高い対面のカウンセリングに対して,気軽に相談可能なオンラインでのチャット形式のカウンセリングにおける相談者が増加している.そのため,オンラインチャット方式では相談者が多いためカウンセラーの数が足りておらず,カウンセリングを受けられる相談者は相談申し込みをした人数の半分以下しかいないという問題点がある. オンラインチャット方式では,深刻な場合だけでなく自殺につながりうるような小さな悩み相談も受け付けており, 心理カウンセリングの受け血を増やすことで自殺に思い至る人自体の数自体の削減につながる. 本研究では,自然言語処理技術によって心理カウンセリングを補助するために,AIチャットボットやハイリスクな相談者を検知するシステムなどを開発することで,カウンセリングの受け皿を増やすことを目標とし,その基盤として図 1 のような実際の心理カウンセリングの対話データの前処理・解析を行う.前処理では,心理カウンセリングの対話データという特性上,個人情報が多分に含まれるため,個 人を直接特定できるような情報を匿名化処理によってマスクする.また,解析では発話中の単語の分析によって相談者とカウンセラーの発話の特徴を確認した. さらに,相談者の性別などの属性がどのような傾向を持つか調査し, さらにハイリスクな相談者がどのような属性を持ちやすいのかを解析する. 本研究の貢献は以下の点である. ・ 心理カウンセリング対話データに対して,正規表現と固有表現抽出器を用いて匿名化する部分を特定し,匿名化を施した。 ・ 心理カウンセリングの対話データの基礎的な解析として,発話中の単語を分析してカウンセラーと相談者の特徴を掴み,ハイリスクな相談者の傾向を性別などの相談者の属性で特徵づけられることを確認した。 ## 2 関連研究 自然言語処理による自殺予防のための取り組みとして,ツイートのような SNS の投稿から自殺するかどうか検知するような取り組みが行われており,近年では注目度が上がって, Twitter のユーザのうち実際に自殺や自殺未遂をした人のツイートを辿って自殺する人かどうかを検知するワークショップも開催された [8]. 他にもツイートから自殺傾向を検出するためのコーパスを構築する研究 $[6,7]$ は存在するが,自然言語処理分野では自殺念慮を予防するための研究は行われていない。 ## 3 心理カウンセリング対話データ 本研究では実際に悩みを抱えた相談者が心理カウンセラーに相談した際のデータを分析する。 データは NPO 法人東京メンタルヘルス・スクエア1)によって運営されているSNS を利用した相談窓口であるこころのほっとチャットで蓄積された対話を利用する.こころのほっとチャットは毎日正午から 12 時間程度, LINE, Twitter, Facebook および専用のウェブチャットで相談を受け付けている。 カウンセラー は自殺念慮の高い相談者を手動で選択して,優先的にカウンセリングを行う.カウンセラーは相談のために利用する情報として性別・年代・職業・相談回数・相談内容の事前記述を確認する。 データは 2018 年から 2021 年までの相談が蓄積されたもので,全てで 17,095 件の対話が含まれてい 1) https://www.npo-tms.or.jp/ る.それぞれの対話では,相談者とカウンセラーが一対一のオンラインチャット形式で 50 分間発話交換を行う.対話中にカウンセラーは監督者に助言を仰ぐことができる. 図 1 に示した対話データ2)のように,カウンセラーが確認した相談者の ID・現在までの合計相談回数・性別・年代・職業の属性,力ウンセラーが対応する前に相談者によって入力された相談内容, そして実際に相談した際の対話が含まれ,全ての発話に対してタイムスタンプが付与されている. 更に,自殺しそうな可能性が高い人や公的機関への通報に至ったなど,ハイリスクな相談者 (ハイリスク者)に対しては相談を受けたカウンセラーによってラベル付けがされており,その理由も同時に付与されている. 相談者の情報やラベル付けした理由など,選択肢があるフィールドが持ちうる値は付録の表 3 に示した. ## 4 匿名化 図 1 のように,個人を特定し得る情報をUser] や [Province] のような特殊トークンに置き換える匿名化処理を行う. 具体的には,名化対象が発話に含まれるかどうかを正規表現やヒューリスティクスによって抽出し, 固有表現抽出器および正規表現によって特定された文字列を特殊トークンに置換する.ここでは個人情報の中でも,情報単体で個人を特定可能な直接識別情報と複数の情報を利用することで個人を識別できる間接識別情報のうち,直接識別情報を匿名化することに注力する.直接識別情報と間接識別情報の内容と匿名化後の対話データの発話における特殊トークンを付録の表 4 に示す. 直接識別情報の匿名化は,SNS ID,住所,電話番号,郵便番号,メールアドレスは正規表現,相談者名はヒューリスティクス・正規表現・固有表現抽出器のすべてを用いて匿名化対象を特定する. 固有表現抽出器は自然言語処理ライブラリ GiNZA[9]のものを利用した. 発話を特定するための正規表現はそれぞれの匿名化対象ごとに作成した. SNS ID は,発話中に半角英数字が 6 文字以上かつ SNS の名称 (Facebook やフェイスブック)があるかを条件とした. 住所や電話番号,郵便番号,メールアドレスは形式が決まっているため,形式に当てはまるものを正規表現で記述した. 発話中の相談者名の特定は,ランダムに抽出した 2)例は個人情報保護の観点から実際の対話を公開することはできないため,ダミーで作成したデータである. 図 2 相談者とカウンセラーの発話の単語長の度数分布 1,000 件の人手による対話の統計から得られた,以下の三つ知見を利用したアルゴリズムを用いる. 1. カウンセリングのはじめの発話 3 ターン以内にカウンセラーは相談者に呼び名を尋ねるケースが $69.9 \%$ である. 2. 相談者が相談者自身のカウンセリング上の名前を含む発言を一度以下しかしないことがほとんどである. 3. 相談者のカウンセリング上の名前が SNS 上の名前の一部と一致するケースが $54.1 \%$ あるる。 このアルゴリズムによる相談者名特定のカバレッジは $87.7 \%$ であった. ## 5 解析 本節では基礎的な解析として,まず相談者とカウンセラーの発話の傾向をつかむために単語や trigram に着目した解析を行う.次に,相談者とハイリスク者の傾向をつかむために,年齢などの属性ごとに統計をとり,傾向を確認する.最後に属性とハイリスク者がタグ付けされた理由がどのような相関があるかを解析する。 ## 5.1 対話の統計 心理カウンセリング対話データは 17,095 件の対話で構成され,675,777 件の発話が含まれる。一対話あたりの発話数は平均 39.5, 標準偏差 21.6, 最大值 331, 最小値 2 であった. 5-20 分程度で平均 42 発話の対面形式で行うカウンセリングと比較すると [10],チャット形式は対話者はお互いの表情や身振りなどテキスト以外の情報が分からないため,相談者やカウンセラーは比較的長い時間をかけて言葉を選んでいるという特徴が確認できた。 次に相談者とカウンセラーの発話の違いを確表 11 対話あたりのハイリスク者とハイリスクでない者の trigram の平均分析 ( $\mathrm{t}$-検定において,*は $\mathrm{p}$ 值 $<0.05$ となった有意な値である) 認するために単語単位の解析を行う.分かち書きには日本語の形態素解析エンジン $\left.\mathrm{MeCab}^{3}\right)$ と辞書 mecab-ipadic-NEologd[11,12,13] を利用する。まず図 2 に示した 1 発話あたりの単語数の度数分布から,相談者はカウンセラーよりも比較的発話が短いことが確認できる.一方で,カウンセラーは極端に単語数が少ない発話を避けていた. 実際の対話を人手で確認すると,相談者は一言や短文の発話が多く,カウンセラーは話を聞いていることが伝わるように内容を確認していたり,伝わりやすいように詳しい内容を記述するような発話が確認できた。 次にハイリスク者の発話表現の傾向を見るために,相談者の trigramをハイリスク者とそうではない人で比較する。 ハイリスク者の対話 124 件と,それ以外から,trigram の辞書が十分大きくなり,八イリスク者数とのスケールとトレードオフがとれる数である 1,000 件をランダムにサンプルして利用した. それぞれの trigram が全体の trigram の top-K 含まれる割合の平均を表 1 に示す. trigram の種類は 296,926 種類あり,top100の trigram のほとんどは文末表現や接続表現であった. top10 以内・top100 以内 trigram の割合と trigram の種類において,ハイリスクでない者と比べるとハイリスク者が有意に高いことが分かる. さらに top100 以内の trigram のカバレッジの平均はハイリスク者とそうではない者それぞれ,24.22,29.92(p<0.01)となった.これらのことから,ハイリスク者はハイリスクでない者よりも,一般的な発話表現を用いず,語彙も少ないことが確認できた。 ## 5.2 相談者の統計 相談者全体とハイリスク者はどのような属性であるかの傾向を統計値から確認する。属性ごとの度数とハイリスク者の人数と全体のうちハイリスク者が占める割合を表 2 に示した.「その他・答えたくない」,というラべルは「その他」と短縮した。まず,性別に着目すると,女性の方が男性の約五倍もの相  表 2 相談者の属性ごとの度数とハイリスク者の人数 (HR)と割合 談者がいる一方で,ハイリスク者の割合は男性の方が約二倍となっている. このことから女性の方が気軽に相談できており,男性は比較的悪化してからの相談が多い傾向が読み取れる.年齢別では, $20 \sim 29$歳の SNS を頻繁に利用する層が最も相談が多く, 年齢が高くなるにつれて相談者数が減少する傾向が確認できる。 ハイリスク者は学生が多い〜19才と 40~49 歳に多いことが確認できる. 職業別に見ると,~19才の相談者は学年に分けることができる.小学生は相談者数が少ない一方で中高生に比べて八イリスク者の割合は高い.これは学年が上がるごとに相談窓口までたどり着く人数が増え, 気軽に相談できていることを示唆している。自立した生活が始まり人生における選択が多い大学生等や, 金銭的に余裕が無くなりやすい仕事無しについてはハイリスク者の割合が高く, これらの層では思い悩んで重篤化してからの相談が多いことを示唆している. ## 5.3 ハイリスク者の解析 次にハイリスク者とタグ付けされた理由と属性の相関関係を確認する.性別および年齢に対する相関関係については付録の図 4,5 に,職業に対する相 図 3 職業とハイリスク者の理由の相関関係 関関係は図 3 に示した.まず小学生に着目すると,児相通報や虐待といった学童期に直面しやすい要因が確認できる. 思春期に当たる中高学生は家出のような行動だけでなく, 自殺リスクに発展している. また,学生は親子関係が密になりやすいため,虐待のリスクにも発展している. 大学生等や仕事有りのような自立することが求められる場合では自殺リスクが大部分を占めるようになる。仕事無しの場合では,警察通報や心中念慮など重大な事案が確認できる.このようなハイリスク者の傾向から,それぞれの職業において相談内容に特徴があることを示唆しており,この対話データを利用して AI チャットボットなどの心理カウンセリング補助システムを開発するにあたって考慮する必要がある. ## 6 結論 本研究では,自殺防止の取り組みの一環として,根本的に自殺念慮自体を予防するために,心理カウンセリングの受け皿を増やすためのシステム開発を目指す. その基盤として心理カウンセリング対話データを個人情報保護のための匿名化を行い,基礎的な解析を行った. 解析では相談者とカウンセラー の発話の特徴と,相談者の属性ごとにハイリスクな相談者がどのような傾向を持つかを確認した. 今後はこの対話データを利用して,AIチャットボットやカウンセラーの業務を補助するシステムを開発する。 ## 謝辞 本研究で利用した心理カウンセリング対話データ は NPO 法人東京メンタルヘルス・スクエアから提供していただいたものです. 担当していただいた温間隆志様および提供に携わっていただいた皆様に感謝申し上げます. ## 参考文献 [1] 厚生労働省社会 - 援護局総務課自殺対策推進室. 令和 2 年度我が国における自殺の概況及び自殺対策の実施状況, 2021. 閲覧日:2022 年 1 月 9 日. [2] 川島大輔. 学校での自殺予防教育の現状と今後の課題. 社会と倫理, Vol. 34, pp. 49-58, 2019. [3] 竹島正. 自殺対策の経緯とこれから. 予防精神医学, Vol. 2, No. 1, pp. 40-47, 2017. [4] 松本寿昭, 若林佳史, 小森田龍生, 小牧奈津子, 松山博光, 安田和子, 田所満理奈, 反町吉秀. 予防に向けた自殺の要因に関する研究. 人間生活文化研究, Vol. 2013, No. 23, pp. 198-202, 2013. [5] 澤原光彦, 北村直也, 末光俊介, 青木省三. 若者の自殺予防 (<特集>現代の若者のメンタルヘルス). 心身医学, Vol. 55, No. 12, pp. 1353-1359, 2015. [6] Bridianne O'Dea, Stephen Wan, Philip J. Batterham, Alison L. Calear, Cecile Paris, and Helen Christensen. Detecting suicidality on twitter. Internet Interventions, Vol. 2, No. 2, pp. 183-188, 2015. [7] Atika Mbarek, Salma Jamoussi, Anis Charfi, and Abdelmajid Ben Hamadou. Suicidal profiles detection in twitter. In Proceedings of the 15th International Conference on Web Information Systems and Technologies, WEBIST 2019, p. 289-296, Setubal, PRT, 2019. SCITEPRESS Science and Technology Publications, Lda. [8] Sean MacAvaney, Anjali Mittu, Glen Coppersmith, Jeff Leintz, and Philip Resnik. Community-level research on suicidality prediction in a secure environment: Overview of the CLPsych 2021 shared task. In Proceedings of the Seventh Workshop on Computational Linguistics and Clinical Psychology: Improving Access, pp. 70-80, Online, June 2021. Association for Computational Linguistics. [9] 松田寛. Ginza - universal dependencies による実用的日本語解析. 自然言語処理, Vol. 27, No. 3, pp. 695-701, 2020. [10] Verónica Pérez-Rosas, Xinyi Wu, Kenneth Resnicow, and Rada Mihalcea. What makes a good counselor? learning to distinguish between high-quality and low-quality counseling conversations. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 926-935, 2019. [11] Sato Toshinori. Neologism dictionary based on the language resources on the web for mecab, 2015. [12] Taiichi Hashimoto Toshinori Sato and Manabu Okumura. Operation of a word segmentation dictionary generation system called neologd (in japanese). In Information Processing Society of Japan, Special Interest Group on Natural Language Processing (IPSJ-SIGNL), pp. NL229-15. Information Processing Society of Japan, 2016. [13] Taiichi Hashimoto Toshinori Sato and Manabu Okumura. Implementation of a word segmentation dictionary called mecab-ipadic-neologd and study on how to use it effectively for information retrieval (in japanese). In Proceedings of the Twenty-three Annual Meeting of the Association for Natural Language Processing, pp. NLP2017B6-1. The Association for Natural Language Processing, 2017. ## 付録 心理カウンセリング対話データにおける相談者の属性とハイリスクとしてタグ付けされた理由が取りうる値を表 3 に,匿名化の対象とした語句の詳細を表 4 に示した. 図 4 に示した性別とハイリスク者の理由の相関関係では,相談者数が多い女性の方が多岐にわたる理由でハイリスク者としてタグ付けされているが,共通している理由の部分に関してはあまり傾向に差異が見られなかった. 図 5 の年齢とハイリスク者の理由を比べた場合については, 学生の割合が多い〜 19 才については職業別の学生を集約したような形になっている. 相談者が多い 20〜29 歳が最もハイリスクな相談者が多い一方で, $30 \sim 39$ 歳,4049 歳においては相談者数が減少しているにもかかわらずあまりハイリスクな相談者が変わっていない. また,4049歳においては心中念慮を持つ人がおり,家族単位で困窮してしまう様子が確認できる。 表 3 対話データ中のフィールドの選択肢 \\ 表 4 匿名化対象とその特殊トークン 図 4 性別とハイリスク者の理由の相関関係
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT2-16.pdf
# テキスト穴埋めによる知識ベース対話システムの構築 薛強 滝口哲也 有木 康雄 1 神戸大学大学院 システム情報学研究科 \{xueqiang, takigu,ariki\}@stu.kobe-u.ac.jp ## 概要 近年,外部知識を用いる知識べース対話システムでは,生成する応答文の一貫性と外部知識の利用能力を向上させるために,会話に関連する外部知識と対話履歴を連結して深層学習モデルに入力する方法が提案されている. しかし,知識べース対話システムは検索された外部知識を利用することなく, 応答文を生成してしまうという問題がある.本研究では,テキスト穴埋めタスクを用いることにより,知識ベース対話システムが常に外部知識を利用することができる方法を提案する.実験により,テキスト穴埋め手法を用いた知識べース対話システムは,正確性評価指標において最高値を示した。 ## 1 はじめに 自然な応答を生成することができる雑談対話システムの構築は,自然言語処理分野における挑戦的な研究領域である. 近年, Microsoft $の$ DialoGPT [1] や, Google の Meena [2] など,人間同士の対話デー タを大量に収集して深層学習を行う生成べース対話システムが知られている. しかし, 生成べース対話システムの対話相手となる人間が,「今は何時ですか」と尋ねた場合, 生成べースシステムは学習デー タに含まれていた古い情報をもとに会話を展開することになる.こういった最新の事実に基づかない応答文を生成する「幻想問題」が報告されている [3].「幻想問題」の改善を目指し,適切な外部知識を検索できる検索ベース対話システムと,生成ベース対話システムを統合した対話システムとして,外部知識を利用した知識べース対話システムの研究が近年注目を集めている。 一方,多くの知識べース対話システム $[4,5]$ では,学習段階において,検索された外部知識と対話履歴を連結した形で深層学習モデルに入力し, 目標応答文を生成するように学習が行われている。しかし,推論段階において,検索された外部知識を入力して いるにもかかわらず,これを無視して,入力した対話履歴のみに基づいて応答文を生成してしまうという問題が報告されている [6]. そこで,本研究では,知識ベース対話システムの推論段階において,検索された外部知識が応答文に含まれるように,テキス卜穴埋め手法を用いた知識ベース対話システムを提案する。 本稿では,知識ベース対話システムに基づいて, テキスト穴埋め手法を用いた深層学習モデルの学習段階と推論段階を述べた後,構築した知識べース対話システムの実験と評価について報告する. ## 2 関連研究 本節では本研究で用いる知識ベース対話システムのベースラインと,テキスト穴埋め手法について述べる. ## 2.1 知識ベース対話システム 近年, 知識ベース対話システムが生成した応答文に関して,一貫性と外部知識の利用能力を向上させるために,対話に関連する外部知識と対話履歴を統合した会話背景を GRU [7] や GPT-2 [8] などの深層学習モデルに入力する. しかし, 深層学習モデルは最大入力長があるため,会話の進行により,徐々に増える会話背景も制限される必要がある. 会話背景に必要な入力空間を節約するために, Galetzka らは異なる知識のエンティティと対応する関係を連結することにより,検索された知識グラフをより簡潔にエンコードできるエンコード手法を提案した [4]. 本研究では, 以上述べたエンコード手法を用いる知識ベース対話システムをべースラインとする. ## 2.2 テキスト穴埋め テキスト穴埋めタスクとは,空白スペースを含む語句、文、または段落で構成されているテキストにおいて,空白スペースに欠落している語句を予測す 図 1 外部知識と対話データのエンコード. エンコードされた各種類の単語系列を異なる色で示す. ## るタスクである。 Donahue らは,任意位置にある複数の空白スペー スを含むテキスト入力に対して,欠落している目標テキストを空白スペースの位置に連結して,深層学習モデルの出力とするテキスト穴埋め手法を提案した [9]. このテキスト穴埋め手法を用いた深層学習モデルは,客観評価と主観評価で最高値に達している. 本研究では,上に述べたテキスト穴埋め手法を知識ベース対話システムに応用する。 ## 3 知識ベース対話システムの構築 本節では深層学習モデルの学習段階と推論段階において, テキスト穴埋め手法の応用により, 提案する知識ベース対話システムの構築について述べる。 ## 3.1 学習段階 本研究では, 深層学習モデルとして, DialoGPT モデルを用いる. そのため, 深層学習モデルの学習段階では,DialoGPTの学習タスクと Donahue らのエンコード手法 [4] を参照し,外部知識と対話データを以下のようにエンコードする。 - 外部知識のエンコード(図 1・(1):検索された外部知識は,各知識のエンティティと関係を連結して知識系列とする。次に異なる知識系列をランダムに連結して単語系列(1)に変換する。 ・対話履歴のエンコード(図 1・(2)(3)(4)): 対話履歴内の各発話文をトークンの列からなる単語系列(2)(3)(4)に変換する.変換された各単語系列の末尾に停止トークン<EOS>を追加する. -目標応答文のマスク処理(図 1・(5):まず,目標応答文をトークンの列からなる単語系列(5)に変換する.次に,変換された単語系列(5)の長さを $L$ とすると, 整数 $X$ と整数 $Y(1<X<Y<L)$ をランダムに選択する. $X$ 番から $Y$ 番までの単語系列を保留し(図 1 では, $X=5, Y=6$ ),それ以外の単語系列をマスクトークン<MASK>に入れ替える. 最後に,変換された単語系列(5)の末尾に停止トークン<EOS>を追加する. ・目標応答文のエンコード(図 1・6):まず,目標応答文のマスク処理において,マスクトークンに入れ替えられた二つの単語系列の末尾に停止トークン<EOS>を追加する。,次に,二つの単語系列を順番に連結して単語系列(6)変換する。 以上のようにエンコードされた単語系列を(1)~(6) の順番に連結して, 深層学習モデルの入力とする.深層学習モデルの学習タスクは,目標単語系列(6の生成確率を最大化する. ## 3.2 推論段階 深層学習モデルの推論段階では,外部知識と対話履歴のエンコード,及び推論段階の出力を以下のように行う。 - 外部知識と対話履歴のエンコード(図 1・(1)(2) (3)(4):推論段階の入力データに対して,3.1 節の学習段階と同じように単語系列(1)(2)(3)(4)に変換する。 ・知識のマスク処理 (図 2・(5):まず,検索された外部知識に関して,異なる知識のエンティティをランダムに一つ選択して,単語系列(5に変換する. 次に,整数 $X$ と整数 $Y(0<X, Y<10)$ をランダムに選択する。単語系列(5)の左方向と右方向に,X個と $Y$ 個のマスクトークン<MASK> を追加する. 最後に,単語系列(50末尾に停止トークン<EOS>を追加する。 ・穴埋め生成 (図 2・ (6) : 以上のようにエンコー ドされた単語系列を(1)~(5)の順番に連結して,深層学習モデルに入力する. 深層学習モデルはデコード戦略により,逐次的に単語系列(6)を生成する (穴埋め生成).二つ目の停止トークンくEOS>を生成した時に,穴埋め生成を停止させる. - 出力 (図 2-(7):停止トークン<EOS>により,単語系列(6を二つ単語系列に分割し,単語系列 (5)の左部分と右部分のマスクトークン<MASK> に入れ替えて単語系列(7に変換する.単語系列 (7)を推論段階の出力とする. 図 2 推論段階における外部知識のエンコードと出力. ## 4 実験と評価 実験では,知識なし対話システム(生成ベース対話システム), ベースライン (知識ベース対話システム), 及びテキスト穴埋め手法を用いた知識べー ス対話システム(提案対話システム)を実験対象とする. 本節では, 深層学習モデルの学習段階と推論段階で用いるデータセット,パラメータの設定,及び推論段階の実験評価について述べる. ## 4.1 データセット OpenDialKG [10] は,本と映画についての推薦対話が含まれている雑談対話データセットである.話者は常に知識グラフに接続しているエンティティを含む発話を行い,知識グラフの事実に基づいた推薦対話を行う.また,知識グラフとして複数ドメインからなる Freebase の知識グラフを利用している. 本研究では, OpenDialKG の各対話に対して, 検索された関連外部知識と OpenDialKG を統合したデータセット [4]を利用する. ## 4.2 実験設定 本研究の深層学習モデルとして DialoGPT モデルを使用した. GPT-2 モデルをべースとした DialoGPT モデルは,Redditから抽出した対話セッションの大規模なコーパスで学習され, 自動評価と人間評価の両方で最先端の性能を達成している. 表 1 に深層学習モデルのパラメータを示す. 表 1 深層学習モデルのパラメータ ## 4.3 実験評価 実験評価では,応答文の正解性,多様性の二つの角度から応答文の質を評価する. 多様性の評価指標として, 応答文に含まれる単語数の平均を表す Avg Len,応答文に含まれる n-gram の種類数を表す DIST-n [11]を用いる. 正解性の評価指標とし $\tau$, 応答文と正解文の類似度を表す BLEU-n [12], NIST-n [13] を用いる.ここで,NIST-n は BLEU-nをベースとした評価指標であるが,BLEU とは異なり,n-gram に対して情報量の大きさを用いて重み付けを行うため,機能語よりも内容語の一致が重視される. 表 2 に,各対話システムによって生成された応答文の評価結果を示す。表より,提案した対話システムは,正解性評価指標のスコアで全て最高値に達した.これより,テキスト穴埋めタスクの有効性が確認できる。一方,提案手法は,多様性評価指標である Avg Len スコアで最高値に達したが,多様性評価指標である DIST-1 スコアで最低値になった. 提案手法による応答文の多様性の向上は, 今後の研究課題である. 表 3 に,各対話システムによって生成された応答文の例を示す. 表より,提案手法は検索された外部知識を正確に利用し,自然な応答文を生成できることが確認できる。一方,知識べース対話システムは,外部知識が利用できていないが,対話履歴 1 に 表 2 各対話システムによって生成された応答文の評価結果 表 3 各対話システムによって生成された応答文の例. 検索された外部知識のエンティティを青色で示す. 対して,自然な応答文を生成するには,外部知識 1 が必要ではないことが考えられる.外部知識の必要性を判断できるモジュールの開発は今後の研究課題である. ## 5 おわりに 本研究では,知識ベース対話システムは検索された外部知識を利用せずに,応答文を生成するという問題を改善することを目的として,テキスト穴埋め手法を用いた知識ベース対話システムを提案した。提案した対話システムは常に外部知識を利用することができる.実験より,提案した対話システムは正解性評価指標において最高値を得た。 ## 参考文献 [1] Yizhe Zhang, Siqi Sun, Michel Galley, Yen-Chun Chen, Chris Brockett, Xiang Gao, Jianfeng Gao, Jingjing Liu and Bill Dolan. DialoGPT: Large-Scale Generative Pre-training for Conversational Response Generation, arXiv:1911.00536 (2019) [2] Daniel Adiwardana, Minh-Thang Luong, David R. So, Jamie Hall, Noah Fiedel, Romal Thoppilan, Zi Yang, Apoorv Kulshreshtha, Gaurav Nemade, Yifeng Lu and Quoc V. Le. Towards a Humanlike Open-Domain Chatbot (2020) [3] Mojtaba Komeili, Kurt Shuster and Jason Weston. : InternetAugmented Dialogue Generation. arXiv:2107.07566. (2021) [4] Fabian Galetzka, Jewgeni Rose, David Schlangen, Jens Lehmann Space Efficient Context Encoding for Non-Task-Oriented Dialogue Generation with Graph Attention Transformer Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), 7028-7041 (2021) [5] Emily Dinan, Stephen Roller, Kurt Shuster, Angela Fan, Michael Auli, and Jason Weston. Of Wikipedia: Knowledge-powered conversational agents. 7th International Conference on Learning Representations, ICLR 2019, pages 1 - 18.(2019) [6] Jason Weston, Emily Dinan and Alexander H. Miller. : Retrieve and Refine: Improved Sequence Generation Models For Dialogue, 2018; arXiv:1808.04776. (2018) [7] Kyunghyun Cho, Bart Van Merrienboer, Caglar Gul- .. cehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. Learning phrase representations using RNN encoderdecoder for statistical machine translation. EMNLP 2014 - 2014 Conference on Empirical Methods in Natural Language Processing, Proceedings of the Conference, pages 1724 - 1734 (2014) [8] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. OpenAI Blog, 1(8):9.(2019) [9] Chris Donahue, Mina Lee and Percy Liang. : Enabling Language Models to Fill in the Blanks, arXiv:2005.05339 (2020) [10] Seungwhan Moon, Pararth Shah, Anuj Kumar,and Rajen Subba. OpenDialKG: Explainable conversational reasoning with attention-based walks over knowledge graphs. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pages 845 - 854, Florence, Italy,(2019) [11] Li, J., Galley, M., Brockett, C., Gao, J., and Dolan, B. : A Diversity-Promoting Objective Function for Neural Conversation Models, Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 110 - 119 (2016) [12] Kishore Papineniet al.,: Bleu: a Method for Automatic Evaluation of Machine Translation, Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, p311-318 (2002) [13] George Doddington. Automatic evaluation of machine translation quality using n-gram cooccurrence statistics. In Proceedings of HLT (2002)
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT2-17.pdf
# ルールベースと BERT を用いた 日本語学習者向けの格助詞校正システムの提案 蔡 宇倫 荻野 正樹 関西大学 \{k540873, ogino\}@kansai-u. ac. jp ## 概要 本研究は、格助詞の誤りを余剩 (Unnecessary)・不足 (Missing)・置換 (Replacement)の 3 種類の誤りタイプに分類し、ルールベースと BERT 言語モデルを用いて、3 種類の誤りを検出・訂正する手法を提案する。日本語学習者による日本語作文データベースを用いて提案したシステムを評価した結果、従来のル一ルベースによる手法より誤り検出率が約 $8.2 \%$ 、 誤り訂正率が約 $14.3 \%$ 上回っており、ルールベースと BERTを組み合わせた手法の文法誤り訂正における有効性を検証することができた。 ## 1 はじめに グローバル化が進んでいる現在では、英語や日本語をはじめ、“外国語”を活用してコミュニケーションを図ることは決して珍しいことではない。笠原ら [1]が NAIST 誤用コーパスから日本語学習者が誤る箇所を調べた調查では、助詞の誤りが $24 \% を$ 占めており、日本語学習者に対する助詞の校正支援の重要が高いと考えられる。しかし、既存の日本語向けの自動修正ツールは誤字脱字の検出や不適切な表現の書き換えについての修正能力は高いが、日本語学習者によく見られる格助詞の誤りについては検出すらできないことが多い。 自然言語処理(NLP)において、入力したテキストの文法的誤りを自動で検出して訂正をする問題は 「文法誤り訂正 (Grammatical Error Correction: GEC )」という [2]。文法誤り訂正の手法には、大きく分けてルールベース、分類器ベース、機械翻訳ベースの 3 つがある $[3]$ 。このうち、格フレームなどの情報を参照するルールベースの手法と、機械学習を用いた機械翻訳べースの手法は格助詞誤り訂正の主流の手法である。 今枝ら [4] は入力文の格フレームと NTT 日本語語彙大系から得られる格フレームを比較することによ り、格助詞誤りの検出および訂正をする手法を提案した。その結果、 $75.6 \%$ の誤り検出率と、 $62.5 \%$ の誤り訂正率を示した。南保ら [5] は構文解析によって得られた文節内の特徴から抽出した特徴スロットと助詞の組み合わせをルールとする。さらに帰納的学習を用いて得られた助詞選択ルール辞書を用いて誤りの検出および校正の手法を提案した。この手法は、今枝ら [4] と同等な結果を得られた。2011 年以降、ルールベースによる格助詞誤り訂正の手法はほんどん提案されなかった。 近年、文法的に誤りを含む文から文法的に正しい文への翻訳をする機械翻訳ベースが文法誤り訂正の主流の手法となっている。日本語の助詞は英語の前置詞に相当する。英語の文法誤り訂正の研究において、翻訳機を使って前置詞の誤りを検出・訂正する手法が多く提案されている。しかし、機械翻訳べー スでは膨大な学習データ(対訳データ)が必要であり、日本語では、研究に使う対訳データの不足が問題になっている。この問題に対し、今村ら[6]は日本語平文コーパスの利用と擬似誤りペア文による対訳データの拡張という二つの提案を行って、小規模誤りデータからの日本語学習者作文の助詞誤り訂正の手法を提案した。その結果、 $50.2 \%$ の適合率と 18. 9 \%再現率を得ることができた。小川ら [7] は機械翻訳機にコピー機構を組み込んだモデルを用いて日本語学習者作文全般の誤りに対して訂正する手法を提案している。この手法では SMT を用いた手法より性能の向上が認められたが、英語に適用した場合と同等の性能は得られなかった。 本研究では対訳データを使わず、従来のルールベ一スの参照情報と BERT [8]を組み合わせる手法を提案し、格助詞の余剩 (Unnecessary) ・不足 (Missin g) - 置換 (Replacement) という 3 種類の誤りの検出および訂正をする。日本語学習者による日本語作文データベース[9]を用いて提案したシステムを評価する。 ## 2 システムの概要 GEC の研究において、Errant [10]により文章の誤りは余剰 (Unnecessary) ・不足 (Missing) ・置換 (Replacement)の 3 種類の誤りタイプに分類されている。本研究は格助詞の誤りを上記の 3 種類の誤りタイプに分類し、誤りタイプごとに校正手順を提案する。 本システムは図 1 で示すように、日本語学習者による作文を入力対象として、格助詞の誤りを含む文に対して、ルールベースと BERT を用いて、作文の中に格助詞が「余剰」・「不足」・「置換」の箇所を検出し、誤り箇所に対して、「削除」・「挿入」・「置換」の作業を行い、結果を出力する。 ## 3 校正手順 図 1 システムの校正手順 ## 3. 1 形態素解析 本研究では、Juman++[11]を用いて形態素解析を行う。Juman++は言語モデル Recurrent Neural Network Language Model (RNNLM) を用いた高性能の形態素解析システムである。単語の並びの意味的な自然さを考慮した解析が可能である。図 1 の(1)で入力した文節に対して、Juman++を用いて分かち書き処理をする。分かち書き処理後の単語を形態素とし、表 1 のように品詞情報を付け加える。表 1 形態素解析の例 \\ ## 3.2 「剩余」の誤り検出・訂正 機械翻訳ベースによる手法では、翻訳機は「置換」のみに対して翻訳を行うのが一般的である。今村ら[6]は「不足」・「余剰」の誤りに対する「挿入」・「削除」の操作を空単語からある単語の置換とある単語から空単語の置換とみなせる手法を提案したが、「挿入」操作は全単語の間に插入される可能性があり、非常に計算コストがかかる操作であるため、体言の後ろのみ挿入するように制約をかけた。 計算コストの制約とシステム構築の利便性を考えた上で、本システムは図 1 の(2)で得た分かち書き情報と詞品情報を用いて、文法的なルールに基づいて 「不足」と「余剩」の誤りを検出する。 ## 表 2 「余剰」の誤り一部例 \\ 「余剩」の誤りを検出および訂正する手法としては、表 2 で挙げる「余剩」の誤りに対して、分かち書き情報と詞品情報を用いて誤り箇所を検出する $[4,12]$ 。そして誤り箇所に対して削除処理を行い、「余剰」の誤りを訂正する。 ## 3.3 「不足」の誤り検出・訂正 「不足」の誤りは 3.2 節で述べる「余剩」の誤りを検出する手法と同様に、文法的なルールに基づいて誤りを検出する。 格助詞は「体言」と「用言」の間に使用するのが一般的である。そのほか、主語であることを示す場合や並立の関係を示寸場合に、「体言」と「体言」 の間に格助詞が使用される $[4]$ 。本システムでは 「体言」と「用言」または「体言」と「体言」の間に格助詞が使用される状況を細分化し、図 1 の(2)で得た分かち書き情報と詞品情報を用いて、格助詞が 「不足(脱落)」する箇所を検出する。従来のルールベースでは辞書から得られる格フレ一ムなどの情報を参照し、「不足(脱落)」の格助詞を挿入するのが一般的だが、格フレームを構築する作業量が膨大であり、全ての状況を考慮することが難しい。そこで、本システムでは BERT 言語モデルを用いて、「不足(脱落)」の格助詞を推論の手法で挿入する。 BERT は 2018 年に Google から発表されたニュー ラル言語モデルであり、文脈を深く考慮した分散表現を生成できるのが特徵である。今回提案したシステムは Transformers で提供されているクラス BERT For Masked LM を用いる。BERT For Masked LM は一部を特殊トークン「MASK」に置き換えた文章に対して、「MASK」に入る言葉を予測し、出力確率を出すことができる。 格助詞が「不足(脱落)」する箇所を特殊トークン「MASK」に置き換えて、BERTによる得た出力確率の最も高い格助詞を挿入するという貣欲法 [8] が存在するが。文に複数の誤りが含まれている場合、文の後ろの誤りが前の特殊トークンの確率判定にマイナス効果を与えることがあるため、文頭から順に 「不足」する箇所を出力確率の最も高い格助詞で置き換えても、最終的に文章全体の合計出力確率の最も高いものが出力される保証はない。今の段階では、まず貪欲法を使って、「不足(脱落)」の箇所に出力確率の最も格助詞を挿入する。 3.4 節でビー ムサーチ法[13] で改めて訂正を行う。 ## 3.4 「置換」の誤り検出 - 訂正 「置換」の誤りは BERT 言語モデルを用いて検出・訂正を行う。文の中の格助詞を特殊トークン 「MASK」に置き換えて、BERT によって得たスコアリストの上位結果をチェックすることにより、「置換」の誤りを検出することが可能である。 前節にも論じたように、貪欲法を用いて順に「置換」の格助詞を出力確率の最も高い格助詞に置き換えても、最終的に合計確率が最も高いものが出力さ れる保証はない。そこでビームサーチ法を使用する。 $ \begin{gathered} p_{i}=\frac{\exp \left(s_{i}\right)}{\sum_{j=1}^{n} \exp \left(s_{j}\right)} \\ p_{\text {tot }}=\sum_{k=1}^{N} p_{k} \\ p_{\text {best }}=\operatorname{MAX}\left(p_{\text {tot }}\right) \end{gathered} $ BERT For Masked LM の出力層では、式(1)に示寸通り、特殊トークン「MASK」の対する出力分類スコア $s=\left(s_{1}, S_{2}, \ldots, S_{n}\right)$ に対して、Softmax 関数を適用し、出力確率 $p=\left(p_{l}, p_{2}, \ldots, p_{n}\right)$ を得ることができる。まず図 1 の(2)で得た詞品情報に基づいて、文節の中の格助詞を順次に特殊トークン「MASK」で置き換える。一個目の特殊トークンを出力確率 $p$ が上位 3 位の格助詞に置き換えて、3つの文章を作る。次は得られた 3 つの文章に対して、次の特殊トークンに同じ処理を適用し、9つの文章を作る。そこで $N$個目の特殊トークンで得られた 9 つの文章ごとの合計確率 $p_{t o t}$ が式(2) に示す通り、各特殊トークンの出力確率 $p$ の合計値である。9つの文章の中から $P_{t o t}$ が上位 3 位の文章を抽出し、それ以降の特殊卜 ークンに対して以上の処理を繰り返す。最終的に、式(3)に示す通り、合計確率の最も高い文章 $p_{\text {best }}$ を正解として出力する。 図 2 ビームサーチ法の例 ## 4 実験 本章では、作文対訳データベース (対訳作文 DB) [9]を用いて提案したシステムに対して評価を行 う。対訳作文 DB は (1)日本語学習者による日本語作文 (2)作文執筆者本人による(1)の母語訳 (3)本語教師等による(1)の添削(ただし一部のみ) (4)作文執筆者・添削者の言語的履歴に関する情報という 4 種類のデータを大量に収集し,相互に参照することが可能な形で電子化したものである。 ## 4. 1 実験条件 今回の実験は対訳作文 DB の日本語学習者による日本語作文から、格助詞の誤りだけを含んで文法的に修正可能な文を 100 文抽出して、実験データとして用いる。日本語教師等による添削を正解データとする。抽出した文の中、正例が 179 箇所、誤用例が 124 箇所、合計 303 箇所の格助詞が使用されている。 ## 4. 2 実験結果 実験結果は表 3、表 4 で示すように、179 箇所の正例の中、152 箇所が正の結果と判断されて、訂正を行わず出力した。124 箇所の誤用例では、102 箇所が誤の結果と判断されて、その中、 89 箇所が正しく訂正できて出力した。[4] と同様に検出・訂正の正答率を検出率と訂正率として求めると、 検出率 $\cdots(152+102) / 303=83.8 \%$ 訂正率 $\cdots(152+89) / 303=79.5 \%$ という結果が得られる。 表 3 誤りの検出結果 表 4 誤りの訂正結果 誤文節で評価した結果が表 5 で示すように、100 誤文節の中、 83 文の誤りが検出できて、 71 文が修正できた。従って、文節に対する誤りの検出率が $83 \%$ 、誤りの訂正率が $71 \%$ という結果が得られる。 表 5 誤文の検出及び訂正結果 ## 4.3 考察 本研究で提案したシステムの性能は, $[4,5]$ で提案されている手法と比較すると、誤り検出率で約 $8.2 \%$ 、誤り訂正率で約 $14.3 \%$ 上回っていた。「不足」と「置換」の誤り訂正は BERT For Masked LM を用いることで、格フーレムの構築手順も約まる。 しかし、 (1) 一部の文法的に正しくない文節に対して、 Juman++が正しく解析できないため、文法的なルールに基づいて誤りを検出する時には、誤りは検出できない。 (2) BERT For Masked LM の事前学習のデータは, ウィキペディアの記事であるため文章の固い表現が多い。このため BERT を用いて文節を訂 る」の出力確率が高く、文節を正しく訂正できない場合がある。上記の二つの問題が存在する。ルールベースの検出条件を細分化し、小説などの平文を用いて BERT For Masked LM に転移学習させることで、誤りの検出率及び訂正率の向上が期待できると考えられる。 ## 5 おわりに 本研究は、日本語学習者が苦手とする格助詞の誤りを題材に、格助詞の余剰 (Unnecessary) ・不足 (Missing) ・置換 (Replacement) の 3 種類の誤りタイプに対するそれぞれの検出・訂正手法を提案した。 「余剩」の誤りには、形態素解析の結果に基づいて、文法的なルールを適用することにより誤りを検出・訂正する。「不足」の誤りは「余剰」の誤りと同様に、文法的なルールを適用することにより誤りを検出する。訂正の段階では、BERT の推論結果を用いた。訂正率が上がる上で格フーレムの構築手順も約まった。「置換」の誤りはビームサーチ法による作文と比較することにより、誤りの検出・訂正ができた。 対訳作文 $\mathrm{DB}$ を用いて提案したシステムを評価した結果、 $83.8 \%$ の誤り検出率と $79.5 \%$ 誤り訂正率が得られた。従来のルールベースによる手法より、誤り検出・訂正率を向上させることができた。機械翻訳ベースによる手法と比べて、対訳データを使わずに、日本語の平文で構築できる利点がある。 ルールベースと BERT を組み合わせた手法の文法誤り訂正における有効性を検証した。 ## 参考文献 1. 笠原誠司, 藤野拓也, 小町守, 永田昌明, 松本裕治. 日本語学習者の誤り傾向を反映した格助詞訂正. 言語処理学会第 18 回年次大会, pp. 14-17, 2012. 2. Yu Wang, Yuelin Wang,Jie Liu,and Zhuo Liu. A compre- hensive survey of grammar error corr ection. arXiv preprint arXiv:2005.06600, 2020. 3. 水本智也. 自然言語処理による文法誤り訂正.人工知能 2018 年 33 巻 6 号, p. 893-900, 2018. 4. 今枝恒治, 河合敦夫, 石川裕司, 永田亮, 栘井文.日本語学習者の作文における格助詞の誤り検出と訂正. 情報処理学会研究報告. コンピュー 夕と教育研究会報告, No. 13, pp. 39-46, 2003. 5. 南保亮太, 乙武北斗, 荒木健治. 文節内の特徴を用いた日本語助詞誤の自動検出・校正(語学学習支援・自動校正). 情報処理学会研究報告. 自然言語処理研究会報告, No. 94, pp. 107-112, 200 7. 6. 今村賢治, 齋藤邦子, 貞光九月, 西川仁. 小規模誤りデータからの日本語学習者作文の助詞誤り訂正. 自然言語処理 2012 年 19 巻 5 号, pp. 381 $-400,2012$ 7. 小川耀一朗, 山本和英.日本語誤り訂正における誤り傾向を考慮した擬似誤り生成.言語処理学会第 26 回年次大会, pp. 505-508, 2020. 8. 近江崇宏, 金田健太郎, 森長誠, 江間見亜利. BER Tによる自然言語処理入門. オーム社, 2021. 9. 作文対訳データベース. (引用日:2021 年 12 月 10 日.) https://mmsrv.ninjal.ac.jp/essay/ 10. Christopher Bryant,Mariano Felice,Ted Briscoe.A utomatic Annotation and Evaluation of Error Ty pes for Grammatical Error Correction.In Associa tion for Computational Linguistics,pp793-805,20 17. 11. 日本語形態素解析システム JUMAN. (引用日:20 21 年 12 月 10 日. ) https://nlp.ist.i.kyoto-u.ac.jp/?J UMAN 12. 内田茂. 留学生の日本語作文に見られる助詞の誤用について. 教育研究所紀要 34 号, pp. 45-5 0, 1998 . 13. 甫立健悟, 金子正弘, 勝又智, 小町守. 文法誤り訂正における訂正度を考慮した多様な訂正文の生成. 自然言語処理 2021 年 28 巻 2 号, pp. 428 $-449,2021$.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT2-1.pdf
# FrameNet からの動詞階層構造の抽出 岩本蘭 1 小原京子 2,3 1 富士フイルムビジネスイノベーション株式会社 2 慶應義塾大学 ${ }^{3}$ 理研 AIP ran.iwamoto.ihefujifilm.com ohara@hc.st.keio.ac.jp ## 概要 単語の階層構造は含意判定や情報抽出にとって有用な情報である。しかし応用タスクでの使用に適した動詞の階層構造に関する語彙資源は少ない。本研究では言語表現の意味をフレームを用いて記述する語彙資源 FrameNet のフレーム間関係の 1 つである Inheritance に着目し、フレームの階層構造を可視化した。そして、フレームを喚起する英語/日本語の動詞を抽出し、動詞階層構造のデータセットを作成した。また、階層構造の表現に適した Poincaré embedding を用いて英語/日本語動詞ペア間の階層構造の有無を判定するタスクを解き、 $70 \%$ 以上の F 值を達成した。 ## 1 はじめに 言語表現の背景にある常識や知識は自然言語処理の応用タスクでの性能向上に無くてはならないものである。その中でも、単語の階層構造、上位語下位語に関する知識はオントロジー構築 [1] や質問応答 [2]、意味検索 [3] にとって有用である。単語の階層構造を考慮したモデルを作成するため、単語の抽象性に関する語彙資源の作成 $[4,5,6]$ と階層構造を埋め込むべクトル表現の開発 $[7,8]$ 、つまりデータと手法の両面から研究が進められている。単語の中でも名詞の上位下位性に関するデータセットは数多く存在するが、動詞については整備が進んでいない。動詞の階層構造のデータセットとして代表的なものとして WordNet $[4,5]$ がある。 WordNet では、communicate と talk、talk と whisper のように、ある動詞と、その動詞より具体的な概念を表す動詞 (troponym) の関係性が記述されている。しかし、WordNet の troponymy 関係では、関係構造がより複雑な部分ほど階層構造が正しく設定されていないという問題が指摘されている [9]。WordNet $の$名詞、動詞の階層構造を用いて語義曖昧性解消を行った研究 [10] では、名詞に比べて動詞の語義曖昧性解消の性能が明らかに低い結果となっており、応用タスクに用いることができる動詞の階層構造の語彙資源としては十分ではないことが分かっている。 そこで我々は動詞の階層構造のデータセットを作成するため、語彙資源として FrameNet [6] を用いた。本研究の貢献は次の 3 つである。 - FrameNet のフレーム間関係の 1 つである Inheritance に着目し、フレーム同士の階層構造を可視化し大域的に観察した。 ・フレーム間関係をもとに、英語/日本語フレームネットから動詞の階層構造のデータセットを作成した。 ・作成したデータセットを用いて、動詞ペア間の階層構造の有無を判定する、動詞階層構造の埋め込みに関する新しいベンチマークタスクを考案した。 ## 2 FrameNet ## 2.1 フレーム意味論 FrameNet は、言語表現が言語使用者の意識上に喚起する背景知識(フレーム)を用いて言語表現の意味を記述するフレーム意味論 [11] という言語学的枠組みに基づき、言語表現の意味をフレームを用いて記述した語彙資源である。FrameNet は様々な言語で作成されており、英語の他にも日本語 [12] やドイツ語 [13,14]、ブラジルポルトガル語 [15] などのフレームネットが存在する。本論文では、フレーム意味論の枠組みに基づき作成された語彙資源全体を FrameNet と定義し、ある特定の言語の語彙資源を指す場合はフレームネットと記述する。 「誰が」「何を」「どうする」のような、人が経験するさまざまな状況や事象、物体に関する背景知識をフレーム (Frame) と呼び、特定のフレームを喚起する特定の語義を語彙単位 (Lexical Unit: LU) と定義している。フレームは、それぞれのフレームに即 した具体的な意味役割であるフレーム要素 (Frame Element: FE)を持つ。また、それぞれのフレーム同士の関係はフレーム間関係 (Frame to Frame Relation) として定義されている。フレーム間関係は 9 種類存在し、あるフレームの要素を全て引き継ぐ、つまりフレーム同士がある状況とより具体化した状況の関係である Inheritance や、ある状況を別の視点から見た (例えば、売買を売り手と買い手の側から見た)2 つのフレーム間の関係である Perspective on などがある。 ## 2.2 フレーム間関係 Inheritance ここでは動詞の階層構造を抽出する際の手がかりとなるフレーム間関係 Inheritance(継承) について説明する。あるフレームが別のフレームのより具体的な状況を表している場合、2つのフレームの間にはフレーム間関係 Inheritance が存在する。その際、親フレームについての定義は全て子フレームについても当てはまる。 FrameNet の構造と Inheritance 関係を持つフレー ムの例を図 1 に示す。ここでは Getting フレー ムと Commerce_buy フレームに着目している。商取引の中の一場面を買い手の立場から表現した Commerce_buy フレームは BUYER, MONey などのフレーム要素を持つ。Commerce_buy フレームは Gettingフレームを継承 (Inherits from)している。つまり、Getting フレームは Commerce_buy フレームの親フレームである。Commerce_buy フレームを喚起する語彙単位は、動詞の buy や purchase などである。これらの動詞が主動詞として文中に出現するとき、その文は Commerce_buy フレームに関する意味を持つ。つまり、商取引を買い手の立場から表現した意味を持つ。Getting フレームを喚起する語彙単位として acquire や get などが挙げられる。 本研究では、ある 2 つのフレームが Inheritance 関係 (継承、上位下位関係)を持つとき、それらのフレームを喚起する語彙単位同士も上位下位関係を持つという仮定を置いた。その仮定をもとに英語/日本語フレームネットから動詞階層構造を抽出した。 ## 3 FrameNet からの階層構造抽出 本章では FrameNet のフレーム間の Inheritance 関係を用いて動詞の上位下位関係を抽出する方法について説明する。ここでは対象として英語/日本語フ 図 1 FrameNet の構造と Inheritance 関係を持つフレームの例。Getting フレームと Commerce_buy フレームが Inheritance 関係を持つとき、それぞれの語彙単位 (LU) 同士が上位下位関係を持つと仮定する。 レームネットを用いているが、現状では他言語のフレームネットの多くが英語フレームネットと同じ〉 レームとフレーム間関係を採用しているため、本論文の手法は多言語にも適用可能である。 ## 3.1 継承関係を持つフレームの抽出 英語フレームネットから Inheritance 関係でつながっているフレームを抽出した様子を図 2 に示す。英語フレームネットのバージョン 1.7 を使用し、グラフの可視化ツールとして Cytoscape [16] を用いた。 ノードが英語フレームネットの個々のフレームを表し、エッジが Inheritance 関係を表す。 図2を見ると、上部に一番大きくかつ連結な部分グラフが 1 つあり、下部に 2 つまたは 3 つのフレー ムが繋がった小さな部分グラフが多数確認できる。大きな連結グラフの存在から、FrameNet 内ではフレーム同士は個々のフレームぺアの継承関係のみを持つのではなく、あるフレームぺアのさらに上位のフレームにわたって多段の階層構造を形成していることが分かる。これは FrameNet が多数の動詞間の上位下位関係を定義していること、つまり動詞階層構造の語彙資源として活用できそうだということを示す。 また、FrameNet 内のフレーム間関係の 1 つに着目して全体を可視化、大域的に観察した研究は著者の 図 2 Inheritance 関係でつながっているフレーム。ノードがフレーム、エッジが Inheritance 関係を表す。FrameNet 内にはフレームの多段の階層構造が存在することが分かる 知る限り存在しない。継承関係でつながっているフレームを可視化したことによって、部分グラフごとにアノテータに似たフレームのアノテーションを依頼するなど、既存のフレームのアノテーションの確認にも活用できると考えている。 図 2 の上部、大きな連結グラフの中心部分を、 Inheritance 関係でつながったフレームの例として図 3 に示す。ここではEvent フレームが Getting フレームや Coming_to_be など多数のフレームの親フレームになっていることが分かる。また、Event フレームから Getting フレーム、Commerce_buy フレームと多段の継承関係があることが分かる。グラフ化することによって抽象的なフレームをより見つけやすくなっている。 図 3 Inheritance 関係でつながったフレームの例。Event フレームは多数のフレームの親フレームである。 ## 3.2 動詞階層構造抽出 節 3.1 で作成した Inheritance 関係を持つフレームのネットワークから、一番大きな連結部分グラフを取り出した。そして、それぞれのフレームの語彙単位 (ここでは動詞)を抽出して動詞階層構造のデータセットを作成した。例えば、Inheritance 関係を持つ Getting フレームと Commerce_buy フレームの語彙単位 get と buyをノードとし、エッジでつなげることによりデータをグラフ形式に変換した。 ここで、フレーム同士の上位下位関係が存在するとフレーム内の語彙単位同士も上位下位関係を持つという仮定を定性的に検証した。Inheritance 関係を持つフレームのペアごとに語彙単位の例を挙げたものを表 1 に示す。yell と sayや、“教える”と“言う” など、継承関係を持つフレームの多くが、語彙単位同士も上位下位関係を持つことが分かる。 抽出したフレーム数と語彙単位 (動詞) 数、上位語下位語のペア数を表 2 に示す。抽出した動詞を用いて実験を行う。 ## 4 動詞階層構造埋め込み 本章では、作成した動詞の階層構造のデータセットを Poincaré embedding [7] に埋め込み、学習した埋め込みを用いて英語/日本語フレームネットの語彙単位間の上位下位関係の有無を判定する link prediction タスクを解く。 実験の目的は次の 2 つである。 ・フレームネットから作成した動詞の階層構造データセットが機械学習可能な構造を持つデー タであることを確認する。 ・動詞の階層構造埋め込みのベンチマークタスクを提案する。 表 1 英語/日本語フレームネットから抽出した、継承関係を持つフレームとその語彙単位 (動詞) の例 & & 子フレーム & 親フレーム \\ 英語 & yell & say & Communication_noise & Communication \\ 英語 & wash & $d o$ & Grooming & Intentionally_affect \\ 英語 & jump & $d o$ & Attack & Intentionally_affect \\ 英語 & eat & take & Ingestion & Ingest_substance \\ 日本語 & 売る & 与える & Commerce_sell & Giving \\ 日本語 & 教える & 言う & Telling & Statement \\ 日本語 & 飛ぶ & 行う & Self_motion & Motion \\ 日本語 & 作り上げる & 作る & Intentionally_create & Creating \\ 日本語 & 走り去る & 動く & Self_motion & Motion \\ 表 2 英語/日本語フレームネットから抽出したデータ数 ## 4.1 モデル/評価 動詞階層構造を埋め込むために、双曲空間を利用し低次元の分散表現を作成する手法である Poincaré embedding を使用した。WordNetを始めとした教師あり上位語下位語判定タスクでよく用いられる。英語/日本語フレームネットそれぞれから抽出した動詞の上位下位語ペアで 2 次元の Poincaré embedding を学習した。学習ライブラリとして gensim [17]を使用、epoch数は 500-50000 の間でチューニングした。 評価タスクとして、単語をノードとするグラフから単語を 2 つ取り出し、単語ぺアがエッジで結ばれているか (上位下位関係を持つか) を予測する link prediction タスクを用いた。本研究では英語/日本語フレームネットで link predictionを行う。ある単語ペアが分散表現内でノルムの差が一定以上かつ類似度が一定以上の時、上位下位関係を持つとした。検証/テストデータとして英語フレームネットは正例負例 10000 ペアずつ、日本語は 3000 ペアずつを無作為に抽出し、評価尺度として F1 スコアを用いた。 ## 4.2 実験結果 実験結果を表 3 に示す。英語/日本語フレームネット共に、単語ペア間の上位下位関係の有無を 7 割以上の確率で予測できたことから、作成した動詞の階層構造のデータセットは機械学習可能な構造になっていることが確認できた。表 3 英語/日本語フレームネット単語ペアの上位下位関係を判定する二値分類タスクの実験結果 ## 5 結論 本研究では FrameNet のフレーム間関係の一つである Inheritance に着目し、フレーム同士の階層構造を可視化した。また、それらのフレームを喚起する動詞を用いて英語/日本語の動詞階層構造のデータセットを作成した。作成したデータセットで Poincaré embedding を学習し、ある動詞ペアが上位下位関係を持つかを判定する 2 値分類タスクで両言語共に 7 割以上の精度を達成した。このことから、 フレームネットから作成したデータセットは機械学習が可能な構造のデータであること、また動詞の上位下位関係を分散表現に埋め込めていることが確認できた。フレーム意味論では、特に日常語に関しては言語や文化に依存しないフレームが多く存在するとしているため、本手法は英語、日本語以外の多言語フレームネットにも適用可能である。 今後の展望として、動詞の階層構造の知識の応用タスクへの適用が挙げられる。名詞の階層構造の情報が応用タスクにとって有用であるという研究 [10] は存在するが、動詞に関しては階層構造データの整備が不十分なため知識を応用タスクに埋め込む段階まで至っていない。本研究で作成した動詞の階層構造のデータセットと、埋め込みの精度を測るためのベンチマークを手掛かりに、動詞知識活用の研究を加速させていきたい。 ## 参考文献 [1] Paola Velardi, Stefano Faralli, and Roberto Navigli. OntoLearn Reloaded: A Graph-Based Algorithm for Taxonomy Induction. Computational Linguistics, Vol. 39, No. 3, pp. 665-707, 092013. [2] Mohamed Yahya, Klaus Berberich, Shady Elbassuoni, and Gerhard Weikum. Robust question answering over the web of linked data. In Proceedings of the 22nd ACM International Conference on Information amp; Knowledge Management, CIKM '13, p. 1107-1116, New York, NY, USA, 2013. Association for Computing Machinery. [3] Johannes Hoffart, Dragan Milchevski, and Gerhard Weikum. Stics: Searching with strings, things, and cats. In Proceedings of the 37th International ACM SIGIR Conference on Research amp; Development in Information Retrieval, SIGIR'14, p. 1247-1248, New York, NY, USA, 2014. Association for Computing Machinery. [4] Christiane Fellbaum. A Semantic Network of English: The Mother of All WordNets. Comput. Humanit., Vol. 32, No. 2-3, pp. 209-220, 1998. [5] George A. Miller. Wordnet: A lexical database for english. Commun. ACM, Vol. 38, No. 11, p. 39-41, nov 1995. [6] Collin F. Baker, Charles J. Fillmore, and John B. Lowe. The berkeley framenet project. In Proceedings of the 36th Annual Meeting of the Association for Computational Linguistics and 17th International Conference on Computational Linguistics - Volume 1, ACL '98/COLING '98, p. 86-90, USA, 1998. Association for Computational Linguistics. [7] Maximillian Nickel and Douwe Kiela. Poincaré embeddings for learning hierarchical representations. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [8] 岩本蘭, 小比田涼介, 和地瞭良. 極座標を用いた階層構造埋め込み. 言語処理学会第 27 回年次大会予稿集, 2021. [9] Tom Richens. Anomalies in the WordNet verb hierarchy. In Proceedings of the 22nd International Conference on Computational Linguistics (Coling 2008), pp. 729-736, Manchester, UK, August 2008. Coling 2008 Organizing Committee. [10] Satanjeev Banerjee and Ted Pedersen. Extended gloss overlaps as a measure of semantic relatedness. In Proceedings of the 18th International Joint Conference on Artificial Intelligence, IJCAI'03, p. 805-810, San Francisco, CA, USA, 2003. Morgan Kaufmann Publishers Inc. [11] Charles J. Fillmore. Frame semantics and the nature of language*. Annals of the New York Academy of Sciences, Vol. 280, No. 1, pp. 20-32, 1976. [12] 小原京子, 河原大輔, 笹野遼平, 関根聡. 集合知を用いた大規模意味的フレーム知識の構築. 言語処理学会第 27 回年次大会予稿集, 2021 . [13] Aljoscha Burchardt, Katrin Erk, Anette Frank, Andrea Kowalski, Sebastian Padó, and Manfred Pinkal. The SALSA corpus: a German corpus resource for lexical semantics. In Proceedings of the Fifth International Conference on Language Resources and Evaluation (LREC'06), Genoa, Italy, May 2006. European Language Resources Association (ELRA). [14] Alexander Ziem and Hans C Boas. Towards a constructicon for german. In 2017 AAAI Spring Symposium Series on Computational Construction Grammar and Natural Language Understanding, Vol. SS-17-02, pp. 274-277, 2017. [15] Tiago T. Torrent, Maria Margarida M. Salomão, Fernanda C. A. Campos, Regina M. M. Braga, Ely E. S. Matos, Maucha A. Gamonal, Julia A. Gonçalves, Bruno C. P. Souza, Daniela S. Gomes, and Simone R. Peron. Copa 2014 FrameNet brasil: a frame-based trilingual electronic dictionary for the football world cup. In Proceedings of COLING 2014, the 25th International Conference on Computational Linguistics: System Demonstrations, pp. 10-14, Dublin, Ireland, August 2014. Dublin City University and Association for Computational Linguistics. [16] Paul Shannon, Andrew Markiel, Owen Ozier, Nitin S Baliga, Jonathan T Wang, Daniel Ramage, Nada Amin, Benno Schwikowski, and Trey Ideker. Cytoscape: a software environment for integrated models of biomolecular interaction networks. Genome research, Vol. 13, No. 11, pp. 2498-2504, 2003. [17] Radim Rehurek and Petr Sojka. Gensim-python framework for vector space modelling. NLP Centre, Faculty of Informatics, Masaryk University, Brno, Czech Republic, Vol. 3, No. 2, 2011.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT2-2.pdf
# 終助詞ワのアノテーションとガイドライン 渡邊花恋・秋根紗香・井坂春奈・金文慧・福田禹子(九州大学文学部) 原田祐介(九州大学大学院人文科学府)・上山あゆみ(九州大学大学院人文科学研究院) ## 概要 「わ」という語は、終助詞の「わ」、「〜わ〜 わ」のように様々な用法を持っている。このような「わ」のさまざまな用法について、「驚き・程度の強調」、「理由・説明」、「関西弁」、「女性語」、「古典語」、「意見の強調」の6つに分類し、ガイドラインとフローチャートを作成した。実際にこのガイドラインとフローチャートに沿って、『現代日本語書き言葉均衡コーパス』 (BCCWJ) によってアノテーションを試み、カツパ值を計算することで、ある程度信頼性のあるガイドラインが作成できたと結論づけた。 ## 1. はじめに ワという語は、『現代日本語書き言葉均衡コー パス』 (BCCWJ) において、関西弁や女性語に付き、終助詞として用いられる一方、「〜わ〜わ」 として使用される例もあり、その意味、機能は多義にわたっている。コーパスによる検索の有用性を高めるためには、これらの用法の違いがアノテ ーションによって適切に区別されていることが望ましい。そのためには、必要に応じて分類のガイドラインを作成することが有用である。本発表では、ワの様々な用法について分類ガイドラインを作成するにあたり、どのような問題があったかを明らかにした上で、今回作成した分類ガイドラインに基づいて行われた、実際のアノテーションの結果を述べる。 ## 2. ワの分類ガイドライン まずここで、ガイドラインを示し、それぞれの分類について、その特徴を述べる。以下、特に記載がないものは全て『現代日本語書き言葉均衡コーパス』 (BCCWJ) からの引用である。 \\ ## 3. 代表的な例文と問題になりうる点 ## 3.1.「a.驚き・程度の強調」について 「a.驚き・程度の強調」の代表的な例文は、次に示す通りである。倉庫を色々と物色したらあるわあるわで、不用品とかオモチャとか 本とか服なんかをドンドン出品したら売れる (1)は「あるわ」を繰り返すことで、倉庫に想像以上に不用品があったことを強調しするとともに、 そのことに対する驚きを表す。 ## 3.2.「b.理由・説明」について $「 \mathrm{~b}$. 理由・説明」の代表的な例文は、次に示す通りである。 こなすだけ仕事が増えるわ、責任を持たされるわ、でいいこと無いなと最近思えてきました。 (2)は「いいこと無いな」と思うようになった理由を「わ」の前で累加的に用いて説明している。 この用法では、「わ」の前にくる言葉は異なっている。 ## 3.3. 「c.関西弁」について 「c.関西弁」の代表的な例文は、次に示す通りである。 (3) a. 昔、やくざの組員やったからなア、こんな黒い服が似合うんかもしれへんわ。 b. 気ィのよわいこと、いわんかて、 よかったんやわ。 (3)aと(3)bともに、文脈からも判断できるように、関西弁の語尾で用いられる「わ」である。主に、「〜んわ」、「〜やわ」、「〜わな」の形であることが多い。 ## 3.4.「d.女性語」について 「d.女性語」の代表的な例文は、次に示す通りである。 (4) a. 女の手帳なんかのぞくもんじゃないわよ。 b.「それにしても、よく、正解をいい当てられなかったわね。」 (4)a と(4)bともに、上品で女性らしい印象を与える女性語の用法である。主に、「〜わね」、「〜 わよ」の形であることが多く、上昇調のイントネ ーションを伴う。この分類では、主語を女性とは限定しない。 ## 3.5. 「e.古典語」について 「e.古典語」の代表的な例文は、次に示す通りである。 $ \begin{aligned} & \text { 敵にうしろを見せてにげだすなど } \\ & \text { とは、こいつは、いかにも近衛銃 } \\ & \text { 士のやりそうなことだわい。 } \end{aligned} $ (5)のように、古めかしい言い回しをする際の 「わ」は古典語に分類される。主に「〜わい」の形であり、主語が男性であることが多い。現代はあまり使われない。 ## 3.6.「f.意見の強調」について 「f.意見の強調」の代表的な例文は、次に示す通りである。前に、つき合った女、金沢出身やったもん。見るからに能登半島って感じで、きれいやったわ〜。 「おれ帰るわ。」といってスンシンが立ち上がった。 (6)のようにある事象に対する感動・詠嘆などの感情を込めて強調する。 また、(7)のように、「わ」の前に自分の考えや判断を述べ、その意見を強調する場合もこの分類に入る。 ## 3.7. 問題点 今回の分類案の問題点としては、「c.関西弁」と 「d.女性語」と「f.意見の強調」間でブレが生じることである。例文の中に分かりやすい表現や、情報があれば、スムーズに分類できる。分かりやすい例を用いると、「ですわ」は「. 関西弁」にも「d.女性語」にも使用される表現であるため、ブレが生じるものの一つである。 (8)のように、どうしても文を読む人の解釈でイントネーションが変わり、それに応じて分類が変わってしまう、という問題点を解決するための検討が必要である。 ## 4. アノテーション結果 『現代日本語書き言葉均衡コーパス』(BCCWJ) から、書字形出現形が「わ」で、品詞の中分類が 「助詞-終助詞」であるもの含んだ例文 500 件を抽出し、上記の分類ガイドラインにしたがって、実際にアノテーションを行ってもらった。九州大学文学部の分類に関与していない学生 2 人がそれぞれアノテーションを行い、その結果からカッパ値を計算したところ、約 0.88 となった。アノテータ間でぶれの少ないある程度信頼性のあるガイドラインが作成できたことになる。 今後、ずれの見られた「c.関西弁」、「d.女性語」、 「g.主張・判断」を中に、さらに検討を重初ていきたい。 ## 参照文献 岡本牧子・氏原康子(2008)『くらべてわかる日本語文型辞典』,324-325.Jリサーチ出版 日本語記述文法研究会 $(2008)$ 『現代日本語文法 6 第 11 部複文』,278.くろしお出版 松崎彩子(2017)「終助詞「わ」の歴史的変遷につい $\tau$ : 後期江戸語から明治大正期を中心に」,『言語の研究』 3 号 : $1-3$. 首都大学東京
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT2-3.pdf
# yamaMomo : Sudachi 同義語辞書による 日本語分散表現の評価用データセットの作成 野口 夏希 ${ }^{1}$ 勝田 哲弘 ${ }^{2}$ 山村 崇 ${ }^{2}$ 高岡 一馬 2 内田 佳孝 ${ }^{2}$ 1 愛媛大学 2 株式会社ワークスアプリケーションズ・エンタープライズ n_noguchi@ai.cs.ehime-u.ac.jp \{katsuta_a, yamamura_t, takaoka_k, uchida_yo\}@worksap.co.jp ## 概要 分散表現の評価のうち内的評価では,単語間の類似度や意味に関係がある単語を正しく類推できるかを評価するタスクが特に注目され,日本語でもデー タセットが作られている.しかし他の種類の内的評価タスクではデータセットが不足している. 本研究では表記摇れや略語・略称,カテゴリの類似度に関する内的評価タスクに注目し,Sudachi 同義語辞書を用いてデータセットを作成した. またこのデータセットで評価を行い,コーパスや形態素解析に起因する分散表現モデルの違いを確認した. ## 1 はじめに 分散表現の評価タスクには内的評価と外的評価がある. 内的評価は単語分散表現の性能を直接評価し,外的評価は実際のタスクに単語分散表現を使って評価するものである. Bakarov [1] によると内的評価は, Word Semantic Similarity, Word Analogy, Thematic Fit, Concept Categorization, Synonym Detection, Outlier Word Detection の 6 つのタスクに分類表記ゆれ. 既存の日本語分散表現のデータセットには単語の意味がどれほど近いかを指す類似度や,どれほど関連するかを指す関連度の評価をするものがある [2] が、他の内的評価タスクのためのデータセットは不足している. 本研究では Outlier Word Detection と Concept Categorization のうち, 略語・略称や表記摇れといった同義語間における類似度や,単語の属する分野に注目し, Sudachi 同義語辞書 [3] を用いて日本語分散表現の評価用データを作成した。 Sudachi 同義語辞書は Sudachi 形態素辞書に人手で同義語関係を付与した辞書である. 詳細化された同義語関係として略語・略称であるかを示す略語・略称情報,異表記,翻字,誤字など表記摇れの種別を示す情報,単語がどのような概念に属するかを示す分野情報が付与されている. 本研究の貢献は以下の 3 つである. (1) 日本語のデータセットになかったタスクに着目したデータセット及び評価指標の作成 (2) 詳細な同義関係 (代表表記と表記摇れ)や分野情報が評価できるデータセットの作成 (3) 本論文で作成したデータセットによる各モデルの評価. ## 2 先行研究 Bakarov [1] によると,内的評価のタスクは 6 種に分類される. 英語の Outlier Word Detection のためのデータセットである The 8-8-8 outlier detection dataset [4] では,単語集合の中から $\cos$ 類似度を用いて単語ベクトルの距離を測ることで outlierを選択している. 英語の Concept Categorization [5] のためのデータセットである ESSLLI-2008 [6] では,単語集合をクラスタリングツールキットを用いてクラスタリングすることで単語集合をカテゴリごとに分類している。 しかし, 日本語では 6 のタスクのうち, Word Semantic Similarity [2,7, 8, 9], Word Analogy [8]のデー タセットが公開されているに留まる。 ## 3 データセットの作成と評価 本実験では,Outlier Word Detection と Concept Categorization のデータセットの作成に, Sudachi 同義語辞書1) [3] を使用した. またデータセットに含める単語には,評価対象となる複数の分散表現モデルで共通して出現する語を選択した. 共通する語をできるだけ多くするため,分散表現モデルは大規模な chiVe [10], nwjc2vec [11], 朝日新聞単語ベクトル [12], 1) https://raw.githubusercontent.com/WorksApplications/ SudachiDict/develop/src/main/text/synonyms.txt WikiSudachiVec, 日本語 Wikipedia エンティティベクトル [13] の 5 つを使用した. WikiSudachiVec はコー パスに日本語版 Wikipedia, 形態素解析に Sudachi (C 単位)を用いて学習された日本語分散表現である。 ## 3.1 Outlier Word Detection Outlier Word Detection は,単語集合 $W$ が与えられたときに,単語集合内の残りのグループに属さない outlier の単語 $w_{o}$ を推定するタスクである. 本研究では, Sudachi 同義語辞書内で定義されている 2 単語の同義語ペア集合 $S$ の各ペア $s=\left.\{w_{s_{1}}, w_{s_{2}}\right.\} \in S$ に, $s$ に対して同義語ではないランダムな単語 $w_{o}$ を加えた $W_{s}^{o}=\left.\{w_{s_{1}}, w_{s_{2}}, w_{o}\right.\}$ を作成する. 同義語ペア $s$ の 2 単語は, Sudachi 同義語辞書において,代表語に対して表記摇れや略語・略称として定義されている同義語関係にあるものを選んだ. 表記摇れの中で,異表記(送り仮名の有無のような日本語の表記摇れ)と翻字関係(日本語の単語が英単語で書かれているような表記摇れ)を区別する.これにより,モデルがどの程度表記摇れに頑健であるかだけでなく,言語間での表記摇れはあまり区別できないなどの,詳細な評価もできると考えられる。 これらの略称の表記摇れを評価することで,略称が出現しやすいようなドメインの文書に対するモデルの有効性などを評価できると考えられる。 また, outlierの単語の選び方によっては推定が容易であるような単語のみが選ばれる可能性がある. これを回避するために,各同義語ぺア $s$ に対して $k$個の異なる outlierの単語 $\left.\{w_{o_{1}}, \ldots, w_{o_{k}}\right.\}$ をそれぞれ追加したとき,すべての組み合わせ $X_{s}=\left.\{W_{s}^{o}, \ldots, W_{s}^{o_{k}}\right.\}$ で outlier が推定できた割合で評価する. 本研究では $k=10$ とし, $s$ に対して同義語ではないランダムな 10 単語を outlier として選択した. 表 1 に具体例を示す. 作成した同義語ぺアの合計 $|S|$ は,異表記が 313 件,翻字関係が 859 件,略称が 182 件となった. 次に,このデータセットを使った分散表現の評価方法について述べる. 単語集合 $W$ 内のある単語 $w$ が $w_{o}$ であるか推定する方法として, 式 (1) から他のすべての単語 $W \backslash\{w\}$ との類似度 $\operatorname{score}_{W}(w)$ を求め,最も類似度が低い単語 $w$ を $w_{o}$ と推定する。 $ \operatorname{score}_{W}(w)=\frac{1}{|W|-1} \sum_{w_{j} \in W \backslash\{w\}} \operatorname{sim}\left(w, w_{j}\right) $ ここで, $\operatorname{sim}(\cdot)$ は単語間の類似度を示し, 先行研究 [4] に倣ってコサイン類似度を用いた。単語集合 $W$ において $w_{o}$ が正しく推定できたときに 1 (それ以外は 0 ) をとる関数 $T P(W)$ と,すべての outlier の組み合わせ $X_{S}$ において $w_{o}$ が正しく推定できたときに 1 (それ以外は 0 )をとる関数 $T P_{\text {all }}(X)$ をそれぞれ式 $(2,3)$ のように定義すると, $ \begin{gathered} T P(W)= \begin{cases}1, & \text { if } \arg \min _{w \in W} \operatorname{score}_{W}(w)=\left.\{w_{o}\right.\} \\ 0, & \text { otherwise. }\end{cases} \\ T P_{\text {all }}\left(X_{s}\right)= \begin{cases}1, & \text { if } \sum_{W \in X_{s}} T P(W)=k \\ 0, & \text { otherwise. }\end{cases} \end{gathered} $ すべての同義語ぺアに対する正解率 Acc. は式 (4) のように定義される. $ \text { Acc. }=\frac{\sum_{s \in S} T P_{\text {all }}\left(X_{S}\right)}{|S|} $ ## 3.2 Concept Categorization Concept Categorization は,単語集合 $W$ が与えられたときに,異なるカテゴリの部分集合ごとに分割するタスクである. 本研究では Sudachi 同義語辞書の 31 種類の分野情報(IT,キャラなど) をカテゴリとし,2 つカテゴリ $i, j$ を選び,各カテゴリの 2 単語ずつあわせた 4 単語のサンプル $W_{i j}=\left.\{w_{i_{1}}, w_{i_{2}}, w_{j_{1}}, w_{j_{2}} \mid i \neq j\right.\}$ を作成し, すべてのサンプルの集合を $D$ と定義する。具体例を表 2 に示す. 作成したすべてのサンプルの合計 $|D|$ は, 104, 625 件となった. 次に,このデータセットを使った分散表現の評価方法について述べる. 単語集合 $W$ に対して,各単語 $w$ の埋め込み表現を素性としてクラスタリングを行い,カテゴリごとに分類できたかを評価する.クラスタリングのアルゴリズムには, AgglomerativeClustering2)を用い,パラメータとして affinity は cosine を,linkage は average を指定する. 先行研究 [5] では,クラスタリングの評価として各クラスタが単一のカテゴリから構成されている割合を表す purityを用いているが,本研究ではデータセット $D$ に対してどのくらいのサンプルで正解できたかを評価する.正しくクラスタリングできたサンプルの集合を $D_{\text {correct }}$ とすると,正解率 Acc. は式(5) のように定義される。 2) https://scikit-learn.org/stable/modules/generated/ sklearn.cluster. AgglomerativeClustering. html 表 1 Outlier Word Detection のデータの例 \\ $ \text { Acc. }=\frac{\left|D_{\text {correct }}\right|}{|D|} $ ## 4 実験設定 3.1 項と 3.2 項で構築した Outlier Word Detection と Concept Categorization のデータセットを用いて分散表現の評価を行った. 使用したモデルはコーパスや形態素解析器による差異を分析するために、以下の 13 個を用意した. chiVe [10]: chiVe_mc5, chiVe_mc15, chiVe_mc90 コーパスに NWJC [14], 形態素解析に Sudachi を用いて学習した分散表現であり,min-countが異なる 3 つのモデルを使用する。 nwjc2vec [11] : nwjc2vec コーパスに NWJC, 形態素解析に MeCabを用いて学習した分散表現を使用する。 日本語 Wikipedia エンティティベクトル [13] : ## entityVec コーパスに Wikipedia, 形態素解析に MeCabを用いて学習した分散表現を使用する。 朝日新聞単語ベクトル [12]:A-CBOW, A-CBOW-R, A-GloVe, A-GloVe-R, A-Skip, A-SKip-R コーパスに新聞記事,形態素解析に MeCabを用いて学習した分散表現. 3 つの学習アルゴリズム (CBOW, Skip-Gram, GloVe) によって学習したモデルと, Retrofitting によってファインチューニングされた計 6 つのモデルを使用する. WikiSudachiVec: WikiSuda-A, WikiSuda-C コーパスに Wikipedia, 形態素解析に Sudachi (それぞれ A 単位, C 単位)を用いて学習した分散表現を使用する. Outlier Word Detection や Concept Categorization タスクによって各モデルが表記摇れや分野情報をコー パスから学習できているかを評価する。 ## 5 実験結果 表 3 に実験結果を示す. ## 5.1 実験 1 : Outlier Word Detection Outlier Word Detection の異表記と略称では全体的に chiVe が高い性能を示した. データセットのもとになった Sudachi 同義語辞書と訓練コーパスの分割単位が一致していることが影響したと考えられる. 翻字関係は chiVe と entityVec の正解率が高かった. 全モデルを通じて表記種別 (カタカナかアルファベット)だけをみて誤判別する傾向が目立った. chiVe は形態素解析に用いた Sudachi の正規化によって, 文脈から翻字関係の表記摇れが学習できている可能性がある。また entityVec は,記事本文中のハイパーリンクを使用し,それぞれのリンクのアンカー テキストをリンク先の記事のタイトルに置換する方法を採っており,それが翻字の学習に有効だったためと考えられる。 朝日新聞単語ベクトルは学習に用いたアルゴリズムや Retrofitting の有無で正解率に差が出ていた. CBOW は周辺単語から単語を予測, GloVe は単語からコーパス全体から得た共起頻度を用いて周辺単語を予測,Skip-gram は単語から周辺単語を予測するアルゴリズムである. A-Glove の精度が A-CBOW や A-Skip よりも低いのは, GloVe が共起頻度を考慮することで表記摇れによる細かい差異を強調したからだと考えられる. Retrofitting は周辺単語が近いべクトルになるように fine-tuning する方法である. Retrofitting によって正解率が高くなったのは, Retrofitting に使用されている日本語 WordNet の中に表記摇れのペアも存在するため,ベクトルが近づけられたからだと考えられる。 各々のデータセットについてすべてのモデルでタスクを正しく解けなかった単語集合は,異表記が 19 件,翻字関係が 26 件,略称が 4 件あった. [5, 五, 7], 表 2 Concept Categorization のデータの例 表 3 モデルによる評価 (太字:正解率が最も高かったもの上位 3 件) [バス, bass, light], [コンパニー,コンパ, ラボ]など多義性があるものが含まれており, 語義曖昧性によって,静的なべクトルでは学習が難しいデータもあることが考えられる. ## 5.2 実験 2 : Concept Categorization Concept Categorization の正解率は chiVe が最も良かった. これは,多くのドメインを持つ国語研日本語ウェブコーパスにより訓練しており,各カテゴリの事例が十分に存在したためだと考えられる. 各モデルで学習されている単語のカテゴリの違いを見るためにカテゴリ別の正解数による分散,単語集合の種類ごとの正解率を確認した. 単語集合の種類ごとの正解率を表 4 に示す. 分散はモデル内でカテゴリごとに差があり,分類タスクの行いやすさはカテゴリで均一でないことがわかった.これにより, データセット内で解きやすい単語集合とそうでない単語集合が含まれていたことが考えられる。 単語集合の種類はモデル内でタスクの行いやすさが異なることがわかった. これにより,モデルによって分類しやすいカテゴリのペアに偏りがあることがわかった.表 4 カテゴリペアによる正解率 ## 6 まとめ 本研究では Sudachi 同義語辞書を用いて,分散表現の内的評価タスクである Outlier Word Detection と Concept Categorization による日本語評価データセットを作成した. Sudachi 同義語辞書に掲載されている略語・略称情報, 表記摇れ情報, 分野情報によって, これまで評価されていなかった表記摇れやカテゴリを分散表現が学習できているかを評価し、各モデルで性能差があることを示した. 今後は, 不足している他のタスクの日本語データセットの作成も検討したい. また,本論文で作成したデータセットは公開する予定である. ## 参考文献 [1] Amir Bakarov. A survey of word embeddings evaluation methods, 2018. [2] 猪原敬介, 内海彰. 日本語類似度・関連度データセットの作成. 言語処理学会第 24 回年次大会 (NLP2018).言語処理学会, 2018. [3] 高岡一馬, 岡部裕子, 川原典子, 坂本美保, 内田佳孝.詳細化した同義関係をもつ同義語辞書の作成. 言語処理学会第 26 回年次大会 (NLP2020). 言語処理学会, 2020. [4] José Camacho-Collados and Roberto Navigli. Find the word that does not belong: A framework for an intrinsic evaluation of word vector representations. In Proceedings of the 1st Workshop on Evaluating Vector-Space Repre- sentations for NLP, pp. 43-50, Berlin, Germany, August 2016. Association for Computational Linguistics. [5] Marco Baroni, Georgiana Dinu, and Germán Kruszewski. Don't count, predict! a systematic comparison of contextcounting vs. context-predicting semantic vectors. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 238-247, Baltimore, Maryland, June 2014. Association for Computational Linguistics. [6] Stefan Evert Marco Baroni and Alessandro Lenci. Bridging the gap between semantic theory and computational simulations. In Proceedings of the ESSLLI Workshop on Distributional Lexical Semantic, FOLLI, Hamburg, 2008. [7] Yuya Sakaizawa and Mamoru Komachi. Construction of a japanese word similarity dataset, 2017. [8] Marzena Karpinska, Bofang Li, Anna Rogers, and Aleksandr Drozd. Subcharacter Information in Japanese Embeddings: When Is It Worth It? In Proceedings of the Workshop on the Relevance of Linguistic Structure in Neural Architectures for NLP, pp. 28-37, Melbourne, Australia, 2018. Association for Computational Linguistics. [9] Tomonori Kodaira, Tomoyuki Kajiwara, and Mamoru Komachi. Controlled and balanced dataset for Japanese lexical simplification. In Proceedings of the ACL 2016 Student Research Workshop, pp. 1-7, Berlin, Germany, August 2016. Association for Computational Linguistics. [10] 真鍋陽俊, 岡照晃, 海川祥毅, 高岡一馬, 内田佳孝, 浅原正幸. 複数粒度の分割結果に基づく日本語単語分散表現. 言語処理学会第 25 回年次大会 (NLP2019).言語処理学会, 2019. [11] Masayuki Asahara. 'nwjc2vec: Word embedding dataset from 'ninjal web japanese corpus', . Terminology: International Journal of Theoretical and Applied Issues in Specialized Communication, Vol. 24, No. 2, pp. 7-25, 2018. [12] 田口雄哉, 田森秀明, 人見雄太, 西鳥羽二郎, 菊田洸.同義語を考慮した日本語単語分散表現の学習. 情報処理学会研究報告, 第 2017-NL-233 巻, pp. 1-5. 情報処理学会第 233 回自然言語処理研究会, 2017. [13] Masatoshi SUZUKI, Koji MATSUDA, Satoshi SEKINE, Naoaki OKAZAKI, and Kentaro INUI. A joint neural model for fine-grained named entity classification of wikipedia articles. IEICE Transactions on Information and Systems, Vol. E101.D, No. 1, pp. 73-81, 2018. [14] Masayuki Asahara, Kikuo Maekawa, Mizuho Imada, Sachi Kato, and Hikari Konishi. Archiving and analysing techniques of the ultra-large-scale web-based corpus project of ninjal, japan. Alexandria, Vol. 26, No. 1-2, pp. 129-148, 2014. ## A 分野情報による正解率の差 表 3 の Concept に対してより詳細に分野情報ごとの精度を出した結果を以下の表に示す. 表 5 分野情報ごとの正解率
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT2-4.pdf
# どれほどの統語的教示が必要十分なのか? 能地 宏 LeapMind 株式会社 noji@leapmind.io ## 概要 本研究では、言語モデルをより人間らしくするために、どれほどの統語的教示が必要十分なのか検証する。具体的には、新しい手法である統語的アブレーション(syntactic ablation)を提案し、統語的言語モデルである再帰的ニューラルネットワーク文法(Recurrent Neural Network Grammar; RNNG)における NP、VP、PP、SBAR およびそれらを組み合わせた非終端記号を段階的に削除することで、完全な統語的教師あり(純正 RNNG と等価)から完全な統語的教師なし(単方向 LSTM と等価)まで 17 つの RNNGを構築した上で、SyntaxGym における6つの統語的サーキットで評価する。結果として、部分的な統語的教師あり RNNG が SyntaxGym で世界最高性能を達成し、言語処理に対する必要十分 (good enough)アプローチが人間らしいことを示唆する。 ## 1 はじめに 言語モデルの統語的評価に関する先行研究では [1, 2]、Long Short-Term Memory (LSTM)[3] の様な再帰的ニューラルネットワーク (Recurrent Neural Network; RNN)が、明示的な統語的教示が無いにも関わらず、非明示的に自然言語の統語構造 (例えば、英語における主語と動詞の一致など)を学習できることが示唆されている [4]。更に、これらの RNN は明示的な統語的教示の恩恵も受けることが示されており、RNN と明示的な統語的教示を統合した再帰的ニューラルネットワーク文法 (Recurrent Neural Network Grammar; RNNG)[5] は、認知的妥当性の観点から心理言語学および認知モデリングの文脈で注目を集めており、統語的評価 $[6,7]$ だけで無く心理言語学的評価 $[8,9,10]$ においても RNNより性能が高いことが知られている。 しかしながら、明示的な統語的教示の有無という二分法をめぐる集中的な議論に関わらず、どれほどの統語的教示が必要十分なのかという問いはま大関洋平 東京大学 oseki@g.ecc.u-tokyo.ac.jp だ未開拓である。特に、完全な統語的教示が最適では無いと考える潜在的な理由が少なくとも $2 \supset$存在する。まず、理論的には、完全な統語的教示が RNNによって潜在的に学習される語彙的なヒュー リスティックスを上書きしてしまい、終端記号(単語)に関する情報が再帰的な統語演算により消失してしまうという可能性である [11]。また、経験的には、完全な統語的教示が長距離依存関係の正答率に悪影響を及ぼしているという可能性であり、特に擬似分裂文では正文(例えば、What he did was prepare the meal.)と非文(例えば、*What he ate was prepare the meal.)が全く同じ統語構造を持つため、語彙的なヒューリスティックスのみで区別する必要がある [12]。従って、以上の 2 つの理由の帰結として、統語構造と語彙的ヒューリスティックスの絶妙なバランスを取るために、最適な統語的教示は完全な統語的教師ありと完全な統語的教師なしの間どこかに存在するはずであるという仮説を導くことが出来る。直感的には、文法ばかり言語モデルに教え過ぎると、言語モデルは文法にしか着目しない様になり、結果として語彙を忘れてしまうということである。 そこで、本研究では、言語モデルをより人間らしくするために、どれほどの統語的教示が必要十分なのか検証する。具体的には、新しい手法である統語的アブレーション(syntactic ablation)を提案し、統語的言語モデルである再帰的ニューラルネットワー ク文法 (Recurrent Neural Network Grammar; RNNG) [5]における NP、VP、PP、SBARおよびそれらを組み合わせた非終端記号を段階的に削除することで、完全な統語的教師あり(純正 RNNG と等価)から完全な統語的教師なし(単方向 LSTM と等価)まで 17 つの RNNG を構築した上で、SyntaxGym における 6 つの統語的サーキットで評価する。結果として、部分的な統語的教師あり RNNG が SyntaxGym で世界最高性能を達成し、心理言語学で提案されている言語処理に対する必要十分 (good enough) アプローチ $[13,14]$ が人間らしいことを示唆する。 (a) フル文法 (b) NPSb文法 (c) N文法 (d) ゼロ文法 (う LSTM) 完全な統語的教師あり部分的な統語的教師あり完全な統語的教師なし 図 1 統語的アブレーション (syntactic ablation)の概要。RNNG におけるNP、VP、PP、SBARおよびそれらを組み合わせた非終端記号を段階的に削除することで、完全な統語的教師あり(純正 RNNG と等価)から完全な統語的教師なし (単方向 LSTM と等価)まで、17つの RNNG を構築する。 ## 2 提案手法 ## 2.1 再帰的ニューラルネットワーク文法 再帰的ニューラルネットワーク文法(Recurrent Neural Network Grammar; RNNG)[5] は、文(単語列) と構造の深層生成モデルである。RNNG は、スタック LSTM[15] に基づき以下の 3 つのアクションに関する確立分布を計算する: ・NT:非終端記号を開く。 ・GEN: 終端記号(単語)を生成する。 ・REDUCE: 非終端記号を閉じる。 特に、REDUCE アクションにおいて、RNNG は双方向 LSTM に基づき左 $\rightarrow$ 右および左 $\leftarrow$ 右に複数の終端記号(単語)を句ベクトルに符号化する。また、推論において、RNNG は単語同期型ビームサーチ [16,8] を並列化した実装 [12] を用いる。1) ## 2.2 統語的アブレーション 提案手法である統語的アブレーション(structural ablation)の概要を図 1 にまとめる。RNNG における NP、VP、PP、SBAR およびそれらを組み合わせた非終端記号を段階的に削除することで、完全な統語的教師あり(純正 RNNG と等価)から完全な統語的教師なし(単方向 LSTM と等価)まで、以下 17 つの RNNG を構築する :2) - Root:ゼロ文法(単方向 LSTM と等価) ・N:NP 非終端記号のみ  ・v:VP 非終端記号のみ $\cdot$P:PP 非終端記号のみ ・Sb:SBAR 非終端記号のみ $\cdot$NV:NP と VP 非終端記号 $\cdot$NP:NP と PP 非終端記号 -NSb:NP と SBAR 非終端記号 $\cdot$VP:VP と PP 非終端記号 -VSb:VP と SBAR 非終端記号 -PSb:PP と SBAR 非終端記号 -NVP:NP、VP、PP 非終端記号 -NVSb:NP、VP、SBAR 非終端記号 -NPSb:NP、PP、SBAR 非終端記号 -VPSb:VP、PP、SBAR 非終端記号 - NVPSb:NP、VP、PP、SBAR 非終端記号 ・Full:フル文法(純正 RNNG と等価) RNNG の訓練データは、先行研究 [17] に従い、まず BLLIP コーパス [18](XL、約 42M トークン)の各文を Berkeley Neural Parser[19] で再構文解析し、以上 NP、VP、PP、SBAR およびそれらを組み合わせた非終端記号を削除することで構築した。また、各 RNNG は 3 つの異なるランダムシードで訓練した。 ## 2.3 SyntaxGym 統語的アブレーションにより構築された 17 つ RNNG は、SyntaxGym プラットフォーム [20,17] における以下の 6 つの統語的サーキットで評価した: Agreement, Garden-Path Effects, Licensing, Center Embedding、Gross-Syntactic State、Long-Distance Dependencies。 ${ }^{3}$ ) また、SyntaxGym プラットフォームのリーダーボードで採用されている「部分一致」評価尺度は正答率を過大評価してしまうため、保守的な「完全一致」評価尺度を採用した [17]。 3) https://syntaxgym.org/ ## 3 結果 ## 3.1 全体の正答率 統語的アブレーション実験における全体の正答率を図 2 にまとめる。SyntaxGym の正答率(Y 軸) を、様々な程度で統語的アブレーションした 17 つの RNNG(X 軸)に対して、先行研究 [17] における GPT-2 XL と RNNG の正答率を併せてプロットする。 エラーバーは標準偏差を示す。Root(左端)と Full (GPT-2 XL と RNNG (H20)を除く右端)は、それぞれフル文法とゼロ文法を表す。N、V、P、Sb は、それぞれ NP、VP、PP、SBAR 非終端記号が保持された文法を表す。従って、NP は NP と PP 非終端記号が保持された文法を表すため、 $\mathrm{NP}$ 非終端記号のみが保持された文法と混同されない様に注意されたい。 ここで重要な結果を 3 つ観察することが出来る。 まず、単方向 LSTM と等価である完全な統語的教師なし RNNG は、統語的教師あり RNNG と比べて優位に統語性能が低いことから、高い言語能力を実現するためには統語的教師が重要な役割を果たすことを示唆している。次に、完全な統語的教師あり RNNG は、部分的な統語的教師あり RNNG や GPT-2 XL[17] と比べて優位に統語性能が低いことから、完全な統語的教師が必要であるとは限らないことを意味している。最後に、部分的な統語的教師あり RNNG である NPSb 文法が SyntaxGym で世界最高性能を達成し(84.6)、数値的に GPT-2 XL[17] を上回っていることから (84.2)、部分的な統語的教師が十分であることを含意している。 ## 3.2 統語的サーキット毎の正答率 統語的アブレーション実験における統語的サー キット毎の正答率を図 3 にまとめる。SyntaxGym における 6 つの統語的サーキット毎の正答率(Y 軸) を、様々な程度で統語的アブレーションした 17 つのRNNG(X 軸)に対してプロットする。 興味深いことに、NP 非終端記号は 6 つ中 4 つの統語的サーキット (Agreement、Licensing、Center Embedding、Gross-Syntactic State)において統語性能を向上させているのに対して、PP 非終端記号はほぼ全ての統語的サーキット (Long-Distance Dependenciesを除く)において統語性能を向上させていない。加えて、部分的な統語的教師あり RNNG である NPSb 文法は、Long-Distance Dependencies サーキットにおいて、完全な統語的教師あり RNNG より統語性能が高いことから、完全な統語的教示が長距離依存関係(特に擬似分裂文)の正答率に悪影響を及ぼしているという可能性を支持している。 ## 4 考察 まとめると、統語的アブレーション実験を実施し、RNNG における NP、VP、PP、SBAR およびそれらを組み合わせた非終端記号を段階的に削除することで、完全な統語的教師あり(純正 RNNG と等価) から完全な統語的教師なし(単方向 LSTM と等価) まで 17 つの RNNG を構築した上で、SyntaxGym における 6 つの統語的サーキットで評価してきた。本節では、統語的アブレーション実験の結果を心理言語学および認知モデリングの文脈に位置付ける。 図 2 統語的アブレーション実験における全体の正答率。SyntaxGym における 6 つの統語的サーキットおよび 3 つのランダムシードを平均した正答率(Y 軸)を、様々な程度で統語的アブレーションした 17 つ RNNG(X 軸)に対して、先行研究 [17] における GPT-2 XL と RNNG の正答率を併せてプロットする。エラーバーは標準偏差を示す。Root(左端) と Full(GPT-2 XL と RNNG (H20) を除く右端)は、それぞれフル文法とゼロ文法を表す。N、V、P、Sb は、それぞれ NP、 VP、PP、SBAR 非終端記号が保持された文法を表す。従って、NP は NP と PP 非終端記号が保持された文法を表すため、 NP 非終端記号のみが保持された文法と混同されない様に注意されたい。 circuit $=$ Garden-Path Effects circuit $=$ Licensing 図 3 統語的アブレーション実験における統語的サーキット毎の正答率。SyntaxGym における 6 つの統語的サーキット毎の正答率(Y 軸)を、様々な程度で統語的アブレーションした 17 つ RNNG(X 軸)に対してプロットする。 ## 4.1 必要十分 (good enough) アプローチ 小節 3.1 で報告した全体の正答率は、部分的な統語的教師あり RNNG が(特に NPSb 文法)、完全な統語的教師なしRNNG および完全な統語的教師あり RNNG だけで無く、先行研究 [17]における GPT-2 XL より統語性能が高いことを示していた。これらの結果は、心理言語学で提案されている言語処理に対する必要十分 (good enough) アプローチ $[13,14]$ と親和性が高く、人間の言語処理は常に深い構文解析を実施するとは限らず、浅い構文解析や語彙的ヒューリスティックスを利用すると主張されている。従って、部分的な統語的教師あり RNNG は、浅い統語構造を生成し、語彙的ヒューリスティックスを潜在的に学習する余地を残しているという意味で、言語処理に対する必要十分アプローチを実装した認知モデルであると解釈することが出来る。 ## 4.2 長距離依存関係 小節 3.2 で報告した統語的サーキット毎の正答率は、NP 非終端記号が 6 つ中 4 つの統語的サーキットにおいて統語性能を向上させることを示していた。重要なことに、詳細に検討した結果、これら 4 つのサーキットは以下の通り関係節に修飾された重い主語 NP が現れるという点で自然類を成すことが判明した(依存関係は太字): - Agreement: [NP The author that the senators hurt] is good. - Licensing: [NP No author that the senators liked] has had any success. - Center Embedding: [NP The painting that the artist painted] deteriorated. - Gross-Syntactic State: As [NP the doctor who the administrator had recently hired] studied [NP the book that colleagues had written on cancer therapy], the nurse walked into the room. ここで重要なポイントは、REDUCE アクションが複数の終端記号(単語)を句ベクトルに符号化し、長距離依存関係を実質的に局所的にしているという点である(例えば、Agreement における author と is)。 ## 5 おわりに 本研究では、統語的アブレーション実験を実施し、RNNGにおける NP、VP、PP、SBAR およびそれらを組み合わせた非終端記号を段階的に削除することで、完全な統語的教師あり(純正 RNNG と等価) から完全な統語的教師なし(単方向 LSTM と等価) まで 17 つの RNNG を構築した上で、SyntaxGym における 6 つの統語的サーキットで評価した。結果として、部分的な統語的教師あり RNNG が SyntaxGym で世界最高性能を達成し、言語処理に対する必要十分アプローチが人間らしいことを示唆した。 ## 謝辞 本研究は、JST さきがけ JPMJPR21C2 および JSPS 科研費 JP19H04990(新学術領域研究)、JP21H05061 (学術変革領域研究 (B))、JP20K19877 (若手研究) の 助成を受けたものです。 ## 参考文献 [1] Tal Linzen, Emmanuel Dupoux, and Yoav Goldberg. Assessing the ability of LSTMs to learn syntax-sensitive dependencies. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 521-535, 2016. [2] Rebecca Marvin and Tal Linzen. Targeted syntactic evaluation of language models. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 11921202, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [3] Sepp Hochreiter and Jürgen Schmidhuber. Long Short-Term Memory. Journal of Neural Computation, Vol. 9, No. 8, pp. 17351780, 1997. [4] John Hewitt and Christopher D. Manning. A structural probe for finding syntax in word representations. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4129-4138, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [5] Chris Dyer, Adhiguna Kuncoro, Miguel Ballesteros, and Noah A. Smith. Recurrent neural network grammars. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 199-209, San Diego, California, June 2016. Association for Computational Linguistics. [6] Adhiguna Kuncoro, Chris Dyer, John Hale, Dani Yogatama, Stephen Clark, and Phil Blunsom. LSTMs can learn syntaxsensitive dependencies well, but modeling structure makes them better. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1426-1436, Melbourne, Australia, July 2018. Association for Computational Linguistics. [7] Ethan Wilcox, Peng Qian, Richard Futrell, Miguel Ballesteros, and Roger Levy. Structural supervision improves learning of non-local grammatical dependencies. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3302-3312, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [8] John Hale, Chris Dyer, Adhiguna Kuncoro, and Jonathan Brennan. Finding syntax in human encephalography with beam search. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 27272736, Melbourne, Australia, July 2018. Association for Computational Linguistics. [9] Ethan Gotlieb Wilcox, Jon Gauthier, Jennifer Hu, Peng Qian, and Roger P. Levy. On the predictive power of neural language models for human real-time comprehension behavior. ArXiv, Vol. abs/2006.01912, , 2020. [10] Ryo Yoshida, Hiroshi Noji, and Yohei Oseki. Modeling human sentence processing with left-corner recurrent neural network grammars. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 2964-2973, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [11] Adhiguna Kuncoro, Miguel Ballesteros, Lingpeng Kong, Chris Dyer, Graham Neubig, and Noah A. Smith. What do recurrent neural network grammars learn about syntax? In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pp. 1249-1258, Valencia, Spain, April 2017. Association for Computational Linguistics. [12] Hiroshi Noji and Yohei Oseki. Effective batching for recurrent neural network grammars. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 4340-4352, Online, August 2021. Association for Computational Linguistics. [13] Fernanda Ferreira, Karl G.D. Bailey, and Vittoria Ferraro. Goodenough representations in language comprehension. Current Directions in Psychological Science, Vol. 11, No. 1, pp. 11-15, 2002 . [14] Fernanda Ferreira and Nikole D. Patson. The 'good enough' approach to language comprehension. Language and Linguistics Compass, Vol. 1, No. 1-2, pp. 71-83, 2007. [15] Chris Dyer, Miguel Ballesteros, Wang Ling, Austin Matthews, and Noah A. Smith. Transition-based dependency parsing with stack long short-term memory. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 334-343, Beijing, China, July 2015. Association for Computational Linguistics. [16] Mitchell Stern, Daniel Fried, and Dan Klein. Effective inference for generative neural parsing. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 1695-1700, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. [17] Jennifer Hu, Jon Gauthier, Peng Qian, Ethan Wilcox, and Roger Levy. A systematic assessment of syntactic generalization in neural language models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1725-1744, Online, July 2020. Association for Computational Linguistics. [18] Eugene Charniak, Don Blaheta, Niyu Ge, Keith Hall, John Hale, and Mark Johnson. BLLIP 1987- 89 WSJ Corpus Release 1 LDC2000T43, 2000. Linguistic Data Consortium. [19] Nikita Kitaev, Steven Cao, and Dan Klein. Multilingual constituency parsing with self-attention and pre-training. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3499-3505, Florence, Italy, July 2019. Association for Computational Linguistics. [20] Jon Gauthier, Jennifer Hu, Ethan Wilcox, Peng Qian, and Roger Levy. SyntaxGym: An online platform for targeted evaluation of language models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 70-76, Online, July 2020. Association for Computational Linguistics.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT2-5.pdf
# 生化学分野における Video\&Language データセットの構築 迫田航次郎 ${ }^{1}$ 西村太一 ${ }^{1}$ 森信介 ${ }^{2}$ 小野富三人 ${ }^{3}$ 田中奈津子 ${ }^{3}$ 1 京都大学大学院情報学研究科 2 京都大学学術情報メディアセンター 3 大阪医科薬科大学 \{sakoda.kojiro.48z, nishimura.taichi.43x\}@st.kyoto-u.ac.jp forest@i.kyoto-u.ac.jp ## 概要 本研究では生化学分野における Video\&Language データセット (Biochemical Video-and-Language: BioVL)を構築した.このデータセットは生化学実験動画,実験プロトコル,動画に映る動作とプロトコルに記述された手順との対応関係を示すアノテーションで構成される. 動画は 4 種類の実験ごとに各 4 回ずつの 16 動画,合計 1.6 時間分を収録した. 本研究の実験では構築した BioVL データセットを用いて,手順と動作との対応関係を推定し,アライメントを獲得するタスクを行った。 ## 1 はじめに 科学の世界には「再現性の危機」と呼ばれる問題がある.これは,研究者が自分自身が過去に行った実験や,他の研究者が行った実験を再現できないという問題である. [1] によると, 生化学分野や生命科学分野の $80 \%$ 以上の研究者が他の研究者が行った実験を再現できなかった経験があると回答している。また,再現性の危機が生じる原因の一つとして, 研究者同士で実験方法や実験中の詳細な情報が共有できていないことが示されている.実験の実施に必要な, 実験の手順や機器の使用法, 試薬の調整法などの情報はプロトコルに記述され,研究者はプロトコルを参照することで実験を再現できる.プロトコルは実験に必要な手順をテキスト化しているため,多くの人が簡単に実験を実施できるようになるが,プロトコルの記述だけではそれぞれの手順が実際にどのような動作で行われているかなどの情報が伝わりづらい.そこで,実験の再現性を高める手段の一つとして,研究者が行う実験の様子を収録し,収録した動画とプロトコルとを共に参照することが挙げられる. 本研究では生化学分野を対象に, Video\&Language 図 1 BioVLデータセットの例. 生化学実験動画,実験プロトコル,動画に映る動作とプロトコルに記述された手順との対応関係を示すアノテーションで構成される。 の技術を用いて,実験方法や実験中の詳細な情報の共有を支援することで再現性の危機の解消を目指す. 具体的には,研究者が行なっている実験を収録した動画と実験の手順や条件が記述されたプロトコルとの対応関係を推定し,手順と動作のアライメントを獲得する.アライメントを獲得することで,プロトコルに記述された手順から得られる定量的な情報と動画に映る動作から得られる定性的な情報の両方を参照しながら実験を行えるため,再現実験が容易になると考えられる。 この課題を達成するための取り組みとして,まず初めに生化学分野における新しい Video\&Language データセット (Biochemical Videoand-Language: BioVL)を構築する(図 1).このデー タセットは生化学実験動画,実験プロトコル,動画に映る動作とプロトコルに記述された手順との対応関係を示すアノテーションで構成される。次に,構築した BioVL データセットを用いてプロトコルに記述された手順と動画に映る動作とのアライメントを獲得するタスクを行った. 本研究の実験結果は,最先端の事前学習済みモデルを用いても大幅な改善の余地があることを示している.また,BioVLデー タセットは研究目的でのみオンラインで利用する (a) (b)図 2 (a): カメラを装着した状態で実験を行なっている様子. (b) : 一人称視点カメラで収録した実験の様子. ことができ,これは生化学分野の Video\&Language データセットとしては初めての試みである. ## 2 BioVL データセットの構築と統計情報 BioVL データセットは生化学実験動画,実験プロトコル,動画に映る動作とプロトコルに記述された手順との対応関係を示すアノテーションで構成される. 以下に BioVLデータセットの動画収録方法,アノテーション方法,データセットの統計情報について示す. ## 2.1 実験動画の収録 ## 2.1.1 収録した実験 本研究では DNA 抽出,PCR,アガロースゲル作成,ミニプレップの,生化学分野の研究室で一般的によく行われている 4 種類の実験を収録対象とした. 収録は実験ごとに 4 回ずつ実施し,合計 16 動画,1.6 時間分を収録した.また,DNA 抽出にはフェノールクロロホルム抽出とエタノール沈殿という 2 つの方法があり,DNA 抽出に関してはこれらを 2 回ずつ収録した。 ## 2.1.2 実験収録の様子 本研究では大阪医科薬科大学の研究者に,カメラを装着した状態で実験を実施してもらうよう依頼した. 動画収録の負担を最小限にし,将来的なデータセットの拡張のために,未編集な一人称視点 [2] のカメラを採用した.また,収録のために追加のカメラやセンサー [3,4] は用いない. カメラは Panasonic の HX-A500を使用し,図 2 の (a) のようにへッドセットに固定されている。また,実験は普段と同じ環境で 1 人の研究者がプロトコルを参照しながら実施した.表 1 PCR のアノテーション例. ## 2.2 アノテーション方法 本研究では [5] に則り,非専門家によるアノテー ションと,専門家による検証を順に行うことでアノテーションを付与した. 生化学分野の非専門家のアノテーターは,収録した実験動画を見ながら,プロトコルの各手順と動画に映る動作の開始時間と終了時間を対応付けた。このアノテーションの段階で,専門家のアノテーターが非専門家のアノテーターの付けたアノテーションを検証し,誤りがあれば訂正した. BioVL データセットとしては専門家が検証した後のアノテーションのみを保存したため,非専門家と専門家のアノテーションの一致率は計算できない. 将来的には,他の専門家にさらにアノテーションの検証を依頼することでアノテーションの品質を評価する予定である.表 1 に PCR のアノテーションの例を示す. ## 2.3 統計情報 ## 2.3.1プロトコル側の統計情報 前処理として,プロトコルに記述された手順を動詞ごとに手作業で分割した。例として,"Invert 4 times to mix and add $10 \mu 1$ of Alkaline Protease Solution." という記述があった場合,"Invert 4 times to mix." と"Add $10 \mu$ l of Alkaline Protease Solution."の 2 つの手順に分割する。この前処理を行なった後のプロトコル側の統計情報を表 2 に示す。表 2 では実験によって手順の数が大幅に異なることが示されている. 手順数が最大の実験はミニプレップであり,最小の実験はフェノールクロロホルム抽出である。また,同じ実験であっても手順数が異なり,標準偏差が生じているのは,一部の実験で手順の簡略化を行なったためである.手順ごとの平均単語数が最大の実験はミニプレップであり,最小の実験は PCR である. 表 2 実験ごとの手順数と手順ごとの平均単語数. 図 3 実験ごとの動画の長さ. ## 2.3.2 動画側の統計情報 いくつかの実験では研究者が特定の手順を完了する間(試薬を遠心分離するなど)に待ち時間が生じる. 待機している間,研究者にはカメラをへッドセットに固定したまま,ヘッドセットを外してもらった. このような待機時間は実験手順とは無関係なため,手動でその間のシーンをカットした. プロトコル側と同様に,動画の前処理を行なった後の動画側の統計情報を図 3 に示す. 図 3 は実験ごとの動画の長さを示している. DNA 抽出について, 左側の 2 つがエタノール沈殿,右側の 2 つがフェノールクロロホルム抽出を示している。 また,ミニプレップの動画の長さが左側の 2 つと右側の 2 つで大きく異なるのはミニプレップの 3 回目, 4 回目の収録で試料の反応時間や手順を簡略化したためである.動画の平均時間について,ミニプレップが最長であり, PCR が最短である. ## 3 実験と評価 本研究では BioVL データセットを用いてプロトコルに記述された手順と動画に映る動作とのアライメントを獲得するタスクを行なった.このタスクを行うにあたって,BioVL データセットの大きさが限られているため, 機械学習モデルを学習させることが困難だった. そのため, 大規模なデータセットで事前学習したモデルである Video and Language Embeddimg model (VLE)[6] と Contrastive Language-Image Pre-training (CLIP)[7]をそれぞれ,モデルの重みを再学習することなくBioVLデータセットを用いたタスクに適用した.以下に,実験に用いた事前学習済みモデル,行ったタスクの詳細と結果について示す. ## 3.1 実験に用いた事前学習済みモデル ## 3.1.1 VLE VLE は動画と言語の対応関係を推定するモデルである. HowTo100M データセット [6]を用いて,対応する動画と言語のペアを共有潜在空間上に埋め込み,それらの表現べクトルの $\cos$ 類似度が大きくなるように事前学習が行われている. VLE は事前学習に用いていない様々な Video\&Language データセットに対する動画検索タスクで高い精度を達成している. ## 3.1.2 CLIP CLIP は言語から画像表現を学習する画像分類モデルである. 英語版 Wikipedia から, 4 億枚の画像とその画像を説明する言語のぺアを収集することで構築したデータセットである,WebImageText(WIT) を用いて事前学習されている。事前学習は共有潜在空間上で,対応する言語と画像との表現ベクトルの $\cos$ 類似度を最大化する一方で,対応しない言語と画像との表現べクトルの $\cos$ 類似度を最小化することで行われている. CLIP は VLE と同様に, 事前学習に用いていない様々なデータセットに対する画像分類タスクで高い精度を達成している。 また,CLIP は画像を入出力するモデルであるため, 本研究では [7] と同様に,モデルに入力する各動画区間の中央のフレームを入力画像として用いた。 ## 3.2 手順と動作のアライメントを獲得する タスク このタスクではプロトコルに記述された手順と動画に映る動作との対応関係を推定する. 手順と動作 図4 アライメントモデル. 表 3 アライメントタスクの結果. のアライメントを獲得することで,研究者がプロトコルと動画の両方から実験に必要な情報を得ることができるようになるため,実験の再現性を高めることができる. 本研究では 3 つの処理で構成されるアライメントモデルを提案した(図 4).(1) で動画を 5 秒間隔のセグメントに区切る。(2)では事前学習済みモデルから出力された手順の表現ベクトルと各セグメントの表現ベクトルの $\cos$ 類似度を計算する. 最後に,(3)では動的計画法の手法の 1 つである Needleman-Wunsch アルゴリズム [8] に基づいて最適な経路を探索することでアライメントを獲得する。 ## 3.2.1 評価尺度 アライメントの結果を評価するために,Intersection over Union (IoU) を計算し,その平均 (mIoU) を取る. $\mathrm{mIoU}$ は手順に対してアノテーションされた動画に映る動作の時間幅と, 入力した手順に対して事前学習済みモデルが予測した動作の時間幅が一致している割合の平均を示す. ## 3.2.2 結果 表 3 にアライメントタスクの結果を示す. ベースラインは動画を手順数で均一な時間幅に分割した時の結果である。本研究では最先端の事前学習済みモデルを用いたが,結果はベースラインとほとんど同じとなった. このような結果となったのは,事前学習済みモデルの学習に用いたデータセットに生化学分野のデータが含まれておらず,BioVLデータセットの動画に対して適切な表現ベクトルが得られていないことが原因であると考えられる。 ## 4 おわりに 本研究では Video\&Language 技術を用いて,生化学分野の実験の再現を支援することを目的としている.この課題を達成するための取り組みとして,まず初めに生化学実験動画,実験プロトコル,動作と手順の対応関係を示すアノテーションで構成される BioVL データセットを構築した. また,BioVL デー タセットを用いて,プロトコルに記述された手順と動画に映る動作とのアライメントを獲得するタスクを実施した.本研究の実験結果は,最先端の事前学習済みモデルを用いても大幅な改善の余地があることを示している.今後の方針としては BioVL デー タセットの動画数を増やし,機械学習モデルを学習させることや,本研究で用いた事前学習済みモデルを再学習させるために Web 上から生化学実験動画を収集することなどが考えられる。 ## 参考文献 [1] Monya Baker. 1,500 scientists lift the lid on reproducibility. Nature, No. 533, pp. 452-454, 2016. [2] Giovanni Maria Farinella Sanja Fidler Antonino Furnari Evangelos Kazakos Davide Moltisanti Jonathan Munro Toby Perrett Will Price Dima Damen, Hazel Doughty and Michael Wray. Scaling egocentric vision: The epickitchens dataset. In Proc. ECCV, pp. 753-771, 2018. [3] Qiguang Liu Henry Kautz Jiebo Luo Iftekhar Naim, Young Song and Daniel Gildea. Unsupervised alignment of natural language instructions with video segments. In Proc. AAAI, pp. 1558-1564, 2014. [4] Michaela Regneri Sikandar Amin Mykhaylo Andriluka Manfred Pinkal Marcus Rohrbach, Anna Rohrbach and Bernt Schiele. Recognizing fine-grained and composite activities using hand-centric features and script data. IJCV, No. 119. [5] Chenliang Xu Luowei Zhou and Jason J. Corso. Towards automatic learning of procedures from web instructional videos. In Proc. AAAI, pp. 7590-7598, 2018. [6] Jean-Baptiste Alayrac Makarand Tapaswi Ivan Laptev Antoine Miech, Dimitri Zhukov and Josef Sivic. Howto100m: Learning a text-video embedding by watching hundred million narrated video clips. In Proc. ICCV, pp. 2630-2640, 2019. [7] Chris Hallacy Aditya Ramesh Gabriel Goh Sandhini Agarwal Girish Sastry Amanda Askell Pamela Mishkin Jack Clark Gretchen Krueger Alec Radford, Jong Wook Kim and Ilya Sutskever. Learning transferable visual models from natural language supervision. In Proc. ICML, 2021. [8] Saul B. Needleman and Christian D. Wunsch. A general method applicable to the search for similarities in the amino acid sequence of two proteins. Jornal of Molecular Biology, No. 48, pp. 443-453, 1970
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT2-6.pdf
# 日本語 T5 モデルを用いた障害レポートからの重要箇所抽出 山下 郁海 ${ }^{1}$ 岡 照晃 ${ }^{1}$ 小町 守 ${ }^{1}$ 真鍋 章 2 谷本 恒野 ${ }^{2}$ 1 東京都立大学 2 富士電機株式会社 yamashita-ikumi@ed.tmu.ac.jp, \{teruaki-oka, komachi\}@tmu.ac.jp \{manabe-akira, tanimoto-kouya\}@fujielectric.com ## 概要 本研究では日本語 T5 モデルを用い、機器の障害情報レポートからの重要箇所抽出を質問応答形式のタスクとして実験を行う.実験の結果,BERTを用いた先行研究を上回る性能で,障害レポートからの重要箇所抽出を実現した.また T5 に入力する質問形式を変更することで抽出結果が変わることを確認し,質問の内容が重要箇所抽出の性能に影響を与えていることを明らかにした。また適切な質問を用いることで重要箇所抽出の性能が向上することを示した. ## 1 はじめに 現代社会は様々な機器に溢れており,そうした機器は時に不具合を起こすこともある. 不具合が発生すると機器の保全担当者たちは障害情報のレポー トの作成を行う. しかし, 活用の際に蓄えられたレポートを人手でくまなく確認し, 重要箇所を探し当てるのは労力の大きい作業である. 自動で重要箇所の抽出が可能になれば,例えば,故障箇所の迅速な特定と対処や,それを踏まえた顧客への早期対応などの業務改善に役立つと考えられる. 本研究で扱う障害レポートは,主に障害の状況,原因,そしてそれに対する措置を示す文と,それらに含まれないその他の文によって構成されている。障害レポートの状況・原因・措置のラベルが付与された文と重要箇所の抽出例を図 1 に示す. 本研究は障害レポートの各文が上述の 3 種類に分類されている状況下において,各文から重要箇所を抽出することを目的として研究を行う. 本研究で扱う障害レポートはデータが少なく,追加でのデータの確保も権利の関係で難しい. そのためタスクに合わせた大規模モデルを一から作成することは困難である.そこで本研究では,学習に使用可能なデータが少量である場合でも有効性が確認されている事前学習モデル $[1,2,3]$ を用いた実験を行う. 本研究と同様に障害レポートからの重要箇所抽出を行った本間ら [4] の先行研究では,Transformer [5] の Encoder 部分を用いる事前学習モデル Bidirectional Encoder Representations from Transformers (BERT) [1] により,LSTMを用いた小平らの研究 [6] からの性能向上を達成した. 本研究では本間ら [4] とは異なり, Encoder-Decoder モデルの事前学習モデルである Text-To-Text Transfer Transformer (T5) [7] を用いて実験を行い,障害レポートからの重要箇所抽出への有効性を検証し, BERT を用いた先行研究と比較して大幅な性能の向上を確認した. また,本研究では本間ら [4] によって提案された障害レポートからの重要箇所抽出の夕スクを抽出型の質問応答形式のタスクとして扱う手法にならい, T5 モデルを用いた質問応答タスクとして実験を行った。その際,質問形式の違いによる重要箇所抽出の性能比較も実施した. 結果として,適切な質問を用いることで重要箇所抽出の性能が向上することを示した. ## 2 関連研究 ## 2.1 事前学習モデル T5 近年,大規模なラベルなしデータで学習を行う事前学習モデルの研究が進み,様々なタスクで高い性能を発揮している。事前学習モデルの 1 つである T5 は自然言語処理に関する様々なタスクを全て系列から系列への変換とみなし,大規模な事前学習済み Transformer モデルを用いてタスクを解くことで性能向上を実現している. T5 の事前学習時の入力と出力の例を以下に示す. 入力今日はいい<X>で<Y>やすいですね。 出力 $<\mathrm{X}>$ 天気 $<\mathrm{Y}>$ 過ごし ここで<X>と<Y>はマスクのための特殊トークンで 図 1 障害レポートに対するアノテーションの例 ある.T5 の事前学習は Masked Language Model に基づいており,入力側は文書の一部のトークンがマスクされており, 出力側はマスクされたトークンの予測をすることで学習を行う。 ## 2.2 重要箇所抽出タスク 本研究と類似した形式で障害レポートからの重要箇所抽出を行っている研究として,LSTMを用いて系列ラベリングタスクとして解く小平らの手法 [6] と,BERT モデルを用いて質問応答タスクの形式を応用して解く本間らの手法 [4] が存在する. これらの研究は本研究と同様のタスクについて研究を行っているが,本研究で用いている事前学習済みの Encode-Decoder モデルを用いた実験や,質問応答形式における質問を変更した際の影響に関する分析は行っていない。 本研究で扱う障害レポートからの重要箇所抽出タスクは対象とするデータのドメインの違い,抽出すべき箇所が文や文章ではなくその一部であるなどの違いはみられるものの,抽出型要約タスクや Stanford Question Answering Dataset (SQuAD) [8] に代表される抽出型の質問応答タスクに類似している. 抽出型要約の研究としては,BERTを用いて fine-tuning を行う手法の有効性が報告されており [9], 正解の要約と要約候補の BERT から得られる文書表現がより近くなるように学習を行う手法 [10] も提案されている. 抽出型の質問応答の研究としては,BERTをはじめとした様々な事前学習モデルを fine-tuning する手法 $[1,2,3]$ や,スパン予測に特化した学習で性能向上を図る SpanBERT [11] が存在する. また Raffel ら [7] は T5 モデルを用いて抽出型要約や質問応答の実験を行っており,BERT モデルよりも高い性能を示している. これらの研究は本研究と類似したタスクであるが,対象は英語であり。一方,本研究ではより小規模な日本語の障害レポートを対象に T5 モデルを用いた重要箇所抽出の有効性 を確認する。 ## 2.3 入力形式の変更による性能向上 事前学習モデル GPT-3 を提案した Brown ら [12] はモデルを fine-tuning するのではなく,prompt と呼ばれる入力形式を変えることで望むタスク出力を得られることを示し,注目を浴びた。また分類タスクにおいて,入力の形式を適切に変化させ fine-tuning を行うことで性能向上が可能であることが報告されている $[13,14,15]$. これらはいずれもタスクに合わせた適切な入力形式での性能向上を示唆している.本研究でも先行研究にならい質問応答の入力となる質問の形式を複数用意し比較を行った。本研究では先行研究で扱っていない重要箇所の抽出タスクを行うだけでなく、Encoder-Decoder モデルに対する入力形式の変化の有効性について,日本語での検証に取り組んでいる。 ## 3 障害レポートからの重要箇所抽出 ## 3.1 タスク設定 障害レポートには本研究で着目する状況や原因,措置にあたる文章以外にも,これらに含まれないその他の文章も存在する. 本研究では,このような各障害レポートを人手で分類し,その他にあたる文章を除いた上で取り出された状況・原因・措置それぞれの文章を入力とし,それらから重要箇所を抽出することを目的とする.実際の人手分類後の文章(入力)と抜き出された重要箇所(目的とする出力)の例を図 1 に示す。 ## 3.2 手法 本研究では質問応答形式で重要箇所抽出を行う手法 [4] に基づき,日本語 T5 モデルを用いた質問応答タスク形式での重要箇所の抽出を行う。本研究で扱う質問応答形式での重要箇所の抽出タスクの例を 表 1 重要箇所抽出の実験結果.太字はその列内で最もスコアが高いものを示し,下線はその列内で 2 番目にスコアが高いものを示す. 質問種類がラベル別の BERT のスコアは本間ら [4] のものである. 図 $2 \mathrm{~T} 5$ を用いた質問応答形式での重要箇所抽出の例. 図 2 に示す. 図 2 では,質問として各ラベルごとの文を用意し,抽出元文章と組み合わせることで質問応答のタスクとしている。抽出元文章の始まりには “文章:”をつけ,質問の始まりには“質問:”をつけた。また T5 は Encoder-Decoder の構造の生成モデルであり,出力は抽出箇所の系列がそのまま出力される. 本研究では質問を 4 種類用いて, 質問形式による結果の比較を行った. 以下に,質問の種類とその概要を示す. 質問なし質問を一切用いず抽出元文章のみを入力とする形式 統一状況・原因・措置のラベルに関わらず統一の “重要箇所はどこ?"という質問を行う形式 ラベル別ラベルごとに“状況/原因/措置は何?”という質問を行う形式 無意味タスクとは無関係な “今日は晴れですか?” という質問を行う形式 ## 4 実験 ## 4.1 実験設定 本研究では、富士電機(株)の保有する設備保全に関する障害レポートのデータを用いる。障害レポートは 194 件存在し,データ中の人名,企業名及び場所はそれぞれ MAN,COMPANY 及び PLACEへマスキング処理を施している。また一部データでアノテーション誤りにより抽出元文章内に正解の重要箇所が含まれていないものがあったためそれらを除き,状況・原因・措置を合わせて 577 件の抽出元文章と重要箇所のペアを作成した。実験の際はこのデータを訓練:開発:評価=3:1:1 として 5 分割交差検証を行う。評価手法は本間ら [4] にならい適合率に 2 倍の重みを付ける評価尺度 $\mathrm{F}_{2}$ スコアを用いる。本研究で用いる T5 モデルは Hugging Face ${ }^{1)}$ の自然言語処理ライブラリ Transformers ${ }^{2}$ に基づく, Megagon Labs 公開の事前学習済み日本語 T5(語彙サイズ $32 \mathrm{~K}$ のモデル) 3)を使用した. 実装には Transformers のリポジトリに含まれるスクリプト run_translation.py を本研究に合わせて一部書き換えたものを用いた.学習時のパラメータは学習率 5e-5,バッチサイズ 32, エポック数 100 として最も性能の高いモデルを開発データで選択した。 ## 4.2 実験結果 実験結果を表 1 に示す。結果を見ると $\mathrm{T} 5$ を用いたモデルはどのような質問の形式でも,全てのラべルにおいて BERT を用いた先行研究よりも大幅に性能が向上している.T5 の結果内で質問形式を比較  表 2 モデルの出力例. すると,質問なしのモデルとラベル別またはラベル間で統一の質問を用いるモデルの結果の比較から,質問を用いることで性能が向上していることがわかる。一方,無意味な質問を用いるモデルは質問なしのモデルとほとんど同程度の性能であり, 単に質問を追加するだけでは性能は向上せず,質問の内容が重要であることがわかる。また最もスコアの高いラベル別の質問を行うモデルとラベル間で質問を統一したモデルを比較すると,ラベルごとに質問を分けることが性能向上に寄与していることもわかる. ## 5 分析 ## 5.1 出力例の分析 実際のモデルの出力例を表 2 に示す. 抽出元文章の赤色で書かれた箇所は重要箇所の参照である. 出力に用いたモデルは, 表 1 (3)の(全モデル中で最も性能の高かった)ラベル別の質問を文章の後ろにつけて入力を行ったモデルである。例 1 ,例 3 ,例 5 を見ると,それぞれのラベルに対して適切な出力が行われていることがわかる。また,例 4 を見ると,完全一致ではなく抽出範囲に誤りがあるものの,抽出すべき箇所の判断は正しく行われており正解に近い出力ができていることもわかる。一方,T5 は抽出モデルではなく生成モデルのため, 抽出モデルでは起こりえない誤りも存在している. 例 2 と例 6 は生成モデル特有の誤りであり, 例 2 では抽出元の文章には存在しない単語を出力している. 例 6 では抽出箇所は正しいものの,繰り返しが起きてしまっていることがわかる. ## 5.2 人手評価 5.1 節で見た表 2 の例 4 にもあるように $\mathrm{T} 5$ を用いたモデルの出力は,正解との完全一致ではないが部分一致であるようなものが多くみられた。 そこで表 3 人手評価の結果. 表 1 の(3) の出力の人手評価を行った. 具体的には,全 577 件のデータのうち,モデルの出力と正解が完全一致であったものを除く 311 件について, 2 人の評価者が下記の 4 段階での評価を行った. i. 正解と出力は完全一致ではないが、問題なく出力は受け入れられる ii. 正解と出力は完全一致ではないが、正解の方に問題があり出力は受け入れられる iii. 正解と出力は完全一致ではなく、出力は受け入れられない iv. 正解と出力は完全一致ではなく、正解に問題があるが、出力も受け入れられない それぞれの評価の具体例を付録 $\mathrm{A}$ に示す. 表 3 に人手評価の定量評価結果を示す. 出力が受け入れられると評価されているもの(i と ii)の割合が全体の $24.9 \%$ となっており,完全一致のものと合わせて $71.0 \%$ モデル出力が受け入れられるものとなった. ## 6 おわりに 本研究では日本語 $\mathrm{T} 5$ モデルを用いた障害レポー トからの質問応答形式での重要箇所抽出の研究に取り組み,日本語 BERT モデルを用いた先行研究と比較し高い性能が得られることを示した。また質問の形式を適切なものに変えることで,質問を用いない場合や適切ではない質問を用いる場合と比較し,性能向上を確認した。今後はより適切な質問形式に関して詳細な研究を行っていきたい. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In NAACL, pp. 41714186, 2019. [2] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A robustly optimized bert pretraining approach, 2019. [3] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. ALBERT: A lite bert for self-supervised learning of language representations. In ICLR, 2020. [4] 本間広樹, 小町守, 真鍋章, 谷本恒野. BERT モデルを用いた障害レポートに対する重要箇所抽出. 言語処理学会第 27 回年次大会, pp. 189-193, 2021. [5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NIPS, Vol. 30, pp. 5998-6008, 2017. [6] 小平知範, 宮崎亮輔, 小町守. 障害情報レポートに対する同時関連文章圧縮. 言語処理学会第 23 回年次大会, pp. 189-193, 2017. [7] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. JMLR, Vol. 21, pp. $1-67,2020$. [8] Pranav Rajpurkar, Robin Jia, and Percy Liang. Know what you don't know: Unanswerable questions for SQuAD. In ACL, pp. 784-789, 2018. [9] Yang Liu and Mirella Lapata. Text summarization with pretrained encoders. In EMNLP-IJCNLP, pp. 3730-3740, 2019. [10] Ming Zhong, Pengfei Liu, Yiran Chen, Danqing Wang, Xipeng Qiu, and Xuanjing Huang. Extractive summarization as text matching. In ACL, pp. 6197-6208, 2020. [11] Mandar Joshi, Danqi Chen, Yinhan Liu, Daniel S. Weld, Luke Zettlemoyer, and Omer Levy. SpanBERT: Improving pre-training by representing and predicting spans. TACL, Vol. 8, pp. 64-77, 2020. [12] Tom Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared D Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel Ziegler, Jeffrey Wu, Clemens Winter, Chris Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, and Dario Amodei. Language models are few-shot learners. In NeurIPS, Vol. 33, pp. 1877-1901, 2020. [13] Timo Schick and Hinrich Schütze. Exploiting clozequestions for few-shot text classification and natural language inference. In EACL, pp. 255-269, 2021. [14] Xiao Liu, Yanan Zheng, Zhengxiao Du, Ming Ding, Yujie Qian, Zhilin Yang, and Jie Tang. GPT understands, too. arXiv:2103.10385, 2021. [15] Timo Schick and Hinrich Schütze. It's not just size that matters: Small language models are also few-shot learners. In NAACL-HLT, pp. 2339-2352, 2021. ## 付録 ## A 人手評価の各評価の例 出力の人手評価における各評価の例を表 4 に示す. 評価 1 は,正解の重要箇所が過不足なく必要な情報を持っており, 重要箇所とモデル出力との差が,モデル出力の方が正解の重要箇所より長い場合は余計な要素がなく,モデル出力の方が正解の重要箇所より短い場合は差分にあたる箇所の重要度が低いものである. 評価 2 は,正解が必要最低限の情報を持っていないなどの理由で問題がある一方で,モデル出力が必要な情報を抽出できている場合である。評価 3 は,評価 1 と同様に正解の重要箇所が過不足なく必要な情報を持っている一方で,モデル出力に余計な要素が存在している,必要な情報まで削ってしまっている,そもそも抽出箇所が異なる,などのものである。評価 4 は,評価 2 と同様に正解が必要最低限の情報を持っていないなどの理由で問題があるもので,かつモデル出力も評価 3 と同様の理由で問題があるものである. 表 4 人手評価における各評価例. \\
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT2-7.pdf
# 知識グラフ埋め込みにおける負例サンプリング損失の分析 上垣外 英剛 東京工業大学 kamigaito@lr.pi.titech.ac.jp } 林克彦 群馬大学 khayashi0201@gmail .com ## 概要 知識グラフ埋め込み (KGE) の学習では扱うエンティティ数が膨大であるため,負例サンプリング (NS) 損失が重要な役割を果たす。しかし, NS 損失におけるマージン項,負例サンプル数,サブサンプリング法などを適切に検討しなければ,KGE の学習性能は著しく悪化してしまうことが知られている. これまでこの問題は経験的なハイパーパラメータチューニングによって対処されてきたが,本稿では NS 損失を理論的に分析し,KGE 学習における NS 損失の活用に関する理解を深める. ## 1 はじめに 知識グラフは質問応答・対話といった自然言語処理の課題に対処する上で重要な資源である。しかし,全てのエンティティに対する関係を人手で網羅することは困難であるため,知識グラフ補完 (KGC) に関する研究が進められている.KGCに対するアプローチとしては知識グラフ埋め込み (KGE) がよく研究されている $[1,2,3,4,5]$. 知識グラフに含まれるエンティティ数は膨大であるため, 計算効率性の観点から KGE の学習では負例サンプリング (NS) 損失が広く使用されている。 しかし,NS 損失は本来,単語分散表現の学習のために提案された手法である [6]. 本来の $\mathrm{NS}$ 損失に加えられたいくつかの違いにより, KGE の学習においてはスコア関数,使用する損失関数,ハイパーパラメータの組み合わせは多様なものとなる。これらの組み合わせを適切に選択することで,KGE の性能は大きく変化することが知られているが $[7,8]$, どのような組み合わせが適切であるかは理論的に明確ではない,そのため,現状では経験的なハイパーパラメータチューニングに頼っており,様々な組み合わせを考慮するために膨大な計算時間を必要とする. 我々はこの問題に対処するために,KGE で用いられている NS 損失に対しての理論的な検証を行い, いくつかの理論的な事実を明らかにした。それらの理論的な事実を FB15k-237,WN18RR,YAGO3-10 を用いて実験を通して検証した結果,我々が導いた理論的な事実は実際のモデルでも観測されることを示した. さらに,理論的な観点から提案したサブサンプリング法を用いることでモデル性能を改善できることについても示した. ## 2 KGE における NS 損失 本節では KGE を定式化し,それに基づいて,文献 [6] で提案された元の NS 損失と KGE で使用されている NS 損失との差異について説明する。 ## 2.1 KGE の定式化 本稿ではエンティティ $e_{i}, e_{j}$ とその関係 $r_{k}$ を表す triplet を $\left(e_{i}, r_{k}, e_{j}\right)$ と表記する。KGCではクエリ $\left(e_{i}, r_{k}, ?\right)$ や $\left(?, r_{k}, e_{j}\right)$ が与えられ, モデルは? に対応するエンティティを予測する。 入力されたクエリを $x$ ,予測すべきエンティティを $y$ とすると,モデルパラメータ $\theta$ に基づくスコア関数 $s_{\theta}(x, y)$ の下, $x$ から $y$ が予測される確率 $p_{\theta}(y \mid x)$ は,Softmax 関数を用いて次のように定義される: $ p_{\theta}(y \mid x)=\frac{\exp \left(s_{\theta}(x, y)\right)}{\sum_{y^{\prime} \in Y} \exp \left(s_{\theta}\left(x, y^{\prime}\right)\right)} . $ 本稿では以後,損失関数が 0 となった際の式 (1)を目的分布と呼ぶ. ## 2.2 NS 損失 Softmax 関数は明示的に確率を表せるが,正規化項によって学習時間が増大してしまう,そのため,学習時に正規化を行うことなくSoftmax 関数を近似する手法として NS 損失が提案された [6]. $p_{d}(x, y)$ に従う観測データ $D=\left.\{\left(x_{1}, y_{1}\right), \cdots,\left(x_{n}, y_{n}\right)\right.\}$ に対し, NS 損失は次で定義される。 $-\frac{1}{|D|} \sum_{(x, y) \in D}\left[\log \left(\sigma\left(s_{\theta}(x, y)\right)\right)+\sum_{y_{i} \sim p_{n}(y \mid x)} \log \left(\sigma\left(-s_{\theta}\left(x, y_{i}\right)\right)\right)\right]$. $p_{n}(y \mid x)$ はノイズ分布, $\sigma$ はシグモイド関数を表す. 一方,近年は式 (2) と共に,マージン項 $\gamma$ を加えた次のような NS 損失が使用されている [4]. $ \begin{aligned} & -\frac{1}{|D|} \sum_{(x, y) \in D}\left[\log \left(\sigma\left(s_{\theta}(x, y)+\gamma\right)\right)\right. \\ & \left.\quad+\frac{1}{v} \sum_{y_{i} \sim p_{n}(y \mid x)} \log \left(\sigma\left(-s_{\theta}\left(x, y_{i}\right)-\gamma\right)\right)\right] . \end{aligned} $ 次節以降で両損失関数の差異を議論する。 ## 3 理論的な分析 ## 3.1 マージン項の役割 本節ではマージン項 $\gamma$ が持つ役割について理論的側面から論じる. 式 (2) と式 (3)を比較することで, $\gamma$ の役割に関連する次の命題を示せる. 命題 1 式 (2)と式 (3) は同じ目的分布を持つ. ${ }^{1)}$ 命題 1 より, $\gamma$ の存在は損失関数が最適解に到達した場合には影響を及ぼさない事が分かる。一方,上記の命題が成立するには, 前提となる損失関数が最適解に到達できる必要がある. 特に,スコア関数の值域が $(-\infty,+\infty)$ ではない場合, 到達不可能な值が存在することになるため,この点を議論する。 值域に制限のあるスコア関数として,TransE [1], RotatE [4], HAKE [9] 等に代表される距離べースのスコアリング法がある。距離ベースのスコアリング法は $p$-ノルムを用いて $-\left.\|f_{\theta}(x, y)\right.\|_{p}$ と表現される. $f_{\theta}(x, y)$ は $(\mathrm{x}, \mathrm{y})$ に対してべクトル值を返す関数である. 従って, $f_{\theta}(x, y)$ が任意のベクトルを表現可能な時,距離ベースのスコアリング法の値域は $(-\infty, 0]$ となる. これより次の命題が成立する. 命題 2 距離ベースのスコアリング関数は式 (2) において $v p_{n}(y \mid x)<p_{d}(y \mid x)$ となる $(x, y)$ が存在する時, 最適解に到達できない。 また, 式 (3) においては, $\exp (\gamma) p_{n}(y \mid x)<p_{d}(y \mid x)$ となる $(x, y)$ が存在する時, 最適解に到達できない. ${ }^{2)}$ 命題 2 より, 距離ベースのスコアリング法を NS 損失で学習する際にはノイズ分布を適切に選択する必要があることが分かる。 しかし, 式 (2)では, $v p_{n}(y \mid x)>p_{d}(y \mid x)$ となる $v$ 及びノイズ分布を使用 1)証明は付録 A. 1 に記載. 2)証明は付録 A. 2 に記載. する必要があるが,ノイズ分布の調整のみで全ての (x,y) に対してこの条件を満たすことは困難である. したがって式 (2)では,計算時間を犠牲にサンプル数 $v$ を増大させる必要がある. その一方で, 式 (3) では, $\exp (\gamma) p_{n}(y \mid x)>p_{d}(y \mid x)$ を満たせば良いことから,単に $\gamma$ に十分に大きな值を設定すればこの問題を回避することができる.KGEでは一般的に $p_{n}(y \mid x)$ に一様分布が用いられることから, 確率の定義より $p_{d}(y \mid x)$ が 1 を超えないことを考慮すると, $\exp (\gamma)$ はラベル数 $|Y|$ よりも大きいことが望ましい. 本節における今までの議論に基づくと,マージン項に大きな値を設定することで欠点に直面することなく,モデルの学習が促進されるように考えられる. しかし, 次の命題はマージン項を自由に設定できるわけではないことを示す. 命題 3 マージン項 $\gamma$ は式 (3)の勾配に影響を与え弓. ${ }^{3)}$ 命題 3 より,マージン項を変更した場合,勾配に関係するその他のハイパーパラメータも適切に設定しなければならないことが分かる. 以上より, 距離ベースのスコアリング法を用いる際にはマージン項に十分大きな値を設定した上で,勾配に関係する八イパーパラメータを適切に調整しなければならない.その一方で, ComplEx [3] や DistMult [2]のような值域に制限が存在しないスコアリング法ではマー ジン項の調整は不要であると考えられる。 ## 3.2 負例サンプル数の影響 次に負例サンプル数 $v$ が学習に与える影響について理論的側面から議論する。命題 1 より,負例サンプル数はマージン項と同様に, 式 (2)と式 (3)で表される両損失関数の目的分布に対しては影響しないことが分かる。なお,詳細な議論を付録 B に記載した. ## 3.3 KGE に適したサブサンプリング法 今までの議論は,NS 損失がモデルを観測データにより定義される分布 $p_{d}(y \mid x)$ に適合させるという前提に基づいていた. しかし, 実際に NS 損失が行うべきことは,モデルを観測データの背後に存在する真の分布 $p_{d}^{\prime}(y \mid x)$ に適合させることである. このためには,観測結果に基づく $p_{d}(y \mid x)$ と $p_{d}^{\prime}(y \mid x)$ の 3)証明は付録 A. 3 に記載. 隔たりを埋めなければならない。ここでそのような役割を果たす関数 $A(x, y), B(x)$ が存在すると仮定する。この両関数を用いて,真の分布への適合を考慮した NS 損失が次のように導かれる。 $ \begin{aligned} & -\frac{1}{|D|} \sum_{(x, y) \in D}\left[\log \left(\sigma\left(s_{\theta}(x, y)+\gamma\right)\right)\right] p_{d}^{\prime}(x, y) \\ & +\sum_{\substack{ \\ y_{i} \sim p_{n}(y \mid x)}}\left[p_{n}\left(y_{i} \mid x\right) \log \left(\sigma\left(-s_{\theta}\left(x, y_{i}\right)-\gamma\right)\right)\right] p_{d}^{\prime}(x) \\ = & -\frac{1}{|D|} \sum_{(x, y) \in D}\left[\log \left(\sigma\left(s_{\theta}(x, y)+\gamma\right)\right)\right] A(x, y) p_{d}(x, y) \\ & +\sum_{y_{i} \sim p_{n}(y \mid x)}\left[p_{n}\left(y_{i} \mid x\right) \log \left(\sigma\left(-s_{\theta}\left(x, y_{i}\right)-\gamma\right)\right)\right] B(x) p_{d}(x) \\ = & -\frac{1}{|D|} \sum_{(x, y) \in D}\left[A(x, y) \log \left(\sigma\left(s_{\theta}(x, y)+\gamma\right)\right)\right. \\ & \left.+\frac{1}{v} \sum_{y_{i} \sim p_{n}(y \mid x)} B(x) \log \left(\sigma\left(-s_{\theta}\left(x, y_{i}\right)-\gamma\right)\right)\right] . \end{aligned} $ Mikolov ら [6] は式 (3)の NS 損失と同時に,サブサンプリングを提案している. サブサンプリングは学習事例である単語の出現確率を調整するものであり, $A(x, y), B(x)$ に対応する役割を持つ. 一方で, KGE においてサブサンプリングを NS 損失で使用することについて議論している論文は我々の知る限りでは存在しない。しかし,実装としては Sun ら $[4]^{4}$ が word2 vec を踏襲する形で頻度に基づいた割引を行う下記のものを使用している。 $ A(x, y)=B(x, y)=\frac{\frac{1}{\sqrt{\#(x, y)}}}{\sum_{\left(x^{\prime}, y^{\prime}\right) \in D \frac{1}{\sqrt{\#\left(x^{\prime}, y^{\prime}\right)}}}} . $ ここで# は頻度を表す記号であり,\# $(x, y)$ は $(x, y)$ の頻度を表す。なお,実際の $(x, y)$ は $\mathrm{KG}$ 上で高々 1 回しか出現しないため, $(x, y)=\left(e_{i}, r_{k}, e_{j}\right)$ とするとき,\# $(x, y)$ のバックオフ [10] を用いて次のように近似している. $ \#(x, y)=\#\left(e_{i}, r_{k}\right)+\#\left(r_{k}, e_{j}\right) $ ここで式 (4)を元に理論的な観点から式 (5) のような頻度による割引を行う KGE に特化したサブサンプリング法を導出する。この導出は真の分布 $p_{d}^{\prime}(y \mid x)$ に対する仮定をどのように置くかによって変化する。まず,真の分布において, $(x, y)$ は頻度を持っているが,観測されたものは高々 1 に過ぎなかったという仮定に基づいた導出を行う. この場合は式 (5) と同様に実際に $\#(x, y)$ の頻度を計算できな  いため,式 (6) の近似を用いる. ここで式 (4)より, $A(x, y)$ は $(x, y)$ の頻度に対する割引を, $B(x)$ は $x$ の頻度に対する割引をそれぞれ行うため,次のようなサブサンプリング法が導出される. $ A(x, y)=\frac{\frac{1}{\sqrt{\#(x, y)}}}{\sum_{\left(x^{\prime}, y^{\prime}\right) \in D} \frac{1}{\sqrt{\#\left(x^{\prime}, y^{\prime}\right)}}}, \quad B(x)=\frac{\frac{1}{\sqrt{\# x}}}{\sum_{x^{\prime} \in D} \frac{1}{\sqrt{\# x^{\prime}}}} $ 一方で,真の分布においても,観測結果と同様に $(x, y)$ は高々頻度 1 であると仮定した場合, $p_{d}^{\prime}(y \mid x)=p_{d}^{\prime}(x, y) / p_{d}^{\prime}(x) \propto 1 / p_{d}^{\prime}(x)$ となり, $p_{d}^{\prime}(y \mid x)$ は同じ $x$ に対しては同じ値となる. 従って,この仮定の下では $p_{d}(x)$ に対してのみ割引を行うことになり,次のサブサンプリング法が導出される. $ A(x, y)=B(x)=\frac{\frac{1}{\sqrt{\# x}}}{\sum_{x^{\prime} \in D} \frac{1}{\sqrt{\# x^{\prime}}}} . $ 式 (7) と式 (8) は理論的な側面から導出されているが,実際のタスクにおいては汎化の対象である真の分布はデータセットによって異なる. 従って理論的側面からのみサブサンプリング法の優劣を論じることは出来ないため,使用に際しては開発データを用いた検証が必要である. ## 4 経験的な分析 本節では 3 節で論じた理論的な特性が実際のデー タやモデルに対して成立するか検証する。データセットは FB15k-237,WN18RR,YAGO3-10を用いた [5]. モデルは値域に制限を持たない ComplEx, DistMult と,p-ノルムを使用し値域に制限をもつ RotatE, HAKE [9]を比較した. 特に断りが無い場合, ComplEx, DistMult, RotatEのハイパーパラメータは Sun ら [4]のものを,HAKE のハイパーパラメータは Zhang ら [9]のものを使用した. ## 4.1 マージン項の影響 マージン項を変更した際のモデルの予測精度の変化を調査するために, Mean Reciprocal Rank (MRR) を対象に異なる $\gamma$ を用いた際の結果を比較した。 まず初めに, 3.1 節で議論した $p$-ノルムを用いたスコアリング法を適切に学習するためにマージン項が必要であるという理論的な結論が実用上でも成立しているのかを検証する。そのためにマージン項の有無による性能の変化について,一様雑音分布を用いて $p$-ノルムに基づくRotatE,HAKE と值域に制限 図 1: マージン項 $\gamma$ に 0 を用いた場合と報告値を用いた場合の各設定における MRR. 表 1: 各サブサンプリング法の評価結果. Sub. はサブサンプリングを,Base は式 (5)を,Freq は式 (7)を, Uniq は式 (8)をそれぞれ表す。太字は各設定における最高スコアを表す. が無い ComplEx,DistMult とで比較した。なお, $\gamma$ を元の值から 0 へと大幅に変更するに際し,モデルが適切に学習されるよう, Adam の初期学習率を最もよく使用されている 0.001 へ変更した. 図 1 にマージン項に先行研究の値を用いた際 (w/ $/$ ) の結果とマージンを使用しなかった際 (w/o $\gamma)$ の結果を示す.この結果では, ComplEx, DistMult では大きな性能の変化が無く,これらのスコアリング法におけるマージン項の調整の不必要性を改めて確認することが出来る. そして, $p$-ノルムに基づく RotatE,HAKE ではマージン項を用いない場合に大幅な性能低下が確認でき,これらのスコアリング法においてマージン項を使用することが必要であることが改めて分かる. ## 4.2 サブサンプリング法の比較 3.3 節にて議論したサブサンプリング法の比較を行う.比較はサブサンプリングを行わない場合,現在使用されているサブサンプリング法である式 (5),提案手法である式 $(7,8)$ との間で行う.比較のためのモデルとしては公開コード中にてサブサンプリングを行っている RotatE と HAKEを選択し,学習では元の論文と同様に自己敵対的負例サンプリン グ損失 [4] を用いた。評価尺度には MRR,Hits@ 1, Hits@3,Hits@10を使用した. 表 1 に各設定におけるスコアを示す。この結果より,知識グラフの補完においてサブサンプリングの使用が有効であることが分かる.また,我々の提案法であるUniq と Freq はRotatE d WN18RR で評価した場合以外は共に Base よりも高いかあるいは同等の結果を示しており,理論的側面から導出されたサブサンプリング法が実用上も適切なものであったと考えられる. ## 5 まとめ 本論文では,KGEで用いられている NS 損失に対しての理論的な検証を行い,いくつかの理論的な事実を明らかにした。また,その理論的な事実に基づき,KGE の損失関数に特化したサブサンプリング法についても提案した. それらの理論的な事実及び提案したサブサンプリング法の性能を検証するために,我々は FB15k-237,WN18RR,YAGO3-10を用いた実験を実施した. 実験の結果,我々が導いた理論的な事実は実際のモデルでも観測されることを示した. また,提案したサブサンプリング法が実際にモデルの知識グラフの補完における性能を改善できることについても示した. ## 参考文献 [1] Antoine Bordes, Nicolas Usunier, Alberto García-Durán, Jason Weston, and Oksana Yakhnenko. Translating embeddings for modeling multi-relational data. In Advances in Neural Information Processing Systems 26: 27th Annual Conference on Neural Information Processing Systems 2013, pp. 2787-2795, 2013. [2] Bishan Yang, Wen-tau Yih, Xiaodong He, Jianfeng Gao, and $\mathrm{Li}$ Deng. Embedding entities and relations for learning and inference in knowledge bases. In Proceddings of the 3rd International Conference on Learning Representations, ICLR 2015, 2015. [3] Théo Trouillon, Johannes Welbl, Sebastian Riedel, Éric Gaussier, and Guillaume Bouchard. Complex embeddings for simple link prediction. In Proceedings of the 33nd International Conference on Machine Learning, ICML 2016, Vol. 48 of JMLR Workshop and Conference Proceedings, pp. 2071-2080. JMLR.org, 2016. [4] Zhiqing Sun, Zhi-Hong Deng, Jian-Yun Nie, and Jian Tang. Rotate: Knowledge graph embedding by relational rotation in complex space. In Proceedings of the 7th International Conference on Learning Representations, ICLR 2019, 2019. [5] Tim Dettmers, Pasquale Minervini, Pontus Stenetorp, and Sebastian Riedel. Convolutional 2d knowledge graph embeddings. In Proceedings of the Thirty-Second AAAI Conference on Artificial Intelligence, (AAAI-18), pp. 1811-1818, 2018 [6] Tomás Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, and Jeffrey Dean. Distributed representations of words and phrases and their compositionality. CoRR, Vol. abs/1310.4546, , 2013. [7] Daniel Ruffinelli, Samuel Broscheit, and Rainer Gemulla. You CAN teach an old dog new tricks! on training knowledge graph embeddings. In Proceedings of the 8th International Conference on Learning Representations, ICLR 2020, 2020. [8] Mehdi Ali, Max Berrendorf, Charles Tapley Hoyt, Laurent Vermue, Mikhail Galkin, Sahand Sharifzadeh, Asja Fischer, Volker Tresp, and Jens Lehmann. Bringing light into the dark: A large-scale evaluation of knowledge graph embedding models under a unified framework. IEEE Transactions on Pattern Analysis and Machine Intelligence, pp. 1-1, 2021. [9] Zhanqiu Zhang, Jianyu Cai, Yongdong Zhang, and Jie Wang. Learning hierarchy-aware knowledge graph embeddings for link prediction. In Proceedings of the Thirty-Fourth AAAI Conference on Artificial Intelligence, (AAAI20), pp. 3065-3072, 2020. [10] Slava Katz. Estimation of probabilities from sparse data for the language model component of a speech recognizer. IEEE transactions on acoustics, speech, and signal processing, Vol. 35, No. 3, pp. 400-401, 1987. [11] Omer Levy and Yoav Goldberg. Neural word embedding as implicit matrix factorization. In Z. Ghahramani, M. Welling, C. Cortes, N. Lawrence, and K. Q. Weinberger, editors, Advances in Neural Information Pro- cessing Systems, Vol. 27. Curran Associates, Inc., 2014. [12] Hidetaka Kamigaito and Katsuhiko Hayashi. Unified interpretation of softmax cross-entropy and negative sampling: With case study for knowledge graph embedding. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing, ACL/IJCNLP 2021, pp. 5517-5531, 2021. [13] 上垣外英剛, 林克彦. Unified interpretation of softmax cross entropy and negative sampling: With case study for knowledge graph embedding. 自然言語処理, Vol. 28, No. 4, pp. 1336-1341, 2021. [14] Samuel Broscheit, Daniel Ruffinelli, Adrian Kochsiek, Patrick Betz, and Rainer Gemulla. LibKGE - A knowledge graph embedding library for reproducible research. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 165-174, 2020. ## A 証明 ## A. 1 命題 1 の証明 先行研究 $[11,12,13]$ より, 式 (2) が 0 となる際に $ \exp \left(s_{\theta}(x, y)\right)=\frac{p_{d}(y \mid x)}{v p_{n}(y \mid x)} $ が成立.ここで式 (3) が 0 となる際を考える. 式 (3) における $v$ の正規化により式 (9) の $v$ は消去される. さらにマージン項 $\gamma$ の存在により, 式 (3) が 0 となる際に $ \exp \left(s_{\theta}(x, y)\right)=\frac{p_{d}(y \mid x)}{\exp (\gamma) p_{n}(y \mid x)} $ が成立. 式(9)を式(1)に代入した結果と,式(10)を式(1)に代入した結果は共に $ \frac{p_{d}(y \mid x)}{\left.\sum_{y^{\prime} \in Y} p_{d}\left(y^{\prime} \mid x\right)\right)} $ となることから命題 1 が示された. ## A. 2 命題 2 の証明 $s_{\theta}(x, y) \leqq 0$ のとき, $\exp \left(s_{\theta}(x, y)\right) \leqq 1$ が成立する. このとき,式 (9) の右辺が同じ值域を持たない場合,式 (2) は到達不可能な点を持つ可能性がある. 従って式 (2) が到達不可能な点を持たない条件は次のように導かれる $ \begin{aligned} & \frac{p_{d}(y \mid x)}{v p_{n}(y \mid x)} \leqq 1 \\ \Leftrightarrow & p_{d}(y \mid x) \leqq v p_{n}(y \mid x) . \end{aligned} $ 式 (3) が到達不可能な点を持たない条件も同様に次のように導かれる $ \begin{aligned} & \frac{p_{d}(y \mid x)}{\exp (\gamma) p_{n}(y \mid x)} \leqq 1 \\ \Leftrightarrow & p_{d}(y \mid x) \leqq \exp (\gamma) p_{n}(y \mid x) . \end{aligned} $ ## A. 3 命題 3 の証明 合成関数の微分の定義より式 (3)を微分した結果には $\gamma$ が含まれるため自明. ## B 負例サンプル数の影響 本節では 3.2 節で議論した負例サンプル数が学習に与える影響について調査する。具体的には,様々な負例サンプル数に基づきモデルを学習し, 学習されたモデルの MRRを比較する。式 (2) に基づく NS 図 2: 負例サンプル数が変化した際の各設定における MRR. NS (Sum) は式 (2), NS (Mean) は式 (3) の NS 損失をそれぞれ表している 損失を使用するため,我々は LibKGE $[14]^{5)}$ を使用した. 負例サンプル数以外のハイパーパラメータについては Kamigaito ら [12] と同じものを使用した. 図 2 に負例サンプル数を変化させた際の各設定における MRRを示す..ここ結果より,損失関数によって示す値こそ異なるものの,負例サンプル数の違いによる MRR の変動幅はどの損失関数においてもほぼ同じであることが分かる。また,負例サンプル数の影響を強く受けると考えられるSANS においても負例サンプル数の違いによるスコアの大きな変動は観測されない.この結果は目的分布の観点からは負例サンプル数による影響はない,という 3.2 節の内容に沿うものである. 
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT2-8.pdf
# BERT の領域適応における複合語の語彙拡張 田中裕隆 1 新納浩幸 2 1 茨城大学大学院理工学研究科情報工学専攻 2 茨城大学大学院理工学研究科情報科学領域 20nm716y@vc.ibaraki.ac.jp hiroyuki.shinnou.0828@vc.ibaraki.ac.jp ## 概要 BERT のような事前学習モデルは,大規模コーパスで事前学習し応用タスクデータで finetuning することで,様々な自然言語処理タスクを高精度に処理できる. しかし, Token レベルで処理する BERTが, BPE によって分割される未知語や複数の語で構成される表現を学習することは困難である. 本研究では,そのような複数 Token で表現される語を対象にした BERT の語彙拡張における,追加語彙の埋め込み表現の構築について考える. 提案手法では,追加の事前学習による領域適応を前提に,類義語による近似的な埋め込み表現で語彙追加を行った. 各語彙拡張手法について実験を行い,Masked LM による追加語彙の予測精度で評価した。 ## 1 はじめに 事前学習モデルは,多くの自然言語処理システムの性能を向上させている [1][2]. 事前学習モデルの一つである BERT[3] は, Transformer[4] モデルの Multi-head Attention を多層に積み重ねたモデルであり, 入力単語列に対する文脈を考慮した単語埋め込み表現を出力することができる。 事前学習モデルは,大規模コーパスで事前学習したモデルを応用タスクデータに適用することで,各応用タスクを高精度に処理する. その性質上, 応用タスクのドメインが事前学習したコーパスのドメインと大きく異なると,応用タスクを解く精度が高くならない領域適応の問題が存在する. Gururangan ら [5] は,応用タスクドメインのコーパスで追加の事前学習を行うことで応用タスクを高精度に解くことができる手法を提案している. 事前学習モデルの扱う語彙は事前学習したコーパスに依存して決定されるため,応用タスクデータに現れる語彙に適応するためには,語彙を拡張する必要がある. 事前学習モデルの領域適応における語彙 (a) 複数 Token に分割され, Token レベルで処理 (c) 分割された表現全体を予測することは困難 (b) Token 単位の予測は高精度に行える (d) 単体 Token の処理であれば,Token 単位の予測は容易 図 1: 語彙追加の対象となる語の例 の拡張手法については,Yao らの Adapt-and-Distill[6] や,Hong らの AVocaDo[7] といった研究がある. 標準的な BERT における日本語の語彙は, 形態素解析と Byte-Pair Encoding によって分割された Token 単位で処理される. 未知語が既知の語に分割されて処理されることで,少ない語彙数で多くの単語を処理できる. しかし BERT のような事前学習モデルは,Tokenレベルの表現を学習するために,複数の語で構成される複合語や固有表現, 句の表現を学習することは困難である。 (図 1 参照) 複数の語で構成されるエンティティの埋め込み表現を学習するための事前学習モデルとして, LUKE[8] がある. LUKE は,通常の Token の埋め込み表現とは別にエンティティのための埋め込み表現を用意し,通常の Token とエンティティ間の関係を Entity-aware Self-attention によってモデル化・学習する. ただし LUKE は大規模コーパスによる高コストな事前学習を要する。 本研究では, 事前学習済みモデルの BERT に語彙 図 2: BERT の入力ベクトル 追加を行う手法を提案する,語彙の追加では,追加語彙の埋め込み表現を得ることができればよい,応用タスクデータによって追加の事前学習を行い,領域適応させることを前提とすれば,その前の追加語彙の埋め込み表現は近似的な表現であっても学習することができると考えられる。 ## 2 BERT ## 2.1 BERT の Token Embeddings 入力文の Tokenize 処理によって得られた Token 列は,それぞれ BERT のモデルへの入力のための埋め込み表現に変換される. BERT の入力ベクトルは単語を表す Token Embeddings と文を識別する Segment Embeddings,位置情報を埋め込む Position Embeddings の 3 種類ある. (図 2 参照) Token Embeddings は,各々の単語 Token に対応した埋め込み表現である. BERT の最終的な出力は,文脈に応じて変化する文脈埋め込み表現である。ただし, BERTへの入力ベクトルとなる最初の埋め込み表現は,Token 毎に固有の埋め込み表現となる。 ## 2.2 Masked Language Model (MLM) BRET の事前学習の手法の一つである MLM は,文の中のいくつかの単語を MASKに置き換えて, そこにあるべき単語を文脈から予測する問題である. 標準的な手法では, 入力トークンの内 $15 \%$ に対して,以下のように置き換える。 ・80\%は,特殊トークンである [MASK] に置き換える。 ・10\%は,ランダムな別のトークンに置き換える. ・残り $10 \%$ は,そのまま残す。 ## 3 BERT への語彙追加手法 学習済み BERT モデルに語彙を追加する場合, BERT の Token Embeddings で用いられる埋め込み表現に追加語彙に対応する埋め込み表現を追加すればよい. したがって語彙追加手法は,BERT の埋め込み表現空間における追加語彙の埋め込み表現をどのように得るかが課題となる。 ## 3.1 静的な単語埋め込み表現を利用した 手法 追加語彙の埋め込み表現を得る方法の一つは, word2vec や fastText[9] [10] のような分散表現モデルによる静的な単語埋め込み表現を利用する方法である。 具体的には,まず追加語彙を学習した分散表現モデルを用意する。次に,BERT と分散表現モデルで共通して学習している語彙集合を基に,分散表現モデルの埋め込み表現を BERT の埋め込み表現に写像するための変換行列を学習する.学習手法としては,変換のソース単語ベクトルとターゲット単語べクトルの平均二乗誤差を小さくするように確率的勾配降下法で学習を行う Mikolov ら [11]の手法や, べクトルの補正や正規化によってより効率的に学習を行う平子ら [12] の手法がある. ## 3.2 subword の平均ベクトル 事前学習済み BERT モデルのみを利用して追加語彙の埋め込み表現を得る手法としては, subword の平均ベクトルを用いる手法がある.この手法は Yao らの Adapt-and-Distill[6] においても用いられている. 追加の対象となる語彙は,事前学習済みモデルにおいて複数 Token で処理される。例えば「不愉快」 という語であれば「不」「\#愉」「\#州」の 3Token である。事前学習済み BERT モデルからこれら 3Token の埋め込み表現の平均ベクトルを求め,それを追加語彙の埋め込み表現として追加する。 ## 3.3 BERTRAM BERTRAM[13] は,学習済み BERT モデルの出力を利用して追加語彙の埋め込み表現を得る手法である. BERTRAM の研究では, BERT の事前学習コー パスにおける出現率が低頻度な語の追加を対象にしている. BERTRAM では,追加語彙の埋め込み表現を Form-Context Model で学習する. Form Model では文 図 3: 提案手法の概念図 字ベースの学習を行い, Context Model では文脈べー スの学習をする. Context Model の学習は標準的な BERT で文脈埋め込み表現を獲得するのと同様である.これに加えて文字べースの学習を行うことで,未知語に対して埋め込む情報量を確保している. BERTRAMでは, 追加語彙「○○」を「<BERTRAM: ○○>」と表記した特殊トークンとして追加する。 BERTRAM によって追加された埋め込み表現を利用する場合,データ中の追加語彙を「<BERTRAM: $\bigcirc$ ○>」の表記に置き換えて処理する。 ## 4 提案手法 本提案手法 (図 3 参照) では, 新規語彙の類義語の埋め込み表現を基に,MLM で finetuning された埋め込み表現を用いる。 具体的な手順は次のようになる. 1. 追加語彙を学習済みの Word2Vec のような分散表現モデルを用意する. 2. 追加語彙の類義語を,分散表現モデルで推定する. 3. 推定した類義語の内,BERT の語彙に含まれる語の BERT の埋め込み表現を,追加語彙の埋め込み表現として BERT に追加する。 4. 追加語彙を含むコーパスで語彙追加後の BERT を Masked Language Model で追加事前学習する. ## 5 実験 ## 5.1 実験設定 本実験では,事前学習済みの日本語 BERT モデルに対する語彙拡張を行う. (図 4 参照) 提案手法の他に,静的な単語埋め込み表現を利用する手法と, subword の平均ベクトルの手法と, BERTRAM の手法を試みる。 BERT の事前学習済みモデルは, 東北大学乾研究室が公開しているモデルを用いる。これは, 図 4: 語彙拡張の流れ Hugging Face 社の Transformers ライブラリから,モデル名'cl-tohoku/bert-base-japanese' で利用できるモデルである。事前学習コーパスには日本語 Wikipedia が用いられている. 静的な単語埋め込み表現には,以下のサイトで公開されている日本語 Wikipedia エンティティベクトル [14]を用いる. ${ }^{1)}$ 提案手法で,追加語彙の類義語を求める時の類似度の計算は $\cos$ 類似度で求める。 形態素解析は Mecabで処理する。 各手法で語彙追加を行った BERT モデルは,いずれも応用タスクデータの学習データについて BERT の事前学習で標準的に行われる Masked Language Model によって追加の事前学習を行う. 本実験で学習・評価を行う応用タスクデータには,以下のサイトで公開されている Amazon レビューコーパスを用いる.2) 追加する語彙は,表 1 に示す 20 語とする。これらの語は,事前学習済み BERT では複数 Token で処理される語である。また,Wikipediaコーパスでの出現頻度が低く, Amazonレビューコーパスに複数回出現する語である.学習・テストデータは,これらの追加語彙を含む文のみであり,それぞれ 118 文, 205 文である. 評価は,新規語彙のみを MASK トークンに置き換えて,新規語彙を推定できる精度を測る。 ## 5.2 実験結果 提案手法において求めた追加語彙の類義語とその類似度は表 1 に示す。 各手法の実験結果の正解率は表 2 に示す。表 2 では,静的な単語埋め込み表現を利用した手法の結果を分散表現として示している。提案手法と分散表現の手法および平均べクトルの手法は,追加語彙を Masked LM で同程度に予測することができている.  表 1: 追加する語彙と 提案手法で利用した類義語 表 2: 全体と追加語彙毎の予測精度(正解率) しかし,BERTRAM の手法の実験では,追加語彙の予測精度は著しく低くなった。 ## 6 考察 Masked Language Model による追加語彙の予測精度について,表 2 に示す各語彙毎の結果から分析する。 Tokenize 処理において,唯一 BERTRAM の手法では,追加語彙を特殊トークンとして扱っているため,その影響度を調査する必要があると考えている. 語彙別に見ると, BERTRAM が高精度に予測できる語彙は,その他の手法においても概ね高精度に予測することができている. 全体の精度としては平均べクトルの手法が僅かに高いものの,語彙別の精度を見るとそれぞれ特徵がある.「駅作」「醜悪」などの語彙については,提案手法では比較的高い精度で予測できている. 提案手法で用いたこれらの類義語はそれぞれ「酷評」「邪悪」となっており, $\cos$ 類似度は 0.60 を超える。一方で,「読み手」「蛇足」などの語彙については,提案手法の予測精度は比較的低い結果となった. 提案手法で用いたこれらの類義語はそれぞれ「難解」 「筆」となっており, $\cos$ 類似度は 0.5126 と 0.4621 で,比較的低い類似度である。このような結果から,類似度の高い類義語を利用できる語彙は,他の手法に比べて提案手法が有効であると考えられる。 ## 7 おわりに 本研究では,複数 Token で表現される語を対象に,応用タスクデータに対して追加の事前学習を行うことを前提として,事前学習済み BERT モデルへ語彙追加を行う手法を提案した. 提案手法で用いた類義語と追加語彙との類似度と予測精度の関係について分析し,類似度が比較的高い類義語を用いた場合には他の手法と同等以上の有効性があることを示した。本実験で対象とした語彙は,BPEによって複数 Token に分割される語であった. 今後の課題としては,複数の語で構成される複合語や固有表現,句といった表現に対しても有効な埋め込み表現を得ることのできる語彙追加手法への拡張が考えられる. ## 謝辞 本研究は JSPS 科研費 JP19K12093 および 2021 年度国立情報学研究所公募型共同研究 (2021-FC05) の助成を受けています. ## 参考文献 [1] Matthew Peters, Mark Neumann, Mohit Iyyer, Matt Gardner, Christopher Clark, Kenton Lee, and Luke Zettlemoyer. Deep contextualized word representations. In NAACL2018, pp. 2227-2237, 2018. [2] Alec Radford, Karthik Narasimhan, Tim Salimans, and Ilya Sutskever. Improving language understanding by generative pre-training. Technical report, OpenAI., 2018. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In NAACL2019, pp. 4171 -4186, 2019. [4] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [5] Suchin Gururangan, Ana Marasović, Swabha Swayamdipta, Kyle Lo, Iz Beltagy, Doug Downey, and Noah A. Smith. Don't stop pretraining: Adapt language models to domains and tasks. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8342-8360, Online, July 2020. Association for Computational Linguistics. [6] Yunzhi Yao, Shaohan Huang, Wenhui Wang, Li Dong, and Furu Wei. Adapt-and-distill: Developing small, fast and effective pretrained language models for domains. In Findings of the Association for Computational Linguistics: ACL-IJCNLP 2021, pp. 460-470, Online, August 2021. Association for Computational Linguistics. [7] Jimin Hong, TaeHee Kim, Hyesu Lim, and Jaegul Choo. AVocaDo: Strategy for adapting vocabulary to downstream domain. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 4692-4700, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [8] Ikuya Yamada, Akari Asai, Hiroyuki Shindo, Hideaki Takeda, and Yuji Matsumoto. LUKE: Deep contextualized entity representations with entity-aware self-attention. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 6442-6454, Online, November 2020. Association for Computational Linguistics. [9] Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 135-146, 2017. [10] Armand Joulin, Edouard Grave, Piotr Bojanowski, and Tomas Mikolov. Bag of Tricks for Efficient Text Classification. arXiv preprint arXiv:1607.01759, 2016. [11] Tomás Mikolov, Quoc V. Le, and Ilya Sutskever. Exploiting similarities among languages for machine translation. CoRR, Vol. abs/1309.4168, , 2013. [12] 平子潤, 笹野遼平, 武田浩一. 静的な単語埋め込みによるカタカナ語を対象とした bert の語彙拡張. 言語処理学会第 27 回年次大会 (NLP2021), 2021. [13] Timo Schick and Hinrich Schütze. BERTRAM: Improved word embeddings have big impact on contextualized model performance. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3996-4007, Online, July 2020. Association for Computational Linguistics. [14] 鈴木正敏, 松田耕史, 関根聡, 岡崎直観, 乾健太郎. Wikipedia 記事に対する拡張固有表現ラベルの多重付与. 言語処理学会第 22 回年次大会 (NLP2016), 2016 .
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT2-9.pdf
# 含意や推意への論理的なアプローチでの関係把握の検討 太田 博三 放送大学教養学部 9924658973@campus.ouj.ac.jp ## 1 はじめに GPT-3 をはじめとした AI の文生成が向上している中で, 解釈可能性などの視点から, かつての国際的な言語処理タスクやその評価方法が見直されようとしている。本稿では,機械というより人間の視点も考慮しながら,含意や推意を論理的に把握することを考察したものである. 最近では,人間に近い解釈可能なものを対象とする動きが主流になりつつある.マーケティングの消費者行動モデルの分野では,解釈できないものは取り入れない姿勢もあり,ヒトから機械へ, 機械からヒトへの相互作用が, 今どき,必要とされていると言える. 得に,語用論の面白さは,書き言葉としての文章だけではなく,話し言葉としての対話にも含まれ,機械に落とし込み際には, 大きな課題となっている. 既存の RoBERTa や T5 などの言語モデルは, 省略された語句を mask させ,予測させるものであると言える。この語句と語句との間の関係を捉えることでは,その精度面から成功したと言えるが,チャットボットなどの短い発話から,相手の背景まで推測させることは,まだ発展途上にあると思われる.文と文の間の関係は明示的にはないままである。 ここで, 人間から機械への落とし込みを行う際に,数理論理学を並行して機能させることで,その背景を複数のパターンで捉えることができる. 含意関係認識の文や書き言葉や話し言葉,更には,親子や友人同士などの人間関係を認識したうえで考察する関係性理論において,論理的なアプローチの可能性を検討したものである. ## 2 研究の目的・新規性 本研究では, 日常生活で用いられる基本的な書き言葉や話し言葉に対して, 数理論理学を用いた応用とし 捉え, 機械での処理にも,適用する上で,人間関係や含意や推意をいくつかに捉えることを考察した。一昔前の人工知能で用いられたのが記号推論学であるが,成功例は専門知としてのエキスパートシステムなどである。ここでは,<IF-THEN>で分岐させる手法が中心であった。これを拡張し,現在の深層学習に記号推論も並べて適用したものである. <IF-THEN-BECAISE>であれば,文と文の間の関係が,直感的に捉えられる. 更に,短い文や発話でも, その前後の文脈の背景を,よくありがちなパターンで落とし込み,解釈可能な接近が可能となる. ## 2.1 記号論理学によるアプローチ 本節では,日常生活に必要な日本語を機械でどのくらい捕捉できるかを検討する. まず, 記号論理学による表現と推論の視点から入り, 次に, 含意関係認識 (Recognition of Textual Entailment; RTE)を取り上げ, Multi-Hop Reasoning による会話断片に照らし合わせて,考察する. [Arabishahi 2021]の研究では, 人間の $65 \%$ に対して, 35\%であり, SOTA であるとされた.このアプローチを,書き言葉と話し言葉への適用例とを,それぞれ検討する。 ## 2.1 記号論理学による表現と推論 機械での知識表現の成功例として,「IF-THEN $\rfloor$ 形式のエキスパートシステムが挙げられる. 1 つつの論理命題の列挙が分岐する内容で捉えられるものに限る. 日常生活で出てくるものには弱く, 医師の診察など専門性の高いものに限られる.この要因の一つに,記号論理学の一階述語論理での表現 (図 2-1-1)にある.この場合, 数字の単位は表せず, 非常に曖昧なものに限られる. ここで 1 つ 1 つの知識抽出は Web で可能になったものの,それを捕捉するフレームワークが記号論理学では曖昧なものになり,具体性のあるものは,その対象にならなかった。 & $\exists \mathrm{x}($ have(I, computer(x)) \\ ## 2.2 含意関係認識による対象範囲 含意関係認識とは, 2 つの文を想定し, 1 つは前提となる文(Text; T)を,もう 1 つは仮定となる文(Hypothesis; $\mathrm{H})$ を設定し, それらの関係が成立するかを Yes,No $(0,1)$ で判定するタスクである. 例を以下に示す(図 2-2-1 参照). ここでは,京都で食事をしていた行為と滞在していた行為とを,直接的に確認する手間を省くものであるが,論理命題となる 1 つ 1 が確認される訳ではないため, ニュース記事なのでは,事実関係が必要になることもあり, 注意が必要である. 使用される場合は, ポライトネスなどのように, 長年, 付き合いのある友人や家族同士の会話で, 省略する方がくどくなく自然な場合が妥当と考えられる。 2000 年代の前半の国際的な言語タスクは,この含意関係認識が主流であった. その後, 2019 年頃から BERT による深層学習が出てくると, 店舗の広告文と相性の良い消費者の SNS との相性分析が行われるなど,文脈を考慮した活用が消費者の意思を表すとして, マ一ケテイング分野で広く使われるようになった.このように, 気持ちや思考などを捉えるのには事実確認がされにくい分野では, 利便性は高くなるが, 知識や事実関係に照らし合わせる際は, 不得手となる. BERT による含意関係認識は, 言葉と言葉の距離によるものであり,論理的推論も加わることが期待されている. ## 2.3 Multi-Hop Reasoning での適用 Multi-Hop Reasoning には, 広い概念のため, 本項では, Arbashahi(2020)の IF(State)-THEN(action) -BECAUSE(Goal)のアプローチを検討する. 深層学習での処理に並行して, 論理テンプレートを採用したものである.この IF-THEN-BECAUSE は 3 段論法を始めとしたモーダスポーネンスなど, 非単調推論などがある. しかし, 逐次段階で, 人間の感覚で十分にわかってしまうなどで,あまり効果的ではなかった. これに対して, 論理展開が早く, 且つ仮設を基にしたアブダクションの推論法を応用したものが,前述の Multi-Hop Reasoning である. 隠れた背景や意図・推意を聞き手や読み手に委ねることができる。 つまり,BECAUSE 節は複数の選択肢が考えられ, IF-THEN で固定できるのがメリットである. & 早く起きよう. & \\ & & \\ IF-THEN-BECAUSE で捉えると図 2-3-1 のようになり,字義的にも,そのまま捉えることができる. ## 2.4 書き言葉への適用 最近, よくニュースでも取り上げられたコロナ下の政府の依頼文を取り上げて考察する(図 2-4-1 参照),ヒトの認知機能では, 論理学の対偶関係で捉える傾向があり, ここを起点として考えるが, 「午後 8 時前なら, 飲食店での食事は構わない」とい文脈で捉えてはいけないといら政府側の指摘も受け,国民的には混乱した覚えがある.この対偶での解釈では,私たちがよく考えがちで,語用論的には誘導推論と言われている. 午後 8 時を過ぎたら, 飲食店での食事は避けて下さい.図 2-3-1 書き言葉の例: 緊急事態宣言での政府の依頼文 この対偶関係では, 論理学上は $\mathrm{p} \Rightarrow \mathrm{q}$ から $\Rightarrow \mathrm{q} \Rightarrow \mathrm{p}$ が成立するが注意が必要である. 直観主義論理の立場で,排中律の除去を行う必要がある. 排中律とは,「p V ᄀp」の姿勢をとり, 1 つつの命題を確認するものである. 含意関係認識の際も同様の注意が必要となる. & \\ & & \\ IF-THEN-BECAUSE で捉えると図 2-4-1 のようになり,字義的にも,そのまま捉えることができる. ## 2.5 話し言葉への適用 以下, 夫婦間の会話を取り上げて考察する(図 2-5-1 参照). 同じくIF-THEN-BECAUSE で捉えると図 4-5-2 のようになり, 捉えることができる. & \\ ここでは,「コーヒーを飲むと,早く寝付ける」の間に,「コーヒーにはカフェイン効果があり, 寝つきが悪くなることもある」という知識が含まれているのか明確ではない.直観主義的には, 命題を 1 つつ, 確認する必要があり, ここが知識活用と論理展開との間でネックになっていると思われる. しかし, 「コーヒーを飲むと, カフェイン効果で寝つきが悪くなる」という捉え方はやや強引になるため, 常識レベルで捉えることも考えられる. ## 2.6 関係性理論への適用 以下, 関連性理論での親と子の会話の背景の捕捉について, 考察する. 母と娘との会話であり, たった 1 対の対話でしかないが,これを推論するのには,単なる文の省略を補完するだけでは不十分であり, 母と娘との共通認識や背景の理解が必要となる. 背景を 5 つ場面で記し(図 2-6-1 参照), 会話断片を記す(図 2-6-2 参照). \\ ここで, IF-THEN-BECAUSE で捉えると, 図 2-6-3 のようになり, 字義的にも,そのまま捉えることができる.この場面は, 文化交流の中でも,ローカル性の高いものだが,よく見かける場面である. & & \\ ## 3 反実仮想への拡張 「IF-THEN-BECAUSE」など論理フレーム以外にも, 反実仮想の「IF would, I would... ,But I really want to.」が,日常生活の後悔の念を背景にした場合に考えられる (図 2-6-1).ここでは, 実際に「帰省できた」 のは実在していないため,発話者の過去の経験を踏まえて,その意図が反映・内包される.事実とは反対の「次はどうしても帰省したい.」などを表している.このように,論理フレームに話者の意図や後悔を含めることができ,ある一定の文脈を設立させることができる点で, 有効と思われる.また必ずしも,字義上の文と文の関係を解釈できるとは限らないが,日常生活の多くの場面では,定性的に成立するものであれば,適用はそう難しくないと考えられる。 「コロナになっていなければ,お正月に帰省できたのに, しかし出来なかった, 残業だ, 次回, 行きたい」 図 2-6-1 IF would, I would... ,But I really want to. Next I will. ## 4 おわりに 本稿は, 記号論理学の応用である Multi-Hop Reasoning の異なる談話や発話をまたいで,「IF-THEN-BECAUSE 」や「IF would, I would $\cdots$,But.」などの論理フレームで, 知識を捕捉できる可能性を確認した. 解釈可能なアプローチの一つとして, 書き言葉だけではなく話し言葉の場面でも直感的にも受け入やすいと考えられる. 自然言語だけでのアプローチは, $35 \%$ に過ぎないが,今後は,画像等を取り入れたマルチモー ダルなアプローチで考察してゆくことで, 人間の $65 \%$ に近づけていきたい. 画像や動画では, 場面と場面との繋がりが精度に直結すると思われ, 引き続き, 取り組みたい. ## 5 参考文献 [1] 新田「知識と推論」, サイエンス社, 2002 [2] 加藤・土屋「記号論理学」, 放送大学出版会, 2014 [3] 時本「あいまいな会話はなぜ成立するのか」, 岩波書店, 2020 [4] 坂原「日常言語の推論」, 東京大学出版会, 1985 [5] Minsky(竹林訳)「ミンスキー博士の脳の探検」,共立出版会, 2009 [6] 小出「Common Lisp と人工知能プログラミング (下巻)」オントロノミー合同会社, 2017 [7] Peter Norvig Paradigms of Artificial Intelligence Programming: Case Studies in Common Lisp, Morgan Kaufmann, 1991 [8] 長尾「知識と推論」, 岩波書店, 1988 [9] 宇佐美まゆみ監修(2020)『BTSJ 日本語自然会話 コーパス(トランスクリプト・音声)2020 年版』 [10] Recent Advances in Natural Language Inference: A Survey of Benchmarks, Resources, and Approaches Shane Storks, Qiaozi Gao, Joyce Y. Chai, 2019 [11] ブラウン \& レヴィンソン「ポライトネス言語使用における、ある普遍現象」“Politeness : Some Universals in Language Usage” , 1987 [12] 生田「ポライトネスの理論」大修館書店, 『月刊言語』, pp.66-71, 1997 [13] 松井「関連性理論から見たポライトネス」30 巻 No. 3 特集月刊言語, 2001 [14] 井之上「言語データからの知識獲得と言語処理への応用」人工知能 33 巻 3 号, 2018 [15] 太田「言語学の語用論や配慮表現の先端技術への適用に関する一考察」第 23 回 SIG-AM 人工知能学会合同研究会, 2019 [16] 米盛「アブダクション一仮説と発見の論理」勁草書房, 2007 [17] 麻生深層学習と知識・記号推論の融合による AI 基盤技術の発展,報告書, 研究開発戦略センター(CRDS), 科学技術振興機構研究開発戦略センター, 2020 [18] Arabshahiet.al "Conversational Neuro-Symbolic Commonsense Reasoning", AAAI Conference on AI, 2020 [19] Arabshahi et.al 2021]"Conversational Multi-Hop Reasoning with Neural Commonsense Knowledge and Symbolic Logic Rules" arXiv preprint, 2021 [20] Arabshahi et.al "Conversational Multi-Hop Reasoning with Neural Commonsense Knowledge and Symbolic Logic Rules" arXiv preprint, 2021 [21] Maarten, Shwartz, Choi et .al., Introductory Tutorial: Commonsense Reasoning for Natural Language Processing, Computational Linguistics, pages 27-33, 2020 [22] Mueller Commonsense Reasoning: An Event Calculus Based Approach, Morgan Kaufmann, 2nd edition, 2014 [23] Lehman, Laird. A Gentle Introduction to Soar, an Architecture for Human Cognition, 2006 [24] Shwartz Maarten, Choi et .al., Introductory Tutorial: Commonsense Reasoning for Natural Language Processing, Computational Linguistics, pages 27-33, 2020 [25] Lin et.al "CommonGen: A Constrained Text Generation Challenge for Generative Commonsense Reasoning, EMNLP2020, 2020 [26] Mueller, Erik "Commonsense Reasoning: An Event Calculus Based Approach”, Morgan Kaufmann, 2nd edition, 2014
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT3-10.pdf
# キーワード付与による画像キャプション生成 木村文飛 1 新納浩幸 ${ }^{2}$ 1 茨城大学工学部情報工学科 2 茨城大学大学院理工学研究科情報科学領域 18t4030r@vc.ibaraki.ac.jp hiroyuki.shinnou.0828@vc.ibaraki.ac.jp ## 概要 画像の内容を自動的に記述する画像キャプション生成という技術は、自然言語処理と画像処理という二つの分野を組み合わせて行う分野である。本論文では、キーワード付与というデコーダの入力ベクトルにキーワードのベクトルを付与する手法を提案し、それを行うことで画像キャプション生成における問題点の解決を図った。提案手法を行わなかったモデルと比較することで評価を行い、結果として提案手法が CIDEr のスコアを 0.7 更新したことが確認できた。 ## 1 はじめに 本論文では、画像とキャプションのペアを用いて行うキャプション生成について、キーワード付与を用いることで、生成されるキャプションの精度を向上させる手法を提案する。 画像キャプション生成は、画像からその画像の簡単な説明文(キャプション)を生成するタスクである。人力で作成された、画像とキャプション文のセットを用いて学習する手法によって、近年目覚ましい発展を遂げている分野である。 画像キャプション生成における従来の手法の問題点として、十分なデータセットの用意が困難という点があげられる。人力で作成された画像とキャプション文のセットをさらに拡張することは、非常にアノテーションコストがかかる作業なのである。これの解決策として、教師なし学習 $[1,2]$ やデータ拡張 [3] などがある。また画像キャプション生成の大きな問題点の一つとして、不適当なキャプションが生成された場合、原因が何であるかを特定することが容易ではないという点があげられる。画像キャプション生成をする際には、画像畳み込みといった画像側の処理と、画像キャプション文の学習という言語側の処理を一連の流れの中で行わなければならない。つまり、原因が言語側にあるか画像側にあるか不明確なのである。本論文ではこれらの問題点に着目し、画像を畳み込み作成されたべクトルに、学習に使われるキャプション内に出現するキーワードに対応したべクトルを付与することで、生成するキャプションの精度を向上させることを目指す。また、 キーワード付与をすることで物体検出が正常に行われた状況下となるかということを実験する。 実験では、訓練データの画像に MSCOCO のデー タセット [4]、キャプションに STAIR Captions の日本語キャプション [5] を用いた。テストデータは MSCOCO のデータセットから一部を抜き出して使用した。そして、キーワード付与を行ったデータで学習を行ったシステムで得られたキャプションと、 キーワード付与を行っていないデータで学習を行ったシステムで得られたキャプションを比較し評価を行った。 ## 2 関連研究 本研究では、[6] で提唱された画像キャプション生成モデル、NIC の構造を参考にした。 このモデルは畳み込みニューラルネットワーク (CNN)をエンコーダ、長短期記憶ニューラルネットワーク(LSTM)をデコーダとして、それらを組み合わせることで画像キャプションを生成するモデルである。入力画像から畳み込みニューラルネットワーク(CNN)によって特徴量を取り出したものと、画像の説明文を単語埋め込みによりべクトル化したものを、長短期記憶ニューラルネットワーク (LSTM)に入力することで文章を生成するものである。このモデルの特徴として、画像キャプション生成に利用可能なデータセットのサイズが大きくなればなるほど、出力するキャプションの精度が上がることは明らかであると述べられている。しかし、実際には利用可能なデータセットを増やすことは非常にコストがかかり容易ではない。 ## 3 提案手法 画像キャプション生成の問題点は、データセット拡張のコストが高いことと、不適切なキャプション生成の原因が言語側にあるか画像側にあるか不明確であることの 2 点である。これらを解決するため、学習に用いられるデータセットに、キャプションから取り出したキーワードをもとに作成したベクトルを付与する手法を提案する。 ## 4 実験 ## 4.1 実験設定 本実験で付与するべクトルとは、キーワードとなる単語 150 個を用いて、学習に用いられるキャプションから作成したキーワードの bag of words である。これを各キャプションごとに作成し、キャプションに対応する画像を畳み込むことで得られるべクトルにアペンドした。尚、キーワードとなる単語 150 個は、データセット全体における名詞の出現回数をもとに決定しており、物体検出で出力されないような名詞(色、数字等)は手動で除外した。 本実験では、MSCOCO の画像データセットと STAIR Captions の日本語キャプションを組み合わせて学習を行った。キーワード付与を行った場合におけるキャプションの品質の変化を調べるために、デフォルトのデータセットとキーワード付与を行ったデータセットの合わせて 2 パターンの訓練データを用意した。これらを用いて学習を行い、デフォルトのデータセットを用いて学習を行ったモデルと、提案手法を用いて作成されたデータセットを用いて生成されたモデルとを比べることによって品質が向上したかを調査する。 今回の実験では CNN は学習させずに、学習対象をエンコーダの最後に行う 1 層の全結合層と、 デコーダとなる LSTM のみを学習させた。また、本実験では CNN に学習済みネットワークである VGG-16[7]を用いて画像畳み込みを行った。 学習に用いたデータセットは、MSCOCO の訓練データ画像と、STAIR Captions の 5 つのキャプション文のセットを組み合わせた 82732 個である。図 1 に訓練データ例を示す。 これに対してバッチサイズ 100、エポック数 10 として学習を行った。そして、学習する際の各エポック終了時にモデルを保存し、各モデルに対してテス 図 1 訓練データ例 トデータとなる MSCOCO のデータセットから抜き出した画像 10000 枚からキャプションを生成させ評価を行った。 実験後、キーワードとして埋め込んだ単語がどれほどの出現率となるかを調査するために、提案手法を用いたモデルで最高精度だったモデルと提案手法を用いないモデルで最高精度だったモデルを用いて生成されたキャプション 10000 文に対して、ベクトルを付与する際に用いたキーワードの bag of words を作成し分析した。 分析内容は以下の 3 通りである。 ・キーワードとして付与した単語の出現率。 ・ bag of words の値で場合分けした、キー ワードとして付与した単語の出現率。 ・不適切なキーワードの出現率。 これらについて調査を行い、分析を行った。 ## 4.2 評価手法 生成キャプションの評価には CIDEr[8]を用いた。 CIDEr とは、動画や画像のキャプション生成で評価に用いるメソッドであり、n-gram 形式を用いた TF-IDF による平均コサイン類似度を表すものである。キャプション画像の枚数やアノテーション数を考慮しているという点から本実験の評価手法に用いた。 ## 4.3 実験結果 実験結果として、キーワード付与前と付与後のモデルで行ったテスト結果をまとめたものを図 3 に示 す。キーワードの付与前のモデルで最高精度となったのはエポック 3 のものであり、値は 42.1 であった。キーワードの付与後のモデルで最高精度となったのはエポック 4 のものであり、值は 42.8 であった。この結果により、CIDEr という評価手法では提案手法がベースラインを上回る最高精度を記録し、提案手法が精度向上に起因することが確認できた。 キーワードとして付与した単語の出現率についての分析結果をまとめたものを表 1 に示す。この結果から、キーワードとして付与した単語の出現率は、上昇したが大きな変化がなかったことが確認できた。 キーワードを付与する際に埋め込まれるべクトルは、正解キャプション 5 つから作成したキーワー ドの bag of words であるので、各キーワードごとに出現回数によって重みが違うという問題がある。表 1 はその問題点を考慮していないため、画像ごとではなく単語単位で、正解キャプション 5 つにおけるキーワードの出現回数によって場合分けし、分析した。その結果を表 2 に示す。 間違ったキーワードが出現した確率も同時に調査した。具体的には、追加したべクトルに含まれていないキーワードが出現する確率を計算した。計算結果は追加前が 52.75 \%、追加後が 47.74 \%であった。 ## 4.4 出力例 図 2 にモデル別のキャプション出力例を示す。 「パソコン」、「サーフ」はキーワードであり、ベクトルに埋め込まれているため、提案手法を用いることで生成されるキャプションがより正確になっている場合があることが確認できる。 ## 5 考察 実験結果より、本実験の提案手法は CIDEr の評価値こそ微増させたものの、埋め込んだキーワードをキャプションに出現させるという観点においてはあまり効果がないということが分かった。特に、正解キャプション内で出現回数が少ないキーワードに関してはほとんど改善が見られなかった。埋め込んだキーワードをよりキャプションに出現させることができなかった要因の一つに、画像に様々な物体が移っているという要因が考えられる。 提案手法を追加する前から、生成キャプション 1 つにつき平均 1 つのキーワードを出現させることが出来ている。よってこの提案手法によってキャプ 生成キャプション 前男性がベッドの上で本を読んでいる<EOS>後男性がパソコンを見ている<EOS> 生成キャプション 前砂浜で男性がフリスビーをしている<EOS> 後砂浜でサーフボードを持っている人がいる<EOS> 図 2 テスト画像例 ションの精度を向上させるには、すでに生成キャプションに含まれている物体に加えて他の物体も表現しなければならないのである。 埋め込んだキーワード数の平均から、多くの画像には 3 つ以上の物体が写っていることが確認でき、 これらは提案手法によって、学習に用いるべクトルへと確実に付与されている。故に、正確に物体検出出来ている状況に近い状態にあると言える。しかし、それでもあまり改善が見られないことから、本実験によって、単純に画像の物体すべてを物体検出することが出来ても、それらを複数用いて正しく画像キャプション生成をすることは困難であるということが考えられる。 また、提案手法は表記ゆれを吸収できないという欠点がある。例えば、「男性」、「男」、「青年」などといった意味上は似通った単語については、本研究では特に操作せずに別の単語として扱っている。加えて、「男」や「青年」等の単語は埋め込むキーワードにバリエーションを持たせるために除去した。そのため、意味上は似通った単語であっても追加するべクトルには反映されない。これが影響し、埋め込んだキーワードをキャプションに出現させることが出来なかった可能性が考えられる。 図 $3 \mathrm{CIDEr}$ の評価 表 1 埋め込んだキーワード数(平均)に対する、出力されたキーワード数(平均) 表 2 正解文内の各キーワードの出現回数(bag of words の数値)をもとにした、キーワードの出力率 しかし、提案手法が全く機能していなかったというわけではない。表 2 から、正解キャプション内で出現回数が 5 回の単語に関しては、出現確率が約 $3.305 \% 、 4$ 回の単語に関しては、出現確率が 2.692 \%ほど上昇している。この結果から、出現回数が多い、つまり重要度の高いキーワードの出現確率は向上していることが確認出来る。逆に、出現回数が 1 回や 2 回だけの、出現回数が少ないキーワー ドに関しては出現確率が下降している。これらは単純に bag of words の数值に起因するものであると考察できる。bag of words が高いキーワードのみが優先されてしまい、低いキーワードの生成に至らなかったと考えられる。 また、誤ったキーワードを含めたキャプション の例のように、当初の目的である物体検出の安定、 キャプションの正確性を増すという点では提案手法は効果的であるということが確認できた。 ## 6 おわりに 本論文では、キーワード付与を行うことで画像キャプション生成における品質の向上を行った。具体的には、画像を畳み込んだべクトルに、爰選したキーワードを用いた正解キャプションの bag of words をアペンドした。提案手法を用いて生成したキャプションは評価值については微増することが確認できた。しかし、複数のキーワードの生成という点においてあまり大きな効果がないことが実験結果の分析からわかった。 本実験を行っていくうえで Chive のような日本語単語分散表現を追加するべクトルに使ってみるというアイデアは出ていた。本実験ではよりシンプルになる用に bag of words を採用したが、これらのべクトルを利用して実験を行うことも検討する。また、本提案手法の弱点として述べた表記ゆれについての対抗策も検討する予定である。 キーワードを付与することで物体検出は出来ていると考えられることから、問題点は言語処理側にあるといえるはずである。今後は言語処理側に注視し、追加するべクトルについて改良に関する研究を重ねてく。 ## 謝辞 本研究は JSPS 科研費 JP19K12093 および 2021 年度国立情報学研究所公募型共同研究 (2021-FC05) の助成を受けています。 ## 参考文献 [1] Yang Feng, Lin Ma, Wei Liu, and Jiebo Luo. Unsupervised image captioning. In Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), June 2019. [2] Ukyo Honda, Yoshitaka Ushiku, Atsushi Hashimoto, Taro Watanabe, and Yuji Matsumoto. Removing word-level spurious alignment between images and pseudo-captions in unsupervised image captioning. In Proceedings of the 16th Conference of the European Chapter of the Association for Computational Linguistics: Main Volume, pp. 3692-3702, Online, April 2021. Association for Computational Linguistics. [3] 岩村紀与彦, ルイ笠原純ユネス, モロアレッサンドロ,山下淳, 淺間一. アテンション機構を用いたクロップとマスクによるキャプション生成のためのデータ拡張. 精密工学会誌, Vol. 86, No. 11, pp. 904-910, 2020. [4] Tsung-Yi Lin, Michael Maire, Serge Belongie, James Hays, Pietro Perona, Deva Ramanan, Piotr Dollár, and C. Lawrence Zitnick. Microsoft coco: Common objects in context. In David Fleet, Tomas Pajdla, Bernt Schiele, and Tinne Tuytelaars, editors, Computer Vision - ECCV 2014, pp. 740-755, Cham, 2014. Springer International Publishing. [5] Stair captions: Constructing a large-scale japanese image caption dataset. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 417-421, Vancouver, Canada, July 2017. Association for Computational Linguistics. [6] Oriol Vinyals, Alexander Toshev, Samy Bengio, and Dumitru Erhan. Show and tell: A neural image caption generator. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2015. [7] Karen Simonyan and Andrew Zisserman. Very deep convolutional networks for large-scale image recognition. In International Conference on Learning Representations, 2015. [8] Ramakrishna Vedantam, C. Lawrence Zitnick, and Devi Parikh. Cider: Consensus-based image description evaluation. In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2015.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT3-11.pdf
# 単語の分散表現および音素列の類似性を考慮した 単語アラインメントに基づく教師なし Entity Linking 邊土名朝飛 友松祐太 杉山雅和 戸田隆道 東佑樹 下山 翔 株式会社 AI Shift \{hentona_asahi, tomomatsu_yuta, sugiyama_masakazu, toda_takamichi, azuma_yuki, sho_shimoyama_xb\}@cyberagent.co.jp ## 概要 本研究では,多様なパターンのユーザ発話やエントリを考慮した,音声認識誤りに頑健な教師なし Entity Linking 手法を提案する,提案手法は,単語の分散表現と音素列を利用してアラインメントをとることで,意味的類似性と音韻的類似性の両方を考慮する. 手法の妥当性を検証するため,自社で運用している音声対話システムのデータを利用し,テキス卜間類似度を測る複数の手法との間で比較実験を行った. 実験の結果,提案手法は従来手法よりも高い性能を示し, 多様なパターンのユーザ発話やエントリを考慮できることがわかった. ## 1 はじめに Entity Linking とは,テキスト中に含まれる Entity を認識し,知識べース上のエントリと紐付ける夕スクである。 タスク指向型の音声対話システムにおいては,前段で自動音声認識(Automatic Speech Recognition; ASR)システムを用いてユーザ発話をテキスト化し, 後段の言語理解 (Natural Language Understanding; NLU)モジュールで Entity Linking を行う構成がとられていることが多い. 図 1 音声対話システムにおける Entity Linking しかし,近年の汎用 ASR システムの認識性能は非常に高い性能を有しているものの,依然としてドメイン固有の単語は誤認識しやすいという問題がある. ドメインごとに音声認識モデルを構築することで認識誤りを低減することは可能であるが [1], ドメインごとに十分な量の学習データを用意してモデ ルを学習するためには多大なコストがかかる。この問題に加えて,環境音などのノイズや音質劣化,イントネーションの差異などの要因により認識性能はさらに低下する。また,ユーザ発話やエントリには多様な表記方式や言い間違いのパターンが存在するため,より Entity Linking を難しいものにしている (表 1 参照). \\ 本研究では,多様なパターンのユーザ発話やエントリを考慮した,音声認識誤りに頑健な教師なし Entity Linking 手法を提案する. 提案手法は,単語分散表現で意味的類似度を,単語音素列で音韻的類似度を考慮してアラインメントをとり,ユーザ発話と各エントリ間の類似度を計算することで Entity Linking を実現する ${ }^{1)}$. 実験では,自社で運用している音声対話システムのログデータを使用し,アブレーション実験およびテキスト間類似度を測る複数の教師なし手法との間で比較実験を行うことで提案手法の有効性を示す. 1)本来であれば Entity Linking の前にテキスト中から Entity を抽出する必要があるが,実験に用いた対話データではほとんどのユーザが Entity のみ発話していたため,直接 Entity Linkingを行っている. ## 2 関連研究 Raghuvanshi らは,ASR の認識結果をデータベー ス上の人名と紐付けることを目的とした教師なし手法を提案した [2]. この手法は,テキストと音素の類似度を利用することで音声認識誤りに頑健な人名検索を行うことができる. 本研究では,Raghuvanshi らと同様に音素情報を用いるとともに,単語分散表現も利用することで意味的類似度も考慮した Entity Linking を行う. 単語ベクトルを利用して 2 つのテキスト間の意味的類似性を計算する主流のアプローチとして, 最適輸送に基づいたアラインメント手法がある. 代表的な手法としては Word Mover's Distance (WMD)[3] が挙げられ,その他にも超球面上で最適輸送を行う Word Rotator's Distance (WRD) [4] や, 不均衡最適輸送 (Unbalanced Optimal Transport; UOT) を導入した Lazy Earth Mover's Distance (Lazy-EMD)[5] などが提案されている. 本研究では, ユーザ発話とエントリ間の類似度を計算するために, 最適輸送に基づいた単語アラインメントのアプローチを採用する. ## 3 提案手法 提案手法は,ASR の認識結果のテキストと,知識ベース上のエントリの 2 つのテキストを入力として与える. ASRテキストと各エントリとの間で類似度を計算した後,最も類似度が高かった ASR テキストとエントリのペアを紐付けることで Entity Linking を行う。 以下,単語数 $n, n^{\prime}$ をそれぞれ持つ 2 つのテキスト (ASRテキスト,エントリ)を $s=\left.\{t_{1}, t_{2}, \cdots, t_{n}\right.\}, s^{\prime}=$ $\left.\{t_{1}^{\prime}, t_{2}^{\prime}, \cdots, t_{n^{\prime}}^{\prime}\right.\}$ と表す. また, 各単語 $t_{i}$ に対応する単語ベクトルを $w_{i} \in \mathbb{R}^{D}$ と表す. ## 3.1 単語アラインメント 本研究では,単語アラインメントに使用する最適輸送アルゴリズムとして Unbalanced Optimal Transport (UOT)[6][7] を用いる. UOT は, 文の長さが大きく異なるテキスト間の類似度を適切に計算できる [5] ため,正式名称と略称との間の類似度を高くできると考えられる. UOTを用いたテキスト $s, s^{\prime}$間の距離の計算式を以下に示す。 $ \begin{gathered} D\left(s, s^{\prime}\right)=\min _{T \in \mathbb{R}_{+}^{n \times n^{\prime}}} \sum_{i, j} T_{i, j} d\left(t_{i}, t_{j}^{\prime}\right)+\operatorname{reg} \cdot \Omega(T) \\ +\operatorname{reg}_{\mathrm{m} 1} \cdot \operatorname{KL}\left(T^{\top} \mathbb{1}_{n}, \mu_{s}\right)+\operatorname{reg} \mathrm{rg}_{\mathrm{m} 2} \cdot \operatorname{KL}\left(T \mathbb{1}_{n^{\prime}}, \mu_{s^{\prime}}\right), \\ \Omega(T)=\sum_{i, j} T_{i, j} \log \left(T_{i, j}\right) . \end{gathered} $ ここで, $T_{i, j}$ は $i$ から $j$ への輸送量を,$d\left(t_{i}, t_{j}^{\prime}\right)$ は 2 つの単語 $t_{i}, t_{j}^{\prime}$ 間の輸送コスト表している. また, $\Omega(T)$ は Entropic regularization term, $\operatorname{KL}\left(T^{\top} \mathbb{1}_{n}, \mu_{s}\right)$ は分布 $T^{\top} \mathbb{1}_{n}, \mu_{s}$ 間の Kullback-Leibler divergence である. reg, reg $_{\mathrm{m} 1}, \mathrm{reg}_{\mathrm{m} 2}$ は各ペナルティ項の影響を調整するハイパーパラメータである。 $\mu_{s}, \mu_{s^{\prime}}$ はそれぞれ輸送前と輸送後の確率分布を表しており,以下のように表される。 $ \begin{aligned} \mu_{s}=\left.\{\left(t_{i}, m_{i}\right)\right.\}_{i=1}^{n}, \mu_{s^{\prime}} & =\left.\{\left(t_{j}^{\prime}, m_{j}^{\prime}\right)\right.\}_{j=1}^{n^{\prime}}, \\ \sum_{i} m_{i} & =1, \sum_{j} m_{j}^{\prime}=1 . \end{aligned} $ ここで, $m_{i} \in[0,1]$ は確率質量であり, $\mu_{s}$ は各単語 $t_{i}$ について質量 $m_{i}$ の荷物があることを意味している. ## 3.2 単語間の輸送コスト WMD では単語間の輸送コストとしてユークリッド距離が用いられているが,ユークリッド距離にはノルム (単語重要度) と偏角(意味的類似度)が混在している [8]. そのため, 重要度が大きく異なる単語間では,意味的に近いにもかかわらず,類似度が不当に低く見積もられてしまう恐れがある。そこで, 本研究では, 横井らの研究 [8] に従い, 単語べクトル間のコサイン距離を輸送コストの計算に使用する. さらに,単語の意味的な類似度だけでなく音声の類似度も考慮するために,単語の音素列間のレー ベンシュタイン距離も導入する. 2 つの単語 $t_{i}, t_{j}^{\prime}$ 間の輸送コスト $d\left(t_{i}, t_{j}^{\prime}\right)$ を以下のように定義する. $d\left(t_{i}, t_{j}^{\prime}\right)=\lambda \cdot d_{\cos }\left(w_{i}, w_{j}^{\prime}\right)+(1-\lambda) \cdot d_{\text {edit }}\left(p_{i}, p_{j}^{\prime}\right)$. ここで, $d_{\mathrm{cos}}\left(w_{i}, w_{j}^{\prime}\right)$ は単語ベクトル $w_{i}, w_{j}^{\prime}$ 間のコサイン距離, $d_{\text {edit }}\left(p_{i}, p_{j}^{\prime}\right)$ は単語 $t_{i}, t_{j}^{\prime}$ にそれぞれ対応する音素列 $p_{i}, p_{j}^{\prime}$ の間の正規化レーベンシュタイン距離である。また, $\lambda \in[0,1]$ は,輸送コスト計算時に意味的類似度をどの程度考慮するかを決定する八イパーパラメータである. ## 3.3 単語の重み付け 本研究では,知識ベース内における単語の重要度を考慮するために,Inverse Document Frequency(IDF) を確率質量に導入する。しかし,通常のIDFを利用した場合, 音声認識誤りの影響で IDF 辞書内の単語とマッチせず適切な単語スコアが計算できなくなる恐れがある。そこで,Soft TFIDF[9]を参考に新たに Phonetic Soft IDF (PS-IDF) を提案する. PS-IDF は音素列の類似度を考慮した IDFであり,IDF 辞書内の単語と完全一致していない場合でも類似した発音の単語から IDF スコアを計算する.PS-IDF の定義を以下に示す。 $ \begin{aligned} \operatorname{PSIDF}\left(t_{i}\right) & =\frac{1}{\left|\mathscr{D}\left(p_{i}, P^{e}, \theta\right)\right|} \\ & \sum_{p_{j}^{e} \in \mathscr{D}\left(p_{i}, P^{e}, \theta\right)} \operatorname{IDF}\left(p_{j}^{e}\right) \cdot\left(1-d_{\text {edit }}\left(p_{i}, p_{j}^{e}\right)\right) \end{aligned} $ ここで,$p_{j}^{e}$ は知識ベース上にあるエントリを構成する単語 $t_{j}^{e}$ の音素列, $P^{e}$ は知識ベース上にあるエントリの単語音素列の集合である。また, $\mathscr{D}\left(p_{i}, P^{e}, \theta\right)$ は $P^{e}$ に含まれる単語音素列 $p_{j}^{e}$ のうち, 音素列 $p_{i}$ との正規化レーベンシュタイン距離が $d_{\mathrm{edit}}\left(p_{i}, p_{j}^{e}\right) \leq \theta$ であるものの集合であり, $\theta$ はしきい値(ハイパー パラメータ) である. 最終的に,2つのテキストの確率分布は以下のように表される。 $\mu_{s}=\left.\{\left(t_{i}, \frac{\operatorname{PSIDF}\left(t_{i}\right)}{\mathrm{Z}}\right)\right.\}_{i=1}^{n}, \mu_{s^{\prime}}=\left.\{\left(t_{j}^{\prime}, \frac{\operatorname{PSIDF}\left(t_{j}^{\prime}\right)}{\mathrm{Z}^{\prime}}\right)\right.\}_{j=1}^{n^{\prime}}$. ここで, $Z, Z^{\prime}$ は正規化定数である. ## 4 実験と考察 ## 4.1 データセット 提案手法を評価するためのデータセットとして,自社で運用している自動音声対話サービス AI Messenger Voicebot ${ }^{2}$ )の Entity 辞書および発話ログデータを使用した. このデータセットには,飲食系と医療系の 2 種類のドメインのデータが含まれている. Entity 辞書とは,商品名や店舗名などのエントリと,そのエントリの同義語を人手で登録したドメイ  ン固有の知識ベースである. エントリの同義語には,エントリの略称や表記ゆれなどのフレーズの他に,音声認識誤りを考慮したフレーズ(e.g. エントリ : Abema Towers,同義語:阿部タワー)も登録されている. Entity 辞書に含まれているエントリ数と同義語数を表 2 に示す. 発話ログデータは,Entity 辞書内のエントリと正しく紐付けられたユーザ発話を収集したものである. データセット内のユーザ発話の件数を表 3 に示す.なお,発話ログデータには同じ内容の発話デー タが多数含まれているため,実際に収集された発話データの件数を「重複あり」, 重複を除いた発話データの件数を「重複なし」で示している. 実験では,重複ありデータを用いて実際の運用時の性能を,重複なしデータを用いて発話パターンのカバー 率を評価した。 表 2 各 Entity 辞書内のエントリ数と同義語数 表 3 ユーザ発話件数 ## 4.2 実験設定 提案手法を評価するにあたり,テキスト間類似度を測る教師なし手法として,音素列の正規化レーベンシュタイン距離, WMD[3], WRD[4], Lazy-EMD[5] を採用した. 本実験では,単語分散表現として chiVe[10] の事前学習済み Magnitude モデル (v1.2 mc30 $)^{3}$ を採用し, 形態素解析器には SudachiPy [11] ${ }^{4)}$ を使用した. SudachiPy の分割モードは A モード (UniDic 短単位相当)とした. テキストから音素列への変換は pyopenjtalk ${ }^{5)}$ を用いた. PS-IDF のしきい値 $\theta$ は 0.1 に設定した. UOTを使用している手法(提案手法, Lazy-EMD) の Entropic regularization term の係数 reg は, Lazy-EMD の実験に倣い 0.009 に設定した [5]. また, Kullback-Leibler divergence にかかる 2 つの係数 $\mathrm{reg}_{\mathrm{m} 1}, \mathrm{reg}_{\mathrm{m} 2}$ は,略称を発話するユーザ側のテキストの重要度を高くするために 3) https://github.com/WorksApplications/chive 4) https://github.com/WorksApplications/SudachiPy 5) https://github.com/r9y9/pyopenjtalk $\operatorname{reg}_{\mathrm{m} 1}=1.0, \mathrm{reg}_{\mathrm{m} 2}=0.5$ に設定した. ## 4.3 Entity 辞書内実験 提案手法が音声認識誤りフレーズを含む多様な同義語に対処できるのかを評価するために, Entity 辞書に登録された同義語を入力として与え,その同義語に対応するエントリを紐付ける Entity 辞書内実験を行った. このとき,紐付け対象であるエントリセットには,Entity 辞書内にある同義語は含まれないものとする. 評価結果を表 4 に示す. 提案手法は, 飲食系, 医療系の両方のドメインで比較手法よりも高い性能を示した。 次に,提案手法の各構成要素の効果を確かめるためにアブレーション実験を行った。実験結果を表 5 に示す. ここで, -Word vector は, 提案手法から単語分散表現の要素を抜いたもの,すなわち輸送コス卜計算時に音素列の類似度のみを考慮したモデルである。一方,-Phone は単語分散表現の類似度のみを考慮したモデルである。-PS-IDF では,単語の重み付けに PS-IDF を利用せず,WMD と同様に一様な重みを付与した。 -UOT は,最適輸送アルゴリズムにUOTを利用せず,WMD と同様に Earth Mover's Distance(EMD)を用いた。 結果より,飲食系ドメインにおいては提案手法が最も高い性能を示していることが分かる。一方,医療系ドメインでは PS-IDFを利用しないモデルが最も性能が高くなった. 医療系ドメインの Entity 辞書の同義語には,飲食系ドメインと比較して音声認識誤りフレーズが多数登録されていたことから, PS-IDF が音声認識誤りにうまく対処できず,適切な単語の重みが計算できなかったことが要因と考えられる。 表 4 Entity 辞書内実験の結果(Accuracy [\%]). ## 4.4 発話ログデータを用いた実験 次に,実際のユーザ発話が与えられた際の Entity Linking の性能を評価した。評価結果を表 6 , 表 7 に示す. 提案手法は,飲食系ドメインにおいては重複あり,重複なしのデータの両方で最も高い性能を示表 5 アブレーション実験結果(Accuracy[\%]) した. 一方,医療系ドメインにおいては,重複ありのデータではレーベンシュタイン距離が最も高い性能を示した. 提案手法の性能が低くなった原因として,ユーザが頻繁に言及していた特定のエントリについて適切に紐付けできなかったことが挙げられる. ただし,提案手法は重複なしのデータでは最も高い性能を示しているため,比較手法よりもエントリや発話の多様なパターンをカバーしていると考えられる. 表 6 発話ログデータを用いた評価実験の結果(重複あり, Accuracy $[\%])$ 表 7 発話ログデータを用いた評価実験の結果(重複なし, Accuracy $[\%])$ ## 5 まとめ 本研究では,意味的類似性と音韻的類似性の両方を考慮した単語アラインメントに基づく教師なし Entity Linking 手法を提案した. 比較実験の結果,提案手法は飲食系ドメインでは最も高い性能を示した.一方,医療系ドメインのユーザ発話データを用いた実験では,提案手法がレーベンシュタイン距離よりも性能が低いという結果が示されたが,多様な発話パターンのカバー率という面では比較手法よりも優れていることが示唆された. 今後は,より効果的な音韻的特徵を組み込んだ Entity Linking 手法の検討を進めていきたい。 ## 参考文献 [1] Yong Zhao, Jinyu Li, Shixiong Zhang, Liping Chen, and Yifan Gong. Domain and speaker adaptation for cortana speech recognition. In 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 5984-5988, 2018. [2] Arushi Raghuvanshi, Vijay Ramakrishnan, Varsha Embar, Lucien Carroll, and Karthik Raghunathan. Entity resolution for noisy ASR transcripts. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP): System Demonstrations, pp. 61-66, 2019. [3] Matt J. Kusner, Yu Sun, Nicholas I. Kolkin, and Kilian Q. Weinberger. From word embeddings to document distances. In Proceedings of the 32nd International Conference on International Conference on Machine Learning, Vol. 37, p. 957-966, 2015 [4] Sho Yokoi, Ryo Takahashi, Reina Akama, Jun Suzuki, and Kentaro Inui. Word rotator's distance. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2944-2960, 2020. [5] Yimeng Chen, Yanyan Lan, Ruinbin Xiong, Liang Pang, Zhiming Ma, and Xueqi Cheng. Evaluating natural language generation via unbalanced optimal transport. In Proceedings of the Twenty-Ninth International Joint Conference on Artificial Intelligence, IJCAI-20, pp. 37303736, 2020. [6] Lénaïc Chizat, Gabriel Peyré, Bernhard Schmitzer, and François-Xavier Vialard. Scaling algorithms for unbalanced optimal transport problems. Mathematics of Computation, Vol. 87, No. 314, pp. 2563-2609, February 2018. [7] Charlie Frogner, Chiyuan Zhang, Hossein Mobahi, Mauricio Araya-Polo, and Tomaso Poggio. Learning with a wasserstein loss. In Proceedings of the 28th International Conference on Neural Information Processing Systems, Vol. 2, p. 2053-2061, 2015. [8] Sho Yokoi, Ryo Takahashi, Reina Akama, Jun Suzuki, and Kentaro Inui. Word rotator's distance. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 2944-2960, 2020. [9] William W. Cohen, Pradeep Ravikumar, and Stephen E. Fienberg. A comparison of string distance metrics for name-matching tasks. In Proceedings of the 2003 International Conference on Information Integration on the Web, p. 73-78, 2003. [10] 真鍋陽俊, 岡照晃, 海川祥毅,一馬, 内田佳孝, 浅原正幸. 複数粒度の分割結果に基づく日本語単語分散表現. 言語処理学会第 25 回年次大会 (NLP2019), pp. NLP2019-P8-5, 2019. [11] Kazuma Takaoka, Sorami Hisamoto, Noriko Kawahara, Miho Sakamoto, Yoshitaka Uchida, and Yuji Matsumoto. Sudachi: a japanese tokenizer for business. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), 2018.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT3-12.pdf
# 機械翻訳における単語埋め込み共有時の問題の 言語埋め込み導入による緩和 毛剣楠 1 松本忠博 1 1 岐阜大学 大学院 z4525087@edu.gifu-u.ac.jp tadggifu-u.ac.jp ## 概要 単語埋め込みの共有はニューラル機械翻訳モデルのパラメータ数を大幅に削減し,翻訳精度を向上させる. 本研究では, 単語埋め込み共有時に両言語間の共通単語が部分的に負の影響を与えることを予備実験から予想し,その緩和ために言語埋め込みを導入して単語埋め込みに加えることを提案する。これにより 2 言語間の共通単語の埋め込みはエンコー ダーとデコーダーで異なる分布を示した,日中,日英言語ぺアの翻訳に対して提案手法を適用したところ,言語や言語埋め込みの付与方法にもよるが概ね翻訳精度が向上する傾向が見られた. ## 1 はじめに 強力なアーキテクチャ [1] の登場により,ニュー ラル機械翻訳(NMT)が最も有望な機械翻訳方式となっており,それに伴って,NMT によるGPUメモリの必要性が高まっている.従来の NMT モデル $[1,2]$ では,単語埋め込みは NMT モデルの最も重要なモジュールの 1 つであり,単語埋め込みを用いて単語の構文的,意味的属性を捕捉する. NMT モデルでは一般的に,エンコーダー入力埋め込み,デコーダー大力埋め込み,デコーダー出力埋め込みの 3 つの行列が使用される. これらの埋め込みはモデルパラメータの大部分を占め,トレーニング時に多くのGPUメモリを占有している. 単語埋め込みの GPUメモリの使用を減らすために,NMT 単語の表現に用いるパラメータを減らすいくつかの方法が提案されている. Press[3] は単語埋め込みのパラメータを大幅に減らすために 「three-way weight tying」と呼ばれる重みの共有方法を提案したが,これは実用 NMT の新しい事実上の標準となった.「three-way weight tying」は3つの単語埋め込みを表すために 1 つの行列を使用し,源言語と目的言語で共通の単語が 1 つの単語ベクトルを共有する。この方法は源言語と目的言語の共通サブワードの NMT にも適用でき,英独仏など,同じ文字が多い言語ペアではうまく機能した [1]. 本研究では,単語埋め込み共有が翻訳結果に負の影響を与えていないか調べるための予備実験を行った. 翻訳結果の文中には源言語の単語が存在する場合があった. また,PCAアルゴリズムを用いて単語埋め込みを可視化し,中一日および英 $\rightarrow$ 日翻訳モデルにおける単語埋め込みを比較した. 予備実験の結果と PCA 可視化のグラフに基づいて言語的な観点から, Transformer の単語埋め込みの共有が翻訳結果に悪影響を及ぼしていることが予想された。その緩和のために,Transformer-base モデルに最大 2048 個の訓練パラメータを追加する 3 種類の手法を提案し,評価実験を行なった.実験の結果,パラメータの付与の方法と翻訳対象となる言語,翻訳方向にもよるが,概ね翻訳精度が向上する傾向が見られた。 ## 2 予備実験 max-tokens は,1 回のイテレーションで使用される源言語および目的言語の token の最大数(バッチサイズ)である. Popel ら [4] の実験結果から, max-tokens が Transformer の翻訳精度に大きな影響を与えていることが分かった.この影響は,イテレーション回数の増加によって大きく変化することはない。まず,共通単語の多い言語ペアである中日と,比較のため英日に対して,max-tokens を 1024 に設定して実験1を行った.翻訳結果に存在した源言語の単語の数を表 1 に示す。中日翻訳と比較すると,英日翻訳では間違った単語が大量に出現することはなかった.  図 1 単語埋め込み分布の比較 Mikolov ら [5] によると,単語埋め込みを共有しない場合でも,異なる言語の単語はべクトル空間において類似した位置に分布することが知られている。我々は,前述の中日・英日翻訳実験での最適モデルの単語埋め込みを抽出し, 頻度上位 5000 単語を PCA アルゴリズムを用いて次元削減した後,2 次元グラフにプロットした. 図 $1^{2)}$ から明らかなように,同一言語に固有単語が分布しているのに対して,共通単語は両言語間に分布しており,英日翻訳と比較して,中日翻訳ではより多くの共通単語が両言語間に分布している. ## 3 言語埋め込み 本研究は, 図 1 の中日翻訳と英日翻訳における単語埋め込みの分布,及び BERT[6] におけるセグメン卜埋め込みの示唆に基づく言語埋め込み(Language 2) ch:中国語固有単語. jp : 日本語固有単語. $\mathrm{en}$ : 英語固有単語. en $+\mathrm{jp}$ : 英語と日本語の共通単語. $\mathrm{ch}+\mathrm{jp}$ :中国語と日本語の共通単語.表 1 max-token=1024 の時,翻訳実験結果 Embedding,LE)を提案する. エンコーダーとデコーダーにそれぞれ異なる言語埋め込みを加え,同一の単語がエンコーダー側とデコーダー側で異なる表現を持つようにする。提案手法では,コーパス中の単語を 3 つのクラス3)に分類し,言語埋め込みをどのように付与するかによって 3 つの手法を提案する. 提案手法 1 エンコーダー側では,源言語固有単語と,源言語・目的言語の共通単語を 2 つに分類し,源言語固有単語の言語埋め込みを 0 (更新なし)とする.デコーダー側では,目的言語固有単語と,源言語・目的言語の共通単語を 2 つに分類し,目的言語固有単語の言語埋め込みを 0 (更新なし)とする. LE はそれぞれエンコーダーとデコーダーの端で計算され,式 (1)のようになる。この時,モデルにおいて増加するパラメータ数は $\left.2 \times 2 \times 512^{4}\right)=2048$ になり,計算すべきパラメータ数は 1024 になる. $ \begin{aligned} & \text { Word }_{L E}^{\text {Encoder }}=\text { Word }_{\epsilon[\mathrm{src}=0, \mathrm{src}+\mathrm{tgt}]} \times L E_{2 \times 512}^{\text {Encoder }} \\ & \text { Word }_{L E}^{\text {Decoder }}=\text { Word }_{\epsilon[\mathrm{tgt}=0, \mathrm{src}+\mathrm{tgt}]} \times E_{2 \times 512}^{\text {Decoder }} \end{aligned} $ 提案手法 2 エンコーダー側では,源言語固有,源言語・目的言語の共通単語を 1 つに分類する。すなわち,エンコーダーへの入力単語は 1 種類である.デコーダー側では,目的言語固有,源言語・目的言語の共通単語を 1 つに分類する. すなわち,デコーダーへの入力単語は 1 種類である。LE はそれぞれエンコーダーとデコーダーの端で計算され,式 (2)のようになる.このとき,モデルが増加するパラメータ数は $2 \times 512=1024$ になり,計算すべきパラメータ数は 1024 になる. $ \begin{aligned} & \text { Word }_{L E}^{\text {Encoder }}=\text { Word }_{\epsilon[(\mathrm{src}, \mathrm{src}+\mathrm{tgt})]} \times L E_{1 \times 512}^{\text {Encoder }} \\ & \text { Word }_{L E}^{\text {Decoder }}=\text { Word }_{\epsilon[(\mathrm{src}, \mathrm{src}+\mathrm{tgt})]} \times L E_{1 \times 512}^{\text {Decoder }} \end{aligned} $ 提案手法 3 エンコーダー側では,源言語固有単語,源言語・目的言語の共通単語を 2 つに分類する. )$ クラス 2 : 目的言語に固有の単語 $(t g t)$ クラス 3 : 源言語と目的言語に共通の単語 $(s r c+t g t)$ 4) transformer-base の単語埋め込みは 512 次元。 } 提案手法:1 提案手法:2 提案手法: 3 図 2 提案手法. 上の長方形はエンコーダーの言語埋め込み,下の長方形はデコーダーの言語埋め込みである. 長方形左側の円を固有単語の言語埋め込み,長方形右側の円を共通単語の言語埋め込みとする.提案手法ごとに,円に紋様がない場合はその言語埋め込みが 0 であり,更新しないことを表す. 同一長方形中の円の紋様が同じ場合は,固有単語と共通単語が同じ言語埋め込みを持つことを表す。各円で表される言語埋め込みのサイズは,単語埋め込みのサイズと同じである. 図 3 モデルへの入力過程. 赤い円は源言語の固有単語埋め込み,青い円は目的言語の固有単語埋め込み,紫の円を源言語と目的言語の共通単語埋め込みを表す. 実験に用いたコーパスにおいて「環境」,「測定」などは共通単語となった. デコーダー側では,目的言語固有単語,源言語・目的言語の共通単語を 2 つに分類する. LE はそれぞれエンコーダーとデコーダーの端で計算され,式 (3) のようになる. このとき,モデルが増加するパラメータ数は $2 \times 2 \times 512=2048$ になり,計算すべきパラメータ数は 2048 になる. $ \begin{aligned} \text { Word }_{L E}^{\text {Encoder }} & =\text { Word }_{\epsilon[\mathrm{src}, \mathrm{src}+\mathrm{tgt}]} \times L E_{2 \times 512}^{\text {Encoder }} \\ \text { Word }_{L E}^{\text {Decoder }} & =\text { Word }_{\epsilon[\mathrm{tgt}, \mathrm{src}+\mathrm{tgt}]} \times L E_{2 \times 512}^{\text {Decoder }} \end{aligned} $ 以上の 3 つの提案手法を図 2 に示す. LE と単語埋め込みの融合方式を式 (4)に示す. $ \begin{aligned} & \text { Encoder }_{\text {input }}=\text { Word }_{\text {embedding }}+\text { Word }_{L E}^{\text {Encoder }} \\ & \text { Decoder }_{\text {input }}=\text { Word }_{\text {embedding }}+\text { Word }_{L E}^{\text {Decoder }} \end{aligned} $ 提案手法の詳しい過程を図示すると図 3 のようになる. エンコーダーとデコーダーの入力単語を単語埋め込みに変換し,それに各単語の LEを加えて, モデルに入力する. ## 4 翻訳実験 実験では,コーパス中の全角記号を半角記号に変換した後,単語分割を行った. 中国語文はLTP[7]で単語分割を行い,英語文は Stanza[8] で,日本語文は Ginza[9] で単語分割を行なった. データクリーニングなど前処理は行っていない. train データを用いてモデルの訓練を行い,中日,日中,英日,日英の 4 つ方向の翻訳実験を行った. ## 4.1 コーパス説明 コーパスには ASPEC-JC および ASPEC-JE[10] を用いた. ASPEC-JCは,日本の科学論文を手作業で中国語に翻訳して構築されている. ASPEC-JE は日本語と英語の科学論文の要約から構成されており,大量の英文名詞と数字を含む. 語彙は train データの単語分割結果に基づいて作成した. 使用データ数と語彙サイズを表 2 に示す. 表 2 用いた ASPEC コーパスデータ数 ## 4.2 実験設定 ベースラインとして使用するモデルの構造は Transformer-base[1] と同じであり,実装には Fairseq[11] を用いた. 学習率は 0.0007 とし, Adam を用いて学習を行なった. max-tokens は 2048 とした. SEED は 1 に固定し,訓練は 15 万イテレーショ 表 3 BLEU および PPL による評価結果 ン実行した。 提案手法の実験では,3つの提案手法を使い,パラメーターはベースライン実験と同じ設定にした. dev データにおいて valid loss が最小のモデルを保存した。これを最適モデルと呼ぶ. devデータでの Perplexity と test データに対する BLEU スコア(翻訳精度)により最適モデルを評価した。 ## 4.3 実験結果 表 3 に BLEU スコアと Perplexity(PPL)を示す. 実験の結果,BLEU スコアは,手法 1 では日英翻訳で 1.01 ポイント向上したが,日中では 0.48 ポイント低下した (平均 0.14 ポイント向上). 手法 2 では中日翻訳で 0.69 向上したほか, すべての翻訳で向上した (平均 0.35 ポイント向上). 手法 3 は中日翻訳で 0.99 ポイント向上したが,英日ではわずかに低下した (平均 0.29 ポイント向上). 中日翻訳におけるベースラインの最適モデルと提案手法 3 の最適モデル中の単語埋め込みを抽出し, PCA アルゴリズムを用いて次元削減して 2D グラフにプロットしたが,言語埋め込みがエンコーダやデコーダの入力に与える影響がグラフからははっきりと見えなかった. そこで,単語埋め込みを 512 次元から 3 次元に削減して 3D グラフにプロットした (図4). この図において, baseline はベースライン実験の単語埋め込み, word_embedding は提案手法 3 の単語埋め込み, encoder_input は提案手法 3 のエンコーダー 入力, decoder_input は提案手法 3 のデコーダー入力を表す. ベースライン実験での max-tokens=2048 のときの単語埋め込みの空間分布は,1024 のとき(2 節)とほぼ同じである. 図 4 を見ると,ベースラインと提案手法 3 には明らかな違いはない. エンコーダー入力を見てもべー スラインの入力は単語埋め込みであるのに対し, 提案手法 3 の入力は明らかに変化し, 3 次元空間で線形分離可能な状態となった.この変化から,エンコーダーに入力される共通単語に言語埋め込みを付 図 4 ベースラインと提案手法 3 を用いた場合の中日翻訳の単語埋め込み分布の比較 加すると,共通単語は,単語埋め込み中においてエンコーダーの入力言語(中国語)の方にシフトすると考えられる. 同様に,デコーダーに入力される共通単語は,単語埋め込み中ではデコーダーの入力言語(日本語)に傾いている。共通単語は,エンコー ダーとデコーダーにおける単語埋め込みが異なる表現を持つことを示している. ## 5 終わりに Transformerにおいて単語埋め込みを共有した場合に,源言語と目的言語の単語埋め込みの分布から,両言語の共通単語が翻訳精度に悪影響を及ぼしているのではないかと予想した. 本研究では両言語を区別するための少量のパラメータ(言語埋め込み)を単語埋め込みと組み合わせて使用すること提案し,評価実験を行なった. その結果, 翻訳対象となる言語と翻訳方法, 言語埋め込み付与の仕方などの条件により違いはあるが,概ね翻訳精度が向上する傾向が見られた。 今後は,提案手法による実験結果のばらつきに対して,さらに頑健な解決策を提案するとともに,文字レベルとサブワードレベルの翻訳実験を行う予定である. ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017, December 4-9, 2017, Long Beach, CA, USA, pp. 5998-6008, 2017. [2] Mia Xu Chen, Orhan Firat, Ankur Bapna, Melvin Johnson, Wolfgang Macherey, George Foster, Llion Jones, Niki Parmar, Mike Schuster, Zhifeng Chen, et al. The best of both worlds: Combining recent advances in neural machine translation. arXiv preprint arXiv:1804.09849, 2018. [3] Ofir Press and Lior Wolf. Using the output embedding to improve language models. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics, EACL 2017, Valencia, Spain, April 3-7, 2017, Volume 2: Short Papers, pp. 157-163. Association for Computational Linguistics, 2017. [4] Martin Popel and Ondrej Bojar. Training tips for the transformer model. Prague Bull. Math. Linguistics, Vol. 110, pp. 43-70, 2018. [5] Tomás Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. In 1st International Conference on Learning Representations, ICLR 2013, Scottsdale, Arizona, USA, May 2-4, 2013, Workshop Track Proceedings, 2013. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. CoRR, Vol. abs/1810.04805, , 2018. [7] Wanxiang Che, Yunlong Feng, Libo Qin, and Ting Liu. N-ltp: A open-source neural chinese language technology platform with pretrained models. arXiv preprint arXiv:2009.11616, 2020. [8] Peng Qi, Yuhao Zhang, Yuhui Zhang, Jason Bolton, and Christopher D. Manning. Stanza: A Python natural language processing toolkit for many human languages. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, 2020. [9] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei $\mathrm{Li}$, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. arXiv e-prints, 2019. [10] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. Aspec: Asian scientific paper excerpt corpus. In Nicoletta Calzolari (Conference Chair), Khalid Choukri, Thierry Declerck, Marko Grobelnik, Bente Maegaard, Joseph Mariani, Asuncion Moreno, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC 2016), pp. 2204-2208, Portorož, Slovenia, may 2016. European Language Resources Association (ELRA). [11] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of NAACL-HLT 2019: Demonstrations, 2019.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT3-13.pdf
# Eコマースにおける検索クエリの整形と 属性値抽出への適用 中山祐輝 Chen Zhao Erick Mendieta 村上 浩司 新里 圭司 楽天グループ株式会社 楽天技術研究所 \{yuki.b.nakayama, chen.a.zhao, erick.mendieta\}@rakuten.com \{koji.murakami,keiji.shinzato\}@rakuten.com ## 概要 Eコマースでの商品検索の質を向上させるために,クエリを意味のあるまとまりに整形する研究が盛んである.しかし, 既存研究のほとんどは, 一つの操作に絞っており, かつ英語を対象とした研究で のタスクに応用する試みは,ほぼなされていない。本稿では,三つの操作を考慮する日本語のクエリ整形手法を提案し,実験によってその有効性を示す. さらに, 本手法を $\mathrm{E} コ$ コースの属性値抽出に適用し,クエリ整形の重要性を示す. ## 1 はじめに EC サイトでの購買活動が高まり, 商品検索のクエリが膨大に蓄積されている。蓄積されたクエリは,ユーザの需要把握や,検索の質向上を目的としたクエリ補完や属性值抽出などのタスクに有効利用できる. しかし, クエリは語の境界が不適切な場合があり,検索結果やタスクに悪影響を及ぼす。例えば,「アディダスマスク」というクエリは,「アディダス」というブランドと「マスク」という分野相当の語が混在しているため, ゼロヒット [1]を引き起こす可能性がある。一方,「肉口のロとみや」というクエリ(は空白)は,「肉のとみや」という店名を誤って分割しているため, 当該肉店に関連のない商品が表示される可能性がある. このような問題を軽減するために, E コマースドメインにおいてクエリの語に表 1 のような操作を行い,クエリを意味のあるまとまりに整形するするクエリ整形の研究が盛んである $[2,3,4]$. しかし、既存研究の手法には, (1)一つの操作しか対象としない研究がほとんど, (2) 日本語を対象とした研究はない, (3) 改良手法を NLP タスクに適用した研究はな いという三つの課題がある. そこで,本稿では日本語を対象とした三つの操作を考慮するクエリ改良手法を提案する。本稿の貢献は, E コマースドメインにおける日本語に対応した全く新しいクエリ改良の手法を提案し, ベースライン手法と比較して優れた成果が得られたこと,クエリ改良手法を NLP タスクに応用し, 形態素解析を事前処理に用いた手法と比べて精度の向上を達成したことである. 我々は,提案手法を NLP タスクとして代表的な属性値抽出に適用する. ## 2 関連研究 Eコマースにおけるクエリ整形手法として,Salehi ら [5] は,英語を対象としたセグメント化を対象としたクエリ改良の手法を提案した. $\mathrm{Li} ら$ [6] は,中国語を対象としたクエリ改良の手法を提案した。しかし,英語や中国語とは異なり,日本語は分かち書きされておらず,異なる三つの字種を持つことから, 既存手法を日本語のクエリに適用することは困難である. Guo ら [7] は, 表 1 の三つの操作を網羅したクエリ改良の手法を提案し, 適合判定の IR タスクに適用した。それに対して,我々は属性値抽出という NLP の代表的なタスクに焦点を当てる。 Eコーマスの検索クエリを対象とした様々な属性値抽出手法がある.Kozareva ら [8] と Zhai ら [9] は, それぞれ LSTM-CRF に基づく手法と文法規則を用いて,ブランドと商品ジャンルを認識する手法を提案した. Jiang ら [10] は, 人手による少数の学習データに品質改善を施した擬似学習データを追加することで, 属性值抽出の改善を図った. Cheng ら [11] は, 人手による少数の学習データで学習されたモデルを用いて, 品質の高い擬似データの生成を繰り返して学習を行うフレームワークを提案した。しかし, クエリ整形という事前処理の観点から精度向上を図った研究はない. ## 3 提案手法 ## 3.1 概要 図 1 に提案手法の概観を示す。空白によって分割されたクエリの語 $x_{i}$ からなる入力系列 $\boldsymbol{x}=x_{1} \ldots x_{l}$ が与えられた時, 我々の目標は整形された語の系列 $\boldsymbol{y}=y_{1} \ldots y_{L}$ を予測することである. $l$ と $L$ はそれぞれ, 入力系列の語数と出力系列の語数である. 本研究では, 表 1 にある分割, 結合, セグメント化の三つの操作に焦点を当てる.具体的には, 整形操作の系列 $\boldsymbol{o}=o_{1} \ldots o_{l}$, ただし $o_{i} \in\{$ Split, Merge, Segment, Single $\}$ を予測するタスクを解く.ここで, Single は操作を必要としないクエリの語に割り当てられる. 整形操作の系列が決定されれば, $\boldsymbol{o}$ を用いて, $\boldsymbol{x}$ を整形後の系列に変換できる. Wikipedia のタイトルは,製品名やブランド名など Eコーマスに関わる固有表現を多く含み,それらは整形後のクエリ語となる可能性が高い。また, 二つのクエリ語が頻繁に隣接して共起すれば、それらからなる語も整形後のクエリ語となる可能性が高いと考える.以上の二つの考えに基づいて,まずキー ワードマッチング(3.2 節)によって, $x_{i}$ の操作 $o_{i}$ を Merge,Segment,Single のいずれかに分類する.もしクエリ語が,いずれのキーワードにもマッチしなかった場合は, Uncetain label を暫定的に付与し, 整形後のクエリ $\boldsymbol{x}_{\boldsymbol{r}}$ を入力とした機械学習(3.3 節)によって Split, Merge, Segment, Single のいずれかに分類される. ## 3.2 キーワードマッチング手法 まずは,以下の手順でクエリ語の系列と収集されたキーワードとのマッチングをとる. 1 oを [Uncetarin,...,Uncertain] に初期化 2 Uncertain ラベルを持つ全ての系列 $x_{i} \ldots x_{j}$ を取得 3 各系列とキーワードとの最左最長マッチをとる $4 x_{i} \ldots x_{j}$ がキーワードにマッチすれば, $x_{i} \ldots x_{j}$ に対応する Uncertain ラベルを Merge, Segment, Single のいずれかに更新する マッチングは,三つのキーワードリストを用いて,信頼性を考慮し以下の順番で行われる。 1. Eコーマスドメインの属性値リスト (ORD) ブ メインに関連する約 7 万 8 千語からなる属性值のリストを構築する。 2. ウィキペディアタイトルと本文のキーワード (Wiki) 2021 年 3 月時点最新の日本語版ウィキペディアダンプと, 2021 年 2 月時点最新の英語版ウィキペディアダンプから,それぞれ約 190 万のタイトルと約 1273 万のタイトルを収集する。また, 2021 年 2 月時点最新のからを収集する. さらに, 日本語版ウィキペディアの本文から形態素解析によるトー クン N-gram $(1 \leq N \leq 4)$ を抽出し, 頻繁に隣接して共起する $\mathrm{N}$-gram ペアをキーワードとして登録した。二つの $\mathrm{n}$-gram トークン $w_{1}, w_{2}$ の共起度合いを測る尺度として,式 (1) の相互情報量を用いる. $ \operatorname{PMI}\left(w_{1}, w_{2}\right)=\log _{2} \frac{N * \operatorname{Freq}\left(w_{1}, w_{2}\right)}{\operatorname{Freq}\left(w_{1}\right) * \operatorname{Freq}\left(w_{2}\right)} $ $N$ は語の総数であり, freq $\left(w_{1}, w_{2}\right)$ は, $w_{1}, w_{2}$ の順で両者が隣接して出現する頻度である. 3. クエリ語のトークンリストと接頭辞/接尾辞リスト(Query) クエリ語内の語の共起性を考慮する. クエリ語の形態素解析で得られたトークンに対して,隣接トークンペアの PMI を式 (1) で求め, 間值を上回るペアを収集する. ## 3.3 マッチング結果を考慮した機械学習に ## 基づく手法 3.2 節で整形された Uncertain ラベルを持つクエリの系列 $\boldsymbol{x}_{\boldsymbol{r}}=x_{1} \ldots x_{m}$ が与えられた時, Uncertain ラベルの分類を文字単位の BIOES チャンキングとして定式化する.具体的には,空白を含む $x_{r}$ の文字系列 $\boldsymbol{c}=c_{1,1} \ldots c_{m, n}$ に対して, 系列 $z=z_{1,1} \ldots z_{m, n}$, $z_{i, j} \in\{B, I, O, E, S\}$ を予測するタスクを解く.ここで, $c_{i, j}$ は, $i$ 番目のクエリ語内の $j$ 番目の文字である. 最後に, 出力系列 $z$ から Uncertain ラベルに対応するクエリ語の部分を抜き出し,ラベルを Split,Merge,Segment,Single のいずれかに更新する. チャンキングの手順は, 文字系列の埋め込み表現の獲得,マッチング手法の結果を考慮したクエリ語の埋め込み表現の結合, 全結合, CRF の 4 層からなる。本稿では前半の二つのステップについて説明する. まずは, 周辺文字を意識するために, 図 1 提案手法の概観 (ロは空白を表す) Character-BERT を用いて文字系列の埋め込み表現 $\boldsymbol{H}=\left[\boldsymbol{h}_{[\mathrm{CLS}]}, \boldsymbol{h}_{1,1}, \ldots, \boldsymbol{h}_{m, l}, \boldsymbol{h}_{[\mathrm{SEP}]}\right]$ を獲得する. ここで, $\boldsymbol{h}_{i, j}$ は, 文字 $c_{i, j}$ に対応する Character-BERT による埋め込み表現である. 次に, クエリ語 $x_{i}$ の埋め込み表現を, $c_{i, j}$ の埋め込み表現に結合させる. 提案手法では, 以下の二つの理由でキーワードマッチングでマッチしたクエリ語のみの埋め込み表現を考える.一つ目は,マッチング情報をモデルの素性として加えるためである。二つ目は,不適切な埋め込み表現を避けるためである。一般的に,文字レベルの系列ラベリングタスクにおいて, 単語の埋め込み表現は Watson ら [12] のように対応する全ての文字に考慮される。しかし, 「アディダスマスク」のような語の境界が不明な問題を扱っているため, 不必要なクエリ語の埋め込みを文字の埋め込みに結合する可能性がある. クエリ語 $x_{i}$ の埋め込み表現は, 構成される文字における埋め込み表現の平均によって得る. ## 4 評価実験 ## 4.1 クェリ整形 日本語のクエリ整形における公開データセットは存在しないため, 楽天市場の商品検索で使用された 10,239 件のクエリに対して整形操作のスパンを人手で特定した。10,239 件のクエリのうち, 8,240 件 (学習: 7325 件, 開発: 825 件) は Character-BERT のファインチューニングに用いた. Character-BERT は, 東北大学が提供している事前学習モデル1) を用いた。また, 999 件のクエリを 3.2 節の PMI の閾値を決定するために用いた. 残り 1000 件のクエリを評価セット $|Q|$ として用いた(表 2).Guo ら [7] にし  たがい, (2) 式の正解率を評価尺度とした. $ \frac{1}{|Q|} \sum_{q \in Q} \frac{q \text { 内で整形操作が正解である語の数 }}{\text { クエリ } q \text { の語数 }} $ 表 3 に実験結果を示す.ベースライン手法として, 固有表現抽出でよく利用される Character-BERT $\mathrm{CRF}$ を用いた。提案手法の正解率は $88.12 \%$ となり, ベースラインより 4.54 ポイント優れた正解率を達成し, 両側 $\mathrm{t}$ 検定により両者の間には $1 \%$ の統計的有意差があった。また,アブレーションテストを通してキーワードマッチング手法における各ステップの有効性を確認した。さらに,全てのクエリ語の埋め込み表現を追加した場合と比べて,クエリ語の埋め込み表現の追加をキーワードリストに含まれる語に限定した場合,正解率が $87.18 \%$ から $88.12 \%$ に向上し,埋め込み対象のクエリ語を限定したとことの有効性を確認した。 提案手法によって誤った整形操作に分類された 272 のクエリ語に対して分析を行った. 272 語中, 227 語がステージ 1 にで誤りが発生した。そこで, STAGE1 においてキーワードリストのアブレーションテストを行うことで,どのリストが誤りを引き起こしているかを調査した。 227 語中, 119 語が単一のリストによって引き起こされた誤りとなり,それぞれ ORD が 19 語, Wiki が 37 語, 63 語がクエリからのキーワードに起因する誤りだった。ORD と Wiki については,キーワードが網羅されておらず,キーワードの部分一致を引き起こしたことが原因である.例えば,二つのクエリ語「出産」と「祝い」が一つのクエリ語「出産祝い」に結合されるべきところが,「出産祝い」がリストに登録されておらず,「出産」と「祝い」というキーワードにマッチし, Single ラベルが付与されたため, 結合されなかった。クエリからのキーワードに起因する 63 語 の誤りのうち, 61 語は隣接するトークン間の PMI が意図せず閾値を上まわった結果,両者の結びつきが強くなり, 複数のクエリ語に分割されなかった. ステージ 2 では, 45 件の誤りが発生した. 誤りの傾向として, 「リバーシブル D-86」や「かみつき! Tレックス」のようなアルファベット,数字,カタカナなど様々な字種で構成される商品名が複数のクエリ語に誤って分割されていた。このような複雑なケースに対応することが今後の課題である. ## 4.2 ブランド抽出 クエリ整形手法をブランド抽出に適用し, $\mathrm{E} コ$ マースドメインにおける提案手法の有効性を検証した.ブランド抽出を文字レベルの系列タギング問題として定式化し, 再現性を担保するために FLAIR [13] で公に利用できるモデル2)を用いた. モデル内の埋め込み層では, 以下の Flair 埋め込みと単語埋め込みを用いた。 単語埋め込み楽天市場の商品検索で入力された 2018 年分のクエリをランダムに 240 万件抽出し, word2vec によって次元数 300 , 最小頻度 100 で事前学習した。 Flair 埋め込み Flair は, 文脈の前後の関係を意識した強力な文字列の埋め込み手法である [14]. 楽天市場の商品検索で入力された 2018 年分のクエリをランダムに 100 万件抽出し, 事前学習を行う. 文字列ベクトルの次元数は, 前方からのモデル 2048 次 2) https://github.com/flairNLP/flair/blob/master/ flair/models/sequence_tagger_model.py\#L26元と後方からのモデル 2048 次元を結合した 4096 である. ファインチューニングには,人手による 9000 件のラベル付きクエリと辞書ベースによって付与された擬似ラベル付き $560 \mathrm{~K}$ のクエリを学習に用い,別途 2,248 件の人手によるラベル付きクエリを開発用セットとした。表 4 に評価データの詳細を示す.表 5 に実験結果を示す. MeCab と Unidic 辞書による形態素解析結果をモデルの入力とした場合と比較して,提案手法を適用したモデルは $\mathrm{F} 1$ スコアで 8.9 ポイントの精度向上を達成した。 表 6 に,クエリ整形の提案手法がブランドの抽出に成功し, 形態素解析 (MeCab+Unidic) による事前処理が失敗した例を示す。提案手法は,クエリ「カネテツロデリカロフーズ」を意味のある一語に結合させたことで,「カネテツデリカフーズ」をブランドとして認識できた。この結果から,提案手法のクエリの整形化によって文脈情報を保持し,かつ不必要な単語埋め込みを避けることができていると考える。 表 4 ブランド抽出における評価データの基礎情報 表 6 ブランド抽出て提案手法が成功した例(カネテツデ & カネテツロデリカロフーズ \\ Results & & \\ ## 5 おわりに 本稿では, Eコマースにおける三つの操作を考慮した日本語のクエリ整形手法を提案し,実験によってその有効性を示した。また,提案手法をブランド抽出に適用し, 形態素解析器による事前処理と比較実験を行い,クエリ整形の重要性を示した。誤り事例の解決方策を考案することが今後の課題である. ## 参考文献 [1] Yuki Amemiya, Tomohiro Manabe, Sumio Fujita, and Tetsuya Sakai. How do users revise zero-hit product search queries? In European Conference on Information Retrieval, pp. 185-192. Springer, 2021. [2] Saša Hasan, Carmen Heger, and Saab Mansour. Spelling correction of user search queries through statistical machine translation. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 451-460, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [3] Saurav Manchanda, Mohit Sharma, and George Karypis. Intent term selection and refinement in e-commerce queries. arXiv preprint arXiv:1908.08564, 2019. [4] Sharon Hirsch, Ido Guy, Alexander Nus, Arnon Dagan, and Oren Kurland. Query reformulation in e-commerce search. In Proceedings of the 43rd International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR '20, p. 1319-1328, New York, NY, USA, 2020. Association for Computing Machinery. [5] Bahar Salehi, Fei Liu, Timothy Baldwin, and Wilson Wong. Multitask learning for query segmentation in job search. In Proceedings of the 2018 ACM SIGIR International Conference on Theory of Information Retrieval, ICTIR '18, p. 179-182, New York, NY, USA, 2018. Association for Computing Machinery. [6] Zhao Li, Donghui Ding, Pengcheng Zou, Yu Gong, Xi Chen, Ji Zhang, Jianliang Gao, Youxi Wu, and Yucong Duan. Distant supervision for e-commerce query segmentation via attention network. In Intelligent Processing Practices and Tools for E-Commerce Data, Information, and Knowledge, pp. 3-19. Springer, 2022. [7] Jiafeng Guo, Gu Xu, Hang Li, and Xueqi Cheng. A unified and discriminative model for query refinement. In Proceedings of the 31st Annual International ACM SIGIR Conference on Research and Development in Information Retrieval, p. 379-386, 2008. [8] Zornitsa Kozareva, Qi Li, Ke Zhai, and Weiwei Guo. Recognizing salient entities in shopping queries. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 107-111, Berlin, Germany, August 2016. Association for Computational Linguistics. [9] Ke Zhai, Zornitsa Kozareva, Yuening Hu, Qi Li, and Weiwei Guo. Query to knowledge: Unsupervised entity extraction from shopping queries using adaptor grammars. In Proceedings of the 39th International ACM SIGIR Conference on Research and Development in Information Retrieval, SIGIR '16, p. 255-264, New York, NY, USA, 2016. Association for Computing Machinery. [10] Haoming Jiang, Danqing Zhang, Tianyu Cao, Bing Yin, and Tuo Zhao. Named entity recognition with small strongly labeled and large weakly labeled data. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 1775-1789, Online, August 2021. Association for Computational Linguistics. [11] Xiang Cheng, Mitchell Bowden, Bhushan Ramesh Bhange, Priyanka Goyal, Thomas L. Packer, and Faizan Javed. An end-to-end solution for named entity recognition in ecommerce search. In AAAI, 2021. [12] Daniel Watson, Nasser Zalmout, and Nizar Habash. Utilizing character and word embeddings for text normalization with sequence-to-sequence models. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 837-843, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [13] Alan Akbik, Tanja Bergmann, Duncan Blythe, Kashif Rasul, Stefan Schweter, and Roland Vollgraf. Flair: An easyto-use framework for state-of-the-art nlp. In NAACL 2019, 2019 Annual Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 54-59, 2019. [14] Alan Akbik, Duncan Blythe, and Roland Vollgraf. Contextual string embeddings for sequence labeling. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 1638-1649, Santa Fe, New Mexico, USA, August 2018. Association for Computational Linguistics.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT3-14.pdf
# 日本語大規模データセットにおける嘘つき検出 青木洋繁 静岡大学情報学部 haoki@kanolab.net } 狩野芳伸 静岡大学情報学部 kano@inf.shizuoka.ac.jp ## 概要 言語情報のみでの欺瞒・嘘つき検知1は人間にとって難しい. 日本語での対話データを用いた欺瞒・嘘つき検出の研究はこれまでいくつかあったが,非言語情報を主に用いたものが多く, 言語情報のみを用いたものが筆者の知る限り存在しなかった. また,英語で行われた欺瞞・嘘つき検出の研究には言語情報のみの対話データを用いたものがあったが,欺瞒・嘘つきラベルが付けられたデータセットは集めにくいという特性上,これまで行われてきた研究で使用されていたデータセットは規模が小さかった. そこで本研究では, 日本語の大規模データセッ卜を用い, 英語の先行研究の手法が日本語のデータセットにおいても有効かどうかの検証に加え, 深層学習モデルを学習させ, 英語の先行研究の手法と比較した. Accuracy 約 $72.4 \%$ で分類に成功し, 先行研究よりも安定して嘘つきを検出できた。 ## 1 はじめに 言語情報のみの欺暪・嘘つき検知は人間にとって難しく, 人間はオンラインのテキストコミュニケー ションで, 相手を信頼する傾向があることが分かっている [1]. SNS の流行やコロナウイルスの影響でオンラインでのコミュニケーションの機会が増えた今, 言語情報のみの対話データでの嘘つき検出は重要であり, 客観的に対話相手が嘘つきかどうかを判定出来るモデルは有用である。 英語の書き言葉のみの対話データを用いた欺瞒・嘘つき検出の研究はいくつかある [2], [3]. しかし, 日本語の対話データでの欺瞒検知の研究では非言語情報も用いたものが主であった [4], [5], [6]. また,これまでの対話データを用いた嘘つき検出の研究では,嘘付きラベルが付与されたデータの取得が難しいと  いう特性上,小規模なデータが用いられていた。本研究では,インターネット上で行われていた人狼ゲームの人狼 $\mathrm{BBS}^{2}$ のロログを使い, 大きなデータセットで深層学習モデルを学習させ, 嘘つきを予測できるモデルの作成を目指す.また, モデルが予測の際に着目した箇所を可視化し,どのように嘘つきの特徴を捉えているかを検証する。 ## 1.1 人狼ゲームとは 人狼ゲームとは,プレイヤーを騙す人狼陣営と嘘付きを見破る市民陣営にランダムに分け,それぞれの勝利のために対戦するゲームである. 人狼は夜になると人間を一人襲撃する. 人狼による襲撃を止めるため, 昼間に村人全員で話し合いを行い,一日に一度, 最も怪しい村人を投票で 1 人選び処刑する. 市民陣営は人狼を全て処刑すれば勝利し, 人狼陣営は市民陣営よりも多くなった時点で勝利する. 市民陣営には他のプレイヤーの役職を知る事が出来る占い師などの能力者がおり,市民陣営の勝利に大きく貢献する.ただし, 役職はランダムに割り振られ,ゲームが終わるまで正解は明かされないため, 能力者と人狼以外 (人狼同士は打互いを認識している) は, 他のプレイヤーの役職を知る事が出来ない.したがって,人狼陣営は容易に市民陣営を欺くことができ, 市民陣営が勝つためには発言を吟味しながら,嘘つきを見破る必要がある. ## 2 関連研究 ## 2.1 言語心理学の特徵量による嘘つき検出 Girlea ら (2016)[2] は, Barnwell によって収集された英語版人狼ゲームのログ $(86 \text { ゲーム分 })^{3}$ を用い, これまで言語心理学で提唱されてきた嘘つきの特徴を特徴量として,ロジスティック回帰や Random 2)人狼 BBS のログ: http://ninjinix.com/ 3)先行研究で用いられた人狼ゲームのログ: https://www. brenbarn.net/werewolf/logindex.html Forest 等で騙し役をプレイヤーの全発話単位で予測し, Random Forest で 90.87\%の精度で嘘つきを予測することが出来た. また, logistic 回帰の結果から英語の嘘つき検出において特に TTR(type token ratio) が予測に寄与することを示した. ただし,この実験で用いられたデータは小規模であり (701インスタンス,内 116 インスタンスが騙し役), 言語は英語であった.今回はこの手法を日本語の大規模データセット (人狼 BBS データセット) でも同様に有効か検証し, 深層学習モデルと比較した. ## 2.2 深層学習モデルを利用した欺瞞検知 Peskov(2020) ら [3] は, Diplomacy という国盗りゲームを実験参加者にプレイさせ, 発話に送り手が嘘を付いたかのアノテーションと受け手が嘘の発話に見えたかどうかの双方向のアノテーションを付けたデータセットを作成した. このデータセットを使い, ロジスティック回帰とニューラルモデルで発話単位での真偽の予測を行った. 結果, 人間のベースラインと近い精度が得られた. ただし, この研究は, 発話の真偽予測を対象としているため, 対話データ全てを使い騙し役を予測する本研究と直接比較することは出来ない. ## 3 データセット ## 3.1 人狼 BBS データセット 今回はデータセットに人狼 BBS のログデータを用いる. 人狼 BBS は電子掲示板上で以前行われていた人狼対戦ゲームで,インターネット上に過去 10 年分のログデータ (7,264 ゲーム分) が公開されている.初日に襲撃の対象になるコンピュータを含め, 10 人から 16 人の参加者で 1 ゲーム当たり 1 週間程度で行われていた. 一日に一度更新があり, そのタイミングで投票が行われ, 最も怪しい村人の処刑, 人狼の襲撃, 能力者の能力使用が行われる. 役職の役割等,人狼 BBS についての更に詳しい情報は, まとめサイト4)を参照されたい. 人狼 BBS では, 人狼同士が昼間の話し合いの間も他の村人に気付かれることなく会話をすることができるため, 人狼同士連携の取れた高度な嘘が展開されていた. 図 1 に人狼 BBS のログの一部を示した. この例では, ジムソンが市民陣営で, カタリナが人狼陣営である。  図 1 人狼 BBS のログの例 図 1 の吹き出し 1 つを 1 発話として, プレイヤー の 1 ゲーム内の全発話を 1 インスタンスとした. 今回はは人狼 BBS の役職の内, 人狼陣営の人狼, 狂人と市民陣営の村人, 占い師, 霊能者, 狩人を使用した.本研究では, 市民陣営を欺き自陣営の勝利を得ようとする人狼陣営のプレイヤーを「嘘つき」とみなし二值分類を試みた. 前処理を行った後, 市民陣営を 0 , 人狼陣営を 1 とラベル付けしたところ, 市民陣営 61,839 インスタンス, 人狼陣営 26,977 インスタンスとなった. ## 3.2 前処理 web からクロールした人狼 BBS データセットから, 不要な文字列 (顔文字, 絵文字, URL, レスアンカー) の削除, 表記ゆれの統一 (半角ひらがな, 半角アルファベットに統一), 空白・改行の削除, 数字の 0 への変換, モデルが人狼用語 (キャラクター名) に頼って予測をしないようにキャラクター名やニックネー ムの<person>トークンへの置換,嘘つき検出に関係のない部分 (独り言, 人狼同士の対話, 墓地での会話, プロローグ, モノローグ,コンピュータの発話) の削除, 10 発話以下のプレイヤーの削除を行った. 尚, キャラクター名やニックネームは, 人狼 BBS まとめサイトの登場人物のページ5)を参考にしてリストアップし,ログデータを見て手作業で更に追加した. そして, 正規表現を用い, 関係ない箇所が置換されないように工夫して置換した。 人狼 BBS を何度もプレイしているユーザの特徴からモデルが予測をしてしまう事を避けるため, 同じユーザが train:valid:test に跨って出現しないよう 5)人狼 BBS まとめサイト登場人物: https://wolfbbs.jp/ $\%$ C5\%D\%\%BE\%EC\%BF\%CD\%CA\%AA.html にデータセットを train:valid:test 8:1:1 に分割した. 分割後の市民陣営と人狼陣営の数はそれぞれ, train(49,601: 21,447), valid(6,138:2,751) test $(6,100$ : 2,779 ) となった. ここから人狼陣営をオーバーサンプリングして, 市民陣営と人狼陣営が $1: 1$ になるようにした. オーバーサンプリング後の統計量を表 1 に示した. 前処理を行ったデータセットから, mecab(ipadic neologd[7]) を使い形態素分割した後, 先行研究 [2] で用いられた言語心理学の特徴量をカウントしたデータセット,プレイヤー毎に発話をまとめたデー タセットを作成した。 ## 4 モデル ## 4.1 Random Forest 先行研究 [2] の言語心理学の特徴量を用いたモデルの中で, Random Forest が最も精度が高かったため,本研究では Random Forest を使って先行研究を再現した. 先行研究 [2] で使用された特徴量の内, 認知的な複雑さを測るために用いられていた"6 文字より長い単語"は除外し, 英語の前置詞の数の代わりに助詞の数を用いた. また, ネガティブ感情語数は東北大の極性辞書を用いてネガティブ感情語をカウントしたものを用いた. 和らげ・ぼかし表現, 自己参照, 認知語, 動作語, 除外語, 否定語, 動作語, 知覚語は mecab の辞書にあるか確認しながらリストを作り, 発話を形態素解析した後, リストに存在する語をカウントした. その他の品詞の数は, mecab の形態素解析結果に応じてそれぞれカウントした. 以下に使用した特徵量をまとめた。 - TTR (type-token ratio) ・ロごもり語の数 (hesitation) $($ えーと,うーん)(14 語) ・ネガティブ感情語数 ・形態素数 - 自己参照の数 (私, 僕, おいどん)(45 語) - 否定語の数 (しない, ない, 違う)(12 語) ・和らげ・ぼかし表現の数 (hedge)(みたいな, 多分, ちょっと)(34 語) ・認知語の数 (信じる, 考える, 思い出す)(50 語) ・動作語の数 (到着する, 走る, 歩く)(31 語) - 知覚語の数 (触る, 見る, 聞く)(30 語) - 除外語の数 (以外, その他) $(7$ 語) ・助詞と接続詞の数 - 代名詞の数 - 形容詞の数 - 名詞の数 ・動詞の数 - 接続詞の数 - 助詞の数 ## 4.2 HAN(Hierarchical Attention Network) HAN(Hierarchical Attention Network)[8] は, attention 機構を擁した 2 層の bidirectional GRU からなるモデルである. 1 層目は単語レベルで 2 層目は文レベルである. 2 層目は, 1 層目の単語の重み付き和を入力として受け取る (図 2). つまり,一発話ずつ読み,これまでの発話と照らし合わせながらそのプレイヤーが人狼かどうかを判断する.この処理は, 人間が人狼をプレイするときの処理に似ている. また, 人間が着目してる箇所と深層学習モデルが着目している箇所を定量的比較分析した研究で bidirectional LSTM の注目している箇所は人間に近いということが報告されている [9]. 予測の結果だけでなく, 人間に分かりやすい根拠を attention の可視化等を用いて示せば, 実際に人間が嘘つきを検出するときの助けになると考え, HANを選択した。 今回, training データと前処理で除外して学習・評価に使用しなかったデータ (プロローグ等) から学習した Sentencepiece[10](bpe, skip-gram, 語彙数 32,000) を用いて, 発話をサブワードに分割した. サブワー ドの分散表現の獲得には, fasttext[11](200 次元)を用いた. ## 5 実験 実験の評価は, accuracy, precison, recall, f1 で行った. 実験の結果, HAN で Acuracy 約 $72.5 \%$ で分類に成功し, 先行研究の手法を上回った (表 2,3 ). 先行研究の手法の accuracy が約 $52.4 \%$ に落ちたのは, 英語のデータセットで有効であった特徴量が日本語のデー 図 2 Hierarchical Attention Network タセットには適していなかったこと,データセットのサイズが大きく変わったこと (先行研究のデータセット: 701 インスタンス, 人狼 BBS データセット: 88,816インスタンス) が考えられる. 表 2 実験結果 表 3 陣営毎の precision, recall, f1, support(HAN) ## 6 モデルが着目した箇所の分析 モデルが重視した箇所を検証するために, モデルが $90 \%$ 以上の確信度で予測した時, 文の中で attention の重みが一定以上 (発話中のサブワード全体に均等に割り振った確率以上 ${ }^{6)}$ ) かかっていた trigram の重みを足し合わせ, 重みが大きい順に True Positive(TP), False Positive(FP), True Negative(TN), False Negative(FP) に分けて, 重みの和が大きい順に並べた。それから, $\mathrm{TP}$ と $\mathrm{TN}$ 特有の trigramを $\mathrm{TP}-(\mathrm{TN}+\mathrm{FP}+\mathrm{FN}), \mathrm{TN}-(\mathrm{TP}+\mathrm{FP}+\mathrm{FN})$ のように差を取り, wordcloud で可視化した. wordcloud を見ると, $90 \%$ 以上の確信度でモデルが人狼陣営だと判定し, 実際に正解だった時, モデルが着目した箇所は曖昧な当た 6) trigram $の$ threshold $の$ 求めかた $ \text { threshold }=\frac{3}{\text { 発話長 }-2} $ り障りのない箇所が多かった (図 3).一方, $90 \%$ 以上の確信度でモデルが市民陣営だと判定し, 実際に正解だった時, モデルが着目した箇所には<person> トークン (キャラクター名やニックネーム) が列挙されている箇所が多く(図 4), <person>を列挙するのは,他のプレイヤーの役職推定をするときに多いため, プレイヤーが具体的に自分の考えを表明した箇所にモデルが注目していたのだと考えられる.このように処理が人間に近い階層型モデルが確信をもって予測して正解した時には, 人間にも分かりやすい基準 (無難な発話ばかりするプレイヤーは人狼)を持って予測をする傾向がある事が分かった. 更なる可視化の例は付録に示した。 TP-(TN+FP+FN) (A:werewolf) 図 3 モデルの確信度 $90 \%$ の時の TP 特有の trigram 図 4 モデルの確信度 $90 \%$ の時の $\mathrm{TN}$ 特有の trigram ## 7 おわりに 本研究では, 日本語の大規模データセットを用い,深層学習モデルを学習させ, 先行研究のモデルよりも高い精度で嘘つきを検出できるモデルを作成した. さらに, モデルが予測した時に着目した箇所を可視化すると, 人間にも解釈しやすい基準で分類している事が分かった. 今後はこのモデルが一般的な嘘つきの特徴を捉えられているかを検証するため, 詐欺等のデータでこのモデルが嘘を見抜けるかどうかを検証したい。また、bidirectional GRUを BERT や RoBERTa, Sentence BERT に変更するなど, モデルの構造を工夫して, HAN に捉えられなかった嘘を捉えられるモデルの構築を目指したい. 本研究を行うにあたり, 人狼 BBS のデータ使用を許可していただいた ninjin 氏に心より感謝致します. ## 参考文献 [1] Ben Shneiderman. Designing trust into online experiences. Commun. ACM, Vol. 43, No. 12, p. 57-59, dec 2000. [2] Codruta Girlea, Roxana Girju, and Eyal Amir. Psycholinguistic features for deceptive role detection in werewolf. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 417-422, San Diego, California, June 2016. Association for Computational Linguistics. [3] Denis Peskov, Benny Cheng, Ahmed Elgohary, Joe Barrow, Cristian Danescu-Niculescu-Mizil, and Jordan BoydGraber. It takes two to lie: One to lie, and one to listen. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 38113854, Online, July 2020. Association for Computational Linguistics. [4] Yuiko Tsunomori, Graham Neubig, Sakriani Sakti, Tomoki Toda, and Satoshi Nakamura. Comparison of effective features and analysis of questions towards dialogue-based deception detection. [5] Shohei Takabatake and Kazutaka Shimada. Construction and analysis of liar corpus. http: //www.pluto.ai.kyutech.ac.jp/ shimada/paper/ HCG2017_takabatake.pdf. Accessed: 2022-1-5. [6] Kenichiro Tsuji, Sho Mitarai, and Nagisa Munekata. Investigation and analysis of utterance information based on the suspects' actual voice of the communications fraud. Proceedings of the Annual Conference of JSAI, Vol. JSAI2021, pp. 3J1GS6a01-3J1GS6a01, 2021. [7] Sato Toshinori. Neologism dictionary based on the language resources on the web for mecab, 2015. [8] Zichao Yang, Diyi Yang, Chris Dyer, Xiaodong He, Alex Smola, and Eduard Hovy. Hierarchical attention networks for document classification. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1480-1489, San Diego, California, June 2016. Association for Computational Linguistics. [9] Cansu Sen, Thomas Hartvigsen, Biao Yin, Xiangnan Kong, and Elke Rundensteiner. Human attention maps for text classification: Do humans and neural networks focus on the same words? In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 4596-4608, Online, July 2020. Association for Computational Linguistics. [10] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. CoRR, Vol. abs/1808.06226, , 2018. [11] Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword ## 付録 A ## A. 1 可視化例 以下に unigram での可視化例を示した (図 5, 6). サブワード・文の重みが threshold よりも大きいときに色付けされた. unigram での threshold は (2) で決定した. $ \text { threshold }=\frac{1}{\text { 発話長 }} $ 図 5 TP 確信度 $92.81 \%$ での attention 可視化の例 図 $6 \mathrm{TN}$ 確信度 $99.62 \%$ での attention 可視化の例
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT3-15.pdf
# ユーザから情報を引き出すための強化学習による応答生成 佃夏野 1 品川政太朗 1,2 中村 哲 1,2 1 奈良先端科学技術大学院大学 2 理化学研究所革新知能統合研究センター \{tsukuda.natsuno.tn1 sei.shinagawa s-nakamura\}@is.naist.jp ## 概要 雑談対話システムをユーザに長く使用してもらうには,システムがユーザに興味のある話題を提供する必要があるが,まずシステムがユーザの情報を知らねばならない。この時ユーザの心象を損ねず対話でユーザから情報を引き出すのが理想だと考えられ,質問や相槌等の複数の言動を効果的に使い分けることが有望な方法の一つとして考えられる. 本研究では初歩として,指定された情報をユーザ発話から抽出する簡単なタスクを設定した。また,タスクを達成するために単純な報酬を用意し,強化学習を利用して既存の対話システムの最適化を行い,システムの応答文の変化について実験を行なった. 結果として,システムをタスクに最適化できたことと,的外れな内容の生成への対策の必要性が分かった. ## 1 はじめに 雑談対話システムを実運用するには,ユーザに長く使用してもらうことは重要な課題の一つである. そのために, システムがユーザの趣味や職業等の情報をユーザから引き出し,ユーザに興味のある話題を提供することが考えられる。ここで情報を引き出すために単に質問のみ繰り返すと,ユーザが煩わしさや不信感を感じ,システムを使用しなくなる恐れがある。これを防ぐには,質問以外に相槌や自己開示等の複数の対話行為をシステムが扱いつつ,情報を引き出すせるように戦略的に複数の対話行為を使い分けることが必要となる.また,情報を引き出す戦略を学習するには, 正解文と比較して最適化を行う教師あり学習より,タスクの目的に合わせて報酬を設計し,より直接的にタスクを解くように最適化できる強化学習を用いるのが良いと考えられる.理想的にはユーザの心象によって複数の対話行為を使い分けられるように最適化を行うべきであるが,扱う対話行為が多いことやユーザの心象についてのモ 図 1 本研究の対話システムの概要図. デリングのしにくさからタスクとして複雑になる. そこで本研究では初歩的な実験として,図 1 のように雑談における情報抽出に目的を限定し,そのための対話戦略を強化学習を用いて学習する. また,対話行為について質問か質問でないかの二つのみを扱うこととし,強化学習の結果として直接的に情報取得をしやすい質問が行われやすくなることを期待する。そこで,「予め欲しい情報を定義し,システムの応答に対し,目的の情報を含む発話をユーザが行ったか」という単純なタスクと報酬を定義し, システムを REINFORCE [1] で最適化する。本来はユーザの心象と相関の高い機械的な指標を用意し報酬に含めるべきであるが,今回は情報の取得のみを報酬として定義する。これによりユーザのシステムに対する心象や会話に対する反応を考慮しないため,対話行為として質問を行いやすくなると考えられる.この際,JPersonChat データセット [2]で予め fine-tuning した Encoder-Decoder モデルを学習対象のシステムと,ユーザの代わりであるユーザモデルの双方に適用し,両者を会話させて学習のためのデー タセットを収集する。また,強化学習を適用する前後のシステム応答を比較し,報酬の変化,質問の生成しやすさ,及び生成した応答例を評価する。 ## 2 関連研究 ## 2.1 対話による情報抽出 Han らの研究 [3] では,カウンセリング対話における患者から情報を引き出す $5 \mathrm{~W} 1 \mathrm{H}$ の質問文の作成 表 1 タスク達成判断の例。 と,患者の回答から対応する情報を抽出する手法を提案した. この手法ではあらかじめ用意したテンプレートをもとにした質問文の作成と情報抽出により,テンプレートに沿った質問と発話については自然な質問作成と正確な情報抽出が行えた。しかし, テンプレートにない多様な質問や発話には対応できなかった. Cotris らの対話システム [4]では対話からイベントに関する人や場所,日付等のユーザの情報を抽出・統合し,外部利用が可能なモジュールを作成した. また,Tigunova らの研究 [5] ではユー ザ発話の潜在的な特徴量やスピーチスタイルを元に,趣味や職業等のユーザの個人情報の推定を行なった. ## 2.2 既存研究と本研究の差分 対話からの情報抽出についての既存研究 [3][4][5] では,ユーザ発話の中にユーザ自身の情報が含まれることを前提とし,いかに情報を抽出するかが研究の主眼とされてきた. これに対し本研究では, 日常的な会話で考えられるように,会話の運び方や話し相手への心象によりユーザ発話に情報が含まれない場合があることを踏まえ,心情を損ねずユーザが自身の情報について言及するような対話戦略の学習を目標にしている。 ## 3 提案手法 ## 3.1 タスク設定 本研究では,対話システムが行なった応答 $R$ に対して,ユーザが発話 $U$ を返すという設定の下で、 ユーザ発話 $U$ にユーザ情報 $I$ が含まれるように,応答 $R$ をシステムが生成することを目標にする.ここで,取得したいユーザの情報を,今回は職業や出身地といった固有表現として抽出可能なものと定義する.また,この固有表現は,ユーザから取得可能で,かつ,正誤判定のために正解の固有表現をデー タセット中に保持できるものとする.タスクが達成できたかどうか判断する変数 isSuccess はシステムの応答に対するユーザの発話から判断され,式 1 となる。 $ \text { isSuccess }= \begin{cases}\text { True } & (I \in U) \\ \text { False } & (I \notin U)\end{cases} $ また,固有表現抽出とタスク達成の評価の例を表 1 に示す。まず,このタスクで取得したいユーザの情報は表 1 のように,固有表現にあたる部分が に,ユーザ発話に固有表現が含まれ,かつそれが正解であった場合,タスクについて成功したとみなし,ユーザの発話に正解の固有表現が一切含まれていなかった場合にタスク失敗とみなす。また,ユー ザ発話中に複数の固有表現が含まれている場合,一つでも正解の固有表現と合致していればタスクを達成したとみなす. ## 3.2 対話システムの概要 本研究の対話システムは,ユーザ自身について得たい情報とユーザ発話の 2 つをもとにして応答を生成するモデルからなる。概要を図 2 に示す. 図 2 対話システムの概要. まず図 1 のようにユーザについて知りたい情報のうち固有表現部分をマスクした文と,コンテキストを繋げた文を区切り文字 [SEP] で繋げ入力文とする. 次に,これをトークン化し,Encoder-Decoder モデルからなる応答生成モデルに入力し, 最後にシステムの応答を得る。これにより,システムは知りたい情報を引き出すための対話行為と応答の内容,加えて前のターンの会話から大きく外れないことを考慮して,応答を生成できると考えられる。 ## 3.3 学習方法 学習方法には REINFORCE [1] を用い,応答生成モデルを最適化する。 まず前提として,システムとユーザモデルを会話させる際に,図3のようにユー ザモデルには正解となるユーザについての情報「私は福岡出身です」が与えられ,システム側にはその情報のうち固有表現をマスクしたものが与えられる.これは,学習・推論のいずれの場合でも同様である. 図 3 報酬計算のためのデータ処理とそれぞれのシステムに与えられる入力. 次に報酬 $r$ について,先程の前提を元に,コンテキストを元にした 1 ターンの会話でユーザからマスクした固有表現が得られれば $r=1$, 得られなければ $r=0$ とする. 以上のような学習設定と報酬を元に,予め学習前のシステムとユーザモデルを会話させ,報酬を計算しておくことで強化学習用のデータセットを構築しておく. 次に, 用意したデータセットからの学習方法について述べる. 今回のような言語生成に対して REINFORCE を適用する場合,損失 $L$ は,入力系列 $y$ のトークン長 $T$, 言語モデル(方策関数) $\pi_{\theta}$ と時間 $\mathrm{t}$ までの状態 $s_{t}$ に対して, $ L=-\frac{1}{T} \sum_{t=1}^{T} r \log \pi_{\theta}\left(y_{t} \mid s_{t}\right) $ となることが知られている。これは,通常の損失 $\log \pi_{\theta}\left(y_{t} \mid s_{t}\right)$ に対して報酬 $r$ で重み付けし, Teacher forcing で学習することに等しい. 通常の REINFORCE では,モデル更新にしたがってモデルが新たに生成する文も変化していくが,この方法では一般的に学習が不安定になりやすい。そこで本研究では,強化学習を行う前のシステムとユーザモデル間の対話によって対話のデータセットを予め作成しておき,このデータセットからサンプリングした対話データに対して報酬を評価し、訓練に用いた。 ## 3.4 ユーザモデル 強化学習を行う際に用いるユーザモデルについて えた固定のペルソナに沿った発話をするように学習した応答生成モデルを用いる. 固定された情報私は岐阜出身です $[S E P]$ 出身は? 図 4 ユーザモデル概要図。 このユーザモデルでは,まずユーザについて固定された情報とコンテキストを連結した文が,入力文として Encoder-Decoder モデルに与えられる. 学習時には大力文に対応したデータセット中の返答文を教師データとしてユーザモデルの学習を行う. 推論時には,与えられた情報とコンテキストに矛盾しない発話が生成される. ## 4 実験設定 ## 4.1 データセット まず,対話データを作成する際に用いる,対話システムとユーザモデルの fine-tuning に使用する JPersonaChat [2] について述べる。JPersonaChat は PersonaChat [6] の設定をもとにして,クラウドワー カーが与えられたペルソナに沿ってお互いを深く知り合うよう2 者間で話した対話を収集したものである. 各会話のそれぞれの話者にペルソナと呼ばれるユーザに関する情報が「私は横浜出身です」「私は島根県在住です」といった文の形で付与されている. このうち,対話データのみを用いてシステムの生成モデルを fine-tuning する.またユーザモデルは,対話データに加えてそれぞれの対話に結びついた話者のペルソナのうち,固有表現を含むペルソナのみを一つ抽出し, 3.4 で示した方法で fine-tuning を行う. これにより,与えた 1 つのペルソナに矛盾しない発話をユーザモデルに行わせる. 次に,強化学習用のデータセットについて述べる. fine-tuning を行ったシステムとユーザモデルについて,ユーザモデルのペルソナを変更しつつ 20 ターンの会話を行い,過去 3 発話程度のコンテキスト,システム応答,ユーザ発話,およびユーザ発話 表 2 学習した対話システムによる応答生成例と得られた報酬. テストセットや生成例に含まれる正解の情報,コンテキスト及びユーザモデルの発話については表に収まらないため省略した。 から計算される報酬の 4つからなる対話データセット作成した. このデータセットには,227 個のペルソナ, 227 個の対話,および 9080 発話が含まれており,データセットの総数は 4540 個である。このうち 3971 個を学習セットとし,569 個をテストセットとして評価に用いる。 ## 4.2 評価尺度 評価尺度として,テストセットで得られる報酬の総和と,質問を行っている応答の総数を用い,システムが報酬を得やすくなったか,および質問をしやすくなったかについて評価する。また,質問の報酬獲得率を計算し,質問で報酬を獲得できているかについて評価する.質問の報酬獲得率の計算式は $ \text { 質問の報酬獲得率 }=\frac{\text { 報酬を得られた質問の総数 }}{\text { 質問をしている応答の総数 }} $ となる。 ## 5 実験結果と考察 4.2 節で述べた尺度による評価の結果を表 3 に示す. 学習前後の報酬の総和を比較すると,学習後の 表 3 報酬の総和と質問数・質問の報酬獲得率の変化による比較. システムの方が多くなっており,また,質問の数も多くなっていることから, 狙った方向性にシステムが正常に学習できていると考えられる. しかし,学習した後は質問が 2 倍近く増加しているのに対して, recall はあまり増加していない.この結果から,質問という対話行為を選択しやすくなったものの,知りたいことを適切に聞けるような発話ができてはいないと考えられる。 そこで,詳しく結果を分析するために,テストセットから生成した応答を表 2 に示す. 表 2 の上から1つ目の例は,質問はしたが報酬に結び付かなかった応答の代表的な例である. 報酬に結び付かな かった質問は,このように「お休みの時は何をされるのか」という内容のものが多かった。これは学習セット中で,報酬を獲得できた質問が 570 個であるのに対し,これに類する質問が,44 個含まれており,頻出する質問を行うよう学習したためと考えられる。続いて,表 2 上から 2 つ目の例は,報酬を獲得できた質問の代表的なものである。報酬を獲得できた質問は,このように質問の答えのドメインが絞られる内容のものが主になっていた。加えて,表 2 の上から 3 つ目のように,質問でなくても報酬が得られた応答としては,会話のドメインを絞った内容のものが主になっている.これらのことから,今回用いたユーザモデルに対して,システムがドメインを絞った直接的な質問を行うことで,更に報酬を増やすことが期待できると分かった. ## 6 まとめ 本研究では初歩的な実装として,ユーザから指定された情報を引き出すことのみをタスクとして, ユーザが情報を話したか,という単純な報酬を用いて強化学習で対話システムを最適化し, 学習したモデルの応答文の変化について調査を行なった. その結果,質問を生成しやすくなり,タスクへの最適化が行えたことが確認できた. また,ユーザから対話的に情報抽出を行うためには,情報抽出のための適切な内容を含む必要があるという課題も分かった.本研究の本来の最終的な目標は, 対話行為を適切に使い分けることでユーザの心象を損ねず対話でユーザから情報を引き出すことである.今後はユー ザが情報を話しやすい状態かの判断を報酬設計に組み込み,質問や相槌等の対話行為をシステムが適切に使い分けることを目指す. また,今回の課題も踏まえて対話行為だけでなく, 応答の内容についても適切なものを生成できる機構をシステムに導入することを検討していく,将来的には,取得すべき情報を増やしてタスクを複雑化し, 本研究を拡張してマルチターンの対話による最適化を行い,最終的に人手の評価を行う予定である. ## 参考文献 [1] Ronald J. Williams. Simple statistical gradient-following algorithms for connectionist reinforcement learning. Mach. Learn., Vol. 8, No. 3-4, p. 229-256, may 1992. [2] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems. arXiv:2109.05217, 2021 [3] Sangdo Han, Kyusong Lee, Donghyeon Lee, and Gary Geunbae Lee. Counseling dialog system with 5W1H extraction. In Proceedings of the SIGDIAL 2013 Conference, pp. 349-353, Metz, France, August 2013. Association for Computational Linguistics. [4] Keith Cortis and Charlie Abela. Semchat: Extracting personal information from chat conversations. In EKAW 2010. Workshop W2, p. 14. Citeseer. [5] Anna Tigunova. Extracting personal information from conversations. In Companion Proceedings of the Web Conference 2020, WWW '20, p. 284-288, New York, NY, USA, 2020. Association for Computing Machinery. [6] Saizheng Zhang, Emily Dinan, Jack Urbanek, Arthur Szlam, Douwe Kiela, and Jason Weston. Personalizing dialogue agents: I have a dog, do you have pets too? In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 2204-2213, Melbourne, Australia, July 2018. Association for Computational Linguistics. ## A 実験で使用したモデルについて 節 3.1 で行う固有表現抽出は,オープンソース日本語 NLP ライブラリである Ginza で配布されている ja_ginaza モデル ${ }^{1)}$ を用いて,JPersonaChat データセットに対して行う. また,応答生成モデルとして,システムとユーザモデルの両方で NTT による日本語事前学習済み Encoder-Decoder モデル [2] を用いる. 1) https://github.com/megagonlabs/ginza
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT3-16.pdf
# 単語埋め込みを利用した商品に対するキーワードの予測 山口泰弘 深澤祐援 原島純 クックパッド株式会社 \{ yasuhiro-yamaguchi, yusuke-fukasawa, jun-harashima \}@cookpad.com ## 概要 出品者が商品情報を自由に入力できる EC サービスでは,入力される商品名の多様性のため,出品された商品がなにであるかを機械的に判断することは難しい。本研究では,事前学習した単語埋め込みを用いて,予め定義されたキーワード集合の中から商品名に最も関連するものを予測するモデルを提案する. クックパッドマートの商品を元に作成したデータセットによる実験の結果,提案手法では Accuracy@5 で $95.8 \%$ の精度でキーワードの予測が可能になった. また,注意機構を用いることで教師なしの手法においても Accuracy@5 で 81.0\% の精度で予測できることがわかった. ## 1 はじめに 出品者が商品情報を自由に入力できる EC サービスでは商品名や商品説明の表記は出品者によって大きく異なる。例えば食材を多く扱う EC サービスであるクックパッドマートでは, 豚の小間切れ肉の商品名について “豚肉小間切れ”, “豚コマ”, “豚小間肉”など複数の表記が存在する。さらに,じゃがいもなどの野菜では “メークイン”や“キタアカリ”といった品種名が記載される場合も多い。また,ユー ザーの購買意欲を高めるために “産地直送” “タイムセール”といったフレーズを含んでいるものもある. 検索や推薦といったタスクでは商品のカテゴリや性質は有用な情報になり得るが,こうした表記の多様性はその商品のカテゴリを機械的に判別することを困難にする。 そこで本研究では, 事前学習した単語埋め込みに基づく商品名とキーワードの類似性を利用してキー ワード集合の中から商品に関連するキーワードを割り当てる機械学習モデルを提案する. 表 1 に本研究で利用するデータセットの例を示す.データセットはクックパッドマートの商品をもとに作成した商品名とキーワードのペアからなり,モデルは与えられ 表 1 データセットの例 た商品名から対応するキーワードを予測する.本研究ではこのデータセットに基づいて提案手法の有効性を検証する。 ## 2 関連研究 EC サービス上の商品名を元に商品をカテゴリに分類する手法がいくつか提案されている. Cevahir ら [1] は商品を階層化された 2 万以上のカテゴリに分類するために自己符号化器の近傍などを利用して階層的に予測を行う分類モデルを提案した。 Chen ら [2] は商品を詳細なカテゴリに分類するために,商品名や説明文中の商品カテゴリに相当する語に着目するニューラル分類器を提案している. Cevahir らと Chen らの手法はいずれもカテゴリを分類ラベルとして予測するものであり,商品情報とカテゴリの文字列的・意味的な類似性を直接的に考慮するものではないという点で本研究とは異なっている. また,テキストデータから商品の情報を抽出する先行事例として [3] や [4]がある. これらの手法は系列ラベリングを用いてテキスト中から属性情報を抽出する. 本研究は予め定義されたキーワード集合に分類するという点でこれらの手法とは異なる. ## 3 提案手法 本研究では,事前に定義したキーワード集合の中から与えられた商品名に最も関連のあるキーワードを予測するモデルを提案する。 図 1 に提案モデルの構造を示す.このモデルでは商品名とキーワードの類似度を計算し, 商品名との 図 1 キーワード予測モデルの構造 類似度が最も大きいキーワードを選択することで予測を行う. 商品名とキーワードの類似度の計算手順を次に示す: 1. 商品名・キーワードに対して形態素解析を行い単語ごとに分割する 2. 商品名・キーワードの各単語を事前に学習した fastText[5] を用いてべクトルに変換する 3. 商品名・キーワードの単語ベクトル列をそれぞれ Highway BiLSTM により変換する (3.1 節) 4. 3 で変換したべクトルをもとに注意機構を用いて商品名の単語ベクトルをキーワードの単語べクトルとの類似度で重み付ける (3.2 節) 5. 商品名・キーワードの単語ベクトル列をそれぞれ平均して商品名ベクトル・キーワードベクトルを計算する (3.2 節) 6. 商品名ベクトル・キーワードベクトル同士のコサイン類似度を商品名とキーワードの類似度とする (3.3 節) ## 3.1 Highway BiLSTM (H-BiLSTM) 本研究では学習済み fastText の特徴量を効果的に利用するために Highway 構造 [6] を導入した BiLSTMをエンコーダーに利用する。ここでは Hightway BiLSTM (H-BiLSTM) を以下のように定義する. $\boldsymbol{X}=\left(\boldsymbol{x}_{1}, \boldsymbol{x}_{2}, \cdots, \boldsymbol{x}_{T}\right)$ は BiLSTM の入力となるベクトル系列であり, $\sigma$ はシグモイド関数を表す. $ \begin{aligned} \boldsymbol{H} & =\operatorname{BiLSTM}_{\text {highway }}(\boldsymbol{X}) \\ \boldsymbol{G} & =\sigma\left(\operatorname{BiLSTM}_{\text {gate }}(\boldsymbol{X})\right) \\ \boldsymbol{Z} & =\boldsymbol{G} \circ \boldsymbol{H}+(1-\boldsymbol{G}) \circ \boldsymbol{X} \end{aligned} $ 事前実験の結果から,本研究では商品名・キー ワードの fastText ベクトル列をパラメータを共有した同一の H-BiLSTM を用いてエンコードする. ## 3.2 注意機構 商品名には “産地直送” “タイムセール”といったキーワードに直接関係のない語彙が含まれているものが多く存在する。本研究ではこうしたキーワー ドに無関係な単語の影響を小さくするために,注意機構を用いた商品名の単語に対する重み付けの仕組みを導入する。 商品名 $p$ の $n$ 番目の単語に対する重み $a_{n}$ をキー ワード $k$ の単語とのコサイン類似度を利用して次のように定義する。 $ a_{n}=\frac{1}{M} \sum_{m=1}^{M} \cos \left(z_{n}^{(p)}, z_{m}^{(k)}\right) $ ここで $\boldsymbol{Z}^{(p)}=\left(z_{1}^{(p)}, z_{2}^{(p)}, \cdots, z_{N}^{(p)}\right), Z^{(k)}=$ $\left(z_{1}^{(k)}, z_{2}^{(k)}, \cdots, z_{M}^{(k)}\right)$ はそれぞれ H-BiLSTM を通して計算した商品・キーワードの単語ベクトル系列とする。 商品名とキーワードに対応するベクトルをそれぞれ以下の定義に従って計算する。 $ \begin{aligned} \hat{z}^{(p)} & =\frac{1}{N} \sum_{n=1}^{N} a_{n} z_{n}^{(p)} \\ \hat{z}^{(k)} & =\frac{1}{M} \sum_{m=1}^{M} z_{m}^{(k)} \end{aligned} $ キーワードの単語列は十分短く,予測に不必要な単語が含まれることもほとんどないため単語の重み付けは商品名のみを対象とした。 ## 3.3 類似度と損失関数 商品名 $p$ とキーワード $k$ の類似度 $s(p, k)$ は $\hat{z}^{(p)}$, $\hat{z}^{(k)}$ のコサイン類似度で以下のように定義する。 $ s(p, k)=\cos \left(\hat{z}^{(p)}, \hat{z}^{(k)}\right) $ モデルの学習では商品名と関連するキーワードのペアからなるデータセット Dを用いて以下の損失関数を最小化する。 $ L=-\sum_{(p, k) \in \mathscr{D}} \log \left(\frac{e^{s(p, k)}}{e^{s(p, k)}+\sum_{k^{\prime} \in \mathcal{N}_{k}} e^{s\left(p, k^{\prime}\right)}}\right) $ $\mathcal{N}_{k} \subseteq \mathscr{K} \backslash\{k\}$ は全キーワード集合 $\mathscr{K}$ から商品名 $p$ の正例であるキーワード $k$ を除いてネガティブサンプリングを行い得られた負例のキーワード集合を表す. 対照学習では負例サンプリングにおいて識別困難な事例を優先的に利用することでモデルの性能向上につながることが知られている [7]. 本研究では,1つの事例に対して負例のキーワード集合の中から 128 件をランダムに選んで商品名との類似度を計算し,この中から類似度が最も小さい上位 8 件のキーワードを hard example として損失の計算に利用した. ## 4 実験 ## 4.1 データセット クックパッドマートに出品されている 8,881 件の商品に対して食材を表すキーワードの割り当てを人手で行った. 一度アノテーションしたあとで割り当てたキーワードに対する表記摇れの修正やキーワー ドの統合などの処理をした結果,ユニークなキー ワードの数は 1,350 件となった. アノテーションしたデータセットをランダムに Train, Valid, Test の 3 つに分割し, モデル学習と評価に利用した. データセットのより詳細な統計情報は付録 A に記す。 ## 4.2 比較手法 本研究では以下のモデルを用いて性能の比較を行った. TF-IDF 類似度: 商品名・キーワードをそれぞれ単語分割した後 TF-IDFによるべクトル化を行い, TF-IDF ゙クトルのコサイン類似度が最も大きい商品名・キーワードを対応づける教師なしモデル. fastText 分類器: 商品名の fastText ベクトル列を平均した商品名べクトルを入力とし, 順伝播型ニュー ラルネットワークを通してキーワードごとにクラス分類を行う教師ありモデル. fastText 類似度: 商品名・キーワードの単語ベクトル列の平均ベクトルを計算し,各ベクトルのコサイン類似度が最も大きい商品名・キーワードを対応づける教師なしモデル。 fastText 類似度 + 注意機構: 商品名の fastText ベクトルを注意機構で重み付けした後,fastText 類似度を計算する手法. 提案手法から H-BiLSTM 層を除いたモデルと同等. H-BiLSTM 類似度: 提案手法から注意機構を除いた教師ありモデル. H-BiLSTM 類似度 + 注意機構: 本研究の提案手法である教師ありモデル。 本研究では単語埋め込みとしてクックパッドに公開されている約 350 万レシピのタイトルを用いて学習した fastText モデルを利用した. fastText の詳細は付録 Bに記す.レシピのタイトルの単語分割には MeCab (Unidic 辞書)を用いた。 各モデルは Train データで学習し, Valid データでハイパーパラメータの選択と Early Stopping を行い, Test データを用いて精度の比較を行った。 ## 5 結果と考察 表 2 Test データに対する実験結果 表 2 に Test データに対する各手法の精度を示す.実験の結果,いずれの指標においても提案手法が最も高い精度となった。 また教師ありの fastText 分類器と教師なしの fastText 類似度+注意機構の精度を比較すると,いずれの指標でも教師なし注意機構モデルが高い精度となった.この結果から, 本タスクにおいては単にキーワードをラベルとして予測するよりも注意機構を用いて商品名とキーワードの類似性を考慮した予測を行うことが重要であると考えられる. 表 3 上位 5 件の予測結果の例 ## 5.1 エラー分析 表 3 にモデルの予測結果の例を示す.“ギンダラ/銀だら” や“シルクスイートハさまいも”のように表記摇れや品種名の記載によってキーワードの文字列が商品名に含まれない場合であっても関連するキーワードを予測できていることがわかる. 一方,“お刺身用生桜海老(台湾産)”の例では“刺身”が最も関連するキーワードとして予測されている。また,“紫にんじん”に対する予測結果をみてみると“紫”が含まれるキーワードが多く予測されていることがわかる. fastText は単語の共起性に基づいて学習を行うため,“紫”や“刺身”のように多くのコンテキストで出現する語は他の多くの単語に対して高い類似度になる傾向がある。この傾向が提案モデルの予測結果にも現れていると考えられる。 ## 5.2 注意機構の効果 表 2 から fastText 類似度・H-BiLSTM 類似度のそれぞれで注意機構の有無による精度を比較すると,いずれの指標においても注意機構を用いた場合に精度が向上した. 特に教師なしの fastText 類似度モデルでは注意機構の利用で各指標がそれぞれ $+10 \%$ 程度の上昇が確認できた。一方,教師ありの H-BiLSTM 類似度モデルでは fastText 類似度モデルの場合ほど大きな性能向上は見られなかったが,各指標におい $\tau+1 \%$ 程度の改善が見られた. 以上の結果から類似度の計算において注意機構を用いることがキー ワード予測モデルの性能向上につながると考えられる。 ## 5.3 Highway 構造と Hard Negative Sampling 提案手法における Highway 構造と Hard Negative Sampling の影響を調べるために, Highway BiLSTM を通常の BiLSTM に置き換えたものと,キーワードの Negative Sampling をランダムに行ったものでそれぞれ実験を行った. 図 2 に学習中の Valid データに対する Accuracy@5 の推移を示す. まず Hard Negative Sampling を行った手法で BiLSTM (BiLSTM with HNS) と Highway (H-BiLSTM with HNS) を比較すると,H-BiLSTM の方が高い精度を達成したものの大きな差は見られなかった。一方 HNS を行わずランダムに負例を選択した手法を比較すると,BiLSTM (BiLSTM with NS) では学習を進めると Valid データにおける精度が下がる傾向が見られた。 fastText 類似度+注意機構の教師なしモデルでも比較的高い精度で予測できることから,学習済み fastText が類似度を測る上で重要な特徴量であることがわかる. Highway 構造により学習済み fastText のベクトルをバイパス可能にすることで, fastText の特徵量を効果的に学習に活用できると考えられる。 図 2 学習中の Valid データに対する正解率の推移 ## 6 おわりに 本研究では学習済み fastText ベクトルを用いて商品名からキーワードを予測する機械学習モデルを提案した。クックパッドマートのデータを用いた実験の結果,提案手法を用いることで Accuracy@5 95.8\% の精度で予測することができた.また,注意機構を用いることで教師なしでも比較的高い精度でキー ワードの予測が可能になることが示された。 一方,商品名に出現頻度の高い語が含まれる場合には上位の予測結果として関連の低いキーワードが予測されることが確認できた。より高い精度で予測を行うにはこうした単語埋め込みの特性を考慮した仕組みが必要になると考えられる。 ## 参考文献 [1] Ali Cevahir and Koji Murakami. Large-scale multi-class and hierarchical product categorization for an E-commerce giant. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: Technical Papers, pp. 525-535, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [2] Hongshen Chen, Jiashu Zhao, and Dawei Yin. Fine-Grained Product Categorization in E-commerce. In Proceedings of the 28th ACM International Conference on Information and Knowledge Management, pp. 2349-2352, Beijing China, November 2019. ACM. [3] Rayid Ghani, Katharina Probst, Yan Liu, Marko Krema, and Andrew Fano. Text mining for product attribute extraction. ACM SIGKDD Explorations Newsletter, Vol. 8, No. 1, pp. 41-48, June 2006. [4] Huimin Xu, Wenting Wang, Xin Mao, Xinyu Jiang, and Man Lan. Scaling up Open Tagging from Tens to Thousands: Comprehension Empowered Attribute Value Extraction from Product Title. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5214-5223, Florence, Italy, 2019. Association for Computational Linguistics. [5] Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 135-146, 2017. [6] Rupesh Kumar Srivastava, Klaus Greff, and Jürgen Schmidhuber. Highway Networks. arXiv:1505.00387 [cs], November 2015. arXiv: 1505.00387 . [7] Florian Schroff, Dmitry Kalenichenko, and James Philbin. Facenet: A unified embedding for face recognition and clustering. 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), pp. 815-823, 2015. ## A データセット統計 本研究で作成したデータセットの統計情報を表 4 に示す. ユニークキーワード数は各サブセットにおけるユニークなキーワードの個数を表す. 表 4 データセットの統計 各キーワードが割り当てられた商品数の頻度分布を図 3 に示す.この図からキーワードの頻度分布はロングテールであることがわかる. 図 3 データセット中のキーワードの頻度分布 ## B fastText の詳細 fastText の学習ではクックパッド上のレシピタイトルに対して skip-gramによる学習を行なった。 八イパーパラメータの設定は Bojanowski ら [5] の実装における既定値 ${ }^{1)}$ 利用し, 100 次元の単語埋め込みを学習した。 表 5 学習した fastText における近傍の単語 学習した fastText ベクトルのコサイン類似度を元に,いくつかの単語の近傍を抽出した結果を表 5 に示す.この表から, fastText の学習によって表記の違いや食材と品種名の対応がある程度考慮できていることがわかる。一方“紫”や“刺身”といった単語では,同じコンテキストで使われやすい複数種類の食材などが近傍にあることがわかった. 1) https://github.com/facebookresearch/fastText/tree/v0. 9.2/python\#train_unsupervised-parameters
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT3-17.pdf
# 汎用事前学習モデルを用いたアルゴリズムの手続き自動生成 大西朔永 ${ }^{1}$ 椎名広光 ${ }^{2}$ 1 岡山理科大学大学院総合情報研究科 2 岡山理科大学総合情報学部 i20im01os@ous.jp shiina@mis.ous.ac.jp ## 概要 プログラム作成においては,プログラムの目的を必要な処理に分解する論理的思考力が重要となる. しかし,プログラム作成は論理的思考力に加えて, プログラム言語の知識等も同時に必要となる. これまで,アルゴリズムを考える力である論理的思考力を養う手続き学習システムを開発してきた. 手続き学習システムの問題作成等では, 問題文と必要な処理に分解した手続きを大量に作成する必要がある.論理的思考力には汎用知識が必要である場合も多いが,アルゴリズム手続き生成の大規模な学習データの開発は容易ではない. 本研究では, 汎用事前学習モデルを用いた問題文からプログラム手続きを生成する手法を提案する。 ## 1 はじめに 小学校では 2020 年からプログラミング教育 [1] が導入されており,その目的は主に論理的思考力の育成である. 論理的思考力は, 様々な問題を解決するために必要な処理内容や処理順序を考える能力である. 論理的思考力を育成する研究では, 手作業によるアルゴリズム学習の研究 [2] がある. 我々は論理的思考力を養う手続き学習システム [3] を開発してきたが,プログラムの概要を表す問題文と手続きが大量に必要となる. 人手によるプログラム手続きの作成は,コストが高く,容易ではない. そこで,我々はこれまでにプログラムのソースコードからプログラム手続きを生成する手法 [4],ソースコードを用いないプログラムの問題文からプログラム手続きを生成する手法 [5] を提案している. 近年,大規模なデータを用いた大規模な事前学習モデルの研究が盛んに行われている。そして,その学習済みモデルを個々のタスクに fine-tuning する手法が提案され, 様々な自然言語処理分野で成果を出している。一方, 本研究では学習に利用できるデー タは小規模であり, 大規模な事前学習モデルの構築 は困難である.そこで,ソースコードを用いない問題文からのプログラム手続きの自動生成において,汎用事前学習モデルを用いた Seq2Seq[6, 7, 8] を小規模なデータに fine-tuning する手法を提案する.プログラム手続きの自動生成には,問題文を必要な手続きに分解する論理的思考力が必要である. 入力される問題文から特徴を捉えた分散表現が作成されないと,論理的思考力を発揮できない. 汎用事前学習モデルは大規模なコーパスから言語理解の能力に加え $\tau$ ,汎用知識も獲得していると考えられる。プログラムの問題文からプログラム手続きを生成する手法に対して, 汎用事前学習モデルを適用することで,生成する手続きの改善を図っている. また, 本研究では学習に小規模なデータを用いるため,手続き生成タスクの学習による汎用事前学習モデルの fine-tuning が十分でないと考えられる.そこで,fine-tuning した汎用事前学習モデルを用いたプログラム手続きの生成手法を提案する.汎用事前学習モデルである BERT[9] 単体の fine-tuning を pre-training と同様の方法で行い,プログラムの問題文というドメインへの適応を先に図る. そして, fine-tuning した BERTを用いてプログラム手続きの生成タスクを学習することで,タスクへの適応を行う二段階の手法である. ## 2 関連研究 プログラミング教育の分野において,エラーを可視化する学習支援ツールの研究 [10] や操作ログを用いた初心者向け教育の研究 $[11,12]$, カードの操作を基本とした学習システムの研究 [13] が行われている. プログラミング力と論理的思考力との相関に関する分析 [14] では, 論理的思考力と言語能力を必要とする論理的文章作成力とプログラミング力の関係を分析し,プログラミング力は論理的思考力を主に必要とすることが示されている. 汎用事前学習モデルである BERT は,双方向の Transformer[15]を用いたモデルである.トークンの 並び替え前 図 1 手続き学習システム 分散表現を出力する点は Word2Vec[16] と同様であるが,BERT はコンテキストを考慮した分散表現が得られる. 日本語に対応した BERT の事前学習モデルは幾つか公開されており, 本研究では東北大学の乾研究室が公開している BERT[17]を利用している. 事前学習済みの BERTをニューラル機械翻訳に利用した研究 [18] では,Transformer ベースの機械翻訳モデルの Encoder 部分を BERT に置き換えるモデルが提案されている. ## 3 手続き学習システム プログラムには,プログラムの目的を達成するために必要な手続きを正しい順序で記述する必要がある. 我々は,手続きをプログラムが動作する順序に並び替える問題を解くことで,論理的思考力を養うシステムを開発してきた. 手続き学習システムを図 1 に示す. 手続き学習システムでは,最初にプログラムの問題文と必要な手続きを左の画面のように表示する. 例の為替のプログラムでは,問題文と 6 個の手続きが表示されている。次にユーザは手続きをプログラムが動作する順序に並び替える.右の画面はユーザが並び替えた後の画面である.最後に手続きの順序の正解,不正解を表示する。 ## 4 プログラム手続きの生成 ## 4.1 GRU による Seq2Seq を用いたプログ ラム手続きの生成 (ベースライン) ベースラインとして,GRU[19]による Seq2Seqを用いた問題文からプログラム手続きを生成する手法について述べる. プログラムの問題文とプログラム手続きを対訳データとして,Seq2Seqを学習する. GRUによる Seq2Seqを用いた問題文からプロ 図 2 GRU による Seq2Seq を用いた問題文からプログラム手続きを生成するモデルの構造 図 3 BERT を用いた問題文からプログラム手続きを生成するモデルの構造 グラム手続きを生成するモデルの構造を図 2 に示す.また,モデルの定式化を式 (1) に示す. Encoder では問題文のトークン $T o k_{1}^{E}, \ldots, T o k_{N}^{E}$ を順に入力し, 問題文全体の特徵を捉えたべクトル $h_{N}$ を作成する. そして,Decoder がそのベクトル $h_{0}^{\prime}=h_{N}$ を用いて,問題文に対応するプログラム手続きのトー クン $T o k_{2}^{D}, \ldots, T o k_{M}^{D}$ を生成する. $h_{t-1}^{\prime}$ は GRU の前の隠れ状態である. ただし,隠れ状態の初期値 $h_{0}^{\prime}$ は Encoder 側の GRU の最後の隠れ状態 $h_{N}$ である. $ \begin{aligned} & p\left(\operatorname{Tok}_{2}^{D}, \ldots, \operatorname{Tok}_{M}^{D} \mid \operatorname{Tok}_{1}^{E}, \ldots, \operatorname{Tok}_{N}^{E}\right) \\ = & \prod_{t=2}^{M} p\left(T_{0} k_{t}^{D} \mid h_{t-1}^{\prime}, T_{0} k_{1}^{D}, \ldots, T o k_{t-1}^{D}\right) \end{aligned} $ 英語と日本語の翻訳等とは異なり,短文 (問題文) から長文 (プログラム手続き)を生成するため,抽象的な情報を具体的な情報に分解する必要がある.事前学習をしていないため,大規模なコーパスから得られる汎用知識は期待できず,分散表現に含まれる情報は対訳データに含まれる情報のみとなる。つまり,生成する際に必要な汎用知識等の情報が不足し,モデルは問題文をプログラム手続きに分解する論理的思考力を発揮できないと考えられる. ## 4.2 汎用事前学習モデルを用いたプログラ 厶手続きの自動生成 本研究では,汎用事前学習モデルの BERTを用いた問題文からプログラム手続きを生成する手法を提案する.BERTを用いた問題文からプログラム手続きを生成するモデルの構造を図 3 に示す. モデル 図 4 BERT の pre-training と同様の方法による BERT 単体の fine-tuning 図 5 fine-tuning した BERT を用いた問題文からプログラム手続きを生成するモデルの構造 の入出力はベースラインの手法と変わらず,プログラムの問題文とプログラム手続きを対訳データとして,モデルを学習する. ベースラインの Seq2Seq では GRUを用いた Encoder を使用しているのに対し,このモデルでは Encoder を BERT に置き換えている. 汎用事前学習モデルである BERT はコンテキストを考慮した分散表現を作成でき,汎用知識も獲得していると考えられる. BERTを用いることで, Decoder が利用できる分散表現の情報が増え,生成するプログラム手続きが改善されると考えている. ## 4.3 fine-tuning した汎用事前学習モデル を用いたプログラム手続きの自動生成 汎用事前学習モデルの BERT を用いたプログラム手続きの生成手法では,プログラム手続きの生成というタスクを学習する過程で BERT も fine-tuning している。つまり,プログラム手続きの生成という夕スクへの適応に加えて,プログラムの問題文という特定ドメインへの適応も同時に行っていると捉えることができる. 本研究では学習に小規模なデータを用いるため,プログラムの問題文というドメインへの適応を先に行うことで更なる改善を図れると考えている. 本手法では,BERT 単体の fine-tuning を BERT の pre-training と同様の方法で行い,特定ドメインへの適応を図る. そして, fine-tuning した BERT表 1 生成されたプログラム手続きの BLEU による平均評価 を用いてプログラム手続きの生成というタスクを学習することで,タスクへの適応を行う。 BERT の pre-training と同様の方法による BERT 単体の fine-tuning の概要を図 4 に示す. プログラムの問題文をコーパスとして, fine-tuning 用のデータを作成している. fine-tuning の手法は pre-training の手法と同様に, Next Sentence Prediction(NSP) と Masked LMを用いている. また, fine-tuning した BERTを用いた問題文からプログラム手続きを生成するモデルの構造を図 5 に示す. ベースラインの Seq2Seq の Encoderをプログラムの問題文というドメインに fine-tuning した BERT に置き換えている. ## 5 各モデルの評価 ## 5.1 実験環境 評価するモデルは,ベースラインである GRUを用いた Seq2Seq,BERTを用いた Seq2Seq, fine-tuning した BERTを用いた Seq2Seq の 3 種類である. デー タセットは,大学の情報科学科の講義で使用された $\mathrm{C}$ 言語のプログラムの問題文とプログラム手続きのペア 46 個を用いた. 評価方法には,小規模データである点を考慮し,5-Fold Cross Validationを用いた。各テストの平均を評価値としている。評価指標には自動機械翻訳評価指標である BLEU[20]を用い,生成したプログラム手続きを評価した。 ## 5.2 評価指標 BLEU を用いた評価 生成されたプログラム手続きの BLEU による平均評価を表 1 に示す. Encoder に BERTを用いたモデルは,GRU の Encoder を用いたモデルと比較して, BLEU が約 0.06 向上している. 汎用事前学習モデルである BERT の有効性が確認できた. また, fine-tuning した BERTを用いたモデルでは,BERTを用いたモデルと比べて,BLEUが約 0.03 向上している. あらかじめプログラムの問題文というドメインに fine-tuning し,タスクの学習と分ける手法が有効であることが分かる. GRU の Encoder を用いたモデ 表 2 各モデルのプログラム手続きの生成例と評価 & & 0.0862 & & 0.3683 & & 0.4164 \\ ルと比較すると, BLEUが約 0.09 向上し, 汎用事前学習モデルの効果は大きい. ## 5.3 プログラム手続きの生成例による評価 各モデルのプログラム手続きの生成例と評価を表 2 に示す. GRU の Encoder を用いたモデルは,「整数型変数の宣言」を 6 回繰り返して生成している. 整数値を 2 つ読み込むため, 正しくは fine-tuning した BERT を用いたモデルのように 2 回である. BERT をプログラムの問題文のドメインに fine-tuning したことで,問題文の特徴を捉える能力が向上したと考えている。また,GRUの Encoder を用いたモデルは,改行のトークンを繰り返し生成しているため,低いBLEU になっている. 2 つ整数値を比較して条件分岐をし, 表示する部分の手続きは, GRU の Encoderを用いたモデルでは全く生成できていない. BERTを用いた 2 種類のモデルでは,条件分岐の手続きは生成できていないが,文章の表示は生成できている. 全体的には fine-tuning した BERTを用いたモデルが良い生成をしているが,過不足ない手続きの生成には改善が必要である. ## 6 おわりに 本研究では汎用事前学習モデルの BERTを用いた問題文からプログラム手続きを生成する手法を提案した.BERTを Encoderとして用いることで,汎用知識も含めて問題文の特徴をより捉えた分散表現が得られ, 生成されたプログラム手続きが改善された. さらに, fine-tuning した BERTを用いたプロ グラム手続きの生成手法を提案した. 本研究では小規模なデータを用いたため,ドメインとタスクの fine-tuning を分割して行い,ベースラインの GRU を用いた手法と比べ,BLEU で約 0.9 の向上を確認した. 生成例においては過不足のない手続きの生成には至っていないため, Encoder 側だけでなく, Decoder 側の改善が今後の課題であると考えている. ## 参考文献 [1] Ministry of Education, Culture, Sports, Science and Technology. Elementary school programming education guide (2nd edition). https://www.mext.go.jp/ a_menu/shotou/zyouhou/detail/1403162.htm, 2018. Accessed May. 5, 2020 (in Japanse). [2] Junko Shinkai, Yoshikazu Hayase, and Isao Miyaji. A trial of algorithm education emphasizing manual procedures. In Gregory Chamblee and Lee Langub, editors, Proceedings of Society for Information Technology \& Teacher Education International Conference 2016, pp. 113-118, Savannah, GA, United States, March 2016. Association for the Advancement of Computing in Education (AACE). [3] Kohei Sakane, Nobuyuki Kobayashi, Hiromitsu Shiina, and Fumio Kitagawa. Kanji learning and programming support system which conjoined with a lecture. In IEICE Technical Report, Vol. 114 of ET2014-86, pp. 7-12, 2015. [4] Sakuei Onishi, Akiyoshi Takahashi, Hiromitsu Shiina, and Nobuyuki Kobayashi. Automatic comment generation for source code using external information by neural networks for computational thinking. International Journal of Smart Computing and Artificial Intelligence(IJSCAI), Vol. 4, No. 2, pp. 39-61, 122020. [5] Sakuei Onishi and Hiromitsu Shiina. Two-stage program procedure generation from problem statements us- ing the seq2seq combination. In 2021 10th International Congress on Advanced Applied Informatics (IIAI-AAI), pp. 406-412, 2021. [6] Ilya Sutskever, Oriol Vinyals, and Quoc V Le. Sequence to sequence learning with neural networks. In Advances in Neural Information Processing Systems 27 (NIPS 2014), pp. 3104-3112, 2014 [7] Thang Luong, Hieu Pham, and Christopher D. Manning. Effective approaches to attention-based neural machine translation. In Proceedings of the $\mathbf{2 0 1 5}$ Conference on Empirical Methods in Natural Language Processing, pp. 1412-1421, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [8] Alexander M. Rush, Sumit Chopra, and Jason Weston. A neural attention model for abstractive sentence summarization. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 379-389, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [9] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018 [10] Haruki Kanamori, Takahito Tomoto, and Takako Akakura. Development of a computer programming learning support system based on reading computer program. In Sakae Yamamoto, editor, Human Interface and the Management of Information. Information and Interaction for Learning, Culture, Collaboration and Business, pp. 63-69, Berlin, Heidelberg, 2013. Springer Berlin Heidelberg. [11] Koki Okimoto, Shimpei Matsumoto, Shuichi Yamagishi, and Tomoko Kashima. Developing a source code reading tutorial system and analyzing its learning $\log$ data with multiple classification analysis. Artificial Life and Robotics, Vol. 22, No. 2, pp. 227-237, apr 2017. [12] Shimpei Matsumoto, Koki Okimoto, Tomoko Kashima, and Shuichi Yamagishi. Automatic generation of c source code for novice programming education. In Masaaki Kurosu, editor, Human-Computer Interaction. Theory, Design, Development and Practice, pp. 65-76, Cham, 2016. Springer International Publishing. [13] Shimpei Matsumoto, Yusuke Hayashi, and Tsukasa Hirashima. Development of a card operation-based programming learning system focusing on thinking between the relations of parts. IEEJ Transactions on Electronics, Information and Systems, Vol. 138, pp. 999-1010, 08 2018. [14] Michiko Oba, Kei Ito, and Akio Shimogoori. Analysis of correlation between programming skills and technical writing skills. In IPSJ SIG Technical Report, Vol. 2015IFAT-118, pp. 1-4, 2015. [15] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017 [16] Tomás Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vec- tor space. In Yoshua Bengio and Yann LeCun, editors, 1st International Conference on Learning Representations, ICLR 2013, Scottsdale, Arizona, USA, May 2-4, 2013, Workshop Track Proceedings, 2013. [17] 東北大学乾研究室. cl-tohoku/bertbase-japanese-whole-word-masking . hugging face. https://huggingface.co/cl-tohoku/ bert-base-japanese-whole-word-masking, 2020. [18] Kenji Imamura and Eiichiro Sumita. Recycling a pretrained BERT encoder for neural machine translation. In Proceedings of the 3rd Workshop on Neural Generation and Translation, pp. 23-31, Hong Kong, November 2019. Association for Computational Linguistics. [19] Kyunghyun Cho, Bart van Merriënboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. Learning phrase representations using RNN encoder-decoder for statistical machine translation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1724-1734, Doha, Qatar, October 2014. Association for Computational Linguistics. [20] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT3-1.pdf
# 常識推論エンジン開発に向けた 事態性名詞のアノテーション基準について 米本悠藤田響平永田 基樹森 遼太小代 義行 株式会社 pluszero \{yonemoto.haruka, fujita.kyohei, nagata.motoki, mori.ryota, ojiro.yoshiyuki\}@plus-zero.co.jp ## 概要 自然言語の高度な意味理解を伴うシステムとして有効な汎用的常識推論エンジンを構築するには事象の状態変化を正確に捉えることが重要である.以前提案した常識推論エンジン [1]においては, 述語に関連する状態変化を捉えることができること,また,それらが常識推論に有効であることを示した. しかしながら,状態変化を捉えるためには述語だけでは不十分で,動詞と同等の役割を果たす名詞(事態性名詞)も扱う必要があり,これらは我々のエンジンでは対応できていない. 本稿では,常識推論エンジンで事態性名詞を扱うにあたり既存コーパスで見られたアノテーションの不足について明らかにし,それらを補うようなアノテーション基準を提案する. ## 1 はじめに 機械が自然言語の高度な意味理解を行うためには,文章中に明示されている情報以外に,常識を用いて推論をする必要がある. 例えば,「リビングに新聞がある」「リサが新聞をとってキッチンへ歩いて行った」という 2 つ文があるとき,新聞がどこからどこへ移動したかを理解するには文章中の表現だけでは足りず,人間が解釈する際に用いるような常識, この場合, 「手に取って歩いていくと手に取ったものも一緒に移動する」という常識を必要とする. 我々は以前,このような常識推論の問題に取り組むため述語項構造シソーラスと Event Calculus (EC)を用いた汎用的常識推論エンジンを構築し提案を行った [1]. この推論エンジンは,大きく下記のステップに分かれている。 1. 事前処理として常識を意味表現に変換しておく 2. 自然言語文に対して意味役割付与を行う 3. 付与された意味役割を意味表現に変換する 4. 自然言語文から変換した意味表現と常識から変換した意味表現を用いて推論を行う このうち,2 では日本語意味役割付与システム (ASA)[2]を用いた。これは,自然文に対して述語項構造解析を行い表層格の項を同定し,係り受け関係にある項に意味役割を付与するものである。この推論エンジンにより,述語に関連する状態変化を捉えることができること,また,それらが常識推論に有効であることを示した. しかしながら,常識推論に必要な状態変化を捉えるためには,述語以外にも,動詞と同等の役割を果たす名詞(事態性名詞) についても捉える必要があり, 提案した常識推論エンジンではこれらの表現に対応できていない. 我々は事態性名詞に関しても意味役割を付与をすることで,より汎用的な常識推論エンジンを構築することを目指している。 日本語に対する比較的規模の大きい事態性名詞のアノテーションデータに NAIST テキストコーパス [3] がある.事態性名詞と考えられる名詞に,表層格であるガ・ヨ・二格の項が付与されている。また,名詞の中には文脈上事態を現しているのか,物を現しているのかを判断することが難しい名詞があり,それらをどちらとしたかを示すためのラベルも付与されている.事態性名詞に着目したデータセットは少なく,NAIST テキストコーパスは貴重な言語資源であるが,常識推論エンジンの開発を目的として利用する際には,下記のような問題がある。 ・作業者によりアノテーションにずれがある著者らによっても指摘されていることであるが [3],作業者間でアノテーションが一致しない問題がある。これは,事態性名詞の基準が明文化されておらず,ある単語に事態性があると 捉える基準が人によって異なることが 1 つの原因だと推測される。 - 項をとらない状態変化を表す名詞を捉えられない NAIST テキストコーパスにおける事態性名詞は表層格の項をとることを前提としている。そのため,項をとることはないが一般的に事態性があると想起させるような単語,例えば,雨,運動会といった単語は事態性名詞の対象とならない. ・状態変化を伴わない名詞が捉えられてしまう常識推論エンジンでは,状態変化を捉えることで高度な文章理解を行うが,NAIST テキストコーパスでは状態変化を伴わないような名詞にもアノテーションが付与されている. 1 つは,複合名詞を構成素に分解したときに前方に位置する構成素を事態性名詞としている場合である. 例えば,NAIST テキストコーパスでは「消費税」という複合名詞の「消費」を事態性名詞として捉えているが,我々は,このような名詞は後方の名詞を修飾するだけと考え,事態性名詞としてみなさないこととした。もう1つは,文脈上状態変化の情報を持たないような単語を事態性名詞としている場合である。例えば,「この街の暮らしにも慣れた」「自由貿易は暮らしの質を高める手段」という文中における「暮らし」という単語は,NAIST テキストコーパスでは両者とも事態性名詞として捉えているが,我々は,前者においては,具体的な事象であり状態変化の情報を持つと解釈し,後者は一般的な事柄について述べているだけで具体性がなく,状態変化の情報を持たないとして事態性名詞の対象から除外することとした. 1 つ目の問題点に取り組むため,事態性があるとみなせる基準を可能な限り明文化し,事態性名詞のアノテーション基準をフローチャート化した. 2 つ目の問題点に対しては,項をとらず,なおかつ事態を表す名詞の特徴を明文化し基準を作成した.3つ目の問題点に対しては,複合名詞の取り扱いについての基準に加え,実際に状態変化を伴う表現かどうかに関する基準の作成を行った。 ## 2 判定基準詳細 ## 2.1 作成方針 判定基準は,作業者が判断しやすいようにフロー チャート形式で作成した. また,他のアプリケー ションで利用する際に基準の追加や削除を行いやすいよう,目的ごとに基準をまとめ下記 3 つのブロックとした. 1. 事態性名詞であり得ないものを除外する(除外ブロック) 2. 事態性名詞であり得るものを取得する(取得ブロック) 3. 事態性を判定をする(事態性判定ブロック) 除外ブロックは,過剩なアノテーションを避けるための基準,取得ブロックは事態性名詞の候補となる単語を選び出すための基準,事態性判定ブロックは候補に対して状態変化の情報を持つかを判断するための基準をそれぞれまとめたものである. ## 2.2 全体像 図 1 は,事態性名詞を判断するためのフロー チャートである.丸四角で表現されているのは個々の判断基準であり,四角で表されているのは付与されるラベルである.矢印は,各基準に該当した (Yes),該当しない(No)場合に次に進む方向を示している. 色付きの四角は第 2.1 章で述べたブロックを示しており,右上に該当する名前を記載している. 以下の章では,各ブロックに含まれる基準の詳細を説明する。 ## 2.3 事態性名詞であり得ないものを除外 する ## 2.3.1複合名詞の前方にある NAIST テキストコーパスでは複合名詞の場合,分解してそれぞれの構成素に対して事態性の判別を実施していたが,文脈上状態変化を伴わない名詞が数多くアノテーションされていた。そのため複合名詞の前方の語は後方の語を修飾するだけと考え,事態性を考慮する対象としては除外した。例えば,「消費税」という単語の場合,前方の「消費税」に注目している場合,この単語は事態性の候補外,後方の 「税」に注目している場合,この単語は事態性名詞の候補とし,後段の基準でさらに判定を続ける。 図 1 事態性名詞の判定基準 ## 2.3.2 サ変接続するサ変名詞である サ変名詞はその性質上,事態性名詞の有力な候補となるが,サ変接続する場合には接続語も含めて述語として捉えることができるため,事態性名詞としては除外する.例えば,「家庭での学習が基本だ」 の「学習」は事態性名詞の候補となるが,「各家庭で学習する」のようにサ変接続する場合には事態性名詞の候補から除外する。 ## 2.3.3事態性を持たないことが明らか 人の名前や机,花瓶といった物理的なものなど,一般的に明らかに事態として想起しない単語を除外する.以下に例を挙げる。 ・物理的なもの・一・机,花瓶,車など ・役割・役職・一・部長,お父さんなど - 場所・位置・方角・一・゙ス停,前方,南など ・時間・期間一 ・2 時,奈良時代など - 固有名詞(地名,組織名,サービス名,人名,商品名,建物名)・一東京都,大学など - 形容動詞として使われている名詞 ・.・正常,不能など ## 2.4 事態性名詞であり得るものを取得する ## 2.4.1 動詞に言い換えた語の意味が元の名詞の意味 と同じになる 動詞に言い換えられる名詞は状態変化を表現する候補として有力なため,動詞的要素を持つ名詞を事態性名詞の候補とする. 名詞に動詞的な役割があるかどうかを判断するために,動詞として言い換え可能な名詞中の語を動詞として言い換え,その意味を元の名詞と比較し, 同じ意味になる場合は該当するものとみなす.以下に言い換えの例を挙げる。 ・サ変名詞をサ変接続する 「被災者の苦悩は察するに余りある」 $\rightarrow$ 「被災者が苦悩する」 ・末尾が動詞の連用形と同形の名詞を終止形にする 「両者がせめぎ合いを続ける」 $\rightarrow 「$ 両者がせめぎ合う」 ・末尾が動詞の連用形と同形の名詞を,下記のルールで言い換える 一用言を修飾する語+動詞 「六十五歳の男性がタンスの下敷きに - 目的語+動詞 「国道 176 号が通行止めとなった」 $\rightarrow$「国道 176 号の通行を止める」 ・熟語を下記のルールで言い換える - 目的語+動詞 「40 代の男性が殺人の容疑で逮捕された」 $\rightarrow$ 「男性が人を殺す」 - 主語+動詞 「千畳敷カールで四日発生した雪崩に」 $\rightarrow$ 「雪が崩れる」 ・接尾辞をサ変接続するもしくは,動詞の終止形にする 「地球温暖化が原因で海面が上昇する」、「地球温暖化する」 ## 2.4.2 動詞に言い換えできないが事態性を持ちうる 一般的に事態として想起される名詞の中には,運動会,台風といった必ずしも動詞に言い換えできない (項をとることがない)ものも含まれる。これらの名詞は,動詞で表現されるような状態変化が複数同時に起こるような事態だと捉えることができる。.例えば,火事という名詞には,「建物が燃える」,「人が逃げる」といった複数の状態変化が含まれている.以下に例を挙げる。 - 行事,催事,競技名一一野球,東京オリンピック - 事件,災害,人災一一火災,地盤沈下,事故 ・自然現象,社会現象一・雨,ラグビーブーム ## 2.5 事態性を判定をする ## 2.5.1 時間と場所の情報を含み特定の事象と解釈で きる 状態変化を推論するには,対象としている事象が実際に事物の変化を起こすものであるかいう具体性が重要である。そのような具体性を持つ表現を捉えるには時間や場所などの情報が重要な要素となるため,ここでは時間や場所の情報が具体的に文脈上推定できる場合,事態性を持つと判定する。例えば,「この街の暮らしにも慣れた」「自由貿易は暮らしの質を高める手段」という文中における「暮らし」と いう単語は,前者では時間や場所の情報を含む具体的な事象としてみなし事態性を持つと判定し, 後者は時間や場所などの情報を含まないとみなし事態性を持たないと判定する. ## 3 考察 本稿で作成したフローチャートは,大きく3つの部分からなる。除外ブロックは事態性名詞となり得ないものを除外することを目的とした基準の集合で,取得ブロックは事態性名詞となり得るものを選択することを目的とした基準の集合である. 事態性判定ブロックは,先 2 つのブロックで得られた事態性名詞の候補に対し,事態性を判断することを目的とした基準の集合である. それぞれのブロックに含まれる基準は常識推論エンジンの開発に向けた判定基準であり,アプリケーションが変われば必要となる基準も異なると考えられる。 そのような場合においても,ブロック毎の目的に合わせて個々の基準を組み替えることでより柔軟に対応が可能である.例えば,項をとらないような単語を事態性名詞と扱いたくない場合には,第 2.4.2 章の基準を除外ブロックへ移動させることで対応が可能であるし,事態性の定義を変更したいような場合には,事態性判定ブロックについてのみ基準を追加・削除することにより対応が可能である. また,第 1 章で,フローチャート形式による基準の明文化には,作業者間のアノテーションのずれを軽減する狙いがあると述べたが,実際にどの程度有効であるかは定量的な調査を行う必要がある.それらの調査で確認される摇れの傾向を把握し,基準のさらなる改定を行う予定である. 本稿では,常識推論エンジンの開発を目的としているため,状態変化の情報を含む名詞を事態性名詞としてアノテーションする基準を作成した. 状態変化の情報を持つかどうかの指標として,場所や時間の表現が含まれており,具体的な事象かどうかを判断するとしたが,この基準のみで状態変化の情報をすべて捉えられるかどうかには検討の余地がある.例えば,動作主体が明示されている場合に,時間や場所の情報を必ずしも含まなくても具体事象として解釈することが自然な事例が存在する可能性がある.このような点を踏まえ,さらに基準に関して検討する必要がある. ## 参考文献 [1] 杉本智紀, 藤田響平, 井坂諭紀雄, 永田基樹, 森遼太. 述語項構造シソーラスと EC を用いた汎用的常識推論エンジンの構築. 言語処理学会第 26 回年次大会, pp. 597-600, 2020. [2] 竹内孔一, 土山傑, 守屋将人, 森安祐樹. 類似した動作や状況を検索するための意味役割及び動詞語義付与システムの構築. 電子情報通信学会技術研究報告. NLC, 言語理解とコミュニケーション, Vol. 109, No. 390, pp. 1-6, 2010. [3] 飯田龍, 小町守, 乾健太郎, 松本裕治ほか. Naist テキストコーパス: 述語項構造と共参照関係のアノテー ション. 情報処理学会研究報告自然言語処理 (NL), Vol. 2007, No. 7 (2007-NL-177), pp. 71-78, 2007.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT3-2.pdf
# ComeJisyoUtf8-3 の誤解析調査 ## 一看護師・助産師・管理栄養士国家試験問題文の語分割一 \author{ 相良かおる \\ 西南女学院大学保健福祉学部 \\ sagara@seinan-jo.ac.jp } ## 概要 実践医療用語辞書 ComeJisyoUtf8-3 の語分割の精度を, 看護師・助産師・管理栄養士国家試験問題文を解析し調べた。 その結果, 全見出し語が 48,191 語, その内, 未知語成分が 1,108 語 $(2.3 \%)$ )これらから成る未知語が 382 語 (異なり 320 語), そして誤解析 (過分割) された登録語の見出し語が 421 語 $(0.9 \%)$ ),当該登録語が 155 語(異なり 47 語)であった.これらには, 数字や記号を含む登録語の過分割が多くあった. ## 1 はじめに 筆者は,電子化された医療記録データの自然言語処理を支援するために実践医療用語を見出し語とした分かち書き用辞書 ComeJisyoV1 を 2008 年 11 月に公開した. その後, 随時更新し, 2021 年 3 月公開の ComeJisyoUtf8-3 の登録語数は約 12 万語となった. なお,門外不出の医療記録に含まれる実践医療用語の語構成や語種構成の実態は不明であるため, 語の単位認定の規則を定めず,医療従事者が一つのまとまった語としたものを登録している. ComeJisyoUtf8-3 の登録語は, 看護経過記録, プログレスノート, 医師経過記録, 看護師・助産師・管理栄養士の国家試験問題文(1998 年度~2019 年度) から抽出しているが, 利用状況を調べると, 退院サマリ, インシデントレポート等, 多様な医療文書の解析に利用されている[1][2]. そして, ComeJisyo のダウンロード数は 2015 年以降増加している (図1). Google Scholar で検索語を “ComeJisyo” として検索するとi, 通年での検索件数は 41 件, 期間を 2015 年〜2021 年に絞ると 34 件, “ComeJisyo” と “machine learning”の AND 検索では共に 11 件, “ComeJisyo” と“機械学習” の AND 検索では, 10 件と 8 件とな り,機械学習に関する研究での利用が増加している. 図 1 ComeJisyo ダウンロード数の推移 なお,筆者が ComeJisyo を公開する目的は,医療施設内,または診療科内で蓄積されたスモールデー 夕の自然言語処理の支援である。 一般に単語分割の評価基準には, 精度, 再現率, F 值が用いられる[3]. $ \begin{aligned} & \text { 精度 }=\frac{\text { 正しく抽出された単語数 }}{\text { システが出力した単語数 }} \\ & \text { 再現率 }=\frac{\text { 正しく抽出された単語数 }}{\text { 正解の単語数 }} \\ & \mathrm{F} \text { 値 }=\frac{2 \times \text { 精度 } \times \text { 再現率 }}{\text { 精度 }+ \text { 再現率 }} \end{aligned} $ しかし, ComeJisyo の登録語には, 「びまん性管内増殖性糸球体腎炎ネフローゼ症候群」のような長い語と, その部分文字列である「ネフローゼ症候群」が登録されている. そして, 利用者が必要とする語の単位も, 解析する医療文書の種類も分からない,従って,利用者にとって有益な精度や再現率を提示することは困難である。また,実用目的で医療文書を解析する際に ^{i}$ 検索日:2021 年 12 月 27 日 } は, 精度や再現率の値に関わらず人手により解析結果の確認・修正が行われると推測される. そこで本発表では,ComeJisyo の具体的な解析誤りを示すことが有益だと考え, 看護師・助産師・管理栄養士の 3 種類の国家試験問題の解析結果における未知語と誤解析について述べる. ## 2 用語の定義 本発表で用いる用語を以下に定義する. 登録語 : ComeJisyo または IPA 辞書に登録の語 見出し語: $\mathrm{MeCab}$ の実行で出力された 1 語 未全文字列 : 以下を総称して「未全文字列」という。 (1) 造語成分:「一煮」,「蒸し一」等 (2) 接頭語 $($ 詞) : 「要一」,「同一」等 (3) 接尾語 : 「一時」, 「一語」等 (4) 異義語と解釈された語 : $ \text { 「よ/だれ」ii } \rightarrow \text { 「だれ(誰)」等 } $ (5) 古い表現:「安気」等 (6) 不明な文字列:「よ」等 ## 過分割 : 以下の 3 種類の分割をいう. (1) 意味のある語(ComeJisyo または IPA 辞書の登録語を含む)に分割される (2)「未全文字列」を含む語に分割される (3) 数字部分が分割される (4) 英字文字列の途中で分割される "overflow" $\rightarrow$ "over/flow" ## 誤解析 : 本発表では以下を誤解析という。 (1) 登録語が過分割される (2) 登録語の異表記(半角/全角,大文字/小文字,か/ヶ等)による未知語成分の出力 (3)句点,読点,記号等の品詞の間違い ## 3 言語資源の概要 本発表では, 2020 年度に実施された第 110 回看護師国家試験 iii, 第 104 回助産師国家試験 ii,第 35  回管理栄養士国家試験ivの問題文(PDF 形式)を UTF-8 形式でデジタル化し,解析データとする. 表 1 に,解析データの文字数, 行数を示す. 表 1 解析データの文字数と行数 図 2 文字種の概要 図 2 は文字種の割合をまとめたものである. ## 4 調査方法 ## 4.1 環境 本調查の環境を示す。 形態素解析器: mecab-0.995.exe (MeCab) システム辞書 : IPA 辞書 iv ユーザ辞書: ComeJisyoUtf8-3.dic ${ }^{\text {vi }}$ (ComeJisyo) ユーザ辞書 2 : NEologd.20200910-u.dic viii (NEologd) ## 4.2 方法 調査の手順を以下に示す. 手順 1. ComeJisyo を用いて解析データを解析手順 2.未知語を構成する見出し語(未知語成 $ \text { 分)を調べる } $ 手順 3. 誤解析された登録語の見出し語(登録語誤解析)を調べる 手順 4. 未知語数と誤解析の登録語数を調べる ## 5 結果 表 2 は,解析結果の概要である。 「未知語成分」には, ComeJisyo または IPA 辞書  の登録語が含まれる(表 3). 例えば,未知語「脳血管障害後遺症」の部分文字列「脳血管障害」は ComeJisyo の登録語である。この場合の未知語成分は,「胼血管障害」と「後遺症」の2語となる. 「登録語誤解析」においても,誤解析となった登録語の見出し語が登録語である場合もある(表 4). 例えば「訪問看護ステーション」の見出し語は「訪問看護」と「ステーション」の 2 語であり,これらは ComeJisyo の登録語である。なお,登録語「二人暮らし」の異表記「2 人暮らし」の見出し語は, 「2」「人」「暮らし」の 3 語であったが,今回, これらは「未知語成分」ではなく「登録語誤解析」 に含めている. 表 2 解析結果(延べ数)の概要 表 3 未知語成分の種別(延べ数) 表 4 登録語誤解析の種別(延べ数) 表 5 未知語と誤解析語の語数 表 5 は,未知語成分からなる未知語と誤解析となった登録語の語数である. 次章では未知語と誤解析について述べる. ## 6. 未知語の種類と対処法 医療記録文には,一般的な語も含まれる。今回の未知語 382 語の内, 医療用語以外の語は 134 語であり,「よだれ」「いきみ」「おそれ」「ハザードマ ップ」「過干渉」「給水車」「炊飯器」「大気污染物質」「育児介護休業法」「共食」「募魚」「つぶし粥」等があった。医療記録文の語分割には,これらの一般的な語を登録した辞書も必要であろう. 今回,無償で利用でき,新語・固有表現に強く、語彙数が多いとされる NEologd をユーザ辞書に追加して上記 12 語を解析したところ,「大気污染物質」「育児介護休業法」「共食」「惹魚」「つぶし粥」以外の 7 語は,正しく解析された。 ## 6.1 品詞情報による未知語の生成 ## 連続する名詞の連結 未知語「療養介護」「消化器感染症」の未知語成分「療養」「介護」「消化器」「感染症」は, 全て ComeJisyo の登録語であり,品詞は「名詞,一般」になっている.このような場合は, 連続する品詞が「名詞,一般」である見出し語を連結することで,未知語の生成が可能である. ## 接頭語, 接尾語の連結 未知語「最優先」の未知語成分「最(接頭詞,名詞接続)」と「優先(名詞,サ変接続)」もIPA 辞書の登録語であり, この場合は,品詞が「接頭詞名詞接続」の見出し語を後続する品詞「名詞」の見出し語と連結することで未知語の生成が可能とな る. また,未知語「手洗い場」の未知語成分「手洗い(名詞, サ変接続)」と「場(名詞,接尾)」も同様に「名詞,接尾」の見出し語を直前の品詞が 「名詞」である見出し語に連結することで未知語の生成が可能となる. ## 6.2 生成できない未知語 一方,未知語成分が ComeJisyo または IPA 辞書の登録語であっても語の境界誤り等で異義語として解析された場合, 品詞のみによる未知語の生成ができない場合がある.例えば,未知語「よだれ」は,「よ (その他,間投)」と「だれ(名詞,代名詞,一般)」に解析され, 付与された品詞から未知語を生成することはできない,同様に「お/それ」「かた/まり」 「いき/み」も生成が困難である。また,「くん煙 (名詞,接尾,人名)」と「煙し(形容詞,自立):ケムシ」から生成することは出来ない。同様に「蒸し器内の」に含まれる未知語「蒸し器」も,未知語成分「蒸し(動詞,自律)」と「器内(名詞,副詞可能)」 からの生成は困難である。 ## 7. 誤解析の種類と対処法 ## 7.1 品詞情報による対処法 過分割された見出し語全てが登録語であるものに $\lceil\mathrm{SP} / \mathrm{O} 2 」 「$ パンツ/型/おむつ」「訪問/看護業務」「血漿/蛋白質」等があった. これらの品詞は名詞であることから, 連続するこれらの見出し語を連結することで,元の登録語を得ることができる. 数字が含まれる登録語は「糖原病/I/型」「3/価/鉄」「2/人」「1/泊」等となった. これらも数字の品詞が「名詞, 数」で後続する見出し語が「名詞,接尾」であれば,品詞により連結が可能である. ## 7.2 その他の対処法 登録語「二人暮らし」の異表記である「 2 /人/暮らし」や,「血漿タンパク質」「血漿たんぱく質」 の異表記である「血漿/蛋白質」が過分割された. これらの表記の摇れは,前処理により表記を統制することで回避することができる. 医療記録文には,記号が多く使われる。本解析デ ータにおいても $11 \%$ 以上を占めている(図 2). ComeJisyo には,「/ $\mu \mathrm{L} \downharpoonleft 「 \mathrm{mEq} / \mathrm{l}\rfloor\lceil/$ 分」「 $\gamma-$ アミノ酪酸」「 $\mathrm{n}-3$ 系脂肪酸」など記号を含む登録語が含まれるが,これらの殆どが過分割される。 そして半角記号「/」-」の品詞は「記号」とはならず, 「名詞, サ変接続」となり, 品詞規則による訂正は困難である。また,全角「/」「一」は記号となるが,登録語「/分」は,正しく解析される場合と 「/」「分」に過分割される場合がある. 同様に句読点の品詞が「記号,句点」または「記号,読点」ではなく「名詞, サ変接続」となる場合がある.従って, 品詞情報で合成語を生成する際には, 記号や句読点の品詞を確認するか, $\mathrm{MeCab}$ の部分解析viii を利用する等の工夫が必要である. ## 8. まとめ 本発表では, 3 種類の国家試験問題文を解析デー タとし, ComeJisyo の解析結果について述べた. 記号,数字を含む登録語を除き,過分割された見出し語の多くは登録語であり, 付与された品詞情報 viii 制約付き解析(部分解析) https://taku910.github.io/mecab/partial.html ix ComeJisyo : https://ja.osdn.net/projects/comedic/ から合成語の生成が可能である。なお,解析結果をエディタ等で修正でき,付与された品詞情報を基に合成語を生成するツール GoMusubi_Ver.2.0 $0^{\mathrm{ix}} 2021$年 4 月に公開している. 単位認定を定めず登録語の多くが合成語である ComeJisyo の持つ問題に「一貫性のない分割」[3][4] がある.今回は「/分」が,「/」と「分」に過分割されるケースがあった.医療記録文は,主語の省略や体言止めが多く,登録語には,合成語とその構成要素も含まれることから, 分割の一貫性は低い。 また,登録語「訪問看護業務」は「訪問/看護業務」と 2 語の登録語に過分割された。しかし意味的な結合の強さからは「訪問看護/業務」と分割するのが妥当であり,これら 2 語も登録語であるが,意味的な結合の強さを考慮した語分割は, ComeJisyo を用いた解析では望めない. そこで,合成語 7,192 語を意味的に語構成要素に分割し,これらに意味ラベルを付与し『実践医療用語_語構成要素語彙試案表 Ver.1.0』xとして, 2021 年 3 月に言語資源協会より公開している. 今後, これらの合成語に意味的な結合の強さによる語境界を記述した『実践医療用語_語構成要素語彙試案表 Ver.2.0』を公開予定である. ## 謝辞 本研究は JSPS 科研費 JP21H03777, JP18H03499, JP21300099 の助成を受けたものです. ## 参考文献 1. 安道健一郎, 奥村貴史, 小町守, 松本裕治. 確度に基づく退院時サマリの分析.情報処理学会研究報告, Vol.2019-NL-240, No.2, pp.1-7, 2019. 2. Shinichiroh Yokota, Emiko Shinohara, Kazuhiko Ohe. Can Staff Distinguish Falls: Experimental Hypothesis Verification Using Japanese Incident Reports and Natural Language Processing. Nursing Informatics 2018, Vol.250, pp. 159 -163, 2018. 3. 工藤拓. 形態素解析の理論と実装. 近代科学社. 2018. 4. 高橋文彦, 颯々野学. 情報検索のための単語分割一貫性の定量的評価. 第 22 回言語処理学会年次大会, 2016. ^{x}$ GSK2020-G : https://www.gsk.or.jp/catalog/gsk2020-g/ }
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT3-3.pdf
# 『現代日本語書き言葉均衡コーパス』に対する印象評定情報付与 加藤祥 目白大学 浅原 正幸 国立国語研究所 masayu-a@ninjal.ac.jp ## 概要 本研究では『現代日本語書き言葉均衡コーパス』 の短単位動詞・長単位自立語・文節を刺激として、一般の方の印象評定情報を収集した。「自然さ」「わかりやすさ」「古さ」「新しさ」「比喻性」の 5 観点について「0:まったく違う」から「5:そう思う」の 6 段階評価を行った。これらの印象評定情報に基づいて、既存の代表義情報を線形回帰するモデルを構築し、コーパスにあてはめることにより典型用例を抽出することを試みた。 ## 1 はじめに 本研究では、クラウドソーシングにより、印象評定情報を『現代日本語書き言葉均衡コーパス』に付与したので報告する。 『分類語彙表』に対する単語親密度データベース WLSP-Familiarity $[1,2]^{1)}$ は辞書の見出しを刺激として、「知っている」「書く」「読む」「話す」「聞く」の 5 観点について評定値を収集したものである。一方、単語親密度は単語に対する評定値であり、実際に使用されている文脈でどのように捉えられているかがわからないという問題があった。さらに多義語については語義ごとの親密度の判定が困難であった。 そこで『現代日本語書き言葉均衡コーパス』[3] (以下 BCCWJ)の文脈を呈示し、その印象評定情報を収集したので報告する。具体的には、国語研短単位動詞・国語研長単位自立語・文節単位に「自然さ」「わかりやすさ」「古さ」「新しさ」「比喻性」の 5 観点について 0 (全く違う) 5 (そう思う) の 6 段階評価を収集した。本稿では、印象評定情報の収集方法を解説するとともに、データの基礎統計などについて示す。さらに、代表義情報をこれらの印象評定情報に基づき回帰することで、コーパス中の典型用例を抽出することを試みたので報告する。  ## 2 関連研究 ## 2.1 印象評定情報 NTT データベースシリーズ『日本語の語彙特性』2) は、人間の言語機能の解明を目指し、様々な観点で語彙の特徴を検証した世界最大規模のデータベースである。『日本語の語彙特性』の中には、そのほかに単語親密度・単語表記の妥当性・単語アクセントの妥当性・漢字親密度・漢字複雑度・漢字の読みの妥当性・単語心像性などの人の主観的な評定データのほか、新聞などの語彙の出現頻度に基づく客観的なデータも収録されている。その中で単語親密度データベース (平成版) $[4,5]$ は語彙の親密度(なじみの有無)を収集した先進的な語彙データベースである。また、最初の調査から年月を経て、人の語彙のとらえ方が変遷しつつあるなか、単語親密度デー タベース(令和版)[6] も構築され、世界最大規模のデータベースが公開された [7] ${ }^{31}$ 。さらに、単語心像性データベース [8] では、文字刺激・音声刺激に対する「意味内容を感覚的にイメージする際の容易さ」の収集が行われた。 国語研では、『分類語彙表』に対する単語親密度の推定 [1,2] を継続的に進めているほか、種々の語彙表を公開している $[9,10]^{4)}$ 。これらの国語研の語彙データベースは、多義語について人がどのように語彙をとらえているかについては明らかにできないものであった。多義語の語義調査を目指し、2021 年に語義情報を付与されている IPAL 辞書の用例に対して印象評定情報付与 $[11,12]$ を試験的に行った。本研究では、同研究を BCCWJ に拡張し、日本語の多義語の印象評定情報の付与を進める。  ## 2.2 中心義・基本義・代表義・典型用例 多義語における語義の認定は、当該言語において定着した意味として、一般的に辞書へ記載されるものと考えられる。瀬戸 [13]、多義の記述において、中心義の設定、意義の認定、意義関係の明示、意義の配列を議論する。多義語の語義認定には、関連語の対応による認定 $[14,15]$ 、個別義認定の分離・統合テスト [16] などの認定基準が検討されている。 多義語には何らか中心的な意味が存在する [17] とされ、中心義・基本義・代表義などと呼ばれる。派生関係を考える場合には歴史的な変化に基づき出現年代順が重要視されるが、多義構造は再編成されるために、現在一般の方が想定する典型性のある中心的な語義が必ずしも歴史的な変化に基づくとは限らない。中心的な意味は一様に定められるものではなく、例えば瀬戸 [13] は (i) 文字通り、(ii) 他意義の前提、(iii) 具象性が高い、(iv) 認知しやすい、(v) 想起しやすい、(vi) 用法上の制約を受けにくい、(vii) 意義展開の起点(接点)となることが多い、(viii) 言語習得の早い段階で獲得される、(ix) 使用頻度が高いの9 特性を挙げている。 言語資源としては、『分類語彙表』増補改訂版の多義語に対して、専門家により代表義を付与する作業を実施したものがある [18]。BCCWJ に付与された分類語彙表番号データ [19] からコーパス中の専門家による代表義認定用例が認定できるほか、IPAL 辞書における語義に対しても分類語彙表番号が付与されていることから、IPAL 辞書における代表義を認定することも可能である。しかしながら、これらの認定は専門家によるものであり、一般の読み手の判断とは差のある可能性も考えられる。先に述べたとおり、IPAL 辞書の用例に対して印象評定情報付与 [11]を行っていることから、専門家が代表義と認定する用例が、一般の読み手がどう捉えるのかについて線形回帰により求めることも可能になった [12]。本研究では、この線形回帰式を今回収集した BCCWJ に付与された印象評定情報にあてはめることで、代表義用例および典型用例の抽出を試みる。 ## 3 データの収集手法 本節ではデータの収集方法について示す。 収集対象は BCCWJ のうち、短単位に基づいて語義情報が付与されている BCCWJ-WLSP (書籍, 新聞, 雑誌) [19] と読み時間情報が付与されている BCCWJ-SPR (書籍, 教科書) [20] とする。 前者の BCCWJ-WLSP は、BCCWJ コアデータの書籍, 新聞, 雑誌サンプルの一部(約 33 万語)の短単位自立語に対して分類語彙表に基づく語義を付与したものである。分類語彙表に基づく語義情報と評定情報を対照することを目的として、この BCCWJ-WLSP のサンプルに対して、試験的に短単位動詞と短単位サ変名詞+「為る」を対象として、1 例あたり 20 人の評定値を 2021 年 4 月 5 日〜 5 月 3 日に収集した。さらに長単位自立語に対して、 1 例あたり 10 人の評定値 ${ }^{5}$ を 2021 年 11 月 17 日〜 12 月 6 日に収集した。 後者の BCCWJ-SPR2 は、BCCWJ のコアデータの書籍と国語科教科書サンプルを、文節単位の自己ペース読文法により、読み時間データを収集したものである。読み時間のふるまいを評定情報で説明することを目的として、この BCCWJ-SPR2 のサンプルに対して、文節を対象として、1 例あたり 10 人の評定値を 2021 年 11 月 17 日〜 12月 6 日に収集した。 浮かれ踊りながら【踏み固め】ていた。 5. 何かを他の物事でたとえ (比倹) ていますか。 0 : まつたく違う $\mathrm{O}_{2}$ $5:$ そう思う [BCCW] PM12_00011 2110] 図 4 印象評定情報収集画面 評定情報収集画面を図 4 に示す。画面の上に 1 文単位で例文を表示し、判定してもらいたい表現を【 人分の評定值を追加で収集した。 表 1 評定値の収集対象 図 1 評定値の分布(BCCWJ-WLSP : 短単位動詞 : ビン幅 0.05 ) 図 2 評定値の分布(BCCWJ-WLSP:長単位自立語:ビン幅 0.10 ) 図 3 評定値の分布(BCCWJ-SPR2:文節:ビン幅 $0.10 )$ で示した。評定値は、「自然さ」「わかりやすさ」「古さ」「新しさ」「比喻性」の 5 観点について、「0: まったく違う」から「5:そう思う」までの 6 段階評価とした。実験協力者は日本の Yahoo! クラウドソーシングのアカウントを持つ 20 歳以上の方とし、 1 回答あたり 1 円相当の謝礼ポイントを支払った。また、 90\%以上について同一の回答をした方を、回答できないような処理を随時行った。 ## 4 データの基礎統計 図 1, 2,3 に、BCCWJ-WLSP の動詞短単位・BCCWJWLSP の長単位自立語・BCCWJ-SPR2 の文節に対する表現ごとの平均評定値のヒストグラムを示す。いずれのサンプルも書籍・新聞・雑誌・教科書などで公刊されているものなので、自然さとわかりやすさが高い。また書籍・新聞・雑誌については2001-2005 年に公刊されたものを対象としているが、全体的に古くも新しくもない傾向が見られた。さらに比喻性 についても低い傾向が見られた。付録の 4 に各評定値の上位・下位事例を示す。 ## 5 評定情報に基づく典型用例の推定 & & & + & & - \\ 表 2 瀬戸の中心義特性と本研究の印象評定情報との関係 同様の評定情報をすでに IPAL 辞書用例に付与しており[11]、この 5 つ組の評定情報から代表義性を線形回帰する試みが行われている [12]。これは、瀬戸 [13] の中心義特性を印象評定情報として定義しな おし(表 2)、一般の方の印象評定の組み合わせから、基本義・代表義・典型用例を推定する試みである。同研究では、代表義情報を $5 \sim 1$ の代表義度 6 ) として数値化したものを、印象評定値を固定効果とし、用例をランダム効果とした次式による一般化線形混合モデルにより回帰して行った。 代表義度~自然さ+わかりやすさ+古さ+新しさ+比喻性 + (1| 用例 $)$ 表 3 IPAL 用例における代表義度の回帰(動詞)[12] 推定した固定効果推定値を表 3 に示す。表 2 の瀬戸の中心義特性との関係では、古さが+(i) 文字通り、(vii) 意義展開の起点(接点)となることが最も多い)、新しさが-((ii) 他意義の前提、(ix) 使用頻度が高い)を想定していたが、得られた推定値は古さがー、、新しさが+の係数であった。 以下では短単位動詞の評定結果に基づき、より代表義性の高い「典型用例」を抽出することを試みる。具体的には、同研究で得られた次の線形回帰式をあてはめる: 推定代表義度 (動詞) := $0.012 \times$ 自然さ $+0.033 \times$ わかりやすさ $-0.015 \times$ 古さ $+0.018 \times$ 新しさ $-0.024 \times$比喻性 +1.965 付録の表 4 に短単位動詞に対して検討した推定代表義度上位・下位のものについて示す。表中「出現位置」に S がついているものはサ変動詞「為る」 の用例のうち、サ変名詞が左に隣接するものについて、連結して呈示したものである。代表義度上位のものは、現代日本語で定着した外来語が多く見られた。代表義度下位のものは、「古さ」「比喻性」の評定値が高い用例が多くみられた。 付録の表 5 に多義の短単位動詞「掛かる」(語彙素番号:6016)の分類語彙表番号ごとの平均評定値 (マクロ平均)を示す。用例数としては「. 16 関係-時間」 が 27 件と最も多く、代表義度も 2.114 と高い水準であった。一方、代表義度が最も高い「. 31 活動-言語」 は「電話がかかる」の意味だが、用例としては 1 事  $\ulcorner\triangle \perp: 3,\ulcorner\times 」: 2$, その他 (「?」など) $: 1$ とした。例のみであった。近年電話がかかってくることも少なくなっており、用例数が少なくなることが想定され、いずれ代表義度も低くなる可能性がある。 付録の表 6 に「掛かる」の代表義度上位・下位用例を示す。代表義度上位の用例は「. 11 関係-類」および「. 16 関係-時間」であった。代表義度下位の用例は「. 3370 活動-生活-遊楽」(囲碁における用語)、「. 1502 関係-作用-開始」(はじめる)、「. 1513 関係-作用-固定・傾き・転倒など」(覆いかぶさる)などであった。興味深いことに、本来比喻性のない字義的な語義である PM29_00003 の例「それ(髪)が【かかっ】た肩先」(. 1513 関係-作用-固定・傾き・転倒など)の代表義が低い。一方、抽象性の高い「. 1110 関係-類-関係」「. 1600 関係-時間-時間」「. 3730 活動経済-価格・費用」などが代表義度が高く、さらには本来比喻表現であるのにも関わらず比喻性が低い傾向が見られた。 ## 6 おわりに 本研究では、コーパスの用例に対する印象評定データの構築を行った。BCCWJ の語義が付与された部分 (BCCWJ-WLSP) と読み時間が付与された部分 (BCCWJ-SPR2) に対して、短単位動詞・長単位・文節単位に、自然さ・わかりやすさ・古さ・新しさ・比喻性の評定値を収集した。さらに、短単位動詞については、得られた印象評定情報から代表義度を線形回帰により推定し、コーパス用例の典型用例抽出を試みた。 コーパスにおける出現度数と一般的な読み手の評定値とを対照することで、語の生産実体・受容実体を確認することができる。また、代表義度の推定や典型用例の抽出は、多義語における中心的な意味・基本的な意味の解明に寄与するほか、文法性・非文法性の判断にも寄与する。さらには、言語学習者に用例を提示するにあたり、典型用例を提示することが言語の流暢性の醸成に役立つと考える。 今後、BCCWJ-WLSP における語義との対照を行うことで、語義の転換が発生している箇所において、一般的な読み手が比喻性を感じるかなどを調査する。さらに、文節単位に付与された印象評定情報と読み時間とを対照することで、読み時間が変化する表現を印象評定情報の観点から解明したい。 ## 謝辞 本研究は国立国語研究所コーパス開発センター 共同研究プロジェクトの成果です。また、科研費 18H05521,18K18519、国立国語研究所第 4 期共同研究プロジェクト事前準備経費の支援を受けました。 ## 参考文献 [1]浅原正幸. Bayesian linear mixed modelによる単語親密度推定と位相情報付与. 自然言語処理, 27(1):133-150, 2020. [2]浅原正幸. クラウドソーシングによる単語親密度デー 夕の構築 (2021 年版). In 言語処理学会第 28 回年次大会発表論文集, 2022. [3]Kikuo Maekawa, Makoto Yamazaki, Toshinobu Ogiso, Takehiko Maruyama, Hideki Ogura, Wakako Kashino, Hanae Koiso, Masaya Yamaguchi, Makiro Tanaka, and Yasuharu Den. Balanced corpus of contemporary written japanese. Language Resources and Evaluation, 48:345-371, 2014. [4]天野成昭 and 近藤公久, editors. 単語親密度, NTT デー タベースシリーズ日本語の語彙特性第 $l$ 巻. 三省堂, 1999. [5]天野成昭 and 近藤公久, editors. 単語親密度増補, NTT データベースシリーズ日本語の語彙特性第 9 巻. 三省堂, 2008 . [6]藤田早苗 and 小林哲生. 単語親密度の再調査と過去のデータとの比較. In 言語処理学会第 26 回年次大会発表論文集, pages 1037-1040, 2020. [7]NTT コミュニケーション科学基礎研究所. [8]佐久間尚子, 伊集院睦雄, 伏見貴夫, 田中正之, 天野成昭, and 近藤公久. NTT データベースシリーズ日本語の語彙特性第 8 巻単語心像性. 三省堂, 2008 . [9]加藤祥 and 浅原正幸. 『現代日本語書き言葉均衡コー パス』出版書籍サンプルの NDC 別語彙分布語彙分布. In 言語資源活用ワークショップ 2021, pages 218-225, 2021. [10]加藤祥, 森山奈々美, and 浅原正幸. 『現代日本語書き言葉均衡コーパス』新聞記事情報を用いたジャンル別語彙分布. In 言語資源活用ワークショップ 2021, pages 160-170, 2021 . [11]加藤祥 and 浅原正幸. 多義語語義調査を目指した IPAL 形容詞例文への印象評定情報付与. In 言語処理学会第 27 回年次大会発表論文集, pages 1120-1025, 2021. [12]加藤祥 and 浅原正幸. Ipal 用言例文への印象評定情報付与と代表義 - 典型用例の抽出. 計量国語学, 33(3):178-183, 2021. [13]瀬戸賢一. 多義記述の問題点とその解法一日本における正しい多義記述の出発点-. In 日本認知言語学会論文集, pages 507-517, 2019. [14]国広哲弥. 意味論の方法. 大修館書店, 1982. [15]籾山洋介. 認知意味論のしくみ. 研究社出版, 2002. [16]松本曜. 多義性とカテゴリー構造. In 澤田治美, editor, ひつじ意味論講座, volume 1, pages 23-43. 2010. [17]瀬戸賢一.メタファーと多義語の記述. In 楠見孝, editor, メタファー研究の最前線, pages 31-61. ひつじ書房, 東京, 2007. [18]山崎誠 and 柏野和佳子.『分類語彙表』の多義語に対する代表義情報のアノテーション. In 言語処理学会第 23 回年次大会発表論文集, pages 302-305, 2017. [19]加藤祥, 浅原正幸, and 山崎誠. 分類語彙表番号を付与した『現代日本語書き言葉均衡コーパス』の書籍・新聞・雑誌データ. 日本語の研究, 15(2):134-141, 2019. [20]浅原正幸. クラウドソーシングによる大規模読み時間データ収集. In 言語処理学会第 27 回年次大会発表論文集, pages 1156-1161, 2021. 付録: & 2.18805 \\ 表 4 推定代表義度に基づく典型用例の抽出(短単位動詞) 表 5 短単位動詞「掛かる」語彙素番号:6016 の分類語彙表番号別評定値 & 41660 & 4.65 & 4.55 & 1.65 & 1.45 & 0.6 & & 2.1579 \\ 表 6 短単位動詞「掛かる」語彙素番号:6016 の推定代表義度上位・下位用例
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT3-4.pdf
# ニューラル言語モデルの過剰な作業記憶 栗林樹生 1,2 大関洋平 3,4 Ana Brassard ${ }^{4,1}$ 乾健太郎 1,4 1 東北大学 ${ }^{2}$ Langsmith 株式会社 ${ }^{3}$ 東京大学 ${ }^{4}$ 理化学研究所 \{kuribayashi, inui\}@tohoku.ac.jp oseki@g.ecc.u-tokyo.ac.jp ana.brassard@riken.jp ## 概要 近年,ニューラル言語モデルの分析が盛んに行われ,ヒトの言語処理について探求する計算心理言語学の両視点を取り入れた分析も増えた. 例えば言語モデルとヒトの文処理の振る舞いを直接比較する研究が行われている. 本研究では, どのような計算モデルがヒトの振る舞いを忠実に再現するかという,計算心理言語学的な関心で研究を行う場合,工学的な文脈で典型的に活用される LSTM や Transformer 言語モデル $[1,2]$ をのまま用いることが,必ずしも道具立てとして妥当な選択ではないことを指摘する. 具体的には,ニューラル言語モデルに入力する文脈を限ることでよりヒトらしい振る舞いが促されることから,これらのモデルはヒトと比べて過剩な作業記憶 (同時に処理できる文脈情報) 容量を有していることを提示する。 ## 1 はじめに ニューラル言語モデルには,自然言語処理分野からの工学的な関心と, 計算心理言語学からの科学的な関心が寄せられている。近年では両分野の視点を融合させた研究も行われ,自然言語処理分野において工学的成功を収めたモデルに対して,心理言語学的な視点から,例えばヒトと同様の振る舞いをするか調査するといった試みが盛んである $[3,4,5,6,7]$. 読み活動のモデリング: 本研究では,ヒトの言語処理活動を忠実に再現するモデルを探求することで構成論的にヒトの言語処理を理解するという認知科学・計算心理言語学の立場をとる. 人工知能・認知科学分野の目標の一つは,ヒトの振る舞いを説明するモデルを作り,ヒトの理解を深めること (計算心理学) であり [8], 計算心理言語学では特にヒトの逐次的な読み活動 (読み時間など)をモデルの対象とする [9]. モデル・理解にも様々な段階が存在するが, ここでは,物理学が物体の複雑な運動を簡潔な数式 図 1 サプライザルを条件付ける文脈長 (横軸)を制御した場合の,ヒトの読み時間との傾向の近さ(縦軸) の変化. 例えば $\mathrm{n}=3$ は, 3-gram サプライザルの結果に対応する. 縦軸の値 (psychometric predictive power; PPP) が大きいほど,そのサプライザルがヒトの逐次的読み負荷をうまく説明することを表す. で説明しようとするように,ヒトが文を一単語ずつ読む際に示す逐次的な読み負荷を簡潔に説明する理想化されたモデルに関心がある. 自然言語処理技術の発展により,これまで計算が困難であった量を近似的に求め,読み負荷のモデルとして検証することが可能になった。例えば $-\log p$ (単語|長い文脈) はその最たる例であり,長い系列の頻度を数えて值を求めることは現害的でないが,ニューラル言語モデルを訓練することで,(少なくとも次の単語の出現を正確に予測するという観点で) 正確な值を算出できるようになった.このような発展も後押しし, 言語モデルや統語解析器が推定するサプライザル $(-\log p$ (単語|文脈 $))$ でヒトの読み負荷を説明しようとする,予測に基づく説明が 注目を集めた $[10,4]$. ヒトは次の単語の出現を予測しながら文を読んでおり,予測を裏切られると処理負荷が上がるという説明である。また次なる関心として,どのようなモデル・アルゴリズムで計算されるサプライザルがヒトの文処理をうまく説明するかが焦点となっている. 作業記憶の乘離: このようなヒトの文処理の機序を説明する視点からは,近年の強力な言語モデルを用いて認知モデリングを行うことが必ずしも妥当な選択ではないことを指摘する。具体的には,工学的に高い性能を示す LSTM や Transformer がヒトと比べて過剰な作業記憶 (同時に処理できる文脈情報の量)をもつことを実験的に示し, むしろ忘却が促される単純な再帰型ニューラルネットワーク [11] や n-gram モデルなどの方が,ヒトの読み活動の計算モデルとしては妥当である可能性を提示する. 近年のニューラル言語モデル (例えば Transformer [2] に基づくモデル) は数百から数千単語の文脈に同時にアクセスしながら次の単語を予測する設計であり,帰納バイアスとして非常に強力な作業記憶容量 (同時に処理できる文脈の量) を仮定している [3]. それに対して,一般にヒトの作業記憶は非常に制限されており, 高々 4 つ程度の項目を同時に処理することが限度などと示唆されている [12].例えば 10 桁程度の電話番号を一度で覚えることができるヒトはそういないだろう。ヒトの文処理もまた作業記憶の制約を受けていると考えられており,例えば長距離依存により読み負荷が増加することや [13], 関連する要素がなるべく近くに配置されるという言語の一般的な性質を説明する [14]. 実験と示唆: ヒトらしい作業記憶の模倣としてニューラル言語モデルに入力する文脈に制限を与えることで,よりヒトの文処理活動データ (視線停留時間) と近い,ヒトらしい振る舞いが促されるか,文処理活動データの説明力を損なわなかった (図 1). このことから,近年の言語モデルがヒトよりも強力な作業記憶を持つということを主張する。 本研究では作業記憶の局所性 (遠い情報ほどアクセスが難しい)を仮定し, 直近 $n-1$ 語の文脈から計算されるサプライザル ( $n$-gram サプライザル) とヒトの読み活動の近さを分析する. 日本語と英語の言語横断的な調査から,高々 3-gram 程度のモデルで計算されるサプライザルによりヒトの読み活動がうまく説明できる (日本語),または文脈を限っても説明能力を損なわない (英語)ことが示された. また,コーパス平均的に妥当な文脈長が定まらなかった英語の結果 (図 1 下) について分析すると,特定の語では長い/短い文脈を考慮したサプライザルが読み時間をうまく説明するといった,統語依存な傾向が観察された. 特に動詞の読み時間について,主語が離れているほど,長い文脈で読み時間を説明できた.この傾向は日本語では観察されず,英語における主語と動詞の数の一致や,日本語における (主語でなく) 主題の卓越性といった要因が,結果の言語依存性 (図 1) と関連している可能性がある. ## 2 記憶に基づく説明 文処理の計算論的モデルについて,予測に基づく説明とは伝統的に対立する形で,記憶に基づく説明が提唱されてきた.記憶に基づく説明では,離れた文脈情報へのアクセスには負荷がかかるなどの仮説をおいている [13,15]. 言語や現象に応じて予測と記憶の説明の妥当性は異なっていた $[16,17]$. 本研究は, 読み負荷のモデリングにおける予測と記憶の両側面の融合を試みた研究とも解釈できる. 本研究で扱う不完全な文脈に基づくサプライザルは両者を融合した指標として近年提唱されてきたものの [18],データに基づく検証は限られており,本研究はその妥当性について経験的な証拠を提供した。 また, n-gram モデルは予測と記憶の両側面を反映した典型的なモデルであるものの,特に近年はニューラル言語モデルの分析におけるべースラインとして,頻度ベースの n-gram 言語モデルが登場することが多く $[10,4,6]$, 両者はニューラルネットに基づくかなど複数の軸で仮定が異なるため,サプライザルの条件として適切な文脈について分野内で厳密に調査されていなかった. 本研究ではニューラル言語モデルの入力を制限し,文脈長の観点でのみ切り分けて分析を行う. ## 3 手法・実験設定 ヒトの逐次的な文処理負荷 (視線停留の長さ) と言語モデルが計算する指標の傾向の近さを測定する.作業記憶の局所性を踏まえ [13],本研究では,直前 $n-1$ 語を文脈として用いる $n$-gram サプライザルの認知的妥当性について分析し, $n$ を動かした際の影響を観察する。 不完全な文脈に基づくサプライザル: Left-toright 言語モデル $\theta$ によって計算される不完全な文脈に基づくサプライザルを用いる。言語モデルはサ ブワードを入力単位としているが,読み時間は単語 (英語) や文節 (日本語) といったより大きな単位に付与されている。読み時間データに従い,本研究では 「語」は英語の単語または日本語の文節を指す。 文中の $i$ 番目のサブワードを $w_{i}, i$ 番目の語を $s_{i}$ とする. 各語は 1 つ以上の連続するサブワー ドで構成される. ある語 $s_{i}=\left[w_{k}, \cdots, w_{l}\right]$ の文脈 $c_{<i}=\left[s_{0}, \cdots, s_{i-1}\right]$ における n-gram サプライザル $I_{\mathrm{n} \text {-gram }}$ を以下のように計算する. $ \begin{aligned} I_{\mathrm{n}-\operatorname{gram}}\left(s_{i}, c_{<i}, n\right) & =-\log p_{\theta}\left(s_{i} \mid s_{i-n+1}, \cdots, s_{i-1}\right), \\ & =\sum_{j=k}^{l}-\log p_{\theta}\left(w_{j} \mid w_{m}, \cdots, w_{j-1}\right) . \end{aligned} $ ここで, $w_{m}$ は, $s_{i-n+1}$ の開始サブワードを指す. 例えば日本語における 3-gram サプライザルでは,直前 2 文節を構成するサブワード系列を文脈として与えている。単語や文節のサプライザルは, 確率の連鎖律より,それらを構成するサブワードのサプライザルの和として計算する。なお,通常のテキストで学習した言語モデルを用い,推論時に文脈を制限することで $I_{\mathrm{n} \text {-gram }}$ を計算しており, 学習と推論の乘離については付録 A で議論する。 評価指標: 尺度 $I_{\mathrm{n}-\mathrm{gram}}$ の読み時間に対する説明力を一般化線形混合モデルで測定する. 具体的には, $I_{\mathrm{n} \text {-gram }}$ とベースライン素性を説明変数とし, 各語の視線停留時間を被説明変数とする回帰モデルを訓練する (付録 B). 同様に, $I_{\mathrm{n} \text {-gram }}$ を含まないべー スライン素性のみの回帰モデルも訓練し, 両回帰モデルが示す対数尤度 (当てはまりの良さ)を求める.両対数尤度の差のデータポイント数平均を「ヒトらしさ」の尺度 (psychometric predictive power; PPP)とし,PPPが大きいほど $I_{\mathrm{n}-\mathrm{gram}}$ が読み時間をうまく説明するとみなす。この PPPを n-gram サプライザルを計算する際の文脈長を変えて比較する。具体的には, $\{2,3,5,7,10,20\}$-gram サプライザルと, 文内の前方文脈すべてを用いる “full” 設定の計 7 設定を比較する. なお, 本研究の主たる関心は文の統語的処理であり,文を超えた文脈は考慮しない。 読み時間データ: Dundee corpus (英語) と BCCWJEyeTrack (日本語)を用いて英日横断的な検証を行う $[19,20]$. はずれ値などを除去し (付録 C), Dundee corpus では 217,876 データポイント, BCCWJEyeTrackでは 9,217 データポイントを用いる. 読み時間として,first pass duration を対象とする。言語モデル: Transformer/LSTM 言語モデルを利用した $[2,1]$. 詳細は付録 D に記載する。異なるシードで学習した 3 つのモデルの結果の平均と標準偏差を報告する。 ## 4 実験: ヒトらしい文脈長 はじめに,コーパス全体の傾向として,読み時間を平均何語の直前の文脈情報によってうまく説明できるか調査する (4 節). その後, 長い文脈で条件付けることの効能を調査する (5 節). 結果から,記憶のバイアスと統語のバイアスを確認した。 ## 4.1 結果 結果を図 1 に示す. 日本語ではある程度短い文脈に条件づいたサプライザル (3-gram サプライザル) が読み時間をうまく説明でき,英語では文脈を限っても認知的妥当性が大きく変化しないことがわかった. 英語での妥当性を保ちつつ,日本語での妥当性を向上させたという点で, 限られた文脈に基づくサプライザルが言語横断的に妥当な尺度であることが示唆された.言い方を変えると,文内のすべての文脈をニューラル言語モデルに与えサプライザルを計算する方法では,ヒトの読み活動を説明する上で過剩な文脈を考慮していると言える。 日本語: 日本語では文節 3-gram がもっとも良い PPP を達成し, 文脈を過度に用いて計算されたサプライザルはヒトの読み活動から乘離することが示された.このことは, ヒトの逐次的な統語処理の負荷が局所的な情報で説明できるというひとつの可能性を示唆する.また非常に荒い紐付けではあるが,作業記憶の限度としてしばしば挙げられる $4 \pm 1$ 項目という数と 3 文節という数は近しい [12]. 英語: 文脈長を変化させても PPP は大きく変化しなかった (図1下). 一つの解釈としては, データポイントに応じてサプライザルを条件付けるべき適切な文脈長が異なる可能性があり,コーパス平均的な傾向で見ると,文脈長を変えても PPP に変化がないように見えている可能性がある.特に,作業記憶の制約に反し, 長い文脈で条件付けることが適切であると観察されるケースがどのようなものであるか,次節でより詳しく分析していく. ## 5 分析: いつ長い文脈が有効か? 英語における遠い主語の存在が,対応する動詞の読み時間の説明に必要な文脈長を引き伸ばしている ことが示唆された。 設定: 4 節では,様々な条件でサプライザルを計算し,視線停留時間を説明する回帰モデルの当てはまりの良さを通して分析を行った. 本節では, 長い短い文脈条件で付けたサプライザルによる視線停留時間回帰モデル $\left(M_{\text {short }}, M_{\text {long }}\right)$ について,読み時間への当てはまりが悪い箇所を調査し比較する. 具体的には,長い文脈で条件づけたサプライザルを用いた回帰モデル $M_{\text {short }}$ と, 短い文脈で条件づけたサプライザルを用いた回帰モデル $M_{\text {long }}$ が推定するデータポイント (語)ごとの残差 (小さいほど回帰式が視線停留時間をうまく説明できている)を観察する。あるデータポイント集合 $D$ について, 長い文脈を考慮した $M_{\text {long }}$ による二乗残差平均 $r_{\text {long }}(\mathscr{D})$ が $M_{\text {short }}$ の示す二乗残差平均 $r_{\text {short }}(\mathscr{D})$ と比べてどれほど小さくなるかを,長い文脈を考慮する有効性とみなす。具体的には, $r_{\text {short }}(\mathscr{D})-r_{\text {long }}(\mathscr{D})$ を $D$ における長い文脈の貢献度 $(C)$ とし, $r_{\text {short }}(\mathscr{D})$ が大きく (当てはまりが悪く),$r_{\text {long }}(D)$ が小さくなる (当てはまりが良い) ほど $C$ は大きくなる。 $M_{\text {short }}, M_{\text {long }}$ として,2-gram と full の設定で当てはめた回帰モデルを用いた。また,文脈を考慮することの効果に焦点を当てるため,文の後方に出現する語に分析対象を限った. ${ }^{1)}$ 統語依存距離と記憶: 統語的に関連する前方要素に作業記憶が影響を受けている可能性をあげる [13]. 例えば, “Ken goes to the school.” と “Ken, who is my brother, goes to the school.”という文において, “goes” の処理の際に主語 “Ken” が意識されるのであれば,後者の文における “goes” の読み時間のモデリングに長い文脈が必要になると示唆される. 本分析では,主語と動詞の依存距離について分析を行う. ${ }^{2}$ 動詞に対応するデータポイント集合を,対応する主語との依存距離 (何語離れているか) に基づいて分割し, 各データポイント集合について長い文脈を考慮することの残差の減少量 Cを観察する。図 2 左より,主語が離れた動詞ほど読み時間のモデリングにおいて,長い文脈を用いることの有効性が確認された。このことから, 読み時間が主語と動詞の関係に強く影響を受けていることが示唆された。  図 2 動詞の読み時間のモデリングにおける,長い文脈の貢献度 $\mathrm{C}$ と主語との距離の関係. 同様の分析を日本語データで行ったところ,日本語では,主語と動詞の距離と,サプライザルを条件付ける文脈長との間に影響が観察されなかった (図2右).このことから,図 1 における言語依存な結果は,主語動詞間の長距離依存に対するヒトの振る舞いの違いと関連していることが示唆された. 英語では,主語と動詞に数の一致が課されていること, 日本語が主題卓越言語であるため主語の存在が読み手にとって意識的なものではないことなどがこの差異を生む要因として考えられる. 本研究では,記憶 (局所性) と統語のバイアスを外部的に文脈を編集して取り入れたが,どのようなモデル設計,学習を行うことでこのようなヒトらしい記憶の制約を獲得させることができるかは興味深い. ## 6 おわりに 本研究では,言語モデルに入力する文脈長を制限した実験から,近年自然言語処理分野で用いられるニューラル言語モデルが,ヒトに比べて過剩な作業記憶を有している可能性を提示した.特に近年言語モデルが注目を集め,ヒトの言語処理との比較にも分野の関心が向いている. もしヒトの逐次的文処理を純粋に再現し,ヒトの計算論的なモデルを探求することが研究の目的であれば,LSTM や Transformer といったモデルよりも,むしろ単純な再帰型ニュー ラルネットワーク [11] や n-gram のようなモデルを用いることが妥当かもしれない.また,本実験は不完全な文脈に基づくサプライザルの妥当性を経験的に支持し,読み活動データにおける記憶 (局所性) と統語的バイアスの相互的な作用を示唆した. ## 謝辞 本研究は JSPS 科研費 JP20J22697,JST さきがけ JPMJPR21C2 の支援を受けたものである. ## 参考文献 [1] Sepp Hochreiter and Jürgen Schmidhuber. Long ShortTerm Memory. Journal of Neural Computation, Vol. 9, No. 8, pp. 1735-1780, 1997. [2] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention Is All You Need. In Proceedings of NIPS, pp. 5998-6008, 2017. [3] Danny Merkx and Stefan L. Frank. Human Sentence Processing: Recurrence or Attention? In Procceding of CMCL 2021, 2020. [4] Ethan Gotlieb Wilcox, Jon Gauthier, Jennifer Hu, Peng Qian, and Roger Levy. On the Predictive Power of Neural Language Models for Human Real-Time Comprehension Behavior. In Proceedings of CogSci, pp. 1707-1713, 2020. [5] Ethan Wilcox, Pranali Vani, and Roger Levy. A targeted assessment of incremental processing in neural language models and humans. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 939-952, Online, August 2021. Association for Computational Linguistics. [6] Tatsuki Kuribayashi, Yohei Oseki, Takumi Ito, Ryo Yoshida, Masayuki Asahara, and Kentaro Inui. Lower perplexity is not always human-like. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics and the 11th International Joint Conference on Natural Language Processing (Volume 1: Long Papers), pp. 5203-5217, Online, August 2021. Association for Computational Linguistics. [7] Ryo Yoshida, Hiroshi Noji, and Yohei Oseki. Modeling human sentence processing with Left-Corner recurrent neural network grammars. In Proceedings of the 2021 Conference on Empirical Methods in Natural Language Processing, pp. 2964-2973, Online and Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [8] Stuart C Shapiro. Artificial intelligence (AI). In Encyclopedia of Computer Science, pp. 89-93. John Wiley and Sons Ltd., GBR, January 2003. [9] M W Crocker. Computational psycholinguistics. Computational Linguistics and Natural Language, 2010. [10] Adam Goodkind and Klinton Bicknell. Predictive power of word surprisal for reading times is a linear function of language model quality. In Proceedings of CMCL2018, pp. 10-18, 2018. [11] Jeffrey LElman. Distributed representations, simple recurrent networks, and grammatical structure. Mach. Learn., Vol. 7, No. 2, pp. 195-225, September 1991. [12] N Cowan. The magical number 4 in short-term mem- ory: a reconsideration of mental storage capacity. Behav. Brain Sci., Vol. 24, No. 1, pp. 87-114; discussion 114-85, February 2001. [13] Edward Gibson. The dependency locality theory: A distance-based theory of lingustic complexity. Image, language, brain, Vol. 2000, pp. 95-126, 2000. [14] Edward Gibson, Richard Futrell, Steven P Piantadosi, Isabelle Dautriche, Kyle Mahowald, Leon Bergen, and Roger Levy. How efficiency shapes human language. Trends Cogn. Sci., Vol. 23, No. 5, pp. 389-407, May 2019. [15] Richard L Lewis and Shravan Vasishth. An activationbased model of sentence processing as skilled memory retrieval. Cogn. Sci., Vol. 29, No. 3, pp. 375-419, May 2005. [16] Lars Konieczny. Locality and Parsing Complexity. Journal of Psycholinguistic Research, Vol. 29, No. 6, pp. 627-645, 2000. [17] Samar Husain, Shravan Vasishth, and Narayanan Srinivasan. Strong expectations cancel locality effects: evidence from hindi. PLoS One, Vol. 9, No. 7, p. e100986, July 2014. [18] Richard Futrell, Edward Gibson, and Roger P. Levy. LossyContext Surprisal: An Information-Theoretic Model of Memory Effects in Sentence Processing. Journal of Cognitive Science, 2020. [19] Alan Kennedy, Robin Hill, and Joël Pynte. The dundee corpus. In Proceedings of the 12th European conference on eye movement, 2003. [20] Masayuki Asahara, Hajime Ono, and Edson T Miyamoto. Reading-Time Annotations for "Balanced Corpus of Contemporary Written Japanese". In Proceedings of COLING, pp. 684-694, 2016. [21] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for Neural Text Processing. In Proceedings of EMNLP, pp. 66-71, 2018. ## A N-gram サプライザルの正確性 表 1 ニューラル/数え上げ n-gram 言語モデルのパープレキシティ.サブワードレベルの言語モデルで比較している. 本研究では,ニューラル言語モデルはコーパスを適当なブロックで区切ったチャンクをミニバッチとして訓練している. 各ミニバッチの先頭周辺では, n-gram 言語モデルのような学習が行われるが,全体としてみるとそのような訓練事例の数は限られているため,今回のようにニューラル言語モデルで n-gram サプライザルを求めた場合,学習と推論の乘離が想定される. しかしながら,サブワードレベルの n-gram サプライザルによって計算されるコーパスのパープレキシティを本実験の設定(ニューラル) と数え上げに基づく n-gram 言語モデルで比較すると,本設定の n-gram サプライザルの方が低いことが分かった. したがって, 本研究ではニューラル言語モデルが, 先頭数語のみを入力した際にも適切な振る舞いをしていると一旦結論づけた。パープレキシティは読み時間が付与されたコーパスで測定した。 ## B 回帰モデル 読み時間(RT)のモデリングは以下の式で行った: $ \begin{aligned} \text { RT } & \sim \text { surprisal + surprisal_prev_1 } \\ & + \text { surprisal_prev_2 + freq } * \text { length } \\ & + \text { freq_prev_1*length_prev_1 } \\ & + \text { screenN + lineN } \\ & + \text { segmentN + }(1 \mid \text { article })+(1 \mid \text { subj }) . \end{aligned} $ 各素性の概要は表 2 に示す. prev_1 などは, 一単語まえの該当する素性を示す。前の語のサプライザル (surprisal_prev_1と surprisal_prev_2)は, 周辺の語の処理負荷が読み時間に影響を与えるスピルオーバー効果を考慮して含めた.ただし,日本語においては有意な効果が観察されなかったため除いた。 ## C データの前処理 英語では以下のいずれかの条件に合致するデータポイントを,日本語では (a), (c), (e) のいずれかに合致するデー タポイントを除いた (a) 読み時間が 0 秒であるか,3 標準偏差から外れている (b) 句読点が含まれる (c) 数量を表す文字・語が含まれる \\ (d) 句読点・数量の次の語 (e) 読み時間測定時に画面上で各行の最初に提示されている表 2 回帰モデルで用いた素性 (f) 読み時間測定時に画面上で各行の最後に提示されている (b) と (f) に関しては,日本語に適用すると「考える。」のよ うな文末の文節がすべて除かれるため,適用しなかった。 ## D\cjkstart言語モデルハイパーパラメータ 表 3 にニューラル言語モデルのハイパーパラメータを示す。およそ 500 万文の日本語テキスト (Wikipedia と新聞) と,400万文の英語テキスト (Wikipedia)を学習データとして用い,10万回アップデートした言語モデルを用いた. 日本語テキストは,読み時間データの分割との一貫 & & \\ 性を保つため,一度国語研短単位に分割した後,BPEでサブワードに分割した ${ }^{3}$. 表 3 ニューラル言語モデルのハイパーパラメータ. Transformer (上) と LSTM (下). 3) SentencePiece [21] を用い,文字の網羅率を 0.9995 ,語彙数を 100,000とした.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT3-5.pdf
# 高速な契約書レビューのための計算量の削減 小林 尚輝 ${ }^{1}$ 真鍋 陽俊 ${ }^{2}$ 小田悠介 ${ }^{2,3}$ 1 東京工業大学 ${ }^{2}$ LegalForce Research 3 東北大学 データ駆動科学・AI 教育研究センター kobayasi@lr.pi.titech.ac.jp \{hitoshi.manabe, yusuke.oda\}@legalforce.co.jp ## 概要 契約書には様々な規定や条項が記述されている。関心のある条項を自動で抽出することによって,これまで人手で実施されてきたレビューの業務コストが削減できる。それらの関心のある条項を契約書から抽出する情報抽出タスクとして契約書レビューが取り組まれている。従来研究では,抽出する内容を質問文とした BERT を用いた質問応答 $(\mathrm{QA})$ モデルが広く使用されている。しかし,契約書のような長い文書を扱うための sliding window による小さな単位のテキスト(以下,セグメント)への分割と,質問文とセグメントを結合して入力事例とする BERT の構造から, 従来の QA モデルでは BERT による処理回数が膨大となり非効率である。提案手法は,軽量な分類器により各事例が抽出すべきテキストを含むかを事前に識別することで,性能をほとんど劣化させることなく, BERT により処理される事例の数を $44 \%$ 削減した. ## 1 はじめに 契約書は取引の内容を証するために作成され,互いの権利と義務を明確にする重要な役割を持つ. 契約締結リスクとなりうる規定や条項を契約書に記載しないために,専門家の手による契約書レビューは非常に重要な手続きとなる。しかし,数十ページにわたる契約書を専門家の手を借りてレビューするには高いコストを要する.そこで,自然言語処理技術を用いた契約書レビューの自動化によるコストの削減が期待されている。 このような背景から,契約書を対象とした研究が幅広く行われており,契約書レビューは契約書を入力として契約書に含まれる関心のある条項を抽出する情報抽出タスクとして研究されている。また,関心のある条項は契約書の種類によって異なるため, 図 1 BERT を用いた質問応答モデル 様々なデータセットとそれに応じた抽出項目が提案されている。取り分け,CUAD [1] は構成する契約書数が多く,アノテーションに多くの時間と費用を費やしている。 CUAD は契約書に対して,41 種類の抽出項目(例えば,当事者名を表す Parties や契約締結日を表す Agreement Date など)と各抽出項目に該当する契約書中のテキストスパンが付与されている.その他にも,秘密保持契約のみを対象とした ContractNLI [2] がある. ContractNLI は契約書に対して 17 通りの仮説が与えられ,それぞれの仮説が契約書中でどのように言及されたかを示す 3 つのラべル(含意する/矛盾する/言及されない)と,そのラべルの根拠となる契約書中の文が付与されている. 従来研究 $[1,2]$ では BERT [3] を用いた質問応答 (QA) モデルにより契約書に対する情報抽出を行っている.BERT は大規模なテキストから事前学習された言語モデルで,図 1 に示されるように [SEP] トークンで結合された質問文と文書のペアを入力事例(以下,事例)とし,回答となるテキストスパンの始点/終点を推定するように finetune することで質問応答 $(\mathrm{QA})$ タスクで高い性能を達成している.ここで,契約書を入力文書とし,抽出したい内容に応じた質問文と合わせて入力することで,BERTによる契約書を対象とした情報抽出が可能となる。 このとき,BERTが扱える最大長を超える契約書 図 2 QA モデルを用いた契約書レビューの手続き は sliding window を用いてより小さいセグメントへと分割されて処理される. BERT を用いた $\mathrm{QA}$ モデルによる契約書レビューは,数十ページに及ぶ契約書全体から質問文に該当するテキストスパンを抽出する。そのため, sliding window により分割された全セグメントに質問の数だけ BERT を適用する必要があり大幅に時間がかかる. しかし,抽出すべきテキストスパンは各質問に対して一つであるため,多くの事例は回答スパンを含まないという傾向がある. 実際に,CUADにおける $99.987 \%$ の事例は回答スパンを内包しない. そこで,本稿は $\mathrm{QA}$ モデルによる契約書レビュー を高速に行うために事例の削減を行う. 具体的には, 各事例に対し, 高速な分類器を用いて事例のセグメントが回答を内包するかどうかの二值分類を行い,分類器により回答を内包すると判別された事例のみを QA モデルの入力とすることで BERTにより処理される事例を削減する。 また,BERTの高速化手法として,重みパラメー タの削減によるモデルサイズの圧縮 [4] が提案されている.これらの手法と提案法はモデルサイズと処理するデータ量の異なるボトルネックへのアプロー チであり,速度改善において競合しない。 実験では,CUADをデータセットとして用いて, テキストスパンの抽出性能をほとんど損なうことなく44\%の事例を削減した。 ## 2 質問応答モデル 本節では BERT を用いた質問応答 $(\mathrm{QA})$ モデルの説明を行う. 図 1 に示されるように $\mathrm{QA}$ モデルは, トークン列により表現された質問文と文書を [SEP] トークンで結合して BERT の入力とし, 文書側の各トークンに適用された MLP により回答スパンの先 表 1 CUADと SQuADによる 1 文書あたりの事例数および回答を含む事例数とその割合の比較 頭/末尾のスコアを推定する.このときBERT の扱える最大長を超える文書は sliding windowを用いてセグメントに分解され,各セグメントごとに質問文と結合されて入力される. ## 3 計算量 本節では 1 契約書あたりの BERT の処理回数から契約書レビューにおける $\mathrm{QA}$ モデルの計算量を考える. 図 2 に示されるように,契約書レビューにおける抽出項目に対応した $M$ 通りの質問文と契約書に含まれる $N$ 個のセグメントが与えられ,それらの組み合わせが BERT に入力される。したがって,質問文とセグメントのペアである事例の数が BERT による処理回数となり,事例の数は $M \times N$ 通りとなる. CUAD から開発データとして抽出した 80 文書を対象として,1 文書あたりの事例数,および,回答を含む事例数との割合を算出1)した結果を表 1 に示す. 比較のために SQuAD [5] の開発データも同様に算出した. 表より,CUAD の事例数は SQuAD に比べて約 7.4 倍多い。つまり 1 文書あたりの BERTによる処理回数が約 7.4 倍となる。また,CUAD は事例数が多い一方で,SQuAD に比べ回答スパンを内包する事例数およびその割合が極めて低く,大半の事例が回答を含まないことがわかる。したがって,全ての事例 1)質問文は 64 トークン, sliding window はセグメントの大きさと stride 幅をそれぞれ 448,および 256 トークンとした. 図 3 LinearSVMを用いた分類器 に一様に BERT を適用する従来の QA モデルによる契約書レビューは,その計算量の殆どを回答を含まない事例に費やすことになり非効率的である。 ## 4 計算量を減らすための分類器 回答を含むセグメントを持つ事例はわずかであるため,事前に高速な分類器によって回答を含まないと判別できるならば,QA モデルに入力される膨大な事例数を減らすことができ,計算量の削減につながる. したがって,本節では各事例についてそのセグメントが質問に対する回答を内包するかを分類するための分類器を提案する. 提案する分類器の概要を図 3 に示す。 分類器には計算速度の観点から BERT と比較して高速に動作する LinearSVM を使用する。 QA モデルと一貫した入力形式を扱えるように,分類器の入力は QA モデルと同様にセグメントと質問文を用いる. セグメントは内包される uni-gram と bi-gram の TF-IDF ベクトル,質問文は Bag-of-Words ベクトルによりベクトル化して分類器の入力とする. ## 5 実験設定 ## 5.1 データセット 分類器の学習,評価に用いるデータセットは $\mathrm{CUAD}^{2)}$ を使用した. CUAD は,学習データと評価データが配布されており,学習データを分割して開発データを用意した。このとき,文書サイズの偏りを軽減するために学習データを文書の長さによってソートしたのち 10 個のビンへと分割し,各ビンにおいてランダムに $80 \%$ を新しい学習データ,残りの $20 \%$ 開発データとして分割した。 ## 5.2 評価尺度 本実験では $\mathrm{QA}$ モデルにより処理される事例を削減して計算量を減らすことが目的であるため,事例 図4 開発データを用いた class weight の変化における性能と削減率の比較 の削減率と $\mathrm{QA}$ モデルの性能の二つにより評価を行う. 削減率は全ての事例のうち,分類器によって回答を含まないと分類された事例の割合とする。 $\mathrm{QA}$ モデルの性能は予測したスパンと正解のスパンをもとに算出される。ここでは先行研究 [1] に従い,Precision at 80\% Recall (P@R80) により QA モデルの性能を評価する。 ## 5.3 ハイパーパラメータ 本実験の LinearSVM には scikit-learn [6] を利用し, クラスごとの正則化係数 $C$ を変化させる class weight の值を開発データにより選択した. class weight は図 4 の横軸に示される 0.5:0.5 から 0.99:0.01 の 10 通りから探索した. class weight を変化させたときの開発データによる $\mathrm{QA}$ モデルの性能と削減率を図 4 示す. 例えば class weight が 0.7:0.3 であれば,回答を含む,回答を含まないの各クラスに対応する正則化係数 $C$ にそれぞれ 0.7 と 0.3 が掛け合わされる. したがって,グラフの右側に行くにつれて回答を含むと分類されやすくなる. グラフの右端は分類器を用いない(全ての事例に回答を含むと分類した場合と等しい) ベースラインである。 開発データの結果から,性能が高い 0.97:0.03,および性能が高く削減率の良い 0.9:0.1 の 2 つの class weight を評価データでベースラインと比較することとした. ## 6 実験結果 表 2 に評価データによる実験結果を示す。性能と削減率がトレードオフである傾向は開発データと同様であり,class weight により削減率を制御できていることがわかる. 特に,class weight=0.9:0.1 において性能が 1.8 ポイント減少するが,44\%の事例を削 図 5 評価データによる class weight $=0.5: 0.5$ を対象としたラベルごとの性能の比較 表 2 評価データによる性能および削減率の比較 減できることを示した. また, class weight=0.97:0.03 において性能がわずかに向上する。これは事前に回答を含まない事例を削減することにより,QA モデルが候補として予測するスパンの質が向上したためと考えられる。 図 5 に評価データを用いたラベル毎の性能を示す. 事例の削減による各ラベルの性能低下の影響を調べるために,削減率の高い class weight=0.5:0.5 の分類器をべースラインと比較した. CUAD は 41 種類のラベルがあるが, ベースラインにおける $\mathrm{P} @ \mathrm{R} 80$ の値が 0 ポイントのラベルはグラフから除いた. ラベルは class weight=0.5:0.5 の性能によってソートされており,ラベルによって性能が低下するラべルとそうでないラベルがあることがわかる. 性能の劣化しなかった Governing Law や Agreement Date などのラベルは特定の表現(Governing Law であれば"governed by",Agreement Date であれば月を表す英単語など)を高い確率でセグメントに含んでおり,N-gramを素性とした分類器で十分に分類可能であったと考えられる。一方で,性能の劣化したラベルは N-gram で捉えられない,例えば,言い換えなどの表現が含まれると考えられる.この結果を踏まえて, 今後の改善として意味の近い単語を類似するべクトルによって表現できる単語分散表現 $[7,8]$ を素性として用いることが考えられる. ## 7 まとめ 本稿では,BERT を用いた QA モデルによる契約書レビューの高速化のために,BERT の入力事例を高速な分類器を用いて事前に分類することで QA モデルの計算量を削減する手法を提案した. CUADを用いた実験では,分類器のパラメータである class weight によりトレードオフの関係にある削減率と性能を選択できることを示し,評価データにおいては 1.8 ポイントのわずかな性能の低下で $44 \%$ の事例が削減できることを示した. さらなる今後の改善として, 分類器として用いた LinearSVMへの入力となるセグメントや質問文のベクトルを単語分散表現に置き換えることで言い換えなどに頑健な分類が可能になると考えられる。 ## 参考文献 [1] Dan Hendrycks, Collin Burns, Anya Chen, and Spencer Ball. Cuad: An expert-annotated nlp dataset for legal contract review. NeurIPS, 2021. [2] Yuta Koreeda and Christopher Manning. ContractNLI: A dataset for document-level natural language inference for contracts. In Findings of the Association for Computational Linguistics: EMNLP 2021, pp. 1907-1919, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [3] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 41714186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [4] J. S. McCarley, Rishav Chakravarti, and Avirup Sil. Structured pruning of a bert-based question answering model. 2019. [5] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pp. 2383-2392, Austin, Texas, November 2016. Association for Computational Linguistics. [6] F. Pedregosa, G. Varoquaux, A. Gramfort, V. Michel, B. Thirion, O. Grisel, M. Blondel, P. Prettenhofer, R. Weiss, V. Dubourg, J. Vanderplas, A. Passos, D. Cournapeau, M. Brucher, M. Perrot, and E. Duchesnay. Scikit-learn: Machine learning in Python. Journal of Machine Learning Research, Vol. 12, pp. 2825-2830, 2011. [7] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg S Corrado, and Jeff Dean. Distributed representations of words and phrases and their compositionality. In C. J. C. Burges, L. Bottou, M. Welling, Z. Ghahramani, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems, Vol. 26. Curran Associates, Inc., 2013. [8] Jeffrey Pennington, Richard Socher, and Christopher Manning. GloVe: Global vectors for word representation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1532-1543, Doha, Qatar, October 2014. Association for Computational Linguistics.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT3-6.pdf
# 賛成を得やすい文章の機械学習を利用した収集と分析 三木 謙志 1 村田 真樹 2 馬 青 3 1 鳥取大学工学部 電気情報系学科 2 鳥取大学大学院 工学研究科 情報エレクトロニクス専攻 3 龍谷大学 先端理工学部 数理・情報科学課程 1,2 \{b18t2111b@edu.murata@\}tottori-u.ac.jp ${ }^{3}$ qma@math . ryukoku . ac.jp ## 概要 本研究は Yahoo!ニュースのコメント欄を利用して賛成を得やすい文章の特徴の発見を目的とする. 賛成した人数とコメント時刻の情報を使用し,同じ記事に対する 2 つのコメントのどちらが賛成を得やすい文章かを機械学習を用いて推定させた. 推定させた結果,BERT,ME,SVMの順で正解率が高くなり, 一番正解率が高い BERT で 0.7506 となった. 素性分析の結果,賛成を得やすい文章の素性だと納得できる素性の発見はできていないが,賛成を得にくい文章の素性だと納得できる素性はいくつか発見した. ## 1 はじめに 本研究は Yahoo!ニュースのコメント欄を利用して賛成を得やすい文章の特徴の発見を目的とする. 賛成した人数とコメント時刻の情報を使用し, 同じ記事に対する 2 つのコメントのどちらが賛成を得やすい文章かを機械学習を用いて推定させる. 自動分類のみならず,なぜ自動分類できたかの理由を素性分析の技術を利用し,賛成を得やすい文章にどのような特徴があるかを分析する。この分析は賛成を得やすい文章の作成につながると考えている. ## 2 先行研究 文献 [1] では,どういう文章構造が説得力を持つかを調査している. 文献 [2] では, 政治のスピーチで説得力のある発話にタグを付与したコーパスを作成している. 文献 [3] では, 説得を行う文章の構造に関する調査をしている,説得力のある文章は,賛成を得やすい文章と類似するため,これらの研究は本研究に関連する. しかし,これらの研究は,文章構造や文章のパターンに基づき説得力について分析 を行っている。一方,端らの研究 [4] では,感動を与える文の作成支援のために感動を与える文の収集とそれらの分析を行った。研究結果では感動を与える文に多く出現する単語として,「人生」,「人々」,「我々」,「恋愛」,「喜び」などが確認された. 感動を与えるということは人の感情を摇さぶる単語であるので本研究においても注目すべき単語であると考える. 他にも似たような研究として村田らの研究 [5] [6] [7] も存在している. ## 3 提案手法 本研究では,最大エントロピー法 (ME), SVM, BERT の 3 種類の機械学習を利用し,知見獲得を行う. ## 3.1 ME 最大エントロピー法とは, あらかじめ設定しておいた素性 $f_{j}(1 \leq j \leq k)$ 集合を $F$ とするとき, 式 (1) を満足しながらエントロピーを意味する式 (2) を最大にするときの確率分布 $p(a, b)$ を求め, その確率分布にしたがって求まる各分類の確率のうち, もっとも大きい確率値を持つ分類を求める分類とする方法である. $ \begin{array}{r} \sum_{a \in A, b \in B} p(a, b) g_{j}(a, b)=\sum_{a \in A, b \in B} \tilde{p}(a, b) g_{j}(a, b) \\ \text { for } \forall f_{j}(1 \leq j \leq k) \\ H(p)=-\sum_{a \in A, b \in B} p(a, b) \log (p(a, b)) \end{array} $ ただし, $A, B$ は分類と文脈の集合を意味し, $g_{j}(a, b)$ は文脈 $b$ に素性 $f_{j}$ があってなおかつ分類が $a$ の場合 1 となり, それ以外で 0 となる関数を意味する.ま た, $\tilde{p}(a, b)$ は, 既知データでの $(a, b)$ の出現の割合を意味する。 式 (1) は, 確率 $p$ と出力と素性の組の出現を意味する関数 $g$ をかけることで出力と素性の組の頻度の期待値を求めることになっており, 右辺の既知デー タにおける期待値と, 左辺の求める確率分布に基づいて計算される期待値が等しいことを制約として, エントロピー最大化 (確率分布の平滑化) を行って,出力と文脈の確率分布を求めるものとなっている. ## 3.2 SVM SVM は,空間を超平面で分割することにより 2 つの分類からなるデータを分類する手法である. このとき,2つの分類が正例と負例からなるものとすると, 学習データにおける正例と負例の間隔 (マージン) が大きいものほどテストデータで誤った分類をする可能性が低いと考えられ,このマージンを最大にする超平面を求めそれを用いて分類を行う. ## 3.3 BERT BERT は, Bidirectional Encoder Representations from Transformers の略で,「Transformerによる双方向のエンコード表現」と訳され,2018 年 10 月に Google の Jacob Devlin らの論文 [8] で発表された自然言語処理モデルである.従来の機械学習では,大量のラベルのついたデータを用意させ,処理を行うことで課題に取り組む。しかし従来の手法に対し,BERT は事前学習でラベルのないデータをはじめに大量に処理を行う.その後,ファインチューニングで少量のラベルのついたデータを使用することで課題に対応させる. ## 3.4 データ作成 データの作成には Yahoo!ニュースのコメント闌にある,時刻と賛成した人数の情報を利用する.1,000 コメント以上投稿されている記事を対象に,コメントと時刻の情報を収集している. 同じ記事に投稿された 2 つのコメントにおいて,コメント時刻がより最近, 賛成した人数がより多いという 2 点を満たすコメントを賛成を得やすい文章,もう一方を賛成を得にくい文章だと定義する. そのような賛成を得やすい文章と賛成を得にくい文章を文章対として大量に作成する。ただし,一度でも文章対を作成する際に使用されたコメントは他の文章対では使用しないこととする. 例を以下に揭載する。 ・コメント A,賛成:4,234, コメント時刻:4 時間前 ・コメント B,賛成: 3,823 ,コメント時刻:2 時間前 ・コメント C,賛成:6,923,コメント時刻:8 時間前 ・コメント D,賛成:2,182,コメント時刻: 5 時間前 コメント Aを対の一方として文章対を作成する場合,定義に当てはめると文章対として使用できるもう一方はコメント D のみである。コメント Bを対の一方として利用する場合も同様にコメント Dのみであり,コメント C は高評価数は一番多いがコメント時刻が一番古いためどのコメントとも文章対を作成することはできない. よってこの4つのコメントで定義に当てはまり,文章対として使用できるコメント対はコメント A とコメント D,コメント B とコメント Dのみである. しかし, 本研究では文章対作成の際に一度使用したコメントは利用しないので文章対として使用できるのはどちらか一つとなっている.このように定義にあてはまる文章対をコメントデータから大量に作成する。 ## 3.5 推定方法 作成した文章対の一方の文章を左側,もう一方を右側として,左側の文章に"L"を右側の文章に"R"を付与したものを学習データとする. 文章対を入力と L,"L","R"を出力とする.入力が与えられるとそれに対する出力を推定できるように機械学習 (最大エントロピー法 (ME),SVM,BERT) で学習する。 3.4 節の文章対を学習データとした場合の例を以下に示す. 例のように作成した文章対に"L"と"R" と,それに対し文章を反転させたものも同時に学習データとして使用する. $ \begin{aligned} & \text { ・ } \mathrm{L}, \text { コメント } \mathrm{A}, \text { コメント D } \\ & \text { ・R, コメント D, コメント A } \end{aligned} $ 例のような学習データを機械学習で右側の文章対の場合に左側の"L" or "R"となるように学習する. そして別の右側の文章対を大力しその場合の"L" or "R"を推定する. 左側の文章が賛成を得やすいと判断した場合は"L"を,右側の場合は"R"を出力する。 ## 3.6 素性 ME,SVM では文章対において左側の文章にある単語は「 $\mathrm{L}$ : 単語」, 右側にある単語は「R:単語」と 「コメントの文字数」を素性として利用する. BERT に入力する際は素性の入力は不要なので文章対のみ を大力している. 「コメントの文字数」の素性は「L: ~以下」,「L: より大きい」,「R:~以下 $\lrcorner, 「 \mathrm{R}$ : より大きい」としおり,〜には「10」,「20」.「50」,「100」,「200」, $「 500 」, 「 1,000 」$ のいずれかの数字がコメントの文字数に応じて入る.また,「コメントの文字数」を素性とせずに単語だけを素性とする実験も行っている. ME は正規化 $a$ 値, SVM は分離平面を用いて素性分析を行う.MEでは,正規化 $\mathrm{a}$ 值の高いものが重要な素性となる.SVM では「L:単語」などの 1 単語を入力し, 分離平面からの距離が大きいものが重要な素性となる. 文章対を用いた BERT の素性分析は困難なため行っていない. ## 4 実験 ## 4.1 推定実験 1,000 コメント以上を持つ記事を 300 記事分収集し,同記事内の賛成数とコメント時刻の 2 つの条件を満たすコメントから文章対を作成している。対とするコメントの組み合わせは条件を満たすコメントからランダムに決定している. 作成した 16,342 組の文章対のうち,8,172 組を学習データ,8,170 組をテストデータとする.BERT では 8,172 組の学習データのうち,2,045 組を検証データ,6,129 組を訓練データとして実験を行っている。 表 1 は機械学習により"L" or "R"のどちらの文章が賛成を得やすいかを推定したときの正解率を示している. 表 1 機械学習の性能評価 表 1 に示されているように BERT,ME,SVM の順で正解率が高いことがわかる。一番性能が高い BERT で 0.7506 という正解率を得た. また,今回の実験では ME,SVM ともに文字数の素性の有無で性能が大きく変化することはなかったが文字数の素性を利用するほうが正解率がわずかに高くなった. ## 4.2 ME の素性 ME の素性分析の結果で得られた素性の上位 10 個を表 2 と表 3 に示す。表 $2 \mathrm{ME}$ の素性 表 $3 \mathrm{ME}$ の素性 (文字数素性無し) 表 $4 \mathrm{ME}$ の素性 (文字数素性のみ) 表 2 と表 3 から文字数の素性の有無では賛成を得やすい文章の素性にはあまり変化が見られなかった. ME の文字数素性だけを抜き出したのが表 4 である。表 4 からは 100 字より多い文字数の文章が一番賛成を得やすい文量だと読み取れる, ## 4.3 SVM の素性 SVM の素性分析の結果で得られた素性の上位 10 個を表 5 と表 6 に示す. 表 5 SVM の素性 表 6 SVM の素性 (文字数素性無し) 表 7 SVM の素性 (文字数素性のみ) 表 5 と表 6 から読み取れるようにSVM もME と同様に文字数の素性の有無では賛成を得やすい文章 の素性にはそこまで変化が見られなかった.SVM の文字数素性だけを抜き出したのが表 7 である.表 7 からは 200 字より多い文字数の文章が一番賛成を得やすい文量だと読み取れる, ## 4.4 素性分析 本研究では素性分析を用いて重要素性の獲得をする. 4.2 節と 4.3 節の表 2 から表 7 に ME,SVM の機械学習で獲得できた上位 10 素性を掲載している.良い素性とされている「う一ん」,「予防」,「現場」,「任意」などは上位 10 素性に共通して現れているが,これらの単語が要因で賛成を得ているとは考えにくい。逆に悪い素性に共通して現れている「バ力」,「幼稚」などは抽象的に誰かを批判する単語なのでこれらの単語が含まれている文章は内容がなく,賛成を得にくいのではないかと考えている. また,ME では 100 文字より大きい文字数の文章が賛成を得やすいとされ,SVMでは 200 文字より大きい文字数の文章が賛成を得やすいとされていることから,賛成を得やすい文章にはある程度の文字数が必要になるのではないかと考えている. ## 5 おわりに 本研究では賛成を得やすい文章の特徴の発見を目的としている. Yahoo!ニュース内にある 1,000 コメント以上持つ 300 記事からコメント時刻と賛成した人数の情報を使用し, 同じ記事に対する 2 つのコメントを比較する。その際にコメント時刻がより最近であるコメント,賛成した人数がより多いコメントの 2 点を満たすコメントを賛成を得やすい文章だと定義する。この 2 点を満たすコメントで文章対を大量に作成し,どちらの文章が賛成を得やすいかを教師あり機械学習を利用し推定させた. 推定させた結果,BERT,ME,SVM の順で正解率が高くなっている. 一番性能が高い BERT の正解率が 0.7506 となった. 素性分析では,賛成を得やすいとされた素性に納得できる単語はなかったが,賛成を得にくいとされた素性には納得できる素性が存在した. 今後は分野によって良い素性は変化するかなどの分野依存性や高評価だけでなく定義の部分で低評価数も考慮した賛成を得やすい文章の分析を行い,今回の研究と比較し,違いの発見などを目指す. ## 参考文献 [1] 石黒圭. 日本語学習者の作文における文章構成と説得力の関係. 一橋大学国際教育センター紀要, Vol. 8, pp. 3-14, 2017. [2] Marco Guerini, Carlo Strapparava, and Oliviero Stock. Corps: A corpus of tagged political speeches for persuasive communication processing. Journal of Information Technology \& Politics, Vol. 5, No. 1, pp. 19-32, 2008. [3] Christian Stab and Iryna Gurevych. Identifying argumentative discourse structures in persuasive essays. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 46-56, 2014. [4] 端大輝, 村田真樹, 徳久雅人. 感動を与える文の自動取得と分析. 言語処理学会第 18 回年次大会, pp. 303-306, 2012. [5] 村田真樹, 西村涼, 金丸敏幸, 土井晃一, 松岡雅裕, 井佐原均. 情報の重要度を決める要因の抽出・分析と重要度の自動推定. 言語処理学会第 14 回年次大会, pp. 907-910, 2008 [6] 村田真樹, 西村涼, 金丸敏幸, 土井晃一, 鳥澤健太郎. ユーザ個人の興味の影響を考慮した情報の重要度を決める要因の抽出 - 分析. 言語処理学会第 15 回年次大会, pp. 554-557, 2009. [7] Masaki Murata, Kiyotaka Uchimoto, Masao Utiyama, Qing Ma, Ryo Nishimura, Yasuhiko Watanabe, Kouichi Doi, and Kentaro Torisawa. Using the maximum entropy method for natural language processing: Category estimation, feature extraction, and error correction. Cognitive Computation, Volume 2, Issue 4, pp. 272-279, 2010. [8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT3-7.pdf
# 日本語法律分野文書に特化した BERT の構築 宮崎桂輔菅原祐太山田寛章 徳永健伸 東京工業大学 情報理工学院 \{miyazaki.k.am@m, sugawara.y.ag@m, yamada.h.ax@m, take@c\}.titech.ac.jp ## 概要 本論文では日本語の法律分野に特化した BERT モデルを提案する。民事事件判決書コーパスを用い,BERTを一から事前学習するモデルと,既存の汎用日本語 BERT に追加事前学習するモデルを作成した。実験より,民事事件判決書を用いた Masked Language Model,Next Sentence Prediction タスクについては既存の汎用日本語 BERT に追加事前学習する手法が最も良い正解率を示すことがわかった. ## 1 はじめに 近年,単言語,特定分野の文書に関するタスクにおいて,言語にのみ特化した汎用言語モデルに代わりドメインに特化した言語モデルが注目されている. 英語の科学論文 [1], 生物医学論文 [2], 法律文書 [3] を用いて構築したドメイン特化 BERT が複数の後段タスクで汎用 BERTを超える性能を示しており,タスクによっては最先端の結果を示している.日本語においても, 医学分野 [4], 金融分野 [5] などでドメインに特化した BERT が汎用日本語 BERTを超える性能を示している. 本論文では日本語の法律分野に特化した BERT モデルを提案する。なお,英語 [3] やフランス語 [6], ルーマニア語 [7] などで法律分野に特化した BERT を構築する先行研究がある.また,最高裁判所の民事事件の判例を使用して BERT を事前学習する先行研究 [8] があるが,本論文では文書数にして 10 倍以上のより大規模なコーパスを用いて事前学習を行った. ## 2 モデルの構築 ## 2.1 日本語法律分野コーパス 本研究では,日本語法律分野コーパスとして株式会社 LIC より提供された日本の民事事件の判決書 (以下,民事事件判決書コーパスと記載)を用いた。 コーパス中の文書数は 170,320 , 文書当たりの平均文字数は約 11,300 字,コーパス全体のデータサイズは約 5.4GB である. ## 2.2 作成するモデル 英語法律分野文書に特化した BERTを構築する先行研究 [3] に倣い, 二種類のモデルを作成した. どちらもモデルの構造として BERT-BASE [9]を用いた. JLBERT-SC BERT を民事事件判決書コーパスを用いて一から事前学習したモデルである。語彙は民事事件判決書コーパスから作成した. JLBERT-FP 既存の汎用日本語 BERT に民事事件判決書コーパスによる追加事前学習を行ったモデルである. 語彙は既存の汎用日本語 BERT のものをそのまま使用した。 ## 3 実験設定 ## 3.1 訓練データ, テストデータへの分割 NVIDIA による BERT の実装 [10]を参考に,後述の文分割を行った後の文の数の比がおよそ 9:1 となるように,コーパス内の文書を訓練データ,テストデータに分割した。 ## 3.2 民事事件判決書コーパスのトークン化 民事事件判決書コーパスに対し, データの前処理および文分割,形態素分割,サブワード分割によるトークン化を行った。 データの前処理前処理として, 民事事件判決書コーパスに含まれる判決書の先頭に記載されている以下の情報は削除した. ・コーパス提供者が割り振った判例番号 - 民事事件記録符号規程により裁判所が付ける事件番号 - 事件名 また,インデントに使われている全角スペースはすべて削除し,それ以外の全角スペースが複数並んでいる箇所についてはスペース一つに置換した。 文分割次に文分割を行った。句点の直後に括弧閉じが存在する場合のみを例外として扱い,それ以外のすべての改行及び句点を文末とした. 文分割したコーパスの特徴は付録の表 4 の通りである。 形態素分割次に JUMAN++ [11] を用いて文を形態素に分割した. JUMAN++の入力文長制限である 4,096 bytes を超える文については,4,096 bytes を超えないように読点の位置で文を分割した. この処理後も 4,096 bytes を超える文については,文頭から 4,096 bytes を超えないように貪欲に文字列を取って一文とみなすことを繰り返すことで文分割を実施した. サブワード分割最後に,BPE [12] によるサブワード分割を行った. JLBERT-FPでは,柴田らが公開している既存の汎用日本語 BERT [13] の語彙を用いて BPEを適用した。また,JLBERT-SC では,訓練データから語彙を学習し, 学習した語彙を用いて BPE を適用した。なお,JLBERT-SC の語彙は汎用日本語 BERT に合わせ,語彙数を 32,000 とした. サブワード分割を行ったコーパスの特徴は付録の表 5,6 に示す通りである. ## 3.3 モデルの事前学習の設定 NVIDIA による BERT の実装 [10] を参考に,事前学習の設定を行った。 ## 3.3.1 事前学習で扱うタスク BERT の事前学習では,以下の二つのタスクで学習を行う。 Masked Language Model (MLM) ランダムにマスキングされた文中のトークンについて,マスキングされる前の正しいトークンを予測するタスクである.なお,マスキングの対象とされたトークンのうち,80\%は [MASK] トークンに,10\%はランダムなトークンに置き換えて,残りの $10 \%$ は元のトークンのままモデルに入力する. Next Sentence Prediction (NSP) 与えられた二文が文書内で連続していたかどうかを予測するタスクである.文書内に実在する連続する 2 文を正例,文書内からランダムに抽出した連続しない 2 文を負例とし,正例と負例を $50 \%$ ずつの割合にして学習を行う. ## 3.3.2 事前学習の流れ 事前学習は, phase 1 と phase 2 の二段階に分けて行った. phase 1 では,入力文の長さの上限を 128 トークンとし, MLM タスクでは一文あたり $\min (20$,文中のトークン数の $15 \%$ ) トークンをマスクした. phase 2 では, 入力文の長さの上限を 512 トークンとし, MLM タスクでは一文あたり $\min (80$, 文中のトー クン数の $15 \%$ ) トークンをマスクした. ## 3.3.3 モデルの詳細, ハイパーパラメータ JLBERT-SC,JLBERT-FP 共にモデルの構造は BERT-BASE [9] とした. JLBERT-FP では, 初期パラメータとして柴田らが公開している汎用日本語 BERT [13] の BASE WWM 版のパラメータを使用した. optimizerには LAMB [14] を使用した. その他のハイパーパラメータは付録の表 8,9 に記す.なお,本設定では phase 1 における 1 epoch はミニバッチ入力回数約 68 万回,約 5,300steps(1GPU の場合), phase 2 における 1 epoch はミニバッチ入力回数約 192 万回,約 3,700steps(1GPU の場合) に対応する. ## 3.3.4 実行環境 BERT の事前学習には, NVIDIA RTX A6000 GPU を 4 つ使用した. モデルの事前学習にかかった時間は, phase 1 が約 28 時間,phase 2 が約 18 時間,合わせて約 46 時間であった。 ## 3.4 JLBERT-FP の学習データ数削減によ る性能の変化 追加実験として,学習データ量の違いによる性能の変化を検証するため,学習データの数を段階的に削減して JLBERT-FP の事前学習を行い, MLM, NSP の各タスクにおける性能を比較した。 ## 3.4.1 学習データ 学習データとして, JLBERT-FP の学習データを文書単位でおよそ $50 \%$ ,25\%に削減したデータセットを用意した.これらのデータセットに関する情報は付録の表 7 の通りである.これらのデータセットを用いて事前学習を行ったモデルを以下 JLBERT-FP-50\%,JLBERT-FP-25\%と略記する。 ## 3.4.2 実験設定 実験設定は以下に記載する事項を除き 3.3 と同じとした. JLBERT-FP-50\%, JLBERT-FP-25\%の事前学習の設定には, 3.3 と比較して以下の変更がある. ・GPUを 1 つ用いて学習を行った. 実効バッチサイズは $1 / 4$ となっている. ・学習 step 数は変わらず実効バッチサイズが $1 / 4$ となっていることから,ミニバッチ入力回数は 1/4 となっている. ・学習データ数がそれぞれおよそ $1 / 2 , 1 / 4$ ,ミニバッチ大力回数が $1 / 4$ となっていることから, epoch数はそれぞれおよそ $1 / 2$ 倍, 等倍となっている. ## 3.5 非法律ドメインの文書分類 法律ドメインに特化して事前学習を行った BERT の,法律以外のドメインにおけるタスクの性能を検証する。ここでは, livedoor ニュースコーパス [15] を用いて,JLBERT-SC,JLBERT-FP と汎用日本語 BERT の間で性能比較を行った。 ## 3.5.1 データセット,タスク livedoorニュースコーパスは,「livedoorニュース」内の 9 つのカテゴリのニュース記事からなるコー パスである. 本研究では, 記事の内容からその記事のカテゴリを予測する文書分類タスクを行った.記事数は 7,367 件であり,データセットに占める各力テゴリの記事の割合が等しく記事数がおよそ $8: 1: 1$ となるように学習,テスト,検証データセットに分割した。学習,テスト,検証データセットそれぞれについて,各カテゴリに属する記事の件数は付録の表 10 の通りである. ## 3.5.2 livedoor コーパスのトークン化 livedoorニュースコーパスに対し,データの前処理および文分割,形態素分割,サブワード分割によるトークン化を行った. 本研究では,コーパス内の各文書の先頭三行 (記事のリンク,記事作成日時,記事の題名) を削除することとした。また,文書内の半角英数字,記号については,全て全角のものに変換した. 文分割は改行のみを文末とした. 形態素分割,サブワード分割については,3.2 と同様に JUMAN++および BPE を用いた. モデルに入力するトークン列の長さの上限は 512 とした. ## 3.5.3 モデルの詳細, ハイパーパラメータ 比較するモデルとして,JLBERT-SC,JLBERT-FP および柴田らが公開している汎用日本語 BERT [13] の BASE WWM 版を用いた。optimizer は Adam [16]表 1 事前学習の各タスクの正解率 表 2 livedoorニュース文書分類タスクの正解率 とし, 学習率を $\left.\{10^{-3}, 10^{-4}, 10^{-5}, 10^{-6}\right.\}$ の中で探索した. バッチサイズは 32 とした. ## 4 実験結果 ## 4.1 JLBERT-SC, JLBERT-FP の事前学習 作成した JLBERT-SC,JLBERT-FP,JLBERT-FP$50 \%$ ,JLBERT-FP-25\%それぞれについて,学習デー 夕全体に対する MLM,NSP の正解率を表 1 に示す. この結果から,民事事件判決書の MLM,NSP では,一から民事事件判決書コーパスで事前学習を行う JLBERT-SC より汎用日本語 BERT に民事事件判決書コーパスによる追加事前学習を行う JLBERT-FP の方が優れた手法であると言える。また,追加事前学習に用いるデータの量は多ければ多いほど良いことがわかる。したがって,コーパスサイズを増やすことで更なる性能向上が期待できる。 また,各ステップにおけるミニバッチに対する loss および MLM,NSP の正解率の推移をそれぞれ図 1, 2, 3 に示す. なお, 図 3 中の loss とは, MLM, NSP それぞれの loss の和である。この図から,MLM については学習データからさらに学習する余地があることがわかる。 さらに, phase 2 におけるテストデータに対する MLM,NSP の正解率の推移を表 3 に示す。この結果より,JLBERT-FP,JLBERT-SC 共に phase 2 の step 数を増やすほどモデルの性能が良いことがわかる. したがって, step 数を増やすことで更なるモデルの性能向上が期待できる. 表 3 phase 2 における各タスクの正解率推移 図 1 実効バッチに対する MLM 正解率の推移 ## 4.2 livedoor ニュース文書分類結果 各モデルの文書分類タスクにおける正解率を表 2 に示す. 民事事件判決書コーパスのみから語彙の学習,事前学習を行ったモデルである JLBERT-SC が汎用日本語 BERT に並ぶ正解率を示している. 今回使用した汎用日本語 BERT が事前学習時に最大入力トークン長を 128 とした学習のみ行なっていることを踏まえると,提案手法において事前学習時に最大入力トークン長を 128 とした学習 (phase 1) に加えて最大入力トークン長を 512 とした学習 (phase 2) を実施していることの有効性が推測できる。また,汎用日本語 BERT に対する民事事件判決書コーパスによる追加の事前学習は, 法律分野以外のドメインのタスクにおいて BERT の fine-tuning に悪影響を及ぼすことがわかる. ## 5 おわりに 本論文では日本語の法律分野に特化した BERT モデルを作成した. 実験の結果,既存の汎用日本語 図 2 実効バッチに対する NSP 正解率の推移 図 3 実効バッチに対する loss の推移 BERT に民事事件判決書コーパスによる追加事前学習を行う手法により,テストデータに対する Masked Language Model,Next Sentence Prediction タスクの正解率が最も高くなることがわかった. また, 学習データ数や学習 step 数を増やすことによりモデルの更なる性能向上が期待できることが示された. 本モデルの後段タスクにおける有用性を実証するために,JLBERT-SC,JLBERT-FPを用いて判決書の重要箇所抽出タスクを行う [17]. ## 謝辞 本研究で使用した判決書データは株式会社 LIC から提供を受けたものである. 本研究は,JST, ACT-X,JPMJAX20AM の支援を受けたものである. ## 参考文献 [1] Iz Beltagy, Kyle Lo, and Arman Cohan. SciBERT: Pretrained language model for scientific text. In EMNLP, 2019. [2] Jinhyuk Lee, Wonjin Yoon, Sungdong Kim, Donghyeon Kim, Sunkyu Kim, Chan Ho So, and Jaewoo Kang. BioBERT: a pre-trained biomedical language representation model for biomedical text mining. 092019. [3] Ilias Chalkidis, Manos Fergadiotis, Prodromos Malakasiotis, Nikolaos Aletras, and Ion Androutsopoulos. LEGALBERT: The muppets straight out of law school. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 2898-2904, Online, November 2020. Association for Computational Linguistics. [4] Yoshimasa Kawazoe, Daisaku Shibata, Emiko Shinohara, Eiji Aramaki, and Kazuhiko Ohe. A clinical specific BERT developed using a huge japanese clinical text corpus. PLOS ONE, Vol. 16, No. 11, pp. 1-11, 112021. [5] 鈴木雅弘, 坂地泰紀, 平野正徳, 和泉潔. 金融文書を用いた事前学習言語モデルの構築と検証. 人工知能学会第 27 回金融情報学研究会 (SIG-FIN), 2021. [6] Stella Douka, Hadi Abdine, Michalis Vazirgiannis, Rajaa El Hamdani, and David Restrepo Amariles. JuriBERT: A masked-language model adaptation for French legal text. In Proceedings of the Natural Legal Language Processing Workshop 2021, pp. 95-101, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [7] Mihai Masala, Radu Cristian Alexandru Iacob, Ana Sabina Uban, Marina Cidota, Horia Velicu, Traian Rebedea, and Marius Popescu. jurBERT: A Romanian BERT model for legal judgement prediction. In Proceedings of the Natural Legal Language Processing Workshop 2021, pp. 86-94, Punta Cana, Dominican Republic, November 2021. Association for Computational Linguistics. [8] 星野玲那, 狩野芳伸. 司法試験自動解答を題材にした BERT による法律分野の含意関係認識. 言語処理学会第 26 回年次大会, 2020. [9] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [10] NVIDIA. BERT For PyTorch,(2022-01 閲覧). https: //github.com/NVIDIA/DeepLearningExamples/tree/ master/PyTorch/LanguageModeling/BERT. [11] Arseny Tolmachev and Sadao Kurohashi. Juman++ v2: A practical and modern morphological analyzer. 言語処理学会第 24 回年次大会, 岡山, 2018. [12] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [13] 柴田知秀, 河原大輔, 黒橋禎夫. BERT による日本語構文解析の精度向上. 言語処理学会第 25 回年次大会, 名古屋, 2019 . [14] Yang You, Jing Li, Sashank Reddi, Jonathan Hseu, Sanjiv Kumar, Srinadh Bhojanapalli, Xiaodan Song, James Demmel, Kurt Keutzer, and Cho-Jui Hsieh. Large batch optimization for deep learning: Training BERT in $76 \mathrm{~min}-$ utes. In International Conference on Learning Representations, 2020. [15] 株式会社ロンウイット. livedoorニュースコー パス,(2022-01 閲覧).http://www.rondhuit.com/ download.html\#ldcc. [16] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Yoshua Bengio and Yann LeCun, editors, 3rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. [17] 菅原祐太, 宮崎桂輔, 山田寞章, 徳永健伸. 日本語法律 BERT を用いた判決書からの重要箇所抽出. 言語処理学会第 28 回年次大会, 2022. ## 付録 表 4 コーパス文分割時のデータ 表 5 トークン化されたコーパスのデータ (JLBERT-SC) 表 6 トークン化されたコーパスのデータ(JLBERT-FP) 表 7 token 化されたコーパスのデータ (JLBERT-FP-n\%) 表 8 モデルのハイパーパラメータ 表 9 事前学習のハイパーパラメータ 表 10 livedoorニュースコーパスのカテゴリ
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT3-8.pdf
# 単語分散表現を用いた新型コロナウイルスによる意味変化検出 高橋寛武 石原祥太郎 ${ }^{1}$ 白井穂乃 1 1 株式会社日本経済新聞社 hiromu.takahashi56@gmail.com \{shotaro.ishihara,hono.shirai\}@nex.nikkei.com ## 概要 本稿では日本語の新聞記事データを題材に,新型コロナウイルス感染症で意味が変化した単語を検出する手法を提案する。最初に,実データを用いて時系列の推移で単語分散表現の性能が悪化する可能性を検証し,単語の意味変化を検出する意義を議論した. 次に先行研究に独自の工夫を施した手法を用いて, 意味が変化した「コロナ」「まん延」といった単語を導出した. 最後に単語分散表現全体の変化度合いを計算する方法を提案し,新型コロナウイルス感染症による単語の意味変化の大きさを確認した. ## 1 はじめに 新型コロナウイルス感染症の世界的な流行を背景に,日常生活にもさまざまな変化が生じている.変化したものの一つに言葉の使い方があり, 新しい生活様式に応じた新語や流行語が登場した. 2020 年度の「ユーキャン新語・流行語大賞」では, 新型コロナウイルス感染症の集団感染を避けるための行動を表す「3密(密閉、密集、密接)」が年間大賞に選ばれた1) 「密」という語自体は従来から存在していたが,新しい意味を伴い日常で使用されている. このような単語の意味変化は semantic shifts や semantic change と呼ばれ,言語学・社会学的な意義だけではなく, 自然言語処理・検索などの情報科学の観点でも関心が寄せられている [1]. たとえば近年は大規模事前学習言語モデルが飛躍的な発展を遂げているが,このような言語モデルの性能は単語の意味変化に伴い悪化することが示されている [2][3].人間が扱う言語の変化については古くからさまざまな観点で研究されてきた [4]. 近年は大規模なコーパスが利用可能になると共に, 単語分散表現 [5] を用いて単語の意味変化を捉えようとする取り組みが加速した [6]. たとえば Gulordava ら [7] は, 1960 年代と 1990 年代のコーパスにおける分布を比較し 1) https://www.jiyu.co.jp/singo/index.php?eid=00037「sleep」という単語が睡眠障害に関してより否定的な意味合いになったという文化的な変化を確認した. 単語分散表現の設計についても,コーパスを時間軸で分割するのではなく通時的に捉えたり [8], 時系列性に加えて文脈も考慮したり [9] と,意味変化の影響を軽減する取り組みも存在する。新型コロナウイルス感染症関連では Guo ら [10] が,Twitter ${ }^{2}$ から抽出したコーパスを時系列で分析し, 単語の意味の変化を観察した. 日本語での研究事例は少なく,単語の意味変化の検出手法は確立されていない. 同様に,時系列に沿った意味変化に伴う単語分散表現の性能悪化の可能性についても議論が少ない. 本研究では日本語の新聞記事データを題材に,新型コロナウイルス感染症で意味が変化した単語を検出する手法を構築する. 第 2 章では初めに,時系列に沿った意味変化に伴う単語分散表現の性能悪化について検証し, 近年の自然言語処理領域の文脈で単語の意味変化を検知する意義を議論する.次に第 3 章では提案手法を説明し,第 4 章では実験結果について述べる. 最後に第 5 章では本稿を総括する. ## 2 単語の意味変化に伴う性能劣化 本章では,時系列に沿った意味変化に伴う単語分散表現の性能悪化を検証する。具体的には新型コロナウイルス感染症の流行前後における性能の違いと時系列ごとの性能の違いという 2 つの設定で予備実験を行う. ## 2.1 word2vec モデルの構築 単語分散表現の獲得には, 先行研究でも数多く利用されている word2vec[5]を利用する。コーパスには,株式会社日本経済新聞社が提供するニュース配信サービス「日経電子版 ${ }^{3)}$ の新聞記事データを用いる. 取得期間はサービスが開始された 2010 年 3 月 23 日 2021 年 11 月 30 日である. 予備実験では,  特定の期間を切り出して学習用に用いることで,単語分散表現の違いを検証する。 word2 vec モデルの構築には, gensim[11]を利用する.テキストの前処理として HTML タグやURL を削除し,分かち書きには MeCab[12],辞書には mecab-ipadic-NEologd[13]を用いる. ## 2.2 word2vec モデルの評価 日経電子版の新聞記事データを用いて,日経電子版の新聞記事データ(2010 年 3 月 23 日〜2019 年 10 月 31 日)で学習した word2vec モデルの性能を検証する。比較対象には,WikiEntVec[14],白ヤギ4), chiVe[15]の 3つの word2vec モデルを用いる. モデルの比較には,記事に含まれる単語から記事のジャンルを予測する多クラス分類問題を設定する.キーワードそれぞれの単語分散表現の平均 [16] を入力とし, 分類器には勾配ブースティング決定木の LightGBM[17]を用いる. キーワードは, 記事本文から固有表現抽出した名詞を中心に,記者や編集者が人手で付与している. ジャンルは 8 種類で, 評価指標は正答率とした。検証用データセットとしては 2020 年 1 月 1 日〜 2021 年 11 月 30 日の新聞記事データを使った. 日経電子版の新聞記事データで構築した word2vec モデルは最も高い正答率を示し,今回構築した word2vec モデルは日経電子版の新聞記事データを用いた分析で使うモデルとして有用だと示唆された.評価実験の詳細は、Appendix A に示す. ## 2.3 予備実験 1: 流行前後の性能の変化 1 つ目の予備実験では,新型コロナウイルス感染症の流行前後の word2vec モデルの性能の違いを比較する. 具体的には,記事に付与されたキーワードを入力として,コロナ後の記事データを対象に記事のジャンルを予測するタスクに取り組む. これにより「新型コロナウイルス感染症の流行前後では単語の意味変化が多く,コロナ後の記事データを分析する場合, word2vec モデルとしてコロナ前モデルよりもコロナ後モデルを利用する方が予測性能が高い」 という仮説を検証する. 入力は 2.2 節の設定と同様, キーワードそれぞれの単語分散表現の平均を用い,分類器には LightGBMを用いる. コロナ前モデルは 2018 年 1 月 1 日 2019 年 8 月  表 1 新型コロナウイルス感染症の流行前後の性能の変化 表 22021 年の記事データに対する性能の変化 word2vec のみ 年過去のデータで学習 31 日,コロナ後モデルは 2020 年 1 月 1 日〜2021 年 8 月 31 日の日経電子版の新聞記事データで学習する。検証用データセットとしては 2021 年 9 月 1 日〜2021 年 11 月 30 日の新聞記事データを用いる. ここでコロナ前後の変化を評価するため,共通語を定義する. 共通語は 2 つの word2vec モデルで語彙が共通している語である.キーワードが全て共通語の 19356 記事 (共通語のみ),一つでも共通語ではない語を含む 4258 記事 (共通語以外含む),両者を合わせた 23614 記事 (すべて) の 3 観点で性能を評価する. また,評価指標は正答率とする。乱数の seed を変えて 10 回実験した平均の結果を表 1 に示す.いずれの観点でも,コロナ後モデルの方が性能が高いという結果が得られた. 特に共通語のみをキーワー ドに含む場合,つまり単語の意味変化による影響が最も強く出る条件下で性能差が確認された。 ## 2.4 予備実験 2: 時系列の性能劣化の推移 2 つ目の予備実験では Kutuzov ら [1] と同様に,各年 1 年分のデータで学習させたモデルを使って時系列の性能の変化を検証する.タスクは 2.3 節の予備実験と同じく, キーワードを入力として,LightGBM を用いて記事のジャンルを予測する。 検証では LightGBM の学習用にも過去のデータを使うか否かで 2 つの実験を設定する.過去のデータを使う設定 (word2vec と LightGBM を過去のデータ で学習)では, word2vec モデルを各年のデータで学習し,LightGBM の学習・検証に 2021 年 1 月 1 日〜 11 月 30 日のデータを用いる. 過去のデータを使わない設定 (word2vec のみ過去のデータで学習) では, word2vec モデルと LightGBM を各年のデータで学習し,検証には 2021 年 1 月 1 日〜 11 月 30 日のデータを利用する. 結果は表 2 の通りである. どちらの設定でも概ね学習時期が過去になるほど性能が劣化することが確認できた。 ## 2.5 単語の意味変化を検知する意義 2 つの予備実験を通じ,word2vec モデルの性能が時間の経過に伴い劣化し, その一つの要因は単語の意味変化にあると示唆された.近年の自然言語処理の領域では, 大規模なコーパスで事前学習した単語分散表現を活用する場面が多い. 単語の意味変化の検知は,単語分散表現を活用するモデルの性能劣化を議論できる点で意義のある取り組みと言える。 ## 3 提案手法 本章では,提案手法である,意味が変化した単語の検出手法について説明する.新型コロナウイルス感染症における単語の意味変化を Twitterコーパスで分析した Guo ら [10] の先行研究を基に単語の意味変化の度合いを計算し, 本研究の目的に応じて単語の出現頻度による絞り込みを実施する。 ## 3.1 ベクトル空間のマッピング 最初に,単語の意味変化を検出するため,学習済みの 2 つの word2vec モデルのベクトル空間に回転を施し,同一の空間に落とし込む手法について説明する。まず,意味変化の割合は単語頻度の負の累乗に従うという考え方 [18] に基づき,登場頻度の高い単語の意味は時間の経過とともに変化せず局所的な構造は保存されていると仮定を置く.この仮定の下,Guo ら [10]が提案する手法を利用する.Guo ら [10] の手法は, 学習済みの 2 つの word2vec モデルを入力とし, 回転行列を導出して座標軸を揃える手法である. 具体的には, word2vec モデル $i$ で出現頻度が上位 1000 件の単語行列 $W_{i}$ と, word2vec モデル $j$ で同じ 1000 個の単語から作った行列 $W_{j}$ から, 特異値分解の応用で最適化問題を解く. 座標軸を揃えるマッピング処理を実施した後,各モデルにおける単語分散表現のコサイン類似度を計算することで,単語の意味変化の度合いを観測でき る.しかし片方向のみの変換では類似度は平均して低くなるため [19], Guo ら [10] は逆方向に同様の処理を適用し,単語の安定性 (stab) という観点で単語の意味変化を捉えている. モデル $i$ とモデル $j$ を比較した単語 $w$ の stabを以下のように定義する. $s t a b$ が小さいほど 2 つの word2vec モデルのベクトル空間での違いが大きく, 単語の意味変化しているとみなす. $ \begin{gathered} \operatorname{stab}(w)=\frac{\operatorname{sim}_{i j}(w)+\operatorname{sim}_{j i}(w)}{2} \\ \operatorname{sim}_{i j}(w)=\cos -\operatorname{sim}\left(R^{j i} R^{i j} V_{w}^{i}, V_{w}^{i}\right) \end{gathered} $ ただし, $\cos -\operatorname{sim}$ はコサイン類似度, $R^{j i}$ はモデル $j$ から $i$ のマッピングに用いた回転行列, $V_{w}^{i}$ は単語 $w$ のモデル $i$ での単語分散表現を意味する. ## 3.2 単語の出現頻度による絞り込み 提案手法では,stabを利用して意味変化した単語を列挙する際,出現頻度の情報を用いて,過去のモデルでのみ数多く登場している一部の用語を除外する。具体的には,コロナ後(2020~2021 年)の word2 vec モデルでの出現頻度(100万語当たりの調整頻度)の年間平均,およびコロナ前(2010~2019 年)の年間平均と比較した増加率を各単語について計算し,それぞれの閾値で絞り込みを実施する. 単語の出現頻度による補正は,自然言語処理分野では TF-IDF[20] などで伝統的に利用されている. ## 3.3 モデル全体の変化度合いの計算 単語の $s t a b$ を利用したモデル全体の変化度合いの計算方法を提案する. モデル全体の変化度合いはモデル内の単語の変化度合いと相関しているとみなし, 全単語の $s t a b$ の平均値を採用する.この値が小さいほど,モデル全体の変化度合いが大きい. ## 4 実験 提案手法の有効性を検証するため,実際に新型コロナウイルス感染症の流行前後の word2vec モデルをマッピングする. ## 4.1 ベクトル空間のマッピング 実験ではコロナ前とコロナ後の 2 つのモデルを用いた. コロナ前モデルは 2010 年 3 月 23 日〜2019 年 10 月 31 日,コロナ後モデルは 2020 年 1 月 1 日〜 2021 年 8 月 31 日の日経電子版の新聞記事データで 図 1 マッピング後のベクトル空間の例 図 2 モデル全体の変化度合いの年次推移 学習した word2vec モデルである. マッピングには, Hamilton ら [18] が公開している実装5)を用いた。 マッピング後のベクトル空間について,「コロナ」 という単語に焦点を当てて可視化した結果を図 1 に示す. 可視化のために, $\mathrm{t}-\mathrm{SNE}[21]$ を用いて 300 次元のベクトル空間を 2 次元に圧縮した. 左下の青色の四角で示した「コロナ」周辺の単語はコロナ前,右上の赤色の丸で示した「コロナ」周辺の単語はコロナ後の単語を表している。コロナ前は工業や飲食物の文脈で利用されていた単語が,コロナ後に感染症や災害の文脈に変わっていったことが読み取れる。 ## 4.2 単語の出現頻度による絞り込み $s t a b$ が小さかった単語の一覧を確認すると,新型コロナウイルス感染症をはじめエボラ出血熱やデング熱など,感染症関連の単語ばかりが登場している (Appendix B). 提案手法である,単語の出現頻度の情報を用いて絞り込みを適用した結果を以下に示す. 具体的には「コロナ後の word2vec モデルでの  出現頻度の年間平均が 15 回より多い」かつ「増加率が 500 \%より大きい」という条件を適用した. 単語の出現頻度による絞り込み 感染拡大, 新型コロナウイルス, 感染, 感染症, 感染者, ウイルス, ウイルス感染, ワクチン, 感染力,変異, 新型肺炎, まん延, パンデミック, 感染予防, WHO, 接種, 世界保健機関, 感染リスク, 重症, 感染者数, 陽性, 新規感染者, 禍, 抗体, 感染対策, 緊急事態宣言, PCR 検査, ウイルス対策, コロナ, 陰性, 消毒, 隔離, 軽症, 外出自粛, 濃厚接触者, 検体,病床, 医療従事者, 終息, 保健所, デルタ, アストラゼネカ, オンライン診療, クラスター, 武漢, マスク,ファイザー, 療養, 死者数, To, 2020, 回分, テレワーク, 経済活動, 自粛, 無観客, 人出, 往来,収束, 休校, 巣ごもり, 都府県, リモートワーク,発令 ## 4.3 モデル全体の変化度合いの計算 最後に,モデル全体の変化度合いについて,1 年ごとのデータで学習した word2vec モデルを用いて検証する.2010~2021 年の各年のモデル全体の変化度合いの年次推移を図 2 に示す。たとえば 2010 年と 2011 年の変化度合いは,学習用に 2010 年と 2011 年のデータを用いた word2vec を比較することで算出した. ただし 2021 年については 11 月 30 日までのデータを利用している。2019 年と 2020 年の変化度合いが最も大きく,新型コロナウイルス感染症による単語の意味変化の大きさが確認できた. ## 5 おわりに 本稿では,日本語の新聞記事データを題材に,新型コロナウイルス感染症で意味が変化した単語を検出する手法を提案した. 最初に,時系列に沿った単語の意味変化による分散表現の性能悪化を定量的に確認した. 次に Guo ら [10] の研究を追試し,単語の出現頻度による独自の工夫を施した.最後に,単語分散表現全体の変化度合いを計算する方法を提案し,実験を通じて新型コロナウイルス感染症による単語の意味変化の大きさを確認した。 意味変化した単語を検出する手法は,新型コロナウイルス感染症以外の文脈でも適用できる可能性がある。ただし単語の出現頻度による絞り込みの際には閾值を適切に設定する必要があり,閾値の設定方法については今後の課題である. ## 参考文献 [1] Andrey Kutuzov, Lilja Øvrelid, Terrence Szymanski, and Erik Velldal. Diachronic word embeddings and semantic shifts: a survey. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 1384-1397, Santa Fe, New Mexico, USA, August 2018. Association for Computational Linguistics. [2] Shoetsu Sato, Jin Sakuma, Naoki Yoshinaga, Masashi Toyoda, and Masaru Kitsuregawa. Vocabulary adaptation for domain adaptation in neural machine translation. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 4269-4279, Online, November 2020. Association for Computational Linguistics. [3] Kokil Jaidka, Niyati Chhaya, and Lyle Ungar. Diachronic degradation of language models: Insights from social media. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, pp. 195200, Melbourne, Australia, July 2018. Association for Computational Linguistics. [4] L. Bloomfield. Language. Holt, Rinehart and Winston, New York, 1933. [5] Tomás Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. In Workshop Track Proceedings of 1st International Conference on Learning Representations, Scottsdale, Arizona, USA, May 2013. [6] Elizabeth Closs Traugott. Semantic change. In Oxford Research Encyclopedia of Linguistics. March 2017. [7] Kristina Gulordava and Marco Baroni. A distributional similarity approach to the detection of semantic change in the Google Books ngram corpus. In Proceedings of the GEMS 2011 Workshop on GEometrical Models of Natural Language Semantics, pp. 67-71, Edinburgh, UK, July 2011. Association for Computational Linguistics. [8] Alex Rosenfeld and Katrin Erk. Deep neural models of semantic shift. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 474-484, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [9] Valentin Hofmann, Janet Pierrehumbert, and Hinrich Schütze. Dynamic contextualized word embeddings. In Proceedings of the 59th Annual Meeting of the Association for Computational Linguistics, 2021. [10] Yanzhu Guo, Christos Xypolopoulos, and Michalis Vazirgiannis. How COVID-19 is changing our language : Detecting semantic shift in twitter word embeddings. February 2021 . [11] Radim Řehůřek and Petr Sojka. Software Framework for Topic Modelling with Large Corpora. In Proceedings of the LREC 2010 Workshop on New Challenges for NLP Frameworks, pp. 45-50, Valletta, Malta, May 2010. ELRA. [12] Takumitsu Kudo. Mecab : Yet another part-of-speech and morphological analyzer. 2005. [13] Taiichi Hashimoto Toshinori Sato and Manabu Okumura. Implementation of a word segmentation dictionary called mecab-ipadic-neologd and study on how to use it effectively for information retrieval (in japanese). In Proceedings of the Twenty-three Annual Meeting of the Association for Natural Language Processing, pp. NLP2017B6-1. The Association for Natural Language Processing, 2017. [14] Masatoshi Suzuki, Koji Matsuda, Satoshi Sekine, Naoaki Okazaki, and Kentaro Inui. A joint neural model for FineGrained named entity classification of wikipedia articles. IEICE Transactions on Information and Systems, Vol. E101.D, No. 1, pp. 73-81, 2018. [15] 真鍋陽俊, 岡照晃, 海川祥毅, 高岡一馬, 内田佳孝,浅原正幸. 複数粒度の分割結果に基づく日本語単語分散表現. 言語処理学会第 25 回年次大会, pp. NLP2019-P8-5. 言語処理学会, 2019. [16] Dinghan Shen, Guoyin Wang, Wenlin Wang, Martin Renqiang Min, Qinliang Su, Yizhe Zhang, Chunyuan Li, Ricardo Henao, and Lawrence Carin. Baseline needs more love: On simple Word-Embedding-Based models and associated pooling mechanisms. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics, pp. 440-450, Melbourne, Australia, July 2018. Association for Computational Linguistics. [17] Guolin Ke, Qi Meng, Thomas Finley, Taifeng Wang, Wei Chen, Weidong Ma, Qiwei Ye, and Tie-Yan Liu. LightGBM: A highly efficient gradient boosting decision tree. In Advances in Neural Information Processing Systems, Vol. 30. Curran Associates, Inc., 2017. [18] William L Hamilton, Jure Leskovec, and Dan Jurafsky. Diachronic word embeddings reveal statistical laws of semantic change. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 1489-1501, Berlin, Germany, August 2016. Association for Computational Linguistics. [19] Hosein Azarbonyad, Mostafa Dehghani, Kaspar Beelen, Alexandra Arkut, Maarten Marx, and Jaap Kamps. Words are malleable: Computing semantic shifts in political and media discourse. In Proceedings of the 2017 ACM on Conference on Information and Knowledge Management, pp. 1509-1518, Singapore, Singapore, November 2017. Association for Computing Machinery. [20] Juan Ramos. Using tf-idf to determine word relevance in document queries. In Proceedings of the first instructional conference on machine learning, Vol. 242, pp. 29-48. Citeseer, 2003. [21] Laurens Van der Maaten and Geoffrey Hinton. Visualizing data using $t$-sne. Journal of machine learning research, Vol. 9, No. 11, 2008. [22] Yuya Sakaizawa and Mamoru Komachi. Construction of a Japanese word similarity dataset. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation, Miyazaki, Japan, May 2018. European Language Resources Association. [23] Keisuke Inohara and Akira Utsumi. JWSAN: Japanese word similarity and association norm. Language Resources and Evaluation, pp. 1-29, 2021. 表 3 word2vec モデルの比較 モデル ## A word2vec モデルの評価実験 日経電子版の新聞記事データで構築した word2vec モデルの性能を他のモデルと比較した結果を表 3 に示す. モデルは以下の 4 つを用いた. -日経: 日経電子版の新聞記事データ(2010 年 3 月 23 日~2019年 10 月 31 日)で学習 - WikiEntVec: 日本語 Wikipedia で学習 ・白ヤギ: 日本語 Wikipedia で学習 - chiVe: 国立国語研究所の日本語ウェブコーパス (NWJC)で学習 各モデルの評価には日本語単語類似度データセット「Japanese Word Similarity Dataset (JWSD) 」 [22] と,日本語類似度・関連度データセット「JWSAN」 [23],および日経電子版の新聞記事データを使った. JWSD は単語の類似度を $0 \sim 10$ の値で付与したデータセットで, 品詞は形容詞 (JWSD-adv)・動詞 (JWSD-verb) $\cdot$名詞 (JWSD-noun) $\cdot$ 副詞 (JWSD-adj) の 4 種類ある. JWSAN は名詞 ・動詞・形容詞の類似度・関連度のデータセットで,類似度と関連度がそれぞれ 1〜7 の值で付与されている. すべての単語ペア 2145 組のデータセット (JWSAN-2145) と, 分散表現に適したデータに厳選した 1400 組のデータセット (JWSAN-1400) が存在する。評価指標にはスピアマンの順位相関係数 6 )を用いた。 日経電子版の新聞記事データを用いたタスク (NIKKEI)では,記事に含まれる単語からジャンルを予測した. ジャンルは, 企業・くらし・国際・スポーツ・マーケット・経済・社会・政治の 8 種類で,評価指標は正答率を用いた. 検証用データセットとしては 2020 年 1 月 1 日〜2021 年 11 月 30 日の新聞記事データを使った。日経電子版の新聞記事データで構築した word2vec モデルは,その他のモデルと比較し遜色ない性能を示していると分かる. 特に NIKKEI タスクでは 4 つのモデルの中で最も高い正答率で,今回構築した word2vec モデルは日経電子版の新聞記事データを用いた分析で使うモデルとして有用だと示唆された。 ## B $s t a b$ が小さい単語上位 $\mathbf{1 0 0$ 件} stabが小さい単語上位 100 件には,新型コロナウイルス感染症をはじめエボラ出血熱やデング熱など,感染症関連の単語ばかりが登場した。これらの単語のうち一部はコロナ後モデルの語彙としての登場頻度が多くなかったため, 本研究の目的を考慮し,登場頻度に基づく絞り込みを実施した。 ## stab が小さい単語上位 100 件 感染拡大, 新型コロナウイルス, 感染, コロナウイルス, 感染症, 感染者, ウイルス, インフルエンザウイルス, ニパウイルス感染症, エボラ出血熱, ウイルス感染, MERS, デング熱, リフトバレー熱, ジカ熱, 豚コレラ, エボラ熱, 重症熱性血小板減少症候群, エボラウイルス, クリミア・コンゴ出血熱, ワクチン,アフリカ豚コレラ, 出血熱, 鳥インフル, 耐性菌, 感染力, ツツガムシ病,鳥インフルエンザ, 変異, インフルエンザ, HBV,中東呼吸器症候群, ラッサ熱, ポリオウイルス, ジカウイルス感染症, 国立感染症研究所, マラリア, 感染ルート, 新型肺炎, エボラウイルス病, 結核, 院内感染, アデノウイルス, 病原体, 原虫, 麻疹, 熱帯病, 感染経路, エボラ, マイコプラズマ,蚊, チクングニア熱, インフル, はしか, 病原性,髄膜炎菌, フィラリア症, 新型インフルエンザ, HIV, ハマダラカ, 感染源, 麻疹ウイルス, 黄熱, 七卜免疫不全ウイルス, 新興感染症, エイズ, 多剤耐性菌, まん延, 空気感染, H7N9, ムンプス, パンデミック, ノロウイルス, 日本脳炎, マールブルグ, プリオン病, 感染地域, 狂犬病, 水疮瘡, 感染予防, マーズ, 薬剤而性菌, C 型肝炎, 呼吸器感染症, 豚流行性下痢, ロタウイルス, 成人 $\mathrm{T}$ 細胞白血病, デングウイルス, $\mathrm{E}$ 型肝炎, 寄生虫, 日本紅斑熱, フィラリア, 世界的大流行, WHO, 抗生物質, A 型肝炎, 伝染病, 急性感染症, SFTS, 流行 6) https://docs.scipy.org/doc/scipy/reference/generated/ scipy.stats.spearmanr.html
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT3-9.pdf
# Transformer による含意生成とその評価 樫原佑哉 ${ }^{1}$ Bisser Raytchev $^{1}$ 金田和文 ${ }^{1}$ 檜垣徹 ${ }^{1}$ 1 広島大学大学院 先進理工系科学研究科 ビジュアル情報学研究室 \{yuya-kashihara,bisser,kin, higaki\}@hiroshima-u.ac.jp ## 概要 最近の自然言語処理のモデルは特殊なタスクにおいて人間を超えるスコアを記録している.しかしこれらのモデルが言語表現の意味を理解しているかどうかは不明な点が多い.ここでは,「文章の意味を理解することは, その含意の関係にある事柄を推測することが必要である」という考えに基づき, 自然言語処理のモデルを用いて前提となる文章から含意の関係にある文章を生成する実験を行い,その評価を行う. その結果, Transformer ベースのモデルは人間に引けを取らない精度で含意を生成することができ,また含意に対する人間による評価との相関から,含意に対する評価指標に適した自動評価指標を発見した. ## 1 はじめに 人間が扱う言葉は意味を持ち, 人間は状況に応じて言葉の意味を理解した上で会話などを行っている.また, 自然言語処理の分野では, 我々が普段話したり, 書いたりする自然言語をコンピュータで処理する様々なモデルが開発され, 最近では特殊なタスクにおいて人間の精度を超えるスコアを記録している.しかし,これらのモデルは特殊なタスクに対して非常に強力であるが,「モデルが言語の意味をどれくらい理解しているのか」, また「言語の意味を理解するためにモデルに必要なことは何か」については不明な点が多い. 意味の理解について様々な仮説が提唱されている中で, 本研究では Brandom [1] の 「文章の意味を理解することは, その含意の関係にある事柄を推測することが必要である」という考えに基づき, 含意を生成する実験を行う. 含意とは, ある表現に対し, 必然な結果として導かれる事柄である. すなわち,「 $\mathrm{P} \rightarrow \mathrm{Q} \perp$ の関係である. 例として前提文「A black dog crosses a puddle of water with a ball in its mouth.」の含意文として,「The dog is crossing the water.」や「The dog is wet.」などが考えられる. 本研究の大きな目的は, 含意の生成を行う実験によって, モデルが含意を生成する規則を明らかにすることであり, 本実験ではモデルが含意をどの程度生成できるのか, どのモデル形態がこのタスクに最も適切か, そして生成した含意をどのように評価するかについて検証する。 ## 2 関連研究 機械学習を用いた含意生成の研究は少ないものの, 私たちの知る限り 1 つ公表されている. Peter Blouw ら [2] は, 木構造のニューラルネットワークである Recursive Neural Networkを用いて単一の前提文から単一の含意文を生成した. このモデルでは, Encoder によって文章の木構造が生成されると, それを逆木構造ネットワークの Decoder を通して予測した文章を生成する. 本研究でも用いた SNLI データセット [3] で含意を生成し, その評価としてデータセットの含意文の単語との合致の割合, 人間による評価を行なっている. ## 3 扱うタスク 本研究では, 単一の前提文から単一の含意文を予測する含意生成のタスクを扱う。一例を挙げると $\ulcorner$ A black dog crosses a puddle of water with a ball in its mouth.」から「The dog is crossing the water.」を生成する.このタスクはソース文からターゲット文を予測するという点で翻訳のタスクに似ているため, 使用するモデルとして, 機械翻訳におけるべースラインのモデルである RNN(Recurrent Neural Network) と,最近の有力な翻訳モデルである Transformer [4], 更に Transformer の Decoder のみで構成されたモデルである GPT モデル [5,6] を採用する.これらのモデルが含意をどの程度生成できるのか実験し, またその評価として人間の評価と自動的な評価指標を用意しその相関を調べどの指標が適切であるかを検討する。 ## 4 使用したモデル 本実験では, ベースラインのモデルとして Encoder-Decoder モデルである Attention 付きの RNN と近年の翻訳タスクにおいて有力な同じくEncoderDecoder モデルである Vaswani ら [4] の Transformer, そして大規模なテキストで事前学習を行った Decoderのみのモデルである OpenAI の [5, 6] を採用した. ## 4.1 Recurrent Neural Network RNN は翻訳タスクにおいてベースラインとなる Seq2Seq で用いられるモデルである. 今回はアテンション機構のある GRU 層のシンプルなモデルでどの程度含意生成ができるのか評価する。 ## 4.2 Transformer Transformer は翻訳タスクにおいて当時の最先端の BLEU スコアを記録したモデルである。また自然言語処理の 11 のタスクで最先端のスコアを達成した BERT モデル [7] の基本構造となるモデルである. Transformer は Encoder と Decoder で構成される. Encoder は入力文に対する各単語の埋め込みべクトルに対し, Query, Key, Value のベクトルを生成したのち,独自のアテンション機構 Self-Attention を用いて各単語が同一文中のどの単語に注目しているかを表現したべクトルを Decoderへ伝搬する. Decoder はそれを受けて予測した単語を順に出力する。 ## 4.3 OpenAI GPT OpenAI によって公開された GPT モデルは, Transformer の Decoder block のみで構成されるモデルである. 入力単語が与えられるとその位置情報を組み込んだ埋め込みべクトルを用いて入力文に対し文脈情報を計算し, その值に基づき次の単語を予測する.このモデルは事前学習 (Pre-Training) と微調整(Fine-Tuning)による学習方法を採用している. この方法はまず大量のデータセットでモデルを事前学習することでテキストの文脈を学習する. そしてその事前学習済みのモデルを用いて Fine-Tuning を行うことで各タスクに適応するモデルの学習が完了する. この方法により大規模なデータセットで事前学習されたモデルを誰でも利用することができ, Fine-Tuning を行うだけで様々なタスクに応用することができる. 現在も BERTをはじめ多くの事前学習済みモデルが公開されている.また, OpenAI は数百万の Web ページからなる更に大規模なデータセットで事前学習させた GPT2も公開している.この実験では GPT とGPT2をそれぞれ用いた. GPT2 は異なる大きさのモデルがあるが, 今回は small モデル (単語の埋め込みが 768 次元)のものを用いる. ## 5 評価指標 含意生成のタスクでは生成された文章が含意文であるかどうか, その含意文がどのくらい正しいのかといった評価が難しいことが予想される. そして都度言語の専門家が見て判断することは非常にコストが高いためここでは様々な自動的評価指標を検討する.まず, 翻訳タスクで一般的に用いられる評価指標である BLEU[8], METEOR[9], TER[10]を使用した. また前提文から含意文を生成するタスクは前提文の重要な情報を抽出し簡単な文章に置き換える要約の要素を含んでいる. したがって要約で用いられる指標も検討する. 今回は要約タスクで用いられる ROUGE[11] を加えた. そして含意の評価として有力であると考えられる二つの指標 (Sentence-BERT[12], BERTScore[13])を提案する。 ## 5.1 Sentence-BERT 図 1 に示す Sentence-BERT は, BERT を用いたシャムネットワークで, 2 つの入力文に対し BERT で生成した固定長の埋め込みべクトルから類似度を計算する。本実験ではこの事前学習されたモデルで前提文とその含意文の固定長埋め込みべクトルを作成し, そのコサイン類似度を計算する。 SBERT は-1 から 1 の值をとる. 使用したモデルは 2 種類あり, 基本となる bert-base-nli-mean-tokens モデルを"SBERT_1",タスクSTS のスコアが最も高い bert-large-nli-stsb-mean-tokens モデルを"SBERT_2" とする. ## 5.2 BERTScore BERTScore は図 2 に示すように入力文に対し BERT による各単語の埋め込みべクトルから類似度を計算する. BERTScore は 0 から 1 の値をとる. 図 1 Sentence-BERT 図 2 BERTScore ## 6 実験 実験では SNLI データセット [3] を用いる.このデータセットは, 前提文と仮説文の文ペアが 57 万セットあり,それぞれの文ぺアがそのぺアの関係を表す「含意」,「中立」,「矛盾」でラベル付けされているデータセットである. 本来は自然言語推論夕スクと呼ばれる上記三種類のラベルを分類する分類タスクで用いられるが, 今回は含意生成タスクを扱うためにラベルが「含意」であるもののみを用いる. ## 6.1 実験 1 実験 1 では SNLI データセットのうちラベルが含意であるものを,トレーニングデータとして 150000 文ペア, バリデーションデータとして 20000 文, テストデータとして 20000 文を RNN と Transformer の学習に対して用いた. 各モデルの学習後, モデルを用いて生成した含意文に対し, 人間による評価と定量的評価を行った. また, 人間の評価と自動的な各指標の結果の相関を可視化してどの指標が含意に対して有効であるかを検証した。 表 1 生成した含意文の例 \\ Reference & People riding their bikes on a road. \\ RNN & People are riding bikes. \\ Transformer & The bike riders are outside. \\ RNN & The girl is outdoors playing field hockey. \\ Transformer & A girl is outside. \\ Reference-300 Contradiction-300 図 3 人間による評価の結果(被験者 $\mathrm{A}$ ) ## 6.1.1 生成結果の例 表 1 に前提文と生成した含意文の例を示す. Premise が前提文, Reference がデータセットの含意文である. ## 6.1.2人間による評価 RNN と Transformer の生成した含意の精度を評価するため, テストデータの前提文 300 文に対し, 前提文とデータセットの含意文 (Reference), 前提文とNN の出力, 前提文と Transformer の出力の各ぺアを評価する。また, 含意の評価の基準が難しいと予想されるため, 前提文とデータセットの矛盾文 (Contradiction)の 300 文ペアも使用する. 上記の 4 種類の文ペアをラベルを見せずに, ランダムに並び替えた 1200 文ぺアに対して, 含意の正しさを 5 段階,文法の正しさを 3 段階とした評価を英語に詳しい被験者 2 名に実施した. 被験者 A の結果を図 3 に示す.図 3 より Transformer は人間に近い形状に分布していることがわかる. 被験者 B も同様の結果を示した. ## 6.1.3人間による評価と自動的な評価指標の相関 最後に, 自動的な評価指標のうちどれが含意に対して適切な指標であるかを検討するため, 人間の評 図 4 正規化した各指標と人間による評価の平均スコア 図 5 正規化した各指標と人間による評価の平均スコア 2 価との相関を可視化した. 図 4 は, 人間による評価に用いた 1200 文ぺアの最大值と最小值で正規化した各指標と人間の評価を種類ごとにプロットしたものである.これより, SBERT が人間に近い形状をしていることがわかる. 同様に図 5 は要約の指標をプロットしたものである.いずれも相関が低い事がわかる。 ## 6.2 実験 2 実験 2 では強力な事前学習済みのモデルを試すため, OpenAI の GPT モデルを採用する. このモデルは Transformer の Decoder block を基とした Decoder のみのモデルである. この実験の目的は, 最近あらゆるタスクで優れた成果を出している事前学習によって汎用性を獲得した大規模なモデルの含意文の生成能力を検証することと, Decoder のみのモデルでの生成能力を検証することである. 実験 2 では Hugging Face[14] の事前学習済みのモデルとデータセットを用いる. Hugging Face の SNLI データセットのうち, ラベルが含意であるものをトレーニングデータとして 183416 文ペア, バリデーションデータとして 3329 文, テストデータとして 3368 文を用いる.この実験では GPT とGPT2 それぞれを用いて学習と生成を行う。 Fine-Tuning の学習方法として GPT2 の実験で用いられた翻訳タスクの生成手法を学習方法として採用する.これは入力を「前提文=含意文」のまとめた形表 2 GPT と GPT2(1 epoch, 最大長 20)が生成した含意文の比較例 & \\ GPT 出力 & \\ GPT2 出力 & \\ GPT 出力 & a man is sitting while someone cleans the store. \\ GPT2 出力 & \\ GPT 出力 & three men are carrying a sack on their boats. \\ でモデルに渡して言語モデリングで学習させる方法である. 含意生成を行う際はプロンプト「前提文=」 の入力を与えてそれに続く含意文を生成させる.これはソース文からターゲット文を生成するというタスクにおいて, 文ぺアを連結させて学習させたモデルに特定の条件付きサンプルを生成させるものであり, 貪欲な方法と言える。 ## 6.2.1 生成結果の例 (GPT, GPT2) GPT と GPT2 で Fine-Tuningを 1 エポック行い含意文を生成させた. GPT の性能と直感的な比較するため, 無作為に選んだ前提文より得られた GPT と GPT2(両方 1 エポックの Fine-Tuining)の出力を比較した結果を表 2 に示す. ## 7 結論 今回の実験から Self-Attention 機構を持つ Transformerは人間に引けを取らない精度で含意を生成できることがわかった. Encoder Block の無い GPT モデルは 1 epoch のみ Fine-Tuning を行うだけで, Transformer と同様の生成結果を得られた. また, 含意の評価指標として BLEU や METEOR, ROUGE, TER 等の主に単語の一致具合や編集操作の量を見る指標よりも, Sentence-BERT の文の埋め込みベクトルによる類似度の方が適していると言える.今後は単なる言い換えではなく常識的な推測を含んだ含意生成を目標にした更なるモデルでの実験や, 文の埋め込みベクトルを活用した新たな評価指標の検討を考えている. ## 参考文献 [1] Robert B. Brandom. Making it explicit: Reasoning, representing, and discursive commitment. Harvard university press, 1998 [2] Peter Blouw and Chris Eliasmith. Inferential role semantics for natural language. In CogSci2017, 2017. [3] Samuel R. Bowman, Gabor Angeli, Christopher Potts, and Christopher D. Manning. A large annotated corpus for learning natural language inference. In EMNLP Association for Computational Linguistics, 2015. [4] Ashish Vaswani, Noam Shazeer, Niki Parmara, Jakob Uszkoreit, LlionJones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, 2017. [5] Alec Radford, Karthik Narasimhan, Tim Salimans, and Ilya Sutskever. Improving language understanding by generative pre-training. 2018. [6] Alec Radford, Jeffrey Wua, Rewon Childa, David Luan, Dario Amodei, and Ilya Sutskever. Language models are unsupervised multitask learners. In OpenAl blog 1.8 : 9, 2019. [7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. In arXiv preprint arXiv:1810.04805, 2018. [8] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: A method for automatic evaluation of machine translation. 40th Annual Meeting on Association for Computational Linguistics, pp. 311-318, 2002. [9] Alon Lavie and Abhaya Agarwal. Meteor: An automatic metric for mt evaluation with high levels of correlation with human judgments. Second Workshop on Statistical Machine Translation, pp. 228-231, 2007. [10] MatthewSnover, Bonnie Dorr, Richard Schwartz, Linnea Micciulla, and John Makhoul. A study of translation edit rate with targeted human annotation. 7th Conference of the Association for Machine Translation in the Americas: Technical Papers, 2006. [11] Kavita Ganesan. Rouge 2.0: Updated and improved measures for evaluation of summarization tasks. arXiv preprint arXiv:1803.01937, 2018. [12] Nils Reimers and Iryna Gurevych. Sentence-bert: Sentence embeddings using siamese bert-networks. arXiv preprint arXiv:1908.10084, 2019. [13] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. International Conference on Learning Representations, 2020. [14] Hugging face - the ai community building the future., (2022-1 閲覧). https://huggingface.co.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT4-10.pdf
# 話者の性格を反映した発話文の生成 米田智美 佐藤理史 夏目和子 宮田玲 小川浩平 名古屋大学大学院工学研究科 yoneda.tomomi@f.mbox.nagoya-u.ac.jp ## 概要 本稿では, 話者 (キャラクタ)の性格を反映した発話文を生成するシステムを提案する。このシステムは, 文型推定モジュールと発話文生成モジュールから構成されている. 文型推定モジュールは, 話者として設定したいキャラクタの性格ベクトルから, そのキャラクタが使用する表現文型のリストを推定する. 発話文生成モジュールは, 推定された表現文型のリストと, 発話意図およびキーワードを受け取り,そのキャラクタらしい発話文を生成する. ## 1 はじめに 近年,ユーザーからの質問に応答したり,ユー ザーと対話したりするエージェントを内部に組み込んだシステムやサービスが発展してきた. その代表例に, AI スピーカーがある. 対話相手であるエージェントにユーザーが好む個性や性格を付与すること(エージェントのキャラクタ化) は, エージェントへの愛着を生むことに繋がる [1] と考えられる. しかし, 現在のエージェン卜は没個性的に設定されているか, あるいは特定のキャラクタの性格と口調を作り込んでいるもの [2][3] がほとんどである. そのため, ユーザーは対話相手のエージェントの性格を自由に設定することができない. この問題を解決するために,本稿では話者の性格, 発話意図, キーワードの 3 つの入力から, その性格を反映した発話文を生成するシステムを提案する. 本システムはこれらを入力とすることで, 既存研究 [2][4][5] とは異なり, 対話環境において話題・発話意図に即し, かつキャラクタらしい一発話を生成できる. 以下,まず 2 節で,話者の性格をどのように表現するかについて述べる. 続いて 3 節でシステムの概要を示し, 4 節と 5 節でシステムを構成する 2 つのモジュールについて説明する. ## 2 性格ベクトル 本研究では, 話者の性格を以下に示す 12 軸 (次元) のべクトルで表現する. 各次元の値は, -2 から 2 までの 5 段階の整数値である. A. 話者の性質に関わる要素 (4 軸) 1. 現代的な一古びた 2. 男性的一女性的 3. 大人びたー幼い 4. 丁寧一荒っぽい B. 話者の性格を表現する要素 (8 軸) 5. 活発一落ち着いた 6. ポジティブーネガティブ 7. 親しげーそっけない 8. せっかち—のんびり 9. 優しい一冷たい 10. 豪快一繊細 11. 積極的一消極的 12. 社交的一孤立的 これらのうち,Bの8軸の設計にあたっては BIG5 [6] や MBTI [7] などの性格診断を参考にした. それに加え,話者の性質を表す 4 軸 (A) を新たに導入した. ## 3 発話文生成システムの概要 作成した発話文生成システムの構成を図 1 に示す. 本システムは, (1) 文型推定モジュール (4 節), (2) 発話文生成モジュール (5 節) の 2 つのモジュー ルから構成されている。 ## 4 文型推定モジュール 文型推定モジュールは, 文型データベース (文型 DB) とキャラクタデータベース (キャラクタ DB)を利用して, 入力された任意の性格ベクトルから, その性格を持つキャラクタが使用すると考えられる文型リストを出力する. 図 1 発話文生成システムの構成 ## 4.1 文型データベース 文型 DB は『発話文表現文型辞書』[8] から発話意図 46 種類, 表現文型 7,826 件を選択し, データベー ス化したものである.『発話文表現文型辞書』では,各文型に対して, 接続形式 (文型に含まれる核となる述語の活用型とテンス・否定の有無), 主要部 (述語に後続する助動詞 (相当句) と接辞など), 末尾部 (終助詞と文末記号) が定義されている. 文型 DB では, 新たに主要部の先頭部の特徴を 7 種類, 主要部の終端部の特徴を 53 種類に分類し, これらの分類情報を追加した。また特徴べクトルは, 対立する 2 要素を 1 軸にまとめ, 全部で 11 次元のベクトルに変換した。文型 DB のレコード例を表 1 に示す. なお, 各文型を構成する要素のうち, *をつけたものは, キャラクタ DB の拡張 (4.2.2 節) や性格を反映した文型の推定 (4.3 節)において重要な役割を担う. ## 4.2 キャラクタデータベース キャラクタ DB は,それぞれのキャラクタに対して次の 2 種類の情報を定義したデータベースである (図2). 1. キャラクタ $h$ の性格ベクトル $\boldsymbol{c}(h)$ 2. キャラクタ $h$ がそれぞれの発話意図 $I$ で使用する表現文型のリスト $\sum_{I} R_{I}(h)$ 本研究で使用する発話意図は全部で 46 種類あり, これらすべてに使用文型のリスト $R_{I}(h)$ を定義するのは作業量が多い。そこで,まず, 7 種類の発話意図に対して使用文型を定義し,その定義に基づいて残りの 39 種類の発話意図の使用文型を自動推定する方法を採用した。 ## 4.2.1 初期データベースの作成 ソーシャルゲームの男性キャラクタ 25 名 (付録 A.1) に対して,性格ベクトルを定義し, 7 種類の発話意図において使用すると考えられる文型を定義した.ソーシャルゲームのキャラクタを選択したのは,以下の理由による。 1. 多くの場合,強い個性が付与される。 2. 同じ人物 (ユーザー)への発話が必ずある. 3. 舞台や年齢設定の変化が少ない. ## 4.2.2 データベースの拡張 定義した 7 種類の発話意図のデータに基づいて,残りの 39 種類の発話意図の使用文型を以下のように決定した。 1. 文型 $\mathrm{DB}$ において, 発話意図 $I$ に属する表現文型 $r \in R_{I}$ に対して, キャラクタ $h$ のスコア $s(r, h)$ を算出する. 2. その最大值を $T$ とする. 3. $T>0$ の場合は, $s(r, h) \geq 4 T / 5$ を満たす文型 $r$ を,キャラクタ $h$ が発話意図 $I$ で使用する文型リスト $R_{I}(h)$ に含める. それ以外の場合は,最大値 $\mathrm{T}$ をる文型 $r$ のみを $R_{I}(h)$ とする. ここでスコア $s(r, h)$ は,次のように定義する. $ \begin{aligned} s(r, h)= & 50 * s_{1}(r, h)+100 * s_{2}(r, h) \\ & +200 * s_{3}(r, h)+200 * s_{4}(r, h) \end{aligned} $ - $s_{1}(r, h)$ キャラクタ $h$ が, 文型 $r$ の主要部の先頭部を使用する割合. $\cdot$ $s_{2}(r, h)$ キャラクタ $h$ が, 文型 $r$ の主要部の終端部を使用する割合. ただし, 使用しない場合は, -1 . $\cdot$ $s_{3}(r, h)$ キャラクタ $h$ が, 文型 $r$ の主要部の終端部と未尾部の組み合わせを使用する割合.た 図 2 キャラクタ DB だし,使用しない場合は, -1 . - $s_{4}(r, h)$ キャラクタ $h$ が使用する文型の特徵べクトルの平均と, 文型 $r$ の特徵ベクトルとのコサイン類似度. なお, これらの値の計算に用いる文型は, 7 種類の発話意図に対して定義した, キャラクタ $h$ が使用する文型すべてである. ## 4.3 性格に対する文型推定 こうして完成させたキャラクタ DB を利用して,未知のキャラクタ $u$ の性格ベクトル $\boldsymbol{c}(u)$ から, そのキャラクタが使用する表現文型のリスト $R_{I}(u)$ を推定する.発話意図 $I$ を表す全文型 $R_{I}$ のうち,どの文型 $r$ を $R_{I}(u)$ に含めるかは, 次のスコアに基づいて決定する。 $ t(r, u)=t_{1}(r, u)+t_{2}(r, u)+t_{3}(r, u) $ 以下では,推定のための仮定と $t_{n}(r, u)$ の計算法を示す. ## 4.3.1 性格と表現文型の関連性 仮定 1 キャラクタの性格と使用する表現文型の間には,関連性がある 例えば,丁寧な振る舞いをするキャラクタは敬語を用いることが多く,女性的なキャラクタは「〜わよ」「〜だわ」を多用する. このような関連性をスコアに反映するために,文型 $r$ の使用者特性ベクトル $\overline{\boldsymbol{c}}(r)$ (文型 $r$ の使用者の性格ベクトルの平均)を求める. この $\overline{\boldsymbol{c}}(r)$ とキャタクタ $u$ の性格ベクトル $\boldsymbol{c}(u)$ の類似度が高ければ,キャタクタ $h$ が文型 $r$ を使用する可能性が高いと考え, スコア $t_{1}$ を次のように定義する. $ t_{1}(r, u)=\cos (\overline{\boldsymbol{c}}(r), \boldsymbol{c}(u)) $ ## 4.3.2 性格の類似性 仮定 2 性格が似ているキャラクタは, 同じ表現文型を使用する可能性が高い ここでは,仮定 2 に基づいて未知のキャタクタ $u$ の性格ベクトル $\boldsymbol{c}(u)$ とキャラクタ DB 内の既知のキャタクタ $h$ の性格ベクトル $\boldsymbol{c}(h)$ との類似度を考える. 性格べクトルの各軸は独立した意味を持っているため, 単純な差異よりも傾向の一致やその正負の一致が意味を持つと考えられる.そこでまず性格ベクトルの各要素において, スコアの計算の前提となる值を表 2 に従って定め, 性格類似度ベクトル $\boldsymbol{a}(h, u)$ を求める. 表 2 性格類似度ベクトルの要素の値の算出表 この性格類似度ベクトルをもとに,以下の式でスコアを計算する。 $ t_{2}(r, u)=\sum_{h_{i} \in H(r)} \frac{\boldsymbol{a}\left(h_{i}, u\right) \cdot \overline{\boldsymbol{c}}(r)^{T}}{\left|R_{I}\left(h_{i}\right)\right|} $ ここで $H(r)$ は文型 $r$ を使用するキャラクタの集合, $\left|R_{I}\left(h_{i}\right)\right|$ はキャタクタ $h_{i}$ が発話意図 I で使用する文型の数である.この式の分数は,特定のキャタクタ $h_{i}$ と未知のキャラクタ $u$ との性格類似度に基づく寄与であり,それをすべての既存のキャラクタに対して足し合わせている. ## 4.3.3 文型の類似度 仮定 3 ある文型を使用するならば,それと類似する文型を使用する可能性も高い この仮定に従い,ある文型 $r_{i}$ にスコア $t_{2}$ が与えられた時, 文型 $r_{i}$ に類似する文型にスコアを与える. 文型間の類似度の計算には文型 DB の特徴ベクトル $\boldsymbol{v}(r)$ のコサイン類似度を利用する。 $ t_{3}(r, u)=\sum_{r_{i} \in\left(R_{I}-\{r\}\right)} t_{2}\left(r_{i}, u\right) \cdot \cos \left(\boldsymbol{v}\left(r_{i}\right), \boldsymbol{v}(r)\right) $ ここで $R_{I}$ は,与えられた発話意図 $I$ に属するすべての文型を表す。 ## 4.3.4 文型リストの決定 発話意図 Iにおいて,(式2) のスコア上位 $20 \%$ の文型をキャラクタ $u$ が使用する文型リスト $R_{I}(u)$ に含める. 同時に,それらの文型にスコアに反映した確率を付与する. ## 5 発話文生成モジュール 発話文生成モジュールは,キャラクタ $u$ が使用する文型リスト $\sum_{I} R_{I}(u)$ と, 発話意図 $I$ およびキー ワードから,発話文 (表層文字列)を生成する,以下では,まず,発話文生成で利用する述語データベー スを説明し,次に,発話文生成の手順を述べる. ## 5.1 述語データベース 述語データベース (述語 DB) は,入力されたキー ワード (名詞) から文を作るためのデータベースで,「キーワード+助詞+述語」形式のデータ 239,645 件が収録されている。このデータベースは, Google の Web 日本語 N グラム (2007)[9] から, 以下の手順で作成した。 1.1-gram データから, 頻度上位 5,000 個の一般名詞を収集した。 2. 3-gram データから, 上記の各名詞 (N) に対して,パターン「 $\mathrm{N}+$ は/が/を+P」に合致するデー タを収集した。ここで $\mathrm{P}$ は述語であり,動詞 (V) は頻度上位の最大 20 個, イ形容詞 (A) とナ形容詞 (C) は最大 10 個を収集した。 以下に具体例を示す。 ## 5.2 発話文の生成手順 発話文を以下の手順で生成する. 1. 使用文型の選択 与えられた発話意図 $I$ から使用文型リスト $R_{I}(u)$ を得る.このリストに含まれる文型には,確率が付与されているので,その確率に従って実際に使用する文型をひとつ選択する。 2. キーワード文の作成 選択された文型の接続形式に従って述語形式 (動詞, イ形容詞, ナ形容詞)をランダムにひとつ決定し,述語 DB を参照して,レコード (文) をひとつ,頻度に応じた確率で選択する。 3. 表層文の生成 ステップ 2 で選択された文とステップ 1 で選択された文型を HaoriBricks3[10] を用いて結合し,表層文を生成する。 ## 6 生成例と検討 システムが生成した発話例を付録 A. 2 に示す. キャラクタ 1 では,末尾部「ぞ」の使用や,「〜くれんか」といった時代がかった話し方の文型が出力されている。一方,キャラクタ 2 では,感嘆符や長音記号,促音化などの音変化を含んだ文型が用いられ, 子供っぽさの感じられる口調が多く見られる. キャラクタ 3 では, 総じて敬語表現が出力されており,末尾部の「よ」や「ね」などによって大人びた柔らかい印象が感じられる,以上のように,キャラクタの性格を反映した発話文が生成できていることが確認できる. その一方で,発話意図を適切に表わさない発話文も生成されている.表現文型は,必ずしも任意のキーワード文と結合できるわけではない。たとえば,I07 (決心-実行) は,意志性を持った動詞を持つ文としか結合できず,それ以外の文と結合すると発話意図を表せなくなる。また,J01(褒める) や J02(暊す)などの JK区分される発話意図では,キーワー ド文の述語が意図伝達の中核要素となるため, 意図を適切に反映した述語の選択が必要となる. 現在のシステムは,キーワード文の選択 (述語補完) は,キーワードと表現文型の接続形式のみに依存している。表現文型の意図を反映した述語補完, および,性格を反映した述語補完の実現が,今後の課題である. ## 謝辞 本研究は JSPS 科研費 JP21H03497 の助成を受けたものです. ## 参考文献 [1] 山本賢太, 井上昂治, 中村静, 高梨克也, 河原達也. 人間型ロボットのキャラクタ表現のための対話の振る舞い制御モデル. 人工知能学会論文誌, Vol. 33, No. 5, pp. C-I37 1-9, 2018. [2] 沈睿, 菊池英明, 太田克己, 三田村健. 音声生成を前提としたテキストレベルでのキャラクタ付与. 情報処理学会論文誌, Vol. 53, No. 4, pp. 1,269-1,276, 2012. [3] 小倉拓人, 谷津元樹, 原田実. 人物ベースの Seq2Seq モデルを用いた対話システム DeepEVEにおける小説中の登場人物らしい応答文の生成. 情報処理学会第 80 回全国大会講演論文集, No. 1, pp. 423-434, 2018. [4] 宮崎千明, 平野徹, 東中竜一郎, 牧野俊朗, 松尾義博, 佐藤理史. 文節機能部の確率的書き換えによる言語表現のキャラクタ性変換. 人工知能学会論文誌, Vol. 31, No. 1, pp. DSF-E 1-9, 2016. [5] 谷川晃大, 藤田寛泰, 壹岐太一. 変分オートエンコーダと注意機構を用いた発話文のキャラクタ性変換. 人工知能学会全国大会論文集, Vol. 32, pp. 4G2-01, 2018. [6] Lewis R. Goldberg. The structure of phenotypic personality traits. American Psychologist, Vol. 48, No. 1, pp. 26-34, 1993. [7] Isabel Briggs Myers and Peter B.Myers. Gifts Differing: Understanding Personality Type. Davies-Black Publishing, 1995. Originally published: 1980. [8] 夏目和子, 佐藤理史. 話し言葉生成のための表現文型辞書. 言語処理学会第 28 回年次大会発表論文集(発表予定), 2022. [9] 工藤拓, 賀沢秀人. Web 日本語 $\mathrm{N}$ グラム第 1 版.言語資源協会発行, 2007. [10] 佐藤理史. Haoribricks3: 日本語文を合成するためのドメイン特化言語. 自然言語処理学会論文誌, Vol. 27, No. 2, pp. 411-444, 2020. ## 付録 A ## A. 1 キャラクタDB に登録したキャラクター覧 (25キャラクタ) \\ ## A. 2 発話文の生成例 & & \\
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT4-11.pdf
# JParaCrawl v3.0: 大規模日英対訳コーパス 森下 睦 1,2, 帖佐 克己 ${ }^{1}$, 鈴木 潤 ${ }^{2}$, 永田 昌明 1 ${ }^{1}$ NTTコミュニケーション科学基礎研究所 2 東北大学 makoto.morishita.gr@hco.ntt.co.jp ## 概要 現在の機械翻訳モデルは主に対訳コーパスを用いて学習されており、その翻訳精度は対訳コーパスの質と量に大きく依存している。本稿では、新たにウェブをクロールし日英対訳文を抽出することで大規模日英対訳コーパスを構築し、翻訳精度の底上げを狙う。今回ウェブから収集した対訳文と以前作成した日英対訳コーパス JParaCrawl v2.0を合わせることで、合計 2100 万文を超える日英最大規模の対訳コーパスを作成することに成功した。実験により、新たな対訳コーパスを用いて学習した翻訳モデルが様々な分野で高い翻訳精度を発揮することを示す。 なお、今回作成した対訳コーパスを JParaCrawl v3.0 と名付け、我々のウェブサイト上で研究目的利用に限り無償公開する予定である。 ## 1 はじめに 現在のニューラル機械翻訳モデルは、主に対訳コーパスを用いた教師ありの手法 $[1,2,3,4]$ で学習されている。学習時の対訳コーパスの質と量が翻訳精度に大きな影響を与えること知られているが、一般に公開されている対訳コーパスは多くの言語対で限られている。例えば、独英などの言語対ではすでに数億文の対訳文が公開されているものの、日英ではまだ同程度のものは存在せず、翻訳モデル学習時に大きな問題となっている。そのため、本稿ではさらに大規模なウェブベースの日英対訳コーパスを構築する。現在、日英で最大規模の対訳コーパスの 1 つは約 1000 万文の対訳文を含む JParaCrawl v2.0 [5] であり、これはウェブを大規模にクロールし対訳文を自動的に抽出することで構築されている。本コーパスは欧州言語対と比較すると小規模であり、 2020 年を最後に更新が止まっているため、最新の情報を含んでいない。そのため、本研究ではウェブを全面的に再クロールし、対訳文を抽出することで JParaCrawl コーパスを拡大/更新する。本研究では、対訳文抽出手法を機械翻訳器を用いた手法へと変更し、新たに PDF や Word 文書も収集対象とすることで、対訳抽出数の向上を狙う。また、新たに作成した対訳コーパスを用いて、英日および日英の機械翻訳の精度がどのように向上するかを実験的に示す。本研究で作成した対訳コーパスは JParaCrawl v3.0 と名付け、今後の研究のために我々のウェブサイト1) で公開する予定である。 本稿の貢献は以下のようにまとめられる。 ・従来の JParaCrawl コーパスと合わせて 2100 万文対以上を含む大規模な日英対訳コーパスを構築した。 ・新たな対訳コーパスにより、幅広い分野で英日・日英機械翻訳の精度が向上することを実験的に確認した。 ・本コーパスを研究目的利用に限り無償で公開する。 ## 2 関連研究 対訳コーパスは様々な文書から対訳文を抽出することで作成されることが多い。代表的なものとして、国際機関が作成した対訳文書がある。例えば、欧州議会の議事録から作成された Europarl [6]、国連の翻訳文書から作成された UN 対訳コーパス [7] などがある。これらの文書は、通常プロの翻訳者が翻訳しており、文書 ID などのメタデータを持っていることもあるので、容易に対訳文を抽出することができる。しかし、これらの一般に公開されている対訳文書は多くない。 近年では、ウェブから対訳文を抽出する手法も多く提案されている。ウェブ上には 2 言語以上で書かれたウェブサイトが多数存在し、こういったウェブサイトから対訳文を抽出する。ウェブ上には、様々な言語や分野の対訳文が存在しており、大規模な  表 1 JParaCrawl コーパスに含まれる重複を取り除いた対訳文数および英語側単語数 対訳コーパスを作成するための有望な情報源である。ウェブから対訳文を抽出する初期の研究としては、大規模な分散システムを構築し対訳文を抽出したもの [8]、Common $\mathrm{Crawl}^{2}$ から対訳文を抽出したもの [9] などがある。最近では、多言語文埋め込みを用いた対訳文対応手法を用いて、Wikipedia や Common Crawl から大規模な多言語対訳コーパスを作成する研究も報告されている [10,11]。 また、ParaCrawl プロジェクトはヨーロッパ言語の大規模な対訳コーパスをウェブから継続的に作成している [12]。我々は以前この活動にヒントを得て、大規模な対訳コーパスが存在しない日英向けの大規模な対訳コーパスを作成した [5]。このコーパスは JParaCrawl と名付けられ、1,000万文を超える対訳文を含む日英における最大規模の対訳コーパスとなっている。しかし、JParaCrawl コーパスは、独英などの欧州言語対と比較するとまだ小規模であり、これをもとにした翻訳モデルの精度も欧州言語対と比較すると低精度である。ゆえに、さらに大きな日英対訳コーパスの作成が求められている。本研究では、ウェブを新たにクロールし対訳文をさらに抽出することで、JParaCrawl コーパスをさらに拡張することを目指す。 ## 3 JParaCrawl v3.0 本研究では、さらにウェブをクロールして対訳文を抽出し、JParaCrawl v2.0コーパスを拡張すること目指す。我々の手法は、以前の ParaCrawl および JParaCrawl プロジェクトに基づくものである。以下の節でその詳細な手順を述べる。 ## 3.1 対訳文を含むウェブサイトの発見 本研究では、ウェブから対訳文を抽出することで大規模な対訳コーパスを構築する。まず、 CommonCrawl 上のテキストデータを CLD22)によって解析し、各ドメインの言語別データ量を得る。その後、英語と日本語が同量程度含まれるウェブサ  イトには対訳文が存在する可能性があるという仮説に基づき、クロール対象ウェブサイトを列挙する。本研究では、2019年 3 月から 2021 年 8 月までに公開された Common Crawl のテキストアーカイブデータを分析対象とし、ウェブサイトの規模が大きく、英語と日本語の文章が同程度である 10 万件のウェブサイトを列挙した。2019年 3 月以前に公開されたデータについては、JParaCrawl v2.0 作成時に既に分析済みであり、本収集の目標の一つである最新の情報を含むこととも乘離しているため除外した。本手順で列挙されたウェブサイト一覧を確認したところ、前回の JParaCrawl v2.0 時に候補に挙がっていないウェブサイトが 7 割を占めていた。なお、本手順には ParaCrawl プロジェクトが提供する extractor4)を使用した。 ## 3.2 ウェブサイトのクロール 次に、前節で列挙されたウェブサイト全体をクロールする。本研究では、Heritrix5)を用いて、各ウェブサイトに対して最大 48 時間のクローリングを行った。これまでの JParaCrawl では、プレーンテキストのみを対象としていたが、今回はこれに加えて、PDF や Word 文書もクロールの対象とした。日本国内の官公庁や企業は PDF で文書を発信することがあり、これらも対訳抽出の対象とすることで対訳文数の増加に寄与すると考えられる。 ## 3.3 対訳文抽出 次に、クロールされたウェブサイトから対訳文を抽出する。本手順には、ParaCrawl プロジェクトが提供する Bitextor ${ }^{6}$ を日本語に対応させ使用した。対訳文書と対訳文の対応付けには、機械翻訳を用いた対応付けツールbleualign [13] を使用した。このツールでは、まず機械翻訳を用いて日本語文を英文に翻訳し、BLEU スコアを最大化する日英の文ペアを発見する。この際、日英翻訳には JParaCrawl v2.0で学習した Transformer ベースのニューラル機械翻訳(NMT)モデルを使用した。なお、以前の JParaCrawl で使用した辞書べースの手法 [14] よりも bleualign の方が高精度であることを予備実験により確認した。  ## 3.4 ノイズ除去 最後の手順として、正しく対応付けられていない、翻訳が不正確など、学習時のノイズとなる文対をフィルタリングする。本手順には、 Bicleaner ${ }^{7)}$ [15]を使用した。ノイズ除去の後、クリーンな対訳文と JParaCrawl v2.0を結合、重複文を削除した。以上の手順により、2100 万文以上を含む新しい大規模な JParaCrawl v3.0を作成した。これは、以前の JParaCrawl v2.0 の倍以上の文数である。 表 1 に、これまでの JParaCrawl および今回作成したv3.0の重複を削除した対訳文数および英語側単語数を示す。なお、これまでの JParaCrawl についても重複削除を行った文数を報告しているため、以前の論文で報告されている値とは異なることに注意されたい。PDF なども対訳抽出対象としたことにより、 HTML のみを対象とする場合と比較して、約 $10 \%$ 対訳文抽出数が向上した。 ## 4 実験 本節では、新たに作成した JParaCrawl v3.0 の翻訳精度への影響を確認するために、NMT モデルを学習し様々なテストセットでその精度を評価した。以降では、使用したテストセットの詳細およびモデル学習時の設定について述べる。 ## 4.1 実験設定 ## 4.1.1 テストセット 様々な分野で NMT モデルの精度を評価するために、 15 種のテストセットでモデルを評価する。付録表 3 に使用するテストセットの分野および統計情報を示す。これらには、以前の JParaCrawl 発表時に報告した ASPEC [16] (科学技術論文), JESC [17] (映画字幕), KFTT [18] (Wikipedia 記事), TED (tst2015) [19] (講演)が含まれる。さらに本実験では、会話文中心の対訳コーパスである Business Scene Dialogue コーパス (BSD) [20] や翻訳シェアードタスク [21, 22, 23, 24, 25] のテストセットを追加した。これらには、ニュース記事、SNS 上のテキスト、Wikipedia 上のコメントなどが含まれる。なおシェアードタスク用テストセットの中には、特定の翻訳方向 (英 $\rightarrow$ 日など) で使用することを前提としたものもあるが、参考までに英日、日英の両方向で評価した。また付録表 4 に 7) https://github.com/bitextor/bicleaner示すように、いくつかのコーパスには学習データが付属しているものがある。比較のため、これらの学習データでも分野別モデルを学習しスコアを報告する。 ## 4.1.2 学習設定 前処理として、対訳コ一パスを sentencepiece [26] を用いてサブワード単位に分割した。この際、語彙数は 32,000 とした。翻訳モデルの学習には fairseq [27]を用い、small、 base、bigの 3つの異なる大きさの Transformer [4] モデルを学習した付録表 5 に詳細な学習設定を示す。以前の JParaCrawl の報告に基づき、TED (tst2015) では small モデルを、KFTTでは base モデルを、その他のテストセットでは big モデルを使用した。なお、学習に関する設定は、公平な比較のために以前の JParaCrawl の報告とほぼ同じであるが、v3.0 モデルについては、対訳コーパスの大きさが原因で 24,000 ステップでは収束せず、更新回数を変更した。評価には sacreBLEU [28]を用い、BLEU スコア [29]を報告する。なお、以前の実験との整合性を保つために、すべてのテストセットを NFKC 正規化した。 ## 4.2 実験結果 表 2 に様々なテストセットにおける BLEU スコアを示す。JParaCrawl v3.0で学習したモデルは、日英ではすべてのテストセットで、英日では 15 のうち 13 のテストセットで以前の JParaCrawl を上回る精度を達成した。この結果は、科学技術論文、 ニュース、対話などの様々な分野において、新しい JParaCrawl が NMT モデルの精度を押し上げることを示している。特に、WMT21ニュース翻訳タスクでは、JParaCrawl v3.0 モデルが大幅に精度を向上させることがわかった。これは、前回の JParaCrawl v2.0 が 2019 年のウェブデータをもとに作成されており、2021 年のニュースに頻出する単語が正しく翻訳できていないことが原因だと推測される。例えば、2021 年のニュース記事では、2019 年には存在しない COVID-19 に関連する単語が頻出する。こういった最新の単語を正しく翻訳できるようにするためには、対訳コーパスを常に更新し続けるなどの対応が必要だと考えられる。 なお、JParaCrawl は特定の分野には特化することを目的としておらず、JParaCrawl 単独では分野別モデルの精度には及ばない。しかし、JParaCrawl モデ 表 2 分野別コーパスおよび JParaCrawl v1.0, v2.0, v3.0 で学習した翻訳モデルの BLEU スコア。JParaCrawl モデルのうち最高スコアのものを太字で示す。 図 1 WMT21 News Ja-Enテストセットの翻訳例 ルから特定分野に対して Fine-tuningを行うことで、分野別データ単独で学習したモデルを上回ることも報告されている [5]。本傾向は JParaCrawl v3.0でも同様だと思われるが、具体的な実験については今後の課題とする。 ## 4.3 翻訳例 図 1 に JParaCrawl v1.0、v2.0、v3.0で学習したモデルの翻訳例を示す。この例は、WMT21ニュース翻訳テストセットから COVID-19に関連するものを選んだ。この入力文には、「濃厚接触者」という日本語が含まれており、これは “close contacts”と翻訳されるべきである。しかし、v1.0 および v2.0 で学習したモデルは “strong contact person” と誤訳している。一方で、v3.0で学習したモデルでは、これを正しく “close contacts”と翻訳できている。テストセットを目視で確認したところ、この例のように COVID-19 に関連する記事で多くの改善が見られた。この結果は、前節で述べた近年頻出する用語を正しく翻訳で きているという仮説を支持するものである。 ## 5 おわりに 本研究では、これまでの大規模日英対訳コーパス JParaCrawl をさらに拡張した JParaCrawl v3.0を作成した。本対訳コーパスは、最新の CommonCrawl アーカイブを分析して対訳文が存在すると思われるウェブサイトを発見し、それらから対訳文抽出を行うことで作成した。新たな JParaCrawl v3.0 は 2100 万以上の対訳文を含んでおり、これは JParaCrawl v2.0 の倍以上の大きさである。本対訳コーパスを用いることで、様々な分野、特に最新のニュース記事の翻訳精度が向上することを実験的に確認した。今後の課題としては、継続的な JParaCrawl の更新や、より優れた対訳文抽出/フィルタリング手法の提案などが挙げられる。なお、本研究で作成した JParaCrawl v3.0 は我々のウェブサイトで研究目的に限り無償で公開する予定である。 ## 参考文献 [1] Ilya Sutskever, Oriol Vinyals, and Quoc V. Le. Sequence to sequence learning with neural networks. In Proceedings of the 28th Annual Conference on Neural Information Processing Systems (NeurIPS), pp. 3104-3112, 2014. [2] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. In Proceedings of the 3rd International Conference on Learning Representations (ICLR), 2015. [3] Minh-Thang Luong, Hieu Pham, and Christopher D. Manning. Effective approaches to attention-based neural machine translation. In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 1412-1421, 2015. [4] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Proceedings of the 31st Annual Conference on Neural Information Processing Systems (NeurIPS), pp. 6000-6010, 2017. [5] Makoto Morishita, Jun Suzuki, and Masaaki Nagata. JParaCrawl: A large scale web-based English-Japanese parallel corpus. In Proceedings of the 12th International Conference on Language Resources and Evaluation (LREC), pp. 3603-3609, 2020 . [6] Philipp Koehn. Europarl: A parallel corpus for statistical machine translation. In Proceedings of the Machine Translation Summit X, pp. 79-86, 2005 [7] Michał Ziemski, Marcin Junczys-Dowmunt, and Bruno Pouliquen. The united nations parallel corpus v1.0. In Proceedings of the 10th International Conference on Language Resources and Evaluation (LREC), pp. 3530-3534, [8] Jakob Uszkoreit, Jay M. Ponte, Ashok C. Popat, and Moshe Dubiner. Large scale parallel document mining for machine translation. In Proceedings of the 23rd International Conference on Computational Linguistics (COLING), pp.1101-1109, 2010 . [9] Jason R Smith, Herve Saint-Amand, M Plamada, P Koehn, C Callison-Burch, and Adam Lopez. Dirt cheap web-scale parallel text from the common crawl. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (ACL), pp. 1374-1383, 2013. [10] Holger Schwenk, Vishrav Chaudhary, Shuo Sun, Hongyu Gong, and Francisco Guzmán. WikiMatrix: Mining 135m parallel sentences in 1620 language pairs from Wikipedia. arXiv preprint arXiv:1907.05791, 2019 [11] Holger Schwenk, Guillaume Wenzek, Sergey Edunov, Edouard Grave, and Armand Joulin. CCMatrix: Mining billions of high-quality parallel sentences on the web, arXiv preprint arXiv:1911.04944, 2019. [12] Marta Bañón, Pinzhen Chen, Barry Haddow, Kenneth Heafield, Hieu Hoang, Miquel Esplà-Gomis, Mikel L. Forcada, Amir Kamran, Faheem Kirefu, Philipp Koehn, Sergio Ortiz Rojas, Leopoldo Pla Sempere, Gema RamírezSánchez, Elsa Sarrías, Marek Strelec, Brian Thompson, William Waites, Dion Wiggins, and Jaume Zaragoza. ParaCrawl: Web-scale acquisition of parallel corpora. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (ACL), pp. 4555-4567, 2020. [13] Rico Sennrich and Martin Volk. Iterative, MT-based sentence alignment of parallel texts. In Proceedings of the 18th Nordic Conference of Computational Linguistics (NODALIDA), pp. 175-182, 2011. [14] Dániel Varga, Péter Halácsy, András Kornai, Viktor Nagy, László Németh, and Viktor Trón. Parallel corpora for medium density languages. In Proceedings of the Recent Advances in Natural Language Processing $\frac{\text { Proceedings of the Recent }}{\text { (RANLP), pp. 590-596, } 2005 .}$ [15] Víctor M. Sánchez-Cartagena, Marta Bañón, Sergio Ortiz-Rojas, and Gema Ramírez-Sánchez. Prompsit's submission to WMT 2018 parallel corpus filtering shared task. In Proceedings of the 3rd Conference on Machine Translation (WMT), pp. 955-962, 2018. [16] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian scientific paper excerpt corpus. In Proceedings of the 10th International Conference on Language Resources and Evaluation (LREC), 2016. [17] R. Pryzant, Y. Chung, D. Jurafsky, and D. Britz. JESC: Japanese-English Subtitle Corpus. arXiv preprint arXiv:1710.10639, 2017. [18] Graham Neubig. The Kyoto free translation task. http://www. phontron.com/kftt, 2011 [19] Mauro Cettolo, Christian Girardi, and Marcello Federico. WIT3: web inventory of transcribed and translated talks. In Proceedings of the 16th Annual Conference of the European Association for Machine Translation (EAMT), pp. 261-268, 2012 . [20] Matīss Rikters, Ryokan Ri, Tong Li, and Toshiaki Nakazawa. Designing the business conversation corpus. In Proceedings of the 6th Workshop on Asian Translation (WAT), pp. 54-61, 2019 . [21] Loïc Barrault, Magdalena Biesialska, Ondřej Bojar, Marta R. Costa-jussà, Christian Federmann, Yvette Graham, Roman Grundkiewicz, Barry Haddow, Matthias Huck, Eric Joanis, Tom Kocmi, Philipp Koehn, Chi-kiu Lo, Nikola Ljubešić, Christof Monz, Makoto Morishita, Masaaki Nagata, Toshiaki Nakazawa, Santanu Pal, Matt Post, and Marcos Zampieri. Findings of the 2020 conference on machine translation (WMT20). In Proceedings of the 5 th Conference on Machine Translation (WMT), pp. 1-55, 2020 [22] Farhad Akhbardeh, Arkady Arkhangorodsky, Magdalena Biesialska, Ondřej Bojar, Rajen Chatterjee, Vishrav Chaudhary, Marta R. Costa-jussa, Cristina España-Bonet, Angela Fan, Christian Federmann, Markus Freitag, Yvette Graham, Roman Grundkiewicz, Barry Haddow, Leonie Harter, Kenneth Heafield, Christopher Homan, Matthias Huck, Kwabena AmponsahKaakyire, Jungo Kasai, Daniel Khashabi, Kevin Knight, Tom Kocmi, Philipp Koehn, Nicholas Lourie, Christof Monz, Makoto Morishita, Masaaki Nagata, Ajay Nagesh, Toshiaki Nakazawa, Matteo Negri, Santanu Pal, Allahsera Auguste Tapo, Marco Turchi, Valentin Vydrin, and Marcos Zampieri. Findings of the 2021 conference on machine translation (WMT21). In Proceedings of the 6th Conference on Machine Translation (WMT), pp. 1-93, 2021. [23] Xian Li, Paul Michel, Antonios Anastasopoulos, Yonatan Belinkov, Nadir K. Durrani, Orhan Firat, Philipp Koehn, Graham Neubig, Juan M. Pino, and Hassan Sajjad. Findings of the first shared task on machine translation robustness. In Proceedings of the 4th Conference on Machine Translation (WMT), 2019. [24] Lucia Specia, Zhenhao Li, Juan Pino, Vishrav Chaudhary, Francisco Guzmán, Graham Neubig, Nadir Durrani, Yonatan Belinkov, Philipp Koehn, Hassan Sajjad, Paul Michel, and Xian Li. Findings of the WMT 2020 shared task on machine translation robustness. In Proceedings of the 5th Conference on Machine Translation (WMT), pp. 76-91, 2020. [25] Antonios Anastasopoulos, Ondřej Bojar, Jacob Bremerman, Roldano Cattoni, Maha Elbayad, Marcello Federico, Xutai Ma, Satoshi Nakamura, Matteo Negri, Jan Niehues, Juan Pino, Elizabeth Salesky, Sebastian Stüker, Katsuhito Sudoh, Marco Turchi, Alexander Waibel, Changhan Wang, and Matthew Wiesner FINDINGS OF THE IWSLT 2021 EVALUATION CAMPAIGN. In Proceedings of the 18th International Conference on Spoken Language Translation (IWSLT), pp. $1-29,2021$. [26] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 66-71, 2018. [27] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan $\mathrm{Ng}$, David Grangier, and Michael Auli. fairseq: A fast, extensible toolki for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies (NAACL HLT), pp. 48-53, 2019. [28] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the 3rd Conference on Machine Translation (WMT), pp. 186-191, 2018. [29] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. BLEU: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics [30] Graham Neubig. Forest-to-string SMT for asian language translation: NAIST at WAT2014. In Proceedings of the 1st Workshop on Asian Translation (WAT), pp. 20-25, 2014 [31] Diederik Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In Proceedings of the 3rd International Conference on Learning Representations (ICLR), 2015. [32] Nitish Srivastava, Geoffrey Hinton, Alex Krizhevsky, Ilya Sutskever, and Ruslan Salakhutdinov. Dropout: A simple way to prevent neural networks from overfitting. Journal of Machine Learning Research, Vol. 15, pp. 19291958, 2014. [33] Razvan Pascanu, Tomas Mikolov, and Yoshua Bengio. On the difficulty of training recurrent neural networks. In Proceedings of the 30th International Conference on Machine Learning (ICML), Vol. 28, pp. 1310-1318, 2013. [34] Christian Szegedy, Vincent Vanhoucke, Sergey Ioffe, Jon Shlens, and Zbig niew Wojna. Rethinking the Inception Architecture for Computer Vision. In Proceedings of CVPR, pp. 2818-2826, 2016. [35] Myle Ott, Sergey Edunov, David Grangier, and Michael Auli. Scaling neural machine translation. In Proceedings of the 3rd Conference on Machine Translation (WMT), pp. 1-9, 2018. [36] Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V. Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klau Macherey, Jeff Klingner, Apurva Shah, Melvin Johnson, Xiaobing Liu, Łukasz Kaiser, Stephan Gouws, Yoshikiyo Kato, Taku Kudo, Hideto Kazawa, Keith Stevens, George Kurian, Nishant Patil, Wei Wang, Cliff Young, Jason Smith, Jason Riesa, Alex Rudnick, Oriol Vinyals, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google's neural machine translation system: Bridging the gap between human and machine translation. arXiv preprint arXiv:1609.08144, 2016 ## A 付録 表 3 にテストセットに含まれる分野、対訳文数および英語側単語数を示す。また、表 4 に分野別学習データに含まれる文数および英語側単語数を示す。なお、ASPEC は本来約 300 万文の学習データを含んでいるが、先行研究に基づき先頭 200 万文のみを学習に使用した [30]。翻訳モデルを学習する際のハイパーパラメータを表 5 に示す。 表 3 テストセットに含まれる分野、対訳文数および英語側単語数 表 4 分野別学習データに含まれる文数および英語側単語数。ASPEC は本来約 300 万文の学習データを含んでいるが、先行研究に基づき先頭 200 万文のみを学習に使用した [30]。 表 5 ハイパーパラメータの一覧
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT4-12.pdf
# 双方向翻訳モデルと反復的逆翻訳を用いた 低資源言語に対するニューラル機械翻訳の性能向上 Bui Tuan Thanh秋葉友良塚田元 豊橋技術科学大学 \{bui.tuan.thanh.mg, akiba.tomoyoshi.tk, tsukada.hajime.hl\}@tut.jp ## 概要 本稿では、低資源言語に対して翻訳性能を改善する手法を提案する。提案法は、2つの手法を組み合わせて適用することで、追加の学習データなしに少量の対訳コーパスだけを用いて、翻訳モデルを学習する。まず、対訳コーパスを用いて、翻訳対象言語対の双方向の翻訳モデルを一つのモデルで構成する双方向翻訳モデルを構築する。次に、同じ対訳コー パスを単言語コーパス対として用いて、反復的逆翻訳 (IBT: Iterative Back Translation)を適用することで、翻訳モデルを更新する。IWSLT2015 の英語・ベトナム語翻訳タスクの低資源対訳コーパス (13 万文)を使用した英越及び越英の翻訳実験により、提案手法の有効性を示した。 ## 1 はじめに 近年、ニューラルネットワークを用いたニュー ラル機械翻訳 (Neural Machine Translation:NMT) が機械翻訳の品質を飛躍的にに向上させている $[1,2]$ 。 ニューラル機械翻訳の翻訳モデルを学習するためには、大規模かつ品質が高い対訳コーパスが必要であるが、そのような対訳コーパスを作成するのはコストが高い。そのため、比較的入手が容易な単言語コーパスでデータ拡張する手法が提案されている。中でも、逆翻訳を用いる手法 [3] やそれを反復的に適用する手法 $[4,5]$ は効果的な手法として知られている。また、Ding ら [6] は、翻訳対象の 2 言語間の双方向翻訳を単一の翻訳モデルとして学習することで、各方向の翻訳性能を向上できることを報告している。 本稿では、Ding ら [6] の双方向ニューラル翻訳 (BiNMT: Bidirectional Neural Translation) モデルと、対訳コーパスを単言語コーパスとして利用した反復的逆翻訳手法を組み合わせることにより、元の対訳 コーパス以外の追加の学習データを使わずに翻訳性能を向上させる手法を提案する。本手法では、最初に対訳コーパスで BiNMT の初期モデルを学習する。次に、学習した BiNMT モデルで、対訳コーパスの各言語側を単言語コーパスとみなして逆翻訳を行い、2つの疑似対訳データを生成する。元の対訳学習データと生成した疑似対訳データを混合し、新たな学習データを構築する。新たな学習データを用いて、初期 BiNMT モデルを fine-tuning し、新しい BiNMT モデルを得る。新しいモデルは、再び擬似対訳データを生成するために利用され、元の対訳学習データと組み合わせて新規学習データを得て、これを用いて再度 BiNMT モデルを更新する。このプロセスを繰り返すことにより、翻訳モデルの性能を改善していく。本手法は、元の対訳コーパス以外の学習データを使用しないため、低資源言語の翻訳モデルの性能向上に利用することができる。 提案した手法の有効性を検証するために、英越言語対に対して実験を行った。英越言語対の単方向翻訳モデルと比較し、双方向翻訳モデルの利用のみでも翻訳性能を有意に改善できた。さらに反復的逆翻訳と組み合わせることで、さらに翻訳性能が向上することを確認した。 ## 2 関連研究 ## 2.1 ニューラル機械翻訳の逆翻訳手法 Sennrich らはデータ拡張手法として目的言語側の単言語データを利用するシンプルで効果的な逆翻訳法 (Back Translation)を提案した [3]。この手法では、最初に目的言語から原言語の方向の翻訳モデルを学習し、目的言語の単言語データを原言語に翻訳し,疑似対訳コーパスを生成する。次に、擬似対訳コー パスを元の対訳コーパスと混合して原言語から目的言語の方向の翻訳モデルを学習する。この手法は目 的言語側の正しい文を使用することで、質の低い擬似的な原言語を用いても翻訳品質の改善が可能であることを示している。逆翻訳手法の有効性は他の論文 [7] でも報告されており、特に対訳コーパスが小規模なときに有効に働くことが示されている。 逆翻訳の関連研究として、Zhang ら [8] は原言語側の単言語データを翻訳し、疑似対訳コーパスを構成してモデルを学習するという自己学習 (self-learning)手法を提案した。Hoang らと森田らは言語対の両方側の単語データを用いる反復的逆翻訳手法 (IBT: Iterative Back Translation) を提案した [4,5]。 反復的逆翻訳手法では原言語側と目的言語側の単言語データを使用し、逆翻訳を繰り返すことで疑似対訳コーパスの生成、モデルの再学習を繰り返す。この手法は低資源言語対においても有効に働くことが示されている。Imamura ら [9] は、逆翻訳においてランダムサンプリングで逆翻訳を行う手法を調査し、ベストサンプリングより有効に働くことを報告した。 ## 2.2 双方向ニューラル機械翻訳 Dinh ら [6] は、学習データを (原言語, 目的言語) のペアとそれを入れ替えた (目的言語, 原言語) のぺアから成る 2 倍のサイズのデータに構成を変更し、翻訳対象の 2 言語間の翻訳を一つの双方向翻訳モデルで学習、最後に目的の単一方向学習データで fine-tuning することで、各方向の翻訳品質を改善できることを報告した。この手法では全学習時間の $\frac{1}{3}$ で双方向翻訳モデルを学習し、残る時間で単方向翻訳モデルを学習する。 ## 3 提案手法 ## 3.1 BiNMT モデル 対訳コーパスからソースとターゲットが逆方向の 2 つの学習データを構築し、ソース側の先頭に翻訳方向を示すタグを追加する。これらを連結して新たな学習データを構成し双方向翻訳モデルの学習に用いる。その際、単一方向の翻訳に学習が一方的に偏るのを避けるため、各方向の対訳を交互に配置するように学習データを構成する。双方向ニューラル機械翻訳モデルの構成を図 1 に示す。翻訳の対訳コーパスは $\mathrm{X}$ 言語と $\mathrm{Y}$ 言語から構成される。 $C_{X}$ は $\mathrm{X}$ 言語のコーパス、 $C_{Y}$ は $\mathrm{Y}$ 言語のコーパスである。 オリジナル 対訳コーパス 図 1 BiNMT モデルの構成 BiNMT の目的関数を次に式に示す。 $ \overleftrightarrow{\mathscr{L}}(\theta)=-\sum_{(\mathbf{x}, \mathbf{y})}(\log p(\mathbf{y} \mid \mathbf{x} ; \theta)+\log p(\mathbf{x} \mid \mathbf{y} ; \theta)) $ ここでは $\mathbf{x}$ が $\mathrm{X}$ 言語の文、 $\mathbf{y}$ が $\mathrm{Y}$ 言語の文である。 ## 3.2 BiNMT モデルに基づく反復的な逆翻訳 提案法は BiNMT と反復的逆翻訳を組み合わせる。 ただし、外部の単言語コーパスは使わずに元の対訳コーパスを単言語コーパス対と見なすことで、新たな疑似対訳コーパスの生成、BiNMT モデルをの再学習を繰り返す。また、Imamura ら [9] と同様に、 ランダムサンプリングを用いて逆翻訳を行い、疑似対訳コーパスを生成する。本手法に用いる反復的逆翻訳の手順を以下に示す。言語 $\mathrm{X}$ を言語 $\mathrm{Y}$ に翻訳することは $\mathrm{X} \rightarrow \mathrm{Y}$, 言語 $\mathrm{Y}$ を言語 $\mathrm{X}$ に翻訳することは $\mathrm{Y} \rightarrow \mathrm{X}$, 言語 $\mathrm{X}$ と言語 $\mathrm{Y}$ の双方向翻訳は $\mathrm{X} \leftrightarrow \mathrm{Y}$ とする。 1 文対応のとれた言語 $\mathrm{X}$ と $\mathrm{Y}$ のコーパス対 $C_{X}$ と $C_{Y}$ コーパスから $\mathrm{X} \leftrightarrow \mathrm{Y}$ の双方向翻訳モデルを学習する。このモデルをモデル 0 とする。以下の手順で $\mathrm{X} \leftrightarrow \mathrm{Y}$ の双方向の翻訳モデルを再学習する. $\mathrm{i}$ の初期值は 0 である。 2.1 双方向の翻訳モデル $\mathrm{i}$ を用いて $\mathrm{X} \rightarrow \mathrm{Y}$ 方向で単言語コーパス $C_{x}$ を翻訳し、 $C_{y}^{i}$ を得る。 図 2 反復的な逆翻訳を用いた BiNMT モデル学習 2.2 双方向の翻訳モデル $\mathrm{i}$ を用いて $\mathrm{Y} \rightarrow \mathrm{X}$ 方向で単言語コーパス $C_{y}$ を翻訳し、 $C_{x}^{i}$ を得る。 2.3 文対応の取れたコーパス対 $C_{X}$ と $C_{Y}$ で学習データを初期化する。 $C_{x}^{i}$ と $C_{y}$ の組みを 1 つの疑似対訳コーパス $(\mathrm{X} \rightarrow \mathrm{Y})$ として学習データに追加する。同様に $C_{y}^{i}$ と $C_{x}$ の組みを疑似対訳コーパス $(\mathrm{Y} \rightarrow \mathrm{X})$ として学習データに加え、新しい学習データを構築する。 2.4 モデル i 新しい学習データでファインチューニングし、得られた双方向翻訳モデルをモデル i+1 とする。 ファインチューニングし、新しい学習データで双方向翻訳モデルを再学習し、 $3 i=i+1$ としてステップ 2 に戻る。 提案法のモデル学習の流れを図 2 に示す。 ## 4 実験 ## 4.1 データ 本稿では International Workshop on Spoken Language Translation (IWSLT-2015) の英語・ベトナム語翻訳タスクの小規模対訳コーパスを用い、英語 $\rightarrow$ ベトナム語及びベトナム語 $\rightarrow$ 英語の 2 つの方向の翻訳タスクで実験を行った。IWSLT 2015 コーパスの tst2012を開発データとし、tst2013をテストデータ として使用した。越英対訳コーパスの文数を表 4.1 に示す。英語文に対しては Moses キットの tokenizer で文をトークン化した。ベトナム語文に対してはは pyvi ライブラリの ViTokenizer で文をトークン化した。英語の文とべトナム語の文は Moses の truecaser を用いて処理を行った。また、原言語の文と目的言語の文を一括して部分単語単位を求める joint Byte Pair Encoding(BPE) [10] で 5000 のサブワードに分割した。 表 1 IWSLT2015 越英コーパスの対訳文体数 ## 4.2 実験設定 ニューラル機械翻訳システムの実装には fairseq を使用した。各方向の翻訳モデルと双方向ニューラル機械翻訳モデルは fairseq の Transformer モデル [2] を用いた。実験の全てのモデルは同じハイパーパラメータの設定を使用した。学習率が $1 \times 10^{-8}$ 、ウォー ムアップが 4000 ステップ、学習率減衰が逆平方根、 ラベル平滑化が 0.1 、ドロップアウトが 0.1 、重み減衰が 0.0001 、損失関数がラベル平滑化クロスエントロピーである。モデル学習する際、Adam の最適化 アルゴリズム $\left(\beta_{1}=0.9, \beta_{2}=0.98\right)$ を使用した。双方向翻訳モデルの訓練データのソース側には各文の先頭に翻訳方向を示すタグ $<e 2 v>$ (英語 $\rightarrow$ ベトナ厶語), $<v 2 e>$ (ベトナム語 $\rightarrow$ 英語) を追加した。逆翻訳を行う際、ランダムサンプリングで単言語デー タを翻訳した。反復的逆翻訳は、反復を 4 回まで繰り返した。ランダムサンプリングは予備実験により temperature $=0.8$ に設定した。 ## 4.3 評価方法 機械翻訳モデルの自動評価手法として BLEUを用いた。越英対訳コーパスで各単方向ニューラル機械翻訳モデルを学習し、ベースラインとする。提案する双方向ニューラル機械翻訳モデルを学習し、ベー スラインと比較し、双方向翻訳モデルが翻訳性能を改善できるかを調査する。さらに、反復的な逆翻訳手法を適用し、翻訳性能を改善できるか調査する。 また、Koehn らが提案したブートストラップ法 [11] により 1000 サンプルで有意差検定を行う。 ## 4.4 実験結果 ベースラインの単方向翻訳モデルと双方向翻訳モデルの翻訳性能を表 2 に示す。ベースラインと比較すると、双方向翻訳モデルが英越方向翻訳で+1.15、越英方向翻訳で+1.6を向上した。また、ベースラインと双方向翻訳モデルとの間で BLEU スコアの有意差検定 $(p<0.01)$ を行い、両方向の翻訳性能には有意差が存在することが確認した。 表 2 2 単方向翻訳モデルと双方向翻訳モデルの翻訳性能 反復的逆翻訳手法によって、各反復回数での翻訳性能を表 3 と図 3 に示す。反復的逆翻訳手法により、双方向翻訳モデルはそれぞれ英越翻訳方向で十 2.61、越英翻訳方向で +3.05 を改善した。英越翻訳方向について、BiNMT モデル 1 と BiNMT モデル 3 の差に対して有意差検定を行い、有意水準 $p<0.01$ で差があることが確認できた。越英翻訳方向については、BiNMT モデル 1 と BiNMT モデル 2 の差に対して検定を行い、有意水準 $p<0.05$ で差があることが確認された。表 3 IBTを用いた双方向翻訳モデル 図 3 繰り返し学習の各モデルの BLEU スコア ## 5 おわりに 双方向翻訳モデルを学習し、元の対訳コーパスを単言語コーパスとみなして逆翻訳とモデル更新を繰り返す反復的逆翻訳手法により、両方向の翻訳性能を同時に改善する手法を提案した。IWSLT2015 の英越対訳コーパスで実験を行い、有効性を確認した。各翻訳方向の単方向翻訳モデルと比較し、越英双方向翻訳モデルは越英翻訳方向と英越翻訳方向を同時に改善でき、反復的逆翻訳で更なる双方向翻訳モデルの性能向上を達成した。本手法ではモデルの変更が必要なく、また追加の学習データを使うことなく元の学習データのみで両方向の翻訳性能を同時に向上させることができる。 本稿の実験では英越言語対の小規模対訳コーパスに行なったが、今後の研究として、他の言語対と大規模対訳コーパスに本手法の有効性を検証したい。 コーパスサイズはどのように影響するかを調査したい。また、本手法と他の手法を組み合わせ、翻訳精度をさらに向上させる手法を研究したい。 ## 謝辞 本研究は JSPS 科研費 19K11980 および 18H01062 の助成を受けた。 ## 参考文献 [1] Minh-Thang Luong, Hieu Pham, and Christopher D. Manning. Effective approaches to attention-based neural machine translation. CoRR, abs/1508.04025, 2015. [2] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. CoRR, abs/1706.03762, 2017. [3] Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. CoRR, abs/1511.06709, 2015. [4] Vu Cong Duy Hoang, Philipp Koehn, Gholamreza Haffari, and Trevor Cohn. Iterative back-translation for neural machine translation. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pages 18-24, Melbourne, Australia, July 2018. Association for Computational Linguistics. [5] 森田知熙, 秋葉友良, and 塚田元. 双方向の逆翻訳を利用したニューラル機械翻訳の教師なし適応の検討. 言語処理学会, 2018 . [6] Liang Ding, Di Wu, and Dacheng Tao. Improving neural machine translation by bidirectional training. CoRR, abs/2109.07780, 2021. [7] Alberto Poncelas, Dimitar Sht. Shterionov, Andy Way, Gideon Maillette de Buy Wenniger, and Peyman Passban. Investigating backtranslation in neural machine translation. CoRR, abs/1804.06189, 2018. [8] Jiajun Zhang and Chengqing Zong. Exploiting sourceside monolingual data in neural machine translation. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, pages 1535-1545, Austin, Texas, November 2016. Association for Computational Linguistics. [9] Kenji Imamura, Atsushi Fujita, and Eiichiro Sumita. Enhancement of encoder and attention using target monolingual corpora in neural machine translation. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pages 55-63, Melbourne, Australia, July 2018. Association for Computational Linguistics. [10] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. CoRR, abs/1508.07909, 2015. [11] Philipp Koehn. Statistical significance tests for machine translation evaluation. In Proceedings of the 2004 Conference on Empirical Methods in Natural Language Processing, pages 388-395, Barcelona, Spain, July 2004. Association for Computational Linguistics.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT4-13.pdf
# BERT の転移学習と Mis-leading データの削除による 識別精度の改善 岩本昇太 茨城大学工学部 情報工学科 18t4012t@vc.ibaraki.ac.jp } 新納浩幸 茨城大学大学院理工学研究科 情報科学領域 hiroyuki.shinnou.0828@vc.ibaraki.ac.jp ## 概要 自然言語処理のタスクを機械学習で解決するとき,ラベル付き訓練データの不足に対処する必要がある。転移学習はターゲット領域のラベル付き訓練データが全く無い場合にも有効な手法であるが,「負の転移」と呼ばれる問題に対処する必要がある.本稿では BERTを用いた文書分類タスクで転移学習を行うときに負の転移に対処するため Mis-leading データの削除と BERT の転移学習を行い,文書分類タスクで識別精度を改善できることを確認した。 ## 1 はじめに 自然言語処理のタスクの多くは,機械学習の手法により解決できる.ただし,そのためには大量のラベル付き訓練データが必要となる.BERT [1] のような事前学習済みモデルを用いる場合も,fine-tuning のためのラベル付き訓練データは必要となる。転移学習を用いれば,ターゲット領域の訓練データが全く無い場合にも対応できる。しかし,転移学習を用いる場合は負の転移 [2] と呼ばれる問題に対処する必要がある.負の転移は,ソース領域のデータとターゲット領域のデータの性質が著しく異なるときにソース領域のデータを訓練に用いると識別精度が悪化する現象である。 本稿では,BERTを用いた文書分類タスクで転移学習を行うときに Mis-leading データの削除と BERT の追加学習を行い,識別精度の改善を試みる。 Mis-leading データは,ソース領域の訓練データのうちターゲット領域での識別精度に悪影響を及ぼすものである.事前に Mis-leading データを削除することで,ターゲット領域での識別精度の向上が期待できる。また,ターゲット領域のラベルなしデータを用いて BERT の追加学習を行うことで,fine-tuning後の識別精度の向上が期待できる [3]. Mis-leading データの削除に加えて BERT の追加学習も行い,識別精度のさらなる改善を図る。 ## 2 関連研究 ## 2.1 BERT Bidirectional Encoder Representations from Transformers(BERT) [1] は 2018 年に Google より公開された事前学習済みモデルである。BERT は入力としてトー クン列(単語もしくはサブワード)を受け取り,それに対応する埋め込み表現列を出力する。ここで,出力される埋め込み表現は文脈を考慮したものとなっている。大規模コーパスにより事前学習したモデルを下流タスクのラベル付きデータで fine-tuning することで,文書分類・固有表現抽出・質問応答など様々なタスクに対応できる。日本語版の事前学習済みモデルとして,東北大学で公開されているモデル1)などがある. ## 2.2 タスク適応型事前学習 Gururangan ら [3] は BERT の派生モデルである RoBERTa [4] の領域適応のためにタスク適応型事前学習 (Task-Adaptive Pretraining; TAPT) を提案した. タスク適応型事前学習は,事前学習済みモデルに対して解きたいタスクのテキストデータを用いた追加の事前学習を行う手法である。 ## 2.3 負の転移 負の転移 (Negative Transfer) [2] は,ソース領域のデータとターゲット領域のデータの性質が著しく異なるときにソース領域のデータを訓練に用いると識別精度が悪化する現象である。転移学習では,ど  のようにして負の転移を検知・回避するかが問題となる. ## 3 提案手法 タスク適応型事前学習を行えば,BERTを用いた文書分類タスクにおける識別精度の改善は実現できる. しかし,転移学習を用いる場合に負の転移が生じうるという問題は解消されていない。本稿では, BERTを用いた文書分類タスクで転移学習を行うときに Mis-leading データの削除と BERT の追加学習を行うことで識別精度を改善する手法を提案する。 Mis-leading データを削除する方法は以下の通りである. ・ターゲット領域のラベルなしデータを離散確率分布 $P$ で表現する ・ソース領域の個々の訓練データを離散確率分布 $Q_{k}$ で表現する( $k$ 番目の文書に $Q_{k}$ が対応) - Kullback-Leibler 情報量 $D_{K L}\left(P \| Q_{k}\right)$ 計算し,その値が大きいラベル付きデータを削除する ## 3.1 BERT を用いた文書分類タスクの転移学習 本稿では,下記の手順により BERTを用いた文書分類タスクの転移学習を行う. 1. BERTをソース領域のラベル付きデータで fine-tuning して文書分類器を作成する. 2. 作成した文書分類器により, ターゲット領域で文書分類を行う。 BERT の fine-tuning では,ターゲット領域のラベル付きデータは使用しない。 ## 3.2 Kullback-Leibler 情報量 Kullback-Leibler 情報量は,情報理論や統計学において 2 つの確率分布の類似度を表す尺度である。ある 2 の離散確率分布 $P, Q$ に対する Kullback-Leibler 情報量 $D_{K L}(P \| Q)$ は,式(1)となる. $ D_{K L}(P \| Q)=\sum_{i} P(i) \log \frac{P(i)}{Q(i)} $ ここで $P(i), Q(i)$ はそれぞれ離散確率分布 $P, Q$ に従って $i$ が選ばれる確率である. ## 3.3 文書の離散確率分布表現 文書を離散確率分布として表現するためには,まず文書をべクトル化しなければならない。文書のべクトル化には Bag-of-Wordsを用いる. このとき, 単語の重み付けには文書内での単語の出現頻度 (Term Frequency)を用いる. 文書 Doc のベクトル表現は式 (2)のようになる. $ \left(t f_{1}, t f_{2}, \ldots, t f_{N_{w}}\right) $ ここで, $t f_{i}$ は単語分割時に用いた辞書で $i$ 番目に登録されている単語が文書 $D o c$ 内で登場した回数, $N_{w}$ は単語分割時に用いた辞書に収録されている単語数である. 式 (2)より文書を実数値のベクトルで表現できるようになったが,単語を確率変数とし,文書を離散確率分布として表現するためには,式 (2) のべクトルをさらに変換する必要がある.そこで,式 (2) のベクトル表現を式 (3) のように変換する. $ \begin{array}{r} \left(v_{1}, v_{2}, \ldots, v_{N_{w}}\right) \\ v_{i}=\frac{t f_{i}}{Z}, \quad Z=\sum_{i=1}^{N_{w}} t f_{i} \end{array} $ 確率は次の 2 条件を満たす。 - $v_{i} \geq 0$ (確率の值は非負の実数) - $\sum_{i=1}^{N_{w}} v_{i}=1$ (確率の総和は 1) 式 (3) のベクトルは, $Z$ の定め方より $\sum_{i=1}^{N_{w}} v_{i}=1$ (確率の総和は 1)を満たす。また, $t f_{i}$ は明らかに非負の値をとるため, $v_{i} \geq 0$ (確率の値は非負の実数)を満たす.したがって,上記の方法により文書を離散確率分布として表現できる. ## 3.4 Mis-leading データの削除 Mis-leading データは,ソース領域の訓練データのうちターゲット領域での識別精度に悪影響を及ぼすものである. 本節では Mis-leading データを削除する方法を説明する。 訓練データとなるラベル付きの文書の集合を $D_{S}=\left.\{D o c_{1}, D o c_{2}, \ldots, D o c_{N}\right.\}$ とする. $D_{S}$ には $N$ 件の文書が属し, $D_{S}$ に属する文書はすべてソース領域に属する。また,ラベルなしの文書のうちター ゲット領域に属するものの集合を $D_{T}$ とする. Mis-leading データを削除する手順は以下の通りである. 1. $D_{T}$ に属する文書すべてを 1 つの文書とみなし, 3.3 節で説明した手法により離散確率分布 $P$ を得る. 2. $D_{S}$ に属する文書に 3.3 節で説明した手法を適用し,離散確率分布 $Q_{1}, Q_{2}, \ldots, Q_{N}$ を得る. $k$ 番目の文書 $D o c_{k}$ に対応する離散確率分布が $Q_{k}$ である. 3. 各離散確率分布 $Q_{1}, Q_{2}, \ldots, Q_{N}$ について Kullback-Leibler 情報量 $D_{K L}\left(P \| Q_{k}\right)$ を計算する. 4. ラベルに基づいて訓練データをグループ分けする. 各グループ内で Kullback-Leibler 情報量 $D_{K L}\left(P \| Q_{k}\right)$ の値の大きい順に文書を並べ替え, $D_{K L}\left(P \| Q_{k}\right)$ の值の大きい方から一定数の文書を取り出す. 取り出した文書,すなわち $D_{K L}\left(P \| Q_{k}\right)$ の値の大きい文書を Mis-leading データとみなし,訓練データの集合から削除する。 ## 3.5 BERT の追加学習 BERT を fine-tuning して文書分類器を作成する前に,タスク適応型事前学習を行う. 本稿ではデータセットに含まれる全領域のラベルなしデータを用いて追加学習を行い, その後ターゲット領域のラベルなしデータを用いて追加学習を行った. ## 4 実験 BERTを用いた文書分類タスクで転移学習を行うとき, Mis-leading データの削除と BERT の追加学習を行った場合の識別精度を確認した. Mis-leading データの削除と BERT の追加学習を行わずに転移学習を行った場合 (ベースライン) の識別精度と提案手法を用いたときの識別精度を比較し,提案手法の有効性を確認した。 ## 4.1 事前学習済みモデル 東北大学で公開されているモデル (BERT-basejapanese)を使用した。 ## 4.2 実験用データセット 実験には Webis-CLS-10 データセットを用いた. このデータセットには日本語及び英語の Amazon レビュー文書が収録されている. 本実験では日本語の文書を用いる. ラベルは星の数であり, 1 から 5 までの 5 段階である.ただしラベルが 3(星 3つ)のデータは存在しない. 本実験ではラベルが 4,5 のデータを positive, ラベルが 1,2 のデータを negative として感情分析(2 值分類)を行った. このデータセットには books, dvd, music の 3 つの領域がある。各領域には訓練データ 2000 件,テス トデータ 2000 件が収録されている. この 2 つはラベル付きデータである. また,訓練データ・テストデータとは別にラベルなしデータが収録されている. データセットの内訳を表 1 に示す. 実験では,ソース領域の訓練データを fine-tuning の訓練データとした. また,ターゲット領域の訓練データを検証用データとし, 識別精度の最終的な評価にはターゲット領域のテストデータを用いた. ## 4.3Mis-leading データの削除 3.4 節で説明した手法により, ソース領域の訓練データから Mis-leading データを削除した. 文書の単語分割には BERT-base-japanese の tokenizer を用いた. 削除する件数は $200,400,600,800,1000$ のいずれかとし,検証用データの識別精度をもとに削除する件数を選択した。 ## 4.4 BERT の追加学習 BERT-base-japanese に対してタスク適応型事前学習を行った. まず全領域のラベルなしデータ及び訓練データを用いて 10epoch の追加学習を行った. ここで,ラベルなしデータの件数は領域により異なる. 本稿では books と dvd についてはラベルなしデータをランダム抽出し, music のラベルなしデータと同じ件数のラベルなしデータを用意した. music については全てのラベルなしデータを用いた.全領域のラベルなしデータ及び訓練データを用いた追加学習により得られたモデルをモデル A とする。 更に,モデル A に対してターゲット領域のラベルなしデータ及び訓練データを用いて 10epoch の追加学習を行った. どの領域についても, モデル A の追加学習で用いたものと同一のラベルなしデータで追加学習を行った. なお,追加学習では Masked Language Model のみを行い, Next Sentence Prediction は省略した. ## 4.5 文書分類器の作成 モデル A に対してターゲット領域のラベルなしデータ及び訓練データを用いて追加学習を行っ 表 2 実験結果 (正解率) たモデルを fine-tuning し, 文書分類器を作成した. fine-tuning にはソース領域の訓練データのうち, 3.4 節で説明した手法により Mis-leading データを削除したものを用いた。 ## 4.6 実験結果 提案手法を用いて転移学習を行った場合の識別精度及び提案手法を用いずに転移学習を行った場合(ベースライン)の識別精度を表 2 に示す。 ベースラインの数値は, 追加学習を行っていない BERT-base-japanese をソース領域の訓練データ全てで fine-tuning して作成した文書分類器をターゲット領域で用いた場合の正解率である.ソース領域とターゲット領域の組み合わせは計 6 パターンあるが,全パターンについて文書分類タスクを行い,識別精度を評価した。 表 2 の通り,ソース領域とターゲット領域の組み合わせの全パターンで提案手法での正解率がベースラインの正解率を上回った. ## 5 考察 以下,ソース領域とターゲット領域の組を(ソー ス領域,ターゲット領域)と表記することがある. ソース領域とターゲット領域の各組み合わせについて, Mis-leading データを削除するために計算した Kullback-Leibler 情報量 $D_{K L}\left(P \| Q_{k}\right)$ のばらつきを図 1 の箱ひげ図に表した。 ベースラインの正解率と提案手法の正解率を比較したとき,正解率の上がり幅が最も大きかったソース領域とターゲット領域の組は (dvd, books) である。また,正解率の上がり幅が最も小さかった組は (music, dvd) である. 図 1 の箱ひげ図より,(dvd, books) では他の組よりも Kullback-Leibler 情報量の散らばりが大きく, Kullback-Leibler 情報量の中央值は小さいとわかる.一方で,(music, dvd)では他の組よりも Kullback- 図 1 Kullback-Leibler 情報量 $D_{K L}\left(P \| Q_{k}\right)$ のばらつき。箱の左のラベルはソース領域とターゲット領域の組(ソー ス,ターゲット). Leibler 情報量の散らばりが小さく,Kullback-Leibler 情報量の中央値は比較的大きいとわかる。このような Kullback-Leibler 情報量のばらつきが,Mis-leading データを削除する効果の大きさに影響していると考えられる。 ## 6 おわりに 本稿では,BERTを用いた文書分類タスクで転移学習を行うときに Mis-leading データの削除と BERT の追加学習を行い,識別精度の改善を試みた. 実験により, Mis-leading データの削除と BERT の追加学習を行わない転移学習と比較したときに識別精度が改善されることを確認できた。 ## 謝辞 本研究は JSPS 科研費 JP19K12093 および 2021 年度国立情報学研究所公募型共同研究 (2021-FC05) の助成を受けています. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Michael T Rosenstein, Zvika Marx, Leslie Pack Kaelbling, and Thomas G Dietterich. To transfer or not to transfer. In NIPS 2005 workshop on transfer learning, Vol. 898, 2005 . [3] Suchin Gururangan, Ana Marasović, Swabha Swayamdipta, Kyle Lo, Iz Beltagy, Doug Downey, and Noah A. Smith. Don't stop pretraining: Adapt language models to domains and tasks. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8342-8360, Online, July 2020. Association for Computational Linguistics. [4] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized BERT pretraining approach. CoRR, Vol. abs/1907.11692, , 2019.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT4-14.pdf
# 書き手と読み手の怒りの感情認識の差の原因となる表現の獲得 中川翼 1 北田 俊輔 2 彌冨 仁 ${ }^{1,2}$ 1 法政大学理工学部応用情報工学科 2 法政大学理工学研究科応用情報工学専攻 \{tsubasa.nakagawa.5p, shunsuke.kitada.8y\}@stu.hosei.ac.jp iyatomi@hosei.ac.jp ## 概要 SNS 等,オンライン上でやりとりされる文章から相手の感情を正しく推定するのは時に難しく,書き手と読み手の間での認識・解釈の違いはトラブルにつながる可能性がある. 本研究では,書き手と読み手の感情認識の差に着目した上で,感情認識の差が特に大きい「怒り」の感情に焦点を当て,その差が大きい文章を予測する識別器を構築するとともに,感情認識の差を生み出している表現を明らかにするための分析を行った. 検出された表現は, それ自体に怒りの感情を表す意味は持たないため,読み手が読み取るのは難しいが,書いた本人は確かに怒りの感情を持つ傾向にあった. ## 1 はじめに 感情分析は,与えられた文章から感情を推定する自然言語処理の主要なタスクの一つである [1]. 感情を考慮した対話システム [2] や商品レビューからの意見抽出 [3] など様々な用途がある. さらに SNS 等を中心としたオンライン上での文章のやりとりの増加を受けて,特に Twitter の文章を対象に感情極性を考慮した研究 [4] も盛んに行われている. 文章から相手の感情を正確に推定することが,オンライン上でのコミュニケーションでは重要である. 近年では,感情極性(肯定的・否定的)の推定 [5] だけでなく, 感情の種類や強度の推定 [6] も試みられている。感情の種類を考慮した推定では,Ekman の 6 感情(喜び・悲しみ・驚き・怒り・恐れ・嫌悪) [7] や Plutchik の 8 感情(喜び・悲しみ・期待・驚き・怒り・恐れ・嫌悪・信頼) [8] が代表的な基本感情として用いられている. 相手の感情をより正確に把握するためには,このような粒度の細かい単位での推定が重要になる. 一方で機械学習を用いた感情分析において,このような多様な感情を対象にした場合,感情は人の経験や背景にも依存するため,文章 のみから正確な推定を行うことは難しい. これらの多くの先行研究では文章の読み手が付与したラベルを用いて読み手の感情に沿った推定が行われてきたが,文章の書き手が持つ感情と読み手が受ける感情には差が存在すると考えられる。 Kajiwara ら [9] は SNS 上の文章を対象にテキストの書き手による主観的な感情強度ラベルとテキストの読み手による客観的な感情強度ラベルの両方を収集したデータセット WRIME を構築・公開した. 彼らは書き手と読み手の感情強度の比較を行い,怒りや信頼の感情を中心に,読み手は書き手の感情を十分に読み取れず,過小評価する傾向にあると述べている. 我々は,こうした書き手と読み手の感情認識の差を生み出す表現を明らかにすることが相手の感情をより正確に推定する上で重要になると考えた。 本研究では書き手と読み手の両方による 8 種類の感情強度が付与された文章から,今回は感情認識の差が大きい「怒り」の感情に焦点を当て,BERT [10] を用いてその差が大きい文章の予測を行うとともに,その差を生み出していると思われる表現の検出を試みた。検出された単語は,それ自体に怒りの感情を表す意味は持たないため,読み手が読み取るのは難しいが,怒りの感情を持った人間が文章を書く際に無意識に用いている表現であると言える。 ## 2 データセットと実験手法 本研究で我々は,書き手と読み手の感情強度が付与された WRIME データセット1)を用いて書き手と読み手の感情認識の差の分析を行った,次にその分析結果から,差の大きい「怒り」の感情に着目し, その差が大きい文章を予測する識別器を構築した。 さらに,その差を生み出している表現の検出を試みた。  ## 書き手 (a) 書き手による感情ラベルの共起行列 ## 読み手 (b) 読み手による感情ラベルの共起行列 図 1: 書き手と読み手のそれぞれにおける感情ラべルの共起行列 ## 2.1 データセットとその分析 WRIME データセットは Kajiwara ら [9] によって構築された日本語の感情分析データセットである. SNS に投稿された計 43,200 件の文章に対して,その投稿者本人とその内容を読んだ第三者 3 人による 8 種類の感情強度が 4 段階 $(0 \sim 3)$ で付与されている. 付与された 8 種類の感情強度は Plutchik $の 8$ 感情 [8] に基づく,我々は,この書き手と読み手の両方の感情ラベルを持つという特性が双方の感情認識の差を明らかにする上で適していると考え,このデータセットを用いて書き手と読み手のそれぞれの感情ラベルについて分析を行った. 図 1 に,書き手と読み手のそれぞれにおける,感情強度が 2 以上である感情ラベルの共起行列を示 す. 書き手の感情強度は投稿者本人による感情ラべルであり,読み手の感情強度は第三者 3 人による感情ラベルを平均したものである.書き手による感情ラベルの共起行列 $1 \mathrm{a}$ と読み手による感情ラベルの共起行列 $1 \mathrm{~b}$ を比べると, 読み手は文章から一つの感情に絞って読み取る傾向にあるのに対し,書き手は複数の感情が共起する傾向にあり,より複雑であることが分かる.また,各感情のラベル数に着目すると,読み手は書き手の感情を十分に読み取れず,過小評価する傾向にある.特に「怒り」と「信頼」 の感情においてその傾向は顕著である.具体的には,怒りのラベルでは書き手が 3,040 件であるのに対し,読み手は 543 件しか認識できていない。信頼のラベルについても同様に書き手が 5,167 件であるのに対し,読み手は 185 件しか認識できていないため,読み手は書き手が持つ「怒り」や「信頼」の感情を十分に読み取れていないと言える。 ## 2.2 隠れ怒り文章の予測モデル 上述の分析結果から,本研究では書き手と読み手の感情認識の差が大きい「怒り」の感情に焦点を当て,その差が大きい文章を予測する識別器を構築した. 我々は, 4 段階 $(0 \sim 3)$ で付与された怒りの感情強度において,書き手の強度が読み手の強度を 2 以上上回っている文章は,読み手が書き手の怒りを十分に読み取れておらず,第三者が怒りの感情を推定しにくい“隠れ怒り”文章であると考えた。計 43,200 件の WRIME データセットを 4:1の割合で訓練用と評価用に分割し,書き手の怒りの感情強度が読み手の強度を 2 以上上回っている“隠れ怒り”文章を検出する 2 值分類を行った. 感情強度の差を求める際,書き手の強度が読み手の強度を上回るケー スと読み手の強度が書き手の強度を上回るケースの 2 つの可能性が考えられるが,怒りの感情ラベルのみを見た場合,後者のケースはほぼ見られなかったため,今回は考慮しなかった。 “隠れ怒り”文章の予測モデルには,BERT [10] をベースとするモデルを用いた。日本語 Wikipedia で事前学習された WholeWordMasking モデル2)を使用し,モデルの実装には Transformers ${ }^{3}$ [11]を用いた. BERT の最終層の [CLS] トークンから得られた 768 次元の分散表現を全結合層に入力し,“隠れ怒り”文章を検出する 2 值分類を行った. 損失関数に交差エ 2) https://huggingface.co/cl-tohoku/ 3) https://github.com/huggingface/transformers 表 1: “隠れ怒り”文章を検出する 2 值分類の性能 図 2: “隠れ怒り”文章を検出する 2 值分類の ROC 曲線 ントロピー誤差,最適化手法に Adam [12] を使用し, バッチサイズは 32 , ドロップアウト率は 0.1 , 学習率は $2 e^{-5}$ ,学習回数は 3 回とした。また,計 34,560 件の訓練用データのうち,検出対象である “隠れ怒り" 文章が 1,910 件と全体と比べて少ないため,偏りの影響が減るよう損失関数への重み付けとオー バーサンプリングを行った. 評価指標には,ROC曲線下の面積である AUCを用いた。 ## 2.3 怒りの感情認識の差を生み出している 単語の検出方法 “隠れ怒り”文章の予測で真陽性であった文章において出現頻度が高い上位 10 単語を品詞別で求めた.次に,求めた上位 10 単語を対象に真陽性であった文章における出現頻度と真陰性であった文章における出現頻度の両方を求め, 真陽性での出現頻度が真陰性での出現頻度を特に大きく上回っている単語を抽出した. ここでの出現頻度は,対象の単語の出現回数を真陽(陰)性の文章群における全単語の出現回数の和で割った值である. さらに, 抽出された単語を含む文章における書き手と読み手 3 人の怒りの感情強度の平均をそれぞれ求め, 抽出された単語が書き手と読み手の怒りの感情認識に差を生み出しているか検証した。 ## 3 実験結果 図 3: “隠れ怒り”文章の予測で真陽性であった文章における頻出単語(上位 10 単語) ## 3.1 隠れ怒り文章の予測モデルの性能 表 1 に,“隠れ怒り”文章を検出する 2 值分類の性能を示す. 計 8,640 件の評価用データのうち,検出対象である“隠れ怒り”文章が 493 件とデータ数に偏りがあるが,“隠れ怒り”文章を一定数検出できていると言える. 図 2 に,“隠れ怒り”文章を検出する 2 值分類の ROC 曲線とその曲線下の面積である AUC を示す。 AUC が 0.771 (検出感度が $80.1 \%$ のき,特異度が $58.6 \%$ )であることから,“隠れ怒り”文章の検出器として一定の効果があることが確認できた。 ## 3.2 怒りの感情認識の差を生み出している 単語の検出結果 図 3 に,“隠れ怒り” 文章の予測で真陽性であった文章において出現頻度の高かった上位 10 単語を品詞別で求めたものを示す. 横軸は真陽性と真陰性のそれぞれの文章における各単語の出現頻度を表している. 真陽性での出現頻度が真陰性での出現頻度を大きく上回っている単語は,書き手と読み手の怒りの感情認識に差を生み出している表現であると言える. 名詞や助詞には出現頻度の差はほぼ見られないが,接続詞や感動詞には真陽性での出現頻度が真陰性での出現頻度を大きく上回っている単語がいく 表 2: 検出された単語とそれらを含む文章での怒りラベルの平均 つか見られる。 表 2 に, 図 3 の頻出単語の中で真陽性での出現頻度が真陰性での出現頻度を特に大きく上回っている単語とその単語を含む文章での怒りラベルの平均を示す. 差の欄の数値は,書き手の感情ラベルの平均から読み手 3 人の感情ラベルの平均を差し引いた值であり,この値が大きいほど書き手と読み手の怒りの感情認識に差があると言える. 検出された単語を含む文章での差の方がデータセット全体での差よりも大きい. よって,検出された単語は,それ自体に怒りの感情を表す意味は持たないため,読み手が読み取るのは難しいが,怒りの感情を持った人間が文章を書く際に無意識に用いている表現であると言える. 検出された「ほんと」や「そんな」といった単語は,あとに続く単語の意味を強調するために用いられることが多く, 文脈次第で意味が変化する. デー タセットの文章とラベルのみを用いた分析では,こうした単語同士の関係性を考慮した分析は難しい. BERT ベースの検出器を用いて文脈を考慮した分析を行うことで,第三者が読み取りにくい“隠れ怒り”表現と思われる単語を検出することができたと考えられる。 ## 4 おわりに 本研究では書き手と読み手の両方による 8 種類の感情強度が付与された文章から,感情認識の差が大きい「怒り」の感情に焦点を当て,BERT [10]を用いてその差が大きい文章の予測を行うとともに,その差を生み出していると思われる表現の検出を試みた。 BERT ベースの検出器を用いて文脈を考慮した分析を行うことで,「ほんと」や「そんな」といった,書き手と読み手の怒りの感情認識の差の原因となり得る表現を検出することができた.読み手は文章から一つの感情に絞って読み取る傾向にあるのに対し,書き手は複数の感情が共起する傾向にあったため,今後は複数の感情を考慮し,より書き手の感情に沿った推定モデルを構築したい. ## 参考文献 [1] Bing Liu. Sentiment analysis and opinion mining. Synthesis lectures on human language technologies, Vol. 5, No. 1, pp. 1-167, 2012. [2] Mauajama Firdaus, Hardik Chauhan, Asif Ekbal, and Pushpak Bhattacharyya. Emosen: Generating sentiment and emotion controlled responses in a multimodal dialogue system. IEEE Transactions on Affective Computing, 2020. [3] Xing Fang and Justin Zhan. Sentiment analysis using product review data. Journal of Big Data, Vol. 2, No. 1, pp. 1-14, 2015. [4] Apoorv Agarwal, Boyi Xie, Ilia Vovsha, Owen Rambow, and Rebecca J Passonneau. Sentiment analysis of twitter data. In Proceedings of the workshop on language in social media (LSM 2011), pp. 30-38, 2011. [5] Richard Socher, Alex Perelygin, Jean Wu, Jason Chuang, Christopher D Manning, Andrew Y Ng, and Christopher Potts. Recursive deep models for semantic compositionality over a sentiment treebank. In Proceedings of the 2013 conference on empirical methods in natural language processing, pp. 1631-1642, 2013. [6] Laura Ana Maria Oberländer and Roman Klinger. An analysis of annotated corpora for emotion classification in text. In Proceedings of the 27th International Conference on Computational Linguistics, pp. 2104-2119, 2018. [7] Paul Ekman. An argument for basic emotions. Cognition \& emotion, Vol. 6, No. 3-4, pp. 169-200, 1992. [8] Robert Plutchik. A general psychoevolutionary theory of emotion. In Theories of emotion, pp. 3-33. Elsevier, 1980. [9] Tomoyuki Kajiwara, Chenhui Chu, Noriko Takemura, Yuta Nakashima, and Hajime Nagahara. Wrime: A new dataset for emotional intensity estimation with subjective and objective annotations. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 2095-2104, 2021. [10] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. Bert: Pre-training of deep bidirectional transformers for language understanding. arXiv preprint arXiv:1810.04805, 2018. [11] Thomas Wolf, Julien Chaumond, Lysandre Debut, Victor Sanh, Clement Delangue, Anthony Moi, Pierric Cistac, Morgan Funtowicz, Joe Davison, Sam Shleifer, et al. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45, 2020. [12] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014 .
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT4-15.pdf
# 強化学習を用いたキャラクタらしさを持つ雑談応答の生成 清水健吾 上垣貴嗣 菊池英明 } 早稲田大学人間科学研究科 \{k.bi.sket@akane., t-gappy@fuji., kikuchi@\}waseda.jp ## 概要 雑談対話システムがユーザに「また対話したい」 と思わせるための方法として,特定のキャラクタらしさをシステム応答に付与する方法が考えられる。本研究は,強化学習を用いてニューラル対話生成モデルを fine-tuning することで,特定のキャラクタらしい雑談応答を生成できる対話生成モデルを提案する. Fine-tuning の際に,特定のキャラクタらしさを持つ単一の発話データのみを必要とし,対話形式のデータを必要としない点で既存研究と大きく異なる。提案手法に基づく対話システムを評価した結果,対話システムのユーザに特定のキャラクタらしさの印象を与え,「また対話したい」と思わせる効果を確認した。 ## 1 はじめに 雑談対話システムの研究において「ユーザにまた対話したいと思わせられるか」という観点は大きな課題となっている。ユーザに「また対話したい」と思わせられる対話システムを開発することを目的としたコンペティションも開催されている $[1,2]$. また,近年,人と極めて自然な雑談対話を行うことが出来る大規模なニューラル対話生成モデルが登場した $[3,4]$. これらの対話生成モデルに基づく対話システムが,よりユーザに「また対話したい」と思わせるための方法として,システム応答に特定のキャラクタらしさを付与する方法が考えられる. 対話生成モデルに特定のキャラクタらしさを付与する研究として, [5] が挙げられる. [5] は, 特定のキャラクタらしさを持つ対話データを収集することで,特定のキャラクタらしい発話を生成する対話システムを提案した。しかし,特定のキャラクタらしさを持つ対話形式のデータを収集するには大きなコストを要する。本研究の目的は,ある特定のキャラクタらしさを持つ応答を生成する手法を提案することである. 特に,対象のキャラクタらしさを持つ対話形式のデー タではなく,対象のキャラクタらしさを持つ単一の発話データのみを使用して,発話にキャラクタらしさを付与する手法を提案する.具体的には,強化学習を用いて対話生成モデルを fine-tuning することで,システム応答に特定のキャラクタらしさを付与する.また,本研究が提案する手法によって,対話システムのユーザに「このシステムとまた対話したい」と思わせることができるかについても併せて検証する。 ## 2 提案手法 提案手法は以下の 3 つの段階で構成される. 1. 対話生成モデルを学習するために,Twitter 疑似対話データセットとキャラクタツイートデータセットの 2 種類のデータセットを構築する. 2. Twitter 疑似対話データセットを用いて大規模言語モデルを学習することで対話生成モデルを構築する。 3. 強化学習を用いて,構築した対話生成モデルを fine-tuning する。まず,キャラクターツイー トデータセットを用いて,「対象のキャラクタらしさ」を算出する報酬モデルを構築する.次に,報酬モデルが算出する報酬を用いて対話生成モデルに強化学習を行う。 ## 2.1 データセットの構築 ## 2.1.1 Twitter 疑似対話データセット Twitter のツイートとそのツイートに対するリプライの連鎖を疑似的な対話とみなし,Twitter 疑似対話データセットを構築した。収集したツイート・リプ ライ連鎖に対してURL,ハッシュタグ等の削除や,文字の正規化などの前処理を行った. ツイート・リプライ連鎖の取得は 2020 年 3 月から 2021 年 12 月にかけて行い,最終的に約 292 万件のデータセットを構築した。 ## 2.1.2 キャラクタツイートデータセット 特定のキャラクタらしさを持つツイートを収集し,キャラクタツイートデータセットを構築した。本研究では対象のキャラクタとして,アニメ「けものフレンズ」1)に登場する「アライグマ」2)を採用した. アライグマを取り上げた理由は以下の 2 点である. ・Twitter 上にアライグマを模したアカウントが多く存在し,データを集めやすかった. - 発言内容にキャラクタらしさが表れやすいキャラクタであるため,提案手法の有効性を確認しやすかった。 ツイートを収集した基準を以下に示す。 ・有志がまとめた,Twitter 上に存在するアライグマに模したアカウントの一覧3)に含まれていること. ・アカウント名に「さん」が含まれ,アカウントのプロフィールに「のだ」が含まれていること. 収集したツィートに対して,2.1.1 節で述べた Twitter 疑似対話データセットと同様の前処理を施した. さらに,感情分析タスク用に fine-tuning した BERT[6] ${ }^{4}$ を用いてツイートフィルタリングすることで,ポジティブな内容のツイートのみを残した.最終的に約 3.5 万件のデータセットを構築した. ## 2.2 対話生成モデルの構築 本研究では,対話を生成するモデルとして GPT2[7] を使用した。事前学習済み GPT-2 として rinna 社が公開しているモデル5)を使用した,GPT-2を 2.1.1 節で構築した Twitter 疑似対話データセットを用いて学習することで, 日本語版DialoGPT[8]を構築した. ミニバッチサイズを 16 , gradient accumulation stepsを2,学習率を $2.5 \times 10^{-5}$, optimizerとして  AdamW[9]を使用し,4 エポック学習を行った。 ## 2.3 強化学習による fine-tuning 2.2 節で構築した DialoGPT が,対象のキャラクタらしさを持つ応答を生成できるように強化学習によって fine-tuning を行った. ## 2.3.1報酬モデル まず,強化学習における報酬である「対象のキャラクタらしさ」を算出するための報酬モデルを構築した. 報酬モデルとして RoBERTa[10]を使用した.事前学習済み RoBERTa として rinna 社が公開しているモデル6)を使用した. RoBERTaを2.1.2 節で述べたキャラクターツイートデータセットを用いて fine-tuning した.「対象のキャラクタらしさを持つツイートか否か」の 2 値分類タスクを学習することで,学習したモデルからの出力を「対象のキャラクタらしさ」とみなすことができる. ミニバッチサイズを 256 , 学習率を $3.0 \times 10^{-5}$, optimizer として AdamW[9]を使用し,1 エポック学習を行った. ## 2.3.2 Proximal Policy Optimization (PPO) 本研究では, 強化学習アルゴリズムの一つである Proximal Policy Optimization (PPO)[11]を用いる. PPO を言語生成タスクに適用する際には,損失関数は以下のように定義される。 $ \begin{gathered} r(\theta)=\frac{\pi_{\theta}\left(y_{t} \mid s_{t}\right)}{\pi_{\text {old }}\left(y_{t} \mid s_{t}\right)} \\ \text { loss }=-\mathbb{E}_{\hat{Y} \sim \pi_{\text {old }}}\left[\operatorname { m i n } \left(\sum_{t=1}^{T} r(\theta) A\left(s_{t}, y\right)\right.\right. \\ \left.\left.\operatorname{clip}(r(\theta), 1-\epsilon, 1+\epsilon) A\left(s_{t}, y\right)\right)\right] \end{gathered} $ 式(1)における $A\left(s_{t}, y\right)$ は強化学習の報酬を表す. $\pi_{\text {old }}$ は数ステップ過去のモデルを表す. 現在のモデルからの出力と過去モデルからの出力の比 $r(\theta)$ と,報酬の値 $A\left(s_{t}, y\right)$ の積が最大化されるように学習する.このようにすることで,報酬の値が正の時は現在の出力の確率を上げ,反対に報酬の値が負の時は現在の出力の確率を下げるように学習される. ただし, 現在のモデルからの出力と過去モデルからの出力の比が大きすぎるものに対してはクリッピングを 6) https://huggingface.co/rinna/japanese-roberta-base 図 $1 \mathrm{PPO}$ 学習時の報酬の増減 する.これはモデルの急激な変化を防ぎ,学習を安定させる働きがある. また, さらに学習を安定させるために報酬 $A\left(s_{t}, y\right)$ を次のように設定する。 $ A(x, y)=r(x, y)-\beta \log \frac{\pi(y \mid x)}{\rho(y \mid x)} $ 式 (2)における $\rho$ は初期状態のモデルを表す. 現在のモデルの状態が初期のモデルの状態から離れ過ぎないように,報酬の值 $r(x, y)$ に対してペナルティを与えることで,学習の安定化を図る。 ## 2.3.3 PPO による fine-tuning 2.2 節で構築した DialoGPT に対して,PPO を用いて fine-tuning を行った. 報酬として 2.3.1 節で構築した報酬モデルが算出する「対象のキャラクタらしさ」を利用する。「対象のキャラクタらしさ」を最大化するように学習することで,DialoGPT が生成する応答に対象のキャラクタらしさを付与する. ミニバッチサイズを 8 ,学習率を $1.41 \times 10^{-5}$, optimizer として Adam[12] を使用し,200 ステップ学習した. その他のパラメータは [13] に準拠した.学習時の報酬の増減を図 1 に示す. 学習終了後, 報酬が安定した 60 ステップ目のモデルの重みを保存した. また,学習したモデルが生成した実際の対話例を表 1 に示す. ## 3 評価実験 ## 3.1 実験目的 以下の 2 点を目的に評価実験を行った。 1. 提案システムによる発話が,発話の受け手に対してある特定のキャラクタらしさを感じさせるかを検証する。表 1 PPOによって学習した DialoGPT との対話例 User|こんにちは一 System こんにちはなのだ!今日もよろしくお願いしますのだ! User System User System User System User System $ \text { こちらこそよろしくねー! } $ よろしくお願いしますのだ!今日寒いけど、アライグマさんは寒くない?寒いのだー!暖かくして過ごすのだ! アライさんはもふもふしていて暖かそうもふもふなのだー! 私はアイスが好きで、今日もアイス食べちゃった。 アイス美味しいのだー!アライさんも食べるのだー! 表 2 評価項目 評価項目名 |アンケート質問文 自然さ|この対話システムの対話は自然であった。 キャラクタらしさこの対話システムは「アライさん」 だと思う。 対話継続欲求この対話システムと今後も対話をしたい。 2. 提案システムのユーザが「このシステムと今後も対話をしたい」と思わせる効果があるかを検証する。 ## 3.2 実験設定 実験では 2.2 節で構築した fine-tuning を行う前の DialoGPT(ベースラインシステム)と,2.3 節で fine-tuning を行った後の DialoGPT(提案システム) を比較した。 評価項目を表 2 に示す. 被験者はクラウドソー シングを利用して 50 名募集した. キャラクタらしさを判断できるように,被験者はアニメ「けものフレンズ」の視聴経験がある者に限定した. 被験者はLINE 上で 8 回対話システムと対話を行い,それぞれの対話に対して,表 2 の評価項目について 1 (まったくそう思わない)から5(とてもそう思う) の 5 段階で評価した。なお,被験者はベースラインシステムと提案システムのどちらと対話をしているか知らされなかった。 ## 3.3 実験結果 評価実験の結果を図 2 に示す.キャラクタらしさの評価項目に対してはウィルコクソンの符号順位検定を行い,他の 2 つの評価項目に対しては対応のある $t$ 検定を行った。検定の結果,キャラクタらしさの項目 $(W=15.5, p<.001 )$ と対話継続欲求の項目 Baseline Proposed Baseline Proposed Baseline Proposed 図 2 評価実験の結果(左から順に自然さ,キャラクタらしさ,対話継続欲求を表す.) 表 3 各評価項目の組み合わせごとの無相関検定 $(t(49)=2.26, p=.028)$ において,提案システムがベースラインシステムを有意に上回った(有意水準 5\%未満). したがって,提案システムが生成する応答が,ユーザに特定のキャラクタの印象を与え,「このたいわシステムとまた対話をしたい。」と思わせる効果を確認した. また,自然さの項目において, ベースラインシステムと提案システムの評価值の同等性を確認するために Two One-Sided Test (TOST) をおこなった. 許容する差の閾値は $\pm 0.5$ とした. 検定の結果,2つのシステムの評価值間において有意な同等性が確認された $(p=.0043)$. したがって提案手法は,対話の自然さを損なわずに特定のキャラクタらしさを付与できることを確認した. また,各評価項目間の組合せにおいて無相関検定を行った. 相関係数としてはスピアマンの相関係数を用い, $p$ 值にはボンフェローニ補正を施した. 各項目の組み合わせごとの検定の結果を表 3 に示す。 検定の結果,自然さと対話継続欲求,キャラクタらしさと対話継続欲求のそれぞれの評価值間で有意な正の相関が確認された。 ## 4 おわりに 本研究の貢献は以下のとおりである. 1. 強化学習を用いて,ある特定のキャラクタらしさを持つ対話応答を生成する手法を提案した. モデルの学習には対象のキャラクタらしさを持つ単一の発話データのみを必要とし,対話形式のデータである必要はない. 2. 本研究が提案した手法で応答を生成することに よって,対話システムのユーザに「このシステムと今後も対話したい」と思わせる効果があることを確認した。 本研究で提案した手法によって,より容易に特定のキャラクタらしい対話システムを構築できる可能性が示唆された。今後は,提案手法が他のキャラクタやより高精度で大規模な対話システムに対しても応用可能かを検証する予定である. ## 参考文献 [1] Raefer Gabriel, Yang Liu, Anna Gottardi, Mihail Eric, Anju Khatri, Anjali Chadha, Qinlang Chen, Behnam Hedayatnia, Pankaj Rajan, Ali Binici, et al. Further advances in open domain dialog systems in the third alexa prize socialbot grand challenge. Alexa Prize Proceedings, 2020. [2] 東中竜一郎, 西川寛之, 宇佐美まゆみ, 船越孝太郎, 高橋哲朗, 稲葉通将, 赤間怜奈, 佐藤志貴, 堀内颯太, ドルサテヨルス, 小室允人, 西川寛之, 宇佐美まゆみ. 対話システムライブコンペティション 4. 第 93 回言語・音声理解と対話処理研究会, pp. 92-100, 2021. [3] 藤原吏生, 岸波洋介, 今野颯人, 佐藤志貴, 佐藤汰亮,宮脇峻平, 加藤拓真, 鈴木潤, 乾健太郎. ILYS aoba bot:大規模ニューラル応答生成モデルとルールベースを統合した雑談対話システム. 第 90 回言語・音声理解と対話処理研究会, pp. 110-115, 2020. [4] Hiroaki Sugiyama, Masahiro Mizukami, Tsunehiro Arimoto, Hiromi Narimatsu, Yuya Chiba, Hideharu Nakajima, and Toyomi Meguro. Empirical analysis of training strategies of transformer-based japanese chit-chat systems. arXiv preprint arXiv:2109.05217, 2021. [5] Ryo Ishii, Ryuichiro Higashinaka, Koh Mitsuda, Taichi Katayama, Masahiro Mizukami, Junji Tomita, Hidetoshi Kawabata, Emi Yamaguchi, Noritake Adachi, and Yushi Aono. Methods for efficiently constructing text-dialogueagent system using existing anime characters. Journal of Information Processing, Vol. 29, pp. 30-44, 2021. [6] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Vol. 1, pp. 4171-4186, 2019. [7] Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei, Ilya Sutskever, et al. Language models are unsupervised multitask learners. Technical report, Open AI, 2019. [8] Yizhe Zhang, Siqi Sun, Michel Galley, Yen-Chun Chen, Chris Brockett, Xiang Gao, Jianfeng Gao, Jingjing Liu, and William B Dolan. DIALOGPT: Large-scale generative pre-training for conversational response generation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 270-278, 2020. [9] Ilya Loshchilov and Frank Hutter. Decoupled weight decay regularization. arXiv preprint arXiv:1711.05101, 2017. [10] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A robustly optimized BERT pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [11] John Schulman, Filip Wolski, Prafulla Dhariwal, Alec Radford, and Oleg Klimov. Proximal policy optimization algorithms. arXiv preprint arXiv:1707.06347, 2017. [12] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In International Conference on Learning Representations (ICLR), 2015. [13] Daniel M Ziegler, Nisan Stiennon, Jeffrey Wu, Tom B Brown, Alec Radford, Dario Amodei, Paul Christiano, and Geoffrey Irving. Fine-tuning language models from human preferences. arXiv preprint arXiv:1909.08593, 2019.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT4-16.pdf
# 新型コロナウイルス感染症関連ツイートのトピックと感情の分析 小島章太郎 $^{1}$ 内山清子 $^{1}$ 1 湘南工科大学 工学部 コンピュータ応用学科 18A6050@sit.shonan-it.ac.jp uchiyama@sc.shonan-it.ac.jp ## 概要 本研究ではソーシャルネットワーキングサービス 「Twitter」の投稿を分析し、新型コロナウイルス感染症に関するトピックと感情の分析を目的とする。 その上で、日本語のツイートデータを対象とした、感情値の推移の分析とトピックモデルによる単語の分析とトピック割合推移の調査、深層学習による感情の分類モデルの構築を実施した。 ## 1. はじめに 近年ではソーシャルネットワーキングサービス (SNS) に様々な文章が投稿されている。新型コロナウイルス感染症 (COVID-19) は世界的に流行が拡大しており、世間に継続的な影響が発生している感染症である。COVID-19 に関する SNS 上の投稿を分析することで感染症に対する世間の意識変化や流行傾向などを分析できるのではないかと考えた。 本研究では SNS サービス「Twitter」の投稿を分析することで、COVID-19 に関する世間の感情や興味の変化について分析することを目標とした。感情分析については COVID-19 流行下において、日本の Twitterに対して 1 年以上にわたり適用している例が見られなかったことから、より大規模な感情分析を実現できるのではないかと考えた。 ## 2. 関連研究 本研究では SNS 上の投稿の分析を行うため、インターネット上の投稿のトピック分析に関する先行研究を 2.1 節に記載する。また、COVID-19 に関する Twitter の分析の先行研究について 2.2 節に記載する。 ## 2.1. インターネット投稿のトピック分析 時系列に沿って変化するインターネット上の投稿に対する分析として、佐藤らはレビューサイトの分析を行い、月ごとなど一定期間の TF-IDF 值を計算して季節を表す特徵語の抽出を実現している [1]。大規模なイベントに対するトピックの分析について、北田らは東日本大震災を題材にトピックモデルの一種である LDAを用いて分析を行っている [2]。 ツイートに対する感情分析としては中村による 「感情表現辞典」 [3]をもとに 10 軸に分類する手法が一般的となっている。山本らはこれを Twitter の投稿に適用し、感情分析を行っている [4]。同研究では Twitter 特有の単語表現や顔文字等の表現が感情表現辞典には含まれていないこと、ツイートという短文に対して 10 軸の感情軸を適用するのは過多であり、現実的ではないとされている。 ## 2. 2. COVID-19 に関する Twitter 分析 Lisa Singh らは 2020 年 1 月から 3 月にかけて世界各国の Twitter 上の COVID-19に関する投稿を分析している [5]。一部の国については COVID-19 の症例件数とツイートの件数に一定の相関関係が見られたことから、SNS 上の投稿を分析することで感染拡大状況の推定・予測ができる可能性が示されている。 井原らは 2020 年 1 年間の日本語のツイートの分析を行い、感染拡大状況とツイート数の関係の精查、感情単語の時系列変化の検証等を行っている [6]。 機械学習を用いて COVID-19 関連ツイートの感情を分析する試みは英語圏では積極的に行われており Rustam らはツイートのネガティブ・ポジティブの二值分類を複数の機械学習モデルを用いて行い、精度を比較している [7]。 本研究では、新たに 2020 年 1 月から 2021 年 6 月にかけての日本語のツイートデータを用いて検証を行うことで長期間の分析を実現する。合わせてトピック分析を実施し、単語のトピック別の分類とトピックの出現推移の調査を実施する。また、先行事例では深層学習を用いて日本語の COVID-19 関連のツイートの感情分析を行っている例が見られなかったため、本研究では新たに日本語の COVID-19 関連ツイートに対する感情分析モデルの構築と比較を行う。 ## 3. 使用データについて 本研究では、Twitter Academic Research APIを用いてツイートの取得を行った。検索キーワードとして 「新型コロナウイルス」を使用し、2020 年 1 月 1 日から 2021 年 6 月 30 日を対象に、キーワードが含まれるツイート全件の取得を行った。取得したツイー 卜は合計 6,549,683 件となった。このうち、メンション(@ツイート)については分析の対象外としているため、分析対象の件数は約 620 万件となった。 ツイート本文を処理する際、単語への分割が必要となるため形態素解析エンジンを用いて分かち書きを実施した。形態素解析エンジンは MeCab [8]を使用し、新語・造語に強みを持つ Neologd 辞書 [9]をシステム辞書として用いることで、Twitter 本文の分かち書きを実現した。解析にあたり、下処理として英数字の半角への統一、記号の除去、数字の除去等を行ったほか、Twitter 特有の処理として、エスケー プ記号(\&amp;等)の復元、リンク・@メンション・ハッシュタグ記号の除去を実施している。 また、厚生労働省がオープンデータとして公開している COVID-19 新規陽性者数の推移データを比較対象として使用している [10]。はじめに、感染者数の増減をもとに期間分けを定義した。 7 日間平均が増加し始めてから減少傾向に転じるまでの期間を増加期、減少傾向に入ってから減少が止まるまでの期間を減少期、2 週間以上感染者数が大きく変化しなかった期間を停滞期としている。期間分けの推移と感染者数の推移の対応を図 3.1 に示す。 図 3.1 期間分けと感染者数の対応 https://developer.twitter.com/en/products/twitter-api/academicresearch次に、ツイート数と感染者数の比較と、単語の出現確率の感染者数との比較を試みた。ツイート数と感染者数の比較は、直接的な比例関係は見られなかった(図 3.2)。単語ごとの比較については、1 日毎にツイート本文を結合し 1 つの文書とし、その文書集合に対して TF-IDF 值の計算を行った。 図 3.2 ツイート数と感染者数の関係感染拡大初期と重なる第 1 波増加期については、「ステイホーム」や「ソーシャルディスタンス」、「テイクアウト」などいくつかの単語が感染者数との相関係数 0.8 以上の正の相関を示していた。第 1 波減少期では、「不要不急の外出」「臨時休業」「外出自肃」などが 0.8 以上の正の相関を示した他、「再開」などの単語が増加傾向となる負の相関を示していた。第 2 波以降では有意な相関を示す単語は確認されなかった。 ## 4. 提案手法 本研究では、COVID-19 の状況下での Twitter の感情を分析するため、はじめに感情値の推移の分析を行った。続いてトピックの分析を行い、トピックの割合の推移について調查を行った。最後に深層学習を用いて感情分析を実施し、感情の分類モデルの作成を行った。 ## 4.1. 日別平均感情値の分析 取得したツイートの本文に対し、感情分析ツール 「MLAsk」 [11]を用いて 10 軸の感情分析を実施した。MLAsk は入力したテキストの形態素解析を行い、感情辞書と比較することで、感情表現辞典に基づきテキストを「好」「安」「哀」「厭」「怖」「怒」 「恥」「昂」「驚」「喜」の 10 軸に分類することが可能である。また、単語の感情表現辞典との比較や、記号や顔文字の解析を行うことで、ネガティブ・ポ ジティブ、覚醒・非覚醒の 2 軸にテキストを分類することが可能である。 収集したツイートデータに対し、10 軸の感情分析を実施した。なお、MLAskでは感情表現辞典を元に定義された単語群を元に感情の分類を行うため、テキスト中の単語がいずれも感情表現辞典に記載されていない場合、無感情という判定となる。今回分析対象とした約 620 万件のツイート本文データのうち、 ML-Ask にて感情が含まれていると判定されたツィ一トは約 115 万件(約 18.5\%)であった。感情軸別の推移をプロットしたものを図 4.1 に示す。 図 4.1 感情軸別の推移グラフ 感染拡大初期は「怖」という感情が半数以上を占めていたことが明らかとなった。全体的には 2020 年 2 月以降は「厭」という感情が 3 割 4 割で最多となっている。 第 1 回緊急事態宣言解除のタイミングや年末には 「喜」という感情が瞬間的に増加するなど、特定の時点にいくつかの特徴が見られた。また、「恥」「昂」 「好」「怒」などの感情はほぼ 1 割を下回った状態が続いており、Twitter の投稿ではあまり感情軸として確認することができなかった。 ## 4. 2. LDA を用いたトピック分析と比較 続いて、トピックモデルの一種である潜在的ディレクリ配分法(Latent Dirichlet Allocation:LDA)を用いてトピック分析を行った。LDA では一つの文書に複数のトピックが存在していることが前提となっていることから、大規模で複数のトピックが混在している可能性が高い本研究では適していると考え、 LDA を採用した。 はじめにトピック数の決定を行う必要があるため、分析トピック数を2〜21まで 20 回変化させてトピックの分析を行い、指標である Perplexity と Coherence の値の確認を行った(図 4.2)。 図 4.2 LDA トピック数別評価結果の推移 その結果、Perplexity が安定しCoherence の值が最も高かった 7 が適切なトピック数と判断し、トピック数として採用した。 実際にトピック数を 7 に設定し分類されたトピックごとの単語の例を図 4.3 に示す。 図 4.3 LDA トピック分類結果 LDA ではトピック数を設定すれば自動でクラスタリングが行われるものの、その結果については人間が手動で意味付けを推定する必要がある。今回の推定結果を表 4.1 に示す。 表 4.1 トピック項目の推定結果 各トピックの割合推移を分析した結果、感染拡大初期の 2020 年 1 月ごろは、緊急事態宣言の発令準備等に伴う Topic3:行政の動きに関する言及や、PCR 検査やワクチンなど Topic4:検查・対策手法に関する言及、マスクなど Topic2:感染予防策などの言及が多数を占めていた。その後、2020 年 4 月頃からは Topic0:感染者数に関する言及が $25 \%$ 程度を占め最多となっている。次いで Topic6:行政アカウント等からの発信が多かったものの、第 2 波が到来した 2020 年 7 月 8 月ごろは Topic5:感染者数の報道への言及が、年末には Topic1:社会的影響に関する言及が一時的に増加していた。なお、実際のトピック割合推移のグラフについて付録に示している。 ## 4. 3. 深層学習を用いた感情分析 MLAsk で解析することができるネガティブ・ポジティブの判定を教師データとして、深層学習を用いてツイートの感情属性の予測を行った。MLAsk ではラベル付けを行えなかった「ニュートラル」のツイ一トに関しては学習対象から除外している。ラベル付けを行うことができたネガティブ・ポジティブ各属性のツイート 2 万件ずつ、合計 4 万件のツイートを使用し、学習データと検証データを $7: 3$ に分割して検証を行った。予測に際しては日本語処理に対応した言語処理モデルの BERT など複数のモデルの比較を行い、精度の差を検証した。学習はすべて Tensorflow 2.5.0i豆用いて行った。実際に検証を行った汎用モデルとその正解率の一覧を表 4.2 に、BERT モデルとその正解率の一覧を表 4.3 に示す。Long Short Term Memory (LSTM)、Simple Recurrent Neural Network (RNN)、Global Average Pooling 1D については Tensorflow 標準のモデルを使用し、BERT については東北大学[12]、京都大学[13]、ホットリンク社[14] が配布しているモデルを使用し、ファインチューニングを実施した。 表 4.2 感情分析タスクのモデルと正解率一覧 表 4.3 検証を行った BERT モデルと正解率一覧 & $\mathbf{3}$ & $\mathbf{9 7 . 6 4 \%}$ \\  Tensorflow 標準の汎用モデルの中では LSTM が最も高い正解率を示し、続いて SimpleRNN、Global Average Pooling 1Dの順となった。 BERT の中で最も正解率が高かったのはホットリンク社のSNS コーパスを用いた BERT モデルで、唯一 97\%台となっている。その後に京都大のモデル、東北大のモデルが続いている。全体的に汎用モデルと比較し、BERT は高い正解率を示すことができた。 ## 5. 考察 本研究では、ツイートデータに対する感情分析とトピック分析をもとに COVID-19 に関するツイートの分析を実施した。 日別感情值の推移については、緊急事態宣言の発令等に関する時期に感情の変化を見ることができた。一部の感情軸についてはツイートデータ上ではあまり確認できなかったことから、ツイートに対する感情軸については最適化の余地があると考えられる。 トピック分析については、LDAを用いることである程度適切なトピック分析を実施することができたと考えられる。2020 年 4 月頃から現在に至るまで、感染者数への言及が最も多くトピックとして現れており、感染者数が感染症の一つの指標として世間の関心が高い状態が続いていると考えられる。 日本語ツイートに対寸る深層学習を用いた感情分析についてはSNS コーパスによるBERT モデルがもっとも高い正解率を示した。同 SNS コーパスは本研究と同じくツイートを元に構築されており、約 8600 万ツイートをもとに構築された大規模なコーパスであることが理由と考えられる。また、どの BERT モデルも $90 \%$ を超える正解率が確認された。今回はネガティブ・ポジティブの二値分類だったため、比較的高い結果を出すことができたことが考えられる。 ## 6. おわりに 本研究では、COVID-19 関連のツイートデータを収集し、その分析と感染者数との比較を行った結果、感染者数との有意義な相関関係は見られないことを示した。また、感情分析を実施し時期ごとの感情特性を明らかにした他、深層学習を用いてツイートデ ータの感情を高精度で分類することを示した。 今後は他の文脈におけるツイートデータの活用や、他のインターネット上のテキストデータへの応用を検討していきたい。 ## 参考文献 1. 佐藤裕次郎,山西良典,西原陽子. 宿泊施設のレビューの時系列分析による季節を表す特徴語の抽出. 人工知能学会, 2019. SIG-AM-21-19. 2. 北田剛士,ほか. 東日本大震災時のツイートのトピック系列の可視化と分析. 2015 年度人工知能学会全国大会論文集, 2015. 2B3-NFC-02a-1. 3. 中村明. 感情表現辞典. 東京堂出版, 1993 . 978-4490103397. 4. 山本湧輝, 熊本忠彦 , 灘本明代. ツイートの感 情の関係に基づくTwitter 感情軸の決定. 第 7 回デー タ工学と情報マネジメントに関するフォーラム論文集, 2015. 5. Lisa Singh,ほか. A first look at COVID-19 information and misinformation sharing on Twitter. National Institutes of Health, 2020. 6. 井原史渡, 岸本大輝, 栗原聡. 新型コロナウイルスに伴う Twitter の分析と感染状況との関連. 第 35 回人工知能学会全国大会論文集, 2021. 7. Furqan Rustam,ほか. A performance comparison of supervised. PLOS ONE, 2021. ## 8. MeCab: Yet Another Part-of-Speech and Morphological Analyzer. (オンライン) (引用日: 2021 年 5 月 21 日.) https://taku910.github.io/mecab/. 9. 佐藤敏紀. Neologism dictionary based on the language resources on the Web for Mecab. (オンライン) 2015 年. (引用日: 2021 年 3 月 9 日.) https://github.com/neologd/mecab-ipadic-neologd. 10. 新型コロナウイルス感染症について>オープンデータ|厚生労働省. (オンライン) 厚生労働省. (引用日: 2021 年 8 月 27 日.) https://www.mhlw.go.jp/stf/covid-19/open-data.html. 11. PtaszynskiMichal. ML-Ask: Affect Analysis System. Michal Ptaszynski / Research. (オンライン) (引用日: 2021 年 7 月 2 日.) http://arakilab.media.eng.hokudai.ac.jp/ ptaszynski/repo sitory/mlask.htm. 12. 東北大学乾研究室. cl-tohoku/bert-base-japanese. Hugging Face. (オンライン) (引用日: 2021 年 10 月 29 日.) https://huggingface.co/cl-tohoku/bert-base-japanese. 13. BERT 日本語 Pretrained モデル . 京都大学黒 橋・褚・村脇研究室. (オンライン) 2020 年 11 月 21 日.(引用日: 2021 年 10 月 29 日.) https://nlp.ist.i.kyoto-u.ac.jp/?ku_bert_japanese. 14. 大規模日本語SNS コーパスによる文分散表現モデルの公開 : hottoSNS-BERT の配布. 株式会社ホツトリンク公式ブログ. (オンライン) 株式会社ホットリンク, 2019 年 3 月 11 日. (引用日: 2021 年 10 月 29 日.) https://www.hottolink.co.jp/blog/20190311_101674/. ## $\mathrm{A$ 付録} 図 A1 新型コロナウイルス LDA トピック推移
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT4-17.pdf
# Masked Language Model による系列確率に基づく文法誤り検出 土肥康輔 須藤克仁 中村哲 奈良先端科学技術大学院大学 \{doi.kosuke.de8, sudoh, s-nakamura\}@is.naist.jp ## 概要 言語モデルに基づく文法誤り訂正手法は,少量のラベル付きデータしか必要としないという長所があるが,既存手法では訂正対象の誤り種類が限られているという課題があった. 本研究では,対象の誤り種類を拡大する第一歩として,言語モデルにより算出される系列確率に基づく文法誤り検出手法を提案する. 文法的に正しい文での各語の確率を計算して辞書に格納し,推論時には,誤り検出対象の文での確率と辞書での確率を比較することで,その語が誤りであるかを判別する.実験の結果, $F_{0.5}$ スコアは既存モデルに及ばなかったものの, Recall が Precision より高くなり,今後適切な制約を加えることで性能を向上させられる可能性が示された. ## 1 はじめに 文法誤り検出 (GED) は,テキスト中の誤りを自動的に検出するタスクである.Bi-LSTM ベースのモデルが主流であったが $[1,2,3,4,5]$, 近年では事前学習済み言語モデルを用いる手法も提案されている $[6,7]$. これらの研究は GED を系列ラベリングタスクとして解いているが,利用可能なラベル付きデー タは多くなく,疑似データの利用も行われている。 少量のラベル付きデータしか必要としない手法に,言語モデルに基づくアプローチがある. 文法誤り訂正 (GEC) タスクにおいて,言語モデルの利用は主要なアプローチの 1 つだったが [8],機械翻訳に基づく手法の台頭によりあまり見られなくなっていった ${ }^{1)}$. Bryant ら [9] や Alikaniotis ら [10] の研究により,言語モデルに基づく手法が再度注目を浴びたが,[9][10] の手法では,訂正できる誤りの種類が限定されていることが課題となっていた. そこで本研究では,言語モデルに基づくGEC 手法で扱える誤り種類を拡大する第一歩として,事前学習済み言語モデルによる系列確率に基づく GED を提案する。 1)ただし,GECシステムの一部分としては使い続けられた。実験では,提案手法が評価セット中のすべての誤り種類を検出対象とできていることが確認された.しかし,性能では既存モデルに及ばず,特に Precision に課題があった。一方で,提案手法は比較的高い Recall を達成しており,今後適切な制約を加えることで性能を向上させられる可能性がある. ## 2 関連研究 ニューラルネットワーク手法を初めて GED に用いたのは Rei ら [1] である. CNN,RNN,Bi-LSTM を比較した結果,Bi-LSTM が最も良い性能を示したと報告されている.以降は,[1]のモデルを改良する形で研究が進められ,[2] では文字レベルの情報を追加で用い,[3] ではラベルを予測する前後のトークンを言語モデルで同時に予測することで,性能の向上が図られた. [5] は文脈化された単語分散表現を追加の特徴量として用いることで,さらに性能を向上させた.また,疑似データを用いることで性能が向上することも報告されている [4]. Bi-LSTM に基づくこれらの手法に対して,Kaneko ら [6] は事前学習済み言語モデルを用いることを提案した。事前学習済み言語モデルをファインチュー ニングして用いる場合,最終層の出力のみを予測に用いるのが一般的だが,[6] は BERT [11] の最終層だけでなく中間層の出力も利用するモデルを構築した. Yuan ら [7] は事前学習手法が GED タスクに類似している ELECTRA [12] を用いるほうが,BERT を含む他の事前学習済み言語モデルを用いるよりも高い性能となることを示した.さらに,誤り箇所の誤りカテゴリも予測する多クラス GEDを提案し, GED の出力を GEC タスクの追加入力として用いることで,GEC の性能が向上することを示した. 言語モデルに基づくアプローチでは,低い確率の系列には誤りが含まれていると考える。[9] は母語話者コーパスから構築した N-gram 言語モデルを用いることで,少量の誤り情報付きデータしか必要としない GEC 手法を提案した. [10] は BERT 等の最 新のニューラル言語モデルを用いることで,同手法の性能を向上させた. しかし, [9][10] のモデルの訂正対象は,存在しない語,形態(例 : 名詞の数, 動詞の時制), 冠詞,前置詞に限定されており,誤りの $20 \%$ 程度を占める不足誤りを訂正できないという問題点があった. ## 3 提案手法 本研究では,訓練データでの各トークンの確率を算出し,トークンを見出し,確率を値とする確率辞書を作成する.推論時には,誤り検出対象の文での確率と辞書での確率を比較することで,そのトークンが誤りであるかを判別する.以下の節で,確率辞書作成と推論の手法について説明する。 ## 3.1 確率辞書作成 確率辞書を作成するための元データには,母語話者コーパス,または誤り訂正済みの学習者コーパスを用いる. 辞書に保存されている確率値が推論時の正誤判断基準となるため,文法的に正しい文を用いて辞書を作成する. 本研究では,トークンの確率算出に BERT を用いる。 入力文中の各トークンを [MASK] し,元のトークンが返される確率を計算する手法 $[10,13]$ によってトークンの確率を得る.訓練データから 1 文ごとにトークンの確率を算出し, そのトークンを見出し, 確率を值として辞書に登録していく.訓練データの文は BERT のトークナイザーで分割されるため,見出しはサブワードとなり,訓練データで複数回登場するサブワード(見出し)には複数の確率(値)が登録される。訓練デー タ中での頻度が $N$ 以上であるサブワードのみを確率辞書に残すというパラメータ min_freqを設定し,本研究では $m i n \_f r e q \in\{1,5,10\}$ とする. ## 3.2 推論 推論時には,確率辞書作成時と同じ手法でトークンごとの確率を算出し, 推論対象の文中での確率と辞書の確率を比較する(図 1). 確率辞書には,1つの見出しに対して複数の值が登録されているため,基準となる値 $\left(s t d_{t o k e n}\right)$ を決める必要がある. 本研究では,登録されている値の平均値,または中央値とする。また,確率辞書の見出しにないトークンが推論対象の文に現れた場合の基準値 $\left(s t d_{a l l}\right)$ は,全見出しの値の平均値,または中央値とする. しかし, 元トークンが文法的に正しい場合でも, [MASK] can did it ! I [MASK] did it ! 図 1 提案手法での推論の例 言語モデルにとってより「自然な」候補が存在する場合,言語モデルが元トークンに与える確率は相対的に低いものとなってしまう。 そこで [10] に従い,元トークンが文法的に正しいというバイアスを加えるパラメータ $\tau$ を設定する。あるトークン $T$ の推論対象の文での確率を $P\left(T_{s}\right)$, 確率辞書での基準値を $P\left(T_{d}\right)$ とすると,そのトークンに付与される label $\left(T_{s}\right)$ は,以下のようになる. $ \operatorname{label}\left(T_{s}\right)= \begin{cases}\mathrm{i} & \text { if } \log P\left(T_{s}\right)+\log \tau<\log P\left(T_{d}\right) \\ \mathrm{c} & \text { otherwise }\end{cases} $ “i”は誤りあり,“c”は正しいと判断されたことを表す. 本研究では, $\tau \in\{0,2,4,6,8,10,15,20\}$ とする. 上記のように label $\left(T_{s}\right)$ を得ると, ラベルは BERT のトークナイザーで分割されたサブワード単位で付与されるため,元のトークン列との対応を取る必要がある. 両者の対応付けは以下のアルゴリズムで行う.サブワードと元トークンを要素とするリストを作成し,リストから要素を 1 つずつ読み込む。文字列が一致した場合は, label $\left(T_{s}\right)$ を元トークンに対応付け,両リストから次の要素を 1 つずつ読み込む.一致しない場合は,2つの文字列長を比較し,短いほうの文字列のリストから次の要素を読み込み,その文字列の後ろに結合する. この際,サブワード分割を表す “\#\#” は削除したうえで読み込む。これを, 2 つ文字列が一致するまで続ける。一致するまでに使ったサブワードに対応する label $\left(T_{s}\right)$ を確認し,全てが“c”であれば元トークンに“c”を対応付け, そうでなければ“i”を対応付ける。 ## 4 実験 実験では,確率辞書作成方法の違いによる誤り検出性能の差を検証する.辞書作成に用いるデータの種類(母語話者 vs. 学習者)と量, 辞書に登録する語の訓練データ中での最低頻度,基準値の決め方の影響を評価する.また, $\tau$ の違いによる誤り検出性能の差を検証する. ## 4.1 データセット 確率辞書作成のための母語話者コーパスには the One Billion Word Benchmark (1B) [14] を用い,学習者コーパスのトークン数と同程度になるようにサンプリングして使用した. また,データ量の影響を検証するために,約 1,000 万トークンサンプリングしたデータを使用した.学習者コーパスは, W\&I+L train [15] の 80\%,FCE train [16],NUCLE [17] を用いた. 確率辞書作成に用いたデータの詳細は付録 A に示す. 開発データには, W\&I+L train の残りの $20 \%$, FCE dev,CoNLL-2013 [18] を用い,評価データには W\&I+L dev,FCE test,CoNLL-2014 [8]を用いた. ## 4.2 実験設定 文中の各トークンの確率算出には, [13] の実装2) を用いた. BERT は HuggingFace 社が公開している bert-base-casedを用い, 訓練データの最大入力長は 250 トークンとした. 確率辞書の作成はデータセットごと(付録 A の表の行ごと)に行った. 確率辞書作成に先立ち,URLを含む文,メールアドレスを含む文, 1 文に数字のみから成るトークンが 30 以上含まれる文を訓練データから取り除いた。 また,アポストロフィーを含む短縮形のトークン分割方法の違いのため, データをそのまま BERT のトークナイザーに入力すると, 分割結果に影響があった. そのため,1B は WMT113)で配布された detokenizer.perlを用いてデトークナイズした. それ以外のデータは, spaCy が例外規則でトークン分割している短縮形 4$)$ のみをデトークナイズした. モデルの性能は,ERRANT [19]により算出される Precision, Recall, $F_{0.5}$ スコアにより評価した. ## 4.3 実験結果 開発セットでの結果に基づき, min_freq $=1$, $s t d_{\text {token }}$ と $s t d_{\text {all }}$ の組み合わせ $\in\{\{$ mean, mean $\}$, \{median, median \}\}, $\tau \in\{0,8,20\}$, 確率辞書 $\in\{$ FCE, Learner all, 1B_510K, 1B_2.1M, 1B_10M \}について, 評価セットで評価を行った。 表 1 は,FCE train で確率辞書を作成したときに,基準値の取り方と $\tau$ を変化させた結果である ${ }^{5)}$.  表 1 確率辞書の基準値, $\tau$ による比較 Precision は $\tau=0$ のときに最も低く, $\tau$ が大きくなるにつれて上昇した. Recall はその反対で, $\tau$ が大きくなるにつれて低下した。 $\tau$ が同じ値の場合, $F_{0.5}$ スコアは $\{$ mean, mean $\}$ のほうが高くなったが,これは,基準値を mean とした場合 $\left(P_{\text {avg }}\right)$ と median とした場合 $\left(P_{m d n}\right)$ に, $P_{\text {avg }}<P_{m d n}$ となることが多いためと考えられる. FCE で作成した確率辞書において, $P_{\text {avg }}$ の平均値は -4.16であったのに対して,$P_{m d n}$ の平均值は -3.95 であった。また,頻度 3 以上の見出し 3,787 語において, 3,047 語が $P_{\text {avg }}<P_{m d n}$ となっていた. $P_{m d n}$ のほうが “i”ラベルが多くつくが,Precision が低いために $F_{0.5}$ スコアが悪化したと考えられる. $\tau$ の值を大きくすると,誤り検出対象の文のすべての語において,ラベル判断に用いられる値が $\tau$ だけ一律に大きくなる(式 1).この操作は, 確率辞書の基準値を一律に下げる操作と同じである. 多くの語で $P_{\text {avg }}<P_{m d n}$ となっている状況では,これら 2 つのハイパーパラメータは,実質同じものを操作していたことになる.兀のほうが細かい調整が可能なこと,基準値を\{median, median \}とすると,初期値として高い Recall からスタートできることから,今後は $s t d_{\text {token }}$ と $s t d_{\text {all }}$ の組み合わせは\{median, median \} で固定し, $\tau$ のみをハイパーパラメータとして保持するほうがよいと考えられる。 次に確率辞書間で比較をすると,辞書の作成に利用するデータの種類,量はスコアに影響を与えないことが明らかになった。例えば,基準值を\{mean, mean \}, $\tau=20$ としたとき, W\&I+L dev での $F_{0.5}$ スコアは,確率辞書の設定によらず 36 程度であった。 つまり,確率辞書作成に用いるデータは必ずしも学習者コーパスである必要はなく, 言語モデルと確率辞書を作成するための母語話者コーパスが十分にあれば,提案手法を用いて GEDを行うことが可能となることを示唆している. min_freq $=1$ と設定しているため,データ量を増やすと確率辞書の見出し数が増加することが期待されるが,コーパスのトー 表 2 既存モデルとの比較 クン数が増加しても,異なり語数は線形には増加しない。また,辞書に入る異なり語数が増加しても,評価セットでそれらの語が出てくるとは限らず,カバー率は劇的には上昇しない。これらの要因により,本手法ではデータ量によるスコア差が出なかったものと考えられる。 表 2 は,確率辞書を FCE,または1B_510K で作成し,基準値を\{median, median\}, $\tau=20$ としたときのスコアを,既存モデルと比較した結果を示している. [7] は, ELECTRAを FCE データでファインチューニングすることで,世界最高性能を達成したモデル,[1] は,追加の特徵量を用いていないナイー ブな LSTM ゙ースのモデルである. [7]に対しては, $F_{0.5}$ スコアで 30 ポイント程度のビハインドがあるが,[1]に対しては,同程度か上回るスコアを達成している。誤り情報付きデータを確率辞書作成に用いていない1B_510K においても,誤り情報付きデー タを用いている [1] のモデルに迫るスコアを達成していることは特筆すべき点である. 提案モデルは, 既存モデルと異なり Recall が Precisionより高い傾向となった. Recall は [7] と同程度のスコアを達成しているが,Precision には大きな課題がある. 実験結果から, $\tau$ は Precision と Recall の調整にある程度機能していたことがうかがえるが,同時に $\tau$ の値のみでは不十分であったことも示唆している。 $\tau$ を昇させたときに Recall が急激に低下する一方で,Precision の上昇は比較的緩やかなものとなっていた. 先に述べたように, $\tau$ は誤り検出対象の文のすべての語において,ラベル判断に用いられる値を一律で増加させる。一律に変化させるのではなく,そのトークンが使われている文脈に応じて制約を課すしくみが必要と考えられる。 ## 4.3.1 誤り種類ごとの検出性能 本手法の動機のひとつに,言語モデルベースのモデルで扱える誤り種類の拡大があった. 本節では, FCE train で確率辞書を作成し,基準值\{mean, mean \} と設定したモデルの FCE test での誤り検出結果について,誤りタイプ,カテゴリごとの結果を述べる. ERRANT の出力から, FCE test に存在する 15 種類すべての誤りカテゴリが検出対象となっていたことが確認できた ${ }^{6)}$.また,提案モデルは不足誤りの箇所を検出することができていた.以下に例を示す. Gold: Apart from that it takes long time to go somewhere . $\tau=0$ : Apart from that it takes long time to go somewhere. $\tau=8$ : Apart from that it takes long time to go somewhere . 下線は,その語に誤りラベルがついていることを表している.冠詞の不足誤りを提案モデルが捉えることができているのがわかる。一方で,上記の例の $\tau=0$ のように,提案モデルは偽陽性の数が多くなっている. $\tau=0,8,20$ で Precision が一貫して下位 5 位以内になる誤りカテゴリは, 短縮形, 名詞, 代名詞であった. しかし,個別の例を確認していくと, GED データのラベル付け方法が原因で,ERRANT の誤りカテゴリの判別がうまくいっていない可能性があることがわかった. GED データでは,不足誤りはそのトークンが存在しないため,直後のトークンに誤りラベルを付与することが一般的である。 そのため,ERRANT が名詞誤りや代名詞の誤りと判別していても,実際は別の誤りカテゴリの不足誤りである可能性がある.GEDを誤りカテゴリごとに評価するには,不足誤りを正しいカテゴリに対応付ける必要があるが, 現状のモデル出力では, 不足, 置換,余剩のいずれの誤りなのかはわからない. Yuan ら [7] の系列ラベリングベースのモデルのように,誤りタイプまで予測する GED モデルも出てきているが,言語モデルベースのモデルでそれが可能なのか検討することは今後の課題である。 ## 5 おわりに 本研究では,BERTにより算出される系列確率を用いることで,少量の誤り情報付きデータしか必要としない GED 手法を提案した. 既存の言語モデルベースの GEC モデルが扱えていなかった誤り種類について,提案手法は検出対象とすることができていた。しかし,Recall は高いものの,Precision が低いという課題があった。また,現在の確率辞書では,同じ表層系で異なる品詞は区別できていない.文脈情報を利用した制約の導入と併せて検討し, Recall の低下を抑えながら Precision を向上させることが今後の課題である. 6)検出性能の良し悪しは考慮していない. ## 謝辞 本研究の一部は JSPS 科研費 JP21H05054 の助成を 受けたものである. ## 参考文献 [1] Marek Rei and Helen Yannakoudakis. Compositional sequence labeling models for error detection in learner writing. In Proc. of ACL, pp. 1181-1191, 2016. [2] Marek Rei, Gamal Crichton, and Sampo Pyysalo. Attending to characters in neural sequence labeling models. In Proc. of COLING, pp. 309-318, 2016. [3] Marek Rei. Semi-supervised multitask learning for sequence labeling. In Proc. of ACL, pp. 2121-2130, 2017. [4] Sudhanshu Kasewa, Pontus Stenetorp, and Sebastian Riedel. Wronging a right: Generating better errors to improve grammatical error detection. In Proc. of EMNLP, pp. 4977-4983, 2018. [5] Samuel Bell, Helen Yannakoudakis, and Marek Rei. Context is key: Grammatical error detection with contextual word representations. In Proc. of BEA, pp. 103-115, 2019. [6] Masahiro Kaneko and Mamoru Komachi. Multi-head multi-layer attention to deep language representations for grammatical error detection. Computacion y Sistemas, Vol. 23, No. 3, pp. 883-891, 2019. [7] Zheng Yuan, Shiva Taslimipoor, Christopher Davis, and Christopher Bryant. Multi-class grammatical error detection for correction: A tale of two systems. In Proc. of EMNLP, pp. 8722-8736, 2021. [8] Hwee Tou Ng, Siew Mei Wu, Ted Briscoe, Christian Hadiwinoto, Raymond Hendy Susanto, and Christopher Bryant. The CoNLL-2014 shared task on grammatical error correction. In Proc. of CoNLL: Shared Task, pp. 1-14, 2014. [9] Christopher Bryant and Ted Briscoe. Language model based grammatical error correction without annotated training data. In Proc. of BEA, pp. 247-253, 2018. [10] Dimitris Alikaniotis and Vipul Raheja. The unreasonable effectiveness of transformer language models in grammatical error correction. In Proc. of BEA, pp. 127-133, 2019. [11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. of NAACL, pp. 4171-4186, 2019. [12] Kevin Clark, Minh-Thang Luong, Quoc V. Le, and Christopher D. Manning. ELECTRA: Pre-training text encoders as discriminators rather than generators. In ICLR, 2020. [13] Julian Salazar, Davis Liang, Toan Q. Nguyen, and Katrin Kirchhoff. Masked language model scoring. In Proc. of ACL, pp. 2699-2712, 2020. [14] Ciprian Chelba, Tomas Mikolov, Mike Schuster, Qi Ge, Thorsten Brants, Phillipp Koehn, and Tony Robinson. One billion word benchmark for measuring progress in statistical language modeling. In Proc. of Interspeech, pp. 2635-2639, 2014. [15] Christopher Bryant, Mariano Felice, Øistein E. Andersen, and Ted Briscoe. The BEA-2019 shared task on grammatical error correction. In Proc. of BEA, pp. 52-75, 2019. [16] Helen Yannakoudakis, Ted Briscoe, and Ben Medlock. A new dataset and method for automatically grading ESOL texts. In Proc. of ACL, pp. 180-189, 2011. [17] Daniel Dahlmeier, Hwee Tou Ng, and Siew Mei Wu. Building a large annotated corpus of learner English: The NUS corpus of learner English. In Proc. of BEA, pp. 22-31, 2013. [18] Hwee Tou Ng, Siew Mei Wu, Yuanbin Wu, Christian Hadiwinoto, and Joel Tetreault. The CoNLL-2013 shared task on grammatical error correction. In Proc. of CoNLL: Shared Task, pp. 1-12, 2013. [19] Christopher Bryant, Mariano Felice, and Ted Briscoe. Automatic annotation and evaluation of error types for grammatical error correction. In Proc. of ACL, pp. 793-805, 2017. ## A 確率辞書作成に用いたデータセット ## B 評価セットでのスコア ## C 実際の誤り種類と ERRANT の判別が一致していない例 以下の例で,提案モデル(確率辞書 $=\mathrm{FCE}$ ,基準値 $=\{$ mean, mean $\} , \tau=0$ )の検出結果は,正解と一致している.GED データを元に ERRANT で作成した M2 ファイルでは,“information” は名詞誤りと分類されていたが,GEC データで確認すると,実際は形容詞の不足誤りであった。 Gold: If you need any information, please let me know . Model: If you need any information, please let me know . Corrected: If you need any more information, please let me know .
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT4-1.pdf
# 近現代雑誌通時コーパスの語彙統計情報の公開 近藤明日子 ${ }^{1}$ 相田 太一 ${ }^{2}$ 小木曽智信 ${ }^{1}$ 1 国立国語研究所 2 東京都立大学 \{kondo, togiso\}@ninjal.ac.jp aida-taichi@ed.tmu.ac.jp ## 概要 1874 年から 2013 年までの 140 年間に刊行された日本語の雑誌をほぼ 8 年おきにカバーする「近現代雑誌通時コーパス」を構築し、これをもとに $n$-gram 頻度形式と SVMlight 形式の共起語情報をオープンデータとして公開した。これは、長期間にわたって比較的均質な資料に基づく日本語の歴史的な変化を研究することができる初めての大規模データとなる。これにより、近年注目を集めている言語変化に対する計算言語学的なアプローチによる研究が日本語においても可能となった。 ## 1 はじめに 国立国語研究所では、2005 年公開の「太陽コーパス」[1] 以来、明治から大正期の総合雑誌コーパスの構築を行ってきた。また、発表者等は 2019 年より 『昭和・平成書き言葉コーパス』の構築 ${ }^{11}$ の一環として総合雑誌のデータ整備を行っている。双方をあわせた「近現代雑誌通時コーパス」は 1874 年から 2013 年までの 140 年間をおおよそ 8 年おきにカバー する通時的なコーパスとなる。 一方で、自然言語処理の分野では近年、通時的な言語変化に関する研究が盛んになっている。単語分散表現を活用した意味変化の検出、意味変化の計算モデルの構築などが高い関心を集め、2019 年以降開催されている歴史的言語変化を扱うワークショッ SemEval2020 のシェアドタスク [2] も注目された。 しかし、これまで日本語においては通時的な大規模データが存在しなかったため、この分野での日本語を対象とした研究は十分に進んでいない。  そこで、本発表では「近現代雑誌通時コーパス」 をもとに、自然言語処理の手法を用いて日本語の通時的な言語変化の研究に利用できるデータを公開する。同コーパスは権利関係上フルテキストデータを配布することはできないため、 $n$-gram 頻度形式と SVMlight 形式の共起語情報をオープンデータ(CC BY-SA 4.0)として提供するものである。 ## 2 データの構築 ## 2.1 雑誌データ 「近現代雑誌通時コーパス」は、明治期から平成期までの書き言葉の通時的変化を研究することを目的として構築したコーパスである。この期間に刊行された雑誌から 8 年おき(一部、6-7 年おき)に各年代を代表する総合雑誌 1 誌を選定し、該当年の全号(特集号は除く)の全テキスト(目次・刊記・広告等は除く)を収録したコーパスである。明治・大正期のデータは『日本語歴史コーパス明治・大正編 I雑誌』[3](短単位データ 1.2)3) に基づき、昭和・平成期のデータは発表者等が 2019 年より構築中の 『昭和・平成書き言葉コーパス』の 2021 年 11 月時点のデータに基づく。『昭和・平成書き言葉コーパス』は昭和・平成期の新聞・雑誌・ベストセラー書籍を収録するコーパスで、2023 年よりオンライン検索ツール「中納言 $\rfloor^{4)}$ による検索サービスを提供する予定である。 コーパスには短単位 [4] による形態論情報を付与した。形態論情報は $\mathrm{MeCab}^{5}$ ) 用の形態素解析用辞書 UniDic[5] [6] による形態素解析結果を一部人手修正して作成した。UniDic は「明治・大正期の文語文」「明治・大正期の旧仮名遣いの口語文」「昭和期の旧仮名遣いの口語文」「昭和・平成期の現代仮名遣いの口語文」のそれぞれの時代・文体・表記に適合す 3) https://ccd.ninjal.ac.jp/chj/meiji_taisho.html\#zasshi 4) https://chunagon.ninjal.ac.jp/ 5) https://taku910.github.io/mecab/ るよう再学習して新たに作成したものを利用した。 「近現代雑誌通時コーパス」に収録した雑誌名と刊行年、および各年の延べ語数を表 1 に示す。 ## 2.2 データ処理・統計情報 著作権の観点から、2.1 節で収集した雑誌データを再現できない形で公開するために、 $n$-gram 頻度と $\mathrm{SVMlight}^{7)}$ の 2 つの形式に加工した。それぞれの形式における出力例を表 2 に示す。 表 2 単語 $n$-gram と SVMlight の形式で出力した例 $n$-gram 頻度 Google Books Ngram ${ }^{8)}$ と同様に、単語(表層形)の $n$-gram とその頻度をタブ区切りで  図 1 文芸春秋(1965 年)における上位 100 件の単語 5-gram 頻度および各頻度の出現回数 出力した。今回は 1-gram(単語の頻度)から 5-gram (連続する 5 単語の頻度)まで集計を行った。また、各単語を UniDic に収録されている語彙素 ID に変換し、語彙素 ID $n$-gram の形式も用意した。語彙素 ID は、UniDic の辞書見出しに相当する「語彙素」ごとに与えられた ID で、異表記や異語形をまとめ上げた見出し語(lemma)を一意に示す。UniDic の辞書アーカイブ9) 中の語彙表 (lex.csv) に含まれる語彙素 ID 列と対応付けることで、語彙素(代表表記)・語彙素読み・語種・類(品詞の上位概念)などの情報を取り出すことができる。これにより、表層形とは異なる見出し語の $n$-gram が利用できる。デー タ作成にあたり、 $n$ の值が大きくなるほど低頻度の $n$-gram の数が膨大になる(図 1)ため、5 回以上出現する $n$-gram のみ出力した。 SVMlight ここでは、各単語を IDに変換し、共起情報を SVMlight 形式で出力した。SVMlight 形式では、表 2 より、対象の ID(0)に共起する ID( 0,1 , 10)とその共起回数 $(274,64,10)$ を「共起する ID:共起回数」の形で表現する。共起回数が 1 以上の ID のみ出力するため、スパースな情報を表現するのに優れている。今回は $n$-gram 頻度と同様に、各単語を語彙素 IDに変換した。頻度 5 回以上の語彙素 ID を集計対象にし、前後 5 つの語彙素 ID の共起情報を獲得した。 ## 2.3 公開データ 公開データは UTF-8 形式のテキストファイルで、表層形 $n$-gram、語彙素 ID $n$-gram、SVMlight $の$ 3 つのディレクトリに分けて zip 形式で圧縮し 9) https://ccd.ninjal.ac.jp/unidic/download た。SVMlight 形式は年ごとに 19 ファイル、各々の n-gram は 1~5gram までを年ごとにまとめた 95 ファイル(5×19)からなる。アーカイブは下記の URL からダウンロードできる。公開ライセンスは CC BY-SA 4.0 である。https://bit.ly/3HT96Ii ## 3 使用用途 ここでは、本データの期待される用途について、自然言語処理および日本語学の側面から言及する。 ## 3.1 自然言語処理 自然言語処理では、Google Books Ngram から統計情報や単語分散表現を獲得し、異なる時期間で意味の変化した単語を検出・分析する研究が数多く行われている $[7,8]$ 。しかし、Google Books Ngram に収録されている言語は英語、中国語、フランス語、ドイツ語、ヘブライ語、イタリア語、ロシア語、スペイン語であり、日本語での分析を行うことができない。 そこで、本データを使用することで、日本語でも同様の分析が可能になる。現在、本データを戦前と戦後に分割して単語分散表現を学習し、意味の変化した単語の検出・分析が行われている $[9,10]$ 。 ## 3.2 日本語学 日本語学では、コーパスから作成した単語 $n$-gram を用いて、複合辞やコロケーション表現といった特定の意味・機能を有する単語連続(以下、「連語」と呼ぶ)を抽出する研究が行われている $[11,12]$ 。また、『日本語歴史コーパス明治・大正編 $\mathrm{I}$ 雑誌』の単語 $n$-gram を用いて接続詞を抽出し、明治・大正期の接続詞の通時的変化を考察する研究もある [13]。ただし、これまで明治期から平成期までの書き言葉を連続して収録するコーパスが存在しなかったため、近代語から現代語への通史の実証的な害態の把握は困難であった。それが本データを使用することで可能になる。 例として、表層形の 4-gram のデータを使用して、 4-gram と刊行年との対応関係を分析してみよう。 データから記号類を含むものを除いたうえで各刊行年での頻度上位 5 位の 4-gram を抽出すると、異なりで計 31 種が得られる(表 3 参照)。そのほとんどが何らかの意味・機能を有する連語と見なされる。この 4-gram 31 種 $\times$ 刊行年 19 種の頻度10)のクロス表を 10)データに収録されない頻度 5 未満の 4-gram は頻度 0 と見作成し、コレスポンデンス分析を行った。4-gram・刊行年それぞれの第 1 次元(寄与率 $53.2 \%$ )スコアを表 3 ・表 4 に示す。 表 3 コレスポンデンス分析による 4-gram の第 1 次元スコア 表 3 と表 4 のスコアの高低は対応関係にある。表 4 においてスコア昇順で刊行年が古い年から新しい年の順に並んでいる。それに対応して、表 3 ではスコア昇順で、刊行年の古い雑誌に使用されやすいものから新しい雑誌に使用されやすいものへと 4-gram が並んでいることになる。ここから明治期から平成期にかけて使用される連語の消長を概観できる。このように本データを使用することで、連語をはじめとする語彙の通時的変化の実態を明らかにすることができる。  表 4 コア ## 4 おわりに 「近現代雑誌通時コーパス」の整備により、日本語においても大規模なデータに基づいて通時的な言語変化を研究することが可能になった。しかし、 このコーパスは未だ整備途上であり、今回公開するデータにも不完全な点がある。コーパスは 2023 年度に完成予定である。 また、今回提供する $n$-gram 頻度形式と SVMlight 形式のデータはコーパスか得られる統計情報の一例に過ぎない。研究利用上、別の形式のデータが必要となる場合にはぜひ発表者にコンタクトしてほしい。コーパスの完成に合わせて有用な形式のデータを公開することを検討している。 今後、これらのデータを用いることで、日本語においても計算言語学的なアプローチによる言語変化の研究が盛んに行われることを期待している。 ## 謝辞 本研究は JSPS 科研費 19H00531、20K20411、国立国語研究所共同研究プロジェクト「通時コーパスの構築と日本語史研究の新展開」の助成を受けたものです。 ## 参考文献 [1] 国立国語研究所. 太陽コーパス一雑誌『太陽』日本語データベース. 博文館新社, 2005. [2] Dominik Schlechtweg, Barbara McGillivray, Simon Hengchen, Haim Dubossarsky, and Nina Tahmasebi. SemEval-2020 task 1: Unsupervised lexical semantic change detection. In Proceedings of the Fourteenth Workshop on Semantic Evaluation, pp. 1-23, Barcelona (online), December 2020. International Committee for Computational Linguistics. [3] 国立国語研究所(近藤明日子・間淵洋子・服部紀子・南雲千香子ほか).日本語歴史コーパス明治・大正編 I 雑誌(短単位データ 1.2). 国立国語研究所, 2019. [4] 小椋秀樹, 冨士池優美. 『現代日本語書き言葉均衡コーパス』の言語単位. 『現代日本語書き言葉均衡コーパス』形態論情報規程集第 4 版(上),pp. 1-10, 2011. [5] 伝康晴, 小木曽智信, 小椋秀樹, 山田篤, 峯松信明, 内元清貴, 小磯花絵. コーパス日本語学のための言語資源-形態素解析用電子化辞書の開発とその応用. 日本語科学, Vol. 22, pp. 101-123, 2007. [6] 小木曽智信, 小町守, 松本裕治. 歴史的日本語資料を対象とした形態素解析. 自然言語処理, Vol. 20, No. 5 , pp. 727-748, 2013. [7] Kristina Gulordava and Marco Baroni. A distributional similarity approach to the detection of semantic change in the Google Books ngram corpus. In Proceedings of the GEMS 2011 Workshop on GEometrical Models of Natural Language Semantics, pp. 67-71, Edinburgh, UK, July 2011. Association for Computational Linguistics. [8] William L. Hamilton, Jure Leskovec, and Dan Jurafsky. Diachronic word embeddings reveal statistical laws of semantic change. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1489-1501, Berlin, Germany, August 2016. Association for Computational Linguistics. [9] 相田太一, 小町守, 小木曽智信, 高村大也, 坂田綾香,小山慎介, 持橋大地. 単語分散表現の結合学習による単語の意味の通時的変化の分析. 言語処理学会第 26 回年次大会発表論文集, 2020 . [10] 相田太一, 小町守, 小木曽智信, 高村大也, 持橋大地.通時的な単語の意味変化を捉える単語分散表現の同時学習. 言語処理学会第 27 回年次大会発表論文集, 2021. [11] 近藤泰弘. BCCWJ 複合辞リストについて. 青山語文, No. 42, pp. 10-15, 2012. [12]李在鎬, 佐々木馨. 教科書コーパスを利用した難易度別コロケーション辞書の提案. 第 8 回コーパス日本語学ワークショップ予稿集, 2015. [13] 近藤明日子. 明治・大正期の書き言葉における文体と語彙一順接の接続詞を例に一. コーパスによる日本語史研究近代編, pp. 115-136, 2021.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT4-2.pdf
# 『日本語日常会話コーパス』に対する 係り受け情報アノテーション 浅原正幸 国立国語研究所 masayu-a@ninjal.ac.jp } 若狭絢 国立国語研究所 ## 概要 音声言語に対する日本語係り受けツリーバンクは、独話を主とする『日本語話し言葉コーパス』に基づくものであった。対話を主とする『日本語日常会話コーパス』に対して係り受け情報を付与作業を進めており、2022 年春に公開予定である。本発表では国語研長単位形態論情報・文節境界・文節係り受けアノテーション作業の概要を示すとともに、2022 年 1 月時点での基礎統計を示す。 ## 1 はじめに 国立国語研究所共同研究プロジェクト「大規模日常会話コーパスに基づく話し言葉の多角的研究」では、『日本語日常会話コーパス』(CEJC) の構築を進めており、50 時間分の会話データを 2018 年 12 月にモニター公開し [1]、2022 年春には 200 時間分の会話データを公開予定である。CEJC は設計 $[2,3]$ に基づき、収録 $[4,5] \cdot$ 転記 [6] ・発話単位付与 $[7,8] \cdot$ ・国語研短単位形態論情報付与 - 国語研長単位形態論情報付与・文節境界付与・文節係り受けアノテーションの順に作業を実施した。本発表では CEJC に対する長単位形態論情報付与・文節境界付与・文節係り受けアノテーションについて示す。 書き言葉を対象とした文節係り受けアノテーションとして、1995 年の毎日新聞記事を対象とした京都大学テキストコーパス [9]、京都大学ウェブリード文コーパス [10]、『現代日本語書き言葉均衡コーパス』(BCCWJ) を対象とした BCCWJ-DepPara [11] がある。話し言葉を対象とした文節係り受けアノテー ションは『日本語話し言葉コーパス』[12]に含まれているが、主として独話を対象としており、対話を対象とした大規模な係り受けアノテーションは存在しない。 2 節では、アノテーション作業の概要として、国語研長単位形態論情報・文節境界アノテーション作業と文節係り受けアノテーションについて示す。 3 節では、2022 年 1 月現在のデータの基礎統計を示す。 ## 2 アノテーション作業 ## 2.1 国語研長単位形態論情報・文節境界ア ノテーション 以下では国語研長単位形態論情報・文節境界アノテーションについて述べる。上流工程として収録・転記・短単位形態論情報が完了しているデータに対して、長単位解析器 Comainu [13] により解析したデータを対象に進める。短単位形態論情報付与 [14] では、転記に基づく形態に対する形態素の認定を行う。この時点では「可能性に基づく品詞体系」が付与される。長単位形態論情報付与 [15] では、文節の認定を行った上で、各文節の内部を規則に従って自立語部分と付属語部分に分割していくという手順で単位認定を行う。複合的な機能表現を含めて、複合語を構成要素に分割することなく全体で一つとして扱う。長単位の品詞認定においては、「用法に基づく品詞体系」として、複合化した結果の単位が文脈内で統語的にどのように振る舞うかに基づき、品詞を認定する。作業は 2019 年 2 月から 2020 年 8 月にかけて、作業者 2 名 ${ }^{11}$ によ、2 次チェックまで行った。その後は、上流工程の修正が行われた際に、もしくは、係り受け情報アノテーションで不都合な点が見られた際に、追随して長単位形態論情報に対する修正を繰り返し行った。作業には国語研内のコーパス管理システム『大納言』[16]を用いた。単位認定基準は基本的に BCCWJ で整備された規程集 [15] に基づく。しかしながら、話し言葉を付与 1)短単位形態論情報修正を作業した 3 名が、一時的に作業を補助したこともあった。 するうえで規程に定義されていない表現が出現した。そのような場合、より自然な係り受け木を表現しやすい単位を認定することを心がけた。 以下具体的な例を示す。 例えば、言いよどみが長単位の中に包摂したほうがわかりやすい場合には包摄するようにした。 (1) \|店員|シ|さん\|が\| 【T001_009-IC03】 短単位境界を卜、長単位境界を\|で表現する。(1)では、言いよどみ「シ」を含む形で、長単位「店員シさん」を認定する。 他の例として省略による長単位解析誤りがある。書き言葉においては助詞が手がかりとなり文節境界が認定しやすい。 (2) \|余裕\|なかっ|た\|気|が\|する $\|$ 【T001_009-IC01】 (2)では、「余裕」のあとの助詞が省略されているために長単位解析器が誤って連結していたのを修正した。 (3) || 結構\|し|てる\|人 ||いる|よ $\mid$ 【T006_008a-IC04】 (3) では、「結構する」という単位が誤解析されていたが、分割した。 長単位作業時に短単位作業の誤りが多く見つかつた例として、フィラーと代名詞・連体詞の曖昧性がある。 (4) \|あれ\|もう\|声変わり\| 【T011_007-IC06】 (4)では、「あれ」が当初代名詞とされていたが、音声を聞きながら係り受け・共参照を含めて検討すると指示するものもない表現であったため感動詞とした。 (5) ||酵素|うん|たら|かん|たら\|って\| 【T002_019-IC01】 (5) では、短単位の規程上「云(名詞)」「たら(副助 ているが、係り受けを付与するにあたって「酵素うんたらかんたら」の 1 普通名詞に結合した。 ## 2.2 文節係り受けアノテーション 係り受けアノテーションは BCCWJ-DepPara[11]の基準に準じる。BCCWJ-DepParaでは、通常の係り受け相当の "D"、文境界相当の"Z"、係り受けを付与するうえで後続文節と連結する"B"、係り先が決められない "F" の 4 つのラベルを認定している2)。この 4 種のラベルを本研究にも適用するが、係り受けが決められない文節にはラベル"F"を付与し、無理に係り受けを決めないという基本方針を決め、作業を進めた。BCCWJ-DepPara では並列構造の範囲についても付与したが、CEJC に対しては現在のところ並列構造の範囲の付与を行っていない。作業にはコーパス管理システム『ChaKi.NET』[17]を用いた。作業は 2020 年 4 月から開始し、2021 年 3 月に 2 次チェックまで終了した。その後は、上流工程の修正が行われた際に、追随して係り受け情報に対する修正を繰り返し行った。 アノテーションする単位は、発話単位 [7] に基づく。このため、書き言葉の文とは異なり、返答など 1 文節 1 発話単位のものが多い一方、明確に文末が定義できない長い発話単位もあり、単位末が終助詞・接続助詞で終わることも多い。また、単位を 1 発話単位としてするため、話者間の係り受けは付与しない。 図 1 に CEJC に対する係り受けアノテーション例を示す。フィラーや言いよどみが 1 文節をなす場合 (図中 1 例目と 2 例目)には、それぞれラベル"F"を付与したうえで、最後の要素に係るようにした。また、発話末は必ずしも述語であるわけではない。図中 3 例目のように、発話末が副詞のような述語に相当しない場合もある。その場合、述語に係るべき要素は最終要素に係るようにした。 ## 3 基礎統計 2022 年 1 月現在、上流工程の転記・短単位の修正がまだ続いており、最終の基礎統計は異なる可能性がある。以下では、暫定版として 2022 年 1 月 10 日時点の情報を示す。 表 1 基礎統計 2) CSJ[12]では、通常の係り受けをラベルなしとし、並列"P" ・部分並列"I"・狭義の同格"A"・広義の同格(総称など)"A2"・倒置"R"・係り受けの交差"X" $\cdot$ 接続詞"C" ・ 感動詞"E"・言い直し"D"・フィラー"F"・係り先のない文節"N"・呼びかけ"Y"などのラベルが定義されている。 でえューつど』 江戸時代の半分の米ってほとんど仙台東北地方だったんだよね 【C001_012-IC04】 CEJC 言いよどみの係り先 【K001_014-IC01】 CEJC述語以外の発話末 【S001_018-IC01】 図 1 CEJCに対する係り受けアノテーション例 表 1 に基礎統計を示す。平均発話長を 2.30 文節と書き言葉と比べて極端に短い。発話末に係る文節数が発話単位数より短いのは、後に示すとおり 1 文節 1 発話単位のものが多いためである。また全係り受け数 75,852 のうち $46,173(60.87 \%)$ が発話末に係る (右隣接要素に係るものも含む)。 表 2 係り受けラベルの分布 表 2 に係り受けラベルの分布を示す。94.13\%の文節が通常の係り受けラベルで、 $5.63 \%$ の文節がフィラー・言いよどみなどの係り受けが決められないものであった。BCCWJ-DepPara においては、長単位作業者(国語研内)と係り受け作業者(奈良先端大内) とで異なる作業者が従事していたために、その䶡䶣を吸収するために "B"ラベルを利用したが、今回の作業者は長単位と係り受けの両方の作業に従事しているために、このラベルは不要であった。また、発話単位に基づくために、「文の入れ子」を表現するための "Z"も $0.22 \%$ と少なかった。 表 3 に発話長 ( 1 発話内の文節数) の分布を示す。 58,174 発話中 34,340 発話が 1 文節の発話、 8,779 発話が 2 文節の発話(合わせて $74.12 \%$ )であった。 2 文節以下の場合、特殊な場合(係り先がない・2 文に分かれる・倒置など)を除いて、係り受け木の構造は一意に決まるため、実質的なアノテーション作業は発生しない。係り受けアノテーション作業は残りの 3 文節以上の発話が対象となるが、 2 文節以内のものについても長単位の再定義・フィラー・言いよどみの認定などに時間を要し、場合によって、短単位形態論情報の修正を行った。 }} & & \\ 表 4 係り受け長の分布 表 4 に係り受け長の分布を示す。全部で 75,852 の係り受け関係のうち 44,491 (58.65\%) のものが右隣り のものにかかる(係り受け長 1)であった。係り受け長が負の値のものは倒置の係り受けであることを表す。倒置の係り受けが少ないのは、倒置が発生した箇所で発話単位が分割されて、別の発話単位に認定される傾向があるためである。 ## 4 おわりに 本発表では、『日本語日常会話コーパス』(CEJC) に対する係り受け情報アノテーションについて解説した。2022 年春に有償版 CEJC 契約者向けに共有する予定である。 本研究は CEJC のコアを対象に、明確な係り受け関係を "D" ラベルで付与するとともに、不明確な係り受け関係を "F" ラベルで付与したに過ぎない。より精緻な話し言葉向けの係り受け関係ラベルが、吉田ら [18] により提案されている。本データに基づいて、話し言葉特有の不明確な係り受け関係のラベル付けが進むことを期待する。 また統語的な性質としては、省略が多く、発話単位に分割されているため、統語分析に向かないデー タとなった。実質的な統語分析を行うためには、名詞句省略のみならず、述語省略を含めたゼロ照応を定義した述語項構造のアノテーションが必要であろう。その作業においては、述語項構造に基づく共参照情報を付与することが重要である。共参照情報についても、本データの場合「同一話者の異なる発話 (単位)」「異なる話者の発話」「発話されないが動画に写り込んでいるモノ(コト)」「発話されず、動画にも写り込んでいないモ)(コト)」といったレべルがある。述語項構造のアノテーションに向けて、名詞句省略・述語省略を含めた共参照情報の整理を進めたい。 ## 謝辞 実アノテーション作業に従事した山下華代氏に感謝の意を表します。 本文中にもお示しした通り、本研究実施時に東京大学の吉田奈央氏・宮尾祐介氏に様々な助言を受けました。その助言の一部は昨年の NLP2021 で発表されております [18]。ここに記して、感謝の意を表します。 本研究は国立国語研究所コーパス開発センター 共同研究プロジェクトの成果です。また、科研費 17H00917 の支援を受けました。 ## 参考文献 [1] 小磯花絵, 天谷晴香, 居關友里子, 臼田泰如, 柏野和佳子, 川端良子, 田中弥生, 伝康晴, 西川賢哉. 『日本語日常会話コーパス』モニター版の設計・評価・予備的分析. 国立国語研究所論集, No. 18, pp. 17-33, jan 2020. [2] 小磯花絵, 居關友里子, 臼田泰如, 柏野和佳子, 川端良子, 田中弥生, 伝康晴, 西川賢哉. 『日本語日常会話コーパス』の構築. 言語処理学会第 23 回年次大会発表論文集, pp. 775-778, 2017. [3] Hanae Koiso, Yasuharu Den, Yuriko Iseki, Wakako Kashino, Yoshiko Kawabata, Ken'ya Nishikawa, Yayoi Tanaka, and Yasuyuki Usuda. Construction of the Corpus of Everyday Japanese Conversation: An interim report. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018). European Language Resources Association (ELRA), May 2018. [4] 田中弥生, 柏野和佳子, 角田ゆかり, 伝康晴, 小磯花絵. 『日本語日常会話コーパス』の構築: 会話収録法に着目して. 国立国語研究所論集, No. 14, pp. 275-292, Jan 2018. [5] 田中弥生, 柏野和佳子, 角田ゆかり, 伝康晴, 小磯花絵. 『日本語日常会話コーパス』の構築-個人密着法に基づく会話の収録-. Technical report, 国立国語研究所プロジェクト報告書, March 2018. [6] 臼田泰如, 川端良子, 西川賢也, 石本祐一, 小磯花絵.『日本語日常会話コーパス』における転記の基準と作成手法. 国立国語研究所論集, No. 15, pp. 177-193, July 2018. [7] Japanese Discourse Research Initiative. 発話単位ラベリングマニュアル version 2.1. Technical report, Japanese Discourse Research Initiative, Jan 2017. [8] Yasuharu Den, Hanae Koiso, Takehiko Maruyama, Kikuo Maekawa, Katsuya Takanashi, Mika Enomoto, and Nao Yoshida. Two-level annotation of utterance-units in Japanese dialogs: An empirically emerged scheme. In Proceedings of the Seventh International Conference on Language Resources and Evaluation (LREC'10), Valletta, Malta, May 2010. European Language Resources Association (ELRA). [9] Sadao Kurohashi and Makoto Nagao. Buinding a japanese parsed corpus while improving the parsing system. In Proceedings of the 1st International Conference on Language Resources and Evaluation (LREC-98), pp. 719724. European Language Resources Association (ELRA), 1998. [10] 萩行正嗣, 河原大輔, 黒橋禎夫. 多様な文書の書き始めに対する意味関係タグ付きコーパスの構築とその分析. 自然言語処理, Vol. 21, No. 2, pp. 213-248, 2014. [11] 浅原正幸, 松本裕治. 『現代日本語書き言葉均衡コー パス』に対する文節係り受け・並列構造アノテー ション. 自然言語処理, Vol. 25, No. 4, pp. 331-356, 2018. [12] 内元清貴, 丸山岳彦, 高梨克也, 井佐原均. 『日本語話し言葉コーパス』における係り受け構造付与 (version 1.0). Technical report, 『日本語話し言葉コー パス』の解説文書, 2003 [13] 小澤俊介, 内元清貴, 伝康晴. 長単位解析器の異なる品詞体系への適用. 自然言語処理, Vol. 21, No. 2, pp. 379-401, 2014. [14] 小椋秀樹, 小磯花絵, 冨士池優美, 宮内佐夜香, 小西光, 原裕. 『現代日本語書き言葉均衡コーパス』形態論情報規程集第 4 版(下). Technical report, 国立国語研究所内部報告書, 2011. [15] 小椋秀樹, 小磯花絵, 冨士池優美, 宮内佐夜香, 小西光, 原裕. 『現代日本語書き言葉均衡コーパス』形態論情報規程集第 4 版(上). Technical report, 国立国語研究所内部報告書, 2011. [16] 小木曽智信, 中村壮範. 『現代日本語書き言葉均衡コーパス』形態論情報アノテーション支援システムの設計・実装・運用. 自然言語処理, Vol. 21, No. 2, pp. 301-332, 2020. [17] Masayuki Asahara, Yuji Matsumoto, and Toshio Morita. Demonstration of ChaKi.NET - beyond the corpus search system. In Proceedings of COLING 2016, the 26th International Conference on Computational Linguistics: System Demonstrations, pp. 49-53, Osaka, Japan, December 2016. The COLING 2016 Organizing Committee. [18]吉田奈央. 『日本語日常会話コーパス』に対する自然会話特有の現象を区別するための係り受け関係ラベルの付与. 言語処理学会第 27 回年次大会発表論文集, pp. 1129-1133, 2021.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT4-3.pdf
# 日本語文法誤り訂正の流暢性評価に向けたデータ作成 木山朔 ${ }^{1}$ 上坂奏人 ${ }^{1}$ 佐藤郁子 ${ }^{1}$ 佐藤京也 ${ }^{1}$ 米田悠人 ${ }^{1}$ 小山碧海 ${ }^{1}$ 三田雅人 ${ }^{2,1}$ 岡照晃 ${ }^{1}$ 小町守 ${ }^{1}$ 1 東京都立大学 2 理化学研究所 \{kiyama-hajime, uesaka-minato, sato-ayako, sato-keiya, yoneda-yuto, koyama-aomi \}@ed.tmu.ac.jp, masato.mita@riken.jp, \{teruaki-oka, komachi\}@tmu.ac.jp ## 概要 本研究では,日本語文法誤り訂正の流暢性評価データを作成する.既存の日本語文法誤り訂正の評価データでは,文法的に正しくなる最小限の編集に基づき訂正文が作成されている。しかし最小限の編集に基づく訂正文は文法的ではあるものの流暢性に欠ける.訂正文の流暢性が欠けた評価データに依存してモデルを開発すると,文法的かつ流暢な出力をするモデルが正当に評価されない.そこで文法的なだけでなく流暢な編集を行った評価データを作成し,モデルの流暢性も含めた評価を可能にする。 ## 1 はじめに 文法誤り訂正とは,語学学習者が書いた文章中の誤りを計算機が自動で訂正するタスクである1)。これまでの文法誤り訂正は学習者コーパスが豊富な英語を中心に研究されてきた $[1,2,3,4,5,6,7,8]$. しかし, ドイツ語やロシア語などでも学習者コーパスが整備され $[9,10,11]$, 英語以外でも研究が盛んになっており $[12,13,14,15,16]$. 日本語を対象とした研究も広がりを見せている $[17,18,19,20,21,22]$. 日本語文法誤り訂正では, Koyama ら [21] が文法的に正しくなる最小限の編集(Minimal edits)に基づく評価データを作成した. 表 1 の 2 行目に,彼らの Minimal editsに基づく訂正例を示す. Minimal edits では学習者文中の “時頃” “頃” に書き換えることで,文法的に正しくなる最小限の訂正を行っている. Minimal edits は NUCLE [23] という英語学習者コーパスにも使用されており,NUCLEの一部である CoNLL-2014 shared task [24] の評価データは英語文法誤り訂正で最も代表的な評価データである。 1)本稿では,便宜上,文法誤りだけでなく綴りや語彙選択の誤りの訂正も文法誤り訂正に含める。表 1: Minimal edits 及び Fluency edits に基づく訂正例. 一方,英語文法誤り訂正では Minimal edits に基づく訂正文が母語話者にとって文法的ではあるものの流暢性の低い文になっていると指摘されている [25].また Sakaguchi ら [25] は文法誤り訂正の目的を文法的なだけでなく母語話者の流暢さを持つ文章の作成へと根本的にシフトすべきと提唱している.そして彼らの提唱を受け,文法的なだけでなく流暢な編集(Fluency edits)を行った評価データが公開され [26],新たなベンチマークデータとしてコミュニティに享受される形で英語文法誤り訂正の研究が進められている. Minimal edits に基づく訂正文の流暢性が低いという問題は日本語でも同様である.例えば表 1 の場合,日本語母語話者にとっては,“時頃”を “頃”に訂正するだけでなく,“ハイスクール”を“高校”に, “終える”を“卒業する”に訂正する方がより流暢であると考えられる。しかし日本語文法誤り訂正では Fluency edits ベースの評価データは未だ作成されていない。またそのため,流暢な出力をするモデルが正当に評価されていない. そこで,我々は日本語文法誤り訂正のための流暢性評価データを作成する ${ }^{2}$ 。 具体的には,Lang-8 コーパス [19] 中の日本語学習者文に対し, 文法的なだけでなく流暢な編集を行った訂正文を人手で付与する。またベースラインとして 3 つの日本語文法誤り訂正モデルを用意し,それらのモデルを流暢性の観点から評価した結果を報告する。  表 2: 各訂正基準に基づく訂正例. ## 2 関連研究 日本語教育で活用されている日本語学習者コー パスには作文対訳データベース3) や日本語学習者作文コーパス4)などがある. 作文対訳データベースでは,学習者の手書き作文に対する日本語教師の訂正情報が収録されている. 日本語学習者作文コーパスでは,初級から上級までの中国語や韓国語を母語とする学習者の作文データ及び訂正情報が収録されている. 国際日本語学習者作文コーパス及び誤用辞典5)やなたね ${ }^{5}$ でも同様に,学習者作文に対する訂正情報が収録されているが,これらの元データは一般には公開されていないため日本語文法誤り訂正モデルの評価に使用できない。日本語文法誤り訂正モデルの評価を目的に公開されている学習者コーパスとして TEC-JL [21] がある. TEC-JL では, Lang-8 コーパス中の日本語学習者文に Minimal edits ベースの訂正文を付与している。我々は,TEC-JL と同様に Lang-8 コーパス中の学習者文を人手で訂正し公開するが,訂正方針は Minimal edits ではなく Fluency edits に基づいた訂正を採用する. 英語文法誤り訂正で代表的な学習者コーパスに NUCLE [23] がある. NUCLE はシンガポールの大学生が書いた作文を英語教師が訂正した英語学習者コーパスである. Minimal edits に基づき訂正されており,NUCLE の一部は CoNLL-2014 shared task の評価データに使用されている。一方, JFLEG [26, 27] は Fluency editsに基づき作成された英語学習者コー パスである. JFLEGでは,母語や習熟度の異なる学習者が書いた文に対し,クラウドソーシングを用いて訂正文が付与されている. 我々は,JFLEG と同様に Fluency editsに基づくコーパスを作成するが,英語ではなく日本語学習者コーパスを作成する. 3) https://mmsrv.ninjal.ac.jp/essay 4) http://sakubun.jpn.org 5) https://corpus.icjs.jp/corpus_ja 6) https://hinoki-project.org/natane ## 3 流暢性評価データの作成 ## 3.1 利用した言語資源と前処理 我々は TEC-JL と同様に,Lang-8 コーパス中の学習者文に再アノテーションを行う.Lang-8 コーパスでは学習者が書いた作文が文章単位で収録されている. また各文章は自動で文分割されており,文ごとに訂正文が付与されている。 さらに各文章に対し,母語と学習言語,各文章を識別するためのユニークな番号(ジャーナル ID)が付与されている. 本研究で作成する検証データ及び評価データに用いる日本語学習者文は以下の手順で用意した. Step 1. Lang-8 コーパスから,日本語を学習言語とする文章を抽出する 7 ). Step 2. 検証データと評価データがそれぞれ 1,000 文程度になるように文章を選択する ${ }^{8)}$. Step 3. 検証データや評価データとして不適切な文を人手で取り除き9),文分割に失敗している箇所を人手で正しい分割に修正する. ## 3.2 訂正基準 流暢性を考慮した評価データを作成するために, 3.1 節で用意した学習者文に対し, 日本語母語話者 5 人が文法的に正しく,かつ流暢な訂正を行う.また訂正の際は,原文の意味を保持するように訂正する. さらに TEC-JL と同様に,訂正は文章単位で行う. 流暢な訂正には常識に関する誤りの訂正 [28] も含み,元の文章に対して複数の解釈が存在する場合は訂正者各自が文章全体を見て最尤な訂正を行う。 7)ただし TEC-JL 中の文章との重複を避けるため,TEC-JL に使用された文章と同じジャーナル ID の文章は抽出しない. 8)この時,検証データ及び評価データ中の学習者の母語の分布が, Lang-8 コーパス中の日本語学習者の母語の分布と同様になるように文章を選択した。 9)例えば,日本語以外の言語で書かれている文や記号のみの文を取り除いた。 (a) 訂正者 $\mathrm{A}$ (d) 訂正者 D (b) 訂正者 B (e) 訂正者 E (c) 訂正者 $\mathrm{C}$ (f) TEC-JL 図 1: 本研究及び TEC-JL における学習者文と訂正文間の編集距離の分布. また評価データ全体で一貫した訂正を行うため,以下の訂正基準を設定した. 表 2 に各訂正基準に基づく訂正例を示す. R1. 1 文章内では漢字やカタカナなどの表記,常体や敬体を統一する。 R2. 一文を複数文に分割する訂正はしてもよいが,複数文を一文に統合する訂正はしない. R1 は表記や文体を統一することで流暢性が向上すると考え設定した. R2 は,複数の参照文がある場合,複数文を一文に統合するような訂正の自動評価が困難であるため設定した。 ## 3.3 分析 定量評価図 1 に各訂正者の学習者文と訂正文間の文字単位の編集距離の分布を,TEC-JL での編集距離の分布とともに示す. 訂正者 $\mathrm{C}$ は編集距離の平均が最も高く, 大幅な訂正を最も多く行っていることが分かる。一方で,訂正者 D と訂正者 $\mathrm{E}$ は編集距離の平均が低く,他の訂正者と比べて大幅な訂正をあまり行っていない. TEC-JL と比較すると,本研究で作成した評価データの方が編集距離の平均が高く,流暢な訂正文にするために大幅に訂正していることが分かる. また付録 Aに訂正者間の文単位の類似度に関する分析を記載する。 定性評価表 3 に,各訂正者の流暢性を考慮した訂正文の例を示す。それぞれの訂正者は,“速く0 00番に携帯で手伝える” の部分を主に訂正しており,訂正方法には様々なバリエーションがあること が分かる。また訂正者 $\mathrm{B}$ は,より流暢な文にするため,“緊急の場合は”の部分も含めて訂正している. このように訂正者ごとに使用する表現が分かれたり,文法的に正しい部分も含めて訂正したりすることがある. さらに常識に関する誤りとして,“0 0 0番”をそのままにするか,“110 番” に訂正するかの判断が分かれている。この違いはそれぞれの訂正者が学習者の居住地をどのように推測したかの違いである。“000番”のままにしている訂正者はオーストラリアなどの緊急時の番号が 000 である国に住んでいると推測し,“110番”にした訂正者は日本に住んでいると推測したことにより,このような違いが発生した。 ## 4 実験 本節では日本語文法誤り訂正モデルの流暢性を評価するため,機械翻訳ベースの 3 つの文法誤り訂正モデルの性能を比較する. ## 4.1 実験設定 データセット訓練データには Lang-8 コーパスを用いる.ただし,TEC-JL と本研究で作成した評価データに含まれるジャーナル ID を持つ文対は取り除き,さらに文長制限などのノイズ除去を行った. 水本 [29] に従い,学習者文は文字に分割し,訂正文は語彙サイズ 16,000 で SentencePiece ${ }^{10)}$ [30] によるトークン化を行った.検証データには,本研究で作成した検証データを用いる。本実験で使用した 10) https://github.com/google/sentencepiece 表 3: 各訂正者の流暢性を考慮した訂正文の例. データセットの詳細は付録 B に記載する。 性能評価評価データには TEC-JL 及び本研究で作成した評価データ11)を用いる. Minimal edits ベー スの評価データである TEC-JL は既存研究で広く使われている $\mathrm{M}^{2}$ scorer [31] で評価する。一方 Fluency edits の場合 Minimal edits と比べ原文と参照文間のアライメントが取りづらいことから,本研究で作成した評価データはアライメントをとる必要がない GLEU [32] で評価する。両方の評価データにおいて,単語分割誤りが評価結果に影響を与えないようにするため,文字単位で評価する。 文法誤り訂正モデル文法誤り訂正モデルには Koyama ら [21] が使用している SMT [33] と CNN [34] に加え, Transformer [35]を用いる. 各モデルの設定は以下の通りである. [36] を対応づけツールに使用し,KenLM [37] を用いて 3-gram 言語モデルを構築した. 言語モデルの訓練には訓練データ中の訂正文を用いた. また,検証データを用いて BLEU [38] を最大化するように MERT [39] を行った. CNN fairseq ${ }^{14 )}$ [40] を実装に使用した. アーキテクチャは Chollampatt ら [41] と同様である。また,訓練時の最適化方法や推論時の設定は Kiyono ら [42] に従った. Transformer fairseqを実装に使用した. アーキテクチャは Vaswani ら [35] の “Transformer (base)”と同様である。また,訓練時の最適化方法や推論時の設定は Kiyono ら [42]に従った. ## 4.2 実験結果 表 4 に各文法誤り訂正モデルの性能を示す. 訂正なしは入力文を出力とみなして評価した時のスコアである。また人間と文法誤り訂正モデルの性能差  表 4: 各文法誤り訂正モデルの性能. を調べるため,交差検証のように,各参照文を出力とみなしそれ以外の参照文で評価した時のスコアの平均を人間のスコアとして求めた ${ }^{15)}$. TEC-JL では,CNN や Transformer よりも SMT の方が Precision が高い. 一方,Recall は Transformerの方が高いことから,Transformer はより多くの訂正をしていると考えられる.また本研究で作成した評価データでは, 3 つのモデルの内, Transformer のスコアが最も高いことから, Transformer は他のモデルよりも比較的流暢な訂正をしていると考えられる。人間と各モデルのスコアを比較すると,全てのモデルのスコアは人間よりも低く,改善の余地が残されていることが分かる.各モデルの出力例を付録 D に記載する. ## 5 おわりに 本研究では日本語文法誤り訂正のための流暢性評価データを作成した。本評価データでは,学習者文に対し Fluency edits に基づく訂正を行っている. さらに,1つの学習者文につき 5 つの訂正文を付与しており,多様な訂正をカバーしている. 今後の課題としては,Lang-8コーパス以外のドメインに対しても Fluency edits ベースの日本語学習者コーパスを作成することが挙げられる。 ## 謝辞 Lang-8 のデータ使用に際して,株式会社 Lang-8 の喜洋洋氏に感謝申しあげます. 15)人間のスコアと比較可能にするため,各モデル及び訂正なしの性能も人間のスコアと同様に測定した.全ての参照文で評価した時の各モデルの性能は付録 C に記載する. ## 参考文献 [1] Chris Brockett, William B. Dolan, and Michael Gamon. Correcting ESL Errors Using Phrasal SMT Techniques. In COLING-ACL, pp. 249-256, 2006. [2] Rachele De Felice and Stephen G. Pulman. A Classifier-Based Approach to Preposition and Determiner Error Correction in L2 English. In COLING, pp. 169-176, 2008. [3] Daniel Dahlmeier and Hwee Tou Ng. Grammatical Error Correction with Alternating Structure Optimization. In ACL, pp. 915-923, 2011. [4] Marcin Junczys-Dowmunt and Roman Grundkiewicz. Phrasebased Machine Translation is State-of-the-Art for Automatic Grammatical Error Correction. In EMNLP, pp. 1546-1556, 2016. [5] Roman Grundkiewicz and Marcin Junczys-Dowmunt. Near Human-Level Performance in Grammatical Error Correction with Hybrid Machine Translation. In NAACL, pp. 284-290, 2018. [6] Jared Lichtarge, Chris Alberti, Shankar Kumar, Noam Shazeer, Niki Parmar, and Simon Tong. Corpora Generation for Grammatical Error Correction. In NAACL, pp. 3291-3301, 2019. [7] Masahiro Kaneko, Masato Mita, Shun Kiyono, Jun Suzuki, and Kentaro Inui. Encoder-Decoder Models Can Benefit from Pretrained Masked Language Models in Grammatical Error Correction. In ACL, pp. 4248-4254, 2020. [8] Michihiro Yasunaga, Jure Leskovec, and Percy Liang. LM-Critic: Language Models for Unsupervised Grammatical Error Correction. In EMNLP, pp. 7752-7763, 2021. [9] Adriane Boyd. Using Wikipedia Edits in Low Resource Grammatical Error Correction. In W-NUT, pp. 79-84, 2018. [10] Alla Rozovskaya and Dan Roth. Grammar Error Correction in Morphologically Rich Languages: The Case of Russian. TACL, Vol. 7, pp. 1-17, 2019. [11] Viet Anh Trinh and Alla Rozovskaya. New Dataset and Strong Baselines for the Grammatical Error Correction of Russian. In Findings: ACL-IJCNLP, pp. 4103-4111, 2021. [12] Jakub Náplava and Milan Straka. Grammatical Error Correction in Low-Resource Scenarios. In W-NUT, pp. 346-356, 2019. [13] Satoru Katsumata and Mamoru Komachi. Stronger Baselines for Grammatical Error Correction Using a Pretrained EncoderDecoder Model. In AACL-IJCNLP, pp. 827-832, 2020. [14] Ikumi Yamashita, Satoru Katsumata, Masahiro Kaneko, Aizhan Imankulova, and Mamoru Komachi. Cross-lingual Transfer Learning for Grammatical Error Correction. In COLING, pp. 4704-4715, 2020. [15] Simon Flachs, Felix Stahlberg, and Shankar Kumar. Data Strategies for Low-Resource Grammatical Error Correction. In BEA, pp. $117-122,2021$. [16] Sascha Rothe, Jonathan Mallinson, Eric Malmi, Sebastian Krause, and Aliaksei Severyn. A Simple Recipe for Multilingual Grammatical Error Correction. In ACL-IJCNLP, pp. 702-707, 2021. [17] Hisami Suzuki and Kristina Toutanova. Learning to Predict Case Markers in Japanese. In COLING-ACL, pp. 1049-1056, 2006. [18] 今村賢治, 齋藤邦子, 貞光九月, 西川仁. 小規模誤りデータからの日本語学習者作文の助詞誤り訂正. 自然言語処理, Vol. 19, No. 5, pp. 381-400, 2012. [19] 水本智也, 小町守, 永田昌明, 松本裕治. 日本語学習者の作文自動誤り訂正のための語学学習 SNS の添削ログからの知識獲得. 人工知能学会論文誌, Vol. 28, No. 5, pp. 420-432, 2013. [20] Youichiro Ogawa and Kazuhide Yamamoto. Japanese Particle Error Correction employing Classification Model. In IALP, pp. 23-28, 2019. [21] Aomi Koyama, Tomoshige Kiyuna, Kenji Kobayashi, Mio Arai, and Mamoru Komachi. Construction of an Evaluation Corpus for Grammatical Error Correction for Learners of Japanese as a Second Language. In LREC, pp. 204-211, 2020. [22] 本間広樹, 小町守. 高速な文法誤り訂正機能を持つ日本語 ライティング支援システムの構築. 人工知能学会論文誌, Vol. 37, No. 1, pp. 1-14, 2022. [23] Daniel Dahlmeier, Hwee Tou Ng, and Siew Mei Wu. Building a Large Annotated Corpus of Learner English: The NUS Corpus of Learner English. In BEA, pp. 22-31, 2013. [24] Hwee Tou Ng, Siew Mei Wu, Ted Briscoe, Christian Hadiwinoto, Raymond Hendy Susanto, and Christopher Bryant. The CoNLL2014 Shared Task on Grammatical Error Correction. In CoNLL, pp. 1-14, 2014. [25] Keisuke Sakaguchi, Courtney Napoles, Matt Post, and Joel Tetreault. Reassessing the Goals of Grammatical Error Correction: Fluency Instead of Grammaticality. TACL, Vol. 4, pp. 169-182, 2016. [26] Courtney Napoles, Keisuke Sakaguchi, and Joel Tetreault. JFLEG: A Fluency Corpus and Benchmark for Grammatical Error Correction. In EACL, pp. 229-234, 2017. [27] Michael Heilman, Aoife Cahill, Nitin Madnani, Melissa Lopez, Matthew Mulholland, and Joel Tetreault. Predicting Grammaticality on an Ordinal Scale. In ACL, pp. 174-180, 2014. [28] Jie He, Bo Peng, Yi Liao, Qun Liu, and Deyi Xiong. TGEA: An Error-Annotated Dataset and Benchmark Tasks for Text Generation from Pretrained Language Models. In ACL-IJCNLP, pp. 60126025, 2021. [29] 水本智也. 日本語文法誤り訂正における最適な分割単位の調査. 言語処理学会年次大会, pp. 1336-1339, 2020. [30] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for Neural Text Processing. In EMNLP, pp. 66-71, 2018. [31] Daniel Dahlmeier and Hwee Tou Ng. Better Evaluation for Grammatical Error Correction. In NAACL, pp. 568-572, 2012. [32] Courtney Napoles, Keisuke Sakaguchi, Matt Post, and Joel Tetreault. Ground Truth for Grammatical Error Correction Metrics. In ACL-IJCNLP, pp. 588-593, 2015. [33] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris CallisonBurch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open Source Toolkit for Statistical Machine Translation. In ACL, pp. 177-180, 2007. [34] Jonas Gehring, Michael Auli, David Grangier, Denis Yarats, and Yann N. Dauphin. Convolutional Sequence to Sequence Learning. In ICML, pp. 1243-1252, 2017. [35] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In NeurIPS, pp. 5998-6008, 2017. [36] Franz Josef Och and Hermann Ney. A Systematic Comparison of Various Statistical Alignment Models. CL, Vol. 29, No. 1, pp. 19-51, 2003. [37] Kenneth Heafield. KenLM: Faster and Smaller Language Model Queries. In WMT, pp. 187-197, 2011. [38] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. BLEU: a Method for Automatic Evaluation of Machine Translation. In ACL, pp. 311-318, 2002. [39] Franz Josef Och. Minimum Error Rate Training in Statistical Machine Translation. In ACL, pp. 160-167, July 2003. [40] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A Fast, Extensible Toolkit for Sequence Modeling. In NAACL, pp. 48-53, 2019. [41] Shamil Chollampatt and Hwee Tou Ng. A Multilayer Convolutional Encoder-Decoder Neural Network for Grammatical Error Correction. In AAAI, pp. 5755-5762, 2018. [42] Shun Kiyono, Jun Suzuki, Tomoya Mizumoto, and Kentaro Inui. Massive Exploration of Pseudo Data for Grammatical Error Correction. TASLP, Vol. 28, pp. 2134-2145, 2020. ## A 訂正者間の文単位の類似度 BLEU [38]を用いて訂正者間の文単位の類似度を測定する.BLEU は出力文と参照文中の N-gram の一致率をべースとした評価尺度であり,スコアが高ければ高いほど出力文と参照文の表層が一致していることを表 訂正者 $\mathrm{D}$ と訂正者 $\mathrm{E}$ の間のスコアが最も高いことが分かる.このことから,訂正者 $\mathrm{D}$ と訂正者 $\mathrm{E}$ は同じ表現を用いて訂正することが多いと考えられる.また訂正者 C は,他の訂正者とのスコアが低いことから,他の訂正者とは異なる表現で訂正することが多いと考えられる。 表 5: 各訂正者間の BLEUスコア. ## B実験に使用したデータセット ## C 全ての参照文で評価した時の各文法誤り訂正モデルの性能 ## D 各文法誤り訂正モデルの出力例 16) https://github.com/mocobeta/janome
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT4-4.pdf
# トピックモデルを用いた年代別作文の時間に関する認識の分析 谷口巴 $^{1}$ 上原泉 ${ }^{1}$ 川﨑采香 1 浅原正幸 ${ }^{2}$ 酒井裕 $^{3}$ 越智綾子 ${ }^{2}$ 小林一郎 1 1 お茶の水女子大学 2 国立国語研究所 ${ }^{3}$ 玉川大学脳科学研究所 \{g1620524, koba\}@is.ocha.ac.jp \{uehara.izumi, kawasaki.ayaka\}@ocha.ac.jp \{masayu-a,a.ochi\}@ninjal.ac.jp sakai@tamagawa.ac.jp ## 概要 児童から壮年の各年代の人々を対象に過去と将来に関する作文の収集を行い,作文中の記述内容の分析に基づき,各年代における時間認識の調査を行なった。記述内容に関する分析には,潜在ディリクレ配分法(LDA)[1]を使い,抽出された各トピックの年代別割合と単語分布を俯瞰することによって,各年代における時間の捉え方について考察を行う。 ## 1 はじめに 新学術領域「時間生成学」1)では,時間の意識(こころの時間)がどこからどのように生まれるのかについて,多角的な研究を推進している。領域においては,ヒトの脳活動データの分析を進めるほか,ヒトとの対照分析としての霊長類の行動分析も進めている. 霊長類と異なり,ヒトは時間の意識を言語化することが可能であり, その言語表現を分析することで時間の捉え方を明らかにできる可能性がある。本研究では,ヒトならではの時間の捉え方,すなわち自己視点の入った時間認識を調べることを目的として, 過去の個人的出来事の記憶 (「過去」の出来事の記憶)と将来に自分が経験するであろう出来事の予想 (「将来」の出来事の想像)の言語表現に焦点をあてることにした.「過去」や「将来」の出来事の記憶や想像のいずれにおいても,PTSD や記憶障がいが伴うと,詳細さを欠くとの報告があるが(e.g., Brown et al.,2012),従来,その内容と時間認識に関する分析は十分なされていない. 確かに, 10 代後半から 30 代初め頃の出来事を, 特に高齢期は想起しやすいといった (e.g., Rubin, et al., 1986),時間に関わる報告はある. しかし,過去と将来の経験や時間の捉え方に関して, 経験時点や想起時点(年代) による違いの有無などは,ほぼ検討されていない。 これらの捉え方における,世代差・性差を明らかに 1) https://www.chronogenesis.org/ するために,幅広い年代から「過去」の出来事の記憶と「将来」の出来事の想像に関する作文を収集し分析することにした.なお,伴う感情により内容や時間的距離感にそもそも差があること,どの年代にとっても倫理的問題がなく書きやすい内容になっている必要があることを念頭に,作文をもとめるのは,過去と未来における最も楽しかった,最も楽しいと予想される自分に関する出来事のみとした. 内容分析と併せて,「過去」の出来事の記憶と「将来」 の出来事の想像の作文に表出する言語表現の傾向についても分析を行う.作文のデータは,小学生から 80 代までの幅広い世代の男女 741 名から収集し,人手による形態論情報付与を行った。言語表現においては,作文の形態素 3-グラムに対するトピックモデルを適用し,トピック毎に出現する言語表現を検討するとともに,同トピックの言語表現を利用する世代差・性差について検討する。 その結果,世代や性の違いにより,言語によって表出される出来事(ライフイベント)・出来事の参与者が異なることを明らかにした。 ## 2 年題別作文中の時間認識の分析 ## 2.1 作文データ 本節では利用した成人および児童の作文データについて示す. ## 2.2 作文課題 調査対象者に,作文課題 2 問と記号問題を記した回答用紙 1 枚,作文を書くための羁線入り用紙 2 枚の計 3 枚を配布し回答をもとめた。作文課題はできる限り,用紙の半分以上を書くようにもとめた.記号問題は,本発表では分析対象とはしていないため説明を割愛する.本発表で分析対象としたのは,作文課題の 2 問への回答(作文)であった. 作文課題は (1) 過去経験した一番楽しかった出来事を書くよ うもとめる課題(以下「過去作文」),(2) 将来経験すると予想する最も楽しい出来事を書くようもとめる課題(以下「将来作文」)の 2 問であった. 成人と児童で教示文は同じであった. ## 2.3 手続き 成人のデータは調査会社を通じて募集をかけ,参加を希望された方々に,依頼の手紙,作文課題と記号問題を記した回答用紙 1 枚と作文を記入するための回答用紙 2 枚(過去作文用と将来作文用),返信用封筒をお送りし,回答用紙 3 枚を返信用封筒に入れて投函するようにもとめ,収集した,募集から回収までの作業を調査会社に委託した。児童のデータは, 学校長の承諾のもと, 学校を通じて協力いただける児童に配布し収集した. 首都圈の公立小学校 2 校に依頼し, 1 校から小学 4 年生(70 名)に参加いただき 66 名の分析対象データを得た。もう 1 校から, 小学 3 年生から 6 年生(185 名)に参加いただき 181 名の分析対象データを得た. なお本調査は, お茶の水女子大学人文社会科学研究の倫理委員会の承認を経て実施された。 表 1 亿調査対象者の属性の基礎統計を示す. 表 1 調查対象者の属性 ## 3 実験 ## 3.1 使用データセット 前述の作文データを将来に関する作文と過去に関する作文に分類し,解析を行う.LDAに入力する単語の単位に関しては,各年代ごとの単語使用の特性がより顕著に表れる 3-グラムを用いる. これに基づき, 日本語形態素解析器 MeCabを用いて形態素解析を行い,表層形を 1 単位として 3-グラムを作成した. 全文書中 3 回以上出現する 3-グラムに限定し,文書を 3 グラムからなる構成で再作成した. 未来・過去作文データに関する文書数,3-グラム語彙数,1 文あたりの平均単語数および 3-gram の有効性を比較検証できるように文書をユニグラムで表現した際のパープレキシティを表 2 に示す.表 2 データ詳細 ## 3.2 実験結果 トピック数 $K=10$ とし,LDAを用いてトピッククラスタリングを行なった. 潜在変数の推定には, ギブスサンプリング(GS)を採用し,十分収束するよう, 繰り返し数は 1000 と大きい值に設定した. また,モデルの評価指標としてパープレキシティを用いる. LDA におけるパープレキシティは,学習されたトピック分布 $\theta_{d, k}$ と, トピック - 単語分布 $\phi_{k, v}$ を用いて式 1 で示される.ここで,D は文書数, $N_{d}$ は文書 $d$ の単語数である. perplexity $(\boldsymbol{w})=\exp \left(-\frac{\sum_{d=1}^{D} \sum_{n=1}^{N_{d}} \log \left(\sum_{k=1}^{K} \theta_{d, k} \phi_{k, w_{d n}}\right)}{\sum_{d=1}^{D} N_{d}}\right)$ パープレキシティは各文書における単語確率の幾何平均の逆数であるが,これは文書の正解単語を予測する際の単語の候補数であり,值が小さいほうがより優れたモデルといえる。 訓練時において, GS の各繰り返しごとに計算したパープレキシティをプロットすることにより,収束判定を行った(図 1 参照)。これにより $\theta_{d, k}$ および $\phi_{k, v}$ を取得した。 図1訓練時のパープレキシティ。 過去と将来の作文において,LDAにより学習された $\phi_{k, v}$ から,各単語(3-グラムからなる単語)について正規化自己相互情報量(NPMI) [2]を計算した上位 10 単語を表 3 および表 4 に,それぞれ示す.ここで,NPMI とは自己相互情報量 (PMI) を-1 から 1 の間に正規化したものであり,式 2 で示される. $ \begin{aligned} \operatorname{NPMI}(k, v) & =\frac{P M I(k, v)}{-\log p(k, v)} \\ & =-1+\frac{\log p(k) p(v)}{\log p(k, v)} \end{aligned} $ 図 2 トピック別年代の割合. トピックに対する単語の出現を観察するのに $\phi_{k, v}$ ではなく,NPMI を用いることで単語の出現頻度の影響を受けず,トピックを代表する単語を観察することができる。また,各トピックにおける年代別割合と確率上位 2 文書を,それぞれ図 2 ,表 5 ,表 6 に示す. ## 3.3 考察 図 2 より,年代別による頻出トピックが確認できる. 表 3,表 4,表 5,表 6 と照らし合わせながら,将来データと過去データについてそれぞれ考察を述べる. ## 将来データ トピック 140 代以上の女性が多く割合を占めている.トピックの内容としては子育て後の楽しみなどを説明する単語が多く割り当てられている。 トピック 220 代から 30 代の働き盛りの男女や 60 代から 80 代の男性の割合が大きくなっているが,仕事における夢であったり,定年後の未来に関する文書が多く見受けられた。 トピック 3 児童が半分以上の割合を占めている.トピック 1 と比べて遠い将来の夢や願望を表す単語が多く割り当てられていることが確認できる。児童が成人に比べて遠い将来に関する願望を書く傾向があるのは妥当な結果であるといえる. トピック 4 対照的に児童の割合が最も小さく,成人女性の割合が高くなっている. 自分の子供や孫の成長を楽しみとする文書が多く見受けられた。 トピック 5 成人男性がやや大きな割合を占めている。ライフイベント (結婚や家の購入) に関するものが多い. トピック 6 成人男性がやや大きな割合を占めている。趣味に関しての文書が目立つ. トピック 7 児童の割合が相対的に多く,形式名詞「こと」が多用されている. 日常的な学校や友人に関するトピックである. トピック 840 代以上の割合が相対的に多く, 学業や旅行,投資などの中高年の夢や願望を含む割合が高いトピックである. トピック 9 トピック 8 と同じく 40 代以上の割合が相対的に多い. 上位文書には結婚生活など家庭に関する記述が多くみられた。 トピック 10 トピック 1 と同じような単語の分布が見受けられる.トピック 1 と比較して年齢層は若く, 子供の成長やこれからの家族の行く未を思う文書が多くみられた。 全体を通して,児童の割合が小さいトピックには逆接や順接が含まれる単語や過去形の単語が多く割り当てられていた. 成人は将来の話をする前に,理由や経験として過去の話をするなど,論理的に話す傾向がみられた. ## 過去データ トピック 1 児童の割合が小さく,中高年が割合を大きく占めている.家族や旅行に関する単語が見受けられ,遠い過去の思い出が多くみられる。 トピック 2 家族との国内の旅行に関する記述が多く見受けられ,主に若年世代が想起する思い出から成っている. トピック 3 及びトピック 4 トピック 2 と分布が似ているが,学校生活に関しての記述が目立つトピックであった. トピック 5 児童の割合が小さく,中高年女性が割合を大きく占めている. 家族や健康に関する単語が多く割り振られている. 将来データと同様, 男性に比べて女性の作文には他人が主役であったり,自分に関するイベントであっても家族や友人に関する 表 3 未来データ: トピック別 3-グラム上位 10 語. & & & & & & & & & \\ 表 4 過去データ : トピック別 3-グラム上位 10 語. & みんなで & をかって & に、お & & いたの & ができた & 遊んでい & 旅行をし & お母さん \\ 記述が多く見受けられる。 トピック 6 他のトピックと比べて男性の割合が多いトピックである. トピック確率が高い文書では旅行関連の記述が多い. また, 当時の西暦や年齢など,数字を用いての表現も多くみられた。 トピック 7 若年世代の女性と中高年による友人に関する内容の占める割合が比較的高く, 文章では連用中止の表現が多い. トピック 8 女性の割合が大きい. 他者より自分中心のレクリレーション関連の出来事が多く見られる。 トピック 9 主に海外旅行に関するトピックであり,一人旅など家族や友人に関する要素が薄く,20 代から 30 代の男女の割合が大きくなっている. トピック 10 学校生活での思い出に関してのみで構成されており,女子児童が割合の大半を占めている. 過去データでは旅行関係のトピックが多く見られ,家族や学校の要素が加わることでトピックが細かく分かれていることが確認できた。 る顕著な特徴としては,過去といったときに中高年は遠い過去(学生時代など)に思いを馳せ,将来といったときに児童は遠い将来(主に若年成人期)を思い描く傾向がみられ,推測の域を出ないが,世代を問わず共通して,青年期から若年成人期を人生の中心とする主観的な時間軸を有している可能性が考えられる。とはいえ,詳細までは把握しきれなかったが,内容,時間認識とも世代差や性差が本データにおいて示唆されており,今後はデータ数を増やし, Dynamic Topic Model などを用いて年代の移り変わりによるトピックの変化を分析することなどが課題として挙げられる。 ## 謝辞 本研究は,科学研究費補助金 - 新学術領域研究「時間生成学」(18H05521,18H5524) の支援を受けて行った. トピック解析において統計数理研究所持橋大地氏から有益なアドバイスを頂きました。ここに深謝いたします. ## 4 まとめと今後の課題 年代別に作成された作文を収集し,LDA を用いてトピッククラスタリングを行った. 時間認識に関す ## 参考文献 [1] David M. Blei, Andrew Y. Ng, Michael I. Jordan, and John Lafferty. Latent Dirichlet Allocation. Journal of Machine Learning Research, Vol. 3, pp. 994-1022, 2003. [2] Gerlof Bouma. Normalized (Pointwise) Mutual Information in Collocation Extraction. Proceedings of GSCL, pp. 3140, 2009. [3] 浅原正幸, 川嵪采香, 上原泉, 酒井裕, 須藤百香, 小林一郎, 越智綾子.「過去」「未来」を主題にした作文の文体分析. 日本語学会 2021 年度秋季大会, No. A-7, pp. $37-42,2021$. ## A 付録 表 5 将来データ:トピック別上位 2 文書 表 6 過去データ:トピック別上位 2 文書
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT4-5.pdf
# Teacher-Student 学習を利用したラベル誤りを 含むデータにおける固有表現認識の性能向上 田川裕輝 ${ }^{1}$ 中野騰久 ${ }^{1}$ 尾崎良太 ${ }^{1}$ 谷口友紀 ${ }^{1}$ 大熊智子 ${ }^{1}$ 鈴木裕紀 ${ }^{2}$ 木戸尚治 ${ }^{2}$ 富山憲幸 ${ }^{2}$ 1 富士フイルム株式会社 2 大阪大学大学院医学系研究科 \{yuki.tagawa, norihisa.nakano, ryota.ozaki, tomoki.taniguchi, tomoko.ohkuma\}@fujifilm.com \{y-suzuki,kido, tomiyama\}@radiol.med.osaka-u.ac.jp ## 概要 情報抽出タスクの一つに固有表現認識(NER)がある。医療などの特定の分野を対象に NER の学習データを作成する場合,ラベル付け作業には対象分野の専門知識が必要となり,作業者間で解釈の違いや迷いが生じてしまう. その結果, ラベルにノイズを含むデータが作成され,モデルの性能劣化につながる. 本研究ではアンサンブルと Teacher-Student 学習(TS 学習)を利用したラベルノイズを含む学習データにおける NER の学習方法を提案する. 4 種類のラベルノイズを定義し,疑似的に作成したノイズを含むデータを用いてその含有率ごとの性能評価実験を行った。その結果,提案手法がノイズの影響を緩和し性能向上に寄与することが確認できた。 ## 1 はじめに 固有表現認識(NER)とはテキストから固有表現 (NE)に当たるスパン(NE の開始,終了位置)とス 近年では深層学習の発展に伴い,学習データを大量に用意し,モデルを学習させる手法 $[1,2]$ が多い. しかし,ラベルにノイズが含まれている場合,深層学習を利用した手法ではノイズに対しても過学習し,性能劣化につながる問題が指摘されている [3]. 図 1 に医療レポートを例として NER におけるラベルノイズの例を示す. 図 $1 \mathrm{~b}$ では “ $\mathrm{S} 1$ ” が適切なスパンであるが,実際には “S1に”というスパンに対してラベルが付いている。このようなノイズを含んだデータが作成される問題は避けることが難しい. 学習データにノイズが含まれている場合の対策にモデルのアンサンブルがある. アンサンブルとは複数の異なるモデルの推論結果を統合し, 最終出力 (a) 正解データ (b) Span-shift NE に対するスパンがずれているデータ (c) Entity-missing NE が抜け落ちているデータ (d) Over-labeling NE でないスパンにラベルが付いたデータ (e) Label-swapping 異なるラベルが付いているデータ 図 1 NER におけるラベルノイズの例 を得る手法である.単一のモデルを学習させるとノイズに対して過学習してしまうが,異なるデータやシード值で学習された複数のモデルの出力を統合することで,ノイズの影響を緩和できることが知られている [4]. しかし,推論時に複数のモデルで推論するため,最終出力を得るまでに時間がかかるという問題がある.特に,即時性の必要なアプリでは推論時に複数のモデルを利用する手法は扱いづらい。 本研究では Teacher-Student 学習 (TS 学習) [5] を利用したラベルノイズを含む学習データでの NER の学習方法を提案する。提案手法の概要図を図 2 に示す. 提案手法は訓練セットを複数のサブセットに分割し,各サブセットで複数の教師モデルを訓練する. 次に,各教師モデルの出力分布を統合した分布に近づけるように単一の生徒モデルを訓練する.提案手法によりノイズの影響が緩和された単一のモデルが得られ,複数のモデルで推論するアンサンブルと比べて最終出力を得るまでの時間が抑えられる。 本研究の貢献は以下である. i) ラベルノイズを含む学習データにおける NER の性能向上を目指し, アンサンブルと TS 学習を組み合わせた手法を提案する. ii) 4 種類のラベルノイズを疑似的に付与したデータセットにおいて提案手法は高い性能であり, ノイズの影響を緩和できることを確認する。 ## 2 関連研究 $\mathrm{NE}$ のラベル付けは難しく,ラベルノイズが混ざったデータが作成されてしまう $[6,7]$. NER では大量のデータで学習する手法が多く提案され, 高い性能が報告されている $[1,2]$ が,ノイズが含まれたデータで学習すると, モデルはノイズに対して過学習し,性能が劣化することも知られている [3]. この問題に対して, Cross-Weigh [6] ではモデルの予測ラベル系列と正解ラベル系列が一致しない場合,その学習サンプルはノイズを含むと推定し,損失値に低い重みを掛けることで,ノイズを含む学習サンプルの学習への影響を小さくしている.この手法はサンプル単位で重み付けするため,同一サンプル内にノイズを含む $\mathrm{NE}$ ,含まない $\mathrm{NE}$ が混ざっている場合に区別して扱えない,一方で,提案手法ではサンプル単位ではなく, 複数の教師モデルが予測した各トークンに対するラベル確率分布を利用することで,トークン単位でノイズの影響を抑えながらモデルを学習することができる. 他にもノイズを含む学習データにおける NER の研究 $[8,9,10]$ があるが,これらは一部の $\mathrm{NE}$ が O ベルとなるノイズのみを対象としている。実際に NER のラベルノイズを調査した結果,スパンの間違いなども確認された。そこで,本研究では NER のラベルノイズを 4 種類に分類し,各ノイズを疑似的に付与した学習データを用意し,性能を比較する。 ## 3 提案手法 提案手法では複数の教師モデルを訓練した後,それぞれの教師モデルの出力に近づけるように単一の生徒モデルを訓練し, 最終的な推論に用いるモデルを獲得する.また,モデルには BERT-CRFを用いる。 ## 3.1 生徒モデルの学習 図 2(a) は生徒モデルの学習方法を示している. まず, 学習データ $D=\left.\{\left(x_{i}, y_{i}\right)\right.\}_{i=0}^{N}$ をランダムに分割し,複数のサブセット $\left.\{d^{k}\right.\}_{k=1}^{K}, d^{k}=\left.\{\left(x_{h}^{k}, y_{h}^{k}\right)\right.\}_{h=0}^{H}, K \geq 2$ を作成する. $d^{k}$ を用いて $k$ 番目の教師モデル $t^{k}$ を (a) 生徒モデルの学習 (b)MBANを適用した場合の生徒モデルの学習 図 2 提案手法の概要図 訓練する. 訓練には以下の損失関数 $L_{t e a^{k}}$ を用いる. $ \begin{aligned} & L_{t e a^{k}}=\sum_{h=0}^{H} L_{n l l}\left(x_{h}^{k}, y_{h}^{k}\right) \\ & L_{n l l}(x, y)=-\log p(y \mid x) \end{aligned} $ ここで, $L_{n l l}$ とはトークン系列 $x$ に対するラベル系列 $y$ の負の対数尤度関数である. $x_{h}^{k}$ と $y_{h}^{k}$ はそれぞれ $k$ 番目のサブセット $d_{k}$ 中の $h$ 番目のトークン系列とそれに対応する $\mathrm{NE}$ ラベル系列である. 次に,訓練した $K$ 個の教師モデル $\left.\{t_{k}\right.\}_{k=1}^{K}$ の出力分布を統合した分布に近づけるように,以下の損失関数 $L_{s t u}$ を用いて生徒モデル $s$ を訓練する. $ \begin{array}{r} L_{s t u}=\sum_{i=0}^{N}\left.\{\alpha \cdot L_{n l l}\left(x_{i}, y_{i}\right)+\beta \cdot L_{k d}\left(\tilde{p}_{i}, q_{i}\right)\right.\}, \\ \tilde{p}_{i}=\sum_{k=1}^{K} w_{i}^{k} \cdot p_{i}^{k}, \end{array} $ ここで, $L_{k d}$ とは $x_{i}$ に対する各教師モデル $t^{k}$ の各トークンに対する出力分布 $p_{i}^{k} \in \mathbb{R}^{J \times C}$ を統合した分布 $\tilde{p}_{i} \in \mathbb{R}^{J \times C}$ と生徒モデル $s$ の出力分布 $q_{i} \in \mathbb{R}^{J \times C}$ の差異を表す尺度であり,KL-Divergence を利用する. $J$ とはトークン系列長であり, $C$ とは $\mathrm{NE}$ ラべル数である. $p_{i}^{k}$ と $q_{i}$ は Forward-Backward アルゴリズムにより算出する。 また, $w_{i}^{k}$ とは $i$ 番目の学習データ $x_{i}$ を処理する際の $k$ 番目の教師モデル $t^{k}$ に対応する重みである. $\alpha$ と $\beta$ は $L_{n l l}$ と $L_{k d}$ のバランスをとるための重みパラメータである. ## 3.2 教師モデルに対する重みの推定 複数の教師モデルの出力分布を統合する際の単純な方法として平均が挙げられる. 要するに $w_{*}^{k}=\frac{1}{K}$ である。一方で,生徒モデル学習時に学習するサンプルのトークン系列 $x_{i}$ に対して,その系列と類似したトークン系列を含むサンプルで学習した教師モデルは,その他の教師モデルと比べて, $x_{i}$ に対して適切なラベル確率分布を推定できると考えられる。 そこで,$x_{i}$ と各教師モデル $t^{k}$ の学習データであるサブ セット $d^{k}$ との類似度を測り,その類似度を重み $w_{i}^{k}$ として用いる。トークン系列間の類似を測る尺度には BERTScore ${ }^{1)}[11]$ を利用する. ## 3.3 Multiple Born-again Networks の導入 Born-again Networks [12](BAN)とは教師モデルを基に訓練された生徒モデルが次の世代では教師モデルに入れ替わり,別の生徒モデルを学習する機構である. 通常,BANは単一の教師モデルと生徒モデルを交互に入れ替えながら学習を進めていく。本研究では BANを複数のモデルで学習を進めるように拡張した Multiple Born-again Networks(MBAN)を提案する、MBANを適用した提案手法の概要図を図 2(b) に示す. MBAN は複数の教師モデルを基に複数の生徒モデルを入れ替えながら訓練し, 最後に単一の生徒モデルを訓練する。事前に定義した世代 $G$ のうち, $g$ 世代目 $(1 \leq g \leq G)$ の $k$ 番目の生徒モデル $s_{g}^{k}$ は以下の損失関数 $L_{s t u_{g}^{k}}$ を用いて訓練する. $ L_{s t u_{g}^{k}}=\sum_{h=0}^{H}\left.\{\alpha \cdot L_{n l l}\left(x_{h}^{k}, y_{h}^{k}\right)+\beta \cdot L_{k d}\left(\tilde{p}_{h, g-1}, q_{h, g}^{k}\right)\right.\} $ ここで, $\tilde{p}_{h, g-1} \in \mathbb{R}^{J \times C}$ とは $g-1$ 世代目の各生徒モデル $s_{g-1}^{*}$ の各トークンに対する出力分布 $p_{h, g-1}^{k} \in \mathbb{R}^{J \times C}$ を統合した分布であり, $q_{h, g} \in \mathbb{R}^{J \times C}$ とは生徒モデル $s_{g}^{k}$ の出力分布である. 次世代 $g+1$ では生徒モデル $\left.\{s_{g}^{k}\right.\}_{k=1}^{K}$ が教師となり, 異なる生徒モデル $\left.\{s_{g+1}^{k}\right.\}_{k=1}^{K}$ を訓練する. 最後に生徒モデル $\left.\{s_{G}^{k}\right.\}_{k=1}^{K}$ を教師として,推論のためのモデルを(3)式を用いて訓練する. ## 4 実験 提案手法の有効性を検証するため,日本語読影レポートデータセットを用いる2).まず,このデータにノイズを疑似的に付与したデータを作成する。次に,そのデータでモデルを学習し,ラベルノイズを含まないテストセットに対する性能を比較する. ## 4.1 ラベルノイズの種類 本研究では以下の 4 種類のノイズを定義する。また,各ノイズの例を図 $1 \mathrm{~b}, 1 \mathrm{c}, 1 \mathrm{~d}, 1 \mathrm{e}$ に示す. ・Span-shift NE のスパンが正解とは異なる位置にずれたノイズである. ランダムに $\mathrm{NE}$ を選択 ^{1)}$ BERTScore の $\mathrm{F}$ 值を利用した. 利用した事前学習モデルについては付録を参照されたい. 2) データセットの詳細に関しては付録を参照されたい. } し,その $\mathrm{NE}$ の境界を 1 文字ずらすことにより, ノイズを付与した. ずらす際には $\mathrm{NE}$ の右,または左の境界を,増やす,または減らすかの 4 種類の組み合わせの内,ランダムに選択した。3) - Entity-missing NE のスパンに対して誤ってOラベルが付いたノイズである. ランダムに $\mathrm{NE}$ を選択し,その $\mathrm{NE}$ のラベルを $\mathrm{O}$ ラベルに置換することでノイズを付与した。 - Over-labeling NEでないスパンに対して誤って NE ラベルが付いたノイズである.Oラベルが付いている単語のうち,ランダムに選択された単語に,ランダムに選択した O ラベル以外のラベルを付けることでノイズを付与した. - Label-swapping NE のスパンに対して正解とは異なるラベルが付いたノイズである. ランダムに $\mathrm{NE}$ を選択し,その $\mathrm{NE}$ のラベルを正解のラベルと Oラベル以外のラベルに置換することでノイズを付与した. ## 4.2 比較手法 モデル4)の学習方法として以下の手法を比較し,提案手法の有効性を検証する。 1. Single 単一のモデルを学習させる手法. 2. Ensemble 初期パラメータの異なる複数のモデルを学習し,推論時は各モデルの出力結果を多数決で統合したものを最終出力とする手法. 3. CW Wang ら [6] の手法. Encoderには提案手法と同じ事前学習モデルを利用する. 4. BAN 単一の教師モデルを学習させ,次世代ではその教師モデルに近づけるように異なる生徒モデルを学習させる手法. 5. Ours(Ave) 各サブセットで学習した複数の教師モデルの平均出力分布に近づくように生徒モデルを学習する手法. 6. Ours(Sim) 教師モデルの平均出力分布ではなく, 3.2 節で説明した教師モデルの加重平均分布に近づくように生徒モデルを学習する手法. 7. Ours(Ave)+MBAN 手法 5 に MBANを加えた手法. 8. Ours(Sim)+MBAN 手法 6 に MBANを加えた手法. また, Ensemble, $\mathrm{CW}$ ,提案手法の訓練時のモデル数は2とした。 ^{3)} \mathrm{NE}$ のスパンが他の NE と重複することのないように事前にノイズ付与の対象となる $\mathrm{NE}$ を選別し,ノイズを付与した. 4) 本研究ではベースのモデルとして BERT-CRFを利用する. パラメータ,事前学習モデルについては付録を参照されたい. } 表 1 Span-shiftを付与したデータでの性能. 表 2 Entity-missing を付与したデータでの性能 ## 4.3 実験結果 各データセットで学習したモデルのテストセットに対する Micro-F1 値を表 1,2,3,4 に示す.太字は各列で最高性能を意味する. Ours(Ave)+MBAN, Ours(Sim)+MBAN とべースラインである Single, Ensemble を比較すると多くの場合で MBANを導入した提案手法の性能が高い結果となった. また,全体性能を比較すると全てで MBANを導入した提案手法の性能が最も高いことがわかる.この結果はノイズを含むデータでの学習において,MBANを導入した提案手法が効果的であることを示唆している. 一方で,MBANを導入していないOurs(Ave) や Ours(Sim) はベースラインと比べて性能が向上していない。提案手法は学習データを分割したサブセットで教師モデルを学習するため,1 世代目では教師モデルの学習が進んでおらず,生徒モデルの性能も向上しなかったと考えられる. 特に,Ours(Sim) は教師モデルの加重平均分布を基に学習するため, 高い信頼度が算出された教師モデルの学習が停滯している場合, 生徒モデルは正解のラベル分布とは差異のある分布で学習することとなる. その結果,学習に悪影響を与え,性能が劣化したと考えられる。 表 5 に表 1,2,3,4 の結果から算出したノイズの割合を固定し,各ノイズを均等に含む場合の性能を示す. 提案手法の性能はノイズの割合が 0.4 の場合を除き,その他手法と比べて有意な差を確認した。 ノイズの割合が 0.4 の場合の性能は $\mathrm{CW}$ が最も高い.表 3 Over-labelingを付与したデータでの性能. 表 4 Label-swapping を付与したデータでの性能. 表 5 ノイズの割合を固定し,各ノイズを均等に含む場合の性能. †は提案手法とその他手法の間に有意水準 0.05 で差があることを示している。検定方法は笹野ら [13] に従った. 2 節で説明したように, CW はサンプル単位でノイズの影響を緩和する手法である。一方で,提案手法は教師モデルの各トークンに対する確率分布を利用して学習するため,トークン単位でノイズの影響を緩和する手法であり,サンプル単位でノイズの影響を緩和する機構は備えていない。そのため,両者を組み合わせることで更なる性能向上が期待できる。 また,表 1,2,3,4 の性能を比較すると,提案手法がその他手法より低い場合もある. 今後の課題として,各手法がどのようなノイズに対して有効かなど,手法とノイズ間の関係の分析が挙げられる。 ## 5 おわりに 本研究ではラベルノイズを含む学習データにおけるアンサンブルと TS 学習を組み合わせた NER の学習手法を提案した. また,ラベルノイズを付与したデータにおいて,提案手法が高い性能であることを確認した. 今後の課題は各ノイズと各手法間での性能差の詳細な分析である. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Xuezhe Ma and Eduard Hovy. End-to-end sequence labeling via bi-directional LSTM-CNNs-CRF. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1064-1074, Berlin, Germany, August 2016. Association for Computational Linguistics. [3] Chiyuan Zhang, Samy Bengio, Moritz Hardt, Benjamin Recht, and Oriol Vinyals. Understanding deep learning requires rethinking generalization. In 5th International Conference on Learning Representations, ICLR 2017, Toulon, France, April 24-26, 2017, Conference Track Proceedings. OpenReview.net, 2017. [4] David Opitz and Richard Maclin. Popular ensemble methods: An empirical study. Journal of Artificial Intelligence Research, 1999. [5] Geoffrey Hinton, Oriol Vinyals, and Jeff Dean. Distilling the knowledge in a neural network. arXiv preprint arXiv:1503.02531, 2015. [6] Zihan Wang, Jingbo Shang, Liyuan Liu, Lihao Lu, Jiacheng Liu, and Jiawei Han. CrossWeigh: Training named entity tagger from imperfect annotations. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 5154-5163, Hong Kong, China, 2019. Association for Computational Linguistics. [7] Frederick Reiss, Hong Xu, Bryan Cutler, Karthik Muthuraman, and Zachary Eichenberger. Identifying incorrect labels in the CoNLL-2003 corpus. In Proceedings of the 24th Conference on Computational Natural Language Learning, pp. 215-226, Online, November 2020. Association for Computational Linguistics. [8] Kun Liu, Yao Fu, Chuanqi Tan, Mosha Chen, Ningyu Zhang, Songfang Huang, and Sheng Gao. Noisy-labeled NER with confidence estimation. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 3437-3445, Online, June 2021. Association for Computational Linguistics. [9] Zhanming Jie, Pengjun Xie, Wei Lu, Ruixue Ding, and Linlin Li. Better modeling of incomplete annotations for named entity recognition. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 729-734, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [10] Stephen Mayhew, Snigdha Chaturvedi, Chen-Tse Tsai, and Dan Roth. Named entity recognition with partially annotated training data. In Proceedings of the 23rd Conference on Computational Natural Language Learning (CoNLL), pp. 645-655, Hong Kong, China, November 2019. Association for Computational Linguistics. [11] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with bert. In International Conference on Learning Representations, 2020. [12] Tommaso Furlanello, Zachary Lipton, Michael Tschannen, Laurent Itti, and Anima Anandkumar. Born again neural networks. In Jennifer Dy and Andreas Krause, editors, Proceedings of the 35th International Conference on Machine Learning, Vol. 80 of Proceedings of Machine Learning Research, pp. 1607-1616, Stockholmsmässan, Stockholm Sweden, 10-15 Jul 2018. PMLR. [13] 笹野遼平, 黒橋禎夫. 大域的情報を用いた日本語固有表現認識. 情報処理学会論文誌, Vol. 49, No. 11, pp. 3765-3776, nov 2008. 表 6 データセットの統計量 表 7 固有表現ラベルとその定義 ## A データセットの詳細 本研究で利用した日本語読影レポートデータセットの統計量を表 6 に,ラベルの定義を表 7 に示す.病変,形状変化,変化,性状に関しては実際にそれが生じている(Positive)のか否か(Negative)の事実性が“認められる”や“なし”などの表現でレポー 卜に記載される。この事実性も固有表現と同時に推定するために,NE ラベルに事実性を表す Positive と Negative を結合したもの (例えば,病変 $\mathrm{P}$, 変化 $\mathrm{N}$ といったもの)をラベルとして用意し, モデルを学習させた.また,NER の学習には $\mathrm{NE}$ の開始を意味する Begin,NE の連続を意味する Inside,NEではないことを意味するOtherによって NE の境界を識別する BIO 方式を採用した. ## B モデルのパラメータについて 本研究ではベースモデルとして BERT-CRFを利用した. BERT-CRF の学習率は $5.0 \times 10^{-5}$, バッチサイズは $16, \alpha$ は $0.5, \beta$ は 0.5 とした. これらのパラメータはいくつかの候補に対して開発セットに対 する性能を基にグリッドサーチにより決定した。また,MBANを適用した提案手法,Cross-Weigh,BAN の世代数 $G$ は 1 から 5 を試し,最も開発セットに対して性能が高い世代のモデルを評価のためのモデルとして選択した。 ## C 事前学習モデルについて 本研究では BERT-base [1]を事前学習モデルとして利用した。この BERT は約 686 万文からなる日本語読影レポートを用いて Masked Language Model で訓練したモデルである。また,読影レポートを NEologd 辞書 5) を組み込んだ MeCab で単語分割した後, 文字単位のサブワードに分割することで 3,852 の語彙を構築した。 ^{5)}$ https://github.com/neologd/mecab-ipadic-neologd }
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT4-6.pdf
# Predicting Click-through Rates of Text Search Ads Using Handcrafted Features Melvin Charles O. DY OPT Inc. AI Solutions Development Dept. (株式会社オプトAIソリューション開発部) m.dy@opt.ne.jp } \begin{abstract} In this paper, we present the results of our work on predicting CTR from search ad texts using an implementation of handcrafted features, and their use in several regression models. Our approach is shown to have some advantages over an approach that uses only BERT-like learned features. \end{abstract ## 1 Introduction ## 1.1 Motivations The question of optimizing for clicks is an evergreen matter of interest in the world of online advertising. While there are many factors involved in between the creation of ad materials and their final presentation to the end-user, including bidding for prime positions, and optimization on the platform side, the use of click-through rate ("CTR") as a metric and objective variable for the entire process is generally accepted. Many business models exist wherein higher CTR translates into better remuneration for ad agencies. As such, models that can predict the CTR of a given set of parameters can help ad agencies choose between alternative proposals, minimizing the need for audience test strategies, reducing workloads, associated costs, and lead times, and ultimately improve profit margins. On a related note, a rising trend among advertisers is the development and use of generative text models and systems that can automate the production of text for use in ads, whether as the primary content or as a component in other ad formats [1]. Some such systems have been released for use by individuals or small business owners, who do not necessarily have the expertise to know what to write, nor the experience to know what works best. CTR prediction models coupled to such generative systems can lead to highly-optimized workflows and results. That is not to say that human knowledge and experience is no longer useful. Though CTR prediction is generally not a part of the traditional ad creation process, ad creators have always sought to maximize CTR through their choices and craft. It is my belief that this somewhat nebulous body of knowledge can be leveraged to produce a system that lends clarity and form to the ad creation process better than black-box models. ## 1.2 Clarification Much of the work done on CTR prediction in the digital ad space appears to be focused on the task of predicting whether an ad under a given set of circumstances is going to be clicked or not. Many popular datasets used for CTR prediction for online ads (Criteo and Avazu datasets) present this task, with various metadata variables and anonymized categorical values, the semantics of most of which are not publicly known $[2,3]$. There appears to be very little publicly-available work on CTR prediction using the actual text of the ads. This is not particularly surprising, as ad agencies and platforms are generally not at liberty to release the texts alongside performance metrics. Some of the categorical variables in the aforementioned datasets may actually be representations of the ad copy texts, but most researchers still do not have direct access to the plaintext corpora of particular interest in the primary task that was the focus of this study. ## 1.3 Task Definition The task in question was to predict the CTR of sets of texts (described in more detail in a later section) intended for use in text ads, specifically those served up in relation to a search query on a search engine. As I touched upon in the section on motivations, one of the intentions behind the development of this system was to support our ad creative teams in finding the best phrasing for ad copy texts that would lead to maximum profits. Of course, such a system could also be integrated with a generative text model to rank the generated texts, providing some insight as to which texts would provide the best results. To that end, we were more interested in the effects of changes in the texts themselves, rather than how they would perform in specific circumstances, as could be described by the variables representing the context surrounding the ad (e.g. (Avazu) site_category, app_domain) and the user in question (e.g. (Avazu) device_id, device_ip). On a related note, considering the advent of the "cookie-less Internet" [4], approaches that rely on access to third-party cookies to identify the context and user in question may be less viable, or at least will become more challenging. This could mean a shift away from strategies that target specific user segments or even specific users, and back towards focusing efforts on the ads' contents to maximize clicks. This was a consideration that partly informed our decision to focus on the primary task as described. ## 2 Our Approach ## 2.1 Handcrafted Feature Extraction Of central interest to this study was the development and testing of a feature extractor that used input from our creative teams, with regards to what they thought were factors that affected the performance of our ads. In a preceding internal project, we had the goal of identifying factors that were adjustable or controllable within the ad creation process; the idea being that if we could analyze ads and metrics such that we could tell which elements contributed to better CTR, our creative teams could adjust their future work to incorporate more of those elements. Conversely, elements that actually tended to decrease CTR were also identified, and were to be avoided whenever possible in future work. A subset of this previous work was directly related to the text used in banner ads. Although not expressly developed for the analysis of search ads, we deemed there was sufficient overlap that the schema could be used to explicitly extract features that could be used to gain insight into search ads as well. The feature extractor developed using this tag schema was built on aggregations of regular expressions. When a regular expression representing certain words or phrases turned up a match, a tag was assigned to the text in question. Fig. 1 Example of configuration for a tagger For any given singular ad, there are multiple text fields, so each field was tagged separately, such that the resulting handcrafted feature (hereafter referred to as "tag-based feature(s)") column count for a given expanded search ad was $866 * 6=5,196$. However, this was a very large number of sparse dimensions, so it was reduced by aggregating tags by merging the features of the 3 ad title fields together and those of the 2 description fields together, such that the resulting number of tag-based feature columns was $866 * 2=$ 1732. The only exception to this is the LightGBM experiment detailed below, as we ended up applying a different means of reducing dimensions in that case. Metadata features were also converted into $\mathrm{n}$-hot encodings. This amounted to a column count of 964 , a majority of which were representations of the account IDs associated with the ads. Input text:【オトク】予約購入するとなんと10\%オフ! Fig. 2 Handcrafted feature extraction These features were extracted and saved to disk, to reduce the amount of computation and time needed during training. Although not explicitly examined in this study, the handcrafted features are also directly translatable into outputs that can inform end-users as to what textual features affect the predicted CTR. ## 3 Experiments We performed experiments in several different paradigms. These were all performed using scikit-learn or PyTorch on Google Colab instances, generally with a maximum of $12 \mathrm{~GB}$ RAM and $16 \mathrm{~GB}$ VRAM. Input tensors used in training and validation were also cached to disk after generation during the first epoch to reduce processing time. ## 3.1 Data We used data collected using our company's ad performance tracking systems. Specifically, we used the metadata, text fields, impression and click counts for Japanese language expanded text ads on Google, which were active between 2017/07/01 and 2021/02/24 (the time of extraction), compiled by month, grouped separately by ad ID and device type. The individual ad IDs (as opposed to ad account IDs) were not factored into learning. We also filtered out instances with fewer than 100 monthly impressions. Table 1. Data fields used Metadata Ad account ID, year and month, device type, network type, TD Fields Ad title 1, ad title 2, ad title 3, description 1 , description 2 The functions and limitations of the individual TD (title and description) fields are explained here: [5]. The total row count was 1,453,181. Train-validate-test splitting was performed with ratios of $0.7,0.2$, and 0.1 resulting in 1,017,227 training rows, 290,637 validation rows, and 145,317 test rows. ## 3.2 LightGBM Using the n-hot encoded tag-based features did not show very promising results in the short time we devoted to this confirmatory experiment. Instead, we converted the permutations of the n-hot tag-based features per TD field and assigned integer values to be used as categorical value indices. We then performed a $\mathrm{K}$-fold ( $\mathrm{n} \_$splits $=5$, shuffle $=$ True) training regime using the metadata fields as categorical features and the categorically-encoded feature fields. ## 3.3 Multilayer Perceptron (“MLP”) After experimenting with various network shapes (partly informed by [6]), layer depths, and node counts, we achieved the results presented in the next section with a network with 5 hidden layers of 600 nodes each. The input used n-hot encoded metadata fields (964 columns) and n-hot encoded TD feature fields ( $866+$ 866); the activation function was ReLU. ## 3.4 Fine-tuned DistilBERT We decided to perform our experiments using DistilBERT-base-japanese [7]. We selected DistilBERT because it has been shown to perform only slightly worse than a comparable BERT model, while reducing memory and processing requirements by more than three-quarters, which was in line with one of our end-goals of producing an interactive web-based tool. Fig. 3 Including metadata features as text for DistilBERT We took the DistilBERT-base-japanese model publicly available via HuggingFace, and fine-tuned it using the DistilBertForSequenceClassification [8] class with num labels $=1$. The input for this model was expected to be text strings, so I converted the existing n-hot metadata encodings using the column headings, joined them with [SEP] tokens, and prepended them to the composite ad title and composite description strings, also separated with [SEP] tokens. ## 3.5 Ensemble A very simple ensemble model that took the results of predictions from two disparate models and presented the mean of those values as its prediction was also developed. The internal models were an instance of the aforementioned MLP models and a fine-tuned DistilBERT model. The input for the MLP portion was n-hot encoded metadata and tag-based features. The DistilBERT portion was provided with the TD strings joined by [SEP] tokens. ## 3.6 Joint Learning Finally, taking cues from [9], we constructed a joint learning network using discrete subnetworks for each modality of data, with another network built on top, using the concatenated hidden states of the subnetworks to perform the regression task. Fig. 4 Diagram of Joint Learning Model The figure above shows a joint learning model using 3 subnetworks, one for each modality of data. The three subnetworks and the regressor network (depicted after the concat step) all use MLP-like networks with dropout. ## 4 Results The results presented in Table 2 are based on tests using the same test data, with the exception of the LightGBM experiment which was evaluated with $\mathrm{K}$-fold cross-evaluation. The ground truth values for CTR are in decimal form $(0.0 \sim 1.0)$, and the predicted values are normalized to the same scale before computing the error values. The results in Table 3 describe the percentages of test cases that could be classified under the following categories: - Overshoot - predicted value was greater than the ground truth value by more than 0.05 . - Undershoot - predicted value was less than the ground truth value by more than 0.05 . - Acc. (tol .05) - the absolute difference between the predicted and ground truth values was less than or equal to 0.05. This includes values categorized as VAcc. - VAcc. (tol .005) - the absolute difference between the predicted and ground truth values was less than or equal to 0.005 . Table 2. Primary results comparison & 0.7188 & 0.03543 & 0.05866 \\ Table 3. Secondary results comparison } & \multicolumn{2}{l}{} & \multicolumn{2}{l}{} & \\ MLP & $4.71 \%$ & $10.90 \%$ & $\mathbf{8 4 . 4 9 \%}$ & $23.23 \%$ \\ Fine-tuned & $12.31 \%$ & $8.79 \%$ & $78.90 \%$ & $15.95 \%$ \\ DistilBERT & & & & \\ Ensemble & $10.47 \%$ & $\mathbf{8 . 2 7 \%}$ & $81.26 \%$ & $15.14 \%$ \\ Joint Learning & $9.73 \%$ & $9.06 \%$ & $81.21 \%$ & $16.47 \%$ \\ ※Corresponding graphs included in the Appendix. ## 4.1 Discussion Our intention with the LightGBM experiment was to provide some baseline for the level of accuracy we can expect using our features. Though it performed well, the reduction of dimensions through categorical encoding of the permutations of the features leaves some doubt as to how it will behave with out-of-distribution patterns. Based on the coefficient of correlation, the ensemble model performs the best. However, if we consider the distribution of accurate predictions, it is edged out by the MLP approach. On a side note, we also tried an ensemble model where the DistilBERT submodel was finetuned with both metadata and TD strings - the very same model that performed best in our Fine-tuned DistilBERT experiments. However, it ended up bringing the performance of the ensemble model down significantly (corr. 0.6873, MAELoss 0.03935, RMSELoss: $0.06284)$. The apparent non-linear relationship between coefficient of correlation and loss values (also evidenced by differences in Table 3) may be attributed to the inherently lopsided distribution of our data. Almost 93\% of our test data had ground truth CTRs of less than or equal to $0.2(20 \%)$, and the models that tended to do well in this range tended to do less well with instances where the ground truth CTR was higher, leading to lower overall coefficients of correlation. ## 4.2 Further Research Note that the experiments as described above are the best results we achieved thus far for their respective paradigms. In particular, we feel that more experimentation can be performed with joint learning to achieve better results. Additionally, I also feel that there must be other network structures that are more befitting of the dense, continuous values of the DistilBERT-based (and other BERT-based) features. So far, I've implemented MLP-like networks to make comparison with the other paradigms relatively simple, but considering the fundamental differences in the kind of features involved, I feel that greater expressivity can be preserved through the use of alternative activation functions and node distributions. Additional work on different combinations of modalities in the ensemble and joint learning approaches may also lead to more optimal configurations. Comparative experiments using embeddings from n-gram, skip-gram and CBOW feature generators may also be useful in examining the power of our approach, although systems using such may be more computationally intensive due to the curse of dimensionality. Some insight may also be gained by comparing the computational costs and requirements of the different approaches, especially since we intend to deploy them in real-time applications where responsiveness is a strong requirement. Finally, we are preparing to see if the same approach can be transferred to other ad formats, especially considering that the ad format that our data was in is about to be sunsetted. ## 4.3 Conclusion In this paper we have shown that a sufficiently comprehensive set of simple handcrafted features can be used to parameterize text ads for the purpose of predicting click-through rates. Additionally, the handcrafted features are directly translatable into human-readable labels, providing greater transparency and explainability than when using generalized language models like DistilBERT. This explainability can be particularly useful in providing feedback for end-users who use our system to augment and accelerate their creative workflows. ## Acknowledgements I would like to thank my colleagues at Opt, Inc. for their feedback and support; especially to the members involved in a previous project that resulted in the creation of the tag schema I used as the basis of this entire endeavor. I would also to thank, specifically: - 田中宏明 Tanaka Hiroaki, my manager, for keeping me on track and general support. - 粟飯原俊介 Aihara Shunsuke, for providing guidance and insights throughout the entire project. - 岩田大地 Iwata Daichi, who helped me directly by performing EDA and implementing the LightGBM experiment. ## References 1. Automatic Generation of Title and Description Texts for Sponsored Search Ads. Baba Jun, Iwazaki Yuki, Itsuki Sugio, Kitade Kosuke, and Fukushima Takeshi. The 29th Annual Conference of the Japanese Society for Artificial Intelligence, 2015. 2. Data description of Criteo dataset. (Online) (Last accessed 2021-01-07). https://www.kaggle.com/c/criteo-display-ad-challeng e/data 3. Data description of Avazu dataset. (Online) (Last accessed 2021-01-07). https://www.kaggle.com/c/avazu-ctr-prediction/data. 4. Digital Marketing In A Cookie-Less Internet. Juneau Todd. (Online) (Last accessed 2022-01-07). https://www.forbes.com/sites/forbesagencycouncil/2 020/05/18/digital-marketing-in-a-cookie-less-internet $/$ ?sh $=\mathrm{d} 323 \mathrm{da} 721 \mathrm{e} 2 \mathrm{~d}$ 5. About expanded text ads. (Online) (Available as of 2021-12-16). https://support.google.com/google-ads/answer/70565 44 ? hl=en 6. DeepFM: A Factorization-Machine based Neural Network for CTR Prediction. Guo Huifeng, Tang Ruiming Tang, Ye Yunming, Li Zhenguo, He Xiuqiang. Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence, 2017, 1725-1731. 7. BANDAI NAMCO Research Inc. DistilBERT-base-jp on GitHub (Online) (Last accessed 2022-01-07). https://github.com/BandaiNamcoResearchInc/DistilB ERT-base-jp 8. - DistilBERT on HuggingFace. (Online) (Last accessed 2022-01-07). https://huggingface.co/docs/transformers/model_doc/ distilbert\#transformers.DistilBertForSequenceClassif ication 9. Click-Through Rate Prediction of Online Banners Featuring Multimodal Analysis. Xia Bohui, Seshime Hiroyuki, Wang Xueting, and Yamasaki Toshihiko. International Journal of Semantic Computing, 2020, Vol. 14 No. 1, 71-91. ## Appendix Plot of LightGBM model test Plot of MLP model test Plot of Fine-tuned DistilBERT model test, trained with TD texts only Plot of Fine-tuned DistilBERT model test, trained with metadata and TD texts Plot of Ensemble model test, using DistilBERTForSequenceClassification fine-tuned with TD texts only Plot of Ensemble model test, using DistilBERTForSequenceClassification fine-tuned with both metadata and TD texts. Plot of Joint Learning model test
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT4-7.pdf
# 事前学習モデルを用いた音声認識結果からの固有表現抽出 今藤誠一郎 ${ }^{1}$ 上田 直生也 ${ }^{1}$ 岡 照晃 ${ }^{1}$ 杉山 雅和 ${ }^{2}$ 邊土名 朝飛 ${ }^{2}$ 小町守 1 1 東京都立大学 2 株式会社 AI Shift \{kondo-seiichiro, ueda-naoya\}@ed.tmu.ac.jp, teruaki-oka@tmu.ac.jp \{sugiyama_masakazu, hentona_asahi\}@cyberagent.co.jp, komachi@tmu.ac.jp ## 概要 本研究では自動音声認識 (Automatic Speech Recognition; ASR)結果からの固有表現抽出(Named Entity Recognition; NER)に取り組む. 認識結果は音声認識誤りや, 略称や別称による未知の固有表現を含む. それらを頑健に汲み取る手段の一つとして, 事前学習モデルを使った文脈の考慮が挙げられる. 大量のテキストで学習された事前学習モデルの中には, 様々な文脈情報が獲得されていると期待できる. 本研究では, 事前学習済み BERT と T5を用い, 福井県の道路交通情報に関する対話システムの履歴に対し NER を行なった. 辞書マッチに基づく単純な手法より, BERT と T5 は高精度な抽出が可能であることを確認した. T5 は未知の固有表現1)についても抽出できる傾向が見られた。 ## 1 はじめに 音声対話システムはユーザーの発話を入力とし, それに自然言語で応答を返す. 本研究ではユーザー の質問や要求などに対して情報を提供するタスク指向対話に取り組む. タスク指向対話の実現には, 地名や人名などの固有表現を正確に認識する必要がある. 現在の音声対話システムはユーザーの発話を自動音声認識(ASR)でテキストに変換し, そのテキストを処理するのが一般的である. 固有表現の認識もこのテキスト処理の中で行われる. 現在我々が行っている固有表現の認識も, ASRテキストに対してタスクごとに作成した辞書に基づいてリンキングを行うことで実現している(図1を参照). 現状はシステム主導の対話が主であり, 発話内容の多くが 1)辞書に対象となる語は含まれているが略語や音声認識誤りが含まれていないという意味の未知の固有表現と,そもそも辞書に対象となる語が含まれていないという意味の未知の固有表現があるが, 本研究ではそれらを区別しない. 図 1 : 想定する音声対話システムのフローチャート 固有表現のみである場合が多いため, ASR テキストをそのままリンキングするのみで事足りる場合が多い. しかし今後の展望としてユーザー主導のシステムを想定する場合, ユーザーは自由な発話をするため, 固有表現の抽出が課題といえる. テキストにおける固有表現抽出(NER)に関してはこれまでさまざまな研究が行われてきた $[1,2,3,4]$. 辞書に基づいてマッチングをとる手法やルールベースに基づく手法 [1], 系列ラベリングタスクとして機械学習を用いる手法 $[2,3,4]$ などが提案されている.これらの先行研究では, 人手で書かれたテキストを対象としてきた.このようなテキストとは異なり, ASR テキストは音声認識誤りを含むことが想定される. したがって従来の手法, 特に辞書べー スやルールベースのもの以上に困難なタスク設定となっている. 本研究ではテキスト処理部の機能向上を目指し, ASR テキストに対する NER に取り組む. 音声認識結果を処理する場合, End2End で処理した方が良いという先行研究 [5] もあるが, ここでは, モジュールやリソースの柔軟な交換を可能にするため, ASR は既存のものを利用するという制約の下で行う. ASR テキストを扱うにあたって, 抽出の対象となる固有 表現自体に音声認識誤りが生じることも多いため,文脈に基づくNER を目指す. 文脈の情報を活用するのに, 大量の文を用いて学習されている事前学習モデルが有効ではないかという考えの下, 大規模事前学習モデルである BERTを用いて NER に取り組む. またノイズの多いテキストには系列ラベリングよりも Seq2Seqとして取り組んだ方が良いとの報告 [6] もあるため, エンコーダーデコーダーの事前学習モデルである T5を用いた実験も行う. ## 2 関連研究 ## 2.1 事前学習モデルを用いた NER 事前学習モデルを用いた NER はこれまでにも取り組まれている. 現在, 事前学習モデルとして広く利用されている BERT [7] を提案した Devlin らは, CoNLL-2003 の NER タスク [8] において, BERT が fine-tuning を行うことで当時の SoTA 手法と同等の性能を発揮できることを示した. また, Phan ら [9] は T5 [10] に医学文献を用いてドメイン適合を施し, NER を行なった。 ## 2.2 音声認識結果における NER Wang [11] らは ASR の予測候補上位 $\mathrm{N}$ 個の埋め达み表現を合成し, 事前に持っている辞書の各固有表現の埋め込み表現とのドット積を利用することで固有表現を獲得した. 本研究では ASR の予測候補のうち最上位のみを用いる設定で実験を行う. また辞書に基づいて NER を行う際には, 簡単のため埋め込み表現は用いず string match で行なった. 英語を対象にニューラルモデルを用いて音声認識結果から NERに取り組んだ研究がある. Arushi ら [12] は ASR による音声認識誤りを含むテキストから, 音声通話のための人名抽出タスクに取り組んだ. テキスト情報のみではなく音素情報や ASR から得られる候補の上位 $\mathrm{N}$ 個, 利用者の所属に関する情報を用いる手法を提案した. その結果, ノイズを多く含むようなテキストからの NER で recall を大きく改善できることを示した. Yadav ら [13] は音声をテキス卜に変換してから固有表現を抽出するのではなく, $\mathrm{RNN}$ モデルで音声スペクトルから直接固有表現を表すラベル付きテキストを End2End で出力する研究を行なった. その結果, より頑健に固有表現を抽出できるようになると主張している. 本研究では, ASR モデルのアーキテクチャーは変更できず, 予測結果 の最上位以外は利用できないという設定の下, ASR から得られた日本語文の NER にニューラルモデルを用いて取り組む。 日本語の音声認識結果における NER に関する研究は隠れマルコフモデルや SVM を用いたモデルで見られた. 長谷川ら [14] は音声認識結果から未知の NER に取り組んだ. 隠れマルコフモデルの学習において, 誤り語を特定のシンボルに置き換え, 固有表現クラス付きの bi-gram の学習および誤りを考慮したクラスの導入を提案した. 須藤ら [15] は ASR テキストでSVMを学習する際に, ある単語が正しく認識できているかを表す二値の素性を組み込むことで precisionを向上させられることを示した. 一方, 本研究では音声認識誤りを含むテキストから後続タスクに繋げるため, 固有表現を recall 重視で抽出することを目的としここれに事前学習モデルを利用する。 湯野川ら [16] はコールセンターにおいて ASR で書き起こされた日本語テキストにBERTを用いた系列ラベリングにより, 顧客入電意図の抽出を行なった. 本研究でも固有表現の抽出を目的に BERT で系列ラベリングを行うとともに, T5を用いた実験も行う. ## 3 手法 本研究では音声認識誤りを含む ASR テキストからの NER 評価用のデータとして道路交通情報に関するデータを用いる. それに伴い, 道路と住所に関する固有表現の抽出を行う. 前提条件として出力したいラベル(道路と住所)は指定できるものとする。 BERT を用いた抽出系列ラベリングタスクとして NER に取り組む. サブワード単位に分割されたテキストに, 固有表現の先頭に B, 内部・終端に I, 固有表現以外に O のラベルを付与する BIO モデルでラベリングを行う. 概略図を図 2 に示す. 道路情報に関するラベルは “ $\{B$ ,I $\}$-route”, 住所情報に関するラベルは“ $\{B , I\}$-address”として扱う.ラベルを指定するにあたり, 文頭に “route” または “address”トークンを付与し,ラベルとして“B-label”を与える. T5 を用いた抽出質問応答タスクとして NER に取り組む. 文頭に特殊タグを付与したテキストを入力文として与え, 特殊タグに対応する固有表現を出力する.このとき, 抽出された各固有表現の末尾にはラベルがハイフンで連結され, 付与されるような設定となっている. 概略図を図 3 に示す. 道路情報に関するラベルは “道路名”, 住所情報に関するラベルは 固有表現ラベル 図 2: BERT を用いた NER 図 3: T5を用いた NER “住所名”として扱う.ラベルを指定するにあたり,文頭に“道路名を抽出せよ:”または “住所名を抽出せよ:”という特殊タグを付与する. ## 4 実験 ## 4.1 データ 本研究では福井県の道路交通情報に関するシステム主導型の対話ログを用いNERを行なった. 対話ログは発話者が道路名や住所名を発話していると期待されるターンのものを用いた. 抽出したい固有表現の辞書が与えられており,この辞書には固有表現とそれに対する一部の別称や略称, 音声認識誤りが登録されている(図 1 中の固有表現辞書). 運用上,この辞書を用いて辞書マッチで NER が成功したデー タ(match)と,失敗したデータ(fallback)(表 1)の両方を NER の対象テキストとして扱った. match のデータは辞書マッチでラベル付けを行い2), fallback のデータに関しては, 人手アノテーションで住所と道路に関する固有表現にラベル付けを行なった3). match を, 低コストで入手できて基本的には辞書マッ 2)明らかに意味的に誤っているラベルに関しては人手でラベルを取り除いた。 3)このアノテーションでは音声認識誤りも考慮して行なった. また,辞書にエントリーされていない固有表現に対しても福井県に実在する場合には抽出対象として扱った. 表 1 に示すように抽出すべき固有表現がそもそもテキスト中に存在していない場合と, 音声認識誤りや辞書のエントリー不足のために抽出できなかった場合が混在している.表 1: match と fallback のデータ例 (下線部が固有名詞) \\ チで抽出できるデータ, fallbackを入手にコストがかかり基本的には辞書マッチで抽出できないデータとして扱う(4.4). fallbackにはアノテーションの際に福井県に実在するか否かの基準でアノテーションを行なったため, match とラベルがついている単語の基準に相違がある. 出力するラベルを指定するという設定に合わせて, 各文の先頭に提案手法ごとの前処理を施す. 利用したデータ数について Appendix の表 3 に示す. ## 4.2 実験設定 辞書に基づいた string match, 事前学習モデルである BERT, T5 による 3 通りの NER について比較を行う. BERT モデルは東北大の公開しているモデル4)を利用し, token-classification 形式の fine-tuning を行なった. パラメーターはバッチサイズを 8 , エポック数を 3 , 最大系列長を 258 と設定した. また, $\mathrm{T} 5$ モデルは Megagon Labs の公開しているモデル5) に fine-tuning を行なった. パラメーターは学習率を 0.0005 , バッチサイズを 8 , エポック数を 20 , 最大系列長を 128 と設定した.いずれも fine-tuning には, Huggingface の公開している Transformers $\left.{ }^{6}\right)$ のスクリプトを用いた. ## 4.3 評価方法 完全一致を真陽性とみなした precision, recall, F1 スコアを算出して評価を行う. また match と fallback のラベル付け基準には相違がある(4.1)ため, それぞれのテストセットを別々に評価する. match の評価は辞書マッチで抽出できる固有表現を抽出できるのか, fallback の評価は辞書に含まれない固有表現を抽出できるのかを示す指標とする. また本研究における NER は下流タスクで entity linking を行うことを想定している.このとき, 抽出した固有表現が本来よりも短い場合, 下流タスクに  表 2: string match, BERT, T5 による実験結果 (“c_”: 固有表現をリファレンスよりも長く予測した場合に真陽性としてスコア計算し直したときの結果) おいて linking が不可能になる可能性が考えられる.一方で, 本来よりも長く抽出した場合の entity linking における問題は軽微であると考える. 従って, 固有表現をカバーできている場合は真陽性とみなすが, カバーできていない部分一致は偽陽性とみなした評価も行う. 例えばリファレンスの“8号線”という固有表現にラベルが付与されていた場合, “国道 8 号線” の抽出は認めるが, “8 号” のみの抽出は認めない. ## 4.4 実験結果と考察 学習データに match と fallbackを両方用いた場合と matchのみを用いたときの, match と fallback それぞれのテストセットにおける実験結果を表 2 に示す. BERT と T5 それぞれの NER 結果の実例を Appendix に掲載する。 辞書マッチ match のデータに関してはデータ自体が辞書マッチで作成されているため recall が 100 となる. precision が 100 にならないのは match のデータを作成する際に明らかに間違ってラベルが付けられていたものを人手で取り除いたため(4.1)である. 一方で fallback のデータに関してはどの評価指標においても 50.0 以下であり, 固有表現を十分に抽出できていないといえる. 本研究ではこのようなデータに事前学習モデルを用いた NER がどの程度機能するのかを調査した。 BERT match のテストデータに関しては F1 スコアで 0.8 ポイント下回るものの, 辞書マッチで抽出できる固有表現は BERTでも同等に抽出できているといえる. c_F1 では 99.2 ポイントの精度であり, 後続タスクのための NER として望ましい結果である。 fallback のデータに関しては, 辞書マッチと比較して matchのみで学習した場合+20.2 ポイント, fallback も含めて学習した場合+43.3 ポイントであることが確認できる. 特に recall のスコアの向上が顕著に見られることから, BERT を用いることで辞書マッチでは抽出できなかった固有表現を抽出できていることがわかる. 学習データに match のデータの半分程度の fallback のデータを加えることで, より大きなスコアの向上が見られるが, これは match のデータに含まれない未知語に対しても学習が行われたためだと考えられる。 T5 T5に関しても BERT 同様の傾向がみられる. match のテストデータに関しては,BERT と同程度の性能を出せており, 辞書マッチと同等に抽出できている. fallback のデータに関しては, match のみで学習を行うと precision が低くなった. しかし学習データに fallback のデータを加えることで precision は改善され, BERT と比較しても F1 スコアで+4.6 ポイントであり,より意図通りに抽出することができた。 ## 5 おわりに 本研究では事前学習モデルである BERT と T5 を用いて, 音声認識結果に対する NER に取り組んだ.実験の結果, 辞書マッチで作成したデータに関しては事前学習モデルを用いても概ね良好に抽出できた. また学習データに人手アノテーションしたデー タを追加することで, 辞書に含まれていない固有表現に関しても抽出できることを確認した. 今後はより文脈を利用することで, 未知の固有表現を含むノイジーなテキストから頑健に固有表現を抽出するための fine-tuning の方法を含めた工夫、例えば固有表現をマスクしたデータを学習データに追加するというような検討を行なっていく。 ## 参考文献 [1] 竹元義美. 辞書およびパターンマッチルールの増強と品質強化に基づく日本語固有表現抽出. 情報処理学会論文誌, Vol. 42, No. 6, pp. 1580-1591, 2001. [2] John D. Lafferty, Andrew McCallum, and Fernando C. N. Pereira. Conditional random fields: Probabilistic models for segmenting and labeling sequence data. In Proceedings of the Eighteenth International Conference on Machine Learning, p. 282-289, 2001. [3] 内元清貴, 馬青, 村田真樹, 小作浩美, 内山将夫, 井佐原均. 最大エントロピーモデルと書き換え規則に基づく固有表現抽出. 自然言語処理, Vol. 7, No. 2, pp. 63-90, 2000. [4] 山田寛康, 工藤拓, 松本裕治. Support Vector Machine を用いた日本語固有表現抽出. 情報処理学会論文誌, Vol. 43, No. 1, pp. 44-53, 2002. [5] Motoi Omachi, Yuya Fujita, Shinji Watanabe, and Matthew Wiesner. End-to-end ASR to jointly predict transcriptions and linguistic annotations. In Proceedings of the 2021 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1861-1871, 2021. [6] Stefan Constantin, Jan Niehues, and Alex Waibel. Incremental processing of noisy user utterances in the spoken language understanding task. In Proceedings of the 5th Workshop on Noisy User-generated Text (W-NUT 2019), pp. 265-274, 2019. [7] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. [8] Erik F. Tjong Kim Sang and Fien De Meulder. Introduction to the CoNLL-2003 shared task: Language-independent named entity recognition. In Proceedings of the Seventh Conference on Natural Language Learning at HLTNAACL 2003, pp. 142-147, 2003. [9] Long N. Phan, James T. Anibal, Hieu Tran, Shaurya Chanana, Erol Bahadroglu, Alec Peltekian, and Grégoire Altan-Bonnet. SciFive: a text-to-text transformer model for biomedical literature. CoRR, Vol. abs/2106.03598, , 2021. [10] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. Journal of Machine Learning Research, Vol. 21, No. 140, pp. 1-67, 2020. [11] Haoyu Wang, John Chen, Majid Laali, Kevin Durda, Jeff King, William Campbell, and Yang Liu. Leveraging ASR $\mathrm{N}$-Best in Deep Entity Retrieval. In Proceedings of the Interspeech 2021, pp. 261-265, 2021. [12] Arushi Raghuvanshi, Vijay Ramakrishnan, Varsha Embar, Lucien Carroll, and Karthik Raghunathan. Entity resolution for noisy ASR transcripts. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLPIJCNLP): System Demonstrations, pp. 61-66, 2019. [13] Hemant Yadav, Sreyan Ghosh, Yi Yu, and Rajiv Ratn Shah. End-to-end named entity recognition from English speech. In Proceedings of the Interspeech 2020, pp. 4268-4272, 2020. [14]長谷川隆明, 林良彦. 隠れマルコフモデルに基づく音声認識結果からの固有表現抽出. 言語処理学会第 9 回年次大会, pp. 533-536, 2003. [15] Katsuhito Sudoh, Hajime Tsukada, and Hideki Isozaki. Incorporating speech recognition confidence into discriminative named entity recognition of speech data. In Proceedings of the 21 st International Conference on Computational Linguistics and 44th Annual Meeting of the Association for Computational Linguistics, 2006. [16] 湯野川八雲, 久保優騎. BERT によるコールセンタログからの顧客入電意図抽出. 第 92 巻, p. 04, 2021. ## A データセット 表 3: 実験に利用したデータ情報 (発話数と各ラベルが付与された単語数) ## B 出力例 表 4: match のデータにおける NER 失敗例 T5 で抽出に成功して BERT で失敗した例, BERT で抽出に成功して T5 で失敗した例, 両方で失敗した例を, match と fallback それぞれのデータセットについて表 4 および表 5 に示す. match のテストデータは辞書マッチに基づいて作成されているため, リファレンスには吉田郡や田尻町が含まれていないが,これらは実際には福井県に存在する地名であり, 実際には抽出した方が良い例となっている. “イチゴった一”は “158 号線”のことを“いちごっぱ” と発話することがあり,それを認識誤りしたものと考えられる.このような例は BERT も T5 も抽出が難しいことが確認できる. fallback に示す “青年の道” は学習データには含まれていないが, 実際に福井県に存在する道路名である. T5 が抽出できたのは, 末尾についている “道”という単語から道路名であると予測したためと考えられる. T5 のみがこのような文脈から予測をできた理由として, モデル構造の違いと事前学習時のデータ量の違いが考えられるが,この要因の特定は今後の研究課題である. BERT と T5 の両方が“高みの(方の)”を住所を表す固有表現として抽出しているが, 方向を表すような表現から文脈的にこれらのモデルが固有表現を抽出しょうとしたことが推測される。
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT4-8.pdf
# 段落構造を利用した BERT に基づく事前学習 湯浅 亮也 谷和樹 田村晃裕 加藤恒夫 同志社大学 理工学部 } \{cguc0095@mail4, cguc1070@mail4, aktamura@mail, tsukato@mail\}.doshisha.ac.jp ## 概要 本研究では,文書の段落構造を利用した BERT に基づく事前学習手法を提案する. 従来の BERT ベー スの事前学習手法では,通常,文単位の連続性を学習する。また,文書における各文の位置づけは考慮しない。一方,Wikipedia 文書などの文書では,文は段落単位でまとめられ,各段落は見出しによって整理されている。そこで本研究では,段落単位のまとまりとつながり及び見出し情報を考慮した事前学習手法を提案する. livedoorニュースコーパスを用いた文書分類タスクで評価した結果,従来の BERT と比較して,統計的に有意な性能改善( $\mathrm{F}$ 值のマクロ平均が $+0.77(\%) )$ を確認した。 ## 1 はじめに 近年,NLP の分野では,大規模コーパスから単語や文などのテキストの汎用的な分散表現を事前に学習する事前学習手法が数多く提案されている. 特に,BERT をべースとした事前学習手法を活用することで,様々な NLP タスクにおいて最高精度が更新されている. 従来の BERT ベースの事前学習では,通常,文単位でトークンのまとまりを捉え,文間の接続関係や文脈を考慮した単語や文の分散表現を事前学習する $[1,3,4,8]$. 一方,Wikipedia 文書を筆頭に,事前学習で使われる文書の中には,文が段落単位でまとめられ,各段落が見出しによって整理されている文書が多い. Wikipedia の記事「機械学習」の概略を図 1 に示す. 図 1 の文書では,記事の内容が「 1 概要」 や「1.1 定義」といった見出しで整理されており,各内容は「段落 $\mathrm{A}\lrcorner$ や「段落 $\mathrm{B}\lrcorner$ のような段落単位のまとまりで記述されている。しかし,従来の BERT ベースの事前学習ではこのような段落単位の情報や見出し情報を活用できない. そこで本研究では,段落単位のまとまりとつながり及び見出し情報を考慮する,文書の段落構造に基 1 概要 1.1 定義 【段落 A】 【段落 B】 1.2 変数の種類 2 教師あり学習 2.1 概要 2.1.1 訓練フェーズと汎化フェーズ 【段落 C】 図 1 Wikipedia 文書の例(機械学習) づく BERT による事前学習手法を提案する。具体的には,BERTへの入力を段落単位にし,2つの段落が連続するかを判定する事前学習を行うことで,段落単位のまとまりとつながりを反映した分散表現を学習する.また,段落が見出しに属するかを判定する事前学習を行うことで,各段落の見出しを反映した分散表現を学習する.段落同士の連続判定及び段落の見出しへの所属判定は,Sentence-BERT[5] の Classification Objective Function を用いて分類問題を解くことで実現する. livedoor ニュースコーパスを用いた文書分類夕スクで提案の事前学習手法を評価した結果,従来の BERT を用いた場合よりも $\mathrm{F}$ 値のマクロ平均が $0.77 \%$ \%) 高くなり,統計的に有意な性能改善を確認した. ## 2 従来手法 ## 2.1 BERT BERT[1] は Transformer Encoder[6] に基づくモデルであり,様々な NLP タスクにファインチューニング可能で汎用的な分散表現を獲得するための事前学習モデルである。大量のラベルなしテキストから事前学習された分散表現を用いて,目的のタスクに 図 2 Sentence-BERT (Classification Objective Function) モデルの概要図 ファインチューニングすることにより,学習時間の短縮や目的タスクの教師データが少量であっても高精度を達成することが可能である. 事前学習では,ラベルなしテキストデータを用い $\tau$, Next Sentence Prediction (NSP) と Masked Language Model(MLM)の 2 つの教師なし学習を行う. NSP では,同時に 2 つの文を入力し,入力された 2 文が連続するか否かの分類問題を解くことで,文の接続関係を考慮した分散表現を得る.MLMでは,入力トークンをランダムにマスクし,マスク前のトークンを推定する問題を解くことで,文脈を考慮した分散表現を学習する。これらの事前学習では,入力の先頭に [CLS]トークン,各文の最後に [SEP] トークンを付与し,[MASK] トークンを用いてマスクした入力系列を使用する (例:[CLS] the man went to [MASK] store [SEP] he bought a gallon [MASK] milk [SEP] ). NSP では [CLS] トークンの分散表現に基づき 2 值分類を行う。 この事前学習では,Wikipedia や BookCorpus [9] の文書を学習データとして用いている。これらの文書は,本来,段落単位でまとめられ,各段落が見出しによって整理されている. しかし, 従来の事前学習では,見出し情報は陽に利用しておらず,また,文より大きい単位(段落など)のまとまりやつながりを捉えることが困難である。 ## 2.2 Sentence-BERT Sentence-BERT [5] は事前学習済み BERTを Siamese Network で用いてファインチューニングすることで,文の埋め込み表現を獲得する手法である. 事前学習済み BERT モデルの出力側に文の分散表現を取り出すための pooling 層を加えたモデルを Siamese Network 内の共有モデルとして使う.先行研究では pooling 層の演算として,CLS,MEAN,MAXの 3 種類が提案されている. CLS は [CLS] トークンの分散表現,MEAN は全トークンの分散表現の平均ベクトル,MAX は全トークンの分散表現に対して各特徵量の最大のものを取る max-over-time 演算を行ったべクトルを文の分散表現とする。この Siamese Network モデルを文間の類似性に基づき学習する.使用する学習データに応じて, 分類問題, 回帰問題, Triplet Loss で学習する方法が提案されている. 後述の提案手法では, Classification Objective Functionを用いた分類問題で学習する Sentence-BERT を利用する。モデルの概要を図 2 に示す.この Sentence-BERT は, 2 文 A, B を BERT に個別に入力し, pooling 層で各文の分散表現を取り出す。その後, 求めた 2 つの分散表現と要素ごとの差の絶対值ベクトルを結合し,結合したべクトルに基づき softmax classifier で 2つの入力文が連続するか否かの 2 値分類を行う(式 (1)). $ \operatorname{softmax}\left(W_{t}(\mathbf{u}, \mathbf{v},|\mathbf{u}-\mathbf{v}|)\right) $ ここで $\mathbf{u}$ と $\mathbf{v}$ ,それぞれ,文 $\mathrm{A} と \mathrm{~B}$ の分散表現であり,$W_{t}$ は学習される重み行列である. ## 2.3 その他の事前学習手法 BERT の派生モデルとして, XLNet [8] や RoBERTa [4], ALBERT [3] などの多くの事前学習モデルが提案されている. XLNet の事前学習では,NSPを廃止し,[MASK] トークンは使用せずにトークンの予測順序を入れ替える permutation language modeling を学習している. RoBERTa $の$ 事前学習でも NSP が廃止されている。また, ALBERT の事前学習では,NSP の代わりに,文章の順序を予測する sentence-order prediction を行っている. これらの従来モデルにおいても,段落単位での連続性は学習されておらず,また,見出し情報が活用されていない. 図 3 段落構造を利用した事前学習モデルの概要図 ## 3 段落構造を利用した事前学習 本節では文書の段落構造を利用した BERT による事前学習手法を提案する. 事前学習で用いる文書の多くは,文が段落単位でまとめられ,各段落が見出しによって整理されている. そこで提案手法では,段落単位のまとまりとつながり及び見出し情報を反映した分散表現を事前学習する.具体的には, BERTへの入力を段落単位にし, 2 つの段落が連続するか否かを推定する連続判定と, 段落が見出しに所属するか否かを推定する所属判定を行う. 提案手法の概要を図 3 に示す. モデル構造は 2.2 節で説明した Classification Objective Function を用いた Sentence-BERTを利用する. 図 3 の全ての BERT の重みは共有されており,pooling 層は MEANを用いる. そして, 段落同士の連続判定及び段落の見出しへの所属判定は Classification Objective Function を用いて 2 値分類問題として解く. 段落同士の連続判定は, 図 3 の中央の softmax classifier で行う. 2 つの段落 A と B に対して,BERT と pooling 層で各段落の分散表現を抽出する. その後, 式 (1)を用いて,段落 A の次に段落 B が繋がるか否かの 2 值分類を行う. 式 (1)における $\mathbf{u}$ と $\mathbf{v}$ は, それぞれ,前方段落(段落 A)と後方段落(段落 B) の分散表現となる. この事前学習では, 本来の文書内で連続する 2 つの段落の後方段落を,50\%の確率で,異なる文書から無作為に取り出した段落に置き換えたデータを学習データとする。 段落同士の連続性を 2.1 節で説明した BERT の NSP ではなくSentence-BERT の構造で学習した理由は,各段落を個別に BERT の入力にすることで, [CLS]トークンを段落同士の接続関係を表すべクトルではなく,各段落の分散表現として事前学習するためである. 段落の見出しへの所属判定は, 図 3 の左右の softmax classifier で行う. 2 つの段落 A,B と 2 つの見出し A,B に対して,BERT と pooling 層で分散表現を抽出する。その後,式 (1)を用いて,段落 A が見出し A に,段落 B が見出し B に所属するか否かをそれぞれ 2 值分類する。式 (1)における $\mathbf{u} と \mathbf{v}$ は, 分散表現となる。この事前学習では, 本来の文書内に存在する見出しと段落の対に対して,見出しを, $50 \%$ の確率で,異なる文書にある異なる見出しに置き換えたデータを学習データとする。 ここで,Wikipedia 文書の見出しは予め決められておらず,文書作成者が任意の名前を付けられることに注意されたい,任意の見出しが出現する可能性があるため,提案手法では,予めクラスを仮定した多クラス分類ではなく,段落が見出しに属するか否かの 2 クラス分類で見出し情報を取り込む. ## 4 実験 従来の BERT モデルと提案手法により事前学習された BERT モデルを,それぞれ, livedoorニュー スコーパス1)を用いた文書分類タスクでファインチューニングし,その文書分類性能を比較することにより,提案の事前学習手法の有効性を検証する。 ## 4.1 実験設定 事前学習本実験では,段落間の連続判定と段落の見出しへの所属判定の両方を導入した提案の事前学習モデルに加えて,段落間の連続性判定のみ導入した事前学習モデル,段落の見出しへの所属判定のみを導入した事前学習モデル,従来の BERT モデルを事前学習モデルとして用いた場合の性能を評価する。 従来の BERT モデルは, 東北大学 BERT の bertbase-japanese-whole-word-masking ${ }^{2}$ を使用した. その他の提案手法の事前学習モデルは,従来の BERT モデルを初期値として,Wikipedia $の$ jawiki-latestpages-articles.xml.bz2 ${ }^{3)}$ を用いて 3 節で提案した方法で学習した. 見出しへの所属判定で用いる見出し 1) https://www.rondhuit.com/download.html\#ldcc 2) https://huggingface.co/cl-tohoku 3) https://dumps.wikimedia.org/jawiki/latest/ 表 1 livedoorニュースコーパス は,段落が属する最上位の見出しを用いた。例えば,図 1 においては,段落 A と段落 B の見出しは 「概要」, 段落 C の見出しは「教師あり学習」とした. sentence-transformers ${ }^{4}$ のライブラリを用いて実装し, BERTへの最大入力長は 512 とした. その他のパラメータは, Sentence-BERT[5] の実験設定に倣い, エポック数を 1 , 学習率を $2 \mathrm{e}-5$ とし, 最適化手法には Adam [2] を用いて, 学習データ全体の $10 \%$ に対して warm-upを行った. ファインチューニング本実験の評価は, livedoor ニュースから収集されたニュースコーパスを用いた多クラス文書分類で行う.このデータセットは 7,367 件の記事で構成されている. 従来研究 [10] に倣い,各記事の収集元である記事サイトをクラスとする. クラス数は 9 である. 表 1 に各クラスの記事数を示す. また,各記事はURL,日付,タイトル,本文で構成されているが,本研究では,タイトルと本文を結合したテキストからクラスを分類する。 文書分類モデルは,事前学習した BERT の出力側に, [CLS]トークンの分散表現に基づき softmax classifier でクラスを決める出力層を加えたモデルである. この文書分類モデルを,多クラス文書分類タスクでファインチューニングする。 なお,提案手法の事前学習モデルにおいては, Sentence-BERT の構成要素のうち, 事前学習した BERT 部分を使う. simple-transformers ${ }^{5}$ のライブラリを用いて実装した. 最大入力長さは 256 とし, エポック数, 学習率,バッチサイズは,それぞれ,100,2e-5,32とした.その他のパラメータは, simple-transformers ライブラリのデフォルトの値を用いた. 4) https://github.com/UKPLab/sentence-transformers 5) https://github.com/ThilinaRajapakse/simpletransformers表 2 実験結果 ## 4.2 実験結果 評価は 5 分割交差検証で行った. 交差検証では, 1 fold をテストデータとし, 残りの 4 fold の内, $80 \%$ を学習データ,20\%を開発データとした。評価指標には $\mathrm{F}$ 值のマクロ平均を用いた。 表 2 に実験結果を示す. 表 2 より, 従来の BERT モデルと比較して,提案の 3 つの事前学習モデルは,いずれも高い分類性能を達成できることが確認できた. また,3つの提案のモデルの中で,段落同士の連続判定と見出しへの所属判定の両方を導入したモデルが最も高い性能を達成した. 最高性能を達成した提案モデルと従来の BERT モデルを用いた場合の文書分類結果の差に対して符号検定を行った結果,有意水準 $1 \%$ で有意であった. このことから,段落同士の連続性や見出し情報を考慮して分散表現を事前学習することは,文書分類タスクで有効であることが確認できた. また,段落の連続性の情報と見出し情報のそれぞれを考慮するよりも,両方を考慮した方が結果が良いことから, 段落同士のまとまりと見出し情報の両方が,文書の特徴を求める際の重要な手がかりになることが実験的に確認できた。 ## 5 おわりに 本研究では,事前学習に用いる文書は段落でまとめられており,各段落は見出しによって整理されていることに着目し, これら 2 つの特徴を利用した BERT に基づく事前学習手法を提案した. 提案手法では, BERTに段落単位で大力し, 2 つの段落の連続判定と段落の見出しへの所属判定による事前学習を行うことで,段落情報をテキストの分散表現の事前学習に取り入れた. 提案の事前学習手法を, livedoor ニュースコーパスを用いた文書分類タスクで評価した結果, 従来の BERT と比較して, 統計的に有意に高い性能が実現できることを確認した。 今後は,NLPのベンチマーク評価である GLEU [7] など,文書分類タスク以外で,提案の事前学習モデルの有効性を確認したい。 ## 謝辞 本研究の一部はトランスコスモス株式会社との共同研究により得られたものである. 本研究を支援してくださった,トランスコスモス株式会社の伊藤和真氏,及川秀俊氏,濱田充男氏,大林弘明氏に感謝申し上げます。また,本研究を進めるにあたり貴重な助言をしてくださった,愛媛大学の二宮崇先生,梶原智之先生,秋山和輝氏に感謝を申し上げます. ## 参考文献 [1] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [2] Diederik P Kingma and Jimmy Ba. Adam: A method for stochastic optimization. arXiv preprint arXiv:1412.6980, 2014. [3] Zhenzhong Lan, Mingda Chen, Sebastian Goodman, Kevin Gimpel, Piyush Sharma, and Radu Soricut. Albert: A lite bert for self-supervised learning of language representations. arXiv preprint arXiv:1909.11942, 2019. [4] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [5] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3982-3992, Hong Kong, China, November 2019. Association for Computational Linguistics. [6] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in Neural Information Processing Systems 30, pp. 5998-6008. 2017. [7] Alex Wang, Amanpreet Singh, Julian Michael, Felix Hill, Omer Levy, and Samuel Bowman. Glue: A multi-task benchmark and analysis platform for natural language understanding. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 353-355, 2018. [8] Zhilin Yang, Zihang Dai, Yiming Yang, Jaime Carbonell, Russ R Salakhutdinov, and Quoc V Le. Xlnet: Generalized autoregressive pretraining for language understanding. Advances in neural information processing systems, Vol. 32, , 2019. [9] Yukun Zhu, Ryan Kiros, Rich Zemel, Ruslan Salakhutdinov, Raquel Urtasun, Antonio Torralba, and Sanja Fidler. Aligning books and movies: Towards story-like visual explanations by watching movies and reading books. In Proceedings of the IEEE international conference on computer vision, pp. 19-27, 2015. [10] 菊田尚樹, 新納浩幸. Bertを用いた文書分類タスクへの mix-up 手法の適用. 第 27 回言語処理学会年次大会, pp. 599-602, 2021.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
PT4-9.pdf
# 自発的な独話における可読性向上のための 言い直し表現を検出・修正するシステム 島森瑛貴 1 阪本浩太郎 2 渋木英潔 2 森辰則 1 1 横浜国立大学大学院 ${ }^{2}$ 株式会社 BESNA 研究所 simamori-eiki-vj@ynu.jp sakamoto@besna.institute shib@besna.institute tmori@ynu.ac.jp ## 概要 本稿では日本語の自発的な独話における言い直し現象の分析を元に、言い直しの検出と修正を行うシステムを構成した。はじめに分析に準拠したべー スラインシステムを作成し、その評価を行った。実験の結果、適合率は 0.046 、再現率は 0.300、F1 值は 0.080 であった。考察の結果、言い直しの範囲推定の方針と名詞連接の判定が不十分であったことが明らかとなった。これらの課題を改善し再び評価を行った。実験の結果、クローズドテストでの適合率 テストでの適合率は 0.235 、再現率は $0.400 、 \mathrm{~F} 1$ 値は 0.296、と大幅に改善した。 ## 1 はじめに 新型コロナウイルスの感染に伴い現在は生活の様々な場面でオンライン化が進んでいる。そのような現代では人の発話を書き起こしテキストとして読む場面が増えた。話し言葉の書き起こしは、編集されていない状態では「言い直し表現」が頻出する。言い直し表現は書き言葉には出現しないため可読性を下げる要因となりうる。我々はそれらの現象を適切に検出・修正するシステムを開発し、可読性の向上に貢献することを目標としている。 本稿では日本語の自発的な独話に出現する言い直しを検出・修正するシステムを提案し評価を行う。 ## 2 関連研究 話し言葉の言い直しを扱う代表的なモデルとして RIM(Repair Interval Model)[1] が存在する。RIM は言い直し部を被修復部、言い淀み区間、修復部の 3 つの部分に分割し, これらがこの順に出現することで一つの言い直しを行っていると仮定している。丸山ら [2] は RIM に基づき『日本語話し言葉コー パス』[3](Corpus of Spontaneous Japanese 以下,CSJ とする)に出現する言い直し表現について言語学的な観点から分類した。この分類は処理の対象が形態素未満、形態素以上単語未満、一文節、二文節以上など様々であるため機械的な処理にそのままこの基準を用いることは難しい。そのため工学的な観点から、処理の方法と対応する分類を行う必要がある。 話し言葉における言い直しを検出する先行研究は [4][5] ど゙がある。下岡らの手法 [4] は高梨ら [6] で定義された言い直しのタグを正解として言い直しの検出を行っている。また推定された箇所について、係り受け情報を用いて削除する範囲の同定について検討している。しかし、形態素の繰り返し情報などを素性としたSVMを用いて任意の文節が言い直しであるかを判定しており、言い直しを捉える特定のモデルを作成していない。また、高梨ら [6] は「同一の内容を指し示している対等な文節」をのみを言い直しと定義して CSJにアノテーションしており、我々の扱いたい問題が含まれていない。 藤井らの手法 [5] は言い直し部を分割したモデルを作成し、言い直しの検出・修正を行っている。しかし、そのモデルはフィラーや言い淀みの存在を仮定しており、それらが存在しない言い直し表現については検出ができない。 以上から日本語の自発的な発話に出現する言い直し全般について分析し、検出・修正するような研究はこれまで行われていない。そこで我々は島森ら [7] で言い直しを再定義し、機械的に扱える単位に対して分析を行った。 島森ら [7] では「言い直し」を「同一の対象に複数回参照する表現のうち、同一の面を参照しているもの」であると定義した。また、言い直し表現の組のうち、最後に言い終えている箇所を「言い直し 先」と、それ以外の箇所を「言い直し元」と定義した。この 1 つ以上の言い直し元と 1 つの言い直し先から 1 つの言い直し組を構成する。本稿でもこの用語を使用する。さらに、この言い直しの定義に基づいて、日本語話し言葉コーパス CSJ[3] を用いて以下の 3 つの仮説を検証し、1つの調査が行われている。仮説 1. 言い直し先は言い直し元よりも後に発話されていることから重要であり残すべき仮説 2. 言い直し元は言い直し先の自立語を含む仮説 3. 削除の対象となる箇所は一文節以下調査 1 . 言い直し表現組の間に入る最長の文節数 ## 3 システムの構成 本稿では島森ら [7] の分析に基づき日本語話し言葉中に出現する言い直しを検出・修正するシステムを提案する。本研究における言い直しの検出・修正とは、話し言葉の書き起こし中に出現する言い直し表現の組を検出し、適切に削除することを指す。検出・修正の方針をそれぞれ以下に示す。 ## 3.1 検出の方針 仮説 2 の検証結果によれば、言い直し元と言い直し先は共通の自立語を持つことが多いことが明らかとなった。そこで、ある自立語 $\mathrm{A}$ を含む文節 $\mathrm{S}$ において、同様の自立語 $\mathrm{A}$ を持つ文節 $\mathrm{T}$ が検索範囲内に存在すれば $(\mathrm{S}, \mathrm{T})$ の組を言い直し組とする。調査 1 の結果によれば言い直し組は 15 文節以上離れないため、検索範囲を 15 文節とする。 ## 3.2 修正の方針 言い直しとして検出した組は、言い直し元か言い直し先のいずれか、もしくはその両方を削除することで修正する。仮説 1 の検証結果によれば基本的には言い直し元を削除することで修正ができると明らかになったため、それを修正の基本方針とする。 しかし仮説 3 から 2 文節以上を削除することもあると判明した。従って、修正にあたっては削除範囲 (多くの場合では言い直し元の範囲) を正確に推定することが必要である。そこで言い直し組 $(\mathbf{S}, \mathbf{T})$ の候補において、言い直し元とされた文節 $S$ を起点として、実際の言い直し元の範囲を推定する。すなわち、係り受け木の部分木のうち、i) 文節 $S$ を含み、 かつ、ii) 言い直し先とされた文節 $\mathrm{T}$ 以降の文節に係るものを言い直し元とするという方針で修正できるという仮説を立てて検証する。「隣の方には住宅街 の隣にはデパートを作らないので」という例を用いてこの方針について説明する。 係り受け解析器 CaboCha を用いてこの文を係り受け解析すると以下の結果が得られる。 隣の この例では「隣の方には」が言い直し元、「住宅街の隣には」が言い直し先とすることが正解であり、「住宅街の隣にはデパートを作らないので」と修正されるべきである。上記の方針を適用すると、「隣の」が $\mathrm{S} 、 「$ 隣には」が $\mathrm{T}$ となる。 $\mathrm{S}$ を含む係り受けの部分木のうち、 $\mathrm{T}$ 以降の文節に係るものは「隣の方には」となる。よって、これが範囲の推定を行った後の言い直し元となるので、これを削除すると正しく修正できる。なお、この例では「住宅街の隣の方にはデパートを作らないので」のように、言い直し組の文節を融合して修正することもできるが本研究ではそのような修正は行わない。 ## 4 言い直し元の範囲を推定する仮説 についての検討 システム全体の評価前に上記仮説を検証する。 ## 4.1 対象・結果 日本語話し言葉コーパス [3] のコア講演 177 講演に出現した言い直し組全 1453 件を分類したコーパス (島森ら [7] で作成)を用いる。その中の言い直し元または言い直し先が 2 文節以上である 617 件を目視で調査した。分析の結果、仮説に基づいて推定できたものが 303 件、推定できなかったものが 314 件だと明らかになった。 ## 4.2 考察 仮説の方針に従って正しく範囲を推定できなかったものの内訳は以下のとおりである。 (1)名詞が連続する 180 件 (2)範囲推定後の言い直し元の範囲以前から言い直し元が始まる 23 件 (3)編集表現を持つ 97 件 (4)言い直し先の文節に係る 14 件 上記 (1) に当てはまる文を以下に示す。 スペクトル女性の音声スペクトルがこのようなものであった これは、既存の係り受け解析器が名詞を言いかけた言い直しを正しく解析できていないことに起因する。この文を CaboCha で解析した例を以下に示す。 この例では「スペクトル女性の」が一文節だと判断され、「スペクトル」だけ削除されるべきところ 「スペクトル女性の」が削除される。そこで、これらを異なる文節として扱う必要がある。次の 5 章で評価するシステムでは対象とせず、 5 章の考察で明らかとなった他の問題と共に 6 章で係り受け構造を変換する前処理を行い、7 章で評価する。 上記 (2)に当てはまる文を以下に示す。 ## たまに見るいつも見る犬がいる この例では「たまに見る」が削除され「いつも見る犬がいる」と修正されるべきである。しかし言い直し元として検出されるのは初めに出現する「見る」であり、言い直し元以前の文節は推定範囲外であるため「たまに」が削除されない。仮にこの例文が「私が見るいつも見る犬がいる」だとすると、初めの「見る」だけを削除するのが正しい。このように、言い直し元より前の文節が言い直しに含まれるかを判断するタスクは、係り受けの情報だけでなく文の意味を理解する必要があるため非常に難しい。 そのため、本稿ではこの例は扱わない。 上記 (3) に当てはまる文を以下に示す。 愛していますと言うか好きな この例では編集表現「と言うか」を持つ「愛していますと言うか」を削除し「好きな」と修正するべきである。この編集表現は言い直し先の文節「好きな」に係るため仮説は成り立たない。しかし以前の調査から編集表現を含む文節はその文節を削除すると修正できることが明らかとなったため、編集表現を持つ文節があるときはその文節を削除するという規則をシステムに追加する。上記 (4) に当てはまる文を以下に示す。 解説の意味の解説者の解説の意味の この例では初めの「解説の意味の」を削除し「解説者の解説の意味の」と修正するべきである。しかし、言い直し元から係る一連の文節「解説の意味の」が、言い直し先である「解説の意味の」に係るため仮説が成り立たない。このように言い直し元の文節が言い直し先に係るようなときは他の規則を用 いて範囲を推定する必要がある。これは今後の課題とし、本稿では扱わない。 ## 5 システムの評価 4 章で検証した範囲推定の方針をシステムに利用し、 3 章で提案したシステムを評価する。 ## 5.1 対象・結果 分析の対象には CSJ のコア講演 177 講演を用いる。CSJによって文末タグが付与されている箇所で文単位に分割した。得られた文数は 9261 件、言い直し組は 1705 件であった。上記の分析と同じ講演情報を使用したが言い直し組の数が増加している。 これはデータを分析し直したときに、コーパス作成時に見落としていたものを追加したためで、言い直しの定義は変化していない。 システムの評価は、システムが削除すると判断した個所に IOB2 形式のラベルを文字単位で振り、削除単位ごとに一致しているかを調べ適合率、再現率、 $\mathrm{F} 1$ 值を求めた。評価の結果によると、適合率は 0.046、再現率は $0.300 、 F 1$ 值は 0.080 であった。 ## 5.2 考察 本システムを評価した結果によると適合率が非常に低いことが明らかとなった。適合率低下の大きな要因には不適切な検索範囲と名詞連接の 2 つがあった。以下にそれぞれ修正を誤った例を示し考察する。例では、システムが削除した個所をく〉で囲う。 ## 5.2.1 不適切な検索範囲 誤検出が増えた原因として言い直し候補の検索範囲に文節数を利用したことが挙げられる。 取り敢えず失業保険もくありますし>七か月ぐらいは<収入が>あるんでねしばらくは親の収入に頼らなくても大丈夫です。 上記の例には本来言い直しと判断されるべきものはない。しかし、「ある」と「収入」といった自立語が共通している文節が言い直しとして判断されている。削除された文節はそれぞれ「失業保険もある」「収入がある」「収入に頼る」と異なる節を構成しているため、言い直しでないと人が判断することは容易である。そこでシステムが同様の構造を理解することで誤検出を減らせると考えた。そこで 6 章で、検索範囲として節境界を利用することを提案する。 ## 5.2.2 名詞連接 名詞連接とは名詞が続くことを指す。言い直しが発生すると、上述した「スペクトル女性の」のように意図しない名詞連接が生じ、正しく構文解析が行われないことが多い。また以下のように、複合語として扱いたいものとの区別も難しい。 <被験者情報は>被験者から個別で聴取した 上記の例には本来言い直しと判断されるべきものはない。しかし「被験者情報は」と「被験者から」 が言い直しとして判断されている。「被験者情報」 を複合語と判断できれば誤検出の減少を期待できる。そこで 6 章では、名詞連接が、言い直しによる意図しないものか、複合語かを正しく判断し、言い直しであれば正しい係り受け構造に変更する前処理について検討する。 ## 6 システムの改善 5 章の考察をもとに提案システムを改善する。 ## 6.1 節境界の利用 同一節内のみを対象とするように言い直し組の検索範囲を変更する。節境界の推定には日本語節境界推定プログラム CBAP[8]を利用する。 ## 6.2 係り受け構造の修正を行う前処理 名詞連接を正しく扱うために、システムが言い直しを検出・修正する前に係り受け構造を変更するような前処理を行う。文中に出現する名詞連接は、複合名詞の場合と、「スペクトル女性」のように名詞のみの言い直しの後に名詞から始まる文節が続く場合がある。本研究では後者を積極的に言い直しとして認識したい。そこで、あらかじめ複合名詞の候補を見つけ言い直しの対象から外し、それ以外の名詞連接について言い直しの可能性を確認する。具体的には名詞連接のうち、同一講演で複数登場するものは、複合名詞として不可分な一つの名詞として扱う。その後、複合名詞でない名詞連接の係り受けを変更する。具体的には名詞 A(A1) と名詞 B の連接があり、 $\mathrm{AB}$ と同一節内で $\mathrm{A}$ を持つ他の文節 (A2) が存在したとき、A1 の係り先を A2 の係り先に合わせる。上記の「スペクトル女性の音声スペクトルがこのようなものであった」の例では「スペクトル (A1) 女性 (B)」という連接に対して「音声スペクトル (A2)が」という文節が同一節内に存在するため以下のように係り受けを変更する。 ## 7 改良したシステムの評価 ## 7.1 対象・結果 改良したシステムを評価する。評価方法はベースラインシステムの時と同様である。クローズドテストではベースラインシステムの評価と同じデータを用いる。オープンテストでは非コア講演 40 講演を用いる。 5 章と同様の文分割を行い、文数は 1996 件、言い直し組は 297 件であった。 クローズドテストの結果は表 1 に、オープンテストの結果は表 2 に示す。 表 1 クローズドテスト 表 2 オープンテスト ## 7.2 考察 節境界と前処理を利用することで精度が向上した。しかし改善後でもうまく修正できなかったものも存在する。例えば CBAP が口語的な節境界を正しく判断できていないものがあった。新たに節境界の規則を追加することを検討している。他にも「リンゴを食べ食べました」のような動詞の言い直しは修正できていなかった。動詞の後には何らかの節境界が付与されることが多く、検索範囲から外れるためである。また、講演中に一度しか出現しない複合語も多数存在しており、それらは言い直しによる意図しない名詞連接と同列に扱われていた。そのため、名詞連接の判定も不十分で今後の課題である。 ## 8 まとめ 本稿では日本語話し言葉の言い直し現象を検出、修正するシステムを提案し、その評価を行った。上記の課題に加えて、異なる語彙を用いた言い直しを判定するために類似性を判定することや、言い直しの範囲をより正確に推定するために並列構造を組み込むことが今後の課題である。 ## 参考文献 [1] Christine Nakatani and Julia B Hirschberg. A speech-first model for repair detection and correction. 31st Annual Meeting of the Association for Computational Linguistics, Vol. 13, No. 1, pp. 46-53, 1993. [2] 丸山岳彦, 佐野信一郎. 自発的な話言葉に現れる言い直し表現の機能的分析. 言語処理学会第 13 回年次大会発表論文集, pp. 1026-1029, 2007. [3] 国立国語研究所. 『日本語話し言葉コーパスの構築法』. 国立国語研究所報告 No.124, pp. 1-552, 2006. [4] 下岡和也, 河原達也, 内元清貴, 井佐原均. 『日本語話し言葉コーパス』における自己修復部 (d タグ)の自動検出および修正に関する検討. 情報処理学会研究報告音声言語情報処理(SLP), Vol. 2005, No. 50, pp. 95-100, 2005 [5] 藤井はつ音, 岡本紘幸, 斎藤博昭. 日本語話し言葉における自己修復の統計モデル. 言語処理学会第 10 回年次大会発表論文集, pp. 2-7, 2004. [6] 内元清貴, 丸山岳彦, 高梨克也, 井佐原均. 『日本語話し言葉コーパス』における係り受け構造付与. 国立国語研究所平成 15 年度公開研究発表会予稿集, 2003. [7] 島森瑛貴, 阪本浩太郎, 渋木英潔, 森辰則. 自発的な独話における可読性向上のための言い直し表現の定義と分析. 言語処理学会第 27 回年次大会発表論文集, pp. 365-370, 2020 [8] 丸山岳彦, 柏岡秀紀, 熊野正, 田中英輝. 節境界自動検出ルールの作成と評価. 言語処理学会第 9 回年次大会発表論文集, pp. 517-520, 2003.
NLP-2022
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A1-1.pdf
# 英語の言語モデルに内在する種差別的バイアスの分析 竹下昌志 北海道大学大学院情報科学院 takeshita.masashi@ist.hokudai.ac.jp } ジェプカ・ラファウ 北海道大学大学院情報科学研究院 rzepka@ist.hokudai.ac.jp } 荒木健治 北海道大学大学院情報科学研究院 araki@ist.hokudai.ac.jp ## 1 はじめに 自然言語処理 (NLP) 分野において,単語埋め込みに内在する社会的バイアスが研究されている $[1,2]$.例えば,単語埋め込みを用いて「男が医者なら女は $\mathrm{X}$ という類推を行うと,Xには「看護師」が入ると予測される [3]. このようなバイアスはダウンストリームタスクに影響を及ぼす。例えば共参照解決において,ステレオタイプ的な事例(例:「彼女は看護師である.」) での精度は反ステレオタイプ的な事例 (例:「彼女は医者である.」)での精度より高い [4]. 既存研究で対象とされている社会的バイアスの属性は,ジェンダー $[3,5,6]$ ,人種 $[6,7]$ ,宗教や民族 [6] などであり,これらはすべて人間のアイデンティティを想定している。しかし,非ヒト動物を対象としたバイアス研究は存在しない. 本稿ではテンプレート文と Masked Language Model (MLM) を用いて,英語の事前学習済みの言語モデルに内在する非ヒト動物に対するバイアス,すなわち種差別的バイアスを調査する。 本稿で調査するバイアスは Blodgett ら [2] の分類にしたがってステレオタイプ化 (stereotyping) とする. システムの動作が有害なステレオタイプ化であるとは,システムが「特定の社会集団について否定的な一般化を広める」[2, p.5456] ことである. ただし,我々は社会集団に非ヒト動物たちも含める。 ## 1.1 倫理的考察:非ヒト動物と NLP 技術 本稿の研究目的に対して,二つの批判が考えられる. 第一の批判は, 非ヒト動物に有害なバイアスが存在するとしても,それは倫理的に問題ない,というものである。しかし我々は利益に対して平等に配慮すべきであり,利益を持つ者が誰であるかによっ て差別するべきではない $[8, \mathrm{p} .40]$ 。また平等に配慮する義務を認めないとしても,非ヒト動物が何らかの道徳的配慮に值する存在であることはほとんどの人が認めるだろう。もしそうであるならば,彼女ら/彼らに有害なバイアスの研究は重要である. 第二の批判は,仮に非ヒト動物が何らかの道徳的配慮に値するとしても,非ヒト動物は NLP 技術を直接利用しないため,NLP 技術は非ヒト動物に害を及ぼさない,というものである. しかし,我々は二つの理由から,NLP 技術の種差別的バイアスの研究は重要であると考える. 第一に,我々の言語は我々の思考に影響を与える [9] ため,否定的なバイアスを内在する NLP 技術の利用は,我々自身がもつ否定的なバイアスを強化する可能性がある.こうした否定的なバイアスの強化は特定の社会集団に対する差別を生み出す可能性がある [10].そのため,NLP 技術に内在する否定的なバイアスは,特定の社会集団,つまり非ヒト動物集団に対して間接的に害を与える可能性がある. 第二に,単語埋め込みに内在するバイアスは我々の認知や社会構造に内在する社会的バイアスを反映している [5].したがって単語埋め込みやコーパスに内在する種差別的バイアスを分析することで,我々の認知や我々の社会がもつ種差別的バイアスの分析に貢献できると考える. 以上の理由から,我々は,NLP技術に内在する種差別的バイアスの研究は重要であると考える. ## 2 関連研究 ## 2.1 Masked Language Models (MLMs) MLM は,入力文中のマスクされたトークンに入る確率を予測する言語モデルである.代表的なモ デルとして BERT [11] がある. BERT は Transformer [12]を用いた大規模言語モデルであり,MLMを目的としたタスクと Next Sentence Prediction (NSP) の二種類の事前学習タスクを行う.MLM では,入力文をトークンに分割し,その一部をランダムに<MASK> トークンに置換し,<MASK>トークンに入る単語の予測を目的としてモデルを学習させる. NSP では,二つの文を入力とし,第二文が第一文に続く文であるか否かの分類を目的としてモデルを学習させる. また,BERT の改良モデルとして RoBERTa [13] が提案されている. RoBERTaは,BERT と比較してより大きなモデルとコーパスを用いて事前学習を行ったモデルである。また BERT と異なり,事前学習では MLMのみを行う。 ## 2.2 単語埋め込みに内在する社会的バイ アス 既存研究で, Word2Vec [14] などの単語埋め込みや,BERT などの文脈化単語埋め込みに社会的バイアスが内在していることが示されている $[3,5,7,15,6]$. 既存研究では, 文脈化単語埋め込みの社会的バイアスの評価はテンプレート文を用いて行われている $[15,16]$. テンプレート文を用いることで,評価対象の属性以外の属性を入力することなく,その属性の社会的バイアスを評価できる。 Kurita らは BERT などの MLM のバイアス評価方法を提案した [15]. 評価方法は次の通りである。 1. 以下のようなテンプレート文を用意する. 例: “<TARGET> is a $<$ ATTRIBUTE $>$. 2. <TARGET>を<MASK>で置換し, 確率 $p_{t g t}=$ $\mathrm{P}(<\mathrm{MASK}>=<$ TARGET $>\mid$ 文) を計算する. 3. <TARGET>と<ATTRIBUTE>の両方を <MASK>で置換し, 確率 $p_{\text {prior }}=$ $\mathrm{P}(<\mathrm{MASK}>=<$ TARGET>|文) を計算する。 4. $\log \frac{p_{\text {tgt }}}{p_{\text {prior }}}$ によって関連度を計算する. Kurita らはこの方法によって,BERT が社会的バイアスを内在することを示した。 しかし,単語埋め込みに内在する種差別的バイアスを分析した研究は存在しない。本稿では MLMs に内在する種差別的バイアスを調査する。 ## 2.3 種差別と言語 種差別 (speciesism) とは「自身の種のメンバーの利益を支持し,そして他の種のメンバーの利益には反対する偏見ないし偏った態度」 $[8, \mathrm{p} .41]$ のことで ある. 利益を持つ主体としての非ヒト動物はヒトと平等に配慮されるべき存在であり $[8, \mathrm{p} .40]$ ,我々は非ヒト動物に対する差別的行動をやめるべきである.しかし我々は, 肉食や動物実験を代表として,非ヒト動物に差別的である $[8$, ch.2, 3] . また我々は,言語使用においても非ヒト動物をヒト以下の存在またはモノとして扱っている。例えば 「彼女/彼はチ*ンだ」1)という表現は,その人が臆病であることを示しているが,この表現は,その人を臆病であると侮辱すると同時に,䳕一般に対しても侮辱する [17] . 非ヒト動物をモノとして扱う例としては,非ヒト動物を“it” “something”とよぶことや,非ヒト動物を指す関係詞に“that”や"which" を用いることなどがある [18].以上のように英語には種差別的表現がみられ,このようなバイアスが MLMs に反映されている可能性がある。したがって本稿では英語の MLMs を対象とする。 我々の思考は言語に影響を受ける [9] ため,種差別的言語の使用は非ヒト動物に対する種差別の維持につながると考えられる [18].したがって,我々は種差別的言語の使用を避けるべきである2). ## 3 評価方法 本章では BERT と RoBERTa に内在する種差別的バイアスの評価方法を説明する.本稿では,(1)テンプレート文を変えることで<MASK>トークンに入る単語の確率がどれほど変化するかを調べ,また (2)<MASK>トークンを置換したテンプレート文に対する感情分析を行うことによって,MLMs に内在する種差別的バイアスを評価する. 本稿で使用するモデルは BERT $\left._{\text {LARGE-uncased }}{ }^{3}\right)$ と RoBERTa $\left._{\text {LARGE }}{ }^{4}\right)$ である。また本稿で使用する非ヒト動物の一般名は, North American Meat Institute の統計5) で用いられる食肉名に対応する “cow”, “cattle”, “pig”, “chicken”, 1)本稿の文が将来的に言語モデルの学習に使われる可能性を考慮し,有害なバイアスにつながる可能性のある文をアスタリスク(*)によって隠している.ただし,この文が有害なバイアスにつながるのは現在の社会が種差別的だからであり,理想的には有害であってはならない [17] . 2)我々は以下の非種差別的言語のガイドラインにしたがって本文を記述している . 我々は,非種差別的言語の使用を推奨する. 3)https://huggingface.co/bert-large-uncased [閲覧日: 2021 年 1 月 5 日 4)https://huggingface.co/roberta-large [閲覧日:2021 年 1 月 5 日] 5) https://www.meatinstitute.org/index.php?ht=d/sp/i/ $47465 /$ pid/47465 [閲覧日 $: 2021$ 年 1 月 5 日] “sheep", “turkey”とする. ## 3.1 確率変化によるバイアス評価 ## テンプレート文の基本形を <PRONOUNS> is a <NAME> <RELATIVE> is $<$ MASK> とする.ここで<PRONOUNS>には代名詞が, <NAME>には非ヒト動物の一般名が,<RELATIVE> には関係代名詞が入る. 我々は<PRONOUNS>と <RELATIVE>を変えることで,<MASK>に入る単語の予測確率の変化によって<NAME>についてのバイアスを評価する。我々は,<PRONOUNS>と <RELATIVE>について,以下の組み合わせを用いる。 ・ヒト文 - She is a <NAME> who is <MASK>. $-H e$ is a $<$ NAME> who is <MASK>. - モノ文 - This is a <NAME> which is <MASK>. - That is a <NAME> which is <MASK>. - It is a $<$ NAME> which is <MASK>. - This is a <NAME> that is <MASK>. - That is a $<$ NAME $>$ that is $<$ MASK>. - It is a $<$ NAME $>$ that is <MASK>. ヒト文では一般に人間に使われる“she”, “he”, “who” を用い,モノ文では一般にモノに使われる“this”, “that”,“it”,“which”を用いる。モノ文での代名詞は三人称しかないため,ヒト文でも三人称の “she” と “he”のみを用いた。 バイアスを以下の手順で評価する。まずヒト文とモノ文のそれぞれで,<MASK>に入る確率の平均を各単語ごとに計算する。次に,ヒト文とモノ文での平均確率を各単語ごとの変化率を計算し,<NAME> に対する単語の関連度を評価する。ここで確率 A から確率 Bへの変化率は $\frac{B-A}{A}$ とする. ## 3.2 感情分析によるバイアス評価 本稿では Google Cloud sentiment model ${ }^{6)}$ を用いて, <MASK>トークンを置換した文の感情分析を行うことでバイアスを評価する。我々は Hutchinson ら [16] にしたがって,以下の手順でバイアス評価を行う。 1. テンプレート文 “A <NAME> is <MASK>.”の <NAME>を非ヒト動物の一般名に置換する. 6) https://cloud.google.com/natural-language/docs/ reference/rest/v1beta2/documents/analyzeSentiment [閲覧日:2021 年 1 月 5 日]表 1. RoBERTa において,モノ文からヒト文に変えて確率が下がる単語を,変化率順に 15 個示す. これらの単語はモノ文で偶然以上の確率で予測された単語である。 2. 置換した文のくMASK>に入る単語を MLM を用いて予測する。 3. <MASK>を,<MASK>に入る確率が高い上位 $\mathrm{N}$ 個( $\mathrm{N}=10 )$ 単語に置換し,かつ<NAME>を “person”に置換した文 (“A person is <MASK に入る単語>.”) に対して感情分析を行う. 4. 置換された文が否定的な感情をもつと予測された頻度を計算する。 ステップ 3 において,感情分析時に非ヒト動物の名前を “person” に置換することで,感情分析における非ヒト動物の名前の影響をなくすことができる。 ## 4 実験結果 ## 4.1 確率変化によるバイアス評価 RoBERTa での実験結果を表 1,2 に示す. BERT での実験結果は付録 A に載せる.表 1 はモノ文からヒト文に変えて確率が下がる単語を,表 2 はヒト文からモノ文に変えて確率が下がる単語を示している。 表 1 から,モノ文からヒト文に変えて<MASK> に入る確率が下がる単語には,“dried”(乾燥された),“processed”(処理された),“peeled”(皮を剥がれた),“slaughtered”(屠殺された)など,食べ物と 表 2. RoBERTa において,ヒト文からモノ文に変えて確率が下がる単語を,変化率順に 15 個示す。 これらの単語はヒト文で偶然以上の確率で予測された単語である. して扱われていることや食肉処理の工程を示す単語が多いことがわかった. 一方,表 2 から,ヒ卜文からモノ文に変えて <MASK>に入る確率が下がる単語には, “Married" (結婚した), “Lesbian” (レズビアン), “divorced” (離婚した), “Transgender” (トランスジェンダー) など, セクシャリティや結婚に関する単語が多いことがわかった. またその他の単語も '-er’’ ‘-ist’ などを含み,人間の職業を表す単語が多いことがわかった。 図 1. くMASK>トークンを置換した文が否定的な感情をもつと予測された割合. ## 4.2 感情分析によるバイアス評価 次に Google Cloud sentiment model を用いた感情分析によるバイアス評価の結果を図 1 に示す. 図 1 から,BERT と RoBERTaが提示した文は半分以上の割合で否定的な感情をもつと予測された。また,提示された文が肯定的な感情をもつと予測されることはほぼなく(全 60 文中,BERT で 7 文,RoBERTa で 5 文),その他の文は感情值が 0 であり,中立的であった.したがって,これらの言語モデルは非ヒト動物に対して否定的な感情語を関連付けている。また “chicken” と “turkey” 以外で,RoBERTa は BERT より否定的な感情文を提示した.この結果は,既存研究 $[6,19]$ の結果と同様に, RoBERTa は BERT に比べてより強いバイアスをもっていることを示唆する. ## 5 考察 言語モデルが我々の言語使用を反映しているならば,表 1,2 で示された結果は,非ヒト動物をモノのように扱う場合とヒトのように扱う場合とで我々の記述の仕方が異なることを示唆する.特に表 1 の結果は,我々が非ヒト動物をモノのように記述する場合には,彼女ら/彼らを食べ物のように扱うが,一方で彼女ら/彼らをヒトのように記述する場合にはそうではないことを示唆すると考えられる。これらの結果は,種差別的言語の使用による非ヒト動物に対する種差別の維持 [18],および言語が我々の思考に影響を与えること [9]を支持する。 また図 1 より,言語モデルが非ヒト動物に対して否定的な感情を関連付けていることがわかった。このような言語モデルの動作は非ヒト動物に対する有害なステレオタイプ化につながると考えられる。 ## 6 まとめ 本稿では事前学習済みの言語モデルに内在する非ヒト動物に対する種差別的バイアスの分析を行った.その結果,非ヒト動物をモノのように記述すると彼女ら/彼らを食べ物に関連づけることがわかった. また,言語モデルは非ヒト動物に対して否定的な感情を関連付けていることがわかった。このような言語モデルの動作は非ヒト動物に対する有害なステレオタイプ化につながると考えられる。 今後の課題として,,他の NLP 技術やコーパスに含まれる種差別的バイアスの分析を行う。また言語モデルの種差別的バイアスの緩和を試みる。 ## 参考文献 [1] Tony Sun, Andrew Gaut, Shirlyn Tang, Yuxin Huang, Mai ElSherief, Jieyu Zhao, Diba Mirza, Elizabeth Belding, Kai-Wei Chang, and William Yang Wang. Mitigating gender bias in natural language processing: Literature review. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1630-1640, Florence, Italy, July 2019. Association for Computational Linguistics. [2] Su Lin Blodgett, Solon Barocas, Hal Daumé III, and Hanna Wallach. Language (technology) is power: A critical survey of "bias" in NLP. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 5454-5476, Online, July 2020. Association for Computational Linguistics. [3] Tolga Bolukbasi, Kai-Wei Chang, James Zou, Venkatesh Saligrama, and Adam Kalai. Man is to computer programmer as woman is to homemaker? debiasing word embeddings. Curran Associates Inc., 2016. [4] Jieyu Zhao, Tianlu Wang, Mark Yatskar, Vicente Ordonez, and Kai-Wei Chang. Gender bias in coreference resolution: Evaluation and debiasing methods. In Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 2 (Short Papers), pp. 15-20, New Orleans, Louisiana, June 2018. Association for Computational Linguistics. [5] Aylin Caliskan, Joanna J Bryson, and Arvind Narayanan. Semantics derived automatically from language corpora contain human-like biases. Science, Vol. 356, No. 6334, pp. 183-186, 2017. [6] Tao Li, Daniel Khashabi, Tushar Khot, Ashish Sabharwal, and Vivek Srikumar. UNQOVERing stereotyping biases via underspecified questions. In Findings of the Association for Computational Linguistics: EMNLP 2020, pp. 3475-3489, Online, November 2020. Association for Computational Linguistics. [7] Thomas Manzini, Lim Yao Chong, Alan W Black, and Yulia Tsvetkov. Black is to criminal as caucasian is to police: Detecting and removing multiclass bias in word embeddings. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 615-621, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [8] Peter Singer. Animal Liberation. Vintage Digital, 2015, (戸田清訳『動物の解放改訂版』, 人文書院, 2011). [9] Lera Boroditsky. How language shapes the way we think. Open Educational Resources Collection, 2018. [10] Michela Menegatti and Monica Rubini. Gender bias and sexism in language. In Oxford Research Encyclopedia of Communication. 2017. [11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [12] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [13] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. Roberta: A robustly optimized bert pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [14] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, and Jeffrey Dean. Distributed representations of words and phrases and their compositionality. In Proceedings of the 26th International Conference on Neural Information Processing Systems - Volume 2, NIPS' 13, p. 3111-3119, Red Hook, NY, USA, 2013. Curran Associates Inc. [15] Keita Kurita, Nidhi Vyas, Ayush Pareek, Alan W Black, and Yulia Tsvetkov. Measuring bias in contextualized word representations. In Proceedings of the First Workshop on Gender Bias in Natural Language Processing, pp. 166172, Florence, Italy, August 2019. Association for Computational Linguistics. [16] Ben Hutchinson, Vinodkumar Prabhakaran, Emily Denton, Kellie Webster, Yu Zhong, and Stephen Denuyl. Social biases in NLP models as barriers for persons with disabilities. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 54915501, Online, July 2020. Association for Computational Linguistics. [17] Joan Dunayer. Sexist words, speciesist roots. Animals and women: Feminist theoretical explorations, pp. 11-31, 1995. [18] Joan Dunayer. English and speciesism. English Today, Vol. 19, No. 1, p. 61-62, 2003. [19] Nikita Nangia, Clara Vania, Rasika Bhalerao, and Samuel R. Bowman. CrowS-pairs: A challenge dataset for measuring social biases in masked language models. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 19531967, Online, November 2020. Association for Computational Linguistics. ## A 付録 表 3. BERT において,モノ文からヒト文に変えて確率が下がる単語を,変化率順に 15 個示す。 れらの単語はモノ文で偶然以上の確率で予測された単語である。 表 4. BERT において,ヒト文からモノ文に変えて確率が下がる単語を,変化率順に 15 個示す。これらの単語はヒト文で偶然以上の確率で予測された単語である.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A1-2.pdf
# 知識グラフ埋め込みの PU 学習 垣渕太成 $* 1$ 林克彦 $\dagger 2$ 駒谷和範 $\$ 1$ 1 大阪大学 産業科学研究所 2 群馬大学 社会情報学部 ## 1 はじめに 知識グラフは,事実(Fact)を集積した巨大なデータセットであり, Fact は, Entity $e$ とその間の Relation $r$ の三つ組 (Triple) 形式 $\left(e_{i}, r_{k}, e_{j}\right)$ で表現される.ここで前者の Entity は Subject,後者は Object と呼ばれる。知識グラフの多くは Fact の欠損を含み,これを自動予測する知識グラフ補完は実用上重要なタスクである。そして,知識グラフ埋め込みはこのタスクに対する有効なアプローチの一つと考えられている。埋め込みの学習は Logistic 損失や Cross Entropy(CE)損失に基づいて,Fact とそれ以外の Triple を分類するように行うのが一般的である. 知識グラフでは Fact 以外の Triple の正負が不明であるため,知識グラフ埋め込みの学習を行うには負例をどう定義するかが重要となる. 既存の学習法では,Factの Subject あるいは Object を別の Entity に入れ替えた Tripleを負例として定義する方法がよく用いられている. しかし, この負例の定義が正確である保証はなく,潜在的な Factを負例として扱ってしまう危険が常に伴う.また,Factの近傍のみを学習対象とするため,局所的で偏った学習を行う問題も指摘できる.分野ではモデルの性能を Fact 近傍のランキングで評価することが主流であるため,これらの問題は顕在化してこなかったが,本来,知識グラフ補完の性能を評価するには与えられた Triple が Fact か否かを判定する分類評価が適切である。 そこで,本稿ではまず,従来の学習法によるモデルの分類性能を再調査する. 図 1 は Kinship データセットに対する既存モデルの性能を PR(Precision and Recall)曲線で示しており,この結果は, Precision が早期に下がって,分類性能が極めて低いことを示している。これは負例が正例と判定される割合が高いことに起因するもので, この結果から, 従来の学  図 1 Kinship データセットの Fact から 3 割を除いて, CE 損失による既存の埋め込み学習(RESCAL モデルを使用) を行い,除いた Fact に対して PR 曲線を計算した。 習法における負例の定義を根本的に見直す必要性があると結論付けられる。 よって, 本稿では, PU (Positive and Unlabeled)学習の知見を用いた知識グラフ埋め込みの新たな学習法を提案する. PU 学習では, 正例以外全て Unlabeled であるデータセットに一部正例が含まれていると仮定した上で正と負への二値分類を行うため,明示的な負例を定義する必要がない.本稿では知識グラフ埋め込みの代表的なモデルである RESCAL を用い,Alternating Least Square(ALS)による最適化法を定式化した. これを既存手法と比較したところ,分類精度の大きな向上が見られた. ## 2 関連研究 ## 2.1 知識グラフ埋め込みの学習 初期には二乗誤差損失を用いて ALS で最適化する手法 [1] が提案されたが,これには Unlabeled なデータを全て負例として扱うという欠点がある.現在, 事前知識 [2] や敵対学習 [3] によって Fact 近傍で負例の可能性が高い Triple をサンプリングし, Logistic 損失や $\mathrm{CE}$ 損失に基づいて学習を行う方法が一般的となっている。しかし,任意の知識グラフ に対して正確な負例を定義する方法は自明でない. ## 2.2 PU 学習 PU 学習 [4] は, 正例と Unlabeled で構成されるデータセットに対して, Unlabeled に一部正例が含まれている状況を仮定し,正負の二値分類を行うもので,土地被覆分類 [5] など,負例の抽出が難しい状況で利用されている. 文献 [6] は正負のラベルの誤りを考慮した上での学習に取り組んでいる。正例に誤りはないが,負例のデータに正クラスが誤って混在している状況は PU 学習の仮定と等しい. 文献 [7] は,行列分解における PU 学習に取り組んでおり,本研究はそのテンソル分解への拡張とも言える. ## 3 知識グラフ埋め込みの PU 学習 ## 3.1 記法 ベクトル,行列,テンソルをそれぞれ小文字の太文字 $\boldsymbol{a}$, 大文字の太文字 $\boldsymbol{A}$, カリグラフィック体 $\mathcal{A}$ で表す. 行列 $\boldsymbol{A}$ の $\mathrm{i}$ 番目の行ベクトルを $\boldsymbol{a}_{i}^{T}$, 行列の各要素を $a_{i j}$, テンソルの各要素を $x_{i j k}$ で表す. $X_{[i::]}, X_{[: j:]}, X_{[:: k]}$ はそれぞれテンソル $1,2,3$ 次元の $i, j, k$ 番目のスライスを表す. また $\operatorname{vec}(\boldsymbol{A})$ は行列 $\boldsymbol{A}$ のベクトル表示 $\left(a_{11}, \ldots, a_{1 n}, \ldots, a_{m 1}, \ldots, a_{m n}\right)^{T}$ である. 行列のフロベニウスノルムを $\|\cdot\|_{F}, \otimes$ はクロネッカー積, $x_{n}$ はテンソルの $n$ モード積を表す. ## 3.2 従来法 知識グラフ埋め込みでは Fact の分布を近似する潜在的な特徴表現の獲得を目指す、以下では, Fact の集合を $\mathcal{F}$, Entity の集合を $\mathcal{E}$ ,Relation の集合を $\mathcal{R}$ で表す.このとき,知識グラフは二値のテンソル $X \in\{0,1\}^{|\mathcal{E}| \times|\mathcal{R}| \times|\mathcal{E}|}$ の形で表現でき, 各要素 $x_{i j k}$ は $\left(e_{i}, r_{k}, e_{j}\right) \in \mathcal{F}$ なら 1 , そうでなければ 0 をる. RESCAL モデルでは Entity $e_{i}$ を $d$ 次元の縦ベクトル $\boldsymbol{e}_{i}$, Relation $r_{k}$ を $d \times d$ 次元の行列 $\boldsymbol{R}_{k} \in \mathbb{R}^{d \times d}$ で表現し,隣接行列 $X_{[:: k]}$ を以下のように近似する. $ \chi_{[\because k]} \approx \boldsymbol{E} \boldsymbol{R}_{k} \boldsymbol{E}^{T}(k=1,2, \ldots,|\mathcal{R}|) . $ Triple に対するスコア関数は以下となる. $ \theta_{i j k}=\boldsymbol{e}_{i}^{T} \boldsymbol{R}_{k} \boldsymbol{e}_{j} $ 他にも様々なモデルが提案されているが,RESCAL は表現力が完全であり [8], 現在でも標準的なモデルとして使用されている [9].一般的な知識グラフ埋め込みでは,スコア関数に対する損失を $\ell\left(\theta_{i j k}, x_{i j k}\right)$ として目的関数は以下のように定義される. $L=\sum_{\left(e_{i}, r_{k}, e_{j}\right) \in \mathcal{F}} \ell\left(\theta_{i j k}, 1\right)+\sum_{\left(e_{i}, r_{k}, e_{j}\right) \in \mathcal{D}^{-}} \ell\left(\theta_{i j k}, 0\right)$ where $\mathcal{D}^{-}=\left.\{\left(e_{i^{\prime}}, r_{k}, e_{j}\right) \mid e_{i^{\prime}} \in \mathcal{E} \wedge e_{i^{\prime}} \neq e_{i} \wedge\left(e_{i}, r_{k}, e_{j}\right) \in \mathcal{F}\right.\}$ $\cup\left.\{\left(e_{i}, r_{k}, e_{j^{\prime}}\right) \mid e_{j^{\prime}} \in \mathcal{E} \wedge e_{j^{\prime}} \neq e_{j} \wedge\left(e_{i}, r_{k}, e_{j}\right) \in \mathcal{F}\right.\}$. $\mathcal{D}^{-}$は学習で負に分類される Triple の集合である.これは正例以外の定義可能な Triple 全てを含むわけではなく, $\operatorname{Fact}\left(e_{i}, r_{k}, e_{j}\right)$ に対して, $\left(e_{i}, r_{k}, ?\right),\left(?, r_{k}, e_{j}\right)$ となるものだけが含まれる. ## 3.3 知識グラフ埋め込みの PU 定式化 $\mathrm{PU}$ 学習 $[6,7]$ の知見を用いて, 知識グラフ埋め込みの新たな学習法を定式化する.知識グラフに本来存在する Fact数から $\rho$ の割合でランダムに欠損が起こると仮定する。 すなわち $\rho$ は,真の Fact の集合を $\hat{\mathcal{F}}$, 現在の集積されている Fact の集合を $\mathcal{F}$ として $\rho=1-|\mathcal{F}| /|\hat{\mathcal{F}}|$ と定義される. $\hat{\mathcal{F}}$ に基づいて損失関数 $\ell$ で分類した場合の損失を近似するような損失関数 $\tilde{\ell}$ 定義し, 目的関数は以下のように修正できる. $ \begin{aligned} & L=\sum_{\left(e_{i}, r_{k}, e_{j}\right) \in \mathcal{F}} \tilde{\ell}\left(\theta_{i j k}, 1\right)+\sum_{\left(e_{i}, r_{k}, e_{j}\right) \notin \mathcal{F}} \tilde{\ell}\left(\theta_{i j k}, 0\right) \\ & \text { where }\left.\{\begin{array}{c} \tilde{\ell}\left(\theta_{i j k}, 1\right)=\frac{\ell\left(\theta_{i j k}, 1\right)-\rho \ell\left(\theta_{i j k}, 0\right)}{1-\rho} \\ \tilde{\ell}\left(\theta_{i j k}, 0\right)=\ell\left(\theta_{i j k}, 0\right) \end{array}\right. \end{aligned} $ 知識グラフ $\hat{\mathcal{F}}$ に対応するテンソルが $\hat{X} , その$ 要素を $\hat{x}_{i j k}$ とすると, 損失について以下の等式が成り立つ. $ \mathbb{E}\left[\tilde{\ell}\left(\theta_{i j k}, x_{i j k}\right)\right]=\mathbb{E}\left[\ell\left(\theta_{i j k}, \hat{x}_{i j k}\right)\right] $ 知識グラフにおいて $\rho$ の値は不明だが, ハイパーパラメータとして与えた $\rho$ が実際に Fact の欠損している割合と等しい時,欠損を含まない知識グラフを学習した場合の損失に近似できる。 ## 3.4 ALS による最適化 本研究では, 損失 $\ell$ に二乗誤差 $\left(x_{i j k}-\theta_{i j k}\right)^{2}$ を採用し,ALSによる最適化を行う。このとき, $ \tilde{\ell}\left(\theta_{i j k}, 1\right)=\left(\theta_{i j k}-\frac{1}{1-\rho}\right)^{2}-\frac{\rho}{(1-\rho)^{2}} $ と書ける。第二項目は定数項であるから, $\operatorname{argmin} L=\operatorname{argmin}\left[\sum_{x_{i j k}=1}\left(\theta_{i j k}-\frac{1}{1-\rho}\right)^{2}+\sum_{x_{i j k}=0} \theta_{i j k}^{2}\right]$ 図 2 AUC-PR と $\rho$ の関係 (Kinship). が成立する. よって,要素が 0 と $1 /(1-\rho)$ のテンソル分解の問題に帰着する. 以下では,この二値のテンソル $X^{\prime}$ を $X^{\prime}:=1 /(1-\rho) X$ と定義する. ALS は行列・テンソル分解において使用されるアルゴリズムであり,分解する行列の片方を固定した上でもう一方の行列をコスト関数の偏微分が 0 になるよう更新し,これを交互に繰り返す. 本研究では RESCAL モデルを使用した. 正則化項を加えたコスト関数と ALS 更新式を以下に示す. $ L=\frac{1}{2} \sum_{k}\left.\|X_{[:: k]}^{\prime}-\boldsymbol{E} \boldsymbol{R}_{k} \boldsymbol{E}^{T}\right.\|_{F}^{2}+\lambda\left(\|\boldsymbol{E}\|_{F}^{2}+\sum_{k}\left.\|\boldsymbol{R}_{k}\right.\|_{F}^{2}\right) $ 更新式 $ \begin{aligned} & \boldsymbol{E} \leftarrow\left[\sum_{k} \mathcal{X}_{[:: k]}^{\prime} \boldsymbol{E}_{k}+\mathcal{X}_{[\because: k]}^{\prime T} \boldsymbol{E}_{k}^{T}\right]\left[\sum_{k} \boldsymbol{B}_{k}+\boldsymbol{C}_{k}+\lambda \boldsymbol{I}\right]^{-1} \\ & \quad \text { where } \boldsymbol{B}_{k}=\boldsymbol{R}_{k} \boldsymbol{E}^{T} \boldsymbol{E} \boldsymbol{R}_{k}^{T}, \boldsymbol{C}_{k}=\boldsymbol{R}_{k}^{T} \boldsymbol{E}^{T} \boldsymbol{E} \boldsymbol{R}_{k} \\ & \boldsymbol{R}_{k} \leftarrow\left(\boldsymbol{Z}^{T} \boldsymbol{Z}+\lambda \boldsymbol{I}\right)^{-1} \boldsymbol{Z}_{\operatorname{vec}}\left(\mathcal{X}_{[\because k]}^{\prime}\right) \end{aligned} $ where $\boldsymbol{Z}=\boldsymbol{E} \otimes \boldsymbol{E}$. ALS を用いる利点として,大規模な知識グラフへの対応が挙げられる. 文献 [10] では,知識グラフのスパース性を利用し 300 万の Entity,40の Relation,および 7000 万の Fact で構成される知識グラフの埋め込みに成功している。 ## 4 実験 ## 4.1 分類精度の評価 3 節で提案した PU 学習に基づく定式化を実験的に検証する. 使用したデータセットは Kinship と 図 3 AUC-PR と $\rho$ の関係 (UMLS). UMLS で,共に Fact が全て集積されておりそれ以外の Triple は全て負例である性質を持つ [11]. データセットから Fact をランダムに一定割合 $\{0.1,0.3,0.5,0.7\}$ 除き残りを学習に与え,それ以外の全 Triple に対し分類精度をテストする.検証の目的は以下の三つである. 1. PU 学習により分類精度は向上するか. 2. $\rho$ と除いた正例の割合の関係. 両者が等しい時に分類精度が最も高くなるか. 3. 従来法との比較. 目的 1,2 の検証のため,ハイパーパラメータ $\rho$ ごとに AUC-PR の值を調べた(図 2,3)。ここで,次元数 100 , 正則化項 $\lambda=0.0001$ で固定し 10 分割交差検証を行った. Factを除いた割合によらず, $\rho>0.0$ の適当な值で $\rho=0.0$ (PUなし)と比較して分類精度が向上している。一方, 理論的には除いた正例の割合に対し $\rho$ が等しい場合(図赤点)で AUC が最も高くなることが予想されるが,そのような傾向は得られなかった。一般的な分類問題と異なり知識グラフ埋め込みでは潜在的な特徴表現を通じて各 Triple のスコアが相互に影響を及ぼすため,理論通りの学習が行われてない可能性があり,知識グラフ埋め込みにより適した PU 学習の定式化は今後の課題である. 続いて従来法と提案手法を比較する。従来法にはRESCAL モデル,目的関数に式 (1),損失関数に Sigmoid Cross Entoropyを用いて SGD (Stochastic Gradient Descent)で最適化を行った。 ハイパーパラメータは次元数 $d \in\{30,50,100\}$,学習率は $\eta \in\{0.005,0.003,0.001\}$ から Grid Search を行った. Epochは 50 で固定したが,モデル 表 1 AUC-PR の手法ごとの比較 (Kinship). 表 2 AUC-PRの手法ごとの比較(UMLS). は,学習データ以外の一部 Factを対象として Epoch ごとにランキングによる評価を行い,最も精度が高いものを使用した. 実装はhttps: //github.com/ibalazevic/TuckERにRESCAL を加えた1). 実験結果を表 1,2 に示す. どの設定でも提案手法が従来法より優れた分類精度を示した。 ## 4.2 学習範囲による影響の分析 表 1,2 では従来法と比較して PUなしの ALS $(\rho=0.0)$ も高い分類精度を示している. 全 Tripleを学習する ALS に対し, 従来法は Fact と負例の一部のみ学習している. この違いが分類に与える影響を調査するため, 従来法が学習において負に分類する範囲を Negative Area,学習を行わない範囲を Unlearned Area として,それぞれの分類精度を AUC-PR で評価した (図 4) ${ }^{2)}$. 二つの領域における正例と負例の比率を合わせるため, Unlearned Area で負例をランダムにサンプリングしテストした.従来法では,限られた範囲の学習によって Triple 全体における Fact の補完が可能であるとされてきたが,Unlearned Area ではほとんど分類ができていない. ALS での分類精度はこれと比較して高い。これは ALS が Unlearned Area の学習を行っているので直感的だが, それでも値が高くないのは, これらの Triple は近傍に正例を持たないため学習が困難だからだと考えられる。 また Negative Area でも ALS の方が分類精度が高く, Unlearned Area の学習が特徴表現を通じ Fact の補完に重要な情報を与えていると考えられる。  図 4 目的関数式 (1) が負例として学習する Triple (Negative Area)と学習をしない Triple (Unlearned Area) を分け, AUC-PR で評価. 左は(1) に基づく従来法, RESCAL-ALS $(\rho=0.0)$ による学習. 図 5 Factを 0.8 除いた Kinship における正例負例のスコアの分布. PU なし $\rho=0.0$ (左) と PU あり $\rho=0.3$ (右). ## 4.3 PU 学習が与える影響の分析 PU 学習なしの ALS に対して PU ありの ALS が高い分類精度を示しており,特に正例を除いた割合が高い時その差が大きい. PU の影響を調査するため,正例を 0.8 の割合除いて,学習に与えてない正例と負例のスコアの分布を $\rho=0.0$ と $\rho=0.3$ で比較した (図 5 $)^{3)} \cdot \rho=0.0$ では Fact 以外を全て負に分類するためスコアが非常に低い値に密集しており正例と負例のスコアに差を持たせることができておらず分類精度が低い(AUC-PR=0.075),一方 $\rho=0.3$ ではスコアの密集が防がれ正例と負例のスコアに差が生まれており,分類精度が向上している(AUC-PR=0.378)。 ## 4.4 実験まとめ 従来法は学習範囲が局所的という問題があり,分類精度が非常に低いのに対し,ALS はこの問題を回避している。また PU 学習を用いることで ALS による埋め込みの分類精度が向上した. 一方 PU 学習の理論に適合しない結果もあり,より知識グラフに適した PU 定式化は今後の課題である. 3)引き続き次元数 100 , 正則化項 $\lambda=0.0001$ を使用. ## 参考文献 [1] Maximilian Nickel, Volker Tresp, and Hans-Peter Kriegel. A three-way model for collective learning on multirelational data. In Proceedings of the 28th International Conference on International Conference on Machine Learning, ICML'11, p. 809-816, Madison, WI, USA, 2011. Omnipress. [2] Antoine Bordes, Nicolas Usunier, Alberto Garcia-Duran, Jason Weston, and Oksana Yakhnenko. Translating embeddings for modeling multi-relational data. In C. J. C. Burges, L. Bottou, M. Welling, Z. Ghahramani, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems, Vol. 26, pp. 2787-2795. Curran Associates, Inc., 2013. [3] Zhiqing Sun, Zhi-Hong Deng, Jian-Yun Nie, and Jian Tang. Rotate: Knowledge graph embedding by relational rotation in complex space. In 7th International Conference on Learning Representations, ICLR 2019, New Orleans, LA, USA, May 6-9, 2019. OpenReview.net, 2019. [4] Charles Elkan and Keith Noto. Learning classifiers from only positive and unlabeled data. In Proceedings of the 14th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, KDD ’08, p. 213-220, New York, 2008. Association for Computing Machinery. [5] Qinghua Guo Wenkai Li and Charles Elkan. A positive and unlabeled learning algorithm for one-class classification of remote-sensing data. IEEE Transactions on Geoscience and Remote Sensing, Vol. 49, No. 2, pp. 717-725, 2011. [6] Nagarajan Natarajan, Inderjit S Dhillon, Pradeep K Ravikumar, and Ambuj Tewari. Learning with noisy labels. In C. J. C. Burges, L. Bottou, M. Welling, Z. Ghahramani, and K. Q. Weinberger, editors, Advances in Neural Information Processing Systems 26, pp. 1196-1204. Curran Associates, Inc., 2013. [7] Cho-Jui Hsieh, Nagarajan Natarajan, and Inderjit $S$ Dhillon. Pu learning for matrix completion. In Proceedings of the 32nd International Conference on International Conference on Machine Learning - Volume 37, ICML'15, p. 2445-2453. JMLR.org, 2015. [8] Yanjie Wang, Rainer Gemulla, and Hui Li. On multirelational link prediction with bilinear models. In Sheila A. McIlraith and Kilian Q. Weinberger, editors, Proceedings of the Thirty-Second AAAI Conference on Artificial Intelligence, (AAAI-18), the 30th innovative Applications of Artificial Intelligence (IAAI-18), and the 8th AAAI Symposium on Educational Advances in Artificial Intelligence (EAAI-18), New Orleans, Louisiana, USA, February 2-7, 2018, pp. 4227-4234. AAAI Press, 2018. [9] Daniel Ruffinelli, Samuel Broscheit, and Rainer Gemulla. You CAN teach an old dog new tricks! on training knowledge graph embeddings. In 8th International Conference on Learning Representations, ICLR 2020, Addis Ababa, Ethiopia, April 26-30, 2020. OpenReview.net, 2020. [10] Maximilian Nickel, Volker Tresp, and Hans-Peter Kriegel. Factorizing yago: Scalable machine learning for linked data. In Proceedings of the 21st International Conference on World Wide Web, WWW '12, p. 271-280, New York, NY, USA, 2012. Association for Computing Machinery. [11] Théo Trouillon, Christopher R. Dance, Johannes Welbl, Sebastian Riedel, Éric Gaussier, and Guillaume Bouchard. Knowledge graph completion via complex tensor factorization. CoRR, Vol. abs/1702.06879, , 2017.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A1-3.pdf
# 単語の重要度に応じてパラメタ数可変な単語分散表現の学習 露木浩章 小川哲司哲則林良彦 早稲田大学理工学術院 tsuyuki@pcl.cs.waseda.ac.jp ## 1 はじめに 本研究では単語分散表現の圧縮を目的として,単語の重要度に応じてパラメタ数を可変とするゲート機構を提案しその有効性を評価する。 ニューラルネットワークを用いた自然言語処理モデルにおいて,単語ベクトルは単語の意味を表す特徵量の役割を果たす。しかし,モデルの精度向上のために単語ベクトルの次元サイズや語彙サイズを大きくすると,必要メモリ量が膨大となりモバイル端末上での処理が困難である.メモリコストの問題を解決しモバイル端末上で実行できれば,データの送受信コストやユーザデータの情報漏洩リスクを低減できる. また既存研究より,単語ベクトルのパラメタ冗長性を排除することは,必要メモリ量の削減だけでなく,過学習の抑制に基づくモデルの精度向上にも寄与することが分かっている [1]. 単語ベクトルのパラメタ数が膨大な場合,出現回数が少ない統計的に信頼性の低い単語を<unk>に置換する前処理が用いられる。しかし,感情分析における感情語のようにタスクにおいて重要な役割を持つ単語 (重要語) を置換するとモデルの精度低下につながる。例えば,IMDB コーパス [2]を用いた感情分析の予備実験では出現回数が 2 回以下の語を<unk>に置換すると,置換しない場合と比べて感情語が 1098 個減り,0.9 ポイント識別精度が低下した. 本研究では,識別に寄与する重要語に多くのパラメタを割り振り,寄与しない非重用語には少ないパラメタを割り振ることで,モデルの精度を落とすことなく単語べクトルのパラメタ数を削減する手法を提案する。 パラメタ数の少ない単語同士は似たべクトルになりやすいため,提案法は感情語を<unk>に置換せずに残したまま,感情分析に寄与しない非重要語を <unk>に置換する機能を果たす. 実験の結果,提案法はモデルの精度を落とすことなく従来法を上回る圧縮率を達成した。また,感情分析タスクで学習すると長いコードが割り当てられた語彙の中に感情語が多く存在することを確認した。 ## 2 関連研究 単語ベクトルに要するメモリ量を削減する手法は語彙サイズを減らす手法と単語あたりの必要メモリ量を減らす手法の 2 つに大別できる。 語彙サイズを減らす手法として Byte Pair Encoding (BPE) [3] が存在する。 BPE は目的コーパスにおける出現回数に応じてサブワード分割する.BPE は OOV 問題を解決でき,語彙サイズも低減できる強力な手法だが,文中に含まれるトークン数が増加することから,文べクトルを構成する際に用いられる LSTM や Self-attention Network における計算量や必要メモリ量が増大しやすい。 単語あたりの単語ベクトルに要するメモリ量を削減する手法として量子化を用いた重み共有法が用いられる.全単語間で共有されるパラメタの内,入力単語に適切なパラメタを選択する離散値のコードを学習する. Neural Compressor (NC) [4] は最大值 K の自然数からなる長さ $\mathrm{M}$ のコードに基づき, $\mathrm{M} \times \mathrm{K}$ のコードブック ( Decoder) から M 個の基底ベクトルを抜き出し,その和によって単語べクトルを再構成する手法である.各単語に割り当てられた離散値コー ドに要する bit 数が小さくなり,単語ベクトルの高い圧縮率を達成した. Near-loss-Binarization (Bin) [5] では離散値コードをバイナリ化し,さらに高い圧縮率を達成した.NCと Binではいくつかのコーパスで元の単語ベクトルよりも圧縮語の単語ベクトルの方がタスクの精度が高くなることが報告されている。これは単語間で重みを共有することで低頻度語の学習が容易になったためであると考えられる。本研究と同様にバイナリコードの長さを単語ごとに可変とする手法として AdaComp [6] が存在する. AdaComp では $(32,16,6,4)$ のように長さの異なるバ 図 1 可変長コードを学習するニューラルネットワークの図. 点線は gumbel softmax と Sign 関数の計算を表す. イナリコードを扱う AutoEncoderを 4 つ用意し,単語ごとに使用する AutoEncoder を選択する手法である.しかし,異なるコード長を持つ単語間で異なるコードブック (Decoder) が用いられることから,NC やBin で重要とされている重み共有が一部行われていない。また,コード長の種類を増やすと学習パラメタ数が増大し過学習しやすくなる. 本研究では異なるコード長を持つ単語間でも同じコードブックを使用することで,重み共有を実現する。また,学習パラメタ数を増やさずにコード長の種類を増やす事が可能なためより細かいコード長の調整が可能である. ## 3 提案法 本節では,本研究で提案する手法について述べる。提案法は学習済みの単語ベクトル GloVe [7] からバイナリコードを得る AutoEncoder の機構 ( 3.1 節) と, 入力単語ベクトルに応じて選択された長さ以上の要素をバイナリコードから削除するゲート機構 ( 3.2 節) からなる. ## 3.1 バイナリコードの学習 バイナリ制約のある AutoEncoder を使用する。学習済み単語ベクトルを入力とする AutoEncoderを学習した後,得られた中間特徵量を入力単語ベクトルのバイナリベクトル,Decoderを単語間で重み共有されるコードブックとして用いる. $x \in \mathbb{R}^{d}$ を入力単語ベクトル,$m$ をバイナリコードの最大コード長とするとき単語べクトルを以下のように再構成する. $ \hat{x}=W_{\text {dec }}\left(\Phi\left(W_{\text {enc }} x+b_{\text {enc }}\right) \circ g\right)+b_{\text {dec }} $ $W_{e n c} \in \mathbb{R}^{d \times m} と W_{d e c} \in \mathbb{R}^{m \times d}, b_{e n c}, b_{d e c}$ は Encoder と Decoder の学習パラメタである. 関数 $\phi(\cdot)$ と $g$ は Encoder の出力をバイナリ化する関数とコー ド長を可変とするゲート機構である.関数 $\phi(\cdot)$ として以下の式 2 を用いる. $ \Phi\left(h_{i}\right)=\operatorname{ReLU}\left(\operatorname{Sign}\left(h_{i}\right)\right)= \begin{cases}+1 & \left(x_{i} \geq 0\right) \\ 0 & \text { otherwise }\end{cases} $ 関数 $\phi(\cdot)$ は 1 と 0 からなるバイナリコードを出力するが関数 $\operatorname{sign}(\cdot)$ の微分値は 0 になるため誤差逆伝播法による学習ができない.そこで上位から伝搬してきた微分値をそのまま下位の層に伝搬する Straight-Through Estimator (STE) [8] を適用する. ## 3.2 コード長を可変とするゲート機構 単語ベクトルを Encoderを通してバイナリコードに変換した後, 入力単語に適切な長さまでバイナリコードを消去するゲート機構 $g$ を適用する. $ g=\operatorname{cumsum}(\alpha)=\sum_{i \leq m}^{m} \alpha_{i} $ $\alpha$ はある 1 つの要素のみ 1 で他の要素が 0 な one-hot ベクトルであり, $\operatorname{cumsum}(\cdot)$ は累積和の関数である. $\alpha$ において 1 がたつ要素の要素番号がその単語のコード長を表している. 微分可能な形で one-hot べクトルを学習するために Gumbel Softmax [9]を用いて, $\alpha$ を以下のように計算する. $ \begin{aligned} \alpha_{i} & =\operatorname{softmax}_{\tau}\left(\log \beta_{i}+G_{i}\right) \\ & =\frac{\exp \left(\left(\log \beta_{i}+G_{i}\right) / \tau\right)}{\sum_{j=1}^{m} \exp \left(\left(\log \beta_{j}+G_{j}\right) / \tau\right)} \end{aligned} $ 式 4 の $G_{i}$ は Gumbel 分布 $-\log (-\log ($ Uniform $[0,1]))$ からサンプリングされるノイズであり, $\tau$ は温度パラメタである. $\beta$ は単語べクトルを入力とする 2 層のニューラルネットワーク $\mathrm{f}(\cdot)$ によって計算する. $ \beta=\mathrm{f}(x)=\operatorname{softplus}\left(W \tanh \left(W^{\prime} x+b^{\prime}\right)+b\right) $ $W \in \mathbb{R}^{d \times d}$ と $W^{\prime} \in \mathbb{R}^{d \times d}, b, b^{\prime}$ は学習パラメタである.実験では $\tau=0.1$ とした。 ## 3.3 目的関数 単語ごとにバイナリコードの長さを可変とするモデルの学習によって,目的タスクにおける重要語には長いコードを,非重用語には短いコードを割り当てる。このとき,コーパスによってはすべての単語のコード長が最大長に収束するおそれがあるため, コード長に関する制約項を加えた。目的タスクにおける学習の目的関数を以下の式 6 に示す. $ L=L_{\text {task }}+\lambda_{2} \frac{1}{m} \sum_{i=0}^{m} g_{i} $ 表 1 各タスクに用いたコーパスのサイズ. 式 6 の第一項 $L_{\text {task }}$ は各タスクにおける目的関数である. 第二項はコード長に関する制約項である. $\lambda_{2}$ は定数であり,実験では 0.0001 とした. 先行研究 [6] から事前学習の導入によって目的夕スクにおけるモデル精度が向上することが明らかになっている. 本研究では再構成誤差に基づく事前学習をした後に目的タスクにパラメタを適応させた。事前学習の目的関数を以下の式 7 に示す. $ L_{\text {pre }}=\frac{1}{m} \sum_{i=0}^{m}\left(x_{i}-\hat{x_{i}}\right)^{2}+\frac{\lambda_{1}}{2}\left.\|W_{\text {dec }} W_{e n c}-I\right.\|^{2} $ $\lambda_{1}$ は定数であり,実験では 0.01 とした. 式 7 の第一項は入力単語ベクトルの再構成誤差, 第二項はバイナリコードの各要素が異なる観点の情報を Encode し, 浱性を減らすような正則化項である. 事前学習のとき $W_{\text {dec }}$ と $W_{\text {enc }}$ は同じパラメタとなるようパラメタを共有した.また,事前学習時はモデルからゲート機構を取り除いた。 ## 4 実験 ## 4.1 実験設定 再構成誤差による事前学習と目的タスクにおける fine-tuning の 2 ステップの学習を行った. コードの最大長 $m$ は 32,64,128の 3 種を比較した。異なるコード長に設定された 4 つの AutoEncoder を用いる AdaComp [6] については $(\mathbf{1 2 8}, 64,32,16),(\mathbf{6 4}, 32,16,8)$, $(\mathbf{3 2}, 16,8,4)$ の 3 種を比較手法とした. コードの事前学習 300 次元の単語ベクトル GloVe ${ }^{1)}$ を使用した. 目的タスクにおける fine-tuning を前提としていない手法と公平な比較を行うため,実験では目的タスクに fine-tuning した GloVeを学習済みの単語ベクトルとして用いた。学習には Adam を使用し学習率は 0.001 , バッチサイズは 64 とした. タスク適応したコードの学習評価に用いたタスクを表 1 に示す. 学習には GloVe 中に存在する語彙のみを使用した. 学習の高速化のため DBpedia [12]  は単語ベクトルの平均を,それ以下のタスクでは 2 層からなる LSTM の各タイムステップ出力の平均を文ベクトルとした,LSTM のユニット数は 450,識別層として 1 層のニューラルネットワークを使用した. 学習には Adam を使用し学習率は DBpedia のみ 0.0001,それ以外のタスクには 0.001 を用いた,バッチサイズは 64 とした. ## 4.2 実験結果 最大バイナリコード長を変えて実験したときの識別精度と圧縮率を表 2 に示す. 表 2 より, DBpedia 以外のタスクにおいタスクで圧縮前の単語ベクトル GloVe finetuneよりも圧縮語の単語ベクトルの方がタスクの識別精度が高い。同様の結果は先行研究 $[4,5,6]$ でも報告されており, 強い正則化による効果だと考察されている.コードブック (Decoder) の重み共有により低頻度語の学習が簡単になった点,識別タスクにおいて区別する必要のない単語 (Tom と Mary 等) がバイナリ化によってより近いベクトルとなり後段の LSTM の学習が容易になった点が理由として考えられる. DBpedia は多くの学習データを用いた学習が行えるため, 正則化が必要なかったと考えられる. 小規模コーパスにおけるモデルの学習において過学習を防ぐ正則化は重要であり,単語ごとにコード長を可変とする提案法はこの正則化の効果をタスクの非重要語に対してより強めるものである. コード長を可変とする手法 (AdaComp,Ours) はコード長固定の手法 Bin よりも高い精度を示した.特に提案法は AdaComp よりも精度が高く, 圧縮率も高くなった. 次の 2 つの点から精度が向上したと考えられる.1つ目はより多様なコード長を選択できる点である. AdaComp はコード長ごとに AutoEncoderを用意するために,コード長の種類を増やすとパラメタが増えて学習が難しくなる.提案法はパラメ夕数はそのままに最大コード長と同じ数だけコード長の種類を用意できるため,より細かく冗長性を排除できる. 2 つ目は重み共有により学習が容易になった点である.異なるコード長を持つ単語間での重み共有により低頻度語学習の効率化が精度向上につながったと考えられる. DBpedia コーパスにおいて,コード長を可変とする提案法は Bin と比較して圧縮率が大きく向上した。語彙サイズが大きいコーパスほど,多くの非重要語が出現するためより多くのパラメタを消去できためである. 表 2 各タスクにおけるバイナリコードを用いる手法の実験結果. 図 2 各コード長が割り当てられた語彙と感情語の平均出現回数. ## 5 コード長の分析 提案法を学習した結果得られたバイナリコードについて,2つの分析をした. 提案モデルの学習には SST5コーパスを用いた. コード長と語彙の出現回数各コード長が割り当てられた語彙と感情語について,SST5コーパスにおける出現回数の平均を図 2 に示す. 感情語は感情語辞書 [13]に含まれている語のうち SST5 コーパスに出現した語を使用した. 図 2 より, 出現回数の多い語には長いコードが割り当てられる傾向があるが, 出現回数の多い語がコード長 14 や 20 から 24 あたりに特に多く存在していることがわかった. 個々のバイナリコードを見ると"the"や"on"のように文の感情極性に依存しないが出現回数の多い語がコー ド長 14 や 20 から 24 に多く存在していた. 対して, コード長ごとの感情語の平均出現回数の違いに傾向は確認できなかった。 図 3 各コード長が割り当てられた語彙のうち,感情語の比率. コード長と感情語の比率各コード長が割り当てられた語彙のうち,その語が感情語である比率を図 3 に示す. 長いコードほど感情語の比率が高くいことがわかった. 提案法によって感情語のようなタスクにおける重要語に長いコードが割り当てられる。 ## 6 おわりに 本研究では単語分散表現の圧縮を目的として,単語ごとのパラメタ数を可変とするゲート機構を提案した. 提案法はモデルの精度を落とすことなく従来法を上回る圧縮率を達成した。感情分析タスクにおいて感情語に多くのパラメタ (長いコード) が割り当てられていたことから,提案するゲート機構の導入によって,期待通りにタスクにおける重要語に多くのパラメタを割り振られ非重要語には少ないパラメタを割り振られることが分かった. ## 参考文献 [1] Maximilian Lam. Word2bits - quantized word vectors. arXiv:1803.05651v3, 2018 [2] Andrew L. Maas, Raymond E. Daly, Peter T. Pham, Dan Huang, Andrew Y. Ng, and Christopher Potts. Learning word vectors for sentiment analysis. In $A C L, 2011$. [3] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In $A C L, 2016$. [4] Raphael Shu and Hideki Nakayama. Compressing word embeddings via deep compositional code learning. In ICLR, 2018. [5] Julien Tissier, Christophe Gravier, and Amaury Habrard. Near-lossless binarization ofword embeddings. In $A A A I$, 2019. [6] Yeachan Kim, Kang-Min Kim, and SangKeun Lee. Adaptive compression ofword embeddings yeachan. In $A C L$, 2020. [7] Jeffrey Pennington, Richard Socher, and Christopher Manning. Glove: Global vectors for word rep- resentation. In EMNLP, 2014. [8] Geoffrey E. Hinton. Neural networks for machine learning.coursera, video lectures. 2013. [9] Eric Jang, Shixiang Gu, and Ben Poole. Categorical reparameterization with gumbel-softmax. In ICLR, 2017. [10] Richard Socher, Alex Perelygin, Jean Y. Wu, Jason Chuang, Christopher D. Manning, Andrew Y. Ng, and Christopher Potts. Recursive deep models for semantic compositionality over a sentiment treebank. In EMNLP, 2013. [11] Ellen M Voorhees and Dawn M Tice. The trec-8 question answering track evaluation. In TREC, 1999. [12] Xiang Zhang, Junbo Zhao, and Yann LeCun. Characterlevel convolutional networks for text classification. In NIPS, 2015. [13] Minqing Hu and Bing Liu. Mining and summarizing customer reviews. In $K D D, 2004$.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A1-4.pdf
# 極座標を用いた階層構造埋め込み 岩本蘭 慶應義塾大学 r.iwamoto@keio.jp } 小比田涼介 日本アイ・ビー・エム株式会社 東京基礎研究所 kohi@ibm.com ## 1 はじめに 実世界の階層構造を表現することは自然言語処理の多くのタスクにとって重要である $[1,2]$. 近年単語の階層構造を埋め込んだ分散表現の研究が活発に行われ $[3,4]$ ,その中でも双曲空間を用いた分散表現が話題になった $[5,6,7]$. 双曲空間は体積が原点からの距離に応じて指数関数的に広がるため低次元で階層構造を表現するのに適している. しかし双曲埋め込みを用いる際には応用タスクのモデルも双曲空間で動作するように変更する必要があり [8], ユークリッド空間で学習された多くの手法を活用することが難しい [9]. そこで我々は汎用性の高いユークリッド空間で分散表現を学習する。 本稿では極座標を用いて単語を図 1 のように低次元のユークリッド空間に埋め込む Polar Embedding について述べる. Polar Embedding では単語の抽象度を半径 (原点からの距離) で,類似度を角度で表現する。極座標の特徵を活かしながら角度を最適化するために Welsch 損失 [10] と Stein Variational Gradient Descent (SVGD) [11]を用いる. WordNet の link prediction タスクで性能評価を行い, Polar Embedding は低次元ユークリッド空間で学習された既存の分散表現より高精度を達成し, 双曲空間の分散表現と同等の性能を達成した。 ## 2 Polar Embedding Polar Embedding では極座標の半径と角度を用いて単語を表現する.本節ではまず極座標での単語べクトルの定義について述べ,その後角度の最適化について述べる。 ユークリッドノルムを $\|\cdot\|$, 半径を $r_{\text {max }} \in \mathbb{R}$ とする. 単語 $w$ は $n$ 次元の開球 $\mathscr{W}^{n}=\left.\{\mathbf{w} \in \mathbb{R}^{n} \mid\|\mathbf{w}\|<\right.$ $\left.r_{\max }\right.\}$ 内の極座標べクトル $\mathbf{w}=\left(r, \theta, \varphi^{1}, \varphi^{2}, \ldots, \varphi^{n-2}\right)$ で表現される. ここで $r \in\left(0, r_{\max }\right), \theta \in[0,2 \pi), \varphi^{k} \in$ $(0, \pi), k=1,2, \ldots, n-2$ である. 例えば, 3 次元極座標での角度は図 2 のように表される。 図 1: Polar Embedding の概要. 半径を用いて単語の抽象度を,角度を用いて類似度を表現する。 ## 2.1 半径 半径 $r$ は単語の抽象度を表す. 一般的には具体的な単語のほうが抽象的な単語よりも多いため, 具体的な単語を空間の中心から離れた場所に配置することで空間を効率的に使う.例えば,“bulldog”や “wooden chair" より “mammal" や“furniture” のほうが抽象度が高いため $r$ を小さく設定する. 半径 $r$ は頻度情報などを用いて定めることができる. 本論文では $r$ は学習せず,WordNet 内のエッジや,その単語と上位下位ぺアとなる単語の多さから求める. ## 2.2 角度 角度 $\left(\theta, \varphi^{k}\right)$ は単語の類似度を表す. 既存の分散表現と同様に,類似した意味を持つ語同士は近く, そうでない語は遠くなるように角度を学習する。極座標は図 3 のように角度の範囲が制限されているため, $r=1$ とすると, $\theta$ は円周上で, $\varphi^{k}$ は半円上で最適化される。 2 つの単語 $w_{i}, w_{j}$ があるとき, $\theta$ は図 3 の左図のように $[0,2 \pi)$ の円周上を動く. $\theta_{w_{i}}$ と $\theta_{w_{j}}$ の距離は円周上の短いほうの弧とし,以下のように定義する。 $ d\left(\theta_{w_{i}}, \theta_{w_{j}}\right)=\min \left(2 \pi-\left|\theta_{w_{i}}-\theta_{w_{j}}\right|,\left|\theta_{w_{i}}-\theta_{w_{j}}\right|\right) $ 角度 $\varphi^{k} \in(0, \pi)$ は図 3 の右図のように半円上を動き, $\varphi_{w_{i}}^{k}$ と $\varphi_{w_{j}}^{k}$ の距離は次式で表す. $ d\left(\varphi_{w_{i}}^{k}, \varphi_{w_{j}}^{k}\right)=\left|\varphi_{w_{i}}^{k}-\varphi_{w_{j}}^{k}\right|, \forall k \in\{1, n-2\} $ 図 2: 3 次元極座標での角度の定義 意味が似ている単語ぺアの角度はそれぞれの次元において,上で定義した距離を小さくする方向に最適化される。極座標での角度の最適化には少し工夫を加える必要がある. 低次元ユークリッド空間の超球面,つまり小さな空間で角度を最適化する場合,単語が空間内の一部分に集中しすぎないよう補正を加え,限られた空間を効率的に使いたい,それを実現するための最適化手法を紹介する。 ## 2.3 角度の最適化 本節では角度の最適化について述べる. デカルト座標と異なり,極座標の角度は次元ごとに値域が制限されている。一般的に用いられる二乗誤差関数 $y=x^{2}$ は, 図 4 の黒い線で示すように $x$ が大きいほど $y$ が大きくなり,すでに距離が十分離れている単語に対しても単語を遠ざける力が強い. そのため, negative sampling の際に単語が互いに遠ざかりすぎて角度が值域の端にたまってしまう,すなわち単語が極に集中する現象が生じる. 低次元空間を有効に使うためには,空間内に単語がばらけて分布するようにしたい。単語をばらけたままにしながら最適化を行うために, 図 4 の青い線で示す Welsch 損失 [10] と,単語の分布を超球面上での一様分布にする Stein Variational Gradient Descent (SVGD [11]) を用いる. Welsch 損失 Welsch 損失 $\mathscr{L}_{w}(d)$ は図 4 の青線のように角度の勾配に制限があり, $d$ が大きいと勾配は小さくなる。そのため単語同士が似ていない,つまりすでに十分角度の差が大きい時には更新の値が小さくなる仕組みになっている. Welsch 損失は次のように定義される. $ \mathscr{L}_{w}(d)=\frac{c^{2}}{2}\left[1-\exp \left(-\frac{d^{2}}{2 c^{2}}\right)\right] $ $d$ は式 1 で示した 2 つの単語のある次元の角度の差, $c$ はパラメータである. 勾配は次式で表される. $ \frac{\partial \mathscr{L}_{w}(d)}{\partial d}=\frac{d}{2} \exp \left(-\frac{d^{2}}{2 c^{2}}\right) $ 図 4: Welsch 損失 (青) と二乗誤差関数 (黒) の概形 (左) と勾配 (右) SVGD 低次元のユークリッド空間をより効率的に使う,つまり単語の類似関係を表現しつつ $(r=1$ としたときに) 超球面上に単語をばらつかせるためにSVGDを用いる。 SVGD では再生核ヒルベルト空間 $\mathscr{H}^{d}$ で理想分布 $p$ と現在の分布 $q$ の Kernelized Stein Discrepancy (KSD) $S(\cdot, \cdot)$ を次式のように定義し, KSD を最小化することによって KL divergence を最小化する。 $ \mathcal{S}(q, p)=\max _{\phi \in \mathscr{\mathscr { H } ^ { d }}}\left.\{\mathbb{E}_{x \sim q}\left[\mathscr{A}_{p} \phi(x)\right]\right.\} $ ここで $A_{p} \phi(x)=\phi(x) \nabla_{x} \log p(x)+\nabla_{x} \phi(x)$ であり, 式 5 の最適解は次のように得られる。 $ \phi_{p}^{*}\left(x^{\prime}\right)=\mathbb{E}_{x \sim q}\left[\kappa\left(x, x^{\prime}\right) \nabla_{x} \log p\left(x^{\prime}\right)+\nabla_{x} \kappa\left(x, x^{\prime}\right)\right] $ $\kappa: ~ X \times X \rightarrow \mathbb{R}$ は一定の条件を満たす正定值カーネルであり, 例えば $\mathrm{RBF}$ カーネル $\kappa\left(x, x^{\prime}\right)=$ $\exp \left(-\gamma\left.\|x-x^{\prime}\right.\|^{2}\right)$ が当てはまる. SVGD は Welsch loss を用いた訓練の試行回数ごとに行われる. 超球面上に単語が一様に分布するときのそれぞれの次元の角度分布 (理想分布) を数式で表すことは難しいので, Gaussian Mixture model (GMM) で近似した分布を理想分布として用いる。 ## 3 実験 我々は WordNet の mammal/noun subtree [12]を用いて分散表現を学習した. Polar Embedding の定性的/定量的評価と,角度の最適化に用いた Welsch 損失と SVGD の効果について検証した。 ## 3.1 データセット mammal/noun subtree は WordNet のツリーから単語ペアを抽出したデータセットで,単語ペア $\left(w_{i}, w_{j}\right)$ の間にエッジが存在するとき, $w_{i}$ は $w_{j}$ の上位語である. mammal subtree には 6540 ペア, noun subtree には 743300 ペアが含まれる. 双曲空間の分散表現の定量評価として多く用いられる link prediction [5,13] 図 5: WordNet mammal subtree で学習した Polar embedding表 1: WordNet noun subtree での link prediction タスクの結果. (E) と $(\mathrm{H})$ はユークリッド空間と双曲空間を表す. は, noun subtree の単語ペアの間にエッジが存在するかを予測することで,分散表現が単語間の階層構造をどの程度埋め込んでいるかを検証するタスクである. まず mammal subtree で 2 次元の Polar Embedding を学習し定性的評価を行い,その後 noun subtree を用いて link predictionを行った. ## 3.2 実験設定 ここでは Polar Embedding の実験設定について述べる. Polar Embedding では半径 (抽象度) と角度 (類似度) は別々のパラメータで表されるため, 半径 $r$ を WordNet のエッジの深さから求め, 角度をエッジでつながった単語ぺアの集合から学習した。 半径の設定 WordNet $の \mathrm{mammal} /$ noun subtree $の$ データセット全体からエッジの深さを推定する $r^{g}$ と, 訓練データの単語ペアのみからエッジの深さを推定する $r^{e}$ を作成した. 単語 $w_{i}$ の半径 $r^{e}$ は, エッジの数 $e_{i}$ を用いて $r_{i}^{e}=1-z\left(\log \left(e_{i}+1\right)\right)$ と定義し, $r^{g}$ は階層中の子の数 $l_{i}$ とツリ一の最大高さ $h_{i}$ を用いて $r_{i}^{g}=1-z\left(h_{i}+\log \left(l_{i}+1\right)\right)$ と定義する. $z$ は正規化関数であり $, r^{e}, r^{g}$ とも 0,1 の範囲をとる. 直感的に表現すると, $r^{g}$ のほうがより多くの情報から半径を作成していて,ツリーの根の近くにあり多くの子を持つ単語の抽象度が高い. それに対して $r^{e}$ では多くの単語とつながっている単語の抽象度が高い. 実用的には $r$ は頻度情報など単語の抽象度を表す他の尺度でも代用することができる。 角度の学習角度を学習する際にはエッジでつながった語同士は positive sample, そうでない語のぺア は negative sample とした. mammal subtree では 2 次元 (角度の次元は 1), noun subtree では既存研究に倣い 5 次元と 10 次元 (角度の次元は 4 または 9)の分散表現を学習した。 評価関数ある単語ぺアが上位下位関係にあるかどうかには,単語の抽象度と類似度の両方が関係すると仮定する.そこで,まず次のように類似度を評価する関数 $s_{a}$ と単語の抽象度 (半径) の差を評価する関数 $s_{r}$ の 2 つを用意した。 $ \begin{aligned} s_{a}\left(w_{i}, w_{j}\right) & =\frac{f\left(w_{i}\right) \cdot f\left(w_{j}\right)}{\left.\|f\left(w_{i}\right)\right.\|\left.\|f\left(w_{j}\right)\right.\|} \\ s_{r}\left(w_{i}, w_{j}\right) & =\left|r_{i}-r_{j}\right| \end{aligned} $ $f$ は極座標からデカルト座標への変換 [14]を表す. ある単語ペアの間にエッジが存在するとき,2つの単語 $w_{i}$ と $w_{j}$ のなす角 (類似度) が一定以上小さく, 2 つの単語の半径の差 (抽象度の差) が一定以上大きいと仮定する. エッジが存在するかどうかの分類は $s_{a}$ と $s_{r}$ を組み合わせ, validation データを用いて決定した閾値 $\tau$ を用いて次式のように判定した。 $ s\left(w_{i}, w_{j}\right)= \begin{cases}1 & \text { if } s_{a}\left(w_{i}, w_{j}\right)>1-\tau s_{r}\left(w_{i}, w_{j}\right)^{2} \\ 0 & \text { otherwise }\end{cases} $ ## 4 結果と分析 ## 4.1 Mammal Subtree WordNet mammal subtree で 2 次元の Polar Embedding を学習した結果を図 5 に示す。単語は角度の偏りなく分布し, 様々な階層構造を見つけることができる。例えば, “cat”と “dog”は “carnivore”の下位語であり, (a) 二乗誤差 (b) Welsch 損失 (c) Welsch 損失 + SVGD 図 6: WordNet noun subtree で学習した 5 次元分散表現の 2 次元部分 “carnivore”から見た扇形の中に存在する.さらに “dog” の下位語である “hunting dog” “terrier” との階層関係や “lion” と “wildcat” が “cat” の下位語であることが読み取れる。種の階層性も埋め込まれてお $り$ ,例えば "aquatic mammal" $\rightarrow$ "cetacean" $\rightarrow$ "seal", “dolphin”という関係性や "primate" $\rightarrow$ "monkey" $\rightarrow$ "gorilla”, “ape”といった関係性が読み取れる. 抽象度の差を考慮せず,類似度のみを考慮したい場合は既存の分散表現と同様に $\cos$ 類似度で単語間の関係を評価すればよく,Polar Embedding では用途に応じて類似度と抽象度を組み合わせることができる。 ## 4.2 Noun Subtree WordNet noun subtree での link prediction の結果を表 1 に示す. 性能評価として F1 スコアを用い,比較手法としてユークリッド空間の分散表現 (Order, Cone, Disk) とユークリッド距離を最小化する分散表現 (Simple) [13], 双曲空間の分散表現 (Poincaré, Cone, Disk) [4, 5, 13] を用いた. 5 次元の場合では Polar Embedding は $r^{g}, r^{e}$ どちらの場合でも既存手法より優れた性能を発揮している. また, 訓練に使用したエッジの割合が小さい時は,ユークリッド空間よりも双曲空間の分散表現とも同等の性能である. 10 次元の時には他のユー クリッド空間の分散表現と大きな差はないが同等の性能を達成している. これらの結果から, Polar Embedding は低次元 (5 次元) のユークリッド空間での性能は十分高いが,次元が増加した時の性能の伸び率の改善が今後の課題であることがわかる. 次に Welsch 損失と SVGD が角度の最適化に与えた影響を 5 次元の Polar Embedding を用いて分析した.まず $r$ と $\theta$ の 2 次元のみを図 6 に示す. 二乗誤表 2: Welsch 損失と SVGD の評価実験. 差 (図 6a)のみで学習した際は単語が左右に寄っているが, Welsch 損失 (図 6b)を用いると単語の分布が二乗誤差よりはばらけているのがわかる. Welsch 損失 $+\operatorname{SVGD}$ (図 6c)では円周上に一様に分布している. 定量評価を表 2 に示す. link prediction で訓練エッジ $10 \%, r=r^{g}$ の設定で行った実験では, Welsch 損失を用いた場合二乗誤差よりも性能が高く,SVGD と Welsch 損失を両方用いたほうがさらに高い F1 スコアを達成している。これらの結果から,低次元のユークリッド空間を有効に使うことが性能の向上に寄与していると考えられる。 ## 5 結論 本論文では単語を極座標で表現する Polar embedding を提案した. 単語の抽象度を半径で,類似度を角度で表現することにより抽象度と類似度を分けて最適化し,極座標で角度をうまく最適化するために Welsch 損失と SVGDを用いた。単語が極周辺に集まりすぎる現象を防ぐことで低次元のユークリッド空間を有効に活用した提案法は, link prediction タスクで既存手法のユークリッド空間で作成された分散表現を上回る精度を達成した. 今後の展望として教師無し学習や高次元への拡張,半径の学習が挙げられる. ## 参考文献 [1]Oktie Hassanzadeh, Debarun Bhattacharjya, Mark Feblowitz, Kavitha Srinivas, Michael Perrone, Shirin Sohrabi, and Michael Katz. Answering binary causal questions through large-scale text mining: An evaluation using cause-effect pairs from human experts. In IJCAI, 2019. [2]Alon Talmor, Jonathan Herzig, Nicholas Lourie, and Jonathan Berant. CommonsenseQA: A question answering challenge targeting commonsense knowledge. In $A C L$, page 4149-4158. [3]Luke Vilnis and Andrew McCallum. Word Representations via Gaussian Embedding. In ICLR, 2015. [4]Ivan Vendrov, Ryan Kiros, Sanja Fidler, and Raquel Urtasun. Order-Embeddings of Images and Language. In ICLR, 2016. [5]Maximillian Nickel and Douwe Kiela. Poincaré Embeddings for Learning Hierarchical Representations. In NeurIPS, pages 6338-6347. 2017. [6]Bhuwan Dhingra, Christopher Shallue, Mohammad Norouzi, Andrew Dai, and George Dahl. Embedding Text in Hyperbolic Spaces. In Proceedings of the Workshop on GraphBased Methods for Natural Language Processing, pages 5969, 2018. [7]Alexandru Tifrea, Gary Becigneul, and Octavian-Eugen Ganea. Poincare Glove: Hyperbolic Word Embeddings. In ICLR, 2019. [8]Octavian Ganea, Gary Becigneul, and Thomas Hofmann. Hyperbolic neural networks. In S. Bengio, H. Wallach, H. Larochelle, K. Grauman, N. Cesa-Bianchi, and R. Garnett, editors, NeurIPS, pages 5345-5355. 2018. [9]Lun Du, Zhicong Lu, Yun Wang, Guojie Song, Yiming Wang, and Wei Chen. Galaxy Network Embedding: A Hierarchical Community Structure Preserving Approach. In IJCAI, pages 2079-2085, 2018. [10]John E. Dennis and Roy E. Welsch. Techniques for nonlinear least squares and robust regression. Communications in Statistics - Simulation and Computation, 7(4):345-359, 1978. [11]Qiang Liu, Jason Lee, and Michael Jordan. A kernelized stein discrepancy for goodness-of-fit tests. In ICML, pages 276-284, 2016 [12]George A. Miller. WordNet: A Lexical Database for English. Coтmиn. ACM, 38(11):39-41, 1995. [13]Octavian.-E. Ganea, Gary. Becigneul, and Thomas. Hofmann. Hyperbolic Entailment Cones for Learning Hierarchical Embeddings. In ICML, pages 1646-1655, 2018. [14]LE Blumenson. A derivation of n-dimensional spherical coordinates. The American Mathematical Monthly, 67(1):6366, 1960
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A2-1.pdf
# 機械翻訳のためのチェックリスト 星野 翔 株式会社みらい翻訳 * shhshn.shohoshino@gmail.com ## 1 はじめに ニューラル機械翻訳(NMT)の進歩は翻訳精度の向上に必ずしも結びついていない。一般に NMT の出力は流暢性 fluency が高いが、正確性 adequacy に難があると言われており [1]、統計的機械翻訳 (SMT) の出力より正確性が悪化する場合すらある。 その原因のうちに、過剰生成 over-generation や過少生成 under-generation と呼ばれる現象がある。 NMT の出力には過不足があり、入力にない情報を過剰に出力したり、入力にある情報を欠落させることがある。SMT では、入力を組み替えて出力を構成していたため、これら現象は原理上発生しにくかった。 こうした膠着状態からの脱却を目指して、我々は新しいタスク「機械翻訳のためのチェックリスト」 を提案する。このタスクの目的は、参照訳を用いず、機械翻訳の入出力から文レべルの自明な誤りを検出することで、翻訳精度を底上げすることである。具体的には、NMT で数多く報告される過剩生成・過少生成を検出するが、誤訳 mistranslation は検出しない。このチェックリストには二通りの利用方法があり、1. NMT に適用することで最低限の質を担保できるし、2. 対訳データに適用することで対訳ノイズを発見できる。またブラックボックスの NMT を対象として、特定のアーキテクチャに依存しない。後者の利用方法のように対象システムが NMT でなくとも良い。出力のスコア化はチェックリストの対象外である。 従来、機械翻訳の誤り検出のタスクとしては、主に自動評価、誤り分析、品質推定 (QE) の三種類が用いられている。1. 自動評価は、出力と参照訳の近さをスコア化するタスクで、BLEU [2] が代表的な尺度である。2. 誤り分析 $[3,4,5]$ は、参照訳に基づき出力の誤りを分類するタスクで、スコア化を目的  としない点で提案手法に最も近い。3. $\mathrm{QE}[6,7]$ は、参照訳を用いず出力を評価するタスクで、文レベルでは HTER [8] に基づき出力の後編集に必要な回数をスコア化する。このように、従来研究とチェックリストは似て異なる目的を持つため、新しいタスクとして提案する。 ## 2 提案手法 ここから我々によるチェックリストの実装案である、単語アライメントに基づくチェックリストを説明する。提案手法では、NMT の入出力の他に、単語アライメントが利用可能であると仮定する。単語アライメント利用の是非は後述するが、基本的に対訳データで単語アライメントを教師なし学習し、 force align によって予測する。単語はサブワード [9] またはバイト [10] でも良い。 つまり NMT の入力または対訳データの原言語文 (以下、入力)を $\mathcal{X}=\left[x_{1}, \ldots, x_{X} \mid X \in \mathbb{Z}\right] 、$ NMT の出力または対訳データの目的言語文 (以下、出力) を $\mathcal{Y}=\left[y_{1}, \ldots, y_{Y} \mid Y \in \mathbb{Z}\right]$ 、さらに入出力間の単語アライメントを $\mathcal{A}=\{(f, e) \mid 1 \leq f \leq X \wedge 1 \leq e \leq Y\}$ と定義する。提案手法には三つ組 $(\mathcal{X}, \mathcal{Y}, \mathcal{A})$ が与えられ、 0 または 1 を出力して終了する。文レベルで何らかの誤りを検出できれば 1 を出力し、誤りを全く検出できなければ 0 を出力する。 提案手法は、基本的な考え方として、なるべく再現率が高くなる検出方法を目指す。そうでなければチェックリストとしての信頼性を損うためである。 そこで具体的には、過剩生成・過少生成の検出を 1 .反復、2. 中断、3. 過剰生成、4. 過少生成の四つのサブタスクに細分化する。そして個々の性能を測定・改善することで、チェックリスト全体としての性能の向上を試みる。各サブタスクへの取り組み方を以下順に説明する。 ## 2.1 反復 過剩生成の特殊ケースで、あるフレーズが繰り返し出力される現象を仮に反復 repetition と呼ぶ。反復は、入力に繰り返しが含まれない限り、出力に繰り返しが含まれるか否かで検出できる。1) つまり入出力について、繰り返しが含まれる出力 $\mathcal{Y}^{\prime}=\left[y_{1}, \ldots, y_{i}, \ldots, y_{j}, y_{i}, \ldots, y_{j}, \ldots, y_{Y^{\prime}} \mid 1 \leq i, j \leq\right.$ $\left.Y^{\prime}\right]$ が空集合にならず、一方で繰り返しが含まれる入力 $\mathcal{X}^{\prime}=\left[x_{1}, \ldots, x_{k}, \ldots, x_{l}, x_{k}, \ldots, x_{l}, \ldots, x_{X^{\prime}} \mid 1 \leq\right.$ $\left.k, l \leq X^{\prime}\right]$ が空集合になり、同時に成り立たないものとする。このとき 1 を出力する。 ## 2.2 中断 過少生成の特殊ケースで、入力のごく一部分に相当する情報しか出力されない現象を仮に中断 termination と呼ぶ。中断は、入出力の長さ比が極端に変化しない限り、入出力の長さ比に閾値を設けることで検出できる。2) つまり入力の単語数 $X$ と出力の単語数 $Y$ を見比べて、長さ比の閾値 $r \in \mathbb{R}$ について $\frac{Y}{X} \leq r$ ならば中断とみなし 1 を、 $\frac{Y}{X}>r$ ならば 0 を出力する。間值 $r$ は提案手法のハイパーパラメータであり、本研究では事前実験で性能が良かった $r=0.5$ を用いる。 ## 2.3 過剰生成と過少生成 入力に含まれない情報の出力を過剩生成、入力に含まれる情報の出力での欠落を過少生成と呼ぶ。例えば、湧き出しは過剩生成であり、訳抜けは過少生成である。過剩生成・過少生成の検出は難しいため、まず反復・中断を取り除く。その上で、信頼性の高い単語アライメントが利用可能であると仮定し、単語アライメントを用いて判定する。 ## 2.3.1 過剩生成 過剰生成では、入力に含まれない出力情報の有無を単語アライメントで判定する。しかし、単語アライメントが null の単語を誤判定する可能性がある。例えば、英語の冠詞 the などストップワードが該当する。そこで安全幅 $n \in \mathbb{Z} を$ 設けて、前後 $n$ 単語を含むフレーズ全体が null かどうかで判定する。 1)OpenNMT [11] に似た機能が実装されているが、翻訳精度低下の恐れがある NMT ビーム探索中の検出ではなく、出力後の検出を目的としたい。 2)目的が異なるが、入出力の長さ比を用いて NMT ビーム探索を補正する手法 [12] が提案されている。 つまり $\mathcal{Y}^{\prime \prime}=\left[y_{1}, \ldots, y_{e}, \ldots, y_{Y^{\prime \prime}} \mid 1 \leq e \leq Y^{\prime \prime} \wedge\right.$ $\left.\left(f, e^{\prime}\right) \notin \mathcal{A} \wedge e-n \leq e^{\prime} \leq e+n\right]$ が空集合でなければ 1 を出力する。安全幅 $n$ も提案手法のハイパーパラメータであり、本研究では事前実験で性能が良かった $n=3$ を用いる。 ## 2.3.2 過少生成 過少生成では、出力に含まれない入力情報の有無を単語アライメントで判定する。過少生成でも、過剩生成と同じく共通の安全幅 $n$ を用いて、前後 $n$ 単語を含むフレーズ全体が null かどうかで判定する。 つまり $\mathcal{X}^{\prime \prime}=\left[x_{1}, \ldots, x_{f}, \ldots, x_{X^{\prime \prime}} \mid 1 \leq f \leq X^{\prime \prime} \wedge\right.$ $\left.\left(f^{\prime}, e\right) \notin \mathcal{A} \wedge f-n \leq f^{\prime} \leq f+n\right]$ が空集合でなければ 1 を出力する。 ## 2.4 単語アライメント利用の是非 このような利用に耐えうる信頼性の高い単語アライメントの入手は難しい。NMT で一般的なアテンションは単語アライメントではない。そのため NMT と単語アライメントをジョイントないしマルチタスクで学習する研究 $[13,14]$ がある。提案手法では、特定の手法に依存しないために、別途学習・予測された単語アライメントが与えられると仮定する。 こうしてチェックリストの準備が整ったため、実世界のデータを用いてその性能と有効性を明らかにする。 ## 3 実験 ## 3.1 実験設定 提案手法を NMT の出力および対訳データへそれぞれ適用し、チェックリストとしての利用に耐えうるか検証する。単語アライメントの信頼性の観点で、NMT の出力は対訳データより難易度が高くなると予想される。そのため、適用対象を 1 . 単語アライメントの学習に使用した対訳データ、2. その他の対訳データ、3. NMT の出力と三種別に細分化し有効性を検証する。提案手法の評価方法としては、性能の定量化が難しいため、人手で定性的に分析する。 NMT は、fairseq v0.10.2 [15] と英独翻訳モデル [16] を組み合わせて使用する。WMT2018 [17] のニュース分野で良い成績を収めた訓練済みの翻訳モデルが一般公開されており、再現実験が容易なため & & & \\ 中断 & 0 & 13 & 5 \\ 過剰生成 & 35,472 & 14 & 3 \\ 過少生成 & 38,034 & 18 & 2 \\ 検出せず & $5,149,766$ & 2,958 & 2,988 \\ 表 1 提案手法によるチェックリストの対象と実験結果 対象に選定する。もちろん他の機械翻訳システム・翻訳モデルでも構わない。単語アライメントは、fast_align [18] を使用して WMT2018 の学習データから教師なし学習する。性能向上のため、英独と独英の両方向で学習し、最後に grow-diag-final-and ヒューリスティックを使用して多対多 many-to-many の単語アライメントに仕上げる。学習データ以外については force align で予測し、同様の手順で多対多の単語アライメントを出力する。 実験データは、同じく WMT2018 の学習データ (以下 wmt18)と評価データ(以下 news18)に加えて、開発データとして WMT2012 [19] の評価データ (以下 news12)を使用する。データ作成方法など実験設定の詳細は付録 A で説明する。 ## 3.2 実験結果 表 1 に、提案手法によるチェックリストの出力結果をデータ種別とサブタスク別に示す。四つのサブタスクの何れでも誤りを検出できなかった場合は 「検出せず」に分類した。提案手法は約 $1 \%$ のデータで文レベルの誤りを検出した。 まずデータ種別による違いとして、反復・中断の有無があった。本研究では NMT の出力である news18 に反復が発生しなかったが、対訳データ中に反復の対訳ノイズが存在していた wmt18 では検出に成功した。反対に、news18 では中断が発生したが、wmt18では検出できなかった。 次にサブタスクによる違いとして、wmt18 での反復・中断の少なさに対して、過剰生成・過少生成の多さが際立った。単語アライメントの利用により対訳ノイズの大半を過剩生成・過少出力に分類できた ことが要因と考えられるが、一方でストップワードの誤検出も多く、過剩生成・過少生成をさらに細分化する必要性も示唆される。 図 1 に、対訳データでの実際の検出例を示す。例えば、wmt18 の反復では、文全体が繰り返されている明らかな対訳ノイズを検出できた。また news12 での中断では、英語入力に対して独語出力が不自然に短い対訳ノイズを検出できた。また wmt18 と news12 の両方で過剰生成・過少生成を検出できている。特に news12 の過少生成では、一見「Poland」を 「Pole」と訳せているが、「Polen」と訳すべきだったと考えられる。このように、提案手法の有効性を確認できたものの、チェックリストとしての性能にはまだまだ改善の余地がある。 ## 3.3 議論 チェックリストの性能を地道に改善していくことで当初の目的である NMT の翻訳精度の底上げを実現できるだろうか。提案手法は単語アライメントが利用可能であるという強い前提を置いているが、この問題設定にいささか無理があるとも言える。仮に完璧な単語アライメントを利用できれば、NMT の自動評価は事実上完成するし、また NMT そのものを学習し直すことができるため、機械翻訳と同等以上に難しい部分問題を前提としている疑いがある。 このような疑問には以下のように応えたい。まず機械翻訳の評価そのものは人間にとっても難しい [20] が、単語アライメントを人手で作成するタスクの一致率は比較的高く、教師なし学習による機械化もある程度進んでいる。そのため、単語アライメン卜は機械翻訳やその評価より難易度が低い部分問題と言える。また実世界では、NMT の誤訳検出にも増して、NMT の信頼性に直結する過剩生成・過少生成の検出が喫緊の課題となっている。そのため我々は、過剩生成・過少生成の検出を目的とする単語アライメントの利用を妥当な落とし所と考える。 ## 4 関連研究 機械翻訳の自動評価には、n-gram の適合率に基づくBLEU [2] や SacreBLEU [21] が広く用いられている。また順位相関係数に基づく Birch と Osborne [22] や Isozaki ら [23] の研究がある。単語アライメントに基づく手法としては、松尾ら [24] の研究がある。 機械翻訳の誤り分類では、人手分類のための Vilar } & 独語出力 & Neue Bilder von DOFUS 2.0 ! Neue Bilder von DOFUS 2.0 ! \\ 図 1 提案手法によるチェックリストの文レベル誤り検出例 ら [3] の研究がある。また自動的な誤り分類のため の Popović ら [4] や Akabe ら [5] の研究がある。 機械翻訳における参照訳を用いない $\mathrm{QE}[6,7]$ には、単語レベルと文レベルの 2 つのタスクがあるが、文レベルでは HTER [8] を予測する。具体的な手法としては predictor-estimator に基づく POSTECH [25] などが用いられる [26]。参照訳を用いず評価する点において、我々のチェックリストも志は同じである。 NMT における誤り検出の取り組みとしては、訳抜けの検出に NMT のアテンション及び逆翻訳を利用する後藤と田中 $[27]$ の研究がある。さらに対訳データの訳抜けを NMT のアテンションや単語アライメントから検出し、反復回数を人手で検出する後藤ら $[28]$ の研究がある。 ## 5 おわりに 本研究は機械翻訳のためのチェックリストという新しいタスクを考案し、その実装案として、単語アライメントに基づく手法を提案した。実世界での英独 NMT 翻訳モデルと対訳データを用いた実験で、提案手法のチェックリストとしての有効性を示した。提案手法の限界として、自明ではない誤訳を検出できず、また NMT への対処療法となっている欠点があり、今後の研究が待たれる。このチェックリストが有効活用されることで、将来的に NMT の翻訳精度が底上げされることを願う。 ## 参考文献 [1] Philipp Koehn and Rebecca Knowles. Six challenges for neural machine translation. In Proceedings of the First Workshop on Neural Machine Translation, pp. 28-39, 2017. [2] Kishore Papineni, Salim Roukos, Todd Ward, and Wei- Jing Zhu. BLEU: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, 2002. [3] David Vilar, Jia Xu, Luis Fernando D'Haro, and Hermann Ney. Error analysis of statistical machine translation output. In Proceedings of the Fifth International Conference on Language Resources and Evaluation, pp. 697-702, 2006 [4] Maja Popović and Hermann Ney. Towards automatic error analysis of machine translation output. Computational Linguistics, Vol. 37, No. 4, pp. 657-688, 2011. [5] Koichi Akabe, Graham Neubig, Sakriani Sakti, Tomoki Toda, and Satoshi Nakamura. Discriminative language models as a tool for machine translation error analysis. In Proceedings of the 25th International Conference on Computational Linguistics: Technical Papers, pp. 1124-1132, 2014. [6] John Blatz, Erin Fitzgerald, George Foster, Simona Gandrabur, Cyril Goutte, Alex Kulesza, Alberto Sanchis, and Nicola Ueffing. Confidence estimation for machine translation. In Proceedings of the 20th International Conference on Computational Linguistics, pp. 315-321, 2004. [7] Lucia Specia, Marco Turchi, Nicola Cancedda, Nello Cristianini, and Marc Dymetman. Estimating the sentencelevel quality of machine translation systems. In Proceedings of the 13th Annual conference of the European Association for Machine Translation, pp. 28-35, 2009. [8] Matthew Snover, Bonnie Dorr, Richard Schwartz, Linnea Micciulla, and John Makhoul. A study of translation edit rate with targeted human annotation. [9] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics, pp. 1715-1725, 2016. [10] Changhan Wang, Kyunghyun Cho, and Jiatao Gu. Neural machine translation with byte-level subwords. In Proceedings of the Thirty-Fourth AAAI Conference on Artificial Intelligence, pp. 9154-9160, 2020. [11] Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, and Alexander Rush. OpenNMT: Open-source toolkit for neural machine translation. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 67-72, 2017. [12] Yilin Yang, Liang Huang, and Mingbo Ma. Breaking the beam search curse: A study of (re-)scoring methods and stopping criteria for neural machine translation. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 3054-3059, 2018. [13] Lemao Liu, Masao Utiyama, Andrew Finch, and Eiichiro Sumita. Neural machine translation with supervised attention. In Proceedings of the 26th International Conference on Computational Linguistics: Technical Papers, pp. 3093-3102, 2016. [14] Sarthak Garg, Stephan Peitz, Udhyakumar Nallasamy, and Matthias Paulik. Jointly learning to align and translate with transformer models. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing, pp. 4453-4462, 2019. [15] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Demonstrations, pp. 48-53, 2019. [16] Sergey Edunov, Myle Ott, Michael Auli, and David Grangier. Understanding back-translation at scale. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 489-500, 2018. [17] Ondřej Bojar, Christian Federmann, Mark Fishel, Yvette Graham, Barry Haddow, Philipp Koehn, and Christof Monz. Findings of the 2018 conference on machine translation (WMT18). In Proceedings of the Third Conference on Machine Translation: Shared Task Papers, pp. 272-303, 2018. [18] Chris Dyer, Victor Chahuneau, and Noah A. Smith. A simple, fast, and effective reparameterization of IBM model 2. In Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. $644-648,2013$. [19] Chris Callison-Burch, Philipp Koehn, Christof Monz, Matt Post, Radu Soricut, and Lucia Specia, editors. Proceedings of the Seventh Workshop on Statistical Machine Translation, 2012. [20] Yvette Graham, Timothy Baldwin, Alistair Moffat, and Justin Zobel. Continuous measurement scales in human evaluation of machine translation. In Proceedings of the 7th Linguistic Annotation Workshop and Interoperability with Discourse, pp. 33-41, 2013. [21] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, 2018. [22] Alexandra Birch and Miles Osborne. LRscore for evaluating lexical and reordering quality in mt. In Proceedings of the Joint Fifth Workshop on Statistical Machine Translation and MetricsMATR, pp. 327-332, 2010. [23] Hideki Isozaki, Tsutomu Hirao, Kevin Duh, Katsuhito Sudoh, and Hajime Tsukada. Automatic evaluation of translation quality for distant language pairs. In Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing, pp. 944-952, 2010. [24] 松尾潤樹, 小町守, 須藤克仁. 単語分散表現を用いた単語アライメントによる日英機械翻訳の自動評価尺度. 情報処理学会研究報告, Vol. 2016-NL-229, No. 20, pp. 1-7, 2016. [25] Hyun Kim, Jong-Hyeok Lee, and Seung-Hoon Na. Predictor-estimator using multilevel task learning with stack propagation for neural quality estimation. In Proceedings of the Second Conference on Machine Translation, pp. 562-568, 2017 . [26] Fábio Kepler, Jonay Trénous, Marcos Treviso, Miguel Vera, and André F. T. Martins. OpenKiwi: An open source framework for quality estimation. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 117-122, 2019. [27] 後藤功雄, 田中英輝. ニューラル機械翻訳での訳抜けした内容の検出. 言語処理学会第 23 回年次大会発表論文集, pp. 1018-1021, 2017. [28] 後藤功雄, 美野秀弥,山田一郎. 訳抜けを含む訓練データと訳抜けのない出力とのギャップを埋めるニューラル機械翻訳. 言語処理学会第 26 回年次大会発表論文集, pp. 1412-1415, 2020. 表 2 WMT2018英独ニュース翻訳での再現実験結果 ## A 付録: 実験設定詳細 翻訳モデルとして、Facebook の公開データ3)を使用した。このデータにはアンサンブル用モデルと、翻訳結果修正用 source copy filtering モデルが含まれているが、このうち wmt18.model1.pt のみ使用した。前処理やハイパーパラメータは同梱の手順 wmt18.shに従った。 参考までに、表 2 に WMT2018 評価データでの SacreBLEU 值を報告する。我々の再現実験以外の值は、翻訳モデル [16] 著者らの報告結果4)を借用した。本研究は実験の都合でアンサンブルと source copy filtering を使用しなかったが、著者らの SacreBLEU 值 44.94 に対して 44.80 と、ほぼ同等の性能を再現できたと考える。 単語アライメントの学習では、fast_align の最新版5)を使用して、基本的にジョイントモデル用の手順 $\left.{ }^{6}\right)$ に従った。しかしながら事前実験でチェックリストへの悪影響があったため、サブワード(BPE)を使用しなかった。 
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A2-2.pdf
# 低リソース「日本語対応手話-日本語」対訳コーパスによる 助詞挿入と語尾活用に注目したパイプライン手話翻訳 矢野 憲 電気通信大学 yanoken@uec.ac.jp } 内海 彰 電気通信大学 utsumi@uec.ac.jp ## 1 はじめに 手話は手指動作と被手指動作 (NMS,non-manual signals)を同時に使う視覚言語で,音声言語にならぶ固有の文法を持った言語である [1][2][3][4][5]. 日本ではろう者同士, またはろう者と聴者の間で生まれ広がった日本手話 (Japanese Sign Language, JSL) のほか, 日本語と手話の語をほぼ一対一に対応させた日本語対応手話, その両者の中間的な表現等が使われるが,実際には日本手話と日本語対応手話との区別は曖昧であるとされる. 手話の特徴として, 話言葉における自立語同士の関係性を示す付属語に相当する語が手指動作に現れない傾向がある [1][2][6].例えば手話では質問・疑問を意味する終助詞「か」 などの例外を除いて, 話言葉の助詞に相当する語は表現されないことが多い. また日本語では動詞, 助動詞, 形容詞は語の働きの違いにより語尾が活用するが,手話では一般的にそのような語形の変化が見られないという特徴がある.このような言語的な違いに注目して日本語から手話への機械翻訳の既存研究 ([7],[8] 等) は存在するが, 手話から日本語への既存研究は存在しない. 従って, 本研究では助詞の挿入, 語尾活用に注目した日本語対応手話から日本語への機械翻訳の手法を提案した。 手話を話言葉へ翻訳するタスクでは,通常手話動画から連続する手話動作を認識し中間的な表現に変換後, その中間表現を話言葉に翻訳するという 2 段階で行われる [9][10][11][12].この中間表現は一般的に gloss(グロス)と呼ばれる. 手話を認識する問題はこれまでに Computer Vision の分野で活発に取り組まれてきたが, 本研究では特に手話認識後の gloss 系列から日本語へ翻訳するタスクに取り組み,少量の手話-日本語対訳データからでも精度の高い翻訳結果を得るパイプラインによる翻訳手法を提案 ## した. 実験の結果, 提案手法の有効性を確認した。 ## 2 対訳コーパス ## 2.1 日本語対応手話-日本語対訳コーパス 自動機械翻訳の目的で構築された大規模な日本手話または日本語対応手話と日本語の対訳コーパスは存在しない.このため, 本研究では筆者らが現在取り組んでいる共同研究で使用している対訳コーパスを用いた。本コーパスには手話の gloss による中間表現と対応する日本語対訳が 1086 件存在する. 本コーパスの内訳として手話の gloss に含まれる gloss 数が約 $7.5 \mathrm{~K}$, 語彙数が 655 , 語に分割後の日本語対訳に含まれる語数が約 $11 \mathrm{~K}$, 語彙数が $1.2 \mathrm{~K}$ である.本コーパスの特徴として, gloss は $g N(\mathrm{~N}$ は任意の数字列)のように記号表記されていることである. 本コーパスでは記号表記された gloss と対応する日本語は別に辞書として定義している.これは,一つの gloss が複数の日本語へ対応しているためである.参考までに,表 1 に対訳コーパスに含まれる対訳例, 表 2 に該当する gloss の辞書定義の例を示した。 なお, ドイツ手話 (DGS) やアメリカ手話 (ASL)の対訳コーパスでは, 辞書を用いずに gloss が意味する話言葉おける単語を大文字 (capital letters) で表現していることが多い [10],[6]. 表 1 手話 gloss-日本語対訳例 表 2 gloss 辞書定義の例 ## 2.2 日本語コーパス 本研究では, 手話と日本語との対訳コーパスの他に, 現代日本語書き言葉均衡コーパス (BCCWJ) から生成した擬似日本語対訳コーパスを用いた。これは対訳コーパスではサンプル数が十分でないために, データ駆動による深層学習を用いた機械翻訳手法を適用することが困難なためである. 本研究で用いた日本語対応手話-日本語対訳コーパスは, 会話における話言葉が中心であるため,そこに現れる文末のパターン ( か?,〜しました,〜ほしいです,〜 います,〜します,~希望する, 等) で BCCWJ コーパスの検索を行い該当する約 20 万の文を選択した。選択された日本語コーパスは助詞の挿入や, 語の語尾活用を行う機械学習モデルの教師データとして用いた. 詳細については 4 . モデルの学習で述べる. ## 3 翻訳手法 ## 定義 $\mathscr{G}$ は長さ $\mathrm{N} の$ gloss 系列 $\mathscr{G}=\left(g_{1}, \ldots, g_{N}\right)$ を示し, $\delta$ は長さ $\mathrm{U}$ の日本語列 $\mathcal{S}=\left(w_{1}, \ldots, w_{U}\right)$ を示す. $\delta$ に対してさらに助詞, 語尾活用を示す 2 つの添字 $P P$ と $C$ を定義し, それぞれの添字の前の + と - で助詞の挿入, 語尾活用が適用されているか否かを示す. 例えば $\delta_{-P P-C}$ は助詞がなく, 語の活用形を基本形にした日本語列を示し, $\delta_{+P P+C}$ は助詞の挿入,語尾活用後の日本語列を示す. ## アルゴリズム 提案する gloss 系列から日本語への翻訳アルゴリズムを Algorithm 1 に以下に示した. 各 Step で行う処理を以下で説明する。 - Step 0: 統計的機械翻訳の手法を用いて gloss 系列を対応する日本語列へ変換する. - Step 1: seq2seq 機械翻訳モデル (m1)を用いて Step 0 で得られた日本語列に対して助詞を挿入する. - Step 2: seq2seq 機械翻訳モデル (m2)を用いて Step 1 で得られた日本語列に対して活用による語尾活用を行う。 -Step 3: Step 2 で得られた日本語列から助詞を削除する. - Step 4: seq2seq 機械翻訳モデル (m3)を用いて Step 3 で得られた日本語列に対して助詞を插入 する. - Step 5: Step 4 で得られた日本語列から語尾活用された語を基本形に変換する。 Step 1 では語の活用形を基本形にした日本語列への助詞の挿入に対して, Step 4 では語尾活用後の日本語列への助詞の挿入の違いがある. 表 3 に表 1 で示した例のパイプラインによる翻訳例を示す. 表 3 パイプラインによる翻訳例 ## 4 モデルの学習 翻訳アルゴリズムで用いたモデルの学習方法について説明する. ## 4.1 統計的機械翻訳モデル 翻訳アルゴリズムの Step 0 には統計的機械翻訳 (SMT)[13] を用いた。学習は, 対訳コーパスを用いて行ったが, 目的言語である日本語は $\mathrm{MeCab}^{1}$ によよる形態素解析の結果から助詞を削除し, 語尾活用のある語については, 基本形に変換する前処理を行なった。目的言語の言語モデルとしては, 3-gramの Kneser-Ney smoothing を用いた。なお, 学習データに gloss 辞書の定義を追加の対訳データとして含めた. これはコーパスサイズが少ないため学習データに一度しか現れない gloss が多く存在するためである. 1) https://pypi.org/project/mecab-python3/ ## 4.2 seq2seq 機械翻訳モデル 翻訳アルゴリズムの Step 1 における機械翻訳モデル (m1)には, Transformer[14]による seq2seq 翻訳モデル [15]を用いた。対訳コーパスは日本語コーパスに含まれる文から, 原言語, 目的言語を以下のようにして作成した。 - 原言語:原文の形態素解析の結果から助詞を削除し, 語尾活用のある語については, 基本形に変換 -目的言語:原文の形態素解析の結果から語尾活用のある語については,基本形に変換 これは単言語コーパスから $\delta_{-P P-C}$ から $\delta_{+P P-C} へ$翻訳する擬似的な対訳コーパスを生成することを意味する. seq2seq のハイパーパラメータについては,事前実験より以下のように定めた: encoder, decoder の embed サイズ:512, FFN のユニット数:2048, layer 数:6, attention head 数:8. また encoderの入力, decoder の出力には tied-embedding を使用した. Optimizerには Adam を使用し, 学習率は初期値 5e-4 で更新回数の逆平方根に基づき減衰させた。作成した対訳コー パスを 8:1:1 の割合で, train,dev,test データセットに分割し, devによる性能が一番高いパラメータで評価を行った。 翻訳アルゴリズムの Step 2 における機械翻訳モデル (m2), Step 4 における機械翻訳モデル (m3) は同様に Transformer ベースの se2seq を用いたが,擬似対訳コーパスの生成方法のみが異なる. 予備実験の結果から得られたパラメータと学習方法は機械翻訳モデル (m1) と同様であるため詳細は割愛する. ## 5 実験と結果 対訳コーパスからランダムに 10 個の対訳データをテストに選び, 残りを学習データとして, 統計的機械翻訳モデルを再学習したモデルで翻訳を行う実験を 100 回繰り返し,その結果得られた 1000 個の翻訳と,参照訳とで翻訳性能の評価を行った。なお, seq2seq 翻訳モデル $(\mathrm{m} 1, \mathrm{~m} 2, \mathrm{~m} 3)$ については,すべての実験で事前に学習済みのパラメータを使用し,ビームサイズ 5 でデコードを行なった. 比較するベースラインモデルとして以下の 4 つのモデルと, Yin et al. [12] が提案している end-to-end 手話機械翻訳モデル G2T (Gloss to Text) との比較実験を行った. Algorithm 1 で示した提案手法は SMT+Iterative_seq2seqとした. ・naive: gloss 辞書を用いて, gloss を日本語へ置き換えることで翻訳を行うモデル.辞書に複数の日本語が定義されている場合, 一番最初の語を選択する。 -SMT: 統計的機械翻訳モデルで $\mathscr{G}$ から直接 $S_{+P P+C}$ へ翻訳を行うモデル. -SMT+1step_seq2seq: Step 1, Step 2 の seq2seq 翻訳モデル $(\mathrm{m} 1, \mathrm{~m} 2)$ で行っている $\delta_{-P P-C}$ から $\mathcal{S}_{+P P+C}$ への翻訳を一つの seq 2 seq で翻訳を行い,逐次的に翻訳結果の更新を行わないモデル. -SMT+2step_seq2seq: Step 0 から Step 2 までの処理を行い,逐次的に翻訳結果の更新を行わないモデル. G2T[12] はドイツ手話またはアメリカ手話のサイズの大きい対訳コーパス [10],[6] を使用している為, 予備実験において日本語対応手話-日本語の対訳コーパスを用いて,ハイパーパラメータ検索を行い $\operatorname{dev}$ セットにおいて一番性能が良かった以下のパラメータを用いて実験を行った。 embed サイズ:256, FFN の embed サイズ:1024, layer 数:1, attention head 数:4 (encoder, decoder 共通) 性能評価は,BLEU1/2/3/4个[16], METEOR $\uparrow[17]$, WER(Word Error Rate)】を用いた. 結果を表 4 に示す. 結果より,gloss 辞書により単純に gloss を日本語へ置き換える翻訳手法では,文法的に正しい日本語にならず低い性能を示す. G2T の性能はいずれの指標においてもSMT の結果よりも低い值を示した. 手話言語の違いもあるが,低リソースの場合, seq2seq モデルでは SMT の性能を超えることが困難であることを示している. SMT と seq2seqによるパイプラインモデルでは, SMT の性能から大幅に性能を向上している。これは日本語コーパスから作成した擬似対訳コーパスで学習された seq2seq モデルが,手話翻訳における助詞の挿入, 語尾活用に非常に有効であることを示している. 更に表 5 に SMT とパイプライン翻訳モデルの BLEU3, BLEU4 スコア值による t-test 検定の結果を示した。 表 5 からパイプラインモデルが SMT よりも有意に性能が高いことがわかる. SMT+1step_seq2seq と SMT+2step_seq2seq とでは有意な差はなかったが,提案手法である SMT+Iteraive_seq2seq は BLEU3 において SMT+1step_seq2seq, SMT+2step_seq2seq 共 表 4 各モデルの翻訳性能の結果 (BLEU1/2/3/4个, METEOR $\uparrow, W E R \downarrow)$ 表 5 SMT, SMT+1step_seq2seq, SMT+2step_seq2seq, SMT+Iterative_seq2seq の BLEU3, BLEU4 スコア值による t-test 検定の結果. 数値は $\mathrm{p}$-value を示す. *は $\mathrm{p}$-value が<0.05, **は $\mathrm{p}$-value が<0.01 を示す. 表 6 SMT+Iterative_seq2seqにより翻訳結果を得るまでに行ったループ処理の回数とその頻度 に,また BLEU4 については SMT+1step_seq2seq とで有意な差を認めた。このことから, 助詞の挿入と語尾活用の推測には相互依存性があり逐次的に双方を修正する SMT+Iteraive_seq2seq は翻訳精度を高める上で有効な手法であると判断できる. 次に,SMT+Iteraive_seq2seqによる翻訳が Algorithm 1 の何回目のループで収束したかを調査した. 結果を表 6 に示す. 表 6 より約 $72 \%$ の結果については, ループ処理の回数が 1 であったことを示す.これは Algorithm 1 の Step 1 の語尾活用前の日本語列に対する助詞の推定と最初のループ処理での Step 4 における語尾活用後の助詞の推定が同じであったことを示している. また約 $26 \%$ の結果については 2 回目のループ処理で結果が収束しており, これは語尾活用前の助詞の推定が最初の Step 4 における語尾活用後の助詞の推定で修正されたことを示している.ルー プ回数が 4 以上のものは, hallucination[18] エラーがあった場合で, その場合, 出力語列を切り詰めて出力するようにした. 付録の表 7 に各モデルが出力する翻訳例を表 8 に翻訳元となる gloss の辞書定義を示した. SMT, G2T の翻訳には文法的な誤りを多く含むことが確認できる. $\delta_{+P P+C}(1), \delta_{+P P+C}(2)$ は SMT+Iteraive_seq 2 seq のループ処理における 1 回目,2 回目の翻訳結果である. $S_{+P P+C}(1)$ で見られる助詞挿入の誤りが $S_{+P P+C}(2)$ では修正されていることがわかる. なお,表 7 の最後の例のように助詞推定の曖昧性 (「で」 または「の」) が発生するケースもある.この対策として, 非手指動作 (NMS) を gloss の付属情報として用いることや,会話の文脈情報をモデルに組み込んで判断することが考えられるが,今後の課題としたい. ## 6 まとめ 本研究では, SMTにより少量の対訳コーパスを用いて gloss を対応する日本語へマッピングする翻訳モデルと大量の日本語コーパスから得られた擬似対訳データにより学習した助詞の挿入を行う seq 2 seq 翻訳モデルと語尾活用を行う seq $2 \mathrm{seq}$ 翻訳モデルをパイプラインで繋いだ手話から日本語への機械翻訳手法について提案した。実験結果より,SMTのみを用いた場合に比べ BLEU3/4による翻訳性能がそれぞれ+4.3/+4.9 向上することを確認した. ## 謝辞 本研究は, 電気通信大学とソフトバンク株式会社との「聴覚障害者と健聴者を繋ぐ相互コミュニケー ションシステムに関する研究開発」の支援により実施された。 ## 参考文献 [1]岡典栄, 赤堀仁美. 日本手話のしくみ. 大修館書店, 2011 . [2]松岡和美. 日本手話で学ぶ手話言語学の基礎. くろしお出版, 2015. [3]Kazuyuki Kanda, Akira Ichikawa, Yuji Nagashima, Yushi Kato, Mina Terauchi, Daisuke Hara, and Masanobu Sato. Notation system and statistical analysis of NMS in JSL. In Revised Papers from the International Gesture Workshop on Gesture and Sign Languages in Human-Computer Interaction, p. 181-192. Springer-Verlag, 2001. [4]Atsuko Koizumi, Hirohiko Sagawa, and Masaru Takeuchi. An Annotated Japanese Sign Language Corpus. In Proceedings of the Third International Conference on Language Resources and Evaluation, 2002. [5]Mayumi Bono, Kouhei Kikuchi, Paul Cibulka, and Yutaka Osugi. A Colloquial Corpus of Japanese Sign Language: Linguistic Resources for Observing Sign Language Conversations. In Proceedings of the Ninth International Conference on Language Resources and Evaluation, pp. 1898-1904. European Language Resources Association, 2014. [6]Clayton Valli, Ceil Lucas, Kristin J. Mulrooney, and Miako N.P. Rankin. Linguistics of American Sign Language. Gallaudet University Press, Washington, DC, 2011. [7]松本忠博, 池田尚志. 日本語テキストから手話テキストへの機械翻訳の試み. 自然言語処理 / 言語処理学会編, Vol. 15, No. 1, pp. 23-51, 2008. [8]Taro Miyazaki, Yusuke Morita, and Masanori Sano. Machine Translation from Spoken Language to Sign Language using Pre-trained Language Model as Encoder. In Proceedings of the LREC2020 9th Workshop on the Representation and Processing of Sign Languages: Sign Language Resources in the Service of the Language Community, Technological Challenges and Application Perspectives, pp. 139-144. European Language Resources Association, 2020. [9]Mathieu De Coster, Mieke Van Herreweghe, and Joni Dambre. Sign language recognition with transformer networks. In Proceedings of the 12th Language Resources and Evaluation Conference, pp. 6018-6024. European Language Resources Association, May 2020. [10]N. C. Camgöz, S. Hadfield, O. Koller, H. Ney, and R. Bowden. Neural Sign Language Translation. In 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 7784-7793, 2018. [11]N. C. Camgöz, O. Koller, S. Hadfield, and R. Bowden. Sign Language Transformers: Joint End-to-End Sign Language Recognition and Translation. In 2020 IEEE/CVF Conference on Computer Vision and Pattern Recognition, pp. 1002010030, 2020. [12]Kayo Yin and Jesse Read. Better Sign Language Translation with STMC-Transformer. In Proceedings of the 28th International Conference on Computational Linguistics, pp. 5975-5989. International Committee on Computational Linguistics, December 2020. [13]Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris CallisonBurch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open Source Toolkit for Statistical Machine Translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, Prague, Czech Republic, June 2007. Association for Computational Linguistics. [14]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is All You Need. 2017. [15]Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A Fast, Extensible Toolkit for Sequence Modeling. In Proceedings of NAACL-HLT 2019: Demonstrations, 2019. [16]Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318. Association for Computational Linguistics, July 2002. [17]Satanjeev Banerjee and Alon Lavie. METEOR: An automatic metric for MT evaluation with improved correlation with human judgments. In Proceedings of the ACL Workshop on Intrinsic and Extrinsic Evaluation Measures for Machine Translation and/or Summarization, pp. 65-72. Association for Computational Linguistics, June 2005. [18]Chaojun Wang and Rico Sennrich. On Exposure Bias, Hallucination and Domain Shift in Neural Machine Translation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3544-3552, Online, July 2020. Association for Computational Linguistics. ## 付録 表 7 gloss 辞書により $\mathscr{G}$ を日本語単語へ置き換える naive な手法, G2T[12], 統計的機械翻訳 (SMT) と提案手法 SMT+Iteraive_seq2seq による翻訳の例. $S_{-P P-C}$ は SMT による Step 0 の出力を示し, $S_{+P P+C}(1), S_{+P P+C}(2)$ はそれぞれ seq 2 seq モデル $(\mathrm{m} 1, \mathrm{~m} 2, \mathrm{~m} 3)$ により翻訳結果を 1,2 回更新した後の翻訳結果. いずれも更新回数 2 回で翻訳結果が収束している例. 表 8 表 7 で使われている gloss の辞書定義 g258 g27 g294 g307 g33 老人、おじいさん助成、支援、補助負担安い g4 登録 g860 住宅、宿 g87 自分、自己、自 g9 か、あなた
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A2-3.pdf
# 時事通信社ニュースの日英対訳コーパスの構築-第 3 報 田中英輝 NHK エンジニアリングシステム hideki.tanaka@nes.or.jp } 美野秀弥 伊藤均 後藤功雄 山田一郎 NHK 放送技術研究所 \{mino.h-gq, itou.h-ce, goto.i-es, yamada.i-hy\}@nhk.or.jp 中澤 敏明 東京大学 nakazawa@logos.t.u-tokyo.ac.jp 川上 貴之 大嶋 聖一 朝賀 英裕 時事通信社 \{kawakami, sohsima, asaka\}@jiji.co.jp ## 1 はじめに 著者らはニュースの日英機械翻訳の研究開発の基礎となる言語資源の構築のため, 時事通信社のニュース記事を利用した日英対訳コーパスの開発を進めている [1][2]. 時事通信社では, 日々日本語の記事を作成し, 内外の報道機関に記事を提供すると共に,その一部を英訳して同様に配信している。日々の業務で生み出される日英対応記事に文アラインメントを適用すると文単位の対訳コーパスを構築できる。しかし, 日英対応記事の数は日本語記事に比べてかなり少なく, 英訳時に内容が大きく編集されることから [1], 自動文アラインメントだけで現在の機械翻訳システムの学習に適した大規模コーパスを構築するのは困難である.そこで,文アラインメントに加えて,英訳を持たない日本語単独記事を翻訳者が翻訳する手法, 日英対応記事の日本語記事を英語に合わせて翻訳者が修正,翻訳する手法の 2 手法を加えてコーパスを開発している.以下では,過去 3 年で構築してきた 3 種類コーパスの概要を報告すると共に, 日英翻訳実験と調査によりその特徴を明らかにする。 ## 2 コーパスの概要と諸元 時事通信社の翻訳は,内容の大きな編集を伴うことが多いが,編集と翻訳を高精度に実現する翻訳システムの実現は現時点では困難である。また,このようなシステムが実現できたとしても, 人が修正する下訳用途には使いにくいだろう。むしろ内容を忠実に翻訳するシステムの方が下訳にはふさわしいと考え,著者らはその実現のため,文単位で対応するコーパスを以下の 3 手法で構築した。 文アラインメントコーパス: Align 時事通信社の日英対応記事に文アラインメントアルゴリズム [3] を適用し文単位で対応する対訳コーパスを構築した. 本稿では文対応が 1 対 1 で,かつその類似度が 0.3 以上の文対を抽出して作成したコーパスを報告する1). 時事通信社では日本語記事の内容を大幅に編集して英語記事を作成するため, 文アラインメントされた文ぺアの情報には不均衡が生ずる. 実際,表 2 の文長の相関係数は 0.599 と他の 2 種類に比べると低い。また,対応付けされる文は記事の一部であり, 今回の抽出条件で $582 \mathrm{~K}$ の日英文対から抽出された文対は $240 \mathrm{~K}$ に留まった。一方, 構築コストは安価である。またコーパスの話題, 日英の表現スタイルは日英対応記事と一致する。本稿ではこのコーパスを “Align”あるいは“a”と略記する。 日英翻訳コーパス: Manual 日本語単独記事の一部を抽出し, 翻訳者に文ごとに翻訳してもらいコー パスを構築した。得られたコーパスの日英の情報は均衡しており, 実際, 文長の相関係数は 0.899 と高かった(表 2),記事の文数,キーワードリストを利用して,翻訳されにくい記事を除外しているが,日英対応記事より広い話題を含んでいると考えられる。翻訳にあたっては, 翻訳スタイルガイドを事前に作成して翻訳者に提供し, 時事通信社で使う用語, 翻訳スタイルにできるだけ準拠するようにした。作成コストは 3 手法の中で一番高い. 必要に応 1)本コーパスは昨年報告したコーパスと同じである [2]. 現在はさらに規模の大きなコーパスを構築している. 表 1 コーパス構築の 3 手法と特徴 表 2 コーパスの諸元 じて日本語 1 文を複数の英文で翻訳することを許容した結果,表 2 に示すように 1-1 から 1-5 の日英文対応が含まれ,この対応の 95\%が 1-1であった。本稿ではこのコーパスを “Manual” あるいは “m” と略記する。 日本語修正コーパス: Repair Align の情報の均衡性を高めるため, 日英対応記事の日本語記事を英語記事に合わせて翻訳者が修正,あるいは翻訳する手法でコーパスを作成した。得られた文長相関係数は Manual と同様 0.867 と高かった (表 2). Align 同様, コーパスの話題は日英対応記事と一致する. 英語 1 文に合うように日本語文を修正,翻訳する際,複数文にすることを許容したが,結果的に全て 1 対 1 の文対応となった (表 2). 日本語記事の修正, 翻訳時に固有名詞の調査が不要, 文や表現の再利用が可能などの利点があり, 作成コストは Align と Manual の間となった。本稿ではこのコーパスを “Repair” あるいは “ $\mathrm{r}$ ”と略記する.以上のコーパスの特徴を表 1 に,数値的な諸元を表 2 に示す. ## 3 日英翻訳実験と調査 2 節で報告した 3 種類のコーパスの効果を確認するため Sockeye toolkit[4] による実装の Transformer[5] を使った日英翻訳実験を行った。翻訳モデル学習の設定は以下の通りである。日英記事をそれぞれトー クナイズした後 ${ }^{2}$, 語彙サイズ $30 \mathrm{~K}$ の条件で日英同時 byte-pair encoding を実施した。学習はバッチサイズ 5,000トークン, 最大文長 90 トークン, 最大エ 2)日本語は KyTea[6], 英語は Moses toolkit を使った.表 3 実験データの文数 ポック数 30 , チェックポイント間隔 5,000 に設定した。また連続して 3 回チェックポイントでのパープレキシティ改善がなければ終了するようにした。その他はデフォールトの設定に従った。 自動評価には Bleu 値を使い, 同一学習デー夕から5つの初期值でモデルを作成し, 5 種類の翻訳結果の Bleu 値を平均を採用した。 実験に使ったコーパスの大きさを表 3 に示す. 実験用コーパスは見出しを含まない本文だけであり, Manual コーパスは, Align と Repairコーパスに合わせるため, 日英 1 対 1 の本文を抽出して作成した。 Align の開発, 評価デー夕は日英の対応が良い文対を翻訳者が選択して作成している. ## 3.1 学習デー夕追加効果 3 種類のコーパスの学習データを $10 \mathrm{~K}$ 文ずつ最大サイズまで増加してモデルを学習し, 評価デー夕の翻訳結果の Bleu 値を測定した (図 1). 評価デー夕と学習データの種類は同一である。 3 種類のコーパスとも学習データの増加と共に Bleu 値は上昇した。 どの Bleu もまだ飽和には達していないが Manual の Bleu の上昇幅は小さくなりつつある。 Align, Repair, Manual の Blue 值にはかなりの開きがある。同じ日英ニュースのコーパスではあるが,性質に何らかの違いがある可能性がある。そこで,その原因を探るため以下の実験を行った。 ## 3.2 学習・評価デー夕種類の交差 Align, Manual, Repair の各 173K 文 (図 1 の赤線に相当)を使って学習した 3 種類の翻訳モデルで前記 3 種類の評価デー夕を翻訳し Bleuを測定した (図 2).グラフを観察すると,まず, Align と Repair の評価データに対する Manual のモデルの Bleu は 図 13 種類のコーパスの学習デー夕の追加効果 表 4 異なり語の Dice 係数 低い. 一方, Manual の評価デー夕に対する Align と Repair のモデルの Bleu は低い,以上の事実は Align と Repair コーパスの性質と Manual コーパスには何らかの違いが存在することを示唆している. 次に, Align と Repair の評価デー夕に対しては Repair のモデルが Align のモデルよりかなり大きな Bleuを達成したことが分かる. 両者の出典は日英対応記事だが, Repair コーパスは人手をかけて情報の均衡性を高めており,高いBleu 值はその効果の現れだと推察できる。 ## 3.3 語彙の類似性と語の平均出現数の調査 Manual, Align, Repairの学習デー夕に含まれる語彙の類似性を調査した。それぞれのトークナイズされた学習データから(Repair のほぼ全数である) 195K 文を取り出し,異なり語の Dice 係数を計算した(表 4)。Dice 係数を見ると日英とも Align-Manual と Repair-Manual はほぼ同じだが, Align-Repair の Dice 係数はこれらより大きい. つまり Manual コー パスと Align, Repairコーパスには語の分布の差, すなわち話題の差があることが分かった。 図 23 種類のコーパスの交差評価 表 5 語の平均出現数 次に語の平均出現数(token-type ratio)を計算した (表 5). Manual の語の平均出現数は日英とも Align, Repair よりかなり小さく, データがより希薄であることが分かる.これは Manual コーパスは Align や Repairに比べて広い話題を扱っていることの証左とも言える. 図 1 で Repair コーパスに比べて Manual コーパスの Bleu が全領域で低く,また Manual コー パスではデータ追加の効果が現れにくいことが観察されたが,その理由の 1 つは Manual コーパスの語彙の希薄性にあると思われる。 ## 3.4 Manual と Repair の主観評価 図 2 に示した Manual と Repair で作成したモデルを互いに交差評価した部分(図の右から $1,2,4,5$ 番目の棒グラフの領域,以後,評価領域と呼ぶ)の Bleu にはかなりの差が見られる。そこで,この領域について特許情報機構の 5 段階の内容伝達レベルによる主観評価を実施した [7] ${ }^{3}$ . Repair の評価データからは 93 文,Manual の評価データからはは 94 文の評 3)翻訳に反映されている原文の重要情報の量を 5 段階に分類した評価基準で 1 が 20\%以下, 5 が 100\%となっている. 図 3 Manual とRepairコーパス翻訳結果の主観評価 価データを抽出し,全てを同一の2名の翻訳者で評価した。評価に当たっては誤りの一部を許容するようにした。例えば,時事通信社では日本語記事の日付を英語記事では曜日で翻訳する。現在の日英コー パスは基本的にこのような形になっているが,日付の曜日への正確な変換は今回の翻訳システムには望めない. また, 日本語記事には出現しない企業名の証券コードが英語記事には出現する, 日本語に出現しない記事の出典情報が英語記事の冒頭に “Tokyo, Sept. 18 (Jiji Press)”のように付与されることがあるといった問題も正しく対応できない4). 以上の現象は別処理, あるいはコーパスのクリーニングで対応すべき現象であり,今回の評価対象から外した。一方, Bleu の評価ではこのような差異も検出される. 評価の平均値を図 3 に示す。これを図 2 の評価領域と比較する。まず, Manual の評価データに対する性能は Bleu 值, 主観評価値とも Manual のモデルが高い. 次に,Repair の評価デー夕に着目すると, Bleu 值は Repair のモデルが Manual のモデルより圧倒的に高いが,主観評価スコアは両モデルでほぼ同等となった. 以上の傾向は 2 名の評価者とも同じであった. Repairの評価結果を観察したところ,主観評価で許容した誤りが Bleu で問題になったケースが見られた。具体例は割愛するが,本質的に扱えない現象を主観評価で許容したことがBleu 值と主観評価の差につながった可能性が高い. おそらく,実感的な性能は現在の Bleu 値ではなく, 主観評価値 に近いと考える。 ## 4 おわりに 本稿では 3 種類のニュースの日英対訳コーパス構築の概要,および,それぞれの性質を翻訳実験,語彙調査, 翻訳結果の主観評価で調査した結果を報告した。ニュースの日英対訳コーパス構築は 2021 年度で一旦区切りとなる。今後は,コーパスのクリー ニングや改修を加えてより詳細な評価を実施する。 さらに,本コーパスを利用した [8] などの新たな研究へ軸足を移していく。 ## 謝辞 本研究成果は,国立研究開発法人情報通信研究機構の委託研究により得られたものです. ## 参考文献 [1] 田中英輝, 美野秀弥, 後藤功雄, 山田一郎, 川上貴之, 大嶋聖一, 朝賀英裕. 時事通信社ニュースの日英均衡コーパスの構築-第 1 報. 言語処理学会第 25 回年次大会(NLP2019)発表論文集, 2019. [2] 田中英輝, 美野秀弥, 後藤功雄, 山田一郎, 川上貴之, 大嶋聖一, 朝賀英裕. 時事通信社ニュースの日英対訳コーパスの構築-第 2 報. 言語処理学会第 26 回年次大会(NLP2020)発表論文集, 2020. [3] Masao Utiyama and Hitoshi Isahara. A Japanese-English Patent Parallel Corpus. In MT Summit XI, pp. 474-482, 2007. [4] Felix Hieber, Tobias Domhan, Michael Denkowski, David Vilar, Artem Sokolov, Ann Clifton, and Matt Post. The Sockeye Neural Machine Translation Toolkit at AMTA 2018. In Proceedings of the 13th Conference of the Association for Machine Translation in the Americas (Volume 1: Research Papers), pp. 200-207, 2018. [5] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In Advances in Neural Information Processing Systems 30, pp. 5998-6008. 2017. [6] Graham Neubig, Yosuke Nakata, and Shinsuke Mori. Pointwise Prediction for Robust, Adaptable Japanese Morphological Analysis. In Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies, pp. 529-533, 2011. [7] 特許庁情報技術統括室. 特許文献機械翻訳の品質評価手順 Ver.1.0, 2014. [8] 美野秀弥, 衣川和克, 伊藤均, 後藤功雄, 山田一郎, 田中英輝, 川上貴之, 大嶋聖一, 朝賀英裕. 単言語デー夕を用いた逆翻訳と順翻訳によるデータ拡張の効果の比較. 言語処理学会第 27 回年次大会(NLP2021)発表論文集, 2021. 4) Repair の英語記事には証券コードと出典が完全に記載されているが,Manual の英語記事には一部を除いてない.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A2-4.pdf
# 多言語対訳サイトの特徴分析に基づく ウェブ上の対訳データのフィルタリング* 三好健悟 $\dagger$ Yizhen Wei ${ }^{\dagger}$ 田村拓也 ${ }^{\ddagger}$ 宇津呂 武仁 $\dagger$ 永田 昌明§ †筑波大学大学院 システム情報工学研究科・群 $¥$ 筑波大学理工学群 エ学システム学類 ${ }^{\S}$ NTT コミュニケーション科学基礎研究所 ## 1 はじめに 近年,機械翻訳分野においては,ウェブから対訳サイトを大量に収集し,対訳コーパスを作成する技術の研究が進められている $[3,1,5,6,10]$. しかし, 現時点において,ウェブを情報源として対訳コーパスを作成する技術の問題点として,収集される対訳サイト集合の中に,自動翻訳による対訳サイトが多く含まれる点が挙げられる.自動翻訳による対訳文対が多く含まれる対訳コーパスは,そのままでは機械翻訳モデルの訓練・評価データとしては適さない。そのため, 収集される対訳サイト集合のうち人手によって翻訳された対訳サイトのみを抽出することにより, ウェブから収集された対訳コーパスを高品質化する必要がある. 本論文では,ウェブから収集された日英対訳文対集合である JParaCrawl V2 を対象に,その中から人手翻訳による対訳サイトを自動抽出する手法を提案する。提案手法においては, 自動翻訳された対訳サイトに特有の現象として,(1) 自動翻訳によって生成された文の特性と,最新の言語モデル [2] に則った文の特性とを比較し, 文中における語彙の選択基準において両者の間に差異が見られる傾向があること, および, (2) 文中の一部の固有名詞等は異なるものの, 文中の他のフレーズが共有されるテンプレート文が多く含まれること, の二種類の現象に着目する. (1) の特徴に対しては,日本語文に対して,最新の言語モデルを用いて文中の単語の生成確率を予測し, 確率一位で予測された単語の含有率を用いるフィルタを適用することによつて,自動翻訳による対訳サイト 1 のうちの約 8 割を除 ^{*}$ Filtering Parallel Sentences collected from the Web based on Analyzing Characteristics of Translated Web Sites ${ }^{\dagger}$ Kengo Miyoshi, Yizhen Wei, Takehito Utsuro, Graduate School of Systems and Information Engineering, University of Tsukuba ${ }^{\ddagger}$ Takuya Tamura, College of Engineering Systems, University of Tsukuba ${ }^{\S}$ Masaaki Nagata, NTT Communication Science Laboratories, NTT Corporation, Japan 1 実際には, 日本語側が統計的機械翻訳 (SMT) によって翻訳された対訳サイトである (3.2 節参照). } 外できることを示す.一方,(2)の特徴に対しては,二文間の語の一致度を測る尺度である BLEU-1 [7] を用いたフィルタを適用して自動翻訳による対訳サイトを除外することにより,79\%の適合率および $88 \%$ の F 值で人手翻訳による対訳サイトを同定できることを示す. さらに,本論文では,(1)の特徵に対する言語モデルフィルタ, および, (2)の特徵に対する BLEU-1 フィルタを併用して,どちらかいずれかのフィルタによって自動翻訳による対訳サイトを除外するアプローチを用いることにより,結果的に,人手翻訳による対訳サイ卜の同定において 87 88\%前後の適合率・ $\mathrm{F}$ 值が達成できることを示す. ## 2 JParaCrawl V2: ウェブから収集 された日英対訳文対集合 本論文で高品質化の対象とする JParaCrawl V2 [6] は, ウェブ空間から日本語と英語の対訳文対を収集するシステムによって, NTT コミュニケーション科学基礎研究所が作成した対訳コーパスであり,一般に公開されている².JParaCrawl V2 の日英対訳データ収集過程 $[3,5,6]$ は,以下の四段階に分けられる. (i) ウェブ空間に存在する大規模なドメイン集合のうち, 日本語ページおよび英語ページが含まれるドメインにおいて,各ページのテキストデータを収集する. (ii) 収集されたドメインにおいて,対訳ページの候補と考えられる日本語ページと英語ページ間のペー ジ間対応付けを行う。 (iii) 日英間で対応付けられたページ対において,日英対訳辞書およびBleualign [9]を用いて文対応付けを行う。 (iv) 対応付けられた全ての文対集合に対して,言語モデルおよび句読点情報に基づいて不適切な対訳文 ^{2}$ http://www.kecl.ntt.co.jp/icl/lirg/ jparacrawl/ } 図 1: URL の分布 (サイト数単位) 図 2: サイトごとの含有文数の分布 (サイト数単位) 対候補を除外するツール Bicleaner ${ }^{3} により ,$ 対訳文対候補のクリーニングを行う。 本論文では,上記のように収集された日英対訳データ集合に対して,集合内の重複文対排除を行うとともに,英語・日本語以外の言語の文を削除した ${ }^{4}$ ## 3 データセット 本節では,JParaCrawl V2 内のサイト集合における URL,および,サイトごとの文数の分布に基づいて,自動翻訳によるサイトを識別・除外する手法の訓練・評価用サイト集合のデータセットを作成する. ## 3.1 サイト URL の分布 JParaCrawl V2 における URL の分布 (サイト数単位)を図 1 に示す. さらに,JParaCrawl V2 におけるサイトごとの含有文数 5 の分布 (サイト数単位) を図 2 に示す.ここで, サイトごとの含有文数別に,サイト集合を部分集合 $A(1 \sim 99$ 文対), $B(100 \sim 999$ 文対), $C(1,000 \sim 2,999$文対), $\mathrm{D}(3,000 \sim$ 文対) に分割する. そして, これらの部分集合別に,含有文数の文数単位の分布を求めた結果を図 3 に示す. ただし, サイト集合 D については,人手翻訳によるサイトの割合が高いことが分かつ ^{3}$ https://github.com/bitextor/bicleaner 4 言語識別においては, polyglot を用いた. 5各サイトから収集された文のうち,JParaCrawl V2 データセットに含まれる文の数. } 図 3: サイト集合 $\mathrm{A} \cdot \mathrm{B} \cdot \mathrm{C} \cdot \mathrm{D}$ ごとの含有文数の分布 (文数単位) ている“.jp”ドメインと, “.jp”ドメイン以外とに分けて分布を示す. ## 3.2 パラメータ調整用・評価用サイト集合 図 3 に示すように,「サイト集合 D の“.jp”ドメイン以外」の総文数がデータセット全体の約半数を占める. そこで,この「サイト集合Dの“.jp”ドメイン以外」中のサイト集合を母集団として,本論文の手法のパラメータ調整用として 100 サイトを無作為に選定し, 各サイトの人手翻訳・自動翻訳の別を分析した. その結果, 図 4(a) に示すように,人手翻訳によるサイトが 68 サイト,自動翻訳によるサイトが 32 サイトとなった。 そこで,本論文では,自動翻訳によるサイトを識別・除外する手法のパラメータ調整, および, 評価の対象を「サイト集合 D の“.jp”ドメイン以外」に設定する. そして, 上述のパラメータ調整用 100 サイトを用いてパラメータの調整を行う.また,パラメータ調整用 100 サイトとは別に, 評価用 100 サイトを無作為に選定し,本論文の手法を適用し評価を行う. パラメータ調整用 100 サイトに対して, 翻訳方向別の人手翻訳・自動翻訳の分布, 英語文側の自動翻訳 - 英語母語サイト作成者・英語非母語サイト作成者の分布, および,日本語文側のSMT による自動翻訳・NMT による自動翻訳・人手によるページ作成の分布を図 4 に示す. このうち, 本論文では, 日本語言語モデルを用いる手法により, 自動翻訳によって生成された日本語ページを含むサイト (図 4(c) 中の NMT の 3+15 サイトおよび SMT の 7+5 サイトの合計 30 サイト)を除外することを目的としてパラメータの調整を行う (4 節参照). 同様に, BLEU-1フィルタを用いたテンプレー ト文の検出手法によって, 図 4(a)に示す「自動翻訳によるサイト」(32サイト)を排除することを目的として (a) 翻訳方向別の人手翻訳・自動翻訳の分布 (b) 英語文側の自動翻訳・英語母語サイト作成者・英語非母語サイト作成者の分布 (c) 日本語文側の $\mathrm{SMT} \cdot \mathrm{NMT} \cdot$ 人手によるページ作成の分布 図 4: パラメータ調整用 100 サイトの分析結果 図 5: 「日本語言語モデルを用いたフィルタ」によって除外される自動翻訳文の例 (SMT による自動翻訳文. 対象: www.cots.com.cn) パラメータの調整を行う (5 節参照). ## 4 言語モデルを用いたフィルタ 本論文では,言語モデルを用いたフィルタによって「自動翻訳による非流暢な文が多く出現するか否か」を識別し,非流暢な文を含むサイトを除外する ${ }^{6}$. 具体的には,日本語を含む多言語言語モデルとして,大規模な事前訓練済みニューラル言語モデルである Multilingual BERT (mBERT) [2] を用いて, GLTR [4]によって日本語文中の単語の予測確率の順位分布を求める ${ }^{78}$. そし  図 6: 英語言語モデル GPT-2 [8] による予測確率の順位の分布の文書単位・文単位間比較 (対象: 英語版 Wikipedia 中の 5 サンプルページ) て,パラメータ調整用 100 サイトを用いたパラメータ最適化の結果として,「言語モデルによる予測確率が一位となる単語位置の割合の下限值 $55.0 \%$ 」満たす場合に,人手翻訳によるサイトであると判定する. 表 1: 「テンプレート文検出のための BLEU-1 フィル夕」によって検出されるテンプレート文 (自動翻訳文) の例 (対象: droidchart.com) & \\ & 不可能の電池を搭載します。 \\ \cline { 2 - 3 } & \\ \cline { 2 - 3 } & \\ ## 5 テンプレート文検出のための ## BLEU-1 フィルタ 本論文では,テンプレート文を検出するための BLEU1 [7] フィルタによって,「自動翻訳によるサイトにおいては,原言語文・目的言語文とも,文中の一部の固有名詞等は異なるものの, 文中の他のフレーズが共有されるテンプレート文が多く含まれる」という特徴を検出する、テンプレート文 (自動翻訳文) の典型例を表 1 に示す. BLEU-1フィルタにおいては, 日本語側サイト内から無作為に選定した 1,000 文に対して形態素解析 ${ }^{9}$ 行った後,任意の二文間の単語重複率を求め, パラメータ調整用 100 サイトを用いたパラメータ最適化の結果として, 「二文間の BLEU- $1 \leq 70$ となる二文の割合の下限値 $98.29 \%$ を満たす場合に,人手翻訳によるサイトであると判定する. ## 6 評価 4 節,および, 5 節で述べたフィルタ 10 を用いて評価用 100 サイトの評価を行った結果を図 7 に示す.このうち,日本語言語モデルを用いたフィルタによって実際に除外されたサイトの内訳 (図 8) からは, SMT によって自動翻訳された全 11 サイトのうち, 約 8 割の9サイトが除外できたことが分かる ${ }^{11}$.また, 図 7 の結果から,人手翻訳による対訳サイトの同定の性能は,BLEU-1 [7] を用いたフィルタを単独では 79\%の適合率および $88 \%$ の $\mathrm{F}$ 值であるのに対して,言語モデルフィルタ,および,BLEU-1フィルタの併用により $87 \sim 88 \%$ 前後の適合率・F 值が達成したことが分かる. ## 7 関連研究 ウェブから収集された対訳文対対集合から高品質な対訳文対集合を抽出する手法の関連研究として,Zhang ^{9}$ IPA 辞書版 MeCab を用いた。 10 パラメータ調整用 100 サイトにおいて,人手翻訳によるサイト検出の再現率・適合率・ $\mathrm{F}$ 值がそれぞれ最大值付近となるように下限値等のパラメータを調整した。 }^{11}$ NMT によって自動翻訳された全 12 サイトについては, 2 割弱の 2 サイトしか除外できていない. 図 7: 「人手翻訳によるサイト」の同定における再現率・適合率・ $\mathrm{F}$ 值 図 8: 「日本語言語モデルを用いたフィルタ」によつて除外されたサイトの内訳 (除外されなかった 10 件の NMT サイト,および,2 件の SMT サイトを含む) ら [10] は, Wikipedia から収集された 104 言語の単言語コーパスを用いて事前訓練された mBERT [2] 等の言語モデルを用いた対訳文対フィルタ手法を提案し, 1) 英独 ParaCrawl (3,700 万文対) [1],および,2) ウェブから独自に収集した日中対訳文対対集合 $(2,000$ 万文対) の高品質化を行っている. Zhang ら [10] が文対の特徴分析に基づいて高品質な対訳文対集合を収集するのに対して,本論文では,対訳サイトを単位とする特徴分析に基づいて高品質な対訳文集合を収集する点で大きく異なる. また, Zhang らの手法では, mBERT 等の言語モデルを訓練するために何種類かの言語資源を必要とする.例えば, mBERT を対訳文対フィルタタスクに適応する際の fine-tuning においては, 高品質な対訳文対集合が必要である ${ }^{12}$.したがって,人手を介して整備する必要のある対訳文対の規模の点において,本論文の手法の方が有利であると言える。 ## 8 おわりに 本論文では,JParaCrawl V2 を対象として人手翻訳によるサイトを高性能に抽出することを目的として,言語モデルを用いたフィルタ,および,テンプレート文検出のための BLEU-1フィルタを提案し,一定以上の適合率・F 値が達成できることを示した。  ## 参考文献 [1] M. Bañón, P. Chen, B. Haddow, K. Heafield, H. Hoang, M. Esplà-Gomis, M. Forcada, A. Kamran, F. Kirefu, P. Koehn, S. Ortiz Rojas, L. Pla Sempere, G. Ramírez-Sánchez, E. Sarrías, M. Strelec, B. Thompson, W. Waites, D. Wiggins, and J. Zaragoza. ParaCrawl: Web-scale acquisition of parallel corpora. In Proc. 58th ACL, pp. 4555-4567, 2020. [2] J. Devlin, M. Chang, K. Lee, and K. Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. NAACLHLT, pp. 4171-4186, 2019. [3] M. Esplà, M. Forcada, G. Ramírez-Sánchez, and H. Hoang. ParaCrawl: Web-scale parallel corpora for the languages of the EU. In Proc. MT Summit XVII Volume 2: Translator, Project and User Tracks, pp. 118-119, 2019. [4] S. Gehrmann, H. Strobelt, and A. Rush. GLTR: Statistical detection and visualization of generated text. In Proc. 57th ACL, pp. 111-116, 2019. [5] M. Morishita, J. Suzuki, and M. Nagata. JParaCrawl: A large scale Web-based JapaneseEnglish parallel corpus. In Proc. 12th LREC, pp. 3603-3609, 2020. [6] 森下睦, 鈴木潤, 永田昌明. JParaCrawl:大規模 Web ベース日英対訳コーパス. 言語処理学会第 26 回年次大会論文集, pp. 469-472, 2020. [7] K. Papineni, S. Roukos, T. Ward, and W.-J. Zhu. BLEU: a method for automatic evaluation of machine translation. In Proc. 40th ACL, pp. 311-318, 2002 . [8] A. Radford, J. Wu, R. Child, D. Luan, D. Amodei, and I. Sutskever. Language models are unsupervised multitask learners. 2019. [9] R. Sennrich and M. Volk. Iterative, MT-based sentence alignment of parallel texts. In Proc. 18th NODALIDA, pp. 175-182, 2011. [10] B. Zhang, A. Nagesh, and K. Knight. Parallel corpus filtering via pre-trained language models. In Proc. 58th ACL, pp. 8545-8554, 2020.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A3-1.pdf
# NMT の双方向反復的教師なし適応手法における 初期対訳コーパスサイズの影響と翻訳モデル獲得に関する調査 藤澤 兼太 豊橋技術科学大学 fujisawa.kenta.tv atut.jp } 秋葉 友良 豊橋技術科学大学 akiba.tomoyoshi.tk atut.jp } 塚田元 豊橋技術科学大学 tsukada.hajime.hl atut.jp ## 1 序論 ニューラル機械翻訳 (Neural Machine Translation) モデルは,十分な量の対訳コーパスがあれば高い性能を達成できるため, 近年の機械翻訳に関する研究において広く用いられている。しかし,十分な量の対訳コーパスを用意することが困難な分野 (ドメイン) では,良質な翻訳モデルを学習することは難しく,機械翻訳研究における重要な課題となっている. このような課題を解決するためのアプローチとして, 比較的構築が容易な単言語コーパスを用いた手法が多く提案されている。単言語コーパスを用いた代表的な手法として, Sennrich ら [1] が提案した Back-Translation(逆翻訳) アプローチが広く知られている.この手法は, 大規模な単言語コーパスを他ドメインの対訳コーパスで予め学習しておいた翻訳モデルにより翻訳し, その翻訳結果をソース側, 単言語コーパスをターゲット側とする当該ドメインの対訳を学習データに追加して, 高性能な逆方向の翻訳モデルを新たに学習するという手法である. 様々な拡張手法が提案されており, Hoang ら [2] や Zhang ら [3], 森田ら [4] は, 逆翻訳および翻訳モデルの学習を双方向かつ反復的に行うことで, 通常の逆翻訳手法よりも高い性能を示せることを報告している。以後, 本論文では森田らの手法を森田らに倣って 「双方向反復的教師なし適応手法」と呼ぶ. 双方向反復的教師なし適応手法は高い翻訳性能を達成できることが示されているが,その性質は十分に明らかになっていない。そこで本研究では,以下の点に関して実験及び分析を行い,この手法の性質をより明らかにすることを目的とする。 1. 初期対訳コーパスが小規模な場合の効果 2. 翻訳モデルの獲得に焦点を当てた評価 英日・日英翻訳を対象に実験を行い,BLEU[5] に より評価した結果, 初期対訳コーパスのサイズが 2 万文の場合 (初期モデルでは英日は 1.41 , 日英は 2.92 の BLEU スコア) でも,ドメイン内単言語コー パス 150 万文を用いて手法を適用することで英日は 25.46(+24.05), 日英は 24.08(+21.15) まで BLEU スコアが向上した。また, 初期対訳コーパスのサイズが翻訳性能に与える影響を,単なる学習データサイズの効果とは分離して,評価・分析を行った,単語再現率を用いた評価から,単言語コーパスより新たに翻訳モデルを獲得できていることを確認した。 ## 2 双方向反復的教師なし適応手法 図 1 に,2つの言語 $\mathrm{X} , \mathrm{Y}$ 間の翻訳に関する双方向反復的教師なし適応手法の流れを示す. 図 1 において, $\mathrm{C}_{\mathrm{X}}^{\mathrm{in}}, \mathrm{C}_{\mathrm{Y}}^{\mathrm{in}}$ はそれぞれ言語 $\mathrm{X}, \mathrm{Y}$ のドメイン内単言語コーパスを示し, $\left(\mathrm{C}_{\mathrm{X}}^{\text {out }}, \mathrm{C}_{\mathrm{Y}}^{\text {out }}\right)$ はドメイン外対訳コーパスを示す。逆翻訳により生成されたコーパスを $\mathrm{C}^{\prime}$ と表記すると,単言語コーパス $\mathrm{C}_{\mathrm{X}}$ とその逆翻訳結果 $\mathrm{C}_{\mathrm{Y}}^{\prime}$ を組み合わせた疑似対訳コーパスは $\left(\mathrm{C}_{\mathrm{Y}}^{\prime}, \mathrm{C}_{\mathrm{X}}\right)$ のように表すことができる. これらの表記方法に従い,双方向反復的教師なし適応手法の流れを以下に記述する。 1.ドメイン外対訳コーパス $\left(\mathrm{C}_{\mathrm{X}}^{\mathrm{out}}, \mathrm{C}_{\mathrm{Y}}^{\text {out }}\right)$ を用いて,初期モデルとなる Model $_{\mathrm{X} \rightarrow \mathrm{Y}} 0$, Model $_{\mathrm{Y} \rightarrow \mathrm{X}} 0$ を学習する。 2.性能が収束するまで以下を反復する。 $(\mathrm{i} \leftarrow 0)$ 2.1.単言語コーパス $\mathrm{C}_{\mathrm{Y}}^{\mathrm{in}}$ を Model $_{\mathrm{Y} \rightarrow \mathrm{X}} \mathrm{i}$ により翻訳し,疑似対訳コーパス $\left(\mathrm{C}_{\mathrm{X}}^{\prime}{ }_{\mathrm{in}}{ }_{\mathrm{i}}, \mathrm{C}_{\mathrm{Y}}^{\mathrm{in}}\right)$ を得る.疑似対訳コーパスとドメイン外対訳コーパスを結合し,それを用いて逆方向のモデル Model $_{\mathrm{X} \rightarrow \mathrm{Y}}(\mathrm{i}+1)$ を学習する. 2.2.単言語コーパス $\mathrm{C}_{\mathrm{X}}^{\mathrm{in}}$ を Model $_{\mathrm{X} \rightarrow \mathrm{Y}} \mathrm{i}$ により翻訳し,疑似対訳コーパス $\left(\mathrm{C}_{\mathrm{Y}}^{\prime}{ }_{\mathrm{i}}{ }_{\mathrm{i}}, \mathrm{C}_{\mathrm{X}}^{\mathrm{in}}\right)$ を得る。疑似対訳コーパスとドメイン外対訳コーパ 図 1 双方向反復的教師なし適応手法の流れ スを結合し,それを用いて逆方向のモデル Model $_{\mathrm{Y} \rightarrow \mathrm{X}}(\mathrm{i}+1)$ を学習する。 2.3.i $\leftarrow \mathrm{i}+1$ ## 3 実験 ## 3.1 実験条件 ドメイン外の対訳コーパスとして, Asian Scientific Paper Excerpt Corpus(ASPEC)[6] の英日対訳コーパスから 100 万文を用いる.対訳コーパスのサイズを縮小する際には,データ数が多いコーパスが少ないコーパスを常に包含するという条件を保つようにデータセットを作成する. ドメイン内の単言語コーパスとしては, NTCIR8-PATMT コーパスから英語, 日本語それぞれ 150 万文ずつ対訳にならないように抽出して用いる. バリデーションセットには NTCIR8-PATMT から 2000 対を,テストセットには同じくNTCIR8-PATMT から 899 対を用いる. すべてのデータに対して NFKC 変換と小文字化を適用する. 英語データに対しては Moses tokenizer[7] を用いて事前分割したあと, Sentence Piece[8]によるサブワード化を行う. 日本語データに対しては事前分割せずに Sentence Piece によるサブワード化を行う. Sentence Piece は BPE ベースのものを使用し,分割する語彙の上限は 8000 とする. Sentence Piece表 1 NTCIR-8 PATMT 対訳コーパスのベースライン性能 (BLEU) のモデルの学習には, ドメイン外の対訳コーパスとドメイン内の単言語コーパス双方の全データを用いる. モデルは,エンコーダを 1 層の双方向 LSTM,デコーダを 1 層の単方向 LSTM としたものを使用し,隠れ状態の次元数は 500 とする. 最適化アルゴリズムには Adam を使用し,学習率を 0.001 とする。各モデルは 10 エポックずつ学習し, 1 エポックごとのチェックポイントの中から最も accuracy が高かったモデルを採用する. モデルの翻訳精度の評価には単語単位の BLEU[5] を用いる. ## 3.2 ベースライン NTCIR-8 PATMT(ドメイン内) のオリジナルの対訳コーパスを用いて同様のモデル設計で学習を行い, それをベースラインとする.結果を表 1 に示す. ## 3.3 実験結果 表 2 に,双方向反復的教師なし適応手法を用いて学習した場合の Model 0, Model 1, Model 10 の BLEU スコアを示す. 初期対訳コーパスサイズが最も大規模な 100 万文 (1M) の場合, Model 10 では英日で 34.60(Model 0 と比べて+21.08), 日英で33.41(+15.15) という BLEU スコアを得た。対訳コーパスサイズを縮小していくと,BLEU スコアは低下していくが,手法による効果はほとんどのサイズで確認できた.対訳コーパスサイズが 2 万文の場合, Model 0 では英日が 1.41 , 日英が 2.93 とかなり低い值であるにも関わらず,Model 10 では英日が 25.46(+24.05), 日英が24.08(+21.15) という BLEU スコアを得た. 1 万文 (10K) の場合は反復学習による改善が小さく, Model 10 まで学習を行っても 20K 以上の結果と比べてかなり低い BLEU スコアとなった。 表 1 と比較すると, $1 \mathrm{M}$ の結果はドメイン内の対訳コーパスを 50 万文 (500K) 用いた結果と同等の数值である (34.60 vs. $34.97,33.41$ vs. 33.07). 3 万文 (30K) の場合は, 英日翻訳の性能はドメイン内の対訳コーパスを 10 万文 $(100 \mathrm{~K})$ 使用した結果に比べて 表 2 双方向反復的教師なし適応の効果 図 2 反復による BLEU スコアの推移 (英日翻訳) 0.87 劣っている (27.33 vs. 28.20$)$ が, 日英翻訳の性能は 0.56 優れている (26.70 vs. 26.14). 図 2 は, 反復学習によりどのように BLEU スコアが上昇していくかを示したグラフである。対訳コー パスサイズが $20 \mathrm{~K}$ 以上の場合は反復により BLEU が上昇していくことが確認できる. 以上の結果から, 双方向反復的教師なし適応手法は,対訳コーパスのサイズが小規模な場合においても Back-Traslation アプローチ [1](Model 1 に相当)を大きく上回る性能を達成できることがわかった. 表 2 に示した翻訳性能は,サイズの異なる初期対訳コーパスを加えて学習したモデルの比較を行っている. 例えば, $100 \mathrm{~K}$ の Model 10 は 100K の初期対訳コーパスと $1.5 \mathrm{M}$ の疑似対訳コーパスの合計 $1.6 \mathrm{M}$ の対訳コーパスを用いて学習しているのに対し, $1 \mathrm{M}$表 3 疑似対訳コーパスのみによる翻訳性能 の Model 10 は $1 \mathrm{M}$ の初期対訳コーパスと $1.5 \mathrm{M}$ の疑似対訳コーパスの合計 $2.5 \mathrm{M}$ の対訳コーパスで学習している。従って,学習データサイズの違いもスコアに反映されているため,純粋に初期対訳コーパスサイズの効果が比較できない。そこで, Model 10 を学習する際, 初期対訳コーパスを除いて学習し,学習データサイズを揃えて比較する評価も行った. 具体的には, 通常の双方向反復的教師なし適応手法により Model 9 まで学習を行った後,Model 10 を学習する際に疑似対訳コーパスのみで学習を行い, その翻訳性能を評価した。実験結果を表 3 に示す。初期対訳コーパスサイズが増えるに従い単調に翻訳性能が改善しており,初期対訳コーパスを増加する効果が確認できる。しかし,初期対訳コーパスサイズを 2 倍にしても BLEU の改善は+1 程度である。初期翻訳モデルのブートストラップに必要な初期コーパスサイズ (本研究では $20 \mathrm{~K}$ 以上) が確保できれば,初期コーパスのサイズはこの手法にとってそれほど重要な要因ではないことがわかる. ## 3.4 翻訳モデル獲得の分析 前節の BLEU による翻訳性能の総合的な評価に加え,翻訳モデルが初期モデルに含まれない語彙を適切に獲得できているかという視点から評価を行った。双方向反復的教師なし適応手法では,単言語コーパスを繰り返し用いることになるため,ソース側,ターゲット側ともども初期モデルにない単語を獲得できる。しかしながら獲得された単語間の翻訳モデルも獲得されるのか明らかではない。この疑問を明らかにするために単語再現率を用いた分析を行った。 ## 3.4.1 単語再現率 本論文では正解文に含まれる単語がどの程度出力文に現れているかを単語再現率で評価する.単語再現率は式 1 によって計算される。 表 4 正解文データに含まれる各属性の単語数 Word_Recall $=\frac{\sum_{S \in \operatorname{Ref} s} \sum_{w \in g_{X}(S)} \operatorname{Count}_{\text {match }}(w)}{\sum_{w \in g_{X}(\operatorname{Ref} s)} \operatorname{Count}(w)}$ ここで, $S$ は正解文, Refs は正解文の集合, $w$ は単語, $\operatorname{Count}(w)$ は正解文に含まれる単語の個数, Count $_{\text {match }}$ (word) は正解文と対応する出力文の間で一致する単語の個数を示す. また, $g_{X}(W)$ は単語集合 $W$ からある属性 $X$ を有する単語だけを抽出する関数である. 考慮する属性 $X$ は次節で導入する. この式では, 各文ごとに単語再現数を計算した後に,それらの総和を正解文に含まれる全単語数で割り,平均を計算している。 ## 3.4.2 分析方法と結果 テストデータの各正解文の各単語について,ドメイン外対訳コーパスに含まれるもの (“out”と表記), ドメイン内単言語コーパスにのみ含まれるもの (“in,not out”と表記), どちらにも含まれないもの (“neither”と表記) に分類し,これらを式 1 で考慮する属性 $X$ として単語再現率を計算する. 反復により初期モデルに含まれない単言語コーパスの単語の翻訳モデルが獲得されるのであれば, “in,not out”に関する単語再現率が上昇していくと考えられる. 本節では,初期モデルの対訳コーパスサイズが 5 万文の場合について実験を行った。テストデータの正解文に含まれる各属性の単語数を表 4 に示す. ここで,“full”は正解文データ全体を示す. 単語再現率による評価結果を図 3 と図 4 に示す. “out”の単語再現率は, “full”とほとんど同じように推移している.これは, “out”が“full”に含まれる単語をほぼすべて含んでいるためである. “in, not out” の推移をみると, グラフの形に差はあるものの英日,日英それぞれ反復により上昇していることがわかる. このことから, ドメイン内の単言語コーパスを繰り返し学習に用いることで,新たに単語翻訳モデルを獲得できていると考えられる.また,どのデータにも含まれていないはずの “neither”について 図 3 反復による単語再現率の推移 (英日翻訳) 図 4 反復による単語再現率の推移 (日英翻訳) も反復による単語再現率の上昇がみられる。以上の結果から, 双方向かつ反復的な逆翻訳により新たに単語翻訳モデルを獲得でき,このことが性能向上に貢献していることがわかる. ## 4 結論 本論文ではまず,ドメイン外の対訳コーパスサイズが小規模な場合の双方向反復的教師なし適応手法の効果を検証した。実験の結果,対訳コーパスが 2 万文程度しかない場合でも,ドメイン内単言語コー パスが十分にあればドメイン内対訳コーパスが 10 万文存在する場合と同等の性能を達成することが確認できた。続いて,単語再現率という指標においても性能が向上していることを確認し,ドメイン内の単言語コーパスにしか含まれていない単語の翻訳モデルを単言語コーパスしか用いていないにもかかわらず獲得できていることを確認した。 ## 謝辞 本研究は JSPS 科研費 $19 \mathrm{~K} 11980$ および 18H01062 の助成を受けた。 ## 参考文献 [1] Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 86-96, Berlin, Germany, August 2016. Association for Computational Linguistics. [2] Vu Cong Duy Hoang, Philipp Koehn, Gholamreza Haffari, and Trevor Cohn. Iterative back-translation for neural machine translation. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 18-24, Melbourne, Australia, July 2018. Association for Computational Linguistics. [3] Zhirui Zhang, Shujie Liu, Mu Li, Ming Zhou, and Enhong Chen. Joint training for neural machine translation models with monolingual data. CoRR, Vol. abs/1803.00353, , 2018. [4] 知熙森田, 友良秋葉, 元塚田. 双方向の逆翻訳を利用したニューラル機械翻訳の教師なし適応の検討. Technical Report 3, 豊橋技術科学大学, 豊橋技術科学大学, 豊橋技術科学大学, dec 2018. [5] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp.311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [6] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian scientific paper excerpt corpus. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 2204-2208, Portorož, Slovenia, May 2016. European Language Resources Association (ELRA). [7] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open source toolkit for statistical machine translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, Prague, Czech Republic, June 2007. Association for Computational Linguistics. [8] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A3-2.pdf
# Non-Autoregressive Translation モデルにおける 事前並び替え適用手法の検討 瓦祐希 大阪大学大学院情報科学研究科 kawara.yuki@ist.osaka-u.ac.jp } Chenhui Chu 京都大学大学院情報学研究科 chu@i.kyoto-u.ac.jp } 荒瀬 由紀 大阪大学大学院情報科学研究科 arase@ist.osaka-u.ac.jp ## 1 はじめに 統計的機械翻訳 (SMT) において、原言語と目的言語間の語順の相違は翻訳精度に大きな影響を与えることが知られている $[8]$ 。この問題を解決する手法として、翻訳器に入力する前に原言語文を目的言語文の語順に近づくように並び替える事前並び替え手法が提案されてきた $[8,4]$ 。特に英語・日本語間のように語順の大きく異なる言語対において、事前並び替えを行うことで SMT での翻訳精度は大きく改善した $[8,4]$ 。しかし、Autoregressive Translation (AT) では、事前並び替えを行なった文をそのまま入力として使用すると、事前並び替えを行わなかった文を入力として使用した場合と比較して翻訳精度が低下することが報告されている $[1,4,5]$ 。 近年では、推論時に翻訳文の全単語を一度に出力する Non-Autoregressive Translation (NAT) が提案され、盛んに研究されている $[2,12,10]$ 。NAT モデルによって翻訳にかかる速度は上昇した。しかし各単語を独立に出力するため、前に出力した単語を考慮した翻訳が出来ず、AT モデルと比較して翻訳精度が低下するという問題点がある。また NAT モデルで翻訳を行う際は、デコーダの入力としてエンコー ダの出力をそのままの順序で使用するため、語順の相違を考慮することが出来ない。 本研究では、NAT モデルにおける事前並び替えの効果的な適用手法の検討を行う。事前並び替えを行なった原言語文をエンコーダに入力する手法、エンコーダの出力を並び替える手法、エンコーダの入力で事前並び替えの情報を使用する方法で検証を行なった。ASPEC コーパス [9]を使用した英日翻訳実験の結果、NAT モデルでは AT モデルと異なり,事前並び替えを行なった文をそのままエンコーダに入力することで翻訳精度が向上することが明らかとなった。 ## 2 関連研究 代表的な AT モデルである Transformer [13] は、 self-attentionを使用して翻訳を行うモデルである。 このモデルは推論の際に以前に出力した単語に基づいて次の単語の予測を行うため、デコード処理の並列化ができず、翻訳文の長さに比例した時間がかかる。そこで $\mathrm{Gu}$ ら [2] は翻訳文を一度に出力する NAT モデルを提案した。NAT モデルは AT モデルと比較すると翻訳速度が大幅に向上したが、各単語を独立に出力するため周辺の単語に基づいた翻訳が出来ず、翻訳精度が低下してしまうといった問題がある。特に英語・日本語のように語順の大きく異なる言語対の翻訳では、語順の考慮が困難である。 Shu ら [12] は潜在変数モデルによる NAT モデル (LaNMT) を提案した。目的言語文の不確かさを低次元の潜在変数によってことでモデリングし、その潜在変数に基づいて翻訳文の出力を行うことでより精度の高い翻訳を可能にしており、最高性能を達成した翻訳手法の一つである。しかし、エンコーダの出力をそのままの順序で使用してデコーダの入力として使用しているため、並び替えは考慮していない。本研究では LaNMT に対し、効果的に事前並び替えを適用する手法を検討する。 Ran ら [10] は、Transformerにより原言語文の語順を並び替えた隠れ変数を NAT のデコーダに入力することで翻訳精度が向上すると報告している。しかし本手法を LaNMT に直接適用することはできず、 また Transformerによる事前並び替えは、AT モデル 図 1 LaNMT モデルの全体図。 と同様、文の長さに比例した時間がかかるという課題がある。 ## 3 LaNMT における事前並び替えの 適用 ## 3.1 前提知識:LaNMT LaNMT モデルの全体図を図 1 に載せる。LaNMT は大きく四つのサブモデルからなり、原言語文である $x$ から潜在変数 $z$ を予測するモデル、 $x$ と目的言語文 $y$ から $z$ を予測するモデル、 $z$ から目的言語文の長さ $l_{y}$ を予測するモデル、 $x 、 z 、 l_{y}$ から $y$ を予測するモデルである。学習は、以下の式 (1) で示される変分下限を最大化することを目的に学習を行う。 $\mathscr{L}(\omega, \phi, \theta)$ $ \begin{aligned} & =\mathbb{E}_{z \sim q_{\phi}}\left[\sum_{i=1}^{|y|} \log p_{\theta}\left(y_{i} \mid x, z, l_{y}\right)+\log p_{\theta}\left(l_{y} \mid z\right)\right] \\ & \quad-\sum_{k=1}^{|x|} \operatorname{KL}\left[q_{\phi}\left(z_{k} \mid x, y\right) \| p_{\omega}\left(z_{k} \mid x\right)\right] \end{aligned} $ $\omega$ はエンコーダ側の、 $x$ が分かっている時の事前分布をモデル化するパラメータ、 $\phi$ はエンコーダ側の、 $x$ と $y$ が分かっている時の事後分布をモデル化するパラメータ、 $\theta$ はデコーダ側のパラメータを表す。事前分布、事後分布は予測された潜在変数 $z$ から linear 層によって計算される。推論時は $y$ は存在しないため、まず原言語文 $x$ から $z$ の計算を行い、 それをデコーダの入力として使用して翻訳文 $y^{\prime}$ の予測を行う。それから出力した $y^{\prime} を$ 使用して $z$ の再 図 2 Length-transform の例。この例では、エンコーダの出力は 6 単語、デコーダへの入力は 4 単語としている。 計算を行い、新たな翻訳文の出力を行う。これを決められた回数行い、最後の出力を最終的な翻訳文とする。 原言語文の長さと目的言語文の長さは異なることがあるため、デコーダの入力はエンコーダの出力から計算を行う必要がある。LaNMT では length-transform という機構によってエンコーダの出力からデコーダの入力を計算している。図 2 に例を示す。エンコーダの出力 $z$ からデコーダの入力 $z^{\prime}$ は、以下の式に従って各位置を基準に計算された重みを使用し $z$ の重み付き和によって計算される。 $ \begin{aligned} z_{j}^{\prime} & =\sum_{k=1}^{|x|} w_{k}^{j} z_{k} \\ w_{k}^{j} & =\frac{\exp \left(a_{k}^{j}\right)}{\sum_{k^{\prime}=1}^{|x|} \exp \left(a_{k^{\prime}}^{j}\right)} \\ a_{k}^{j} & =-\frac{1}{2 \sigma^{2}}\left(k-\frac{|x|}{l_{y}} j\right)^{2} \end{aligned} $ $j$ はデコーダの入力のインデックス、 $k$ はエンコー ダの出力のインデックス、 $a_{k}^{j}$ はデコーダの入力に対するエンコーダの出力のアテンション、 $w_{k}^{j}$ はデコーダの大力に対するエンコーダの出力の重みを表す。各 $z^{\prime}$ に対する重みは式 (3) によってそれぞれの位置を中心とした正規分布によって計算される。 ## 3.2 事前並び替えの適用 本研究では、(1) 事前並び替えを行なった原言語文をエンコーダに入力するシンプルな手法、(2) 潜在変数 $z$ を並び替える手法、(3) 事前並び替えのインデックスの position encoding を足し合わせる手法によって事前並び替えの利用の検証を行う。以降では (2) および (3) の手法について説明する。 (2) 潜在変数 $z$ を並び替える手法 LaNMTでは原言語文の潜在変数 $z$ の順番をそのまま使用している 表 1 英日対における翻訳結果。それぞれのモデルのベースラインと $p<0.05$ で有意差があり、精度が向上したものを $\uparrow$ で、精度が低下したものをしで示す。 表 2 英日対における翻訳結果。それぞれのモデルのベースラインと $p<0.05$ で有意差があり、精度が向上したものを个で、精度が低下したものをしで示す。“w/o knowledge distillation”と “w/ knowledge distillation”の行はそれぞれ knowledge distillation をせず訓練した結果と knowledge distillation して訓練した結果を表す。 が、そのままでは語順の相違を考慮することが出来ない。そこで潜在変数 $z$ の変換の際に以下の式 (4) に示すように並び替えた後のインデックスを使用することで語順の相違を考慮した翻訳が可能になると期待される。 $ z_{j}^{\prime}=\sum_{k=1}^{|x|} w_{k}^{j} z_{r_{k}} $ $r_{k}$ は原言語文の $k$ 番目の単語の、並び替えた後のインデックスである。 $z_{k}$ を並び替えてから重み付き和を計算することで、対応した目的言語文の位置に近い $z_{r_{k}}$ の重みが大きくなり、並び替えた後の文における周辺単語をより考慮した $z^{\prime}$ が計算できる。 (3) 事前並び替えのインデックスの position encoding を足し合わせる手法ここでは事前並び替えを利用するため、事前並び替えのインデックスの position encoding を足し合わせる手法を設計する。 Kawara ら [5] は AT モデルにおいて事前並び替えのインデックスによる position encoding を足し合わせることで翻訳精度が向上したことを報告しているが、NAT モデルにおける効果は定かではない。NAT モデルにおいて事前並び替えのインデックスによる position encoding を足し合わせることで、エンコー ダで語順を考慮した潜在変数の計算を行うことが可能になる。 ## 4 翻訳実験 ## 4.1 実験設定 ASPEC コーパス [9] を使用して英日翻訳実験を行なった。ASPECコーパスに含まれている訓練デー タは 300 万分、開発データは 1,790 文、テストデー タは 1,812 文である。翻訳器の学習には上位 200 万文のうち、原言語、目的言語がともに 3 単語以上 50 単語以下で、かつ単語数の比が 9 未満である約 180 万文を使用した。 英語文の単語分割および品詞タグ付けには Stanza1)を使用した。日本語の形態素解析は Juman 2) で行なった。 事前並び替え手法として BTG [8] を使用した。事前並び替えモデルは、訓練データのうち上位 50 万  文からランダムにサンプリングした 10 万文を使用して 20 イテレーションの訓練を行なった。単語クラスタ数は 256 に設定し、単語アライメントは MGIZA $^{3 )}$ を使用して計算した。 事前並び替えの適用手法 (2) および (3) は Shu らによる LaNMT の公開モデル $\left.{ }^{4}\right)$ 上に実装した。訓練は 50000 ステップ行なった。分散表現の次元数および学習率は Shu らの設定に従った。また Shu らと同様、翻訳は 1 度 refinement した。翻訳結果において同じ単語が 2 回以上繰り返されている場合は 2 回目以降を除去した。 評価指標として BLEU [6] と RIBES [3] を使用した。有意差検定はブートストラップ法 [7] に従って行なった。 ## 4.2 実験結果 実験結果を表 1 に示す。ここで Gold-standard は単語アライメントの計算をした後、アライメントの交差がなくなるように並び替えたものを指す。 AT モデルでは先行研究同様、事前並び替えをそのまま使用するとべースラインと比較して BLEU および RIBES が低下した (それぞれ -4.33 ポイント、 -2.53 ポイント)。一方、NAT モデルでは事前並び替えをそのまま使用するとベースラインと比較して BLEU が向上した (+1.87 ポイント)。Gold-standard を使用して学習を行なった翻訳実験では、AT モデルにおいても NAT モデルにおいても大幅に翻訳精度が向上した (AT モデルで BLEU が +9.31 ポイント、RIBES が +6.17 ポイント、NAT モデルで BLEU が +10.25 ポイント、RIBES が +6.84 ポイント)。これは、翻訳の学習において並び替えの情報が有用であることを示唆している。 zを並び替える方法では、Gold-standard の順に並び替える方法においても BTG の順に並び替える方法においてもべースラインより BLEU が低下した (Gold-standard で -6.43 ポイント、BTG で -8.65 ポイント)。また、position encoding に並び替えのインデックスを使用する方法でも BLEU は低下した (Gold-standard で -1.09 ポイント、BTG で -6.65 ポイント)。翻訳精度が低下した原因として、 $z$ を並び替えることで潜在変数同士の依存関係が崩れてしまったためであると考えられる。また、position encoding を足し合わせる手法では、 $z$ の変換では原言語文の  語順をそのまま使用しているため、並び替え後のインデックスが離れている潜在変数の重みが大きくなる場合があるためであると考えられる。 ## 4.3 Knowledge Distillation に対する影響 NAT の訓練では、訓練データの参照訳をそのまま使用するのではなく、AT モデルで翻訳した出力を使用した訓練を行う Knowledge Distillation により、翻訳性能が大幅に向上することが知られている $[2,12]$ 。表 2 に、事前並び替えを適用した各モデルにおいて、Knowledge Distillationをし訓練を行なった結果を示す。ここで、BTGで AT モデルの訓練を行うとべースラインよりも精度が低下し結果として NAT モデルの訓練結果も低下すると考えられるため、Knowledge Distillation は全て Gold-standard な並び替えを行なった文によって AT モデルを訓練し翻訳したものを使用している。先行研究と異なり、 Gold-standard による Knowledge Distillation で訓練を行うと、全てのモデルで Knowledge Distillation しなかったものよりも精度が低下した。今回の実験では Byte Pair Encoding (BPE) [11]を適用しておらず未知語が出力されるため、その影響によって Knowledge Distillation による翻訳結果が低下してしまったと考えられる。Knowledge Distillation における BPE の有無の影響調査は今後の課題である。 ## 5 結論 本研究では LaNMT モデルにおける事前並び替えの適用手法について調查を行なった。NAT モデルでは AT モデルの場合と異なり、事前並び替えを行なった文をそのまま入力することで翻訳精度が向上することが明らかとなった。一方、潜在変数を並び替える手法や事前並び替えのインデックスの position encoding を足し合わせる手法では翻訳精度が低下した。今後の課題として、よりうまく語順の情報を活用した NAT モデルの検討が挙げられる。 謝辞本研究は、日本電信電話株式会社コミュニケーション科学基礎研究所および科研費\#19K20343 の助成を受けたものである。 ## 参考文献 [1] Jinhua Du and Andy Way. Pre-reordering for neural machine translation: Helpful or harmful? The Prague Bulletin of Mathematical Linguistics (PBML), Vol. 108, pp. 171-182, June 2017. [2] Jiatao Gu, James Bradbury, Caiming Xiong, Victor O. K. Li, and Richard Socher. Non-autoregressive neural machine translation. In Proc. of the ICLR, Vancouver, Canada, Apr-May 2018 [3] Hideki Isozaki, Tsutomu Hirao, Kevin Duh, Katsuhito Sudoh, and Hajime Tsukada. Automatic evaluation of translation quality for distant language pairs. In Proc. of the EMNLP, pp. 944-952, Cambridge, USA, October 2010. [4] Yuki Kawara, Chenhui Chu, and Yuki Arase. Recursive neural network based preordering for englishto-japanese machine translation. In Proc. of the $A C L-S R W$, pp. 21-27, July 2018. [5] Yuki Kawara, Chenhui Chu, and Yuki Arase. Preordering encoding on transformer for translation. IEEE/ACM Transactions on Audio, Speech, and Language Processing, 2020. [6] Papineni Kishore, Roukos Salim, Ward Todd, and Zhu Wei-Jing. BLEU: a method for automatic evaluation of machine translation. In Proc. of the ACL, pp. 311-318, Philadelphia, USA, July 2002. [7] Philipp Koehn. Statistical significance tests for machine translation evaluation. In Proc. of the EMNLP, pp. 388-395, Barcelona, Spain, July 2004. [8] Tetsuji Nakagawa. Efficient Top-Down BTG Parsing for Machine Translation Preordering. In Proc. of ACL-IJCNLP, pp. 208-218, Beijing, China, July 2015. [9] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian Scientific Paper Excerpt Corpus. In Proc. of the LREC, pp. 2204-2208, Portorož, Slovenia, May 2016. [10] Qiu Ran, Yankai Lin, Peng Li, and Jie Zhou. Guiding non-autoregressive neural machine translation decoding with reordering information. AAAI, February 2021. [11] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proc. of the ACL, pp. 17151725, Berlin, Germany, 2016. [12] Raphael Shu, Jason Lee, Hideki Nakayama, and Kyunghyun Cho. Latent-variable nonautoregressive neural machine translation with deterministic inference using a delta posterior. AAAI, February 2020. [13] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NeurIPS, pp. 5998-6008. Long Beach, USA, December 2017.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A3-3.pdf
# 多言語 BERT を単語埋め込みに用いる Many-to-Many 翻訳による低資源言語翻訳* 磯部 僚也 ${ }^{\dagger}$ Yizhen Wei ${ }^{\dagger}$ 田村 拓也 $\ddagger$ 宇津呂 武仁 $\dagger$ 永田 昌明 $\S$ $\dagger$ 筑波大学大学院 システム情報工学研究科・群 $\ddagger$ 筑波大学理工学群 エ学システム学類 ${ }^{\S}$ NTT コミュニケーション科学基礎研究所 ## 1 はじめに 近年,ニューラル機械翻訳 (Neural Machine Translation; NMT) の研究が盛んに行われている。一般的な NMT モデルは,原言語を一言語,目的言語を一言語設定し,原言語文と目的言語文からなる対訳コーパスを訓練に用い,NMT モデルの品質は対訳コーパスの質や量に依存することが知られている。そのため, 日本語とべトナム語 (越語) のような対訳コーパスが少ない低資源言語の翻訳においては, 翻訳品質が低くなってしまう問題がある。そこで,本論文では,日本語から越語 (日-to-越), 越語から日本語 (越-to-日) 等の低資源言語の翻訳に焦点を当て, 他の言語資源が豊富な言語間の対訳コーパスを活用することにより翻訳品質を向上させる手法を提案する,提案手法においては,低資源言語を含む小規模な対訳文集合に加えて,言語資源が豊富な言語間の大規模対訳文集合を多種類同時に用いて NMT モデルを訓練する Many-to-One 翻訳 [1],および, Many-to-Many 翻訳 [1] のアプローチを採用する. 本論文では特に,NMTにおける Many-to-One 翻訳・Many-to-Many 翻訳アプローチにおいて, NMT モデルの訓練において同時に用いられる訓練事例中の複数の言語間で翻訳パラメータの共有が行われることにより,低資源言語文の翻訳精度を大幅に改善できることを示す. さらに,本論文では,事前訓練型多言語言語モデルである Multilingual-BERT (mBERT) [5] をあわせて適用することにより [15],低資源言語文の翻訳精度を有意に改善することを示す. 具体的には,本論文では,まず, Many-to-One 翻訳アプローチを適用する場合においては,例えば,日-to- ^{\ddagger}$ Takuya Tamura, College of Engineering Systems, University of Tsukuba }^{\S}$ Masaaki Nagata, NTT Communication Science Laboratories, NTT Corporation, Japan 越翻訳の場合には, Asian Language Treebank Parallel Corpus (ALT) [10] の日-to-越対訳文集合 1.8 万文に対して, ドメインの異なる TED Talks Parallel Corpus (TED Talks) [2] の英-to-越対訳文集合 19.9 万文を追加した対訳文集合を訓練事例として,単一の NMT モデルを訓練した。これにより,ALT の日-to-越翻訳の翻訳精度が大幅に向上することを示す. 次に, Many-to-Many 翻訳アプローチを適用する場合においては, ALT の日-to-越対訳文集合 1.8 万文に加えて,TED Talks の日-to 英対訳文集合 19.9 万文を訓練事例として単一の NMT モデルを訓練した。これにより, ALT の日-to越翻訳の翻訳精度が大幅に向上することを示す. 最後に, NMT モデルのエンコーダ・デコーダにおける単語埋め込みとして,事前訓練型多言語言語モデルである mBERT [5] の出力を利用する手法 [15] を, Many-toOne 翻訳 [1] および Many-to-Many 翻訳アプローチ [1] に適用した。mBERT は越語, 日本語を含む豊富な多言語の非対訳単言語コーパスで事前に訓練されたモデルであり,この多言語言語モデルの出力を単語埋め込みとして利用することにより, Many-to-One 翻訳および Many-to-Many 翻訳の翻訳精度がさらに改善することを示す. ## 2 関連研究 低資源言語の翻訳において,当該言語の対訳資源以外を用いる手法としては, 異なる翻訳方向の 1-to-1 対訳文対を混合して単一モデルを訓練することにより,異なる言語$\cdot$翻訳方向の間でパラメータを共有する Many-toOne/One-to-Many/Many-to-Many 翻訳アプローチ [12, 1], および,事前訓練済みモデルに対して,転移学習あるいは fine-tuning 等, 何らかの手法を用いることにより,(低資源言語等の)NMT タスクにおいて利用するアプローチ $[16,4,11,15,8]$ が知られている. Many-to-One/One-to-Many/Many-to-Many 翻訳アプローチの一つとして, Tan ら [12] は, Aharoni ら [1]の Many-to-One/One-to-Many 翻訳において, 語族および 単語埋め込みの類似した言語間で翻訳パラメータを共有することが有効であることを示した。これに関連して, 本論文では, Many-to-One/Many-to-Many 翻訳において,対訳資源が豊富な言語対における異分野の大規模対訳文集合を利用することにより,低資源言語を含む日-to-越翻訳, および, 越-to-日翻訳の翻訳精度が改善できることを示す. 一方,事前訓練済みモデルを (低資源言語等の)NMT タスクに適用するアプローチの研究事例として, Zoph ら [16] は,大規模な仏英対訳コーパスを用いて訓練されたモデルに対して,小規模なウズベク語-英語対訳コーパスを用いた転移学習により, ウズベク語から英語への翻訳精度が改善することを示した.Dabre ら [4] は, 同じ語族に属する言語の対訳コーパスを用いて事前訓練されたモデルを転移学習に用いることが有効であることを示した.これらのアプローチの研究の一つの方向性として,近年では,大規模言語資源を用いて事前訓練したモデルを NMT タスクに対して利用するアプローチの研究が知られている. それらのモデルのアーキテクチャは, mBERT [5], XLM [6], XLM$\mathrm{R}[3]$ 等, エンコーダのみで構成されるもの, および, mBART [8], MARGE [7], mT5 [14], MASS [11] 等, エンコーダ・デコーダで構成されるものとに大別される。一例として,例えば, Zhu ら [15]においては, Transformer のエンコーダ・デコーダにおいて,多言語の非対訳コーパスによって事前訓練された mBERT の出力する単語埋め込みを用いる BERT-fused NMT の枠組みを提案し,翻訳精度が改善することを示した。また, 同様に, 多言語の非対訳コーパスによって事前訓練された mBART [8], および, MASS [11] 等のモデルにおいては, fine-tuning タスクの事例として NMT タスクへの適用事例が報告されている. これらに関連して,本論文では,低資源言語を対象とした Many-to-One/Many-to-Many 翻訳のアプローチにおいて, Zhu ら [15] の BERT-fused NMT の枠組みを採用し,低資源言語を含む翻訳タスクの翻訳精度が改善することを示す。 ## 3 データセット ## 3.1 Asian Language Treebank Parallel Corpus [10] Asian Language Treebank Parallel Corpus (ALT) は, BPPT, I2R, IOIT, NECTEC, NIPTICT, PUP, UCSY, NICT 98 機関の共同プロジェクトにより作成された対訳コーパスである. 英語 Wikinews の 20,106 文を他 の 12 言語 1 に翻訳して作成した 13 言語の対訳コーパスであり,18,088 文の訓練文対, 1,000 文の開発文対, 1,018 文の評価文対から構成されている. 本論文の評価においては, 表 1 に示す日本語-越語 (JV), 英語-越語 $(\mathrm{EV})$, 越語-日本語 $(\mathrm{VJ})$, 英語-日本語 $(\mathrm{EJ})$ の訓練文対集合, および, 日本語-越語 $(\mathrm{JV})$, 越語-日本語 $(\mathrm{VJ})$ の開発文対集合, 評価文対集合を用いた. 英語, 越語の Tokenizationには英語用の Moses Tokenizer ${ }^{2}$ を, 日本語の Tokenization には $\mathrm{MeCab}^{3}$ を,それぞれ用いた4 ## 3.2 TED Talks Parallel Corpus [2] TED Talks Parallel Corpus (TED Talks) は, カリフォルニアに拠点を置くTED 会議の講演の英語字幕から作成された 80 言語以上の対訳コーパスである. 本論文の評価においては, 表 1 に示す英語-越語 (EV), 日本語-英語 (JE), 中国語-英語 (ZE), 英語-日本語 (EJ), 英語-中国語 (EZ) の対訳文集合を用いた。英語, 越語の Tokenization には英語用の Moses Tokenizerを, 日本語の Tokenizationには MeCabを,中国語の Tokenization ## 4 Many-to-One 翻訳 本論文では, 表 1 に示す対訳文集合のうち, 日本語, および,越語を目的言語とする対訳文集合を対象として, Google Many-to-One 翻訳手法 [1]を適用した. Google Many-to-One モデルにおいては, 表 1 中の対訳文集合のうち, 目的言語が共通となる対訳文集合のみをまとめて使用し,一つの NMT モデルを訓練する.具体的には, ALT 日-to-越対訳文集合 1.8 万文を用いて訓練した翻訳モデル (図 1(a) 左), および, ALT 越to-日対訳文集合 1.8 万文を用いて訓練した翻訳モデル (図 1(b) 左) をベースラインとすると, 本論文の Google Many-to-One モデル [1] の一例は, 図 1(a) 中, および,図 1(b) 中となる ${ }^{6}$. これらのモデルの訓練時, および,翻訳評価時には, 目的言語が越語の場合には “ $<2 \mathrm{VI}>”$ タグを, 目的言語が日本語の場合には “ $<2 \mathrm{JA}>”$ タグを,それぞれ原言語文の先頭に付与して,モデルの訓練・翻訳評価を行う. ^{2}$ https://github.com/moses-smt/mosesdecoder/ ${ }^{3}$ https://taku910.github.io/mecab/ 4越語の文においては,漢字の発音がアルフアベット表記されて漢字一文字分ごとに空白で分かち書きされたものや英語由来の単語が混在していることをふまえて, 英語用の Moses Tokenizer をそのまま用いる. ${ }^{5}$ https://github.com/fxsjy/jieba 6 例えば, 図 1(a) 中のモデルでは, ALT 日-to-越対訳文集合 1.8 万文に加えて,他ドメインである TED Talks 英-to-越対訳文集合 19.9 万文をまとめて使用して一つの NMT モデルを訓練する. } (a) 日-to-越翻訳モデル (b) 越-to-日翻訳モデル 図 1: Many-to-One / Many-to-Many 翻訳 図 2: BERT-fused NMT [15] ## 5 Many-to-Many 翻訳 Google Many-to-Many 翻訳手法 [1] を適用する際には,表 1 に示す対訳文集合のうち,評価文対の目的言語とは異なる言語を目的言語とする対訳文集合も追加して一つの NMT モデルを訓練する,具体的には,本論文の Google Many-to-Many モデル [1] の一例は, 図 1(a)右,および,図 1(b) 右となる7 . 前節の Google Manyto-One モデルの場合と同様に,これらのモデルの訓練時,および,翻訳評価時には,目的言語が越語の場合には“ $<2 \mathrm{VI}>$ ” タグを, 目的言語が日本語の場合には“ $<2 \mathrm{JA}>”$ タグを,それぞれ原言語文の先頭に付与  して,モデルの訓練・翻訳評価を行う.この Google Many-to-Many モデルの評価においては,低資源言語である越語を含む翻訳タスクにおいて,評価対象の ALT コーパスの分野とは異分野であり,かつ,低資源言語である越語以外の言語のみから構成される訓練用対訳文を混合することによって, 翻訳精度がどこまで改善可能かの評価を行うことが最大の目的となる. ## 6 BERT-fused NMT [15] Many-to-One 翻訳,および, Many-to-Many 翻訳に対して,BERT-fused NMT [15] の実装を用いて事前訓練済み多言語言語モデル mBERT を適用した. 図 2 に示す BERT-fused NMT のネットワーク構成は, 図中青枠の通常の Transformer [13] に対して,事前訓練済み多 言語言語モデル mBERT が出力する単語埋め込み, および,BERT-Enc Attention 機構,BERT-Dec Attention 機構を加えた構造となっている。 ## 7 評価 評価においては, fairseqツールキット [9] 上で実装された Transformer モデル [13]を用いた ${ }^{8}$. 評価結果を表 2 に示す9. 図 1(a) 左 (日-to-越翻訳), および, 図 1(b) 左 (越-to-日翻訳) のベースラインの翻訳精度 (BLEU) は, それぞれ, 4.73, および, 5.39 と極めて低いが,Manyto-One 翻訳・Many-to-Many 翻訳いずれにおいても, 評価文集合とは異分野である TED Talks コーパスの 19.9 万文対の訓練文対を混合して NMT モデルを訓練することにより,BLEUが $10 \sim 15$ 程度改善することが分かる. 特に, 図 1(a) 右 (日-to-越翻訳), および,図 1(b)中右 (越-to-日翻訳) の設定においては,評価文集合とは異分野である TED Talks コーパスにおいて,低資源言語である越語が含まれなくても,BLEUが $10 \sim 15$ 程度改善している。また, 図 1(a) 右 (日-to-越翻訳), および,図 1(b) 右 (越-to-日翻訳) の Many-to-Many 翻訳の設定においては,評価文集合とは目的言語・分野が異なる訓練文対集合を混合したとしても,BLEUが 10 15 程度改善しており, 提案手法の有効性を示している。 さらに,表 2 において,評価文集合とは異分野である TED Talks コーパスを混合した場合においては,いずれの場合においても,BERT-fused NMT [15]によって Transformer の翻訳精度を有意 $(p<0.05)$ に改善しており, Many-to-One 翻訳・ Many-to-Many 翻訳の枠組みにおいて BERT-fused NMT [15] を適用する本論文のアプローチが有効であることを示している. ## 8 おわりに 本論文では, Many-to-One 翻訳・ Many-to-Many 翻訳アプローチ[1]によって, 日-to-越, 越-to-日の低資源言語翻訳の翻訳精度を大幅に改善できることを示した。さらに,このアプローチにおいて BERT-fused NMT [15] を適用することによって,低資源言語の翻訳精度が有意に改善することを示した,今後の課題としては,低資源言語を対象とした Many-to-One $\cdot$ Many-to-Many 翻 ^{8}$ head の数を 4 , エンコーダとデコーダを各 6 層, 単語分散表現を 512 次元,隠れ層を 1,024 次元,ドロップアウトを 0.3 , 学習率を 0.0003 とし, Adam optimizer を使用した. 150,000 ステップの訓練を行い,ALT コーパスに対して,開発文対 1,000 文に対する損失が最小となるモデルを選択し, 評価文対 1,018 文に対して評価を行つた. ハードウェアとして, TITAN RTX 24GB GPU 2 枚を使用した。 BLEU スコアの評価,および,有意差検定においては, Moses デコーダのスクリプト(multi-bleu.perl), および, mteval Toolkit をそれぞれ用いた. 9 同一条件または訓練文対のより少ない条件のもとで翻訳精度最大のものを太字で示す. } 表 1: 訓練用対訳文集合 } & 英語 & 是越語 & \multirow{5}{*}{19.9 万 } \\ 表 2: 評価結果 (「+BERT fused」が Transformer に対して有意差がある $(p<0.05)$ 場合を†で示す $)$ (a) 日本語-to-越語翻訳 (b) 越語-to-日本語翻訳 訳において,エンコーダ・デコーダ型アーキテクチャによって構成される事前訓練済みモデル $[8,14]$ に対する fine-tuning のアプローチを適用することが挙げられる。また,中国語・英語由来の単語が多く含まれる越語に対する本論文の評価結果をふまえて, 越語以外の低資源アジア言語と日本語の間の翻訳に対して, 本論文の手法の有効性を評価することが挙げられる。 ## 参考文献 [1] R. Aharoni, M. Johnson, and O. Firat. Massively multilingual neural machine translation. In Proc. NAACL-HLT, pp. 3874-3884, 2019. [2] M. Cettolo, C. Girardi, and M. Federico. WIT ${ }^{3}$ : Web inventory of transcribed and translated talks. In Proc. 16th EAMT, pp. 261-268, 2012. [3] A. Conneau, K. Khandelwal, N. Goyal, V. Chaudhary, G. Wenzek, F.Guzman ` , E. Grave, M. Ott, L. Zettlemoyer, V. Stoyanov. Unsupervised crosslingual representation learning at scale. In Proc. 58th ACL, pp. 8440-8451, 2020. [4] R. Dabre, T. Nakagawa, and H. Kazawa. An empirical study of language relatedness for transfer learning in neural machine translation. In Proc. 31st PACLIC, pp. 282-286, 2017. [5] J. Devlin, M. Chang, K. Lee, and K. Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. NAACLHLT, pp. 4171-4186, 2019. [6] G. Lample and A. Conneau. Cross-lingual language model pretraining. arXiv preprint arXiv:1901.07291, 2019. [7] M. Lewis, M. Ghazvininejad, G. Ghosh, A. Aghajanyan, S. Wang, and L. Zettlemoyer. Pre-training via paraphrasing. In Proc. 34th NeurIPS, pp. 1-14, 2020. [8] Y. Liu, J. Gu, N. Goyal, X. Li, S. Edunov, M. Ghazvininejad, M. Lewis, and L. Zettlemoyer. Multilingual denoising pre-training for neural machine translation. Transactions of the Association for Computational Linguistics, Vol. 8, pp. 726-742, 2020. [9] M. Ott, S. Edunov, A. Baevski, A. Fan, S. Gross, N. Ng, D. Grangier, and M. Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proc. NAACL-HLT: Demonstrations, pp. 48-53, 2019. [10] H. Riza, M. Purwoadi, Gunarso, T. Uliniansyah, A. A. Ti, S. M. Aljunied, L. C. Mai, V. T. Thang, N. P. Thai, V. Chea, R. Sun, S. Sam, S. Seng, K. M. Soe, K. T. Nwet, M. Utiyama, and C. Ding. Introduction of the Asian language treebank. In Proc. 19th O-COCOSDA, pp. 1-6, 2016. [11] K. Song, X. Tan, T. Qin, J. Lu, and T.-Y. Liu. MASS: Masked sequence to sequence pre-training for language generation. In Proc. 36th ICML, pp. 5926-5936, 2019. [12] X. Tan, J. Chen, D. He, Y. Xia, T. Qin, and T.-Y. Liu. Multilingual neural machine translation with language clustering. In Proc. EMNLP-IJCNLP, pp. 963-973, 2019. [13] A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. Gomez, L. Kaiser, and I. Polosukhin. Attention is all you need. In Proc. 30th NIPS, pp. 5998-6008, 2017. [14] L. Xue, N. Constant, A. Roberts, M. Kale, R. AlRfou, A. Siddhant, A. Barua, and C. Raffel. mT5: A massively multilingual pre-trained text-to-text transformer. arXiv preprint arXiv:2010.11934, 2020. [15] J. Zhu, Y. Xia, L. Wu, D. He, T. Qin, W. Zhou, H. Li, and T.-Y. Liu. Incorporating BERT into neural machine translation. In Proc. 8th ICLR, pp. 118,2020 . [16] B. Zoph, D. Yuret, J. May, and K. Knight. Transfer learning for low-resource neural machine translation. In Proc. EMNLP, pp. 1568-1575, 2016.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A3-4.pdf
# Towards Detecting Errors: Classifying Model-Generated Output in Chat Translation Yunmeng $\mathrm{Li}^{1}$, Ryo Fujii ${ }^{1}$, Makoto Morishita ${ }^{2,1}$, Jun Suzuki ${ }^{1,3}$, Kentaro Inui ${ }^{1,3}$ ${ }^{1}$ Tohoku University ${ }^{2}$ NTT ${ }^{3}$ RIKEN li.yunmeng.r1@dc. tohoku.ac.jp ## 1 Introduction With the deepening of globalization, an increasing number of people have to face a problem: how to communicate with others who speak different languages that we do not understand. Compared to hiring a translator, more people tend to use a machine translation system to get what they want to say or what they do not understand. Although machine translation has improved rapidly in news, speeches, and biomedical translation tasks [1,2], it is still in its infancy in the area of chat translation. It has been pointed out in recent studies that even a document-level system is not entirely qualified for translating chat due to its unique characteristic of multi-speakers $[3,4,5]$. In this research, we focus on figuring out why machine translation models are of low quality when translating chat. In other words, we need to evaluate the model for chat translation to find errors and make improvements for the future. Considering the fundamental purpose of translation systems, most users are not familiar with the target language and cannot determine whether the translation is accurate. Therefore, we need a solution to confirm whether the translation model fully conveys the interlocutor's meaning to avoid communication problems or misunderstandings. In chat, in addition to the correctness of words and grammar, we also have to pay attention to the gaps in understanding of each other. Hence, we need to determine whether the translation model can generate texts that are well connected to the context and make parties understand each other. To achieve this goal, we build classifiers for evaluating the performance of generated texts. The task is to predict whether a given utterance is generated by the machine translation model (labeled as 'model-generated') or taken from the corpus (labeled as 'original'). By applying these classifiers to the model-generated translations, we can conclude the behaviors of the translation model. Figure 1 An example of multilingual chat using translation models. In this research, we focus on chat defined as a twosentence dialogue between two humans using different languages to simplify the task, assuming both parties do not understand each other's language. Figure 1 is an illustration of multilingual chat of two people with the help of translation models. We trained our models and applied the classifiers on generated translations to find that classifiers had their own merits according to the types of information they had access to. Although they still have some errors, to a large extent, we can use these classifiers to correctly determine most of the chat translations with good cohesion and correct expression. ## 2 Methods To confirm the translation model's performance on chat translation, we build a translation model and a series of classification models in this research. After training the model, we generate translations and apply binary classification models to label the given utterance. With the results of classification, we can determine the translation model's performance on chat translation. ## 2.1 Translation Model We condition that a chat is composed of two consecutive sentences. Therefore, we choose the 2-to-2 strategy [6] for training, where the inputs and outputs of the model are composed of two texts. With the generated outputs, we continue to train the classification models to create the classifiers. ## 2.2 Classification Models We assume that there are two people joining in the chat, each of them speaks different languages and does not understand each other's language. With the assumption, we assign $\mathbf{A}$ and $\mathbf{B}$ to be the languages the speakers use. Additionally, we label the sentences of the chat in order as $\mathbf{1}$ and 2. Combined the two signs, the first pair of texts is labeled as $\mathbf{1 A}$ and $\mathbf{1 B}$; the second pair is labeled as $\mathbf{2 B}$ and $\mathbf{2 A}$. The corresponding labels of the example chat are shown under the texts in Figure 1, and listed in Table 1. Since applying translation models to both the A-to-B and B-to-A directions will make our task extremely complicated to determine the cause of errors, we simplified the problem by focusing only on the B-to-A side. We assume that all the $1 \mathrm{~A}, 1 \mathrm{~B}$, and $2 \mathrm{~B}$ are from the corpus, and only $2 \mathrm{~A}$ can be either generated by the model or from the corpus. With the assumption, we can apply different classifiers to $2 \mathrm{~A}$ and then synthesize the results to determine its quality. In the experiment, we prepare four different classifiers. These four classifiers are trained with $2 \mathrm{~A}$ together with one or multiple of $1 \mathrm{~A}, 1 \mathrm{~B}$, and $2 \mathrm{~B}$. To make the classifiers able to distinguish the machine-like translations, we label the data as 'model-generated' to indicate the $2 \mathrm{~A}$ part is generated by a model; otherwise, we label the data as 'original' to indicate it is from the corpus. 2B-2A For the first classifier, we use $2 \mathrm{~B}$ and $2 \mathrm{~A}$ as the training data. This classifier can predict whether a translation model generates $2 \mathrm{~A}$, taking $2 \mathrm{~B}$ as the reference information. 1A-2A For the second classifier, during training, we use $1 \mathrm{~A}$ and $2 \mathrm{~A}$ as the training data. This classifier can predict whether a translation model generates $2 \mathrm{~A}$, taking $1 \mathrm{~A}$ as the reference information. 1A-2B-2A For the third classifier, we use 1A, 2B, and $2 \mathrm{~A}$ as the training data. This classifier takes both $2 \mathrm{~B}$ and $1 \mathrm{~A}$ as the reference information. 1A-1B-2B-2A The fourth classifier takes all the 1A, $1 \mathrm{~B}$, and $2 \mathrm{~B}$ as the reference information to predict whether a translation model generates $2 \mathrm{~A}$. With the different parts of the chat as reference information, the four classifiers can determine whether $2 \mathrm{~A}$ is generated by a model or not. By looking at the results, we can conclude how the reference information contributes to the classification and evaluate the generated translations. Table 1 An example of chat with the labels 1A, 1B, 2B and 2A. ## 3 Experiment ## 3.1 Dataset Our ideal corpus needs to contain a considerable amount of chat between two people who speak different languages, and better to have labels indicating whether the conversations are smooth. Unfortunately, no existing corpus fully meets our requirements. In this research, we resorted to choose OpenSubtitles2018 ${ }^{1)}[7,8,9]$ since it has texts closer to chat conversations with multi-speakers' scenes compared with corpora of news, speeches or academic literature. In the experiment, we selected English and Japanese to be the two languages in the chat. Specifically, we assumed A to be English and B to be Japanese, according to the labels described in section 2.2. Taking 1,000 movie stories from the English-Japanese corpus of OpenSubtitles2018, we split every two consecutive sentences as a pair, and finally obtained $644,000^{2}$ ) lines of chat as the translation model's training data. To make the classification models' training data, we retranslated the texts used for training the translation model to obtain negative examples. Though those texts are not necessarily unsuitable as a response to the preceding context in the chat, we assume the idea to label model-generated texts as errors is reasonable to some extent. Actually, due to the low quality of OpenSubtitles, our translation model achieved a BLEU score of no more than 27.2, which we believe is not very high. As mentioned in section 2.2, what we need to classify is the type of $2 \mathrm{~A}$. We took $2 \mathrm{~A}$ from the model-generated texts and $2 \mathrm{~A}$ from the corpus, combined different types of original texts as reference to build the four classifiers. Each line of data is labeled as model-generated or original depending on its $2 \mathrm{~A}$ part. Although the patterns are differ-  Table 2 The accuracy on validation dataset of each classifier after training. ent, each classification model takes about 1,030,000 lines of data for the training. About 257,600 lines of validation data is used as well to evaluate the learning progress of each model during the training ${ }^{3}$. For the evaluation, we manually selected 650 lines from the translation model's 80,500 lines of test data to be the test data of the classifiers. These pairs of chat were considered to be smoothly connected. Hence, we could make sure there are no non-chat noises when applying the classifiers to the test data. ## 3.2 Settings In the experiment, we used fairseq [10] to build the translation model. Following the descriptions in section 2.1, we designed a 2-to-2 translation model in the direction of B-to-A, specifically, Japanese-to-English. To establish the training data for classification, we used the translation model to re-translate the training data, as mentioned in section 2.2. In this way, we obtained the model-generated $2 \mathrm{~A}$ that correspond to the original $2 \mathrm{~A}$ from the corpus. Based on the languages, we selected the multilingual BERT model [11] as the basis of the classification models. Four classification models were fine-tuned from multilingual BERT through transformers [12], provided by huggingface $^{4}$. We built the four classifiers: the 2B-2A classifier, the $1 \mathrm{~A}-2 \mathrm{~A}$ classifier, the $1 \mathrm{~A}-2 \mathrm{~B}-2 \mathrm{~A}$ classifier, and the 1A-1B-2B-2A classifier, based on the different types of reference data. To track the learning progress, we evaluated the models during the training of the classification models with the validation data. In the test time, the classifiers are to assign the label to the data as model-generated or original, indicating the type of the contained $2 \mathrm{~A}$.  Table 3 The classification accuracy and results on the test data containing only the model-generated $2 \mathrm{~A}$. Table 4 The classification accuracy and results on the test data containing only the original $2 \mathrm{~A}$. ## 4 Results and Analysis The accuracy of the classification models on the validation data is listed in Table 2. We used the 1,300 lines of test data mentioned in section 3.1 to test the four classifiers. The results and accuracy on the separated test data are shown in Table 3 and Table 4 . With only the test data of model-generated $2 \mathrm{~A}$, each model's performance is relatively similar. However, we notice that all the four classifiers are somehow weak on distinguishing the test data containing the original $2 \mathrm{~A}$. We consider the possible reason to be the low quality of OpenSubtitles. Among them, the 1A-2A's performance is worse than others with the test data of original $2 \mathrm{~A}$. Combined with the model's accuracy on validation data, we can conclude that the accuracy of $1 \mathrm{~A}-2 \mathrm{~A}$ is inferior to the remaining three. When tracking the differences between 2B-2A's results and $1 \mathrm{~A}-2 \mathrm{~A}$ 's results, we find that $1 \mathrm{~A}-2 \mathrm{~A}$ distinguish 107 more pairs of chat originally from the corpus as modelgenerated rather than $2 \mathrm{~B}-2 \mathrm{~A}$. We consider that $2 \mathrm{~B}-2 \mathrm{~A}$ behaves better in predicting whether $2 \mathrm{~A}$ is model-generated compared to $1 \mathrm{~A}-2 \mathrm{~A}$. Yet, we conclude $1 \mathrm{~A}-2 \mathrm{~A}$ is better at distinguishing whether the chat is well-connected while looking at the detailed texts. In the Table 5 with an example chat, it is possible to say that $2 \mathrm{~A}$ is a good and human-like translation if we only focus on 2B and 2A. However, if we $ \begin{array}{ll} \end{array} $ Table 5 An example of chat with a model-generated 2A. $ \begin{aligned} & \text { 1A He is a shithead. } \\ & \text { 2B 毎年彼は息子の誕生日を忘れるの } \\ & \text { 2A Every year he forgets his birthday. } \end{aligned} $ Table 6 An example of chat with a model-generated 2A. focus on $1 \mathrm{~A}$ and $2 \mathrm{~A}$, the chat of $1 \mathrm{~A}$ and $2 \mathrm{~A}$ is not transparent because the subject of $2 \mathrm{~A}$ does not match to the preceding context $1 \mathrm{~A}$. But the 1A-2A classifier incorrectly labeled some of the model-generated data as original-from-corpus when looking into the detailed outputs. As shown in Table 6 with an example of chat, if we look at $1 \mathrm{~A}$ and $2 \mathrm{~A}$, the conversation is connected neatly; but the meaning of $2 B$ is translated incorrectly, missing the information of 'his son.' Fortunately, the 1A-2B-2A classifier can take care of it. 1A-2B-2A relatively combines the features of the first two classifiers. Though the example chat in Table 6 is marked as obtained from the corpus via the $1 \mathrm{~A}-2 \mathrm{~A}$ classifier, it is correctly marked as model-generated through the $1 \mathrm{~A}-2 \mathrm{~B}-2 \mathrm{~A}$ classifier. We consider that the $1 \mathrm{~A}-2 \mathrm{~B}-2 \mathrm{~A}$ can distinguish whether $2 \mathrm{~A}$ is model-generated and whether the translation of $2 \mathrm{~A}$ is accurate as the same time. Moreover, we suggest that the $1 \mathrm{~A}-2 \mathrm{~B}-2 \mathrm{~A}$ classifier can indicate the cohesion of the chat and the accuracy of the translation to ensure that the two parties in the conversation can understand each other well. Observing the $1 \mathrm{~A}-1 \mathrm{~B}-2 \mathrm{~B}-2 \mathrm{~A}$ and the $1 \mathrm{~A}-2 \mathrm{~B}-2 \mathrm{~A}$ classifiers' results, we found that $1 \mathrm{~A}-1 \mathrm{~B}-2 \mathrm{~B}-2 \mathrm{~A}$ can better determine the chat that the second sentence, $2 \mathrm{~B}$ (or $2 \mathrm{~A}$ ), is shorter. The 1A-2B-2A classifier labeled the chat shown in Table 7 as model-generated, considering $2 \mathrm{~A}$ is an incorrect translation of 2B. But with the additional reference $1 \mathrm{~B}$, the $1 \mathrm{~A}-1 \mathrm{~B}-2 \mathrm{~B}-2 \mathrm{~A}$ classifier correctly recognized that it was from the corpus. In this type of chat, the second sentence is more often just a response to the first sentence. Hence, the first sentence is more significant, containing further information. When judging $2 \mathrm{~A}$, not only $2 \mathrm{~B}$ but also the preceding context $1 \mathrm{~B}$ of $2 \mathrm{~B}$ indirectly determines the quality of $2 \mathrm{~A}$. Moreover, due to the difference between English and Japanese grammar rules, fluency is more de- Table 7 An example of chat with a $2 \mathrm{~A}$ originally from the corpus. cisive in chat translation than accuracy when the sentence length is short. However, the difference between the results of $1 \mathrm{~A}-1 \mathrm{~B}-2 \mathrm{~B}-2 \mathrm{~A}$ and $1 \mathrm{~A}-2 \mathrm{~B}-2 \mathrm{~A}$ is considerably insignificant. Compared to $1 \mathrm{~A}-2 \mathrm{~B}-2 \mathrm{~A}, 1 \mathrm{~A}-1 \mathrm{~B}-2 \mathrm{~B}-2 \mathrm{~A}$ only correctly predicted 18 more of the 1300 lines of data originally from the corpus. From this, we believe that the overall performance of $1 \mathrm{~A}-1 \mathrm{~B}-2 \mathrm{~B}-2 \mathrm{~A}$ and $1 \mathrm{~A}-2 \mathrm{~B}-2 \mathrm{~A}$ are equivalent. Meanwhile, the performance of $1 \mathrm{~A}-1 \mathrm{~B}-2 \mathrm{~B}-2 \mathrm{~A}$ is not outstanding with longer sentences. We consider the possible reason to be the weakness of the BERT model since BERT can only assign two token ids to mark the order of sequences in the settings. ## 5 Conclusions and Future Work Overall, the translation model's performance in translating chat can be evaluated to a certain extent through the four classifiers established in this research. However, the classifiers still have inaccurate predictions and could not certainly determine the data originally from the corpus on the test data. We consider the reason to be the quality of OpenSubtitles2018. In future research, we will try to find or create a more proper corpus to train our models. We also hope to further predict the translation results by improving our classification models in the future to identify specific problems. ## Acknowledgements This work was supported by JSPS KAKENHI Grant Number JP19H04425. ## References [1] Loïc Barrault, Ondřej Bojar, Marta R. Costa-jussà, Christian Federmann, Mark Fishel, Yvette Graham, Barry Haddow, Matthias Huck, Philipp Koehn, Shervin Malmasi, Christof Monz, Mathias Müller, Santanu Pal, Matt Post, and Marcos Zampieri. Findings of the 2019 conference on machine translation (WMT19). In Proceedings of the Fourth Conference on Machine Translation (Volume 2: Shared Task Papers, Day 1), pp. 1-61, 2019. [2] Loïc Barrault, Magdalena Biesialska, Ondřej Bojar, Marta R. Costa-jussà, Christian Federmann, Yvette Graham, Roman Grundkiewicz, Barry Haddow, Matthias Huck, Eric Joanis, Tom Kocmi, Philipp Koehn, Chi-kiu Lo, Nikola Ljubešić, Christof Monz, Makoto Morishita, Masaaki Nagata, Toshiaki Nakazawa, Santanu Pal, Matt Post, and Marcos Zampieri. Findings of the 2020 conference on machine translation (WMT20). In Proceedings of the Fifth Conference on Machine Translation, pp. 1-55, 2020. [3] Samuel Läubli, Rico Sennrich, and Martin Volk. Has machine translation achieved human parity? a case for document-level evaluation. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 4791-4796, 2018. [4] Antonio Toral, Sheila Castilho, Ke Hu, and Andy Way. Attaining the unattainable? reassessing claims of human parity in neural machine translation. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 113-123, 2018. [5] M. Amin Farajian, António V. Lopes, André F. T. Martins, Sameen Maruf, and Gholamreza Haffari. Findings of the WMT 2020 shared task on chat translation. In Proceedings of the Fifth Conference on Machine Translation, pp. 65-75, 2020. [6] Jörg Tiedemann and Yves Scherrer. Neural machine translation with extended context. In Proceedings of the Third Workshop on Discourse in Machine Translation, pp. 8292, 2017. [7] Jörg Tiedemann. Finding alternative translations in a large corpus of movie subtitle. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 3518-3522, 2016. [8] Pierre Lison and Jörg Tiedemann. OpenSubtitles2016: Extracting large parallel corpora from movie and TV subtitles. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 923-929, 2016. [9] Pierre Lison, Jörg Tiedemann, and Milen Kouylekov. OpenSubtitles2018: Statistical rescoring of sentence alignments in large, noisy parallel corpora. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), pp. 1742-1748, 2018. [10] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of NAACL-HLT 2019: Demonstrations, pp. 48-53, 2019. [11] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, 2019. [12] Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 38-45.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A4-1.pdf
# 言語情報とパラ言語情報を考慮したニューラル音声翻訳 徳山 太顕 ${ }^{1}$ Sakriani Sakti ${ }^{1,2}$ 須藤 克仁 ${ }^{1,2}$ 中村 哲 ${ }^{1,2}$ 1 奈良先端科学技術大学院大学 2理化学研究所 革新知能統合研究センター AIP \{tokuyama.hirotaka.ti9, ssakti, sudoh, s-nakamura\}@is.naist.jp ## 1 はじめに 異なる言語話者同士のコミュニケーションを可能にし,言語の垣根を越える音声から音声への翻訳 (Speech-to-Speech Translation; S2ST) が注目されている. 従来, 音声翻訳は自動音声認識 (Automatic Speech Recognition; ASR),機械翻訳 (Machine Translation; MT),テキスト音声合成 (Textto-Speech; TTS)の 3 つのシステムで順々に開発されてきた. しかし, これらのシステムは言語情報の翻訳に焦点を当てており, 感情や強調などの他の音声特徴を伝えるパラ言語情報を考慮していないものがほとんどである. 最近の研究では, 言語とパラ言語の認識と翻訳をそれぞれ別々にモデル化することでパラ言語の翻訳を提案している [1]. しかし, このシステムでは ASR が隠れマルコフモデル (HMM),MT がニューラルネットワークと違うモデルをべースとしており,強調を推定,翻訳するシステムもそれぞれ ASR と MT の処理を待つ必要がある. したがって全体的に見れば複雑な構造をしており, 翻訳システムとしても実装面においてもまだ最適ではない. そこで本研究ではニューラルネットワークを用いることで言語とパラ言語の翻訳を統一的なモデルの中で考慮し, 音声から強調を重視してパラ言語情報をテキストに反映できるかについて検討を行った。評価実験では自然音声データと音声合成データを用意し,それぞれパラ言語を適用できるようにデータを編集して学習させ,自然音声と音声合成でモデルの評価を行った. その結果, 本研究で提案した手法は標準的な言語翻訳とほぼ同様の性能を維持したまま,言語情報とパラ言語情報の両方を翻訳できることが明らかになった。 ## 2 パラ言語情報の翻訳モデル 従来の翻訳システムにおいて, Do らはパラ言語 (a) 従来のパラ言語情報を利用した Cascade ASR-MT Model [1] (b) 提案するパラ言語情報を利用した Cascade ASR-MT Model (例:Emphasis Tag) (c) 提案するパラ言語情報を利用した Direct ST Multitask Model (例:Emphasis Tag) 図 1 パラ言語情報の翻訳モデル 情報を離散化して翻訳するシステム [1] を提案した。彼らのシステムは図 1(a) (従来の Cascade ASR-MT Model)のように, ASR 処理後に強調を推定, MT 処理後にその強調を適用している。例えば,“今日は暑いです.”という音声を,“暑い”を強調して入力して考えた場合,ASRでは“きょうはあついです” というテキストが出力され,その出力テキストを基に強調推定を行う.次にその“きょうはあついです”というテキストを MT に入力することで“It is hot today.”と翻訳されるが,この時に日本語と英語の対応関係を表す Attention を利用して翻訳箇所と強調の関係を計算し, “hot” が強調されていることが分かるように出力される。しかし,これを一つの翻訳システムで考えた場合,様々なモデルを取り入れることによるシステムの大きさや複雑さ, さらに翻訳の遅延が発生するなど幾つかの制約がある. そこで,今回の提案として図 1(b) (提案の Cascade ASR-MT Model) のように,ニューラルネットワークを利用して強調推定や強調翻訳を一つのシステムに統合することを考える.その場合,テキストデー タと強調データを同時に翻訳させるため,テキストデータに強調データを付与させることを考える. 例えば,先ほどと同様の“今日は暑いです.”という音声を入力した場合,ASR では“きょう 0 は 0 あつい 3 です 0 。 0 ”のように“あつい”に強調のデータを表すものを付与させる.次に,これを MT で翻訳した場合,“It0 is0 hot3 today0 .0” のように対応する単語に対して同様に強調のデータを出力できるように考える.強調を含むテキストデータについて,次の 3 種類のテキストデータを提案する。 Emphasis Tag: Emphasis 1-Token: きょうは<to3> あついです。 It is $\langle$ to3 3 hot today ## Emphasis All Token: <to0>きょう<to0>は<to3>あつい<to0>です<to0>。 $<$ to $0>$ it $<$ to $0>$ is $<$ to $3>$ hot $<$ to $0>$ today <to $0>$. それぞれの ASR とMTを学習させた後, 図 1(c) (提案の Direct ST Multitask Model) のように Ye らのマルチタスクモデル [2] をベースとした一つのモデルにし,音声からパラ言語情報を含む直接 Speech-to-Text (ST) 翻訳を行う. 本来このマルチタスクモデルは ASR から,ASR,MT のデコーダを介さずに TTS のデコーダからスペクトログラムを出力するモデルであるが,今回は学習させた ASR のエンコーダと MT のデコーダを利用して学習を行わせる.つまり,同様に強調した音声を入力した際,“きょう 0 は 0 あつい 3 です 0 。 0 ”を出力せず,そのまま MT のモデルを通して “It0 is0 hot 3 today 0.0 ” と出力させることを考える。 また,言語によっては音声の強調を副詞等を利用して言語的に強調できる可能性がある [3]. したがって,もう一つの提案としてパラ言語情報を言語情報的に翻訳する実験も同時に行う。 ## 3 データセット ## 3.1 使用するデータセットについて 本研究では日本語の母語話者による自然音声と, その書き起こしたテキストデータ,また,単語を挿入することでテキストの内容を強調したデータを利用する. これは 1029 文をそれぞれ 5 段階の強調 図 2 強調を含む音声合成の生成 図 3 強調を含むテキストの作成 (強調レベル 3 の場合) レベルで作成されたものであり,また,強調レベルに関しては 0 から 4 までのラベルが割り当てられ, その値が高いほど強調される単語が強く発音される.しかし,このデータは強調を含めて約 5000 文とデータセットとしては非常に少ない. そこで今回は BTEC (Basic Travel Expressions Corpus) コーパス [4]を利用する.ただし,BTEC には強調を含んだテキストデータや,音声データが含まれないため,これらは人工的に作成した. データ作成に関しては次の 3.2 節で述べる. これらを利用して実験を行うが,前述のとおり自然音声のデータは BTEC と比べてはるかに少ないため,20 倍にオーバーサンプリングして学習データに追加して実験を行う. ## 3.2 強調を含む音声とテキストの生成 音声はまず,図 2 のようにテキストの一番初めに現れる形容詞の単語を中心に分離させる. 次に各分離したテキストにおいて、Google Text-to-Speech ${ }^{1)}$ を利用して合成音声を生成させる. ここで音声の強調を反映させるように,形容詞部分の音声のみを音量を 5 段階に分けて変換させる。最後に各音声を連結させて一つの音声にすることで,強調を含む音声が生成できる. また, 図 3 のようにテキストも形容詞前後で分離させ,それぞれのシステムに合わせて情報を追加させた. 1) https://pypi.org/project/gTTS/ 図 4 単語の挿入例 ## 3.3 挿入を含むテキストの生成 まず自然音声のテキストデータのうち,単語が挿入されたテキストの中からどのような単語が挿入されているかを各強調レベルごとに抽出する. これらの抽出した単語のうち最もよく使われている単語 5 つをランダムに選び,図 4 のように形容詞の前に挿入してテキストデータを作成する。そこで MTを利用して, 元のテキストデータから正しい位置に単語が挿入されるかを実験した。 ## 4 評価実験 ## 4.1 実験設定 実験はオープンソースの OpenNMT-py [5] を利用した. エンコーダとデコーダは Transformer [6] で構成し, 最適化には Adam を使用した. このモデルで ASR と MTを別々に学習させてテストを行い,それぞれの結果から評価を行った。続いて $\mathrm{ST}$ 翻訳では ASR と MTのそれぞれの学習済みのモデルを利用して再度学習させ,MT と同様に評価を行った。また,単語を挿大する実験も同様に MT を利用した。 ## 4.2 評価方法 評価方法として,まず各提案したデータセットが,ベースラインである一般的な ASR や MT (No Emphasis) と,2節でも述べた従来法 (Separated) と比較しながら評価を行う,ASRでは単語誤り率 (Word Error Rate:WER)を評価し,MT と ST 翻訳では BTEC と自然音声のテキストデータで, Multi-BLEU, SacreBLEU ${ }^{2}$ を用いて評価する。 また,強調を含む翻訳システムにおいては,出力テキストを評価する言語評価と, 強調部分が正しいかを評価する強調評価に分けて行う。それぞれの評価の際,強調を表すタグとトークンを分離させ,強調評価の場合は, 全単語での強調レベルを正解デー タとの F1-score を計算する. また,挿入の実験では,出力が元のテキストを変化させず,各強調レべ  ルに合った単語を挿入できている割合で評価した。 ## 4.3 実験結果 ## 4.3.1 言語評価 言語評価は表 1 の通りである. Synthetic においてはトークンを利用したものが ST 翻訳において 2〜 5 ポイントほど高いことが分かる. 特に, All Token は, No Emphasis と同程度,もしくは 2 ポイント前後向上した. これはトークンを利用することで語彙数の変化が小さい事や,トークンを利用して強調レベルを学習できることが考えられる。 逆にタグを付けたものでは ASR の精度が少し向上する一方で,ST 翻訳のスコアは低下した。これは各単語にタグを付けることによって語彙数が増えることから,ASRにおいては強調が違えば別の単語であると認識できる一方で,MT P ST 翻訳においては別の単語であることから翻訳モデルを複雑にしてしまうことが原因であると考えられる。 一方,Natural での ST 翻訳の評価はかなり悪くなってしまった。これは ASRでの影響が大きいため, 自然音声の学習データを増やすなど ASR のスコアを改善する必要がある. ## 4.3.2 強調評価 強調評価は表 2 の通りである. ASR においては従来法よりも同等もしくは高いスコアを出しており,提案法が比較的優れている. 特に提案法では, 言語評価を含めて音声と編集したテキストデータで学習できていることが分かる. また,MTやST翻訳においては,強調の含まれる単語の位置が翻訳結果に依存するため, 文レベルにおいての強調は正しいとしても,単語の位置による強調が違うことが多かったため, ASR と比べて值は低い。しかし,提案法においては従来法よりも值は大きく,強調を含めた翻訳においても提案法が優れていると言えるであろう。また,従来法での値が非常に低い理由として,強調が Attention の関係性に依存する一方で,該当する単語に強調が当たってない結果が多かったことが挙げられる. また,翻訳結果によって表現が変わることも考えた場合,別の評価方法も考慮する必要がある。 ## 4.3.3 挿入評価 挿入評価は表 3 の通りである. 1-Token の方がより高い精度で插入を行えていることが分かるが,これは各トークンと挿入する単語が対応しているこ 表 1 言語評価 表 2 強調評価 (F1-score) 表 3 挿入評価 とが考えられる。一方で Tags や All Token の場合では精度が比較的低い。これらは全ての単語にタグやトークンが付いていることから,学習時にそれぞれの挿入される単語との関係が取れていないことや, それに関連して出現回数が少ない単語に対して対応できていないことが考えられる。 ## 5 おわりに 本研究ではパラ言語情報をニューラルネットワー クを用いて翻訳することを目的として,2 節のようなモデルやパラ言語情報を含めたテキストを提案した. 続いて,3節のようにパラ言語情報を含むデー タセットを準備して実験と評価を行った。 実験結果から,従来法と比べると言語評価,強調評価の両方の観点から提案法が高いスコアを出すことができた. 提案法においてはシステムによって得手不得手があるが,ST 翻訳においてはトークン を利用したものが優れた結果を出しており,実用化を考えた場合は Natural でも従来法より高いスコアを出している All Token が最も適していると考える. また,今回は音声データも含め,学習データの大半が BTEC のものであるため Natural における結果は優れているとは言えないが,Synthetic における評価から学習データによっては現在よりも精度の高いモデルに学習できる可能性がある. 今後の展望として,音声の強調レベルや挿入デー タに関して人間による主観評価を行うことや,言語強調についても直接翻訳が行えるようにモデル考えること必要がある.また,自然音声のデータを確保して Natural の精度を向上させることを目指す. ## 謝辞 本研究の一部は JSPS 科研費 JP17H06101 の助成を受けたものである. ## 参考文献 [1] Quoc Truong Do, Sakriani Sakti, and Satoshi Nakamura. Sequence-to-sequence models for emphasis speech translation. IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol. 26, No. 10, pp. 1873-1883, 2018. [2] Ye Jia, Ron J. Weiss, Fadi Biadsy, Wolfgang Macherey, Melvin Johnson, Zhifeng Chen, and Yonghui Wu. Direct speech-to-speech translation with a sequence-to-sequence model, 2019. [3] Quoc Truong Do, Sakriani Sakti, and Satoshi Nakamura. Toward multi-features emphasis speech translation: Assessment of human emphasis production and perception with speech and text clues. In 2018 IEEE Spoken Language Technology Workshop (SLT), pp. 700-706, 2018. [4] Genichiro Kikui, Eiichiro Sumita, Toshiyuki Takezawa, and Seiichi Yamamoto. Creating corpora for speech-to-speech translation. In Eighth European Conference on Speech Communication and Technology, 2003. [5] Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, and Alexander M. Rush. Opennmt: Open-source toolkit for neural machine translation, 2017. [6] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need, 2017.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A4-2.pdf
# 音声認識仮説の曖昧性を考慮する Multi-task End-to-End 音声翻訳 胡 尤佳 ${ }^{1}$ 須藤 克仁 ${ }^{1,2} \quad$ Sakriani Sakti ${ }^{1,2}$ 中村 哲 ${ }^{1,2}$ 1奈良先端科学技術大学院大学 2理化学研究所 革新知能統合研究センター AIP \{ko.yuka.kp2, sudoh, ssakti, s-nakamura\}@is.naist.jp ## 1 はじめに 音声翻訳 (Speech Translation; ST) は,原言語の音声を入力として目的言語のテキストを出力する技術である。従来は音声認識モデル (Automatic Speech Recognition; ASR) と機械翻訳モデル (Machine Translation; MT) をつなぎ合わせた Cascade モデルにより実現されていた。それに対し,近年ではニュー ラルネットワークを用いた系列変換技術により,原言語の音声を直接目的言語のテキストに翻訳する End-to-End モデルの研究が進んでいる. Cascade モデルにおいては,音声認識の結果に誤りが含まれている場合,機械翻訳の精度も大きく低下するという問題があり, 音声認識の誤りに頑健な機械翻訳が必要となる. End-to-End モデルでは,事前学習された ASR,MT モデルによる Encoder と Decoder の初期化や,ASR,MT を Sub-taskとして, Main-task と同時に学習をする Multi-task Learning が精度向上のために不可欠である. しかし,一般的な Multi-task Learning では, 正解と一致しない予測結果に対して等しく損失が計算される. そのため, 正解系列と異なるが発音の似た予測結果と, 発音の似ていない予測結果の損失が同じになる場合があり問題となる. よって, End-to-End モデルにおいても, Cascade モデルと同様に, 音声認識出力の曖昧性を考慮した学習方法が必要となる。 本研究では, End-to-End 音声翻訳モデルにおいて,音声認識出力の曖昧性を考慮した Multi-taskによる学習方法を提案する. 提案手法による実験と分析を通じて,本手法が音声翻訳における音声認識出力の曖昧性に対する頑健性の向上と, 翻訳精度の向上に寄与することを確認した. ## 2 関連研究 End-to-End 音声翻訳における Multi-task Learning [1, 2] では,Main-taskである ST-taskを学習するだけで なく,Encoder とその隠れべクトルを共有した上で Sub-taskである ASR-task の学習も同様にする. Kano ら [3] は, Multi-task の仕組みを用いて, 語順の差異の大きな英日 End-to-End 音声翻訳において,音声認識,機械翻訳といった比較的簡単なタスクから学習し, 構造を組み替えながら最終的に, 入力音声から出力系列を直接翻訳するモデルをカリキュラム学習する手法を提案し, 翻訳精度を向上させた. Chuang ら [4] は, Multi-task End-to-End 音声翻訳で,Sub-taskである ASR-task の学習において,予測単語と正解単語の埋め込みべクトルのコサイン類似度を損失関数の計算に利用し,音声翻訳精度を向上させた。これは,ASR-taskにおいて,単語の意味的類似性を考慮することで,音声翻訳の頑健性を向上させる試みと言える。 Osamura ら [5] は, Cascade モデルの音声翻訳において, One-hot ベクトルの代わりに, 音声認識の事後確率分布を表すべクトルを機械翻訳モデルへ渡し学習をすることで,音声認識誤りに対する頑健性を向上させた. 本研究では, Kano ら, Chuang らと同様に Multi-task の手法と, Osamura らの手法をもとに, End-to-End においても音声認識出力の曖昧性に頑健な音声翻訳の実現を試みる。 ## 3 関連技術 ## 3.1 End-to-End 音声翻訳 End-to-End 音声翻訳モデルは Encoder-Decoder モデルにより実現される. $\mathbf{X}=\left(x_{1}, \ldots, x_{T}\right)$ を原言語の入力音声に対する音響特徴量の系列とし, $\mathbf{Y}=\left(y_{1}, \ldots, y_{N}\right)$ を目的言語記号列とする. ここで, $y_{i} \in V$ であり,$V$ は目的言語の語彙集合, $T$ は音響特徵量のフレーム長, $N$ は目的言語記号列のトークン数を表す。 $v$ を語彙集合 $V$ の元とすると, $i$ 番目の目的言語 図 1 Single-task ST (左) と Multi-task ST (右) 記号の事後確率は以下の式で表される $ P_{\mathrm{ST}}\left(y_{i}=v\right)=p\left(v \mid \mathbf{X}, y_{<i}\right) . $ ST の学習時の損失関数 $\mathscr{L}_{\mathrm{ST}}$ は, cross entropy loss を用いて以下の式で表される $ \mathscr{L}_{\mathrm{ST}}=-\sum_{i=1}^{N} \sum_{v \in V}^{V} \delta\left(v, y_{i}\right) \log P_{\mathrm{ST}}\left(y_{i}=v\right) $ 式中の $\delta\left(v, y_{i}\right)$ は, $v=y_{i}$ のとき 1 ,そうでなければ 0 とする. ## 3.2 Multi-task End-to-End 音声翻訳 Multi-task 音声翻訳においては,音響特徵量が Encoderにより隠れベクトルに変換され,その後 ST-task (Main-task) の Decoder と ASR-task (Sub-task) の Decoder の両方を用いて学習される. 式 (1) (2) より, $P_{\mathrm{ASR}}$ を $P_{\mathrm{ST}}$ と同様に定義すると, ASR 学習時の損失関数 $\mathscr{L}_{\mathrm{ASR}}$ は以下の式で表される $ \mathscr{L}_{\mathrm{ASR}}=-\sum_{i=1}^{N} \sum_{v \in V}^{V} \delta\left(v, y_{i}\right) \log P_{\mathrm{ASR}}\left(y_{i}=v\right) $ ST-task の損失関数を $\mathscr{L}_{\mathrm{ST}}$, ASR-task の損失関数を $\mathscr{L}_{\text {ASR }} , \mathscr{L}_{\text {ASR }}$ に対する重みを $W_{\text {ASR }}$ とすると,学習時全体の損失関数 $\mathscr{L}$ は以下の式で表される $ \mathscr{L}=\left(1-W_{\mathrm{ASR}}\right) \mathscr{L}_{\mathrm{ST}}+W_{\mathrm{ASR}} \mathscr{L}_{\mathrm{ASR}} $ 3.1 節で述べたモデルを Single-task ST,本節で述べたモデルを Multi-task ST とし,それぞれの概要図を図 1 に示す。本稿では,式(3)における $\mathscr{L}_{\mathrm{ASR}}$ を, hard label (One-hot reference) による cross entropy loss として $\mathscr{L}_{\text {hard }}$ で表す. ## 4 提案手法 本手法では,Multi-task End-to-End 音声翻訳モデルの ASR-task の学習の際に,事前学習された ASR の 図 2 従来手法 (左) と提案手法 (右) 事後確率分布を reference として与え, ASR 出力の曖昧性を考慮するよう ST を学習する手法を提案する。 従来手法と提案手法の概要図を図 2 に示す. 3.2 節で述べた従来手法では, 正解と一致しない予測結果に対して等しく損失が計算されてしまい,発音の類似した予測結果と類似していない予測結果が同じように損失を計算され,ASR 出力の曖昧性を考慮できないと考えられる。 そこで提案手法では, ASR-task において, One-hot reference の代わりに,ASR 出力の曖昧性を表す ASR 事後確率分布 (ASR posterior distribution) のベクトルを reference として用いる. ASR 事後確率分布は,発音が似ている単語が同じようなスコアを持つことが期待されるため,どの単語が他のどの単語と発音が類似しているか,という情報を保持している.これを reference とすることで,音声認識出力の曖昧性に対して頑健な音声翻訳が学習できると期待できる. Osamura らの方法では, Cascade モデルにおいて, 事前学習された ASR により出力される事後確率分布を, One-hot ベクトルの代わりに MT の入力とし,チューニングすることで音声認識出力の曖昧性に対して頑健な翻訳を実現した。それと比較すると, 本手法では,ASR 事後確率分布をそのまま入力とするのではなく reference として用い,損失関数の計算方法を変える点で違いがある. ASR 事後確率分布は,事前学習されたASRを用いて得られた,各トークンに対するスコアを持ったべクトルの softmaxを取り,soft label とする. soft label において $i$ 番目のトークン $v$ のスコアを $P_{\mathrm{soft}}(i, v)$ とすると,提案手法よる損失 $\mathscr{L}_{\text {soft }}$ は以下の式で表される $ \mathscr{L}_{\text {soft }}=-\sum_{i=1}^{N} \sum_{v \in V}^{V} P_{\text {soft }}(i, v) \log P_{\mathrm{ASR}}\left(y_{i}=v\right) . $ 表 1 実験に用いた Fisher CallHome Spanish コーパス ${ }^{1)}$ 本実験では, $\mathscr{L}_{\text {ASR }}$ を以下の式として定義し, $\mathscr{L}_{\text {hard }}$ と $\mathscr{L}_{\text {soft }}$ の割合を,重み $W_{\text {soft }}$ で調整できるようにした $ \mathscr{L}_{\text {ASR }}=\left(1-W_{\text {soft }}\right) \mathscr{L}_{\text {hard }}+W_{\text {soft }} \mathscr{L}_{\text {soft }} . $ ## 5 実験 本実験では,データセットとして,Fisher Spanish CallHome Spanish コーパス [6]を用い, Spanish-English (Es-En) の音声翻訳モデルを作成した. 本データセットは,170 時間のスペイン語による電話での日常会話音声と書き起こし,それらに該当する英語テキストにより構成されている。音響特徴量は, Kaldi [7] により抽出した, 3 次元の pitch が付加された 83 次元の Fbank+pitch を用いた.テキストは句読点,記号を取り除き小文字化し,音響特徴量はフレーム長 3000 ,テキストは文字数が 400 より大きいものを取り除いた. 実験に用いたデータセットの内訳を表 1 に示す. ASR,ST モデルの学習,評価はともに表 1 のデータを用いた. Tokenizer は SentencePiece [8] により, 最大語彙数 1000 として, train データからスペイン語と英語のトークンを共有した辞書を作成し, train, dev, test データに適用した. ASR,ST モデルは ESPnet [9]を用い,Transformer [10] により作成した. モデルの設定を表 2 に示す. soft label の作成に必要な事前学習 ASR モデルは,学習後,dev データの WERが最も低いモデルを用いた. ST モデルは, 学習後, $\operatorname{dev}$ データの BLEU スコア [11]が高いモデルを上から 5 つ取り出し, model averaging をし,最終的なモデルとして test データで評価した. 本実験では,式 (4) (6) における $W_{\mathrm{ASR}}$ を 0.3 とし, $W_{\text {soft }}=\{0.0,0.3,0.5,0.7,1.0\}$ の 5 つの場合に分けて実験をし,BLEU スコアにより評価した。 ベースラインである cross entropy loss を用いた条件  は $W_{\text {soft }}=\{0.0\}$ に対応し,提案手法である soft loss を用いた条件は $W_{\text {soft }}=\{0.3,0.5,0.7,1.0\}$ に対応する. ## 6 実験結果と分析 Fisher CallHome Spanish コーパスの test データによる BLEU スコアの結果を表 3 に示す. $\operatorname{soft} W_{\text {soft }}$ $\operatorname{hard}\left(1-W_{\text {soft }}\right)$ が, 各 $W_{\text {soft }}$ のパラメータでの実験を表す. 例として, soft0.0-hard1.0 が, $W_{\text {soft }}=\{0.0\}$ での実験を表す。また,BLEU 4-ref は 4 つの reference を用いた BLEU スコア,BLEU 1-ref は 1 つの reference を用いた BLEU スコア,】はベースラインと比較し BLEU スコアが低下した結果,太字は BLEU スコアが最も向上した結果を表す. 実験結果から, testデータ全体として見ると, ベー スラインと比較し,提案手法で BLEU スコアが低下したものよりも,向上したものの方が多いことが分かる。また,Fisher test データにおいては,いずれの場合においても,提案手法がベースラインを上回る結果となった.また,いずれの test データにおいても,提案手法である soft1.0-hard0.0, soft0.5-hard0.5 の場合の結果が,ベースラインである soft 0.0 -hard 1.0 の結果を上回った。よって,提案手法が音声翻訳の精度改善に効果的であるということが分かった。 soft0.5-hard0.5 での Fisher test における出力結果を表 4 に示す。例 1 では, ベースラインにおいて,"intensive"と出力されるべきところが,"unthinkable"と誤って出力されている.ここで,"unthinkable"のスペイン語としては"inconcebible", "impensable"が該当する。これらは正解である"intensive"に発音が似ており,ASR-task の出力でこれらの単語を予測して 表 3 test データでの BLEU スコアの結果 (】はベースラインと比較し BLEU スコアが低下した結果) 表 4 Fisher test の出力結果の例 (soft0.5-hard0.5) 例 1 例 2 \\ & \\ しまった結果,誤った翻訳結果を出力したと考えられる。これに対し提案手法では, "intensive"に近い"intense"に翻訳できている。例 2 では,ベースラインにおいて,"risks"と出力すべきところを"colds" と誤訳している。ここで,"colds"のスペイン語として,"resfriados"が該当し,正解である"riesgos"に発音が似ている。そのため, ASR-task における予測誤りをもとに,誤った出力をしたと考えられる。これに対し提案手法では,正しく"risks"と翻訳できている。 これらの例においては,ベースラインと比較し,提案手法の方では音声認識出力の曖昧性を考慮して,正しく出力できていると考えられる. ## 7 まとめと今後の展望 本研究では,音声認識の事後確率分布を用いて, End-to-End 音声翻訳の学習をする方法を提案し,音声認識出力の曖昧性に対して頑健な音声翻訳を期待した. 実験結果から,提案手法により BLEU スコア の向上が見られ,本手法の有効性を確認できた.今後の課題として,ASR-task の出力分布の可視化をした上での定量的な分析,label smoothing loss [12] を用いた実験での有効性の検証が必要だと考えられる。 また,従来研究において,Salesky ら [13] は,音素情報を読み情報として ST に用いることで,BLEU スコアを向上させ,読み情報が ST の学習に効果的であると報告している。それを踏まえた上で,音素,音節情報を損失関数の計算に用いて,字面から組み取れない読みの曖昧性を考慮した ST モデルを作成できると期待しており,今後実験を進める予定である. ## 謝辞 本研究の一部は JSPS 科研費 JP17H06101 の助成を受けたものである. ## 参考文献 [1] Antonios Anastasopoulos and David Chiang. Tied multitask learning for neural speech translation. In Marilyn A. Walker, Heng Ji, and Amanda Stent, editors, Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: $\mathrm{Hu}$ man Language Technologies, NAACL-HLT 2018, New Orleans, Louisiana, USA, June 1-6, 2018, Volume 1 (Long Papers), pp. 82-91. Association for Computational Linguistics, 2018. [2] Ye Jia, Ron J. Weiss, Fadi Biadsy, Wolfgang Macherey, Melvin Johnson, Zhifeng Chen, and Yonghui Wu. Direct speech-to-speech translation with a sequence-to-sequence model. In Gernot Kubin and Zdravko Kacic, editors, Interspeech 2019, 20th Annual Conference of the International Speech Communication Association, Graz, Austria, 15-19 September 2019, pp. 1123-1127. ISCA, 2019. [3] Takatomo Kano, Sakriani Sakti, and Satoshi Nakamura. End-to-end speech translation with transcoding by multitask learning for distant language pairs. IEEE/ACM Transactions on Audio, Speech, and Language Processing, Vol. 28, pp. 1342-1355, 2020. [4] Shun-Po Chuang, Tzu-Wei Sung, Alexander H. Liu, and Hung-yi Lee. Worse wer, but better bleu? leveraging word embedding as intermediate in multitask end-to-end speech translation. In Dan Jurafsky, Joyce Chai, Natalie Schluter, and Joel R. Tetreault, editors, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, ACL 2020, Online, July 5-10, 2020, pp. 59986003. Association for Computational Linguistics, 2020. [5] Kaho Osamura, Takatomo Kano, Sakriani Sakti, Katsuhito Sudoh, and Satoshi Nakamura. Using spoken word posterior features in neural machine translation. Proceedings of the 15th International Workshop on Spoken Language Translation, 181-188, Oct. 2018. [6] Christopher Cieri, David Miller, and Kevin Walker. The fisher corpus: a resource for the next generations of speechto-text. In Proceedings of the Fourth International Conference on Language Resources and Evaluation, LREC 2004, May 26-28, 2004, Lisbon, Portugal. European Language Resources Association, 2004. [7] Daniel Povey, Arnab Ghoshal, Gilles Boulianne, Lukas Burget, Ondrej Glembek, Nagendra Goel, Mirko Hannemann, Petr Motlicek, Yanmin Qian, Petr Schwarz, et al. The kaldi speech recognition toolkit. In IEEE 2011 workshop on automatic speech recognition and understanding, No. CONF. IEEE Signal Processing Society, 2011. [8] Taku Kudo and John Richardson. Sentencepiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, 2018. [9] Shinji Watanabe, Takaaki Hori, Shigeki Karita, Tomoki Hayashi, Jiro Nishitoba, Yuya Unno, Nelson-Enrique Yalta Soplin, Jahn Heymann, Matthew Wiesner, Nanxin Chen, et al. Espnet: End-to-end speech processing toolkit. Proc. Interspeech 2018, pp. 2207-2211, 2018. [10] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [11] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th annual meeting of the Association for Computational Linguistics, pp. 311-318, 2002. [12] Gabriel Pereyra, George Tucker, Jan Chorowski, Lukasz Kaiser, and Geoffrey E. Hinton. Regularizing neural networks by penalizing confident output distributions. In 5 th International Conference on Learning Representations, ICLR 2017, Toulon, France, April 24-26, 2017, Workshop Track Proceedings. OpenReview.net, 2017. [13] Elizabeth Salesky and Alan W. Black. Phone features improve speech translation. In Dan Jurafsky, Joyce Chai, Natalie Schluter, and Joel R. Tetreault, editors, Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, ACL 2020, Online, July 5-10, 2020, pp. 2388-2397. Association for Computational Linguistics, 2020.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A4-3.pdf
# Video-guided Machine Translation with Spatial Hierarchical Attention Network Encoder Weiqi Gu Haiyue Song Chenhui Chu Sadao Kurohashi Kyoto University, Kyoto, Japan \{gu, song, chu, kuro\}@nlp.ist.i.kyoto-u.ac.jp ## 1 Introduction Neural machine translation (NMT) has achieved high performance for domains where there is almost no ambiguity in data such as newspaper domain [1,2]. However, for other domains such as spoken language or sports commentary, the ambiguity in data still remains a problem. Multimodal machine translation (MMT) [3] is one of the key tasks focusing on incorporating multimodal content as auxiliary information sources to resolve the ambiguity, such as audio or visual data. MMT models usually take a sentence in the source language with the corresponding visual data and translate it into a sentence in the target language. Recent studies [4] assume that the spatiotemporal context information in the visual data helps to reduce the ambiguity of objects or motions in the source text data. Previous MMT works mainly focus on Image-guided Machine Translation (IMT) task on the widely used Multi30K [5] dataset. However, video is a better information source than image because videos usually contain much more information than images. One video contains ordered sequence of frames and provides rich visual features. For each frame, it provides spatial representations for object disambiguation as an image in IMT task. Besides object disambiguation in one frame, the ordered sequences of frames can provide temporal representations for motion disambiguation. Video-guided Machine Translation (VMT) aims to engage video data and text data for high-quality translation. Due to the lack of datasets, VMT received less attention than IMT. To cope with this problem, Wang et al. [6] collect a new large-scale and reasonable-quality multilingual video description dataset (VATEX). Each video in the dataset contains hundreds of frames and it is impractical to utilize all objects information from all frames. Existing works only used features from pretrained action detection Figure 1 An example of the object ambiguity problem models as temporal representations of the video to solve the motion ambiguity, thus the object ambiguity still remains a problem. As shown in Fig 1, the object 'picker' and 'bin' in English are wrongly translated into 'apple' and 'trash bin' in Chinese, which are mistranslations partially due to the object ambiguity. In this work, we propose our VMT system by using both temporal and spatial representations in a video to cope with both the motion ambiguity problem as well as the object ambiguity problem. To obtain spatial features efficiently, we propose to use a hierarchical attention network (HAN) [7] encoder to model the spatial information from objectlevel to video-level. The HAN framework mainly contains 2 layers for object-to-frame level and frame-to-video level abstractions, a transformer encoder layer [8] is also adopted between 2 layers to obtain contextual spatial information. Experiments on VATEX dataset show 0.2 BLEU score improvement over a strong baseline method. ## 2 Related Work We introduce different kinds of auxiliary information used in MMT in this section. Pretrained image features are widely used in the initial attempts of IMT, such as using them to initializing the hidden states of the encoder and/or the decoder [9]. ResNet-50 CNN-based image classifier and information extracted from automatic object detectors shows better performance on IMT tasks [10]. Wang et Figure 2 Proposed model with spatial HAN encoder. The source encoder and the temporal encoder are the same as in VMT baseline model, we concatenate them with our proposed spatial HAN encoder by similar target decoder. al. [6] introduce a strong baseline model which employs the pretrained I3D model [11] for action recognition to get the motion representation while combines attention mechanism [12]. The model combining keyframes information through keyframe selection algorithm and position information of the ordered sequence of frames in a video further improves the translation quality [13]. Besides the action representation which solves the motion ambiguity, spatial information from a sequence of frames in a video could solve the problem of the object ambiguity. Therefore, we propose a novel model with a spatial HAN encoder in addition to the action detection encoder. ## 3 VMT with Spatial HAN Encoder Figure 2 shows the overview of the proposed model. It consists of components in VMT baseline model and our proposed spatial HAN encoder. The temporal representations only provide motion disambiguation. An additional spatial encoder can provide object disambiguation. We first introduce the VMT baseline model in section 3.1. We then introduce our proposed spatial HAN encoder in section 3.2. ## 3.1 VMT Baseline Model Wang et al. [6] provide a strong VMT model for the VATEX dataset related tasks. We directly use this model as our VMT baseline model. VMT baseline model mainly consists of the following three modules: Source Encoder. Each source sentence is represented as a sequence of $N$ word embeddings $E$, the Bi-LSTM [14] encoder transforms it into the sentence features $U=$ $\left.\{u_{1}, u_{2}, \ldots, u_{N}\right.\}$. Temporal Encoder. The authors use a pretrained I3D model [11] for action recognition to obtain the visual Figure 3 Structure of spatial HAN encoder. $r$ denotes representation on object, frame and video levels, $q$ denotes query in attention layers, $h_{w}$ denotes the hidden state of the word embedding for query. features $X$, then they employ a Bi-LSTM [14] temporal encoder to transform $X$ into the motion features $M=$ $\left.\{m_{1}, m_{2}, \ldots, m_{N}\right.\}$. Target Decoder. The sentence embedding from the source language encoder and the motion embedding from the temporal encoder are concatenated and fed into the target language decoder with two attention mechanisms [15]. ## 3.2 Spatial HAN Encoder Besides temporal encoder and source sentence encoder in the VMT baseline model, our proposed model contains an additional spatial encoder. The intuition is that the temporal encoder only provides motion disambiguation. And an additional spatial encoder can provide object disambiguation. After splitting one video into $N$ frames, we extracted the object-level spatial features $S=\left.\{s_{1}, s_{2}, \ldots, s_{N}\right.\}$ of $N$ frames by Faster R-CNN [16], organized them with video ID. HAN [7] framework can capture context and intersentence connections for translation. We propose to use a spatial encoder with HAN framework, which can extract contextual spatial information from adjacent frames within one video clip. The overview is shown in Figure 3. The object-level attention layer summarizes information from all separated objects in their respective frames. $ \begin{gathered} q_{o}=l_{o}\left(h_{w}\right) \\ r_{f}=f_{t}\left(\operatorname{SoftAttention}\left(q_{o}, r_{o}\right)\right) \end{gathered} $ where $h_{w}$ denotes a hidden state of current word embedding. The function $l_{o}$ is a linear layer to obtain the query $q_{o}$. We adopt a soft-dot attention [15] to transform objectlevel spatial features $r_{o}$ into respective frame-level spatial features. Then, We obtain contextual frame-level spatial features $r_{f}$ from a transformer encoder layer $f_{t}$ [8]. The frame-level attention layer then summarizes representations from all ordered frames to video-level abstraction $r_{v}$ : $ \begin{gathered} q_{f}=l_{f}\left(h_{w}\right) \\ r_{v}=\operatorname{SoftAttention}\left(q_{f}, r_{f}\right) \end{gathered} $ where $l_{o}$ is a linear transformation, $q_{f}$ is the query for softdot attention function. ## 3.3 Target Decoder with Spatial HAN Features Because we have additional contextual spatial HAN features for the VMT task, the target decoder contains 3 kinds of inputs. We use attention mechanism [15] for both sentence embedding $U$ from the source language encoder and the motion embedding $M$ from the temporal encoder to obtain sentence representations $r_{u}$ and motion representations $r_{m}$ : $ \begin{gathered} r_{u}=\operatorname{Attention}_{u}(U) \\ r_{m}=\operatorname{Attention}_{m}(M) \end{gathered} $ Sentence representations $r_{u}$, motion representations $r_{m}$ and contextual spatial representations $r_{v}$ are concatenated and fed into the LSTM [14] layer at each decoding step $t$ : $ y_{t}, h_{t}=f_{l s t m}\left(\left[y_{t-1}, r_{u, t}, r_{m, t}, r_{v, t}\right], h_{t-1}\right) $ Where $h_{t}$ is the hidden state of the target decoder at step $t, r_{u, t}$ are the sentence representations at step $t, r_{m, t}$ are the motion representations at step $t$ and $r_{v, t}$ are the contextual spatial representations at step $t . f_{b i-l s t m}$ refers to the LSTM layer. ## 4 Experiments ## 4.1 Dataset We utilize the VATEX [6] dataset for the VMT task. VATEX is built on a subset of action classification benchmark DeepMind Kinetics-600 [17], which consists of 25,991 video clips for training, 3,000 video clips for validation and 6,000 video clips for public test. Each video clip has 5 parallel English-Chinese descriptions for the VMT task. The VATEX dataset only provides bilingual corpus and segment-level temporal motion features, doesn't provide object-level spatial features and original video clips. We recollected 23,707 video clips for training, 2,702 video clips for validation and 5,461 video clips for public test, about $10 \%$ are no longer available, which means we lack $10 \%$ spatial features in the dataset. ## 4.2 Settings For the common settings in our proposed approach and in the VMT baseline model [6], we set the maximum sentence length to 40 , word embedding size to 1,024 , and the source encoder and temporal encoder of both 2-layer bi-LSTM with hidden dimension of 512. For our proposed spatial HAN encoder, both object-level and frame-level attention layer are soft-dot attention layer with a hidden dimension of 512. The number of layers in the transformer encoder is 6. Each layer uses multi-head attention with 8 heads and a hidden dimension of 512. The decoder is a 2-layer LSTM of hidden dimension 1,536. During training, we use Adam optimizer with a learning rate of 0.001 . The vocabulary size is 10,523 for English and 2,907 for Chinese. For the baseline model, we adopt text only score and baseline score. Here 'text only' means we only use source encoder, 'baseline' means we use both source encoder and temporal encoder in the VMT model. We retest these scores with the same experiment setting in the baseline model. ## 4.3 Results We adopt corpus-level BLEU-4 score as our evaluation metric. Table 1 shows the scores of each model on the validation set and the public test set. Our proposed VMT $ \begin{aligned} & \text { ex. 1: Chinese (Source): 一个人玩弄着一个黄色头灰色羽毛的鹦鹉。 } \\ & \text { English (Target): A man plays with a parrot with a yellow head and gray feathers. } \\ & \text { VMT baseline: a person is playing with a <UNK> that has a yellow yellow brown brown. } \\ & \text { Our method: a person plays with a bird that has a yellow head on it. } \end{aligned} $ ex. 2: Chinese (Source): 一名中年男子打开冰箱, 将物品取出。 English (Target): A middle aged man opens up a fridge and beings to remove items. VMT baseline: a middle aged man opens a refrigerator and takes it out . Our method: a middle aged man opens a refrigerator and removes the items out . ex. 3: Chinese (Source): 一个人打开一扇门,显示浴缸和洗手台。 English (Target): A door is opened showing a bathtub and bathroom sink. VMT baseline: a person opens a door and shows the bathtub and washing the phone . Our method: a person opens a door and shows the bathtub and washes . ex. 4: Chinese (Source): 一个穿红色衣服的小女孩正在打开一件大礼物。 English (Target): A little girl in a red dress is unwrapping a large present. VMT baseline: a little girl in a red dress is opening a large present . Our method: a little girl is opening a large present and is talking to her. Figure 4 Four examples from Chinese to English translation. Ex. 1: VMT baseline model gives object omission error, which leads to structural errors. Ex. 2: There is object ambiguity problem in the VMT baseline method. Ex. 3: A wrong object translation in the VMT baseline model. In the above 3 examples, our method has correct object and description translations. Ex. 4 is a wrong translation in our method, where some noise information from the video affected the translation. Table 1 Corpus-level BLEU-4 scores of English to Chinese translation. Table 250 translation examples from VMT baseline model and proposed method. We notice that most errors are from the object ambiguity and omission problem. system with spatial HAN encoder achieves 31.2 score on the validation set and 31.3 score on the public test set, showing 0.2 BLEU score improvement over the VMT baseline model. Because the reference sentences in public test set are hidden, we divide the former half of the original validation set into a new validation set and the latter half into a new test set to analyze the details of translation results. We train on the newly divided dataset, and compare the results on the new test set. We analyze 50 examples randomly selected from the test set to observe whether our model can translate sentences successfully. The results are shown in Table 2, our method has 6 more correct translations than the VMT baseline model. Figure 4 shows the details of several example analyses from Chinese to English. We observed that our method can alleviate object ambiguity and omission problem in the translation, but sometimes the auxiliary information from video clips may result in wrong translations. ## 5 Conclusion In this work, we propose a VMT system with spatial HAN encoder, which achieves a 0.2 BLEU score improvement over a strong VMT baseline model. The result shows the effectiveness of spatial features for object disambiguation. Our future work will focus on VMT baseline modification, especially the alignment between source, temporal and spatial representations. ## Acknowledgments This work was supported by ACT-I, JST. ## References [1] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural Machine Translation by Jointly Learning to Align and Translate. arXiv e-prints, p. arXiv:1409.0473, September 2014. [2] Yonghui Wu, Mike Schuster, Zhifeng Chen, Quoc V. Le, Mohammad Norouzi, Wolfgang Macherey, Maxim Krikun, Yuan Cao, Qin Gao, Klaus Macherey, Jeff Klingner, Apurva Shah, Melvin Johnson, Xiaobing Liu, Lukasz Kaiser, Stephan Gouws, Yoshikiyo Kato, Taku Kudo, Hideto Kazawa, Keith Stevens, George Kurian, Nishant Patil, Wei Wang, Cliff Young, Jason Smith, Jason Riesa, Alex Rudnick, Oriol Vinyals, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google's neural machine translation system: Bridging the gap between human and machine translation. CoRR, Vol. abs/1609.08144, , 2016. [3] Lucia Specia, Stella Frank, Khalil Sima'an, and Desmond Elliott. A shared task on multimodal machine translation and crosslingual image description. In Proceedings of the First Conference on Machine Translation: Volume 2, Shared Task Papers, pp. 543-553, Berlin, Germany, August 2016. Association for Computational Linguistics. [4] Loïc Barrault, Fethi Bougares, Lucia Specia, Chiraag Lala, Desmond Elliott, and Stella Frank. Findings of the third shared task on multimodal machine translation. In Proceedings of the Third Conference on Machine Translation: Shared Task Papers, pp. 304-323, Belgium, Brussels, October 2018. Association for Computational Linguistics. [5] Desmond Elliott, Stella Frank, Khalil Sima'an, and Lucia Specia. Multi30k: Multilingual english-german image descriptions. In Proceedings of the 5th Workshop on Vision and Language, pp. 70-74. Association for Computational Linguistics, 2016. [6] Xin Wang, Jiawei Wu, Junkun Chen, Lei Li, Yuan-Fang Wang, and William Yang Wang. Vatex: A large-scale, high-quality multilingual dataset for video-and-language research. In 2019 IEEE/CVF International Conference on Computer Vision, ICCV 2019, Seoul, Korea (South), October 27 - November 2, 2019, pp. 4580-4590. IEEE, 2019. [7] Lesly Miculicich Werlen, Dhananjay Ram, Nikolaos Pappas, and James Henderson. Document-level neural machine translation with hierarchical attention networks. In Ellen Riloff, David Chiang, Julia Hockenmaier, and Jun'ichi Tsujii, editors, Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, Brussels, Belgium, October 31 - November 4, 2018, pp. 2947-2954. Association for Computational Linguistics, 2018. [8] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Isabelle Guyon, Ulrike von Luxburg, Samy Bengio, Hanna M. Wallach, Rob Fergus, S. V. N. Vishwanathan, and Roman Garnett, editors, Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017, 4-9 December 2017, Long Beach, CA, USA, pp. 5998-6008, 2017. [9] Desmond Elliott, Stella Frank, and Eva Hasler. Multilingual image description with neural sequence models, 2015. [10] Julia Ive, Pranava Madhyastha, and Lucia Specia. Distilling translations with visual awareness. In Proceedings of the 57th Annual Meeting of the Association for Compu- tational Linguistics, pp. 6525-6538, Florence, Italy, July 2019. Association for Computational Linguistics. [11] João Carreira and Andrew Zisserman. Quo vadis, action recognition? A new model and the kinetics dataset. In 2017 IEEE Conference on Computer Vision and Pattern Recognition, CVPR 2017, Honolulu, HI, USA, July 21-26, 2017, pp. 4724-4733. IEEE Computer Society, 2017. [12] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural machine translation by jointly learning to align and translate. In Yoshua Bengio and Yann LeCun, editors, 3 rd International Conference on Learning Representations, ICLR 2015, San Diego, CA, USA, May 7-9, 2015, Conference Track Proceedings, 2015. [13] Tosho Hirasawa, Zhishen Yang, Mamoru Komachi, and Naoaki Okazaki. Keyframe segmentation and positional encoding for video-guided machine translation challenge 2020. [14] Mike Schuster and Kuldip K. Paliwal. Bidirectional recurrent neural networks. IEEE Trans. Signal Process., Vol. 45, No. 11, pp. 2673-2681, 1997. [15] Thang Luong, Hieu Pham, and Christopher D. Manning. Effective approaches to attention-based neural machine translation. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1412-1421, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [16] Peter Anderson, Xiaodong He, Chris Buehler, Damien Teney, Mark Johnson, Stephen Gould, and Lei Zhang. Bottom-up and top-down attention for image captioning and VQA. CoRR, Vol. abs/1707.07998, , 2017. [17] Will Kay, João Carreira, Karen Simonyan, Brian Zhang, Chloe Hillier, Sudheendra Vijayanarasimhan, Fabio Viola, Tim Green, Trevor Back, Paul Natsev, Mustafa Suleyman, and Andrew Zisserman. The kinetics human action video dataset. CoRR, Vol. abs/1705.06950, , 2017.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A4-4.pdf
# Self-supervised Dynamic Programming Encoding for Neural Machine Translation Haiyue Song ${ }^{\dagger \ddagger} \quad$ Raj Dabre $^{\ddagger} \quad$ Chenhui Chu $^{\dagger} \quad$ Sadao Kurohashi $^{\dagger} \quad$ Eiichiro Sumita $^{\ddagger}$ ${ }^{\dagger}$ Kyoto University, Kyoto, Japan ${ }^{\mp}$ National Institute of Information and Communications Technology, Kyoto, Japan \{song, chu, kuro\}@nlp.ist.i.kyoto-u.ac.jp $\{$ raj.dabre, eiichiro.sumita\}@nict.go.jp ## 1 Introduction Neural machine translation (NMT) [1] is known to give state-of-the-art translations for a variety of language pairs. Sub-word segmentation [2,3] is one of the key reasons behind it as it enables the NMT model to simulate an infinite vocabulary, thereby eliminating the out-of-vocabulary problem. Among all proposed sub-word segmentation methods, byte pair encoding (BPE) [2] is the most commonly used approach which is used to learn sub-word segementation rules from a monolingual corpus. However, BPE uses a greedy search method to segment words and often ignores the sequence-to-sequence nature of NMT. To solve this, researchers have recently proposed a dynamic programming encoding (DPE) method [4] which uses parallel corpora and a neural network to perform sub-word segmentation. The advantage of DPE is that it employs a non-greedy search method in addition to being aware of the translation process by maximizing the probability of generating the target sentence. Although DPE is slower than BPE, it consistently outperforms BPE and related methods [5]. Compared to BPE, DPE tends to give linguistically intuitive segmentations which can potentially aid in understanding the working of NMT models. Thus far, DPE has been studied in resource-rich situations but its performance and working in low-resource settings is rather unknown. The advantage of DPE is also its weakness, especially in a low-resource setting where parallel corpora sizes are too small to reliably train neural models. To this end, we decided to study how DPE works in a low-resource setting where monolingual corpora and self-supervision based training objectives are known to be extremely helpful $[6,7]$. This in turn motivates our novel Self-Supervised DPE (SSDPE) method that simulates a parallel corpus by duplicating a monolingual corpus and then training a DPE model using a self-supervised objective. We use denoising methods involving token masking to prevent the encoderdecoder from learning trivial sequence-to-sequence mappings. The resultant SSDPE model needs only monolingual corpora, in addition to being source language agnostic. By analyzing the segmentation of words in different contexts, we found each word is consistently segmented regardless of its contexts, e.g. DPE has the context-free property. Motivated by this, we propose a novel Word-level DPE (WDPE) that uses only monolingual word-frequency table to train a word segmenter. In the decoding phase, each unique word only needs to be decoded once, which lowers the decoding time complexity. To verify the utility of SSDPE and WDPE, we experiment with 11 Asian languages to English translation using the the low-resource Asian Language Treebank (ALT) corpus [8] belonging to the Wikinews domain. We observe that they are comparable, if not better than DPE and BPE by up to maximum 0.3 BLEU average improvement for 11 language pairs. Our analyses of the compared methods shows that DPE is actually source language agnostic and context-free which explains why SSDPE and WDPE works as well as DPE even without a parallel corpus and context. ## 2 Related Work Our work focuses on sub-word tokenization for NMT where methods such as BPE [2], WPM [9] and Sentencepiece Model (SPM) [3] are some of the most popular ones. These methods use greedy search to learn sub-word merge rules, a fundamental component of sub-word methods, in a deterministic way. Stochastic variants of BPE called BPE-drop [5] and of SPM called SPM-regularization [10] enable multiple sub-word segmentations of the same word thereby making the NMT model more robust. BPE, SPM and the simple character level [11] methods, despite being effective, are greedy search based methods that tend to give non-intuitive sub-word segmentations. DPE [4] addresses this but its reliance on parallel corpora makes it unsuitable for low-resource settings. Our work fills in this gap by enabling DPE segmentation using only monolingual corpora that are easy to obtain and leverage through self-supervision methods for NLP applications [6, $12]$. ## 3 Proposed Method ## 3.1 Background: DPE DPE segmentation is performed using an encoderdecoder model where $\boldsymbol{x}$ is the BPE segmented source sentence input to the encoder, $\boldsymbol{y}_{c}$ is the character segmented target sentence input to the decoder. The decoder produces $\boldsymbol{y}$, the DPE segmented target sentence where $z=\left(z_{1}, \ldots, z_{M+l}\right)$ denotes some segmentation indices of $\boldsymbol{y}$ and $Z_{y}$ denotes all possible segmentations of $\boldsymbol{y}$. Note that the decoder's output sub-word vocabulary is obtained using BPE. [4] optimized the exact log marginal likelihood as follows to learn DPE: $ \begin{aligned} & \log p(\boldsymbol{y})= \\ & \log \sum_{z \in Z_{y}} \exp \sum_{i=1}^{|z|} \log p\left(\boldsymbol{y}_{z_{i}, z_{i+1}} \mid \ldots, y_{z_{i-1}, z_{i}}, \boldsymbol{x}\right) \end{aligned} $ ## 3.2 SSDPE: Self-Supervised DPE We propose SSDPE that relies on replacing $\boldsymbol{x}$ with $\boldsymbol{y}_{M}$ in Equation 1, which is the BPE segmented target sentence $\boldsymbol{y}$ with certain tokens being masked thereby making it a monolingual approach. Consequently, SSDPE training resembles monolingual training tasks such as MASS [6] and Masked Language Model (MLM) in BERT [12]. In this paper, we consider the following: 1. SSDPE-LM: A trivial case where $\boldsymbol{y}_{\boldsymbol{M}}=\boldsymbol{y}$. 2. SSDPE-MASS: Similar to [6], half the tokens in $\boldsymbol{y}$ are masked to give $\boldsymbol{y}_{M}$. The masked tokens are consecutive so as to enforce the model to learn sequence level information. 3. SSDPE-Mask: Motivated by [12], we keep $15 \%$ of the training sentences unmasked to bridge the gap between train phase and inference phase. Of the remaining 85\% training sentences, $\boldsymbol{y}$, each token has a $15 \%$ chance to be masked thereby yielding $\boldsymbol{y}_{M}$. ## 3.3 WDPE: Word-level DPE Based on SSDPE, we propose WDPE where the input $\boldsymbol{y}_{M}$ and target $\boldsymbol{y}$ are single words rather than sentences. We split sentences into words in the training corpus to keep the frequencies of words the same. We consider three variant methods as in SSDPE: WDPE-LM, WDPE-MASS and WDPE-Mask. ## 4 Experimental Settings ## 4.1 Datasets and Preprocessing We used the ALT multi-way parallel dataset [8] consisting of 18,088, 1,000 and 1,018 sentences in the train, dev and test set respectively for 12 languages: Bengali (bg), English (en), Filipino (fil), Bahasa Indonesia (id), Japanese (ja), Khmer (km), Lao (lo), Malay (ms), Myanmar (my), Thai (th), Vietnamese (vi) and simplified Chinese (zh). We chose this corpus as it represents a realistic extremely low-resource setting and its multi-way nature enables us to effectively analyze the properties of our proposed method. As SSDPE needs only monolingual data, we experimented with 50,000 randomly selected English sentences from news commentary corpus ${ }^{1)}$ belonging to the same news domain as ALT, to train SSDPE models. For WDPE, we split the same news commentary data into one word one line format. We used Moses tokenizer [13] to tokenize Vietnamese, Malay, Indonesian, Filipino and English, Indic NLP to tokenize Bengali, deepcut [14] for Thai, LaoNLP ${ }^{2)}$ for Lao, Juman++ [15] for Japanese, Stanford-tokenizer [16] for Chinese, and tokenized data from WAT for Khmer and Myanmar [17]. ## 4.2 NMT Model Settings We used the fairseq framework [18] with the Transformer architecture. We did hyper-parameter tuning to determine optimal vocabulary sizes, number of encoderdecoder layers and attention heads, as low-resource settings are quite sensitive to these parameters. As DPE, SSDPE  Table 1: Asian languages to English MT using various subword segmentation methods. Rows 1-3 show baseline results. Rows 4-6 show proposed SSDPE results. Rows 7-9 shows results using words as training data. Row 10 uses English segmentation from Ms-En DPE model. *indicates statistically significant difference $(p<0.05)$ from DPE method. Table 2: Results of English to Asian language MT. Japanese and Indonesian SSDPE segmenters used 100k news commentary monolingual sentences. Table 3: Decoding speed of DPE, SSDPE and WDPE methods of ALT-train set, averaged from 10 runs. and WDPE use BPE vocabulary, the optimal vocabulary size is determined based on NMT performance only using BPE. Consequently, the optimal combination was: vocabulary size of 8,000, 6 layer encoder, 6 layer decoder and 1 attention head (except for Bengali, Filipino, Japanese and Lao, where 4 encoder layers were sufficient). We keep the same vocabulary size for SPM. We used one GPU with batch-size of 1,024 tokens. We used the ADAM optimizer [19] with betas $(0.9,0.98)$, warm up of 4,000 steps followed by decay, and perform early stopping based on the Figure 1: WSDR between DPE segmenters trained on JaEn data with different random seeds (red), DPE segmenters trained on Zh-En and Ja-En (blue). development set BLEU. Dropout of 0.1 and label smoothing of 0.1 is used. We used layer normalization for both the encoder and decoder. Decoding is done with a beam size of 12 and length penalty of 1.4. We reported sacreBLEU and performed statistical significance test. ## 5 Results and Analyses ## 5.1 Main Results: SSDPE and WDPE First, as shown in rows 1-6 of Table 1, for Asian language to English NMT, DPE gives results that are as good as if not better than BPE and SPM. However, our SSDPE and WDPE methods can improve over DPE by 0.26 and 0.31 BLEU respectively (significant at $p<0.05$ ), averaged over 11 translation directions. For SSDPE methods, SSDPE-MASS and SSDPE-Mask give segmentations that yield better translations as compared to SSDPE-LM, which shows the advantage of masking based training approaches over trivial copy based methods. WDPE methods show better performance than SSDPE, which suggests that sentence contextual information is unnecessary for subword segmentation. For WDPE, a trivial LM method can give almost the best result. Next, Table 2 shows that SSDPEMask is better than DPE for English to Japanese NMT but worse than DPE for English to Indonesian NMT. Overall, our results show that in a low-resource setting, a parallel corpus dependent DPE model can simply be replaced with a monolingual corpus dependent SSDPE model and still improve translation quality. Further, a word-frequency table is enough to train the segmenter rather than sentence-level data. ## 5.2 Speed Analysis Because our WDPE method only needs to decode each unique word once in a corpus, it shows a much faster speed than DPE as well as SSDPE. As shown in Table 3, the speed of WDPE is about 5.9x faster than DPE and SSDPE when decoding the ALT-train set. ## 5.3 Source Language Agnostic Analysis We show the DPE method is source language agnostic by both the result of NMT and the analysis of word segmentations. As the ALT corpus is multi-way, we can use the English segmentations obtained by the DPE model from one language pair for NMT task of another language pair. When we used English segmentations from the Malay-English DPE model and used it to train NMT models for Asian language to English translation, we saw (row 10 in Table 1) that the translation scores are barely affected. To further investigate this issue, we propose word set difference rate (WSDR) between two segmenters to compute the probability that they generate different segmentations for one word. For a word $W$ with frequency nword which has $n$ possible segmentations, let seg $_{i}$ and $f r e q_{i}$ be the segmentation and frequency of the $i^{t h}$ segmentation. We define $S=\bigcup_{i=1 \ldots n}\left[\left(\right.\right.$ seg $_{i}$, freq $\left.\left._{i}\right)\right]$ to be the set of all possible segmentations where $\sum_{i=1}^{n}$ freq $_{i}=$ nword holds true. Word difference rate (WDR) is defined as: $ W D R=\frac{\sum_{i=1}^{\left|S_{1}\right|} \sum_{j=1}^{\left|S_{2}\right|} \text { freq }_{i} * \text { freq }_{j} *\left(1_{\text {seg }_{i} \neq \text { seg }_{j}}\right)}{n w o r d^{2}} $ where $S_{1}$ and $S_{2}$ are segmentations of $W$ generated by two segmenters. Then, word set difference rate (WSDR) for a set of words is defined as: $ \text { WSDR }=\frac{\sum_{i=1}^{\mid \text {words } \mid} \text { WDR }\left(\text { word }_{i}\right) * \text { nword }_{i}}{\sum_{i=1}^{\mid \text {words } \mid} \text { nword }_{i}} $ Figure 1 shows the WSDR of sets of words with different frequency ranges in the ALT corpus. Comparing the red bars (2 Japanese-English DPE segmenters with random seeds) against the blue bars (Japanese-English and Chinese-English DPE segmenters), it is clear that the WSDR rates are similar. This means that DPE model is actually source language agnostic. We believe this to be the main reason behind why the SSDPE, which uses masked language as input, works as well as DPE. ## 5.4 Context Agnostic Analysis WDPE works due to the context agnostic property which means the segmentation of one word is consistent regardless of which sentence it is in. We set $S_{1}$ equals to $S_{2}$ and calculated WSDR of sets of words with different frequency. We found for any set, the WSDR is less than $1 \%$, which means the segmented result of one word is almost not affected by its context in the sentence. Furthermore, removing the context slightly improve the segmentation quality, shwon by the comparison of WDPE and SSDPE in Table 1. ## 6 Conclusion We proposed novel SSDPE and WDPE methods for subword segmentation. Experimental results show NMT using proposed methods are either comparable to or significantly better than NMT using BPE and DPE. The WDPE method shows a faster decoding speed compared with the original DPE method. Our analyses show source language agnostic and context agnostic property of DPE. Our future work will focus on the performance of our methods in resource rich MT tasks as well as on developing a statistical SSDPE method which will be substantially faster. ## Acknowledgments This work was supported by Grant-in-Aid for Young Scientists \#19K20343, JSPS. ## References [1] Dzmitry Bahdanau, Kyunghyun Cho, and Yoshua Bengio. Neural Machine Translation by Jointly Learning to Align and Translate. arXiv e-prints, p. arXiv:1409.0473, September 2014. [2] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [3] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [4] Xuanli He, Gholamreza Haffari, and Mohammad Norouzi. Dynamic programming encoding for subword segmentation in neural machine translation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3042-3051, Online, July 2020. Association for Computational Linguistics. [5] Ivan Provilkov, Dmitrii Emelianenko, and Elena Voita. BPE-dropout: Simple and effective subword regularization. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 1882-1892, Online, July 2020. Association for Computational Linguistics. [6] Kaitao Song, Xu Tan, Tao Qin, Jianfeng Lu, and TieYan Liu. MASS: Masked Sequence to Sequence Pretraining for Language Generation. arXiv e-prints, p. arXiv:1905.02450, May 2019. [7] Zhuoyuan Mao, Fabien Cromieres, Raj Dabre, Haiyue Song, and Sadao Kurohashi. Jass: Japanese-specific sequence to sequence pre-training for neural machine translation. In Proceedings of The 12th Language Resources and Evaluation Conference, pp. 3683-3691, Marseille, France, May 2020. European Language Resources Association. [8] Ye Kyaw Thu, Win Pa Pa, Masao Utiyama, Andrew Finch, and Eiichiro Sumita. Introducing the Asian language treebank (ALT). In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 1574-1578, Portorož, Slovenia, May 2016. European Language Resources Association (ELRA). [9] M. Schuster and K. Nakajima. Japanese and korean voice search. In 2012 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 51495152, 2012. [10] Taku Kudo. Subword regularization: Improving neural network translation models with multiple subword candidates. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 66-75, Melbourne, Australia, July 2018. Association for Computational Linguistics. [11] Jörg Tiedemann. Character-based pivot translation for under-resourced languages and domains. In Proceedings of the 13th Conference of the European Chapter of the Association for Computational Linguistics, pp. 141-151, Avignon, France, April 2012. Association for Computational Linguistics. [12] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [13] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris Callison-Burch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open source toolkit for statistical machine translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, Prague, Czech Republic, June 2007. Association for Computational Linguistics. [14] Rakpong Kittinaradorn, Korakot Chaovavanich, Titipat Achakulvisut, Kittinan Srithaworn, Pattarawat Chormai, Chanwit Kaewkasi, Tulakan Ruangrong, and Krichkorn Oparad. DeepCut: A Thai word tokenization library using Deep Neural Network., September 2019. [15] Arseny Tolmachev, Daisuke Kawahara, and Sadao Kurohashi. Juman++: A morphological analysis toolkit for scriptio continua. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 54-59, Brussels, Belgium, November 2018. Association for Computational Linguistics. [16] Christopher Manning, Mihai Surdeanu, John Bauer, Jenny Finkel, Steven Bethard, and David McClosky. The Stanford CoreNLP natural language processing toolkit. In Proceedings of 52nd Annual Meeting of the Association for Computational Linguistics: System Demonstrations, pp. 55-60, Baltimore, Maryland, June 2014. Association for Computational Linguistics. [17] Chenchen Ding, Masao Utiyama, and Eiichiro Sumita. Nova: A feasible and flexible annotation system for joint tokenization and part-of-speech tagging. ACM Transactions on Asian and Low-Resource Language Information Processing (TALLIP), Vol. 18, No. 2, p. 17, 2018. [18] Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [19] Diederik P. Kingma and Jimmy Ba. Adam: A Method for Stochastic Optimization. arXiv e-prints, p. arXiv:1412.6980, December 2014.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A5-1.pdf
# VisualMRC: 文書画像に対する機械読解 田中涼太* 西田京介* 吉田仙 } 日本電信電話株式会社NTTメディアインテリジェンス研究所 \{ ryouta.tanaka.rg, kyosuke.nishida.rx, sen.yoshida.tu \}@hco.ntt.co.jp ## 1 はじめに 近年,知識源となるテキストを読み解いて質問に応える機械読解 (Machine Reading Comprehension; MRC)が自然言語理解の主要な課題として注目を集めている [1,2]. 機械読解は Web 検索の高度化に加えて, e-commerce 向けのチャットボット [3] や専門文献の読書補助 [4] などへの応用が期待されているが,従来の研究では,実サービスで扱われる HTML や PDF 形式の文書が持つ視覚的な情報を自然言語と併せて理解することが出来ていない. そこで本研究では, 言語と視覚の融合理解に向けて,VisualMRC タスクおよびデータセットを提案する1). 図 1 に示す様に,本タスクにおいてモデルは,質問に対して文書画像中のテキストを読み解き,自然文で回答する.本タスクを解くためには, ベースとなる自然言語理解・生成に加えて,文書レイアウ卜(図1 の画像で色付けされた矩形領域)の理解, テキスト認識 (OCR) など様々な能力が必要となる. 本研究ではさらに,VisualMRC タスクに適用可能な新たなモデルを提案する。テキストコーパスで事前学習されたエンコーダデコーダを文書中のテキスト・非テキストオブジェクトの位置・外観を理解できるように拡張することで,最先端の text-based VQA モデル [6]およびベースとした T5 [7], BART [8] (テキスト情報のみ入力)を上回る性能を達成した。 ## 2 関連研究 Text-based VQA 機械読解における入力テキストを画像としたタスクである VQA はこれまで広く研究されてきた [11,12]. 近年では, TextVQA [9]に代表される,日常シーンの画像に含まれるテキストの理解が必要となるデータセットが複数個公開されている $[13,14,15]$. これらのデータセットの画像中の  Q: Who were the winners of the Ig Nobel prize for Biology and Chemistry? A: The winner of the Ig Nobel prize for biology was Dr Johanna van Bronswijk, and the winner for Chemistry was Mayu Yamamoto. 図 1 VisualMRC データセットの例. 単語は少量であるのに対して,VisualMRC は自然文で書かれた複数の文章が視覚的に配置された文書の理解能力の開発に重点を置いている. 文書画像に対する VQA VisualMRC と同時期に作成されたデータセットとして,文書画像の理解が必要な DocVQA [10]がある.VisualMRC との主な違いを以下に挙げる。(i) VisualMRC は 35 のドメインから画像を収集したのに対し,DocVQA の情報源は単一ドメインである. (ii) VisualMRC は現代の Web ページから文書画像を収集したのに対し,DocVQA の大半の画像は 1960-2000 年頃の古い文書であり,手書き・タイプ文字を含む. (iii) VisualMRC の画像は最低 3つの自然文を含むのに対し,DocVQA ではその保証が無い. (iv) VisualMRC は回答生成を必要とするが,DocVQA は多くの場合 SQuAD [1] の様な単一の短いスパンが回答となる。 マルチモーダル QA 画像中のテキストではなく, プレーンテキストと画像の組を入力として用いるデータセットとして,TQA [16] や RecipeQA [17] などがある。例えば,TQA では中学校の教科書からテキストと図を分けて抽出しているが,我々の研究は人間が実際の文書を読むときと同じ視覚情報を機械が扱えるようにすることを目指している。 図 2 VisualMRC, TextVQA [9], DocVQA [10] の単語数に関する分布. 左: 質問,中:回答,右:文書画像. ## 3 VisualMRC 本章では最初にタスクを定義し,その後にデータセットの収集方法および分析結果を示す. ## 3.1 タスク定義 VisualMRC のタスクを下記の様に定義する。 TASK 1 (End-to-end VisualMRC). 質問 $q$ および文書画像 $I$ が与えられた時,モデルは回答 $a$ を生成する。 本タスクは,NarrativeQA [18] や MS MARCO [19] と同じ生成型機械読解であり, 回答は入力テキスト中のスパンに限定されない. 次に,文書画像の理解は,以下の 2 つのサブタスクに分解可能である. SUBTASK 1 (ROI 検出). 画像 I が与えられた時,モデルは ROI(Region-Of-Interest)の集合を検出する.各 $\mathrm{ROI} r_{i}$ は矩形領域 $b_{i}$ および意味クラス $l_{i}$ を持つ. SUBTASK 2 (OCR). ROI $r_{i}$ が与えられた時,モデルは単語認識を行う. 各単語は矩形領域 $b_{i, j}$ および表層 $w_{i, j}$ を持つ. ## 3.2 データ収集方法 文書画像収集 94 名のワーカに依頼し,2020 年 1-3 月に 35 のドメインの Web ページ(英語)の 10,197 枚のスクリーンショット画像 $I$ を収集した。 正解 ROI アノテーション 45 名のワーカが文書画像中の ROI ( $\left.\{r_{i}\right.\}$; SUBTASK 1 の正解) のアノテーションを実施した.9つの意味クラス(Heading/Title, Subtitle/Byline, Paragraph/Body, Picture, Caption, List, Data,Sub-Data,Other)の定義は付録に示す. QA 作成/関連 ROI 選択 495 名のワーカが,各文書画像に対して 3 つの異なる質問および回答の組を作成した. その際,各ワーカは回答に必要となる関連 ROI を付与済みの正解 ROI 集合から選択した。 データ分割 URLドメインに基づき訓練・開発・ テストセットを $21,015 , 2,839 , 6,708$ 質問とした.表 1 データセットの統計. & & webpages \\ Num. questions & 45,536 & 50,000 & 30,562 \\ Uniq. num. questions & 36,593 & 36,170 & 29,419 \\ Avg. len. documents & 12.17 & 182.75 & 151.46 \\ Avg. len. answers & 1.51 & 2.43 & 9.53 \\ ## 3.3 統計および分析 VisualMRC を代表的な関連データセットである TextVQA [9] と DocVQA [10] と比較して分析する. 質問表 1 に示す様に,VisualMRC のユニー クな質問の割合 $(96.3 \%$ ) は TextVQA (80.7\%) や DocVQA $(72.3 \%$ ) よりも高い.また,質問長の分布は TextVQA や DocVQA に比べてロングテールである(図 2 左)。さらに,VisualMRC $の$ “what” や “what is the”で始まる質問の割合 $(42.0 \% , 9.5 \%$ ) は,TextVQA (78.2\%,22.9\%)やDocVQA(68.1\%, $58.2 \%$ )と比べて低く,多様な質問が含まれている。 回答表 1 に示す様に,VisualMRC のユニークな回答の割合 $(91.82 \%)$ は TextVQA $(51.74 \%)$ や DocVQA(64.29\%)よりも高い. VisualMRC は生成型の機械読解タスクであるため,回答の平均長 (9.53 単語)は TextVQA(1.51)や DocVQA(2.43)に比べて長い (図2 中). また, “yes”, “no” から始まる回答 $(10.04 \%, 2.67 \%)$ は TextVQA $(4.90 \%, 0.97 \%)$ やDocVQA $(0.12 \% , 0.15 \%)$ に比べて多い. 文書画像画像の正解 ROI 集合から OCR(Tessaract [20])で抽出された平均単語数は,VisualMRC (151.46)や DocVQA (182.75) が TextVQA (12.17) よりも多い. また,VisualMRC をLDA [21]により分析すると,科学,旅行,健康,教育,ニュース,政治など多様なトピックが抽出された。一方で,DocVQA のトピックは食料と栄養が大半であった [10]. 図 3 左: 提案モデルアーキテクチャ. 右: ROI および OCRトークンの例. ## 4 提案モデル 提案モデルはメインとサブモジュールから構成される.サブモジュールは 3.1 節に示す SUBTASK 1 (ROI 検出)用の Faster R-CNN [22] と,SubTASK 2(OCR)用の Tesseract [20]を用いる.メインモジュールは, エンコーダデコーダ型の Transformer [23] アーキテクチャに基づき,質問,文書画像,およびサブモジュールの出力に基づいて動作する. 本章ではメインモジュールについて詳細を述べる. 提案モデルの貢献は,T5 [7] や BART [8] の入力系列の拡張およびマルチタスク学習の導入により,事前学習により得られた自然言語理解・生成能力を転移した上で視覚情報を考慮可能な点である. ## 4.1 入カトークン系列 質問 $q$ のトークナイズ結果と各 ROI $r_{i}$ から得られた OCR 単語系列 $\left.\{w_{i, j}\right.\}$ を連結する. ROI の意味的な役割を考慮するため,各 ROI の意味クラスに対応するクラスラベルトークン $\left[\mathrm{L}_{i}\right]$ (図 3 の $[\mathrm{P} / \mathrm{B}]$ など)を各 OCR 単語系列の前に挿入する. $ x^{\text {token }}=\left.\{\begin{array}{c} {[\mathrm{S}], q_{1}, \ldots, q_{m},[\mathrm{SEP}],\left[\mathrm{L}_{1}\right], w_{1,1}, \ldots, w_{1, M}} \\ {\left[\mathrm{~L}_{2}\right], \ldots,\left[\mathrm{L}_{N}\right], w_{N, 1}, \ldots, w_{N, M}} \end{array}\right.\}, $ ベースモデルとして T5(BART)を用いる場合,[S] は'question:' (<s>), [SEP] は'context:' (</s>) である. ## 4.2 入力 Embedding 系列 トークン系列 $\left.\{x^{\text {token }}\right.\}$ embedding 系列 $\{z\}$ に変換してエンコーダに渡す。系列中の $k$ 番目の embedding である $z_{k} \in \mathbb{R}^{H}$ は下記の様に求める. $ z_{k}=\mathrm{LN}\left(z_{k}^{\text {token }}+z_{k}^{\text {pos }}+z_{k}^{\text {seg }}+z_{k}^{\text {loc }}+z_{k}^{\text {app }}\right) $ ここで,LN($\cdot$)は layer normalization [24]を表す。 $z^{\text {token }}$ および $z^{\operatorname{pos}}$ はベースモデルが用いるトークンおよび トークン系列中の位置 $z^{\text {pos }}$ の embeddings である. 以下に,3つの追加 embeddings について説明する. セグメント文書構造の意味を明確に捉えるため, $k$ 番目のトークンが属する ROI クラスに対して学習可能なべクトル $z_{k}^{\mathrm{seg}} \in \mathbb{R}^{H}$ を導入する. 画像中の位置 $k$ 番目のトークンに対応する矩形領域(ROI あるいは OCR 単語)の画像中の相対位置 $ x_{k}^{\mathrm{loc}}=\left[x_{k}^{\min } / W_{\mathrm{im}}, y_{k}^{\min } / H_{\mathrm{im}}, x_{k}^{\max } / W_{\mathrm{im}}, y_{k}^{\max } / H_{\mathrm{im}}\right], $ $\left(x_{k}^{\min }, y_{k}^{\min }\right),\left(x_{k}^{\max }, y_{k}^{\max }\right)$ は矩形領域の左上および右下の座標, $W_{\mathrm{im}} , H_{\mathrm{im}}$ は画像の幅および高さを表す. 外観 ROI と OCR 単語の視覚的表現を利用するため, $k$ 番目のトークンの矩形領域の画像を Faster R-CNN [22] に渡し,2048 次元の $\mathrm{fc} 7$ 特徴ベクトルを獲得する. さらに,ReLU 活性化関数を適用後, 1 層の FFN に渡し $z_{k}^{\text {app }} \in \mathbb{R}^{H}$ に変換する. ## 4.3 Saliency Detection 質問に関連する OCR 単語をより正確に発見するため,エンコーダの出力を用いて適合度を求める。 $ P_{i, j}=\operatorname{sigmoid}\left(w^{s \top} h_{w_{i, j}}+b^{s}\right), $ $h_{w_{i, j}}$ は単語 $w_{i, j}$ に対するエンコーダの最終層の出力, $w^{s} \in \mathbb{R}^{H}$ と $b^{s} \in \mathbb{R}$ は学習可能な重みである. 損失関数 Saliency detection を教師有り学習するための正解ラベルは与えられていないため,各 OCR 単語に対して疑似ラベル $s_{i, j}$ を割当て学習を行う. $ L_{\text {sal }}=-\frac{1}{N M} \sum_{i}^{N} \sum_{j}^{M}\left(\begin{array}{l} s_{i, j} \log P_{i, j}+ \\ \left(1-s_{i, j}\right) \log \left(1-P_{i, j}\right) \end{array}\right) $ ここで, $s_{i, j}$ は OCR 単語が回答文かつ関連 ROI に含まれている場合に 1 ,それ以外は 0 となる。 マルチタスク学習 $L_{\text {nll }}$ を sequence-to-sequence 学習における負の対数尤度とし,メインモジュールの学習を $L_{\mathrm{multi}}=L_{\mathrm{nll}}+L_{\mathrm{sal}}$ の最小化により行う. ## 5 評価実験 VisualMRC を用いて評価実験を行う.提案モデルの初期化に $\mathrm{T}_{\text {BASE }}$ [7], BART BASE $^{\text {[8] }}$ を用いたものをそれぞれ LayoutT5, LayoutBART と呼ぶ. 実験設定 TASK 1 に対応する end-to-end 設定と,人手で付与された正解 ROI が与えられる main 設定の 2 種類を用いる. 学習時は main 設定で行う. ベースライン最先端の text-based VQA モデル M4C [6] と,ベースとした $\mathrm{T}_{\mathrm{BASE}}$, BART $\mathrm{BASE}_{\mathrm{BASE}}$ (テキスト情報のみを入力)を用いる。 評価指標生成タスクで広く用いられる指標である BLEU-4 (B-4) [25], METEOR (M) [26], ROUGE-L (R-L) [27],BERTScore(Bs)[28]を用いる. ## 5.1 評価結果 提案モデルはベースラインの性能を上回るか?表 2 に示す様に,提案モデルは視覚的な位置・外観を考慮することにより全ての指標でべースラインの性能を上回った. M4C は視覚情報を考慮するモデルであるが事前学習されていないため性能が低かった. また, ベースとしたモデルのサイズをLARGE に変更することで,全ての指標で性能が改善した. Saliency detection とのマルチタスク学習は効果があるか?表 2 に示す様に, saliency detection(SD) とのマルチタスク学習により性能が改善した. LayoutT5 では効果が小さかったが,これは T5 の事前学習に saliency detection に類似したタスクである抽出型の機械読解 [1] が含まれているためと考える. 提案モデルは end-to-end 設定で高い性能を達成できるか? 表 3 に示す様に,実世界の問題設定と同じくROI 検出を自動的に行う必要がある end-to-end 設定においても,提案手法は全ての指標でベースラインの性能を上回り,main 設定と比べても大きく 性能が低下することは無かった. ROI 検出の mAP は 7.86\%であり,文書構造解析データ [29] における Faster R-CNN の mAP (5.1\%) [30] と同程度であった. 提案モデルは人間の性能を上回るか?表 3 に end-to-end 設定・ランダムサンプリングした 3000 件の QA における人間の性能と提案モデル(LARGE サイズ)の性能の比較結果を示す.BLEU-4 では提案モデルが人間を上回ったが,他の指標は人間が大きく提案モデルを上回っていた。 入カトークン・embedding 系列の変更は効果があるか?表 4 に ablation 評価の結果を示す. クラスラベルトークンの挿入(lbl)によるトークン系列の変更,セグメント (seg), 画像中の位置 (loc), 外観 (app)の追加 embeddings の全てで効果があった. 外観の embeddings のみ BLEU-4 で性能が低下したが, これは動画にグラウンディングされた対話の従来研究 [31] でも同様の傾向であった. 提案モデルは全ての ROI クラスの理解に効果があるか? LayoutT5 は全クラス・全指標で T5 の性能を上回った. (詳細は付録に示す). 相対的には写真や図表の理解が不十分であり今後の課題としたい。 ## 6 おわりに 本研究では,VisualMRC を新たな視覚・言語融合理解の課題として提起し,データセットの作成およびモデルの提案を行った。本データセットは,実世界の文書を視覚的に読解可能な知的エージェントの開発に寄与し,Web 検索やチャットボットなど産業上重要なサービスの発展に貢献できる。また,入力トークン・embeddings 系列の変更により,事前学習により獲得された自然言語理解・生成の能力を転移した上で文書の視覚情報を考慮する方法の有効性を示した. 提案モデルは汎用性が高く様々な事前学習モデルに導入可能である. ## 参考文献 [1] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In $E M N L P$, pp. 2383-2392, 2016. [2] Pranav Rajpurkar, Robin Jia, and Percy Liang. Know what you don't know: Unanswerable questions for SQuAD. In $A C L$, pp. 784-789, 2018. [3] Lei Cui, Shaohan Huang, Furu Wei, Chuanqi Tan, Chaoqun Duan, and Ming Zhou. Superagent: A customer service chatbot for e-commerce websites. In ACL, pp. 97-102, 2017. [4] Yining Hong, Jialu Wang, Yuting Jia, Weinan Zhang, and Xinbing Wang. Academic reader: An interactive question answering system on academic literatures. In AAAI, pp. 9855-9856, 2019. [5] Ryota Tanaka, Kyosuke Nishida, and Sen Yoshida. Visualmrc: Machine reading comprehension on document images. In AAAI, 2021. [6] Ronghang Hu, Amanpreet Singh, Trevor Darrell, and Marcus Rohrbach. Iterative answer prediction with pointer-augmented multimodal transformers for TextVQA. In CVPR, pp. 9992-10002, 2020. [7] Colin Raffel, Noam Shazeer, Adam Roberts, Katherine Lee, Sharan Narang, Michael Matena, Yanqi Zhou, Wei Li, and Peter J. Liu. Exploring the limits of transfer learning with a unified text-to-text transformer. $J$. Mach. Learn. Res., Vol. 21, No. 140, pp. 1-67, 2020. [8] Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Veselin Stoyanov, and Luke Zettlemoyer. BART: denoising sequence-to-sequence pre-training for natural language generation, translation, and comprehension. In $A C L$, pp. 7871-7880, 2020. [9] Amanpreet Singh, Vivek Natarajan, Meet Shah, Yu Jiang, Xinlei Chen, Dhruv Batra, Devi Parikh, and Marcus Rohrbach. Towards VQA models that can read. In CVPR, pp. 8317-8326, 2019. [10] Minesh Mathew, Dimosthenis Karatzas, R. Manmatha, and C. V. Jawahar. Docvqa: A dataset for VQA on document images. arXiv, Vol. 2007.00398, , 2020. [11] Stanislaw Antol, Aishwarya Agrawal, Jiasen Lu, Margaret Mitchell, Dhruv Batra, C. Lawrence Zitnick, and Devi Parikh. VQA: visual question answering. In ICCV, pp. 2425-2433, 2015. [12] Yash Goyal, Tejas Khot, Douglas Summers-Stay, Dhruv Batra, and Devi Parikh. Making the V in VQA matter: Elevating the role of image understanding in visual question answering. In CVPR, pp. 6325-6334, 2017. [13] Danna Gurari, Qing Li, Abigale J. Stangl, Anhong Guo, Chi Lin, Kristen Grauman, Jiebo Luo, and Jeffrey P. Bigham. Vizwiz grand challenge: Answering visual questions from blind people. In CVPR, pp. 3608-3617, 2018. [14] Ali Furkan Biten, Rubèn Tito, Andrés Mafla, Lluís Gómez i Bigorda, Marçal Rusiñol, C. V. Jawahar, Ernest Valveny, and Dimosthenis Karatzas. Scene text visual question answering. In $I C C V$, pp. 4290-4300, 2019. [15] Xinyu Wang, Yuliang Liu, Chunhua Shen, Chun Chet Ng, Canjie Luo, Lianwen Jin, Chee Seng Chan, Anton van den Hengel, and Liangwei Wang. On the general value of evidence, and bilingual scene-text visual question answering. In CVPR, pp. 10126-10135, 2020. [16] Aniruddha Kembhavi, Min Joon Seo, Dustin Schwenk, Jonghyun Choi, Ali Farhadi, and Hannaneh Hajishirzi. Are you smarter than a sixth grader? textbook question answering for multimodal machine comprehension. In CVPR, pp. 5376-5384, 2017. [17] Semih Yagcioglu, Aykut Erdem, Erkut Erdem, and Nazli Ikizler-Cinbis. Recipeqa: A challenge dataset for multimodal comprehension of cooking recipes. In EMNLP, pp. 1358-1368, 2018. [18] Tomás Kociský, Jonathan Schwarz, Phil Blunsom, Chris Dyer, Karl Moritz Hermann, Gábor Melis, and Edward Grefenstette. The narrativeqa reading comprehension challenge. Trans. Assoc. Comput. Linguistics, Vol. 6, pp. 317-328, 2018. [19] Payal Bajaj, Daniel Campos, Nick Craswell, Li Deng, Jianfeng Gao, Xiaodong Liu, Rangan Majumder, Andrew McNamara, Bhaskar Mitra, Tri Nguyen, Mir Rosenberg, Xia Song, Alina Stoica, Saurabh Tiwary, and Tong Wang. MS MARCO: A human generated machine reading comprehension dataset. arXiv, Vol. $1611.09268 \mathrm{v} 3$, , 2018. [20] R. Smith. An overview of the tesseract OCR engine. In ICDAR, pp. 629-633, 2007. [21] David M. Blei, Andrew Y. Ng, and Michael I. Jordan. Latent dirichlet allocation. J. Mach. Learn. Res., Vol. 3, pp. 993-1022, 2003. [22] Ren, Shaoqing, He, Kaiming, Girshicka, Ross, Sun, and Jian. Faster r-cnn: Towards real-time object detection with region proposal networks. In NIPS, pp. 91-99, 2015. [23] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In NIPS, pp. 6000-6010, 2017. [24] Lei Jimmy Ba, Ryan Kiros, and Geoffrey E. Hinton. Layer normalization. arXiv, Vol. 1607.06450, , 2016. [25] Kishore Papineni, Salim Roukos, Todd Ward, and WeiJing Zhu. Bleu: a method for automatic evaluation of machine translation. In $A C L$, pp. 311-318, 2002. [26] Michael J. Denkowski and Alon Lavie. Meteor universal: Language specific translation evaluation for any target language. In WMT@ACL,pp. 376-380, 2014. [27] Chin-Yew Lin. Rouge: A package for automatic evaluation of summaries. In Text summarization branches out@ACL,pp.74-81, 2004. [28] Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with BERT. In ICLR, 2020. [29] Dominika Tkaczyk, Pawel Szostek, and Lukasz Bolikowski. GROTOAP2 - the methodology of creating a large ground truth dataset of scientific articles. D Lib Mag., Vol. 20, No. 11/12, 2014. [30] Carlos Soto and Shinjae Yoo. Visual detection with context for document layout analysis. In EMNLPIJCNLP, pp. 3462-3468, 2019. [31] Hung Le and Steven C. H. Hoi. Video-grounded dialogues with pretrained generation language models. In $A C L$, pp. 5842-5848, 2020. ## A 付録 ROI クラスの定義下記に,クラウドワーカに対するインストラクションで用いた ROI クラスの定義を示す. - Heading/Title The title or caption of a page, chapter, etc. - Subtitle/Byline The secondary or subordinate title of a page or a line of text giving the author's name. - Paragraph/Body The "normal" or "main" text that would be read. - Picture Pictures or images without any text or data within. - Caption Text placed next to an image, data, quote, etc. that provides or explains information about an image or data. - List Typically bulleted lists, where each bullet is not a full sentence. - Data Tables, charts, graphs, infographic, or other figures with data or information. - Sub-data Text present inside of tables, charts, graphs, infographic, or other figures. - Other Any other text that does not fit in the other categories. 質問文の多様性図 4 に質問文の最初の 3 単語の分布を示す. “what” 質問に偏っている TextVQA [9] やDocVQA [10] に比べて多様な質問を含むことが分かる. 実験設定学習には 8 枚の NVIDIA Quadro RTX 8000 GPUs を用いた. バッチサイズ 32 とし, 7 エポック学習(12 時間程度)した. オプティマイザには Adam を用い,学習率は 3e-5 とした. 開発セットの ROUGE-L スコアを用いてモデルを選択した. 出力例図 5 に提案モデルおよびベースラインの出力例を示す. 提案モデルは視覚的なデータ表の最初の行に回答に必要な情報(77.3\%)が含まれることを発見できたが,視覚情報を用いない T5 では,他の割合の表現(less than 1 percent)を誤って回答していた. ROI の意味クラス別の性能表 5 に示す通り, LayoutT5 は全 ROI クラスの理解で T5 の性能を上回っていた。 実行時間表 6 に 1 の質問への回答に要する平均時間を示す. GPU は 1 枚の NVIDIA Quadro RTX 8000 を用いた. LayoutT5 は多数の領域・OCR トー クンに対する外観の embeddings を計算する必要があるが,大幅な速度低下は起きていない. Faster R-CNN が高速に動作する理由は, ROI の探索を行わず画像表現を獲得するためだけに使っているためである. モデルサイズが速度低下には寄与しており, LARGE サイズは BASE サイズの約 3.5 倍の動作時間を要した。 図 4 質問文の最初の 3 単語の分布. Q: what is the percentage of roman catholics in cape verde? Ground-Truth: the percentage of roman catholics in cape verde is $77.3 \%$. M4C: the percentage of young women in cape town are about $54 \%$ of western somalia T5: percentage of roman catholics in cape verde is less than 1 percent. LayoutT5: the percentage of roman catholics in cape verde is $77.3 \%$. 図 5 LayoutT5 による出力例. 表 5 意味クラス別の T5/LayoutT5 の性能. 表 61 つの質問への回答に要する平均時間 (秒).
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A5-2.pdf
# Longformer によるマルチホップ質問応答手法の比較 岡田直樹 松崎拓也 東京理科大学 理学部第一部 応用数学科 1417023@ed.tus.ac.jp, matuzaki@rs.tus.ac.jp ## 1 はじめに 与えられた文書をもとに質問に答えるタスクである機械読解は、BERT [1] をはじめとする transformer ベースの事前学習モデルの登場以降、研究が活発になり、大きな進歩を遂げてきた。機械読解は単一文書からの抽出を行うタイプとマルチホップ型に大きく分けられる。SQuAD [2] に代表される前者のタスクは、単一の文書を参照して質問に答えることに焦点を当てた抽出型タスクであり、すでに人間のスコアを超えるモデルが提案されている。しかし、このようなタスクでは単一の文書しか参照する必要がないため、比較的容易なタスクとなっており、応用範囲は限定的である。一方、後者のマルチホップ型タスクは、単一もしくは複数の文書中から、複数箇所にある根拠を見つけなければ答えを導き出せないため、難易度が高く、より応用範囲が広いタスクであり、HotpotQA [3] や WikiHop [4] といったデータセットが開発されている。 本研究で扱う HotpotQA では、複数の文書が与えられ、その中から回答に必要な文書を見つけ出し、回答とその根拠となる文を見つけ出す必要がある。 これまで提案されている手法は、グラフ構造を用いた手法 $[5,6,7]$ とグラフ構造を用いずに BERT 等の事前学習モデルを利用した手法 $[8,9]$ に分けられる。 その中で、Beltagy らが提案した手法 [10] は、従来の transformer モデルよりも長い文書を扱える Longformer を利用して、複数の文書を同時に入力し、回答と根拠文選択を単一のモデルで行う。この手法は、根拠文選択と回答抽出を独立に行うことができる。ただし独立に行った場合には、不要な文書中の文やトークンも候補に含めて根拠文選択と回答抽出を行うことになる。実際に人が推論を行う際には、答えに関係する文書を見つけ出し、その文書にのみ注目して答えを見つけ出すだろう。この様子を Question: Where is the company that Sachin Warrier worked for as a software engineer headquartered? Document 1: [1]Sachin Warrier is a playback singer and composer in the Malayalam cinema industry from Kerala [2]He became notable with the song "Muthuchippi Poloru" from the film Thattathin Marayathu. [3]He made his debut with the movie Malarvaadi Arts Club. [4]He was working as a software engineer in Tata Consultancy Services in Kochi. [5]Later he resigned from the job to concentrate more on music. [6]His latest work is as a composer for the movie Aanandam. Document 2: [7]Tata Consultancy Services Limited (TCS) is an Indian multinational information technology (IT) service, consulting and business solutions company Headquartered in Mumbai, Maharashtra. [8]It is a subsidiary of the Tata Group and operates in 46 countries. ## Answer:Mumbai Supporting facts: [4],[7] 図 1 HotpotQA の問題例(gold 文書のみ) 再現し、不要な文を事前に取り除くことで、よりモデルの性能が上がる可能性がある。Beltagy ら [11] や Groeneveld ら [12] は、根拠文選択についてこれに似たアイデアを用いている。ただし、文書や文を誤って取り除いた場合には回答を導けないため、性能に悪影響を及ぼすことも考えられる。 そこで本研究では、HotpotQA に対して Longformer を利用する手法において、訓練時とテスト時に、いくつかの方法で根拠文と回答の抽出範囲を段階的に絞り込むことが、回答と根拠文を抜き出す精度にどのような効果を及ぼすかを検証した。その結果、段階的に絞り込みを行わないモデルよりも、回答と根拠文抽出の精度が向上することが確認できた。 ## 2 背景 本項では、使用するデータセットの HotpotQA とベースとなる手法を説明する。 ## 2.1 HotpotQA 本研究では、マルチホップ質問応答データセットである HotpotQA の Distractor setting で実験を行う。 Distractor setting は答えを導くのに不要な文書を含む 10 個の文書から必要な文書を見つけ出し、回答を行うタスクである。文書は Wikipedia の記事から収集されており、質問に対し回答に必要な 2 つの文書(gold 文書)と bigram tf-idf によって収集された回答に必要の無い 8 つの文書 (distractor 文書) が与えられ、その中から回答とその根拠となる文(根拠文)を抜き出すことが求められる。2つの gold 文書のそれぞれに一文以上の根拠文が存在し、回答の夕イプとしては yes/noタイプと文書から回答を抜き出すスパンタイプがある。また、必要な推論のタイプとしては bridge タイプと compare タイプがある。 bridge タイプは、質問に対して、文書 $1 \rightarrow$ 文書 2 のように文書をまたぐ推論を行なって根拠を見つけ回答する問題となっている。図 1 の例では、質問に直接関連する事柄として、文書 1 で「Sachin Warrier が Tata Consultancy Service で働いていた」ことが分かり、さらに文書 2 で「Tata Consultancy Service の本社が Mumbaiにある」ことが分かり、答えの「Mumbai」 を導ける。compare タイプは、二つのエンティティを比較して回答する問題となっている。 ## 2.2 Longformer 従来の Transformer モデルでは、必要な記憶量と計算量が入力系列の長さの 2 乗のオーダーで増加するため、長い系列を扱うことができなかった。そのため、長い系列を扱う際には、文章の一部を切り捨てるか、文章をいくつかに分割する必要があり、文章全体の情報を失わないように複雑なモデルを構築する必要があった。 Longformer はこのような問題を解決するために以下の 3 つの attention パターンを導入している。 Sliding window attention は、各トークンを取り囲む一定サイズの window 中でのみ attentionをとる。 Dilated sliding window は、Window attention に固定のギャップを導入することで、計算量を増加させることなく、より広い情報を捉えるようにした attention である。Global attention は、[CLS]トークンや質問文中のトークンなどの、特殊な役割をもつトークンに与え、タスク固有の表現を学習するために導入する attention である。 このうち、window attention 層と dilated window attention 層を積み重ねることで、より広い文脈を計算量を抑えながら捉えることのできるモデルとなっている。 ## 2.3 Longformer による HotpotQA 本研究でベースとしている、Beltagy らが提案した HotpotQA に対する Longformerを利用した手法を説明する。HotpotQA のタスクは回答スパン抽出と根拠文予測の2つのタスクを含むが、Beltagy らの手法ではこれらを一つのモデルで行う。2つの gold 文書と 8 つの distractor 文書の計 10 個の文書を連結し、さらに質問と繋げて入力とする。入力のフォーマットとしては、"[CLS] [q] question [/q] [p] sent ${ }_{1,1}[s]$ sent $_{1,2}$ $[\mathrm{s}] \ldots[\mathrm{p}]$ sent $_{2,1}[\mathrm{~s}]$ sent $_{2,2}[\mathrm{~s}] \ldots "$ のようになっている。ここで $\operatorname{sent}_{\mathrm{i}, \mathrm{j}}$ は $\mathrm{i}$ 番目の文書の $\mathrm{j}$ 番目の文であり、 $[\mathrm{p}] \cdot[\mathrm{s}] \cdot[\mathrm{q}] \cdot[/ \mathrm{q}]$ はそれぞれ文書・文・質問の始まり・質問の終わりを表す特殊トークンである。 また、先頭の [CLS] トークンに対する出力ベクトルは、回答タイプ分類(yes/no or スパン)に用いる。 Longformer の global attention は、[CLS], [s], [p] の特殊トークンと [q] から [/q] の間の質問を表す部分のトークンに与えられる。 文書選択、根拠文選択、回答抽出の方法は以下の通り。10 文書それぞれが gold 文書か否かを判定する文書選択タスクは、文書の始まりを表す特殊トー クンに対する出力ベクトルに、根拠文選択のタスクは、文の始まりを表す特殊トークンに対する出力べクトルに 2 層のフィードフォワードネットワークを適用して得られるスコアにクロスエントロピー 損失を適用して訓練を行う。回答抽出タスクについては、Devlin ら [1] の SQuAD v1.1への BERT の適用手法に [CLS] トークンによって回答タイプを予測する機構を加えて行う。具体的には文書の各トークンの出力ベクトルに線形層を適用して、回答スパンの開始・終了位置となることに対するスコアとし、 [CLS] トークンの出力にはフィードフォワードネットワークを適用してクロスエントロピー損失をとる。モデル全体の訓練には、回答スパン・回答タイプ分類・文選択・文書選択のそれぞれの損失の線形和を全体の損失として、マルチタスク学習の形で 表 1 訓練手法における選択候補の絞り込み train2 ありなし train3 ありあり(文書) train4 ありあり(根拠文) train5 あり* あり(文書)* train6 あり* あり(根拠文)* *は候補とする部分のみを Longformerに入力 行う。 ## 3 手法 本研究では、上記の Longformer モデルを使った手法をべースに異なる訓練・テスト方法を用いて、それらの差を調べた。Longformerへの入力において、文を表す特殊トークン [s] は各文の先頭に付加し、全体の損失は、2.3 項と同様に定義する。ただし、回答抽出の損失については、文書中に答えとなる単語が複数出現することがあるため、以下の関数を用いた [13]。 $ -\log \left(\frac{\sum_{k \in A} e^{s_{k}}}{\sum_{i=1}^{n} e^{s_{i}}}\right) $ ここで、 $A$ は回答トークンの集合、 $n$ は全トークン数を、 $s_{i}$ は $\mathrm{i}$ 番目のトークンに対する線形層からの出力を表す。 ## 3.1 訓練方法 訓練の方法として以下の train1-6の 6つの手法を比較した。いずれにおいても、目的関数は全ての夕スクの損失を足し合わせたものとする。また、事前訓練済みモデルとしては Longformer-base モデルを用いる。 train1 2.3 項で説明した手法で、それぞれのタスクで出力ベクトル全体を用いる。 train2 根拠文選択の訓練を行う際、文書選択で gold 文書であると判定された文書中の文のみを候補とする。回答抽出の範囲は train1 と同様。 train3 根拠文選択の訓練は train2 と同じ方法で行う。回答抽出の訓練を行う際、文書選択で gold 文書だと判定された文書のトークンのみを候補とする。 train4 根拠文選択の訓練は train2 と同じ方法で行う。回答抽出の訓練を行う際、文選択で根拠文であると判定された文のトークンのみを候補とする。 train5 根拠文選択・回答抽出の訓練の際、ともに文書選択で gold 文書と判定された文書と質問の Question: Which current CBS NBA analyst played for the PORTLAND TRAILBLazers along with former UNLV teammate Stacey Augmon? Document 1: [1]Gregory Carlton "Greg" Anthony (born November 15, 1967) is an American former National Basketball Association (NBA) player and is currently a television analyst for CBS Sports. [2] Anthony also contributes to Yahoo! Sports as a college basketball analyst and serves as a co-host/analyst on SiriusXM NBA Radio. Document 2: [3]The 1998-99 NBA season was the 29th season for the Portland Trail Blazers in the National Basketball Association. [4] During the offseason, the Blazers signed free agents Jim Jackson and Greg Anthony, who would reunite with his former UNLV teammate Stacey Augmon. [5] Portland got off to a fast start winning 15 of their first 18 games, and went 35-15 in the lockout-shortened season, earning their fourth Pacific Division title and the first since 1991-92. [6] Their record qualified them for the \#2 seed in the Western Conference. [7] The team earned their 17th straight trip to the playoffs, and 22nd in 23 years. [8] Head coach Mike Dunleavy was named Coach of The Year. Document 3: ... [9] The team also acquired Stacey Augmon and Grant Long from the Atlanta Hawks, but later on sent Augmon to the Portland Trail Blazers for Aaron McKie at midseason. . . Answer:Aaron McKie(train1-test1), Greg Anthony(train4-test4) Supporting facts: [1],[4],[7],[9](train1-test1), [1],[4],[7](train4-test4) 図 2 絞り込むことにより正答する例 トークンのみを連結したものを Longformer へ再度入力して、その出力ベクトルに対して根拠文選択と回答抽出の訓練を行う。 train6 根拠文選択の訓練は train5 と同じ方法で行う。回答抽出の訓練を行う際、文選択で根拠文であると判定された文と質問のトークンのみを連結したものを Longformerへ再度入力して、その出力べクトルに対して訓練を行う。 絞り込んだ文が回答を含まない場合には、回答抽出の損失は計算せずに他のタスクの損失のみを考えた。 ## 3.2 テスト方法 train1-6と同じ絞り込みを行う方法をそれぞれ test1-6とする。文書選択についてはスコアの上位 2 文書のみを選択した。 表 2 テスト文書数:全文書 ## 4 実験 実験は、3 節で述べた手法で全文書を使って訓練したモデルと、 5 文書に絞って訓練したモデルについて、全文書でテストした場合(表 2)と 5 文書でテストした場合(表 3)について調べた。 5 文書への絞り込みには、Beltagy ら [11] の two-stage モデルと同様に、段落選択のみで訓練したモデルを用いた。 データは、公開されている訓練セット (90,447 問) のうち 80,000 問を訓練データ、残りを開発データとし、開発セットをテストデータとした。表の Ans は回答、Sup は根拠文の F1 スコアである。 表 2 から、根拠文選択を行う際に、train2-4 のように文書選択により候補を絞り込み、テスト時にも同様にすることで、性能が向上することが確認できた。回答抽出については、train 3,4 のような候補の絞り込みでは性能の向上は見られなかった。一方 train5,6 のように、絞り込んだ文のみを入力すると、根拠文選択に関しては train2-4 と同等の効果しか得られなかったが、回答抽出はこの方法で行うことで最も良い結果が得られた。絞り込んだ文のみを入力 する方法は、テスト時にのみ適用した場合でも性能の向上が見られる。また 5 文書へ絞ると性能は向上するが、訓練に 5 文書しか使わなかった場合、テス卜に全文書を使うと、性能が下がる傾向が見られることから、テスト時よりも厳しい設定で訓練する方が頑健性が保たれると分かる。 図 2 に、train1-test1 で誤答し、train4-test4 では正答した例を示す。 train1-test1 は絞り込みを行わないために、文書 1,2 を gold 文書と判定したが、文書 3 から余分に根拠文を選択し、そこから誤った回答を抽出している。このような誤答は、数字や人名などが回答で、似た特性を持つ単語が文書中に複数存在する問題で見られた。このことからも、段階的な絞り込みの有効性が確認できる。 ## 5 おわりに 本研究では、HotpotQA に対して Longformerを適用する際に、段階的な絞り込みを行うことによる効果を調べた。結果として不要な文を取り除いていくことで、一定の効果が得られることが確認できた。 ## 参考文献 [1]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), 2019. [2]Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ questions for machine comprehension of text. In Proceedings of the 2016 Conference on Empirical Methods in Natural Language Processing, 2016. [3]Zhilin Yang, Peng Qi, Saizheng Zhang, Yoshua Bengio, William Cohen, Ruslan Salakhutdinov, and Christopher D. Manning. HotpotQA: A dataset for diverse, explainable multi-hop question answering. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, 2018. [4]Johannes Welbl, Pontus Stenetorp, and Sebastian Riedel. Constructing datasets for multi-hop reading comprehension across documents. Transactions of the Association for Computational Linguistics, Vol. 6, pp. 287-302, 2018. [5]Yuwei Fang, Siqi Sun, Zhe Gan, Rohit Pillai, Shuohang Wang, and Jingjing Liu. Hierarchical graph network for multi-hop question answering. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), 2020. [6]Lin Qiu, Yunxuan Xiao, Yanru Qu, Hao Zhou, Lei Li, Weinan Zhang, and Yong Yu. Dynamically fused graph network for multi-hop reasoning. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, 2019. [7]Ye Deming, Lin Yankai, Liu Zhenghao, Liu Zhiyuan, and Sun Maosong. Multi-paragraph reasoning with knowledgeenhanced graph neural network. arXiv:1911.02170, 2019. [8]Michael Glass, Alfio Gliozzo, Rishav Chakravarti, Anthony Ferritto, Lin Pan, G P Shrivatsa Bhargav, Dinesh Garg, and Avi Sil. Span selection pre-training for question answering. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020. [9]Sewon Min, Victor Zhong, Luke Zettlemoyer, and Hannaneh Hajishirzi. Multi-hop reading comprehension through question decomposition and rescoring. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, 2019. [10]Iz Beltagy, Matthew E. Peters, and Cohan Arman. Longformer: The long-document transformer. arXiv:2004.05150v1, 2020. [11]Iz Beltagy, Matthew E. Peters, and Cohan Arman. Longformer: The long-document transformer. arXiv:2004.05150v2, 2020. [12]Groeneveld Dirk, Khot Tushar, Mausam, and Sabharwal Ashish. A simple yet strong pipeline for hotpotqa. arXiv:2004.06753, 2020. [13]Christopher Clark and Matt Gardner. Simple and effective multi-paragraph reading comprehension. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), 2018.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A5-3.pdf
# Moderate to Answer MRC Examples with High Variability are Effective in MRC Model Training Hongyu Li, Tengyang Chen, Shuting Bai, Tingxuan Li, Takehito Utsuro Graduate School of Systems and Information Engineering, University of Tsukuba, Japan ## 1 Introduction The Machine Reading Comprehension (MRC) task locates the best corresponding natural language answer when provided a question and its related context. In recent years, MRC models using neural networks have been proposed for SQuAD [8,9], which is a large-scale, high-quality English MRC dataset. Most recent neural network based MRC models have outperformed human performance [1]. Among those existing work, to analyze the difficulty of several popular MRC benchmarks such as bAbI [11], SQuAD [8], CBT [3], CNN [2] and Whodid-What [7], Kaushik and Lipton [4] established sensible baselines for these datasets, and found that question-only and context-only (which is referred to as passage-only in Kaushik and Lipton [4]) models often performs surprisingly well. In particular, context-only models achieve over $50 \%$ accuracy on 14 out of $20 \mathrm{bAbI}$ tasks, and as for CBT, only the last one of the 20 sentences provided as a context is necessary to achieve a comparable accuracy. They also indicated that SQuAD is designed more carefully than other datasets and achieved F1 scores of only $4 \%$ and $14.8 \%$ respectively on question-only and contextonly models, which are relatively lower. Kaushik and Lipton [4] demonstrated that published MRC datasets should characterize the level of difficulty, and specifically, the extent to which questions and contexts are essential. Moreover, they also claimed that follow-up papers reporting improvements ought to report performance both on the full task and variations omitting questions and contexts. In view of the point demonstrated in Kaushik and Lipton [4], our prior work [5] concentrates more on the difficulty of every single MRC example. Based on pre-trained BERT, we proposed a method of splitting the 87,600 SQuAD1. 1 training examples comprised of 12,500 "easy to answer" ones and 75,100 "hard to answer" ones, and found that when using 12,500 examples of each class to fine-tune BERT on MRC task respectively, the "hard to answer" ones significantly outperform "easy to answer" ones on training effectiveness. However, it was also pointed out that the performance of "hard to answer" examples is comparable with that of examples randomly sampled from the training examples of SQuAD1.1. Figure 1: An MRC Model using Neural Networks Swayamdipta et al. [10] proposed DataMapsa general framework of identifying three regions, namely, ambiguous, easy to learn, and hard to learn within a dataset, and applied the framework to several tasks such as natural language inference and sentence-level machine reading comprehension. It is concluded that ambiguous instances are useful for high performance, easy to learn instances aid optimization, and hard to learn instances correspond to data errors. Following our prior work [5], this paper further proposes a method that splits the MRC examples into three classes of "easy to answer", "moderate to answer", and "hard to answer"1. Given the MRC dataset SQuAD1.1 (where each MRC example is denoted as the tuple $\langle Q, C, A\rangle$ of the question $Q$, the context $C$, and the answer $A$ ) and the pre-trained model RoBERTa $[6]^{2}$, we apply a 10-fold cross-validation on the 87,600 SQuAD1.1 training examples comprised of 13,400 "easy to answer", 49,300 "moderate to answer", and 25,000 "hard to answer" examples. From the comparison results, the followings are our significant findings. (1) Based on the performance of training the RoBERTa MRC models with 13,400 "easy to an- ^{1}$ The definition of "hard to answer" examples is different from that in our prior work [5]. }^{2}$ Our implementation uses the Huggingface Transformers library [12], and all of our models are fine-tuned based on RoBERTa-base with the number of epochs as 2 , batch size as 8 , learning rate as 0.000015 , and the maximum sequence length as 384 . Table 1: Splitting the MRC Examples into "Answerable" and "Unanswerable" Examples with the Corresponding Statistics swer", "moderate to answer", "hard to answer" examples, as well as those randomly sampled from the complete SQuAD1.1 training examples, the one trained with "moderate to answer" examples outperforms the other three. (2) In comparison with the model trained with 13,400 "moderate to answer" examples, another model trained with the examples with high variability of confidence within "moderate to answer" examples shows further performance improvement. ## 2 Splitting MRC Examples into "Easy to Answer", "Moderate to answer", and "Hard to Answer" Classes Following the procedure for detecting MRC examples as answerable without a question demonstrated in the previous section, we similarly split the 87,600 SQuAD1.1 training examples into "easy to answer", "moderate to answer", and "hard to answer" classes. With the 10-fold cross-validation procedure illustrated in Figure 2, we obtain the following four types of evaluation results, where there exist two choices each for both training and evaluation: (i) The MRC model is trained with the training examples that include questions used as they are or do not include questions (i.e., "with-question training" or "without-question training"). (ii) The trained MRC model is evaluated against the MRC test examples with or without questions (i.e., "with-question" evaluation or "withoutquestion" evaluation). The 10-fold cross-validation results in the three classes of "easy to answer" (approximately 13,400 examples), "moderate to answer" (approximately 49,300 examples), and "hard to answer" (approximately 25,000 examples). Figure 2: Four Types of Evaluation through 10-fold Cross-Validation for Splitting the MRC Examples into "Easy to Answer", "Moderate to answer", and "Hard to Answer" Classes ## Detailed Procedure The SQuAD1.1 dataset is composed of approximately 100,000 MRC examples that use 23,215 paragraphs extracted from 536 Wikipedia articles as context. With these contexts, questions and answers are annotated through crowd sourcing to generate the complete 100,000 MRC example set. From these examples, we apply $N$-fold cross-validation $(N=10$ in this paper) to the set $U$ of the MRC training examples collected from 442 out of the 536 Wikipedia articles. Before the $N$-fold cross-validation, we first divide the 442 Wikipedia articles into disjoint $N$ subsets. From the $i$-th $(i=1, \ldots, N)$ subset of Wikipedia articles, we obtain the $i$-th test set $t s_{i}$ of the MRC examples. and the $i$-th training set of the MRC examples is obtained as the set $t r_{i}$ of the remaining MRC examples. Then, the set $U$ of the complete SQuAD1.1 training examples is represented as $ U=\bigcup_{i=1, \ldots, N} t s_{i} \quad\left(t s_{i} \cap t s_{j}=\emptyset(i \neq j)\right) $ As shown in Table 1, from the $i$-th training set $t r_{i}$ of the MRC examples, each of which contains a question, another training set $t r_{i}{ }^{Q=\emptyset}$ of the MRC examples is obtained by removing the question $Q$ from each example. So, each MRC example in the obtained training set $t r_{i}{ }^{Q=\emptyset}$ now has an empty question. Similarly, from a test MRC example $s=$ $\langle Q, C, A\rangle$ in the $i$-th test set $t s_{i}$ of the MRC examples that contains a question, another test MRC example $s^{Q=\emptyset}$ is obtained by removing its question $Q$ from $s$. So, the obtained test MRC example $s^{Q=\emptyset}$ has an empty question. Here, we define a Boolean predicate answerable which classifies if the given test example $s$ is "answerable" or "unanswerable" by the MRC model $m(t r)$ trained with training set $t r$, and is defined according to if the predicted answer $\widehat{A}$ is the same as the reference answer $A$ as $ \text { answerable }(m(t r), s)= \begin{cases}1 & (\widehat{A}=A) \\ 0 & (\widehat{A} \neq A)\end{cases} $ By pairing the two training sets $t r_{i}$ and $t r_{i}{ }^{Q=\emptyset}$ from the MRC examples and the two test MRC examples $s$ and $s^{Q=\emptyset}$, as shown in Table 1, a resulting four pairs of training sets from the MRC examples and a test MRC example can be examined as to if the given designated test MRC example is "answerable" or "unanswerable" by the MRC model trained with the designated training set. Finally, in each of these four pairs, the set $t s_{i}$ of the test MRC examples is split into the set $a^{\alpha}\left(t s_{i}\right)$ of answerable test MRC examples and $u a^{\alpha}\left(t s_{i}\right)$ of unanswerable test MRC examples, according to ( $\alpha=$ $1,2,3,4)$ $ \begin{aligned} & a^{1}\left(t s_{i}\right)= \\ & \quad\left.\{s \in t s_{i} \mid \text { answerable }\left(m\left(t r_{i}\right), s\right)=1\right.\} \\ & a^{2}\left(t s_{i}\right)= \\ & \quad\left.\{s \in t s_{i} \mid \text { answerable }\left(m\left(t r_{i}{ }^{Q=\emptyset}\right), s\right)=1\right.\} \\ & a^{3}\left(t s_{i}\right)= \\ & \quad\left.\{s \in s_{i} \mid \operatorname{answerable}\left(m\left(r_{i}\right), s^{Q=\emptyset}\right)=1\right.\} \\ & a^{4}\left(t s_{i}\right)= \\ & \left.\{s \in t s_{i} \mid \text { answerable }\left(m\left(t_{i}{ }^{Q=\emptyset}\right), s^{Q=\emptyset}\right)=1\right.\} \\ & u a^{\alpha}\left(t s_{i}\right)=t_{i}-a^{\alpha}\left(t s_{i}\right)(\alpha=1,2,3,4) \end{aligned} $ The sets $a^{\alpha}\left(t s_{i}\right)(\alpha=1,2,3,4)$ of "answerable" test MRC examples are obtained by evaluating the MRC model trained with the training sets $t r_{i}$ (with questions) or $\operatorname{tr}_{i}{ }^{Q=\emptyset}$ (without questions) against $s$ (with a question) or $s^{Q=\emptyset}$ (without a question). We define the set $E$ of "easy to answer" MRC examples as the union of the three sets $a^{\alpha}\left(t s_{i}\right)(\alpha=2,3,4)$ of "answerable" test MRC examples. For these, we collect the "answerable" test MRC examples over the cases with questions removed either from the training or test MRC examples $\left(a^{1}\left(t s_{i}\right)\right.$ is excluded because the questions are used in both the training and test MRC examples). The set $H$ of "hard to answer" MRC examples is defined as the intersection of $u a^{\alpha}\left(t s_{i}\right)$ $(\alpha=1,2,3,4)$, which indicates these ones are found as "unanswerable" over all of the four cases. The set $M$ of "moderate to answer" examples is subsequently Table 2: Number of Examples in Each Training Set \\ \cline { 1 - 1 }$M_{v a r}:$ examples with the highest variability within $M$ & \\ \cline { 1 - 1 }$A_{s m l}:$ examples randomly sampled from $A$ & \\ \cline { 1 - 1 }$A_{v a r}:$ examples with the highest variability within $A$ & \\ \cline { 1 - 1 }$H_{s m l}:$ examples randomly sampled from $H$ & \\ \cline { 1 - 1 }$U_{s m l}:$ examples randomly sampled from $U$ & \\ defined as the complement set of $E \cup H$ as below: ${ }^{3}$ $ \begin{aligned} E & =\bigcup_{i=1, \ldots, N} a^{2}\left(t s_{i}\right) \vee a^{3}\left(t s_{i}\right) \vee a^{4}\left(t s_{i}\right) \\ H & =\bigcup_{i=1, \ldots, N} u a^{1}\left(t s_{i}\right) \wedge u a^{2}\left(t s_{i}\right) \wedge u a^{3}\left(t s_{i}\right) \wedge u a^{4}\left(t s_{i}\right) \\ M & =U-(E \vee H) \end{aligned} $ Consequently, the set $U$ of the complete SQuAD1.1 training examples is split into the set $E$ of 13,357 "easy to answer" examples, the set $M$ of 49,251 "moderate to answer" ones, and the set $H$ of 24,991 "hard to answer" ones. ## 3 Effectiveness of "Moderate to Answer" Examples in MRC Model Training We next evaluate the effectiveness of "easy to answer", "moderate to answer" and "hard to answer" MRC examples based on the performance of each class when used for the MRC model training. As a baseline, we apply the framework of Swayamdipta et al. [10] on SQuAD1.1, resulting in "ambiguous", "easy to learn", and "hard to learn" examples selected from the training examples of SQuAD1.1. Specifically, we fine-tune RoBERTa model on MRC task for 2 epochs $^{4}$ with the training examples of SQuAD1.1, and for each example, we yield the confidence and the variability of the confidence across the 2 epochs. Then, the 29,075 ( $33 \%$ of $U$ ) training examples with the highest variability are selected as the set $A$ ("ambiguous"), which outperforms the 29,075 training examples with the highest average confidence ("easy to learn") and the 29,075 training ^{3}$ Over the set $U$ of the complete SQuAD1.1 training examples, the set $a^{\alpha}$ of "answerable" examples and the set $u a^{\alpha}$ of "unanswerable" examples are defined as $a^{\alpha}=\bigcup_{i=1} a^{\alpha}\left(t s_{i}\right), u a^{\alpha}=U-a^{\alpha}(\alpha=1,2,3,4)$, where the number of examples in each set is provided in Table 1. }^{4}$ We have compared the results among $2 \sim 5$ epochs of finetuning, and the "ambiguous" examples of 2 epochs of finetuning perform the best. Figure 3: Evaluation Results on the Development Set of SQuAD1.1 where EM is an Exact Match, and F1 is the Macro-Average of the F1 Score per Example examples with the lowest average confidence ("hard to learn"). The sets shown in Table 2 are evaluated as the MRC model training examples. In addition to the set $E$, we evaluate the sets $M_{s m l}, H_{s m l}$ and $U_{s m l}$ of $|E|=13,557$ MRC examples randomly sampled from $M, H$, and $U$, respectively. These sets are intended to directly compare the effectiveness of the "easy to answer", "moderate to answer", "hard to answer", and (randomly sampled) SQuAD1.1 training examples by restricting the numbers of the training examples to be the same. To compare our results with the baseline, we also evaluate the set $A_{s m l}$ of $|E|=13,557$ MRC examples randomly sampled from $A$. Moreover, we evaluate $M_{v a r}$ and $A_{v a r}$ which are the sets of $|E|=13,557 \mathrm{MRC}$ examples with the highest variability within $M$ and $A$, respectively. All these sets are used to fine-tune the RoBERTa pre-trained model on the MRC task, and the development set of SQuAD1.1 is used as the test set for each evaluation. For the evaluation measures, we utilize the exact match (EM), which is defined as the rate of examples with a predicted answer that exactly matches the reference answer. The macro average of the F1 score is calculated from the precision and recall between the token sequences of the predicted and reference answers. Figure 3 compares the performance of these sets of MRC training examples. Within the three sets of "easy to answer", "moderate to answer" and "hard to answer" examples, $M_{s m l}$ significantly outperforms $E$ and $H_{s m l}$. Compared with the performance of the baseline's "ambiguous" examples $A_{s m l}$, which is comparable with that of $U_{s m l}$, our "moderate to answer" examples $M_{s m l}$ outperforms the set $U_{s m l}$ with a statistically significant $(p<0.01)$ difference. Furthermore, the set $M_{v a r}$ of examples with the highest variability of confidence within $M$ outperforms the set $M_{s m l}$ with a statistically significant $(p<0.1)$ difference, which also outperforms all other sets of $|E|=13,557$ examples with a statistically significant $(p<0.01)$ difference. This suggests that "moderate to answer" examples with high variability are effective in MRC Model training. ## 4 Conclusion We proposed a method based on RoBERTa [6] that splits the training examples from the MRC dataset SQuAD1.1 into classes of "easy to answer", "moderate to answer", and "hard to answer". Experimental evaluation results of comparing the four models, which are respectively trained only with the "easy to answer", "moderate to answer", "hard to answer" examples and examples randomly sampled from the complete SQuAD1.1 training examples, demonstrate that the one trained with "moderate to answer" examples outperforms the other three. Furthermore, we also train a model using the examples with high variability of confidence within "moderate to answer" examples, which shows further performance improvement in comparison with that trained with examples randomly sampled from "moderate to answer" examples. Future work includes applying the analysis procedure of this paper to several popular MRC benchmark datasets other than SQuAD [8] and investigating whether the similar results are obtained. We also work on deeper analysis of the characteristics of "easy to answer", "moderate to answer", and "hard to answer" examples to find out features that are related to the disparity of training effectiveness. ## References [1] J. Devlin, M.-W. Chang, K. Lee, and K. Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. NAACL-HLT, pp. 4171-4186, 2019. [2] K. M. Hermann, T. Kociskỳ, E. Grefenstette, L. Espeholt, W. Kay, M. Suleyman, and P. Blunsom. Teaching machines to read and comprehend. In Proc. 28th NIPS, pp. 16931701, 2015. [3] F. Hill, A. Bordes, S. Chopra, and J. Weston. The goldilocks principle: Reading children's books with explicit memory representations. In Proc. 4th ICLR, pp. 1-13, 2016. [4] D. Kaushik and Z. C. Lipton. How much reading does reading comprehension require? a critical investigation of popular benchmarks. In Proc. EMNLP, pp. 5010-5015, 2018. [5] H. Li, T. Chen, S. Bai, T. Utsuro, and Y. Kawada. MRC examples answerable by BERT without a question are less effective in MRC model training. In Proc. 1st $A A C L-$ IJCNLP: Student Research Workshop, pp. 146152, 2020 . [6] Y. Liu, M. Ott, N. Goyal, J. Du, M. Joshi, D. Chen, O. Levy, M. Lewis, L. Zettlemoyer, and V. Stoyanov. RoBERTa: A robustly optimized BERT pretraining approach. arXiv preprint arXiv:1907.11692, 2019. [7] T. Onishi, H. Wang, M. Bansal, K. Gimpel, and D. McAllester. Who did what: A large-scale person-centered cloze dataset. In Proc. EMNLP, pp. 2230-2235, 2016. [8] R. Pranav, Z. Jian, L. Konstantin, and L. Percy. SQuAD: $100,000+$ questions for machine comprehension of text. In Proc. EMNLP, pp. 23832392, 2016 . [9] R. Pranav, J. Robin, and L. Percy. Know what you don't know: Unanswerable questions for SQuAD. In Proc. 56th ACL, pp. 784-789, 2018. [10] S. Swayamdipta, R. Schwartz, N. Lourie, Y. Wang, H. Hajishirzi, N. A. Smith, and Y. Choi. Dataset cartography: Mapping and diagnosing datasets with training dynamics. In Proc. EMNLP, pp. 9275-9293, 2020. [11] J. Weston, A. Bordes, S. Chopra, A. M. Rush, B. van Merriënboer, A. Joulin, and T. Mikolov. Towards AI-complete question answering: A set of prerequisite toy tasks. In Proc. 4th ICLR, pp. 1-14, 2016. [12] T. Wolf, J. Chaumond, L. Debut, V. Sanh, C. Delangue, A. Moi, P. Cistac, M. Funtowicz, J. Davison, S. Shleifer, P. von Platen, C. Ma, Y. Jernite, J. Plu, C. Xu, T. Le Scao, S. Gugger, M. Drame, Q. Lhoest, and A. Rush. Transformers: State-of-the-art natural language processing. In Proc. EMNLP: System Demonstrations, pp. $38-45,2020$.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A5-4.pdf
# オープンドメイン質問応答における解答可能性判別の役割 鈴木正敏 ${ }^{1,2}$ 松田耕史 ${ }^{2,1}$ 大内啓樹 2,1 鈴木潤 1,2 乾健太郎 1,2 1 東北大学 2 理化学研究所 } \{m. suzuki, matsuda, jun.suzuki,inui\}@ecei.tohoku.ac.jp, hiroki.ouchi@riken.jp ## 1 はじめに 自然言語による質問の入力に対して適切な解答を出力する質問応答システムは,自然言語処理技術の最も重要な応用課題の 1 つである [1]. 特に,対象とする知識の範疇を限定しないオープンドメイン質問応答は,「どんな質問にも答えられるコンピュー タ」を実現する挑戦的な課題として,学術界と産業界の両方で積極的な研究が行われている [2]. 既存のオープンドメイン質問応答システムの多くは,大量の文書に対する情報検索と,検索された文書から解答を抽出する処理から成るパイプライン型の手法を採用している $[3,4,5]$. 近年では,機械読解タスクの隆盛を背景に,深層学習を基盤とする読解モデルを用いて解答抽出を行う質問応答システムも提案されている $[6,7,8,9,10,11]$. 情報検索を基盤としたパイプライン型の質問応答システムでは,検索された文書が質問の内容と無関係であった場合,文書からの正しい解答の抽出が困難になる. この問題に対処するための方法として,検索された文書や解答候補のリランキングを行う手法 $[7,8]$ などが提案されている. しかし本来,与えられた文書が質問に解答するための情報として適切かどうかの判別には,文書の読解と同等の言語理解能力が必要となるはずである. したがって,読解のための文書の選別も,別個のモデルを用意するのではなく,読解モデルに行わせるのが合理的ではないかと考えられる。 そこで本研究では,解答抽出を担う読解モデルに文書の読解による解答可能性の判別を行わせることで,解答性能の高いオープンドメイン質問応答システムを実現する方法を研究する. 具体的には,解答可能性が明示的に付与されたデータセット [12]を用いて読解モデルを訓練し,質問との関連度が低い文書を「読み捨てる」ことで,読解で得られる解答候補の質の向上を図る. 実験の結果,解答可能性判別を行うよう訓練された読解モデルを用いること表 1 解答可能性付き読解データセットに含まれる事例. 質問: 地元では「がめ煮」とよぶ、鶏肉や野菜を一口大に切って、だしや奨油などで煮込んだ福岡県の郷土料理は何でしょう? 正解: 筑前煮 文書: 筑前煮など、ほかの煮物にも鰹節を出汁のひとつとして使うものは多いが、土佐煮では鰹節の濃厚な味を生かしたり、具材の一部として使う特徴がある。土佐酢などと同様、鰹節を用いることから鰹で有名な土佐(現高知県)の名を用いる。... 解答可能性スコア: 0 で,最終的な質問応答の精度が大幅に向上した. さらに,解答可能性の教師信号として,文書中の正解文字列の有無ではなく,文書の読解によって質問に解答できるかどうかの人手による判断を用いることで,より高い質問応答の性能が得られた1). ## 2 関連研究 オープンドメイン質問応答の初期のシステムは,質問文の解析,情報検索,解答候補の抽出などから成るパイプライン処理を,人手で設計された規則や特徴量に基づいて行うものが主流であった $[3,4,5]$.近年では,深層学習技術の進展と同時に,SQuAD [13] に代表される機械読解タスクの研究が広く取り組まれるようになったことを背景に,従来のパイプライン型質問応答システムの一部を深層学習を基盤としたモデルで置き換え,より解答性能の高いシステムの実現を目指す研究が進められている. Chen ら [6] は,従来の情報検索のモジュールと深層学習による読解モデルを組み合わせたオープンドメイン質問応答システムを初めて提案した.このシステムでは,TF-IDFを特徵量とした情報検索モジュールにより取得された文書 (Wikipedia 記事の段落)に対して,事前に SQuAD 等のデータセットで訓練された読解モデルを適用し最も予測確率の高い解答候補を出力することで,質問応答を実現してい 1)実験に用いたコードはhttps://github.com/cl-tohoku/ open-book-qa で公開している。 る. 以降,読解モデルに訓練済み言語モデルを利用する方法 [10] や,検索も深層学習で行う方法 [9, 11] など,多くの手法が相次いで提案されている. パイプライン型の質問応答システムでは,検索により取得される文書に必ずしも質問の正解が書かれているとは限らないため,そのような文書が入力されたときに読解モデルは誤った解答を出力してしまうという課題がある. この問題を回避する手法として,検索された文書に質問の正解が書かれているかどうかを判別する新たなモジュールの導入 [7] や,読解モデルが出力する解答候補をリランキングするモジュールの導入 [8] が提案されている. これらの既存研究に対して本研究は, 文書の選別には読解の能力が必要であるという着想のもと, 解答可能性判別を読解モデルに行わせることでより良い質問応答システムを実現することを追究する. ## 3 解答可能性付き読解データセット 解答可能性付き読解データセット [12] は, 日本語のクイズ問題を元に作成された,機械読解タスクのデータセットである. ウェブから収集されたクイズ問題である質問に対して,正解の文字列を含む Wikipedia 記事の段落が読解対象の文書として 1 問あたり最大 5 件付与されている. さらに,全ての質問-正解-文書の組に対して,クラウドソーシングにより付与された「解答可能性スコア」が与えられている. 解答可能性スコアは, 1 事例あたり 5 名の作業者に質問-正解-文書の組を提示し, 質問の正解の根拠が文書中に書かれているかを Yes/Noのの 2 択で答えてもらい,Yes と答えた人数をそのまま 5 点満点のスコアとしたものである. 表 1 に,データセットに含まれる事例の例を示す.この事例の文書には,正解の「筑前煮」という文字列は書かれているが,解答の根拠となる「がめ募」に関する情報は書かれていないため,解答可能性スコアは 0 が付与されている. なお,本データセットと同時期に提案された同様のデータセットに SQuAD 2.0 [14]があるが, SQuAD 2.0 では「文書に正解が書かれているか」を解答可能性としているのに対し, 本データセットでは「文書に正解の根拠が書かれているか」を解答可能性としており,正解の文字列そのものは全ての文書に書かれている。すなわち,本データセットは,読解による解答可能性を判別させるための,より難しいデー タセットになっている.表 2 データセットの統計量. 本研究では既存研究 [12] と同様に,質問の元となったクイズ問題の出題年ごとにデータセットを訓練・開発・評価データに分割する.また,解答可能性スコアが 2 以上のものを解答可能な事例とし, 1 以下のものを解答不可能な事例として扱う. 表 2 にデータセットの各種統計量を示す. ## 4 提案手法 3 節のデータセットで訓練した読解モデルを用いてオープンドメイン質問応答システムを構築する. ## 4.1 読解モデル 読解モデルとして,日本語の Wikipedia 記事で事前訓練された BERT [15]を利用する.モデルの構造は BERT-base とし,語彙の大きさは 32,768 とする. 事前訓練された BERTを読解タスクに適応させるため,3節で述べた解答可能性付き読解データセットを用いてモデルを追加訓練する。追加訓練には, BERT の SQuAD 2.0 に対する既存手法 [15] を応用する. すなわち, 質問 $q$ と文書 $d$ を連結させた入力 [CLS] $q$ [SEP] $d$ [SEP] に対して,解答可能な事例に対しては, 文書中の正解の開始位置 $i$ と終了位置 $j$ $(i \leq j)$ を予測し,解答不可能な事例に対しては,たとえ正解の文字列が偶然含まれている場合でもそれを正解と見なさずに,開始位置と終了位置として文頭([CLS] の位置)を予測するように訓練する2). ## 4.2 質問応答システム 4.1 節で訓練した読解モデルを用いて,オープンドメイン質問応答システムを構築する. 本研究で構築する質問応答システムは,検索,読解,解答統合の3つのモジュールから成る.以下で,それぞれのモジュールについて説明する。 検索システムに入力される質問に対して,全文検索エンジンを用いて予めインデックスされた文書集合から関連度の高い $k$ 件の文書を取得する. 全文検索のスコアリング関数には Okapi BM25 を用い, 2) BERT の事前訓練および追加訓練の詳細は付録 Aを参照. 図 1 訓練時における解答可能性判別の例. 表 3 開発・評価データに対するシステムの解答性能. 文書集合には 2020 年 8 月 30 日時点の Wikipedia 全記事を段落に分割したものを用いた3). 読解システムに入力された質問と検索モジュー ルで取得された文書から成る $k$ 件の質問-文書ペアのそれぞれに対して,4.1 節で訓練した読解モデルを用いて解答候補を出力する.ただし,読解モデルが解答不可能と予測した事例は棄却する. 解答統合読解モジュールにより得られた最大 $k$件の解答候補から,多数決によりシステムの最終的な解答を 1 つ決定する。ただし,最も出現数の多い解答候補が複数ある場合は,元の質問-文書ペアに対する検索モジュールの関連度スコアの最上位がより上位にある解答候補を選択する。 また,読解モジュールにより得られた解答候補が 0 件である(すなわち $k$ 件全てが解答不可能と予測された)場合は,最終的な解答も「解答不可能」とする ${ }^{4)}$. ## 5 実験 ## 5.1 実験設定 3 節のデータセットを用いて,以下の4つの条件で読解モデルを訓練する。 -ANSWERABLEONLY: 訓練データの解答可能な事例のみを用いて読解モデルを訓練する。 - SOFTANSWERABILITY (提案手法): 訓練データの解答可能・解答不可能な事例の両方を用いて 3)すなわち,本研究における「文書」の単位は段落である. 4)本研究の実験設定では不正解としてカウントされる. 図 2 開発データでの文書数 $k$ と解答性能 (EM) の関係. 解答可能性判別を伴う読解モデルを訓練する. - ALLANSWERABLE: 訓練データの全ての事例を解答可能と見なし用いて読解モデルを訓練する. すなわち,読解で解答不可能な文書に対しても文書中の正解文字列の位置を予測させる. - HARDANSWERABILITY: 訓練データの解答不可能な文書を,正解が書かれていない別の文書に置き換えたデータセットを新たに作成し,解答可能性判別を伴う読解モデルを訓練する.これは SQuAD 2.0 における「解答不可能=正解が書かれていない」という条件を再現したものである. 解答不可能な文書の付与には 4.2 節の全文検索エンジンを用い,質問との関連度が高く, かつ正解を含まない文書を,元の解答不可能な文書と同じ数だけ付与した。 各条件の訓練時の解答可能性判別の例を図 1 亿示す.それぞれの条件で訓練された読解モデルを用いて,4.2 節で述べた質問応答システムを構築する. システムの評価には,3 節のデータセットの開発・評価データの質問と正解を用いる。質問応答性能の定量的な評価指標として, 予測された解答と正解の完全一致の割合である $\mathrm{EM}$ と,部分一致率の平均である F1を測定する ${ }^{5)}$. 検索モジュールで取得する文書数は $k \in[1,1000]$ とし,上記の 4 つそれぞれの条件で,開発データ上で $\mathrm{EM}$ が最大となる $k$ を用いて評価データ上での評価を行う。 ## 5.2 実験結果 表 3 に実験結果を示す. 提案手法の SoFtAnSWERABILITY では, 解答可能性判別を行わない設定である ANSWERABLEONLY および ALLANSWERABLE と比較して EM がおよそ 13 ポイント改善し, 解答 5)F1 は本来は単語の部分一致率を計算するが,本研究では日本語を対象にするため文字レベルの部分一致率を計算する。 表 4 開発データの質問に対するシステムの解答例. 質問: 現在日本に生息する 2 種類のキツネは、キタキツネと何でしょう? 正解: ホンドギツネ & エゾクロテン & エゾクロテン & (解答不可能) \\ 可能性判別の有効性を示した. また提案手法は, SQuAD 2.0 のように正解文字列の有無を判別する HARDANSWERABILITY と比較しても,EM が 2 から 4 ポイント高い結果となった.この結果は, 人間の判断を元に付与された解答可能性の情報が,正解の記述有無を元に機械的に付与された情報よりも,デー タ作成のコストはかかる一方,より効果的に質問応答に応用できる可能性を示している. 図 2 に,開発データにおける,検索モジュールで取得する文書数 $k$ とシステムの解答性能 (EM) の関係を示す. 図 2 の upper bound は, 正解を含む文書が $k$ 件中 1 つでもある質問の割合,すなわち EM の上界を示している6)。解答可能性判別を行わない ANSWERABLEONLY と ALLANSWERABLE では, $k=10$ から 20 の範囲で $\mathrm{EM}$ が最大になり,それ以上 $k$ を大きくしていくと EMは低下した. これとは対照的に,提案手法の SOFTANSWERABILITY では,文書数 $k$ を大きくしていくと,性能はより向上し,今回の実験の範囲では $k=960$ で EM が最大となった7). 文書検索を基盤とした質問応答システムでは一般に,文書数 $k$ を大きくすると質問の正解を含んだ文書が検索でヒットする確率は高くなるが,関連度が低い文書がより多く取得される可能性も高くなる. 解答可能性判別を行わない読解モデルは, 任意の入力に対して何かしら解答を抜き出そうとするため, $k$ が大きくなり解答不可能な文書の入力が増えるに従い,誤った解答候補の出力が増え,解答統合時のノイズになったと考えられる。一方,提案手法  では, $k$ が大きくなり解答不可能な文書が増えた場合でも,解答不可能と判断された文書は棄却することができ,かつ検索結果の下位にある解答可能な文書に対しては読解を行えるため,結果として得られる解答候補の集合の質が向上し,多数決による解答統合に効果的であったと考えられる。 ## 5.3 システムの解答例 表 4 に,開発データの質問に対するシステムの解答例を示す。表 4 に示した検索上位 3 件の文書のうち, 質問の正解である「ホンドギツネ」を含むものは 3 番目の文書だけである. 解答可能性判別を行わない ANSWERABLEONLY と ALLANSWERABLE のシステムでは,正解が解答不可能な文書に対しても解答抽出を行い,その結果誤った解答候補を出力している.一方,解答可能性判別を行う SOFTANSWERABILITY のシステムでは,解答不可能な文書に対しては正しく 「解答不可能」と出力し,正解を解答可能な文書に対してのみ解答抽出を行っていることがわかる. ## 6 おわりに 本研究では,解答可能性の判別を行う読解モデルを応用してオープンドメイン質問応答システムを構築した。実験により,人手で付与された読解による解答可能性の情報が文書の選別に有効であることを示す結果が得られた。 今後の課題として,低コストで作成された解答不可能な訓練事例をより効果的に活用する方法や, DPR [11]のような最先端の情報検索手法と組み合わせる研究に取り組む。 謝辞本研究は JSPS 科研費 JP19H04425, JP19J13238 の助成を受けたものである。 ## 参考文献 [1] R. F. Simmons. Answering English questions by computer: a survey. Communications of the ACM, Vol. 8, No. 1, pp. 53-70, 1965. [2] D. A. Ferrucci. Introduction to "This is Watson" . IBM Journal of Research and Development, Vol. 56, No. 3.4, pp. 1:1-1:15, 2012. [3] Dan Moldovan, Sanda Harabagiu, Marius Pasca, Rada Mihalcea, Roxana Girju, Richard Goodrum, and Vasile Rus. The Structure and Performance of an Open-Domain Question Answering System. In ACL, pp. 563-570, 2000. [4] Eric Brill, Susan Dumais, and Michele Banko. An Analysis of the AskMSR Question-Answering System. In EMNLP, pp. 257-264, 2002. [5] John Prager. Open-Domain Question-Answering. Foundations and Trends ${ }^{\circledR}$ in Information Retrieval, Vol. 1, No. 2, pp. 91-231, 2007. Publisher: Now Publishers, Inc. [6] Danqi Chen, Adam Fisch, Jason Weston, and Antoine Bordes. Reading Wikipedia to Answer Open-Domain Questions. In $A C L$, Vol. 1, pp. 1870-1879, 2017. [7] Yankai Lin, Haozhe Ji, Zhiyuan Liu, and Maosong Sun. Denoising Distantly Supervised Open-Domain Question Answering. In ACL, Vol. 1, pp. 1736-1745, 2018. [8] Shuohang Wang, Mo Yu, Jing Jiang, Wei Zhang, Xiaoxiao Guo, Shiyu Chang, Zhiguo Wang, Tim Klinger, Gerald Tesauro, and Murray Campbell. Evidence Aggregation for Answer Re-Ranking in Open-Domain Question Answering. In ICLR, 2018. [9] Kenton Lee, Ming-Wei Chang, and Kristina Toutanova. Latent Retrieval for Weakly Supervised Open Domain Question Answering. In ACL, pp. 6086-6096, 2019. [10] Wei Yang, Yuqing Xie, Aileen Lin, Xingyu Li, Luchen Tan, Kun Xiong, Ming Li, and Jimmy Lin. End-to-End Open-Domain Question Answering with BERTserini. In NAACL, Vol. Demonstrations, pp. 72-77, 2019. [11] Vladimir Karpukhin, Barlas Oguz, Sewon Min, Patrick Lewis, Ledell Wu, Sergey Edunov, Danqi Chen, and Wentau Yih. Dense Passage Retrieval for Open-Domain Question Answering. In $E M N L P$, pp. 6769-6781, 2020. [12] 鈴木正敏, 松田耕史, 岡崎直観, 乾健太郎. 読解による解答可能性を付与した質問応答データセットの構築. 言語処理学会第 24 回年次大会, pp. 702-705, 2018. [13] Pranav Rajpurkar, Jian Zhang, Konstantin Lopyrev, and Percy Liang. SQuAD: 100,000+ Questions for Machine Comprehension of Text. In EMNLP, pp. 2383-2392, 2016. [14] Pranav Rajpurkar, Robin Jia, and Percy Liang. Know What You Don't Know: Unanswerable Questions for SQuAD. In $A C L$, Vol. 2, pp. 784-789, 2018. [15] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In NAACL, Vol. 1, pp. 4171-4186, 2019. [16] 伝康晴, 小木曽智信, 小椋秀樹, 山田篤, 峯松信明,内元清貴, 小磯花絵. コーパス日本語学のための言語資源 : 形態素解析用電子化辞書の開発とその応用. 日本語科学, Vol. 22, pp. 101-123, 2007. [17] Ilya Loshchilov and Frank Hutter. Decoupled Weight Decay Regularization. In $I C L R, 2019$. ## A 読解モデルの訓練の詳細 BERT の事前訓練には,日本語版 Wikipedia の 2020 年 8 月 30 日付けの Cirrusearch ダンプデータ8) から抽出した記事本文データを利用した. テキストの前処理として,単語分割をUnidic 2.1.2 [16] を用いて行い,さらに BERT の WordPiece によるサブワード分割を行った. 語彙の大きさは 32,768 とした. 1 訓練事例あたりの最大トークン数は 512 とし,ミニバッチのサイズは 256 とした.また, masked language model における whole word masking を適用した. 最適化アルゴリズムには AdamW [17] を用い,学習率は 1e-4 とした. 訓練のステップ数は $1,000,000$ とし,最初の 10,000 ステップにおける学習率の warmup と以降の linear decay を適用した. BERT の事前訓練には, TensorFlow Research Cloud プログラム ${ }^{9)}$ で提供された Cloud TPU v3-8 を使用し,訓練の完了にはおよそ 5 日間を要した. BERT の読解タスク向けの追加訓練では, 1 訓練事例あたりの最大トークン数を 512 とし,ミニバッチのサイズを 8, gradient accumuration のステップ数を 4 とした. 最適化アルゴリズムには AdamW を用い,学習率は 5e-5 とした. 訓練のエポック数は 3 とし,開発データで読解性能 (EM) が最大となったエポックのモデルを質問応答システムの実験に用いた. BERT の追加訓練には,NVIDIA V100 GPU を 1 コア使用し,訓練の完了には約 1 時間を要した. 8) https://dumps.wikimedia.org/other/cirrussearch/ 9) https://www. tensorflow.org/tfrc
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A6-1.pdf
# Cross-lingual transfer learning considering word order difference Haosen Zhan Jin Sakuma The University of Tokyo \{hos, jsakuma\}@tkl.iis.u-tokyo.ac.jp } Naoki Yoshinaga Masashi Toyoda Institute of Industrial Science, The University of Tokyo \{ynaga, toyoda\}@iis.u-tokyo.ac.jp ## 1 Introduction Although deep neural networks (DNNs) exhibit a remarkable performance in various natural language processing tasks, we cannot enjoy the true potential of DNNs in most of languages. This is because we do not have a largescale annotated corpora to train the over-parametarized DNNs for the task in the target language. The cross-lingual transfer learning mitigates this problem by training models on annotated data in the resourcerich (source) language (typically, English) so that the resulting models can be applied to the target language. We will hereafter refer to this setting as "zero-shot." The performance of zero-shot transfer learning has been drastically improved by the pre-trained multilingual models (multilingual-BERT [1]). These models are pre-trained on massive multilingual raw corpora and then fine-tuned to the target task in the source language. The resulting models are then applied in the target language. Meanwhile, it has been reported that the differences in word orders harm the performance of cross-lingual transfer between distant languages. Ahmad el al. [2] observed a substantial gap in performance across different target languages, especially when word orders in the source and target language differ. To mitigate this challenge in cross-lingual transfer across distant languages, researchers explored two major approaches. Xia et al. [3] proposed to use dependency CNN to improve the performance of a multilingual model based on cross-lingual word embeddings in English and Chinese sentence-level classification. Liu et al. [4] fixed the positional encoding layer of BERT to avoid overfitting to the word order of the source language in fine-tuning. However, the former approach is not compatible with pre-trained multilingual models, and the latter approach is limited to the embedding layer and could not prevent the overfitting happens in transformer layers. Figure 1 The overview of our framework on cross-lingual transfer learning considering word order difference. In this study, we introduce methods to explicitly mitigate the problem of order differences in the pre-trained multilingual model for the zero-shot scenario ( $\S 2$ ). Concretely, we propose two approaches to capture word orders in the fine-tuning of multilingual-BERT (mBERT): 1) multitask learning with word permutation detection task and 2) incorporating order-insensitive dependency information (Figure 1). We evaluate our methods on mutilingual part-of-speech tagging and named entity recognition (§3). Experimental results confirmed that the effectiveness of our methods. ## 2 Proposal In zero-shot learning, mBERT fine-tuned in the source language can overfit to the word order of the source language and fail to encode target languages with drastic order differences from the source, resulting in the loss in the performance. Figure 1 shows an overview of our framework for zero-shot cross-lingual transfer learning. In the following, we will introduce three methods to mitigate the order difference in zero-shot cross-lingual transfer learning. ## 2.1 Multitasking with permutation detection To prevent the model from overfitting, we first introduce a self-supervised auxiliary task of detecting word permuta- tion during fine-tuning in the source language. We expect that this task will identically help the model encode word orders of the source and target languages. For each mini-batch, we sample raw corpora from both source and target languages. We randomly generate wordlevel permutation within one sentence with a certain probability, ${ }^{1)}$ and the model will learn to distinguish whether each token has been permutated or not. Concretely, a token-level binary classifier is added on the top of the encoder to predict whether each token is permutated. The resulting loss is computed as $ \mathscr{L}_{\text {total }}=\mathscr{L}_{\text {task }}+\alpha * \mathscr{L}_{\text {perm }} $ where $\mathscr{L}_{\text {task }}$ and $\mathscr{L}_{\text {perm }}$ are losses of the target task and permutation detection task, respectively, and $\alpha$ is the hyperparameter that represents the weight for the permutation loss, which is whether kept a constant or exponentially increased/decreased across training. We use the first subword unit in each word to calculate the loss. ## 2.2 Injecting dependency information Although the multitasking with permutation detection can be applicable to any languages as long as raw corpora are available, this auxiliary task is self-supervised and may not convey sufficient supervision. Therefore, assuming a dependency parser for the target language, we next propose to explicitly inject dependency information into the transformer network to prevent the model overfit to the surface orders in the source language. ## 2.2.1 Injecting dependency heads We first propose to incorporate adapters [5] into the transformer layers that aggregate each token with its dependency head. This injection is meant to promote the model to utilize language-independent information without relying on surface word orders that are specific to the source language (Figure 2). In what follows, we explain how the output of the adapter module, $x_{i}^{\text {out }}$, is computed given the hidden state of a token $x_{i}$. Firstly, for each subword $i$, we obtain the dependency head word token via a dependency parser. And let head ${ }_{i}$ be the first subword token of the head word token. Then, by the following function, we aggregate the outputs of fead-  Figure 2 Transformer layer with head-adapter forward network, $x_{i}$ and $x_{i}^{\text {head }}$. $ x_{i}^{\text {out }}=\operatorname{FFN}_{u p}\left(\operatorname{ReLU}\left(\operatorname{FFN}_{\text {tail }}\left(x_{i}\right)+\operatorname{FFN}_{\text {dep }}\left(x_{i}^{\text {head }}\right)\right)\right) $ where $\mathrm{FFN}_{u p}, \mathrm{FFN}_{t a i l}$, and $\mathrm{FFN}_{d e p}$ are single-layer feedforward networks. If we randomly initialize the adapter modules before fine-tuning, they are only exposed to the examples in the source language and could be overfitted. Henceforth, we first trained the adapter modules on the masked language model (MLM) task on multilingual raw corpora. Simply training the entire model on MLM task requires parsed multilingual raw corpora. However, obtaining such corpora costs a significant amount of human labour and time. Therefore, we first exploited the adapter structure proposed by Houslby [5], and then the optimized parameters are copied to our adapter modules. Concretely, we initialize both $\mathrm{FFN}_{\text {dep }}$ and $\mathrm{FFN}_{\text {tail }}$ by the trained parameters of $\mathrm{FFN}_{\text {down }}$, and the rest parts are directly copied. We only inserted adapters in the first two layers of BERT, and during task fine-tuning, both adapter modules and BERT layers are trained. ## 2.2.2 Integrating dependency distance Despite the high precision of the multilingual parser, the previously introduced approach introduce in $\S 2.2 .1$ can suffer from pipeline error propagation. Furthermore, despite our initialization method, the resulting adapter modules can still overfit to the source language during finetuning. Besides the hard encoding of dependency head information, we propose an alternative adapter module to integrate continuous representation corresponding to to- Figure 3 Transformer layer with dependency distance based adapters kens' dependency information obtained by syntactic probing [6]. Concretely, we employ structural probing, which projects hidden states of fixed mBERT obtained by linear projection trained to recreate the distances in the dependency trees. Here, we let $x_{i}$ be the output of the feed-forward network in a transformer layer corresponding to the $i$ th token. And let $x_{i}^{d e p}$ be the projected representation by structural probing corresponding to the $i$ th token. We aggregate the $h_{i}$ and $h_{i}^{d e p}$ to compute the output of the adapter module $x_{i}^{\text {out }}$ by following $ \begin{aligned} g_{i} & =\sigma\left(\operatorname{FFN}_{\text {gate }}\left(x_{i}^{d e p}\right)\right) \\ h_{i}^{d e p} & =g_{i} \otimes \mathrm{FFN}_{\text {dep }}\left(x_{i}^{d e p}\right) \\ h_{i} & =\left(1-g_{i}\right) \otimes \mathrm{FFN}_{\text {down }}\left(x_{i}\right) \\ x_{i}^{\text {out }} & =\mathrm{FFN}_{u p}\left(\operatorname{ReLU}\left(h_{i}^{\text {dep }}+h_{i}\right)\right) \end{aligned} $ where $\mathrm{FFN}_{\text {dep }}, \mathrm{FFN}_{\text {down }}$, and $\mathrm{FFN}_{\text {gate }}$ are feed forward layers for transforming hidden states and corresponding dependency features, $g$ is the gate that represents how much the model considers the dependency information for the particular token, and $\otimes$ represents the element-wise multiplication. We expect that the gate module will dynamically decide whether or not to absorb the extracted dependency feature. The combined features are then projected back to the hidden dimension of mBERT by $\mathrm{FFN}_{u p}$. For initialization of adapters, this approach is different from $\S$ 2.2.1 that it takes raw corpora without parsed ones as input. Hence, we use raw corpora and the MLM task to initialize all the parameters. The rest of the details work the same as $\S 2.2 .1$. ## 3 Experiments We conduct experiments on the part of speech tagging (POS) task and named entity recognition (NER) task to evaluate the effectiveness of our proposed methods. ## 3.1 Experiment settings Data pre-processing Injecting dependency information ( $\S$ 2.2.1) requires dependency parsers for the source and target languages. For this purpose, we leveraged Udify [7]. We use $\mathrm{MeCab}^{2)}$ and Jieba ${ }^{3)}$ to tokenize Japanese and Chinese raw corpora for permutation in $\S 2.1$. We followed a sliding window approach [8] to process long sequences. Models to compare To evaluate the effectiveness of our proposal, we compared the following models: BASE is a baseline model that fine-tunes the mBERT model on the training set in the source language. BASE+FIX-POS-EMB fixes the positional embeddings of mBERT during fine-tuning [4]. BASE+FIX-EMB fixes the both positinal and word embeddings of mBERT during fine-tuning. We applies our methods to the above three models. +PERM employs the multi-task learning with the auxiliary task of word permutation detection (§2.1). +HEAD inserts the adapter modules that injects dependency head ( $\$ 2.2$ ). +DEP-DIS inserts the adapter modules that integrate dependency distance ( $\S$ 2.2.2). COMPARE Stands for control group for DEP-DIS, but directly taking hidden layers output without projecting to dependency-distance-space Training All of the models were initialized from weights of "bert-base-multilingual-cased" acquired from huggingface tranformers ${ }^{4}$ [9] and trained on the training set of the source language (English). During the finetuning, the checkpoints are saved every epoch, and one that performed the best on the development set in the target language is used for testing. For models based on adapters (+HEAD and +DEPDIS), the dimension of the hidden state within the adapters is set to 384 , and we sampled $100 \mathrm{k}$ sentences for the initialization of adapters by the MLM task ( $\S$ 2.2.1). For the syntactic probing (+DEP-DIS), we trained a projection from hidden states of the 7th layer from BERT to dependencies subspace. 2) https://taku910.github.io/mecab/ 3) https://github.com/fxsjy/jieba 4) https://github.com/huggingface/transformers Table 1 Result for POS (accuracy). All settings were reported on 5 different random seeds. $\checkmark$ stands for languages with canonical order of Subject-Verb-Object (SOV) and $\boldsymbol{X}$ stands for non-SOV languages. Table 2 Entity level F1 score for NER. All settings were averaged on 5 different random seeds ## 3.2 Part Of Speech tagging In the POS tagging task, we leveraged the "upos" filed from Universal Dependency v2.3 treebanks, ${ }^{5)}$ the treebanks selection follows [2]. Since POS is usually solved as a subtask of dependency parsing, it is impractical to have data for parsing without POS annotated. Therefore, we only test the impact of +PERM in this section. Table 1 showed the results on POS tagging. As our expectation, multi-tasking with the permutation task (+PERM) yielded solid improvement over BASE in German and Japanese (ja). In contrast, the results in Latin (la) and Chinese (zh) were opposed to our expectations. It worth mention that mBERT leveraged a brutal way of tokenization on Japanese, which could be one reason for the abnormal pattern in our results. ## 3.3 Named Entity Recognition For the NER task, we used CoNLL 2002 and 2003 NER shared task [10] containing English (en), Spanish (es), Dutch (nl), and German (de). The labels were converted into IOB2 [11] format, and we use token-level classifiers for NER prediction. The hidden state of the first subword unit of each token is used for the prediction. Table 2 shows the results on NER. We observed that the performance in Dutch benefited from injecting dependencies the most. Among all the languages, Dutch shares the most common features with English. This is opposed to our previous assumption that leveraging dependency helps distance cross-lingual transfer. In German, the multi-task learning with the word permutation detection (+PERM) improved models' performance with robust increment, comparing all the settings with or without +PERM. German is relatively "different" from English among the target languages, showing that permutation detection is profitable for the NER task. ## 4 Conclusions In this paper, we investigate three methods of mitigating order differences in source and target languages in the mBERT-based cross-lingual transfer. We observed that our proposal yields improvements in token-level classification, yet the gain is limited. In our future research, we plan to 1) leverage fine-grained dependency features and 2) find an auxiliary task that is purely related to word order, baring that current proposal permutation detection is not independent of the understanding of semantic. ## Acknowledgement This work was supported by JST CREST Grant Number JPMJCR19A4, Japan.  ## References [1]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), Minneapolis, Minnesota, June 2019. [2]Wasi Ahmad, Zhisong Zhang, Xuezhe Ma, Eduard Hovy, Kai-Wei Chang, and Nanyun Peng. On difficulties of crosslingual transfer with order differences: A case study on dependency parsing. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), Minneapolis, Minnesota, June 2019. [3]Yandi Xia, Zhongyu Wei, and Yang Liu. An efficient crosslingual model for sentence classification using convolutional neural network. In Proceedings of the ACL 2016 Student Research Workshop, Berlin, Germany, August 2016. [4]Zihan Liu, Genta Indra Winata, Samuel Cahyawijaya, Andrea Madotto, Zhaojiang Lin, and Pascale Fung. On the importance of word order information in cross-lingual sequence labeling. In Proceedings of 35th AAAI Conference on Artificial Intelligence (AAAI-2021). [5]Neil Houlsby, Andrei Giurgiu, Stanislaw Jastrzebski, Bruna Morrone, Quentin de Laroussilhe, Andrea Gesmundo, Mona Attariyan, and Sylvain Gelly. Parameter-efficient transfer learning for nlp. In ICML, pp. 2790-2799, 2019. [6]Ethan A. Chi, John Hewitt, and Christopher D. Manning. Finding universal grammatical relations in multilingual BERT. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, Online, July 2020. [7]Dan Kondratyuk and Milan Straka. 75 languages, 1 model: Parsing Universal Dependencies universally. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), Hong Kong, China, November 2019. [8]Shijie Wu and Mark Dredze. Beto, bentz, becas: The surprising cross-lingual effectiveness of bert. Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), 2019. [9]Thomas Wolf, Lysandre Debut, Victor Sanh, Julien Chaumond, Clement Delangue, Anthony Moi, Pierric Cistac, Tim Rault, Rémi Louf, Morgan Funtowicz, Joe Davison, Sam Shleifer, Patrick von Platen, Clara Ma, Yacine Jernite, Julien Plu, Canwen Xu, Teven Le Scao, Sylvain Gugger, Mariama Drame, Quentin Lhoest, and Alexander M. Rush. Transformers: State-of-the-art natural language processing. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, Online, October 2020. [10]Erik F. Tjong Kim Sang and Fien De Meulder. Introduction to the CoNLL-2003 shared task: Language-independent named entity recognition. In Proceedings of the Seventh Conference on Natural Language Learning at HLT-NAACL 2003, pp. 142-147, 2003. [11]Erik F. Tjong Kim Sang and Jorn Veenstra. Representing text chunks. In Ninth Conference of the European Chapter of the Association for Computational Linguistics, Bergen, Norway, June 1999. ## A hyper-parameters Table 3 hyper-parameters for POS Table 4 hyper-parameters for NER.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A6-2.pdf
# BERT の Masked Language Model を用いた 教師なし語義曖昧性解消 新納浩幸 茨城大学大学院理工学研究科 情報科学領域 hiroyuki.shinnou.0828@vc.ibaraki.ac.jp } 馬ブン 茨城大学大学院理工学研究科 社会インフラシステム科学専攻 19nd302h@vc.ibaraki.ac.jp ## 1 はじめに 本論文では BERT[1] の Masked Language Model (以下 MLM と略記)を利用して, 教師なしの語義曖昧性解消を試みる。対象単語をマスクし,マスク位置に推定された単語と分類語彙表から得られる候補語義を持つ類義語とを比較することで語義を推定する。 語義曖昧性解消は自然言語処理の重要な要素技術であり, 古くから研究されている. 近年は事前学習済みモデルの BERTを用いた語義曖昧性解消が行われている [2][3][4] [5][6][7][8]. BERT を用いることで対象単語の文脈をある空間に埋め込むことができるので,語義のラベルを同じ空間に埋め込めれば教師なし学習も可能である. 本研究では語義のラベルを同じ空間に埋め込むのではなく,BERT の MLMを利用して,対象単語の位置に現れる単語を推定することで語義曖昧性解消を行う.MLMにより推定される単語は当然, 対象単語である䇢だが,MLM では全ての単語に対して, その単語がマスク位置に現れる確率を付与できるため, 対象単語の語義を持つ類義語が現れる確率が得られる.これによって対象単語の語義を推定できる. なお本研究では対象単語の語義を持つ類義語は分類語彙表から予め得ておく。 実験では「言葉」「声」「電話」「国際」「市場」の 5 単語に対して, 本手法を試み, 教師なしの語義曖昧性解消手法として利用できることを確認した。 ## 2 関連研究 語義曖昧性解消は典型的な分類問題であるため,通常の教師あり学習を用いて高精度に解決が可能である.ただし訓練データの構築コストが高いために,全単語を対象にした all-words 型の語義曖昧性解消あるいは教師なし語義曖昧性解消 [9] が研究の中心となっている. 近年は埋め込み表現を語義曖昧性解消に利用する研究が活発である. 単語の埋め込み表現自体が語義曖昧性解消の素性として利用できることもあるが,語義曖昧性解消は対象単語の文脈と語義のラベルを同じ空間に埋め込むことで解決できるからである [10]. そのため word2vec のアルゴリズムを利用して語義の分散表現を構築する手法 [11][12] が提案されている。さらに BERT などの事前学習済みモデルでは,入力文の各単語に対して文脈依存の埋め込み表現を精度良く構築できるため,その単語の埋め込み表現を素性として利用するだけでも語義曖昧性解消の性能はかなり向上する [3]. またその埋め込み表現の空間に語義のラベルを埋め込めれば,k-NN 程度の学習手法でもかなりの精度が達成できる [4].問題は語義のラベルをどのように同じ空間に埋め込むかであるが,一つの方法としては語義の用例を辞書の定義文により求め,その用例を BERT に入力することで語義のラベルの埋め込み表現が獲得できる [2]. あるいは BERT の中に意味ネットワークや意味表現を組み込むことで語義曖昧性解消が可能である [13] [5][6][7]. 本研究では語義のラベルの埋め込み表現を構築するというアプローチではなく,本質的には,文脈の埋め込み表現と類似の埋め込み表現をもつ単語を調べ,その単語の語義から対象単語の語義を推定する.結局,語義毎の用例を構築するか,語義毎の類義語を構築するかの違いとも言える,日本語の場合,前者は困難であるが,後者では分類語彙表が利用できるため,容易に実現可能である。 ## 3 提案手法 ## 3.1 MLM によるマスク単語の推定 BERT の学習には,2 文の接続可否を判定するタスクとマスク単語を推定するタスクが利用される. マスク単語を推定するネットワーク部分も含めて BERT のモデルを取り出したものが MLM である. MLM ではマスク単語を含む文を入力とし,そのマスク単語の位置に単語 $w$ が現れる確率 $p(w)$ を出力する. BERT の登録語彙リストを $D$ とした場合, $\arg \max _{w \in D} p(w)$ によりマスク単語を推定できる. ## 3.2 MLM を利用した語義曖昧性解消 ここでは MLM を語義曖昧性解消に利用する。まず対象単語 $w$ の語義は $g_{1}, g_{2}, \cdots, g_{K}$ の $K$ 種類とする. 文 $s$ 内に対象単語 $w$ が現れたときに,文 $s$ 内の単語 $w$ の語義 $g_{j}$ を識別するのが語義曖昧性解消である. ここでは文 $s$ の $w$ をマスク単語 [MASK] に変更し,その変更した文を MLM に入力する. 出力としては語彙リスト $D$ 内の各単語 $x$ が [MASK] に入る確率 $p(x)$ が得られる. ここで $p(x)$ の值が高い単語 $x$ は語彙が $g_{j}$ である単語だと考えられる. そこで各語義 $g_{i}$ を持つ単語のリスト $R_{i}$ を予め作成しておき,以下により語義 $g_{\hat{j}}$ を推定する. $ \hat{j}=\underset{j}{\arg \max }\left(\max _{x \in R_{j}} p(x)\right) $ ## 3.3 分類語彙表による語義別の類義語の 設定 分類語彙表は一種の概念辞書である. 各単語には 10 桁からなる分類番号が与えられている。本研究ではこの分類番号の上位 5 桁を語義 id と見なして,語義曖昧性解消を行う. 語義 $g_{i}$ が分類語彙表の上位 5 棪の記号である場合,語義 $g_{i}$ を持つ単語のリスト $R_{i}$ は分類語彙表から得ることができる. 例えば「声」には「笑い声」のような「音」としての語義と,「国民の声」のような「意見」としての語義がある. 分類語彙表は「声」には'1.3031' と '1.3061'の 2 つの id が付与されている. '1.3031’が 「音」の語義に対応し,'1.3061' が「意見」の語義に対応している. '1.3031'および'1.3061' の語義を持つ単語は「声」の他, 分類語彙表には表 2 のよう単語が登録されている. ## 4.1 実験の設定 語義曖昧性解消の対象単語は「言葉」「声」「電話」「国際」「市場」の 5 単語とする. 利用するデータは国立国語研究所から公開されている BCCWJ-WLSP ${ }^{1)}$ である.これは『現代日本語書き言葉均衡コーパス』に分類語彙表番号が付与されたコーパスである。このコーパスから前記した 5 単語を含む文を取り出し,対象単語の語義をラベルとした評価用データを構築した。表 1 に取り出した文の数を語義毎に記す。またこの数から MFS の値が算出される。 表 1 評価用データの語義毎の文数 利用する日本語 BERT のモデルは以下で公開されている 'bert-base-japanese'とする. https://github.com/cl-tohoku/bert-japanese 本手法では分類語彙表から得られる類義語が BERT モデルの語彙リストに登録されている必要がある。そのため各語義に対する類義語は実際に分類語彙表から得られるものの一部である。その一部を表 2 に示す. ## 4.2 実験結果 本手法により正解率を測った. この結果を表 3 に示す. ランダムな解答の正解率と比較すると明らかに正解率は高く, ある程度はこの手法で正解を導けることが分かる. 語義別の正解率も調べた.この結果を表 4 に示す.  表 2 語義の類義語 \\ 表 3 実験結果 表 4 語義毎の正解率 各語義に対してある程度の正解率を示しており,語義の頻度に影響を受けていないことが確認できる. ## 5 考察 ## 5.1 類義語の調整 類義語のリストを調整することで正解率を改善できると考えた。「国際」の語義 1.3500 と「言葉」の語義 1.3101 については極端に正解率が悪い。これらの語義の判定で誤りに導いた類義語について調べた.「国際」の語義 1.3500 は 50 個のデータ中 40 個が間違いであった。この間違いを導いた類義語は以下の通りである。 「国家」16 個,「外国」10 個,「各国」5 個, 「連邦」 4 個,その他 5 個 そこで類義語のリストから「国家」「外国」を除いて,「国際」について再実験を行ったところ, 1.3500 の正解数は 3 つ増えたが, 1.2530 の正解数が 2 つ減り,総合的には大きな変化はなかった.類義語のリストを調整することでの正解率の改善は難しいと考えられる。 ## 5.2 他の BERT モデルの利用 本実験では他の BERT モデルを利用することで,正解率を改善できる可能性がある.ただし BERT 毎に Tokenizer が異なるために,単純にモデルだけを交換して実験することはできず,公正な比較は難しい. ただし本実験で用いた 'bert-base-japanese' と同じサイトで公開されている'bert-base-japanese-wholeword-masking' は同じ Tokenizer を用いているためにモデルだけを変更して本実験が行える.実験の結果を表 5 に示す. 表 5 他の BERT モデルの利用 一般に 'bert-base-japanese-whole-word-masking' は’bert-base-japanese'よりも少し性能が高いと言われているが,このタスクに対しては性能は低かっ た. 本タスクにはどのような BERT モデルが適しているのかを調べるのは今後の課題である。 ## 5.3 BERT の追加学習 本実験で利用した BERT は素の BERT であり,本タスクに適した形で fine-tuning されたものではない. 本タスクに適した形で BERTを fine-tuning しておけば,正解率の改善に繋がると考えられる.ただし本タスクは MLM のタスクそのものであるため, BERT の fine-tuning は BERT の追加学習という形になる。 ここでは実験的に 2008 年度毎日新聞から約 80 万文を利用して BERT の追加学習を行った. 作成できたモデルを用いた実験結果を表 6 に示す. 表 6 追加学習した BERT の利用 性能は大幅に下がっている.ランダムの結果 (0.467) よりも悪い. 追加学習に失敗していると思われるが,原因は不明であり調査中である.BERT の追加学習に関しては何らかの Tips があると思われる。 本タスクに対して BERT の追加学習は有効だと予想しているので,この方向で研究を継続したい. ## 6 おわりに 本論文では BERT の MLM を利用して,教師なしの語義曖昧性解消を試みた。対象単語をマスクし, マスク位置に推定された単語と分類語彙表から得られる候補語義を持つ類義語とを比較することで語義を推定する. 実験では語義タグ付きコーパスである BCCWJ-WLSP から 5 単語を選び,評価用データを作成し,本手法を試みた。性能は低かったが,教師なしの語義曖昧性解消手法として利用できることを確認した。また利用する BERTを追加学習することで,性能は改善できると予想している.その方向で本研究を継続したい. ## 謝辞 本研究は JSPS 科研費 JP19K12093 および 2020 年度国立情報学研究所公募型共同研究 (2020-FC03) の助成を受けています。 ## 参考文献 [1]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In $N A A C L-2019$, pp. 4171-4186, 2019 [2]Luyao Huang Chi Sun Xipeng Qiu Xuanjing Huang. GlossBERT: BERT for word sense disambiguation with gloss knowledge. arXiv preprint arXiv:1908.07245, 2019. [3]Hadiwinoto, Christian Ng, Hwee Tou Gan, Wee Chung. Improved word sense disambiguation using pre-trained contextualized word representations. In EMNLP-IJCNLP-2019, pp. 5300-5309, 2019. [4]Gregor Wiedemann Steffen Remus Avi Chawla Chris Biemann. Does BERT make any sense? Interpretable word sense disambiguation with contextualized embeddings. arXiv preprint arXiv:1909.10430, 2019 [5]Bianca Scarlini, Tommaso Pasini, and Roberto Navigli. SensEmBERT: Context-Enhanced Sense Embeddings for Multilingual Word Sense Disambiguation. AAAI-2020, pp. 8758-8765, 2020 [6]Zhuosheng Zhang, Yuwei Wu, Hai Zhao, Zuchao Li, Shuailiang Zhang, Xi Zhou, and Xiang Zhou. Semantics-aware BERT for language understanding. In AAAI-2020, pp. 96289635, 2020. [7]Yoav Levine, Barak Lenz, Or Dagan, Ori Ram, Dan Padnos, Or Sharir, Shai Shalev-Shwartz, Amnon Shashua, and Yoav Shoham. SenseBERT: Driving some sense into BERT. In ACL-2020, pp. 4656-4667, 2020. [8]Tommaso Pasini, Federico Scozzafava, and Bianca Scarlini. CluBERT: A cluster-based approach for learning sense distributions in multiple languages. In $A C L-2020$, pp. 4008-4018, 2020. [9]鈴木類, 古宮嘉那子, 浅原正幸, 佐々木稔, 新納浩幸.概念辞書の類義語と分散表現を利用した教師なし all-words wsd. 自然言語処理, Vol. 26, No. 2, pp. 361-379, 2019. [10]Ignacio Iacobacci, Mohammad Taher Pilehvar, and Roberto Navigli. Embeddings for word sense disambiguation: An evaluation study. In $A C L-2016$, pp. 897-907, 2016. [11]Xinxiong Chen, Zhiyuan Liu, and Maosong Sun. A unified model for word sense representation and disambiguation. In EMNLP-2014, pp. 1025-1035, 2014. [12]Arvind Neelakantan, Jeevan Shankar, Alexandre Passos, and Andrew McCallum. Efficient non-parametric estimation of multiple embeddings per word in vector space. arXiv preprint arXiv:1504.06654, 2015. [13]Yoav Levine, Barak Lenz, Or Dagan, Ori Ram, Dan Padnos, Or Sharir, Shai Shalev-Shwartz, Amnon Shashua, and Yoav Shoham. SenseBERT: Driving some sense into BERT. In ACL-2020, pp. 4656-4667, 2020.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A6-3.pdf
# 単語理め込みによる論理演算 内藤雅博 1,3 横井 祥 2,3 下平 英寿 1,3 1 京都大学 2 東北大学 3 理化学研究所 } neiteng@sys.i.kyoto-u.ac.jp, yokoi@ecei.tohoku.ac.jp, shimo@i.kyoto-u.ac.jp ## 1 はじめに 自然言語処理の基盤技術である単語埋め込みは, $v_{\text {king }} \approx v_{\text {royal }}+v_{\text {man }}$ のように埋め込みの加法で意味の合成を近似できるという性質を持つ(加法構成性). 加法構成性が成立する理由を説明するためにいくつかの理論が提示されてきたが $[2,8,1]$ ,本稿で示す通り,実際の単語埋め込みでは成立しない仮定が置かれている。また, 理論が Skip-gram[15] などの特定の手法に依存しており, $\mathrm{GloVe}[18]$ などの他の手法との統一した理解は分野に残された課題である. 加法構成性について次のような疑問も残されている:「意味の合成」とひとことで言っても,意味の AND をとりた場合 (例 : king $\approx$ royal $\wedge$ man; 通常の加法構成性に相当)とORをとりたい場合(例: case $\approx b o x$ (箱) $\vee$ instance (事例)) では異なる演算が必要だと考えられる. OR の演算は単語埋め込みでどのように計算できるのだろうか? 本稿では,以上の加法構成性に対する疑問に対して以下の理論的・実験的根拠を与える: 1. 単語埋め込みからその平均を引いた(中心化した)べクトルを考えることで Skip-gram with Negative Sampling (SGNS)[16] と GloVe の性質を統一して記述できることを示すとともに,既存の加法構成性の理論の問題点を取り除く(§3). 2. 1. で得た結果を出発点に,表1のような意味の $\mathrm{AND}$ O OR・NOTをとりたい場合の埋め込みの計算方法を示す (§4). 3. 本稿の理論の帰結を利用して加法構成性の精度を向上させられること,OR・NOT の演算を正しく行えることを実験で確認する (\$5). ## 2 準備:単語埋め込み 単語埋め込み手法の紹介本稿で扱う SGNS や GloVeのような単語間の共起情報による単語埋め込み手法は,情報検索・グラフ埋め込み・推薦シ ステムなど分野をまたいで活躍の幅を広げている $[20,10,9]$. また,近年注目されている BERT[5] なども文脈から単語を予測することで埋め込みを得ており,これらの手法の拡張ともみなせる。 記号語彙を $V$ ,単語 $w$ の埋め込みを $\boldsymbol{v}_{w}$ ,単語 $c$ の文脈側埋め込みを $\boldsymbol{u}_{c}$ で表す. $p(w, c)$ を単語対 $(w, c)$ が共起する同時確率, $p(c \mid w)$ を単語 $w$ の文脈が単語 $c$ である確率, $p(w)$ を単語 $w$ の頻度とする. ■単語埋め込みの性質 $[14,21]$ によれば,最適に学習された SGNS の埋め込みは次を満たす: $ \log \frac{p(w, c)}{p(w) q(c)}-\log k=\boldsymbol{v}_{w}^{\top} \boldsymbol{u}_{c} . $ ここで $q$ は負例の分布, $k$ は共起単語対 $(w, c) 1$ 個あたりの負例の個数である. $q=p$ の場合,自己相互情報量 $\operatorname{PMI}(w, c)=\log \frac{p(w, c)}{p(w) p(c)}$ から $\log k$ を引いた行列を分解していると解釈できる。一方 Gloveでは共起行列を直接分解するアプローチをとっており,最適に学習された埋め込みは次を満たす: $ \log p(w, c)=\boldsymbol{v}_{w}^{\top} \boldsymbol{u}_{c}+a_{w}+b_{c}-\log Z $ ここで $a_{w}, b_{c}$ はバイアス項, $Z$ は正規化定数である.以下では, SGNS・GloVe の各埋め込みは (1), (2)を満たすと仮定する。 ## 3 SGNS と GloVe に共通する構造 既存の加法構成性の理論 [1] では $ \operatorname{PMI}(w, c)=\boldsymbol{v}_{w}^{\top} \boldsymbol{u}_{c} $ という仮定を置いていたが,本稿の実験 (§5.1)が示す通り実際には成り立っていない。また,(3)は §4以降の OR・NOT の理論でも重要な役割を果たす.本節では, SGNS・GloVeの単語埋め込みを頻度で重み付けて中心化するだけで,仮定 (3) が成り立つように補正できることを示す.§5.2ではこの補正を行うことで加法構成性の精度が向上することを確認しており,各下流タスクへの応用が期待できる。 はじめに, SGNS・GloVeの埋め込みを中心化することで (3) が誤差項を含む形で導かれることを示す. 表 1: AND,OR,NOT の演算の説明. 平均を $\overline{\boldsymbol{v}}=\sum_{w} p(w) \boldsymbol{v}_{w}, \overline{\boldsymbol{u}}=\sum_{c} p(c) \boldsymbol{u}_{c}$, 中心化した単語埋め込みを $\tilde{\boldsymbol{v}}_{w}=\boldsymbol{v}_{w}-\overline{\boldsymbol{v}}, \tilde{\boldsymbol{u}}_{c}=\boldsymbol{u}_{c}-\overline{\boldsymbol{u}}$ とおく. 定理 1. SGNS・GloVe の埋め込みがそれぞれ (1),(2) を満たす時,次の等式を満たす: $ \operatorname{PMI}(w, c)=\tilde{\boldsymbol{v}}_{w}^{\top} \tilde{\boldsymbol{u}}_{c}+\bar{\epsilon}-\epsilon_{w}-\epsilon_{c} . $ ただし $\bar{\epsilon}, \epsilon_{w}$ は誤差項で $, \epsilon_{w}=D_{\mathrm{KL}}(p(\cdot) \| p(\cdot \mid w)), \bar{\epsilon}=$ $\sum_{w} p(w) \epsilon_{w}$. (証明: 付録 A.1) 次の命題により,|PMI $(w, c) \mid \ll 1$ である時に誤差項が無視できることが分かる. 命題 2. $\Delta=\max _{w, c}|\operatorname{PMI}(w, c)|$ とおくと, $\epsilon_{w}=$ $O\left(\Delta^{2}\right), \bar{\epsilon}=O\left(\Delta^{2}\right),(\Delta \rightarrow 0)$ である.(証明:付録 A.2) 実際のデータでは $|\operatorname{PMI}(w, c)| \ll 1$ は成り立っていないが,後述の実験により,中心化によって仮説 (3) の誤差が大幅に改善することを確認した (§5.1). ## 4 単語埋め込みによる論理演算 ## 4.1 AND の演算 [1] は,§3で近似的に得られた PMI 分解の構造 (3) が厳密に満たされる時, king = royal $\wedge$ man のような AND の意味演算がベクトルの加法 $ \boldsymbol{v}_{\text {king }}=\boldsymbol{v}_{\text {royal }}+\boldsymbol{v}_{\text {man }} $ に対応することを示した(AND の公式;通常の加法構成性). 証明の概略は次の通りである:各文脈 $c$ での king の出現確率が $p(k i n g \mid c)=p($ royal $\mid c) p($ man $\mid c)$ のような積で表される考え,PMIの $\log$ をして確率の積を埋め込みの足し算に対応させる. ## 4.2 OR の演算 §1で触れたように,AND の演算の他に「または」 の演算も考えられる。本節では,OR の演算が埋め込みの頻度重み付き和で実現できることを示す。 DOR の意味を持つ単語のモデリング語義 $\left.\{w_{i}\right.\}_{i=1}^{s}$ を持つ多義語を $w$ とする. ある単語 $w^{\prime}$ を固定した時,その文脈として $w$ が出現する確率は $w_{i}$ が出現する確率の和 $(i=1, \ldots, s)$ であると考えられる: $ \forall w^{\prime} \in V, \quad p\left(w \mid w^{\prime}\right)=\sum_{i=1}^{s} p\left(w_{i} \mid w^{\prime}\right) . $ (6) よりただちに $p(w)=\sum_{i=1}^{s} p\left(w_{i}\right)$ を得る. ## OR の公式の導出 定理 3 (OR の公式 [13]). 単語 $w_{1}, \ldots, w_{s}$ と,それらの OR の意味を持つ単語 $w$ の埋め込みが OR のモデリング (6) と PMI 分解の関係式 (3)を満たすと仮定する. $|\operatorname{PMI}(w, c)| \ll 1$ であるとき, OR の公式 $ \boldsymbol{v}_{w} \approx \sum_{i=1}^{s} \frac{p\left(w_{i}\right)}{p(w)} \boldsymbol{v}_{w_{i}} $ が成り立つ.(証明:付録 A.3) 実際のデータでは $|\operatorname{PMI}(w, c)| \ll 1$ は成り立っていないが,後述の実験で OR の公式が良く成り立つことを確認した (\$5.3). ## 4.3 条件付き埋め込みと NOT の演算 仮定 (3) を用いると,AND・OR のみならず NOT の演算も実現できる. 本節では,局所的な単語間の関係を表す単語埋め込みである条件付き埋め込みの概念を用いて NOT の演算を定式化し,反義語がマイナスで表現できることを示唆する。 ## ■ NOT の意味を持つ単語のモデリング 人間の感覚に反し, 反義語は違っていると同時に似ているという性質を持つ [4, 22]. たとえばhate と love は反対の意味を持つが,どちらも感情を表すという点で同じである. そのため反義語は似た文脈で出現しやすく,昨今主流である分布仮説 $[12,7]$ に基づく単語埋め込みでは類似度が高くなる ${ }^{11}$.このように類義語と反義語の区別は難しく,反義語がどのように埋め込まれているかの理解を困難にしている. 本節ではこの反義語の類似性を考慮した定式化を行うことで,反義語の謎を紐解く。 次のような例を考える:motherの反対は,「親」のくくりの中では father だが,「親子関係」のくくりでは daughter である. このように反義語を考える際はこの「くくり」が所与である必要があり,本稿ではこれを単語の集合 $A$ で表現する ${ }^{2)}$ ,小さな単語集合 $A$ の中で見たとき,反義語 $\neg w$ は単語 $w$ の逆の文脈で出現するであろうという直感から,NOT の意味を持つ単語の共起確率は次のように定式化できる: $ p\left(\neg w \mid \neg w \in A, w^{\prime}\right)=p\left(\neg w \in A \backslash\{w\} \mid \neg w \in A, w^{\prime}\right) $ 1)SGNS での hate と love の $\cos$ 類似度は 0.5 程度である 2)これは反義語の類似性の部分に相当する. (8) の確率には条件づけに $w \in A$ が登場するため,通常の単語埋め込みではなく, $A$ で出現確率を条件づけた埋め込みが必要になる。本稿では,この埋め込みを $A$ 上の条件付き埋め込みと呼ぶ. ## 口条件付き埋め込み (14) の類推から, 条件付き埋め込み $v_{w \mid A}$ の満たすべき等式は次のように定式化できる: $ p\left(w \mid w \in A, w^{\prime}\right)=p(w \mid w \in A) \exp \left(\boldsymbol{v}_{w \mid A}^{\top} \boldsymbol{u}_{w^{\prime}}\right) $ OR の公式 (7) を厳密に認めて左辺を計算すると: $ \begin{aligned} p\left(w \mid w \in A, w^{\prime}\right) & =\frac{p\left(w, w \in A \mid w^{\prime}\right)}{p\left(w \in A \mid w^{\prime}\right)}=\frac{p(w) \exp \left(\boldsymbol{v}_{w}^{\top} \boldsymbol{u}_{w^{\prime}}\right)}{p(A) \exp \left(\boldsymbol{v}_{A}^{\top} \boldsymbol{u}_{w^{\prime}}\right)} \\ & =p(w \mid w \in A) \exp \left(\left(\boldsymbol{v}_{w}-\boldsymbol{v}_{A}\right)^{\top} \boldsymbol{u}_{w^{\prime}}\right) \end{aligned} $ ここで $p(A)=\sum_{w \in A} p(w), \boldsymbol{v}_{A}=\sum_{w \in A} \frac{p(w)}{p(A)} \boldsymbol{v}_{w}$.よって条件付き埋め込みは $v_{w \mid A}=v_{w}-v_{A}$ と計算できることがわかる。これにより,一般に行われるある単語集合での中心化 (例: 国名-首都の単語埋め込みをPCA で可視化する際の暗黙的な中心化)は,「集合内の単語間の相互関係の精緻化」と説明できる. 補足 : 大まかに言うと, 条件付き埋め込みはコーパスを $A$ に絞った単語埋め込みと理解できる. ■ NOT の公式の導出 OR の公式を厳密に認めて (8) の右辺をさらに計算すると,次を得る: $ \begin{gathered} p\left(\neg w \in A \backslash\{w\} \mid \neg w \in A, w^{\prime}\right)=\frac{p\left(\neg w \in A \backslash\{w\} \mid w^{\prime}\right)}{p\left(\neg w \in A \mid w^{\prime}\right)} \\ =\frac{p(A \backslash\{w\})}{p(A)} \exp \left(\left(\boldsymbol{v}_{A \backslash\{w\}}-\boldsymbol{v}_{A}\right)^{\top} \boldsymbol{u}_{w^{\prime}}\right) . \end{gathered} $ よって $\boldsymbol{v}_{\neg w \mid A}=v_{A \backslash\{w\}}-v_{A}$ であり, さらに計算すると次を得る(NOT の公式)。 $ \boldsymbol{v}_{\neg w \mid A}=\boldsymbol{v}_{A \backslash\{w\}}-\boldsymbol{v}_{A}=-\frac{p(w \mid w \in A)}{1-p(w \mid w \in A)} \boldsymbol{v}_{w \mid A} $ (11)より,条件付けることによって NOT の意味を持つ単語の埋め込みがマイナスで計算できることがわかる. (8) は厳密には $w$ の反義語というよりは $A$ の中での $w$ の補集合に当たる単語をモデリングしているが,(11) より反義語の埋め込みがマイナスの方向に存在することが示唆される。 ## 5 実験 ## 5.1 中心化と PMI 分解 $\mathrm{PMI}$ 分解の関係式 $\operatorname{PMI}(w, c)=\boldsymbol{v}_{w}^{\top} \boldsymbol{u}_{c}$ の精度が中心化によって向上することを確かめるために,誤差 $e_{w c}=\operatorname{PMI}(w, c)-\boldsymbol{v}_{w}^{\top} \boldsymbol{u}_{c}$ の分布をプロットした(図 1). orig は元の埋め込み, freq は $\S 3$ で議論された 図 1: 1 回以上共起した単語対 $(w, c)$ に対し誤差 $e_{w c}$ の分布をプロットした. 誤差の大きさの参考に, $\operatorname{PMI}(w, c)$ 自体の分布を紫破線で示してある. 頻度重み中心化 $\boldsymbol{v}_{w} \leftarrow \boldsymbol{v}_{w}-\overline{\boldsymbol{v}}$ を行ったときの結果である。 さらに比較として,単語埋め込みの後処理として一般的に行われる [17] $v_{w} \leftarrow v_{w}-\sum_{w^{\prime}} v_{w^{\prime}} /|V|$ (一様中心化)での結果を unif で示している. 結果から,普通の中心化ではなく,特に頻度重みで中心化することによって PMI 分解の構造が強くなることがわかる. ## 5.2 AND の公式の精度評価 AND の公式 (5) の確認を行う.公式の精度が PMI 分解の構造 (3) の有無によってどう変わるのかを観察するために, orig, unif, freqの設定を試した. 評価のために,ANDの意味を持つ単語を含むコー パスを次のように作成し,埋め込みを学習した: 複合語のデータセット [6] に含まれる各複合語について,コーパス上の複合語を 1 個の単語に置換する (例: card game $\rightarrow$ card_game). 評価指標としては,データセット [6] に含まれる各複合語 word1 word2 について,(5) で計算されたベクトルと $\cos$ 類似度の高い単語を検索した時に word1_word2 が何番目に出てくるか(予測順位)を計算した. 予測順位の累積度数分布を図 2 に, 要約統計量として平均逆順位を表2に示す. 結果を見ると,特に頻度重みで中心化することで予測が正確になっているため, PMI 分解の構造が加法構成性の成立において重要であると考えられる。 ## 5.3 OR の公式の精度評価 OR の公式 (7) が成り立つことを確かめる. 次の手順で架空の多義語を 500 個作成し,その埋め込みを学習した: 1. ランダムに選んだ単語対から架空の多義語を作成し (例: apple, car $\rightarrow$ apple_OR_car),元の単語を全て架空の多義語に置き換えることで新し 図 2: AND の公式による予測順位の累積度数分布.線が左上にあればあるほど良い. 表 2: AND の公式による予測順位の平均逆順位. いコーパスを作成した。 2. 元のコーパスと新しいコーパスを結合したコー パスで単語埋め込みを学習した。 §5.2 と同様に予測順位で評価する. 予測順位の平均は SGNS で 1.012, GloVe で 1.000 であった. OR の公式は近似式であったが,ほぼ 1 番目に予測できるほど公式の精度が高いことが分かる。 ## 5.4 条件付き埋め込みと NOT の実験 -9 から 9 までの数字の埋め込みの可視化を図 3 に示す. 1 と 9 は正の数 $A=\{1, \ldots, 9\}$ 上の条件付き埋め込みでは原点 ${ }^{3)}$ 挟んでマイナスの方向に位置しており, NOTの公式(11)を裏付ける。一方で, 条件づける集合 $A$ を負の数まで含めた集合に広げると,一転して 1 と 9 は原点から見て似た方向に位置する. この場合, 正の数と負の数が原点をはさんで反対側の方向にあるという意味で NOT の公式を支持している.このように, 反義語はどのくくりの中で反対と考えるのかが重要であり, NOT の公式がこの事実をうまく定式化できていることが分かる. ## 6 先行研究との関連 加法構成性については次の先行研究がある: ・ $[2,3]$ は文脈に関する潜在変数モデルを考えることで,Analogy と OR の演算を説明した.このモデルは文脈ベクトルがランダムウォークすると仮定しているが,本稿の理論では必要としない. 3)原点は頻度を一定と考えて計算している. 集合内の単語の頻度が一定になるように,たとえば頻度の高い単語をコーパスからランダムに削除しても $\operatorname{PMI}(w, c)=\boldsymbol{v}_{w}^{\top} \boldsymbol{u}_{c}$ の左辺は変わらないため,頻度を一定と考えても本質的に問題はない。 図 3: 数字の埋め込みを PCA を用いて可視化した. $\times$ は $A=\{-9, \ldots, 9\} \backslash\{0\}$ としたときの条件付き埋め込み $v_{w \mid A}$ の原点, $\nabla, \boldsymbol{\nabla}$ はそれぞれ $A$ を正の数,負の数に絞ったときの原点である. $\cdot$[8] は,Skip-gram モデル [15] に仮定 $p(w)=1 /|V|$ を置いて AND の演算を説明した。しかし, 実際には単語の頻度は非常に偏った分布をしているおり [19], 仮定の妥当性には疑問が残る. 本研究ではこの仮定を必要としていない. $\cdot$[1] は,仮定 (3) を出発点に AND の演算と Analogy を説明した。しかしながら, 著者も認めている通り, Gloveではバイアス項が存在するため学習結果に任意性があり仮定は正確には成り立っていない.また,SGNS では AND の公式に $\log k$ の分だけずれが入る. 本研究の貢献の 1 つは, §3の議論によりこの問題を解決したことである. $\cdot$[13] は SGNS で AND と OR の演算を説明した.本稿は, 考察対象に GloVe を追加し, NOT の演算の理論を付け加えたものである. ## 7 おわりに 本稿では, 中心化という簡単な操作を介すだけで SGNS と GloVe が共通の構造を持つこと, 加法構成性の正確な成立のために中心化が必要であることを示した. また, AND に加え OR, NOT の埋め込みをどのように計算すればよいかを示した. 今後の展望としては,BERTなどの文脈を考慮した単語埋め込みでも同様のことが成り立つかどうか,理論・実験の両面から洞察を深めていきたい. 謝辞本研究をはじめるにあたってソースコードを提供していただいた Geewook Kim 氏に深く感謝します. 本研究は,JST, ACT-X,JPMJAX200S の支援を受けたものです. 本研究は JSPS 科研費 $20 \mathrm{H} 04148$ の助成を受けたものです. ## 参考文献 [1]Carl Allen and Timothy Hospedales. Analogies explained: Towards understanding word embeddings. In Proceedings of the 36th International Conference on Machine Learning, pp. 223-231, 2019. [2]Sanjeev Arora, Yuanzhi Li, Yingyu Liang, Tengyu Ma, and Andrej Risteski. A latent variable model approach to PMIbased word embeddings. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 385-399, 2016. [3]Sanjeev Arora, Yuanzhi Li, Yingyu Liang, Tengyu Ma, and Andrej Risteski. Linear Algebraic Structure of Word Senses, with Applications to Polysemy. Transactions of the Association for Computational Linguistics, Vol. 6, pp. 483-495, 2018. [4]David A. Cruse. Lexical Semantics. Cambridge University Press, Cambridge, UK, 1986. [5]Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 4171-4186, 2019. [6]Meghdad Farahmand, Aaron Smith, and Joakim Nivre. A Multiword Expression Data Set: Annotating NonCompositionality and Conventionalization for English Noun Compounds. In Proceedings of the 11th Workshop on Multiword Expressions, pp. 29-33, 2015. [7]J. R. Firth. A synopsis of linguistic theory 1930-55. Vol. 1952-59, pp. 1-32, 1957. [8]Alex Gittens, Dimitris Achlioptas, and Michael W. Mahoney. Skip-gram - Zipf + Uniform $=$ Vector Additivity. In Proceedings of the 55th Annual Meeting of the Association for Computational Linguistics, pp. 69-76, 2017. [9]Mihajlo Grbovic, Vladan Radosavljevic, Nemanja Djuric, Narayan Bhamidipati, Jaikit Savla, Varun Bhagwan, and Doug Sharp. E-Commerce in Your Inbox: Product Recommendations at Scale. In Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, p. 1809-1818, 2015. [10]Aditya Grover and Jure Leskovec. Node2vec: Scalable Feature Learning for Networks. In Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, p. 855-864, 2016. [11]Michael U. Gutmann and Aapo Hyvärinen. Noise-contrastive estimation of unnormalized statistical models, with applications to natural image statistics. The Journal of Machine Learning Research, Vol. 13, pp. 307-361, 2012. [12]Zellig Harris. Distributional structure. Word, Vol. 10, No. 2-3, pp. 146-162, 1954. [13]Geewook Kim, Sho Yokoi, and Hidetoshi Shimodaira. 単語埋め込みの二種類の加法構成性. 言語処理学会第 26 回年次大会発表論文集, pp. 724-727, 2020 [14]Omer Levy and Yoav Goldberg. Neural Word Embedding as Implicit Matrix Factorization. In Advances in Neural Information Processing Systems, pp. 2177-2185, 2014. [15]Tomás Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. In 1 st International Conference on Learning Representations, ICLR, Workshop Track Proceedings, 2013. [16]Tomás Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, and Jeffrey Dean. Distributed representations of words and phrases and their compositionality. In Advances in Neural Information Processing Systems, pp. 3111-3119, 2013. [17]Jiaqi Mu and Pramod Viswanath. All-but-the-top: Simple and effective postprocessing for word representations. In International Conference on Learning Representations, 2018. [18]Jeffrey Pennington, Richard Socher, and Christopher D. Manning. Glove: Global vectors for word representation. In Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing, pp. 1532-1543, 2014. [19]Steven Piantadosi. Zipf's word frequency law in natural language: A critical review and future directions. Psychonomic bulletin and review, Vol. 21, , 2014. [20]Dwaipayan Roy, Debasis Ganguly, Sumit Bhatia, Srikanta Bedathur, and Mandar Mitra. Using Word Embeddings for Information Retrieval: How Collection and Term Normalization Choices Affect Performance. In Proceedings of the 27th ACM International Conference on Information and Knowledge Management, p. 1835-1838, 2018. [21]Jun Suzuki and Masaaki Nagata. A Unified Learning Framework of Skip-Grams and Global Vectors. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing, pp. 186-191, 2015. [22]Caroline Willners. Antonyms in Context : A Corpus-Based Semantic Analysis of Swedish Descriptive Adjectives. $\mathrm{PhD}$ thesis. ## 付録 ## A 証明 ## A. 1 定理 1の証明 証明 SGNS の場合 $\zeta_{w}=0, \xi_{c}=\log \frac{q(c)}{p(c)}, \gamma=\log k$, GloVe の場合 $\zeta_{w}=a_{w}-\log p(w), \xi_{c}=b_{c}-\log p(c), \gamma=-\log Z$ と置くと, $ \operatorname{PMI}(w, c)=\boldsymbol{v}_{w}^{\top} \boldsymbol{u}_{c}+\zeta_{w}+\xi_{c}+\gamma $ を満たす.(12)の両辺に $p(w)$ を掛けて $w \in V$ に関して和をとると $ -\epsilon_{c}=\overline{\boldsymbol{v}}^{\top} \boldsymbol{u}_{c}+\bar{\zeta}+\xi_{c}+\gamma $ ここで $\bar{\zeta}=\sum_{w} p(w) \zeta_{w}$. (12) と (13) より $ \operatorname{PMI}(w, c)=\tilde{\boldsymbol{v}}_{w}^{\top} \boldsymbol{u}_{c}+\left(\zeta_{w}-\bar{\zeta}\right)-\epsilon_{c} . $ (14) の両辺に $p(c)$ を掛けて $c \in V$ に関して和をとると $ -\epsilon_{w}=\tilde{\boldsymbol{v}}_{w}^{\top} \overline{\boldsymbol{u}}+\left(\zeta_{w}-\bar{\zeta}\right)-\bar{\epsilon} $ (14)と (15)より $ \operatorname{PMI}(w, c)=\tilde{\boldsymbol{v}}_{w}^{\top} \tilde{\boldsymbol{u}}_{c}+\overline{\boldsymbol{\epsilon}}-\epsilon_{w}-\epsilon_{c} . $ 中心化しないことによる誤差 SGNS の場合,(3) の誤差は $\xi_{c}+\gamma=\log \frac{k q(c)}{p(c)}$ である. GloVeの場合は誤差が $\zeta_{w}+\xi_{c}+\gamma=a_{w}-\log p(w)+b_{c}-\log p(c)-\log Z$ だけ生じる. バイアス項 $a_{w}, b_{c}$ の学習には任意性があるため ${ }^{4)}$ 理論的に誤差が大きいことを言うのは難しいが,実験的に誤差が大きいことを確認している (\$5.1). 【kip-gram についての補足本定理は Skip-gram $p(c \mid w) \propto$ $\exp \left(\boldsymbol{v}_{w}^{\top} \boldsymbol{u}_{c}\right)$ でも同様に成立する. したがって AND・OR・ NOT の理論は Skip-gram にも適用できるが,計算量の問題から実際には SGNS が利用されるため本文中では言及しなかった. SGNS は Skip-gram の近似と説明されがちだが, SGNS は Skip-gram に Noise Contrastive Estimation[11] を適用してからさらに式を簡単化しているため,実際にはモデリング自体も異なる. よって,理論の上では両者は同一視できず,SGNS と Skip-gram を中心化によって同時に議論できることは非自明な結果であることに注意されたい。 ## A. 2 命題 2の証明 証明 $\Delta$ の定義から $(w, c) \in V^{2}$ に一様に $-1+\frac{p(w, c)}{p(w) p(c)}=$ $-1+\exp (\operatorname{PMI}(w, c))=O(\Delta)$ である. 誤差 $\epsilon_{w}$ のオーダーは, $w \in V$ に一様に $ \begin{aligned} & \epsilon_{w}=-\sum_{c} p(c) \log \frac{p(w, c)}{p(w) p(c)} \\ & =-\sum_{c} p(c)\left[\left(-1+\frac{p(w, c)}{p(w) p(c)}\right)+O\left(\left|-1+\frac{p(w, c)}{p(w) p(c)}\right|^{2}\right)\right] \\ & =-\sum_{c} p(c) O\left(\left|-1+\frac{p(w, c)}{p(w) p(c)}\right|^{2}\right)=O\left(\Delta^{2}\right) . \end{aligned} $ _{w}^{\top} \boldsymbol{u}_{c}$ で表現可能である } ただちに $\bar{\epsilon}=O\left(\Delta^{2}\right)$ も従う. ## A. 3 定理 3の証明 証明 (6) の両辺を計算する: $ \begin{aligned} p\left(w \mid w^{\prime}\right) & =p(w) \exp \left(\operatorname{PMI}\left(w, w^{\prime}\right)\right) \\ & \approx p(w)\left(1+\operatorname{PMI}\left(w, w^{\prime}\right)\right) \\ & =p(w)\left(1+\boldsymbol{v}_{w}^{\top} \boldsymbol{u}_{w^{\prime}}\right) \\ \sum_{i=1}^{s} p\left(w_{i} \mid w^{\prime}\right) & =\sum_{i=1}^{s} p\left(w_{i}\right) \exp \left(\operatorname{PMI}\left(w_{i}, w^{\prime}\right)\right) \\ & \approx \sum_{i=1}^{s} p\left(w_{i}\right)\left(1+\boldsymbol{v}_{w_{i}}^{\top} \boldsymbol{u}_{w^{\prime}}\right) \\ & =p(w)\left[1+\left(\sum_{i=1}^{s} \frac{p\left(w_{i}\right)}{p(w)} \boldsymbol{v}_{w_{i}}\right)^{\top} \boldsymbol{u}_{w^{\prime}}\right] \end{aligned} $ 任意の $w^{\prime} \in V$ に対し $(16) \approx(17)$ が成り立つことから (7) が従う. ## B 実験設定の補足 特筆した事項以外はすべて実装5)のデフォルトパラメータを用いた。 ## B. 1 §5.1の詳細 ロコーパス低頻度語(出現回数 < 100)を削除した text8 コーパス ${ }^{6}$ を用いた。回単語埋め込みの学習設定埋め込みの次元は 300 次元,窓の大きさは左右 5 単語以内(単語間の距離による重み付けなし)として 100 iteration 学習を行った. SGNS では負例数は $k=15$ とし, 高頻度語の確率的除去は無効にした. GloVeの重み付き最小 2 乗法のパラメータは $x_{\max }=100$ を用いた. ■その他 freq, unif は $\boldsymbol{u}_{j}$ 側も中心化を行っている. ## B. 2 §5.2,§5.3の詳細 ロコーパス Wikipedia $\left.^{7}\right)(2.1 \mathrm{G}$ tokens) を用いた。単語埋め込みの学習設定埋め込みの次元は 300 次元,窓の大きさは左右 5 単語以内とした. SGNS の負例数は $k=15$, GloVe の重み付き最小 2 乗法のパラメータは $x_{\text {max }}=100$ を用いた。【 §5.2の詳細複合語のデータセット [6] では複合語の意味がそれを構成する単語の意味の合成になっているかどうかで 5 段階のスコアがついている.スコアが低いと AND の意味を持つといえないため,スコアが 4 か 5 の複合語のみ実験に用いた。【§5.3の詳細架空の多義語を作る際,元となる単語は出現回数が 100 回以上もののみ用いた. ■その他予測順位の計算では検索の際 word1 と word2 は除いた. ## B. 3 §5.4の詳細 ロ単語埋め込み Common Crawl コーパス (840G tokens) で訓練済みの GloVeを用いた8)。ロその他 0 は正負が定義できないため実験からのぞいている. 5) https://github.com/tmikolov/word2vec, https://github. com/stanfordnlp/GloVe 6) http://mattmahoney.net/dc/textdata.html 7) https://dumps.wikimedia.org/ 8) https://nlp.stanford.edu/projects/glove/
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A6-4.pdf
# Learning Cross-lingual Sentence Representations for Multilingual Document Classification with Token-level Reconstruction Zhuoyuan $\mathrm{Mao}^{\dagger} \quad$ Prakhar Gupta $^{\ddagger} \quad$ Chenhui Chu $^{\dagger} \quad$ Martin Jaggi $^{\ddagger} \quad$ Sadao Kurohashi ${ }^{\dagger}$ ${ }^{\dagger}$ Kyoto University, Japan $\quad$ E EPFL, Switzerland \{zhuoyuanmao, chu, kuro\}@nlp.ist.i.kyoto-u.ac.jp \{prakhar.gupta, martin.jaggi\}@epfl.ch ## 1 Introduction Fixed-dimensional cross-lingual sentence representations $[1,2,3,4,5,6,7]$ are widely used to initialize another light neural network for cross-lingual sentence understanding downstream tasks. When learning such representations, efficiency and robustness form the core. In this work, we explore different training tasks for learning fixeddimensional cross-lingual sentence representations in a 2layer dual-transformer framework aiming to improve the efficiency and retain the robustness. We observe that current cross-lingual training tasks leave a lot to be desired for this shallow architecture. To ameliorate this, we propose a novel cross-lingual language model, which combines the Single-word Masked Language Model (SMLM) with Token-level Reconstruction (TR) task. Our comparisons with competing models on multilingual document classification verify the effectiveness of the newly proposed training tasks for a shallow model. ## 2 Related Work Training tasks for cross-lingual sentence representation learning can be classified into 2 groups: generative or contrastive. As our proposed method focuses on improving previous generative methods, we mainly revisit related generative methods in this section. Generative tasks measure a generative probability between predicted tokens and real tokens by training a language model. BERT-style masked language models [8] mask and predict contextualized tokens within a given sentence. For the cross-lingual scenario, cross-lingual supervision is implemented by shared cognates and joint training (mBERT [8]), concatenating source sentences in multiple languages $[9,10]$ or explicitly predicting the translated token [11]. ${ }^{1)}$ [CLS] embedding or pooled embedding of all the tokens is introduced as the classifier embedding which can be used as sentence embedding for sentence-level tasks [12]. Sequence to sequence methods $[1,3,6]$ autoregressively reconstruct the translation of the source sentence. The intermediate state between the encoder and the decoder are extracted as sentence representations. Particularly, the outstanding cross-lingual sentence representation quality of LASER [3] benefits from a massive multilingual machine translation task covering 93 languages. In our work, we revisit the BERT-style training tasks and introduce a novel proper generative loss for the tiny dual-transformer framework. ## 3 Proposed Methods We perform cross-lingual sentence representation learning by a tiny dual-transformer framework. With regard to the training tasks, we propose a novel cross-lingual language model which combines SMLM and TR. ## 3.1 Architecture We employ the dual transformer sharing parameters with each other without any decoder as the basic unit to encode parallel sentences respectively and avoid the loss in efficiency caused by decoder. First, in order to design a tiny model, we do not additionally employ any decoder to reconstruct sentences. Second, unlike TLM [9], we utilize dual model architecture rather than a single transformer to encode sentence pairs since it can force the encoder to capture more cross-lingual characteristics [5, 12]. Moreover, to establish a tiny model, we decrease the number of layers and embedding dimension to accelerate the training phase.  Figure 1 Model architecture The architecture of the proposed method is illustrated in Figure 1. We build sentence representations on the top of 2-layer transformer [13] encoders by a mean-pooling operation from the final states of all the positions within a sentence. Pre-trained sentence representations for downstream tasks are denoted by $u$ and $v$. Moreover, we add a fully-connected layer before computing the loss of the cross-lingual language model. This linear layer can enhance our tiny model by a nontrivial margin for that the hidden state for computing loss for the generative task is far different from the sentence presentation we aim to train. ${ }^{2)}$ Two transformer encoders and linear layers share parameters with each other which has been proved effective and necessary for cross-lingual representation learning [15]. ## 3.2 Training Task Single-word Masked Language Model (SMLM). SMLM is a single-word masked language model proposed by Sabet et al. [16]. Following them, we implement their task by a dual transformer architecture, where the transformer encoder for language $l_{1}$ predicts a masked token in a sentence in $l_{1}$ as the monolingual loss, while language $l_{2}$ encoder sharing all the parameters with $l_{1}$ encoder predicts the same masked token by the corresponding sentence (translation in $l_{2}$ ) as the cross-lingual loss. Specifically, for a parallel corpus $\boldsymbol{C}$ and language $l_{1}$ and $l_{2}$, the loss of SMLM computed from $l_{1}$ encoder $\boldsymbol{E}_{\boldsymbol{l}_{\mathbf{1}}}$ and $l_{2}$ encoder $\boldsymbol{E}_{\boldsymbol{l}_{\mathbf{2}}}$ is formulated  as: $ \begin{array}{r} \mathscr{L}_{S M L M}=\sum_{\substack{S \in \boldsymbol{C} \\ l, l^{\prime} \in\left.\{l_{1}, l_{2}\right.\} \\ l \neq l^{\prime}}}\left.\{-\log \left(P\left(w_{t} \mid S_{l \backslash\left.\{w_{t}\right.\}} ; \theta\right)\right)\right. \\ \left.-\log \left(P\left(w_{t} \mid S_{l^{\prime}} ; \theta\right)\right)\right.\} \end{array} $ where $w_{t}$ is the word to be predicted, $S_{l_{1} \backslash\left.\{w_{t}\right.\}}$ is a sentence in which $w_{t}$ is corrupted, $S=\left(S_{l_{1}}, S_{l_{2}}\right)$ denotes a parallel sentence pair, $\theta$ represents the parameters to be trained in $\boldsymbol{E}_{\boldsymbol{l}_{\mathbf{1}}}$ and $\boldsymbol{E}_{\boldsymbol{l}_{\mathbf{2}}}$, and the classification probability $P$ is computed by Softmax on the top of the embedding layer. We employ SMLM which is a variant of the standard Masked Language Model (MLM) in BERT to enforce the monolingual performance since MLM is a quite complicated task for a shallow transformer encoder to learn. A detailed comparison between SMLM and MLM under our tiny model setting is conducted (see Section 5.3). Token-level Reconstruction (TR). As demonstrated above, MLM suffices not to capture the cross-lingual features for a tiny transformer encoder, which indicates that it is essential to introduce the reconstruction loss like that in LASER for cross-lingual representation learning. However, introducing a decoder to implement the translation loss will increase the training time by a large margin which contradicts with our aiming to design a computationallylite model architecture. To implement the reconstruction loss with just the encoder, we introduce a TR loss by which we jointly enforce the encoder to reconstruct the word distribution of corresponding target sentence as shown by $q$ in Figure 1. This loss is inspired from BiVec loss formulation [17] in which cross-lingual tokens are reconstructed on the basis of Skip-gram language model pattern [18]. Specifically, we utilize the following KL-Divergence based formulation as the training loss: $ \begin{aligned} \mathscr{L}_{X M L M}=\sum_{\substack{l, l^{\prime} \in\left.\{l_{1}, l_{2}\right.\} \\ l \neq l^{\prime}}}\{ & -\mathscr{D}_{K L}\left(p\left(\mathbf{h}_{S_{l}} ; \theta\right) \| q\left(\mathbf{w}_{S_{l^{\prime}}}\right)\right) \\ & \left.-\mathscr{D}_{K L}\left(p\left(\mathbf{h}_{S_{l^{\prime}}} ; \theta\right) \| q\left(\mathbf{w}_{S_{l}}\right)\right)\right.\} \end{aligned} $ where $\mathscr{D}_{K L}$ denotes KL-Divergence based loss and $p\left(\mathbf{h}_{S_{l}} ; \theta\right)$ represents the hidden state on the top of encoder $\boldsymbol{E}_{\boldsymbol{l}}$ as shown in Figure 1 under the input $S_{l}$. We utilize discrete uniform distribution for the tokens in target language to define $q$. Specifically, $q\left(\mathbf{w}_{S_{l}}\right)$ is defined as: $ q\left(w_{i}\right)=\left.\{\begin{array}{rr} \frac{N_{w_{i}}}{\left.\|S_{l^{\prime}}\right.\|}, & w_{i} \in S_{l^{\prime}} \\ 0, & w_{i} \notin S_{l^{\prime}} \end{array}\right. $ where $N_{w_{i}}$ means the number of word $w_{i}$ in sentence $S_{l^{\prime}}$ and $\left.\|S_{l^{\prime}}\right.\|$ means the length of $S_{l^{\prime}}$. Unified Generative Task. Finally, we unify SMLM (Eq. (1)) and TR (Eq. (2)) by redefine the label distribution $q\left(\mathbf{w}_{S_{l}}\right)$ for KL-Divergence based loss. It is formulated the same as Eq. (3) if the token $w_{t}$ is corrupted from $S_{l^{\prime}}$, else if $w_{t}$ is corrupted within $S_{l}$ : $ q\left(w_{i}\right)=\left.\{\begin{array}{rr} \frac{N_{w_{i}}}{2\left.\|S_{l^{\prime}}\right.\|}, & w_{i} \in S_{l^{\prime}} \\ 1 / 2, & w_{i}=w_{t} \\ 0, & \text { others } \end{array}\right. $ ## 4 Training Details We build our PyTorch implementation on the top of HuggingFace's Transformers. ${ }^{3}$ ) Training data is composed of ParaCrawl v5.0 datasets for each language pair. ${ }^{4)}$ We experiment on English-French, English-German, EnglishSpanish and English-Italian. We filter the parallel corpus for each language pair by removing sentences which cover tokens out of 2 languages. Raw and filtered number of the parallel sentences for each pair are shown in Table 1. We tokenize sentences in all the languages by SentencePiece and build a shared vocabulary with the size of 50k for each language pair.5) Table 1 Training data overview For each encoder, we use the transformer architecture with 2 hidden layers, 8 attention heads, hidden size of 512 and filter size of 1,024 and the parameters of two encoders are shared with each other. The sentence representations generated are 512 dimensional. For the training phase, it minimizes the loss for our proposed cross-lingual language model (specifically, Unified Generative Task in 3.2). We 3) https://github.com/huggingface/transformers 4) http://opus.nlpl.eu/ParaCrawl-v5.php 5) https://github.com/google/sentencepiece train 12 epochs for each language pair (30 epochs for English-Italian because of nearly half number of parallel sentences) with an Adam optimizer, learning rate of 0.001 with warm-up strategy for 3 epochs (6 epochs for EnglishItalian) and dropout-probability of 0.1 by single TITAN X Pascal GPU with the batch size of 128 paired sentences. Training loss for each language pair can converge within 10 GPU(12GB)×days, which is far more efficient than most cross-lingual sentence representation learning methods. ## 5 Evaluation We evaluate our cross-lingual sentence representation models by cross-lingual document classification. We select MLDoc [19] to evaluate the classifier transfer ability of the cross-lingual sentence representation model. ## 5.1 MLDoc: Multilingual Document Classification The MLDoc task, which consists of news documents given in 8 different languages, is a benchmark to evaluate cross-lingual sentence representations. We conduct our evaluations in a zero-shot scenario: we train and validate a new linear classifier on the top of the pre-trained sentence representations in the source language, and then evaluate the classifier on the test set for the target language. We implement the evaluation by facebook's MLDoc library. ${ }^{6 \text { ) }}$ ## 5.2 Results As shown in Table 2, our tiny transformer model obtains the best results for most language pairs compared with MLDoc baseline [19], previous fixed-dimensional word [16] and sentence $[2,3,6]$ representation learning methods. This demonstrates that our proposed method can obtain state-of-the-art results on MLDoc benchmark among fixed-dimensional representation methods with an extremely light and efficient training framework. On the other hand, our method yield only slightly worse performance even when compared with the state-of-theart pre-training + fine-tuning style methods on this task which are referred as reference in Table 2.7) This is because the entire model will be updated in the fine-tuning phase  Table 2 MLDoc benchmark results (Zero-shot scenario). We compare our models primarily with fixed-dimensional models in which Bi-Sent2vec and LASER are state-of-the-art bag-of-words based and contextual sentence representation models respectively. We also compare with pre-training + fine-tuning style methods here for reference. while merely an additional dense layer will be trained for fixed-dimensional methods, which leads to their higher efficiency. ## 5.3 Different Generative Tasks We report the results with different generative tasks in Table 3. We observe that proposed TR outperforms other generative tasks by a significant margin on MLDoc benchmark. TR will yield further improvements if unified with SMLM, which is introduced as Unified Generative Task above in 3.2. This demonstrates the necessity of a welldesigned generative task for the tiny dual-transformer architecture. Moreover, by comparing the en-fr and fr-en results of LASER in Table 1 and *MLM tasks in Table 3, we observe that the reconstruction of the original sentence in other languages does benefit the representation quality. This reveals why our proposed TR can achieve promis- ing results whereas TR does not reconstruct the translation directly. ## 6 Conclusion In this work, we proposed a novel cross-lingual language model, which combines the SMLM with TR task for cross-lingual sentence representations learning in the light training framework. In spite of the tiny model capacity, we obtained substantial improvements on the MLDoc benchmark compared to fixed-dimensional representation methods. In the future, we plan to verify the performance of the newly proposed losses in large model architectures and extend this bilingual based method to multilingual settings. ## Acknowledgments This work was supported by Grant-in-Aid for Young Scientists \#19K20343, JSPS. ## References [1] Holger Schwenk and Matthijs Douze. Learning joint multilingual sentence representations with neural machine translation. In Proceedings of the 2nd Workshop on Representation Learning for NLP, pp. 157-167, Vancouver, Canada, August 2017. Association for Computational Linguistics. [2] Katherine Yu, Haoran Li, and Barlas Oguz. Multilingual seq2seq training with similarity loss for cross-lingual document classification. In Proceedings of The Third Workshop on Representation Learning for NLP, pp. 175-179, Melbourne, Australia, July 2018. Association for Computational Linguistics. [3] Mikel Artetxe and Holger Schwenk. Massively multilingual sentence embeddings for zero-shot cross-lingual transfer and beyond. Transactions of the Association for Computational Linguistics, Vol. 7, pp. 597-610, March 2019. [4] Yunsu Kim, Hendrik Rosendahl, Nick Rossenbach, Jan Rosendahl, Shahram Khadivi, and Hermann Ney. Learning bilingual sentence embeddings via autoencoding and computing similarities with a multilayer perceptron. In Proceedings of the 4th Workshop on Representation Learning for NLP (RepL4NLP-2019), pp. 61-71, Florence, Italy, August 2019. Association for Computational Linguistics. [5] Fangxiaoyu Feng, Yinfei Yang, Daniel Cer, Naveen Arivazhagan, and Wei Wang. Language-agnostic BERT sentence embedding. CoRR, Vol. abs/2007.01852, 2020. [6] Wei Li and Brian Mak. Transformer based multilingual document embedding model. CoRR, Vol. abs/2008.08567, , 2020. [7] Muthu Chidambaram, Yinfei Yang, Daniel Cer, Steve Yuan, Yunhsuan Sung, Brian Strope, and Ray Kurzweil. Learning cross-lingual sentence representations via a multi-task dual-encoder model. In Proceedings of the 4th Workshop on Representation Learning for NLP (RepL4NLP-2019), pp. 250-259, Florence, Italy, August 2019. Association for Computational Linguistics. [8] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 4171-4186, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [9] Alexis Conneau and Guillaume Lample. Cross-lingual language model pretraining. In Hanna M. Wallach, Hugo Larochelle, Alina Beygelzimer, Florence d'Alché-Buc, Emily B. Fox, and Roman Garnett, editors, Advances in Neural Information Processing Systems 32: Annual Conference on Neural Information Processing Systems 2019, NeurIPS 2019, 8-14 December 2019, Vancouver, BC, Canada, pp. 7057-7067, 2019. [10] Alexis Conneau, Kartikay Khandelwal, Naman Goyal, Vishrav Chaudhary, Guillaume Wenzek, Francisco Guzmán, Edouard Grave, Myle Ott, Luke Zettlemoyer, and Veselin Stoyanov. Unsupervised cross-lingual representation learning at scale. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 8440-8451, Online, July 2020. Association for Computational Linguistics. [11] Shuo Ren, Yu Wu, Shujie Liu, Ming Zhou, and Shuai Ma. Explicit cross-lingual pre-training for unsupervised machine translation. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 770-779, Hong Kong, China, November 2019. Association for Computational Linguistics. [12] Nils Reimers and Iryna Gurevych. Sentence-BERT: Sentence embeddings using Siamese BERT-networks. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 3982-3992, Hong Kong, China, November 2019. Association for Computational Linguistics. [13] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Isabelle Guyon, Ulrike von Luxburg, Samy Bengio, Hanna M. Wallach, Rob Fergus, S. V. N. Vishwanathan, and Roman Garnett, editors, Advances in Neural Information Processing Systems 30: Annual Conference on Neural Information Processing Systems 2017, 4-9 December 2017, Long Beach, CA, USA, pp. 5998-6008, 2017. [14] Ting Chen, Simon Kornblith, Mohammad Norouzi, and Geoffrey E. Hinton. A simple framework for contrastive learning of visual representations. In Proceedings of the 37th International Conference on Machine Learning, ICML 2020, 13-18 July 2020, Virtual Event, pp. 15971607, 2020. [15] Alexis Conneau, Shijie Wu, Haoran Li, Luke Zettlemoyer, and Veselin Stoyanov. Emerging cross-lingual structure in pretrained language models. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 6022-6034, Online, July 2020. Association for Computational Linguistics. [16] Ali Sabet, Prakhar Gupta, Jean-Baptiste Cordonnier, Robert West, and Martin Jaggi. Robust cross-lingual embeddings from parallel sentences. CoRR, Vol. abs/1912.12481, , 2019. [17] Thang Luong, Hieu Pham, and Christopher D. Manning. Bilingual word representations with monolingual quality in mind. In Proceedings of the 1st Workshop on Vector Space Modeling for Natural Language Processing, pp. 151-159, Denver, Colorado, June 2015. Association for Computational Linguistics. [18] Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. In Yoshua Bengio and Yann LeCun, editors, 1 st International Conference on Learning Representations, ICLR 2013, Scottsdale, Arizona, USA, May 2-4, 2013, Workshop Track Proceedings, 2013. [19] Holger Schwenk and Xian Li. A corpus for multilingual document classification in eight languages. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC-2018), Miyazaki, Japan, May 2018. European Languages Resources Association (ELRA). [20] Julian Eisenschlos, Sebastian Ruder, Piotr Czapla, Marcin Kardas, Sylvain Gugger, and Jeremy Howard. Multifit: Efficient multi-lingual language model fine-tuning. CoRR, Vol. abs/1909.04761, , 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A7-1.pdf
# 単語埋め込みの確率的等方化 横井祥 1,2 下平英寿 3,2 1 東北大学 2 理研 AIP 3 京都大学 yokoi@ecei.tohoku.ac.jp shimo@i.kyoto-u.ac.jp ## 1 はじめに 単語埋め込みは現代の自然言語処理の必須ツールである. Gloveなどの静的な単語埋め込み [1] および BERT などの文脈付き単語埋め込み [2] は広範なタスクの性能向上に貢献しており,またテキストを入出力にとるニューラルモデルのほぼすべてがその出入り口に埋め込み行列を持つ. 埋め込む対象は文字やサブワードの場合もあるが,本稿では簡単のためこれらを総称して単語埋め込みと呼ぶ. 最近になって,単語埋め込み空間が実は少し「歪んで」いること $[3,4]$, これを補正すると経験的に良好なパフォーマンスが得られること $[3,5,6]$ がわかってきた. 例えば,同じ方向にばかり単語べクトルたちが固まっているよりも,等方的な方が(向きの意味で一様に分布している方が)埋め込みたちを 「見分け」やすいと考えられる(図 1). 実際,単語埋め込みを等方的に補正することで後段タスクにおける性能が向上する $[3,7,6]$. 本項では,これらの埋め込み空間の歪みを補正手法の多くが暗黙的に単語頻度を一様だと見なしていることを指摘する.実際には単語頻度は経験的にべき分布に従っており [8], このギャップが歪みを補正しきれない原因となる. この問題点を解決するため,単語頻度を適切に考慮させるための一貫的な指針を与える. さらに,等方性をはじめとした埋め込み空間の「歪み」の度合いも測定も同様の指針でおこなえることを示す. 静的埋め込みを用いた実験では,提案する指針によって歪みをより正確に補正でき後段タスクの性能が向上すること,とりわけ白色化という簡単な処理が著しい性能向上をもたらすことを示す。また提案した等方性の尺度が埋め込みの品質をよく近似できること示す. 【記法単語集合を $\left.\{w_{1}, \ldots, w_{n}\right.\}$, 単語 $w_{i}$ に対応する単語埋め込みを太字 $\boldsymbol{w}_{i} \in \mathbb{R}^{d}$, 対応する単語頻度を $p\left(w_{i}\right) \in[0,1]$ で表す. また,一般のデータと特徴ベクトルを $x_{i}, \boldsymbol{x}_{i}$ で表す. 図 1 単語埋め込み空間の等方化 ## 2 関連研究:埋込空間の歪みと補正 埋め込み空間の幾何的な歪みと補正のための手法群を概観する. いずれのタイプの埋め込みにおいても大きなトレンドは原点中心性と等方性である. 静的な単語埋め込み [9] は“良い”単語埋め込みが満たすべき理論的仮定として等方性を挙げた. しかし実際の学習済みの単語埋め込みはこの仮定を満たさない. [3] は, 学習済みの単語埋め込みを中心化 (重心を原点に移動)し上位主成分方向を除去することで等方性が近似的に満たされることを示した. 動的な(文脈つきの)単語埋め込み BERT 等の動的な埋め込みは原点中心から外れており, 等方性も満たさない [4]. 中心化により文類似度計算における性能が改善することが報告されている [5]. ロニューラルモデル内の埋め込み行列言語モデルの埋め込み行列もやはり原点中心から外れており,等方性も満たさない [4]. これが学習がうまくいかない原因のひとつだとされており,埋め込み行列を等方的に保つ正則化が提案されている [6]. ## 3 既存手法の暗黙的な仮定と問題 前節で挙げた単語埋め込みの補正処理の多くは,特徴ベクトルの集合の前処理と似たアプローチが取られる。中心化を例としてこの一見自然な手続きを確認し,その問題点を指摘する。 ## 3.1 直感的説明:単語頻度が一様と仮定 ■特徵ベクトルの前処理一般的なデータ解析・統計処理では,まず特徴べクトル(観測)の集合が与 図 2 単語埋め込み空間の中心化. えられる。たとえばある市の疫病の感染状況を分析したい場合には各市民の特徵量が収集される。つぎに特徴べクトルの集合に適当な前処理がおこなわれる. たとえばもっとも基本的な前処理である中心化は,特徵ベクトルの集合の重心が原点と一致するよう特徴べクトル全体を平行移動する(図 2), ■単語埋め込みの補正単語埋め込みの場合も中心化による補正が盛んにおこなわれている $[3,5]$. ロ暗黙の仮定とその問題点この自然なアプローチのどこが問題なのだろうか? データ解析において各特徴ベクトル(たとえば各市民の特徴量)は平等な重みをもっていた.いずれの観測(市民)も,興味を持っている確率的な対象(たとえば市全体)からの無作為なサンプリングと見なせた。一方で単語べクトルの場合,各単語は,興味を持っている確率的な対象(たとえばコーパス)から平等にサンプリングされたものではない. 単語は実際には ['the', 'mean', 'of', 'the', 'data', 'matrix', 'is',...] のように偏りを持って出現している. データ解析と同様の処理は,単語の出現の列を単語集合 \{'the', 'mean', 'of', 'data',...\} だと近似し, 高頻度語も低頻度語も同様の扱いを与えることになる。 ## 3.2 形式的説明:一様分布で期待値計算 既存手法の問題点を一言で述べれば「単語集合に対して期待値をとる際に一様分布を用いている」となる。以下これを平均ベクトルの計算を例に挙げて形式的に記述し, 提案法の説明の準備としたい. データ解析では,データの平均ベクトル $\boldsymbol{m}_{x}$ を観測たち $\left.\{\boldsymbol{x}_{1}, \ldots, \boldsymbol{x}_{n}\right.\}$ の算術平均 $\widehat{\boldsymbol{m}}_{\boldsymbol{x}}$ で推定する. $ \boldsymbol{m}_{x}=\underset{x \sim p}{\mathbb{E}}[\boldsymbol{x}], \quad \widehat{\boldsymbol{m}}_{x}=\sum_{i} \widehat{p}\left(x_{i}\right) \boldsymbol{x}_{i}=\sum_{i} \frac{1}{n} \boldsymbol{x}_{i} $ これは, $\widehat{p}\left(x_{i}\right)=1 / n$ と見なしている,つまり同様に観測された各データ $x_{i}$ を同様に扱っている点で適切である。一方で単語埋め込みの場合, $ \boldsymbol{m}_{\boldsymbol{w}}=\underset{w \sim p}{\mathbb{E}}[\boldsymbol{w}], \quad \widehat{\boldsymbol{m}}_{\boldsymbol{w}}^{? ?}=\sum_{i} \hat{p}^{?}\left(w_{i}\right) \boldsymbol{w}_{i}=\sum_{i} \frac{1}{n} \boldsymbol{w}_{i} $ 一見自然な算術平均 $\widehat{\boldsymbol{m}}_{\boldsymbol{w}}^{(2)}$ を計算する処理は, 単語頻度を $\hat{p}\left({ }^{(} w_{i}\right)=1 / n$ で見なしている,つまり各単語の頻度が一様だと仮定していることになる。 ## 4 提案手法:単語頻度で期待値計算 以上の問題点を踏まえ,本稿では「単語ベクトル集合に対して何らかの期待値をとる際は単語頻度分布を用いる」という指針を提案する.以下では,平均ベクトルの計算,中心化に加え,等方性を確保するための前処理である白色化,および埋め込み空間の等方性の度合いの推定について,特徴べクトルと対比させながら具体的な計算方法を述べる. $\hat{p}\left(w_{i}\right)$ は,適当なコーパスにてカウントした $w_{i}$ の頻度,すなわち $p\left(w_{i}\right)$ の自然な推定量とする。 平均ベクトルと中心化単語埋め込みの平均ベクトルを推定する際は単語頻度で重み付き平均すれば良い。つまり $p\left(w_{i}\right)$ を頻度 $\widehat{p}\left(w_{i}\right)$ で推定すれば良い $ \widehat{\boldsymbol{m}}_{\boldsymbol{x}}=\sum_{i} \frac{1}{n} \boldsymbol{x}_{i}, \quad \widehat{\boldsymbol{m}}_{\boldsymbol{w}}=\sum_{i} \widehat{p}_{w}\left(w_{i}\right) \boldsymbol{w}_{i} $ 中心化する場合は各べクトルから平均を差し引けば $ \overline{\boldsymbol{x}}_{i}=\boldsymbol{x}_{i}-\widehat{\boldsymbol{m}}_{x}, \quad \bar{w}_{i}=\boldsymbol{w}_{i}-\widehat{\boldsymbol{m}}_{w} $ 重心が原点に移動する $\left(\sum_{i} \frac{1}{n} \overline{\boldsymbol{x}}_{i}=\mathbf{0}, \sum_{i} \widehat{p}\left(w_{i}\right) \overline{\boldsymbol{w}}_{i}=\mathbf{0}\right)$.且分散共分散行列の固有値分解標準化,白色化,主成分分析など多くの前処理・補正処理が,固有值分解された分散共分散行列を利用する. 特徵べクトルの場合,分散共分散行列 $S_{x} \in \mathbb{R}^{d \times d}$ は $ S_{x}=\frac{1}{n-1} \bar{X}^{\top} \bar{X}, \quad \bar{X}:=\left(\bar{x}_{1}, \ldots, \bar{x}_{n}\right)^{\top} \in \mathbb{R}^{n \times d} $ で計算できる。一方単語埋め込み場合は,天下り的ではあるが,中心化し $\sqrt{\widehat{p}\left(w_{i}\right)}$ で重み付けした単語埋め込み行列 $\widetilde{W}$ を用いれば分散共分散行列が容易に計算できる $ S_{w}=\widetilde{W}^{\top} \widetilde{W}, \quad \widetilde{W}:=\left(\sqrt{\widehat{p}\left(w_{1}\right)} \overline{\boldsymbol{w}}_{1}, \ldots\right)^{\top} \in \mathbb{R}^{n \times d} $ これで各要素 $\left(S_{w}\right)_{j k}=\sum_{i} \widehat{p}_{w}\left(w_{i}\right) \overline{\boldsymbol{w}}_{i}[j] \overline{\boldsymbol{w}}_{i}[k]$ が,単語頻度分布を考慮した(共)分散の推定量となる。 次に分散共分散行列を固有値固有ベクトル分解し $ S=V \Lambda V^{\top}, \Lambda=\operatorname{diag}\left(\lambda_{1}, \ldots, \lambda_{d}\right), V=\left(v_{1}, \ldots, v_{d}\right) $ 得られた $\Lambda, V \in \mathbb{R}^{d}$ で各種補正処理が実行できる. 口白色化白色化は球状化とも呼ばれており,近似的にではあるが直接的に等方化を目指す処理である.上で求めた $\Lambda$ および $V$ を用いれば, $ \widetilde{\boldsymbol{x}}_{i}=\Lambda^{-1 / 2} V^{\top} \overline{\boldsymbol{x}}_{i}, \quad \widetilde{\boldsymbol{w}}_{i}=\Lambda^{-1 / 2} V^{\top} \overline{\boldsymbol{w}}_{i} $ によって適切に期待値をとった白色化 $w \mapsto \widetilde{\boldsymbol{w}}$ が実現する.ただしこの標準的な白色化は分散の計算を伴い, 結果として埋め込みの長さの影響を受ける.一方で単語埋め込みは,長さではなく向きが意味の計算に重要な役割を持つ [10]. そこで本稿では,固有値(方向毎の疎密の度合い)を単位超球上で計算してから白色化することを提案する.以下これを方向白色化と呼ぶ. 具体的な計算方法としては, $\widetilde{W} の$代わりに以下を用いて白色化をおこなえば良い $ \widetilde{W}^{\prime}:=\left(\sqrt{\widehat{p}\left(w_{1}\right)} \overline{\boldsymbol{w}}_{1} /\left.\|\overline{\boldsymbol{w}}_{1}\right.\|, \ldots, \sqrt{\widehat{p}\left(w_{1}\right)} \overline{\boldsymbol{w}}_{n} /\left.\|\overline{\boldsymbol{w}}_{n}\right.\|\right) . $ 等方性関連研究の節で述べたように等方性は埋め込みの歪みの尺度としてとりわけ重視されている.ここでは埋め込みの等方性の測定方法を検討する. まず,特徴べクトル $x$ に対する等方性は標準的には以下で定義される: $\mathbb{E}\left[\boldsymbol{x}^{\top}\right]=I[11]$. すなわち $\frac{1}{n} \sum_{i} \boldsymbol{x}_{i} \boldsymbol{x}_{i}^{\top}$ と $I$ の間の近さをもって等方性を推定すれば良い。しかしこれを単語埋め込みに適用する際は,期待値計算における分布の補正した上で,さらに定義が持つ次の問題を解決する必要がある。(1)向きが意味を保つにも関わらず,各埋め込みのノルムに影響を受ける。(2) 埋め込み全体のスケールに影響を受ける。そこで本稿では,(1) 各埋め込みを正規化した上で $\mathbb{E}\left[w^{\top}\right]$ を計算し,(2) その固有値分布がフラットかどうか(固有值分布のエントロピー を正規化したもの)で等方性を測る.以下,この等方性の尺度を正規化エントロピー $H(w)$ と呼ぶ. ## 4.1 サンプリングをおこなう手法との関連 一部の手法は単語頻度に基づくサンプリングを暗におこなっており,結果,単語頻度による期待値計算が実現している $[12,5]$. 本稿の枠組みはこれらの手法がうまく動く正当化を与えるものでもある. ## 5 実験 学習済み単語埋め込みを歪みを各手法で補正することを試み,歪みは実際にとれるのか,また後段タスクの性能は向上するのかを確認した. ## 5.1 実験設定 本稿ではもっとも基本的と考えられる静的埋め込みを用い,また後段タスクとして,今日でも静的埋め込みが BERT 等の文脈つき埋め込みよりも有用に使われているタスクを選定した ${ }^{1)}$.データセット等 1)ただし文類似度タスクの Twitter に関しては,文語体中心の STS-B と対比させる口語体のデータセットとして採用した。 は標準的に用いられているものを採用した。 単語埋め込み英語語彙の静的な単語埋め込み GloVe[1] および word2vec[13] を用いた. 【埋め込み空間の補正手法中心化,白色化,および方向白色化を用いた. さらに,ベースラインとして all-but-the-top(ABBT)[3]を用いた. ## ■補正の効果の確認のための空間の歪みの測定手法 原点中心性 : $Z(w):=\|\mathbb{E}[w]\| / \mathbb{E}[\|w\|] \geq 0$. 小さいほど重心が原点に近い。 等方性 : $H(w) \leq 1$ (§4). 大きいほど等方的. 以下,期待値を一様分布で(算術平均で)とった際は「見かけの等方性」のように書く. ## ロ補正の効果の確認のための後段タスク 単語類似度タスク:埋め込み間のコサイン類似度と単語の意味的類似度との順位相関を確かめる. デー タセットとして WordSim[14], MEN[15]を用いた。 教師なし文類似度タスク:単語埋め込みの和で文埋め込みを作り, 単語類似度尺度と同様の手続きで人手評価とのピアソン相関2)を確かめる. データセットとして STS-B[16],Twitter[17]を用いた。またべー スラインとしてuSIF[12] 用いた。 ■単語頻度期待値計算に必要な単語頻度として, Wikipedia 英語版のカウントデータを用いた $[18]^{3)}$. ## 5.2 実験結果 Glove での実験結果は表 1 の通り. word2vec での実験結果は付録 Aを参照されたい。まず GloVeの中心化を例に,一様な処理と重み付き処理の違いを概観する. GloVeを一様に中心化すると, 歪みの度合いが補正前の埋め込みに比べて悪化した。加えてすべての後段タスクにおける性能が悪化した。これまでの分野の知見を踏まえると驚くべき結果である。 $[9,3]$等によれば,中心化によって等方性が一次近似の意味で満たされ,埋め込みの経験的な性能も向上するはずだからだ4).しかし本稿の視点に立てば,今回の実験結果は「一様な中心化が見かけの $Z$ や $H$ を向上させた」「真の $Z$ や $H$ は悪化しており後段タスクの性能も悪化した」と自然に解釈できる. 対照的に,単語頻度を考慮して中心化した場合, $Z , H$ がともに向上し,またすべての後段タスクの性能が向上した. ほかの補正処理においても同様の  る. 中心化単体での経験的な効果は報告されていなかった. 表 1 単語埋め込み空間の補正処理とその効果. 表 2 空間の歪みと後段タスクの性能の相関係数 $\times 100$. 傾向が見られた. 期待値のとりかたを適切に修正することで,既存の知見を現実の言語の分布に沿った形で効果的に運用できるようになったと言える. ロ歪みの指標と後段タスクの性能の関係次に,実験で作成したすべての種類の埋め込みを用いて「埋め込みの歪み度合い $(Z$ および $H) 」$ と「後段タスクにおける性能」の相関を測ったところ,一貫して強い“正の”相関を持つことがわかった(表 2 $)^{5}$. このことから,適切に計算した歪みの度合いは, 単語埋め込みの今後の研究に次のように役立つと考えられる。 (1) 埋め込み空間の歪み(たとえば $Z$ や $H$ ) を見ることで,後段タスクでの実際の実験を介さずとも,経験的な性能をある程度予測できる可能性がある。 (2) 埋め込み空間の歪みを補正したい場合は,単語頻度で重み付けした尺度(たとえば $Z$ や $H$ )を最適化するという指針で,高性能な補正処理が手に入る可能性がある. 口白色化に関する考察文類似度タスク(STS-B) において, 方向白色化が uSIF と呼ばれる強力なべー スラインを上回った. これは驚くべき結果と言わざるを得ない. 方向白色化は簡単なごく単純な処理にすぎず,一方で USIF は (1) 単語埋め込みの補正 (2)単語の重要度推定 (3) 文埋め込みの補正の 3 手法併せた手法だからである. 方向白色化は等方性 $(H)$ 5) $Z$ は小さい方が空間の歪みが少ない(好ましい). を近似的に向上させる提案だったことを踏まえれば, $H$ を直接的な最適化する手法の考案は魅力的な将来の研究と言える. 別名「球状化」と呼ばれる白色化は,等方性 $H$ を安定して向上させ,また後段タスクの性能を向上させた.これは,埋め込みの固有値分布の観点から見ると驚くべき結果である。単語埋め込み空間の固有値分布はまったくフラットではなく裾が減衰することが知られており [3]. 単語埋め込み同士をほとんど見分けることのできない軸が多数存在する. 白色化は,これらの「役立たない」軸方向を無理やり引き伸ばしてこれを使わせる処理であり,一般的な次元削減の指針に反する。ただし,自然言語処理の埋め込みの研究では, 上位主成分の除去 $[3,7,19,18,12]$ というやはり一般的な次元削減の指針に反する処理が一定の成果を収めている。これらの知見を総括する理論が待たれる。 ## 6 おわりに 単語埋め込み空間の歪みの度合いを測り,また歪みを補正する際に,単語頻度の一様性が暗に仮定されることがある。本研究ではこれを修正する一貫的な指針「期待値を単語頻度でとる」を示した。また,等方性を測定する尺度として正規化エントロピー $H$ を,等方性を向上させる手法として方向白色化をそれぞれ提案した. 実験の結果,提案した修正指針によって既存の補正処理がうまく動くようになり,また適切に計算した歪みの尺度は埋め込みの品質の有用な評価指標となることがわかった。 ■謝辞本研究は JST ACT-X JPMJAX200S の支援を受けたものです。また本研究は JSPS 科研費 20H04148 の助成を受けたものです. ## 参考文献 [1] Jeffrey Pennington, Richard Socher, and Christopher D. Manning. GloVe: Global Vectors for Word Representation. In $E M N L P$, pp. 1532-1543, 2014. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In NAACL, pp. 4171-4186, 2019. [3] Jiaqi Mu and Pramod Viswanath. All-but-the-Top: Simple and Effective Postprocessing for Word Representations. In ICLR, 2018. [4] Kawin Ethayarajh. How Contextual are Contextualized Word Representations? Comparing the Geometry of BERT, ELMo, and GPT-2 Embeddings. In EMNLP, pp. $55-65,2019$. [5] Xi Chen, Nan Ding, Tomer Levinboim, and Radu Soricut. Improving Text Generation Evaluation with Batch Centering and Tempered Word Mover Distance. In First Workshop on Evaluation and Comparison of NLP Systems, pp. 51-59, Online, 11 2020. Association for Computational Linguistics. [6] Lingxiao Wang, Jing Huang, Kevin Huang, Ziniu Hu, Guangtao Wang, and Quanquan Gu. Improving Neural Language Generation with Spectrum Control. In ICLR, 2020. [7] Tianlin Liu, Lyle Ungar, and João Sedoc. Continual Learning for Sentence Representations Using Conceptors. In NAACL, pp. 3274-3279, 2019. [8] George K Zipf. Human Behaviour and the Principle of Least Effort. Addison-Wesley, 1949. [9] Sanjeev Arora, Yuanzhi Li, Yingyu Liang, Tengyu Ma, and Andrej Risteski. A Latent Variable Model Approach to PMI-based Word Embeddings. TACL, Vol. 4, pp. 385399, 122016. [10] Sho Yokoi, Ryo Takahashi, Reina Akama, Jun Suzuki, and Kentaro Inui. Word Rotator's Distance. In EMNLP, pp. 2944-2960, Online, 11 2020. Association for Computational Linguistics. [11] Mark Rudelson. Random Vectors in the Isotropic Position. Journal of Functional Analysis, Vol. 164, No. 1, pp. 60-72, 1999. [12] Kawin Ethayarajh. Unsupervised Random Walk Sentence Embeddings: A Strong but Simple Baseline. In Rep4NLP, pp. 91-100, 72018. [13] Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, and Jeffrey Dean. Distributed Representations of Words and Phrases and their Compositionality. In C J C Burges, L Bottou, M Welling, Z Ghahramani, and K Q Weinberger, editors, NIPS, pp. 3111-3119, 2013. [14] Lev Finkelstein, Evgeniy Gabrilovich, Yossi Matias, Ehud Rivlin, Zach Solan, Gadi Wolfman, and Eytan Ruppin. Placing Search in Context: The Concept Revisited. ACM Transactions on Information Systems, Vol. 20, No. 1, pp. 116-131, 12002. [15] Elia Bruni, Gemma Boleda, Marco Baroni, and NamKhanh Tran. Distributional Semantics in Technicolor. In ACL, pp. 136-145, 72012. [16] Daniel Cer, Mona Diab, Eneko Agirre, Iñigo LopezGazpio, and Lucia Specia. SemEval-2017 Task 1: Semantic Textual Similarity Multilingual and Crosslingual Focused Evaluation. In SemEval, pp. 1-14, 82017. [17] Wei Xu, Chris Callison-Burch, and William B. Dolan. SemEval-2015 Task 1: Paraphrase and Semantic Similarity in Twitter (PIT). In SemEval, pp. 1-11, 62015. [18] Sanjeev Arora, Yingyu Liang, and Tengyu Ma. A Simple but Tough-to-Beat Baseline for Sentence Embeddings. In ICLR, 2017. [19] Tianlin Liu, Lyle H. Ungar, and João Sedoc. Unsupervised Post-processing of Word Vectors via Conceptor Negation. In $A A A I$, pp. 6778-6785, 2019. ## A 付録:word2vec での実験結果 表 3 単語埋め込み空間の補正処理とその効果. word2vec.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A7-2.pdf
# Transformer の文脈を混ぜる作用と混ぜない作用 小林悟郎 1 栗林樹生 ${ }^{1,2}$ 横井祥 1,3 乾健太郎 1,3 1 東北大学 ${ }^{2}$ Langsmith 株式会社 ${ }^{3}$ 理化学研究所 \{goro.koba, kuribayashi, yokoi, inui\}@ecei.tohoku.ac.jp ## 1 はじめに 近年,Transformerアーキテクチャ [1] は分野内の基盤技術となりつつあり,成功理由の解明および更なる改善に向け,Transformerを基盤としたモデル(BERT [2] など)の分析や検証が盛んに行われている [3]. Transformer は入力系列の情報を混ぜ合わせる注意機構を積み重ねた構造である. 既存研究の多くは注意機構による「混ぜ合わせ」が成功の鍵であるとみなし,ある単語の表現を計算する時にどの単語の情報を用いているか,例えば依存関係や意味関係などと比較して分析している [4, 5, 6, 7, 8, 9, 10,11,12]. しかし,Transformerを構成する要素は注意機構だけではない. 例えば残差結合による「入力をそのまま残す作用」が存在する。もしこの影響が強ければ,既存研究が観察してきた混ぜ合わせに関する観察はモデル全体においては微々たる作用に過ぎない。また,層正規化はべクトルの正規化と拡大縮小を行い,外側から注意機構の混ぜる作用と残差結合の残す作用の強さを改変しうる. Transformer 内部において注意機構による混ぜ合わせがどの程度支配的であるか,Transformer の主たる仕事は「混ぜる」 ことなのだろうか. 本研究では残差結合と層正規化にも焦点を当ててこれらを調べる。「混ぜ合わせ」 などのモデル内における情報の流れを明らかにすることは,モデルに対する理解を深めるだけでなく, モデルの予測の説明としても重要である. 実験では Transformer を基盤とした代表的なモデルとして BERT を対象に,モデル内部における混ぜ合わせの強さを調査する. 実験結果から BERT の各層では,周囲のべクトルから混ぜる量よりも自身のベクトルを残す量の方が遥かに大きく,混ぜる作用ではなく残す作用が支配的であることを明らかにする.これにより,モデル内では情報がほんの少しずつ混ぜられていくことが示唆された.このような結 図 1 注意機構,残差結合,層正規化の概要. 果が得られた理由を機構ごとの作用から分析し,注意機構に比べて残差結合が強く働いていること, 層正規化が特定のトークンに対応するベクトルを強く拡大していることを明らかにした。 本研究の貢献は以下の通りである。 - Transformer に対し,注意機構に加えて残差結合と層正規化を考慮して「混ぜ合わせの強さ」を分析する方法を提案した。 ・BERT の各層では,文脈を混ぜる作用よりも自信を残す作用が支配的であることを示した。 ## 2 準備:Transformer を構成する機構 Transformer は同じ構造を持つ層を積み重ねたアー キテクチャであり,各層は(1)注意機構,(2)残差結合,(3)層正規化,(4)順伝播型ニューラルネットワークの四つの機構から構成される. 多くの先行研究はこのうち,注意機構のみを分析対象としてきた. 本研究では注意機構に加えて残差結合と層正規化を考慮し,入力ベクトル $\boldsymbol{x}_{j}$ がこれらの機構を通過して $y_{j}^{\text {attn+res+ln }}$ へと変化する様子を分析する. Transformer 内における注意機構,残差結合,層正規化の簡単な概要を図 1 に示す. 本稿では自己注意機構を対象として提案手法の説明と実験を行うが,エンコーダーとデコーダーの間の注意機構でも同様の 議論が可能である. ## 2.1 注意機構 (attn) 注意機構は Transformerにおいて「混ぜる作用」を担う. 以下,Transformer 内の各注意機構を慣例にならってヘッド(h)と呼ぶことにする.各へッド $h$内において, 各入力ベクトル $x_{j} \in \mathbb{R}^{d}$ は周辺の入力ベクトル全体 $\left.\{\boldsymbol{x}_{1}, \ldots, \boldsymbol{x}_{n}\right.\}$ を参照しながら出力べクトル $\boldsymbol{y}_{j}^{(h)} \in \mathbb{R}^{d}$ へ更新される. 具体的には, 周辺のベクトル $x_{i}$ を参照する度合い $\alpha_{i, j}^{(h)}$ (アテンション重み)を計算し, $x_{i}$ をアフィン変換したベクトル $f_{j}^{\curvearrowleft}\left(\boldsymbol{x}_{i}\right)$ をこの重みで足し合わせる. $ \boldsymbol{y}_{j}^{(\boxed{)}}=\sum_{i=1}^{n} \alpha_{i, j}^{(h)} f_{j}^{(h)}\left(\boldsymbol{x}_{i}\right) $ Transformer ではこのへッドを $H$ 個並列に並べたマルチヘッド注意機構(attn)が各層に組み込まれている. マルチヘッド注意機構は,以下のように各ヘッド $h$ の出力ベクトルを足し合わせ,ベクトル $y_{j}^{\text {attn }}$ を出力する. $ \boldsymbol{y}_{j}^{\boxed{\text { attn }}}=\sum_{h=1}^{H} \boldsymbol{y}_{j}^{(h)} $ ## 2.2 残差結合(res) 残差結合(res)は, 注意機構の出力 $y_{j}^{\text {attn }}$ に, 処理を加えていない入力べクトル $\boldsymbol{x}_{j}$ をそのまま足し込むことでオリジナルの情報を「残す」作用を担う. 注意機構と残差結合を合わせた出力 $\boldsymbol{y}_{j}^{\text {attn+res }}$ は次の通り計算される: $ y_{j}^{\boxed{\text { attn+res }}}=y_{j}^{\text {attn }}+x_{j} . $ ## 2.3 層正規化(In) 層正規化(In)は入ってきたべクトル $y$ を正規化しさらに拡大縮小をほどこす: $ \mathrm{LN}(\boldsymbol{y})=\overline{\boldsymbol{y}} \odot \gamma+\boldsymbol{\beta} \in \mathbb{R}^{d}, \quad \overline{\boldsymbol{y}}:=\frac{\boldsymbol{y}-m(\boldsymbol{y})}{s(\boldsymbol{y})} $ まず $\boldsymbol{y} \mapsto \overline{\boldsymbol{y}}$ の計算で入力 $\boldsymbol{y}$ の要素全体が平均 0 分散 1 となるよう正規化される. $\boldsymbol{y}^{(k)}$ をべクトル $\boldsymbol{y}$ の $k$ 番目の要素として $, m(\boldsymbol{y}):=\frac{1}{d} \sum_{k} \boldsymbol{y}^{(k)} \in \mathbb{R}$ は要素平均, $s(\boldsymbol{y}):=\sqrt{\frac{1}{d} \sum_{k}\left(\boldsymbol{y}^{(k)}-m(\boldsymbol{y})\right)^{2}+\epsilon} \in \mathbb{R}$ は標準偏差, $\epsilon \in \mathbb{R}$ は数値安定のための小さな定数を表す.引き算および割り算は要素毎におこなう. 次に学習可能なアフィン変換パラメータ $\gamma, \beta \in \mathbb{R}^{d}$ によって $\bar{y}$ の拡大縮小がおこなわれる. $\odot$ は要素積を表す. Transformer では図 1 に示すように,注意機構と残差結合が統合された各べクトル $\boldsymbol{y}_{j}^{\text {attn+res }}$ に対して上記の計算が行われ,以下のように $\boldsymbol{y}_{j}^{\boxed{\text { atn+res+ln }}}$ へと更新される. $ y_{j}^{\boxed{\text { attn+res+ln }}}=\mathrm{LN}\left(y_{j}^{\sqrt{\text { attn+res }}}\right)=\overline{y_{j}^{\sqrt{\text { attn+res }}}} \odot \gamma+\beta $ ## 3 提案手法 本稿では Transformer において注意機構による混ぜ合わせがどの程度支配的であるかを調査するため, 注意機構に加えて残差結合と層正規化を考慮した分析を行う.混ぜ具合の検証のため,それらの機構を通過して更新された埋め込みが,更新前の自身の入力とその他の入力からそれぞれどの程度ずつ集めて構成されたのかを確認する手法を提案する.具体的には,三つの機構が埋め込みを更新する計算を自身の入力に由来するべクトルとその他の入力に由来するベクトルの和に変形し,それぞれのべクトルのノルムを測ることで埋め込みの更新において他からの混ぜ合わせがどの程度行われたかを観察する。 ## 3.1 混ぜる強さの分析 注意機構,残差結合,層正規化を通して入力べクトル $x_{j}$ が $y_{j}^{\text {attn+res+ln }}$ へ更新される際に, 自身以外の入力ベクトル $\left.\{\boldsymbol{x}_{1}, \ldots, \boldsymbol{x}_{j-1}, \boldsymbol{x}_{j+1}, \ldots \boldsymbol{x}_{n}\right.\}$ から集めた量(混ぜた量)と自身の入力ベクトル $x_{j}$ から集めた量(残した量)を比較したい, $y_{j}^{\text {attn }}$ おび LN (.) が以下のように分解できる1)ことに注意すると, $ \begin{aligned} & \boldsymbol{y}_{j}^{\boxed{\mathrm{attn}}}=\sum_{i=1}^{n} f_{j}^{\boxed{\mathrm{attn}}}\left(\boldsymbol{x}_{i}\right), f_{j}^{\boxed{\text { attn }}}\left(\boldsymbol{x}_{i}\right):=\sum_{h=1}^{H} \alpha_{i, j}^{(h} f_{j}^{\natural}\left(\boldsymbol{x}_{i}\right) \\ & \mathrm{LN}\left(\sum_{i} z_{i}\right)=\sum_{i} \frac{z_{i}-m\left(z_{i}\right)}{s\left(\sum_{i} z_{i}\right)} \odot \gamma+\beta \end{aligned} $ $y_{j}^{\text {attn+res+ln }}$ は次の 4 つの項に近似なしで分解できる. $ \begin{aligned} & +\frac{f \boxed{\text { attn }}\left(\boldsymbol{x}_{j}\right)-m\left(f^{\boxed{\mathrm{attn}}}\left(\boldsymbol{x}_{j}\right)\right)}{s\left(\boldsymbol{y}_{j}^{\boxed{\mathrm{attn}}}+\boldsymbol{x}_{j}\right)} \odot \gamma \\ & +\frac{\boldsymbol{x}_{j}-m\left(\boldsymbol{x}_{j}\right)}{s\left(\boldsymbol{y}_{j}^{\boxed{\text { attn }}}+\boldsymbol{x}_{j}\right)} \odot \gamma \\ & +\beta \end{aligned} $ 1) $\mathrm{LN}(\cdot)$ の分解に関する詳細は付録 $\mathrm{A}$ で説明する. 図 2 各層の注意機構・残差結合・層正規化によるべクトル更新で「混ぜ合わせ」が担う割合. 図3 各層における注意機構が混ぜる量 $\left.\|\sum_{i \in\{1, \ldots, n\} \backslash\{j\}} f_{j}^{\text {attn }}\left(\boldsymbol{x}_{i}\right)\right.\|$. 図4 各層における注意機構が残す量 $\left.\|f_{j}^{\boxed{\mathrm{attn}}}\left(\boldsymbol{x}_{j}\right)\right.\|$. 図 5 各層における残差結合が残す量 $\left.\|\boldsymbol{x}_{j}\right.\|$. すなわち出力 $y_{j}^{\boxed{\text { attn+res+ln }}}$ は ・attn 経由で混ぜる作用 $: y_{j \leftarrow \text { others }}^{\text {attn+ln }}:=$ 項 4 ・attn 経由で残す作用 : $\boldsymbol{y}_{j \leftarrow j}^{\mathrm{attn}+\mathrm{ln}}:=$ 項 5 - res 経由で残す作用 : $y_{j}^{\text {res+ln }}:=$ 項 6 ・バイアス項: $\beta$ (= 項 7) の和に分解できる。そこで,これらの機構における 「混ぜる作用」と「残す作用」をそれぞれ $\boldsymbol{y}{ }_{j \leftarrow \text { others }}^{\text {attn }}$ および $\boldsymbol{y}_{j \leftarrow j}^{\boxed{\mathrm{attn}+\mathrm{ln}}}+\boldsymbol{y}_{j}^{\mathrm{res+ln}}$ で定義する. 注意機構をべクトルノルムで分析した Kobayashi ら [12]に従い,ベクトルの和における各べクトルの影響の大きさをそのノルムで測る。ここでは,「混ぜた量」と「残した量」をそれぞれべクトルノルム $\left.\|\boldsymbol{y}_{j \leftarrow \text { other }}^{\mathrm{attn}+\mathrm{ln}}\right.\|$ および $\left.\|\boldsymbol{y}_{j \leftarrow j}^{\mathrm{attn}+\mathrm{ln}}+\boldsymbol{y}_{j}^{\mathrm{res}+\mathrm{ln}}\right.\|$ で測る.これらの大きさを比べることで,モデル内の注意機構・残差結合・層正規化部分においてどの程度の強さで混ぜ合わせが行われたかを確認する. ## 4 実験 Transformerを基盤とする代表的なモデルである BERT にテキストを入力し,その内部挙動について分析を行う.4.2節では各層における「混ぜる量」と 「残す量」を比べ,混ぜ合わせの強さを調べる. 4.3 節および 4.4 節では,混ぜ合わせに対する注意機構,残差結合,層正規化の働きを確認した. ## 4.1 実験設定 モデル事前学習済み BERT-base (uncased) を用いた. BERT-base は 12 層から構成され,その各層に図 1 で示した注意機構,残差結合,層正規化からなる構造が組み込まれている。また,追加で BERT-large についても実験を行い,結果を付録 Bにまとめた. データモデルへ入力するテキストデータとして, 既存研究 [4] に従い Wikipedia から抽出された 992 系列を用いた. ここで BERT の事前学習の設定に合わせ,各系列において全体の $12 \%$ 2) のトークンを [MASK]トークンに置換して入力した. ## 4.2 混ぜる強さの分析 BERT に 992 系列を入力し, 3.1 節で述べた方法でモデル内部における混ぜ合わせの強さを調べる。各層における注意機構・残差結合・層正規化部分で他の入力から混ぜた量 $\left.\|y_{j \leftarrow \text { others }}^{\text {attn+ln }}\right.\|$ と自身の入力から残した量 $\left.\|y_{j \leftarrow j}^{\sqrt{\text { attn+ln }}}+y_{j}^{\sqrt{\text { res+ln }}}\right.\|$ を計算し, 両者の合計に対する混ぜた量の割合を算出した. 各層で全出力ベクトルの平均をとった結果 (“全体”) に加え,対応するトークンに合わせて(1)[CLS],(2) [SEP], (3)[MASK],(4)ピリオド“,”またはカンマ“,”,(5) その他の五種類に分けた結果も報告する. 結果図 2 より, モデル内部の注意機構・残差結合・層正規化において「混ぜる作用」は “全体”で 11〜24\%と小さく,「残す作用」が支配的であることがわかった。これより, BERT 内部で埋め込みが層を登って更新される際に,前の層の情報をかなり保持しながら少しずつ情報が混ぜ合わされていくことが示唆される。これは BERT 内部における中間表現は,入力トークンを高精度に判別できるほど元の情 2) BERT の事前学習では,入力系列の $20 \%$ 選び,そのうち $80 \%$ (全体の 12\%)を[MASK] トークンに置換する。 報を残しているという Brunner ら [13] の報告と一致する.また,“全体” の傾向として後半層に比べて前半層の方が混ぜる作用が強いことがわかった. トークンの種類ごとの結果に着目すると,[CLS] では混ぜる作用が最終層でのみ $39 \%$ と他よりかなり大きい傾向があった. また,[MASK] では,中盤層で 25 30\%と混ぜる作用が比較的大きかった. 以上により, 前半層で全体的に情報を集めて準備をし, 中盤層で BERT の事前学習タスクである穴埋め予測(Masked Language Modeling)を解き,後半層でもう一つの事前学習タスクである次文予測 (Next Sentence Prediction)を解いていることが示唆される.また,[CLS] および [SEP] では,それぞれ前半層および中盤層で混ぜる作用が非常に小さかった. それらの層の注意機構では,これらの特殊トークンに対してアテンション重み $\alpha$ を大く割り振る一方で,あまり集めないという現象が報告されており [12],何らかの繋がりがあると考えられる。 ## 4.3 注意機構と残差結合の働き 前節で明らかになった「混ぜる作用ではなく残す作用が支配的」という挙動のメカニズムを調べるため, 層正規化を考慮しない状態で (1) 注意機構が混ぜる量,(2)注意機構が残す量,(3)残差結合が残す量を調べる. 式 1 より注意機構と残差結合は,注意機構の出力ベクトル $y_{j}^{\text {attn }}$ と, 残差結合が残すベクトル $\boldsymbol{x}_{j}$ の足し算によって統合される. また式 2 より, 注意機構の出力ベクトル $y_{j}^{\text {attn }}$ は自身の入力 $x_{j}$ から集めたべクトル $f_{j}^{\text {attn }}\left(x_{j}\right)$ とその他の入力から集めたべクトル $\sum_{i \in\{1, \ldots, n\} \backslash\{j\}} f_{j}^{\text {attm }}\left(\boldsymbol{x}_{i}\right)$ に分離できる. BERT 各層における,(1) 注意機構が混ぜる量 $\left.\|\sum_{i \in\{1, \ldots, n\} \backslash\{j\}} f_{j}^{\text {attn }}\left(\boldsymbol{x}_{i}\right)\right.\|$, ,(2) 注意機構が残す量 $\left.\|f_{j}^{\text {attn }}\left(\boldsymbol{x}_{j}\right)\right.\|$, (3)残差結合が残す量 $\left.\|\boldsymbol{x}_{j}\right.\|$ を測った. 結果図 3, 4, 5より, 残差結合が残す量は注意機構が混ぜる量および残す量に比べて遥かに大きく, BERT の各層において注意機構に比べて残差結合が支配的であることが分かった. また, 注意機構による残す作用は小さく, 残す作用のほとんどを残差結合に任せていることがわかった. 多くの先行研究で注意機構のみに着目した分析が行われ, 残差結合を考慮する先行研究でも注意機構と残差結合の力関係を 1:1 と仮定していた [14]が,実際には残差結合が支配的であった。 図 6 各層の注意機構・残差結合によるべクトル更新で「混ぜ合わせ」が担う割合. 図 7 各層における層正規化を考慮した際の残差結合に由来するべクトル ## 4.4 層正規化の作用 層正規化の働きについて理解を深めるため,層正規化によって「混ぜ合わせの強さ」と「残差結合が残す量」がどう変わるのかを調べた。 結果図 2 と 6 の比較から, 層正規化は全体的に混ぜ合わせの割合を下げる働きをしていることが分かった. 中でも [CLS] と [SEP] に対して割合を強く下げる傾向があった. また, 図 7 と 5 の比較から,層正規化は残差結合が足すべクトルを全体的に拡大していることが分かった.混ぜ合わせの割合を強く下げる [CLS] と [SEP] に対しては,特に強い拡大を行っていた. 以上のように層正規化は混ぜ合わせの強さに影響を与えていた。 ## 5 おわりに 本稿では,Transformer 内部における混ぜ合わせの強さを分析する方法を提案した. この方法を用いて BERT を分析し,各層において混ぜる作用ではなく残す作用が支配的であることを明らかにした.また,これまで盛んに分析されてきた注意機構の働きが,各層において支配的ではないことを示した。 今後は, RoBERTa[15] や fine-tuning した BERT など,より幅広くモデルを分析する。また, Transformer 内のより多くの作用を考慮に入れ,層全体やモデル全体での挙動を精緻に分析する方向性も興味深い。 謝辞. 本研究は JSPS 科研費 JP19H04425, JP20J22697 の助成を受けたものです. また本研究は, JST, ACTX,JPMJAX200S の支援を受けたものです。 ## 参考文献 [1] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is All you Need. In Advances in Neural Information Processing Systems 30 (NIPS), pp. 5998-6008, 2017. [2] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers) (NAACL-HLT), pp. 4171-4186, 2019. [3] Anna Rogers, Olga Kovaleva, and Anna Rumshisky. A Primer in BERTology: What we know about how BERT works. arXiv preprint arXiv:2002.12327, 2020. [4] Kevin Clark, Urvashi Khandelwal, Omer Levy, and Christopher D Manning. What Does BERT Look At? An Analysis of BERT's Attention. In Proceedings of the 2019 ACL Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 276-286, 2019. [5] Olga Kovaleva, Alexey Romanov, Anna Rogers, and Anna Rumshisky. Revealing the Dark Secrets of BERT. Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pp. 4364-4373, 2019. [6] Emily Reif, Ann Yuan, Martin Wattenberg, Fernanda B Viegas, Andy Coenen, Adam Pearce, and Been Kim. Visualizing and Measuring the Geometry of BERT. Advances in Neural Information Processing Systems 32 (NIPS), pp. 8594-8603, 2019. [7] Yongjie Lin, Yi Chern Tan, and Robert Frank. Open Sesame: Getting Inside BERT's Linguistic Knowledge. Proceedings of the 2019 ACL Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 241-253, 2019. [8] David Mareček and Rudolf Rosa. From Balustrades to Pierre Vinken: Looking for Syntax in Transformer Self-Attentions. In Proceedings of the 2019 ACL Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 263-275, 2019. [9] Phu Mon Htut, Jason Phang, Shikha Bordia, and Samuel R. Bowman. Do Attention Heads in BERT Track Syntactic Dependencies? arXiv preprint arXiv:1911.12246, 2019. [10] Alessandro Raganato and Jörg Tiedemann. An Analysis of Encoder Representations in Transformer-Based Machine Translation. In Proceedings of the 2018 EMNLP Workshop BlackboxNLP: Analyzing and Interpreting Neural Networks for NLP, pp. 287-297, 2018. [11] Gongbo Tang, Rico Sennrich, and Joakim Nivre. An Analysis of Attention Mechanisms: The Case of Word Sense Disambiguation in Neural Machine Translation. In Proceedings of the Third Conference on Machine Translation (WMT): Research Papers, pp. 26-35, 2018. [12] Goro Kobayashi, Tatsuki Kuribayashi, Sho Yokoi, and Kentaro Inui. Attention is not only a weight: Analyzing transformers with vector norms. In Proceedings of the 2020 Conference on Empirical Methods in Natural Language Processing (EMNLP), pp. 7057-7075, 2020. [13] Gino Brunner, Yang Liu, Damián Pascual, Oliver Richter, Massimiliano Ciaramita, and Roger Wattenhofer. On Identifiability in Transformers. In 8th International Conference on Learning Representations (ICLR), 2020. [14] Samira Abnar and Willem Zuidema. Quantifying attention flow in transformers. In Proceedings of the 58th Annual Meeting of the Association for Coтputational Linguistics, pp. 4190-4197, July 2020. [15] Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, and Veselin Stoyanov. RoBERTa: A Robustly Optimized BERT Pretraining Approach. arXiv preprint arXiv:1907.11692, 2019 . ## 付録 ## A 層正規化の分配 複数のベクトル $\left.\{z_{1}, \ldots, z_{n}\right.\} \subseteq \mathbb{R}^{d}$ の和で表される $\sum_{i=1}^{n} z_{i}$ に対して層正規化 $L N(\cdot)$ を計算する際,式 3 のように層正規化の作用を和の中の各ベクトル $z_{i}$ に分配するような形で,出力を $n$ 個のベクトルに分解できることを文中で述べた. ここでは,この分解に至る式変形について説明する。まずは層正規化の計算を以下のように展開する: $ \begin{aligned} \mathrm{LN}\left(\sum_{i} z_{i}\right) & =\overline{\sum_{i=1}^{n} z_{i}} \odot \gamma+\beta \\ & =\frac{\sum_{i=1}^{n} z_{i}-m\left(\sum_{i=1}^{n} z_{i}\right)}{s\left(\sum_{i=1}^{n} z_{i}\right)} \odot \gamma+\beta \end{aligned} $ ここで,分数部分の分子の第 2 項 $m\left(\sum_{i=1}^{n} z_{i}\right)$ について考える. $m\left(\sum_{i=1}^{n} z_{i}\right)$ は $\sum_{i=1}^{n} z_{i}$ の要素平均であり, 以下のように変形できる: $ \begin{aligned} m\left(\sum_{i=1}^{n} z_{i}\right) & =\frac{1}{d} \sum_{k=1}^{d}\left(\sum_{i=1}^{n} z_{i}\right)^{(k)} \\ & =\frac{1}{d} \sum_{k=1}^{d} \sum_{i=1}^{n} z_{i}^{(k)} \\ & =\sum_{i=1}^{n} \frac{1}{d} \sum_{k=1}^{d} z_{i}^{(k)} \\ & =\sum_{i=1}^{n} m\left(z_{i}\right) . \end{aligned} $ これに基づき,式 3 を以下のように導出できる: $ \begin{aligned} \mathrm{LN}\left(\sum_{i} z_{i}\right) & =\frac{\sum_{i=1}^{n} z_{i}-\sum_{i=1}^{n} m\left(z_{i}\right)}{s\left(\sum_{i=1}^{n} z_{i}\right)} \odot \gamma+\beta \\ & =\sum_{i=1}^{n} \frac{z_{i}-m\left(z_{i}\right)}{s\left(\sum_{i=1}^{n} z_{i}\right)} \odot \gamma+\beta . \end{aligned} $ ## B BERT-large における実験結果 4 節で BERT-base に対して行った実験を全く同じ設定で BERT-large でも行った結果を報告する。 ## B. 1 混ぜる強さの分析 図 8 より,BERT-large においても「混ぜる作用」は全体で 11 28\%と小さく, 「残す作用」が支配的であった. また, BERT-base の結果(図 2) と比べると, 最初の層と最終層を除いて BERT-large の方が「混ぜる作用」が小さく,層が増えた分だけゆっくりと混ぜ合わせが行われていると考えられる. また,[CLS] に対して強い混ぜ合わせを行 図 8 BERT-large 各層の注意機構・残差結合・層正規化によるべクトル更新で 「混ぜ合わせ」が担う割合. 図 10 BERT-large 各層における注意機構が残す量 $ \left.\|f_{j}^{\text {attn }}\left(\boldsymbol{x}_{j}\right)\right.\| . $ 図 9 BERT-large 各層における注意機構が混ぜる量 $\left.\|\sum_{i \in\{1, \ldots, n\} \backslash\{j\}} f_{j}^{\boxed{\text { attn }}}\left(x_{i}\right)\right.\|$. 図 11 BERT-large 各層における残差結合が残す量 $\left.\|x_{j}\right.\|$. うのが,BERT-base では最終層で,BERT-large では第一層という違いを確認した。 ## B. 2 注意機構と残差結合の働き 図 9,10,11より,BERT-large においても,残差結合が残す量が注意機構が混ぜる量および残す量に比べてはるかに大きく,各層において注意機構に比べて残差結合が支配的であることがわかった. ## B. 3 層正規化の作用 スペースの都合で結果の図は割愛するが,BERT-large においても,層正規化は全体的に混ぜ合わせの割合を下げており,特に [CLS] と [SEP] で強く割合を下げていた. ただし,第一層の [CLS] に対しては混ぜ合わせを強める作用を行っていた。また,層正規化は BERT-large においても残差結合が足すべクトルを全体的に拡大しており,特に [CLS], [SEP], [MASK] に対して強い拡大を行っていた.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A7-3.pdf
# 単語埋め込みの決定的縮約 仲村祐希 1 鈴木潤 1,2 高橋諒 1,2 乾健太郎 1,2 1 東北大学 2 理化学研究所 yuki.nakamura.r1@dc.tohoku.ac.jp, \{jun.suzuki, ryo.t, inui\}@ecei.tohoku.ac.jp ## 1 はじめに 自然言語処理分野の多くのタスクで,深層学習による方法論が成功を収めている。自然言語処理タスクで主に処理対象となる文章を深層学習により処理する場合,文字や単語などの離散的な記号を連続的な数值に変換する必要がある. その橋渡しとして用いられるのが単語埋め込みの技術である. つまり,深層学習に基づく自然言語処理において単語埋め込みは,必要不可欠な要素技術に位置付けられる。また,それ故に単語埋め込みの機能拡張や性能向上は様々な方法論に寄与する波及効果の高い研究成果になることが期待できる。 単語埋め込みの改善の代表的な研究トピックとして,必要記憶容量の削減に関する研究がこれまで多く取り組まれてきた $[1,2,3,4,5,6,7]$. これは, 語彙数が大きい場合に,単語埋め込みを保持するために必要な記憶容量が比較的大きくなるため, 結果として深層学習のモデルの中でも非常に大きな容量を占めることがしばしばおこることに起因する.単語埋め込みの必要記憶容量削減には, 似た単語には似たべクトルが割り当てられているという性質を利用して,似ている単語間で効果的にパラメータを共有する方法論が現在主流である $[2,4,5]$. その代表的な方法論として,単語埋め込みを離散符号とコードブックに分解し記憶容量を削減する手法が知られている. さらに,この離散符号と基底ベクトルを深層学習により同時学習する手法が提案されており, 高い圧縮率を達成している. これらの方法論は記憶容量の削減の観点では成功しているが, 学習時の最適化関数は局所解があることやサンプリングを必要とすることなどの複数の要因により, 完全に同じデー タ, 同じ手順を用いたとしても, 得られる離散符号が毎回異なるという性質を持つ. そこで,本研究では離散符号を決定的アルゴリズムにより獲得する方法を提案し,その性能を検証す る. 元の単語埋め込み行列の特徴を保持したまま離散符号を獲得することで,似た単語には似た離散符号が割り当てられるように獲得する。この方法で獲得できる離散符号は乱数によらず決定的に求まり,再現性の面で優れている。また,この方法によって獲得する離散符号に適した効果的な基底べクトルの合成方法も合わせて提案する。 ## 2 関連研究 単語埋め込み行列を離散符号とコードブックに分解し記憶容量を削減する手法について様々な研究がされてきている. Shu らは Gumbel-softmax トリックを用いることで,離散符号とコードブックを深層学習を用いて同時学習する手法を提案した [2]. また, Tissier らは単語埋め込み行列の記憶容量の削減と演算の高速化を目指し,オートエンコーダで単語埋め込み行列をバイナリベクトルにエンコードする手法を提案した [4]. さらに,Kim らは下流タスクの各単語の重要度に応じて, 離散符号長を合わせて学習することで効率よく記憶容量を削減する手法を提案した [5]. これらの既存研究は, 深層学習べー スで離散符号を獲得するため離散符号は乱数のシー ドによって異なる. 本研究での提案法は,決定的アルゴリズムで乱数のシードによらず,一意に定まる離散符号を獲得するという点でこれらの手法とは異なる。 ## 3 提案手法 提案手法は離散符号の獲得(3.1 節)とコードブックの学習(3.2 節)の二つの処理で構成される。離散符号を決定的に獲得するためのアイデアは,1 次元 $K$ 平均法の最適解は一意に定まり,かつ,動的計画法により多項式時間で求まる [8],という特徴を離散符号の獲得に利用することである. すなわち,(1)単語埋め込み行列をある 1 次元で切り出し, (2) 1 次元 $K$ 平均法により各単語のクラス番号としての離 散符号を獲得する。(1)を異なる次元で $M$ 回繰り返すことで,各単語に対して $M$ 個の離散符号を得る. また,単語埋め込みは冗長性が多く,全ての次元を使うのは記憶容量を削減する上で効率が悪い. そこで,主成分分析を用いて単語埋め込み行列の次元削減も合わせて活用する. 最終的に,主成分分析で削減した行列の各列ベクトルに対して 1 次元 $K$ 平均法を繰り返し適用し離散符号を獲得する。主成分分析も決定的な処理であるため, 1 次元 $K$ 平均法と合わせて一意に定まる離散符号が得られる。 ## 3.1 離散符号の獲得:アルゴリズム 離散符号を獲得するアルゴリズムを Algorithm 1 に示す. まず,記憶容量の削減対象の単語埋め込み行列を $\boldsymbol{E} \in \mathbb{R}^{|V| \times H}$ とする. 前述の通り, まず単語埋め込み行列 $\boldsymbol{E}$ の平均が 0 , 分散が 1 になるように規格化し (Normalization), $\bar{E}$ を得る. その後, $\bar{E}$ に対して主成分分析 (PCA) を適用し主成分得点の行列 $\tilde{\boldsymbol{E}} \in \mathbb{R}^{|V| \times M}$ を得る. この行列 $\tilde{\boldsymbol{E}}$ の各列べクトルを対象に 1 次元 $K$ 平均法 (1dKmeans) を適用し列べクトルに含まれる $|V|$ 個の要素 (スカラー値) のクラスタリングを行う.また,この処理を $M$ 個の列べクトルに対して先頭から順番に実行する。このとき,各 1 次元 $K$ 平均法で得られたクラス番号を単語に割り振られた離散符号とみなすことができる。よっ $\tau$, 最終的には各 1 次元 $K$ 平均法で $i$ 番目の要素に割り振られた $M$ 個のクラス番号を並べたものを $i$ 番目の単語に割り振られた離散符号とする。つまり,次元削減後の次元数を $M$ ,クラスタの数を $K$ とすると離散符号は $\boldsymbol{C} \in\{1,2, \ldots, K\}^{|V| \times M}$ と表現できる. この手法は,各単語埋め込みを順序を保持したま ま格子点上に埋め込み直していると考えることができる。そのため,十分に元の特徵を保持したまま離散符号化することができ,獲得した離散符号には,似たような単語には似たような離散符号が割り当てられていることが期待できる. ## 3.2 コードブックの定義と学習 獲得した離散符号に対して,元の単語埋め込み行列を再現するようにコードブックを学習する.本手法で獲得した離散符号には各次元毎に順序関係が埋め込まれていると考え,コードブックとして基底べクトルに離散符号に対応した重みをつけたものを用いる.具体的には,ある単語 $w$ について離散符号 $\boldsymbol{C}(w)=\left[C_{1}(w), C_{2}(w), \ldots, C_{M}(w)\right]\left(C_{i}(w) \in\right.$ $\{1,2, \ldots, K\})$ が与えられているとき,単語埋め込みの近似行列 $\boldsymbol{E}^{\prime} \in \mathbb{R}^{|V| \times H}$ を基底ベクトル $\boldsymbol{A} \in \mathbb{R}^{M \times H}$ と離散符号に対応する重み $\alpha \in \mathbb{R}^{M \times K}$ を用いて次のように計算する。 $ \boldsymbol{E}^{\prime}(w)=\sum_{i=1}^{M} \alpha_{i, c_{i}(w)} \boldsymbol{A}_{\boldsymbol{i}} $ この単語埋め込み近似行列と記憶容量削減対象の単語埋め込み行列の誤差が小さくなるように学習を行う。具体的には,基底ベクトル $\boldsymbol{A}$ と重み $\alpha$ のパラメータを以下の誤差関数 $L$ が最小となるように学習する。 $ L=\frac{1}{|V|} \sum_{w \in V}\left.\|\boldsymbol{E}(w)-\boldsymbol{E}^{\prime}(w)\right.\|^{2} $ ## 4 実験 本研究では,単語埋め込みの内的評価にあたる単語類推タスク (Analogy),単語類似性判定タスク (Similarity),文穴埋めタスク (SentComp)の 3 つと,外的評価にあたる機械翻訳タスクを用いて実験を行った. 実験では各タスクで一般的に用いられる評価指標の值とデータ圧縮比のトレードオフの観点で提案法を評価した. データ圧縮比は記憶容量削減前と記憶容量削減後の記憶容量の比である。なお,記 図 1 データ圧縮比に対する単語埋め込み評価タスクの各評価指標の値の変化. 評価指標は Analogy と SentComp は正答率,Similarity はスピアマンの順位相関係数である。 Code の結果はコサイン類似度で評価しているため中心化を行った結果を報告する。 憶容量は理論的に計算を行った。また,比較対象のベースラインには Shu ら [2] の手法を用いた. ## 4.1 離散符号の獲得とコードブックの学習 提案法,および,比較手法である Shu らの方法では離散符号を獲得するために,あらかじめ単語埋め込み行列を用意しておく必要がある. 単語埋め込みの評価タスクでは学習済み単語埋め込みである GloVe,機械翻訳タスクでは学習した深層学習モデルの埋め込み層のパラメータを記憶容量削減対象として用いた. コードブックの学習は, 学習率は 0.0001,バッチ数は 256,1000 エポックで Adam を用いてパラメータの更新を行った.また,コードブックの学習の安定性のために基底べクトルの重みの初期値には離散符号を獲得したときのクラスの重心を用いた。 ## 4.2 単語埋め込みの評価タスク このタスクでは単語埋め込み行列から獲得した離散符号が単語埋め込み行列の情報を含んでいるかどうか調べるために, 単語類推タスク, 単語類似性判定タスク,文穴埋めタスクの実験を行った. 実験には語彙数 400000, 300 次元の学習済み単語埋め込みの GloVe.6B.300d を用いた。 データセット: 単語類似性判定タスクでは 9つ $[9,10,11,12,13,14,15,16]$, 単語類推タスクでは 3 つ [17,18], 文穴埋めタスクでは 1 つ [17] のデータセットを用いて実験を行った。 実験結果: 実験の結果を図 1 , 表 2 に示す. Code は離散符号のみ,Real はコードブックを使って単語埋め込みを再構築した際の結果を示している。ま表 2 単語埋め込み評価タスクにおける評価指標の値を落とさずに達成できるデータ圧縮比. acc は正答率, $\rho$ はスピアマンの順位相関係数,ratio はデータ圧縮比を表す. た,実際に獲得した離散符号を表 1 に示す.まず,全体の実験結果として提案法の Code がデータ圧縮比を上げたときの評価指標の低下が小さく良い結果が得られている. 提案法の Code と Realを比較したときに Code の方が良い結果が得られているのは,離散符号の方がコードブックに対して占めている記憶容量が大きく情報量が大きいためだと考えられる. 次に,Shu らの Code の Analogy が低い理由は,離散符号がどの基底べクトルを使用するかしか表現しておらず,コードの足し引きに意味がないためである。一方で,提案法の離散符号には順序関係が存在するため Analogy で良い結果が得られている. これらのことから,提案手法により得られる離散符号には元の単語埋め込み行列の情報が十分に含まれていることが確認された。また,提案手法が SentComp と Analogy でべースラインよりも高い結果が得られている理由について,似た単語に似た離散符号を割り当てたことにより正則化の効果が得られるためだと考えられる. 解の安定性: 既存手法の安定性を調べるために,Shu らの手法を用いてデータ圧縮比を固定して複数回単語埋め込み行列の記憶容量の削減を行い評価を行った. 実験はデータ圧縮比 11 倍でコードブックを使って単語埋め込み行列を再構築したものを用いた.Shu らの手法で測定した評価指標の最大値と最小値の差は,Analogy では 1.29, SentComp では 1.82, Similarity では 0.2 であった. 具体的な測定結果は付録 $\mathrm{A}$ に示す.このように深層学習べースによる記憶容量の削減は乱数のシードによって結果が大きく変化してしまう。一方で提案手法の離散符号を用いた場合,乱数のシード值によらず得られる離散符号は決定的であるため結果の変化はない. よって離散符号の個数 $M$ と離散符号の種類数 $K$ を決めてしまえば,離散符号が決定的に獲得できるという提案手法の特徵は大きな利点である. 図 2 データ圧縮比に対する BLEU スコアの変化. ## 4.3 機械翻訳タスク ニューラルネットワークの埋め込み層に対して本手法の記憶容量の削減が有効であるかを確認するために,機械翻訳モデルの埋め込み層のパラメータに対して記憶容量の削減を行い, データ圧縮比と翻訳精度の関係を調査した。 データセット: WMT 2016 英独翻訳タスクのデータセットを利用した. 検証データは newstest2013,テストデータは newstest2014を用いた. Byte pair encoding [19] を適用し, 語彙数は英語で 35856 語,独語で 35456 語となった. 実験設定: 機械翻訳モデルとして Transformer に基づくモデル [20] と,LSTM のエンコーダ部分を双方向にしたモデル [21]を用いた. 基本的な学習設定は Ott ら [22] に従う. 詳細なハイパーパラメタは付録 $\mathrm{C}$ を参照されたい.ただし,モデルのエンコー ダとデコーダのそれぞれの埋め込み層のパラメータのデータ圧縮比を測定するため語彙の共有は行わなかった. 各モデルの学習後に, 提案法および Shu らの手法によって埋め込み層の記憶容量の削減を行った. 翻訳結果の出力にはビーム幅 10 のビーム探索を用いた。評価指標としてテストデータに対する sacreBLEU [23] を報告する。 実験結果: 実験の結果を図 2,表 3 に示す。まず,LSTM の結果についてエンコーダ,デコーダ共に提案手法の方がデータ圧縮比を上げても BLEU スコアの低下が抑えられていることがわかる. 特にデコーダについては BLEU スコアをほぼ落とさずに $(24.3 \rightarrow 24.1)$ 記憶容量を 199 分の 1 にすることができた. 次に, Transformer の結果についても同様に提案手法の方がデータ圧縮比を上げても BLEU スコ表 3 機械翻訳タスクにおけるスコアを落とさずに達成できる圧縮比 アの低下が抑えられていることがわかる.LSTM と Transformer では LSTM の方がより記憶容量を削減できることが確認された。 今回用いた LSTM の総パラメータ数は約 2.4 億, Transformer の総パラメータ数は約 2.9 億であり,各埋め込み層のパラメータの占める割合は LSTM では約 15\%,Transformerでは約 13\% である.そのため,埋め込み層の記憶容量削減後でもモデルの必要記憶容量は依然として大きい.そこで,モデルのさらなる記憶容量の削減手法として 8-bit 量子化などがあり,併用して適用することでさらにモデル全体の記憶容量を削減することが期待できる。 解の安定性: 提案手法と Shu らの手法を用いて, 複数回データ圧縮比 13 倍で記憶容量を削減し BLEU スコアの変化を測定した. 実験結果としてスコアの最大值と最小値の差は Shu らの手法は 0.7,提案手法は 0.1 であり, 提案手法の方が安定性が高かった. しかし, データ圧縮比を上げると提案手法でもスコアが変動し,安定性の低下が見られた。なお,具体的な実験結果は付録 B に示す. ## 5 おわりに 1 次元 $K$ 平均法および主成分分析を組み合わせた決定的アルゴリズムによる単語埋め込みに対する離散符号の獲得手法を提案した。また,得られた離散符号に適した効果的な基底べクトルの合成方法も合わせて提案した. 本手法は,既存の手法と比較し離散符号を乱数のシードによらず決定的に獲得することができるため, 再現性に優れている. 実験では本手法で獲得した離散符号には単語埋め込み行列の情報が十分に含まれていることを実験で明らかにした. ## 謝辞 本研究の一部は,JSPS 科研費 JP19H04162,及び JSPS 科研費 JP18J20936 の助成を受けたものです. ## 参考文献 [1] Jun Suzuki and Masaaki Nagata. Learning compact neural word embeddings by parameter space sharing. In Subbarao Kambhampati, editor, Proceedings of the Twenty-Fifth International Joint Conference on Artificial Intelligence, IJCAI 2016, New York, NY, USA, 9-15 July 2016, pp. 2046-2052. IJCAI/AAAI Press, 2016. [2] Raphael Shu and Hideki Nakayama. Compressing word embeddings via deep compositional code learning. In International Conference on Learning Representations, 2018. [3] Shota Sasaki, Jun Suzuki, and Kentaro Inui. Subword-based Compact Reconstruction of Word Embeddings. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3498-3508, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [4] Julien Tissier, Christophe Gravier, and Amaury Habrard. NearLossless Binarization of Word Embeddings. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 33, No. 01, pp. 7104-7111, jul 2019. [5] Yeachan Kim, Kang-Min Kim, and SangKeun Lee. Adaptive Compression of Word Embeddings. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3950-3959, Stroudsburg, PA, USA, 2020. Association for Computational Linguistics. [6] Sho Takase and Sosuke Kobayashi. All word embeddings from one embedding. In Hugo Larochelle, Marc'Aurelio Ranzato, Raia Hadsell, Maria-Florina Balcan, and Hsuan-Tien Lin, editors, Advances in Neural Information Processing Systems 33: Annual Conference on Neural Information Processing Systems 2020, NeurIPS 2020, December 6-12, 2020, virtual, 2020. [7] Aliakbar Panahi, Seyran Saeedi, and Tom Arodz. word2ket: Spaceefficient word embeddings inspired by quantum entanglement. In International Conference on Learning Representations, 2020. [8] Allan Grønlund, Kasper Green Larsen, Alexander Mathiasen, Jesper Sindahl Nielsen, Stefan Schneider, and Mingzhou Song. Fast Exact k-Means, k-Medians and Bregman Divergence Clustering in 1D. pp. 1-16, 2017. [9] G. Miller and W. Charles. Contextual correlates of semantic similarity. Language and Cognitive Processes, Vol. 6, pp. 1-28, 1991. [10] Herbert Rubenstein and John B. Goodenough. Contextual correlates of synonymy. Communications of the ACM, Vol. 8, pp. 627-633, 1965. [11] Eneko Agirre, Enrique Alfonseca, Keith Hall, Jana Kravalova, Marius Paşca, and Aitor Soroa. A study on similarity and relatedness using distributional and WordNet-based approaches. In Proceedings of Human Language Technologies: The 2009 Annual Conference of the North American Chapter of the Association for Computational Linguistics, pp. 19-27, Boulder, Colorado, June 2009. Association for Computational Linguistics. [12] Elia Bruni, Nam-Khanh Tran, and M. Baroni. Multimodal distributional semantics. Journal of Artificial Intelligence Research, Vol. 49, pp. 1-47, 2014. [13] Kira Radinsky, Eugene Agichtein, Evgeniy Gabrilovich, and Shaul Markovitch. A word at a time: Computing word relatedness using temporal semantic analysis. New York, NY, USA, 2011. Association for Computing Machinery. [14] Eric Huang, Richard Socher, Christopher Manning, and Andrew $\mathrm{Ng}$. Improving word representations via global context and multiple word prototypes. In Proceedings of the 50th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 873-882, Jeju Island, Korea, July 2012. Association for Computational Linguistics. [15] Thang Luong, Richard Socher, and Christopher Manning. Better word representations with recursive neural networks for morphology. In Proceedings of the Seventeenth Conference on Computa- tional Natural Language Learning, pp. 104-113, Sofia, Bulgaria, August 2013. Association for Computational Linguistics. [16] Felix Hill, Roi Reichart, and Anna Korhonen. SimLex-999: Evaluating semantic models with (genuine) similarity estimation. Computational Linguistics, Vol. 41, No. 4, pp. 665-695, December 2015. [17] Tomás Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. Efficient estimation of word representations in vector space. In Yoshua Bengio and Yann LeCun, editors, 1st International Conference on Learning Representations, ICLR 2013, Scottsdale, Arizona, USA, May 2-4, 2013, Workshop Track Proceedings, 2013. [18] Tomas Mikolov, Wen-tau Yih, and Geoffrey Zweig. Linguistic regularities in continuous space word representations. In Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 746-751, Atlanta, Georgia, June 2013. Association for Computational Linguistics. [19] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. Association for Computational Linguistics. [20] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30, pp. 5998-6008. Curran Associates, Inc., 2017. [21] Thang Luong, Hieu Pham, and Christopher D. Manning. Effective approaches to attention-based neural machine translation. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 1412-1421, Lisbon, Portugal, September 2015. Association for Computational Linguistics. [22] Myle Ott, Sergey Edunov, David Grangier, and Michael Auli. Scaling neural machine translation. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 1-9, Brussels, Belgium, October 2018. Association for Computational Linguistics. [23] Matt Post. A call for clarity in reporting BLEU scores. In Ondrej Bojar, Rajen Chatterjee, Christian Federmann, Mark Fishel, Yvette Graham, Barry Haddow, Matthias Huck, Antonio Jimeno-Yepes, Philipp Koehn, Christof Monz, Matteo Negri, Aurélie Névéol, Mariana L. Neves, Matt Post, Lucia Specia, Marco Turchi, and Karin Verspoor, editors, Proceedings of the Third Conference on Machine Translation: Research Papers, WMT 2018, Belgium, Brussels, October 31 - November 1, 2018, pp. 186-191. Association for Computational Linguistics, 2018. ## A単語埋め込み評価タスクの安定性評価の実験結果 表 4 単語埋め込み評価タスクをランダムシードで複数回実験したときの評価指標の値の変化. ## B機械翻訳タスクの安定性評価の実験結果 ## C 機械翻訳タスクの学習設定 学習率は Transformer は 0.0005 , LSTM は 0.001 とした. LSTM と Transformer 両方のモデルにドロップ率 0.3 のドロップアウトを適用した. GPU 4 台で分散学習を行い,GPU 1 台のバッチサイズは Transformer は 64, LSTM は 1 とした.また,パラメータの更新は Transformer は 10000 回,LSTM は 150000 回行った. LSTM には勾配のクリップを 1.0 に設定した。また,最終的に得られたパラメータの直近 10 エポックのチェックポイントの平均をとった值を最終的なパラメータとして用いた。
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A7-4.pdf
# 階層コード表現を用いた上位下位関係の識別 水木栄 東京工業大学情報理工学院 sakae.mizuki@nlp.c.titech.ac.jp } 岡崎直観 東京工業大学情報理工学院 okazaki@c.titech.ac.jp ## 1 はじめに 単語間の上位下位関係を表す語彙知識は,含意関係認識 [1] やテキスト生成 [2] など幅広いタスクで用いられる。また, 多数の上位下位関係を階層構造に集約すると,タクソノミを構築できる [3]. こうした中で上位下位関係識別は, タクソノミの自動構築を実現する基礎技術として位置付けられている [4]. タクソノミ構築を志向して上位下位識別タスクを解くうえでは, 識別精度だけでなく, 推論結果が推移性や反対称性を満たすことが重要である [4]. 前者は単語分散表現と語彙知識を併用できる Semantic Specialization が, 後者は順序関係を定義可能な Order Embeddings が有望であるが, 両者を兼ね備えた手法は提案されていない。 本研究では学習ずみ単語分散表現を階層性のあるコード表現に変換して, 単語ぺアの上位下位関係らしさを計量する方法を提案する. 提案手法により得られた階層コードの例を, 付録 $\mathrm{A}$ の表 4 に示す.これにより, Semantic Specialization の長所である単語分散表現の活用と, Order Embeddings の長所である推移性 ・ 反対称性の両立を志向する. また WordNet から得られる語彙知識を用いて学習することにより,上位下位関係識別タスクにおいて既存手法を上回る性能が実現できることを報告する. 本研究の貢献は次の 3 点である. 分散表現を,階層性を備えたコード表現に変換する手法の提案. コード表現を用いて, 単語ぺアの上位下位関係の程度を計量する手法の提案. 提案手法の上位下位関係識別タスクへの有効性を,実験的に示したこと。 ## 2 既存研究 上位下位関係識別とは, 与えられた単語ぺア, たとえば (animal,dog) が上位下位関係か否かを識別するタスクである. 本研究の設定は, WordNet のような汎用的かつ大規模な語彙資源から得られる知識を訓練データとする表現学習である. 獲得した表現 を直接用いて上位下位関係を推論する,同様の設定に従う既存研究は, Semantic Specialization, Order Embeddings の 2 つである. また, 本研究の提案手法と関連性が深いのはコード学習の手法である. Semantic Specialization とは, 語彙資源から得られる単語間の意味関係を単語分散表現に反映する手法の総称である. その長所は, 文脈類似性に基づく意味的類似度と, 語彙資源に基づく詳細な意味関係の両方を獲得できることである.特に上位下位関係の場合は, 分散表現のノルム長さにより意味階層を, コサイン類似度により関係の強さを表現する方法が提案されている [5]. Vulic ら [6] はこの表現方法に則り, 上位下位 - 同義 - 対義関係の語彙知識を反映した単語分散表現を得る手法を提案し,上位下位関係識別タスクで最高精度を報告している。 Order Embeddings[7] とは, 順序関係を定義可能な表現形式または空間による埋め込み表現の総称である. その長所は, 順序集合の定義により推移性 ${ }^{1)}$ および反対称性 ${ }^{2}$ という,タクソノミが一般に有する性質がおのずと満たされることである.既存研究では確率分布 [8] や超直方体 [9] などを用いる手法が提案されている. コード学習とは, 連続空間上のベクトルを $\mathrm{M}$ 進 $\mathrm{N}$桁の離散ベクトルに変換する手法である.この手法の長所は,連続空間上の類似性を維持したまま離散空間上でコンパクトな表現を得ることである.既存研究では, モデル圧縮 [10] やクラスタリング [11] に応用されている。一方で, 本研究が目指す階層性を備えたコードを学習する手法は提案されていない。 ## 3 提案手法 ## 3.1 階層コードおよび上位下位関係の定義 本論文の階層コードの定義は $\mathrm{M}$ 進 $\mathrm{N}$ 桁, ただしひとたび 0 が出現したら後続桁はすべて 0 となる離  図 1 変換器のアーキテクチャ. 角丸は変数, 直角は関数, 点線は誤差逆伝搬なしを表す. 記号は数式に準拠 散ベクトルである.たとえば $[3,1,0,0]$ は階層コー ドである. 深さ $\mathrm{N} \cdot$ 最大幅 $\mathrm{M}$ の木構造は, 幅優先符号化により階層コードに変換できる. ここから直感的にわかるように,階層コードを用いて上位下位関係を定義できる. すなわちa) 上位より下位のほうが非ゼロ桁数が多く, かつ b) 非ゼロ桁の值がすべて一致する関係であると定義すればよい. たとえば $([3,1,0,0],[3,1,7,0])$ は上位下位関係である. ## 3.2 変換器(エンコーダ) 変換器 (エンコーダ) は, 単語分散表現 $\boldsymbol{v}$ を進 $\mathrm{N}$ 桁の階層コード $\boldsymbol{C}$ の確率分布 $P(\boldsymbol{C})$ に変換する関数である. LSTM による再帰的計算および Gumbel-Softmax Trick [12] による擬似サンプリングを用いて, 下位桁が上位桁の值に依存するような関数をモデリングする. アーキテクチャの模式図を図 1 に掲載する。 $d$ 桁目の階層コードを表す確率変数を $C_{d}$ とする.階層コードの定義 3.1 より $C_{d}$ の条件付分布は $ \begin{aligned} & P\left(C_{d}=a \mid C_{<d}\right) \\ & =1\{a=0\} P\left(C_{d-1}=0 \mid C_{<d-1}\right) \\ & +P\left(C_{d}=a \mid C_{d-1} \neq 0, C_{<d}\right) P\left(C_{d-1} \neq 0 \mid C_{<d-1}\right) \end{aligned} $ と表される.つまりゼロを出力する確率は桁が進むにつれて単調増加する. そこでLSTMを用いて, $d-1$ 桁目がゼロでない場合の条件付確率 $P\left(C_{d} \mid C_{d-1} \neq 0, C_{<d}\right)$ のカテゴリカル分布パラメータ $\pi_{d}^{\prime}$ をモデリングする. $ \begin{aligned} \boldsymbol{\pi}_{d}^{\prime} & =\operatorname{Softmax}\left(\operatorname{Linear}\left(\boldsymbol{h}_{d}\right)\right) \\ \boldsymbol{h}_{d} & =\operatorname{LSTM}\left(\left[\boldsymbol{v} ; \operatorname{Linear}\left(\hat{\boldsymbol{c}}_{d-1}\right)\right], \boldsymbol{h}_{d-1}\right) \end{aligned} $ ここで $\boldsymbol{v}$ は単語分散表現, ; はベクトルの連結, Linear は線形変換層を表す. $\hat{\boldsymbol{c}}_{d-1}$ は, $d-1$ 栓目の值の one-hot vectorを連続近似したものである. 訓練時は Gumbel-Softmax Trick (式中 GS)による擬似サンプリング(ただし誤差逆伝搬はしない:式中 detach), 推論時はカテゴリカル分布パラメータをパススルーで与える. $ \hat{\boldsymbol{c}}_{d-1}= \begin{cases}\operatorname{detach}\left(\mathrm{GS}\left(\boldsymbol{\pi}_{d-1}\right)\right) & \text { 訓練時 } \\ \boldsymbol{\pi}_{d-1} & \text { 推論時 }\end{cases} $ 最後に, 式 1 に従って $\pi_{d}^{\prime}$ を補正し, 条件付確率 $P\left(C_{d} \mid C_{<d}\right)=\pi_{d}$ を求める. $ \begin{aligned} \pi_{d, 0} & =\pi_{d-1,0}+\left(1-\pi_{d-1,0}\right) \pi_{d, 0}^{\prime} \\ \pi_{d,>0} & =\frac{\left(1-\pi_{d, 0}\right)}{\left(1-\pi_{d, 0}^{\prime}\right)} \pi_{d,>0}^{\prime} \end{aligned} $ ## 3.3 上位下位関係の計量 上位下位関係の計量は, 単語分散表現ぺア $\left(v^{s}, v^{t}\right)$ を変換した階層コード $\left(\boldsymbol{C}^{s}, \boldsymbol{C}^{t}\right)$ を用いる。ふたつの階層コードを比較すると, その結果はかならず, 包含・一致・その他のいずれかになる.上位下位関係の定義 3.1 より, 判定関数 RELATION は Algortithm 1 として実装できる. したがって上位下位関係にある確率 $P(s \prec t)$ は, 判定関数が包含 $(=1)$ を返す期待值となる。同様に,非上位下位関係の確率 $P(s \nprec t)$ は,判定関数がその他 $(=-1)$ を返す期待值となる. $ \begin{aligned} & P(s \prec t)=\underset{P\left(\boldsymbol{C}^{s}\right), P\left(\boldsymbol{C}^{t}\right)}{\mathbb{E}}\left[\operatorname{RELATION}\left(\boldsymbol{C}^{s}, \boldsymbol{C}^{t}\right)=1\right] \\ & P(s \nprec t)=\underset{P\left(\boldsymbol{C}^{s}\right), P\left(\boldsymbol{C}^{t}\right)}{\mathbb{E}}\left[\operatorname{RELATION}\left(\boldsymbol{C}^{s}, \boldsymbol{C}^{t}\right)=-1\right] \end{aligned} $ ただし実際には全桁の同時分布の期待值は扱えないため,式 4 の擬似サンプルで近似的に計算する. ## 3.4 目的関数 変換器(エンコーダ)を最適化する際の目的関数は, 上位下位関係の識別, 再構築損失, 非ゼロ桁数 と分散表現の相互情報量の重み付き和とする. 原理的には上位下位関係の識別のみを最適化すればよいが,再構築損失および相互情報量を補助的に併用することで,コードの分散を促す $[10,11]$. $ L=L_{h}+\alpha L_{\text {reconst }}+\beta L_{\mathrm{mi}} $ 上位下位関係の識別に対する目的関数 $L_{h}$ は,クロスエントロピー誤差として定義する。 $ L_{h}=\sum_{s_{i}, t_{i}, y_{i} \in \mathbb{H}^{+} \cup H_{-}^{-}} y_{i} P(s \prec t)+\left(1-y_{i}\right) P(s \nprec t) $ ただし $\mathbb{H}^{+}=\left(s_{i}, t_{i}, y_{i}=1\right)$ は, 語彙知識に含まれる上位下位語ぺアである. また $\mathbb{H}^{-}=\left(s_{i}, t_{i}, y_{i}=0\right)$ は, $\mathbb{H}^{+}$から機械的に生成した非上位下位語ペアである (3.5 節で述べる). 再構築損失に対する目的関数 $L_{\text {reconst }}$ は, 階層コー ドから再構築した分散表現と, オリジナルの分散表現との L2 誤差として定義する。 $ \begin{gathered} L_{\text {reconst }}=\sum_{i \in \mathbb{V}}\left.\|\hat{\boldsymbol{v}}_{i}-\boldsymbol{v}_{i}\right.\| \\ \hat{\boldsymbol{v}}=\frac{\|\boldsymbol{v}\|}{\left.\|\hat{\boldsymbol{v}}^{\prime}\right.\|} \hat{\boldsymbol{v}}^{\prime}, \hat{\boldsymbol{v}}^{\prime}=\sum_{d=0}^{N-1} \sum_{a=0}^{M-1} \hat{c}_{d, a} \boldsymbol{e}_{d, a} \end{gathered} $ ただし $\mathbb{V}$ は,単語分散表現の語彙である. また $\boldsymbol{e}_{d, a}$ は, $d$ 桁目の值 $a$ に割り当てた基底ベクトルである.基底ベクトルは他のモデルパラメータと同様に, 訓練時に最適化する. 非ゼロ行数と分散表現の相互情報量に対する目的関数 $L_{\mathrm{mi}}$ は, 階層コードから求まる非ゼロ桁数と,単語分散表現との相互情報量として定義する。 $ L_{\mathrm{mi}}=-\mathrm{I}(S ; V), S=\text { length }(\hat{\boldsymbol{C}}) $ ただし length(.) は, 非ゼロ桁数を返す関数である. ## 3.5 非上位下位語ペア(負例)の生成 語彙知識から得られるのは上位下位語ぺアのみである、そこで順序反転および乱択を用いて,個別の上位下位語ペアから 5 つの非上位下位語ペアを生成する. 順序反転は単語順序の交換, 乱択は片方の単語をランダムサンプリングした単語と交換する操作である. 乱択は, $30 \%$ の確率で分散表現の最近傍 100 語から, $70 \%$ の確率で全語彙からサンプリングする. 非上位下位語ペアの生成例を表 1 に示す. ## 4 実験 先行研究 $[5,6]$ に倣い, 分類タスク 3 種類: BLESS-hyponymy, WBLESS, BIBLESS および, ラン表 1 非上位下位語ペアの生成 キングタスク 1 種類: HyperLex を用いて提案手法を評価する。これらの 4 つのタスク詳細および評価方法を付録 $\mathrm{B}$ に掲載した。また,提案手法のモデルの学習における詳細な実験設定を付録 $\mathrm{C}$ に掲載した。 表 2 に,提案手法の性能および先行研究との比較を示す. 提案手法は, 分類タスクにおいて高い性能を示し, 特に BLESS-hyponymy および BIBLESS では先行研究の最高精度をそれぞれ 1.4 ポイントおよび 0.6 ポイント上回った. Nguyen ら [5] は本研究とよく似た語彙知識(WordNet から抽出した上位下位関係)を実験に用いているが,彼らの手法をべースラインとすると,提案手法は 5 から 7 ポイントの性能改善を示している.また Vulic ら [6] の実験は上位下位に加えて同義・対義関係も利用しているが,提案手法は彼らと同程度あるいは 1 から 2 ポイントの性能改善を示している. これらの結果は, 語彙知識の量が同等ならば,提案手法は語彙知識を活用する効率が高いことを示唆している. 一方,ランキングタスク(HyperLex)では提案手法は先行研究の最高精度を 10 ポイント以上下回った. この要因としては, 最適化に用いる目的関数の影響が考えられる。提案手法は上位下位関係識別のクロスエントロピー誤差を最小化するため,正例は 1 , 負例は 0 に近づけようとする。一方で Athiwaratkun ら [8] やVulic らの手法ではヒンジ損失を最小化するため, マージン以下の誤差は許容される.また Vulic らの実験は, 前述のとおり同義・対義関係も用いることに留意が必要である. ## 5 考察 ## 5.1 分類タスクの誤り分析 WBLESS およびBIBLESS の負例は,同位・全体—部分など様々な意味関係の単語ぺアから構成されている。意味関係ごとに評価した性能を,表 3 に示す. 提案手法は, 全体一部分関係および部分一全体関係の正解率が相対的に低いことがわかる. すなわち提案手法は (fox,mouth) や (radio,wire) のような単 表 2 提案手法の性能および先行研究との比較. 提案手法は 5 回の試行による平均および標準偏差(カッコ内の数値)を報告.太字は先行研究の精度を上回る事例. & 0.86 & - & 0.512 \\ 図 2 ランキングタスクの意味関係ごとの順位分布. 順位は全サンプル数で正規化. 意味関係のカッコ内の数值は上位語・下位語間のホップ数を表す 表 3 分類タスクの意味関係ごとの性能(正解率) 語ペアを,上位下位関係と誤認しやすいのである. なお WBLESS の部分一全体関係は精度が高いことから,全体語を部分語よりも意味階層の上位だと捉える(=非ゼロ桁数を少なくする)ことはできているが, 誤って同一のコードを割り当ててていることが示唆される. この要因としては, 非上位下位語ぺアの生成で全体一部分関係が出現しにくいことが考えられる. 乱択により生成される単語ぺアは無関係または意味的類似性が高いかのいずれかだが,全体—部分関係は必ずしもこれらに当てはまらない. ## 5.2 ランキングタスクの誤り分析 HyperLex の単語ペアは(xBLESS と同様に)様々な意味関係の単語ぺアから構成されている. 意味関係ごとにランキング順位の分布を可視化した結果を,図 2 に示す. 提案手法は,上位一下位・同義 $\cdot$下位一上位については, 平均的には正しい順序付け ができているが,しばしば正解よりもばらつきが大きいことがわかる. また対義関係については,上位下位らしさを過大評価していることがわかる.この要因としては, 分類タスクの誤り分析と同様に, 非上位下位語ペアの生成で対義関係が出現しにくいことが考えられる. Vulic らの実験のように,対義関係を明示的な負例に用いることで,性能改善の余地があるかもしれない. ## 6 まとめ 本研究では,単語分散表現を階層コード表現に変換して,コードを比較して単語ぺアの上位下位関係らしさを計量する手法を提案した。また提案手法は上位下位関係の分類タスクで既存手法を上回る性能であることを報告した。また誤り分析からは全体—部分関係および対義関係の誤差が大きいことがわかった。これらは手法そのものよりも, 非上位下位語ペアの与え方が要因になっている可能性がある. したがって, 提案手法をさらに多様なデータセットおよび語彙知識を用いて評価していきたい. 謝辞本研究は JSPS 科研費 $19 \mathrm{H} 01118$ の助成を受けた。 ## 参考文献 [1] Ido Dagan, Dan Roth, Mark Sammons, and Fabio Massimo Zanzotto. Recognizing Textual Entailment: Models and Applications. Synthesis Lectures on Human Language Technologies. Morgan \& Claypool Publishers, 2013. [2] Or Biran and Kathleen R. McKeown. Classifying taxonomic relations between pairs of wikipedia articles. In Proceedings of the 6th International Joint Conference on Natural Language Processing, pp. 788-794, 2013. [3] Georgeta Bordea, Els Lefever, and Paul Buitelaar. Semeval-2016 task 13: Taxonomy extraction evaluation (TExEval-2). In Proceedings of the 10th International Workshop on Semantic Evaluation, pp. 1081-1091, 2016. [4] José Camacho-Collados. Why we have switched from building full-fledged taxonomies to simply detecting hypernymy relations. CoRR, Vol. abs/1703.04178, , 2017. [5] Kim Anh Nguyen, Maximilian Köper, Sabine Schulte im Walde, and Ngoc Thang Vu. Hierarchical embeddings for hypernymy detection and directionality. In Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing, pp. 233-243, 2017. [6] Ivan Vulic and Nikola Mrksic. Specialising word vectors for lexical entailment. In Marilyn A. Walker, Heng Ji, and Amanda Stent, editors, Proceedings of the 2018 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 1134-1145, 2018. [7] Ivan Vendrov, Ryan Kiros, Sanja Fidler, and Raquel Urtasun. Order-embeddings of images and language. In Yoshua Bengio and Yann LeCun, editors, 4th International Conference on Learning Representations, ICLR 2016, San Juan, Puerto Rico, May 2-4, 2016, Conference Track Proceedings, 2016. [8] Ben Athiwaratkun and Andrew Gordon Wilson. Hierarchical density order embeddings. In Proceedings of the 6th International Conference on Learning Representations, 2018. [9] Xiang Li, Luke Vilnis, Dongxu Zhang, Michael Boratko, and Andrew McCallum. Smoothing the geometry of probabilistic box embeddings. In 7th International Conference on Learning Representations, ICLR 2019, New Orleans, LA, USA, May 6-9, 2019. OpenReview.net, 2019. [10] Raphael Shu and Hideki Nakayama. Compressing word embeddings via deep compositional code learning. In Proceedings of the 6th International Conference on Learning Representations, 2018. [11] Weihua Hu, Takeru Miyato, Seiya Tokui, Eiichi Matsumoto, and Masashi Sugiyama. Learning discrete representations via information maximizing self-augmented training. In Proceedings of the 34th International Conference on Machine Learning, pp. 1558-1567, 2017. [12] Chris J. Maddison, Andriy Mnih, and Yee Whye Teh. The concrete distribution: A continuous relaxation of discrete random variables. In Proceedings of the 5th International Conference on Learning Representations, 2017. [13] Maximilian Nickel and Douwe Kiela. Poincaré embeddings for learning hierarchical representations. In $A d$ vances in Neural Information Processing Systems 30, pp. 6338-6347, 2017. [14] Sarthak Dash, Md. Faisal Mahbub Chowdhury, Alfio Gliozzo, Nandana Mihindukulasooriya, and Nicolas Rodolfo Fauceglia. Hypernym detection using strict partial order networks. In Proceedings of the 34th AAAI Conference on Artificial Intelligence, pp. 7626-7633. [15] Douwe Kiela, Laura Rimell, Ivan Vulic, and Stephen Clark. Exploiting image generality for lexical entailment detection. In Proceedings of the 53rd Annual Meeting of the Association for Computational Linguistics and the 7th International Joint Conference on Natural Language Processing of the Asian Federation of Natural Language Processing, pp. 119-124, 2015. [16] Julie Weeds, Daoud Clarke, Jeremy Reffin, David J. Weir, and Bill Keller. Learning to distinguish hypernyms and co-hyponyms. In COLING 2014, 25th International Conference on Computational Linguistics, Proceedings of the Conference: Technical Papers, pp. 2249-2259, 2014. [17] Ivan Vulic, Daniela Gerz, Douwe Kiela, Felix Hill, and Anna Korhonen. Hyperlex: A large-scale evaluation of graded lexical entailment. Computational Linguistics, Vol. 43, No. 4, 2017. [18] Tomas Mikolov, Edouard Grave, Piotr Bojanowski, Christian Puhrsch, and Armand Joulin. Advances in pre-training distributed word representations. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation, 2018. [19] Pierre Foret, Ariel Kleiner, Hossein Mobahi, and Behnam Neyshabur. Sharpness-aware minimization for efficiently improving generalization. CoRR, Vol. abs/2010.01412, , 2020 . 表 4 提案手法により得られた階層コード単語階層コード ## A 階層コードの実例 提案手法により得られた階層コードの一部を,表 4 に示す. 提案手法を用いると,任意の単語分散表現を階層コードに変換して,上位下位関係を推論できるようになる。実際に単語ぺアの上位下位関係を推論する際には各枌の条件付確率 $P\left(C_{d} \mid C_{<d}\right)$ を用いる(3.3 節を参照)のだが,ここではわかりやすさのために $\operatorname{argmax}$ を取って離散化したものを示している. ## B 分類タスクおよび評価方法 分類タスクは, BLESS-hyponymy [15], WBLESS [16], BIBLESS の 3 種類を用いる. BLESShyponymy は上位下位語ぺアのうちどちらが上位語かの 2 值分類, WBLESS は上位下位関係・その他の 2 值分類, BIBLESS は上位下位関係・下位上位関係・ その他の 3 值分類の精度を評価する. 推論は, 式 6 で定義した上位下位関係にある確率 $P(s \prec t)$ を用いて行う. BLESS-hyponymy は $P(s \prec t)$ と $P(t<s)$ の大きい方を採択, WBLESS は $P(s<t)$ をしきい値と比較, BIBLESS は最初に $\max \{P(s \prec t), P(t<s)\}$ をしきい值と比較してから, $P(s<t)$ と $P(t<s)$ の大きい方を採択する。しきい值は validation data に最適化する。また validation/test split は, [5] と同様に, データセットからそれぞれ $2 \%, 98 \%$ を乱択する. 評価指標は test data の accuracy である. validation/test split を 1,000 回実施して平均値を報告する. ランキングタスクは, HyperLex [17] を用いる. 与えられた単語ぺアを上位下位関係らしさの高い順に順序付けして, アノテータが付与した順序との一致度を評価するタスクである. 推論は $P(s<t)$ の値が大きい順に順序付けする.評価指標はスピアマンの順位相関である。 ## C 提案手法の学習 階層コードへの変換器(エンコーダ)を訓練するための語彙知識および単語分散表現は, 先行研究 [5] に倣って, WordNet から抽出した上位下位関係および,事前学習ずみ fastText モデルを用いる. 上位下位関係は, WordNet 上で直接・間接の"is-a"関係にあるすべてのレンマのぺアを抽出する。そのうえで,評価タスクのデータセット(xBLESS および HyperLex)と重複するぺアを削除する.サンプル数は,名詞ペアが $2,158,824$ 件,動詞ペアが 162,706 件となった。 事前学習ずみ fastText モデルは, Mikolov ら [18] が配布するサブワード情報付きモデル3)を用いる.次元数は 300 , 語彙数は 100 万である.レンマから単語分散表現への変換は,大文字・小文字を区別する.また"dog_food"のようにレンマが複数の単語からなる場合は,全単語の算術平均を取る。 目的関数の最適化は,ミニバッチによる確率勾配法を用いる. $L_{h}$ のミニバッチサンプル数は, 正例 200 件・負例 1,000 件である. $L_{\text {reconst }} L_{\mathrm{mi}}$ のミニバッチサンプル数は, 1,000 件である. 最適化アルゴリズムは Sharpness-aware Minimization Optimizer [19] を用いる. 式 7 で示した目的関数の重み付き和は $\alpha=5.0, \beta=0.05$ とする. 階層コードの容量は, 8 進 16 桁とする. 
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A8-1.pdf
# Neural Machine Translation with Semantically Relevant Image Regions Yuting Zhao ${ }^{1}$, Mamoru Komachi ${ }^{1}$, Tomoyuki Kajiwara ${ }^{2}$, Chenhui Chu ${ }^{3}$ ${ }^{1}$ Tokyo Metropolitan University ${ }^{2}$ Ehime University ${ }^{3}$ Kyoto University zhao-yuting@ed.tmu.ac.jp, komachi@tmu.ac.jp kajiwara@cs.ehime-u.ac.jp, chu@i.kyoto-u.ac.jp ## 1 Introduction Neural machine translation (NMT) [1] has achieved near human-level performance. However, there remain numerous situations where textual context alone is insufficient for correct translation, such as in the presence of ambiguous words and grammatical gender. Many studies [2] have increasingly focused on incorporating multimodal contents, particularly images, to improve translations. Researchers in this field have established a task called multimodal machine translation (MMT), which translates sentences paired with images into a target language. Subsequent studies [3, 4] have started utilizing a global visual feature extracted from an entire image to initialize encoder/decoder recurrent neural network (RNN) hidden states to contextualize language representations. However, the effect of the image cannot be fully exerted because the visual features of an entire image are complex and nonspecific. To effectively use an image, some studies [5] use spatially convoluted features extracted from a convolutional neural network (CNN). Because these equally sized features are nonsemantic, the role of visual modality provides only dispensable help to the translation. [6] reported that MMT models disregard visual features because the quality of the image features or the manner in which they are integrated into the model is not satisfactory. Consequently, current studies [7] have incorporated richer local visual features such as regional features. These studies mainly rely on object detection to automatically extract visual objects in an image. Although regional features containing semantic information can assist in generating better translations, a method to focus on only the image regions that are semantically relevant to the source words during translation has yet to be determined [8]. In this paper, we propose a model for multimodal neural machine translation (MNMT) that employs word-region alignment (WRA), called MNMT-WRA. This model is designed to focus on semantically relevant image regions during translation. We propose to generate soft/hard/entity WRA based on cosine/argmax similarity between source words and visual concepts and manual alignment of Flickr30k Entities [9]. While encoding, textual and visual modalities are represented in three aspects by leveraging WRA: (1) associating image regions with respective source words; (2) associating source words with respective image regions; and (3) crossly associating. The main contributions of this study are as follows: (1) We propose WRA to guide the model to translate certain words based on certain image regions. (2) The proposed MNMT-WRA model outperforms competitive baselines. (3) The analysis demonstrates that MNMT-WRA utilizes visual information effectively by relating semantically relevant textual and visual information. ## 2 Proposed Model ## 2.1 WRA: Word-Region Alignment As shown in Figure 1, we propose to create WRA. For regions, we follow [10] in detecting image regions denoted by bounding boxes on the figure. In particular, each bounding box is detected along with a visual concept consisting of an attribute class followed by an object class instead of only the object class. We take these visual concepts to represent the image regions. We set each image labeled with 36 visual concepts of image regions, which are spaceseparated phrases. For words, we lowercase and tokenize the source English sentences via the Moses toolkit ${ }^{1)}$  Figure 1 The WRA. (a): Soft alignment (SA). (b/c): Hard alignment (HA). (d): Entity alignment (EA). ## 2.1.1 Soft Alignment (SA) of Word-Region The SA is filled with the cosine similarity between words and regions. We convert the words and concepts into subword units using the byte pair encoding (BPE) model [11]. Then we utilize fastText [12] to learn embeddings. So as to calculate a cosine similarity matrix of the word-region alignment as a SA. ## 2.1.2 Hard Alignment (HA) of Word-Region The HA is based on the SA, which is a binary matrix filled with 1 in the position where the words and concepts are most similar and 0 in the remaining positions. We generate the HA from two directions: when aligning the most similar concept to a word, we use argmax function by row (rowmax). When aligning the most similar word to a concept, we employ argmax function by column (colmax). ## 2.1.3 Entity Alignment (EA) of Word-Region The EA is based on Flickr30k Entities, which is a binary matrix filled with 1 in the position where the words correspond to their ground-truth regions and 0 in the remaining positions. Because the Flickr30k Entities provide a manually annotated correspondence between English entities and image regions, we use the EA as reference. ## 2.2 Representations with WRA As shown in Figure 2 the textual encoder is a bidirectional RNN and the visual encoder is a object detection method [10]. All words are denoted as $\mathrm{H}$ and all regions are denoted as R. We represent textual annotation of $n$ words as $\mathrm{A}^{\mathrm{txt}}$ and visual annotation of 36 regions as $\mathrm{A}^{\mathrm{img}}$ by leveraging WRA. For $A^{t x t}$, the aligned region feature $R_{\text {align }}$ is calculated by the $\mathrm{SA}\left(\mathrm{A}_{\text {soft }}\right)$, HA ( $\left.\mathrm{A}_{\text {hard,rowmax/colmax }}\right)$, and $\mathrm{EA}\left(\mathrm{A}_{\text {entity }}\right)$ as follows. $ \begin{aligned} \mathrm{A}^{\mathrm{txt}} & =\operatorname{CONCAT}\left(\mathrm{H}, \mathrm{R}_{\text {align }}\right) \\ \mathrm{R}_{\text {align }}^{\text {soft }} & =\frac{\mathrm{A}_{\text {soft }} \cdot \mathrm{R}}{|\mathrm{R}|} \\ \mathrm{R}_{\text {align }}^{\text {hard }} & =\mathrm{A}_{\text {hard,rowmax }} \cdot \mathrm{R} \\ \mathrm{R}_{\text {align }}^{\text {entity }} & =\mathrm{A}_{\text {entity }} \cdot \mathrm{R} \end{aligned} $ Similarly, $\mathrm{A}^{\mathrm{img}}$ is computed as follows: $ \begin{aligned} \mathrm{A}^{\mathrm{img}} & =\operatorname{CONCAT}\left(\mathrm{R}, \mathrm{H}_{\text {align }}\right) \\ \mathrm{H}_{\text {align }}^{\text {soft }} & =\frac{\mathrm{A}_{\text {soft }}^{\mathrm{T}} \cdot \mathrm{H}}{|\mathrm{H}|} \\ \mathrm{H}_{\text {align }}^{\text {hard }} & =\mathrm{A}_{\text {hard,colmax }}^{\mathrm{T}} \cdot \mathrm{H} \\ \mathrm{H}_{\text {align }}^{\mathrm{entity}} & =\mathrm{A}_{\text {entity }}^{\mathrm{T}} \cdot \mathrm{H} \end{aligned} $ ## 2.3 Decoder As shown in Figure 2, the decoder comprises double attentions and a deepGRU consisted of three cells [13]. ## 2.3.1 Double Attentions At time step $t$, the textual context vector $\mathbf{z}_{\mathbf{t}}$ is generated upon a hidden state proposal $\mathbf{s}_{\mathbf{t}}^{(\mathbf{1})}$ computed by function $\mathrm{f}_{\mathrm{gru}_{1}}\left(y_{t-1}, \mathbf{s}_{\mathbf{t}-\mathbf{1}}\right)$ in GRU (1) [13] and textual annotation $\mathbf{a}_{\mathbf{i}}^{\mathrm{txt}}$ in $\mathrm{A}^{\mathrm{txt}}$ as follows. $ \begin{aligned} e_{t, i}^{\mathrm{text}} & =\left(V^{\mathrm{text}}\right)^{\mathrm{T}} \tanh \left(U^{\mathrm{text}} \mathbf{s}_{\mathbf{t}}^{(\mathbf{1})}+W^{\mathrm{text}} \mathbf{a}_{\mathbf{i}}^{\mathrm{txt}}\right), \\ \alpha_{t, i}^{\mathrm{text}} & =\operatorname{softmax}\left(e_{t, i}^{\mathrm{text}}\right) \\ \mathbf{z}_{\mathbf{t}} & =\sum_{i=1}^{n} \alpha_{t, i}^{\mathrm{text}} \mathbf{a}_{\mathbf{i}}^{\mathrm{txt}} \end{aligned} $ where $V^{\text {text }}, U^{\text {text }}, W^{\text {text }}$ are training parameters; $e_{t, i}^{\text {text }}$ is attention energy; $\alpha_{t, i}^{\text {text }}$ is attention weight matrix. Figure 2 The proposed MNMT-WRA. The visual context vector $\mathbf{c}_{\mathbf{t}}$ is generated similarly. $ \begin{aligned} e_{t, j}^{\mathrm{img}} & =\left(V^{\mathrm{img}}\right)^{\mathrm{T}} \tanh \left(U^{\mathrm{img}} \mathbf{s}_{\mathbf{t}}^{(\mathbf{1})}+W^{\mathrm{img}} \mathbf{a}_{\mathbf{j}}^{\mathbf{i m g}}\right), \\ \alpha_{t, j}^{\mathrm{img}} & =\operatorname{softmax}\left(e_{t, j}^{\mathrm{img}}\right) \\ \mathbf{c}_{\mathbf{t}} & =\sum_{j=1}^{36} \alpha_{t, j}^{\mathrm{img}} \mathbf{a}_{\mathbf{j}}^{\mathrm{img}} \end{aligned} $ where $V^{\mathrm{img}}, U^{\mathrm{img}}, W^{\mathrm{img}}$ are training parameters; $e_{t, j}^{\mathrm{img}}$ is attention energy; $\alpha_{t, j}^{\mathrm{img}}$ is attention weight matrix. ## 2.3.2 DeepGRU The hidden state $\mathbf{s}_{t}$ is computed in GRU (3) [13]: $ \begin{aligned} \mathbf{s}_{t} & =\mathrm{f}_{\mathrm{gru}_{3}}\left(\left[\mathbf{c}_{t}, y_{t-1}\right], \mathbf{s}_{t}^{(\mathbf{2})}\right) \\ \mathbf{s}_{t}^{(\mathbf{2})} & =\mathrm{f}_{\mathrm{gru}_{2}}\left(\mathbf{z}_{t}, \mathbf{s}_{t}^{(\mathbf{1})}\right) \end{aligned} $ There is a textual GRU block and a visual GRU block [14] designed as below. The function $\mathrm{f}_{\text {ght }}$ is following [15]. $ \begin{aligned} \mathbf{b}_{t}^{\mathbf{v}} & =\mathrm{f}_{\text {ght }}\left(W_{\mathrm{b}}^{\mathrm{v}} \mathbf{s}_{t}\right) \\ \mathbf{b}_{t}^{\mathbf{t}} & =\mathrm{f}_{\mathrm{ght}}\left(W_{\mathrm{b}}^{\mathrm{t}} \mathbf{s}_{t}^{(2)}\right) \\ y_{t} \sim p_{t} & =\operatorname{softmax}\left(W_{\mathrm{proj}}^{\mathrm{t}} \mathbf{b}_{t}^{\mathbf{t}}+W_{\mathrm{proj}}^{\mathrm{v}} \mathbf{b}_{t}^{\mathbf{v}}\right), \end{aligned} $ where $W_{\mathrm{b}}^{\mathrm{v}}, W_{\mathrm{b}}^{\mathrm{t}}, W_{\text {proj }}^{\mathrm{t}}, W_{\text {proj }}^{\mathrm{v}}$ are training parameters. ## 3 Experiments ## 3.1 Dataset We experimented on English $\rightarrow$ German $(\mathrm{En} \rightarrow \mathrm{De})$ and English $\rightarrow$ French $(\mathrm{En} \rightarrow \mathrm{Fr})$ tasks using Multi30k [16]. The dataset contains 29k train images and 1,014 valid images. We used three test sets to evaluate our models: Flickr test2016 and Flickr test2017 contain 1,000 pairs; and ambiguous MSCOCO [17] contains 461 pairs. ## 3.2 Settings For baselines, we trained an NMT model [18] with the textual part of Multi30k; we trained an MNMT model [14] with 2,048-dim global visual features by ResNet-50 [19]; and we augmented [14] into a region-attentive MNMT (RAMNMT) model following [8] with 2,048-dim regional visual features extracted by [10]. For MNMT-WRA, it was implemented by three methods: associating regions with respective words (I); associating words with respective regions ( $\mathrm{T}$ ); crossly associating (C). The SA and HA were integrated in each method as two settings. The EA was integrated in the best method as a reference setting. Trainable parameters and dimensions are shown in the Appendix A. Associating regions with respective words (I). We represented the visual annotation $A^{\mathrm{img}}$ by fusing $\mathrm{R}$ with the aligned textual features $\mathrm{H}_{\text {align }}$ and the textual annotation $\mathrm{A}^{\mathrm{txt}}$ using textual input representation $\mathrm{H}$ directly. Based on equation (2), the settings were (1) MNMT-WRA (I+SA) and (2) MNMT-WRA (I+HA). Associating words with respective regions ( $T$ ). We represented textual annotation $\mathrm{A}^{\text {txt }}$ by fusing $\mathrm{H}$ with the aligned region features $R_{\text {align }}$ and the visual annotation $A^{\mathrm{img}}$ using visual input representation $\mathrm{R}$ directly. Based on equation (1), the settings were (1) MNMT-WRA (T+SA) and (2) MNMT-WRA (T+HA). Crossly associating (C). We cross represented textual annotation $\mathrm{A}^{\mathrm{txt}}$ and visual annotation $\mathrm{A}^{\mathrm{img}}$. Based on equations (1) and (2), the settings were (1) MNMT-WRA (C+SA) and (2) MNMT-WRA (C+HA). Table $1 \dagger, \ddagger$ and $*$ indicate that the result is significantly better than NMT, MNMT and RAMNMT, respectively. Figure 3 A good translation example of MNMT-WRA (I+HA) for $\mathrm{En} \rightarrow \mathrm{Fr}$ task. Reference setting. The reference setting was MNMT-WRA (I+EA). Because the train and valid images from Flickr30k Entities were assigned to Flickr test2016 images only, we reported only the results of test2016. ## 3.3 Evaluation We evaluated the translation quality according to the token level BLEU (B) [20] and METEOR (M) [21] metrics, and reported the average over three runs. We reported the statistical significance with bootstrap resampling [22] using the merger of three test results. We reported the result only if the p-value was less than 0.05 . ## 4 Results As shown in Table 1, the results of MNMT-WRA (I+HA/SA) outperform all the baselines on all test sets of $\mathrm{En} \rightarrow$ De and $\mathrm{En} \rightarrow$ Fr tasks, and the MNMT-WRA (I+HA) achieved the best performance of all. In contrast, the poor performance of MNMT-WRA (T/C) might be because of the weakened role of text and emphasized role of the image. ## 5 Analysis We randomly investigated 50 examples from the $\mathrm{En} \rightarrow \mathrm{Fr}$ task of test2016 to do human evaluation. In this investigation, $16 \%$ of the examples is that the performance of the MNMT-WRA (I+HA) is better than the RAMNMT, and the $84 \%$ is that the performance of the two is comparable. We show an example of MNMT-WRA (I+HA) in Figure 3 to do quality analysis. In the case, our model correctly translates "backyard" to a compound noun of "arrièrecour," which is comprised of an adverb and a noun. But the RAMNMT mistranslates it to "cour," which means "yard" in English. Through visualization, we find that the textattention and image-attention focus on the features that are semantically relevant at that time step. It shows that translation quality improvement is due to the simultaneous attentions of semantically relevant region and word. ## 6 Conclusion We presented a novel model, MNMT-WRA, that simultaneously considers semantically relevant textual and visual features during translation. Experimental results show that MNMT-WRA outperformed baselines. We also performed a human evaluation and qualitative analysis to demonstrate the specific improvements resulting from semantically relevant image regions. In the future, we plan to train supervised attention mechanisms to learn more reliable alignments, rather than external alignment. ## Acknowledgments This work was supported by Grant-in-Aid for Young Scientists \#19K20343, JSPS. ## References [1] Ilya Sutskever, Oriol Vinyals, and Quoc V Le. Sequence to sequence learning with neural networks. In NIPS, pages 3104-3112, 2014. [2] Loïc Barrault, Fethi Bougares, Lucia Specia, Chiraag Lala, Desmond Elliott, and Stella Frank. Findings of the third shared task on multimodal machine translation. In WMT, pages 304-323, 2018. [3] Haoyuan Gao, Junhua Mao, Jie Zhou, Zhiheng Huang, Lei Wang, and Wei Xu. Are you talking to a machine? dataset and methods for multilingual image question answering. In NIPS, pages 2296-2304, 2015. [4] Po-Yao Huang, Frederick Liu, Sz-Rung Shiang, Jean Oh, and Chris Dyer. Attention-based multimodal neural machine translation. In WMT, pages 639-645, 2016. [5] Ozan Caglayan, Loïc Barrault, and Fethi Bougares. Multimodal attention for neural machine translation. CoRR, 2016. [6] Ozan Caglayan, Pranava Madhyastha, Lucia Specia, and Loïc Barrault. Probing the need for visual context in multimodal machine translation. In NAACL, pages 4159-4170, 2019. [7] Pengcheng Yang, Boxing Chen, Pei Zhang, and $\mathrm{Xu}$ Sun. Visual agreement regularized training for multi-modal machine translation. In $A A A I$, pages 9418-9425, 2020. [8] Yuting Zhao, Mamoru Komachi, Tomoyuki Kajiwara, and Chenhui Chu. Double attention-based multimodal neural machine translation with semantic image regions. In EAMT, pages 105-114, 2020. [9] Bryan A. Plummer, Liwei Wang, Christopher M. Cervantes, Juan C. Caicedo, Julia Hockenmaier, and Svetlana Lazebnik. Flickr30k entities: Collecting region-to-phrase correspondences for richer imageto-sentence models. IJCV, pages 74-93, 2017. [10] Peter Anderson, Xiaodong He, Chris Buehler, Damien Teney, Mark Johnson, Stephen Gould, and Lei Zhang. Bottom-up and top-down attention for image captioning and visual question answering. In CVPR, pages 6077-6086, 2018. [11] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In $A C L$, pages 1715-1725, 2016. [12] Piotr Bojanowski, Edouard Grave, Armand Joulin, and Tomas Mikolov. Enriching word vectors with subword information. TACL, 5:135-146, 2017. [13] Jean-Benoit Delbrouck and Stéphane Dupont. Bringing back simplicity and lightliness into neural image captioning. CoRR, 2018. [14] Jean-Benoit Delbrouck and Stéphane Dupont. UMONS submission for WMT18 multimodal translation task. In WMT, pages 643-647, 2018. [15] D. Teney, P. Anderson, X. He, and A. v. d. Hengel. Tips and tricks for visual question answering: Learnings from the 2017 challenge. In CVPR, pages 4223-4232, 2018. [16] Desmond Elliott, Stella Frank, Khalil Sima' an, and Lucia Specia. Multi30k: Multilingual EnglishGerman image descriptions. In $V L$, pages 70-74, 2016. [17] Desmond Elliott, Stella Frank, Loïc Barrault, Fethi Bougares, and Lucia Specia. Findings of the second shared task on multimodal machine translation and multilingual image description. In $W M T$, pages 215-233, 2017. [18] Ozan Caglayan, Mercedes García-Martínez, Adrien Bardet, Walid Aransa, Fethi Bougares, and Loïc Barrault. Nmtpy: A flexible toolkit for advanced neural machine translation systems. Prague Bull. Math. Linguistics, 109:15-28, 2017. [19] Kaiming He, Xiangyu Zhang, Shaoqing Ren, and Jian Sun. Deep residual learning for image recognition. In $C V P R$, pages 770-778, 2016. [20] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. BLEU: a method for automatic evaluation of machine translation. In $A C L$, pages 311-318, 2002. [21] Michael Denkowski and Alon Lavie. Meteor universal: Language specific translation evaluation for any target language. In WMT, pages 376-380, 2014. [22] Philipp Koehn. Statistical significance tests for machine translation evaluation. In $E M N L P$, pages 388-395, 2004. [23] Diederik P. Kingma and Jimmy Ba. Adam: A method for stochastic optimization. In ICLR, pages $1-15,2015$. ## A Experimental Parameters We ensured that the parameters in MNMT-WRA were consistent with those in the baselines. We set the encoder and decoder hidden state to 256 -dim; word embedding to 128 -dim; batch size to 32 ; beam size to 12 ; text dropout to 0.3 ; image region dropout to 0.5 ; and dropout of source RNN hidden states $H$ and both blocks $\mathbf{b}_{\mathbf{t}}^{\mathbf{t}}$ and $\mathbf{b}_{\mathbf{t}}^{\mathbf{v}}$ to 0.5 . We trained the model using stochastic gradient descent with ADAM [23] and a learning rate of 0.0004. We stopped training when the METEOR score did not improve for 10 evaluations on the validation set, where the maximum epoch num was set to 100 . For MNMT-WRA (I+SA/HA/EA): Between the two settings, the textual annotation $\mathrm{A}^{\mathrm{txt}}$ was 512-dim, which was consistent with $H$. Further, the visual annotation $A^{\text {img }}$ was 4,096-dim by a concatenation of $R$ and $H_{\text {align }}$, where $R$ was 2,048-dim and $\mathrm{H}_{\text {align }}$ was 2,048-dim by a linear transformation from 512-dim. For MNMT-WRA (T+SA/HA): Between the two settings, the visual annotation $\mathrm{A}^{\mathrm{img}}$ was 2,048-dim, which was consistent with $\mathrm{R}$. The textual annotation $\mathrm{A}^{\mathrm{txt}}$ was 2,560-dim by a concatenation of $\mathrm{H}$ and $\mathrm{R}_{\text {align }}$, where $\mathrm{H}$ was 512-dim and $\mathrm{R}_{\text {align }}$ was 2,048-dim. The sum of the dimensions of the textual and visual annotations was consistent with that of the former method. For MNMT-WRA (C+SA/HA): Between the two settings, the textual annotation $\mathrm{A}^{\mathrm{txt}}$ was 2,560-dim by a concatenation of 512-dim H and 2,048-dim $\mathrm{R}_{\text {align }}$, and the visual annotation $\mathrm{A}^{\mathrm{img}}$ was 2,560-dim by a concatenation of 2,048-dim R and 512-dim $\mathrm{H}_{\mathrm{align}}$. We ensured that the dimensions of the textual and visual annotation were consistent.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A8-2.pdf
# 文脈文アノテーションによる ドキュメント機械翻訳の精度向上に関する研究 安本 玄樹 須藤 克仁 中村 哲 奈良先端科学技術大学院大学 \{yasumoto.genki.ye1, sudoh,s-nakamura\}@is.naist.jp ## 1 はじめに ニューラル機械翻訳の台頭により,機械翻訳の精度は高まってきており,文単位の翻訳においては人間とほとんど同等のレベルであるという報告もある [1].しかしながら,ドキュメント単位での翻訳においては人間翻訳が上回っていると報告されている [2].これは前後文の文脈や文章全体の話題を考慮した翻訳が,現在のニューラル機械翻訳では困難であることを意味する.以上の背景から,文脈を利用してニューラル機械翻訳の精度を高める研究が近年盛んに行われており,周辺文の情報を活用するモデル $[3,4]$ やドキュメント全体を参照して文脈情報を利用するモデル $[5,6]$ などが提案されている. 周辺文の情報を利用する場合,その中に翻訳に必要な情報が含まれていれば翻訳をより良いものにできると考えられるが,含まれていない場合は文脈を活用することはできず,却ってノイズとなってしまうこともある。一方でドキュメント全体を参照する場合,必要な情報を特定の文や単語に絞ることが難しいという問題が生じる。 このような問題を解消するために,周辺文の文脈を用いるモデルでは,使用する文脈文を選択することで [7],ドキュメント全体の文脈を用いるモデルでは,アテンションをスパースに当てることで [6],精度を向上させている.結局のところ,文脈情報を必要なときに必要なだけ利用することができれば, これらの問題は解消されるはずである. そこで本研究では,文脈文をアノテーションで作成し,必要だと思われる文脈情報を活用できた場合,ドキュメント機械翻訳モデルが十分な精度を出すことができるのかを検証する。翻訳の言語対としては,日英を選択した。これは日英翻訳において,日本語の省略がよく問題になるため,それを補う形でアノテーションを行うことを想定したためであ る.なお,作成したアノテーションデータは公開予定である1) ## 2 文脈文アノテーション 各ドキュメントに対して以下の 2 種類の文脈文アノテーションを行う. ・ドキュメントから文脈として最適であると考えられる文を 1 文抜き出す場合 ・ドキュメントから文脈として最適であると考えられる文をアノテータが書き出す場合 アノテーションを行う際は,原言語のドキュメントのみを参照し,目的言語のドキュメントは参照しないこととする. アノテーションに関する作業は全て筆者が行った.文脈文アノテーションの詳細は次に示す通りである。 ## 2.1 文脈文を 1 文抜き出す場合 ドキュメントが与えられたとき,それぞれの文を翻訳するのに必要だと思われる文脈をドキュメントの中の他の文から選択して文脈文とする.文脈を必要としないと判断した場合は,空文を表す “_blank” トークンを文脈文の代わりとする。このアノテー ションを施した例を表 1 に示す. ## 2.2 文脈文を 1 文書き出す場合 文脈文を書き出す場合は,ドキュメントの情報から自由に文脈文を作成することができる。このアノテーションを施した例を表 2 に示す。文脈文を 1 文抜き出す場合(表 1)と比較して,1文目の文脈文が異なっていることがわかる。これは 1 文目を翻訳時に主語の情報が必要になると考え,主語に相当する情報を書き出したことによる。このように,状況に応じて必要な情報を文脈文として書き出す。文脈  表 1 選択した文脈例(一部抜粋) 表 2 書き出した文脈例(一部抜粋) が不要な場合は,同様に“_blank”トークンを文脈文の代わりとする. ## 3 実験 ## 3.1 データ 本実験では,OpenSubtitles2018 [8] の日英対訳を用いる。翻訳は日本語から英語へと行う. 全てのデー タを作品 IDごとに分けた後, train, dev, test に分割した. 分割は dev, test において,それぞれの文数が $50 \mathrm{k}$以上になるように,作品をランダムにサンプリングし, 残ったものを train セットとした. 分割後のドキュメント数,文数については表 3 の通りである。 トークナイズには sentencepiece [9] を用い,語彙サイズは日本語,英語ともに $30 \mathrm{k}$ とした ${ }^{2)}$. 特殊トー クンである,“_blank”などは 30k の語彙に含まない. ## 3.2 モデル 実験に使用するモデルは, Dual Encoder Transformer [10] および CADec [4] とする. ## 3.2.1 Dual Encoder Transformer Li ら [10] の提案した Dual Encoder Transformer は 2 種類あり, Decoder の内部で目的言語と文脈文のアテンションを利用するもの(inside-context)と, Decoder の外部で原言語文と文脈文のアテンションをとり,それを Decoderに入力するというもの (outside-context)である.実装は Li ら [10]のものを 2)日本語の character coverage は 0.9995 , 英語の character coverage は 1 とした。用い,ハイパーパラメータはデフォルト値を利用し $た^{3)}$. ## 3.2.2 CADec (Context-Aware Decoder) CADec (Context-Aware Decoder) では,一度文脈文,原言語をそれぞれ Transformerに入力して原言語および目的言語側の embedding を得る. そして CADec にそれらを入力して文脈情報を汲み取るモデルとなっている.著者による公開実装を利用し4),八イパーパラメータもデフォルトの設定に従った. ## 3.3 学習 これらのモデルはどちらも Transformer [11]をべー スとしており,2 段階で学習される。最初にそれぞれベースとなる Transformerを文脈なしの状態で学習し,その Transformerをべースとして文脈を処理する部分を含めた全体の学習を行う。ベースとなる Transformerの学習は,全ての train データを利用して行った。学習の際, train, dev データそれぞれに“_blank”トークンを 1 組ずつ追加し,“_blank”が “_blank”と対応していることも学習させる。 2 段階目の学習は, 文脈文と原言語を入力として行う. Dual Encoder Transformer には,直前の文を文脈文として与え,CADec には,翻訳する文の直前に述べられている文を最大 3 文まで文脈文として与える。ドキュメントの最初の文を翻訳する時のみ, “_blank”トークンを文脈文とした。この 2 段階目の学習にも,全ての trainデータを用いた。 ## 3.4 文脈文アノテーション 文脈文アノテーションは test セットのみに対して行う. OpenSubtitles の日英対訳の中には,アライメ  表 4 実験結果(全ての test データ:全 70 ドキュメント/51033 文) }} & \multicolumn{4}{|c|}{ "なし } & \multicolumn{4}{|c|}{ 周辺文 } \\ ントが十分にとれていないものも多いため,CADec のベース Transformerを用いて一度 test セットの各ドキュメントを翻訳し,BLEU [12]を閾値としてスコア 20 以上のドキュメントのみをアノテーション対象とした. 今回の実験では,3つのドキュメントに対して文脈文アノテーションを行った.各ドキュメントの文数は表 6 の通りである. ## 3.5 実験結果 BLEU,BERTScore [13]を評価指標として用いる. BLEU を測定する際のトークナイザは, mosestokenizer を利用し ${ }^{5)}$ ,BLEU の実装は multi-bleu.perl を利用した ${ }^{6)}$. BERTScore は,著者の公開実装を利用し7), fine-tuning は行わず, rescaling をした結果を示す. 基本的なモデルの性能を示すため,アノテー ションした文脈文を用いずに, test セットを翻訳した結果を表 4 に示す. アノテーションしたドキュメントを用いた場合と直前の文脈を用いた場合の結果を表 5 に示す. BLEU,BERTScore 共に百分率表示とする. ## 3.6 分析および考察 BLEU や BERTScore で評価した結果については,有意な差は見て取れず,モデルによる明らかな性能 5) https://github.com/luismsgomes/mosestokenizer 6) https://github.com/OpenNMT/OpenNMT-py/ blob/master/tools/multi-bleu.perl 7) https://github.com/Tiiiger/bert_score の違いは認められなかった。実際の翻訳例を表 7 に示す. 翻訳が改善している例では,文脈文にある“ヤツら” と言う表現をもとに,主語が “They” と正しく翻訳されている。ただしこの翻訳例において, Dual Encoder Transformer の訳出に変化は見られなかった. このように,文脈文は十分だと考えられる場合であっても,上手く訳出されない例は他にも見受けられた。 翻訳に変化が見られない例について述べる. 目的言語の “they” にあたる “鹿” という単語は,選択した文脈文,書き出した文脈文共に含まれていたが,翻訳では “I”と,誤って訳出されてしまっている.翻訳に変化を与えることができなかった理由としては, ・学習時に文脈文を参照して翻訳を行わなければならないケースが割合として少なく,文脈文を翻訳に利用する学習ができていない可能性 ・原言語を参照するよりも,目的言語の言語モデルに強く依存した翻訳になっている可能性 が考えられる.前者に関しては,OpenSubtitles の日英対訳ドキュメント自体がデータとして不十分,もしくはクリーニングが必要であることが示唆される. 後者に関しては, train に使用したデータ量が多いほど,翻訳を行う時に原言語の情報を利用することが報告されている [14]. 文脈を活かしきれなかったともいえる. 翻訳が悪くなった例では,アノテーション時にドキュメントを誤読しており,書き出した文脈文の“私たち”という表現を受けて“We”と誤って訳出さ れてしまっている. OpenSubtitles は字幕データであるが,映像を含まないテキストのみのデータであるため, 日本語の曖昧性によって多少の誤読が発生し得る.その影響を受けた例といえる。書き出した文脈文を“私は” と修正したところ,主語は正しく“I” と翻訳された。この他にも,“_blank”を文脈文としたときに,訳抜けが発生してしまった例などがあった. 文脈文が翻訳に悪い影響を与えてしまった理由としては, ・アノテーションした文脈文はドキュメント内で使用されている日本語と分布が異なるため,言語分布が異なる入力を与えると翻訳に悪影響を及ぼす可能性 が考えられる. 特に“_blank”トークンに関しては, これに当てはまる. その他の翻訳例は付録とした。翻訳例を見る限 り,CADec の方が文脈に即した翻訳を行うことが多かった. これは学習時に CADec は最大 3 文の文脈を用いており,その中で推論に必要なものが含まれていた割合が高いと考えられる. Dual Encoder Transformer は直前の 1 文のみを文脈として学習させたため,その文脈から推論する例が CADec と比較して少なく, 学習が不十分だった可能性が残る. 学習データに関する,より詳細な分析が必要である. ## 4 おわりに 本研究では,アノテーションした文脈文を利用して,翻訳結果が改善されるのかを検証した.結果としては,アノテーションした文脈文をテスト時に利用しても,翻訳結果が十分に改善されることはなかった. その理由として学習時の工夫(データクリーニングやデータ量の増大,“blank”トークンの扱い方など)が必要とされる可能性が示唆された. 今回のアノテーションでは,目的言語のドキュメントを参照しなかったが,参照しても良いという条件下で,より質の良いアノテーションデータを作成してみること,学習データに対してもアノテーションデータを作成し,モデルの学習が十分に行われることを保証することは今後の課題としたい。 ## 5 謝辞 本研究の一部は JSPS 科研費 JP17H06101 の助成を受けたものである.表 7 文脈文の変化による機械翻訳出力の違い ## 翻訳が改善している例 & I'm here to drink. \\ 注 1 : 文脈によって出力に変化がある場合のみ,モデル名十文脈文の種類を記し,出力に変化がなかった場合は, モデル名のみの記載としている 注 2 : CADec の周辺文は 3 文全て,Dual Encoder Transformer の周辺文は最後の 1 文となる ## 参考文献 [1]Hany Hassan, Anthony Aue, Chang Chen, Vishal Chowdhary, Jonathan Clark, Christian Federmann, Xuedong Huang, Marcin Junczys-Dowmunt, William Lewis, Mu Li, Shujie Liu, Tie-Yan Liu, Renqian Luo, Arul Menezes, Tao Qin, Frank Seide, Xu Tan, Fei Tian, Lijun Wu, Shuangzhi Wu, Yingce Xia, Dongdong Zhang, Zhirui Zhang, and Ming Zhou. Achieving human parity on automatic chinese to english news translation, 2018. [2]Samuel Läubli, Rico Sennrich, and Martin Volk. Has machine translation achieved human parity? a case for document-level evaluation. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 4791-4796, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [3]Lesly Miculicich, Dhananjay Ram, Nikolaos Pappas, and James Henderson. Document-level neural machine translation with hierarchical attention networks. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 2947-2954, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. [4]Elena Voita, Rico Sennrich, and Ivan Titov. When a good translation is wrong in context: Context-aware machine translation improves on deixis, ellipsis, and lexical cohesion. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1198-1212, Florence, Italy, July 2019. Association for Computational Linguistics. [5]Sameen Maruf and Gholamreza Haffari. Document context neural machine translation with memory networks. In Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1275-1284, Melbourne, Australia, July 2018. Association for Computational Linguistics. [6]Sameen Maruf, André F. T. Martins, and Gholamreza Haffari. Selective attention for context-aware neural machine translation. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3092-3102, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [7]Ryuichiro Kimura, Shohei Iida, Hongyi Cui, Po-Hsuan Hung, Takehito Utsuro, and Masaaki Nagata. Selecting informative context sentence by forced back-translation. In Proceedings of Machine Translation Summit XVII Volume 1: Research Track, pp. 162-171, Dublin, Ireland, August 2019. European Association for Machine Translation. [8]Pierre Lison, Jörg Tiedemann, and Milen Kouylekov. OpenSubtitles2018: Statistical rescoring of sentence alignments in large, noisy parallel corpora. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan, May 2018. European Language Resources Association (ELRA). [9]Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Process- ing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [10]Bei Li, Hui Liu, Ziyang Wang, Yufan Jiang, Tong Xiao, Jingbo Zhu, Tongran Liu, and changliang li. Does multiencoder help? a case study on context-aware neural machine translation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3512-3518. Association for Computational Linguistics, July 2020. [11]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Ł ukasz Kaiser, and Illia Polosukhin. Attention is all you need. In I. Guyon, U. V. Luxburg, S. Bengio, H. Wallach, R. Fergus, S. Vishwanathan, and R. Garnett, editors, Advances in Neural Information Processing Systems, Vol. 30, pp. 5998-6008. Curran Associates, Inc., 2017. [12]Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. [13]Tianyi Zhang, Varsha Kishore, Felix Wu, Kilian Q. Weinberger, and Yoav Artzi. Bertscore: Evaluating text generation with BERT. CoRR, Vol. abs/1904.09675, , 2019. [14]Elena Voita, Rico Sennrich, and Ivan Titov. Analyzing the source and target contributions to predictions in neural machine translation. arXiv preprint arXiv:2010.10907, 2020. ## 付録 表 8 文脈文の変化による機械翻訳出力の違い \\ 注 1 : 文脈によって出力に変化がある場合のみ,モデル名十文脈文の種類を記し,出力に変化がなかった場合は,モデル名のみの記載としている 注 2:CADec の周辺文は 3 文全て, Dual Encoder Transformer の周辺文は最後の 1 文となる
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A8-3.pdf
# 教師なし同期的句構造を用いた機械翻訳 原田慎太朗 渡辺太郎 奈良先端科学技術大学院大学 先端科学技術研究科 \{harada.shintaro.hk4, taro\}@is.naist.jp ## 1 はじめに 近年、ニューラルネットワークを用いた機械翻訳モデルは、高い翻訳性能を達成している。しかし、例えば仏英や独英などの構文的に近い言語間と比較して、例えば日英や韓英などの構文的に遠い言語間の翻訳性能はあまり高くない [1].これに対し、統計的機械翻訳では原言語文と目的言語文間の同期文法を考慮することで翻訳性能を改善してきた [2].同期文法は二言語間の複雑な関係を表現し、統語論的な句構造を取り入れることで、より言語学的に正確な翻訳を可能にする [3]. これをニューラル機械翻訳に適用することで、構文的に遠い言語間の翻訳性能の向上が期待できる. しかし、構文情報を人手で与えるのは非常にコストがかかり、多言語に適用するは難しい.この問題に対処するため、構文距離 [4] を利用して自己注意機構から教師なしに句構造を導出する方法と、導出した句構造を同期するための方法を提案する. 提案手法と先行研究の翻訳性能を BLEU[5] を用いて比較したところ、IWSLT14 独英翻訳では 0.54 ポイントの向上、ASPEC 日英翻訳では 0.51 ポイントの向上を確認した. 句構造解析の性能については Unlabeled $\mathrm{F}$值で評価し、同期的句構造が構文解析に対しても有用であることを示した. また、同期的句構造が単語アライメントを正しく修正することを確認した。 ## 2 関連研究 機械翻訳において様々なニューラルネットワー クモデルが提案されているが、翻訳精度および学習効率の面から自己注意機構をべースとした Transformer[6] がよく用いられる. 構文情報を機械翻訳に用いる既存研究 [7] では、人手またはツールで作成された構文情報をモデルに組み込むことで、高い翻訳性能を報告している. しかし、テキストに対して構文情報を付与したデータを作成するには非常にコストがかかるため多言語への適用が難しい. また、機械翻訳における Out-Of-Vocablary 問題への対処のために、サブワードが必要である [8]. しかし、構文解析ツールがサブワードに対応しているとは限らないため、構文情報を機械翻訳モデルに組み込むことは容易ではない。 近年、言語モデリング用いて間接的に句構造解析を学習する手法が提案されている $[4,9,10]$. これらで報告されている構文構造は、教師なしにも関わらず人間のアノテーションに近い. また、言語モデリングの応用である機械翻訳からでも翻訳性能を劣化させずに高品質な構文木が導出できることが報告されており、機械翻訳が言語モデリングよりも構文情報の導出に優れていることを示している [11]. しかし、単言語の構造しか考慮していないため、教師なしに導出した構文情報は必ずしも機械翻訳の精度向上に貢献しない. ## 3 教師なし句構造に対する同期制約 本稿では、教師なしに導出した句構造構造を明示的に利用する機械翻訳手法を提案する。提案内容は、(1) 構文距離 [4] を利用して自己注意機構 [6] から句構造を導出する方法、(2) 導出した原言語と目的言語の句構造情報を同期させる方法の 2 つである. ## 3.1 教師なし句構造導出 句構文構造の表現方法として構文距離 [4] がある.構文距離は隣接する単語間の句切れの程度を示す実数値であり、先行研究では RNN 言語モデルの注意機構を用いて構文距離を導出している。本稿では、 このアイデアを機械翻訳において高い性能を達成する Transformer の自己注意機構 [6] に応用することで教師なしに句構造を導出する. Transformer は複数の自己注意機構層から構成されており、自己注意の重みは以下の式で表される。 $ a_{i}^{t}=\operatorname{softmax}\left(\frac{q_{i} k_{t}^{\top}}{\sqrt{\delta_{\text {head }}}}\right) $ ここで、 $q=h W_{q}, k=h W_{k}$ であり、 $h$ はある隠れ層のベクトル、 $W_{q}$ と $W_{k}$ はパラメータである. また、 $\delta_{\text {head }}=\delta_{h} / N_{\text {head }}$ であり、 $\delta_{h}$ は隠れ層のベクトルの次元数、 $N_{\text {head }}$ は隠れ層のべクトルの分割数である. $t$ は現在注目している単語位置、 $i$ はその他の単語位置を示す. $i$ 番目の単語の構文距離は以下の式で表される. $ d_{i}=\operatorname{ReLU}\left(W\left[\begin{array}{c} k_{i-N} \\ k_{i-N+1} \\ \cdots \\ k_{i} \end{array}\right]+b\right) $ ここで、 $W, b$ はパラメータ、 $k$ は自己注意機構内の潜在表現、 $N$ は構文距離を計算する際に参照する過去の単語数を示す. 次に句構造をモデル化するために構文距離を以下の式で確率値に変換する. $ \alpha_{j}^{t}=\frac{\operatorname{hardtanh}\left(\left(d_{t}-d_{j}\right) \cdot \tau\right)+1}{2} $ ここで、 $\operatorname{hardtanh}(x)=\max (-1, \min (1, x)) 、 \tau$ は構文距離の差に対する感度を制御する温度パラメータである. 句構造のモデル化は以下の式で表現される. $ g_{i}^{t}=P\left(l_{t} \leq i\right)=\prod_{j=i+1}^{t-1} \alpha_{j}^{t} $ ここで、 $l_{t}$ は句構造の切れ目の位置を示す変数である. 句構造モデルを自己注意機構に組み込むことで、同階層内だけで自己注意が係るよう、以下の式で制約をかける。 $ \tilde{a}_{i}^{t}=\frac{g_{i}^{t} \cdot a_{i}^{t}}{\sum_{i} g_{i}^{t} \cdot a_{i}^{t}} $ しかし、句構造を自己注意機構に組み込むだけでは局所的な制約が強すぎるため、大局的な情報を参照できないという問題がある、そこで、下層で参照した情報を上層でも参照できるよう、以下の式で上層に上がるにつれて局所的制約を緩和させる。 $ \hat{g}_{i}^{t,(l)}=g_{i}^{t,(l-1)}+\left(1-g_{i}^{t,(l-1)}\right) \cdot g_{i}^{t,(l)} $ ## 3.2 句構造に対する同期制約 原言語側と目的言語側の自己注意の整合性を保つための制約として同期注意制約 [12] がある. 先行研究では、機械翻訳に同期注意制約を課すことで翻訳性能を向上させている. この手法は同期文法から着想を得ており、同期文法は構文的に遠い言語間の統計的機械翻訳において有用であることが知られている [2]. 本研究では句構造を表現する構文距離を同期させる事により、構文的に遠い言語間でのニュー ラル機械翻訳の向上が期待できると考えた。この同期制約は原言語側と目的言語側の構文距離を最小二乗誤差 (Mean Squared Error; MSE) を用いて実現でき、以下の式で表される. $ \mathcal{L}_{\text {sync }}=\frac{1}{L} \sum_{l}^{L} \sum_{i}\left(d_{i}^{(l)}-\tilde{d}_{i}^{(l)}\right)^{2} $ ここで、 $d^{(l)}$ は目的言語側 $l$ 層目の構文距離であり、 $\tilde{d}^{(l)}$ は原言語側 $l$ 層目の構文距離 $s^{(l)}$ を目的言語側 $l$層目の構文距離 $d^{(l)}$ へ写像したものである. $L$ は提案手法である句構造導出層の数である. 構文構造における重要な要素は、構文距離から導出される階層的位置関係である。しかし、MSEでは正確な距離当て問題に帰着してしまうため、階層的位置関係が無視され、モデルに過剩なペナルティを与えてしまう,そこで、階層的位置関係を考慮する Rank 誤差 [13] を利用する。構文距離に適用すると以下の式で表される。 $\mathcal{L}_{\text {sync }}=\frac{1}{L} \sum_{l}^{L} \sum_{i, j>i} \operatorname{ReLU}\left(1-\operatorname{sign}\left(d_{i}^{(l)}-d_{j}^{(l)}\right)\left(\tilde{d}_{i}^{(l)}-\tilde{d}_{j}^{(l)}\right)\right)$ ここで、 $\operatorname{sing}(x)$ は符号関数である。写像した目的言語側 $l$ 層目の構文距離 $\tilde{d}^{(l)}$ は以下の式より求める. $ \tilde{d}^{(l)}=C^{(l)} s^{(l)} $ ただし、 $C \in \mathbb{R}^{m \times n}$ は原言語と目的言語の隠れ表現の関連度を表す言語間注意であり、 $n$ は原言語側の入力長、 $m$ は目的言語側の入力長である. 言語間注意 $C$ は、以下の式で計算される. $ C^{(l)}=\operatorname{softmax}\left(\frac{Q^{(l)} K^{(l) \top}}{\sqrt{\delta_{\text {head }}}}\right) $ ここで、 $Q=\left(q_{1}, q_{2}, \ldots, q_{m}\right) \in \mathbb{R}^{m \times \delta_{\text {head }}} \quad$ と $K=$ $\left(k_{1}, k_{2}, \ldots, k_{n}\right) \in \mathbb{R}^{n \times \delta_{\text {head }}}$ はそれぞれ、原言語側と目的言語側の隠れ表現である.以上より、全体的な目的関数は次の通りである. $ \mathcal{L}=\mathcal{L}_{\text {trans }}+\lambda \mathcal{L}_{\text {sync }} $ ここで、 $\mathcal{L}_{\text {trans }}$ は機械翻訳における目的関数である。また、入は $\mathcal{L}_{\text {sync }}$ を考慮する度合いを制御するハイパーパラメータである. ## 4 実験 ## 4.1 モデル 本稿で用いる全てのモデルは Seq2Seq フレームワークである Fairseq[14]を用いて実装した。ベース ラインには Fairseq で提供されている Transformer を用いた. 機械翻訳における同期的句構造の有効性を確認するため、先行研究である同期注意制約モデル [12] とも比較する. ## 4.2 データセット 翻訳性能の評価実験は, IWSLT14 独英翻訳タスク,ASPEC 日英翻訳を用いた. IWSLT14独英翻訳の実験データは、英語、独語ともに Mosesdecoder を用いて単語分割した後、結合した訓練データから学習した BPE (Byte Pair Encoding)[15] によりサブワード単位に分割した. BPE の語彙数は 37,000 とした. ASPEC 日英翻訳の実験データは、WAT のべー スラインシステムの構築方法1)を参考に,英語には Mosesdecoder、日本語にはKyTeaを用いた。訓練データは train-1.txt と train-2.txt から上位 150 万を抽出して用いた. 単語分割した後、結合した訓練データから学習した BPE によりサブワード単位に分割した. BPE の語彙数は 16,000 とした. 構文解析の評価実験は、IWSLT14 独英翻訳を用いた. BPE によるサブワード単位への分割は行わない. ベースラインとなる構文木は Stanford Parser ${ }^{2}$ を用いて作成した。 ## 4.3 実装詳細 モデルのハイパーパラメータにおいて、IWSLT14 は Fairseq の transformer_iwslt_de_en、ASPEC は同期注意制約 [12] を参考にした. また、同期的句構造の導出には、 $N=5 、 \tau=0.1 、 \lambda=0.05$ を用いた. 翻訳文の生成にはビーム探索を用い、ビーム幅は 4、文長正則化パラメータは 0.6 とした. 句構造の導出にはデコーダ 2 層までの平均構文距離を用いた. しかし、機械翻訳モデルごとに生成される翻訳文は異なるため、正解文をデコーダ側に直接入力することで、他のモデルと比較可能な構文木を獲得する. 単語アライメントの導出には、FastAlign[16] と $\mathrm{F}$ 值を比較して最も良い 4 層目の言語間注意を用いた。 ## 4.4 機械翻訳の結果 表 1 に実験結果を示す.モデルの翻訳性能は BLEUを用いて評価した. A.sync は同期注意制約 [12]、P. は句構造、P.sync は同期的句構造を用いた  表 1 機械翻訳性能の比較 表 2 構文解析性能の比較 モデルを示す.最も高い BLEU スコアは太字で示す. 表 1 より、提案手法の同期的句構造を加味して Transformerを訓練することにより,IWSLT14 の独英翻訳実験では 0.54 ポイント、ASPEC の日英翻訳では 0.51 ポイントの上昇が確認できた. また、同期注意制約のモデルと比較しても、全ての翻訳実験で BLEU が向上しており、機械翻訳における同期的句構造の有効性が確認できる。特に Rank 損失による句構造の同期制約を用いたモデルが一番高い BLEU を達成しており、同期的句構造の学習にも階層的位置関係が重要であることが確認できる。しかし、日英翻訳において MSE 損失を用いた場合、BLEU がベースラインよりも低下することが確認できた. 理由としては、日本語と英語の句構造が大きく異なり、句構造を全く同じ距離で同期することが難しいためと考えられる。 ## 4.5 句構造解析の結果 表 2 に実験結果を示す. 句構造解析性能は評価スクリプトである Evalb3)を用いて評価した。表 2 より、提案手法の結果が先行研究で報告されている結果を大きく下回った. これは多層モデルである Transformer と構文距離の相性によるものであり、句構造導出層を下層に限定する必要性を示唆している.また、構文解析性能は向上しているにも関わらず BLEU は向上していないことから、構文情報は必ずしも機械翻訳性能に貢献しないことが分かる. 3) https://nlp.cs.nyu.edu/evalb/ Stanford PRPN P.sync Rank 図 1 句構造構文木の比較 図 2 Transformerによる単語アライメント 図 1 に Stanford Parser、先行研究および提案手法で得られた句構造の一部を示す. 図 1 から分かるように、Stanford Parser と先行研究の構文木はある程度似ているが、提案手法で得られた構文木とは大きく異なる。しかし、どの構文木もある程度の名詞句を一塊りとして捉えているという特徴が読み取れる。これは、同期的句構造も意味をある程度塊として捉えることを示している. ## 4.6 単語アライメントの定性評価 それぞれ図 2 と 3 に、Transformer と同期的句構造を用いた Transformer の単語アライメントを示す。 ただし、先行研究 [17] のように双方向モデルでアライメントを導出していないことに注意されたい。図 2 と 3 を比較すると、Transformer は”töte”を正しく"kill”にアライメントが取れているが、提案手法では正しくアライメントが取れている。また、提案 図 3 同期的句構造による単語アライメント 手法では、"außenstehende"が正しく”outside" と訳され、その周辺にアライメントが取れている。これは、同期的句構造が単語アライメントに対しても有効であることを示している. ## 5 おわりに 本稿では、教師なしに句構造を導出する方法、および導出した句構造文法を同期することで機械翻訳性能を向上する手法を提案した。評価実験の結果、提案手法は機械翻訳を通じて適切な句構造情報を導出して同期させることで機械翻訳の性能および説明性を向上できることを示した.今後は、単語アライメントを定量的に評価することで注意機構と構文情報の関係性をより詳細に分析し、機械翻訳の性能および説明性のさらなる向上を目指す。また、他の言語間における提案手法の有効性を調査する。 ## 参考文献 [1]Melvin Johnson, Mike Schuster, Quoc V. Le, Maxim Krikun, Yonghui Wu, Zhifeng Chen, Nikhil Thorat, Fernanda Viégas, Martin Wattenberg, Greg Corrado, Macduff Hughes, and Jeffrey Dean. Google's multilingual neural machine translation system: Enabling zero-shot translation. Transactions of the Association for Computational Linguistics, Vol. 5, pp. 339351, 2017. [2]David Chiang. Hierarchical phrase-based translation. Computational Linguistics, Vol. 33, No. 2, pp. 201-228, 2007. [3]Fai Wong, Dong-Cheng Hu, Yu-Hang Mao, Ming-Chui Dong, and Yi-Ping Li. Machine translation based on constraint-based synchronous grammar. In Second International Joint Conference on Natural Language Processing: Full Papers, 2005. [4]Yikang Shen, Zhouhan Lin, Chin-Wei Huang, and Aaron Courville. Neural language modeling by jointly learning syntax and lexicon. In Proceedings of the International Conference on Learning Representations, 2017. [5]Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311318, Philadelphia, Pennsylvania, USA, 2002. Association for Computational Linguistics. [6]Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [7]Hiroyuki Deguchi, Akihiro Tamura, and Takashi Ninomiya. Dependency-based self-attention for transformer NMT. In Proceedings of the International Conference on Recent Advances in Natural Language Processing (RANLP 2019), pp. 239-246, Varna, Bulgaria, 2019. INCOMA Ltd. [8]Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, 2016. Association for Computational Linguistics. [9]Yikang Shen, Shawn Tan, Alessandro Sordoni, and Aaron Courville. Ordered neurons: Integrating tree structures into recurrent neural networks. In International Conference on Learning Representations, 2019. [10]Yau-Shian Wang, Hung-Yi Lee, and Yun-Nung Chen. Tree transformer: Integrating tree structures into self-attention. arXiv preprint arXiv:1909.06639, 2019. [11]Phu Mon Htut, Kyunghyun Cho, and Samuel R Bowman. Inducing constituency trees through neural machine translation. arXiv preprint arXiv:1909.10056, 2019. [12]二宮崇出口祥之. 同期注意制約を与えた transformer によるニューラル機械翻訳. 言語処理学会第 26 回年次大会発表論文集, pp. 1459-1462, 2020. [13]Yikang Shen, Zhouhan Lin, Athul Paul Jacob, Alessandro Sordoni, Aaron Courville, and Yoshua Bengio. Straight to the tree: Constituency parsing with neural syntactic distance. In Proceedings of the 56th Annual Meeting of the Associa- tion for Computational Linguistics (Volume 1: Long Papers), pp. 1171-1180, Melbourne, Australia, 2018. Association for Computational Linguistics. [14]Myle Ott, Sergey Edunov, Alexei Baevski, Angela Fan, Sam Gross, Nathan Ng, David Grangier, and Michael Auli. fairseq: A fast, extensible toolkit for sequence modeling. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics (Demonstrations), pp. 48-53, Minneapolis, Minnesota, 2019. Association for Computational Linguistics. [15]Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, 2016. Association for Computational Linguistics. [16]Chris Dyer, Victor Chahuneau, and Noah A. Smith. A simple, fast, and effective reparameterization of IBM model 2. In Proceedings of the 2013 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pp. 644-648, Atlanta, Georgia, 2013. Association for Computational Linguistics. [17]Sarthak Garg, Stephan Peitz, Udhyakumar Nallasamy, and Matthias Paulik. Jointly learning to align and translate with transformer models. In Conference on Empirical Methods in Natural Language Processing (EMNLP), Hong Kong, 2019.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A8-4.pdf
# End-to-End Speech Translation with Cross-lingual Transfer Learning Shuichiro Shimizu ${ }^{1} \quad$ Chenhui Chu $^{1} \quad$ Sheng Li $^{2} \quad$ Sadao Kurohashi ${ }^{1}$ ${ }^{1}$ Kyoto University, Kyoto, Japan ${ }^{2}$ National Institute of Information and Communications Technology, Kyoto, Japan \{sshimizu, chu, kuro\}@nlp.ist.i.kyoto-u.ac.jp sheng.li@nict.go.jp ## 1 Introduction Speech Translation (ST) is the task of translating input speech into translated text [1]. There are mainly two approaches for this task: cascaded approach, where Automatic Speech Recognition (ASR) and Machine Translation (MT) are chained together, and end-to-end approach, where a single sequence-to-sequence model directly translates between audio signals and target text. Cascaded approach has a problem of error propagation: possible errors produced by ASR are input to MT without any fix. On the other hand, end-to-end approach does not produce such kind of ASR errors, because the target text is directly produced. Therefore, end-to-end approach is becoming more popular in recent days. However, end-to-end approach still has a problem of data scarcity. It is not easy to collect ST datasets, because they require triplets of source speech, source transcript, and target translation. To address the problem of data scarcity, previous studies have tried to use information from other languages. One of the existing models is the joint multilingual model, where a single model is used to process multiple languages [2, 3, 4] (Figure 1, left). Unfortunately, this joint model only improves performance on high-resource language pairs (Table 2). We hypothesize that this is because of 1) the difference in data size for each language and 2) pushing too many tasks on a single model. These problems are thoroughly examined in the field of multilingual MT $[5,6,7]$. In the meantime, transfer learning for ST using ASR has recently been explored $[8,9]$. They show that ASR pre-training on a high resource language can improve lowresource ST performance (Figure 1, right). Another direction of improving ASR using ST has also been explored [10]. Their studies are based on the assumption that both Figure 1 Existing methods for multilingual ST. Left: joint model. Right: ST with ASR pre-training. ASR and ST can be viewed as what is called a speechto-text task, and one can improve the other by transfer learning. However, ST is a more complicated task than ASR, because it requires more abstract representations to perform translation. There is a study that shows the complexity of ST encoder [11]. On the decoder side, some studies have tried to use MT decoder to initialize ST decoder [4, 12]. These studies are showing improvements, but the task difference between ASR encoder and ST encoder, and between MT decoder and ST decoder leaves room for further improvements. To address the above problems, we propose cross-lingual transfer learning for end-to-end ST, where we transfer parameters of ST models from one language pair to another. At most three languages are involved during training, and transfer of information is performed on the same task. This can solve the problem of too many tasks on a single model, and also the task difference between ASR/MT and ST. Our method shows improvement up to $2.28 \mathrm{BLEU}$, and is effective for both high-resource and low-resource language settings. Figure 2 Overview of a speech-to-text task. ## 2 Preliminary End-to-end ST is one kind of speech-to-text tasks (ASR/ST). Figure 2 shows an overview of the task. In a speech-to-text task, we have a pair of source speech and target text, denoted as $\mathcal{S}=\{(\boldsymbol{x}, \boldsymbol{y})\} . \quad \boldsymbol{x}$ and $\boldsymbol{y}$ are from the same language if the task is ASR, and different if the task is ST. Here, $\boldsymbol{x}=\left(x_{1}, \ldots, x_{T}\right)$ is a sequence of acoustic signals per utterance, and $\boldsymbol{y}=\left(y_{1}, \ldots y_{N}\right)$ is a sequence of characters per utterance. Each utterance mostly corresponds to one sentence, but can be two or more sentences. First, we extract speech features (i.e., filterbank) from audio signals and get a sequence of frames. Fourier transform, Mel-scale conversion, log conversion are sequentially applied to the frames, which becomes a set of $d$ dimensional vectors called $d$-dimensional $\log$ Mel filterbank. Then we input the vector into the encoder of a sequence to sequence architecture. Here we use Transformer [13]. We apply positional encoding to the input vectors, which are fed into the encoder. Each encoder layer has a selfattention layer and a feed-forward layer with addition \& normalization layers. On the decoder side, embedded vectors are calculated and positional encoding is applied as well. Each decoder layer has a masked self-attention layer, a cross-attention layer and a feed-forward layer with addition \& normalization layers. After decoder layers, we have a linear layer and a softmax layer. The model is updated using cross-entropy loss: $ L=-\log P(\boldsymbol{y} \mid \boldsymbol{x}) $ Figure 3 Proposed method. ST with ST pre-training and ASR encoder pre-training. ## 3 Cross-lingual Transfer for ST The overview of our method is described in Figure 3. We use 3 speech-text pairs, $\mathcal{S}_{1}=\left.\{\left(\boldsymbol{x}_{1}, \boldsymbol{y}_{1}\right)\right.\}, \mathcal{S}_{2}=\left.\{\left(\boldsymbol{x}_{2}, \boldsymbol{y}_{2}\right)\right.\}$, and $\mathcal{S}_{3}=\left.\{\left(\boldsymbol{x}_{3}, \boldsymbol{y}_{3}\right)\right.\}$. Source speech $\boldsymbol{x}_{1}, \boldsymbol{x}_{2}$, and $\boldsymbol{x}_{3}$ are from different languages, and target text $\boldsymbol{y}_{1}, \boldsymbol{y}_{2}$, and $\boldsymbol{y}_{3}$ are all English. There is no overlap between $\boldsymbol{y}_{1}, \boldsymbol{y}_{2}$, and $\boldsymbol{y}_{3}$. Stage 1: ASR pre-training First, we trained an ASR model using $\delta_{1}=\left.\{\left(\boldsymbol{x}_{1}, \boldsymbol{y}_{1}\right)\right.\}$ (En-En in Figure 3) to initialize ST encoder, following previous work $[3,8]$. Stage 2: ST pre-training Secondly, we trained ST on one language pair using $\mathcal{S}_{2}=\left.\{\left(\boldsymbol{x}_{2}, \boldsymbol{y}_{2}\right)\right.\}$ (Zh-En in Figure 3). We call the source language $\boldsymbol{x}_{2}$ as the "second language." As for encoder initialization, all self-attention layers, feed forward layers, and addition \& normalization layers are shared with the ASR encoder at stage 1. Stage 3: ST fine-tuning Finally, using the ST encoder and decoder as initialization, we trained ST on another language pair using $\delta_{3}=\left.\{\left(\boldsymbol{x}_{3}, \boldsymbol{y}_{3}\right)\right.\}$ (Ja-En in Figure 3). We call the source language $\boldsymbol{x}_{3}$ as the "third language." As for initialization, all of the encoder layers, the decoder layers, the linear layer, and the softmax layer are shared with those at stage 2. ## 4 Experiments ## 4.1 Dataset We used CoVoST2 [2], a large-scale multilingual ST corpus which covers translations from 21 languages to English and from English to 15 languages. We used the former part of 21 languages to English, and chose 13 languages in addition to English (Table 1) following previous work [3]. We can see that English, French, Germany, and Spanish are high-resource languages, while others are low-resource ones. ## 4.2 Pre-processing We extracted 80-dimensional log Mel filterbank features with frames of $25 \mathrm{~ms}$ length and $10 \mathrm{~ms}$ stride. Utterance level cepstral mean variance normalization (CMVN) was applied to the feature. SpecAugment [14] with LB policy was applied to avoid overfitting. SentencePiece [15] was used to make character vocabulary for each language. ## 4.3 Model training We used the fairseq S2T [3] toolkit for the experiments. We used Transformer with 6 encoder layers and 12 decoder layers where the hidden dimension size is 256 and the number of attention heads is 4. Label smoothing was applied when computing the cross-entropy loss. Stage 1: ASR pre-training First, we conducted English ASR pre-training, because English is the highest resource language in this corpus. We used the adam optimizer with an inverse square root learning rate scheduler. We linearly increased the learning rate from 0 to 0.001 until 10,000 updates. Thereafter we decayed the learning rate proportional to the number of updates. We stopped training after 100,000 updates and averaged the parameters over the last 10 epochs. Stage 2: ST pre-training Secondly, we loaded the parameters from the ASR encoder at stage 1, and trained ST on a language pair $\mathcal{S}_{2}=\left.\{\left(\boldsymbol{x}_{2}, \boldsymbol{y}_{2}\right)\right.\}$. As source (second) languages $\boldsymbol{x}_{2}$, we chose French and Chinese. We chose French because it is the highest resource language pair, and Chinese because it is the highest one other than European languages. Again, we used the adam optimizer with an inverse square root learning rate scheduler, this time the learning rate was increased to 0.002 and then decayed. We stopped training after we had seen no improvement in terms of development set loss over 10 epochs, and used the best epoch for evaluation. Stage 3: ST fine-tuning Finally, we loaded all the parameters at stage 2, and trained ST on another language pair $\mathcal{S}_{3}=\left.\{\left(\boldsymbol{x}_{3}, \boldsymbol{y}_{3}\right)\right.\}$. The vocabulary was also shared with the second language. The optimizer and the learning rate scheduling was the same as stage 2 . The model was trained for the same epochs as stage 2 and the last checkpoint was used for evaluation. ## 4.4 Decoding and Evaluation For decoding, beam search was used with beam size 5 . BLUE score was calculated with sacreBLEU [16]. ## 4.5 Results Table 2 shows the BLEU scores for test sets. The first row is our baseline, which is ST with ASR encoder pre-training. The second and third rows show the results of our proposed method. Cross-lingual Fr denotes our proposed method where the second language is French, and cross-lingual Zh is a Chinese one. These are based on our experiments, and the last two rows are from a previous study [3]. They show that the joint model improves the results compared to bilingual one in Fr, De, Es, and Zh, but in other languages the performance is degrading. In our experiments, the scores of either of our methods outperformed the baseline scores in languages other than Chinese. For example, in Spanish-English ST, our crosslingual Fr is better than bilingual one by 2.28 BLEU. We conjecture that the linguistic similarity between the second language and the third language is important in our method. For example, when the second language is French, Ja-En ST BLEU score is 0.24 , which is lower than the bilingual one. However, when the second language is Chinese, it improves to 0.94 . French and Japanese have little in common in terms of vocabulary and grammar, but Chinese and Japanese have similar vocabularies. ## 4.6 Case Analysis Table 3 shows an example from De-En, which is a highresource language pair, and Ja-En ST, which is a lowresource one. In De-En ST, cross-lingual Fr produced the best translation. Bilingual one could not correctly predict the position of From the earth. Cross-lingual Zh could predict the position correctly, but it is Of the earth, not From the earth. We Table 2 BLEU scores for test set. *Encoder initialized with English ASR. †Wang et al., 2020 [3]. *Trained jointly on 21 languages with temperature based sampling $(T=2)$. Table 3 Example sentences from the test set of De-En and Ja-En ST. Transcription and Reference are given in the dataset, and others were predicted during decoding. Colored words are referred to in Section 4.6 and the same color corresponds to the same meaning. ${ }^{*}$ Encoder initialized with English ASR. can also see that cross-lingual Fr predicted sees correctly, but others were like looking from or look like. In Ja-En ST, the sentence from the bilingual baseline is not grammatically correct. On the other hand, the sentence produced by our method is more natural English, although the meaning of it is far from the original one. Cross-lingual $\mathrm{Zh}$ is better than cross-lingual $\mathrm{Fr}$ in that it correctly predicts Father. We can say that our method is effective for both high-resource settings and low-resource settings. ## 5 Conclusion and Future Work We proposed end-to-end ST with cross-lingual transfer learning, which is effective for both low-resource and high-resource settings, especially when the knowledge is transferred from a linguistically similar language. In the future, we will explore the joint model considering linguistic similarity. We will also explore which layer of the encoder/decoder at stage 2 has effective information to transfer. ## Acknowledgments This work was supported by Grant-in-Aid for Young Scientists \#19K20343, JSPS. ## References [1] Matthias Sperber and Matthias Paulik. Speech translation and the end-to-end promise: Taking stock of where we are. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 74097421, Online, July 2020. Association for Computational Linguistics. [2] Changhan Wang, Anne Wu, and Juan Pino. CoVoST2 and Massively Multilingual Speech-to-Text Translation. arXiv preprint arXiv:2007.10310v3. [3] Changhan Wang, Yun Tang, Xutai Ma, Anne Wu, Dmytro Okhonko, and Juan Pino. fairseq S2T: Fast Speech-to-Text Modeling with fairseq. In Proceedings of the 2020 Conference of the Asian Chapter of the Association for Computational Linguistics (AACL): System Demonstrations, 2020. [4] Hirofumi Inaguma, Kevin Duh, Tatsuya Kawahara, and Shinji Watanabe. Multilingual end-to-end speech translation. In 2019 IEEE Automatic Speech Recognition and Understanding Workshop (ASRU), pp. 570-577. IEEE, 2019. [5] Ankur Bapna, Colin Andrew Cherry, Dmitry (Dima) Lepikhin, George Foster, Maxim Krikun, Melvin Johnson, Mia Chen, Naveen Ari, Orhan Firat, Wolfgang Macherey, Yonghui Wu, Yuan Cao, and Zhifeng Chen. Massively multilingual neural machine translation in the wild: Findings and challenges. arXiv:1907.05019, 2019. [6] Roee Aharoni, Melvin Johnson, and Orhan Firat. Massively multilingual neural machine translation. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 3874-3884, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [7] Raj Dabre, Chenhui Chu, and Anoop Kunchukuttan. A survey of multilingual neural machine translation. ACM Comput. Surv., Vol. 53, No. 5, September 2020. [8] Sameer Bansal, Herman Kamper, Karen Livescu, Adam Lopez, and Sharon Goldwater. Pre-training on high-resource speech recognition improves low-resource speech-to-text translation. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, Volume 1 (Long and Short Papers), pp. 5868, Minneapolis, Minnesota, June 2019. Association for Computational Linguistics. [9] Mihaela C Stoian, Sameer Bansal, and Sharon Goldwater. Analyzing asr pretraining for low-resource speech-totext translation. In ICASSP 2020-2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 7909-7913. IEEE, 2020. [10] Changhan Wang, Juan Pino, and Jiatao Gu. Improving cross-lingual transfer learning for end-to-end speech recognition with speech translation. arXiv preprint arXiv:2006.05474, 2020. [11] Chengyi Wang, Yu Wu, Shujie Liu, Ming Zhou, and Zhenglu Yang. Curriculum pre-training for end-to-end speech translation. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, pp. 3728-3738, 2020. [12] A. Bérard, L. Besacier, A. C. Kocabiyikoglu, and O. Pietquin. End-to-end automatic speech translation of audiobooks. In 2018 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP), pp. 6224-6228, 2018. [13] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N Gomez, Łukasz Kaiser, and Illia Polosukhin. Attention is all you need. In Advances in neural information processing systems, pp. 5998-6008, 2017. [14] Daniel S. Park, William Chan, Yu Zhang, Chung-Cheng Chiu, Barret Zoph, Ekin D. Cubuk, and Quoc V. Le. SpecAugment: A Simple Data Augmentation Method for Automatic Speech Recognition. In Proc. Interspeech 2019, pp. 2613-2617, 2019. [15] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. [16] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Brussels, Belgium, October 2018. Association for Computational Linguistics.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A9-1.pdf
# 同時機械翻訳のための 文脈を考慮したセグメントコーパス 中林 明子 東京大学大学院総合文化研究科 akinkbys@phiz.c.u-tokyo.ac.jp ## 1 はじめに 発話を音声認識によってテキスト化し、文の完了を待たずに翻訳を開始する、同時機械翻訳を検討している. 特に講演などにおいては一文が長くなる傾向があり、文の完了を待たずに翻訳を開始することが期待される。しかし一般的な翻訳システムでは一文が入力されることを前提としているため、翻訳の単位が小さくなれば、適切な翻訳は困難となる。このような同時機械翻訳のタスクにおいては、発話からの遅延を抑えると同時に、翻訳精度を維持することが求められる。 同時通訳者は、同時性を保ちつつ適切な通訳を行うため、Salami Technique と呼ばれる手法を用いている。一文を複数のセグメントに分割し、セグメン卜単位で前から順に処理する. その際、再構成、簡素化、省略することで自然な訳出を実現する [1]. 同時機械翻訳においても、入力をセグメントに分割し、セグメント単位に翻訳する方式が研究の初期から検討されている. しかしこの手法は、ニューラル機械翻訳の枠組みにおいて以下の課題がある. (1) セグメント単位の翻訳は、それまでの文脈が反映されず、発話の中で適切なものとならない. (2)一般的な文単位のパラレルコーパス(以下、文コー パス)から、セグメント単位での適切な翻訳を学習することは限界がある.あわせて、同時機械翻訳における大きな課題として、(3) 同時通訳コーパス資源が限られているため、学習に用いられる文コーパスは翻訳コーパスであり、同時機械翻訳にとって最適な語順となっていないことがある。 本論文では、これらの問題に対応するために、すでに現れたセグメントを文脈とみなして、これを参照してより適切な通訳結果を出力するようなセグメント単位のコーパス(以下、セグメントコーパス) を作成し、それを利用して、文コーパスで学習した \author{ 加藤恒昭 \\ 東京大学大学院総合文化研究科 \\ kato@boz.c.u-tokyo.ac.jp } 翻訳モデルのチューニングを行うことを提案する。 以下、関連研究を紹介した後、セグメントコーパスとその作成について述べ、実験結果を報告する.実験の結果、単純なセグメント単位の翻訳に比べて、BLUE スコアが大きく向上した. また翻訳結果より、前方のセグメントを参照した翻訳が可能であることを確認した。 ## 2 関連研究 1 節で述べた (1)の問題に対して、Gu, et al. [2] は強化学習により、翻訳システムの READ/WRITEを制御することで対応した. その後、(2) に対応するため、文ではなく prefix 単位で学習する Wait- $k$ [3] が提案されたが、適切なセグメント分割は考慮されず、常に一定の遅延で出力するため、特に語順が異なる言語間では自然な翻訳を出力できていない [4].遅延の policy をより柔軟に学習する方法 [5] [6] や、文コーパスを分割してセグメントコーパスを作成する方法 [7] も提案されているが、これらは翻訳コー パスに基づいて行われる. 本提案は、入力文をセグメントに分割し、セグメント単位で翻訳を行うという基本的な枠組みに従うが、(1)(2) の問題に加えて (3) の問題を視野に入れ、同時通訳者の用いる手法を参考に同時翻訳結果として望ましいセグメントコーパスを作成する.翻訳コーパスから同時機械翻訳向けのコーパスを作成する提案として [8] [9] があるが、セグメントを扱うニューラル機械翻訳の枠組みの中での活用は述べられていない.コーパスの作成において、文単位の翻訳コーパスで学習したべースラインの翻訳モデル (以下、ベースモデル)を利用するという提案も独自のものである. ## 3 文脈を考慮したセグメントコー パス 以下の対からなるセグメントコーパスを構築した. 入力言語側は、一文をセグメントに分割し、すでに現れたセグメントを文脈とみなして文脈記号で接続する. 出力言語側は、分割されたセグメントに同時通訳者の用いる手法を参考にして必要な情報を付加し、これをべースモデルで翻訳した結果を用いる. 前方のセグメントを参照して、必要な情報を追加するよう学習することを期待している。 ## 3.1 セグメント 本論文では、一文を翻訳する単位となるセグメントに分割し、セグメントごとに翻訳を行うことを想定する.セグメントをどこで分割すべきかについては、様々な研究がなされてきた [10] [11] が、本論文では、セグメント長の最大値を 6 単語とし、その範囲で、最も大きい構成要素の境界でセグメントを分割した. 本論文では、このようなセグメント分割が同時通訳者が行っているものであるかは議論しないが、構成要素の単位をセグメントとすることは妥当な仮定であると考えている. また、このようなセグメント分割には、漸進的パージングが必要となるが、本論文ではこれが可能であると仮定している. ## 3.2 同時通訳者の手法 同時通訳者は、特に語順が大きく異なるような言語対では、セグメント単位の翻訳をより自然な出力とするため、様々な工夫を行う. よく見られる手法の一つとして、以下のような繰り返しがある。なお、“”はセグメントの分割位置を示す. 名詞句 (NP) の繰り返し: - 原文 : So being a Russian girl / of fairly strong being able to drink liquor very strongly, ・通訳:ロシア人の女性ですけれども/非常にお酒が強い人なので 動詞の繰り返し: - 原文:thus producing a sound / from the chanter. ・通訳:そして今度また音を出します/チャンターから出すんですね (同時通訳データベース(SIDB)[12]より) 同時機械翻訳においても、第一の例の二つ目のセ グメントを訳出する際は、前方の名詞句(NP)を繰り返すことでより自然な翻訳となる。これを可能とするために前方のセグメントを参照し、名詞句の繰り返しを学習できるよう、コーパスを作成する。 ## 3.3 文脈を考慮したセグメントコーパスの 構築 以下の手順で文脈を考慮したセグメントコーパスを構築した。 1. 入力言語の Training データをセグメントに分割する。 - 入力言語 : they explained the technology / of the dna analysis . 2. 入力言語のセグメントが前置詞 “of” で始まる場合、それが修飾する前方の名詞句(NP)を付加する. - 入力言語:they explained the technology / the technology of the dna analysis . 3. Step1-2 のセグメントをベースモデルで翻訳し、対訳ぺアを作成する。 $\cdot$出力言語:技術について解説した/dna 解析の技術 4. 入力言語のセグメントに、一文を一つの単位としてすでに現れたセグメントを付加し、間に文脈符号(_BREAK_)を付与する. - 入力言語 : they explained the technology / they explained the technology _BREAK_ of the dna analysis . $\cdot$出力言語:技術について解説した/dna解析の技術 5. Step3 の結果のうち、翻訳結果に同じ単語が 3 回以上現れるぺアは誤訳である可能性が高いため、コーパスから削除する。 - 入力言語 : at present, ・出力言語:現在, 現在では, 現在である Step2では 3.2 節に示した同時通訳者の名詞句の繰り返しを取り入れている. Step4 は、機械翻訳において文脈情報を付与する手法の一つ [13] である. ## 4 実験 文コーパスで学習したべースモデルに対して、文脈を考慮したセグメントコーパスを用いてチュー ニングを行った.同時通訳者の手法に見られるように、前方のセグメントの情報が用いた出力が可能で 表 1 データセット 表 2 実験結果 あるかを確認した。 ## 4.1 モデル PyTorch ベースの OpenNMT ${ }^{1}$ を使用して英日翻訳モデルを構築した. 6 層の Transformer のモデルで、 ド数は 8 とした. ドロップアウトは 0.1 、バッチサイズは 4,096 とした. 英語と日本語の入力には BPE [14]を適用し、英語と日本語の語彙は共有した. 語彙数は 40,543 であった. 最適化アルゴリズムには Adam を使用した. 次節のコーパスを用いてべースモデルを構築した. このべースモデルを 3.3 節のとおり作成した、文脈を考慮したセグメントコーパスでチューニングした. ## 4.2 データ データセットとして、ASPECコーパス [15]を利用した. データセットの概要は表 1 のとおりである. チューニングに使用するセグメントコーパスのデータは、ベースモデルで使用した Training データと同等のボリュームとなるよう、ベースモデルで使用した Training データより抽出した. ## 4.3 実験結果 定量評価には ASPECコーパスの評価セットを利用し、指標として $\mathrm{BLEU}^{2}$ を使用した. セグメント単位の翻訳では、それぞれの翻訳結果を一文ごとに結合し、参照翻訳と比較した. その結果を表 2 に示す. 1 節で論じているように、ASPEC コーパスの参照翻訳は必ずしも本提案が目指す結果ではない,その位置付けからすると、本評価は、ベースモデルをセグメント単位で翻訳した場合と比較して、句や節などの比較的狭いスパンでより適切な結果が得られているかに着目していることになる. より大きな構造のレベルで同時通訳結果としてより適切となっているか否かの評価は今後の課題である。 モデルに対して、文単位の評価セットとセグメント単位の評価セットで評価を行った. ベースモデルは、セグメントコーパスでチューニングする前の翻訳モデルを指す. セグメントは 3.3 節の Step $1+3+5$ を実施したコーパスでチューニングしたモデル、セグメント+NP は Step1+2+3+5 を実施したコーパスでチューニングしたモデル、セグメント+NP+文脈は、本論文の提案である Step $1+2+3+4+5$ を実施したコー パスでチューニングしたモデルを指す.このモデルでは、セグメント単位の評価セットにも文脈を付与している. ベースモデルはセグメント単位の評価で大きく劣る. 単純なセグメントコーパスによるチューニングでも、セグメント単位の評価は大きく改善するが、今回提案するコーパスによってさらなる向上が見られている. ## 5 考察 実際の翻訳例を表 3 に示す. 翻訳例 1 において、 セグメント “of 100 hours” は「100 時間の連続走行」 と翻訳されており、同時通訳者の手法で見られるように、それが修飾する前方の名詞句を参照し、これを繰り返して翻訳することができている。翻訳例 2 も同様に、前置詞 “of” で始まるセグメントは、前方の名詞句を参照し、これを繰り返して翻訳している. 本論文では 3.3 節の Step2 において名詞句の付与だけを行ったが、 3.2 節の動詞の反復を含めるなど、 これをより一般化することで、より受け手にとって負担のない翻訳を出力できるようになることが期待される。例えば翻訳例 2 において、セグメント“to explain the basic concept (本来は in order to explain the basic concept)" の翻訳と直前のセグメントの翻訳を見ると、セグメント間の関係が見えづらいが、前方のセグメントの動詞を参照してこれを繰り返すことで、より自然な翻訳を出力できるようになる。  翻訳例 1 \\ & 反射と屈折の問題, 平面境界における円筒波, 次に取り上げた, 基本概 \\ ベースモデル & 念を説明した \\ & げた, 基本概念を説明した ## 6 まとめ 本論文では、入力文をセグメントに分割し、セグメント単位で翻訳を行うという基本的な枠組みのもと、すでに現れたセグメントを文脈とみなして、これを参照してより適切な通訳結果を出力するようなセグメント単位コーパスを作成し、これを利用して翻訳モデルのチューニングを行うことで、同時機械翻訳の精度向上を図った. チューニングを行うことで、ベースモデルにおけるセグメント単位の翻訳に比べて、BLUE スコアが大きく向上した. また翻訳結果より、前方のセグメントを参照した翻訳が行われていることを確認した。 今後の取り組みとして、セグメント間の接続方法を検討したい。現在はセグメントごとに翻訳された結果を接続しているが、例えば翻訳例 1 の最初と 2 つ目のセグメントの翻訳結果において、2つ目のセグメントの翻訳時に前方のセグメントの翻訳結果を考慮し「1.0t コイル〈は〉連続走行に成功した」のように〈は〉を挿入することができれば、より自然な翻訳を得ることができると考える。 ## 参考文献 [1] Roderick Jones. Conference interpreting explained. Routledge., 1998. [2] Jiatao Gu, Graham Neubig, Kyunghyun Cho, and Victor O.K. Li. Learning to translate in real-time with neural machine translation. In Proceedings of the 15th Conference of the European Chapter of the Association for Computational Linguistics: Volume 1, Long Papers, pp. 1053-1062, Valencia, Spain, April 2017. [3] Mingbo Ma, Liang Huang, Hao Xiong, Renjie Zheng, Kaibo Liu, Baigong Zheng, Chuanqiang Zhang, Zhongjun He, Hairong Liu, Xing Li, Hua Wu, and Haifeng Wang. STACL: Simultaneous translation with implicit anticipation and controllable latency using prefix-to-prefix framework. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 3025-3036, Florence, Italy, July 2019. [4] Hao Xiong, Ruiqing Zhang, Chuanqiang Zhang, Zhongjun $\mathrm{He}$, Hua Wu, and Haifeng Wang. Dutongchuan: Contextaware translation model for simultaneous interpreting. CoRR, Vol. abs/1907.12984, , 2019. [5] Naveen Arivazhagan, Colin Cherry, Wolfgang Macherey, Chung-Cheng Chiu, Semih Yavuz, Ruoming Pang, Wei Li, and Colin Raffel. Monotonic infinite lookback attention for simultaneous machine translation. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 1313-1323, Florence, Italy, July 2019. [6] Baigong Zheng, Renjie Zheng, Mingbo Ma, and Liang Huang. Simultaneous translation with flexible policy via restricted imitation learning. In Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics, pp. 5816-5822, Florence, Italy, July 2019. [7] Jan Niehues, Ngoc-Quan Pham, Thanh-Le Ha, Matthias Sperber, and Alex Waibel. Low-latency neural speech translation. In Proceedings of Interspeech, 2018, pp. 12931297, 2018. [8] He He, Alvin Grissom II, John Morgan, Jordan BoydGraber, and Hal Daumé III. Syntax-based rewriting for simultaneous machine translation. In Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing, pp. 55-64, Lisbon, Portugal, September 2015. [9] 二又航介, 須藤克仁, 中村哲. 英日同時通訳システムのための疑似同時通訳コーパス自動生成手法の提案. 言語処理学会第 26 回年次大会, 2020. [10] Hideki Kashioka, Takehiko Maruyama, and Hideki Tanaka. Building a parallel corpus for monologue with clause alignment. In Proceedings of the Ninth Machine Translation Summit, pp. 216-223, 2003. [11] Yusuke Oda, Graham Neubig, Sakriani Sakti, Tomoki Toda, and Satoshi Nakamura. Optimizing segmentation strategies for simultaneous speech translation. In Proceedings of the 52nd Annual Meeting of the Association for Computational Linguistics (Volume 2: Short Papers), pp. 551-556, Baltimore, Maryland, June 2014. [12] Shigeki Matsubara, Akira Takagi, Nobuo Kawaguchi, and Yasuyoshi Inagaki. Bilingual spoken monologue corpus for simultaneous machine interpretation research. In Proceedings of the Third International Conference on Language Resources and Evaluation (LREC'02), Las Palmas, Canary Islands - Spain, May 2002. [13] Jörg Tiedemann and Yves Scherrer. Neural machine translation with extended context. In Proceedings of the Third Workshop on Discourse in Machine Translation, pp. 8292, Copenhagen, Denmark, September 2017. [14] Rico Sennrich, Barry Haddow, and Alexandra Birch. Neural machine translation of rare words with subword units. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1715-1725, Berlin, Germany, August 2016. [15] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian scientific paper excerpt corpus. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 2204-2208, Portorož, Slovenia, May 2016.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A9-2.pdf
# Word-Level Quality Estimation for Machine Translation based on Source-MT Word Alignment Yizhen $\mathrm{Wei}^{\dagger}$ Takehito Utsuro ${ }^{\dagger}$ Masaaki Nagata ${ }^{\ddagger}$ ${ }^{\dagger}$ Deg. Prog. Sys.\&Inf. Eng., Grad. Sch. Sci.\&Tech., University of Tsukuba ‡NTT Communication Science Laboratories, NTT Corporation, Japan ## 1 Introduction Machine translation is developing rapidly nowadays. Among various subtopics of researches of machine translation, quality estimation (referred to as QE) that estimates a translation generated by machine (referred to as MT) is attracting attention. In this paper, we propose a novel and simple wordlevel QE method that assists translators by conveying specific instructions for post-editing. We exploit multilingual BERT [1], the pre-trained language model proved to be effective in many natural language understanding tasks as our basic architecture. Besides, we incorporate the source-MT word alignment information into the $\mathrm{QE}$ model via two schemes. Therefore, apart from the traditional QE objective, our model is also able to output sourceMT word alignment as the by-product. That feature is believed to be a significant improvement because one can realize the specific operations such as replacement, insertion and deletion when source-MT word alignment is known. For evaluation, we conduct experiments on WMT20 QE shared task 2 word-level post-editing effort [9]. Our method could have ranked at the sixth place on the leaderboard among eight participants and one baseline given by the organizer. With an acceptable performance, we also introduce a demo of user interface illustrating the superiority of our method and how it assists post-editing. ## 2 Background ## 2.1 Word-Level QE Word-level QE requires the model to take a source sentence and an MT generated by a machine translation model as the inputs. The objective is to output the following three types of QE tags like it is shown in Figure 1. - Source Tags: tags indicating whether a source word is correctly translated or omitted/mistranslated in MT. - MT Word Tags: tags indicating whether an MT word is a correctly translated one or not. - MT Gap Tags: tags indicating whether no extra words should be inserted into the gap compared to the correct translation or not. Figure 1: An example of word-level QE. For convenience, source tags and MT word tags are collectively known as word tags in contrast to gap tags, while MT word tags and MT gap tags are collectively known as MT tags. ## 2.2 Related Work Modern word-level QE models are mostly based on neural networks. Predictor-estimator architecture $[3,4]$ consists of two stacked modules named predictor and estimator. The predictor is trained on large-scale parallel data and its objective is to predict target words conditioned with unbounded source and target contexts. Kim et al. [4] demonstrates that target word prediction is helpful for QE performance. The estimator, trained for QE objective, is another module that takes the feature vectors generated by the predictor as the inputs. Recent researches like Wang et al. [10] and Wu et al. [11] have proved the effectiveness of the architecture. QE BERT proposed by Kim et al. [5] is a simple architecture based on BERT [1]. During pre-training, BERT is trained on large-scale parallel data in order to adapt for QE task. During fine-tuning, BERT is then topped by a linear layer followed with softmax function for $\mathrm{QE}$ tag classification. In this paper, we employ a multilingual-BERT as the feature extractor with linear regression top layers for tag prediction. We also incorporate the sourceMT word alignment information into our model, which is proved to be helpful to word-level QE. In comparison to the previous researches, our method is believed to be superior in the following aspects. Figure 2: How alignment helps prediction of word tags: "white" and "黒い" (black) are aligned but semantically inequivalent. "and" and "dogs" cannot be aligned to any MT word. As a result, both word should be tagged as BAD. - Our method needs no pre-training on large-scale parallel data. - Our method can output source-MT word alignment as the by-product. ## 3 Source-MT Word Alignment Extracted by MultilingualBERT Intuitively, knowing source-MT word alignment is helpful to word-level QE, particularly for the prediction of word tags. For example, like it is shown in Figure 2, tags of a pair of words aligned but semantically inequivalent should be tagged as BAD. Tags of words which do not have aligned counterparts should be tagged as BAD too. However, obtaining source-MT word alignment is non-trivial because MT is not always a correct translation. We found that statistical word alignment tools like GIZA++ [8] and FastAlign [2] could not handle source-MT alignment extraction well. As a solution, we follow the neural methods based on multilingual-BERT [1] (referred to as mBERT) proposed by Nagata et al. [6]. The source sentence in which a word is marked by special token (" I ") serves as the query and is concatenated by MT considered as the context. The model is trained to identify one or multiple words in a span in MT that are aligned to the marked source word as shown in Figure 3. Because of the symmetrical characteristics of word alignment extraction, similar operations will be done again in the opposite direction where the MT with a marked word at the front and the source sentence as context at the rear. Traditional statistical method models the extraction of word alignment upon a joint distribution. As a result, an incorrect matching might cause a domino effect that generates other incorrect alignments. However, that problem is evaded in the aforementioned mBERT-based method by extracting word alignments individually. Nagata et al. [6] Figure 3: Extracting source-MT word alignment by multilingual-BERT. In this case, although not being semantically equivalent, the word "cats" is still aligned to "犬" (dogs) by mBERT. proved that the mBERT-based method significantly outperforms statistical method. Though the situation is slightly different in our case since the MT is not always the correct translation, the method still works giving the credit to the strength in language understanding of mBERT. ## 4 Word-Level QE based on Source-MT Word Alignment According to the illustration in Section 3, semantical equivalence still needs to be manually judged to determine word tags. Instead of utilizing the word alignment explicitly, we designed two schemes implicitly exploiting word alignment information. ## 4.1 Joint Scheme In joint scheme shown in Figure 4(a), a linear layer transfers the output vector of [CLS] token into a scalar value. It is then processed to a probability value through a Sigmoid function. Such a value is considered as the probability of a particular word tag being BAD. We keep the special tokens in the input sequence to indicate that tag of which word is being calculated. As the input sequence is identical to that for word alignment extraction mentioned above, we jointly trained the model for two objectives (word tags and word alignment) as shown in Figure 4(a). During inference, the model is able to predict the probability of word tags and the aligned words simultaneously. ## 4.2 Cascade Scheme In cascade scheme shown in Figure 4(b), the model is trained in two phases. In the first phase, the model is merely trained for source-MT word alignment as introduced in Section 3. Then the model for word tag prediction is initialized with the parameters from the pre-trained model in the first phase. Word tag (a) Joint scheme: the word tag and the alignment of the marked word is predicted simultaneously. (b) Cascade scheme: word tags are predicted in a manner of sequence tagging. Figure 4: Two schemes incorporating source-MT word alignment into $\mathrm{QE}$ tag prediction. prediction in this scheme is modeled as a sequence tagging problem. Two different linear layers respectively transform source and MT output vectors into scalar values as their probabilities of being BAD. Because prediction of word tags is a downstream task of source-MT word alignment extraction, we consider this scheme as a cascade. ## 5 Experiment ## 5.1 Data and Settings We adopt the English-German dataset provided by WMT20 quality estimation shared task $2^{1}$ for our experiments. There are 7,000,1,000 and 1,000 groups of data for training, development and testing respectively. In one group of data, there is a source sentence, an MT, a post-edited sentence based on MT (referred to as PE), source tags as well as MT tags. 2 As there is no proper training data for source-MT word alignment, we take $\mathrm{PE}$ as a connection. A source word is aligned to an MT word if they are aligned to the same $\mathrm{PE}$ word in respective alignments. Both source-PE and PE-MT alignment are ^{1}$ http://www.statmt.org/wmt20/ quality-estimation-task.html }^{2}$ Source-MT alignment data extracted by FastAlign is given but as mentioned above we gave up using it for its poor quality. Table 1: Results of QE tags under different schemes. Source Tag extracted by the method introduced in Section 3. For source-PE, we adopt GIZA++ to extract the rough source-PE alignment as training data to finetune the mBERT. For PE-MT, we calculate cosine similarities between words from embeddings output by the monolingual BERT of the corresponding language. Then we extract alignments from all word pairs while maximizing the sum of similarities subjecting to the limitation that each $\mathrm{PE}$ word aligns to one MT word at most. That is implemented by integer linear programming [7]. The extracted data is utilized to fine-tune a monolingual BERT since PE an MT share a same language. For the pre-trained model, we adopt bert-basemultilingual-cased provided by huggingface ${ }^{3}$. Scripts for QA and sequence tagging from huggingface are modified for our experiments. In both schemes, learning rate is set to $3 \mathrm{e}-5$. The hyper parameters are kept unchanged as the original settings of huggingface. According to our best practice, models of joint scheme and cascade scheme are trained for two epochs and five epochs respectively. ## 5.2 Results As our model output probabilities for prediction of word tags, a threshold is needed to determine the specific tags. We try values from 0.01 to 0.99 with a stride of 0.01 on the development set to search for the optimized threshold. 0.11 and 0.15 are the best values respectively for joint scheme and cascade scheme. The results of the word tags of our experiment are shown in Table 1. According to WMT20 [9], we adopted metrics including F1 scores respectively for OK and BAD as well as Matthews correlation coefficient (MCC). For baseline system, we adopted OpenKiwi implemented by Unbabel. Note that MT tags are comprised of MT word tags and MT gap tags. Intuitively, identifying the corresponding gap for a BAD source word is effective in predicting gap tags. Unfortunately, word alignment tools including the mBERT-based approach do not ^{3}$ https://github.com/huggingface/transformers } Table 2: Results of ablation study. ( $\dagger$ indicates statistically significant $(\mathrm{p}<0.01)$, while $\star$ indicates not statistically significant $(\mathrm{p}<0.05)$.) & \\ handle the gaps. Therefore, we fail to generate relation between source words and MT gaps according to the method introduced in the previous subsection. As a solution, we tag all gap tags as OK because ratio of $\mathbf{B A D}$ is fairly low in training and development set. Compared to the results of participants of WMT20, our best performance in cascade scheme could have ranked at 6th place either in source tag MCC or MT tag MCC. We further investigate the effectiveness of sourceMT word alignment by multiplying the loss of word alignment with a factor of 0.1 to weaken the influence of the alignment information in joint scheme and initialize with the original mBERT in cascade scheme. Those are referred to as "Joint $\mathrm{w} /$ weak align" and "Cascade w/o align" respectively. The results are shown in Table 2. For prediction of source tags, a statistically significant difference is confirmed in both schemes when alignment information is involved. For prediction of MT tags in cascade scheme, although the absolute value decreases, there is no statistically significant difference. Consequently, involving source-MT word alignment information in word-level QE could significantly improve the performance. In fact, the training data for source-MT word alignment is automatically generated and is not necessarily gold. If manually labelled source-MT word alignment data is available, a further improvement is expected. ## 6 A Demo of User Interface Compared to normal word-level QE models, our model is able to output source-MT word alignment as by-product. In this section, we introduce a demo of user interface which displays the output source-MT word alignment as well as the word tags on the same page. ${ }^{4}$ As the task name of WMT20 "post-editing effort" suggests, a significant application for wordlevel QE is to instruct post-editing. However, current BAD tags fail to provide a clear instruction since there are multiple causes. We argue that with ^{4}$ available at https://wyzypa.cn/tools/qe-demo/ } (a) Word tags output with word alignment (b) Word tags output without word alignment Figure 5: Output of the user interface with/without alignment additional word alignment information, post-editing will be easier to a certain extent. We add a switch on the interface shown in Figure 5. In Figure 5(b), when "white" is tagged as BAD the user still needs to think whether it is badly translated or its translation is omitted in MT. However, when alignment is displayed on the interface, the user might notice that the word "white" is aligned to "黒い"(black) which is also tagged as BAD. Therefore, it is a signal for replacement that "黒い"(black) should be replaced with a correct translation which is "白い". Likewise, "dogs" has not been aligned to any word so that the user only needs to identify a gap where the omitted translation should be inserted. Apparently, our system could merely assist the user to a certain extent since one still needs to identify the gap to insert the omitted translation manually. We would like to research into those problems in our future work. ## 7 Conclusion In this paper, we propose a novel method for wordlevel $\mathrm{QE}$ which requires the model to output $\mathrm{QE}$ tags for post-editing effort. We incorporate sourceMT word alignment into our model by designing two schemes. The effectiveness of incorporating sourceMT word alignment is proved. Our model also output the source-MT word alignment as the byproduct, which we believe making post-editing easier. ## References [1] J. Devlin, M. Chang, K. Lee, and Toutanova K. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proc. 17th NAACL-HLT, pages 4171-4186, 2019. [2] C. Dyer, V. Chahuneau, and N. Smith. A simple, fast, and effective reparameterization of IBM model 2. In Proc. 11th NAACL-HLT, pages 644-648, 2013. [3] H. Kim and J. Lee. Recurrent neural network based translation quality estimation. In Proc. 1st WMT, pages 787-792, 2016. [4] H. Kim, J. Lee, and S. Na. Predictor-estimator using multilevel task learning with stack propagation for neural quality estimation. In Proc. 2nd WMT, pages 562-568, 2017. [5] H. Kim, J. Lim, H. Kim, and S. Na. QE BERT: Bilingual BERT using multi-task learning for neural quality estimation. In Proc. 4th WMT, pages 85-89, 2019. [6] M. Nagata, K. Chousa, and M. Nishino. A supervised word alignment method based on cross-language span prediction using multilingual BERT. In Proc. EMNLP, pages 555-565, 2020 . [7] M. Nishino, J. Suzuki, S. Umetani, T. Hirao, and M. Nagata. Sequence alignment as a set partitioning problem. Journal of Natural Language Processing, 23(2):175-194, 2016. [8] F. Och and H. Ney. A systematic comparison of various statistical alignment models. Computational Linguistics, 29(1):19-51, 2003. [9] L. Specia, F. Blain, M. Fomicheva, E. Fonseca, V. Chaudhary, F. Guzmán, and A. Martins. Findings of the WMT 2020 shared task on quality estimation. In Proc. 5th WMT, pages 741762,2020 . [10] M. Wang, H. Yang, H. Shang, D. Wei, J. Guo, L. Lei, Y. Qin, S. Tao, S. Sun, Y. Chen, and L. Li. HW-TSC's participation at WMT 2020 automatic post editing shared task. In Proc. 5th WMT, pages 1054-1059, 2020. [11] H. Wu, Z. Wang, Q. Ma, X. Wen, R. Wang, X. Wang, Y. Zhang, Z. Yao, and S. Peng. Tencent submission for WMT20 quality estimation shared task. In Proc. 5th WMT, pages 10601065, 2020.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A9-3.pdf
# Fine-Tuninng と混成的な逆翻訳サンプリングに基づく NMT の双方向反復的教師なし適応の改善 森田 知熙 morita.tomohiro.al@tut.jp } 秋葉友良 豊橋技術科学大学 akiba.tomoyoshi.tk@tut.jp tsukada.hajime.hl@tut.jp ## 1 はじめに 機械翻訳においては,学習に使用する対訳コーパスの量と質が最終的な翻訳精度に直結する。しかしながら,対訳コーパスは単言語コーパスに比べて収集,構築が困難である.そのため,豊富な単言語コーパスを活用し,ドメイン内での翻訳精度を向上させるドメイン適応の研究が盛んに行われている. 中でも,Sennrich ら [1] は単言語コーパスを利用した半教師あり学習手法として単言語コーパスを逆翻訳して疑似対訳コーパスを生成し,翻訳モデルを学習することで翻訳精度の向上を達成した. さらに Hoang ら [2], Zhang[3] らはこの手法を双方向に繰り返し行う,つまり疑似対訳コーパスの生成と翻訳モデルの学習を 2 つの言語間で交互に繰り返すことでさらなる翻訳精度の向上を達成している.この手法では,疑似対訳コーパスにより翻訳精度が改善された翻訳モデルにより更に質の高い疑似対訳コーパスを生成できるため,これを繰り返すことで翻訳精度を大きく改善することができる。また,森田ら [4] 藤澤ら [5], Jin ら [6] はこれらの手法のドメイン適応での有効性を評価している。 本論文では,単言語コーパスを利用した繰り返しの半教師あり学習によるドメイン適応手法において,さらに fine-tuning により,以前の翻訳モデルから再学習する方法を提案する。また,繰り返し学習の際,疑似対訳コーパスの単調化を防ぐため,beam search による逆翻訳文と random sampling による逆翻訳文を組み合わせることで疑似対訳コーパスの質を維持しつつ多様性を増加させる逆翻訳手法を提案する。 科学技術論文ドメインから特許ドメインへの適応について英日翻訳,日英翻訳の実験を行った結果, fine-tuning を行わない既存の繰り返し学習手法に対して,英日方向で+2.59 BLEU が向上した. さらに, random sampling と beam searchにより生成した疑似対訳コーパスを併用することで,最終的な BLEU 值はそれぞれ英日方向で 40.58 , 日英方向で 38.22 となり,完全な対訳コーパスで教師あり学習を行った Oracle モデルの BLEU 値 $(41.95,40.04)$ に迫る翻訳精度を達成した。 ## 2 関連研究 ニューラル機械翻訳におけるドメイン適応手法は,主にターゲットドメインに対訳コーパスがあることを前提とした教師あり学習手法と,単言語コー パスを利用する半教師あり学習手法を用いたものに大別され,本論文は後者に該当する。 対訳コーパスに比べ収集,構築が容易な半教師あり学習は様々な手法が提案されている. Gülçehre ら [7] はターゲット側の単言語コーパスから学習した言語モデルを利用する方法を提案している. Cehng ら [8] はオートエンコーダを用いて単言語コーパスと対訳コーパスを組み合わせて学習する方法を提案している. Zhang ら [3] も同様にオートエンコーダを用いて翻訳と文の並べ替えを同時に学習するマルチタスク学習手法を提案している。これらの手法は単言語コーパスを用いるために翻訳システムの変更が必要となる. 一方で,翻訳モデルの大規模な変更を必要としない半教師あり学習手法も多く提案されている. Currey ら [9] はターゲット側の文をそのままソー ス側にコピーして入力する方法を提案している. Sennrich ら [1] は少量の対訳コーパスから学習したターゲット側の翻訳モデルで単言語コーパスを逆翻訳し,疑似対訳コーパスとして利用する方法を提案している。今村ら [10][11][12] は,Sennrich らの手法を拡張し,逆翻訳の際に random sampling を用いることで,疑似ソース文に多様性を持たせることで翻訳品質が向上することを報告している. Graça ら [13] は,今村ら [10][11]の提案を踏まえ,N-ベストサンプリングにより探索空間を制限することで高品質な疑似対訳コーパスのみを生成する方法を提案している. Zhang ら [3] や Hoang ら [2] は Sennrich らの手法を拡張し,ターゲット側だけでなくソース側の翻訳モデルも同様の手順で性能を改善することで,双方向の翻訳モデルの性能を改善する. さらに二つの性能が改善されたモデルで単言語コーパスをもう一度逆翻訳し,疑似対訳コーパスの質を向上させることができる。これを繰り返し,二つの言語間で双方向に疑似対訳コーパスの生成と翻訳モデルの更新を同時に繰り返し行うことにより翻訳精度のさらなる改善を達成している. また, Jin ら [6] や藤澤ら [5], 森田ら [4] はこれらの手法のドメイン適応での実験を行っており,その有効性を評価している。これらの手法では, 各繰り返しで直前のモデルで生成した疑似対訳コーパスを用いて一から次の翻訳モデルを学習している. ## 3 提案法 本論文で提案する手法は,Zhang ら [3],Hoang ら [2], Jin ら [6], 森田ら [4] や藤澤ら [5] の双方向反復的教師なし適応手法をもとに,fine-tuning を取り入れたものである. 従来の双方向反復的教師なし適応手法 [4] では,同時に両方向の翻訳モデルの性能を改善するが,実際には両方向の翻訳モデルは交差する関係にあり,独立した二つの系列として交わることはない. そのため,二つの系列どうしで翻訳精度に差が生じ,また,優れた系列側の知識をもう一つの系列の性能改善に活かせないという問題があった. 藤澤ら [5] は異なる系列の疑似対訳コーパスをもう一つの系列の疑似対訳コーパスと結合することで翻訳精度を改善できることを報告しているが,学習データが増大するために, 繰り返し学習全体の時間の増大を避けることができない. 本論文で提案する手法は,翻訳モデルを学習する際,一からモデルを学習するのではなく一つ前のモデルから fine-tuning することで異なる二つの系列の疑似対訳コーパスの知識を学習することができる. また,学習データのサイズは従来手法 [4] と変わらないため, 繰り返し学習全体の時間コストも増加しないという利点がある. 源言語を $\mathrm{X}$ ,目的言語を $\mathrm{Y}$ とし,Xから $\mathrm{Y} へ$ の翻訳を X-Y,YからXへの翻訳を $\mathrm{Y}-\mathrm{X}$ とす. 提案法の手順は以下のとおりである。(図 1) 1 ドメイン外対訳コーパス $\left(D_{X}^{\text {out }}, D_{Y}^{\text {out }}\right)$ から両方向の翻訳モデル $\left(\right.$ Model $_{X-Y} 0$, Model $\left._{Y-X} 0\right)$ を学習する。 2 以下の手順で $\operatorname{Model}_{X-Y}(i)$ を更新する. 2.1 Model $_{Y-X} i$ で単言語コーパス $D_{Y}^{i n}$ を翻訳し,疑似対訳コーパス $\left(D_{X}^{i n^{\prime}}, D_{Y}^{i n}\right)$ を得る. 2.2 疑似対訳コーパス $\left(D_{X}^{i n^{\prime}}, D_{Y}^{i n}\right)$ と対訳コー パス $\left(D_{X}^{\text {out }}, D_{Y}^{\text {out }}\right)$ を混合し, $\operatorname{Model}_{X-Y}(i)$ から fine-tuning を行い $\operatorname{Model}_{X-Y}(i+1)$ を得る. 3 以下の手順で Model $_{Y-X} i$ を更新する. 3.1 Model $_{X-Y} i$ で単言語コーパス $D_{X}^{i n}$ を翻訳し,疑似対訳コーパス $D_{Y}^{i n}{ }^{\prime}, D_{X}^{i n}$ を得る. 3.2 疑似対訳コーパス $\left(D_{Y}^{i n^{\prime}}, D_{X}^{i n}\right)$ と対訳コー パス $\left(D_{Y}^{\text {out }}, D_{X}^{\text {out }}\right)$ を混合し, $\operatorname{Model}_{Y-X} i$ から fine-tuning を行い $\operatorname{Mode}_{Y-X}(i+1)$ を得る. $4 \mathrm{i} \leftarrow \mathrm{i}+1$ としてステップ 2 に戻る. また,今村ら [12] は,逆翻訳による半教師あり学習手法において, random sampling により疑似原文を複数生成することで翻訳精度が向上することを指摘しているが,学習データが増大するために,学習時間が増加するという欠点がある。さらに, Edunov ら [14] は,初期対訳コーパスサイズが小さい場合,逆翻訳器の翻訳精度が低いために, beam search 以外の逆翻訳手法は逆効果になることを報告している. そこで,疑似対訳コーパスを生成する際に,半分を beam search,もう半分を random sampling により逆翻訳し,これらを混合する Combining Sampling を提案する. この手法は, 逆翻訳器の性能が低い場合でも,ノイズが小さい beam search による翻訳文が混在するため疑似対訳コーパスの質の低下を防ぎつつ多様性の増加を期待できる。 さらに,学習データサイズが増加しないため, 繰り返し学習においてもデメリットなしで使用できる. なお,学習データの質の偏りを防ぐため,逆翻訳の際に 1 行ごとに交互にサンプリング方法を切り替え,また上記の手順で翻訳モデルの更新を行うたびに単言語コーパスの偶数行と奇数行を入れ替える. ## 4 実験 in domain Parallel corpus 図 1 fine-tuning を導入した双方向反復的教師なし適応手法の流れ ## 4.1 データセット ドメイン外の対訳コーパスとして Asian Scientific Paper Excerpt Corpus(ASPEC)[15]を,ドメイン内の単言語コーパスとして NTCIR8-PATENT を使用した. ASPEC コーパスには訓練データが約 300 万文対するが,この内,先頭から 100 万文対をドメイン内対訳コーパスとして使用した。 PATENT コーパスは約 318 万文対の訓練データの内,英語と日本語の単言語コーパスが対訳にならないように,先頭の 10 万文対を除いたものを半分に分割し, 先頭の 154 万文を英語の単言語コーパス,後ろの 154 万文を日本語の単言語コーパスとして使用した. 事前の処理として,両コーパスのすべてのデータを NFKC 正規化し,英語側のコーパスは Moses[16] に付属するトークナイザーでトークナイズしたあと, Moses[16] の truecaser で大文字小文字の表記の統一を行った. また, 学習前の事前処理として SentencePiece[17] により各データをサブワード化した. SentencePiece のモデルの学習には,ドメイン外対訳コーパスとドメイン内単言語コーパスを結合したものを用いた. ## 4.2 実験方法 ドメイン外対訳コーパスである ASPECコーパスを使用し,英日,日英方向の翻訳モデル (Model0)を学習する. 次に, 学習した日英翻訳モデルで, ドメイン内単言語コーパスである NTCIR8-PATENTコー パスを逆翻訳し疑似対訳コーパスを作成する。この対訳コーパスと ASPECコーパスを混合し,新たに英日方向の翻訳システムを学習する.英語の単言語コーパスに対しても同様の手順で疑似対訳コー パスを生成し,新たに日英翻訳モデルを学習する。 これを Model1 とし,以降翻訳システムを学習するごとに Mode12, Model3, ...ModelN とする. ただし, Model2 以降は,翻訳システムを学習する際に,一つ前の同方向のモデルから fine-tuning を行う. Model2 の英日翻訳システムは, Model1 の英日翻訳システムから fine-tuning し,日英方向の翻訳モデルは Model1 の日英翻訳モデルから fine-tuning する. Model3 の翻訳システムも同様に Model 2 の翻訳システムから fine-tuning し,以降これを繰り返す。 ベースラインとして,fine-tuningを行わない通常の繰り返し学習を行ったモデルと性能を比較する。 また,逆翻訳の方法による疑似対訳コーパスの質の違いも調べるため,以下の 5 つのモデルで性能の比較を行う。 Oracle NTCIRコーパス約 300 万文を完全な対訳コーパスとして APSEC コーパスと結合し通常の教師あり学習を行う。 Baseline fine-tuningを行わず,通常の繰り返し学習を行う [4]. beam searchにより逆翻訳を行う。 Best Sampling 通常の beam searchにより逆翻訳を行う. Random Sampling 尤度の高い文ではなく,モデルの事後確率による random sampling により文を 生成し逆翻訳を行う. Combining Sampling 上記の二つの方法を組み合わせて疑似対訳コーパスを作成する. 英日方向では,単言語コーパスの偶数行を random sampling, 奇数行を beam searchにより逆翻訳し,日英方向では奇数行を random sampling, 偶数行を beam searchにより逆翻訳する。ただし,翻訳システムの更新が Model1, Model2, ...ModelN と進むごとに偶数行と奇数行を入れ替える. ## 4.3 実験条件 翻訳システムとして, OpenNMT-py[18] の Transformerを使用した. エンコーダ,デコーダともに 6 層とし,隠れ層の次元を 512 とした。最適化には Adam を使用した. サブワードの分割サイズは $16 \mathrm{~K}$ 学習ステップは, ASPECコーパスのみから学習を行う初期モデルは 10000 ステップ, 以降の ASPEC コーパスと PATENTコーパスから学習を行うモデルは 25000 ステップとした. また, 初期モデルでは 1000 ステップ,以降のモデルでは 2500 ステップごとに翻訳モデルを保存し,性能評価は BLEU[19] により行った. 英日翻訳では, テストセットの翻訳結果をデトークナイズしたあとに, Meacb により分かち書きし,評価を行った. 開発データでの BLEUが最も高いモデルをテストデータでの性能評価, 及び単言語コーパスの逆翻訳に用いた。 ## 4.4 実験結果 各条件において Mode19 まで学習したなかで, NTCIRコーパスの開発データに対する BLEU 值が最も高い Model のテストデータに対する BLEUを表 1 に示す. 各条件でのすべてのモデルの BLEU 值は付録に示す. fine-tuning を行わないモデルに比べ, beam search による fine-tuning を行ったモデル (Fine tuning + Best Sampling)では英日方向では+2.59 BLEU値が向上したが,日英方向では-2.29 BLEU 値が下がった. しかし,二つの逆翻訳手法を組み合わせたモデル (Combining Sampling) は最も大きく BLEU 值が向上し, fine-tuning を行わないモデルに比べ英日方向で+4.67, 日英方向で $+2.78 \mathrm{BLEU}$ 值が向上した. random sampling で逆翻訳をしたモデルではベースラインよりも BLEU 值が低くなっている。これは, random sampling では逆翻訳文の質が低下し,ステップが進むごとに疑似対訳コーパスの質が低くなるためであると考えられる. 同様の結果は、先行研究 [14] において、初期モデルの性能が低い場合は random Sampling が有効でないことが示されている。一方で Combining Sampling で翻訳精度が大きく向上していることから, beam searchによる最もノイズの少ない翻訳文を混ぜることにより,初期モデルの精度が低い場合でも疑似対訳コーパスの質の低下を防ぐことができていると考えられる。 以上から,Combining Sampling は,従来の逆翻訳手法 [10][11][12][13] では翻訳精度の改善が困難であった初期モデルの精度が低い場合でも翻訳精度を改善することができると言える。 ただし,今回は beam search と Random sampling による逆翻訳文の割合を $1: 1$ として実験を行ったがより最適な混合割合がある可能性は残っている。 ## 5 おわりに 本論文では,繰り返し学習によるドメイン適応手法で,fine-tuning を行うことでさらに翻訳精度が向上することを確認した。これは,異なる系列の翻訳モデルの知見を利用することができるためであると考えられ,手法は異なるが藤沢ら [5] の主張と一致する。また,疑似対訳コーパスを生成する際に beam search と random sampling による逆翻訳した文を混合することで翻訳精度がより大きく改善され,通常の教師あり学習を行った Oracle モデルに迫る翻訳精度を得た。 今後の研究としては beam search と random sampling による逆翻訳文の適切な混合割合を調査したい。また,ドメイン外対訳コーパスに対しても同様に逆翻訳文を混合することで翻訳精度が向上するかを実験したい. 謝辞本研究は JSPS 科研費 $19 \mathrm{~K} 11980$ および 18H01062 の助成を受けた. ## 参考文献 [1] Rico Sennrich, Barry Haddow, and Alexandra Birch. Improving neural machine translation models with monolingual data. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 86-96, Berlin, Germany, August 2016. Association for Computational Linguistics. https://www.aclweb.org/anthology/P16-1009. [2] Vu Cong Duy Hoang, Philipp Koehn, Gholamreza Haffari, and Trevor Cohn. Iterative back-translation for neural machine translation. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 18-24, Melbourne, Australia, July 2018. Association for Computational Linguistics. https: //www.aclweb.org/anthology/W18-2703. [3] Zhirui Zhang, Shujie Liu, Mu Li, Ming Zhou, and Enhong Chen. Joint training for neural machine translation models with monolingual data. Proceedings of the AAAI Conference on Artificial Intelligence, Vol. 32, No. 1, Apr. 2018. https://ojs.aaai.org/ index.php/AAAI/article/view/11248. [4] 森田知熙, 秋葉友良, 塚田元. 双方向の逆翻訳を利用したニューラル機械翻訳の教師なし適応の検討. 言語処理学会第 25 回年次大会発表論文集, pp. 1451-1454. Information Processing Society of Japan, March 2019. https://www.anlp.jp/ proceedings/annual_meeting/2019/pdf_dir/A6-1.pdf. [5] 藤澤兼太, 秋葉友良, 塚田元. ニューラル機械翻訳における双方向反復的教師なし適応の改善. 言語処理学会第 26 回年次大会発表論文集, pp. 744-747. Association for Natural Language Processing, March 2020. https://www.anlp.jp/proceedings/ annual_meeting/2020/pdf_dir/P3-26.pdf. [6] Di Jin, Z̄Zhijing Jin, Joey Tianyi Zhou, and Peter Szolovits. A simple baseline to semi-supervised domain adaptation for machine translation, 2020. https://arxiv.org/abs/2001.08140. [7] Çaglar Gülçehre, Orhan Firat, Kelvin Xu, Kyunghyun Cho, Loïc Barrault, Huei-Chi Lin, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. On using monolingual corpora in neural machine translation. CoRR, Vol. abs/1503.03535, , 2015. http://arxiv. org/abs/1503.03535. [8] Yong Cheng, Wei Xu, Zhongjun He, Wei He, Hua Wu, Maosong Sun, and Yang Liu. Semi-supervised learning for neural machine translation. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pp. 1965-1974, Berlin, Germany, August 2016. Association for Computational Linguistics. https://www.aclweb.org/ anthology/P16-1185. [9] Anna Currey, Antonio Valerio Miceli Barone, and Kenneth Heafield. Copied monolingual data improves low-resource neural machine translation. In Proceedings of the Second Conference on Machine Translation, pp. 148-156, Copenhagen, Denmark, September 2017. Association for Computational Linguistics. https://www.aclweb.org/anthology/W17-4715. [10] 今村賢治, 藤田篤, 隅田英一郎. 単言語コーパスと逆翻訳を用いたエンコーダー・デコーダーの訓練法. 言語処理学会第 24 回年次大会発表論文集, pp. 29-32. Information Processing Society of Japan, March 2018. https://www.anlp.jp/ proceedings/annual_meeting/2018/pdf_dir/B1-3.pdf. [11] Kenji Imamura, Atsushi Fujita, and Eiichiro Sumita. Enhancement of encoder and attention using target monolingual corpora in neural machine translation. In Proceedings of the 2nd Workshop on Neural Machine Translation and Generation, pp. 55-63, Melbourne, Australia, July 2018. Association for Computational Linguistics. https://www.aclweb.org/anthology/W18-2707. [12] 今村賢治, 藤田篤, 隅田英一郎. サンプリング生成に基づく複数逆翻訳を用いたニューラル機械翻訳. 人工知能学会論文誌, Vol. 35, No. 3, pp. A-JA9_19, 2020. https://www.jstage.jst.go.jp/article/tjsai/35/3/ 35 A-JA9/ article/-char/ja/. [13] Miguel Graça, Yunsu Kim, Julian Schamper, Shahram Khadivi, and Hermann Ney. Generalizing back-translation in neural machine translation. In Proceedings of the Fourth Conference on Machine Translation (Volume 1: Research Papers), pp. 45-52, Florence, Italy, August 2019. Association for Computational Linguistics. https://www.aclweb.org/anthology/W19-5205. [14] Sergey Edunov, Myle Ott, Michael Auli, and David Grangier. Understanding back-translation at scale. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing, pp. 489-500, Brussels, Belgium, October-November 2018. Association for Computational Linguistics. https://www. aclweb.org/anthology/D18-1045. [15] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. ASPEC: Asian scientific paper excerpt corpus. In Proceedings of the Tenth International Conference on Language Resources and Evaluation (LREC'16), pp. 2204-2208, Portorož, Slovenia, May 2016. European Language Resources Association (ELRA). https: //www.aclweb.org/anthology/L16-1350. [16] Philipp Koehn, Hieu Hoang, Alexandra Birch, Chris CallisonBurch, Marcello Federico, Nicola Bertoldi, Brooke Cowan, Wade Shen, Christine Moran, Richard Zens, Chris Dyer, Ondřej Bojar, Alexandra Constantin, and Evan Herbst. Moses: Open source toolkit for statistical machine translation. In Proceedings of the 45th Annual Meeting of the Association for Computational Linguistics Companion Volume Proceedings of the Demo and Poster Sessions, pp. 177-180, Prague, Czech Republic, June 2007. Association for Computational Linguistics. https://www.aclweb.org/anthology/P07-2045. [17] Taku Kudo and John Richardson. SentencePiece: A simple and language independent subword tokenizer and detokenizer for neural text processing. In Proceedings of the 2018 Conference on Empirical Methods in Natural Language Processing: System Demonstrations, pp. 66-71, Brussels, Belgium, November 2018. Association for Computational Linguistics. https: //www.aclweb.org/anthology/D18-2012. [18] Guillaume Klein, Yoon Kim, Yuntian Deng, Jean Senellart, and Alexander M. Rush. Opennmt: Open-source toolkit for neural machine translation. CoRR, Vol. abs/1701.02810, , 2017. http: //arxiv.org/abs/1701.02810. [19] Kishore Papineni, Salim Roukos, Todd Ward, and Wei-Jing Zhu. Bleu: a method for automatic evaluation of machine translation. In Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics, pp. 311-318, Philadelphia, Pennsylvania, USA, July 2002. Association for Computational Linguistics. https://www.aclweb.org/anthology/P02-1040. ## A 付録 表 2 Fine tuning + Best Sampling の各繰り返しごとの BLEU 值 ASPEC NTCIR 表 3 Fine tuning + Random Sampling の各繰り返しごとの BLEU 值 ASPEC NTCIR 表 4 Fine tuning + Combining Sampling の各繰り返しごとの BLEU 値
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/
A9-4.pdf
# 日本語話し言葉書き言葉変換による 大学講義の日英翻訳の精度向上 中尾亮太 Chenhui Chu 黒橋禎夫 京都大学大学院情報学研究科 \{nakao, chu, kuro\}@nlp.ist.i.kyoto-u.ac.jp ## 1 はじめに 教育の国際化により、外国人留学生が増えてきている。これに伴い、日本語を勉強中の学生をサポー トする必要が増加している。この需要に応えるため、日本語講義の英訳システムを株式会社アドバンスド・メディアとの協力により開発した。本システムは講師が日本語で話す音声を、音声認識器によってテキストデータに変換し、おおよそ文単位となるように適当な位置で分割した日本語字幕と、それを機械翻訳した英語字幕を生徒のスマートフォンや講義室のスクリーンにリアルタイムで表示する。これにより講義内容の理解の補助と同時に日本語の習得を手助けできる。 本システムは講義音声を他言語字幕に翻訳する既存のシステム [1][2] と同様に、音声認識器や翻訳モデルをそれぞれ独立したコンポーネントとして構成する。音声認識器は株式会社アドバンスド・メディアが、文区切り器と日英翻訳モデルは我々が開発した。 ここで用いる機械翻訳モデルに関して、広く利用可能な日本語テキストの多くは書き言葉で記録されているため、このモデルも書き言葉のコーパスで事前訓練されている。一方、講義では話し言葉が用いられる。 そこで、本研究では日本語の話し言葉と書き言葉の違いに着目し、翻訳の前処理として書き言葉に自動変換することで翻訳精度を向上させる。そのために、大学講義の書き起こしとそれを書き言葉に変換したもの、対応する英文の 3 つ組からなるコーパスを作成した。次にそれを用いて話し言葉書き言葉変換モデルと日英翻訳モデルを学習させた。その結果として、話し言葉書き言葉変換が日英翻訳の精度を向上させることを示した(図 1)。 図 1 大学講義の日英翻訳システムの概要 ## 2 関連研究 ## 2.1 話し言葉と書き言葉の違い 話し言葉に特有の現象を、島津ら [3] は4つに大別している。 - 語彙的な現象:音韻的な縮約、口語的な助詞、敬語、感動詞 - 省略:格助詞・判定詞の省略 -冗長な表現:言い直し、繰り返し、言い換元、言い淀み ・文の概念がないことに関連する現象 : 名詞句・助詞句発話、格助詞での中止、ねじれ、倒置 他に話し言葉の性質について言及した研究として [4] があるが、作業者にとって過剰に広範かつ詳細であるため、本研究でのコーパス構築作業にあたっては [3]を参考にした。 これらのうち、どの現象を本研究の対象とするかは次章以降で議論する。 ## 2.2 話し言葉の自動整形 日本語の話し言葉を自動で修正し読みやすくする事例として国会会議録を音声データから自動で書き起こす研究がある [5]。これを含めて音声認識分野の研究では書き起こしの忠実性や発話者の意図の尊 表 1 書き起こしの講義名と文数 重のため、言い直しや繰り返しはそのままテキストに残す場合が多く、㔯長な部分を修正するとしても文末の「ですね」などに限られる。本研究では、後続の翻訳タスクでの影響を重要視し、2.1 章に示した話し言葉と書き言葉の違いを可能な限り網羅するような修正を施す。 ## 2.3 非流暢性の除去による翻訳精度向上 [6][7] のように、フィラーや冗長な表現を除去することで翻訳精度を向上させる研究は存在する。 しかし日本語では、それらだけでなく「ですんで」「こっから」のような音韻的な縮約による違いも多く見られる。本研究では非流暢性だけでなく語彙的な現象による翻訳精度への影響を調査する。また、整形されたテキストを字幕として提供することは日本語初学者が勉強するに当たり、辞書を引きやすくなる、標準的な日本語を覚えられるなどのメリットがある。 ## 3 コーパスの構築 ここで示すデータは京都大学で 2019 年度に行われた 5 つの講義の書き起こしをもとに構築した。表 1 に講義名と分割後の文の数を示す。以後、この書 ## 3.1 話し言葉書き言葉変換コーパスの構築 2.1 章で述べた話し言葉と書き言葉の違いを具体例とともに作業者に提示して変換を依頼した。ただし、それらの話し言葉と書き言葉違いのうち、「名詞句・助詞句発言」「ねじれ」はコンテキストへの依存性の高さや専門的な内容に言及している場合の判断の難しさから、作業者には変換を指示しなかった。また、講義で使われる敬語の多くは丁寧語であり、書き言葉でもよく見られる表現であるため、「敬語」に関する違いも変換対象としなかった。変換後のデータを以後 $\mathrm{J}_{\text {書 }}$ と表記する。 $\mathrm{J}_{\text {話 }}-\mathrm{J}^{\text {書 }}$ の訓練 表 2 構築したデータセットの文数 開発・テストセットの文数を表 2 に示す。 ## 3.2 対訳コーパスの構築と統合 講義の書き起こし文から「こんにちは。」などの改めて翻訳する価値の低い文や内容の重複する文を除いて翻訳業者に依頼し、日英対訳コーパスを作成した。この英訳を以後 $\mathrm{E} と$ 表記する。これと話し言葉書き言葉変換コーパスを統合し、 $\mathrm{J}_{\text {話 }}-\mathrm{J}_{\text {書 }}-\mathrm{E}$ データセットを構築した。統合されたデータの文数は表 2 に示す。 ## 4 話し言葉書き言葉変換 ## 4.1 手法 LaserTagger[8] は、Sequence to Sequence の問題を Sequence Labeling として解くことが出来るモデルで、小さいデータセットでも良い性能を出せることと推論が高速であることが特徴である。話し言葉と書き言葉変換のタスクは、 2.1 章で示したように、多くは語彙の変換や削除で対応できるため、 LaserTagger が適用できる。ただし、倒置の修正は多くのトークンにまたがる変換であるため LaserTagger では解くことが難しいというデメリットがある。一方 Sequence to Sequence の手法はそのような制限はないため解ける可能性がある。 LaserTagger に必要となる事前訓練された BERT[9] モデルは、日本語 Wikipedia で訓練された $\mathrm{BERT}_{\text {large }}[10]$ を用いる。また、LaserTagger の Decoderには Transformer Decoder を使用した。 比較対象として、Sequence to Sequence のタスクで標準的なモデルである Transformer[11] を単言語コー パスで事前訓練できる手法である MASS[12]を用いて日本語話し言葉コーパス [13] で事前訓練したモデルを用いる。パラメータは MASS 著者による参考実装と同じものを用いた。 し、評価には SARI[14] という指標を用いる。文の単純化のタスクで提案された指標で、1-gram から 表 3 話し言葉書き言葉変換の評価 4-gram ごとの追加、維持の F1 スコアと削除の適合率の平均をスコアとする。 ## 4.2 結果と考察 結果を表 3 に示す。Transformer+MASS に比べ、 LaserTagger が高い精度を持っていることがわかる。 これは話し言葉と書き言葉でほとんどのトークンが同一であるというタスクの特性によるところが大きい。 ## 5 話し言葉書き言葉変換の日英翻訳 への影響 ## 5.1 手法 日本語話し言葉書き言葉変換モデルには、 4 章で述べた LaserTaggerを用いる。 日英翻訳モデルには Transformer を用いる。科学技術振興機構 (JST) が ASPEC[15] と同様の手法で、科学技術論文の概要の和文と英文をアラインメントして構築した日英対訳コーパス(訓練データ数:約 スの $\mathrm{J}_{\text {話 }}-\mathrm{E}$ または $\mathrm{J}_{\text {書 }}-\mathrm{E}$ で fine tuning を行う。本実験では参考実装である tensor2tensor[16] に実装された transformer_big モデルを利用する。2,000 ステップごとに開発データの翻訳を行って BLEU スコアを算出し、10 回連続で精度向上が見られなかったときに学習を中断する early stopping を行う。ただし fine tuning 時は 200 ステップごとに算出する。 この実験では表 2 の $\mathrm{J}_{\text {話 }}-\mathrm{J}_{\text {書 }}$ のデータ全体は使わず、 $\mathrm{J}_{\text {話 }} \mathrm{J}_{\text {書 }}-\mathrm{E}$ の対応がついている部分のみを用 Transformer は $\mathrm{J}_{\text {書 }}-\mathrm{E}$ のペアで fine tuning を行う。これによって話し言葉を自動で書き言葉に変換した後に日英翻訳を行うことができる。比較対象として、 $\mathrm{J}_{\text {話 }}-\mathrm{E}$ を学習させた Transformer に $\mathrm{J}_{\text {話 }}$ のテストデータを入力する場合と、 $\mathrm{J}_{\text {書 }}-\mathrm{E}$ を学習させた Transformer に $\mathrm{J}_{\text {書 }}$ のテストデータを入力する場合を考える。前者は話し言葉書き言葉変換による精度の変化を定量化するのに使い、後者は話し言葉書き言葉変換による精度向上の上限の指標とする。 最終的な評価指標には sacrebleu[17] による BLEU 表 4 話し言葉書き言葉変換による翻訳精度への影響スコアを使用する。 ## 5.2 結果と考察 以後、LaserTaggerによる出力を LT と表記し、*-E はそれぞれ対応する日英翻訳モデルからの出力を表すこととする。 結果を表 4 に示す。話し言葉書き言葉変換により BLEU スコアが向上しており、 $\mathrm{J}_{\text {書 }}-\mathrm{E}$ と同等のスコアを示した。 実際の変換結果を表 5 に示す。 る例である。LaserTagger は繰り返しを適切に削除することで簡潔な英訳の生成に成功している。 表 5 (中上)では音韻的な縮約と話し言葉に特有の終助詞「ね」を含む例で、LaserTagger は修正に成功している。また、修正後のテキストの英訳は「できる」の意味が訳出されておりより適切なものとなっている。しかし、このような語彙的な現象の修正による英訳の改善は珍しいことがわかった。例えば音韻的な縮約「んです」を含む 48 例の英訳を調査したところ、過半数は意味のある変化が見られず、改善した例と悪化した例の量の差も大きくなかった。 表 5 (中下)は倒置を含んでおり、LaserTagger は修正することができずに単に「、ちょうど」を削除している。また、「なんです」という音韻的な縮約を「なのです」に修正しているが、この例では $\mathrm{J}_{\mathbf{z}}-\mathrm{E}$ に問題は見られない。 表 5 (下)は LaserTagger が変換に失敗した影響で英訳にも問題が伝播している例である。「次の次」 は繰り返しにはなっているが削除すべき部分ではなく、これを削除してしまったために英訳の情報が欠けている。また、英訳には影響は見られないものの 「であれば」が不自然に挿入されていたり「は」だけが残っていたりと文法的におかしくなっている。 ## 6 おわりに 本研究では日本語の話し言葉と書き言葉の違いに着目し、両者の違いを表すデータセットを構築した \\ 話し言葉書き言葉変換による修正を期待する箇所、緑字は逆に修正すべきでない箇所、青字は修正ミスを表す。) 上で、話し言葉から書き言葉に自動で変換する手法を用いて日英翻訳の精度が向上することを示した。 今後の課題として、本研究では取り扱わなかったが、音声認識に誤りがある場合はそれがそのまま英訳されてしまう問題がある。今回のように翻訳の前処理としてそれらを修正したり、翻訳モデルを誤りに対してロバストにすることで対処するか、音声から直接翻訳テキストを生成する手法によりこれを解決できる可能性がある。 また、データ量の不足から関西弁などの方言を標準語に修正することはできていない。翻訳コーパスとして方言を含んだ日本語テキストは非常に少なく翻訳モデルの精度に影響があると考えられ、また外国人留学生をサポートするという目的においても標準語での字幕を提供することには価値がある。 謝辞本研究は、科研費\#19K20343 の助成を受けたものである。また、京都大学における講義翻訳プロジェクトを立ち上げられた大嶋正裕工学部長、協力いただいた株式会社アドバンスド・メディアに感謝致します。 ## 参考文献 [1] Markus Müller, Thai Son Nguyen, Jan Niehues, Eunah Cho, Bastian Krüger, Thanh-Le Ha, Kevin Kilgour, Matthias Sperber, Mohammed Mediani, Sebastian Stüker, and Alex Waibel. Lecture translator - speech translation framework for simultaneous lecture translation. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Demonstrations, pp. 82-86, San Diego, California, June 2016. Association for Computational Linguistics. [2] 須藤克仁, 林輝昭, 西村優汰, 中村哲. 授業アーカイブの翻訳字幕自動作成システムの試作. 研究報告自然言語処理 (NL), Vol. 2019, No. 15, pp. 1-4, 2019. [3] 島津明, 中野幹生, 堂坂浩二, 川森雅仁. 話し言葉対話の計算モデル. コロナ社, 第 1 版, 22014. [4] 杉戸清樹, 前川喜久雄, 小磯花絵, 西川賢哉, 間淵洋子, 小椋秀樹, 山口昌也, 丸山岳彦, 高梨克也, 内元清貴, 藤本雅子, 菊池英明, 五十嵐陽介,塚原渉. 日本語話し言葉コーパスの構築法, 3 2006. https://pj.ninjal.ac.jp/corpus_center/ csj/k-report-f/CSJ_rep.pdf. [5] 秋田祐哉, 三村正人, 河原達也. 会議録作成支援のための国会審議の音声認識システム. 電子情報通信学会論文誌, Vol. 93-D, No. 9, pp. 1736-1744, 2010. [6] Wen Wang, Gokhan Tur, Jing Zheng, and Necip Fazil Ayan. Automatic disfluency removal for improving spoken language translation. In 2010 IEEE International Conference on Acoustics, Speech and Signal Processing, pp. 5214-5217, 2010. [7] Elizabeth Salesky, Susanne Burger, Jan Niehues, and Alex Waibel. Towards fluent translations from disfluent speech. In 2018 IEEE Spoken Language Technology Workshop (SLT), pp. 921-926, 2018. [8] Eric Malmi, Sebastian Krause, Sascha Rothe, Daniil Mirylenka, and Aliaksei Severyn. Encode, tag, realize: High-precision text editing. In EMNLP-IJCNLP, 2019. [9] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. BERT: pre-training of deep bidirectional transformers for language understanding. CoRR, Vol. abs/1810.04805, , 2018. [10] 柴田知秀, 河原大輔, 黒橋禎夫. Bert による日本語構文解析の精度向上. 言語処理学会第 25 回年次大会, pp. 205-208, 32019. [11] Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, and Illia Polosukhin. Attention is all you need. CoRR, Vol. abs/1706.03762, , 2017. [12] Kaitao Song, Xu Tan, Tao Qin, Jianfeng Lu, and Tie-Yan Liu. Mass: Masked sequence to sequence pre-training for language generation. In International Conference on Machine Learning, pp. 5926-5936, 2019. [13] 前川喜久雄. 『日本語話し言葉コーパス』の概要. 日本語科学, Vol. 15, pp. 111-133, apr 2004. [14] Wei Xu, Courtney Napoles, Ellie Pavlick, Quanze Chen, and Chris Callison-Burch. Optimizing statistical machine translation for text simplification. Transactions of the Association for Computational Linguistics, Vol. 4, pp. 401-415, 2016. [15] Toshiaki Nakazawa, Manabu Yaguchi, Kiyotaka Uchimoto, Masao Utiyama, Eiichiro Sumita, Sadao Kurohashi, and Hitoshi Isahara. Aspec: Asian scientific paper excerpt corpus. In Nicoletta Calzolari (Conference Chair), Khalid Choukri, Thierry Declerck, Marko Grobelnik, Bente Maegaard, Joseph Mariani, Asuncion Moreno, Jan Odijk, and Stelios Piperidis, editors, Proceedings of the Ninth International Conference on Language Resources and Evaluation (LREC 2016), pp. 2204-2208, Portorož, Slovenia, may 2016. European Language Resources Association (ELRA). [16] Ashish Vaswani, Samy Bengio, Eugene Brevdo, Francois Chollet, Aidan N. Gomez, Stephan Gouws, Llion Jones, Lukasz Kaiser, Nal Kalchbrenner, Niki Parmar, Ryan Sepassi, Noam Shazeer, and Jakob Uszkoreit. Tensor2tensor for neural machine translation. CoRR, Vol. abs/1803.07416, , 2018. [17] Matt Post. A call for clarity in reporting BLEU scores. In Proceedings of the Third Conference on Machine Translation: Research Papers, pp. 186-191, Belgium, Brussels, oct 2018. Association for Computational Linguistics.
NLP-2021
cc-by-4.0
(C) The Association for Natural Language Processing, (Licensed under CC BY 4.0)https://creativecommons.org/licenses/by/4.0/